KR102595416B1 - 음영지역에서 자율주행차량의 위치추정방법 및 이를 위한 자율주행시스템 - Google Patents

음영지역에서 자율주행차량의 위치추정방법 및 이를 위한 자율주행시스템 Download PDF

Info

Publication number
KR102595416B1
KR102595416B1 KR1020210154530A KR20210154530A KR102595416B1 KR 102595416 B1 KR102595416 B1 KR 102595416B1 KR 1020210154530 A KR1020210154530 A KR 1020210154530A KR 20210154530 A KR20210154530 A KR 20210154530A KR 102595416 B1 KR102595416 B1 KR 102595416B1
Authority
KR
South Korea
Prior art keywords
vehicle
tunnel
location
sensing data
autonomous
Prior art date
Application number
KR1020210154530A
Other languages
English (en)
Other versions
KR20230068586A (ko
Inventor
김태형
윤형석
김봉섭
윤경수
Original Assignee
재단법인 지능형자동차부품진흥원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 지능형자동차부품진흥원 filed Critical 재단법인 지능형자동차부품진흥원
Priority to KR1020210154530A priority Critical patent/KR102595416B1/ko
Publication of KR20230068586A publication Critical patent/KR20230068586A/ko
Application granted granted Critical
Publication of KR102595416B1 publication Critical patent/KR102595416B1/ko

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0052Filtering, filters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0057Frequency analysis, spectral techniques or transforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/52
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/06Direction of travel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

터널 등과 같이 GPS신호로 차량 위치를 인식할 수 없는 주행환경에서 차량의 위치를 정확하게 추정하여 자율주행을 제어할 수 있는 자율주행차량의 위치추정방법이 제공된다. 위치추정방법은 설정된 주행경로를 따라 자율주행하는 차량의 터널진입을 판단하고, 이에 따른 터널 내 촬영영상 및 센싱데이터에 기초하여 차량의 위치를 추정하여 이에 따라 터널 내에서 차량의 자율주행을 제어한다.

Description

음영지역에서 자율주행차량의 위치추정방법 및 이를 위한 자율주행시스템{Method for estimating location of autonomous vehicle in shadow area and autonomous driving system for thereof}
본 발명은 자율주행차량의 위치추정방법에 관한 것으로, 특히 터널이나 지하차도와 같은 음영지역과 같이 GPS신호로 차량 위치를 인식하여 검출할 수 없는 주행환경에서 차량의 위치를 정확하게 추정하여 자율주행을 제어할 수 있는 자율주행차량의 위치추정방법 및 이를 위한 자율주행시스템에 관한 것이다.
자율주행 자동차는 지능형 자동차 기술의 집합체로 운전자가 차량에 탑승하여 원하는 목적지를 지정하면 이후 특별한 조작을 하지 않아도 현재 위치나 목적지까지 최적의 경로를 생성하여 주행을 수행할 수 있다.
또한, 자율주행 자동차는 도로의 교통신호나 표지판을 인지하고, 교통 흐름에 맞게 적절한 속도를 유지, 위험상황을 인지하여 사고예방에 능동적으로 대처할 수 있으며, 스스로 차선을 유지하며 필요한 경우에는 차선변경이나 추월, 장애물 등을 회피하기 위해 적절한 조향을 하며 원하는 목적지까지 주행할 수 있다.
자율주행 자동차는 2000년대 미국방위고등연구계획국 DARPA 주관인 DARPA Challenge 이후 각국 정부와 IT 기업 들의 개발 경쟁에 따라 속도가 상상보다 빨라졌다.
이러한 자율주행 자동차의 발전에 따라, 자율주행 자동차의 위치추정 기술에 대해서도 많은 연구가 진행되고 있다. 이러한 자율주행 자동차의 위치추정은 일반적으로 차량에 탑재된 GPS센서를 이용한 위성항법시스템(global navigation satellite system)가 많이 사용된다.
그러나, 자율주행 자동차가 터널 등의 지역을 주행하는 경우에는 전술된 GPS센서를 이용할 수 없게 되어 자율주행 자동차의 위치추정에 심각한 오류가 발생되며, 이로인해 차량사고 등의 문제가 발생될 수 있다.
이에, 한국 공개특허공보 제2017-0068937호에는 터널의 조명을 이용하여 자율주행 자동차에 대한 차량 항법 시스템을 제공하는 기술이 개시되어 있다. 그러나, 종래의 터널 조명을 이용한 자율주행 차량의 항법 시스템은 터널마다 서로 다른 조명의 형태, 크기, 간격 및 조도에 의해 차량 위치추정의 정밀도가 저하되는 문제가 있다.
공개특허공보 제2017-0068937호(2017.06.20)
본 발명은 자율주행차량의 위치추정방법에 관한 것으로, 특히 터널 등과 같은 음영지역과 같이 GPS신호로 차량 위치를 인식하여 검출할 수 없는 주행환경에서 차량의 위치를 정확하게 추정하여 자율주행을 제어할 수 있는 자율주행차량의 위치추정방법 및 자율주행시스템을 제공하고자 하는 데 있다.
본 발명의 실시예에 따른 자율주행차량의 위치추정방법은, 설정된 주행경로를 따라 자율주행하는 차량의 터널진입을 판단하는 단계; 상기 차량의 터널 진입이 판단되면, 터널 내 촬영영상 및 센싱데이터에 기초하여 차량의 위치를 추정하는 단계; 및 추정된 차량 위치에 기초하여 터널 내에서 차량의 자율주행을 제어하는 단계를 포함한다.
본 발명의 실시예에 따른 자율주행시스템은, 차량 주변의 영상을 촬영하는 촬영부; 상기 차량의 상태 및 주행환경을 감지하는 센서부; 상기 차량의 터널 진입이 판단되면, 상기 촬영부에서 출력된 촬영영상 및 상기 센서부에서 출력된 센싱데이터에 기초하여 터널 내부에서 상기 차량의 위치를 추정하여 검출하는 위치판단모듈; 및 상기 센서부 및 위치판단모듈 중 적어도 하나에서 제공되는 차량 위치정보에 기초하여 기 설정된 주행경로를 따라 상기 차량이 자율주행하도록 제어하는 주행제어부를 포함한다.
본 발명의 자율주행차량의 위치추정방법은, 촬영부에 의해 촬영된 터널 내 영상과 함께 라이다센서에서 감지된 터널 내 구조물에 대한 센싱데이터에 기초하여 터널 내에서 차량의 위치추정을 위한 복수의 랜드마크를 설정함으로써, 터널 내부를 주행하는 차량의 정확한 위치를 추정하여 자율주행의 제어 정확도 및 신뢰도를 높일 수 있다.
도 1은 본 발명의 실시예에 따른 자율주행시스템을 나타내는 도면이다.
도 2 및 도 3은 본 발명의 실시예에 따른 자율주행시스템의 차량 위치추정방법을 나타내는 도면이다.
도 4 내지 도 7은 본 발명의 차량 위치추정방법의 다양한 실시예들을 나타내는 도면들이다.
본 명세서 및 청구범위에서 사용되는 용어는 본 발명의 다양한 실시 예들에서의 기능을 고려하여 일반적인 용어들을 선택하였다. 하지만, 이러한 용어들은 당 분야에 종사하는 기술자의 의도나 법률적 또는 기술적 해석 및 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 일부 용어는 출원인이 임의로 선정한 용어일 수 있다. 이러한 용어에 대해서는 본 명세서에서 정의된 의미로 해석될 수 있으며, 구체적인 용어 정의가 없으면 본 명세서의 전반적인 내용 및 당해 기술 분야의 통상적인 기술 상식을 토대로 해석될 수도 있다.
또한, 본 명세서에 첨부된 각 도면에 기재된 동일한 참조 번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다. 설명 및 이해의 편의를 위해서 서로 다른 실시 예들에서도 동일한 참조번호 또는 부호를 사용하여 설명하도록 한다. 즉, 복수의 도면에서 동일한 참조 번호를 가지는 구성 요소를 모두 도시하고 있다고 하더라도, 복수의 도면들이 하나의 실시 예를 의미하는 것은 아니다.
또한, 본 명세서 및 청구범위에서는 구성요소들 간의 구별을 위하여 '제1', '제2' 등과 같이 서수를 포함하는 용어가 사용될 수 있다. 이러한 서수는 동일 또는 유사한 구성 요소들을 서로 구별하기 위하여 사용하는 것이며, 이러한 서수 사용으로 인하여 용어의 의미가 한정 해석되어서는 안될 것이다. 일 예로, 이러한 서수와 결합된 구성 요소는 그 숫자에 의해 사용 순서나 배치 순서 등이 제한 해석되어서는 안된다. 필요에 따라서는, 각 서수들은 서로 교체되어 사용될 수도 있다.
본 명세서에서 단수의 표현은 문맥상 명백하게 다름을 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, '포함하다' 또는 '구성하다' 등의 용어는 명세서 상에 기재된 특성, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특성들이나 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
또한, 본 발명의 실시 예에서, 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적인 연결뿐 아니라, 다른 매체를 통한 간접적인 연결의 경우도 포함한다. 또한 어떤 부분이 어떤 구성 요소를 포함한다는 의미는, 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있다는 것을 의미한다.
도 1은 본 발명의 실시예에 따른 자율주행시스템을 나타내는 도면이다.
본 실시예의 자율주행시스템(100)은 설정된 주행경로를 따라 도로를 자율주행하는 차량(미도시) 내에 탑재될 수 있으며, 주행 중 감지되는 다양한 도로환경에 따라 차량의 위치를 정확하게 추정하여 주행제어를 수행함으로써 안전한 자율주행이 이루어지도록 할 수 있다.
이러한 자율주행시스템(100)은 촬영부(110), 센서부(120), 주행제어부(130), 표시부(140), 지도저장부(150) 및 위치판단모듈(160)을 포함할 수 있다.
촬영부(110)는 차량에 하나 이상 구비되어 주행중인 차량의 주변에 대한 영상을 실시간으로 촬영할 수 있다. 촬영부(110)는 촬영된 영상을 주행제어부(130)로 제공할 수 있다.
센서부(120)는 차량의 내/외부에 복수개로 구비되어 주행중인 차량의 상태 및 차량의 주행환경을 실시간으로 센싱할 수 있다. 센서부(120)는 감지결과, 즉 차량상태정보 및 주행환경정보를 포함하는 센싱데이터를 주행제어부(130)로 제공할 수 있다.
이러한 센서부(120)는 차속센서, 가속도센서, 요레이트센서, 조향각센서, 조향토크센서 등과 같은 차량상태를 센싱할 수 있는 다수의 센서들 또는 GPS센서, 레이더센서, 라이다(Lidar)센서 등과 같은 주행환경을 센싱할 수 있는 다수의 센서들을 포함할 수 있다.
주행제어부(130)는 사용자, 즉 차량의 운전자로부터 입력된 목적지정보에 따라 출발지에서 목적지까지의 주행경로를 설정할 수 있다. 주행제어부(130)는 설정된 주행경로를 지도저장부(150)로부터 제공된 지도정보 상에 맵핑하고, 전술된 촬영부(110) 및 센서부(120)에서 제공되는 영상 및 센싱데이터에 기초하여 주행경로를 따라 차량의 자율주행을 제어할 수 있다.
예컨대, 주행제어부(130)는 센서부(120)에서 제공된 위치정보, 즉 GPS정보에 기초하여 인식된 차량의 위치를 주행경로가 포함된 지도정보에 맵핑할 수 있다. 이어, 주행제어부(130)는 촬영부(110) 및 센서부(120)에서 제공된 영상 및 센싱데이터에 기초하여 차량의 다수의 구동모듈, 예컨대 조향모듈(미도시), 제동모듈(미도시), 구동모듈(미도시) 또는 HMI모듈(미도시) 등을 제어함으로써, 주행경로를 따라 차량이 자율주행하도록 제어할 수 있다.
이때, 주행제어부(130)는 실시간으로 제공되는 영상 및 센싱데이터에 기초하여 차량의 주행에 따른 위치변화 및 도로의 교통환경 등을 분석하고, 그에 따라 차량의 경로유지 또는 변경, 속도유지 또는 변경, 방향유지 또는 변경 등의 주행제어를 수행할 수 있다. 이와 함께, 주행제어부(130)는 차량의 각종 등화기구에 대한 온오프(on-off) 제어, 차량 내 계기판 표시제어, 음향이나 영상 등의 멀티미디어 출력제어 등을 포함하는 주행제어를 수행할 수 있다.
한편, 차량이 일반적인 주행환경, 예컨대 센서부(120)에 의해 위치정보가 인식되어 검출될 수 있는 개방된 주행환경을 주행하는 경우에, 주행제어부(130)는 센서부(120)로부터 제공된 위치정보에 기초하여 차량의 주행제어를 수행할 수 있다. 반면에, 차량이 특정 주행환경, 예컨대 센서부(120)에서 위치정보가 인식되어 검출되지 않는 터널이나 지하도로 등의 폐쇄된 주행환경을 주행하는 경우에, 주행제어부(130)는 후술될 위치판단모듈(160)로부터 제공된 위치정보에 기초하여 차량의 주행제어를 수행할 수 있다.
표시부(140)는 지도저장부(150)에서 주행경로가 포함된 지역의 지도정보를 제공받아 화면상에 표시할 수 있다. 또한, 표시부(140)는 차량의 주행에 따른 위치변화를 센서부(120), 주행제어부(130) 및 위치판단모듈(160) 중 적어도 하나로부터 수신하여 기 표시된 주행경로에 차량의 이동궤적이 나타나도록 표시할 수 있다.
지도저장부(150)에는 다수의 지역에 대한 도로, 건물 등이 정밀하게 나타나 있는 다수의 지도정보가 저장될 수 있다. 지도저장부(150)는 주행제어부(130)에서 설정된 주행경로가 포함된 지역에 대한 하나 이상의 지도정보를 주행제어부(130) 및 표시부(140)로 출력할 수 있다.
위치판단모듈(160)은 차량의 특정 주행환경, 즉 센서부(120)에서 차량의 위치를 인식할 수 없는 주행환경을 감지하고, 이에 따라 차량의 위치를 추정하여 차량 위치정보를 출력할 수 있다. 위치판단모듈(160)에서 추정된 위치정보는 주행제어부(130)로 출력될 수 있다. 위치판단모듈(160)은 영상 및 데이터 전처리부(161), 구조물패턴추출부(163) 및 차량위치추정부(165)를 포함할 수 있다.
영상 및 데이터 전처리부(161)는 촬영부(110)에서 출력된 촬영영상을 전처리하여 이진화 영상을 출력할 수 있다. 영상 및 데이터 전처리부(161)에는 영상의 이진화를 수행하는 다양한 이진화 알고리즘, 예컨대 고정 또는 가변 이진화 알고리즘 또는 OTSU 이진화 알고리즘 등이 포함될 수 있다.
또한, 영상 및 데이터 전처리부(161)는 센서부(120)에서 출력된 센싱데이터를 전처리하여 출력할 수 있다. 센서부(120)에서 출력되는 센싱데이터는 라이다센서에서 출력되는 점군(point cloud) 형태의 데이터일 수 있다. 라이다센서는 차량 주변으로 레이저를 조사하여 물체에 의해 반사되는 레이저에 따라 물체와의 거리정보 및 물체의 레이저 반사강도정보를 센싱데이터로 출력할 수 있다. 이에, 영상 및 데이터 전처리부(161)는 라이다센서에서 출력된 센싱데이터 중에서 일정값 이상의 반사도를 갖는 하나 이상의 데이터를 출력할 수 있다.
한편, 앞서 설명한 바와 같이, 본 실시예의 위치판단모듈(160)은 차량이 터널 등의 폐쇄된 공간을 주행하는 경우에 동작될 수 있다. 이에, 촬영부(110)에서 출력되는 영상은 터널 내부에서 촬영된 영상이고, 센서부(120)의 라이다센서에서 출력되는 센싱데이터는 터널 내부에서 센싱된 데이터일 수 있다.
여기서, 터널은 각각이 내측벽과 천정으로 이루어진 다수의 터널모듈 및 상기 다수의 터널모듈 간을 연결하는 다수의 구조물로 이루어질 수 있다. 터널모듈은 콘크리트로 형성되며, 터널구조물은 상기 터널모듈과 다른 성분을 갖는 매질, 예컨대 금속재질로 형성될 수 있다.
이러한 터널모듈과 터널구조물의 매질차이로 인해 센서부(120)의 라이다센서에서 출력되는 센싱데이터는 터널모듈과 터널구조물 간 반사도의 차이가 발생된다. 이러한 반사도 차이에 따라 영상 및 데이터 전처리부(161)는 라이다센서에서 출력된 센싱데이터 중 필터링을 통해 특정 반사도값 이상의 데이터를 추출하여 출력할 수 있다.
구조물패턴추출부(163)는 영상 및 데이터 전처리부(161)에서 출력된 전처리된 영상 및 센싱데이터로부터 터널구조물에 대한 패턴성분을 추출할 수 있다. 구조물패턴추출부(163)는 전처리된 센싱데이터, 즉 터널구조물에 대한 센싱데이터를 전처리된 영상에 투영시켜 매칭할 수 있다. 이어, 매칭된 영상의 검증을 통해 센싱데이터에 대한 클러스터링을 수행하고, 이를 통해 생성된 복수개의 클러스터 각각에서 터널구조물의 패턴성분, 예컨대 직선성분을 추출할 수 있다.
구조물패턴추출부(163)는 Euclidean Clutering, K-means Clustering, DBSCAN 등의 다양한 클러스터링 알고리즘을 이용하여 클러스터링을 수행할 수 있다. 또한, 구조물패턴추출부(163)는 클러스터링을 통해 생성된 복수의 클러스터 각각의 데이터 근사화를 수행하여 터널구조물에 대한 복수의 패턴성분을 추출할 수 있다. 추출된 복수의 패턴성분 각각은 터널 내부에서 차량의 위치를 추정하기 위한 랜드마크로 이용될 수 있다.
차량위치추정부(165)는 추출된 터널구조물의 패턴성분에 기초하여 차량의 위치를 추정할 수 있다. 차량위치추정부(165)는 각 패턴성분과 차량 간의 상대거리 및 각도를 산출할 수 있다. 이어, 차량의 주행에 따른 상대거리 및 각도의 변화량을 분석하고, 분석결과로부터 차량의 위치를 추정할 수 있다.
추정된 차량위치는 주행제어부(130)에 위치정보로 출력될 수 있다. 이에, 주행제어부(130)는 위치판단모듈(160)에서 출력된 터널 내 차량의 위치정보에 기초하여 차량의 자율주행을 제어할 수 있다.
상술한 바와 같이, 본 실시예에 따른 자율주행시스템(100)은 센서부(120)의 GPS센서로부터 차량위치가 인식되지 않는 주행환경에서 차량 주변의 촬영영상과 라이다센서의 센싱데이터에 기초하여 설정된 하나 이상의 랜드마크로 차량의 위치를 추정함으로써, 터널 등을 주행하는 차량의 위치를 정확하게 파악하여 차량의 자율주행제어를 효율적으로 할 수 있다.
도 2 및 도 3은 본 발명의 실시예에 따른 자율주행시스템의 차량 위치추정방법을 나타내는 도면이고, 도 4 내지 도 7은 본 발명의 차량 위치추정방법의 다양한 실시예들을 나타내는 도면들이다.
차량이 기 설정된 주행경로를 따라 자율주행을 하는 동안에, 주행제어부(130)는 센서부(120)의 GPS센서에서 출력되는 위치정보에 기초하여 차량의 주행환경, 즉 터널 진입을 판단할 수 있다(S10).
주행제어부(130)는 센서부(120)에서 출력되는 위치정보에 대한 오차 공분산이 일정 수준 이상으로 증가될 경우에 차량의 주행환경 변화를 판단하고, 상기 위치정보를 지도저장부(150)에서 제공된 지도정보에 맵핑하여 차량의 터널 진입을 판단할 수 있다.
차량의 터널 진입이 판단되면, 위치판단모듈(160)은 촬영부(110)에서 출력된 촬영영상과 센서부(120)의 라이다센서에서 출력된 센싱데이터에 기초하여 터널 내부에서 차량의 위치를 추정할 수 있다(S20).
위치판단모듈(160)의 영상 및 데이터 전처리부(161)는 촬영부(110)에서 출력된 촬영영상, 예컨대 터널 내부에서 촬영된 영상을 전처리하여 출력할 수 있다(S21).
도 4의 (a)와 같이, 촬영부(110)에서 출력되는 촬영영상은 터널 내부에서 촬영된 컬러형태의 영상일 수 있다. 또한, 도 4의 (b)와 같이, 영상 및 데이터 전처리부(161)는 촬영영상을 이진화영상으로 변환하는 전처리를 수행하여 터널 내부에 대한 이진화영상을 출력할 수 있다. 도 4의 (b)에 도시된 도면부호 TS1은 이진화영상 중 터널 내부의 터널구조물에 대응되는 부분을 나타낸다.
이와 함께, 영상 및 데이터 전처리부(161)는 센서부(120)의 라이다센서에서 출력된 터널 내부의 센싱데이터를 전처리하여 출력할 수 있다(S23).
도 5의 (a)에 도시된 바와 같이, 라이다센서는 터널 내부에서 터널모듈 및 터널구조물로부터 반사되는 레이저를 감지하여 점군 형태의 센싱데이터를 출력할 수 있다. 이러한 센싱데이터에는 터널모듈 및 터널구조물에 의한 반사도 값, 즉 반사강도정보가 포함될 수 있다. 여기서, 터널모듈의 반사도는 터널구조물의 반사도와 다른 값, 예컨대 작은 값을 가질 수 있다.
이에, 도 5의 (b)에 도시된 바와 같이, 영상 및 데이터 전처리부(161)는 센서부(120)에서 출력된 센싱데이터 중에서 일정 반사도 이상의 값을 갖는 하나 이상의 센싱데이터를 추출할 수 있다. 다시 말해, 영상 및 데이터 전처리부(161)는 센싱데이터의 필터링을 통해 터널구조물에 대한 센싱데이터(TS2)를 추출하여 출력할 수 있다.
계속해서, 구조물패턴추출부(163)는 전처리된 영상과 센싱데이터를 매칭하고(S23), 매칭된 영상의 센싱데이터에서 터널구조물에 대한 패턴성분을 추출할 수 있다(S24).
도 6에 도시된 바와 같이, 구조물패턴추출부(163)는 전처리된 센싱데이터, 즉 터널구조물의 센싱데이터(TS2)를 전처리된 영상에 투영시켜 매칭할 수 있다. 구조물패턴추출부(163)는 매칭영상에서 터널구조물에 대한 전처리영상(TS1)과 터널구조물에 대한 센싱데이터(TS2)의 일치여부를 판단할 수 있다.
그리고, 구조물패턴추출부(163)는 판단결과에 기초하여 센싱데이터(TS2)의 클러스터링을 수행하고, 이로 인해 생성된 복수의 클러스터 각각의 근사화를 통해 각 클러스터에 대한 패턴성분(도 7의 PC1~PC4)을 추출할 수 있다. 추출된 패턴성분(PC1~PC4)은 각 클러스터에 대한 직선성분이며, 이러한 패턴성분(PC1~PC4)은 터널 내부의 랜드마크로 설정될 수 있다. 여기서, 패턴성분(PC1~PC4)은 터널 내부에서 차량의 진행방향에 대하여 차량 좌/우측에 하나 이상 추출될 수 있다.
다음으로, 차량위치추정부(165)는 터널구조물에 대한 패턴성분(PC1~PC4)에 기초하여 각 패턴성분(PC1~PC4)과 차량 간 상대거리와 각도를 산출할 수 있다(S25).
예컨대, 도 7에 도시된 바와 같이, 차량의 진행방향에 대하여 차량 좌측으로 제1패턴성분(PC1) 및 제2패턴성분(PC2)이 각각 추출되고, 차량 우측으로 제3패턴성분(PC3) 및 제4패턴성분(PC4)이 각각 추출될 수 있다.
차량위치추정부(165)는 차량의 기준점을 설정하고, 설정된 기준점에서 각 패턴성분(PC1~PC4)의 중심점까지의 거리를 상대거리로 산출할 수 있다. 또한, 차량위치추정부(165)는 차량의 진행방향을 기준으로 기준점과 각 패턴성분(PC1~PC4) 간 각도를 산출할 수 있다.
계속해서, 차량위치추정부(165)는 산출된 상대거리 및 각도에 기초하여 터널 내부에서 차량의 현재 위치를 추정하여 인식할 수 있다. 추정된 차량위치에 따른 위치정보는 주행제어부(130)로 출력될 수 있다.
이어, 차량위치추정부(165)는 차량의 주행에 따라 달라지는 상대거리 및 각도의 변화량을 분석하여 차량의 위치를 다시 추정하고, 그에 따른 변화된 차량 위치정보를 출력할 수 있다(S26).
이에, 주행제어부(130)는 차량위치추정부(165)에서 출력되는 차량 위치정보에 기초하여 터널 내에서 차량의 자율주행을 제어할 수 있다(S30).
상술한 바와 같이, 본 실시예의 차량위치추정방법은 촬영부에 의해 촬영된 터널 내 영상과 함께 라이다센서에서 감지된 터널 내 구조물에 대한 센싱데이터에 기초하여 터널 내에서 차량의 위치추정을 위한 복수의 랜드마크를 설정함으로써, 터널 내부를 주행하는 차량의 정확한 위치를 추정하여 자율주행의 제어 정확도 및 신뢰도를 높일 수 있다.
이상, 본 발명의 일 실시 예에 대하여 설명하였으나, 해당 기술 분야에서 통상의 지식을 가진 자라면 특허청구범위에 기재된 본 발명의 사상으로부터 벗어나지 않는 범위 내에서, 구성 요소의 부가, 변경, 삭제 또는 추가 등에 의해 본 발명을 다양하게 수정 및 변경시킬 수 있을 것이며, 이 또한 본 발명의 권리범위 내에 포함된다고 할 것이다.
또한, 전술된 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로, 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 하여 내려져야 할 것이다.
100: 자율주행시스템 110: 촬영부
120: 센서부 130: 주행제어부
140: 표시부 150: 지도저장부
160: 위치판단모듈 161: 영상 및 데이터 전처리부
163: 구조물패턴추출부 165: 차량위치추정부

Claims (10)

  1. 설정된 주행경로를 따라 자율주행하는 차량의 터널진입을 판단하는 단계;
    상기 차량의 터널 진입이 판단되면, 터널 내 촬영영상 및 센싱데이터에 기초하여 차량의 위치를 추정하는 단계; 및
    추정된 차량 위치에 기초하여 터널 내에서 차량의 자율주행을 제어하는 단계;를 포함하고,
    상기 차량의 위치를 추정하는 단계는,
    상기 촬영영상 및 센싱데이터 각각을 전처리하는 단계;
    전처리된 센싱데이터를 전처리된 촬영영상에 투영시켜 매칭하는 단계;
    매칭된 영상에서 상기 전처리된 센싱데이터로부터 터널 구조물에 대한 패턴성분을 추출하는 단계;
    상기 차량과 상기 패턴성분 간의 상대거리를 산출하고, 상기 차량의 진행방향을 기준으로 상기 차량과 상기 패턴성분 간의 각도를 산출하는 단계; 및
    상기 차량의 주행에 따른 상기 상대거리 및 각도의 변화량을 분석하여 차량의 위치를 추정하여 터널 내 차량의 위치정보를 출력하는 단계; 를 포함하는 것을 특징으로 하는 자율주행차량의 위치추정방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 전처리하는 단계는,
    상기 촬영영상을 이진화영상으로 변환하는 단계; 및
    상기 센싱데이터를 필터링하여 일정값 이상의 반사도를 갖는 센싱데이터를 추출하는 단계를 포함하는 것을 특징으로 하는 자율주행차량의 위치추정방법.
  4. 제3항에 있어서,
    상기 센싱데이터는 상기 터널의 터널모듈과 터널구조물 각각에 대하여 상기 차량의 라이다센서에서 출력되는 센싱데이터이고,
    상기 센싱데이터를 추출하는 단계는,
    상기 센싱데이터를 필터링하여 상기 터널구조물에 대한 센싱데이터를 추출하는 단계인 것을 특징으로 하는 자율주행차량의 위치추정방법.
  5. 제1항에 있어서,
    상기 패턴성분을 추출하는 단계는,
    상기 전처리된 센싱데이터의 클러스터링을 수행하여 복수의 클러스터를 생성하는 단계; 및
    상기 복수의 클러스터 각각을 근사화하여 상기 복수의 클러스터 각각에 대한 상기 패턴성분을 추출하는 단계를 포함하는 것을 특징으로 하는 자율주행차량의 위치추정방법.
  6. 삭제
  7. 제1항에 있어서,
    상기 터널진입을 판단하는 단계는,
    상기 차량의 GPS센서에서 출력된 위치정보의 오차 공분산에 기초하여 주행환경의 변화를 판단하는 단계; 및
    상기 위치정보를 지도정보에 맵핑하여 상기 차량의 터널진입을 판단하는 단계를 포함하는 것을 특징으로 하는 자율주행차량의 위치추정방법.
  8. 제1항, 제3항 내지 제5항, 제7항 중 어느 한 항에 따른 자율주행차량의 위치추정방법을 위한 자율주행시스템으로,
    상기 자율주행시스템은,
    차량 주변의 영상을 촬영하는 촬영부;
    상기 차량의 상태 및 주행환경을 감지하는 센서부;
    상기 차량의 터널 진입이 판단되면, 상기 촬영부에서 출력된 촬영영상 및 상기 센서부에서 출력된 센싱데이터에 기초하여 터널 내부에서 상기 차량의 위치를 추정하여 인식하는 위치판단모듈; 및
    상기 센서부 및 위치판단모듈 중 적어도 하나에서 제공되는 차량 위치정보에 기초하여 기 설정된 주행경로를 따라 상기 차량이 자율주행하도록 제어하는 주행제어부를 포함하는 것을 특징으로 하는 자율주행시스템.
  9. 제8항에 있어서,
    상기 위치판단모듈은,
    상기 촬영영상 및 센싱데이터 각각을 전처리하여 출력하는 영상 및 데이터 전처리부;
    전처리된 촬영영상 및 센싱데이터로부터 터널구조물에 대한 패턴성분을 추출하는 구조물패턴추출부; 및
    추출된 상기 패턴성분에 기초하여 터널 내 차량의 위치를 추정하는 차량위치추정부를 포함하는 것을 특징으로 하는 자율주행시스템.
  10. 제8항에 있어서,
    상기 센서부는 GPS센서 및 라이다센서 중 적어도 하나를 포함하는 것을 특징으로 하는 자율주행시스템.

KR1020210154530A 2021-11-11 2021-11-11 음영지역에서 자율주행차량의 위치추정방법 및 이를 위한 자율주행시스템 KR102595416B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210154530A KR102595416B1 (ko) 2021-11-11 2021-11-11 음영지역에서 자율주행차량의 위치추정방법 및 이를 위한 자율주행시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210154530A KR102595416B1 (ko) 2021-11-11 2021-11-11 음영지역에서 자율주행차량의 위치추정방법 및 이를 위한 자율주행시스템

Publications (2)

Publication Number Publication Date
KR20230068586A KR20230068586A (ko) 2023-05-18
KR102595416B1 true KR102595416B1 (ko) 2023-10-27

Family

ID=86545518

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210154530A KR102595416B1 (ko) 2021-11-11 2021-11-11 음영지역에서 자율주행차량의 위치추정방법 및 이를 위한 자율주행시스템

Country Status (1)

Country Link
KR (1) KR102595416B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007519001A (ja) 2004-01-20 2007-07-12 エスケーテレコム カンパニー リミテッド Gps電波陰影地域におけるgps端末機及び位置探索器を利用した、端末機の位置測定方法及び位置測定システム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101042953B1 (ko) * 2009-07-10 2011-06-20 한국과학기술원 음영지역 지리정보 검색 시스템 및 방법
KR102428765B1 (ko) 2015-12-10 2022-08-02 현대모비스 주식회사 터널 조명을 이용한 자율주행 차량 항법 시스템
KR101855088B1 (ko) * 2016-07-07 2018-05-04 (주)넷케이티아이 비콘을 활용한 gps 음영지역 해소 방법 및 시스템

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007519001A (ja) 2004-01-20 2007-07-12 エスケーテレコム カンパニー リミテッド Gps電波陰影地域におけるgps端末機及び位置探索器を利用した、端末機の位置測定方法及び位置測定システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
임준혁외 2명. 터널 내 소화기 표시등 검출을 이용한 3D LIDAR 기반 차량정밀측위. 제어 로봇 시스템학회. 2018.06.07., pp703-709 1부*

Also Published As

Publication number Publication date
KR20230068586A (ko) 2023-05-18

Similar Documents

Publication Publication Date Title
US11636362B1 (en) Predicting trajectory intersection by another road user
AU2020202527B2 (en) Using wheel orientation to determine future heading
US11645852B2 (en) Traffic light detection and lane state recognition for autonomous vehicles
CN114312844B (zh) 检测和响应警报
US9915951B2 (en) Detection of overhanging objects
US20220155415A1 (en) Detecting Spurious Objects For Autonomous Vehicles
US10740630B1 (en) Plane estimation for contextual awareness
US11854229B2 (en) Object localization for autonomous driving by visual tracking and image reprojection
US11126197B2 (en) Verification of iterative closest point alignments for autonomous vehicles
KR102595416B1 (ko) 음영지역에서 자율주행차량의 위치추정방법 및 이를 위한 자율주행시스템
US20230334873A1 (en) Systems and methods for detecting traffic lights using hierarchical modeling

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant