KR101454153B1 - 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템 - Google Patents

가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템 Download PDF

Info

Publication number
KR101454153B1
KR101454153B1 KR20130116007A KR20130116007A KR101454153B1 KR 101454153 B1 KR101454153 B1 KR 101454153B1 KR 20130116007 A KR20130116007 A KR 20130116007A KR 20130116007 A KR20130116007 A KR 20130116007A KR 101454153 B1 KR101454153 B1 KR 101454153B1
Authority
KR
South Korea
Prior art keywords
information
lane
autonomous
position information
autonomous vehicle
Prior art date
Application number
KR20130116007A
Other languages
English (en)
Inventor
윤복중
김정하
Original Assignee
국민대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국민대학교산학협력단 filed Critical 국민대학교산학협력단
Priority to KR20130116007A priority Critical patent/KR101454153B1/ko
Application granted granted Critical
Publication of KR101454153B1 publication Critical patent/KR101454153B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3658Lane guidance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Navigation (AREA)

Abstract

본 발명은 저가의 센서를 융합하여 위치결정에 사용하고, 영상센서를 이용하여 검출한 차선정보의 매칭을 통해 위치정보를 보정함으로써, 위치 정확도를 확보하고 안정적인 무인자율주행을 수행할 수 있는 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템에 관한 것으로, 본 발명은 무인 자율주행 자동차의 위치정보를 실시간 측정하는 위치정보 측정부와, 저장된 지도정보에 근거하고, 경유점(Way Point)을 사용하여 생성된 가상의 차선정보(Virtual Lane)를 포함하는 주행경로를 설정하는 가상경로 설정부와, 상기 차선정보 설정부를 통해 설정된 주행경로를 따라 주행 중인 상기 무인 자율주행 자동차의 실제 차선정보를 실시간 획득하는 주행정보 검출부와, 상기 위치정보 측정부를 통해 측정된 위치정보의 오차를 보정하는 위치정보 보정부 및 상기 무인 자율주행 자동차의 보정된 위치정보를 출력하는 위치정보 출력부를 포함하고, 상기 위치정보 보정부는 설정된 가상의 차선정보와 획득된 실제 차선정보의 맵 매칭(map matching)을 통하여 상기 무인 자율주행 자동차의 현재 위치정보를 보정하는 것을 특징으로 한다.

Description

가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템{NAVIGATION SYSTEM FOR UNMANNED GROUND VEHICLE BY SENSOR FUSION WITH VIRTUAL LANE}
본 발명은 무인 자율주행 자동차의 항법시스템에 관한 것으로, 보다 상세하게는, 저가의 센서를 융합하여 위치결정에 사용하고, 영상센서를 이용하여 검출한 차선정보와 가상차선의 매칭을 통해 위치정보를 보정함으로써, 위치 정확도를 확보하고 안정적인 무인 자율주행을 수행할 수 있는 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템에 관한 것이다.
자동차산업은 최근 IT 기술들이 접목된 친환경, 첨단자동차의 시대로 변모해가고 있고, 자동차 기술 발전과 더불어 운전자의 안전과 편의성 증대를 위한 사고예방, 사고회피, 충돌안전, 편의성 향상, 차량 정보화 그리고 자율주행 기술 등을 적용한 지능형 자동차들이 상용화되고 있다.
이러한 지능형 자동차는 운전자의 부주의나 조작 미숙에 대한 지원기술, 음성인식 등을 통한 편의 기능을 지원하는 차량으로서, 운전자의 과실에 의한 사고를 줄일 수 있을 뿐만 아니라, 시간감소, 연료낭비, 배기가스 저감 등의 이점을 기대할 수 있는 특징이 있다.
무인 자율주행 자동차(Unmanned Ground Vehicle: UGV)는 지능형 자동차 기술의 집합체로 운전자가 차량에 탑승하여 원하는 목적지를 지정하면 이후 특별한 조작을 하지 않아도 현재 위치나 목적지까지 최적의 경로를 생성하여 주행을 수행할 수 있다.
또한 도로의 교통신호나 표지판을 인지하고, 교통 흐름에 맞게 적절한 속도를 유지, 위험상황을 인지하여 사고예방에 능동적으로 대처할 수 있으며, 스스로 차선을 유지하며 필요한 경우에는 차선변경이나 추월, 장애물 등을 회피하기 위해 적절한 조향을 하며 원하는 목적지까지 주행할 수 있다.
최근, 무인 자율주행 자동차에 대한 자율주행과 관련하여 많은 연구가 이루어지고 있고, 자율 주행시스템은 도로맵 정보를 바탕으로 GPS 위치정보 및 각종 센서에서 취득한 신호를 이용하여 도로상의 시작점부터 종료점까지 자동차의 주행을 자동으로 제어하면서 이동시킬 수 있다.
특히, 자율 주행시스템은 고속으로 움직이는 이동체의 주행환경을 실시간으로 인식 및 판단하기 위해, 스캐닝 장치, 카메라, 레이더 등과 같은 센서 장비들을 포함할 수 있다.
자율 주행을 수행할 수 있는 시스템과 관련한 발명으로, 예를 들어, 등록특허 제10-11160332호에는 GPS위성으로부터 본체의 위치 데이터를 수신하도록 형성되는 위치 수신부와, 상기 본체에서 감지되는 GPS위성의 개수를 추적하도록 형성되는 위성 추적부 및 상기 추적된 GPS의 개수에 따라 주행 방법을 결정하도록 형성되는 주행 방법 결정부를 포함하는 기술이 개시되고 있다.
무인 자율주행 자동차에서 자동차의 위치파악은 무엇보다도 중요한 필수조건이 될 수 있지만 GPS가 전체 항법시스템에서 높은 비중을 차지하는 기본 센서로 이용되면서 위성항법의 오차에 따른 문제점이 발생되고 있다.
위성항법에서 측정되는 위치정보는 위성신호를 기반으로 수신되는데 이런 위치정보에 오차를 발생시키는 요인으로는, 먼저 위성의 배치 상황에 따른 기하학적 오차가 발생할 수 있고, 강제적인 오차요인(SA: Selective Availability)와 구조적인 요인으로 발생되는 인공위성의 시간 오차, 인공위성의 위치 오차, 전리층과 대류층의 굴절, 잡음, 다중경로 오차 등이 있을 수 있다.
특히, 저가의 GPS를 사용했을 경우 위성신호의 가시성이 확보되지 못하면 위치정보는 그 신뢰성을 잃게 되는데, 데이터에 오차가 커지거나 상황에 따라서 데이터 수신이 되지 않는 경우가 발생할 수 있다.
이런 위치 정밀도 문제를 해결하기 위해서 사용되는 방안으로 크게 GPS 자체를 이용해 위치정확도를 높일 수 있는 DGPS, RTK-DGPS 등의 시스템을 이용하는 방안, 다음으로는 IMU(Inertial Measurement Unit)과 GPS를 융합하는 알고리즘을 적용하는 방법이 있고, 끝으로 INS(Inertial Navigation System)과 같은 자체 항법해를 얻을 수 있는 통합 솔루션을 이용하는 방안이 있다.
그러나, 이러한 시스템들은 사용자에게 정밀한 위치해를 제공하는 대신 장비의 크기가 크고, 무거워 휴대하는데 어려움이 있고, 이용에 전문적인 지식을 요구하며, 일반적인 사용자에게 있어 이러한 시스템은 고가라는 큰 경제적 부담이 있고, 고가의 센서들로 시스템이 구성됨으로 인해 개인의 소유개념이 강한 자가소유의 자동차에 적용하는 데는 한계를 가질 수 있다.
본 발명은 상기한 바와 같은 문제점을 해결하기 위하여 안출된 것으로, 저가의 GPS, 엔코더(Encoder), AHRS(Attitude Heading Reference System)를 사용하여 획득되는 데이터를 융합하고, 확장형 칼만 필터(EKF, Extended Kalman Filter)를 적용함으로써, GPS 위성과 수신기 간의 가시성이 확보되지 못하는 위치정보 수신불가능 지역에서의 위치정확도 향상방안과 연속적인 위치정보 획득을 수행할 수 있는 센서 융합을 통한 무인 자율주행 자동차의 항법시스템의 제공을 목적으로 한다.
또한, 본 발명은 기존의 환경지도를 대신하여 경유점을 기반으로 가상의 경로(Virtual path)를 생성하고 이를 전역적 환경지도로 활용하고, 획득된 영상데이터에서 차선정보를 추출한 국부지도를 통해 가상경로의 국부지도와 매칭함으로써 위치정보를 보정할 수 있는 센서 융합을 통한 무인 자율주행 자동차의 항법시스템의 제공을 목적으로 한다.
그러나 본 발명의 목적은 상기에 언급된 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 목적을 달성하기 위하여, 본 발명에 따른 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템은, 무인 자율주행 자동차의 위치정보를 실시간 측정하는 위치정보 측정부와, 저장된 지도정보에 근거하고, 경유점(Way Point)을 사용하여 생성된 가상의 차선정보(Virtual Lane)를 포함하는 가상경로를 설정하는 가상경로 설정부와, 상기 가상경로 설정부를 통해 설정된 가상경로를 따라 주행 중인 상기 무인 자율주행 자동차의 실제 차선정보를 실시간 획득하는 주행정보 검출부와, 상기 위치정보 측정부를 통해 측정된 위치정보의 오차를 보정하는 위치정보 보정부 및 상기 무인 자율주행 자동차의 보정된 위치정보를 출력하는 위치정보 출력부를 포함하고, 상기 위치정보 보정부는 설정된 가상의 차선정보와 획득된 실제 차선정보의 맵 매칭(map matching)을 통하여 상기 무인 자율주행 자동차의 현재 위치정보를 보정하는 것을 특징으로 한다.
또한, 본 발명에 따른 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템은, 상기 실시간 위치정보 측정부가, GPS 센서를 통해 무인 자율주행 자동차의 현재 위치정보를 획득하는 위치정보 획득모듈과, 자세측정 센서를 통해 무인 자율주행 자동차의 자세정보를 획득하는 자세정보 획득모듈과, 이동거리, 속도 및 헤딩의 변화를 측정하는 엔코더(encoder)를 통해 상기 무인 자율주행 자동차의 주행정보를 획득하는 주행정보 획득모듈 및 상기 위치정보, 자세정보 및 주행정보를 제어변수로 입력받아 상기 무인 자율주행 자동차의 위치정보에 대한 위치정밀도를 보정하는 위치정밀도 보정모듈을 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템은, 상기 자세측정 센서가 자이로스코프, 가속도계 및 지자기 센서의 데이터를 융합하여 현재 무인 자율주행 자동차의 자세정보를 획득하는 것을 특징으로 한다.
또한, 본 발명에 따른 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템은, 상기 위치정밀도 보정모듈이 확장형 칼만필터(Extended Kalman Filter)를 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템은, 상기 위치정보 보정부가, 상기 위치정보 측정부를 통해 측정된 상기 무인 자율주행 자동차의 현재 위치정보에 근거하여, 설정된 가상의 차선정보 중 가상의 관심영역(Region Of Interset)을 추출하는 제 1 관심영역 추출모듈과, 상기 위치정보 측정부를 통해 측정된 상기 무인 자율주행 자동차의 현재 위치정보에 근거하여, 획득된 실제 차선정보 중 실제 관심영역을 추출하는 제 2 관심영역 추출모듈과, 추출된 상기 가상의 관심영역과 실제 관심영역을 맵 매칭하여 매칭정보를 생성하는 맵 매칭모듈 및 상기 매칭정보에 근거하여 상기 무인 자율주행 자동차의 현재 위치정보의 오차를 보정하는 위치정보 보정모듈을 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템은, 상기 맵 매칭모듈이 기하학적 정보와 위상정보를 이용하는 맵 매칭을 수행하는 것을 특징으로 한다.
또한, 본 발명에 따른 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템은, 상기 주행정보 검출부가, 실제 차선의 영상정보를 획득하는 영상센서 모듈과, 상기 무인 자율주행 자동차의 주변상황을 인식하는 레이저 측정센서 모듈 및 상기 영상정보로부터 차선정보를 추정하는 차선정보 추정모듈을 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템은, 상기 차선정보 추정모듈이 상기 영상정보에 대해 역원근 변환(Inverse Perspective Mapping)을 통해 차선의 기하학적인 정보를 획득하여 선형적인 차선의 모델을 생성하고, 허프변환(Hough Transformation)을 통해 차선정보를 추정하는 것을 특징으로 한다.
또한, 본 발명에 따른 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템은, 상기 자세측정 센서를 통해 획득되는 자세정보는 오일러 각(Euler angles) 정보와 쿼터니언(Quaternion) 정보를 포함하는 것을 특징으로 한다.
아울러, 본 발명에 따른 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템은, 상기 확장형 칼만필터가 상태변수로서 위치정보에 해당하는 x, y 좌표의 값과 상기 무인 자율주행 자동차의 진행방향 정보인 헤딩을 이용하고, 제어입력으로 상기 엔코더를 이용하여 입력받게 되는 상기 무인 자율주행 자동차의 이동거리와 헤딩변화를 사용하는 것을 특징으로 한다.
본 발명의 무인 자율주행 자동차의 항법시스템에 따르면, 저가의 GPS, 엔코더(Encoder), AHRS(Attitude Heading Reference System) 등의 센서를 사용하여 획득되는 데이터를 융합하고, 확장형 칼만 필터(EKF, Extended Kalman Filter)를 적용함으로써, GPS 위성과 수신기 간의 가시성이 확보되지 못하는 위치정보 수신불가능 지역에서의 위치정확도 향상방안과 연속적인 위치정보 획득을 수행할 수 있는 이점이 있다.
또한, 본 발명에 따르면, 기존의 환경지도를 대신하여 경유점을 기반으로 가상의 경로(Virtual path)를 생성하고 이를 전역적 환경지도로 활용하고, 영상센서를 통해 획득된 영상정보에서 차선정보를 추출한 국부지도를 통해 가상경로의 국부지도와 매칭함으로써 자율주행 중인 자동차의 위치정보에 대한 오차를 정밀하게 보정할 수 있는 이점이 있다.
도 1은, 본 발명에 따른 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템의 구성을 개략적으로 나타내는 블럭도이다.
도 2는, 본 발명에 따른 무인 자율주행 자동차의 항법시스템을 이루는 위치정보 측정부의 구성을 나타내는 블럭도이다.
도 3은, 본 발명에 따른 무인 자율주행 자동차의 항법시스템을 이루는 주행정보 검출부의 구성을 나타내는 블럭도이다.
도 4는, 본 발명에 따른 무인 자율주행 자동차의 항법시스템을 이루는 위치정보 보정부의 구성을 나타내는 블럭도이다.
도 5는, 본 발명에 따른 확장형 칼만필터를 적용하여 위치정밀도가 보정된 위치정보를 예시적으로 나타내는 예시도이다.
도 6의 (a) 및 (b)는 가상 경로를 위한 원에서의 접선을 나타내는 예시도이다.
도 7은 생성된 가상 경로를 예시적으로 나타내는 예시도이다.
이하, 본 발명의 바람직한 실시 예의 상세한 설명은 첨부된 도면들을 참조하여 설명할 것이다. 하기에서 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.
본 발명의 개념에 따른 실시 예는 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있으므로 특정 실시 예들을 도면에 예시하고 본 명세서 또는 출원에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예를 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
도 1은 본 발명에 따른 센서 융합을 통한 무인 자율주행 자동차의 항법시스템의 구성을 개략적으로 나타내는 블럭도이고, 도 2는 무인 자율주행 자동차의 항법시스템을 이루는 위치정보 측정부의 구성을 나타내는 블럭도이며, 도 3은 무인 자율주행 자동차의 항법시스템을 이루는 주행정보 검출부의 구성을 나타내는 블럭도이고, 도 4는 무인 자율주행 자동차의 항법시스템을 이루는 위치정보 보정부의 구성을 나타내는 블럭도이다.
도면에 나타낸 바와 같이, 본 발명에 따른 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템(1)은, 위치정보 측정부(10), 가상경로 설정부(20), 주행정보 검출부(30), 위치정보 보정부(40) 및 위치정보 출력부(50)를 포함하여 구성될 수 있다.
위치정보 측정부(10)는 무인 자율주행 자동차의 위치정보를 실시간 측정하는 것으로, 도 2에 나타낸 바와 같이, 위치정보 획득모듈(100), 자세정보 획득모듈(110), 주행정보 획득모듈(120) 및 위치정밀도 보정모듈(130)을 포함할 수 있다.
위치정보 획득모듈(100)은 위성과 GPS 신호를 송수신할 수 있는 다수개의 GPS 센서 등을 포함하여 무인 자율주행 자동차의 현재 위치정보를 실시간으로 획득할 수 있다.
GPS 센서는 예를 들어, Garmin GPS-18 수신기 또는 Garmin GPS-19 수신기가 사용될 수 있다.
Garmin GPS-18 수신기는 0.2초에 1개의 데이터를 받게 되어 기타 수신기에 비해 빠른 데이터 수신속도를 갖고 있으며, 10~15m의 유사한 정밀도를 갖지만 가시성이 좋고, WAAS(Wide Area Augmentation System, 별도의 정지위성을 이용한 위치보정)의 신호 수신이 가능한 상태에서는 정밀도가 3~5m 의 수평오차를 보일 정도로 높은 특징이 있다. 또한, 다른 시스템과의 연결성이 유연하다는 장점을 갖고 있다.
Garmin GPS-19 수신기는 10hz로 갱신되어 좀 더 빠른 수신속도를 갖고 WASS 보정신호를 받을 수 있는 상태에서는 3m 이내의 위치정확도를 가질 수 있다.
또한 러시아 위성인 GLONASS를 사용하여 위치 해를 얻을 수 있어 미국 위성인 GPS 위성만을 이용할 경우보다도 더 많은 위성을 사용하게 되어 위치 해의 신뢰도를 높일 수 있다. 또한 RS-232 통신은 물론 RS-422 통신을 지원하고, NMEA-0183과 NMEA-2000의 다양한 정보를 제공할 수 있는 특징이 있다.
자세정보 획득모듈(110)은 자세측정 센서, 예를 들어, AHRS(Attitude Heading Reference System)를 통해 무인 자율주행 자동차의 자세정보를 획득할 수 있는 것으로, 자이로스코프, 가속도계 및 지자기 센서의 데이터를 융합하여 현재 무인 자율주행 자동차의 자세정보를 획득할 수 있다.
자세정보 획득모듈(110)에서는 무인 자율주행 자동차의 거동에 따른 3축의 각도와 각속도, 선형가속도의 변화를 측정할 수 있다. 항법시스템에 사용된 AHRS는 IMU에 사용되는 가속도계, 자이로를 비롯해 자기장을 측정할 수 있는 자력계(Magnetometer)가 함께 이용되어 차량의 초기자세 및 동적자세에 대해 지속적인 출력을 제공할 수 있다.
또한, 본 발명에 다른 자세정보 획득모듈(110)에서는 기존의 오일러 각을 이용한 자세와 더불어 쿼터니언(Quaternion)을 이용한 자세정보를 포함하고 있어 사용에 편의성이 높다는 특징이 있다.
주행정보 획득모듈(120)에서는 엔코더(encoder)를 통해 무인 자율주행 자동차의 이동거리, 이동속도 및 헤딩의 변화를 측정함으로써, 무인 자율주행 자동차의 주행정보를 획득할 수 있다. 특히, 로터리 엔코더 타입의 거리측정센서를 이용하여 차량의 이동거리 및 헤딩변화와 차량의 속도를 모니터링하고 위치데이터를 위한 필터의 변수로 이용할 수 있다.
본 발명의 위치정밀도 보정모듈(130)은 위치정보, 자세정보 및 주행정보를 제어변수로 입력받아 무인 자율주행 자동차의 위치정보에 대한 위치정밀도를 보정할 수 있는 것으로, 이러한 위치정밀도 보정모듈(130)은, 확장형 칼만필터(Extended Kalman Filter)로 구성될 수 있다.
예를 들어, 확장형 칼만필터를 구성하기 위해 상태변수로서 위치정보에 해당하는 x, y 좌표의 값과 무인 자율주행 자동차의 진행방향 정보인 헤딩을 이용하게 되고, 제어입력으로 엔코더를 이용하여 입력받게 되는 차량의 이동거리와 헤딩변화를 사용할 수 있다.
또한, 프로세스 노이즈는 엔코더의 에러를 이용할 수 있고, 측정 노이즈는 다음의 식 1 내지 식 8과 같이, GPS를 이용한 위치인식에 대한 에러를 이용하여 구성될 수 있다.
[식 1]
Figure 112013088301884-pat00001
여기에서, X는 변수들의 행렬, 즉 위치(Px, Py)와 헤딩정보(θh)를 나타낸다.
[식 2]
Figure 112013088301884-pat00002
여기에서, 확장형 칼만필터의 제어입력변수, ds는 이동거리, dθ는 헤딩변화를 나타낸다.
[식 3]
Figure 112013088301884-pat00003

[식 4]
Figure 112013088301884-pat00004

[식 5]
Figure 112013088301884-pat00005

[식 6]
Figure 112013088301884-pat00006

[식 7]
Figure 112013088301884-pat00007
여기에서, Qk-1은 process noise로 엔코더의 이동거리(ds)와 헤딩변화(dθ)에 대한 오차공분산을 나타낸다.
[식 8]
Figure 112013088301884-pat00008
여기에서, Rk는 measurement noise로 GPS의 수평방향 위치해에 대한 공분산과 자세측정센서(AHRS)의 헤딩값에 대한 오차공분산을 나타낸다.
도 5는 본 발명에 따른 확장형 칼만필터를 적용하여 위치정밀도가 보정된 위치정보를 예시적으로 나타내는 예시도로, 도면에 나타낸 바와 같이, 주행환경이 나무들이 우거지고, 비포장도로로 이루어져 있기 때문에 기본적인 위치데이터의 수신에 이용되는 GPS 신호가 연속적이지 못하거나 불안정한 구간이 발생하게 될 수 있다.
그로 인해 약 10m 구간에서 위치데이터가 단락되었고, 한 차례 위치데이터의 점핑현상이 발생되었다. 점핑현상이 발생된 이후 본래의 위치데이터 경향을 유지하는데 약 1~2초의 시간이 소요되었고, 이후에도 동일한 구간 내에서 유사한 현상이 발생되었다.
도면에 나타낸 바와 같이 불연속적이고 불안정한 위치데이터에 확장형 칼만필터를 적용했을 경우, 불연속적인 지점의 위치 해를 연속적이고, 실제 경로와 약 1m 정도의 오차를 갖는 유사한 결과를 보였다.
가상경로 설정부(20)는 저장된 지도정보에 근거하고, 경유점(Way Point)을 사용하여 생성된 가상의 차선정보(Virtual Lane)를 포함하는 주행경로를 설정할 수 있다.
주행경로는 출발지로부터 목적지까지에 해당되는 최적의 경로를 의미하며, 차량이 출발하기 전에 경유점을 이용하여 생성될 수 있다.
각각의 경유점에 대해서 경유점의 위치정보(위도, 경도), 차선정보(차선 폭, 차선 수), 속도정보(임계, 최저 속도)와 구간 별 부가정보 등의 항목들을 특정한 형식으로 구성하고, 이를 Ex-RDDF(Extended-Route Definition Data File)라고 할 수 있다.
구간 별 부가정보에는, 예를 들어, 구간 별 고도, 좌 회전 금지구간, 차선 확장/감소 구간, 위성 신호 가시성 양호지역/불량지역 등 사용자의 추가적인 필요에 의한 정보를 1byte(8bit)로 저장할 수 있다.
예를 들어, Ex-RDDF를 통해 얻어지는 각 경유점의 X, Y좌표와 해당 구간의 차선 폭 정보를 이용하여 가상 경로를 생성하게 된다. 이는 다른 시스템들과 연동시켜 맵 기반의 자율주행을 할 수 있고, 장애물 정보를 융합시켜 국부적인 장애물 회피 및 실시간 경로계획에 이용할 수 있다.
도 6의 (a) 및 (b)는 가상 경로를 위한 원에서의 접선을 나타내는 예시도로, 입력된 경로의 도로 폭이 같고, 입력된 2개의 경유점이 동일 선상에 있다고 가정하면, 입력된 두 지점을 중점으로 주어진 차선 폭을 반지름으로 갖는 원을 2개, 각각 생성할 수 있다.
이렇게 생성된 두 원의 중점을 잇는 직선을 반지름만큼 이동시켜 접선을 구할 수 있다. 도 6의 (a)에 나타낸 바와 같이, 만약 두 지점이 일정한 각도(α)로 기울어져 있다면 앞서 동일 선상에 있다고 가정하고 구한 접선을 해당 각도만큼 회전 변환하여 접선을 구할 수 있다.
하지만, 실제환경에서는 모든 경로가 동일한 차선 폭을 갖게 되지 못한다. 도 6의 (b)에 나타낸 바와 같이, 다른 차선 폭을 갖는 두 지점의 접선을 구하기 위해서는 두 원의 원점이 동일 선상에 있다고 가정했을 때 두 원의 반지름 차이가 이루는 각도(β)만큼 회전 변환하여 접선을 구할 수 있다.
두 지점의 원이 일정 각도만큼 회전하는 경우에는 같은 크기의 차선 폭을 갖는 경우와 마찬가지로 두 원점이 이루는 각도를 더한 크기(α+β)를 이용하여 회전 변환할 수 있다.
도 7은 주어진 전체 경로와 차선의 폭 정보를 이용하여 가상의 경로를 생성한 결과로서, 도면에 나타낸 바와 같이, 경유점을 재표현하는 원의 기하학적 특성을 이용하여 두 원의 중점을 잇는 선분이 이루는 각의 계산과 회전변환을 통한 원과 이루는 접선의 두 접점을 다음의 관계식을 통해 구할 수 있다.
즉, 가상의 경로는 먼저 입력된 경로의 도로 폭이 같고, 입력된 2개의 경유점이 동일 선상에 있다고 가정하면, 입력된 두 지점을 중점(O1, O2)으로 주어진 차선 폭(r)을 반지름으로 갖는 원을 2개, 각각 생성할 수 있다. 이렇게 생성된 두 원의 중점을 잇는 직선을 반지름(r)만큼 이동시켜 접선(
Figure 112013088301884-pat00009
)을 구하게 된다. 만약 두 지점이 일정한 각도(α)로 기울어져 있다면, 앞에서 동일 선상에 있다고 가정하고 구한 접선을 원점 O1을 중심으로 해당 각도(α)만큼 회전 변환하여 접선을 구할 수 있다.
서로 다른 차선폭을 갖는 두 지점의 접선을 구하기 위해서는 두 원의 원점(O1, O2)이 동일 선상에 있다고 가정했을 때 두 원의 반지름(r1, r2) 차이가 이루는 각도(β)만큼 회전 변환하여 접선을 구하게 된다. 다른 차선폭을 갖는 두 지점의 원이 일정 각도(α)만큼 회전하는 경우에는 위의 같은 크기의 차선폭을 갖는 경우와 마찬가지로 두 반지름 차이가 이루는 각도(β)를 더한 크기(α+β)를 이용하여 회전 변환하여 접선을 구하게 된다.
[식 9]
Figure 112013088301884-pat00010

상기 식을 통해 생성된 각각의 원에는 접점이 두 개씩 존재하게 되고, 이렇게 얻어진 접점의 정보를 좌측차선과 우측차선의 배열로 각각 생성하여 좌표의 최소값을 이용하여 (0, 0)으로 변환하고, 각각의 위치정보를 이용하여 해당 지점을 Boolean(0 또는 1)으로 변환하여 최종 가상 경로를 생성할 수 있다.
주행정보 검출부(30)는 가상경로 설정부(20)를 통해 설정된 가상경로를 따라 주행 중인 무인 자율주행 자동차의 실제 차선정보를 실시간 획득할 수 있다.
이 주행정보 검출부(30)는 도 3에 나타낸 바와 같이, 영상센서 모듈(300), 레이저 측정센서 모듈(310) 및 차선정보 추정모듈(320)을 포함할 수 있다.
무인 자율주행 자동차는 크게 영상센서 모듈(300)로 카메라나 레이저 측정센서 모듈(310)로 레이저스캐너를 이용하여 환경을 인식하고, 장애물이나 차선, 교통신호 등을 인지할 수 있다.
즉, 영상센서 모듈(300)에서는 실제 차선의 영상정보를 획득하고, 레이저 측정센서 모듈(310)에서는 주행 중인 무인 자율주행 자동차의 주변상황을 인식하여 경로 상의 장애물이나 노면상태를 인지하여 국부적인 경로를 생성하며, 이렇게 생성된 차량제어 변수들을 이용하여 가속 및 감속, 조향, 변속제어를 하는데 이용될 수 있다.
또한, 차선정보 추정모듈(320)을 통해서는 영상센서 모듈(300)을 통해 획득된 영상정보로부터 차선정보를 추정할 수 있다.
차선정보 추정모듈(320)은 영상정보에 대해 역원근 변환(Inverse Perspective Mapping)을 통해 차선의 기하학적인 정보를 획득하여 선형적인 차선의 모델을 생성하고, 허프변환(Hough Transformation)을 통해 차선정보를 추정할 수 있다.
보다 구체적으로, 밝기분포 사용을 최대화할 수 있도록 각 색상 채널(R, G, B) 히스토그램을 확장하고, 다음으로 차선의 색상에 따른 특성값을 높여주기 위해 입력되는 차선의 색상에 따라 특성 식을 이용하여 색상을 강조하게 된다.
또 변환된 영상의 잡음을 제거하고, 전체 영상에 대해 평탄화를 하여 이진화를 하게 된다. 차선 인식을 통해 앞서 생성된 가상경로와 매칭을 하기 위해서는 이렇게 얻어진 이진 영상정보를 평면좌표 형태로 표현하여 차선정보를 획득하면 유용하게 된다. 이를 위해 영상에 IPM(Inverse Perspective Mapping) 과정을 거치게 된다.
다음으로 차선의 기하학적인 정보를 획득하여 선형적인 차선의 모델을 생성하고, 허프변환(Hough Transformation)을 통해 차선을 추정할 수 있다.
위치정보 보정부(40)는 위치정보 측정부(10)를 통해 측정되는 무인 자율주행 자동차의 위치정보의 오차를 보정하고, 위치정보 출력부(50)에서는 위치정보 보정부(40)를 통해 보정된 무인 자율주행 자동차의 위치정보를 출력할 수 있다.
위치정보 보정부(40)는 도 4에 나타낸 바와 같이, 제 1 관심영역 추출모듈(400), 제 2 관심영역 추출모듈(410), 맵 매칭모듈(420) 및 위치정보 보정모듈(430)을 포함할 수 있다.
먼저 제 1 관심영역 추출모듈(400)은 위치정보 측정부(10)를 통해 측정된 무인 자율주행 자동차의 현재 위치정보에 근거하여, 설정된 가상의 차선정보 중 가상의 관심영역(Region Of Interset)을 추출할 수 있다.
제 2 관심영역 추출모듈(410)은 위치정보 측정부(10)를 통해 측정된 무인 자율주행 자동차의 현재 위치정보에 근거하여, 획득된 실제 차선정보 중 실제 관심영역을 추출할 수 있다.
또한, 맵 매칭모듈(420)에서는 추출된 가상의 관심영역과 실제 관심영역을 맵 매칭하여 매칭정보를 생성하는 것으로, 기하학적 정보와 위상정보를 이용하여 맵 매칭을 수행할 수 있으며, 위치정보 보정모듈(430)에서는 생성된 매칭정보에 근거하여 무인 자율주행 자동차의 현재 위치정보의 오차를 실시간으로 보정할 수 있다.
가상경로의 구간에서 현재 위치에 대해 차량의 진행방향을 기준으로 관심영역, 가상의 관심영역을 지역경로 블리언 맵으로 추출하고, 실제 관심영역의 추출로 영상센서를 통해 입력되는 관심영역 내의 차선정보를 블리언 맵으로 표현할 수 있다.
인식된 차선을 가상의 장애물로 가정하여 주행 불가능한 영역이라는 의미로 '1'로 표현하고, 주행가능지역을 '0'으로 표현하게 된다.
위치정보 측정부(10)를 통해 얻어지는 무인 자율주행 자동차의 초기 위치와 헤딩을 이용하여 가상경로와의 매칭과정을 거치고, 이를 통해 초기 수직, 수평오차를 계산하며, 이런 초기정렬을 바탕으로 주행 중에 수신되는 위치데이터의 보정값을 결정할 수 있다.
또한, 영상센서가 차선을 인식할 수 없는 환경(차선이 없는 교차로의 경우, 역광인 경우)일 경우에는 가상차선을 이용하여 지속적인 위치보정을 하게 되고, 차선을 검출할 수 있는 경우에는 가상의 차선과 매칭을 통해 오차를 계산하여 계산된 보정값을 통해 위치정보에 대한 오차를 보정할 수 있다.
상기와 같이, 위치정보의 오차를 보정하기 위해, 본 발명에서는 차선정보를 이용하거나 가상의 차선을 생성하여 매칭시키는 방법을 이용함으로써, 주행 가능영역에서 벗어나는 위치정보를 보정할 수 있었고, 적게는 수십 cm에서 많게는 2m 내외의 정확도를 갖는 위치보정데이터를 얻을 수 있어 전반적인 경로에서 안정적인 주행을 가능하게 하였다.
이런 저가형 항법시스템을 이용하여 차선이 없거나 폭이 3m 이상의 넓은 경로를 주행하는 경우, 고가의 항법시스템을 대체할 수 있는 특징이 있다.
또한, 위치데이터의 보정정보로 이용되는 차선정보의 검출에 있어서, 노면상태가 불량하거나 굴곡, 경사도, 역광 등 영상센서에 민감한 영향을 주는 인자들이 많은 경우, 가상경로의 보정 적용에 많은 제약이 따르고, 영상센서 및 가상경로를 통해 생성된 국부 관심영역의 표현이 셀 단위로 이루어진 형태로 사용되므로 저가형 센서들을 통한 위치인식 자체의 오차(2m 내외)와 함께 셀 표현(10cm 분해능)이 갖는 위치 오차가 함께 나타날 수도 있다.
하지만 이런 셀 단위의 표현 방식은 다른 서브시스템들과 함께 환경을 인지하고, 경로를 생성하거나 장애물을 회피하는 방법 등을 구현하는데 함께 이용될 수 있어 무인차량의 전체 시스템에서는 유기적이고, 안정적인 인지가 이루어질 수 있는 특징이 있다.
상기 본 발명의 내용은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.
1 : 무인 자율주행 자동차의 항법시스템
10 : 위치정보 측정부 20 : 가상경로 설정부
30 : 주행정보 검출부 40 : 위치정보 보정부
50 : 위치정보 출력부
100 : 위치정보 획득모듈 110 : 자세정보 획득모듈
120 : 주행정보 획득모듈 130 : 위치정밀도 보정모듈
300 : 영상센서 모듈 310 : 레이저 측정센서 모듈
320 : 차선정보 추정모듈
400 : 제 1 관심영역 추출모듈 410 : 제 2 관심영역 추출모듈
420 : 맵 매칭모듈 430 : 위치정보 보정모듈

Claims (10)

  1. 무인 자율주행 자동차의 위치정보를 실시간 측정하는 위치정보 측정부;
    저장된 지도정보에 근거하고, 경유점(Way Point)을 사용하여 생성된 가상의 차선정보(Virtual Lane)를 포함하는 가상경로를 설정하는 가상경로 설정부;
    상기 가상경로 설정부를 통해 설정된 가상경로를 따라 주행 중인 상기 무인 자율주행 자동차의 실제 차선정보를 실시간 획득하는 주행정보 검출부;
    상기 위치정보 측정부를 통해 측정된 위치정보의 오차를 보정하는 위치정보 보정부; 및
    상기 무인 자율주행 자동차의 보정된 위치정보를 출력하는 위치정보 출력부;를 포함하고,
    상기 위치정보 보정부는 설정된 가상의 차선정보와 획득된 실제 차선정보의 맵 매칭(map matching)을 통하여 상기 무인 자율주행 자동차의 현재 위치정보를 보정하는 것을 특징으로 하는 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템.
  2. 제 1 항에 있어서,
    상기 실시간 위치정보 측정부는,
    GPS 센서를 통해 무인 자율주행 자동차의 현재 위치정보를 획득하는 위치정보 획득모듈;
    자세측정 센서를 통해 무인 자율주행 자동차의 자세정보를 획득하는 자세정보 획득모듈;
    이동거리, 속도 및 헤딩의 변화를 측정하는 엔코더(encoder)를 통해 상기 무인 자율주행 자동차의 주행정보를 획득하는 주행정보 획득모듈; 및
    상기 위치정보, 자세정보 및 주행정보를 제어변수로 입력받아 상기 무인 자율주행 자동차의 위치정보에 대한 위치정밀도를 보정하는 위치정밀도 보정모듈;을 포함하는 것을 특징으로 하는 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템.
  3. 제 2 항에 있어서,
    상기 자세측정 센서는 자이로스코프, 가속도계 및 지자기 센서의 데이터를 융합하여 현재 무인 자율주행 자동차의 자세정보를 획득하는 것을 특징으로 하는 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템.
  4. 제 2 항에 있어서,
    상기 위치정밀도 보정모듈은 확장형 칼만필터(Extended Kalman Filter)를 포함하는 것을 특징으로 하는 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템.
  5. 제 1 항에 있어서,
    상기 위치정보 보정부는,
    상기 위치정보 측정부를 통해 측정된 상기 무인 자율주행 자동차의 현재 위치정보에 근거하여, 설정된 가상의 차선정보 중 가상의 관심영역(Region Of Interset)을 추출하는 제 1 관심영역 추출모듈;
    상기 위치정보 측정부를 통해 측정된 상기 무인 자율주행 자동차의 현재 위치정보에 근거하여, 획득된 실제 차선정보 중 실제 관심영역을 추출하는 제 2 관심영역 추출모듈;
    추출된 상기 가상의 관심영역과 실제 관심영역을 맵 매칭하여 매칭정보를 생성하는 맵 매칭모듈; 및
    상기 매칭정보에 근거하여 상기 무인 자율주행 자동차의 현재 위치정보의 오차를 보정하는 위치정보 보정모듈;을 포함하는 것을 특징으로 하는 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템.
  6. 제 5 항에 있어서,
    상기 맵 매칭모듈은 기하학적 정보와 위상정보를 이용하여 맵 매칭을 수행하는 것을 특징으로 하는 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템.
  7. 제 1 항에 있어서,
    상기 주행정보 검출부는,
    실제 차선의 영상정보를 획득하는 영상센서 모듈;
    상기 무인 자율주행 자동차의 주변상황을 인식하는 레이저 측정센서 모듈; 및
    상기 영상정보로부터 차선정보를 추정하는 차선정보 추정모듈;을 포함하는 것을 특징으로 하는 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템.
  8. 제 7 항에 있어서,
    상기 차선정보 추정모듈은,
    상기 영상정보에 대해 역원근 변환(Inverse Perspective Mapping)을 통해 차선의 기하학적인 정보를 획득하여 선형적인 차선의 모델을 생성하고, 허프변환(Hough Transformation)을 통해 차선정보를 추정하는 것을 특징으로 하는 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템.
  9. 제 3 항에 있어서,
    상기 자세측정 센서를 통해 획득되는 자세정보는 오일러 각(Euler angles) 정보와 쿼터니언(Quaternion) 정보를 포함하는 것을 특징으로 하는 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템.
  10. 제 4 항에 있어서,
    상기 확장형 칼만필터는 상태변수로서 위치정보에 해당하는 x, y 좌표의 값과 상기 무인 자율주행 자동차의 진행방향 정보인 헤딩을 이용하고,
    제어입력으로 상기 엔코더를 이용하여 입력받게 되는 상기 무인 자율주행 자동차의 이동거리와 헤딩변화를 사용하는 것을 특징으로 하는 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템.
KR20130116007A 2013-09-30 2013-09-30 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템 KR101454153B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20130116007A KR101454153B1 (ko) 2013-09-30 2013-09-30 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130116007A KR101454153B1 (ko) 2013-09-30 2013-09-30 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템

Publications (1)

Publication Number Publication Date
KR101454153B1 true KR101454153B1 (ko) 2014-11-03

Family

ID=52288314

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130116007A KR101454153B1 (ko) 2013-09-30 2013-09-30 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템

Country Status (1)

Country Link
KR (1) KR101454153B1 (ko)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106200647A (zh) * 2016-08-30 2016-12-07 北京华力兴科技发展有限责任公司 自动导航系统和自动导航方法
KR20170085750A (ko) 2016-01-15 2017-07-25 현대자동차주식회사 차선을 변경하는 차량에 근거한 자율 주행 제어 방법 및 장치
KR20170104621A (ko) * 2015-10-13 2017-09-15 샹하이 화처 네비게이션 테크놀로지 엘티디. 9축 mems 센서에 기반하여 농기계의 전-자세 각도를 갱신하는 방법
KR20180048094A (ko) * 2016-11-02 2018-05-10 현대자동차주식회사 차간 거리 추정 장치 및 방법
CN108028021A (zh) * 2015-09-29 2018-05-11 索尼公司 信息处理设备、信息处理方法和程序
KR20180067199A (ko) * 2016-12-12 2018-06-20 현대모비스 주식회사 객체 인식 장치 및 방법
US10019003B2 (en) 2015-11-09 2018-07-10 Hyundai Motor Company Autonomous vehicle control apparatus and method
KR101888170B1 (ko) * 2017-11-16 2018-08-13 엘아이지넥스원 주식회사 무인 수상정의 장애물 탐지 시 노이즈 제거방법 및 장치
KR20190044281A (ko) * 2017-10-20 2019-04-30 경희대학교 산학협력단 라이다 센서를 통해 획득한 해상 데이터의 필터링 장치 및 필터링 방법
CN110160540A (zh) * 2019-06-12 2019-08-23 禾多科技(北京)有限公司 基于高精度地图的车道线数据融合方法
KR20190134231A (ko) * 2018-05-25 2019-12-04 에스케이텔레콤 주식회사 차량의 위치 추정 장치, 차량의 위치 추정 방법, 및 이러한 방법을 수행하도록 프로그램된 컴퓨터 프로그램을 저장하는 컴퓨터 판독가능한 기록매체
KR102101706B1 (ko) * 2018-11-05 2020-04-20 한국교통대학교산학협력단 연석 형태 정보와 정밀지도를 이용한 저가 상용 gnss의 측위 정확도 개선 시스템 및 방법
CN111352139A (zh) * 2018-12-24 2020-06-30 同方威视技术股份有限公司 扫描设备自主导向方法、装置和扫描设备
CN111806466A (zh) * 2019-09-17 2020-10-23 上海森首科技股份有限公司 一种智能驾驶系统及其工作流程
CN111912416A (zh) * 2019-05-07 2020-11-10 北京市商汤科技开发有限公司 用于设备定位的方法、装置及设备
WO2021036408A1 (zh) * 2019-08-30 2021-03-04 上海商汤智能科技有限公司 车辆定位系统及方法、车辆控制方法及装置
KR102290564B1 (ko) * 2020-11-25 2021-08-18 한국전자기술연구원 자율주행 차량의 경로 추종 안정화를 위한 분산 칼만필터 기반 주행 경로 필터링 방법
CN114608553A (zh) * 2022-02-21 2022-06-10 南京航空航天大学 一种自动驾驶汽车定位系统及方法
CN115014366A (zh) * 2022-05-31 2022-09-06 中国第一汽车股份有限公司 一种目标融合方法、装置、车辆及存储介质
KR20220151572A (ko) 2021-05-06 2022-11-15 한국도로공사 IPM 이미지와 정밀도로지도(HD Map) 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 방법 및 시스템
KR20220159554A (ko) 2021-05-25 2022-12-05 현대모비스 주식회사 차량의 주행경로 추정방법 및 시스템
KR20230064040A (ko) * 2021-11-02 2023-05-10 주식회사 디파인 차로 결정 방법 및 차로 결정 장치
CN117570973A (zh) * 2023-11-17 2024-02-20 中科智驰(安庆)智能科技有限公司 一种用于多场景无人驾驶车辆的融合定位系统及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10105234A (ja) * 1996-09-25 1998-04-24 Denso Corp 無人搬送車
KR20080029679A (ko) * 2006-09-29 2008-04-03 한국전자통신연구원 안전 주행을 위한 자율이동로봇 및 이를 이용한 이동 경로제어 방법
KR101143892B1 (ko) 2010-12-31 2012-05-14 부산대학교 산학협력단 자율주행 장치 및 그 제어 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10105234A (ja) * 1996-09-25 1998-04-24 Denso Corp 無人搬送車
KR20080029679A (ko) * 2006-09-29 2008-04-03 한국전자통신연구원 안전 주행을 위한 자율이동로봇 및 이를 이용한 이동 경로제어 방법
KR101143892B1 (ko) 2010-12-31 2012-05-14 부산대학교 산학협력단 자율주행 장치 및 그 제어 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
박재웅 외2인, "차량 모델 및 LIDAR를 이용한 맵 매칭 기반의 야지환경에 강인한 무인 자율주행 기술 연구", J. of Institute of Control, Robotics and Systems, 17(5), pp.451-459, 2011. *

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108028021A (zh) * 2015-09-29 2018-05-11 索尼公司 信息处理设备、信息处理方法和程序
US11915522B2 (en) 2015-09-29 2024-02-27 Sony Corporation Information processing apparatus and information processing method
KR102017404B1 (ko) * 2015-10-13 2019-10-21 샹하이 화처 네비게이션 테크놀로지 엘티디. 9축 mems 센서에 기반하여 농기계의 전-자세 각도를 갱신하는 방법
KR20170104621A (ko) * 2015-10-13 2017-09-15 샹하이 화처 네비게이션 테크놀로지 엘티디. 9축 mems 센서에 기반하여 농기계의 전-자세 각도를 갱신하는 방법
US10019003B2 (en) 2015-11-09 2018-07-10 Hyundai Motor Company Autonomous vehicle control apparatus and method
KR20170085750A (ko) 2016-01-15 2017-07-25 현대자동차주식회사 차선을 변경하는 차량에 근거한 자율 주행 제어 방법 및 장치
CN106200647A (zh) * 2016-08-30 2016-12-07 北京华力兴科技发展有限责任公司 自动导航系统和自动导航方法
KR20180048094A (ko) * 2016-11-02 2018-05-10 현대자동차주식회사 차간 거리 추정 장치 및 방법
KR102371592B1 (ko) 2016-11-02 2022-03-07 현대자동차주식회사 차간 거리 추정 장치 및 방법
KR20180067199A (ko) * 2016-12-12 2018-06-20 현대모비스 주식회사 객체 인식 장치 및 방법
KR20190044281A (ko) * 2017-10-20 2019-04-30 경희대학교 산학협력단 라이다 센서를 통해 획득한 해상 데이터의 필터링 장치 및 필터링 방법
KR102020713B1 (ko) * 2017-10-20 2019-09-10 경희대학교 산학협력단 라이다 센서를 통해 획득한 해상 데이터의 필터링 장치 및 필터링 방법
KR101888170B1 (ko) * 2017-11-16 2018-08-13 엘아이지넥스원 주식회사 무인 수상정의 장애물 탐지 시 노이즈 제거방법 및 장치
KR20190134231A (ko) * 2018-05-25 2019-12-04 에스케이텔레콤 주식회사 차량의 위치 추정 장치, 차량의 위치 추정 방법, 및 이러한 방법을 수행하도록 프로그램된 컴퓨터 프로그램을 저장하는 컴퓨터 판독가능한 기록매체
KR102420476B1 (ko) 2018-05-25 2022-07-13 에스케이텔레콤 주식회사 차량의 위치 추정 장치, 차량의 위치 추정 방법, 및 이러한 방법을 수행하도록 프로그램된 컴퓨터 프로그램을 저장하는 컴퓨터 판독가능한 기록매체
KR102101706B1 (ko) * 2018-11-05 2020-04-20 한국교통대학교산학협력단 연석 형태 정보와 정밀지도를 이용한 저가 상용 gnss의 측위 정확도 개선 시스템 및 방법
CN111352139A (zh) * 2018-12-24 2020-06-30 同方威视技术股份有限公司 扫描设备自主导向方法、装置和扫描设备
CN111912416A (zh) * 2019-05-07 2020-11-10 北京市商汤科技开发有限公司 用于设备定位的方法、装置及设备
CN111912416B (zh) * 2019-05-07 2022-07-29 北京市商汤科技开发有限公司 用于设备定位的方法、装置及设备
CN110160540A (zh) * 2019-06-12 2019-08-23 禾多科技(北京)有限公司 基于高精度地图的车道线数据融合方法
WO2021036408A1 (zh) * 2019-08-30 2021-03-04 上海商汤智能科技有限公司 车辆定位系统及方法、车辆控制方法及装置
CN111806466A (zh) * 2019-09-17 2020-10-23 上海森首科技股份有限公司 一种智能驾驶系统及其工作流程
CN111806466B (zh) * 2019-09-17 2022-09-09 上海森首科技股份有限公司 一种智能驾驶系统及其工作流程
KR102290564B1 (ko) * 2020-11-25 2021-08-18 한국전자기술연구원 자율주행 차량의 경로 추종 안정화를 위한 분산 칼만필터 기반 주행 경로 필터링 방법
WO2022114329A1 (ko) * 2020-11-25 2022-06-02 한국전자기술연구원 자율주행 차량의 경로 추종 안정화를 위한 분산 칼만필터 기반 주행 경로 필터링 방법
KR20220151572A (ko) 2021-05-06 2022-11-15 한국도로공사 IPM 이미지와 정밀도로지도(HD Map) 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 방법 및 시스템
KR20220159554A (ko) 2021-05-25 2022-12-05 현대모비스 주식회사 차량의 주행경로 추정방법 및 시스템
KR20230064040A (ko) * 2021-11-02 2023-05-10 주식회사 디파인 차로 결정 방법 및 차로 결정 장치
KR102674613B1 (ko) * 2021-11-02 2024-06-13 주식회사 파인디지털 차로 결정 방법 및 차로 결정 장치
CN114608553A (zh) * 2022-02-21 2022-06-10 南京航空航天大学 一种自动驾驶汽车定位系统及方法
CN114608553B (zh) * 2022-02-21 2024-05-24 南京航空航天大学 一种自动驾驶汽车定位系统及方法
CN115014366A (zh) * 2022-05-31 2022-09-06 中国第一汽车股份有限公司 一种目标融合方法、装置、车辆及存储介质
CN117570973A (zh) * 2023-11-17 2024-02-20 中科智驰(安庆)智能科技有限公司 一种用于多场景无人驾驶车辆的融合定位系统及方法
CN117570973B (zh) * 2023-11-17 2024-04-26 中科智驰(安庆)智能科技有限公司 一种用于多场景无人驾驶车辆的融合定位系统及方法

Similar Documents

Publication Publication Date Title
KR101454153B1 (ko) 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템
US11639853B2 (en) Self-localization estimation device
US10788830B2 (en) Systems and methods for determining a vehicle position
EP3109589B1 (en) A unit and method for improving positioning accuracy
Rose et al. An integrated vehicle navigation system utilizing lane-detection and lateral position estimation systems in difficult environments for GPS
CN106546977B (zh) 车辆雷达感知和定位
CN106352867B (zh) 用于确定车辆自身位置的方法和设备
US8301374B2 (en) Position estimation for ground vehicle navigation based on landmark identification/yaw rate and perception of landmarks
Atia et al. A low-cost lane-determination system using GNSS/IMU fusion and HMM-based multistage map matching
KR20180106417A (ko) 차량의 위치 인식 시스템 및 방법
CN108873038A (zh) 自主泊车定位方法及定位系统
CN111176270B (zh) 使用动态地标的定位
JP2019045379A (ja) 自車位置推定装置
KR102331312B1 (ko) 차량 내부 센서, 카메라, 및 gnss 단말기를 이용한 3차원 차량 항법 시스템
CN112189225A (zh) 车道线信息检测装置、方法以及存储被编程为执行该方法的计算机程序的计算机可读记录介质
CN110388925A (zh) 用于与自动导航有关的车辆定位的系统和方法
WO2022147924A1 (zh) 车辆定位方法和装置、存储介质及电子设备
KR102134841B1 (ko) 자율주행차의 위치추정시스템 및 그의 위치추정방법
US11754415B2 (en) Sensor localization from external source data
KR20160038319A (ko) 차량의 위치 표시 방법
CN114174137A (zh) Adas或ad特征的源横向偏移
US11287281B2 (en) Analysis of localization errors in a mobile object
Sajeed et al. Vehicle lane departure estimation on urban roads using GIS information
EP4113063A1 (en) Localization of autonomous vehicles using camera, gps, and imu
Nastro Position and orientation data requirements for precise autonomous vehicle navigation

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170921

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20181001

Year of fee payment: 5