KR20150058889A - 센서 융합 기반 자율 주행 제어 장치 및 방법 - Google Patents

센서 융합 기반 자율 주행 제어 장치 및 방법 Download PDF

Info

Publication number
KR20150058889A
KR20150058889A KR1020130142214A KR20130142214A KR20150058889A KR 20150058889 A KR20150058889 A KR 20150058889A KR 1020130142214 A KR1020130142214 A KR 1020130142214A KR 20130142214 A KR20130142214 A KR 20130142214A KR 20150058889 A KR20150058889 A KR 20150058889A
Authority
KR
South Korea
Prior art keywords
information
vehicle
autonomous
target
sensor
Prior art date
Application number
KR1020130142214A
Other languages
English (en)
Inventor
최아라
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020130142214A priority Critical patent/KR20150058889A/ko
Priority to CN201410328120.4A priority patent/CN104656651A/zh
Publication of KR20150058889A publication Critical patent/KR20150058889A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/009Priority selection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

본 발명은 차량에 장착된 각종 센서들로부터 얻은 정보들을 융합하여 자차의 위치와 타차의 위치를 파악하고 이를 기초로 자율 주행을 제어하는 센서 융합 기반 자율 주행 제어 장치 및 방법을 제안한다. 본 발명에 따른 자율 주행 제어 장치는 차량의 자율 주행 제어가 가능한지 여부를 판단하는 자율 주행 판단부; 차량의 자율 주행 제어가 가능하다고 판단되면 차량의 위치 정보를 생성하는 자차 위치 생성부; 차량에 장착된 각 센서들로부터 얻은 타겟 정보들을 결합하여 타겟의 위치 정보를 생성하는 타겟 위치 생성부; 및 차량의 위치 정보와 타겟의 위치 정보를 기초로 차량의 자율 주행을 제어하는 자율 주행 제어부를 포함한다.

Description

센서 융합 기반 자율 주행 제어 장치 및 방법 {Apparatus and method for controlling automatic driving of vehicle based on sensor fusion}
본 발명은 차량의 자율 주행을 제어하는 장치 및 방법에 관한 것이다. 보다 상세하게는, 차량에 장착된 각종 센서들로부터 얻은 정보들을 융합하여 자율 주행을 제어하는 장치 및 방법에 관한 것이다.
일반적으로 운전자 보조 장치들은 적응형 크루즈 컨트롤(ACC; Adaptive Cruise Control)과 같이 종방향에 대해 속도를 제어해 주거나, 차선 이탈 경보 시스템(LDWS; Lane Departure Warning System)이나 차선 유지 보조 시스템(LKAS; Lane Keeping Assist System)처럼 횡방향에 대해 운전을 보조해주는 기능을 제공한다. 이러한 운전자 보조 장치들은 모두 운전자가 항상 개입하고 있어야 하는 제약 조건이 있다.
무인 자율 주행 차량의 연구에서는 종/횡방향을 제어하여 무인으로 자율 주행하는 시스템에 관한 연구가 있었으나, 매우 제한된 환경에서 이루어졌으며, 실제 도로에서 신뢰성을 보장할 수 없는 문제점이 있다. 예를 들어, GPS가 동작하지 않는 음영 지역이나 공사 등으로 인해 차량에 탑재된 지도 데이터와 실제 환경이 다른 경우에는 무인 자율 주행이 힘들었다.
국내공개특허 제2013-0072709호는 차량에 장착된 센서들로부터 얻은 정보들을 융합하여 차량의 자율 주행을 제어하는 시스템에 대하여 기술하고 있다. 그러나 이 시스템은 카메라 센서와 초음파 센서를 이용하기 때문에 주차 제어가 가능할 뿐 전술한 문제점은 해결할 수가 없다.
본 발명은 상기한 문제점을 해결하기 위해 안출된 것으로서, 차량에 장착된 각종 센서들로부터 얻은 정보들을 융합하여 자차의 위치와 타차의 위치를 파악하고 이를 기초로 자율 주행을 제어하는 센서 융합 기반 자율 주행 제어 장치 및 방법을 제안함을 목적으로 한다.
그러나 본 발명의 목적은 상기에 언급된 사항으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
본 발명은 상기한 목적을 달성하기 위해 안출된 것으로서, 차량의 자율 주행 제어가 가능한지 여부를 판단하는 자율 주행 판단부; 상기 차량의 자율 주행 제어가 가능하다고 판단되면 상기 차량의 위치 정보를 생성하는 자차 위치 생성부; 상기 차량에 장착된 각 센서들로부터 얻은 타겟 정보들을 결합하여 타겟의 위치 정보를 생성하는 타겟 위치 생성부; 및 상기 차량의 위치 정보와 상기 타겟의 위치 정보를 기초로 상기 차량의 자율 주행을 제어하는 자율 주행 제어부를 포함하는 것을 특징으로 하는 센서 융합 기반 자율 주행 제어 장치를 제안한다.
바람직하게는, 상기 자율 주행 판단부는 상기 차량의 GPS 정보를 획득하는 것이 가능한지 여부를 판단하는 GPS 정보 판단부; 상기 GPS 정보를 획득하는 것이 불가능하다고 판단되면 상기 차량의 자세 정보와 속도 정보를 획득하는 것이 가능한지 여부를 판단하는 DR-GPS 정보 판단부; 및 상기 자세 정보와 상기 속도 정보를 획득하는 것이 불가능하다고 판단되면 상기 차량의 자율 주행 제어가 불가능하다고 판단하며, 상기 GPS 정보를 획득하는 것이 가능하다고 판단되거나 상기 자세 정보와 상기 속도 정보를 획득하는 것이 가능하다고 판단되면 상기 차량의 자율 주행 제어가 가능하다고 판단하는 제어 여부 판단부를 포함한다.
바람직하게는, 상기 자차 위치 생성부는 상기 차량의 GPS 정보를 이용하여 상기 차량의 위치 정보를 생성하거나 상기 차량의 자세 정보와 속도 정보를 이용하여 상기 차량의 위치 정보를 생성한다.
바람직하게는, 상기 타겟 위치 생성부는 상기 타겟 정보로 상기 타겟의 존재에 대한 정보, 도로에 대한 정보, 상기 타겟의 속도에 대한 정보, 상기 타겟까지의 거리에 대한 정보, 상기 타겟의 가속도에 대한 정보, 및 상기 타겟의 감속도에 대한 정보 중 적어도 두개의 정보들을 결합하여 상기 타겟의 위치를 결정한다.
바람직하게는, 상기 자율 주행 제어 장치는 미리 정해진 시간마다 상기 차량에 장착된 각 센서의 동작 여부를 판단하여 그룹핑된 센서들의 우선순위를 결정하는 우선순위 결정부를 더 포함한다.
바람직하게는, 상기 자율 주행 제어 장치는 HMI(Human Machine Interface) 형태로 구현된다.
또한 본 발명은 차량의 자율 주행 제어가 가능한지 여부를 판단하는 단계; 상기 차량의 자율 주행 제어가 가능하다고 판단되면 상기 차량의 위치 정보를 생성하는 단계; 상기 차량에 장착된 각 센서들로부터 얻은 타겟 정보들을 결합하여 타겟의 위치 정보를 생성하는 단계; 및 상기 차량의 위치 정보와 상기 타겟의 위치 정보를 기초로 상기 차량의 자율 주행을 제어하는 단계를 포함하는 것을 특징으로 하는 센서 융합 기반 자율 주행 제어 방법을 제안한다.
바람직하게는, 상기 차량의 자율 주행 제어가 가능한지 여부를 판단하는 단계는, 상기 차량의 GPS 정보를 획득하는 것이 가능한지 여부를 판단하는 단계; 상기 GPS 정보를 획득하는 것이 불가능하다고 판단되면 상기 차량의 자세 정보와 속도 정보를 획득하는 것이 가능한지 여부를 판단하는 단계; 및 상기 자세 정보와 상기 속도 정보를 획득하는 것이 불가능하다고 판단되면 상기 차량의 자율 주행 제어가 불가능하다고 판단하며, 상기 GPS 정보를 획득하는 것이 가능하다고 판단되거나 상기 자세 정보와 상기 속도 정보를 획득하는 것이 가능하다고 판단되면 상기 차량의 자율 주행 제어가 가능하다고 판단하는 단계를 포함한다.
바람직하게는, 상기 차량의 위치 정보를 생성하는 단계는 상기 차량의 GPS 정보를 이용하여 상기 차량의 위치 정보를 생성하거나 상기 차량의 자세 정보와 속도 정보를 이용하여 상기 차량의 위치 정보를 생성하며, 상기 타겟의 위치 정보를 생성하는 단계는 상기 타겟 정보로 상기 타겟의 존재에 대한 정보, 도로에 대한 정보, 상기 타겟의 속도에 대한 정보, 상기 타겟까지의 거리에 대한 정보, 상기 타겟의 가속도에 대한 정보, 및 상기 타겟의 감속도에 대한 정보 중 적어도 두개의 정보들을 결합하여 상기 타겟의 위치를 결정한다.
바람직하게는, 상기 차량의 자율 주행 제어가 가능한지 여부를 판단하는 단계 이전에, 미리 정해진 시간마다 상기 차량에 장착된 각 센서의 동작 여부를 판단하여 그룹핑된 센서들의 우선순위를 결정하는 단계를 더 포함한다.
본 발명은 차량에 장착된 각종 센서들로부터 얻은 정보들을 융합하여 자차의 위치와 타차의 위치를 파악하고 이를 기초로 자율 주행을 제어함으로써 다음 효과를 얻을 수 있다.
첫째, GPS 정보가 수신되지 않더라도 V2X 및 센서 융합에 기반하여 차량의 자율 주행 제어가 가능해진다.
둘째, 도로 상황이나 주행 상황이 급격하게 변화되거나 자주 변화되더라도 안정적인 자율 주행 제어가 가능해진다.
도 1은 본 발명의 일실시예에 따른 자율 주행 차량의 HMI 시스템의 개념도이다.
도 2는 도 1의 HMI 시스템을 이용하여 감지된 오브젝트의 위치를 표출하는 방법을 도시한 흐름도이다.
도 3은 도 1의 HMI 시스템을 이용하여 측위 정보를 처리하는 방법을 도시한 흐름도이다.
도 4는 도 1의 HMI 시스템을 이용하여 센서 정보를 처리하는 방법을 도시한 흐름도이다.
도 5는 도 1의 HMI 시스템을 이용하여 자율 주행 상태를 처리하는 방법을 도시한 흐름도이다.
도 6은 도 1의 HMI 시스템을 이용하여 차량 주행 상태를 처리하는 방법을 도시한 흐름도이다.
도 7은 도 1의 HMI 시스템을 이용하여 차량의 자율 주행을 총괄적으로 제어하는 방법을 도시한 흐름도이다.
도 8은 본 발명의 바람직한 실시예에 따른 센서 융합 기반 자율 주행 제어 장치를 개략적으로 도시한 블록도이다.
도 9는 도 8의 자율 주행 제어 장치를 구성하는 자율 주행 판단부를 구체적으로 도시한 블록도이다.
이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조 부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 바람직한 실시예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다.
자율 주행 시스템 기반으로 각 센서들의 분석 및 융합 과정 즉, 현 주행 상황에 대해 운전자에게 정확한 정보를 제공하며 자율 주행 시스템의 안전성의 증대를 기대한다. 자율 주행 도중 차량이 DR(Dead-Reckoning) 및 GPS 정보의 수신이 불가하여 급히 운전자 주행이 필요한 경우, 차량 정보를 운전자에게 효과적으로 알려줄 수 있는 방법이 HMI(Human Machine Interface) 시스템이라고 생각된다. 그래서 V2X(ex. Vehicle to Vehicle) 및 센서 융합 기반 자율 주행의 HMI 시스템을 제안한다.
최근에는 시대적 트렌드인 스마트폰과 연계한 차량용 앱 서비스 제공을 위한 터치 스크린이나 개인용 IT 기기와의 자연스러운 연동을 위한 Connectivity 연구, 차량 제스처 인식 및 3D 그래픽과 같은 고급 입출력 기술, 미래 무인 자동차를 대비한 Automation HMI 콘셉트 연구, 차량 내 디스플레이 및 제어 장비들의 미래지향적 통합 디자인 방안에 대한 연구 등 고도의 HMI 기술을 활발히 연구하고 있다.
이러한 트렌드에 따라 무인 자동차를 위한 HMI 시스템을 제안하고자 한다. 무인 자동차 즉, 자율 주행 자동차는 운전자의 제어없이 차량이 스스로 주행하는 방식이다. 이러한 차량은 HMI의 역할이 중요하다고 생각한다. 자율 주행 도중 차량이 DR 및 GPS 정보의 수신이 불가하여 급히 운전자 주행이 필요한 경우, 차량 Info를 운전자에게 효과적으로 알려줄 수 있는 것이 HMI 시스템이라고 생각한다. 그래서 다음과 같이 V2X 및 센서 융합 기반 자율 주행의 HMI 시스템을 제안한다.
최근 자동차는 자동차 고유의 이동 및 정지와 같은 차량 제어 기능을 넘어 전자 통신 장비 및 각종 센서를 통한 안전, 편의 기능 및 인포테인먼트 기능을 다양하게 제공하고 있다. 클러스터, AV/내비게이션, 공조 장치 및 다양한 편의 시스템의 정보 표시 방법과 위치, 조작 장치 및 스위치 등의 최적 디자인과 배열 등 차량 내 다양한 기능들에 대한 디스플레이 요소와 컨트롤 요소의 최적 설계와 사용자에게 유익하고 편리를 제공하고 있다.
따라서, 이와 같은 제한 사항보다 더 나아가 차량 정보를 자세히 표기하고자 한다. 보편화되지 않은 선행 시스템인 자율 주행 시스템 기반으로 각 센서들의 분석 및 융합 과정 즉, 현 주행 상황에 대해 운전자에게 정확한 정보를 제공하며 자율 주행 시스템의 안전성의 증대를 기대한다.
종래 차량은 현 차량의 상태 및 주행 정보를 세밀하게 표기되고 있지 않다. 본 발명에 따라 선행 차량 급정거, 전방 장애물 발생 등의 주행 issue 및 차량 현 상태를 자세히 표기하면 차량 사고 예방이 될 것이라 기대한다.
도 1은 본 발명의 일실시예에 따른 자율 주행 차량의 HMI 시스템의 개념도이다.
최근 차량 인포테인먼트 개발이 활발하게 이루어지고 있다. 차량 내에서 사용하고자 하는 기능 및 제공해야 할 정보들을 운전자에게 안전하고 효율적으로 제공하기 위한 차량용 HMI UI/UX에 대한 개발이 필요해졌다. 그러므로, 자율 주행 시스템의 자율 주행 차량 내부의 각 센서의 데이터를 효율적으로 표출하는 HMI 시스템을 소개하고자 한다.
Module Info는 다음과 같다.
(1) DR 및 DGPS 장비 : 현대 주행 차량의 위치, 속력, 가속도, 헤딩각 등의 위치 정보 송신 장비
(2) 레이저 센서 : 타겟 정보(타겟 : 보행자, 박스 등의 차량 주변에 감지되는 물체) 송신 센서
(3) 레이다 센서 : 타겟 정보(거리, 측면 거리, 상대 속도, 상대 가속도 등) 및 도로 정보(곡률 반경, 도로 측면 거리 등) 송신 센서
(4) 카메라 : 타겟 정보(거리, 상대 속도 등) 및 도로 정보(차선 거리, 도로 경사, 곡률 반경 등) 송신 센서
(5) V2V 센서 : 상대 차량의 정보(브레이크 상태, 횡방향 가속도, 종방향 가속도, 차량 크기, 속도 등) 송신 센서
(6) 통합 제어기 : 각 센서의 정보를 기반으로 차량을 제어 및 센서 정보를 융합하며 HMI 시스템에 현재 자율 주행 상태를 CAN Data로 송신하는 장비
통합 제어기와 HMI System 간 통신과 관련된 Specification은 다음과 같다.
- High Speed CAN 500kbps
- 카메라/레이저/레이다/V2X 센서 CAN Data base
- 통합제어기 - HMI System CAN Data base
- 주행중 issue : CAN id 0x333으로 정의
HMI System Data는 다음과 같다.
- 감지된 Object 위치 표출 : 감지된 Object 위치에 따라 HMI에서 0 or 1의 신호를 줌으로써 감지된 영역을 레드색으로 표시
- 측위 정보 : DR 및 GPS의 성능을 %로 표기하며 두 측정값을 융합하여 성능을 %로 표기
- 센서 정보 : ① 레이저/레이다/카메라/V2X 센서의 동작 여부에 따라 0 or 1의 신호를 줌으로써 센서의 Pass/Fail을 그린/레드색으로 표시
② 센서의 Object 감지 성능을 평가하여 센서의 Priority를 Text 형태로 표기
③ 센서들의 성능을 융합하여 %로 표기
- 자율 주행 상태 : 자율 주행시 발생하는 issue를 통합 제어기 내에서 제어하여 해당 issue 발생 여부에 따라 0 or 1의 신호를 줌으로 발생시 그린색으로 표기
- 차량 주행 상태 : 차량 Chassis-CAN을 기반으로 자율 주행중 발생하는 차량 정보들을 Graph, Value들의 형태로 표시
자율 주행 차량 HMI System은 도 1과 같은 형태로 제안한다.
자율 주행 시스템의 자율 주행 차량 내부의 각 센서의 데이터를 효율적으로 표출하는 HMI 시스템을 제안하고자 한다. 상세 자율 주행 HMI 시스템 Concept는 아래와 같다.
(1) 주행 시스템 ON
ON/OFF 버튼을 이용하여 자율 주행 시스템을 ON하면 DR 및 GPS 데이터를 받아 자율 주행 가능 여부를 판단한 후에 가능하다면 상하 조작 스틱을 아래로 Push하여 자율 주행을 시작한다.
시스템 버튼들은 통합 제어기와 연동되어 있다.
(2) 측위 정보(130)
자율 주행의 가능 여부를 판단하는 DR 및 GPS 데이터를 받아 성능을 %의 형태로 표기하며 이 데이터를 기반으로 측위 정보를 융합하여 HMI에 표기한다.
(3) 감지된 Object 위치 표출(110)
각 센서에서 감지된 Object들을 Object 위치에 맞추어서 Object가 감지되면 1의 신호를 줌으로써 Object가 감지된 영역을 레드색으로 표기한다. 감지되지 않은 영역은 0의 신호를 준다.
감지 영역은 아래와 같이 구분한다.
- Oncoming Left : 자율 주행 차량의 왼쪽 반대 방향에서 다가오는 Object
- Oncoming : 자율 주행 차량의 정면 반대 방향에서 다가오는 Object
- Oncoming Right : 자율 주행 차량의 오른쪽 반대 방향에서 다가오는 Object
- Ahead Left : 자율 주행 차량의 앞부분 왼쪽 방향에 위치한 Object
- Ahead : 자율 주행 차량의 앞부분 정면 방향에 위치한 Object
- Ahead Right : 자율 주행 차량의 앞부분 오른쪽 방향에 위치한 Object
- Behind Left : 자율 주행 차량의 뒷부분 왼쪽 방향에 위치한 Object
- Behind : 자율 주행 차량의 뒷부분 정면 방향에 위치한 Object
- Behind Right : 자율 주행 차량의 뒷부분 오른쪽 방향에 위치한 Object
(4) 센서 정보(120)
레이저/레이다/카메라/V2X 센서의 동작 여부에 따라 센서들의 상태를 0 or 1의 신호로 센서들의 상태를 표기하여 준다. 센서가 정상 동작을 하면 1의 신호에 센서의 상태를 그린색으로 표시하고 정상 동작하지 않는다면 0의 신호에 센서의 상태를 레드색으로 표시한다.
센서의 Object 감지 성능을 평가하여 센서의 Priority를 정하여 Text 형태로 표기한다.
센서의 성능을 융합하여 센서 융합값을 %으로 표기한다.
(5) 자율 주행 상태(140)
자율 주행중일 때 전방에 발생한 issue에 따라 차량의 통합 제어기에서 차량을 제어 후 해당 issue 발생했을 경우 신호 1 및 그린색으로 표기, 발생하지 않았을 경우 신호 0 및 블랙색으로 HMI에 표기해 줌으로써 주행에 주의를 준다.
- 경로 추종 주행 : 경로에 따라 주행하는 자율 주행의 기본 상태
- 회피 주행 : 전방의 장애물 발생 등의 issue로 인해 자율 주행 차량 회피 주행 상태
- 긴급 제동 : 전방의 장애물 발생 등의 issue로 인해 자율 주행 차량 긴급 제동 상태
- 게이트 출현 : V2I 통신을 기반으로 전방에 게이트 출현을 감지한 상태
- 게이트 통과 : V2I 통신을 기반으로 게이트 통과를 감지한 상태
- 장애물 발생 : 자율 주행 전방에 장애물 발생을 센서로 감지한 상태
- 교차로 통과 : V2V 통신을 기반으로 교차로 지역 차량 존재 유무를 판단 및 교차로 통과 후 상태
(6) 차량 주행 상태(150)
자율 주행 중일 경우 차량 내에 Chassis-CAN Data를 기반으로 차량 주행 정보를 표기하여 준다. 한가지 경우를 설명한다면, 종방향 속도 및 횡방향 가속도는 그래프로 표기하여 줌으로써 현재 주행 상태를 파악하기 쉽게 표기하여 준다. 그리고 추가적으로 Chassis-CAN Data 이외에 다른 주행 정보도 추가 가능하다. 예를 들어 DGPS Age Time을 표기하여 줌으로써 GPS Data의 수신 여부를 쉽게 파악할 수 있다. DGPS Age Time은 마지막 GPS Data가 수신된 시간이며, 시간이 점점 늘어날수록 data가 수신 안되고 있음을 의미한다.
도 2는 도 1의 HMI 시스템을 이용하여 감지된 오브젝트의 위치를 표출하는 방법을 도시한 흐름도이다. HMI 시스템은 이 방법을 통해 예컨대 타겟의 위치를 결정할 수 있다.
먼저 자율 주행이 시작되면(S210) 레이저 센서, 레이더 센서, 카메라 센서, V2X 센서 등을 이용하여 타겟에 대한 정보를 획득한다(S220, S230, S240, S250). 이후 차량 내 통합 제어기가 레이저 센서, 레이더 센서, 카메라 센서, V2X 센서 등에 의해 획득된 타겟에 대한 정보를 기초로 타겟을 추출하고 타겟의 위치를 판단한다(S260). 이후 HMI CAN 데이터로 매칭시키고 HMI를 통해 표시한다(S270).
도 3은 도 1의 HMI 시스템을 이용하여 측위 정보를 처리하는 방법을 도시한 흐름도이다. HMI 시스템은 이 방법을 통해 예컨대 자차의 위치를 결정할 수 있다.
먼저 DR 시스템과 GPS 시스템을 차례대로 구동시킨다(S310, S320). 이후 차량 내 통합 제어기가 DR 시스템을 통해 얻은 자차의 위치 정보와 GPS 시스템을 통해 얻은 자차의 위치 정보를 융합한다(S330). 이후 측위 융합 상태를 판단하고(S340) 현재 측위 성능을 측정한다(S350).
한편 DR 시스템이 구동되면 차량 내 통합 제어기가 DR 시스템의 성능을 측정한다(S360). 또한 차량 내 통합 제어기가 GPS 시스템의 성능을 측정한다(S370).
현재 측위 성능, DR 시스템의 성능, GPS 시스템의 성능 등이 측정되면 HMI CAN 데이터로 매칭시키고 HMI를 통해 표시한다(S380).
도 4는 도 1의 HMI 시스템을 이용하여 센서 정보를 처리하는 방법을 도시한 흐름도이다.
먼저 자율 주행이 시작되면(S410) 레이저 센서, 레이더 센서, 카메라 센서, V2X 센서 등을 이용하여 외부 정보를 수집한다(S420, S430, S440, S450). 이후 차량 내 통합 제어기가 레이저 센서, 레이더 센서, 카메라 센서, V2X 센서 등에 의한 외부 정보가 수집 여부 등을 기초로 센서의 우선순위를 판별하며(S460), 수집된 정보들을 융합시킨다(S470). 이후 HMI CAN 데이터로 매칭시키고 HMI를 통해 표시한다(S480).
도 5는 도 1의 HMI 시스템을 이용하여 자율 주행 상태를 처리하는 방법을 도시한 흐름도이다.
먼저 자율 주행이 시작되면(S510) 자율 주행중 issue를 감지한다(S520). issue는 기존에 알려지지 않은 정보로서, 도로 상에서의 교통 사고, 낙석 등이 이에 해당한다. 통합 제어기는 issue를 기초로 차량을 제어하며(S530) issue can 데이터를 차량 내외부로 전송한다(S540). 이후 HMI CAN 데이터로 매칭시키고 HMI를 통해 표시한다(S550).
도 6은 도 1의 HMI 시스템을 이용하여 차량 주행 상태를 처리하는 방법을 도시한 흐름도이다.
자율 주행이 시작되면(S610) Chassis-CAN 데이터를 획득한다(S620). 이후 조향 각도 등 차량 주행 정보를 READ하여(S630) HMI CAN 데이터로 매칭시키고 HMI를 통해 표시한다(S640).
도 7은 도 1의 HMI 시스템을 이용하여 차량의 자율 주행을 총괄적으로 제어하는 방법을 도시한 흐름도이다.
자율 주행 시스템을 ON시키면(S705) DR 정보와 GPS 정보가 통합 제어기로 송신된다(S710). 통합 제어기는 DR 정보와 GPS 정보의 수신 여부를 기초로 자율 주행이 가능한지 여부를 판단한다(S715). 자율 주행이 가능한 것으로 판단되면(S720) 자율 주행이 시작되며(S725), 자율 주행이 가능하지 않은 것으로 판단되면 일정 시간이 경과한 후에 S705 단계부터 다시 시작한다.
통합 제어기는 측위 상태, 측위 융합 성능, DR 성능, GPS 성능 등을 측정하고 측정 데이터를 HMI 시스템으로 전송한다(S730). 또한 통합 제어기는 레이저 센서의 상태를 측정하고 레이저 센서에 의해 획득된 타겟에 대한 정보를 분석하여 그 결과를 HMI 시스템으로 전송한다(S735). 또한 통합 제어기는 레이더 센서의 상태를 측정하고 레이더 센서에 의해 획득된 타겟에 대한 정보를 분석하여 그 결과를 HMI 시스템으로 전송한다(S740). 또한 통합 제어기는 V2X 센서의 상태를 측정하고 V2X 센서에 의해 획득된 타겟에 대한 정보를 분석하여 그 결과를 HMI 시스템으로 전송한다(S745). 또한 통합 제어기는 자율 주행중 Chassis-CAN 정보와 issue-CAN 정보를 생성하고 그 결과를 HMI 시스템으로 전송한다(S750).
한편 통합 제어기는 S735 단계, S740 단계 및 S745 단계에서 얻은 분석 결과를 기초로 센서 데이터의 우선순위를 판별하고 융합 후 그 결과를 HMI 시스템으로 전송한다(S755).
최종적으로 HMI 시스템은 수신받은 데이터를 기반으로 HMI 데이터로 매칭시킨다(S760).
이상 설명한 V2X 및 센서 융합 기반 자율 주행 HMI 시스템은 자율 주행 시스템 기반으로 각 센서들의 분석 및 융합 과정을 통해 현 주행 상황에 대해 운전자에게 정확한 정보를 제공하며 자율 주행 시스템의 안전성의 증대를 기대한다. 자율 주행 자동차는 운전자의 제어없이 차량이 스스로 주행하는 방식이다. 이러한 차량은 HMI의 역할이 중요하다고 생각한다. 자율 주행 도중 차량이 DR 및 GPS 정보의 수신이 불가하여 급히 운전자 주행이 필요한 경우, 차량 Info를 운전자에게 효과적으로 알려줄 수 있는 것이 HMI 시스템이라고 생각된다.
이상 도 1 내지 도 7을 참조하여 설명한 HMI 시스템을 기반으로 하여 일 형태로 구성된 센서 융합 기반 자율 주행 제어 장치에 대하여 설명한다.
도 8은 본 발명의 바람직한 실시예에 따른 센서 융합 기반 자율 주행 제어 장치를 개략적으로 도시한 블록도이다.
도 8에 따르면, 자율 주행 제어 장치(800)는 자율 주행 판단부(810), 자차 위치 생성부(820), 타겟 위치 생성부(830), 자율 주행 제어부(840), 전원부(860) 및 주제어부(870)를 포함한다. 본 실시예에서 자율 주행 제어 장치(800)는 HMI(Human Machine Interface) 형태로 구현될 수 있다.
전원부(860)는 자율 주행 제어 장치(800)를 구성하는 각 구성에 전원을 공급하는 기능을 수행한다. 주제어부(870)는 자율 주행 제어 장치(800)를 구성하는 각 구성의 전체 작동을 제어하는 기능을 수행한다. 자율 주행 제어 장치(800)는 차량의 메인 ECU에 구비될 수 있는 것이므로 본 실시예에서 전원부(860)와 주제어부(870)는 구비되지 않아도 무방하다.
자율 주행 판단부(810)는 차량의 자율 주행 제어가 가능한지 여부를 판단하는 기능을 수행한다. 도 9는 도 8의 자율 주행 제어 장치를 구성하는 자율 주행 판단부를 구체적으로 도시한 블록도이다.
도 9에 따르면, 자율 주행 판단부(810)는 GPS 정보 판단부(811), DR-GPS 정보 판단부(812) 및 제어 여부 판단부(813)를 포함할 수 있다.
GPS 정보 판단부(811)는 차량의 GPS 정보를 획득하는 것이 가능한지 여부를 판단하는 기능을 수행한다.
DR-GPS 정보 판단부(812)는 GPS 정보를 획득하는 것이 불가능하다고 판단되면 차량의 자세 정보와 속도 정보를 획득하는 것이 가능한지 여부를 판단하는 기능을 수행한다.
제어 여부 판단부(813)는 자세 정보와 속도 정보를 획득하는 것이 불가능하다고 판단되면 차량의 자율 주행 제어가 불가능하다고 판단하며, GPS 정보를 획득하는 것이 가능하다고 판단되거나 자세 정보와 속도 정보를 획득하는 것이 가능하다고 판단되면 차량의 자율 주행 제어가 가능하다고 판단하는 기능을 수행한다.
GPS 정보는 차량에 장착된 GPS 센서를 통해 획득할 수 있다. 자세 정보는 차량에 장착된 자이로스코프 센서나 피치(pitch), 요(yaw), 롤(roll) 값을 구할 수 있는 3축 기울기 센서를 통해 획득할 수 있다.
DR(Dead Reckoning)-GPS 기술은 GPS 위성 수신이 없는 상태에서도 자이로스코프 센서, 3축 기울기 센서, 차속 센서 등을 이용하여 스스로 위치를 확인하는 기술을 말한다.
다시 도 8을 참조하여 설명한다.
자차 위치 생성부(820)는 차량의 자율 주행 제어가 가능하다고 판단되면 차량의 위치 정보를 생성하는 기능을 수행한다.
자차 위치 생성부(820)는 차량의 GPS 정보를 이용하여 차량의 위치 정보를 생성하거나 차량의 자세 정보와 속도 정보를 이용하여 차량의 위치 정보를 생성할 수 있다.
타겟 위치 생성부(830)는 차량에 장착된 각 센서들로부터 얻은 타겟 정보들을 결합하여 타겟의 위치 정보를 생성하는 기능을 수행한다.
타겟 위치 생성부(830)는 타겟 정보로 타겟의 존재에 대한 정보, 도로에 대한 정보, 타겟의 속도에 대한 정보, 타겟까지의 거리에 대한 정보, 타겟의 가속도에 대한 정보, 및 타겟의 감속도에 대한 정보 중 적어도 두개의 정보들을 결합하여 타겟의 위치를 결정할 수 있다.
타겟의 존재에 대한 정보는 레이저 센서를 이용하여 구할 수 있다. 도로에 대한 정보, 타겟의 속도에 대한 정보, 타겟까지의 거리에 대한 정보 등은 레이더 센서나 카메라 센서를 이용하여 구할 수 있다. 바람직하게는 전방이나 후방에 위치하는 타겟의 경우 카메라 센서를 이용하여 구할 수 있으며, 측방에 위치하는 타겟의 경우 레이더 센서를 이용하여 구할 수 있다. 타겟의 가속도에 대한 정보, 타겟의 감속도에 대한 정보 등은 V2V(Vehicle to Vehicle) 센서를 이용하여 구할 수 있다.
자율 주행 제어부(840)는 차량의 위치 정보와 타겟의 위치 정보를 기초로 차량의 자율 주행을 제어하는 기능을 수행한다.
한편 자율 주행 제어 장치(800)는 우선순위 결정부(850)를 더 포함할 수 있다.
우선순위 결정부(850)는 미리 정해진 시간마다 차량에 장착된 각 센서의 동작 여부를 판단하여 그룹핑된 센서들의 우선순위를 결정하는 기능을 수행한다.
본 실시예에서는 자차의 위치 정보를 생성하는 GPS 센서, 자이로스코프 센서, 3축 기울기 센서 등이 하나의 그룹으로 형성될 수 있다. 또한 타겟의 위치 정보를 생성하는 레이저 센서, 레이더 센서, 카메라 센서, V2V 센서 등도 하나의 그룹으로 형성될 수 있다.
다음으로 자율 주행 제어 장치(800)의 작동 방법에 대하여 설명한다.
먼저 차량의 자율 주행 제어가 가능한지 여부를 판단한다.
자율 주행 제어 장치(800)는 차량의 GPS 정보를 획득하는 것이 가능한지 여부를 판단하고, GPS 정보를 획득하는 것이 불가능하다고 판단되면 차량의 자세 정보와 속도 정보를 획득하는 것이 가능한지 여부를 판단한다. 자세 정보와 속도 정보를 획득하는 것이 불가능하다고 판단되면 차량의 자율 주행 제어가 불가능하다고 판단하며, GPS 정보를 획득하는 것이 가능하다고 판단되거나 자세 정보와 속도 정보를 획득하는 것이 가능하다고 판단되면 차량의 자율 주행 제어가 가능하다고 판단한다.
이후 차량의 자율 주행 제어가 가능하다고 판단되면 차량의 위치 정보를 생성한다. 그리고 차량에 장착된 각 센서들로부터 얻은 타겟 정보들을 결합하여 타겟의 위치 정보를 생성한다.
이후 차량의 위치 정보와 타겟의 위치 정보를 기초로 차량의 자율 주행을 제어한다.
한편 자율 주행 제어 장치(800)는 미리 정해진 시간마다 차량에 장착된 각 센서의 동작 여부를 판단하여 그룹핑된 센서들의 우선순위를 결정할 수 있다. 그룹핑된 센서들의 우선순위를 결정하는 단계는 미리 정해진 시간마다 수행되어야 하기에 언제 수행되어도 무방하다. 다만 자율 주행 제어의 효율성을 높이기 위해서 차량의 자율 주행 제어가 가능한지 여부를 판단하는 단계 이전에 수행되는 것이 바람직하다.
이상에서 설명한 본 발명의 실시예를 구성하는 모든 구성요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 또한, 이와 같은 컴퓨터 프로그램은 USB 메모리, CD 디스크, 플래쉬 메모리 등과 같은 컴퓨터가 읽을 수 있는 기록매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 기록매체로서는 자기 기록매체, 광 기록매체, 캐리어 웨이브 매체 등이 포함될 수 있다.
또한, 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 상세한 설명에서 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (10)

  1. 차량의 자율 주행 제어가 가능한지 여부를 판단하는 자율 주행 판단부;
    상기 차량의 자율 주행 제어가 가능하다고 판단되면 상기 차량의 위치 정보를 생성하는 자차 위치 생성부;
    상기 차량에 장착된 각 센서들로부터 얻은 타겟 정보들을 결합하여 타겟의 위치 정보를 생성하는 타겟 위치 생성부; 및
    상기 차량의 위치 정보와 상기 타겟의 위치 정보를 기초로 상기 차량의 자율 주행을 제어하는 자율 주행 제어부
    를 포함하는 것을 특징으로 하는 센서 융합 기반 자율 주행 제어 장치.
  2. 제 1 항에 있어서,
    상기 자율 주행 판단부는,
    상기 차량의 GPS 정보를 획득하는 것이 가능한지 여부를 판단하는 GPS 정보 판단부;
    상기 GPS 정보를 획득하는 것이 불가능하다고 판단되면 상기 차량의 자세 정보와 속도 정보를 획득하는 것이 가능한지 여부를 판단하는 DR-GPS 정보 판단부; 및
    상기 자세 정보와 상기 속도 정보를 획득하는 것이 불가능하다고 판단되면 상기 차량의 자율 주행 제어가 불가능하다고 판단하며, 상기 GPS 정보를 획득하는 것이 가능하다고 판단되거나 상기 자세 정보와 상기 속도 정보를 획득하는 것이 가능하다고 판단되면 상기 차량의 자율 주행 제어가 가능하다고 판단하는 제어 여부 판단부
    를 포함하는 것을 특징으로 하는 센서 융합 기반 자율 주행 제어 장치.
  3. 제 1 항에 있어서,
    상기 자차 위치 생성부는 상기 차량의 GPS 정보를 이용하여 상기 차량의 위치 정보를 생성하거나 상기 차량의 자세 정보와 속도 정보를 이용하여 상기 차량의 위치 정보를 생성하는 것을 특징으로 하는 센서 융합 기반 자율 주행 제어 장치.
  4. 제 1 항에 있어서,
    상기 타겟 위치 생성부는 상기 타겟 정보로 상기 타겟의 존재에 대한 정보, 도로에 대한 정보, 상기 타겟의 속도에 대한 정보, 상기 타겟까지의 거리에 대한 정보, 상기 타겟의 가속도에 대한 정보, 및 상기 타겟의 감속도에 대한 정보 중 적어도 두개의 정보들을 결합하여 상기 타겟의 위치를 결정하는 것을 특징으로 하는 센서 융합 기반 자율 주행 제어 장치.
  5. 제 1 항에 있어서,
    미리 정해진 시간마다 상기 차량에 장착된 각 센서의 동작 여부를 판단하여 그룹핑된 센서들의 우선순위를 결정하는 우선순위 결정부
    를 더 포함하는 것을 특징으로 하는 센서 융합 기반 자율 주행 제어 장치.
  6. 제 1 항에 있어서,
    상기 자율 주행 제어 장치는 HMI(Human Machine Interface) 형태로 구현되는 것을 특징으로 하는 센서 융합 기반 자율 주행 제어 장치.
  7. 차량의 자율 주행 제어가 가능한지 여부를 판단하는 단계;
    상기 차량의 자율 주행 제어가 가능하다고 판단되면 상기 차량의 위치 정보를 생성하는 단계;
    상기 차량에 장착된 각 센서들로부터 얻은 타겟 정보들을 결합하여 타겟의 위치 정보를 생성하는 단계; 및
    상기 차량의 위치 정보와 상기 타겟의 위치 정보를 기초로 상기 차량의 자율 주행을 제어하는 단계
    를 포함하는 것을 특징으로 하는 센서 융합 기반 자율 주행 제어 방법.
  8. 제 7 항에 있어서,
    상기 차량의 자율 주행 제어가 가능한지 여부를 판단하는 단계는,
    상기 차량의 GPS 정보를 획득하는 것이 가능한지 여부를 판단하는 단계;
    상기 GPS 정보를 획득하는 것이 불가능하다고 판단되면 상기 차량의 자세 정보와 속도 정보를 획득하는 것이 가능한지 여부를 판단하는 단계; 및
    상기 자세 정보와 상기 속도 정보를 획득하는 것이 불가능하다고 판단되면 상기 차량의 자율 주행 제어가 불가능하다고 판단하며, 상기 GPS 정보를 획득하는 것이 가능하다고 판단되거나 상기 자세 정보와 상기 속도 정보를 획득하는 것이 가능하다고 판단되면 상기 차량의 자율 주행 제어가 가능하다고 판단하는 단계
    를 포함하는 것을 특징으로 하는 센서 융합 기반 자율 주행 제어 방법.
  9. 제 7 항에 있어서,
    상기 차량의 위치 정보를 생성하는 단계는 상기 차량의 GPS 정보를 이용하여 상기 차량의 위치 정보를 생성하거나 상기 차량의 자세 정보와 속도 정보를 이용하여 상기 차량의 위치 정보를 생성하며,
    상기 타겟의 위치 정보를 생성하는 단계는 상기 타겟 정보로 상기 타겟의 존재에 대한 정보, 도로에 대한 정보, 상기 타겟의 속도에 대한 정보, 상기 타겟까지의 거리에 대한 정보, 상기 타겟의 가속도에 대한 정보, 및 상기 타겟의 감속도에 대한 정보 중 적어도 두개의 정보들을 결합하여 상기 타겟의 위치를 결정하는 것을 특징으로 하는 센서 융합 기반 자율 주행 제어 방법.
  10. 제 7 항에 있어서,
    미리 정해진 시간마다 상기 차량에 장착된 각 센서의 동작 여부를 판단하여 그룹핑된 센서들의 우선순위를 결정하는 단계
    를 더 포함하는 것을 특징으로 하는 센서 융합 기반 자율 주행 제어 방법.
KR1020130142214A 2013-11-21 2013-11-21 센서 융합 기반 자율 주행 제어 장치 및 방법 KR20150058889A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130142214A KR20150058889A (ko) 2013-11-21 2013-11-21 센서 융합 기반 자율 주행 제어 장치 및 방법
CN201410328120.4A CN104656651A (zh) 2013-11-21 2014-07-10 基于融合传感器的自动行驶控制装置及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130142214A KR20150058889A (ko) 2013-11-21 2013-11-21 센서 융합 기반 자율 주행 제어 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20150058889A true KR20150058889A (ko) 2015-05-29

Family

ID=53247909

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130142214A KR20150058889A (ko) 2013-11-21 2013-11-21 센서 융합 기반 자율 주행 제어 장치 및 방법

Country Status (2)

Country Link
KR (1) KR20150058889A (ko)
CN (1) CN104656651A (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140020500A (ko) * 2012-08-08 2014-02-19 현대모비스 주식회사 Mdps의 구동 제어 방법
KR20170015214A (ko) * 2015-07-30 2017-02-08 삼성전자주식회사 자율 주행 차량을 제어하는 장치 및 방법
KR20180132922A (ko) * 2016-05-30 2018-12-12 엘지전자 주식회사 차량용 디스플레이 장치 및 차량
KR20220138059A (ko) * 2021-04-02 2022-10-12 인하대학교 산학협력단 자율주행 시스템의 운전 능력 자동 평가 시스템 및 방법

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105678316B (zh) * 2015-12-29 2019-08-27 大连楼兰科技股份有限公司 基于多信息融合的主动驾驶方法
KR102107762B1 (ko) * 2016-12-30 2020-05-07 현대자동차주식회사 협조 적응 순항 제어 시스템의 연비 향상 제어 장치 및 방법
CN106200626B (zh) * 2016-08-26 2018-07-27 上海瑞言信息科技有限公司 自然驾驶数据采集系统及其安全算法
KR101896783B1 (ko) * 2016-10-17 2018-10-18 현대자동차주식회사 V2x 데이터 신뢰도 검증을 위한 v2x 통신 장치, 그를 포함한 v2x 통신 시스템 및 그 방법
DE102017223200A1 (de) * 2017-12-19 2019-06-19 Robert Bosch Gmbh Verfahren zur satellitengestützten Ermittlung einer Position eines Fahrzeugs
CN108828548A (zh) * 2018-06-26 2018-11-16 重庆邮电大学 一种基于fmcw雷达的三参数融合数据集构建方法
CN114170826B (zh) * 2021-12-03 2022-12-16 地平线(上海)人工智能技术有限公司 自动驾驶控制方法和装置、电子设备和存储介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100449443C (zh) * 2005-07-18 2009-01-07 李胜强 一种汽车自动驾驶系统
CN102076538B (zh) * 2009-06-19 2014-03-12 丰田自动车株式会社 车辆行驶控制装置
US8253589B2 (en) * 2009-10-20 2012-08-28 GM Global Technology Operations LLC Vehicle to entity communication
CN102407848A (zh) * 2010-09-21 2012-04-11 高强 具有自动泊车与智能驾驶功能的控制器系统
CN102353379B (zh) * 2011-07-06 2013-02-13 上海海事大学 一种适用于自动驾驶车导航的环境建模方法
KR101326889B1 (ko) * 2011-11-07 2013-11-11 현대자동차주식회사 이동 기준국을 이용한 차량간 상대 위치 제어 방법 및 그 시스템
CN102490673A (zh) * 2011-12-13 2012-06-13 中科院微电子研究所昆山分所 基于车联网的汽车主动安全控制系统及其控制方法
JP5786753B2 (ja) * 2012-02-15 2015-09-30 株式会社デンソー 車両用装置、及び車両用システム
CN103383265B (zh) * 2013-07-04 2016-12-07 宁波吉利汽车研究开发有限公司 汽车自动驾驶系统

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140020500A (ko) * 2012-08-08 2014-02-19 현대모비스 주식회사 Mdps의 구동 제어 방법
KR20170015214A (ko) * 2015-07-30 2017-02-08 삼성전자주식회사 자율 주행 차량을 제어하는 장치 및 방법
KR20180132922A (ko) * 2016-05-30 2018-12-12 엘지전자 주식회사 차량용 디스플레이 장치 및 차량
US11242068B2 (en) 2016-05-30 2022-02-08 Lg Electronics Inc. Vehicle display device and vehicle
KR20220138059A (ko) * 2021-04-02 2022-10-12 인하대학교 산학협력단 자율주행 시스템의 운전 능력 자동 평가 시스템 및 방법

Also Published As

Publication number Publication date
CN104656651A (zh) 2015-05-27

Similar Documents

Publication Publication Date Title
KR20150058889A (ko) 센서 융합 기반 자율 주행 제어 장치 및 방법
US11597396B2 (en) Vehicle control device
CN109426256B (zh) 自动驾驶车辆的基于驾驶员意图的车道辅助系统
US11367354B2 (en) Traffic prediction based on map images for autonomous driving
KR102350092B1 (ko) 차량의 군집 주행 제어 장치 및 그 방법
JP7136106B2 (ja) 車両走行制御装置、および車両走行制御方法、並びにプログラム
US9862364B2 (en) Collision mitigated braking for autonomous vehicles
US20180319402A1 (en) System and method for automatic activation of driver assistance feature
JP2021004032A (ja) ビークル用電子制御ユニット及びビークルを制御する方法
US9465388B1 (en) Remote assistance for an autonomous vehicle in low confidence situations
EP3404638A1 (en) Vehicle system, method of processing vehicle information, recording medium storing a program, traffic system, infrastructure system, and method of processing infrastructure information
KR20200023661A (ko) 자율 주행 차량을 보조하기 위한 방법 및 이를 위한 장치
US20190193738A1 (en) Vehicle and Control Method Thereof
US20170021829A1 (en) Vehicle control device
CN113968216B (zh) 一种车辆碰撞检测方法、装置及计算机可读存储介质
CN108883772A (zh) 驾驶辅助装置、自动驾驶控制装置、车辆、驾驶辅助方法及程序
CN105984342A (zh) 行驶控制装置
US20220017093A1 (en) Vehicle control device, vehicle control method, program, and vehicle
EP3836119A1 (en) Information processing device, mobile body, information processing method, and program
CN111724627A (zh) 检测前方车辆向后滑动的自动告警系统
JP6365402B2 (ja) 走行制御装置
JP2011175368A (ja) 車両制御装置
CN112654547A (zh) 驾驶提醒的方法、装置及系统
JP2011175367A (ja) 車両制御装置
EP4202587A1 (en) Methods and systems for providing incremental remote assistance to an autonomous vehicle

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid