KR102627478B1 - 차량 제어 시스템, 비이미지 센서 모듈 및 센싱 데이터 처리 방법 - Google Patents

차량 제어 시스템, 비이미지 센서 모듈 및 센싱 데이터 처리 방법 Download PDF

Info

Publication number
KR102627478B1
KR102627478B1 KR1020190070434A KR20190070434A KR102627478B1 KR 102627478 B1 KR102627478 B1 KR 102627478B1 KR 1020190070434 A KR1020190070434 A KR 1020190070434A KR 20190070434 A KR20190070434 A KR 20190070434A KR 102627478 B1 KR102627478 B1 KR 102627478B1
Authority
KR
South Korea
Prior art keywords
vehicle
control target
lane
sample measurement
information
Prior art date
Application number
KR1020190070434A
Other languages
English (en)
Other versions
KR20200143588A (ko
Inventor
허오철
한재현
Original Assignee
주식회사 에이치엘클레무브
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이치엘클레무브 filed Critical 주식회사 에이치엘클레무브
Priority to KR1020190070434A priority Critical patent/KR102627478B1/ko
Priority to US16/900,865 priority patent/US11501539B2/en
Publication of KR20200143588A publication Critical patent/KR20200143588A/ko
Application granted granted Critical
Publication of KR102627478B1 publication Critical patent/KR102627478B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0052Filtering, filters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)

Abstract

본 개시는 차량 제어 시스템, 비이미지 센서 모듈 및 센싱 데이터 처리 방법에 관한 것이다. 구체적으로, 본 개시에 따른 비이미지 센서 모듈은 차량의 주행 경로 정보 및 차선 정보 중 적어도 하나의 정보를 수신하는 정보 수신부와, 수신된 정보를 토대로 필터 조건 및 추적 조건 중 적어도 하나를 미리 설정하고, 필터 조건 및 추적 조건 중 적어도 하나에 기초하여 차량의 전방에 존재하는 하나 이상의 물체 중 제어 대상을 선정하는 제어 대상 선정부 및 제어 대상 정보를 포함하는 센싱 데이터를 캡쳐하여 출력하는 출력부를 포함하는 것을 특징으로 한다.

Description

차량 제어 시스템, 비이미지 센서 모듈 및 센싱 데이터 처리 방법{VEHICLE CONTROL SYSTEM, NON-IMAGE SENSOR MODULE AND SENSING DATA PROCESSING METHOD}
본 개시는 차량 제어 시스템, 비이미지 센서 모듈 및 센싱 데이터 처리 방법에 관한 것이다.
자율 주행 가능한 차량은 적응형 크루즈 컨트롤(ACC: Adaptive Cruise Control) 또는 스마트 크루즈 컨트롤(SCC: Smart Cruise Control), 긴급 제동(AEB: Autonomous Emergency Braking) 등 첨단 운전자 보조 시스템(ADAS: Advanced Driver Assistance Systems)을 이용해 자율 주행을 할 수 있다.
자율 주행을 위한 ADAS의 기본적인 구성요소는 각종 센서, 제어 장치 등이 있다. 이 중에서 보다 효율적이고 정확한 ADAS 기능을 발휘하기 위해서는 물체를 감지할 수 있는 센서의 기능이 중요하다. 특히, 레이더 센서는 물체를 감지하고, 물체와의 거리, 상대 속도 등을 측정할 수 있다는 점에서 많이 이용되고 있다.
적응형 크루즈 컨트롤(ACC) 시스템의 경우, ACC 시스템에 포함된 컨트롤러는 차량의 전방에 존재하는 선행 차량이 차량의 주행 경로 상에 위치하는지 여부를 고려하여 제어 대상을 선정한다. 이때, 컨트롤러는 레이더 센서로부터 받은 횡방향 위치에 대한 측정값을 이용하여 물체가 차량으로부터 횡방향으로 얼마만큼 떨어져 위치하는지 계산하고, 미리 설정된 기준값보다 가까우면 물체를 제어 대상으로 선정한다.
따라서, 레이더 센서의 성능이 중요하며, 주행 환경에 따라 레이더 센서의 성능 저하로 인하여 차량의 전방에 존재하는 물체가 있음에도 불구하고 제어대상으로 선정하지 못하거나 인접 도로에 존재하는 다른 물체를 제어 대상으로 잘못 인식할 수 있는 문제점이 있다.
이러한 배경에서, 본 개시는 차량의 주행 경로 상에 존재하는 타겟을 지속적으로 선정하여 유지하거나 옆 차로에서 주행하는 다른 타겟을 선정하지 않도록 제어하는 차량 제어 시스템, 비이미지 센서 모듈 및 센싱 데이터 처리 방법을 제공하고자 한다.
또한, 본 개시는 차량의 주행 차로에 존재하는 선행 타겟을 제어 대상으로 정확히 인식할 수 있는 차량 제어 시스템, 비이미지 센서 모듈 및 센싱 데이터 처리 방법을 제공하고자 한다.
전술한 과제를 해결하기 위하여, 일 측면에서, 본 개시는 차량의 내부 또는 외부에 대한 시야를 갖도록 차량에 배치되어 이미지 데이터를 캡쳐하고, 캡쳐된 이미지 데이터를 처리하도록 구성된 카메라 모듈과, 차량의 내부 또는 외부에 대한 감지 영역을 갖도록 차량에 배치되어 센싱 데이터를 캡쳐하고, 캡쳐된 센싱 데이터를 처리하도록 구성된 적어도 하나의 비이미지 센서 모듈 이미지 데이터 및 센싱 데이터의 처리에 적어도 부분적으로 기초하여, 차량의 전방에 존재하는 제어 대상을 선행 타겟으로 인식하도록 구성된 컨트롤러를 포함하되, 카메라 모듈은, 이미지 데이터의 처리 결과에 포함된 차량의 주행 경로 정보 및 차선 정보 중 적어도 하나의 정보를 비이미지 센서 모듈로 출력하고, 비이미지 센서 모듈은, 차량의 주행 경로 정보 및 차선 정보 중 적어도 하나의 정보를 수신하는 정보 수신부와, 수신된 정보를 토대로 필터 조건 및 추적 조건 중 적어도 하나를 미리 설정하고, 필터 조건 및 추적 조건 중 적어도 하나에 기초하여 차량의 전방에 존재하는 하나 이상의 물체 중 제어 대상을 선정하는 제어 대상 선정부 및 선정된 제어 대상을 포함하는 센싱 데이터를 캡쳐하여 출력하는 출력부를 포함하는 것을 특징으로 하는 차량 제어 시스템을 제공한다.
다른 측면에서, 본 개시는 차량의 내부 또는 외부에 대한 시야를 갖도록 차량에 배치되어 이미지 데이터를 캡쳐하도록 구성된 카메라 모듈과, 차량의 내부 또는 외부에 대한 감지 영역을 갖도록 차량에 배치되어 센싱 데이터를 캡쳐하도록 구성된 적어도 하나의 비이미지 센서 모듈과, 차량이 선행 타겟과 일정한 간격을 유지하며 목표 주행속도로 주행하도록 차량의 주행속도를 제어하는 운전자 보조 시스템 모듈 및 이미지 데이터 및 센싱 데이터를 처리하고, 차량에 구비된 적어도 하나의 운전자 보조 시스템 모듈을 제어하도록 구성된 도메인 컨트롤 유닛을 포함하되, 카메라 모듈은, 이미지 데이터의 처리 결과에 포함된 차량의 주행 경로 정보 및 차선 정보 중 적어도 하나의 정보를 비이미지 센서 모듈로 출력하고, 비이미지 센서 모듈은, 차량의 주행 경로 정보 및 차선 정보 중 적어도 하나의 정보를 수신하는 정보 수신부와, 수신된 정보를 토대로 필터 조건 및 추적 조건 중 적어도 하나를 미리 설정하고, 필터 조건 및 추적 조건 중 적어도 하나에 기초하여 차량의 전방에 존재하는 하나 이상의 물체 중 제어 대상을 선정하는 제어 대상 선정부 및 선정된 제어 대상을 포함하는 센싱 데이터를 캡쳐하여 출력하는 출력부를 포함하고, 도메인 컨트롤 유닛은, 센싱 데이터의 처리 결과에 의해 획득된 제어 대상을 선행 타겟으로 인식하도록 운전자 보조 시스템 모듈을 제어하는 것을 특징으로 하는 차량 제어 시스템을 제공한다.
또 다른 측면에서, 본 개시는 차량의 주행 경로 정보 및 차선 정보 중 적어도 하나의 정보를 수신하는 정보 수신부와, 수신된 정보를 토대로 필터 조건 및 추적 조건 중 적어도 하나를 미리 설정하고, 필터 조건 및 추적 조건 중 적어도 하나에 기초하여 차량의 전방에 존재하는 하나 이상의 물체 중 제어 대상을 선정하는 제어 대상 선정부 및 제어 대상 정보를 포함하는 센싱 데이터를 캡쳐하여 출력하는 출력부를 포함하는 것을 특징으로 하는 비이미지 센서 모듈을 제공한다.
또 다른 측면에서, 본 개시는 차량의 주행 경로 정보 및 차선 정보 중 적어도 하나의 정보를 수신하는 단계와, 수신된 정보를 토대로 필터 조건 및 추적 조건 중 적어도 하나를 미리 설정하고, 필터 조건 및 추적 조건 중 적어도 하나에 기초하여 차량의 전방에 존재하는 하나 이상의 물체 중 제어 대상을 선정하는 단계 및 선정된 제어 대상을 포함하는 센싱 데이터를 캡쳐하여 출력하는 단계를 포함하는 것을 특징으로 하는 센싱 데이터 처리 방법을 제공한다.
이상에서 설명한 바와 같이, 본 개시에 의하면, 차량의 주행 경로 상에 존재하는 타겟을 지속적으로 선정하여 유지하거나 옆 차로에서 주행하는 다른 타겟을 선정하지 않도록 제어하는 차량 제어 시스템, 비이미지 센서 모듈 및 센싱 데이터 처리 방법을 제공할 수 있다.
또한, 본 개시에 의하면, 차량의 주행 차로에 존재하는 선행 타겟을 제어 대상으로 정확히 인식할 수 있는 차량 제어 시스템, 비이미지 센서 모듈 및 센싱 데이터 처리 방법을 제공할 수 있다.
도 1은 본 개시에 따른 차량 제어 시스템의 일 실시예를 나타낸 블록도이다.
도 2는 본 개시에 따른 차량 제어 시스템의 다른 실시예를 나타낸 블록도이다.
도 3은 본 개시에 따른 비이미지 센서 모듈을 나타낸 블록도이다.
도 4는 본 개시에 따른 비이미지 센서 모듈에 포함된 제어 대상 선정부의 일 실시예를 나타낸 도면이다.
도 5는 본 개시에 따른 제어 대상 선정부의 일 실시예에 대한 동작을 설명하기 위한 흐름도이다.
도 6은 본 개시에 따른 비이미지 센서 모듈에 포함된 제어 대상 선정부의 다른 실시예를 나타낸 도면이다.
도 7은 본 개시에 따른 제어 대상 선정부의 다른 실시예에 대한 동작을 설명하기 위한 흐름도이다.
도 8은 본 개시에 따라 선행 타겟을 추종하며 주행하는 차량을 예시적으로 나타낸 도면이다.
도 9는 본 개시에 따라 선행 타겟을 인식하는 실시예를 설명하기 위한 도면이다.
도 10은 본 개시에 따라 제어 대상을 선정하는 일 실시예를 설명하기 위한 도면이다.
도 11은 본 개시에 따라 제어 대상을 선정하는 다른 실시예를 설명하기 위한 도면이다.
도 12는 본 개시에 따른 센싱 데이터 처리 방법을 나타낸 흐름도이다.
이하, 본 개시의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 본 개시의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.
도 1은 본 개시에 따른 차량 제어 시스템(100)의 일 실시예를 나타낸 블록도이다.
도 1을 참조하면, 본 개시에 따른 차량 제어 시스템(100)은 카메라 모듈(110), 비이미지 센서 모듈(120), 통신 모듈(130), 차량 내부 센서 모듈(140), 컨트롤러(150) 등을 포함하여 구성될 수 있다.
예를 들면, 카메라 모듈(110)은 차량의 내부 또는 외부에 대한 시야를 갖도록 구성되어 이미지 데이터를 캡쳐하는 이미지 센서와 캡쳐된 이미지 데이터를 처리하는 프로세서를 포함할 수 있다.
일 예로, 이미지 센서는, 차량의 내부 또는 외부에 대한 시야를 갖도록 차량에 배치될 수 있다. 적어도 하나의 이미지 센서는 차량의 전방, 측방 또는 후방에 대한 시야를 갖도록 차량의 각 부분에 탑재될 수 있다.
이미지 센서로부터 촬상된 영상 정보는 이미지 데이터로 구성되므로, 이미지 센서로부터 캡쳐된 이미지 데이터를 의미할 수 있다. 이하, 본 개시에서 이미지 센서로부터 촬상된 영상 정보는 이미지 센서로부터 캡쳐된 이미지 데이터를 의미한다. 이미지 센서에 의해 캡쳐된 이미지 데이터는, 예를 들면, Raw 형태의 AVI, MPEG-4, H.264, DivX, JPEG 중 하나의 포맷으로 생성될 수 있다.
이미지 센서에 의해 캡쳐된 이미지 데이터는 프로세서에서 처리될 수 있다. 프로세서는 이미지 센서에 의해 캡쳐된 이미지 데이터를 처리하도록 동작할 수 있다.
프로세서는, 하드웨어적으로, ASICs (application specific integratedcircuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors) 등과 같이, 이미지 데이터의 처리 및 기타 기능을 수행할 수 있는 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
카메라 모듈(110)은 이미지 데이터의 처리 결과에 포함된 차량의 주행 경로 정보 및 차선 정보 중 적어도 하나의 정보를 비이미지 센서 모듈(120)로 출력할 수 있다.
여기서, 차량의 주행 경로 정보는 차량이 현재 주행하고 있는 도로를 의미하고, 차선 정보는 차량이 주행하는 차로(또는 도로)와 인접한 차로 사이의 경계선을 의미할 수 있다.
비이미지 센서 모듈(120)은 이미지를 캡쳐하는 카메라 모듈(110)을 제외한 타 센서 모듈을 의미한다. 예를 들면, 복수의 비이미지 센서 모듈(120)들은 차량의 내부 또는 외부에 대한 감지 영역을 갖도록 차량에 배치되어 센싱 데이터를 캡쳐할 수 있다. 복수의 비이미지 센서 모듈(120)들의 예로 레이더(RADAR) 센서, 라이다(LIDAR) 센서, 초음파 센서 등이 있다. 비이미지 센서 모듈(120)은 구비되지 않을 수도 있고, 하나 이상 구비될 수도 있다.
비이미지 센서 모듈(120)이 초음파 센서인 경우, 초음파 센서는 초음파 송신부, 수신부, 프로세서를 포함할 수 있다. 초음파 센서는, 송신된 초음파를 기초로 오브젝트를 검출하고, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다. 오브젝트가 정지해 있는 물체(예를 들면, 가로수, 가로등, 신호등, 교통표지판 등)인 경우, 초음파 센서는 오브젝트에 의한 비행시간(Time of Flight; TOF)을 기초로 차량과 오브젝트와의 거리, 차량의 주행 속도를 검출할 수 있다.
통신 모듈(130)은 차량과 차량, 차량과 인프라, 차량과 서버, 차량 내부 통신 등을 수행하기 위한 기능을 수행한다. 이를 위해서, 통신 모듈(130)은 송신 모듈과 수신 모듈로 구성될 수 있다. 예를 들면, 통신 모듈(130)은 방송 수신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈, 위치 정보 모듈, 광통신 모듈 및 V2X 통신 모듈 등을 포함할 수 있다.
방송 수신 모듈은, 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 또는 방송 관련된 정보를 수신한다. 여기서, 방송은 라디오 방송 및 TV 방송 중 적어도 하나를 포함한다. 무선 인터넷 모듈은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 차량에 내장되거나 외장될 수 있다. 근거리 통신 모듈은, 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra-Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다.
위치 정보 모듈은, 차량의 위치 정보를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈이 있다. 예를 들면, 차량은 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 차량의 위치를 획득할 수 있다. 한편, 실시예에 따라, 위치 정보 모듈은 통신 모듈(130)에 포함되는 구성요소가 아닌, 차량 내부 센서 모듈(140)에 포함되는 구성요소일 수도 있다.
광통신 모듈은, 광발신부 및 광수신부를 포함할 수 있다. 광발신부 및 광수신부는, 광(light)신호를 전기 신호로 전환하여, 정보를 송수신할 수 있다.
V2X 통신 모듈은, 서버 또는 타 차량, 인프라 장치 등과의 무선 통신 수행을 위한 모듈이다. 본 실시예에서의 V2X 통신 모듈은 차량이 유·무선망을 통해 타 차량, 모바일 기기, 도로 등의 사물과 정보를 교환하는 것 또는 그 기술을 의미하는 것이다. V2X 통신 모듈은 V2V(Vehicle to Vehicle, 차량-차량 간 통신), V2I(Vehicle to Infrastructure, 차량-인프라 간 통신), V2N(Vehicle to Nomadic Device, 차량-모바일 기기 간 통신), V2P(Vehicle to Pedestrian, 차량-보행자 간 통신) 등 개념을 포함할 수 있다. V2X 통신 모듈은 단거리 전용 통신(Dedicated Short-Range Communications, DSRC)을 기반으로 하며, 최근 미국 전기전자기술자협회(IEEE)에서 진행한 WAVE(Wireless Access in Vehicular Environment, 차량 환경 내 무선 접속) 또는 5.9GHz 대역을 사용하는 IEEE 802.11p 통신 기술을 이용할 수 있으나 그에 한정되지 않으며, 현재 또는 미래에 개발될 모든 차량 간 통신을 포함하는 것으로 이해되어야 할 것이다.
차량 내부 센서 모듈(140)은 차량 내부 정보를 센싱하기 위한 센서를 의미한다. 예를 들면, 차량 내부 센서 모듈(140)은 조향 토크를 센싱하기 위한 토크 센서, 조향 각도를 센싱하기 위한 조향각 센서, 조향 모터에 대한 정보를 센싱하는 모터 위치 센서, 차속 센서, 차량의 움직임을 센싱하는 차량 움직임 감지 센서, 차량 자세 감지 센서 등을 의미할 수 있다. 이 외에도 차량 내부 센서 모듈(140)은 차량 내부의 다양한 데이터를 센싱하기 위한 센서를 의미할 수 있으며, 하나 이상 구성될 수 있다.
컨트롤러(150)는 카메라 모듈(110), 비이미지 센서 모듈(120), 통신 모듈(130) 및 차량 내부 센서 모듈(140) 중 적어도 하나의 모듈로부터 데이터를 획득하고, 획득된 데이터에 기초하여 차량의 다양한 동작을 제어할 수 있다. 또는 컨트롤러(150)는 카메라 모듈(110)로부터 이미지 데이터를 획득하여 이미지 데이터를 처리할 수도 있다. 또한, 컨트롤러(150)는 비이미지 센서 모듈(120)로부터 센싱 데이터를 수신하여 이를 처리할 수도 있다. 또는, 컨트롤러(150)는 차량 내부 센서 모듈(140) 또는 통신 모듈(130)로부터 데이터를 획득하여 이를 처리할 수도 있다. 이러한 처리를 위해 컨트롤러(150)는 적어도 하나의 프로세서를 포함할 수 있다.
컨트롤러(150)는 전자 제어 유닛(ECU: Electro Controller Unit), 마이크로 컨트롤러 유닛(MCU: Micro Controller Unit) 등을 이용하여 구현 가능하다.
본 개시에 따른 차량 제어 시스템은 필요에 따라 전술한 구성을 조합하여 구현될 수 있다. 예를 들면, 차량 제어 시스템은 카메라 모듈(110), 비이미지 센서 모듈(120) 및 컨트롤러(150)를 포함한다. 다른 예를 들면, 차량 제어 시스템은 카메라 모듈(110) 및 컨트롤러(150)를 포함한다. 또 다른 예를 들면, 차량 제어 시스템은 비이미지 센서 모듈(120) 및 컨트롤러(150)를 포함한다. 하지만, 이에 한정되는 것은 아니다.
구체적으로, 차량 제어 시스템(100)은 차량의 내부 또는 외부에 대한 시야를 갖도록 차량에 배치되어 이미지 데이터를 캡쳐하고, 캡쳐된 이미지 데이터를 처리하도록 구성된 카메라 모듈(110)과, 차량의 내부 또는 외부에 대한 감지 영역을 갖도록 차량에 배치되어 센싱 데이터를 캡쳐하고, 캡쳐된 센싱 데이터를 처리하도록 구성된 적어도 하나의 비이미지 센서 모듈(120) 및 이미지 데이터 및 센싱 데이터의 처리에 적어도 부분적으로 기초하여, 차량의 전방에 존재하는 제어 대상을 선행 타겟으로 인식하도록 구성된 컨트롤러(150)를 포함할 수 있다.
여기서, 카메라 모듈(110)은 이미지 데이터의 처리 결과에 포함된 차량의 주행 경로 정보 및 차선 정보 중 적어도 하나의 정보를 비이미지 센서 모듈(120)로 출력할 수 있다.
여기서, 비이미지 센서 모듈(120)은 차량의 전방에 존재하는 하나 이상의 물체 중 제어 대상을 선정하고, 제어 대상 정보를 포함하는 센싱 데이터를 캡쳐하여 출력할 수 있다.
여기서, 제어 대상은 비이미지 센서 모듈(120)에 의해 캡쳐된 센싱 데이터에 포함된 정보이며, 컨트롤러(150)가 선행 타겟으로 인식하도록 선정된 대상을 의미하며, 제어 대상 정보는 제어 대상에 대한 정보를 의미한다.
제어 대상을 선정하는 방법은 도 3 내지 도 11을 참조하여 후술한다.
이 외에도 컨트롤러(150)는 카메라 모듈(110), 비이미지 센서 모듈(120), 통신 모듈(130) 및 차량 내부 센서 모듈(140) 중 적어도 하나의 모듈의 동작을 제어할 수 있다. 또한, 컨트롤러(150)는 차량에 구성된 다양한 운전자 보조 시스템의 동작을 제어할 수도 있다.
한편, 전술한 프로세서(130)의 기능과 컨트롤러(140)의 동작 및 조향 제어 모듈, 제동 제어 모듈, ADAS(Adaptive Driving Assistance System) 모듈 등으로 출력하여 차량을 제어하는 기능을 모두 수행 가능한 도메인 컨트롤 유닛(DCU: Domain Control Unit)으로 구현 가능하다.
여기서, ADAS 모듈은 여러 운전자 보조 시스템을 모듈로써 구현된 것을 의미할 수 있으며, 운전자 보조 시스템으로는 예를 들면, 스마트 주차 보조 시스템(SPAS: Smart Parking Assistance System), 사각 감지(BSD: Blind Spot Detection) 시스템, 적응형 크루즈 컨트롤(ACC: Adaptive Cruise Control) 시스템, 차선 이탈 경고 시스템(LDWS: Lane Departure Warning System), 차선 유지 보조 시스템(LKAS: Lane Keeping Assist System), 차선 변경 보조 시스템(LCAS: Lane Change Assist System) 등을 포함할 수 있다. 하지만, 이에 한정되는 것은 아니다.
전술한 차량 제어 시스템(100)의 각 구성들 간에는 CAN(Controller Area Network) 등을 통해 정보, 신호 등을 송수신할 수 있다.
도 2는 본 개시에 따른 차량 제어 시스템의 다른 실시예를 나타낸 블록도이다.
도 2를 참조하면, 본 개시에 따른 차량 제어 시스템(100)은 전술한 카메라 모듈(110), 비이미지 센서 모듈(120), 통신 모듈(130) 및 차량 내부 센서 모듈(140) 중 적어도 하나를 포함하여 구성될 수 있다. 이에 대한 설명은 도 1을 참조하여 설명하였으므로 생략한다.
또한, 차량 제어 시스템은 도메인 컨트롤 유닛(160)을 포함할 수 있다.
도메인 컨트롤 유닛(Domain Control Unit; DCU, 160)은 적어도 하나의 이미지 센서로부터 캡쳐된 이미지 데이터를 수신하고, 복수의 비-이미지 센서들로부터 캡쳐된 센싱 데이터를 수신하여, 이미지 데이터 및 센싱 데이터 중 적어도 하나를 처리하도록 구성될 수 있다. 이러한 처리를 위해 도메인 컨트롤 유닛(160)은 적어도 하나의 프로세서를 포함할 수 있다.
또는, 도메인 컨트롤 유닛(160)은 카메라 모듈(110), 비이미지 센서 모듈(120), 통신 모듈(130), 차량 내부 센서 모듈(140) 및 운전자 보조 시스템 모듈(170) 중 적어도 하나의 모듈과 데이터를 송수신하고, 이를 통해서 수신되는 데이터를 처리할 수 있다. 즉, 도메인 컨트롤 유닛(160)은 차량 내 구비되어, 차량 내 탑재된 적어도 하나의 모듈과 통신할 수 있다. 이를 위하여, 도메인 컨트롤 유닛(160)은 데이터 전송 또는 신호 통신을 위한 차량 네트워크 버스 등과 같은 적절한 데이터 링크 또는 통신 링크가 더 포함될 수 있다.
도메인 컨트롤 유닛(160)은 차량에 사용되는 여러 운전자 보조 시스템(DAS) 중 하나 이상을 제어하도록 동작할 수 있다. 예를 들면, 도메인 컨트롤 유닛(160)은 전술한 110, 120, 130, 140 및 170 모듈 중 적어도 하나로부터 획득되는 데이터에 기초하여 특정 상황, 조건, 이벤트 발생, 제어 동작 수행 등을 결정할 수 있다.
도메인 컨트롤 유닛(160)은 결정된 정보 등을 이용하여 차량 내부에 구성되는 다양한 운전자 보조 시스템 모듈(170)의 동작을 제어하기 위한 신호를 송신할 수 있다. 예를 들면, 운전자 보조 시스템 모듈(170)은 사각지대 감지(BSD) 시스템 모듈(171), 차선 유지 보조 시스템(LKAS) 모듈(172), 적응형 스마트 크루즈 컨트롤(ASCC) 시스템 모듈(173) 등을 포함할 수 있다.
이 외에도 차량에 구성되는 운전자 보조 시스템 모듈(170)은, 차선 이탈 경고 시스템(LDWS), 차선 변경 보조 시스템(LCAS), 스마트 주차 보조 시스템(SPAS: Smart Parking Assistance System)등과 같이 다양하게 존재할 수 있다.
여기서 설명하는 운전자 보조 시스템의 용어 및 명칭은 예시적으로 개시한 것으로 그에 한정되지는 않는다. 또한, 운전자 보조 시스템 모듈(170)은 자율 주행을 위한 자율 주행 모듈을 포함할 수도 있다.
또는, 운전자 보조 시스템 모듈(170)에 포함되는 개별 시스템 모듈들의 제어를 통해서 도메인 컨트롤 유닛(160)이 차량이 자율 주행을 수행하도록 제어할 수도 있다.
전술한 바와 같이 본 개시에 따른 차량 제어 시스템(100)은 필요에 따라 전술한 구성을 조합하여 구현될 수 있다.
예를 들면, 차량 제어 시스템(100)은 차량의 내부 또는 외부에 대한 시야를 갖도록 차량에 배치되어 이미지 데이터를 캡쳐하도록 구성된 카메라 모듈(110)과, 차량의 내부 또는 외부에 대한 감지 영역을 갖도록 차량에 배치되어 센싱 데이터를 캡쳐하도록 구성된 적어도 하나의 비이미지 센서 모듈(120)과, 차량이 선행 타겟과 일정한 간격을 유지하며 목표 주행속도로 주행하도록 차량의 주행속도를 제어하는 운전자 보조 시스템 모듈(170) 및 이미지 데이터 및 센싱 데이터를 처리하고, 차량에 구비된 적어도 하나의 운전자 보조 시스템 모듈을 제어하도록 구성된 도메인 컨트롤 유닛(160)을 포함할 수 있다.
여기서, 카메라 모듈(110)은 이미지 데이터의 처리 결과에 포함된 차량의 주행 경로 정보 및 차선 정보 중 적어도 하나의 정보를 비이미지 센서 모듈(120)로 출력할 수 있다.
여기서, 비이미지 센서 모듈(120)은 차량의 전방에 존재하는 하나 이상의 물체 중 제어 대상을 선정하고, 제어 대상 정보를 포함하는 센싱 데이터를 캡쳐하여 출력할 수 있다.
도메인 컨트롤 유닛(160)은 센싱 데이터의 처리 결과에 의해 획득된 제어 대상을 선행 타겟으로 인식하도록 운전자 보조 시스템 모듈(170)을 제어할 수 있다. 여기서, 운전자 보조 시스템 모듈(170)은 예를 들어 적응형 스마트 크루즈 컨트롤(ASCC) 시스템 모듈(173)을 포함할 수 있다.
도 1에서 전술한 바와 동일하게 차량 제어 시스템(100)의 각 구성들 간에는 CAN(Controller Area Network) 등을 통해 정보, 신호 등을 송수신할 수 있다.
이하에서는 선행 타겟으로 인식하는데 필요한 제어 대상을 선정하는 방법에 대하여 설명한다.
도 3은 본 개시에 따른 비이미지 센서 모듈(300)을 나타낸 블록도이다.
도 3을 참조하면, 본 개시에 따른 비이미지 센서 모듈(300)은 정보 수신부(310)와, 제어 대산 물체 선정부(320)와, 출력부(330) 등을 포함할 수 있다.
정보 수신부(310)는 차량의 주행 경로 정보 및 차선 정보 중 적어도 하나의 정보를 수신할 수 있다.
구체적으로, 도 1 또는 도 2에 도시된 카메라 모듈(110)이 이미지 데이터를 캡쳐하여 주행 도로 정보, 차선 정보를 비이미지 센서 모듈(300)에 출력하고, 정보 수신부(310)는 주행 경로 정보, 차선 정보를 수신할 수 있다.
제어 대상 선정부(320)는 수신된 정보를 토대로 필터 조건 및 추적 조건 중 적어도 하나를 미리 설정할 수 있다.
여기서, 필터 조건은 차량의 주변에 존재하는 물체에 대하여 샘플링된 측정값 중에서 주행 도로, 차선 밖에 존재하는 측정값을 제거 또는 필터링(Filtering)하기 위해 설정된 조건을 의미할 수 있다.
여기서, 추적 조건은 물체에 대하여 샘플링된 측정값을 센싱 데이터로 출력하기 위하여 주행 도로, 차선 내에 존재하는 측정값을 갱신(Update)시키는 조건을 의미할 수 있다.
전술한, 필터 조건과 추적 조건에 대한 구체적인 내용은 도 4 내지 도 11을 참조하여 후술한다.
제어 대상 선정부(320)는 필터 조건 및 추적 조건 중 적어도 하나에 기초하여 차량의 전방에 존재하는 하나 이상의 물체 중 제어 대상을 선정할 수 있다.
출력부(330)는 제어 대상 정보를 포함하는 센싱 데이터를 캡쳐하여 출력할 수 있다.
도 4는 본 개시에 따른 비이미지 센서 모듈(300)에 포함된 제어 대상 선정부(320)의 일 실시예를 나타낸 도면이다.
도 4를 참조하면, 본 개시에 따른 제어 대상 선정부(320)는 오브젝트 검출 프로세서(321)와 오브젝트 추적 프로세서(322)를 포함할 수 있다.
오브젝트 검출 프로세서(321)는 차량의 주변에 존재하는 물체에 대하여 샘플 측정값을 생성할 수 있다.
여기서, 샘플 측정값은 물체를 특정 시간에서 샘플링한 감지 결과(measurement)이며, 물체의 위치, 속도, 가속도 등에 대한 상태를 측정한 감지 결과를 의미할 수 있다.
오브젝트 추적 프로세서(322)는 오브젝트 검출 프로세서(321)에서 생성된 샘플 측정값을 이용하여 실제 물체의 위치를 추적하고, 그 결과에 대한 정보를 출력할 수 있다. 예를 들어, 오브젝트 추적 프로세서(322)는 샘플 측정값을 칼만 필터(Kalman Filter), 알파-베타 필터(Alpha-Beta Filter) 등을 이용하여 현재 상태에서의 추정값을 갱신함으로써 실제 물체의 위치를 추적할 수 있다.
여기서, 추정값은 특정 시간에서 물체의 위치, 속도, 가속도 등에 대한 상태를 추정(prediction)한 값을 의미할 수 있다.
본 개시에 따른 제어 대상 선정부(320)의 일 실시예를 설명하면, 제어 대상 선정부(320)는 물체의 샘플 측정값을 생성하고, 필터 조건에 따라 샘플 측정값이 주행 경로 또는 차선 내에 위치하는지 판단할 수 있다.
예를 들면, 오브젝트 검출 프로세서(321)는 물체의 샘플 측정값들을 생성한다. 그 다음, 오브젝트 검출 프로세서(321)는 주행 차로 정보, 차선 정보 등을 수신하고 샘플 측정값들 중 주행 차로 또는 차선 내에 위치하는 샘플 측정값을 확인한다.
그리고, 제어 대상 선정부(320)는 주행 경로 또는 차선 외에 위치하는 샘플 측정값을 필터링하고, 주행 경로 또는 차선 내에 위치하는 샘플 측정값을 제어 대상으로 선정할 수 있다.
예를 들면, 오브젝트 검출 프로세서(321)는 주행 경로 또는 차선 외에 위치하는 샘플 측정값을 필터링 또는 제거한다. 그리고, 오브젝트 검출 프로세서(321)는 샘플 측정값들 중 주행 차로 또는 차선 내에 위치하는 샘플 측정값을 오브젝트 추적 프로세서(322)에 출력하고, 오브젝트 추적 프로세서(322)는 샘플 측정값을 추적하도록 칼만 필터를 이용하여 현재 상태에서의 추정값을 갱신하고, 이에 따라 샘플 측정값을 추적하여 최종적으로 출력될 갱신된 추정값에 대응되는 샘플 측정값을 제어 대상으로 선정한다.
제어 대상이 선정되면, 제어 대상 선정부(320)는 제어 대상 정보를 생성하여 출력한다.
도 5는 본 개시에 따른 제어 대상 선정부(320)의 일 실시예에 대한 동작을 설명하기 위한 흐름도이다.
도 5를 참조하면, 본 개시에 따른 제어 대상 선정부(320)는 차량의 주변에 존재하는 물체의 샘플 측정값을 생성한다(S510).
예를 들면, 오브젝트 검출 프로세서(321)는 차량의 전방에 존재하는 하나 이상의 물체의 샘플 측정값들을 생성한다.
샘플 측정값이 생성되면, 제어 대상 선정부(320)는 샘플 측정값이 주행 경로 또는 차선 내 위치하는지 판단한다(S520).
예를 들면, 오브젝트 검출 프로세서(321)는 주행 차로 정보, 차선 정보 등을 수신하고 샘플 측정값들 중 주행 차로 또는 차선 내에 위치하는 샘플 측정값을 확인한다.
샘플 측정값이 주행 경로 또는 차선 내에 위치하지 않으면, 제어 대상 선정부(320)는 주행 경로 또는 차선 외에 위치하는 샘플 측정값을 필터링한다(S530).
예를 들면, 오브젝트 검출 프로세서(321)는 주행 경로 또는 차선 외에 위치하는 샘플 측정값을 제거한다.
샘플 측정값이 주행 경로 또는 차선 내에 위치하면, 제어 대상 선정부(320)는 주행 경로 또는 차선에 기초하여 샘플 측정값을 추적한다(S540).
예를 들면, 오브젝트 추적 프로세서(322)는 주행 경로 또는 차선 내에 위치하는 샘플 측정값을 추적하도록 칼만 필터를 이용하여 현재 상태에서의 추정값을 갱신한다.
그 다음, 제어 대상 선정부(320)는 주행 경로 또는 차선 내에 위치하는 샘플 측정값을 제어 대상으로 선정한다(S550).
도 6은 본 개시에 따른 비이미지 센서 모듈(300)에 포함된 제어 대상 선정부(320)의 다른 실시예를 나타낸 도면이다.
도 6을 참조하면, 본 개시에 따른 제어 대상 선정부(320)는 도 4에 도시된 바와 동일하게 오브젝트 검출 프로세서(321)와 오브젝트 추적 프로세서(322)를 포함할 수 있다. 이에 대한 설명은 도 4를 참조하여 설명하였으므로 생략한다.
본 개시에 따른 제어 대상 선정부(320)의 다른 실시예는 오브젝트 추적 프로세서(322)가 주행 차로 정보, 차선 정보를 이용한다는 점에서 도 4에 도시된 일 실시예와 차이점이 있다.
구체적으로, 제어 대상 선정부(320)는 차량의 주변에 존재하는 물체의 샘플 측정값을 생성한다.
예를 들면, 오브젝트 검출 프로세서(321)가 차량의 전방에 존재하는 하나 이상의 물체의 샘플 측정값들을 생성하여 오브젝트 추적 프로세서(322)에 출력한다.
그 다음, 제어 대상 선정부(320), 예를 들어 오브젝트 추적 프로세서(322)는 물체의 샘플 측정값을 추적하도록 이동 가능한 추적 모델(Tracking Model)을 생성할 수 있다.
여기서, 추적 모델(Tracking Model)은 칼만 필터, 알파-베타 필터 등을 이용하여 샘플 측정값을 추적하기 위한 모델을 의미할 수 있다.
그리고, 제어 대상 선정부(320), 예를 들어 오브젝트 추적 프로세서(322)는 샘플 측정값이 주행 경로 또는 차선 내에 존재하는지 여부에 따라 샘플 측정값을 추적하는 추적 모델을 갱신할 수 있다.
즉, 샘플 측정값이 주행 경로 또는 차선 내에 존재하면, 추적 모델이 샘플 측정값을 추적하기 위해 추적 모델의 위치가 샘플 측정값의 위치로 이동되도록 매 샘플링 시간마다 갱신된다.
그리고, 제어 대상 선정부(320), 예를 들어 오브젝트 추적 프로세서(322)는 미리 설정된 기준 시간 동안 샘플 측정값과 추적 모델이 미리 설정된 기준 범위 이상 중첩되면 샘플 측정값에 대응되는 물체를 제어 대상으로 선정할 수 있다.
제어 대상 선정부(320), 예를 들어 오브젝트 추적 프로세서(322)는 는 샘플 측정값이 주행 경로 또는 차선 내에 존재하면, 샘플 측정값을 추적하도록 추적 모델을 갱신하고, 샘플 측정값이 주행 경로 또는 차선 외에 존재하면, 샘플 측정값에 대한 추적 모델의 추적을 해제하거나 추적 모델의 갱신 정도를 제한할 수 있다.
전술한 내용을 추적 모델의 수학적 모델링 관점에서 설명하면, 제어 대상은 예측 파트(prediction part)와 보정 파트(correction part)를 거쳐 선정될 수 있다.
구체적으로, 예측 파트에서는 [수식 1]에 의해 물체의 현재 상태에서의 현재 추정값을 산출한다.
[수학식 1]
여기서, 는 현재 상태에서의 현재 추정값(prediction)이고, 는 이전 상태에서의 갱신 추정값이고, 는 시스템의 state transition matrix이고, 는 control input matrix이며, 는 제어 입력이다.
이때, 전체 시스템의 모델링에 따라서 [수식 1]에 이 제거되거나, 에러값에 대한 term이 추가될 수 있다.
그 다음, 보정 파트에서는 [수식 2]에 의해 현재 추정값을 갱신한 현재 상태에서의 갱신 추정값을 산출할 수 있다.
[수학식 2]
여기서, 은 현재 상태에서의 갱신 추정값이고, 는 가중치이고, 는 업데이트 게인이고, 는 물체의 샘플 측정값이다.
여기서, 업데이트 게인은 칼만 필터에 의한 칼만 게인 및 알파-베타 필터에 의한 알바 베타 게인 중 어느 하나인 것일 수 있다. 하지만, 이에 한정되는 것은 아니다.
한편, 샘플 측정값과 현재 추정값 간의 차이는 보정값으로 정의할 수 있고, 보정값과 미리 설정된 업데이트 게인을 곱하여 생성된 값은 매개 변수로 정의할 수 있다.
여기서, 1인 가중치가 반영된 매개 변수는 추적 모델이 샘플 측정값을 추적하게 되는 변수일 수 있다.
예를 들면, 현재 추정값에서 가중치 1이 반영된 매개 변수를 합하여 갱신 추정값이 산출되면, 오브젝트 추적 프로세서(322)는 는 갱신 추정값에 대응되는 물체를 제어 대상으로 선정한다.
여기서, 0 이상 1 미만의 가중치가 반영된 매개 변수는 추적 모델이 샘플 측정값을 추적하는 것을 제한하게 되는 변수일 수 있다. 특히, 0인 가중치가 반영된 매개 변수는 추적 모델의 추적을 해제하게 되는 변수일 수 있다.
예를 들면, 현재 추정값에서 0 이상 1 미만의 가중치가 반영된 매개 변수를 합하여 갱신 추정값이 산출되면, 오브젝트 추적 프로세서(322)는 추적 모델이 샘플 측정값을 추적하는 것을 제한하고, 전술한 바와 같이 기준 시간 동안 샘플 측정값과 추적 모델이 중첩되지 못하게 되어 샘플 측정값에 대응되는 물체를 제어 대상으로 선정하지 않는다.
전술한 바를 정리하면, 제어 대상 선정부(320), 예를 들어 오브젝트 추적 프로세서(322)는 물체의 샘플 측정값 과 물체의 현재 상태에서의 현재 추정값 간의 차이로 계산된 보정값과 미리 설정된 업데이트 게인 을 곱하여 매개 변수를 생성할 수 있다.
그리고, 제어 대상 선정부(320), 예를 들어 오브젝트 추적 프로세서(322)는 현재 추정값 에 매개 변수 를 반영하여 현재 추정값 을 갱신한 갱신 추정값 을 산출하되, 샘플 측정값 이 주행 경로 또는 차선 내에 존재하면, 값이 1인 가중치 를 매개 변수 에 반영하여 산출된 제1 갱신 추정값 에 대응되는 물체를 제어 대상으로 선정할 수 있다.
그리고, 제어 대상 선정부(320), 예를 들어 오브젝트 추적 프로세서(322)는 샘플 측정값 이 주행 경로 또는 차선 외에 존재하면, 0 이상 1 미만의 가중치 를 매개 변수 에 반영하여 산출된 제2 갱신 추정값 에 대응되는 물체를 제어 대상에서 제외할 수 있다.
제어 대상이 선정되면, 제어 대상 선정부(320), 예를 들어 오브젝트 추적 프로세서(322)는 제어 대상 정보를 생성하여 출력한다.
도 7은 본 개시에 따른 제어 대상 선정부(320)의 다른 실시예에 대한 동작을 설명하기 위한 흐름도이다.
도 7을 참조하면, 본 개시에 따른 제어 대상 선정부(320)는 도 5를 참조하여 전술한 바와 유사하게 샘플 측정값을 생성하고(S710), 생성된 샘플 측정값을 추적하며(S720), 샘플 측정값이 주행 경로 도는 차선 내 위치하는지 판단한다(S730).
샘플 측정값이 주행 경로 또는 차선 내에 위치하면, 제어 대상 선정부(320)는 가중치 를 1로 결정하고(S740), 결정된 가중치를 매개 변수에 반영하여 제1 갱신 추정값 을 산출하며(S750), 제1 갱신 추정값 에 대응되는 샘플 측정값, 샘플 측정값에 대응되는 물체를 제어 대상으로 선정한다(S760).
한편, 샘플 측정값이 주행 경로 또는 차선 내에 위치하지 않으면, 제어 대상 선정부(320)는 가중치 를 0 이상 1 미만의 값으로 결정하고(S770), 결정된 가중치를 매개 변수에 반영하여 제2 갱신 추정값 을 산출하며(S780), 제2 갱신 추정값 에 대응되는 샘플 측정값, 샘플 측정값에 대응되는 물체를 제어 대상에서 제외한다(S790).
도 8은 본 개시에 따라 선행 타겟을 추종하며 주행하는 차량을 예시적으로 나타낸 도면이고, 도 9는 본 개시에 따라 선행 타겟을 인식하는 실시예를 설명하기 위한 도면이다.
도 8을 참조하면, 본 개시에 따른 차량(810)은 운전자 보조 시스템의 기능을 수행하면서 주행 경로(820)로 주행 가능하다. 예를 들면, 차량(810)은 적응형 크루즈 컨트롤(ACC) 시스템의 기능을 수행하여 선행 타겟(예를 들어, 선행 차량, 830)과 일정한 간격을 유지하며 목표 주행속도로 주행 가능하다.
이때, 적응형 크루즈 컨트롤(ACC) 시스템의 기능을 정확하게 수행하기 위해, 차량(810)에 탑재된 차량 제어 시스템(100)은 차량(810)의 주행 경로(820) 상에 존재하는 선행 타겟(830)을 정확히 인식해야 하고, 차량(810)의 주행 경로(820)와 인접한 도로에서 주행하는 인접 타겟(840)을 선행 타겟(830)으로 인식하지 않도록 제외해야 한다.
도 9를 참조하면, 차량(810)에 탑재된 차량 제어 시스템(100)에 포함된 컨트롤러(150)는 카메라 모듈(110)에 의해 캡쳐된 이미지 데이터에 포함된 차선(821, 822)의 차선 정보를 획득한다.
그 다음, 차량(810)에 탑재된 차량 제어 시스템(100)에 포함된 컨트롤러(150)는 비이미지 센서 모듈(120)에 의해 캡쳐된 센싱 데이터에 포함된 제어 대상(910)의 제어 대상 정보를 이용하여, 제어 대상(810)의 횡방향 위치 정보를 획득한다.
그리고, 차량(810)에 탑재된 차량 제어 시스템(100)에 포함된 컨트롤러(150)는 제어 대상(910)의 횡방향 위치 정보를 이용하여 차량(810)과 제어 대상(910) 사이의 횡방향 오프셋(Lateral Offset)을 계산한다.
그리고, 횡방향 오프셋(Lateral Offset)이 차량(810)과 제1 차선(821)과 제2 차선(822) 중 어느 하나의 차선, 예를 들어 제2 차선(822) 사이의 간격보다 작으면, 그리고, 차량(810)에 탑재된 차량 제어 시스템(100)에 포함된 컨트롤러(150)는 제어 대상(910)을 선행 타겟(830)으로 인식할 수 있다.
전술한 내용은 도메인 컨트롤 유닛(160)의 경우에도 마찬가지로 적용된다.
전술한 바와 같이 선행 타겟(830)과 인접 타겟(840)을 구분하기 위하여 본 개시에 따른 제어 대상 선정부(320)의 제어 대상(910)을 선정하는 실시예를 도로 주행 상황에서 설명한다.
도 10은 본 개시에 따라 제어 대상(910)을 선정하는 일 실시예를 설명하기 위한 도면이다.
도 10을 참조하면, 제어 대상 선정부(320)는 기본적으로 매 시간마다 선행 타겟(830)을 포함한 물체의 샘플 측정값(1010)을 생성하고 추적 모델(1020)을 이용하여 샘플 측정값(1010)을 추적한다.
이때, 제어 대상 선정부(320)는 샘플 측정값(1010)이 주행 경로(820) 또는 차선(821, 822) 내에 위치하는지 판단한다. 이하에서는 설명의 편의상 차선(821, 822)을 기준으로 설명한다.
<t-2> 샘플링 시간에서 생성된 샘플 측정값(1010)이 제1 차선(821)의 밖에 존재하는 경우, 제어 대상 선정부(320)는 도 4 및 도 5를 참조하여 전술한 바와 같이 제1 차선(821) 밖에 존재하는 샘플 측정값(1010)을 필터링한다.
이와 유사하게 <t-1> 샘플링 시간에서 생성된 샘플 측정값(1010)이 제2 차선(822)의 밖에 존재하는 경우, 제어 대상 선정부(320)는 전술한 바와 동일하게 제2 차선(822) 밖에 존재하는 샘플 측정값(1010)을 필터링한다.
<t> 샘플링 시간에서 생성된 샘플 측정값(1010)이 제2 차선(822)의 내에 존재하는 경우, 제어 대상 선정부(320)는 추적 모델(1020)을 이용하여 샘플 측정값(1010)을 추적한다.
제어 대상 선정부(320)는 <t> 샘플링 시간 이후 미리 설정된 기준 시간 동안 샘플 측정값(1010)과 추적 모델(1020)이 미리 설정된 기준 범위 이상 중첩되면 샘플 측정값(1010)에 대응되는 물체를 제어 대상(910)으로 선정한다.
도 11은 본 개시에 따라 제어 대상을 선정하는 다른 실시예를 설명하기 위한 도면이다.
도 11을 참조하면, 제어 대상 선정부(320)는 도 10을 참조하여 전술한 바와 동일하게 매 시간마다 샘플 측정값(1010)을 생성하고 추적 모델(1020)을 이용하여 샘플 측정값(1010)을 추적한다.
<t-2> 샘플링 시간에서 생성된 샘플 측정값(1010)이 제1 차선(821)의 밖에 존재하는 경우, 제어 대상 선정부(320)는 도 6 및 도 7을 참조하여 전술한 바와 같이 추적 모델(1020)이 샘플 측정값(1010)을 추적하지 못하도록 추적 모델(1020)의 추적을 제한한다. 즉, 제어 대상 선정부(320)는 보정 파트에서 가중치를 0 이상 1 미만의 값으로 결정하고, 결정된 가중치를 매개 변수에 반영하여 갱신 추정값을 산출한다.
<t-1> 샘플링 시간에서 생성된 샘플 측정값(1010)이 제1 차선(821)의 내에 존재하는 경우, 제어 대상 선정부(320)는 샘플 측정값(1010)을 추적하도록 추적 모델(1020)을 갱신한다. 즉, 제어 대상 선정부(320)는 보정 파트에서 가중치를 1로 결정하고, 결정된 가중치를 매개 변수에 반영하여 갱신 추정값을 산출한다.
제어 대상 선정부(320)는 <t> 샘플링 시간부터 기준 시간 동안 샘플 측정값(1010)과 추적 모델(1020)이 기준 범위 이상 중첩되면 샘플 측정값(1010)에 대응되는 물체를 제어 대상(910)으로 선정한다.
이하에서는 본 개시를 모두 수행할 수 있는 비이미지 센서 모듈(120)의 센싱 데이터 처리 방법을 설명한다.
도 12는 본 개시에 따른 센싱 데이터 처리 방법을 나타낸 흐름도이다.
도 12를 참조하면, 본 개시에 따른 센싱 데이터 처리 방법은 차량의 주행 경로 정보 및 차선 정보 중 적어도 하나의 정보를 수신하는 단계(S1210)와, 수신된 정보를 토대로 필터 조건 및 추적 조건 중 적어도 하나를 미리 설정하고, 필터 조건 및 추적 조건 중 적어도 하나에 기초하여 차량의 전방에 존재하는 하나 이상의 물체 중 제어 대상을 선정하는 단계(S1220) 및 선정된 제어 대상을 포함하는 센싱 데이터를 캡쳐하여 출력하는 단계(S1230) 등을 포함할 수 있다.
이상에서 설명한 바와 같이, 본 개시에 의하면, 차량의 주행 경로 상에 존재하는 타겟을 지속적으로 선정하여 유지하거나 옆 차로에서 주행하는 다른 타겟을 선정하지 않도록 제어하는 차량 제어 시스템, 비이미지 센서 모듈 및 센싱 데이터 처리 방법을 제공할 수 있다.
또한, 본 개시에 의하면, 차량의 주행 차로에 존재하는 선행 타겟을 제어 대상으로 정확히 인식할 수 있는 차량 제어 시스템, 비이미지 센서 모듈 및 센싱 데이터 처리 방법을 제공할 수 있다.
이상에서의 설명 및 첨부된 도면은 본 개시의 기술 사상을 예시적으로 나타낸 것에 불과한 것으로서, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 개시의 본질적인 특성에서 벗어나지 않는 범위에서 구성의 결합, 분리, 치환 및 변경 등의 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 개시에 개시된 실시예들은 본 개시의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 개시의 기술 사상의 범위가 한정되는 것은 아니다. 즉, 본 개시의 과제 해결 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 본 개시의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
100: 차량 제어시스템 110: 카메라 모듈
120, 300: 비이미지 센서 모듈 130: 통신 모듈
140: 차량 내부 센서 모듈 150: 컨트롤러
160: 도메인 컨트롤 유닛 170: 운전자 보조 시스템 모듈
310: 정보 수신부 320: 제어 대상 선정부
321: 오브젝트 검출 프로세서 322: 오브젝트 추적 프로세서
330: 출력부 810: 차량
820: 주행 경로 821: 제1 차선
822: 제2 차선 830: 선행 타겟
840: 인접 타겟 910: 제어 대상
1010: 샘플 측정값 1020: 추적 모델

Claims (12)

  1. 차량의 주행 경로 정보 및 차선 정보 중 적어도 하나의 정보를 수신하는 정보 수신부;
    상기 수신된 정보를 토대로 필터 조건 및 추적 조건 중 적어도 하나를 미리 설정하고, 상기 필터 조건 및 추적 조건 중 적어도 하나에 기초하여 상기 차량의 전방에 존재하는 하나 이상의 물체 중 제어 대상을 선정하는 제어 대상 선정부; 및
    제어 대상 정보를 포함하는 센싱 데이터를 캡쳐하여 출력하는 출력부를 포함하며,
    상기 제어 대상 선정부는,
    상기 물체의 샘플 측정값과 상기 물체의 현재 상태에서의 현재 추정값 간의 차이로 계산된 보정값과 미리 설정된 업데이트 게인을 곱하여 매개 변수를 생성하고,
    상기 현재 추정값에 상기 매개 변수를 반영하여 상기 현재 추정값을 갱신한 갱신 추정값을 산출하되,
    상기 샘플 측정값이 상기 주행 경로 또는 상기 차선 내에 존재하면, 값이 1인 가중치를 상기 매개 변수에 반영하여 산출된 제1 갱신 추정값에 대응되는 상기 물체를 상기 제어 대상으로 선정하고,
    상기 샘플 측정값이 상기 주행 경로 또는 상기 차선 외에 존재하면, 0 이상 1 미만의 상기 가중치를 상기 매개 변수에 반영하여 산출된 제2 갱신 추정값에 대응되는 상기 물체를 상기 제어 대상에서 제외하는 것을 특징으로 하는 비이미지 센서 모듈.
  2. 제1항에 있어서,
    상기 제어 대상 선정부는,
    상기 물체의 샘플 측정값을 생성하고,
    상기 필터 조건에 따라 상기 샘플 측정값이 주행 경로 또는 차선 내에 위치하는지 판단하고,
    상기 주행 경로 또는 상기 차선 외에 위치하는 상기 샘플 측정값을 필터링하고, 상기 주행 경로 또는 상기 차선 내에 위치하는 상기 샘플 측정값을 상기 제어 대상으로 선정하는 것을 특징으로 하는 비이미지 센서 모듈.
  3. 제1항에 있어서,
    상기 제어 대상 선정부는,
    상기 물체의 샘플 측정값을 추적하도록 이동 가능한 추적 모델을 생성하고,
    상기 샘플 측정값이 상기 주행 경로 또는 상기 차선 내에 존재하는지 여부에 따라 상기 샘플 측정값을 추적하는 상기 추적 모델을 갱신하고,
    미리 설정된 기준 시간 동안 상기 샘플 측정값과 상기 추적 모델이 미리 설정된 기준 범위 이상 중첩되면 상기 샘플 측정값에 대응되는 상기 물체를 제어 대상으로 선정하는 것을 특징으로 하는 비이미지 센서 모듈.
  4. 제3항에 있어서,
    상기 제어 대상 선정부는,
    상기 샘플 측정값이 상기 주행 경로 또는 상기 차선 내에 존재하면, 상기 샘플 측정값을 추적하도록 상기 추적 모델을 갱신하고,
    상기 샘플 측정값이 상기 주행 경로 또는 상기 차선 외에 존재하면, 상기 샘플 측정값에 대한 상기 추적 모델의 추적을 해제하거나 상기 추적 모델의 갱신 정도를 제한하는 것을 특징으로 하는 비이미지 센서 모듈.
  5. 삭제
  6. 제1항에 있어서,
    상기 업데이트 게인은,
    칼만 필터에 의한 칼만 게인 및 알파-베타 필터에 의한 알바 베타 게인 중 어느 하나인 것을 특징으로 하는 비이미지 센서 모듈.
  7. 차량의 내부 또는 외부에 대한 시야를 갖도록 상기 차량에 배치되어 이미지 데이터를 캡쳐하고, 상기 캡쳐된 이미지 데이터를 처리하도록 구성된 카메라 모듈;
    상기 차량의 내부 또는 외부에 대한 감지 영역을 갖도록 상기 차량에 배치되어 센싱 데이터를 캡쳐하고, 상기 캡쳐된 센싱 데이터를 처리하도록 구성된 적어도 하나의 비이미지 센서 모듈; 및
    상기 이미지 데이터 및 상기 센싱 데이터의 처리에 적어도 부분적으로 기초하여, 상기 차량의 전방에 존재하는 제어 대상을 선행 타겟으로 인식하도록 구성된 컨트롤러를 포함하되,
    상기 카메라 모듈은,
    상기 이미지 데이터의 처리 결과에 포함된 상기 차량의 주행 경로 정보 및 차선 정보 중 적어도 하나의 정보를 상기 비이미지 센서 모듈로 출력하고,
    상기 비이미지 센서 모듈은,
    상기 차량의 상기 주행 경로 정보 및 상기 차선 정보 중 적어도 하나의 정보를 수신하는 정보 수신부;
    상기 수신된 정보를 토대로 필터 조건 및 추적 조건 중 적어도 하나를 미리 설정하고, 상기 필터 조건 및 추적 조건 중 적어도 하나에 기초하여 상기 차량의 전방에 존재하는 하나 이상의 물체 중 상기 제어 대상을 선정하는 제어 대상 선정부; 및
    제어 대상 정보를 포함하는 센싱 데이터를 캡쳐하여 출력하는 출력부를 포함하며,
    상기 제어 대상 선정부는,
    상기 물체의 샘플 측정값과 상기 물체의 현재 상태에서의 현재 추정값 간의 차이로 계산된 보정값과 미리 설정된 업데이트 게인을 곱하여 매개 변수를 생성하고,
    상기 현재 추정값에 상기 매개 변수를 반영하여 상기 현재 추정값을 갱신한 갱신 추정값을 산출하되,
    상기 샘플 측정값이 상기 주행 경로 또는 상기 차선 내에 존재하면, 값이 1인 가중치를 상기 매개 변수에 반영하여 산출된 제1 갱신 추정값에 대응되는 상기 물체를 상기 제어 대상으로 선정하고,
    상기 샘플 측정값이 상기 주행 경로 또는 상기 차선 외에 존재하면, 0 이상 1 미만의 상기 가중치를 상기 매개 변수에 반영하여 산출된 제2 갱신 추정값에 대응되는 상기 물체를 상기 제어 대상에서 제외하는 것을 특징으로 하는 차량 제어 시스템.
  8. 제7항에 있어서,
    상기 제어 대상 선정부는,
    상기 필터 조건에 따라 상기 물체가 주행 경로 또는 차선 내에 위치하는지 판단하고,
    상기 주행 경로 또는 상기 차선 외에 위치하는 물체를 필터링하고, 상기 주행 경로 또는 상기 차선 내에 위치하는 물체를 상기 제어 대상으로 선정하는 것을 특징으로 하는 차량 제어 시스템.
  9. 제7항에 있어서,
    상기 제어 대상 선정부는,
    상기 물체의 샘플 측정값을 추적하도록 이동 가능한 추적 모델을 생성하고,
    상기 샘플 측정값이 상기 주행 경로 또는 상기 차선 내에 존재하는지 여부에 따라 상기 샘플 측정값을 추적하는 상기 추적 모델을 갱신하고,
    미리 설정된 기준 시간 동안 상기 샘플 측정값과 상기 추적 모델이 미리 설정된 기준 범위 이상 중첩되면 상기 샘플 측정값에 대응되는 상기 물체를 제어 대상으로 선정하는 것을 특징으로 하는 차량 제어 시스템.
  10. 삭제
  11. 차량의 내부 또는 외부에 대한 시야를 갖도록 상기 차량에 배치되어 이미지 데이터를 캡쳐하도록 구성된 카메라 모듈;
    상기 차량의 내부 또는 외부에 대한 감지 영역을 갖도록 상기 차량에 배치되어 센싱 데이터를 캡쳐하도록 구성된 적어도 하나의 비이미지 센서 모듈;
    상기 차량이 선행 타겟과 일정한 간격을 유지하며 목표 주행속도로 주행하도록 상기 차량의 주행속도를 제어하는 운전자 보조 시스템 모듈; 및
    상기 이미지 데이터 및 상기 센싱 데이터를 처리하고, 상기 차량에 구비된 적어도 하나의 상기 운전자 보조 시스템 모듈을 제어하도록 구성된 도메인 컨트롤 유닛을 포함하되,
    상기 카메라 모듈은,
    상기 이미지 데이터의 처리 결과에 포함된 상기 차량의 주행 경로 정보 및 차선 정보 중 적어도 하나의 정보를 상기 비이미지 센서 모듈로 출력하고,
    상기 비이미지 센서 모듈은,
    상기 차량의 상기 주행 경로 정보 및 상기 차선 정보 중 적어도 하나의 정보를 수신하는 정보 수신부;
    상기 수신된 정보를 토대로 필터 조건 및 추적 조건 중 적어도 하나를 미리 설정하고, 상기 필터 조건 및 추적 조건 중 적어도 하나에 기초하여 상기 차량의 전방에 존재하는 하나 이상의 물체 중 제어 대상을 선정하는 제어 대상 선정부; 및
    제어 대상 정보를 포함하는 센싱 데이터를 캡쳐하여 출력하는 출력부를 포함하고,
    상기 도메인 컨트롤 유닛은,
    상기 센싱 데이터의 처리 결과에 의해 획득된 상기 제어 대상을 상기 선행 타겟으로 인식하도록 상기 운전자 보조 시스템 모듈을 제어하며,
    상기 제어 대상 선정부는,
    상기 물체의 샘플 측정값과 상기 물체의 현재 상태에서의 현재 추정값 간의 차이로 계산된 보정값과 미리 설정된 업데이트 게인을 곱하여 매개 변수를 생성하고,
    상기 현재 추정값에 상기 매개 변수를 반영하여 상기 현재 추정값을 갱신한 갱신 추정값을 산출하되,
    상기 샘플 측정값이 상기 주행 경로 또는 상기 차선 내에 존재하면, 값이 1인 가중치를 상기 매개 변수에 반영하여 산출된 제1 갱신 추정값에 대응되는 상기 물체를 상기 제어 대상으로 선정하고,
    상기 샘플 측정값이 상기 주행 경로 또는 상기 차선 외에 존재하면, 0 이상 1 미만의 상기 가중치를 상기 매개 변수에 반영하여 산출된 제2 갱신 추정값에 대응되는 상기 물체를 상기 제어 대상에서 제외하는 것을 특징으로 하는 차량 제어 시스템.
  12. 차량의 주행 경로 정보 및 차선 정보 중 적어도 하나의 정보를 수신하는 단계;
    상기 수신된 정보를 토대로 필터 조건 및 추적 조건 중 적어도 하나를 미리 설정하고, 상기 필터 조건 및 추적 조건 중 적어도 하나에 기초하여 상기 차량의 전방에 존재하는 하나 이상의 물체 중 제어 대상을 선정하는 단계; 및
    제어 대상 정보를 포함하는 센싱 데이터를 캡쳐하여 출력하는 단계를 포함하며,
    상기 제어 대상을 선정하는 단계는,
    상기 물체의 샘플 측정값과 상기 물체의 현재 상태에서의 현재 추정값 간의 차이로 계산된 보정값과 미리 설정된 업데이트 게인을 곱하여 매개 변수를 생성하고,
    상기 현재 추정값에 상기 매개 변수를 반영하여 상기 현재 추정값을 갱신한 갱신 추정값을 산출하되,
    상기 샘플 측정값이 상기 주행 경로 또는 상기 차선 내에 존재하면, 값이 1인 가중치를 상기 매개 변수에 반영하여 산출된 제1 갱신 추정값에 대응되는 상기 물체를 상기 제어 대상으로 선정하고,
    상기 샘플 측정값이 상기 주행 경로 또는 상기 차선 외에 존재하면, 0 이상 1 미만의 상기 가중치를 상기 매개 변수에 반영하여 산출된 제2 갱신 추정값에 대응되는 상기 물체를 상기 제어 대상에서 제외하는 것을 특징으로 하는 센싱 데이터 처리 방법.
KR1020190070434A 2019-06-14 2019-06-14 차량 제어 시스템, 비이미지 센서 모듈 및 센싱 데이터 처리 방법 KR102627478B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190070434A KR102627478B1 (ko) 2019-06-14 2019-06-14 차량 제어 시스템, 비이미지 센서 모듈 및 센싱 데이터 처리 방법
US16/900,865 US11501539B2 (en) 2019-06-14 2020-06-12 Vehicle control system, sensing device and sensing data processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190070434A KR102627478B1 (ko) 2019-06-14 2019-06-14 차량 제어 시스템, 비이미지 센서 모듈 및 센싱 데이터 처리 방법

Publications (2)

Publication Number Publication Date
KR20200143588A KR20200143588A (ko) 2020-12-24
KR102627478B1 true KR102627478B1 (ko) 2024-01-23

Family

ID=73746230

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190070434A KR102627478B1 (ko) 2019-06-14 2019-06-14 차량 제어 시스템, 비이미지 센서 모듈 및 센싱 데이터 처리 방법

Country Status (2)

Country Link
US (1) US11501539B2 (ko)
KR (1) KR102627478B1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111780981B (zh) * 2020-05-21 2022-02-18 东南大学 一种智能车辆编队变道性能测评方法
CN114394095B (zh) * 2022-01-24 2023-10-13 东风汽车集团股份有限公司 基于侧前车变道意图识别的acc控制方法及装置
CN115661797B (zh) * 2022-12-06 2023-05-09 清华大学 目标跟踪方法、装置及设备

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3257410B2 (ja) 1995-11-24 2002-02-18 トヨタ自動車株式会社 車載走査型レーダ装置
JP6544168B2 (ja) 2015-09-15 2019-07-17 株式会社デンソー 車両制御装置、及び車両制御方法
KR102413579B1 (ko) * 2015-10-06 2022-06-28 주식회사 에이치엘클레무브 운전자 편의 장치 및 그의 타겟 추정 방법
JP6558239B2 (ja) * 2015-12-22 2019-08-14 アイシン・エィ・ダブリュ株式会社 自動運転支援システム、自動運転支援方法及びコンピュータプログラム
KR101826628B1 (ko) 2017-04-03 2018-02-08 현대오트론 주식회사 선행 차량 인식 방법과 장치
JP7116355B2 (ja) * 2017-09-28 2022-08-10 トヨタ自動車株式会社 運転支援装置
KR102335987B1 (ko) * 2017-10-26 2021-12-07 현대자동차주식회사 차량 주행제어 장치 및 방법
EP3832261A1 (en) * 2018-04-03 2021-06-09 Mobileye Vision Technologies Ltd. Systems and methods for determining navigational parameters
US11205274B2 (en) * 2018-04-03 2021-12-21 Altumview Systems Inc. High-performance visual object tracking for embedded vision systems

Also Published As

Publication number Publication date
KR20200143588A (ko) 2020-12-24
US11501539B2 (en) 2022-11-15
US20200394424A1 (en) 2020-12-17

Similar Documents

Publication Publication Date Title
US10807596B2 (en) Apparatus and a method for controlling an inter-vehicle distance
US10114117B2 (en) Detection of an object by use of a 3D camera and a radar
KR102627478B1 (ko) 차량 제어 시스템, 비이미지 센서 모듈 및 센싱 데이터 처리 방법
US11208085B2 (en) Automotive braking control system, apparatus, and method considering weather condition
US11242056B2 (en) Apparatus and method for controlling smart cruise control system
US10162357B2 (en) Distributed computing among vehicles
US20220146664A1 (en) Signal processing device, signal processing method, program, and information processing device
WO2018229257A1 (en) Detection of non-v2v vehicles
US20230303113A1 (en) Curb-based feature extraction for localization and lane detection using radar
EP3669358B1 (en) Server, method, non-transitory computer-readable medium, and system
US11325588B2 (en) Vehicle control system and vehicle control method
US11662745B2 (en) Time determination of an inertial navigation system in autonomous driving systems
CN109835343B (zh) 车辆控制装置、车辆控制方法及存储介质
WO2022044830A1 (ja) 情報処理装置、および情報処理方法
US20220410904A1 (en) Information processing device, information processing system and information processing method
WO2020203240A1 (ja) 情報処理装置および情報処理方法
KR20220111749A (ko) 자율주행 차량의 추적 시스템
KR102034316B1 (ko) 차량 위치 보정 시스템 및 방법, 그리고 카메라
WO2021065510A1 (ja) 情報処理装置、情報処理方法、情報処理システム及びプログラム
WO2022059489A1 (ja) 情報処理装置、情報処理方法及びプログラム
US20230227032A1 (en) Vehicle Dynamics Classification for Collision and Loss of Control Detection
WO2022249533A1 (ja) 情報処理装置、キャリブレーションシステム及び情報処理方法
US20220017117A1 (en) Information processing apparatus, information processing method, program, mobile-object control apparatus, and mobile object
KR20210090329A (ko) 카메라를 이용하여 자율 주행을 수행하는 차량 및 그의 동작 방법
CN115147689A (zh) 识别装置、车辆系统、识别方法以及存储介质

Legal Events

Date Code Title Description
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant