KR20210063244A - System for event data recording of autonomous vehicle - Google Patents

System for event data recording of autonomous vehicle Download PDF

Info

Publication number
KR20210063244A
KR20210063244A KR1020200155377A KR20200155377A KR20210063244A KR 20210063244 A KR20210063244 A KR 20210063244A KR 1020200155377 A KR1020200155377 A KR 1020200155377A KR 20200155377 A KR20200155377 A KR 20200155377A KR 20210063244 A KR20210063244 A KR 20210063244A
Authority
KR
South Korea
Prior art keywords
vehicle
trigger signal
autonomous driving
event
event data
Prior art date
Application number
KR1020200155377A
Other languages
Korean (ko)
Inventor
이건창
임화평
박승욱
Original Assignee
현대자동차주식회사
기아 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아 주식회사 filed Critical 현대자동차주식회사
Priority to JP2022529945A priority Critical patent/JP2023504386A/en
Priority to CN202080080487.2A priority patent/CN114730508A/en
Priority to US17/778,521 priority patent/US20230040552A1/en
Priority to PCT/KR2020/016445 priority patent/WO2021101302A1/en
Priority to DE112020005125.0T priority patent/DE112020005125T5/en
Publication of KR20210063244A publication Critical patent/KR20210063244A/en

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/14Cruise control

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Disclosed is a system for event data recording of an autonomous vehicle. The present invention proposes an operating method of an EDR system suitable for properly identifying the cause of an accident of a vehicle. A method according to an embodiment of the present invention includes: a step of receiving a trigger signal indicating occurrence of one of a plurality of predefined events from subsystems of an autonomous driving system; a step of collecting event data including at least data related to a recognition-judgment-control process of the autonomous driving system before and after the occurrence of the event; and a step of recording the event data in an internal storage and uploading the event data to a remote server communicatively connected to the vehicle.

Description

자율주행차량의 이벤트 데이터 기록을 위한 시스템{SYSTEM FOR EVENT DATA RECORDING OF AUTONOMOUS VEHICLE}SYSTEM FOR EVENT DATA RECORDING OF AUTONOMOUS VEHICLE

본 발명은 자율주행차량에서 이벤트 데이터를 기록하는 시스템에 관한 것이다.The present invention relates to a system for recording event data in an autonomous vehicle.

이 부분에 기술된 내용은 단순히 본 발명에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The content described in this section merely provides background information on the present invention and does not constitute prior art.

이벤트 데이터 레코더(Event Data Recorder; EDR)는 차량 운행 중 일정 조건의 충돌(Crash)이나 사고(Event)가 발생하면 사고 전·후 일정 시간 동안의 운행정보나 충돌정보를 기록, 저장, 추출할 수 있는 데이터 기록 장치로서, 일반적으로 차량의 에어백 제어모듈(ACU)에 내장된다.Event Data Recorder (EDR) can record, store, and extract driving information or crash information for a certain period of time before and after the accident when a crash or event under certain conditions occurs while driving a vehicle. As a data recording device, it is usually built into the airbag control module (ACU) of the vehicle.

EDR에는 차량의 속도(Speed), 브레이크 작동상태, 엔진회전수(RPM), 가속페달(Accelerator Pedal), 스로틀밸브(Throttle Valve) 작동상태, 조향핸들 각도(Steering Wheel Angle), 안전벨트(Seat Belt) 착용상태, 충돌의 치명도(Crash Severity; Delta-V or Acceleration), 타이어 공기압력(Tire Pressure), 변속기어 위치(Gear Position), 에어백의 전개정보(Air-bag Deployment Data) 등과 같은 항목들이 기록된다. EDR includes vehicle speed, brake operating status, engine RPM, accelerator pedal, throttle valve operating status, steering wheel angle, and seat belt ) Wearing status, Crash Severity (Delta-V or Acceleration), Tire Pressure, Gear Position, Air-bag Deployment Data, etc. are recorded. do.

자율주행차량은 차량 내/외부로부터 수집된 정보를 기초로, 자율주행시스템이 환경을 인식하고 상황별 행동을 판단(결정)하고 액츄에이터 등을 제어하는 방식으로 동작한다. 자율주행차량에서 인식-판단-제어 과정에서 오류가 발생하면 사고로 연결될 수 있는 바, 일반 차량에 사용되는 EDR 시스템의 기록 조건이나 기록 항목들은 자율주행차량의 사고원인을 적절히 규명하는 데에 적합하지 않을 수 있다. Based on the information collected from inside and outside the vehicle, the autonomous driving system operates in such a way that the autonomous driving system recognizes the environment, determines (determines) actions for each situation, and controls actuators, etc. If an error occurs in the recognition-judgment-control process in an autonomous vehicle, it can lead to an accident. The record conditions or record items of the EDR system used in general vehicles are not suitable for properly identifying the cause of an accident in an autonomous vehicle. may not be

본 발명은 자율주행차량의 사고원인을 적절히 규명하는 데에 적합한 EDR 시스템의 운용 방식을 제안한다.The present invention proposes an operation method of an EDR system suitable for properly identifying the cause of an accident of an autonomous vehicle.

본 개시의 일 측면에 따르면, 자율주행모드로 완전히 혹은 부분적으로 동작하는 차량(즉, 자율주행차량)이 이벤트 데이터를 수집 및 기록하는 방법이 제공된다. 상기 방법은, 자율주행시스템의 서브시스템들로부터 미리 정의된 복수의 이벤트들 중 하나의 발생을 지시하는 트리거 신호를 수신하는 단계와, 상기 이벤트 발생 전후의 상기 자율주행시스템의 인식-판단-제어 과정에 관련된 데이터를 적어도 포함하는 이벤트 데이터를 수집하는 단계와, 상기 이벤트 데이터를 내부 저장소에 기록하고, 상기 자율주행 차량과 통신가능하게 연결된 원격 서버에 상기 이벤트 데이터를 업로드하는 단계를 포함한다.According to one aspect of the present disclosure, a method for collecting and recording event data by a vehicle (ie, an autonomous vehicle) operating fully or partially in an autonomous driving mode is provided. The method includes receiving a trigger signal instructing occurrence of one of a plurality of predefined events from subsystems of the autonomous driving system, and a recognition-judgment-control process of the autonomous driving system before and after the occurrence of the event. Collecting event data including at least data related to , recording the event data in an internal storage, and uploading the event data to a remote server communicatively connected to the autonomous vehicle.

일부 실시예에서, 상기 이벤트 데이터는 상기 자율주행 차량 내/외부의 카메라 이미지, 상기 자율주행차량의 탑승자 인지 데이터, 상기 차량에 탑재된 ECU들의 소프트웨어 버전 정보, 및 최근 사용된 V2X 메시지 관련 정보 중 적어도 하나를 더 포함할 수 있다. 일부 실시예에서, 상기 이벤트 데이터는 상기 이벤트의 발생 전후의 자율주행차량을 둘러싼 외부 환경 맵을 재구성하는 데에 적합한 (예컨대, 객체의 위치, 클래스, 상대 속도 등과 같은) 객체 인식 정보를 더 포함할 수 있다. 일부 실시예에서, 상기 이벤트 데이터를 구성하는 데이터 항목 또는 기록 기간은 상기 복수의 이벤트들의 적어도 일부에 대해 상이할 수 있다. In some embodiments, the event data includes at least one of a camera image inside/outside the autonomous vehicle, occupant recognition data of the autonomous vehicle, software version information of ECUs mounted in the vehicle, and information related to recently used V2X messages. It may include one more. In some embodiments, the event data may further include object recognition information (eg, object location, class, relative speed, etc.) suitable for reconstructing an external environment map surrounding the autonomous vehicle before and after the occurrence of the event. can In some embodiments, a data item or recording period constituting the event data may be different for at least some of the plurality of events.

일부 실시예에서, 상기 트리거 신호를 수신하는 단계는, 차선 인지 정보에 적어도 부분적으로 기초하여 자율주행 기능을 수행하는 서브시스템으로부터, 상기 자율주행차량이 차선을 이탈하였음을 지시하는 트리거 신호를 수신하는 단계를 포함할 수 있다. 일부 실시예에서, 상기 트리거 신호를 수신하는 단계는, 충돌예상시간(Time To Collision: TCC)에 적어도 부분적으로 기초하여 자율주행 기능을 수행하는 서브시스템으로부터, 상기 차량의 현재 속도 기준으로 제동을 통해 충돌을 피할 수 없음을 지시하는 트리거 신호를 수신하는 단계를 포함할 수 있다. 일부 실시예에서, 상기 트리거 신호를 수신하는 단계는 상기 자율주행시스템의 서브시스템으로부터 긴급 기동(Emergency Maneuver; EM) 또는 최소 위험 기동(Minimal Risk Maneuver; MRM)이 개시되었음을 지시하는 트리거 신호를 수신하는 단계를 포함할 수 있다. 일부 실시예에서, 상기 트리거 신호를 수신하는 단계는 상기 자율주행시스템의 서브시스템으로부터 차량 내부 네트워크로의 침입을 탐지하였음을 지시하는 트리거 신호를 수신하는 단계를 포함할 수 있다. In some embodiments, the receiving of the trigger signal includes receiving, from a subsystem that performs an autonomous driving function based at least in part on lane recognition information, a trigger signal indicating that the autonomous vehicle has departed from a lane may include steps. In some embodiments, the receiving of the trigger signal comprises: from a subsystem that performs an autonomous driving function based at least in part on a Time To Collision (TCC), via braking based on a current speed of the vehicle. It may include receiving a trigger signal indicating that collision cannot be avoided. In some embodiments, the receiving of the trigger signal comprises receiving a trigger signal indicating that an Emergency Maneuver (EM) or Minimal Risk Maneuver (MRM) has been initiated from a subsystem of the autonomous driving system. may include steps. In some embodiments, the receiving of the trigger signal may include receiving a trigger signal indicating that an intrusion into the in-vehicle network has been detected from a subsystem of the autonomous driving system.

일부 실시예에서, 상기 이벤트 데이터의 기록 기간의 종료 이전에 새로운 이벤트의 발생을 지시하는 새로운 트리거 신호가 수신되는 경우에, 상기 기록 기간을 연장하는 한편 발생한 이벤트의 종류 및 그 발생 시간을 추가로 기록하는 단계를 더 포함할 수 있다. In some embodiments, when a new trigger signal instructing the occurrence of a new event is received before the end of the recording period of the event data, the recording period is extended while the type of the event that occurred and the occurrence time thereof are additionally recorded It may further include the step of

본 개시의 일 측면에 따르면, 차량을 자율주행모드로 완전히 혹은 부분적으로 동작하도록 제어하는 자율주행시스템과, 상기 차량과 외부 시스템간의 통신을 가능하게 하는 무선통신 시스템과 이벤트 데이터를 수집 및 관리하는 EDR 시스템을 포함하는 차량 시스템은 제공한다. 상기 EDR 시스템은 (1) 상기 자율주행시스템의 서브시스템들로부터 미리 정의된 복수의 이벤트들 중 하나의 발생을 지시하는 트리거 신호를 수신하고, (2) 상기 이벤트 발생 전후의 상기 자율주행시스템의 인식-판단-제어 과정에 관련된 데이터를 적어도 포함하는 이벤트 데이터를 수집하고, (3) 상기 이벤트 데이터를 내부 저장소에 기록하고, 상기 무선통신 시스템을 통해 원격 서버에 상기 이벤트 데이터를 업로드하도록 구성된다.According to an aspect of the present disclosure, an autonomous driving system that controls a vehicle to fully or partially operate in an autonomous driving mode, a wireless communication system that enables communication between the vehicle and an external system, and EDR that collects and manages event data A vehicle system comprising the system provides. The EDR system (1) receives a trigger signal instructing occurrence of one of a plurality of predefined events from subsystems of the autonomous driving system, and (2) recognition of the autonomous driving system before and after the occurrence of the event - collect event data including at least data related to a decision-control process, (3) record the event data in an internal storage, and upload the event data to a remote server via the wireless communication system.

도 1은 본 발명의 예시적인 실시예에 따른 차량을 묘사하는 기능 블록도이다.
도 2a, 도 2b 및 도 2c는 자율주행차량에서 EDR 시스템이 전개될 수 있는 예시적인 아키텍쳐들을 보이는 개념도이다.
도 3은 인지된 차선 지오메트리와 차선 이탈 여부에 따른 매개변수 D의 변화를 예시하는 개념도이다.
도 4는 본 발명의 일 실시예에 따른, LKAS 시스템이 EDR 시스템을 트리거할 이벤트 발생을 판단하는 방법을 도시한 흐름도이다.
도 5는 본 발명의 일 실시예에 따른, TTC 기반으로 EDR 시스템을 트리거할 이벤트 발생을 판단하는 방법을 도시한 흐름도이다.
도 6a 내지 도 6d는 자율주행 시스템에서 긴급 기동(EM)이 발생하는 몇몇 예시적인 시나리오들이 예시한다.
도 7은 본 발명의 일 실시예에 따른, 최소위험기동(MRM)의 개시에 따라 EDR 시스템의 기록을 트리거하는 방법을 도시한 흐름도이다.
도 8은 자율주행차량을 둘러싼 외부 환경 맵을 예시한다.
도 9는 본 발명의 일 실시예에 따른, EDR 시스템에 의해 저장될 자율주행 데이터를 예시한다.
1 is a functional block diagram depicting a vehicle according to an exemplary embodiment of the present invention;
2A, 2B, and 2C are conceptual diagrams illustrating exemplary architectures in which an EDR system may be deployed in an autonomous vehicle.
3 is a conceptual diagram illustrating a change in parameter D according to a recognized lane geometry and whether or not to depart from a lane.
4 is a flowchart illustrating a method for determining, by the LKAS system, the occurrence of an event to trigger the EDR system, according to an embodiment of the present invention.
5 is a flowchart illustrating a method of determining occurrence of an event to trigger an EDR system based on TTC, according to an embodiment of the present invention.
6A-6D illustrate some example scenarios in which emergency maneuver (EM) occurs in an autonomous driving system.
7 is a flowchart illustrating a method of triggering recording of an EDR system upon initiation of a minimum risk maneuver (MRM), according to an embodiment of the present invention.
8 illustrates an external environment map surrounding an autonomous vehicle.
9 illustrates autonomous driving data to be stored by an EDR system, according to an embodiment of the present invention.

이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail through exemplary drawings. In adding reference numerals to elements of each drawing, it should be noted that the same elements are assigned the same numerals as possible, even if they are indicated on different drawings. In addition, in describing the present invention, when it is determined that a detailed description of a related known configuration or function may obscure the subject matter of the present invention, a detailed description thereof will be omitted.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 명세서 전체에서, 어떤 부분이 어떤 구성요소를 '포함', '구비'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 '…부,' '모듈' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. In addition, in describing the constituent elements of the present invention, terms such as first, second, A, B, (a) and (b) may be used. These terms are for distinguishing the constituent element from other constituent elements, and the nature, order, or order of the constituent element is not limited by the term. Throughout the specification, when a part'includes' or'includes' a certain element, it means that other elements may be further included rather than excluding other elements unless otherwise stated. . In addition, the '... Terms such as 'unit' and 'module' mean a unit that processes at least one function or operation, which may be implemented as hardware or software or a combination of hardware and software.

도 1은 본 발명의 예시적인 실시예에 따른 차량을 묘사하는 기능 블록도이다.1 is a functional block diagram depicting a vehicle according to an exemplary embodiment of the present invention;

차량은 자율주행모드로 완전히 혹은 부분적으로 동작하도록 구성되고, 따라서 "자율주행차량" 이라고 지칭될 수 있다. 예를 들어, 자율주행 시스템(120)은 센서 시스템(110)으로부터 정보를 수신하고, 자동화된 방식으로, 수신된 정보를 기반으로 (예컨대, 검출된 장애물을 피하기 위해 조향을 설정하는 것과 같은) 하나 이상의 제어 프로세스를 실행할 수 있다.The vehicle is configured to operate fully or partially in an autonomous driving mode and may therefore be referred to as an “autonomous driving vehicle”. For example, the autonomous driving system 120 may receive information from the sensor system 110 and, in an automated manner, one (eg, set steering to avoid a detected obstacle) based on the received information. More than one control process can be executed.

차량은 완전히 자율적이거나 부분적으로 자율적일 수 있다. 부분 자율 차량에서, 일부 기능은 일시적으로 혹은 지속적으로 운전자에 의해 수동으로 제어될 수 있다. 또한, 부분 자율 차량은 완전 수동 동작 모드와 부분 자율 동작 및/또는 완전 자율 동작 모드 사이에서 전환 가능하도록 구성될 수 있다.Vehicles may be fully autonomous or partially autonomous. In partially autonomous vehicles, some functions may be temporarily or continuously controlled manually by the driver. Further, the partially autonomous vehicle may be configured to be switchable between a fully manual operating mode and a partially autonomous and/or fully autonomous operating mode.

차량은 센서 시스템(110), 자율주행 시스템(120), 무선통신 시스템(130), 침입탐지 시스템(140)과 같은 다양한 기능 시스템들을 포함할 수 있다. 차량은 더 많거나 적은 (서브) 시스템들을 포함할 수 있고 각각의 (서브) 시스템은 복수의 구성요소들을 포함할 수 있다. 또한, 차량의 (서브) 시스템은 서로 연결될 수 있다. 따라서, 차량의 기술된 기능의 하나 이상은 추가적인 기능적 또는 물리적 컴포넌트들로 나누어지거나 더 적은 기능적 또는 물리적 컴포넌트들로 결합될 수 있다.The vehicle may include various functional systems such as the sensor system 110 , the autonomous driving system 120 , the wireless communication system 130 , and the intrusion detection system 140 . A vehicle may include more or fewer (sub) systems and each (sub) system may include a plurality of components. In addition, (sub)systems of the vehicle can be connected to each other. Accordingly, one or more of the described functionality of a vehicle may be divided into additional functional or physical components or combined into fewer functional or physical components.

센서 시스템(110)은 차량을 둘러싼 환경에 대한 정보를 검출하도록 구성된 하나 이상의 센서를 포함한다. 예를 들어, 센서 시스템(110)은 위성 항법 장치(GPS), 레이더 유닛, 라이더(LIDAR) 유닛, 카메라, 관성 측정 유닛(IMU), 마이크로폰 등을 포함할 수 있다. 센서 시스템(110)은 차량의 내부 시스템을 모니터링하도록 구성된 센서(예를 들면, 연료 게이지, 엔진 오일 온도, 휠 속도 센서 등)를 추가로 포함할 수 있다. The sensor system 110 includes one or more sensors configured to detect information about the environment surrounding the vehicle. For example, the sensor system 110 may include a global positioning system (GPS), a radar unit, a lidar (LIDAR) unit, a camera, an inertial measurement unit (IMU), a microphone, and the like. The sensor system 110 may further include a sensor configured to monitor an internal system of the vehicle (eg, a fuel gauge, engine oil temperature, wheel speed sensor, etc.).

자율주행 시스템(120)은 차량과 그 구성 요소의 작동을 제어하도록 구성될 수 있다. 자율주행 시스템(120)은 인식 서브시스템(121), 판단 서브시스템(122) 및 제어 서브시스템(123)을 포함할 수 있다.The autonomous driving system 120 may be configured to control the operation of the vehicle and its components. The autonomous driving system 120 may include a recognition subsystem 121 , a determination subsystem 122 , and a control subsystem 123 .

인식 서브시스템(121)은 차선 정보, 교통 신호, 다른 차량, 보행자, 장애물 등을 포함한, 차량이 놓여진 환경 내의 객체 및/또는 특징을 식별하기 위해 센서 시스템에 의해 캡쳐된 데이터(예컨대, 이미지, 비디오, 심도 데이터 등)를 처리 및 분석하도록 구성된다. 인식 서브시스템(121)은 센서 퓨전 알고리즘, 객체 인식 알고리즘, 비디오 트래킹 또는 기타 컴퓨터 비전 기법을 사용할 수 있다. 센서 퓨전 알고리즘은 센서 시스템의 데이터를 기반으로 다양한 평가를 제공할 수 있다. 평가는 차량이 놓여진 환경에서 개별 객체 및/또는 특징의 평가, 특정 상황에 대한 평가, 및/또는 상기 특정 상황에 기초하여 가능한 주행에 대한 영향의 평가를 포함할 수 있다.Recognition subsystem 121 provides data captured by the sensor system (eg, images, video) to identify objects and/or features within the environment in which the vehicle is placed, including lane information, traffic signals, other vehicles, pedestrians, obstacles, etc. , depth data, etc.) to be processed and analyzed. Recognition subsystem 121 may use sensor fusion algorithms, object recognition algorithms, video tracking, or other computer vision techniques. The sensor fusion algorithm can provide various evaluations based on data from the sensor system. Evaluation may include evaluation of individual objects and/or features in the environment in which the vehicle is placed, evaluation of specific situations, and/or evaluation of possible effects on driving based on said specific situations.

판단 서브시스템(122)은 인식 서브시스템(121)의 다양한 평가를 기초로, 주행 상황(시나리오)별 행동(예컨대, 차선유지, 차선변경, 좌우회전, 저속차량 추월, 유턴, 비상정지, 갓길정차, 주차 등)을 판단한다. 또한, 판단 서브시스템(122)은 목적지까지의 경로를 계획하거나 장애물 회피 경로를 계획할 수도 있다.Based on the various evaluations of the recognition subsystem 121 , the determination subsystem 122 performs actions (eg, lane keeping, lane change, left and right turn, low-speed vehicle overtaking, U-turn, emergency stop, shoulder stop) for each driving situation (scenario) based on the various evaluations of the recognition subsystem 121 . , parking, etc.). The decision subsystem 122 may also plan a route to a destination or plan an obstacle avoidance route.

제어 서브시스템(123)은 판단 서브시스템(122)에 의해 결정된 주행 상황별 행동에 따라, 차량이 운행하는 데 필요한 액츄에이터들을 제어함으로써 차량의 움직임을 제어한다. 예컨대, 제어 서브시스템(123)은 차량의 조향을 조절하도록 구성된 조향 유닛을 제어할 수 있다. 다른 예로, 제어 서브시스템(123)은 엔진 및/또는 모터의 동작 속도를 제어하는 스로틀 유닛을 제어하여 그 결과 차량의 속도를 제어할 수 있다. 또 다른 예로, 제어 서브시스템(123)은 차량을 감속시키도록 구성된 제동 유닛을 제어할 수 있다. The control subsystem 123 controls the movement of the vehicle by controlling actuators necessary for the vehicle to travel according to the behavior for each driving situation determined by the determination subsystem 122 . For example, the control subsystem 123 may control a steering unit configured to adjust the steering of the vehicle. As another example, the control subsystem 123 may control a throttle unit that controls the operating speed of the engine and/or motor, thereby controlling the speed of the vehicle. As another example, the control subsystem 123 may control a braking unit configured to slow the vehicle.

자율주행 시스템(120)의 서브 시스템들(121, 122, 123)은 서로 협업하여 다양한 자율주행 기능들 혹은 ADAS(Advanced Dirver Assistance System) 기능들, 예컨대, ACC(Adaptive Cruise Control), LKAS(Lane Keeping Assist system), FCA(Forward Collision-Avoidance Assist), AEB(Autonomous Emergency Braking) 등을 지원할 수 있다. 자율주행 시스템(120)의 서브 시스템들(121, 122, 123)은 하나 이상의 자율주행 기능을 수행하는 차량 내 복수의 전자제어유닛(ECU) 혹은 컴퓨터 시스템에 구현될 수 있다.Subsystems 121 , 122 , and 123 of the autonomous driving system 120 cooperate with each other to perform various autonomous driving functions or ADAS (Advanced Driver Assistance System) functions, for example, adaptive cruise control (ACC), lane keeping (LKAS). Assist system), Forward Collision-Avoidance Assist (FCA), Autonomous Emergency Braking (AEB), and the like may be supported. The sub-systems 121 , 122 , and 123 of the autonomous driving system 120 may be implemented in a plurality of electronic control units (ECUs) or computer systems in a vehicle that perform one or more autonomous driving functions.

무선통신 시스템(130)은 차량과 외부 시스템(예컨대, 다른 차량 또는 서버 등) 간의 통신을 가능하게 한다. 예를 들어, 무선통신 시스템(130)은 하나 이상의 장치들과 직접 또는 통신 네트워크를 통해 무선 통신할 수 있다. 무선통신 시스템(130)은 셀룰러 통신(예컨대, GSM, CDMA, LTE, 5G 등), IEEE 802.11의 통신 프로토콜(예컨대, WiFi, Bluetooth, ZigBee 등), DRSC 등의 다양한 무선통신기술들 중 하나 또는 복수를 사용할 수 있다.The wireless communication system 130 enables communication between the vehicle and an external system (eg, another vehicle or server, etc.). For example, the wireless communication system 130 may wirelessly communicate with one or more devices directly or through a communication network. The wireless communication system 130 is a cellular communication (eg, GSM, CDMA, LTE, 5G, etc.), IEEE 802.11 communication protocol (eg, WiFi, Bluetooth, ZigBee, etc.), one or a plurality of various wireless communication technologies such as DRSC can be used

침입탐지 시스템(Intrusion Detection System: IDS; 140)은 차량 내부 네트워크에 대한 보안 위협을 탐지하고 대응하도록 구성된다.An intrusion detection system (IDS) 140 is configured to detect and respond to security threats to the vehicle internal network.

자율주행 시스템(120), 그 서브시스템들(121, 122, 123)은 물론 도 1에 도시되지 않은 다른 서브 시스템은 하나 이상의 자율주행 기능들이 현재 활성화되어 있는지를 나타내는 데이터를 생성할 수 있다. 예를 들어, 자율주행 시스템(120)은 어댑티브 크루즈 컨트롤(Adaptive Cruise Control; ACC) 기능이 현재 활성화되어 있는지 여부를 나타내는 데이터를 생성할 수 있다. 다른 예로서, 자율주행 시스템(120)은 차량의 주행이 현재 수동이 아닌 완전히 자동 제어되고 있는지 여부를 나타내는 데이터를 생성할 수도 있다.The autonomous driving system 120 , its subsystems 121 , 122 , 123 , as well as other subsystems not shown in FIG. 1 , may generate data indicating whether one or more autonomous driving functions are currently active. For example, the autonomous driving system 120 may generate data indicating whether an adaptive cruise control (ACC) function is currently activated. As another example, the autonomous driving system 120 may generate data indicating whether driving of the vehicle is currently being controlled fully automatically rather than manually.

차량은 센서 시스템(110)을 포함한 차량 내 여러 (서브) 시스템들로부터 데이터를 수신하도록 구성된 EDR 시스템(150)을 추가로 포함한다. 하나 이상의 (서브) 시스템들은 데이터 버스(예컨대, CAN 버스, Ethernet 버스 등)를 통해 EDR 시스템(150)에 데이터를 제공할 수 있다. EDR 시스템(150)은 데이터 버스로부터 각 (서브) 시스템들에 의해 제공된 혹은 공유된 데이터 및/또는 아날로그 신호를 실시간으로 수집할 수 있다. EDR 시스템(150)은 (서브) 시스템들로부터의 데이터를 주기적으로 샘플링할 수 있다. EDR 시스템(150)은 각 샘플링된 데이터 포인트에 대한 타임 스탬프를 생성할 수 있다. The vehicle further includes an EDR system 150 configured to receive data from various (sub) systems in the vehicle including the sensor system 110 . One or more (sub) systems may provide data to the EDR system 150 via a data bus (eg, CAN bus, Ethernet bus, etc.). The EDR system 150 may collect data and/or analog signals provided or shared by each (sub) system from the data bus in real time. The EDR system 150 may periodically sample data from (sub) systems. The EDR system 150 may generate a time stamp for each sampled data point.

하나 이상의 (서브) 시스템들은 사전에 설정된 하나 이상의 이벤트들의 발생을 검출하고, 이벤트 발생을 알리는 트리거 신호들을 EDR 시스템(150)에 제공하고, 그리하여 EDR 시스템으로 하여금 이벤트와 관련된 데이터(이하 'EDR 데이터'로 지칭될 수 있음)를 비휘발성 메모리에 기록하도록 트리거할 수 있다. 각 트리거 신호들은 관련 이벤트 혹은 트리거 조건을 고유하게 식별할 수 있는 고유 식별자를 포함할 수 있다. 적어도 일부 트리거 신호에 대해 EDR 시스템은 기록할 데이터 항목들 및/또는 기록 기간들을 상이하게 적용할 수 있다. The one or more (sub) systems detect the occurrence of one or more preset events, and provide trigger signals notifying the occurrence of the event to the EDR system 150, thereby causing the EDR system to generate data related to the event (hereinafter 'EDR data'). ) can be triggered to write to the non-volatile memory. Each trigger signal may include a unique identifier capable of uniquely identifying a related event or trigger condition. For at least some trigger signals, the EDR system may apply different write periods and/or data items to be written.

차량은, 무선통신 시스템(130)을 통해, 다수의 차량으로부터 EDR 데이터를 수집 및 관리하는 원격 서버(미도시)에, EDR 데이터를 업로드하도록 구성될 수 있다. 원격 서버는 차량 제조사에 의해 운용되거나 EDR 데이터 관리 서비스를 제공하는 서비스 사업자에 의해 운용될 수 있다. The vehicle may be configured to upload EDR data to a remote server (not shown) that collects and manages EDR data from multiple vehicles via the wireless communication system 130 . The remote server may be operated by a vehicle manufacturer or may be operated by a service provider providing an EDR data management service.

도 2a, 도 2b 및 도 2c는 자율주행차량에서 EDR 시스템이 전개될 수 있는 예시적인 아키텍쳐들을 보이는 개념도이다.2A, 2B, and 2C are conceptual diagrams illustrating exemplary architectures in which an EDR system may be deployed in an autonomous vehicle.

도 2a에 예시된 바와 같이, 자율주행차량에는 자율주행차량에 특화된 EDR 시스템이 자율주행 시스템의 메인제어기(통합 ECU) 내에 서브 모듈로서 내장될 수 있다. EDR 시스템은 메인제어기뿐만 아니라, 메인 제어기 외부에 위치한 에어백제어모듈(ACM), 침입탐지시스템(Intrusion Detection System; IDS) 등으로부터 이벤트 발생을 알리는 트리거 신호들을 수신할 수도 있다. 또한, 자율주행차량에는 에어백제어기(ACU) 내에 서브 모듈로서 내장된, 종래의 전형적인 EDR 시스템과 동일하게 동작하는 EDR 시스템을 더 포함할 수도 있다.As illustrated in FIG. 2A , in the autonomous vehicle, an EDR system specialized for the autonomous vehicle may be embedded as a sub-module in the main controller (integrated ECU) of the autonomous driving system. The EDR system may receive trigger signals notifying the occurrence of an event from an airbag control module (ACM), an intrusion detection system (IDS), etc. located outside the main controller as well as the main controller. In addition, the autonomous vehicle may further include an EDR system that is built in as a sub-module in the airbag controller (ACU) and operates in the same manner as a conventional typical EDR system.

도 2b에 예시된 바와 같이, 자율주행차량에서 EDR 시스템은, 종래의 전형적인 EDR 시스템과 같이, 에어백제어기(ACU) 내에 서브 모듈로서 내장될 수도 있다. EDR 시스템은 에어백제어기(ACU)뿐만 아니라, 에어백제어기(ACU) 외부에 위치한 자율주행 시스템의 메인제어기, IDS 시스템 등으로부터 이벤트 발생을 알리는 트리거 신호들을 수신할 수도 있다. As illustrated in FIG. 2B , the EDR system in the autonomous vehicle may be embedded as a sub-module in the airbag controller (ACU), like a conventional typical EDR system. The EDR system may receive trigger signals notifying the occurrence of an event from the airbag controller (ACU) as well as the main controller of the autonomous driving system located outside the airbag controller (ACU), the IDS system, and the like.

도 2c에 예시된 바와 같이, 자율주행차량에는 EDR 기능을 수행하는 독립된 전자제어유닛(ECU)이 탑재될 수도 있다. EDR 시스템은 차량 네트워크 상의 에어백제어기(ACU), 자율주행 시스템의 메인 제어기, IDS 시스템 등으로부터 이벤트 발생을 알리는 트리거 신호들을 수신할 수도 있다. As illustrated in FIG. 2C , the autonomous vehicle may be equipped with an independent electronic control unit (ECU) that performs an EDR function. The EDR system may receive trigger signals notifying the occurrence of an event from an airbag controller (ACU) on a vehicle network, a main controller of an autonomous driving system, an IDS system, and the like.

EDR 트리거 조건의 다양화Diversification of EDR trigger conditions

종래의 EDR 시스템은 에어백 제어 유닛(Airbag Control Unit; ACU)로부터 이벤트 트리거 신호를 수신하면, 사전에 규정된 데이터 항목들을 기록하도록 구성되어 있다. 그러한 이벤트는 특히 충돌 사고(traffic collision)일 수 있다. 충돌 사고는, 예를 들어, 에어백 또는 프리텐션너(pretensioner) 등의 비가역 안전장치의 전개가 트리거되는 때에 감지될 수 있다. 충돌 사고는, 또한, 사전 정의된 임계 값을 초과하는 가감속(예컨대, 150 ms 내에 8km/h 이상의 속도 변화)이 발생할 때 감지될 수도 있다. 일반 차량에 사용되는 이러한 트리거 조건들은 자율주행차량의 사고원인을 적절히 규명하는 데에 적합하지 않을 수 있다. 본 개시는 자율주행차량에 적합한 다양한 이벤트 트리거 조건들과 이벤트들을 둘러싼 차량 내외부의 환경을 재구성하는 데에 적합한 데이터 항목들을 제시한다. 본 개시에 따르면, 자율주행제어 시스템의 서브시스템들은 기설정된 이벤트 조건을 만족하는 이벤트가 발생하였는지 판단하고, 이벤트 발생이 검출되면 EDR 시스템에 이벤트 트리거 신호를 전달할 수 있다. A conventional EDR system is configured to record predefined data items upon receiving an event trigger signal from an Airbag Control Unit (ACU). Such an event may in particular be a traffic collision. A crash may be detected, for example, when deployment of an irreversible safety device such as an airbag or pretensioner is triggered. A crash accident may also be detected when an acceleration/deceleration exceeding a predefined threshold (eg, a speed change of 8 km/h or more within 150 ms) occurs. These trigger conditions used in general vehicles may not be suitable for properly identifying the cause of an accident in an autonomous vehicle. The present disclosure presents various event trigger conditions suitable for an autonomous vehicle and data items suitable for reconstructing the environment inside and outside the vehicle surrounding the events. According to the present disclosure, subsystems of the autonomous driving control system may determine whether an event satisfying a preset event condition has occurred, and when the occurrence of the event is detected, transmit an event trigger signal to the EDR system.

(1) 차선 이탈(1) Lane departure

ADAS(Advance Driver Assistance System) 기술 중 차선 유지 시스템(Lane Keeping Assist System; LKAS)가 작동하는 상황에서, 차선 인지가 올바르게 되어있으나, 차량이 차로에서 크게 벗어났다고 판단되는 시점에, EDR 시스템의 기록이 트리거될 수 있다. In a situation where the Lane Keeping Assist System (LKAS) among the ADAS (Advance Driver Assistance System) technology is operating, lane recognition is correct, but when it is determined that the vehicle has deviated significantly from the lane, the EDR system record is triggered can be

컴퓨터 비전 시스템은 카메라 센서로부터 출력되는 이미지 데이터를 분석하여 차선을 인지하고, 차선 인지 정보를 차선 유지 시스템에 제공할 수 있다. 차선 인지 정보는 차선 표시(lane marking)까지의 거리뿐만 아니라, 헤딩 앵글(heading angle), 곡률(curvature)와 같은 차선 지오메트리 매개변수들을 포함한다. 차선 인지 정보는 차량과 차선의 상대적인 운동을 묘사하는 3차 함수(y = Ax^3 + Bx^2 + Cx + D) 형태의 도로 방정식으로 제공될 수 있다. 여기서, A는 곡률변화량(curvature rate)를, B는 곡률(curvature)를, C는 헤딩 앵글(heading angle)를, D는 횡방향 거리(lateral offset)를 의미한다. 또한, 차선 인지 정보는 차선 지오메트리 측정의 신뢰도를 나타내는 품질 신호(quality signal)를 포함할 수 있다. 품질 신호는 총 4개의 레벨(Very Low Quality, Low Quality, High Quality, Very High Quality)로 구분될 수 있다. The computer vision system may recognize a lane by analyzing image data output from the camera sensor, and may provide lane recognition information to the lane keeping system. The lane recognition information includes not only a distance to a lane marking, but also lane geometry parameters such as a heading angle and a curvature. Lane recognition information may be provided as a road equation in the form of a cubic function (y = Ax^3 + Bx^2 + Cx + D) describing the relative motion of the vehicle and the lane. Here, A is a curvature rate, B is a curvature, C is a heading angle, and D is a lateral offset. Also, the lane recognition information may include a quality signal indicating reliability of lane geometry measurement. The quality signal may be divided into a total of four levels (Very Low Quality, Low Quality, High Quality, and Very High Quality).

도 3은 인지된 차선 지오메트리와 차선 이탈 여부에 따른 매개변수 D(= 0, 0.5)의 변화를 예시하는 개념도이다. 본 발명의 일 실시예에 따르면, 차량과 차선과의 횡방향 거리를 나타내는, 차선 인지 정보에 포함된, 매개변수(D)의 크기를 이용하여 차선 이탈 정도를 판단하고, 과도한 차선 이탈이 감지되면 EDR 시스템의 기록을 트리거하는 트리거 신호를 생성할 수 있다.3 is a conceptual diagram illustrating a change in a parameter D (= 0, 0.5) according to a recognized lane geometry and whether or not to depart from a lane. According to an embodiment of the present invention, the degree of lane departure is determined using the size of the parameter (D) included in lane recognition information indicating the lateral distance between the vehicle and the lane, and when excessive lane departure is detected A trigger signal can be generated that triggers the recording of the EDR system.

도 4는 본 발명의 일 실시예에 따른, LKAS 시스템이 EDR 시스템을 트리거할 이벤트 발생을 판단하는 방법을 도시한 흐름도이다.4 is a flowchart illustrating a method for determining, by the LKAS system, the occurrence of an event to trigger the EDR system, according to an embodiment of the present invention.

LKAS 시스템은 구동하는 동안 컴퓨터 비전 시스템으로부터 차선 인지 정보를 수신한다(S410). LKAS 시스템은 차선 인지 정보에 포함된 차선 지오메트리 측정의 신뢰도를 나타내는 품질 신호가 기설정된 레벨(예컨대, 'High Quality') 이상인지 여부를 판단할 수 있다(S420). The LKAS system receives lane recognition information from the computer vision system while driving (S410). The LKAS system may determine whether the quality signal indicating the reliability of the lane geometry measurement included in the lane recognition information is equal to or greater than a preset level (eg, 'High Quality') ( S420 ).

LKAS 시스템은, 품질 신호가 기설정된 레벨(예컨대, 'High Quality') 이상이면(S420의 'Yes'), 차선 인지 정보에 포함된 차량과 차선과의 횡방향 거리를 나타내는 매개변수(D)가 기설정된 임계값(threshold; thr)을 초과하는지 여부를 판단한다(S430). LKAS 시스템은, 매개변수(D)가 기설정된 임계값을 초과하면(S430의 'Yes'), EDR 시스템의 기록을 트리거하는 트리거 신호를 생성한다(S450). In the LKAS system, if the quality signal is higher than or equal to a preset level (eg, 'High Quality') ('Yes' in S420), the parameter (D) indicating the lateral distance between the vehicle and the lane included in the lane recognition information is It is determined whether or not a preset threshold value (thr) is exceeded ( S430 ). The LKAS system generates a trigger signal that triggers the recording of the EDR system when the parameter D exceeds a preset threshold ('Yes' in S430) (S450).

LKAS 시스템은, 품질 신호가 기설정된 레벨(예컨대, 'High Quality') 미만이면(S420의 'No'), 센서 퓨전, 즉, 상이한 센서들(GPS, 카메라 센서, 레이더 센서, 라이다 센서 등)로부터 획득된 데이터를 이용하여 차선 이탈 여부를 판단할 수 있다(S440). 예컨대, 차량의 위치 정보를 정밀 지도에 매핑하거나, 차량 SVM(surround view monitor)용 카메라 센서로부터 얻어진 데이터를 이용하거나, 레이더 센서 혹은 라이다 센서를 이용하여 인식된 다른 차량들의 위치를 기초로 가상의 차선을 결정하고, 가상의 차선을 기준을 차선 이탈 여부를 판단할 수도 있다. LKAS 시스템은, 센서 퓨전에 기초하여 차선 이탈이 검출되면(S440의 'Yes'), EDR 시스템의 기록을 트리거하는 트리거 신호를 생성한다(S450). LKAS system, if the quality signal is less than a preset level (eg, 'High Quality') ('No' in S420), sensor fusion, that is, different sensors (GPS, camera sensor, radar sensor, lidar sensor, etc.) It is possible to determine whether or not to deviate from the lane by using the data obtained from (S440). For example, mapping vehicle location information to a precision map, using data obtained from a vehicle SVM (surround view monitor) camera sensor, or using a radar sensor or lidar sensor It is also possible to determine a lane and determine whether to deviate from the lane based on the virtual lane. When a lane departure is detected based on the sensor fusion ('Yes' in S440), the LKAS system generates a trigger signal that triggers the recording of the EDR system (S450).

(2) 임박한 충돌예상시간(Time To Collision; TTC)(2) Time To Collision (TTC)

충돌예상시간(Time To Collision; TTC)은 전방 혹은 후방의 장애물(차량 혹은 보행자)과의 충돌가능성을 판단할 때 가장 널리 사용되는 메트릭 중 하나이다. TTC는 전방충돌방지보조(Forward Collision-Avoidance Assist; FCA) 시스템 뿐만 아니라, 차량 주변에 존재하는 장애물과의 충돌 위험도를 측정하기 위해서도 사용된다. 예를 들어, 근거리 컷인(Cut-in) 차량이 있을 경우, TTC는 자차가 가속 또는 감속 할지 판단하는 기준이 될 수 있다.Time to Collision (TTC) is one of the most widely used metrics when judging the possibility of collision with an obstacle (vehicle or pedestrian) in front or behind. TTC is used not only for the Forward Collision-Avoidance Assist (FCA) system, but also to measure the risk of collision with obstacles around the vehicle. For example, if there is a short-distance cut-in vehicle, the TTC may be a criterion for determining whether the host vehicle accelerates or decelerates.

TTC는 일반적으로 '상대거리/상대속도'로 정의되며, 충돌 위험을 보다 정확하게 측정할 수 있도록 차량의 가속도(acceleration)가 고려되기도 한다. 자율주행 시스템은 레이더 센서, 카메라 센서, 라이다 센서, 초음파 센서 혹은 이들의 데이터 퓨전을 통해 전방 장애물의 상대거리와 상대속도를 추정하여 TTC를 계산할 수 있다. 대안적으로, V2V통신을 통해 얻어지는 주변 차량의 위치 및 속도 등을 이용하여 보다 정확한 TTC 계산이 이루어질 수 있다. V2V 통신을 통해, 주변 차량의 조향각이나 브레이크 상태 값 등을 직접 획득한다면, 주변 차량의 움직임을 환경 센서보다 훨씬 앞서 예측이 가능할 것이다. 또한, V2V 통신을 이용하면 시야가 확보되지 않는 경우에도, 주변 정보 차량에 대한 정보를 획득 가능하다.TTC is generally defined as 'relative distance/relative speed', and the acceleration of the vehicle is also taken into account to more accurately measure the risk of a collision. The autonomous driving system can calculate the TTC by estimating the relative distance and relative speed of the obstacle ahead through the radar sensor, camera sensor, lidar sensor, ultrasonic sensor, or their data fusion. Alternatively, a more accurate TTC calculation may be made using the position and speed of the surrounding vehicle obtained through V2V communication. If the steering angle or brake state value of the surrounding vehicle is directly acquired through V2V communication, the motion of the surrounding vehicle will be able to be predicted much earlier than the environmental sensor. In addition, if the V2V communication is used, it is possible to obtain information about the surrounding information vehicle even when the field of view is not secured.

FCA 또는 이와 유사한 충돌 완화 시스템은 근본적으로 충돌에 대한 피해를 경감시키기 위한 목적을 가지고 있다. 즉, 충돌이 발생하더라도 사전제동에 의해 충돌에너지를 최대한 줄임으로써 피해를 경감시키는 것이 기본적 컨셉이다. 저속 주행의 경우에서는 충돌 직전에 긴급제동을 수행하여 사고발생 직전에 차량을 정차 시킬 수 있지만, 상대적으로 관성이 높게 작용하는 중속 이상에서는 FCA가 정상적으로 작동하더라도 충돌 자체를 피하기는 어려울 수 있다. 다만, 충돌이 발생하더라도 이미 충돌직전부터 긴급제동이 수행되기 때문에 실제 충돌상황에서는 상당부분의 속도에너지가 상쇄된 상태이므로 사고로 인한 피해는 그만큼 경감될 수 있는 것이다. FCA or similar collision mitigation systems are primarily aimed at mitigating damage from collisions. That is, even if a collision occurs, the basic concept is to reduce the damage by reducing the collision energy as much as possible through pre-braking. In the case of low-speed driving, emergency braking is performed just before the collision to stop the vehicle immediately before the accident occurs, but at medium speeds or higher, where the inertia is relatively high, it may be difficult to avoid the collision itself even if the FCA operates normally. However, even if a collision occurs, since the emergency braking is already performed immediately before the collision, a significant portion of the speed energy is offset in the actual collision situation, so the damage caused by the accident can be reduced by that much.

본 발명의 일 실시예에 따르면, TTC가 매우 짧거나 현재 속도 기준으로 긴급제동을 수행하여도 충돌을 피할 수 없다고 판단된 경우, 실제 충돌이 일어나기에 앞서, EDR 시스템의 기록이 트리거될 수 있다.According to an embodiment of the present invention, when it is determined that a collision cannot be avoided even if the TTC is very short or emergency braking is performed based on the current speed, the recording of the EDR system may be triggered before the actual collision occurs.

도 5는 본 발명의 일 실시예에 따른, TTC 기반으로 EDR 시스템을 트리거할 이벤트 발생을 판단하는 방법을 도시한 흐름도이다.5 is a flowchart illustrating a method of determining occurrence of an event to trigger an EDR system based on TTC, according to an embodiment of the present invention.

자율주행시스템의 서브 시스템(예컨대, FCA 또는 이와 유사한 충돌 완화 시스템)은 TTC를 산출하고(S510), 산출된 TTC가 극히 짧은지 여부를 판단할 수 있다(S520). 예컨대, 서브 시스템은 산출된 TTC가 기설정된 임계값(예컨대, 2sec)보다 짧은지 여부를 판단할 수 있다. A subsystem of the autonomous driving system (eg, FCA or similar collision mitigation system) may calculate a TTC ( S510 ) and determine whether the calculated TTC is extremely short ( S520 ). For example, the subsystem may determine whether the calculated TTC is shorter than a preset threshold (eg, 2sec).

서브 시스템은 산출된 TTC가 극히 짧다고 판단되면(즉, 산출된 TTC가 기설정된 임계값보다 짧으면; S520의 'Yes'), 즉시 EDR 시스템의 기록을 트리거하는 트리거 신호를 생성한다(S550). 동시에, 서브 시스템은 제동 시스템을 제어하여 긴급제동을 수행할 수 있다. When it is determined that the calculated TTC is extremely short (ie, if the calculated TTC is shorter than a preset threshold value; 'Yes' in S520), the subsystem immediately generates a trigger signal that triggers the recording of the EDR system (S550). At the same time, the subsystem may control the braking system to perform emergency braking.

산출된 TTC가 기설정된 임계값보다 짧지 않으면(S520의 'No'), 서브 시스템은 차량의 현재 속도 기준으로 제동을 수행하여 충돌을 피할 수 없는지 여부를 판단한다(S530). 예컨대, 서브 시스템은 충돌을 피하기 위해 필요한 감속도가 차량의 사전에 결정된 최대 감속도(한계 감속도)를 초과하는 경우에 충돌을 피할 수 없다고 판단할 수도 있다. 혹은, 서브 시스템은 차량의 현재 속도가 임계속도를 초과한다고 판단되면, 충돌을 피할 수 없다고 판단할 수 있다. 서브 시스템은 차량의 현재 속도 기준으로 제동을 수행하여 충돌을 피할 수 없다고 판단되면(S530의 'Yes'), EDR 시스템의 기록을 트리거하는 트리거 신호를 생성한다(S550).If the calculated TTC is not shorter than the preset threshold value ('No' in S520), the subsystem determines whether a collision is unavoidable by performing braking based on the current speed of the vehicle (S530). For example, the subsystem may determine that the collision cannot be avoided if the deceleration required to avoid the collision exceeds a predetermined maximum deceleration (limit deceleration) of the vehicle. Alternatively, when it is determined that the current speed of the vehicle exceeds the threshold speed, the subsystem may determine that a collision cannot be avoided. When it is determined that a collision cannot be avoided by performing braking based on the current speed of the vehicle ('Yes' in S530), the subsystem generates a trigger signal for triggering recording of the EDR system (S550).

충돌을 피하기 위해 필요한 감속도가 차량의 사전에 결정된 최대 감속도(한계 감속도)를 초과하지 않으면(S530의 'No'), 서브 시스템은, 다음 TTC가 결정되기 전까지, 필요 감속도와 (제동 등에 변경된 차량의 속도에 대응하는) 차량의 한계 감속도 간의 비교를 반복적으로 수행할 수 있다(S540). If the deceleration required to avoid a collision does not exceed the vehicle's predetermined maximum deceleration (limit deceleration) ('No' in S530), the subsystem, until the next TTC is determined, A comparison between the limit decelerations of the vehicle (corresponding to the changed vehicle speed) may be repeatedly performed ( S540 ).

(3) 긴급 기동(Emergency Maneuver; EM)이 구동된 상황(3) Emergency Maneuver (EM) is driven

긴급 기동(Emergency Manoeuver; EM)은, 충돌을 피하거나 경감할 목적으로, 차량이 다른 물체와 충돌할 위험이 있는 갑작스런 예기치않은 이벤트의 경우에 자율주행 시스템에 의해 수행되는 기동이다.Emergency Manoeuvr (EM) is a maneuver performed by an autonomous driving system in the event of a sudden and unexpected event in which a vehicle is in danger of colliding with another object, with the aim of avoiding or mitigating a collision.

자율주행 시스템은 갑작스러운 예기치않은 이벤트로 인해, 예컨대, 차량의 전방 또는 측면의 도로 사용자와 차량이 충돌할 임박한 위험에 처해 있는지 여부를 감지할 수 있다. 운전자에게 컨트롤을 안전하게 다시 전환하기에 시간이 너무 짧은 경우에는, 긴급 기동(EM)이 자동으로 시작된다. 임박한 충돌을 피하거나 완화하기 위해, 긴급 기동(EM)은, 차량의 최대 제동 성능까지 보호 감속을 수행하거나 자동 회피 기동을 수행할 수 있다. 자율주행 시스템은, 긴급 기동(EM)이 시작되면, EDR 시스템의 기록을 트리거하는 트리거 신호를 생성할 수 있다. The autonomous driving system can detect whether a vehicle is in imminent danger of a collision, eg, with a road user in front or on the side of the vehicle, due to a sudden and unexpected event. If the time is too short for the driver to safely switch back control, Emergency Maneuvering (EM) is automatically initiated. To avoid or mitigate an impending collision, Emergency Maneuvering (EM) may perform protective deceleration up to the vehicle's maximum braking performance or perform automatic avoidance maneuvers. The autonomous driving system may generate a trigger signal that triggers the recording of the EDR system when an emergency maneuver (EM) is initiated.

도 6a 내지 도 6d는 자율주행 시스템에서 긴급 기동(EM)이 발생하는 몇몇 예시적인 시나리오들이 예시된다. 6A-6D illustrate some example scenarios in which emergency maneuver (EM) occurs in an autonomous driving system.

- 차간거리유지 제어불가(종방향 제어 불가; 도 6a 참조): 차로유지 및 차간거리유지 제어 중에 충돌위험이 예상되는 경우에는 전방충돌방지보조(Forward Collision-Avoidance Assist; FCA) 시스템의 긴급제동 기능이 작동할 수 있다. 그러나, 선행차량이 급제동 혹은 추돌로 인하여 긴급하게 정지하여 자차와 선행차량의 충돌위험이 예상되는 경우, FCA 시스템의 긴급제동보다 짧은 시간에 차량의 최대 제동 성능까지 긴급제동이 수행될 수 있다. - Impossible to control inter-vehicle distance maintenance (no longitudinal control; see Fig. 6a): Emergency braking function of the Forward Collision-Avoidance Assist (FCA) system when the risk of collision is expected during lane keeping and inter-vehicle distance maintenance control This can work. However, when the risk of collision between the own vehicle and the preceding vehicle is expected because the preceding vehicle is suddenly stopped due to sudden braking or collision, emergency braking can be performed up to the maximum braking performance of the vehicle in a shorter time than emergency braking of the FCA system.

- 차로유지 제어불가(횡방향 제어 불가; 도 6b 참조): 전동식 파워 스티어링(Motor-Driven Power Steering; MDPS) 결함 등으로 인해, 현재 주행차로를 이탈하여 주변차로에 위치한 차량과 충돌할 것으로 예상되는 경우, 긴급제동이 수행될 수 있다.- Unable to control lane keeping (lateral control impossible; see Fig. 6b): Due to a defect in Motor-Driven Power Steering (MDPS), etc., it is expected that the vehicle will deviate from the current driving lane and collide with a vehicle located in the neighboring lane. In this case, emergency braking may be performed.

- 주행 중 엔진 꺼짐(종방향, 횡방향 제어 불가; 도 6c 참조): 차로유지 및 차간거리유지 제어 중에 엔진이 꺼지는 경우, 즉시 긴급제동이 수행될 수 있다.- Engine off while driving (longitudinal and lateral direction control impossible; see FIG. 6c): When the engine is turned off during lane maintenance and inter-vehicle distance maintenance control, emergency braking may be performed immediately.

- 전방 장애물 회피 후 위험 상황(도 6d 참조): 전방 장애물에 대한 회피 기동 후에 차량의 거동에 이상이 발생한 경우(예컨대, 차선을 이탈하거나 주행 차로로 복귀하는 것이 불가능한 경우), 즉시 긴급제동이 수행될 수 있다.- Dangerous situation after avoidance of a forward obstacle (refer to Fig. 6d): When an abnormality occurs in the vehicle's behavior after avoidance maneuvering for an obstacle in front (eg, when it is impossible to deviate from the lane or return to the driving lane), emergency braking is performed immediately can be

(4) MRM(Minimum Risk Maneuver)이 구동된 상황(4) MRM (Minimum Risk Maneuver) is running

자율주행 센서의 결함 등 자율주행차량에 장애가 발생하거나 침입탐지 시스템(Intrusion Detection System; IDS)이 차량 내부 네트워크로의 침입을 탐지하거나 혹은 다른 원인으로 운전자의 수동 제어가 필요한 경우에, 자율 주행 시스템은 운전자에게 제어권 전환을 요구할 수 있다.When an autonomous vehicle malfunctions, such as a defect in an autonomous driving sensor, an intrusion detection system (IDS) detects an intrusion into the vehicle's internal network, or the driver's manual control is required for other reasons, the autonomous driving system You can ask the driver to transfer control.

최소 위험 기동(Minimal Risk Manoeuver; MRM)은, 예컨대 운전자가 제어권 전환 요구(transition demand)에 응답하지 않는 경우, 주율주행 시스템에 의해 자동으로 수행되는 교통 위험을 최소화하는 것을 목적으로 하는 절차를 의미한다.Minimal Risk Manoeuvr (MRM) means a procedure aimed at minimizing the traffic risk performed automatically by the autonomous driving system, for example when the driver does not respond to a transition demand .

주율주행 시스템은 전환 요구를 발행한 후 운전자가 수동 제어를 재개했는지 여부를 감지할 수 있다. 운전자가 일정 시간 내에 수동 제어를 재개하지 않은 경우, MRM이 즉시 개시될 수 있다. 운전자가 차량의 수동 제어를 인계 받았다는 것을 차량이 감지하면 MRM은 종료될 수 있다. MRM은 다음 조치 중 하나 이상을 자동으로 수행할 수 있다: (a) 4 m/s²이하의 감속도로, 차선 내에서 차량을 감속시키는 것; (b) 고속 차선 이외의 다른 차선(예컨대, 저속 차선, 비상 차선 또는 노변)에 차량을 정지시키는 것.The autonomous driving system may detect whether the driver has resumed manual control after issuing a switch request. If the driver does not resume manual control within a certain period of time, MRM can be initiated immediately. MRM can be terminated when the vehicle detects that the driver has taken over manual control of the vehicle. MRM may automatically perform one or more of the following actions: (a) slowing the vehicle within its lane, with a deceleration of 4 m/s² or less; (b) Stopping the vehicle in a lane other than the high-speed lane (eg, the low-speed lane, emergency lane, or roadside).

MRM의 개시는 EDR 시스템의 기록을 트리거할 수 있다. MRM 제어는 원인이 된 케이스에 따라 다양한 방식으로 운용될 수 있으며, 때로는 이벤트 지속시간(event duration)이 긴 상황도 발생할 수 있다. MRM의 개시의 원인에 따라, EDR 시스템의 기록 방식도 상이할 수 있다.Initiation of MRM may trigger recording of the EDR system. MRM control may be operated in various ways depending on the cause case, and sometimes a situation with a long event duration may occur. Depending on the cause of the initiation of MRM, the recording method of the EDR system may also be different.

일부 실시예에서, 운전자가 제어권 전환 요구(transition demand)에 응답하지 않아 MRM이 개시된 경우에, EDR 시스템은 자율주행 시스템의 인식-판단-제어 과정에 관한 정보를 MRM이 수행되는 동안 지속적으로 저장할 수 있다.In some embodiments, when MRM is initiated because the driver does not respond to a transition demand, the EDR system may continuously store information about the awareness-judgment-control process of the autonomous driving system while the MRM is performed. have.

일부 실시예에서, 자율주행 센서의 고장(fault)으로 인한 MRM이 개시된 경우에, 고장난 센서의 식별자(ID)와 고장 시점을 저장하는 한편, 사용자가 운전 제어권을 받을 때까지 EDR 시스템의 기록(recording)을 구동할 수 있다.In some embodiments, when MRM is initiated due to a fault of the autonomous driving sensor, the identifier (ID) of the faulty sensor and the time of failure are stored, while recording of the EDR system until the user receives driving control. ) can be driven.

일부 실시예에서, MRM이 개시된 순간부터 EDR 시스템의 기록을 트리거하는 이벤트의 발생을 판정하기 위한 결정 기준 혹은 트리거 조건의 임계값(Threshold)를 낮추어, 이벤트에 대한 민감도를 높일 수 있다. 예컨대, MRM 개시 전에는 150 ms 내에 8km/h 이상의 속도 변화를 보이는 급격한 가감속을 검출하면 EDR 시스템의 기록을 트리거하되, MRM이 수행되는 동안에는 150 ms 내에 4km/h 이상의 속도 변화를 보이는 가감속을 검출하면 EDR 시스템의 기록을 트리거할 수 있다.In some embodiments, from the moment when MRM is initiated, a threshold value of a determination criterion or trigger condition for determining the occurrence of an event triggering recording of the EDR system may be lowered, thereby increasing the sensitivity to the event. For example, if a sudden acceleration/deceleration showing a speed change of 8 km/h or more is detected within 150 ms before MRM starts, the recording of the EDR system is triggered, but during MRM, acceleration/deceleration showing a speed change of 4 km/h or more is detected within 150 ms. This can trigger a recording in the EDR system.

도 7은 본 발명의 일 실시예에 따른, MRM의 개시에 따라 EDR 시스템의 기록을 트리거하는 방법을 도시한 흐름도이다. 7 is a flowchart illustrating a method of triggering recording of an EDR system according to initiation of MRM, according to an embodiment of the present invention.

MRM 개시의 원인이 되는 상황의 발생이 검출되면(S710), 주율주행 시스템은 MRM 개시의 원인이 되는 상황 등을 기초로 MRM 제어의 지속시간(duration)을 추정할 수 있다(S720). 추정된 지속시간이 기설정된 임계값보다 짧으면(S710의 'short'), 주율주행 시스템은 즉시 EDR 시스템의 기록을 트리거할 수 있다(S750). When the occurrence of a situation causing MRM initiation is detected (S710), the autonomous driving system may estimate the duration of MRM control based on the situation causing MRM initiation (S720). If the estimated duration is shorter than the preset threshold ('short' in S710), the driving system may immediately trigger the recording of the EDR system (S750).

추정된 지속시간이 기설정된 임계값보다 길면(S710의 'long'), 주율주행 시스템은 EDR 시스템의 기록을 트리거하는 이벤트의 발생을 판정하기 위한 결정 기준 혹은 트리거 조건의 임계값(Threshold)를 낮출 수 있다(S730). 이후, 주율주행 시스템은 완화된 결정 기준 혹은 트리거 조건의 임계값(Threshold)를 적용하여, EDR 시스템의 기록을 트리거하는 이벤트의 발생을 모니터링할 수 있다(S740). 주율주행 시스템은 완화된 결정 기준을 만족하는 이벤트의 발생이 검출되면(S740의 'Yes'), EDR 시스템의 기록을 트리거할 수 있다(S750).If the estimated duration is longer than the preset threshold ('long' in S710), the driving system lowers the threshold of the decision criterion or trigger condition for determining the occurrence of an event triggering the recording of the EDR system. It can be (S730). Thereafter, the autonomous driving system may monitor the occurrence of an event triggering the recording of the EDR system by applying the relaxed determination criterion or threshold of the trigger condition ( S740 ). When the occurrence of an event satisfying the relaxed determination criterion is detected ('Yes' in S740), the driving system may trigger recording of the EDR system (S750).

한편, EDR 시스템의 기록을 트리거하는 다양한 트리거 신호를 사용하는 경우에, 어느 한 트리거 신호에 따른 EDR 시스템의 데이터 기록이 종료되기 전에 새로운 트리거 신호가 발생할 수 있다. 이와 같이 복수의 트리거 신호가 연속적으로 발생하는 경우에, EDR 시스템은 데이터 기록 시간을 연장하는 한편 발생한 이벤트(혹은 트리거 신호)의 종류 및 그 이벤트의 발생 시간을 저장할 수 있다. 트리거 신호는 이벤트의 종류를 고유하게 식별하는 식별자를 포함할 수 있다. 이때, 연장된 시간구간 동안에 기록되는 데이터 항목들은 최초의 트리거 신호에 대응하는 시간구간에 기록되는 데이터 항목들과 동일하거나 더 적을 수 있다. On the other hand, when using various trigger signals for triggering recording of the EDR system, a new trigger signal may be generated before data recording of the EDR system according to any one trigger signal is terminated. In this way, when a plurality of trigger signals are continuously generated, the EDR system can extend the data recording time and store the type of the event (or trigger signal) that has occurred and the time of occurrence of the event. The trigger signal may include an identifier that uniquely identifies the type of event. In this case, the data items recorded during the extended time period may be the same as or less than the data items recorded in the time period corresponding to the initial trigger signal.

(5) 차량 네트워크에 대한 보안 위협이 감지된 경우(5) When a security threat to the vehicle network is detected

차량에는 차량 내부 네트워크에 대한 보안 위협을 탐지하고 대응하도록 구성된 침입탐지 시스템(Intrusion Detection System; IDS)이 포함되어 있을 수 있다. 침입탐지 시스템은 차량내 네트워크로의 침입을 탐지한 경우에, EDR 시스템의 기록을 트리거하는 트리거 신호를 생성할 수 있다.The vehicle may include an Intrusion Detection System (IDS) configured to detect and respond to security threats to the vehicle's internal network. When the intrusion detection system detects an intrusion into the in-vehicle network, the intrusion detection system may generate a trigger signal that triggers the recording of the EDR system.

이와 같이 EDR 시스템이 다양한 트리거 신호들을 수신하도록 구성될 때, EDR 시스템은 적어도 일부 트리거 신호에 대해 기록할 데이터 항목들 및/또는 기록 기간들을 상이하게 적용할 수 있다.As such, when the EDR system is configured to receive various trigger signals, the EDR system may apply data items to be recorded and/or recording periods differently to at least some trigger signals.

자율주행차량에 적합한 EDR 데이터 항목EDR data items suitable for autonomous vehicles

자율주행차량은 차량 내/외부로부터 수집된 정보를 기초로, 자율주행 시스템이 환경을 인식하고, 상황별 행동을 판단(결정)하고, 액츄에이터 등을 제어하는 방식으로 동작하므로, 인식-판단-제어 과정에서 오류가 발생하면 사고로 연결될 수 있다. 따라서, 자율주행차량의 사고원인을 적절히 규명하기 위해서는 자율주행차량의 인식-판단-제어 과정에 관한 정보를 기록하고 보관하는 것이 바람직하다.The self-driving vehicle operates in such a way that the autonomous driving system recognizes the environment, determines (determines) actions in each situation, and controls the actuators based on information collected from inside and outside the vehicle, so recognition-judgment-control If an error occurs in the process, it can lead to an accident. Therefore, in order to properly identify the cause of an accident of an autonomous vehicle, it is desirable to record and store information on the recognition-judgment-control process of the autonomous vehicle.

본 발명은 자율주행차량에서 발생한 이벤트의 원인을 규명하기에 적합한 EDR 데이터 항목들을 제안한다. 특히, 이들 데이터 항목들은 이벤트 발생 당시의 자율주행차량을 둘러싼 (도 8과 같은) 외부 환경 맵을 재구성하고, 차량의 내부 환경을 재구성하는 데에 유용할 수 있다. The present invention proposes EDR data items suitable for identifying the cause of an event occurring in an autonomous vehicle. In particular, these data items may be useful for reconstructing an external environment map (as shown in FIG. 8 ) surrounding the autonomous vehicle at the time of occurrence of the event and reconstructing the internal environment of the vehicle.

본 발명의 일 실시예에 따른 EDR 데이터는 소프트웨어 버전, 자율주행 데이터, 차량 내/외부의 카메라 이미지, 탑승자 인지 데이터, V2X 메시지 등을 포함할 수 있다. EDR data according to an embodiment of the present invention may include software version, autonomous driving data, camera images inside/outside the vehicle, occupant recognition data, V2X message, and the like.

소프트웨어 버전은 차량에 탑재된 각 전자제어유닛(ECU)들의 소프트웨어 버전을 나타낸다. 탑승자 인지 데이터는 운전자의 상태(예컨대, 주의분산, 졸음, 무반응 상태), 동승자 존부 등을 나타낼 수 있다. 또한, EDR 데이터에는 V2X 통신을 통해 인프라 및 주변 차량과 주고받은 최근 V2X 메시지들에 관한 정보가 포함될 수 있다. The software version indicates the software version of each electronic control unit (ECU) mounted on the vehicle. The occupant recognition data may indicate the driver's state (eg, distraction, drowsiness, non-responsive state), the presence or absence of a passenger, and the like. In addition, the EDR data may include information about recent V2X messages exchanged with the infrastructure and surrounding vehicles through V2X communication.

도 9에 예시된 바와 같이, 자율주행 데이터는 <인지 데이터>, <판단 데이터>, 및 <제어 데이터>를 포함한다.As illustrated in FIG. 9 , the autonomous driving data includes <cognition data>, <judgment data>, and <control data>.

자율주행 데이터의 <인지 데이터>는 다음과 같은 정보를 포함할 수 있다.<cognitive data> of autonomous driving data may include the following information.

- 탐지한 장애물 분류: 차량운행시 사고를 유발할 수 있는 인지된 동적 장애물 정보(예컨대, 보행자, 자전거, 이륜차, 승용차, 버스 등과 같은 객체의 클래스)를 포함한다.- Detected obstacle classification : Includes information on recognized dynamic obstacles that can cause accidents during vehicle operation (eg, classes of objects such as pedestrians, bicycles, two-wheeled vehicles, passenger cars, and buses).

- 차선 인지 정보: 컴퓨터 비전 시스템에서 출력된 차선 지오메트리 매개변수들(curvature, curvature rate, heading angle, lateral offset) 및 차선 지오메트리 측정의 신뢰도를 나타내는 품질 지시자(quality indicator)를 포함한다. - Lane recognition information : Includes lane geometry parameters (curvature, curvature rate, heading angle, lateral offset) output from the computer vision system and a quality indicator indicating reliability of lane geometry measurement.

- 차량의 위치 정보 및 사용된 측위 기술: 사용된 측위 기술에 관한 정보는, 예컨대 GPS, V2X, 정밀지도 사용 여부, 사용된 정밀지도의 버전 등의 정보를 포함한다. - Vehicle location information and positioning technology used: Information on the positioning technology used includes, for example, whether GPS, V2X, precision map use, and the version of the precision map used.

- 인지된 충돌예상시간(Time To Collision; TTC)- Estimated perceived collision time (Time To Collision; TTC)

자율주행 데이터의 <판단 데이터>는 다음과 같은 정보를 포함할 수 있다.The <judgment data> of the autonomous driving data may include the following information.

- 자율주행 기능들(LKA, FCA 등)의 활성화 여부 - Whether autonomous driving functions (LKA, FCA, etc.) are activated

- 주변 인지 후 분석된 객체 데이터: 인지된 객체들의 클래스, x,y 좌표/크기/상대속도 (sensor fusion 이용), 자차 이동 속력 및 방향 등을 포함한다. 이들 데이터는 이벤트 발생 당시의 자율주행차량을 둘러싼 외부 환경 맵을 재구성하는 데에 유용할 수 있다. - Object data analyzed after recognition of the surroundings: Includes class of recognized objects, x,y coordinates/size/relative speed (using sensor fusion), moving speed and direction of own vehicle. These data can be useful for reconstructing a map of the external environment surrounding the autonomous vehicle at the time of the event.

- 판단된 주행 상황의 행동 시나리오 (횡방향, 종방향 시나리오): 예컨대, 차로유지, 차로변경, 좌/우회전, 유턴, 비상정지, 갓길정차, 주차, 근접차량 컷인(Cut-in), 전방차량 컷아웃(Cut-out) 등- Behavioral scenario of the determined driving situation (lateral direction, longitudinal scenario): e.g., lane maintenance, lane change, left/right turn, U-turn, emergency stop, shoulder stop, parking, close vehicle cut-in, front vehicle Cut-out, etc.

자율주행 데이터의 <제어 데이터>는 다음과 같은 정보를 포함할 수 있다.The <control data> of the autonomous driving data may include the following information.

- 운전자 제어 정보: 스티어링 휠 토크, 가/감속 페달 등의 액츄에이터 제어 정보 - Driver control information : Actuator control information such as steering wheel torque and acceleration/deceleration pedal

- 자율주행 제어 정보: 스티어링 휠 토크, 가/감속 페달 등의 액츄에이터 제어 정보 - Autonomous driving control information : actuator control information such as steering wheel torque and acceleration/deceleration pedal

전술한 예시적인 실시예는 많은 다른 방식으로 구현될 수 있다는 것을 이해해야 한다. 일부 예들에서, 본 개시에서 설명된 다양한 방법들, 장치들, 시스템들, 서브시스템들은 프로세서, 메모리, 디스크 또는 다른 대용량 스토리지, 통신 인터페이스, 입/출력(I/O) 디바이스들 및 기타 주변 장치들을 가지는 범용 컴퓨터에 의해 구현될 수도 있다. 범용 컴퓨터는 소프트웨어 명령어들을 프로세서에 로딩한 다음, 본 개시에 설명된 기능을 수행하기 위해 명령들을 실행함으로써 상술한 방법을 실행하는 장치로 기능할 수 있다. It should be understood that the above-described exemplary embodiments may be implemented in many different ways. In some examples, the various methods, apparatuses, systems, and subsystems described in this disclosure may include a processor, memory, disk or other mass storage, communication interface, input/output (I/O) devices, and other peripherals. The branch may be implemented by a general purpose computer. A general purpose computer can function as an apparatus for executing the method described above by loading software instructions into a processor and then executing the instructions to perform the functions described in this disclosure.

본 명세서에서 설명된 기능적 컴포넌트들은 그들의 구현 독립성을 특히 더 강조하기 위해 ...부(unit) 혹은 모듈로 라벨링되었음을 이해해야 한다. 예를 들어, 모듈은 커스텀 VLSI(very-large-scale integration) 회로 또는 게이트 어레이, 논리 칩, 트랜지스터와 같은 반도체를 포함하는 하드웨어 회로로서 구현될 수 있다. 모듈은 또한 필드 프로그래머블 게이트 어레이(field programmable gate array: FPGA), 프로그래머블 어레이 로직, 프로그래머블 로직 디바이스들 등과 같은 프로그래머블 하드웨어 디바이스로 구현될 수 있다.It should be understood that the functional components described herein are labeled as ... units or modules to particularly further emphasize their implementation independence. For example, a module may be implemented as a custom very-large-scale integration (VLSI) circuit or hardware circuit including semiconductors such as gate arrays, logic chips, and transistors. A module may also be implemented as a programmable hardware device, such as a field programmable gate array (FPGA), programmable array logic, programmable logic devices, and the like.

한편, 본 개시에서 설명된 다양한 방법들은 하나 이상의 프로세서에 의해 판독되고 실행될 수 있는 비일시적 기록매체에 저장된 명령어들로 구현될 수도 있다. 비일시적 기록매체는, 예를 들어, 컴퓨터 시스템에 의하여 판독가능한 형태로 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 예를 들어, 비일시적 기록매체는 EPROM(erasable programmable read only memory), 플래시 드라이브, 광학 드라이브, 자기 하드 드라이브, 솔리드 스테이트 드라이브(SSD)와 같은 저장매체를 포함한다. Meanwhile, various methods described in the present disclosure may be implemented with instructions stored in a non-transitory recording medium that can be read and executed by one or more processors. The non-transitory recording medium includes, for example, any type of recording device in which data is stored in a form readable by a computer system. For example, the non-transitory recording medium includes a storage medium such as an erasable programmable read only memory (EPROM), a flash drive, an optical drive, a magnetic hard drive, and a solid state drive (SSD).

이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present embodiment, and those of ordinary skill in the technical field to which the present embodiment pertains will be able to make various modifications and variations without departing from the essential characteristics of the present embodiment. Accordingly, the present embodiments are not intended to limit the technical idea of the present embodiment, but to explain the technical idea, and the scope of the technical idea of the present embodiment is not limited by these embodiments. The scope of protection of this embodiment should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present embodiment.

Claims (18)

자율주행모드로 완전히 혹은 부분적으로 동작하는 차량이 이벤트 데이터를 수집 및 기록하는 방법에 있어서,
자율주행시스템의 서브시스템들로부터 미리 정의된 복수의 이벤트들 중 하나의 발생을 지시하는 트리거 신호를 수신하는 단계;
상기 이벤트 발생 전후의 상기 자율주행시스템의 인식-판단-제어 과정에 관련된 데이터를 적어도 포함하는 이벤트 데이터를 수집하는 단계; 및
상기 이벤트 데이터를 내부 저장소에 기록하고, 상기 차량과 통신가능하게 연결된 원격 서버에 상기 이벤트 데이터를 업로드하는 단계
를 포함하는, 방법.
A method for collecting and recording event data by a vehicle operating fully or partially in an autonomous driving mode, the method comprising:
receiving a trigger signal indicating occurrence of one of a plurality of predefined events from subsystems of the autonomous driving system;
collecting event data including at least data related to a recognition-judgment-control process of the autonomous driving system before and after the occurrence of the event; and
recording the event data in an internal storage and uploading the event data to a remote server communicatively connected to the vehicle
Including, the method.
제1항에 있어서,
상기 이벤트 데이터는,
상기 차량 내/외부의 카메라 이미지, 상기 차량의 탑승자 인지 데이터, 상기 차량에 탑재된 ECU들의 소프트웨어 버전 정보, 및 최근 사용된 V2X 메시지 관련 정보 중 적어도 하나를 더 포함하는 것을 특징으로 하는, 방법.
The method of claim 1,
The event data is
The method further comprising at least one of a camera image inside/outside the vehicle, occupant recognition data of the vehicle, software version information of ECUs mounted in the vehicle, and recently used V2X message related information.
제1항에 있어서,
상기 이벤트 데이터는,
상기 이벤트의 발생 전후의 차량을 둘러싼 외부 환경 맵을 재구성하는 데에 적합한 객체 인식 정보를 더 포함하는 것을 특징으로 하는, 방법.
The method of claim 1,
The event data is
and object recognition information suitable for reconstructing an external environment map surrounding the vehicle before and after the occurrence of the event.
제1항에 있어서,
상기 이벤트 데이터를 구성하는 데이터 항목 또는 기록 기간은 상기 복수의 이벤트들의 적어도 일부에 대해 상이한 것을 특징으로 하는, 방법.
The method of claim 1,
and a data item or recording period constituting the event data is different for at least some of the plurality of events.
제1항에 있어서,
상기 이벤트 데이터는,
관련된 이벤트 또는 트리거 조건을 나타내는 정보와 함께 기록되고 업로드되는 것을 특징으로 하는, 방법.
The method of claim 1,
The event data is
A method, characterized in that it is recorded and uploaded together with information indicative of the relevant event or trigger condition.
제1항에 있어서,
상기 트리거 신호를 수신하는 단계는,
차선 인지 정보에 적어도 부분적으로 기초하여 자율주행 기능을 수행하는 서브시스템으로부터, 상기 차량이 차선을 이탈하였음을 지시하는 트리거 신호를 수신하는 단계를 포함하는 것을 특징으로 하는, 방법.
The method of claim 1,
Receiving the trigger signal comprises:
and receiving, from a subsystem that performs an autonomous driving function based at least in part on lane recognition information, a trigger signal indicating that the vehicle has departed from a lane.
제1항에 있어서,
상기 트리거 신호를 수신하는 단계는,
충돌예상시간(Time To Collision: TCC)에 적어도 부분적으로 기초하여 자율주행 기능을 수행하는 서브시스템으로부터, 상기 차량의 현재 속도 기준으로 제동을 통해 충돌을 피할 수 없음을 지시하는 트리거 신호를 수신하는 단계를 포함하는 것을 특징으로 하는, 방법.
The method of claim 1,
Receiving the trigger signal comprises:
Receiving a trigger signal indicating that a collision cannot be avoided through braking based on the current speed of the vehicle from a subsystem that performs an autonomous driving function based at least in part on a Time To Collision (TCC) A method comprising:
제1항에 있어서,
상기 트리거 신호를 수신하는 단계는,
상기 자율주행시스템의 서브시스템으로부터 긴급 기동(Emergency Maneuver; EM) 또는 최소 위험 기동(Minimal Risk Maneuver; MRM)이 개시되었음을 지시하는 트리거 신호를 수신하는 단계를 포함하는 것을 특징으로 하는, 방법.
The method of claim 1,
Receiving the trigger signal comprises:
and receiving a trigger signal indicating that Emergency Maneuver (EM) or Minimal Risk Maneuver (MRM) has been initiated from a subsystem of the autonomous driving system.
제1항에 있어서,
상기 트리거 신호를 수신하는 단계는,
상기 자율주행시스템의 서브시스템으로부터 차량 내부 네트워크로의 침입을 탐지하였음을 지시하는 트리거 신호를 수신하는 단계를 포함하는 것을 특징으로 하는, 방법.
The method of claim 1,
Receiving the trigger signal comprises:
and receiving, from a subsystem of the autonomous driving system, a trigger signal indicating that an intrusion into the in-vehicle network has been detected.
제1항에 있어서,
상기 이벤트 데이터의 기록 기간의 종료 이전에 새로운 이벤트의 발생을 지시하는 새로운 트리거 신호가 수신되는 경우에, 상기 기록 기간을 연장하는 한편 발생한 이벤트의 종류 및 그 발생 시간을 추가로 기록하는 단계를 더 포함하는 것을 특징으로 하는, 방법.
The method of claim 1,
When a new trigger signal instructing occurrence of a new event is received before the end of the recording period of the event data, extending the recording period and additionally recording the type of the event and the occurrence time thereof A method, characterized in that
차량 시스템으로서,
차량을 자율주행모드로 완전히 혹은 부분적으로 동작하도록 제어하는 자율주행시스템;
상기 차량과 외부 시스템간의 통신을 가능하게 하는 무선통신 시스템; 및
이벤트 데이터를 수집 및 관리하는 EDR 시스템
을 포함하고,
상기 EDR 시스템은,
(1) 상기 자율주행시스템의 서브시스템들로부터 미리 정의된 복수의 이벤트들 중 하나의 발생을 지시하는 트리거 신호를 수신하고, (2) 상기 이벤트 발생 전후의 상기 자율주행시스템의 인식-판단-제어 과정에 관련된 데이터를 적어도 포함하는 이벤트 데이터를 수집하고, (3) 상기 이벤트 데이터를 내부 저장소에 기록하고, 상기 무선통신 시스템을 통해 원격 서버에 상기 이벤트 데이터를 업로드하도록 구성된 것을 특징으로 하는, 차량 시스템.
A vehicle system comprising:
an autonomous driving system that controls the vehicle to fully or partially operate in an autonomous driving mode;
a wireless communication system that enables communication between the vehicle and an external system; and
EDR system that collects and manages event data
Including,
The EDR system,
(1) receiving a trigger signal instructing occurrence of one of a plurality of predefined events from subsystems of the autonomous driving system, and (2) recognition-judgment-control of the autonomous driving system before and after the occurrence of the event and collecting event data comprising at least data related to the process, (3) recording the event data in an internal storage, and uploading the event data to a remote server via the wireless communication system. .
제11항에 있어서,
상기 이벤트 데이터는,
관련된 이벤트 또는 트리거 조건을 나타내는 정보와 함께 기록되고 전송되는 것을 특징으로 하는, 방법.
The method of claim 11,
The event data is
A method, characterized in that it is recorded and transmitted together with information indicative of a relevant event or trigger condition.
제11항에 있어서,
상기 트리거 신호는,
차선 인지 정보에 적어도 부분적으로 기초하여 자율주행 기능을 수행하는 서브시스템으로부터 수신되는, 상기 차량이 차선을 이탈하였음을 지시하는 트리거 신호를 포함하는 것을 특징으로 하는, 차량 시스템.
The method of claim 11,
The trigger signal is
and a trigger signal indicating that the vehicle has departed from a lane, received from a subsystem that performs an autonomous driving function based at least in part on lane recognition information.
제11항에 있어서,
상기 트리거 신호는,
충돌예상시간(Time To Collision: TCC)에 적어도 부분적으로 기초하여 자율주행 기능을 수행하는 서브시스템으로부터 수신되는, 상기 차량의 현재 속도 기준으로 제동을 통해 충돌을 피할 수 없음을 지시하는 트리거 신호를 포함하는 것을 특징으로 하는, 차량 시스템.
The method of claim 11,
The trigger signal is
and a trigger signal indicating that a collision cannot be avoided through braking based on the current speed of the vehicle, received from a subsystem performing an autonomous driving function based at least in part on a Time To Collision (TCC). A vehicle system, characterized in that
제11항에 있어서,
상기 트리거 신호는,
상기 자율주행시스템의 서브시스템으로부터 긴급 기동(Emergency Maneuver; EM) 또는 최소 위험 기동(Minimal Risk Maneuver; MRM)이 개시되었음을 지시하는 트리거 신호를 포함하는 것을 특징으로 하는, 차량 시스템.
The method of claim 11,
The trigger signal is
and a trigger signal indicating that Emergency Maneuver (EM) or Minimal Risk Maneuver (MRM) has been initiated from the subsystem of the autonomous driving system.
제11항에 있어서,
상기 트리거 신호는,
상기 자율주행시스템의 서브시스템으로부터 차량 내부 네트워크로의 침입을 탐지하였음을 지시하는 트리거 신호를 포함하는 것을 특징으로 하는, 차량 시스템.
The method of claim 11,
The trigger signal is
and a trigger signal indicating that an intrusion into the vehicle internal network has been detected from the subsystem of the autonomous driving system.
제11항에 있어서,
상기 EDR 시스템은,
상기 이벤트 데이터의 기록 기간의 종료 이전에 새로운 이벤트의 발생을 지시하는 새로운 트리거 신호가 수신되는 경우에, 상기 기록 기간을 연장하는 한편 발생한 이벤트의 종류 및 그 발생 시간을 추가로 기록하는 단계를 더 포함하는 것을 특징으로 하는, 차량 시스템.
The method of claim 11,
The EDR system,
When a new trigger signal instructing occurrence of a new event is received before the end of the recording period of the event data, extending the recording period and additionally recording the type of the event and the occurrence time thereof A vehicle system, characterized in that
제11항에 있어서,
상기 EDR 시스템은,
상기 자율주행시스템의 메인 제어기 혹은 에어백 제어기(Airbag Control Unit; ACU) 내에 기능 모듈로서 내장되거나, 별개의 전자제어유닛(Electronic Control Unit)로서 차량 내부 네트워크에 연결된 것을 특징으로 하는, 차량 시스템.
The method of claim 11,
The EDR system,
A vehicle system, characterized in that it is embedded as a function module in the main controller or airbag control unit (ACU) of the autonomous driving system, or is connected to the vehicle internal network as a separate electronic control unit (Electronic Control Unit).
KR1020200155377A 2019-11-22 2020-11-19 System for event data recording of autonomous vehicle KR20210063244A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2022529945A JP2023504386A (en) 2019-11-22 2020-11-20 System for event data recording of autonomous vehicles
CN202080080487.2A CN114730508A (en) 2019-11-22 2020-11-20 System for recording event data of autonomous vehicle
US17/778,521 US20230040552A1 (en) 2019-11-22 2020-11-20 System for recording event data of autonomous vehicle
PCT/KR2020/016445 WO2021101302A1 (en) 2019-11-22 2020-11-20 System for recording event data of autonomous vehicle
DE112020005125.0T DE112020005125T5 (en) 2019-11-22 2020-11-20 SYSTEM FOR RECORDING EVENT DATA OF AN AUTONOMOUS VEHICLE

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20190151529 2019-11-22
KR1020190151529 2019-11-22

Publications (1)

Publication Number Publication Date
KR20210063244A true KR20210063244A (en) 2021-06-01

Family

ID=76376036

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200155377A KR20210063244A (en) 2019-11-22 2020-11-19 System for event data recording of autonomous vehicle

Country Status (1)

Country Link
KR (1) KR20210063244A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113360333A (en) * 2021-07-19 2021-09-07 上汽通用五菱汽车股份有限公司 Remote testing method and system of EDR and readable storage medium
CN116506251A (en) * 2023-06-26 2023-07-28 中汽数据有限公司 Analysis method and medium of event data recording system data based on bench test
WO2023249240A1 (en) * 2022-06-20 2023-12-28 경북대학교 산학협력단 Base station server communicating with ris-equipped vehicle, vehicular wireless communication service coverage improvement system comrpising same, and communication method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113360333A (en) * 2021-07-19 2021-09-07 上汽通用五菱汽车股份有限公司 Remote testing method and system of EDR and readable storage medium
WO2023249240A1 (en) * 2022-06-20 2023-12-28 경북대학교 산학협력단 Base station server communicating with ris-equipped vehicle, vehicular wireless communication service coverage improvement system comrpising same, and communication method
CN116506251A (en) * 2023-06-26 2023-07-28 中汽数据有限公司 Analysis method and medium of event data recording system data based on bench test
CN116506251B (en) * 2023-06-26 2023-09-01 中汽数据有限公司 Analysis method and medium of event data recording system data based on bench test

Similar Documents

Publication Publication Date Title
CN107415945B (en) Automatic driving system for evaluating lane change and using method thereof
US10875541B2 (en) Vehicle control system, vehicle control method, and vehicle control program
CN109964264B (en) Driver assistance system for a motor vehicle
US9862315B2 (en) Driver coaching from vehicle to vehicle and vehicle to infrastructure communications
CN106985780B (en) Vehicle safety auxiliary system
US9840254B2 (en) Method and system for adaptive detection and application of horn for an autonomous vehicle
US20200290638A1 (en) Method and system for vehicular communication and safety monitoring of driving environment to provide early warnings in real-time
KR102613792B1 (en) Imaging device, image processing device, and image processing method
KR20210063244A (en) System for event data recording of autonomous vehicle
US10703363B2 (en) In-vehicle traffic assist
US20170129487A1 (en) Method for operating an autonomous driving safety or driver assistance system of a motor vehicle
US11427166B2 (en) Adaptive AEB system considering steerable path and control method thereof
CN110386136B (en) Automatic collision mitigation system for vehicle and method thereof
US20190129434A1 (en) Vehicle control device
US20220139128A1 (en) Travel storage system, travel storage method, and video recording system
US20210197860A1 (en) Vehicle and method of controlling the same
JP7192771B2 (en) Information processing device, information processing method, program, and vehicle
US20230040552A1 (en) System for recording event data of autonomous vehicle
CN113335311B (en) Vehicle collision detection method and device, vehicle and storage medium
JP7092955B1 (en) Vehicle control devices, vehicle control methods, and programs
US10328849B2 (en) Collision avoidance apparatus for notification of collision avoidance direction
CN115230732A (en) Remote function selection device
JP7177968B1 (en) VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM
US20240286645A1 (en) Vehicle
JP7126587B1 (en) Information recording transmitter

Legal Events

Date Code Title Description
A201 Request for examination