KR102552051B1 - Vehicle risk prediction device and method therefor - Google Patents

Vehicle risk prediction device and method therefor Download PDF

Info

Publication number
KR102552051B1
KR102552051B1 KR1020210119257A KR20210119257A KR102552051B1 KR 102552051 B1 KR102552051 B1 KR 102552051B1 KR 1020210119257 A KR1020210119257 A KR 1020210119257A KR 20210119257 A KR20210119257 A KR 20210119257A KR 102552051 B1 KR102552051 B1 KR 102552051B1
Authority
KR
South Korea
Prior art keywords
data
vehicle
risk
determined based
driver
Prior art date
Application number
KR1020210119257A
Other languages
Korean (ko)
Other versions
KR20230036425A (en
Inventor
임세준
류정환
정의석
김현건
Original Assignee
국민대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국민대학교산학협력단 filed Critical 국민대학교산학협력단
Priority to KR1020210119257A priority Critical patent/KR102552051B1/en
Publication of KR20230036425A publication Critical patent/KR20230036425A/en
Application granted granted Critical
Publication of KR102552051B1 publication Critical patent/KR102552051B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/42

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 개시의 일 양상으로, 적어도 하나의 프로세서; 및 상기 적어도 하나의 프로세서에 동작 가능하게 연결되어 상기 적어도 하나의 프로세서가 동작들을 수행하도록 하는 적어도 하나의 명령어들(instructions)을 저장하는 적어도 하나의 메모리(memory)를 포함하고, 상기 동작들은, 제1 입력 데이터 및 제2 입력 데이터를 제1 LSTM(long short term memory) 및 제2 LSTM 모델에 각각 인가하여 제1-1 출력 데이터 및 제1-2 출력 데이터를 획득하고, 상기 제1-1 출력 데이터, 상기 제1-2 출력 데이터 및 위험도 라벨 데이터에 기초하여 상기 회귀 모델을 학습시키고, 상기 제1 입력 데이터는 차량 전방의 객체 데이터에 기초하여 결정된 제1 배열 데이터 및 상기 차량의 CAN(controller area network) 데이터에 기초하여 결정된 제2 배열 데이터를 결합하여 생성된 것이고, 상기 제2 입력 데이터는 상기 차량의 운전자 데이터에 기초하여 결정되는, 차량 위험도 예측 장치이다.In one aspect of the disclosure, at least one processor; and at least one memory operatively connected to the at least one processor to store at least one instruction that causes the at least one processor to perform operations, wherein the operations include: First input data and second input data are applied to a first long short term memory (LSTM) and a second LSTM model, respectively, to obtain 1-1 output data and 1-2 output data, and the 1-1 output The regression model is trained based on data, the 1-2 output data and risk label data, and the first input data is first array data determined based on object data in front of the vehicle and CAN (controller area of the vehicle) It is generated by combining second arrangement data determined based on network) data, and the second input data is a vehicle risk prediction device determined based on driver data of the vehicle.

Description

차량 위험도 예측 장치 및 방법{VEHICLE RISK PREDICTION DEVICE AND METHOD THEREFOR}Vehicle risk prediction device and method {VEHICLE RISK PREDICTION DEVICE AND METHOD THEREFOR}

본 개시 (present disclosure)는 차량 위험도 예측 장치 및 방법에 관한 것이다.The present disclosure relates to an apparatus and method for predicting vehicle risk.

지능형운전자보조시스템(ADAS, Advanced Driver Assistance System)은 첨단 감지 센서를 통해 주행 중 위험 상황을 차량이 인지하고 판단하여, 스스로 제어하거나 운전자가 미리 위험요소를 감지할 수 있도록 알려주는 운전자 보조 시스템이다. 많은 완성차 업체에서 지능형운전자보조시스템을 차량에 적용하고 있음에도 불구하고 2019년 교통사고 건수는 전년도 대비 5.7% 증가하였고 그중 75.5%는 차대차 사고이다. 따라서, 차대차 사고 위험 상황을 더 정확하게 인지하기 위해 차량 위험도 예측 연구가 다방면으로 이루어지고 있다.Advanced Driver Assistance System (ADAS) is a driver assistance system that allows the vehicle to recognize and determine dangerous situations while driving through state-of-the-art detection sensors and control them on its own or informs the driver of risk factors in advance. Despite the fact that many automakers are applying intelligent driver assistance systems to their vehicles, the number of traffic accidents in 2019 increased by 5.7% compared to the previous year, and 75.5% of them were vehicle-to-vehicle accidents. Therefore, in order to more accurately recognize the risk situation of a vehicle-to-vehicle accident, research on vehicle risk prediction is being conducted in various fields.

대한민국 공개특허 10-2019-0103078Republic of Korea Patent Publication 10-2019-0103078 미국 공개특허 2017-0286826US Patent Publication 2017-0286826

본 개시의 다양한 예들은 전방 카메라, 내부 카메라 및 CAN(controller area network) 데이터를 활용한 차량 위험도 예측 장치 및 방법을 제공하기 위함이다.Various examples of the present disclosure are to provide an apparatus and method for predicting vehicle risk using a front camera, an inside camera, and CAN (controller area network) data.

본 개시의 다양한 예들에서 이루고자 하는 기술적 과제들은 이상에서 언급한 사항들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 이하 설명할 본 개시의 다양한 예들로부터 당해 기술분야에서 통상의 지식을 가진 자에 의해 고려될 수 있다.The technical problems to be achieved in various examples of the present disclosure are not limited to those mentioned above, and other technical problems not mentioned above can be solved by those skilled in the art from various examples of the present disclosure to be described below. can be considered by

본 개시의 일 양상으로, 적어도 하나의 프로세서; 및 상기 적어도 하나의 프로세서에 동작 가능하게 연결되어 상기 적어도 하나의 프로세서가 동작들을 수행하도록 하는 적어도 하나의 명령어들(instructions)을 저장하는 적어도 하나의 메모리(memory)를 포함하고, 상기 동작들은, 제1 입력 데이터 및 제2 입력 데이터를 제1 LSTM(long short term memory) 및 제2 LSTM 모델에 각각 인가하여 제1-1 출력 데이터 및 제1-2 출력 데이터를 획득하고, 상기 제1-1 출력 데이터, 상기 제1-2 출력 데이터 및 위험도 라벨 데이터에 기초하여 상기 회귀 모델을 학습시키고, 상기 제1 입력 데이터는 차량 전방의 객체 데이터에 기초하여 결정된 제1 배열 데이터 및 상기 차량의 CAN(controller area network) 데이터에 기초하여 결정된 제2 배열 데이터를 결합하여 생성된 것이고, 상기 제2 입력 데이터는 상기 차량의 운전자 데이터에 기초하여 결정되는, 차량 위험도 예측 장치이다.In one aspect of the disclosure, at least one processor; and at least one memory operatively connected to the at least one processor to store at least one instruction that causes the at least one processor to perform operations, wherein the operations include: First input data and second input data are applied to a first long short term memory (LSTM) and a second LSTM model, respectively, to obtain 1-1 output data and 1-2 output data, and the 1-1 output The regression model is trained based on data, the 1-2 output data and risk label data, and the first input data is first array data determined based on object data in front of the vehicle and CAN (controller area of the vehicle) It is generated by combining second arrangement data determined based on network) data, and the second input data is a vehicle risk prediction device determined based on driver data of the vehicle.

예를 들어, 상기 객체 데이터는 상기 차량의 전방 카메라로부터 촬영된 전방 영상 데이터에 포함된 적어도 하나의 객체의 종류 데이터 및 상기 적어도 하나의 객체의 좌표 데이터를 포함할 수 있다.For example, the object data may include type data of at least one object included in front image data photographed by a front camera of the vehicle and coordinate data of the at least one object.

예를 들어, 상기 제1 배열 데이터는 상기 적어도 하나의 객체 중 상기 좌표 데이터가 기 설정된 영역 내 포함되지 않는 객체 및 상기 종류 데이터가 기 설정된 종류에 매칭되지 않는 객체를 제외한 나머지 객체에 기초하여 결정될 수 있다.For example, the first arrangement data may be determined based on the remaining objects except for an object whose coordinate data is not included in a preset area and an object whose type data does not match a preset type among the at least one object. there is.

예를 들어, 상기 제2 배열 데이터는 상기 CAN 데이터가 기 설정된 위험 행동 유형 테이블에 포함된 복수의 위험 행동 유형 중 적어도 하나에 매핑되는지 여부에 기초하여 결정될 수 있다.For example, the second arrangement data may be determined based on whether the CAN data is mapped to at least one of a plurality of risky action types included in a preset risky action type table.

예를 들어, 상기 운전자 데이터는 상기 차량의 내부 카메라로부터 촬영된 내부 영상 데이터에 포함된 운전자의 시선 각도 데이터 및 상기 운전자의 헤드포즈(headpose) 데이터를 포함할 수 있다.For example, the driver data may include gaze angle data of the driver and headpose data of the driver included in internal image data captured by an internal camera of the vehicle.

예를 들어, 상기 위험도 라벨 데이터는 상기 CAN 데이터 및 상기 운전자 데이터에 기초하여 분류되는 상기 차량의 위험도에 대응될 수 있다.For example, the risk label data may correspond to the risk level of the vehicle classified based on the CAN data and the driver data.

예를 들어, 상기 제1-1 출력 데이터 및 상기 제1-2 출력 데이터 각각의 차원 크기는 서로 동일할 수 있다.For example, the dimensional sizes of the 1-1 output data and the 1-2 output data may be the same.

예를 들어, 상기 동작들은, 상기 회귀 모델의 학습 과정에서 획득되는 예측 데이터를 기 설정된 윈도우 단위로 스무딩(smoothing)할 수 있다.For example, the operations may smooth prediction data obtained in the process of learning the regression model in units of a preset window.

본 개시의 다른 일 양상으로, 송수신기(transceiver); 적어도 하나의 프로세서; 및 상기 적어도 하나의 프로세서에 동작 가능하게 연결되어 상기 적어도 하나의 프로세서가 동작들을 수행하도록 하는 적어도 하나의 명령어들(instructions)을 저장하는 적어도 하나의 메모리(memory)를 포함하고, 상기 동작들은, 제1 입력 데이터 및 제2 입력 데이터를 제1 LSTM(long short term memory) 및 제2 LSTM 모델에 각각 인가하여 제1-1 출력 데이터 및 제1-2 출력 데이터를 획득하고, 여기서 상기 제1 입력 데이터는 차량 전방의 객체 데이터에 기초하여 결정된 제1 배열 데이터 및 상기 차량의 CAN(controller area network) 데이터에 기초하여 결정된 제2 배열 데이터를 결합하여 생성된 것이고, 상기 제2 입력 데이터는 상기 차량의 운전자 데이터이고, 상기 제1-1 출력 데이터, 상기 제1-2 출력 데이터 및 위험도 라벨 데이터에 기초하여 상기 회귀 모델을 학습시키고, 상기 송수신기를 통해 실시간 객체 데이터, 실시간 CAN 데이터 및 실시간 운전자 데이터를 수신하고, 상기 실시간 객체 데이터, 상기 실시간 CAN 데이터 및 상기 실시간 운전자 데이터에 기초하여 상기 제1 LSTM 모델, 상기 제2 LSTM 모델 및 상기 회귀 모델로부터 상기 차량의 위험도를 예측하는, 차량 위험도 예측 장치이다.In another aspect of the present disclosure, a transceiver; at least one processor; and at least one memory operatively connected to the at least one processor to store at least one instruction that causes the at least one processor to perform operations, wherein the operations include: First input data and second input data are applied to a first long short term memory (LSTM) and a second LSTM model, respectively, to obtain 1-1 output data and 1-2 output data, wherein the first input data is generated by combining first arrangement data determined based on object data in front of the vehicle and second arrangement data determined based on controller area network (CAN) data of the vehicle, and the second input data is the driver of the vehicle data, learning the regression model based on the 1-1 output data, the 1-2 output data and risk label data, and receiving real-time object data, real-time CAN data and real-time driver data through the transceiver, , A vehicle risk prediction device that predicts the risk of the vehicle from the first LSTM model, the second LSTM model, and the regression model based on the real-time object data, the real-time CAN data, and the real-time driver data.

본 개시의 다른 일 양상으로, 차량 위험도 예측 장치에 의해 수행되는 차량 위험도 예측 방법으로서, 제1 입력 데이터 및 제2 입력 데이터를 제1 LSTM(long short term memory) 및 제2 LSTM 모델에 각각 인가하여 제1-1 출력 데이터 및 제1-2 출력 데이터를 획득하는 단계; 및 상기 제1-1 출력 데이터, 상기 제1-2 출력 데이터 및 위험도 라벨 데이터에 기초하여 상기 회귀 모델을 학습시키는 단계를 포함하고, 상기 제1 입력 데이터는 차량 전방의 객체 데이터에 기초하여 결정된 제1 배열 데이터 및 상기 차량의 CAN(controller area network) 데이터에 기초하여 결정된 제2 배열 데이터를 결합하여 생성된 것이고, 상기 제2 입력 데이터는 상기 차량의 운전자 데이터에 기초하여 결정되는, 차량 위험도 예측 방법이다.In another aspect of the present disclosure, a vehicle risk prediction method performed by a vehicle risk prediction device, by applying first input data and second input data to a first long short term memory (LSTM) and a second LSTM model, respectively Obtaining 1-1st output data and 1-2nd output data; and learning the regression model based on the 1-1 output data, the 1-2 output data, and the risk label data, wherein the first input data is determined based on object data in front of the vehicle. A method for predicting vehicle risk, generated by combining first sequence data and second sequence data determined based on CAN (controller area network) data of the vehicle, wherein the second input data is determined based on driver data of the vehicle am.

예를 들어, 상기 객체 데이터는 상기 차량의 전방 카메라로부터 촬영된 전방 영상 데이터에 포함된 적어도 하나의 객체의 종류 데이터 및 상기 적어도 하나의 객체의 좌표 데이터를 포함할 수 있다.For example, the object data may include type data of at least one object included in front image data photographed by a front camera of the vehicle and coordinate data of the at least one object.

예를 들어, 상기 제1 배열 데이터는 상기 적어도 하나의 객체 중 상기 좌표 데이터가 기 설정된 영역 내 포함되지 않는 객체 및 상기 종류 데이터가 기 설정된 종류에 매칭되지 않는 객체를 제외한 나머지 객체에 기초하여 결정되고, 상기 제2 배열 데이터는 상기 CAN 데이터가 기 설정된 위험 행동 유형 테이블에 포함된 복수의 위험 행동 유형 중 적어도 하나에 매핑되는지 여부에 기초하여 결정될 수 있다.For example, the first array data is determined based on the remaining objects except for an object whose coordinate data is not included in a preset area and an object whose type data does not match a preset type among the at least one object, and , The second array data may be determined based on whether the CAN data is mapped to at least one of a plurality of risky action types included in a preset risky action type table.

예를 들어, 송수신기를 통해 실시간 객체 데이터, 실시간 CAN 데이터 및 실시간 운전자 데이터를 수신하는 단계; 및 상기 실시간 객체 데이터, 상기 실시간 CAN 데이터 및 상기 실시간 운전자 데이터에 기초하여 상기 제1 LSTM 모델, 상기 제2 LSTM 모델 및 상기 회귀 모델로부터 상기 차량의 위험도를 예측하는 단계를 더 포함할 수 있다.For example, receiving real-time object data, real-time CAN data and real-time driver data through a transceiver; and predicting the risk of the vehicle from the first LSTM model, the second LSTM model, and the regression model based on the real-time object data, the real-time CAN data, and the real-time driver data.

상술한 본 개시의 다양한 예들은 본 개시의 바람직한 예들 중 일부에 불과하며, 본 개시의 다양한 예들의 기술적 특징들이 반영된 여러 가지 예들이 당해 기술분야의 통상적인 지식을 가진 자에 의해 이하 상술할 상세한 설명을 기반으로 도출되고 이해될 수 있다.The various examples of the present disclosure described above are only some of the preferred examples of the present disclosure, and various examples in which the technical features of the various examples of the present disclosure are reflected are detailed descriptions to be detailed below by those of ordinary skill in the art. It can be derived and understood based on.

본 개시의 다양한 예들에 따르면 다음과 같은 효과가 있다.According to various examples of the present disclosure, the following effects are obtained.

본 개시의 다양한 예들에 따르면, 전방 카메라, 내부 카메라 및 CAN(controller area network) 데이터를 활용한 차량 위험도 예측 장치 및 방법이 제공될 수 있다.According to various examples of the present disclosure, an apparatus and method for predicting vehicle risk using a front camera, an inside camera, and CAN (controller area network) data may be provided.

본 개시의 다양한 예들로부터 얻을 수 있는 효과들은 이상에서 언급된 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 이하의 상세한 설명을 기반으로 당해 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다.Effects obtainable from various examples of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned are clearly derived to those skilled in the art based on the detailed description below and can be understood.

이하에 첨부되는 도면들은 본 개시의 다양한 예들에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 본 개시의 다양한 예들을 제공한다. 다만, 본 개시의 다양한 예들의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시예로 구성될 수 있다. 각 도면에서의 참조 번호 (reference numerals) 들은 구조적 구성요소 (structural elements) 를 의미한다.
도 1은 본 개시의 일 예에 따른 차량 위험도 예측 장치의 블록도이다.
도 2는 본 개시의 일 예에 따른 차량 위험도 예측 장치에 의해 수행되는 차량 위험도 예측 모델의 개요도이다.
도 3은 본 개시의 일 예에 따른 제2 배열 데이터 결정을 위한 위험 행동 유형 테이블을 도시한 것이다.
도 4a 및 도 4b는 운전자 데이터를 설명하기 위한 것이다.
도 5는 본 개시의 일 예에 따른 차량의 위험도를 설명하기 위한 것이다.
도 6a 내지 도 6c는 위험도 라벨 데이터의 전처리를 설명하기 위한 것이다.
도 7a 내지 도 7b는 본 개시의 일 예에 따른 회귀 모델의 성능을 설명하기 위한 것이다.
도 8은 본 개시의 일 예에 따른 차량 위험도 예측 방법의 순서도이다.
The accompanying drawings are provided to aid understanding of various examples of the present disclosure, and provide various examples of the present disclosure together with detailed descriptions. However, technical features of various examples of the present disclosure are not limited to specific drawings, and features disclosed in each drawing may be combined with each other to form a new embodiment. Reference numerals in each figure mean structural elements.
1 is a block diagram of an apparatus for predicting vehicle risk according to an example of the present disclosure.
2 is a schematic diagram of a vehicle risk prediction model performed by an apparatus for predicting vehicle risk according to an example of the present disclosure.
3 illustrates a risk behavior type table for determining second arrangement data according to an example of the present disclosure.
4A and 4B are for explaining driver data.
5 is for explaining a risk level of a vehicle according to an example of the present disclosure.
6A to 6C are for explaining pre-processing of risk label data.
7A to 7B are for explaining performance of a regression model according to an example of the present disclosure.
8 is a flowchart of a vehicle risk prediction method according to an example of the present disclosure.

이하, 본 발명에 따른 구현들을 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 구현을 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 구현 형태를 나타내고자 하는 것이 아니다. 이하의 상세한 설명은 본 발명의 완전한 이해를 제공하기 위해서 구체적 세부사항을 포함한다. 그러나 당업자는 본 개시가 이러한 구체적 세부사항 없이도 실시될 수 있음을 안다.Hereinafter, implementations according to the present invention will be described in detail with reference to the accompanying drawings. The detailed description set forth below in conjunction with the accompanying drawings is intended to describe exemplary implementations of the invention, and is not intended to represent the only implementations in which the invention may be practiced. The following detailed description includes specific details for the purpose of providing a thorough understanding of the present invention. However, one skilled in the art recognizes that the present disclosure may be practiced without these specific details.

몇몇 경우, 본 개시의 개념이 모호해지는 것을 피하기 위하여 공지의 구조 및 장치는 생략되거나, 각 구조 및 장치의 핵심기능을 중심으로 한 블록도 형식으로 도시될 수 있다. 또한, 본 개시 전체에서 동일한 구성요소에 대해서는 동일한 도면 부호를 사용하여 설명한다.In some cases, in order to avoid obscuring the concept of the present disclosure, well-known structures and devices may be omitted or may be shown in block diagram form centering on core functions of each structure and device. In addition, the same reference numerals are used to describe like elements throughout the present disclosure.

본 발명의 개념에 따른 다양한 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 다양한 예들을 도면에 예시하고 본 개시에 상세하게 설명하고자 한다. 그러나 이는 본 발명의 개념에 따른 다양한 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Since various examples according to the concept of the present invention can be made with various changes and have various forms, various examples will be illustrated in the drawings and described in detail in the present disclosure. However, this is not intended to limit the various examples according to the concept of the present invention to specific disclosed forms, and includes modifications, equivalents, or substitutes included in the spirit and scope of the present invention.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another component, for example, without departing from the scope of rights according to the concept of the present invention, a first component may be named a second component, Similarly, the second component may also be referred to as the first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 "~사이에"와 "바로~사이에" 또는 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle. Expressions describing the relationship between components, such as "between" and "directly between" or "directly adjacent to" should be interpreted similarly.

본 개시의 다양한 예에서, “/” 및 “,”는 “및/또는”을 나타내는 것으로 해석되어야 한다. 예를 들어, “A/B”는 “A 및/또는 B”를 의미할 수 있다. 나아가, “A, B”는 “A 및/또는 B”를 의미할 수 있다. 나아가, “A/B/C”는 “A, B 및/또는 C 중 적어도 어느 하나”를 의미할 수 있다. 나아가, “A, B, C”는 “A, B 및/또는 C 중 적어도 어느 하나”를 의미할 수 있다.In various examples of this disclosure, “/” and “,” should be interpreted as indicating “and/or”. For example, “A/B” may mean “A and/or B”. Furthermore, “A, B” may mean “A and/or B”. Furthermore, “A/B/C” may mean “at least one of A, B and/or C”. Furthermore, “A, B, C” may mean “at least one of A, B and/or C”.

본 개시의 다양한 예에서, “또는”은 “및/또는”을 나타내는 것으로 해석되어야 한다. 예를 들어, “A 또는 B”는 “오직 A”, “오직 B”, 및/또는 “A 및 B 모두”를 포함할 수 있다. 다시 말해, “또는”은 “부가적으로 또는 대안적으로”를 나타내는 것으로 해석되어야 한다.In various examples of this disclosure, “or” should be interpreted as indicating “and/or”. For example, “A or B” may include “only A”, “only B”, and/or “both A and B”. In other words, "or" should be interpreted as indicating "in addition or alternatively."

본 개시에서 사용한 용어는 단지 특정한 다양한 예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 개시에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in this disclosure are only used to describe specific various examples, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this disclosure, the terms "comprise" or "having" are intended to designate that the described feature, number, step, operation, component, part, or combination thereof exists, but one or more other features or numbers, It should be understood that the presence or addition of steps, operations, components, parts, or combinations thereof is not precluded.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 개시에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 이하, 본 개시의 다양한 예들을 첨부된 도면을 참조하여 상세하게 설명한다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present disclosure, it should not be interpreted in an ideal or excessively formal meaning. don't Hereinafter, various examples of the present disclosure will be described in detail with reference to the accompanying drawings.

차량 위험도 예측 장치Vehicle risk prediction device

도 1은 본 개시의 일 예에 따른 차량 위험도 예측 장치의 블록도이다.1 is a block diagram of an apparatus for predicting vehicle risk according to an example of the present disclosure.

도 1을 참조하면, 본 개시의 일 예에 따른 차량 위험도 예측 장치(100)는 송수신기(110), 프로세서(120) 및 메모리(130)를 포함한다.Referring to FIG. 1 , an apparatus 100 for predicting vehicle risk according to an example of the present disclosure includes a transceiver 110 , a processor 120 and a memory 130 .

송수신기(110)는 프로세서(120)와 연결될 수 있고, 유/무선 신호를 송신 및/또는 수신할 수 있다. 예를 들어, 송수신기(110)는 차량 내 통신 네트워크를 통해 차량의 다양한 ECU(electronic control unit)와 연결될 수 있다. 여기서, 차량 내 통신 네트워크는 예를 들어 CAN(controller area network), FlexRay, Lin(local interconnect network) 또는 이더넷(Ethernet)일 수 있으나, 이에 한정되는 것은 아니다.The transceiver 110 may be connected to the processor 120 and may transmit and/or receive wired/wireless signals. For example, the transceiver 110 may be connected to various electronic control units (ECUs) of the vehicle through an in-vehicle communication network. Here, the in-vehicle communication network may be, for example, CAN (controller area network), FlexRay, Lin (local interconnect network), or Ethernet, but is not limited thereto.

또는, 송수신기(110)는 유/무선 통신망을 통해 서버 및/또는 단말과 연결될 수 있다. 여기서, 무선 통신망은 이동 통신망, 무선 LAN, 근거리 무선 통신망 등을 포함할 수 있다. 예를 들어, 무선 통신망은 LTE, LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 또는 GSM(Global System for Mobile Communications) 등 중 적어도 하나를 사용하는 셀룰러 통신을 포함할 수 있다. 예를 들어, 무선 통신망은 WiFi(wireless fidelity), 블루투스, 블루투스 저전력(BLE), 지그비 (Zigbee), NFC(near field communication), 또는 라디오 프리퀀시(RF) 중 적어도 하나를 포함할 수 있다.Alternatively, the transceiver 110 may be connected to a server and/or a terminal through a wired/wireless communication network. Here, the wireless communication network may include a mobile communication network, a wireless LAN, a local area wireless communication network, and the like. For example, a wireless communication network may include LTE, LTE Advance (LTE-A), code division multiple access (CDMA), wideband CDMA (WCDMA), universal mobile telecommunications system (UMTS), wireless broadband (WiBro), or global system (GSM). for Mobile Communications) and the like. For example, the wireless communication network may include at least one of wireless fidelity (WiFi), Bluetooth, Bluetooth Low Energy (BLE), Zigbee, near field communication (NFC), or radio frequency (RF).

유/무선 통신망을 통해 송수신기(110)와 연결되는 서버 및/또는 단말은 예를 들어 후술할 본 개시의 다양한 예들에 따른 인공지능 모델의 입력 데이터로 사용되기 위해 차량으로부터 수집한 데이터, 학습 데이터 및/또는 지도 데이터 등을 송수신기(110)와 주고 받을 수 있다.A server and/or a terminal connected to the transceiver 110 through a wired/wireless communication network, for example, data collected from a vehicle to be used as input data of an artificial intelligence model according to various examples of the present disclosure, learning data, and / Or map data and the like can be exchanged with the transceiver 110 .

송수신기(110)는 송신기 및 수신기를 포함할 수 있다. 송수신기(110)는 RF(radio frequency) 유닛과 혼용될 수 있다. 송수신기(110)는 프로세서(120)의 제어를 통해 차량의 다양한 ECU, 서버 및 단말과 신호나 데이터를 주고받을 수 있다.The transceiver 110 may include a transmitter and a receiver. The transceiver 110 may be used interchangeably with a radio frequency (RF) unit. The transceiver 110 may exchange signals or data with various ECUs, servers, and terminals of the vehicle under the control of the processor 120 .

프로세서(120)는 적어도 하나를 포함할 수 있고, 메모리(130) 및/또는 송수신기(110)를 제어하며, 본 개시의 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(120)는 송수신기(110)를 통해 신호나 데이터를 수신하고, 신호나 데이터에 포함된 정보를 메모리(130)에 저장할 수 있다. 또한, 프로세서(120)는 메모리(130)에 저장된 정보를 처리하여 신호나 데이터를 생성한 뒤, 생성한 신호나 데이터를 송수신기(110)를 통해 전송할 수 있다.The processor 120 may include at least one, controls the memory 130 and/or the transceiver 110, and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts of the present disclosure. can For example, the processor 120 may receive signals or data through the transceiver 110 and store information included in the signals or data in the memory 130 . Also, the processor 120 may process information stored in the memory 130 to generate signals or data, and transmit the generated signals or data through the transceiver 110 .

메모리(130)는 적어도 하나를 포함할 수 있고, 프로세서(120)와 연결될 수 있고, 프로세서(120)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(130)는 프로세서(120)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 개시의 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 또는, 메모리(130)는 본 개시의 다양한 예들에 따른 데이터나 다양한 예들에 따른 차량 위험도 예측 모델 등을 저장할 수 있다.The memory 130 may include at least one, may be connected to the processor 120, and may store various information related to the operation of the processor 120. For example, memory 130 may perform some or all of the processes controlled by processor 120, or may provide instructions for performing descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts of the present disclosure. It can store the software code that contains it. Alternatively, the memory 130 may store data according to various examples of the present disclosure or a vehicle risk prediction model according to various examples.

이하에서는, 차량 위험도 예측 장치(100)의 다양한 동작 예들에 대하여 설명한다. 하기 다양한 동작 예들은 상술한 적어도 하나의 프로세서(120)의 동작에 포함되는 것일 수 있다.Hereinafter, various operation examples of the vehicle risk prediction apparatus 100 will be described. The following various operation examples may be included in the operation of at least one processor 120 described above.

도 2는 본 개시의 일 예에 따른 차량 위험도 예측 장치에 의해 수행되는 차량 위험도 예측 모델의 개요도이다. 본 개시에서 차량 위험도 예측 모델(200)은 차량 위험도 예측 장치(100)가 차량 위험도 예측을 수행하는데 사용되는 인공지능 모델을 의미할 수 있다. 다시 말해서, 차량 위험도 예측 모델(200)은 본 개시의 다양한 예들에 따른 차량 위험도 예측 장치(100)의 다양한 동작 예들을 수행하기 위한 인공지능 모델일 수 있다. 차량 위험도 예측 모델(200)에 포함된 각 인공지능 모델의 동작들은 상술한 프로세서(120)의 동작에 포함되는 것일 수 있다.2 is a schematic diagram of a vehicle risk prediction model performed by an apparatus for predicting vehicle risk according to an example of the present disclosure. In the present disclosure, the vehicle risk prediction model 200 may refer to an artificial intelligence model used by the vehicle risk prediction apparatus 100 to predict vehicle risk. In other words, the vehicle risk level prediction model 200 may be an artificial intelligence model for performing various operation examples of the vehicle risk level prediction apparatus 100 according to various examples of the present disclosure. Operations of each artificial intelligence model included in the vehicle risk prediction model 200 may be included in the operation of the processor 120 described above.

도 2를 참조하면, 차량 위험도 예측 모델(200)은 제1 LSTM(long short term memory) 모델(210), 제2 LSTM 모델(220) 및 회귀 모델(230)을 포함한다.Referring to FIG. 2 , the vehicle risk prediction model 200 includes a first long short term memory (LSTM) model 210, a second LSTM model 220, and a regression model 230.

본 개시에서, LSTM 모델(또는, LSTM 구조)은 RNN(recurrent neural network) 모델의 일종으로 히든-상태(hidden-state) 및 장기적인 정보를 담당하는 셀-상태를 포함한다. 히든-상태에서, ht-1은 히든-상태 초기 벡터이고, ht는 새로운 히든-상태 벡터이다. 셀-상태에서, ct-1은 셀-상태 초기 벡터이고, ct는 새로운 셀-상태 벡터이다. LSTM 모델은 입력 데이터(ut), 히든-상태 초기 벡터 및 셀-상태 초기 벡터를 새로운 벡터에 대하여 얼마나 반영할지를 히든-상태 및 셀-상태에 기초하여 결정하고 출력값(ht)을 생성한다.In the present disclosure, an LSTM model (or LSTM structure) is a type of recurrent neural network (RNN) model and includes a hidden-state and a cell-state responsible for long-term information. In the hidden-state, h t-1 is the hidden-state initial vector, and h t is the new hidden-state vector. In cell-state, c t-1 is the cell-state initial vector, and c t is the new cell-state vector. The LSTM model determines how much to reflect the input data (u t ), the hidden-state initial vector, and the cell-state initial vector with respect to the new vector based on the hidden-state and cell-state, and generates an output value (h t ).

제1 LSTM 모델(210)은 제1 입력 데이터를 인가받아 제1-1 출력 데이터를 생성하고, 제2 LSTM 모델(220)은 제2 입력 데이터를 인가받아 제1-2 출력 데이터를 생성한다. 즉, 프로세서(120)는 제1 입력 데이터 및 제2 입력 데이터를 제1 LSTM 모델(210) 및 제2 LSTM 모델(220)에 각각 인가하여 제1-1 출력 데이터 및 제1-2 출력 데이터를 획득한다. 제1-1 출력 데이터 및 제1-2 출력 데이터는 제1 LSTM 모델(210) 및 제2 LSTM 모델(220)의 피쳐(feature)이다.The first LSTM model 210 receives the first input data and generates 1-1 output data, and the second LSTM model 220 receives the second input data and generates 1-2 output data. That is, the processor 120 applies the first input data and the second input data to the first LSTM model 210 and the second LSTM model 220, respectively, to obtain the 1-1 output data and the 1-2 output data Acquire The 1-1 output data and the 1-2 output data are features of the first LSTM model 210 and the second LSTM model 220 .

회귀 모델(230)은 제1-1 출력 데이터 및 제1-2 출력 데이터를 인가받고, 인가받은 제1-1 출력 데이터 및 제1-2 출력 데이터 및 위험도 라벨 데이터에 기초하여 차량의 위험도 예측을 위한 학습 과정을 수행한다.The regression model 230 receives the 1-1st output data and 1-2nd output data, and predicts the risk level of the vehicle based on the authorized 1-1st output data and 1-2nd output data and the risk label data. carry out the learning process for

예를 들어, 회귀 모델(230)은 제1-1 출력 데이터 및 제1-2 출력 데이터에 기초하여 획득한 출력 값, 즉 예측 데이터와 위험도 라벨 데이터를 비교하여 역전파(backpropagation)를 통해 학습 과정을 수행할 수 있다. 역전파는 예측 데이터와 위험도 라벨 데이터 간 오차와 연관된 손실 모델(loss model)을 기준으로 수행된다. 이때, 역전파는 회귀 모델(230)뿐만 아니라, 상술한 제1 LSTM 모델(210) 및 제2 LSTM 모델(220) 방향으로 수행된다. 따라서, 위험도 라벨 데이터는 전체 인공지능 모델의 학습에 관여하게 된다.For example, the regression model 230 compares the output values obtained based on the 1-1st output data and the 1-2nd output data, that is, the prediction data and the risk label data, and performs a learning process through backpropagation. can be performed. Backpropagation is performed based on a loss model associated with the error between prediction data and risk label data. At this time, backpropagation is performed in the direction of the regression model 230 as well as the first LSTM model 210 and the second LSTM model 220 described above. Therefore, risk label data is involved in learning the entire AI model.

회귀 모델(230)은 덴스 레이어(dense layer)를 포함하는 구조일 수 있다.The regression model 230 may have a structure including a dense layer.

상술한 본 개시의 차량 위험도 예측 모델(200)을 요약하면, 제1 LSTM 모델(210)과 제2 LSTM 모델(220)에 서로 상이한 입력 데이터를 인가하여 각각의 출력 데이터(즉, 피쳐)를 획득하고, 획득한 출력 데이터를 회귀 모델(230)에 인가하여 회귀 모델(230)을 학습시키는 구조를 갖는다.Summarizing the above-described vehicle risk prediction model 200 of the present disclosure, different input data are applied to the first LSTM model 210 and the second LSTM model 220 to obtain respective output data (ie, features) and has a structure in which the regression model 230 is trained by applying the obtained output data to the regression model 230 .

이하에서는, 차량 위험도 예측 모델(200)에 포함된 각 인공지능 모델에 대하여 상세히 설명한다.Hereinafter, each artificial intelligence model included in the vehicle risk prediction model 200 will be described in detail.

- 제1 LSTM 모델 및 제2 LSTM 모델- 1st LSTM model and 2nd LSTM model

제1 LSTM 모델(210) 및 제2 LSTM 모델(220)은 상술한 바와 같이 서로 다른 데이터인 제1 입력 데이터 및 제2 입력 데이터를 각각 인가받는다.As described above, the first LSTM model 210 and the second LSTM model 220 receive first input data and second input data, which are different data, respectively.

제1 입력 데이터는, 차량 전방의 객체 데이터에 기초하여 결정된 제1 배열 데이터 및 차량의 CAN 데이터에 기초하여 결정된 제2 배열 데이터를 결합하여 생성된 것이다. The first input data is generated by combining first arrangement data determined based on object data in front of the vehicle and second arrangement data determined based on CAN data of the vehicle.

객체 데이터는 차량의 전방 카메라로부터 촬영된 전방 영상 데이터에 포함된 적어도 하나의 객체의 종류 데이터 및 적어도 하나의 객체의 좌표 데이터를 포함한다. 즉, 객체 데이터는 차량 주행 중 차량의 전방에 위치한 장애물 등의 객체와 연관된 데이터이다.The object data includes type data of at least one object and coordinate data of at least one object included in front image data photographed by a front camera of the vehicle. That is, the object data is data associated with an object such as an obstacle located in front of the vehicle while the vehicle is driving.

제1 배열 데이터는 객체 데이터에 기초하여 결정되며, (n, o) 크기를 갖는 배열일 수 있다. 여기서, n은 제1 입력 데이터의 개수 및 제2 입력 데이터의 개수에 대응되는 값으로 시계열 데이터의 개수에 대응되는 값이며, o는 제1 배열 데이터 결정에 사용된 객체의 종류의 개수이다.The first array data is determined based on object data and may be an array having a size of (n, o). Here, n is a value corresponding to the number of first input data and the number of second input data, and is a value corresponding to the number of time series data, and o is the number of object types used to determine the first array data.

예를 들어, 제1 배열 데이터는 전방 영상 데이터에 포함된 적어도 하나의 객체 중 좌표 데이터가 기 설정된 영역 내 포함되지 않는 객체 및 종류 데이터가 기 설정된 종류에 매칭되지 않는 객체를 제외한 나머지 객체에 기초하여 결정된다. 이때, 나머지 객체의 종류의 개수가 상술한 o에 대응될 수 있다.For example, the first array data is based on the remaining objects except for objects whose coordinate data is not included in a preset area among at least one object included in the front image data and objects whose type data does not match a preset type It is decided. In this case, the number of types of the remaining objects may correspond to the above-mentioned o.

제1 배열 데이터의 각 원소의 값은 특정 시점에서 전방 영상 데이터에 포함된 각 객체 별 개수에 대응될 수 있다. 예를 들어, 좌표 데이터 및 종류 데이터에 기초하여 전방 영상 데이터에 포함된 모든 객체들 중 12개의 객체가 제1 배열 데이터 결정에 사용되고 12개의 객체 중 첫 번째 객체 및 12번째 객체만 각각 2개씩 검출된 경우, 제1 배열 데이터는 (2, 0, ..., 0, 2)로 결정될 수 있다.A value of each element of the first array data may correspond to the number of each object included in the front image data at a specific point in time. For example, based on the coordinate data and the type data, 12 objects among all objects included in the front image data are used to determine the first array data, and only two first objects and two twelfth objects are detected among the 12 objects. In this case, the first array data may be determined as (2, 0, ..., 0, 2).

CAN 데이터는 CAN 통신을 통해 차량에 대하여 획득한 데이터로서 예를 들어 차량의 스티어링 각도, 가속도, 속도 및 헤딩 등과 같은 CAN 통신에 사용되는 다양한 파라미터들을 포함할 수 있다.CAN data is data acquired about a vehicle through CAN communication, and may include, for example, various parameters used in CAN communication, such as a steering angle, acceleration, speed, and heading of a vehicle.

제2 배열 데이터는 CAN 데이터에 기초하여 결정되며, (n, d) 크기를 갖는 배열일 수 있다. 여기서, d는 복수의 위험 행동 유형의 개수이다.The second array data is determined based on the CAN data and may be an array having a size of (n, d). Here, d is the number of risk behavior types.

도 3은 본 개시의 일 예에 따른 제2 배열 데이터 결정을 위한 위험 행동 유형 테이블을 도시한 것이다.3 illustrates a risk behavior type table for determining second arrangement data according to an example of the present disclosure.

도 3을 참조하면, 제2 배열 데이터 결정을 위한 위험 행동 유형은 상술한 CAN 데이터에 따라 총 11개로 분류되며, 11개의 위험 행동 유형 중 제2 배열 데이터 결정을 위해 사용되는 적어도 하나의 위험 행동 유형이 선택될 수 있다. 선택된 적어도 하나의 위험 행동 유형의 개수가 상술한 d에 대응될 수 있다.Referring to FIG. 3 , a total of 11 risky behavior types for determining second array data are classified according to the above-described CAN data, and at least one risky behavior type used for determining second array data among the 11 risky behavior types can be selected. The number of selected at least one type of risky behavior may correspond to d described above.

CAN 데이터가 도 3과 같이 기 설정된 위험 행동 유형 테이블에 포함된 복수의 위험 행동 유형 중 적어도 하나에 매핑되는지 여부에 따라 제2 배열 데이터가 결정된다.The second arrangement data is determined according to whether CAN data is mapped to at least one of a plurality of risky action types included in the preset risky action type table as shown in FIG. 3 .

제2 배열 데이터의 각 원소의 값은, 특정 시점에서 CAN 데이터가 위험 행동 유형에 매핑되는 경우 1이고 아니면 0일 수 있다. 예를 들어, d = 10이고 특정 시점의 CAN 데이터가 첫 번째 위험 행동 유형에만 매핑되는 경우, 제2 배열 데이터는 (1, 0, ..., 0, 0)로 결정될 수 있다.A value of each element of the second array data may be 1 when the CAN data is mapped to a risky behavior type at a specific time point, or 0 otherwise. For example, when d = 10 and CAN data at a specific time point is mapped only to the first risk behavior type, the second array data may be determined as (1, 0, ..., 0, 0).

상술한 제1 배열 데이터 및 제2 배열 데이터를 결합한 제1 입력 데이터가 제1 LSTM 모델(210)의 입력 데이터로 사용된다. 제1 입력 데이터는 제1 LSTM 모델(210)에 인가되기 전에 s 크기를 갖는 시간 단위(time step)로 확장된 배열로 변환된다. 여기서, s는 1 이상의 정수로서 후술할 스무딩 윈도우의 크기와 동일한 값일 수 있다. 이에 따라, 제1 입력 데이터는 (n, s, o + d) 크기를 갖는 배열일 수 있다.First input data obtained by combining the above-described first array data and second array data is used as input data of the first LSTM model 210 . The first input data is converted into an array extended by a time step having a size of s before being applied to the first LSTM model 210 . Here, s is an integer greater than or equal to 1 and may have the same value as the size of a smoothing window to be described later. Accordingly, the first input data may be an array having a size of (n, s, o + d).

제2 입력 데이터는, 차량의 운전자 데이터에 기초하여 결정된다.The second input data is determined based on driver data of the vehicle.

운전자 데이터는 차량의 내부 카메라로부터 촬영된 내부 영상 데이터에 포함된 운전자의 시선 각도 데이터 및 운전자의 헤드포즈(headpose) 데이터를 포함한다. 여기서, 내부 영상 데이터는 운전자의 정면 이미지 및/또는 측면 이미지를 포함할 수 있다.The driver data includes the driver's gaze angle data and the driver's headpose data included in the internal image data captured by the vehicle's internal camera. Here, the internal image data may include a front image and/or a side image of the driver.

도 4a 및 도 4b는 운전자 데이터를 설명하기 위한 것이다.4A and 4B are for explaining driver data.

도 4a를 참조하면, 운전자 데이터에 포함되는 시선 각도 데이터는 [Lphi, Ltheta, Rphi, Rtheta]일 수 있다. 여기서, Lphi 및 Ltheta 각각은 왼쪽 눈의 y축 각도와 x축 각도이고, Rphi 및 Rtheta 각각은 오른쪽 눈의 y축 각도와 x축 각도이다.Referring to FIG. 4A , gaze angle data included in driver data may be [Lphi, Ltheta, Rphi, Rtheta]. Here, Lphi and Ltheta are the y-axis angle and the x-axis angle of the left eye, respectively, and Rphi and Rtheta are the y-axis angle and the x-axis angle of the right eye, respectively.

도 4b를 참조하면, 운전자 데이터에 포함되는 헤드포즈 데이터는 [Roll, Pitch, Yaw]일 수 있다. 여기서, Roll, Pitch 및 Yaw 각각은 운전자 머리의 롤 각도, 피치 각도 및 요우 각도이다.Referring to FIG. 4B , head pose data included in driver data may be [Roll, Pitch, Yaw]. Here, Roll, Pitch, and Yaw are the roll angle, pitch angle, and yaw angle of the driver's head, respectively.

제2 입력 데이터는 상술한 운전자 데이터에 포함된 파라미터들 각각을 360으로 나눈 값을 원소로 가지는 배열로 결정된다. 제2 입력 데이터는 시선 각도 데이터 및 헤드포즈 데이터의 개수에 따라 (n, 7) 크기를 갖는 배열일 수 있다. 제2 입력 데이터는 제2 LSTM 모델(220)에 인가되기 전에 제1 입력 데이터와 마찬가지로 s 크기를 갖는 시간 단위로 확장된 배열로 변환된다. 이에 따라, 제2 입력 데이터는 (n, s, 7) 크기를 갖는 배열일 수 있다.The second input data is determined as an array having as an element a value obtained by dividing each of the parameters included in the above-described driver data by 360. The second input data may be an array having a size of (n, 7) according to the number of gaze angle data and head pose data. Like the first input data, the second input data is converted into an array extended in units of time having a size of s before being applied to the second LSTM model 220 . Accordingly, the second input data may be an array having a size of (n, s, 7).

프로세서(120)는, 제1 입력 데이터 및 제2 입력 데이터를 LSTM 모델에 인가 전에 차량 전방의 객체 데이터에 기초하여 결정된 제1 배열 데이터 및 차량의 CAN 데이터에 기초하여 결정된 제2 배열 데이터를 결합하여 제1 입력 데이터를 생성하고, 생성된 제1 입력 데이터를 제1 LSTM 모델(210)로 인가할 수 있다. 또는, 프로세서(120)는 메모리에 기 저장된 제1 입력 데이터를 제1 LSTM 모델(210)로 인가할 수도 있다.The processor 120 combines the first arrangement data determined based on the object data in front of the vehicle and the second arrangement data determined based on the CAN data of the vehicle before applying the first input data and the second input data to the LSTM model to obtain First input data may be generated, and the generated first input data may be applied to the first LSTM model 210 . Alternatively, the processor 120 may apply the first input data pre-stored in the memory to the first LSTM model 210 .

프로세서(120)는, 제1 입력 데이터 및 제2 입력 데이터를 LSTM 모델에 인가 전에 차량의 운전자 데이터에 기초하여 제2 입력 데이터를 결정할 수 있다. 또는, 프로세서(120)는 메모리에 기 저장된 제2 입력 데이터를 제2 LSTM 모델(220)로 인가할 수도 있다.The processor 120 may determine second input data based on driver data of the vehicle before applying the first and second input data to the LSTM model. Alternatively, the processor 120 may apply the second input data pre-stored in the memory to the second LSTM model 220 .

제1 LSTM 모델(210) 및 제2 LSTM 모델(220)은 인가받은 제1 입력 데이터 및 제2 입력 데이터에 기초하여 제1-1 출력 데이터 및 제1-2 출력 데이터를 생성한다. 생성된 제1-1 출력 데이터 및 제1-2 출력 데이터 각각의 차원 크기는 서로 동일하다. 예를 들어, 제1-1 출력 데이터 및 제1-2 출력 데이터 각각의 차원 크기는 동일하게 (n, m)일 수 있다. 여기서, m은 각 LSTM 모델에 대하여 기 설정된 피쳐 크기(즉, 출력 크기)이다.The first LSTM model 210 and the second LSTM model 220 generate 1-1 output data and 1-2 output data based on the authorized first input data and second input data. Dimensional sizes of the generated 1-1 output data and 1-2 output data are identical to each other. For example, the dimensional size of each of the 1-1 output data and the 1-2 output data may be identically (n, m). Here, m is a preset feature size (ie, output size) for each LSTM model.

상술한 본 개시의 제1 LSTM 모델(210) 및 제2 LSTM 모델(220)에 따르면, 각 LSTM 모델에 인가되는 입력 데이터, 즉 제1 입력 데이터 및 제2 입력 데이터는 동일한 비중을 가지고 LSTM 모델에 각각 인가된다. 따라서, 후술할 회귀 모델(230)에서는 제2 입력 데이터에 연관된 운전자 데이터의 중요도가 제1 입력 데이터에 연관된 객체 데이터 및 CAN 데이터의 중요도 보다 더 높아지게 되고, 이에 따라 위험도 예측의 성능이 향상될 수 있다.According to the first LSTM model 210 and the second LSTM model 220 of the present disclosure described above, the input data applied to each LSTM model, that is, the first input data and the second input data have the same weight and each is authorized. Therefore, in the regression model 230 to be described later, the importance of driver data associated with the second input data becomes higher than the importance of object data and CAN data associated with the first input data, and accordingly, the performance of risk prediction can be improved. .

- 회귀 모델- Regression model

회귀 모델(230)은 제1 LSTM 모델(210) 및 제2 LSTM 모델(220)로부터의 제1-1 출력 데이터 및 제1-2 출력 데이터를 인가받는다. 회귀 모델(230)의 입력 데이터는 제1-1 출력 데이터 및 제1-2 출력 데이터를 결합한 데이터이므로 (n, 2m)의 크기를 갖는 배열일 수 있다.The regression model 230 receives 1-1 output data and 1-2 output data from the first LSTM model 210 and the second LSTM model 220 . The input data of the regression model 230 may be an array having a size of (n, 2m) because it is data obtained by combining the 1-1 output data and the 1-2 output data.

회귀 모델(230)은 제1-1 출력 데이터 및 제1-2 출력 데이터 및 위험도 라벨 데이터에 기초하여 차량의 위험도 예측을 위한 학습 과정을 수행한다.The regression model 230 performs a learning process for predicting the risk level of the vehicle based on the 1-1 output data, the 1-2 output data, and the risk label data.

위험도 라벨 데이터는 상술한 CAN 데이터 및 운전자 데이터에 기초하여 분류되는 차량의 위험도에 대응된다. 차량의 위험도는 CAN 데이터 및 운전자 데이터 각각의 값에 따라 복수의 레벨을 가질 수 있다. The risk level label data corresponds to the level of risk of the vehicle classified based on the above-described CAN data and driver data. The risk level of the vehicle may have a plurality of levels according to values of each of the CAN data and the driver data.

도 5는 본 개시의 일 예에 따른 차량의 위험도를 설명하기 위한 것이다.5 is for explaining a risk level of a vehicle according to an example of the present disclosure.

도 5를 참조하면, 차량의 위험도는 운전자 상태(즉, 운전자 데이터) 및 차량 동적 상태(즉, CAN 데이터)에 따라 위험, 보통 및 안전 영역에 속할 수 있다. 또한, 도시되지는 않았으나 각 영역 내 구체적인 위험도 레벨이 0 내지 5의 값으로 나타내어질 수 있다. 즉, 위험도 라벨 데이터는 제1 입력 데이터 및 제2 입력 데이터에 기초하여 시계열 데이터(n) 별로 위험도 레벨을 갖는 일련의 데이터 집합을 의미할 수 있다.Referring to FIG. 5 , the risk level of a vehicle may belong to dangerous, normal, and safe areas according to a driver's condition (ie, driver data) and a vehicle's dynamic status (ie, CAN data). In addition, although not shown, a specific risk level in each area may be represented by a value of 0 to 5. That is, the risk label data may refer to a series of data sets having risk levels for each time series data (n) based on the first input data and the second input data.

위험도 라벨 데이터는 전처리될 수 있다.Risk label data can be preprocessed.

도 6a 내지 도 6c는 위험도 라벨 데이터의 전처리를 설명하기 위한 것이다.6A to 6C are for explaining pre-processing of risk label data.

도 6a 내지 도 6c를 참조하면, 예를 들어 프로세서(120)는 위험도 라벨 데이터에서 위험도 레벨이 0인 데이터를 제외할 수 있다. 프로세서(120)는 위험도 레벨 0 데이터가 제외된 위험도 라벨 데이터가 복수인 경우 복수의 위험도 라벨 데이터를 평균 연산 처리할 수 있다. 프로세서(120)는 평균 연산 처리된 위험도 라벨 데이터를 기 설정된 윈도우 단위 마다 스무딩(smoothing)할 수 있다. 프로세서(120)는 스무딩된 위험도 라벨 데이터를 0 내지 1 값을 갖도록 스케일링(scaling)할 수 있다.Referring to FIGS. 6A to 6C , for example, the processor 120 may exclude data having a risk level of 0 from risk label data. When there is a plurality of risk label data excluding the risk level 0 data, the processor 120 may perform an average operation on the plurality of risk label data. The processor 120 may perform average operation-processed risk label data for each preset window unit. The processor 120 may scale the smoothed risk label data to have a value of 0 to 1.

회귀 모델(230)은 학습 과정에서 손실 모델(loss model)을 사용한다. 예를 들어, 회귀 모델(230)은 RMSLE(root mean squared log error) 모델을 사용할 수 있다. RMSLE 모델은

Figure 112021103632215-pat00001
으로 나타낼 수 있다. 여기서,
Figure 112021103632215-pat00002
는 예측 값(예를 들어, 예측 데이터)이고,
Figure 112021103632215-pat00003
는 실제 값(예를 들어, 위험도 라벨 데이터)이다. 이와 같은 RMSLE 모델은 아웃라이어(outlier)에 강건하고, 저측정(under estimation)에 보다 큰 패널티를 부여할 수 있다. 따라서, 상대적으로 적은 양의 위험 데이터도 커버할 수 있다.The regression model 230 uses a loss model in a learning process. For example, the regression model 230 may use a root mean squared log error (RMSLE) model. The RMSLE model is
Figure 112021103632215-pat00001
can be expressed as here,
Figure 112021103632215-pat00002
is the predicted value (e.g., predicted data),
Figure 112021103632215-pat00003
is the actual value (eg, risk label data). Such an RMSLE model is robust to outliers and can impose a larger penalty on under estimation. Therefore, even a relatively small amount of risk data can be covered.

회귀 모델(230)은 상술한 바와 같이 손실 모델에 기초하여 역전파를 수행한다. 역전파는 상술한 바와 같이 회귀 모델(230)에서 제1 LSTM 모델(210) 및 제2 LSTM 모델(220) 방향으로 수행된다.The regression model 230 performs backpropagation based on the loss model as described above. Backpropagation is performed in the direction of the first LSTM model 210 and the second LSTM model 220 in the regression model 230 as described above.

회귀 모델(230)의 학습 과정에서 획득되는 예측 데이터는 후처리될 수 있다. 예를 들어, 프로세서(120)는 회귀 모델(230)로부터 획득한 예측 데이터를 기 설정된 윈도우 단위로 스무딩할 수 있다. 예를 들어, 예측 시점이 t이고 기 설정된 윈도우 단위가 5인 경우, 프로세서(120)는 (t-4) 내지 t 시점 각각의 예측 데이터를 평균 연산 처리하여 t 시점의 예측 데이터로 사용할 수 있다.Prediction data obtained in the process of learning the regression model 230 may be post-processed. For example, the processor 120 may smooth the prediction data acquired from the regression model 230 in units of a preset window. For example, when the predicted time point is t and the preset window unit is 5, the processor 120 may perform an average operation on the predicted data of time points (t-4) to time t and use it as the predicted data of time t.

도 7a 내지 도 7b는 본 개시의 일 예에 따른 회귀 모델의 성능을 설명하기 위한 것이다.7A to 7B are for explaining performance of a regression model according to an example of the present disclosure.

도 7a를 참조하면, 손실 모델을 MSE(mean squared error) 모델로 채택하고 예측 데이터를 후처리하지 않은 경우, 정답 값과 예측 값에 다소 차이가 나는 것을 확인할 수 있다.Referring to FIG. 7A , when the loss model is adopted as a mean squared error (MSE) model and the predicted data is not post-processed, it can be seen that there is a slight difference between the correct value and the predicted value.

도 7b를 참조하면, 본 개시와 같이 손실 모델을 RMSLE 모델로 채택하고 예측 데이터를 후처리한 경우, 정답 값과 예측 값 간 갭이 줄어들고 튀는 값이 줄어드는 것을 확인할 수 있다.Referring to FIG. 7B , when the loss model is adopted as the RMSLE model and the predicted data is post-processed as in the present disclosure, it can be seen that the gap between the correct value and the predicted value is reduced and the bouncing value is reduced.

프로세서(120)는, 상술한 본 개시의 다양한 예들에 따라 차량 위험도 예측 모델(200)을 학습시키고, 학습시킨 차량 위험도 예측 모델(200)에 기초하여 차량의 위험도를 예측할 수 있다.The processor 120 may learn the vehicle risk level prediction model 200 according to various examples of the present disclosure and predict the risk level of the vehicle based on the trained vehicle risk level prediction model 200 .

예를 들어, 프로세서(120)는 송수신기(110)를 통해 실시간 객체 데이터, 실시간 CAN 데이터 및 실시간 운전자 데이터를 수신하고, 실시간 객체 데이터, 실시간 CAN 데이터 및 실시간 운전자 데이터에 기초하여 제1 LSTM 모델(210), 제2 LSTM 모델(220) 및 회귀 모델(230)로부터 상기 차량의 위험도를 예측할 수 있다.For example, the processor 120 receives real-time object data, real-time CAN data, and real-time driver data through the transceiver 110, and generates a first LSTM model 210 based on the real-time object data, real-time CAN data, and real-time driver data. ), the second LSTM model 220 and the regression model 230 can predict the risk of the vehicle.

상술한 본 개시의 차량 위험도 예측 장치에 따르면, 차량의 위험도 예측 시 데이터의 유형 별로 중요도가 상이하게 고려되어 인공지능 모델에 입력될 수 있다. 이에 따라, 보다 향상된 위험도 예측 성능을 가질 수 있다. According to the above-described vehicle risk predicting device of the present disclosure, when predicting the risk of a vehicle, the importance level may be differently considered for each type of data and input to an artificial intelligence model. Accordingly, it is possible to have more improved risk prediction performance.

이하에서는, 상술한 차량 위험도 예측 장치에 의해 수행되는 차량 위험도 예측 방법에 대하여 설명한다. 이하에서는, 앞서 설명한 부분과 중복되는 부분에 대한 상세한 설명은 생략한다.Hereinafter, a vehicle risk prediction method performed by the above-described vehicle risk prediction apparatus will be described. Hereinafter, detailed descriptions of overlapping parts with those described above will be omitted.

차량 위험도 예측 방법Vehicle Hazard Prediction Method

도 8은 본 개시의 일 예에 따른 차량 위험도 예측 방법의 순서도이다.8 is a flowchart of a vehicle risk prediction method according to an example of the present disclosure.

도 8을 참조하면, S110에서, 차량 위험도 예측 장치는 제1 입력 데이터 및 제2 입력 데이터를 제1 LSTM 및 제2 LSTM 모델(220)에 각각 인가하여 제1-1 출력 데이터 및 제1-2 출력 데이터를 획득한다. 여기서, 제1 입력 데이터는 차량 전방의 객체 데이터에 기초하여 결정된 제1 배열 데이터 및 차량의 CAN 데이터에 기초하여 결정된 제2 배열 데이터를 결합하여 생성된 것이고, 제2 입력 데이터는 차량의 운전자 데이터에 기초하여 결정된다.Referring to FIG. 8 , in S110, the vehicle risk prediction apparatus applies the first input data and the second input data to the first LSTM and the second LSTM model 220, respectively, to generate the 1-1 output data and the 1-2 output data. Get the output data. Here, the first input data is generated by combining first arrangement data determined based on object data in front of the vehicle and second arrangement data determined based on CAN data of the vehicle, and the second input data corresponds to driver data of the vehicle. is determined based on

S120에서, 차량 위험도 예측 장치는 제1-1 출력 데이터 및 제1-2 출력 데이터를 회귀 모델(230)에 인가하고, 제1-1 출력 데이터 및 제1-2 출력 데이터 및 위험도 라벨 데이터에 기초하여 회귀 모델(230)을 학습시킨다.In S120, the vehicle risk prediction device applies the 1-1 output data and the 1-2 output data to the regression model 230, and based on the 1-1 output data and the 1-2 output data and the risk label data. Thus, the regression model 230 is trained.

S130에서, 차량 위험도 예측 장치는 송수신기(110)를 통해 실시간 객체 데이터, 실시간 CAN 데이터 및 실시간 운전자 데이터를 수신한다.In S130 , the vehicle risk prediction apparatus receives real-time object data, real-time CAN data, and real-time driver data through the transceiver 110 .

S140에서, 차량 위험도 예측 장치는 수신한 실시간 객체 데이터, 실시간 CAN 데이터 및 실시간 운전자 데이터에 기초하여 제1 LSTM 모델(210), 제2 LSTM 모델(220) 및 회귀 모델(230)로부터 차량의 위험도를 예측한다.In S140, the vehicle risk prediction apparatus calculates the vehicle risk from the first LSTM model 210, the second LSTM model 220, and the regression model 230 based on the received real-time object data, real-time CAN data, and real-time driver data. predict

상술한 설명에서 제안 방식에 대한 일례들 또한 본 개시의 구현 방법들 중 하나로 포함될 수 있으므로, 일종의 제안 방식들로 간주될 수 있음은 명백한 사실이다. 또한, 상기 설명한 제안 방식들은 독립적으로 구현될 수 도 있지만, 일부 제안 방식들의 조합 (혹은 병합) 형태로 구현될 수 도 있다. Since the examples of the proposed schemes in the above description may also be included as one of the implementation methods of the present disclosure, it is obvious that they can be regarded as a kind of proposed schemes. In addition, the above-described proposed schemes may be implemented independently, but may also be implemented in a combination (or merged) form of some proposed schemes.

상술한 바와 같이 개시된 본 개시의 예들은 본 개시와 관련된 기술분야의 통상의 기술자가 본 개시를 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 개시의 예들을 참조하여 설명하였지만, 해당 기술 분야의 통상의 기술자는 본 개시의 예들을 다양하게 수정 및 변경시킬 수 있다. 따라서, 본 개시는 여기에 기재된 예들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.Examples of the present disclosure disclosed as described above are provided to enable those skilled in the art to implement and practice the present disclosure. Although the above has been described with reference to examples of the present disclosure, a person skilled in the art may variously modify and change the examples of the present disclosure. Thus, the present disclosure is not intended to be limited to the examples set forth herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein.

100: 차량 위험도 예측 장치
110: 송수신기 120: 프로세서
130: 메모리
100: vehicle risk prediction device
110: transceiver 120: processor
130: memory

Claims (13)

적어도 하나의 프로세서; 및
상기 적어도 하나의 프로세서에 동작 가능하게 연결되어 상기 적어도 하나의 프로세서가 동작들을 수행하도록 하는 적어도 하나의 명령어들(instructions)을 저장하는 적어도 하나의 메모리(memory)를 포함하고,
상기 동작들은,
제1 입력 데이터 및 제2 입력 데이터를 제1 LSTM(long short term memory) 및 제2 LSTM 모델에 각각 인가하여 제1-1 출력 데이터 및 제1-2 출력 데이터를 획득하고,
상기 제1-1 출력 데이터, 상기 제1-2 출력 데이터 및 위험도 라벨 데이터에 기초하여 회귀 모델을 학습시키고,
상기 제1 입력 데이터는 차량 전방의 객체 데이터에 기초하여 결정된 제1 배열 데이터 및 상기 차량의 CAN(controller area network) 데이터에 기초하여 결정된 제2 배열 데이터를 결합하여 생성된 것이고,
상기 제2 입력 데이터는 상기 차량의 운전자 데이터에 기초하여 결정되는,
차량 위험도 예측 장치.
at least one processor; and
at least one memory operatively connected to the at least one processor to store at least one instruction that causes the at least one processor to perform operations;
These actions are
Obtaining 1-1 output data and 1-2 output data by applying the first input data and the second input data to a first long short term memory (LSTM) and a second LSTM model, respectively;
Learning a regression model based on the 1-1 output data, the 1-2 output data and risk label data;
The first input data is generated by combining first arrangement data determined based on object data in front of the vehicle and second arrangement data determined based on CAN (controller area network) data of the vehicle,
The second input data is determined based on driver data of the vehicle.
Vehicle risk prediction device.
제1항에 있어서,
상기 객체 데이터는 상기 차량의 전방 카메라로부터 촬영된 전방 영상 데이터에 포함된 적어도 하나의 객체의 종류 데이터 및 상기 적어도 하나의 객체의 좌표 데이터를 포함하는,
차량 위험도 예측 장치.
According to claim 1,
The object data includes type data of at least one object included in front image data photographed from a front camera of the vehicle and coordinate data of the at least one object,
Vehicle risk prediction device.
제2항에 있어서,
상기 제1 배열 데이터는 상기 적어도 하나의 객체 중 상기 좌표 데이터가 기 설정된 영역 내 포함되지 않는 객체 및 상기 종류 데이터가 기 설정된 종류에 매칭되지 않는 객체를 제외한 나머지 객체에 기초하여 결정되는,
차량 위험도 예측 장치.
According to claim 2,
The first arrangement data is determined based on the remaining objects except for objects whose coordinate data is not included in a preset area among the at least one object and objects whose type data does not match a preset type,
Vehicle risk prediction device.
제1항에 있어서,
상기 제2 배열 데이터는 상기 CAN 데이터가 기 설정된 위험 행동 유형 테이블에 포함된 복수의 위험 행동 유형 중 적어도 하나에 매핑되는지 여부에 기초하여 결정되는,
차량 위험도 예측 장치.
According to claim 1,
The second arrangement data is determined based on whether the CAN data is mapped to at least one of a plurality of risky action types included in a preset risky action type table.
Vehicle risk prediction device.
제1항에 있어서,
상기 운전자 데이터는 상기 차량의 내부 카메라로부터 촬영된 내부 영상 데이터에 포함된 운전자의 시선 각도 데이터 및 상기 운전자의 헤드포즈(headpose) 데이터를 포함하는,
차량 위험도 예측 장치.
According to claim 1,
The driver data includes driver's gaze angle data and headpose data of the driver included in internal image data captured from an internal camera of the vehicle,
Vehicle risk prediction device.
제1항에 있어서,
상기 위험도 라벨 데이터는 상기 CAN 데이터 및 상기 운전자 데이터에 기초하여 분류되는 상기 차량의 위험도에 대응되는,
차량 위험도 예측 장치.
According to claim 1,
The risk label data corresponds to the risk level of the vehicle classified based on the CAN data and the driver data.
Vehicle risk prediction device.
제1항에 있어서,
상기 제1-1 출력 데이터 및 상기 제1-2 출력 데이터 각각의 차원 크기는 서로 동일한,
차량 위험도 예측 장치.
According to claim 1,
The dimensional size of each of the 1-1 output data and the 1-2 output data is the same as each other,
Vehicle risk prediction device.
제1항에 있어서,
상기 동작들은,
상기 회귀 모델의 학습 과정에서 획득되는 예측 데이터를 기 설정된 윈도우 단위로 스무딩(smoothing)하는,
차량 위험도 예측 장치.
According to claim 1,
These actions are
Smoothing the prediction data obtained in the learning process of the regression model in units of preset windows,
Vehicle risk prediction device.
송수신기(transceiver);
적어도 하나의 프로세서; 및
상기 적어도 하나의 프로세서에 동작 가능하게 연결되어 상기 적어도 하나의 프로세서가 동작들을 수행하도록 하는 적어도 하나의 명령어들(instructions)을 저장하는 적어도 하나의 메모리(memory)를 포함하고,
상기 동작들은,
제1 입력 데이터 및 제2 입력 데이터를 제1 LSTM(long short term memory) 및 제2 LSTM 모델에 각각 인가하여 제1-1 출력 데이터 및 제1-2 출력 데이터를 획득하고,
여기서 상기 제1 입력 데이터는 차량 전방의 객체 데이터에 기초하여 결정된 제1 배열 데이터 및 상기 차량의 CAN(controller area network) 데이터에 기초하여 결정된 제2 배열 데이터를 결합하여 생성된 것이고,
상기 제2 입력 데이터는 상기 차량의 운전자 데이터이고,
상기 제1-1 출력 데이터, 상기 제1-2 출력 데이터 및 위험도 라벨 데이터에 기초하여 회귀 모델을 학습시키고,
상기 송수신기를 통해 실시간 객체 데이터, 실시간 CAN 데이터 및 실시간 운전자 데이터를 수신하고,
상기 실시간 객체 데이터, 상기 실시간 CAN 데이터 및 상기 실시간 운전자 데이터에 기초하여 상기 제1 LSTM 모델, 상기 제2 LSTM 모델 및 상기 회귀 모델로부터 상기 차량의 위험도를 예측하는,
차량 위험도 예측 장치.
transceiver;
at least one processor; and
at least one memory operatively connected to the at least one processor to store at least one instruction that causes the at least one processor to perform operations;
These actions are
Obtaining 1-1 output data and 1-2 output data by applying the first input data and the second input data to a first long short term memory (LSTM) and a second LSTM model, respectively;
Here, the first input data is generated by combining first arrangement data determined based on object data in front of the vehicle and second arrangement data determined based on controller area network (CAN) data of the vehicle,
The second input data is driver data of the vehicle,
Learning a regression model based on the 1-1 output data, the 1-2 output data and risk label data;
Receiving real-time object data, real-time CAN data, and real-time driver data through the transceiver;
Predicting the risk of the vehicle from the first LSTM model, the second LSTM model, and the regression model based on the real-time object data, the real-time CAN data, and the real-time driver data,
Vehicle risk prediction device.
차량 위험도 예측 장치에 의해 수행되는 차량 위험도 예측 방법으로서,
제1 입력 데이터 및 제2 입력 데이터를 제1 LSTM(long short term memory) 및 제2 LSTM 모델에 각각 인가하여 제1-1 출력 데이터 및 제1-2 출력 데이터를 획득하는 단계; 및
상기 제1-1 출력 데이터, 상기 제1-2 출력 데이터 및 위험도 라벨 데이터에 기초하여 회귀 모델을 학습시키는 단계를 포함하고,
상기 제1 입력 데이터는 차량 전방의 객체 데이터에 기초하여 결정된 제1 배열 데이터 및 상기 차량의 CAN(controller area network) 데이터에 기초하여 결정된 제2 배열 데이터를 결합하여 생성된 것이고,
상기 제2 입력 데이터는 상기 차량의 운전자 데이터에 기초하여 결정되는,
차량 위험도 예측 방법.
A vehicle risk prediction method performed by a vehicle risk prediction device,
obtaining 1-1 output data and 1-2 output data by applying the first input data and the second input data to a first long short term memory (LSTM) model and a second LSTM model, respectively; and
Learning a regression model based on the 1-1 output data, the 1-2 output data and risk label data;
The first input data is generated by combining first arrangement data determined based on object data in front of the vehicle and second arrangement data determined based on CAN (controller area network) data of the vehicle,
The second input data is determined based on driver data of the vehicle.
Vehicle Hazard Prediction Method.
제10항에 있어서,
상기 객체 데이터는 상기 차량의 전방 카메라로부터 촬영된 전방 영상 데이터에 포함된 적어도 하나의 객체의 종류 데이터 및 상기 적어도 하나의 객체의 좌표 데이터를 포함하는,
차량 위험도 예측 방법.
According to claim 10,
The object data includes type data of at least one object included in front image data photographed from a front camera of the vehicle and coordinate data of the at least one object,
Vehicle Hazard Prediction Method.
제11항에 있어서,
상기 제1 배열 데이터는 상기 적어도 하나의 객체 중 상기 좌표 데이터가 기 설정된 영역 내 포함되지 않는 객체 및 상기 종류 데이터가 기 설정된 종류에 매칭되지 않는 객체를 제외한 나머지 객체에 기초하여 결정되고,
상기 제2 배열 데이터는 상기 CAN 데이터가 기 설정된 위험 행동 유형 테이블에 포함된 복수의 위험 행동 유형 중 적어도 하나에 매핑되는지 여부에 기초하여 결정되는,
차량 위험도 예측 방법.
According to claim 11,
The first arrangement data is determined based on the remaining objects except for the object in which the coordinate data is not included in a preset area and the object whose type data does not match the preset type among the at least one object,
The second arrangement data is determined based on whether the CAN data is mapped to at least one of a plurality of risky action types included in a preset risky action type table.
Vehicle Hazard Prediction Method.
제10항에 있어서,
송수신기를 통해 실시간 객체 데이터, 실시간 CAN 데이터 및 실시간 운전자 데이터를 수신하는 단계; 및
상기 실시간 객체 데이터, 상기 실시간 CAN 데이터 및 상기 실시간 운전자 데이터에 기초하여 상기 제1 LSTM 모델, 상기 제2 LSTM 모델 및 상기 회귀 모델로부터 상기 차량의 위험도를 예측하는 단계를 더 포함하는,
차량 위험도 예측 방법.
According to claim 10,
receiving real-time object data, real-time CAN data, and real-time driver data through a transceiver; and
Predicting the risk of the vehicle from the first LSTM model, the second LSTM model, and the regression model based on the real-time object data, the real-time CAN data, and the real-time driver data,
Vehicle Hazard Prediction Method.
KR1020210119257A 2021-09-07 2021-09-07 Vehicle risk prediction device and method therefor KR102552051B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210119257A KR102552051B1 (en) 2021-09-07 2021-09-07 Vehicle risk prediction device and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210119257A KR102552051B1 (en) 2021-09-07 2021-09-07 Vehicle risk prediction device and method therefor

Publications (2)

Publication Number Publication Date
KR20230036425A KR20230036425A (en) 2023-03-14
KR102552051B1 true KR102552051B1 (en) 2023-07-06

Family

ID=85502588

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210119257A KR102552051B1 (en) 2021-09-07 2021-09-07 Vehicle risk prediction device and method therefor

Country Status (1)

Country Link
KR (1) KR102552051B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101555444B1 (en) 2014-07-10 2015-10-06 현대모비스 주식회사 An apparatus mounted in vehicle for situational awareness and a method thereof
JP2020126625A (en) 2019-01-31 2020-08-20 株式会社ストラドビジョンStradvision,Inc. Autonomous travel auxiliary spectacles for assisting autonomous travel by identifying human state and travel environment through image analysis based on deep neutral network

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170286826A1 (en) 2016-03-30 2017-10-05 Nec Laboratories America, Inc. Real-time deep learning for danger prediction using heterogeneous time-series sensor data
KR101998787B1 (en) * 2017-11-27 2019-07-11 (주)에이텍티앤 Safety driving method
US20200388154A1 (en) 2019-07-11 2020-12-10 Lg Electronics Inc. Method of providing a service of a vehicle in automated vehicle and highway systems and apparatus therefor
KR20210086014A (en) * 2019-12-31 2021-07-08 주식회사 퓨전소프트 A integrated driver status determination and notification service system for driver drowsiness and carelessness diagnosis based on driver image and bio-metric and vehicle driving information

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101555444B1 (en) 2014-07-10 2015-10-06 현대모비스 주식회사 An apparatus mounted in vehicle for situational awareness and a method thereof
JP2020126625A (en) 2019-01-31 2020-08-20 株式会社ストラドビジョンStradvision,Inc. Autonomous travel auxiliary spectacles for assisting autonomous travel by identifying human state and travel environment through image analysis based on deep neutral network

Also Published As

Publication number Publication date
KR20230036425A (en) 2023-03-14

Similar Documents

Publication Publication Date Title
US10990096B2 (en) Reinforcement learning on autonomous vehicles
CN107697070B (en) Driving behavior prediction method and device and unmanned vehicle
US10889301B2 (en) Method for controlling vehicle and intelligent computing apparatus for controlling the vehicle
EP3690846B1 (en) Learning method and learning device for determining whether to switch mode of vehicle from manual driving mode to autonomous driving mode by performing trajectory-based behavior analysis on recent driving route
US10809719B2 (en) Systems and methods of controlling an autonomous vehicle using an enhanced trajectory following configuration
US20170083021A1 (en) Method and apparatus for determining a desired trajectory for a vehicle
US20200326719A1 (en) Autonomous decisions in traffic situations with planning control
US11842545B2 (en) Object collision prediction method and apparatus
AU2021200302B2 (en) Method for sharing models among autonomous vehicles based on blockchain
CN110619307A (en) Traffic light state determination method, device, equipment and storage medium
CN113291321A (en) Vehicle track prediction method, device, equipment and storage medium
CN111332283A (en) Method and system for controlling a motor vehicle
US20230367934A1 (en) Method and apparatus for constructing vehicle dynamics model and method and apparatus for predicting vehicle state information
Aparna et al. Steering angle prediction for autonomous driving using federated learning: The impact of vehicle-to-everything communication
KR20210089284A (en) Correction of video for remote control of the vehicle in autonomous driving system
CN113139696A (en) Trajectory prediction model construction method and trajectory prediction method and device
KR20210052287A (en) Teleoperated driving of a vehicle
KR102552051B1 (en) Vehicle risk prediction device and method therefor
CN110478911A (en) The unmanned method of intelligent game vehicle and intelligent vehicle, equipment based on machine learning
Zhuang et al. Robust auto-parking: Reinforcement learning based real-time planning approach with domain template
CN112396183A (en) Method, device and equipment for automatic driving decision and computer storage medium
CN111640321B (en) Congestion relieving method based on edge calculation and related equipment
CN110347166B (en) Sensor control method for automatic driving system
CN116683958A (en) Phase shift configuration method and system for intelligent reflecting surface in Internet of vehicles system
US20220237433A1 (en) Data driven recognition of anomalies and continuation of sensor data

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant