KR102552051B1 - Vehicle risk prediction device and method therefor - Google Patents
Vehicle risk prediction device and method therefor Download PDFInfo
- Publication number
- KR102552051B1 KR102552051B1 KR1020210119257A KR20210119257A KR102552051B1 KR 102552051 B1 KR102552051 B1 KR 102552051B1 KR 1020210119257 A KR1020210119257 A KR 1020210119257A KR 20210119257 A KR20210119257 A KR 20210119257A KR 102552051 B1 KR102552051 B1 KR 102552051B1
- Authority
- KR
- South Korea
- Prior art keywords
- data
- vehicle
- risk
- determined based
- driver
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 29
- 230000015654 memory Effects 0.000 claims abstract description 15
- 230000006403 short-term memory Effects 0.000 claims abstract description 8
- 230000009471 action Effects 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 9
- 238000009499 grossing Methods 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 11
- 238000013058 risk prediction model Methods 0.000 description 8
- 238000013473 artificial intelligence Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000004884 risky behavior Effects 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0004—In digital systems, e.g. discrete-time systems involving sampling
- B60W2050/0005—Processor details or data handling, e.g. memory registers or chip architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B60W2420/42—
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Theoretical Computer Science (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Automation & Control Theory (AREA)
- Biomedical Technology (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Traffic Control Systems (AREA)
Abstract
본 개시의 일 양상으로, 적어도 하나의 프로세서; 및 상기 적어도 하나의 프로세서에 동작 가능하게 연결되어 상기 적어도 하나의 프로세서가 동작들을 수행하도록 하는 적어도 하나의 명령어들(instructions)을 저장하는 적어도 하나의 메모리(memory)를 포함하고, 상기 동작들은, 제1 입력 데이터 및 제2 입력 데이터를 제1 LSTM(long short term memory) 및 제2 LSTM 모델에 각각 인가하여 제1-1 출력 데이터 및 제1-2 출력 데이터를 획득하고, 상기 제1-1 출력 데이터, 상기 제1-2 출력 데이터 및 위험도 라벨 데이터에 기초하여 상기 회귀 모델을 학습시키고, 상기 제1 입력 데이터는 차량 전방의 객체 데이터에 기초하여 결정된 제1 배열 데이터 및 상기 차량의 CAN(controller area network) 데이터에 기초하여 결정된 제2 배열 데이터를 결합하여 생성된 것이고, 상기 제2 입력 데이터는 상기 차량의 운전자 데이터에 기초하여 결정되는, 차량 위험도 예측 장치이다.In one aspect of the disclosure, at least one processor; and at least one memory operatively connected to the at least one processor to store at least one instruction that causes the at least one processor to perform operations, wherein the operations include: First input data and second input data are applied to a first long short term memory (LSTM) and a second LSTM model, respectively, to obtain 1-1 output data and 1-2 output data, and the 1-1 output The regression model is trained based on data, the 1-2 output data and risk label data, and the first input data is first array data determined based on object data in front of the vehicle and CAN (controller area of the vehicle) It is generated by combining second arrangement data determined based on network) data, and the second input data is a vehicle risk prediction device determined based on driver data of the vehicle.
Description
본 개시 (present disclosure)는 차량 위험도 예측 장치 및 방법에 관한 것이다.The present disclosure relates to an apparatus and method for predicting vehicle risk.
지능형운전자보조시스템(ADAS, Advanced Driver Assistance System)은 첨단 감지 센서를 통해 주행 중 위험 상황을 차량이 인지하고 판단하여, 스스로 제어하거나 운전자가 미리 위험요소를 감지할 수 있도록 알려주는 운전자 보조 시스템이다. 많은 완성차 업체에서 지능형운전자보조시스템을 차량에 적용하고 있음에도 불구하고 2019년 교통사고 건수는 전년도 대비 5.7% 증가하였고 그중 75.5%는 차대차 사고이다. 따라서, 차대차 사고 위험 상황을 더 정확하게 인지하기 위해 차량 위험도 예측 연구가 다방면으로 이루어지고 있다.Advanced Driver Assistance System (ADAS) is a driver assistance system that allows the vehicle to recognize and determine dangerous situations while driving through state-of-the-art detection sensors and control them on its own or informs the driver of risk factors in advance. Despite the fact that many automakers are applying intelligent driver assistance systems to their vehicles, the number of traffic accidents in 2019 increased by 5.7% compared to the previous year, and 75.5% of them were vehicle-to-vehicle accidents. Therefore, in order to more accurately recognize the risk situation of a vehicle-to-vehicle accident, research on vehicle risk prediction is being conducted in various fields.
본 개시의 다양한 예들은 전방 카메라, 내부 카메라 및 CAN(controller area network) 데이터를 활용한 차량 위험도 예측 장치 및 방법을 제공하기 위함이다.Various examples of the present disclosure are to provide an apparatus and method for predicting vehicle risk using a front camera, an inside camera, and CAN (controller area network) data.
본 개시의 다양한 예들에서 이루고자 하는 기술적 과제들은 이상에서 언급한 사항들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 이하 설명할 본 개시의 다양한 예들로부터 당해 기술분야에서 통상의 지식을 가진 자에 의해 고려될 수 있다.The technical problems to be achieved in various examples of the present disclosure are not limited to those mentioned above, and other technical problems not mentioned above can be solved by those skilled in the art from various examples of the present disclosure to be described below. can be considered by
본 개시의 일 양상으로, 적어도 하나의 프로세서; 및 상기 적어도 하나의 프로세서에 동작 가능하게 연결되어 상기 적어도 하나의 프로세서가 동작들을 수행하도록 하는 적어도 하나의 명령어들(instructions)을 저장하는 적어도 하나의 메모리(memory)를 포함하고, 상기 동작들은, 제1 입력 데이터 및 제2 입력 데이터를 제1 LSTM(long short term memory) 및 제2 LSTM 모델에 각각 인가하여 제1-1 출력 데이터 및 제1-2 출력 데이터를 획득하고, 상기 제1-1 출력 데이터, 상기 제1-2 출력 데이터 및 위험도 라벨 데이터에 기초하여 상기 회귀 모델을 학습시키고, 상기 제1 입력 데이터는 차량 전방의 객체 데이터에 기초하여 결정된 제1 배열 데이터 및 상기 차량의 CAN(controller area network) 데이터에 기초하여 결정된 제2 배열 데이터를 결합하여 생성된 것이고, 상기 제2 입력 데이터는 상기 차량의 운전자 데이터에 기초하여 결정되는, 차량 위험도 예측 장치이다.In one aspect of the disclosure, at least one processor; and at least one memory operatively connected to the at least one processor to store at least one instruction that causes the at least one processor to perform operations, wherein the operations include: First input data and second input data are applied to a first long short term memory (LSTM) and a second LSTM model, respectively, to obtain 1-1 output data and 1-2 output data, and the 1-1 output The regression model is trained based on data, the 1-2 output data and risk label data, and the first input data is first array data determined based on object data in front of the vehicle and CAN (controller area of the vehicle) It is generated by combining second arrangement data determined based on network) data, and the second input data is a vehicle risk prediction device determined based on driver data of the vehicle.
예를 들어, 상기 객체 데이터는 상기 차량의 전방 카메라로부터 촬영된 전방 영상 데이터에 포함된 적어도 하나의 객체의 종류 데이터 및 상기 적어도 하나의 객체의 좌표 데이터를 포함할 수 있다.For example, the object data may include type data of at least one object included in front image data photographed by a front camera of the vehicle and coordinate data of the at least one object.
예를 들어, 상기 제1 배열 데이터는 상기 적어도 하나의 객체 중 상기 좌표 데이터가 기 설정된 영역 내 포함되지 않는 객체 및 상기 종류 데이터가 기 설정된 종류에 매칭되지 않는 객체를 제외한 나머지 객체에 기초하여 결정될 수 있다.For example, the first arrangement data may be determined based on the remaining objects except for an object whose coordinate data is not included in a preset area and an object whose type data does not match a preset type among the at least one object. there is.
예를 들어, 상기 제2 배열 데이터는 상기 CAN 데이터가 기 설정된 위험 행동 유형 테이블에 포함된 복수의 위험 행동 유형 중 적어도 하나에 매핑되는지 여부에 기초하여 결정될 수 있다.For example, the second arrangement data may be determined based on whether the CAN data is mapped to at least one of a plurality of risky action types included in a preset risky action type table.
예를 들어, 상기 운전자 데이터는 상기 차량의 내부 카메라로부터 촬영된 내부 영상 데이터에 포함된 운전자의 시선 각도 데이터 및 상기 운전자의 헤드포즈(headpose) 데이터를 포함할 수 있다.For example, the driver data may include gaze angle data of the driver and headpose data of the driver included in internal image data captured by an internal camera of the vehicle.
예를 들어, 상기 위험도 라벨 데이터는 상기 CAN 데이터 및 상기 운전자 데이터에 기초하여 분류되는 상기 차량의 위험도에 대응될 수 있다.For example, the risk label data may correspond to the risk level of the vehicle classified based on the CAN data and the driver data.
예를 들어, 상기 제1-1 출력 데이터 및 상기 제1-2 출력 데이터 각각의 차원 크기는 서로 동일할 수 있다.For example, the dimensional sizes of the 1-1 output data and the 1-2 output data may be the same.
예를 들어, 상기 동작들은, 상기 회귀 모델의 학습 과정에서 획득되는 예측 데이터를 기 설정된 윈도우 단위로 스무딩(smoothing)할 수 있다.For example, the operations may smooth prediction data obtained in the process of learning the regression model in units of a preset window.
본 개시의 다른 일 양상으로, 송수신기(transceiver); 적어도 하나의 프로세서; 및 상기 적어도 하나의 프로세서에 동작 가능하게 연결되어 상기 적어도 하나의 프로세서가 동작들을 수행하도록 하는 적어도 하나의 명령어들(instructions)을 저장하는 적어도 하나의 메모리(memory)를 포함하고, 상기 동작들은, 제1 입력 데이터 및 제2 입력 데이터를 제1 LSTM(long short term memory) 및 제2 LSTM 모델에 각각 인가하여 제1-1 출력 데이터 및 제1-2 출력 데이터를 획득하고, 여기서 상기 제1 입력 데이터는 차량 전방의 객체 데이터에 기초하여 결정된 제1 배열 데이터 및 상기 차량의 CAN(controller area network) 데이터에 기초하여 결정된 제2 배열 데이터를 결합하여 생성된 것이고, 상기 제2 입력 데이터는 상기 차량의 운전자 데이터이고, 상기 제1-1 출력 데이터, 상기 제1-2 출력 데이터 및 위험도 라벨 데이터에 기초하여 상기 회귀 모델을 학습시키고, 상기 송수신기를 통해 실시간 객체 데이터, 실시간 CAN 데이터 및 실시간 운전자 데이터를 수신하고, 상기 실시간 객체 데이터, 상기 실시간 CAN 데이터 및 상기 실시간 운전자 데이터에 기초하여 상기 제1 LSTM 모델, 상기 제2 LSTM 모델 및 상기 회귀 모델로부터 상기 차량의 위험도를 예측하는, 차량 위험도 예측 장치이다.In another aspect of the present disclosure, a transceiver; at least one processor; and at least one memory operatively connected to the at least one processor to store at least one instruction that causes the at least one processor to perform operations, wherein the operations include: First input data and second input data are applied to a first long short term memory (LSTM) and a second LSTM model, respectively, to obtain 1-1 output data and 1-2 output data, wherein the first input data is generated by combining first arrangement data determined based on object data in front of the vehicle and second arrangement data determined based on controller area network (CAN) data of the vehicle, and the second input data is the driver of the vehicle data, learning the regression model based on the 1-1 output data, the 1-2 output data and risk label data, and receiving real-time object data, real-time CAN data and real-time driver data through the transceiver, , A vehicle risk prediction device that predicts the risk of the vehicle from the first LSTM model, the second LSTM model, and the regression model based on the real-time object data, the real-time CAN data, and the real-time driver data.
본 개시의 다른 일 양상으로, 차량 위험도 예측 장치에 의해 수행되는 차량 위험도 예측 방법으로서, 제1 입력 데이터 및 제2 입력 데이터를 제1 LSTM(long short term memory) 및 제2 LSTM 모델에 각각 인가하여 제1-1 출력 데이터 및 제1-2 출력 데이터를 획득하는 단계; 및 상기 제1-1 출력 데이터, 상기 제1-2 출력 데이터 및 위험도 라벨 데이터에 기초하여 상기 회귀 모델을 학습시키는 단계를 포함하고, 상기 제1 입력 데이터는 차량 전방의 객체 데이터에 기초하여 결정된 제1 배열 데이터 및 상기 차량의 CAN(controller area network) 데이터에 기초하여 결정된 제2 배열 데이터를 결합하여 생성된 것이고, 상기 제2 입력 데이터는 상기 차량의 운전자 데이터에 기초하여 결정되는, 차량 위험도 예측 방법이다.In another aspect of the present disclosure, a vehicle risk prediction method performed by a vehicle risk prediction device, by applying first input data and second input data to a first long short term memory (LSTM) and a second LSTM model, respectively Obtaining 1-1st output data and 1-2nd output data; and learning the regression model based on the 1-1 output data, the 1-2 output data, and the risk label data, wherein the first input data is determined based on object data in front of the vehicle. A method for predicting vehicle risk, generated by combining first sequence data and second sequence data determined based on CAN (controller area network) data of the vehicle, wherein the second input data is determined based on driver data of the vehicle am.
예를 들어, 상기 객체 데이터는 상기 차량의 전방 카메라로부터 촬영된 전방 영상 데이터에 포함된 적어도 하나의 객체의 종류 데이터 및 상기 적어도 하나의 객체의 좌표 데이터를 포함할 수 있다.For example, the object data may include type data of at least one object included in front image data photographed by a front camera of the vehicle and coordinate data of the at least one object.
예를 들어, 상기 제1 배열 데이터는 상기 적어도 하나의 객체 중 상기 좌표 데이터가 기 설정된 영역 내 포함되지 않는 객체 및 상기 종류 데이터가 기 설정된 종류에 매칭되지 않는 객체를 제외한 나머지 객체에 기초하여 결정되고, 상기 제2 배열 데이터는 상기 CAN 데이터가 기 설정된 위험 행동 유형 테이블에 포함된 복수의 위험 행동 유형 중 적어도 하나에 매핑되는지 여부에 기초하여 결정될 수 있다.For example, the first array data is determined based on the remaining objects except for an object whose coordinate data is not included in a preset area and an object whose type data does not match a preset type among the at least one object, and , The second array data may be determined based on whether the CAN data is mapped to at least one of a plurality of risky action types included in a preset risky action type table.
예를 들어, 송수신기를 통해 실시간 객체 데이터, 실시간 CAN 데이터 및 실시간 운전자 데이터를 수신하는 단계; 및 상기 실시간 객체 데이터, 상기 실시간 CAN 데이터 및 상기 실시간 운전자 데이터에 기초하여 상기 제1 LSTM 모델, 상기 제2 LSTM 모델 및 상기 회귀 모델로부터 상기 차량의 위험도를 예측하는 단계를 더 포함할 수 있다.For example, receiving real-time object data, real-time CAN data and real-time driver data through a transceiver; and predicting the risk of the vehicle from the first LSTM model, the second LSTM model, and the regression model based on the real-time object data, the real-time CAN data, and the real-time driver data.
상술한 본 개시의 다양한 예들은 본 개시의 바람직한 예들 중 일부에 불과하며, 본 개시의 다양한 예들의 기술적 특징들이 반영된 여러 가지 예들이 당해 기술분야의 통상적인 지식을 가진 자에 의해 이하 상술할 상세한 설명을 기반으로 도출되고 이해될 수 있다.The various examples of the present disclosure described above are only some of the preferred examples of the present disclosure, and various examples in which the technical features of the various examples of the present disclosure are reflected are detailed descriptions to be detailed below by those of ordinary skill in the art. It can be derived and understood based on.
본 개시의 다양한 예들에 따르면 다음과 같은 효과가 있다.According to various examples of the present disclosure, the following effects are obtained.
본 개시의 다양한 예들에 따르면, 전방 카메라, 내부 카메라 및 CAN(controller area network) 데이터를 활용한 차량 위험도 예측 장치 및 방법이 제공될 수 있다.According to various examples of the present disclosure, an apparatus and method for predicting vehicle risk using a front camera, an inside camera, and CAN (controller area network) data may be provided.
본 개시의 다양한 예들로부터 얻을 수 있는 효과들은 이상에서 언급된 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 이하의 상세한 설명을 기반으로 당해 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다.Effects obtainable from various examples of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned are clearly derived to those skilled in the art based on the detailed description below and can be understood.
이하에 첨부되는 도면들은 본 개시의 다양한 예들에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 본 개시의 다양한 예들을 제공한다. 다만, 본 개시의 다양한 예들의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시예로 구성될 수 있다. 각 도면에서의 참조 번호 (reference numerals) 들은 구조적 구성요소 (structural elements) 를 의미한다.
도 1은 본 개시의 일 예에 따른 차량 위험도 예측 장치의 블록도이다.
도 2는 본 개시의 일 예에 따른 차량 위험도 예측 장치에 의해 수행되는 차량 위험도 예측 모델의 개요도이다.
도 3은 본 개시의 일 예에 따른 제2 배열 데이터 결정을 위한 위험 행동 유형 테이블을 도시한 것이다.
도 4a 및 도 4b는 운전자 데이터를 설명하기 위한 것이다.
도 5는 본 개시의 일 예에 따른 차량의 위험도를 설명하기 위한 것이다.
도 6a 내지 도 6c는 위험도 라벨 데이터의 전처리를 설명하기 위한 것이다.
도 7a 내지 도 7b는 본 개시의 일 예에 따른 회귀 모델의 성능을 설명하기 위한 것이다.
도 8은 본 개시의 일 예에 따른 차량 위험도 예측 방법의 순서도이다.The accompanying drawings are provided to aid understanding of various examples of the present disclosure, and provide various examples of the present disclosure together with detailed descriptions. However, technical features of various examples of the present disclosure are not limited to specific drawings, and features disclosed in each drawing may be combined with each other to form a new embodiment. Reference numerals in each figure mean structural elements.
1 is a block diagram of an apparatus for predicting vehicle risk according to an example of the present disclosure.
2 is a schematic diagram of a vehicle risk prediction model performed by an apparatus for predicting vehicle risk according to an example of the present disclosure.
3 illustrates a risk behavior type table for determining second arrangement data according to an example of the present disclosure.
4A and 4B are for explaining driver data.
5 is for explaining a risk level of a vehicle according to an example of the present disclosure.
6A to 6C are for explaining pre-processing of risk label data.
7A to 7B are for explaining performance of a regression model according to an example of the present disclosure.
8 is a flowchart of a vehicle risk prediction method according to an example of the present disclosure.
이하, 본 발명에 따른 구현들을 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 구현을 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 구현 형태를 나타내고자 하는 것이 아니다. 이하의 상세한 설명은 본 발명의 완전한 이해를 제공하기 위해서 구체적 세부사항을 포함한다. 그러나 당업자는 본 개시가 이러한 구체적 세부사항 없이도 실시될 수 있음을 안다.Hereinafter, implementations according to the present invention will be described in detail with reference to the accompanying drawings. The detailed description set forth below in conjunction with the accompanying drawings is intended to describe exemplary implementations of the invention, and is not intended to represent the only implementations in which the invention may be practiced. The following detailed description includes specific details for the purpose of providing a thorough understanding of the present invention. However, one skilled in the art recognizes that the present disclosure may be practiced without these specific details.
몇몇 경우, 본 개시의 개념이 모호해지는 것을 피하기 위하여 공지의 구조 및 장치는 생략되거나, 각 구조 및 장치의 핵심기능을 중심으로 한 블록도 형식으로 도시될 수 있다. 또한, 본 개시 전체에서 동일한 구성요소에 대해서는 동일한 도면 부호를 사용하여 설명한다.In some cases, in order to avoid obscuring the concept of the present disclosure, well-known structures and devices may be omitted or may be shown in block diagram form centering on core functions of each structure and device. In addition, the same reference numerals are used to describe like elements throughout the present disclosure.
본 발명의 개념에 따른 다양한 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 다양한 예들을 도면에 예시하고 본 개시에 상세하게 설명하고자 한다. 그러나 이는 본 발명의 개념에 따른 다양한 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Since various examples according to the concept of the present invention can be made with various changes and have various forms, various examples will be illustrated in the drawings and described in detail in the present disclosure. However, this is not intended to limit the various examples according to the concept of the present invention to specific disclosed forms, and includes modifications, equivalents, or substitutes included in the spirit and scope of the present invention.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another component, for example, without departing from the scope of rights according to the concept of the present invention, a first component may be named a second component, Similarly, the second component may also be referred to as the first component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 "~사이에"와 "바로~사이에" 또는 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle. Expressions describing the relationship between components, such as "between" and "directly between" or "directly adjacent to" should be interpreted similarly.
본 개시의 다양한 예에서, “/” 및 “,”는 “및/또는”을 나타내는 것으로 해석되어야 한다. 예를 들어, “A/B”는 “A 및/또는 B”를 의미할 수 있다. 나아가, “A, B”는 “A 및/또는 B”를 의미할 수 있다. 나아가, “A/B/C”는 “A, B 및/또는 C 중 적어도 어느 하나”를 의미할 수 있다. 나아가, “A, B, C”는 “A, B 및/또는 C 중 적어도 어느 하나”를 의미할 수 있다.In various examples of this disclosure, “/” and “,” should be interpreted as indicating “and/or”. For example, “A/B” may mean “A and/or B”. Furthermore, “A, B” may mean “A and/or B”. Furthermore, “A/B/C” may mean “at least one of A, B and/or C”. Furthermore, “A, B, C” may mean “at least one of A, B and/or C”.
본 개시의 다양한 예에서, “또는”은 “및/또는”을 나타내는 것으로 해석되어야 한다. 예를 들어, “A 또는 B”는 “오직 A”, “오직 B”, 및/또는 “A 및 B 모두”를 포함할 수 있다. 다시 말해, “또는”은 “부가적으로 또는 대안적으로”를 나타내는 것으로 해석되어야 한다.In various examples of this disclosure, “or” should be interpreted as indicating “and/or”. For example, “A or B” may include “only A”, “only B”, and/or “both A and B”. In other words, "or" should be interpreted as indicating "in addition or alternatively."
본 개시에서 사용한 용어는 단지 특정한 다양한 예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 개시에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in this disclosure are only used to describe specific various examples, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this disclosure, the terms "comprise" or "having" are intended to designate that the described feature, number, step, operation, component, part, or combination thereof exists, but one or more other features or numbers, It should be understood that the presence or addition of steps, operations, components, parts, or combinations thereof is not precluded.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 개시에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 이하, 본 개시의 다양한 예들을 첨부된 도면을 참조하여 상세하게 설명한다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present disclosure, it should not be interpreted in an ideal or excessively formal meaning. don't Hereinafter, various examples of the present disclosure will be described in detail with reference to the accompanying drawings.
차량 위험도 예측 장치Vehicle risk prediction device
도 1은 본 개시의 일 예에 따른 차량 위험도 예측 장치의 블록도이다.1 is a block diagram of an apparatus for predicting vehicle risk according to an example of the present disclosure.
도 1을 참조하면, 본 개시의 일 예에 따른 차량 위험도 예측 장치(100)는 송수신기(110), 프로세서(120) 및 메모리(130)를 포함한다.Referring to FIG. 1 , an
송수신기(110)는 프로세서(120)와 연결될 수 있고, 유/무선 신호를 송신 및/또는 수신할 수 있다. 예를 들어, 송수신기(110)는 차량 내 통신 네트워크를 통해 차량의 다양한 ECU(electronic control unit)와 연결될 수 있다. 여기서, 차량 내 통신 네트워크는 예를 들어 CAN(controller area network), FlexRay, Lin(local interconnect network) 또는 이더넷(Ethernet)일 수 있으나, 이에 한정되는 것은 아니다.The
또는, 송수신기(110)는 유/무선 통신망을 통해 서버 및/또는 단말과 연결될 수 있다. 여기서, 무선 통신망은 이동 통신망, 무선 LAN, 근거리 무선 통신망 등을 포함할 수 있다. 예를 들어, 무선 통신망은 LTE, LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 또는 GSM(Global System for Mobile Communications) 등 중 적어도 하나를 사용하는 셀룰러 통신을 포함할 수 있다. 예를 들어, 무선 통신망은 WiFi(wireless fidelity), 블루투스, 블루투스 저전력(BLE), 지그비 (Zigbee), NFC(near field communication), 또는 라디오 프리퀀시(RF) 중 적어도 하나를 포함할 수 있다.Alternatively, the
유/무선 통신망을 통해 송수신기(110)와 연결되는 서버 및/또는 단말은 예를 들어 후술할 본 개시의 다양한 예들에 따른 인공지능 모델의 입력 데이터로 사용되기 위해 차량으로부터 수집한 데이터, 학습 데이터 및/또는 지도 데이터 등을 송수신기(110)와 주고 받을 수 있다.A server and/or a terminal connected to the
송수신기(110)는 송신기 및 수신기를 포함할 수 있다. 송수신기(110)는 RF(radio frequency) 유닛과 혼용될 수 있다. 송수신기(110)는 프로세서(120)의 제어를 통해 차량의 다양한 ECU, 서버 및 단말과 신호나 데이터를 주고받을 수 있다.The
프로세서(120)는 적어도 하나를 포함할 수 있고, 메모리(130) 및/또는 송수신기(110)를 제어하며, 본 개시의 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(120)는 송수신기(110)를 통해 신호나 데이터를 수신하고, 신호나 데이터에 포함된 정보를 메모리(130)에 저장할 수 있다. 또한, 프로세서(120)는 메모리(130)에 저장된 정보를 처리하여 신호나 데이터를 생성한 뒤, 생성한 신호나 데이터를 송수신기(110)를 통해 전송할 수 있다.The
메모리(130)는 적어도 하나를 포함할 수 있고, 프로세서(120)와 연결될 수 있고, 프로세서(120)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(130)는 프로세서(120)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 개시의 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 또는, 메모리(130)는 본 개시의 다양한 예들에 따른 데이터나 다양한 예들에 따른 차량 위험도 예측 모델 등을 저장할 수 있다.The
이하에서는, 차량 위험도 예측 장치(100)의 다양한 동작 예들에 대하여 설명한다. 하기 다양한 동작 예들은 상술한 적어도 하나의 프로세서(120)의 동작에 포함되는 것일 수 있다.Hereinafter, various operation examples of the vehicle
도 2는 본 개시의 일 예에 따른 차량 위험도 예측 장치에 의해 수행되는 차량 위험도 예측 모델의 개요도이다. 본 개시에서 차량 위험도 예측 모델(200)은 차량 위험도 예측 장치(100)가 차량 위험도 예측을 수행하는데 사용되는 인공지능 모델을 의미할 수 있다. 다시 말해서, 차량 위험도 예측 모델(200)은 본 개시의 다양한 예들에 따른 차량 위험도 예측 장치(100)의 다양한 동작 예들을 수행하기 위한 인공지능 모델일 수 있다. 차량 위험도 예측 모델(200)에 포함된 각 인공지능 모델의 동작들은 상술한 프로세서(120)의 동작에 포함되는 것일 수 있다.2 is a schematic diagram of a vehicle risk prediction model performed by an apparatus for predicting vehicle risk according to an example of the present disclosure. In the present disclosure, the vehicle
도 2를 참조하면, 차량 위험도 예측 모델(200)은 제1 LSTM(long short term memory) 모델(210), 제2 LSTM 모델(220) 및 회귀 모델(230)을 포함한다.Referring to FIG. 2 , the vehicle
본 개시에서, LSTM 모델(또는, LSTM 구조)은 RNN(recurrent neural network) 모델의 일종으로 히든-상태(hidden-state) 및 장기적인 정보를 담당하는 셀-상태를 포함한다. 히든-상태에서, ht-1은 히든-상태 초기 벡터이고, ht는 새로운 히든-상태 벡터이다. 셀-상태에서, ct-1은 셀-상태 초기 벡터이고, ct는 새로운 셀-상태 벡터이다. LSTM 모델은 입력 데이터(ut), 히든-상태 초기 벡터 및 셀-상태 초기 벡터를 새로운 벡터에 대하여 얼마나 반영할지를 히든-상태 및 셀-상태에 기초하여 결정하고 출력값(ht)을 생성한다.In the present disclosure, an LSTM model (or LSTM structure) is a type of recurrent neural network (RNN) model and includes a hidden-state and a cell-state responsible for long-term information. In the hidden-state, h t-1 is the hidden-state initial vector, and h t is the new hidden-state vector. In cell-state, c t-1 is the cell-state initial vector, and c t is the new cell-state vector. The LSTM model determines how much to reflect the input data (u t ), the hidden-state initial vector, and the cell-state initial vector with respect to the new vector based on the hidden-state and cell-state, and generates an output value (h t ).
제1 LSTM 모델(210)은 제1 입력 데이터를 인가받아 제1-1 출력 데이터를 생성하고, 제2 LSTM 모델(220)은 제2 입력 데이터를 인가받아 제1-2 출력 데이터를 생성한다. 즉, 프로세서(120)는 제1 입력 데이터 및 제2 입력 데이터를 제1 LSTM 모델(210) 및 제2 LSTM 모델(220)에 각각 인가하여 제1-1 출력 데이터 및 제1-2 출력 데이터를 획득한다. 제1-1 출력 데이터 및 제1-2 출력 데이터는 제1 LSTM 모델(210) 및 제2 LSTM 모델(220)의 피쳐(feature)이다.The
회귀 모델(230)은 제1-1 출력 데이터 및 제1-2 출력 데이터를 인가받고, 인가받은 제1-1 출력 데이터 및 제1-2 출력 데이터 및 위험도 라벨 데이터에 기초하여 차량의 위험도 예측을 위한 학습 과정을 수행한다.The
예를 들어, 회귀 모델(230)은 제1-1 출력 데이터 및 제1-2 출력 데이터에 기초하여 획득한 출력 값, 즉 예측 데이터와 위험도 라벨 데이터를 비교하여 역전파(backpropagation)를 통해 학습 과정을 수행할 수 있다. 역전파는 예측 데이터와 위험도 라벨 데이터 간 오차와 연관된 손실 모델(loss model)을 기준으로 수행된다. 이때, 역전파는 회귀 모델(230)뿐만 아니라, 상술한 제1 LSTM 모델(210) 및 제2 LSTM 모델(220) 방향으로 수행된다. 따라서, 위험도 라벨 데이터는 전체 인공지능 모델의 학습에 관여하게 된다.For example, the
회귀 모델(230)은 덴스 레이어(dense layer)를 포함하는 구조일 수 있다.The
상술한 본 개시의 차량 위험도 예측 모델(200)을 요약하면, 제1 LSTM 모델(210)과 제2 LSTM 모델(220)에 서로 상이한 입력 데이터를 인가하여 각각의 출력 데이터(즉, 피쳐)를 획득하고, 획득한 출력 데이터를 회귀 모델(230)에 인가하여 회귀 모델(230)을 학습시키는 구조를 갖는다.Summarizing the above-described vehicle
이하에서는, 차량 위험도 예측 모델(200)에 포함된 각 인공지능 모델에 대하여 상세히 설명한다.Hereinafter, each artificial intelligence model included in the vehicle
- 제1 LSTM 모델 및 제2 LSTM 모델- 1st LSTM model and 2nd LSTM model
제1 LSTM 모델(210) 및 제2 LSTM 모델(220)은 상술한 바와 같이 서로 다른 데이터인 제1 입력 데이터 및 제2 입력 데이터를 각각 인가받는다.As described above, the
제1 입력 데이터는, 차량 전방의 객체 데이터에 기초하여 결정된 제1 배열 데이터 및 차량의 CAN 데이터에 기초하여 결정된 제2 배열 데이터를 결합하여 생성된 것이다. The first input data is generated by combining first arrangement data determined based on object data in front of the vehicle and second arrangement data determined based on CAN data of the vehicle.
객체 데이터는 차량의 전방 카메라로부터 촬영된 전방 영상 데이터에 포함된 적어도 하나의 객체의 종류 데이터 및 적어도 하나의 객체의 좌표 데이터를 포함한다. 즉, 객체 데이터는 차량 주행 중 차량의 전방에 위치한 장애물 등의 객체와 연관된 데이터이다.The object data includes type data of at least one object and coordinate data of at least one object included in front image data photographed by a front camera of the vehicle. That is, the object data is data associated with an object such as an obstacle located in front of the vehicle while the vehicle is driving.
제1 배열 데이터는 객체 데이터에 기초하여 결정되며, (n, o) 크기를 갖는 배열일 수 있다. 여기서, n은 제1 입력 데이터의 개수 및 제2 입력 데이터의 개수에 대응되는 값으로 시계열 데이터의 개수에 대응되는 값이며, o는 제1 배열 데이터 결정에 사용된 객체의 종류의 개수이다.The first array data is determined based on object data and may be an array having a size of (n, o). Here, n is a value corresponding to the number of first input data and the number of second input data, and is a value corresponding to the number of time series data, and o is the number of object types used to determine the first array data.
예를 들어, 제1 배열 데이터는 전방 영상 데이터에 포함된 적어도 하나의 객체 중 좌표 데이터가 기 설정된 영역 내 포함되지 않는 객체 및 종류 데이터가 기 설정된 종류에 매칭되지 않는 객체를 제외한 나머지 객체에 기초하여 결정된다. 이때, 나머지 객체의 종류의 개수가 상술한 o에 대응될 수 있다.For example, the first array data is based on the remaining objects except for objects whose coordinate data is not included in a preset area among at least one object included in the front image data and objects whose type data does not match a preset type It is decided. In this case, the number of types of the remaining objects may correspond to the above-mentioned o.
제1 배열 데이터의 각 원소의 값은 특정 시점에서 전방 영상 데이터에 포함된 각 객체 별 개수에 대응될 수 있다. 예를 들어, 좌표 데이터 및 종류 데이터에 기초하여 전방 영상 데이터에 포함된 모든 객체들 중 12개의 객체가 제1 배열 데이터 결정에 사용되고 12개의 객체 중 첫 번째 객체 및 12번째 객체만 각각 2개씩 검출된 경우, 제1 배열 데이터는 (2, 0, ..., 0, 2)로 결정될 수 있다.A value of each element of the first array data may correspond to the number of each object included in the front image data at a specific point in time. For example, based on the coordinate data and the type data, 12 objects among all objects included in the front image data are used to determine the first array data, and only two first objects and two twelfth objects are detected among the 12 objects. In this case, the first array data may be determined as (2, 0, ..., 0, 2).
CAN 데이터는 CAN 통신을 통해 차량에 대하여 획득한 데이터로서 예를 들어 차량의 스티어링 각도, 가속도, 속도 및 헤딩 등과 같은 CAN 통신에 사용되는 다양한 파라미터들을 포함할 수 있다.CAN data is data acquired about a vehicle through CAN communication, and may include, for example, various parameters used in CAN communication, such as a steering angle, acceleration, speed, and heading of a vehicle.
제2 배열 데이터는 CAN 데이터에 기초하여 결정되며, (n, d) 크기를 갖는 배열일 수 있다. 여기서, d는 복수의 위험 행동 유형의 개수이다.The second array data is determined based on the CAN data and may be an array having a size of (n, d). Here, d is the number of risk behavior types.
도 3은 본 개시의 일 예에 따른 제2 배열 데이터 결정을 위한 위험 행동 유형 테이블을 도시한 것이다.3 illustrates a risk behavior type table for determining second arrangement data according to an example of the present disclosure.
도 3을 참조하면, 제2 배열 데이터 결정을 위한 위험 행동 유형은 상술한 CAN 데이터에 따라 총 11개로 분류되며, 11개의 위험 행동 유형 중 제2 배열 데이터 결정을 위해 사용되는 적어도 하나의 위험 행동 유형이 선택될 수 있다. 선택된 적어도 하나의 위험 행동 유형의 개수가 상술한 d에 대응될 수 있다.Referring to FIG. 3 , a total of 11 risky behavior types for determining second array data are classified according to the above-described CAN data, and at least one risky behavior type used for determining second array data among the 11 risky behavior types can be selected. The number of selected at least one type of risky behavior may correspond to d described above.
CAN 데이터가 도 3과 같이 기 설정된 위험 행동 유형 테이블에 포함된 복수의 위험 행동 유형 중 적어도 하나에 매핑되는지 여부에 따라 제2 배열 데이터가 결정된다.The second arrangement data is determined according to whether CAN data is mapped to at least one of a plurality of risky action types included in the preset risky action type table as shown in FIG. 3 .
제2 배열 데이터의 각 원소의 값은, 특정 시점에서 CAN 데이터가 위험 행동 유형에 매핑되는 경우 1이고 아니면 0일 수 있다. 예를 들어, d = 10이고 특정 시점의 CAN 데이터가 첫 번째 위험 행동 유형에만 매핑되는 경우, 제2 배열 데이터는 (1, 0, ..., 0, 0)로 결정될 수 있다.A value of each element of the second array data may be 1 when the CAN data is mapped to a risky behavior type at a specific time point, or 0 otherwise. For example, when d = 10 and CAN data at a specific time point is mapped only to the first risk behavior type, the second array data may be determined as (1, 0, ..., 0, 0).
상술한 제1 배열 데이터 및 제2 배열 데이터를 결합한 제1 입력 데이터가 제1 LSTM 모델(210)의 입력 데이터로 사용된다. 제1 입력 데이터는 제1 LSTM 모델(210)에 인가되기 전에 s 크기를 갖는 시간 단위(time step)로 확장된 배열로 변환된다. 여기서, s는 1 이상의 정수로서 후술할 스무딩 윈도우의 크기와 동일한 값일 수 있다. 이에 따라, 제1 입력 데이터는 (n, s, o + d) 크기를 갖는 배열일 수 있다.First input data obtained by combining the above-described first array data and second array data is used as input data of the
제2 입력 데이터는, 차량의 운전자 데이터에 기초하여 결정된다.The second input data is determined based on driver data of the vehicle.
운전자 데이터는 차량의 내부 카메라로부터 촬영된 내부 영상 데이터에 포함된 운전자의 시선 각도 데이터 및 운전자의 헤드포즈(headpose) 데이터를 포함한다. 여기서, 내부 영상 데이터는 운전자의 정면 이미지 및/또는 측면 이미지를 포함할 수 있다.The driver data includes the driver's gaze angle data and the driver's headpose data included in the internal image data captured by the vehicle's internal camera. Here, the internal image data may include a front image and/or a side image of the driver.
도 4a 및 도 4b는 운전자 데이터를 설명하기 위한 것이다.4A and 4B are for explaining driver data.
도 4a를 참조하면, 운전자 데이터에 포함되는 시선 각도 데이터는 [Lphi, Ltheta, Rphi, Rtheta]일 수 있다. 여기서, Lphi 및 Ltheta 각각은 왼쪽 눈의 y축 각도와 x축 각도이고, Rphi 및 Rtheta 각각은 오른쪽 눈의 y축 각도와 x축 각도이다.Referring to FIG. 4A , gaze angle data included in driver data may be [Lphi, Ltheta, Rphi, Rtheta]. Here, Lphi and Ltheta are the y-axis angle and the x-axis angle of the left eye, respectively, and Rphi and Rtheta are the y-axis angle and the x-axis angle of the right eye, respectively.
도 4b를 참조하면, 운전자 데이터에 포함되는 헤드포즈 데이터는 [Roll, Pitch, Yaw]일 수 있다. 여기서, Roll, Pitch 및 Yaw 각각은 운전자 머리의 롤 각도, 피치 각도 및 요우 각도이다.Referring to FIG. 4B , head pose data included in driver data may be [Roll, Pitch, Yaw]. Here, Roll, Pitch, and Yaw are the roll angle, pitch angle, and yaw angle of the driver's head, respectively.
제2 입력 데이터는 상술한 운전자 데이터에 포함된 파라미터들 각각을 360으로 나눈 값을 원소로 가지는 배열로 결정된다. 제2 입력 데이터는 시선 각도 데이터 및 헤드포즈 데이터의 개수에 따라 (n, 7) 크기를 갖는 배열일 수 있다. 제2 입력 데이터는 제2 LSTM 모델(220)에 인가되기 전에 제1 입력 데이터와 마찬가지로 s 크기를 갖는 시간 단위로 확장된 배열로 변환된다. 이에 따라, 제2 입력 데이터는 (n, s, 7) 크기를 갖는 배열일 수 있다.The second input data is determined as an array having as an element a value obtained by dividing each of the parameters included in the above-described driver data by 360. The second input data may be an array having a size of (n, 7) according to the number of gaze angle data and head pose data. Like the first input data, the second input data is converted into an array extended in units of time having a size of s before being applied to the
프로세서(120)는, 제1 입력 데이터 및 제2 입력 데이터를 LSTM 모델에 인가 전에 차량 전방의 객체 데이터에 기초하여 결정된 제1 배열 데이터 및 차량의 CAN 데이터에 기초하여 결정된 제2 배열 데이터를 결합하여 제1 입력 데이터를 생성하고, 생성된 제1 입력 데이터를 제1 LSTM 모델(210)로 인가할 수 있다. 또는, 프로세서(120)는 메모리에 기 저장된 제1 입력 데이터를 제1 LSTM 모델(210)로 인가할 수도 있다.The
프로세서(120)는, 제1 입력 데이터 및 제2 입력 데이터를 LSTM 모델에 인가 전에 차량의 운전자 데이터에 기초하여 제2 입력 데이터를 결정할 수 있다. 또는, 프로세서(120)는 메모리에 기 저장된 제2 입력 데이터를 제2 LSTM 모델(220)로 인가할 수도 있다.The
제1 LSTM 모델(210) 및 제2 LSTM 모델(220)은 인가받은 제1 입력 데이터 및 제2 입력 데이터에 기초하여 제1-1 출력 데이터 및 제1-2 출력 데이터를 생성한다. 생성된 제1-1 출력 데이터 및 제1-2 출력 데이터 각각의 차원 크기는 서로 동일하다. 예를 들어, 제1-1 출력 데이터 및 제1-2 출력 데이터 각각의 차원 크기는 동일하게 (n, m)일 수 있다. 여기서, m은 각 LSTM 모델에 대하여 기 설정된 피쳐 크기(즉, 출력 크기)이다.The
상술한 본 개시의 제1 LSTM 모델(210) 및 제2 LSTM 모델(220)에 따르면, 각 LSTM 모델에 인가되는 입력 데이터, 즉 제1 입력 데이터 및 제2 입력 데이터는 동일한 비중을 가지고 LSTM 모델에 각각 인가된다. 따라서, 후술할 회귀 모델(230)에서는 제2 입력 데이터에 연관된 운전자 데이터의 중요도가 제1 입력 데이터에 연관된 객체 데이터 및 CAN 데이터의 중요도 보다 더 높아지게 되고, 이에 따라 위험도 예측의 성능이 향상될 수 있다.According to the
- 회귀 모델- Regression model
회귀 모델(230)은 제1 LSTM 모델(210) 및 제2 LSTM 모델(220)로부터의 제1-1 출력 데이터 및 제1-2 출력 데이터를 인가받는다. 회귀 모델(230)의 입력 데이터는 제1-1 출력 데이터 및 제1-2 출력 데이터를 결합한 데이터이므로 (n, 2m)의 크기를 갖는 배열일 수 있다.The
회귀 모델(230)은 제1-1 출력 데이터 및 제1-2 출력 데이터 및 위험도 라벨 데이터에 기초하여 차량의 위험도 예측을 위한 학습 과정을 수행한다.The
위험도 라벨 데이터는 상술한 CAN 데이터 및 운전자 데이터에 기초하여 분류되는 차량의 위험도에 대응된다. 차량의 위험도는 CAN 데이터 및 운전자 데이터 각각의 값에 따라 복수의 레벨을 가질 수 있다. The risk level label data corresponds to the level of risk of the vehicle classified based on the above-described CAN data and driver data. The risk level of the vehicle may have a plurality of levels according to values of each of the CAN data and the driver data.
도 5는 본 개시의 일 예에 따른 차량의 위험도를 설명하기 위한 것이다.5 is for explaining a risk level of a vehicle according to an example of the present disclosure.
도 5를 참조하면, 차량의 위험도는 운전자 상태(즉, 운전자 데이터) 및 차량 동적 상태(즉, CAN 데이터)에 따라 위험, 보통 및 안전 영역에 속할 수 있다. 또한, 도시되지는 않았으나 각 영역 내 구체적인 위험도 레벨이 0 내지 5의 값으로 나타내어질 수 있다. 즉, 위험도 라벨 데이터는 제1 입력 데이터 및 제2 입력 데이터에 기초하여 시계열 데이터(n) 별로 위험도 레벨을 갖는 일련의 데이터 집합을 의미할 수 있다.Referring to FIG. 5 , the risk level of a vehicle may belong to dangerous, normal, and safe areas according to a driver's condition (ie, driver data) and a vehicle's dynamic status (ie, CAN data). In addition, although not shown, a specific risk level in each area may be represented by a value of 0 to 5. That is, the risk label data may refer to a series of data sets having risk levels for each time series data (n) based on the first input data and the second input data.
위험도 라벨 데이터는 전처리될 수 있다.Risk label data can be preprocessed.
도 6a 내지 도 6c는 위험도 라벨 데이터의 전처리를 설명하기 위한 것이다.6A to 6C are for explaining pre-processing of risk label data.
도 6a 내지 도 6c를 참조하면, 예를 들어 프로세서(120)는 위험도 라벨 데이터에서 위험도 레벨이 0인 데이터를 제외할 수 있다. 프로세서(120)는 위험도 레벨 0 데이터가 제외된 위험도 라벨 데이터가 복수인 경우 복수의 위험도 라벨 데이터를 평균 연산 처리할 수 있다. 프로세서(120)는 평균 연산 처리된 위험도 라벨 데이터를 기 설정된 윈도우 단위 마다 스무딩(smoothing)할 수 있다. 프로세서(120)는 스무딩된 위험도 라벨 데이터를 0 내지 1 값을 갖도록 스케일링(scaling)할 수 있다.Referring to FIGS. 6A to 6C , for example, the
회귀 모델(230)은 학습 과정에서 손실 모델(loss model)을 사용한다. 예를 들어, 회귀 모델(230)은 RMSLE(root mean squared log error) 모델을 사용할 수 있다. RMSLE 모델은 으로 나타낼 수 있다. 여기서, 는 예측 값(예를 들어, 예측 데이터)이고, 는 실제 값(예를 들어, 위험도 라벨 데이터)이다. 이와 같은 RMSLE 모델은 아웃라이어(outlier)에 강건하고, 저측정(under estimation)에 보다 큰 패널티를 부여할 수 있다. 따라서, 상대적으로 적은 양의 위험 데이터도 커버할 수 있다.The
회귀 모델(230)은 상술한 바와 같이 손실 모델에 기초하여 역전파를 수행한다. 역전파는 상술한 바와 같이 회귀 모델(230)에서 제1 LSTM 모델(210) 및 제2 LSTM 모델(220) 방향으로 수행된다.The
회귀 모델(230)의 학습 과정에서 획득되는 예측 데이터는 후처리될 수 있다. 예를 들어, 프로세서(120)는 회귀 모델(230)로부터 획득한 예측 데이터를 기 설정된 윈도우 단위로 스무딩할 수 있다. 예를 들어, 예측 시점이 t이고 기 설정된 윈도우 단위가 5인 경우, 프로세서(120)는 (t-4) 내지 t 시점 각각의 예측 데이터를 평균 연산 처리하여 t 시점의 예측 데이터로 사용할 수 있다.Prediction data obtained in the process of learning the
도 7a 내지 도 7b는 본 개시의 일 예에 따른 회귀 모델의 성능을 설명하기 위한 것이다.7A to 7B are for explaining performance of a regression model according to an example of the present disclosure.
도 7a를 참조하면, 손실 모델을 MSE(mean squared error) 모델로 채택하고 예측 데이터를 후처리하지 않은 경우, 정답 값과 예측 값에 다소 차이가 나는 것을 확인할 수 있다.Referring to FIG. 7A , when the loss model is adopted as a mean squared error (MSE) model and the predicted data is not post-processed, it can be seen that there is a slight difference between the correct value and the predicted value.
도 7b를 참조하면, 본 개시와 같이 손실 모델을 RMSLE 모델로 채택하고 예측 데이터를 후처리한 경우, 정답 값과 예측 값 간 갭이 줄어들고 튀는 값이 줄어드는 것을 확인할 수 있다.Referring to FIG. 7B , when the loss model is adopted as the RMSLE model and the predicted data is post-processed as in the present disclosure, it can be seen that the gap between the correct value and the predicted value is reduced and the bouncing value is reduced.
프로세서(120)는, 상술한 본 개시의 다양한 예들에 따라 차량 위험도 예측 모델(200)을 학습시키고, 학습시킨 차량 위험도 예측 모델(200)에 기초하여 차량의 위험도를 예측할 수 있다.The
예를 들어, 프로세서(120)는 송수신기(110)를 통해 실시간 객체 데이터, 실시간 CAN 데이터 및 실시간 운전자 데이터를 수신하고, 실시간 객체 데이터, 실시간 CAN 데이터 및 실시간 운전자 데이터에 기초하여 제1 LSTM 모델(210), 제2 LSTM 모델(220) 및 회귀 모델(230)로부터 상기 차량의 위험도를 예측할 수 있다.For example, the
상술한 본 개시의 차량 위험도 예측 장치에 따르면, 차량의 위험도 예측 시 데이터의 유형 별로 중요도가 상이하게 고려되어 인공지능 모델에 입력될 수 있다. 이에 따라, 보다 향상된 위험도 예측 성능을 가질 수 있다. According to the above-described vehicle risk predicting device of the present disclosure, when predicting the risk of a vehicle, the importance level may be differently considered for each type of data and input to an artificial intelligence model. Accordingly, it is possible to have more improved risk prediction performance.
이하에서는, 상술한 차량 위험도 예측 장치에 의해 수행되는 차량 위험도 예측 방법에 대하여 설명한다. 이하에서는, 앞서 설명한 부분과 중복되는 부분에 대한 상세한 설명은 생략한다.Hereinafter, a vehicle risk prediction method performed by the above-described vehicle risk prediction apparatus will be described. Hereinafter, detailed descriptions of overlapping parts with those described above will be omitted.
차량 위험도 예측 방법Vehicle Hazard Prediction Method
도 8은 본 개시의 일 예에 따른 차량 위험도 예측 방법의 순서도이다.8 is a flowchart of a vehicle risk prediction method according to an example of the present disclosure.
도 8을 참조하면, S110에서, 차량 위험도 예측 장치는 제1 입력 데이터 및 제2 입력 데이터를 제1 LSTM 및 제2 LSTM 모델(220)에 각각 인가하여 제1-1 출력 데이터 및 제1-2 출력 데이터를 획득한다. 여기서, 제1 입력 데이터는 차량 전방의 객체 데이터에 기초하여 결정된 제1 배열 데이터 및 차량의 CAN 데이터에 기초하여 결정된 제2 배열 데이터를 결합하여 생성된 것이고, 제2 입력 데이터는 차량의 운전자 데이터에 기초하여 결정된다.Referring to FIG. 8 , in S110, the vehicle risk prediction apparatus applies the first input data and the second input data to the first LSTM and the
S120에서, 차량 위험도 예측 장치는 제1-1 출력 데이터 및 제1-2 출력 데이터를 회귀 모델(230)에 인가하고, 제1-1 출력 데이터 및 제1-2 출력 데이터 및 위험도 라벨 데이터에 기초하여 회귀 모델(230)을 학습시킨다.In S120, the vehicle risk prediction device applies the 1-1 output data and the 1-2 output data to the
S130에서, 차량 위험도 예측 장치는 송수신기(110)를 통해 실시간 객체 데이터, 실시간 CAN 데이터 및 실시간 운전자 데이터를 수신한다.In S130 , the vehicle risk prediction apparatus receives real-time object data, real-time CAN data, and real-time driver data through the
S140에서, 차량 위험도 예측 장치는 수신한 실시간 객체 데이터, 실시간 CAN 데이터 및 실시간 운전자 데이터에 기초하여 제1 LSTM 모델(210), 제2 LSTM 모델(220) 및 회귀 모델(230)로부터 차량의 위험도를 예측한다.In S140, the vehicle risk prediction apparatus calculates the vehicle risk from the
상술한 설명에서 제안 방식에 대한 일례들 또한 본 개시의 구현 방법들 중 하나로 포함될 수 있으므로, 일종의 제안 방식들로 간주될 수 있음은 명백한 사실이다. 또한, 상기 설명한 제안 방식들은 독립적으로 구현될 수 도 있지만, 일부 제안 방식들의 조합 (혹은 병합) 형태로 구현될 수 도 있다. Since the examples of the proposed schemes in the above description may also be included as one of the implementation methods of the present disclosure, it is obvious that they can be regarded as a kind of proposed schemes. In addition, the above-described proposed schemes may be implemented independently, but may also be implemented in a combination (or merged) form of some proposed schemes.
상술한 바와 같이 개시된 본 개시의 예들은 본 개시와 관련된 기술분야의 통상의 기술자가 본 개시를 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 개시의 예들을 참조하여 설명하였지만, 해당 기술 분야의 통상의 기술자는 본 개시의 예들을 다양하게 수정 및 변경시킬 수 있다. 따라서, 본 개시는 여기에 기재된 예들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.Examples of the present disclosure disclosed as described above are provided to enable those skilled in the art to implement and practice the present disclosure. Although the above has been described with reference to examples of the present disclosure, a person skilled in the art may variously modify and change the examples of the present disclosure. Thus, the present disclosure is not intended to be limited to the examples set forth herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein.
100: 차량 위험도 예측 장치
110: 송수신기 120: 프로세서
130: 메모리100: vehicle risk prediction device
110: transceiver 120: processor
130: memory
Claims (13)
상기 적어도 하나의 프로세서에 동작 가능하게 연결되어 상기 적어도 하나의 프로세서가 동작들을 수행하도록 하는 적어도 하나의 명령어들(instructions)을 저장하는 적어도 하나의 메모리(memory)를 포함하고,
상기 동작들은,
제1 입력 데이터 및 제2 입력 데이터를 제1 LSTM(long short term memory) 및 제2 LSTM 모델에 각각 인가하여 제1-1 출력 데이터 및 제1-2 출력 데이터를 획득하고,
상기 제1-1 출력 데이터, 상기 제1-2 출력 데이터 및 위험도 라벨 데이터에 기초하여 회귀 모델을 학습시키고,
상기 제1 입력 데이터는 차량 전방의 객체 데이터에 기초하여 결정된 제1 배열 데이터 및 상기 차량의 CAN(controller area network) 데이터에 기초하여 결정된 제2 배열 데이터를 결합하여 생성된 것이고,
상기 제2 입력 데이터는 상기 차량의 운전자 데이터에 기초하여 결정되는,
차량 위험도 예측 장치.
at least one processor; and
at least one memory operatively connected to the at least one processor to store at least one instruction that causes the at least one processor to perform operations;
These actions are
Obtaining 1-1 output data and 1-2 output data by applying the first input data and the second input data to a first long short term memory (LSTM) and a second LSTM model, respectively;
Learning a regression model based on the 1-1 output data, the 1-2 output data and risk label data;
The first input data is generated by combining first arrangement data determined based on object data in front of the vehicle and second arrangement data determined based on CAN (controller area network) data of the vehicle,
The second input data is determined based on driver data of the vehicle.
Vehicle risk prediction device.
상기 객체 데이터는 상기 차량의 전방 카메라로부터 촬영된 전방 영상 데이터에 포함된 적어도 하나의 객체의 종류 데이터 및 상기 적어도 하나의 객체의 좌표 데이터를 포함하는,
차량 위험도 예측 장치.
According to claim 1,
The object data includes type data of at least one object included in front image data photographed from a front camera of the vehicle and coordinate data of the at least one object,
Vehicle risk prediction device.
상기 제1 배열 데이터는 상기 적어도 하나의 객체 중 상기 좌표 데이터가 기 설정된 영역 내 포함되지 않는 객체 및 상기 종류 데이터가 기 설정된 종류에 매칭되지 않는 객체를 제외한 나머지 객체에 기초하여 결정되는,
차량 위험도 예측 장치.
According to claim 2,
The first arrangement data is determined based on the remaining objects except for objects whose coordinate data is not included in a preset area among the at least one object and objects whose type data does not match a preset type,
Vehicle risk prediction device.
상기 제2 배열 데이터는 상기 CAN 데이터가 기 설정된 위험 행동 유형 테이블에 포함된 복수의 위험 행동 유형 중 적어도 하나에 매핑되는지 여부에 기초하여 결정되는,
차량 위험도 예측 장치.
According to claim 1,
The second arrangement data is determined based on whether the CAN data is mapped to at least one of a plurality of risky action types included in a preset risky action type table.
Vehicle risk prediction device.
상기 운전자 데이터는 상기 차량의 내부 카메라로부터 촬영된 내부 영상 데이터에 포함된 운전자의 시선 각도 데이터 및 상기 운전자의 헤드포즈(headpose) 데이터를 포함하는,
차량 위험도 예측 장치.
According to claim 1,
The driver data includes driver's gaze angle data and headpose data of the driver included in internal image data captured from an internal camera of the vehicle,
Vehicle risk prediction device.
상기 위험도 라벨 데이터는 상기 CAN 데이터 및 상기 운전자 데이터에 기초하여 분류되는 상기 차량의 위험도에 대응되는,
차량 위험도 예측 장치.
According to claim 1,
The risk label data corresponds to the risk level of the vehicle classified based on the CAN data and the driver data.
Vehicle risk prediction device.
상기 제1-1 출력 데이터 및 상기 제1-2 출력 데이터 각각의 차원 크기는 서로 동일한,
차량 위험도 예측 장치.
According to claim 1,
The dimensional size of each of the 1-1 output data and the 1-2 output data is the same as each other,
Vehicle risk prediction device.
상기 동작들은,
상기 회귀 모델의 학습 과정에서 획득되는 예측 데이터를 기 설정된 윈도우 단위로 스무딩(smoothing)하는,
차량 위험도 예측 장치.
According to claim 1,
These actions are
Smoothing the prediction data obtained in the learning process of the regression model in units of preset windows,
Vehicle risk prediction device.
적어도 하나의 프로세서; 및
상기 적어도 하나의 프로세서에 동작 가능하게 연결되어 상기 적어도 하나의 프로세서가 동작들을 수행하도록 하는 적어도 하나의 명령어들(instructions)을 저장하는 적어도 하나의 메모리(memory)를 포함하고,
상기 동작들은,
제1 입력 데이터 및 제2 입력 데이터를 제1 LSTM(long short term memory) 및 제2 LSTM 모델에 각각 인가하여 제1-1 출력 데이터 및 제1-2 출력 데이터를 획득하고,
여기서 상기 제1 입력 데이터는 차량 전방의 객체 데이터에 기초하여 결정된 제1 배열 데이터 및 상기 차량의 CAN(controller area network) 데이터에 기초하여 결정된 제2 배열 데이터를 결합하여 생성된 것이고,
상기 제2 입력 데이터는 상기 차량의 운전자 데이터이고,
상기 제1-1 출력 데이터, 상기 제1-2 출력 데이터 및 위험도 라벨 데이터에 기초하여 회귀 모델을 학습시키고,
상기 송수신기를 통해 실시간 객체 데이터, 실시간 CAN 데이터 및 실시간 운전자 데이터를 수신하고,
상기 실시간 객체 데이터, 상기 실시간 CAN 데이터 및 상기 실시간 운전자 데이터에 기초하여 상기 제1 LSTM 모델, 상기 제2 LSTM 모델 및 상기 회귀 모델로부터 상기 차량의 위험도를 예측하는,
차량 위험도 예측 장치.
transceiver;
at least one processor; and
at least one memory operatively connected to the at least one processor to store at least one instruction that causes the at least one processor to perform operations;
These actions are
Obtaining 1-1 output data and 1-2 output data by applying the first input data and the second input data to a first long short term memory (LSTM) and a second LSTM model, respectively;
Here, the first input data is generated by combining first arrangement data determined based on object data in front of the vehicle and second arrangement data determined based on controller area network (CAN) data of the vehicle,
The second input data is driver data of the vehicle,
Learning a regression model based on the 1-1 output data, the 1-2 output data and risk label data;
Receiving real-time object data, real-time CAN data, and real-time driver data through the transceiver;
Predicting the risk of the vehicle from the first LSTM model, the second LSTM model, and the regression model based on the real-time object data, the real-time CAN data, and the real-time driver data,
Vehicle risk prediction device.
제1 입력 데이터 및 제2 입력 데이터를 제1 LSTM(long short term memory) 및 제2 LSTM 모델에 각각 인가하여 제1-1 출력 데이터 및 제1-2 출력 데이터를 획득하는 단계; 및
상기 제1-1 출력 데이터, 상기 제1-2 출력 데이터 및 위험도 라벨 데이터에 기초하여 회귀 모델을 학습시키는 단계를 포함하고,
상기 제1 입력 데이터는 차량 전방의 객체 데이터에 기초하여 결정된 제1 배열 데이터 및 상기 차량의 CAN(controller area network) 데이터에 기초하여 결정된 제2 배열 데이터를 결합하여 생성된 것이고,
상기 제2 입력 데이터는 상기 차량의 운전자 데이터에 기초하여 결정되는,
차량 위험도 예측 방법.
A vehicle risk prediction method performed by a vehicle risk prediction device,
obtaining 1-1 output data and 1-2 output data by applying the first input data and the second input data to a first long short term memory (LSTM) model and a second LSTM model, respectively; and
Learning a regression model based on the 1-1 output data, the 1-2 output data and risk label data;
The first input data is generated by combining first arrangement data determined based on object data in front of the vehicle and second arrangement data determined based on CAN (controller area network) data of the vehicle,
The second input data is determined based on driver data of the vehicle.
Vehicle Hazard Prediction Method.
상기 객체 데이터는 상기 차량의 전방 카메라로부터 촬영된 전방 영상 데이터에 포함된 적어도 하나의 객체의 종류 데이터 및 상기 적어도 하나의 객체의 좌표 데이터를 포함하는,
차량 위험도 예측 방법.
According to claim 10,
The object data includes type data of at least one object included in front image data photographed from a front camera of the vehicle and coordinate data of the at least one object,
Vehicle Hazard Prediction Method.
상기 제1 배열 데이터는 상기 적어도 하나의 객체 중 상기 좌표 데이터가 기 설정된 영역 내 포함되지 않는 객체 및 상기 종류 데이터가 기 설정된 종류에 매칭되지 않는 객체를 제외한 나머지 객체에 기초하여 결정되고,
상기 제2 배열 데이터는 상기 CAN 데이터가 기 설정된 위험 행동 유형 테이블에 포함된 복수의 위험 행동 유형 중 적어도 하나에 매핑되는지 여부에 기초하여 결정되는,
차량 위험도 예측 방법.
According to claim 11,
The first arrangement data is determined based on the remaining objects except for the object in which the coordinate data is not included in a preset area and the object whose type data does not match the preset type among the at least one object,
The second arrangement data is determined based on whether the CAN data is mapped to at least one of a plurality of risky action types included in a preset risky action type table.
Vehicle Hazard Prediction Method.
송수신기를 통해 실시간 객체 데이터, 실시간 CAN 데이터 및 실시간 운전자 데이터를 수신하는 단계; 및
상기 실시간 객체 데이터, 상기 실시간 CAN 데이터 및 상기 실시간 운전자 데이터에 기초하여 상기 제1 LSTM 모델, 상기 제2 LSTM 모델 및 상기 회귀 모델로부터 상기 차량의 위험도를 예측하는 단계를 더 포함하는,
차량 위험도 예측 방법.
According to claim 10,
receiving real-time object data, real-time CAN data, and real-time driver data through a transceiver; and
Predicting the risk of the vehicle from the first LSTM model, the second LSTM model, and the regression model based on the real-time object data, the real-time CAN data, and the real-time driver data,
Vehicle Hazard Prediction Method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210119257A KR102552051B1 (en) | 2021-09-07 | 2021-09-07 | Vehicle risk prediction device and method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210119257A KR102552051B1 (en) | 2021-09-07 | 2021-09-07 | Vehicle risk prediction device and method therefor |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230036425A KR20230036425A (en) | 2023-03-14 |
KR102552051B1 true KR102552051B1 (en) | 2023-07-06 |
Family
ID=85502588
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210119257A KR102552051B1 (en) | 2021-09-07 | 2021-09-07 | Vehicle risk prediction device and method therefor |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102552051B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101555444B1 (en) | 2014-07-10 | 2015-10-06 | 현대모비스 주식회사 | An apparatus mounted in vehicle for situational awareness and a method thereof |
JP2020126625A (en) | 2019-01-31 | 2020-08-20 | 株式会社ストラドビジョンStradvision,Inc. | Autonomous travel auxiliary spectacles for assisting autonomous travel by identifying human state and travel environment through image analysis based on deep neutral network |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170286826A1 (en) | 2016-03-30 | 2017-10-05 | Nec Laboratories America, Inc. | Real-time deep learning for danger prediction using heterogeneous time-series sensor data |
KR101998787B1 (en) * | 2017-11-27 | 2019-07-11 | (주)에이텍티앤 | Safety driving method |
US20200388154A1 (en) | 2019-07-11 | 2020-12-10 | Lg Electronics Inc. | Method of providing a service of a vehicle in automated vehicle and highway systems and apparatus therefor |
KR20210086014A (en) * | 2019-12-31 | 2021-07-08 | 주식회사 퓨전소프트 | A integrated driver status determination and notification service system for driver drowsiness and carelessness diagnosis based on driver image and bio-metric and vehicle driving information |
-
2021
- 2021-09-07 KR KR1020210119257A patent/KR102552051B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101555444B1 (en) | 2014-07-10 | 2015-10-06 | 현대모비스 주식회사 | An apparatus mounted in vehicle for situational awareness and a method thereof |
JP2020126625A (en) | 2019-01-31 | 2020-08-20 | 株式会社ストラドビジョンStradvision,Inc. | Autonomous travel auxiliary spectacles for assisting autonomous travel by identifying human state and travel environment through image analysis based on deep neutral network |
Also Published As
Publication number | Publication date |
---|---|
KR20230036425A (en) | 2023-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10990096B2 (en) | Reinforcement learning on autonomous vehicles | |
CN107697070B (en) | Driving behavior prediction method and device and unmanned vehicle | |
US10889301B2 (en) | Method for controlling vehicle and intelligent computing apparatus for controlling the vehicle | |
EP3690846B1 (en) | Learning method and learning device for determining whether to switch mode of vehicle from manual driving mode to autonomous driving mode by performing trajectory-based behavior analysis on recent driving route | |
US10809719B2 (en) | Systems and methods of controlling an autonomous vehicle using an enhanced trajectory following configuration | |
US20170083021A1 (en) | Method and apparatus for determining a desired trajectory for a vehicle | |
US20200326719A1 (en) | Autonomous decisions in traffic situations with planning control | |
US11842545B2 (en) | Object collision prediction method and apparatus | |
AU2021200302B2 (en) | Method for sharing models among autonomous vehicles based on blockchain | |
CN110619307A (en) | Traffic light state determination method, device, equipment and storage medium | |
CN113291321A (en) | Vehicle track prediction method, device, equipment and storage medium | |
CN111332283A (en) | Method and system for controlling a motor vehicle | |
US20230367934A1 (en) | Method and apparatus for constructing vehicle dynamics model and method and apparatus for predicting vehicle state information | |
Aparna et al. | Steering angle prediction for autonomous driving using federated learning: The impact of vehicle-to-everything communication | |
KR20210089284A (en) | Correction of video for remote control of the vehicle in autonomous driving system | |
CN113139696A (en) | Trajectory prediction model construction method and trajectory prediction method and device | |
KR20210052287A (en) | Teleoperated driving of a vehicle | |
KR102552051B1 (en) | Vehicle risk prediction device and method therefor | |
CN110478911A (en) | The unmanned method of intelligent game vehicle and intelligent vehicle, equipment based on machine learning | |
Zhuang et al. | Robust auto-parking: Reinforcement learning based real-time planning approach with domain template | |
CN112396183A (en) | Method, device and equipment for automatic driving decision and computer storage medium | |
CN111640321B (en) | Congestion relieving method based on edge calculation and related equipment | |
CN110347166B (en) | Sensor control method for automatic driving system | |
CN116683958A (en) | Phase shift configuration method and system for intelligent reflecting surface in Internet of vehicles system | |
US20220237433A1 (en) | Data driven recognition of anomalies and continuation of sensor data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |