KR20230014008A - Method and apparatus for determining the possibility of collision of a driving vehicle using an artificial neural network - Google Patents

Method and apparatus for determining the possibility of collision of a driving vehicle using an artificial neural network Download PDF

Info

Publication number
KR20230014008A
KR20230014008A KR1020210095187A KR20210095187A KR20230014008A KR 20230014008 A KR20230014008 A KR 20230014008A KR 1020210095187 A KR1020210095187 A KR 1020210095187A KR 20210095187 A KR20210095187 A KR 20210095187A KR 20230014008 A KR20230014008 A KR 20230014008A
Authority
KR
South Korea
Prior art keywords
information
vehicle
driving
collision
neural network
Prior art date
Application number
KR1020210095187A
Other languages
Korean (ko)
Other versions
KR102602271B1 (en
Inventor
정정주
정세훈
김대정
김진성
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020210095187A priority Critical patent/KR102602271B1/en
Publication of KR20230014008A publication Critical patent/KR20230014008A/en
Application granted granted Critical
Publication of KR102602271B1 publication Critical patent/KR102602271B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/52Radar, Lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/12Lateral speed
    • B60W2520/125Lateral acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/14Yaw
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/804Relative longitudinal speed

Abstract

According to an embodiment, an apparatus for determining the possibility of collision of a driving vehicle by using an artificial neural network comprises: a preprocessing module which uses LIDAR and radar information received from a LIDAR and a radar as input information, and uses grid map information including driving information on a target vehicle and an ego vehicle existing in a preset area as output information; and a pre-trained collision detection artificial neural network module which uses the grid map information as input information and uses first collision prediction information including information on whether a collision has occurred between the target vehicle and the ego vehicle as output information. The first collision prediction information includes information on whether the same corresponds to one of predefined driving types of the target vehicle and the ego vehicle. The driving types may include a parallel driving type of the target vehicle and the ego vehicle, a lane movement type of the target vehicle, a lane movement type of the ego vehicle, and a simultaneous lane movement type of the target vehicle and the ego vehicle. Therefore, the apparatus can more accurately predict the possibility of collision with surrounding vehicles compared to an existing apparatus.

Description

인공신경망을 이용한 주행 차량의 충돌 가능성 판단 방법 및 장치{Method and apparatus for determining the possibility of collision of a driving vehicle using an artificial neural network}Method and apparatus for determining the possibility of collision of a driving vehicle using an artificial neural network

본 발명은 인공신경망을 이용한 주행 차량의 충돌 가능성 판단 방법 및 장치에 관한 발명으로서, 보다 상세하게는 라이다 센서와 차량 센서로 취득한 정보를 기초로 현재 주행하고 있는 차량과 주행 차량과의 관계를 분석하여, 향후 충돌할 가능성이 존재하는지 여부에 대한 정보를 제공해주는 기술에 관한 발명이다. The present invention relates to a method and apparatus for determining the possibility of collision of a driving vehicle using an artificial neural network, and more particularly, analyzes the relationship between the currently running vehicle and the driving vehicle based on information acquired by a lidar sensor and a vehicle sensor. Thus, the present invention relates to a technology for providing information on whether there is a possibility of future collision.

자율주행이란 출발지에서 목적지까지 운전자의 개입 없이 스스로 운행이 가능한 이동 객체의 운행으로 정의될 수 있으며, 자율주행 기술은 유럽은 6단계 미국은 5단계로 구분하여 각 단계별 기술들을 정의해 놓고 있다.Autonomous driving can be defined as the operation of a moving object that can operate on its own from a starting point to a destination without driver intervention. Autonomous driving technology is divided into 6 levels in Europe and 5 levels in the United States, and each level of technology is defined.

현재 자율주행 자동차의 자율주행 레벨은 3단계인 조건부 자동화에 이르렀으며, 레벨 3단계의 자율주행은 일반적으로 차량의 주행은 시스템에게 맡기되, 시스템의 요청이 있는 경우 또는 운전자가 직접 개입하는 경우에 한해서만 차량의 제어권을 시스템에서 운전자로 이양하는 수준의 자율주행을 의미한다. Currently, the autonomous driving level of self-driving cars has reached level 3, conditional automation. In level 3 autonomous driving, the driving of the vehicle is generally left to the system, but when there is a request from the system or when the driver directly intervenes. It refers to a level of autonomous driving in which control of the vehicle is transferred from the system to the driver only for a limited time.

자율주행 레벨 3단계에서는, 시스템이 교통상황을 파악하여 자율적으로 운행을 하는데, 레벨 3단계의 경우 교통혼잡 시 저속주행, 고속도로 주행, 자동 차로 변경 등의 제어를 통해 주행까지 가능하다. 그러나, 레벨 3단계의 경우 이동 경로 또는 전체 도로의 운행 상황에 대해서는 판단할 수 없는 단점이 존재한다. 따라서, 현재의 자율주행 시스템의 발전 방향은 이러한 상황에서도 정확한 판단이 가능한 레벨 4단계로 진입할 수 있도록 자율 주행 시스템의 기술력을 높이는 것에 초점이 맞춰져 있다. At level 3 of autonomous driving, the system identifies the traffic situation and operates autonomously. In the case of level 3, even driving is possible through control such as low-speed driving, highway driving, and automatic lane change in case of traffic congestion. However, in the case of level 3, there is a disadvantage in that it is impossible to determine the driving condition of the movement path or the entire road. Therefore, the current development direction of the autonomous driving system is focused on improving the technology of the autonomous driving system so that it can enter the level 4 stage where accurate judgment is possible even in such a situation.

자율주행 레벨이 3단계에서 4단계로 진입하기 위해서는, 자율주행 시스템이 이동경로 상의 차량 주변의 여러 요소들을 정확하게 판단하여 운전자의 개입이 없어도 완벽하게 자율 주행이 가능해야 한다. 그리고 이를 정확하게 실행하기 위해서는 자율주행 시스템이 단순히 차량의 주변 객체만 인식하는 것이 아니라 운행 차량의 운행 정보를 고려하여 주변 이동 객체들의 예상 주행 경로를 인식하고, 이를 통해 운행중인 차량과 주변 객체와의 충돌에 대한 정보를 예상할 수 있어야 한다. In order for the level of autonomous driving to enter from level 3 to level 4, the self-driving system must accurately determine various factors around the vehicle on the moving route to enable perfect autonomous driving without the intervention of the driver. And in order to accurately execute this, the autonomous driving system does not simply recognize the surrounding objects of the vehicle, but considers the driving information of the operating vehicle to recognize the expected driving path of the surrounding moving objects, and through this, the collision between the moving vehicle and the surrounding objects information must be predictable.

그러나, 현재까지 제안된 기술로는 단일 센서를 이용하여 취득한 주변 차량의 정보 또는 주변 차량과의 통신을 통해 취득한 정보를 기초로 주변 차량의 주행 경로를 예측할 뿐, 현재 주행중인 차량과 주변 차량과의 상대적인 관계를 종합적으로 분석하여 주행중인 차량과 주변 차량과의 관계 정보를 정확히 제공해주는 기술은 존재하지 않은 실정이다. However, the technologies proposed so far only predict the driving path of the surrounding vehicle based on the information of the surrounding vehicle acquired using a single sensor or the information acquired through communication with the surrounding vehicle. There is no technology that comprehensively analyzes the relative relationship and accurately provides information on the relationship between the driving vehicle and surrounding vehicles.

또한, 주행 중 사고는 주행 중인 차량과 옆 차선에 있는 차량과만 발생하는 것은 아니고, 주행 중인 차량의 옆옆 차선에서 주행하고 있는 주변 차량과도 사고가 발생할 가능성이 높은데, 종래 기술의 경우 현재 주행 중인 차량의 옆 차선에서 주행하고 있는 주변 차량과의 충돌 가능성 여부에 대해서만 판단할 뿐, 옆옆 차선에서 주행하고 있는 주변 차량과의 사고 발생 가능성 여부를 판단하는 기술은 존재하지 않은 실정이다.In addition, an accident while driving does not only occur between the vehicle in motion and the vehicle in the next lane, and there is a high possibility of an accident with a vehicle driving in the lane next to the vehicle in motion. A technology for determining the possibility of an accident with a nearby vehicle running in the next lane only exists, and only determines whether there is a possibility of a collision with a nearby vehicle driving in the lane next to the vehicle.

대한민국 공개특허 제10-2018-0159606호 - 카메라 및 라이다 센서 융합을 이용한 객체 검출 방법 및 그를 위한 장치 (2018.12.12 공개)Republic of Korea Patent Publication No. 10-2018-0159606 - Object detection method using camera and lidar sensor fusion and apparatus therefor (published on December 12, 2018)

따라서, 일 실시예에 따른 인공신경망을 이용한 주행 차량의 충돌 가능성 판단 방법 및 장치는 상기 설명한 문제점을 해결하기 위해 고안된 발명으로서, 센서로 취득한 정보를 기초로 주행 중인 차량과 주변 차량과의 관계를 분석한 정보를 운전자에게 제공해주는데 그 목적이 있다. Therefore, a method and apparatus for determining the possibility of collision of a driving vehicle using an artificial neural network according to an embodiment is an invention designed to solve the above-described problems, and analyzes the relationship between a vehicle in motion and surrounding vehicles based on information acquired by a sensor. Its purpose is to provide information to the driver.

보다 구체적으로는, 일 실시예에 따른 인공신경망을 이용한 주행 차량의 충돌 가능성 판단 방법 및 장치는 주행 중인 차량과 주변 차량과 발생할 수 있는 유형들을 미리 정의해 놓은 후, 각종 센서들로 취득한 정보를 기초로 주행 중인 차량과 주변 차량의 경로 분석을 통해 주행 중인 차량과 주변 차량 사이에 향후 발생할 수 있는 유형에 대한 정보를 제공해주는 기술을 제공하는데 그 목적이 존재한다.More specifically, a method and apparatus for determining the possibility of collision of a driving vehicle using an artificial neural network according to an embodiment predefine types that may occur between a driving vehicle and surrounding vehicles, and then based on information acquired by various sensors. The purpose of the present invention is to provide a technology that provides information on types that may occur in the future between the driving vehicle and surrounding vehicles through path analysis of the vehicle in motion and the surrounding vehicles.

일 실시예에 따른 인공신경망을 이용한 주행 차량의 충돌 가능성 판단 장치는, 라이다 및 레이다로부터 수신한 라이다 정보 및 레이다 정보를 입력 정보로 하고, 미리 설정된 영역에 존재하는 타켓 차량(target vehicle) 및 자아 차량(ego vehicle)에 대한 주행 정보를 포함하고 있는 그리드 맵(Grid Map) 정보를 출력 정보로 하는 전처리 모듈 및 상기 그리드 맵 정보를 입력 정보로 하고, 상기 타켓 차량과 상기 자아 차량의 충돌 발생 여부 정보를 포함하고 있는 제1충돌 예측 정보를 출력 정보로 하는, 기 학습된 충돌 감지 인공신경망 모듈을 포함하고, 상기 제1충동 예측 정보는, 미리 정의된 상기 타켓 차량과 상기 자아 차량의 주행 유형 중 하나의 유형에 해당하는지 여부에 대한 정보를 포함하고, 상기 주행 유형은, 상기 타켓 차량과 상기 자아 차량의 평행 주행 유형, 상기 타켓 차량의 차선 이동 유형, 상기 자아 차량의 차선 이동 유형 및 상기 타켓 차량과 상기 자아 차량의 동시 차선 이동 유형을 포함할 수 있다. An apparatus for determining the possibility of collision of a driving vehicle using an artificial neural network according to an embodiment uses lidar information and radar information received from lidar and radar as input information, and detects a target vehicle existing in a preset area and A pre-processing module that uses grid map information including driving information about the ego vehicle as output information and the grid map information as input information, and whether or not a collision between the target vehicle and the ego vehicle occurs and a pre-learned collision detection artificial neural network module having first collision prediction information containing information as output information, wherein the first collision prediction information is selected from among predefined driving types of the target vehicle and the self vehicle. and information on whether they correspond to one type, wherein the driving type includes a parallel driving type of the target vehicle and the subject vehicle, a lane movement type of the target vehicle, a lane movement type of the own vehicle, and the target vehicle and simultaneous lane movement types of the self vehicle.

상기 미리 설정된 영역의 크기는, 상기 자아 차량을 기준으로 전방 10m, 후방 10m 및 상기 타켓 차량의 방향으로 10m 또는 차선 두개의 길이를 포함할 수 있다.The size of the preset area may include 10m in front of the vehicle, 10m in the rear, and 10m in the direction of the target vehicle, or the length of two lanes.

상기 주행 정보는, 상기 레이다가 송신하는 레이다 신호의 포인트 정보, 상기 레이다 신호의 강도 정보 및 상기 타켓 차량과 상기 자아 차량과의 상대 속도 정보를 포함할 수 있다. The driving information may include point information of a radar signal transmitted by the radar, strength information of the radar signal, and relative speed information between the target vehicle and the own vehicle.

상기 입력 정보는, 차량에 부착된 센서로부터 수신한 차량 정보를 더 포함하고, 상기 차량 정보는, 상기 차량의 조향 각도 정보, 요레이트 정보, 종방향 가속도 정보, 횡방향 가속도 정보 및 차량 속도 정보 중 적어도 하나를 포함할 수 있다. The input information further includes vehicle information received from a sensor attached to the vehicle, and the vehicle information includes steering angle information, yaw rate information, longitudinal acceleration information, lateral acceleration information, and vehicle speed information of the vehicle. may contain at least one.

상기 주행 정보는, 상기 라이다가 송신하는 레이다 신호의 포인트 정보, 상기 레이다 신호의 강도 정보 및 상기 라이다가 송신하는 라이다 신호의 포인트 정보를 포함하고, 상기 그리드 맵 정보는, 상기 차량 정보가 상기 그리드 맵에 더미(dummy) 형식으로 부착된 정보일 수 있다. The driving information includes point information of a radar signal transmitted by the lidar, strength information of the radar signal, and point information of a lidar signal transmitted by the lidar, and the grid map information includes the vehicle information It may be information attached to the grid map in a dummy form.

상기 전처리 모듈은, 미리 설정된 시간 동안 미리 설정된 횟수만큼 수신한 상기 라이다 정보 및 상기 레이다 정보를 순차적으로 배열한 통합 데이터를 생성하는 타임 윈도잉 모듈을 포함할 수 있다. The preprocessing module may include a time windowing module for generating integrated data in which the lidar information and the radar information are sequentially arranged a predetermined number of times during a predetermined time.

상기 미리 설정된 시간은 1초 내지 2초의 시간을 포함하고, 상기 미리 설정된 횟수는 5회 내지 10회를 포함할 수 있다. The preset time may include a time of 1 second to 2 seconds, and the preset number of times may include 5 to 10 times.

상기 전처리 모듈은, 상기 통합 데이터를 기초로 상기 라이다가 송신하는 라이다 신호의 포인트 정보, 상기 라이다 신호의 강도 정보 및 상기 타켓 차량과 상기 자아 차량과의 상대 속도 정보를 포함하는 특징 벡터 정보를 생성하는 그리드 맵 정보 생성 모듈을 포함할 수 있다. The pre-processing module is based on the integrated data, feature vector information including point information of the lidar signal transmitted by the lidar, strength information of the lidar signal, and relative speed information between the target vehicle and the self vehicle. It may include a grid map information generation module that generates.

상기 그리드 맵 정보 생성 모듈은, 상기 특징 백터 정보를 그리드 맵에 투영하여 그리드 맵 정보를 생성할 수 있다. The grid map information generation module may generate grid map information by projecting the feature vector information onto a grid map.

상기 인공신경망을 이용한 주행 차량의 충돌 가능성 판단 장치는 상기 충돌 감지 인공신경망 모듈의 소프트 맥스(soft max)층 전 단계인 완전 연결층(Fully-Connected layer)에서 출력되는 상기 4가지 주행 유형에 관한 로직 벡터(Logit Vector) 정보를 추출한 후, 상기 로직 벡터에 상기 주행 유형으로 판단할 수 없는 예외 유형에 대한 정보를 합산 한 후, 합산된 로직 벡터 정보를 기초로 제2충돌 예측 정보를 출력하는 후처리 모듈을 더 포함할 수 있다. The device for determining the possibility of collision of a driving vehicle using the artificial neural network is a logic related to the four types of driving output from a fully-connected layer, which is a stage before the soft max layer of the collision detection artificial neural network module. After extracting vector (logit vector) information, adding information on exception types that cannot be determined as the driving type to the logic vector, and outputting second collision prediction information based on the summed logic vector information, post-processing It may contain more modules.

상기 제2충돌 예측 정보는, 상기 주행 유형 및 상기 예외 유형 중 어느 하나의 유형에 해당하는지 여부에 대한 정보를 포함할 수 있다. The second collision prediction information may include information on whether it corresponds to any one of the driving type and the exception type.

일 실시예에 따른 인공신경망을 이용한 주행 차량의 충돌 가능성 판단 장치는 라이다 및 레이다로부터 수신한 라이다 정보 및 레이다 정보를 입력 정보로 하고, 미리 설정된 영역에 존재하는 타켓 차량(target vehicle) 및 자아 차량(ego vehicle)에 대한 주행 정보를 포함하고 있는 그리드 맵(Grid Map) 정보를 출력 정보로 하는 전처리 모듈, 상기 그리드 맵 정보를 입력 정보로 하고, 상기 타켓 차량과 상기 자아 차량의 충돌 발생 여부 정보를 포함하고 있는 제1충돌 예측 정보를 출력 정보로 하는, 기 학습된 충돌 감지 인공신경망 모듈 및 차량에 부착된 센서로부터 차량 정보를 수신하고, 상기 차량 정보를 상기 충돌 감지 인공신경망 모듈에서 완전 연결층이 처음으로 시작되는 레이어에 중간 입력 정보로 송신하는 중간 입력 정보 송신 모듈을 포함하고, 상기 제1충돌 예측 정보는, 미리 정의된 상기 타켓 차량과 상기 자아 차량의 주행 유형 중 어느 하나의 유형에 해당하는지 여부에 대한 정보를 출력하고, 상기 주행 유형은, 상기 타켓 차량과 상기 자아 차량의 평행 주행 유형, 상기 타켓 차량의 차선 이동 유형, 상기 자아 차량의 차선 이동 유형 및 상기 타켓 차량과 상기 자아 차량의 동시 차선 이동 유형을 포함할 수 있다. An apparatus for determining the possibility of collision of a driving vehicle using an artificial neural network according to an embodiment uses lidar information and radar information received from lidar and radar as input information, and targets a target vehicle and self existing in a preset area. A pre-processing module that uses as output information Grid Map information including driving information about the ego vehicle, and uses the grid map information as input information and information on whether or not a collision between the target vehicle and the self vehicle has occurred Receives vehicle information from a pre-learned collision detection artificial neural network module and a sensor attached to the vehicle, which takes the first collision prediction information containing as output information, and transmits the vehicle information to the fully connected layer in the collision detection artificial neural network module. and an intermediate input information transmission module that transmits intermediate input information to the first layer, wherein the first collision prediction information corresponds to one of predefined driving types of the target vehicle and the self vehicle. and outputs information on whether or not the driving type includes a parallel driving type of the target vehicle and the self vehicle, a lane movement type of the target vehicle, a lane movement type of the own vehicle, and a relationship between the target vehicle and the self vehicle. Can include simultaneous lane movement types.

상기 차량 정보는, 상기 차량의 조향 각도 정보, 요레이트 정보, 종방향 가속도 정보, 횡방향 가속도 정보 및 차량 속도 정보 중 적어도 하나를 포함할 수 있다. The vehicle information may include at least one of steering angle information, yaw rate information, longitudinal acceleration information, lateral acceleration information, and vehicle speed information of the vehicle.

일 실시예에 따른 인공신경망을 이용한 주행 차량의 충돌 가능성 판단 방법은 라이다 및 레이다로부터 수신한 라이다 정보 및 레이다 정보를 입력 정보로 하고, 미리 설정된 영역에 존재하는 타켓 차량(target vehicle) 및 자아 차량(ego vehicle)에 대한 주행 정보를 포함하고 있는 그리드 맵(Grid Map) 정보를 출력 정보로 하는 전처리 단계 및 상기 그리드 맵 정보를 입력 정보로 하고, 상기 타켓 차량과 상기 자아 차량의 충돌 발생 여부 정보를 포함하고 있는 제1충돌 예측 정보를 출력 정보로 하는, 기 학습된 충돌 감지 인공신경망 모듈을 이용하여, 상기 제1충돌 예측 정보를 출력하는 출력 정보 출력 단계를 포함하고, 상기 제1충동 예측 정보는, 미리 정의된 상기 타켓 차량과 상기 자아 차량의 주행 유형 중 어느 하나의 유형에 해당하는지 여부에 대한 정보를 포함하고, 상기 주행 유형은, 상기 타켓 차량과 상기 자아 차량의 평행 주행 유형, 상기 타켓 차량의 차선 이동 유형, 상기 자아 차량의 차선 이동 유형 및 상기 타켓 차량과 상기 자아 차량의 동시 차선 이동 유형을 포함할 수 있다. A method for determining the possibility of collision of a driving vehicle using an artificial neural network according to an embodiment uses lidar information and radar information received from lidar and radar as input information, and a target vehicle and self existing in a preset area A pre-processing step of using grid map information including driving information about the ego vehicle as output information and using the grid map information as input information, and information on whether or not a collision between the target vehicle and the self vehicle has occurred and an output information output step of outputting the first collision prediction information using a pre-learned collision detection artificial neural network module having first collision prediction information as output information, wherein the first collision prediction information includes includes information on whether it corresponds to any one of predefined driving types of the target vehicle and the own vehicle, wherein the driving type is a parallel driving type of the target vehicle and the own vehicle, the target vehicle A lane movement type of the vehicle, a lane movement type of the own vehicle, and a simultaneous lane movement type of the target vehicle and the own vehicle may be included.

상기 주행 정보는, 상기 레이다가 송신하는 레이다 신호의 포인트 정보, 상기 레이다 신호의 강도 정보 및 상기 타켓 차량과 상기 자아 차량과의 상대 속도 정보를 포함할 수 있다.The driving information may include point information of a radar signal transmitted by the radar, strength information of the radar signal, and relative speed information between the target vehicle and the own vehicle.

일 실시예에 따른 인공신경망을 이용한 주행 차량의 충돌 가능성 판단 방법 및 장치는 여러 센서를 이용하여 취득한 데이터를 기초로 인공신경망 학습을 통해 주행 중인 차량과 주변 차량과의 예상 주행 경로를 분석하기 때문에, 주변 차량과의 충돌 가능성 여부를 종래 기술 보다 정확하게 예측할 수 있는 효과가 존재한다. A method and apparatus for determining the possibility of collision of a driving vehicle using an artificial neural network according to an embodiment analyzes an expected driving path between a vehicle in motion and a nearby vehicle through artificial neural network learning based on data obtained using various sensors, There is an effect of predicting the possibility of collision with surrounding vehicles more accurately than the prior art.

일 실시예에 따른 인공신경망을 이용한 주행 차량의 충돌 가능성 판단 방법 및 장치는 현재 주행 중인 차량과 옆옆 차선에 존재하는 차량과 향후 일어날 수 있는 주행 상황들을 유형별로 분류한 후, 이를 기초로 학습을 하고 추론하기 때문에 운전자에게 예측되는 상황에 대한 정보를 구체적으로 제공할 수 있으며, 더 나아가 정확히 구분이 어려운 상황에 대해서는 별도의 알고리즘을 통해 출력 결과에서 배제시키므로, 추론 결과의 정확성을 높일 수 있는 효과가 존재한다.A method and apparatus for determining the possibility of collision of a driving vehicle using an artificial neural network according to an embodiment classifies a currently driving vehicle, a vehicle existing in a lane next to a vehicle, and a driving situation that may occur in the future by type, and then learns based on this Because it infers, it is possible to provide the driver with information about the predicted situation in detail, and furthermore, situations that are difficult to accurately distinguish are excluded from the output result through a separate algorithm, which has the effect of increasing the accuracy of the inference result. do.

도 1은 본 발명에 따라 자아 차량과 타겟 차량 사이에 발생할 수 있는 4가지 유형에 대해 설명한 도면이다.
도 2는 본 발명의 일 실시예에 따른 인공신경망을 이용한 주행 차량의 충돌 가능성 판단 장치의 일부 구성 요소를 도시한 도면이다.
도 3의 (a)는 본 발명의 일 실시예에 따른 전처리 모듈의 일부 구성 요소를 도시한 블록도이며, 도 3의 (b)는 전처리 모듈에 입력되는 정보를 도시한 도면이다.
도4는 본 발명의 일 실시예에 따른 전처리 모듈에 입력되는 그리드 맵 정보의 종류를 도시한 도면이다.
도 5는 본 발명의 실시예에 따른 충돌 감지 인공신경망 모듈의 학습 세션과 추론 세션을 도시한 도면이다.
도 6은 본 발명의 실시예에 따른 충돌 감지 인공신경망 모듈의 구성 요소와 입력 정보, 출력 정보를 도시한 도면이다.
도 7은 본 발명의 실시예에 따른 충돌 감지 인공신경망 모듈의 프로세스 과정을 설명하기 위한 도면이다.
도 8은 본 발명의 실시예에 따른 후처리 모듈의 프로세스 과정을 설명하기 위한 도면이다.
도 9는 본 발명의 다른 실시예에 따른 충돌 감지 인공신경망 모듈의 프로세스 과정을 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예 따라 충돌 감지 인공신경망 모듈이 출력한 정보를 유형별로 도시한 도면이다.
도 11은 본 발명의 각각의 실시예에 따라 후처리 모듈을 적용하였을 때와 적용하지 않았을 때의 출력 결과를 비교 도시한 도면이다.
도 12는 본 발명에 따른 충돌 가능성 판단 장치와 종래 기술에 따른 충돌 가능성 판단 장치의 예측 정확도에 대한 실험 결과를 수치로 정리하여 도시한 도면이다.
1 is a diagram explaining four types that may occur between a self vehicle and a target vehicle according to the present invention.
2 is a diagram showing some components of an apparatus for determining the possibility of collision of a driving vehicle using an artificial neural network according to an embodiment of the present invention.
Figure 3 (a) is a block diagram showing some components of the pre-processing module according to an embodiment of the present invention, Figure 3 (b) is a diagram showing information input to the pre-processing module.
4 is a diagram illustrating types of grid map information input to a preprocessing module according to an embodiment of the present invention.
5 is a diagram illustrating a learning session and an inference session of a collision detection artificial neural network module according to an embodiment of the present invention.
6 is a diagram illustrating components, input information, and output information of a collision detection artificial neural network module according to an embodiment of the present invention.
7 is a diagram for explaining a process of a collision detection artificial neural network module according to an embodiment of the present invention.
8 is a diagram for explaining a process of a post-processing module according to an embodiment of the present invention.
9 is a diagram for explaining a process of a collision detection artificial neural network module according to another embodiment of the present invention.
10 is a diagram showing information output by a collision detection artificial neural network module by type according to an embodiment of the present invention.
11 is a diagram illustrating a comparison of output results when a post-processing module is applied and when a post-processing module is not applied according to each embodiment of the present invention.
12 is a diagram showing, in numerical terms, experimental results for prediction accuracy of a collision possibility determination apparatus according to the present invention and a collision possibility determination apparatus according to the prior art.

이하, 본 발명에 따른 실시 예들은 첨부된 도면들을 참조하여 설명한다. 각 도면의 구성요소들에 참조 부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시 예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 실시 예들을 설명할 것이나, 본 발명의 기술적 사상은 이에 한정되거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있다.Hereinafter, embodiments according to the present invention will be described with reference to the accompanying drawings. In adding reference numerals to the components of each drawing, it should be noted that the same components have the same numerals as much as possible even if they are displayed on different drawings. In addition, in describing an embodiment of the present invention, if it is determined that a detailed description of a related known configuration or function hinders understanding of the embodiment of the present invention, the detailed description thereof will be omitted. In addition, embodiments of the present invention will be described below, but the technical idea of the present invention is not limited or limited thereto and can be modified and implemented in various ways by those skilled in the art.

또한, 본 명세서에서 사용한 용어는 실시 예를 설명하기 위해 사용된 것으로, 개시된 발명을 제한 및/또는 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. In addition, terms used in this specification are used to describe embodiments, and are not intended to limit and/or limit the disclosed invention. Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 명세서에서, "포함하다", "구비하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는다.In this specification, terms such as "include", "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or the existence or addition of more other features, numbers, steps, operations, components, parts, or combinations thereof is not excluded in advance.

또한, 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함하며, 본 명세서에서 사용한 "제 1", "제 2" 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되지는 않는다. In addition, throughout the specification, when a part is said to be “connected” to another part, this is not only the case where it is “directly connected”, but also the case where it is “indirectly connected” with another element in the middle. Terms including ordinal numbers, such as "first" and "second" used herein, may be used to describe various components, but the components are not limited by the terms.

아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다. Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily carry out the present invention. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted.

또한, 본 발명의 명칭은 '인공신경망을 이용한 주행 차량의 충돌 가능성 판단 장치'로 기재하였으나, 이하 명세서에서는 설명의 편의를 위해 '인공신경망을 이용한 주행 차량의 충돌 가능성 판단 장치'는 '충돌 가능성 판단 장치'로 지칭하여 설명하도록 한다. In addition, the title of the present invention is described as 'a device for determining the possibility of collision of a driving vehicle using an artificial neural network', but in the following specification, for convenience of description, 'a device for determining the possibility of collision of a driving vehicle using an artificial neural network' is 'determining the possibility of collision. Let's refer to it as 'device' and explain it.

도 1은 본 발명에 따라 자아 차량과 타겟 차량 사이에 발생할 수 있는 4가지 유형에 대해 설명한 도면이다.1 is a diagram explaining four types that may occur between a self vehicle and a target vehicle according to the present invention.

본 발명은 현재 운전자가 주행하고 있는 자아 차량(10)과, 자아 차량(10) 주변에서 주행하면서, 자아 차량(10)과 충돌 가능성이 있어 분석 대상이 되는 타켓 차량(20)과의 충돌 가능성 여부를 판단하는 기술에 관한 발명으로서, 보다 구체적으로는 자아 차량(10)과 옆옆 차선에서 주행하고 있는 타켓 차량(20)과의 충돌 가능성 여부를 미리 설정되어 있는 유형별로 분석하여 충돌 가능성 여부에 대한 정보를 운전자에게 제공해줄 수 있는 기술에 관한 발명이다. The present invention determines whether or not there is a possibility of collision between the self vehicle 10 on which the driver is currently driving and the target vehicle 20 that is the object of analysis because there is a possibility of collision with the self vehicle 10 while driving around the self vehicle 10 As an invention related to a technology for determining, more specifically, information on the possibility of collision by analyzing the possibility of collision between the self vehicle 10 and the target vehicle 20 driving in the next lane by pre-set type. It is an invention related to a technology that can provide a driver.

현재 주행중인 자아 차량(10)과 타켓 차량(20)의 옆옆 차선에서 주행중인 타켓 차량(20)의 예상 주행 관계는 도 1에 도시된 바와 같이 총 4가지의 유형을 분류 될 수 있다.The expected driving relationship between the self vehicle 10 currently driving and the target vehicle 20 driving in the lane next to the target vehicle 20 can be classified into a total of four types as shown in FIG. 1 .

제1유형은 자아 차량(10) 및 타켓 차량(20) 모두 현 상황에서 차선을 변경하지 않고 평행하게 주행하는 평행 주행의 경우로서, 이 경우 사고 발생 가능성은 없는 것으로 판단될 수 있다. 이하 설명의 편의를 위해 평행 주행은 제1유형으로 지칭하여 설명하도록 한다. The first type is a case of parallel driving in which both the subject vehicle 10 and the target vehicle 20 drive in parallel without changing lanes in the current situation. In this case, it can be determined that there is no possibility of an accident. For convenience of explanation, the parallel driving is referred to as the first type for description.

제2유형은 자아 차량(10)은 현 상황에서 차선을 변경하지 않고 계속 주행하나, 타켓 차량(20)이 자아 차량(10)의 방향으로 한 차선 이동하는 타켓 차량 차선 변경 유형이다. 제2유형의 경우 당장 사고는 발생할 가능성은 적지만, 향후 주행 경로에 따라 사고가 발생할 가능성이 존재하는 유형이다. 이하 설명의 편의를 위해 타켓 차량 차선 변경 유형은 제2유형으로 지칭하여 설명하도록 한다. The second type is a target vehicle lane changing type in which the subject vehicle 10 continues driving without changing lanes in the current situation, but the target vehicle 20 moves by one lane in the direction of the subject vehicle 10 . In the case of the second type, the possibility of an accident occurring immediately is low, but there is a possibility of an accident depending on the driving route in the future. For convenience of explanation, the lane change type of the target vehicle will be referred to as the second type.

제3유형은 타겟 차량(20)은 현 상황에서 차선을 변경하지 않고 계속 주행하나, 자아 차량(10)이 타겟 차량(20)의 방향으로 한 차선 이동하는 타켓 차량 차선 변경 유형이다. 제3유형의 경우 당장 사고는 발생할 가능성은 적지만, 향후 주행 경로에 따라 사고가 발생할 가능성이 존재하는 유형이다. 이하 설명의 편의를 위해 자아 차량 차선 변경 유형은 제3유형으로 지칭하여 설명하도록 한다. The third type is a target vehicle lane changing type in which the target vehicle 20 continues driving without changing lanes in the current situation, but the subject vehicle 10 moves by one lane in the direction of the target vehicle 20 . In the case of the third type, the possibility of an accident occurring immediately is low, but there is a possibility of an accident depending on the driving route in the future. For convenience of description, the lane change type of the vehicle will be referred to as the third type.

제4유형은 자아 차량(10) 및 타켓 차량(20) 모두 현 상황에서 차선을 상대방 차량으로 한 차선씩 이동하는 경우로서, 제4유형의 경우 한 차선씩의 이동으로 인해 비록 바로 옆 차선에 차량이 주행하고 있지는 않았지만 차량 사고가 발생할 수 있는 유형에 해당한다. 이하 설명의 편의를 위해 자아 차량 및 타켓 차량 차선 변경 유형은 제4유형으로 지칭하여 설명하도록 한다.The fourth type is a case in which both the self vehicle 10 and the target vehicle 20 move from one lane to the other vehicle one lane at a time in the current situation. Although this vehicle was not driving, it corresponds to the type of vehicle accident that may occur. For convenience of description, the lane change type of the subject vehicle and the target vehicle will be referred to as the fourth type.

즉, 본 발명에 따른, 충돌 가능성 판단 장치(100)는 현재 주행중인 차량과 옆옆 차선에서 주행하고 있는 차량과 발생할 수 있는 시나리오를 유형별로 분석 한 후, 센서를 취득한 정보를 기초로 양 차량(10,20)들이 향후 어떤 유형으로 주행을 하는지에 대해 예측을 한 후, 예측된 정보를 운전자에게 제공해주는 그 목적이 있다. 이하 도면을 통해 본 발명의 구성 요소에 대해 구체적으로 알아본다.That is, the apparatus 100 for determining the possibility of collision according to the present invention analyzes the vehicle currently driving and the vehicle traveling in the next lane and scenarios that may occur by type, and then both vehicles 10 based on the information obtained from the sensors. ,20) predicts what type of driving they will drive in the future, and then provides the predicted information to the driver. The components of the present invention will be described in detail through the following drawings.

도 2는 본 발명의 일 실시예에 따른 인공신경망을 이용한 주행 차량의 충돌 가능성 판단 장치의 일부 구성 요소를 도시한 도면이고, 도 3의 (a)는 본 발명의 일 실시예에 따른 전처리 모듈의 일부 구성 요소를 도시한 블록도이며, 도 3의 (b)는 전처리 모듈에 입력되는 정보를 도시한 도면이며, 도4는 본 발명의 일 실시예에 따른 전처리 모듈에 입력되는 그리드 맵 정보의 종류를 도시한 도면이다. 2 is a diagram showing some components of an apparatus for determining the possibility of collision of a traveling vehicle using an artificial neural network according to an embodiment of the present invention, and FIG. 3 (a) is a diagram of a preprocessing module according to an embodiment of the present invention. It is a block diagram showing some components, FIG. 3(b) is a diagram showing information input to the preprocessing module, and FIG. 4 is a type of grid map information input to the preprocessing module according to an embodiment of the present invention. It is a drawing showing

도 2를 참조하면, 본 발명의 일 실시예에 따른 충돌 가능성 판단 장치(100)는 센서의 의해 취득된 데이터에 대해 전처리 과정을 진행하는 전처리 모듈(110), 전처리 모듈(110)에 의해 출력된 데이터를 입력 데이터로 하고, 타켓 차량과 자아 차량의 충돌 발생 여부 정보를 포함하고 있는 제1충돌 예측 정보를 출력 정보로 하는 충돌 감지 인공신경망 모듈(120), 충돌 감지 인공신경망 모듈(120)이 출력한 출력 정보를 기초로 충돌 감지 여부에 대해 한 번 더 추론하는 후처리 모듈(130) 및 센서의 의해 취득된 데이터가 저장되는 메모리 모듈(140) 등을 포함할 수 있다.Referring to FIG. 2, the apparatus 100 for determining the possibility of collision according to an embodiment of the present invention includes a pre-processing module 110 that performs a pre-processing process on data obtained by a sensor, and output by the pre-processing module 110 The collision detection artificial neural network module 120 and the collision detection artificial neural network module 120 output the data as input data and the first collision prediction information including information on whether or not a collision between the target vehicle and the self vehicle has occurred as output information. It may include a post-processing module 130 that infers whether a collision is detected or not based on one output information and a memory module 140 that stores data acquired by the sensor.

도 3의 (a)를 참조하면, 전처리 모듈(110)은 라이다 정보(31), 레이더 정보(32)를 합친 제1입력 정보(34) 또는 라이다 정보(31), 레이더 정보(32) 및 차량 정보(33) 합친 제2입력 정보(35)를 입력 정보를 하고, 자아 차량(10) 및 타켓 차량(20)의 주행 정보를 포함하고 있는 그리드 맵 정보(40)를 출력 정보로 하는 모듈로서, 타임 윈도우 모듈(111)과 그리드 맵 정보 생성 모듈(112)을 포함하고 있다. Referring to (a) of FIG. 3 , the preprocessing module 110 generates first input information 34 combining lidar information 31 and radar information 32 or lidar information 31 and radar information 32 and second input information 35 combined with vehicle information 33 as input information and grid map information 40 including driving information of the self vehicle 10 and the target vehicle 20 as output information. As, it includes a time window module 111 and a grid map information generating module 112.

라이다 정보(31)는 차량에 부착된 적어도 하나의 라이더 센서로부터 취득한 정보를 의미하며, 구체적으로 타켓 차량(20)에 라이다 신호를 송신한 후, 타겟 차량(20)으로부터 반사되어 다시 라이더 센서로 입력된 신호에 대한 포인트 정보, 반사율에 대한 정보 및 라이더 센서로 입력되는 포인트 강도의 세기에 대한 정보를 포함할 수 있다. LiDAR information 31 means information obtained from at least one lidar sensor attached to a vehicle, and specifically, after transmitting a lidar signal to the target vehicle 20, it is reflected from the target vehicle 20 and is reflected back to the lidar sensor. It may include point information about the signal input to , reflectance information, and information about the strength of the point intensity input to the LIDAR sensor.

레이다 정보(32)는 차량에 부착된 적어도 하나의 레이다 센서로부터 취득한 정보를 의미하며, 구체적으로 타켓 차량(20)에 레이다 신호를 송신한 후, 타겟 차량(20)으로부터 반사되어 다시 레이다 센서로 입력된 신호에 대한 포인트 정보, 반사율에 대한 정보 및 레이다 센서로 입력되는 포인트 강도의 세기에 대한 정보를 포함할 수 있다. Radar information 32 refers to information obtained from at least one radar sensor attached to a vehicle, and specifically, after transmitting a radar signal to the target vehicle 20, it is reflected from the target vehicle 20 and input to the radar sensor again. It may include point information about the detected signal, information about reflectivity, and information about the intensity of point intensity input to the radar sensor.

차량 정보(33)는 자아 차량(10)에 부착된 센서로부터 취득한 자아 차량(10)에 대한 정보를 의미하며, 구체적으로 자아 차량(10)의 조향 각도 정보, 요레이트 정보, 종방향 가속도 정보, 횡방향 가속도 정보 및 차량 속도 정보 등을 포함할 수 있다. The vehicle information 33 means information about the own vehicle 10 acquired from a sensor attached to the own vehicle 10, and specifically, steering angle information of the own vehicle 10, yaw rate information, longitudinal acceleration information, Lateral acceleration information and vehicle speed information may be included.

본 발명에 따른 전처리 모듈(110)은 여러 센서로부터 정보를 취득한 후, 이를 가공함에 있어서 미리 설정된 영역에 존재하는 영역들에 관한 정보를 취득한 후, 이를 그리드 맵에 투영하여 그리드 맵 정보(40)를 생성한다.The pre-processing module 110 according to the present invention acquires information from various sensors, and in processing it, acquires information about areas existing in a preset area, and then projects it onto a grid map to obtain grid map information 40. generate

구체적으로 그리드 맵(grid map)은, 도면에 도시된 바와 같이 격자 단위의 셀로 이루어진 맵으로서, 각 단위 셀의 길이는 가로 길이(d1)는 0.1m 세로 길이(l1)는 1m로 이루어져 있으며, 자아 차량(10)과 타켓 차량(20)의 위치 정보는 그리드 맵의 단위 셀 위에 표시될 수 있다.Specifically, the grid map is a map made up of cells in a grid unit as shown in the drawing, and the length of each unit cell is 0.1 m in horizontal length (d1) and 1 m in vertical length (l1). Location information of the vehicle 10 and the target vehicle 20 may be displayed on a unit cell of the grid map.

그리드 맵의 크기는 미리 설정된 영역의 크기에 의해 정해지며, 미리 설정된 영역의 크기는 자아 차량(10)과 타켓 차량(20)과의 관계에 있어서 관심 있게 봐야 하는 영역을 의미한다. 구체적으로, 도 3의 (b)에 도시된 바와 같이 자아 차량(10)을 기준으로 종방향의 전체 길이(L)는 전방 길이방향으로 10m, 후방 길이방향으로 10m로 총 20m 길이에 해당할 수 있으며, 횡방향의 전체 길이(D)는 자아 차량(10)에서 타켓 차량(20)의 방향으로 10m 또는 차선 두개의 길이를 포함하도록 설정될 수 있다. 본 발명에 따른 미리 설정된 영역의 길이는 상기 설명한 예시로 한정되는 것은 아니고, 교통 환경에 따라 다양한 길이의 범위로 설정될 수 있다. The size of the grid map is determined by the size of a preset area, and the size of the preset area means an area to be viewed with interest in the relationship between the self vehicle 10 and the target vehicle 20 . Specifically, as shown in (b) of FIG. 3 , the total length L in the longitudinal direction based on the vehicle 10 may correspond to a total length of 20 m, 10 m in the front longitudinal direction and 10 m in the rear longitudinal direction. The total length D in the lateral direction may be set to include 10 m or the length of two lanes in the direction from the self vehicle 10 to the target vehicle 20. The length of the preset area according to the present invention is not limited to the example described above, and may be set to a range of various lengths according to the traffic environment.

전처리 모듈(110)의 타임 윈도우 모듈(111)은 제1입력 정보(34) 또는 제2입력 정보(35)를 타임 윈도잉(time windowing) 방법으로 여러 시간에 걸쳐 데이터를 축적하여 통합 데이터를 생성할 수 있다. The time window module 111 of the preprocessing module 110 generates integrated data by accumulating data over several hours using the time windowing method for the first input information 34 or the second input information 35. can do.

구체적으로, 타임 윈도우 모듈(111)은 미리 설정된 시간 동안 미리 설정된 간격으로 취득하여 누적적으로 쌓아 올린 통합 데이터를 생성할 수 있다. 일 예로, 0.5초동안 0.1초동안의 간격으로 총 5회 제1입력 정보(34) 또는 제2입력 정보(35)를 수신한 후, 수신한 정보들을 하나의 데이터 형태로 생성할 수 있다. 타임 윈도잉 기법에 의해 정보를 생성하는 경우 차량에 대한 과거의 위치 정보 및 시간 정보를 활용할 수 있어, 단순히 현재 정보에 근거하여 추론을 하는 경우 보다 정확도가 높은 정보를 출력할 수 있는 장점이 존재한다. Specifically, the time window module 111 may generate integrated data obtained by acquiring data at preset intervals for a preset time and cumulatively accumulated. For example, after receiving the first input information 34 or the second input information 35 a total of 5 times at intervals of 0.5 seconds and 0.1 seconds, the received information may be generated as one data type. When information is generated by the time windowing technique, past location information and time information of the vehicle can be used, so there is an advantage in that information can be output with higher accuracy than simply inference based on current information. .

그리드 맵 정보 생성 모듈(112)은 타임 윈도우 모듈(111)에서 생성한 정보를 기초로 특징 벡터를 생성하고, 생성한 특징 벡터 정보를 그리드 맵에 투영하여 최종적으로 그리드 맵 정보(40)를 생성할 수 있다. The grid map information generation module 112 generates a feature vector based on the information generated by the time window module 111, projects the generated feature vector information onto the grid map, and finally generates the grid map information 40. can

구체적으로, 그리드 맵 정보 생성 모듈(112)은 타임 윈도우 모듈(111)이 생성한 통합 데이터에서 레이다 포인트 정보 특징 벡터, 레이다 반사율 정보 특징 벡터, 레이다 강도 정보 특징 벡터, 라이다 포인트 정보 특징 벡터 등에 대한 정보를 특징 벡터별로 생성할 수 있으며, 전처리 모듈(110)에 입력되는 입력 정보의 종류의 따라 생성되는 특징 벡터는 다른 종류의 벡터가 생성될 수 있다.Specifically, the grid map information generation module 112 generates radar point information feature vectors, radar reflectivity information feature vectors, radar intensity information feature vectors, lidar point information feature vectors, etc. from the integrated data generated by the time window module 111. Information may be generated for each feature vector, and different types of feature vectors may be generated depending on the type of input information input to the preprocessing module 110 .

라이다 정보(31)와 레이다 정보(32)를 포함하는 제1입력 정보(34)가 전처리 모듈(110)의 입력 정보로 입력되는 경우, 전처리 모듈(110)은 제1그리드 맵 정보를 생성할 수 있다. When the first input information 34 including lidar information 31 and radar information 32 is input as input information of the pre-processing module 110, the pre-processing module 110 generates first grid map information. can

제1그리드 맵 정보는, 도 4의 (a)에 도시된 바와 같이 라이다 포인트 정보(a)를 포함하고 있는 특징 벡터, 라이다 세기(강도) 정보(b)를 포함하고 있는 특징 벡터 및 레이다 정보에 기초한 자아 차량(10)과 타켓 차량(20)과의 상대 속도 정보(c)를 포함하고 있는 특징 벡터에 대한 정보가 포함되어 있을 수 있다. As shown in (a) of FIG. 4, the first grid map information includes a feature vector including lidar point information (a), a feature vector including lidar intensity (intensity) information (b), and radar Information on a feature vector including relative speed information (c) between the self vehicle 10 and the target vehicle 20 based on the information may be included.

그리드 맵 정보 생성 모듈(112)은 각각의 벡터를 생성함에 있어서, 타임 윈도우 모듈(111)이 미리 설정된 시간 동안 제1입력 정보를 수신한 개수 만큼 벡터를 생성할 수 있다. 즉, 일 예로 타임 윈도우 모듈(111)이 제1입력 정보(34)를 1초동안 0.1초 간격으로 총 10회 수신한 경우, 도 4에 도시된 바와 같이 그리드 맵 정보(40)는 각각의 벡터에 대해 총 10개의 채널(channel)을 생성할 수 있다. 따라서, 제1그리드 맵 정보에는 라이다 포인트 정보, 라이다 세기 정보 및 상대 속도 정보를 포함하고 있는 주행 정보가 포함되어 있을 수 있다. In generating each vector, the grid map information generation module 112 may generate as many vectors as the number of times the time window module 111 receives the first input information during a preset time. That is, for example, when the time window module 111 receives the first input information 34 a total of 10 times at intervals of 0.1 seconds for 1 second, as shown in FIG. 4, the grid map information 40 is each vector A total of 10 channels can be created for Accordingly, the first grid map information may include driving information including lidar point information, lidar strength information, and relative speed information.

라이다 정보(31) 및 레이다 정보(32)와 더불어 차량 정보(33)까지 포함하는 제2입력 정보(35)가 전처리 모듈(110)의 입력 정보로 입력되는 경우, 전처리 모듈(110)은 제2그리드 맵 정보를 생성할 수 있다.When the second input information 35 including lidar information 31 and radar information 32 as well as vehicle information 33 is input as input information of the preprocessing module 110, the preprocessing module 110 2 Grid map information can be created.

제2그리드 맵 정보는, 도 4의 (b)에 도시된 바와 같이 라이다 포인트 정보(a)를 포함하고 있는 특징 벡터, 라이다 세기(강도) 정보(b)를 포함하고 있는 특징 벡터 및 레이다 포인트 정보(d)를 포함하고 있는 특징 벡터에 대한 정보가 포함될 수 있으며, 차량 정보(33)는 그리드 맵 자체에 투영될 수 있는 정보가 아닌 만큼 그리드 맵에 더비(dummy) 형식으로 부착되어 그리드 맵 정보가 생성될 수 있다. As shown in (b) of FIG. 4, the second grid map information includes a feature vector including lidar point information (a), a feature vector including lidar intensity (intensity) information (b), and radar Information on the feature vector including the point information (d) may be included, and since the vehicle information 33 is not information that can be projected on the grid map itself, it is attached to the grid map in a dummy form and is attached to the grid map. information can be created.

그리드 맵 정보 생성 모듈(112)은 각각의 벡터를 생성함에 있어서, 타임 윈도우 모듈(111)이 미리 설정된 시간 동안 제1입력 정보를 수신한 개수 만큼 벡터를 생성할 수 있다. 즉, 일 예로 타임 윈도우 모듈(111)이 제2입력 정보(35)를 1초동안 0.1초 간격으로 총 10회 수신한 경우, 도 4에 도시된 바와 같이 그리드 맵 정보(40)는 각각의 벡터에 대해 총 10개의 채널(channel)을 생성할 수 있다. 따라서, 제2그리드 맵 정보에는 라이다 포인트 정보, 라이다 세기 정보, 레이더 포인트 정보를 포함하고 있는 주행 정보가 포함되어 있을 수 있으며, 이렇게 생성된 그리드 맵 정보(40)는 인공신경망 모듈(200)의 입력 정보로 활용된다.In generating each vector, the grid map information generation module 112 may generate as many vectors as the number of times the time window module 111 receives the first input information during a preset time. That is, for example, when the time window module 111 receives the second input information 35 a total of 10 times at intervals of 0.1 seconds for 1 second, as shown in FIG. 4, the grid map information 40 is each vector A total of 10 channels can be created for Accordingly, the second grid map information may include driving information including lidar point information, lidar strength information, and radar point information, and the generated grid map information 40 is the artificial neural network module 200 It is used as input information for

도 5는 본 발명의 실시예에 따른 충돌 감지 인공신경망 모듈의 학습 세션과 추론 세션을 도시한 도면이고, 도 6은 본 발명의 실시예에 따른 충돌 감지 인공신경망 모듈의 구성 요소와 입력 정보, 출력 정보를 도시한 도면이며, 도 7은 본 발명의 실시예에 따른 충돌 감지 인공신경망 모듈의 프로세스 과정을 설명하기 위한 도면이다. 5 is a diagram illustrating a learning session and an inference session of an artificial neural network module for collision detection according to an embodiment of the present invention, and FIG. 6 is a diagram showing components, input information, and output of the artificial neural network module for collision detection according to an embodiment of the present invention. It is a diagram showing information, and FIG. 7 is a diagram for explaining a process of a collision detection artificial neural network module according to an embodiment of the present invention.

도 5내지 도 7을 참조하면, 충돌 감지 인공신경망 모듈(120)은 그리드 맵 정보(40)를 입력 정보로 하고, 타켓 차량(20)과 자아 차량(10)에 대해 예측된 주행 경로에 기초하여 타켓 차량(20)과 자아 차량(10)과의 충돌 발생 여부 정보를 포함하고 있는 제1충돌 예측 정보(50)를 출력 정보로 하는, 기 학습된 충돌 감지 인공신경망 모듈로서, 도 5에 도시된 바와 같이 입력 정보, 출력 정보 및 레퍼런스 정보를 기초로 학습을 수행하는 학습 세션(121)과 입력 정보를 기초로 출력 정보를 출력하는 추론 세션(122)을 포함할 수 있다. 5 to 7 , the collision detection artificial neural network module 120 uses the grid map information 40 as input information and based on the predicted driving paths for the target vehicle 20 and the self vehicle 10 A pre-learned collision detection artificial neural network module whose output information is the first collision prediction information 50, which includes information on whether a collision occurs between the target vehicle 20 and the self vehicle 10, as shown in FIG. As described above, it may include a learning session 121 that performs learning based on input information, output information, and reference information, and an inference session 122 that outputs output information based on the input information.

충돌 감지 인공신경망 모듈(120)은 다수의 은닉층을 가지고 있는 일반적인 DNN(Deep Neural Network) 구조의 인공신경망이 차용될 수 있는데, 충돌 감지 인공신경망 모듈(120)에 입력되는 데이터가 그리드 맵 형식의 데이터인 점에 비추어, CNN(Convolution Neural Network) 종류의 네트워크가 차용될 수 있다.The collision detection artificial neural network module 120 may borrow an artificial neural network of a general Deep Neural Network (DNN) structure having a plurality of hidden layers, and the data input to the collision detection artificial neural network module 120 is grid map format data In view of this, a CNN (Convolution Neural Network) type of network may be employed.

도 6과 도 7에 도시된 바와 같이 입력 정보인 그리드 맵 정보(40)는 복수 개의 컨볼루션 레이어와 맥스 폴링 과정을 거치면서 특정 정보를 포함하는 특징 맵이 추출되고, 이렇게 추출된 특징 맵은 여러 개의 히든 레이어를 거쳐 최종적으로 소프트 맥스를 거쳐 출력 정보가 출력될 수 있다.As shown in FIGS. 6 and 7, the grid map information 40, which is input information, is extracted through a plurality of convolution layers and a max polling process, and a feature map including specific information is extracted. Output information may be output through a final soft max after passing through the hidden layers.

본 발명에 따른 충돌 감지 인공신경망 모듈(120)이 출력하는 출력 정보(50)는 앞서 살펴본 주행 유형 중 4가지 유형 중 어느 한가지 유형에 해당하는지 여부에 대한 정보 및 이에 대한 확률 정보가 출력될 수 있다. 따라서, 최종 소프트 맥스층을 통과하기 직전의 완전 연결층(45, Fullly-Connected layer)은 4가지 유형에 대한 각각의 확률 정보를 포함하고 있다. 즉, V1은 제1유형에 대한 확률 정보를 포함하고 있는 제1유형 확률 정보(51)를 의미하고, V2는 제2유형에 대한 확률 정보를 포함하고 있는 제2유형 확률 정보(52)를 의미하며, V3는 제3유형에 대한 확률 정보를 포함하고 있는 제3유형 확률 정보(53)를 의미하고, V4는 제4유형에 대한 확률 정보를 포함하고 있는 제1유형 확률 정보(54)를 의미하며, 소프트 맥스층은 상기 4가지 유형 중 가장 확률이 높은 유형에 대한 정보를 충돌 감지 인공신경망 모듈(120)의 출력 정보로 출력할 수 있다. The output information 50 output by the collision detection artificial neural network module 120 according to the present invention may include information on whether it corresponds to any one of the four driving types discussed above and probability information for this information. . Accordingly, the fully-connected layer 45 immediately before passing through the final softmax layer includes probability information for each of the four types. That is, V1 means the first type probability information 51 including the first type probability information, and V2 means the second type probability information 52 including the second type probability information. V3 means type 3 probability information 53 including probability information about type 3, and V4 means probability information 54 of type 1 including probability information about type 4 And, the soft max layer can output information about the type with the highest probability among the four types as output information of the collision detection artificial neural network module 120.

도 8은 본 발명의 실시예에 따른 후처리 모듈의 프로세스 과정을 설명하기 위한 도면이다. 8 is a diagram for explaining a process of a post-processing module according to an embodiment of the present invention.

도 8을 참조하면, 후처리 모듈(130)은 충돌 감지 인공신경망 모듈(120)이 생성하는 정보들을 이용하는 모듈로서, 구체적으로는 충돌 감지 예측 인공신경망 모듈의 소프트 맥스(soft max)층 전 단계인 완전 연결층(45)에서 출력되는 미리 설정된 4가지 주행 유형에 관한 로직 벡터(Logit Vector) 정보를 추출한 후, 로직 벡터에 상기 4가지 주행 유형으로 판단할 수 없는 예외 유형에 대한 정보를 합산 한 후, 합산된 로직 벡터 정보를 기초로 제2충돌 예측 정보(60)를 출력하는 모듈을 의미한다. Referring to FIG. 8 , the post-processing module 130 is a module that uses information generated by the collision detection artificial neural network module 120, and is specifically a step before the soft max layer of the collision detection prediction artificial neural network module. After extracting the logit vector information on the four preset driving types output from the fully connected layer 45, adding information on the exception type that cannot be determined as the four driving types to the logic vector, and then , means a module that outputs the second collision prediction information 60 based on the summed logic vector information.

즉, 후처리 모듈(400)은 제1유형 확률 정보(51), 제2유형 확률 정보(52), 제3유형 확률 정보(53) 및 제4유형 확률 정보(54)를 완전 연결층(45)에서 추출한 후, 상기 4가지 유형으로 판단할 수 없는 예외 유형을 새로운 클래스(class)로 만든 후, 총 5가지 유형으로 다시 충돌 가능성 여부를 판단하는 모듈을 의미한다. That is, the post-processing module 400 converts the first type probability information 51, the second type probability information 52, the third type probability information 53, and the fourth type probability information 54 into the fully connected layer 45 ), a module that determines the possibility of collision again with a total of five types after making the exception types that cannot be determined into the above four types into a new class.

본 발명의 경우 앞서 설명한 바와 같이 출력 결과는 미리 설정된 4가 유형 중 한 가지 유형으로 출력되므로, 제1충돌 예측 정보는 상기 4가지 유형 중 하나의 정보를 반드시 출력이 된다. 비록, 자아 차량(10)과 타켓 차량(20)의 예상 주행 경로는 앞서 설명한 4가지 유형에 대부분 해당이 되나, 경우에 따라서는 4가지 유형에 해당하지 않는 애매한 경우도 발생할 수 있다. 그리고 이러한 경우는 당연히 어느 4가지 유형에 해당하지 않는데 이를 하나의 유형으로 정해 버리고 학습을 하거나 추론은 하는 것은 오히려 4가지 유형에 대한 예측 결과를 감소시키는 문제를 일으킬 수 있다. 따라서, 본 발명에 따른 후처리 모듈(130)은 판단하기 어려운 유형에 대해서는 제5유형으로 별도로 분류하여 출력을 하므로, 제1유형 내지 제4 유형에 대해서는 후처리 모듈(130)이 적용되지 않은 경우보다 보다 신뢰도가 높은 정보가 출력될 수 있다.In the case of the present invention, as described above, since the output result is output in one of the preset 4 types, the first collision prediction information always outputs one of the four types. Although, most of the expected driving paths of the self vehicle 10 and the target vehicle 20 correspond to the four types described above, but ambiguous cases that do not correspond to the four types may occur in some cases. And this case, of course, does not correspond to any of the 4 types, but setting it as one type and learning or reasoning can rather cause a problem of reducing the prediction results for the 4 types. Therefore, since the post-processing module 130 according to the present invention classifies difficult-to-determine types into the fifth type and outputs them, the post-processing module 130 is not applied to the first to fourth types. Information with higher reliability can be output.

여기서 후처리 모듈(130)이 제5유형으로 분류하는 기준은 4가지 유형에 대한 확률 중 그 어느 하나도 미리 설정된 기준을 넘기지 못하는 경우(예를 들어 60프로) 이 경우 그 추록에 대한 정확도를 보장할 수 없는 상황이므로 이러한 경우는 제5유형으로 분류하여 별도의 유형으로 출력 정보를 생성할 수 있다. Here, the criterion for classifying the post-processing module 130 into the fifth type is when none of the probabilities for the four types exceed the preset standard (for example, 60%). In this case, the accuracy of the estimation can be guaranteed. Since this is an impossible situation, this case can be classified as a fifth type and output information can be generated as a separate type.

도 9는 본 발명의 다른 실시예에 따른 충돌 감지 인공신경망 모듈의 프로세스 과정을 설명하기 위한 도면이다. 9 is a diagram for explaining a process of a collision detection artificial neural network module according to another embodiment of the present invention.

도 9에 따른 충돌 감지 인공신경망 모듈(120)의 기본 구조는 도 7에서 설명한 인공신경망 모듈과 유사하나, 충돌 감지 인공신경망 모듈(120)에 입력되는 정보는 라이다 정보(31)와 레이다 정보(32)로 기초로 생성된 제1그리드 맵 정보이며, 차량 정보 입력 모듈(121)로부터 차량의 각종 정보를 포함하고 있는 차량 정보(33)를 포함하고 있는 중간 입력 정보를 충돌 감지 인공신경망 모듈(120)에서 완전 연결층이 처음 시작되는 제1완전 연결층(42)에 입력시킨다는 점에서 차이점이 존재한다.The basic structure of the collision detection artificial neural network module 120 according to FIG. 9 is similar to the artificial neural network module described in FIG. 7, but the information input to the collision detection artificial neural network module 120 includes lidar information 31 and radar information ( 32), which is the first grid map information generated based on the collision detection artificial neural network module 120. ), there is a difference in that the fully connected layer is input to the first fully connected layer 42 that starts first.

여기서 제1완전 연결층(42)에 입력되는 정보는 자아 차량(10)의 조향 각도 정보, 요레이트 정보, 종방향 가속도 정보, 횡방향 가속도 정보 및 차량 속도 정보 등이 포함될 수 있으며, 충돌 감지 인공신경망 모듈(120)은 이렇게 입력된 중간 입력 정보를 활용하여 학습 및 추론을 하여 출력 정보인 제1충돌 예측 정보(50)를 출력할 수 있다. Here, the information input to the first fully connected layer 42 may include steering angle information, yaw rate information, longitudinal acceleration information, lateral acceleration information, and vehicle speed information of the vehicle 10, and collision detection artificial The neural network module 120 may output first collision prediction information 50 as output information by performing learning and inference using intermediate input information input in this way.

도 10은 본 발명의 일 실시예 따라 충돌 감지 인공신경망 모듈이 출력한 정보를 유형별로 도시한 도면이다. 10 is a diagram showing information output by a collision detection artificial neural network module by type according to an embodiment of the present invention.

도 10의 (a)는 자아 차량(10) 및 타켓 차량(20) 모두 현 상황에서 차선을 변경하지 않고 평행하게 주행하는 제1유형으로서, 도면에 도시된 바와 같이 각각의 차량에 대한 예측 주행 경로는 일직선으로 평행하게 출력되는 것을 알 수 있다. 10(a) is a first type in which both the self vehicle 10 and the target vehicle 20 drive in parallel without changing lanes in the current situation, and as shown in the drawing, the predicted driving path for each vehicle It can be seen that is output in parallel in a straight line.

도 10의 (b)는 자아 차량(10)은 현 상황에서 차선을 변경하지 않고 계속 주행하나, 타켓 차량(20)이 자아 차량(10)의 방향으로 한 차선 이동하는 타켓 차량 차선 변경 유형에 해당하는 제2유형으로서, 도면에 도시된 바와 같이 자아 차량(10)에 대한 예측 주행 경로는 일직선으로 출력이 되나, 타켓 차량(20)의 예측 주행 경로는 차선이 변경되는 것을 알 수 있다. 타켓 차량(20)이 차선이 한 차선 변경되었음에도 불구하고, 예측 주행 경로가 자아 차량(10)의 예측 경로와 평행하게 출력되지 않으면 사고 발생 가능성이 존재하므로, 이에 대한 위험 정보를 운전자에게 출력할 수 있다. 10 (b) corresponds to a target vehicle lane change type in which the subject vehicle 10 continues driving without changing lanes in the current situation, but the target vehicle 20 moves by one lane in the direction of the subject vehicle 10. As a second type, as shown in the figure, the predicted driving path for the subject vehicle 10 is output in a straight line, but it can be seen that the predicted driving path for the target vehicle 20 changes lanes. Even though the lane of the target vehicle 20 is changed by one lane, if the predicted driving path is not output in parallel with the predicted path of the self vehicle 10, there is a possibility of an accident, and therefore, risk information about this can be output to the driver. there is.

도 10의 (c)는 타켓 차량(20)은 현 상황에서 차선을 변경하지 않고 계속 주행하나, 자아 차량(10)이 타켓 차량(20)의 방향으로 한 차선 이동하는 자아 차량 차선 변경 유형에 해당하는 제3유형으로서, 도면에 도시된 바와 같이 타겟 차량(20)에 대한 예측 주행 경로는 일직선으로 출력이 되나, 자야 차량(20)의 예측 주행 경로는 차선이 변경되는 것을 알 수 있다. 자아 차량(10)이 차선이 한 차선 변경되었음에도 불구하고, 예측 주행 경로가 타겟 차량(20)의 예측 경로와 평행하게 출력되지 않으면 사고 발생 가능성이 존재하므로, 이에 대한 위험 정보를 운전자에게 출력할 수 있다10(c) corresponds to the self vehicle lane change type in which the target vehicle 20 continues to drive without changing lanes in the current situation, but the self vehicle 10 moves by one lane in the direction of the target vehicle 20. As a third type, as shown in the figure, the predicted driving path for the target vehicle 20 is output in a straight line, but it can be seen that the predicted driving path for the vehicle 20 changes lanes. Even if the lane of the self vehicle 10 is changed by one lane, if the predicted driving path is not output in parallel with the predicted path of the target vehicle 20, there is a possibility of an accident, and therefore, risk information regarding this may be output to the driver. there is

도 10의 (d)는 자아 차량(10) 및 타켓 차량(20) 모두 현 상황에서 차선을 상대방 차량으로 한 차선씩 이동하는 경우로서, 제4유형의 경우 한 차선씩의 이동으로 인해 자아 차량(10)과 타켓 차량(20)의 예측 주행 경로는 제2차선으로 향하게 되므로, 이 경우는 사고가 발생할 가능성이 높은 경우에 해당한다. 따라서, 제4유형에 해당하는 경우 이에 대한 위험 정보를 운전자에게 출력할 수 있다. 10(d) is a case in which both the subject vehicle 10 and the target vehicle 20 move from one lane to the other vehicle in the current situation, and in the case of the fourth type, the subject vehicle 10 and the target vehicle 20 move one lane at a time. Since the predicted driving paths of 10) and the target vehicle 20 are directed to the second lane, this case corresponds to a case in which an accident is highly likely to occur. Accordingly, in the case of the fourth type, danger information about this may be output to the driver.

도 11은 본 발명의 각각의 실시예에 따라 후처리 모듈을 적용하였을 때와 적용하지 않았을 때의 출력 결과를 비교 도시한 도면으로서, 구체적으로 도 11의 (a)는 후처리 모듈이 적용되지 않았을 때의 충돌 감지 인공신경망 모듈(120)이 출력한 예측 주행 경로를 표시한 도면이고, 도11의 (b)는 충돌 감지 인공신경망 모듈(120)에서 출력된 정보가 후처리 모듈(130)을 통과하여 출력된 예측 주행 경로를 표시한 도면으로서, 도면에 도시된 바와 같이 정확하게 판단할 수 없는 유형에 대해서는 출력 결과가 제5유형에 대한 정보로 출력됨을 알 수 있다. 11 is a diagram showing a comparison of output results when a post-processing module is applied and when a post-processing module is not applied according to each embodiment of the present invention. 11(b) shows the predicted driving path output by the collision detection artificial neural network module 120 when the information output from the collision detection artificial neural network module 120 passes through the post-processing module 130 As shown in the drawing, it can be seen that the output result is output as information about the fifth type for the type that cannot be accurately determined, as shown in the drawing.

앞서 설명한 바와 같이 후처리 모듈(130)이 적용되지 않은 경우, 출력 결과는 4가 유형 중 한 가지 유형으로 반드시 출력해야 하므로, 4가지 유형에 해당하지 않음에도 유형이 선택되어야 하기 때문에 각각의 유형에 대한 정확도가 떨어질 수 있다. 그러나 후처리 모듈(130)이 적용되면 판단하기 어려운 유형에 대해서는 제5유형으로 별도로 분류하여 출력하기 때문에, 제1유형 내지 제4 유형에 대해서는 보다 정확도가 높은 정보가 출력될 수 있다. As described above, when the post-processing module 130 is not applied, the output result must be output in one of the 4 types, so the type must be selected even though it does not correspond to the 4 types. accuracy may decrease. However, when the post-processing module 130 is applied, since types that are difficult to determine are separately classified into the fifth type and output, more accurate information can be output for the first to fourth types.

도 12는 본 발명에 따른 충돌 가능성 판단 장치와 종래 기술에 따른 충돌 가능성 판단 장치의 예측 정확도에 대한 실험 결과를 수치로 정리하여 도시한 도면으로서, 도 12의 (a)는 실험에 기본적인 데이터 셋(data set)에 대한 정보를 도시한 표이고, 도 12의 (b)는 각각의 유형별로의 실험 결과를 도시한 도면이다.Figure 12 is a diagram showing experimental results for the prediction accuracy of the collision possibility determination apparatus according to the present invention and the collision possibility determination apparatus according to the prior art, in numerical terms, Figure 12 (a) is a basic data set for the experiment ( data set), and FIG. 12(b) is a diagram showing the experimental results for each type.

또한, 도 12의 (c)는 본 발명의 여러 실시예에 대한 결과를 비교 도시한 도면으로서, 표 항목 중 차량 정보 입력 항목은 전처리 모듈의 입력 정보가 차량 정보(33)만 입력된 경우, 타임 윈도잉 정보 항목은 입력 정보는 라이다 정보(31) 및 레이다 정보(32)가 입력 되고 그 후 타임 윈도우 모듈(111)에 의해 타임 윈도우 기법이 적용된 정보가 활용된 경우, 라이다 정보 및 레이더 정보 항목은 입력 정보로 오직 라이다 정보(31)와 레이다 정보(32)가 활용된 경우를 말한다. 본 발명 항목은 입력 정보로 라이다 정보(31), 레이다 정보(32) 및 차량 정보(33)가 모두 활용되고 타임 윈도우 기법도 적용된 경우를 의미한다. 표에 도시된 바와 같이 데이터가 많아지고 타임 윈도우 기법이 적용될수록 정확도가 높아지는 것을 알 수 있다. In addition, FIG. 12(c) is a diagram showing a comparison of the results of various embodiments of the present invention. Among the table items, the vehicle information input item is when only the vehicle information 33 is entered as the input information of the preprocessing module, the time The windowing information item is input information when lidar information 31 and radar information 32 are input and then information to which the time window technique is applied by the time window module 111 is used, lidar information and radar information The item refers to a case in which only radar information 31 and radar information 32 are used as input information. The item of the present invention means a case in which lidar information 31, radar information 32, and vehicle information 33 are all used as input information and a time window technique is also applied. As shown in the table, it can be seen that the accuracy increases as the amount of data increases and the time window technique is applied.

지금까지 도면을 통해 일 실시예에 따른 충돌 가능성 판단 장치(100)의 구성 요소 및 작동원리에 대하 알아보았다. So far, the components and operating principles of the apparatus 100 for determining the possibility of collision according to an embodiment have been described through drawings.

일 실시예에 따른 인공신경망을 이용한 주행 차량의 충돌 가능성 판단 방법 및 장치는 여러 센서를 이용하여 취득한 데이터를 기초로 인공신경망 학습을 통해 주행 중인 차량과 주변 차량과의 예상 주행 경로를 분석하기 때문에, 주변 차량과의 충돌 가능성 여부를 종래 기술 보다 정확하게 예측할 수 있는 효과가 존재한다. A method and apparatus for determining the possibility of collision of a driving vehicle using an artificial neural network according to an embodiment analyzes an expected driving path between a vehicle in motion and a nearby vehicle through artificial neural network learning based on data obtained using various sensors, There is an effect of predicting the possibility of collision with surrounding vehicles more accurately than the prior art.

일 실시예에 따른 인공신경망을 이용한 주행 차량의 충돌 가능성 판단 방법 및 장치는 현재 주행 중인 차량과 옆옆 차선에 존재하는 차량과 향후 일어날 수 있는 주행 상황들을 유형별로 분류한 후, 이를 기초로 학습을 하고 추론하기 때문에 운전자에게 예측되는 상황에 대한 정보를 구체적으로 제공할 수 있으며, 더 나아가 정확히 구분이 어려운 상황에 대해서는 별도의 알고리즘을 통해 출력 결과에서 배제시키므로, 추론 결과의 정확성을 높일 수 있는 효과가 존재한다. A method and apparatus for determining the possibility of collision of a driving vehicle using an artificial neural network according to an embodiment classifies a currently driving vehicle, a vehicle existing in a lane next to a vehicle, and a driving situation that may occur in the future by type, and then learns based on this Because it infers, it is possible to provide the driver with information about the predicted situation in detail, and furthermore, situations that are difficult to accurately distinguish are excluded from the output result through a separate algorithm, which has the effect of increasing the accuracy of the inference result. do.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The devices described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. You can command the device. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. can be embodied in Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다. As described above, although the embodiments have been described with limited examples and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved. Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

10 : 자아 차량 20 : 타겟차량
30 : 전처리 모듈 입력정보 40 : 그리드맵 정보
50 : 제1충돌예측 정보 60 : 제2충돌예측 정보
100 : 충돌가능성 판단장치 110 : 전처리 모듈
111 : 타임윈도우 모듈 112 : 그리드 맵 정보 생성모듈
120 : 충돌감지 인공신경망 모듈 121 : 학습 세션
122 : 추론 세션 130 : 후처리 모듈
140 : 메모리 모듈
10: self vehicle 20: target vehicle
30: preprocessing module input information 40: grid map information
50: first collision prediction information 60: second collision prediction information
100: collision possibility determination device 110: pre-processing module
111: time window module 112: grid map information generation module
120: collision detection artificial neural network module 121: learning session
122: inference session 130: post-processing module
140: memory module

Claims (15)

라이다 및 레이다로부터 수신한 라이다 정보 및 레이다 정보를 입력 정보로 하고, 미리 설정된 영역에 존재하는 타켓 차량(target vehicle) 및 자아 차량(ego vehicle)에 대한 주행 정보를 포함하고 있는 그리드 맵(Grid Map) 정보를 출력 정보로 하는 전처리 모듈; 및
상기 그리드 맵 정보를 입력 정보로 하고, 상기 타켓 차량과 상기 자아 차량의 충돌 발생 여부 정보를 포함하고 있는 제1충돌 예측 정보를 출력 정보로 하는, 기 학습된 충돌 감지 인공신경망 모듈;을 포함하고,
상기 제1충돌 예측 정보는, 미리 정의된 상기 타켓 차량과 상기 자아 차량의 주행 유형 중 하나의 유형에 해당하는지 여부에 대한 정보를 포함하고,
상기 주행 유형은,
상기 타켓 차량과 상기 자아 차량의 평행 주행 유형, 상기 타켓 차량의 차선 이동 유형, 상기 자아 차량의 차선 이동 유형 및 상기 타켓 차량과 상기 자아 차량의 동시 차선 이동 유형을 포함하는,
인공신경망을 이용한 주행 차량의 충돌 가능성 판단 장치.
A grid map including lidar and lidar information and radar information received from the radar as input information and including driving information for a target vehicle and an ego vehicle existing in a preset area Map) information as output information pre-processing module; and
A pre-learned collision detection artificial neural network module that takes the grid map information as input information and first collision prediction information including information on whether or not a collision between the target vehicle and the self vehicle has occurred as output information,
The first collision prediction information includes information on whether or not the target vehicle and the self vehicle correspond to one of predefined driving types,
The driving type is
Including a parallel driving type of the target vehicle and the own vehicle, a lane movement type of the target vehicle, a lane movement type of the own vehicle, and a simultaneous lane movement type of the target vehicle and the own vehicle,
A device for determining the possibility of collision of a driving vehicle using an artificial neural network.
제1항에 있어서,
상기 미리 설정된 영역의 크기는,
상기 자아 차량을 기준으로 전방 10m, 후방 10m 및 상기 타켓 차량의 방향으로 10m 또는 차선 두개의 길이를 포함하는,
인공신경망을 이용한 주행 차량의 충돌 가능성 판단 장치.
According to claim 1,
The size of the preset area is,
Including the length of two lanes or 10 m in the direction of the target vehicle, 10 m in front and 10 m in the rear based on the self vehicle,
A device for determining the possibility of collision of a driving vehicle using an artificial neural network.
제1항에 있어서,
상기 주행 정보는,
상기 레이다가 송신하는 레이다 신호의 포인트 정보, 상기 레이다 신호의 강도 정보 및 상기 타켓 차량과 상기 자아 차량과의 상대 속도 정보를 포함하는,
인공신경망을 이용한 주행 차량의 충돌 가능성 판단 장치.
According to claim 1,
The driving information is
Including point information of a radar signal transmitted by the radar, strength information of the radar signal, and relative speed information between the target vehicle and the self vehicle,
A device for determining the possibility of collision of a driving vehicle using an artificial neural network.
제1항에 있어서,
상기 입력 정보는, 차량에 부착된 센서로부터 수신한 차량 정보를 더 포함하는,
상기 차량 정보는, 상기 차량의 조향 각도 정보, 요레이트 정보, 종방향 가속도 정보, 횡방향 가속도 정보 및 차량 속도 정보 중 적어도 하나를 포함하는,
인공신경망을 이용한 주행 차량의 충돌 가능성 판단 장치.
According to claim 1,
The input information further includes vehicle information received from a sensor attached to the vehicle.
The vehicle information includes at least one of steering angle information, yaw rate information, longitudinal acceleration information, lateral acceleration information, and vehicle speed information of the vehicle.
A device for determining the possibility of collision of a driving vehicle using an artificial neural network.
제4항에 있어서,
상기 주행 정보는,
상기 라이다가 송신하는 레이다 신호의 포인트 정보, 상기 레이다 신호의 강도 정보 및 상기 라이다가 송신하는 라이다 신호의 포인트 정보를 포함하고,
상기 그리드 맵 정보는,
상기 차량 정보가 상기 그리드 맵에 더미(dummy) 형식으로 부착된 정보인,
인공신경망을 이용한 주행 차량의 충돌 가능성 판단 장치.
According to claim 4,
The driving information is
Including point information of the radar signal transmitted by the lidar, strength information of the radar signal, and point information of the lidar signal transmitted by the lidar,
The grid map information,
The vehicle information is information attached to the grid map in a dummy form,
A device for determining the possibility of collision of a driving vehicle using an artificial neural network.
제1항에 있어서,
상기 전처리 모듈은,
미리 설정된 시간 동안 미리 설정된 횟수만큼 수신한 상기 라이다 정보 및 상기 레이다 정보를 순차적으로 배열한 통합 데이터를 생성하는 타임 윈도잉 모듈;을 포함하는,
인공신경망을 이용한 주행 차량의 충돌 가능성 판단 장치.
According to claim 1,
The preprocessing module,
A time windowing module for generating integrated data in which the radar information and the radar information received a preset number of times during a preset time are sequentially arranged; including,
A device for determining the possibility of collision of a driving vehicle using an artificial neural network.
제6항에 있어서,
상기 미리 설정된 시간은 1초 내지 2초의 시간을 포함하고,
상기 미리 설정된 횟수는 5회 내지 10회를 포함하는,
인공신경망을 이용한 주행 차량의 충돌 가능성 판단 장치.
According to claim 6,
The preset time includes a time of 1 second to 2 seconds,
The preset number of times includes 5 to 10 times,
A device for determining the possibility of collision of a driving vehicle using an artificial neural network.
제7항에 있어서,
상기 전처리 모듈은,
상기 통합 데이터를 기초로 상기 라이다가 송신하는 라이다 신호의 포인트 정보, 상기 라이다 신호의 강도 정보 및 상기 타켓 차량과 상기 자아 차량과의 상대 속도 정보를 포함하는 특징 벡터 정보를 생성하는 그리드 맵 정보 생성 모듈;을 포함하는,
인공신경망을 이용한 주행 차량의 충돌 가능성 판단 장치.
According to claim 7,
The preprocessing module,
Grid map for generating feature vector information including point information of the lidar signal transmitted by the lidar, strength information of the lidar signal, and relative speed information between the target vehicle and the self vehicle based on the integrated data Including; information generating module;
A device for determining the possibility of collision of a driving vehicle using an artificial neural network.
제8항에 있어서,
상기 그리드 맵 정보 생성 모듈은,
상기 특징 벡터 정보를 그리드 맵에 투영하여 그리드 맵 정보를 생성하는,
인공신경망을 이용한 주행 차량의 충돌 가능성 판단 장치.
According to claim 8,
The grid map information generation module,
generating grid map information by projecting the feature vector information onto a grid map;
A device for determining the possibility of collision of a driving vehicle using an artificial neural network.
제1항에 있어서,
상기 충돌 감지 인공신경망 모듈의 소프트 맥스(soft max)층 전 단계인 완전 연결층(Fully-Connected layer)에서 출력되는 상기 주행 유형에 관한 로직 벡터(Logit Vector) 정보를 추출한 후, 상기 로직 벡터에 상기 주행 유형으로 판단할 수 없는 예외 유형에 대한 정보를 합산 한 후, 합산된 로직 벡터 정보를 기초로 제2충돌 예측 정보를 출력하는 후처리 모듈;을 더 포함하는,
인공신경망을 이용한 주행 차량의 충돌 가능성 판단 장치.
According to claim 1,
After extracting log vector information about the driving type output from a fully-connected layer, which is a stage before the soft max layer of the collision detection artificial neural network module, A post-processing module that sums information on exception types that cannot be determined as driving types and then outputs second collision prediction information based on the summed logic vector information; further comprising:
A device for determining the possibility of collision of a driving vehicle using an artificial neural network.
제10항에 있어서,
상기 제2충돌 예측 정보는,
상기 주행 유형 및 상기 예외 유형 중 어느 하나의 유형에 해당하는지 여부에 대한 정보를 포함하는,
인공신경망을 이용한 주행 차량의 충돌 가능성 판단 장치.
According to claim 10,
The second collision prediction information,
Including information on whether it corresponds to any one of the driving type and the exception type,
A device for determining the possibility of collision of a driving vehicle using an artificial neural network.
라이다 및 레이다로부터 수신한 라이다 정보 및 레이다 정보를 입력 정보로 하고, 미리 설정된 영역에 존재하는 타켓 차량(target vehicle) 및 자아 차량(ego vehicle)에 대한 주행 정보를 포함하고 있는 그리드 맵(Grid Map) 정보를 출력 정보로 하는 전처리 모듈;
상기 그리드 맵 정보를 입력 정보로 하고, 상기 타켓 차량과 상기 자아 차량의 충돌 발생 여부 정보를 포함하고 있는 제1충돌 예측 정보를 출력 정보로 하는, 기 학습된 충돌 감지 인공신경망 모듈; 및
차량에 부착된 센서로부터 차량 정보를 수신하고, 상기 차량 정보를 상기 충돌 감지 인공신경망 모듈에서 완전 연결층이 처음으로 시작되는 레이어에 중간 입력 정보로 송신하는 중간 입력 정보 송신 모듈;을 포함하고,
상기 제1충돌 예측 정보는, 미리 정의된 상기 타켓 차량과 상기 자아 차량의 주행 유형 중 어느 하나의 유형에 해당하는지 여부에 대한 정보를 출력하고
상기 주행 유형은,
상기 타켓 차량과 상기 자아 차량의 평행 주행 유형, 상기 타켓 차량의 차선 이동 유형, 상기 자아 차량의 차선 이동 유형 및 상기 타켓 차량과 상기 자아 차량의 동시 차선 이동 유형을 포함하는,
인공신경망을 이용한 주행 차량의 충돌 가능성 판단 장치.
A grid map including lidar and lidar information and radar information received from the radar as input information and including driving information for a target vehicle and an ego vehicle existing in a preset area Map) information as output information pre-processing module;
a pre-learned collision detection artificial neural network module that takes the grid map information as input information and first collision prediction information including information on whether or not a collision between the target vehicle and the own vehicle has occurred as output information; and
An intermediate input information transmission module that receives vehicle information from a sensor attached to the vehicle and transmits the vehicle information as intermediate input information to a layer where a fully connected layer first starts in the collision detection artificial neural network module,
The first collision prediction information outputs information on whether or not it corresponds to one of the predefined driving types of the target vehicle and the self vehicle;
The driving type is
Including a parallel driving type of the target vehicle and the own vehicle, a lane movement type of the target vehicle, a lane movement type of the own vehicle, and a simultaneous lane movement type of the target vehicle and the own vehicle,
A device for determining the possibility of collision of a driving vehicle using an artificial neural network.
제12항에 있어서,
상기 차량 정보는,
상기 차량의 조향 각도 정보, 요레이트 정보, 종방향 가속도 정보, 횡방향 가속도 정보 및 차량 속도 정보 중 적어도 하나를 포함하는,
인공신경망을 이용한 주행 차량의 충돌 가능성 판단 장치.
According to claim 12,
The vehicle information,
Including at least one of steering angle information, yaw rate information, longitudinal acceleration information, lateral acceleration information, and vehicle speed information of the vehicle,
A device for determining the possibility of collision of a driving vehicle using an artificial neural network.
라이다 및 레이다로부터 수신한 라이다 정보 및 레이다 정보를 입력 정보로 하고, 미리 설정된 영역에 존재하는 타켓 차량(target vehicle) 및 자아 차량(ego vehicle)에 대한 주행 정보를 포함하고 있는 그리드 맵(Grid Map) 정보를 출력 정보로 하는 전처리 단계; 및
상기 그리드 맵 정보를 입력 정보로 하고, 상기 타켓 차량과 상기 자아 차량의 충돌 발생 여부 정보를 포함하고 있는 제1충돌 예측 정보를 출력 정보로 하는, 기 학습된 충돌 감지 인공신경망 모듈을 이용하여, 상기 제1충돌 예측 정보를 출력하는 출력 정보 출력 단계;를 포함하고,
상기 제1충돌 예측 정보는, 미리 정의된 상기 타켓 차량과 상기 자아 차량의 주행 유형 중 어느 하나의 유형에 해당하는지 여부에 대한 정보를 포함하고,
상기 주행 유형은,
상기 타켓 차량과 상기 자아 차량의 평행 주행 유형, 상기 타켓 차량의 차선 이동 유형, 상기 자아 차량의 차선 이동 유형 및 상기 타켓 차량과 상기 자아 차량의 동시 차선 이동 유형을 포함하는,
인공신경망을 이용한 주행 차량의 충돌 가능성 판단 방법.
A grid map including lidar and lidar information and radar information received from the radar as input information and including driving information for a target vehicle and an ego vehicle existing in a preset area A pre-processing step of using Map) information as output information; and
Using a pre-learned collision detection artificial neural network module that takes the grid map information as input information and first collision prediction information including information on whether or not a collision between the target vehicle and the self vehicle has occurred as output information, Including; an output information output step of outputting first collision prediction information;
The first collision prediction information includes information on whether it corresponds to one of predefined driving types of the target vehicle and the self vehicle;
The driving type is
Including a parallel driving type of the target vehicle and the own vehicle, a lane movement type of the target vehicle, a lane movement type of the own vehicle, and a simultaneous lane movement type of the target vehicle and the own vehicle,
A method for determining the probability of collision of a driving vehicle using an artificial neural network.
제14항에 있어서,
상기 주행 정보는,
상기 레이다가 송신하는 레이다 신호의 포인트 정보, 상기 레이다 신호의 강도 정보 및 상기 타켓 차량과 상기 자아 차량과의 상대 속도 정보를 포함하는,
인공신경망을 이용한 주행 차량의 충돌 가능성 판단 방법.
According to claim 14,
The driving information is
Including point information of a radar signal transmitted by the radar, strength information of the radar signal, and relative speed information between the target vehicle and the self vehicle,
A method for determining the probability of collision of a driving vehicle using an artificial neural network.
KR1020210095187A 2021-07-20 2021-07-20 Method and apparatus for determining the possibility of collision of a driving vehicle using an artificial neural network KR102602271B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210095187A KR102602271B1 (en) 2021-07-20 2021-07-20 Method and apparatus for determining the possibility of collision of a driving vehicle using an artificial neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210095187A KR102602271B1 (en) 2021-07-20 2021-07-20 Method and apparatus for determining the possibility of collision of a driving vehicle using an artificial neural network

Publications (2)

Publication Number Publication Date
KR20230014008A true KR20230014008A (en) 2023-01-27
KR102602271B1 KR102602271B1 (en) 2023-11-14

Family

ID=85101653

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210095187A KR102602271B1 (en) 2021-07-20 2021-07-20 Method and apparatus for determining the possibility of collision of a driving vehicle using an artificial neural network

Country Status (1)

Country Link
KR (1) KR102602271B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117184105A (en) * 2023-07-20 2023-12-08 清华大学 Steering angular velocity prediction method and device based on multi-mode data fusion

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190051621A (en) * 2017-11-07 2019-05-15 재단법인대구경북과학기술원 Image data processing apparatus using semantic segmetation map and controlling method thereof
KR20190073038A (en) * 2017-12-18 2019-06-26 현대자동차주식회사 System and Method for creating driving route of vehicle
KR20190083317A (en) * 2019-06-20 2019-07-11 엘지전자 주식회사 An artificial intelligence apparatus for providing notification related to lane-change of vehicle and method for the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190051621A (en) * 2017-11-07 2019-05-15 재단법인대구경북과학기술원 Image data processing apparatus using semantic segmetation map and controlling method thereof
KR20190073038A (en) * 2017-12-18 2019-06-26 현대자동차주식회사 System and Method for creating driving route of vehicle
KR20190083317A (en) * 2019-06-20 2019-07-11 엘지전자 주식회사 An artificial intelligence apparatus for providing notification related to lane-change of vehicle and method for the same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117184105A (en) * 2023-07-20 2023-12-08 清华大学 Steering angular velocity prediction method and device based on multi-mode data fusion
CN117184105B (en) * 2023-07-20 2024-03-26 清华大学 Steering angular velocity prediction method and device based on multi-mode data fusion

Also Published As

Publication number Publication date
KR102602271B1 (en) 2023-11-14

Similar Documents

Publication Publication Date Title
US10990096B2 (en) Reinforcement learning on autonomous vehicles
US11713006B2 (en) Systems and methods for streaming processing for autonomous vehicles
US11710303B2 (en) Systems and methods for prioritizing object prediction for autonomous vehicles
KR102138979B1 (en) Lane-based Probabilistic Surrounding Vehicle Motion Prediction and its Application for Longitudinal Control
CN110461676B (en) System and method for controlling lateral movement of vehicle
US10741079B2 (en) Route prediction system
US20210171025A1 (en) Moving body behavior prediction device and moving body behavior prediction method
US20180284785A1 (en) System and Method for Controlling Motion of Vehicle in Shared Environment
US11091161B2 (en) Apparatus for controlling lane change of autonomous vehicle and method thereof
US11851081B2 (en) Predictability-based autonomous vehicle trajectory assessments
US11555927B2 (en) System and method for providing online multi-LiDAR dynamic occupancy mapping
US11860634B2 (en) Lane-attention: predicting vehicles' moving trajectories by learning their attention over lanes
CN113165670A (en) Intelligent driving method, device, storage medium and computer program
CN112660128B (en) Apparatus for determining lane change path of autonomous vehicle and method thereof
CN114061581A (en) Ranking agents in proximity to autonomous vehicles by mutual importance
US20230001953A1 (en) Planning-aware prediction for control-aware autonomous driving modules
CN114475656A (en) Travel track prediction method, travel track prediction device, electronic device, and storage medium
KR20230014008A (en) Method and apparatus for determining the possibility of collision of a driving vehicle using an artificial neural network
KR20200133122A (en) Apparatus and method for preventing vehicle collision
CN108944945B (en) State prediction method and device for driving assistance, electronic equipment and vehicle
CN115195772A (en) Apparatus and method for predicting trajectory of surrounding vehicle
KR102403178B1 (en) Method and Apparatus for Classifying Road Surface Conditions by Area of Driving Roads Using Artificial Neural Network
US20230278548A1 (en) Lane-change prediction device, lane-change prediction method, and non-transitory computer readable recording medium
US20230311879A1 (en) Autonomous driving control apparatus and method thereof
EP4219259A1 (en) Method, computer system and non-transitory computer readable medium for target selection in the vicinity of a vehicle

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant