KR20220098677A - Traffic accident prediction method and system - Google Patents

Traffic accident prediction method and system Download PDF

Info

Publication number
KR20220098677A
KR20220098677A KR1020210183113A KR20210183113A KR20220098677A KR 20220098677 A KR20220098677 A KR 20220098677A KR 1020210183113 A KR1020210183113 A KR 1020210183113A KR 20210183113 A KR20210183113 A KR 20210183113A KR 20220098677 A KR20220098677 A KR 20220098677A
Authority
KR
South Korea
Prior art keywords
traffic accident
accident
real
image
time
Prior art date
Application number
KR1020210183113A
Other languages
Korean (ko)
Inventor
류제하
박성수
정대현
윤지현
Original Assignee
광주과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광주과학기술원 filed Critical 광주과학기술원
Publication of KR20220098677A publication Critical patent/KR20220098677A/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a traffic accident prediction system. The system may include: an image filming unit acquiring a real-time image; an object information extraction unit detecting an object from the acquired image and extracting object information from the detected object; and a traffic accident prediction unit predicting a future location and size of the object from the extracted object information and predicting a possibility of an accident based on the predicted future location and size of the object.

Description

교통사고 예측 방법 및 시스템{Traffic accident prediction method and system}Traffic accident prediction method and system

본 발명은 교통사고 예측 방법 및 시스템에 관한 것으로, 더욱 상세하게는 차량에 부착된 카메라(블랙박스 등) 정보만을 사용하는 인공지능 기반, 사고를 유발할 가능성이 있는 객체 (차량 및 보행자 등)를 예측하는 시스템 및 방법에 관한 것이다.The present invention relates to a method and system for predicting a traffic accident, and more particularly, predicts objects (vehicles and pedestrians, etc.) that are likely to cause an accident based on artificial intelligence using only information from a camera (black box, etc.) attached to a vehicle It relates to a system and method for

종래의 주행 중 교통사고예측을 위해 적용된 대표적인 ADAS( Advanced Driver Assistance Systems) 기술들은 미리 정의된 상황에 대해서만 작용하여, 미리 정의되지 못한 사고에 관해서는 그 회피 제어가 불가한 문제점이 존재한다.Representative ADAS (Advanced Driver Assistance Systems) technologies applied for predicting a traffic accident while driving operate only in a predefined situation, so there is a problem that avoidance control is impossible for an accident that is not predefined.

이에, 2006년경에는 차량들끼리 서로의 정보를 송수신하여 충돌 가능성을 인지하고 회피하는 방법이 제안되었다(KR 10-2006-0050427). 하지만, 이는 차량들이 통신할 수 있는 인프라가 구축되어야 하고 일부 통신이 이루어지지 않는 차량의 경우 충돌 예측 불가한 문제점과 보안 등의 문제점이 존재한다.Accordingly, around 2006, a method of recognizing and avoiding the possibility of collision by transmitting and receiving information between vehicles was proposed (KR 10-2006-0050427). However, in this case, an infrastructure for communication between vehicles must be built, and in the case of a vehicle in which some communication is not made, there are problems such as unpredictable collision and security problems.

최근에는 인공지능 기술을 이용하여 차량 사고를 예측하는 연구가 활발히 이루어지고 있다. 대부분 차량의 장착된 카메라 정보를 인공지능으로 분석하여 사고 예측하는 방식으로 발명이 이루어졌다. Recently, research on predicting vehicle accidents using artificial intelligence technology has been actively conducted. Most of the inventions were made in a way that predicts accidents by analyzing information from the cameras installed in vehicles with artificial intelligence.

또한, CNN을 활용하여 사고 확률을 예측하는 방법이 제안되었다(KR 10-2017-0157616). 하지만, 2016 ACCV “Anticipating Accidents in Dashcam Videos”에 의하면 RNN을 사용하였을 때가 단일 프레임 분류(single frame classify)하는 것을 능가(outperform)하는 것을 보였다. 즉, 사고를 예측하는데 있어서 한 장면만을 분석하는 것보다 시간의 흐름에 따라 분석하였을 때 효과적이다. In addition, a method for predicting accident probability using CNN has been proposed (KR 10-2017-0157616). However, according to 2016 ACCV “Anticipating Accidents in Dashcam Videos”, it was shown that using RNN outperformed single frame classify. That is, in predicting an accident, it is more effective when analyzed according to the passage of time rather than analyzing only one scene.

또한, 2017년경에는 CNN-RNN기반으로 사고를 예측하는 방안을 제시하였지만, 어떤 차량 또는 보행자가 위험 요소인지를 판단하지 않는다는 문제점이 존재한다(KR 10-2017-0173141). Also, around 2017, a method for predicting an accident based on CNN-RNN was proposed, but there is a problem in that it does not determine which vehicle or pedestrian is a risk factor (KR 10-2017-0173141).

가장 최근 등장한, 2019년 경 방법의 경우, 다수의 부가 센서들이 필요하다는 문제점이 존재한다(KR 10-2019-0166389). In the case of the most recent method around 2019, there is a problem that a large number of additional sensors are required (KR 10-2019-0166389).

[특허문헌 1] 한국등록특허 제10-0754135호. 2007.08.24. 등록.[Patent Document 1] Korean Patent Registration No. 10-0754135. 2007.08.24. registration.

본 발명은 전술한 문제점을 해결하기 위하여 창출된 것으로, 교통사고 예측 방법 및 시스템을 제공하는 것을 그 목적으로 한다. The present invention was created to solve the above problems, and an object of the present invention is to provide a method and system for predicting a traffic accident.

본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다. Objects of the present invention are not limited to the objects mentioned above, and other objects not mentioned will be clearly understood from the description below.

상기한 목적들을 달성하기 위하여, 본 발명의 일 실시예에 따른 교통사고 예측 시스템이 개시된다. 상기 시스템은 실시간 영상을 획득하는 영상촬영부, 획득된 영상으로부터 객체를 탐지하고, 탐지된 객체로부터 객체정보를 추출하는 객체정보 추출부 및 추출한 객체정보로부터 객체의 미래 위치와 크기를 예측하고, 예측된 객체의 미래 위치와 크기에 기반하여 사고 가능성을 예측하는 교통사고 예측부를 포함할 수 있다. In order to achieve the above objects, a traffic accident prediction system according to an embodiment of the present invention is disclosed. The system includes an image capture unit that acquires a real-time image, an object information extractor that detects an object from the acquired image, and an object information extractor that extracts object information from the detected object, and predicts and predicts the future location and size of the object from the extracted object information It may include a traffic accident prediction unit that predicts the possibility of an accident based on the future location and size of the object.

또한, 본 발명의 일 실시예에 따르면, 객체정보 추출부는, 실시간으로 획득한 영상에서 차량이나 보행자를 탐지하는 객체탐지부 및 탐지된 객체의 움직임 정보를 추출하는 객체의 움직임 정보 추출부를 포함할 수 있다. Further, according to an embodiment of the present invention, the object information extraction unit may include an object detection unit that detects a vehicle or a pedestrian from an image acquired in real time, and an object motion information extraction unit that extracts motion information of the detected object. have.

또한, 본 발명의 일 실시예에 따르면, 객체탐지부는, 실시간으로 획득한 영상을 객체 탐지 딥러닝 모델에 입력하여, 실시간으로 획득한 객체 관련 영상으로부터 적어도 하나의 객체, 객체 식별자 및 객체 표시 시간 중 적어도 하나를 탐지하고, 탐지된 적어도 하나의 객체를 트래킹(tracking) 알고리즘을 통해 실시간 트래킹(tracking)할 수 있다. In addition, according to an embodiment of the present invention, the object detection unit inputs an image acquired in real time to an object detection deep learning model, and from at least one object, an object identifier, and an object display time from an object-related image acquired in real time. At least one may be detected, and the at least one detected object may be tracked in real time through a tracking algorithm.

또한, 본 발명의 일 실시예에 따르면, 객체탐지부는, 실시간으로 획득한 영상을 객체 탐지 딥러닝 모델에 입력하여, 실시간으로 획득한 객체 관련 영상으로부터 적어도 하나의 객체, 객체 식별자 및 객체 표시 시간 중 적어도 하나를 탐지하고, 탐지된 적어도 하나의 객체에 각각 대응되는 적어도 하나의 바운딩 박스(bounding box)를 생성하고, 탐지된 적어도 하나의 바운딩 박스(bounding box)를 트래킹(tracking) 알고리즘을 통해 실시간 트래킹(tracking)할 수 있다. In addition, according to an embodiment of the present invention, the object detection unit inputs an image acquired in real time to an object detection deep learning model, and from at least one object, an object identifier, and an object display time from an object-related image acquired in real time. Detect at least one, generate at least one bounding box corresponding to at least one detected object, respectively, and track the detected at least one bounding box in real time through a tracking algorithm (tracking) is possible.

또한, 본 발명의 일 실시예에 따르면, 객체 움직임 정보 추출부는, 생성된 바운딩 박스(bounding box)의 좌표가 시계열적으로 변화하는 변화량 정보를 이용하여 움직임 정보를 추출할 수 있다. Also, according to an embodiment of the present invention, the object motion information extracting unit may extract motion information using information on the amount of time-series change in coordinates of the generated bounding box.

또한, 본 발명의 일 실시예에 따르면, 교통사고 예측부는, 추출한 객체정보를 순환신경망(Recurrent neural network; RNN)모델에 입력하여 나온 결과값을 이용하여 객체의 미래 위치 및 크기를 예측하는 객체 미래 위치 및 크기 예측부 및 예측된 객체의 미래 위치 및 크기를 사고 가능성 예측 모델에 입력하여 나온 결과값을 통해 미래의 사고 가능성을 예측하는 사고 가능성 예측부를 포함할 수 있다. In addition, according to an embodiment of the present invention, the traffic accident prediction unit predicts the future location and size of the object using the result obtained by inputting the extracted object information into a recurrent neural network (RNN) model. It may include a location and size prediction unit and an accident probability prediction unit for predicting the possibility of a future accident through a result obtained by inputting the future location and size of the predicted object into the accident probability prediction model.

또한, 본 발명의 일 실시예에 따르면, 사고 가능성 예측부는, 사전에 라벨링된 데이터를 이용하여 실시간 영상에서 각각의 객체들의 스코어를 추출하고, 추출된 스코어가 기설정된 임계값을 초과하는지 여부로 미래의 사고의 가능성을 예측할 수 있다. In addition, according to an embodiment of the present invention, the accident probability prediction unit extracts the score of each object from the real-time image by using the previously labeled data, and determines whether the extracted score exceeds a preset threshold in the future. predict the likelihood of an accident.

또한, 상기한 목적들을 달성하기 위하여, 본 발명의 일 실시예에 따른 교통사고 예측 방법이 개시된다. 상기 방법은 실시간 영상을 획득하는 영상촬영단계, 획득된 영상으로부터 객체를 탐지하고, 탐지된 객체로부터 객체정보를 추출하는 객체정보 추출단계 및 추출한 객체정보로부터 객체의 미래 위치를 예측하고, 예측된 객체의 미래 위치에 기반하여 사고 가능성을 예측하는 교통사고 예측단계를 포함할 수 있다. In addition, in order to achieve the above objects, a traffic accident prediction method according to an embodiment of the present invention is disclosed. The method includes an image capturing step of acquiring a real-time image, an object information extraction step of detecting an object from the acquired image, and extracting object information from the detected object, and predicting a future location of an object from the extracted object information, and predicting the predicted object It may include a traffic accident prediction step of predicting the probability of an accident based on the future location of

또한, 본 발명의 일 실시예에 따르면, 객체정보 추출단계는, 실시간으로 획득한 영상에서 차량이나 보행자를 탐지하는 객체탐지단계 및 탐지된 객체의 움직임 정보를 추출하는 단계를 포함할 수 있다. Further, according to an embodiment of the present invention, the step of extracting the object information may include the step of detecting an object of detecting a vehicle or a pedestrian from the image acquired in real time and the step of extracting motion information of the detected object.

또한, 본 발명의 일 실시예에 따르면, 객체탐지단계는, 실시간으로 획득한 영상을 객체 탐지 딥러닝 모델에 입력하여, 실시간으로 획득한 영상으로부터 적어도 하나의 객체, 객체 식별자 및 객체 표시 시간 중 적어도 하나를 탐지하고, 탐지된 적어도 하나의 객체를 트래킹(tracking) 알고리즘을 통해 실시간 트래킹(tracking)하는 단계일 수 있다. In addition, according to an embodiment of the present invention, in the object detection step, at least one of an object, an object identifier, and an object display time from an image acquired in real time by inputting an image acquired in real time to an object detection deep learning model It may be a step of detecting one and tracking at least one detected object in real time through a tracking algorithm.

또한, 본 발명의 일 실시예에 따르면, 객체탐지단계는, 실시간으로 획득한 영상을 객체 탐지 딥러닝 모델에 입력하여, 실시간으로 획득한 객체 관련 영상으로부터 적어도 하나의 객체, 객체 식별자 및 객체 표시 시간 중 적어도 하나를 탐지하고, 탐지된 적어도 하나의 객체에 각각 대응되는 적어도 하나의 바운딩 박스(bounding box)를 생성하고, 생성된 적어도 하나의 바운딩 박스(bounding box)를 트래킹(tracking) 알고리즘을 통해 실시간 트래킹(tracking)하는 단계일 수 있다. In addition, according to an embodiment of the present invention, in the object detection step, at least one object, an object identifier, and an object display time from an object-related image acquired in real time by inputting an image acquired in real time to an object detection deep learning model detects at least one of, generates at least one bounding box corresponding to at least one detected object, respectively, and tracks the generated at least one bounding box in real time through a tracking algorithm It may be a step of tracking.

또한, 본 발명의 일 실시예에 따르면, 객체의 움직임 정보를 추출하는 단계는, 생성된 바운딩 박스(bounding box)의 좌표가 시게열적으로 변화하는 변화량 정보를 이용하여 움직임 정보를 추출하는 단계일 수 있다. In addition, according to an embodiment of the present invention, the step of extracting the motion information of the object may be a step of extracting the motion information using information on the amount of change in which the coordinates of the generated bounding box change temporally. have.

또한, 본 발명의 일 실시예에 따르면, 교통사고예측단계는, 객체정보를 순환신경망(Recurrent neural network; RNN)모델에 입력하여 나온 결과값을 이용하여 객체의 미래 위치 및 크기를 예측하는 객체 미래 위치 및 크기 예측 단계 및 예측된 객체의 미래 위치 및 크기를 사고 가능성 예측 모델에 입력하여 나온 결과값을 통해 미래의 사고 가능성을 예측하는 사고 가능성 예측단계를 포함할 수 있다. In addition, according to an embodiment of the present invention, the traffic accident prediction step is to predict the future location and size of the object using the result value obtained by inputting object information into a recurrent neural network (RNN) model. It may include an accident probability prediction step of predicting the possibility of a future accident through the result value obtained by inputting the location and size prediction step and the future location and size of the predicted object into the accident probability prediction model.

또한, 본 발명의 일 실시예에 따르면, 사고 가능성 예측단계는, 사전에 라벨링된 데이터를 이용하여 실시간 영상에서 각각의 객체들의 스코어를 추출하고, 추출된 스코어가 기설정된 임계값을 초과하는지 여부로 미래의 사고 가능성을 예측하는 단계일 수 있다. In addition, according to an embodiment of the present invention, the accident probability prediction step extracts the score of each object from the real-time image using previously labeled data, and determines whether the extracted score exceeds a preset threshold. It may be a step in predicting the possibility of future accidents.

상기한 목적들을 달성하기 위한 구체적인 사항들은 첨부된 도면과 함께 상세하게 후술될 실시예들을 참조하면 명확해질 것이다. Specific details for achieving the above objects will become clear with reference to the embodiments to be described in detail below in conjunction with the accompanying drawings.

그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라, 서로 다른 다양한 형태로 구성될 수 있으며, 본 발명의 개시가 완전하도록 하고 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자(이하, "통상의 기술자")에게 발명의 범주를 완전하게 알려주기 위해서 제공되는 것이다. However, the present invention is not limited to the embodiments disclosed below, and may be configured in various different forms, and those of ordinary skill in the art to which the present invention pertains ( Hereinafter, "a person skilled in the art") is provided to fully inform the scope of the invention.

본 발명의 일 실시예에 의하면, 객체의 미래 위치 예측을 통해서 예측과정 중 RNN의 숨겨진 상태 (Hidden States)들의 정보만을 교통사고 예측부에서 사용해서 사고를 예측하기 때문에, 사고 위험 가능성이 높은 객체에 대해 운전자에게 경고를 할 수 있어서, 자율 주행 분야에 있어서 능동적 사고 회피 동작 기술에 활용할 수 있다. According to an embodiment of the present invention, because an accident is predicted by using only the information of the hidden states of the RNN during the prediction process through the prediction of the future location of the object, the accident is predicted by the accident prediction unit. As it can warn the driver of an accident, it can be used for active accident avoidance operation technology in the autonomous driving field.

본 발명의 효과들은 상술된 효과들로 제한되지 않으며, 본 발명의 기술적 특징들에 의하여 기대되는 잠정적인 효과들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다. The effects of the present invention are not limited to the above-described effects, and potential effects expected by the technical features of the present invention will be clearly understood from the following description.

상기 언급된 본 발명 내용의 특징들이 상세하게, 보다 구체화된 설명으로, 이하의 실시예들을 참조하여 이해될 수 있도록, 실시예들 중 일부는 첨부되는 도면에서 도시된다. 또한, 도면과의 유사한 참조번호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭하는 것으로 의도된다. 그러나 첨부된 도면들은 단지 본 발명 내용의 특정한 전형적인 실시예들만을 도시하는 것일 뿐, 본 발명의 범위를 한정하는 것으로 고려되지는 않으며, 동일한 효과를 갖는 다른 실시예들이 충분히 인식될 수 있다는 점을 유의하도록 한다.
도 1은 본 발명의 일 실시예에 따른 교통사고 예측 시스템의 블록도이다.
도 2는 본 발명의 일 실시예에 따른 교통사고 예측 인공지능 모델 구조도를 도시한 도면이다.
도 3은발명의 일 실시예에 따른 객체정보 추출 결과의 예시도이다.
도 4는 발명의 일 실시예에 따른 바운딩 박스의 좌표값을 통해 바운딩 박스(bounding box) 변화량을 산출하는 예시도를 도시한 도면이다.
도 5는 발명의 일 실시예에 따른 교통사고 예측 예시도이다.
도 6은 발명의 일 실시예에 따른 교통사고 예측의 다른 예시도이다.
도 7은 본 발명의 일 실시예에 따른 교통사고 예측 방법의 순서도이다.
도 8은 본 발명의 일 실시예에 따른 교통사고 예측단계의 순서도이다.
BRIEF DESCRIPTION OF THE DRAWINGS In order that the above-mentioned features of the present invention may be understood in detail, with a more specific description, with reference to the following examples, some of the embodiments are shown in the accompanying drawings. Also, like reference numerals in the drawings are intended to refer to the same or similar functions throughout the various aspects. It should be noted, however, that the accompanying drawings show only certain typical embodiments of the present invention and are not to be considered as limiting the scope of the present invention, and other embodiments having the same effect may be sufficiently recognized. do it
1 is a block diagram of a traffic accident prediction system according to an embodiment of the present invention.
2 is a diagram illustrating a structure diagram of an artificial intelligence model for predicting traffic accidents according to an embodiment of the present invention.
3 is an exemplary diagram of an object information extraction result according to an embodiment of the present invention.
4 is a diagram illustrating an example of calculating a change amount of a bounding box through a coordinate value of a bounding box according to an embodiment of the present invention.
5 is a diagram illustrating prediction of a traffic accident according to an embodiment of the present invention.
6 is another exemplary diagram of a traffic accident prediction according to an embodiment of the present invention.
7 is a flowchart of a method for predicting a traffic accident according to an embodiment of the present invention.
8 is a flowchart of a traffic accident prediction step according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고, 여러 가지 실시예들을 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다. Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail.

청구범위에 개시된 발명의 다양한 특징들은 도면 및 상세한 설명을 고려하여 더 잘 이해될 수 있을 것이다. 명세서에 개시된 장치, 방법, 제법 및 다양한 실시예들은 예시를 위해서 제공되는 것이다. 개시된 구조 및 기능상의 특징들은 통상의 기술자로 하여금 다양한 실시예들을 구체적으로 실시할 수 있도록 하기 위한 것이고, 발명의 범위를 제한하기 위한 것이 아니다. 개시된 용어 및 문장들은 개시된 발명의 다양한 특징들을 이해하기 쉽게 설명하기 위한 것이고, 발명의 범위를 제한하기 위한 것이 아니다.Various features of the invention disclosed in the claims may be better understood upon consideration of the drawings and detailed description. The apparatus, methods, preparations, and various embodiments disclosed herein are provided for purposes of illustration. The disclosed structural and functional features are intended to enable those skilled in the art to specifically practice the various embodiments, and are not intended to limit the scope of the invention. The terms and sentences disclosed are for the purpose of easy-to-understand descriptions of various features of the disclosed invention, and are not intended to limit the scope of the invention.

본 발명을 설명함에 있어서, 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다.In describing the present invention, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.

이하, 본 발명의 일 실시예에 따른 교통사고 예측 방법 및 시스템을 설명한다. Hereinafter, a method and system for predicting a traffic accident according to an embodiment of the present invention will be described.

도 1은 본 발명의 일 실시예에 따른 교통사고 예측 시스템의 블록도이고, 도 2는 본 발명의 일 실시예에 따른 교통사고 예측 인공지능 모델 구조도를 도시한 도면이다. 1 is a block diagram of a traffic accident prediction system according to an embodiment of the present invention, and FIG. 2 is a diagram illustrating a traffic accident prediction artificial intelligence model structural diagram according to an embodiment of the present invention.

또한, 도 3은 발명의 일 실시예에 따른 객체정보 추출 결과의 예시도이고, 도 4는 발명의 일 실시예에 따른 바운딩 박스의 좌표값을 통해 바운딩 박스(bounding box) 변화량을 산출하는 예시도를 도시한 도면이다. In addition, FIG. 3 is an exemplary diagram of an object information extraction result according to an embodiment of the invention, and FIG. 4 is an exemplary diagram of calculating a change amount of a bounding box through a coordinate value of a bounding box according to an embodiment of the invention is a diagram showing

또한, 도 5는 발명의 일 실시예에 따른 교통사고 예측 예시도이고, 도 6은 발명의 일 실시예에 따른 교통사고 예측의 다른 예시도이다. In addition, FIG. 5 is a diagram illustrating prediction of a traffic accident according to an embodiment of the invention, and FIG. 6 is another diagram illustrating prediction of a traffic accident according to an embodiment of the invention.

도 1 내지 도 6을 참조하면, 교통사고 예측 시스템(10)은 영상 촬영부(100), 객체정보 추출부(300) 및 교통사고 예측부(500)를 포함할 수 있다. 1 to 6 , the traffic accident prediction system 10 may include an image capturing unit 100 , an object information extracting unit 300 , and a traffic accident prediction unit 500 .

일 실시예에서, 영상 촬영부(100)는 차량에 장착되어 있는 카메라를 통해 실시간 영상을 획득할 수 있다. 예컨대, 차량 주행시 또는 정차시, 차량내에 장착되어 있는 블랙박스 카메라 또는 별도로 부착된 카메라를 통해 실시간으로 영상을 획득할 수 있다. In an embodiment, the image capturing unit 100 may acquire a real-time image through a camera mounted on a vehicle. For example, when driving or stopping a vehicle, an image may be acquired in real time through a black box camera mounted in the vehicle or a separately attached camera.

일 실시예에서, 객체정보 추출부(300)는 영상 촬영부(100)로부터 획득된 영상으로부터 객체를 탐지하고, 탐지된 객체로부터 객체정보를 추출할 수 있다. In an embodiment, the object information extracting unit 300 may detect an object from an image obtained from the image capturing unit 100 and extract object information from the detected object.

보다 구체적으로, 객체정보 추출부(300)는 영상 촬영부(100)에서 실시간으로 획득한 영상에서 차량이나 보행자를 탐지하는 객체탐지부(310) 및 탐지된 객체의 움직임 정보를 추출하는 객체의 움직임 정보 추출부를 포함할 수 있다. More specifically, the object information extraction unit 300 includes an object detection unit 310 that detects a vehicle or a pedestrian from an image acquired in real time by the image capturing unit 100 and a motion of an object that extracts motion information of the detected object. It may include an information extraction unit.

또한, 객체탐지부(310)는 영상 촬영부(100)에서 실시간으로 획득한 영상에서 차량이나 보행자를 탐지할 수 있다. Also, the object detection unit 310 may detect a vehicle or a pedestrian from the image acquired in real time by the image capturing unit 100 .

보다 구체적으로, 객체탐지부(310)는 영상 촬영부(100)에서 실시간으로 획득한 영상을 객체 탐지 딥러닝 모델에 입력하여, 실시간으로 획득한 객체 관련 영상으로부터 적어도 하나의 객체, 객체 식별자 및 객체 표시 시간 중 적어도 하나를 탐지하고, 탐지된 적어도 하나의 객체를 트래킹(tracking) 알고리즘을 통해 실시간 트래킹(tracking) 할 수 있다. More specifically, the object detection unit 310 inputs the image acquired in real time by the image capturing unit 100 into the object detection deep learning model, and at least one object, an object identifier and an object from the object-related image acquired in real time. At least one of the display times may be detected, and the detected at least one object may be tracked in real time through a tracking algorithm.

또한, 객체탐지부(310)는 영상 촬영부(100)에서 실시간으로 획득한 영상을 객체 탐지 딥러닝 모델에 입력하여, 실시간으로 획득한 객체 관련 영상으로부터 적어도 하나의 객체, 객체 식별자 및 객체 표시 시간 중 적어도 하나를 탐지하고, 탐지된 적어도 하나의 객체에 각각 대응되는 적어도 하나의 바운딩 박스(bounding box)를 생성하여 표시하고, 생성한 바운딩 박스(bounding box)를 트래킹(tracking) 알고리즘을 통해 실시간 트래킹(tracking)할 수 있다. In addition, the object detection unit 310 inputs the image acquired in real time by the image capture unit 100 to the object detection deep learning model, and at least one object, object identifier, and object display time from the object-related image acquired in real time detects at least one of, generates and displays at least one bounding box corresponding to at least one detected object, and tracks the generated bounding box in real time through a tracking algorithm (tracking) is possible.

또한, 객체탐지부(310)는 바운딩 박스(bounding box)를 설정하여 트래킹(tracking) 함으로써 트래킹(tracking) 대상이 분명해지고, 그에 따라 객체의 움직임의 변화를 용이하게 트래킹(tracking)을 할 수 있다. 또한, 바운딩 박스(bounding box)의 크기 조절이 가능하므로, 객체가 멀어지는지 가까워지는지 바운딩 박스(bounding box) 크기조절을 통해 용이하게 표현할 수 있다. In addition, the object detection unit 310 sets a bounding box and tracks it, so that the tracking target becomes clear, and accordingly, the change in the movement of the object can be easily tracked. . In addition, since the size of the bounding box can be adjusted, it is possible to easily express whether the object is moving away or closer by adjusting the size of the bounding box.

또한, 객체 탐지부(310)는 object detection deep learning model (ex. Mask-RCNN)을 사용하여 이미지에서 객체들을 탐지할 수 있다. 이후, 트래킹(tracking) 기법인 SORT 알고리즘을 사용하여 트래킹(tracking)될 수 있다. Also, the object detector 310 may detect objects in the image using an object detection deep learning model (eg, Mask-RCNN). Thereafter, it may be tracked using the SORT algorithm, which is a tracking technique.

또한, 객체 움직임 정보 추출부는 생성된 바운딩 박스(bounding box)의 좌표가 시계열적으로 변화하는 변화량 정보를 이용하여 움직임 정보를 추출할 수 있다. Also, the object motion information extractor may extract motion information by using information on the amount of time-series change in coordinates of the generated bounding box.

또한, 바운딩 박스(bounding box) 변화량은 시계열적으로 연속된 바운딩 박스(bounding box) 정보의 좌표값 차이를 통해 구할 수 있다. 바운딩 박스(bounding box) 변화량을 통해 객체의 움직임 정보를 획득하여, 추가적인 센서나 모델 사용없이 객체의 움직임 정보를 획득가능하여 추가적인 모델 사용을 줄일 수 있다. In addition, the bounding box change amount may be obtained through a difference in coordinate values of time-series continuous bounding box information. By acquiring motion information of an object through a bounding box change amount, it is possible to obtain motion information of an object without using additional sensors or models, thereby reducing the use of additional models.

보다 구체적으로, 객체 움직임 정보 추출부는 영상촬영부(100)에서 실시간으로 획득한 영상에서 생성된 바운딩 박스(bounding box)의 좌표가 시계열적으로 변화하는 변화량 정보를 이용하여 움직임 정보를 추출할 수 있다. 즉, 영상 촬영부(100)를 통해 실시간으로 획득한 영상은 파일 크기가 상당히 크므로 영상 처리하는데 많은 시간이 소요되며, 영상 전부를 저장하기 어려우므로, 바운딩 박스(bounding box)의 좌표의 시계열적 변화량 정보를 추출하여 움직임 정보를 획득하는 방법을 통해 획득한 영상의 크기를 줄일 수 있어서, 프로세서 처리 속도를 높일 수 있으며, 저장 용량을 낮출 수 있다. More specifically, the object motion information extraction unit may extract motion information using information on the amount of time-series change in the coordinates of a bounding box generated from an image acquired in real time by the image capturing unit 100 . . That is, since the image acquired in real time through the image capturing unit 100 has a fairly large file size, it takes a lot of time to process the image, and since it is difficult to store all the images, the time series of the coordinates of the bounding box Since the size of an acquired image can be reduced through a method of obtaining motion information by extracting change amount information, processor processing speed can be increased and storage capacity can be reduced.

또한, 도 4를 참조하면, 객체 움직임 정보 추출부는 바운딩 박스(bounding box)의 변화량은 바운딩 박스(bounding box) 정보의 좌표값 차이을 통해 구할 수 있으며, 구체적으로 아래의 수식1을 통해 구할 수 있다. In addition, referring to FIG. 4 , the object motion information extracting unit may obtain the amount of change of the bounding box through the difference in the coordinate values of the bounding box information, and specifically, it may be obtained through Equation 1 below.

Figure pat00001
Figure pat00001

따라서, 객체정보 추출부(300)를 통해 추출된 객체정보는 시계열적으로 구성된 객체 위치, 객체 크기와 객체의 움직임 정보가 포함될 수 있다. Accordingly, the object information extracted through the object information extraction unit 300 may include time-series object position, object size, and object motion information.

또한, 객체정보 추출부(300)는 시계열적(time series) 이미지들에 대해 추출된 여러 시간대의 객체 위치는 트래킹(tracking) 알고리즘을 통해 시계열적(time series) 데이터로 형성된다. 각 객체의 움직임 정보는 시계열적으로 연속된 이미지에서 각 객체의 좌표 변화량을 통해 구할 수 있다. 또한, 추출된 시게열적(time series) 객체 위치와 객체 움직임 정보는 교통사고 예측부(500)로 전달된다.In addition, the object information extraction unit 300 is formed of time series (time series) data through the tracking (tracking) algorithm for the location of the object in various time periods extracted with respect to the time series (time series) images. The motion information of each object can be obtained through the amount of coordinate change of each object in time-series continuous images. In addition, the extracted time series object position and object motion information is transmitted to the traffic accident prediction unit 500 .

일 실시예에서, 교통사고 예측부(500)는 객체정보 추출부(300)를 통해 추출한 객체정보로부터 객체의 미래 위치와 크기를 예측하고, 예측된 객체의 미래 위치와 크기에 기반하여 사고 가능성을 예측할 수 있다. In one embodiment, the traffic accident prediction unit 500 predicts the future location and size of the object from the object information extracted through the object information extraction unit 300, and predicts the possibility of an accident based on the predicted future location and size of the object. predictable.

또한, 교통사고 예측부(500)는 인공지능 모델인 객체 미래 위치 예측 모델과 사고 가능성 예측 모델로 이루어져 있다. 객체 미래 위치 예측 모델은 객체정보 추출부(300)를 통해 얻은 정보를 바탕으로 각 객체의 일정 기간 동안의 미래 위치를 예측한다. 객체 미래 위치 예측 모델은 정상 주행 영상들을 통해 학습된다. In addition, the traffic accident prediction unit 500 consists of an artificial intelligence model, an object future location prediction model, and an accident probability prediction model. The object future location prediction model predicts the future location of each object for a certain period based on information obtained through the object information extraction unit 300 . The object future position prediction model is learned through normal driving images.

또한, 사고 가능성 예측 모델은 객체 미래 위치 예측 모델을 통해 얻은 미래 위치 정보를 바탕으로 예측과정 중 RNN의 숨겨진 상태(Hidden States)들의 정보만을 교통사고 예측부(500)에서 사용하여 미래의 사고 가능성을 예측한다. 사고 가능성 예측 모델은 사고 영상 속, 사고 난 차량과 사고 나지 않은 차량들의 정보들을 토대로 학습된다.In addition, the accident possibility prediction model uses only the information of the hidden states of the RNN in the traffic accident prediction unit 500 during the prediction process based on the future location information obtained through the object future location prediction model to predict the possibility of future accidents. predict The accident probability prediction model is learned based on the information of the accident and non-accident vehicles in the accident video.

보다 구체적으로, 교통사고 예측부(500)는 추출한 객체정보를 순환신경망(Recurrent neural network; RNN)모델에 입력하여 나온 결과값을 이용하여 객체의 미래 위치 및 크기를 예측하는 객체 미래 위치 및 크기 예측부(510) 및 예측된 객체의 미래 위치 및 크기를 통해 미래의 사고 가능성을 예측하는 사고 가능성 예측부(530)를 포함할 수 있다. More specifically, the traffic accident prediction unit 500 predicts the future position and size of an object that predicts the future position and size of the object using the result obtained by inputting the extracted object information into a recurrent neural network (RNN) model. It may include a unit 510 and an accident probability prediction unit 530 for predicting the possibility of a future accident through the predicted future location and size of the object.

또한, 교통 사고예측부(500)는 시계열적으로 구성된 객체 위치, 객체 크기와 객체의 움직임 정보가 포함된 객체 정보를 인공신경망 모델을 이용하여, 객체의 미래 위치 및 크기를 시계열적인 흐름에 따라 예측하고, 예측된 객체의 미래 위치 및 크기에 기반하여 자차와의 미래의 사고 가능성을 예측할 수 있다. In addition, the traffic accident prediction unit 500 predicts the future location and size of an object according to a time series flow by using an artificial neural network model for object information including the object position, object size, and motion information configured in time series. And, it is possible to predict the possibility of a future accident with the own vehicle based on the predicted future location and size of the object.

또한, 객체 미래 위치 및 크기 예측부(510)는 추출한 객체정보를 순환신경망(Recurrent neural network; RNN)모델에 입력하여 나온 결과값을 이용하여 객체의 미래 위치 및 크기를 예측할 수 있다. In addition, the object future position and size prediction unit 510 may predict the future position and size of the object using the result obtained by inputting the extracted object information into a recurrent neural network (RNN) model.

또한, 객체 미래 위치 및 크기 예측부(510)는 객체 정보 추출부(300)로부터 얻은 정보를 순환신경망(RNN Encoder-Decoder 구조) 모델을 통해 객체의 미래 바운딩 박스(bounding box) 좌표를 예측할 수 있다. 순환신경망(RNN) 모델은 미래 바운딩 박스(bounding box) 좌표가 되로록 정상 주행 영상을 통해 학습될 수 있다. In addition, the object future location and size prediction unit 510 may predict the future bounding box coordinates of the object through a recurrent neural network (RNN Encoder-Decoder structure) model using the information obtained from the object information extraction unit 300 . . A recurrent neural network (RNN) model can be trained through normal driving images to become future bounding box coordinates.

본 발명의 일 실시예에 따른 인공 신경망은 컨볼루션 신경망(convolution neural network: CNN), 오토 인코더(auto encoder), 피드포워드 신경망(feedforward neural network), 방사 신경망(radial basis function network), 코헨 자기조직 신경망(kohonen self-organizing network), 순환 신경망(RNN: recurrent neural network), 다중층 인식망(Multilayer Perceptron) 등으로 구성될 수 있으며 본 발명은 이에 제한되지 않고 임의의 신경망을 포함할 수 있다. 상기 예시는 본 개시를 설명하기 위한 예시일 뿐, 본 개시는 이에 제한되지 않는다. An artificial neural network according to an embodiment of the present invention is a convolutional neural network (CNN), an auto encoder, a feedforward neural network, a radial basis function network, and Cohen self-organization. It may be composed of a kohonen self-organizing network, a recurrent neural network (RNN), a multilayer perceptron, and the like, and the present invention is not limited thereto and may include any neural network. The above example is merely an example for describing the present disclosure, and the present disclosure is not limited thereto.

또한, 사고 가능성 예측부(530)는 예측된 객체의 미래 위치 및 크기를 통해 미래의 사고 가능성을 예측할 수 있다. In addition, the accident possibility prediction unit 530 may predict the possibility of a future accident through the predicted future location and size of the object.

보다 구체적으로, 사고 가능성 예측부(530)는 사전에 라벨링된 데이터를 이용하여 실시간 영상에서 각각의 객체들의 스코어를 추출하고, 추출된 스코어가 기설정된 임계값을 초과하는지 여부로 미래의 사고의 가능성을 예측할 수 있다. 사고 가능성 예측부(530)는 자차 사고 영상을 통해 학습된 순환신경망 모델을 사용할 수 있다. More specifically, the accident probability prediction unit 530 extracts the score of each object from the real-time image by using the previously labeled data, and determines whether the extracted score exceeds a preset threshold, the likelihood of a future accident can be predicted. The accident probability prediction unit 530 may use a cyclic neural network model learned through the own vehicle accident image.

또한, 순환신경망(RNN) 모델은 사고가 나지 않는 객체는 0으로 라벨링 되어 있고 미래에 사고가 나는 객체는 1로 라벨링된 데이터를 사용하여 모델의 출력값이 라벨된 값을 맞추도록 학습될 수 있다. In addition, the recurrent neural network (RNN) model can be trained so that the output value of the model matches the labeled value using the data labeled 0 for non-accident objects and 1 for future accidents.

또한, 사고 가능성 예측부(530)는 상기 방법에 의해 학습된 순환신경망(RNN) 모델을 이용하여 매 프레임에서 각 객체들의 스코어를 추출하고 사전에 설정된 문턱값(임계값)을 기준으로 미래의 사고를 예측할 수 있다. 문턱값(임계값)은 샘플데이터를 통해 최적의 값으로 선택될 수 있다. In addition, the accident probability prediction unit 530 extracts the score of each object from each frame using the recurrent neural network (RNN) model learned by the above method and predicts future accidents based on a preset threshold (threshold value). can be predicted The threshold value (threshold value) may be selected as an optimal value through sample data.

본 발명은 교통사고 예측 방법 및 시스템은 객체들의 미래 위치와 크기를 예측하고, 예측한 미래 정보를 바탕으로 이 예측과정 중 RNN의 숨겨진 상태 (Hidden States)들의 정보만을 교통사고 예측부에서 사용해서 객체들 각각의 미래 교통사고를 예측하고자 한다.The present invention is a traffic accident prediction method and system predicting the future location and size of objects, and based on the predicted future information, only the information of the hidden states of the RNN during this prediction process is used in the traffic accident prediction unit to the object We want to predict each future traffic accident.

또한, 교통사고 예측 방법 및 시스템은 각 객체의 몇 개의 프레임으로 미래 위치를 예측하고 예측한 정보를 사용해서 각 객체가 미래에 자차와 교통사고를 일으킬 가능성을 계산할 수 있다. In addition, the traffic accident prediction method and system can predict the future location with a few frames of each object and use the predicted information to calculate the probability that each object will cause a traffic accident with its own vehicle in the future.

또한, 교통사고 예측 방법 및 시스템은 미래에 사고 위험성이 높은 객체 예측에서 성능의 향상, 자차 교통사고의 경우, 자차에 대한 객체의 상대적인 위치와 크기, 움직임 정보가 중요하게 작용하며, 전체 이미지에 대한 정보도 사용하는 것은 학습과 판단에 큰 영향이 없고 오히려 방해 요소가 될 수 있으므로, 객체 정보만을 사용하여 성능 향상을 도모하고 있다. In addition, the traffic accident prediction method and system improve performance in predicting objects with high risk of accidents in the future. Since the use of information does not have a significant effect on learning and judgment, but rather can become a hindrance, performance improvement is attempted by using only object information.

또한, 교통사고 예측 방법 및 시스템은 직접적으로 각 객체마다의 사고 가능성을 예측하도록 모델이 구성되어 있고 그 목적으로 학습이 이루어진다. In addition, the traffic accident prediction method and system have a model configured to directly predict the probability of an accident for each object, and learning is made for that purpose.

또한, 교통사고 예측 방법 및 시스템은 객체의 미래 위치 예측을 통해서 사고를 예측하기 때문에, 사고 위험 가능성이 높은 객체에 대해 운전자에게 경고 가능하므로, 자율 주행 분야에 있어서 능동적 사고 회피 동작 기술에 활용할 수 있다. In addition, since the traffic accident prediction method and system predict an accident by predicting the future location of an object, it is possible to warn the driver about an object with a high probability of an accident, so it can be used for active accident avoidance operation technology in the autonomous driving field. .

도 7은 본 발명의 일 실시예에 따른 교통사고 예측 방법의 순서도이고, 도 8은 본 발명의 일 실시예에 따른 교통사고 예측단계의 순서도이다. 7 is a flowchart of a traffic accident prediction method according to an embodiment of the present invention, and FIG. 8 is a flowchart of a traffic accident prediction step according to an embodiment of the present invention.

도 7 및 도 8을 참조하면, 교통사고 예측 방법(S1000)은 차량에 장착되어 있는 카메라를 통해 실시간 영상을 획득하는 영상촬영단계(S1100), 획득된 영상으로부터 객체를 탐지하고, 탐지된 객체로부터 객체정보를 추출하는 객체정보 추출단계(S1200) 및 추출한 객체정보로부터 객체의 미래 위치를 예측하고, 예측된 객체의 미래 위치에 기반하여 사고 가능성을 예측하는 교통사고 예측단계(S1300)를 포함할 수 있다. 7 and 8 , the traffic accident prediction method ( S1000 ) includes an image capturing step ( S1100 ) of acquiring a real-time image through a camera mounted on a vehicle, detecting an object from the acquired image, and from the detected object It may include an object information extraction step (S1200) of extracting object information and a traffic accident prediction step (S1300) of predicting the future location of the object from the extracted object information, and predicting the possibility of an accident based on the predicted future location of the object have.

일 실시예에서, 영상촬영단계(S1100)는 차량에 장착되어 있는 카메라를 통해 실시간 영상을 획득하는 단계일 수 있다. 예컨대, 차량 주행시 또는 정차시, 차량내에 장착되어 있는 블랙박스 카메라 또는 별도로 부착된 카메라를 통해 실시간으로 영상을 획득할 수 있다. In one embodiment, the image taking step (S1100) may be a step of acquiring a real-time image through a camera mounted on the vehicle. For example, when driving or stopping a vehicle, an image may be acquired in real time through a black box camera mounted in the vehicle or a separately attached camera.

일 실시예에서, 객체정보 추출단계(S1200)는 영상촬영단계(S1100)에서 획득된 영상으로부터 객체를 탐지하고, 탐지된 객체로부터 객체정보를 추출하는 단계일 수 있다. In one embodiment, the step of extracting object information ( S1200 ) may be a step of detecting an object from the image obtained in the image taking step ( S1100 ) and extracting object information from the detected object.

보다 구체적으로, 객체정보 추출단계(S1200)는 영상촬영단계(S1100)에서 실시간으로 획득한 영상에서 차량이나 보행자를 탐지하는 객체탐지단계 및 탐지된 객체의 움직임 정보를 추출하는 단계를 포함할 수 있다. More specifically, the object information extraction step (S1200) may include an object detection step of detecting a vehicle or a pedestrian from the image acquired in real time in the image capturing step (S1100) and a step of extracting motion information of the detected object. .

또한, 객체탐지단계는 영상촬영단계(S1100)에서 실시간으로 획득한 영상에서 차량이나 보행자를 탐지할 수 있다. In addition, the object detection step may detect a vehicle or a pedestrian from the image acquired in real time in the image capturing step (S1100).

보다 구체적으로, 객체탐지단계는 영상촬영단계(S1100)에서 실시간으로 획득한 영상을 객체 탐지 딥러닝 모델에 입력하여, 실시간으로 획득한 객체 관련 영상으로부터 적어도 하나의 객체, 객체 식별자 및 객체 표시 시간 중 적어도 하나를 탐지하고, 탐지된 적어도 하나의 객체를 트래킹(tracking) 알고리즘을 통해 실시간 트래킹(tracking)하는 단계일 수 있다. More specifically, in the object detection step, at least one object, an object identifier, and an object display time from the object-related image acquired in real time by inputting the image acquired in real time in the image capturing step ( S1100 ) to the object detection deep learning model. It may be a step of detecting at least one and tracking the at least one detected object in real time through a tracking algorithm.

또한, 객체탐지단계는 실시간으로 획득한 영상을 객체 탐지 딥러닝 모델에 입력하여, 실시간으로 획득한 객체 관련 영상으로부터 적어도 하나의 객체, 객체 식별자 및 객체 표시 시간 중 적어도 하나를 탐지하고, 탐지된 적어도 하나의 객체에 각각 대응되는 적어도 하나의 바운딩 박스(bounding box)를 생성하여 표시하고, 생성한 바운딩 박스(bounding box)를 트래킹(tracking) 알고리즘을 통해 실시간 트래킹(tracking)하는 단계일 수 있다. In addition, the object detection step inputs the image acquired in real time to the object detection deep learning model, detects at least one of at least one object, an object identifier, and an object display time from the object-related image acquired in real time, and at least the detected at least one It may be a step of generating and displaying at least one bounding box corresponding to one object, respectively, and real-time tracking of the created bounding box through a tracking algorithm.

또한, 객체탐지단계에서 바운딩 박스(bounding box)를 설정하여 트래킹(tracking) 함으로써 트래킹(tracking) 대상이 분명해지고, 그에 따라 객체의 움직임의 변화를 용이하게 트래킹(tracking)을 할 수 있다. 또한, 바운딩 박스(bounding box)의 크기 조절이 가능하므로, 객체가 멀어지는지 가까워지는지 바운딩 박스(bounding box) 크기조절을 통해 용이하게 표현할 수 있다. In addition, the tracking target becomes clear by setting and tracking a bounding box in the object detection step, and accordingly, it is possible to easily track the change in the movement of the object. In addition, since the size of the bounding box can be adjusted, it is possible to easily express whether the object is moving away or closer by adjusting the size of the bounding box.

또한, 객체의 움직임 정보를 추출하는 단계는 생성된 바운딩 박스(bounding box)의 좌표가 시게열적으로 변화하는 변화량 정보를 이용하여 움직임 정보를 추출하는 단계일 수 있다. In addition, the step of extracting the motion information of the object may be a step of extracting the motion information using information on the amount of change in which the coordinates of the generated bounding box change temporally.

또한, 바운딩 박스(bounding box) 변화량은 시계열적으로 연속된 바운딩 박스(bounding box) 정보의 좌표값 차이를 통해 구할 수 있다. 바운딩 박스(bounding box) 변화량을 통해 객체의 움직임 정보를 획득하여, 추가적인 센서나 모델 사용없이 객체의 움직임 정보를 획득가능하여 추가적인 모델 사용을 줄일 수 있다. In addition, the bounding box change amount may be obtained through a difference in coordinate values of time-series continuous bounding box information. By acquiring motion information of an object through a bounding box change amount, it is possible to obtain motion information of an object without using additional sensors or models, thereby reducing the use of additional models.

보다 구체적으로, 객체 움직임 정보 추출단계는 영상촬영단계(S1100)에서 실시간으로 획득한 영상에서 생성된 바운딩 박스(bounding box)의 좌표가 시계열적으로 변화하는 변화량 정보를 이용하여 움직임 정보를 추출하는 단계일 수 있다. 즉, 영상 촬영단계(S1100)를 통해 실시간으로 획득한 영상은 파일 크기가 상당히 크므로 영상 처리하는데 많은 시간이 소요되며, 영상 전부를 저장하기 어려우므로, 바운딩 박스(bounding box)의 좌표의 시계열적 변화량 정보를 추출하여 움직임 정보를 획득하는 방법을 통해 획득한 영상의 크기를 줄일 수 있어서, 프로세서 처리 속도를 높일 수 있으며, 저장 용량을 낮출 수 있다. More specifically, the step of extracting object motion information is a step of extracting motion information using information on the amount of time-series change in the coordinates of a bounding box generated from the image acquired in real time in the image capturing step (S1100). can be That is, since the image acquired in real time through the image capturing step (S1100) has a fairly large file size, it takes a lot of time to process the image, and it is difficult to store all the images, so the coordinates of the bounding box are time-series Since the size of an acquired image can be reduced through a method of obtaining motion information by extracting change amount information, processor processing speed can be increased and storage capacity can be reduced.

또한, 객체 움직임 정보 추출단계는 바운딩 박스(bounding box)의 변화량은 바운딩 박스(bounding box) 정보의 좌표값 차이을 통해 구할 수 있다. In addition, in the step of extracting the object motion information, the amount of change of the bounding box may be obtained through the difference in the coordinate values of the information of the bounding box.

따라서, 객체정보 추출단계(S1200)를 통해 추출된 객체정보는 시계열적으로 구성된 객체 위치, 객체 크기와 객체의 움직임 정보가 포함될 수 있다. Accordingly, the object information extracted through the object information extraction step S1200 may include time-series object position, object size, and movement information of the object.

일 실시예에서, 교통사고 예측단계(S1300)는 객체정보 추출단계(S1200)를 통해 추출한 객체정보로부터 객체의 미래 위치를 예측하고, 예측된 객체의 미래 위치에 기반하여 사고 가능성을 예측할 수 있다. In one embodiment, the traffic accident prediction step (S1300) may predict the future location of the object from the object information extracted through the object information extraction step (S1200), and predict the possibility of an accident based on the predicted future location of the object.

보다 구체적으로, 교통사고 예측단계(S1300)는 객체정보 추출단계(S1200)를 통해 추출한 객체정보를 순환신경망(Recurrent neural network; RNN)모델에 입력하여 나온 결과값을 이용하여, 객체의 미래 위치 및 크기를 예측하는 객체 미래 위치 및 크기 예측 단계(S1310) 및 예측된 객체의 미래 위치 및 크기를 통해 미래의 사고 가능성을 예측하는 사고 가능성 예측단계(S1330)를 포함할 수 있다. More specifically, the traffic accident prediction step (S1300) is performed by inputting the object information extracted through the object information extraction step (S1200) into a recurrent neural network (RNN) model and using the result value, the future location of the object and It may include a prediction step (S1310) of the future location and size of the object for predicting the size and an accident possibility prediction step (S1330) of predicting the possibility of a future accident through the predicted future location and size of the object.

또한, 교통사고 예측단계(S1300)는 시계열적으로 구성된 객체 위치, 객체 크기와 객체의 움직임 정보가 포함된 객체 정보를 인공신경망 모델을 이용하여, 객체의 미래 위치 및 크기를 시계열적인 흐름에 따라 예측하고, 예측된 객체의 미래 위치 및 크기에 기반하여 자차와의 미래의 사고 가능성을 예측할 수 있다. In addition, the traffic accident prediction step (S1300) predicts the future location and size of the object according to the time series flow by using an artificial neural network model for object information including the object position, object size, and motion information configured in time series. And, it is possible to predict the possibility of a future accident with the own vehicle based on the predicted future location and size of the object.

또한, 객체 미래 위치 및 크기 예측 단계(S1310)는 추출한 객체정보를 순환신경망(Recurrent neural network; RNN)모델에 입력하여 나온 결과값을 이용하여 객체의 미래 위치 및 크기를 예측하는 단계일 수 있다. In addition, the step of predicting the future location and size of the object ( S1310 ) may be a step of predicting the future location and size of the object using the result obtained by inputting the extracted object information into a recurrent neural network (RNN) model.

또한, 객체 미래 위치 및 크기 예측 단계(S1310)는 객체 정보 추출부로부터 얻은 정보를 순환신경망(RNN Encoder-Decoder 구조) 모델을 통해 객체의 미래 바운딩 박스(bounding box) 좌표를 예측할 수 있다. 순환신경망 모델은 미래 바운딩 박스(bounding box) 좌표가 되로록 정상 주행 영상을 통해 학습될 수 있다. In addition, in the object future location and size prediction step ( S1310 ), the future bounding box coordinates of the object may be predicted using the information obtained from the object information extraction unit through a recurrent neural network (RNN encoder-decoder structure) model. The cyclic neural network model can be trained through normal driving images to become the coordinates of the future bounding box.

본 발명의 일 실시예에 따른 인공 신경망은 컨볼루션 신경망(convolution neural network: CNN), 오토 인코더(auto encoder), 피드포워드 신경망(feedforward neural network), 방사 신경망(radial basis function network), 코헨 자기조직 신경망(kohonen self-organizing network), 순환 신경망(RNN: recurrent neural network), 다중층 인식망(Multilayer Perceptron) 등으로 구성될 수 있으며 본 발명은 이에 제한되지 않고 임의의 신경망을 포함할 수 있다. 상기 예시는 본 개시를 설명하기 위한 예시일 뿐, 본 개시는 이에 제한되지 않는다. An artificial neural network according to an embodiment of the present invention is a convolutional neural network (CNN), an auto encoder, a feedforward neural network, a radial basis function network, and Cohen self-organization. It may be composed of a kohonen self-organizing network, a recurrent neural network (RNN), a multilayer perceptron, and the like, and the present invention is not limited thereto and may include any neural network. The above example is merely an example for describing the present disclosure, and the present disclosure is not limited thereto.

또한, 사고 가능성 예측단계(S1330)는 예측된 객체의 미래 위치 및 크기를 통해 미래의 사고 가능성을 예측하는 단계일 수 있다. In addition, the accident probability prediction step ( S1330 ) may be a step of predicting the future accident possibility through the predicted future location and size of the object.

보다 구체적으로, 사고 가능성 예측단계(S1330)는 사전에 라벨링된 데이터를 이용하여 실시간 영상에서 각각의 객체들의 스코어를 추출하고, 추출된 스코어가 기설정된 임계값을 초과하는지 여부로 미래의 사고 가능성을 예측하는 단계일 수 있다. 사고 가능성 예측 단계(S1330)는 자차 사고 영상을 통해 학습된 순환신경망 모델을 사용할 수 있다. More specifically, the accident possibility prediction step (S1330) extracts the score of each object from the real-time image using the previously labeled data, and determines the possibility of a future accident by whether the extracted score exceeds a preset threshold value. This may be a predictive step. The accident possibility prediction step ( S1330 ) may use a cyclic neural network model learned through the own vehicle accident image.

또한, 순환신경망(RNN) 모델은 사고가 나지 않는 객체는 0으로 라벨링 되어 있고 미래에 사고가 나는 객체는 1로 라벨링된 데이터를 사용하여 모델의 출력값이 라벨된 값을 맞추도록 학습될 수 있다. In addition, the recurrent neural network (RNN) model can be trained so that the output value of the model matches the labeled value using the data labeled 0 for non-accident objects and 1 for future accidents.

또한, 사고 가능성 예측단계(S1330)는 상기 방법에 의해 학습된 순환신경망(RNN) 모델을 이용하여 매 프레임에서 각 객체들의 스코어를 추출하고 사전에 설정된 문턱값(임계값)을 기준으로 미래의 사고를 예측할 수 있다. 문턱값(임계값)은 샘플데이터를 통해 최적의 값으로 선택될 수 있다. In addition, the accident probability prediction step (S1330) extracts the score of each object from every frame using the recurrent neural network (RNN) model learned by the method, and future accidents based on a preset threshold (threshold value) can be predicted The threshold value (threshold value) may be selected as an optimal value through sample data.

이상의 설명은 본 발명의 기술적 사상을 예시적으로 설명한 것에 불과한 것으로, 통상의 기술자라면 본 발명의 본질적인 특성이 벗어나지 않는 범위에서 다양한 변경 및 수정이 가능할 것이다. The above description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention.

따라서, 본 명세서에 개시된 실시예들은 본 발명의 기술적 사상을 한정하기 위한 것이 아니라, 설명하기 위한 것이고, 이러한 실시예들에 의하여 본 발명의 범위가 한정되는 것은 아니다. Accordingly, the embodiments disclosed in the present specification are not intended to limit the technical spirit of the present invention, but to illustrate, and the scope of the present invention is not limited by these embodiments.

본 발명의 보호범위는 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 이해되어야 한다. The protection scope of the present invention should be interpreted by the claims, and all technical ideas within the scope equivalent thereto should be understood to be included in the scope of the present invention.

10: 교통사고 예측 시스템
100: 영상 촬영부
300: 객체 정보 추출부
310: 객체 탐지부
500: 교통사고 예측부
510: 객체 미래 위치 및 크기 예측부
530: 사고가능성 예측부
10: Traffic Accident Prediction System
100: video recording unit
300: object information extraction unit
310: object detection unit
500: traffic accident prediction unit
510: object future position and size prediction unit
530: accident probability prediction unit

Claims (14)

교통사고 예측 시스템에 있어서,
실시간 영상을 획득하는 영상촬영부;
상기 획득된 영상으로부터 객체를 탐지하고, 탐지된 객체로부터 객체정보를 추출하는 객체정보 추출부; 및
상기 추출한 객체정보로부터 객체의 미래 위치와 크기를 예측하고, 예측된 객체의 미래 위치와 크기에 기반하여 사고 가능성을 예측하는 교통사고 예측부를 포함하는,
교통사고 예측 시스템.
In the traffic accident prediction system,
an image capturing unit for acquiring a real-time image;
an object information extraction unit for detecting an object from the obtained image and extracting object information from the detected object; and
Predicting the future location and size of the object from the extracted object information, and a traffic accident prediction unit for predicting the possibility of an accident based on the predicted future location and size of the object,
Traffic accident prediction system.
제1항에 있어서,
상기 객체정보 추출부는,
상기 실시간으로 획득한 영상에서 차량이나 보행자를 탐지하는 객체탐지부; 및
상기 탐지된 객체의 움직임 정보를 추출하는 객체의 움직임 정보 추출부를 포함하는,
교통사고 예측 시스템.
According to claim 1,
The object information extraction unit,
an object detector for detecting a vehicle or a pedestrian in the image acquired in real time; and
Comprising an object motion information extraction unit for extracting the motion information of the detected object,
Traffic accident prediction system.
제2항에 있어서,
상기 객체탐지부는,
상기 실시간으로 획득한 영상을 객체 탐지 딥러닝 모델에 입력하여, 상기 실시간으로 획득한 객체 관련 영상으로부터 적어도 하나의 객체, 객체 식별자 및 객체 표시 시간 중 적어도 하나를 탐지하고,
상기 탐지된 적어도 하나의 객체를 트래킹(tracking) 알고리즘을 통해 실시간 트래킹(tracking)하는,
교통사고 예측 시스템.
3. The method of claim 2,
The object detection unit,
inputting the real-time acquired image into an object detection deep learning model, and detecting at least one of at least one object, an object identifier, and an object display time from the real-time acquired object-related image,
Real-time tracking of the detected at least one object through a tracking algorithm,
Traffic accident prediction system.
제3항에 있어서,
상기 객체탐지부는,
상기 실시간으로 획득한 영상을 객체 탐지 딥러닝 모델에 입력하여, 상기 실시간으로 획득한 객체 관련 영상으로부터 적어도 하나의 객체, 객체 식별자 및 객체 표시 시간 중 적어도 하나를 탐지하고,
상기 탐지된 적어도 하나의 객체에 각각 대응되는 적어도 하나의 바운딩 박스(bounding box)를 생성하고,
상기 탐지된 적어도 하나의 바운딩 박스(bounding box)를 트래킹(tracking) 알고리즘을 통해 실시간 트래킹(tracking)하는,
교통사고 예측 시스템.
4. The method of claim 3,
The object detection unit,
inputting the real-time acquired image into an object detection deep learning model, and detecting at least one of at least one object, an object identifier, and an object display time from the real-time acquired object-related image,
generating at least one bounding box corresponding to each of the at least one detected object,
Real-time tracking of the detected at least one bounding box through a tracking algorithm,
Traffic accident prediction system.
제2항에 있어서,
상기 객체 움직임 정보 추출부는,
상기 생성된 바운딩 박스(bounding box)의 좌표가 시계열적으로 변화하는 변화량 정보를 이용하여 움직임 정보를 추출하는,
교통사고 예측 시스템.
3. The method of claim 2,
The object motion information extraction unit,
Extracting motion information using information on the amount of time-series change in the coordinates of the generated bounding box,
Traffic accident prediction system.
제2항에 있어서,
상기 교통사고 예측부는,
상기 추출한 객체정보를 순환신경망(Recurrent neural network; RNN)모델에 입력하여 나온 결과값을 이용하여 객체의 미래 위치 및 크기를 예측하는 객체 미래 위치 및 크기 예측부; 및
상기 예측된 객체의 미래 위치 및 크기를 사고 가능성 예측 모델에 입력하여 나온 결과값을 통해 미래의 사고 가능성을 예측하는 사고 가능성 예측부를 포함하는,
교통사고 예측 시스템.
3. The method of claim 2,
The traffic accident prediction unit,
an object future location and size prediction unit for predicting a future location and size of an object by inputting the extracted object information into a recurrent neural network (RNN) model; and
Including an accident probability prediction unit for predicting the possibility of a future accident through the result value obtained by inputting the future location and size of the predicted object into an accident probability prediction model,
Traffic accident prediction system.
제6항에 있어서,
상기 사고 가능성 예측부는,
사전에 라벨링된 데이터를 이용하여 실시간 영상에서 각각의 객체들의 스코어를 추출하고, 추출된 스코어가 기설정된 임계값을 초과하는지 여부로 미래의 사고의 가능성을 예측하는,
교통사고 예측 시스템.
7. The method of claim 6,
The accident probability prediction unit,
Extracting the score of each object from a real-time image using previously labeled data, and predicting the possibility of a future accident by whether the extracted score exceeds a preset threshold,
Traffic accident prediction system.
교통사고 예측 방법에 있어서,
실시간 영상을 획득하는 영상촬영단계;
상기 획득된 영상으로부터 객체를 탐지하고, 탐지된 객체로부터 객체정보를 추출하는 객체정보 추출단계; 및
상기 추출한 객체정보로부터 객체의 미래 위치를 예측하고, 예측된 객체의 미래 위치에 기반하여 사고 가능성을 예측하는 교통사고 예측단계를 포함하는,
교통사고 예측 방법.
In the method of predicting a traffic accident,
an image capturing step of acquiring a real-time image;
an object information extraction step of detecting an object from the obtained image and extracting object information from the detected object; and
Predicting the future location of the object from the extracted object information, and predicting the possibility of an accident based on the predicted future location of the object, including a traffic accident prediction step,
How to predict a traffic accident.
제8항에 있어서,
상기 객체정보 추출단계는,
상기 실시간으로 획득한 영상에서 차량이나 보행자를 탐지하는 객체탐지단계; 및
상기 탐지된 객체의 움직임 정보를 추출하는 단계를 포함하는,
교통사고 예측 방법.
9. The method of claim 8,
The object information extraction step is
an object detection step of detecting a vehicle or a pedestrian in the image acquired in real time; and
Including the step of extracting the motion information of the detected object,
How to predict a traffic accident.
제9항에 있어서,
상기 객체탐지단계는,
상기 실시간으로 획득한 영상을 객체 탐지 딥러닝 모델에 입력하여, 상기 실시간으로 획득한 영상으로부터 적어도 하나의 객체, 객체 식별자 및 객체 표시 시간 중 적어도 하나를 탐지하고,
상기 탐지된 적어도 하나의 객체를 트래킹(tracking) 알고리즘을 통해 실시간 트래킹(tracking)하는 단계인,
교통사고 예측 방법.
10. The method of claim 9,
The object detection step is
inputting the real-time acquired image into an object detection deep learning model to detect at least one of an object, an object identifier, and an object display time from the real-time acquired image,
A step of real-time tracking of the detected at least one object through a tracking algorithm,
How to predict a traffic accident.
제10항에 있어서,
상기 객체탐지단계는,
상기 실시간으로 획득한 영상을 객체 탐지 딥러닝 모델에 입력하여, 상기 실시간으로 획득한 객체 관련 영상으로부터 적어도 하나의 객체, 객체 식별자 및 객체 표시 시간 중 적어도 하나를 탐지하고,
상기 탐지된 적어도 하나의 객체에 각각 대응되는 적어도 하나의 바운딩 박스(bounding box)를 생성하고,
상기 생성된 적어도 하나의 바운딩 박스(bounding box)를 트래킹(tracking) 알고리즘을 통해 실시간 트래킹(tracking)하는 단계인,
교통사고 예측 방법.
11. The method of claim 10,
The object detection step is
inputting the real-time acquired image into an object detection deep learning model, and detecting at least one of at least one object, an object identifier, and an object display time from the real-time acquired object-related image,
generating at least one bounding box corresponding to each of the at least one detected object,
A step of real-time tracking of the generated at least one bounding box through a tracking algorithm,
How to predict a traffic accident.
제11항에 있어서,
상기 객체의 움직임 정보를 추출하는 단계는,
상기 생성된 바운딩 박스(bounding box)의 좌표가 시게열적으로 변화하는 변화량 정보를 이용하여 움직임 정보를 추출하는 단계인,
교통사고 예측 방법.
12. The method of claim 11,
The step of extracting the motion information of the object,
A step of extracting motion information by using the change amount information in which the coordinates of the generated bounding box change temporally,
How to predict a traffic accident.
제9항에 있어서,
상기 교통사고예측단계는,
상기 객체정보를 순환신경망(Recurrent neural network; RNN)모델에 입력하여 나온 결과값을 이용하여 객체의 미래 위치 및 크기를 예측하는 객체 미래 위치 및 크기 예측 단계; 및
상기 예측된 객체의 미래 위치 및 크기를 사고 가능성 예측 모델에 입력하여 나온 결과값을 통해 미래의 사고 가능성을 예측하는 사고 가능성 예측단계를 포함하는,
교통사고 예측 방법.
10. The method of claim 9,
The traffic accident prediction step is,
an object future location and size prediction step of predicting a future location and size of an object by inputting the object information into a recurrent neural network (RNN) model; and
Including an accident probability prediction step of predicting the possibility of a future accident through the result value obtained by inputting the future location and size of the predicted object into an accident probability prediction model,
How to predict a traffic accident.
제13항에 있어서,
상기 사고 가능성 예측단계는,
사전에 라벨링된 데이터를 이용하여 실시간 영상에서 각각의 객체들의 스코어를 추출하고, 추출된 스코어가 기설정된 임계값을 초과하는지 여부로 미래의 사고 가능성을 예측하는 단계인,
교통사고 예측 방법.
14. The method of claim 13,
The accident probability prediction step is,
Extracting the score of each object from a real-time image using previously labeled data, and predicting the possibility of a future accident by whether the extracted score exceeds a preset threshold value,
How to predict a traffic accident.
KR1020210183113A 2021-01-04 2021-12-20 Traffic accident prediction method and system KR20220098677A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20210000264 2021-01-04
KR1020210000264 2021-01-04

Publications (1)

Publication Number Publication Date
KR20220098677A true KR20220098677A (en) 2022-07-12

Family

ID=82419826

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210183113A KR20220098677A (en) 2021-01-04 2021-12-20 Traffic accident prediction method and system

Country Status (1)

Country Link
KR (1) KR20220098677A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102565227B1 (en) * 2022-10-06 2023-08-28 (주)지앤티솔루션 Traffic safety device for providing risk prediction guidance and traffic safety system including the same

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100754135B1 (en) 2006-06-05 2007-08-31 지멘스 오토모티브 주식회사 System and method for prediction collision of car

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100754135B1 (en) 2006-06-05 2007-08-31 지멘스 오토모티브 주식회사 System and method for prediction collision of car

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102565227B1 (en) * 2022-10-06 2023-08-28 (주)지앤티솔루션 Traffic safety device for providing risk prediction guidance and traffic safety system including the same

Similar Documents

Publication Publication Date Title
US20230419669A1 (en) Alert directives and focused alert directives in a behavioral recognition system
US9959630B2 (en) Background model for complex and dynamic scenes
US8620028B2 (en) Behavioral recognition system
Wang et al. Detection of abnormal visual events via global optical flow orientation histogram
US7639840B2 (en) Method and apparatus for improved video surveillance through classification of detected objects
US20110043689A1 (en) Field-of-view change detection
KR101877294B1 (en) Smart cctv system for crime prevention capable of setting multi situation and recognizing automatic situation by defining several basic behaviors based on organic relation between object, area and object's events
US9965687B2 (en) System and method for detecting potential mugging event via trajectory-based analysis
US20220189210A1 (en) Occlusion-Aware Prediction of Human Behavior
Mehboob et al. Trajectory based vehicle counting and anomalous event visualization in smart cities
KR20220098677A (en) Traffic accident prediction method and system
KR101842488B1 (en) Smart monitoring system applied with patten recognition technic based on detection and tracking of long distance-moving object
Boufares et al. Moving object detection system based on the modified temporal difference and otsu algorithm
KR101154350B1 (en) Multiple Images Processing system using Detection of Objects and segmenting - recognizing of High- resolution Image and there of.
Chauhan et al. Detection of Reckless Driving using Deep Learning
Acharya et al. Real time car detection and tracking in mobile devices
WO2006132650A2 (en) Method and apparatus for improved video surveillance through classification of detected objects
Guler et al. Video scene assessment with unattended sensors