KR102551566B1 - 교통사고 검지 시스템 및 그 방법 - Google Patents

교통사고 검지 시스템 및 그 방법 Download PDF

Info

Publication number
KR102551566B1
KR102551566B1 KR1020210069960A KR20210069960A KR102551566B1 KR 102551566 B1 KR102551566 B1 KR 102551566B1 KR 1020210069960 A KR1020210069960 A KR 1020210069960A KR 20210069960 A KR20210069960 A KR 20210069960A KR 102551566 B1 KR102551566 B1 KR 102551566B1
Authority
KR
South Korea
Prior art keywords
data
learning
traffic accident
vehicle
unit
Prior art date
Application number
KR1020210069960A
Other languages
English (en)
Other versions
KR20220161785A (ko
Inventor
정연식
Original Assignee
영남대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 영남대학교 산학협력단 filed Critical 영남대학교 산학협력단
Priority to KR1020210069960A priority Critical patent/KR102551566B1/ko
Publication of KR20220161785A publication Critical patent/KR20220161785A/ko
Application granted granted Critical
Publication of KR102551566B1 publication Critical patent/KR102551566B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • G07C5/0866Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 교통사고 검지 시스템 및 그 방법에 관한 것으로서, 더욱 상세하게는, 차량에 탑재되어, 차량의 주변 영상 데이터를 획득하는 적어도 하나의 영상 센서를 포함하는 데이터 수집부(100), 인공지능 학습을 위해, 외부로부터 교통사고 관련 영상 데이터를 수집하고, 수집한 상기 데이터들의 학습을 수행하는 데이터 학습부(200) 및 상기 데이터 수집부(100)로부터 획득한 상기 주변 영상 데이터를 전달받아 1차 영상 분석을 수행하고, 상기 데이터 학습부(200)의 학습 결과에 따라 생성된 학습 모델에 1차 영상 분석 결과를 적용하여, 영상 내 교통사고 검지를 수행하는 데이터 분석부(300)를 포함하는 것을 특징으로 하는 교통사고 검지 시스템에 관한 것이다.

Description

교통사고 검지 시스템 및 그 방법 {System and method of traffic accident detection}
본 발명은 교통사고 검지 시스템 및 그 방법에 관한 것으로, 더욱 상세하게는 이동 중인 차량에 탑재되어 있는 영상 센서와 AI 기술을 활용하여, 도로 상 발생한 교통사고 검지할 수 있는 교통사고 검지 시스템 및 그 방법에 관한 것이다.
또한, 2차 사고 예방을 위하여 교통사고 검지 결과를 신속하게 제공할 수 있는 교통사고 검지 시스템 및 그 방법에 관한 것이다.
종래에는 도로 상 발생하는 교통사고 검지를 위해 운전자 또는 보행자 등의 제보, 도로변 설치되어 있는 고정식 CCTV 등을 활용함으로써, 그 한계가 분명히 존재하였다.
상세하게는, 교통사고 발생 시 제보는 의무사항이 아니기 때문에, 운전자 또는 보행자의 미제보, 실시간 사고 접수에 한계가 있으며, 교통정보 관제 센터와 연계되어 있는 CCTV 등은 고정식이므로 설치지역 주변에 대해서만 교통사고 검지가 가능한 문제점이 있다. 그렇기 때문에, CCTV가 설치되지 않은 곳에서 발생한 교통사고 검지의 경우, 이용자(보행자 또는 운전자)의 제보나 도로 순찰자의 제보에만 의존할 수 밖에 없는 문제점이 있다.
이러한 늦은 검지 및 사고발생 정보 제공시간 지체로 인한 2차 사고 위험도가 증가하기 때문에, 이에 대한 해결책이 요구되고 있는 실정이다.
그렇지만, 교통사고의 경우, 검지해야 할 객체의 유형이 매우 다양하기 때문에, 고정식 영상검지기의 경우, 검지 영역이 고정되어 있고 검지해야 할 객체를 보다 한정할 수 있기 때문에, 검지영역에서 발생되는 특이사항(노면잡물, 교통사고, 보행자 등)에 대한 검지는 용이하게 수행할 수 있으나, 차량 등의 이동체에 탑재된 영상검지기 기반 기술은 시도되지 못하고 있다.
이와 관련해서, 국내등록특허 제10-1688218호("객체 인지 기반의 실시간 영상 검지 기술을 이용한 교통 흐름 및 돌발 상황 관리 시스템 및 그 처리 방법")에서는 객체 인지 기반의 실시간 영상 검지 기술을 이용하여 다양한 교통 흐름과 돌발 상황들을 분석하고, 분석된 교통 흐름과 돌발 상황들 각각에 대응하는 복수 개의 서버들을 서버 단위로 교통 상황을 원격 관리하도록 처리하는 교통 흐름 및 돌발 상황 관리 시스템 및 그 처리 방법을 개시하고 있으나, 이 역시도 상술한 바와 같이, 현장에 설치되어 있는 개별 영상 취득부를 통해서 영상 정보를 전송받기 때문에, 상술한 문제점들을 그대로 포함하고 있다.
국내등록특허 제10-1688218호(등록일자 2016.12.14.)
본 발명은 상기한 바와 같은 종래 기술의 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은 이동 중인 차량에 탑재되어 있는 영상 센서와 AI 기술을 활용하여, 도로 상 발생한 교통사고 검지할 수 있는 교통사고 검지 시스템 및 그 방법을 제공하는 것이다.
본 발명의 일 실시예에 따른 교통사고 검지 시스템은, 차량에 탑재되어, 차량의 주변 영상 데이터를 획득하는 적어도 하나의 영상 센서를 포함하는 데이터 수집부(100), 인공지능 학습을 위해, 외부로부터 교통사고 관련 영상 데이터를 수집하고, 수집한 상기 데이터들의 학습을 수행하는 데이터 학습부(200) 및 상기 데이터 수집부(100)로부터 획득한 상기 주변 영상 데이터를 전달받아 1차 영상 분석을 수행하고, 상기 데이터 학습부(200)의 학습 결과에 따라 생성된 학습 모델에 1차 영상 분석 결과를 적용하여, 영상 내 교통사고 검지를 수행하는 데이터 분석부(300)를 포함하는 것이 바람직하다.
더 나아가, 상기 교통사고 검지 시스템은 차량에 탑재되어, 상기 데이터 수집부(100)에서 획득한 상기 주변 영상 데이터들을 송신하는 차량 통신부(110)를 더 포함하는 것이 바람직하다.
더 나아가, 상기 데이터 학습부(200)는 외부로부터 기발생한 교통사고 관련 영상 데이터를 수집하고, 기설정된 항목별로 분류하여 학습 데이터를 생성하는 학습 데이터 수집부(210) 및 기저장된 인공지능 학습 알고리즘을 이용하여, 상기 학습 데이터 수집부(210)에서 생성한 상기 학습 데이터에 대한 학습을 수행하여, 학습 모델을 생성하는 학습 처리부(220)를 더 포함하는 것이 바람직하다.
더 나아가, 상기 데이터 분석부(300)는 상기 주변 영상 데이터를 이용하여, 상기 주변 영상 데이터를 획득한 영상 센서가 탑재된 차량을 기준으로 주변 차량과의 상대 속도를 분석하는 속도 분석부(310), 상기 속도 분석부(310)에서 분석한 상대 속도를 기반으로, 주변 차량의 주행 상태를 분석하는 상태 분석부(320) 및 상기 상태 분석부(320)에서의 분석 결과에 따라, 주변 차량 중 주행 정지 상태의 차량이 분석될 경우, 해당하는 주변 영상 데이터를 상기 학습 모델에 적용하여 영상 내 교통사고 검지를 수행하는 사고 검지부(330)를 더 포함하는 것이 바람직하다.
더 나아가, 상기 학습 데이터 수집부(210)는 수집한 교통사고 관련 영상 데이터에 라벨링되어 있는 차량 유형별, 사고 심각도별, 도로 유형별, 기상환경별로 수집 데이터를 분류하고, 분류 상태 정보를 포함하여 통합 학습 데이터를 생성하는 것이 바람직하다.
더 나아가, 상기 교통사고 검지 시스템은 상기 데이터 분석부(300)로부터 영상 내 교통사고 검지 결과 정보를 전달받아, 연계되어 있는 정보 제공 수단으로 전송하여 교통 관제를 수행하는 관제 수단부(400)를 더 포함하는 것이 바람직하다.
더 나아가, 상기 사고 검지부(330)는 실시간으로, 네트워크 연결되어 있는 정보 제공 수단으로 영상 내 교통사고 검지 결과 정보를 전송하는 것이 바람직하다.
본 발명의 또다른 일 실시예에 따른 교통사고 검지 방법은, 컴퓨터로 구현되는 교통사고 검지 시스템에 의해 각 단계가 수행되는 교통사고 검지 방법에 있어서, 데이터 수집부에서, 차량에 탑재되는 적어도 하나의 영상 센서를 통해서 차량의 주변 영상 데이터를 수집하는 데이터 수집 단계(S100), 데이터 분석부에서, 상기 데이터 수집 단계(S100)에 의해 수집한 상기 주변 영상 데이터를 전달받아, 영상 분석을 수행하는 데이터 분석 단계(S200), 데이터 분석부에서, 상기 데이터 분석 단계(S200)의 분석 결과를 이용하여 주변 차량 중 이상 차량 발생 여부를 판단하는 판단 단계(S300) 및 데이터 분석부에서, 상기 판단 단계(S300)에 의한 판단 결과에 따라, 주변 차량 중 이상 차량이 발생될 경우, 영상 내 교통사고 검지를 수행하는 데이터 세부 분석 단계(S400)를 포함하는 것이 바람직하다.
더 나아가, 상기 교통사고 검지 방법은 상기 데이터 세부 분석 단계(S400)를 수행하기 전, 데이터 학습부에서, 인공지능 학습을 위해 외부로부터 교통사고 관련 영상 데이터를 수집하고, 수집한 데이터들을 기설정된 항목별로 분류하여 학습 데이터를 생성하고, 기저장된 인공지능 학습 알고리즘을 이용하여 생성한 상기 학습 데이터에 대한 학습을 수행하여, 학습 모델을 생성하는 학습 처리 단계(S410)를 더 포함하며, 상기 데이터 세부 분석 단계(S400)는 상기 학습 처리 단계(S410)에서의 학습 결과에 따라 생성된 학습 모델을 적용하여 영상 내 교통사고 검지를 수행하는 것이 바람직하다.
더 나아가, 상기 데이터 분석 단계(S200)는 상기 주변 영상 데이터를 이용하여, 상기 주변 영상 데이터를 획득한 영상 센서가 탑재된 차량을 기준으로 주변 차량과의 상대 속도를 분석하고, 분석한 상대 속도를 기반으로, 주변 차량의 주행 상태를 분석하는 것이 바람직하다.
더 나아가, 상기 판단 단계(S300)는 상기 데이터 분석 단계(S200)의 분석 결과를 이용하여 주변 차량 중 주행 정지 상태의 차량이 분석될 경우, 이상 차량이 발생된 것으로 판단하는 것이 바람직하다.
더 나아가, 상기 학습 처리 단계(S410)는 수집한 교통사고 관련 영상 데이터에 라벨링되어 있는 차량 유형별, 사고 심각도별, 도로 유형별, 기상환경별로 수집 데이터를 분류하고, 분류 상태 정보를 포함하여 통합 학습 데이터를 생성하는 것이 바람직하다.
더 나아가, 상기 교통사고 검지 방법은 상기 데이터 세부 분석 단계(S400)를 수행하고 난 후, 데이터 분석부에서, 실시간으로 네트워크 연결되어 있는 정보 제공 수단으로 영상 내 교통사고 검지 결과 정보를 전송하거나, 관제 수단부로 영상 내 교통사고 검지 결과 정보를 전송하여, 관제 수단부에서 연계되어 있는 정보 제공 수단으로 상기 결과 정보를 전송하여 교통 관제를 수행하는 정보 제공 단계(S500)를 더 포함하여 구성되는 것이 바람직하다.
상기와 같은 구성에 의한 본 발명의 교통사고 검지 시스템 및 그 방법은 이동 중인 차량에 탑재되어 있는 영상 센서와 AI 기술을 활용하여, 도로 상 발생한 교통사고 검지할 수 있는 장점이 있다.
상세하게는, 차량 탑재 영상 센서를 활용하여 주행 중 실시간으로 영상 기반 교통상황에 대한 정보 수집이 가능하고, AI 기술을 활용하여 도로 유형 별 발생할 수 있는 다양한 유형의 교통사고 상황 시나리오에 대한 학습을 통한 수집한 정보에 대한 분석을 수행할 수 있어, 다양한 변수들을 고려한 정확하고 신속한 교통사고 검지를 수행할 수 있는 장점이 있다.
또한, 교통사고 검지 결과 데이터를 실시간으로 제공함으로써, 2차 사고 발생을 예방할 수 있을 뿐 아니라, 민관 교통정보 서비스와 연계를 통해서 최적 교통관제 기술을 제공할 수 있는 장점이 있다.
더욱 바람직하게는, 교통사고 검지 결과 정보를 민간 내비게이션을 통해 실시간으로 서비스 이용자들에게 제공할 수 있으며, 연계되어 있는 도로관리 기관의 신속한 교통사고 대응전략 수립에 활용할 수 있는 장점이 있다.
이를 통해서, 교통사고 심각도 감소에 기여할 수 있으며, 교통안전에 대한 사회적 기대를 상승시킬 수 있는 장점이 있다.
도 1은 본 발명의 일 실시예에 따른 교통사고 검지 시스템을 나타낸 구성 예시도이다.
도 2는 본 발명의 일 실시예에 따른 교통사고 검지 방법을 나타낸 순서 예시도이다.
이하 첨부한 도면들을 참조하여 본 발명의 교통사고 검지 시스템 및 그 방법을 상세히 설명한다. 다음에 소개되는 도면들은 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 예로서 제공되는 것이다. 따라서, 본 발명은 이하 제시되는 도면들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 또한, 명세서 전반에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다.
이 때, 사용되는 기술 용어 및 과학 용어에 있어서 다른 정의가 없다면, 이 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 통상적으로 이해하고 있는 의미를 가지며, 하기의 설명 및 첨부 도면에서 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 설명은 생략한다.
더불어, 시스템은 필요한 기능을 수행하기 위하여 조직화되고 규칙적으로 상호 작용하는 장치, 기구 및 수단 등을 포함하는 구성 요소들의 집합을 의미한다.
본 발명의 일 실시예에 따른 교통사고 검지 시스템 및 그 방법은, 최근 차량 탑재 영상 센서 보급률의 증가, 다시 말하자면, 차량 탑재 블랙박스나 ADAS(Advanced Driver Assistant System)의 보급 증가와, AI 기술 발전에 따른 영상 분석 기술의 급성장으로 인해, 실시간 영상 데이터의 분석과 분석 결과를 활용한 다양한 활용이 가능하다는 점을 고려하여, 이동체인 차량에 탑재된 영상 센서로부터 획득되는 영상 데이터를 활용하여 발생한 교통사고를 검지하고, 검지 결과 공유를 통한 2차 사고의 예방 효과까지 가질 수 있는 기술에 관한 것이다.
도 1은 본 발명의 일 실시예에 따른 교통사고 검지 시스템을 나타낸 구성도이며, 도 1을 참조로 하여 본 발명의 일 실시예에 따른 교통사고 검지 시스템을 상세히 설명한다.
본 발명의 일 실시예에 따른 교통사고 검지 시스템은 도 1에 도시된 바와 같이, 데이터 수집부(100), 데이터 학습부(200) 및 데이터 분석부(300)를 포함하여 구성되는 것이 바람직하며, 상기 데이터 수집부(100)는 차량에 탑재되는 것이 바람직하나, 상기 데이터 학습부(200)와 데이터 분석부(300)는 하나 또는 다수의 컴퓨터 등을 포함하는 연산처리수단에 적용되어 동작을 수행하는 것이 바람직하다.
각 구성에 대해서 자세히 알아보자면,
상기 데이터 수집부(100)는 차량에 탑재되어 차량의 주변 영상 데이터를 획득하는 적어도 하나의 영상 센서를 포함하는 것이 바람직하다. 상기 영상 센서로는 차량에 탑재된 블랙박스, 첨단 운전자 지원 시스템인 ADAS(AEB, LKAS, ASCC, ABSD, AVM 등) 등을 포함하여 구성되는 것이 바람직하다.
상기 데이터 분석부(300)는 상기 데이터 수집부(100)로부터 획득한 상기 주변 영상 데이터를 전달받아 1차적으로 영상 분석을 수행하는 것이 바람직하다.
이 때, 상기 데이터 수집부(100)에서 수집한 상기 주변 영상 데이터를 상기 데이터 분석부(300)로 전송하기 위하여, 도 1에 도시된 바와 같이, 차량 통신부(110)를 더 포함하여 구성되는 것이 바람직하다.
상기 차량 통신부(110)는 차량에 탑재되어, 상기 데이터 수집부(100)에서 획득한 상기 주변 영상 데이터를 외부 네트워크로 송신하는 것이 바람직하며, 통신 수단에 대해서는 한정하는 것은 아니다.
상기 데이터 분석부(300)는 도 1에 도시된 바와 같이, 속도 분석부(310), 상태 분석부(320) 및 사고 검지부(330)를 포함하여 구성되는 것이 바람직하다.
상세하게는, 상기 속도 분석부(310)는 상기 데이터 수집부(100)로부터 전달받은 상기 주변 영상 데이터를 이용하여, 상기 주변 영상 데이터를 획득한 영상 센서가 탑재된 차량(이하 '기준 차량'이라 함.)의 주변 차량, 다시 말하자면, 선행 주행 차량이나 측면 주행 차량들 간의 거리 차를 연산하여, 상기 기준 차량을 기준으로 주변 차량들 간의 상대 속도를 분석하는 것이 바람직하다.
이 때, 상기 속도 분석부(310)는 상기 주변 영상 데이터를 미리 설정된 시간마다 나누어 각 구간마다의 상기 기준 차량과 주변 차량들 간의 상대 속도를 분석하는 것이 바람직하다. 이를 통해서, 상기 상태 분석부(320)에서 분석한 상대 속도의 변화량을 이용하여 주변 차량의 주행 상태를 분석하게 된다.
상기 상태 분석부(320)는 상기 속도 분석부(310)에서 분석한 상기 기준 차량과 주변 차량들 간의 상대 속도를 기반으로, 주변 차량의 주행 상태를 분석하는 것이 바람직하다.
상세하게는, 상기 상태 분석부(320)는 상기 속도 분석부(310)에서 분석한 상기 기준 차량과 주변 차량들 간의 상대 속도를 기반으로, 주변 차량의 주행 정지 상태 또는 주행 유지 상태(속도 감속/가속 등)를 구분하는 것이 바람직하다.
일 예를 들자면, 상기 기준 차량을 포함하여 주변 차량들의 상대 속도의 변화량이 없거나 소정 범위 이내로 유지될 경우, 도로 주행 흐름에 따라 상기 기준 차량을 포함하여 주변 차량들이 주행 정지/감속/가속 등이 이루어지는 것을 의미하나, 상기 주변 차량 중 일부 차량에 대해서 소정 범위를 벗어나는 상대 속도 차가 발생할 경우, 해당하는 일부 차량에 대해서 이상이 발생한 것으로 분석하는 것이 바람직하다.
즉, 도로를 주행 중인 대부분의 차량 중 일부 차량만 주행 속도가 상이함을 의미하기 때문에, 해당하는 차량에 대해 이상이 발생한 것으로 예측하고, 이에 대한 세부 분석을 수행하여 교통사고 발생 여부를 판단하는 것이 바람직하다.
이 때, 상기 소정 범위란, 현재 주행 중인 도로 유형 별(고속도로, 일반국도, 학교 앞 도로 등)로 최대 시속을 고려하여 상기 기준 차량의 현재 속도를 기준으로 설정되는 것이 바람직하며, 상기 데이터 분석부(300)는 상기 데이터 수집부(100)로부터 상기 주변 영상 데이터만을 전달받는 것이 아니라, 상기 주변 영상 데이터가 수집되는 동안의 상기 기준 차량의 현재 상태 정보를 같이 전송받아, 상기 기준 차량의 현재 속도를 획득하게 된다. 일반적으로 차량은 내부 통신을 통해서 차량의 현재 GPS 정보, 현재 주행 속도 등을 획득할 수 있기 때문에, 상기 주변 영상 데이터와 상기 기준 차량의 현재 상태 정보를 동시에 전송받기 위해 별도의 수단이 요구되는 것은 아니다. 그렇지만, 차량의 상태에 따라 별도의 수단이 요구될 수도 있기 때문에, 이에 대해서 한정하는 것은 아니다.
상기 사고 검지부(330)는 상기 상태 분석부(320)의 분석 결과에 따라, 상기 주변 차량 중 주행 정지 상태의 차량이 분석될 경우, AI 학습을 통해 생성된 학습 모델을 활용하여 해당하는 주변 영상 데이터의 세부 분석을 통해서 영상 내 교통사고 발생을 검지하는 것이 바람직하다.
이를 위해, 상술한 바와 같이, AI 학습을 통해 학습 모델의 생성이 요구되며, 이는 상기 데이터 학습부(200)를 통해서 수행되는 것이 바람직하다.
상기 데이터 학습부(200)는 인공지능 학습을 위해 외부로부터 다양한 교통사고 관련 영상 데이터를 수집하고, 수집한 상기 데이터들의 학습을 수행하여 학습 모델을 생성하는 것이 바람직하다.
상세하게는, 상기 데이터 학습부(200)는 도 1에 도시된 바와 같이, 학습 데이터 수집부(210) 및 학습 처리부(220)를 포함하여 구성되는 것이 바람직하다.
상기 학습 데이터 수집부(210)는 외부로부터 이미 발생한 교통사고 관련 영상 데이터를 수집하는 것이 바람직하며, 이 때, 수집한 상기 교통사고 관련 영상 데이터들은 인공지능 학습을 위해 사전에 라벨링 작업이 완료되어 있는 데이터인 것이 바람직하다. 일 예를 들자면, 교통사고 발생 차량 유형 정보, 교통사고 발생 차량의 정지된 방향 정보, 발생한 교통사고의 심각도 정보(사망자 발생 정보 등), 교통사고 발생 당시 교통 상황 정보, 교통사고 발생 당시 기상 상황 정보, 교통사고 발생 당시 시간대 정보, 교통사고 발생 당시 주변 기하구조 정보, 교통사고 발생 당시 주변 교통량 정보 등이 라벨링 되어 있는 것이 바람직하다.
이를 통해서, 상기 학습 데이터 수집부(210)는 수집한 상기 교통사고 관련 영상 데이터들에 라벨링 되어 있는 정보들을 반영하여 설정된 항목별로 상기 교통사고 관련 영상 데이터들을 분류하여 학습 데이터를 생성하는 것이 바람직하다.
이 때, 각 항목 별로 각각 상이한 학습 데이터를 생성하는 것이 아니라, 해당 항목을 좀 더 세분화하여 학습할 수 있도록 분류한 학습 데이터를 생성하는 것이 바람직하다.
상기 학습 처리부(220)는 미리 저장된 인공지능 학습 알고리즘을 이용하여, 상기 학습 데이터 수집부(210)에서 생성한 상기 학습 데이터에 대한 학습을 수행하고, 학습 결과에 따른 학습 모델을 생성하는 것이 바람직하다.
이를 통해서, 상기 학습 모델은 입력 데이터로 입력되는 영상 데이터에 대한 항목 분석을 수행하여 결과 데이터로 출력하는 것이 바람직하다.
상기 사고 검지부(330)는 상술한 바와 같이, 상기 상태 분석부(320)의 분석 결과에 따라, 상기 주변 차량 중 주행 정지 상태의 차량이 분석될 경우, AI 학습을 통해 생성된 학습 모델, 다시 말하자면, 상기 학습 처리부(220)를 통해서 생성된 상기 학습 모델에 해당하는 주변 영상 데이터를 적용하여 영상 내 교통사고 발생을 검지하는 것이 바람직하다.
즉, 상기 상태 분석부(320)를 통해서 상기 주변 영상 데이터 내 이상 주행 상태를 갖는 차량의 존재를 판단하는 것이 바람직하며, 이에 대한 세부 분석을 위해서 상기 사고 검지부(330)에서 상기 학습 모델을 활용하여, 교통사고 발생 여부를 검지하는 것이 바람직하다.
일 예를 들자면, 상기 기준 차량이 고속도로를 주행하면서 상기 주변 영상 데이터를 수집할 경우, 졸음쉼터를 지날 경우, 일부 주변 차량들은 필요에 의해 주정차를 수행할 수 있으나, 그 외의 구간에서는 주정차가 발생할 경우, 이상 상황이 발생한 것으로 판단할 수 있다. 그렇기 때문에, 상기 상태 분석부(320)의 분석 결과 만을 활용할 경우, 졸음쉼터에서의 차량 주정차를 검지할 수 없기 때문에, 상기 사고 검지부(330)의 세부 분석을 통해서 졸음쉼터에서의 차량 주정차를 검지하여, 영상 내 교통사고 발생 여부를 검지하게 된다.
더불어, 본 발명의 일 실시예에 따른 교통사고 검지 시스템은 도 1에 도시된 바와 같이, 관제 수단부(400)를 더 포함하여 구성되는 것이 바람직하다.
상기 관제 수단부(400)는 상기 데이터 분석부(300)로부터 영상 내 교통사고 검지 결과 정보를 전달받아, 연계되어 있는 정보 제공 수단으로 전송하여 교통 관제를 수행하는 것이 바람직하다.
이 때, 연계되어 있는 정보 제공 수단이란, 해당하는 주변 영상 데이터에 포함되어 있는 GPS 정보를 기반으로, 영향을 받을 수 있는 주변의 교통 정보 제공 수단인 것이 바람직하다.
물론, 상기 데이터 분석부(300)는 관제 수단부(400)를 통하지 않고 직접 네트워크 연결되어 있는 정부 또는 민간의 교통 관제 센터와 통신을 수행하여 영상 내 교통사고 검지 결과 정보를 전달하여, 교통 관제에 활용될 수 있도록 하는 것이 바람직하다.
도 2는 본 발명의 일 실시예에 따른 교통사고 검지 방법을 나타낸 순서도이며, 도 2를 참조로 하여 본 발명의 일 실시예에 따른 교통사고 검지 방법을 상세히 설명한다.
본 발명의 일 실시예에 따른 교통사고 검지 방법은 도 2에 도시된 바와 같이, 데이터 수집 단계(S100), 데이터 분석 단계(S200), 판단 단계(S300) 및 데이터 세부 분석 단계(S400)를 포함하여 구성되는 것이 바람직하며, 컴퓨터로 구현되는 교통사고 검지 시스템에 의해 각 단계가 수행되게 된다.
각 단계에 대해서 자세히 알아보자면,
상기 데이터 수집 단계(S100)는 상기 데이터 수집부(100)에서, 상기 기준 차량에 탑재되는 적어도 하나의 영상 센서를 통해서 상기 기준 차량의 주변 영상 데이터를 수집하는 것이 바람직하다.
상기 영상 센서로는 차량에 탑재된 블랙박스, 첨단 운전자 지원 시스템인 ADAS(AEB, LKAS, ASCC, ABSD, AVM 등) 등을 포함하여 구성되는 것이 바람직하다.
상기 데이터 분석 단계(S200)는 상기 데이터 분석부(300)에서, 상기 데이터 수집 단계(S100)에 의해 수집한 상기 주변 영상 데이터를 전달받아, 1차적으로 영상 분석을 수행하는 것이 바람직하다.
이 때, 상기 데이터 분석 단계(S200)는 상기 주변 영상 데이터를 미리 설정된 시간마다 나누어 각 구간마다의 상기 기준 차량과 주변 차량들 간의 상대 속도를 분석하는 것이 바람직하다. 이를 통해서, 분석한 상대 속도의 변화량을 이용하여 주변 차량의 주행 상태를 분석하게 된다.
상세하게는, 상기 데이터 분석 단계(S200)는 상기 주변 영상 데이터를 이용하여, 상기 기준 차량과 주변 차량과의 상대 속도를 분석하고, 분석한 상대 속도를 기잔으로 주변 차량의 주행 상태를 분석하는 것이 바람직하다.
즉, 상기 기준 차량과 선행 주행 차량이나 측면 주행 차량들 간의 거리 차를 연산하여, 상기 기준 차량을 기준으로 주변 차량들 간의 상대 속도를 분석하게 된다.
이 후, 분석한 상기 기준 차량과 주변 차량들 간의 상대 속도를 기반으로, 주변 차량의 주행 상태를 분석하는 것이 바람직하다. 즉, 분석한 상기 기준 차량과 주변 차량들 간의 상대 속도를 기반으로, 주변 차량의 주행 정지 상태 또는 주행 유지 상태(속도 감속/가속 등)를 구분하는 것이 바람직하다.
상기 판단 단계(S300)는 상기 데이터 분석부(300)에서, 상기 데이터 분석 단계(S200)의 분석 결과를 이용하여, 주변 차량 중 이상 차량 발생 여부를 판단하는 것이 바람직하다.
상세하게는, 상기 기준 차량을 포함하여 주변 차량들의 상대 속도의 변화량이 없거나 소정 범위 이내로 유지될 경우, 도로 주행 흐름에 따라 상기 기준 차량을 포함하여 주변 차량들이 주행 정지/감속/가속 등이 이루어지는 것을 의미하나, 상기 주변 차량 중 일부 차량에 대해서 소정 범위를 벗어나는 상대 속도 차가 발생할 경우, 해당하는 일부 차량에 대해서 이상이 발생한 것으로 분석하는 것이 바람직하다.
즉, 도로를 주행 중인 대부분의 차량 중 일부 차량만 주행 속도가 상이함을 의미하기 때문에, 해당하는 차량에 대해 이상이 발생한 것으로 예측하고, 이에 대한 세부 분석을 수행하여 교통사고 발생 여부를 판단하는 것이 바람직하다.
이 때, 상기 소정 범위란, 현재 주행 중인 도로 유형 별(고속도로, 일반국도, 학교 앞 도로 등)로 최대 시속을 고려하여 상기 기준 차량의 현재 속도를 기준으로 설정되는 것이 바람직하며, 상기 데이터 분석부(300)는 상기 데이터 수집부(100)로부터 상기 주변 영상 데이터만을 전달받는 것이 아니라, 상기 주변 영상 데이터가 수집되는 동안의 상기 기준 차량의 현재 상태 정보를 같이 전송받아, 상기 기준 차량의 현재 속도를 획득하게 된다. 일반적으로 차량은 내부 통신을 통해서 차량의 현재 GPS 정보, 현재 주행 속도 등을 획득할 수 있기 때문에, 상기 주변 영상 데이터와 상기 기준 차량의 현재 상태 정보를 동시에 전송받기 위해 별도의 수단이 요구되는 것은 아니다. 그렇지만, 차량의 상태에 따라 별도의 수단이 요구될 수도 있기 때문에, 이에 대해서 한정하는 것은 아니다.
상기 데이터 세부 분석 단계(S400)는 상기 데이터 분석부(300)에서, 상기 판단 단계(S300)에 의한 판단 결과에 따라, 주변 차량 중 이상 차량이 발생될 경우, 다시 말하자면, 상기 주변 차량 중 주행 정지 상태의 차량이 분석될 경우, AI 학습을 통해 생성된 학습 모델을 활용하여 해당하는 주변 영상 데이터의 세부 분석을 통해서 영상 내 교통사고 발생을 검지하는 것이 바람직하다.
이를 위해, AI 학습을 통해 학습 모델의 생성이 요구되며, 도 2에 도시된 바와 같이, 상기 데이터 시부 분석 단계(S400)를 수행하기 전, 학습 처리 단계(S410)를 더 수행하는 것이 바람직하다.
상기 학습 처리 단계(S410)는 상기 데이터 학습부(200)에서, 인공지능 학습을 위해 외부로부터 다양한 교통사고 관련 영상 데이터를 수집하고, 수집한 상기 데이터들의 학습을 수행하여 학습 모델을 생성하는 것이 바람직하다.
상세하게는, 외부로부터 이미 발생한 교통사고 관련 영상 데이터를 수집하는 것이 바람직하며, 이 때, 수집한 상기 교통사고 관련 영상 데이터들은 인공지능 학습을 위해 사전에 라벨링 작업이 완료되어 있는 데이터인 것이 바람직하다. 일 예를 들자면, 교통사고 발생 차량 유형 정보, 교통사고 발생 차량의 정지된 방향 정보, 발생한 교통사고의 심각도 정보(사망자 발생 정보 등), 교통사고 발생 당시 교통 상황 정보, 교통사고 발생 당시 기상 상황 정보, 교통사고 발생 당시 시간대 정보, 교통사고 발생 당시 주변 기하구조 정보, 교통사고 발생 당시 주변 교통량 정보 등이 라벨링 되어 있는 것이 바람직하다.
이를 통해서, 수집한 상기 교통사고 관련 영상 데이터들에 라벨링 되어 있는 정보들을 반영하여 설정된 항목별로 상기 교통사고 관련 영상 데이터들을 분류하여 학습 데이터를 생성하는 것이 바람직하다. 이 때, 각 항목 별로 각각 상이한 학습 데이터를 생성하는 것이 아니라, 해당 항목을 좀 더 세분화하여 학습할 수 있도록 분류한 학습 데이터를 생성하는 것이 바람직하다.
이 후, 미리 저장된 인공지능 학습 알고리즘을 이용하여, 생성한 상기 학습 데이터에 대한 학습을 수행하고, 학습 결과에 따른 학습 모델을 생성하는 것이 바람직하다.
이를 통해서, 상기 학습 모델은 입력 데이터로 입력되는 영상 데이터에 대한 항목 분석을 수행하여 결과 데이터로 출력하는 것이 바람직하다.
이에 따라, 상기 데이터 세부 분석 단계(S400)는 상술한 바와 같이, 상기 판단 단계(S300)에 의한 판단 결과에 따라, 상기 주변 차량 중 주행 정지 상태의 차량이 분석될 경우, 상기 학습 처리 단계(S410)를 통해서 생성된 상기 학습 모델에 해당하는 주변 영상 데이터를 적용하여 영상 내 교통사고 발생을 검지하는 것이 바람직하다.
일 예를 들자면, 상기 기준 차량이 고속도로를 주행하면서 상기 주변 영상 데이터를 수집할 경우, 졸음쉼터를 지날 경우, 일부 주변 차량들은 필요에 의해 주정차를 수행할 수 있으나, 그 외의 구간에서는 주정차가 발생할 경우, 이상 상황이 발생한 것으로 판단할 수 있다. 그렇기 때문에, 상기 상태 분석부(320)의 분석 결과 만을 활용할 경우, 졸음쉼터에서의 차량 주정차를 검지할 수 없기 때문에, 영상 세부 분석을 통해서 졸음쉼터에서의 차량 주정차를 검지하여, 영상 내 교통사고 발생 여부를 검지하게 된다.
더불어, 본 발명의 일 실시예에 따른 교통사고 검지 방법은 도 2에 도시된 바와 같이, 상기 데이터 세부 분석 단계(S400)를 수행하고 난 후, 상기 데이터 분석부(300)에서, 영상 내 교통사고 검지 결과 정보를 외부로 전송하는 정보 제공 단계(S500)를 더 포함하여 구성되는 것이 바람직하다.
상기 정보 제공 단계(S500)는 상기 관제 수단부(400)에서, 영상 내 교통사고 검지 결과 정보를 전달받아, 연계되어 있는 정보 제공 수단으로 전송하여 교통 관제를 수행하거나, 상기 데이터 분석부(300)에서, 직접 네트워크 연결되어 있는 정부 또는 민간의 교통 관제 센터와 통신을 수행하여 영상 내 교통사고 검지 결과 정보를 전달하여, 교통 관제에 활용될 수 있도록 하는 것이 바람직하다.
이 때, 연계되어 있는 정보 제공 수단이란, 해당하는 주변 영상 데이터에 포함되어 있는 GPS 정보를 기반으로, 영향을 받을 수 있는 주변의 교통 정보 제공 수단인 것이 바람직하다.
이상과 같이 본 발명에서는 구체적인 구성 소자 등과 같은 특정 사항들과 한정된 실시예 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것 일 뿐, 본 발명은 상기의 일 실시예에 한정되는 것이 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허 청구 범위뿐 아니라 이 특허 청구 범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.
100 : 데이터 수집부
110 : 차량 통신부
200 : 데이터 학습부
210 : 학습 데이터 수집부 220 : 학습 처리부
300 : 데이터 분석부
310 : 속도 분석부 320 : 상태 분석부
330 : 사고 검지부
400 : 관제 수단부

Claims (12)

  1. 차량에 탑재되어, 차량의 주변 영상 데이터를 획득하는 적어도 하나의 영상 센서를 포함하는 데이터 수집부(100);
    인공지능 학습을 위해, 외부로부터 교통사고 관련 영상 데이터를 수집하고, 수집한 상기 데이터들의 학습을 수행하는 데이터 학습부(200);
    상기 데이터 수집부(100)로부터 획득한 상기 주변 영상 데이터를 전달받아 1차 영상 분석을 수행하고, 상기 데이터 학습부(200)의 학습 결과에 따라 생성된 학습 모델에 1차 영상 분석 결과를 적용하여, 영상 내 교통사고 검지를 수행하는 데이터 분석부(300); 및
    상기 데이터 분석부(300)로부터 영상 내 교통사고 검지 결과 정보를 전달받아, 실시간으로, 연계되어 있는 정보 제공 수단으로 전송하여 교통 관제를 수행하는 관제 수단부(400);
    를 포함하며,
    상기 데이터 학습부(200)는
    외부로부터 기발생한 교통사고 관련 영상 데이터를 수집하고, 기설정된 항목별로 분류하여 학습 데이터를 생성하는 학습 데이터 수집부(210);와
    기저장된 인공지능 학습 알고리즘을 이용하여, 상기 학습 데이터 수집부(210)에서 생성한 상기 학습 데이터에 대한 학습을 수행하여, 학습 모델을 생성하는 학습 처리부(220);를 더 포함하며,
    상기 데이터 분석부(300)는
    상기 주변 영상 데이터를 이용하여, 상기 주변 영상 데이터를 획득한 영상 센서가 탑재된 차량을 기준으로 주변 차량과의 상대 속도를 분석하는 속도 분석부(310);와,
    상기 속도 분석부(310)에서 분석한 상대 속도를 기반으로, 주변 차량의 주행 상태를 주행 정지 상태 또는 주행 유지 상태로 구분하여 분석하는 상태 분석부(320);와,
    상기 상태 분석부(320)에서의 분석 결과에 따라, 주변 차량 중 주행 정지 상태의 차량이 분석될 경우, 해당하는 주변 영상 데이터를 상기 학습 모델에 적용하여, 필요에 의한 주행 정지 상태인지 교통사고에 의한 주행 정지 상태인지 판단하여 영상 내 교통사고 검지를 수행하는 사고 검지부(330);를 더 포함하는 것을 특징으로 하는 교통사고 검지 시스템.
  2. 제 1항에 있어서,
    상기 교통사고 검지 시스템은
    차량에 탑재되어, 상기 데이터 수집부(100)에서 획득한 상기 주변 영상 데이터들을 송신하는 차량 통신부(110);
    를 더 포함하는 것을 특징으로 하는 교통사고 검지 시스템.
  3. 삭제
  4. 삭제
  5. 제 1항에 있어서,
    상기 학습 데이터 수집부(210)는
    수집한 교통사고 관련 영상 데이터에 라벨링되어 있는 차량 유형별, 사고 심각도별, 도로 유형별, 기상환경별로 수집 데이터를 분류하고, 분류 상태 정보를 포함하여 통합 학습 데이터를 생성하는 것을 특징으로 하는 교통사고 검지 시스템.
  6. 삭제
  7. 컴퓨터로 구현되는 교통사고 검지 시스템에 의해 각 단계가 수행되는 교통사고 검지 방법에 있어서,
    데이터 수집부에서, 차량에 탑재되는 적어도 하나의 영상 센서를 통해서 차량의 주변 영상 데이터를 수집하는 데이터 수집 단계(S100);
    데이터 분석부에서, 상기 데이터 수집 단계(S100)에 의해 수집한 상기 주변 영상 데이터를 전달받아, 상기 주변 영상 데이터를 획득한 영상 센서가 탑재된 차량을 기준으로 주변 차량과의 상대 속도를 분석하고, 분석한 상대 속도를 기반으로, 주변 차량의 주행 상태를 주행 정지 상태 또는 주행 유지 상태로 구분하여 분석하는 데이터 분석 단계(S200);
    데이터 분석부에서, 상기 데이터 분석 단계(S200)의 분석 결과를 이용하여 주변 차량 중 주행 정지 상태의 차량이 분석될 경우, 이상 차량이 발생된 것으로 판단하는 판단 단계(S300); 및
    데이터 분석부에서, 상기 판단 단계(S300)에 의한 판단 결과에 따라, 주변 차량 중 이상 차량이 발생될 경우, 해당하는 주변 영상 데이터를 이용하여, 영상 내 교통사고 검지를 수행하는 데이터 세부 분석 단계(S400);
    를 포함하며,
    상기 데이터 세부 분석 단계(S400)를 수행하기 전,
    데이터 학습부에서, 인공지능 학습을 위해 외부로부터 교통사고 관련 영상 데이터를 수집하고, 수집한 데이터들을 기설정된 항목별로 분류하여 학습 데이터를 생성하고, 기저장된 인공지능 학습 알고리즘을 이용하여 생성한 상기 학습 데이터에 대한 학습을 수행하여, 학습 모델을 생성하는 학습 처리 단계(S410);
    를 더 포함하며,
    상기 데이터 세부 분석 단계(S400)는
    상기 판단 단계(S300)에 의한 판단 결과에 따라, 주변 차량 중 주행 정지 상태의 차량이 분석된 주변 영상 데이터를 상기 학습 처리 단계(S410)에서의 학습 결과에 따라 생성된 학습 모델에 적용하여, 필요에 의한 주행 정지 상태인지 교통사고에 의한 주행 정지 상태인지 판단하여 영상 내 교통사고 검지를 수행하는 것을 특징으로 하는 교통사고 검지 방법.
  8. 삭제
  9. 삭제
  10. 삭제
  11. 제 7항에 있어서,
    상기 학습 처리 단계(S410)는
    수집한 교통사고 관련 영상 데이터에 라벨링되어 있는 차량 유형별, 사고 심각도별, 도로 유형별, 기상환경별로 수집 데이터를 분류하고, 분류 상태 정보를 포함하여 통합 학습 데이터를 생성하는 것을 특징으로 하는 교통사고 검지 방법.
  12. 제 7항에 있어서,
    상기 교통사고 검지 방법은
    상기 데이터 세부 분석 단계(S400)를 수행하고 난 후,
    데이터 분석부에서, 실시간으로 네트워크 연결되어 있는 정보 제공 수단으로 영상 내 교통사고 검지 결과 정보를 전송하는 정보 제공 단계(S500);
    를 더 포함하여 구성되는 것을 특징으로 하는 교통사고 검지 방법.

KR1020210069960A 2021-05-31 2021-05-31 교통사고 검지 시스템 및 그 방법 KR102551566B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210069960A KR102551566B1 (ko) 2021-05-31 2021-05-31 교통사고 검지 시스템 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210069960A KR102551566B1 (ko) 2021-05-31 2021-05-31 교통사고 검지 시스템 및 그 방법

Publications (2)

Publication Number Publication Date
KR20220161785A KR20220161785A (ko) 2022-12-07
KR102551566B1 true KR102551566B1 (ko) 2023-07-06

Family

ID=84441359

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210069960A KR102551566B1 (ko) 2021-05-31 2021-05-31 교통사고 검지 시스템 및 그 방법

Country Status (1)

Country Link
KR (1) KR102551566B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102594587B1 (ko) * 2023-04-28 2023-10-26 주식회사 스마트비전 교통정보센터의 돌발 상황 정보 제공 시스템 및 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101095528B1 (ko) 2009-04-30 2011-12-20 (주) 서돌 전자통신 연속류도로 사고 및 돌발 자동판별 검지시스템 및 그 방법
JP2021034739A (ja) * 2019-08-13 2021-03-01 Kddi株式会社 事象発生推定のための学習データ生成方法・プログラム、学習モデル及び事象発生推定装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101133222B1 (ko) * 2010-04-21 2012-04-05 한국교통대학교산학협력단 영상기반의 사고 검지 시스템 및 방법
KR101688218B1 (ko) 2016-08-25 2016-12-20 델리아이 주식회사 객체 인지 기반의 실시간 영상 검지 기술을 이용한 교통 흐름 및 돌발 상황 관리 시스템 및 그 처리 방법
KR102540436B1 (ko) * 2017-12-15 2023-06-05 현대자동차 주식회사 차량 사고 예측 시스템 및 그 방법
KR102306085B1 (ko) * 2019-10-28 2021-09-28 고려대학교 세종산학협력단 도로교통 운행환경정보 기반 교통사고 영상을 활용한 자율주행 테스트 시나리오 도출 방법 및 절차
KR102453627B1 (ko) * 2019-10-31 2022-10-12 한국전자기술연구원 딥러닝 기반 교통 흐름 분석 방법 및 시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101095528B1 (ko) 2009-04-30 2011-12-20 (주) 서돌 전자통신 연속류도로 사고 및 돌발 자동판별 검지시스템 및 그 방법
JP2021034739A (ja) * 2019-08-13 2021-03-01 Kddi株式会社 事象発生推定のための学習データ生成方法・プログラム、学習モデル及び事象発生推定装置

Also Published As

Publication number Publication date
KR20220161785A (ko) 2022-12-07

Similar Documents

Publication Publication Date Title
CN110997387B (zh) 具有自主驾驶能力的运载工具的风险处理
CN109416873B (zh) 具有自动化风险控制系统的自主或部分自主机动车辆及其相应方法
CN111354187B (zh) 用于辅助交通工具的驾驶员的方法和驾驶员辅助系统
Jiménez et al. An improved method to calculate the time-to-collision of two vehicles
JP2021082236A (ja) 画像認識に基づく車内向けインタネット用交通状況システム
US11662735B2 (en) Method and system for updating a control model for automatic control of at least one mobile unit
US11170639B2 (en) Transportation threat detection system
WO2013170882A1 (en) Collaborative vehicle detection of objects with a predictive distribution
US11553363B1 (en) Systems and methods for assessing vehicle data transmission capabilities
CN114387785A (zh) 一种基于智慧公路的安全管控方法、系统及可存储介质
CA3056611A1 (fr) Systeme de generation automatique d'alertes destinees aux usagers d'une route
KR102551566B1 (ko) 교통사고 검지 시스템 및 그 방법
JP4580995B2 (ja) 道路交通管制システム
Wang et al. Collision avoidance models and algorithms in the era of internet of vehicles
CN110675633A (zh) 用于求取违法行驶行为的方法,控制单元和存储介质
US20150213712A1 (en) Detecting traffic and accident data at road junctions
CN116630891A (zh) 一种交通异常事件检测系统及方法
Detzer et al. Analysis of traffic safety for cyclists: The automatic detection of critical traffic situations for cyclists
KR102316700B1 (ko) 이륜차 전용 무인단속시스템
JP4128962B2 (ja) 道路交通管制システム
KR20190014884A (ko) 운전패턴 활용을 위한 차량용 영상 모니터링 시스템 및 그 방법
Balasubramani et al. A predictive decision model for an efficient detection of abnormal driver behavior in intelligent transport system
KR20110071997A (ko) 교통안전 보장 방법 및 이를 위한 교통안전 서버
Fowdur et al. A mobile application for real-time detection of road traffic violations
KR102592141B1 (ko) 기후 변화 대응형 교차로 교통 신호 제어 시스템

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right