KR102400842B1 - 교통사고 정보를 제공하기 위한 서비스 방법 - Google Patents

교통사고 정보를 제공하기 위한 서비스 방법 Download PDF

Info

Publication number
KR102400842B1
KR102400842B1 KR1020200011393A KR20200011393A KR102400842B1 KR 102400842 B1 KR102400842 B1 KR 102400842B1 KR 1020200011393 A KR1020200011393 A KR 1020200011393A KR 20200011393 A KR20200011393 A KR 20200011393A KR 102400842 B1 KR102400842 B1 KR 102400842B1
Authority
KR
South Korea
Prior art keywords
accident
information
image
vehicle
traffic
Prior art date
Application number
KR1020200011393A
Other languages
English (en)
Other versions
KR20210097555A (ko
Inventor
김세원
어대선
이현석
공인복
최정용
Original Assignee
상명대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 상명대학교산학협력단 filed Critical 상명대학교산학협력단
Priority to KR1020200011393A priority Critical patent/KR102400842B1/ko
Publication of KR20210097555A publication Critical patent/KR20210097555A/ko
Application granted granted Critical
Publication of KR102400842B1 publication Critical patent/KR102400842B1/ko

Links

Images

Classifications

    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • G06K9/62
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • G07C5/0866Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/10Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using wireless transmission systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/14Central alarm receiver or annunciator arrangements
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • Emergency Management (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Remote Sensing (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Operations Research (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Traffic Control Systems (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)

Abstract

본 발명은 교통사고 정보를 제공하기 위한 서비스 방법에 관한 것으로, 교통사고 정보를 제공하기 위한 서비스 방법에 있어서, 차량용 블랙박스를 통해 획득한 2D 영상을 사용자 단말기로 입력한 후 영상 변환 알고리즘을 이용하여 3D 영상으로 변환하는 제 1단계, 상기 1단계에서 변환된 3D 영상을 통해 과실정보를 분석하기 위하여 해당 영상을 과실정보 분석서버로 전송하여 시뮬레이션 작업을 통해 교통사고 차량에 대한 도로환경, 주행환경, 사고환경에 따른 사고차량의 과실 여부를 분석하는 제 2단계, 상기 제 2단계에서 분석된 과실정보를 통해 차선위반, 신호위반, 과속정보, 보행자 사고를 포함하는 교통법규 위반 기준에 따라 과실 카테고리별로 사고유형을 분류하는 제 3단계, 제 3단계에서 분류된 카테고리별로 해당 영상정보를 교통법규 위반 기준과 사고 유형에 따른 상황별로 분석하여 사고 당사간 차량에 대한 과실 여부에 따라 교통사고 형태를 분석하는 제 4단계 및 상기 제 4단계에서 분석된 교통사고 형태를 인공지능 서버에서 사고유형에 따른 과실여부 정도를 딥러닝을 통한 결과값을 분석하여 교통사고 분석 영상을 획득하는 제 5단계를 포함하여 구성된다.

Description

교통사고 정보를 제공하기 위한 서비스 방법{Service methods for providing information on traffic accidents}
본 발명은 교통사고 정보를 제공하기 위한 서비스 방법에 관한 것으로, 좀 더 상세하게는 교통사고 발생에 따른 과실 정보를 효율적으로 판단하여 신속하고 정확한 사고처리를 수행할 수 있는 교통사고 정보를 제공하기 위한 서비스 방법에 관한 것이다.
일반적으로 고속도로나 일반국도 등과 같은 차량의 주행도로에서 교통사고가 발생할 경우 사고현장을 지나가던 차량의 운전자나 행인의 신고로 사고정보를 획득하는 경우가 대부분이며, 사고현장과 관련된 사고정보는 신고에 따른 별도의 방송매체(라디오나 DMB 등)를 통해 인근 접근차량의 운전자가 확인할 수 있게 제공하고 있다.
전자통신 기술이 발전함에 따라 쌍방향 통신을 이용한 상호적인 기능이 제공되는 스마트폰이나 태블릿PC와 같은 이동단말기의 보급이 증가하고 있으며, 이동단말기 역시 사용자의 조작에 의해 단순히 사고를 신고하기 위한 수단으로만 동작할 뿐, 능동적으로 교통사고에 대한 신고나 정보제공을 수행하기는 어려웠다.
또한, 교통사고를 당한 운전자가 직접 사고 상황을 신고함에는 한계가 있으며, 현장을 지나치는 차량의 목격자가 차량주행 중 신고하거나 제보하는 것 역시 어려움이 있게 때문에 인근 차량이 교통사고 발생과 관련된 정보를 미리 제공받지 못하여 사고현장을 불가피하게 지나가야 하며, 사고 현장에서 오랜 시간을 지체하게 되는 등의 불편함이 있었다.
이에 따라 최근에는 도로 상에 설치된 교통정보 수집용 카메라로부터 주변 교통정보를 수집하되 도로 곳곳에 배치된 표지판이 카메라로 수집된 정보를 분석하여 교통 흐름에 관련된 정보를 생선한 후 표시하도록 한 교통정보 시스템이 사용되고 있다.
교통사고 발생시, 사고 상황의 재현을 위한 전통적인 방식은 사고현장에 남겨진 타이어의 스키드 마크(skid mark)와 도로에 흩어진 파손물, 차량의 파손정도, 차량의 최종 위치, 목격자 진술의 청취 등의 현장조사를 바탕으로 이루어지며, 이러한 개별 정보의 취합 및 구성은 정확성이 낮고 번거로움의 발생과 많은 시간이 소요된다는 문제점이 있었다.
이러한 문제점을 해결하기 위하여 최근 들어 사고재현을 위한 차량용 블랙박스가 도입되고 자동화 프로그램이 개발되어 상기 차량용 블랙박스의 영상정보에 기반한 교통사고 재현 시도가 시도되고 있다.
즉, 사고현장 재구성 측면에서, 차량용 블랙박스는 내부의 전자기 기록 매체에 자동차 충돌 시점(사고 시점)을 기준으로 충돌 전후의 일정시간 사고 기록 정보를 저장하므로, 차량용 블랙박스를 통해 사고발생시 명확한 증거제시, 목격자 부재 시 등의 상황에서 일어나는 사고분쟁을 해결할 수 있어 준법 운전자를 보호할 수 있고, 사고 발생 시 교통경찰과 보험사 직원이 현장으로 출동해 차량용 블랙박스를 수거하여 사고 상황을 이전보다는 용이하게 재현할 수 있게 된다.
그러나 전술한 통상의 차량용 블랙박스 이용 사고현장 재현 방식은 차량 내부의 정보만으로 사고 상황을 재현하기 때문에 외적 요인이 고려된 종합적인 사고 상황을 정확하게 재현하는데 한계가 있다는 문제점이 있었다. 즉, 사고가 발생하는 원인은 차량의 내부결함이나 조작의 문제도 있지만 차량의 외적인 요인들(예를 들어 외부차량이나 장애물과의 충돌, 도로 상황, 지형 상황, 기상 상황 등)이 많기 때문에 사고 후에 따로 현장 조사를 통해 사고 상황을 분석하는 과정이 필요하다.
KR 10-1048650호, KR 10-1689805호 KR 10-1682048호, KR 10-2017-0120849호 KR 10-1998834호
상기와 같은 문제점을 해결하기 위한 본 발명은 실시간 교통사고 영상 정보를 분석하여 사고 차량의 과실 여부를 신속하게 분석할 수 있는 사고영상 분석 기술을 제공하고자 하는데 목적이 있다.
또한, 본 발명은 온라인 기반의 인공지능 기술을 활용하여 딥러닝을 통한 사고영상 정보 분석을 학습함으로써, 보다 정확하고 신뢰성 높은 교통사고 과실 분석 서비스를 제공하고자 하는데 목적이 있다.
또한, 본 발명은 보다 신뢰도 높은 교통사고 과실 분석을 위해 외부 변호사, 분석 전문가 등의 오프라인 분석 서비스를 도입함으로써 만족도 높은 교통사고 과실 분석 기능을 제공하고자 하는데 목적이 있다.
상기와 같은 목적을 달성하기 위한 본 발명은, 교통사고 정보를 제공하기 위한 서비스 방법에 있어서, 차량용 블랙박스를 통해 획득한 2D 영상을 사용자 단말기로 입력한 후 영상 변환 알고리즘을 이용하여 3D 영상으로 변환하는 제 1단계, 상기 1단계에서 변환된 3D 영상을 통해 과실정보를 분석하기 위하여 해당 영상을 과실정보 분석서버로 전송하여 시뮬레이션 작업을 통해 교통사고 차량에 대한 도로환경, 주행환경, 사고환경에 따른 사고차량의 과실 여부를 분석하는 제 2단계, 상기 제 2단계에서 분석된 과실정보를 통해 차선위반, 신호위반, 과속정보, 보행자 사고를 포함하는 교통법규 위반 기준에 따라 과실 카테고리별로 사고유형을 분류하는 제 3단계, 제 3단계에서 분류된 카테고리별로 해당 영상정보를 교통법규 위반 기준과 사고 유형에 따른 상황별로 분석하여 사고 당사간 차량에 대한 과실 여부에 따라 교통사고 형태를 분석하는 제 4단계 및 상기 제 4단계에서 분석된 교통사고 형태를 인공지능 서버에서 사고유형에 따른 과실여부 정도를 딥러닝을 통한 결과값을 분석하여 교통사고 분석 영상을 획득하는 제 5단계를 포함하여 구성된다.
또한, 상기 제 2단계는, 해당 블랙박스 영상에 나타난 사고 영상에 표시된 여러 대상체 중에서 가장 가까운 대상체 정보를 획득하여 해당 영상을 시뮬레이션 변환에 따른 시뮬레이션 변환값으로 적용하여 영상을 분석하고, 해당 영상에서 사고 차량에 대한 진행방향(직진, 좌회전, 우회전, 유턴, 차선변경)과 사고차량간의 사고접촉 위치를 분석하는 단계를 더 포함한다.
또한, 상기 제 1단계는, 상기 차량용 블랙박스를 통해 획득되는 영상에 따른 GPS 정보를 획득하고, 여기서 획득된 GPS 정보를 통해 상기 과실정보 분석서버에서 도로정보 분석모듈을 통해 해당 사고 현장의 차선정보, 신호규정 정보, 규정속도 정보를 포함하는 도로정보를 획득하는 단계를 더 포함한다.
또한, 상기 제 4단계 후에는, 교통사고 영상정보를 분석하는 외부 전문가기관 서버로 전송하여 상기 제 4단계에서 분석된 과실여부 결과값을 상기 외부 전문가기관 서버에서 결과값을 검증한 후 검증된 분석 정보를 상기 서버로 제공하는 단계를 더 포함하여 구성된다.
또한, 상기 3단계는, 교통사고 정보에 따른 교통사고 일자와 시간, 교통사고 종류, 차량 종류, 사고도로의 위치정보를 포함하는 교통사고 정보를 분류하는 것을 특징으로 한다.
또한, 상기 제 5단계 후에는, 상기 과실정보 분석서버를 통해 과실여부 분석 결과값을 사고 당사자의 사용자 단말기로 각각 전송하여 과실여부 분석 결과를 출력한 후 양자간 분석 결과값을 확인하고 과실 분석 결과값의 동의 절차를 거쳐 법적 효력을 발생시키는 제 6단계를 더 포함하여 구성된다.
또한, 상기 제 6단계 후에는, 사고 당사자들간의 과실 분석 결과값 동의가 완료되면 교통사고에 따른 후속 조치를 위한 유관기관으로 해당 교통사고 영상과 과실 결과값을 전송하는 제 7단계를 더 포함하여 구성된다.
또한, 상기 제 2단계는, 분석된 시뮬레이션 영상정보를 통해 사고 차량이 접촉 사고인 경우 접촉 위치와 접촉 방향, 정차 여부, 접촉방향 정보를 분석하여 과실 정보를 판단하여 사고 차량의 과실 여부를 분석하는 단계를 더 포함하여 구성된다.
상기와 같이 구성되고 작용되는 본 발명은 교통사고 영상정보를 통해 온라인상에서 자동으로 과실 여부를 판단할 수 있기 때문에 경찰ㅇ보험사 등의 출동 횟수를 줄임으로써 비용 절감을 실현할 수 있으며, 교통사고 발생에 따른 교통정체의 문제를 해소시킬 수 있는 장점이 있다.
또한, 본 발명은 실시간 교통사고 정보를 분석할 수 있기 때문에 불필요한 사회적 비용(교통사고 소송, 그 외 사회적 비용 등)을 절감시킬 수 있고, 신속한 과실 정보 분석을 통해 빠른 교통사고 사건을 해결할 수 있는 효과가 있다.
도 1은 본 발명에 따른 교통사고 정보를 제공하기 위한 서비스 방법의 순서도,
도 2는 본 발명에 따른 교통사고 정보를 제공하기 위한 서비스 방법의 시스템 구성도,
도 3은 본 발명에 따른 교통사고 정보를 제공하기 위한 서비스 방법에서 교통사고 정보에 따른 사고유형 분석을 나타낸 단말기 도면,
도 4는 본 발명에 따른 교통사고 정보를 제공하기 위한 서비스 방법에서 도로형태 분석 이미지를 나타낸 단말기 도면,
도 5는 본 발명에 따른 교통사고 정보를 제공하기 위한 서비스 방법에서 외부전문가 서버를 통한 분석 이미지를 나타낸 단말기 도면.
이하, 첨부된 도면을 참조하여 본 발명에 따른 교통사고 정보를 제공하기 위한 서비스 방법을 상세히 설명하면 다음과 같다.
본 발명에 따른 교통사고 정보를 제공하기 위한 서비스 방법은, 교통사고 정보를 제공하기 위한 서비스 방법에 있어서, 차량용 블랙박스를 통해 획득한 2D 영상을 사용자 단말기로 입력한 후 영상 변환 알고리즘을 이용하여 3D 영상으로 변환하는 제 1단계, 상기 1단계에서 변환된 3D 영상을 통해 과실정보를 분석하기 위하여 해당 영상을 과실정보 분석서버로 전송하여 시뮬레이션 작업을 통해 교통사고 차량에 대한 도로환경, 주행환경, 사고환경에 따른 사고차량의 과실 여부를 분석하는 제 2단계, 상기 제 2단계에서 분석된 과실정보를 통해 차선위반, 신호위반, 과속정보, 보행자 사고를 포함하는 교통법규 위반 기준에 따라 과실 카테고리별로 사고유형을 분류하는 제 3단계, 제 3단계에서 분류된 카테고리별로 해당 영상정보를 교통법규 위반 기준과 사고 유형에 따른 상황별로 분석하여 사고 당사간 차량에 대한 과실 여부에 따라 교통사고 형태를 분석하는 제 4단계 및 상기 제 4단계에서 분석된 교통사고 형태를 인공지능 서버에서 사고유형에 따른 과실여부 정도를 딥러닝을 통한 결과값을 분석하여 교통사고 분석 영상을 획득하는 제 5단계를 포함하여 구성된다.
본 발명에 따른 교통사고 정보를 제공하기 위한 서비스 방법은, 차량용 블랙박스에 획득되는 영상정보를 수집하여 3D영상 변환 과정과 이를 통한 시뮬레이션 구동을 통한 과실 정보를 분석하고, 다양한 교통사고 영상정보를 딥러닝하여 사고 영상 획득만으로 교통사고 과실 여부를 분석할 수 있는 교통사고 정보를 제공하기 위한 서비스 방법을 제공하는 것을 주요 기술적 요지로 합니다.
도 1은 본 발명에 따른 교통사고 정보를 제공하기 위한 서비스 방법의 순서도이다.
본 발명에 따른 교통사고 정보를 제공하기 위한 서비스 방법은, 차량용 블랙박스를 획득한 사고 영상을 통해 3D영상으로 변환하는 제 1단계(S100)이다. 차량에 설치된 차량용 블랙박스 영상 또는 임의적으로 촬영된 사고영상 정보는 2D 이미지를 갖기 때문에 과실정보를 분석하기 위하여 해당 영상정보를 3D영상으로 변환하게 된다. 이때, 차량용 블랙박스에 저장된 영상 데이터를 사용자 단말기가 획득하여 영상정보를 처리하게 되는데, 이것은 차량용 블랙박스의 기능을 통해 온라인으로 전송받거나 필요에 따라서는 별개의 메모리 수단을 통해 임의적으로 전송할 수 있다.
여기서 상기 사용자 단말기로 전송된 영상정보는 단말기내의 자체 프로그램을 통해 분석을 위해 과실정보 분석서버로 전송하여 해당 영상에 대한 사고 차량의 과실정보를 분석하는 제 2단계를 수행한다(S200).
상기 과실정보 분석서버는 블랙박스를 통해 촬영된 사고 영상을 온라인 기반에서 분석해주는 운영 기관의 서버에 해당하며, 사용자 단말기를 통해 전송된 영상정보를 시뮬레이션 하여 사고 차량의 과실 여부를 판단하게 된다.
과실여부의 분석은 3D 영상으로 변환된 영상정보를 통해 차량의 진행방향, 도로의 구조, 신호등 정보, 차선 정보, 속도 정보 등을 종합적으로 분석하고 사고 차량의 주행 상태를 통해 시뮬레이션 작업을 통해 분석한다. 이때, 시뮬레이션 작업에서는 GPS정보를 활용한 도로정보를 확인하고 이를 통해 분석 정보에 반영한다. 이때, 도로정보는 교통법규에 따른 차선정보, 신호규정, 속도규정 등 해당 도로에 따른 교통법규 적용 범위를 분석함으로써 사고 차량간에 차선 변경 위반이나 신호위반, 속도 위반 등의 과실 여부가 있는지를 판단하기 위함이다.
또한, 해당 영상을 분석하는 과정에서는 해당 블랙박스 영상에서 가장 가까운 대상체 정보를 획득하고, 해당 차량의 진행방향(직진, 좌회전, 우회전, 유턴)을 분석하는 단계를 더 포함시켜 보다 정확한 분석을 위해 사고에 따른 모든 정보를 동시에 반영하여 분석하게 된다.
또한, 분석된 시뮬레이션 영상정보를 통해 사고 차량이 접촉 사고인 경우 접촉 위치와 접촉 방향, 정차 여부, 접촉방향 정보를 분석하여 과실 정보를 판단하여 사고 차량의 과실 여부를 분석한다.
다음으로 분석이 완료되며 사고 유형별로 카테고리를 지정하여 해당 영상을 저장하는 제 3단계이다(S300). 이것은 누적되는 사고 영상정보를 가지고 추후 사고 발생에 따른 유형별 분석의 정확성을 확보하기 위하여 해당 정보를 저장하는 것이다.
상기 제 3단계에 카테고리별로 분석된 영상정보에 따른 상황별 분석과정을 거친다(S400). 예를 들어서 교차로 사고 카테고리로 분류된 사고 영상 정보를 가지고 형태를 분석하기 위해서는 사고 차량들의 진행 방향이나 과실범위, 신호위반 상태, 속도 위반 상태, 불법 차선 변경 등과 같은 세부적인 분석을 통해서 교차로 내 사고 중에서 어떤 형태의 사고가 이루어진 것인지를 분석하는 과정에 해당하는 것이다.
또는, 보행자 사고 카테고리로 분류된 사고 영상의 경우는 운전자 주시태만, 속도, 불법 주행, 보행자 고의 등과 같은 세부 정보를 분류함으로써 사고 형태를 정밀하게 분석하는 과정을 거친다.
상기 제 4단계(S400)에서 최종적으로 분석된 과실정보를 인공지능 서버로 저장되어 딥러닝을 수행하여 사고 발생에 따른 정확한 정보를 제공할 수 있도록 온라인 기반의 사고 영상 학습화 과정을 수행한다. 따라서, 상기 인공지능 서버에서 딥러닝 학습을 계속적으로 수행하여 사고 영상에 대한 분석 결과값을 정확하게 수집하고 있으며, 또 다른 사고 발생에 따른 유사 형태나 동일 형태의 사고에 대해 빠르게 정확하게 분석할 수 있는 이점이 있다.
도 2는 본 발명에 따른 교통사고 정보를 제공하기 위한 서비스 방법의 시스템 구성도이다.
도 2에서는 본 발명에 따른 교통사고 정보를 제공하기 위한 서비스 시스템의 구성도를 도시한 것으로써, 우선, 사고 영상정보를 획득하는 차량용 블랙박스(100)와, 해당 사고 영상 정보를 입력받는 사용자 단말기(200), 상기 사용자 단말기를 통해 전송된 사고 영상을 분석하는 과실정보 분석서버(300), 분석 영상을 딥러닝하기 위한 인공지능 서버(400) 그리고, 분석 영상에 검증 과정을 위한 외부전문가 서버(500)를 포함하여 구성된다.
상기 차량용 블랙박스(100)는 일반적으로 차량의 저면과 후면에 설치되어 주행 중 또는 사고 발생 시점에 대한 영상 정보를 획득한 후 메모리에 저장하게 된다. 여기서 획득한 영상정보에 교통사고가 발생하였을 경우에는 사용자 단말기(200)로 해당 영상을 입력받게 되고, 상기 사용자 단말기(200)내에 설치된 프로그램을 통해 입력한 후 교통사고 영상을 분석한다.
상기 사용자 단말기는 일반적으로 사용자의 휴대용 단말기에 해당할 수 있으며, 교통사고 영상 분석 서비스를 제공받기 위하여 전용 프로그램(앱)이 설치된다. 따라서, 사용자는 입력된 사고영상 정보를 업로드하면 해당 영상은 과실정보 분석서버(300)로 전송되어 과실에 따른 분석을 실시하게 된다.
상기 과실정보 분석서버(300)는 해당 영상을 3D 영상으로 변환하는 3D 변환모듈(310)과 사고 발생 현장에 대한 도로정보를 분석하는 도로정보 분석모듈(320)을 포함한다.
상기 3D 변환모듈(310)은 사용자 단말기를 통해 전송된 사고영상을 분석하기 위해 우선 몇 가지 영상 처리를 실시한다. 여기서 영상에서 가장 가까운 대상체 정보를 획득하고, 해당 차량의 진행방향(직진, 좌회전, 우회전, 유턴)을 분석한다. 해당 영상에서 가까운 대상체 정보를 획득하는 것은 시뮬레이션 변환 작업에서 영상의 기준점을 설정하기 위하여 대상체 정보를 획득하게 된다. 이것은 영상물을 3D로 변환하는 다양한 기술을 통해 용이하게 변경할 수 있다.
또한, 상기 차량용 블랙박스를 통해 획득되는 영상에 따른 GPS 정보를 획득하고, 여기서 획득된 GPS 정보를 통해 상기 과실정보 분석서버에서 도로정보 분석모듈을 통해 해당 사고 현장의 도로 형태 정보를 획득하는 단계를 더 포함한다.
따라서, 상기 과실정보 분석서버(300)에서 분석된 과실여부 영상정보를 통해 차량용 블랙박스에서 획득한 영상을 가지고 사고 발생에 따른 과실여부를 파악할 수 있게 된다.
인공지능(AI) 서버(400)는 상기 과실정보 분석서버에서 분석한 영상정보를 딥러닝한 후 차후 발생되는 사고영상에 따른 인공지능 방식으로 과실 여부를 정확하게 분석할 수 있도록 제공한다. 다양하게 분석된 교통사고 영상정보는 상기 인공지능 서버를 통해 딥러닝을 수행하며, 차후 발생되는 교통사고 영상정보가 발생하면 인공지능 서버를 통해 자동으로 분석하여 과실여부에 따른 결과값을 제공할 수 있도록 하기 위함이다.
한편, 외부전문가 서버(500)는 상기 과실정보 분석서버에서 분석된 정보를 검증하기 위한 전문가 집단 서버에 해당한다. 교통사고 분석 전문가, 변호사, 보험처리 담당자 등과 같은 전문가는 상기 과실정보 분석서버(300)에서 검증 요청이 발생된 경우 해당 영상정보를 분석한다. 이때, 사고 차량의 과실여부와 법적 조치, 보험 처리, 사고처리 등과 같은 문제를 2차적으로 검증하기 위한 서버로써, 검증 요청이 발생되었을 경우 과실정보 분석서버에서 분석한 결과값을 통해 보다 정확한 과실여부를 검증한 후 다시 제공하게 되는 것이다.
도 3은 본 발명에 따른 교통사고 정보를 제공하기 위한 서비스 방법에서 교통사고 정보에 따른 사고유형 분석을 나타낸 단말기 도면이다. 도시된 바와 같이 교통사고 영상정보에 따른 분석 결과값을 나타낸 것으로, 상기 과실정보 분석서버에서 분석한 결과값을 수신 받으면, 사고유형, 사고위차, 차종 뿐만 아니라, 운전자 정보, 면허 정보, 차량정보 등 사고처리를 위한 모든 정보가 출력되도록 한다. 분석된 결과값은 법적 효력을 발생시킬 수 있으며 사고 당사자들은 분석된 결과값을 가지고 확인 요청을 한 후 사고 발생에 따른 과실여부에 동의를 하게 된다. 이 과정에서 상기 과실정보 분석서버에서 분석된 정보에서 시뮬레이션을 통한 사고 영상 출력 정보를 제공하게 되고, 이를 통해서 당사자들간 사고 발생에 따른 동의 과정도 거칠 수 있다.
이때, 사고 당사자들간의 사용자 단말기를 통해 각각 분석 결과를 확인한 후 동의를 하게 되면 사고 처리에 따른 법적 효력을 발생시키게 되고 해당 정보는 사고 처리를 위한 보험사, 경찰서 등 유관기관으로 전송될 수 있다.
도 4는 본 발명에 따른 교통사고 정보를 제공하기 위한 서비스 방법에서 도로형태 분석 이미지를 나타낸 단말기 도면이다. 앞서 설명한 바와 같이 과실정보 분석서버는 도로정보 분석모듈(320)을 통해 사고 위치에 따른 도로정보를 기반으로 사고 정보를 분석한다. 이때, GPS정보를 통한 사고 현장의 정확한 위치를 검출하게 되고, 도로정보와 영상정보를 활용한 시뮬레이션 영상을 구성하여 분석에 적용하게 된다. 도로는 교차로, 일방통행로, 교량, 고속도로, 국도, 자동차 전용도로 등 다양한 도로형태로 구분되어 있기 때문에 사고 조사 시 중요한 인자에 해당한다. 따라서, 본 발명에서는 교통사고 영상정보와 함께 도로정보를 기반으로 하여 분석에 적용함으로써 보다 정확하게 분석 결과를 도출하게 되는 것이다.
도 5는 본 발명에 따른 교통사고 정보를 제공하기 위한 서비스 방법에서 외부전문가 서버를 통한 분석 이미지를 나타낸 단말기 도면이다.
앞서 설명한 바와 같이 본 발명에서는 과실정보 분석서버에서 분석된 결과값에 대하여 분석 검증을 위해서 외부전문가 서버(500)로부터 검증 요청을 구현한다. 상기 외부전문가 서버(500)는 보험처리 담당자, 변호사, 교통사고 처리 전문가 등과 같은 다양한 전문가를 통해 상기 과실정보 분석서버를 통해 분석과 결과값을 필요에 따라서 한번 더 검증 요청을 통해 과실여부의 신뢰성을 확보할 수 있기 위함이다.
따라서, 상기 외부전문가 서버(500)는 검증을 요청하는 교통사고 영상정보를 통해 해당 정보를 과실여부나 민ㅇ형사적 책임 여부 등과 같은 세부적인 사고 처리를 위하여 추가 검증 결과를 제시함으로써, 교통사고 과실여부에 따른 법적 효력을 제시할 수 있게 되는 것이다.
이하에서 불랙박스에 영상을 파악하는 방법에 대해 설명한다.
상기 블랙박스에는 사고를 파악하는 제어부가 탑재되며 상기 제어부는 상기 블랙박스를 통해 저장된 영상 데이터로부터 객체를 인식하는 단계와, 상기 블랙박스를 탑재한 자체차량에 대한 자체경계를 확정하여 저장하는 단계와, 상기 블랙박스 영상에서 움직이는 객체들을 인식하여 각 객체들의 경계가 상기 자체경계와 겹치는지를 판단하는 단계와, 각 객체들의 경계와 자체경계가 겹치는 것을 파악되면 자체차량의 사고로 인식하고 상기 블랙박스가 경보음을 울리도록 신호를 발생시키는 것을 포함한다.
이때 상기 객체를 인식하는 단계는, 상기 저장된 영상을 프레임별로 나누어 각 프레임에 대한 상대적인 시간차를 부여하는 단계와, 각 프레임에서 차선을 인식하고 그로부터 도로를 인식하는 단계와, 상기 블랙박스내에 장착된 GPS를 통해 차량의 속도를 확인하는 단계와, 상기 인식된 도로위에서 각 프레임을 상대적인 위치관계를 통해 연속적으로 움직이는 물체를 파악하고 상기 움직이는 물체의 경계선을 추출하는 단계와 상기 추출된 경계선으로 폐루프를 형성시켜 차량으로 판단하는 단계를 더 포함한다.
또한 상기 판단된 차량이 상대적인 시간차가 부여된 각 프레임에서 상대적인 움직임 여부를 판단하는 단계와, 상기 각 프레임에서 판단된 차량에 상대위치가 변하는지 확인하는 단계와 각 프레임에서 판단된 차량의 상대적인 위치를 파악하여 각 프레임의 상대시간차와 자체차량의 속도값을 통해 판단된 차량의 속도를 구하는 단계를 더 포함한다.
통상 각 프레임은 1초에 수십회의 프레임으로 나누어지며, 예를 들어 1초에 10개의 프레임이 있다고 판단되면 각 프레임간의 상대시간차는 0,1초가 되며, 만약 각 프레임상의 상대적인 이동거리를 확인하면, 차량의 속도를 구할 수 있다, 예를 들면, 블랙박스 영상이 보는 화면은 고정되어 있으므로 해당 프레임에서 상대적인 이동값을 알면 해당 차량의 이동거리를 확인할 수 있고 이동거리와 시간정보를 알면 속도를 구할 수 있는 것은 당연하다.
이때 해당프레임에서 블랙박스의 영상은 고정되어 있으므로 영상에서의 실제거리는 간단한 보정을 통해 결정할 수 있다.
또한 블랙박스를 탑재한 차량의 속도는 GPS 를 통해 결정할 수 있어 블랙박스를 탑재한 차량의 속도도 구할 수 있으므로, 프레임상의 차량의 이동거리를 통해 얻은 속도와 블랙박스를 탑재한 차량의 속도를 통해 프레임에서 경계선으로 추출한 차량의 속도를 결정할 수 있다.
나아가 상기 각 프레임에서 경계선으로 추출된 차량의 상대적인 위치가 뒤쪽으로 이동하면 블랙박스를 탑재한 자체차량에 비해 속도가 낮은 것으로 파악하고, 각 프레임에서 경계선으로 추출된 차량의 상대적인 위치가 앞쪽으로 이동하면 블랙박스를 탑재한 자체차량에 비해 속도가 높은 것으로 파악하고 단계를 더 포함한다.
이와 같이 구성되는 본 발명은, 본 발명은 교통사고 영상정보를 통해 온라인상에서 자동으로 과실 여부를 판단할 수 있기 때문에 경찰ㅇ보험사 등의 출동 횟수를 줄임으로써 비용 절감을 실현할 수 있으며, 교통사고 발생에 따른 교통정체의 문제를 해소시킬 수 있는 장점이 있다.
또한, 본 발명은 실시간 교통사고 정보를 분석할 수 있기 때문에 불필요한 사회적 비용(교통사고 소송, 그 외 사회적 비용 등)을 절감시킬 수 있고, 신속한 과실 정보 분석을 통해 빠른 교통사고 사건을 해결할 수 있는 효과가 있다.
이상, 본 발명의 원리를 예시하기 위한 바람직한 실시예와 관련하여 설명하고 도시하였지만, 본 발명은 그와 같이 도시되고 설명된 그대로의 구성 및 작용으로 한정되는 것이 아니다. 오히려, 첨부된 청구범위의 사상 및 범주를 일탈함이 없이 본 발명에 대한 다수의 변경 및 수정이 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서 그러한 모든 적절한 변경 및 수정과 균등물들도 본 발명의 범위에 속하는 것으로 간주되어야 할 것이다.
100 : 차량용 블랙박스
200 : 사용자 단말기
300 : 과실정보 분석서버
310 : 3D 변환모듈
320 : 도로정보 분석모듈
400 : 인공지능 서버
500 : 외부전문가 서버

Claims (8)

  1. 교통사고 정보를 제공하기 위한 서비스 방법에 있어서,
    차량용 블랙박스를 통해 획득한 2D 영상을 사용자 단말기로 입력한 후 영상 변환 알고리즘을 이용하여 3D 영상으로 변환하는 제 1단계;
    상기 1단계에서 변환된 3D 영상을 통해 과실정보를 분석하기 위하여 해당 영상을 과실정보 분석서버로 전송하여 시뮬레이션 작업을 통해 교통사고 차량에 대한 도로환경, 주행환경, 사고환경에 따른 사고차량의 과실 여부를 분석하는 제 2단계;
    상기 제 2단계에서 분석된 과실정보를 통해 차선위반, 신호위반, 과속정보, 보행자 사고를 포함하는 교통법규 위반 기준에 따라 과실 카테고리별로 사고유형을 분류하는 제 3단계;
    제 3단계에서 분류된 카테고리별로 해당 영상정보를 교통법규 위반 기준과 사고 유형에 따른 상황별로 분석하여 사고 당사간 차량에 대한 과실 여부에 따라 교통사고 형태를 분석하는 제 4단계; 및
    상기 제 4단계에서 분석된 교통사고 형태를 인공지능 서버에서 사고유형에 따른 과실여부 정도를 딥러닝을 통한 결과값을 분석하여 교통사고 분석 영상을 획득하는 제 5단계;를 포함하되,
    상기 제 2단계는,
    해당 블랙박스 영상에 나타난 사고 영상에 표시된 여러 대상체 중에서 가장 가까운 대상체 정보를 획득하여 해당 영상을 시뮬레이션 변환에 따른 시뮬레이션 변환값으로 적용하여 영상을 분석하고, 해당 영상에서 사고 차량에 대한 진행방향(직진, 좌회전, 우회전, 유턴, 차선변경)과 사고차량간의 사고접촉 위치를 분석하는 단계를 더 포함하며,
    상기 제 1단계는,
    상기 차량용 블랙박스를 통해 획득되는 영상에 따른 GPS 정보를 획득하고, 여기서 획득된 GPS 정보를 통해 상기 과실정보 분석서버에서 도로정보 분석모듈을 통해 해당 사고 현장의 차선정보, 신호규정 정보, 규정속도 정보를 포함하는 도로정보를 획득하는 단계를 더 포함하고,
    상기 제 4단계 후에는,
    교통사고 영상정보를 분석하는 외부 전문가기관 서버로 전송하여 상기 제 4단계에서 분석된 과실여부 결과값을 상기 외부 전문가기관 서버에서 결과값을 검증한 후 검증된 분석 정보를 상기 서버로 제공하는 단계를 더 포함하며
    상기 블랙박스에는 사고를 파악하는 제어부가 탑재되며 상기 제어부는 상기 블랙박스를 통해 저장된 영상 데이터로부터 객체를 인식하는 단계와, 상기 블랙박스를 탑재한 자체차량에 대한 자체경계를 확정하여 저장하는 단계와, 상기 블랙박스 영상에서 움직이는 객체들을 인식하여 각 객체들의 경계가 상기 자체경계와 겹치는지를 판단하는 단계와, 각 객체들의 경계와 자체경계가 겹치는 것을 파악되면 자체차량의 사고로 인식하고 상기 블랙박스가 경보음을 울리도록 신호를 발생시키고
    이때 상기 객체를 인식하는 단계는, 상기 저장된 영상을 프레임별로 나누어 각 프레임에 대한 상대적인 시간차를 부여하는 단계와, 각 프레임에서 차선을 인식하고 그로부터 도로를 인식하는 단계와, 상기 블랙박스내에 장착된 GPS를 통해 차량의 속도를 확인하는 단계와, 상기 인식된 도로위에서 각 프레임을 상대적인 위치관계를 통해 연속적으로 움직이는 물체를 파악하고 상기 움직이는 물체의 경계선을 추출하는 단계와 상기 추출된 경계선으로 폐루프를 형성시켜 차량으로 판단하는 단계를 더 포함하며.
    상기 판단된 차량이 상대적인 시간차가 부여된 각 프레임에서 상대적인 움직임 여부를 판단하는 단계와, 상기 각 프레임에서 판단된 차량에 상대위치가 변하는지 확인하는 단계와 각 프레임에서 판단된 차량의 상대적인 위치를 파악하여 각 프레임의 상대시간차와 자체차량의 속도값을 통해 판단된 차량의 속도를 구하는 단계를 더 포함하고.
    나아가 상기 각 프레임에서 경계선으로 추출된 차량의 상대적인 위치가 뒤쪽으로 이동하면 블랙박스를 탑재한 자체차량에 비해 속도가 낮은 것으로 파악하고, 각 프레임에서 경계선으로 추출된 차량의 상대적인 위치가 앞쪽으로 이동하면 블랙박스를 탑재한 자체차량에 비해 속도가 높은 것으로 파악하고 단계를 더 포함하여 구성되는 교통사고 정보를 제공하기 위한 서비스 방법.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 제 1항에 있어서, 상기 3단계는,
    교통사고 정보에 따른 교통사고 일자와 시간, 교통사고 종류, 차량 종류, 사고도로의 위치정보를 포함하는 교통사고 정보를 분류하는 것을 특징으로 하는 교통사고 정보를 제공하기 위한 서비스 방법.
  6. 제 1항에 있어서, 상기 제 5단계 후에는,
    상기 과실정보 분석서버를 통해 과실여부 분석 결과값을 사고 당사자의 사용자 단말기로 각각 전송하여 과실여부 분석 결과를 출력한 후 양자간 분석 결과값을 확인하고 과실 분석 결과값의 동의 절차를 거쳐 법적 효력을 발생시키는 제 6단계를 더 포함하여 구성되는 교통사고 정보를 제공하기 위한 서비스 방법.
  7. 제 6항에 있어서, 상기 제 6단계 후에는,
    사고 당사자들간의 과실 분석 결과값 동의가 완료되면 교통사고에 따른 후속 조치를 위한 유관기관으로 해당 교통사고 영상과 과실 결과값을 전송하는 제 7단계를 더 포함하여 구성되는 교통사고 정보를 제공하기 위한 서비스 방법.
  8. 제 1항에 있어서, 상기 제 2단계는,
    분석된 시뮬레이션 영상정보를 통해 사고 차량이 접촉 사고인 경우 접촉 위치와 접촉 방향, 정차 여부, 접촉방향 정보를 분석하여 과실 정보를 판단하여 사고 차량의 과실 여부를 분석하는 단계를 더 포함하여 구성되는 교통사고 정보를 제공하기 위한 서비스 방법.
KR1020200011393A 2020-01-30 2020-01-30 교통사고 정보를 제공하기 위한 서비스 방법 KR102400842B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200011393A KR102400842B1 (ko) 2020-01-30 2020-01-30 교통사고 정보를 제공하기 위한 서비스 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200011393A KR102400842B1 (ko) 2020-01-30 2020-01-30 교통사고 정보를 제공하기 위한 서비스 방법

Publications (2)

Publication Number Publication Date
KR20210097555A KR20210097555A (ko) 2021-08-09
KR102400842B1 true KR102400842B1 (ko) 2022-05-23

Family

ID=77313326

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200011393A KR102400842B1 (ko) 2020-01-30 2020-01-30 교통사고 정보를 제공하기 위한 서비스 방법

Country Status (1)

Country Link
KR (1) KR102400842B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102342298B1 (ko) * 2021-04-26 2021-12-21 국민대학교산학협력단 3d 시뮬레이터 기반의 과실비율 산정 장치 및 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101921168B1 (ko) 2017-07-19 2018-11-22 황신환 교통 위반 관리 시스템

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090040622A (ko) * 2007-10-22 2009-04-27 한국전자통신연구원 차량 사고 정보 제공 방법 및 장치
KR101048650B1 (ko) 2009-04-21 2011-07-12 (주)에스디시스템 교통사고정보 표시기능을 갖는 교통정보 시스템
KR101665553B1 (ko) * 2015-03-20 2016-10-24 현대자동차주식회사 사고 정보 분석 장치, 이를 포함하는 서버 및 사고 정보 분석 방법
KR101682048B1 (ko) 2015-04-29 2016-12-02 금오공과대학교 산학협력단 실시간 교통사고 정보 제공시스템
KR101998834B1 (ko) 2018-12-13 2019-10-01 주식회사 미래정보기술원 사고 위험도 예측이 가능한 교통 정보 제공 시스템
KR20190126024A (ko) * 2019-08-23 2019-11-08 엘지전자 주식회사 교통 사고 처리 장치 및 교통 사고 처리 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101921168B1 (ko) 2017-07-19 2018-11-22 황신환 교통 위반 관리 시스템

Also Published As

Publication number Publication date
KR20210097555A (ko) 2021-08-09

Similar Documents

Publication Publication Date Title
Hadjidemetriou et al. Automated pavement patch detection and quantification using support vector machines
JP7371157B2 (ja) 車両監視方法、装置、電子機器、記憶媒体、コンピュータプログラム、クラウド制御プラットフォームおよび車路連携システム
CN101930668B (zh) 车牌识别的道路交通od信息采集系统的处理方法
Hadjidemetriou et al. Vision-and entropy-based detection of distressed areas for integrated pavement condition assessment
US20210192215A1 (en) Platform for the management and validation of contents of video images, picture or similar, generated by different devices
Růžička et al. Big data application for urban transport solutions
KR102562757B1 (ko) 노면표시 정보의 예측 및 인식방법 및 도로 유지관리 방법
KR102400842B1 (ko) 교통사고 정보를 제공하기 위한 서비스 방법
CN113724499A (zh) 一种道路交通事件三维可视化分析方法及系统
CN116935659B (zh) 一种高速服务区卡口车辆稽核系统及其方法
Bhattarai et al. Crash frequency prediction based on extreme value theory using roadside lidar-based vehicle trajectory data
US11427232B2 (en) Systems and methods for auditing assets
CN116524210A (zh) 自动驾驶数据筛选方法、系统、电子设备和存储介质
Bäumler et al. Generating representative test scenarios: The fuse for representativity (Fuse4Rep) process model for collecting and analysing traffic observation data
JP3235322U (ja) 交通方向転換量調査レポート自動生成システム
KR102493800B1 (ko) 주행환경 정적객체인지 ai 데이터 처리 방법 및 이를 위한 장치
CN112633163B (zh) 一种基于机器学习算法实现非法运营车辆检测的检测方法
Ismail et al. Automated pedestrian safety analysis using video data in the context of scramble phase intersections
Lukasik et al. Enhancing active transportation and demand management (ATDM) with advanced and emerging technologies and data sources
Aldakkhelallah et al. Development of new technologies for real-time traffic monitoring
Lv et al. The University of Central Florida’s Smart and Safe Transportation Lab [Its Research Lab]
Rindt Situational Awareness for Transportation Management: Automated Video Incident Detection and Other Machine Learning Technologies for the Traffic Management Center
US20230377456A1 (en) Mobile real time 360-degree traffic data and video recording and tracking system and method based on artifical intelligence (ai)
Harvey et al. A tablet-based surrogate system architecture for" in-situ" evaluation of cyber-physical transport technologies
CN113220880B (zh) 基于语义分析的交通事件评判方法、系统、终端及介质

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant