KR102326793B1 - System for analyzing accident images and method for using the same - Google Patents

System for analyzing accident images and method for using the same Download PDF

Info

Publication number
KR102326793B1
KR102326793B1 KR1020190141501A KR20190141501A KR102326793B1 KR 102326793 B1 KR102326793 B1 KR 102326793B1 KR 1020190141501 A KR1020190141501 A KR 1020190141501A KR 20190141501 A KR20190141501 A KR 20190141501A KR 102326793 B1 KR102326793 B1 KR 102326793B1
Authority
KR
South Korea
Prior art keywords
data
accident
error rate
analysis
image
Prior art date
Application number
KR1020190141501A
Other languages
Korean (ko)
Other versions
KR20210055257A (en
Inventor
박기범
Original Assignee
(주) 더 네이버스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 더 네이버스 filed Critical (주) 더 네이버스
Priority to KR1020190141501A priority Critical patent/KR102326793B1/en
Publication of KR20210055257A publication Critical patent/KR20210055257A/en
Application granted granted Critical
Publication of KR102326793B1 publication Critical patent/KR102326793B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • G06Q50/30
    • G06K9/00711
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Operations Research (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Image Analysis (AREA)

Abstract

사고 영상 분석 시스템 및 이를 이용한 분석 방법을 개시한다. 본 발명은 사고 영상을 분석하여 유사한 사고 영상들과의 비교를 통해 객관적인 과실률을 판정할 수 있다.Disclosed are an accident image analysis system and an analysis method using the same. The present invention can determine the objective error rate by analyzing the accident image and comparing it with similar accident images.

Description

사고 영상 분석 시스템 및 이를 이용한 분석 방법{SYSTEM FOR ANALYZING ACCIDENT IMAGES AND METHOD FOR USING THE SAME}Accident image analysis system and analysis method using the same

본 발명은 사고 영상 분석 시스템 및 이를 이용한 분석 방법에 관한 발명으로서, 더욱 상세하게는 사고 영상을 분석하여 유사한 사고 영상들과의 비교를 통해 과실률을 판정하는 사고 영상 분석 시스템 및 이를 이용한 분석 방법에 관한 것이다.The present invention relates to an accident image analysis system and an analysis method using the same, and more particularly, to an accident image analysis system that analyzes an accident image and determines the error rate through comparison with similar accident images, and an analysis method using the same it's about

자동차수의 증가에 따라 교통사고의 발생률이 현저히 증가되고 있다. 따라서 사고와 관련된 객관적인 사실 규명을 통해 사고의 책임소재를 판단하는 것은 매우 중요하다. As the number of vehicles increases, the incidence of traffic accidents is significantly increasing. Therefore, it is very important to determine the responsibility of the accident through objective investigation of the facts related to the accident.

지금까지 교통사고가 발생하면 당사자간에 합의에 의하거나 경찰이 출동하여 사고 상황을 점검 및 기록하고, 사고 당시의 상황을 판단하여 과실 책임여부를 가리는 것이 일반적이다. Until now, when a traffic accident occurs, it is common to decide between the parties or the police to check and record the accident situation, determine the situation at the time of the accident, and decide whether the person is responsible for negligence.

그러나, 교통 사고 상황에 대한 정확한 분석이 이루어지지 않고 사고 당사자나 경찰관 등의 주관적인 판단에 의존하는 문제점이 있다.However, there is a problem in that an accurate analysis of the traffic accident situation is not made and it is dependent on the subjective judgment of an accident party or a police officer.

또한, 서로의 과실이 많다는 주장을 하면서 분쟁이 발생하고 당사자간의 원만한 합의가 이루어지지 않는 경우가 많으며, 가해자와 피해자 각각이 가입된 보험회사가 분쟁에 개입하여 각 회사의 실무에 따라 책임 소재 및 과실 비율이 정해지는 것이 관례이다.In addition, disputes often arise while claiming that there is a lot of negligence on the part of the parties, and an amicable agreement between the parties is not reached. It is customary to set the ratio.

때로는 전문가의 감정을 받기도 하지만 이 경우에도 감정인의 판단에 좌우되기 때문에 객관적인 사실을 도출하는데 한계가 있으며, 당사자는 결과에 만족하지 않더라도 법원을 통한 소송이나 이의 신청 등의 복잡한 절차를 피하기 위해 합의하는 경우도 많다.Sometimes, an expert's appraisal is received, but even in this case, there is a limit to deriving objective facts because it depends on the judgment of the appraiser. also many

사실상 자동차 사고에 있어서 사고 당시에 상태가 어떠하였는지는 운전자뿐만 아니라 목격자도 정확하게 알 수 없는 경우가 많다. In fact, in many cases, not only the driver but also the witnesses cannot know exactly what the condition was at the time of the accident.

최근에는 차량에 설치된 블랙박스 시스템을 이용하여 사고 발생 당시 촬영된 영상에 기초한 과실률 판정이 증가하고 있다.Recently, an error rate determination based on an image captured at the time of an accident using a black box system installed in a vehicle is increasing.

그러나, 블랙박스 시스템에서 촬영된 영상을 이용한 과실률 판정도 전문가에 의한 감정 또는 보험사 직원에 의한 감정을 통해 이루어질 정확한 교통사고의 과실률 판정이 어려운 문제점이 있다.However, there is a problem in that it is difficult to accurately determine the negligence rate of a traffic accident, which is to be determined by an expert or an insurance company employee.

한국 공개특허공보 공개번호 제10-2000-0054347호(발명의 명칭: 교통사고 과실 비율 산정을 위한 시스템 및 방법)Korean Patent Laid-Open Publication No. 10-2000-0054347 (Title of the Invention: System and method for calculating traffic accident negligence rate)

이러한 문제점을 해결하기 위하여, 본 발명은 사고 영상을 분석하여 유사한 사고 영상들과의 비교를 통해 과실률을 판정하는 사고 영상 분석 시스템 및 이를 이용한 분석 방법을 제공하는 것을 목적으로 한다.In order to solve this problem, an object of the present invention is to provide an accident image analysis system and an analysis method using the same for analyzing an accident image and determining the error rate through comparison with similar accident images.

상기한 목적을 달성하기 위하여 본 발명의 일 실시 예는 사고 영상 분석 시스템으로서, 임의의 사고 영상으로부터 사고 관련 특징이 포함된 요소 데이터를 추출하고, 상기 추출된 요소 데이터 간의 상호 관련성 및 중요도를 분석하며, 분석된 결과 데이터를 과실률이 판정된 과거의 유사 사고 데이터와의 유사성 비교를 통해 사고에 대한 과실률을 산출하여 표시하는 것을 특징으로 한다.In order to achieve the above object, an embodiment of the present invention is an accident image analysis system, extracting element data including accident-related features from any accident image, and analyzing the correlation and importance between the extracted element data, , it is characterized in that the error rate for the accident is calculated and displayed by comparing the analyzed result data with the similar accident data of the past for which the error rate was determined.

또한, 상기 실시 예에 따른 요소 데이터는 진행 방향 데이터, 속도 데이터, 이동 경로 데이터, 특정 물체와 상기 물체의 크기 데이터, 보행자 데이터, 및 신호기 점등 데이터 중 적어도 하나를 포함하는 것을 특징으로 한다.In addition, the element data according to the embodiment is characterized in that it includes at least one of travel direction data, speed data, movement path data, specific object and size data of the object, pedestrian data, and signal lighting data.

또한, 상기 실시 예에 따른 사고 영상 분석 시스템은 사고 영상을 촬영하는 영상 촬영부; 상기 촬영된 사고 영상을 입력받아 분석 서버로 전송하는 사용자 단말; 및 상기 수신된 사고 영상으로부터 사고 관련 특징이 포함된 요소 데이터를 추출하고, 상기 추출된 요소 데이터 간의 상호 관련성 및 중요도를 분석하여 분석된 결과 데이터를 과실률이 판정된 과거 사고 데이터와의 유사성 비교를 통해 사고에 대한 과실률을 산출하여 표시하는 분석 서버;를 포함하는 것을 특징으로 한다.In addition, the accident image analysis system according to the embodiment includes an image capturing unit for photographing an accident image; a user terminal for receiving the captured accident image and transmitting it to an analysis server; and extracting element data including accident-related features from the received accident image, analyzing the correlation and importance between the extracted element data, and comparing the analyzed result data with past accident data in which the error rate was determined. and an analysis server that calculates and displays the error rate for an accident through;

또한, 상기 실시 예에 따른 분석서버는 사용자 단말로부터 전송되는 사고 영상을 입력받는 사고 정보 입력부; 상기 입력된 사고 영상을 분석하여 사고 관련 특징이 포함된 요소 데이터를 추출하는 요소 데이터 추출부; 상기 사고 영상으로부터 사고와 관련성이 없는 데이터는 삭제하고, 추출된 요소 데이터를 일정 포맷으로 변환하며, 상기 추출된 요소 데이터 간의 상호 관련성 및 중요도를 분석하는 데이터 보정부; 상기 분석된 결과 데이터에 기반하여 과실률이 판정된 적어도 하나 이상의 과거 사고 데이터와의 유사성 비교 모델을 생성하여 유사성 비교에 따른 사고에 대한 과실률을 산출하는 분석 모델 생성부; 및 상기 산출된 과실률을 시각화 정보 및 텍스트 정보 중 적어도 하나를 이용하여 표시되도록 하는 시각화부;를 포함하는 것을 특징으로 한다.In addition, the analysis server according to the embodiment includes an accident information input unit for receiving an accident image transmitted from the user terminal; an element data extraction unit for analyzing the input accident image and extracting element data including accident-related features; a data correction unit that deletes data irrelevant to the accident from the accident image, converts the extracted element data into a predetermined format, and analyzes the correlation and importance between the extracted element data; an analysis model generation unit generating a similarity comparison model with at least one or more past accident data for which an error rate is determined based on the analyzed result data, and calculating an error rate for an accident according to the similarity comparison; and a visualization unit configured to display the calculated error rate using at least one of visualization information and text information.

또한, 상기 실시 예에 따른 요소데이터 추출부는 머신 러닝을 이용한 분석을 통해 진행 방향 데이터, 속도 데이터, 이동 경로 데이터, 특정 물체와 상기 물체의 크기 데이터, 보행자 데이터, 및 신호기 점등 데이터 중 적어도 하나의 요소 데이터를 추출하는 것을 특징으로 한다.In addition, the element data extracting unit according to the embodiment is at least one element of progress direction data, speed data, movement path data, specific object and size data of the object, pedestrian data, and signal lighting data through analysis using machine learning It is characterized in that the data is extracted.

또한, 상기 실시 예에 따른 데이터 보정부는 결측치, 이상치, 노이즈 데이터는 삭제 또는 교정하고, 유사 데이터 간의 통합과, 요소 데이터의 상호 관련성에 따른 중요도를 분류하여 저장하는 것을 특징으로 한다.In addition, the data correction unit according to the embodiment is characterized in that missing values, outliers, and noise data are deleted or corrected, and the degree of importance according to the integration between similar data and the correlation of element data is classified and stored.

또한, 상기 실시 예에 따른 시각화부는 생성된 시각화 정보 및 텍스트 정보 중 적어도 하나를 사용자 단말로 전송하여 디스플레이되도록 하는 것을 특징으로 한다.In addition, the visualization unit according to the embodiment is characterized in that it is displayed by transmitting at least one of the generated visualization information and text information to the user terminal.

또한, 본 발명의 일 실시 예에 따른 사고 영상 분석 방법은 a) 분석 서버가 촬영된 사고 영상을 입력받는 단계; b) 상기 분석 서버가 수신된 사고 영상으로부터 사고 관련 특징이 포함된 요소 데이터를 추출하는 단계; c) 상기 분석 서버가 추출된 요소 데이터 간의 상호 관련성 및 중요도를 분석하는 단계; 및 d) 상기 분석 서버가 분석된 결과 데이터에 기반한 분석 모델을 생성하여 과실률이 판정된 적어도 하나 이상의 과거 사고 데이터와의 유사성 비교를 수행하고, 비교 결과에 따른 사고의 과실률을 산출하는 단계;를 포함하는 것을 특징으로 한다.In addition, the accident image analysis method according to an embodiment of the present invention comprises the steps of: a) receiving an accident image captured by the analysis server; b) extracting, by the analysis server, element data including accident-related features from the received accident image; c) analyzing, by the analysis server, correlation and importance between the extracted element data; and d) generating, by the analysis server, an analysis model based on the analyzed result data, performing a similarity comparison with at least one or more past accident data in which the error rate was determined, and calculating the error rate of the accident according to the comparison result; It is characterized in that it includes.

또한, 상기 실시 예에 따른 사고 영상 분석 방법은 e) 상기 분석 서버가 산출된 과실률을 시각화 정보 및 텍스트 정보 중 적어도 하나를 이용하여 표시하고, 상기 시각화 정보 및 텍스트 정보를 사용자 단말로 전송하는 단계를 더 포함하는 것을 특징으로 한다.In addition, the accident image analysis method according to the embodiment includes the steps of e) displaying the error rate calculated by the analysis server using at least one of visualization information and text information, and transmitting the visualization information and text information to a user terminal It is characterized in that it further comprises.

또한, 상기 실시 예에 따른 b) 단계는 분석 서버가 상기 사고 영상으로부터 사고와 관련성이 없는 데이터는 삭제하고, 추출된 요소 데이터를 일정 포맷으로 변환하며, 유사 데이터 간의 통합과, 결측치, 이상치, 노이즈 데이터는 삭제 또는 교정하는 단계;를 더 포함하는 것을 특징으로 한다.In addition, in step b) according to the embodiment, the analysis server deletes data not related to the accident from the accident image, converts the extracted element data into a predetermined format, and integrates similar data, missing values, outliers, and noise The data is characterized in that it further comprises; deleting or correcting the data.

본 발명은 사고 영상을 분석하여 유사한 사고 영상들과의 비교를 통해 객관적인 과실률을 판정할 수 있는 장점이 있다.The present invention has the advantage of being able to determine an objective error rate by analyzing accident images and comparing them with similar accident images.

도 1은 본 발명의 일 실시 예에 따른 사고 영상 분석 시스템의 구성을 나타낸 블록도.
도 2는 도 1의 실시 예에 따른 사고 영상 분석 시스템의 분석서버 구성을 나타낸 블록도.
도 3은 본 발명의 일 실시 예에 따른 사고 영상 분석 시스템을 이용한 분석과정을 나타낸 흐름도.
1 is a block diagram showing the configuration of an accident image analysis system according to an embodiment of the present invention.
Figure 2 is a block diagram showing the configuration of the analysis server of the accident image analysis system according to the embodiment of Figure 1;
3 is a flowchart illustrating an analysis process using an accident image analysis system according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 일 실시 예에 따른 사고 영상 분석 시스템 및 이를 이용한 분석 방법의 바람직한 실시예를 상세하게 설명한다.Hereinafter, a preferred embodiment of an accident image analysis system and an analysis method using the same according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

본 발명의 실시를 위한 구체적인 내용을 설명하기에 앞서, 본 발명의 기술적 요지와 직접적 관련이 없는 구성에 대해서는 본 발명의 기술적 요지를 흩뜨리지 않는 범위 내에서 생략하였음에 유의하여야 할 것이다. Prior to describing the specific contents for carrying out the present invention, it should be noted that components not directly related to the technical gist of the present invention are omitted within the scope of not disturbing the technical gist of the present invention.

또한, 본 명세서 및 청구범위에 사용된 용어 또는 단어는 발명자가 자신의 발명을 최선의 방법으로 설명하기 위해 적절한 용어의 개념을 정의할 수 있다는 원칙에 입각하여 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 할 것이다.In addition, the terms or words used in the present specification and claims have meanings and concepts consistent with the technical idea of the invention based on the principle that the inventor can define the concept of an appropriate term to best describe his invention. should be interpreted as

본 명세서에서 어떤 부분이 어떤 구성요소를 "포함"한다는 표현은 다른 구성요소를 배제하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.In the present specification, the expression that a part "includes" a certain element does not exclude other elements, but means that other elements may be further included.

또한, "‥부", "‥기", "‥모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어, 또는 그 둘의 결합으로 구분될 수 있다.Also, terms such as “… unit”, “… group”, and “… module” mean a unit that processes at least one function or operation, which may be divided into hardware, software, or a combination of the two.

또한, 적어도 하나의 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다. Also, it is evident that the term at least one is defined as a term including a singular and a plural, and even if at least one term does not exist, each component may exist in the singular or plural, and may mean the singular or plural. will do

또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시 예에 따라 변경가능하다 할 것이다.In addition, that each component is provided in singular or plural may be changed according to an embodiment.

도 1은 본 발명의 일 실시 예에 따른 사고 영상 분석 시스템의 구성을 나타낸 블록도이고, 도 2는 도 1의 실시 예에 따른 사고 영상 분석 시스템의 분석서버 구성을 나타낸 블록도이다.1 is a block diagram illustrating the configuration of an accident image analysis system according to an embodiment of the present invention, and FIG. 2 is a block diagram illustrating an analysis server configuration of the accident image analysis system according to the embodiment of FIG. 1 .

도 1 및 도 2에 나타낸 바와 같이, 본 발명의 일 실시 예에 따른 사고 영상 분석 시스템은 임의의 사고 영상으로부터 사고 관련 특징이 포함된 요소 데이터를 추출하고, 상기 추출된 요소 데이터 간의 상호 관련성 및 중요도를 분석하며, 분석된 결과 데이터를 과실률이 판정된 과거의 유사 사고 데이터와의 유사성 비교를 통해 사고에 대한 과실률을 산출하여 표시할 수 있고, 영상 촬영부(100)와, 사용자 단말(200)과, 분석 서버(300)를 포함하여 구성된다.1 and 2, the accident image analysis system according to an embodiment of the present invention extracts element data including accident-related features from any accident image, and the correlation and importance between the extracted element data , and the error rate for an accident can be calculated and displayed by comparing the analyzed result data with similar accident data of the past for which the error rate was determined, and the image capturing unit 100 and the user terminal 200 ), and the analysis server 300 is configured.

상기 영상 촬영부(100)는 차량에 설치되어 차량 주변을 촬영하는 구성으로서, 바람직하게는 블랙박스 시스템으로 구성될 수 있다.The image capturing unit 100 is installed in a vehicle to photograph the surroundings of the vehicle, and may preferably be configured as a black box system.

본 실시 예에서는 설명의 편의를 위해 블랙박스 시스템으로 설명하지만, 이에 한정되는 것은 아니고 차량 주변을 촬영하여 저장할 수 있는 카메라, CCD 센서 또는 CMOS 센서를 이용한 영상 촬영 수단, 또는 광학신호를 전기신호로 변환하여 출력하는 광전 변환수단 등으로 변경 실시할 수 있음은 당업자에게 있어서 자명할 것이다.In this embodiment, the black box system is described for convenience of explanation, but the present invention is not limited thereto, and a camera capable of photographing and storing the surroundings of the vehicle, an image capturing means using a CCD sensor or a CMOS sensor, or converting an optical signal into an electrical signal It will be apparent to those skilled in the art that it can be changed and implemented by a photoelectric conversion means that outputs the same.

상기 사용자 단말(200)은 프로그램 또는 애플리케이션을 이용하여 영상 촬영부(100) 및 분석 서버(300)와 유선 네트워크 또는 무선 네트워크를 통해 연결할 수 있는 단말이다.The user terminal 200 is a terminal that can be connected to the image capturing unit 100 and the analysis server 300 through a wired network or a wireless network using a program or application.

여기서, 네트워크는 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 RF, 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5GPP(5th Generation Partnership Project) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, NFC 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.Here, the network refers to a connection structure in which information exchange is possible between each node, such as a plurality of terminals and servers, and examples of such networks include RF, 3rd Generation Partnership Project (3GPP) network, Long Term Evolution (LTE). ) network, 5th Generation Partnership Project (5GPP) network, WIMAX (World Interoperability for Microwave Access) network, Internet, LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network), Bluetooth (Bluetooth) network, NFC network, satellite broadcasting network, analog broadcasting network, DMB (Digital Multimedia Broadcasting) network, etc. include, but are not limited thereto.

또한, 상기 사용자 단말(200)은 영상 촬영부(100)에서 촬영된 사고 영상을 수신하여 영상을 분석 서버(300)로 전송할 수 있다.Also, the user terminal 200 may receive the accident image captured by the image capturing unit 100 and transmit the image to the analysis server 300 .

또한, 상기 사용자 단말(200)은 분석 서버(300)에서 전송되는 시각화 정보를 수신하여 디스플레이할 수 있다.In addition, the user terminal 200 may receive and display the visualization information transmitted from the analysis server 300 .

또한, 상기 사용자 단말(200)은 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 스마트 패드(smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.In addition, the user terminal 200 is a wireless communication device, PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant) , IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet) terminal, smart phone, smart pad ), and may include all kinds of handheld-based wireless communication devices such as tablet PCs.

상기 분석 서버(300)는 사고 영상 접수 및 분석과 관련한 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 제공하는 서버일 수 있다.The analysis server 300 may be a server that provides a web page, an app page, a program or an application related to accident image reception and analysis.

또한, 상기 분석 서버(300)는 사용자 단말(200)로부터 전송된 사고 영상으로부터 사고 관련 특징이 포함된 요소 데이터를 추출하고, 상기 추출된 요소 데이터 간의 상호 관련성 및 중요도를 분석하여 분석된 결과 데이터를 과실률이 판정된 과거 사고 데이터와의 유사성 비교를 통해 사고에 대한 과실률을 산출하여 표시하는 구성으로서, 사고 정보 입력부(310)와, 요소 데이터 추출부(320)와, 데이터 보정부(330)와, 분석 모델 생성부(340)와, 시각화부(350)를 포함하여 구성될 수 있다.In addition, the analysis server 300 extracts element data including accident-related characteristics from the accident image transmitted from the user terminal 200, and analyzes the correlation and importance between the extracted element data to analyze the result data. A configuration for calculating and displaying the error rate for an accident through similarity comparison with the past accident data in which the error rate is determined, the accident information input unit 310, the element data extraction unit 320, and the data correction unit 330 And, it may be configured to include an analysis model generating unit 340 and a visualization unit 350 .

상기 사고 정보 입력부(310)는 네트워크를 통해 접속한 사용자 단말(200)로부터 전송되는 사고 영상을 입력받고, 상기 전송된 사고 영상은 메모리 또는 임의의 데이터 저장수단에 임시 저장되도록 한다.The accident information input unit 310 receives the accident image transmitted from the user terminal 200 connected through the network, and the transmitted accident image is temporarily stored in a memory or any data storage means.

상기 요소 데이터 추출부(320)는 이미지 프로세싱 프로그램 또는 애플리케이션이 설치될 수 있고, 상기 이미지 프로세싱 프로그램을 통해 사용자 단말(200)로부터 전송된 사고 영상을 분석하여 사고와 관련된 특징이 포함된 요소 데이터를 추출한다.The element data extraction unit 320 may be installed with an image processing program or application, and analyzes the accident image transmitted from the user terminal 200 through the image processing program to extract element data including characteristics related to the accident do.

상기 요소 데이터는 사고와 관련된 핵심 요소로서, 진행 방향 데이터, 속도 데이터, 이동 경로 데이터, 이미지에 포함된 특정 물체(예를 들면, 차량, 장애물 등)와 상기 물체의 크기 데이터, 보행자의 유/무, 보행자의 위치 등을 포함한 보행자 데이터, 및 표지판, 신호등과 같은 신호기와 신호등의 점등 데이터 등이 될 수 있다.The element data is a key element related to an accident, and includes travel direction data, speed data, movement path data, a specific object (eg, vehicle, obstacle, etc.) included in an image and size data of the object, presence/absence of a pedestrian , pedestrian data including the location of pedestrians, and lighting data of signals and traffic lights such as signs and traffic lights.

또한, 상기 요소 데이터는 사고 영상의 개별 프레임별 이미지로 분류하고, 상기 분류된 개별 이미지를 기반으로 추출할 수 있다.In addition, the element data may be classified into images for each frame of the accident image, and extracted based on the classified individual images.

또한, 상기 요소데이터 추출부(320)는 신속한 추출을 위해 기계학습 프로그램이 설치될 수도 있다.In addition, the element data extraction unit 320 may be installed with a machine learning program for rapid extraction.

상기 요소 데이터 추출부(320)는 기계학습 프로그램을 이용한 머신 러닝을 통해 상기 분류된 개별 이미지를 기반으로 사고와 관련된 진행 방향 데이터, 속도 데이터, 이동 경로 데이터, 이미지에 포함된 특정 물체와, 상기 물체의 크기 데이터, 보행자의 유/무, 보행자의 위치 등을 포함한 보행자 데이터, 및 표지판, 신호등과 같은 신호기와 신호등의 점등 데이터 등을 추출할 수도 있다.The element data extraction unit 320 is a specific object included in the accident-related travel direction data, speed data, movement path data, and the image, based on the individual images classified through machine learning using a machine learning program, and the object. It is also possible to extract the size data of , pedestrian data including the presence/absence of a pedestrian, the location of the pedestrian, and the lighting data of signals and traffic lights such as signs and traffic lights.

상기 데이터 보정부(330)는 상기 사고 영상으로부터 사고와 관련성이 없는 데이터는 삭제할 수 있다.The data correction unit 330 may delete data not related to the accident from the accident image.

즉, 수신된 영상 중에서 사고와 관련없는 영상 데이터는 삭제하여 불필요한 데이터가 저장되는 것을 방지하고, 다른 사고 데이터와 비교시 불필요한 연산량 증가를 방지할 수 있도록 한다.That is, it is possible to prevent unnecessary data from being stored by deleting image data not related to an accident from among the received images, and to prevent an unnecessary increase in the amount of computation when compared with other accident data.

또한, 상기 데이터 보정부(330)는 추출된 요소 데이터를 일정 포맷으로 변환하거나 또는 기존 데이터 또는 유사 데이터와의 통합을 통해 데이터 분석 및 관리가 쉽게 이루어질 수 있도록 한다.In addition, the data correction unit 330 converts the extracted element data into a predetermined format or integrates with existing data or similar data to facilitate data analysis and management.

또한, 상기 데이터 보정부(330)는 패턴 인식 프로그램 또는 인공지능 프로그램이 설치될 수도 있다.In addition, the data correction unit 330 may be installed with a pattern recognition program or artificial intelligence program.

상기 데이터 보정부(330)는 설치된 프로그램을 통해 추출된 요소 데이터 간의 상호 관련성과 중요도를 분석할 수도 있다.The data correction unit 330 may analyze the correlation and importance between the element data extracted through the installed program.

예를 들어, 제한속도를 준수하며 주행중인 차량에 불가항력적인 이유로 인한 사고가 발생한 경우, 추출된 요소 데이터 중에서 '제동거리'와 '속도' 사이의 관련성을 부여하고, 과실률 판단을 위한 '제동거리'와 '속도'의 중요도 수치를 높게 설정할 수 있다.For example, if an accident occurs due to force majeure in a vehicle that is driving while observing the speed limit, a correlation between 'braking distance' and 'speed' is given among the extracted element data, and the 'braking distance' for judging the error rate You can set the importance values of ' and 'speed' to be high.

또한, 교차로에 진입하던 차량에 사고가 발생한 경우, 추출된 요소 데이터 중에서 '차량의 진행 방향', '이동 경로', '속도', 신호기의 점등 상태' 사이에 관련성을 부여하고, 과실률 판단을 위한 '차량의 진행 방향', '이동 경로', '속도', 신호기의 점등 상태'의 중요도 수치를 높게 설정할 수 있다.In addition, when an accident occurs in the vehicle entering the intersection, correlation is given between 'vehicle traveling direction', 'moving path', 'speed', and lighting state of the signal, among the extracted element data, and the error rate is determined. For 'vehicle traveling direction', 'moving path', 'speed', and 'lighting status of signal', the importance value can be set high.

또한, 상기 데이터 보정부(330)는 분석된 추출된 요소 데이터 간의 상호 관련성과 중요도는 저장되도록 한다.In addition, the data correction unit 330 stores the correlation and importance between the analyzed and extracted element data.

또한, 상기 데이터 보정부(330)는 수신된 사고 영상에 노이즈 데이터와, 결측치는 임의의 값으로 변환(예를 들면, 특정 데이터의 평균 값)하여 교정하고, 이상치는 삭제할 수 있다.In addition, the data correction unit 330 may correct the noise data and the missing values in the received accident image by converting them into arbitrary values (eg, an average value of specific data), and delete the outliers.

상기 분석 모델 생성부(340)는 추출된 결과 데이터에 기반하여 사고 모델을 생성하고, 상기 사고 모델과 비교할 과실률이 판정된 적어도 하나 이상의 과거 사고 데이터를 검색하여 검색된 과거 데이터와 사고 모델과의 유사성 비교를 수행할 수 있다.The analysis model generation unit 340 generates an accident model based on the extracted result data, searches for at least one or more past accident data for which an error rate to be compared with the accident model is determined, and similarity between the retrieved past data and the accident model comparisons can be made.

또한, 상기 분석 모델 생성부(340)는 사고 모델과 과거 사고 데이터의 유사성 비교를 통해 사고에 대한 과실률을 산출할 수 있다.Also, the analysis model generating unit 340 may calculate an error rate for an accident by comparing the similarity between the accident model and past accident data.

상기 시각화부(350)는 분석 모델 생성부(340)에서 산출된 과실률을 미리 설정 그래프 등의 포맷을 통해 시각화 정보로 변환하고, 상기 과실률과 관련된 판정 정보를 텍스트 정보를 이용하여 표시되도록 한다.The visualization unit 350 converts the error rate calculated by the analysis model generation unit 340 into visualization information through a format such as a preset graph, and displays the determination information related to the error rate using text information. .

또한, 상기 시각화부(350)는 생성된 시각화 정보 및 텍스트 정보를 사용자 단말(200)로 전송하여 디스플레이되도록 한다.In addition, the visualization unit 350 transmits the generated visualization information and text information to the user terminal 200 to be displayed.

다음은 본 발명의 일 실시 예에 따른 사고 영상 분석 과정을 설명한다.The following describes an accident image analysis process according to an embodiment of the present invention.

분석 서버(300)가 영상 촬영부(100)에서 촬영한 사고 영상을 사용자 단말(200)을 통해 입력받는다(S100).The analysis server 300 receives the accident image captured by the image capturing unit 100 through the user terminal 200 (S100).

상기 분석 서버(300)는 S100 단계서 수신된 사고 영상으로부터 기계학습 프로그램을 이용한 머신 러닝을 통해 상기 분류된 개별 이미지를 기반으로 사고와 관련된 진행 방향 데이터, 속도 데이터, 이동 경로 데이터, 이미지에 포함된 특정 물체와, 상기 물체의 크기 데이터, 보행자의 유/무, 보행자의 위치 등을 포함한 보행자 데이터, 및 표지판, 신호등과 같은 신호기와 신호등의 점등 데이터 등을 추출(S110)한다.The analysis server 300 is based on the classified individual image through machine learning using a machine learning program from the accident image received in step S100. Pedestrian data including a specific object, size data of the object, presence/absence of a pedestrian, location of a pedestrian, and the like, and signal and lighting data of traffic lights such as signs and traffic lights are extracted (S110).

또한, 상기 분석 서버(300)는 사고 영상으로부터 사고와 관련이 없는 데이터는 삭제하여 불필요한 데이터가 저장되는 것을 방지하고, 다른 사고 데이터와 비교시 불필요한 연산량 증가를 방지할 수 있도록 하며, 추출된 요소 데이터를 일정 포맷으로 변환하거나 또는 기존 데이터 또는 유사 데이터와의 통합을 통해 데이터 분석 및 관리가 쉽게 이루어질 수 있도록 보정(S120)한다.In addition, the analysis server 300 prevents unnecessary data from being stored by deleting data not related to the accident from the accident image, and prevents an unnecessary increase in the amount of computation when compared with other accident data, and the extracted element data is converted into a predetermined format or corrected (S120) so that data analysis and management can be easily performed through integration with existing data or similar data.

또한, 상기 분석 서버(300)는 패턴 인식 프로그램 또는 인공지능 프로그램을 통해 추출된 요소 데이터 간의 상호 관련성과 중요도를 분석을 통해 유사성 비교시에 유용한 정보를 추출(S130)한다.In addition, the analysis server 300 extracts useful information at the time of similarity comparison by analyzing the correlation and importance between the element data extracted through the pattern recognition program or the artificial intelligence program (S130).

상기 S120 단계 및 S130 단계를 수행한 다음, 상기 분석 서버(300)는 추출된 결과 데이터에 기반하여 사고 모델을 생성하고, 상기 사고 모델과 비교할 과실률이 판정된 적어도 하나 이상의 과거 사고 데이터를 검색하여 검색된 과거 데이터와 사고 모델과의 유사성 비교를 수행하고, 사고 모델과 과거 사고 데이터의 유사성 비교를 통해 사고에 대한 과실률을 산출하여 과실률을 판정(S140)한다.After performing the steps S120 and S130, the analysis server 300 generates an accident model based on the extracted result data, and searches for at least one or more past accident data whose negligence rate to be compared with the accident model is determined. The similarity comparison between the searched past data and the accident model is performed, and the error rate is determined by calculating the error rate for the accident through the similarity comparison between the accident model and the past accident data ( S140 ).

상기 분석 서버(300)는 상기 S140 단계의 판정 결과를 미리 설정 그래프 등의 포맷을 통해 시각화 정보로 변환하고, 상기 과실률과 관련된 판정 정보를 텍스트 정보를 이용하여 표시(S150)한다.The analysis server 300 converts the determination result of step S140 into visualization information through a format such as a preset graph, and displays the determination information related to the error rate using text information (S150).

또한, 상기 S150 단계에서 생성된 시각화 정보 및 텍스트 정보는 네트워크를 통해 사용자 단말(200)로 전송하여 디스플레이되도록 한다.In addition, the visualization information and text information generated in step S150 are transmitted to the user terminal 200 through a network to be displayed.

따라서, 사고 영상을 분석하여 유사한 사고 영상들과의 비교를 통해 객관적인 과실률을 판정할 수 있게 된다.Therefore, it is possible to determine the objective error rate by analyzing the accident image and comparing it with similar accident images.

상기와 같이, 본 발명의 바람직한 실시 예를 참조하여 설명하였지만 해당 기술 분야의 숙련된 당업자라면 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.As described above, although described with reference to the preferred embodiment of the present invention, those skilled in the art can variously modify and change the present invention within the scope without departing from the spirit and scope of the present invention described in the claims below. You will understand that it can be done.

또한, 본 발명의 특허청구범위에 기재된 도면번호는 설명의 명료성과 편의를 위해 기재한 것일 뿐 이에 한정되는 것은 아니며, 실시예를 설명하는 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있으며, 상술된 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있으므로, 이러한 용어들에 대한 해석은 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In addition, the reference numbers described in the claims of the present invention are only described for clarity and convenience of explanation, and are not limited thereto, and in the process of describing the embodiment, the thickness of the lines shown in the drawings or the size of components, etc. may be exaggerated for clarity and convenience of explanation, and the above-mentioned terms are terms defined in consideration of functions in the present invention, which may vary depending on the intention or custom of the user or operator, so the interpretation of these terms should be made based on the content throughout this specification.

100 : 영상 촬영부
200 : 사용자 단말
300 : 분석서버
310 : 사고 정보 입력부
320 : 요소 데이터 추출부
330 : 데이터 보정부
340 : 분석 모델 생성부
350 : 시각화부
100: video recording unit
200: user terminal
300: analysis server
310: accident information input unit
320: element data extraction unit
330: data correction unit
340: analysis model generation unit
350: visualization unit

Claims (10)

사고 영상을 촬영하는 영상 촬영부(100);
상기 촬영된 사고 영상을 입력받아 분석서버(300)로 전송하는 사용자 단말(200); 및
상기 수신된 사고 영상으로부터 사고 관련 특징이 포함된 요소 데이터를 추출하고, 상기 추출된 요소 데이터 간의 상호 관련성 및 중요도를 분석하여 분석된 결과 데이터를 과실률이 판정된 과거 사고 데이터와의 유사성 비교를 통해 사고에 대한 과실률을 산출하여 표시하는 분석서버(300);를 포함하고,
상기 분석서버(300)는 사용자 단말(200)로부터 전송되는 사고 영상을 입력받는 사고 정보 입력부(310);
상기 입력된 사고 영상을 분석하여 사고 관련 특징이 포함된 요소 데이터와 사고 관련성이 없는 데이터를 추출하는 요소 데이터 추출부(320);
상기 사고 영상으로부터 사고와 관련성이 없는 데이터는 삭제하여 과실률 판단을 위한 과거 사고 데이터와의 비교시 연산량의 증가를 방지하고, 데이터 분석 및 관리가 용이하도록 추출된 요소 데이터를 일정 포맷으로 변환하며, 상기 추출된 요소 데이터 간의 상호 관련성 및 중요도를 분석하여 과실률 판단을 위한 중요도에 따라 중요도 수치를 설정하는 데이터 보정부(330);
상기 분석된 결과 데이터에 기반하여 과실률이 판정된 적어도 하나 이상의 과거 사고 데이터와의 유사성 비교 모델을 생성하여 유사성 비교에 따른 사고에 대한 과실률을 산출하는 분석 모델 생성부(340); 및
상기 산출된 과실률을 시각화 정보 및 텍스트 정보 중 적어도 하나를 이용하여 표시되도록 하는 시각화부(350);를 포함하는 것을 특징으로 하는 사고 영상 분석 시스템.
an image photographing unit 100 for photographing an accident image;
a user terminal 200 that receives the captured accident image and transmits it to the analysis server 300; and
By extracting element data including accident-related characteristics from the received accident image, and analyzing the correlation and importance between the extracted element data, the analyzed result data is compared with past accident data in which the error rate was determined. and an analysis server 300 that calculates and displays the error rate for an accident;
The analysis server 300 includes an accident information input unit 310 for receiving an accident image transmitted from the user terminal 200;
a factor data extraction unit 320 for analyzing the input accident image and extracting factor data including accident-related features and data not related to the accident;
Data irrelevant to the accident is deleted from the accident image to prevent an increase in the amount of computation when compared with past accident data for error rate determination, and to convert the extracted element data into a certain format for easy data analysis and management, a data correction unit 330 that analyzes the correlation and importance between the extracted element data and sets the importance value according to the importance for determining the error rate;
an analysis model generating unit 340 for generating a similarity comparison model with at least one past accident data for which an error rate is determined based on the analyzed result data and calculating an error rate for an accident according to the similarity comparison; and
Accident image analysis system comprising a; a visualization unit 350 for displaying the calculated error rate using at least one of visualization information and text information.
제 1 항에 있어서,
상기 요소 데이터는 진행 방향 데이터, 속도 데이터, 이동 경로 데이터, 특정 물체와 상기 물체의 크기 데이터, 보행자 데이터, 및 신호기 점등 데이터 중 적어도 하나를 포함하는 것을 특징으로 하는 사고 영상 분석 시스템.
The method of claim 1,
The element data is an accident image analysis system, characterized in that it includes at least one of traveling direction data, speed data, movement path data, specific object and size data of the object, pedestrian data, and signal lighting data.
삭제delete 삭제delete 제 1 항에 있어서,
상기 요소데이터 추출부(320)는 머신 러닝을 이용한 분석을 통해 진행 방향 데이터, 속도 데이터, 이동 경로 데이터, 특정 물체와 상기 물체의 크기 데이터, 보행자 데이터, 및 신호기 점등 데이터 중 적어도 하나의 요소 데이터를 추출하는 것을 특징으로 하는 사고 영상 분석 시스템.
The method of claim 1,
The element data extraction unit 320 is at least one element data of progress direction data, speed data, movement path data, specific object and size data of the object, pedestrian data, and signal lighting data through analysis using machine learning. Accident image analysis system, characterized in that extraction.
제 1 항에 있어서,
상기 데이터 보정부(330)는 결측치, 이상치, 노이즈 데이터는 삭제 또는 교정하고, 유사 데이터 간의 통합과, 요소 데이터의 상호 관련성에 따른 중요도를 분류하여 저장하는 것을 특징으로 하는 사고 영상 분석 시스템.
The method of claim 1,
The data correction unit 330 deletes or corrects missing values, outliers, and noise data, and classifies and stores the importance according to the integration between similar data and the correlation of element data.
제 1 항에 있어서,
상기 시각화부(350)는 생성된 시각화 정보 및 텍스트 정보 중 적어도 하나를 사용자 단말(200)로 전송하여 디스플레이되도록 하는 것을 특징으로 하는 사고 영상 분석 시스템.
The method of claim 1,
The visualization unit 350 transmits at least one of the generated visualization information and text information to the user terminal 200 to be displayed.
a) 분석 서버(300)가 촬영된 사고 영상을 입력받는 단계;
b) 상기 분석 서버(300)가 수신된 사고 영상으로부터 사고 관련 특징이 포함된 요소 데이터와 사고 관련성이 없는 데이터를 추출하는 단계;
c) 상기 분석 서버(300)가 사고 영상으로부터 사고와 관련성이 없는 데이터는 삭제하여 과실률 판단을 위한 과거 사고 데이터와의 비교시 연산량의 증가를 방지하고, 데이터 분석 및 관리가 용이하도록 추출된 요소 데이터를 일정 포맷으로 변환하며, 추출된 요소 데이터 간의 상호 관련성 및 중요도를 분석하여 과실률 판단을 위한 중요도에 따라 중요도 수치를 설정하는 단계; 및
d) 상기 분석 서버(300)가 분석된 결과 데이터에 기반한 분석 모델을 생성하여 과실률이 판정된 적어도 하나 이상의 과거 사고 데이터와의 유사성 비교를 수행하고, 비교 결과에 따른 사고의 과실률을 산출하는 단계;를 포함하는 것을 특징으로 하는 사고 영상 분석 방법.
a) step of the analysis server 300 receiving the photographed accident image;
b) extracting, by the analysis server 300, element data including accident-related features and data not related to the accident from the received accident image;
c) The analysis server 300 deletes the data irrelevant to the accident from the accident image to prevent an increase in the amount of computation when comparing with past accident data for determining the error rate, and to facilitate data analysis and management. converting the data into a certain format, analyzing the correlation and importance between the extracted element data, and setting the importance value according to the importance for determining the error rate; and
d) the analysis server 300 generates an analysis model based on the analyzed result data, performs a similarity comparison with at least one or more past accident data in which the error rate is determined, and calculates the error rate of the accident according to the comparison result Step; Accident image analysis method comprising a.
제 8 항에 있어서,
e) 상기 분석 서버(300)가 산출된 과실률을 시각화 정보 및 텍스트 정보 중 적어도 하나를 이용하여 표시하고, 상기 시각화 정보 및 텍스트 정보를 사용자 단말(200)로 전송하는 단계를 더 포함하는 것을 특징으로 하는 사고 영상 분석 방법.
9. The method of claim 8,
e) displaying the error rate calculated by the analysis server 300 using at least one of visualization information and text information, and transmitting the visualization information and text information to the user terminal 200; An accident video analysis method with
제 8 항 또는 제 9 항에 있어서,
상기 c) 단계는 분석 서버(300)가 상기 사고 영상으로부터 유사 데이터 간의 통합과, 결측치, 이상치, 노이즈 데이터는 삭제 또는 교정하는 단계;를 더 포함하는 것을 특징으로 하는 사고 영상 분석 방법.
10. The method according to claim 8 or 9,
In step c), the analysis server 300 integrates similar data from the accident image, and deleting or correcting missing values, outliers, and noise data; Accident image analysis method further comprising.
KR1020190141501A 2019-11-07 2019-11-07 System for analyzing accident images and method for using the same KR102326793B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190141501A KR102326793B1 (en) 2019-11-07 2019-11-07 System for analyzing accident images and method for using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190141501A KR102326793B1 (en) 2019-11-07 2019-11-07 System for analyzing accident images and method for using the same

Publications (2)

Publication Number Publication Date
KR20210055257A KR20210055257A (en) 2021-05-17
KR102326793B1 true KR102326793B1 (en) 2021-11-16

Family

ID=76158035

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190141501A KR102326793B1 (en) 2019-11-07 2019-11-07 System for analyzing accident images and method for using the same

Country Status (1)

Country Link
KR (1) KR102326793B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102408560B1 (en) * 2022-02-18 2022-06-14 김병준 Artificial intelligence blackbox system
KR102574770B1 (en) * 2023-02-13 2023-09-06 주식회사 씨피식스 server and method for processing Traffic accident image based on black box image using artificial intelligence model

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001347970A (en) * 2000-06-05 2001-12-18 Toru Takano Error rate evaluating system using digital video camera
JP2005032027A (en) * 2003-07-07 2005-02-03 Nec Fielding Ltd Traffic accident early solution system, accident detection system, and accident analysis server

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000054347A (en) 2000-06-02 2000-09-05 윤종용 System and method for estimating obligation rate of traffic accident

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001347970A (en) * 2000-06-05 2001-12-18 Toru Takano Error rate evaluating system using digital video camera
JP2005032027A (en) * 2003-07-07 2005-02-03 Nec Fielding Ltd Traffic accident early solution system, accident detection system, and accident analysis server

Also Published As

Publication number Publication date
KR20210055257A (en) 2021-05-17

Similar Documents

Publication Publication Date Title
KR102190483B1 (en) System for compressing and restoring picture based on AI
US10691949B2 (en) Action recognition in a video sequence
US11301754B2 (en) Sharing of compressed training data for neural network training
CN107967677B (en) Image processing method, image processing device, computer-readable storage medium and computer equipment
DE112018006501T5 (en) PROCESS, DEVICE AND SYSTEM FOR ADAPTIVE TRAINING OF MACHINE LEARNING MODELS USING CAPTURED EVENT CONTEXT SENSOR INCIDENTS AND ASSOCIATED LOCALIZED AND RECOVERED DIGITAL AUDIO AND / OR VIDEO IMAGING
US9607236B1 (en) Method and apparatus for providing loan verification from an image
US10776892B2 (en) Device, system and method for screening of personally identifiable information
US10176531B2 (en) Method and apparatus for receiving an insurance quote from an image
US11076088B2 (en) Artificial intelligence (AI)-based control of imaging parameters of image-capture apparatus
KR102326793B1 (en) System for analyzing accident images and method for using the same
US10192114B2 (en) Method and apparatus for obtaining a vehicle history report from an image
US20190180586A1 (en) 3D Monitoring of Sensors Physical Location in a Reduced Bandwidth Platform
CN110556022A (en) Parking lot parking space indication method and device based on artificial intelligence and electronic equipment
KR20190043396A (en) Method and system for generating and providing road weather information by using image data of roads
KR20200069911A (en) Method and apparatus for identifying object and object location equality between images
US10210417B2 (en) Method and apparatus for receiving a refinancing offer from an image
US20220171981A1 (en) Recognition of license plate numbers from bayer-domain image data
US20200082196A1 (en) License plate number recognition based on three dimensional beam search
CN113014876A (en) Video monitoring method and device, electronic equipment and readable storage medium
CN112532929A (en) Road condition information determining method and device, server and storage medium
US10572758B1 (en) Method and apparatus for receiving a financing offer from an image
CN114374744B (en) Data returning method and device, vehicle-mounted terminal and cloud server
CN116107902A (en) Recharging method and device for test data and recharging system for test data
KR102293570B1 (en) Image Analysis Apparatus for Providing Search Service by Using Location Information of Object and Driving Method Thereof
CN115424350A (en) Method for identifying violation behavior, computer device and computer readable storage medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant