KR20240084863A - Deep Learning Technology-Based Traffic Law Violation Video Analysis Method And Computer-Readable Recording Medium Recording The Program That Performs It - Google Patents

Deep Learning Technology-Based Traffic Law Violation Video Analysis Method And Computer-Readable Recording Medium Recording The Program That Performs It Download PDF

Info

Publication number
KR20240084863A
KR20240084863A KR1020220169637A KR20220169637A KR20240084863A KR 20240084863 A KR20240084863 A KR 20240084863A KR 1020220169637 A KR1020220169637 A KR 1020220169637A KR 20220169637 A KR20220169637 A KR 20220169637A KR 20240084863 A KR20240084863 A KR 20240084863A
Authority
KR
South Korea
Prior art keywords
deep learning
public interest
vehicle
violation
learning model
Prior art date
Application number
KR1020220169637A
Other languages
Korean (ko)
Inventor
문미경
최민성
Original Assignee
동서대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동서대학교 산학협력단 filed Critical 동서대학교 산학협력단
Priority to KR1020220169637A priority Critical patent/KR20240084863A/en
Publication of KR20240084863A publication Critical patent/KR20240084863A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Marketing (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Strategic Management (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Economics (AREA)
  • Educational Administration (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Development Economics (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 딥러닝 기술기반 교통법규 위반 공익신고 영상 분석 방법 및 이를 수행하는 프로그램이 기록된 컴퓨터 판독이 가능한 기록매체에 관한 것으로, 보다 구체적으로 적어도 하나의 프로세서에 의하여, 임의의 차량에 설치된 블랙박스 카메라로부터 촬영된 공익신고 영상이 획득되는 공익신고 영상 획득단계 및 상기 적어도 하나의 프로세서에 의하여, 상기 공익신고 영상이 차량 객체를 인식하는 제1 딥러닝 모델과 차선 객체를 인식하는 제2 딥러닝 모델에 입력됨으로써, 상기 차량 객체의 진로변경 위반여부가 출력되는 위반여부 출력단계를 포함하는 딥러닝 기술기반 교통법규 위반 공익신고 영상 분석 방법 및 이를 수행하는 프로그램이 기록된 컴퓨터 판독이 가능한 기록매체에 관한 것이다.The present invention relates to a deep learning technology-based method of analyzing images of traffic law violation public interest reports and a computer-readable recording medium on which a program for performing the same is recorded. More specifically, it relates to a black box installed in any vehicle by at least one processor. A public interest report image acquisition step in which a public interest report image captured from a camera is obtained, and a first deep learning model that recognizes a vehicle object and a second deep learning model that recognizes a lane object in the public interest report image by the at least one processor. About a deep learning technology-based traffic law violation public interest report video analysis method including a violation output step in which the violation of the course change of the vehicle object is output by inputting it into the computer-readable recording medium on which the program for performing the same is recorded. will be.

Description

딥러닝 기술기반 교통법규 위반 공익신고 영상 분석 방법 및 이를 수행하는 프로그램이 기록된 컴퓨터 판독이 가능한 기록매체 {Deep Learning Technology-Based Traffic Law Violation Video Analysis Method And Computer-Readable Recording Medium Recording The Program That Performs It}Deep Learning Technology-Based Traffic Law Violation Video Analysis Method And Computer-Readable Recording Medium Recording The Program That Performs It }

본 발명은 컴퓨터 비전(Computer Vision) 분야에 관한 것으로, 딥러닝 기술기반 교통법규 위반 공익신고 영상 분석 방법 및 이를 수행하는 프로그램이 기록된 컴퓨터 판독이 가능한 기록매체에 관한 것이다.The present invention relates to the field of computer vision, and relates to a method of analyzing images of traffic law violation public interest reports based on deep learning technology and a computer-readable recording medium on which a program for performing the same is recorded.

최근 공공기관 공익신고 접수, 처리 현황에 따르면 공익신고 접수 건이 대폭 증가하였다. 이러한 급격한 증가는 고화질 블랙박스를 이용하여 도로교통법 위반에 대한 국민들의 자발적인 공익신고가 증가했고, 스마트 국민제보, 안전신문고 등 모바일 어플리케이션의 도입으로 신고절차가 간단해졌기 때문이다.According to the recent status of public interest reports received and processed by public institutions, the number of public interest reports has increased significantly. This rapid increase is due to the increase in citizens' voluntary public interest reporting of violations of road traffic laws using high-definition black boxes, and the simplifying of the reporting process with the introduction of mobile applications such as Smart National Report and Safety Report Center.

다만, 교통법규 위반 공인신고 담당인력은 다른 업무를 겸업하고 있는 상황으로, 점점 증가하는 공익신고에 대응하기에는 부족한 실정이다. However, the personnel in charge of public reporting of traffic violations are busy with other duties and are insufficient to respond to the ever-increasing number of public interest reports.

따라서 본 기술 분야에서는 높은 정확도를 기반으로 자동화를 통해 단순 반복 업무를 줄일 수 있는 기술이 절실히 필요한 실정이다.Therefore, in this field of technology, there is an urgent need for technology that can reduce simple repetitive tasks through automation based on high accuracy.

대한민국 등록특허공보 제10-1845459호Republic of Korea Patent Publication No. 10-1845459 대한민국 공개특허공보 제10-2021-0058293호Republic of Korea Patent Publication No. 10-2021-0058293

본 발명은 상기와 같은 문제점을 해결하기 위한 것으로 카메라 기술의 발전 및 공익신고의 편의성에 따라 기하급수적으로 증가하는 공익신고에 신속하게 대응할 수 있도록 공익신고 영상이 차량 객체를 인식하는 제1 딥러닝 모델과 차선 객체를 인식하는 제2 딥러닝 모델에 입력됨으로써, 상기 차량 객체의 진로변경 위반여부가 출력되는 딥러닝 기술기반 교통법규 위반 공익신고 영상 분석 방법 및 이를 수행하는 프로그램이 기록된 컴퓨터 판독이 가능한 기록매체를 얻고자 하는 것을 목적으로 한다.The present invention is intended to solve the above problems and is a first deep learning model that recognizes vehicle objects in public interest report images to quickly respond to public interest reports, which are exponentially increasing due to the development of camera technology and the convenience of public interest reporting. and a method of analyzing images of public interest reports of traffic law violations based on deep learning technology, which outputs whether the vehicle object's course change violation is output by being input to a second deep learning model that recognizes lane objects, and a computer-readable computer-readable program on which the program for performing the method is recorded. The purpose is to obtain recording media.

본 발명이 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 본 발명의 기재로부터 당해 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있다.The technical problems to be achieved by the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned can be clearly understood by those skilled in the art from the description of the present invention.

상기 목적을 달성하기 위하여, 본 발명의 딥러닝 기술기반 교통법규 위반 공익신고 영상 분석 방법은 적어도 하나의 프로세서에 의하여, 임의의 차량에 설치된 블랙박스 카메라로부터 촬영된 공익신고 영상이 획득되는 공익신고 영상 획득단계; 및 상기 적어도 하나의 프로세서에 의하여, 상기 공익신고 영상이 차량 객체를 인식하는 제1 딥러닝 모델과 차선 객체를 인식하는 제2 딥러닝 모델에 입력됨으로써, 상기 차량 객체의 진로변경 위반여부가 출력되는 위반여부 출력단계;를 제공한다.In order to achieve the above purpose, the deep learning technology-based traffic law violation public interest report image analysis method of the present invention is a public interest report image captured by a black box camera installed in an arbitrary vehicle by at least one processor. Acquisition stage; And by the at least one processor, the public interest report image is input to a first deep learning model that recognizes a vehicle object and a second deep learning model that recognizes a lane object, so that whether the vehicle object has a course change violation is output. Provides a violation output step.

상기 목적을 달성하기 위하여, 본 발명은 딥러닝 기술기반 교통법규 위반 공익신고 영상 분석 방법을 수행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.In order to achieve the above object, the present invention provides a computer-readable recording medium recording a program that performs a deep learning technology-based traffic law violation public interest report video analysis method.

이상과 같이 본 발명에 의하면 공익신고 영상이 차량 객체를 인식하는 제1 딥러닝 모델과 차선 객체를 인식하는 제2 딥러닝 모델에 입력됨으로써, 상기 차량 객체의 진로변경 위반여부가 출력되어 카메라 기술의 발전 및 공익신고의 편의성에 따라 기하급수적으로 증가하는 공익신고에 신속하게 대응할 수 있는 효과가 있다.As described above, according to the present invention, the public interest report image is input to the first deep learning model that recognizes the vehicle object and the second deep learning model that recognizes the lane object, so that whether the vehicle object's course change violation is output and the camera technology is used. It has the effect of being able to quickly respond to public interest reports, which are exponentially increasing due to development and convenience of public interest reporting.

또한, 본 발명은 부족한 공익신고 인력을 충원하지 않고도 공익신고 업무 효율이 높일 수 있는 효과가 있다.In addition, the present invention has the effect of increasing the efficiency of public interest reporting work without recruiting insufficient public interest reporting manpower.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 상세한 설명 및 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the detailed description and claims.

도 1은 본 발명의 딥러닝 기술기반 교통법규 위반 공익신고 영상 분석 방법 흐름도이다.
도 2는 본 발명의 일실시예에 따른 외부환경 데이터셋 내 임의의 영상을 표시한 도면이다.
도 3은 본 발명의 일실시예에 따른 차선 데이터셋 내 임의의 영상을 표시한 도면이다.
도 4는 본 발명의 일실시예에 따른 RGB 기반의 영상(a), 이진화된 영상(b) 및 명암에 따른 차선 색이 표시된 영상(c)을 표시한 도면이다.
도 5는 본 발명의 일실시예에 따른 제1 딥러닝 모델 및 제2 딥러닝 모델로부터 다수 개의 차량 객체 및 차선 객체를 개별적으로 표시한 도면이다.
도 6은 본 발명의 일실시예에 따른 위반여부 출력단계로부터 진로변경 위반으로 판단되는 경우를 표시한 도면이다.
도 7은 본 발명의 일실시예에 따른 위반여부 출력단계로부터 진로변경 위반에서 제외되는 경우를 표시한 도면이다.
Figure 1 is a flow chart of a video analysis method for public interest reporting of traffic law violations based on deep learning technology of the present invention.
Figure 2 is a diagram showing an arbitrary image in an external environment dataset according to an embodiment of the present invention.
Figure 3 is a diagram showing an arbitrary image in the lane data set according to an embodiment of the present invention.
Figure 4 is a diagram showing an RGB-based image (a), a binarized image (b), and an image (c) displaying lane colors according to brightness and darkness according to an embodiment of the present invention.
Figure 5 is a diagram showing a plurality of vehicle objects and lane objects individually displayed from a first deep learning model and a second deep learning model according to an embodiment of the present invention.
Figure 6 is a diagram showing a case where a course change violation is determined from the violation output step according to an embodiment of the present invention.
Figure 7 is a diagram showing a case where a course change violation is excluded from the violation output step according to an embodiment of the present invention.

본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in this specification are general terms that are currently widely used as much as possible while considering the function in the present invention, but this may vary depending on the intention or precedent of a person working in the art, the emergence of new technology, etc. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the relevant invention. Therefore, the terms used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than simply the name of the term.

다르게 정의되지 않는 한 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as generally understood by a person of ordinary skill in the technical field to which the present invention pertains. Terms defined in commonly used dictionaries should be interpreted as having meanings consistent with the meanings they have in the context of the related technology, and unless clearly defined in the present application, should not be interpreted in an ideal or excessively formal sense. No.

이하, 본 발명에 따른 실시예를 첨부한 도면을 참조하여 상세히 설명하기로 한다. 도 1은 본 발명의 딥러닝 기술기반 교통법규 위반 공익신고 영상 분석 방법 흐름도이다. 도 2는 본 발명의 일실시예에 따른 외부환경 데이터셋 내 임의의 영상을 표시한 도면이다. 도 3은 본 발명의 일실시예에 따른 차선 데이터셋 내 임의의 영상을 표시한 도면이다. 도 4는 본 발명의 일실시예에 따른 RGB 기반의 영상(a), 이진화된 영상(b) 및 명암에 따른 차선 색이 표시된 영상(c)을 표시한 도면이다. 도 5는 본 발명의 일실시예에 따른 제1 딥러닝 모델 및 제2 딥러닝 모델로부터 다수 개의 차량 객체 및 차선 객체를 개별적으로 표시한 도면이다. 도 6은 본 발명의 일실시예에 따른 위반여부 출력단계(S600)로부터 진로변경 위반으로 판단되는 경우를 표시한 도면이다. 도 7은 본 발명의 일실시예에 따른 위반여부 출력단계(S600)로부터 진로변경 위반에서 제외되는 경우를 표시한 도면이다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. Figure 1 is a flow chart of a video analysis method for public interest reporting of traffic law violations based on deep learning technology of the present invention. Figure 2 is a diagram showing an arbitrary image in an external environment dataset according to an embodiment of the present invention. Figure 3 is a diagram showing an arbitrary image in a lane data set according to an embodiment of the present invention. Figure 4 is a diagram showing an RGB-based image (a), a binarized image (b), and an image (c) displaying lane colors according to brightness and darkness according to an embodiment of the present invention. Figure 5 is a diagram illustrating a plurality of vehicle objects and lane objects individually displayed from a first deep learning model and a second deep learning model according to an embodiment of the present invention. Figure 6 is a diagram showing a case where a course change violation is determined from the violation output step (S600) according to an embodiment of the present invention. Figure 7 is a diagram showing a case where a course change violation is excluded from the violation output step (S600) according to an embodiment of the present invention.

우선, 본 발명은 딥러닝 기술기반 교통법규 위반 공익신고 영상 분석 방법을 수행하는 프로그램을 기록한 컴퓨터 장치(100)로 읽을 수 있는 기록매체(120)를 포함한다. 상기 기록매체(120)는 예컨대, CD, DVD, 하드디스크, 블루레이 디스크, USB, 메모리 카드, ROM 등일 수 있다. 그리고 본 발명의 딥러닝 기술기반 교통법규 위반 공익신고 영상 분석 방법은 컴퓨터 장치(100) 내 적어도 하나의 프로세서(110)가 상기 기록매체(120)를 읽음으로써 구현될 수 있다.First, the present invention includes a recording medium 120 that can be read by a computer device 100 that records a program that performs a deep learning technology-based traffic law violation public interest report video analysis method. The recording medium 120 may be, for example, a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, etc. In addition, the deep learning technology-based traffic law violation public interest report video analysis method of the present invention can be implemented by at least one processor 110 in the computer device 100 reading the recording medium 120.

도 1을 보면, 딥러닝 기술기반 교통법규 위반 공익신고 영상 분석 방법은 적어도 하나의 프로세서(110)에 의하여, 임의의 차량에 설치된 블랙박스 카메라로부터 촬영된 공익신고 영상이 획득되는 공익신고 영상 획득단계(S500) 및 상기 적어도 하나의 프로세서(110)에 의하여, 상기 공익신고 영상이 차량 객체를 인식하는 제1 딥러닝 모델과 차선 객체를 인식하는 제2 딥러닝 모델에 입력됨으로써, 상기 차량 객체의 진로변경 위반여부가 출력되는 위반여부 출력단계(S600)를 포함한다.Referring to Figure 1, the deep learning technology-based traffic law violation public interest report image analysis method includes a public interest report image acquisition step in which a public interest report image captured from a black box camera installed in an arbitrary vehicle is acquired by at least one processor 110. (S500) and the at least one processor 110, the public interest report image is input to a first deep learning model that recognizes a vehicle object and a second deep learning model that recognizes a lane object, thereby determining the path of the vehicle object It includes a violation output step (S600) in which change violation is output.

한편, 본 발명은 상기 적어도 하나의 프로세서(110)에 의하여, 차량 내부로부터 차량 외부에서 확인할 수 있는 건물, 주행차량, 주차차량, 행인 등을 포함하는 외부환경이 촬영된 외부환경 영상 및/또는 이미지가 외부환경 데이터셋으로 획득하는 외부환경 데이터셋 획득단계(S100) 및 상기 적어도 하나의 프로세서(110)에 의하여, 상기 외부환경 데이터 셋이 이용되어 상기 제1 딥러닝 모델이 학습되는 제1 학습단계(S200)를 더 포함할 수 있다.Meanwhile, the present invention provides an external environment image and/or image captured by the at least one processor 110 of the external environment including buildings, running vehicles, parked vehicles, pedestrians, etc. that can be viewed from inside the vehicle and outside the vehicle. An external environment data set acquisition step (S100) acquired as an external environment data set and a first learning step in which the first deep learning model is learned by using the external environment data set by the at least one processor 110. (S200) may be further included.

예컨대, 상기 외부환경 데이터셋은 연속적으로 또는 산발적으로 외부환경이 촬영된 수십 시간의 영상 및/또는 수백만 장의 이미지일 수 있고, 촬영된 모든 차량에 대하여 라벨링된 상태일 수 있다. 도 2의 일실시예를 보면, 상기 외부환경 데이터셋은 각각의 영상 및/또는 이미지에 촬영된 모든 차량을 대상으로 바운딩 박스(Bounding box)가 표시되어 있으며, 상기 바운딩 박스의 네 꼭지점에 대한 2차원 좌표 및 각 바운딩 박스는 ‘일반차량’ 또는 ‘SUV/승합차’로 라벨링된 상태일 수 있다.For example, the external environment dataset may be tens of hours of video and/or millions of images in which the external environment is continuously or sporadically captured, and all captured vehicles may be labeled. 2, the external environment dataset displays a bounding box for all vehicles captured in each video and/or image, and 2 for the four vertices of the bounding box. Dimensional coordinates and each bounding box may be labeled as 'general vehicle' or 'SUV/van.'

다음으로, 상기 제1 학습단계(S200)는 신속한 처리속도와 개선된 정확도를 갖는 실시간 객체 인식에 용이한 YOLOv4모델을 포함하는 상기 제1 딥러닝 모델을 갖는 것을 특징으로 한다. 이때, 상기 제1 학습단계(S200)는 상기 외부환경 데이터셋의 라벨링 형식이 YOLOv4모델의 라벨링 형식으로 변환되는 라벨링 형식 변환단계(S210)를 더 포함할 수 있다. Next, the first learning step (S200) is characterized by having the first deep learning model including the YOLOv4 model, which is easy for real-time object recognition with rapid processing speed and improved accuracy. At this time, the first learning step (S200) may further include a labeling format conversion step (S210) in which the labeling format of the external environment dataset is converted to the labeling format of the YOLOv4 model.

본 발명의 일실시예를 따르면 상기 라벨링 형식 변환단계(S210)는 상기 외부환경 데이터셋 각각의 영상 및/또는 이미지의 라벨링 형식이 ‘ID, 바운딩 박스의 2차원 좌표 및 라벨’이라면, ‘클래스 번호, 중심점의 x좌표, 중심점의 y좌표, 넓이, 높이’로 변환될 수 있다. 그리고 상기 제1 학습단계(S200)는 상기 라벨링 형식이 변환된 외부환경 데이터셋이 이용되어 제1 딥러닝 모델이 학습되면서 하이퍼 파라미터 값이 수정될 수 있고, 인식률이 가장 높은 가중치가 적용되어 학습이 완료된 제1 딥러닝 모델이 생성될 수 있다.According to one embodiment of the present invention, in the labeling format conversion step (S210), if the labeling format of each video and/or image of the external environment dataset is 'ID, two-dimensional coordinates of the bounding box, and label', 'class number , can be converted to the x-coordinate of the center point, y-coordinate of the center point, area, and height. And in the first learning step (S200), the hyperparameter values can be modified as the first deep learning model is learned using the external environment dataset whose labeling format has been converted, and the weight with the highest recognition rate is applied to enable learning. A completed first deep learning model may be created.

이때, 상기 제1 딥러닝 모델은 외부환경 데이터셋 내 영상 및/또는 이미지에서 차량 객체 간 구분 없이 모두 ‘차량’이라는 객체로만 인식한다. 즉, 상기 제1 학습단계(S200)는 차량 객체를 개별로 인식할 수 있도록 Deep sort 알고리즘을 더 포함하는 제1 딥러닝 모델을 갖는 것을 특징으로 한다.At this time, the first deep learning model recognizes only the object called ‘vehicle’ in all videos and/or images in the external environment dataset without distinguishing between vehicle objects. That is, the first learning step (S200) is characterized by having a first deep learning model that further includes a deep sort algorithm to individually recognize vehicle objects.

본 발명에서 언급하는 Deep sort 알고리즘은 바운딩 박스 간의 겹치는 부분인 IoU(Intersection over Union)가 기반이 되어 차량 객체가 추적될 수 있도록 한다. 따라서 종래 원래의 타겟ID를 계속적으로 추적하지 못하고 다른 ID가 배정되는 문제가 해결될 수 있도록 하는 현저한 효과가 있다. The deep sort algorithm mentioned in the present invention is based on IoU (Intersection over Union), which is the overlap between bounding boxes, so that vehicle objects can be tracked. Therefore, there is a significant effect of solving the problem of not being able to continuously track the original target ID and assigning a different ID.

한편, 본 발명은 상기 적어도 하나의 프로세서(110)에 의하여, 주행 시 차선, 횡단보도 및 정지선 중 적어도 하나가 촬영된 다수 개의 차선 영상 및/또는 이미지를 포함하는 차선 데이터셋이 획득되는 차선 데이터셋 획득단계(S300) 및 상기 적어도 하나의 프로세서(110)에 의하여, 상기 차선 데이터셋이 이용되어 제2 딥러닝 모델이 학습되는 제2 학습단계(S400)를 더 포함할 수 있다.Meanwhile, the present invention is a lane dataset in which a lane dataset including a plurality of lane images and/or images in which at least one of the lane, crosswalk, and stop line is photographed while driving is obtained by the at least one processor 110. It may further include an acquisition step (S300) and a second learning step (S400) in which a second deep learning model is learned using the suboptimal dataset by the at least one processor 110.

도 3의 일실시예를 보면, 상기 차선 데이터셋은 각각의 영상 및/또는 이미지에 촬영된 모든 차선을 대상으로 ‘차선색, 차선타입, 2개의 차선 말단점각각의 2차원 좌표’가 라벨링된 상태일 수 있다. 상기 차선색은 흰색(White), 노란색(Yellow) 및 청색(Blue) 중 하나일 수 있고, 차선타입은 일반차선, 횡단보도 및 정지선 중 하나일 수 있고, 실선 및 점선 중 하나인 카테고리를 더 포함할 수 있다. 그리고 인식된 차선은 점과 점을 이어 만들어진 유한한 선이다. 따라서 차선은 양단에 말단점을 포함하고, 일측 말단점에 대한 2차원 좌표, 타측 말단점에 대한 2차원 좌표로 라벨링도리 수 있다. 3, the lane dataset is labeled with 'lane color, lane type, and two-dimensional coordinates of each of the two lane end points' for all lanes captured in each image and/or image. It may be a state. The lane color may be one of white, yellow, and blue, and the lane type may be one of general lanes, crosswalks, and stop lines, and further includes one of solid lines and dotted lines. can do. And the recognized lane is a finite line created by connecting dots. Therefore, the lane includes endpoints at both ends, and can be labeled with two-dimensional coordinates for one endpoint and two-dimensional coordinates for the other endpoint.

다음으로, 상기 제2 학습단계(S400)는 특징의 수가 적고 라벨링된 데이터의 수가 많을 때 용이한 End to End 학습방식의 Lanenet 모델을 포함하는 제2 딥러닝 모델을 갖는 것을 특징으로 한다. Next, the second learning step (S400) is characterized by having a second deep learning model including the Lanenet model in an end-to-end learning method that is easy when the number of features is small and the number of labeled data is large.

차선과 같이 실선은 바운딩 박스를 통한 객체 인식이 아니기 때문에 YOLO모델을 사용하는데 기술적 한계가 존재한다. 이러한 문제를 해결하기 위해서 End to End 학습방식의 Lanenet 모델을 포함하는 제2 딥러닝 모델을 통해서 차선이 학습될 수 있다.Because solid lines, like lanes, are not object recognized through bounding boxes, there are technical limitations in using the YOLO model. To solve this problem, the lane can be learned through a second deep learning model including the Lanenet model of the end to end learning method.

이때, 상기 제2 학습단계(S400)는 다수 개의 차선 영상 및/또는 이미지를 포함하는 차선 데이터셋이 전처리되는 차선 데이터셋 전처리단계(S410)를 포함할 수 있다. 도 4의 일실시예에 따르면, 상기 차선 데이터셋 전처리단계(S410)는 도 4의 (a)와 같이 각각의 영상 및/또는 이미지로부터 차선이 추출될 수 있도록 이진화되어 도 4의 (b)와 같이 이진화 이미지(Binary segmentation image)가 생성될 수 있다. 그리고 상기 전처리단계(S410)는 추출된 차선이 개별적으로 인식될 수 있도록 도 4의 (c)와 같이 차선이 분류되는 인스턴스 이미지(Instance segmentation image)가 생성될 수 있다. At this time, the second learning step (S400) may include a lane dataset preprocessing step (S410) in which a lane dataset including a plurality of lane images and/or images is preprocessed. According to one embodiment of FIG. 4, the lane data set preprocessing step (S410) is binarized so that lanes can be extracted from each image and/or image as shown in (a) of FIG. 4, and (b) of FIG. 4. Likewise, a binary segmentation image can be created. In addition, in the preprocessing step (S410), an instance segmentation image in which lanes are classified, as shown in (c) of FIG. 4, can be generated so that the extracted lanes can be individually recognized.

그리고 상기 제2 학습단계(S400)는 전처리된 즉, 이진화로 인한 차선 추출 및 추출된 차선이 개별 인식된 인스턴스 이미지(Instance segmentation image)가 이용되어 상기 제2 딥러닝 모델이 학습될 수 있다. 그러면, 상기 제2 학습단계(S400)는 전처리된 차선 데이터셋 내 각각의 영상 및/또는 이미지가 이용되어 상기 제2 딥러닝 모델이 학습되면서 하이퍼 파라미터 값이 수정될 수 있고, 인식률이 가장 높은 가중치가 적용되어 학습이 완료된 제2 딥러닝 모델이 생성될 수 있다. And in the second learning step (S400), the second deep learning model can be learned by using preprocessed, that is, lane extraction through binarization and instance segmentation images in which the extracted lanes are individually recognized. Then, in the second learning step (S400), each image and/or image in the preprocessed lane dataset is used to learn the second deep learning model, and the hyperparameter values can be modified, and the weight with the highest recognition rate is used. can be applied to create a second deep learning model that has completed learning.

즉, 본 발명의 상기 위반여부 출력단계(S600)는 상기 외부환경 데이터셋 획득단계(S100) 및 상기 제1 학습단계(S200)로부터 학습된 제1 딥러닝 모델과, 상기 차선 데이터셋 획득단계(S300) 및 상기 제2 학습단계(S400)로부터 학습된 제2 딥러닝 모델이 이용되어 상기 차량 객체의 진로변경 위반여부가 출력될 수 있다.That is, the violation output step (S600) of the present invention includes a first deep learning model learned from the external environment dataset acquisition step (S100) and the first learning step (S200), and the lane dataset acquisition step ( The second deep learning model learned from S300) and the second learning step (S400) can be used to output whether the vehicle object has a course change violation.

차량에는 일반적으로 사고경위를 확인하는 등의 목적으로 전방 및 후방에 블랙박스 카메라가 설치되어 있다. 상기 블랙박스 카메라에는 메모리가 포함되어 있어 기 설정된 시간동안 촬영된 영상이 저장될 수 있다. 그리고 해당 차량의 차주는 교통법규를 위반한 차량을 목격한 후 공공기관에 신고하고자 한다면, 차주 단말은 인터넷 네트워크를 통해서 상기 메모리에 저장된 영상 일부를 공공기관에서 제공하는 플랫폼, 웹페이지 및 어플리케이션에 업로드할 수 있다.Vehicles are generally equipped with black box cameras at the front and rear for purposes such as checking the circumstances of an accident. The black box camera includes a memory so that images captured for a preset period of time can be stored. And if the owner of the vehicle wishes to report it to a public institution after observing a vehicle that violates traffic laws, the owner's terminal uploads some of the images stored in the memory to platforms, web pages, and applications provided by the public institution through the Internet network. can do.

즉, 상기 공익신고 영상은 상기 차주 단말로부터 업로드된 영상이고, 해당 차량에 설치된 블랙박스 카메라로부터 촬영된 영상일 수 있다. 그리고 상기 공익신고 영상은 차량 내부에서 차량 외부를 촬영한 것으로 차량 외부의 다른 차량들, 차선, 건물, 장애물, 물건, 신호등 등이 복합적으로 촬영된 것이다.In other words, the public interest report video may be a video uploaded from the vehicle owner's terminal and may be a video captured from a black box camera installed in the vehicle. In addition, the public interest report video was filmed from inside the car to the outside of the car, and was filmed in a complex manner with other vehicles, lanes, buildings, obstacles, objects, traffic lights, etc. outside the car.

상기 공익신고 영상 획득단계(S500)로부터 획득한 상기 공익신고 영상을 대상으로 교통법규 위반여부를 분석하기 위해서, 상기 위반여부 출력단계(S600)는 다음과 같은 세부과정이 진행될 수 있다.In order to analyze whether or not traffic laws are violated in the public interest report video obtained from the public interest report video acquisition step (S500), the violation output step (S600) may proceed with the following detailed process.

우선, 상기 위반여부 출력단계(S600)는, 상기 제1 딥러닝 모델로부터 상기 공익신고 영상 내 다수 개의 차량 객체 간의 구분 없이 다수 개의 차량 객체가 인식되는 차량 객체 인식단계(S610)를 포함하는 것을 특징으로 한다. First, the violation output step (S600) includes a vehicle object recognition step (S610) in which multiple vehicle objects are recognized from the first deep learning model without distinguishing between multiple vehicle objects in the public interest report video. Do it as

이때, 상기 차량 객체 인식단계(S610)는 기 학습된 상기 제1 딥러닝 모델 내 YOLOv4모델을 통해서 다수 개의 차량 객체 인식될 수 있고, 이때, 상기 다수 개의 차량 객체는 각각이 구분될 수 없다.At this time, in the vehicle object recognition step (S610), multiple vehicle objects may be recognized through the YOLOv4 model in the previously learned first deep learning model, and at this time, the multiple vehicle objects cannot be distinguished from each other.

다음으로, 상기 위반여부 출력단계(S600)는 상기 다수 개의 차량 객체 간 스위칭(Switching)이 발생되지 않도록 상기 제1 딥러닝 모델로부터 상기 다수 개의 차량 객체 간 유사도가 판단되고, 차량 객체가 개별적으로 추적되는 차량 객체 개별 추적단계(S620)를 더 포함하는 것을 특징으로 한다.Next, in the violation output step (S600), the similarity between the plurality of vehicle objects is determined from the first deep learning model to prevent switching between the plurality of vehicle objects, and the vehicle objects are individually tracked. It is characterized in that it further includes an individual vehicle object tracking step (S620).

즉, 앞서 언급한 것과 같이 상기 차량 객체 인식단계(S610)는 상기 공익신고 영상 내 다수 개의 차량 객체가 인식될 수 있지만 각각의 차량 객체가 개별적으로 구분되지 못하므로, 최초에 인식한 차량 객체가 추적되는 것이 아닌, 가까운 차량 객체로 전환될 수 있다. 따라서 영상이 지속되면서 교통법규를 위반했는지, 위반하지 않았는지 계속적으로 추적할 수 없는 기술적 한계가 있다. That is, as mentioned above, in the vehicle object recognition step (S610), multiple vehicle objects in the public interest report video may be recognized, but each vehicle object cannot be individually distinguished, so the initially recognized vehicle object is tracked. Instead, it can be converted to a nearby vehicle object. Therefore, there are technical limitations that make it impossible to continuously track whether traffic laws have been violated or not as the video continues.

본 발명은 이러한 문제를 해결하기 위해서, 상기 차량 객체 개별 추적단계(S620)는 기 학습된 상기 제1 딥러닝 모델 내 Deep sort 알고리즘을 통해서 다수 개의 차량 객체를 대상으로 개별적으로 각각의 차량 객체가 추적될 수 있다. 다시 말하면, 상기 Deep sort 알고리즘은 상기 다수 개의 차량 객체 간 유사도가 판단됨으로써, 지속되는 영상에서 장시간 차량 객체의 가려짐 이후에도 동일성을 회복시킬 수 있는 현저한 효과가 있다.In order to solve this problem, the present invention tracks each vehicle object individually for a plurality of vehicle objects through the deep sort algorithm within the previously learned first deep learning model in the vehicle object individual tracking step (S620). It can be. In other words, the deep sort algorithm has the remarkable effect of being able to restore the identity of vehicle objects even after they are occluded for a long time in a continuous image by determining the similarity between the plurality of vehicle objects.

따라서 본 발명의 상기 차량 객체 인식단계(S610) 및 차량 객체 개별 추적단계(S620)는 상기 공익신고 영상으로부터 다수 개의 차량 객체가 인식되고, 다수 개의 차량 객체가 개별적으로 인식됨으로써, 각각의 차량 객체에 대한 분석이 가능하도록 하는 현저한 효과가 있다. Therefore, in the vehicle object recognition step (S610) and the vehicle object individual tracking step (S620) of the present invention, a plurality of vehicle objects are recognized from the public interest report image, and the multiple vehicle objects are individually recognized, so that each vehicle object It has a notable effect in making analysis possible.

다음으로, 상기 위반여부 출력단계(S600)는 상기 제2 딥러닝 모델로부터 상기 공익신고 영상이 이진화되어 다수 개의 차선이 추출되는 차선 추출단계(S630) 및 차선이 추출된 상기 공익신고 영상에서 상기 제2 딥러닝 모델로부터 다수 개의 차선이 개별적으로 인식된 후 서로 다른 색으로 표시되는 차선 개별 표시단계(S640)를 더 포함하는 것을 특징으로 한다.Next, the violation output step (S600) is a lane extraction step (S630) in which the public interest report image is binarized from the second deep learning model and a plurality of lanes are extracted, and the first lane is extracted from the public interest report image from which the lanes are extracted. 2 It is characterized in that it further includes a lane individual display step (S640) in which a plurality of lanes are individually recognized from the deep learning model and then displayed in different colors.

차선의 종류는 일반차선, 횡단보도, 정지선을 포함할 수 있고, 일반차선은 실선 또는 점선일 수 있다. 그리고 차선은 백색, 황색 및 청색일 수 있다. Types of lanes may include general lanes, crosswalks, and stop lines, and general lanes may be solid or dotted lines. And the lanes can be white, yellow and blue.

즉, 상기 차선 추출단계(S630)는 기 학습된 상기 제2 딥러닝 모델 내 Lanenet 모델을 통해서 상기 공익신고 영상 내 차선이 모두 인식될 수 있고, RGB 기반의 상기 공익신고 영상에서 차선이 흰색, 차선 외 부분은 검은색으로 변환됨으로써, 차선이 추출될 수 있다.That is, in the lane extraction step (S630), all lanes in the public interest report image can be recognized through the Lanenet model in the pre-learned second deep learning model, and the lanes in the RGB-based public interest report image are white and lane By converting the outer part to black, a lane can be extracted.

그리고 상기 차선 개별 표시단계(S640)는 차선이 추출된 상기 공익신고 영상에서 동일한 색의 차선일 수 있고, 다른 색의 차선일 수 있다. 일반적으로, 흰색 차선은 동일한 방향으로 이동하는 차량의 흐름을 구분하기 위한 차선이고, 노란색 차선은 반대 방향으로 이동하는 차량의 흐름을 구분하거나, 도로이용의 제한, 지시 사항 표시를 위한 차선이고, 청색 차선은 버스전용차선으로 버스 또는 승차인원에 따라 지정된 차종만 통행할 수 있는 도로구간의 경계를 표시한 차선이다. And, in the lane individual display step (S640), the lane may be a lane of the same color or a lane of a different color from the extracted public interest report image. In general, white lanes are used to separate the flow of vehicles moving in the same direction, yellow lanes are used to separate the flow of vehicles moving in the opposite direction, or to indicate road use restrictions and instructions, and blue lanes are used to separate the flow of vehicles moving in the opposite direction. A bus-only lane is a lane that marks the boundary of a road section where only buses or vehicles designated according to the number of passengers can pass.

즉, 차선의 색을 구별하는 것은 교통법규 위반여부를 판단하는데 상당히 중요하다. 이에, 상기 차선 개별 표시단계(S640)는 기 학습된 상기 제2 딥러닝 모델 내 Lanenet 모델을 통해서 차선이 추출된 상기 공익신고 영상에 종래 색을 기반으로 명도를 달리하여 각각의 차선이 표시될 수 있다. In other words, distinguishing the color of the lane is very important in determining whether traffic laws are violated. Accordingly, in the lane individual display step (S640), each lane can be displayed by varying the brightness based on the conventional color in the public interest report image from which the lane was extracted through the Lanenet model in the pre-learned second deep learning model. there is.

따라서 본 발명의 상기 차선 추출단계(S630) 및 차선 개별 표시단계(S640)는 상기 공익신고 영상으로부터 다수 개의 차선이 추출되고, 다수 개의 차선이 개별적으로 인식된 후 명도에 따라 서로 다른 색으로 표시됨으로써, 각각의 차선에 대한 분석이 가능하도록 하는 현저한 효과가 있다. Therefore, in the lane extraction step (S630) and the individual lane display step (S640) of the present invention, a plurality of lanes are extracted from the public interest report image, the plurality of lanes are individually recognized, and then displayed in different colors according to brightness. , it has the notable effect of enabling analysis of each lane.

도 5의 일실시예를 보면, 상기 위반여부 출력단계(S600)는 상기 공익신고 영상이 차량 객체를 인식하는 기 학습된 제1 딥러닝 모델과 차선 객체를 인식하는 기 학습된 제2 딥러닝 모델을 통해서 상기 공익신고 영상에 촬영된 다수 개의 차량과 차선을 각각 개별적으로 확인할 수 있다. Looking at an embodiment of Figure 5, the violation output step (S600) is a pre-trained first deep learning model that recognizes vehicle objects in the public interest report image and a pre-trained second deep learning model that recognizes lane objects. Through this, you can individually check multiple vehicles and lanes filmed in the above public interest report video.

그러면 상기 위반여부 출력단계(S600)는, 상기 공익신고 영상 내 임의의 차량 객체를 포함하는 바운딩 박스(Bounding box)를 대상으로 하단 일측 꼭지점이 실선과 접한 후 타측 꼭지점과 접하면, 임의의 차량 객체가 진로변경을 위반한 것으로 판단되고, 상기 바운딩 박스를 대상으로 하단 일측 꼭지점이 실선과 접한 후 다시 일측 꼭지점과 접하면, 임의의 차량 객체가 진로변경 위반하지 않은 것으로 판단되는 것을 특징으로 한다.Then, in the violation output step (S600), if the lower vertex of one side touches a solid line and then touches the other vertex of the bounding box containing a random vehicle object in the public interest report video, the arbitrary vehicle object If it is determined that the vehicle object has violated the course change, and the lower vertex of the bounding box touches the solid line and then touches the other vertex again, it is determined that the arbitrary vehicle object has not violated the course change.

도 6의 일실시예를 보면, 상기 공익신고 영상은 다수 개의 프레임(Frame1, Frame2, Frame3) 즉, 다수 개의 이미지로 구성되어 있다. 상기 위반여부 출력단계(S600)는 상기 공익신고 영상의 Frame 1에서 임의의 차량 객체를 포함하는 바운딩 박스의 하단 꼭지점 B가 흰색 실선에 접한 것이 확인될 수 있다. 그리고 상기 위반여부 출력단계(S600)는 상기 공익신고 영상의 Frame 2에서 바운딩 박스의 하단 꼭지점 A, B 사이의 모서리가 흰색 실선과 교차되는 것이 확인될 수 있다. 그리고 상기 위반여부 출력단계(S600)는 상기 공익신고 영상의 Frame 3에서 바운딩 박스의 하단 꼭지점 A가 흰색 실선에 접한 것이 확인될 수 있다.Looking at the example of Figure 6, the public interest report video is composed of multiple frames (Frame1, Frame2, Frame3), that is, multiple images. In the violation status output step (S600), it can be confirmed that the lower vertex B of the bounding box containing an arbitrary vehicle object in Frame 1 of the public interest report video touches the white solid line. And in the violation status output step (S600), it can be confirmed that the edge between the bottom vertices A and B of the bounding box in Frame 2 of the public interest report video intersects the white solid line. And in the violation status output step (S600), it can be confirmed that the lower vertex A of the bounding box in Frame 3 of the public interest report video touches the white solid line.

즉, 상기 위반여부 출력단계(S600)는 프레임 변화에 따라 동일한 흰색 실선이 꼭지점 B와 접한 후 꼭지점 A와 접함으로써, 차선변경이 불가한 실선에서 해당 차량 객체가 실선을 넘어 다른 차선으로 진로변경 교통법규를 위반한 것으로 판단될 수 있다.That is, in the violation output step (S600), as the frame changes, the same white solid line touches vertex B and then touches vertex A, so that the vehicle object crosses the solid line from the solid line where lane changes are not possible and changes course to another lane. It may be judged as a violation of the law.

도 7의 일실시예를 보면, 상기 위반여부 출력단계(S600)는 상기 공익신고 영상의 Frame 1에서 임의의 차량 객체를 포함하는 바운딩 박스의 하단 꼭지점 B가 흰색 실선에 접한 것이 확인될 수 있다. 그리고 상기 위반여부 출력단계(S600)는 상기 공익신고 영상의 Frame 2에서 바운딩 박스의 하단 꼭지점 A, B 사이의 모서리가 흰색 실선과 교차되는 것이 확인될 수 있다. 그리고 상기 위반여부 출력단계(S600)는 상기 공익 신고영상의 Frame 3에서 바운딩 박스의 하단 꼭지점 B가 다시 흰색 실선에 접한 것이 확인될 수 있다. Looking at one embodiment of FIG. 7, in the violation status output step (S600), it can be confirmed that the lower vertex B of the bounding box containing an arbitrary vehicle object in Frame 1 of the public interest report video is in contact with a white solid line. And in the violation status output step (S600), it can be confirmed that the edge between the bottom vertices A and B of the bounding box in Frame 2 of the public interest report video intersects the white solid line. And in the violation output step (S600), it can be confirmed that the bottom vertex B of the bounding box in Frame 3 of the public interest report video touches the white solid line again.

즉, 해당 차량은 흰색 실선으로 잠시 이동했지만 완전히 다른 차선으로 진로변경한 것이 아닌 다시 원래 주행차선으로 복귀한 것으로 것임으로, 상기 위반여부 출력단계(S600)는 진로변경 교통법규를 위반하지 않은 것으로 판단될 수 있다. In other words, the vehicle in question briefly moved to the solid white line, but returned to its original driving lane rather than changing course to a completely different lane. Therefore, the violation output step (S600) determines that it did not violate the traffic law for changing course. It can be.

따라서 본 발명에 의하면, 상기 공익신고 영상이 차량 객체를 인식하는 제1 딥러닝 모델과 차선 객체를 인식하는 제2 딥러닝 모델에 입력됨으로써, 상기 차량 객체의 진로변경 위반여부가 출력될 수 있다. 이에 따라, 본 발명은 카메라 기술의 발전 및 공익신고의 편의성에 따라 기하급수적으로 증가하는 공익신고에도 불구하고, 높은 정확도로 신속하게 각 공익신고 영상별 교통법규 위반여부 특히나, 진로변경 위반여부를 판단할 수 있는 현저한 효과가 있다.Therefore, according to the present invention, by inputting the public interest report image into a first deep learning model that recognizes a vehicle object and a second deep learning model that recognizes a lane object, whether the vehicle object violates the course change can be output. Accordingly, despite the exponential increase in public interest reports due to the development of camera technology and the convenience of public interest reporting, the present invention quickly and highly accurately determines whether traffic laws are violated for each public interest reporting video, especially whether a change of course is violated. There is a remarkable effect that can be achieved.

그리고 공익신고 담당인력을 충원하지 않아도 되고, 반복 업무를 줄여 업무 효율성이 높아지는 현저한 효과가 있다.In addition, there is a notable effect of eliminating the need to recruit personnel in charge of public interest reporting and increasing work efficiency by reducing repetitive tasks.

실시예들은 하드웨어, 소프트웨어, 펌웨어, 미들웨어, 마이크로코드, 하드웨어 기술 언어, 또는 이들의 임의의 조합에 의해 구현될 수 있다. 소프트웨어, 펌웨어, 미들웨어 또는 마이크로코드로 구현되는 경우, 필요한 작업을 수행하는 프로그램 코드 또는 코드 세그먼트들은 컴퓨터 판독 가능 저장 매체에 저장되고 하나 이상의 프로세서에 의해 실행될 수 있다.Embodiments may be implemented by hardware, software, firmware, middleware, microcode, hardware description language, or any combination thereof. When implemented as software, firmware, middleware, or microcode, program code or code segments that perform necessary tasks may be stored in a computer-readable storage medium and executed by one or more processors.

그리고 본 명세서에 설명된 주제의 양태들은 컴퓨터에 의해 실행되는 프로그램 모듈 또는 컴포넌트와 같은 컴퓨터 실행 가능 명령어들의 일반적인 맥락에서 설명될 수 있다. 일반적으로, 프로그램 모듈 또는 컴포넌트들은 특정 작업을 수행하거나 특정 데이터 형식을 구현하는 루틴, 프로그램, 객체, 데이터 구조를 포함한다. 본 명세서에 설명된 주제의 양태들은 통신 네트워크를 통해 링크되는 원격 처리 디바이스들에 의해 작업들이 수행되는 분산 컴퓨팅 환경들에서 실시될 수도 있다. 분산 컴퓨팅 환경에서, 프로그램 모듈들은 메모리 저장 디바이스들을 포함하는 로컬 및 원격 컴퓨터 저장 매체에 둘 다에 위치할 수 있다.And aspects of the subject matter described herein may be described in the general context of computer-executable instructions, such as program modules or components that are executed by a computer. Typically, program modules or components include routines, programs, objects, and data structures that perform specific tasks or implement specific data types. Aspects of the subject matter described herein may be practiced in distributed computing environments where tasks are performed by remote processing devices that are linked through a communications network. In a distributed computing environment, program modules may be located in both local and remote computer storage media, including memory storage devices.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 으로 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, various modifications and variations can be made by those skilled in the art from the above description. For example, the described techniques are performed in an order different from the described method, and/or the components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or in a different configuration. Appropriate results may be achieved by substitution or substitution of elements or equivalents.

그러므로 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims also fall within the scope of the claims described below.

100.. 컴퓨터 장치
110.. 적어도 하나의 프로세서
120.. 기록매체
100.. Computer devices
110.. At least one processor
120.. Recording media

Claims (5)

적어도 하나의 프로세서에 의하여, 임의의 차량에 설치된 블랙박스 카메라로부터 촬영된 공익신고 영상이 획득되는 공익신고 영상 획득단계; 및
상기 적어도 하나의 프로세서에 의하여, 상기 공익신고 영상이 차량 객체를 인식하는 제1 딥러닝 모델과 차선 객체를 인식하는 제2 딥러닝 모델에 입력됨으로써, 상기 차량 객체의 진로변경 위반여부가 출력되는 위반여부 출력단계;를 포함하는 딥러닝 기술기반 교통법규 위반 공익신고 영상 분석 방법.
A public interest report image acquisition step in which a public interest report image captured from a black box camera installed in an arbitrary vehicle is acquired by at least one processor; and
By the at least one processor, the public interest report image is input to a first deep learning model that recognizes a vehicle object and a second deep learning model that recognizes a lane object, so that whether the vehicle object's course change violation is output is output. Deep learning technology-based traffic law violation public interest report video analysis method including an output step.
제 1항에 있어서,
상기 위반여부 출력단계는,
상기 제1 딥러닝 모델로부터 상기 공익신고 영상 내 다수 개의 차량 객체 간의 구분 없이 다수 개의 차량 객체가 인식되는 차량 객체 인식단계; 및
상기 다수 개의 차량 객체 간 스위칭(Switching)이 발생되지 않도록 상기 제1 딥러닝 모델로부터 상기 다수 개의 차량 객체 간 유사도가 판단되고, 차량 객체가 개별적으로 추적되는 차량 객체 개별 추적단계;를 포함하는 것을 특징으로 하는 딥러닝 기술기반 교통법규 위반 공익신고 영상 분석 방법.
According to clause 1,
The violation output step is,
A vehicle object recognition step in which multiple vehicle objects are recognized from the first deep learning model without distinction between multiple vehicle objects in the public interest report image; and
A vehicle object individual tracking step in which similarity between the plurality of vehicle objects is determined from the first deep learning model to prevent switching between the plurality of vehicle objects and the vehicle objects are individually tracked. A deep learning technology-based method of analyzing traffic law violation public interest report videos.
제 1항에 있어서,
상기 위반여부 출력단계는,
상기 제2 딥러닝 모델로부터 상기 공익신고 영상이 이진화되어 다수 개의 차선이 추출되는 차선 추출단계; 및
차선이 추출된 상기 공익신고 영상에서 상기 제2 딥러닝 모델로부터 다수 개의 차선이 개별적으로 인식된 후 서로 다른 색으로 표시되는 차선 개별 표시단계;를 더 포함하는 것을 특징으로 하는 딥러닝 기술기반 교통법규 위반 공익신고 영상 분석 방법.
According to clause 1,
The violation output step is,
A lane extraction step in which the public interest report image is binarized and a plurality of lanes are extracted from the second deep learning model; and
Traffic laws based on deep learning technology, further comprising a lane individual display step in which a plurality of lanes are individually recognized from the second deep learning model in the public interest report image from which lanes are extracted and then displayed in different colors. Video analysis method for public interest reporting violations.
제 1항에 있어서,
상기 위반여부 출력단계는,
상기 공익신고 영상 내 임의의 차량 객체를 포함하는 바운딩 박스(Bounding box)를 대상으로 하단 일측 꼭지점이 실선과 접한 후 타측 꼭지점과 접하면, 임의의 차량 객체가 진로변경을 위반한 것으로 판단되고,
상기 바운딩 박스를 대상으로 하단 일측 꼭지점이 실선과 접한 후 다시 일측 꼭지점과 접하면, 임의의 차량 객체가 진로변경 위반하지 않은 것으로 판단되는 것을 특징으로 하는 딥러닝 기술기반 교통법규 위반 공익신고 영상 분석 방법.
According to clause 1,
The violation output step is,
When one lower vertex of a bounding box containing a random vehicle object in the public interest report video touches a solid line and then touches the other vertex, it is determined that the random vehicle object has violated the course change,
A deep learning technology-based traffic law violation public interest report video analysis method, characterized in that if one lower vertex of the bounding box touches a solid line and then touches one vertex again, it is determined that a random vehicle object has not violated the course change. .
제1항 내지 제4항 중 어느 한 항의 딥러닝 기술기반 교통법규 위반 공익신고 영상 분석 방법을 수행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium that records a program that performs the deep learning technology-based traffic law violation public interest report video analysis method according to any one of paragraphs 1 to 4.
KR1020220169637A 2022-12-07 2022-12-07 Deep Learning Technology-Based Traffic Law Violation Video Analysis Method And Computer-Readable Recording Medium Recording The Program That Performs It KR20240084863A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220169637A KR20240084863A (en) 2022-12-07 2022-12-07 Deep Learning Technology-Based Traffic Law Violation Video Analysis Method And Computer-Readable Recording Medium Recording The Program That Performs It

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220169637A KR20240084863A (en) 2022-12-07 2022-12-07 Deep Learning Technology-Based Traffic Law Violation Video Analysis Method And Computer-Readable Recording Medium Recording The Program That Performs It

Publications (1)

Publication Number Publication Date
KR20240084863A true KR20240084863A (en) 2024-06-14

Family

ID=91482065

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220169637A KR20240084863A (en) 2022-12-07 2022-12-07 Deep Learning Technology-Based Traffic Law Violation Video Analysis Method And Computer-Readable Recording Medium Recording The Program That Performs It

Country Status (1)

Country Link
KR (1) KR20240084863A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101845459B1 (en) 2016-05-25 2018-04-05 김영주 Method and server for managing accusations
KR20210058293A (en) 2019-11-14 2021-05-24 주식회사 케이티 Server and method for collecting blackbox video and device equippted on vehicle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101845459B1 (en) 2016-05-25 2018-04-05 김영주 Method and server for managing accusations
KR20210058293A (en) 2019-11-14 2021-05-24 주식회사 케이티 Server and method for collecting blackbox video and device equippted on vehicle

Similar Documents

Publication Publication Date Title
Balali et al. Evaluation of multiclass traffic sign detection and classification methods for US roadway asset inventory management
Siriborvornratanakul An automatic road distress visual inspection system using an onboard in‐car camera
Danescu et al. Detection and classification of painted road objects for intersection assistance applications
Alam et al. Indian traffic sign detection and recognition
AU2020102039A4 (en) A high-precision multi-targets visual detection method in automatic driving scene
Yaghoobi Ershadi et al. Robust vehicle detection in different weather conditions: Using MIPM
Fachrie A simple vehicle counting system using deep learning with YOLOv3 model
CN110619279A (en) Road traffic sign instance segmentation method based on tracking
CN114596555B (en) Obstacle point cloud data screening method and device, electronic equipment and storage medium
JP2019220129A (en) System and method for recognizing traffic sign
Naufal et al. Preprocessed mask RCNN for parking space detection in smart parking systems
Chen et al. A computer vision algorithm for locating and recognizing traffic signal control light status and countdown time
Mahersatillah et al. Unstructured road detection and steering assist based on hsv color space segmentation for autonomous car
Azimjonov et al. Vision-based vehicle tracking on highway traffic using bounding-box features to extract statistical information
Isa et al. Real-time traffic sign detection and recognition using Raspberry Pi
Aldoski et al. Impact of traffic sign diversity on autonomous vehicles: a literature review
CN103136536A (en) System and method for detecting target and method for exacting image features
Sala et al. Measuring traffic lane‐changing by converting video into space–time still images
US11615634B2 (en) Character recognition of license plate under complex background
KR20240084863A (en) Deep Learning Technology-Based Traffic Law Violation Video Analysis Method And Computer-Readable Recording Medium Recording The Program That Performs It
Sapkal et al. Lane detection techniques for self-driving vehicle: comprehensive review
Ding et al. A comprehensive approach for road marking detection and recognition
Merugu et al. Multi lane detection, curve fitting and lane type classification
Bhupathi et al. Sharp curve detection of autonomous vehicles using dbscan and augmented sliding window techniques
Zaki et al. Enhancing unsupervised video-based vehicle tracking and modeling for traffic data collection