KR20220107875A - Traffic monitoring system of multi lane based on deep learning using camera - Google Patents

Traffic monitoring system of multi lane based on deep learning using camera Download PDF

Info

Publication number
KR20220107875A
KR20220107875A KR1020210011098A KR20210011098A KR20220107875A KR 20220107875 A KR20220107875 A KR 20220107875A KR 1020210011098 A KR1020210011098 A KR 1020210011098A KR 20210011098 A KR20210011098 A KR 20210011098A KR 20220107875 A KR20220107875 A KR 20220107875A
Authority
KR
South Korea
Prior art keywords
unit
camera
deep learning
vehicle
speed
Prior art date
Application number
KR1020210011098A
Other languages
Korean (ko)
Inventor
최정삼
이경수
이한결
Original Assignee
주식회사 라텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 라텍 filed Critical 주식회사 라텍
Priority to KR1020210011098A priority Critical patent/KR20220107875A/en
Publication of KR20220107875A publication Critical patent/KR20220107875A/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/052Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed
    • G08G1/054Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed photographing overspeeding vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to a deep learning-based multi-lane unmanned speed enforcement system using a camera, which includes: a lighting unit; an image capturing unit; a control unit; and a communication unit, wherein the control unit includes a vehicle object recognition unit, a speed detection unit, a license plate recognition unit, and a traffic information analysis unit. The present invention provides the system which operates without a complicated structure and additional manpower regardless of installation location through communication with a server without the need for a separate controller through real-time image processing (Real-Time) in the camera.

Description

카메라를 활용한 딥러닝 기반 다차로 무인교통과속단속 시스템{Traffic monitoring system of multi lane based on deep learning using camera}{Traffic monitoring system of multi lane based on deep learning using camera}

본 발명은 딥러닝을 이용하여 차량 객체를 검출하고 영역 구분, 속도 측정을 하는 영상처리 기술과 관련된다.The present invention relates to an image processing technology that detects a vehicle object using deep learning, classifies a region, and measures speed.

본 발명은 카메라를 활용한 딥러닝 기반 다차로 무인교통과속단속 시스템에 관한 것이다. The present invention relates to a deep learning-based multi-lane unmanned traffic speed enforcement system using a camera.

더욱 자세하게는 다차로 도로상에 고해상도 단일카메라를 설치하여 SSD 딥러닝 기반 차량 객체검출 방법을 활용하여 단속 및 교통량에 따른 신호를 제어할 수 있는 시스템에 관한 것이다. More specifically, it relates to a system that can control signals according to enforcement and traffic volume by installing a high-resolution single camera on a multi-lane road and using an SSD deep learning-based vehicle object detection method.

과속으로 인한 교통사고 예방을 위해 전국에 무인 단속카메라가 운영되고 있다. 국내에서 운영되고 있는 무인교통단속 장비는 세 가지로 고정식 단속 카메라, 이동식 단속카메라, 구간 단속 카메라가 있다. 차량을 검지를 위해 일반적으로 매설식 루프검지기, 레이더, 레이저를 이용하고 있다.Unmanned enforcement cameras are being operated across the country to prevent traffic accidents caused by speeding. There are three types of unmanned traffic enforcement equipment in operation in Korea: fixed enforcement cameras, mobile enforcement cameras, and section enforcement cameras. In general, buried loop detectors, radars, and lasers are used to detect vehicles.

매설식 루프검지 방식은 루프검지기 설치를 위해 도로 포장면을 절삭하기 때문에 도로 파손의 원인 중 하나가 될 수 있으며, 도로 공사나 지반 침하로 루프가 파손되거나 기능을 상실할 경우 정상 작동하지 않는 문제가 있다.Since the buried roof detection method cuts the pavement surface for the installation of the loop detector, it can be one of the causes of road damage. have.

경북 파주시 교하동, 포천시 가산면 금현리에 설치된 과속 단속 카메라의 경우 지반 침하로 인해 루프가 단선돼 기능을 상실한 뒤 방치 되어 기능을 하지 못하고 있다. 그리고 검지기 시공 시, 차량을 통제해야하기 때문에 교통사고 및 교통 혼잡의 원인으로 작용하고 있다.In the case of speed cameras installed in Gyoha-dong, Paju-si, Pocheon-si, and Geumhyeon-ri, Gasan-myeon, Pocheon-si, the roof was disconnected due to ground subsidence and lost its function. In addition, when the detector is constructed, it is necessary to control the vehicle, which is a cause of traffic accidents and traffic congestion.

다른 검지 방식에 비해 정확도가 떨어지며 차종구분이 되지 않는다. 그리고 도로 포장 상태가 안 좋거나 철골 구조물과 같은 교량에는 감도의 저하 및 매설 깊이 확보의 불가로 설치가 불가하다는 한계가 있다. Compared to other detection methods, the accuracy is lower and the vehicle type is not distinguished. In addition, there is a limitation in that it cannot be installed on a bridge with poor pavement or a steel structure due to a decrease in sensitivity and the inability to secure a depth of burial.

레이더 기반의 교통단속 카메라는 레이더 센서 검지방식으로 동시 2차로 측정이 가능하며 비매설식이기 때문에 단속 효율성과 유지관리 측면에서 유리하다. 하지만, 전파의 산란, 반사, 왜곡이 일어나 오류에 따른 오단속 가능성이 있다. 그리고 먼 거리에서 측정하기 때문에 정확한 지점에 대한 속도 측정의 어려움이 있다.The radar-based traffic enforcement camera is a radar sensor detection method that allows simultaneous secondary measurement and is advantageous in terms of enforcement efficiency and maintenance because it is not buried. However, scattering, reflection, and distortion of radio waves occur, and there is a possibility of misregistration due to errors. And since it is measured from a long distance, it is difficult to measure the speed at an accurate point.

레이저 기반의 교통단속카메라는 비매설식으로 레이저광을 이용하여 검지를 한다. 레이저 검지방식은 측정거리가 길다는 장점이 있지만, 다른 차로를 주행하는 차량의 영향을 받기 때문에 다차로 검지가 불가능하다.The laser-based traffic enforcement camera is an unburied type that detects using laser light. The laser detection method has the advantage of having a long measurement distance, but multi-lane detection is not possible because it is affected by vehicles traveling in different lanes.

지방청마다 1~2대 수준이어서 장비 노후화가 심하며 장비 파손, 오류 등 고장이 발생하면 예비 장비가 없어 운용이 불가능한 상태다. 장비 고장으로 인해 2019년 경기북부지연에 설치된 이동식 무인단속 카메라를 이용한 단속 건수가 1분기 기준 2018년에 비해 10% 가량 감소했다고 한다.Each district office has one or two units, so equipment is aging severely. It is said that the number of crackdowns using mobile unmanned surveillance cameras installed in Jiyeon, northern Gyeonggi Province in 2019 due to equipment failure decreased by 10% compared to 2018 in the first quarter.

또한, 이동식 단속 카메라를 관리할 경찰 인력 부족 등의 문제로 카메라가 없는 빈 박스 부스로 방치되어 운용되고 있는 경우도 많다. In addition, there are many cases where the camera is left unattended as an empty box booth without a camera due to a problem such as a shortage of police personnel to manage the mobile enforcement cameras.

최근 민식이법 시행에 따라 전국의 모든 스쿨존은 무인단속카메라 설치가 의무화되었다. 현재 전국 스쿨존 1만6789곳 중 과속 단속용 무인카메라는 총820대가 설치돼 설치율이 4.9%에 불과하다. 이 때문에 정부는 2022년까지 전국 스쿨존에 무인단속카메라를 8,800대 추가 설치하겠다고 발표했으나 단속카메라 비용은 약 3,000만 원 정도로 정부와 지자체에서 부담이 크다.According to the recent enforcement of the Civil Code Act, it is mandatory to install unmanned surveillance cameras in all school zones across the country. Currently, a total of 820 unmanned speed cameras are installed among 16,789 school zones across the country, accounting for only 4.9% of the installation rate. For this reason, the government announced that it would install 8,800 additional unmanned enforcement cameras in school zones across the country by 2022, but the cost of enforcement cameras is about 30 million won, which is a heavy burden on the government and local governments.

비매설식 방식에는 레이저 센서와 레이더 센서 방식이 있다. 레이저 센서 검지방식의 경우 측정거리가 길다는 장점이 있지만 대형 차량이나 다른 차로를 주행하는 차량의 영향으로 단일 차로만 단속이 가능하다는 한계가 있다.The non-buried method includes a laser sensor and a radar sensor method. The laser sensor detection method has the advantage of a long measurement distance, but there is a limitation in that it is possible to crack down on only a single lane due to the influence of large vehicles or vehicles traveling in other lanes.

레이저 센서 검지방식의 경우, 넓은 거리와 더불어 다차로 검지가 된다는 장점이 있다. 하지만, 최대 동시 2차로까지 검지가 된다는 한계가 있으며, 전파의 산란, 반사, 왜곡 등으로 인한 오류로 오단속이 발생하여 검지율의 문제가 있다. 따라서 기존 레이더와 레이저 방식에서 개선되어 3차로 이상의 검지가 가능하고 오단속을 줄인 교통단속카메라가 필요하다.In the case of the laser sensor detection method, it has the advantage of being detected in multiple lanes with a wide distance. However, there is a limit in detecting up to a maximum of two lanes simultaneously, and there is a problem of detection rate due to an error due to scattering, reflection, distortion, etc. of radio waves. Therefore, there is a need for a traffic enforcement camera that is improved from the existing radar and laser methods to detect more than three lanes and reduces misguided speed.

또한, 스마트시티에 대비하여 과속 단속이라는 기능뿐만 아니라 ITS와 다양 한 교통 정보를 처리하고 교통 운영이 가능한 스마트한 무인교통장비가 개발 되어야 한다. 그리고 레이더나 특정 센서가 없어 가격이나 유지보수 비용이 적게 들어 전체 비용을 줄일 수 있어서 가격적인 측면에서도 유리하다.In addition, in preparation for a smart city, smart unmanned transportation equipment capable of handling ITS and various traffic information and traffic operation as well as the function of speeding enforcement should be developed. And because there is no radar or specific sensor, the price or maintenance cost is low, and the overall cost can be reduced, which is advantageous in terms of price.

대한민국 특허등록번호 제101967610000호Republic of Korea Patent Registration No. 101967610000

본 발명의 인공지능 및 딥러닝 기반의 다차로 영상 감시 및 단속장비에 대해서 일부 유사한 연구가 진행되고 있지만, 차량번호인식 알고리즘과 단일카메라와 실시간 컴퓨터 비전을 이용한 차량 객체 인식 및 속도 측정 소프트웨어를 탑재하여 정확성을 높이고, 제어기 없이 실시간 영상처리가 가능한 일체형(One-Body)으로 구성하여 기존 구조물을 이용하여 설치가 가능한 다목적의 무인교통단속장비를 개발하는 본 사업화 과제와는 완전히 차별된다. Although some similar studies are being conducted on the multi-lane video surveillance and enforcement equipment based on artificial intelligence and deep learning of the present invention, vehicle object recognition and speed measurement software using a vehicle number recognition algorithm and a single camera and real-time computer vision are installed. It is completely different from this commercialization task, which is to develop multi-purpose unmanned traffic enforcement equipment that can be installed using existing structures by increasing the accuracy and configuring it as a one-body system capable of real-time image processing without a controller.

본 발명에 따른 시스템은,The system according to the present invention comprises:

조명부;lighting unit;

영상촬영부;video recording unit;

제어부; 및control unit; and

통신부를 포함하며,including a communications department;

상기 제어부는 차량객체 인식부, 속도검출부, 차량번호 인식부, 교통정보 분석부를 포함하는 카메라를 활용한 딥러닝 기반 다차로 무인교통과속단속 시스템이다.The control unit is a deep learning-based multi-lane unmanned traffic speed enforcement system using a camera including a vehicle object recognition unit, a speed detection unit, a vehicle number recognition unit, and a traffic information analysis unit.

본 발명은 카메라 내에서 실시간 영상처리(Real-Time)를 통해 별도의 제어기가 필요 없이 서버와 통신을 통해 설치 장소에 구애받지 않고 복잡한 구조, 추가인력 없이 운용하는 시스템을 제공한다. The present invention provides a system that operates without a complicated structure and without additional manpower regardless of an installation location through communication with a server without the need for a separate controller through real-time image processing (Real-Time) within the camera.

도 1은 딥러닝 기반 무인교통단속장비 개요도.
도 2는 차량번호 인식방법 예시도.
도 3은 감응신호 정보의 예시도.
1 is a schematic diagram of an unmanned traffic enforcement device based on deep learning.
2 is an exemplary view of a vehicle number recognition method.
3 is an exemplary diagram of sensitive signal information.

본 발명은 아래의 기술적인 사항을 포함한다. The present invention includes the following technical matters.

단일카메라를 이용하여 차량 검지 알고리즘을 개발하고 이 차량 객체 위치 정보(거리)를 기반으로 한 딥러닝을 통해 일정 범위 내에서 다차로상 차량번호 인식과 차량 속도 측정 알고리즘을 구현하고 개발Develop a vehicle detection algorithm using a single camera, and implement and develop a multi-lane license plate number recognition and vehicle speed measurement algorithm within a certain range through deep learning based on this vehicle object location information (distance)

- 기존 차량검지시스템 기술(제품)조사- Existing vehicle detection system technology (product) research

- 요구사항 분석 및 도출- Analyze and derive requirements

- 딥러닝 기반 차량검지시스템 실용화 방안 연구- A study on the practical application of a deep learning-based vehicle detection system

- 다차로상의 차량 객체 인식 알고리즘 개발- Development of vehicle object recognition algorithm on multi-lane roads

- 다차로상의 차량 번호 인식 알고리즘 개발- Development of vehicle number recognition algorithm on multi-lane roads

- 다차로상의 차량 속도 측정 알고리즘 개발- Development of vehicle speed measurement algorithm on multi-lane roads

- 교통정보 추출 및 상황 검지 SW 개발- Traffic information extraction and situation detection SW development

- 도로관리자용 관제 및 관리 SW 개발- Development of control and management SW for road managers

개발된 SW와 알고리즘을 고해상도 카메라 하우징 내에 이식하여 스마트 카메라 시제품을 제작하고, 시제품을 도로현장에서 테스트하고 시범운영 및 보완을 통해 성능 평가와 인증을 받고 최종으로 단일카메라를 활용한 딥러닝 기반 무인교통과속 단속 장비를 개발하고 이를 상용화The developed SW and algorithm are transplanted into the high-resolution camera housing to produce a smart camera prototype, the prototype is tested on the road, and performance evaluation and certification are obtained through pilot operation and supplementation, and finally, deep learning-based unmanned transportation using a single camera. Developing speed control equipment and commercializing it

- 단일카메라 기반의 모듈 HW 설계 및 시제품 제작- Single camera-based module HW design and prototype production

- 스마트 카메라 내 차량 객체, 번호, 속도 알고리즘 이식- Vehicle object, number, and speed algorithm ported in smart camera

- 도로현장 자체 시험- Road site self-test

- 도로현장 시험에 다른 기능 및 성능 보완- Complementing other functions and performance in road field tests

- 최종 시제품 설계 및 제작- Final prototype design and production

- 시범운영 결과 평가 및 보완- Evaluation and supplementation of test operation results

- ITS 성능평가 및 도로교통공단 시험 인증- ITS performance evaluation and road traffic authority test certification

- 제품 상용화- Product commercialization

본 발명의 주요 알고리즘 및 시스템 설계, 및 차별화 포인트는 표 1과 같다. Table 1 shows the main algorithm and system design and differentiation points of the present invention.

알고리즘algorithm

Figure pat00001
딥러닝 알고리즘 기법의 하나인 YOLO(You O nly Look Once) 이용으로 이미지를 매우 빠르게 판단
Figure pat00002
PPM(Pixel Per Meter)을 사용하여 차량의 속 도를 감지하고 속도 계산은 추적된 차량이 이동 한 거리를 픽셀 단위로 0.2 초 단위로 계 산하여 구함
Figure pat00001
Judging images very quickly by using YOLO (You Only Look Once), one of the deep learning algorithm techniques
Figure pat00002
PPM (Pixel Per Meter) is used to detect the vehicle's speed, and the speed calculation is obtained by calculating the distance traveled by the tracked vehicle in pixels in units of 0.2 seconds. 시스템 설계 부분 system design part
Figure pat00003
초고해상도 카메라 렌즈 사용
Figure pat00004
별도의 센서 없이 초고해상도 카메라만 이용
Figure pat00005
별도의 제어장치기 없이 하나로 통합된 일체형
Figure pat00006
경쟁사 대비 감각적인 디자인
Figure pat00003
Use of ultra-high-resolution camera lenses
Figure pat00004
Use only ultra-high-resolution cameras without a separate sensor
Figure pat00005
All-in-one integrated into one without a separate control device
Figure pat00006
Sensational design compared to competitors
차별화 포인트 Differentiating points
Figure pat00007
일체형 단속카메라로 별도의 제어장치기 없 이 설치 가능하다.
Figure pat00008
딥러닝을 활용하여 교통단속 및 교통정보 분석을 한 다.
Figure pat00009
국내경쟁사들 대비 감각적인 디자인
Figure pat00007
It is an integrated surveillance camera and can be installed without a separate control device.
Figure pat00008
Traffic enforcement and traffic information analysis are performed using deep learning.
Figure pat00009
Sensual design compared to domestic competitors

본 발명의 주요 성능지표의 개요는 표 2와 같다. Table 2 summarizes the main performance indicators of the present invention.

이하에서 도면을 참조하면서 보다 상세하게 설명한다. 이에 따르면, 딥러닝 기반 무인교통단속장비는 도 1과 같은 구조로 이루어져 있으며, 딥러닝 기반의 모듈은 크게 4가지 부분으로 나뉘어 있다. Hereinafter, it will be described in more detail with reference to the drawings. According to this, the deep learning-based unmanned traffic enforcement equipment has a structure as shown in FIG. 1, and the deep learning-based module is divided into four parts. < 주요 성능지 표 개요 >< Overview of major performance indicators > 주요 성능지표1) Key performance indicators1) 단위unit 최종 개발목표2) Final development goal2) 기술개발 전
수준
Before technology development
level
세계최고수준 또는 수요처 요구수준3)
(해당기업)
The world's highest level or the level required by the customer3)
(Applicable company)
전체항목에서 차지하는 비중4)(%) Proportion of total items4)(%) 평가방법5)Evaluation method 5)
동시 단속 차로 Simultaneous interdiction lane 차로 by car 5차로5 lanes 2차로 2 lanes 경찰청National Police Agency 25 25 공인 성적서official transcript 위반차량 단속률Violation vehicle enforcement rate %% 90% 이상 over 90 80% 이상80% or more 경찰청 National Police Agency 55 공인 성적서 official transcript 속도 오차율 speed error rate %% 3% 이하 3% or less 5%5% 경찰청 National Police Agency 2525 공인 성적서 official transcript 과속단속 오류율 speeding error rate %% 1% 미만 less than 1% 2%2% 경찰청 National Police Agency 22 공인 성적서 official transcript 동시 인식 차로 simultaneous recognition lane 22 5차로 5 lanes 2차로2 lanes 경찰청 National Police Agency 2525 보고서 및 동영상 Reports and Videos 인식률 recognition rate %% 99% 이상 99% or more 95% 이상95% or more 경찰청 National Police Agency 1010 공인 성적서 official transcript < 시료 정의 및 측정방법 > < Sample definition and measurement method > 주요 성능지표 Key performance indicators 시료정의 sample definition 측정시료 수6)
(n≥5개)
Number of measurement samples6)
(n≥5 pieces)
측정방법7)(규격, 환경, 결과치 계산 등) Measurement method 7) (standard, environment, calculation of results, etc.)
위 반차량 단속률Anti-vehicle enforcement rate 완제품 1식1 meal of finished product 5 5 단속한 차량수(출력차량수) / (단속대상 차량 수 - 비정상 차량수)ㅧ100 Number of vehicles intercepted (number of output vehicles) / (Number of vehicles subject to enforcement - Number of abnormal vehicles)ㅧ100 속 도 오차율speed error rate 완제품 1식1 meal of finished product 5 5 60km/h 미만 : ㅁ3km/h 이하
50km/h 이상 ~ 80km/h 미만 : ㅁ4km/h 이하
80km/h 이상 ~ 100km/h 미만 : ㅁ5km/h 이하
100km/h 이상 : ㅁ5% 이 하
Less than 60km/h: Less than ㅁ3km/h
50km/h or more ~ 80km/h or less: ㅁ Less than 4km/h
80km/h or more ~ 100km/h or less: ㅁ Less than 5km/h
100km/h or more: ㅁ less than 5%
과속단속 오류율speeding error rate 완제품 1식 1 meal of finished product 55 과속 오단속 차량수 / 단속 차량수(출력차량수) ㅧ 100 Number of overspeeding and erroneous speeding vehicles / Number of intercepted vehicles (number of output vehicles) ㅧ 100 인식률 recognition rate 완제품 1식1 meal of finished product 5 5 인식률 = "100(%)-오차백분율(PE)"

Figure pat00010
(오차백분율 'PE' 식)
E = 분석단위시간 동안 해당 장비가 번호판을 오인식 또는 미인식(미검지 포함)한 차량 대수
Y = 분석단위시간동안 검지 한 유효차량 대수
분석단위시간 : 60분Recognition rate = "100 (%) - Percent error (PE)"
Figure pat00010
(Error percentage 'PE' formula)
E = The number of vehicles that the equipment misrecognized or did not recognize (including non-detection) the license plate during the analysis unit time
Y = number of valid vehicles detected during analysis unit time
Analysis unit time: 60 minutes

차량 객체 인식부는 10 MP 이상 의 영상촬영부의 카메라(동영상 카메라)가 실시간 고해상도 영상 촬영 을 할 때, 딥러닝을 통한 차량 객체 검출 및 인식, 학습을 한다. 정확 한 사물 (차종, 사람, 기타 물체) 구분이 가능하게 구현한다.The vehicle object recognition unit detects, recognizes, and learns vehicle objects through deep learning when the camera (video camera) of the 10 MP or larger image capturing unit records real-time high-resolution images. It is implemented so that it is possible to accurately classify objects (car model, people, and other objects).

조명부의 경우, 조도 조절을 하여 야간이 나 특정 환경에서 촬영 시에도 문제 없이 촬영되도록 한다. In the case of the lighting unit, the illuminance is adjusted so that there is no problem when shooting at night or in a specific environment.

차량 번호 인식부는 도 2와 같이 차량 번호판의 글자와 숫자를 인식하여 정보를 추 출하고 차량 구분과 동시에 각 차량의 번호판 정보를 통합해 제공한다. The vehicle number recognition unit recognizes the letters and numbers of the vehicle license plate as shown in FIG. 2 to extract information, classifies the vehicle, and integrates and provides the license plate information of each vehicle.

속도 검출부는 카메라 시야의 특정 지점을 지정하고 PPM(Pixer Per Meter) 을 사용하여 차량의 속도 를 감지하도록 한다. 속도 계산은 추적된 차량이 이동 한 거리를 픽셀 단위(한 프레임에서 차량이 이동 한 픽셀 거리)로 1초 단위로 계산하여 구한 다. 도로마다 폭 너비가 상이하기 때문에 값은 수동으로 부여한다. 잡영이나 왜곡, 조도 변화 등에 강해서 기존과 비교해 속도 오차율을 크게 줄일 수 있다.The speed detector designates a specific point of the camera's field of view and detects the vehicle's speed using PPM (Pixer Per Meter). The speed calculation is obtained by calculating the distance traveled by the tracked vehicle in units of pixels (pixel distance traveled by the vehicle in one frame) in units of 1 second. Since the width is different for each road, the value is assigned manually. It is strong against noise, distortion, and illuminance changes, so it can greatly reduce the speed error rate compared to the existing ones.

영상촬영 도중 단속 대상이 포 착될 경우, 따로 데이터(프레임)를 제어부를 통해 저장부(로컬서버)로 저장을 한다. 저장된 영상(프레임)은 딥러닝 모듈을 거쳐 제어부를 통 해 통신부로 전송이 되고 서버 전송 또는 관리자의 출력장치에 출력된다.In case an enforcement target is caught during video shooting, the data (frame) is separately saved to the storage unit (local server) through the control unit. The stored image (frame) is transmitted to the communication unit through the control unit through the deep learning module and is output to the server transmission or the manager's output device.

교통정보 분석부는 인식차량 및 교통량 데이터를 분석하여 감응신호를 판 단하는 부분으로 딥러닝을 통해 적절한 신호체계를 구축하도록 학습한다.(도 3)The traffic information analysis unit is the part that analyzes the recognized vehicle and traffic data to determine the sensitive signal, and learns to build an appropriate signal system through deep learning (Fig. 3).

딥러닝 구간이 지나면 학습한 데이터는 저장 부에 저장되고 제어부를 통해 통신부로 보내지고 통신망을 통해 외부 서버(경찰청)로 전송된다. After the deep learning section, the learned data is stored in the storage unit, sent to the communication unit through the control unit, and transmitted to an external server (National Police Agency) through the communication network.

도 4와 같이 딥러닝 알고리즘 기법은 현재까지 많은 것들이 개발되었다. R -CNN 또는 YOLO(You Only Look Once) 이전에는 물체인식(Object Dete ction) 알고리즘은 이미지 또는 영상 내 탐지에 있어서 상당한 시간과 자원이 요구되었으나 현재는 Fast R-CNN, SSD, YOLO처럼 과정을 효율화 하고 정확도, 속도 등을 증가시킨 알고리즘들이 등장했다.As shown in FIG. 4 , many deep learning algorithm techniques have been developed so far. Before R-CNN or YOLO (You Only Look Once), object detection algorithms required considerable time and resources for image or video detection, but now, like Fast R-CNN, SSD, and YOLO, the process is streamlined. Algorithms that increase accuracy and speed have emerged.

Fast R -CNN, SSD 등 알고리즘 기법은 이미지 처리에 있어서 정확성은 높지만 속도 가 느려서 실시간성(Real Time)을 보장하기 힘들다. 하지만, YOLO 의 경우 기존 객 체 인식 알고리즘과 다른 방법으로 단일 CNN로만 이미지 탐지 객체 탐지를 처리하 고 이미지 전체를 보고 판단하는 방식 덕분에 매우 빠른 속도를 자랑하여 현재는 v5가 개발되어 이전과 다르게 향상된 속도와 물체 감지 정확도를 지니고 있다. 따 라서 본 개발은 YOLO v5 알고리즘을 통해 개발 한다.Algorithms such as Fast R-CNN and SSD have high accuracy in image processing, but are slow, so it is difficult to guarantee real time. However, in the case of YOLO, it is very fast thanks to the method of processing image detection object detection only with a single CNN and judging by looking at the entire image, which is different from the existing object recognition algorithm. It has speed and object detection accuracy. Therefore, this development is developed through the YOLO v5 algorithm.

Claims (1)

조명부;
영상촬영부;
제어부; 및
통신부를 포함하며,
상기 제어부는 차량객체 인식부, 속도 검출부, 차량번호 인식부, 교통정보 분석부를 포함하는 카메라를 활용 한 딥러닝 기반 다차로 무인교통과속단속 시스템.
lighting unit;
video recording unit;
control unit; and
including a communications department;
The control unit is a deep learning-based multi-lane unmanned traffic speed enforcement system using a camera including a vehicle object recognition unit, a speed detection unit, a vehicle number recognition unit, and a traffic information analysis unit.
KR1020210011098A 2021-01-26 2021-01-26 Traffic monitoring system of multi lane based on deep learning using camera KR20220107875A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210011098A KR20220107875A (en) 2021-01-26 2021-01-26 Traffic monitoring system of multi lane based on deep learning using camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210011098A KR20220107875A (en) 2021-01-26 2021-01-26 Traffic monitoring system of multi lane based on deep learning using camera

Publications (1)

Publication Number Publication Date
KR20220107875A true KR20220107875A (en) 2022-08-02

Family

ID=82845850

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210011098A KR20220107875A (en) 2021-01-26 2021-01-26 Traffic monitoring system of multi lane based on deep learning using camera

Country Status (1)

Country Link
KR (1) KR20220107875A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240055509A (en) 2022-10-20 2024-04-29 주식회사 사로리스 An artificial intelligence enforcement system that processes multiple missions using a single camera and a method of using the same

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100196761B1 (en) 1995-10-05 1999-06-15 하나와 요시카즈 Continuously variable transmission control method and apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100196761B1 (en) 1995-10-05 1999-06-15 하나와 요시카즈 Continuously variable transmission control method and apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240055509A (en) 2022-10-20 2024-04-29 주식회사 사로리스 An artificial intelligence enforcement system that processes multiple missions using a single camera and a method of using the same

Similar Documents

Publication Publication Date Title
CN110570664B (en) Automatic detection system for highway traffic incident
CN112099040A (en) Whole-course continuous track vehicle tracking system and method based on laser radar network
WO2014172708A1 (en) Pedestrian right of way monitoring and reporting system and method
US20230260154A1 (en) Systems and Methods for Image-Based Location Determination and Parking Monitoring
TWI649729B (en) System and method for automatically proving traffic violation vehicles
CN104616502A (en) License plate identification and positioning system based on combined type vehicle-road video network
WO2023221425A1 (en) Ship lockage safety detection method
CN112883936A (en) Method and system for detecting vehicle violation
CN109035837B (en) Intelligent traffic system testing method based on unmanned aerial vehicle
CN111477011A (en) Detection device and detection method for road intersection early warning
CN105957341A (en) Wide area traffic jam detection method based on unmanned plane airborne platform
CN112083421B (en) Runway intrusion early warning system and method based on millimeter wave radar technology
CN117372979A (en) Road inspection method, device, electronic equipment and storage medium
KR20220107875A (en) Traffic monitoring system of multi lane based on deep learning using camera
Al-Hasan et al. Smart speed camera based on automatic number plate recognition for residential compounds and institutions inside Qatar
CN103018785A (en) Airfield runway foreign substance detecting system
CN115440071B (en) Automatic driving illegal parking detection method
KR102436111B1 (en) AI based event detection system targeting unlawful vehicle by using mobility system
CN116165655A (en) Global vehicle track tracking system based on millimeter wave radar group
CN111627224A (en) Vehicle speed abnormality detection method, device, equipment and storage medium
Govada et al. Road deformation detection
CN111599218A (en) Method for realizing river channel ship snapshot by adopting radar wave data
Wei et al. Adaptive video-based vehicle classification technique for monitoring traffic.
US11854221B2 (en) Positioning system and calibration method of object location
CN111383463B (en) Vehicle video detection device and method for overspeed evidence obtaining