KR102537818B1 - Traffic information management system for enhancing accuracy of sensing vehicle speed - Google Patents

Traffic information management system for enhancing accuracy of sensing vehicle speed Download PDF

Info

Publication number
KR102537818B1
KR102537818B1 KR1020220035094A KR20220035094A KR102537818B1 KR 102537818 B1 KR102537818 B1 KR 102537818B1 KR 1020220035094 A KR1020220035094 A KR 1020220035094A KR 20220035094 A KR20220035094 A KR 20220035094A KR 102537818 B1 KR102537818 B1 KR 102537818B1
Authority
KR
South Korea
Prior art keywords
vehicle
speed
distance
license plate
calculated
Prior art date
Application number
KR1020220035094A
Other languages
Korean (ko)
Inventor
박진용
강민수
김태영
Original Assignee
박진용
강민수
김태영
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박진용, 강민수, 김태영 filed Critical 박진용
Priority to KR1020220035094A priority Critical patent/KR102537818B1/en
Application granted granted Critical
Publication of KR102537818B1 publication Critical patent/KR102537818B1/en

Links

Images

Classifications

    • G06Q50/30
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/91Radar or analogous systems specially adapted for specific applications for traffic control
    • G01S13/92Radar or analogous systems specially adapted for specific applications for traffic control for velocity measurement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/052Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Business, Economics & Management (AREA)
  • Operations Research (AREA)
  • Tourism & Hospitality (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to a traffic information management system, which can accurately determine vehicle speed regardless of the vehicle driving speed by detecting the speed of vehicles using a radar sensor or LiDAR sensor, wherein when the vehicles are driving at low speeds, the system is configured to detect the speed of the vehicle through the image of a camera so the radar sensor or LiDAR sensor with excellent speed detection accuracy is used at normal times while when the vehicles are driving at low speeds to be close to each other, the system is configured to detect the speed of the vehicles through the image analysis of a camera with excellent object discrimination performance, and also can ensure the accuracy and reliability of vehicle speed detection through camera image analysis by being configured to calculate vehicle speed using the rate of change of a license plate image in the image captured by the camera.

Description

차량 속도 감지 정확성을 높인 교통정보 관리 시스템{Traffic information management system for enhancing accuracy of sensing vehicle speed}Traffic information management system for enhancing accuracy of sensing vehicle speed}

본 발명은 차량 속도 감지 정확성을 높인 교통정보 관리 시스템에 관한 것으로서, 상세하게로는 레이더센서 및 라이다센서 등의 감지수단을 이용하여 차량정보를 생성하되, 저속 차량의 경우, 분해능이 떨어지는 감지수단의 특성을 감안하여, 객체의 구별 성능이 뛰어난 카메라의 영상분석을 통해 차량속도를 산출함과 동시에 카메라에 촬영된 영상 내에서 번호판 이미지의 변동비율을 활용하여 차량의 속도를 산출하도록 구성됨으로써 차량 속도에 따라 선별적으로 분석 방법을 택일함에 따라 차량속도 검출 및 차량정보 생성의 정확성 및 신뢰도를 높일 수 있을 뿐만 아니라, 별도의 기준테이블을 사전에 설정하지 않아도 영상을 이용하여 차량속도를 산출할 수 있기 때문에 다양한 설치 높이 및 카메라 팬-틸트 각도와 연동하여 다양한 현장에 즉각적으로 사용 가능한 교통정보 관리 시스템에 관한 것이다.The present invention relates to a traffic information management system with improved vehicle speed detection accuracy, and more particularly, generates vehicle information using a sensing means such as a radar sensor and a lidar sensor, but detecting means having poor resolution in the case of a low-speed vehicle. Considering the characteristics of the object, the vehicle speed is calculated through image analysis of a camera with excellent object discrimination performance, and at the same time, the vehicle speed is calculated by utilizing the variation ratio of the license plate image in the video captured by the camera. By selecting an analysis method selectively according to the method, not only can the accuracy and reliability of vehicle speed detection and vehicle information generation be increased, but also vehicle speed can be calculated using images without setting a separate reference table in advance. Therefore, it relates to a traffic information management system that can be used immediately in various sites in conjunction with various installation heights and camera pan-tilt angles.

자동차의 대중화 및 도로 보급률이 기하급수적으로 증가함에 따라 차량 감지수단을 이용하여 차량정보를 수집한 후 수집된 차량정보를 기반으로 차량밀도, 정체률, 차량속도, 위반차량 등의 교통정보를 생성하여 생성된 교통정보를 종합적으로 관리 및 모니터링 하기 위한 지능형 교통시스템(ITS:Intelligent Transportation System)이 널리 사용되고 있다.As automobiles become more popular and road penetration increases exponentially, vehicle information is collected using vehicle detection means, and traffic information such as vehicle density, congestion rate, vehicle speed, and violating vehicles is generated based on the collected vehicle information. An Intelligent Transportation System (ITS) is widely used to comprehensively manage and monitor generated traffic information.

이러한 차량정보를 수집하기 위한 차량 감지방법으로는 레이더신호를 이용하는 방식과, 카메라를 이용하는 방식이 통상적으로 사용되고 있다.As a vehicle detection method for collecting such vehicle information, a method using a radar signal and a method using a camera are commonly used.

레이더신호를 이용하는 방식은 기 설정된 감지영역으로 송신된 레이더신호의 반사 신호를 수집한 후 수집된 반사 신호를 분석하여 차량정보를 수집하는 방식으로서, 차량위치 및 속도에 대한 검출의 정확도가 우수할 뿐만 아니라 외부 환경에 영향을 적게 받으며, 종 방향에 대한 객체 검출이 뛰어난 장점을 가진다. 그러나 이러한 레이더를 이용한 방식은 횡 방향에 대한 위치 및 속도 검출과, 객체에 대한 분류 및 정보 검출의 정확도가 떨어지는 단점을 가진다.The method using the radar signal is a method of collecting vehicle information by analyzing the collected reflected signal after collecting the reflected signal of the radar signal transmitted to the preset detection area, and has excellent detection accuracy for the vehicle position and speed. However, it is less affected by the external environment and has excellent object detection in the longitudinal direction. However, the method using such a radar has a disadvantage in that the accuracy of position and speed detection in the lateral direction and object classification and information detection is low.

카메라를 이용하는 방식은 카메라의 촬영에 의해 획득된 영상정보를 분석하여 차량정보를 수집하기 위한 장치로서, 객체 분류가 우수함과 동시에 객체 분류 및 정보 검출의 정확도가 우수하며, 횡 방향에 대한 위치 및 속도검출이 우수한 장점을 갖는다. 그러나 상기 카메라를 이용한 방식은 외부 환경에 영향을 쉽게 받으며, 거리 및 속도에 대한 검출 정확도가 레이더신호에 비교하여 상대적으로 떨어지는 단점을 갖는다.The method using a camera is a device for collecting vehicle information by analyzing image information obtained by shooting a camera, and has excellent object classification and excellent accuracy in object classification and information detection, and position and speed in the lateral direction Detection has the advantage of being excellent. However, the method using the camera is easily affected by the external environment, and has a disadvantage in that detection accuracy for distance and speed is relatively low compared to radar signals.

이에 따라 카메라 및 레이더 송수신기를 일체형으로 제작하여 영상정보 및 레이더신호를 분석하여 차량정보를 검출하기 위한 다양한 연구가 진행되고 있다.Accordingly, various studies are being conducted to detect vehicle information by manufacturing a camera and a radar transceiver as an integral type and analyzing image information and radar signals.

도 1은 국내등록특허 제10-1446546호(발명의 명칭 : 위치기반 실시간 차량정보 표시시스템)에 개시된 차량검지기를 나타내는 블록도이다.1 is a block diagram showing a vehicle detector disclosed in Korean Patent Registration No. 10-1446546 (title of invention: location-based real-time vehicle information display system).

도 1의 차량검지기(이하 종래기술이라고 함)(100)는 데이터들이 저장되는 데이터베이스부(102)와, 데이터를 송수신하는 데이터 송수신부(103)와, 레이더 송수신부(110)로부터 입력받은 레이더 신호를 분석하여 차량들 각각의 궤적을 검출하는 차량궤적 검출부(104)와, 차량궤적 검출부(104)에 의해 검출된 차량궤적정보를 기반으로 차량들 각각의 속도, 위치, 주행방향 및 앞차간거리 등을 포함하는 차량정보를 검출하는 차량정보 검출부(105)와, 차량정보 검출부(105)에 의해 검출된 차량정보들 중 차량속도 및 앞차간거리를 기 설정된 제한속도 및 안전거리에 비교하여 위반차량이 검출되면 돌발상황을 발생하는 돌발상황 발생부(106)와, 차량정보 검출부(105)에 의해 검출된 위치, 속도, 주행방향 및 앞차간거리들과 돌발상황 발생부(106)에 의해 검출된 위반차량에 대한 정보, 단말기 식별ID값, 감지영역(S)의 위치정보 및 촬영영역의 위치정보에 매칭시켜 위치기반 차량정보를 생성하는 위치기반 차량정보 생성부(107)와, 레이더 송수신부(110)를 제어하는 레이더 구동부(108)와, 촬영수단(120)을 제어하는 촬영수단 구동부(109)와, 이들 제어대상(102), (103), (104), (105), (106), (107), (108), (109)들을 제어하는 제어부(101)로 이루어진다.The vehicle detector (hereinafter referred to as the prior art) 100 of FIG. 1 includes a database unit 102 for storing data, a data transmission/reception unit 103 for transmitting and receiving data, and a radar signal received from the radar transmission/reception unit 110. Based on the vehicle trajectory information detected by the vehicle trajectory detection unit 104 that detects the trajectory of each vehicle by analyzing the vehicle trajectory detection unit 104, the speed, location, driving direction and distance between vehicles in front of each vehicle, etc. When a violating vehicle is detected by comparing the vehicle information detecting unit 105 for detecting vehicle information including the vehicle information and the vehicle speed and the distance between the vehicle in front of the vehicle information detected by the vehicle information detecting unit 105 to the preset speed limit and safety distance, The location, speed, driving direction, and distance between vehicles in front detected by the unexpected situation generating unit 106 and the vehicle information detection unit 105, and information about the violating vehicle detected by the unexpected situation generating unit 106 Controls the location-based vehicle information generation unit 107 and the radar transmission/reception unit 110 that generate location-based vehicle information by matching information, terminal identification ID value, location information of the detection area (S) and location information of the shooting area A radar driving unit 108 that controls the photographing means 120, a photographing means driving part 109 that controls the photographing means 120, and these control targets 102, 103, 104, 105, 106, and 107 , (108), (109) is composed of a control unit 101 for controlling.

또한 촬영수단(120)의 촬영에 의해 획득된 영상정보는 교통관리 서버로 전송되고, 교통관리 서버는 영상정보를 분석하여 차량 위치정보를 분석한 후 차량 위치정보를 위치기반 차량정보 생성부(107)에 의해 생성된 위치기반 차량정보에 매칭시킨다.In addition, the image information obtained by the photographing of the photographing means 120 is transmitted to the traffic management server, and the traffic management server analyzes the image information to analyze the vehicle location information, and then converts the vehicle location information into a location-based vehicle information generator 107 ) to match the location-based vehicle information generated by

이와 같이 종래기술(100)은 레이더검지기(110) 및 촬영수단(120)을 동시에 수행하여 정보를 수집한 후 수집된 차량정보를 매칭시켜 교통정보 사용자 인터페이스(200)를 통해 단말기로 전시함으로써 사용자에게 보다 정확한 교통정보를 제공할 수 있게 된다.In this way, the prior art 100 performs the radar detector 110 and the photographing means 120 at the same time to collect information, and then matches the collected vehicle information and displays it on a terminal through the traffic information user interface 200 to provide users with information. More accurate traffic information can be provided.

일반적으로, 레이더 신호의 분해능은 30 ~ 70cm의 오차범위를 갖기 때문에, 차량이 정체되어 전후방 연속되는 차량들이 밀집되는 현장에서는, 2대 이상의 차량들을 하나의 차량으로 감지하는 등의 에러 및 오류로 인해 차량속도 검출의 정확성이 떨어지는 특성을 갖는다.In general, since the resolution of the radar signal has an error range of 30 to 70 cm, in a field where vehicles are congested and consecutive vehicles are concentrated, due to errors and errors such as detecting two or more vehicles as one vehicle, The accuracy of vehicle speed detection is low.

즉 종래기술(100)은 단순히 레이더 신호만을 이용하여 객체를 감지하기 때문에 차량이 정체되는 환경의 경우, 차량감지에 에러 및 오류가 발생하여 차량속도 검출의 정확도가 떨어지는 구조적 한계를 갖는다.That is, since the prior art 100 simply detects an object using only a radar signal, in an environment where a vehicle is congested, errors and errors occur in vehicle detection, resulting in a structural limitation in which the accuracy of vehicle speed detection is reduced.

이러한 문제점을 극복하기 위하여, 레이더센서 이외에 카메라 등의 별도의 감지수단을 이용하여, 차량을 감지하도록 하는 듀얼 감지수단을 이용한 차량감지 시스템에 대한 다양한 연구가 진행되고 있다.In order to overcome this problem, various studies are being conducted on a vehicle detection system using a dual detection means to detect a vehicle using a separate detection means such as a camera in addition to a radar sensor.

특히, 최근 들어 영상분석 기술이 발달하고 카메라가 고도화됨에 따라, 영상분석을 이용한 차량감지 시스템에 대한 연구가 활발하게 진행되고 있다.In particular, as image analysis technology has recently developed and cameras have been advanced, research on vehicle detection systems using image analysis has been actively conducted.

도 2는 국내공개특허 제10-2017-0088692호(발명의 명칭 : 영상을 이용한 차량속도 산출장치 및 그 방법)에 개시된 개념도이다.2 is a conceptual diagram disclosed in Korean Patent Publication No. 10-2017-0088692 (Title of Invention: Apparatus and Method for Calculating Vehicle Speed Using Images).

도 2의 영상을 이용한 차량 속도 산출장치(이하 제2 종래기술이라고 함)(200)은 촬영부(210)에 의해 차량(120)이 촬영되며, 제1 시점(t1)에서 촬영된 제1 영상과, 제1 시점(t1)으로부터 소정 시간 경과된 제2 시점(t2)에서 촬영된 제2 영상을 통해 차량의 주행 속도를 산출한다.In the apparatus for calculating vehicle speed using the image of FIG. 2 (hereinafter referred to as the second prior art) 200, the vehicle 120 is photographed by the photographing unit 210, and the first image photographed at the first time point t1. And, the traveling speed of the vehicle is calculated through a second image captured at a second time point t2 after a predetermined time has elapsed from the first time point t1.

이때 제1 영상에서 촬영된 차량의 폭이 제1 폭, 제2 영상에서 촬영된 차량의 폭이 제2 폭이라고 할 때, 영상에서 촬영된 폭의 변화량은 차량의 실제 주행거리와 일정한 상관관계를 가지기 때문에 영상에 촬영된 폭의 변화량을 활용하여 차량의 주행거리를 계산할 수 있다.At this time, when the width of the vehicle photographed in the first image is the first width and the width of the vehicle photographed in the second image is the second width, the amount of change in the width photographed in the image has a certain correlation with the actual mileage of the vehicle. Therefore, it is possible to calculate the mileage of the vehicle by utilizing the amount of change in the width captured in the image.

이로 인해 제2 종래기술(200)은 주행거리 및 영상의 시간차(△t=t2-t1)를 통해 차량의 속도를 산출할 수 있다.Due to this, the second prior art 200 can calculate the speed of the vehicle through the mileage and the time difference (Δt=t2-t1) of the image.

그러나 이러한 제2 종래기술(200)은 제1 시점(t1)에서 촬영된 차량과 카메라 사이의 거리를 측정하기 위한 수단이 없기 때문에 차량의 폭의 변화량에 따른 주행거리를 계산식이 아닌 실측에 의해 작성된 테이블에 의해 산출되도록 구성된다.However, since the second prior art 200 does not have a means for measuring the distance between the camera and the vehicle photographed at the first point in time t1, the mileage according to the change in the width of the vehicle is prepared by actual measurement rather than a calculation formula. It is configured to be calculated by the table.

이로 인해 제2 종래기술(200)은 기존에 테이블이 작성된 조건(카메라의 높이, 각도, 거리 등)과 다른 조건에 카메라가 설치될 경우, 새로운 테이블을 작성하기 위하여 실측하는 과정이 추가로 진행되어 촬영부(210)를 설치 및 적용하는데 걸리는 시간이 증가할 뿐만 아니라 실측하는 과정에서 오차가 발생할 경우, 측정된 차량의 속도와 실제 차량속도가 다르게 측정되는 문제점을 갖는다.As a result, in the second prior art 200, when a camera is installed under conditions different from the existing table created conditions (camera height, angle, distance, etc.), a process of actual measurement is additionally performed to create a new table. Not only does the time taken to install and apply the photographing unit 210 increase, but also has a problem in that the measured vehicle speed and the actual vehicle speed are measured differently when an error occurs during the actual measurement process.

또한 제2 종래기술(200)은 외부의 진동, 충격, 바람 등에 의하여 촬영부(210)의 촬영각도가 변화될 경우, 변화된 촬영각도로 인하여 기존에 설정된 테이블과 촬영조건이 변경됨에 따라 측정되는 차량의 속도에 오차가 발생하게 되는 문제점을 갖는다.In addition, in the second prior art 200, when the shooting angle of the photographing unit 210 is changed due to external vibration, shock, wind, etc., a vehicle measured according to a change in a previously set table and photographing conditions due to the changed photographing angle It has a problem that an error occurs in the speed of .

즉 전술하였던 도 1의 종래기술(100)의 레이더 송수신부(110)에, 도 2의 촬영부(210)를 융합한다고 하더라도, 융합된 발명을 구현하기 위해서는, 카메라의 높이, 각도, 거리 등의 설치환경에 따른 기준테이블을 별도로 사전에 미리 설계해야하기 때문에 설치가 제한적이며, 실측하는 과정에서 오차가 발생할 경우, 측정된 차량의 속도와 실제 차량속도가 다르게 측정되는 문제점이 발생한다.That is, even if the photographing unit 210 of FIG. 2 is fused to the radar transceiver 110 of the prior art 100 of FIG. 1 described above, in order to implement the converged invention, the height, angle, distance, etc. of the camera Installation is limited because a reference table according to the installation environment must be designed separately in advance, and if an error occurs during the actual measurement process, the measured vehicle speed and the actual vehicle speed are measured differently.

본 발명은 이러한 문제를 해결하기 위한 것으로, 본 발명의 해결과제는 레이더센서 또는 라이다센서를 이용하여 차량들의 속도를 검출하되, 차량들이 저속으로 주행할 때, 카메라의 영상을 통해 차량의 속도를 검출하도록 구성됨으로써 평상시에는 속도 검출의 정확도가 우수한 레이더센서 또는 라이다센서를 이용하되, 차량들이 저속으로 주행하여 서로 인접하게 주행 중일 때에는 객체의 구별 성능이 뛰어난 카메라의 영상분석을 통해 차량의 속도를 검출함으로써 차량들의 주행속도와 관계없이 정확한 차량 속도를 검출할 수 있는 교통정보 관리 시스템을 제공하기 위한 것이다.The present invention is to solve this problem, and the problem of the present invention is to detect the speed of vehicles using a radar sensor or lidar sensor, but when the vehicles are traveling at low speed, the speed of the vehicle through the image of the camera As it is configured to detect, a radar sensor or lidar sensor with excellent speed detection accuracy is used in normal times, but when vehicles are driving at low speed and are driving close to each other, the speed of the vehicle is determined through image analysis of a camera with excellent object discrimination performance. It is an object of the present invention to provide a traffic information management system capable of accurately detecting vehicle speed regardless of the driving speed of vehicles by detecting it.

또한 본 발명의 다른 해결과제는 카메라에 촬영된 영상 내에서 번호판 이미지의 변동비율을 활용하여 차량의 속도를 산출하도록 구성됨으로써 카메라 영상분석에 의한 차량 속도 검출의 정확성 및 신뢰도를 확보할 수 있는 교통정보 관리 시스템을 제공하기 위한 것이다.In addition, another problem of the present invention is configured to calculate the speed of the vehicle by utilizing the rate of change of the license plate image in the image captured by the camera, thereby securing the accuracy and reliability of vehicle speed detection by camera image analysis. Traffic information It is intended to provide a management system.

또한 본 발명의 다른 해결과제는 차량의 주행거리를 측정하기 위한 정보인 기준거리 정보를 감지센서에 의해 지속적으로 획득할 수 있도록 구성됨으로써 다양한 각도 및 높이에 설치가 가능할 뿐만 아니라, 카메라의 팬-틸드 각도 및 높이가 외부의 진동 또는 충격에 의해 변화되어도 차량의 주행거리를 획득할 수 있는 교통정보 관리 시스템을 제공하기 위한 것이다.In addition, another problem of the present invention is configured to continuously acquire reference distance information, which is information for measuring the mileage of a vehicle, by a sensor, so that it can be installed at various angles and heights, as well as pan-tilt the camera. It is an object of the present invention to provide a traffic information management system capable of obtaining the mileage of a vehicle even when the angle and height are changed by external vibration or impact.

또한 본 발명의 다른 해결과제는 차량이 감지된 시점으로부터 복수개의 프레임들을 추출하며, 추출된 프레임들 내에 촬영된 번호판 이미지들과 차량이 감지된 시점의 프레임인 제1 프레임에서의 번호판 이미지의 크기를 비교하여 차량의 주행속도를 측정함으로써 일부 프레임에서 카메라의 진동 또는 충격에 의해 번호판이 정확하게 촬영되지 않았을 때에도 복수개의 프레임을 분석하여 주행속도를 산출하는 과정에서 오차가 발생되는 것을 방지할 수 있는 교통정보 관리 시스템을 제공하기 위한 것이다.In addition, another problem of the present invention is to extract a plurality of frames from the time when the vehicle is detected, and to determine the license plate images captured in the extracted frames and the size of the license plate image in the first frame, which is the frame at the time when the vehicle is detected. Traffic information that can prevent errors from occurring in the process of calculating the driving speed by analyzing a plurality of frames even when the license plate is not accurately captured due to camera vibration or impact in some frames by measuring the driving speed of the vehicle by comparing them It is intended to provide a management system.

상기 과제를 해결하기 위한 본 발명의 해결수단은 기 설정된 영역의 차량을 감지한 후, 감지차량의 속도를 산출 하는 적어도 하나 이상의 촬영부를 포함하는 교통정보 관리 시스템에 있어서: 상기 촬영부는 기 설정된 영역을 감지하는 감지수단; 기 설정된 영역을 촬영하는 카메라; 상기 감지수단 및 상기 카메라로부터 입력된 데이터를 분석하여, 차량을 감지한 후, 감지차량의 속도를 검출하며, 상기 감지수단으로부터 수신 받은 감지데이터를 분석하여 차량의 속도를 검출하되, 감지차량의 속도가 기 설정된 값 이하일 때, 상기 카메라로부터 획득된 영상정보를 분석하여 차량의 속도를 산출하는 컨트롤러; 차량 감지 시, 감지신호를 분석하여, 상기 카메라로부터 감지차량과의 평면상 직선거리인 감지거리(Ds)를 산출하며, 산출된 감지거리(Ds) 정보를 포함하는 감지정보를 생성하여 상기 컨트롤러로 출력하는 보조센서를 포함하고, 상기 컨트롤러는 입력영상으로부터 차량객체를 검출한 후, 검출된 차량객체로부터 차량 번호판을 추출하는 알고리즘인 번호판 추출 알고리즘이 저장되는 메모리; 상기 감지수단으로부터 획득된 감지정보를 분석하여 차량의 속도를 검출하는 감지수단 기반 속도검출부; 상기 카메라로부터 획득된 영상정보를 분석하여 차량의 속도를 검출하는 영상기반 속도검출부; 상기 감지수단 기반 속도검출부로부터 검출된 차량의 속도인 제1 차량속도(C1)를 최종 속도값으로 결정하되, 제1 차량속도(C1)가 기 설정된 임계속도값 이하일 때, 상기 영상기반 속도검출부로부터 검출된 차량 속도인 제2 차량속도(C2)를 최종 속도값으로 결정하는 속도결정부를 포함하고, 상기 영상기반 속도검출부는 상기 카메라의 촬영에 의해 획득된 영상으로부터 차량이 감지된 시점(t1)의 프레임인 제1 프레임(F1)과, 기 설정된 설정시간(T1)이 경과된 시점(t2)의 프레임인 제2 프레임(F2)을 추출하는 프레임 추출부; 상기 프레임 추출부에 의해 추출된 제1, 2 프레임(F1), (F2)들로부터 번호판이미지(B1), (B2)들을 각각 추출하며, 추출된 제1, 2 번호판 이미지(B1), (B2)들을 활용하여 변동비율(Z)을 산출한 후, 변동비율(Z)에 비례하여 감지차량의 주행거리(Dx)가 증가하는 특성을 감안하여, 산출된 변동비율(Z)과 상기 보조센서로부터 입력된 감지거리(Ds)를 활용하여 감지차량의 주행거리(Dx)를 산출하는 프레임 분석부; 상기 프레임 분석부에 의해 산출된 감지차량의 주행거리(Dx)를 설정시간(T1)으로 나누어 차량의 주행속도(v)를 산출하는 주행속도 산출부를 포함하는 것이다.The solution of the present invention for solving the above problems is a traffic information management system including at least one photographing unit for detecting a vehicle in a preset area and then calculating the speed of the detected vehicle: sensing means for detecting; a camera that captures a preset area; The vehicle is detected by analyzing the data input from the sensing means and the camera, and then the speed of the sensing vehicle is detected, and the speed of the sensing vehicle is detected by analyzing the sensing data received from the sensing means. a controller for calculating the speed of the vehicle by analyzing the image information obtained from the camera when is less than a preset value; When detecting a vehicle, the detection signal is analyzed to calculate the detection distance (Ds), which is a straight-line distance on a plane from the camera to the detected vehicle, and the detection information including the calculated detection distance (Ds) information is generated and transferred to the controller. A memory for storing a license plate extraction algorithm, which is an algorithm for extracting a vehicle license plate from the detected vehicle object after detecting a vehicle object from an input image; a sensing means-based speed detection unit for detecting a speed of the vehicle by analyzing the sensing information obtained from the sensing means; an image-based speed detector for detecting the speed of the vehicle by analyzing the image information obtained from the camera; The first vehicle speed C1, which is the speed of the vehicle detected by the sensing unit-based speed detection unit, is determined as a final speed value, and when the first vehicle speed C1 is equal to or less than a preset threshold speed value, the image-based speed detection unit determines A speed determination unit for determining a second vehicle speed C2, which is the detected vehicle speed, as a final speed value, and the image-based speed detection unit determines the time point t1 when the vehicle is detected from the image obtained by the camera. a frame extraction unit for extracting a first frame F1, which is a frame, and a second frame F2, which is a frame at a time point t2 when a preset time T1 has elapsed; License plate images (B1) and (B2) are extracted from the first and second frames (F1) and (F2) extracted by the frame extraction unit, respectively, and the extracted first and second license plate images (B1) and (B2) are extracted. After calculating the variation ratio (Z) using ), considering the characteristic that the mileage (Dx) of the detected vehicle increases in proportion to the variation ratio (Z), from the calculated variation ratio (Z) and the auxiliary sensor a frame analyzer that calculates a travel distance Dx of the detected vehicle by utilizing the input detected distance Ds; and a traveling speed calculating unit for calculating the traveling speed v of the vehicle by dividing the traveling distance Dx of the detected vehicle calculated by the frame analyzing unit by the set time T1.

삭제delete

또한 본 발명에서 상기 속도결정부는 상기 감지수단 기반 속도검출부 및 상기 영상기반 속도검출부로부터 제1 차량속도(C1) 및 제2 차량속도(C2)를 추출하는 속도값 추출모듈; 제1 차량속도(C1)를 기 설정된 임계속도값과 비교하는 비교모듈; 제1 차량속도(C1)가 기 설정된 임계속도값 이상일 경우에는 제1 차량속도(C1)를 최종 속도값으로 결정하되, 제1 차량속도(C1)가 임계속도값 미만일 때, 제2 차량속도(C2)를 최종 속도값으로 결정하는 결정모듈을 포함하는 것이 바람직하다.In the present invention, the speed determination unit includes a speed value extraction module for extracting a first vehicle speed C1 and a second vehicle speed C2 from the sensing means-based speed detection unit and the image-based speed detection unit; a comparison module that compares the first vehicle speed C1 with a preset threshold speed value; When the first vehicle speed C1 is greater than or equal to the preset threshold speed value, the first vehicle speed C1 is determined as the final speed value, but when the first vehicle speed C1 is less than the threshold speed value, the second vehicle speed ( It is preferable to include a decision module for determining C2) as the final speed value.

삭제delete

또한 본 발명에서 상기 프레임 분석부는 상기 번호판 추출 알고리즘을 이용하여, 제1 프레임(F1)으로부터 차량객체를 검출한 후, 검출된 차량객체로부터 제1 번호판 이미지(B1)를 추출하며, 상기 번호판 추출 알고리즘을 이용하여 제2 프레임(F2)으로부터 제2 번호판 이미지(B2)를 추출하는 번호판 이미지 추출모듈; 상기 번호판 이미지 추출모듈에 의해 추출된 제1, 2 번호판 이미지(B1), (B2)들의 크기들을 산출한 후, 산출된 제1, 2 번호판 이미지(B1), (B2)들의 크기들을 이용하여 변동비율(Z)을 산출하는 변동비율 산출모듈; 변동비율(Z)에 비례하여 감지차량의 주행거리(Dx)가 증가하는 특성을 감안하여, 상기 변동비율 산출모듈에 의해 산출된 변동비율(Z)과 상기 보조센서로부터 입력된 감지거리(Ds)를 활용하여 감지차량의 주행거리(Dx)를 산출하는 주행거리 산출모듈을 포함하는 것이 바람직하다.In addition, in the present invention, the frame analysis unit detects a vehicle object from the first frame (F1) using the license plate extraction algorithm, and then extracts the first license plate image (B1) from the detected vehicle object, and the license plate extraction algorithm License plate image extraction module for extracting the second license plate image (B2) from the second frame (F2) by using; After calculating the sizes of the first and second license plate images (B1) and (B2) extracted by the license plate image extraction module, the size of the first and second license plate images (B1) and (B2) calculated is used to change the size. a variable ratio calculation module that calculates a ratio (Z); Considering the characteristic that the driving distance (Dx) of the detected vehicle increases in proportion to the variation ratio (Z), the variation ratio (Z) calculated by the variation ratio calculation module and the sensing distance (Ds) input from the auxiliary sensor It is preferable to include a mileage calculation module that calculates the mileage Dx of the detected vehicle by utilizing .

또한 본 발명에서 상기 프레임 분석부는 상기 번호판 이미지 추출모듈 이후에 실행되는 픽셀수 산출모듈을 더 포함하고, 상기 픽셀수 산출모듈은 상기 번호판 이미지 추출모듈에 의해 추출된 제1 번호판 이미지(B1)의 가로방향 픽셀수인 제1 가로픽셀수(Pb1)와, 상기 번호판 이미지 추출모듈에 의해 추출된 제2 번호판 이미지(B2)의 가로방향 픽셀수인 제2 가로픽셀수(Pb2)를 산출하고, 상기 변동비율 산출모듈은 상기 픽셀수 산출모듈에 의해 산출된 제2 가로픽셀수(Pb2)를, 상기 픽셀수 산출모듈에 의해 산출된 제1 가로픽셀수(Pb1)로 나누어 변동비율(Z)을 산출하는 것이 바람직하다.In addition, in the present invention, the frame analysis unit further includes a pixel number calculation module executed after the license plate image extraction module, and the pixel number calculation module is the width of the first license plate image B1 extracted by the license plate image extraction module. A first number of horizontal pixels (Pb1), which is the number of pixels in a direction, and a second number of horizontal pixels (Pb2), which is the number of pixels in a horizontal direction of the second license plate image (B2) extracted by the license plate image extraction module, are calculated, and the variation The ratio calculation module divides the second number of horizontal pixels (Pb2) calculated by the number of pixels calculation module by the number of first horizontal pixels (Pb1) calculated by the number of pixels calculation module to calculate the variation ratio (Z). it is desirable

또한 본 발명에서 상기 주행거리 산출모듈은 상기 변동비율 산출모듈에 의해 산출된 변동비율(Z)과 상기 보조센서로부터 입력된 감지거리(Ds)를 다음의 수학식 1에 대입하여 차량의 주행거리(Dx)를 산출하는 것이 바람직하다.In the present invention, the mileage calculation module substitutes the variation ratio (Z) calculated by the variation ratio calculation module and the sensing distance (Ds) input from the auxiliary sensor into the following Equation 1 to determine the mileage of the vehicle ( Dx) is preferably calculated.

또한 본 발명에서 상기 프레임 추출부는 상기 보조센서에 의해 차량이 감지된 시점(t1)으로부터 기 설정된 설정시간(T2, T3, …, Tn)들이 경과된 시점(t3, t4, …, tn+1)들의 프레임(F3, F4, …, tn)들을 추가로 추출하고, 상기 프레임 분석부는 상기 프레임 추출부로부터 추가로 추출된 프레임(F3, F4, …, tn)들로부터 번호판 이미지들을 각각 추출하며, 추출된 번호판 이미지들의 가로픽셀수를 산출하여 수학식 1에 대입함으로써 감지차량의 주행거리(Dx2, Dx3, …, Dxn)들을 추가로 산출하고, 상기 주행속도 산출부는 상기 프레임 분석부에 의해 산출된 감지차량의 각 주행거리(Dx, Dx2, Dx3, …, Dxn)들을 대응되는 설정시간(T1, T2, T3, …, Tn)으로 나누어 차량의 주행속도(v1, v2, …, vn)들을 산출하며, 산출된 주행속도(v1, v2, …, vn)들의 평균값인 평균 주행속도(va)를 산출한 후, 산출된 평균 주행속도(va)를 해당 감지차량의 주행속도(v)로 결정하는 것이 바람직하다.In addition, in the present invention, the frame extraction unit determines the time point (t3, t4, ..., tn + 1) when the predetermined set times (T2, T3, ..., Tn) have elapsed from the time point (t1) when the vehicle is detected by the auxiliary sensor The frames (F3, F4, ..., tn) are further extracted, and the frame analysis unit extracts license plate images from the additionally extracted frames (F3, F4, ..., tn) from the frame extraction unit, respectively, and extracts By calculating the number of horizontal pixels of the license plate images and substituting them into Equation 1, the traveling distances (Dx2, Dx3, ..., Dxn) of the detected vehicle are additionally calculated, and the traveling speed calculation unit detects the detection calculated by the frame analysis unit. Divide each mileage (Dx, Dx2, Dx3, ..., Dxn) of the vehicle by the corresponding set time (T1, T2, T3, ..., Tn) to calculate the vehicle's traveling speed (v1, v2, ..., vn) , After calculating the average driving speed (va), which is the average value of the calculated driving speeds (v1, v2, ..., vn), the calculated average driving speed (va) is determined as the driving speed (v) of the detected vehicle. desirable.

또한 본 발명에서 상기 프레임 분석부는 상기 번호판 추출 알고리즘을 활용하여 상기 제1 프레임(F1)으로부터 제1 번호판 이미지(B1)를 추출하며, 상기 제2 프레임(F2)으로부터 제2 번호판 이미지(B2)를 추출하는 번호판 이미지 추출모듈; 상기 제1 번호판 이미지(B1)로부터 좌측변의 픽셀수인 제1 좌측변 픽셀수(L1)와, 우측변의 픽셀수인 제1 우측변 픽셀수(R1)를 추출하며, 상기 제2 번호판 이미지(B2)로부터 좌측변의 픽셀수인 제2 좌측변 픽셀수(L2)와 우측변의 픽셀수인 제2 우측변 픽셀수(R2)를 산출하는 픽셀수 산출모듈; 제2 좌측변 픽셀수(L2)를 제1 좌측변 픽셀수(L1)로 나누어 좌측변의 변동비율을 산출하며 산출된 좌측변의 변동비율과 상기 보조센서로부터 입력된 감지거리(Ds)를 다음의 수학식 2에 대입하여 좌측변간 거리값(D2)을 산출하며, 제2 우측변 픽셀수(R2)를 제1 우측변 픽셀수(R1)로 나누어 우측변의 변동비율을 산출하며 산출된 우측변의 변동비율과 상기 보조센서로부터 입력된 감지거리(Ds)를 다음의 수학식 2에 대입하여 우측변간 거리값(D3)을 산출하며, 산출된 좌측변간 거리값(D2)과 우측변간 거리값(D3)의 평균값인 평균거리값(D4)을 산출한 후, 산출된 평균거리값(D4)을 산출한 후, 산출된 평균거리값(D4)을 주행거리(Dx)로 결정하는 주행거리 산출모듈을 포함하는 것이 바람직하다.In addition, in the present invention, the frame analysis unit extracts the first license plate image (B1) from the first frame (F1) by utilizing the license plate extraction algorithm, and extracts the second license plate image (B2) from the second frame (F2). License plate image extraction module to extract; From the first license plate image B1, a first left side pixel number L1, which is the number of pixels on the left side, and a first right side pixel number R1, which is the number of pixels on the right side, are extracted, and the second license plate image B2 a pixel number calculation module for calculating a second left side pixel number (L2), which is the number of pixels on the left side, and a second right side pixel number (R2), which is the number of pixels on the right side, from ); The variation rate of the left side is calculated by dividing the second left side pixel number L2 by the first left side pixel number L1, and the calculated left side variation rate and the sensing distance Ds input from the auxiliary sensor are calculated by the following arithmetic The distance value D2 between the left sides is calculated by substituting into Equation 2, and the variation rate of the right side is calculated by dividing the second right side pixel number R2 by the first right side pixel number R1, and the calculated right side variation rate and the sensing distance Ds input from the auxiliary sensor are substituted into the following Equation 2 to calculate the right edge distance value D3, and the calculated left edge distance value D2 and the right edge distance value D3 After calculating the average distance value (D4), which is the average value, and then calculating the calculated average distance value (D4), including a mileage calculation module for determining the calculated average distance value (D4) as the mileage (Dx) it is desirable

또한 본 발명에서 상기 메모리에는 영상분석의 정확성을 높일 수 있는 제2 번호판 이미지(B2)의 프레임 상 위치인 최적영역의 위치정보가 기 설정되어 저장되고, 상기 컨트롤러는 기 설정된 주기(T’) 마다 실행되는 설정시간 최적화부를 더 포함하고, 상기 설정시간 최적화부는 상기 최적영역에 매칭되는 실제 도로 상의 상기 카메라와의 평면상의 직선거리인 최적거리를 산출하는 최적거리 산출모듈; 상기 메모리로부터 주기(T’)동안 상기 주행속도 산출부에 의해 산출된 차량들의 주행속도(v) 데이터들을 추출하며, 추출된 주행속도(v)들의 평균값인 평균주행속도(V)를 산출하는 평균주행속도 산출모듈; 상기 평균주행속도 산출모듈에 의해 산출된 평균주행속도(V)와, 기 설정된 설정시간(T1)을 곱한 값인 평균주행거리(Da)를 산출하는 평균주행거리 산출모듈; 감지거리(Ds)로부터 상기 평균주행거리 산출모듈에 의해 산출된 평균주행거리(Da)를 차감하여 평균거리를 산출하는 평균거리 산출모듈; 상기 평균거리 산출모듈에 의해 산출된 평균거리로부터 상기 최적거리 산출모듈에 의해 산출된 최적거리를 차감하여 차이값을 산출하는 차이값 산출모듈; 상기 차이값 산출모듈에 의해 산출된 차이값의 절대값과, 설정시간(T1)을 재설정해야 한다고 판단할 수 있는 차이값의 최소값인 임계거리값을 비교하며, 1)차이값의 절대값이 임계거리값 미만이면, 설정시작(T1)을 재설정할 필요가 없다고 판단하되, 2)차이값의 절대값이 임계거리값 이상이면, 설정시간(T1)의 재설정이 필요하다고 판단하는 제2 판단모듈; 상기 제2 판단모듈에 의해 설정시간(T1)의 재설정이 필요하다고 판단될 때 실행되며, 1)차이값이 양수이면, 설정시간(T1)을 기 설정된 상수‘α’ 만큼 증가시키며, 2)차이값이 음수이면, 설정시간(T1)을 상수‘α’ 만큼 감소시키는 설정시간 재설정모듈을 포함하는 것이다.In addition, in the present invention, the location information of the optimal region, which is the position on the frame of the second license plate image (B2), which can increase the accuracy of image analysis, is preset and stored in the memory, and the controller is configured for every preset period (T'). A set time optimizer further comprising: an optimal distance calculation module for calculating an optimal distance, which is a linear distance on a plane with the camera on an actual road matched to the optimal region; The driving speed (v) data of the vehicles calculated by the driving speed calculator during the period (T') is extracted from the memory, and the average driving speed (V), which is the average value of the extracted driving speeds (v), is calculated. driving speed calculation module; an average traveling distance calculating module that calculates an average traveling distance (Da) obtained by multiplying the average traveling speed (V) calculated by the average traveling speed calculating module and a predetermined set time (T1); an average distance calculation module that calculates an average distance by subtracting the average travel distance Da calculated by the average travel distance calculation module from the detection distance Ds; a difference calculation module for calculating a difference value by subtracting the optimum distance calculated by the optimum distance calculation module from the average distance calculated by the average distance calculation module; The absolute value of the difference value calculated by the difference value calculation module is compared with the threshold distance value, which is the minimum value of the difference value that can determine that the set time T1 needs to be reset, and 1) the absolute value of the difference value is critical If it is less than the distance value, it is determined that there is no need to reset the setting start (T1), 2) if the absolute value of the difference value is greater than or equal to the threshold distance value, a second determination module that determines that the setting time (T1) needs to be reset; It is executed when it is determined that the resetting of the set time T1 is necessary by the second determination module. 1) If the difference value is a positive number, the set time T1 is increased by a predetermined constant 'α', and 2) the difference If the value is a negative number, a setting time resetting module that reduces the setting time T1 by a constant 'α' is included.

또한 본 발명에서 상기 최적거리 산출모듈은 상기 주기(T’) 동안 수집된 제2 프레임(F2)들을 추출한 후, 추출된 제2 프레임(F2)들 중 제2 번호판 이미지가 기 설정된 최적영역에 배치되는 프레임들인 선별프레임들을 추출하는 선별프레임 추출모듈; 상기 선별프레임 추출모듈에 의해 추출된 선별프레임들에 의한 분석데이터들을 추출한 후, 추출된 각 선별프레임의 분석데이터들로부터, 상기 카메라로부터 제2 번호판 이미지까지의 평면상 직선거리인 제2 감지거리 정보를 추출하는 제2 감지거리 추출모듈; 상기 제2 감지거리 추출모듈에 의해 추출된 제2 감지거리들의 평균값을 산출한 후, 산출된 제2 감지거리들의 평균값을 최적거리로 결정하는 최적거리 결정모듈을 포함하는 것이 바람직하다.In addition, in the present invention, the optimal distance calculation module extracts the second frames F2 collected during the period T', and then, among the extracted second frames F2, the second license plate image is placed in a preset optimal area. a selection frame extraction module for extracting selection frames, which are frames; After extracting the analysis data by the selection frames extracted by the selection frame extraction module, the second sensing distance information, which is a straight-line distance on a plane from the camera to the second license plate image, from the analysis data of each selection frame extracted. A second sensing distance extraction module for extracting; It is preferable to include an optimum distance determination module that calculates an average value of the second sensing distances extracted by the second sensing distance extraction module and then determines the average value of the calculated second sensing distances as an optimum distance.

상기 과제와 해결수단을 갖는 본 발명에 따르면 레이더센서 또는 라이다센서를 이용하여 차량들의 속도를 검출하되, 차량들이 저속으로 주행할 때, 카메라의 영상을 통해 차량의 속도를 검출하도록 구성됨으로써 평상시에는 속도 검출의 정확도가 우수한 레이더센서 또는 라이다센서를 이용하되, 차량들이 저속으로 주행하여 서로 인접하게 주행 중일 때에는 객체의 구별 성능이 뛰어난 카메라의 영상분석을 통해 차량의 속도를 검출함으로써 차량들의 주행속도와 관계없이 정확한 차량 속도를 검출할 수 있게 된다.According to the present invention having the above problems and solutions, the speed of vehicles is detected using a radar sensor or lidar sensor, but when the vehicles are traveling at low speed, the speed of the vehicle is detected through the image of the camera, so that it is normally A radar sensor or lidar sensor with excellent speed detection accuracy is used, but when vehicles are driving at low speeds and are driving close to each other, the vehicle speed is detected through image analysis of a camera with excellent object discrimination performance, thereby detecting the driving speed of vehicles. Regardless, it is possible to accurately detect the vehicle speed.

또한 본 발명에 의하면 카메라에 촬영된 영상 내에서 번호판 이미지의 변동비율을 활용하여 차량의 속도를 산출하도록 구성됨으로써 카메라 영상분석에 의한 차량 속도 검출의 정확성 및 신뢰도를 확보할 수 있게 된다.In addition, according to the present invention, it is possible to secure the accuracy and reliability of vehicle speed detection by camera image analysis by being configured to calculate the speed of the vehicle by utilizing the rate of change of the license plate image in the image captured by the camera.

또한 본 발명에 의하면 차량의 주행거리를 측정하기 위한 정보인 기준거리 정보를 감지센서에 의해 지속적으로 획득할 수 있도록 구성됨으로써 다양한 각도 및 높이에 설치가 가능할 뿐만 아니라, 카메라의 팬-틸드 각도 및 높이가 외부의 진동 또는 충격에 의해 변화되어도 차량의 주행거리를 획득할 수 있게 된다.In addition, according to the present invention, reference distance information, which is information for measuring the mileage of a vehicle, is configured to be continuously obtained by a sensor, so that it can be installed at various angles and heights, as well as the pan-tilt angle and height of the camera. The mileage of the vehicle can be obtained even when is changed by external vibration or impact.

또한 본 발명에 의하면 차량이 감지된 시점으로부터 복수개의 프레임들을 추출하며, 추출된 프레임들 내에 촬영된 번호판 이미지들과 차량이 감지된 시점의 프레임인 제1 프레임에서의 번호판 이미지의 크기를 비교하여 차량의 주행속도를 측정함으로써 일부 프레임에서 카메라의 진동 또는 충격에 의해 번호판이 정확하게 촬영되지 않았을 때에도 복수개의 프레임을 분석하여 주행속도를 산출하는 과정에서 오차가 발생되는 것을 방지할 수 있게 된다.In addition, according to the present invention, a plurality of frames are extracted from the time when the vehicle is detected, and the license plate images captured in the extracted frames are compared with the size of the license plate image in the first frame, which is the frame at the time when the vehicle is detected. By measuring the driving speed of the camera, it is possible to prevent errors from occurring in the process of calculating the driving speed by analyzing a plurality of frames even when the license plate is not accurately photographed due to vibration or impact of the camera in some frames.

도 1은 국내등록특허 제10-1446546호(발명의 명칭 : 위치기반 실시간 차량정보 표시시스템)에 개시된 차량검지기를 나타내는 블록도이다.
도 2는 국내공개특허 제10-2017-0088692호(발명의 명칭 : 영상을 이용한 차량속도 산출장치 및 그 방법)에 개시된 개념도이다.
도 3은 본 발명의 교통정보 관리 시스템의 구성도이다.
도 4는 도 3의 촬영부를 설명하기 위한 예시도이다.
도 5는 도 3의 다른 예시도이다.
도 6은 도 3의 또 다른 예시도이다.
도 7은 도 2의 컨트롤러의 블록도이다.
도 8은 도 7의 감지수단 기반 속도검출부의 블록도이다.
도 9는 도 7의 속도 결정부의 블록도이다.
도 10은 도 7의 영상기반 속도검출부의 블록도이다.
도 11은 도 10의 프레임 분석부의 블록도이다.
도 12는 제1 프레임의 예시도이다.
도 13은 제2 프레임의 예시도이다.
도 14는 차량의 속도가 산출되는 과정을 설명하기 위한 예시도이다.
도 15는 수학식 2를 산출하는 과정을 설명하기 위한 예시도이다.
도 16은 도 7의 컨트롤러의 제2 실시예인 제2 컨트롤러의 블록도이다.
도 17은 도 16의 영상기반 속도검출부의 제2 실시예인 제2 영상기반 속도검출부의 블록도이다.
도 18은 도 11의 프레임 분석부의 제3 실시예인 제3 프레임 분석부의 블록도이다.
도 19는 도 18의 제2 주행거리 산출모듈의 블록도이다.
도 20은 제3 프레임 분석부에 의해 주행거리가 산출되는 과정을 설명하기 위한 번호판의 예시도이다.
도 21은 도 10의 영상기반 속도검출부의 제3 실시예인 제3 영상기반 속도검출부의 블록도이다.
도 22는 도 21의 설정시간 최적화부의 블록도이다.
도 23은 도 22의 최적거리 산출모듈의 블록도이다.
도 24는 최적거리를 설명하기 위한 예시도이다.
도 25는 측면에서 촬영된 차량의 예시도이다.
1 is a block diagram showing a vehicle detector disclosed in Korean Patent Registration No. 10-1446546 (title of invention: location-based real-time vehicle information display system).
2 is a conceptual diagram disclosed in Korean Patent Publication No. 10-2017-0088692 (Title of Invention: Apparatus and Method for Calculating Vehicle Speed Using Images).
3 is a block diagram of a traffic information management system according to the present invention.
FIG. 4 is an exemplary view for explaining the photographing unit of FIG. 3 .
5 is another exemplary view of FIG. 3 .
6 is another exemplary view of FIG. 3 .
7 is a block diagram of the controller of FIG. 2;
FIG. 8 is a block diagram of a sensing means-based speed detection unit of FIG. 7 .
FIG. 9 is a block diagram of a speed determination unit of FIG. 7 .
FIG. 10 is a block diagram of the image-based speed detection unit of FIG. 7 .
FIG. 11 is a block diagram of a frame analysis unit of FIG. 10 .
12 is an exemplary diagram of a first frame.
13 is an exemplary diagram of a second frame.
14 is an exemplary diagram for explaining a process of calculating vehicle speed.
15 is an exemplary diagram for explaining a process of calculating Equation 2.
FIG. 16 is a block diagram of a second controller that is a second embodiment of the controller of FIG. 7 .
FIG. 17 is a block diagram of a second video-based speed detection unit that is a second embodiment of the video-based speed detection unit of FIG. 16 .
FIG. 18 is a block diagram of a third frame analyzer that is a third embodiment of the frame analyzer of FIG. 11 .
19 is a block diagram of a second mileage calculation module of FIG. 18 .
20 is an exemplary view of a license plate for explaining a process of calculating a mileage by a third frame analyzer.
FIG. 21 is a block diagram of a third image-based speed detector that is a third embodiment of the image-based speed detector of FIG. 10 .
22 is a block diagram of a setup time optimization unit of FIG. 21 .
FIG. 23 is a block diagram of the optimal distance calculation module of FIG. 22 .
24 is an exemplary diagram for explaining an optimal distance.
25 is an exemplary view of a vehicle photographed from the side.

이하, 첨부된 도면을 참조하여 본 발명의 일실시예를 설명한다.Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.

도 3은 본 발명의 교통정보 관리 시스템의 구성도이다.3 is a block diagram of a traffic information management system according to the present invention.

본 발명의 일실시예인 교통정보 관리 시스템(1)은 레이더센서 및 라이다센서 등의 감지수단을 이용하여 차량정보를 생성하되, 저속 차량의 경우, 분해능이 떨어지는 감지수단의 특성을 감안하여, 객체의 구별 성능이 뛰어난 카메라의 영상분석을 통해 차량속도를 산출함과 동시에 카메라에 촬영된 영상 내에서 번호판 이미지의 변동비율을 활용하여 차량의 속도를 산출하도록 구성됨으로써 차량 속도에 따라 선별적으로 분석 방법을 택일함에 따라 차량속도 검출 및 차량정보 생성의 정확성 및 신뢰도를 높일 수 있을 뿐만 아니라, 별도의 기준테이블을 사전에 설정하지 않아도 영상을 이용하여 차량속도를 산출할 수 있기 때문에 다양한 설치 높이 및 카메라 팬-틸트 각도와 연동하여 다양한 현장에 즉각적으로 사용 가능하도록 하기 위한 것이다.The traffic information management system 1, which is an embodiment of the present invention, generates vehicle information using sensing means such as a radar sensor and lidar sensor, but in the case of a low-speed vehicle, considering the characteristics of the sensing means with low resolution, the object The analysis method selectively according to the vehicle speed by calculating the vehicle speed through image analysis of a camera with excellent discrimination performance and at the same time calculating the vehicle speed by utilizing the variation ratio of the license plate image within the video captured by the camera. By selecting , not only can the accuracy and reliability of vehicle speed detection and vehicle information generation be increased, but also vehicle speed can be calculated using images without setting a separate reference table in advance, so various installation heights and camera pans -It is to be used immediately in various fields in conjunction with the tilt angle.

이러한 교통정보 관리 시스템(1)은 도 3에 도시된 바와 같이, 차량주행이 이루어지는 도로 곳곳에 설치되어 기 설정된 감지영역의 차량을 감지하여 차량정보를 생성함과 동시에 위반차량을 검출한 후, 생성된 차량정보 및 위반정보를 후술되는 중앙관제서버(6)로 전송하는 촬영부(3-1), ..., (3-N)들과, 촬영부(3-1), ..., (3-N)들로부터 전송받은 차량정보를 가공하여 교통정보를 생성한 후, 생성된 교통정보를 접속된 클라이언트(Client)들에게 제공함과 동시에 위반정보 수신 시, 위반차량에 대한 과태료 부과 등의 후속절차를 수행하는 중앙관제서버(6)와, 중앙관제서버(6) 및 촬영부(3-1), ..., (3-N)들의 데이터 통신을 지원하는 통신망(7)으로 이루어진다.As shown in FIG. 3, the traffic information management system 1 is installed in various places on the road where vehicles are driven, detects vehicles in a preset detection area, generates vehicle information, and simultaneously detects and generates vehicle information. photographing units (3-1), ..., (3-N) that transmit the obtained vehicle information and violation information to the central control server (6), and the photographing unit (3-1), ..., After generating traffic information by processing the vehicle information transmitted from (3-N), the generated traffic information is provided to connected clients, and at the same time, when violation information is received, fines are imposed on the vehicle in violation It consists of a central control server 6 that performs subsequent procedures, and a communication network 7 that supports data communication between the central control server 6 and the photographing units 3-1, ..., and (3-N).

이때 본 발명의 교통정보 관리 시스템(1)은 교차로, 분기구간, 병합구간 등과 같이 차량 상충이 많거나 법규위반이 흔하게 발생하거가 또는 교통사고 발생율이 높은 구간에 설치되는 것이 바람직하다.At this time, the traffic information management system 1 of the present invention is preferably installed in sections where there are many vehicle conflicts, law violations, or traffic accidents, such as intersections, branch sections, and merged sections.

통신망(7)은 중앙관제서버(6) 및 촬영부(3-1), ..., (3-N)들 사이의 데이터 이동경로를 제공하며, 상세하게로는 광역통신망(WAN), 이동통신망, 유선통신망 등과 같이 공지된 다양한 통신방식이 적용될 수 있다.The communication network 7 provides a data movement path between the central control server 6 and the photographing units 3-1, ..., (3-N), in detail, a wide area network (WAN), Various known communication methods such as a communication network and a wired communication network may be applied.

도 4는 도 3의 촬영부를 설명하기 위한 예시도이고, 도 5는 도 3의 다른 예시도이고, 도 6은 도 3의 또 다른 예시도이다.FIG. 4 is an exemplary view for explaining the photographing unit of FIG. 3 , FIG. 5 is another example view of FIG. 3 , and FIG. 6 is another example view of FIG. 3 .

촬영부(3-1), ..., (3-N)들은 도로 곳곳에 설치되어 기 설정된 감지영역의 차량을 감지한 후, 차량정보 및 위반정보를 생성하며, 생성된 차량정보 및 위반정보를 교통관제서버(6)로 전송한다.The photographing units (3-1), ..., (3-N) are installed all over the road to detect vehicles in a preset detection area, and then generate vehicle information and violation information, and generated vehicle information and violation information. is transmitted to the traffic control server (6).

또한 촬영부(3-1), ..., (3-N)들은 도 4에 도시된 기 설정된 영역을 감지하는 감지수단(301)과, 기 설정된 영역을 촬영하는 카메라(302), 기 설정된 감지지점(P)을 통과하는 차량을 감지하는 보조센서(303), 감지수단(301), 카메라(302) 및 보조센서(303)에 의해 획득된 정보를 분석하는 컨트롤러(30)로 이루어진다.In addition, the photographing units 3-1, ..., (3-N) include a sensing means 301 for detecting a preset area shown in FIG. 4, a camera 302 for capturing a preset area, and a preset It consists of an auxiliary sensor 303 for detecting a vehicle passing through the detection point P, a detection means 301, a camera 302, and a controller 30 for analyzing the information obtained by the auxiliary sensor 303.

이때 본 발명의 도면에서는 설명의 편의를 위해, 촬영부(3)가 차량의 전방을 촬영하여 차량의 주행속도를 산출하는 것으로 예를 들어 설명하였으나, 촬영부(3)는 차량의 후방을 촬영하여 차량의 주행속도를 산출할 수 있다.At this time, in the drawing of the present invention, for convenience of explanation, it has been described as an example that the photographing unit 3 photographs the front of the vehicle and calculates the traveling speed of the vehicle, but the photographing unit 3 photographs the rear of the vehicle The driving speed of the vehicle can be calculated.

감지수단(301)은 기 설정된 감지영역의 차량 객체를 감지하기 위한 수단이며, 상세하게로는 레이더센서 또는 라이다센서인 것이 바람직하다.The detection means 301 is a means for detecting a vehicle object in a preset detection area, and is preferably a radar sensor or lidar sensor.

이러한 감지수단(301)은 감지된 차량 객체의 감지신호를 컨트롤러(30)로 출력한다.The sensing unit 301 outputs a sensing signal of the sensed vehicle object to the controller 30 .

예를 들어 감지수단(301)이 레이더센서라고 할 때, 레이더센서는 감지영역으로 레이더신호를 송출한 후, 반사되는 신호를 수신 받으며, 송수신된 레이더신호 정보를 컨트롤러(30)로 출력하는 것으로 구성될 수 있다.For example, when the sensing means 301 is a radar sensor, the radar sensor transmits a radar signal to the sensing area, receives the reflected signal, and outputs the transmitted and received radar signal information to the controller 30. It can be.

이때 감지수단(301)에 의한 감지신호는 컨트롤러(30)에서 차량속도를 포함하는 차량정보를 생성하는데 활용된다.At this time, the detection signal by the detection unit 301 is used by the controller 30 to generate vehicle information including the vehicle speed.

카메라(302)는 도로의 겐트리 등의 구조물에 설치되어 기 설정된 감지영역(A)을 촬영한다.The camera 302 is installed on a structure such as a gantry on a road to photograph a preset detection area A.

이때 카메라(302)는 차량이 주행하는 도로를 포함하는 감지영역(A)을 촬영하여 영상을 획득한다.At this time, the camera 302 acquires an image by photographing the detection area A including the road on which the vehicle is traveling.

또한 카메라(302)는 획득한 영상을 컨트롤러(30)로 출력되며, 카메라(302)에 의해 촬영된 영상의 경우에는 저속으로 주행 중인 차량들의 속도를 포함하는 차량정보를 생성하는데 활용된다.In addition, the camera 302 outputs the obtained image to the controller 30, and in the case of the image taken by the camera 302, it is used to generate vehicle information including the speed of vehicles traveling at low speed.

보조센서(303)는 감지지점(P)으로 레이저신호를 송출하는 레이더발광부(미도시)와, 레이더발광부에 의해 송출되어 반사되는 신호를 수신 받는 레이더수광부(미도시)와, 송수신된 레이저신호를 분석하여 차량 객체의 감지여부를 판별하며 차량감지 시, 감지정보를 생성하여 컨트롤러(30)로 송출하는 제어기(미도시)로 이루어진다.The auxiliary sensor 303 includes a radar emitting unit (not shown) that transmits a laser signal to the detection point P, a radar receiving unit (not shown) that receives a signal transmitted and reflected by the radar emitting unit, and a laser transmitted and received. It consists of a controller (not shown) that analyzes the signal to determine whether a vehicle object is detected, and when the vehicle is detected, generates detection information and transmits it to the controller 30 .

이때 제어기에 의해 생성되는 감지정보는 촬영부(3)로부터 감지지점(P)까지의 평면상 직선거리인 감지거리(Ds)와, 차량이 감지지점(P)에 진입한 시간인 제1 시점(t1)의 정보를 포함한다.At this time, the sensing information generated by the controller includes the sensing distance Ds, which is a linear distance on a plane from the photographing unit 3 to the sensing point P, and the first point of time, which is the time the vehicle entered the sensing point P ( It includes the information of t1).

또한 보조센서(303)는 카메라(302)와 동일한 팬-틸트(Pan-Tilt) 각도를 갖도록 설치된다.In addition, the auxiliary sensor 303 is installed to have the same pan-tilt angle as the camera 302 .

이러한 보조센서(303)는 1)카메라(302)와 일체로 결합되어 동일한 팬-틸트 각도로 설치됨과 동시에 2)레이저신호에 의해 감지지점(P)까지의 거리정보인 감지거리(Ds)를 지속적으로 획득하도록 구성됨으로써 외부의 충격이나 진동에 의해 카메라(302)의 설치 각도가 변화되어 보조센서(303)에 의해 감지되는 지점인 감지지점(P)이 변화되어도, 변경된 감지지점(P’)까지의 감지거리(Ds‘) 정보를 획득할 수 있다.The auxiliary sensor 303 is 1) integrally combined with the camera 302 and installed at the same pan-tilt angle, and 2) continuously detecting distance Ds, which is the distance information to the sensing point P, by a laser signal. Even if the installation angle of the camera 302 is changed by external shock or vibration and the detection point P, which is the point detected by the auxiliary sensor 303, is changed, up to the changed detection point P'. The sensing distance (Ds') information of can be obtained.

이때 본 발명에서는 설명의 편의를 위해 보조센서(303)가 레이저센서인 것으로 예를 들어 설명하였으나, 보조센서(303)는 레이더 등으로 구성될 수 있다.At this time, in the present invention, for convenience of explanation, the auxiliary sensor 303 has been described as being a laser sensor as an example, but the auxiliary sensor 303 may be composed of a radar or the like.

컨트롤러(30)는 감지수단(301)에 의해 획득된 감지신호 및 카메라(302)에 의해 획득된 영상을 임시 저장함과 동시에 중앙관제서버(6)로 획득된 영상을 전송한다. 이때 컨트롤러(30)에서 감지신호 및 영상을 임시 저장하는 주기는 기 설정되거나 관리자에 의해 입력될 수 있다.The controller 30 temporarily stores the detection signal obtained by the sensing means 301 and the image obtained by the camera 302 and transmits the obtained image to the central control server 6 at the same time. At this time, the period of temporarily storing the detection signal and the image in the controller 30 may be preset or input by a manager.

또한 컨트롤러(30)는 감지수단(301)으로부터 획득된 감지신호를 활용하여 차량속도를 산출함과 동시에 카메라(302)로부터 촬영된 영상을 분석하여 차량속도를 산출한다.In addition, the controller 30 calculates the vehicle speed by utilizing the detection signal obtained from the sensing means 301 and at the same time analyzes the image taken from the camera 302 to calculate the vehicle speed.

이때 컨트롤러(30)는 감지수단(301)의 감지신호를 활용하여 획득된 차량속도가 기 설정된 임계속도값 이하일 경우에는 감지신호를 분석하여 획득된 차량속도의 신뢰성이 떨어진다고 판단되어 카메라(302)의 영상을 분석하여 산출된 차량속도를 최종 속도로 결정한다.At this time, the controller 30 determines that the reliability of the vehicle speed obtained by analyzing the detection signal is low when the vehicle speed obtained by using the detection signal of the detection unit 301 is less than a predetermined threshold speed value, and the camera 302 The vehicle speed calculated by analyzing the video is determined as the final speed.

즉, 컨트롤러(30)는 1)차량들이 고속으로 주행하여 차량간 간격이 클 경우에는 차량의 속도 및 속도의 검출의 정확도가 우수한 감지수단(301)의 감지신호를 이용하여 차량정보를 산출하되, 2)차량들이 저속으로 주행할 경우에는 객체의 구별 성능이 우수하여 인접한 차량들의 구별이 가능한 카메라(302)의 영상을 활용하여 차량정보를 산출한다.That is, the controller 30 1) calculates vehicle information using the speed of the vehicle and the detection signal of the detection means 301 having excellent detection accuracy of the speed when the vehicles are traveling at high speed and the distance between vehicles is large, 2) When vehicles are driving at a low speed, vehicle information is calculated using an image of the camera 302, which has excellent object discrimination performance and can distinguish adjacent vehicles.

이를 통해 컨트롤러(30)는 차량들이 저속으로 주행하여 차량 간의 간격이 감소되어 감지수단(301)인 레이더 또는 라이다에 의한 감지가 어려울 때, 카메라(302)의 영상을 분석하여 산출된 차량속도를 최종 속도로 결정함으로써 산출된 차량속도의 신뢰성을 확보할 수 있다.Through this, the controller 30 analyzes the image of the camera 302 and calculates the vehicle speed when it is difficult to detect by the radar or lidar, which is the sensing means 301, because the distance between vehicles is reduced due to vehicles traveling at a low speed. Reliability of the calculated vehicle speed can be secured by determining the final speed.

또한 컨트롤러(30)는 감지수단(301)과 카메라(302)를 동시에 사용함으로써 비교적 화각(FOV, Field of view)이 좁은 카메라(302)만을 이용할 때보다 차량정보를 획득할 수 있는 범위가 증가하게 되며, 이로 인해 넓은 범위의 감지가 필요한 교차로나, 카메라(302)로 확인하기 어려운 갓길도 감지수단(301)을 통해 감지하여 차량정보를 획득할 수 있게 된다.In addition, the controller 30 uses the sensing means 301 and the camera 302 at the same time, so that the range in which vehicle information can be obtained is increased compared to the case of using only the camera 302 having a relatively narrow field of view (FOV). As a result, it is possible to obtain vehicle information by detecting an intersection requiring a wide range of detection or a shoulder that is difficult to check with the camera 302 through the detection means 301.

도 7은 도 2의 컨트롤러의 블록도이다.7 is a block diagram of the controller of FIG. 2;

컨트롤러(30)는 도 7에 도시된 바와 같이, 제어부(31)와, 메모리(32), 통신 인터페이스부(33), 데이터 입출력부(34), 감시수단 기반 속도검출부(35), 영상기반 속도검출부(36), 속도결정부(37), 위반차량 단속부(38)로 이루어진다.As shown in FIG. 7, the controller 30 includes a control unit 31, a memory 32, a communication interface unit 33, a data input/output unit 34, a monitoring means-based speed detection unit 35, and an image-based speed It consists of a detection unit 36, a speed determination unit 37, and a violation vehicle enforcement unit 38.

제어부(31)는 컨트롤러(30)의 O.S(Operating System)이며, 제어대상(32), (33), (34), (35), (36), (37), (38)들을 관리 및 제어한다.The control unit 31 is the O.S (Operating System) of the controller 30, and manages and controls the control targets 32, 33, 34, 35, 36, 37, and 38. do.

또한 제어부(31)는 데이터 입출력부(34)를 통해 감지수단(301)으로부터 입력된 감지신호를 감지수단 기반 속도검출부(35)로 출력한다.In addition, the control unit 31 outputs the sensing signal input from the sensing unit 301 through the data input/output unit 34 to the sensing unit-based speed detection unit 35 .

또한 제어부(31)는 데이터 입출력부(34)를 통해 카메라(302)로부터 입력된 영상을 영상기반 속도검출부(36)로 출력한다.In addition, the control unit 31 outputs an image input from the camera 302 through the data input/output unit 34 to the image-based speed detection unit 36 .

또한 제어부(31)는 데이터 입출력부(34)를 통해 감지수단(301)으로부터 입력받은 감지신호 및 카메라(302)로부터 입력받은 영상이 중앙관제서버(6)로 전송되도록 통신 인터페이스부(33)를 제어한다.In addition, the control unit 31 uses the communication interface unit 33 so that the detection signal received from the detection means 301 through the data input/output unit 34 and the image received from the camera 302 are transmitted to the central control server 6. Control.

또한 제어부(31)는 보조센서(303)의 제어기에 의해 산출된 감지거리(Ds)를 메모리(32)에 저장한다.In addition, the controller 31 stores the sensing distance Ds calculated by the controller of the auxiliary sensor 303 in the memory 32 .

또한 메모리(32)에는 카메라(302)의 위치정보와, 카메라(302)의 감지영역(A)의 위치정보가 저장된다.In addition, the memory 32 stores location information of the camera 302 and location information of the sensing area A of the camera 302 .

이때 감지영역(A)은 카메라(302)가 촬영 중인 영역의 위치정보이다.At this time, the detection area (A) is location information of the area being photographed by the camera 302 .

또한 메모리(32)에는 감지수단(301)에 의해 감지된 감지신호 및 카메라(302)에 의해 촬영된 영상이 임시로 저장된다.In addition, the memory 32 temporarily stores the detection signal detected by the sensing means 301 and the image captured by the camera 302 .

또한 메모리(32)에는 기 설정된 영상분석 알고리즘과, 번호판 추출 알고리즘이 저장된다.In addition, a preset image analysis algorithm and a license plate extraction algorithm are stored in the memory 32 .

이때 영상분석 알고리즘은 입력영상으로부터 객체인 차량을 검출하는 알고리즘을 의미하고, 번호판 추출 알고리즘은 검출된 차량객체로부터 차량번호판 이미지를 추출하는 알고리즘을 의미한다.At this time, the image analysis algorithm means an algorithm for detecting a vehicle as an object from an input image, and the license plate extraction algorithm means an algorithm for extracting a license plate image from a detected vehicle object.

또한 메모리(32)에는 카메라(302)에 의해 촬영된 영상의 프레임을 구성하는 픽셀들 중 가로방향의 픽셀수인 영상 가로픽셀수(Pa)가 저장된다.In addition, the memory 32 stores the number of horizontal pixels of the image (Pa), which is the number of pixels in the horizontal direction among pixels constituting a frame of an image captured by the camera 302 .

또한 메모리(32)에는 카메라(302)로부터 감지지점(P) 까지의 거리인 감지거리(Ds)가 저장된다.Also, the sensing distance Ds, which is the distance from the camera 302 to the sensing point P, is stored in the memory 32.

또한 메모리(32)에는 임계속도값이 저장된다.Also, the threshold speed value is stored in the memory 32 .

이때 임계속도값은 감지수단 기반 속도검출부(35)로부터 검출된 주행속도(이하 ‘제1 차량속도(C1)라고 함’)와, 영상기반 속도검출부(36)로부터 검출된 주행속도 중 영상기반 속도검출부(36)로부터 검출된 주행속도(이하 ‘제2 차량속도(C2)'라고 함)를 최종 속도값으로 결정해야 한다고 판단할 수 있는 감지수단 기반 속도검출부(35)로부터 검출된 주행속도의 최대값을 의미한다.At this time, the threshold speed value is the image-based speed among the traveling speed detected from the sensing means-based speed detection unit 35 (hereinafter referred to as 'first vehicle speed C1') and the traveling speed detected from the image-based speed detection unit 36. The maximum of the traveling speed detected by the detecting means-based speed detecting unit 35 that can determine that the traveling speed detected by the detecting unit 36 (hereinafter referred to as 'second vehicle speed C2') should be determined as the final speed value. means value.

통신 인터페이스부(33)는 중앙관제서버(6)와 데이터를 송수신한다.The communication interface unit 33 transmits and receives data with the central control server 6 .

데이터 입출력부(34)는 감지수단(301), 카메라(302) 및 보조센서(303)와 데이터를 입출력한다.The data input/output unit 34 inputs/outputs data with the sensing means 301, the camera 302, and the auxiliary sensor 303.

도 8은 도 7의 감지수단 기반 속도검출부의 블록도이다.FIG. 8 is a block diagram of a sensing means-based speed detection unit of FIG. 7 .

감지수단 기반 속도검출부(35)는 도 8에 도시된 바와 같이, 신호분석모듈(351)과, 차량감지모듈(352), 트래킹 모듈(353), 속도산출모듈(354), 차량정보 생성모듈(355)로 이루어진다.As shown in FIG. 8, the sensing unit-based speed detection unit 35 includes a signal analysis module 351, a vehicle detection module 352, a tracking module 353, a speed calculation module 354, and a vehicle information generation module ( 355).

신호분석모듈(351)은 데이터 입출력부(34)를 통해 감지수단(301)로부터 전송받은 감지신호를 입력받으면, 입력된 감지신호를 분석하며, 감지신호의 분석데이터를 차량감지모듈(352)로 출력한다.When the signal analysis module 351 receives the detection signal transmitted from the detection means 301 through the data input/output unit 34, it analyzes the input detection signal and transmits the analysis data of the detection signal to the vehicle detection module 352. print out

차량감지모듈(352)은 신호분석모듈(351)로부터 입력받은 감지신호의 분석데이터를 활용하여 차량객체를 감지한다.The vehicle detection module 352 detects a vehicle object by utilizing the analysis data of the detection signal received from the signal analysis module 351 .

트래킹 모듈(353)은 차량감지모듈(352)에 의해 감지된 차량객체의 궤적을 추적한다.The tracking module 353 tracks the trajectory of the vehicle object detected by the vehicle detection module 352 .

속도산출모듈(354)은 트래킹 모듈(353)에 의해 검출된 궤적정보를 활용하여 차량의 속도인 제1 차량속도(C1)를 산출한다.The speed calculation module 354 utilizes the trajectory information detected by the tracking module 353 to calculate the first vehicle speed C1, which is the speed of the vehicle.

이때 감지신호를 이용하여 객체 속도를 산출하는 기술 및 방법은 공지된 기술이기 때문에 상세한 설명은 생략하기로 한다.At this time, since the technology and method for calculating the object speed using the detection signal are well-known technologies, a detailed description thereof will be omitted.

차량정보 생성모듈(355)은 트래킹 모듈(353)에 의해 검출된 궤적정보를 활용 및 가공하여, 차량객체의 위치, 속도 등을 포함하는 차량정보를 생성한다.The vehicle information generation module 355 utilizes and processes the trajectory information detected by the tracking module 353 to generate vehicle information including the location and speed of a vehicle object.

이때 차량정보 생성모듈(355)로부터 생성된 차량정보는 속도 결정부(37)로 출력된다.At this time, the vehicle information generated by the vehicle information generating module 355 is output to the speed determining unit 37 .

이와 같이 구성되는 감지수단 기반 속도검출부(35)는 레이더 또는 라이다를 활용한 감지수단(301)으로부터 감지신호를 입력받아 차량정보를 생성하도록 구성되기 때문에 차량위치 및 속도의 정확도가 영상을 통한 속도검출방법에 비해 정확할 뿐만 아니라, 감지 가능한 범위가 넓기 때문에 교차로와 같이 넓은 장소, 또는 갓길 등 카메라(302) 영상의 사각에 배치된 위치도 감지 가능하다는 장점을 가진다.Since the sensing means-based speed detection unit 35 configured as described above is configured to generate vehicle information by receiving a detection signal from the sensing means 301 using radar or lidar, the accuracy of the vehicle position and speed is the speed through the image. It is not only more accurate than the detection method, but also has the advantage of being able to detect a wide place such as an intersection or a position placed in a blind spot of the image of the camera 302, such as a shoulder, because the detectable range is wide.

그러나 감지수단(301)의 경우에는 객체에 대한 분류 정확도가 떨어지는 단점을 가지기 때문에 차량들이 저속으로 주행하여 서로 인접하게 주행 중일 경우에는 일부 차량들의 차량정보를 획득하지 못하는 단점을 갖는다.However, since the detection means 301 has a disadvantage in that classification accuracy for objects is low, vehicle information of some vehicles cannot be acquired when vehicles are driving at low speeds and are driving adjacent to each other.

이러한 문제가 발생되는 것을 방지하기 위하여 본 발명은 감지수단 기반 속도검출부(35)에 의해 검출된 차량의 속도인 제1 차량속도(C1)가 기 설정된 임계속도값 이하일 경우에는 속도결정부(37)가 감지수단 기반 속도검출부(35)에 의한 차량정보 획득이 어렵다고 판단하여 영상기반 속도검출부(36)로부터 검출된 차량의 속도인 제2 차량속도(C2)를 최종 속도값으로 결정한다.In order to prevent this problem from occurring, the present invention provides a speed determination unit 37 when the first vehicle speed C1, which is the speed of the vehicle detected by the sensing unit-based speed detection unit 35, is less than or equal to a preset threshold speed value. Determines that it is difficult to obtain vehicle information by the sensing unit-based speed detection unit 35, and determines the second vehicle speed C2, which is the speed of the vehicle detected by the image-based speed detection unit 36, as the final speed value.

영상기반 속도검출부(36)는 카메라(302)의 촬영에 의해 획득된 영상의 프레임들로부터 번호판 이미지들을 추출한 후, 번호판 이미지의 크기 변화 비율인 변동비율(Z)을 활용하여 제2 차량속도(C2)를 산출한다.The image-based speed detection unit 36 extracts the license plate images from the frames of the image acquired by the camera 302, and then utilizes the change ratio Z, which is the size change ratio of the license plate image, to the second vehicle speed C2 ) is calculated.

이러한 영상기반 속도검출부(36)에 대한 자세한 설명은 후술되는 도 10 내지 15에서 자세하게 설명하도록 한다.A detailed description of the image-based speed detection unit 36 will be described in detail with reference to FIGS. 10 to 15 to be described later.

도 9는 도 7의 속도 결정부의 블록도이다.FIG. 9 is a block diagram of a speed determination unit of FIG. 7 .

속도 결정부(37)는 도 9에 도시된 바와 같이, 속도값 추출모듈(371), 비교모듈(372), 결정모듈(373), 차량정보 보정모듈(374)로 이루어진다.As shown in FIG. 9 , the speed determination unit 37 includes a speed value extraction module 371 , a comparison module 372 , a determination module 373 , and a vehicle information correction module 374 .

속도값 추출모듈(371)은 감지수단 기반 속도검출부(35) 및 영상기반 속도검출부(36)으로부터 검출된 제1, 제2 차량속도(C1), (C2)를 메모리(32)로부터 추출한다.The speed value extraction module 371 extracts the first and second vehicle speeds C1 and C2 detected from the sensing unit-based speed detection unit 35 and the image-based speed detection unit 36 from the memory 32 .

비교모듈(372)은 제1 차량속도(C1)를 메모리(32)에 기 저장된 임계속도값과 비교한다.The comparison module 372 compares the first vehicle speed C1 with a threshold speed value previously stored in the memory 32 .

결정모듈(373)은 1)제1 차량속도(C1)가 임계속도값 이상일 경우에는 제1 차량속도(C1)를 최종 속도값으로 결정하되, 2)제1 차량속도(C1)가 임계속도값 미만일 경우에는 제1 차량속도(C1)의 신뢰성이 낮다고 판단하여 제2 차량속도(C2)를 최종 속도값으로 결정한다.The determination module 373 1) determines the first vehicle speed C1 as the final speed value when the first vehicle speed C1 is greater than or equal to the threshold speed value, and 2) determines that the first vehicle speed C1 is the threshold speed value If the value is less than the first vehicle speed C1, it is determined that the reliability of the first vehicle speed C1 is low, and the second vehicle speed C2 is determined as the final speed value.

차량정보 보정모듈(374)은 결정모듈(373)에 의해 제2 차량속도(C2)가 최종 속도값으로 결정될 때, 차량정보 생성모듈(355)로부터 생성된 차량정보를 제2 차량속도(C2)로 보정한다.When the second vehicle speed C2 is determined as the final speed value by the determination module 373, the vehicle information correcting module 374 converts the vehicle information generated from the vehicle information generating module 355 into the second vehicle speed C2. corrected with

이때 차량정보 보정모듈(374)에 의해 보정된 차량정보는 최종적으로 메모리(32)에 저장됨과 동시에 위반차량 단속부(38) 및 중앙관제서버(6)로 출력된다.At this time, the vehicle information corrected by the vehicle information correction module 374 is finally stored in the memory 32 and output to the violating vehicle enforcement unit 38 and the central control server 6 at the same time.

이와 같이 구성되는 속도 결정부(37)는 평시에는 감지수단(301)에 의해 측정된 차량속도인 제1 차량속도(C1)를 최종 속도값으로 결정하되, 차량들이 저속으로 주행하여 감지수단(301)에 의한 차량들의 분류가 어려워 차량들의 속도를 정확하게 측정할 수 없다고 판단될 때, 카메라(302)의 영상을 기반으로 측정된 속도인 제2 차량속도(C2)를 최종 속도값으로 결정함으로써 차량의 속도와 관계없이 신뢰성 높은 차량정보를 획득할 수 있게 된다.The speed determining unit 37 configured as described above determines the first vehicle speed C1, which is the vehicle speed measured by the sensing means 301, as the final speed value in normal times, but the vehicles are traveling at a low speed and the sensing means 301 When it is determined that it is difficult to accurately measure the speed of vehicles due to difficulty in classifying vehicles by ), the second vehicle speed C2, which is the measured speed based on the image of the camera 302, is determined as the final speed value of the vehicle. Highly reliable vehicle information can be obtained regardless of speed.

위반차량 단속부(38)는 속도결정부(37)에 의해 결정된 차량정보를 활용함과 동시에 카메라(302)에 의해 촬영된 영상을 분석하여 위반차량을 검출하며, 검출된 위반차량에 대한 위반정보를 중앙관제서버(6)로 출력한다.The violating vehicle enforcement unit 38 utilizes the vehicle information determined by the speed determination unit 37 and analyzes the video taken by the camera 302 to detect the violating vehicle, and the violation information about the detected violating vehicle. is output to the central control server (6).

이때 위반정보는 차량 위치, 속도, 위반내용 등을 포함한다.At this time, the violation information includes the vehicle location, speed, and details of the violation.

예를 들어, 위반차량 단속부(38)는 감지수단(301)의 감지정보 및 카메라(302)의 영상정보를 활용하여 을 통해 갓길 정차, 과속, 차선변경, 불법유턴 등이 감지될 때, 해당 위반차량의 번호판 이미지를 카메라(302)의 영상으로부터 추출하며, 추출된 번호판 이미지 및 대응되는 차량정보를 중앙관제서버(6)로 출력함으로써 교통법규를 위반한 차량들을 단속할 수 있다.For example, the violating vehicle enforcement unit 38 utilizes the detection information of the detection unit 301 and the image information of the camera 302 to detect a shoulder stop, speeding, lane change, illegal U-turn, etc. through By extracting the license plate image of the violating vehicle from the image of the camera 302 and outputting the extracted license plate image and corresponding vehicle information to the central control server 6, it is possible to crack down on vehicles violating traffic laws.

도 10은 도 7의 영상기반 속도검출부의 블록도이다.FIG. 10 is a block diagram of the image-based speed detection unit of FIG. 7 .

영상기반 속도검출부(36)는 도 10에 도시된 바와 같이, 프레임 추출부(361)와, 프레임 분석부(362), 주행속도 산출부(363)로 이루어진다.As shown in FIG. 10 , the image-based speed detector 36 includes a frame extractor 361, a frame analyzer 362, and a traveling speed calculator 363.

프레임 추출부(361)는 보조센서(303)로부터 감지정보를 입력받을 때, 제어부(31)의 제어에 따라 실행되며, 카메라(302)의 촬영에 의해 획득된 영상을 입력받는다.When receiving detection information from the auxiliary sensor 303, the frame extraction unit 361 is executed under the control of the control unit 31 and receives an image obtained by taking a picture of the camera 302.

또한 프레임 추출부(361)는 입력영상으로부터, 감지정보가 입력된 시점, 즉 보조센서(303)에 의해 감지지점(P)에 차량이 진입한 시점인 제1 시점(t1)의 프레임인 제1 프레임(F1)을 추출한다.In addition, the frame extraction unit 361 is a frame of the first time point t1, which is the time point at which sensing information is input, that is, the time point at which the vehicle enters the sensing point P by the auxiliary sensor 303, from the input image. Frame F1 is extracted.

또한 프레임 추출부(361)는 타이머(미도시)를 포함하며, 제1 시점(t1)을 기준으로 기 설정된 설정시간(T1)이 경과한 시점인 제2 시점(t2)이 되면, 입력영상으로부터 제2 시점(t2)의 프레임인 제2 프레임(F2)을 추출한다.In addition, the frame extraction unit 361 includes a timer (not shown), and when the second time point t2, which is the time point at which the preset time T1 has elapsed based on the first time point t1, is obtained from the input image. The second frame F2, which is the frame of the second time point t2, is extracted.

도 11은 도 10의 프레임 분석부의 블록도이고, 도 12는 제1 프레임의 예시도이고, 도 13은 제2 프레임의 예시도이고, 도 14는 차량의 속도가 산출되는 과정을 설명하기 위한 예시도이다.11 is a block diagram of the frame analysis unit of FIG. 10, FIG. 12 is an example of a first frame, FIG. 13 is an example of a second frame, and FIG. 14 is an example for explaining a process of calculating vehicle speed. It is also

프레임 분석부(362)는 도 11에 도시된 바와 같이, 객체 검출모듈(3621)과, 번호판 이미지 추출모듈(3622), 픽셀수 산출모듈(3623), 변동비율 산출모듈(3624), 주행거리 산출모듈(3625)로 이루어진다.As shown in FIG. 11, the frame analysis unit 362 includes an object detection module 3621, a license plate image extraction module 3622, a pixel number calculation module 3623, a variable ratio calculation module 3624, and a mileage calculation module 3625.

객체 검출모듈(3621)은 프레임 추출부(361)로부터 제1 프레임(F1)을 입력받으면, 메모리(32)에 저장된 영상분석 알고리즘을 활용하여 입력된 제1 프레임(F1)으로부터 감지지점(P)에 진입한 진입차량인 차량객체 이미지를 검출한다.When the object detection module 3621 receives the first frame F1 from the frame extractor 361, the detection point P is obtained from the input first frame F1 by utilizing the image analysis algorithm stored in the memory 32. Detects a vehicle object image, which is an entry vehicle that has entered.

또한 객체 검출모듈(3621)은 프레임 추출부(361)로부터 제2 프레임(F2)을 입력받으면, 영상분석 알고리즘을 활용하여 입력된 제2 프레임(F2)으로부터 차량객체 이미지를 검출한다.Also, when receiving the second frame F2 from the frame extractor 361, the object detection module 3621 detects a vehicle object image from the input second frame F2 by using an image analysis algorithm.

번호판 이미지 추출모듈(3622)은 메모리(32)에 저장된 번호판 추출 알고리즘을 이용하여, 객체 검출모듈(3621)에 의해 검출된 제1 프레임(F1)의 차량객체 이미지를 분석하여 차량객체로부터 차량번호판 이미지인 제1 번호판 이미지(B1)를 추출한다.The license plate image extraction module 3622 analyzes the vehicle object image of the first frame F1 detected by the object detection module 3621 using the license plate extraction algorithm stored in the memory 32 to obtain the license plate image from the vehicle object. The first license plate image B1 is extracted.

또한 번호판 이미지 추출모듈(3622)은 번호판 추출 알고리즘을 이용하여, 객체 검출모듈(3621)에 의해 검출된 제2 프레임(F2)의 차량객체 이미지를 분석하여 제2 번호판 이미지(B2)를 추출한다.In addition, the license plate image extraction module 3622 analyzes the vehicle object image of the second frame F2 detected by the object detection module 3621 using the license plate extraction algorithm to extract the second license plate image B2.

픽셀수 산출모듈(3623)은 번호판 이미지 추출모듈(3622)로부터 추출된 제1 번호판 이미지(B1)의 가로방향 픽셀수인 제1 가로픽셀수(Pb1)와, 제2 번호판 이미지(B2)의 가로방향 픽셀수인 제2 가로픽셀수(Pb2)를 산출한다.The pixel count calculation module 3623 calculates the first number of horizontal pixels Pb1, which is the number of pixels in the horizontal direction of the first license plate image B1 extracted from the license plate image extraction module 3622, and the horizontal number of the second license plate image B2. The second number of horizontal pixels Pb2, which is the number of directional pixels, is calculated.

이러한 픽셀수 산출모듈(3623)은 프레임의 픽셀을 구성하는 가로픽셀들과 세로픽셀들 중 가로픽셀들 만을 이용하여 차량의 주행거리를 산출하도록 구성됨으로써 전체픽셀들을 활용할 때보다 연산처리 과정이 간단하여 연산처리 속도를 개선시킬 수 있는 장점을 갖는다.The pixel count calculation module 3623 is configured to calculate the mileage of the vehicle using only horizontal pixels among horizontal pixels and vertical pixels constituting the pixels of the frame, so that the calculation process is simpler than when using all the pixels. It has the advantage of improving the processing speed.

변동비율 산출모듈(3624)은 픽셀수 산출모듈(3623)에서 산출된 제1 번호판 이미지(B1)의 제1 가로픽셀수(Pb1)와, 기 설정된 영상 가로픽셀수(Pa)를 활용하여 제1 번호판 비율(Z1)을 산출한다.The variable ratio calculation module 3624 utilizes the first number of horizontal pixels (Pb1) of the first license plate image (B1) calculated by the pixel number calculation module 3623 and the number of horizontal pixels (Pa) of the preset image to determine the first number of horizontal pixels (Pa). The license plate ratio (Z1) is calculated.

이때 제1 번호판 비율(Z1)은 제1 가로픽셀수(Pb1)에서 영상 가로픽셀수(Pa)를 나눈 값(Z1 = Pb1/Pa)이며, 제1 프레임(F1)의 내에서 제1 번호판 이미지(B1)가 가로방향으로 차지하는 비율을 의미한다.At this time, the first license plate ratio (Z1) is a value obtained by dividing the number of horizontal pixels (Pa) of the image by the number of first horizontal pixels (Pb1) (Z1 = Pb1 / Pa), and the first license plate image within the first frame (F1) (B1) means the ratio occupied in the horizontal direction.

또한 변동비율 산출모듈(3624)은 픽셀수 산출모듈(3623)에서 산출된 제2 번호판 이미지(B2)의 제2 가로픽셀수(Pb2)와 기 설정된 영상 가로픽셀수(Pa)를 활용하여 제2 번호판 비율(Z2)을 산출한다.In addition, the variable ratio calculation module 3624 utilizes the second number of horizontal pixels (Pb2) of the second license plate image (B2) calculated by the number of pixels calculation module (3623) and the number of horizontal pixels (Pa) of the preset image to determine the second number of horizontal pixels (Pa). Calculate license plate ratio (Z2).

이때 제2 번호판 비율(Z2)은 제2 가로픽셀수(Pb2)에서 영상 가로픽셀수(Pa)를 나눈 값(Z2 = Pb2/Pa)이며, 제2 프레임(F2)의 내에서 제2 번호판 이미지(B2)가 가로방향으로 차지하는 비율을 의미한다.At this time, the second license plate ratio (Z2) is a value obtained by dividing the number of horizontal pixels (Pa) of the image by the number of second horizontal pixels (Pb2) (Z2 = Pb2 / Pa), and the second license plate image within the second frame (F2) (B2) means the ratio occupied in the horizontal direction.

또한 변동비율 산출모듈(3624)은 제1, 2 번호판 비율(Z1), (Z2)들이 산출되면, 제2 번호판 비율(Z2)을 제1 번호판 비율(Z1)로 나누어, 제2 번호판 이미지(B2)가 제1 번호판 이미지(B1)보다 변화된 비율인 변동비율(Z)을 산출한다.In addition, when the first and second license plate ratios (Z1) and (Z2) are calculated, the variable ratio calculation module 3624 divides the second license plate ratio (Z2) by the first license plate ratio (Z1) to divide the second license plate image (B2). ) calculates the variation ratio (Z), which is a ratio that is changed from the first license plate image (B1).

이때 변동비율(Z)은 제2 번호판 비율(Z2)을 제1 번호판 비율(Z1)로 나눈 값(Z = Z2/Z1)이며, 제2 프레임(F2)에서 촬영된 번호판의 크기가 제1 프레임(F1)에서 촬영된 번호판의 크기보다 변화된 비율을 의미한다.At this time, the variation ratio (Z) is a value (Z = Z2 / Z1) divided by the second license plate ratio (Z2) by the first license plate ratio (Z1), and the size of the license plate photographed in the second frame (F2) is the first frame It means the ratio changed from the size of the license plate photographed in (F1).

다음의 수학식 1은 변동비율을 산출하는 계산식이다.The following Equation 1 is a calculation formula for calculating the variation ratio.

Figure 112022030523630-pat00001
Figure 112022030523630-pat00001

이때 Z는 변동비율이고, Z2는 제2 번호판 비율이고, Z1은 제1 번호판 비율이고, Pb1은 제1 가로픽셀수이고, Pb2는 제2 가로픽셀수이다.Here, Z is the variation ratio, Z2 is the second license plate ratio, Z1 is the first license plate ratio, Pb1 is the first number of horizontal pixels, and Pb2 is the number of second horizontal pixels.

즉 변동비율 산출모듈(3624)은 수학식 1을 통해, 제2 프레임(F2)에 촬영된 번호판의 제2 가로픽셀수(Pb2)를 제1 프레임(F1)에서 촬영된 번호판의 제1 가로픽셀수(Pb1)로 나누어 번호판의 변동비율(Z)을 신속하고 간단하게 산출할 수 있게 된다.That is, the variation ratio calculation module 3624 converts the second number of horizontal pixels (Pb2) of the license plate photographed in the second frame (F2) to the first horizontal pixel of the license plate photographed in the first frame (F1) through Equation 1. By dividing by the number (Pb1), it is possible to quickly and simply calculate the variation ratio (Z) of the license plate.

또한 변동비율 산출모듈(3624)에 의해 산출된 변동비율(Z)은 차량의 주행거리(Dx) 산출에 활용된다.In addition, the variable ratio Z calculated by the variable ratio calculation module 3624 is used to calculate the mileage Dx of the vehicle.

주행거리 산출모듈(3625)은 수학식 1을 활용하여 산출된 변동비율(Z)을 수학식 5에 대입하여 차량의 주행거리(Dx)를 산출한다.The mileage calculation module 3625 calculates the mileage Dx of the vehicle by substituting the variation ratio Z calculated using Equation 1 into Equation 5.

이때 주행거리(Dx)는 후술되는 수학식 5에 카메라(302)로부터 감지지점(P)까지의 거리인 감지거리(Ds)와 변동비율(Z)이 대입되어 산출되며, 감지지점(P)으로부터 차량이 설정시간(T1) 동안 이동한 거리를 의미한다.At this time, the traveling distance Dx is calculated by substituting the sensing distance Ds, which is the distance from the camera 302 to the sensing point P, and the variation rate Z in Equation 5 described later, and from the sensing point P It means the distance that the vehicle has moved during the set time (T1).

도 15는 수학식 2를 산출하는 과정을 설명하기 위한 예시도이다.15 is an exemplary diagram for explaining a process of calculating Equation 2.

카메라(302)는 도 15에 도시된 바와 같이, 도로를 향하도록 설치되어 도로에 주행 중인 차량을 촬영하며, 기 설정된 화각(F)(FOV, Field of view)만큼의 각도로 영상을 촬영한다.As shown in FIG. 15 , the camera 302 is installed facing the road to photograph a vehicle traveling on the road, and captures an image at an angle equal to a preset field of view (FOV).

이때 화각(F)은 상부에서 바라보았을 때, 카메라(302)가 이미지를 담을 수 있는 각도를 의미한다.At this time, the angle of view (F) means an angle at which the camera 302 can capture an image when viewed from above.

이러한 카메라(302)는 카메라로부터 멀어질수록 영상에 촬영되는 화폭(Pw)이 증가하게 된다.As the camera 302 moves away from the camera, the picture width Pw captured in the image increases.

또한 계산의 편의를 위해 도 15에 도시된 바와 같이, 화각(F)은 2θ인 것을 예를 들어 설명하도록 한다.Also, for convenience of calculation, as shown in FIG. 15 , the angle of view F is 2θ.

화폭(Pw)은 카메라(302)로부터 이격된 거리(d)에서 촬영되는 실제 폭을 의미하며, 이격된 거리(d)와 비례하게 증가된다.The picture width Pw means an actual width photographed at a distance d away from the camera 302, and increases in proportion to the distance d.

이때 화폭(Pw)은 다음의 수학식 2을 이용하여 산출된다.At this time, the canvas width Pw is calculated using Equation 2 below.

Figure 112022030523630-pat00002
Figure 112022030523630-pat00002

이때 Pw는 화폭이고, θ는 화각을 절반으로 나눈 값(θ=F/2)이고, d는 카메라와 이격된 거리이다.At this time, Pw is the field width, θ is the value obtained by dividing the angle of view by half (θ=F/2), and d is the distance away from the camera.

제1 프레임(F1)의 화폭이 제1 화폭(Pw1)이고, 제2 프레임(F2)의 화폭이 제2 화폭(Pw)이라고 할 때, 제1 화폭(Pw1)은 2*tan(θ)*Ds 이고, 제2 화폭(Pw2)은 2*tan(θ)*(Ds-Dx) 이다.When the width of the first frame F1 is the first screen width Pw1 and the width of the second frame F2 is the second screen Pw, the first screen width Pw1 is 2*tan(θ)* Ds, and the second picture width Pw2 is 2*tan(θ)*(Ds-Dx).

또한 카메라(302)의 영상에서는 실제 화폭(Pw)이 영상 가로픽셀수(Pa)와 대응되도록 축소 변환되기 때문에 이격된 거리(d)가 증가될수록 영상에 촬영된 객체가 축소되는 비율이 증가하게 된다.Also, in the image of the camera 302, since the actual width Pw is reduced to correspond to the number of horizontal pixels Pa of the image, the rate at which objects photographed in the image are reduced increases as the distance d increases. .

즉, 카메라(302)에 의해 촬영된 영상은 이격된 거리(d)가 증가될수록 영상 내에 더 넓은 폭의 영상이 촬영되되, 영상 내에서 객체가 작게 표시된다.That is, in the image captured by the camera 302, as the distance d increases, a wider image is captured in the image, but the object is displayed smaller in the image.

또한 카메라(302)에 의해 촬영된 영상 내부의 번호판의 가로방향 픽셀수(Pb)는 다음의 수학식 3을 이용하여 산출된다.In addition, the number of pixels Pb in the horizontal direction of the license plate inside the image captured by the camera 302 is calculated using Equation 3 below.

Figure 112022030523630-pat00003
Figure 112022030523630-pat00003

이때 Pb는 번호판의 가로방향 픽셀수를 의미하고, Pa는 영상의 가로방향 픽셀수를 의미하고, H는 번호판의 실제 가로길이를 의미하고, Pw는 화폭을 의미한다.At this time, Pb means the number of pixels in the horizontal direction of the license plate, Pa means the number of pixels in the horizontal direction of the image, H means the actual horizontal length of the license plate, and Pw means the width of the screen.

이러한 수학식 3에 제1 화폭(Pw)을 대입하면, 제1 가로픽셀수(Pb1=Pa*H/Pw1)를 산출할 수 있으며, 제2 화폭(Pw)을 대입하면 제2 가로픽셀수(Pb2=Pa*H/Pw2)를 산출할 수 있다.If the first screen width Pw is substituted into Equation 3, the first number of horizontal pixels (Pb1 = Pa*H/Pw1) can be calculated, and if the second screen width Pw is substituted, the second number of horizontal pixels ( Pb2=Pa*H/Pw2) can be calculated.

또한 수학식 3에 의해 산출된 제1 가로픽셀수(Pb1=Pa*H/Pw1)와 제2 가로픽셀수(Pb2=Pa*H/Pw2)를 수학식 1에 대입하면, 변동비율(Z)이 산출된다.In addition, when the first number of horizontal pixels (Pb1 = Pa * H / Pw1) and the second number of horizontal pixels (Pb2 = Pa * H / Pw2) calculated by Equation 3 are substituted into Equation 1, the variation ratio (Z) this is calculated

다음의 수학식 4는 수학식 3에 의해 산출된 제1 가로픽셀수(Pb1)와 제2 가로픽셀수(Pb2)를 수학식 1에 대입하여 변동비율을 산출하는 계산식이고, 수학식 5는 수학식 4를 변형하여 주행거리를 산출하는 계산식이다.The following Equation 4 is a calculation formula for calculating the variation ratio by substituting the first number of horizontal pixels (Pb1) and the second number of horizontal pixels (Pb2) calculated by Equation 3 into Equation 1, and Equation 5 is This is a formula for calculating the mileage by transforming Equation 4.

Figure 112022030523630-pat00004
Figure 112022030523630-pat00004

Figure 112022030523630-pat00005
Figure 112022030523630-pat00005

이때 θ는 화각을 절반으로 나눈 값(θ=F/2)이고, Ds는 카메라(302)로부터 감지지점(P)까지의 거리인 감지거리이고, Dx는 차량의 주행거리이다.At this time, θ is a value obtained by dividing the angle of view in half (θ=F/2), Ds is the sensing distance, which is the distance from the camera 302 to the sensing point P, and Dx is the traveling distance of the vehicle.

즉, 주행거리 산출모듈(3625)은 메모리(32)에 기 저장된 감지거리(Ds)와 수학식 1에 의해 산출된 변동비율(Z)을 수학식 5에 대입하여 차량의 주행거리(Dx)를 산출한다.That is, the mileage calculation module 3625 substitutes the sensing distance Ds previously stored in the memory 32 and the variation ratio Z calculated by Equation 1 into Equation 5 to calculate the mileage Dx of the vehicle. yield

이와 같이 구성되는 프레임 분석부(362)는 프레임 추출부(361)에 의해 추출된 제1 프레임(F1) 내에서 제1 번호판 이미지(B1)를 추출함과 동시에 제1 번호판 이미지(B1)의 가로방향 픽셀수인 제1 가로픽셀수(Pb1)를 산출한다.The frame analyzer 362 configured as described above extracts the first license plate image B1 in the first frame F1 extracted by the frame extractor 361 and simultaneously displays the width of the first license plate image B1. The first number of horizontal pixels Pb1, which is the number of directional pixels, is calculated.

또한 프레임 분석부(362)는 프레임 추출부(361)에 의해 추출된 제2 프레임(F2) 내에서 제2 번호판 이미지(B2)를 추출함과 동시에 제2 번호판 이미지(B2)의 가로방향 픽셀수인 제2 가로픽셀수(Pb2)를 산출한다.In addition, the frame analyzer 362 extracts the second license plate image B2 in the second frame F2 extracted by the frame extractor 361 and simultaneously extracts the number of pixels in the horizontal direction of the second license plate image B2. Calculate the second number of horizontal pixels Pb2.

이때 프레임 분석부(362)는 메모리(32)에 저장된 영상 가로픽셀수(Pa)를 활용하여 각 프레임(F1), (F2)들에서 번호판 이미지(B1), (B2)들이 차지하는 비율을 산출함으로써 제1 프레임(F1)과 제2 프레임(F2)에서 번호판이 차지하는 비율인 번호판 비율(Z1), (Z2)들을 산출한다.At this time, the frame analysis unit 362 utilizes the number of horizontal pixels (Pa) of the image stored in the memory 32 to calculate the ratio occupied by the license plate images (B1) and (B2) in each of the frames (F1) and (F2). License plate ratios Z1 and Z2, which are ratios occupied by license plates in the first frame F1 and the second frame F2, are calculated.

또한 프레임 분석부(362)는 번호판 비율(Z1), (Z2)들을 활용하여 변동비율(Z)을 산출하며, 산출된 변동비율(Z)을 산출하여 차량의 주행거리(Dx)를 산출한다.In addition, the frame analyzer 362 calculates the variation ratio (Z) by utilizing the license plate ratios (Z1) and (Z2), and calculates the mileage (Dx) of the vehicle by calculating the calculated variation ratio (Z).

다시 도 10으로 돌아가서 주행속도 산출부(363)을 살펴보면, 주행속도 산출부(363)는 프레임 분석부(362)에 의해 산출된 주행거리(Dx)를 기 설정된 설정시간(T1)으로 나누어 차량의 주행속도(v)를 산출한다.Returning to FIG. 10 and looking at the travel speed calculator 363, the travel speed calculator 363 divides the travel distance Dx calculated by the frame analyzer 362 by a preset set time period T1 to determine the vehicle's Calculate the travel speed (v).

이와 같이 구성되는 영상기반 속도검출부(36)는 진입차량의 번호판 이미지를 제1 프레임(F1)과 제2 프레임(F2)으로부터 각각 추출하며, 번호판 이미지의 크기 변화율인 변동비율(Z)을 활용하여 차량의 주행거리(Dx) 및 주행속도(v)를 산출하여 카메라(302)의 설치 위치 및 각도와 상관없이 차량의 주행속도(v)를 산출함으로써 카메라(302)의 설치환경(위치 및 각도 등)이 변경될 때마다 실측을 진행하지 않아도 바로 사용할 수 있도록 구성되기 때문에 설치에 걸리는 시간이 감소될 뿐만 아니라, 장기간 이용으로 인하여 카메라(302)의 설치각도가 변화되어도 차량의 주행속도를 산출하는 과정에서 오차가 발생되는 것을 방지할 수 있다.The video-based speed detection unit 36 configured as described above extracts the license plate image of the entering vehicle from the first frame (F1) and the second frame (F2), respectively, and utilizes the change rate (Z), which is the size change rate of the license plate image, The installation environment (position and angle, etc. ) is configured so that it can be used immediately without conducting actual measurement whenever it is changed, so that the time required for installation is reduced, and even if the installation angle of the camera 302 is changed due to long-term use, the process of calculating the driving speed of the vehicle errors can be prevented from occurring.

도 16은 도 7의 컨트롤러의 제2 실시예인 제2 컨트롤러의 블록도이고, 도 17은 도 16의 영상기반 속도검출부의 제2 실시예인 제2 영상기반 속도검출부의 블록도이다.16 is a block diagram of a second controller that is a second embodiment of the controller of FIG. 7 , and FIG. 17 is a block diagram of a second video-based speed detector that is a second embodiment of the video-based speed detector of FIG. 16 .

제2 컨트롤러(40)는 도 16에 도시된 바와 같이, 제어부(41)와, 제2 메모리(42), 통신 인터페이스부(43), 데이터 입출력부(44), 감지수단 기반 속도검출부(45), 제2 영상기반 속도검출부(46), 속도 결정부(47), 위반차량 단속부(48)로 이루어진다.As shown in FIG. 16, the second controller 40 includes a control unit 41, a second memory 42, a communication interface unit 43, a data input/output unit 44, and a sensing unit-based speed detection unit 45. , a second image-based speed detection unit 46, a speed determination unit 47, and a violation vehicle enforcement unit 48.

이때 제어부(41)와 통신 인터페이스부(43), 데이터 입출력부(44), 감지수단 기반 속도검출부(45), 속도 결정부(47), 위반차량 단속부(48)는 제1 실시예인 제어부(31)와, 통신 인터페이스부(33), 데이터 입출력부(34), 감지수단 기반 속도검출부(35), 속도 결정부(37), 위반차량 단속부(38)와 동일한 동작을 수행하기 때문에 자세한 설명은 생략하도록 한다.At this time, the control unit 41, the communication interface unit 43, the data input/output unit 44, the sensing means-based speed detection unit 45, the speed determination unit 47, and the violation vehicle control unit 48 are the first embodiment of the control unit ( 31), the communication interface unit 33, the data input/output unit 34, the sensing means-based speed detection unit 35, the speed determination unit 37, and the violating vehicle control unit 38 perform the same operation. should be omitted.

제2 메모리(42)에는 설정시간(T2, T3, …, Tn)들이 추가로 저장된다.In the second memory 42, set times T2, T3, ..., Tn are additionally stored.

제2 영상기반 속도검출부(46)는 도 17에 도시된 바와 같이, 제2 프레임 추출부(461)와, 제2 프레임 분석부(462), 제2 주행속도 산출부(463)로 이루어진다.As shown in FIG. 17 , the second image-based speed detector 46 includes a second frame extractor 461, a second frame analyzer 462, and a second travel speed calculator 463.

제2 프레임 추출부(461)는 보조센서(303)로부터 감지정보를 입력받을 때, 제어부(41)의 제어에 따라 실행되며, 카메라(302)의 촬영에 의해 획득된 영상을 입력받는다.When receiving detection information from the auxiliary sensor 303, the second frame extraction unit 461 is executed under the control of the control unit 41 and receives an image acquired by the camera 302.

또한 제2 프레임 추출부(461)는 입력영상으로부터, 감지정보가 입력된 시점, 즉 보조센서(303)에 의해 감지지점(P)에 차량이 진입한 시점인 제1 시점(t1)의 프레임인 제1 프레임(F1)을 추출한다.In addition, the second frame extraction unit 461 is a frame of the first time point t1, which is the time point at which sensing information is input, that is, the time point at which the vehicle enters the sensing point P by the auxiliary sensor 303, from the input image. The first frame F1 is extracted.

또한 제2 프레임 추출부(461)는 타이머를 포함하며, 제1 시점(t1)을 기준으로 기 설정된 설정시간(T1, T2, …, Tn)들이 경과한 시점인 제2, 제3, … 제n 시점(t2, t3, …, tn+1)들이 되면, 입력영상으로부터 제2, 제3, … 제n 시점(t2, t3, …, tn+1)들의 프레임(F2, F3, …, Fn+1)들을 추출한다.In addition, the second frame extraction unit 461 includes a timer, and the second, third, ... time points at which preset times T1, T2, ..., Tn have elapsed based on the first time point t1. At the nth time points (t2, t3, ..., tn+1), the second, third, ... The frames F2, F3, ..., Fn+1 of the nth time points t2, t3, ..., tn+1 are extracted.

이러한 제2 프레임 추출부(461)는 도 10의 프레임 추출부(361)와 달리, 복수개의 프레임(F2, F3, …, Fn+1)들을 추출하도록 동작된다.Unlike the frame extractor 361 of FIG. 10, the second frame extractor 461 operates to extract a plurality of frames F2, F3, ..., Fn+1.

제2 프레임 분석부(462)는 도 10의 프레임 분석부(362)와 동일한 동작을 수행하되, 도 10의 프레임 추출부(361)와 달리, 제2 프레임 추출부(461)로부터 복수개의 프레임(F2, F3, …, Fn+1)들이 입력되기 때문에 복수개의 주행거리(Dx1, Dx2, …, Dxn)들이 산출된다.The second frame analyzer 462 performs the same operation as the frame analyzer 362 of FIG. 10 , but unlike the frame extractor 361 of FIG. 10 , a plurality of frames from the second frame extractor 461 ( Since F2, F3, ..., Fn+1) are input, a plurality of travel distances (Dx1, Dx2, ..., Dxn) are calculated.

이때 주행거리를 산출하는 과정은 전술하였던 도 10의 프레임 분석부(362)와 동일하기 때문에 자세한 설명은 생략하도록 한다.At this time, since the process of calculating the mileage is the same as that of the frame analyzer 362 of FIG. 10 described above, a detailed description thereof will be omitted.

제2 주행속도 산출부(463)는 제2 프레임 분석부(462)로부터 산출된 주행거리(Dx1, Dx2, …, Dxn)들을 대응되는 설정시간(T1, T2, …, Tn)들로 나누어 차량의 주행속도(v1, v2, …, vn)들을 산출한다.The second travel speed calculator 463 divides the travel distances (Dx1, Dx2, ..., Dxn) calculated from the second frame analyzer 462 into corresponding set times (T1, T2, ..., Tn) for the vehicle The traveling speeds (v1, v2, ..., vn) of are calculated.

또한 제2 주행속도 산출부(463)는 산출된 주행속도(v1, v2, …, vn)들의 평균값인 평균 주행속도(va)를 산출한다.In addition, the second travel speed calculator 463 calculates the average travel speed va, which is an average value of the calculated travel speeds v1, v2, ..., vn.

이와 같이 구성되는 제2 컨트롤러(40)는 제1 실시예인 도 7의 컨트롤러(30)에서 제1 프레임(F1)과 제2 프레임(F2)에 촬영된 번호판 이미지를 활용하여 주행속도(v)를 산출하는 것과 달리, 복수개의 프레임(F1, F2, F3, …, Fn+1)들로부터 번호판 이미지를 추출하여 주행속도(v1, v2, …, vn)들을 산출하며, 산출된 주행속도(v1, v2, …, vn)들로부터 평균 주행속도(va)를 산출하도록 구성되기 때문에 제2 프레임 추출부(461)로부터 추출된 프레임(F2, F3, …, Fn+1)들 중 일부가 카메라(302)의 진동 또는 충격 등에 의하여 흐릿하게 촬영되어도 복수개의 프레임들로부터 산출된 주행속도(v1, v2, …, vn)들의 평균 주행속도(va)를 산출하여 차량의 주행속도에 오차가 발생되는 것을 최소화할 수 있게 된다.The second controller 40 configured as described above uses the license plate images captured in the first frame F1 and the second frame F2 in the controller 30 of FIG. 7 according to the first embodiment to determine the driving speed v. Unlike calculation, license plate images are extracted from a plurality of frames (F1, F2, F3, ..., Fn + 1) to calculate driving speeds (v1, v2, ..., vn), and calculated driving speeds (v1, Since the average traveling speed va is calculated from v2, ..., vn, some of the frames F2, F3, ..., Fn+1 extracted from the second frame extraction unit 461 are selected from the camera 302. ) Minimize the occurrence of errors in the vehicle's traveling speed by calculating the average traveling speed (va) of the traveling speeds (v1, v2, ..., vn) calculated from a plurality of frames even if the image is blurry due to vibration or shock You can do it.

도 18은 도 11의 프레임 분석부의 제3 실시예인 제3 프레임 분석부의 블록도이고, 도 19는 도 18의 제2 주행거리 산출모듈의 블록도이고, 도 20은 제3 프레임 분석부에 의해 주행거리가 산출되는 과정을 설명하기 위한 번호판의 예시도이다.18 is a block diagram of a third frame analyzer that is a third embodiment of the frame analyzer of FIG. 11, FIG. 19 is a block diagram of a second travel distance calculation module of FIG. 18, and FIG. 20 is a travel by the third frame analyzer. It is an exemplary view of a license plate to explain the process of calculating the distance.

일반적으로 영상은 원근감에 의해 동일한 크기의 객체라고 하더라도, 전방에서 촬영될 때 크게 촬영되고, 후방에서 촬영될 때 작게 촬영되는 특성을 갖는다.In general, an image has a characteristic of being large when photographed from the front and small when photographed from the rear, even though the object is of the same size due to perspective.

이때 전술하였던 도 3 내지 도 15의 컨트롤러(30)는 차량이 차선을 따라 직선으로 이동(직선이동)한다는 가정 하에 주행거리를 산출하도록 구성되었으나, 실제 도로에는 차량의 차선 변경 등의 경사이동이 비일비재하게 발생하며, 경사이동 시에는 원근감에 의해 번호판 이미지의 우측변과 좌측변이 서로 다른 크기를 가질 뿐만 아니라, 번호판 이미지의 가로방향 픽셀수가 감소되는 특성을 갖는다.At this time, the controller 30 of FIGS. 3 to 15 described above is configured to calculate the mileage under the assumption that the vehicle moves in a straight line along the lane (straight line movement), but in actual roads, inclination movements such as changing lanes of the vehicle are infrequent. In the case of an oblique movement, the right side and the left side of the license plate image have different sizes due to perspective, and the number of pixels in the horizontal direction of the license plate image is reduced.

예를 들어, 제1 시점(t1)과 제2 시점(t2) 사이에 차량이 차선변경 등의 이유로 경사이동 한다고 가정할 때, 제2 시점(t2)의 번호판 이미지의 좌측변 및 우측변은 다른 크기로 촬영되고, 제2 시점(t2)에서의 번호판 이미지의 제2 가로픽셀수(Pb2)는 차량이 직선이동 할 때의 제2 가로픽셀수 보다 작은 크기로 촬영되게 된다.For example, when it is assumed that the vehicle tilts between the first time point t1 and the second time point t2 due to a lane change or the like, the left and right sides of the license plate image at the second time point t2 are different from each other. size, and the second number of horizontal pixels (Pb2) of the license plate image at the second time point (t2) is taken in a size smaller than the number of second horizontal pixels when the vehicle moves in a straight line.

즉 원근감에 의하여 감소된 제2 가로픽셀수(Pb2)를 활용하여 변동비율(Z)을 산출할 경우에는 변동비율(Z)이 차량이 직선 주행할 때보다 감소되기 때문에 차량의 실제 주행거리와 다른 주행거리가 산출되어 주행속도(v)의 산출에 오차가 발생하게 되는 문제가 발생하게 된다.That is, when the variation ratio (Z) is calculated by using the second number of horizontal pixels (Pb2) reduced by perspective, the variation ratio (Z) is reduced compared to when the vehicle is traveling in a straight line, which is different from the actual driving distance of the vehicle. A problem arises in that an error occurs in the calculation of the travel speed v due to the calculation of the travel distance.

제3 프레임 분석부(492)는 이러한 문제들이 발생되는 것을 방지하기 위하여 제1 프레임(F1)에서 추출된 제1 번호판 이미지(B1)와, 제2 프레임(F2)에서 추출된 제2 번호판 이미지(B2)의 좌우측변 길이를 각각 추출하며, 추출된 번호판 이미지들의 좌측변 변동비율과 우측변 변동비율을 활용하여 번호판 이미지의 좌측변간 거리와 우측변간 거리를 각각 산출하며, 산출된 좌측변간 거리와 우측변간 거리를 활용하여 차량의 주행거리(Dx)를 산출한다.The third frame analysis unit 492 is a first license plate image B1 extracted from the first frame F1 and a second license plate image extracted from the second frame F2 in order to prevent these problems from occurring ( The lengths of the left and right sides of B2) are extracted, respectively, and the distance between the left and right sides of the license plate image is calculated using the ratio of change of the left side and the right side of the extracted license plate images, respectively, and the calculated distance between the left and right sides of the license plate image is calculated. The driving distance (Dx) of the vehicle is calculated using the distance between the edges.

제3 프레임 분석부(492)는 도 11의 프레임 분석부(362)의 제3 실시예이며, 도 18에 도시된 바와 같이 객체 검출모듈(4921)과, 번호판 이미지 추출모듈(4922), 제2 픽셀수 산출모듈(4923), 제1 판단모듈(4924), 이격거리 산출모듈(4925), 제2 주행거리 산출모듈(4926)로 이루어진다.The third frame analysis unit 492 is a third embodiment of the frame analysis unit 362 of FIG. 11, and as shown in FIG. 18, the object detection module 4921, the license plate image extraction module 4922, the second It consists of a pixel count calculation module 4923, a first determination module 4924, a separation distance calculation module 4925, and a second travel distance calculation module 4926.

이때 객체 검출모듈(4921)은 제1 프레임(F1)으로부터 감지지점(P)에 진입한 진입차량을 검출하며, 제1 프레임(F1)으로부터 검출된 진입차량과 동일한 차량을 제2 프레임(F2)으로부터 검출한다.At this time, the object detection module 4921 detects the entering vehicle entering the detection point P from the first frame F1, and detects the same vehicle as the entering vehicle detected from the first frame F1 in the second frame F2. detect from

번호판 이미지 추출모듈(4922)은 객체 검출모듈(4921)에 의해 제1 프레임(F1)과 제2 프레임(F2)으로부터 진입차량이 검출될 때 실행되며, 제1 프레임(F1)에서 제1 번호판 이미지(B1)를 추출하며, 제2 프레임(F2)에서 제2 번호판 이미지(B2)를 추출한다.The license plate image extraction module 4922 is executed when an entering vehicle is detected from the first frame F1 and the second frame F2 by the object detection module 4921, and the first license plate image in the first frame F1. (B1) is extracted, and the second license plate image (B2) is extracted from the second frame (F2).

제2 픽셀수 산출모듈(4923)은 제1 번호판 이미지(B1)와 제2 번호판 이미지(B2)로부터 픽셀수를 산출한다.The second pixel count calculation module 4923 calculates the number of pixels from the first license plate image B1 and the second license plate image B2.

이때 제2 픽셀수 산출모듈(4923)은 1)제1 번호판 이미지(B1)를 분석하여, 제1 번호판 이미지(B1)의 좌측변 픽셀수인 제1 좌측변 픽셀수(L1) 및 제1 번호판 이미지(B1)의 우측변 픽셀수인 제1 우측변 픽셀수(R1)를 산출하며, 2)제2 번호판 이미지(B2)를 분석하여, 제2 번호판 이미지(B2)의 좌측변 픽셀수인 제2 좌측변 픽셀수(L2) 및 제2 번호판 이미지(B2)의 우측변 픽셀수인 제2 우측변 픽셀수(R2)를 산출한다.At this time, the second pixel count calculation module 4923 1) analyzes the first license plate image B1, and determines the first number of pixels L1 on the left side of the first license plate image B1, which is the number of pixels on the left side, and the first number plate The first number of pixels on the right side R1, which is the number of pixels on the right side of the image B1, is calculated, and 2) the number of pixels on the left side of the second license plate image B2 is analyzed by analyzing the second license plate image B2. 2 The number of pixels on the left side (L2) and the number of pixels on the right side of the second license plate image (B2), that is, the second number of pixels on the right side (R2) are calculated.

제1 판단모듈(4924)은 제2 픽셀수 산출모듈(4923)에 의해 산출된 제1 좌측변 픽셀수(L1)와 제1 우측변 픽셀수(R1)를 비교하며, 픽셀수가 더 큰 변을 전방에 배치된 변(이하 ‘전방변’이라 함)이라고 판단한다.The first determination module 4924 compares the first left side pixel number L1 and the first right side pixel number R1 calculated by the second pixel number calculation module 4923, and selects the side with the larger number of pixels. It is determined that the side disposed in the front side (hereinafter referred to as 'front side').

이때 전방변은 번호판 이미지의 좌우측변 중 후방에 배치된 변(이하 ‘후방변’이라고 함)보다 전방에 배치되어 카메라(302)와의 거리가 후방변보다 가까운 변이다.At this time, the front side is a side disposed in front of the rear side (hereinafter referred to as 'rear side') among the left and right sides of the license plate image, and is closer to the camera 302 than the rear side.

또한 설명의 편의를 위해 번호판 이미지의 좌측변이 전방변인 것으로 예를 들어 설명하도록 한다.In addition, for convenience of explanation, the left side of the license plate image is described as an example as the front side.

이격거리 산출모듈(4925)은 제1 좌측변 픽셀수(L1)와 제1 우측변 픽셀수(R1)이 전후방향으로 이격된 거리인 이격거리(D1)를 산출한다.The separation distance calculation module 4925 calculates the separation distance D1, which is the distance at which the first number of pixels on the left side L1 and the number of pixels on the right side R1 are separated in the front-back direction.

이때 이격거리 산출모듈(4925)은 수학식 1에 제1 좌측변 픽셀수(L1)와 제1 우측변 픽셀수(R1)를 수학식 1에 대입함으로써 전방변의 변동비율인 제1 변동비율(Y1)을 산출한다.At this time, the separation distance calculation module 4925 substitutes the first number of pixels on the left side (L1) and the number of pixels on the right side (R1) into Equation 1, so that the first change rate (Y1), which is the change rate of the front side, ) is calculated.

또한 이격거리 산출모듈(4925)은 제1 변동비율(Y1)을 수학식 5에 대입함으로써 이격거리(D1)를 산출한다.Also, the separation distance calculation module 4925 calculates the separation distance D1 by substituting the first variable ratio Y1 into Equation 5.

이때 제1 변동비율(Y1)을 산출하는 방식 및 이격거리(D1)를 산출하는 방식은 전술하였던 변동비율(Z)을 산출하는 방식 및 차량의 주행거리(Dx)를 산출하는 방식과 동일하기 때문에 자세한 설명은 생략하도록 한다.At this time, the method of calculating the first variable ratio Y1 and the method of calculating the separation distance D1 are the same as the method of calculating the aforementioned variable ratio Z and the method of calculating the mileage Dx of the vehicle. A detailed description is omitted.

제2 주행거리 산출모듈(4926)은 도 19에 도시된 바와 같이, 좌측변간 거리값 산출모듈(49261)과, 우측변간 거리값 산출모듈(49262), 평균거리 산출모듈(49263)로 이루어진다.As shown in FIG. 19 , the second travel distance calculation module 4926 includes a left edge distance calculation module 49261, a right edge distance calculation module 49262, and an average distance calculation module 49263.

좌측변간 거리값 산출모듈(49261)은 제1 좌측변 픽셀수(L1)와 제2 좌측변 픽셀수(L2)를 수학식 1에 대입함으로써 좌측변의 변동비율을 산출하며, 산출된 좌측변의 변동비율을 수학식 5에 대입하여 좌측변간 거리값(D2)을 산출한다.The left side-to-side distance calculation module 49261 calculates the left side change rate by substituting the first left side pixel number L1 and the second left side pixel number L2 into Equation 1, and calculates the left side change rate. Substitute into Equation 5 to calculate the left edge distance value (D2).

이때 좌측변간 거리값(D2)을 산출하는 방법은 이전에 설명한 주행거리(Dx)를 산출하는 방법과 동일하기 때문에 자세한 설명은 생략하도록 한다.At this time, since the method of calculating the distance value D2 between the left edges is the same as the method of calculating the distance Dx previously described, detailed descriptions thereof will be omitted.

우측변간 거리값 산출모듈(49262)은 제1 우측변 픽셀수(R1)와 제2 우측변 픽셀수(R2)를 수학식 1에 대입함으로써 우측변의 변동비율을 산출하며, 산출된 우측변의 변동비율을 수학식 5에 대입하여 우측변간 거리값(D3)을 산출한다.The right-side distance calculation module 49262 calculates the right-side variation ratio by substituting the first right-side pixel number R1 and the second right-side pixel number R2 into Equation 1, and the calculated right-side variation ratio is substituted into Equation 5 to calculate the distance value D3 between the right edges.

이때 제1 번호판 이미지(B1)의 우측변의 경우에는 전방변인 좌측변이 배치된 감지거리(Ds)로부터 이격거리(D1)만큼 후방에 배치되어 카메라(302)로부터 감지거리(Ds)와 이격거리(D1)를 합한 값(Ds’, Ds’=Ds+D1)만큼 이격되도록 배치되기 때문에 수학식 5의 Ds에 Ds’을 대입하는 것이 바람직하다.At this time, in the case of the right side of the first license plate image B1, the left side, which is the front side, is disposed rearward by the distance D1 from the sensing distance Ds where the left side is disposed, and the sensing distance Ds and the distance D1 from the camera 302 ), it is preferable to substitute Ds' for Ds in Equation 5 because they are spaced apart by the sum of (Ds', Ds' = Ds + D1).

평균거리 산출모듈(49263)은 좌측변간 거리값(D2)과 우측변간 거리값(D3)의 평균값인 평균거리값(D4)을 산출한다.The average distance calculation module 49263 calculates an average distance value D4 that is an average value of the left edge distance value D2 and the right edge distance value D3.

이러한 평균거리 산출모듈(49263)은 차량이 경사이동하여 제1 차량촬영각도(θ1)와 제2 프레임(F2)에서의 차량촬영각도인 제2 차량촬영각도(θ2)가 다를 때에도, 좌측변간 거리값(D2)과 우측변간 거리값(D3)의 평균값인 평균거리값(D4)을 산출하여 차량이 설정시간(T1) 동안 이동한 거리를 산출할 수 있다.The average distance calculation module 49263 calculates the distance between the left sides even when the first vehicle capturing angle θ1 and the second vehicle capturing angle θ2, which is the vehicle capturing angle in the second frame F2, are different from each other due to an inclined movement of the vehicle. The distance traveled by the vehicle during the set time period T1 may be calculated by calculating the average distance value D4, which is an average value of the value D2 and the distance value D3 between the right edges.

이와 같이 구성되는 제3 프레임 분석부(492)는 차량이 경사이동할 때에도 번호판의 좌측변간 거리값(D2)과, 우측변간 거리값(D3)의 평균값인 평균거리값(D4)을 산출하여 차량이 설정시간(T1) 동안 이동한 거리를 산출할 수 있도록 구성된다.The third frame analysis unit 492 configured as described above calculates the average distance value D4, which is the average value of the distance value D2 between the left edges and the distance value D3 between the right edges of the license plate even when the vehicle moves in an inclined direction, so that the vehicle It is configured to calculate the distance traveled during the set time period (T1).

도 21은 도 10의 영상기반 속도검출부의 제3 실시예인 제3 영상기반 속도검출부의 블록도이고, 도 22는 도 21의 설정시간 최적화부의 블록도이고, 도 23은 도 22의 최적거리 산출모듈의 블록도이고, 도 24는 최적거리를 설명하기 위한 예시도이고, 도 25는 측면에서 촬영된 차량의 예시도이다.21 is a block diagram of a third video-based speed detector, which is a third embodiment of the image-based speed detector of FIG. 10, FIG. 22 is a block diagram of a set time optimization unit of FIG. 21, and FIG. 23 is an optimal distance calculation module of FIG. , FIG. 24 is an exemplary diagram for explaining an optimal distance, and FIG. 25 is an exemplary diagram of a vehicle photographed from the side.

제3 영상기반 속도검출부(56)는 도 10의 영상기반 속도검출부(36)의 제3 실시예이며, 도 21에 도시된 바와 같이, 프레임 추출부(561)와, 프레임 분석부(562), 주행속도 산출부(563), 설정시간 최적화부(564)로 이루어진다.The third image-based speed detector 56 is a third embodiment of the image-based speed detector 36 of FIG. 10, and as shown in FIG. 21, a frame extractor 561, a frame analyzer 562, It consists of a travel speed calculation unit 563 and a set time optimization unit 564.

이때 프레임 추출부(561)와, 프레임 분석부(562), 주행속도 산출부(563)는 전술하였던 도 10의 프레임 추출부(361)와, 프레임 분석부(362), 주행속도 산출부(363)와 동일한 동작을 수행하기 때문에 자세한 설명은 생략하도록 한다.At this time, the frame extractor 561, the frame analyzer 562, and the travel speed calculator 563 include the frame extractor 361, the frame analyzer 362, and the travel speed calculator 363 of FIG. 10 described above. ), so detailed descriptions will be omitted.

이때 컨트롤러(30)의 메모리(32)에는 주기(T’) 및 최적영역의 위치정보가 추가로 저장된다.At this time, the memory 32 of the controller 30 additionally stores the period T' and location information of the optimal area.

이때 주기(T’)는 설정시간 최적화부(564)가 실행되는 주기를 의미한다.At this time, the period T' means a period in which the set time optimization unit 564 is executed.

또한 최적영역의 위치정보는 영상분석의 정확성을 높일 수 있는 제2 번호판 이미지(B2)의 프레임 상의 위치정보를 의미하며, 프레임의 중앙과 인접한 위치를 의미한다.In addition, the location information of the optimal area means location information on the frame of the second license plate image (B2) that can increase the accuracy of image analysis, and means a location adjacent to the center of the frame.

또한 메모리(32)에는 평균거리 산출모듈(5644)에 의해 산출된 평균거리와, 임계거리값이 저장된다.Also, the average distance calculated by the average distance calculation module 5644 and the threshold distance value are stored in the memory 32 .

이때 임계거리값은 설정시간(T1)을 재설정해야 한다고 판단할 수 있는 차이값 산출모듈(5645)에 의해 산출된 차이값의 최소값을 의미한다.At this time, the threshold distance value means the minimum value of the difference value calculated by the difference value calculation module 5645 that can determine that the set time T1 needs to be reset.

일반적으로, 도로의 교통량은 장소, 시간대, 날씨 등의 다양한 변수에 의해 변화되고, 차량들의 평균적인 주행속도는 변화된 도로의 교통량에 의해 변화된다.In general, the traffic volume on a road is changed by various variables such as location, time of day, and weather, and the average traveling speed of vehicles is changed by the traffic volume on the changed road.

특히 본 발명은 컨트롤러(30)가 차량이 감지된 시점(P)의 제1 프레임(F1)과, 기 설정된 설정시간(T1)이 경과한 시점의 제2 프레임(F2)을 이용하여 주행속도(v)를 산출하기 때문에 1)교통량이 증가되어 저속 주행할 경우, 제1 프레임(F1)과 제2 프레임(F2)에 촬영된 번호판 이미지 사이의 거리가 감소되며, 2)교통량이 감소되어 고속 주행할 경우, 제1 프레임(F1)과 제2 프레임(F2)에 촬영된 번호판 이미지 사이의 거리가 증가되어 제1 번호판 이미지(B1)와 제2 번호판 이미지(B2)를 비교하여 주행속도를 산출하는 과정에서 오차가 발생하는 문제가 발생하게 된다.In particular, the present invention is the driving speed ( Since v) is calculated, 1) when driving at low speed due to increased traffic volume, the distance between the license plate images captured in the first frame (F1) and the second frame (F2) is reduced, and 2) when driving at high speed due to reduced traffic volume In the case of, the distance between the license plate images photographed in the first frame (F1) and the second frame (F2) is increased to calculate the driving speed by comparing the first license plate image (B1) and the second license plate image (B2) Errors may occur in the process.

이하, 차량의 주행속도가 저속 또는 고속일 때 산출되는 주행속도에 오차가 발생되는 문제점에 대해 도 24와 도 25을 참조하여 설명하기로 한다.Hereinafter, a problem in which an error occurs in the calculated driving speed when the driving speed of the vehicle is low or high will be described with reference to FIGS. 24 and 25 .

도 24에 도시된 바와 같이, 감지지점(P)에 차량 통과 시, 제1 프레임(F1)의 번호판이미지(B1)는 감지지점(P)의 픽셀위치에 배치하게 되고, 기 설정된 설정주기(T1)가 경과하면, 차량이 카메라를 향해 이동하기 때문에 번호판이미지가 감지지점(P)보다 전방으로 이동하게 된다.As shown in FIG. 24, when the vehicle passes the detection point P, the license plate image B1 of the first frame F1 is disposed at the pixel position of the detection point P, and the preset period T1 ) elapses, the license plate image moves forward from the detection point P because the vehicle moves toward the camera.

이때 제2 프레임(F2) 내에서의 번호판 이미지의 픽셀위치는 주행속도(v)가 높으면 높을수록 전방으로 이동하게 된다.At this time, the pixel position of the license plate image in the second frame F2 moves forward as the driving speed v increases.

즉, 도 24에 도시된 바와 같이, 1)교통량이 감소되어 차량들의 주행속도(v)가 증가될 경우, 설정시간(T1)이 경과된 시점의 제2 번호판 이미지(B4)는 프레임 내에서 전방(P4)에 배치되고, 2)교통량이 증가되어 차량들의 주행속도(v)가 감소될 경우, 설정시간(T1)이 경과된 시점의 제2 번호판 이미지(B2)는 프레임 내에서 감지지점(P)과 인접한 위치(P3)에 배치된다.That is, as shown in FIG. 24, 1) when the traffic volume is reduced and the traveling speed (v) of the vehicles is increased, the second license plate image (B4) at the time when the set time (T1) has elapsed is forward within the frame. (P4), and 2) when the traveling speed (v) of the vehicles is reduced due to increased traffic volume, the second license plate image (B2) at the time when the set time (T1) has elapsed is the detection point (P) within the frame. ) and is disposed at a position adjacent to (P3).

이때 1)제2 번호판 이미지(B2)가 제1 번호판 이미지(B1)와 과도하게 인접할 경우, 번호판 이미지의 변동비율이 미세하여 주행거리(Dx)를 산출하는 과정에서 오차율이 높아지는 단점을 갖고, 2)제2 번호판 이미지(B2)가 제1 번호판 이미지(B1)와 과도하게 이격되어 프레임의 전방에 위치할 경우, 도 25에 도시된 바와 같이, 카메라의 촬영각도 차이로 인해 오차율이 높아지는 단점을 갖게 된다.At this time, 1) When the second license plate image B2 is excessively adjacent to the first license plate image B1, the fluctuation rate of the license plate image is minute, resulting in a high error rate in the process of calculating the mileage Dx. 2) When the second license plate image (B2) is excessively spaced apart from the first license plate image (B1) and is located in front of the frame, as shown in FIG. will have

즉, 차량의 주행속도에 맞춰 설정시간(T1)을 최적화함으로써 제2 번호판 이미지(B2)가 프레임의 중간지점인 최적영역에 배치되도록 할 필요가 있다.That is, by optimizing the setting time T1 according to the driving speed of the vehicle, it is necessary to arrange the second license plate image B2 in the optimum region, which is the midpoint of the frame.

설정시간 최적화부(564)는 도 22에 도시된 바와 같이, 최적거리 산출모듈(5641)과, 평균주행속도 산출모듈(5642), 평균주행거리 산출모듈(5643), 평균거리 산출모듈(5644), 차이값 산출모듈(5645), 제2 판단모듈(5646), 설정시간 재설정모듈(5647)로 이루어진다.As shown in FIG. 22, the set time optimization unit 564 includes an optimal distance calculation module 5641, an average traveling speed calculation module 5642, an average travel distance calculation module 5643, and an average distance calculation module 5644. , a difference value calculation module 5645, a second decision module 5646, and a set time resetting module 5647.

최적거리 산출모듈(5641)은 도 23에 도시된 바와 같이, 선별프레임 추출모듈(56411)과, 제2 감지거리 추출모듈(56412), 최적거리 결정모듈(56413)로 이루어진다.As shown in FIG. 23, the optimum distance calculation module 5641 includes a selection frame extraction module 56411, a second detection distance extraction module 56412, and an optimum distance determination module 56413.

선별프레임 추출모듈(56411)은 주기(T’) 동안 메모리(32)에 수집된 제2 프레임(F2)들을 수집한 후, 수집된 제2 프레임(F2)들 중 제2 번호판 이미지(B2)가 최적영역에 배치되는 프레임들을 추출한다. 이때 추출된 프레임을 선별프레임이라고 명칭하기로 한다.After the selection frame extraction module 56411 collects the second frames F2 collected in the memory 32 during the period T', the second license plate image B2 among the collected second frames F2 is Frames placed in the optimal region are extracted. At this time, the extracted frame will be referred to as a selection frame.

제2 감지거리 추출모듈(56412)은 선별프레임 추출모듈(56411)에 의해 추출된 선별프레임들에 의한 분석데이터들을 메모리(32)로부터 추출하며, 추출된 각 선별프레임의 분석데이터로부터, 카메라(302)로부터 제2 번호판 이미지(B2)까지의 평면상 직선거리인 제2 감지거리 정보를 추출한다.The second detection distance extraction module 56412 extracts the analysis data by the selection frames extracted by the selection frame extraction module 56411 from the memory 32, and from the extracted analysis data of each selection frame, the camera 302 ) to extract the second sensing distance information, which is a linear distance on a plane from the second license plate image B2.

이때 제2 감지거리는 카메라(302)로부터 제2 시점(t2)에서의 감지차량과 카메라(302)의 평면상 직선거리를 의미하며, 감지거리(Ds)와 주행거리(Dx)를 차감한 값(Ds-Dx)을 의미한다.At this time, the second sensing distance means a straight line distance on a plane between the sensing vehicle and the camera 302 at the second time point t2 from the camera 302, a value obtained by subtracting the sensing distance Ds and the traveling distance Dx ( Ds-Dx).

최적거리 결정모듈(56413)은 제2 감지거리 추출모듈(56412)로부터 추출된 제2 감지거리들의 평균값을 산출하며, 산출된 제2 감지거리들의 평균값을 최적거리로 결정한다.The optimum distance determination module 56413 calculates an average value of the second sensing distances extracted from the second sensing distance extraction module 56412, and determines the average value of the calculated second sensing distances as the optimum distance.

이때 최적거리는 프레임 상에 설정된 최적영역의 위치정보와 대응되는 위치의 카메라(302)로부터 평면상 직선거리를 의미한다.In this case, the optimal distance means a straight line distance on a plane from the camera 302 at a position corresponding to the location information of the optimal area set on the frame.

일반적으로 프레임 상의 위치와, 실제 도로의 위치를 매칭시키기 위해서는, 영상과 실제도로를 매칭시키기 위한 기준위치를 설정하는 등의 별도 사전작업이 필요하나, 본 발명은 이러한 사전작업 없이도, 적용이 가능하도록, 기 설정된 주기(T’) 마다 이전 선별프레임들의 평균값의 산출을 통해 최적영역(프레임 상)에 매칭되는 최적거리를 검출하도록 구성되었기 때문에 다양한 높이, 촬영각도 등에 설치되더라도, 최적영역에 매칭되는 최적거리를 산출할 수 있게 된다.In general, in order to match the location on the frame with the location of the actual road, a separate preliminary work such as setting a reference position for matching the image and the actual road is required, but the present invention can be applied without such preliminary work. , Since it is configured to detect the optimal distance matching the optimal area (on the frame) through the calculation of the average value of the previous selected frames for each predetermined period (T '), even if installed at various heights and shooting angles, the optimum matching the optimal area distance can be calculated.

또한 최적거리 산출모듈(5641)에 의해 산출된 최적거리는 후술되는 차이값 산출모듈(5645)로 입력된다.In addition, the optimum distance calculated by the optimum distance calculation module 5641 is input to a difference value calculation module 5645 to be described later.

평균주행속도 산출모듈(5642)은 주기(T’)마다 실행되며, 메모리(32)로부터 주기(T’) 동안 주행속도 산출부(363)에 의해 산출된 차량들의 주행속도(v)들을 추출하며, 추출된 주행속도(v)들의 평균값인 평균주행속도(V)를 산출한다.The average traveling speed calculation module 5642 is executed every period T', and extracts the traveling speeds v of vehicles calculated by the traveling speed calculating unit 363 during the period T' from the memory 32 and , Calculate the average traveling speed (V), which is the average value of the extracted traveling speeds (v).

평균주행거리 산출모듈(5643)은 평균주행속도 산출모듈(5642)에 의해 산출된 평균주행속도(V)와 메모리(32)에 저장된 설정시간(T1)을 곱한 값인 평균주행거리(Da)를 산출한다.The average travel distance calculation module 5643 calculates the average travel distance Da, which is a value obtained by multiplying the average travel speed V calculated by the average travel speed calculation module 5642 by the set time T1 stored in the memory 32. do.

평균거리 산출모듈(5644)은 감지거리(Ds)로부터 평균주행거리 산출모듈(5643)에 의해 산출된 평균주행거리(Da)를 차감한 값인 평균거리를 산출한다.The average distance calculation module 5644 calculates an average distance obtained by subtracting the average travel distance Da calculated by the average travel distance calculation module 5643 from the detected distance Ds.

차이값 산출모듈(5645)은 평균거리 산출모듈(5644)에 의해 산출된 평균거리로부터 최적거리 산출모듈(5641)로부터 산출된 최적거리를 차감한 값인 차이값을 산출한다.The difference calculation module 5645 calculates a difference value obtained by subtracting the optimum distance calculated by the optimum distance calculation module 5641 from the average distance calculated by the average distance calculation module 5644.

이때 차이값은 카메라(302)에 의해 촬영된 차량들이 최적거리와 평균적으로 이격된 거리값을 의미하며, 차이값이 클수록 차량들이 최적거리로부터 이격됨을 의미한다.At this time, the difference value means a distance value at which the vehicles photographed by the camera 302 are spaced apart on average from the optimal distance, and the larger the difference value, the more the vehicles are separated from the optimal distance.

또한 차이값은 1)양수일 경우, 차량들이 최적거리에 도달하지 못한 상태에서 촬영되어 제2 번호판 이미지(B2)가 제1 번호판 이미지(B1)와 인접한 상태로 촬영되었음을 의미하며, 2)음수일 경우, 제2 번호판 이미지(B2)가 제1 번호판 이미지(B1)와 과도하게 이격된 상태에서 촬영됨을 의미한다.In addition, if the difference value is 1) positive, it means that the vehicles are photographed in a state where they do not reach the optimal distance and the second license plate image (B2) is photographed adjacent to the first license plate image (B1), and 2) if it is a negative number , This means that the second license plate image B2 is captured in a state excessively spaced apart from the first license plate image B1.

제2 판단모듈(5646)은 차이값 산출모듈(5645)에 의해 산출된 차이값의 절대값과, 메모리(32)에 저장된 임계거리값을 비교하며, 1)차이값 산출모듈(5645)에 의해 산출된 차이값의 절대값이 임계거리값 미만이면, 정상적으로 촬영되었다고 판단하되, 2)차이값 산출모듈(5645)에 의해 산출된 차이값의 절대값이 임계거리값 이상이면, 설정시간(T1)의 재설정이 필요하다고 판단하여 설정시간 재설정모듈(5647)을 실행시킨다.The second determination module 5646 compares the absolute value of the difference value calculated by the difference value calculation module 5645 with the threshold distance value stored in the memory 32, and 1) by the difference value calculation module 5645 If the absolute value of the calculated difference value is less than the threshold distance value, it is determined that the photograph was taken normally. 2) If the absolute value of the difference value calculated by the difference value calculation module 5645 is greater than or equal to the threshold distance value, the set time (T1) It is determined that resetting is necessary and the set time resetting module 5647 is executed.

설정시간 재설정모듈(5647)은 차이값의 절대값이 임계거리값 이상일 때 실행되며, 1)차이값이 양수일 경우에는 설정시간(T1)을 기 설정된 상수‘α’ 만큼 증가시키며, 2)차이값이 음수일 경우에는 설정시간(T1)을 기 설정된 상수‘α’ 만큼 감소시킴으로써 제2 번호판 이미지(B2)가 최적거리와 인접한 위치에서 촬영되도록 한다.The set time reset module 5647 is executed when the absolute value of the difference value is greater than or equal to the threshold distance value. 1) If the difference value is a positive number, the set time T1 is increased by a preset constant 'α', and 2) the difference value If this is a negative number, the set time (T1) is reduced by a predetermined constant 'α' so that the second license plate image (B2) is taken at a position adjacent to the optimal distance.

이를 통해 설정시간 재설정모듈(5647)은 설정시간(T1)의 재설정을 통해 제2 번호판 이미지(B2)가 최적거리에서 촬영되도록 유도함으로써 차량의 주행속도(v) 측정에 오차가 발생되는 것을 방지한다.Through this, the set time reset module 5647 induces the second license plate image B2 to be taken at the optimum distance through resetting the set time T1, thereby preventing an error from occurring in measuring the driving speed v of the vehicle. .

이와 같이 구성되는 제3 영상기반 속도검출부(56)는 제2 프레임(F2)에 촬영된 제2 번호판 이미지(B2)의 위치가 제1 번호판 이미지(B1)와 인접하게 촬영되거나, 이격되게 촬영될 경우, 설정시간(T1)을 재설정하여 최적거리와 인접한 위치에서 제2 번호판 이미지(B2)가 촬영되도록 함으로써 제2 번호판 이미지(B2)가 제1 번호판 이미지(B1)와 너무 인접하게 촬영되거나, 너무 이격되게 촬영되어 차량의 주행거리(Dx)를 산출하는 과정에서 오차가 발생되는 것을 방지한다.The third image-based speed detection unit 56 configured as described above is to be photographed adjacent to or spaced apart from the first license plate image B1 in the position of the second license plate image B2 photographed in the second frame F2. In this case, the second license plate image (B2) is taken too close to the first license plate image (B1) by resetting the set time (T1) so that the second license plate image (B2) is taken at a position adjacent to the optimal distance, or too close to the first license plate image (B1). It is photographed at a distance to prevent an error from occurring in the process of calculating the mileage Dx of the vehicle.

1 : 교통정보 관리 시스템 3: 촬영부
6 : 중앙관제서버 7 : 통신망
30 : 컨트롤러 31 : 제어부
32 : 메모리 33 : 통신 인터페이스부
34 : 데이터 입출력부 35 : 감지수단 기반 속도검출부
36 : 영상기반 속도검출부 37 : 속도 결정부
38 : 위반차량 단속부 301 : 감지수단
302 : 카메라 303 : 보조센서
1: Traffic information management system 3: Filming department
6: central control server 7: communication network
30: controller 31: control unit
32: memory 33: communication interface unit
34: data input/output unit 35: detection means-based speed detection unit
36: image-based speed detection unit 37: speed determination unit
38: violation vehicle control unit 301: detection means
302: camera 303: auxiliary sensor

Claims (11)

기 설정된 영역의 차량을 감지한 후, 감지차량의 속도를 산출 하는 적어도 하나 이상의 촬영부를 포함하는 교통정보 관리 시스템에 있어서:
상기 촬영부는
기 설정된 영역을 감지하는 감지수단;
기 설정된 영역을 촬영하는 카메라;
상기 감지수단 및 상기 카메라로부터 입력된 데이터를 분석하여, 차량을 감지한 후, 감지차량의 속도를 검출하며, 상기 감지수단으로부터 수신 받은 감지데이터를 분석하여 차량의 속도를 검출하되, 감지차량의 속도가 기 설정된 값 이하일 때, 상기 카메라로부터 획득된 영상정보를 분석하여 차량의 속도를 산출하는 컨트롤러;
차량 감지 시, 감지신호를 분석하여, 상기 카메라로부터 감지차량과의 평면상 직선거리인 감지거리(Ds)를 산출하며, 산출된 감지거리(Ds) 정보를 포함하는 감지정보를 생성하여 상기 컨트롤러로 출력하는 보조센서를 포함하고,
상기 컨트롤러는
입력영상으로부터 차량객체를 검출한 후, 검출된 차량객체로부터 차량 번호판을 추출하는 알고리즘인 번호판 추출 알고리즘이 저장되는 메모리;
상기 감지수단으로부터 획득된 감지정보를 분석하여 차량의 속도를 검출하는 감지수단 기반 속도검출부;
상기 카메라로부터 획득된 영상정보를 분석하여 차량의 속도를 검출하는 영상기반 속도검출부;
상기 감지수단 기반 속도검출부로부터 검출된 차량의 속도인 제1 차량속도(C1)를 최종 속도값으로 결정하되, 제1 차량속도(C1)가 기 설정된 임계속도값 이하일 때, 상기 영상기반 속도검출부로부터 검출된 차량 속도인 제2 차량속도(C2)를 최종 속도값으로 결정하는 속도결정부를 포함하고,
상기 영상기반 속도검출부는
상기 카메라의 촬영에 의해 획득된 영상으로부터 차량이 감지된 시점(t1)의 프레임인 제1 프레임(F1)과, 기 설정된 설정시간(T1)이 경과된 시점(t2)의 프레임인 제2 프레임(F2)을 추출하는 프레임 추출부;
상기 프레임 추출부에 의해 추출된 제1, 2 프레임(F1), (F2)들로부터 번호판이미지(B1), (B2)들을 각각 추출하며, 추출된 제1, 2 번호판 이미지(B1), (B2)들을 활용하여 변동비율(Z)을 산출한 후, 변동비율(Z)에 비례하여 감지차량의 주행거리(Dx)가 증가하는 특성을 감안하여, 산출된 변동비율(Z)과 상기 보조센서로부터 입력된 감지거리(Ds)를 활용하여 감지차량의 주행거리(Dx)를 산출하는 프레임 분석부;
상기 프레임 분석부에 의해 산출된 감지차량의 주행거리(Dx)를 설정시간(T1)으로 나누어 차량의 주행속도(v)를 산출하는 주행속도 산출부를 포함하는 것을 특징으로 하는 교통정보 관리 시스템.
In a traffic information management system including at least one photographing unit that detects a vehicle in a preset area and then calculates the speed of the detected vehicle:
The filming department
Detecting means for detecting a preset area;
a camera that captures a preset area;
The vehicle is detected by analyzing the data input from the sensing means and the camera, and then the speed of the sensing vehicle is detected, and the speed of the sensing vehicle is detected by analyzing the sensing data received from the sensing means. a controller for calculating the speed of the vehicle by analyzing the image information obtained from the camera when is less than a preset value;
When detecting a vehicle, the detection signal is analyzed to calculate the detection distance (Ds), which is a straight-line distance on a plane from the camera to the detected vehicle, and the detection information including the calculated detection distance (Ds) information is generated and transferred to the controller. Including an auxiliary sensor that outputs,
The controller
a memory in which a license plate extraction algorithm, which is an algorithm for extracting a vehicle license plate from the detected vehicle object after detecting a vehicle object from an input image, is stored;
a sensing means-based speed detection unit for detecting a speed of the vehicle by analyzing the sensing information obtained from the sensing means;
an image-based speed detector for detecting the speed of the vehicle by analyzing the image information obtained from the camera;
The first vehicle speed C1, which is the speed of the vehicle detected by the sensing unit-based speed detection unit, is determined as a final speed value, and when the first vehicle speed C1 is equal to or less than a preset threshold speed value, the image-based speed detection unit determines And a speed determination unit for determining the second vehicle speed C2, which is the detected vehicle speed, as a final speed value,
The video-based speed detection unit
A first frame (F1), which is a frame at the time point (t1) when the vehicle is detected from the image acquired by the camera, and a second frame (F1), which is a frame at the time point (t2) when the preset time (T1) has elapsed ( F2) a frame extraction unit for extracting;
License plate images (B1) and (B2) are extracted from the first and second frames (F1) and (F2) extracted by the frame extraction unit, respectively, and the extracted first and second license plate images (B1) and (B2) are extracted. After calculating the variation ratio (Z) using ), considering the characteristic that the mileage (Dx) of the detected vehicle increases in proportion to the variation ratio (Z), from the calculated variation ratio (Z) and the auxiliary sensor a frame analyzer that calculates a travel distance Dx of the detected vehicle by utilizing the input detected distance Ds;
and a driving speed calculation unit for dividing the traveling distance (Dx) of the detected vehicle calculated by the frame analyzing unit by a set time (T1) to calculate the traveling speed (v) of the vehicle.
삭제delete 제1항에 있어서, 상기 속도결정부는
상기 감지수단 기반 속도검출부 및 상기 영상기반 속도검출부로부터 제1 차량속도(C1) 및 제2 차량속도(C2)를 추출하는 속도값 추출모듈;
제1 차량속도(C1)를 기 설정된 임계속도값과 비교하는 비교모듈;
제1 차량속도(C1)가 기 설정된 임계속도값 이상일 경우에는 제1 차량속도(C1)를 최종 속도값으로 결정하되, 제1 차량속도(C1)가 임계속도값 미만일 때, 제2 차량속도(C2)를 최종 속도값으로 결정하는 결정모듈을 포함하는 것을 특징으로 하는 교통정보 관리 시스템.
The method of claim 1, wherein the speed determining unit
a speed value extraction module for extracting a first vehicle speed (C1) and a second vehicle speed (C2) from the sensing unit-based speed detection unit and the image-based speed detection unit;
a comparison module that compares the first vehicle speed C1 with a preset threshold speed value;
When the first vehicle speed C1 is greater than or equal to the preset threshold speed value, the first vehicle speed C1 is determined as the final speed value, but when the first vehicle speed C1 is less than the threshold speed value, the second vehicle speed ( A traffic information management system comprising a decision module for determining C2) as the final speed value.
삭제delete 제3항에 있어서, 상기 프레임 분석부는
상기 번호판 추출 알고리즘을 이용하여, 제1 프레임(F1)으로 부터 차량객체를 검출한 후, 검출된 차량객체로부터 제1 번호판 이미지(B1)를 추출하며, 상기 번호판 추출 알고리즘을 이용하여 제2 프레임(F2)으로부터 제2 번호판 이미지(B2)를 추출하는 번호판 이미지 추출모듈;
상기 번호판 이미지 추출모듈에 의해 추출된 제1, 2 번호판 이미지(B1), (B2)들의 크기들을 산출한 후, 산출된 제1, 2 번호판 이미지(B1), (B2)들의 크기들을 이용하여 변동비율(Z)을 산출하는 변동비율 산출모듈;
변동비율(Z)에 비례하여 감지차량의 주행거리(Dx)가 증가하는 특성을 감안하여, 상기 변동비율 산출모듈에 의해 산출된 변동비율(Z)과 상기 보조센서로부터 입력된 감지거리(Ds)를 활용하여 감지차량의 주행거리(Dx)를 산출하는 주행거리 산출모듈을 포함하는 것을 특징으로 하는 교통정보 관리 시스템.
The method of claim 3, wherein the frame analyzer
After detecting a vehicle object from the first frame (F1) using the license plate extraction algorithm, and extracting a first license plate image (B1) from the detected vehicle object, and using the license plate extraction algorithm, the second frame ( F2) from the license plate image extraction module for extracting the second license plate image (B2);
After calculating the sizes of the first and second license plate images (B1) and (B2) extracted by the license plate image extraction module, the size of the first and second license plate images (B1) and (B2) calculated is used to change the size. a variable ratio calculation module that calculates a ratio (Z);
Considering the characteristic that the driving distance (Dx) of the detected vehicle increases in proportion to the variation ratio (Z), the variation ratio (Z) calculated by the variation ratio calculation module and the sensing distance (Ds) input from the auxiliary sensor Traffic information management system comprising a mileage calculation module for calculating the mileage (Dx) of the detected vehicle by using.
제5항에 있어서, 상기 프레임 분석부는
상기 번호판 이미지 추출모듈 이후에 실행되는 픽셀수 산출모듈을 더 포함하고,
상기 픽셀수 산출모듈은
상기 번호판 이미지 추출모듈에 의해 추출된 제1 번호판 이미지(B1)의 가로방향 픽셀수인 제1 가로픽셀수(Pb1)와, 상기 번호판 이미지 추출모듈에 의해 추출된 제2 번호판 이미지(B2)의 가로방향 픽셀수인 제2 가로픽셀수(Pb2)를 산출하고,
상기 변동비율 산출모듈은
상기 픽셀수 산출모듈에 의해 산출된 제2 가로픽셀수(Pb2)를, 상기 픽셀수 산출모듈에 의해 산출된 제1 가로픽셀수(Pb1)로 나누어 변동비율(Z)을 산출하는 것을 특징으로 하는 교통정보 관리 시스템.
The method of claim 5, wherein the frame analyzer
Further comprising a pixel count calculation module executed after the license plate image extraction module,
The pixel count calculation module
The first number of horizontal pixels (Pb1), which is the number of pixels in the horizontal direction of the first license plate image (B1) extracted by the license plate image extraction module, and the width of the second license plate image (B2) extracted by the license plate image extraction module Calculate the second horizontal pixel number (Pb2), which is the number of directional pixels;
The variable ratio calculation module
Characterized in that the variation ratio (Z) is calculated by dividing the second number of horizontal pixels (Pb2) calculated by the pixel number calculation module by the first number of horizontal pixels (Pb1) calculated by the pixel number calculation module. Traffic information management system.
제6항에 있어서, 상기 주행거리 산출모듈은
상기 변동비율 산출모듈에 의해 산출된 변동비율(Z)과 상기 보조센서로부터 입력된 감지거리(Ds)를 다음의 수학식 1에 대입하여 차량의 주행거리(Dx)를 산출하는 것을 특징으로 하는 교통정보 관리 시스템.
[수학식 1]
Figure 112023023227937-pat00006

이때 ‘Dx‘는 감지지점으로부터 차량이 설정시간동안 주행한 거리인 주행거리이고, ’Ds‘는 카메라로부터 감지지점까지의 거리인 감지거리이고, ’Z‘는 변동비율임
The method of claim 6, wherein the mileage calculation module
Transportation characterized in that the vehicle mileage (Dx) is calculated by substituting the variation ratio (Z) calculated by the variation ratio calculation module and the sensing distance (Ds) input from the auxiliary sensor into the following Equation 1 information management system.
[Equation 1]
Figure 112023023227937-pat00006

At this time, 'Dx' is the travel distance, which is the distance the vehicle travels for the set time from the detection point, 'Ds' is the detection distance, which is the distance from the camera to the detection point, and 'Z' is the change rate.
제7항에 있어서, 상기 프레임 추출부는
상기 보조센서에 의해 차량이 감지된 시점(t1)으로부터 기 설정된 설정시간(T2, T3, …, Tn)들이 경과된 시점(t3, t4, …, tn+1)들의 프레임(F3, F4, …, tn)들을 추가로 추출하고,
상기 프레임 분석부는
상기 프레임 추출부로부터 추가로 추출된 프레임(F3, F4, …, tn)들로부터 번호판 이미지들을 각각 추출하며, 추출된 번호판 이미지들의 가로픽셀수를 산출하여 수학식 1에 대입함으로써 감지차량의 주행거리(Dx2, Dx3, …, Dxn)들을 추가로 산출하고,
상기 주행속도 산출부는
상기 프레임 분석부에 의해 산출된 감지차량의 각 주행거리(Dx, Dx2, Dx3, …, Dxn)들을 대응되는 설정시간(T1, T2, T3, …, Tn)으로 나누어 차량의 주행속도(v1, v2, …, vn)들을 산출하며, 산출된 주행속도(v1, v2, …, vn)들의 평균값인 평균 주행속도(va)를 산출한 후, 산출된 평균 주행속도(va)를 해당 감지차량의 주행속도(v)로 결정하는 것을 특징으로 하는 교통정보 관리 시스템.
The method of claim 7, wherein the frame extraction unit
Frames (F3, F4, ...) of time points (t3, t4, ..., tn+1) at which predetermined set times (T2, T3, ..., Tn) have elapsed from the time point (t1) when the vehicle is detected by the auxiliary sensor. , tn) are further extracted,
The frame analyzer
License plate images are extracted from the frames (F3, F4, ..., tn) additionally extracted from the frame extractor, and the number of horizontal pixels of the extracted license plate images is calculated and substituted into Equation 1, thereby detecting vehicle mileage (Dx2, Dx3, ..., Dxn) are additionally calculated,
The driving speed calculator
The traveling speed of the vehicle (v1, v2, ..., vn) are calculated, and after calculating the average traveling speed (va), which is the average value of the calculated traveling speeds (v1, v2, ..., vn), the calculated average traveling speed (va) is calculated for the detected vehicle. A traffic information management system characterized in that it is determined by the driving speed (v).
제3항에 있어서, 상기 프레임 분석부는
상기 번호판 추출 알고리즘을 활용하여 상기 제1 프레임(F1)으로부터 제1 번호판 이미지(B1)를 추출하며, 상기 제2 프레임(F2)으로부터 제2 번호판 이미지(B2)를 추출하는 번호판 이미지 추출모듈;
상기 제1 번호판 이미지(B1)로부터 좌측변의 픽셀수인 제1 좌측변 픽셀수(L1)와, 우측변의 픽셀수인 제1 우측변 픽셀수(R1)를 추출하며, 상기 제2 번호판 이미지(B2)로부터 좌측변의 픽셀수인 제2 좌측변 픽셀수(L2)와 우측변의 픽셀수인 제2 우측변 픽셀수(R2)를 산출하는 픽셀수 산출모듈;
제2 좌측변 픽셀수(L2)를 제1 좌측변 픽셀수(L1)로 나누어 좌측변의 변동비율을 산출하며 산출된 좌측변의 변동비율과 상기 보조센서로부터 입력된 감지거리(Ds)를 다음의 수학식 2에 대입하여 좌측변간 거리값(D2)을 산출하며, 제2 우측변 픽셀수(R2)를 제1 우측변 픽셀수(R1)로 나누어 우측변의 변동비율을 산출하며 산출된 우측변의 변동비율과 상기 보조센서로부터 입력된 감지거리(Ds)를 다음의 수학식 2에 대입하여 우측변간 거리값(D3)을 산출하며, 산출된 좌측변간 거리값(D2)과 우측변간 거리값(D3)의 평균값인 평균거리값(D4)을 산출한 후, 산출된 평균거리값(D4)을 산출한 후, 산출된 평균거리값(D4)을 주행거리(Dx)로 결정하는 주행거리 산출모듈을 포함하는 것을 특징으로 하는 교통정보 관리 시스템.
[수학식 2]
Figure 112023023227937-pat00007

이때 ‘Dx‘는 감지지점으로부터 차량이 설정시간동안 주행한 거리인 주행거리이고, ’Ds‘는 카메라로부터 감지지점까지의 거리인 감지거리이고, ’Z‘는 변동비율임
The method of claim 3, wherein the frame analyzer
A license plate image extraction module for extracting a first license plate image (B1) from the first frame (F1) by utilizing the license plate extraction algorithm and extracting a second license plate image (B2) from the second frame (F2);
From the first license plate image B1, a first left side pixel number L1, which is the number of pixels on the left side, and a first right side pixel number R1, which is the number of pixels on the right side, are extracted, and the second license plate image B2 a pixel number calculation module for calculating a second left side pixel number (L2), which is the number of pixels on the left side, and a second right side pixel number (R2), which is the number of pixels on the right side, from );
The variation rate of the left side is calculated by dividing the second left side pixel number L2 by the first left side pixel number L1, and the calculated left side variation rate and the sensing distance Ds input from the auxiliary sensor are calculated by the following arithmetic The distance value D2 between the left sides is calculated by substituting into Equation 2, and the variation rate of the right side is calculated by dividing the second right side pixel number R2 by the first right side pixel number R1, and the calculated right side variation rate and the sensing distance Ds input from the auxiliary sensor are substituted into the following Equation 2 to calculate the right edge distance value D3, and the calculated left edge distance value D2 and the right edge distance value D3 After calculating the average distance value (D4), which is the average value, and then calculating the calculated average distance value (D4), including a mileage calculation module for determining the calculated average distance value (D4) as the mileage (Dx) Traffic information management system characterized in that.
[Equation 2]
Figure 112023023227937-pat00007

At this time, 'Dx' is the travel distance, which is the distance the vehicle travels for the set time from the detection point, 'Ds' is the detection distance, which is the distance from the camera to the detection point, and 'Z' is the change rate.
제3항에 있어서, 상기 메모리에는
영상분석의 정확성을 높일 수 있는 제2 번호판 이미지(B2)의 프레임 상 위치인 최적영역의 위치정보가 기 설정되어 저장되고,
상기 컨트롤러는
기 설정된 주기(T’) 마다 실행되는 설정시간 최적화부를 더 포함하고,
상기 설정시간 최적화부는
상기 최적영역에 매칭되는 실제 도로 상의 상기 카메라와의 평면상의 직선거리인 최적거리를 산출하는 최적거리 산출모듈;
상기 메모리로부터 주기(T’)동안 상기 주행속도 산출부에 의해 산출된 차량들의 주행속도(v) 데이터들을 추출하며, 추출된 주행속도(v)들의 평균값인 평균주행속도(V)를 산출하는 평균주행속도 산출모듈;
상기 평균주행속도 산출모듈에 의해 산출된 평균주행속도(V)와, 기 설정된 설정시간(T1)을 곱한 값인 평균주행거리(Da)를 산출하는 평균주행거리 산출모듈;
감지거리(Ds)로부터 상기 평균주행거리 산출모듈에 의해 산출된 평균주행거리(Da)를 차감하여 평균거리를 산출하는 평균거리 산출모듈;
상기 평균거리 산출모듈에 의해 산출된 평균거리로부터 상기 최적거리 산출모듈에 의해 산출된 최적거리를 차감하여 차이값을 산출하는 차이값 산출모듈;
상기 차이값 산출모듈에 의해 산출된 차이값의 절대값과, 설정시간(T1)을 재설정해야 한다고 판단할 수 있는 차이값의 최소값인 임계거리값을 비교하며, 1)차이값의 절대값이 임계거리값 미만이면, 설정시작(T1)을 재설정할 필요가 없다고 판단하되, 2)차이값의 절대값이 임계거리값 이상이면, 설정시간(T1)의 재설정이 필요하다고 판단하는 제2 판단모듈;
상기 제2 판단모듈에 의해 설정시간(T1)의 재설정이 필요하다고 판단될 때 실행되며, 1)차이값이 양수이면, 설정시간(T1)을 기 설정된 상수‘α’ 만큼 증가시키며, 2)차이값이 음수이면, 설정시간(T1)을 상수‘α’ 만큼 감소시키는 설정시간 재설정모듈을 포함하는 것을 특징으로 하는 교통정보 관리 시스템.
The method of claim 3, wherein the memory
The positional information of the optimal region, which is the position on the frame of the second license plate image (B2), which can increase the accuracy of image analysis, is preset and stored,
The controller
Further comprising a set time optimization unit that is executed every preset period (T '),
The setting time optimization unit
an optimal distance calculation module that calculates an optimal distance, which is a linear distance on a plane with the camera on an actual road matched to the optimal area;
The driving speed (v) data of the vehicles calculated by the driving speed calculator during the period (T') is extracted from the memory, and the average driving speed (V), which is the average value of the extracted driving speeds (v), is calculated. driving speed calculation module;
an average traveling distance calculating module that calculates an average traveling distance (Da) obtained by multiplying the average traveling speed (V) calculated by the average traveling speed calculating module and a predetermined set time (T1);
an average distance calculation module that calculates an average distance by subtracting the average travel distance Da calculated by the average travel distance calculation module from the detection distance Ds;
a difference calculation module for calculating a difference value by subtracting the optimum distance calculated by the optimum distance calculation module from the average distance calculated by the average distance calculation module;
The absolute value of the difference value calculated by the difference value calculation module is compared with the threshold distance value, which is the minimum value of the difference value that can determine that the set time T1 needs to be reset, and 1) the absolute value of the difference value is critical If it is less than the distance value, it is determined that there is no need to reset the setting start (T1), 2) if the absolute value of the difference value is greater than or equal to the threshold distance value, a second determination module that determines that the setting time (T1) needs to be reset;
It is executed when it is determined that the resetting of the set time T1 is necessary by the second determination module. 1) If the difference value is a positive number, the set time T1 is increased by a predetermined constant 'α', and 2) the difference If the value is a negative number, the traffic information management system characterized in that it comprises a set time resetting module that reduces the set time (T1) by a constant 'α'.
제10항에 있어서, 상기 최적거리 산출모듈은
상기 주기(T’) 동안 수집된 제2 프레임(F2)들을 추출한 후, 추출된 제2 프레임(F2)들 중 제2 번호판 이미지가 기 설정된 최적영역에 배치되는 프레임들인 선별프레임들을 추출하는 선별프레임 추출모듈;
상기 선별프레임 추출모듈에 의해 추출된 선별프레임들에 의한 분석데이터들을 추출한 후, 추출된 각 선별프레임의 분석데이터들로부터, 상기 카메라로부터 제2 번호판 이미지까지의 평면상 직선거리인 제2 감지거리 정보를 추출하는 제2 감지거리 추출모듈;
상기 제2 감지거리 추출모듈에 의해 추출된 제2 감지거리들의 평균값을 산출한 후, 산출된 제2 감지거리들의 평균값을 최적거리로 결정하는 최적거리 결정모듈을 포함하는 것을 특징으로 하는 교통정보 관리 시스템.
11. The method of claim 10, wherein the optimal distance calculation module
After extracting the second frames (F2) collected during the period (T'), a selection frame for extracting selection frames, which are frames in which the second license plate image is disposed in a predetermined optimal area, among the extracted second frames (F2). extraction module;
After extracting the analysis data by the selection frames extracted by the selection frame extraction module, the second sensing distance information, which is a straight-line distance on a plane from the camera to the second license plate image, from the analysis data of each selection frame extracted. A second sensing distance extraction module for extracting;
and an optimal distance determination module that calculates an average value of the second sensing distances extracted by the second sensing distance extraction module and then determines the average value of the calculated second sensing distances as an optimal distance. system.
KR1020220035094A 2022-03-22 2022-03-22 Traffic information management system for enhancing accuracy of sensing vehicle speed KR102537818B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220035094A KR102537818B1 (en) 2022-03-22 2022-03-22 Traffic information management system for enhancing accuracy of sensing vehicle speed

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220035094A KR102537818B1 (en) 2022-03-22 2022-03-22 Traffic information management system for enhancing accuracy of sensing vehicle speed

Publications (1)

Publication Number Publication Date
KR102537818B1 true KR102537818B1 (en) 2023-05-26

Family

ID=86536821

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220035094A KR102537818B1 (en) 2022-03-22 2022-03-22 Traffic information management system for enhancing accuracy of sensing vehicle speed

Country Status (1)

Country Link
KR (1) KR102537818B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006268678A (en) * 2005-03-25 2006-10-05 Matsushita Electric Ind Co Ltd Device and method for detecting stopping or low-speed vehicle
KR20130097337A (en) * 2012-02-24 2013-09-03 임정기 Detection method of distance of vehicle using image identification and its system
KR20170080480A (en) * 2015-12-30 2017-07-10 건아정보기술 주식회사 The vehicle detecting system by converging radar and image
KR102008263B1 (en) * 2018-06-25 2019-08-07 주식회사 유니시큐 Convergence detector and traffic enforcement system therewith
KR101974105B1 (en) * 2019-02-18 2019-09-02 (주)이젠정보통신 Photographing system and method for increasing recognition rate of vehicle number
KR20200064873A (en) * 2018-11-29 2020-06-08 주식회사 케이티앤씨 Method for detecting a speed employing difference of distance between an object and a monitoring camera

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006268678A (en) * 2005-03-25 2006-10-05 Matsushita Electric Ind Co Ltd Device and method for detecting stopping or low-speed vehicle
KR20130097337A (en) * 2012-02-24 2013-09-03 임정기 Detection method of distance of vehicle using image identification and its system
KR20170080480A (en) * 2015-12-30 2017-07-10 건아정보기술 주식회사 The vehicle detecting system by converging radar and image
KR102008263B1 (en) * 2018-06-25 2019-08-07 주식회사 유니시큐 Convergence detector and traffic enforcement system therewith
KR20200064873A (en) * 2018-11-29 2020-06-08 주식회사 케이티앤씨 Method for detecting a speed employing difference of distance between an object and a monitoring camera
KR101974105B1 (en) * 2019-02-18 2019-09-02 (주)이젠정보통신 Photographing system and method for increasing recognition rate of vehicle number

Similar Documents

Publication Publication Date Title
KR101999993B1 (en) Automatic traffic enforcement system using radar and camera
KR101925293B1 (en) The vehicle detecting system by converging radar and image
EP2820632B1 (en) System and method for multipurpose traffic detection and characterization
KR102008263B1 (en) Convergence detector and traffic enforcement system therewith
KR102039118B1 (en) Photographing system of multi lines using radar
KR101343975B1 (en) System for detecting unexpected accident
KR102267335B1 (en) Method for detecting a speed employing difference of distance between an object and a monitoring camera
RU2698610C2 (en) Method and processing unit for control over traffic monitoring system
KR101974105B1 (en) Photographing system and method for increasing recognition rate of vehicle number
US20060111841A1 (en) Method and apparatus for obstacle avoidance with camera vision
KR101898051B1 (en) Multilane vehicle speed detecting system
WO2019230123A1 (en) Detection device and detection system
KR102491091B1 (en) Method for producing collection video clip and, integrated unmanned traffic control system for two/four wheeled vehicle therewith
KR101710646B1 (en) System for recognizing front and back face of license plate using video tracking
KR101735557B1 (en) System and Method for Collecting Traffic Information Using Real time Object Detection
KR102200204B1 (en) 3-D Image Analyzing System Using CCTV Image
KR20170088692A (en) Device and Method for Calculating Vehicle Speed by Image
KR102465167B1 (en) Vehicle number recognition system for increasing recognition rate of vehicle number using rear license plate
KR20180048289A (en) Vehicle sensing apparatus using laser scanning
JP5677281B2 (en) Vehicle detection device
KR101057837B1 (en) Vehicle auto inspection system using laser beam
KR101973695B1 (en) Fusion vehicle detection system
KR102537818B1 (en) Traffic information management system for enhancing accuracy of sensing vehicle speed
KR20190093301A (en) Method and system for error correction of radar for vehicle
KR102414877B1 (en) Smart parking lot guiding system for enhancing accuracy and reliability of information

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant