KR101974105B1 - Photographing system and method for increasing recognition rate of vehicle number - Google Patents

Photographing system and method for increasing recognition rate of vehicle number Download PDF

Info

Publication number
KR101974105B1
KR101974105B1 KR1020190018611A KR20190018611A KR101974105B1 KR 101974105 B1 KR101974105 B1 KR 101974105B1 KR 1020190018611 A KR1020190018611 A KR 1020190018611A KR 20190018611 A KR20190018611 A KR 20190018611A KR 101974105 B1 KR101974105 B1 KR 101974105B1
Authority
KR
South Korea
Prior art keywords
vehicle
image
reference point
controller
elapsed time
Prior art date
Application number
KR1020190018611A
Other languages
Korean (ko)
Inventor
이동필
김완기
Original Assignee
(주)이젠정보통신
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)이젠정보통신 filed Critical (주)이젠정보통신
Priority to KR1020190018611A priority Critical patent/KR101974105B1/en
Application granted granted Critical
Publication of KR101974105B1 publication Critical patent/KR101974105B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • G06K9/3258
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/052Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed
    • G08G1/054Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed photographing overspeeding vehicles
    • G06K2209/15
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to a vehicle photographing system with a higher vehicle number recognition rate and a method thereof. Since a regulated vehicle is photographed at an exact moment when the vehicle passes by a reference spot (L) using the position of the reference spot (L) and the current position and speed of the regulated vehicle, a number plate photographing spot can be matched with the reference spot (L) to make a significant improvement in a number recognition rate, and since the system can be built without the addition of extra components or devices, costs for installation and management can be saved. Moreover, considering a feature that number recognition within a photographing area (S1) becomes optimal depending on neighboring conditions such as illuminance, time, fog and the like, when an image is obtained through a camera turned on by a controller, the image is divided into a plurality of pieces in a heightwise direction corresponding to a road moving direction, and then, the resolution of each divided pixel section is detected to reset a divided pixel section with the highest resolution as the position of the reference spot (L), so the position of the reference spot (L) is optimally changed in response to a neighboring condition to make the number recognition more accurate.

Description

차량번호 인식률을 높인 차량 촬영시스템 및 방법{Photographing system and method for increasing recognition rate of vehicle number}Photographing system and method for increasing recognition rate of vehicle number}

본 발명은 차량번호 인식률을 높인 차량 촬영시스템 및 방법에 관한 것으로서, 상세하게로는 단속차량의 차량번호판의 촬영이 이루어지는 지점을 차량번호판의 인식이 최적으로 이루어지는 지점인 기 설정된 기준지점과 일치시킴으로써 동일구성 및 환경 대비 번호인식률을 극대화시킬 수 있는 차량 촬영시스템 및 방법에 관한 것이다.The present invention relates to a vehicle photographing system and method for increasing the license plate recognition rate, and more particularly, by matching the point where the license plate of the intermittent vehicle is photographed with the preset reference point which is the point where the license plate is optimally recognized. It relates to a vehicle shooting system and method that can maximize the number recognition rate compared to the configuration and environment.

자동차 산업이 발달하고 도로가 확장됨에 따라 차량 보급률이 증가하였고, 차량 보급률의 증가와 비례하여 속도, 신호, 역주행 등의 교통법규 위반 발생건수 또한 기하급수적으로 증가하고 있다.As the automobile industry developed and roads expanded, vehicle penetration increased, and the number of traffic law violations such as speed, signals, and reverse driving also increased exponentially in proportion to the increase in vehicle penetration.

이러한 교통법규 위반은 자신뿐만 아니라 타인의 인명사고로도 이어질 수 있기 때문에 이들을 단속하기 위한 단속 장비 및 단속시스템에 대한 다양한 연구가 이루어지고 있다.These violations of traffic laws can lead to not only one's own life but also other people's lives, and various studies are being conducted on crackdown equipment and crackdown systems to crack down on them.

특히 단속 장비 중 카메라는 단속차량의 식별 및 증거 기능과, 교통정보 모니터링의 용도로 사용될 수 있는 장점으로 인해 각종 단속 장비에 적용되어 널리 사용되고 있다.In particular, the camera of the crackdown equipment is widely applied to various crackdown equipment due to the identification and evidence function of the crackdown vehicle and the advantages that can be used for traffic information monitoring.

도 1은 종래의 차량 촬영시스템을 나타내는 예시도이고, 도 2의 (a), (b), (c)는 도 1의 문제점을 설명하기 위한 예시도이다.FIG. 1 is an exemplary view showing a conventional vehicle photographing system, and FIGS. 2A, 2B, and 2C are exemplary views for explaining the problem of FIG. 1.

도 1의 종래의 차량 촬영시스템(이하 종래기술이라고 함)(200)은 감지영역(S) 내 진입차량을 감지하는 차량감지수단(201)과, 차량감지수단(201)에 의해 검출된 감지데이터를 분석하여 단속차량을 검출하며, 단속차량 검출 시 단속차량이 촬영영역(S1)을 진입할 때를 예측하여 카메라(210)로 트리거 신호(Trigger Signal)를 전송하는 컨트롤러(203)와, 컨트롤러(203)로부터 트리거 신호를 전송받으면 촬영을 수행하여 단속차량의 영상을 획득하는 카메라(210)로 이루어진다.The conventional vehicle photographing system (hereinafter, referred to as a prior art) 200 of FIG. 1 includes vehicle detecting means 201 for detecting an entering vehicle in the sensing area S, and sensing data detected by the vehicle detecting means 201. The controller 203 and the controller 203 which detects the intermittent vehicle and transmits a trigger signal to the camera 210 by predicting when the intermittent vehicle enters the photographing area S1 when detecting the intermittent vehicle. When the trigger signal is received from 203, the camera 210 performs a photographing operation to acquire an image of the intermittent vehicle.

또한 카메라(210)는 기 설정된 촬영영역(S1)을 촬영할 수 있도록 설치된다. 이때 카메라(210)의 초점은 기준선(L)을 향하도록 설정됨에 따라 단속차량(C)의 촬영지점이 기준선(L)에 인접할수록 차량번호판 인식이 정확하게 이루어질 수 있게 된다.In addition, the camera 210 is installed to capture a predetermined shooting area (S1). In this case, as the focus of the camera 210 is set toward the reference line L, the license plate recognition can be made more accurate as the photographing point of the intermittent vehicle C is closer to the reference line L.

그러나 종래기술(200)은 컨트롤러(203)가 단속차량의 속도 및 감지위치와 상관없이 단순히 단속차량(C)이 감지된 시점으로부터 기 설정된 시간 이후에 트리거신호를 전송하도록 구성되었기 때문에 카메라(210)에 의해 단속차량(C)의 영상이 획득된다고 하더라도, 도 2의 (a), (b), (c에 도시된 바와 같이 단속차량(C)의 차량번호판이 기준선(L)과 이격되었을 때 촬영이 이루어져 번호 인식이 정상적으로 이루어지지 않는 현상이 비일비재하게 발생하고 있다.However, the conventional technology 200 is the camera 210 because the controller 203 is configured to transmit the trigger signal after a predetermined time from the time when the interrupted vehicle C is detected regardless of the speed and the detection position of the intermittent vehicle. Even if the image of the intermittent vehicle C is obtained by the above, the image is taken when the license plate of the intermittent vehicle C is spaced apart from the reference line L, as shown in FIGS. 2A, 2B, and 2C. As a result, a phenomenon in which number recognition is not normally performed is occurring randomly.

즉 단속차량의 차량번호판의 촬영이 이루어지는 지점인 차량번호판 촬영지점과, 차량번호판 인식이 최적으로 이루어지는 지점인 기 설정된 기준선을 일치시키 위한 연구가 시급한 실정이다.In other words, there is an urgent need for research to match the license plate photographing point, which is the point where the license plate of the intermittent vehicle is photographed, with the preset reference line, which is the point where the license plate recognition is optimal.

국내등록특허 제10-1372838호(발명의 명칭 : 다기능 차량 촬영 시스템 및 방법)에서는 카메라에 의해 획득된 영상의 프레임들의 선명도를 비교하여 이들 중 가장 선명한 프레임을 대표프레임으로 결정하며, 결정된 대표프레임을 활용하여 번호인식을 수행함으로써 번호 인식률을 개선시킬 수 있는 다기능 차량 촬영 시스템이 개시되어 있다.In Korean Patent No. 10-1372838 (name of the invention: a multifunctional vehicle photographing system and method), the sharpness of these frames is determined by comparing the sharpness of frames of an image obtained by a camera, and the determined representative frame is determined. Disclosed is a multifunctional vehicle photographing system capable of improving number recognition rate by performing number recognition.

그러나 상기 다기능 차량 촬영 시스템은 차량 촬영장치가 영상이 획득되면, 획득된 영상의 프레임들 각각의 선명도를 산출하는 연산처리과정 및 각 프레임의 선명도를 비교하는 연산처리과정 등의 작업이 필수적으로 이루어져하기 때문에 연산처리가 복잡한 문제점을 갖는다.However, in the multi-function vehicle photographing system, when an image is obtained by the vehicle photographing apparatus, operations such as a calculation process for calculating the sharpness of each of the frames of the acquired image and an operation process for comparing the sharpness of each frame are essentially performed. Because of this, the operation process has a complicated problem.

또한 상기 다기능 차량 촬영시스템은 차량번호판의 촬영지점을 기준선(L)에 일치시키기 위한 별도의 기술 및 방법이 전혀 기재되어 있지 않기 때문에 획득된 영상의 프레임들이 최적의 초점으로 촬영되지 않아, 차량번호판 인식률이 저하되는 종래기술의 문제점을 해결하지 못하는 구조적 한계를 갖는다.In addition, the multi-function vehicle photographing system does not describe a separate technology and method for matching the photographing point of the license plate to the reference line (L) at all, so that the frames of the acquired image are not photographed at the optimal focus, and thus the license plate recognition rate. There is a structural limitation that does not solve the problem of this deteriorating prior art.

본 발명은 이러한 문제를 해결하기 위한 것으로, 본 발명의 해결과제는 단속차량이 검출되면, 단속차량의 위치 및 속도와, 차량번호 인식이 최적으로 이루어지는 기 설정된 기준지점(L)의 위치를 활용하여 단속차량이 현재 위치로부터 기준지점(L)까지 도달할 때까지의 경과시간(t)을 산출한 후, 산출된 경과시간(t)에 카메라의 촬영이 이루어지도록 트리거신호(Trigger Signal)를 생성함으로써 별도의 장치 및 구성수단을 추가하지 않고도, 동일 환경 및 구성 대비 번호인식률을 극대화 시킬 수 있는 차량 촬영시스템 및 방법을 제공하기 위한 것이다.The present invention is to solve such a problem, the problem of the present invention is to use the location and speed of the intermittent vehicle, and the position of the predetermined reference point (L) where the vehicle number recognition is optimal when the intermittent vehicle is detected. After calculating the elapsed time (t) from the current position to the reference point (L) from the intermittent vehicle, the trigger signal is generated so that the camera is photographed at the calculated elapsed time (t). It is to provide a vehicle photographing system and method that can maximize the number recognition rate compared to the same environment and configuration, without adding a separate device and configuration means.

또한 본 발명의 다른 해결과제는 조도, 시간, 안개 등의 주변 환경에 따라 촬영영역(S1) 내 번호인식이 최적으로 이루어지는 픽셀영역이 변경되는 특성을 감안하여, 컨트롤러가 카메라를 구동시켜 이미지를 획득하면, 획득된 이미지를 도로 이동방향에 대응하여 높이 방향으로 복수개로 분할한 후, 분할픽셀구간들 각각의 선명도를 검출하여 선명도가 가장 높은 분할픽셀구간으로 기준지점(L)의 위치를 재설정함으로써 주변 환경에 대응하여 기준지점(L)의 위치를 최적으로 변경하여 번호인식이 더욱 정확하게 이루어질 수 있는 차량 촬영시스템 및 방법을 제공하기 위한 것이다.In addition, another object of the present invention is to take into account the characteristic that the pixel area where the number recognition is optimal in the shooting area (S1) is changed according to the surrounding environment such as illumination, time, fog, etc., the controller drives the camera to acquire an image Then, after dividing the obtained image into a plurality of height directions corresponding to the road movement direction, the sharpness of each of the divided pixel sections is detected and the position of the reference point L is reset to the divided pixel section having the highest sharpness. It is to provide a vehicle photographing system and method that can be more precisely number recognition by changing the position of the reference point (L) in response to the environment.

상기 과제를 해결하기 위한 본 발명의 해결수단은 기 설정된 감지영역(S)의 진입차량을 감지하는 차량감지수단과, 기 설정된 촬영영역(S1)을 촬영하는 카메라와, 상기 차량감지수단 및 상기 카메라를 관리 및 제어하는 컨트롤러를 포함하는 차량 촬영시스템에 있어서: 상기 컨트롤러는 상기 차량감지수단에 의해 검출된 감지데이터를 분석하여 상기 감지영역(S) 내 진입차량을 감지하며, 감지된 진입차량의 위치 및 속도를 포함하는 차량정보를 생성하는 차량정보 생성부; 상기 차량정보 생성부에 의해 생성된 차량정보를 기 설정된 위반정보와 비교하여 진입차량이 단속차량인지를 판단하는 단속차량 판별부; 상기 단속차량 판별부에 의해 단속차량이 검출되면, 단속차량의 현재 위치 및 속도와, 번호인식이 최적으로 이루어지는 기 설정된 기준지점(L)의 위치를 활용하여 상기 단속차량이 현재 위치로부터 기준지점(L)까지 도달할 때까지의 시간인 경과시간(t)을 산출하는 경과시간 산출부; 상기 경과시간 산출부에 의해 산출된 경과시간(t)에 상기 카메라의 촬영이 이루어지도록 트리거신호(Trigger Signal)를 생성하는 트리거신호 생성부; 상기 트리거신호 생성부에 의해 생성된 트리거신호를 상기 카메라로 출력하는 제어부; 상기 카메라에 의해 촬영된 이미지를 분석하여 차량번호를 인식하는 번호인식부를 포함하고, 상기 컨트롤러는 기 설정된 주기(T) 마다 기준지점을 재설정하는 기준지점 설정부를 더 포함하고, 상기 제어부는 상기 주기(T) 마다 상기 카메라를 구동시켜 상기 카메라의 촬영에 의해 획득된 이미지를 상기 기준지점 설정부로 입력하고, 상기 기준지점 설정부는 기 설정된 분할픽셀구간들 각각의 픽셀위치정보를 활용하여 입력된 이미지를 상기 분할픽셀구간들로 분할하는 이미지 분할모듈; 기 설정된 선명도 검출알고리즘을 이용하여 상기 이미지 분할모듈에 의해 분할된 분할픽셀구간들 각각의 선명도를 검출하는 선명도 검출모듈; 상기 선명도 검출모듈에 의해 검출된 각 분할픽셀구간의 선명도를 비교하는 선명도 비교모듈; 상기 선명도 비교모듈에서 선명도가 가장 높은 분할픽셀구간을 검출한 후, 검출된 선명도가 가장 높은 분할픽셀구간에 포함되도록 기준지점(L)을 재설정하는 기준지점 결정모듈을 포함하고, 상기 경과시간 산출부는 상기 기준지점 결정모듈에 의해 결정된 기준지점(L)을 활용하여 경과시간(t)을 산출하는 것이다.The solution means of the present invention for solving the above problem is a vehicle detecting means for detecting the entry vehicle of the preset detection area (S), a camera for photographing the preset shooting area (S1), the vehicle detection means and the camera In the vehicle photographing system comprising a controller for managing and controlling the controller: The controller analyzes the detection data detected by the vehicle detection means to detect the entry vehicle in the detection area (S), the position of the detected entry vehicle And a vehicle information generator for generating vehicle information including a speed; An intermittent vehicle determination unit that determines whether the entry vehicle is an interrupted vehicle by comparing the vehicle information generated by the vehicle information generator with preset violation information; When the intermittent vehicle is detected by the intermittent vehicle discrimination unit, the intermittent vehicle uses the current position and speed of the intermittent vehicle and the position of the preset reference point L at which the number recognition is optimally performed. An elapsed time calculating unit that calculates an elapsed time t that is a time until reaching L); A trigger signal generator configured to generate a trigger signal so that the camera photographs the elapsed time t calculated by the elapsed time calculator; A controller for outputting a trigger signal generated by the trigger signal generator to the camera; And a number recognizing unit for recognizing a vehicle number by analyzing the image photographed by the camera, wherein the controller further includes a reference point setting unit for resetting the reference point every predetermined period T. Each time T), the camera is driven to input an image obtained by photographing the camera to the reference point setting unit, and the reference point setting unit uses the pixel position information of each of the predetermined divided pixel sections to input the image. An image dividing module for dividing the divided pixel sections; A sharpness detection module for detecting the sharpness of each of the divided pixel sections divided by the image segmentation module using a preset sharpness detection algorithm; A sharpness comparison module for comparing the sharpness of each divided pixel section detected by the sharpness detection module; And a reference point determination module configured to reset the reference point L to be included in the divided pixel section having the highest clarity after detecting the divided pixel section having the highest clarity in the sharpness comparison module. The elapsed time t is calculated by using the reference point L determined by the reference point determination module.

또한 본 발명에서 상기 경과시간 산출부는 수학식 1을 통해 경과시간(t)을 산출하는 것이 바람직하다.In addition, in the present invention, the elapsed time calculating unit preferably calculates the elapsed time (t) through the equation (1).

[수학식 1][Equation 1]

Figure 112019016838460-pat00001
Figure 112019016838460-pat00001

이때 X : 기준지점(L)의 위치, X1 : 단속차량의 위치, V : 단속차량의 속도Where X is the position of the reference point (L), X1 is the position of the interrupted vehicle, and V is the speed of the interrupted vehicle.

삭제delete

또한 본 발명에서 상기 분할픽셀구간들은 이미지의 높이 방향으로 단길이를 갖되, 폭 방향으로 장 길이를 갖는 직사각형 형상으로 형성되며, 이미지의 높이 방향으로 적층되게 형성되는 것이 바람직하다.In the present invention, the divided pixel sections have a short length in the height direction of the image, are formed in a rectangular shape having a long length in the width direction, and are preferably stacked in the height direction of the image.

또한 본 발명의 다른 해결수단은 단속차량을 촬영한 이미지로부터 차량번호를 인식하기 위한 차량 촬영 방법에 있어서: 상기 차량 촬영 방법은 컨트롤러가 차량감지수단에 의해 검출된 감지데이터를 분석하여 감지차량의 위치 및 속도를 포함하는 차량정보를 생성하는 차량정보 생성단계; 상기 컨트롤러가 상기 차량정보 생성단계에 의해 생성된 차량정보를 기 설정된 기 설정된 위반정보와 비교하여 감지차량이 단속차량인지를 판별하는 단속차량 판별단계; 상기 컨트롤러가 상기 단속차량 판별단계에서 감지차량이 단속차량이라고 판단될 때 진행되며, 단속차량의 현재 위치 및 속도와, 번호인식이 최적으로 이루어지는 기 설정된 기준지점(L)의 위치를 활용하여 단속차량이 현재 위치로부터 기준지점(L)까지 도달할 때까지의 시간인 경과시간(t)을 산출하는 경과시간 산출단계; 상기 컨트롤러가 상기 경과시간 산출단계에 의해 산출된 경과시간(t)에 상기 카메라의 촬영이 이루어지도록 트리거신호(Trigger Signal)를 생성하는 트리거신호 생성단계; 상기 컨트롤러가 상기 트리거신호 생성단계에 의해 생성된 트리거신호를 카메라로 출력하고, 카메라가 촬영을 수행하는 트리거신호 출력단계; 상기 컨트롤러가 상기 트리거신호 출력단계에 의해 획득된 이미지를 상기 카메라로부터 수신 받는 이미지 입력단계; 상기 컨트롤러가 상기 이미지 입력단계를 통해 입력된 이미지를 분석하여 차량번호를 인식하는 번호인식단계를 포함하고, 상기 차량 촬영 방법은 기 설정된 주기(T) 마다 진행되는 기준지점 설정단계를 더 포함하고, 상기 기준지점 설정단계는 상기 카메라가 상기 주기(T) 마다 촬영을 수행하여 이미지를 획득하는 이미지 획득단계; 상기 컨트롤러가 상기 이미지 획득단계에 의해 획득된 이미지를 입력받는 이미지 입력단계; 상기 컨트롤러가 기 설정된 분할픽셀구간들 각각의 픽셀위치정보를 활용하여 상기 이미지 입력단계를 통해 입력된 이미지를 상기 분할픽셀구간들로 분할하는 이미지 분할단계; 상기 컨트롤러가 기 설정된 선명도 검출알고리즘을 이용하여 상기 이미지 분할단계에 의해 분할된 분할픽셀구간들 각각의 선명도를 검출하는 선명도 검출단계; 상기 컨트롤러가 상기 선명도 검출단계에 의해 검출된 각 분할픽셀구간의 선명도를 비교하는 선명도 비교단계; 상기 선명도 비교단계에서 선명도가 가장 높은 분할픽셀구간을 검출한 후, 검출된 선명도가 가장 높은 분할픽셀구간에 포함되도록 기준지점(L)을 재설정하는 기준지점 결정단계를 포함하고, 상기 경과시간 산출단계는 상기 기준지점 결정단계에 의해 결정된 기준지점(L)을 활용하여 경과시간(t)을 산출하고, 상기 분할픽셀구간들은 이미지의 높이 방향으로 단길이를 갖되, 폭 방향으로 장 길이를 갖는 직사각형 형상으로 형성되며, 이미지의 높이 방향으로 적층되게 형성되는 것이다.Another solution of the present invention is a vehicle photographing method for recognizing a vehicle number from an image of an intermittent vehicle. The vehicle photographing method includes a controller analyzing a sensed data detected by a vehicle detecting means to locate a vehicle. A vehicle information generating step of generating vehicle information including a speed; An intermittent vehicle determination step of determining, by the controller, whether the detected vehicle is an interrupted vehicle by comparing the vehicle information generated by the vehicle information generating step with preset violation information; The controller proceeds when it is determined that the sensing vehicle is the intervening vehicle in the step of determining the intermittent vehicle, and utilizes the current position and speed of the intermittent vehicle and the position of the preset reference point L where the number recognition is optimal. An elapsed time calculating step of calculating an elapsed time (t) which is a time from reaching this point to the reference point (L); A trigger signal generation step of generating, by the controller, a trigger signal so that the camera photographs the elapsed time t calculated by the elapsed time calculating step; A trigger signal output step in which the controller outputs a trigger signal generated by the trigger signal generation step to a camera, and the camera performs shooting; An image input step in which the controller receives the image acquired by the trigger signal output step from the camera; The controller may include a number recognition step of recognizing a vehicle number by analyzing the image input through the image input step, and the vehicle photographing method further includes a reference point setting step that is performed every preset period T. The reference point setting step may include: an image acquiring step, in which the camera acquires an image by performing photographing every period (T); An image input step in which the controller receives an image acquired by the image acquisition step; An image dividing step of the controller dividing an image input through the image input step into the divided pixel sections by using pixel position information of each of the divided pixel sections; A sharpness detecting step of detecting, by the controller, the sharpness of each of the divided pixel sections divided by the image dividing step by using a predetermined sharpness detecting algorithm; A sharpness comparison step of the controller comparing the sharpness of each divided pixel section detected by the sharpness detection step; And a reference point determining step of resetting the reference point L to be included in the divided pixel section having the highest clarity after detecting the divided pixel section having the highest sharpness in the sharpness comparison step, and calculating the elapsed time. Calculates an elapsed time t by using the reference point L determined by the reference point determining step, and the divided pixel sections have a short length in the height direction of the image, but have a long length in the width direction. It is formed to be formed to be stacked in the height direction of the image.

또한 본 발명에서 상기 경과시간 산출단계는 수학식 1을 통해 경과시간(t)을 산출하는 것이 바람직하다.In addition, in the present invention, the elapsed time calculating step is to calculate the elapsed time (t) through the equation (1).

[수학식 1][Equation 1]

Figure 112019016838460-pat00002
Figure 112019016838460-pat00002

이때 X : 기준지점(L)의 위치, X1 : 단속차량의 위치, V : 단속차량의 속도Where X is the position of the reference point (L), X1 is the position of the interrupted vehicle, and V is the speed of the interrupted vehicle.

삭제delete

삭제delete

삭제delete

상기 과제와 해결수단을 갖는 본 발명에 따르면 단속차량의 현재 위치 및 속도와 기준지점(L)의 위치를 활용하여 단속차량이 기준지점(L)을 통과하는 시점에 정확하게 촬영이 이루어지도록 구성됨으로써 차량번호판의 촬영이 이루어지는 지점을 기준지점(L)에 일치시켜 번호인식률을 현저히 개선시킬 수 있게 된다.According to the present invention having the above-mentioned problems and solutions, the vehicle is configured to be accurately photographed at the time when the intermittent vehicle passes the reference point L by utilizing the current position and speed of the intermittent vehicle and the position of the reference point L. It is possible to remarkably improve the number recognition rate by matching the point where the license plate is photographed to the reference point (L).

또한 본 발명에 의하면 별도의 구성수단 및 장치를 추가하지 않아도 구현이 가능하기 때문에 설치 및 운영비용을 절감시킬 수 있다.In addition, according to the present invention can be implemented without adding a separate configuration means and apparatus can reduce the installation and operating costs.

또한 본 발명에 의하면 조도, 시간, 안개 등의 주변 환경에 따라 촬영영역(S1) 내 번호인식이 최적으로 이루어지는 픽셀영역이 변경되는 특성을 감안하여, 컨트롤러가 카메라를 구동시켜 이미지를 획득하면, 획득된 이미지를 도로 이동방향에 대응하여 높이 방향으로 복수개로 분할한 후, 분할픽셀구간들 각각의 선명도를 검출하여 선명도가 가장 높은 분할픽셀구간으로 기준지점(L)의 위치를 재설정함으로써 주변 환경에 대응하여 기준지점(L)의 위치를 최적으로 변경하여 번호인식이 더욱 정확하게 이루어질 수 있게 된다.In addition, according to the present invention in consideration of the characteristic that the pixel area where the number recognition is optimal in the photographing area S1 is changed according to the surrounding environment such as illumination, time, fog, etc., the controller drives the camera to acquire an image. The image is divided into a plurality of heights corresponding to the road movement direction, and then the sharpness of each of the divided pixel sections is detected and the position of the reference point L is reset to the divided pixel section having the highest sharpness to respond to the surrounding environment. By optimally changing the position of the reference point (L) it is possible to more accurately recognize the number.

도 1은 종래의 차량 촬영시스템을 나타내는 예시도이다.
도 2의 (a), (b), (c)는 도 1의 문제점을 설명하기 위한 예시도이다.
도 3은 본 발명의 일실시예인 차량 촬영시스템을 나타내는 구성도이다.
도 4는 도 3의 예시도이다.
도 5는 도 3의 컨트롤러를 나타내는 블록도이다.
도 6은 본 발명의 동작과정을 설명하기 위한 플로차트이다.
도 7의 (a), (b), (c), (d)는 본 발명의 카메라에 의해 획득된 이미지를 나타내는 예시도이다.
도 8은 도 5의 기준지점 설정부를 나타내는 블록도이다.
도 9의 (a), (b), (c)들은 도 5의 기준지점 설정부를 설명하기 위한 예시도이다.
도 10은 도 8에 적용되는 분할픽셀구간들을 설명하기 위한 예시도이다.
도 11은 도 10의 기준지점 설정모듈의 동작과정을 설명하기 위한 플로차트이다.
1 is an exemplary view showing a conventional vehicle photographing system.
(A), (b), (c) of FIG. 2 is an illustration for explaining the problem of FIG.
3 is a block diagram showing a vehicle photographing system according to an embodiment of the present invention.
4 is an exemplary view of FIG. 3.
5 is a block diagram illustrating the controller of FIG. 3.
6 is a flowchart for explaining the operation of the present invention.
(A), (b), (c) and (d) of FIG. 7 are exemplary views showing images obtained by the camera of the present invention.
8 is a block diagram illustrating a reference point setting unit of FIG. 5.
9A, 9B, and 9C are exemplary diagrams for describing the reference point setting unit of FIG. 5.
FIG. 10 is an exemplary diagram for describing divided pixel sections applied to FIG. 8.
FIG. 11 is a flowchart for describing an operation of the reference point setting module of FIG. 10.

이하, 첨부된 도면을 참조하여 본 발명의 일실시예를 설명한다.Hereinafter, with reference to the accompanying drawings will be described an embodiment of the present invention.

도 3은 본 발명의 일실시예인 차량 촬영시스템을 나타내는 구성도이고, 도 4는 도 3의 예시도이다.3 is a block diagram showing a vehicle photographing system according to an embodiment of the present invention, Figure 4 is an exemplary view of FIG.

본 발명의 일실시예인 차량 촬영시스템(1)은 차량번호판의 촬영지점을 번호인식이 최적으로 이루어지는 기 설정된 촬영지점(L)에 일치시킴으로써 별도의 구성수단을 추가하지 않고도, 동일 구성 및 환경 대비 번호인식률을 극대화시키기 위한 것이다.The vehicle photographing system 1 according to an embodiment of the present invention matches the photographing point of the license plate with a preset photographing point L where number recognition is optimally performed, without having to add a separate configuration means. This is to maximize the recognition rate.

또한 차량 촬영시스템(1)은 도 3과 4에 도시된 바와 같이, 레이더신호를 송출한 후 반사되는 레이더신호를 수신하여 기 설정된 감지영역(S)을 진입한 차량을 감지하는 레이더 송수신기(4)와, 레이더 송수신기(4)에 의해 송수신된 레이더신호를 분석하여 차량정보를 생성함과 동시에 단속차량을 검출하며 단속차량의 현재 위치 및 속도를 이용하여 단속차량이 기 설정된 기준지점(L)에 도착하기까지의 경과시간(t)을 산출하여 경과시간(t)에 후술되는 카메라(5)의 촬영이 이루어지도록 카메라(5)로 트리거 신호(Trigger Signal)를 출력하며 카메라(5)로부터 전송받은 이미지를 분석하여 차량번호를 인식하는 컨트롤러(3-1), ..., (3-N)들과, 컨트롤러(3-1), ..., (3-N)들 각각의 제어에 따라 기 설정된 촬영영역(S1)을 촬영하여 단속차량의 이미지를 획득하며 획득된 이미지를 컨트롤러(3)로 전송하는 카메라(5)와, 컨트롤러(3-1), ..., (3-N)들로부터 차량정보, 단속정보 및 이미지를 전송받아 이를 저장 및 모니터링 하는 교통관제서버(7)와, 교통관제서버(7) 및 컨트롤러(3) 사이의 데이터 이동경로를 제공하는 통신망(10)으로 이루어진다.3 and 4, the vehicle photographing system 1 receives a radar signal that is reflected after transmitting the radar signal and detects a vehicle entering the preset detection area S by the radar transceiver 4. Also, radar signals transmitted and received by the radar transceiver 4 are analyzed to generate vehicle information and detect an interrupted vehicle, and the interrupted vehicle arrives at a preset reference point L using the current position and speed of the interrupted vehicle. An image received from the camera 5 by outputting a trigger signal to the camera 5 so as to calculate the elapsed time t up to the following and to photograph the camera 5 described later at the elapsed time t. The controller 3-1, ..., (3-N) that recognizes the vehicle number by analyzing the Shoot the set shooting area (S1) to obtain the image of the intermittent vehicle and Traffic control server for receiving and storing vehicle information, control information and images from the camera 5 and the controllers 3-1, ..., (3-N) to the controller 3 ( 7) and a communication network 10 that provides a data movement path between the traffic control server 7 and the controller 3.

이때 본 발명에서는 설명의 편의를 위해 기 설정된 감지영역(S)을 통과하는 차량을 감지하기 위한 차량감지수단이 레이더 송수신기(4)인 것으로 예를 들어 설명하였으나, 차량감지수단은 이에 한정되지 않으며, 공지된 다양한 감지수단들이 적용될 수 있음은 당연하다.In the present invention, for the convenience of description, the vehicle detecting means for detecting the vehicle passing through the preset detection area S is described as an example of the radar transceiver 4, but the vehicle detecting means is not limited thereto. It is obvious that various known sensing means can be applied.

또한 도 2에서는 도시되지 않았으나, 컨트롤러(3-1), ..., (3-N)들은 자신에게 할당된 카메라(5) 및 레이더 송수신기(4)와 유무선 통신망(미도시)으로 연결되어 유무선 통신망을 통해 서로 데이터를 송수신하도록 구성된다.In addition, although not shown in Figure 2, the controller (3-1), ..., (3-N) is connected to the camera 5 and the radar transceiver 4 assigned to them by wired or wireless communication network (not shown) wired and wireless And transmit and receive data with each other via a communication network.

또한 도 2와 3에서는 설명의 편의를 위해 각 컨트롤러(3)에 단일 카메라(5)만이 연결되는 것으로 예를 들어 설명하였으나, 컨트롤러(3)는 복수개의 카메라(5)들을 관리 및 제어하는 것으로 구성될 수 있다.In addition, in FIGS. 2 and 3, only a single camera 5 is connected to each controller 3 for convenience of explanation. For example, the controller 3 is configured to manage and control the plurality of cameras 5. Can be.

통신망(10)은 교통관제서버(7) 및 컨트롤러(3-1), ..., (3-N)들 사이의 데이터 이동경로를 제공하며, 상세하게로는 광역통신망(WAN) 등으로 구성될 수 있다.The communication network 10 provides a data movement path between the traffic control server 7 and the controllers 3-1, ..., (3-N), and in detail, constitutes a wide area network (WAN) or the like. Can be.

레이더 송수신기(4)는 기 설정된 감지영역(S)으로 레이더를 송출한 후, 반사되는 신호를 수신한다.The radar transceiver 4 transmits the radar to the preset sensing area S and receives the reflected signal.

또한 레이더 송수신기(4)는 송수신된 레이더신호 정보를 주기적으로 컨트롤러(3)로 송출한다.In addition, the radar transceiver 4 periodically transmits the transmitted and received radar signal information to the controller 3.

카메라(5)는 도로의 이동방향과 수직되게 설치되는 겐트리(900)에 설치되며, 기 설정된 촬영영역(S1)을 촬영하도록 설치된다.The camera 5 is installed in the gantry 900 which is installed perpendicular to the moving direction of the road, and is installed to photograph the preset photographing area S1.

또한 카메라(5)는 컨트롤러(3)로부터 트리거신호(Trigger Signal)를 수신 받으면, 촬영을 수행하여 이미지를 획득하며, 획득된 이미지를 컨트롤러(3)로 전송한다.In addition, when the camera 5 receives a trigger signal from the controller 3, the camera 5 acquires an image by photographing and transmits the acquired image to the controller 3.

이때 카메라의 촬영영역(S1)은 레이더 송수신기(4)의 감지영역(S) 보다 전방에 형성된다.In this case, the photographing area S1 of the camera is formed in front of the sensing area S of the radar transceiver 4.

컨트롤러(3-1), ..., (3-N)들은 자신에게 할당된 레이더 송수신기(4) 및 카메라(5)를 제어 및 관리한다.The controllers 3-1, ..., (3-N) control and manage the radar transceiver 4 and the camera 5 assigned to them.

또한 컨트롤러(3)는 레이더 송수신기(4)로부터 수신 받은 레이더신호를 분석하여 감지영역(S) 내 진입차량(C)을 감지하며, 진입차량의 위치 및 속도를 산출하여 차량정보를 생성한다. 이때 차량정보라고 함은 감지차량의 위치, 시간, 속도 등으로 이루어지고, 이러한 차량정보는 교통관제서버(7)에서 교통정보로 활용된다.In addition, the controller 3 analyzes the radar signal received from the radar transceiver 4 to detect the entry vehicle C in the detection area S, and calculates the position and speed of the entry vehicle to generate vehicle information. At this time, the vehicle information is composed of the position, time, speed, etc. of the sensing vehicle, and the vehicle information is used as traffic information in the traffic control server 7.

또한 컨트롤러(3)는 생성된 차량정보와, 기 설정된 위반정보를 비교하여 감지차량이 법규를 위반한 단속차량인지를 판단한다.In addition, the controller 3 compares the generated vehicle information with preset violation information to determine whether the detected vehicle violates the law.

또한 컨트롤러(3)는 감지차량이 단속차량으로 판단되면, 단속차량의 위치(X1) 및 속도와, 기 설정된 기준지점(L)의 위치(X)를 활용하여 단속차량(C)이 기준지점(L)에 도달하기까지의 경과시간(t)을 산출하며, 경과시간(t)에 맞춰 카메라(5)로 트리거신호를 송출한다. 이때 컨트롤러(3)는 단속차량(C)의 선단부를 기준으로 경과시간(t)을 산출하기 때문에 단속차량(C)의 선단부에 배치되는 차량번호판의 촬영지점을 기준지점(L)과 최대한 일치시킬 수 있게 된다.In addition, when the sensing vehicle is determined to be an interrupted vehicle, the controller 3 utilizes the position X1 and the speed of the interrupted vehicle and the position X of the preset reference point L, and the interrupted vehicle C becomes the reference point ( The elapsed time t until reaching L) is calculated, and a trigger signal is sent to the camera 5 in accordance with the elapsed time t. In this case, since the controller 3 calculates the elapsed time t based on the tip of the crackdown vehicle C, the shooting point of the license plate disposed at the tip of the crackdown vehicle C can be matched with the reference point L as much as possible. It becomes possible.

이때 기준지점(L)은 촬영영역(S1) 내 번호인식이 가장 정확하게 이루어지는 지점으로 정의되며, 도로의 이동방향과 수직이면서 도로의 폭 방향보다 작은 폭을 갖는 선으로 이루어진다.At this time, the reference point (L) is defined as the point where the number recognition in the photographing area (S1) is most accurate, and consists of a line having a width smaller than the width direction of the road perpendicular to the direction of movement of the road.

즉 컨트롤러(3)는 단속차량(C)의 감지영역(S) 내 현재 위치(X1) 및 속도를 감안하여 단속차량(C)의 차량번호판이 기준지점(L)을 통과할 때, 카메라(5)의 촬영이 이루어지도록 구성됨으로써 별도의 구성수단 및 장비를 추가하지 않고도, 동일 구성 및 환경 대비 번호인식률을 극대화시킬 수 있게 된다.That is, the controller 3 takes the camera 5 into consideration when the license plate of the intermittent vehicle C passes the reference point L in consideration of the current position X1 and the speed in the sensing area S of the intermittent vehicle C. ) Is configured to take a picture, it is possible to maximize the number recognition rate compared to the same configuration and environment, without adding a separate configuration means and equipment.

또한 컨트롤러(3)는 카메라(5)로부터 획득된 이미지를 수신 받으면, 기 설정된 번호인식 알고리즘을 이용하여 수신된 이미지를 분석하여 차량번호를 검출한다. 이때 번호인식 알고리즘은 단속시스템 및 주차관제 시스템에서 통상적으로 사용되는 기술이기 때문에 상세한 설명은 생략하기로 한다.In addition, when the controller 3 receives the image acquired from the camera 5, the controller 3 analyzes the received image using a preset number recognition algorithm to detect the vehicle number. At this time, since the number recognition algorithm is a technique commonly used in the control system and the parking control system, a detailed description thereof will be omitted.

또한 컨트롤러(3)는 단속차량의 차량번호가 검출되면, 단속차량의 위치, 시간, 위반내용, 속도, 차량번호 및 이미지 프레임을 매칭시킨 단속정보를 생성하며, 생성된 단속정보를 교통관제서버(7)로 전송한다. 이때 교통관제서버(7)는 컨트롤러(3)로부터 전송받은 단속정보를 활용하여 해당 단속차량에 대한 과태료 청구 등의 후속절차를 수행한다.In addition, when the vehicle number of the crackdown vehicle is detected, the controller 3 generates crackdown information that matches the position, time, violation, speed, vehicle number, and image frame of the crackdown vehicle, and generates the crackdown information using the traffic control server ( 7) to transmit. At this time, the traffic control server 7 performs a subsequent procedure such as a penalty charge for the crackdown vehicle using the crackdown information received from the controller 3.

교통관제서버(7)는 컨트롤러(3-1), ..., (3-N)들을 관리 및 제어하는 서버로서, 컨트롤러(3-1), ..., (3-N)들로부터 전송받은 차량정보를 가공 및 활용하여 교통정보를 생성하며, 생성된 교통정보를 접속된 클라이언트(미도시)들에게 제공한다.The traffic control server 7 is a server that manages and controls the controllers 3-1, ..., (3-N), and transmits them from the controllers 3-1, ..., (3-N). Traffic information is generated by processing and utilizing the received vehicle information, and the generated traffic information is provided to the connected clients (not shown).

또한 교통관제서버(7)는 컨트롤러(3-1), ..., (3-N)들로부터 단속정보를 전송받으면, 전송받은 단속정보에 따라 과태료 청구 등의 후속절차를 수행한다.In addition, when the traffic control server 7 receives the enforcement information from the controllers 3-1, ..., (3-N), the traffic control server 7 performs a subsequent procedure such as a fine charge according to the received enforcement information.

도 5는 도 3의 컨트롤러를 나타내는 블록도이다.5 is a block diagram illustrating the controller of FIG. 3.

컨트롤러(3)는 도 5에 도시된 바와 같이, 제어부(30)와, 메모리(31), 통신 인터페이스부(32), 신호분석부(33), 차량정보 생성부(34), 단속차량 판별부(35), 경과시간 산출부(36), 트리거신호 생성부(37), 번호인식부(38), 단속정보 생성부(39), 기준지점(L) 설정부(40)로 이루어진다.As shown in FIG. 5, the controller 3 includes a controller 30, a memory 31, a communication interface 32, a signal analyzer 33, a vehicle information generator 34, and an intermittent vehicle determination unit. (35), an elapsed time calculating section 36, a trigger signal generating section 37, a number recognition section 38, an intermittent information generating section 39, and a reference point L setting section 40.

제어부(30)는 컨트롤러(3)의 O,S(Operting System)이며, 제어대상(31), (32), (33), (34), (35), (36), (37), (38), (39), (40)들을 관리 및 제어한다. The control unit 30 is an operating system (O, S) of the controller 3, the control target 31, (32), (33), (34), (35), (36), (37), ( Manage and control 38), (39), (40).

또한 제어부(30)는 레이더 송수신기(4)로부터 레이더신호 정보를 수신 받으면, 수신 받은 레이더신호 정보를 신호분석부(33)로 입력한다.In addition, when the control unit 30 receives the radar signal information from the radar transceiver 4, the control unit 30 inputs the received radar signal information to the signal analysis unit 33.

또한 제어부(30)는 단속차량 판별부(35)에 의해 단속차량이 검출되면, 경과시간 산출부(36)를 실행시킨다.In addition, when the control vehicle 30 detects the control vehicle by the control vehicle determination unit 35, the control unit 30 executes the elapsed time calculation unit 36.

또한 제어부(30)는 트리거신호 생성부(37)에 의해 트리거신호(Trigger Signal)이 생성되면, 생성된 트리거신호를 카메라(5)로 송출한다.In addition, when the trigger signal (Trigger Signal) is generated by the trigger signal generation unit 37, the control unit 30 transmits the generated trigger signal to the camera (5).

또한 제어부(30)는 카메라(5)로부터 이미지를 수신 받으면, 수신된 이미지를 번호인식부(38)로 입력한다.In addition, when the controller 30 receives an image from the camera 5, the controller 30 inputs the received image to the number recognition unit 38.

또한 제어부(30)는 차량정보 생성부(34)에 의해 생성되는 차량번호 및 단속정보 생성부(39)에 의해 생성되는 단속정보가 교통관제서버(7)로 전송되도록 통신 인터페이스부(32)를 제어한다.In addition, the control unit 30 controls the communication interface unit 32 so that the vehicle number generated by the vehicle information generation unit 34 and the enforcement information generated by the enforcement information generation unit 39 are transmitted to the traffic control server 7. To control.

또한 제어부(30)는 기 설정된 주기(T)에 따라 기준지점(L) 설정부(40)를 실행시킴과 동시에 트리거신호 생성부(37)를 실행시켜 카메라(5)에 의해 촬영된 이미지를 기준지점 설정부(40)로 입력한다.In addition, the controller 30 executes the reference point L setting unit 40 according to a preset period T, and simultaneously executes the trigger signal generator 37 to refer to the image photographed by the camera 5. Input to the point setting unit 40.

메모리(31)에는 기 설정된 감지영역(S)들의 위치정보와, 기 설정된 촬영영역(S1)의 위치정보, 기준지점 설정부(40)에 의해 설정된 기준지점의 위치정보가 저장된다.The memory 31 stores position information of the preset sensing regions S, position information of the preset photographing region S1, and position information of the reference point set by the reference point setting unit 40.

또한 메모리(31)에는 차량정보 생성부(34)에 의해 생성되는 차량정보와, 단속정보 생성부(38)에 의해 생성되는 단속정보가 임시 저장된다.In addition, the memory 31 temporarily stores vehicle information generated by the vehicle information generation unit 34 and enforcement information generated by the enforcement information information generation unit 38.

또한 메모리(31)에는 기 설정된 번호인식 알고리즘이 저장된다.In addition, the memory 31 stores a preset number recognition algorithm.

통신 인터페이스부(32)는 교통관제서버(7)와 데이터를 송수신한다.The communication interface 32 transmits and receives data with the traffic control server 7.

신호분석부(33)는 레이더 송수신기(4)에 의해 송수신된 레이더신호를 입력받아 이를 분석한다.The signal analysis unit 33 receives the radar signal transmitted and received by the radar transceiver 4 and analyzes it.

차량정보 생성부(34)는 신호분석부(33)에 의해 검출된 분석데이터를 활용하여 차량정보를 생성한다. 이때 차량정보는 감지차량의 위치, 시간, 속도 등으로 이루어진다.The vehicle information generator 34 generates vehicle information by using the analysis data detected by the signal analyzer 33. At this time, the vehicle information consists of the position, time, speed, etc. of the sensing vehicle.

이때 차량정보 생성부(34)에 의해 생성된 차량정보는 제어부(30)의 제어에 따라 통신 인터페이스부(32)를 통해 교통관제서버(7)로 전송된다.At this time, the vehicle information generated by the vehicle information generation unit 34 is transmitted to the traffic control server 7 through the communication interface unit 32 under the control of the control unit 30.

단속차량 판별부(35)는 차량정보 생성부(34)에 의해 생성된 감지차량의 차량정보를 기 설정된 기준값에 비교하여 감지차량이 교통법규를 위반하였는지를 판별하며, 법규위반이라고 판단될 때, 해당 감지차량을 단속차량으로 결정한다.The enforcement vehicle determination unit 35 compares the vehicle information of the detection vehicle generated by the vehicle information generation unit 34 with a preset reference value to determine whether the detection vehicle violated the traffic laws, and when it is determined that the violation of the laws and regulations, The sensing vehicle is determined as an intermittent vehicle.

예를 들어 단속차량 판별부(35)는 감지차량의 속도를 제한속도와 비교하여 감지차량의 속도가 제한속도를 초과하는 경우, 해당 감지차량을 단속차량으로 결정하는 것으로 구성될 수 있다.For example, the intermittent vehicle determining unit 35 may be configured to determine the detected vehicle as the intervening vehicle when the speed of the sensing vehicle exceeds the speed limit by comparing the speed of the sensing vehicle with the speed limit.

또한 단속차량 판별부(35)에 의해 감지차량이 단속차량으로 결정되면, 제어부(30)의 제어에 따라 경과시간 산출부(36)가 실행된다.In addition, when the detection vehicle is determined to be the enforcement vehicle by the enforcement vehicle determination unit 35, the elapsed time calculation unit 36 is executed under the control of the control unit 30.

경과시간 산출부(36)는 단속차량 판별부(35)에 의해 감지차량이 단속차량으로 결정될 때 실행된다.The elapsed time calculation unit 36 is executed when the detection vehicle is determined to be the control vehicle by the control vehicle determination unit 35.

또한 경과시간 산출부(36)는 단속차량의 현재 위치(X1) 및 기준지점 설정부(40)에 의해 설정된 기준지점(L)의 위치(X)를 활용하여 이들의 이격거리(Δd)를 산출하며, 산출된 이격거리(Δd)에 단속차량의 속도를 나누어 단속차량이 현재 위치로부터 기준지점(L)에 도달할 때까지의 경과시간(t)을 산출하며, 경과시간(t)은 다음의 수학식 1로 정의된다.In addition, the elapsed time calculation unit 36 calculates the separation distance Δd by utilizing the current position X1 of the intermittent vehicle and the position X of the reference point L set by the reference point setting unit 40. The elapsed time t from the current position to the reference point L is calculated by dividing the speed of the intermittent vehicle by the calculated separation distance Δd. It is defined by Equation 1.

Figure 112019016838460-pat00003
Figure 112019016838460-pat00003

이때 X는 기준지점(L)의 위치이고, X1은 단속차량의 위치이고, V는 단속차량의 속도이다.X is the position of the reference point (L), X1 is the position of the intermittent vehicle, V is the speed of the intermittent vehicle.

또한 제어부(30)는 경과시간 산출부(36)에 의해 산출된 경과시간(t)에 카메라(5)의 촬영이 이루어지도록 경과시간(t)에 대응되는 시점에 트리거신호 생성부(37)를 실행시킨다.In addition, the controller 30 controls the trigger signal generator 37 to correspond to the elapsed time t so that the camera 5 photographs the elapsed time t calculated by the elapsed time calculator 36. Run it.

트리거신호 생성부(37)는 제어부(30)의 제어에 따라 실행되면, 카메라(5)를 구동시키기 위한 트리거신호를 생성하고, 생성된 트리거신호는 제어부(30)의 제어에 따라 카메라(5)로 출력된다.When the trigger signal generator 37 is executed under the control of the controller 30, the trigger signal generator 37 generates a trigger signal for driving the camera 5, and the generated trigger signal is controlled by the controller 30. Is output.

번호인식부(38)는 카메라(5)의 촬영에 의해 획득된 단속차량의 이미지를 입력받으며, 기 설정된 번호인식 알고리즘을 이용하여 입력된 이미지를 분석하여 차량번호를 인식 및 검출한다. 이때 영상 또는 이미지로부터 차량번호판을 추출한 후, 추출된 차량번호판의 차량번호를 인식하는 방법 및 기술은 통상적으로 널리 사용되는 기술이기 때문에 상세한 설명은 생략하기로 한다.The number recognition unit 38 receives an image of an intermittent vehicle obtained by photographing the camera 5, and analyzes the input image using a preset number recognition algorithm to recognize and detect a vehicle number. In this case, after extracting a license plate from an image or an image, a method and technology for recognizing a license plate number of the extracted license plate are commonly used techniques, and thus detailed description thereof will be omitted.

또한 번호인식부(38)에 의해 검출된 차량번호 정보는 단속정보 생성부(39)로 입력된다.In addition, the vehicle number information detected by the number recognition unit 38 is input to the enforcement information generation unit 39.

단속정보 생성부(39)는 단속차량의 위치, 시간, 위반내용, 속도, 차량번호 및 이미지를 매칭시켜 단속정보를 생성한다.The enforcement information generation unit 39 generates the enforcement information by matching the position, time, violation details, speed, vehicle number, and image of the enforcement vehicle.

이때 단속정보 생성부(39)에 의해 생성된 단속정보는 제어부(30)의 제어에 따라 통신 인터페이스부(32)를 통해 교통관제서버(7)로 전송된다.At this time, the enforcement information generated by the enforcement information generation unit 39 is transmitted to the traffic control server 7 through the communication interface unit 32 under the control of the control unit 30.

도 6은 본 발명의 동작과정을 설명하기 위한 플로차트이다.6 is a flowchart for explaining the operation of the present invention.

본 발명의 차량 촬영방법(S1)은 도 6에 도시된 바와 같이, 레이더신호 송수신단계(S10)와, 차량감지 판단단계(S20), 차량정보 생성단계(S30), 차량정보 전송단계(S40), 단속차량 판별단계(S50), 경과시간 산출단계(S60), 트리거신호 생성단계(S70), 트리거신호 출력단계(S80), 촬영단계(S90), 이미지 입력단계(S100), 번호인식단계(S110), 단속정보 생성단계(S120), 단속정보 전송단계(S130)로 이루어진다.As shown in FIG. 6, the vehicle photographing method S1 of the present invention includes a radar signal transmission and reception step S10, a vehicle detection determination step S20, a vehicle information generation step S30, and a vehicle information transmission step S40. , Intermittent vehicle determination step (S50), elapsed time calculation step (S60), trigger signal generation step (S70), trigger signal output step (S80), shooting step (S90), image input step (S100), number recognition step ( S110, intermittent information generating step (S120), intermittent information transmission step (S130).

레이더신호 송수신단계(S10)는 레이더 송수신기(4)가 레이더신호를 송신한 후, 반사되는 신호를 수집하는 단계이다.Radar signal transmission and reception step (S10) is a step in which the radar transceiver 4 collects the reflected signal after transmitting the radar signal.

차량감지 판단단계(S20)는 컨트롤러(3)가 레이더신호 송수신단계(S10)에 의해 송수신된 레이더신호를 분석하여 기 설정된 감지영역(S) 내 진입차량이 존재하는지를 판단하는 단계이다.The vehicle detection determination step S20 is a step in which the controller 3 analyzes the radar signals transmitted and received by the radar signal transmission and reception step S10 to determine whether an entry vehicle exists in the preset detection area S.

또한 차량감지 판단단계(S20)는 만약 차량이 감지되지 않으면, 별도의 동작을 수행하지 않으며, 만약 차량이 감지되면, 차량정보 생성단계(S30)를 진행한다.In addition, if the vehicle detection step (S20) is not detected, the vehicle does not perform a separate operation, if the vehicle is detected, the vehicle information generation step (S30) proceeds.

차량정보 생성단계(S30)는 컨트롤러(3)가 차량감지 판단단계(S20)에 의해 차량이 감지되는 경우 진행되며, 감지차량의 위치, 시간, 속도 등으로 이루어지는 차량정보를 생성하는 단계이다.The vehicle information generation step S30 is performed when the vehicle is detected by the controller 3 in the vehicle detection determination step S20. The vehicle information generation step S30 is a step of generating vehicle information including position, time, and speed of the vehicle.

차량정보 전송단계(S40)는 컨트롤러(3)가 차량정보 생성단계(S30)에 의해 생성된 차량정보를 교통관제서버(7)로 전송하는 단계이다.The vehicle information transmitting step S40 is a step in which the controller 3 transmits the vehicle information generated by the vehicle information generating step S30 to the traffic control server 7.

단속차량 판별단계(S50)는 컨트롤러(3)가 차량정보 생성단계(S30)에 의해 생성된 차량정보를 기 설정된 기준값에 비교하여 감지차량이 법규를 위반하였는지를 판별한다.The intermittent vehicle determination step S50 determines whether the detection vehicle violates the law by comparing the vehicle information generated by the vehicle information generation step S30 with a preset reference value.

또한 단속차량 판별단계(S50)는 만약 감지차량이 법규를 위반한 차량이 아니면, 차량감지단계(S20)로 돌아가 이후 과정을 반복한다.In addition, the intermittent vehicle determination step S50 returns to the vehicle detection step S20 and repeats the process after the detection vehicle is not in violation of the law.

또한 단속차량 판별단계(S50)는 만약 감지차량이 법규를 위반한 차량이면, 해당 감지차량을 단속차량으로 결정한 후, 경과시간 산출단계(S60)를 진행한다.In addition, if the detection vehicle is a vehicle in violation of the law, the crackdown vehicle determination step (S50) determines the detected vehicle as the crackdown vehicle, and then proceeds to the elapsed time calculation step (S60).

경과시간 산출단계(S60)는 컨트롤러(3)가 단속차량 판별단계(S50)에 의해 감지차량이 단속차량으로 결정될 때 진행되며, 단속차량의 현재 위치 및 기준지점 설정부(40)에 의해 설정된 기준지점(L)의 이격거리(Δd)를 산출하며, 산출된 이격거리(Δd)에 단속차량의 속도를 나누어 단속차량이 현재 위치로부터 기준지점(L)에 도달할 때까지의 경과시간(t)을 산출하는 단계이다.Elapsed time calculation step (S60) proceeds when the controller 3 is determined by the control vehicle determination step (S50) to determine the vehicle is an intermittent vehicle, the current position and the reference point set by the reference point setting unit 40 of the intermittent vehicle The distance (Δd) of the point (L) is calculated, and the elapsed time (t) from the current position to the reference point (L) is obtained by dividing the speed of the enforcement vehicle by the calculated distance (Δd). It is a step of calculating.

트리거신호 생성단계(S70)는 컨트롤러(3)가 경과시간 산출단계(S60)에 산출된 경과시간(t)에 대응되는 시점에 카메라(5)를 구동시키기 위한 트리거신호를 생성하는 단계이다.The trigger signal generation step S70 is a step in which the controller 3 generates a trigger signal for driving the camera 5 at a time point corresponding to the elapsed time t calculated in the elapsed time calculation step S60.

트리거신호 출력단계(S80)는 컨트롤러(3)가 트리거신호 생성단계(S70)에 의해 생성된 트리거신호를 카메라(5)로 출력하는 단계이다.The trigger signal output step S80 is a step in which the controller 3 outputs the trigger signal generated by the trigger signal generation step S70 to the camera 5.

촬영단계(S90)는 카메라(5)가 트리거신호 출력단계(S80)를 통해 수신 받은 트리거신호에 따라 촬영을 수행하여 단속차량의 이미지를 획득하는 단계이다.In the photographing step S90, the camera 5 acquires an image of the intermittent vehicle by photographing according to the trigger signal received through the trigger signal output step S80.

이미지 입력단계(S100)는 컨트롤러(3)가 촬영단계(S90)에 의해 획득된 이미지를 카메라(5)로부터 수신 받는 단계이다.The image input step S100 is a step in which the controller 3 receives an image obtained by the photographing step S90 from the camera 5.

번호인식단계(S110)는 컨트롤러(3)가 기 설정된 번호인식 알고리즘을 이용하여 이미지 입력단계(S100)를 통해 입력된 이미지를 분석하여 차량번호를 인식하는 단계이다.The number recognition step S110 is a step in which the controller 3 recognizes the vehicle number by analyzing the image input through the image input step S100 using a preset number recognition algorithm.

단속정보 생성단계(S120)는 컨트롤러(3)가 번호인식단계(S110)에 의해 인식된 차량번호와, 이미지 입력단계(S100)에 의해 입력된 이미지와, 단속차량의 위치, 시간, 속도, 위반내용을 매칭시켜 단속정보를 생성하는 단계이다.In the control information generation step S120, the controller 3 recognizes the vehicle number recognized by the number recognition step S110, the image input by the image input step S100, and the position, time, speed, and violation of the control vehicle. In this step, the content is matched to generate crackdown information.

단속정보 전송단계(S130)는 컨트롤러(3)가 단속정보 생성단계(S120)에 의해 생성된 단속정보를 교통관제서버(7)로 전송하는 단계이다.The enforcement information transmission step S130 is a step in which the controller 3 transmits the enforcement information generated by the enforcement information generation step S120 to the traffic control server 7.

도 7의 (a), (b), (c), (d)는 본 발명의 카메라에 의해 획득된 이미지를 나타내는 예시도이다.(A), (b), (c) and (d) of FIG. 7 are exemplary views showing images obtained by the camera of the present invention.

도 7의 (a), (b), (c), (d)들을 참조하여 본 발명의 카메라(5)에 의해 획득된 이미지(800)를 살펴보면, 단속차량(C)의 차량번호판의 지점과, 기준지점(L)이 일치되는 것을 알 수 있고, 이에 따라 컨트롤러(3)에서 번호인식률을 높일 수 있게 된다. Looking at the image 800 obtained by the camera 5 of the present invention with reference to (a), (b), (c), (d) of Figure 7, the point of the license plate of the intermittent vehicle (C) and It can be seen that the reference point (L) is matched, thereby increasing the number recognition rate in the controller (3).

도 8은 도 5의 기준지점 설정부를 나타내는 블록도이고, 도 9의 (a), (b), (c)들은 도 5의 기준지점 설정부를 설명하기 위한 예시도이다.FIG. 8 is a block diagram illustrating a reference point setting unit of FIG. 5, and FIGS. 9A, 9B and 9C are exemplary views for explaining the reference point setting unit of FIG. 5.

기준지점 설정부(40)는 기 설정된 주기(T) 마다 제어부(30)의 제어에 따라 실행되며, 주변 환경에 대응하여 기준지점(L)의 위치를 최적으로 재설정한다.The reference point setting unit 40 is executed under the control of the controller 30 at every preset period T, and optimally resets the position of the reference point L in response to the surrounding environment.

일반적으로 촬영영역(S1) 내 번호인식이 최적으로 이루어지는 픽셀영역은 조도, 시간, 안개 등의 주변 환경에 따라 변하는 특성을 갖게 된다. In general, the pixel area in which the number recognition is optimal in the photographing area S1 has a characteristic that varies depending on the surrounding environment such as illuminance, time, and fog.

예를 들어 촬영영역(S1)에 대한 이미지(700)는 주변 환경에 따라, 도 9의 (a)에서와 같이, 주변 환경이 ‘A’인 경우, 이미지(700)에서 선명도가 가장 높은 픽셀영역(S1‘)은 상부에 형성될 수 있고, 도 9의 (b)에 도시된 바와 같이, 주변 환경이 ’B’인 경우, 이미지(700)에서 선명도가 가장 높은 픽셀영역(S1‘)은 하부에 형성될 수 있으며, 도 9의 (c)에 도시된 바와 같이, 주변 환경이 ‘C’인 경우, 이미지(700)에서 선명도가 가장 높은 픽셀영역(S1‘)은 중간에 형성될 수도 있다.For example, the image 700 of the photographing area S1 may have the sharpest pixel area in the image 700 when the surrounding environment is 'A' as shown in FIG. 9A according to the surrounding environment. S1 ′ may be formed at an upper portion, and as shown in FIG. 9B, when the surrounding environment is 'B', the pixel region S1 ′ having the highest sharpness in the image 700 is lowered. As illustrated in (c) of FIG. 9, when the surrounding environment is 'C', the pixel area S1 having the highest definition in the image 700 may be formed in the middle.

본원 발명은 이러한 특성을 감안하여 기준지점 설정부(40)를 통해 기 설정된 주기(T)에 따라 기준지점을 재설정하도록 하였다.In the present invention, the reference point is reset according to a predetermined period T through the reference point setting unit 40 in consideration of such characteristics.

기준지점 설정부(40)는 도 8에 도시된 바와 같이, 이미지 입력모듈(401)과, 이미지 분할모듈(402), 선명도 검출모듈(403), 선명도 비교모듈(404), 기준지점 결정모듈(405)로 이루어진다.As shown in FIG. 8, the reference point setting unit 40 includes an image input module 401, an image segmentation module 402, a sharpness detection module 403, a sharpness comparison module 404, and a reference point determination module ( 405).

이때 기준지점 설정부(40)는 기 설정된 주기(T) 마다 실행되며, 실행 시 제어부(30)의 제어에 따라 카메라(5)에 의해 촬영이 수행되어 획득된 이미지를 입력받는다.In this case, the reference point setting unit 40 is executed every predetermined period T, and receives the image obtained by photographing by the camera 5 under the control of the controller 30 at the time of execution.

이미지 입력모듈(401)은 카메라(5)의 촬영에 의해 획득된 이미지를 입력받는다.The image input module 401 receives an image obtained by photographing the camera 5.

도 10은 도 8에 적용되는 분할픽셀구간들을 설명하기 위한 예시도이다.FIG. 10 is an exemplary diagram for describing divided pixel sections applied to FIG. 8.

이미지 분할모듈(402)은 기 설정된 분할픽셀구간(710-1), ..., (710-N)들 각가의 픽셀위치정보를 활용하여 이미지 입력모듈(401)에 의해 입력된 이미지(700)들 분할픽셀구간(710-1), ..., (710-N)들로 분할한다.The image dividing module 402 inputs the image 700 input by the image input module 401 by utilizing pixel position information of each of the preset divided pixel sections 710-1,..., And 710 -N. Are divided into divided pixel sections 710-1, ..., (710-N).

이때 분할픽셀구간(710-1), ..., (710-N)들 각각은 이미지(700)의 폭 방향으로 장 길이를 갖되, 이미지(700)의 높이방향으로 단 길이를 갖는 직사각형 형상으로 형성된다.In this case, each of the divided pixel sections 710-1,..., 710 -N has a long length in the width direction of the image 700, but has a short length in the height direction of the image 700. Is formed.

또한 분할픽셀구간(710-1), ..., (710-N)들은 이미지(700)의 높이 방향으로 서로 적층되게 형성된다.In addition, the divided pixel sections 710-1,..., And 710 -N are formed to be stacked on each other in the height direction of the image 700.

선명도 검출모듈(403)은 기 설정된 선명도 검출 알고리즘을 이용하여 이미지 분할모듈(402)에 의해 분할된 분할픽셀구간(710-1), ..., (710-N)들 각각의 선명도를 검출한다. 이때 영상으로부터 특정 구간의 선명도를 검출하는 알고리즘은 통상적으로 사용되는 기술이기 때문에 상세한 설명은 생략하기로 한다.The sharpness detection module 403 detects the sharpness of each of the divided pixel sections 710-1,..., 710 -N divided by the image segmentation module 402 by using a preset sharpness detection algorithm. . In this case, since an algorithm for detecting the sharpness of a specific section from the image is a commonly used technique, a detailed description thereof will be omitted.

선명도 비교모듈(404)은 선명도 검출모듈(403)에 의해 검출된 각 분할픽셀구간(710)의 선명도들을 비교한다.The sharpness comparison module 404 compares the sharpnesses of the divided pixel sections 710 detected by the sharpness detection module 403.

기준지점 결정모듈(405)은 선명도 비교모듈(404)을 통해 선명도가 가장 높은 분할픽셀구간을 검출한 후, 검출된 선명도가 가장 높은 분할픽셀구간에 포함되도록 기준지점(L)을 결정한다. 예를 들어 기준지점 결정모듈(405)은 선명도가 가장 높은 분할픽셀구간의 하단부를 기준지점(L)으로 설정할 수 있다.The reference point determination module 405 detects the divided pixel section having the highest sharpness through the sharpness comparison module 404, and then determines the reference point L to be included in the detected pixel section having the highest sharpness. For example, the reference point determination module 405 may set the lower end of the divided pixel section having the highest sharpness as the reference point L.

또한 기준지점 결정모듈(405)에 의해 결정된 기준지점(L)은 다음 주기(T)가 될 때까지, 경과시간 산출부(36)에서 경과시간을 산출하는데 활용되게 된다.In addition, the reference point L determined by the reference point determination module 405 is used to calculate the elapsed time in the elapsed time calculation unit 36 until the next period T.

도 11은 도 10의 기준지점 설정모듈의 동작과정을 설명하기 위한 플로차트이다.FIG. 11 is a flowchart for describing an operation of the reference point setting module of FIG. 10.

본 발명의 기준지점 설정단계(S400)는 기 설정된 주기(T) 마다 진행된다.Reference point setting step (S400) of the present invention proceeds for each predetermined period (T).

또한 기준지점 설정단계(S400)는 도 11에 도시된 바와 같이, 카메라(5)가 주기(T) 마다 촬영을 수행하여 이미지를 획득하는 이미지 획득단계(S410)와, 컨트롤러가 이미지 획득단계(S410)에 의해 획득된 이미지를 입력받는 이미지 입력단계(S420)와, 컨트롤러(5)가 기 설정된 분할픽셀구간(710-1), ..., (710-N)들 각각의 픽셀위치정보를 활용하여 이미지 입력단계(S420)를 통해 입력된 이미지를 상기 분할픽셀구간들로 분할하는 이미지 분할단계(S430)와, 컨트롤러(5)가 기 설정된 선명도 검출알고리즘을 이용하여 이미지 분할단계(S430)에 의해 분할된 분할픽셀구간들 각각의 선명도를 검출하는 선명도 검출단계(S440)와, 컨트롤러(5)가 선명도 검출단계(S440)에 의해 검출된 각 분할픽셀구간의 선명도를 비교하는 선명도 비교단계(S450)와, 선명도 비교단계(S450)에서 선명도가 가장 높은 분할픽셀구간을 검출한 후, 검출된 선명도가 가장 높은 분할픽셀구간에 포함되도록 기준지점(L)을 재설정하는 기준지점 결정단계(S460)로 이루어진다.In addition, as shown in FIG. 11, the reference point setting step S400 includes an image acquisition step S410 in which the camera 5 acquires an image by capturing every period T, and the controller acquires an image in step S410. Image input step (S420) of receiving the image obtained by the second), and the controller 5 utilizes pixel position information of each of the preset pixel divisions 710-1, ..., 710-N. Image division step (S430) of dividing the image input through the image input step (S420) into the divided pixel sections, and the controller 5 by the image segmentation step (S430) using a preset sharpness detection algorithm. Sharpness detection step (S440) for detecting the sharpness of each divided pixel section, and sharpness comparison step (S450) in which the controller 5 compares the sharpness of each divided pixel section detected by the sharpness detection step (S440). In the sharpness comparison step (S450), the sharpness is increased. After detecting the high divided pixel section, and the detected contrast it is to be included in the high split pixel section composed of a reference point of the reference point determining step (S460) for resetting the (L).

이때 전술하였던 도 6의 경과시간 산출단계(S60)는 기준지점 결정단계(S460)에 의해 결정된 기준지점(L)을 활용하여 경과시간(t)을 산출한다.At this time, the elapsed time calculating step (S60) of FIG. 6 described above calculates the elapsed time (t) by using the reference point L determined by the reference point determining step (S460).

이와 같이 본 발명의 일실시예인 차량 촬영시스템(1)은 단속차량(C)의 현재 위치 및 속도와 기준지점(L)의 위치를 활용하여 단속차량(C)이 기준지점(L)을 통과하는 시점에 정확하게 촬영이 이루어지도록 구성됨으로써 차량번호판의 촬영이 이루어지는 지점을 기준지점(L)에 일치시켜 번호인식률을 현저히 개선시킬 수 있게 된다.As described above, the vehicle photographing system 1 according to an exemplary embodiment of the present invention utilizes the current position and speed of the intervening vehicle C and the position of the reference point L so that the intervening vehicle C passes the reference point L. Since the photographing is accurately performed at the viewpoint, the number recognition rate can be remarkably improved by matching the photographing point of the license plate with the reference point (L).

또한 본 발명의 차량 촬영시스템(1)은 별도의 구성수단 및 장치를 추가하지 않아도 구현이 가능하기 때문에 설치 및 운영비용을 절감시킬 수 있다.In addition, since the vehicle imaging system 1 of the present invention can be implemented without adding a separate configuration means and apparatus, the installation and operation costs can be reduced.

또한 본 발명의 차량 촬영시스템(1)은 조도, 시간, 안개 등의 주변 환경에 따라 촬영영역(S1) 내 번호인식이 최적으로 이루어지는 픽셀영역이 변경되는 특성을 감안하여, 컨트롤러가 카메라를 구동시켜 이미지를 획득하면, 획득된 이미지를 도로 이동방향에 대응하여 높이 방향으로 복수개로 분할한 후, 분할픽셀구간들 각각의 선명도를 검출하여 선명도가 가장 높은 분할픽셀구간으로 기준지점(L)의 위치를 재설정함으로써 주변 환경에 대응하여 기준지점(L)의 위치를 최적으로 변경하여 번호인식이 더욱 정확하게 이루어질 수 있게 된다.In addition, the vehicle photographing system 1 of the present invention allows the controller to drive the camera in consideration of the characteristic that the pixel area where the number recognition is optimally performed in the photographing area S1 is changed according to the surrounding environment such as illumination, time, fog, and the like. After acquiring the image, the obtained image is divided into a plurality of heights in the height direction corresponding to the road moving direction, and then the sharpness of each of the divided pixel sections is detected to determine the position of the reference point L as the divided pixel section having the highest sharpness. By resetting, the position of the reference point L is optimally changed corresponding to the surrounding environment so that the number recognition can be made more accurately.

1:차량 촬영시스템 3-1, ..., 3-N:컨트롤러들
4:레이더 송수신기 5:카메라 7:교통관제서버
10:통신망 30:제어부 31:메모리
32:통신 인터페이스부 33:신호분석부 34:차량정보 생성부
35:단속차량 판별부 36:경과시간 산출부
37:트리거신호 생성부 38:번호인식부 39:단속정보 생성부
401:이미지 입력모듈 402:이미지 분할모듈
403:선명도 검출모듈 404:선명도 비교모듈
405:기준지점 결정모듈
1: Vehicle shooting system 3-1, ..., 3-N: Controllers
4: Radar transceiver 5: Camera 7: Traffic control server
10: communication network 30: control unit 31: memory
32: communication interface unit 33: signal analysis unit 34: vehicle information generation unit
35: intermittent vehicle discrimination unit 36: elapsed time calculation unit
37: trigger signal generation unit 38: number recognition unit 39: enforcement information generation unit
401: image input module 402: image segmentation module
403: sharpness detection module 404: sharpness comparison module
405: reference point determination module

Claims (7)

기 설정된 감지영역(S)의 진입차량을 감지하는 차량감지수단과, 기 설정된 촬영영역(S1)을 촬영하는 카메라와, 상기 차량감지수단 및 상기 카메라를 관리 및 제어하는 컨트롤러를 포함하는 차량 촬영시스템에 있어서:
상기 컨트롤러는
상기 차량감지수단에 의해 검출된 감지데이터를 분석하여 상기 감지영역(S) 내 진입차량을 감지하며, 감지된 진입차량의 위치 및 속도를 포함하는 차량정보를 생성하는 차량정보 생성부;
상기 차량정보 생성부에 의해 생성된 차량정보를 기 설정된 위반정보와 비교하여 진입차량이 단속차량인지를 판단하는 단속차량 판별부;
상기 단속차량 판별부에 의해 단속차량이 검출되면, 단속차량의 현재 위치 및 속도와, 번호인식이 최적으로 이루어지는 기 설정된 기준지점(L)의 위치를 활용하여 상기 단속차량이 현재 위치로부터 기준지점(L)까지 도달할 때까지의 시간인 경과시간(t)을 산출하는 경과시간 산출부;
상기 경과시간 산출부에 의해 산출된 경과시간(t)에 상기 카메라의 촬영이 이루어지도록 트리거신호(Trigger Signal)를 생성하는 트리거신호 생성부;
상기 트리거신호 생성부에 의해 생성된 트리거신호를 상기 카메라로 출력하는 제어부;
상기 카메라에 의해 촬영된 이미지를 분석하여 차량번호를 인식하는 번호인식부를 포함하고,
상기 컨트롤러는 기 설정된 주기(T) 마다 기준지점을 재설정하는 기준지점 설정부를 더 포함하고,
상기 제어부는 상기 주기(T) 마다 상기 카메라를 구동시켜 상기 카메라의 촬영에 의해 획득된 이미지를 상기 기준지점 설정부로 입력하고,
상기 기준지점 설정부는
기 설정된 분할픽셀구간들 각각의 픽셀위치정보를 활용하여 입력된 이미지를 상기 분할픽셀구간들로 분할하는 이미지 분할모듈;
기 설정된 선명도 검출알고리즘을 이용하여 상기 이미지 분할모듈에 의해 분할된 분할픽셀구간들 각각의 선명도를 검출하는 선명도 검출모듈;
상기 선명도 검출모듈에 의해 검출된 각 분할픽셀구간의 선명도를 비교하는 선명도 비교모듈;
상기 선명도 비교모듈에서 선명도가 가장 높은 분할픽셀구간을 검출한 후, 검출된 선명도가 가장 높은 분할픽셀구간에 포함되도록 기준지점(L)을 재설정하는 기준지점 결정모듈을 포함하고,
상기 경과시간 산출부는 상기 기준지점 결정모듈에 의해 결정된 기준지점(L)을 활용하여 경과시간(t)을 산출하는 것을 특징으로 하는 차량 촬영시스템.
A vehicle photographing system including vehicle sensing means for sensing an entrance vehicle in a preset sensing area S, a camera photographing a preset photographing area S1, and a controller for managing and controlling the vehicle sensing means and the camera. In:
The controller
A vehicle information generator configured to analyze the sensing data detected by the vehicle detecting means, detect an entry vehicle in the detection area S, and generate vehicle information including a position and a speed of the detected entry vehicle;
An intermittent vehicle determination unit that determines whether the entry vehicle is an interrupted vehicle by comparing the vehicle information generated by the vehicle information generator with preset violation information;
When the intermittent vehicle is detected by the intermittent vehicle discrimination unit, the intermittent vehicle uses the current position and speed of the intermittent vehicle and the position of the preset reference point L at which the number recognition is optimally performed. An elapsed time calculating unit that calculates an elapsed time t that is a time until reaching L);
A trigger signal generator configured to generate a trigger signal so that the camera photographs the elapsed time t calculated by the elapsed time calculator;
A controller for outputting a trigger signal generated by the trigger signal generator to the camera;
A number recognition unit for recognizing a vehicle number by analyzing the image photographed by the camera,
The controller further includes a reference point setting unit for resetting the reference point every predetermined period (T),
The controller drives the camera at each cycle T to input an image obtained by photographing the camera to the reference point setting unit,
The reference point setting unit
An image splitting module for dividing an input image into the divided pixel sections by using pixel position information of each of the divided pixel sections;
A sharpness detection module for detecting the sharpness of each of the divided pixel sections divided by the image segmentation module using a preset sharpness detection algorithm;
A sharpness comparison module for comparing the sharpness of each divided pixel section detected by the sharpness detection module;
And a reference point determination module for resetting the reference point L so as to be included in the divided pixel section having the highest clarity after detecting the divided pixel section having the highest clarity in the sharpness comparison module.
And the elapsed time calculating unit calculates the elapsed time (t) by using the reference point (L) determined by the reference point determining module.
청구항 제1항에 있어서, 상기 경과시간 산출부는 수학식 1을 통해 경과시간(t)을 산출하는 것을 특징으로 하는 차량 촬영시스템.
[수학식 1]
Figure 112019016838460-pat00004

이때 X : 기준지점(L)의 위치, X1 : 단속차량의 위치, V : 단속차량의 속도
The vehicle photographing system of claim 1, wherein the elapsed time calculating unit calculates an elapsed time t through Equation 1.
[Equation 1]
Figure 112019016838460-pat00004

Where X is the position of the reference point (L), X1 is the position of the interrupted vehicle, and V is the speed of the interrupted vehicle.
삭제delete 청구항 제2항에 있어서, 상기 분할픽셀구간들은 이미지의 높이 방향으로 단길이를 갖되, 폭 방향으로 장 길이를 갖는 직사각형 형상으로 형성되며, 이미지의 높이 방향으로 적층되게 형성되는 것을 특징으로 하는 차량 촬영시스템.The vehicle photographing method of claim 2, wherein the divided pixel sections have a short length in the height direction of the image, are formed in a rectangular shape having a long length in the width direction, and are stacked in the height direction of the image. system. 단속차량을 촬영한 이미지로부터 차량번호를 인식하기 위한 차량 촬영 방법에 있어서:
상기 차량 촬영 방법은
컨트롤러가 차량감지수단에 의해 검출된 감지데이터를 분석하여 감지차량의 위치 및 속도를 포함하는 차량정보를 생성하는 차량정보 생성단계;
상기 컨트롤러가 상기 차량정보 생성단계에 의해 생성된 차량정보를 기 설정된 위반정보와 비교하여 감지차량이 단속차량인지를 판별하는 단속차량 판별단계;
상기 컨트롤러가 상기 단속차량 판별단계에서 감지차량이 단속차량이라고 판단될 때 진행되며, 단속차량의 현재 위치 및 속도와, 번호인식이 최적으로 이루어지는 기 설정된 기준지점(L)의 위치를 활용하여 단속차량이 현재 위치로부터 기준지점(L)까지 도달할 때까지의 시간인 경과시간(t)을 산출하는 경과시간 산출단계;
상기 컨트롤러가 상기 경과시간 산출단계에 의해 산출된 경과시간(t)에 카메라의 촬영이 이루어지도록 트리거신호(Trigger Signal)를 생성하는 트리거신호 생성단계;
상기 컨트롤러가 상기 트리거신호 생성단계에 의해 생성된 트리거신호를 카메라로 출력하고, 카메라가 촬영을 수행하는 트리거신호 출력단계;
상기 컨트롤러가 상기 트리거신호 출력단계에 의해 획득된 이미지를 상기 카메라로부터 수신 받는 이미지 입력단계;
상기 컨트롤러가 상기 이미지 입력단계를 통해 입력된 이미지를 분석하여 차량번호를 인식하는 번호인식단계를 포함하고,
상기 차량 촬영 방법은 기 설정된 주기(T) 마다 진행되는 기준지점 설정단계를 더 포함하고,
상기 기준지점 설정단계는
상기 카메라가 상기 주기(T) 마다 촬영을 수행하여 이미지를 획득하는 이미지 획득단계;
상기 컨트롤러가 상기 이미지 획득단계에 의해 획득된 이미지를 입력받는 이미지 입력단계;
상기 컨트롤러가 기 설정된 분할픽셀구간들 각각의 픽셀위치정보를 활용하여 상기 이미지 입력단계를 통해 입력된 이미지를 상기 분할픽셀구간들로 분할하는 이미지 분할단계;
상기 컨트롤러가 기 설정된 선명도 검출알고리즘을 이용하여 상기 이미지 분할단계에 의해 분할된 분할픽셀구간들 각각의 선명도를 검출하는 선명도 검출단계;
상기 컨트롤러가 상기 선명도 검출단계에 의해 검출된 각 분할픽셀구간의 선명도를 비교하는 선명도 비교단계;
상기 선명도 비교단계에서 선명도가 가장 높은 분할픽셀구간을 검출한 후, 검출된 선명도가 가장 높은 분할픽셀구간에 포함되도록 기준지점(L)을 재설정하는 기준지점 결정단계를 포함하고,
상기 경과시간 산출단계는 상기 기준지점 결정단계에 의해 결정된 기준지점(L)을 활용하여 경과시간(t)을 산출하고,
상기 분할픽셀구간들은 이미지의 높이 방향으로 단길이를 갖되, 폭 방향으로 장 길이를 갖는 직사각형 형상으로 형성되며, 이미지의 높이 방향으로 적층되게 형성되는 것을 특징으로 하는 차량 촬영 방법.
In a vehicle photographing method for recognizing a vehicle number from an image of an intermittent vehicle:
The vehicle shooting method
A vehicle information generating step of the controller analyzing the sensed data detected by the vehicle detecting means and generating vehicle information including the position and the speed of the sensing vehicle;
An intermittent vehicle determination step of determining, by the controller, whether the detected vehicle is an interrupted vehicle by comparing the vehicle information generated by the vehicle information generation step with preset violation information;
The controller proceeds when it is determined that the sensing vehicle is the intervening vehicle in the step of determining the intermittent vehicle, and utilizes the current position and speed of the intermittent vehicle and the position of the preset reference point L where the number recognition is optimal. An elapsed time calculating step of calculating an elapsed time (t) which is a time from reaching this point to the reference point (L);
A trigger signal generation step of generating, by the controller, a trigger signal such that the camera photographs the elapsed time t calculated by the elapsed time calculating step;
A trigger signal output step in which the controller outputs a trigger signal generated by the trigger signal generation step to a camera, and the camera performs shooting;
An image input step in which the controller receives the image acquired by the trigger signal output step from the camera;
The controller comprises a number recognition step of recognizing the vehicle number by analyzing the image input through the image input step,
The vehicle photographing method further includes a step of setting a reference point that is performed every predetermined period T.
The reference point setting step
An image acquiring step, wherein the camera acquires an image by performing photographing every period T;
An image input step in which the controller receives an image acquired by the image acquisition step;
An image dividing step of the controller dividing an image input through the image input step into the divided pixel sections by using pixel position information of each of the divided pixel sections;
A sharpness detecting step of detecting, by the controller, the sharpness of each of the divided pixel sections divided by the image dividing step by using a predetermined sharpness detecting algorithm;
A sharpness comparison step of the controller comparing the sharpness of each divided pixel section detected by the sharpness detection step;
And a reference point determining step of resetting the reference point L so as to be included in the divided pixel section having the highest clarity after detecting the divided pixel section having the highest sharpness in the sharpness comparison step.
The elapsed time calculating step calculates the elapsed time (t) by using the reference point (L) determined by the reference point determination step,
The divided pixel sections may have a short length in the height direction of the image, are formed in a rectangular shape having a long length in the width direction, and are stacked in the height direction of the image.
청구항 제5항에 있어서, 상기 경과시간 산출단계는 수학식 1을 통해 경과시간(t)을 산출하는 것을 특징으로 하는 차량 촬영 방법.
[수학식 1]
Figure 112019016838460-pat00005

이때 X : 기준지점(L)의 위치, X1 : 단속차량의 위치, V : 단속차량의 속도
The method according to claim 5, wherein the elapsed time calculating step calculates an elapsed time (t) through Equation (1).
[Equation 1]
Figure 112019016838460-pat00005

Where X is the position of the reference point (L), X1 is the position of the interrupted vehicle, and V is the speed of the interrupted vehicle.
삭제delete
KR1020190018611A 2019-02-18 2019-02-18 Photographing system and method for increasing recognition rate of vehicle number KR101974105B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190018611A KR101974105B1 (en) 2019-02-18 2019-02-18 Photographing system and method for increasing recognition rate of vehicle number

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190018611A KR101974105B1 (en) 2019-02-18 2019-02-18 Photographing system and method for increasing recognition rate of vehicle number

Publications (1)

Publication Number Publication Date
KR101974105B1 true KR101974105B1 (en) 2019-09-02

Family

ID=67951355

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190018611A KR101974105B1 (en) 2019-02-18 2019-02-18 Photographing system and method for increasing recognition rate of vehicle number

Country Status (1)

Country Link
KR (1) KR101974105B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102091590B1 (en) * 2019-09-04 2020-05-29 (주)아이피캠프 System and Method for Enhanced Recognition of License Plate Number
KR20210036717A (en) * 2019-09-26 2021-04-05 (주)파슨텍 Device, method and computer program for deriving traffic information
KR102355402B1 (en) * 2021-06-01 2022-02-08 이노뎁 주식회사 Apparatus for determining forgery of vehicle license plate using relief of vehicle license plate
KR102491091B1 (en) * 2022-08-09 2023-01-20 주식회사 아이티아이비전 Method for producing collection video clip and, integrated unmanned traffic control system for two/four wheeled vehicle therewith
KR102537818B1 (en) * 2022-03-22 2023-05-26 박진용 Traffic information management system for enhancing accuracy of sensing vehicle speed

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06150188A (en) * 1992-11-09 1994-05-31 Ricoh Co Ltd Vehicle photographing device
JPH08180292A (en) * 1994-12-21 1996-07-12 Mitsubishi Electric Corp Automatic image pickup device
JP2006309742A (en) * 2005-03-30 2006-11-09 Pentax Corp Photography apparatus
KR101403936B1 (en) * 2013-02-20 2014-06-27 (주)인펙비전 Camera system for vehicles
KR101498458B1 (en) * 2014-10-31 2015-03-12 건아정보기술 주식회사 Photographing System For Vehicle Detecting Object And Velocity Using Plural Laser Beams

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06150188A (en) * 1992-11-09 1994-05-31 Ricoh Co Ltd Vehicle photographing device
JPH08180292A (en) * 1994-12-21 1996-07-12 Mitsubishi Electric Corp Automatic image pickup device
JP2006309742A (en) * 2005-03-30 2006-11-09 Pentax Corp Photography apparatus
KR101403936B1 (en) * 2013-02-20 2014-06-27 (주)인펙비전 Camera system for vehicles
KR101498458B1 (en) * 2014-10-31 2015-03-12 건아정보기술 주식회사 Photographing System For Vehicle Detecting Object And Velocity Using Plural Laser Beams

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102091590B1 (en) * 2019-09-04 2020-05-29 (주)아이피캠프 System and Method for Enhanced Recognition of License Plate Number
KR20210036717A (en) * 2019-09-26 2021-04-05 (주)파슨텍 Device, method and computer program for deriving traffic information
KR102377748B1 (en) * 2019-09-26 2022-03-23 주식회사 씽크솔루션 Device, method and computer program for deriving traffic information
KR102355402B1 (en) * 2021-06-01 2022-02-08 이노뎁 주식회사 Apparatus for determining forgery of vehicle license plate using relief of vehicle license plate
KR102537818B1 (en) * 2022-03-22 2023-05-26 박진용 Traffic information management system for enhancing accuracy of sensing vehicle speed
KR102491091B1 (en) * 2022-08-09 2023-01-20 주식회사 아이티아이비전 Method for producing collection video clip and, integrated unmanned traffic control system for two/four wheeled vehicle therewith

Similar Documents

Publication Publication Date Title
KR101974105B1 (en) Photographing system and method for increasing recognition rate of vehicle number
CN107305627B (en) Vehicle video monitoring method, server and system
JP7218535B2 (en) Traffic violation vehicle identification system and server
KR101647370B1 (en) road traffic information management system for g using camera and radar
KR101999993B1 (en) Automatic traffic enforcement system using radar and camera
KR102008263B1 (en) Convergence detector and traffic enforcement system therewith
KR102267335B1 (en) Method for detecting a speed employing difference of distance between an object and a monitoring camera
KR101343975B1 (en) System for detecting unexpected accident
KR102039118B1 (en) Photographing system of multi lines using radar
KR101845943B1 (en) A system and method for recognizing number plates on multi-lane using one camera
KR102414876B1 (en) Traffic signal control system using sensitive left turn signal based on LiDAR
KR101660254B1 (en) recognizing system of vehicle number for parking crossing gate
JP2001216519A (en) Traffic monitor device
CN111105621A (en) Method and device for detecting illegal parking
KR102196086B1 (en) Method for autonomous balancing PTZ of camera and system for providing traffic information therewith
KR101542564B1 (en) system for managing traffic based on zone classified architecture
KR102018123B1 (en) Vehicle sensing apparatus using laser scanning
JP4123138B2 (en) Vehicle detection method and vehicle detection device
KR101973695B1 (en) Fusion vehicle detection system
KR101902221B1 (en) System for acquiring self autonomous image information using single camera
KR20190136515A (en) Vehicle recognition device
KR102465167B1 (en) Vehicle number recognition system for increasing recognition rate of vehicle number using rear license plate
KR101362962B1 (en) System for recognizing and searching the car number and method therefor
KR102414877B1 (en) Smart parking lot guiding system for enhancing accuracy and reliability of information
JP4088182B2 (en) Image information processing system

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant