KR102008263B1 - Convergence detector and traffic enforcement system therewith - Google Patents

Convergence detector and traffic enforcement system therewith Download PDF

Info

Publication number
KR102008263B1
KR102008263B1 KR1020180072907A KR20180072907A KR102008263B1 KR 102008263 B1 KR102008263 B1 KR 102008263B1 KR 1020180072907 A KR1020180072907 A KR 1020180072907A KR 20180072907 A KR20180072907 A KR 20180072907A KR 102008263 B1 KR102008263 B1 KR 102008263B1
Authority
KR
South Korea
Prior art keywords
vehicle
image
information
detected
final
Prior art date
Application number
KR1020180072907A
Other languages
Korean (ko)
Inventor
하성식
하상춘
Original Assignee
주식회사 유니시큐
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 유니시큐 filed Critical 주식회사 유니시큐
Priority to KR1020180072907A priority Critical patent/KR102008263B1/en
Application granted granted Critical
Publication of KR102008263B1 publication Critical patent/KR102008263B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/052Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • G06K9/3258
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • G06K2209/15
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to a convergent detector and a traffic regulation system using the same. The convergent detector fuses a main camera and a radar to analyze data obtained by each of the main camera and the radar and then matches analysis data to detect a vehicle object, thereby complementing disadvantages of each sensing means to maximize a regulation ratio.

Description

융복합형 검지기 및 이를 이용한 교통 단속시스템{Convergence detector and traffic enforcement system therewith}Convergence detector and traffic enforcement system therewith}

본 발명은 교통법규를 위반한 차량단속의 정확성 및 신뢰도를 극대화시킬 수 있는 융복합형 검지기 및 이를 이용한 교통 단속시스템에 관한 것이다.The present invention relates to a fusion type detector and a traffic enforcement system using the same that can maximize the accuracy and reliability of vehicle enforcement in violation of traffic regulations.

차량이 대중화되고 도로 보급이 확장됨에 따라 차량 감지수단을 이용하여 차량정보를 수집한 후 수집된 차량정보를 기반으로 차량밀도, 정체율, 차량속도, 위반차량 등의 교통정보를 생성하여 생성된 교통정보를 종합적으로 관리 및 모니터링 하기 위한 지능형 교통시스템(ITS, Intelligent Transportation System)이 널리 사용되고 있다.As vehicles are popularized and road supply is expanded, vehicle information is collected using vehicle detection means, and traffic generated by generating traffic information such as vehicle density, congestion rate, vehicle speed, and violating vehicles based on the collected vehicle information. Intelligent Transportation Systems (ITS) are widely used to comprehensively manage and monitor information.

특히, 차량 증가와 더불어 신호위반, 속도위반, 급차선 변경, 불법주정차 등의 교통법규를 위반하는 사례가 증가함에 따라 이를 단속하기 위한 교통 단속시스템에 대한 연구가 다양하게 이루어지고 있다.In particular, as the number of vehicles violates traffic laws such as signal violations, speed violations, change of lanes, illegal parking, etc., various studies have been conducted on the traffic enforcement system to control them.

이러한 교통 단속시스템은 기본적으로 주행차량의 감지를 기반으로 후속연산이 이루어지기 때문에 차량을 얼마나 정확하게 감지하느냐가 서비스의 성능을 좌우하게 된다.Since the traffic enforcement system basically performs the follow-up calculation based on the detection of the driving vehicle, how accurately the vehicle is detected depends on the performance of the service.

종래의 차량 감지방법으로는 레이더신호를 이용하는 방식과, 카메라를 이용하는 방식이 통상적으로 사용되고 있다.As a conventional vehicle detection method, a method using a radar signal and a method using a camera are commonly used.

레이더신호를 이용하는 방식은 기 설정된 감지영역으로 송신된 레이더신호의 반사 신호를 수집한 후 수집된 반사 신호를 분석하여 차량정보를 수집하는 방식으로서, 차량위치 및 속도에 대한 검출의 정확도가 우수할 뿐만 아니라 외부 환경에 영향을 적게 받으며, 종 방향에 대한 객체 검출이 뛰어난 장점을 가지나, 횡 방향에 대한 위치 및 속도 검출과, 객체에 대한 분류 및 정보 검출의 정확도가 떨어지는 단점을 가진다.The radar signal is a method of collecting vehicle information by collecting a reflected signal of a radar signal transmitted to a preset detection area and analyzing the collected reflected signal. In addition, it is less affected by the external environment and has an advantage of excellent object detection in the longitudinal direction, but has a disadvantage in that the accuracy of position and velocity detection in the lateral direction and classification and information detection of the object are inferior.

카메라를 이용하는 방식은 카메라의 촬영에 의해 획득된 영상정보를 분석하여 차량정보를 수집하기 위한 장치로서, 객체 분류가 우수함과 동시에 객체 분류 및 정보 검출의 정확도가 우수하며, 횡 방향에 대한 위치 및 속도검출이 우수한 장점을 가지나, 외부 환경에 영향을 쉽게 받으며, 거리 및 속도에 대한 검출 정확도가 레이더신호에 비교하여 상대적으로 떨어지는 단점을 갖는다.The method of using a camera is a device for collecting vehicle information by analyzing image information obtained by photographing a camera. The object classification is excellent and the accuracy of object classification and information detection is excellent. The detection has the advantage of being excellent, but it is easily affected by the external environment, and the detection accuracy of distance and speed is relatively inferior to the radar signal.

이에 따라 카메라 및 레이더기를 일체형으로 제작하여 영상정보 및 레이더신호를 분석하여 차량정보를 검출하도록 하는 단속시스템에 대한 다양한 연구가 이루어지고 있다.Accordingly, various researches have been made on an intermittent system for manufacturing a camera and a radar integrated to detect vehicle information by analyzing image information and radar signals.

도 1은 국내등록특허 제10-1343975호(발명의 명칭 : 돌발검지 시스템)에 개시된 돌발검지 시스템을 나타내는 구성도이다.1 is a block diagram showing a sudden detection system disclosed in Korean Patent Registration No. 10-1343975 (name of the invention: sudden detection system).

도 1의 돌발검지 시스템(이하 종래기술이라고 함)은 다기능 촬영장치(103)와, 컨트롤러(107), 관제센터(109)로 이루어진다.The sudden detection system (hereinafter, referred to as a prior art) of FIG. 1 includes a multifunctional imaging apparatus 103, a controller 107, and a control center 109.

또한 다기능 촬영장치(103)는 기 설정된 감지영역을 촬영하여 영상을 획득하는 어레이카메라(131)와, 감지영역으로 레이더신호를 송출한 후 반사신호를 수신 받는 레이더검지기(132)와, 돌발 상황 발생 시 컨트롤러(107)의 제어에 따라 돌발 상황이 발생된 영역을 집중 촬영하는 추적카메라(133)를 포함한다.In addition, the multi-function photographing apparatus 103 includes an array camera 131 for capturing an image by sensing a preset detection area, a radar detector 132 receiving a reflection signal after transmitting a radar signal to the detection area, and a sudden occurrence of a situation. In accordance with the control of the city controller 107 includes a tracking camera 133 for intensively photographing the area in which the incident occurred.

또한 다기능 촬영장치(103)는 어레이카메라(131), 레이더검지기(132) 및 추적카메라(133)에 의해 검출된 영상, 레이더정보 및 추적영상을 컨트롤러(107)로 전송한다.In addition, the multifunction imaging apparatus 103 transmits the image, radar information, and the tracking image detected by the array camera 131, the radar detector 132, and the tracking camera 133 to the controller 107.

컨트롤러(107)는 다기능 촬영장치(103)로부터 전송받은 영상을 분석하여 영상이 차량검출이 가능한 상태인지를 판단하며, 만약 영상의 상태가 차량검출이 가능한 상태라고 판단되면, 영상을 분석하여 차량객체를 검출하며, 만약 영상의 상태가 차량검출이 불가능한 상태라고 판단되면, 레이더신호를 분석하여 차량객체를 검출한다.The controller 107 analyzes the image transmitted from the multi-function photographing apparatus 103 to determine whether the image is in a state capable of detecting a vehicle, and if it is determined that the state of the image is in a state capable of detecting a vehicle, the controller 107 analyzes the image. If it is determined that the state of the image is impossible to detect the vehicle, the radar signal is analyzed to detect the vehicle object.

또한 컨트롤러(107)는 검출된 차량객체의 궤적을 추적하여 돌발 상황 발생여부를 판단한다.In addition, the controller 107 tracks the detected trajectory of the vehicle object to determine whether an accident occurs.

이와 같이 종래기술(100)은 어레이카메라(131)에 의해 획득된 영상으로부터 차량객체 검출이 불가능한 경우, 레이더신호를 분석하여 차량객체를 검출할 수 있기 때문에 단속율을 높일 수 있는 장점을 갖는다.As described above, when the vehicle object cannot be detected from the image acquired by the array camera 131, the prior art 100 may detect the vehicle object by analyzing the radar signal, thereby increasing the interruption rate.

그러나 종래기술(100)은 단순히 카메라에 의해 획득된 영상정보가 차량검출이 가능한 상태인 경우에는 영상정보만을 이용하고, 획득된 영상정보가 차량검출이 불가능한 상태인 경우에는 레이더신호를 이용하도록 구성된 것이기 때문에 레이더신호 및 영상정보를 융합하여 사용하지 못하여 단속율을 개선하는데 있어서 구조적 한계를 갖는다.However, the prior art 100 is simply configured to use only the image information when the image information obtained by the camera can detect the vehicle, and to use the radar signal when the acquired image information is impossible to detect the vehicle. Therefore, there is a structural limitation in improving the regulation rate because the radar signal and the image information cannot be fused together.

즉 종래기술(100)은 획득된 영상정보가 선명한 경우에는 영상분석을 통해서만 차량정보가 검출되기 때문에 거리 및 속도에 대한 검출 정확도가 떨어지게 되고, 획득된 영상정보가 선명하지 않은 경우에는 레이더 신호를 통해서만 차량정보가 검출되기 때문에 객체 분류 및 객체특징정보 검출의 정확도가 떨어지는 한계를 갖는다.That is, in the prior art 100, when the acquired image information is clear, the vehicle information is detected only through image analysis, and thus the detection accuracy of distance and speed is reduced. When the acquired image information is not clear, only the radar signal is obtained. Since vehicle information is detected, the accuracy of object classification and object feature information detection is inferior.

즉 카메라 및 레이더를 융합하여 융합된 데이터를 이용하여 차량정보를 생성하도록 함으로써 단속율을 극대화할 수 있는 단속시스템에 대한 연구가 시급한 실정이다.In other words, there is an urgent need for research on a crackdown system that can maximize the crackdown rate by combining vehicle and radar to generate vehicle information using the fused data.

본 발명은 이러한 문제를 해결하기 위한 것으로, 본 발명의 해결과제는 메인카메라 및 레이더를 융합하여 이들 각각에 의해 획득된 데이터를 분석한 후 분석데이터를 매칭시켜 차량객체를 검출함으로써 각 감지수단의 단점을 상호 보완하여 단속율을 극대화시킬 수 있는 단속율을 높인 융복합형 검지기 및 이를 이용한 교통 단속시스템을 제공하기 위한 것이다.The present invention is to solve this problem, the problem of the present invention is to fuse the main camera and radar analysis of the data obtained by each of them and then to match the analysis data to detect the vehicle object by the disadvantage of each detection means In order to provide a convergence type detector with a high enforcement rate and a traffic enforcement system using the same, which can maximize the enforcement rate.

상기 과제를 해결하기 위한 본 발명의 해결수단은 기 설정된 감지영역을 촬영하여 영상을 획득하는 메인카메라; 차량번호 인식이 용이하게 이루어지는 지점인 번호인식지점을 촬영하도록 설정된 보조카메라; 상기 감지영역으로 레이더신호를 송출한 후 반사신호를 수신 받는 레이더기; 상기 메인카메라에 의해 획득된 영상과 상기 레이더기에 의한 레이더신호를 분석하여 차량을 검출하는 제어기를 포함하고, 상기 제어기는 상기 메인카메라에 의해 획득된 영상과 상기 레이더기에 의해 송수신된 레이더신호를 분석하여 차량객체를 검출한 후 검출된 차량객체를 추적하여 궤적정보 및 차량속도 및 위치를 포함하는 차량정보를 생성하며, 생성된 차량정보 및 궤적정보를 기 설정된 단속정보와 비교하여 위반차량을 검출하고, 상기 제어기는 거리좌표계를 픽셀좌표계로 변환하는데 필요한 캘리브레이션값이 기 설정되어 저장되는 메모리; 상기 메인카메라에 의해 획득된 입력영상을 분석하여 차량객체인 제1 객체의 픽셀위치를 검출하며, 검출된 제1 객체의 픽셀위치를 이용하여 제1 객체가 표시된 제1 픽셀좌표계를 생성하는 영상분석부; 상기 레이더기에 의해 송수신된 레이더신호를 분석하여 차량객체인 제2 객체의 거리위치를 검출하며, 검출된 제2 객체의 거리위치를 이용하여 제2 객체가 표시된 거리좌표계를 생성하며, 상기 캘리브레이션값을 이용하여 생성된 거리좌표게를 제2 픽셀좌표계로 변환하는 신호분석부; 상기 영상분석부에 의해 검출된 제1 객체의 픽셀위치 및 상기 신호분석부에 의해 검출된 제2 객체의 픽셀위치의 차이가 기 설정된 임계치 미만인 경우 제2 객체를 최종객체로 결정하며, 제2 객체는 존재하지 않되 제1 객체만 존재하는 경우 제1 객체를 최종객체로 결정하며, 제1 객체는 존재하지 않되 제2 객체만 존재하는 경우 제2 객체를 최종객체로 결정하는 최종객체 검출부; 상기 최종객체 검출부에 의해 검출된 최종객체의 궤적을 추적하여 궤적정보를 생성하는 궤적추적부; 상기 최종객체 검출부에 의해 검출된 최종객체의 궤적을 추적하여 차량정보를 생성하는 차량정보 생성부; 상기 궤적추적부에 의해 생성된 궤적정보 및 상기 차량정보 생성부에 의해 생성된 차량정보를 상기 단속정보와 비교하여 위반차량을 검출하는 위반차량 검출부를 더 포함하고, 상기 제어기는 상기 위반차량 검출부에 의해 위반차량이 검출될 때 구동되며, 입력된 위반차량의 궤적정보 및 번호인식지점의 위치정보를 비교하여 위반차량이 번호인식지점을 통과할 때 상기 보조카메라에 의해 촬영이 이루어지도록 하는 보조카메라 제어부; 기 설정된 영상 객체 분석 알고리즘을 이용하여 상기 보조카메라 제어부에 의해 획득된 이미지프레임을 분석하여 이미지프레임으로부터 위반차량의 차량번호, 차종, 색상, 파손여부, 연식 중 적어도 하나 이상을 포함하는 위반차량 상세정보를 검출하는 정밀영상 분석부; 정밀영상을 입력값으로 하되, 위반차량 상세정보를 출력하는 상기 영상 객체 분석 알고리즘을 학습하는 학습부를 더 포함하고, 상기 보조카메라 제어부는 입력된 위반차량의 궤적정보와, 번호인식지점의 위치정보를 비교하는 위치비교모듈; 상기 위치비교모듈에 의해 위반차량이 번호인식지점과 인접한 위치에 도달할 때 구동되며, 기 설정된 미세주기(T)의 간격으로 기 설정된 설정횟수 만큼 촬영이 이루어지는 트리거신호를 생성한 후 상기 보조카메라로 출력하는 트리거신호 생성부를 더 포함하고, 상기 보조카메라는 상기 트리거신호 생성부로부터 입력된 트리거신호에 따라 미세주기(T)의 간격으로 설정횟수 만큼 촬영을 수행하여 복수개의 이미지프레임들을 획득하고, 상기 정밀영상 분석부는 상기 보조카메라의 촬영에 의해 획득된 이미지프레임들을 입력받으며, 입력된 이미지프레임들 각각으로부터 차량객체를 검출하는 차량객체 검출모듈; 상기 차량객체 검출모듈에 의해 검출된 각 이미지프레임의 차량객체의 선단부의 위치를 검출하며, 검출된 각 이미지프레임의 차량객체의 선단부 위치 및 번호인식지점의 위치를 비교하는 비교모듈; 상기 비교모듈에 의해 번호인식지점으로부터 가장 근접한 차량객체의 선단부 위치를 갖는 이미지프레임을 최종프레임으로 결정하는 최종프레임 결정모듈; 상기 최종프레임 결정모듈에 의해 결정된 최종프레임을 분석하여 상기 위반차량 상세정보를 검출하는 위반차량 상세정보 검출모듈을 더 포함하는 것이다.Solution to Problem The present invention for solving the above problems is a main camera for capturing a predetermined sensing area to obtain an image; An auxiliary camera configured to photograph a number recognition point which is a point at which vehicle number recognition is easily performed; A radar device receiving a reflection signal after transmitting a radar signal to the detection area; And a controller for detecting a vehicle by analyzing the image acquired by the main camera and the radar signal by the radar, wherein the controller analyzes the image obtained by the main camera and the radar signals transmitted and received by the radar. After detecting the vehicle object, the detected vehicle object is tracked to generate vehicle information including trajectory information and vehicle speed and position, and the violation vehicle is detected by comparing the generated vehicle information and trajectory information with preset control information. The controller may include a memory configured to store a calibration value necessary for converting the distance coordinate system to the pixel coordinate system; Image analysis of detecting a pixel position of a first object which is a vehicle object by analyzing the input image acquired by the main camera, and generating a first pixel coordinate system displaying the first object by using the detected pixel position of the first object. part; Analyzing the radar signal transmitted and received by the radar to detect the distance position of the second object that is a vehicle object, and generates a distance coordinate system on which the second object is displayed using the detected distance position of the second object, and the calibration value A signal analyzing unit converting the generated distance coordinates into a second pixel coordinate system; When the difference between the pixel position of the first object detected by the image analyzer and the pixel position of the second object detected by the signal analyzer is less than a preset threshold, the second object is determined as the final object. Is not present but only the first object exists, the first object is determined as the final object, and if there is only the second object but the first object does not exist, the final object detector for determining the second object as the final object; A trajectory tracking unit for generating trajectory information by tracking the trajectory of the final object detected by the final object detector; A vehicle information generation unit for generating vehicle information by tracking the trajectory of the final object detected by the final object detection unit; And a violation vehicle detection unit for detecting a violation vehicle by comparing the trajectory information generated by the trajectory tracking unit and the vehicle information generated by the vehicle information generation unit with the enforcement information. The controller further includes a violation vehicle detection unit. A sub-camera control unit which is driven when a violation vehicle is detected by the second camera and compares the input trajectory information and the location information of the number recognition point so that the shooting is performed by the auxiliary camera when the violation vehicle passes the number recognition point. ; Detailed information of the violation vehicle including at least one of a vehicle number, a model, a color, a damage status, and a year of the violation vehicle from the image frame by analyzing the image frame acquired by the auxiliary camera controller using a preset image object analysis algorithm. Precision image analysis unit for detecting; A learning unit for learning the image object analysis algorithm for outputting the detailed information of the violation vehicle as a precision image as an input value, and the auxiliary camera controller is configured to display the trajectory information of the input violation vehicle and the location information of the number recognition point. A position comparison module for comparing; The violating vehicle is driven by the position comparison module to reach a position adjacent to the number recognition point, and generates a trigger signal that shoots a predetermined number of times at intervals of a predetermined fine period T to the auxiliary camera. And a trigger signal generating unit for outputting, wherein the auxiliary camera acquires a plurality of image frames by capturing a predetermined number of times at intervals of a fine period T according to the trigger signal input from the trigger signal generating unit. The precision image analysis unit receives an image frame obtained by photographing the auxiliary camera, the vehicle object detection module for detecting a vehicle object from each of the input image frame; A comparison module which detects the position of the front end of the vehicle object of each image frame detected by the vehicle object detection module and compares the position of the front end of the vehicle object of each detected image frame and the position of the number recognition point; A final frame determination module for determining, by the comparison module, an image frame having the position of the tip of the vehicle object closest to the number recognition point as the final frame; The apparatus may further include a violation vehicle detail information detection module configured to detect the violation vehicle detail information by analyzing the last frame determined by the last frame determination module.

삭제delete

삭제delete

또한 본 발명에서 상기 제어기는 캘리브레이션 영상 생성부를 더 포함하고, 상기 캘리브레이션 영상 생성부는 상기 입력영상에, 상기 최종객체 검출부에 의해 검출된 최종객체에 대응되는 표식기호를 매칭시킨 캘리브레이션 영상을 생성하는 것이 바람직하다.The controller may further include a calibration image generation unit, and the calibration image generation unit generates a calibration image in which the marker symbol corresponding to the final object detected by the final object detection unit is matched with the input image. Do.

삭제delete

상기 과제와 해결수단을 갖는 본 발명에 따르면 메인카메라 및 레이더를 융합하여 이들 각각에 의해 획득된 데이터를 분석한 후 분석데이터를 매칭시켜 차량객체를 검출함으로써 각 감지수단의 단점을 상호 보완하여 단속율을 극대화시킬 수 있는 단속율을 높일 수 있게 된다.According to the present invention having the above-mentioned problems and solutions, the main camera and the radar are fused to analyze the data obtained by each of them, and then the analysis data is matched to detect the vehicle object, thereby compensating for the disadvantages of the respective detection means. It can increase the interruption rate to maximize the.

도 1은 국내등록특허 제10-1343975호(발명의 명칭 : 돌발검지 시스템)에 개시된 돌발검지 시스템을 나타내는 구성도이다.
도 2는 본 발명의 일실시예인 교통 단속시스템을 나타내는 구성도이다.
도 3은 도 2의 제어기를 나타내는 블록도이다.
도 4는 도 3의 영상분석부를 나타내는 블록도이다.
도 5는 도 3의 신호분석부를 나타내는 블록도이다.
도 6은 도 3의 최종객체 검출부를 나타내는 블록도이다.
도 7은 도 3의 캘리브레이션 영상 생성부에 의해 생성되는 캘리브레이션 영상을 나타내는 예시도이다.
도 8은 도 3의 보조카메라 제어부를 나타내는 블록도이다.
도 9는 도 3의 위치비교모듈을 설명하기 위한 예시도이다.
도 10은 도 3의 트리거신호 생성부를 설명하기 위한 예시도이다.
도 11은 도 3의 정밀영상 분석부를 나타내는 블록도이다.
도 12는 도 11의 최종프레임 결정모듈을 설명하기 위한 예시도이다.
1 is a block diagram showing a sudden detection system disclosed in Korean Patent Registration No. 10-1343975 (name of the invention: sudden detection system).
2 is a block diagram showing a traffic enforcement system according to an embodiment of the present invention.
3 is a block diagram illustrating the controller of FIG. 2.
4 is a block diagram illustrating an image analyzer of FIG. 3.
5 is a block diagram illustrating a signal analyzer of FIG. 3.
6 is a block diagram illustrating a final object detector of FIG. 3.
7 is an exemplary diagram illustrating a calibration image generated by the calibration image generator of FIG. 3.
8 is a block diagram illustrating the auxiliary camera controller of FIG. 3.
9 is an exemplary diagram for describing the position comparison module of FIG. 3.
FIG. 10 is an exemplary diagram for describing a trigger signal generator of FIG. 3.
FIG. 11 is a block diagram illustrating the precision image analyzer of FIG. 3.
12 is an exemplary diagram for describing a final frame determination module of FIG. 11.

이하, 첨부된 도면을 참조하여 본 발명의 일실시예를 설명한다.Hereinafter, with reference to the accompanying drawings will be described an embodiment of the present invention.

도 2는 본 발명의 일실시예인 교통 단속시스템을 나타내는 구성도이다.2 is a block diagram showing a traffic enforcement system according to an embodiment of the present invention.

본 발명의 일실시예인 교통 단속시스템(1)은 도 2에 도시된 바와 같이, 도로에 이격되게 설치되어 기 설정된 감지영역을 감지하여 위반차량 검출 시 단속정보를 생성한 후 이를 후술되는 관제센터서버(5)로 전송하는 융복합형 검지기(3-1), ..., (3-N)들과, 융복합형 검지기(3-1), ..., (3-N)들로부터 전송받은 정보를 저장 및 모니터링 하는 관제센터서버(5)와, 관제센터서버(5) 및 융복합형 검지기(3-1), ..., (3-N)들 사이의 데이터 이동경로를 제공하는 통신망(10)으로 이루어진다.As shown in FIG. 2, the traffic control system 1 according to an embodiment of the present invention is installed spaced apart from a road to detect a preset detection area to generate enforcement information when detecting a violation vehicle, and then to control the server. Transfer from fusion detectors 3-1, ..., (3-N) to (5) and fusion detectors 3-1, ..., (3-N) It provides a data movement path between the control center server (5) and the control center server (5) and the fusion detector (3-1), ..., (3-N) to store and monitor the received information. It consists of a communication network (10).

이때 본 발명에서는 설명의 편의를 위해 융복합형 검지기(3-1), ..., (3-N)들이 관제센터서버(5)와 곧바로 데이터를 송수신하는 것으로 예를 들어 설명하였으나, 이들 사이에는 할당된 융복합형 검지기들을 관리 및 제어하는 제어기가 별도로 설치될 수 있음은 당연하다.In the present invention, for the sake of convenience of explanation, the fusion-type detectors 3-1, ..., (3-N) have been described as an example of directly transmitting and receiving data with the control center server 5, but between them. Naturally, a controller for managing and controlling the assigned fusion detectors may be installed separately.

통신망(10)은 관제센터서버(5) 및 융복합형 검지기(3-1), ..., (3-N)들 사이의 데이터통신을 지원하며, 상세하게로는 광역통신망(WAN), 유무선 네트워크(Network)망, 이동통신망, LTE 등으로 구성될 수 있다.The communication network 10 supports data communication between the control center server 5 and the convergent detectors 3-1, ..., (3-N), and specifically, a wide area network (WAN), Wired and wireless network (Network), mobile communication network, LTE may be configured.

관제센터서버(5)는 융복합형 검지기(3-1), ..., (3-N)들로부터 전송받은 광대역영상, 정밀영상, 차량정보 및 위반정보를 전송받으며, 전송받은 데이터들을 저장 및 모니터링 하며, 전송받은 차량정보를 가공 및 분석하여 교통정보를 생성한 후 생성된 교통정보를 제공한다.The control center server 5 receives the broadband image, the precision image, the vehicle information and the violation information transmitted from the fusion detectors 3-1, ..., (3-N), and stores the received data. And monitoring, and processing and analyzing the received vehicle information to generate traffic information and provide the generated traffic information.

이때 이러한 관제센터서버(5)의 구성 및 기능은 지능형 교통시스템(ITS)에서 통상적으로 사용되는 것이기 때문에 상세한 설명은 생략하기로 한다.At this time, since the configuration and function of the control center server (5) is commonly used in the intelligent transport system (ITS) will not be described in detail.

융복합형 검지기(3-1), ..., (3-N)들은 도로에 이격되게 설치되며, 기 설정된 감지영역을 감지한다.The fusion type detectors 3-1, ..., (3-N) are installed on the road and detect a preset sensing area.

또한 융복합형 검지기(3-1), ..., (3-N)들은 기 설정된 감지영역을 촬영하는 메인카메라(33)와, 기 설정된 감지영역으로 레이더신호를 송신한 후 반사되는 신호를 수신 받는 레이더기(35)와, 위반차량 검출 시 검출된 위반차량을 추적하여 집중 촬영하는 보조카메라(37)와, 이들을 관리 및 제어하는 제어기인 제어기(31)로 이루어진다.In addition, the fusion detectors 3-1, ..., (3-N) are the main camera 33 photographing the preset sensing area, and the signal reflected after transmitting the radar signal to the preset sensing area. Receiving radar 35, a secondary camera 37 for tracking and focusing on the detected violations detected when the vehicle is detected, and a controller 31 that is a controller for managing and controlling them.

이때 메인카메라(33)는 보조카메라(37)보다 넓은 감지영역을 촬영하여 영상(이하 감지영상이라고 함)을 획득하면 획득된 감지영상을 제어기(31)로 입력하고, 레이더기(35)는 송수신된 레이저신호 정보를 제어기(31)로 입력하고, 보조카메라(37)는 차량번호판 촬영이 선명하게 이루어지는 구간인 번호인식지점을 촬영하여 영상(이하 정밀영상이라고 함)을 획득하면 획득된 정밀영상을 제어기(31)로 입력한다.At this time, when the main camera 33 captures a wider sensing area than the auxiliary camera 37 and acquires an image (hereinafter referred to as a sensing image), the main camera 33 inputs the acquired sensing image to the controller 31, and the radar 35 transmits and receives. The inputted laser signal information to the controller 31, and the auxiliary camera 37 captures the number recognition point, which is a section where the photographing of the license plate is made clear, and acquires an image (hereinafter referred to as a precision image). Input to the controller 31.

즉 본 발명의 메인카메라(33)는 레이더기(35)에 의해 감지되는 감지영역을 촬영하여 감지영상을 획득하도록 구성되고, 보조카메라(37)는 기 설정된 번호인식지점을 촬영하여 번호인식지점을 통과하는 차량을 촬영하여 정밀영상을 획득하도록 구성된다.That is, the main camera 33 of the present invention is configured to capture a detection area detected by the radar 35 to obtain a detection image, and the auxiliary camera 37 captures a preset number recognition point to capture the number recognition point. It is configured to capture a passing vehicle to obtain a precise image.

제어기(31)는 메인카메라(33)로부터 입력받은 감지영상을 분석하여 감지영역 내 차량객체(이하 제1 객체라고 함)들을 검출하며, 검출된 제1 객체들 각각의 영상프레임 내 픽셀위치를 나타내는 픽셀좌표계(이하 제1 픽셀좌표계라고 함)를 생성한다. 이때 영상분석을 통해 객체를 검출하는 기술 및 방법은 영상분석시스템에 있어서 통상적으로 사용되는 기술이기 때문에 상세한 설명은 생략하기로 한다.The controller 31 analyzes the sensing image input from the main camera 33 to detect vehicle objects (hereinafter referred to as a first object) in the sensing region, and indicates a pixel position in the image frame of each of the detected first objects. A pixel coordinate system (hereinafter referred to as a first pixel coordinate system) is generated. In this case, since a technique and a method of detecting an object through image analysis are techniques commonly used in an image analysis system, a detailed description thereof will be omitted.

또한 제어기(31)는 레이더기(35)로부터 입력받은 레이더신호를 분석하여 차량객체(이하 제2 객체)들을 검출하며, 검출된 제2 객체들의 거리위치를 나타내는 거리좌표계를 생성한다. 이때 레이더신호를 분석하여 객체를 검출하는 기술 및 방법은 레이더기에서 통상적으로 사용되는 기술이기 때문에 상세한 설명은 생략하기로 한다.In addition, the controller 31 analyzes the radar signal received from the radar 35 to detect vehicle objects (hereinafter referred to as second objects), and generates a distance coordinate system indicating the distance position of the detected second objects. At this time, since the technique and method for detecting the object by analyzing the radar signal is a technique commonly used in the radar, a detailed description thereof will be omitted.

또한 제어기(31)는 거리좌표계를 픽셀좌표계로 변환하는데 필요한 캘리브레이션값을 기 설정하여 저장하며, 전술하였던 바와 같이 레이더신호를 이용한 거리좌표계가 생성되면, 기 설정된 캘리브레이션값을 이용하여 거리좌표계를 픽셀좌표계(이하 제2 픽셀좌표계)로 변환한다.In addition, the controller 31 presets and stores a calibration value for converting the distance coordinate system to the pixel coordinate system. When the distance coordinate system using the radar signal is generated as described above, the controller 31 converts the distance coordinate system to the pixel coordinate system using the preset calibration value. (Second pixel coordinate system).

또한 제어기(31)는 제1 픽셀좌표계 및 제2 픽셀좌표계의 각 객체의 위치 및 크기를 이용하여 동일차량에 대한 제1 객체 및 제2 객체를 매칭시키는 방식으로 최종객체를 결정하며, 결정된 최종객체에 대응되는 사각형 형상의 표식기호를 영상에 매칭시킨 캘리브레이션 영상을 생성한다.In addition, the controller 31 determines the final object by matching the first object and the second object with respect to the same vehicle by using the position and size of each object in the first pixel coordinate system and the second pixel coordinate system. A calibration image is generated by matching a marker symbol having a rectangular shape corresponding to the image.

이때 제어기(31)는 만약 제1 픽셀좌표계에는 존재하나, 제2 픽셀좌표계에는 존재하지 않는 제1 객체의 경우, 해당 제1 객체를 최종객체로 결정하고, 만약 제2 픽셀좌표계에는 존재하나, 제1 픽셀좌표계에는 존재하지 않는 제2 객체의 경우, 해당 제2 객체를 최종객체로 결정한다.In this case, if the first object exists in the first pixel coordinate system but does not exist in the second pixel coordinate system, the controller 31 determines the first object as the final object, and if present in the second pixel coordinate system, In the case of the second object that does not exist in the one-pixel coordinate system, the second object is determined as the final object.

또한 제어기(31)는 최종 객체의 궤적을 추적하여 궤적정보를 생성하며, 생성된 궤적정보를 이용하여 기 설정된 단속정보와 비교하여 위반차량을 판별한다. 이때 제어기(31)는 신호제어기와 연계하여 교통신호를 위반차량, 꼬리물기 차량 등을 위반차량으로 판별할 수 있다.In addition, the controller 31 generates trajectory information by tracking the trajectory of the final object, and determines the violation vehicle by comparing the preset trace information with the generated trajectory information. In this case, the controller 31 may determine the traffic signal as the violation vehicle, the tail vehicle, etc. as the violation vehicle in connection with the signal controller.

또한 제어기(31)는 메인카메라(33)에 의해 획득된 감지영상과, 보조카메라(37)에 의해 획득된 정밀영상, 생성된 캘리브레이션 영상, 차량정보를 관제센터서버(5)로 전송한다. In addition, the controller 31 transmits the sensing image acquired by the main camera 33, the precision image acquired by the auxiliary camera 37, the generated calibration image, and the vehicle information to the control center server 5.

도 3은 도 2의 제어기를 나타내는 블록도이다.3 is a block diagram illustrating the controller of FIG. 2.

제어기(31)는 도 3에 도시된 바와 같이, 제어부(310)와, 메모리(311), 통신 인터페이스부(312), 영상분석부(313), 신호분석부(314), 최종객체 검출부(315), 캘리브레이션 영상 생성부(316), 궤적추적부(317), 차량정보 생성부(318), 위반차량 검출부(319), 보조카메라 제어부(320), 정밀영상 분석부(321), 학습부(322)로 이루어진다.As shown in FIG. 3, the controller 31 includes a controller 310, a memory 311, a communication interface 312, an image analyzer 313, a signal analyzer 314, and an end object detector 315. ), Calibration image generation unit 316, trajectory tracking unit 317, vehicle information generation unit 318, violation vehicle detection unit 319, secondary camera control unit 320, precision image analysis unit 321, learning unit ( 322).

제어부(310)는 제어기(31)의 O.S(Operating System)이며, 제어대상(311), (312), (313), (314), (315), (316), (317), (318), (319), (320), (321), (322)들을 관리 및 제어한다.The control unit 310 is an operating system (OS) of the controller 31, the control target (311), (312), (313), (314), (315), (316), (317), (318) And manages (319), (320), (321), and (322).

또한 제어부(310)는 통신 인터페이스부(312)를 통해 메인카메라(33)로부터 입력된 영상을 영상분석부(313)로 입력하고, 레이더기(35)로부터 입력된 레이더신호 정보를 신호분석부(314)로 입력하고, 보조카메라(37)를 통해 입력된 정밀영상을 차량정보 생성부(318)로 입력한다.In addition, the control unit 310 inputs the image input from the main camera 33 through the communication interface 312 to the image analysis unit 313, and the radar signal information input from the radar 35 to the signal analysis unit ( 314, the precision image input through the auxiliary camera 37 is input to the vehicle information generation unit 318.

또한 제어부(310)는 영상분석부(313)에 의해 생성된 제1 픽셀좌표계 및 신호분석부(314)에 의해 생성된 제2 픽셀좌표계를 최종객체 검출부(315)로 입력한다.In addition, the controller 310 inputs the first pixel coordinate system generated by the image analyzer 313 and the second pixel coordinate system generated by the signal analyzer 314 to the final object detector 315.

또한 제어부(310)는 최종객체 검출부(315)에 의해 검출된 최종객체 정보를 캘리브레이션 영상 생성부(316)로 입력한다.Also, the controller 310 inputs the final object information detected by the final object detector 315 to the calibration image generator 316.

또한 제어부(310)는 캘리브레이션 영상 생성부(316)에 의해 생성된 캘리브레이션 영상을 궤적추적부(317)로 입력한다. In addition, the controller 310 inputs the calibration image generated by the calibration image generator 316 to the trajectory tracker 317.

또한 제어부(310)는 궤적추적부(317)에 의해 생성된 궤적정보를 위반차량 검출부(319)로 입력한다.In addition, the controller 310 inputs the trajectory information generated by the trajectory tracking unit 317 to the violation vehicle detecting unit 319.

또한 제어부(310)는 위반차량 검출부(319)에 의해 위반차량이 검출되면, 위반차량의 위치정보를 보조카메라 제어부(320)로 입력한다. In addition, when the violating vehicle is detected by the violating vehicle detecting unit 319, the controller 310 inputs the location information of the violating vehicle to the auxiliary camera controller 320.

또한 제어부(310)는 주기적으로 통신 인터페이스부(312)를 제어하여 영상, 정밀영상, 캘리브레이션 영상 및 차량정보가 관제센터서버(5)로 전송되도록 한다.In addition, the controller 310 periodically controls the communication interface 312 so that the image, the precision image, the calibration image and the vehicle information is transmitted to the control center server (5).

메모리(311)에는 메인카메라(33)에 의해 획득된 영상과, 보조카메라(37)에 의해 획득된 정밀영상과, 캘리브레이션 영상 생성부(316)에 의해 생성된 캘리브레이션 영상이 임시 저장된다.The memory 311 temporarily stores an image acquired by the main camera 33, a precision image obtained by the auxiliary camera 37, and a calibration image generated by the calibration image generator 316.

또한 메모리(311)에는 기 설정된 캘리브레이션값이 저장된다In addition, a preset calibration value is stored in the memory 311.

또한 메모리(311)에는 차량정보 생성부(318)에 의해 생성된 차량정보가 저장된다.In addition, the memory 311 stores the vehicle information generated by the vehicle information generation unit 318.

통신 인터페이스부(312)는 통신망(10)에 접속하여 관제센터서버(5)와 데이터를 송수신한다.The communication interface 312 connects to the communication network 10 and transmits and receives data with the control center server 5.

도 4는 도 3의 영상분석부를 나타내는 블록도이다.4 is a block diagram illustrating an image analyzer of FIG. 3.

영상분석부(313)는 도 4에 도시된 바와 같이, 영상분석모듈(3131)과, 제1 객체 위치검출모듈(3132), 제1 픽셀좌표계 생성모듈(3133)로 이루어진다.As illustrated in FIG. 4, the image analyzer 313 includes an image analysis module 3131, a first object position detection module 3132, and a first pixel coordinate system generation module 3133.

영상분석모듈(3131)은 메인카메라(33)에 의해 획득된 영상을 분석하여 영상으로부터 차량을 나타내는 제1 객체들을 검출한다.The image analysis module 3131 analyzes an image acquired by the main camera 33 and detects first objects representing a vehicle from the image.

제1 객체 위치 검출모듈(3132)은 영상분석모듈(311)에 의해 검출된 제1 객체들 각각의 픽셀좌표계 상에서의 위치인 픽셀위치를 검출한다.The first object position detection module 3132 detects a pixel position which is a position on the pixel coordinate system of each of the first objects detected by the image analysis module 311.

제1 픽셀좌표계 생성모듈(3133)은 제1 객체 위치 검출모듈(3132)에 의해 검출된 각 제1객체의 픽셀위치를 이용하여 제1 픽셀좌표계를 생성한다.The first pixel coordinate system generation module 3133 generates a first pixel coordinate system using the pixel position of each first object detected by the first object position detection module 3132.

이때 제1 픽셀좌표계 생성모듈(3133)에 의해 생성된 제1 픽셀좌표계는 제어부(310)의 제어에 따라 최종객체 검출부(315)로 입력된다.In this case, the first pixel coordinate system generated by the first pixel coordinate system generation module 3133 is input to the final object detector 315 under the control of the controller 310.

도 5는 도 3의 신호분석부를 나타내는 블록도이다.5 is a block diagram illustrating a signal analyzer of FIG. 3.

신호분석부(314)는 도 5에 도시된 바와 같이, 신호분석모듈(3141)과, 제2 객체 위치 검출모듈(3142), 거리좌표계 생성모듈(3143), 좌표계 변환 및 제2 픽셀좌표계 생성모듈(3144)로 이루어진다.As shown in FIG. 5, the signal analysis unit 314 includes a signal analysis module 3141, a second object position detection module 3142, a distance coordinate system generation module 3143, a coordinate system transformation, and a second pixel coordinate system generation module. (3144).

신호분석모듈(3141)은 레이더기(35)에 의해 입력된 레이더신호 정보를 분석하여 차량을 나타내는 제2 객체들을 검출한다.The signal analysis module 3141 detects second objects representing the vehicle by analyzing radar signal information input by the radar machine 35.

제2 객체 위치 검출모듈(3142)은 신호분석모듈(3141)에 의해 검출된 제2 객체들 각각의 거리좌표계 상의 위치를 검출한다.The second object position detection module 3142 detects a position on the distance coordinate system of each of the second objects detected by the signal analysis module 3141.

거리좌표계 생성모듈(3143)은 제2 객체 위치 검출모듈(3142)에 의해 검출된 각 제2객체의 위치를 이용하여 거리좌표계를 생성한다.The distance coordinate generation module 3143 generates a distance coordinate system using the position of each second object detected by the second object position detection module 3314.

좌표계 변환 및 제2 픽셀좌표계 생성모듈(3144)은 기 설정된 캘리브레이션값을 이용하여 거리좌표계 생성모듈(3143)에 의해 생성된 거리좌표계를 제2 픽셀좌표계로 변환한다. 이때 캘리브레이션값은 거리표계를 픽셀좌표계로 변환하는데 필요한 상관관계로 정의된다.The coordinate system conversion and second pixel coordinate system generation module 3144 converts the distance coordinate system generated by the distance coordinate system generation module 3143 into a second pixel coordinate system using a preset calibration value. In this case, the calibration value is defined as a correlation necessary for converting the distance coordinate to the pixel coordinate system.

또한 좌표계 변환 및 제2 픽셀좌표계 생성모듈(3144)에 의해 생성된 제2 픽셀좌표계는 제어부(310)의 제어에 따라 최종객체 검출부(315)로 입력된다.In addition, the second pixel coordinate system generated by the coordinate system transformation and the second pixel coordinate system generating module 3144 is input to the final object detector 315 under the control of the controller 310.

도 6은 도 3의 최종객체 검출부를 나타내는 블록도이다.6 is a block diagram illustrating a final object detector of FIG. 3.

최종객체 검출부(315)는 도 6에 도시된 바와 같이, 비교모듈(3151)과, 동일객체 판별모듈(3152), 최종객체 결정모듈(3153)로 이루어진다.As shown in FIG. 6, the final object detector 315 includes a comparison module 3151, an identical object discrimination module 3152, and a final object determination module 3153.

비교모듈(3151)은 영상분석부(313)에 의해 검출된 제1 객체들의 픽셀위치와, 신호분석부(314)에 의해 검출된 제2 객체들의 픽셀위치들을 비교하며, 상세하게로는 제1 객체들 각각의 픽셀위치와 제2 객체들 각각의 픽셀위치를 비교한다.The comparison module 3151 compares the pixel positions of the first objects detected by the image analyzer 313 and the pixel positions of the second objects detected by the signal analyzer 314. The pixel position of each of the objects and the pixel position of each of the second objects are compared.

동일객체 판별모듈(3152)은 비교모듈(3151)을 통해 픽셀위치의 차이가 기 설정된 임계치 미만인 제1 객체 및 제2 객체를 동일차량에 대한 객체임을 나타내는 동일객체로 판단한다.The same object determination module 3152 determines, through the comparison module 3151, the first object and the second object whose difference in pixel positions are less than a preset threshold as the same object representing the same vehicle.

최종객체 결정모듈(3153)은 1)동일객체 판별모듈(3152)에 의해 판별된 동일객체를 최종객로 결정하며, 2)동일객체가 존재하지 않는 제1 객체를 최종객체로 결정하며, 3)동일객체가 존재하지 않는 제2 객체를 최종객체로 결정한다.The final object determination module 3153 1) determines the same object determined by the same object determination module 3152 as the final object, 2) determines the first object that does not exist as the final object, and 3) The second object that does not have the same object is determined as the final object.

이때 최종객체 결정모듈(3153)은 동일객체 판별모듈(3152)에 의해 판별된 동일객체를 최종객체로 결정할 때, 제2 객체의 픽셀위치를 최종객체의 픽셀위치로 결정한다.In this case, when the final object determination module 3153 determines the same object determined by the same object determination module 3152 as the final object, the final object determination module 3153 determines the pixel position of the second object as the pixel position of the final object.

다시 말하면, 최종객체 결정모듈(3153)은 동일객체들을 최종객체로 결정하되, 동일객체가 존재하지 않는 제1 객체 또는 제2 객체를 최종객체로 결정함으로써 영상 또는 레이더신호의 특성에 따라 차량을 감지 감지하지 못하는 경우에도 다른 검지수단에 의해 차량을 감지할 수 있기 때문에 검지율을 높일 수 있도록 하였다.In other words, the final object determination module 3153 determines the same objects as the final objects, but detects the vehicle according to the characteristics of the image or the radar signal by determining the first object or the second object that does not exist as the final object. Even if it does not detect, the detection rate can be increased because the vehicle can be detected by other detection means.

또한 최종객체 결정모듈(3153)에 의해 결정된 최종객체의 픽셀위치 정보는 캘리브레이션 영상 생성부(316)로 입력된다.In addition, the pixel position information of the final object determined by the final object determination module 3153 is input to the calibration image generator 316.

도 7은 도 3의 캘리브레이션 영상 생성부에 의해 생성되는 캘리브레이션 영상을 나타내는 예시도이다.7 is an exemplary diagram illustrating a calibration image generated by the calibration image generator of FIG. 3.

캘리브레이션 영상 생성부(316)는 도 7에 도시된 바와 같이, 최종객체 검출부(315)에 의해 검출된 최종객체의 픽셀위치를 이용하여 입력영상에 최종객체의 위치에 대응되는 사각형 형상의 표식기호(910)를 매칭시킨 캘리브레이션 영상(900)을 생성한다.As illustrated in FIG. 7, the calibration image generator 316 may use a rectangular marker symbol corresponding to the position of the final object in the input image by using the pixel position of the final object detected by the final object detector 315. A calibration image 900 matching the 910 is generated.

궤적추적부(317)는 최종객체 검출부(315)에 의해 검출된 최종객체의 픽셀위치를 이용하여 최종객체의 궤적을 추적하여 궤적정보를 생성한다.The locus tracker 317 generates locus information by tracking the locus of the final object using the pixel position of the final object detected by the final object detector 315.

이때 궤적추적부(317)에 의해 생성된 궤적정보는 차량정보 생성부(318) 및 위반차량 검출부(319)로 입력된다.At this time, the trajectory information generated by the trajectory tracking unit 317 is input to the vehicle information generation unit 318 and the violation vehicle detection unit 319.

차량정보 생성부(318)는 궤적추적부(317)에 의해 생성된 궤적정보를 이용하여 차량정보를 생성한다. 이때 차량정보는 위치, 속도, 궤적 등을 포함한다.The vehicle information generation unit 318 generates vehicle information using the trajectory information generated by the trajectory tracking unit 317. At this time, the vehicle information includes position, speed, trajectory, and the like.

위반차량 검출부(319)는 궤적추적부(317)에 의해 생성된 궤적정보와 기 설정된 단속정보를 이용하여 최종객체들 각각에 대한 교통법규 위반여부를 판별한다.The violation vehicle detecting unit 319 determines whether the traffic laws are violated for each of the final objects by using the trajectory information generated by the trajectory tracking unit 317 and the predetermined enforcement information.

이때 제어부(310)는 만약 위반차량 검출부(319)에 의해 위반차량이 검출되면, 보조카메라 제어부(320)로 위반차량의 궤적정보를 입력한다.In this case, if the violating vehicle is detected by the violating vehicle detector 319, the controller 310 inputs the trajectory information of the violating vehicle to the auxiliary camera controller 320.

도 8은 도 3의 보조카메라 제어부를 나타내는 블록도이고, 도 9는 도 3의 위치비교모듈을 설명하기 위한 예시도이고, 도 10은 도 3의 트리거신호 생성부를 설명하기 위한 예시도이다.8 is a block diagram illustrating the auxiliary camera controller of FIG. 3, FIG. 9 is an exemplary diagram for describing the position comparison module of FIG. 3, and FIG. 10 is an exemplary diagram for explaining the trigger signal generator of FIG. 3.

보조카메라 제어부(320)는 도 8에 도시된 바와 같이, 입력모듈(3201)과, 위치비교모듈(3202), 트리거신호 생성모듈(3203)으로 이루어진다.As shown in FIG. 8, the auxiliary camera controller 320 includes an input module 3201, a position comparison module 3202, and a trigger signal generation module 3203.

입력모듈(3201)은 위반차량 검출부(319)에 의해 위반차량으로 검출된 위반차량의 궤적정보를 입력받는다.The input module 3201 receives the trajectory information of the violating vehicle detected as the violating vehicle by the violating vehicle detecting unit 319.

위치비교모듈(3202)은 입력모듈(3201)을 통해 입력된 위반차량 궤적정보와, 기 설정된 번호인식지점의 위치정보를 비교하여 위반차량이 번호인식지점과 인접한 위치에 도달하는지를 비교한다.The position comparison module 3202 compares the violation vehicle trajectory information input through the input module 3201 and the position information of the preset number recognition point to compare whether the violation vehicle reaches a position adjacent to the number recognition point.

이때 보조카메라(37)는 전술하였던 바와 같이, 번호인식지점을 촬영하도록 촬영각도 및 초점이 설정되었기 때문에 번호인식지점을 통과하는 차량 촬영 시 획득된 정밀영상으로부터 차량번호를 용이하게 인식할 수 있게 된다.At this time, the auxiliary camera 37, as described above, since the shooting angle and focus is set to photograph the number recognition point, it is possible to easily recognize the vehicle number from the precise image obtained when the vehicle passes through the number recognition point. .

예를 들어 도 9에 도시된 바와 같이, 번호인식지점이 정지선(P)이라고 가정할 때, 보조카메라(37)에 의해 획득된 이미지 프레임(700)에는 정지선(P)을 통과 또는 정차한 차량(C) 객체가 검출될 수 있고, 이에 따라 차량(C)의 선명한 차량번호(CN) 객체를 추출할 수 있게 된다.For example, as shown in FIG. 9, assuming that the number recognition point is the stop line P, the image frame 700 obtained by the auxiliary camera 37 passes through or stops the stop line P in the image frame 700. C) an object can be detected, thereby making it possible to extract a clear vehicle number (CN) object of the vehicle (C).

즉 위치비교모듈(3202)은 위반차량의 궤적정보 및 번호인식지점의 위치정보를 비교하여 위반차량이 번호인식지점과 인접한 위치에 도달하는지를 판별하며, 만약 위반차량이 번호인식지점과 인접한 위치에 도달하는 경우, 트리거신호 생성부(3203)로 제어신호를 입력한다.That is, the position comparison module 3202 compares the trajectory information of the violating vehicle and the position information of the number recognition point to determine whether the violating vehicle reaches the position adjacent to the number recognition point, and if the violation vehicle reaches the position adjacent to the number recognition point. In this case, the control signal is input to the trigger signal generation unit 3203.

트리거신호 생성부(3203)는 위치비교모듈(3202)로부터 제어신호를 입력 받을 때(위반차량이 번호인식지점과 인접할 때) 구동되며, 보조카메라(37)를 구동시키기 위한 트리거신호(Trigger Signal)를 생성하여 보조카메라(37)로 출력한다.The trigger signal generator 3203 is driven when a control signal is input from the position comparison module 3202 (when the violation vehicle is adjacent to the number recognition point), and trigger signal (Trigger Signal for driving the auxiliary camera 37) ) Is generated and output to the auxiliary camera 37.

이때 트리거신호 생성부(3203)는 동작 시 기 설정된 미세주기(T)의 간격으로 기 설정된 설정횟수 만큼 촬영이 이루어지도록 트리거신호를 생성한다.At this time, the trigger signal generation unit 3203 generates a trigger signal so that the photographing is performed a predetermined number of times at an interval of a predetermined fine period T during operation.

즉 트리거신호 생성부(3203)는 위반차량(C)이 번호인식지점(P)과 인접한 위치로 도달하면 미세주기(T)의 간격으로 설정회수 만큼 촬영이 이루어지도록 트리거신호를 생성한다.That is, the trigger signal generation unit 3203 generates a trigger signal to take a set number of times at intervals of the fine period T when the violating vehicle C reaches a position adjacent to the number recognition point P.

이때 만약 트리거신호 생성부(3203)가 단일 트리거신호를 생성하게 되면, 도 10에 도시된 바와 같이, 정확한 차량번호판(CN)을 추출하지 못하는 현상이 비일비재하게 발생하게 된다.At this time, if the trigger signal generation unit 3203 generates a single trigger signal, as shown in FIG. 10, a phenomenon in which the correct license plate CN cannot be extracted occurs randomly.

그 이유로는, 1)빠른 속도로 이동하는 차량의 특성과, 2)분해능에 따라 자체적으로 오차범위를 갖는 레이더기의 특성과, 3)융복합형 검지기(1)가 일반적으로 상부 구조물, 특히 지주에 설치되는데, 이러한 경우 외부 바람 및 진동 등으로 인해 위치비교의 오차율이 증가하는 특성을 갖기 때문이다.The reasons for this are 1) the characteristics of a vehicle moving at high speed, 2) the characteristics of a radar with its own error range depending on the resolution, and 3) a fusion detector (1) is generally used for superstructures, especially props. In this case, the error rate of the position comparison is increased due to external wind and vibration.

예를 들어, 도 10에 도시된 바와 같이, 보조카메라(37)가 단일 트리거신호를 생성하는 경우, 전술하였던 세가지의 이유로 인해 차량(C)이 정지선(P)을 도달하기 이전에 촬영이 이루어지거나, 차량(C)이 정지선(P)을 통과한 이후에 촬영이 이루어지는 등의 문제점이 발생하게 된다.For example, as shown in FIG. 10, when the auxiliary camera 37 generates a single trigger signal, the shooting is performed before the vehicle C reaches the stop line P for the three reasons described above. After the vehicle C passes the stop line P, photographing may occur.

즉 본 발명은 이러한 문제점을 해결하기 위하여, 트리거신호 생성부(3203)에서 기 설정된 미세주기(T)의 간격으로 설정회수 만큼 촬영을 수행하는 트리거신호가 생성되도록 구성됨으로써 보조카메라(37)에 의해 설정회수 만큼의 이미지 프레임들을 획득할 수 있게 된다.That is, in order to solve this problem, the trigger signal generating unit 3203 is configured to generate a trigger signal for capturing a predetermined number of times at intervals of a predetermined fine period T by the auxiliary camera 37. As many image frames as the set number of times can be obtained.

도 11은 도 3의 정밀영상 분석부를 나타내는 블록도이고, 도 12는 도 11의 최종프레임 결정모듈을 설명하기 위한 예시도이다.FIG. 11 is a block diagram illustrating the precision image analyzer of FIG. 3, and FIG. 12 is an exemplary diagram for describing a final frame determination module of FIG. 11.

정밀영상 분석부(321)는 도 11에 도시된 바와 같이, 차량객체 검출모듈(3211)과, 비교모듈(3212), 최종프레임 결정모듈(3213), 위반차량 상세정보 검출모듈(3214)로 이루어진다.As illustrated in FIG. 11, the precision image analyzing unit 321 includes a vehicle object detection module 3211, a comparison module 3212, a final frame determination module 3213, and a detailed information detection module 3214 for a violation vehicle. .

차량객체 검출모듈(3211)은 보조카메라 제어부(320)의 제어에 따라 보조카메라(37)에 의해 획득된 이미지프레임들을 입력받으면, 입력된 이미지프레임들 각각으로부터 차량객체(C)를 검출한다.When the vehicle object detection module 3211 receives image frames acquired by the auxiliary camera 37 under the control of the auxiliary camera controller 320, the vehicle object detection module 3211 detects the vehicle object C from each of the input image frames.

이때 이미지프레임들은 전술하였던 바와 같이, 보조카메라(37)의 촬영에 의해 획득되되, 미세주기(T)의 간격으로 설정횟수만큼 촬영되어 획득된 프레임들이다.In this case, as described above, the image frames are frames obtained by photographing the auxiliary camera 37 and photographed by a predetermined number of times at intervals of the fine period T.

또한 차량객체 검출모듈(3211)에서와 같이, 이미지로부터 차량객체를 검출하는 기술 및 알고리즘은 영상분석시스템에서 통상적으로 사용되는 기술이기 때문에 상세한 설명은 생략하기로 한다.In addition, as in the vehicle object detection module 3211, since the technique and algorithm for detecting the vehicle object from the image is a technique commonly used in the image analysis system, a detailed description thereof will be omitted.

비교모듈(3212)은 차량객체 검출모듈(3211)에 의해 검출된 각 이미지프레임의 차량객체의 선단부의 위치를 검출한다.The comparison module 3212 detects the position of the front end portion of the vehicle object of each image frame detected by the vehicle object detection module 3211.

또한 비교모듈(3212)은 검출된 각 이미지프레임의 차량객체의 선단부 위치와, 기 설정된 번호인식지점인 정지선(P)의 위치를 비교한다.In addition, the comparison module 3212 compares the position of the tip of the vehicle object of each detected image frame with the position of the stop line P, which is a preset number recognition point.

최종프레임 결정모듈(3213)은 비교모듈(3212)에 의해 정지선(P)으로부터 가장 근접한 차량객체의 선단부 위치를 갖는 이미지프레임을 최종프레임으로 결정한다.The final frame determination module 3213 determines the image frame having the position of the tip of the vehicle object closest to the stop line P by the comparison module 3212 as the final frame.

예를 들어 12에 도시된 바와 같이, 최종프레임 결정모듈(3213)로 입력된 이미지프레임들이 (a), (b), (c), (d)의 4개라고 가정할 경우, 최종프레임 결정모듈(3213)은 위반차량객체(C)의 선단부가 정지선(P)과 가장 인접한(c) 이미지프레임을 최종프레임으로 결정한다.For example, as shown in 12, assuming that the image frames inputted to the final frame determination module 3213 are four of (a), (b), (c) and (d), the final frame determination module 3321 determines an image frame in which the leading end of the violating vehicle object C is closest to the stop line P as the final frame.

위반차량 상세정보 검출모듈(3214)은 최종프레임 결정모듈(3213)에 의해 결정된 최종프레임를 입력받는다.The violating vehicle detail information detection module 3214 receives the last frame determined by the final frame determination module 3213.

또한 위반차량 상세정보 검출모듈(3214)은 학습부(322)에 의해 학습된 딥러닝 기반 영상 객체 알고리즘을 이용하여 보조카메라(37)에 의해 획득된 최종프레임을 분석하여 차종, 연식, 색상, 파손여부, 차량번호를 포함하는 위반차량 상세정보를 검출한다.In addition, the violating vehicle detail information detection module 3214 analyzes the final frame acquired by the auxiliary camera 37 using the deep learning based image object algorithm learned by the learning unit 322 to model, model, color, and damage the vehicle. Whether or not, violated vehicle detail information including the vehicle number is detected.

학습부(322)는 신경망 기법을 이용하여 정밀영상 분석부(321)에 적용되는 영상 객체 알고리즘을 학습한다.The learner 322 learns an image object algorithm applied to the precision image analyzer 321 using a neural network technique.

이때 영상 객체 알고리즘은 머신러닝 알고리즘으로서, 차량영상을 입력값으로 하되, 위반차량 상세정보를 출력한다.At this time, the image object algorithm is a machine learning algorithm, but the vehicle image as an input value, and outputs the details of the violation vehicle.

이와 같이 본 발명의 일실시예인 교통 단속시스템(1)은 메인카메라 및 레이더를 융합하여 이들 각각에 의해 획득된 데이터를 분석한 후 분석데이터를 매칭시켜 차량객체를 검출함으로써 각 감지수단의 단점을 상호 보완하여 단속율을 극대화시킬 수 있는 단속율을 획기적으로 높일 수 있게 된다.As such, the traffic enforcement system 1 according to the embodiment of the present invention fuses the main camera and the radar, analyzes the data obtained by each of them, and then matches the analysis data to detect the vehicle object, thereby mutually identifying the disadvantages of the respective sensing means. By supplementing, it is possible to drastically increase the control rate, which can maximize the control rate.

1:교통 단속시스템 3-1, ..., 3-N:융복합형 검지기
5:관제센터서버 10:통신망
31:제어기 32:하우징 33:메인카메라
35:레이더기 37:보조카메라 39:덮개
310:제어부 311:메모리
312:통신 인터페이스부 313:영상분석부
314:신호분석부 315:최종객체 검출부
316:캘리브레이션 영상 생성부 317:궤적추적부
318:차량정보 생성부 319:위반차량 검출부
320:보조카메라 제어부 321:정밀영상 분석부
322:학습부
1: Traffic enforcement system 3-1, ..., 3-N: Convergence type detector
5: control center server 10: communication network
31: controller 32: housing 33: main camera
35: radar 37: secondary camera 39: cover
310: control unit 311: memory
312: communication interface unit 313: image analysis unit
314: signal analysis unit 315: final object detection unit
316: calibration image generation unit 317: trace tracking unit
318: vehicle information generation unit 319: violation vehicle detection unit
320: secondary camera control unit 321: precision image analysis unit
322: Learning department

Claims (5)

기 설정된 감지영역을 촬영하여 영상을 획득하는 메인카메라;
차량번호 인식이 용이하게 이루어지는 지점인 번호인식지점을 촬영하도록 설정된 보조카메라;
상기 감지영역으로 레이더신호를 송출한 후 반사신호를 수신 받는 레이더기;
상기 메인카메라에 의해 획득된 영상과 상기 레이더기에 의한 레이더신호를 분석하여 차량을 검출하는 제어기를 포함하고,
상기 제어기는
상기 메인카메라에 의해 획득된 영상과 상기 레이더기에 의해 송수신된 레이더신호를 분석하여 차량객체를 검출한 후 검출된 차량객체를 추적하여 궤적정보 및 차량속도 및 위치를 포함하는 차량정보를 생성하며, 생성된 차량정보 및 궤적정보를 기 설정된 단속정보와 비교하여 위반차량을 검출하고,
상기 제어기는
거리좌표계를 픽셀좌표계로 변환하는데 필요한 캘리브레이션값이 기 설정되어 저장되는 메모리;
상기 메인카메라에 의해 획득된 입력영상을 분석하여 차량객체인 제1 객체의 픽셀위치를 검출하며, 검출된 제1 객체의 픽셀위치를 이용하여 제1 객체가 표시된 제1 픽셀좌표계를 생성하는 영상분석부;
상기 레이더기에 의해 송수신된 레이더신호를 분석하여 차량객체인 제2 객체의 거리위치를 검출하며, 검출된 제2 객체의 거리위치를 이용하여 제2 객체가 표시된 거리좌표계를 생성하며, 상기 캘리브레이션값을 이용하여 생성된 거리좌표게를 제2 픽셀좌표계로 변환하는 신호분석부;
상기 영상분석부에 의해 검출된 제1 객체의 픽셀위치 및 상기 신호분석부에 의해 검출된 제2 객체의 픽셀위치의 차이가 기 설정된 임계치 미만인 경우 제2 객체를 최종객체로 결정하며, 제2 객체는 존재하지 않되 제1 객체만 존재하는 경우 제1 객체를 최종객체로 결정하며, 제1 객체는 존재하지 않되 제2 객체만 존재하는 경우 제2 객체를 최종객체로 결정하는 최종객체 검출부;
상기 최종객체 검출부에 의해 검출된 최종객체의 궤적을 추적하여 궤적정보를 생성하는 궤적추적부;
상기 최종객체 검출부에 의해 검출된 최종객체의 궤적을 추적하여 차량정보를 생성하는 차량정보 생성부;
상기 궤적추적부에 의해 생성된 궤적정보 및 상기 차량정보 생성부에 의해 생성된 차량정보를 상기 단속정보와 비교하여 위반차량을 검출하는 위반차량 검출부를 더 포함하고,
상기 제어기는
상기 위반차량 검출부에 의해 위반차량이 검출될 때 구동되며, 입력된 위반차량의 궤적정보 및 번호인식지점의 위치정보를 비교하여 위반차량이 번호인식지점을 통과할 때 상기 보조카메라에 의해 촬영이 이루어지도록 하는 보조카메라 제어부;
기 설정된 영상 객체 분석 알고리즘을 이용하여 상기 보조카메라 제어부에 의해 획득된 이미지프레임을 분석하여 이미지프레임으로부터 위반차량의 차량번호, 차종, 색상, 파손여부, 연식 중 적어도 하나 이상을 포함하는 위반차량 상세정보를 검출하는 정밀영상 분석부;
정밀영상을 입력값으로 하되, 위반차량 상세정보를 출력하는 상기 영상 객체 분석 알고리즘을 학습하는 학습부를 더 포함하고,
상기 보조카메라 제어부는
입력된 위반차량의 궤적정보와, 번호인식지점의 위치정보를 비교하는 위치비교모듈;
상기 위치비교모듈에 의해 위반차량이 번호인식지점과 인접한 위치에 도달할 때 구동되며, 기 설정된 미세주기(T)의 간격으로 기 설정된 설정횟수 만큼 촬영이 이루어지는 트리거신호를 생성한 후 상기 보조카메라로 출력하는 트리거신호 생성부를 더 포함하고,
상기 보조카메라는 상기 트리거신호 생성부로부터 입력된 트리거신호에 따라 미세주기(T)의 간격으로 설정횟수 만큼 촬영을 수행하여 복수개의 이미지프레임들을 획득하고,
상기 정밀영상 분석부는
상기 보조카메라의 촬영에 의해 획득된 이미지프레임들을 입력받으며, 입력된 이미지프레임들 각각으로부터 차량객체를 검출하는 차량객체 검출모듈;
상기 차량객체 검출모듈에 의해 검출된 각 이미지프레임의 차량객체의 선단부의 위치를 검출하며, 검출된 각 이미지프레임의 차량객체의 선단부 위치 및 번호인식지점의 위치를 비교하는 비교모듈;
상기 비교모듈에 의해 번호인식지점으로부터 가장 근접한 차량객체의 선단부 위치를 갖는 이미지프레임을 최종프레임으로 결정하는 최종프레임 결정모듈;
상기 최종프레임 결정모듈에 의해 결정된 최종프레임을 분석하여 상기 위반차량 상세정보를 검출하는 위반차량 상세정보 검출모듈을 더 포함하는 것을 특징으로 하는 융복합형 검지기.
A main camera capturing a preset detection area to obtain an image;
An auxiliary camera configured to photograph a number recognition point which is a point at which vehicle number recognition is easily performed;
A radar device receiving a reflection signal after transmitting a radar signal to the detection area;
And a controller for detecting a vehicle by analyzing the image obtained by the main camera and the radar signal by the radar device.
The controller
After analyzing the image obtained by the main camera and the radar signal transmitted and received by the radar to detect the vehicle object, and traces the detected vehicle object to generate vehicle information including the trajectory information and the vehicle speed and position, The detected vehicle information and the trajectory information by comparing with the preset enforcement information, and detect the violation vehicle,
The controller
A memory in which a calibration value necessary for converting the distance coordinate system to the pixel coordinate system is preset and stored;
Image analysis of detecting a pixel position of a first object which is a vehicle object by analyzing the input image acquired by the main camera, and generating a first pixel coordinate system displaying the first object by using the detected pixel position of the first object. part;
Analyzing the radar signal transmitted and received by the radar to detect the distance position of the second object that is a vehicle object, and generates a distance coordinate system on which the second object is displayed using the detected distance position of the second object, and the calibration value A signal analyzing unit converting the generated distance coordinates into a second pixel coordinate system;
When the difference between the pixel position of the first object detected by the image analyzer and the pixel position of the second object detected by the signal analyzer is less than a preset threshold, the second object is determined as the final object. Is not present but only the first object exists, the first object is determined as the final object, and if there is only the second object but the first object does not exist, the final object detector for determining the second object as the final object;
A trajectory tracking unit for generating trajectory information by tracking the trajectory of the final object detected by the final object detector;
A vehicle information generation unit for generating vehicle information by tracking the trajectory of the final object detected by the final object detection unit;
And a violation vehicle detection unit for detecting a violation vehicle by comparing the trajectory information generated by the trajectory tracking unit and the vehicle information generated by the vehicle information generation unit with the enforcement information.
The controller
It is driven when the violating vehicle is detected by the violating vehicle detection unit, and the image is taken by the auxiliary camera when the violating vehicle passes the number recognition point by comparing the input trajectory information and the position information of the number recognition point. Auxiliary camera control unit to make;
Detailed information of the violation vehicle including at least one of a vehicle number, a model, a color, a damage status, and a year of the violation vehicle from the image frame by analyzing the image frame acquired by the auxiliary camera controller using a preset image object analysis algorithm. Precision image analysis unit for detecting;
Further comprising a learning unit for learning the image object analysis algorithm for outputting the detailed information of the violation vehicle, the precision image as an input value,
The auxiliary camera controller
A position comparison module for comparing the input trajectory information of the violation vehicle and the position information of the number recognition point;
The violating vehicle is driven by the position comparison module to reach a position adjacent to the number recognition point, and generates a trigger signal that shoots a predetermined number of times at intervals of a predetermined fine period T to the auxiliary camera. Further comprising a trigger signal generating unit for outputting,
The auxiliary camera acquires a plurality of image frames by capturing a predetermined number of times at intervals of a fine period T according to the trigger signal input from the trigger signal generator.
The precision image analysis unit
A vehicle object detection module that receives image frames obtained by photographing the auxiliary camera and detects a vehicle object from each of the input image frames;
A comparison module which detects the position of the front end of the vehicle object of each image frame detected by the vehicle object detection module and compares the position of the front end of the vehicle object of each detected image frame and the position of the number recognition point;
A final frame determination module for determining, by the comparison module, an image frame having the position of the tip of the vehicle object closest to the number recognition point as the final frame;
And a violation vehicle detail information detection module for analyzing the last frame determined by the last frame determination module to detect the violation vehicle detail information.
삭제delete 삭제delete 청구항 제1항에 있어서, 상기 제어기는 캘리브레이션 영상 생성부를 더 포함하고,
상기 캘리브레이션 영상 생성부는
상기 입력영상에, 상기 최종객체 검출부에 의해 검출된 최종객체에 대응되는 표식기호를 매칭시킨 캘리브레이션 영상을 생성하는 것을 특징으로 하는 융복합형 검지기.
The apparatus of claim 1, wherein the controller further comprises a calibration image generator.
The calibration image generator
And a calibration image generated by matching the input image with a marker symbol corresponding to the final object detected by the final object detector.
삭제delete
KR1020180072907A 2018-06-25 2018-06-25 Convergence detector and traffic enforcement system therewith KR102008263B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180072907A KR102008263B1 (en) 2018-06-25 2018-06-25 Convergence detector and traffic enforcement system therewith

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180072907A KR102008263B1 (en) 2018-06-25 2018-06-25 Convergence detector and traffic enforcement system therewith

Publications (1)

Publication Number Publication Date
KR102008263B1 true KR102008263B1 (en) 2019-08-07

Family

ID=67621514

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180072907A KR102008263B1 (en) 2018-06-25 2018-06-25 Convergence detector and traffic enforcement system therewith

Country Status (1)

Country Link
KR (1) KR102008263B1 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102105162B1 (en) * 2019-10-17 2020-04-28 주식회사 유니시큐 A smart overspeeding vehicle oversee apparatus for analyzing vehicle speed, vehicle location and traffic volume using radar, for detecting vehicles that violate the rules, and for storing information on them as videos and images, a smart traffic signal violation vehicle oversee apparatus for the same, and a smart city solution apparatus for the same
KR102132303B1 (en) * 2019-11-13 2020-07-10 주식회사 동부아이씨티 Traffic signal control system with automatic sensing of vehicle waiting for turn left signal using heat image camera and radar
KR102249654B1 (en) * 2020-11-13 2021-05-10 렉스젠(주) Apparatus, system and method for detecting abnormality based on turn
KR102310192B1 (en) * 2021-03-16 2021-10-08 (주)드림테크 Convergence camera for enhancing object recognition rate and detecting accuracy, and boundary surveillance system therewith
KR102328468B1 (en) * 2020-05-13 2021-11-18 주식회사 아이에스앤로드테크 Speed enforcement system using variable speed enforcement line and method using the same
WO2022196883A1 (en) * 2021-03-15 2022-09-22 주식회사 바이다 Section control method and section control system using camera and radar
KR102477410B1 (en) * 2022-09-08 2022-12-15 주식회사 아프로시스템즈 Traffic violation enforcement system using rear license plate recognition and method for rear license plate recognition
KR102502155B1 (en) * 2022-03-04 2023-02-21 한일테크 주식회사 Pedestrian guide device for audio signal guidance and method of operating the same
KR102537818B1 (en) * 2022-03-22 2023-05-26 박진용 Traffic information management system for enhancing accuracy of sensing vehicle speed

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101457137B1 (en) * 2014-07-03 2014-11-12 주식회사 유니시큐 Integrated System for Monitering Vehicles Using Radar Sensor on Spot
KR20150069461A (en) * 2013-12-13 2015-06-23 도로교통공단 system for managing traffic based on zone classified architecture
KR101677972B1 (en) * 2016-07-26 2016-11-21 주식회사 싸인텔레콤 The apparatus and method of multi-lane car plate detection and recognition
JP2018106511A (en) * 2016-12-27 2018-07-05 株式会社デンソー Object detection apparatus and object detection method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150069461A (en) * 2013-12-13 2015-06-23 도로교통공단 system for managing traffic based on zone classified architecture
KR101457137B1 (en) * 2014-07-03 2014-11-12 주식회사 유니시큐 Integrated System for Monitering Vehicles Using Radar Sensor on Spot
KR101677972B1 (en) * 2016-07-26 2016-11-21 주식회사 싸인텔레콤 The apparatus and method of multi-lane car plate detection and recognition
JP2018106511A (en) * 2016-12-27 2018-07-05 株式会社デンソー Object detection apparatus and object detection method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102105162B1 (en) * 2019-10-17 2020-04-28 주식회사 유니시큐 A smart overspeeding vehicle oversee apparatus for analyzing vehicle speed, vehicle location and traffic volume using radar, for detecting vehicles that violate the rules, and for storing information on them as videos and images, a smart traffic signal violation vehicle oversee apparatus for the same, and a smart city solution apparatus for the same
KR102132303B1 (en) * 2019-11-13 2020-07-10 주식회사 동부아이씨티 Traffic signal control system with automatic sensing of vehicle waiting for turn left signal using heat image camera and radar
KR102328468B1 (en) * 2020-05-13 2021-11-18 주식회사 아이에스앤로드테크 Speed enforcement system using variable speed enforcement line and method using the same
KR102249654B1 (en) * 2020-11-13 2021-05-10 렉스젠(주) Apparatus, system and method for detecting abnormality based on turn
WO2022196883A1 (en) * 2021-03-15 2022-09-22 주식회사 바이다 Section control method and section control system using camera and radar
KR102310192B1 (en) * 2021-03-16 2021-10-08 (주)드림테크 Convergence camera for enhancing object recognition rate and detecting accuracy, and boundary surveillance system therewith
KR102502155B1 (en) * 2022-03-04 2023-02-21 한일테크 주식회사 Pedestrian guide device for audio signal guidance and method of operating the same
KR102537818B1 (en) * 2022-03-22 2023-05-26 박진용 Traffic information management system for enhancing accuracy of sensing vehicle speed
KR102477410B1 (en) * 2022-09-08 2022-12-15 주식회사 아프로시스템즈 Traffic violation enforcement system using rear license plate recognition and method for rear license plate recognition

Similar Documents

Publication Publication Date Title
KR102008263B1 (en) Convergence detector and traffic enforcement system therewith
KR101999993B1 (en) Automatic traffic enforcement system using radar and camera
RU151809U1 (en) VIDEO SYSTEM FOR SECURITY OF VEHICLES
EP3576008B1 (en) Image based lane marking classification
US9352690B2 (en) Apparatus and method for detecting obstacle adaptively to vehicle speed
KR102105162B1 (en) A smart overspeeding vehicle oversee apparatus for analyzing vehicle speed, vehicle location and traffic volume using radar, for detecting vehicles that violate the rules, and for storing information on them as videos and images, a smart traffic signal violation vehicle oversee apparatus for the same, and a smart city solution apparatus for the same
KR101971878B1 (en) Video surveillance system and method using deep-learning based car number recognition technology in multi-lane environment
KR20200064873A (en) Method for detecting a speed employing difference of distance between an object and a monitoring camera
KR101710646B1 (en) System for recognizing front and back face of license plate using video tracking
KR102039118B1 (en) Photographing system of multi lines using radar
US20180137607A1 (en) Processing apparatus, imaging apparatus and automatic control system
KR102428765B1 (en) Autonomous driving vehicle navigation system using the tunnel lighting
KR101845943B1 (en) A system and method for recognizing number plates on multi-lane using one camera
KR20130138392A (en) System for detecting unexpected accident
KR101974105B1 (en) Photographing system and method for increasing recognition rate of vehicle number
KR101584105B1 (en) Vehicle photographing apparatus based multilane and control method thereof
JP2014215719A (en) Vehicle model determination device
KR101057837B1 (en) Vehicle auto inspection system using laser beam
KR20180048289A (en) Vehicle sensing apparatus using laser scanning
KR101973695B1 (en) Fusion vehicle detection system
KR101403936B1 (en) Camera system for vehicles
JP6431271B2 (en) Vehicle detection and vehicle number recognition device
KR102092936B1 (en) Automatic traffic enforcement system and method using radar
KR101878427B1 (en) Traffic radar device, traffic management server, traffic management system, and method of tracking object move traces
KR20190136515A (en) Vehicle recognition device

Legal Events

Date Code Title Description
N231 Notification of change of applicant
GRNT Written decision to grant