KR102051829B1 - Bigdata Previewport Multi-resolution video transmission CCTV using License plate detection and Bigdata Previewport Multi-resolution video transmission traffic control method using License plate detection - Google Patents

Bigdata Previewport Multi-resolution video transmission CCTV using License plate detection and Bigdata Previewport Multi-resolution video transmission traffic control method using License plate detection Download PDF

Info

Publication number
KR102051829B1
KR102051829B1 KR1020190064388A KR20190064388A KR102051829B1 KR 102051829 B1 KR102051829 B1 KR 102051829B1 KR 1020190064388 A KR1020190064388 A KR 1020190064388A KR 20190064388 A KR20190064388 A KR 20190064388A KR 102051829 B1 KR102051829 B1 KR 102051829B1
Authority
KR
South Korea
Prior art keywords
unit
image
viewport
vehicle
resolution
Prior art date
Application number
KR1020190064388A
Other languages
Korean (ko)
Inventor
임철규
Original Assignee
임철규
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 임철규 filed Critical 임철규
Priority to KR1020190064388A priority Critical patent/KR102051829B1/en
Application granted granted Critical
Publication of KR102051829B1 publication Critical patent/KR102051829B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2137Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on criteria of topology preservation, e.g. multidimensional scaling or self-organising maps
    • G06K9/3258
    • G06K9/6251
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/30Transportation; Communications
    • G06Q50/40
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • G06K2209/15
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates

Abstract

The present invention relates to a big data preview port multi-resolution video transmission-based smart traffic information collection device using license plate number detection which is capable of reducing a bandwidth traffic amount and minimizing a transmission delay speed and a traffic control method using the same. According to the present invention, the smart traffic information collection device comprises: a pan/tilt housing camera unit (110); a memory unit (120); a first data transmission/reception unit (130); a big data analysis unit (200) receiving a high-resolution CCTV video in a bitstream and analyzing the video through a big data view port prediction technique; a multi-resolution processing unit (300) processing video data of a vehicle with a high traffic law violation probability among pieces of vehicle information analyzed in the big data analysis unit (200) at a high resolution through a set preview port (27) and processing the remaining background video and objects excluding the preview port (27) at a low resolution to wirelessly transmit processing results to a central control center (500) in real-time; a vehicle license plate recognition unit (400) recognizing a vehicle license plate corresponding to a high-resolution priority view port (12) processed in the multi-resolution processing unit (300) to transmit a recognition result to the multi-resolution processing unit (300); and a CPU (160).

Description

차량번호 인식을 통한 빅데이터 예측뷰포트 다중해상도 영상전송 기반의 스마트 교통정보 수집장치 및 그 장치를 이용한 교통관제 방법{Bigdata Previewport Multi-resolution video transmission CCTV using License plate detection and Bigdata Previewport Multi-resolution video transmission traffic control method using License plate detection}Big data prediction viewport based on car number recognition Smartport information collection device based on multi-resolution video transmission and traffic control method using the device {Bigdata Previewport Multi-resolution video transmission CCTV using License plate detection and Bigdata Previewport Multi-resolution video transmission traffic control method using License plate detection}

본 발명은 차량번호 인식을 통한 빅데이터 예측뷰포트 다중해상도 영상전송 기반의 스마트 교통관제 방법 및 교통정보 수집장치에 관한 것으로, 보다 상세하게는 교통정보 수집장치로부터 촬영한 차량영상정보와 중앙관제센터에 저장된 빅데이터 도로교통법 위반차량 영상정보를 비교하여 위반가능성이 높은 차량영상정보가 설정된 임계확률값을 초과하면 그 차량영상정보를 중심으로 일정한 영역을 예측뷰포트로 설정하여 고화질로 우선전송하는 것을 통해 대역폭 트래픽 양을 줄이고 전송지연속도를 최소화할 수 있는 차량번호 인식을 통한 빅데이터 예측뷰포트 다중해상도 영상전송 기반의 스마트 교통정보 수집장치 및 그 장치를 이용한 교통관제 방법에 관한 것이다.The present invention relates to a smart traffic control method and traffic information collecting device based on big data prediction viewport multi-resolution image transmission through vehicle number recognition, and more particularly, to vehicle image information and a central control center photographed from a traffic information collecting device. By comparing the stored video data with the violation of the big data road traffic law, if the high-visibility vehicle image information exceeds the set threshold probability value, a certain area is set as the prediction viewport centered on the vehicle image information and transmitted first in high quality. The present invention relates to a smart traffic information collection device based on big data prediction viewport multi-resolution image transmission through vehicle number recognition that can reduce the amount and minimize the transmission delay speed, and a traffic control method using the device.

최근 빅데이터를 활용한 기술의 영역이 확장되어감에 따라 차량용 교통관제 통합관리 시스템에도 그 영향력이 미치고 있다. 특히 교통관제 통합관리를 위한 교통정보 수집장치인 CCTV에 내장형 산업 컴퓨터를 장착하여 단속, 보안, 방범, 주차관리, 검색, 조명제어, 실시간 통신, 모바일 연동, IP 추적 등 다양한 기술들이 융복합되어 보다 더 발전된 형태의 시스템 구성을 통해 스마트 교통관제 서비스를 제공한다.Recently, as the area of technology using big data is expanded, the influence on the integrated vehicle traffic control management system is also affected. In particular, the CCTV, a traffic information collection device for integrated traffic control, is equipped with a built-in industrial computer to integrate various technologies such as crackdown, security, crime prevention, parking management, search, lighting control, real-time communication, mobile linkage, and IP tracking. Smart traffic control service is provided through more advanced system configuration.

그 중에서도 단속, 보안, 방범 등의 분야에 널리 사용되는 차량번호판 인식을 통한 차량추적 기술은 매우 급속도로 발전하여 현재에는 다양한 알고리즘들을 활용하여 진보된 방식으로 차량정보를 검출하는 시스템이 적용되고 있다.Among them, vehicle tracking technology through license plate recognition, which is widely used in areas such as crackdown, security, and crime prevention, has been developed very rapidly. Currently, a system for detecting vehicle information in an advanced manner using various algorithms has been applied.

이러한 시스템이 적용되는 종래기술로서 등록특허 제10-0785757호인 고정된 카메라를 이용한 자동 불법 주정차 단속 시스템 및 방법이 안출된 바 있다.As a prior art to which such a system is applied, an automatic illegal parking control system and method using a fixed camera, which is registered as Korean Patent No. 10-0785757, has been devised.

상기의 종래기술은 일방통행로, 왕복 차선 도로, 3거리, 4거리 등의 주변 주정차 금지 구역들을 여러 개의 검지 영역으로 분할 설정한 후, 카메라의 고속 팬틸트 특성을 이용하여 주기적으로 감시하고 도로 교통법상의 주정차 규칙을 위반한 차량을 자동적으로 적발하여 위반 사실을 관리하고 통보함으로써 불법 주정차 차량을 보다 효율적으로 예방 및 단속할 수 있는 시스템 및 방법에 관한 것으로, 현장 시스템과 센터 시스템을 운영하고, 상기 현장 시스템은 카메라를 이용하여 복수의 검지 영역들을 반복하여 주기적으로 순차 감시하고, 각 검지 영역에서 진입 차량을 검지하면 차량 번호판을 포함하는 영상으로부터 차량 번호를 인식하여 주정차 위반 사실 정보를 상기 센터 시스템으로 전송하며, 상기 센터 시스템은 상기 주정차 위반 사실 정보에 기초하여 차적 조회를 통하여 주정차 위반 사실 통지서를 발부하고, 상기 현장 시스템은 복수 방향에서 각 주정차 금지 구역을 상기 카메라의 촬영 거리, 즉, 적절히 포커싱되어 깨끗한 영상을 획득할 수 있는 거리에 따라 복수의 영역으로 분할한 검지 영역들에 대하여 불법 주정차 위반 차량이 있는지를 감시할 수 있도록 하고 있다.The prior art divides the surrounding stop areas such as one-way, round-trip lane, three-way, four-way into several detection areas, and then periodically monitors the camera using high-speed pan tilt characteristics of the camera. The present invention relates to a system and a method for more effectively preventing and cracking down illegal parking vehicles by automatically detecting and violating a vehicle that violates the parking rules, and operating an on-site system and a center system. The camera repeatedly monitors a plurality of detection areas periodically using a camera, and when detecting an entry vehicle in each detection area, recognizes a vehicle number from an image including a vehicle license plate and transmits parking stop violation information to the center system. , The center system is based on the parking violation facts information In addition, the vehicle system issues a notice of a parking violation through the vehicle inquiry, and the field system determines a plurality of areas according to the shooting distance of the camera, that is, the distance from which the camera is properly focused to obtain a clear image in multiple directions. It is possible to monitor whether there are illegal parking violations in the detection areas divided by

하지만 이와 같이 처리한 영상을 중앙관제센터에 전송하기 위해서는 많은 용량이 필요하다. 특히, 무선 방식으로 실시간 데이터 전송을 하기위해서는 통신망의 트래픽 증설이 필수적이고 그에 따른 비용 부담이 증가할 수 밖에 없다.However, a large amount of capacity is required to transmit the processed image to the central control center. In particular, in order to perform real-time data transmission in a wireless manner, it is necessary to increase traffic of a communication network, and the cost burden is inevitably increased.

상기와 같은 문제점을 해결하기 위해 안출된 종래기술로서 공개특허 제10-2015-0115067호인 차량 번호 인식을 위한 영상 전송 방법 및 그 장치와, 등록특허 제10-1704775호인 다중해상도 영상 처리 장치 및 영상 처리 방법가 개시된다.An image transmission method and apparatus for recognizing a vehicle number as disclosed in the prior art, which has been devised to solve the above problems, and a multi-resolution image processing apparatus and image processing as disclosed in Korean Patent No. 10-1704775. A method is disclosed.

공개특허 제10-2015-0115067호인 차량 번호 인식을 위한 영상 전송 방법 및 그 장치는 차량 번호 인식을 위한 영상 전송 방법에 있어서, 도로 상에 설치된 카메라로부터 차량을 대상으로 촬상된 제1 영상을 획득하는 단계와, 상기 제1 영상 내에서 차량 번호판에 해당하는 제2 영상을 추출하는 단계와, 상기 제1 영상의 용량을 축소하여 제3 영상을 생성하는 단계, 및 상기 제2 영상 및 상기 제3 영상을 매칭하여 관제 서버에 전송하는 단계를 포함하는 차량 번호 인식을 위한 영상 전송 방법을 제공하여 카메라의 촬상 영상을 전처리하여 전송함에 따라 관제 서버의 과부하 문제를 해소할 수 있으며 현장의 장비를 소형화할 수 있도록 하고 있다.An image transmission method and apparatus for recognizing a vehicle number in the vehicle number recognition method and apparatus therein, the image transmission method for recognizing a vehicle number, to obtain a first image captured by the target vehicle from a camera installed on the road Extracting a second image corresponding to a vehicle license plate from the first image, reducing the capacity of the first image to generate a third image, and the second image and the third image This method provides an image transmission method for vehicle number recognition including matching and transmitting the same to the control server, thereby pre-processing and transmitting the captured image of the camera, thereby eliminating the overload problem of the control server and miniaturizing the equipment in the field. To make it work.

또한 등록특허 제10-1704775호인 등록특허 제10-1704775호인 다중해상도 영상 처리 장치 및 영상 처리 방법에서는 입력된 영상에서 모션 벡터를 추출하여 동적 객체를 식별하는 동적 객체 식별부, 상기 동적 객체에서 특징점을 추출하여, 상기 동적 객체의 적어도 일부 영역을 관심 영역으로 설정하는 관심 영역 검출부 및 상기 관심 영역에 대한 압축률과 상기 동적 객체에 대한 압축률이 서로 다르도록 상기 영상을 압축하는 가변 압축부를 포함하여 영상의 주요 영역에 대해서는 높은 해상도를 확보함으로써 압축 효율이 높아지고 압축 작업을 최소화 할 수 있도록 하고 있다.Also, in the multi-resolution image processing apparatus and the image processing method, which is registered Patent No. 10-1704775, a dynamic object identification unit for identifying a dynamic object by extracting a motion vector from an input image, and extracting feature points from the dynamic object. Extracts and includes a region of interest detector configured to set at least a portion of the dynamic object as the region of interest and a variable compressor configured to compress the image so that the compression rate for the region of interest and the compression rate for the dynamic object are different from each other. For the region, high resolution ensures high compression efficiency and minimizes compression.

그러나 상기와 같은 종래기술들의 경우 빅데이터를 기반으로 하는 알고리즘으로 영상정보를 분석처리하지 않고, 무선 대역폭의 허용범위를 기준으로 고해상도와 저해상도의 영상처리를 하는 판단 팩터가 결여되어 실제 산업에서 활용될 수 있는 실용성과 구체성이 현저하게 낮은 문제점이 잔존한다.However, in the case of the prior arts as described above, the algorithm does not analyze image information by using big data, but lacks a decision factor of performing high resolution and low resolution image processing based on an allowable range of wireless bandwidth. There remains a problem of practically low practicality and specificity.

또한, 영상정보의 타일별로 예측뷰포트를 설정하여 정렬하는 방식이 아닌 단순 특징 추출 방식을 차용하여 실제 전송지연 속도를 최소화하지 못하는 결과를 초래한다.In addition, by employing a simple feature extraction method rather than setting and arranging prediction viewports for each tile of image information, the result does not minimize the actual transmission delay speed.

공개특허 제10-2015-0115067호Patent Publication No. 10-2015-0115067 등록특허 제10-0785757호Patent Registration No. 10-0785757 등록특허 제10-1704775호Patent Registration No. 10-1704775

이에 본 발명은 상기와 같은 문제점들을 해결하기 위해 창안된 것으로, 교통정보 수집장치로부터 촬영한 차량 영상정보와 중앙관제센터에 저장된 빅데이터 도로교통법 위반차량 영상정보를 비교하여 위반 가능성이 높은 차량 영상정보가 설정된 임계확률값을 초과하면 그 차량 영상정보를 중심으로 일정한 영역을 예측뷰포트로 설정하여 고화질로 우선전송하는 것을 통해 대역폭 트래픽 양을 줄이고 전송지연속도를 최소화할 수 있는 차량번호 인식을 통한 빅데이터 예측뷰포트 다중해상도 영상전송 기반의 스마트 교통관제 방법 및 교통정보 수집장치에 주안점을 두고 그 기술적 과제로서 완성한 것이다.Accordingly, the present invention was devised to solve the above problems, and the vehicle image information having a high probability of violation by comparing the vehicle image information photographed from the traffic information collecting device with the vehicle image information of the big data road traffic law violation stored in the central control center. Exceeds the set threshold probability value, it sets a certain area around the vehicle image information as a prediction viewport and transmits it in high quality first to reduce the amount of bandwidth traffic and minimize the transmission delay speed. The focus is on smart traffic control method and traffic information collection device based on viewport multi-resolution image transmission.

위 기술적 과제를 달성하기 위한 본 발명은, 차량번호 인식을 통한 빅데이터 예측뷰포트 다중해상도 영상전송 기반의 스마트 교통정보 수집장치에 있어서, 상기 동영상의 영상입력정보를 수집하기 위한 팬틸트하우징 카메라부(110); 중앙관제센터(500)의 데이터베이스(520)에 분류 저장된 도로교통법 위반차량 영상정보(10)를 주기적으로 업데이트 받아 분류 저장하는 메모리부(120); 상기 중앙관제센터(500)의 데이터베이스(520)에 분류 저장된 도로교통법 위반차량 영상정보(10)를 주기적으로 업데이트 받을 수 있도록 구비되는 제 1 데이터송수신부(130); 고해상도 CCTV 영상을 비트스트림으로 전송받아 빅데이터 뷰포트 예측기술을 통해 분석하는 빅데이터분석부(200); 상기 빅데이터분석부(200)에서 분석한 차량정보 중 도로교통법 위반가능성이 높은 차량의 영상데이터는 설정한 예측뷰포트(27)를 통해 고화질로 처리하고, 상기 예측뷰포트(27)를 제외한 나머지 배경영상 및 객체들을 저화질로 처리하여 무선으로 상기 중앙관제센터(500)에 실시간 전송하는 다중해상도처리부(300); 및, 상기 교통정보 수집장치(A)에 내장되어 빅데이터분석부(200), 다중해상도처리부(300)의 데이터처리를 위한 연산 및 제어를 하는 CPU(160)를 포함하되,상기 빅데이터분석부(200)는, 상기 카메라부(110)로부터 수집한 현재차량 영상정보(11)를 일정한 프레임 단위인 타일(16)로 구분 설정하는 타일설정부(210)와, 상기 타일설정부(210)에서 설정한 타일(16)을 기반으로 빅데이터 기반 알고리즘을 통해 메모리부(120)에 저장된 도로교통법 위반차량 영상정보(10)와 현재차량 영상정보(11)를 비교하여, 비교한 차량 영상정보값에 따른 특정차량(S)에 대응되는 위반차량 영상정보(10)의 유사도값(28)이 설정한 임계확률값(T) 이상인지 판단하는 뷰포트분석부(220)와, 상기 뷰포트분석부(220)에서 판단한 임계확률값(T)에 대한 뷰포트 설정여부를 통해 예측뷰포트(27)를 부여하여 정렬하는 뷰포트설정부(230)로 구성되고, 상기 다중해상도처리부(300)는, 상기 뷰포트분석 과정(S122)에서 정렬한 예측뷰포트(27)를 실시간으로 전송받아 현재대역폭을 기준으로 대역폭의 허용범위를 초과하는지 판단하는 대역폭초과판단부(310)와, 상기 대역폭초과판단부(310)에서 판단한 현재대역폭이 허용범위를 초과하는 경우, 상기 예측뷰포트(27)를 우선순위 뷰포트(12)로 설정하여 고화질로 처리하고 나머지 뷰포트(13)를 저화질로 처리하는 해상도설정부(320)와, 상기 해상도설정부(320)에서 뷰포트별로 처리한 화질들의 융합을 통해 영상이미지데이터를 렌더링하여 생성하는 이미지렌더링부(330)와, 상기 이미지렌더링부(330)에서 생성된 영상데이터를 전송받아 인코딩하는 인코딩부(340)와, 상기 인코딩부(340)가 인코딩한 고화질 영상정보를 중앙관제센터(500)로 실시간 무선 선반입 전송하는 통신부(350)로 구성되며, 상기 해상도설정부(320)에서 뷰포트별로 처리한 화질들의 현재차량 영상정보(11)를 통해 차량번호를 인식하여 이미지렌더링부(330)로 전송하는 차량번호인식부(400)를 더 구비하고, 상기 차량번호인식부(400)는, 입력된 RGB 컬러 차량 이미지를 그레이 스케일 이미지로 변환하고 케니 에지 검출 기법과 LSD 알고리즘을 통해 번호판영역을 검출하는 차량번호판후보영역 검출부(410)와, 상기 차량번호판후보영역 검출부(410)에서 검출한 차량번호판 후보영역(15)의 지역에지기반 이진화전처리, 수직 필터링, CLNF, 블롭분석을 통해 문자영역을 검출하는 문자영역 검출부(420)와, 상기 문자영역 검출부(420)에서 검출한 문자영역을 통해 이미지정규화, 픽셀매트릭스, DBN을 활용하여 문자를 인식하는 번호판 문자 인식부(430)로 구성되는 것을 특징으로 한다.In accordance with another aspect of the present invention, there is provided a smart traffic information collecting device based on big data prediction viewport multi-resolution image transmission through vehicle number recognition, and a pan tilt housing camera unit for collecting image input information of the video. 110); A memory unit 120 that periodically receives and classifies and stores road traffic law violation vehicle image information 10 classified and stored in the database 520 of the central control center 500; A first data transmission / reception unit 130 provided to periodically update the road traffic law violation vehicle image information 10 classified and stored in the database 520 of the central control center 500; Big data analysis unit 200 for receiving a high-resolution CCTV image in the bitstream to analyze the big data viewport prediction technology; Of the vehicle information analyzed by the big data analysis unit 200, the image data of the vehicle having a high possibility of violating the road traffic law is processed in high quality through the set prediction viewport 27, and the remaining background image except the prediction viewport 27 is processed. And a multi-resolution processor 300 for real-time transmission of the objects to the central control center 500 by processing the objects with low quality. And a CPU 160 embedded in the traffic information collecting device A to perform calculation and control for data processing of the big data analyzer 200 and the multi-resolution processor 300, wherein the big data analyzer The tile setting unit 210 and the tile setting unit 210 may be configured to divide and set the current vehicle image information 11 collected from the camera unit 110 into tiles 16, which are units of a predetermined frame. Based on the set tile 16, the road traffic law violation vehicle image information 10 stored in the memory unit 120 and the current vehicle image information 11 are compared to the compared vehicle image information value through a big data based algorithm. The viewport analyzer 220 and the viewport analyzer 220 determining whether the similarity value 28 of the violated vehicle image information 10 corresponding to the specific vehicle S is equal to or greater than a threshold probability value T set. Predictive viewport (27) is given by setting the viewport for the determined threshold probability value (T) And a multiple viewport setting unit 230, and the multi-resolution processing unit 300 receives the predicted viewports 27 arranged in the viewport analysis process S122 in real time, and allows a range of bandwidths based on the current bandwidth. If the bandwidth exceeding determination unit 310 to determine whether exceeds the current bandwidth determined by the bandwidth exceeding determination unit 310 exceeds the allowable range, the prediction viewport 27 is set as the priority viewport 12 An image rendering unit that renders and generates image image data through a fusion of image quality processed by the resolution setting unit 320 and the viewports processed by the resolution setting unit 320 at low quality. 330, an encoding unit 340 for receiving and encoding image data generated by the image rendering unit 330, and high-quality image information encoded by the encoding unit 340. It consists of a communication unit 350 to transmit the real-time wireless pre-loading, the image rendering unit 330 by recognizing the vehicle number through the current vehicle image information 11 of the image quality processed by the viewport in the resolution setting unit 320 And a vehicle number recognition unit 400 for transmitting to the vehicle, and the vehicle number recognition unit 400 converts the input RGB color vehicle image into a gray scale image and converts the license plate area through Kenny edge detection and LSD algorithm. The character area is detected through local edge-based binarization preprocessing, vertical filtering, CLNF, and blob analysis of the license plate candidate area detection unit 410 and the license plate candidate area detection area 410 detected by the license plate candidate area detection unit 410. A license plate character for character recognition using image normalization, pixel matrix, and DBN through the character area detection unit 420 to detect and the character area detected by the character area detection unit 420 It characterized by consisting of sikbu 430.

삭제delete

또한 본 발명은, 상기 중앙관제센터(500)는 차로의 교통상황을 실시간으로 파악하고 교통 흐름을 관리 및 통제하기 위한 것으로, 상기 교통상황을 실시간 영상정보로 전송받아 처리하는 통합관제서버(510)와, 상기 통합관제서버(510)에서 처리한 데이터들을 수집하여 저장하는 데이터베이스(520)와, 실시간 교통상황에 대한 영상정보를 수신하고, 교통정보 수집장치(A)에 제어 명령을 전송하는 데이터송수신부(530)와, 빅데이터 뷰포트 예측기술을 통해 고화질로 처리하여 인코딩된 영상정보를 디코딩하는 디코딩부(540)와, 상기 디코딩된 영상정보를 화면상에 표시하는 출력부(550)와, 상기 데이터송수신부(530)를 통해 전송할 제어 명령을 생성하는 CCTV 컨트롤부(560)와, 상기 출력부(550)에서 인식된 도로교통법 위반가능성이 높은 특정차량(S)에 대한 고화질 영상정보를 기반으로 상기 특정차량(S)에게 실시간 경고할 수 있는 경고부(570)로 구성되는 것을 특징으로 한다.In addition, the present invention, the central control center 500 is to determine the traffic situation of the road in real time and to manage and control the traffic flow, the integrated control server 510 for receiving and processing the traffic situation as real-time image information And a database 520 for collecting and storing the data processed by the integrated control server 510, receiving image information on a real-time traffic situation, and transmitting and receiving data for transmitting a control command to the traffic information collecting device A. FIG. A decoding unit 540 which decodes encoded image information by processing in high quality through a big data viewport prediction technique, an output unit 550 which displays the decoded image information on a screen, and CCTV control unit 560 for generating a control command to be transmitted through the data transmission and reception unit 530, and a high-definition image of a specific vehicle (S) that is likely to violate the road traffic law recognized by the output unit 550 Based on the information characterized by comprising a warning unit 570 for real-time alert to the specified vehicle (S).

삭제delete

그리고 본 발명은, 상기 카메라부(110)에 내장되어 CCTV 컨트롤부(560)의 제어명령을 수신하여 상기 제어명령에 따라 카메라부(110)의 각도 조절, 영상 확대, 영상 정지를 포함하는 일련의 명령들을 수행할 수 있도록 구비되는 제어명령수신부(111)를 구성하는 것을 특징으로 한다.The present invention includes a series of built-in camera unit 110 to receive a control command from the CCTV control unit 560, and according to the control command to adjust the angle of the camera unit 110, image magnification, image stop. It characterized in that the configuration of the control command receiving unit 111 provided to perform the commands.

삭제delete

그리고 본 발명은, 차량번호 인식을 통한 빅데이터 예측뷰포트 다중해상도 영상전송 기반의 스마트 교통관제 방법에 있어서, 동영상으로부터 영상입력정보를 수집하는 단계(S110); 상기 수집한 영상입력정보를 타일화하고, 빅데이터 기반 알고리즘을 통해 도로교통법 위반차량 영상정보와 현재차량 영상정보를 비교하여 도로교통법 위반가능성이 높은 특정차량(S)에 대한 예측뷰포트(27)를 설정하는 빅데이터 분석 단계(S120); 상기 빅데이터 분석 단계(S120)에서 설정한 예측뷰포트(27)를 전송받아 상기 설정한 예측뷰포트(27)를 우선순위 뷰포트로(12)로 고화질 처리하고 나머지 뷰포트(13)를 저화질 처리하는 다중해상도 처리 단계(130); 및, 상기 다중해상도 처리 단계(S130)를 통해 처리된 영상정보를 중앙관제센터(500)에서 수신하여 디코딩하고 출력하는 단계(S150)를 포함하되, 상기 빅데이터 분석 단계(S120)는, 현재차량 영상정보를 일정한 프레임 단위인 타일로 구분 설정하는 타일화 과정(S121)과, 상기 타일화 과정(S121)에서 설정한 타일을 바탕으로 빅데이터 기반 알고리즘을 통해 메모리부(120)에 저장된 도로교통법 위반차량 영상정보(10)와 현재차량 영상정보(11)를 비교하여, 비교한 유사도값(28)이 설정한 임계확률값(T) 이상인지 판단하는 뷰포트분석 과정(S122)과, 상기 뷰포트분석 과정(S122)에서 판단한 임계확률값(T)에 대한 뷰포트 설정여부를 통해 예측뷰포트(27)를 부여하여 정렬하는 예측뷰포트 설정 과정(S123)으로 구성되고, 상기 다중해상도 처리 단계(S130)는, 상기 뷰포트분석 과정(S122)에서 정렬한 예측뷰포트(27)를 실시간으로 전송받아 현재대역폭을 기준으로 대역폭의 허용범위를 초과하는지 판단하는 대역폭 초과 판단 과정(S131)과, 상기 대역폭 초과 판단 과정(S131)에서 판단한 현재대역폭이 허용범위를 초과하는 경우, 상기 예측뷰포트(27)를 우선순위 뷰포트(12)로 고화질 처리하고 나머지 뷰포트(13)를 저화질 처리하는 해상도 설정 과정(S132)과, 상기 해상도 설정 과정(S132)에서 뷰포트별로 처리한 화질들의 융합을 통해 영상이미지데이터를 렌더링하여 생성하는 이미지렌더링 과정(S133)과, 상기 이미지렌더링 과정(S133)에서 생성된 영상데이터를 전송받아 인코딩하는 과정(S134)과, 상기 인코딩하는 과정(S134)에서 인코딩한 고화질영상정보를 중앙관제센터로 실시간 무선 선반입 전송하는 과정(S135)으로 구성되며, 상기 다중해상도 처리 단계(S130) 이후에, 차량번호 인식 단계(S140)를 더 구비하고, 상기 차량번호 인식 단계(S140)는 다중해상도처리부(300)로부터 수신한 뷰포트의 현재차량 영상정보(11)에서 에지 검출과 라인 전파 과정을 통해 번호판영역을 추출하는 과정(S141)과, 상기 번호판영역 추출 과정(S141)에서 추출한 번호판 영역에 블롭 검출을 통해 문자영역을 제외한 잡영을 제거함과 동시에 레이블링하여 숫자와 문자영역을 분리하는 과정(S142)과, 상기 숫자와 문자영역을 분리하는 과정(S142)을 통해 분리된 문자영역을 기반으로 역전파 신경망 알고리즘을 활용하여 문자인식을 수행하는 과정(S143)으로 구성되는 것을 특징으로 한다.The present invention provides a smart traffic control method based on big data prediction viewport multi-resolution image transmission through vehicle number recognition, comprising: collecting image input information from a video (S110); Tile the collected image input information and compare the road traffic law violation vehicle image information with the current vehicle image information through a big data based algorithm to predict the viewport 27 for a specific vehicle S having a high possibility of violation of the road traffic law. Big data analysis step (S120) to set; Multi-resolution for receiving the prediction viewport 27 set in the big data analysis step (S120) and processing the set prediction viewport 27 as the priority viewport 12 as a high quality image and processing the remaining viewports 13 as low quality. Processing step 130; And receiving, decoding, and outputting the image information processed through the multi-resolution processing step (S130) at the central control center 500 (S150), wherein the big data analysis step (S120) includes the current vehicle. Violation of the road traffic law stored in the memory unit 120 through the big data-based algorithm based on the tiled process (S121) and the tile set in the tiled process (S121). A viewport analysis process (S122) for comparing the vehicle image information 10 and the current vehicle image information 11, and determining whether the compared similarity value 28 is equal to or greater than a set threshold probability value T, and the viewport analysis process ( It is composed of a prediction viewport setting process (S123) of granting and arranging the prediction viewport (27) by setting the viewport for the threshold probability value (T) determined in step S122, and the multi-resolution processing step (S130), the viewport analysis Course (S A bandwidth exceeding determination step (S131) of judging whether the prediction viewport 27 arranged in step 122 is exceeded in real time on the basis of the current bandwidth, and the current bandwidth determined in the bandwidth exceeding determination step (S131). In the case of exceeding the allowable range, the resolution setting process (S132) of performing high quality processing on the prediction viewport 27 as the priority viewport 12 and lowering the remaining viewports 13, and in the resolution setting process (S132). An image rendering process (S133) for rendering and generating image image data through fusion of the image quality processed for each viewport, a process of receiving and encoding the image data generated in the image rendering process (S133) and the encoding. It is composed of the step (S135) of real-time wireless preloading and transmitting the high-definition video information encoded in the step (S134) to the central control center, the multi-resolution After the step S130, the vehicle number recognition step S140 is further provided, and the vehicle number recognition step S140 includes edge detection in the current vehicle image information 11 of the viewport received from the multi-resolution processor 300. Extracting the license plate area through the line propagation process (S141), and removing the miscellaneous except the character area by blob detection on the license plate area extracted in the license plate area extraction process (S141) and labeling the numbers and the character areas. And a character recognition process using a backpropagation neural network algorithm based on the character region separated through the process of separating (S142) and the process of separating the number and the character region (S142). It is done.

삭제delete

또한 본 발명은, 상기 문자인식 수행하는 과정(S143) 이후에, 제한된 볼츠만 머신(RBM)으로 선행학습을 실시하여 특징 벡터를 추출하는 과정(S144)과, 딥러닝모델 심층신뢰신경망(DBN) 알고리즘을 통한 미세조정을 거쳐 최종문자인식을 수행하는 과정(S145)을 더 구비하는 것을 특징으로 한다.In addition, the present invention, after the process of performing the character recognition (S143), the process of extracting the feature vector by performing a prior learning with a limited Boltzmann machine (RBM) (S144), and deep learning model deep neural network (DBN) algorithm Characterized in that further comprising the step (S145) for performing the final character recognition through a fine adjustment through.

삭제delete

상기한 본 발명에 의하면 빅데이터 기반 알고리즘으로 차량 영상정보를 분석처리하여 끊임없이 누적되는 도로교통법 위반차량의 영상데이터 사례들을 통해 딥러닝 자가학습을 활용할 수 있어 오인식률을 현저하게 저감시킬 수 있다.According to the present invention as described above, deep learning self-learning can be utilized through analysis of vehicle image information using big data-based algorithms through image data of constantly accumulating road traffic violation vehicles, thereby significantly reducing false recognition rates.

또한 무선 대역폭의 허용범위를 설정하여 고해상도와 저해상도 영상처리를 수행하는 팩터를 통해 현재 실시간 대역폭을 기준으로 유동적으로 영상 화질을 결정하여 최적화된 트래픽 양으로 차량 영상정보를 전송할 수 있다.In addition, by setting the allowable range of the wireless bandwidth, the image quality can be flexibly determined based on the current real-time bandwidth through the factor of performing high resolution and low resolution image processing, and the vehicle image information can be transmitted with the optimized traffic amount.

그리고 영상정보의 타열별로 예측뷰포트를 설정하여 정렬하는 방식과 일정한 주기로 중앙관제센터의 데이터베이스에 저장된 신규 정보를 교통수집장치에서 업데이트하여 메모리부로 저장하여 해당 메모리부의 백 데이터(Back Data) 차량 영상정보와 직접 비교 분석하는 방식을 통해 연산처리에 소요되는 시간을 최소화시킴으로써, 전송지연을 최소화 할 수 있다.In addition, the forecasting viewport is set and sorted according to the other columns of the image information, and the new information stored in the database of the central control center is updated at the traffic collecting device at a regular interval and stored in the memory unit. By directly comparing and analyzing, the transmission delay can be minimized by minimizing the time required for arithmetic processing.

도 1은 본 발명의 의한 교통정보 수집장치와 중앙관제센터의 개략적 구성도이다.
도 2는 본 발명의 일 실시예에 따른 하우징부가 구비된 교통정보 수집장치의 실시 예시도이다.
도 3은 본 발명의 일 실시예에 따른 보안등이 구비된 교통정보 수집장치의 실시 예시도이다.
도 4는 본 발명의 일 실시예에 따른 카메라부가 촬영한 현재차량 영상정보의 개략적 실시 예시도이다.
도 5 내지 도 12b는 본 본 발명의 일 실시예에 따른 빅데이터분석부 구성요소들의 작용을 나타낸 교통정보 수집장치의 실시 예시도이다.
도 13 내지 도 17은 본 발명의 일 실시예에 따른 다중해상도처리부 구성요소들의 작용을 나타낸 교통정보 수집장치의 실시 예시도이다.
도 18 내지 도 28b는 본 발명의 일 실시예에 따른 차량번호인식부를 포함한 교통정보 수집장치의 실시 예시도이다.
도 29는 본 발명의 일 실시예에 따른 출력부의 실시 예시도이다.
도 30a는 본 발명의 일 실시예에 따른 경고부의 실시 예시도이다.
도 30b은 본 발명의 일 실시예에 따른 통합형 교통정보 수집시스템의 실시 예시도이다.
도 31 내지 도 35는 본 발명의 일 실시예에 따른 스마트 교통관제 방법의 실시 예시도이다.
1 is a schematic configuration diagram of a traffic information collecting device and a central control center according to the present invention.
2 is an exemplary view illustrating a traffic information collecting device having a housing unit according to an embodiment of the present invention.
3 is an exemplary view illustrating a traffic information collecting device equipped with a security lamp according to an exemplary embodiment of the present invention.
4 is a schematic exemplary view of image information of a current vehicle captured by a camera unit according to an exemplary embodiment of the present invention.
5 to 12b are exemplary views showing a traffic information collecting device showing the operation of the big data analyzer components according to an embodiment of the present invention.
13 to 17 are exemplary views illustrating a traffic information collecting device showing the operation of the multi-resolution processor according to an embodiment of the present invention.
18 to 28b are exemplary views illustrating a traffic information collecting device including a vehicle number recognition unit according to an embodiment of the present invention.
29 is an exemplary view of an output unit according to an embodiment of the present invention.
30A is an exemplary view of a warning unit according to an embodiment of the present invention.
30B is an exemplary view of an integrated traffic information collection system according to an embodiment of the present invention.
31 to 35 are exemplary views illustrating a smart traffic control method according to an embodiment of the present invention.

이하 본 발명의 실시를 위한 구체적인 내용을 첨부한 도면을 참조하여 더욱 상세하게 설명한다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명은 교통정보 수집장치로부터 촬영한 차량 영상정보와 중앙관제센터(500)에 저장된 빅데이터 도로교통법 위반차량 영상정보를 비교하여 위반가능성이 높은 차량 영상정보가 설정된 임계확률값(T)을 초과하면 그 차량 영상정보를 중심으로 일정한 영역을 예측뷰포트(27)로 설정하여 고화질로 우선전송하는 것을 통해 대역폭 트래픽 양을 줄이고 전송지연속도를 최소화할 수 있는 차량번호 인식을 통한 빅데이터 예측뷰포트 다중해상도 영상전송 기반의 교통정보 수집장치에 관한 것으로서 도 1을 참조하면, 교통정보 수집장치(A)는 카메라부(110), 메모리(120), 제 1 데이터송수신부(130), 하우징부(140), 보안등(150), CPU(160), 빅데이터분석부(200), 다중해상도처리부(300), 차량번호인식부(400)를 포함하여 이루어진다.The present invention compares the vehicle image information photographed from the traffic information collecting device and the vehicle image information of the big data road traffic law violation stored in the central control center 500, when the vehicle image information having a high probability of violation exceeds the set threshold probability value T. Big data prediction viewport multi-resolution image through vehicle number recognition, which can reduce the amount of bandwidth traffic and minimize the transmission delay speed by setting a certain area as the prediction viewport 27 and transmitting it in high quality first based on the vehicle image information Referring to FIG. 1 as a transmission-based traffic information collecting device, the traffic information collecting device A includes a camera unit 110, a memory 120, a first data transmitting and receiving unit 130, a housing unit 140, Security 150, CPU 160, big data analysis unit 200, a multi-resolution processing unit 300, the vehicle number recognition unit 400 is made.

교통정보 수집장치(A)는 일반적으로 존재하는 차량감시용 CCTV 장치로서, 동영상으로부터 차량번호판 검출 및 차량번호 인식을 하기 위한 영상식 카메라, 검지 센서(Loop, Laser, Radar), 내장형 컴퓨터, 통신 모듈을 포함하여 실시간 차량 영상정보를 수집하고, 후술할 빅데이터분석부(200)와 다중해상도처리부(300)에서 영상분석 및 처리를 한 후, 처리된 영상정보를 중앙관제센터(500)로 전송하는 장치이다.The traffic information collection device (A) is a CCTV device for monitoring a vehicle, which is generally present. Image cameras, detection sensors (Loop, Laser, Radar), built-in computers, communication modules for detecting license plates and vehicle number recognition from moving images Collect real-time vehicle image information, including, and after the image analysis and processing in the big data analysis unit 200 and the multi-resolution processing unit 300 to be described later, and transmits the processed image information to the central control center 500 Device.

상기 교통정보 수집장치(A)는 하나의 수집장치로 구현되는 것이 아니라 복수의 수집장치들로 구현되어 후술할 통합형 교통정보 수집시스템(600)의 주요 구성요소를 구성한다.The traffic information collecting device (A) is not implemented as a single collection device but implemented as a plurality of collecting devices to constitute a main component of the integrated traffic information collecting system 600 which will be described later.

카메라부(110)는 도로 위의 차량들을 촬영하는 고해상도 CCTV 영상촬영장치 장치로서 360도 회전이 가능하고, 원격으로 상기 카메라부(110)를 상하(틸트) 좌우(팬)로 움직일 수 있는 팬틸트형 카메라 장치로서, 중앙관제센터(500)에서 조작이 가능하도록 제어 명령을 수신할 수 있는 제어명령 수신부(111)를 포함하여 구성된다.The camera unit 110 is a high-resolution CCTV image photographing apparatus for photographing vehicles on the road, which can be rotated 360 degrees, and pan tilt to move the camera 110 up and down (tilt) left and right (pan) remotely. Type camera device, comprising a control command receiving unit 111 that can receive a control command to enable the operation in the central control center (500).

상기 카메라부(110)는 바람직하게는 360도 연속회전을 위한 HD CABLE SLIP RING을 탑재하여 BLDC MMOTOR을 적용한 정확한 가변속도제어 및 위치제어가 가능하고, 고해상도 영상수집을 위한 MEGA PIXEL(Full HD) 카메라로 구성되며, 실시간 촬영하는 현재차량 영상정보(11)를 후술할 빅데이터분석부(200)로 전송한다.The camera unit 110 is preferably equipped with a HD CABLE SLIP RING for 360-degree continuous rotation to enable accurate variable speed control and position control by applying a BLDC MMOTOR, MEGA PIXEL (Full HD) camera for high resolution image acquisition It consists of, and transmits the current vehicle image information 11 to be taken in real time to the big data analysis unit 200 to be described later.

도 4를 참조하면, 현재차량 영상정보(11)는 상기 카메라부(110)가 실시간으로 촬영하고 있는 현재차량에 대한 영상정보이다.Referring to FIG. 4, the current vehicle image information 11 is image information of the current vehicle that the camera unit 110 is photographing in real time.

메모리부(120)는 통상적으로 존재하는 교통 CCTV 내장형 컴퓨터의 데이터 저장장치로서, 상기 교통정보 수집장치(A)가 수행하는 컴퓨터 코드 입출력, 소프트웨어 운영체제, 프로그램, 어플리케이션, 사용자 인터페이스 기능, 프로세서 기능과 같은 다양한 디바이스 펌웨어를 저장할 수 있다.The memory unit 120 is a data storage device of a conventional traffic CCTV embedded computer, such as a computer code input / output, a software operating system, a program, an application, a user interface function, a processor function, etc. which the traffic information collecting device A performs. Various device firmware can be stored.

상기 메모리부(120)는 후술할 제 1 데이터송수신부(130)를 통해 중앙관제센터(500)의 데이터베이스(520)에 분류 저장된 도로교통법 위반차량 영상정보(10)와 상기 데이터베이스(520)에 추가되는 새로운 영상정보를 주기적으로 업데이트하여 미리 다운로드 받아 저장할 수 있고, 상기 교통정보 수집장치(A)에 탑재된 메모리 외에도 외장형 메모리와 연동하여 사용이 가능하다.The memory unit 120 is added to the road traffic law violation vehicle image information 10 stored in the database 520 of the central control center 500 through the first data transmission and reception unit 130 to be described later and the database 520. The new image information may be periodically updated to be downloaded and stored in advance, and in addition to the memory mounted in the traffic information collecting device A, it may be used in conjunction with an external memory.

상기 메모리부(120)는 상술한 바와 같이 업데이트하여 다운로드 받은 새 영상정보를 누적하여 백 데이터(Back Data)를 구성하고, 기존의 영상정보 데이터를 기반으로 끊임없이 자가학습할 수 있는 DBN 시스템을 형성할 수 있다.As described above, the memory unit 120 accumulates new image information downloaded and updated to form back data, and forms a DBN system capable of continuously self-learning based on existing image information data. Can be.

또한, 상기 메모리부(120)는 저장된 도로교통법 위반차량 영상정보(10)를 후술할 빅데이터분석부(200)에 제공하여 실시간으로 현재차량 영상정보(11)와 비교 분석할 수 있도록 구성된다.In addition, the memory unit 120 is configured to provide the stored road traffic law violation vehicle image information 10 to the big data analysis unit 200, which will be described later, to compare and analyze the current vehicle image information 11 in real time.

도 1을 참조하면, 제 1 데이터송수신부(130)는 제 1 무선통신모듈(131)을 포함한다.Referring to FIG. 1, the first data transmitter / receiver 130 includes a first wireless communication module 131.

제 1 무선통신모듈(131)은 중앙관제센터(500)의 데이터송신부(530)와 무선으로 통신할 수 있는 통신모듈로서, 대역폭의 허용범위 내에서 상기 교통정보 수집장치(A)의 영상정보를 무선으로 실시간 전송하고, 중앙관제센터(500)의 데이터베이스(520)에 추가되는 새로운 영상정보를 주기적으로 전송받을 수 있다.The first wireless communication module 131 is a communication module that can wirelessly communicate with the data transmitter 530 of the central control center 500, and the image information of the traffic information collecting device (A) within the allowable bandwidth Real-time transmission wirelessly, and may periodically receive new image information added to the database 520 of the central control center 500.

상기 대역폭의 허용범위를 기준으로 후술할 다중해상도처리부(300)에서 대역폭판단 알고리즘을 이용하여 현재차량 영상정보(11) 전체를 고화질로 전송할지, 정렬된 우선순위 뷰포트(12)만 고화질로 우선전송할지를 판단한다.Based on the allowable range of the bandwidth, the multi-resolution processing unit 300 to be described later transmits the entire current vehicle image information 11 in high quality using a bandwidth determination algorithm, or preferentially transmits only the ordered priority viewport 12 in high quality. Determine whether or not.

상기 제 1 무선통신모듈(131)은 바람직하게는 5G GiGa-Wifi를 통해 구현되는 것이 좋지만, 이에 한정되지 않고 무선으로 데이터를 송수신할 수 있는 모든 통신수단을 포함한다. The first wireless communication module 131 is preferably implemented through 5G GiGa-Wifi, but is not limited thereto and includes all communication means capable of transmitting and receiving data wirelessly.

도 2를 참조하면, 상기 하우징부(140)는 교통정보 수집장치(A)의 외형부를 구성하고, 진동, 분진, 유독가스, 고온에 강하도록 실외용으로 견고한 내구성을 지닌 전천후형 케이스 장치이다.Referring to FIG. 2, the housing part 140 constitutes an outer portion of the traffic information collecting device A, and is an all-weather case device having a durable durability for outdoor use to be resistant to vibration, dust, toxic gas, and high temperature.

상기 하우징부(140)는 고온 및 방사열로부터 카메라부(110)를 보호하도록 설계되어 내부 고정대에 팬, 히터, 온도조절 바이메탈이 장착되며, 하우징부(140) 하부에는 팬틸트 및 각도 조정대 등 기타 브라켓이 장착될 수 있도록 구성된다.The housing unit 140 is designed to protect the camera unit 110 from high temperature and radiant heat so that a fan, a heater, and a temperature control bimetal are mounted on an inner holder, and other brackets such as a pan tilt and an angle adjuster are disposed below the housing unit 140. It is configured to be mounted.

상기 하우징부(140)는 바람직하게는 스테인리스강의 재질로 제작되고, 컴프레셔 방식, 전기 방식, 고압의 에어 분사 방식 등 다양한 기상 변화에 대응할 수 있도록 구성되며 한정한 방식에 제한되지 않는다.The housing 140 is preferably made of stainless steel, and is configured to cope with various weather changes such as a compressor method, an electric method, and a high pressure air injection method, and is not limited thereto.

도 3을 참조하면, 보안등(150)은 상기 카메라부(110)의 양 외측에 한 쌍으로 구비되어 야간에 카메라부(110)의 시야 연동에 따른 조명을 제공하는 장치이다.Referring to FIG. 3, a security lamp 150 is provided in a pair on both outer sides of the camera unit 110 to provide illumination according to the interlocking view of the camera unit 110 at night.

상기 보안등(150)은 고휘도, 고신뢰성 파워 LED를 기반으로 주변 밝기에 감응하여 조명을 점등 및 소등할 수 있는 기능을 가지며, 바람직하게는 열발산 알루미늄 냉각핀 설계를 통해 우수한 냉각효과를 제공할 수 있다.The security light 150 has a function to turn on and off the lights in response to the ambient brightness based on high brightness, high reliability power LED, preferably provide excellent cooling effect through the heat dissipation aluminum cooling fin design. Can be.

상기 보안등(150)은 후술할 중앙관제센터(500)의 경고부(570)로부터 도로교통법 위반가능성이 높은 특정차량(S)에 대한 경고신호를 전송받아 상기 특정차량(S)이 인식할 수 있도록 점멸할 수 있다.The security light 150 may receive a warning signal for a specific vehicle S having a high possibility of violating a road traffic law from the warning unit 570 of the central control center 500, which will be described later, and recognize the specific vehicle S. Can be blinked.

CPU(160)는 상기 교통정보 수집장치(A)에 내장된 중앙처리장치로서 도 1에서 도시된 바와 같이, 후술할 빅데이터분석부(200), 다중해상도처리부(300), 차량번호인식부(400)의 데이터처리작용을 연산하고 제어할 수 있다.CPU 160 is a central processing unit embedded in the traffic information collecting device (A), as shown in Figure 1, a big data analysis unit 200, a multi-resolution processing unit 300, a vehicle number recognition unit (to be described later) The data processing operation of 400 can be calculated and controlled.

빅데이터분석부(200)는 상기 카메라부(110)에서 촬영된 현재차량 영상정보(11)를 바탕으로 빅데이터 기반 알고리즘을 통해 상기 메모리부(120)에 저장된 도로교통법 위반차량 영상정보(10)와 현재차량 영상정보(11)를 비교하여, 비교한 차량 영상정보값에 따른 특정차량(S)에 대응되는 도로교통법 위반차량정보(R)의 유사도값(28)이 설정한 임계확률값(T) 이상이면 예측뷰포트(27)를 부여하여 정렬하는 장치로서, 도 1에서 도시된 바와 같이, 타일설정부(210), 뷰포트분석부(220), 뷰포트설정부(230)로 구성된다.The big data analysis unit 200 may store the road traffic law violation vehicle image information 10 stored in the memory unit 120 through a big data based algorithm based on the current vehicle image information 11 photographed by the camera unit 110. Compares the current vehicle image information 11 with the threshold probability value T set by the similarity value 28 of the road traffic law violation vehicle information R corresponding to the specific vehicle S according to the compared vehicle image information value. As described above, as the apparatus for assigning and arranging the prediction viewport 27, the apparatus includes a tile setting unit 210, a viewport analysis unit 220, and a viewport setting unit 230 as illustrated in FIG. 1.

타일설정부(210)는 카메라부(110)로부터 현재 차량영상정보(11)를 실시간 전송받아 도 5에서 도시된 바와 같이, 일정한 프레임 단위인 타일(16)로 구분하여 설정한다.The tile setting unit 210 receives the current vehicle image information 11 from the camera unit 110 in real time and divides and sets the tile 16 into tiles 16, which are fixed frame units, as shown in FIG. 5.

상기 타일(16)의 범위, 개수, 길이 등의 제반설정사항은 중앙관제센터(500)에서 도 5에서 도시된 바와 같은 아이콘(17)들을 이용하여 제어할 수 있다.Various settings such as the range, number, and length of the tile 16 may be controlled using the icons 17 as shown in FIG. 5 in the central control center 500.

도 6을 참조하면, 뷰포트분석부(220)는 상기 타일설정부(210)에서 설정한 타일을 바탕으로 빅데이터 기반 알고리즘을 통해 메모리부(120)에 저장된 도로교통법 위반차량 영상정보(10)와 현재차량 영상정보(11)를 비교하여, 비교한 차량 영상정보의 후술할 유사도값(28)이 설정한 임계확률값 이상이면 예측뷰포트(27)를 부여하여 정렬하는 장치로서, 빅데이터 알고리즘분석부(221)를 포함하고, 상기 빅데이터 알고리즘분석부(221)는 영상인식부(222), 영상검색부(223), 병렬처리부(224), 유사도분석부(225), 임계확률값분석부(226)로 구성된다.Referring to FIG. 6, the viewport analyzer 220 may compare the road traffic law violation vehicle image information 10 stored in the memory unit 120 through a big data based algorithm based on the tiles set by the tile setting unit 210. Comparing the current vehicle image information 11, if the similarity value 28 to be described later of the compared vehicle image information is equal to or more than the threshold probability value set, the prediction viewport 27 is arranged to arrange the device, big data algorithm analysis unit ( 221, wherein the big data algorithm analysis unit 221 includes an image recognition unit 222, an image retrieval unit 223, a parallel processing unit 224, a similarity analysis unit 225, and a critical probability value analysis unit 226. It consists of.

영상인식부(222)는 상기 타일설정부(210)에서 설정된 타일(16) 영상정보를 기반으로 지도교사학습모델(18) 또는 비교사학습모델(19)를 통하여 영상을 인식 및 분류하는 기능을 수행한다.The image recognition unit 222 recognizes and classifies an image through the teaching teacher learning model 18 or the non-teacher learning model 19 based on the tile 16 image information set by the tile setting unit 210. To perform.

도 7a을 참조하면, 지도교사학습모델(18)은 상기 설정된 타일(16) 영상정보의 Color 히스토그램, SIFT, HOG와 같은 다양한 특징들을 추출하여 상기 특징들을 기반으로 SVM, 신경망, GMM 등의 교사학습 알고리즘들을 통해 영상을 인식 및 분류한다.Referring to FIG. 7A, the tutor learning model 18 extracts various features such as color histogram, SIFT, and HOG of the set tile 16 image information, and based on the features, teacher learning such as SVM, neural network, and GMM. The algorithms recognize and classify the images.

도 7b를 참조하면, 비교사학습모델(19)은 딥러닝 기술로 객체를 인식 및 분류하는 학습모델로서, 상기 타일설정부(210)에서 설정된 타일(16) 영상정보인 다수의 레이어(h)들로 구성된 multi-layer 네트워크이다. Referring to FIG. 7B, the comparative history learning model 19 is a learning model for recognizing and classifying an object using a deep learning technology. The plurality of layers h which are image information of the tile 16 set by the tile setting unit 210 are shown. It's a multi-layer network.

상기 비교사학습모델(19)의 상위 레이어들(h1)은 이전 레이어(h2)들의 출력을 입력받고 상위레벨의 특징(W1)들을 생성하여 상기 타일(16) 영상정보를 인식 및 분류한다.The upper layers h 1 of the comparative learning model 19 receive the output of the previous layer h 2 and generate the features W 1 of the upper level to recognize and classify the image information of the tile 16. do.

영상검색부(223)는 상기 영상인식부(222)에서 인식된 영상정보를 바탕으로 메모리부(120)에 분류 저장된 도로교통법 위반차량 영상정보(10)를 검색하는 대용량 영상 콘텐츠 검색 장치이다.The image retrieval unit 223 is a large-capacity image content retrieval device for retrieving the road traffic law violation vehicle image information 10 classified and stored in the memory unit 120 based on the image information recognized by the image recognition unit 222.

상기 영상검색부(223)는 메모리부(120)에 분류 저장된 도로교통법 위반차량 영상정보(10)들 중 현재차량 영상정보(11)와 유사한 영상정보를 검색할 수 있는 장치로서 후술할 유사도분석부(225)에서 설정할 임계확률값(T)에 대한 샘플이미지 후보군(20)을 추출한다.The image retrieval unit 223 is a device capable of retrieving image information similar to the current vehicle image information 11 among the road traffic law violation vehicle image information 10 classified and stored in the memory unit 120. The sample image candidate group 20 for the threshold probability value T to be set at 225 is extracted.

샘플이미지 후보군(20)은 상기 메모리부(120)에 분류 저장된 도로교통법 위반차량 영상정보(10)들 중 현재차량 영상정보(11)와 가장 유사한 영상정보 샘플이다.The sample image candidate group 20 is a sample of image information most similar to the current vehicle image information 11 among the road traffic law violation vehicle image information 10 classified and stored in the memory unit 120.

상기 샘플이미지 후보군(20)을 선정하기 위한 방식으로 유사이미지 검색기술(21)을 활용한다.Similar image search technology 21 is used as a method for selecting the sample image candidate group 20.

도 8를 참조하면, 유사이미지 검색기술(21)은 상기 현재차량 영상정보(11)와 비슷한 이미지를 메모리부(120)에서 검색하는 기술로, 특징량 벡터 클러스터링을 기반으로 병렬처리부(224)를 활용하여 고속 유사 벡터 검색기법을 통해 샘플이미지 후보군(20)를 검출한다.Referring to FIG. 8, the similar image retrieval technology 21 is a technique for retrieving an image similar to the current vehicle image information 11 from the memory unit 120. The parallel image retrieval unit 224 may be configured based on feature vector clustering. The sample image candidate group 20 is detected through a fast pseudo-vector search technique.

도 9a를 참조하면, 병렬처리부(224)는 대규모 영상 검색을 위한 시스템에서 다양한 응용프로그램에 대해 개방적이고 확장 가능한 라이브러리를 제공하는 프레임워크 장치로서, 특징추출부(224a), 유닛모델학습부(224b), 통계학적기계학습부(224c)로 구성된다.Referring to FIG. 9A, the parallel processor 224 is a framework device that provides an open and extensible library for various applications in a system for large-scale image retrieval. The feature extractor 224a and the unit model learner 224b. ), The statistical machine learning section (224c).

상기 병렬처리부(224)는 메모리부(120)에 저장된 영상 이미지들을 특징량 벡터 클러스터링 기법을 통해 분류하여 특징추출, 유닛모델학습, 통계학적 기계학습을 통해 유효이미지(24)를 산출한다.The parallel processor 224 classifies the image images stored in the memory unit 120 through the feature vector clustering technique to calculate the effective image 24 through feature extraction, unit model learning, and statistical machine learning.

도 9a을 참조하면, 특징추출부(224a)는 상기 영상검색부(223)로부터 현재차량영상정보(11)를 전송받아 차량, 인공시설물, 자연물, 도로차선, 상대적 위치정보 등과 같은 객체정보를 바탕으로 다수의 특징을 설정한다.Referring to FIG. 9A, the feature extractor 224a receives the current vehicle image information 11 from the image searcher 223 based on object information such as a vehicle, an artificial facility, a natural object, a road lane, and relative location information. Set a number of features.

도 9b를 참조하면, 상기 특징추출부(224a)는 영상인식부(222)에서 지도교사학습모델(18)을 통해 산출한 타일(16)의 영상정보(학습용 데이터)를 바탕으로 객체정보를 Color 히스토그램, Color 모멘트, Color 코렐로그램 등의 전역적 특징과 스케일불변 특징 변환, 로컬 이진화 패턴, 기울기 히스토그램 등의 지역적 특징들을 활용하여 SVM(Support Vector Machine), GMM(Gaussian Mixutre Model) 등의 학습 분류기를 통해 유닛모델학습부(224b)로 전송한다.Referring to FIG. 9B, the feature extractor 224a displays the object information based on the image information (learning data) of the tile 16 calculated by the image recognition unit 222 through the teaching teacher learning model 18. Learning classifiers such as SVM (Support Vector Machine) and GMM (Gaussian Mixutre Model) using global features such as histogram, color moment, color correlogram, and local features such as scale-invariant feature conversion, local binarization pattern, gradient histogram, etc. Through the unit model learning unit 224b.

유닛모델학습부(224b)는 설정특징들을 기반으로 유닛모델(22)들을 구성하고, 상기 유닛모델(22)들을 활용하여 핵심적인 아웃라인(Core-Outline)을 구축하여 베이스모델(23)을 설정한다.The unit model learning unit 224b configures the unit models 22 based on the setting features, and sets the base model 23 by constructing a core outline using the unit models 22. do.

베이스모델(23)은 상기 현재차량 영상정보(11)의 핵심적인 설정특징들을 바탕으로 객체들의 상대적인 위치, 크기, 범위 등을 고려하여 각 요소별 가중치값을 산입한 아웃라인 앙상블 모델이다.The base model 23 is an outline ensemble model in which weight values for each element are calculated in consideration of the relative position, size, range, etc. of objects based on key setting characteristics of the current vehicle image information 11.

도 9c를 참조하면, 상기 유닛모델학습부(224b)는 유닛모델 풀을 생성하여 상기 생성된 유닛모델 풀에 핵심 아웃라인 정보를 바탕으로 현재차량 영상정보(11)를 기준이미지로 설정하며, 상기 기준이미지에 가장 유사한 유닛모델(H)를 설정하고, 앙상블 분류기를 통하여 최적의 베이스모델(23)을 검출한다.Referring to FIG. 9C, the unit model learning unit 224b generates a unit model pool and sets the current vehicle image information 11 as a reference image based on the core outline information in the generated unit model pool. The unit model H most similar to the reference image is set, and the optimal base model 23 is detected through the ensemble classifier.

도 9a를 참조하면, 통계학적 기계학습부(224c)는 상기 베이스모델(23)을 기반으로 메모리부(120)에서 상기 베이스모델(23)에 부합하는 영상 이미지를 유효이미지(24)로 설정하여 다수의 유효이미지(24)들을 추출한다.Referring to FIG. 9A, the statistical machine learning unit 224c sets an image image corresponding to the base model 23 in the memory unit 120 as an effective image 24 based on the base model 23. Multiple valid images 24 are extracted.

유사도분석부(225)는 상기 추출한 다수의 유효이미지(24)들을 바탕으로 샘플이미지 후보군(20)을 산출하고, 후술할 유사도값(28) 판단을 위한 임계확률값(T)을 설정하는 장치로서, 퓨즈리듀서(225a)를 포함한다.The similarity analyzer 225 calculates a sample image candidate group 20 based on the extracted plurality of valid images 24 and sets a threshold probability value T for determining the similarity value 28 to be described later. And a fuse reducer 225a.

퓨즈리듀서(225a)는 상기 통계학적 기계학습부(224c)에서 생성된 다수의 유효이미지(24)들의 잡영, 음영, 오류 등 오인식에 대한 에러를 추출하여 제거하는 장치로서, 후술할 문자영역 검출부(420)의 블롭분석부(423)에서 사용하는 오류 제거 방식을 통하여 샘플이미지 후보군(20)을 산출한다.The fuse reducer 225a is a device for extracting and removing an error regarding misrecognition, shadowing, and error of a plurality of valid images 24 generated by the statistical machine learning unit 224c. The sample image candidate group 20 is calculated through an error elimination method used by the blob analysis unit 423 of 420.

상기 블롭분석부(423)에서 사용하는 오류 제거 방식은 후술하여 상세하게 설명하도록 한다.An error elimination method used by the blob analysis unit 423 will be described in detail later.

임계확률값(T)은 상기 유사도분석부(225)에 설정된 초기임계값으로, 통상적인 누적 유사도 측정을 이용한 자동임계값 결정 기법에서 사용하는 계층적 매칭 기법을 기반으로 설정되며, 상기 임계확률값(T)은 다양한 설정 방식, 가중치 요소, 수치화단계, 주관적 인식도 등에 의해 달라질 수 있으며, 중앙관제센터(500)의 관리자에 의해 그 수치를 입력할 수 있다.The threshold probability value T is an initial threshold value set in the similarity analysis unit 225 and is set based on a hierarchical matching technique used in an automatic threshold value determination method using a conventional cumulative similarity measure. The threshold probability value T ) May vary according to various setting methods, weighting factors, digitization stages, subjective perception, etc., and the numerical values may be input by an administrator of the central control center 500.

즉, 상기 임계확률값(T)은 후술할 유사도값(28)의 판단 기준이되는 수치로서, 상술한 바와 같이 중앙관제센터(500)의 관리자가 자유자재로 설정할 수 있는 값이지만, 상기에서 언급한대로 통상적인 누적 유사도 측정을 이용한 자동임계값 결정 기법에서 사용하는 계층적 매칭 기법을 통해 최적의 임계값을 산출하는 것이 바람직하다.That is, the threshold probability value T is a value which is a criterion for determining the similarity value 28 which will be described later. As described above, the threshold probability value T may be set freely by the administrator of the central control center 500, but as mentioned above. It is desirable to calculate the optimal threshold value through the hierarchical matching technique used in the automatic threshold determination technique using conventional cumulative similarity measurement.

임계확률값분석부(226)는 상기 유사도분석부(225)에 설정된 임계확률값(T)을 기준으로 샘플이미지 후보군(20)을 수치화하여 설정된 임계확률값(T)을 초과하는지 판단한다.The threshold probability value analysis unit 226 digitizes the sample image candidate group 20 based on the threshold probability value T set in the similarity analysis unit 225 to determine whether the threshold probability value T is exceeded.

도 10을 참조하면, 상기 유사도분석부(225)에 설정된 임계확률값(T)을 기준으로 샘플이미지 후보군(20)을 수치화하는 과정은, 상기 베이스모델(23)을 기준으로 샘플이미지 후보군(20)의 유사도값을 측정하여 상기 유사도값을 정규화하고, 누적 유사도 측정을 이용한 유사도값 결정 기법에서 사용하는 다항식으로 연산하여 산출한다.Referring to FIG. 10, the process of digitizing the sample image candidate group 20 based on the threshold probability value T set in the similarity analyzer 225 may include the sample image candidate group 20 based on the base model 23. The similarity value is normalized by measuring the similarity value of, and calculated by using a polynomial used in the similarity value determination technique using the cumulative similarity measurement.

상기 다항식으로 연산하여 산출하는 과정은, 상술한 지도교사학습모델(18) 또는 비교사학습모델(19)의 알고리즘을 통해 이루어지는 것이 바람직하다.The process of calculating and calculating by the polynomial is preferably performed through the algorithm of the above-described teaching teacher learning model 18 or the comparative learning model 19.

즉, 상기의 연산과정은 지도교사학습모델(18) 또는 비교사학습모델(19)의 알고리즘을 통하여 상기 특징추출부(224a)에서 추출한 설정특징들에 가중치를 두어, 도 10에서 도시된 바와 같이 중요한 설정특징들에는 높은 가중치값을, 상대적으로 불필요한 설정특징들에는 낮은 가중치값을 부여하여 가우시안 혼합모델(G)을 통해 정규화한 샘플이미지 후보군(20)의 유사도값(28)을 산출한다.That is, the calculation process weights the set features extracted by the feature extractor 224a through the algorithm of the supervised teacher learning model 18 or the non-teacher learning model 19, as shown in FIG. 10. The similarity value 28 of the sample image candidate group 20 normalized through the Gaussian mixture model G is calculated by assigning a high weight value to important setting features and a low weighting value to relatively unnecessary setting features.

상기 가중치값은 여러가지 환경변수에 따라 유동적인 연산인자로 중앙관제센터(500)의 관리자에 의해 설정될 수 있다.The weight value may be set by the administrator of the central control center 500 as a flexible calculation factor according to various environmental variables.

상기 가우시안 혼합모델(G)은 2차원으로 멀어질수록 작은 가중치를 부여하여 순환대칭적인 구조로 표준편차에 따른 정규분포 형태의 유사도값(28)이 생성된다.The Gaussian mixture model G is given a smaller weight as it moves away in two dimensions to generate a similarity value 28 in the form of a normal distribution according to the standard deviation in a circularly symmetrical structure.

상기 산출한 유사도값(28)과 설정한 임계확률값(T)을 비교하여 임계확률값(T)을 초과하는 경우에 해당 샘플이미지를 잔여이미지(25)로 추출한다.When the calculated similarity value 28 is compared with the set threshold probability value T, the sample image is extracted as the residual image 25 when the threshold probability value T is exceeded.

즉, 본 발명의 바람직한 실시예인 도 10에 따르면 설정한 임계확률값(T)을 80이라고 가정했을 때, 산출한 샘플이미지 후보군(20)의 유사도값(28) 중에서 81%로 상기 임계확률값(T)을 초과하는 샘플이미지(28b)가 잔여이미지(25)로 추출되는 것이다.That is, according to FIG. 10, which is a preferred embodiment of the present invention, assuming that the set threshold probability value T is 80, the threshold probability value T is 81% of the similarity values 28 of the sample image candidate groups 20 calculated. The sample image 28b exceeding is extracted as the residual image 25.

도 11을 참조하면, 상기 잔여이미지(25)가 존재할 경우, 상기 임계확률값분석부(226)는 뷰포트설정부(230)에 잔여이미지(25)와 뷰포트설정명령(26)을 전송하고, 잔여이미지(25)가 존재하지 않을 경우, 뷰포트설정부(230)에 아무런 명령도 전송하지 않는다. Referring to FIG. 11, when the residual image 25 exists, the threshold probability value analysis unit 226 transmits the residual image 25 and the viewport setting command 26 to the viewport setting unit 230, and the residual image. If 25 does not exist, no command is sent to the viewport setting unit 230.

도 12a를 참조하면, 뷰포트설정부(230)는 상기 퓨즈리듀서(225a)에서 잔여이미지(25)가 발생할 경우, 상기 잔여이미지(25)의 도로교통법 위반차량정보(R)를 기반으로 상기 임계확률값분석부(226)에서 산출한 유사도값(28) 81%의 산출근거(설정특징의 가중치값 반영을 통한 가우시안 혼합모델(G)의 유사도값 산출 과정)에 따라 상기 위반차량정보(R)에 대응되도록 상기 타일화된 현재차량 영상정보(11)에 대한 특정차량(S)의 예측뷰포트(27)를 설정하여 후술할 다중해상도처리부(300)에 전송한다.Referring to FIG. 12A, when the residual image 25 occurs in the fuse reducer 225a, the viewport setting unit 230 may determine the threshold probability value based on the road traffic law violation vehicle information R of the residual image 25. Corresponding to the violation vehicle information (R) according to the calculation basis of the similarity value (28) 81% calculated by the analysis unit (226) (process of calculating the similarity value of the Gaussian mixed model (G) by reflecting the weight value of the set feature) The prediction viewport 27 of the specific vehicle S for the tiled current vehicle image information 11 is set to be transmitted to the multi-resolution processor 300 to be described later.

즉, 예측뷰포트(27)는 도 12b에서 도시된 바와 같이, 잔여이미지(25)의 도로교통법 도로교통법 위반차량정보(R)와 유사한 양상를 보이는 현재차량 영상정보(11)의 특정차량(S)에 대한 타일군(28)을 추출하여 설정한 영역으로, 도로교통법 위반차량정보(R)와 유사한 행태를 구사하는 특정차량(S)에 대한 관심영역을 미리 설정하는 기술인 셈이다.That is, the prediction viewport 27 is connected to the specific vehicle S of the current vehicle image information 11 having a similar appearance to the road traffic law violation traffic information R of the residual image 25 as shown in FIG. 12B. It is an area of extracting and setting the Korean tile group 28, and it is a technique of presetting an area of interest for a specific vehicle S that has a similar behavior to the road traffic violation vehicle information R. FIG.

상기 뷰포트설정부(230)는 설정된 예측뷰포트(27)를 포함한 타일화된 현재차량 영상정보(11)를 다중해상도처리부(300)로 전송한다.The viewport setting unit 230 transmits the tiled current vehicle image information 11 including the set prediction viewport 27 to the multi-resolution processing unit 300.

다중해상도처리부(300)는 상기 교통정보 수집장치(A)의 현재대역폭이 설정된 대역폭의 허용범위를 초과하는지 판단하여, 초과하는 경우 상기 설정된 예측뷰포트(27)를 우선순위 뷰포트(12)로 인식하여 고화질로 인코딩해서 우선전송하고 나머지 뷰포트(13)를 저화질로 전송하는 장치로서, 도 1에서 도시된 바와 같이, 대역폭초과판단부(310), 해상도설정부(320), 이미지렌더링부(330), 인코딩부(340), 통신부(350)를 포함하여 구성된다.The multi-resolution processing unit 300 determines whether the current bandwidth of the traffic information collecting device (A) exceeds the allowable range of the set bandwidth, and if it exceeds, recognizes the set prediction viewport (27) as the priority viewport (12) A device that encodes first in high definition and transmits the remaining viewports 13 in low quality. As shown in FIG. 1, the bandwidth exceeding determination unit 310, the resolution setting unit 320, the image rendering unit 330, The encoding unit 340 and the communication unit 350 is configured to include.

대역폭초과판단부(310)는 현재대역폭이 설정된 대역폭의 허용범위를 초과하는지 판단하는 장치로서, 현재대역폭이 설정된 대역폭의 허용범위를 초과하면 후술할 해상도설정부(320)에 우선순위 뷰포트(12) 설정명령을 전송하고, 초과하지 않으면 현재차량 영상정보(11)를 그대로 고화질 처리하여 인코딩부(340)에 전송한다.The bandwidth over-determination unit 310 is a device for determining whether the current bandwidth exceeds the allowable range of the set bandwidth. If the current bandwidth exceeds the allowable range of the set bandwidth, the priority viewport 12 is transmitted to the resolution setting unit 320 to be described later. If not, the setting command is transmitted, and if not exceeded, the current vehicle image information 11 is processed as it is of high quality and transmitted to the encoding unit 340.

현재대역폭은 상기 교통정보 수집장치(A)에서 중앙관제센터(500)로 실시간 무선전송하는 트래픽 양으로 일반적인 트래픽 측정장치(자동)를 활용하여 측정할 수 있다.The current bandwidth is the amount of traffic transmitted in real time from the traffic information collecting device (A) to the central control center 500 by using a general traffic measuring device (automatic).

대역폭의 허용범위는 무선통신망에 의해 상기 교통정보 수집장치(A)에 할당된 전체 트래픽의 양으로 교통정보 수집장치(A)의 CPU, 프로세서, 메모리, 통신모듈 등 각종 내장형 컴퓨터 하드웨어 및 소프트웨어의 성능과 제품 모델 종류와 통신망에 따라 달라지며, 교통정보 수집장치(A) 자체적으로 설정되거나 중앙관제센터(500)에서 원격으로 조정할 수 있도록 제어된다.The allowable range of the bandwidth is the total amount of traffic allocated to the traffic information collecting device A by the wireless communication network, and the performance of various built-in computer hardware and software such as the CPU, processor, memory, and communication module of the traffic information collecting device A. It depends on the type of product model and the communication network, and the traffic information collection device (A) itself is set or controlled to be controlled remotely from the central control center (500).

도 13을 참조하면, 해상도설정부(320)는 상기 대역폭초과판단부(310)로부터 실시간으로 현재대역폭이 설정된 대역폭의 허용범위를 초과하는지에 대한 판단결과를 전송받는다.Referring to FIG. 13, the resolution setting unit 320 receives a determination result of whether the current bandwidth exceeds the allowable range of the set bandwidth in real time from the bandwidth exceeding determination unit 310.

상기 해상도설정부(320)가 대역폭초과판단부(310)로부터 현재대역폭이 설정된 대역폭의 허용범위를 초과하는 판단결과를 전송받은 경우(E1), 뷰포트설정부(230)에서 전송받은 예측뷰포트(27)를 포함한 타일화된 현재차량 영상정보(11)를 기반으로 상기 예측뷰포트(27)를 우선순위 뷰포트(12)로 설정하여 고화질로 처리하고, 예측뷰포트(27)를 제외한 나머지 배경영상 및 객체들의 타일정보에 해당하는 나머지 뷰포트(13)를 저화질로 처리하여 이미지렌더링부(330)로 전송한다.When the resolution setting unit 320 receives a determination result from the bandwidth exceeding determination unit 310 that the current bandwidth exceeds the allowable range of the set bandwidth (E1), the prediction view port 27 received from the viewport setting unit 230 Based on the tiled current vehicle image information 11 including), the prediction viewport 27 is set as the priority viewport 12 and processed in high quality, and the remaining background images and objects except the prediction viewport 27 are processed. The remaining viewports 13 corresponding to the tile information are processed with low quality and transmitted to the image rendering unit 330.

즉, 상기와 같은 과정을 통해 현재대역폭이 설정된 대역폭의 허용범위를 초과하는 경우에는 예측뷰포트(27)만 우선순위 뷰포트(12)로 설정하여 후술할 통신부(350)를 통해 고화질로 우선전송할 수 있도록 하여 대역폭에 따라 유동적으로 트래픽 양을 조절할 수 있는 효과를 제공할 수 있다.That is, when the current bandwidth exceeds the allowable range of the set bandwidth through the above process, only the prediction viewport 27 is set as the priority viewport 12 so as to be transmitted in high quality through the communication unit 350 to be described later. Therefore, the amount of traffic can be flexibly adjusted according to the bandwidth.

반면, 상기 해상도설정부(320)가 대역폭초과판단부(310)로부터 현재대역폭이 설정된 대역폭의 허용범위를 초과하지 않는 판단결과를 전송받은 경우(E2), 우선순위 뷰포트(12)와 나머지 뷰포트(13)를 모두 포함한 전체뷰포트(36)를 고화질로 처리하여 이미지렌더링부(330)로 전송한다.On the other hand, when the resolution setting unit 320 receives the determination result that the current bandwidth does not exceed the allowable range of the set bandwidth from the bandwidth excess determination unit 310 (E2), the priority viewport 12 and the remaining viewport ( The entire viewport 36 including all 13) is processed in high quality and transmitted to the image rendering unit 330.

즉, 현재대역폭이 설정된 대역폭의 허용범위를 초과하지 않는 경우에는 트래픽 양을 조절할 필요가 없기 때문에, 전체뷰포트(36)를 고화질로 전송하는 것이다.That is, since the amount of traffic does not need to be adjusted when the current bandwidth does not exceed the allowable range of the set bandwidth, the entire viewport 36 is transmitted in high quality.

한편, 상술한 작용들은 상기 현재대역폭과 설정된 대역폭의 허용범위를 단순비교하여, 그 판단 결과에 따라 일련의 과정들이 진행되지만, 본 발명의 또 다른 실시예에서는 상기 현재대역폭과 설정된 대역폭의 허용범위의 차이를 구체적으로 측정하여 그 차이에 해당하는 트래픽 양만큼 상기 예측뷰포트(27)의 범위를 넓히거나, 상기 예측뷰포트(27)의 화질을 초고화질로 보정하는 등 다양하게 변형실시할 수 있음은 당 업계에 종사하는 통상의 기술자의 입장에서 자명할 것이다.(미도시)Meanwhile, the above-described operations simply compare the current bandwidth with the allowable range of the set bandwidth, and a series of processes are performed according to the determination result. However, in another embodiment of the present invention, the allowance of the current bandwidth and the set bandwidth is determined. By measuring the difference in detail, it is possible to perform various modifications such as widening the range of the prediction viewport 27 by the amount of traffic corresponding to the difference, or correcting the image quality of the prediction viewport 27 to ultra high quality. It will be obvious from the standpoint of an ordinary engineer working in the industry.

이하, 상기 해상도설정부(320)가 대역폭초과판단부(310)로부터 현재대역폭이 설정된 대역폭의 허용범위를 초과하는 판단결과를 전송받은 경우(E1)에 대한 각 구성요소들의 작용에 대해 설명하도록 한다.Hereinafter, the operation of each component when the resolution setting unit 320 receives a determination result from the bandwidth exceeding determination unit 310 that exceeds the allowable range of the set bandwidth (E1) will be described. .

상기 해상도설정부(320)는 도 14에서 도시된 바와 같이, 예측뷰포트(27)를 우선순위 뷰포트(12)로 설정하여 영상부호화의 기본계층(29)과 향상계층(30)을 모두 포함하고, 나머지 뷰포트(13)는 기본계층(29)만 포함하여 화질을 차등적으로 보정한다.As illustrated in FIG. 14, the resolution setting unit 320 sets the prediction viewport 27 as the priority viewport 12 to include both the base layer 29 and the enhancement layer 30 of image encoding. The remaining viewports 13 include only the base layer 29 to differentially correct the image quality.

기본계층(29)은 스케일러블 영상부호화 기술에서 아무런 화질보정처리를 하지 않은 저화질 레이어를 의미한다.The base layer 29 refers to a low quality layer which is not subjected to any image quality correction process in the scalable image encoding technology.

상기 기본계층(29)의 저화질 레이어는 별도의 압축암호화 과정이 필요없을정도로 데이터량이 적어 무선통신을 활용한 영상정보 전송시 트래픽 양에 거의 영향을 미치지 않는다.The low quality layer of the base layer 29 has a small amount of data so that a separate compression encryption process is not necessary, and thus has little effect on the amount of traffic when transmitting image information using wireless communication.

향상계층(30)은 상기 기본계층(29)의 레이어에 화질보정처리를 통해 고화질 레이어로 생성한 별도의 레이어로 데이터량을 많이 차지하기 때문에 후술할 인코딩부(340)에서 압축암호화 과정을 거쳐 중앙관제센터(500)에 선반입 전송된다.Since the enhancement layer 30 occupies a large amount of data as a separate layer generated as a high quality layer through the image quality correction process on the layer of the base layer 29, the encoding unit 340, which will be described later, undergoes a compression encryption process to perform the center. The preload is transmitted to the control center 500.

이 때, 상기 향상계층(30)과 기본계층(29)을 모두 포함하는 우선순위 뷰포트(12)의 타일번호는 연속적이므로 모든 번호를 다 보내지 않고서도 타일시작과 끝번호, 좌표정보, 타일 내 코딩 단위(CU) 번호 리스트, 타일번호를 수식으로 표현 등을 활용하여 효과적으로 압축할 수 있다.(미도시)In this case, since the tile numbers of the priority viewport 12 including both the enhancement layer 30 and the base layer 29 are consecutive, the tile start and end numbers, coordinate information, and intra-tile coding without all the numbers being sent. It can be effectively compressed by using the unit (CU) number list and the tile number as an expression. (Not shown)

이미지렌더링부(330)는 상기 해상도설정부(320)에서 뷰포트별로 처리한 화질들의 융합을 통해 영상이미지데이터를 렌더링하여 생성하는 장치로서, 해상도설정부(320)에서 처리한 기본계층(29)과 향상계층(30) 레이어를 전송받아 전체영상(31)으로 합성처리하여 인코딩부(340)로 전송한다.The image rendering unit 330 is a device for rendering and generating image image data through fusion of image quality processed by the viewport in the resolution setting unit 320. The image layer 330 and the base layer 29 processed in the resolution setting unit 320 The enhancement layer 30 receives the layer and synthesizes the entire image 31 to be transmitted to the encoding unit 340.

상기 이미지렌더링부(330)는 본 발명의 또다른 실시예에 따라 후술할 차량번호인식부(400)에서 인식된 차량번호정보인 최종인식문자정보(44, 45)를 전송받아 상기 전체영상(31)에 삽입하여 차량번호삽입영상(32)을 구성할 수 있다.The image rendering unit 330 receives the final recognition character information 44 and 45 which are vehicle number information recognized by the vehicle number recognition unit 400 to be described later, according to another embodiment of the present invention. The vehicle number insertion image 32 can be configured.

상기 차량번호인식부(400)에서 인식된 차량번호정보를 기반한 차량번호삽입영상(32)을 구성하는 작용에 대해서는 보다 상세하게 후술하도록 한다.The operation of configuring the vehicle number insertion image 32 based on the vehicle number information recognized by the vehicle number recognition unit 400 will be described later in more detail.

인코딩부(340)는 상기 이미지렌더링부(330)에서 합성처리된 전체영상(31)을 압축암호화하는 장치로서 일반적으로 널리 상용화된 동영상 인코딩 프로그램을 구비한 영상압축모듈이다.The encoding unit 340 is a device for compressing and encrypting the entire image 31 synthesized by the image rendering unit 330 and is a video compression module having a video encoding program that is widely commercially available.

도 15를 참조하면, 상기 인코딩부(340)는 이미지렌더링부(330)에서 전송받은 전체영상(31)의 기본계층(29)은 그대로 통신부(350)로 전송하고, 우선순위 뷰포트(12)에 해당하는 기본계층(29)을 포함한 향상계층(30)은 일반적으로 널리 상용화된 동영상 인코딩 프로그램을 통해 압축암호화하여 통신부(350)로 전송한다.Referring to FIG. 15, the encoding unit 340 transmits the basic layer 29 of the entire image 31 received from the image rendering unit 330 to the communication unit 350 as it is, and transmits the priority viewport 12 to the priority viewport 12. The enhancement layer 30 including the corresponding base layer 29 is generally compressed and transmitted to the communication unit 350 through a widely commercialized video encoding program.

통신부(350)는 상기 인코딩부(340)에서 압축암호화한 고화질압축영상정보(34) 및 압축암호화하지 않은 저화질영상정보(33)를 후술할 중앙관제센터(500)의 제 2 데이터송수신부(530)로 전송하는 통신장치로서, 제 2 무선통신모듈(351)을 포함한다.The communication unit 350 transmits and receives the second data transmission / reception unit 530 of the central control center 500 to describe the high quality compressed image information 34 encoded and encrypted by the encoding unit 340 and the low quality image information 33 which is not compressed and encrypted. As a communication device for transmitting to), and includes a second wireless communication module 351.

도 15를 참조하면, 상기 통신부(350)는 고화질압축영상정보(34)를 중앙관제센터(500)의 제 2 데이터송수신부(530)에 제 2 무선통신모듈(351)을 통해 실시간 무선으로 우선전송하고 남은 대역폭을 이용하여 저화질영상정보(33)를 상기 인코딩부(340)로부터 반입받은 순서대로 후순위전송한다.Referring to FIG. 15, the communication unit 350 prioritizes the high-definition compressed image information 34 to the second data transmission / reception unit 530 of the central control center 500 in real time through the second wireless communication module 351. The low quality video information 33 is subordinated in the order received from the encoding unit 340 by using the remaining bandwidth.

이상, 상기 해상도설정부(320)가 대역폭초과판단부(310)로부터 현재대역폭이 설정된 대역폭의 허용범위를 초과하는 판단결과를 전송받은 경우(E1)에 대한 각 구성요소들의 작용을 설명하였다.As described above, the operation of each component in the case where the resolution setting unit 320 receives a determination result from the bandwidth exceeding determination unit 310 that exceeds the allowable range of the set bandwidth (E1) has been described.

이하, 상기 해상도설정부(320)가 대역폭초과판단부(310)로부터 현재대역폭이 설정된 대역폭의 허용범위를 초과하지 않는 판단결과를 전송받은 경우(E2)에 대한 각 구성요소들의 작용에 대해 설명하면, 상기 해상도설정부(320)는 타일화된 현재차량 영상정보(10) 전체에 대한 기본계층(29)과 향상계층(30)을 전체뷰포트(36)로 구성하여 도 16에서 도시된 바와 같이 고화질 처리한다.Hereinafter, the operation of each component in the case where the resolution setting unit 320 receives a determination result from the bandwidth exceeding determination unit 310 that the current bandwidth does not exceed the allowable range of the set bandwidth (E2) will be described. In addition, the resolution setting unit 320 configures the basic layer 29 and the enhancement layer 30 for the entire tiled current vehicle image information 10 as the entire viewport 36 so as to have high quality as shown in FIG. 16. Process.

이미지렌더링부(330)는 상기 해상도설정부(320)에서 처리한 전체뷰포트(36) 레이어를 전송받아 고화질로만 구성된 전체영상(35)으로 처리하여 인코딩부(340)로 전송한다.The image rendering unit 330 receives the entire viewport 36 layer processed by the resolution setting unit 320 and processes the entire viewport 36 layer composed of only high quality images to be transmitted to the encoding unit 340.

도 17을 참조하면, 인코딩부(340)는 상기 이미지렌더링부(340)에서 전송받은 전체영상(35)을 상술한 바와같이 압축암호화하여 통신부(350)로 전송하고, 상기 통신부(350)는 고화질압축영상정보(36)를 중앙관제센터(500)의 제 2 데이터송수신부(530)로 전송한다.Referring to FIG. 17, the encoding unit 340 compresses and encrypts the entire image 35 transmitted from the image rendering unit 340 to the communication unit 350 as described above, and the communication unit 350 is of high quality. The compressed image information 36 is transmitted to the second data transmitter / receiver 530 of the central control center 500.

정리하면, 상기 해상도설정부(320)가 대역폭초과판단부(310)로부터 현재대역폭이 설정된 대역폭의 허용범위를 초과하는 판단결과를 전송받은 경우(E1)에는 도 15에서 도시된 바와 같이, 고화질압축영상정보(34)를 중앙관제센터(500)에 우선전송하고 남은 대역폭을 기반으로 저화질영상정보(33)를 후순위 전송하는 반면, 상기 해상도설정부(320)가 대역폭초과판단부(310)로부터 현재대역폭이 설정된 대역폭의 허용범위를 초과하지 않는 판단결과를 전송받은 경우(E2)에는 도 17에서 도시된 바와 같이, 고화질압축영상정보(36)만 구성된 전체영상(35)을 중앙관제센터(500)로 전송한다.In summary, when the resolution setting unit 320 receives a determination result from the bandwidth exceeding determination unit 310 that the current bandwidth exceeds the allowable range of the set bandwidth (E1), as shown in FIG. While the image information 34 is first transmitted to the central control center 500 and the low quality image information 33 is transmitted subordinated based on the remaining bandwidth, the resolution setting unit 320 is currently present from the bandwidth over decision unit 310. In the case of receiving the determination result not exceeding the allowable range of the set bandwidth (E2), as shown in FIG. 17, the central control center 500 displays the entire image 35 including only the high quality compressed image information 36. To send.

상기와 같은 방식을 통해, 상기 해상도설정부(320)가 대역폭초과판단부(310)로부터 현재대역폭이 설정된 대역폭의 허용범위를 초과하는 판단결과를 전송받은 경우(E1)에 도로교통법 위반가능성이 높은 특정차량(S)의 우선순위 뷰포트(12)에 해당하는 고화질압축영상정보(34)를 중앙관제센터(500)에서 선반입하고 상대적으로 중요도가 낮은 객체 및 배경영상의 나머지 뷰포트(13)에 해당하는 저화질영상정보(33)를 남은 대역폭을 기준으로 후순위 전송함으로써, 한정된 트래픽 양 내에서 실시간으로 전송지연없이 교통상황을 관제할 수 있다.Through the above method, when the resolution setting unit 320 receives a determination result from the bandwidth exceeding determination unit 310 that the current bandwidth exceeds the allowable range of the set bandwidth (E1), there is a high possibility of a violation of the road traffic law. The high quality compressed image information 34 corresponding to the priority viewport 12 of the specific vehicle S is inserted in the central control center 500 and corresponds to the remaining viewports 13 of the object and background image having a relatively low importance. By transmitting the lower quality video information 33 based on the remaining bandwidth, the traffic situation can be controlled without delay in real time within a limited amount of traffic.

이하, 본 발명의 일 실시예에 따른 차량번호인식부(400)를 포함한 교통정보 수집장치(A)의 구성요소별 작용에 대하여 구체적으로 설명하도록한다.Hereinafter, the operation of each component of the traffic information collecting device A including the vehicle number recognition unit 400 according to an embodiment of the present invention will be described in detail.

본 발명의 일 실시예에 따른 차량번호인식부(400)를 포함한 교통정보 수집장치(A)의 바람직한 구성작용에서는, 상기 해상도설정부(320)가 대역폭초과판단부(310)로부터 현재대역폭이 설정된 대역폭의 허용범위를 초과하는 판단결과를 전송받은 경우(E1)와 상기 해상도설정부(320)가 대역폭초과판단부(310)로부터 현재대역폭이 설정된 대역폭의 허용범위를 초과하지 않는 판단결과를 전송받은 경우(E2)에 따른 작용이 구분되어 이루어져야 한다.In a preferred configuration of the traffic information collection device (A) including the vehicle number recognition unit 400 according to an embodiment of the present invention, the resolution setting unit 320 is the current bandwidth is set from the bandwidth over determination unit 310 In case of receiving the determination result exceeding the allowable range of the bandwidth (E1) and the resolution setting unit 320 receives the determination result that the current bandwidth does not exceed the allowable range of the set bandwidth from the bandwidth over-determination unit 310 Actions according to case (E2) should be distinguished.

도 18을 참조하면, 차량번호인식부(400)는 상기 해상도설정부(320)가 대역폭초과판단부(310)로부터 현재대역폭이 설정된 대역폭의 허용범위를 초과하는 판단결과를 전송받은 경우(E1)에는 우선순위 뷰포트(12)만 입력받고, 상기 해상도설정부(320)가 대역폭초과판단부(310)로부터 현재대역폭이 설정된 대역폭의 허용범위를 초과하지 않는 판단결과를 전송받은 경우(E2)에는 전체뷰포트(36)를 입력받는다. Referring to FIG. 18, the vehicle number recognition unit 400 receives a determination result from the resolution setting unit 320 that the current bandwidth exceeds the allowable range of the set bandwidth (E1). If only the priority viewport 12 is input, and the resolution setting unit 320 receives a determination result from the bandwidth exceeding determination unit 310 that the current bandwidth does not exceed the allowable range of the set bandwidth (E2) The viewport 36 is input.

상기 차량번호인식부(400)는 입력 대상이 상기와 같이 우선순위 뷰포트(12) 또는 전체뷰포트(36)로 상이하다 할지라도 구체적인 구성작용에 대하여 동일하기 때문에 상기 해상도설정부(320)가 대역폭초과판단부(310)로부터 현재대역폭이 설정된 대역폭의 허용범위를 초과하는 판단결과를 전송받은 경우(E1)와 상기 해상도설정부(320)가 대역폭초과판단부(310)로부터 현재대역폭이 설정된 대역폭의 허용범위를 초과하지 않는 판단결과를 전송받은 경우(E2)를 구분하지 않고 서술하도록 한다.Although the vehicle number recognition unit 400 is the same for a specific configuration action even if the input target is different from the priority viewport 12 or the entire viewport 36 as described above, the resolution setting unit 320 exceeds the bandwidth When the determination result of the current bandwidth exceeds the allowable range of the set bandwidth from the determination unit 310 (E1) and the resolution setting unit 320 allows the bandwidth of the current bandwidth is set from the bandwidth exceeding determination unit 310 When receiving the result of judgment not exceeding the scope (E2), it shall be described without distinguishing.

차량번호인식부(400)는 상술한 바와 같이, 다중해상도처리부(300)의 해상도설정부(320)로부터 우선순위 뷰포트(12) 또는 전체뷰포트(36)를 전송받아 해당 뷰포트에 존재하는 차량의 차량번호를 인식하고, 상기 인식한 정보를 부가한 영상정보를 다중해상도처리부(300)의 이미지렌더링부(330)에 전송하는 장치로서, 도 1에서 도시된 바와 같이, 번호판후보영역 검출부(410), 문자영역 검출부(420), 문자인식부(430)으로 구성된다.As described above, the vehicle number recognition unit 400 receives the priority viewport 12 or the entire viewport 36 from the resolution setting unit 320 of the multi-resolution processing unit 300, and the vehicle of the vehicle existing in the viewport. A device for recognizing a number and transmitting image information added with the recognized information to the image rendering unit 330 of the multi-resolution processing unit 300, as shown in FIG. 1, the license plate candidate area detection unit 410, The text area detection unit 420 and the character recognition unit 430 are configured.

번호판후보영역 검출부(410)는 입력된 RGB 컬러 차량 이미지를 그레이 스케일 이미지로 변환하고 케니 에지 검출 기법과 LSD 알고리즘을 통해 번호판 영역을 검출하는 장치로서, 도 19에서 도시된 바와 같이 차량검출부(411), 이미지변환부(412), 에지추출부(413), 라인전파부(414)를 포함하여 구성된다.The license plate candidate area detecting unit 410 converts the input RGB color vehicle image into a gray scale image and detects the license plate area through the Kenny edge detection technique and the LSD algorithm. As shown in FIG. And an image converter 412, an edge extractor 413, and a line propagator 414.

차량검출부(411)는 입력된 뷰포트의 차량영상정보에서 배경영상과 전경영상을 구분하여 통상적으로 차량을 검출하는 방법인 배경 제거 방법, 평균 배경방법, 차영상 방법, 특징 기반 방법 등을 통해 차량을 검출한다.The vehicle detector 411 classifies the vehicle through a background removal method, an average background method, a car image method, a feature-based method, etc., which is a method of detecting a vehicle by dividing a background image and a foreground image from the vehicle image information of the input viewport. Detect.

배경 제거 방법은 차량이 없는 도로 영상을 배경영상으로, 상기 배경영상과 현재 입력된 영상의 차이를 제거하여 구분하는 방법으로 평균 배경 방법과 가우시안 혼합 모델(Gaussian Mixture Model)로 구성된다.The background removal method is a road image without a vehicle as a background image, and a method of removing and distinguishing a difference between the background image and the currently input image is composed of an average background method and a Gaussian Mixture Model.

평균 배경 방법은 입력된 프레임의 픽셀에 대한 평균과 표준편차를 이용하여 배경을 생성하는 방법으로 연속적인 배경모델링을 통해 고품질의 배경영상을 산출할 수 있다.The average background method is a method of generating a background using an average and a standard deviation of pixels of an input frame, and thus can generate a high quality background image through continuous background modeling.

가우시안 혼합모델 방법은 영상정보의 픽셀값 데이터 분포를 연산하여 배경에 해당하는 픽셀을 확률적으로 구분한다. 즉 M개의 가우시안 확률 분포 합을 통하여 새로운 확률 분포를 나타내어 배경을 구분하고 생성한다.The Gaussian mixture model method probably distinguishes pixels corresponding to a background by calculating pixel value data distribution of image information. In other words, a new probability distribution is represented through the sum of M Gaussian probability distributions to distinguish and generate a background.

도 20a 및 도 20b를 참조하면, 입력 영상인 도 20a에서 가우시안 혼합모델을 사용하여 배경영상에서 정지된 물체들을 제외한 움직이거나 사라진 차량들이 점차적으로 페이드 아웃(Fade-out)되며 배경영상으로 흡수되어 도 20b와 같은 영상이 출력된다.20A and 20B, the moving or disappearing vehicles except the stationary objects in the background image are gradually faded out and absorbed as the background image by using the Gaussian mixed model in FIG. 20A, the input image. An image such as 20b is output.

차영상 방법은 배경으로 사용할 영상과 현재 영상을 빼서(Substract) 차량을 추출하는 방법이다. 즉, 배경영상과 현재 입력영상의 픽셀값 차이를 계산하고 그 절대값을 설정한 임계값(Threshold)을 기준으로 이진화된 전경영상을 생성하여 배경영상과 현재 입력영상의 차 연산된 결과로 구현된다.The difference image method is a method of extracting a vehicle by subtracting an image to be used as a background and a current image. In other words, the difference between the background image and the current input image is calculated by calculating the difference between the pixel value of the background image and the current input image, and generating a binary foreground image based on the threshold that sets the absolute value. .

특징기반 방법은 입력영상에서 차량의 윤곽이나 코너와 같은 여러가지 특징들을 추출하여 분석하는 방법으로 오버랩된 차량들에 대해 occulusion handling을 활용하여 객체들을 구분, 인식할 수 있다.The feature-based method extracts and analyzes various features such as the contours and corners of the vehicle from the input image, and can identify and recognize objects using occulusion handling for overlapping vehicles.

이미지변환부(412)는 입력된 RGB 컬러 차량 이미지를 그레이 스케일 이미지로 변환하는 장치로서 번호판의 색상정보를 이용하여 RGB 컬러 모형, HSI 컬러 모형, YCbCr 컬러 모형 등을 이용하여 번호판을 추출한다.The image converting unit 412 converts the input RGB color vehicle image into a gray scale image, and extracts the license plate using an RGB color model, an HSI color model, a YCbCr color model, etc. using color information of the license plate.

즉, 번호판영역의 명암도 변화 특성을 이용하여 번호판 영역의 가로대 세로비, 배경과 문자 영역비, 문자폭과 명암도 변화, 문자 밀집도, 상대적 문자 위치정보 등을 고려하여 그레이 스케일 이미지로 변환한다.In other words, the gray scale image is converted into a gray scale image by considering the aspect ratio of the license plate area, the aspect ratio of the background and the character area, the change of the character width and contrast, the character density, and the relative character position information.

또한, Adaboost를 이용하여 번호판 정보인 색, 모양, 형태의 질감에 관한 특징을 Haar-like feature, LBP(Local Binary Pattern) 및 MCT 등 다양한 기법으로 훈련하고 Cascade classifier 구조로 구성하여 Sliding Window 방법을 통해 도 20c에서 도시된 바와 같이 검출할 수 있다.In addition, by using Adaboost, the characteristics of color, shape, and texture of license plate information can be trained by various techniques such as Haar-like feature, LBP (Local Binary Pattern), and MCT, and composed of Cascade classifier structure. Detection can be as shown in FIG. 20C.

에지추출부(413)는 케니 에지검출기법(37)을 이용하여 번호판의 에지(edge) 정보를 기반으로 다양한 에지 연산자 필터들을 통해 허프 변환 알고리즘을 적용하여 번호판 영역을 검출하는 장치이다.The edge extractor 413 detects the license plate area by applying a Hough transform algorithm through various edge operator filters based on edge information of the license plate using the Kenny edge detection method 37.

케니 에지검출기법(37)은 외각 경계선 및 에지 정보를 이용하여 이미지 내 영역을 추출하는데 사용되는 대표적 알고리즘으로, 이미지 내 객체의 깊이, 음영, 표면색상 등의 요소들이 변화와 불연속성을 나타낼 때 발생하여 일정한 밝기값의 분포를 가지는 화소들의 집합 경계인 에지(edge)를 이용하여 밝기 변화 값 차이를 통해 객체들의 경계를 추출하여 검출한다.The Kenny edge detection method 37 is a representative algorithm used to extract regions within an image by using outer boundary lines and edge information, and is generated when elements such as depth, shadow, and surface color of objects in the image exhibit changes and discontinuities. The edges of the objects are extracted and detected through the difference in the brightness variation using an edge, which is a set boundary of pixels having a constant brightness value distribution.

도 21a를 참조하면, 상기 케니 에지검출기법(37)은 Smoothing 순서(S37a), Finding gradients 순서(S37b), Non-maximum suppression 순서(S37c), Double thresholding 순서(S37d), Edge tracking by hysteresis 순서(S37e)로 구성된다.Referring to FIG. 21A, the Kenny edge detection method 37 includes a smoothing order S37a, a finding gradients order S37b, a non-maximum suppression order S37c, a double thresholding order S37d, and an edge tracking by hysteresis order. S37e).

Smoothing 순서(S37a)는 영상 이미지를 블러링(Blurring) 처리하여 잡음을 제거하고 이미지 상의 노이즈를 제거하는 전처리 순서로 Median filtering, Sharpening, Gasussian filtering 등의 필터링을 사용한다.The smoothing order S37a is a preprocessing order of blurring a video image to remove noise and removing noise on the image, using filtering such as median filtering, sharpening, gasussian filtering, and the like.

Finding gradients 순서(S37b)는 상기 필터링된 영상 이미지의 경사도(gradients)를 이용하여 픽셀값이 급격하게 변하는 부분을 찾는 순서로 Line edge mask, Sobel mask, prewitt mask, Roberts mask 등 다양한 마스크를 이용하여 에지(edge)를 검출하여 나머지 픽셀값을 0으로 만든다.Finding gradients order (S37b) is an order using the various edge masks such as line edge mask, Sobel mask, prewitt mask, Roberts mask in order to find the part where the pixel value changes rapidly by using the gradient of the filtered image image Detects an edge and sets the remaining pixel values to zero.

Non-maximum suppression 순서(S37c)는 상기 마스크를 이용하여 검출된 에지(edge)를 얇게 만드는 순서로 도 21b에서 도시된 바와 같이, 중심픽셀을 기준으로 8방향의 픽셀값들을 비교하여 중심픽셀이 가장 클 경우 그대로 두고 아닐 경우 제거한다.As shown in FIG. 21B, the non-maximum suppression order S37c is an order of thinning the detected edges using the mask. If it is large, leave it as it is or remove it.

Double thresholding 순서(S37d)에는 상기 Non-maximum suppression 순서(S37c)를 통해 처리된 영상 내의 노이즈나 에지(edge)가 아닌 부분을 구분하기 위한 순서로 두 개의 임계값(T-low, T-high)를 적용하여 에지를 결정한다.In the double thresholding sequence S37d, two threshold values T-low and T-high are used to distinguish portions of the image processed through the non-maximum suppression sequence S37c, which are not noise or edges. Apply to determine the edge.

Edge tracking by hysteresis 순서(S37e)에는 상기 Double thresholding 순서(S37d)에서 설정한 T-high값보다 크기가 높은 픽셀을 에지로 지정하며 상기 지정된 픽셀에 인접한 두 번째 높은 크기 픽셀을 에지로 재설정하여 상기 두번째 에지로 설정된 픽셀에 대해 상기 Edge tracking by hysteresis 순서(S37e)를 반복 수행한다. In the edge tracking by hysteresis order (S37e), a pixel whose size is larger than the T-high value set in the double thresholding order (S37d) is designated as an edge, and the second high size pixel adjacent to the specified pixel is reset to the edge to make the second value. The edge tracking by hysteresis sequence S37e is repeated for the pixel set as the edge.

라인전파부(414)는 LSD 알고리즘(38)의 라인 세그먼트를 이용하여 상기 케니 에지검출기법(37)과 허프 변환(Hough transform)을 통해 에지(edge) 점들이 포함된 선들을 추출하는 장치이다.The line propagation unit 414 is an apparatus for extracting lines including edge points through the Kenny edge detection method 37 and Hough transform using the line segment of the LSD algorithm 38.

도 22a를 참조하면, 상기 LSD 알고리즘(38)은 유사각도 형성점 그룹화 및 이미지 분할 순서(S38a); 최적의 라인 세그먼트 추출 순서(S38b). 라인 세그먼트 개별적 인증 순서(S38c)로 구성된다.Referring to Fig. 22A, the LSD algorithm 38 includes a similar angle forming point grouping and image segmentation order S38a; Optimal Line Segment Extraction Order (S38b). It consists of line segment individual authentication order S38c.

유사각도 형성점 그룹화 및 이미지 분할 순서(S38a)는 허용된 범위 내 유사한 각도를 형성하는 점들을 연결하고 그룹을 형성하는 순서로 상기 형성된 그룹들을 라인 영역을 통해 이미지를 분할한다. The similarity angle forming point grouping and image dividing order S38a divides the formed groups through the line region in order to connect the points forming similar angles within the allowed range and form the group.

최적의 라인 세그먼트 추출 순서(S38b)는 도 22b에서 도시된 바와 같이 상기 유사각도 형성점 그룹화 및 이미지 분할 순서(S38a)에서 분할한 이미지 내에서 각각의 라인들로 구성된 영역에서 최적의 라인 세그먼트를 추출한다.The optimal line segment extraction order S38b extracts an optimal line segment in an area composed of the respective lines in the image divided in the similar angle forming point grouping and the image segmentation order S38a as shown in FIG. 22B. do.

라인 세그먼트 개별적 인증 순서(S38c)에서는 상기 최적의 라인 세그먼트 추출 순서(S38b)에서 추출된 라인 세그먼트를 개별적으로 인증하여 검출한다.In the line segment individual authentication sequence S38c, the line segment extracted in the optimal line segment extraction sequence S38b is individually authenticated and detected.

상기 LSD 알고리즘(38)의 상술한 순서를 통해 수직라인 세그먼트 검출 및 라인전파 처리과정으로 도 22c에서 도시된 바와 같이, 번호판후보영역(39)을 추출한다.Through the above-described procedure of the LSD algorithm 38, the license plate candidate area 39 is extracted as shown in FIG. 22C by vertical line segment detection and line propagation processing.

도 19를 참조하면, 문자영역 검출부(420)는 이진화부(421), CLNF부(422), 블롭분석부(423)을 포함하여 구성된다.Referring to FIG. 19, the character area detection unit 420 includes a binarization unit 421, a CLNF unit 422, and a blob analysis unit 423.

이진화부(421)는 상기 번호판후보영역 검출부(410)에서 검출된 번호판후보영역(39)이 포함된 영상을 전경과 배경으로 축약하여 변환하는 장치로서 임계값(threshold)를 기준으로 적용 범위에 따라 전역적 기법과 국소적 기법을 통해 이진화 작업을 수행한다.The binarization unit 421 shortens and converts the image including the license plate candidate area 39 detected by the license plate candidate area detection unit 410 into the foreground and the background according to an application range based on a threshold. Binarization is performed through global and local techniques.

상기 전역적 기법을 통해 산출하는 방식은 Ostu 이진화 방식을 사용한다.The method calculated through the global technique uses Ostu binarization.

상기 Ostu 이진화 방식은 동일한 집단 내 분산이 최소화되도록 임계값을 산출하는 방식으로 영상 전체에 대해 단일한 임계값으로 적용하여 신속하게 이진화 작업을 수행할 수 있다.The Ostu binarization method calculates a threshold value so that variance in the same group is minimized, and thus can be quickly binarized by applying a single threshold value to the entire image.

한편, 상기 국소적 기법을 통해 산출하는 방식은 지역에지기반 이진화방식(40)을 사용한다.On the other hand, the method of calculating through the local technique uses a local edge-based binarization (40).

도 23을 참조하면, 지역에지기반 이진화방식(40)은 에지 이미지 생성 순서(S40a), 기준범위 이하 강도 에지 제거 순서(S40b), 중복 에지 이미지 제거 순서(S40c), 서브 이미지 확인 순서(S40d), 평균 픽셀값 계산 및 임계치 설정 순서(S40e), 설정 임계치 기반 윈도우 영역 이진화 순서(S40f)로 구성된다.Referring to FIG. 23, the regional edge-based binarization method 40 includes an edge image generation order S40a, an intensity edge removal order S40b below a reference range, a duplicate edge image removal order S40c, and a sub image confirmation order S40d. , Average pixel value calculation and threshold setting order S40e, and setting threshold based window area binarization order S40f.

에지 이미지 생성 순서(S40a)에서는 소벨(Sobel) 에지 검출기를 적용하여 그레이 스케일 이미지에 대한 에지 이미지를 생성한다.In the edge image generation procedure S40a, an Sobel edge detector is applied to generate an edge image for the gray scale image.

기준범위 이하 강도 에지 제거 순서(S40b)에서는 상기 에지 이미지 생성 순서(S40a)에서 생성된 에지의 상위 5~10% 범위 안에 드는 것을 포함하고 나머지 작은 강도의 에지들은 제거한다.The intensity edge removal order (S40b) below the reference range includes within the upper 5-10% range of the edges generated in the edge image generation sequence (S40a) and removes the remaining small intensity edges.

중복 에지 이미지 제거 순서(S40c)에서는 상기 기준범위 이하 강도 에지 제거 순서(S40b)에서 제거하고 남은 에지 이미지를 W×W 사이즈의 윈도우를 통해 중복를 제거한다.In the overlapped edge image removal order S40c, the overlapped edge image is removed in the intensity edge removal order S40b below the reference range and the duplicate edge image is removed through a W × W size window.

서브 이미지 확인 순서(S40d)에서는 상기 중복 에지 이미지 제거 순서(S40c)에서 중복 제거된 이미지들 중 선택된 서브 이미지 안에 어떠한 에지들이 존재하는지 확인한다.In the sub image checking order (S40d), it is checked whether there are any edges in the selected sub image among the images de-duplicated in the duplicate edge image removing order (S40c).

평균 픽셀값 계산 및 임계치 설정 순서(S40e)에서는 상기 서브 이미지 확인 순서(S40d)에서 확인한 이미지들의 픽셀 단위 원본 이미지 상에서 기준 경계치 값을 토대로 그레이스케일 이미지에 대한 평균 픽셀 값을 계산하며, 이를 기반으로 개별적으로 윈도우에 대한 그레이 스케일 임계값을 설정한다.In the average pixel value calculation and threshold setting sequence S40e, an average pixel value for the grayscale image is calculated based on a reference boundary value on the pixel-based original image of the images checked in the sub-image checking sequence S40d. Set the gray scale thresholds for the windows individually.

설정 임계치 기반 윈도우 영역 이진화 순서(S40f)에서는 상기 평균 픽셀값 계산 및 임계치 설정 순서(S40e)에서 설정된 임계값을 이용하여 각 윈도우 영역에 대한 이진화를 수행하여 도 24에서 도시된 바와 같이 문자인식 영역을 검출한다.In the set threshold based window area binarization order (S40f), the binarization of each window area is performed by using the threshold value set in the average pixel value calculation and the threshold setting order (S40e) to generate the character recognition area as shown in FIG. Detect.

CLNF부(422)는 CCLUF와 NFPP가 혼합된 구조로 블랍 검출 알고리즘을 통해 CLNF 작업(41)을 수행하기 위한 장치이다.The CLNF unit 422 is a device for performing the CLNF operation 41 through the blob detection algorithm in a structure in which the CCLUF and the NFPP are mixed.

도 25를 참조하면, CLNF 작업(41)은 상기 이진화부(421)에서 이진화 처리된 영상정보(이진 전경 마스크)를 기반으로 8주변 픽셀 점검 순서(S41a), 전경 마스크 정정 순서(S41b), 1차 레이블링 및 유니온-파인드 구조 구축 순서(S41c), 최종 레이블링 확정 순서(S41d), 사각 영역 계산 순서(S41e)을 통해 이동객체리스트(42)를 확정하는 작업이다.Referring to FIG. 25, the CLNF operation 41 is based on the binarization image information (binary foreground mask) processed by the binarization unit 421. An eight-period pixel check procedure S41a, a foreground mask correction order S41b, and 1 are performed. The moving object list 42 is determined through the difference labeling and union-find structure construction sequence S41c, the final labeling determination sequence S41d, and the rectangular region calculation sequence S41e.

이 때, 상기 전경 마스크 정정 순서(S41b)는 CCLUF에서 수행하는 모폴로지 연산 전처리를 대체하여 연산 처리 시간을 단축시키고, 상기 1차 레이블링 및 유니온-파인드 구조 구축 순서(S41c)는 4-방향 이웃화소 또는 8-방향 이웃화소 연결 기법인 연결 요소 레이블링과 NFPP 기반 전경 픽셀 정정을 통해 형성된다.At this time, the foreground mask correction order (S41b) replaces the morphological operation preprocessing performed by CCLUF to shorten the operation processing time, and the primary labeling and union-find structure construction order (S41c) is a four-way neighboring pixel or It is formed through connection element labeling, an 8-way neighboring pixel concatenation technique, and NFPP-based foreground pixel correction.

블롭분석부(423)은 문자영역 확정을 위해 번호판 내 의미없는 영역을 제거하는 장치로서, 가로, 세로 크기와 픽셀 개수 등의 논리 정보를 이용하여 상기 CLNF부(422)에서 확정된 이동객체리스트(42)를 블롭병합하여 필터링한다.The blob analysis unit 423 is a device for removing a meaningless area in the license plate to determine the character area. The moving object list determined by the CLNF unit 422 using logical information such as horizontal, vertical size, and number of pixels. 42) blob merge and filter.

도 26을 참조하면, 상기 확정된 이동객체리스트(42)을 블롭병합하여 필터링하는 과정은, 수직 히스토그램, 종횡비, 수직 및 수평 에지를 이용한 직사각형 형성, 영역의 수직 에지 밀도를 활용하여 차량번호판의 문자영역인 "67버 4455"를 제외한 나머지 영역을 제거하여 최종문자영역(43)을 검출한다.Referring to FIG. 26, the process of blob-merge and filtering the determined moving object list 42 includes a vertical histogram, an aspect ratio, a rectangular shape using vertical and horizontal edges, and a character of a license plate using a vertical edge density of an area. The final character area 43 is detected by removing the remaining area except the area "67ver 4455".

한편, 앞서 상술한 퓨즈리듀서(225a)의 작용인 통계학적 기계학습부(224c)에서 생성된 다수의 유효이미지(24)들의 에러를 추출하여 제거하는 방식도 상기와 같은 블롭병합 및 필터링 과정을 통하여 수행될 수 있으며, 상기 에러 제거 방식을 통하여 샘플이미지 후보군(20)을 산출할 수 있다.On the other hand, a method of extracting and removing errors of the plurality of valid images 24 generated by the statistical machine learning unit 224c, which is the action of the fuse reducer 225a described above, is also performed through the blob merging and filtering process. The sample image candidate group 20 may be calculated through the error elimination method.

도 19를 참조하면, 문자인식부(430)는 메쉬벡터추출부(431), 세선화교차벡터추출부(432), 역전파분석부(433)를 포함하여 구성된다.Referring to FIG. 19, the character recognition unit 430 includes a mesh vector extractor 431, a thin cross-cross vector extractor 432, and a backpropagation analyzer 433.

메쉬벡터추출부(431)는 상기 문자영역 검출부(420)에서 검출된 최종문자영역(42) 이미지를 일정한 크기로 정규화하는 장치로서, 일정 부분지역(cell)의 검은색 픽셀 개수 합으로 해당 면적 값을 계산하여 그 부분지역의 특징값(Feature)로 정한다.The mesh vector extractor 431 is a device for normalizing the image of the final character region 42 detected by the character region detector 420 to a predetermined size. The mesh vector extractor 431 is a sum of the number of black pixels of a certain region. Calculate and determine the feature value of the subregion.

도 27a를 참조하면, 상기 최종문자영역(43) 이미지를 정규화하고, 16개의 부분지역(Block)으로 나누어 상기 각 부분지역에 대한 0의 빈도수를 계산하여 이진값으로 표현한다. Referring to FIG. 27A, the final text area 43 image is normalized, divided into 16 sub-blocks, and a frequency of 0 for each sub-region is calculated and expressed as a binary value.

세선화교차벡터추출부(432)는 상기 메쉬벡터추출부(431)에서 생성한 이진값의 이미지를 기반으로 수평과 수직 검출선을 이용하여 교차점의 값을 특징 벡터로 사용하는 픽셀 매트릭스 장치이다.The thin cross-section vector extractor 432 is a pixel matrix device using the intersection point as a feature vector using horizontal and vertical detection lines based on the binary image generated by the mesh vector extractor 431.

도 27b를 참조하면, 상기 세선화교차벡터추출부(432)는 세선화 알고리즘을 적용하여 병렬처리방법으로 이진값 이미지의 객체 표면 밝기값을 처리하여, 상기 밝기값이 0으로 처리되는 픽셀을 중심으로 최 외각 픽셀들을 1픽셀씩 제거하여 결과적으로 1의 두께를 가지는 구조로 추출함으로써, 16×16으로 정규화된 이미지가 X방향으로 16개, Y방향으로 16개의 행을 가지고, 상기 각 행별로 최소 0에서 최대 14까지 값을 가진다.Referring to FIG. 27B, the thinning cross vector extractor 432 processes an object surface brightness value of a binary value image by a parallel processing method by applying a thinning algorithm, centering on a pixel whose brightness value is 0. By removing the outermost pixels by 1 pixel and extracting them into a structure having a thickness of 1, 16 × 16 normalized images have 16 rows in the X direction and 16 rows in the Y direction. It has a value from 0 to a maximum of 14.

역전파분석부(433)는 상기 지도교사학습모델(18)을 통하여 학습 데이터들의 목표값과 실제 데이터출력값을 비교하여 오차를 줄이는 장치로서, 전방향 분석과 후방향 분석을 통하여 역전파신경파 학습을 수행한다.Backpropagation analysis unit 433 is a device for reducing the error by comparing the target data and the actual data output value of the training data through the teacher teaching model 18, the backpropagation neural learning through forward and backward analysis Perform.

상기 전방향 분석은 임의의 목표값을 도출하기 위해 입력층에 입력 패턴이 입력되면 각각의 노드에서 입력함수와 활성함수에 의해 계산된 값들이 은닉 층을 통과하여 출력층에서 값을 출력하는 분석 과정이다.The omnidirectional analysis is an analysis process in which the values calculated by the input function and the active function at each node pass through the hidden layer and output the value at the output layer when an input pattern is input to the input layer to derive an arbitrary target value. .

상기 후방향 분석은 목표값과 실제 데이터출력값 사이 오차를 계산하여 상기 오차값을 출력층에서 입력층으로 역전파하며 오차를 최소화하는 방향으로 각 노드들 간의 가중치와 바이어스들의 연결강도를 조절하는 분석 과정이다.The backward analysis is an analysis process of calculating the error between the target value and the actual data output value and propagating the error value from the output layer to the input layer and adjusting the connection strength of the weights and biases between the nodes in a direction to minimize the error. .

상기 역전파분석부(433)는 전방향 분석과 후방향 분석을 오류 기준치에 수렴할 때까지 반복실시하여 최적의 값인 특징 벡터(Feature)가 추출되면 최종적인 문자 인식을 수행한다. The backpropagation analysis unit 433 repeats forward analysis and backward analysis until convergence to an error reference value, and performs final character recognition when a feature vector, which is an optimal value, is extracted.

이상, 본 발명의 일 실시예에 따른 차량번호인식부(400)를 포함한 교통정보 수집장치(A)의 구성요소별 작용은 상술한 바와 같이 수행된다.As described above, the component-specific operation of the traffic information collecting device A including the vehicle number recognition unit 400 according to an embodiment of the present invention is performed as described above.

이하, 상기 역전파분석부(433)에서 최종적으로 인식한 문자정보를 상기 다중해상도처리부(300)의 이미지렌더링부(330)에서 전송받아 처리하는 작용에 대하여 서술한다.Hereinafter, an operation of receiving and processing the character information finally recognized by the backpropagation analysis unit 433 by the image rendering unit 330 of the multi-resolution processing unit 300 will be described.

상기 이미지렌더링부(330)는 상기 역전파분석부(433)에서 최종분석한 최종인식문자정보(44)를 전송받아, 상기 해상도설정부(320)가 대역폭초과판단부(310)로부터 현재대역폭이 설정된 대역폭의 허용범위를 초과하는 판단결과를 전송받은 경우(E1)에는 도 28a에서 도시된 바와 같이, 우선순위 뷰포트(12)에 해당하는 최종문자인식정보(44)를, 상기 해상도설정부(320)가 대역폭초과판단부(310)로부터 현재대역폭이 설정된 대역폭의 허용범위를 초과하지 않는 판단결과를 전송받은 경우(E2)에는 도 28b에서 도시된 바와 같이, 전체뷰포트(36)에 해당하는 최종문자인식정보(45)를 각 뷰포트에 포함하여 합성 및 영상처리한다.The image rendering unit 330 receives the final recognition character information 44 finally analyzed by the backpropagation analysis unit 433, and the resolution setting unit 320 has a current bandwidth from the bandwidth exceeding determination unit 310. When receiving a determination result exceeding the allowable range of the set bandwidth (E1), as shown in Figure 28a, the final character recognition information 44 corresponding to the priority viewport 12, the resolution setting unit 320 ) Receives the determination result that the current bandwidth does not exceed the allowable range of the set bandwidth from the bandwidth exceeding determination unit 310 (E2), as shown in FIG. 28B, the final character corresponding to the entire viewport 36. Recognition information 45 is included in each viewport for synthesis and image processing.

상기 이미지렌더링부(330)에서 영상처리한 레이어들을 인코딩부(340)에 전송하여 인코딩하고 제 2 무선통신모듈(351)을 통해 중앙관제센터(500)의 제 2 데이터송수신부(530)로 전송하는 과정은 상술한 바와 같으므로 이에 대한 자세한 설명은 생략한다.The images rendered by the image rendering unit 330 are transmitted to the encoding unit 340 to be encoded and transmitted to the second data transmission and reception unit 530 of the central control center 500 through the second wireless communication module 351. Since the process is as described above, a detailed description thereof will be omitted.

도 1을 참조하면, 중앙관제센터(500)는 상기 교통정보 수집장치(A)로부터 영상정보를 전송받아 교통상황을 종합적으로 파악하여 관리 통제하는 기구로서, 통합관제서버(510), 데이터베이스(520), 제 2 데이터송수신부(530), 디코딩부(540), 출력부(550), CCTV 컨트롤부(560), 경고부(570)를 포함하여 구성된다.Referring to FIG. 1, the central control center 500 is a mechanism for comprehensively grasping and managing traffic conditions by receiving image information from the traffic information collecting device A, and as an integrated control server 510 and a database 520. ), A second data transmission / reception unit 530, a decoding unit 540, an output unit 550, a CCTV control unit 560, and a warning unit 570.

통합관제서버(510)는 통상적인 교통관제 방법에서 사용되는 관리서버로 다양한 교통수집장치들로부터 전송되는 데이터를 처리하고 제어할 수 있는 프로세서를 포함한다.The integrated control server 510 is a management server used in a conventional traffic control method and includes a processor that can process and control data transmitted from various traffic collection devices.

데이터베이스(520)는 상기 통합관제서버(510)가 관리하는 모든 백업 데이터들의 집합저장소로 본 발명의 일 실시예에 따른 도로교통법 위반차량 영상정보(10)의 빅데이터를 누적하여 저장한다.The database 520 is a collective storage of all backup data managed by the integrated control server 510 and accumulates and stores big data of the road traffic law violation vehicle image information 10 according to an embodiment of the present invention.

상기 데이터베이스(520)는 교통정보 수집장치(A)로부터 전송되는 모든 영상정보들을 신호위반, 과속, 주정차위반 등 도로교통법상 위반내용에 따라 알고리즘을 통해 분류하여 저장할 수 있다.The database 520 may classify and store all image information transmitted from the traffic information collecting device A through an algorithm according to violations of road traffic law such as signal violation, speeding, and parking violation.

상기 데이터베이스(520)는 상술한 바와 같이, 교통정보 수집장치(A)의 메모리부(120)에 새롭게 추가된 도로교통법 위반차량 영상정보(10)를 주기적으로 업데이트하여 무선전송할 수 있다.As described above, the database 520 may periodically update and wirelessly transmit the road traffic law violation vehicle image information 10 newly added to the memory unit 120 of the traffic information collecting device A. FIG.

상기 업데이트 무선전송은 관리자를 통해 수동으로 제어되거나, 자동적으로 이루어지도록 설정할 수 있다.The update radio transmission may be manually controlled by an administrator or set to be automatically performed.

제 2 데이터송수신부(530)는 교통정보 수집장치(A)로부터 전송되는 데이터들을 수신하고, 상기 교통정보 수집장치(A)에 무선으로 데이터를 송신할 수 있도록 제 2 무선통신모듈(531)을 포함한 통신장치이다.The second data transmission / reception unit 530 receives the data transmitted from the traffic information collecting device A and transmits the second wireless communication module 531 to transmit the data wirelessly to the traffic information collecting device A. FIG. It is a communication device included.

상기 제 2 데이터송수신부(530)는 상술한 바와 같이, 교통정보 수집장치(A)의 통신부(350)로부터 인코딩된 고화질압축영상정보(34)를 수신하여 후술할 디코딩부(540)로 전송하고, 인코딩되지 않은 저화질영상정보(33)를 수신하여 후술할 출력부(550)에 출력한다. As described above, the second data transmission / reception unit 530 receives the encoded high quality compressed image information 34 from the communication unit 350 of the traffic information collecting device A, and transmits it to the decoding unit 540 to be described later. The low-quality video information 33 which is not encoded is received and output to the output unit 550 which will be described later.

디코딩부(540)는 상기 교통정보 수집장치(A)의 인코딩부(340)에 대응되는 압축해제 복호화 장치로서, 일반적으로 널리 상용화된 영상 디코딩 프로그램을 구비한 영상압축해제모듈이다.The decoding unit 540 is a decompression decoding apparatus corresponding to the encoding unit 340 of the traffic information collecting device A. In general, the decoding unit 540 is an image compression module having a widely commercially available image decoding program.

상기 디코딩부(540)는 교통정보 수집장치(A)의 인코딩부(340)에서 압축암호화한 고화질압축영상정보(34)를 실시간 디코딩하여 출력부(550)에 출력한다. The decoding unit 540 decodes and encodes the high quality compressed image information 34 encoded and encoded by the encoding unit 340 of the traffic information collecting device A in real time and outputs it to the output unit 550.

도 29를 참조하면, 출력부(550)는 상기 디코딩된 고화질압축영상정보(34)와 저화질영상정보(33)를 실시간 출력하는 스크린 장치로서, 일반적인 교통관제센터에서 구비되는 화면스크린을 포함한다.Referring to FIG. 29, the output unit 550 is a screen device that outputs the decoded high quality compressed image information 34 and the low quality image information 33 in real time, and includes a screen screen provided in a general traffic control center.

CCTV 컨트롤부(560)는 상술한 바와 같이, 상기 교통정보 수집장치(A)의 카메라부(110)에 포함된 제어명령수신부(111)로 제어명령을 전송하여 카메라부(110)의 회전, 영상 확대, 정지, 문자 표시, 상태 확인 등의 다양한 제어활동을 할 수 있도록 구비된 원격조정장치이다.As described above, the CCTV control unit 560 transmits a control command to the control command receiving unit 111 included in the camera unit 110 of the traffic information collecting device A to rotate and image the camera unit 110. It is a remote control device equipped with various control activities such as enlargement, stop, text display, and status check.

본 발명의 바람직한 실시예에 따른 상기 CCTV 컨트롤부(560)는 우선순위 뷰포트(12)로 전송된 고화질의 영상정보를 확대하거나 정지하는 등의 작용을 통해 다양한 실시예들을 구성할 수 있다.The CCTV control unit 560 according to a preferred embodiment of the present invention may configure various embodiments through the action of expanding or stopping high quality image information transmitted to the priority viewport 12.

상기 CCTV 컨트롤부(560)는 AC, DC 팬틸트 제어, 렌즈 제어, 모니터 내장형, 8채널 분배, 전천후형, 이더넷 제어 등의 컨트롤러 제어 방식으로 구비될 수 있으며, 나열한 종류로 제한되지 않는다.The CCTV control unit 560 may be provided in a controller control method such as AC, DC pan tilt control, lens control, built-in monitor, 8-channel distribution, all-weather type, Ethernet control, and the like is not limited to the listed types.

도 30a를 참조하면, 경고부(570)는 상기 출력부(550)에서 출력되는 고화질압축영상정보(34)의 특정차량(S)에 대한 차량번호판정보를 기반으로 자동차적조회 시스템을 활용하여 상기 특정차량(S)의 네비게이션 시스템(N)을 통해 경고명령을 전송할 수 있고, 상기 보안등(150)이 구비된 교통정보 수집장치(A)에 경고명령을 전송하여 보안등(150)이 점멸되도록 할 수 있다.Referring to FIG. 30A, the warning unit 570 utilizes a vehicle tracking system based on license plate information of a specific vehicle S of the high-definition compressed image information 34 output from the output unit 550. The warning command may be transmitted through the navigation system N of the specific vehicle S, and the warning lamp 150 may be transmitted by transmitting a warning command to the traffic information collecting device A provided with the security lamp 150. can do.

상기 네비게이션 시스템(N)은 웹(Web)상으로 접속할 수 있는 모든 차량탑재스마트기기들을 포함하며, 통합형 교통정보 수집시스템(600)과 연동되어 상기 중앙관제센터(500)로부터 각종 수신정보들을 수신할 수 있는 시스템 및 장치를 의미한다.The navigation system N includes all vehicle-mounted smart devices that can be accessed over the web, and interlocks with the integrated traffic information collection system 600 to receive various received information from the central control center 500. It means a system and apparatus that can be.

도 30b를 참조하면, 통합형 교통정보 수집시스템(600)은 복수개의 상기 교통정보 수집장치(A)와 중앙관제센터(500)와의 상호작용을 통해 상기 데이터베이스(320)에 누적하여 도로교통법 위반차량 영상정보(10)를 전송하고 저장시킬 수 있는 시스템으로, 다수의 교통정보 수집장치(A)들을 통해 수집된 영상정보들을 기반으로 상술한 바와 같이 빅데이터 알고리즘을 이용하여 도로교통법 위반내용에 따라 분류하여 자가학습을 수행할 수 있다.Referring to FIG. 30B, the integrated traffic information collecting system 600 accumulates in the database 320 through interaction with a plurality of the traffic information collecting device A and the central control center 500, and the road traffic law violation vehicle image. As a system capable of transmitting and storing the information 10, based on the image information collected through a plurality of traffic information collecting devices (A) as described above using a big data algorithm to classify according to the road traffic law violations Self-learning can be performed.

즉, 상기와 같은 빅데이터 기반 알고리즘으로 차량 영상정보를 분석처리하여 끊임없이 누적되는 영상데이터 사례들을 통해 딥러닝 자가학습을 활용할 수 있어 오인식률을 현저하게 저감시킬 수 있다.In other words, deep learning self-learning can be utilized through analysis of vehicle image information using the big data-based algorithm as described above, thereby continuously accumulating image data, thereby significantly reducing false recognition rates.

한편, 본 발명의 따른 다중해상도 영상전송 기반의 스마트 교통관제 방법은, 도 31에서 도시된 바와 같이, 차량번호 인식을 통한 빅데이터 예측뷰포트 다중해상도 영상전송 기반의 스마트 교통관제 방법에 있어서, 동영상으로부터 영상입력정보를 수집하는 단계(S110); 상기 수집한 영상입력정보를 타일화하고, 빅데이터 기반 알고리즘을 통해 도로교통법 위반차량 영상정보와 현재차량 영상정보를 비교하여 위반가능성이 높은 특정차량(S)에 대한 예측뷰포트를 설정하는 빅데이터 분석 단계(S120); 상기 빅데이터 분석 단계(S120)에서 설정한 예측뷰포트를 전송받아 상기 설정한 예측뷰포트를 고화질로 처리하고 나머지 뷰포트를 저화질로 처리하는 다중해상도 처리 단계(130); 및, 상기 다중해상도 처리 단계(S130)를 통해 처리된 영상정보를 중앙관제센터(500)에서 수신하여 디코딩하고 출력하는 단계(S150)를 포함하여 이루어진다.On the other hand, the smart traffic control method based on the multi-resolution image transmission according to the present invention, as shown in Figure 31, in the smart traffic control method based on big data prediction viewport multi-resolution image transmission through vehicle number recognition, Collecting image input information (S110); Big data analysis that tiles the collected image input information and sets a prediction viewport for a specific vehicle (S) having a high probability of violation by comparing the road traffic law violation vehicle image information and the current vehicle image information through a big data based algorithm. Step S120; A multi-resolution processing step of receiving the prediction viewport set in the big data analysis step (S120) and processing the set prediction viewport in high quality and processing the remaining viewports in low quality; And receiving, decoding and outputting the image information processed through the multi-resolution processing step (S130) at the central control center 500 (S150).

이때, 상기 빅데이터 분석 단계(S120)는, 도 32에서 도시된 바와 같이, 현재차량 영상정보를 일정한 프레임 단위인 타일로 구분 설정하는 타일화 과정(S121)과, 상기 타일화 과정(S121)에서 설정한 타일을 기반으로 빅데이터 기반 알고리즘을 통해 메모리부(120)에 저장된 도로교통법 위반차량 영상정보(10)와 현재차량 영상정보(11)를 비교하여, 비교한 유사도값이 설정한 임계확률값(T) 이상인지 판단하는 뷰포트분석 과정(S122)과, 상기 뷰포트분석 과정(S122)에서 판단한 임계확률값(T)에 대한 뷰포트 설정여부를 통해 예측뷰포트(27)를 부여하여 정렬하는 예측뷰포트 설정 과정(S123)으로 구성될 수 있다.At this time, the big data analysis step (S120), as shown in FIG. 32, in the tiled process (S121) for setting and classifying the current vehicle image information into a tile of a predetermined frame unit, and in the tiled process (S121) Based on the set tiles, the road traffic law violation vehicle image information 10 and the current vehicle image information 11 stored in the memory unit 120 are compared through the big data based algorithm, and the threshold probability value set by the similarity value ( T) Predictive viewport setting process of assigning and arranging the prediction viewport 27 through the viewport analysis process (S122) for determining whether the image is abnormal or not and the viewport setting for the critical probability value (T) determined in the viewport analysis process (S122) ( S123).

그리고 상기 다중해상도 처리 단계(S130)는, 도 33에서 도시된 바와 같이, 상기 뷰포트분석 과정(S122)에서 정렬한 예측뷰포트(27)를 실시간으로 전송받아 현재대역폭을 기준으로 대역폭의 허용범위를 초과하는지 판단하는 대역폭 초과 판단 과정(S131)과, 상기 대역폭 초과 판단 과정(S131)에서 판단한 현재대역폭이 허용범위를 초과하는 경우, 우선순위 뷰포트(12)를 고화질로 처리하고 나머지 뷰포트(13)를 저화질로 처리하는 해상도 설정 과정(S132)과, 상기 해상도 설정 과정(S132)에서 뷰포트별로 처리한 화질들의 융합을 통해 영상이미지데이터를 렌더링하여 생성하는 이미지렌더링 과정(S133)과, 상기 이미지렌더링 과정(S133)에서 생성된 영상데이터를 전송받아 인코딩하는 과정(S134)과, 상기 인코딩하는 과정(S134)에서 인코딩한 고화질영상정보를 중앙관제센터로 실시간 무선 선반입 전송하는 과정(S135)으로 구성될 수 있다.In the multi-resolution processing step (S130), as shown in FIG. 33, the prediction viewports 27 arranged in the viewport analysis process (S122) are received in real time and exceed the allowable range of the bandwidth based on the current bandwidth. If the bandwidth exceeding determination process (S131) and the current bandwidth determined in the bandwidth exceeding determination process (S131) exceeds the allowable range, the priority viewport 12 is processed in high quality and the remaining viewports 13 are of low quality. An image rendering process (S133) for rendering and generating image image data through fusion of image quality processed for each viewport in the resolution setting process (S132), and the image rendering process (S133). Receiving and encoding the image data generated in step (S134) and the high-quality image information encoded in the encoding step (S134) of the central control center It may be composed of a process (S135) for real-time wireless transmission prefetching.

즉, 도 34에서 도시된 바와 같이, 현재차량 영상정보(11)를 이용하여 유사도값(28)이 임계확률값(T)을 초과하는지 판단하고, 초과하는 경우 실시간 현재대역폭이 설정된 대역폭의 허용범위를 초과하는지 판단하여 초과하는 경우, 정렬된 우선순위 뷰포트(12)를 고화질로 우선전송하고, 남은 대역폭에 따라 나머지 뷰포트(13)를 저화질로 후순위전송함으로써, 최적화된 트래픽 양으로 차량 영상정보를 전송하여 전송지연을 최소화할 수 있다.That is, as shown in FIG. 34, it is determined whether the similarity value 28 exceeds the threshold probability value T by using the current vehicle image information 11, and if it exceeds, the real-time current bandwidth is within the allowable range of the set bandwidth. If it is determined to exceed, if it exceeds, the priority prioritized viewport 12 is transmitted in high quality, and the remaining viewports 13 are subordinated to low quality according to the remaining bandwidth, thereby transmitting vehicle image information with an optimized traffic amount. The transmission delay can be minimized.

또한, 상기 다중해상도 처리 단계(S130) 이후에, 차량번호 인식 단계(S140)를 더 구비하고, 상기 차량번호 인식 단계(S140)는 도 35에서 도시된 바와 같이, 카메라 모듈을 통해 촬영된 차량 영상을 에지 검출과 라인 전파 과정을 통해 번호판영역을 추출하는 과정(S141)과, 상기 번호판 영역을 블롭 검출을 통해 문자 영역을 제외한 잡영을 제거함과 동시에 레이블링하여 숫자와 문자영역을 분리하는 과정(S142)과, 상기 분리된 문자 영역을 딥러닝모델 심층신뢰신경망(DBN, Deep Belief Network) 알고리즘으로 문자인식을 수행하는 과정(S143)과, 비교사 학습방법인 제한된 볼츠만 머신(RBM)으로 선행학습을 실시하여 특징 벡터를 추출하는 과정(S144)과, 및, 교사 학습방법인 역전파 신경망을 통한 미세조정을 거쳐 최종 문자인식을 수행하는 과정(S145)으로 구성될 수 있다.In addition, after the multi-resolution processing step (S130), further includes a vehicle number recognition step (S140), the vehicle number recognition step (S140), as shown in Figure 35, the vehicle image taken through the camera module Extracting the license plate area through edge detection and line propagation process (S141), and separating the number and the character area by labeling the license plate area by removing blobs except the character area through blob detection (S142). In addition, a process of performing character recognition using the deep learning model Deep Belief Network (DBN) algorithm on the separated character region (S143), and the preliminary learning with a limited Boltzmann machine (RBM), which is a comparative company learning method, is performed. And a process of extracting feature vectors (S144), and performing a final character recognition through fine adjustment through a backpropagation neural network, which is a teacher learning method (S145).

상기 분리된 문자 영역을 딥러닝 모델 심층 신뢰 신경망(DBN) 알고리즘으로 문자인식을 수행하는 과정(S143)과 비교사 학습방법인 제한된 볼츠만 머신(RBM)으로 선행학습을 실시하여 특징 벡터를 추출하는 과정(S144)을 제외한 나머지 단계 및 과정들은 상기 교통정보 수집장치(A)의 주요 구성요소인 빅데이터분석부(200), 다중해상도처리부(300), 차량번호인식부(400)의 구체적인 구성 및 작용에서 상술한 바와 같으므로 생략한다.A process of extracting feature vectors by performing character learning using the deep learning model deep trust neural network (DBN) algorithm (S143) and limited Boltzmann machine (RBM), which is a comparative company learning method. The remaining steps and processes except for (S144) are the specific configuration and operation of the big data analysis unit 200, the multi-resolution processing unit 300, the vehicle number recognition unit 400, which are the main components of the traffic information collecting device (A) Since it is as described above in the description is omitted.

분리된 문자영역을 딥러닝모델 심층신뢰신경망(DBN) 알고리즘으로 문자인식을 수행하는 과정(S143)은 확률모델링을 기반한 기계학습의 에너지모델 변수들 간의 상관관계를 부호화하는 EBM을 기초로 생성된 홉필드 신경망의 조합론적 최적화 알고리즘인 딥러닝모델 심층신뢰신경망(DBN, Deep Belief Network) 알고리즘으로 분리된 문자영역에서 문자를 인식한다.In the process of performing character recognition on the separated character region using the deep learning model deep neural network (DBN) algorithm (S143), a hop generated based on the EBM encoding the correlation between energy model variables of machine learning based on probability modeling The deep learning model Deep Belief Network (DBN) algorithm, which is a combinatorial optimization algorithm for field neural networks, recognizes characters in the separated text domain.

상기 딥러닝모델 심층신뢰신경망(DBN) 알고리즘은 바람직하게는 SBN(Sigmond Belief Network)로 구성되어 상기 SBN을 특징벡터의 활성화 함수로 이용하여 확률변수로 이루어진 방향성이 존재하는 비순환적 그래프를 도출한다.The deep learning model deep neural network (DBN) algorithm is preferably composed of SBN (Sigmond Belief Network) using the SBN as an activation function of the feature vector to derive a non-cyclic graph with a direction consisting of random variables.

비교사 학습방법인 제한된 볼츠만 머신(RBM)으로 선행학습을 실시하여 특징 벡터를 추출하는 과정(S144)은 통계물리를 기반한 카노니컬 앙상블의 파티션 함수인 볼츠만 분포를 통해 가시층 배열과 은닉층 배열간의 연결로 데이터 학습을 실시하는 알고리즘인 제한된 볼츠만 머신(RBM)을 이용하여 선행학습을 수행한다.The process of extracting the feature vector by performing prior learning with a limited Boltzmann machine (RBM), which is a non-comparative learning method (S144), is performed between the visible layer and the hidden layer array through the Boltzmann distribution, which is a partition function of the canonical ensemble based on statistical physics. Prior learning is performed using a limited Boltzmann machine (RBM), an algorithm that performs data learning over a connection.

또 한편, 상기 수신 및 디코딩 후 출력 단계(S150) 이후에, 도 31에서 도시된 바와 같이, 상기 통합형 교통정보 수집시스템(600)에서 다수의 교통정보 수집장치(A)를 통하여 위반차량 영상정보(10)를 수신하여 데이터베이스(320)에 누적 저장하고, 상기 데이터베이스(320)에서 위반내용에 따른 분류를 하여 딥러닝 자가학습을 실시하는 단계(S160); 및, 중앙관제센터(500)에서 수신하여 디코딩하고 출력되는 위반 차량정보를 기반으로 자동 차적조회, 과태료 부과, 고지서 발부를 온라인상으로 수행하는 단계(S170)를 더 구비할 수 있다.On the other hand, after the reception and decoding after output step (S150), as shown in Figure 31, the integrated vehicle information collection system 600 through the plurality of traffic information collecting device (A) in violation of the vehicle image information ( 10) receiving and storing the accumulated data in the database 320 and classifying the violation according to the violation contents in the database 320 to perform deep learning self-learning (S160); And, based on the violation vehicle information received, decoded and output from the central control center 500 may further comprise the step (S170) to perform automatic vehicle inquiry, penalty charges, bill issuing on-line.

즉, 상기 과태료 고지서 온라인 전송 단계(S170)는 온라인 상으로 고지서를 발송하는 것 뿐만 아니라, 자동차적조회에 따른 개인정보를 이용하여 문자메시지를 통해 SMS 발송, SNS 계정을 이용한 문자발송 등을 포함한다.That is, the fine bill online transmission step (S170) includes not only sending a bill online, but also sending an SMS through a text message using a personal information according to the vehicle tracking, sending a text using an SNS account, and the like. .

상기와 같은 본 발명에 의한 차량번호 인식을 통한 빅데이터 예측뷰포트 다중해상도 영상전송 기반의 스마트 교통관제 방법 및 교통정보 수집장치를 통해 실시간 대역폭을 기준으로 유동적으로 영상 화질을 결정하여 대역폭 트래픽 양을 줄이고 전송지연속도를 최소화시킬 수 있다.Through the smart traffic control method and traffic information collection device based on big data prediction viewport multi-resolution image transmission through vehicle number recognition according to the present invention, it is possible to reduce the amount of bandwidth traffic by dynamically determining image quality based on real-time bandwidth. The transmission delay speed can be minimized.

그리고 메모리부의 백 데이터(Back Data)에 저장된 위반차량 영상정보(10)와 현재차량 영상정보(11)를 교통정보 수집장치(A)와 직접 비교 분석하는 방식을 통해 연산처리에 소요되는 시간을 최소화시킴으로써, 전송지연을 최소화 할 수 있다.In addition, minimizing the time required for arithmetic processing by directly comparing and analyzing the violation vehicle image information 10 and the current vehicle image information 11 stored in the back data of the memory with the traffic information collecting device A is performed. By doing so, transmission delay can be minimized.

또한, 상기 예측뷰포트(27) 기술를 활용하여 검출한 도로교통법 위반가능성이 높은 특정차량(S)에게 조명, 음성, SMS, 네이게이션 시스템(N) 등을 통하여 경고 및 알림을 할 수 있어 다양한 실시예들을 통한 확장이 가능하다.In addition, a specific vehicle (S) having a high probability of violating the road traffic law detected by using the prediction viewport 27 technology may be alerted and notified through lighting, voice, SMS, and a navigation system (N). Extension is possible.

이상에서 설명한 본 발명은, 도면에 도시된 일 실시예를 참고로 설명하였으나 이는 예시적인 것에 불과하며 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 알 수 있다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술적 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야할 것이다.The present invention described above has been described with reference to one embodiment shown in the drawings, but this is merely exemplary and various modifications and equivalent other embodiments are possible to those skilled in the art. Able to know. Therefore, the true technical protection scope of the present invention should be interpreted by the appended claims, and all technical ideas within the equivalent scope should be construed as being included in the scope of the present invention.

A:교통정보 수집장치 230:뷰포트설정부
110:카메라부 300:다중해상도처리부
120:메모리 310:대역폭초과판단부
130:제 1 데이터송수신부 320:해상도설정부
140:하우징부 330:이미지렌더링부
150:보안등 340:인코딩부
160:CPU 350:통신부
200:빅데이터분석부 400:차량번호인식부
210:타일설정부 500:중앙관제센터
220:뷰포트분석부 600:통합형 교통관리 시스템
A: traffic information collection device 230: viewport setting unit
110: camera unit 300: multi-resolution processing unit
120: memory 310: bandwidth exceeded determination unit
130: first data transmission and reception unit 320: resolution setting unit
140: housing 330: image rendering unit
150: security light 340: encoding part
160: CPU 350: communication unit
200: big data analysis unit 400: vehicle number recognition unit
210: tile setting unit 500: central control center
220: viewport analysis unit 600: integrated traffic management system

Claims (10)

차량번호 인식을 통한 빅데이터 예측뷰포트 다중해상도 영상전송 기반의 스마트 교통정보 수집장치에 있어서,
동영상의 영상입력정보를 수집하기 위한 팬틸트하우징 카메라부(110);
중앙관제센터(500)의 데이터베이스(520)에 분류 저장된 도로교통법 위반차량 영상정보(10)를 주기적으로 업데이트 받아 분류 저장하는 메모리부(120);
상기 중앙관제센터(500)의 데이터베이스(520)에 분류 저장된 도로교통법 위반차량 영상정보(10)를 주기적으로 업데이트 받을 수 있도록 구비되는 제 1 데이터송수신부(130);
고해상도 CCTV 영상을 비트스트림으로 전송받아 빅데이터 뷰포트 예측기술을 통해 분석하는 빅데이터분석부(200);
상기 빅데이터분석부(200)에서 분석한 차량정보 중 도로교통법 위반 가능성이 높은 차량의 영상데이터는 설정한 예측뷰포트(27)를 통해 고화질로 처리하고, 상기 예측뷰포트(27)를 제외한 나머지 배경영상 및 객체들을 저화질로 처리하여 무선으로 상기 중앙관제센터(500)에 실시간 전송하는 다중해상도처리부(300); 및,
상기 교통정보 수집장치(A)에 내장되어 빅데이터분석부(200), 다중해상도처리부(300)의 데이터처리를 위한 연산 및 제어를 하는 CPU(160)를 포함하되,
상기 빅데이터분석부(200)는,
상기 카메라부(110)로부터 수집한 현재차량 영상정보(11)를 일정한 프레임 단위인 타일(16)로 구분 설정하는 타일설정부(210)와,
상기 타일설정부(210)에서 설정한 타일(16)을 기반으로 빅데이터 기반 알고리즘을 통해 메모리부(120)에 저장된 도로교통법 위반차량 영상정보(10)와 현재차량 영상정보(11)를 비교하여, 비교한 차량 영상정보값에 따른 특정차량(S)에 대응되는 위반차량 영상정보(10)의 유사도값(28)이 설정한 임계확률값(T) 이상인지 판단하는 뷰포트분석부(220)와,
상기 뷰포트분석부(220)에서 판단한 임계확률값(T)에 대한 뷰포트 설정여부를 통해 예측뷰포트(27)를 부여하여 정렬하는 뷰포트설정부(230)로 구성되고,
상기 다중해상도처리부(300)는,
상기 뷰포트설정부(230)에서 정렬한 예측뷰포트(27)를 실시간으로 전송받아 현재대역폭을 기준으로 대역폭의 허용범위를 초과하는지 판단하는 대역폭초과판단부(310)와,
상기 대역폭초과판단부(310)에서 판단한 현재대역폭이 허용범위를 초과하는 경우, 상기 예측뷰포트(27)를 우선순위 뷰포트(12)로 설정하여 고화질로 처리하고 나머지 뷰포트(13)를 저화질로 처리하는 해상도설정부(320)와,
상기 해상도설정부(320)에서 뷰포트별로 처리한 화질들의 융합을 통해 영상이미지데이터를 렌더링하여 생성하는 이미지렌더링부(330)와,
상기 이미지렌더링부(330)에서 생성된 영상데이터를 전송받아 인코딩하는 인코딩부(340)와, 상기 인코딩부(340)가 인코딩한 고화질 영상정보를 중앙관제센터(500)로 실시간 무선 선반입 전송하는 통신부(350)로 구성되며,
상기 해상도설정부(320)에서 뷰포트별로 처리한 화질들의 현재차량 영상정보(11)를 통해 차량번호를 인식하여 이미지렌더링부(330)로 전송하는 차량번호인식부(400)를 더 구비하고,
상기 차량번호인식부(400)는,
입력된 RGB 컬러 차량 이미지를 그레이 스케일 이미지로 변환하고 케니 에지 검출기법(37)과 LSD 알고리즘(38)을 통해 번호판 영역을 검출하는 차량번호판후보영역 검출부(410)와,
상기 차량번호판후보영역 검출부(410)에서 검출한 차량번호판 후보영역(15)의 지역에지기반 이진화전처리, 수직 필터링, CLNF, 블롭분석을 통해 문자영역을 검출하는 문자영역 검출부(420)와,
상기 문자영역 검출부(420)에서 검출한 문자영역을 통해 이미지정규화, 픽셀매트릭스, DBN을 활용하여 문자를 인식하는 번호판 문자 인식부(430)로 구성되는 것을 특징으로 하는 차량번호 인식을 통한 빅데이터 예측뷰포트 다중해상도 영상전송 기반의 스마트 교통정보 수집장치.
In the smart traffic information collection apparatus based on big data prediction viewport multi-resolution image transmission by vehicle number recognition,
Pan tilt housing camera unit 110 for collecting the video input information of the video;
A memory unit 120 that periodically receives and classifies and stores road traffic law violation vehicle image information 10 classified and stored in the database 520 of the central control center 500;
A first data transmission / reception unit 130 provided to periodically update the road traffic law violation vehicle image information 10 classified and stored in the database 520 of the central control center 500;
Big data analysis unit 200 for receiving a high-resolution CCTV image in the bitstream to analyze the big data viewport prediction technology;
Of the vehicle information analyzed by the big data analysis unit 200, the image data of the vehicle having a high possibility of violating the road traffic law is processed in high quality through the set prediction viewport 27, and the remaining background image except the prediction viewport 27 is processed. And a multi-resolution processor 300 for real-time transmission of the objects to the central control center 500 by processing the objects with low quality. And,
The CPU 160 is embedded in the traffic information collecting device A and performs calculation and control for data processing of the big data analysis unit 200 and the multi-resolution processing unit 300.
The big data analysis unit 200,
A tile setting unit 210 for dividing and setting the current vehicle image information 11 collected from the camera unit 110 into tiles 16 which are a predetermined frame unit;
Based on the tile 16 set by the tile setting unit 210, the road traffic law violation vehicle image information 10 and the current vehicle image information 11 stored in the memory unit 120 are compared through a big data based algorithm. A viewport analyzer 220 determining whether the similarity value 28 of the violating vehicle image information 10 corresponding to the specific vehicle S according to the compared vehicle image information value is equal to or greater than a threshold probability value T set by the comparison vehicle image information value;
It is composed of a viewport setting unit 230 to give and arrange the prediction viewport 27 through the viewport setting whether the threshold probability value (T) determined by the viewport analysis unit 220,
The multi-resolution processing unit 300,
A bandwidth exceeding determination unit 310 that receives the prediction viewports 27 arranged by the viewport setting unit 230 in real time and determines whether the allowable range of the bandwidth is exceeded based on the current bandwidth;
If the current bandwidth determined by the bandwidth over-determination unit 310 exceeds the allowable range, the prediction viewport 27 is set as the priority viewport 12 to process high quality and the remaining viewports 13 are processed to low quality. A resolution setting unit 320,
An image renderer 330 for rendering and generating image image data through fusion of image quality processed by the viewport by the resolution setting unit 320;
Encoding unit 340 for receiving and encoding the image data generated by the image rendering unit 330 and high-quality image information encoded by the encoding unit 340 to transmit the real-time wireless preloading to the central control center 500 Is composed of a communication unit 350,
And a vehicle number recognition unit 400 for recognizing the vehicle number and transmitting the image to the image rendering unit 330 through the current vehicle image information 11 of the image quality processed by the viewport by the resolution setting unit 320.
The vehicle number recognition unit 400,
A license plate candidate area detection unit 410 for converting the input RGB color vehicle image into a gray scale image and detecting a license plate area through the Kenny edge detector method 37 and the LSD algorithm 38;
A character region detector 420 for detecting a character region through local edge-based binary preprocessing, vertical filtering, CLNF, and blob analysis of the license plate candidate region 15 detected by the vehicle license plate candidate region detector 410;
Big data prediction through vehicle number recognition, comprising a license plate character recognition unit 430 that recognizes characters using image normalization, pixel matrix, and DBN through the character region detected by the character region detector 420. Smart traffic information collection device based on viewport multi-resolution image transmission.
삭제delete 제 1항에 있어서,
상기 중앙관제센터(500)는 차로의 교통상황을 실시간으로 파악하고 교통 흐름을 관리 및 통제하기 위한 것으로,
상기 교통상황을 실시간 영상정보로 전송받아 처리하는 통합관제서버(510)와,
상기 통합관제서버(510)에서 처리한 데이터들을 수집하여 저장하는 데이터베이스(520)와,
실시간 교통상황에 대한 영상정보를 수신하고, 교통정보 수집장치(A)에 제어 명령을 전송하는 데이터송수신부(530)와,
빅데이터 뷰포트 예측기술을 통해 고화질로 처리되어 인코딩된 영상정보를 디코딩하는 디코딩부(540)와,
상기 디코딩된 영상정보를 화면상에 표시하는 출력부(550)와,
상기 데이터송수신부(530)를 통해 전송할 제어 명령을 생성하는 CCTV 컨트롤부(560)와,
상기 출력부(550)에서 인식된 도로교통법 위반가능성이 높은 특정차량(S)에 대한 고화질 영상정보를 기반으로 상기 특정차량(S)에게 실시간 경고할 수 있는 경고부(570)를 구성하는 것을 특징으로 하는 차량번호 인식을 통한 빅데이터 예측뷰포트 다중해상도 영상전송 기반의 스마트 교통정보 수집장치.
The method of claim 1,
The central control center 500 is to grasp the traffic situation of the drive in real time and to manage and control the traffic flow,
Integrated control server 510 for receiving and processing the traffic situation as real-time video information,
A database 520 for collecting and storing data processed by the integrated control server 510;
A data transmission and reception unit 530 which receives image information on a real-time traffic situation and transmits a control command to the traffic information collecting device A;
A decoding unit 540 for decoding image information encoded and processed in high quality through a big data viewport prediction technology;
An output unit 550 for displaying the decoded image information on a screen;
CCTV control unit 560 for generating a control command to be transmitted through the data transmission and reception unit 530,
The warning unit 570 may be configured to warn the specific vehicle S in real time based on the high-definition image information of the specific vehicle S which has a high possibility of violating the road traffic law recognized by the output unit 550. Smart traffic information collection device based on big data prediction viewport multi-resolution image transmission by vehicle number recognition.
삭제delete 제 3항에 있어서,
상기 카메라부(110)에 내장되어 CCTV 컨트롤부(560)의 제어명령을 수신하여 상기 제어명령에 따라 카메라부(110)의 각도 조절, 영상 확대, 영상 정지를 포함하는 일련의 명령들을 수행할 수 있도록 구비되는 제어명령수신부(111)를 구성하는 것을 특징으로 하는 차량번호 인식을 통한 빅데이터 예측뷰포트 다중해상도 영상전송 기반의 스마트 교통정보 수집장치.
The method of claim 3,
The control unit built in the camera unit 110 receives a control command of the CCTV control unit 560 and can perform a series of commands including angle adjustment, image magnification, and image stop of the camera unit 110 according to the control command. Big traffic prediction viewport multi-resolution image transmission based smart traffic information collection device using a vehicle number recognition, characterized in that the control command receiving unit 111 is configured to be provided.
삭제delete 차량번호 인식을 통한 빅데이터 예측뷰포트 다중해상도 영상전송 기반의 스마트 교통관제 방법에 있어서,
동영상으로부터 영상입력정보를 수집하는 단계(S110);
상기 수집한 영상입력정보를 타일화하고, 빅데이터 기반 알고리즘을 통해 도로교통법 위반차량 영상정보와 현재차량 영상정보를 비교하여 도로교통법 위반가능성이 높은 특정차량(S)에 대한 예측뷰포트(27)를 설정하는 빅데이터 분석 단계(S120);
상기 빅데이터 분석 단계(S120)에서 설정한 예측뷰포트(27)를 전송받아 상기 설정한 예측뷰포트(27)를 우선순위 뷰포트로(12)로 고화질 처리하고 나머지 뷰포트(13)를 저화질 처리하는 다중해상도 처리 단계(130); 및,
상기 다중해상도 처리 단계(S130)를 통해 처리된 영상정보를 중앙관제센터(500)에서 수신하여 디코딩하고 출력하는 단계(S150)를 포함하되,
상기 빅데이터 분석 단계(S120)는,
현재차량 영상정보를 일정한 프레임 단위인 타일로 구분 설정하는 타일화 과정(S121)과,
상기 타일화 과정(S121)에서 설정한 타일을 바탕으로 빅데이터 기반 알고리즘을 통해 메모리부(120)에 저장된 도로교통법 위반차량 영상정보(10)와 현재차량 영상정보(11)를 비교하여, 비교한 유사도값(28)이 설정한 임계확률값(T) 이상인지 판단하는 뷰포트분석 과정(S122)과,
상기 뷰포트분석 과정(S122)에서 판단한 임계확률값(T)에 대한 뷰포트 설정여부를 통해 예측뷰포트(27)를 부여하여 정렬하는 예측뷰포트 설정 과정(S123)으로 구성되고,
상기 다중해상도 처리 단계(S130)는,
상기 뷰포트분석 과정(S122)에서 정렬한 예측뷰포트(27)를 실시간으로 전송받아 현재대역폭을 기준으로 대역폭의 허용범위를 초과하는지 판단하는 대역폭 초과 판단 과정(S131)과,
상기 대역폭 초과 판단 과정(S131)에서 판단한 현재대역폭이 허용범위를 초과하는 경우, 상기 예측뷰포트(27)를 우선순위 뷰포트(12)로 고화질 처리하고 나머지 뷰포트(13)를 저화질 처리하는 해상도 설정 과정(S132)과,
상기 해상도 설정 과정(S132)에서 뷰포트별로 처리한 화질들의 융합을 통해 영상이미지데이터를 렌더링하여 생성하는 이미지렌더링 과정(S133)과,
상기 이미지렌더링 과정(S133)에서 생성된 영상데이터를 전송받아 인코딩하는 과정(S134)과,
상기 인코딩하는 과정(S134)에서 인코딩한 고화질영상정보를 중앙관제센터로 실시간 무선 선반입 전송하는 과정(S135)으로 구성되며,
상기 다중해상도 처리 단계(S130) 이후에, 차량번호 인식 단계(S140)를 더 구비하고,
상기 차량번호 인식 단계(S140)는
다중해상도처리부(300)로부터 수신한 뷰포트의 현재차량 영상정보(11)에서 에지 검출과 라인 전파 과정을 통해 번호판영역을 추출하는 과정(S141)과,
상기 번호판영역 추출 과정(S141)에서 추출한 번호판 영역에 블롭 검출을 통해 문자영역을 제외한 잡영을 제거함과 동시에 레이블링하여 숫자와 문자영역을 분리하는 과정(S142)과,
상기 숫자와 문자영역을 분리하는 과정(S142)을 통해 분리된 문자영역을 기반으로 역전파 신경망 알고리즘을 활용하여 문자인식을 수행하는 과정(S143)으로 구성되는 것을 특징으로 하는 차량번호 인식을 통한 빅데이터 예측뷰포트 다중해상도 영상전송 기반의 스마트 교통관제 방법.
A smart traffic control method based on big data prediction viewport multi-resolution image transmission using vehicle number recognition,
Collecting image input information from a video (S110);
Tile the collected image input information and compare the road traffic law violation vehicle image information with the current vehicle image information through a big data based algorithm to predict the viewport 27 for a specific vehicle S having a high possibility of violation of the road traffic law. Big data analysis step (S120) to set;
Multi-resolution for receiving the prediction viewport 27 set in the big data analysis step (S120) and processing the set prediction viewport 27 as the priority viewport 12 as a high quality image and processing the remaining viewports 13 as low quality. Processing step 130; And,
Receiving the image information processed through the multi-resolution processing step (S130) at the central control center 500, decoding and outputting (S150),
The big data analysis step (S120),
A tileization process of classifying and setting current vehicle image information into tiles that are a unit of a predetermined frame (S121);
Based on the tile set in the tiled process (S121), the road traffic law violation vehicle image information 10 and the current vehicle image information 11 stored in the memory unit 120 are compared and compared using a big data based algorithm. A viewport analysis process (S122) for determining whether the similarity value 28 is equal to or greater than a threshold probability value T set;
It consists of a prediction viewport setting process (S123) to give and arrange the prediction viewport 27 through the viewport setting whether the threshold probability value (T) determined in the viewport analysis process (S122),
The multi-resolution processing step (S130),
An excess bandwidth determination step (S131) of receiving the prediction viewports 27 arranged in the viewport analysis process (S122) in real time and determining whether the allowable range of the bandwidth is exceeded based on the current bandwidth;
When the current bandwidth determined in the bandwidth exceeding determination process (S131) exceeds the allowable range, a resolution setting process of processing the prediction viewport 27 as the priority viewport 12 in high quality and performing the low quality processing of the remaining viewports 13 S132),
An image rendering process (S133) for rendering and generating image image data through fusion of image quality processed for each viewport in the resolution setting process (S132);
Receiving and encoding the image data generated in the image rendering process (S133) (S134);
It consists of a process of transmitting the real-time wireless preloading the high-definition video information encoded in the encoding process (S134) to the central control center (S135),
After the multi-resolution processing step (S130), further comprising a vehicle number recognition step (S140),
The vehicle number recognition step (S140)
Extracting the license plate area from the current vehicle image information 11 of the viewport received from the multi-resolution processor 300 through edge detection and line propagation (S141);
(B) separating the number and the text area by labeling the label plate area extracted in the license plate area extraction process (S141) by removing blobs except the text area by blob detection and labeling;
Big through the vehicle number recognition, characterized in that consisting of the process of performing the character recognition using the back propagation neural network algorithm based on the separated character area through the process of separating the number and the character area (S142). Smart traffic control method based on data prediction viewport multi-resolution image transmission.
삭제delete 제 7항에 있어서,
상기 문자인식 수행하는 과정(S143) 이후에,
제한된 볼츠만 머신(RBM)으로 선행학습을 실시하여 특징 벡터를 추출하는 과정(S144)과,
딥러닝모델 심층신뢰신경망(DBN) 알고리즘을 통한 미세조정을 거쳐 최종문자인식을 수행하는 과정(S145)을 더 구비하는 것을 특징으로 하는 차량번호 인식을 통한 빅데이터 예측뷰포트 다중해상도 영상전송 기반의 스마트 교통관제 방법.
The method of claim 7, wherein
After the process of performing the character recognition (S143),
A process of extracting feature vectors by performing prior learning with a limited Boltzmann machine (RBM) (S144),
Smart data based on the big data prediction viewport multi-resolution image transmission through vehicle number recognition, further comprising the step (S145) of performing the final character recognition through fine tuning through the deep learning model deep trust neural network (DBN) algorithm Traffic control method.
삭제delete
KR1020190064388A 2019-05-31 2019-05-31 Bigdata Previewport Multi-resolution video transmission CCTV using License plate detection and Bigdata Previewport Multi-resolution video transmission traffic control method using License plate detection KR102051829B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190064388A KR102051829B1 (en) 2019-05-31 2019-05-31 Bigdata Previewport Multi-resolution video transmission CCTV using License plate detection and Bigdata Previewport Multi-resolution video transmission traffic control method using License plate detection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190064388A KR102051829B1 (en) 2019-05-31 2019-05-31 Bigdata Previewport Multi-resolution video transmission CCTV using License plate detection and Bigdata Previewport Multi-resolution video transmission traffic control method using License plate detection

Publications (1)

Publication Number Publication Date
KR102051829B1 true KR102051829B1 (en) 2020-01-08

Family

ID=69154104

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190064388A KR102051829B1 (en) 2019-05-31 2019-05-31 Bigdata Previewport Multi-resolution video transmission CCTV using License plate detection and Bigdata Previewport Multi-resolution video transmission traffic control method using License plate detection

Country Status (1)

Country Link
KR (1) KR102051829B1 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111311908A (en) * 2020-02-18 2020-06-19 青岛海信网络科技股份有限公司 Method and device for identifying and processing repeated traffic information
KR102137654B1 (en) * 2020-04-01 2020-07-24 김창수 Method and apparatus for extracting objects using closed-circuit television
KR102174556B1 (en) * 2020-05-21 2020-11-05 박상보 Apparatus for monitoring image to control traffic information employing Artificial Intelligence and vehicle number
CN111932496A (en) * 2020-07-01 2020-11-13 浙江大华技术股份有限公司 License plate image quality determination method and device, storage medium and electronic device
CN112463090A (en) * 2020-10-30 2021-03-09 维沃软件技术有限公司 Resolution adjustment method, device, equipment and medium
CN112785550A (en) * 2020-12-29 2021-05-11 浙江大华技术股份有限公司 Image quality value determination method, image quality value determination device, storage medium, and electronic device
KR102322909B1 (en) * 2020-06-26 2021-11-04 구성진 Road monitoring device based on simultaneous object parallel recognition
KR20210149448A (en) * 2020-06-02 2021-12-09 정재환 Apparatus for monitoring image employing to detect of vehicle number and cotrolling device
KR102359090B1 (en) * 2021-05-27 2022-02-08 주식회사 아미크 Method and System for Real-time Abnormal Insider Event Detection on Enterprise Resource Planning System
KR102491334B1 (en) 2022-09-05 2023-01-27 제주특별자치도(자치경찰단장) AI Integrated system for providing vehicle information
CN117037158A (en) * 2023-10-09 2023-11-10 之江实验室 Urban brain cloud edge cooperative computing method and device based on video semantic driving
CN117354468A (en) * 2023-12-04 2024-01-05 南京海汇装备科技有限公司 Intelligent state sensing system and method based on big data

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100785757B1 (en) 2007-01-17 2007-12-18 주식회사 진성아이엔티 System and method for automatically monitoring illegally-stopping/parking vehicle using fixed camera
KR101182173B1 (en) * 2012-02-07 2012-09-12 김진호 Method and system for recognizing vehicle plate
KR101485512B1 (en) * 2014-03-28 2015-01-23 주식회사 성우음향정보통신 The sequence processing method of images through hippocampal neual network learning of behavior patterns in case of future crimes
KR20150115067A (en) 2014-04-02 2015-10-14 렉스젠(주) Image transmission method for number recognition of vehicle and apparatus thereof
KR101704775B1 (en) 2016-02-03 2017-02-08 (주)비상정보통신 Apparatus and method for multi-resolution image processing
KR101743689B1 (en) * 2016-09-07 2017-06-07 주식회사 엠제이비전테크 Method for image processing of integrated intelligence surveillance CCTV(closed circuit television) and integrated intelligence surveillance CCTV system
KR101926562B1 (en) * 2018-10-15 2018-12-07 주식회사 아이에스앤로드테크 System for image analysis of multi lane

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100785757B1 (en) 2007-01-17 2007-12-18 주식회사 진성아이엔티 System and method for automatically monitoring illegally-stopping/parking vehicle using fixed camera
KR101182173B1 (en) * 2012-02-07 2012-09-12 김진호 Method and system for recognizing vehicle plate
KR101485512B1 (en) * 2014-03-28 2015-01-23 주식회사 성우음향정보통신 The sequence processing method of images through hippocampal neual network learning of behavior patterns in case of future crimes
KR20150115067A (en) 2014-04-02 2015-10-14 렉스젠(주) Image transmission method for number recognition of vehicle and apparatus thereof
KR101704775B1 (en) 2016-02-03 2017-02-08 (주)비상정보통신 Apparatus and method for multi-resolution image processing
KR101743689B1 (en) * 2016-09-07 2017-06-07 주식회사 엠제이비전테크 Method for image processing of integrated intelligence surveillance CCTV(closed circuit television) and integrated intelligence surveillance CCTV system
KR101926562B1 (en) * 2018-10-15 2018-12-07 주식회사 아이에스앤로드테크 System for image analysis of multi lane

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111311908A (en) * 2020-02-18 2020-06-19 青岛海信网络科技股份有限公司 Method and device for identifying and processing repeated traffic information
KR102137654B1 (en) * 2020-04-01 2020-07-24 김창수 Method and apparatus for extracting objects using closed-circuit television
KR102174556B1 (en) * 2020-05-21 2020-11-05 박상보 Apparatus for monitoring image to control traffic information employing Artificial Intelligence and vehicle number
KR102403170B1 (en) * 2020-06-02 2022-05-26 정재환 Apparatus for monitoring image employing to detect of vehicle number and cotrolling device
KR20210149448A (en) * 2020-06-02 2021-12-09 정재환 Apparatus for monitoring image employing to detect of vehicle number and cotrolling device
KR102322909B1 (en) * 2020-06-26 2021-11-04 구성진 Road monitoring device based on simultaneous object parallel recognition
CN111932496A (en) * 2020-07-01 2020-11-13 浙江大华技术股份有限公司 License plate image quality determination method and device, storage medium and electronic device
CN112463090A (en) * 2020-10-30 2021-03-09 维沃软件技术有限公司 Resolution adjustment method, device, equipment and medium
CN112785550A (en) * 2020-12-29 2021-05-11 浙江大华技术股份有限公司 Image quality value determination method, image quality value determination device, storage medium, and electronic device
KR102359090B1 (en) * 2021-05-27 2022-02-08 주식회사 아미크 Method and System for Real-time Abnormal Insider Event Detection on Enterprise Resource Planning System
KR102491334B1 (en) 2022-09-05 2023-01-27 제주특별자치도(자치경찰단장) AI Integrated system for providing vehicle information
CN117037158A (en) * 2023-10-09 2023-11-10 之江实验室 Urban brain cloud edge cooperative computing method and device based on video semantic driving
CN117037158B (en) * 2023-10-09 2024-01-09 之江实验室 Urban brain cloud edge cooperative computing method and device based on video semantic driving
CN117354468A (en) * 2023-12-04 2024-01-05 南京海汇装备科技有限公司 Intelligent state sensing system and method based on big data
CN117354468B (en) * 2023-12-04 2024-02-13 南京海汇装备科技有限公司 Intelligent state sensing system and method based on big data

Similar Documents

Publication Publication Date Title
KR102051829B1 (en) Bigdata Previewport Multi-resolution video transmission CCTV using License plate detection and Bigdata Previewport Multi-resolution video transmission traffic control method using License plate detection
Anand et al. Crack-pot: Autonomous road crack and pothole detection
CN108053427B (en) Improved multi-target tracking method, system and device based on KCF and Kalman
CN106203274B (en) Real-time pedestrian detection system and method in video monitoring
Bossu et al. Rain or snow detection in image sequences through use of a histogram of orientation of streaks
WO2019179024A1 (en) Method for intelligent monitoring of airport runway, application server and computer storage medium
US8744125B2 (en) Clustering-based object classification
US9412025B2 (en) Systems and methods to classify moving airplanes in airports
KR101570339B1 (en) The predicting system for anti-crime through analyzing server of images
KR102122859B1 (en) Method for tracking multi target in traffic image-monitoring-system
US20150117704A1 (en) Bus lane infraction detection method and system
KR102122850B1 (en) Solution for analysis road and recognition vehicle license plate employing deep-learning
Chetouane et al. Vision‐based vehicle detection for road traffic congestion classification
KR102282800B1 (en) Method for trackig multi target employing ridar and camera
CN103049765A (en) Method for judging crowd density and number of people based on fish eye camera
CN110852179B (en) Suspicious personnel invasion detection method based on video monitoring platform
Garg et al. Real-time road traffic density estimation using block variance
Tao et al. Smoky vehicle detection based on multi-scale block Tamura features
Abidin et al. A systematic review of machine-vision-based smart parking systems
Samma et al. Evolving pre-trained CNN using two-layers optimizer for road damage detection from drone images
CN111783700A (en) Automatic recognition early warning method and system for road foreign matters
KR101485512B1 (en) The sequence processing method of images through hippocampal neual network learning of behavior patterns in case of future crimes
KR102222109B1 (en) Integrated management system of parking enforcement image through deep learning
CN113177439A (en) Method for detecting pedestrian crossing road guardrail
Neto et al. Computer-vision-based surveillance of intelligent transportation systems

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant