KR102445138B1 - Image based speed control system using deep learning - Google Patents

Image based speed control system using deep learning Download PDF

Info

Publication number
KR102445138B1
KR102445138B1 KR1020200125644A KR20200125644A KR102445138B1 KR 102445138 B1 KR102445138 B1 KR 102445138B1 KR 1020200125644 A KR1020200125644 A KR 1020200125644A KR 20200125644 A KR20200125644 A KR 20200125644A KR 102445138 B1 KR102445138 B1 KR 102445138B1
Authority
KR
South Korea
Prior art keywords
information
vehicle
camera
speed
image data
Prior art date
Application number
KR1020200125644A
Other languages
Korean (ko)
Other versions
KR20220042623A (en
Inventor
권장우
Original Assignee
인하대학교 산학협력단
안정은
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인하대학교 산학협력단, 안정은 filed Critical 인하대학교 산학협력단
Priority to KR1020200125644A priority Critical patent/KR102445138B1/en
Publication of KR20220042623A publication Critical patent/KR20220042623A/en
Application granted granted Critical
Publication of KR102445138B1 publication Critical patent/KR102445138B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Abstract

영상 기반의 속도 단속 시스템 및 방법이 개시된다. 실시예에 따른 속도 단속 시스템은, 하나의 카메라 또는 복수 개의 카메라를 이용하여 차량 특징 정보를 포함하는 영상 데이터를 획득하는 단계; 상기 획득된 영상 데이터에 포함된 차량 특징 정보를 이용하여 딥러닝 모델을 학습시키는 단계; 상기 학습된 딥러닝 모델에 속도 검지를 위한 영상 데이터를 입력하는 단계; 상기 학습된 딥러닝 모델을 이용하여 상기 입력된 속도 검지를 위한 영상 데이터로부터 차량 특징 정보와 관련된 위치 정보를 인식하는 단계; 및 상기 인식된 차량 특징 정보와 관련된 위치 정보를 추적하여 차량 속도 정보를 검지하는 단계를 포함할 수 있다.An image-based speed control system and method are disclosed. The speed control system according to an embodiment includes: acquiring image data including vehicle characteristic information using one camera or a plurality of cameras; learning a deep learning model using vehicle characteristic information included in the obtained image data; inputting image data for speed detection into the learned deep learning model; recognizing location information related to vehicle characteristic information from the input image data for speed detection using the learned deep learning model; and detecting vehicle speed information by tracking location information related to the recognized vehicle characteristic information.

Description

심층 학습을 이용한 영상 기반 속도 단속 시스템{IMAGE BASED SPEED CONTROL SYSTEM USING DEEP LEARNING}Image-based speed control system using deep learning {IMAGE BASED SPEED CONTROL SYSTEM USING DEEP LEARNING}

아래의 설명은 속도 검지 기술에 관한 것이다.The description below relates to speed detection technology.

현대 사회에 진입하면서 차량의 양은 급속하게 증가되어 왔고 동시에 교통 혼잡 역시 꾸준히 증가해왔다. 그에 따른 운영 및 제어 방법 역시 다양하게 제시되어 왔다. 최근에는 다양한 검지수단을 이용해 차량을 검지한 후 검지 데이터를 활용해 관리하고 모니터링 하는데 이를 지능형 교통정보 시스템(ITS: Intelligent Transportation System)이라고 한다.With the entry into modern society, the amount of vehicles has increased rapidly, and at the same time, traffic congestion has also steadily increased. Various operation and control methods have been proposed accordingly. Recently, a vehicle is detected using various detection means and then managed and monitored using the detection data, which is called an Intelligent Transportation System (ITS).

차량을 검지하는 방법에는 크게 레이더를 활용한 방법과 카메라를 활용한 방법 또는 루프검지기를 활용한 방법 등이 있다. 레이더를 활용한 방법은 레이더의 검지영역 안에서 레이더에서 송출된 신호가 물체에 부딪칠 때 반사되는 신호를 분석하여 물체를 파악하는 방법이다. 레이더를 활용한 방법은 차량의 상대 위치나 속도 등을 파악하는데 용이하고 외부환경에 영향을 적게 받는다. 하지만 레이더의 종류에 따라 성능차가 크고 신호의 회전에 따른 고스트 생성의 문제가 있다.Methods for detecting a vehicle include a method using a radar, a method using a camera, or a method using a loop detector. The method using radar is a method of identifying an object by analyzing the signal reflected when the signal transmitted from the radar collides with an object within the detection area of the radar. The method using radar is easy to grasp the relative position and speed of the vehicle and is less affected by the external environment. However, there is a big difference in performance depending on the type of radar and there is a problem of ghost generation according to the rotation of the signal.

카메라를 활용한 방법은 영상 정보를 이용해 영상 정보 내에 있는 물체 정보를 배경과 구분하여 분석하고 판단하는 방법이다. 카메라를 활용한 방법은 레이더에 비해 상대적으로 가격이 저렴하고 설치가 간편하지만 외부환경에 영향을 많이 받는다.The method using the camera is a method of analyzing and judging object information in the image information by using the image information to distinguish it from the background. The method using a camera is relatively inexpensive and easy to install compared to radar, but it is greatly affected by the external environment.

적어도 하나 이상의 카메라 또는 복수 개의 카메라를 통해 획득된 영상 데이터에 포함된 차량 특징 정보를 이용하여 딥러닝 모델을 학습시키고, 학습된 딥러닝 모델에 입력된 속도 검지를 위한 영상 데이터로부터 차량 속도 정보를 검지하는 시스템 및 방법을 제공할 수 있다.A deep learning model is trained using vehicle characteristic information included in image data obtained through at least one camera or a plurality of cameras, and vehicle speed information is detected from the image data for speed detection input to the learned deep learning model. systems and methods can be provided.

속도 단속 시스템에 의해 수행되는 속도 검지 방법은, 하나의 카메라 또는 복수 개의 카메라를 이용하여 차량 특징 정보를 포함하는 영상 데이터를 획득하는 단계; 상기 획득된 영상 데이터에 포함된 차량 특징 정보를 이용하여 딥러닝 모델을 학습시키는 단계; 상기 학습된 딥러닝 모델에 속도 검지를 위한 영상 데이터를 입력하는 단계; 상기 학습된 딥러닝 모델을 이용하여 상기 입력된 속도 검지를 위한 영상 데이터로부터 차량 특징 정보와 관련된 위치 정보를 인식하는 단계; 및 상기 인식된 차량 특징 정보와 관련된 위치 정보를 추적하여 차량 속도 정보를 검지하는 단계를 포함할 수 있다. The speed detection method performed by the speed control system includes: acquiring image data including vehicle characteristic information using a single camera or a plurality of cameras; learning a deep learning model using vehicle characteristic information included in the obtained image data; inputting image data for speed detection into the learned deep learning model; recognizing location information related to vehicle characteristic information from the input image data for speed detection using the learned deep learning model; and detecting vehicle speed information by tracking location information related to the recognized vehicle characteristic information.

상기 학습시키는 단계는, 상기 영상 데이터로부터 차량의 번호판에 구성된 차량 번호 또는 문자를 포함하는 번호판 정보, 상기 번호판 정보의 일부, 상기 차량과 관련된 제조회사의 마크 정보, 또는 상기 차량의 앰블럼을 포함하는 차량 특징 정보를 이용하여 딥러닝 모델을 학습시키는 단계를 포함할 수 있다. In the learning step, from the image data, license plate information including a vehicle number or text configured on a license plate of a vehicle, a part of the license plate information, mark information of a manufacturer related to the vehicle, or a vehicle including an emblem of the vehicle It may include the step of training the deep learning model using the feature information.

상기 차량 속도 정보를 검지하는 단계는, 영상 데이터에 표시되는 도로의 차선 정보를 계산하여 상기 인식된 차량 속도 특징 정보와 관련된 위치 정보의 추적을 통해 차량이 이동하는 거리 정보를 보정하는 단계를 포함할 수 있다. The step of detecting the vehicle speed information may include calculating the lane information of the road displayed in the image data and correcting the distance information the vehicle moves through tracking the location information related to the recognized vehicle speed characteristic information. can

상기 입력하는 단계는, 도로의 시설물 정보 또는 영상 데이터에 표시되는 도로의 시설물 정보를 이용하여 카메라의 떨림을 보정하는 단계를 포함할 수 있다. The inputting may include correcting camera shake by using road facility information or road facility information displayed in image data.

상기 하나의 카메라는, 기 설정된 위치에 제1 카메라가 설치된 것이고, 상기 차량 속도 정보를 검지하는 단계는, 상기 기 설정된 위치에 설치된 제1 카메라를 이용하여 촬영 가능한 범위 기반의 영역을 설정하고, 상기 제1 카메라를 통하여 차량 특징 정보가 상기 설정된 영역에 진입하였을 때부터 상기 설정된 영역을 벗어날 때까지 상기 설정된 영역이 촬영됨에 따라 획득된 차량 특징 정보를 포함하는 영상 데이터를 구성하는 프레임 정보를 이용하여 상기 인식된 차량 속도 정보를 검지하는 단계를 포함할 수 있다. The one camera is that a first camera is installed at a preset position, and the detecting of the vehicle speed information includes setting an area based on a photographing range using the first camera installed at the preset position, and From the time the vehicle characteristic information enters the set area through the first camera until it leaves the set area, using frame information constituting image data including vehicle characteristic information acquired as the set area is photographed, the It may include detecting the recognized vehicle speed information.

상기 차량 속도 정보를 검지하는 단계는, 상기 제1 카메라에 설정된 프레임 단위에 기초하여 상기 인식된 차량 특징 정보가 상기 설정된 영역에 진입하였을 때부터 상기 설정된 영역을 벗어날 때까지의 시간 정보에 따른 차량 특징 정보를 포함하는 영상 데이터를 구성하는 프레임 개수 정보를 이용하여 상기 인식된 차량 특징 정보와 관련된 위치 정보의 추적을 통하여 차량 속도 정보를 검지하는 단계를 포함할 수 있다. The detecting of the vehicle speed information may include: based on a frame unit set in the first camera, vehicle characteristics according to time information from when the recognized vehicle characteristic information enters the set area to leave the set area The method may include detecting vehicle speed information through tracking of position information related to the recognized vehicle characteristic information using frame number information constituting the image data including the information.

상기 차량 속도 정보를 검지하는 단계는, 상기 인식된 차량 특징 정보와 관련된 위치 정보의 추적을 통해 상기 설정된 영역에 진입한 차량에 ID를 부여하는 단계를 포함할 수 있다. The detecting of the vehicle speed information may include assigning an ID to a vehicle entering the set area through tracking of location information related to the recognized vehicle characteristic information.

상기 복수 개의 카메라는, 수직으로 설치된 제1 카메라 및 제2 카메라를 포함하고, 상기 제1 카메라는 상측에 설치되고, 상기 제2 카메라는 하측에 설치된 것이고, 상기 차량 속도 정보를 검지하는 단계는, 상기 수직으로 설치된 제1 카메라와 제2 카메라의 높이 차이에 따라 발생하는 차량과의 거리 정보에 기초하여 차량 속도 정보를 검지하는 단계를 포함할 수 있다. The plurality of cameras include a first camera and a second camera installed vertically, the first camera is installed on the upper side, the second camera is installed on the lower side, and the step of detecting the vehicle speed information includes: The method may include detecting vehicle speed information based on distance information from the vehicle generated according to a height difference between the vertically installed first camera and the second camera.

상기 차량 속도 정보를 검지하는 단계는, 상기 제1 카메라에서 상기 인식된 차량 특징 정보와 관련된 위치 정보까지 계산된 거리 정보와 상기 제2 카메라에서 상기 인식된 차량 특징 정보와 관련된 위치 정보까지 계산된 거리 정보에 각각의 카메라의 설치 각도에 의한 오차 및 각각의 카메라의 처리 속도에 의한 오차를 고려하여 차량 속도 정보를 검지하는 단계를 포함할 수 있다. In the detecting of the vehicle speed information, distance information calculated from the first camera to location information related to the recognized vehicle characteristic information and a distance calculated from the second camera to location information related to the recognized vehicle characteristic information may include: It may include the step of detecting the vehicle speed information in consideration of the error due to the installation angle of each camera and the error due to the processing speed of each camera in the information.

상기 차량 속도 정보를 검지하는 단계는, 상기 인식된 차량 특징 정보와 관련된 위치 정보를 통해 차량의 차선 위반 정보, 속도 위반 정보를 포함하는 위반 정보를 판단하는 단계를 포함할 수 있다. The detecting of the vehicle speed information may include determining violation information including lane violation information and speed violation information of the vehicle through location information related to the recognized vehicle characteristic information.

상기 영상 데이터를 획득하는 단계는, 카메라를 이용하여 촬영됨에 따라 획득된 촬영 데이터 및 레이더를 이용하여 획득된 레이더 데이터를 결합하여 영상 데이터를 획득하는 단계를 포함할 수 있다. The obtaining of the image data may include obtaining image data by combining photographing data obtained by photographing using a camera and radar data obtained by using a radar.

속도 단속 시스템은, 하나의 카메라 또는 복수 개의 카메라를 이용하여 차량 특징 정보를 포함하는 영상 데이터를 획득하는 획득부; 상기 획득된 영상 데이터에 포함된 차량 특징 정보를 이용하여 딥러닝 모델을 학습시키는 학습부; 상기 학습된 딥러닝 모델에 속도 검지를 위한 영상 데이터를 입력하는 입력부; 상기 학습된 딥러닝 모델을 이용하여 상기 입력된 속도 검지를 위한 영상 데이터로부터 차량 특징 정보와 관련된 위치 정보를 인식하는 인식부; 및 상기 인식된 차량 특징 정보와 관련된 위치 정보를 추적하여 차량 속도 정보를 검지하는 검지부를 포함할 수 있다.The speed control system includes: an acquisition unit for acquiring image data including vehicle characteristic information using one camera or a plurality of cameras; a learning unit for learning a deep learning model using vehicle characteristic information included in the obtained image data; an input unit for inputting image data for speed detection into the learned deep learning model; a recognition unit for recognizing location information related to vehicle characteristic information from the input image data for speed detection using the learned deep learning model; and a detection unit configured to detect vehicle speed information by tracking location information related to the recognized vehicle characteristic information.

적어도 하나 이상의 카메라 또는 복수 개의 카메라를 통해 획득된 영상 데이터에 포함된 차량 특징 정보를 이용하여 딥러닝 모델을 학습시키고, 학습된 딥러닝 모델을 이용하여 입력된 속도 검지를 위한 영상 데이터로부터 인식된 차량의 속도 정보를 검지함으로써 차량 인식의 오류를 감소시키고, 보다 정확하게 속도를 검지할 수 있다.A vehicle recognized from image data for speed detection input by learning a deep learning model using vehicle feature information included in image data acquired through at least one or more cameras or a plurality of cameras, and using the learned deep learning model By detecting the speed information of the vehicle, it is possible to reduce the error of vehicle recognition and detect the speed more accurately.

도 1은 일 실시예에 따른 속도 단속 시스템의 구성을 설명하기 위한 블록도이다.
도 2는 일 실시예에 따른 속도 단속 시스템에서 차량의 속도 정보 검지 방법을 설명하기 위한 흐름도이다.
도 3 및 도 4는 일 실시예에 따른 속도 단속 시스템에서 복수 개의 카메라를 이용하여 차량 속도 정보 검지하는 방법을 설명하기 위한 도면이다.
도 5, 도 6 및 도 9는 일 실시예에 따른 속도 단속 시스템에서 하나의 카메라를 이용하여 차량의 속도를 검지하는 방법을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 속도 단속 시스템에서 차량 정보를 인식하는 것을 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 속도 단속 시스템에서 한글 오인식 검증을 수행하는 것을 설명하기 위한 예이다.
1 is a block diagram illustrating a configuration of a speed control system according to an embodiment.
2 is a flowchart illustrating a method of detecting vehicle speed information in a speed control system according to an exemplary embodiment.
3 and 4 are diagrams for explaining a method of detecting vehicle speed information using a plurality of cameras in a speed control system according to an embodiment.
5, 6, and 9 are diagrams for explaining a method of detecting the speed of a vehicle using a single camera in the speed control system according to an embodiment.
7 is a view for explaining the recognition of vehicle information in the speed control system according to an embodiment.
8 is an example for explaining how to perform Hangul misrecognition verification in the speed control system according to an embodiment.

이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

도 1은 일 실시예에 따른 속도 단속 시스템의 구성을 설명하기 위한 블록도이고, 도 2는 일 실시예에 따른 속도 단속 시스템에서 차량 속도 검지 방법을 설명하기 위한 흐름도이다.1 is a block diagram illustrating a configuration of a speed control system according to an exemplary embodiment, and FIG. 2 is a flowchart illustrating a vehicle speed detection method in the speed control system according to an exemplary embodiment.

속도 단속 시스템(100)에 포함된 프로세서는 획득부(110), 학습부(120), 입력부(130), 인식부(140) 및 검지부(150)를 포함할 수 있다. 이러한 프로세서 및 프로세서의 구성요소들은 도 2의 차량 속도 검지 방법이 포함하는 단계들(210 내지 250)을 수행하도록 속도 단속 시스템을 제어할 수 있다. 이때, 프로세서 및 프로세서의 구성요소들은 메모리가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다. 여기서, 프로세서의 구성요소들은 속도 단속 시스템(100)에 저장된 프로그램 코드가 제공하는 제어 명령에 따라 프로세서에 의해 수행되는 서로 다른 기능들(different functions)의 표현들일 수 있다. The processor included in the speed control system 100 may include an acquisition unit 110 , a learning unit 120 , an input unit 130 , a recognition unit 140 , and a detection unit 150 . Such a processor and components of the processor may control the speed control system to perform steps 210 to 250 included in the vehicle speed detecting method of FIG. 2 . In this case, the processor and the components of the processor may be implemented to execute instructions according to the code of the operating system included in the memory and the code of at least one program. Here, the components of the processor may be expressions of different functions performed by the processor according to a control command provided by the program code stored in the speed regulation system 100 .

프로세서는 차량 속도 검지 방법을 위한 프로그램의 파일에 저장된 프로그램 코드를 메모리에 로딩할 수 있다. 예를 들면, 속도 단속 시스템(100)에서 프로그램이 실행되면, 프로세서는 운영체제의 제어에 따라 프로그램의 파일로부터 프로그램 코드를 메모리에 로딩하도록 속도 단속 시스템을 제어할 수 있다. The processor may load the program code stored in the file of the program for the vehicle speed detection method into the memory. For example, when a program is executed in the speed control system 100 , the processor may control the speed control system to load a program code from a file of the program into the memory according to the control of the operating system.

단계(210)에서 획득부(110)는 하나의 카메라 또는 복수 개의 카메라를 이용하여 차량 특징 정보를 포함하는 영상 데이터를 획득할 수 있다. 획득부(110)는 카메라를 이용하여 촬영됨에 따라 획득된 촬영 데이터 및 레이더를 이용하여 획득된 레이더 데이터를 결합하여 영상 데이터를 획득할 수 있다.In step 210 , the acquisition unit 110 may acquire image data including vehicle characteristic information using one camera or a plurality of cameras. The acquisition unit 110 may acquire image data by combining photographing data obtained by photographing using a camera and radar data obtained by using a radar.

단계(220)에서 학습부(120)는 획득된 영상 데이터에 포함된 차량 특징 정보를 이용하여 딥러닝 모델을 학습시킬 수 있다. 학습부(120)는 영상 데이터로부터 차량의 번호판에 구성된 차량 번호 또는 문자를 포함하는 번호판 정보, 번호판 정보의 일부, 차량과 관련된 제조회사의 마크 정보, 또는 차량의 앰블럼을 포함하는 차량 특징 정보를 이용하여 딥러닝 모델을 학습시킬 수 있다. In step 220 , the learning unit 120 may train the deep learning model by using vehicle characteristic information included in the acquired image data. The learning unit 120 uses vehicle characteristic information including license plate information, a part of license plate information, the manufacturer's mark information related to the vehicle, or the emblem of the vehicle from the image data, including the vehicle number or character configured on the license plate of the vehicle. Thus, deep learning models can be trained.

단계(230)에서 입력부(130)는 학습된 딥러닝 모델에 속도 검지를 위한 영상 데이터를 입력할 수 있다. 입력부(130)는 도로의 시설물 정보 또는 영상 데이터에 표시되는 도로의 시설물 정보를 이용하여 카메라의 떨림을 보정할 수 있다. 예를 들면, 입력부(130)는 기 저장된 또는 외부로부터 전달받은 도로의 시설물 정보와 영상 데이터에 표시되는 도로의 시설물 정보를 비교하여 카메라의 떨림을 보정할 수 있다. 또는, 입력부(130)는 영상 데이터에 표시되는 도로의 시설물 정보를 확인함으로써 카메라 떨림을 보정할 수 있다. 이에, 입력부(130)는 평지인 도로가, 오르막, 내리막으로 잘못 보이는 부분을 보정할 수 있다.In step 230 , the input unit 130 may input image data for speed detection into the learned deep learning model. The input unit 130 may correct camera shake by using road facility information or road facility information displayed on image data. For example, the input unit 130 may correct camera shake by comparing pre-stored or externally stored road facility information and road facility information displayed in image data. Alternatively, the input unit 130 may correct the camera shake by checking the road facility information displayed in the image data. Accordingly, the input unit 130 may correct a portion in which the road, which is flat, is incorrectly viewed as uphill or downhill.

단계(240)에서 인식부(140)는 학습된 딥러닝 모델을 이용하여 입력된 속도 검지를 위한 영상 데이터로부터 차량 특징 정보와 관련된 위치 정보를 인식할 수 있다. 예를 들면, 인식부(140)는 속도 검지를 위한 영상 데이터를 딥러닝 모델에 학습시킴에 따라 차량 정보를 인식할 수 있다. 인식부(140)는 객체 탐지를 위한 딥러닝 모델을 구성하고, 속도 검지를 위한 영상 데이터를 구성된 딥러닝 모델에 입력하여 학습시킴에 따라 학습 결과로서, 차량 정보를 인식할 수 있다. 인식부(140)는 획득된 영상 데이터에 존재하는 차량의 위치, 외형, 차종 또는 차량 번호를 포함하는 차량 식별 정보를 인식할 수 있다. In step 240 , the recognizer 140 may recognize location information related to vehicle characteristic information from the input image data for speed detection using the learned deep learning model. For example, the recognition unit 140 may recognize the vehicle information by learning the image data for speed detection in the deep learning model. The recognition unit 140 configures a deep learning model for object detection, and inputs image data for speed detection into the configured deep learning model and trains it to recognize vehicle information as a learning result. The recognition unit 140 may recognize vehicle identification information including the location, appearance, vehicle model, or vehicle number of the vehicle existing in the acquired image data.

단계(250)에서 검지부(150)는 인식된 차량 특징 정보와 관련된 위치 정보를 추적하여 차량 속도 정보를 검지할 수 있다. 검지부(150)는 영상 데이터에 표시되는 도로의 차선 정보를 계산하여 인식된 차량 속도 특징 정보와 관련된 위치 정보의 추적을 통해 차량이 이동하는 거리 정보를 보정할 수 있다. In step 250 , the detection unit 150 may detect vehicle speed information by tracking location information related to the recognized vehicle characteristic information. The detection unit 150 may correct the distance information on which the vehicle moves by tracking the position information related to the recognized vehicle speed characteristic information by calculating the lane information of the road displayed in the image data.

일례로, 검지부(150)는 기 설정된 위치에 설치된 제1 카메라를 이용하여 촬영 가능한 범위 기반의 영역을 설정하고, 제1 카메라를 통하여 인식된 차량 특징 정보가 설정된 영역에 진입하였을 때부터 설정된 영역을 벗어날 때까지 설정된 영역이 촬영됨에 따라 획득된 차량 특징 정보를 포함하는 영상 데이터를 구성하는 프레임 정보를 이용하여 인식된 차량 속도 정보를 검지할 수 있다. 검지부(150)는 제1 카메라에 설정된 프레임 단위에 기초하여 차량 특징 정보가 설정된 영역에 진입하였을 때부터 설정된 영역을 벗어날 때까지의 시간 정보에 따른 차량 특징 정보를 포함하는 영상 데이터를 구성하는 프레임 개수 정보를 이용하여 인식된 차량 특징 정보와 관련된 위치 정보의 추적을 통하여 차량 속도 정보를 검지할 수 있다. 검지부(150)는 인식된 차량 특징 정보에 기초하여 설정된 영역에 진입한 차량에 ID를 부여할 수 있다. For example, the detection unit 150 sets an area based on a photographing range using a first camera installed at a preset position, and detects the area set from when the vehicle characteristic information recognized through the first camera enters the set area. Recognized vehicle speed information may be detected using frame information constituting image data including vehicle characteristic information obtained as the set area is photographed until it leaves. The detection unit 150 determines the number of frames constituting image data including vehicle characteristic information according to time information from when the vehicle characteristic information enters the set area to the time it leaves the set area based on the frame unit set in the first camera. Vehicle speed information may be detected by tracking location information related to vehicle characteristic information recognized using the information. The detection unit 150 may assign an ID to a vehicle entering a set area based on the recognized vehicle characteristic information.

다른 예로서, 검지부(150)는 수직으로 설치된 제1 카메라와 제2 카메라의 높이 차이에 따라 발생하는 차량과의 거리 정보에 기초하여 차량 속도 정보를 검지할 수 있다. 검지부(150)는 제1 카메라에서 인식된 차량 특징 정보와 관련된 위치 정보까지 계산된 거리 정보와 제2 카메라에서 인식된 차량 특징 정보와 관련된 위치 정보까지 계산된 거리 정보에 각각의 카메라의 설치 각도에 의한 오차 및 각각의 카메라의 처리 속도에 의한 오차를 고려하여 차량 속도 정보를 검지할 수 있다. As another example, the detection unit 150 may detect vehicle speed information based on distance information from the vehicle generated according to a height difference between the vertically installed first camera and the second camera. The detection unit 150 includes the distance information calculated from the first camera to the position information related to the vehicle characteristic information recognized by the first camera and the distance information calculated from the second camera to the calculated distance information related to the vehicle characteristic information recognized by the installation angle of each camera. The vehicle speed information may be detected in consideration of the error caused by the camera and the error caused by the processing speed of each camera.

또한, 검지부(130)는 인식된 차량 특징 정보와 관련된 위치 정보를 통해 차량의 차선 위반 정보, 속도 위반 정보를 포함하는 위반 정보를 판단할 수 있다. 예를 들면, 딥러닝 모델을 통하여 인식된 차량 특징 정보와 관련된 위치 정보를 이용하여 기 저장된 차선 기준 정보 및 속도 기준 정보와 비교함으로써 차량이 차선을 위반하였는지 여부, 속도를 위반하였는지 여부를 판단할 수 있다. 검지부(150)는 스쿨존에 설정된 기준 정보에 기초하여 차량 특징 정보와 관련된 위치 정보를 비교하여 차량 또는 차량 속도 정보가 스쿨존 규정을 위반하였는지 판단할 수도 있다. Also, the detection unit 130 may determine violation information including lane violation information and speed violation information of the vehicle through location information related to the recognized vehicle characteristic information. For example, it is possible to determine whether the vehicle violates a lane or speed by comparing it with pre-stored lane reference information and speed reference information using location information related to vehicle characteristic information recognized through a deep learning model. have. The detection unit 150 may determine whether the vehicle or vehicle speed information violates school zone regulations by comparing location information related to vehicle characteristic information based on reference information set in the school zone.

또한, 검지부(150)는 속도 검지를 위하여 입력된 영상 데이터를 분석함에 따라 영상 데이터와 연관된 지역의 신호 시스템과 연동하여 교통량을 분배하기 위한 신호 데이터를 다르게 제어하도록 차량 분포 정보를 전달할 수 있다. 예를 들면, 영상 데이터를 분석함에 따라 영상 데이터가 찍힌 지역의 특정 구간에 정체가 발생될 경우, 상기 지역의 신호 시스템과 연동하여 차량 분포 정보를 전달할 수 있고, 신호 시스템을 통하여 상기 지역의 특정 구간에 차량 분포 정보에 기반하여 차량을 통과시키도록 신호 데이터가 조작될 수 있다. In addition, as the detection unit 150 analyzes the input image data for speed detection, the vehicle distribution information may be transmitted to differently control the signal data for distributing the traffic volume in association with the local signal system related to the image data. For example, when congestion occurs in a specific section of an area where the video data is captured as the video data is analyzed, vehicle distribution information may be transmitted in conjunction with a signal system of the area, and the specific section of the area through the signal system The signal data may be manipulated to pass the vehicle based on the vehicle distribution information.

도 3 및 도 4는 일 실시예에 따른 속도 단속 시스템에서 복수 개의 카메라를 이용하여 차량의 속도를 검지하는 방법을 설명하기 위한 도면이다.3 and 4 are diagrams for explaining a method of detecting the speed of a vehicle using a plurality of cameras in the speed control system according to an embodiment.

속도 단속 시스템은 하나의 카메라 또는 복수 개의 카메라를 구성할 수 있다. 만약, 하나의 카메라로 구성되어 있을 경우, 기 설정된 위치에 설치될 수 있으며, 복수 개의 카메라로 구성되어 있을 경우, 제1 카메라 및 제2 카메라를 수직으로 설치될 수 있으며, 하나는 상측에 하나는 하측에 위치될 수 있다. 예를 들면, 제1 카메라를 상측에 제2 카메라는 제1 카메라보다 하측에 설치되어 있다고 가정하고 설명하기로 한다.The speed control system may constitute one camera or a plurality of cameras. If it is composed of one camera, it may be installed at a preset position, and if it is composed of a plurality of cameras, the first camera and the second camera may be installed vertically, one on the upper side and one on the upper side. It may be located on the lower side. For example, it is assumed that the first camera is installed on the upper side and the second camera is installed on the lower side of the first camera.

또한, 속도 단속 시스템에 레이더, 레이저, 라이다 중 어느 하나가 더 설치되어 있을 수 있다. 레이더(Radar)는 무선 탐지와 거리 측정(Radio Detecting And Ranging)의 약어로 전자기파 발사 후 물체에서 반사되는 전자기파를 수신해 거리, 방향 등을 확인할 수 있다. 일례로, 레이더는 검지 영역에 존재하는 차량에 신호를 전파하고, 전파되는 신호가 반사되는 시간을 계산하여 차량까지의 거리 및 각도를 계산함으로써 차량 정보를 획득할 수 있다. 다른 예로서, 레이저(Laser)는 물체를 향해 레이저를 발사한 뒤 반사되어 되돌아오는 레이저를 검출하여 정확한 거리를 측정할 수 있다. 이때, 양방향 레이저가 사용되어 차량 정보를 획득할 수 있다. 또 다른 예로서, 라이다(Lidar)는 레이더와 이름이 비슷할 뿐만 아니라, 기본적인 원리도 비슷하다.  다만, 라이더는 레이더와 파장이 다른 레이저를 발사해 반사되는 레이저의 시간과 강도, 주파수의 변화 등을 활용해 주변을 인지할 수 있고, 더 구체적인 정보를 획득할 수 있다. 라이다는 센서서가 360도 회전하면서 모든 곳을 인지할 수 있다. 예를 들면, 레이더는 속도 단속 시스템에 설치되어 있을 수 있고, 카메라에 레이더 기능이 포함되어 있을 수 있다. In addition, any one of a radar, a laser, and a lidar may be further installed in the speed control system. Radar is an abbreviation of Radio Detecting And Ranging, and it can check distance and direction by receiving electromagnetic waves reflected from objects after emitting electromagnetic waves. For example, the radar may acquire vehicle information by propagating a signal to a vehicle existing in the detection area, calculating a time at which the propagated signal is reflected, and calculating the distance and angle to the vehicle. As another example, the laser may measure an accurate distance by emitting a laser toward an object and detecting the reflected laser back. In this case, a bidirectional laser may be used to obtain vehicle information. As another example, Lidar not only has a similar name to radar, but also has a similar basic principle. However, by firing a laser with a different wavelength from the radar, the rider can recognize the surroundings by using the time and intensity of the reflected laser, changes in frequency, etc., and obtain more specific information. LiDAR can recognize anywhere as the sensor rotates 360 degrees. For example, a radar may be installed in a speed control system, and a radar function may be included in the camera.

속도 단속 시스템은 하나의 카메라 또는 복수 개의 카메라를 이용하여 차량 특징 정보를 포함하는 영상 데이터를 획득할 수 있다. 또는, 속도 단속 시스템은 적어도 하나 이상의 카메라를 이용하여 촬영됨에 따라 획득된 촬영 데이터 및 레이더를 이용하여 획득된 레이더 데이터를 결합하여 영상 데이터를 획득할 수 있다. 예를 들면, 속도 단속 시스템은 복수 개의 카메라(제1 카메라 및 제2 카메라)와 레이더를 이용하여 계속적으로 촬영할 수 있다. 이와 같이 촬영된 영상 데이터의 동기화를 수행하여 최종의 영상 데이터가 획득될 수 있다. The speed control system may acquire image data including vehicle characteristic information by using one camera or a plurality of cameras. Alternatively, the speed control system may acquire image data by combining photographing data obtained by photographing using at least one camera and radar data obtained using radar. For example, the speed control system may continuously take pictures using a plurality of cameras (a first camera and a second camera) and a radar. The final image data may be obtained by synchronizing the captured image data in this way.

속도 단속 시스템은 객체 탐지를 위한 딥러닝 모델을 구성할 수 있다. 속도 단속 시스템은 차량 특징 정보를 학습시키기 위한 딥러닝 모델을 구성할 수 있다. 속도 단속 시스템은 카메라로부터 획득된 영상 데이터에 포함된 차량 특징 정보를 이용하여 딥러닝 모델을 학습시킬 수 있다. 속도 단속 시스템은 영상 데이터로부터 차량의 번호판에 구성된 차량 번호 또는 문자를 포함하는 번호판 정보, 번호판 정보의 일부, 차량과 관련된 제조회사의 마크 정보, 또는 차량의 앰블럼을 포함하는 차량 특징 정보를 이용하여 딥러닝 모델을 학습시킬 수 있다. 속도 단속 시스템은 학습된 딥러닝 모델에 속도 검지를 위한 영상 데이터를 입력할 수 있다. 속도 단속 시스템은 학습된 딥러닝 모델을 이용하여 입력된 속도 검지를 위한 영상 데이터로부터 차량 특징 정보와 관련된 위치 정보를 인식할 수 있다. 속도 단속 시스템은 인식된 차량 특징 정보와 관련된 위치 정보를 추적하여 차량 속도 정보를 검지할 수 있다. The speed enforcement system can construct a deep learning model for object detection. The speed control system can construct a deep learning model for learning vehicle characteristic information. The speed control system may train a deep learning model using vehicle characteristic information included in image data obtained from a camera. The speed control system uses the vehicle characteristic information including the license plate information including the license plate number or text configured on the license plate of the vehicle from the image data, a part of the license plate information, the mark information of the manufacturer related to the vehicle, or the vehicle's emblem. A learning model can be trained. The speed control system can input image data for speed detection into the trained deep learning model. The speed control system may recognize location information related to vehicle characteristic information from the input image data for speed detection using the learned deep learning model. The speed control system may detect vehicle speed information by tracking location information related to the recognized vehicle characteristic information.

또한, 속도 단속 시스템은 속도 검지를 위한 영상 데이터에 존재하는 객체의 위치, 외형, 차종, 차량 번호를 포함하는 차량 식별 정보를 인식할 수 있다. 더 나아가, 속도 단속 시스템은 차량에 대한 단속 정보를 포함하는 차량 정보를 제공할 수 있다. 이때, 단속 정보란, 각 도로마다 정해진 규칙을 지키는지 여부를 판단하기 위한 것을 의미할 수 있다. 속도 단속 시스템은 검지 영역에서의 차량 특징 정보와 관련된 위치 정보의 추적을 통하여 차량 정보를 인식할 수 있다. 속도 단속 시스템은 차량 특징 정보와 관련된 위치 정보의 추적을 통하여 차량의 정상 주행 여부, 차량의 차선 위반 여부를 포함하는 차량의 단속 정보를 도출하고, 도출된 차량의 단속 정보, 및 차량과 관련된 차량이 위치하는 차선 정보, 차량의 차종 및 차량의 번호를 포함하는 차량 정보를 제공할 수 있다. 예를 들면, 속도 단속 시스템은 속도 검지를 위한 영상 정보를 이용한 차량 특징 정보와 관련된 위치 정보의 추적을 통하여 차량의 위치, 차량의 외형 또는 차량의 번호 등을 판단할 수 있고, 레이더, 레이저 및 라이더 정보를 통하여 차량의 속도, 차량의 위치 또는 차선별 차량의 진입수 등을 판단할 수 있다. 또한, 속도 단속 시스템은 차량의 번호판을 인식할 수 있고, 더 나아가 차 모델을 추정할 수도 있다. 속도 단속 시스템은 차량의 속도 검출, 통행량을 추정할 수 있다. 속도 단속 시스템은 차량 특징 정보와 관련된 위치 정보의 추적을 통하여 차량 정보를 인식할 수 있고, 차량이 버스전용차로에 존재할 경우, 버스전용차로에서의 규정위반을 판단할 수도 있다. 또는, 속도 단속 시스템은 스쿨존 정보에 기초하여 스쿨존에서의 차량 속도 정보를 판단할 수 있다. In addition, the speed control system may recognize vehicle identification information including a location, an appearance, a vehicle model, and a vehicle number of an object existing in the image data for speed detection. Furthermore, the speed enforcement system may provide vehicle information including enforcement information about the vehicle. In this case, the enforcement information may mean for determining whether or not a rule set for each road is observed. The speed control system may recognize vehicle information by tracking location information related to vehicle characteristic information in the detection area. The speed control system derives vehicle enforcement information including whether the vehicle is driving normally and whether the vehicle is in lane violation through tracking location information related to vehicle characteristic information, and the derived vehicle enforcement information, and the vehicle related to the vehicle It is possible to provide vehicle information including location lane information, a vehicle model and a vehicle number. For example, the speed control system may determine the location of the vehicle, the shape of the vehicle or the number of the vehicle, etc. through tracking of location information related to vehicle characteristic information using image information for speed detection, and radar, laser and lidar Through the information, it is possible to determine the speed of the vehicle, the location of the vehicle, or the number of vehicles entering each lane. In addition, the speed control system may recognize the license plate of the vehicle, and may further estimate the car model. The speed control system can detect the speed of the vehicle and estimate the amount of traffic. The speed control system may recognize vehicle information through tracking of location information related to vehicle characteristic information, and when the vehicle is in the exclusive bus lane, it may determine a violation of regulations in the exclusive bus lane. Alternatively, the speed control system may determine vehicle speed information in the school zone based on the school zone information.

속도 단속 시스템은 제1 카메라와 제2 카메라의 높이 차이에 따라 발생하는 차량과의 거리 정보에 기초하여 차량의 속도 정보를 검지할 수 있다. 속도 단속 시스템은 수직으로 설치된 제1 카메라에서 인식된 차량까지의 계산된 거리 정보와 제2 카메라에서 인식된 차량까지의 계산된 거리 정보 사이의 차이 정보에 기초하여 인식된 차량의 속도 정보를 검지할 수 있다. 예를 들면, 속도 단속 시스템은 제1 카메라에서 상기 인식된 차량 특징 정보와 관련된 위치 정보까지 계산된 거리 정보와 제2 카메라에서 인식된 차량 특징 정보와 관련된 위치 정보까지 계산된 거리 정보에 각각의 카메라의 설치 각도에 의한 오차 및 각각의 카메라의 처리 속도에 의한 오차를 고려하여 차량 속도 정보를 검지할 수 있다.The speed control system may detect speed information of the vehicle based on distance information from the vehicle that is generated according to a height difference between the first camera and the second camera. The speed control system detects the speed information of the recognized vehicle based on difference information between the calculated distance information from the vertically installed first camera to the recognized vehicle and the calculated distance information from the second camera to the recognized vehicle. can For example, the speed control system may include the distance information calculated from the first camera to the position information related to the recognized vehicle characteristic information and the calculated distance information from the second camera to the position information related to the vehicle characteristic information recognized by each camera. Vehicle speed information may be detected in consideration of an error due to the installation angle of the , and an error due to the processing speed of each camera.

구체적으로, 도 3에 도시된 바와 같이, 제1 카메라 및 제2 카메라의 왼쪽에 존재하는 객체(차량)에 대하여 카메라와 차량 사이의 거리가 계산될 수 있다.

Figure 112020103016041-pat00001
은 수학식 1를 통하여 계산될 수 있다.Specifically, as shown in FIG. 3 , the distance between the camera and the vehicle may be calculated with respect to an object (vehicle) existing to the left of the first camera and the second camera.
Figure 112020103016041-pat00001
can be calculated through Equation (1).

수학식 1:Equation 1:

Figure 112020103016041-pat00002
Figure 112020103016041-pat00002

여기서, P1은 왼쪽 카메라(하측 카메라) 이미지의 픽셀 좌표이고,

Figure 112020103016041-pat00003
은 이미지 픽셀의 개수를 2로 나눈 값을 의미한다. where P 1 is the pixel coordinate of the left camera (bottom camera) image,
Figure 112020103016041-pat00003
is a value obtained by dividing the number of image pixels by 2.

마찬가지로,

Figure 112020103016041-pat00004
는 수학식 2를 통하여 계산될 수 있다.Likewise,
Figure 112020103016041-pat00004
can be calculated through Equation (2).

수학식 2:Equation 2:

Figure 112020103016041-pat00005
Figure 112020103016041-pat00005

도 1로부터 수학식 3의 식이 도출될 수 있다.The expression of Equation 3 can be derived from FIG. 1 .

수학식 3:Equation 3:

Figure 112020103016041-pat00006
Figure 112020103016041-pat00006

이때, 사인 법칙을 적용하면 수학식 4와 같은 식이 도출될 수 있다.In this case, if the sine rule is applied, an expression such as Equation 4 may be derived.

수학식 4:Equation 4:

Figure 112020103016041-pat00007
Figure 112020103016041-pat00007

D는 왼쪽 카메라(하측 카메라)와 차량 사이의 거리를 나타낸다. 수학식 4를 정리하여 D에 대해 나타내면 수학식 5와 같이 나타낼 수 있다. D represents the distance between the left camera (lower camera) and the vehicle. If Equation 4 is summarized and expressed for D, it can be expressed as Equation 5.

수학식 5:Equation 5:

Figure 112020103016041-pat00008
Figure 112020103016041-pat00008

속도 단속 시스템은 카메라 설치 각도에 대한 오차가 발생하는 것을 고려할 수 있다. 예를 들면, 두 카메라의 설치 높이가 5m, 6m이고, 카메라 설치 기둥에서 차량까지의 거리가 30m, 카메라 화각이 70°라고 가정하기로 한다.The speed control system may consider that an error occurs with respect to the camera installation angle. For example, it is assumed that the installation heights of the two cameras are 5m and 6m, the distance from the camera installation post to the vehicle is 30m, and the camera angle of view is 70°.

카메라로부터 차량까지의 거리 R=30m이고, 도 1에 적용시키면, If the distance R = 30 m from the camera to the vehicle,

Figure 112020103016041-pat00009
Figure 112020103016041-pat00009

Figure 112020103016041-pat00010
가 도출될 수 있다.
Figure 112020103016041-pat00010
can be derived.

이에,

Figure 112020103016041-pat00011
Figure 112020103016041-pat00012
를 도출하여 수학식 5에 대입되어 계산함에 따라 결과가 도출될 수 있다. Therefore,
Figure 112020103016041-pat00011
class
Figure 112020103016041-pat00012
A result can be derived by deriving and substituting it in Equation 5 for calculation.

Figure 112020103016041-pat00013
Figure 112020103016041-pat00013

이때,

Figure 112020103016041-pat00014
에 -1°의 오차가 발생한 경우, At this time,
Figure 112020103016041-pat00014
If an error of -1° occurs in

Figure 112020103016041-pat00015
Figure 112020103016041-pat00015

Figure 112020103016041-pat00016
에 1°의 오차가 발생한 경우
Figure 112020103016041-pat00016
If an error of 1° occurs in

Figure 112020103016041-pat00017
Figure 112020103016041-pat00017

로 계산 결과에 오차가 발생하게 된다. This causes an error in the calculation result.

또한, 속도 단속 시스템은 카메라 처리 속도에 의하여 발생하는 오차를 고려할 수 있다. 도 4에 도시된 바와 같이, 시속 100km의 경우 이동 속도는 27.7m/sec, 영상 처리속도는 30frame/sec, 차량의 속도 오차는 Ve=(d2-92.6cm)/(t1-t2)이다. 이때, 1 프레임 최대 오차는 92.6cm일 수 있다. 또한, 시속 100km이고 d2=30m 일 경우, t1-t2=30m/27.7m/s=1.08sec이고, Ve=96.9km/h 속도로 3.1% 오차가 발생할 수 있다. In addition, the speed control system may consider errors caused by the camera processing speed. As shown in FIG. 4 , in the case of 100 km/h, the moving speed is 27.7 m/sec, the image processing speed is 30 frames/sec, and the vehicle speed error is Ve = (d2-92.6cm)/(t1-t2). In this case, the maximum error of one frame may be 92.6 cm. In addition, when the speed is 100km/h and d2=30m, t1-t2=30m/27.7m/s=1.08sec, and a 3.1% error may occur at the speed Ve=96.9km/h.

도 5, 도 6 및 도 9는 일 실시예에 따른 속도 단속 시스템에서 하나의 카메라를 이용하여 차량의 속도를 계산하는 방법을 설명하기 위한 도면이다.5, 6, and 9 are diagrams for explaining a method of calculating a vehicle speed using one camera in the speed control system according to an exemplary embodiment.

실시예에서 속도 단속 시스템은 하나의 카메라를 구성할 수 있다. 이때, 하나의 카메라는 특정 위치에 설치될 수 있다. 또한, 속도 검지 단속 시스템은 레이더, 레이저, 라이다 중 어느 하나가 더 설치되어 있을 수 있다. In an embodiment, the speed control system may constitute one camera. In this case, one camera may be installed at a specific location. In addition, the speed detection and control system may be further installed any one of a radar, a laser, and a lidar.

속도 단속 시스템은 하나의 카메라 또는 복수 개의 카메라를 이용하여 차량 특징 정보를 포함하는 영상 데이터를 획득할 수 있다. 속도 단속 시스템은 획득된 영상 데이터에 포함된 차량 특징 정보를 이용하여 딥러닝 모델을 학습시킬 수 있다. The speed control system may acquire image data including vehicle characteristic information by using one camera or a plurality of cameras. The speed control system may train a deep learning model by using vehicle characteristic information included in the acquired image data.

속도 단속 시스템은 학습된 딥러닝 모델에 속도 검지를 위한 영상 데이터를 입력할 수 있다. 속도 단속 시스템은 학습된 딥러닝 모델을 이용하여 입력된 속도 검지를 위한 영상 데이터로부터 차량 특징 정보와 관련된 위치 정보를 인식할 수 있다. 속도 단속 시스템은 인식된 차량 특징 정보와 관련된 위치 정보를 추적하여 차량 속도 정보를 검지할 수 있다. 실시예에서는 속도 단속 시스템은 하나의 카메라에서 기 설정된 영역(540)에 차량이 촬영된 시점부터 차량 인식을 수행할 수 있다. The speed control system can input image data for speed detection into the trained deep learning model. The speed control system may recognize location information related to vehicle characteristic information from the input image data for speed detection using the learned deep learning model. The speed control system may detect vehicle speed information by tracking location information related to the recognized vehicle characteristic information. In an embodiment, the speed control system may perform vehicle recognition from a point in time when a vehicle is photographed in a preset area 540 by one camera.

속도 단속 시스템은 차량의 속도를 검지하기 위한 영역(540)을 설정할 수 있다. 속도 단속 시스템은 기 설정된 위치에 설정된 하나의 카메라를 이용하여 촬영 가능한 범위 기반의 영역(540)을 설정할 수 있다. 이때, 영역(540)의 크기는 사용자에 의하여 설정될 수 있고, 사용자의 입력에 따라 크기가 변경될 수도 있다. 예를 들면, 속도 단속 시스템은 하나의 카메라를 통하여 인식된 차량 특징 정보가 설정된 영역(540)에 진입(520)하였을 시점부터 설정된 영역(540)을 벗어(510)날 시점까지 설정된 영역이 촬영됨에 따라 획득된 차량 특징 정보를 포함하는 영상 데이터를 구성하는 프레임 정보를 이용하여 인식된 차량(530)에 대한 속도 정보를 검지할 수 있다. 이때, 속도 단속 시스템은 인식된 차량 특징 정보와 관련된 위치 정보의 추적을 통해 설정된 영역(540)에 진입한 차량에 ID를 부여할 수 있다. 속도 단속 시스템은 차량에 부여된 ID에 기초하여 프레임마다 차량의 ID를 추적하여 차량 속도 정보를 검지할 수 있다. The speed control system may set an area 540 for detecting the speed of the vehicle. The speed control system may set an area 540 based on a photographing range using one camera set at a preset position. In this case, the size of the region 540 may be set by the user, and the size may be changed according to the user's input. For example, in the speed control system, the set area is photographed from the point in time when the vehicle characteristic information recognized through one camera enters (520) the set area (540) to the point at which it leaves (510) the set area (540). The speed information of the recognized vehicle 530 may be detected by using frame information constituting image data including the acquired vehicle characteristic information. In this case, the speed control system may assign an ID to the vehicle entering the set area 540 through tracking of location information related to the recognized vehicle characteristic information. The speed control system may detect vehicle speed information by tracking the ID of the vehicle for each frame based on the ID assigned to the vehicle.

속도 단속 시스템은 하나의 카메라에 설정된 프레임 단위에 기초하여 인식된 차량 특징 정보가 설정된 영역(540)에 진입(520)하였을 때부터 설정된 영역(540)을 벗어(510)날 때까지의 시간 정보에 따른 차량 특징 정보를 포함하는 영상 데이터를 구성하는 프레임 개수 정보를 이용하여 인식된 차량 속도 정보를 검지할 수 있다. 다시 말해서, 카메라에 1초당 촬영되는 프레임 개수가 설정되어 있을 수 있다. 이에, 속도 단속 시스템은 프레임당 차량 특징 정보와 관련된 위치 정보(예를 들면, 좌표 정보)를 파악하여 차량 속도를 검지할 수 있다. 여기서, 차량 특징 정보와 관련된 위치 정보란, 차량의 번호판 전체가 아닌 번호판 중 일부, 차량에 부착된 앰블럼, 차량에 부착된 마크 정보 등에 해당하는 특징 위치를 의미할 수 있다. 예를 들면, 프레임을 분석함에 따라 판단된 차량 특징 정보와 관련된 위치 정보에 기초하여 차량의 속도를 제공하기 위한 환산표가 존재할 수 있다. 속도 단속 시스템은 제1 프레임과 제2 프레임 간 차량의 위치 차이를 계산할 수 있고, 계산된 프레임 간 차량 특징 정보의 위치 정보간 위치 차이에 기초하여 위치 차이에 대응하는 환산표에 존재하는 속도 정보를 추출할 수 있다. 속도 단속 시스템은 차량 속도 정보를 검지할 수 있다. 다른 예로서, 또 다른 예로서, 속도 단속 시스템은 영역(540)에 기 설정된 범위의 가상선을 표시할 수 있다. 이때, 가상선은 카메라에 설정된 프레임 단위에 기초하여 차량의 속도를 판단하기 위하여 영역에 설정된 복수 개의 선을 의미할 수 있으며, 기 설정된 속도 단위로 선이 표시될 수 있다. 예를 들면, 영역에 3개의 가상선이 표시될 수 있으며, 3개의 가상선이 표시됨에 따라 4개의 세부 영역이 생성될 수 있다. 이때, 각각의 영역별로 25km/h 차이가 나타난다고 하면, 제1 프레임에서 제1 영역에 차량이 존재하였고, 제2 프레임에서 제2 영역에 차량이 존재할 경우, 차량의 속도가 25km/h 증가한 것으로 판단될 수 있다. 속도 단속 시스템은 각각의 프레임을 비교함에 따라 영역(540)에 표시된 가상선을 기준으로 차량 특징 정보와 관련된 위치 정보를 통한 차량이 이동된 거리에 따른 차량의 속도 정보를 판단할 수 있다. The speed control system is based on the time information from when the vehicle characteristic information recognized based on the frame unit set in one camera enters (520) the set area 540 until it leaves (510) the set area 540. Recognized vehicle speed information may be detected using information on the number of frames constituting image data including vehicle characteristic information. In other words, the number of frames captured per second may be set in the camera. Accordingly, the speed control system may detect the vehicle speed by identifying location information (eg, coordinate information) related to vehicle characteristic information per frame. Here, the position information related to the vehicle characteristic information may mean a characteristic position corresponding to a part of the license plate, not the entire license plate of the vehicle, an emblem attached to the vehicle, mark information attached to the vehicle, and the like. For example, there may be a conversion table for providing the speed of the vehicle based on location information related to vehicle characteristic information determined by analyzing the frame. The speed control system may calculate the position difference of the vehicle between the first frame and the second frame, and extract the speed information present in the conversion table corresponding to the position difference based on the position difference between the position information of the vehicle characteristic information between the frames. can do. The speed control system may detect vehicle speed information. As another example, as another example, the speed control system may display a virtual line of a preset range in the area 540 . In this case, the virtual line may mean a plurality of lines set in the area to determine the speed of the vehicle based on the frame unit set in the camera, and the line may be displayed in a preset speed unit. For example, three virtual lines may be displayed in the area, and as the three virtual lines are displayed, four detailed areas may be generated. At this time, assuming that a difference of 25 km/h appears for each region, when the vehicle exists in the first region in the first frame and the vehicle exists in the second region in the second frame, the vehicle speed increases by 25 km/h can be judged. As each frame is compared, the speed control system may determine the speed information of the vehicle according to the distance the vehicle has moved through the location information related to the vehicle characteristic information based on the virtual line displayed in the region 540 .

더 나아가, 속도 단속 시스템은 영상 데이터에 표시되는 도로의 차선 정보를 계산하여 인식된 차량 속도 특징 정보와 관련된 위치 정보를 통해 차량이 이동하는 거리 정보를 보정할 수 있다. 예를 들면, 속도 단속 시스템은 속도 검지를 위한 영상 데이터에 표시되는 도로 차선 정보(예를 들면, 도로 폭, 몇 차선인지)를 계산할 수 있다.Furthermore, the speed control system may correct the distance information the vehicle moves through the location information related to the recognized vehicle speed characteristic information by calculating the lane information of the road displayed in the image data. For example, the speed control system may calculate road lane information (eg, road width, how many lanes) displayed in the image data for speed detection.

도 6을 참고하면, 제1 영상 데이터가 촬영된 시간이 00:07:15.241이고, 제2 영상 데이터가 촬영된 시간이 00:07:16.385라고 하면, 시간 차이는 1.141초가 된다. 이러한 시간 차이 정보를 이용하여 각각의 프레임에 따른 차량 특징 정보와 관련된 특정 위치를 이용한 차량의 위치 정보를 파악하여 차량에 대한 속도 정보를 검지할 수 있다.Referring to FIG. 6 , if the time at which the first image data is captured is 00:07:15.241 and the time at which the second image data is captured is 00:07:16.385, the time difference is 1.141 seconds. By using the time difference information, it is possible to detect vehicle location information using a specific location related to vehicle characteristic information according to each frame to detect speed information about the vehicle.

도 9를 참고하면, 기 설정된 위치에 설치된 제1 카메라를 이용하여 촬영 가능한 범위 기반의 영역이 설정될 수 있다. 제1 카메라를 통하여 인식된 차량 특징 정보와 관련된 위치 정보가 설정된 영역에 진입하였을 때부터 설정된 영역을 벗어날 때까지 설정된 영역이 촬영됨에 따라 획득된 차량 특징 정보를 포함하는 영상 데이터를 구성하는 프레임 정보를 이용하여 인식된 차량 속도 정보를 검지할 수 있다. 예를 들면, 설정된 영역에서 촬영된 차량 특징 정보를 포함하는 제1 영상 데이터와 차량 특징 정보를 포함하는 제2 영상 데이터가 획득될 수 있다. 그러면, 제2 영상 데이터에서의 인식된 차량 특정 정보(예를 들면, 숫자 3의 위치)와 제1 영상 데이터에서의 인식된 차량 특정 정보를 감산함에 따라 획득된 이동 거리와, 제2 영상 데이터의 촬영 시간과 제1 영상 데이터의 촬영 시간을 감산한 시간 정보를 이용하여 차량 속도 정보가 계산될 수 있다. 여기서는, 이동거리(t2영상의 숫자 '3'위치-t1영상의 숫자 '3'위치)/(t2-t1)를 계산함에 따라 차량 속도 정보가 산출될 수 있다. Referring to FIG. 9 , an area based on a photographing range may be set using the first camera installed at a preset position. Frame information constituting image data including vehicle characteristic information acquired as the set area is photographed from when the location information related to the vehicle characteristic information recognized through the first camera enters the set area until it leaves the set area. It is possible to detect the recognized vehicle speed information using For example, first image data including vehicle characteristic information captured in a set area and second image data including vehicle characteristic information may be acquired. Then, the movement distance obtained by subtracting the recognized vehicle-specific information in the second image data (for example, the position of the number 3) and the recognized vehicle-specific information in the first image data, and the Vehicle speed information may be calculated using time information obtained by subtracting the photographing time and the photographing time of the first image data. Here, vehicle speed information may be calculated by calculating the moving distance (position '3' of the t2 image - the position of number '3' of the t1 image)/(t2-t1).

도 7은 일 실시예에 따른 속도 단속 시스템에서 차량 정보를 인식하는 것을 설명하기 위한 도면이다. 7 is a view for explaining the recognition of vehicle information in the speed control system according to an embodiment.

속도 검지를 위한 알고리즘이 다음과 같이 구현될 수 있다. An algorithm for speed detection can be implemented as follows.

Figure 112020103016041-pat00018
Figure 112020103016041-pat00018

속도 단속 시스템은 구현된 알고리즘에 기초하여 차량 속도 정보를 검지할 수 있다. 속도 단속 시스템은 영역의 크기를 설정할 수 있다. 예를 들면, 사용자로부터 입력된 수치에 기초하여 영역의 크기가 설정될 수 있다. 속도 단속 시스템은 각각의 영상 데이터에 대한 차량의 위치 정보를 인식할 수 있다. 이때, 기준점이 설정되어 있을 수 있으며, 설정된 기준점을 기반으로 차량의 위치 정보가 파악될 수 있다. 속도 단속 시스템은 제1 영상 데이터에서 번호판의 중심 좌표와 제2 영상 데이터에서 번호판의 중심 좌표를 획득할 수 있다. 속도 단속 시스템은 각각의 영상 데이터에서의 차량의 위치 정보와 각각의 영상 데이터에서의 번호판 중심 좌표에 기반하여 차량의 속도 정보를 도출할 수 있다. 또한, 예를 들면, 속도 단속 시스템은 차량 특징 정보를 포함하는 영상 데이터를 이용하여 차량 특징 정보와 관련된 위치 정보를 인식할 수 있다. 이와 같이, 인식된 차량 특징 정보와 관련된 위치 정보를 통해 차량의 위치 정보가 추정될 수 있다. 속도 단속 시스템은 차량 특징 정보/차량 특징 정보에 따른 특정 지점(위치 정보)를 이용하여 차량 속도 정보를 검지함으로써 전체적인 차량의 형태를 인식하는 것보다 인식 정확도를 높일 수 있고, 속도 검지 오류를 감소시킬 수 있다. The speed enforcement system may detect vehicle speed information based on the implemented algorithm. The speed control system can set the size of the area. For example, the size of the region may be set based on a numerical value input by the user. The speed control system may recognize vehicle location information for each image data. In this case, a reference point may be set, and location information of the vehicle may be grasped based on the set reference point. The speed control system may acquire the center coordinates of the license plate from the first image data and the center coordinates of the license plate from the second image data. The speed control system may derive vehicle speed information based on the location information of the vehicle in each image data and the license plate center coordinates in each image data. Also, for example, the speed control system may recognize location information related to vehicle characteristic information using image data including vehicle characteristic information. In this way, location information of the vehicle may be estimated through location information related to the recognized vehicle characteristic information. By detecting vehicle speed information using a specific point (location information) according to vehicle characteristic information/vehicle characteristic information, the speed control system can increase recognition accuracy than recognizing the overall shape of the vehicle, and reduce speed detection errors. can

또한, 속도 단속 시스템은 영상 데이터에 표시되는 도로의 차선 정보를 계산하여 인식된 차량 속도 특징 정보와 관련된 위치 정보를 통해 차량이 이동하는 거리 정보를 보정할 수 있다. In addition, the speed control system may correct information on the distance the vehicle moves through location information related to vehicle speed characteristic information recognized by calculating lane information of a road displayed in the image data.

도 8은 일 실시예에 따른 속도 단속 시스템에서 한글 오인식 검증을 수행하는 것을 설명하기 위한 예이다.8 is an example for explaining how to perform Hangul misrecognition verification in the speed control system according to an embodiment.

속도 단속 시스템은 차량 특징 정보와 관련된 위치 정보를 인식함에 있어서, 차량의 번호판에 존재하는 문자에 대한 오인식이 발생할 수 있다. 차량의 번호판은 기 설정된 자리의 문자와 숫자로 구성될 수 있다. 예를 들면, 차량의 번호판이 45호 1172일 경우, 속도 단속 시스템에서 호를 오, 모 등으로 오인식이 발생될 수 있다. 또한, 차량의 번호판에 존재하는 문자 중 하->아, 무->우, 부->무, 루->무 등으로 오인식될 수 있다. 이에, 속도 단속 시스템은 도로의 시설물 정보를 이용하여 카메라 떨림을 보정을 수행할 수 있다.When the speed control system recognizes location information related to vehicle characteristic information, misrecognition of characters on the license plate of the vehicle may occur. The license plate of the vehicle may be composed of letters and numbers of preset digits. For example, when the license plate of the vehicle is 45 and 1172, the speed control system may misrecognize the call as o, o, etc. In addition, among the characters present on the license plate of the vehicle, it may be mistakenly recognized as ha -> ah, mu -> u, bu -> mu, ru -> mu, and the like. Accordingly, the speed control system may correct the camera shake by using the facility information on the road.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA). , a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that may include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. may be embodied in The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (12)

속도 단속 시스템에 의해 수행되는 속도 검지 방법에 있어서,
복수 개의 카메라를 이용하여 차량 특징 정보를 포함하는 영상 데이터를 획득하는 단계;
상기 획득된 영상 데이터에 포함된 차량 특징 정보를 이용하여 딥러닝 모델을 학습시키는 단계;
상기 학습된 딥러닝 모델에 속도 검지를 위한 영상 데이터를 입력하는 단계;
상기 학습된 딥러닝 모델을 이용하여 상기 입력된 속도 검지를 위한 영상 데이터로부터 차량 특징 정보와 관련된 위치 정보를 인식하는 단계; 및
상기 인식된 차량 특징 정보와 관련된 위치 정보를 추적하여 차량 속도 정보를 검지하는 단계
를 포함하고,
상기 학습시키는 단계는,
상기 영상 데이터로부터 차량의 번호판에 구성된 차량 번호 또는 문자를 포함하는 번호판 정보, 상기 번호판 정보의 일부, 상기 차량과 관련된 제조회사의 마크 정보, 또는 상기 차량의 앰블럼을 포함하는 차량 특징 정보를 이용하여 딥러닝 모델을 학습시키는 단계
를 포함하고,
상기 입력하는 단계는,
도로의 시설물 정보 또는 영상 데이터에 표시되는 도로의 시설물 정보를 이용하여 카메라의 떨림을 보정하는 단계
를 포함하고,
상기 복수 개의 카메라는, 수직으로 설치된 제1 카메라 및 제2 카메라를 포함하고, 상기 제1 카메라는 상측에 설치되고, 상기 제2 카메라는 상기 제1 카메라보다 하측에 설치된 것이고,
상기 차량 속도 정보를 검지하는 단계는,
상기 수직으로 설치된 제1 카메라와 제2 카메라의 높이 차이에 따라 발생하는 차량과의 거리 정보에 기초하여 차량 속도 정보를 검지하고, 상기 제1 카메라에서 상기 인식된 차량 특징 정보와 관련된 위치 정보까지 계산된 거리 정보와 상기 제2 카메라에서 상기 인식된 차량 특징 정보와 관련된 위치 정보까지 계산된 거리 정보에 각각의 카메라의 설치 각도에 의한 오차 및 각각의 카메라의 처리 속도에 의한 오차를 고려하여 차량 속도 정보를 검지하는 단계
를 포함하는 속도 검지 방법.
A speed detection method performed by a speed control system, comprising:
obtaining image data including vehicle characteristic information by using a plurality of cameras;
learning a deep learning model using vehicle characteristic information included in the obtained image data;
inputting image data for speed detection into the learned deep learning model;
recognizing location information related to vehicle characteristic information from the input image data for speed detection using the learned deep learning model; and
Detecting vehicle speed information by tracking location information related to the recognized vehicle characteristic information
including,
The learning step is
From the image data, using license plate information including a vehicle number or character configured on a license plate of a vehicle, a part of the license plate information, mark information of a manufacturer related to the vehicle, or vehicle characteristic information including the emblem of the vehicle Steps to train a learning model
including,
The input step is
Correcting camera shake using road facility information or road facility information displayed in image data
including,
The plurality of cameras, including a first camera and a second camera installed vertically, the first camera is installed on the upper side, the second camera is installed below the first camera,
The step of detecting the vehicle speed information includes:
Vehicle speed information is detected based on distance information from the vehicle that is generated according to a height difference between the vertically installed first camera and the second camera, and the first camera calculates location information related to the recognized vehicle characteristic information. Vehicle speed information in consideration of the error due to the installation angle of each camera and the error due to the processing speed of each camera in the distance information calculated from the distance information and the position information related to the recognized vehicle characteristic information from the second camera step to detect
A speed detection method comprising a.
삭제delete 제1항에 있어서,
상기 차량 속도 정보를 검지하는 단계는,
영상 데이터에 표시되는 도로의 차선 정보를 계산하여 상기 인식된 차량 속도 특징 정보와 관련된 위치 정보의 추적을 통해 차량이 이동하는 거리 정보를 보정하는 단계
를 포함하는 속도 검지 방법.
According to claim 1,
The step of detecting the vehicle speed information includes:
Compensating the distance information the vehicle moves through tracking the location information related to the recognized vehicle speed characteristic information by calculating the lane information of the road displayed in the image data
A speed detection method comprising a.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 차량 속도 정보를 검지하는 단계는,
상기 인식된 차량 속도 특징 정보와 관련된 위치 정보를 통해 차량의 차선 위반 정보, 속도 위반 정보를 포함하는 위반 정보를 판단하는 단계를 포함하는 속도 검지 방법.
According to claim 1,
The step of detecting the vehicle speed information includes:
and determining violation information including lane violation information and speed violation information of the vehicle through location information related to the recognized vehicle speed characteristic information.
제1항에 있어서,
상기 영상 데이터를 획득하는 단계는,
카메라를 이용하여 촬영됨에 따라 획득된 촬영 데이터 및 레이더를 이용하여 획득된 레이더 데이터를 결합하여 영상 데이터를 획득하는 단계
를 포함하는 속도 검지 방법.
According to claim 1,
The step of obtaining the image data includes:
A step of acquiring image data by combining the imaging data acquired by using the camera and the radar data acquired using the radar
A speed detection method comprising a.
속도 단속 시스템에 있어서,
복수 개의 카메라를 이용하여 차량 특징 정보를 포함하는 영상 데이터를 획득하는 획득부;
상기 획득된 영상 데이터에 포함된 차량 특징 정보를 이용하여 딥러닝 모델을 학습시키는 학습부;
상기 학습된 딥러닝 모델에 속도 검지를 위한 영상 데이터를 입력하는 입력부;
상기 학습된 딥러닝 모델을 이용하여 상기 입력된 속도 검지를 위한 영상 데이터로부터 차량 특징 정보와 관련된 위치 정보를 인식하는 인식부; 및
상기 인식된 차량 특징 정보와 관련된 위치 정보를 추적하여 차량 속도 정보를 검지하는 검지부
를 포함하고,
상기 학습부는,
상기 영상 데이터로부터 차량의 번호판에 구성된 차량 번호 또는 문자를 포함하는 번호판 정보, 상기 번호판 정보의 일부, 상기 차량과 관련된 제조회사의 마크 정보, 또는 상기 차량의 앰블럼을 포함하는 차량 특징 정보를 이용하여 딥러닝 모델을 학습시키는 것을 포함하고,
상기 입력부는,
도로의 시설물 정보 또는 영상 데이터에 표시되는 도로의 시설물 정보를 이용하여 카메라의 떨림을 보정하는 것을 포함하고,
상기 복수 개의 카메라는, 수직으로 설치된 제1 카메라 및 제2 카메라를 포함하고, 상기 제1 카메라는 상측에 설치되고, 상기 제2 카메라는 상기 제1 카메라보다 하측에 설치된 것이고,
상기 검지부는,
상기 수직으로 설치된 제1 카메라와 제2 카메라의 높이 차이에 따라 발생하는 차량과의 거리 정보에 기초하여 차량 속도 정보를 검지하고, 상기 제1 카메라에서 상기 인식된 차량 특징 정보와 관련된 위치 정보까지 계산된 거리 정보와 상기 제2 카메라에서 상기 인식된 차량 특징 정보와 관련된 위치 정보까지 계산된 거리 정보에 각각의 카메라의 설치 각도에 의한 오차 및 각각의 카메라의 처리 속도에 의한 오차를 고려하여 차량 속도 정보를 검지하는
속도 단속 시스템.
In the speed control system,
an acquisition unit configured to acquire image data including vehicle characteristic information using a plurality of cameras;
a learning unit for learning a deep learning model using vehicle characteristic information included in the obtained image data;
an input unit for inputting image data for speed detection into the learned deep learning model;
a recognition unit for recognizing location information related to vehicle characteristic information from the input image data for speed detection using the learned deep learning model; and
A detection unit for detecting vehicle speed information by tracking location information related to the recognized vehicle characteristic information
including,
The learning unit,
From the image data, using license plate information including a vehicle number or character configured on a license plate of a vehicle, a part of the license plate information, mark information of a manufacturer related to the vehicle, or vehicle characteristic information including the emblem of the vehicle comprising training a learning model;
The input unit,
Compensating for camera shake by using road facility information or road facility information displayed in image data,
The plurality of cameras, including a first camera and a second camera installed vertically, the first camera is installed on the upper side, the second camera is installed below the first camera,
The detection unit,
Vehicle speed information is detected based on distance information from the vehicle that is generated according to a height difference between the vertically installed first camera and the second camera, and the first camera calculates location information related to the recognized vehicle characteristic information. Vehicle speed information in consideration of the error due to the installation angle of each camera and the error due to the processing speed of each camera in the distance information calculated from the distance information and the position information related to the recognized vehicle characteristic information from the second camera to detect
speed control system.
KR1020200125644A 2020-09-28 2020-09-28 Image based speed control system using deep learning KR102445138B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200125644A KR102445138B1 (en) 2020-09-28 2020-09-28 Image based speed control system using deep learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200125644A KR102445138B1 (en) 2020-09-28 2020-09-28 Image based speed control system using deep learning

Publications (2)

Publication Number Publication Date
KR20220042623A KR20220042623A (en) 2022-04-05
KR102445138B1 true KR102445138B1 (en) 2022-09-20

Family

ID=81182556

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200125644A KR102445138B1 (en) 2020-09-28 2020-09-28 Image based speed control system using deep learning

Country Status (1)

Country Link
KR (1) KR102445138B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100996482B1 (en) * 2009-04-02 2010-11-24 상지영서대학 산학협력단 System and Method for vehicle trajectory detection using long distance image tracking
KR101999993B1 (en) * 2019-04-22 2019-07-15 케이에스아이 주식회사 Automatic traffic enforcement system using radar and camera

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101898051B1 (en) * 2015-12-30 2018-09-12 건아정보기술 주식회사 Multilane vehicle speed detecting system
KR102267335B1 (en) * 2018-11-29 2021-06-22 주식회사 케이티앤씨 Method for detecting a speed employing difference of distance between an object and a monitoring camera
KR102207393B1 (en) * 2019-02-12 2021-01-28 한국도로공사 Expressway traffic monitoring system of transport information center CCTV using artificial intelligence

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100996482B1 (en) * 2009-04-02 2010-11-24 상지영서대학 산학협력단 System and Method for vehicle trajectory detection using long distance image tracking
KR101999993B1 (en) * 2019-04-22 2019-07-15 케이에스아이 주식회사 Automatic traffic enforcement system using radar and camera

Also Published As

Publication number Publication date
KR20220042623A (en) 2022-04-05

Similar Documents

Publication Publication Date Title
EP3183688B1 (en) Recognition and prediction of lane constraints
US10627228B2 (en) Object detection device
CN110171405B (en) System and method for braking vehicle based on detection object
US9031774B2 (en) Apparatus and method for preventing collision of vehicle
JP5867273B2 (en) Approaching object detection device, approaching object detection method, and computer program for approaching object detection
US9047518B2 (en) Method for the detection and tracking of lane markings
JP5251800B2 (en) Object tracking device and program
CN111103594A (en) Device and method for distinguishing false target in vehicle and vehicle comprising device and method
US20120081542A1 (en) Obstacle detecting system and method
US10699567B2 (en) Method of controlling a traffic surveillance system
JP5587170B2 (en) Driving support device and program
KR102569900B1 (en) Apparatus and method for performing omnidirectional sensor-fusion and vehicle including the same
KR102254195B1 (en) Traffic control system for providing guide regarding traffic-actuated signal and method thereof
KR20170088692A (en) Device and Method for Calculating Vehicle Speed by Image
WO2023124133A1 (en) Traffic behavior detection method and apparatus, electronic device, storage medium, and computer program product
KR102445138B1 (en) Image based speed control system using deep learning
US20150178577A1 (en) Image processing apparatus, and image processing method
US11667295B2 (en) Apparatus and method for recognizing object
KR102221158B1 (en) Apparatus and method for detecting vehicle type, speed and traffic using radar device and image processing
CN114333414A (en) Parking yield detection device, parking yield detection system, and recording medium
CN114746923A (en) Signal machine identification method and signal machine identification device
KR101890482B1 (en) Appartus for distinction of stop and movement using radar spectrum and method thereof
JP5487648B2 (en) Moving object measuring system, moving object measuring apparatus, moving object measuring method and program
KR102237552B1 (en) Control Method and Apparatus of Vehicle collision case
US11645838B2 (en) Object detection system, object detection method, and program

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant