KR102561656B1 - Control system of traffic flow with sensing of vehicle based on deep learning - Google Patents

Control system of traffic flow with sensing of vehicle based on deep learning Download PDF

Info

Publication number
KR102561656B1
KR102561656B1 KR1020210061249A KR20210061249A KR102561656B1 KR 102561656 B1 KR102561656 B1 KR 102561656B1 KR 1020210061249 A KR1020210061249 A KR 1020210061249A KR 20210061249 A KR20210061249 A KR 20210061249A KR 102561656 B1 KR102561656 B1 KR 102561656B1
Authority
KR
South Korea
Prior art keywords
unit
gpu
module
image
traffic
Prior art date
Application number
KR1020210061249A
Other languages
Korean (ko)
Other versions
KR20220153808A (en
Inventor
박정인
김유신
김경중
강경훈
설경학
Original Assignee
유에프엠시스템즈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 유에프엠시스템즈 주식회사 filed Critical 유에프엠시스템즈 주식회사
Priority to KR1020210061249A priority Critical patent/KR102561656B1/en
Publication of KR20220153808A publication Critical patent/KR20220153808A/en
Application granted granted Critical
Publication of KR102561656B1 publication Critical patent/KR102561656B1/en

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0145Measuring and analyzing of parameters relative to traffic conditions for specific applications for active traffic flow control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 카메라들에 의해 촬영된 영상을 분석하여 객체정보 및 교통정보를 생성한 후, 생성된 교통정보에 따라 최적 현시체계를 생성한 후, 생성된 최적 현시체계에 따라 교통신호가 제어되도록 구성됨으로써 차량 정체율 및 대기시간을 현저히 절감시킬 수 있을 뿐만 아니라 이에 따른 연비소모 및 오염가스 배출량을 효과적으로 줄여 사회적 비용 소모를 절감시킬 수 있고, 딥-러닝 알고리즘을 이용하여 입력된 영상들을 분석함에 따라 객체 인식률을 개선시켜 분석의 정확성 및 신뢰도를 획기적으로 높일 수 있으며, 딥-러닝 알고리즘으로 합성곱 신경망(CNN, Convolution Neural Network) 기반의 YOLO 모델을 적용시킴으로써 객체 인식률을 더욱 높일 수 있는 딥러닝 기반 객체 감응을 활용한 차량 흐름 제어 시스템에 관한 것이다.The present invention is configured to analyze images captured by cameras to generate object information and traffic information, create an optimal display system according to the generated traffic information, and then control traffic signals according to the generated optimal display system. As a result, not only can the vehicle congestion rate and waiting time be significantly reduced, but also can reduce social costs by effectively reducing fuel consumption and pollutant gas emissions accordingly, and by analyzing input images using a deep-learning algorithm, objects Deep learning-based object detection that can dramatically increase the accuracy and reliability of analysis by improving the recognition rate, and can further increase the object recognition rate by applying the YOLO model based on the Convolution Neural Network (CNN) as a deep-learning algorithm It relates to a vehicle flow control system using

Description

딥-러닝 기반 객체 감응을 활용한 차량 흐름 제어 시스템{Control system of traffic flow with sensing of vehicle based on deep learning}Vehicle flow control system using deep-learning based object sensing {Control system of traffic flow with sensing of vehicle based on deep learning}

본 발명은 딥-러닝 기반 객체 감응을 활용한 차량 흐름 제어 시스템에 관한 것으로서, 상세하게로는 딥-러닝(Deep learning) 기반을 이용하여 카메라 촬영에 의해 획득된 영상을 분석하여 차량 및 보행자 등의 객체분석정보를 검출한 후, 검출된 객체분석정보를 기반으로 신호체계를 수립하도록 구성됨으로써 객체 검출 및 감응의 정확성 및 신뢰도를 높임과 동시에 교차로 내 차량 대기시간을 현저히 절감시킬 수 있으며, 위반차량 단속율을 높일 수 있는 딥-러닝 기반 객체 감응을 활용한 차량 흐름 제어 시스템에 관한 것이다.The present invention relates to a vehicle flow control system using deep-learning-based object detection, and more particularly, by analyzing images obtained by camera shooting using a deep-learning basis to detect vehicles, pedestrians, etc. After detecting object analysis information, it is configured to establish a signal system based on the detected object analysis information, thereby increasing the accuracy and reliability of object detection and response, significantly reducing vehicle waiting time in the intersection, and cracking down on violating vehicles. It is about a vehicle flow control system using deep-learning based object sensing that can increase the rate.

최근 들어, 차량 보급률이 증가하고 도심이 확장됨에 따라 교통 혼잡이 일상화되어 막대한 규모의 경제적 손실을 발생시키고 있고, 이에 따라 교통 혼잡을 해결하기 위하여 도로를 신설하거나 확장하는 등의 다양한 노력이 이루어지고 있으나, 이러한 방식은 막대한 재원이 소요될 뿐만 아니라 단기적으로 해결하기 어려운 한계를 갖는다.In recent years, as the vehicle penetration rate has increased and the city center has been expanded, traffic congestion has become a daily routine, causing enormous economic losses. Accordingly, various efforts are being made, such as constructing or expanding roads, to solve traffic congestion. , this method not only requires enormous financial resources, but also has limitations that are difficult to solve in the short term.

따라서 교차로들의 신호체계를 최적화하여 차량 대기시간을 절감시키기 위한 다양한 연구가 진행되고 있다.Therefore, various studies are being conducted to reduce vehicle waiting time by optimizing the signal system of intersections.

종래의 대표적인 교차로 신호체계로는 차량검지수단에 의해 검출된 누적데이터들을 활용하여 TOD(Time Of Day)에 따라 고정된 신호주기 및 현시시간을 출력하는 정주기식 신호 운영방식과, 수집된 교통정보를 이용하여 교통상황에 따라 신호를 제어하는 능동형 신호 운영방식으로 분류된다.As a conventional representative intersection signal system, a fixed periodic signal operation method that outputs a fixed signal period and present time according to TOD (Time Of Day) using accumulated data detected by vehicle detection means, and collected traffic information It is classified as an active signal operation method that controls signals according to traffic conditions using

특히 능동형 신호 운영방식은 현재 교통상황에 따라 유동적으로 대응하여 차량 정체현상을 효과적으로 절감시킬 수 있는 장점으로 인해 이에 대한 다양한 연구가 이루어지고 있다.In particular, the active signal operation method has the advantage of being able to effectively reduce vehicle congestion by responding flexibly according to the current traffic situation, and thus various studies are being conducted on this.

한편, 최근 들어 딥-러닝(Deep learning) 기법을 이용하여 객체 감지, 종류, 트래킹 등을 수행하기 위한 영상 분석 기술에 대한 연구가 활발하게 이루어지고 있고, 이러한 딥-러닝을 활용한 영상 분석 기술은 학습을 통해 자체적으로 오차율을 줄이기 때문에 감지의 정확성 및 정밀도를 현저히 높일 수 있는 장점으로 인해 그 적용 분야가 기하급수적으로 증가하고 있다.On the other hand, recently, research on image analysis technology for performing object detection, type, tracking, etc. using deep learning techniques has been actively conducted, and this image analysis technology using deep learning is Since the error rate is reduced by itself through learning, the application field is increasing exponentially due to the advantage of significantly increasing the accuracy and precision of detection.

도 1은 국내공개특허 제10-2020-0141834호(발명의 명칭 : 영상기반 교통신호 제어 장치 및 방법)에 개시된 영상기반 교통신호 제어 장치를 나타내는 블록도이다.1 is a block diagram showing an image-based traffic signal control device disclosed in Korean Patent Publication No. 10-2020-0141834 (Title of Invention: Image-based Traffic Signal Control Apparatus and Method).

도 1의 영상기반 교통신호 제어 장치(이하 종래기술이라고 함)(100)는 도로를 촬영하여 영상을 획득한 후, 교통객체분석데이터를 생성하며 생성된 데이터를 이용하여 감응신호 요청을 판단하는 엣지카메라(110)와, 엣지카메라(110)로부터 교통객체분석데이터 및 감응요청 데이터를 전송받으면 주도로 및 부도로의 교통신호등(131), (132)들을 제어하는 교통신호제어기(120)와, 엣지카메라(110)로부터 전송받은 카메라로 수집한 영상과 교통객체검지 결과 등을 저장하는 교통관제센터 서버(140)로 이루어진다.The image-based traffic signal control device (hereinafter referred to as the prior art) 100 of FIG. 1 acquires an image by photographing a road, generates traffic object analysis data, and uses the generated data to determine the response signal request edge. When receiving traffic object analysis data and response request data from the camera 110 and the edge camera 110, the traffic signal controller 120 controls the traffic lights 131 and 132 on the main road and secondary roads, and the edge It consists of a traffic control center server 140 that stores images collected by the camera transmitted from the camera 110 and traffic object detection results.

또한 엣지 카메라(110)는 진입차량을 촬영하고 촬영한 영상을 영상인식/감응신호판단부(112)로 전달하는 이미지 센싱부(111)와, 차량과 보행자 등의 교통객체를 검지하고 추적하면서 교통객체분석데이터를 생성한 후, 생성된 데이터를 이용하여 감응신호 요청을 판단하는 감응신호 판단부(112)와, 교통객체분석데이터를 저장 및 관리하는 데이터 저장부(113)와, 교통신호제어기(120) 및 관제센터서버(140)와 데이터를 송수신하는 통신부(114)로 이루어진다.In addition, the edge camera 110 has an image sensing unit 111 that photographs an entering vehicle and transmits the captured image to the image recognition/sensitive signal determination unit 112, and traffic objects such as vehicles and pedestrians that are detected and tracked. After generating the object analysis data, a response signal determination unit 112 for determining a response signal request using the generated data, a data storage unit 113 for storing and managing traffic object analysis data, and a traffic signal controller ( 120) and the control center server 140 and the communication unit 114 for transmitting and receiving data.

이때 감응신호 판단부(112)는 기존의 머신러닝 기법(SVM, Decision Tree, Random Forest 등)을 이용하거나, 심층신경망 객체 검지 알고리즘(Faster RCNN, YOLO, SSD 등)을 이용하여 이미지 센싱부(111)로부터 전달받은 영상을 분석하여 객체를 감지한 후, 감지된 객체정보를 통해 교통객체분석데이터를 생성한다.At this time, the response signal determination unit 112 uses an existing machine learning technique (SVM, Decision Tree, Random Forest, etc.) or a deep neural network object detection algorithm (Faster RCNN, YOLO, SSD, etc.) ), analyzes the video received from ) to detect an object, and generates traffic object analysis data through the detected object information.

이와 같이 구성되는 종래기술(100)은 감응신호 판단부(112)가 머신러닝 알고리즘을 통해 영상 객체 정보를 인식하고 분석하기 때문에 객체 인식의 정확성 및 정밀도를 높일 수 있는 장점을 갖는다.The prior art 100 configured as described above has an advantage of increasing the accuracy and precision of object recognition because the sensing signal determining unit 112 recognizes and analyzes image object information through a machine learning algorithm.

그러나 종래기술(100)은 엣지 카메라(110)가 관제센터 서버(140)로 대용량 데이터인 영상을 실시간으로 전송하기 때문에, 도로 곳곳에 엣지 카메라(110)가 설치된다고 가정할 때, 통신부하가 증가할 뿐만 아니라 관제센터 서버(140)에서의 데이터 저장 효율성이 떨어지는 문제점이 발생한다.However, in the prior art 100, since the edge camera 110 transmits images, which are large amounts of data, to the control center server 140 in real time, assuming that the edge cameras 110 are installed all over the road, the communication load increases. In addition, there is a problem in that data storage efficiency in the control center server 140 is lowered.

또한 종래기술(100)은 머신러닝 기반의 영상 분석이 단순히 교통량, 대기열, 지점속도, 구간속도 등의 교통객체분석데이터를 검출하기 위한 용도로만 사용되기 때문에 꼬리 물기, 신호위반 등의 위반차량을 단속하지 못하여 단속율이 떨어지는 문제점을 갖는다.In addition, in the prior art 100, machine learning-based image analysis is used only for detecting traffic object analysis data such as traffic volume, queue, point speed, section speed, etc. Failure to do so has a problem in that the control rate is lowered.

일반적으로, 머신러닝 알고리즘 학습 시, 학습에 사용되는 인식대상의 종류(객체종류)를 한정시킬수록 학습효과 및 객체 인식률이 증가하는 특성을 갖게 되나, 종래기술(100)에는 이러한 학습의 특성을 전혀 감안하지 않았기 때문에 학습 시, 도로에서 볼 수 없는 객체종류들에 대한 학습으로 인해 학습 효율성 및 객체 인식률이 떨어지는 단점을 갖는다.In general, when learning a machine learning algorithm, the more the type of recognition target (object type) used for learning is limited, the more the learning effect and object recognition rate increase, but the prior art 100 has no such learning characteristics Since it is not taken into account, learning efficiency and object recognition rate are reduced due to learning of object types that cannot be seen on the road during learning.

또한 종래기술(100)은 감지된 차량과 차량이 충돌 또는 차량과 보행자 충돌을 예측하기 위한 기술 및 방법이 전혀 기재되어 있지 않기 때문에 교통사고를 미연에 방지하지 못하는 구조적 한계를 갖는다.In addition, the prior art 100 has a structural limitation in preventing traffic accidents in advance because no technology and method for predicting a collision between a detected vehicle and a vehicle or a collision between a vehicle and a pedestrian is not described.

또한 종래기술(100)은 고정된 신호주기(Signal cycle)의 길이(Length)를 기준으로, 감응신호에 따른 특정신호의 연장 또는 축소가 이루어지기 때문에 교통상태에 대응하여 최적의 신호주기를 제공할 수 없는 단점을 갖는다.In addition, the prior art 100 can provide an optimal signal cycle in response to traffic conditions because a specific signal is extended or reduced according to the response signal based on the length of a fixed signal cycle. It has incalculable drawbacks.

통상적으로, 머신러닝 알고리즘을 활용한 영상분석에는 복잡한 연산처리 및 영상처리가 이루어져야하기 때문에 단일 CPU를 이용하여 영상분석을 수행할 경우, 과도한 연산처리량으로 인해 부하가 발생하게 되고, 이에 따라 최근에는 별도의 GPU(Graphic Processing Unit)를 구비하여 GPU를 이용하여 인공지능 기반의 영상분석 및 처리가 이루어지도록 하는 추세이다.In general, image analysis using machine learning algorithms requires complex calculation and image processing, so when image analysis is performed using a single CPU, a load is generated due to excessive calculation processing. There is a trend to use the GPU (Graphic Processing Unit) to perform artificial intelligence-based image analysis and processing.

종래기술(100)은 엣지 카메라(110)에서 영상분석 및 처리가 이루어지기 때문에 단일 CPU가 구성된다고 가정할 때, 영상분석 및 처리로 인한 과부하가 빈번하게 발생하게 되는 문제점이 발생하게 되고, 별도의 GPU를 추가 설치한다고 하더라도, 각 카메라별로 고가의 GPU가 설치되기 때문에 설치 및 운용비용이 증가하는 단점을 갖는다.In the prior art 100, since image analysis and processing are performed in the edge camera 110, assuming that a single CPU is configured, a problem in that overload due to image analysis and processing frequently occurs, and a separate Even if additional GPUs are installed, installation and operation costs increase because expensive GPUs are installed for each camera.

본 발명은 이러한 문제를 해결하기 위한 것으로, 본 발명의 해결과제는 카메라들에 의해 촬영된 영상을 분석하여 객체정보 및 교통정보를 생성한 후, 생성된 교통정보에 따라 최적 현시체계를 생성한 후, 생성된 최적 현시체계에 따라 교통신호가 제어되도록 구성됨으로써 차량 정체율 및 대기시간을 현저히 절감시킬 수 있을 뿐만 아니라 이에 따른 연비소모 및 오염가스 배출량을 효과적으로 줄여 사회적 비용 소모를 절감시킬 수 있는 딥-러닝 기반 객체 감응을 활용한 차량 흐름 제어 시스템을 제공하기 위한 것이다.The present invention is to solve this problem, and the problem of the present invention is to analyze images taken by cameras to generate object information and traffic information, and then create an optimal display system according to the generated traffic information. By configuring traffic signals to be controlled according to the generated optimal display system, vehicle congestion rate and waiting time can be remarkably reduced, and fuel consumption and pollutant emissions can be effectively reduced accordingly to reduce social cost consumption. It is to provide a vehicle flow control system using running-based object sensing.

또한 본 발명의 다른 해결과제는 딥-러닝 알고리즘을 이용하여 입력된 영상들을 분석함에 따라 객체 인식률을 개선시켜 분석의 정확성 및 신뢰도를 획기적으로 높일 수 있는 딥-러닝 기반 객체 감응을 활용한 차량 흐름 제어 시스템을 제공하기 위한 것이다.In addition, another problem of the present invention is to improve the object recognition rate by analyzing the input images using a deep-learning algorithm, which can dramatically increase the accuracy and reliability of the analysis. Vehicle flow control using deep-learning-based object detection to provide the system.

또한 본 발명의 또 다른 해결과제는 딥-러닝 알고리즘으로 합성곱 신경망(CNN, Convolution Neural Network) 기반의 YOLO 모델을 적용시킴으로써 객체 인식률을 더욱 높일 수 있는 딥-러닝 기반 객체 감응을 활용한 차량 흐름 제어 시스템을 제공하기 위한 것이다.In addition, another problem of the present invention is deep-learning based object detection that can further increase the object recognition rate by applying a YOLO model based on a convolutional neural network (CNN) with a deep-learning algorithm Vehicle flow control using object detection to provide the system.

또한 본 발명의 또 다른 해결과제는 딥-러닝 알고리즘의 학습 시, 인식대상을 종래에 80종류에서, 도로에서 자주 볼 수 있는 5종류로 제한하여 학습이 이루어지도록 구성됨으로써 객체 인식률을 더욱 개선시킬 수 있는 딥-러닝 기반 객체 감응을 활용한 차량 흐름 제어 시스템을 제공하기 위한 것이다.In addition, another problem of the present invention is to further improve the object recognition rate by limiting the recognition target from the conventional 80 types to 5 types that are often seen on the road when learning the deep-learning algorithm. It is to provide a vehicle flow control system using deep-learning based object detection.

또한 본 발명의 또 다른 해결과제는 복수개의 GPU(Graphic Processing Unit)들을 이용하여 영상을 분석함으로써 카메라들의 촬영에 의해 획득된 고용량의 영상들의 실시간 처리 및 분석이 가능한 딥-러닝 기반 객체 감응을 활용한 차량 흐름 제어 시스템을 제공하기 위한 것이다.In addition, another problem of the present invention is to use deep-learning-based object detection capable of real-time processing and analysis of high-capacity images obtained by shooting cameras by analyzing images using a plurality of GPUs (Graphic Processing Units). It is to provide a vehicle flow control system.

상기 과제를 해결하기 위한 본 발명의 해결수단은 감지영역인 적어도 하나 이상의 도로를 촬영하여 영상을 획득하는 카메라들과, 상기 감지영역에 설치되는 신호등들의 동작을 제어하는 교통신호 제어기와, 복수(M)의 GPU(Graphic Processing Unit)들을 구비한 컨트롤러를 포함하는 객체 감응을 활용한 차량 흐름 제어 시스템에 있어서: 상기 컨트롤러는 딥-러닝(Deep learning) 기반의 객체분석 알고리즘을 이용하여, 상기 카메라들의 촬영에 의해 획득된 영상들을 분석하여 감지된 객체의 위치, 종류 및 크기 중 적어도 하나 이상을 포함하는 객체정보를 출력한 후, 출력된 객체를 트래킹하여 교통정보를 생성하며, 생성된 교통정보를 기반으로 최적 신호체계를 검출한 후, 검출된 최적 신호체계에 따른 감응신호를 상기 교통신호 제어기로 전송하고, 상기 교통신호 제어기는 상기 컨트롤러로부터 전송받은 감응신호에 대응하여 상기 신호등들을 제어하고, 상기 컨트롤러는 각 카메라로부터 입력된 영상을 처리할 대상인 GPU가 매칭된 영상분류테이블이 저장되는 메모리; 기 설정된 주기(T) 마다 실행되어 상기 객체분석 알고리즘을 학습시키며, 학습된 객체분석 알고리즘을 상기 메모리에 저장하는 인공지능 학습부; 상기 메모리에 저장된 객체분석 알고리즘을 이용하여, 상기 카메라들로부터 전송받은 영상들을 분석하여 객체정보를 출력하는 인공지능 기반 영상 분석부; 상기 인공지능 기반 영상 분석부에 의해 검출된 객체를 트래킹하여, 감지된 객체가 위치한 차로종류, 차선위치, 이동속도 및 방향을 포함하는 객체분석정보를 생성하는 객체분석정보 생성부; 상기 객체분석정보 생성부에 의해 생성된 객체분석정보를 활용하여, 각 도로의 대기열, 대기시간 및 교통량 중 적어도 하나 이상을 포함하는 교통정보를 생성하는 교통정보 생성부; 기 설정된 최적 신호 검출 알고리즘을 이용하여 상기 교통정보 생성부에 의해 생성된 교통정보를 분석하여, 최적 현시체계를 수립하는 신호체계 수립부; 상기 신호체계수립부에 의해 수립된 최적 현시체계에 따른 감응신호를 상기 교통신호 제어기로 전송하는 제어부를 포함하고, 상기 인공지능 기반 영상 분석부는 각 GPU에서 처리되는 인공지능 기반 영상 분석모듈들을 포함하고, 상기 컨트롤러는 상기 카메라들 중 적어도 하나 이상으로부터 영상을 전송받을 때 실행되며, 상기 영상분류테이블에 저장된 매칭정보에 따라, 상기 카메라들로부터 전송받은 영상들을 해당하는 GPU로 분류시키는 영상분류부; 상기 인공지능 기반 영상 분석모듈들 중 적어도 하나 이상이 동작할 때 실행되며, 동작 중인 인공지능 기반 영상 분석모듈의 사용량(부하량)을 검출한 후, 검출된 사용량을 상기 메모리에 저장하는 사용량 모니터링부; 기 설정된 제1 주기(T1) 마다 실행되는 영상분류테이블 생성/갱신부를 더 포함하고, 상기 영상분류테이블 생성/갱신부는 상기 제1 주기(T1) 동안의 각 GPU별 사용량 데이터들을 수집하는 데이터 수집모듈; 상기 데이터 수집모듈에 의해 수집된 각 GPU별 사용량 데이터들을 활용하여, 각 GPU별 평균사용량()을 산출하는 각 GPU 평균사용량 산출모듈; 상기 각 GPU 평균사용량 산출모듈에 의해 산출된 각 GPU별 평균사용량()과, GPU에서 과부하로 판단할 수 있는 사용량 최소값을 의미하는 기 설정된 상한설정값(TH)을 비교하는 상한설정값(TH) 비교모듈; 상기 상한설정값(TH) 비교모듈에서, 1)상한설정값(TH) 미만의 평균사용량()을 갖는 GPU는 점검후보에서 제거시키되, 2)상한설정값(TH) 이상의 평균사용량()을 갖는 GPU가 검출되면, 해당 GPU를 점검후보로 결정하는 점검후보로 결정하는 점검후보 결정모듈; 상기 점검후보 결정모듈에서 점검후보가 결정될 때 실행되며, 평균사용량()이 가장 낮은 GPU를 변경대상으로 결정하는 변경대상 결정모듈; 상기 점검후보 결정모듈에서 점검후보로 결정된 GPU로 입력되는 복수개의 영상들 중 어느 하나가, 상기 변경대상 결정모듈에서 변경대상으로 결정된 GPU로 입력되도록 결정한 후, 결정된 매칭정보가 반영되도록 영상분류테이블을 갱신하는 영상분류테이블 갱신모듈을 포함하고, 상기 영상분류부는 상기 제1 주기(T1) 마다 갱신된 영상분류테이블에 따라, 상기 카메라들 중 적어도 하나 이상으로부터 전송받은 영상을 분류하고, 상기 영상분류부는 상기 카메라들로부터 전송받은 영상(카메라 식별정보 포함)을 입력받는 영상입력모듈; 상기 카메라들의 전체 수량(N)과, 상기 GPU(Graphic Processing Unit)들의 전체 수량(M)을 비교하는 비교 및 판단모듈; 상기 비교 및 판단모듈에서 전체 카메라 수량(N)이 전체 GPU 수량(M)의 이하(N ≤ M)일 때 실행되며, 입력된 영상들을 상기 GPU들 각각으로 일대일 방식으로 입력시키는 일대일 기반 분류모듈; 상기 비교 및 판단모듈에서 전체 카메라 수량(N)이 전체 GPU 수량(M)을 초과(N > M)할 때 실행되며, 상기 메모리에 저장된 영상분류테이블에 따라 영상들을 분류시키는 영상분류테이블 기반 분류모듈을 포함하는 것이다.The solution of the present invention for solving the above problems is cameras for acquiring images by photographing at least one road that is a sensing area, a traffic signal controller for controlling the operation of traffic lights installed in the sensing area, and a plurality (M ) In a vehicle flow control system using object sensing including a controller having GPUs (Graphic Processing Units): the controller uses a deep learning-based object analysis algorithm to take pictures of the cameras After analyzing the acquired images and outputting object information including at least one of the location, type, and size of the detected object, traffic information is generated by tracking the outputted object, and based on the generated traffic information After detecting the optimal signal system, a response signal according to the detected optimal signal system is transmitted to the traffic signal controller, and the traffic signal controller controls the traffic lights in response to the response signal received from the controller. a memory storing an image classification table matched with a GPU, which is a target to process images input from each camera; an artificial intelligence learning unit that is executed every predetermined period (T) to learn the object analysis algorithm and stores the learned object analysis algorithm in the memory; an artificial intelligence-based image analysis unit that analyzes images transmitted from the cameras using an object analysis algorithm stored in the memory and outputs object information; an object analysis information generation unit that tracks the object detected by the artificial intelligence-based image analysis unit and generates object analysis information including a lane type, a lane location, a moving speed, and a direction in which the detected object is located; a traffic information generating unit generating traffic information including at least one of queue, waiting time, and traffic volume of each road by using the object analysis information generated by the object analysis information generating unit; a signal system establishing unit that analyzes the traffic information generated by the traffic information generating unit using a preset optimal signal detection algorithm and establishes an optimal display system; A control unit for transmitting a response signal according to the optimal display system established by the signal system establishment unit to the traffic signal controller, and the artificial intelligence-based image analysis unit includes artificial intelligence-based image analysis modules processed by each GPU, , An image classification unit, which is executed when the controller receives images from at least one of the cameras, and classifies images received from the cameras into corresponding GPUs according to matching information stored in the image classification table; a usage monitoring unit that is executed when at least one of the AI-based image analysis modules is operating, detects usage (load) of the AI-based video analysis module in operation, and then stores the detected usage amount in the memory; A data collection module that further includes an image classification table generation/update unit executed every preset first period (T1), wherein the image classification table generation/update unit collects usage data for each GPU during the first period (T1) ; Using the usage data for each GPU collected by the data collection module, the average usage for each GPU ( ) Each GPU average usage calculation module that calculates; The average usage for each GPU calculated by the average usage calculation module for each GPU ( ) And an upper limit setting value (TH) comparison module for comparing a predetermined upper limit setting value (TH), which means the minimum amount of usage that can be determined as overload in the GPU; In the upper limit setting value (TH) comparison module, 1) average usage amount less than the upper limit setting value (TH) ( ) is removed from the inspection candidates, but 2) the average usage above the upper limit setting value (TH) ( ) is detected, an inspection candidate determination module for determining the GPU as an inspection candidate; It is executed when the inspection candidate is determined in the inspection candidate determination module, and the average usage ( ) a change target determination module for determining the lowest GPU as a change target; After determining which one of the plurality of images input to the GPU determined as an inspection candidate in the inspection candidate determination module is input to the GPU determined as a change target in the change target determination module, an image classification table is created so that the determined matching information is reflected. and an image classification table updating module for updating, wherein the image classification unit classifies images received from at least one of the cameras according to the image classification table updated every first period (T1), and the image classification unit an image input module that receives images (including camera identification information) transmitted from the cameras; a comparison and determination module for comparing the total number (N) of the cameras and the total number (M) of the GPUs (Graphic Processing Units); A one-to-one based classification module that is executed when the total number of cameras (N) in the comparison and determination module is less than (N ≤ M) of the total number of GPUs (M), and inputs the input images to each of the GPUs in a one-to-one manner; In the comparison and determination module, it is executed when the total number of cameras (N) exceeds the total number of GPUs (M) (N > M), and an image classification table-based classification module that classifies images according to the image classification table stored in the memory. is to include

삭제delete

또한 본 발명에서 상기 객체분석 알고리즘은 합성곱 신경망(CNN, Convolution Neural Network) 기반의 YOLO 모델이 적용된 것이 바람직하다.In addition, in the present invention, it is preferable that the object analysis algorithm is applied with a Convolution Neural Network (CNN)-based YOLO model.

또한 본 발명에서 상기 인공지능 학습부는 상기 객체분석 알고리즘의 학습 시, 자동차, 버스, 오토바이, 트럭 및 인체를 인식대상의 객체로 설정한 것이 바람직하다.In the present invention, it is preferable that the artificial intelligence learning unit sets a car, a bus, a motorcycle, a truck, and a human body as objects to be recognized when learning the object analysis algorithm.

또한 본 발명에서 상기 객체 감응을 활용한 차량 흐름 제어 시스템은 관제센터서버를 더 포함하고, 상기 컨트롤러는 상기 객체분석정보에 의해 생성된 객체분석정보와, 기 설정된 감지영역의 위치정보, 현재 신호체계를 활용하여, 위반차량을 검출하는 위반차량 단속부; 상기 감지영역 중 기 설정된 구간에 진입한 차량의 영상으로부터 차량번호를 인식하는 번호인식부를 더 포함하고, 상기 제어부는 상기 위반차량 단속부에 의해 위반차량이 검출될 때, 해당 위반차량이 포함된 영상과, 위반차량의 차량번호, 위반정보를 매칭시켜 상기 관제센터서버로 전송하는 것이 바람직하다.In addition, in the present invention, the vehicle flow control system using the object response further includes a control center server, and the controller includes object analysis information generated by the object analysis information, location information of a preset detection area, and current signal system. Violation vehicle enforcement unit for detecting the violation vehicle by utilizing; A number recognition unit for recognizing a vehicle number from an image of a vehicle entering a preset section of the detection area is further included, and when the violation vehicle is detected by the violation vehicle control unit, the control unit controls an image including the violation vehicle. It is preferable to match the license plate number of the violating vehicle and the violating information and transmit the information to the control center server.

삭제delete

삭제delete

삭제delete

상기 과제와 해결수단을 갖는 본 발명에 따르면 카메라들에 의해 촬영된 영상을 분석하여 객체정보 및 교통정보를 생성한 후, 생성된 교통정보에 따라 최적 현시체계를 생성한 후, 생성된 최적 현시체계에 따라 교통신호가 제어되도록 구성됨으로써 차량 정체율 및 대기시간을 현저히 절감시킬 수 있을 뿐만 아니라 이에 따른 연비소모 및 오염가스 배출량을 효과적으로 줄여 사회적 비용 소모를 절감시킬 수 있게 된다.According to the present invention having the above problems and solutions, images captured by cameras are analyzed to generate object information and traffic information, and an optimal display system is generated according to the generated traffic information. By being configured to control the traffic signal according to the traffic signal, it is possible to significantly reduce vehicle congestion rate and waiting time, as well as reduce social costs by effectively reducing fuel consumption and pollutant gas emissions.

또한 본 발명에 의하면 딥-러닝 알고리즘을 이용하여 입력된 영상들을 분석함에 따라 객체 인식률을 개선시켜 분석의 정확성 및 신뢰도를 획기적으로 높일 수 있다.In addition, according to the present invention, the accuracy and reliability of the analysis can be dramatically increased by improving the object recognition rate by analyzing the input images using a deep-learning algorithm.

또한 본 발명에 의하면 딥-러닝 알고리즘으로 합성곱 신경망(CNN, Convolution Neural Network) 기반의 YOLO 모델을 적용시킴으로써 객체 인식률을 더욱 높일 수 있게 된다.In addition, according to the present invention, the object recognition rate can be further increased by applying a YOLO model based on a Convolution Neural Network (CNN) as a deep-learning algorithm.

또한 본 발명에 의하면 딥-러닝 알고리즘의 학습 시, 인식대상을 종래에 80종류에서, 도로에서 자주 볼 수 있는 5종류로 제한하여 학습이 이루어지도록 구성됨으로써 객체 인식률을 더욱 개선시킬 수 있다.In addition, according to the present invention, when learning the deep-learning algorithm, the object recognition rate can be further improved by limiting the object to be recognized from the conventional 80 types to 5 types frequently seen on the road.

또한 본 발명에 의하면 복수개의 GPU들을 이용하여 영상을 분석함으로써 카메라들의 촬영에 의해 획득된 고용량의 영상들의 실시간 처리 및 분석이 가능하게 된다.In addition, according to the present invention, real-time processing and analysis of high-capacity images acquired by shooting of cameras are possible by analyzing images using a plurality of GPUs.

도 1은 국내공개특허 제10-2020-0141834호(발명의 명칭 : 영상기반 교통신호 제어 장치 및 방법)에 개시된 영상기반 교통신호 제어 장치를 나타내는 블록도이다.
도 2는 본 발명의 일실시예인 딥러닝 기반 객체 감응을 활용한 차량 흐름 제어 시스템을 나타내는 구성도이다.
도 3은 도 2의 개념도이다.
도 4는 도 2를 설명하기 위한 예시도이다.
도 5는 도 4의 다른 예시도이다.
도 6은 도 2의 컨트롤러를 나타내는 블록도이다.
도 7은 도 6의 인공지능 학습부의 객체분석 알고리즘에 적용되는 YOLOv4 모델을 나타내는 개념도이다.
도 9는 도 7의 객체분석 알고리즘에 적용되는 CNN을 설명하기 위한 예시도이다.
도 10은 도 9의 개념도이다.
도 11은 도 6의 위반차량 단속부에 의해 감지되는 꼬리물기 위반차량을 나타내는 예시도이다.
도 12는 도 6의 번호인식부를 설명하기 위한 예시도이다.
도 13은 도 6의 영상분류테이블 생성/갱신부를 나타내는 예시도이다.
1 is a block diagram showing an image-based traffic signal control device disclosed in Korean Patent Publication No. 10-2020-0141834 (Title of Invention: Image-based Traffic Signal Control Apparatus and Method).
2 is a configuration diagram illustrating a vehicle flow control system using deep learning-based object sensing, which is an embodiment of the present invention.
FIG. 3 is a conceptual diagram of FIG. 2 .
FIG. 4 is an exemplary view for explaining FIG. 2 .
5 is another exemplary view of FIG. 4 .
6 is a block diagram illustrating the controller of FIG. 2 .
7 is a conceptual diagram illustrating a YOLOv4 model applied to the object analysis algorithm of the artificial intelligence learning unit of FIG. 6 .
9 is an exemplary diagram for explaining a CNN applied to the object analysis algorithm of FIG. 7 .
10 is a conceptual diagram of FIG. 9 .
FIG. 11 is an exemplary diagram illustrating tail-biting violation vehicles detected by the violation vehicle enforcement unit of FIG. 6 .
12 is an exemplary diagram for explaining the number recognition unit of FIG. 6 .
FIG. 13 is an exemplary diagram illustrating the image classification table generation/update unit of FIG. 6 .

이하, 첨부된 도면을 참조하여 본 발명의 일실시예를 설명한다.Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.

도 2는 본 발명의 일실시예인 딥러닝 기반 객체 감응을 활용한 차량 흐름 제어 시스템을 나타내는 구성도이고, 도 3은 도 2의 개념도이고, 도 4는 도 2를 설명하기 위한 예시도이고, 도 5는 도 4의 다른 예시도이다.2 is a configuration diagram illustrating a vehicle flow control system using deep learning-based object sensing, which is an embodiment of the present invention, FIG. 3 is a conceptual diagram of FIG. 2, FIG. 4 is an exemplary view for explaining FIG. 2, and FIG. 5 is another exemplary view of FIG. 4 .

도 2 내지 4의 본 발명의 일실시예인 객체 감응을 활용한 차량 흐름 제어 시스템(1)은 딥-러닝(Deep learning) 기반을 이용하여 카메라 촬영에 의해 획득된 영상을 분석하여 차량 및 보행자 등의 객체분석정보를 검출한 후, 검출된 객체분석정보를 기반으로 신호체계를 수립하도록 구성됨으로써 객체 검출 및 감응의 정확성 및 신뢰도를 높임과 동시에 교차로 내 차량 대기시간을 현저히 절감시킬 수 있으며, 위반차량 단속율을 높이기 위한 것이다.The vehicle flow control system 1 using object sensing, which is an embodiment of the present invention of FIGS. 2 to 4, analyzes images obtained by camera shooting using a deep learning basis to detect vehicles, pedestrians, etc. After detecting object analysis information, it is configured to establish a signal system based on the detected object analysis information, thereby increasing the accuracy and reliability of object detection and response, significantly reducing vehicle waiting time in the intersection, and cracking down on violating vehicles. to increase the rate.

또한 본 발명의 객체 감응을 활용한 차량 흐름 제어 시스템(1)은 도 2 내지 4에 도시된 바와 같이, 교차로의 각 차로군을 촬영하는 카메라(5-1), ..., (5-N)들과, 딥-러닝(Deep learning) 기반의 객체분석 알고리즘을 이용하여 각 카메라(5)의 촬영에 의해 획득된 영상들을 분석하여 객체분석정보를 검출한 후, 검출된 객체분석정보에 대응하는 최적 신호체계를 생성하여 생성된 최적 신호체계에 따른 감응신호를 후술되는 교통신호 제어기(7)로 전송하는 컨트롤러(3)와, 컨트롤러(3)로부터 전송받은 최적 신호체계에 따른 감응신호에 따라 신호등(8)들의 동작을 제어하는 교통신호 제어기(7)와, 도로 갓길 또는 신호등 지주에 설치되어 컨트롤러(3)의 제어에 따라 기 설정된 경고문구를 디스플레이 하는 전시수단(11)들과, 컨트롤러(3)로부터 전송받은 객체분석정보, 교통정보, 위반정보, 위반 영상을 저장 및 모니터링 하는 관제센터서버(9)와, 컨트롤러(3) 및 관제센터서버(9) 사이의 데이터 이동경로를 제공하는 통신망(10)으로 이루어진다.In addition, as shown in FIGS. 2 to 4, the vehicle flow control system 1 using object sensing according to the present invention includes cameras 5-1, ..., (5-N) that capture each lane group of an intersection. ), and object analysis information is detected by analyzing the images acquired by the shooting of each camera 5 using a deep learning-based object analysis algorithm, and then a corresponding object analysis information is detected. A controller 3 that generates an optimal signal system and transmits a response signal according to the optimal signal system to a traffic signal controller 7 to be described later, and a traffic light according to the response signal according to the optimal signal system received from the controller 3 A traffic signal controller 7 that controls the operation of (8), display means 11 installed on a road shoulder or a traffic light support to display a preset warning text under the control of the controller 3, and the controller 3 A communication network ( 10).

이때 도 2 내지 5에서는 설명의 편의를 위해, 신호제어대상이 적용되는 도로가 교차로(S)인 것으로 예를 들어 설명하였으나, 본 발명이 적용되는 대상은 교차로(S)에 한정되지 않으며, 단일차로 등의 다양한 도로에 적용될 수 있음은 당연하다.At this time, in FIGS. 2 to 5, for convenience of explanation, it has been described that the road to which the signal control target is applied is an intersection (S) as an example, but the target to which the present invention is applied is not limited to the intersection (S), and is a single lane It is natural that it can be applied to various roads such as

또한 본 발명에서는 설명의 편의를 위해 도시하지 않았으나, 컨트롤러(3)는 카메라(5-1), ..., (5-N)들, 교통신호 제어기(7) 및 전시수단(11)들과 유선케이블 또는 네트워크로 구성되어 데이터를 송수신할 수 있다.In addition, although not shown in the present invention for convenience of description, the controller 3 includes the cameras 5-1, ..., 5-N, the traffic signal controller 7 and the display unit 11. It is composed of a wired cable or network and can transmit and receive data.

통신망(10)은 컨트롤러(3) 및 관제센터서버(9) 사이의 데이터 통신을 지원하며, 상세하게로는 광역통신망(WAN), LAN(local area network)망, VAN(Value Added Network)망, 유선통신망 등으로 구현될 수 있다.The communication network 10 supports data communication between the controller 3 and the control center server 9, and in detail, a wide area network (WAN), a LAN (local area network) network, a VAN (Value Added Network) network, It may be implemented in a wired communication network or the like.

신호등(8)들은 교차로(S)에 설치되어 차량 또는 보행자의 이동방향을 유도하며, 통상적으로 차량용 신호등 및 보행자용 신호등으로 분류될 수 있다.The traffic lights 8 are installed at the intersection S to guide the movement direction of vehicles or pedestrians, and can be generally classified into traffic lights for vehicles and traffic lights for pedestrians.

또한 신호등(8)들은 교통신호 제어기(7)의 신호체계에 따른 제어신호를 수신 받아, 점등 및 점멸된다.In addition, the traffic lights 8 receive control signals according to the signal system of the traffic signal controller 7, and turn on and off.

전시수단(11)들은 컨트롤러(3)의 제어에 따라, 기 설정된 경고문구 또는 경고등을 출력한다. 예를 들어, 전시수단(11)들은 우회전 차로의 갓길에 설치되어 우회전 시, 보행자가 감지될 때, 기 설정된 경고 문구를 출력하는 것으로 구성될 수 있다.The display unit 11 outputs a preset warning text or warning light under the control of the controller 3 . For example, the display means 11 may be configured to be installed on the shoulder of a right turn lane and output a preset warning message when a pedestrian is detected when turning right.

교통신호 제어기(7)는 현재 신호체계에 따라 해당 교차로(S)의 신호등(8)들의 동작을 관리 및 제어한다.The traffic signal controller 7 manages and controls the operation of the traffic lights 8 of the intersection S according to the current signal system.

또한 교통신호 제어기(7)는 컨트롤러(3)로부터 최적 신호체계에 따른 감응신호를 전송받으면, 전송받은 감응신호에 따라 신호등(8)들이 동작하도록 이들을 제어한다.In addition, when the traffic signal controller 7 receives a response signal according to an optimal signal system from the controller 3, it controls the traffic lights 8 to operate according to the received response signal.

카메라(5-1), ..., (5-N)들은 교차로(S)에 연결되는 각 연결차로(S1), (S2), (S3), (S4)들을 촬영하도록 설치된다. 이때 카메라(5-1), ..., (5-N)들은 기존에 설치되어 있던 신호등 지주의 상단부에 별도의 보조-암을 통해 결합됨에 따라 촬영 각도가 상부에서 하부를 향하는 방향으로 설치되는 것이 바람직하다. 이때 카메라(5-1), ..., (5-N)들은 PTZ(Pan-Tilt_Zoom) 제어가 가능한 통상의 PTZ 카메라로 구현되는 것이 바람직하다.The cameras 5-1, ..., and 5-N are installed to take pictures of each connecting lane S1, S2, S3, and S4 connected to the intersection S. At this time, the cameras (5-1), ..., (5-N) are installed in the direction from the top to the bottom as the cameras (5-1), ..., (5-N) are coupled through a separate auxiliary arm to the upper end of the previously installed traffic light support it is desirable At this time, the cameras 5-1, ..., 5-N are preferably implemented as normal PTZ cameras capable of PTZ (Pan-Tilt_Zoom) control.

또한 카메라(5-1), ..., (5-N)들은 기 설정된 연결차로를 촬영하여 획득된 영상을 컨트롤러(3)로 전송한다.In addition, the cameras 5-1, ..., and 5-N transmit the acquired images to the controller 3 by photographing the preset connection lanes.

도 6은 도 2의 컨트롤러를 나타내는 블록도이다.6 is a block diagram illustrating the controller of FIG. 2 .

컨트롤러(3)는 도 6에 도시된 바와 같이, 제어부(30)와, 메모리(31), 통신 인터페이스부(32), 인공지능 학습부(33), 영상 분류부(34), 인공지능 기반 영상 분석부(35), 사용량 모니터링부(36), 객체분석정보 생성부(37), 교통정보 생성부(38), 신호체계 수립부(39), 위반차량 단속부(40), 번호인식부(41), 경고문구 출력부(42), 영상분류테이블 생성/갱신모듈(43)로 이루어진다.As shown in FIG. 6, the controller 3 includes a control unit 30, a memory 31, a communication interface unit 32, an artificial intelligence learning unit 33, an image classification unit 34, and an artificial intelligence based image. Analysis unit 35, usage monitoring unit 36, object analysis information generation unit 37, traffic information generation unit 38, signal system establishment unit 39, violation vehicle control unit 40, number recognition unit ( 41), a warning message output unit 42, and an image classification table generation/update module 43.

이때 인공지능 기반 영상 분석부(35)는 복수개의 인공지능 기반 영상 분석모듈(35-1), ..., (35-N)들로 이루어지고, 각 인공지능 기반 영상 분석모듈은 각 GPU(Graphic Processing Unit)에 설치되어 영상 분석을 수행한다.At this time, the artificial intelligence-based image analysis unit 35 is composed of a plurality of artificial intelligence-based image analysis modules 35-1, ..., (35-N), and each artificial intelligence-based image analysis module is each GPU ( It is installed in the Graphic Processing Unit) to perform image analysis.

제어부(30)는 컨트롤러(3)의 O.S(Operating System)이며, 제어대상(31), (32), (33), (34), (35), (36), (37), (38), (39), (40), (41), (42), (43)들을 관리 및 제어한다.The control unit 30 is an O.S (Operating System) of the controller 3, and the control target 31, (32), (33), (34), (35), (36), (37), (38) , (39), (40), (41), (42), (43) to manage and control.

또한 제어부(30)는 기 설정된 주기(T) 마다 인공지능 학습부(33)를 실행시키며, 기 설정된 제1 주기(T1) 마다 영상분류테이블 생성/갱신모듈(43)을 실행시킨다.In addition, the control unit 30 executes the artificial intelligence learning unit 33 at each preset period T, and executes the image classification table generation/update module 43 at each preset first period T1.

또한 제어부(30)는 통신 인터페이스부(32)를 통해 카메라(5-1), ..., (5-N)들로부터 전송받은 영상들을 영상 분류부(34)로 입력하고, 영상 분류부(34)에 의해 분류된 바에 따라 영상들을 해당하는 인공지능 기반 영상 분석모듈(35-1), ..., (35-M)들로 각각 입력한다.In addition, the control unit 30 inputs the images transmitted from the cameras 5-1, ..., (5-N) to the image classification unit 34 through the communication interface unit 32, and the image classification unit ( According to the classification by 34), the images are input to the corresponding AI-based image analysis modules 35-1, ..., 35-M, respectively.

또한 제어부(30)는 객체분석정보 생성부(37)에 의해 생성된 객체분석정보를 교통정보 생성부(38), 위반차량 단속부(40) 및 경고문구 출력부(42)로 입력한다.In addition, the control unit 30 inputs the object analysis information generated by the object analysis information generation unit 37 to the traffic information generation unit 38, the violating vehicle control unit 40, and the warning message output unit 42.

또한 제어부(30)는 신호체계 수립부(39)에 의해 최적 신호체계가 수립되면, 수립된 최적 신호체계에 따른 감응신호를 생성한 후, 생성된 최적 신호체계에 따른 감응신호가 교통신호 제어기(7)로 전송되도록 통신 인터페이스부(32)를 제어한다.In addition, when the optimal signal system is established by the signal system establishment unit 39, the control unit 30 generates a response signal according to the established optimal signal system, and then converts the response signal according to the generated optimal signal system to the traffic signal controller ( 7) to control the communication interface unit 32 to be transmitted.

또한 제어부(30)는 위반차량 단속부(40)에 의해 위반차량 검출 시, 해당 위반차량의 영상과 차량번호를 매칭 시킨 후, 매칭된 데이터가 관제센터서버(9)로 전송되도록 통신 인터페이스부(32)를 제어한다.In addition, when the violating vehicle is detected by the violating vehicle enforcement unit 40, the control unit 30 matches the image of the violating vehicle with the license plate number, and then transmits the matched data to the control center server 9 through the communication interface unit ( 32) to control.

즉 본 발명은 위반차량이 검출되지 않는 평시에는 영상들을 관제센터서버(9)로 전송하지 않되, 위반차량이 검출되는 이벤트가 발생한 경우에만, 영상들을 관제센터서버(9)로 전송함으로써 종래에 대용량의 영상들이 동시에 관제센터서버(9)로 전송됨에 따라 통신부하, 연산처리량 급증 및 데이터 저장 효율성이 떨어지는 문제점을 획기적으로 해결할 수 있게 된다.That is, the present invention does not transmit images to the control center server 9 in normal times when no violating vehicle is detected, but transmits images to the control center server 9 only when an event in which a violating vehicle is detected occurs. As the images of are transmitted to the control center server 9 at the same time, it is possible to dramatically solve the problems of communication load, rapid increase in computational throughput, and low data storage efficiency.

메모리(31)에는 각 카메라(5)들의 위치 및 식별정보가 기 설정되어 저장된다.The location and identification information of each camera 5 are preset and stored in the memory 31 .

또한 메모리(31)에는 각 전시수단(11)의 위치 및 식별정보가 기 설정되어 저장된다.In addition, the location and identification information of each display unit 11 are preset and stored in the memory 31 .

또한 메모리(31)에는 각 카메라(5)의 감지영역의 위치정보와, 교차로(S) 및 각 연결차로(S1), (S2), (S3), (S4)의 위치정보가 기 설정되어 저장된다.In addition, in the memory 31, the location information of the detection area of each camera 5 and the location information of the intersection S and each connecting lane S1, S2, S3, and S4 are preset and stored. do.

또한 메모리(31)에는 인공지능 학습부(33)에 의해 학습된 객체분석 알고리즘이 저장된다.In addition, the object analysis algorithm learned by the artificial intelligence learning unit 33 is stored in the memory 31 .

또한 메모리(31)에는 영상분류테이블 생성/갱신모듈(43)에 의해 생성/갱신된 영상분류테이블이 생성된다. 이때 영상분류테이블은 각 카메라로부터 입력된 영상을 처리할 대상인 GPU가 매칭된 데이터를 의미한다.In addition, the image classification table generated/updated by the image classification table generation/update module 43 is generated in the memory 31 . At this time, the image classification table refers to data matched by a GPU, which is a target to process images input from each camera.

또한 메모리(31)에는 카메라(5)들로부터 전송받은 영상들이 임시 저장된다.Also, images transmitted from the cameras 5 are temporarily stored in the memory 31 .

또한 메모리(31)에는 객체분석정보 생성부(37) 및 교통정보 생성부(38)에 의해 생성된 객체분석정보 및 교통정보가 임시 저장된다.In addition, object analysis information and traffic information generated by the object analysis information generation unit 37 and the traffic information generation unit 38 are temporarily stored in the memory 31 .

또한 메모리(31)에는 번호인식부(41)에 의해 인식된 차량번호가 임시 저장된다.In addition, the vehicle number recognized by the number recognition unit 41 is temporarily stored in the memory 31 .

도 7은 도 6의 인공지능 학습부의 객체분석 알고리즘에 적용되는 YOLOv4 모델을 나타내는 개념도이고, 도 9는 도 7의 객체분석 알고리즘에 적용되는 CNN을 설명하기 위한 예시도이다.7 is a conceptual diagram illustrating a YOLOv4 model applied to the object analysis algorithm of the artificial intelligence learning unit of FIG. 6, and FIG. 9 is an exemplary diagram for explaining a CNN applied to the object analysis algorithm of FIG.

인공지능 학습부(33)는 제어부(30)의 제어에 따라 기 설정된 주기(T) 마다 실행되며, 딥-러닝(Deep learning) 기반의 객체분석 알고리즘을 학습화하며, 상세하게로는 주기(T) 동안 수집된 영상과 기 설정된 객체종류를 활용하여, 영상 및 객체종류 간의 상관관계를 학습할 수 있는 학습데이터를 생성하고 생성된 학습데이터를 활용하여 객체영상 및 객체종류 간의 상관관계에 대한 파라미터 값들의 집합인 추출모델을 도출한다.The artificial intelligence learning unit 33 is executed every predetermined period (T) under the control of the control unit 30, and learns an object analysis algorithm based on deep learning, and in detail, the period (T ), using the collected images and preset object types, create learning data that can learn the correlation between images and object types, and use the generated learning data to create parameter values for the correlation between object images and object types. Derive an extraction model, which is a set of

이때 객체분석 알고리즘은 도 7과 8에 도시된 바와 같이, 입력영상을 입력데이터로 하되, 입력된 영상으로부터 기 설정된 차량 및 보행자 등의 객체정보(인식, 위치, 종류, 크기 등)를 출력하는 딥-러닝 알고리즘이다.At this time, as shown in FIGS. 7 and 8, the object analysis algorithm takes the input image as input data, but outputs object information (recognition, location, type, size, etc.) of vehicles and pedestrians set in advance from the input image. - It is a learning algorithm.

또한 객체분석 알고리즘으로는 심층신경망 객체 검지 알고리즘의 하나인 합성곱 신경망(CNN, Convolution Neural Network) 기반의 YOLO를 적용하였고, 1)YOLO는 각 이미지를 S X S개의 그리드로 분할하고 그리드의 신뢰도를 계산하여 경계상자의 위치를 조정함으로써 객체 인식율이 뛰어날 뿐만 아니라 실시간 처리가 가능한 장점을 갖고, 2)CNN은 영상인식에서 대표적으로 사용되는 방법으로 촬영된 이미지를 매트릭스로 수치화하여 데이터를 분석한 후, C1~C5까지는 데이터 처리를 위해 분할된 이미지 영역의 3차원 매트릭스를 분석하며 FC6, FC7에서는 이를 2차원으로 요약/정리하여 활용하며 이렇게 정리된 매트릭스를 딥러닝이나 영상분석에 사용하도록 구성된다.In addition, as an object analysis algorithm, YOLO based on Convolution Neural Network (CNN), one of the deep neural network object detection algorithms, was applied. 1) YOLO divides each image into S X S grids and calculates the reliability of the grid. By adjusting the position of the bounding box, not only the object recognition rate is excellent, but also has the advantage of real-time processing. 2) CNN is a method typically used in image recognition. Up to C5, the 3D matrix of the segmented image area is analyzed for data processing, and in FC6 and FC7, it is summarized/organized into 2D and used, and the organized matrix is configured to be used for deep learning or image analysis.

이러한 YOLO의 인식률 평가를 위해 NVIDIA RTX 2080 Super 2-way 환경에서 테스트한 결과, Pretrained YOLOv4가 실생활에서 자주 볼 수 있는 80종류의 사물에 대해 가장 높은 평균인식률(75.67%)을 보였고, 그 중 자동차, 버스, 트럭 3종류의 사물에 대해서는 평균 80.39%의 인식률을 보였다. 이때 인식률은 모델 평가용 데이터셋(MSCOCO 2017)을 각 AI 모델에 순전파(Forward Propagation)하여 나온 인식 결과를 바탕으로, (AI 모델이 인식한 사물 개수 / 이미지에 존재하는 사물 개수 )를 계산하였다.As a result of testing in the NVIDIA RTX 2080 Super 2-way environment to evaluate the recognition rate of YOLO, Pretrained YOLOv4 showed the highest average recognition rate (75.67%) for 80 types of objects frequently seen in real life, among which cars, For three types of objects, buses and trucks, the average recognition rate was 80.39%. At this time, the recognition rate was calculated based on the recognition results obtained by forward propagating the model evaluation dataset (MSCOCO 2017) to each AI model, (the number of objects recognized by the AI model / the number of objects present in the image). .

이러한 YOLO의 인식률을 기반으로, 본 발명에서는 객체분석 알고리즘의 인식 대상을 종래에서와 같이, 80종류로 설정하지 않고, 도로에서 볼 수 있는 사물, 즉 자동차, 버스, 오토바이, 트럭, 인체의 5종류로 축소하여 설정함으로써 5% 이상의 인식률 개선이 이루어지도록 하였다.Based on the recognition rate of this YOLO, in the present invention, the object analysis algorithm does not set the recognition target to 80 types as in the prior art, but five types of objects that can be seen on the road, that is, cars, buses, motorcycles, trucks, and the human body. By reducing the setting to , the recognition rate was improved by more than 5%.

이와 같이 본 발명의 인공지능 학습부(33)에 의해 학습되는 객체분석 알고리즘은 CNN 기반의 YOLO를 적용하여 학습이 이루어지되, 인식대상을 도로에서 흔히 볼 수 있는 5종류로 제한함으로써 객체 인식 및 분류의 정확성 및 정밀도를 현저히 높일 수 있고, 이에 따라 최적 신호체계 수립의 정확성 및 신뢰도가 함께 증가하여 차량 대기시간을 획기적으로 절감시킬 수 있게 된다.In this way, the object analysis algorithm learned by the artificial intelligence learning unit 33 of the present invention is learned by applying CNN-based YOLO, but object recognition and classification by limiting the recognition target to 5 types commonly seen on the road Accuracy and precision can be significantly increased, and accordingly, the accuracy and reliability of establishing an optimal signal system are increased together, thereby dramatically reducing vehicle waiting time.

도 9는 도 6의 영상 분류부를 나타내는 블록도이고, 도 10은 도 9의 개념도이다.9 is a block diagram illustrating the image classification unit of FIG. 6 , and FIG. 10 is a conceptual diagram of FIG. 9 .

영상 분류부(34)는 도 9에 도시된 바와 같이, 영상입력모듈(341)과, 비교 및 판단모듈(342), 일대일기반 분류모듈(343), 영상분류테이블기반 분류모듈(344)로 이루어진다.As shown in FIG. 9, the image classification unit 34 includes an image input module 341, a comparison and judgment module 342, a one-to-one classification module 343, and an image classification table-based classification module 344. .

영상 분류부(34)는 도 9에 도시된 바와 같이, 영상입력모듈(341)과, 비교 및 판단모듈(342), 일대일 기반 분류모듈(343), 영상분류테이블 기반 분류모듈(344)로 이루어진다.As shown in FIG. 9, the image classification unit 34 includes an image input module 341, a comparison and judgment module 342, a one-to-one based classification module 343, and an image classification table based classification module 344. .

영상입력모듈(341)은 카메라(5-1), ..., (5-N)들로부터 전송받은 영상(카메라 식별정보 포함)을 입력받는다.The image input module 341 receives images (including camera identification information) transmitted from the cameras 5-1, ..., and 5-N.

비교 및 판단모듈(342)은 해당 교차로(S)에 설치된 카메라(5)들의 전체 수량(N)과, 컨트롤러(3)에 구비된 GPU(Graphic Processing Unit)의 전체 수량(M)을 비교하며, 상세하게로는 전체 카메라 수량(N)이 전체 GPU 수량(M)의 이하(N ≤ M)인지를 비교한다.The comparison and determination module 342 compares the total number N of cameras 5 installed at the intersection S with the total number M of GPUs (Graphic Processing Units) provided in the controller 3, Specifically, it is compared whether the total number of cameras (N) is less than or equal to (N ≤ M) the total number of GPUs (M).

이때 각 GPU에는 인공지능 기반 영상 분석모듈(35-1), ..., (35-M)들이 각각 구비되어, 인공지능 학습부(33)에 의해 학습된 딥-러닝 기반의 객체분석 알고리즘을 이용하여 입력된 영상을 분석한다.At this time, each GPU is provided with artificial intelligence-based image analysis modules 35-1, ..., (35-M), respectively, and uses the deep-learning-based object analysis algorithm learned by the artificial intelligence learning unit 33. Analyze the input image using

또한 비교 및 판단모듈(342)은 1)만약 전체 카메라 수량(N)이 전체 GPU 수량(M) 이하이면, 일대일 기반 분류모듈(343)을 실행시키고, 2)만약 전체 카메라 수량(N)이 전체 GPU 수량(M)을 초과하면, 영상분류테이블 기반 분류모듈(344)을 실행시킨다.In addition, the comparison and determination module 342 executes the one-to-one based classification module 343 if 1) the total number of cameras (N) is less than or equal to the total number of GPUs (M), and 2) if the total number of cameras (N) is If the number of GPUs (M) is exceeded, the classification module 344 based on the image classification table is executed.

일대일 기반 분류모듈(343)은 비교 및 판단모듈(342)에서 전체 카메라 수량(N)이 전체 GPU 수량(M)의 이하(N ≤ M)일 때 실행된다. 즉 일대일 기반 분류모듈(343)은 각 카메라(5)의 영상이 단일 GPU(35)에서 영상처리가 가능할 때 실행된다.The one-to-one based classification module 343 is executed when the total number of cameras (N) in the comparison and determination module 342 is less than or equal to (N ≤ M) the total number of GPUs (M). That is, the one-to-one based classification module 343 is executed when the image of each camera 5 can be processed by a single GPU 35 .

또한 일대일 기반 분류모듈(343)은 입력된 영상들을 GPU(인공지능 기반 영상 분석부)(35)들로 각각 입력하는 방식으로 영상들을 분류한다.In addition, the one-to-one based classification module 343 classifies the images by inputting the input images to the GPU (artificial intelligence based image analysis unit) 35, respectively.

즉 일대일 기반 분류모듈(343)은 카메라(5)의 촬영에 의해 획득된 영상들을 일대일로 각 GPU(35)에 입력한다.That is, the one-to-one based classification module 343 inputs the images acquired by the camera 5 to each GPU 35 on a one-to-one basis.

영상분류테이블 기반 분류모듈(344)은 비교 및 판단모듈(342)에서 전체 카메라 수량(N)이 전체 GPU 수량(M)을 초과(N > M)할 때 실행된다. 즉 영상분류테이블 기반 분류모듈(344)은 GPU(35)들 중 적어도 하나 이상이 두 개 이상의 영상들을 처리해야하는 조건일 때 실행된다.The image classification table-based classification module 344 is executed when the total number of cameras (N) exceeds the total number of GPUs (M) (N>M) in the comparison and determination module 342. That is, the image classification table-based classification module 344 is executed when at least one of the GPUs 35 has to process two or more images.

또한 영상분류테이블 기반 분류모듈(344)은 영상분류테이블 생성/갱신모듈(43)에 의해 생성/갱신되어 메모리(31)에 저장된 영상분류테이블을 추출한다. 이때 영상분류테이블은 각 카메라로부터 입력된 영상을 처리할 대상인 GPU가 매칭된 데이터를 의미한다.In addition, the image classification table-based classification module 344 extracts the image classification table generated/updated by the image classification table generation/update module 43 and stored in the memory 31. At this time, the image classification table refers to data matched by a GPU, which is a target to process images input from each camera.

또한 영상분류테이블 기반 분류모듈(344)은 추출된 영상분류테이블에 따라 입력된 영상들을 해당 GPU(35)로 입력하는 방식으로 영상들을 분류한다.Also, the image classification table-based classification module 344 classifies the images by inputting the input images to the corresponding GPU 35 according to the extracted image classification table.

인공지능 기반 영상 분석모듈(35-1), ..., (35-M)들은 인공지능 학습부(35)에 의해 학습된 객체분석 알고리즘을 이용하여, 입력된 영상을 분석하여 객체정보(인식, 위치, 종류, 크기 등)를 출력한다.The artificial intelligence-based image analysis modules 35-1, ..., (35-M) use the object analysis algorithm learned by the artificial intelligence learning unit 35 to analyze the input image to obtain object information (recognition). , location, type, size, etc.) are output.

사용량 모니터링부(36)는 각 인공지능 기반 영상 분석모듈(35-1), ..., (35-M)들 중 적어도 하나 이상이 동작할 때 실행된다.The usage monitoring unit 36 is executed when at least one of the AI-based image analysis modules 35-1, ..., and 35-M operates.

또한 사용량 모니터링부(36)는 동작 중인 인공지능 기반 영상 분석모듈(35-1), ..., (35-M)들의 영상분석을 위한 사용량(부하량)을 검출하며, 검출된 사용량 정보를 메모리(31)에 저장한다.In addition, the usage monitoring unit 36 detects usage (load) for image analysis of the artificial intelligence-based image analysis modules 35-1, ..., (35-M) in operation, and stores the detected usage information in memory. Save to (31).

즉 사용량 모니터링부(36)는 영상 분석을 위한 연산처리로 인한 각 GPU의 사용량을 실시간 검출하여 메모리(31)에 저장한다.That is, the usage monitoring unit 36 detects in real time the usage amount of each GPU due to operation processing for image analysis and stores it in the memory 31 .

객체분석정보 생성부(37)는 인공지능 기반 영상 분석모듈(35-1), ..., (35-M)들에 의해 검출된 객체정보들과, 각 카메라(5)의 감지영역의 위치정보와, 교차로(S) 및 각 연결차로(S1), (S2), (S3), (S4)의 위치정보를 활용함과 동시에 검출된 객체들을 트래킹하여, 각 객체가 위치한 차로종류 및 차선, 이동속도 및 방향 등을 포함하는 객체분석정보를 생성한다.The object analysis information generating unit 37 includes the object information detected by the AI-based image analysis modules 35-1, ..., and 35-M, and the location of the detection area of each camera 5. Information and the location information of the intersection (S) and each connection lane (S1), (S2), (S3), and (S4) are utilized, and the detected objects are tracked at the same time, so that the type of lane and lane where each object is located, Creates object analysis information including movement speed and direction.

이때 제어부(30)는 객체분석정보 생성부(37)에 의해 생성된 객체분석정보를 메모리(31)에 저장함과 동시에 교통정보 생성부(38) 및 위반차량 단속부(40)로 입력한다.At this time, the control unit 30 stores the object analysis information generated by the object analysis information generation unit 37 in the memory 31 and inputs it to the traffic information generation unit 38 and the violation vehicle control unit 40 at the same time.

교통정보 생성부(38)는 객체분석정보 생성부(37)로부터 입력된 객체분석정보를 활용 및 참조하여, 각 연결차로의 대기열, 대기시간 및 교통량 등을 포함하는 교토정보를 생성한다.The traffic information generation unit 38 utilizes and refers to the object analysis information input from the object analysis information generation unit 37 to generate Kyoto information including queue, waiting time and traffic volume of each connecting lane.

이때 교통정보 생성부(38)에 의해 생성된 교통정보는 제어부(30)의 제어에 따라 메모리(31)에 저장됨과 동시에 신호체계 수립부(39)로 입력된다.At this time, the traffic information generated by the traffic information generation unit 38 is stored in the memory 31 under the control of the control unit 30 and inputted to the signal system establishment unit 39 at the same time.

신호체계 수립부(39)는 기 설정된 최적 신호 검출 알고리즘을 이용하여, 교통정보 생성부(38)로부터 입력된 교통정보를 기반으로 최적 신호체계를 수립한다.The signal system establishment unit 39 establishes an optimal signal system based on the traffic information input from the traffic information generation unit 38 using a preset optimal signal detection algorithm.

이때 교통정보를 기반으로 최적 신호체계를 수립하는 최적 신호 검출 알고리즘에 대한 기술 및 방법은 신호 제어시스템에 있어서 통상적으로 사용되는 기술 및 방법이기 때문에 상세한 설명은 생략하기로 하고, 공지된 다양한 기술 및 방법이 적용될 수 있다.At this time, since the technique and method for the optimal signal detection algorithm for establishing the optimal signal system based on traffic information is a technique and method commonly used in signal control systems, detailed descriptions thereof will be omitted, and various well-known techniques and methods will be omitted. this may apply.

도 11은 도 6의 위반차량 단속부에 의해 감지되는 꼬리물기 위반차량을 나타내는 예시도이다.FIG. 11 is an exemplary diagram illustrating tail-biting violation vehicles detected by the violation vehicle enforcement unit of FIG. 6 .

위반차량 단속부(40)는 객체분석정보 생성부(37)에 의해 생성된 객체분석정보와, 교통신호 제어기(7)로부터 입력된 현재 현시정보, 교차로(S) 및 각 연결차로(S1), (S2), (S3), (S4)의 위치정보를 활용하여, 도 11에 도시된 바와 같이, 꼬리물기 등의 위반차량을 검출한다.The violating vehicle control unit 40 includes the object analysis information generated by the object analysis information generation unit 37, the current present information input from the traffic signal controller 7, the intersection S and each connecting lane S1, Using the location information of (S2), (S3), and (S4), as shown in FIG. 11, violating vehicles such as biting tails are detected.

이때 제어부(30)는 위반차량 단속부(40)에 의해 위반차량이 검출되면, 검출된 위반차량 정보와, 번호인식부(41)에 의해 인식된 위반차량의 차량번호, 해당 위반차량이 촬영된 영상을 매칭시키며, 매칭된 데이터가 관제센터서버(9)로 전송되도록 통신 인터페이스부(32)를 제어한다.At this time, when a violation vehicle is detected by the violation vehicle enforcement unit 40, the control unit 30 provides the detected violation vehicle information, the license plate number of the violation vehicle recognized by the number recognition unit 41, and the photographed image of the violation vehicle. The images are matched, and the communication interface unit 32 is controlled so that the matched data is transmitted to the control center server 9.

도 12는 도 6의 번호인식부를 설명하기 위한 예시도이다.12 is an exemplary view for explaining the number recognition unit of FIG. 6 .

번호인식부(41)는 도 12에 도시된 바와 같이, 연결차로의 차량이 교차로(S)로 진입하는 구간을 통과하는 차량의 영상을 분석하여 차량번호를 인식한다.As shown in FIG. 12 , the number recognition unit 41 recognizes the vehicle number by analyzing an image of a vehicle passing through a section where a vehicle on a connecting lane enters an intersection S.

경고문구 출력부(42)는 객체분석정보 생성부(37)에 의해 생성된 객체분석정보를 활용하여, 차량 및 보행자 충돌이 예측될 때, 해당 전시수단(11)에 경고문구가 출력되도록 한다.The warning message output unit 42 uses the object analysis information generated by the object analysis information generation unit 37 to output a warning message to the corresponding display means 11 when a collision between a vehicle and a pedestrian is predicted.

도 13은 도 6의 영상분류테이블 생성/갱신부를 나타내는 예시도이다.FIG. 13 is an exemplary diagram illustrating the image classification table generation/update unit of FIG. 6 .

도 13의 영상분류테이블 생성/갱신부(43)는 제어부(30)의 제어에 따라, 기 설정된 제1 주기(T1) 마다 실행된다.The image classification table generation/update unit 43 of FIG. 13 is executed every preset first period T1 according to the control of the control unit 30 .

또한 영상분류테이블 생성/갱신부(43)는 도 13에 도시된 바와 같이, 데이터 수집모듈(431)과, 각 GPU 총사용량 산출모듈(432), 각 GPU 평균사용량 산출모듈(433), 상한설정값(TH) 비교모듈(434), 점검후보 결정모듈(435), GPU 정렬모듈(346), 변경대상 결정모듈(347), 영상분류테이블 갱신모듈(348)로 이루어진다.In addition, as shown in FIG. 13, the image classification table generation/update unit 43 includes a data collection module 431, a total usage calculation module 432 for each GPU, an average usage calculation module 433 for each GPU, and an upper limit setting. It consists of a value (TH) comparison module 434, an inspection candidate determination module 435, a GPU alignment module 346, a change target determination module 347, and an image classification table update module 348.

데이터 수집모듈(431)은 기 설정된 제1 주기(T1) 동안의 각 GPU별 사용량 데이터들을 수집한다.The data collection module 431 collects usage data for each GPU during the first preset period T1.

각 GPU 총사용량 산출모듈(432)은 데이터 수집모듈(431)에 의해 수집된 각 GPU별 사용량 데이터들을 활용하여, 각 GPU별 총사용량을 산출한다.The total usage amount calculation module 432 for each GPU calculates the total usage amount for each GPU by using usage data for each GPU collected by the data collection module 431 .

각 GPU 평균사용량 산출모듈(433)은 각 GPU 총사용량 산출모듈(432)에 의해 산출된 각 GPU별 총사용량과 제1 주기(T1)를 활용하여, 각 GPU별 평균사용량()을 산출한다.Each GPU average usage calculation module 433 utilizes the total usage amount and the first cycle T1 for each GPU calculated by each GPU total usage calculation module 432 to calculate the average usage for each GPU ( ) is calculated.

상한설정값(TH) 비교모듈(434)은 각 GPU 평균사용량 산출모듈(433)에 의해 산출된 각 GPU별 평균사용량()과 기 설정된 상한설정값(TH)을 비교하며, 상세하게로는 각 GPU별 평균사용량()이 상한설정값(TH) 이상()인지를 비교한다.The upper limit setting value (TH) comparison module 434 is the average usage for each GPU calculated by the average usage calculation module 433 for each GPU ( ) and the preset upper limit value (TH), and in detail, the average usage for each GPU ( ) is higher than the upper limit setting value (TH) ( ) to compare cognition.

이때 상한설정값(TH)은 해당 GPU에서 과부하로 판단할 수 있는 사용량 최소값으로 정의된다.At this time, the upper limit setting value (TH) is defined as the minimum usage value that can be determined as overload in the GPU.

점검후보 결정모듈(435)은 상한설정값(TH) 비교모듈(434)에서, 1)상한설정값(TH) 미만의 평균사용량()을 갖는 GPU(35)는 점검후보에서 제거하되, 2)상한설정값(TH) 이상의 평균사용량()을 갖는 GPU(35)가 검출되면, 해당 GPU를 점검후보로 결정한다.In the inspection candidate determination module 435, in the upper limit set value (TH) comparison module 434, 1) the average amount of use less than the upper limit set value (TH) ( ), the GPU 35 having is removed from the inspection candidates, but 2) the average usage over the upper limit setting value (TH) ( ) is detected, the GPU is determined as an inspection candidate.

GPU 정렬모듈(436)은 점검후보 결정모듈(435)에서 점검후보가 결정될 때 실행된다.The GPU alignment module 436 is executed when an inspection candidate is determined in the inspection candidate determination module 435 .

또한 GPU 정렬모듈(436)은 각 GPU 평균사용량 산출모듈(433)에서 산출된 평균사용량()들을 활용하여, GPU(35)들을 평균사용량()이 낮은 순서부로 차례대로 정렬시킨다.In addition, the GPU sorting module 436 calculates the average usage (calculated by each GPU average usage calculation module 433). ), the average usage of the GPUs 35 ( ) is sorted in descending order.

변경대상 결정모듈(437)은 GPU 정렬모듈(436)을 통해 평균사용량()이 가장 낮은 GPU를 변경대상으로 결정한다.The change target determination module 437 uses the GPU sorting module 436 to determine the average usage ( ) determines the GPU with the lowest value as the change target.

영상분류테이블 갱신모듈(438)은 점검후보 결정모듈(435)에서 점검후보로 결정된 GPU에 매칭된 복수개의 영상들 중 어느 하나가, 변경대상 결정모듈(347)에서 변경대상으로 결정된 GPU로 입력되도록 하는 결정한 후, 결정된 매칭정보가 반영되도록 영상분류테이블을 갱신한다.The image classification table updating module 438 inputs one of the plurality of images matched to the GPU determined as an inspection candidate in the inspection candidate determination module 435 to the GPU determined as a change target in the change target determination module 347. After determining to do so, the image classification table is updated to reflect the determined matching information.

이때 영상분류테이블 갱신모듈(438)에 의해 갱신된 영상분류테이블은 제어부(30)의 제어에 따라 메모리(31)에 저장된다.At this time, the image classification table updated by the image classification table updating module 438 is stored in the memory 31 under the control of the controller 30 .

이와 같이 구성되는 본 발명의 일실시예인 객체 감응을 활용한 차량 흐름 제어 시스템(1)은 카메라들에 의해 촬영된 영상을 분석하여 객체정보 및 교통정보를 생성한 후, 생성된 교통정보에 따라 최적 현시체계를 생성한 후, 생성된 최적 현시체계에 따라 교통신호가 제어되도록 구성됨으로써 차량 정체율 및 대기시간을 현저히 절감시킬 수 있을 뿐만 아니라 이에 따른 연비소모 및 오염가스 배출량을 효과적으로 줄여 사회적 비용 소모를 절감시킬 수 있게 된다.The vehicle flow control system 1 using object sensing, which is an embodiment of the present invention configured as described above, analyzes images captured by cameras to generate object information and traffic information, and then optimizes the optimum according to the generated traffic information. After creating the display system, traffic signals are controlled according to the generated optimal display system, which not only significantly reduces vehicle congestion and waiting time, but also effectively reduces fuel consumption and pollutant emissions, thereby reducing social costs. savings can be made.

또한 본 발명의 객체 감응을 활용한 차량 흐름 제어 시스템(1)은 딥-러닝 알고리즘을 이용하여 입력된 영상들을 분석함에 따라 객체 인식률을 개선시켜 분석의 정확성 및 신뢰도를 획기적으로 높일 수 있다.In addition, the vehicle flow control system 1 using object sensing of the present invention can dramatically increase the accuracy and reliability of analysis by improving the object recognition rate by analyzing input images using a deep-learning algorithm.

또한 본 발명의 객체 감응을 활용한 차량 흐름 제어 시스템(1)은 딥-러닝 알고리즘으로 합성곱 신경망(CNN, Convolution Neural Network) 기반의 YOLO 모델을 적용시킴으로써 객체 인식률을 더욱 높일 수 있게 된다.In addition, the vehicle flow control system 1 using the object response of the present invention can further increase the object recognition rate by applying a YOLO model based on a Convolution Neural Network (CNN) as a deep-learning algorithm.

또한 본 발명의 객체 감응을 활용한 차량 흐름 제어 시스템(1)은 딥-러닝 알고리즘의 학습 시, 인식대상을 종래에 80종류에서, 도로에서 자주 볼 수 있는 5종류로 제한하여 학습이 이루어지도록 구성됨으로써 객체 인식률을 더욱 개선시킬 수 있다.In addition, when learning the deep-learning algorithm, the vehicle flow control system 1 using object sensing of the present invention is configured so that learning is performed by limiting recognition objects from the conventional 80 types to 5 types frequently seen on the road. As a result, the object recognition rate can be further improved.

또한 본 발명의 객체 감응을 활용한 차량 흐름 제어 시스템(1)은 복수개의 GPU들을 이용하여 영상을 분석함으로써 카메라들의 촬영에 의해 획득된 고용량의 영상들의 실시간 처리 및 분석이 가능하게 된다.In addition, the vehicle flow control system 1 using object sensing of the present invention enables real-time processing and analysis of high-capacity images obtained by shooting cameras by analyzing images using a plurality of GPUs.

1:객체 감응을 활용한 차량 흐름 제어 시스템
3:컨트롤러 5-1, ..., 5-N:카메라들
7:교통신호 제어기 8:신호등
9:관제센터서버 10:통신망
11:전시수단 30:제어부
31:메모리 32:통신 인터페이스부
33:인공지능 학습부 34:영상분류부
35-1, ..., 35-M:인공지능 기반 영상 분석모듈
36:사용량 모니터링부 37:객체분석정보 생성부
38:교통정보 생성부 39:신호체계 수립부
40:위반차량 단속부 41:번호인식부
42:경고문구 출력부 43:영상분류테이블 생성/갱신부
341:영상입력모듈 342:비교 및 판단모듈
343:일대일 기반 분류모듈 344:영상분류테이블 기반 분류모듈
431:데이터 수집모듈 432:각 GPU 총사용량 산출모듈
433:각 GPU 평균사용량 산출모듈 434:상한설정값(TH) 비교모듈
435:점검후보 결정모듈 436:GPU 정렬모듈
437:변경대상 결정모듈 438:영상분류테이블 갱신모듈
1: Vehicle flow control system using object sensing
3: controller 5-1, ..., 5-N: cameras
7: traffic signal controller 8: traffic light
9: control center server 10: communication network
11: display means 30: control unit
31: memory 32: communication interface unit
33: artificial intelligence learning unit 34: image classification unit
35-1, ..., 35-M: AI-based image analysis module
36: usage monitoring unit 37: object analysis information generation unit
38: traffic information generation unit 39: signal system establishment unit
40: violation vehicle control unit 41: number recognition unit
42: warning message output unit 43: image classification table generation / update unit
341: image input module 342: comparison and determination module
343: one-to-one based classification module 344: image classification table based classification module
431: Data collection module 432: Each GPU total usage calculation module
433: each GPU average usage calculation module 434: upper limit setting value (TH) comparison module
435: check candidate determination module 436: GPU alignment module
437: Change target determination module 438: Image classification table update module

Claims (8)

감지영역인 적어도 하나 이상의 도로를 촬영하여 영상을 획득하는 카메라들과, 상기 감지영역에 설치되는 신호등들의 동작을 제어하는 교통신호 제어기와, 복수(M)의 GPU(Graphic Processing Unit)들을 구비한 컨트롤러를 포함하는 객체 감응을 활용한 차량 흐름 제어 시스템에 있어서:
상기 컨트롤러는
딥-러닝(Deep learning) 기반의 객체분석 알고리즘을 이용하여, 상기 카메라들의 촬영에 의해 획득된 영상들을 분석하여 감지된 객체의 위치, 종류 및 크기 중 적어도 하나 이상을 포함하는 객체정보를 출력한 후, 출력된 객체를 트래킹하여 교통정보를 생성하며, 생성된 교통정보를 기반으로 최적 신호체계를 검출한 후, 검출된 최적 신호체계에 따른 감응신호를 상기 교통신호 제어기로 전송하고,
상기 교통신호 제어기는 상기 컨트롤러로부터 전송받은 감응신호에 대응하여 상기 신호등들을 제어하고,
상기 컨트롤러는
각 카메라로부터 입력된 영상을 처리할 대상인 GPU가 매칭된 영상분류테이블이 저장되는 메모리;
기 설정된 주기(T) 마다 실행되어 상기 객체분석 알고리즘을 학습시키며, 학습된 객체분석 알고리즘을 상기 메모리에 저장하는 인공지능 학습부;
상기 메모리에 저장된 객체분석 알고리즘을 이용하여, 상기 카메라들로부터 전송받은 영상들을 분석하여 객체정보를 출력하는 인공지능 기반 영상 분석부;
상기 인공지능 기반 영상 분석부에 의해 검출된 객체를 트래킹하여, 감지된 객체가 위치한 차로종류, 차선위치, 이동속도 및 방향을 포함하는 객체분석정보를 생성하는 객체분석정보 생성부;
상기 객체분석정보 생성부에 의해 생성된 객체분석정보를 활용하여, 각 도로의 대기열, 대기시간 및 교통량 중 적어도 하나 이상을 포함하는 교통정보를 생성하는 교통정보 생성부;
기 설정된 최적 신호 검출 알고리즘을 이용하여 상기 교통정보 생성부에 의해 생성된 교통정보를 분석하여, 최적 현시체계를 수립하는 신호체계 수립부;
상기 신호체계수립부에 의해 수립된 최적 현시체계에 따른 감응신호를 상기 교통신호 제어기로 전송하는 제어부를 포함하고,
상기 인공지능 기반 영상 분석부는 각 GPU에서 처리되는 인공지능 기반 영상 분석모듈들을 포함하고,
상기 컨트롤러는
상기 카메라들 중 적어도 하나 이상으로부터 영상을 전송받을 때 실행되며, 상기 영상분류테이블에 저장된 매칭정보에 따라, 상기 카메라들로부터 전송받은 영상들을 해당하는 GPU로 분류시키는 영상분류부;
상기 인공지능 기반 영상 분석모듈들 중 적어도 하나 이상이 동작할 때 실행되며, 동작 중인 인공지능 기반 영상 분석모듈의 사용량(부하량)을 검출한 후, 검출된 사용량을 상기 메모리에 저장하는 사용량 모니터링부;
기 설정된 제1 주기(T1) 마다 실행되는 영상분류테이블 생성/갱신부를 더 포함하고,
상기 영상분류테이블 생성/갱신부는
상기 제1 주기(T1) 동안의 각 GPU별 사용량 데이터들을 수집하는 데이터 수집모듈;
상기 데이터 수집모듈에 의해 수집된 각 GPU별 사용량 데이터들을 활용하여, 각 GPU별 평균사용량()을 산출하는 각 GPU 평균사용량 산출모듈;
상기 각 GPU 평균사용량 산출모듈에 의해 산출된 각 GPU별 평균사용량()과, GPU에서 과부하로 판단할 수 있는 사용량 최소값을 의미하는 기 설정된 상한설정값(TH)을 비교하는 상한설정값(TH) 비교모듈;
상기 상한설정값(TH) 비교모듈에서, 1)상한설정값(TH) 미만의 평균사용량()을 갖는 GPU는 점검후보에서 제거시키되, 2)상한설정값(TH) 이상의 평균사용량()을 갖는 GPU가 검출되면, 해당 GPU를 점검후보로 결정하는 점검후보로 결정하는 점검후보 결정모듈;
상기 점검후보 결정모듈에서 점검후보가 결정될 때 실행되며, 평균사용량()이 가장 낮은 GPU를 변경대상으로 결정하는 변경대상 결정모듈;
상기 점검후보 결정모듈에서 점검후보로 결정된 GPU로 입력되는 복수개의 영상들 중 어느 하나가, 상기 변경대상 결정모듈에서 변경대상으로 결정된 GPU로 입력되도록 결정한 후, 결정된 매칭정보가 반영되도록 영상분류테이블을 갱신하는 영상분류테이블 갱신모듈을 포함하고,
상기 영상분류부는
상기 제1 주기(T1) 마다 갱신된 영상분류테이블에 따라, 상기 카메라들 중 적어도 하나 이상으로부터 전송받은 영상을 분류하고,
상기 영상분류부는
상기 카메라들로부터 전송받은 영상(카메라 식별정보 포함)을 입력받는 영상입력모듈;
상기 카메라들의 전체 수량(N)과, 상기 GPU(Graphic Processing Unit)들의 전체 수량(M)을 비교하는 비교 및 판단모듈;
상기 비교 및 판단모듈에서 전체 카메라 수량(N)이 전체 GPU 수량(M)의 이하(N ≤ M)일 때 실행되며, 입력된 영상들을 상기 GPU들 각각으로 일대일 방식으로 입력시키는 일대일 기반 분류모듈;
상기 비교 및 판단모듈에서 전체 카메라 수량(N)이 전체 GPU 수량(M)을 초과(N > M)할 때 실행되며, 상기 메모리에 저장된 영상분류테이블에 따라 영상들을 분류시키는 영상분류테이블 기반 분류모듈을 포함하는 것을 특징으로 하는 객체 감응을 활용한 차량 흐름 제어 시스템.
A controller equipped with cameras that acquire images by taking pictures of at least one road that is a sensing area, a traffic signal controller that controls the operation of traffic lights installed in the sensing area, and multiple (M) GPUs (Graphic Processing Units). In the vehicle flow control system using object sensing that includes:
The controller
Using a deep learning-based object analysis algorithm, images obtained by the cameras are analyzed to output object information including at least one of the location, type, and size of the detected object. , Tracks the output object to generate traffic information, detects an optimal signal system based on the generated traffic information, and transmits a response signal according to the detected optimal signal system to the traffic signal controller,
The traffic signal controller controls the traffic lights in response to the sensitive signal transmitted from the controller,
The controller
a memory storing an image classification table matched with a GPU, which is a target to process images input from each camera;
an artificial intelligence learning unit that is executed every predetermined period (T) to learn the object analysis algorithm and stores the learned object analysis algorithm in the memory;
an artificial intelligence-based image analysis unit that analyzes images transmitted from the cameras using an object analysis algorithm stored in the memory and outputs object information;
an object analysis information generation unit that tracks the object detected by the artificial intelligence-based image analysis unit and generates object analysis information including a lane type, a lane location, a moving speed, and a direction in which the detected object is located;
a traffic information generating unit generating traffic information including at least one of queue, waiting time, and traffic volume of each road by using the object analysis information generated by the object analysis information generating unit;
a signal system establishing unit that analyzes the traffic information generated by the traffic information generating unit using a preset optimal signal detection algorithm and establishes an optimal display system;
A control unit for transmitting a response signal according to the optimal display system established by the signal system establishment unit to the traffic signal controller;
The artificial intelligence-based image analysis unit includes artificial intelligence-based image analysis modules processed by each GPU,
The controller
an image classification unit that is executed when images are received from at least one of the cameras and classifies images received from the cameras into corresponding GPUs according to matching information stored in the image classification table;
a usage monitoring unit that is executed when at least one of the AI-based image analysis modules is operating, detects usage (load) of the AI-based video analysis module in operation, and then stores the detected usage amount in the memory;
Further comprising an image classification table generating/updating unit that is executed every preset first period (T1);
The image classification table generation/update unit
a data collection module for collecting usage data for each GPU during the first period T1;
Using the usage data for each GPU collected by the data collection module, the average usage for each GPU ( ) Each GPU average usage calculation module that calculates;
The average usage for each GPU calculated by the average usage calculation module for each GPU ( ) And an upper limit setting value (TH) comparison module for comparing a predetermined upper limit setting value (TH), which means the minimum amount of usage that can be determined as overload in the GPU;
In the upper limit setting value (TH) comparison module, 1) average usage amount less than the upper limit setting value (TH) ( ) is removed from the inspection candidates, but 2) the average usage above the upper limit setting value (TH) ( ) is detected, an inspection candidate determination module for determining the GPU as an inspection candidate;
It is executed when the inspection candidate is determined in the inspection candidate determination module, and the average usage ( ) is the change target determination module for determining the lowest GPU as the change target;
After determining which one of the plurality of images input to the GPU determined as an inspection candidate in the inspection candidate determination module is input to the GPU determined as a change target in the change target determination module, an image classification table is created so that the determined matching information is reflected. An image classification table update module for updating,
The video classification unit
According to the image classification table updated every first period (T1), the image received from at least one of the cameras is classified,
The video classification unit
an image input module that receives images (including camera identification information) transmitted from the cameras;
a comparison and determination module for comparing the total number (N) of the cameras and the total number (M) of the GPUs (Graphic Processing Units);
A one-to-one based classification module that is executed when the total number of cameras (N) in the comparison and determination module is less than (N ≤ M) of the total number of GPUs (M), and inputs the input images to each of the GPUs in a one-to-one manner;
In the comparison and determination module, it is executed when the total number of cameras (N) exceeds the total number of GPUs (M) (N > M), and an image classification table-based classification module that classifies images according to the image classification table stored in the memory. Vehicle flow control system using object sensing, characterized in that it comprises a.
삭제delete 제1항에 있어서, 상기 객체분석 알고리즘은 합성곱 신경망(CNN, Convolution Neural Network) 기반의 YOLO 모델이 적용된 것을 특징으로 하는 객체 감응을 활용한 차량 흐름 제어 시스템.The vehicle flow control system using object sensing according to claim 1, wherein the object analysis algorithm is applied with a YOLO model based on a Convolution Neural Network (CNN). 제3항에 있어서, 상기 인공지능 학습부는 상기 객체분석 알고리즘의 학습 시, 자동차, 버스, 오토바이, 트럭 및 인체를 인식대상의 객체로 설정한 것을 특징으로 하는 객체 감응을 활용한 차량 흐름 제어 시스템.The vehicle flow control system using object sensing according to claim 3, wherein the artificial intelligence learning unit sets cars, buses, motorcycles, trucks, and human bodies as objects to be recognized when learning the object analysis algorithm. 제4항에 있어서, 상기 객체 감응을 활용한 차량 흐름 제어 시스템은 관제센터서버를 더 포함하고,
상기 컨트롤러는
상기 객체분석정보에 의해 생성된 객체분석정보와, 기 설정된 감지영역의 위치정보, 현재 신호체계를 활용하여, 위반차량을 검출하는 위반차량 단속부;
상기 감지영역 중 기 설정된 구간에 진입한 차량의 영상으로부터 차량번호를 인식하는 번호인식부를 더 포함하고,
상기 제어부는 상기 위반차량 단속부에 의해 위반차량이 검출될 때, 해당 위반차량이 포함된 영상과, 위반차량의 차량번호, 위반정보를 매칭시켜 상기 관제센터서버로 전송하는 것을 특징으로 하는 객체 감응을 활용한 차량 흐름 제어 시스템.
The method of claim 4, wherein the vehicle flow control system using the object sensing further comprises a control center server,
The controller
a violation vehicle enforcement unit that detects a violation vehicle by utilizing object analysis information generated by the object analysis information, location information of a preset detection area, and current signal system;
Further comprising a number recognition unit for recognizing a vehicle number from an image of a vehicle entering a preset section of the detection area,
When a violating vehicle is detected by the violating vehicle enforcement unit, the control unit matches an image including the violating vehicle with a license plate number of the violating vehicle and violation information, and transmits the result to the control center server. Vehicle flow control system using
삭제delete 삭제delete 삭제delete
KR1020210061249A 2021-05-12 2021-05-12 Control system of traffic flow with sensing of vehicle based on deep learning KR102561656B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210061249A KR102561656B1 (en) 2021-05-12 2021-05-12 Control system of traffic flow with sensing of vehicle based on deep learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210061249A KR102561656B1 (en) 2021-05-12 2021-05-12 Control system of traffic flow with sensing of vehicle based on deep learning

Publications (2)

Publication Number Publication Date
KR20220153808A KR20220153808A (en) 2022-11-21
KR102561656B1 true KR102561656B1 (en) 2023-07-31

Family

ID=84233667

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210061249A KR102561656B1 (en) 2021-05-12 2021-05-12 Control system of traffic flow with sensing of vehicle based on deep learning

Country Status (1)

Country Link
KR (1) KR102561656B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116110012B (en) * 2023-04-14 2023-07-04 中国石油大学(华东) Dangerous violation identification method and system for intelligent construction site
CN116847515B (en) * 2023-09-01 2023-11-07 深圳市朝阳辉电气设备有限公司 Intelligent street lamp energy-saving control system and method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102021534B1 (en) * 2018-08-29 2019-10-18 주식회사 핀텔 Image analysis apparatus for sensing vehicle and pedestrian based on deep learning and method thereof
KR102414876B1 (en) 2022-03-16 2022-06-30 유에프엠시스템즈 주식회사 Traffic signal control system using sensitive left turn signal based on LiDAR

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102171671B1 (en) * 2018-08-09 2020-10-29 (주)인터아이 A system for integrated control of traffic signals based on deep learning and artificial intelligence planning
KR102197946B1 (en) * 2018-11-30 2021-01-04 (주)케이아이오티 object recognition and counting method using deep learning artificial intelligence technology
KR102130966B1 (en) * 2018-12-11 2020-07-08 라온피플 주식회사 Apparatus and method for controlling traffic signal

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102021534B1 (en) * 2018-08-29 2019-10-18 주식회사 핀텔 Image analysis apparatus for sensing vehicle and pedestrian based on deep learning and method thereof
KR102414876B1 (en) 2022-03-16 2022-06-30 유에프엠시스템즈 주식회사 Traffic signal control system using sensitive left turn signal based on LiDAR

Also Published As

Publication number Publication date
KR20220153808A (en) 2022-11-21

Similar Documents

Publication Publication Date Title
US11521497B2 (en) Method and system for recognition of objects near ship by using deep neural network
Jadhav et al. Smart traffic control system using image processing
KR102561656B1 (en) Control system of traffic flow with sensing of vehicle based on deep learning
KR102414876B1 (en) Traffic signal control system using sensitive left turn signal based on LiDAR
KR102122850B1 (en) Solution for analysis road and recognition vehicle license plate employing deep-learning
KR20100119476A (en) An outomatic sensing system for traffic accident and method thereof
US11948373B2 (en) Automatic license plate recognition
CN112339773A (en) Monocular vision-based non-active lane departure early warning method and system
KR20200141834A (en) Apparatus and method for image based traffic signal control
KR102306789B1 (en) License Plate Recognition Method and Apparatus for roads
CN112215073A (en) Traffic marking line rapid identification and tracking method under high-speed motion scene
KR102656881B1 (en) System and for combination management of traffic safety based on AIoT
KR102561657B1 (en) Traffic flow controlling method for controlling traffic signal with sensing vehicle
CN116311154A (en) Vehicle detection and identification method based on YOLOv5 model optimization
CN114333331B (en) Method and system for identifying vehicle passing information and vehicle weight of multi-lane bridge
KR102301932B1 (en) Traffic signal control system using blending on region of interest for dual-camera
CN113850112A (en) Road condition identification method and system based on twin neural network
Tippannavar et al. Real-time vehicle identi-fication for improving the traffic management system-a review
Bhuptani et al. Automating traffic signals based on traffic density estimation in bangalore using YOLO
CN112489423A (en) Vision-based urban road traffic police command method
Ghosh An improved you only look once based intelligent system for moving vehicle detection
Venkatesh et al. An intelligent traffic management system based on the Internet of Things for detecting rule violations
Slimani et al. Traffic Monitoring System for Vehicle Detection in Day and Night Conditions
Singh et al. Detection of vacant parking spaces through the use of convolutional neural network
KR20230173814A (en) 3D bound boxing method using vanishing point & Traffic flow controlling method for controlling traffic signal with sensing object

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant