KR102494953B1 - On-device real-time traffic signal control system based on deep learning - Google Patents
On-device real-time traffic signal control system based on deep learning Download PDFInfo
- Publication number
- KR102494953B1 KR102494953B1 KR1020210019506A KR20210019506A KR102494953B1 KR 102494953 B1 KR102494953 B1 KR 102494953B1 KR 1020210019506 A KR1020210019506 A KR 1020210019506A KR 20210019506 A KR20210019506 A KR 20210019506A KR 102494953 B1 KR102494953 B1 KR 102494953B1
- Authority
- KR
- South Korea
- Prior art keywords
- intersection
- road
- server
- calculated
- signal period
- Prior art date
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 36
- 238000001514 detection method Methods 0.000 claims abstract description 33
- 238000004891 communication Methods 0.000 claims abstract description 28
- 238000000034 method Methods 0.000 claims abstract description 27
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 8
- 238000013136 deep learning model Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013503 de-identification Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/07—Controlling traffic signals
- G08G1/075—Ramp control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G06Q50/30—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/40—Business processes related to the transportation industry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/095—Traffic lights
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Signal Processing (AREA)
- Operations Research (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Traffic Control Systems (AREA)
Abstract
딥러닝 기반 on-device 실시간 교통제어 시스템이 개시된다. 일 실시예에 따른 전자 기기에서 수행되는 교통제어 방법은, 딥러닝 기반의 객체 감지 및 추적 모델을 통해 각 교차로에 대한 도로 영상 데이터로부터 객체 정보와 관련된 도로 정보를 획득하는 단계; 상기 획득된 객체 정보와 관련된 도로 정보에 기반하여 교차로에 대한 신호주기를 산출하는 단계; 상기 서버와의 통신 연결 유무를 판단하는 단계; 및 상기 서버와의 통신이 연결된 것으로 판단됨에 따라 상기 획득된 객체 정보와 관련된 도로 정보 및 상기 산출된 신호주기를 서버로 전송하는 단계를 포함하고, 상기 서버로부터 상기 전송받은 객체 정보와 관련된 도로 정보와 상기 산출된 신호주기를 이용하여 조정된 각 교차로를 고려한 신호주기 정보에 기초하여 각 교차로의 신호제어기가 제어될 수 있다. A deep learning based on-device real-time traffic control system is disclosed. A traffic control method performed in an electronic device according to an embodiment includes obtaining road information related to object information from road image data for each intersection through a deep learning-based object detection and tracking model; Calculating a signal cycle for an intersection based on road information related to the obtained object information; Determining whether there is a communication connection with the server; and transmitting road information related to the obtained object information and the calculated signal period to a server when it is determined that communication with the server is connected, and road information related to the object information received from the server and A signal controller at each intersection may be controlled based on signal period information considering each intersection adjusted using the calculated signal period.
Description
아래의 설명은 딥러닝 기술을 이용하여 교통 신호를 제어하는 기술에 관한 것이다. The following description relates to a technology for controlling traffic signals using deep learning technology.
교통 신호제어 시스템이란 도로에 설치된 차량검지기에 의해 수집된 자료를 분석하여 실제 교통량에 가장 적합한 신호주기 및 현시를 설정하여 신호를 제어하는 시스템을 말한다. 국내 신호제어 시스템은 크게 일반 신호제어, 전자 신호제어, 실시간 신호제어로 구분된다. 현재, 실시간 신호제어 시스템에서는 일반적으로 교통량 파악에 루프 검지기를 사용하고 있다. 교통량 파악에 루프 검지기를 활용할 때 발생할 수 있는 치명적인 단점은 루프 검지기가 설치된 부분적 특성만 활용된다는 것이다. 이는 검지기 설치 위치에 따라 도로 상황을 다르게 오판하거나 교통사고 같은 돌발상황에 대처 할 수 없다는 것을 의미한다.The traffic signal control system is a system that analyzes the data collected by vehicle detectors installed on the road and controls the signal by setting the signal period and current time that are most suitable for the actual traffic volume. Domestic signal control systems are largely divided into general signal control, electronic signal control, and real-time signal control. Currently, real-time signal control systems generally use loop detectors to determine traffic volume. A fatal disadvantage that can occur when using a loop detector for traffic detection is that only the partial characteristics of the loop detector are utilized. This means that road conditions cannot be misjudged differently depending on where the detectors are installed, or unexpected situations such as traffic accidents cannot be dealt with.
루프 검지기 외에도 자기 검지기, 영상 검지기 등이 존재한다. 현재 교통량 분석에 활용되는 영상 검지기의 문제점으로는 날씨와 같은 외부 변수에 의한 성능 편차와 다른 검지기와 비교했을 때 성능이 낮다는 것이다. 최근 딥러닝을 활용한 컴퓨터 비전의 성능이 비약적으로 상승하였고 다양한 상황에서도 일관되게 높은 성능을 가지게 되었다. 이로 인해 딥러닝 모델을 활용한 영상 검지기는 기존 영상검지기의 단점을 보완할 수 있게 되었다. 하지만 딥러닝 모델은 이전의 컴퓨터 비전 모델들과는 다르게 기본적으로 많은 연산량이 필요로 하기 때문에 고성능 서버를 필요로 하고 이로 인해 과도한 비용 발생과 중요 개인정보 중 하나인 번호판이 담겨있는 이미지를 서버로 전송해야 한다는 개인정보 이슈가 존재한다. In addition to loop detectors, there are magnetic detectors and image detectors. The problems of video detectors currently used for traffic analysis include performance deviation due to external variables such as weather and low performance compared to other detectors. Recently, the performance of computer vision using deep learning has risen dramatically and has consistently high performance in various situations. As a result, image detectors using deep learning models can compensate for the shortcomings of existing image detectors. However, unlike previous computer vision models, deep learning models basically require a high-performance server because they require a large amount of computation, resulting in excessive costs and the need to transmit an image containing a license plate, one of important personal information, to the server. Privacy issues exist.
교통량을 딥러닝 모델을 온-디바이스(On-device)에서 파악하여 실시간으로 도로 상황에 최적화된 신호를 제어하는 실시간 교통 신호제어 시스템 및 방법을 제공할 수 있다. It is possible to provide a real-time traffic signal control system and method for controlling a signal optimized for road conditions in real time by grasping a deep learning model of traffic volume on-device.
전자 기기에서 수행되는 교통제어 방법은, 딥러닝 기반의 객체 감지 및 추적 모델을 통해 교차로에 대한 도로 영상 데이터로부터 객체 정보와 관련된 도로 정보를 획득하는 단계; 상기 획득된 객체 정보와 관련된 도로 정보에 기반하여 교차로에 대한 신호주기를 산출하는 단계; 서버와의 통신 연결 유무를 판단하는 단계; 및 상기 서버와의 통신이 연결된 것으로 판단됨에 따라 상기 획득된 객체 정보와 관련된 도로 정보 및 상기 산출된 신호주기를 서버로 전송하는 단계를 포함하고, 상기 교통제어 방법에서, 상기 서버로부터 상기 전송받은 객체 정보와 관련된 도로 정보와 상기 산출된 신호주기를 이용하여 조정된 각 교차로를 고려한 신호주기 정보에 기초하여 각 교차로의 신호제어기가 제어될 수 있다. A traffic control method performed in an electronic device includes obtaining road information related to object information from road image data of an intersection through a deep learning-based object detection and tracking model; Calculating a signal cycle for an intersection based on road information related to the obtained object information; Determining whether there is a communication connection with the server; and transmitting road information related to the obtained object information and the calculated signal period to a server when it is determined that communication with the server is connected, and in the traffic control method, the object transmitted from the server A signal controller at each intersection can be controlled based on road information related to information and signal period information considering each intersection adjusted using the calculated signal period.
상기 획득하는 단계는, 각 교차로에 설치된 촬영 기기로부터 촬영된 교차로에 대한 도로 영상 데이터를 수집하고, 상기 수집된 교차로에 대한 도로 영상 데이터를 상기 딥러닝 기반의 객체 감지 및 추적 모델에 입력하고, 상기 딥러닝 기반의 객체 감지 및 추적 모델을 이용하여 상기 수집된 교차로에 대한 영상 데이터로부터 객체 정보와 관련된 도로 정보를 추출하고, 상기 추출된 객체 정보와 관련된 도로 정보에 대한 비식별화하는 단계를 포함할 수 있다. The acquiring step may include collecting road image data of an intersection captured by a photographing device installed at each intersection, inputting the collected road image data of the intersection into the deep learning-based object detection and tracking model, and Extracting road information related to object information from the collected image data of the intersection using a deep learning-based object detection and tracking model, and de-identifying the road information related to the extracted object information. can
상기 획득하는 단계는, 상기 수집된 교차로에 대한 도로 영상 데이터로부터 차량들의 타입을 인식하고, 상기 인식된 차량들의 위치 변화를 추적하고, 상기 인식된 차량들이 상기 각 교차로를 포함하는 도로에서 단위 시간당 통과하는 통행량, 상기 인식된 차량들이 상기 각 교차로를 포함하는 도로에서 점유하고 있는 점유율을 나타내는 포화도를 포함하는 객체 정보와 관련된 도로 정보를 추출하는 단계를 포함할 수 있다. The acquiring may include recognizing types of vehicles from the collected road image data for the intersection, tracking position changes of the recognized vehicles, and passing the recognized vehicles per unit time on the road including each intersection. and extracting road information related to object information including a traffic volume indicating a traffic volume and a degree of saturation indicating a share occupied by the recognized vehicles on the road including each intersection.
상기 산출하는 단계는, 상기 획득된 객체 정보와 관련된 도로 정보를 통해 단위 시간당 교차로를 포함하는 도로의 통행량, 교차로를 포함하는 도로의 통행량을 기반으로 현시시간을 산출하고, 상기 산출된 현시시간의 도로 정보와 상기 산출된 현시시간 이전의 현시시간의 도로 정보와 비교하여 교차로를 포함하는 도로에 가중치 및 감산치를 부여하는 과정을 통해 교차로에 대한 현시시간을 산출하는 단계를 포함할 수 있다. The calculating may include calculating the present time based on the traffic volume of the road including the intersection and the traffic volume of the road including the intersection per unit time through road information related to the obtained object information, and calculating the present time of the road at the calculated present time. and calculating the present time for the intersection through a process of comparing the information with road information of the present time before the calculated present time and assigning weights and subtraction values to roads including the intersection.
상기 산출하는 단계는, 교차로를 포함하는 도로의 포화도를 통해 상기 산출된 현시시간을 기준으로 상기 산출된 현시시간의 이후에 차량들이 남이 있을 경우, 가중치를 부여하고, 상기 산출된 현시시간의 이내에 차량들이 비어 있을 경우, 감산치를 부여하고, 상기 산출된 현시시간의 도로 정보와 상기 산출된 현시시간 이전의 현시시간의 도로 정보와 비교하여 교차로를 포함하는 도로에 가중치 및 감산치를 부여하는 과정을 통해 교차로에 대한 현시시간을 산출하는 단계를 포함할 수 있다. In the calculating step, if there are other vehicles after the calculated presenting time based on the calculated presenting time based on the degree of saturation of the road including the intersection, a weight is assigned to the vehicle within the calculated presenting time. If fields are empty, a subtraction value is given, and the calculated road information at present time is compared with the road information at present time before the calculated present time, and a weight and a subtraction value are assigned to roads including intersections. It may include calculating the present time for.
상기 판단하는 단계는, 상기 서버와의 통신이 연결되지 않을 것으로 판단됨에 따라, 상기 전자 기기와 신호제어기 간 통신을 통해 상기 산출된 신호주기에 기초하여 신호등이 제어되도록 상기 신호제어기를 운영하는 단계를 포함하고, 상기 신호제어기는, 상기 전자 기기로부터 상기 산출된 신호주기를 전달받고, 상기 전달받은 신호주기를 통해 신호등을 운영할 수 있다. The determining step includes operating the signal controller to control traffic lights based on the calculated signal cycle through communication between the electronic device and the signal controller when it is determined that communication with the server will not be connected. The signal controller may receive the calculated signal period from the electronic device and operate the traffic light through the received signal period.
상기 서버에서 교차로로 구성된 최소제어단위 지역에 대한 도로 정보를 취합하고, 직진, 좌회전, 우회전의 차량 수를 통해 각 교차로 별 진입 차량과 이탈 차량의 수를 산출하고, 상기 진입 차량과 이탈 차량을 고려하여 교차로와 인접한 인접 교차로의 현시시간에 가중치를 반영하고, 교차로를 기준으로 각 교차로의 오프셋(offset) 시간 및 신호주기 정보를 산출할 수 있다. The server collects road information about the minimum control unit area composed of intersections, calculates the number of vehicles entering and exiting each intersection through the number of vehicles going straight, turning left, and turning right, and considering the entering and leaving vehicles. Thus, the weight is reflected in the present time of the adjacent intersection adjacent to the intersection, and the offset time and signal period information of each intersection can be calculated based on the intersection.
상기 서버에서 상기 인접 교차로에서 상기 교차로의 방향으로 이탈 차량이 기 설정된 기준 이상일 경우, 상기 교차로를 포함하는 도로 정보의 현시시간에 가중치를 부여하고, 상기 인접 교차로의 통행량과 상기 교차로의 진입량 및 포화도를 고려하여 상기 오프셋 시간을 조정할 수 있다. In the server, when the number of vehicles departing from the adjacent intersection in the direction of the intersection exceeds a preset standard, a weight is given to the present time of road information including the intersection, and the traffic volume of the adjacent intersection, the amount of entry into the intersection, and saturation The offset time may be adjusted in consideration of
상기 서버에서 상기 교차로의 진입량 및 포화도가 기 설정된 기준 이상일 경우, 상기 오프셋 시간을 축소시키고, 상기 교차로의 진입량 및 포화도가 기 설정된 기준 이하일 경우, 상기 오프셋 시간을 증가시킬 수 있다. The server may reduce the offset time when the amount of entry and saturation of the intersection are equal to or greater than a preset reference, and increase the offset time when the amount of entry and saturation of the intersection are less than or equal to a preset reference.
교통제어를 위한 전자 기기는, 딥러닝 기반의 객체 감지 및 추적 모델을 통해 각 교차로에 대한 도로 영상 데이터로부터 객체 정보와 관련된 도로 정보를 획득하는 획득부; 상기 획득된 객체 정보와 관련된 도로 정보에 기반하여 교차로에 대한 신호주기를 산출하는 신호 산출부; 서버와의 통신 연결 유무를 판단하는 통신 판단부; 및 상기 서버와의 통신이 연결된 것으로 판단됨에 따라 상기 획득된 객체 정보와 관련된 도로 정보 및 상기 산출된 신호주기를 서버로 전송하는 데이터 송신부를 포함하고, 상기 서버로부터 상기 전송받은 객체 정보와 관련된 도로 정보와 상기 산출된 신호주기를 이용하여 조정된 각 교차로를 고려한 신호주기 정보에 기초하여 각 교차로의 신호제어기가 제어될 수 있다.An electronic device for traffic control includes: an acquisition unit that obtains road information related to object information from road image data for each intersection through a deep learning-based object detection and tracking model; a signal calculator calculating a signal period for an intersection based on road information related to the obtained object information; a communication determination unit that determines whether or not there is a communication connection with the server; and a data transmitter for transmitting road information related to the obtained object information and the calculated signal period to a server when it is determined that communication with the server is connected, and road information related to the received object information from the server. The signal controller of each intersection can be controlled based on the signal period information considering each intersection adjusted using the calculated signal period and the signal period.
비식별화된 객체 정보와 관련된 도로 정보를 이용하여 신호주기를 제어함으로써 각 차량에 대한 프라이버시를 보호할 수 있다. Privacy of each vehicle can be protected by controlling the signal cycle using road information related to de-identified object information.
네트워크가 단절되었을 때도 엣지 단말에서의 딥러닝 동작을 통해 교차로에 대한 신호주기를 산출함으로써 독립적으로 교차로의 신호제어기를 제어할 수 있다. Even when the network is disconnected, the signal controller at the intersection can be independently controlled by calculating the signal period for the intersection through deep learning operation at the edge terminal.
엣지 단말에서 송신된 도로 정보와 신호 주기를 이용하여 서버에서 각 교차로에 대한 신호주기를 산출함으로써 인접 교차로의 영향력을 고려한 신호주기를 운영할 수 있다.By calculating the signal period for each intersection in the server using the road information and signal period transmitted from the edge terminal, the signal period considering the influence of the adjacent intersection can be operated.
엣지 단말에서 교차로에 대한 신호주기를 산출한 후, 서버에서 각 교차로에 대한 인접 교차로와의 신호주기를 고려하여 최적화함으로써 보다 정확하고 빠르게 교통신호를 제어 및 운영할 수 있다. After the edge terminal calculates the signal period for the intersection, the server can control and operate traffic signals more accurately and quickly by considering and optimizing the signal period for each intersection with the adjacent intersection.
도 1은 일 실시예에 따른 교통제어 시스템의 구성을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 교통제어 시스템에서 교통제어 동작을 설명하기 위한 도면이다.
도 3은 일 실시예에 있어서, 최소제어단위의 구성을 설명하기 위한 도면이다.
도 4는 일 실시예에 있어서, 엣지 단말의 구성을 설명하기 위한 블록도이다.
도 5는 일 실시예에 있어서, 엣지 단말에서 교통제어 방법을 설명하기 위한 흐름도이다.
도 6은 일 실시예에 있어서, 딥러닝 기반의 객체 감지 및 추적 모델을 통해 객체 정보와 관련된 도로 정보를 획득하는 동작을 설명하기 위한 예이다.
도 7은 일 실시예에 있어서, 서버에서 신호주기 정보를 제어하는 동작을 설명하기 위한 흐름도이다.
도 8은 일 실시예에 있어서, 객체 감지 모델을 설명하기 위한 예이다.
도 9 및 도 10은 일 실시예에 있어서, 추적 모델을 설명하기 위한 예이다. 1 is a diagram for explaining the configuration of a traffic control system according to an embodiment.
2 is a diagram for explaining a traffic control operation in a traffic control system according to an embodiment.
3 is a diagram for explaining the configuration of a minimum control unit according to an embodiment.
4 is a block diagram for explaining the configuration of an edge terminal according to an embodiment.
5 is a flowchart illustrating a traffic control method in an edge terminal according to an embodiment.
6 is an example for explaining an operation of obtaining road information related to object information through a deep learning-based object detection and tracking model, according to an embodiment.
7 is a flowchart illustrating an operation of controlling signal period information in a server according to an exemplary embodiment.
8 is an example for describing an object detection model according to an embodiment.
9 and 10 are examples for explaining a tracking model according to one embodiment.
이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.Hereinafter, an embodiment will be described in detail with reference to the accompanying drawings.
도 1은 일 실시예에 따른 교통제어 시스템의 구성을 설명하기 위한 도면이다. 1 is a diagram for explaining the configuration of a traffic control system according to an embodiment.
교통제어 시스템은 딥러닝 기반의 온-디바이스 실시간 교통 신호를 제어하기 위한 것으로, 전자 기기(100), 서버(110), 신호제어기(120) 및 촬영 기기(130)를 포함할 수 있다. 교통제어 시스템은 현장부와 서버로 구성될 수 있다. The traffic control system is for controlling on-device real-time traffic signals based on deep learning, and may include an
일례로, 전자 기기(100), 신호제어기(120) 및 촬영 기기(130)는 현장에 설치되어 동작될 수 있다. 현장부는 각 교차로를 포함하는 도로 현장에 설치된 기기들을 포함할 수 있다. For example, the
전자 기기(100)은 현장에서 교통 정보를 수집 및 분석하기 위한 기기일 수 있다. 이때, 전자 기기(100)는 교차로를 포함하는 도로와 관련된 데이터를 이용하여 교차로에 대한 교통 정보를 분석할 수 있다. 전자 기기(100)는 신호제어기(120) 및 촬영 기기(130)와 유/무선 통신을 통하여 데이터를 송수신할 수 있다. 이하에서는, 전자 기기(100)를 엣지 단말(edge device)로 기재하기로 한다. The
엣지 단말(100)은 촬영 기기(130)를 통해 교차로의 도로 영상 데이터를 수신할 수 있고, 수신된 교차로의 도로 영상 데이터에서 딥러닝 기반의 객체 감지 및 추적 모델을 이용하여 객체 정보와 관련된 도로 정보를 추출할 수 있다. 엣지 단말(100)은 추출된 객체 정보와 관련된 도로 정보에서 개인정보와 관련된 데이터를 비식별화할 수 있다. 엣지 단말(100)은 비식별화된 데이터(객체 정보와 관련된 도로 정보)를 서버(110)로 전송할 수 있다. 이때, 엣지 단말(100)은 현장에서 촬영 기기(130)로부터 수신된 도로 영상 데이터를 수집 및 분석을 수행한 후, 서버(100)로 데이터를 전달하기 때문에 서버(100)에서 각 교차로에 대한 데이터를 각각 수집 및 분석하는 것보다 빠르게 신호정보를 제어할 수 있다. 또한, 서버(100)에서 송수신되는 데이터가 중간에 중단되거나, 잘못된 데이터를 이용하여 분석이 수행하는 것을 방지할 수 있다. The
서버(110)는 현장 이외의 다른 곳에 존재하여, 엣지 단말(100)로부터 전송되는 데이터를 수신하여 각 교차로에 대한 최적화된 신호주기를 생성할 수 있다. 서버(110)는 생성된 신호주기를 각각의 신호제어기(120)에 전송할 수 있다.The
신호제어기(120)는 각 교차로와 관련된 신호등의 신호주기를 제어하는 기기를 의미할 수 있다. 신호제어기(120)를 통해 제어되는 신호주기에 기초하여 신호등이 운영될 수 있다. The
촬영 기기(130)는 각 교차로를 포함하는 도로를 촬영할 수 있다. 이때, 촬영 기기(130)는 특정 위치에 설치되어 교차로를 포함하는 도로를 촬영할 수 있다. 촬영 기기(130)는 교차로를 포함하는 도로를 촬영하는 적어도 하나 이상의 카메라, 카메라 기능을 포함하고 있는 CCTV 등이 해당될 수 있다. 예를 들면, 적어도 하나 이상의 카메라가 각각 서로 다른 방향을 촬영하되, 일부 영역이 중첩되도록 촬영 수 있다. 또는, 360도 회전이 가능한 카메라를 이용하여 촬영될 수 있다. The photographing
실시예에서는 각 교차로마다 엣지 단말(100), 신호제어기(120) 및 촬영 기기(130)가 구성되어 각 교차로를 포함하는 도로가 촬영 및 분석되고, 분석된 신호주기가 신호제어기(120)에 전달될 수 있다. 이에, 신호제어기(120)는 교차로와 연관된 신호등에 신호주기를 반영할 수 있다.In the embodiment, the
일 실시예에 따르면, 경량화 기술을 통해 딥러닝 모델의 성능 열화없이 연산량을 획기적으로 줄임으로써 고성능의 서버가 아니라 모바일이나 SBC(Single Board Computer) 등에서 온-디바이스(on-device)로 구동이 가능해진다. 이를 활용하면 비용 문제와 온-디바이스에서 비식별화를 거친 도로정보를 서버로 전송하기 때문에 개인정보 문제를 해결할 수 있다. According to one embodiment, by drastically reducing the amount of calculation without deteriorating the performance of the deep learning model through lightweight technology, it is possible to operate on-device in a mobile or SBC (Single Board Computer) rather than a high-performance server. . By using this, it is possible to solve the cost problem and the personal information problem because the on-device de-identified road information is transmitted to the server.
도 2는 일 실시예에 따른 교통제어 시스템에서 교통제어 동작을 설명하기 위한 도면이다. 2 is a diagram for explaining a traffic control operation in a traffic control system according to an embodiment.
도 2에서는 CCTV(130)를 촬영 기기의 예를 들어 설명하기로 한다. CCTV(130)에서 교차로를 포함하는 도로가 촬영됨에 따라 도로 영상 데이터가 획득될 수 있다. CCTV(130)에서 실시간으로 도로를 촬영한 도로 영상 데이터가 수집될 수 있고, 촬영된 도로 영상 데이터가 기 설정된 기간 동안 축적될 수 있다. CCTV(130)에서 수집된 도로 영상 데이터가 엣지 단말(100)로 송신될 수 있다. 예를 들면, CCTV(130)에서 수집된 도로 영상 데이터가 실시간으로 또는 주기적/비주기적으로 송신될 수 있다. In FIG. 2, the
엣지 단말(100)은 CCTV(130)로부터 도로 영상 데이터를 수신할 수 있다. 엣지 단말(100)은 딥러닝 기반의 객체 감지 및 추적 모델을 이용하여 도로 영상 데이터로부터 객체 정보를 인식할 수 있다. 도 6, 8, 9, 10을 참고하면, 딥러닝 기반의 객체 감지 및 추적 모델을 통해 객체 정보와 관련된 도로 정보를 획득하는 동작을 설명하기 위한 예이다. 도로 영상 데이터(601)가 딥러닝 기반의 객체 감지 및 추적 모델(600)에 입력될 수 있다. 딥러닝 기반의 객체 감지 및 추적 모델(600)은 도로 영상 데이터(601)로부터 객체를 탐지하고, 탐지된 객체의 위치 변화를 추적하는 모델을 의미한다. 딥러닝 기반의 객체 감지 및 추적 모델(600)은 객체 감지 및 추적을 위하여 구성된 모델로서, 객체 감지 및 추적을 위한 데이터 셋을 이용하여 훈련된 것일 수 있다. 실시예에서는 데이터 셋을 이용하여 훈련된 딥러닝 기반의 객체 감지 및 추적 모델(600)에 도로 영상 데이터(601)가 입력될 수 있다. 이와 같이, 훈련된 딥러닝 기반의 객체 감지 및 추적 모델(600)을 이용하여 도로 영상 데이터(601)로부터 객체 정보와 관련된 도로 정보(602)가 획득될 수 있다. 이때, 객체 정보와 관련된 도로 정보(602)란, 도로 영상 데이터(601)로부터 감지된 객체 정보 및 객체 정보를 포함하는 도로 정보(예를 들면, 교통량)를 포함할 수 있다. 예를 들면, 차량들의 타입(예를 들면, 승용차, 트럭, 앰뷸런스, 지게차, 오토바이, 또는 승용차, 버스, 트럭 등의 일반 차량, 구급차, 경찰차, 소방차 등의 특수 차량, 특수 차량의 긴급성(경광등을 켠 차량) 등)이 인식 및 추적될 수 있다. 또한, 도로가 인식될 수 있다. 또한, 차량들이 도로에서의 단위 시간당 지나가는 통행량, 차량들이 도로의 점유율을 나타내는 포화도 등이 객체 정보와 관련된 도로 정보(602)로 획득될 수 있다. 통행량이란 단위 시간당 정의된 ROI(Region of Interest)를 통과한 차량의 수를 의미한다. 포화도란 (특정 범위 내에 존재하는 차량의 수)/(해당 범위 내에서 수용 가능한 차량의 수)를 의미한다. 이때, 특정 범위 내에 존재하는 차량의 수는 카메라에 의해 한대 또는 한대 이상의 카메라에서 정의된 ROI 영역 내에 들어오는 연속된 도로 내에서 인식된 차량의 수를 의미한다. The
상세하게는, 딥러닝 기반의 객체 감지 및 추적 모델(600)은 도로 영상 데이터로부터 객체를 감지하고, 객체의 위치 변화를 추적하여 객체 정보를 획득할 수 있다. 예를 들면, 딥러닝 기반의 객체 감지 및 추적 모델(600)은 객체 감지 모델 및 추적 모델이 각각 구성되어 있을 수 있으며, 결합된 형태로 구성될 수 있다. 이외에도 다양한 형태로 구성되어 딥러닝 기반의 객체 감지 및 추적 모델(600)을 통해 객체를 감지하고, 감지된 객체가 추적될 수 있다. In detail, the deep learning-based object detection and tracking model 600 may detect an object from road image data and obtain object information by tracking a positional change of the object. For example, the deep learning-based object detection and tracking model 600 may consist of an object detection model and a tracking model, respectively, or may be configured in a combined form. In addition, it is configured in various forms to detect an object through a deep learning-based object detection and tracking model 600, and the detected object can be tracked.
우선적으로, 객체 감지 모델에 대하여 설명하기로 한다. 도 8은 일 실시예에 있어서, 객체 감지 모델을 설명하기 위한 예이다. 최근 인공지능과 딥러닝의 가파른 성장으로 인해 컴퓨터 비전의 성능이 비약적으로 상승하였다. 객체 감지 모델은 크게 1-스테이지(stage) 기반 모델과 2-스테이지(stage)기반 모델로 나누어진다. 이미지처럼 확률 분포를 정의하기 어려운 비정형 데이터 내에서 규칙을 학습하며 객체의 위치와 종류를 구분할 수 있는 능력을 가진 모델을 의미한다. First of all, the object detection model will be described. 8 is an example for describing an object detection model according to an embodiment. Recently, the performance of computer vision has risen by leaps and bounds due to the rapid growth of artificial intelligence and deep learning. The object detection model is largely divided into a 1-stage based model and a 2-stage based model. It refers to a model that has the ability to distinguish the location and type of an object while learning rules within unstructured data where the probability distribution is difficult to define, such as images.
1-스테이지 기반 모델은 객체의 위치를 찾는 로컬리제이션(localization)과 객체가 무엇인지 구분하는 분류(classification)를 한번에 진행하는 방식으로 대표적으로 YOLO, SSD 등의 모델이 존재한다. 2-스테이지 기반 모델보다 효율적인 구조로 빠른 속도를 보이지만 비교적 낮은 성능을 갖는다. The 1-stage based model is a method of performing localization to find the location of an object and classification to classify what the object is at once. Representative models such as YOLO and SSD exist. It has a faster speed with a more efficient structure than the 2-stage based model, but has relatively low performance.
2-스테이지 기반 모델은 객체의 위치를 찾는 로컬리제이션에서 지역 제안(region proposal) 단계를 우선적으로 진행한 이후, 객체의 종류를 탐색하는 분류(classification) 단계를 진행하는 방식으로 대표적으로 R-CNN 모델이 존재한다. 1-스테이지 기반 모델보다 높은 성능을 보이지만 보다 복잡한 구조로 인해 속도가 느리다는 단점이 있다.The 2-stage based model first proceeds with the region proposal step in the localization to find the location of the object, and then proceeds with the classification step to explore the type of object. Representatively, R-CNN model exists. Although it shows higher performance than the 1-stage based model, it has the disadvantage of being slower due to its more complex structure.
도 9 및 도 10은 일 실시예에 있어서, 추적 모델을 설명하기 위한 예이다. 객체 추적 모델은 컴퓨터 비전 및 영상처리에서 오랫동안 연구하던 분야로, 비디오 영상에서 특정 객체의 위치 변화를 추적하는 분야이다. 기존 객체 추적 분야에서는 Point Tracking, Kernel Tracking 등의 방법이 있었으나 최근 딥러닝의 급격한 성장으로 딥러닝을 활용한 모델이 최근에 활발히 연구되고 있다. 딥러닝을 활용한 객체추적 분야에는 크게 보면 상관관계 필터(Correlation filter) 기반과 샴 네트워크(Siamese Network) 기반이 있다. 9 and 10 are examples for explaining a tracking model according to one embodiment. The object tracking model is a field that has been studied for a long time in computer vision and image processing, and is a field that tracks the positional change of a specific object in a video image. In the existing object tracking field, there were methods such as Point Tracking and Kernel Tracking, but with the recent rapid growth of deep learning, models using deep learning are being actively studied. In the field of object tracking using deep learning, there are correlation filter based and Siamese Network based.
도 9를 참고하면, 상관관계 필터 기반 객체 추적 동작을 나타낸 예이다. 상관관계 필터 기반 분야에서는 딥러닝 모델로 추출한 특징을 가지고 목표 물체와 상관관계가 높은 부분을 찾아 물체를 추적하는 방식이다. Referring to FIG. 9 , it is an example illustrating an object tracking operation based on a correlation filter. In the correlation filter-based field, it is a method of tracking an object by finding a part that has a high correlation with a target object using features extracted by a deep learning model.
도 10을 참고하면, 샴 네트워크 기반 객체 추적 동작을 나타낸 예이다. 샴 네트워크는 딥러닝 분야에서 두 이미지의 유사도를 비교하기 위해 네트워크로 컨볼루션 네트워크로 특징을 추출하면 유사한 이미지 간에는 특징의 거리가 가깝도록 학습하고 다른 이미지에서 추출된 특징의 거리는 멀어질수록 학습하는 네트워크이다. Referring to FIG. 10, it is an example of an object tracking operation based on a Siamese network. A Siamese network is a network that compares the similarity between two images in the field of deep learning. When features are extracted with a convolution network, similar images learn to have a close feature distance, and a network that learns as the distance between features extracted from other images increases. am.
엣지 단말(100)은 딥러닝 기반의 객체 감지 및 추적 모델을 이용하여 도로 영상 데이터로부터 객체 정보를 인식할 수 있다. 엣지 단말(100)은 객체 정보와 관련된 도로 정보를 획득할 수 있다. 엣지 단말(100)은 번호판과 차종 등의 개인정보 관련 데이터의 비식별화를 진행할 수 있다. 예를 들면, 엣지 단말(100)은 객체 정보와 관련된 도로 정보 중 개인정보 관련 데이터에 대하여 모자이크, 블러(blur) 등 특수 처리를 수행할 수 있고, 개인정보 관련 데이터에 암호화를 수행할 수도 있다. 이와 같이, 모자이크, 블러, 암호화 등 특수 처리를 통해 비식별화가 진행될 수 있다. 다시 말해서, 객체 정보와 관련된 도로 정보에 대하여 일부 데이터가 비공개된 형태로 비식별화될 수 있다.The
엣지 단말(100)은 객체 정보와 관련된 도로 정보를 기반으로 교차로에 대하여 최적화된 신호주기를 산출할 수 있다. 엣지 단말(100)은 단위시간 당 교차로를 포함하는 도로의 통행량을 파악할 수 있다. 예를 들면, 15초당 차량 통행량을 파악할 수 있다. 엣지 단말(100)은 교차로를 포함하는 도로의 통행량을 기반으로 현시시간을 산출할 수 있다. 엣지 단말(100)은 포화도를 통해 현시시간 이후에도 차량이 남아 있는 도로(교차로)일 경우, 상기 도로에 대한 현시시간에 가중치를 부여할 수 있다. 엣지 단말(100)은 포화도를 통해 현시시간 내에 차량이 모두 통과하고 비어있는 도로일 경우, 상기 도로에 대한 현시시간에 감산치를 부여할 수 있다. 엣지 단말(100)은 현시시간을 기준으로 이전 현시시간의 도로정보(예를 들면, 통행량, 포화도)와 비교하여 증감 주세 파악을 통해 교차로 내 도로에 가중치, 감산치를 부여할 수 있다. 엣지 단말(100)은 기존의 현시시간에 대하여 산출된 가중치와 감산치를 이용하여 교차로에 대한 최적화된 현시시간을 산출할 수 있다. 이에, 엣지 단말(100)은 현시시간에 기초하여 교차로에 대한 신호주기를 산출할 수 있다. The
각 교차로의 기존 신호 정보가 파악될 수 있다. 예를 들면, 기존 주기는 150초이고, 기존 현시시간은 각각 70초, 25초, 25초, 30초로 구성될 수 있다. 또한, 각 현시별 1현시(30, 105), 2현시(130, 35), 3현시(13, 40), 4현시(15, 50)을 포함하는 최소 시간 및 최대 시간이 설정되어 있을 수 있다. 교차로의 단위시간 당 통행 차량의 수가 산출될 수 있다. 단위시간은 15초이고, 단위시간 당 통행량이 5대일 경우, 3차선 도로의 단위시간당 통행량은 5*3을 통해 15대로 도출될 수 있다. 교차로의 포화도가 산출될 수 있다. ROI 내 최대 감지 차량수가 15대 이고, 검지된 차량의 수가 5대일 경우, 포화도는 5/15=33%로 도출될 수 있다. 기존 신호 정보에 통행량과 포화도를 고려하여 현시시간이 산출될 수 있다. 각 현시별 통행량이 산출될 수 있다(예를 들면, 1현시 30대, 2현시 15대, 3현시 15대, 4현시 25대). 또한, 각 현시별 포화도가 산출될 수 있다(예를 들면, 1현시 50%, 2현시 0%, 3현시 10%, 4현시 30%). 또한, 통행량을 기반으로 각 현시별 우선순위가 설정될 수 있다(예를 들면, 1현시 1순위, 2현시 3순위, 3현시 3순위, 4현시 2순위). 또한, 우선순위를 기반으로 현시별 가중치 값이 설정될 수 있다. 포화도를 기반으로 각 현시시간이 조정될 수 있다. 예를 들면, 포화도가 50%~100%이상인 도로(교차로)의 현시시간을 +10초, 포화도가 0%~50%이상인 도로(교차로)의 현시시간을 +5초, 포화도가 0%인 도로(교차로)의 현시시간을 -5초로 조정할 수 있다. 이에, 기존 현시시간이 70, 25, 25, 30이고, 기존 주기가 150초에서 새로운 현시시간 82, 20, 26, 37, 새로운 주기가 165로 조정될 수 있다. 상기 언급된 동작에 대하여 반복적으로 수행할 수 있고, 새로운 현시시간 및 주기정보가 서버로 송신될 수 있다. Existing signal information of each intersection can be grasped. For example, the existing period is 150 seconds, and the existing present time may be composed of 70 seconds, 25 seconds, 25 seconds, and 30 seconds, respectively. In addition, minimum and maximum times including 1 prefecture (30, 105), 2 prefecture (130, 35), 3 prefecture (13, 40), and 4 prefecture (15, 50) may be set for each prefecture. . The number of passing vehicles per unit time of the intersection can be calculated. If the unit time is 15 seconds and the traffic volume per unit time is 5 vehicles, the traffic volume per unit time of the three-lane road can be derived as 15 vehicles through 5*3. Saturation of the intersection can be calculated. When the maximum number of detected vehicles in the ROI is 15 and the number of detected vehicles is 5, saturation can be derived as 5/15 = 33%. Present time can be calculated by considering traffic volume and saturation in the existing signal information. Traffic volume for each prefecture can be calculated (eg, 30 prefectures in 1 prefecture, 15 vehicles in 2 prefectures, 15 vehicles in 3 prefectures, 25 vehicles in 4 prefectures). In addition, the degree of saturation for each display may be calculated (eg, 50% for 1 display, 0% for 2 display, 10% for 3 display, 30% for 4 display). In addition, the priority for each prefecture may be set based on traffic volume (eg, 1st prefecture, 2nd prefecture, 3rd prefecture, 3rd prefecture, 4th prefecture, 2nd priority). In addition, a weight value for each present time may be set based on the priority. Each display time can be adjusted based on saturation. For example, the display time of roads (intersections) with saturation of 50% to 100% or more is +10 seconds, the display time of roads (intersections) with saturation of 0% to 50% or more is +5 seconds, and roads with saturation of 0% (Intersection) display time can be adjusted to -5 seconds. Accordingly, the existing display times are 70, 25, 25, and 30, and the new display times 82, 20, 26, and 37, and the new period can be adjusted from 150 seconds to 165. The above-mentioned operation may be repeatedly performed, and new current time and period information may be transmitted to the server.
엣지 단말(100)은 비식별화된 객체 정보와 관련된 도로 정보 및 산출된 신호 정보를 서버(110)로 송신할 수 있다. 또한, 엣지 단말(100)은 산출된 신호주기를 신호제어기(120)로 전송할 수 있다. 엣지 단말(100)은 네트워크 문제로 서버와의 통신이 원활하지 않을 때, 엣지 단말(100)과 신호제어기(120) 간 통신을 통해 신호제어기(120)를 운영할 수 있다. The
서버(110)는 엣지 단말(100)로부터 비식별화된 객체 정보와 관련된 도로 정보 및 산출된 신호주기를 수신할 수 있다. 서버(110)는 비식별화된 객체 정보와 관련된 도로 정보 및 산출된 신호주기를 이용하여 각 교차로에 대한 신호주기를 연산할 수 있다. 상세하게는, 서버(110)는 각 교차로에 대한 비식별화된 객체 정보와 관련된 도로 정보 및 산출된 신호주기를 수신함으로써, 각 교차로에 대한 신호주기 정보를 최적화할 수 있다. The
도 7을 참고하면, 단계(710)에서 서버(110)는 복수 개의 교차로에 대한 객체 정보와 관련된 도로 정보와 신호주기를 취합하여 각 교차로의 오프셋 시간 및 신호주기 정보를 산출할 수 있다. 서버(110)는 유사한 교통패턴을 갖는 교차로로 구성된 그룹인 최소제어단위 지역의 교차로 도로 정보를 취합할 수 있다. 서버(110)는 인접한 도로의 영향력을 고려하기 위해 직진, 좌회전, 우회전 차량의 수를 통해 각 교차로별 진입 차량과 이탈 차량의 수를 산출할 수 있다. 서버(110)는 진입 차량과 이탈 차량을 고려하여 인접 교차로의 현시시간에 가중치를 반영할 수 있다. 서버(110)는 최소제어단위에서 중요 교차로를 기준으로 각 교차로의 오프셋(offset) 시간 및 신호주기 정보를 산출할 수 있다. 서버(110)는 인접 교차로에서 특정 교차로 방향으로 기 설정된 기준 이상으로 이탈 차량이 많다면, 해당 교차로에 대한 현시시간에 가중치를 부여할 수 있다. Referring to FIG. 7 , in
단계(720)에서 서버(110)는 각 교차로의 통행량과 각 교차로에 대한 인접 교차로의 진입량, 포화도에 따라 오프셋 시간을 조정할 수 있다. 서버(110)는 진입량과 포화도가 많다면 오프셋 시간을 줄이고, 진입량과 포화도가 적다면 오프셋 시간을 늘려서 진입하는 차량들이 멈추지 않고 원활하게 교차로를 통과할 수 있도록 오프셋 시간을 조정할 수 있다. In
단계(730)에서 서버(110)는 조정을 통해 각 교차로에 대한 영향력을 고려한 신호주기 정보를 각 신호제어기(120)로 전송할 수 있다. 서버(110)는 산출된 신호주기 정보를 각 교차로에 대한 신호제어기(120)로 송신할 수 있다. 신호제어기(120)는 엣지 단말(100) 또는 서버(110)로부터 신호주기를 수신할 수 있다. 신호제어기(120)는 수신된 신호주기를 신호등에 반영할 수 있다. 일 실시예에 따르면, 인접 교차로의 영향을 받기 때문에 각 교차로의 정보를 서버로 전송하여, 인접 교차로의 영향력까지 고려한 신호주기 운영을 가능하게 가능하게 한다. In
예를 들면, 서버(110)는 인접 교차로를 고려한 현시시간을 조정할 수 있다. 각 교차로별 새로운 현시시간 및 주기정보가 수신될 수 있다. 예를 들면, A 교차로에 대한 현시시간(70, 25, 25, 30)에서 새로운 현시시간(80, 20, 26, 37)으로 조정되었고, 150이었던 주기정보가 165로 조정될 수 있고, B 교차로에 대한 현시시간(40, 35, 45, 25)이 새로운 현시시간(65, 40, 55, 40)으로 조정된 것을 확인할 수 있다. 서버(110)는 인접 교차로 사이에 연관된 현시시간 및 주기정보를 조정할 수 있다. 예를 들면, 서버(110)는 A 교차로에 대한 현시시간(82, 20, 26, 37 -> 85, 21, 28, 42), 주기정보(165->176) 조정하고, B 교차로에 대한 현시시간(65, 40, 55, 40 -> 62, 36, 48, 35), 주기정보(200->181)로 조정할 수 있다. 서버(110)는 각 교차로로 인접 교차로를 고려한 현시시간을 전송할 수 있다. 서버(110)는 각 교차로별 현시시간을 각 신호제어기(120)로 전송할 수 있다. 예를 들면, 서버(110)는 A교차로에 대한 신호제어기(120)에게 A 교차로의 최종 현시시간(85, 21, 28, 42), 주기 정보(176)를 전송하고, B교차로에 대한 신호제어기(120)에게 B교차로의 최종 현시시간(62, 36, 48, 35), 주기정보(181)를 전송할 수 있다.For example, the
도 3은 일 실시예에 있어서, 최소제어단위의 구성을 설명하기 위한 도면이다. 3 is a diagram for explaining the configuration of a minimum control unit according to an embodiment.
현재 실시간 신호제어기는 제어 센터에서 사람이 조정하거나 TOD(Time of Day) plan에 기반하여 시간대별로 반복적인 신호주기를 보내야 한다는 단점이 있다. 실시예에서는 이러한 문제점을 해결하기 위하여 실시간으로 도로의 정보를 반영하여 최적화된 신호제어를 가능하게 한다. The current real-time signal controller has a disadvantage in that it needs to be adjusted by a person at the control center or to send repetitive signal cycles for each time zone based on a Time of Day (TOD) plan. In the embodiment, in order to solve this problem, optimized signal control is enabled by reflecting road information in real time.
최소제어단위란 경찰청, 도로교통공단 등에서 지리적인 특성을 파악하여 적어도 하나 이상의 교차로를 묶은 것을 의미할 수 있다. 지리적인 특성에 따라 특정 지역에 적어도 하나 이상의 교차로가 최소제어단위로 묶여질 수 있다. 예를 들면, 도심지역에서 외곽으로 나갈수록 차량의 영향을 덜 받을 수 있다. 이에, 교통의 영향을 많이 받는 중요 교차로 및 교통의 영향을 덜 받는 준중요 교차로 및 교통의 영향을 거의 받지 않는 비중요 교차로 등으로 구분될 수 있다.The minimum control unit may mean that the National Police Agency, Road Traffic Authority, and the like identify geographical characteristics and group at least one intersection. Depending on geographical characteristics, at least one intersection in a specific area may be grouped as a minimum control unit. For example, as you move out of the city center, you may be less affected by vehicles. Accordingly, it can be classified into important intersections that are heavily influenced by traffic, semi-important intersections that are less influenced by traffic, and non-important intersections that are hardly affected by traffic.
또한, 현시시간에 대하여 설명하기로 한다. 현시시간이란 교차로에서 차량들이 전체적으로 통행할 수 있도록 제공하는 것을 의미하며, 특정 위치(특정 위치의 도로 방향)를 기준으로 직진, 좌회전, 우회전 등의 신호 명령을 현시라고 한다. 예를 들면, 제1 현시는 직진, 제2 현시는 좌회전, 제3 현시는 우회전이라고 하면, 각각의 현시가 모두 진행되면 이를 신호주기라고 한다. In addition, the present time will be described. Display time means providing vehicles at an intersection so that they can pass as a whole, and signal commands such as going straight, turning left, turning right, etc. based on a specific location (road direction at a specific location) are called display. For example, if the first appearance is to go straight, the second appearance is to turn left, and the third appearance is to turn right, it is called a signal cycle when each appearance is all progressed.
도 4는 일 실시예에 있어서, 엣지 단말의 구성을 설명하기 위한 블록도이고, 도 5는 일 실시예에 있어서, 엣지 단말에서 교통제어 방법을 설명하기 위한 흐름도이다.4 is a block diagram illustrating a configuration of an edge terminal according to an embodiment, and FIG. 5 is a flowchart illustrating a traffic control method in an edge terminal according to an embodiment.
엣지 단말(100)의 프로세서는 획득부(410), 주기 산출부(420), 통신 판단부(430) 및 데이터 송신부(440)를 포함할 수 있다. 이러한 프로세서의 구성요소들은 차량 제어 장치에 저장된 프로그램 코드가 제공하는 제어 명령에 따라 프로세서에 의해 수행되는 서로 다른 기능들(different functions)의 표현들일 수 있다. 프로세서 및 프로세서의 구성요소들은 도 5의 교통제어 방법이 포함하는 단계들(510 내지 541)을 수행하도록 엣지 단말을 제어할 수 있다. 이때, 프로세서 및 프로세서의 구성요소들은 메모리가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다. The processor of the
프로세서는 교통제어 방법을 위한 프로그램의 파일에 저장된 프로그램 코드를 메모리에 로딩할 수 있다. 예를 들면, 엣지 단말에서 프로그램이 실행되면, 프로세서는 운영체제의 제어에 따라 프로그램의 파일로부터 프로그램 코드를 메모리에 로딩하도록 엣지 단말을 제어할 수 있다. 이때, 획득부(410), 주기 산출부(420), 통신 판단부(430) 및 데이터 송신부(440) 각각은 메모리에 로딩된 프로그램 코드 중 대응하는 부분의 명령을 실행하여 이후 단계들(510 내지 541)을 실행하기 위한 프로세서의 서로 다른 기능적 표현들일 수 있다.The processor may load a program code stored in a file of a program for a traffic control method into a memory. For example, when a program is executed in the edge terminal, the processor may control the edge terminal to load a program code from a program file into a memory under control of an operating system. At this time, each of the acquisition unit 410, the period calculation unit 420, the communication determination unit 430, and the data transmission unit 440 executes a command of a corresponding part of the program code loaded into the memory to perform subsequent steps (510 to 510). 541) may be different functional representations of the processor.
단계(510)에서 획득부(410)는 딥러닝 기반의 객체 감지 및 추적 모델을 통해 각 교차로에 대한 도로 영상 데이터로부터 객체 정보와 관련된 도로 정보를 획득할 수 있다. 획득부(410)는 각 교차로에 설치된 촬영 기기로부터 촬영된 교차로에 대한 도로 영상 데이터를 수집하고, 수집된 교차로에 대한 도로 영상 데이터를 상기 딥러닝 기반의 객체 감지 및 추적 모델에 입력하고, 딥러닝 기반의 객체 감지 및 추적 모델을 이용하여 수집된 교차로에 대한 영상 데이터로부터 객체 정보와 관련된 도로 정보를 추출하고, 추출된 객체 정보와 관련된 도로 정보에 대한 비식별화할 수 있다. 획득부(410)는 수집된 교차로에 대한 도로 영상 데이터로부터 차량들의 타입을 인식하고, 인식된 차량들의 위치 변화를 추적하고, 인식된 차량들이 각 교차로를 포함하는 도로에서 단위 시간당 통과하는 통행량, 인식된 차량들이 각 교차로를 포함하는 도로에서 점유하고 있는 점유율을 나타내는 포화도를 포함하는 객체 정보와 관련된 도로 정보를 추출할 수 있다. In
단계(520)에서 주기 산출부(420)는 획득된 객체 정보와 관련된 도로 정보에 기반하여 교차로에 대한 신호주기를 산출할 수 있다. 주기 산출부(420)는 획득된 객체 정보와 관련된 도로 정보를 통해 단위 시간당 교차로를 포함하는 도로의 통행량, 교차로를 포함하는 도로의 통행량을 기반으로 현시시간을 산출하고, 산출된 현시시간의 도로 정보와 산출된 현시시간 이전의 현시시간의 도로 정보와 비교하여 교차로를 포함하는 도로에 가중치 및 감산치를 부여하는 과정을 통해 교차로에 대한 현시시간을 산출할 수 있다. 주기 산출부(420)는 교차로를 포함하는 도로의 포화도를 통해 산출된 현시시간을 기준으로 산출된 현시시간의 이후에 차량들이 남이 있을 경우, 가중치를 부여하고, 산출된 현시시간의 이내에 차량들이 비어 있을 경우, 감산치를 부여하고, 산출된 현시시간의 도로 정보와 산출된 현시시간 이전의 현시시간의 도로 정보와 비교하여 교차로를 포함하는 도로에 가중치 및 감산치를 부여하는 과정을 통해 교차로에 대한 현시시간을 산출할 수 있다. In
단계(530)에서 통신 판단부(430)는 서버와의 통신 연결 유무를 판단할 수 있다. 예를 들면, 통신 판단부(430)는 통신 연결 유무를 판단함에 있어서, 산출된 교차로에 대한 신호주기를 서버로 전송할 수 있다. 산출된 교차로에 대한 신호주기가 서버로 전송될 경우, 서버와 통신이 연결되었다고 판단할 수 있고, 산출된 교차로에 대한 신호주기가 서버로 전송되지 않고 반환될 경우, 서버와 통신이 연결되지 않은 것으로 판단할 수 있다. 또는, 통신 판단부(430)는 통신 상황을 체크하여 서버와의 통신 연결 유무를 판단할 수 있다. In
단계(540)에서 데이터 송신부(440)는 서버와의 통신이 연결된 것으로 판단됨에 따라 획득된 객체 정보와 관련된 도로 정보 및 산출된 신호주기를 서버로 전송할 수 있다. 이에, 서버로부터 전송받은 객체 정보와 관련된 도로 정보와 산출된 신호주기를 이용하여 산출된 각 교차로를 고려한 신호주기 정보에 기초하여 각 교차로의 신호제어기가 제어될 수 있다. 단계(541)에서 데이터 송신부(440)는 전자 기기(엣지 단말)와 신호제어기 간 통신을 통해 산출된 신호주기에 기초하여 신호등이 제어되도록 신호제어기를 운영할 수 있다. In
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The devices described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA) , a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. You can command the device. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. can be embodied in Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.
Claims (10)
딥러닝 기반의 객체 감지 및 추적 모델을 통해 교차로에 대한 도로 영상 데이터로부터 객체 정보와 관련된 도로 정보를 획득하는 단계;
상기 획득된 객체 정보와 관련된 도로 정보에 기반하여 상기 교차로에 대한 신호주기를 산출하는 단계;
상기 산출된 신호주기를 서버로 전송하는 단계;
상기 서버로부터 상기 신호주기를 반환받는 경우, 상기 전자 기기는 상기 산출된 신호주기에 기초하여 신호등이 제어되도록 상기 산출된 신호주기를 상기 교차로의 신호제어기에 전송하는 단계; 및
상기 서버로부터 상기 신호주기를 반환받지 않는 경우, 상기 전자기기는 상기 서버와 통신의 연결이 되었다고 판단하고, 상기 획득된 객체 정보와 관련된 도로 정보를 상기 서버로 더 전송하는 단계
를 포함하는 교통제어 방법.In the traffic control method performed in the electronic device,
obtaining road information related to object information from road image data of an intersection through a deep learning-based object detection and tracking model;
calculating a signal cycle for the intersection based on road information related to the acquired object information;
transmitting the calculated signal period to a server;
when the signal period is returned from the server, the electronic device transmitting the calculated signal period to the signal controller of the intersection so that traffic lights are controlled based on the calculated signal period; and
If the signal period is not returned from the server, the electronic device determines that communication with the server is established, and further transmits road information related to the acquired object information to the server.
Traffic control method comprising a.
상기 획득하는 단계는,
상기 교차로에 설치된 촬영 기기로부터 촬영된 교차로에 대한 도로 영상 데이터를 수집하고, 상기 수집된 교차로에 대한 도로 영상 데이터를 상기 딥러닝 기반의 객체 감지 및 추적 모델에 입력하고, 상기 딥러닝 기반의 객체 감지 및 추적 모델을 이용하여 상기 수집된 교차로에 대한 영상 데이터로부터 객체 정보와 관련된 도로 정보를 추출하고, 상기 추출된 객체 정보와 관련된 도로 정보를 비식별화하는 단계
를 포함하는 교통제어 방법.According to claim 1,
The obtaining step is
Road image data for the intersection captured by a photographing device installed at the intersection is collected, the collected road image data for the intersection is input to the deep learning-based object detection and tracking model, and the deep learning-based object detection and extracting road information related to object information from the collected image data of the intersection using a tracking model, and de-identifying the road information related to the extracted object information.
Traffic control method comprising a.
상기 획득하는 단계는,
상기 수집된 교차로에 대한 도로 영상 데이터로부터 차량들의 타입을 인식하고, 상기 인식된 차량들의 위치 변화를 추적하고, 상기 인식된 차량들이 상기 교차로를 포함하는 도로에서 단위 시간당 통과하는 통행량, 상기 인식된 차량들이 상기 교차로를 포함하는 도로에서 점유하고 있는 점유율을 나타내는 포화도를 포함하는 객체 정보와 관련된 도로 정보를 추출하는 단계
를 포함하는 교통제어 방법.According to claim 2,
The obtaining step is
Recognizing the types of vehicles from the collected road image data of the intersection, tracking the position change of the recognized vehicles, and the traffic volume that the recognized vehicles pass per unit time on the road including the intersection, the recognized vehicle extracting road information related to object information including saturation indicating occupancy rates occupied by the roads including the intersection;
Traffic control method comprising a.
상기 산출하는 단계는,
상기 획득된 객체 정보와 관련된 도로 정보를 통해 단위 시간당 상기 교차로를 포함하는 도로의 통행량, 상기 교차로를 포함하는 도로의 통행량을 기반으로 현시시간을 산출하고, 상기 산출된 현시시간의 도로 정보와 상기 산출된 현시시간 이전의 현시시간의 도로 정보와 비교하여 상기 교차로를 포함하는 도로에 가중치 및 감산치를 부여하는 과정을 통해 상기 교차로에 대한 현시시간을 산출하는 단계
를 포함하는 교통제어 방법.According to claim 1,
The calculating step is
Based on the road information related to the acquired object information, the present time is calculated based on the traffic volume of the road including the intersection per unit time and the traffic volume of the road including the intersection, and the road information of the calculated present time and the calculation Calculating the present time for the intersection through a process of assigning a weight and a subtraction value to the road including the intersection compared with road information of the present time before the present time.
Traffic control method comprising a.
상기 산출하는 단계는,
상기 교차로를 포함하는 도로의 포화도를 통해 상기 산출된 현시시간을 기준으로 상기 산출된 현시시간의 이후에 차량들이 남이 있을 경우, 가중치를 부여하고, 상기 산출된 현시시간의 이내에 차량들이 비어 있을 경우, 감산치를 부여하고, 상기 산출된 현시시간의 도로 정보와 상기 산출된 현시시간 이전의 현시시간의 도로 정보와 비교하여 상기 교차로를 포함하는 도로에 가중치 및 감산치를 부여하는 과정을 통해 상기 교차로에 대한 현시시간을 산출하는 단계
를 포함하는 교통제어 방법.According to claim 4,
The calculating step is
Based on the calculated presenting time through the degree of saturation of the road including the intersection, if there are remaining vehicles after the calculated presenting time, a weight is given, and if vehicles are empty within the calculated presenting time, Through the process of assigning a subtraction value and comparing the calculated road information of the present time with the road information of the present time prior to the calculated present time, a weight and a subtraction value are assigned to the road including the intersection. steps to calculate time
Traffic control method comprising a.
딥러닝 기반의 객체 감지 및 추적 모델을 통해 각 교차로에 대한 도로 영상 데이터로부터 객체 정보와 관련된 도로 정보를 획득하는 획득부;
상기 획득된 객체 정보와 관련된 도로 정보에 기반하여 상기 교차로에 대한 신호주기를 산출하는 신호 산출부;
상기 산출된 신호주기를 서버로 전송하는 통신 판단부; 및
상기 서버로부터 상기 신호주기를 반환받는 경우에 상기 산출된 신호주기에 기초하여 신호등이 제어되도록 상기 산출된 신호주기를 상기 교차로의 신호제어기에 전송하고, 상기 서버로부터 상기 신호주기를 반환받지 않는 경우에 상기 서버와 통신의 연결이 되었다고 판단하고, 상기 획득된 객체 정보와 관련된 도로 정보를 상기 서버로 더 전송하는 데이터 송신부
를 포함하는,
것을 특징으로 하는 전자 기기. In electronic devices for traffic control,
an acquisition unit that obtains road information related to object information from road image data for each intersection through a deep learning-based object detection and tracking model;
a signal calculating unit calculating a signal period for the intersection based on road information related to the acquired object information;
a communication determination unit transmitting the calculated signal period to a server; and
When the signal period is returned from the server, the calculated signal period is transmitted to the signal controller of the intersection so that traffic lights are controlled based on the calculated signal period, and when the signal period is not returned from the server A data transmitter for determining that communication with the server is established and further transmitting road information related to the acquired object information to the server
including,
Electronic device characterized in that.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210003485 | 2021-01-11 | ||
KR20210003485 | 2021-01-11 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220101535A KR20220101535A (en) | 2022-07-19 |
KR102494953B1 true KR102494953B1 (en) | 2023-02-06 |
Family
ID=82607271
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210019506A KR102494953B1 (en) | 2021-01-11 | 2021-02-10 | On-device real-time traffic signal control system based on deep learning |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102494953B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102526583B1 (en) | 2022-11-22 | 2023-04-27 | 주식회사 에이엔비 | Deep learning-based intersection object detection and automatic alarm system |
KR102645077B1 (en) | 2023-08-24 | 2024-03-08 | (주)소프트윙스 | Deep learning-based intersection object detection and automatic alarm method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101696881B1 (en) | 2016-01-06 | 2017-01-17 | 주식회사 씨티아이에스 | Method and apparatus for analyzing traffic information |
KR102021534B1 (en) * | 2018-08-29 | 2019-10-18 | 주식회사 핀텔 | Image analysis apparatus for sensing vehicle and pedestrian based on deep learning and method thereof |
KR102155050B1 (en) | 2019-10-28 | 2020-09-11 | 라온피플 주식회사 | Video image detector and system and method for controlling traffic signal using the same |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101735684B1 (en) * | 2010-12-14 | 2017-05-15 | 한국전자통신연구원 | Vehicle video recording and servicing apparatus and method, apparatus and method acquiring local area information using the same |
KR101837256B1 (en) * | 2015-12-21 | 2018-03-12 | 동국대학교 산학협력단 | Method and system for adaptive traffic signal control |
-
2021
- 2021-02-10 KR KR1020210019506A patent/KR102494953B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101696881B1 (en) | 2016-01-06 | 2017-01-17 | 주식회사 씨티아이에스 | Method and apparatus for analyzing traffic information |
KR102021534B1 (en) * | 2018-08-29 | 2019-10-18 | 주식회사 핀텔 | Image analysis apparatus for sensing vehicle and pedestrian based on deep learning and method thereof |
KR102155050B1 (en) | 2019-10-28 | 2020-09-11 | 라온피플 주식회사 | Video image detector and system and method for controlling traffic signal using the same |
Also Published As
Publication number | Publication date |
---|---|
KR20220101535A (en) | 2022-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101995107B1 (en) | Method and system for artificial intelligence based video surveillance using deep learning | |
KR102444769B1 (en) | Target tracking method and device, storage medium | |
US10713490B2 (en) | Traffic monitoring and reporting system and method | |
CN111860155B (en) | Lane line detection method and related equipment | |
US9607402B1 (en) | Calibration of pedestrian speed with detection zone for traffic intersection control | |
EP3032454B1 (en) | Method and system for adaptive ray based scene analysis of semantic traffic spaces and vehicle equipped with such system | |
KR102282800B1 (en) | Method for trackig multi target employing ridar and camera | |
KR102494953B1 (en) | On-device real-time traffic signal control system based on deep learning | |
CN111507160B (en) | Method and apparatus for integrating travel images acquired from vehicles performing cooperative driving | |
CN113936465B (en) | Traffic event detection method and device | |
KR102434154B1 (en) | Method for tracking multi target in traffic image-monitoring-system | |
CN111524350B (en) | Method, system, terminal device and medium for detecting abnormal driving condition of vehicle and road cooperation | |
CN115618932A (en) | Traffic incident prediction method and device based on internet automatic driving and electronic equipment | |
CN109343051A (en) | A kind of multi-Sensor Information Fusion Approach driven for advanced auxiliary | |
KR102616571B1 (en) | System and method for providing road traffic information based on image analysis using artificial intelligence | |
US11314974B2 (en) | Detecting debris in a vehicle path | |
Singh et al. | Improved YOLOv5l for vehicle detection: an application to estimating traffic density and identifying over speeding vehicles on highway scenes | |
Zhang | Multi-object trajectory extraction based on YOLOv3-DeepSort for pedestrian-vehicle interaction behavior analysis at non-signalized intersections | |
Wang et al. | Vision-based highway traffic accident detection | |
CN117115752A (en) | Expressway video monitoring method and system | |
Malbog et al. | PED-AI: pedestrian detection for autonomous vehicles using YOLOv5 | |
CN113744304A (en) | Target detection tracking method and device | |
Forczmański et al. | Multi-view data aggregation for behaviour analysis in video surveillance systems | |
Ata et al. | A fine tuned tracking of vehicles under different video degradations | |
CN118387128B (en) | Special operation vehicle safety monitoring and early warning method and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |