KR20240099675A - Road traffic situation monitoring system and method - Google Patents

Road traffic situation monitoring system and method Download PDF

Info

Publication number
KR20240099675A
KR20240099675A KR1020220181418A KR20220181418A KR20240099675A KR 20240099675 A KR20240099675 A KR 20240099675A KR 1020220181418 A KR1020220181418 A KR 1020220181418A KR 20220181418 A KR20220181418 A KR 20220181418A KR 20240099675 A KR20240099675 A KR 20240099675A
Authority
KR
South Korea
Prior art keywords
road
vehicles
traffic information
image
images
Prior art date
Application number
KR1020220181418A
Other languages
Korean (ko)
Inventor
최은규
박승하
홍충기
Original Assignee
주식회사 안지온
Filing date
Publication date
Application filed by 주식회사 안지온 filed Critical 주식회사 안지온
Publication of KR20240099675A publication Critical patent/KR20240099675A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Abstract

본 발명은 도로 교통상황의 모니터링을 위해 도로의 차량들을 촬영하여 영상정보를 제공하는 기술이 개시된다. 본 발명은 도로교통 상황실에서 도로 상에 일정 간격으로 설치된 카메라들을 통해 촬영된 영상들을 이용하여 도로상에 주행하고 있는 차량들을 표시할 때 카메라가 설치되지 않은 블랭크 구간에도 차량의 주행 영상을 표시할 수 있도록 한 도로교통 상황 모니터링 시스템 및 방법에 관한 것이다.The present invention discloses a technology for providing image information by photographing vehicles on the road for monitoring road traffic conditions. The present invention can display driving images of vehicles even in blank sections where cameras are not installed when displaying vehicles driving on the road using images captured through cameras installed at regular intervals on the road in a road traffic situation room. It relates to a road traffic situation monitoring system and method.

Description

도로교통 상황 모니터링 시스템 및 방법{Road traffic situation monitoring system and method}Road traffic situation monitoring system and method}

본 발명은 도로 교통상황의 모니터링을 위해 도로의 차량들을 촬영하여 영상정보를 제공하는 기술에 관한 것으로, 더욱 상세하게는 도로교통 상황실에서 도로 상에 일정 간격으로 설치된 카메라들을 통해 촬영된 영상들을 이용하여 도로상에 주행하고 있는 차량들을 표시할 때 카메라가 설치되지 않은 블랭크 구간에도 차량의 주행 영상을 표시할 수 있도록 한 도로교통 상황 모니터링 시스템 및 방법에 관한 것이다.The present invention relates to a technology for providing image information by photographing vehicles on the road for monitoring road traffic conditions. More specifically, the present invention relates to a technology for providing image information by photographing vehicles on the road in order to monitor road traffic conditions. More specifically, the present invention relates to a technology for providing image information by filming vehicles on the road in order to monitor road traffic conditions. The present invention relates to a road traffic situation monitoring system and method that allows displaying driving images of vehicles even in blank sections where cameras are not installed when displaying vehicles driving on the road.

고속도로나 자동차 전용도로 등에는 일정 구간마다 카메라가 설치되어 있으며, 이들을 통해 촬영되는 영상이 도로교통 상황실에 전송된다. 따라서, 도로교통 상황실에서는 카메라들을 통해 촬영된 영상을 이용하여 도로의 교통상황을 실시간으로 모니터링할 수 있다. Cameras are installed at certain sections on highways and automobile-only roads, and the images captured through them are transmitted to the road traffic situation room. Therefore, the road traffic situation room can monitor road traffic conditions in real time using images captured through cameras.

그리고, 도로교통 상황실에서는 도로의 교통상황 모니터링 결과를 교통 상황판이나 방송 등을 통해 운전자들에게 알려주고, 차량의 주행속도가 일정치 이하로 떨어지거나 사고 등이 발생되는 경우 적절한 조치를 취하게 되어 있다. 따라서, 운전자들은 자신이 운전하고 있는 도로의 상황을 실시간으로 인식하면서 운전을 할 수 있게 된다.In addition, the road traffic situation room informs drivers of the results of road traffic monitoring through traffic bulletin boards or broadcasts, and takes appropriate measures when the vehicle's driving speed falls below a certain level or an accident occurs. Therefore, drivers can drive while recognizing the road conditions on which they are driving in real time.

그런데, 비용문제 등으로 인하여 도로상에 카메라들을 설치하는데 많은 제약을 받게 된다. 따라서, 전체 도로 중에서 상습적으로 교통체증이 발생되거나 사고가 많이 발생되는 등 특별한 구간에만 카메라를 설치하여 운용하고 대부분의 구간에는 카메라가 설치되어 있지 않다. However, due to cost issues, there are many restrictions on installing cameras on roads. Therefore, among all roads, cameras are installed and operated only in special sections such as those where traffic congestion occurs regularly or many accidents occur, and cameras are not installed in most sections.

이로 인하여, 종래의 도로교통 상황 모니터링 기술에서는 도로상에 카메라가 설치되지 않은 블랭크 구간에 대해서는 차량의 모니터링 영상을 획득하지 못하여 모니터링 정보를 제공하지 못하는 문제점이 있다. For this reason, in the conventional road traffic situation monitoring technology, there is a problem in that monitoring images of vehicles cannot be obtained for blank sections where cameras are not installed on the road, and thus monitoring information cannot be provided.

본 발명의 목적은 도로교통 상황실에서 도로 상에 일정 간격으로 설치된 카메라들을 통해 촬영된 영상들을 이용하여 도로상에 주행하고 있는 차량들을 표시할 때, 카메라가 설치되지 않은 블랭크 구간의 차량 주행 영상을 주변 영상으로부터 융합 생성하여 표시할 수 있도록 한 도로교통 상황 모니터링 시스템 및 방법을 제공하는데 있다. The purpose of the present invention is to display vehicles driving on the road using images captured through cameras installed at regular intervals on the road in a road traffic situation room, and to display vehicle driving images in a blank section where cameras are not installed. The goal is to provide a road traffic situation monitoring system and method that can be fused and displayed from images.

상기 목적을 달성하기 위한 본 발명에 따른 도로교통 상황 모니터링 시스템은, CCTV 카메라를 통해 제1도로구간을 주행하는 차량들의 영상을 절대좌표 기반으로 획득하고, 레이더 센서를 통해서는 상기 제1도로구간에 이어서 연속되는 제2도로구간을 주행하는 차량들의 감지데이터들을 절대좌표 기반으로 획득하여 전송하는 교통정보 수집장치; 및 네트워크를 통해 상기 교통정보 수집장치로부터 상기 차량들의 영상 및 감지데이터들을 전송받아 상기 제1도로구간에는 상기 차량들의 영상을 그대로 모니터의 화면상에 디스플레이하고, 상기 제2도로구간에서는 차량들의 영상을 상기 레이더 센서에서 인식한 객체, 전체 영역 및 배경 공간에 상기 절대좌표를 기준으로 맵핑하여 상기 모니터에 디스플레이하는 통합관제 서버;를 포함한다.To achieve the above object, the road traffic situation monitoring system according to the present invention acquires images of vehicles driving on the first road section through a CCTV camera based on absolute coordinates, and images of the vehicles driving on the first road section through a radar sensor are obtained. Subsequently, a traffic information collection device that acquires and transmits sensing data of vehicles driving on a continuous second road section based on absolute coordinates; And the images and sensed data of the vehicles are transmitted from the traffic information collection device through a network, and the images of the vehicles are displayed on the screen of the monitor in the first road section, and the images of the vehicles are displayed in the second road section. It includes an integrated control server that maps the objects recognized by the radar sensor, the entire area, and the background space based on the absolute coordinates and displays them on the monitor.

또한, 상기 CCTV 카메라는 도로 가장자리 주변에 설치된 지주대에 설치되고, 상기 레이더 센서는 상기 지주대에서 상기 CCTV 카메라와 상측 수직 방향으로 거리를 두고 설치된 것을 특징으로 한다.In addition, the CCTV camera is installed on a support stand installed around the edge of the road, and the radar sensor is installed at a vertical distance from the CCTV camera on the support pole in the upper vertical direction.

또한, 상기 교통정보 수집장치는 상기 CCTV 카메라의 촬영 영상을 자동 라벨링하여 해당 차량의 길이, 차량번호를 절대좌표 기반으로 획득하고, 상기 레이더 센서의 감지 결과를 바탕으로 해당 차량들에 대한, 고유 객체 ID, 차선 정보, 진입시간, 지나간 시간, 점유 시간, 차종, 세로 및 가로 좌표, 차량속도를 인식하여 그에 따른 감지 데이터를 절대좌표 기반으로 획득하는 교통정보 수집부; 및 상기 교통정보 수집부를 통해 수집된 상기 CCTV 카메라의 촬영 영상과 상기 감지 데이터들을 상기 네트워크를 통해 상기 통합관제 서버에 전송하는 교통정보 전송부;를 를 포함하는 것을 특징으로 한다.In addition, the traffic information collection device automatically labels images captured by the CCTV camera to obtain the length and license plate number of the vehicle in question based on absolute coordinates, and identifies unique objects for the vehicles based on the detection results of the radar sensor. A traffic information collection unit that recognizes ID, lane information, entry time, passing time, occupancy time, vehicle type, vertical and horizontal coordinates, and vehicle speed, and obtains corresponding sensing data based on absolute coordinates; and a traffic information transmission unit that transmits the captured images of the CCTV camera and the sensed data collected through the traffic information collection unit to the integrated control server through the network.

또한, 상기 절대좌표는 GPS 정보를 포함하는 것을 특징으로 한다. Additionally, the absolute coordinates include GPS information.

또한, 상기 통합관제 서버는 상기 교통정보 수집장치로부터 전송받은 데이터를 상기 CCTV 카메라의 촬영 영상과 동일 객체 라벨링하여 상기 차량들을 객체화하고 분석하여 이미지로 변환하는 영상 변환부; 및 상기 변환된 차량 이미지를 화면의 전체 영역 및 배경 공간에 상기 절대좌표를 기준으로 맵핑하는 영상 맵핑부;를 포함하는 것을 특징으로 한다.In addition, the integrated control server includes an image conversion unit that labels the data received from the traffic information collection device as the same object as the video captured by the CCTV camera, objects the vehicles, analyzes them, and converts them into images; and an image mapping unit that maps the converted vehicle image to the entire screen area and background space based on the absolute coordinates.

또한, 상기 배경 공간은 3차원 GIS(Geographic Information System) 모델링으로 생성된 영상을 포함하는 것을 특징으로 한다.Additionally, the background space is characterized by including an image generated through 3D GIS (Geographic Information System) modeling.

또한, 상기 영상 맵핑부는 웨이블릿(Wavelet transform) 영상 융합 알고리즘을 사용하는 것을 특징으로 한다.In addition, the image mapping unit is characterized by using a wavelet (Wavelet transform) image fusion algorithm.

또한, 상기 맵핑부는 상기 맵핑된 차량 이미지를 상기 레이더 센서를 통해 획득된 감지데이터에 따라 해당 차선 상에서 해당 속도로 주행하는 형태로 계속 디스플레이하는 것을 특징으로 한다.In addition, the mapping unit is characterized in that it continuously displays the mapped vehicle image in the form of driving at the corresponding speed in the corresponding lane according to the detection data acquired through the radar sensor.

상기 목적을 달성하기 위한 본 발명에 따른 도로교통 상황 모니터링 방법은, 제1도로구간을 주행하는 차량들을 촬영하는 CCTV 카메라의 촬영 영상을 자동 라벨링하여 해당 차량의 길이, 차량번호를 절대좌표 기반으로 획득하고, 상기 제1도로구간에 이어서 연속되는 제2도로구간을 주행하는 차량들을 탐지하는 레이더 센서의 탐지 결과를 바탕으로 해당 차량들에 대한, 고유 객체 ID, 차선 정보, 진입시간, 지나간 시간, 점유 시간, 차종, 세로 및 가로 좌표, 차량속도를 인식하여 그에 따른 감지 데이터를 절대좌표 기반으로 획득하는 교통정보 수집단계; 상기 교통정보 수집단계를 통해 수집된 상기 CCTV 카메라의 촬영 영상과 상기 감지 데이터들을 네트워크를 통해 통합관제 서버에 전송하는 교통정보 전송단계; 상기 교통정보 수집단계를 통해 전송받은 데이터를 상기 CCTV 카메라의 촬영 영상과 동일 객체 라벨링하여 상기 차량들을 객체화하고 분석하여 이미지로 변환하는 영상 변환단계; 및 상기 변환된 차량 이미지를 통합관제 서버의 모니터 화면의 전체 영역 및 배경 공간에 상기 절대좌표 기준으로 맵핑하는 영상 맵핑단계;를 포함한다.The road traffic situation monitoring method according to the present invention to achieve the above purpose automatically labels images captured by CCTV cameras that capture vehicles driving on the first road section and obtains the length and vehicle number of the vehicle based on absolute coordinates. And, based on the detection results of a radar sensor that detects vehicles driving on a second road section following the first road section, unique object ID, lane information, entry time, passing time, and occupancy for the corresponding vehicles. A traffic information collection step of recognizing time, vehicle type, vertical and horizontal coordinates, and vehicle speed, and obtaining corresponding sensing data based on absolute coordinates; A traffic information transmission step of transmitting the captured images of the CCTV camera and the sensed data collected through the traffic information collection step to an integrated control server through a network; An image conversion step of objectifying and analyzing the vehicles by labeling the data transmitted through the traffic information collection step as the same object as the video captured by the CCTV camera and converting it into an image; and an image mapping step of mapping the converted vehicle image to the entire area and background space of the monitor screen of the integrated control server based on the absolute coordinates.

본 발명에 따른 도로교통 상황 모니터링 시스템 및 방법은 다음과 같은 효과가 있다.The road traffic situation monitoring system and method according to the present invention has the following effects.

첫째, 일정 구간의 도로를 CCTV 카메라로 촬영하여 통합관제 센터의 모니터에 디스플레이하고, 이후에 이어지는 훨씬 긴 구간에 대해서는 데이터 센서로 감지하고, 레이더 센서의 감지 결과를 CCTV 카메라의 촬영 영상과 융합하여 차량들이 주행하는 영상을 디스플레이할 수 있게 함으로써, 도로교통 모니터링을 위한 비용을 최소화 하면서, 보다 긴 도로 구간의 교통정보를 수집할 수 있는 효과가 있다.First, a certain section of road is filmed with a CCTV camera and displayed on the monitor of the integrated control center, and a much longer section that follows is detected with a data sensor, and the detection result of the radar sensor is fused with the video captured by the CCTV camera to control the vehicle. By being able to display images of people driving, it is possible to collect traffic information on longer road sections while minimizing the cost of road traffic monitoring.

둘째, 통합관제 센터에서 모니터에 융합 디스플레이되는 영상을 바탕으로 초당 수백대의 차량을 실시간으로 감지하여 추적할 수 있으므로, 집중적으로 데이터를 수집하고 관리할 수 있는 효과가 있다.Second, since the integrated control center can detect and track hundreds of vehicles per second in real time based on the images displayed on the monitor, it is effective in collecting and managing data intensively.

셋째, 특정 도로 구간에 대한 실시간 교통 흐름 및 표적 분석이 가능하고, 분석 결과를 교통 통계적 분석 등에 활용할 수 있는 효과가 있다.Third, real-time traffic flow and target analysis for specific road sections is possible, and the analysis results can be used for statistical traffic analysis.

넷째, 폭우, 야간, 안개 및 화재 등으로 인하여 가시성이 극히 낮은 조건에서도 정확한 차량정보와 교통상황을 파악할 수 있어 도로 환경변화에 별다른 영향을 받지 않고 교통 흐름을 모니터링하고 통제할 수 있는 효과가 있다.Fourth, accurate vehicle information and traffic conditions can be obtained even in conditions of extremely low visibility due to heavy rain, night time, fog, and fire, which has the effect of monitoring and controlling traffic flow without being significantly affected by changes in the road environment.

다섯째, 레이더 센서의 탐지신호를 이용하여 이동차량을 추적하는 트레이서 역할을 할 수 있는 효과가 있다. Fifth, it has the effect of acting as a tracer that tracks a moving vehicle using the detection signal of a radar sensor.

여섯째, 다중 차선의 교통량이 많은 지역 예를 들어, 고속도로 및 간선도로와 같이 많은 차량들이 고속으로 주행하는 지역에서 초당 수백대의 차량을 실시간으로 감지하여 추적할 수 있으므로 교통정보를 집중적으로 수집하고 관리할 수 있는 효과가 있다.Sixth, in areas with high multi-lane traffic, for example, highways and main roads, where many vehicles drive at high speeds, hundreds of vehicles per second can be detected and tracked in real time, making it possible to intensively collect and manage traffic information. There is a possible effect.

일곱째, 본 발명을 터널구간에 적용할 수 있으며, 이와 같은 경우 터널을 주행하고 있는 차량들을 CCTV 카메라를 통해 촬영하지 않고도, CCTV 카메라를 통해 촬영한 영상과 유사한 영상으로 디스플레이할 수 있는 효과가 있다.Seventh, the present invention can be applied to a tunnel section, and in this case, there is an effect of displaying an image similar to an image captured through a CCTV camera without photographing vehicles driving in the tunnel through a CCTV camera.

여덟째, 본 발명은 도로교통 분야 뿐만 아니라 항만, 학교, 스마트 시티 분야에 적용하여 현장에서의 차량의 흐름과 분석을 통해 도로를 관리할 수 있는 효과가 있다.Eighth, the present invention has the effect of managing roads through on-site vehicle flow and analysis by applying it not only to the road traffic field but also to ports, schools, and smart city fields.

도 1은 본 발명의 실시예에 따른 도로교통 상황 모니터링 시스템의 블록도이다.
도 2는 교통정보 수집부의 상세 블록도이다.
도 3은 교통정보 수집장치의 설치 예시도이다.
도 4는 통합관제 서버의 상세 블록도이다.
도 5는 본 발명에 따른 도로교통 상황 모니터링 화면 예시도이다.
도 6은 본 발명의 실시예에 따른 도로교통 상황 모니터링 방법의 순서도이다.
1 is a block diagram of a road traffic situation monitoring system according to an embodiment of the present invention.
Figure 2 is a detailed block diagram of the traffic information collection unit.
Figure 3 is an example of the installation of a traffic information collection device.
Figure 4 is a detailed block diagram of the integrated control server.
Figure 5 is an example of a road traffic situation monitoring screen according to the present invention.
Figure 6 is a flowchart of a method for monitoring road traffic conditions according to an embodiment of the present invention.

이하 본 발명의 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의한다. 또한 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 당업자에게 자명하거나 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings. First, it should be noted that when adding reference numerals to components in each drawing, the same components are given the same reference numerals as much as possible even if they are shown in different drawings. Additionally, in describing the present invention, if a detailed description of a related known configuration or function is determined to be obvious to those skilled in the art or may obscure the gist of the present invention, the detailed description will be omitted.

도 1은 본 발명의 실시예에 따른 도로교통 상황 모니터링 시스템의 블록도이고, 도 2는 교통정보 수집부의 상세 블록도이고, 도 3은 교통정보 수집장치의 설치 예시도이고, 도 4는 통합관제 서버의 상세 블록도이고, 도 5는 본 발명에 따른 도로교통 상황 모니터링 화면 예시도이다.Figure 1 is a block diagram of a road traffic situation monitoring system according to an embodiment of the present invention, Figure 2 is a detailed block diagram of the traffic information collection unit, Figure 3 is an example installation of a traffic information collection device, and Figure 4 is an integrated control system. This is a detailed block diagram of the server, and Figure 5 is an example of a road traffic situation monitoring screen according to the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 도로교통 상황 모니터링 시스템(1000)는 교통정보 수집장치(100), 네트워크(200), 통합관제서버(300) 및 사용자 단말(400)을 포함한다. Referring to FIG. 1, the road traffic situation monitoring system 1000 according to an embodiment of the present invention includes a traffic information collection device 100, a network 200, an integrated control server 300, and a user terminal 400. .

이와 같이 구성된 본 발명에 따른 도로교통 상황 모니터링 시스템(1000)의 작용을 도 2 내지 5를 참조하여 설명하면 다음과 같다.The operation of the road traffic situation monitoring system 1000 according to the present invention configured as described above will be described with reference to FIGS. 2 to 5 as follows.

교통정보 수집장치(100)는 도로 가장자리 주변에 설치된 지주대에 설치된 CCTV 카메라를 통해 제1구간의 도로를 주행하는 차량들을 촬영한 영상과, 상기 지주대에서 상기 CCTV 카메라의 상측에 설치되어 상기 제1구간과 연결되어 연장되는 제2구간의 도로를 주행중인 차량들을 탐지한 신호를 수집하여 네트워크(200)를 통해 전송한다.The traffic information collection device 100 captures images of vehicles traveling on the road in the first section through a CCTV camera installed on a support pole installed around the edge of the road, and is installed above the CCTV camera on the support pole and Signals that detect vehicles driving on the road in the second section, which is connected to and extends from section 1, are collected and transmitted through the network 200.

이를 위해, 교통정보 수집장치(100)는 교통정보 감지부(110), 교통정보 수집부(120) 및 교통정보 전송부(130)를 포함한다. For this purpose, the traffic information collection device 100 includes a traffic information detection unit 110, a traffic information collection unit 120, and a traffic information transmission unit 130.

교통정보 감지부(110)는 도로의 일정 구간 내에서 도로상에 주행하는 차량들을 절대좌표(예: GPS) 기반으로 촬영하여 차량들의 주행 영상을 획득하고, 일정 구간 이후부터 소정 거리 까지의 구간에서는 도로상에 전자파를 조사한 후 되돌아오는 반사파를 근거로 차량들의 주행 방향, 거리 및 속도를 절대좌표 기반으로 측정한다.The traffic information detection unit 110 acquires driving images of vehicles by photographing vehicles traveling on the road within a certain section of the road based on absolute coordinates (e.g., GPS), and in the section from the certain section to a predetermined distance, After irradiating electromagnetic waves on the road, the driving direction, distance, and speed of vehicles are measured based on absolute coordinates based on the reflected waves that return.

이를 위해 교통정보 감지부(110)는 도로 가장자리 주변에 설치된 지주대(111)에 수직 방향으로 간격을 두고 설치된 CCTV 카메라(112) 및 레이더 센서(113)를 포함한다. 여기서, 도로의 종류는 특별하게 한정되지 않지만, 고속도로 또는 자동차 전용도로를 포함하고, 직선주로의 도로인 것이 바람직하다. For this purpose, the traffic information detection unit 110 includes a CCTV camera 112 and a radar sensor 113 installed at vertical intervals on a support 111 installed around the edge of the road. Here, the type of road is not particularly limited, but it is preferable that the road be a straight road, including a highway or automobile road.

CCTV 카메라(112) 및 레이더 센서(113)의 차량 감지거리는 특별하게 한정되지 않는다, 예를 들어, CCTV 카메라(112)는 지주대(111)를 기준으로 전방 200M 이내(제1도로구간)의 도로에 주행하고 있는 차량들을 절대좌표를 기반으로 촬영하여 차량들의 주행영상을 획득하고, 레이더 센서(113)는 전자파를 이용하여 전방 200~500M 이내(제2도로구간)의 도로에 주행하고 있는 수백대 차량들의 거리와 속도를 절대좌표 기반으로 검출할 수 있다. The vehicle detection distance of the CCTV camera 112 and the radar sensor 113 is not particularly limited. For example, the CCTV camera 112 is installed on the road within 200M (first road section) ahead of the support stand 111. Driving images of vehicles are obtained by filming vehicles driving on the road based on absolute coordinates, and the radar sensor 113 uses electromagnetic waves to detect hundreds of vehicles driving on the road within 200 to 500 meters ahead (second road section). Their distance and speed can be detected based on absolute coordinates.

도 3에는 도시하지 않았지만, CCTV 카메라(112)의 촬영구간인 제1도로구간과 레이더 센서(113)의 탐지구간인 제2도로구간이 중첩되는 구간(예:190~200M)을 둘 수 있다. 이와 같은 중첩구간을 두는 이유는 전방 200M부터 후술하는 바와 같이 상기 촬영구간에서 촬영된 영상을 상기 제2도로구간에서 탐지되는 객체(차량)에 맵핑(mapping)하기 까지의 처리시간을 확보하기 위함이다. Although not shown in FIG. 3, there may be a section (e.g., 190 to 200M) where the first road section, which is the shooting section of the CCTV camera 112, and the second road section, which is the detection section of the radar sensor 113, overlap. The reason for having such an overlapping section is to secure the processing time from 200M ahead to mapping the image captured in the shooting section to the object (vehicle) detected in the second road section, as described later. .

따라서, CCTV 카메라(112)는 상기 지주대(111)의 일정 높이에 설치되고, 레이더 센서(113)는 상기 CCTV 카메라(112)의 설치 위치로부터 수직 방향으로 일정 거리 이상의 간격을 두고 설치하는 것이 바람직하다. Therefore, it is preferable that the CCTV camera 112 is installed at a certain height of the support stand 111, and the radar sensor 113 is installed at a certain distance or more in the vertical direction from the installation position of the CCTV camera 112. do.

레이더 센서(113)는 FMCW 기반의 레이더 센서일 수 있다. 레이더 센서(113)는 시간 영역에 따라 주파수가 선형적으로 변하는 첩 신호를 송신하고, 전방의 표적(차량)으로 부터 반사된 신호를 이용하여 거리와 속도를 절대좌표를 기반으로 검출한다. 이렇게 수신된 신호의 주파수와 송신 주파수는 RF 모듈의 혼합기(Mixer)를 통해 그 차이 값이 구해지며, 이를 비트 주파수라한다. 비트주파수는 시간 지연에 따라 선형값을 가지므로 표적과의 거리를 추정 할 수 있다. 또한 전방 이동 표적의 상대 속도에 따라 수신 비트 주파수에 도플러 주파수 천이가 발생하기 때문에 이를 이용하여 상대 속도를 구할 수 있다.The radar sensor 113 may be an FMCW-based radar sensor. The radar sensor 113 transmits a chirp signal whose frequency changes linearly according to the time domain, and detects distance and speed based on absolute coordinates using the signal reflected from the target (vehicle) in front. The difference between the frequency of the received signal and the transmitted frequency is obtained through the mixer of the RF module, and this is called the beat frequency. Since the beat frequency has a linear value depending on the time delay, the distance to the target can be estimated. Additionally, since a Doppler frequency shift occurs in the received beat frequency depending on the relative speed of the forward moving target, the relative speed can be obtained using this.

교통정보 수집부(120)는 상기 설명에서와 같이 절대좌표 기반으로 교통정보를 수집한다. 예들 들어, CCTV 카메라(112)의 촬영 영상을 바탕으로 자동 라벨링을 통하여 해당 차량의 길이, 차량번호등을 인식하고, 레이더 센서(113)의 감지 결과를 바탕으로 해당 차량들에 대한, 고유 객체 ID(예: 차량번호), 절대좌표, 차선 정보, 상기 감지선의 진입시간 및 지나간 시간, 점유 시간, 차종, 세로 및 가로 좌표, 차량속도 등을 인식하여 그에 따른 감지 데이터를 수집한다.The traffic information collection unit 120 collects traffic information based on absolute coordinates as described above. For example, based on the captured image of the CCTV camera 112, the length and license plate number of the vehicle are recognized through automatic labeling, and the unique object ID for the vehicle is based on the detection result of the radar sensor 113. (e.g. vehicle number), absolute coordinates, lane information, entry and exit times of the detection line, occupancy time, vehicle type, vertical and horizontal coordinates, vehicle speed, etc. are recognized and the corresponding detection data is collected.

여기서, 상기 라벨링 방법은 특별하게 한정되는 것이 아니라 다양한 방법으로 수행될 수 있다. 예를 들어, 상기 라벨링 방법은 바운딩 박스(Bounding Box), 폴리곤(Polygon), 폴리라인(Polyline), 포인트(Point) 및 큐보이드(Cuboid) 중에서 어느 하나의 라벨링 방법을 사용할 수 있다.Here, the labeling method is not particularly limited and can be performed in various ways. For example, the labeling method may use any one of Bounding Box, Polygon, Polyline, Point, and Cuboid.

교통정보 전송부(130)는 상기 교통정보 수집부(120)를 통해 절대 좌표 기반으로 수집된 상기 CCTV 카메라(112)의 촬영 영상과 상기 감지 데이터들을 네트워크(200)를 통해 통합관제센터의 통합관제 서버(300)에 전송한다. 여기서, 상기 수집된 데이터들은 사물인터넷(IoT) 통신 센서(무선 센서)를 통하여 단계적으로 관제센터로 전송될 수 있다. 여기서, 상기 사물인터넷(IoT)에는 인터넷 네트워크에 무선으로 연결될 수 있는 모든 물체가 포함될 수 있다. The traffic information transmission unit 130 controls the integrated control center through the network 200 with the captured images of the CCTV camera 112 and the sensed data collected based on absolute coordinates through the traffic information collection unit 120. Transmitted to the server 300. Here, the collected data can be gradually transmitted to the control center through an Internet of Things (IoT) communication sensor (wireless sensor). Here, the Internet of Things (IoT) may include all objects that can be wirelessly connected to an Internet network.

통합관제서버(300)는 도로상에 주행하고 있는 차량 영상을 표시장치(예: LCD 패널)에 디스플레이할 때, 상기 지주대(111)로부터 200M 까지의 구간에 주행하는 차량들에 대해서는 상기 교통정보 전송부(130)로부터 전송받은 CCTV 카메라(112)의 영상을 그대로 디스플레이한다. 하지만, 상기 지주대(111)로부터 200~500M 까지의 도로 구간에서는 통합관제서버(300)가 상기 레이더 센서(113)에 의해 탐지된 신호와 상기 감지 데이터를 근거로 상기 CCTV 카메라(112)에 의해 상기 구간에서 촬영된 해당 차량의 영상을 레이더 센서(113)에서 인식한 객체, 전체 영역 및 배경 공간에 상기 절대좌표를 기준으로 맵핑(융합)하여 실시간으로 디스플레이한다. When displaying images of vehicles driving on the road on a display device (e.g., LCD panel), the integrated control server 300 displays the traffic information for vehicles traveling in the section up to 200M from the support stand 111. The image of the CCTV camera 112 received from the transmission unit 130 is displayed as is. However, in the road section from 200 to 500 m from the support stand 111, the integrated control server 300 detects the signal by the CCTV camera 112 based on the signal detected by the radar sensor 113 and the sensed data. The image of the vehicle captured in the section is mapped (fused) to the object recognized by the radar sensor 113, the entire area, and the background space based on the absolute coordinates and displayed in real time.

그런데, 상기와 같이 차량 영상을 맵핑하여 디스플레이하기 위해서는 CCTV 카메라(112)의 데이터 속성과 레이더 센서(113)의 데이터 속성을 맞추어주는 작업이 필요하다. 그리고, 레이더 센서(113)에서 인식한 객체를 CCTV 카메라(112)에 촬영된 동일 차량의 이미지로 변환하는 작업이 필요하다. 이와 같은 작업들을 통합관제서버(300)에서 실시한다.However, in order to map and display vehicle images as described above, it is necessary to match the data properties of the CCTV camera 112 and the data properties of the radar sensor 113. Additionally, it is necessary to convert the object recognized by the radar sensor 113 into an image of the same vehicle captured by the CCTV camera 112. These operations are performed in the integrated control server 300.

이를 위해, 통합관제서버(300)는 영상 전환부(310) 및 영상 맵핑부(320)를 포함한다.For this purpose, the integrated control server 300 includes an image conversion unit 310 and an image mapping unit 320.

영상 변환부(310)는 상기 교통정보 전송부(130)로부터 전송받은 데이터를 상기 CCTV 카메라(112)의 촬영 영상과 동일 객체 라벨링하여 표적을 객체화하고 분석하여 이미지로 변환한다.The image conversion unit 310 labels the data received from the traffic information transmission unit 130 as the same object as the image captured by the CCTV camera 112, objectifies the target, analyzes it, and converts it into an image.

영상 맵핑부(320)는 상기와 같이 변환된 이미지를 화면의 전체 영역 및 배경 공간에 정확하게 맵핑한다. 이를 위해 영상 맵핑부(320)는 상기 교통정보 수집부(120)에서 설정된 절대좌표를 기준으로 하고, 감지데이터를 참조하여 맵핑하게 된다. The image mapping unit 320 accurately maps the image converted as described above to the entire area and background space of the screen. To this end, the image mapping unit 320 maps based on the absolute coordinates set by the traffic information collection unit 120 and with reference to the sensed data.

이를 위해 영상 맵핑부(320)는 웨이블릿(Wavelet transform) 영상 융합 알고리즘을 사용할 수 있다. 여기서, 상기 배경 공간의 영상으로 미리 드론으로 촬영된 200~300M 구간의 도로 영상이 사용될 수 있다. 다른 예로써, 3차원(3D, Three Dimension) GIS(Geographic Information System) 모델링으로 생성된 영상이 사용될 수 있다. 영상 맵핑부(320)는 상기와 같이 맵핑된 차량 영상을 레이더 센서(113)를 통해 획득된 감지데이터에 따라 해당 차선 상에서 해당 속도로 주행하는 형태로 모니터에 디스플레이한다. For this purpose, the image mapping unit 320 may use a wavelet (Wavelet transform) image fusion algorithm. Here, a road image of a 200 to 300M section previously captured with a drone may be used as the image of the background space. As another example, an image generated by 3D (Three Dimension) GIS (Geographic Information System) modeling may be used. The image mapping unit 320 displays the image of the vehicle mapped as above on the monitor in the form of the vehicle traveling at the corresponding speed in the corresponding lane according to the detection data acquired through the radar sensor 113.

따라서, 통합관제 센터의 모니터 화면상에는 CCTV 카메라(112)를 통해 실제로 촬영된 구간(예: 200M)과 연속되는 구간 즉, 레이더 센서(113)를 통해 탐지된 구간(200~500M)을 주행하고 있는 차량들의 영상이 연속해서 실시간으로 디스플레이된다.Therefore, on the monitor screen of the integrated control center, a section that is continuous with the section (e.g., 200M) actually photographed through the CCTV camera 112, that is, a section detected through the radar sensor 113 (200 to 500M) is driving. Videos of vehicles are displayed continuously in real time.

결과적으로, 지주대(111)를 기준으로 제2도로구에는 CCTV 카메라(112)를 설치하지 않고도, 제1도로구간에서 CCTV 카메라(112)를 통해 실제로 촬영된 영상과 비교하여 구분하기 힘들 정도로 유사한 차량들의 주행 영상을 모니터에 실시간으로 디스플레이할 수 있다. As a result, without installing the CCTV camera 112 in the second road section based on the strut 111, the image is so similar that it is difficult to distinguish it from the image actually captured through the CCTV camera 112 in the first road section. Videos of vehicles driving can be displayed on the monitor in real time.

이에 따라, 통합관제 센터에서 상기 모니터에 디스플레이되는 영상을 바탕으로 초당 수백대의 차량을 실시간으로 감지하여 추적할 수 있으므로, 집중적으로 데이터를 수집하고 효과적으로 관리할 수 있다. 그리고, 특정 도로 구간에 대한 실시간 교통 흐름 및 표적 분석이 가능하고, 분석 결과를 교통 통계적 분석 등에 활용할 수 있다. 특히, 기상 악화시 예를 들어, 폭우, 야간, 안개 및 화재 등으로 인하여 가시성이 극히 낮은 조건에서도 정확한 차량정보와 교통상황을 파악할 수 있어 원할한 교통 흐름에 기여할 수 있다. Accordingly, the integrated control center can detect and track hundreds of vehicles per second in real time based on the images displayed on the monitor, allowing intensive data collection and effective management. In addition, real-time traffic flow and target analysis for specific road sections is possible, and the analysis results can be used for traffic statistical analysis, etc. In particular, when the weather is bad, for example, due to heavy rain, night time, fog, and fire, accurate vehicle information and traffic conditions can be identified even in extremely low visibility conditions, contributing to smooth traffic flow.

또한, 레이더 센서(113)의 탐지신호를 이용하여 이동차량을 추적하는 트레이서 역할을 할 수 있다. In addition, it can serve as a tracer to track a moving vehicle using the detection signal of the radar sensor 113.

또한, 다중 차선의 교통량이 많은 지역 예를 들어, 고속도로 및 간선도로와 같이 많은 차량들이 고속으로 주행하는 지역에서 초당 수백대의 차량을 실시간으로 감지하여 추적할 수 있으므로 교통정보를 집중적으로 수집하고 관리할 수 있다.In addition, in areas with high multi-lane traffic, such as highways and main roads, where many vehicles drive at high speeds, hundreds of vehicles per second can be detected and tracked in real time, making it possible to intensively collect and manage traffic information. You can.

또한, 본 발명을 터널구간에 적용할 수 있으며, 이와 같은 경우 터널구간을 상기 제2도로구간에 해당된다. 따라서, 이와 같은 경우에도 터널을 주행하고 있는 차량들을 CCTV 카메라를 통해 촬영하지 않고도, 마치 CCTV 카메라를 통해 실제 촬영한 영상과 구분하기 힘들 정도로 유사한 영상으로 디스플레이할 수 있다. 다른 예로써, 본 발명은 도로교통 분야 뿐만 아니라 항만, 학교, 스마트 시티 분야에 적용하여 현장에서의 차량의 흐름과 분석을 통해 도로를 관리할 수 있다.Additionally, the present invention can be applied to a tunnel section, and in this case, the tunnel section corresponds to the second road section. Therefore, even in this case, it is possible to display images that are so similar to the images actually captured by CCTV cameras that they are difficult to distinguish, without having to film vehicles driving in the tunnel through CCTV cameras. As another example, the present invention can be applied not only to the road traffic field but also to ports, schools, and smart city fields to manage roads through on-site vehicle flow and analysis.

차량 운전자를 포함하는 사용자들은 사용자 단말(400)을 통해 통합관제 센터의 모니터에 상기와 같이 실시간으로 디스플레이되는 영상정보를 제공받을 수 있다.Users, including vehicle drivers, can receive video information displayed in real time as described above on the monitor of the integrated control center through the user terminal 400.

도 5는 본 발명이 고속도로의 요금계산소 주변에 적용된 예를 타나낸 것이다. 이와 같은 경우 일부 차선은 CCTV 카메라(112)가 촬영한 영상이 그대로 디스플레이되고, 나머지 차선들은 레이더 센서(113)에 의해 탐지된 객체(차량)에 CCTV 카메라(112)가 촬영한 영상이 맵핑된 형태로 디스플레이된다. 따라서, 전체 도로가 마치 CCTV 카메라(112)로 촬영한 것과 같은 영상이 디스플레이된다.Figure 5 shows an example of the present invention being applied around a toll booth on a highway. In this case, in some lanes, the image captured by the CCTV camera 112 is displayed as is, and in the remaining lanes, the image captured by the CCTV camera 112 is mapped to the object (vehicle) detected by the radar sensor 113. It is displayed as Accordingly, an image as if the entire road was captured by the CCTV camera 112 is displayed.

한편, 도 6은 본 발명의 실시예에 따른 도로교통 상황 모니터링 방법의 순서도이다.Meanwhile, Figure 6 is a flowchart of a road traffic situation monitoring method according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 실시예에 따른 도로교통 상황 모니터링 방법은 교통정보 수집단계(S1), 교통정보 전송부단계(S2), 영상 변환단계(S3) 및 영상 맵핑단계(S4)를 포함한다.Referring to Figure 6, the road traffic situation monitoring method according to an embodiment of the present invention includes a traffic information collection step (S1), a traffic information transmission step (S2), an image conversion step (S3), and an image mapping step (S4). Includes.

이와 같은 본 발명의 도로교통 상황 모니터링 방법을 도 1 내지 도 4를 참조하여 설명하면 다음과 같다.The road traffic situation monitoring method of the present invention will be described with reference to FIGS. 1 to 4 as follows.

교통정보 수집단계(S1)에서, 교통정보 수집부(120)는 제1도로구간을 주행하는 차량들을 절대좌표 기반으로 촬영하는 CCTV 카메라(112)의 촬영 영상을 자동 라벨링하여 해당 차량의 길이, 차량번호를 획득하고, 상기 제1도로구간에 이어서 연속되는 제2도로구간을 주행하는 차량들을 탐지하는 레이더 센서(113)의 탐지 결과를 바탕으로 해당 차량들에 대한, 고유 객체 ID, 차선 정보, 진입시간, 지나간 시간, 점유 시간, 차종, 세로 및 가로 좌표, 차량속도를 인식하여 그에 따른 감지 데이터를 절대좌표 기반으로 획득한다. In the traffic information collection step (S1), the traffic information collection unit 120 automatically labels the captured images of the CCTV camera 112, which captures vehicles driving on the first road section based on absolute coordinates, to determine the length and vehicle length of the vehicle. Based on the detection results of the radar sensor 113 that obtains the number and detects vehicles driving on the second road section following the first road section, unique object ID, lane information, and entry for the corresponding vehicles It recognizes time, passing time, occupied time, vehicle type, vertical and horizontal coordinates, and vehicle speed, and acquires corresponding sensing data based on absolute coordinates.

교통정보 전송단계(S2)에서, 교통정보 전송부(130)는 상기 교통정보 수집단계(S1)를 통해 수집된 상기 CCTV 카메라(112)의 촬영 영상과 상기 감지 데이터들을 네트워크(200)를 통해 통합관제 서버(300)에 전송한다.In the traffic information transmission step (S2), the traffic information transmission unit 130 integrates the captured images of the CCTV camera 112 and the sensed data collected through the traffic information collection step (S1) through the network 200. Transmitted to the control server 300.

영상 변환단계(S3)에서, 영상 변환부(310)는 상기 교통정보 수집단계(S2)를 통해 전송받은 데이터를 상기 CCTV 카메라(112)의 촬영 영상과 동일 객체 라벨링하여 상기 차량들을 객체화하고 분석하여 이미지로 변환한다.In the image conversion step (S3), the image conversion unit 310 labels the data transmitted through the traffic information collection step (S2) as the same object as the image captured by the CCTV camera 112 to objectify and analyze the vehicles. Convert to image.

영상 맵핑단계(S4)에서, 영상 맵핑부(320)는 상기 변환된 차량 이미지를 통합관제 서버(300)의 모니터 화면의 전체 영역 및 배경 공간에 상기 절대좌표를 기준으로 맵핑한다.In the image mapping step (S4), the image mapping unit 320 maps the converted vehicle image to the entire area and background space of the monitor screen of the integrated control server 300 based on the absolute coordinates.

이상으로 본 발명의 기술적 사상을 예시하기 위한 바람직한 실시예와 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 도시되고 설명된 그대로의 구성 및 작용에만 국한되는 것은 아니며, 기술적 사상의 범주를 이탈함없이 본 발명에 대해 다수의 변경 및 수정이 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서 그러한 모든 적절한 변경 및 수정과 균등물들도 본 발명의 범위에 속하는 것으로 간주되어야 할 것이다. Although the preferred embodiments have been described and illustrated above to illustrate the technical idea of the present invention, the present invention is not limited to the configuration and operation as shown and described, and does not depart from the scope of the technical idea. Those skilled in the art will appreciate that many changes and modifications are possible to the present invention. Accordingly, all such appropriate changes, modifications and equivalents shall be considered to fall within the scope of the present invention.

100 : 교통정보 수집장치 110 : 교통정보 감지부
111 : 지주대 112 : CCTV 카메라
113 : 레이더 센서 120 : 교통정보 수집부
130 : 교통정보 전송부 200 : 네트워크
300 : 통합관제 서부 310 : 영상 전환부
320 : 영상 맵핑부 400 : 사용자 단말
1000 : 도로교통 상황 모니터링 시스템
100: Traffic information collection device 110: Traffic information detection unit
111: Holder 112: CCTV camera
113: Radar sensor 120: Traffic information collection unit
130: Traffic information transmission unit 200: Network
300: Integrated control west 310: Video conversion unit
320: video mapping unit 400: user terminal
1000: Road traffic situation monitoring system

Claims (9)

CCTV 카메라를 통해 제1도로구간을 주행하는 차량들의 영상을 절대좌표 기반으로 획득하고, 레이더 센서를 통해서는 상기 제1도로구간에 이어서 연속되는 제2도로구간을 주행하는 차량들의 감지데이터들을 절대좌표 기반으로 획득하여 전송하는 교통정보 수집장치; 및
네트워크를 통해 상기 교통정보 수집장치로부터 상기 차량들의 영상 및 감지데이터들을 전송받아 상기 제1도로구간에는 상기 차량들의 영상을 그대로 모니터의 화면상에 디스플레이하고, 상기 제2도로구간에서는 차량들의 영상을 상기 레이더 센서에서 인식한 객체, 전체 영역 및 배경 공간에 상기 절대좌표를 기준으로 맵핑하여 상기 모니터에 디스플레이하는 통합관제 서버; 를 포함하는 도로교통 상황 모니터링 시스템.
Through a CCTV camera, images of vehicles driving on the first road section are acquired based on absolute coordinates, and through a radar sensor, detection data of vehicles driving on a second road section following the first road section are captured in absolute coordinates. A traffic information collection device that acquires and transmits data based on traffic information; and
Images and detection data of the vehicles are transmitted from the traffic information collection device through a network, and the images of the vehicles are displayed on the screen of the monitor in the first road section, and the images of the vehicles are displayed in the second road section. an integrated control server that maps the objects recognized by the radar sensor, the entire area, and the background space based on the absolute coordinates and displays them on the monitor; Road traffic situation monitoring system including.
제1항에 있어서,
상기 CCTV 카메라는
도로 가장자리 주변에 설치된 지주대에 설치되고,
상기 레이더 센서는 상기 지주대에서 상기 CCTV 카메라와 상측 수직 방향으로 거리를 두고 설치된 것을 특징으로 하는 도로교통 상황 모니터링 시스템.
According to paragraph 1,
The CCTV camera is
It is installed on supports installed around the edge of the road,
A road traffic situation monitoring system, wherein the radar sensor is installed at a vertical distance from the CCTV camera on the support.
제1항에 있어서,
상기 교통정보 수집장치는,
상기 CCTV 카메라의 촬영 영상을 자동 라벨링하여 해당 차량의 길이, 차량번호를 절대좌표 기반으로 획득하고, 상기 레이더 센서의 감지 결과를 바탕으로 해당 차량들에 대한, 고유 객체 ID, 차선 정보, 진입시간, 지나간 시간, 점유 시간, 차종, 세로 및 가로 좌표, 차량속도를 인식하여 그에 따른 감지 데이터를 절대좌표 기반으로 획득하는 교통정보 수집부; 및
상기 교통정보 수집부를 통해 수집된 상기 CCTV 카메라의 촬영 영상과 상기 감지 데이터들을 상기 네트워크를 통해 상기 통합관제 서버에 전송하는 교통정보 전송부;를 포함하는 것을 특징으로 하는 도로교통 상황 모니터링 시스템.
According to paragraph 1,
The traffic information collection device is,
By automatically labeling the video captured by the CCTV camera, the length and license plate number of the vehicle are obtained based on absolute coordinates, and based on the detection results of the radar sensor, unique object ID, lane information, entry time, A traffic information collection unit that recognizes passing time, occupied time, vehicle type, vertical and horizontal coordinates, and vehicle speed, and obtains corresponding sensing data based on absolute coordinates; and
A road traffic situation monitoring system comprising a traffic information transmission unit that transmits the captured images of the CCTV camera and the sensed data collected through the traffic information collection unit to the integrated control server through the network.
제1항 또는 제3항에 있어서,
상기 절대좌표는
GPS 정보를 포함하는 것을 특징으로 하는 도로교통 상황 모니터링 시스템.
According to claim 1 or 3,
The absolute coordinates are
A road traffic situation monitoring system comprising GPS information.
제1항에 있어서,
상기 통합관제 서버는,
상기 교통정보 수집장치로부터 전송받은 데이터를 상기 CCTV 카메라의 촬영 영상과 동일 객체 라벨링하여 상기 차량들을 객체화하고 분석하여 이미지로 변환하는 영상 변환부; 및
상기 변환된 차량 이미지를 화면의 전체 영역 및 배경 공간에 상기 절대좌표를 기준으로 맵핑하는 영상 맵핑부;를 포함하는 것을 특징으로 하는 도로교통 상황 모니터링 시스템.
According to paragraph 1,
The integrated control server,
An image conversion unit that labels the data received from the traffic information collection device as the same object as the video captured by the CCTV camera, objects the vehicles, analyzes them, and converts them into images; and
A road traffic situation monitoring system comprising: an image mapping unit that maps the converted vehicle image to the entire screen area and background space based on the absolute coordinates.
제5항에 있어서,
상기 배경 공간은,
3차원 GIS(Geographic Information System) 모델링으로 생성된 영상을 포함하는 것을 특징으로 하는 도로교통 상황 모니터링 시스템.
According to clause 5,
The background space is,
A road traffic situation monitoring system characterized by including images generated through 3D GIS (Geographic Information System) modeling.
제5항에 있어서,
상기 영상 맵핑부는
웨이블릿(Wavelet transform) 영상 융합 알고리즘을 사용하는 것을 특징으로 하는 도로교통 상황 모니터링 시스템.
According to clause 5,
The image mapping unit
A road traffic situation monitoring system characterized by using a wavelet (Wavelet transform) image fusion algorithm.
제5항에 있어서,
상기 맵핑부는
상기 맵핑된 차량 이미지를 상기 레이더 센서를 통해 획득된 감지데이터에 따라 해당 차선 상에서 해당 속도로 주행하는 형태로 계속 디스플레이하는 것을 특징으로 하는 도로교통 상황 모니터링 시스템.
According to clause 5,
The mapping unit
A road traffic situation monitoring system that continuously displays the mapped vehicle image in the form of driving at a corresponding speed in the corresponding lane according to detection data acquired through the radar sensor.
제1도로구간을 주행하는 차량들을 촬영하는 CCTV 카메라의 촬영 영상을 자동 라벨링하여 해당 차량의 길이, 차량번호를 절대좌표 기반으로 획득하고, 상기 제1도로구간에 이어서 연속되는 제2도로구간을 주행하는 차량들을 탐지하는 레이더 센서의 탐지 결과를 바탕으로 해당 차량들에 대한, 고유 객체 ID, 차선 정보, 진입시간, 지나간 시간, 점유 시간, 차종, 세로 및 가로 좌표, 차량속도를 인식하여 그에 따른 감지 데이터를 절대좌표 기반으로 획득하는 교통정보 수집단계;
상기 교통정보 수집단계를 통해 수집된 상기 CCTV 카메라의 촬영 영상과 상기 감지 데이터들을 네트워크를 통해 통합관제 서버에 전송하는 교통정보 전송단계;
상기 교통정보 수집단계를 통해 전송받은 데이터를 상기 CCTV 카메라의 촬영 영상과 동일 객체 라벨링하여 상기 차량들을 객체화하고 분석하여 이미지로 변환하는 영상 변환단계; 및
상기 변환된 차량 이미지를 통합관제 서버의 모니터 화면의 전체 영역 및 배경 공간에 상기 절대좌표 기준으로 맵핑하는 영상 맵핑단계;를 포함하는 도로교통 상황 모니터링 방법.
By automatically labeling images captured by CCTV cameras that capture vehicles driving on the first road section, the length and license plate number of the vehicle in question are obtained based on absolute coordinates, and the second road section continues after the first road section. Based on the detection results of the radar sensor that detects vehicles, the unique object ID, lane information, entry time, passing time, occupation time, vehicle type, vertical and horizontal coordinates, and vehicle speed for the vehicles are recognized and detected accordingly. Traffic information collection step of acquiring data based on absolute coordinates;
A traffic information transmission step of transmitting the captured images of the CCTV camera and the sensed data collected through the traffic information collection step to an integrated control server through a network;
An image conversion step of objectifying and analyzing the vehicles by labeling the data transmitted through the traffic information collection step as the same object as the video captured by the CCTV camera and converting it into an image; and
A road traffic situation monitoring method comprising: an image mapping step of mapping the converted vehicle image to the entire area and background space of the monitor screen of the integrated control server based on the absolute coordinates.
KR1020220181418A 2022-12-22 Road traffic situation monitoring system and method KR20240099675A (en)

Publications (1)

Publication Number Publication Date
KR20240099675A true KR20240099675A (en) 2024-07-01

Family

ID=

Similar Documents

Publication Publication Date Title
CN110174093B (en) Positioning method, device, equipment and computer readable storage medium
CA2998175C (en) System and method for multipurpose traffic detection and characterization
CA2747337C (en) Multiple object speed tracking system
CN107851125B9 (en) System and method for two-step object data processing through vehicle and server databases to generate, update and transmit accurate road characteristics databases
US8849554B2 (en) Hybrid traffic system and associated method
RU113398U1 (en) VIDEO FIXATION COMPLEX AND MEASUREMENT OF MOVEMENT SPEED AND VEHICLE COORDINATES
CN113706737B (en) Road surface inspection system and method based on automatic driving vehicle
US8294595B1 (en) Speed detector for moving vehicles
EP3806062A1 (en) Detection device and detection system
CN112099040A (en) Whole-course continuous track vehicle tracking system and method based on laser radar network
CN106781520A (en) A kind of traffic offence detection method and system based on vehicle tracking
US11914041B2 (en) Detection device and detection system
RU2587662C1 (en) Automated system for detecting road traffic violation at crossroad, railway crossing or pedestrian crossing
KR102200204B1 (en) 3-D Image Analyzing System Using CCTV Image
US20220035022A1 (en) Process for monitoring vehicles by a plurality of sensors
KR20210091569A (en) Traffic signal control system and method thereof
KR101998834B1 (en) Traffic Information Providing System Enabling Traffic Accident Risk Prediction
CN111311942A (en) Road condition display method and system based on V2X technology, V2X terminal and V2X server
CA3193871A1 (en) Video-based tracking systems and methods
CN111477011A (en) Detection device and detection method for road intersection early warning
RU120270U1 (en) PEDESTRIAN CROSSING CONTROL COMPLEX
JP2002230679A (en) Road monitoring system and road monitoring method
RU164432U1 (en) DEVICE FOR AUTOMATIC PHOTOVIDEO FIXATION OF VIOLATIONS DO NOT GIVE ADVANTAGES TO THE PEDESTRIAN AT THE UNRESOLVED PEDESTRIAN TRANSITION
KR20240099675A (en) Road traffic situation monitoring system and method
CN217426263U (en) Holographic road network road monitoring system