KR102381527B1 - System for estimating traffic volume using stereo image and deep learning and method thereof - Google Patents
System for estimating traffic volume using stereo image and deep learning and method thereof Download PDFInfo
- Publication number
- KR102381527B1 KR102381527B1 KR1020200072865A KR20200072865A KR102381527B1 KR 102381527 B1 KR102381527 B1 KR 102381527B1 KR 1020200072865 A KR1020200072865 A KR 1020200072865A KR 20200072865 A KR20200072865 A KR 20200072865A KR 102381527 B1 KR102381527 B1 KR 102381527B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- vehicle
- traffic volume
- volume calculation
- right image
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
- G08G1/0112—Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/017—Detecting movement of traffic to be counted or controlled identifying vehicles
- G08G1/0175—Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 스테레오 영상과 딥러닝을 이용한 교통량 산정 시스템 및 그 방법에 관한 것으로, 다양한 종류의 차량을 촬영한 광학영상, 열화상 또는 이들의 조합으로부터 상기 차량을 학습하여 학습모델을 생성하고, 광학영상 카메라 및 열화상 센서를 탑재한 각 스테레오 카메라에서 촬영한 좌영상 및 우영상을 상기 학습모델에 각각 적용하여 교통량 산정대상 영역내의 차량을 추정하고, 상기 좌영상 및 우영상에서 추정된 각 차량의 좌표를 통해서 상기 좌영상과 우영상간의 위치나 각도의 차이를 계산하여 부등각사상변환(affine transform) 파라미터를 결정하고, 상기 결정한 부등각사상변환 파라미터를 이용하여 상기 좌영상이나 우영상에서 추정하지 못한 차량을 추가로 탐지하거나 기상조건이나 촬영환경에 따라 차량을 찾아내지 못하는 것을 방지함으로써, 정밀한 차량 탐지를 가능하게 하여 교통량 산정의 정확도를 높일 수 있는 시스템 및 그 방법에 관한 것이다.The present invention relates to a traffic volume calculation system and method using stereo images and deep learning, and to generate a learning model by learning the vehicle from optical images, thermal images, or a combination of various types of vehicles, and optical images The left image and right image captured by each stereo camera equipped with a camera and thermal image sensor are applied to the learning model, respectively, to estimate the vehicle within the target area for traffic volume calculation, and the coordinates of each vehicle estimated from the left image and the right image are calculated Through calculating the difference in position or angle between the left image and the right image, an affine transform parameter is determined, and a vehicle that cannot be estimated from the left image or the right image using the determined inequality transform parameter The present invention relates to a system and method capable of increasing the accuracy of traffic volume calculation by enabling precise vehicle detection by additionally detecting or preventing the vehicle from failing to be found depending on weather conditions or shooting environment.
Description
본 발명은 스테레오 영상과 딥러닝을 이용한 교통량 산정 시스템 및 그 방법에 관한 것으로, 더욱 상세하게는 다양한 종류의 차량을 촬영한 광학영상, 열화상 또는 이들의 조합으로부터 상기 차량을 학습하여 학습모델을 생성하고, 광학영상 카메라 및 열화상 센서를 탑재한 각 스테레오 카메라에서 촬영한 좌영상 및 우영상을 상기 학습모델에 각각 적용하여 교통량 산정대상 영역내의 차량을 추정하고, 상기 좌영상 및 우영상에서 추정된 각 차량의 좌표를 통해서 상기 좌영상과 우영상간의 위치나 각도의 차이를 계산하여 부등각사상변환(affine transform) 파라미터를 결정하고, 상기 결정한 부등각사상변환 파라미터를 이용하여 상기 좌영상이나 우영상에서 추정하지 못한 차량을 추가로 탐지하거나 기상조건이나 촬영환경에 따라 차량을 찾아내지 못하는 것을 방지함으로써, 정밀한 차량 탐지를 가능하게 하여 교통량 산정의 정확도를 높일 수 있는 시스템 및 그 방법에 관한 것이다.The present invention relates to a system and method for calculating traffic volume using stereo images and deep learning, and more particularly, to generate a learning model by learning the vehicle from optical images, thermal images, or a combination thereof. And, by applying the left image and the right image captured by each stereo camera equipped with an optical image camera and a thermal image sensor to the learning model, respectively, to estimate the vehicle in the traffic volume calculation target area, and to estimate the angle estimated from the left image and the right image An affine transform parameter is determined by calculating the difference in position or angle between the left image and the right image through the coordinates of the vehicle, and estimated from the left image or the right image using the determined unequal image transformation parameter To a system and method capable of increasing the accuracy of traffic volume estimation by enabling precise vehicle detection by additionally detecting failed vehicles or preventing vehicles from failing to be found depending on weather conditions or shooting environments.
최근들어 컴퓨터의 그래픽 가속을 담당하는 장치인 GPU(Graphics Processing Unit)와 같은 하드웨어 성능이 크게 향상되면서, 카메라를 이용하여 수집한 영상에서 딥러닝(deep learning)을 통해 객체를 탐지(detection)하고 객체의 영역을 분할(segmentation)하는 연구가 활발하게 수행되고 있다. 예를 들어, 딥러닝과 도로가 촬영된 영상을 이용하여 차량을 탐지하는 연구, 차량 탐지에 따른 교통량 산정 연구 등이 활발하게 진행되고 있는 것이다.Recently, as the performance of hardware such as GPU (Graphics Processing Unit), a device responsible for computer graphics acceleration, has greatly improved, objects are detected and objects are detected through deep learning from images collected using a camera. Research on segmentation of the domain is being actively carried out. For example, research on vehicle detection using deep learning and road-captured images, and traffic volume estimation studies based on vehicle detection, are being actively conducted.
이처럼 딥러닝 기술은 다양한 조명 조건의 영상에서 차량과 사람을 탐지하는 작업이나 교통의 흐름을 산정하는 작업 등에 활발하게 적용되고 있으며, 이를 통해 자전거, 차량, 보행자 등의 교통 흐름을 모니터링하여 분석 정보를 제공하거나, 기상 데이터, 교통 현황, 도로 표면 상태 등 운전자에게 필수적인 도로 환경 정보를 제공할 수 있게 되었다.As such, deep learning technology is being actively applied to the task of detecting vehicles and people in images under various lighting conditions or estimating the traffic flow. It is now possible to provide essential road environment information to drivers, such as weather data, traffic conditions, and road surface conditions.
상기 교통량 산정 연구와 관련하여, 국토교통부의 교통량정보제공시스템에 의하면 기본 교통량 자료가 필요하다고 판단되는 모든 구간에 대하여 광범위하게 실시하는 수시조사 방식과 특정 지점에 자동 차종 분류 조사 장비를 설치하여 1년 365일 24시간 연속으로 통과 차량의 차종, 방향, 시간대별로 측정하는 상시조사 방식이 있다.In relation to the above-mentioned traffic volume calculation study, according to the traffic volume information provision system of the Ministry of Land, Infrastructure and Transport, a frequent survey method that is widely conducted for all sections for which basic traffic data is deemed necessary, and a vehicle classification survey equipment installed at a specific point for one year There is a regular survey method that measures the vehicle type, direction, and time zone of passing vehicles for 24 hours a day, 365 days a year.
상기 수시조사 방식과 상시조사 방식은 교통량조사시스템(AVC : Automatic Vehicle Classification), 차량검지시스템(VDS : Vehicle Detection System), 통행료징수시스템(TCS : Toll Collection System) 등의 조사 장비와 CCTV(Closed Circuit TeleVision)를 통한 인력식 조사와 조사원을 조사지점에 배치하여 차종별, 방향별, 시간대별 교통량 조사를 병행하고 있다.The occasional survey method and the regular survey method include survey equipment such as Automatic Vehicle Classification (AVC), Vehicle Detection System (VDS), Toll Collection System (TCS), and CCTV (Closed Circuit). TeleVision) is used to conduct a human-based survey and investigators are placed at the survey points to conduct a traffic volume survey by vehicle type, direction, and time period.
상기 CCTV는 교통에 대한 정성적인 정보를 판독할 수 있어 보급이 확산되고 있으나, CCTV의 수가 급속하게 증가하면서 관제요원의 눈에만 의존하는 단순 모니터링 방식의 문제점들이 나타나기 시작하였고, CCTV 관제를 위한 통합관제센터는 1인당 평균 46대의 CCTV를 관리하여 중요 이벤트를 수작업으로 감지하기는 쉽지 않은 실정이기 때문에, 영상분석을 통해 전반적인 상황을 인지하는 지능형 CCTV 기술이 필수적으로 필요한 상황이며, 이를 해결하기 위한 일 예로 딥러닝을 사용할 수 있다.The CCTV is spreading because it can read qualitative information about traffic, but as the number of CCTVs increases rapidly, problems with the simple monitoring method that rely only on the eyes of the control personnel begin to appear, and the integrated control for CCTV control Since the center manages 46 CCTVs per person on average and it is not easy to manually detect important events, intelligent CCTV technology that recognizes the overall situation through image analysis is essential. Deep learning can be used.
그러나 상술한 바와 같은 교통량 산정 연구를 수행할 때, 단일 CCTV 영상과 딥러닝을 이용하여 차량을 탐지할 경우 촬영환경에 따른 잡영과 낮은 공간해상도로 인해 인식률이 저하되는 문제가 발생되었다.However, when performing the above-mentioned traffic volume estimation study, when a vehicle was detected using a single CCTV image and deep learning, there was a problem in that the recognition rate was lowered due to noise depending on the shooting environment and low spatial resolution.
또한 광학영상 카메라만 탑재된 CCTV 영상을 이용할 경우 기상 조건 및 촬영환경에 따라 차량이 보호색으로 나타나 차량 탐지가 불가할 수 있기 때문에 이를 보완하기 위한 추가적인 센서의 도입이 필요한 상황이다.In addition, when using CCTV images equipped with only an optical image camera, the vehicle may appear in a protective color depending on weather conditions and shooting environment, making it impossible to detect the vehicle. Therefore, it is necessary to introduce an additional sensor to compensate for this.
또한 스테레오 CCTV와 딥러닝을 이용할 경우 좌우 영상은 영상의 특징이 다를 수 있기 때문에 진단이나 예측의 정확도에 차이가 날 수 있으므로 이를 상호보완하여 구간 내 모든 차량을 탐지할 필요가 있다.In addition, when using stereo CCTV and deep learning, since the characteristics of the left and right images may be different, the accuracy of diagnosis or prediction may differ.
따라서 본 발명에서는 광학영상 카메라 및 열화상 센서를 탑재한 스테레오 카메라에서 촬영한 좌영상 및 우영상을 기 설정한 학습모델에 각각 적용하여 교통량 산정대상 영역내의 차량을 추정하고, 상기 좌영상 및 우영상에서 추정된 각 차량의 좌표를 통해서 상기 좌영상과 우영상간의 위치나 각도의 차이를 계산하여 부등각사상변환 파라미터를 결정하고, 상기 결정된 부등각사상변환 파라미터를 이용하여 상기 좌영상 및 우영상에서 추정하지 못한 차량을 추가로 탐지하거나 기상조건이나 촬영환경에 따라 차량을 찾아내지 못하는 것을 방지함으로써, 정밀한 차량 탐지를 통해 교통량을 정확하게 산정할 수 있는 방안을 제시하고자 한다.Therefore, in the present invention, the left image and the right image captured by a stereo camera equipped with an optical image camera and a thermal image sensor are respectively applied to a preset learning model to estimate the vehicle within the area to be calculated, and from the left image and the right image The asymmetry map transformation parameter is determined by calculating the difference in position or angle between the left image and the right image through the estimated coordinates of each vehicle, and the left image and the right image are not estimated using the determined asymmetric image transformation parameter. This is to suggest a method that can accurately calculate the traffic volume through precise vehicle detection by additionally detecting unsuccessful vehicles or preventing vehicles from being found depending on weather conditions or shooting environment.
다음으로 본 발명의 기술분야에 존재하는 선행기술에 대하여 간단하게 설명하고, 이어서 본 발명이 상기 선행기술에 비해서 차별적으로 이루고자 하는 기술적 사항에 대해서 기술하고자 한다.Next, the prior art existing in the technical field of the present invention will be briefly described, and then the technical matters that the present invention intends to achieve differently from the prior art will be described.
먼저 일본등록특허 제5105400호(2012.10.12.)는 교통량 계측 방법 및 교통량 계측 장치에 관한 것으로, 주 차량이 겹쳐 촬영되었을 경우나, 야간의 차량에 헤드라이트와 혼동하기 쉬운 발광체가 존재하는 경우에도 다른 차량의 유무를 정확하게 판정하여 교통량을 정확하게 계수할 수 있도록 하는 교통량 계측 방법 및 교통량 계측 장치에 관한 것이다.First, Japanese Patent Registration No. 5105400 (October 12, 2012) relates to a traffic volume measurement method and a traffic volume measurement device, even when the main vehicle is photographed overlaid or there is a luminous body that is easily confused with a headlight in a vehicle at night. The present invention relates to a traffic volume measuring method and a traffic volume measuring device for accurately counting the traffic volume by accurately determining the presence or absence of another vehicle.
즉, 상기 선행기술은 도로를 통행하는 차량을 카메라로 촬영하여 얻은 영상을 해석하여 교통량을 계측하는 교통량 계측방법 및 교통량 계측장치에 대해 기재하고 있다.That is, the prior art describes a traffic volume measurement method and a traffic volume measurement device for measuring the traffic volume by analyzing an image obtained by photographing a vehicle passing on the road with a camera.
상기 선행기술은 다양한 촬영환경에서 차량의 존재 유무를 판정하여 교통량을 정확하게 계수할 수 있는 점에서 본 발명과 일부 유사점이 있지만, 본 발명은 광학영상 카메라 및 열화상 센서가 탑재된 스테레오 카메라에서 촬영한 좌영상 및 우영상을 기 설정한 학습모델에 각각 적용하여 차량을 추정하고, 부등각사상변환을 적용하여 좌영상 및 우영상에서 추정하지 못한 차량을 추가로 탐지하는 것이므로, 상기 선행기술과 본 발명은 현저한 구성상 차이점이 있다.The prior art has some similarities with the present invention in that it can accurately count the amount of traffic by determining the presence or absence of a vehicle in various shooting environments, but the present invention is a stereo camera equipped with an optical image camera and a thermal image sensor. Since the vehicle is estimated by applying the left image and the right image to a preset learning model, respectively, and the vehicle that cannot be estimated from the left image and the right image is additionally detected by applying an asymmetry transformation, the prior art and the present invention are There are significant structural differences.
또한 한국등록특허 제1813783호(2017.12.29.)는 컴퓨터 비전을 사용한 교통량 측정 방법 및 시스템에 관한 것으로, 컴퓨터 비전을 이용하여 카메라를 통해 획득한 영상 데이터의 윤곽선을 추출하고, 영상 데이터를 분할하여 관심 영역을 지정하고, 모션 히스토리 영상을 이용하여 상기 지정된 관심 영역 내에서 이동하는 차량들을 인식하고 추적하며, 상기 차량들에 따른 교통 밀도를 계산할 수 있도록 하는 컴퓨터 비전을 사용한 교통량 측정 방법 및 시스템에 관한 것이다.In addition, Korean Patent No. 1813783 (2017.12.29.) relates to a method and system for measuring traffic volume using computer vision. A method and system for measuring traffic volume using computer vision that designates an area of interest, recognizes and tracks vehicles moving within the designated area of interest using motion history images, and calculates traffic density according to the vehicles will be.
즉, 상기 선행기술은 차량들의 교통량을 컴퓨터 비전을 이용해 측정하여 통행시간 및 지체시간 파악, 과속 차량 단속, 사고지역 파악, 도난차량 관리 등의 서비스를 제공하는 방법 및 시스템을 기재하고 있다.That is, the prior art describes a method and system for measuring the traffic volume of vehicles using computer vision to provide services such as identification of travel time and delay time, speeding vehicle control, accident area identification, and stolen vehicle management.
상기 선행기술은 지정된 관심 영역 내에서 이동하는 차량들을 인식, 추적하여, 교통 밀도를 계산하는 점에서 본 발명과 일부 유사점이 있지만, 본 발명은 광학영상 카메라와 열화상 센서가 탑재된 스테레오 카메라에서 촬영한 좌영상 및 우영상을 사전에 설정한 학습모델에 각각 적용하여 차량을 추정하며, 좌영상 및 우영상에서 추정하지 못한 차량을 부등각사상변환을 통해 추가로 탐지하여 교통량을 산정하는 기술적 구성을 제시하고 있으므로 구성상 차이점이 분명하다.The prior art has some similarities with the present invention in that it recognizes and tracks vehicles moving within a designated area of interest and calculates traffic density, but the present invention is photographed with a stereo camera equipped with an optical image camera and a thermal image sensor A vehicle is estimated by applying a left image and a right image to a previously set learning model, and a technical configuration is proposed to calculate the traffic volume by additionally detecting a vehicle that could not be estimated from the left image and the right image through an asymmetry transformation. Therefore, there is a clear difference in composition.
본 발명은 상기와 같은 문제점을 해결하기 위해 창작된 것으로서, 광학영상 카메라와 열화상 센서가 탑재된 스테레오 카메라와 딥러닝을 이용하여 교통량 산정대상 영역내의 차량 탐지의 성능을 향상시킴으로써, 사각지대, 기상조건, 촬영환경 등에 따라 차량을 찾아내지 못하는 것을 방지하고, 정밀한 차량 탐지를 통해 교통량 산정의 정확도를 향상시킬 수 있는 시스템 및 그 방법을 제공하는 것을 목적으로 한다.The present invention was created to solve the above problems, and by improving the performance of vehicle detection in the area subject to traffic volume calculation by using a stereo camera equipped with an optical image camera and a thermal image sensor and deep learning, blind spots, weather An object of the present invention is to provide a system and method capable of preventing a vehicle from being found depending on conditions, shooting environment, etc., and improving the accuracy of traffic volume calculation through precise vehicle detection.
또한 본 발명은 광학영상 카메라 및 열화상 센서를 탑재한 스테레오 카메라에서 촬영한 좌영상 및 우영상을 사전에 설정한 학습모델에 각각 적용하여 차량을 추정하고, 상기 좌영상 및 우영상에서 각각 추정한 차량의 좌표를 통해서 상기 좌영상과 우영상간의 위치나 각도의 차이를 계산하여 부등각사상변환 파라미터를 결정하고, 상기 결정한 부등각사상변환 파라미터를 이용하여 상기 좌영상 및 우영상에서 추정하지 못한 차량을 추가로 탐지할 수 있도록 함으로써, 교통량 산정의 정확도를 높일 수 있는 시스템 및 그 방법을 제공하는 것을 다른 목적으로 한다.In addition, the present invention estimates a vehicle by applying the left image and the right image captured by a stereo camera equipped with an optical image camera and a thermal image sensor to a previously set learning model, respectively, and the vehicle estimated from the left image and the right image, respectively Calculate the difference in position or angle between the left image and the right image through the coordinates to determine an asymmetric map transformation parameter, and add a vehicle that could not be estimated from the left image and the right image using the determined asymmetric image transformation parameter Another object is to provide a system and method that can increase the accuracy of traffic volume estimation by enabling detection by
본 발명의 일 실시예에 따른 스테레오 영상과 딥러닝을 이용한 교통량 산정 시스템은, 스테레오 카메라로 촬영한 좌영상 및 우영상에서 차량을 추정하는 차량 추정부; 상기 좌영상 및 우영상에서 추정된 각 차량의 좌표를 통해서 상기 좌영상과 우영상간의 위치나 각도의 차이를 계산하여 부등각사상변환 파라미터를 결정하는 부등각사상변환 파라미터 결정부; 상기 결정한 부등각사상변환 파라미터를 이용하여 상기 좌영상 및 우영상에서 추정하지 못한 차량을 추가로 탐지하는 차량 탐지부; 및 상기 탐지한 결과를 이용하여 단위시간에 따른 교통량을 산정하는 교통량 산정부;를 포함하는 것을 특징으로 한다.A traffic volume calculation system using a stereo image and deep learning according to an embodiment of the present invention includes: a vehicle estimator for estimating a vehicle from a left image and a right image taken with a stereo camera; an asymmetry image transformation parameter determining unit for determining an asymmetric image transformation parameter by calculating a difference in position or angle between the left image and the right image through the coordinates of each vehicle estimated from the left image and the right image; a vehicle detector for additionally detecting a vehicle that cannot be estimated from the left image and the right image using the determined asymmetry map transformation parameter; and a traffic volume calculation unit that calculates the traffic volume according to a unit time by using the detection result.
또한 상기 스테레오 카메라로 촬영한 좌영상 및 우영상은, 광학영상, 열화상 또는 이들의 조합을 포함하며, 상기 차량 탐지부는, 상기 광학영상, 열화상 또는 이들의 조합을 통해서 차량이 겹쳐져 있는 사각지대나, 안개, 황사 및 비를 포함한 기상조건이나, 역광을 포함한 촬영환경에 따라 차량을 탐지하지 못하는 것을 방지하는 것을 더 포함하는 것을 특징으로 한다.In addition, the left image and the right image taken with the stereo camera include an optical image, a thermal image, or a combination thereof, and the vehicle detection unit is a blind spot where vehicles are overlapped through the optical image, thermal image, or a combination thereof. B, it characterized in that it further comprises preventing the vehicle from being detected according to weather conditions including fog, yellow sand and rain, or the shooting environment including backlight.
또한 상기 교통량 산정 시스템은, 다양한 종류의 차량을 촬영한 광학영상, 열화상 또는 이들의 조합으로부터 상기 차량을 학습하여 차량 추정용 학습모델을 생성하는 학습부;를 더 포함하며, 상기 차량 추정부는, 상기 스테레오 카메라에서 촬영한 광학영상, 열화상 또는 이들의 조합에 대한 좌영상 및 우영상을 상기 차량 추정용 학습모델에 각각 입력하여, 상기 좌영상 및 우영상에 포함된 차량에 대한 특징점을 추출하고, 상기 추출한 특징점을 연결하여 바운딩박스를 구성함으로써, 상기 좌영상 및 우영상에 존재하는 차량을 추정하는 것을 더 포함하는 것을 특징으로 한다.In addition, the traffic volume calculation system further includes a learning unit that generates a learning model for vehicle estimation by learning the vehicle from optical images, thermal images, or a combination thereof, obtained by photographing various types of vehicles, wherein the vehicle estimation unit includes: By inputting the left image and the right image of the optical image, the thermal image, or a combination thereof taken by the stereo camera into the learning model for vehicle estimation, respectively, the feature points for the vehicle included in the left image and the right image are extracted, and , estimating the vehicle present in the left image and the right image by configuring a bounding box by connecting the extracted feature points.
또한 상기 차량 탐지부는, 상기 좌영상(또는 우영상)에서 추정된 차량을 나타내는 바운딩박스의 좌표를 확인하고, 상기 결정한 부등각사상변환 파라미터를 이용하여 상기 좌영상(또는 우영상)에서 추정된 차량을 나타내는 바운딩박스의 좌표와 대응하는 상기 우영상(또는 좌영상)의 좌표를 확인하고, 상기 확인한 우영상(또는 좌영상)의 좌표에 상기 차량 추정부에서 추정한 차량을 나타내는 바운딩박스가 없는 경우 상기 우영상(또는 좌영상)의 좌표에 바운딩박스를 표시하여 차량이 위치한 것으로 결정하며, 상기 좌영상 및 우영상에서 각각 추정한 차량의 수를 일치시킴으로써, 상기 좌영상 및 우영상에서 추정하지 못한 차량을 추가로 탐지하도록 하는 것을 특징으로 한다.In addition, the vehicle detector, confirms the coordinates of the bounding box indicating the vehicle estimated from the left image (or right image), and the vehicle estimated from the left image (or the right image) using the determined asymmetry transformation parameter Check the coordinates of the right image (or left image) corresponding to the coordinates of the bounding box representing By displaying a bounding box on the coordinates of the right image (or left image) to determine that the vehicle is located, and by matching the number of vehicles estimated in the left image and the right image, respectively, the vehicle that cannot be estimated in the left image and the right image It is characterized in that it is further detected.
또한 상기 교통량 산정 시스템은, 상기 교통량 산정부에서 산정한 특정 교통량 산정대상 영역에서의 단위시간에 따른 교통량 산정정보를 정부나 지방자치단체, 기관, 기업 또는 이들의 조합을 포함한 교통량 산정정보 이용 단말로 제공하는 교통량 산정정보 제공부;를 더 포함하는 것을 특징으로 한다.In addition, the traffic volume calculation system transmits the traffic volume calculation information according to the unit time in the specific traffic volume calculation target area calculated by the traffic volume calculation unit to the traffic volume calculation information use terminal including the government, local government, institution, company, or a combination thereof. It characterized in that it further comprises; a traffic volume calculation information providing unit to provide.
아울러, 본 발명의 일 실시예에 따른 스테레오 영상과 딥러닝을 이용한 교통량 산정 방법은, 교통량 산정 시스템에서, 스테레오 카메라로 촬영한 좌영상 및 우영상에서 차량을 추정하는 차량 추정 단계; 상기 교통량 산정 시스템에서, 상기 좌영상 및 우영상에서 추정된 각 차량의 좌표를 통해서 상기 좌영상과 우영상간의 위치나 각도의 차이를 계산하여 부등각사상변환 파라미터를 결정하는 부등각사상변환 파라미터 결정 단계; 상기 교통량 산정 시스템에서, 상기 결정한 부등각사상변환 파라미터를 이용하여 상기 좌영상 및 우영상에서 추정하지 못한 차량을 추가로 탐지하는 차량 탐지 단계; 및 상기 교통량 산정 시스템에서, 상기 탐지한 결과를 이용하여 단위시간에 따른 교통량을 산정하는 교통량 산정 단계;를 포함하는 것을 특징으로 한다.In addition, the traffic volume calculation method using a stereo image and deep learning according to an embodiment of the present invention, in the traffic volume calculation system, the vehicle estimation step of estimating the vehicle from the left image and the right image taken with a stereo camera; In the traffic volume calculation system, an asymmetric map transformation parameter determination step of determining the asymmetric map transformation parameter by calculating the difference in position or angle between the left image and the right image through the coordinates of each vehicle estimated from the left image and the right image ; a vehicle detection step of additionally detecting, in the traffic volume calculation system, a vehicle that cannot be estimated from the left image and the right image by using the determined asymmetric map transformation parameter; and a traffic volume calculation step of calculating, in the traffic volume calculation system, the traffic volume according to a unit time by using the detected result.
또한 상기 스테레오 카메라로 촬영한 좌영상 및 우영상은, 광학영상, 열화상 또는 이들의 조합을 포함하며, 상기 차량 탐지 단계는, 상기 광학영상, 열화상 또는 이들의 조합을 통해서 차량이 겹쳐져 있는 사각지대나, 안개, 황사 및 비를 포함한 기상조건이나, 역광을 포함한 촬영환경에 따라 차량을 탐지하지 못하는 것을 방지하는 것을 더 포함하는 것을 특징으로 한다.In addition, the left image and the right image taken with the stereo camera include an optical image, a thermal image, or a combination thereof, and the vehicle detection step is a blind spot where vehicles are overlapped through the optical image, thermal image or a combination thereof. It characterized in that it further comprises preventing the vehicle from being detected according to the terrain, weather conditions including fog, yellow sand and rain, or the shooting environment including backlight.
또한 상기 교통량 산정 방법은, 상기 교통량 산정 시스템에서, 다양한 종류의 차량을 촬영한 광학영상, 열화상 또는 이들의 조합으로부터 상기 차량을 학습하여 차량 추정용 학습모델을 생성하는 학습 단계;를 더 포함하며, 상기 차량 추정 단계는, 상기 교통량 산정 시스템에서, 상기 스테레오 카메라에서 촬영한 광학영상, 열화상 또는 이들의 조합에 대한 좌영상 및 우영상을 상기 차량 추정용 학습모델에 각각 입력하여, 상기 좌영상 및 우영상에 포함된 차량에 대한 특징점을 추출하고, 상기 추출한 특징점을 연결하여 바운딩박스를 구성함으로써, 상기 좌영상 및 우영상에 존재하는 차량을 추정하는 것을 더 포함하는 것을 특징으로 한다.In addition, the traffic volume calculation method, in the traffic volume calculation system, a learning step of generating a learning model for vehicle estimation by learning the vehicle from optical images, thermal images, or a combination thereof obtained by photographing various types of vehicles; , In the vehicle estimation step, the left image and the right image of the optical image, thermal image, or a combination thereof captured by the stereo camera are respectively input to the learning model for vehicle estimation in the traffic volume calculation system, and the left image and estimating a vehicle existing in the left image and the right image by extracting feature points for a vehicle included in the right image and connecting the extracted feature points to configure a bounding box.
또한 상기 차량 탐지 단계는, 상기 교통량 산정 시스템에서, 상기 좌영상(또는 우영상)에서 추정된 차량을 나타내는 바운딩박스의 좌표를 확인하는 단계; 상기 교통량 산정 시스템에서, 상기 결정한 부등각사상변환 파라미터를 이용하여 상기 좌영상(또는 우영상)에서 추정된 차량을 나타내는 바운딩박스의 좌표와 대응하는 상기 우영상(또는 좌영상)의 좌표를 확인하는 단계; 및 상기 교통량 산정 시스템에서, 상기 확인한 우영상(또는 좌영상)의 좌표에 상기 차량 추정 단계에서 추정한 차량을 나타내는 바운딩박스가 없는 경우, 상기 우영상(또는 좌영상)의 좌표에 바운딩박스를 표시하여 차량이 위치한 것으로 결정하는 단계;를 더 포함하며, 상기 교통량 산정 시스템에서, 상기 좌영상과 우영상에서 각각 추정한 차량의 수를 일치시킴으로써, 상기 좌영상과 우영상에서 추정하지 못한 차량을 추가로 탐지하도록 하는 것을 특징으로 한다.In addition, the vehicle detection step may include: in the traffic volume calculation system, checking coordinates of a bounding box indicating a vehicle estimated from the left image (or right image); In the traffic volume calculation system, the coordinates of the right image (or the left image) corresponding to the coordinates of the bounding box indicating the vehicle estimated from the left image (or the right image) using the determined asymmetry transformation parameter are confirmed. step; and in the traffic volume calculation system, if there is no bounding box indicating the vehicle estimated in the vehicle estimation step in the coordinates of the checked right image (or left image), a bounding box is displayed in the coordinates of the right image (or left image) and determining that the vehicle is located; further comprising, in the traffic volume calculation system, by matching the number of vehicles estimated in the left image and the right image, respectively, additionally detecting a vehicle that was not estimated in the left image and the right image characterized by doing so.
또한 상기 교통량 산정 방법은, 상기 교통량 산정 시스템에서, 상기 교통량 산정 단계에서 산정한 특정 교통량 산정대상 영역에서의 단위시간에 따른 교통량 산정정보를 정부나 지방자치단체, 기관, 기업 또는 이들의 조합을 포함한 교통량 산정정보 이용 단말로 제공하는 교통량 산정정보 제공 단계;를 더 포함하는 것을 특징으로 한다.In addition, the traffic volume calculation method includes, in the traffic volume calculation system, the traffic volume calculation information according to the unit time in the specific traffic volume calculation target area calculated in the traffic volume calculation step, including the government, local government, institution, company, or a combination thereof. It characterized in that it further comprises; providing the traffic volume estimation information provided to the traffic volume estimation information using terminal.
이상에서와 같이 본 발명의 스테레오 영상과 딥러닝을 이용한 교통량 산정 시스템 및 그 방법에 따르면, 광학영상 카메라 및 열화상 센서를 탑재한 스테레오 카메라에서 촬영한 좌영상 및 우영상을 기 설정한 학습모델에 각각 적용하여 교통량 산정대상 영역내의 차량을 추정하고, 상기 좌영상 및 우영상에서 추정한 각 차량의 좌표를 통해서 상기 좌영상과 우영상간의 위치나 각도의 차이를 계산하여 부등각사상변환 파라미터를 결정하고, 이를 토대로 상기 좌영상 및 우영상에서 추정하지 못한 차량을 추가로 탐지하거나 기상조건이나 촬영환경에 따라 차량을 찾아내지 못하는 것을 방지함으로써, 정밀한 차량 탐지를 가능하게 하여 교통량 산정의 정확도를 높일 수 있는 효과가 있다.As described above, according to the traffic volume calculation system and method using stereo images and deep learning of the present invention, the left and right images captured by the stereo camera equipped with an optical image camera and a thermal image sensor are applied to a preset learning model. Estimate the vehicle within the area to be calculated by applying each, and calculate the difference in position or angle between the left image and the right image through the coordinates of each vehicle estimated from the left image and the right image to determine an asymmetry transformation parameter, , based on this, it is possible to increase the accuracy of traffic volume calculation by enabling precise vehicle detection by additionally detecting a vehicle that cannot be estimated in the left and right images or preventing the vehicle from being found depending on weather conditions or shooting environment. there is
도 1은 본 발명의 일 실시예에 따른 스테레오 영상과 딥러닝을 이용한 교통량 산정 시스템의 전체 구성을 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른 스테레오 영상과 딥러닝을 이용한 교통량 산정 과정을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 교통량 산정 시스템의 구성을 상세하게 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른 스테레오 카메라의 구성과 동작을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 스테레오 영상과 딥러닝을 이용한 차량 추정 과정을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 스테레오 영상과 딥러닝을 이용한 차량 추정 결과와 좌영상과 우영상 간의 부등각사상변환 파라미터를 적용한 차량 탐지 과정을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 스테레오 영상과 딥러닝을 이용한 교통량 산정 방법의 동작과정을 상세하게 나타낸 순서도이다.
도 8은 본 발명의 일 실시예에 따른 좌영상과 우영상 내의 모든 차량을 탐지하는 과정을 상세하게 나타낸 순서도이다.
도 9는 본 발명의 일 실시예에 따른 교통량 산정 시스템의 하드웨어 구조를 나타낸 도면이다.1 is a view showing the overall configuration of a traffic volume calculation system using a stereo image and deep learning according to an embodiment of the present invention.
2 is a view for explaining a traffic volume calculation process using a stereo image and deep learning according to an embodiment of the present invention.
3 is a diagram illustrating in detail the configuration of a traffic volume calculation system according to an embodiment of the present invention.
4 is a diagram for explaining the configuration and operation of a stereo camera according to an embodiment of the present invention.
5 is a diagram for explaining a vehicle estimation process using a stereo image and deep learning according to an embodiment of the present invention.
6 is a view for explaining a vehicle detection process to which a vehicle estimation result using a stereo image and deep learning and an asymmetry map transformation parameter between a left image and a right image are applied according to an embodiment of the present invention.
7 is a flowchart illustrating in detail an operation process of a method for calculating a traffic volume using a stereo image and deep learning according to an embodiment of the present invention.
8 is a flowchart illustrating in detail a process of detecting all vehicles in a left image and a right image according to an embodiment of the present invention.
9 is a diagram illustrating a hardware structure of a traffic volume calculation system according to an embodiment of the present invention.
이하, 첨부한 도면을 참조하여 본 발명의 스테레오 영상과 딥러닝을 이용한 교통량 산정 시스템 및 그 방법에 대한 바람직한 실시 예를 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다. 또한 본 발명의 실시 예들에 대해서 특정한 구조적 내지 기능적 설명들은 단지 본 발명에 따른 실시 예를 설명하기 위한 목적으로 예시된 것으로, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는 것이 바람직하다.Hereinafter, with reference to the accompanying drawings, a preferred embodiment of the system and method for calculating the amount of traffic using a stereo image and deep learning of the present invention will be described in detail. Like reference numerals in each figure indicate like elements. In addition, specific structural or functional descriptions for the embodiments of the present invention are only exemplified for the purpose of describing the embodiments according to the present invention, and unless otherwise defined, all terms used herein, including technical or scientific terms They have the same meaning as commonly understood by those of ordinary skill in the art to which the present invention pertains. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present specification. It is preferable not to
도 1은 본 발명의 일 실시예에 따른 스테레오 영상과 딥러닝을 이용한 교통량 산정 시스템의 전체 구성을 나타낸 도면이다.1 is a view showing the overall configuration of a traffic volume calculation system using a stereo image and deep learning according to an embodiment of the present invention.
도 1에 도시된 바와 같이, 본 발명은 교통량 산정 시스템(100), 스테레오 카메라(200), 데이터베이스(300), 교통량 산정정보 이용 단말(400) 등을 포함하여 구성된다.As shown in FIG. 1 , the present invention is configured to include a traffic
상기 교통량 산정 시스템(100)은 광학영상 카메라와 열화상 센서가 탑재되어 있는 스테레오 카메라(200)에서 촬영한 좌영상 및 우영상을 사전에 학습해둔 차량 추정용 학습모델에 각각 적용하여 교통량 산정대상 영역내의 차량을 추정한다.The traffic
즉 상기 교통량 산정 시스템(100)에서 단일의 광학영상 카메라와 차량 추정용 학습모델을 이용하여 차량을 탐지하는 경우에는 사각지대로 인해 차량을 인식하지 못하거나, 촬영환경에 따른 잡영과 낮은 공간해상도로 인해 차량의 인식률이 저하될 수 있으며, 또한 광학영상 카메라를 이용할 경우 기상조건에 따라 차량이 보호색으로 나타나 차량의 추정이 불가능할 수 있으므로, 본 발명에서는 이를 보완하기 위해서 제1 카메라(210) 및 제2 카메라(220)로 이루어진 광학영상 카메라 이외에 제1 열화상 센서(230) 및 제2 열화상 센서(240)를 추가로 탑재한 스테레오 카메라(200)를 사용한다.That is, when the traffic
이에 따라 교통량 산정대상 영역내의 차량 추정의 성능이 향상되어, 사각지대(예를 들어, 차량이 겹쳐져 있어 후미에 위치한 차량이 어느 하나의 광학영상 카메라나 열화상 센서에서는 확인되지 않지만, 다른 광학영상 카메라나 열화상 센서에서는 확인되는 경우), 기상조건, 촬영환경 등에 따라 차량을 찾아내지 못하는 것을 방지할 수 있게 된다.Accordingly, the performance of vehicle estimation within the area to be estimated for traffic volume is improved, so that a vehicle located at the rear of a blind spot (for example, due to overlapping vehicles is not identified by either optical imaging camera or thermal imaging sensor, but by other optical imaging cameras or It is possible to prevent the vehicle from being found depending on the thermal image sensor), weather conditions, and shooting environment.
이때 상기 차량 추정용 학습모델은 다양한 종류의 차량을 촬영한 복수의 광학영상, 열화상 또는 이들의 조합으로부터 상기 차량을 학습하여 생성한 것으로서, 상기 교통량 산정 시스템(100)에서 관련 데이터를 지속적으로 수집하여 업데이트할 수 있다.At this time, the learning model for vehicle estimation is generated by learning the vehicle from a plurality of optical images, thermal images, or a combination of various types of vehicles, and the traffic
상기 학습은 영상 학습에 최적화된 CNN(Convolutional Neural Network) 학습네트워크를 사용하는 것이 바람직하지만 이에 한정되는 것은 아니며, 그 이외에 ANN(Artificial Neural Network), DCNN(Deep CNN) 등과 같은 다양한 학습네트워크를 사용할 수 있다.For the above learning, it is preferable to use a CNN (Convolutional Neural Network) learning network optimized for image learning, but it is not limited thereto. In addition, various learning networks such as ANN (Artificial Neural Network) and DCNN (Deep CNN) can be used. there is.
또한 상기 교통량 산정 시스템(100)은 상기 차량 추정용 학습모델을 통해 상기 스테레오 카메라(200)에서 촬영한 좌영상 및 우영상으로부터 차량을 추정한 이후, 상기 좌영상 및 우영상에서 추정된 각 차량의 좌표를 통해서 상기 좌영상과 우영상간의 위치나 각도의 차이를 계산하여 부등각사상변환 파라미터를 결정하고, 상기 결정한 부등각사상변환 파라미터를 토대로 상기 좌영상과 우영상에서 탐지하지 못한 차량을 추가로 탐지하여 상기 좌영상과 우영상의 차량 대수를 일치시키며, 이를 토대로 교통량 산정대상 영역을 통과하는 차량의 교통량을 산정한다.In addition, the traffic
즉 상기 스테레오 카메라(200)와 차량 추정용 학습모델을 이용할 경우, 상기 스테레오 카메라(200)에서 촬영한 좌영상 및 우영상은 영상의 특징이 다를 수 있기 때문에 진단이나 예측의 정확도에 차이가 날 수 있으므로, 본 발명에서는 이를 상호보완하여 교통량 산정대상 영역내의 모든 차량을 탐지하기 위해서 부등각사상변환 파라미터를 사용한다. 이에 따라 상기 좌영상 및 우영상에서 추정하지 못한 차량을 추가로 탐지할 수 있으며, 이에 따라 교통량 산정의 정확도를 높일 수 있게 된다.That is, when the
여기서 상기 부등각사상변환(affine transform)은 상기 스테레오 카메라(200)를 통해 동일한 공간을 촬영한 좌영상과 우영상에서, 상기 공간의 차이에 대한 함수이다. 즉 상기 부등각사상변환은 한 벡터 공간을 다른 벡터 공간에 대응시키고, 직선과 거리의 비를 보존하는 변환으로서, 상기 스테레오 카메라(200)에서 촬영한 좌영상과 우영상 간의 축척(scaling), 회전(rotation) 또는 이동(translation) 등과 같은 일차변환이다.Here, the affine transform is a function of the space difference between the left image and the right image photographed in the same space through the
또한 상기 교통량 산정 시스템(100)은 특정 교통량 산정대상 영역에서 산정한 교통량 산정정보를 네트워크를 통해 상기 교통량 산정정보 이용 단말(400)로 제공할 수 있다.In addition, the traffic
이때 상기 네트워크는, 인터넷, WiFi, 4G, 5G, LTE 등과 같은 다양한 유선 및 무선통신방법을 지원함으로써, 상기 교통량 산정 시스템(100)과 상기 스테레오 카메라(200) 사이에 영상데이터를 송수신하며, 상기 교통량 산정 시스템(100)과 교통량 산정정보 이용 단말(400) 사이에 교통량 산정정보에 대한 데이터를 송수신할 수 있도록 한다.At this time, the network supports various wired and wireless communication methods such as the Internet, WiFi, 4G, 5G, LTE, etc., thereby transmitting and receiving image data between the traffic
한편 상기 교통량 산정 시스템(100)은 독립적인 플랫폼 형태로 구성되어, 복수의 스테레오 카메라(200)에서 촬영한 좌영상 및 우영상을 토대로 각 교통량 산정대상 영역내의 교통량 산정을 수행하는 것을 예로 하여 설명하였지만, 상기 스테레오 카메라(200)와 일체로 구성하여 해당 교통량 산정대상 영역내의 교통량 산정을 수행할 수 있음을 밝혀둔다.On the other hand, the traffic
상기 스테레오 카메라(200)는 광학영상 카메라로서 교통량 산정대상 영역을 촬영하여 좌영상 및 우영상을 생성하는 제1 카메라(210) 및 제2 카메라(220)와, 상기 좌영상 및 우영상에 대한 열화상을 생성하는 제1 열화상 센서(230) 및 제2 열화상 센서(240)를 포함하며, 상기 좌영상 및 우영상에 대한 광학영상이나 열화상을 네트워크를 통해 상기 교통량 산정 시스템(100)으로 전송한다.The
즉 상기 스테레오 카메라(200)는 단일의 광학영상 카메라만을 사용하는 경우 역광 등의 촬영조건이나 안개, 황사 및 비 등의 기상조건에 따라 차량의 탐지가 불가능할 경우가 발생할 수 있는데, 이를 방지하기 위해서 적어도 2개 이상의 광학영상 카메라 및 열화상 센서를 구비함으로써, 상기 교통량 산정대상 영역을 이동하는 차량을 정확하게 탐지할 수 있도록 한 것이다.(도 4 참조)That is, when only a single optical image camera is used, the
상기 데이터베이스(300)는 상기 교통량 산정 시스템(100)에서 생성한 차량 추정용 학습모델을 저장하여 관리하는 학습모델 DB(310), 상기 교통량 산정 시스템(100)에서 각 스테레오 카메라(200)로부터 수집하는 광학영상, 열화상 또는 이들의 조합을 저장하여 관리하는 영상데이터 DB(320), 상기 교통량 산정 시스템(100)에서 상기 광학영상, 열화상 또는 이들의 조합으로부터 확인한 차량의 탐지결과를 통해 수행하는 교통량 산정정보를 저장하여 관리하는 교통량 산정정보 DB(330) 등을 포함하여 구성된다.The
또한 상기 데이터베이스(300)는 도면에 도시하지는 않았지만, 각 지역별로 설치되어 있는 각 스테레오 카메라(200)의 정보(예를 들어, 식별 정보, 설치 위치 등)를 저장하여 관리할 수 있다.In addition, although not shown in the drawing, the
상기 교통량 산정정보 이용 단말(400)은 정부나 지방자치단체, 기관, 기업 등에 소속된 관리자나 개인 사용자가 사용하는 스마트폰, 태블릿, PC 등의 통신단말로서, 상기 교통량 산정 시스템(100)에서 수행한 각 교통량 산정대상 영역의 교통량 산정정보를 네트워크를 통해 상기 교통량 산정 시스템(100)으로부터 제공받아 활용한다.The traffic volume calculation
다음에는, 본 발명의 일 실시예에 따른 교통량 산정 시스템에서의 스테레오 영상과 딥러닝을 이용한 차량 탐지 및 교통량 산정 과정을 도 2를 참조하여 보다 상세하게 설명한다.Next, a process of detecting a vehicle and calculating a traffic volume using a stereo image and deep learning in a traffic volume calculation system according to an embodiment of the present invention will be described in more detail with reference to FIG. 2 .
도 2는 본 발명의 일 실시예에 따른 스테레오 영상과 딥러닝을 이용한 교통량 산정 과정을 설명하기 위한 도면이다.2 is a view for explaining a traffic volume calculation process using a stereo image and deep learning according to an embodiment of the present invention.
도 2에 도시된 바와 같이, 본 발명의 상기 교통량 산정 시스템(100)은 차량 추정용 학습모델을 생성하여, 상기 학습모델 DB(310)에 저장한다(①). 즉 상기 교통량 산정 시스템(100)은 다양한 종류의 차량을 촬영한 복수의 광학영상, 열화상 또는 이들을 조합한 영상데이터를 수집하고, 상기 수집한 영상데이터로부터 상기 다양한 종류의 차량을 학습하여 생성한 차량 추정용 학습모델을 상기 학습모델 DB(310)에 저장하여 관리하는 것이다.As shown in FIG. 2 , the traffic
이처럼 상기 차량 추정용 학습모델을 생성하여 상기 데이터베이스(300)에 저장하여 관리하는 상태에서, 상기 교통량 산정 시스템(100)은 네트워크를 통해 상기 스테레오 카메라(200)에서 촬영한 광학영상, 열화상 또는 이들의 조합에 대한 좌영상 및 우영상을 수집하고, 상기 수집한 좌영상 및 우영상을 상기 차량 추정용 학습모델의 입력으로 하여, 상기 좌영상 및 우영상에서 각 차량을 추정한다(②).In this way, in the state where the learning model for vehicle estimation is created, stored in the
이어서, 상기 교통량 산정 시스템(100)은 상기 좌영상 및 우영상에서 추정한 각 차량의 좌표를 통해서 상기 좌영상과 우영상간의 위치나 각도 차이를 계산하여 부등각사상변환 파라미터를 결정한다(③).Next, the traffic
또한 상기 교통량 산정 시스템(100)은 상기 결정한 부등각사상변환 파라미터를 이용하여 상기 좌영상 및 우영상 내의 차량을 추가로 탐지한다(④). 즉 상기 좌영상과 우영상에서 탐지하지 못한 차량을 추가로 탐지하여 상기 좌영상과 우영상의 차량 대수를 일치시키는 것이다.(도 6 참조)In addition, the traffic
또한 상기 교통량 산정 시스템(100)은 상기 ④ 과정에서 추가로 탐지한 결과를 이용하여, 교통량 산정대상 영역을 통과하는 차량평균속도, 차량통과시간 등을 고려하여 단위시간(예를 들어, 일, 시간, 15분, 5분 등)에 따른 차량의 교통량을 산정하고, 상기 산정한 교통량 산정정보를 상기 교통량 산정정보 DB(330)에 저장한다(⑤).In addition, the traffic
이렇게 산정된 각 교통량 산정대상 영역별 교통량 산정정보는 정부나 지방자치단체, 기관, 기업 등에 소속된 관리자나 개인 사용자의 요청에 따라 네트워크를 통해 상기 관리자나 개인 사용자가 소지한 상기 교통량 산정정보 이용 단말(400)로 제공된다.The traffic volume calculation information for each traffic volume calculation target area calculated in this way is transmitted through the network at the request of the manager or individual user belonging to the government, local government, institution, company, etc. (400).
도 3은 본 발명의 일 실시예에 따른 교통량 산정 시스템의 구성을 상세하게 나타낸 도면이다.3 is a diagram illustrating in detail the configuration of a traffic volume calculation system according to an embodiment of the present invention.
도 3에 도시된 바와 같이, 상기 교통량 산정 시스템(100)은 학습데이터 수집부(110), 학습부(120), 영상데이터 수신부(130), 차량 추정부(140), 부등각사상변환 파라미터 결정부(150), 차량 탐지부(160), 교통량 산정부(170), 교통량 산정정보 제공부(180), 메모리(190) 등으로 포함하여 구성된다.As shown in FIG. 3 , the traffic
또한 상기 교통량 산정 시스템(100)은 도면에 도시하지는 않았지만, 각 구성 부분에 동작전원을 공급하는 전원부, 각종 기능에 대한 데이터 입력을 위한 입력부, 각종 동작프로그램의 업데이트를 관리하는 업데이트 관리부, 상기 교통량 산정 시스템(100)의 각 구성 부분의 동작을 총괄적으로 제어하는 제어부 등을 추가로 포함할 수 있다.In addition, although not shown in the drawing, the traffic
상기 학습데이터 수집부(110)는 다양한 종류의 차량이 촬영된 복수의 광학영상, 열화상 또는 이들의 조합을 포함한 영상데이터를 수집한다.The learning data collection unit 110 collects image data including a plurality of optical images, thermal images, or a combination thereof of various types of vehicles.
상기 학습부(120)는 상기 학습데이터 수집부(110)에서 수집한 다양한 종류의 차량을 촬영한 복수의 광학영상, 열화상 또는 이들의 조합을 포함한 영상데이터로부터 상기 차량을 학습하여 차량 추정용 학습모델을 생성하고, 상기 생성한 차량 추정용 학습모델을 상기 학습모델 DB(310)에 저장하여 관리하도록 한다.The learning unit 120 learns the vehicle from image data including a plurality of optical images, thermal images, or a combination thereof obtained by photographing various types of vehicles collected by the learning data collection unit 110 to learn vehicle estimation. A model is generated, and the generated learning model for vehicle estimation is stored and managed in the
한편 상기 학습데이터 수집부(110)는 상기 차량 추정용 학습모델에 필요한 영상데이터를 지속적으로 수집할 수 있으며, 상기 학습부(120)는 상기 수집한 영상데이터를 토대로 상기 차량 추정용 학습모델을 업데이트할 수 있다.Meanwhile, the learning data collection unit 110 may continuously collect image data required for the vehicle estimation learning model, and the learning unit 120 updates the vehicle estimation learning model based on the collected image data. can do.
상기 영상데이터 수신부(130)는 상기 스테레오 카메라(200)에서 촬영한 광학영상, 열화상 또는 이들의 조합에 대한 좌영상 및 우영상을 수집하고, 상기 수집한 좌영상 및 우영상을 각 스테레오 카메라(200)별로 분류하여 상기 영상데이터 DB(320)에 저장하며, 상기 수집한 좌영상 및 우영상을 상기 차량 추정부(140)로 제공한다.The image data receiving unit 130 collects the left and right images of the optical image, thermal image, or a combination thereof taken by the
상기 차량 추정부(140)는 상기 영상데이터 수집부(130)로부터 입력받은 상기 스테레오 카메라(200)에서 촬영한 좌영상 및 우영상으로부터 차량을 추정하고, 상기 좌영상 및 우영상에서 추정한 각 차량의 추정결과를 상기 부등각사상변환 파라미터 결정부(150)로 출력한다.The
즉 상기 차량 추정부(140)는 상기 스테레오 카메라(200)에서 촬영한 광학영상, 열화상 또는 이들의 조합에 대한 좌영상 및 우영상을 상기 차량 추정용 학습모델에 각각 입력으로 하여, 상기 좌영상 및 우영상에 포함된 차량에 대한 특징점을 추출하고, 상기 추출한 특징점을 연결하여 바운딩박스를 구성하여, 상기 좌영상 및 우영상에 존재하는 차량을 추정하는 것이다.That is, the
상기 부등각사상변환 파라미터 결정부(150)는 상기 차량 추정부(140)에서 추정한 상기 좌영상 및 우영상에서의 각 차량의 좌표를 통해서 상기 좌영상과 우영상간의 위치나 각도의 차이를 계산하여 부등각사상변환 파라미터를 결정하며, 상기 결정한 부등각사상변환 파라미터를 상기 차량 탐지부(160)로 출력한다.The asymmetric map transformation parameter determining unit 150 calculates a difference in position or angle between the left image and the right image through the coordinates of each vehicle in the left image and the right image estimated by the
상기 차량 탐지부(160)는 상기 부등각사상변환 파라미터 결정부(150)에서 결정한 부등각사상변환 파라미터를 이용하여, 상기 차량 추정부(140)에서 추정하지 못한 차량을 추가로 탐지하고, 상기 추가로 탐지한 차량에 대한 정보를 상기 교통량 산정부(170)로 출력한다.The vehicle detection unit 160 additionally detects a vehicle that has not been estimated by the
즉 상기 차량 탐지부(160)는 상기 광학영상, 열화상 또는 이들의 조합을 포함한 영상데이터에서 차량이 겹쳐져 있는 사각지대나, 안개, 황사 및 비를 포함한 기상조건이나, 역광을 포함한 촬영환경에 따라 차량을 탐지하지 못하는 것을 방지하는 것이다.That is, the vehicle detection unit 160 is a blind spot where vehicles are overlapped in the image data including the optical image, thermal image, or a combination thereof, weather conditions including fog, yellow sand and rain, or shooting environment including backlight. This is to prevent the vehicle from being detected.
이를 위해서, 상기 차량 탐지부(160)는 상기 차량 추정부(140)를 통해 추정한 상기 좌영상(또는 우영상)에서 추정된 차량을 나타내는 바운딩박스의 좌표를 확인한 후, 상기 부등각사상변환 파라미터 결정부(150)에서 결정한 부등각사상변환 파라미터를 이용하여 상기 좌영상(또는 우영상)에서 추정된 차량을 나타내는 바운딩박스의 좌표와 대응하는 상기 우영상(또는 좌영상)의 좌표를 확인한다.To this end, the vehicle detector 160 checks the coordinates of a bounding box indicating a vehicle estimated from the left image (or right image) estimated through the
이어서, 상기 차량 탐지부(160)는 상기 확인한 우영상(또는 좌영상)의 좌표에 상기 차량 추정부(140)에서 추정한 차량을 나타내는 바운딩박스가 없는 경우 이에 대응하는 상기 우영상(또는 좌영상)의 좌표에 바운딩박스를 표시하여 차량이 위치한 것으로 결정하며, 이러한 방식으로 상기 좌영상 및 우영상에서 각각 추정한 차량의 수를 일치시킴으로써, 상기 좌영상 및 우영상에서 추정하지 못한 차량을 추가로 탐지한다.Next, when there is no bounding box indicating the vehicle estimated by the
상기 교통량 산정부(170)는 상기 차량 탐지부(160)에서 탐지한 상기 좌영상 및 우영상내의 차량탐지 결과를 이용하여, 교통량 산정대상 영역을 통과하는 차량평균속도, 차량통과시간 등을 고려하여 단위시간에 따른 교통량을 산정하며, 상기 산정한 교통량 산정정보를 상기 교통량 산정정보 DB(330)에 저장하여 관리하도록 한다.The traffic volume calculation unit 170 uses the vehicle detection results in the left and right images detected by the vehicle detection unit 160, taking into consideration the average vehicle speed and vehicle transit time passing through the traffic volume calculation target area. The traffic volume is calculated for each unit time, and the calculated traffic volume calculation information is stored and managed in the traffic volume calculation information DB (330).
상기 교통량 산정정보 제공부(180)는 상기 교통량 산정부(170)에서 산정한 특정 교통량 산정대상 영역에서의 단위시간에 따른 교통량 산정정보를 정부나 지방자치단체, 기관, 기업 또는 이들의 조합을 포함한 교통량 산정정보 이용 단말(400)로 제공한다.The traffic volume calculation information providing unit 180 provides the traffic volume calculation information according to the unit time in the specific traffic volume calculation target area calculated by the traffic volume calculation unit 170, including the government, local governments, institutions, companies, or a combination thereof. It is provided to the traffic volume calculation
상기 메모리(190)는 상기 교통량 산정 시스템(100)에서 사용하는 각종 동작프로그램을 저장하고 있으며, 상기 영상데이터 수신부(130)에서 수신한 광학영상, 열화상 또는 이들의 조합을 포함한 좌영상 및 우영상, 상기 차량 추정부(140)에서 추정한 차량에 대한 정보, 상기 부등각사상변환 파라미터 결정부(150)에서 결정한 부등각사상변환 파라미터, 상기 차량 탐지부(160)에서 탐지한 추가 차량 정보, 상기 교통량 산정부(170)에서 수행한 교통량 산정정보 등을 임시 저장하는 기능을 수행한다.The memory 190 stores various operation programs used in the traffic
도 4는 본 발명의 일 실시예에 따른 스테레오 카메라의 구성과 동작을 설명하기 위한 도면이다.4 is a view for explaining the configuration and operation of a stereo camera according to an embodiment of the present invention.
도 4에 도시된 바와 같이, 본 발명의 일 실시예에 따른 스테레오 카메라(200)는 교통량 산정대상 영역의 도로상에 설치되며, 광학영상 카메라로서 교통량 산정대상 영역을 촬영하여 좌영상을 생성하는 제1 카메라(210), 교통량 산정대상 영역을 촬영하여 우영상을 생성하는 제2 카메라(220), 상기 제1 카메라(210)의 전방에 위치하여 좌영상에 대한 열화상을 획득하는 제1 열화상 센서(230), 상기 제2 카메라(220)의 전방에 위치하여 우영상에 대한 열화상을 획득하는 제2 열화상 센서(240)로 구성된다.As shown in FIG. 4, the
이때 도면상의 위치에 따라 편의상 상기 제1 카메라(210)는 좌측 카메라로서 좌영상을 생성하며, 상기 제2 카메라(220)는 우측 카메라로서 우영상을 촬영하는 것으로 설명한다.At this time, it will be described that the
상기 제1 카메라(210)에 의해 촬영되는 영역은 실선 삼각형 부분이며, 상기 제2 카메라(220)에 의해 촬영되는 영역은 점선 삼각형 부분이다.The area photographed by the
상기 스테레오 카메라(200)는 제어부(미도시)의 제어를 토대로 기상상황이 좋은 상황(즉 평상시)에서는 상기 제1 카메라(210) 및 제2 카메라(220)를 이용하여 촬영한 좌영상 및 우영상을 네트워크를 통해 상기 교통량 산정 시스템(100)으로 전송하며, 안개, 황사, 비 등의 기상상황이 악화되거나 역광 등의 촬영환경이 적합하지 않을 때에는 상기 제1 열화상 센서(230) 및 제2 열화상 센서(240)를 통해 좌영상 및 우영상에 대한 열화상을 네트워크를 통해 상기 교통량 산정 시스템(100)으로 전송한다.The
도 5는 본 발명의 일 실시예에 따른 스테레오 영상과 딥러닝을 이용한 차량 추정 과정을 설명하기 위한 도면이다.5 is a diagram for explaining a vehicle estimation process using a stereo image and deep learning according to an embodiment of the present invention.
도 5에 도시된 바와 같이, 상기 교통량 산정 시스템(100)은 네트워크를 통해 상기 스테레오 카메라(200)로부터 수신한 좌영상 및 우영상을 상기 차량 추정용 학습모델에 적용하여 각 차량을 추정한다.As shown in FIG. 5 , the traffic
이때 상기 교통량 산정 시스템(100)은 도 5의 (a)에 나타낸 바와 같이 평상시에는 상기 스테레오 카메라(200)의 제1 카메라(210)에서 촬영한 좌영상 및 제2 카메라(220)에서 촬영한 우영상을 상기 차량 추정용 학습모델에 각각 적용하여 각 차량을 추정한다.At this time, as shown in FIG. 5 ( a ), the traffic
또한 상기 교통량 산정 시스템(100)은 도 5의 (b)에 나타낸 바와 같이 안개, 황사, 비 등의 기상상황이 악화될 경우(또는 역광 등의 촬영환경이 적합하지 않을 경우)에는 상기 스테레오 카메라(200)의 제1 열화상 센서(230)를 통해 생성한 좌영상에 대한 열화상 및 제2 열화상 센서(240)를 통해 생성한 우영상에 대한 열화상을 상기 차량 추정용 학습모델에 각각 적용하여 각 차량을 추정한다.In addition, as shown in (b) of FIG. 5, when the weather conditions such as fog, yellow dust, and rain deteriorate (or when the shooting environment such as backlight is not suitable), the stereo camera ( 200), the thermal image of the left image generated by the first thermal image sensor 230 and the thermal image of the right image generated by the second thermal image sensor 240 are respectively applied to the learning model for vehicle estimation. to estimate each vehicle.
이때 상기 교통량 산정 시스템(100)에서 수행한 차량의 추정결과는 바운딩박스 형태로 나타나는데, 사각지대, 기상상황, 촬영환경 등의 조건에 따라 좌영상 및 우영상에서 교통량 산정대상 영역내의 차량에 대한 추정 결과가 다를 수 있다. 즉 상기 좌영상 및 우영상에서 추정한 차량의 수가 일치하지 않거나 정확도가 떨어지는 경우가 발생될 수 있는 것이다. 이에 따라 상기 좌영상 및 우영상에서의 차량 추정 결과를 보완하여야 한다.At this time, the estimation result of the vehicle performed by the traffic
도 6은 본 발명의 일 실시예에 따른 스테레오 영상과 딥러닝을 이용한 차량 추정 결과와 좌영상과 우영상 간의 부등각사상변환 파라미터를 적용한 차량 탐지 과정을 설명하기 위한 도면이다.6 is a view for explaining a vehicle detection process to which a vehicle estimation result using a stereo image and deep learning and an asymmetry map transformation parameter between a left image and a right image are applied according to an embodiment of the present invention.
도 6에 나타낸 바와 같이, 상기 교통량 산정 시스템(100)은 상기 도 5에서 설명한 상기 좌영상 및 우영상에서의 차량 추정 결과를 보완하기 위하여, 상기 좌영상(또는 우영상)에서 추정된 차량을 나타내는 바운딩박스의 좌표를 확인하고, 각 차량의 좌표를 통해서 좌영상과 우영상간의 위치나 각도 차이를 계산한 부등각사상변환 파라미터를 이용하여 상기 좌영상에서 확인한 차량의 좌표와 대응하는 우영상의 좌표를 확인한다.As shown in FIG. 6 , in order to supplement the vehicle estimation results in the left image and the right image described in FIG. 5 , the traffic
이어서, 상기 교통량 산정 시스템(100)은 상기 확인한 우영상(또는 좌영상)의 좌표에 차량이 추정되었음을 나타내는 바운딩박스가 없으면, 도 6의 (a) 및 (b)에 나타낸 파랑색(또는 빨강색) 화살표와 같이 해당 좌표에 바운딩박스를 표시하여 차량이 위치한 것으로 결정하고, 이러한 방식을 반복하여 상기 좌영상과 우영상에서 각각 추정한 차량의 수를 일치시켜, 상기 좌영상과 우영상에서 추정하지 못한 차량을 추가로 탐지한다.Next, if there is no bounding box indicating that the vehicle is estimated at the coordinates of the confirmed right image (or left image), the traffic
이때 도 6의 (a)는 평상시의 스테레오 영상과 딥러닝을 이용한 차량 추정 결과와 부등각사상변환 파라미터를 적용한 추가 탐지를 나타낸 일 실시예이며, 도 6의 (b)는 안개 발생시의 스테레오 영상과 딥러닝을 이용한 차량 추정 결과와 부등각사상변환 파라미터를 적용한 추가 탐지를 나타낸 일 실시예이다.At this time, Fig. 6 (a) is an embodiment showing an ordinary stereo image, a vehicle estimation result using deep learning, and additional detection by applying an asymmetry map transformation parameter, and Fig. 6 (b) is a stereo image and a stereo image at the time of fog generation. It is an embodiment showing the vehicle estimation result using deep learning and additional detection by applying the disequiangular map transformation parameter.
다음에는, 이와 같이 구성된 본 발명에 따른 스테레오 영상과 딥러닝을 이용한 교통량 산정 방법의 일 실시예를 도 7과 도 8을 참조하여 상세하게 설명한다. 이때 본 발명의 방법에 따른 각 단계는 사용 환경이나 당업자에 의해 순서가 변경될 수 있다.Next, an embodiment of a method for calculating a traffic volume using a stereo image and deep learning according to the present invention configured as described above will be described in detail with reference to FIGS. 7 and 8 . In this case, the order of each step according to the method of the present invention may be changed by the environment of use or by a person skilled in the art.
도 7은 본 발명의 일 실시예에 따른 스테레오 영상과 딥러닝을 이용한 교통량 산정 방법의 동작과정을 상세하게 나타낸 순서도이며, 도 8은 본 발명의 일 실시예에 따른 좌영상과 우영상 내의 모든 차량을 탐지하는 과정을 상세하게 나타낸 순서도이다.7 is a flowchart illustrating in detail the operation process of a method for calculating a traffic volume using a stereo image and deep learning according to an embodiment of the present invention, and FIG. 8 is all vehicles in the left image and the right image according to an embodiment of the present invention. It is a flowchart showing the process of detecting in detail.
우선, 상기 교통량 산정 시스템(100)은 다양한 종류의 차량을 촬영한 복수의 광학영상, 열화상 또는 이들의 조합을 포함한 영상데이터를 수집하고(S100), 상기 수집한 복수의 광학영상, 열화상 또는 이들의 조합을 포함한 영상데이터로부터 상기 차량을 학습하여 차량 추정용 학습모델을 생성하는 학습 단계를 수행한다(S200).First, the traffic
상기 S200 단계를 통해 차량 추정용 학습모델을 생성하여 데이터베이스(300)에 저장해둔 상태에서, 상기 교통량 산정 시스템(100)은 상기 스테레오 카메라(200)로 촬영한 좌영상 및 우영상을 수신한다(S300). 즉 상기 스테레오 카메라(200)로부터 광학영상, 열화상 또는 이들의 조합을 포함한 좌영상 및 우영상을 수신하는 것이다.In the state that the vehicle estimation learning model is generated and stored in the
이어서, 상기 교통량 산정 시스템(100)은 상기 S300 단계에서 수신한 좌영상 및 우영상을 상기 S200 단계에서 생성한 차량 추정용 학습모델에 각각 적용하여, 상기 좌영상 및 우영상에서 각 차량을 추정하는 차량 추정 단계를 수행한다(S400).Next, the traffic
즉 상기 교통량 산정 시스템(100)은 상기 스테레오 카메라(200)로부터 수신한 광학영상, 열화상 또는 이들의 조합에 대한 좌영상 및 우영상을 상기 차량 추정용 학습모델에 각각 입력하여, 상기 좌영상 및 우영상에 포함된 차량에 대한 특징점을 추출하고, 상기 추출한 특징점을 연결하여 바운딩박스를 구성함으로써, 상기 좌영상 및 우영상에 존재하는 차량을 추정하는 것이다.That is, the traffic
또한 상기 교통량 산정 시스템(100)은 상기 S400 단계를 통해 상기 좌영상 및 우영상에서 추정한 각 차량의 좌표를 통해서 상기 좌영상과 우영상간의 위치나 각도의 차이를 계산하여 부등각사상변환 파라미터를 결정하는 부등각사상변환 파라미터 결정 단계를 수행한다(S500).In addition, the traffic
이어서, 상기 교통량 산정 시스템(100)은 상기 S500 단계에서 결정한 부등각사상변환 파라미터를 이용하여, 상기 좌영상 및 우영상에서 추정하지 못한 차량을 추가로 탐지하는 차량 탐지 단계를 수행한다(S600).Next, the traffic
즉 상기 교통량 산정 시스템(100)은 상기 좌영상 및 우영상에서 추정하지 못한 차량을 추가로 탐지함으로써, 상기 스테레오 카메라(200)로부터 수신한 상기 광학영상, 열화상 또는 이들의 조합을 통해서 차량이 겹쳐져 있는 사각지대나, 안개, 황사 및 비를 포함한 기상조건이나, 역광을 포함한 촬영환경에 따라 차량을 탐지하지 못하는 것을 방지하는 것이다.That is, the traffic
상기 S600 단계를 도 8을 참조하여 보다 상세하게 설명하면, 상기 교통량 산정 시스템(100)은 상기 좌영상(또는 우영상)에서 추정된 차량을 나타내는 바운딩박스의 좌표를 확인하고(S610), 상기 S500 단계에서 결정한 부등각사상변환 파라미터를 이용하여 상기 좌영상(또는 우영상)에서 추정된 차량을 나타내는 바운딩박스의 좌표와 대응하는 상기 우영상(또는 좌영상)의 좌표를 확인한다(S620).When the step S600 is described in more detail with reference to FIG. 8, the traffic
또한 상기 교통량 산정 시스템(100)은 상기 S620 단계에서 확인한 우영상(또는 좌영상)의 좌표에 상기 S400 단계에서 추정한 차량을 나타내는 바운딩박스가 없는 경우, 상기 우영상(또는 좌영상)의 좌표에 바운딩박스를 표시하여 차량이 위치한 것으로 결정하며(S630), 상기 좌영상과 우영상에서 각각 추정한 차량의 수를 일치시킴으로써, 상기 좌영상과 우영상에서 추정하지 못한 차량을 추가로 탐지한다(S640).In addition, if there is no bounding box indicating the vehicle estimated in step S400 in the coordinates of the right image (or left image) checked in step S620, the traffic
다시 도 7을 참조하면, 상기 교통량 산정 시스템(100)은 상기 S600 단계에서 탐지한 결과를 이용하여 단위시간에 따른 교통량을 산정하는 교통량 산정 단계를 수행한다(S700).Referring back to FIG. 7 , the traffic
또한 상기 교통량 산정 시스템(100)은 교통량 산정 작업이 종료되는지를 판단하여(S800), 교통량 산정 작업이 종료될 때까지 상기 S300 단계 내지 S700 단계를 반복하여 수행한다.In addition, the traffic
한편, 도면에 도시하지는 않았지만, 상기 교통량 산정 시스템(100)은 상기 S700 단계에서 산정한 특정 교통량 산정대상 영역에서의 단위시간에 따른 교통량 산정정보를 정부나 지방자치단체, 기관, 기업 또는 이들의 조합을 포함한 교통량 산정정보 이용 단말(400)로 제공하는 교통량 산정정보 제공 단계를 더 수행할 수 있다.On the other hand, although not shown in the drawing, the traffic
도 9는 본 발명의 일 실시예에 따른 교통량 산정 시스템의 하드웨어 구조를 나타낸 도면이다.9 is a diagram illustrating a hardware structure of a traffic volume calculation system according to an embodiment of the present invention.
도 9에 도시된 바와 같이, 상기 교통량 산정 시스템(100)의 하드웨어 구조는, 중앙처리장치(1000), 메모리(2000), 사용자 인터페이스(3000), 데이터베이스 인터페이스(4000), 네트워크 인터페이스(5000), 웹서버(6000) 등을 포함하여 구성된다.As shown in FIG. 9 , the hardware structure of the traffic
상기 사용자 인터페이스(3000)는 그래픽 사용자 인터페이스(GUI, graphical user interface)를 사용함으로써, 사용자에게 입력과 출력 인터페이스를 제공한다.The
상기 데이터베이스 인터페이스(4000)는 데이터베이스와 하드웨어 구조 사이의 인터페이스를 제공한다. 상기 네트워크 인터페이스(5000)는 사용자가 보유한 장치 간의 네트워크 연결을 제공한다.The database interface 4000 provides an interface between a database and a hardware structure. The
상기 웹 서버(6000)는 사용자가 네트워크를 통해 하드웨어 구조로 액세스하기 위한 수단을 제공한다. 대부분의 사용자들은 원격에서 웹 서버로 접속하여 상기 교통량 산정 시스템(100)을 사용할 수 있다.The web server 6000 provides a means for a user to access the hardware structure via a network. Most users can remotely access the web server and use the traffic
상술한 구성 또는 방법의 각 단계는, 컴퓨터 판독 가능한 기록매체 상의 컴퓨터 판독 가능 코드로 구현되거나 전송 매체를 통해 전송될 수 있다. 컴퓨터 판독 가능한 기록매체는, 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터를 저장할 수 있는 데이터 저장 디바이스이다.Each step of the above-described configuration or method may be implemented as computer-readable code on a computer-readable recording medium or transmitted through a transmission medium. The computer-readable recording medium is a data storage device capable of storing data that can be read by a computer system.
컴퓨터 판독 가능한 기록매체의 예로는 데이터베이스, ROM, RAM, CD-ROM, DVD, 자기 테이프, 플로피 디스크 및 광학 데이터 저장 디바이스가 있으나 이에 한정되는 것은 아니다. 전송매체는 인터넷 또는 다양한 유형의 통신 채널을 통해 전송되는 반송파를 포함할 수 있다. 또한 컴퓨터 판독 가능한 기록매체는, 컴퓨터 판독 가능 코드가 분산 방식으로 저장되고, 실행되도록 네트워크 결합 컴퓨터 시스템을 통해 분배될 수 있다.Examples of computer-readable recording media include, but are not limited to, databases, ROMs, RAMs, CD-ROMs, DVDs, magnetic tapes, floppy disks, and optical data storage devices. The transmission medium may include a carrier wave transmitted through the Internet or various types of communication channels. In addition, the computer readable recording medium may be distributed through a network coupled computer system so that the computer readable code is stored and executed in a distributed manner.
또한 본 발명에 적용된 적어도 하나 이상의 구성요소는, 각각의 기능을 수행하는 중앙처리장치(CPU), 마이크로프로세서 등과 같은 프로세서를 포함하거나 이에 의해 구현될 수 있으며, 상기 구성요소 중 둘 이상은 하나의 단일 구성요소로 결합되어 결합된 둘 이상의 구성요소에 대한 모든 동작 또는 기능을 수행할 수 있다. 또한 본 발명에 적용된 적어도 하나 이상의 구성요소의 일부는, 이들 구성요소 중 다른 구성요소에 의해 수행될 수 있다. 또한 상기 구성요소들 간의 통신은 버스(미도시)를 통해 수행될 수 있다.In addition, at least one or more components applied to the present invention may include or be implemented by a processor such as a central processing unit (CPU), a microprocessor, etc. that perform each function, and two or more of the components are one single It may be combined as a component to perform any operation or function for two or more combined components. In addition, a part of at least one or more components applied to the present invention may be performed by other components among these components. In addition, communication between the components may be performed through a bus (not shown).
이처럼, 본 발명은 광학영상 카메라 및 열화상 센서를 탑재한 스테레오 카메라에서 촬영한 좌영상 및 우영상을 기 설정한 학습모델에 각각 적용하여 교통량 산정대상 영역내의 차량을 추정하고, 상기 좌영상 및 우영상에서 추정한 각 차량의 좌표를 통해서 상기 좌영상과 우영상간의 위치나 각도의 차이를 계산하여 부등각사상변환 파라미터를 결정하고, 이를 토대로 상기 좌영상 및 우영상에서 추정하지 못한 차량을 추가로 탐지하거나 기상조건이나 촬영환경에 따라 차량을 찾아내지 못하는 것을 방지함으로써, 정밀한 차량 탐지를 가능하게 하여 교통량 산정의 정확도를 높일 수 있다.As such, the present invention estimates a vehicle within a traffic volume calculation target area by applying the left image and the right image captured by a stereo camera equipped with an optical image camera and a thermal image sensor to a preset learning model, respectively, and the left image and the right image An asymmetry map transformation parameter is determined by calculating the difference in position or angle between the left image and the right image through the coordinates of each vehicle estimated above, and based on this, additionally detecting a vehicle that is not estimated in the left image and the right image, or By preventing the vehicle from being found depending on the weather conditions or the shooting environment, it is possible to accurately detect the vehicle and increase the accuracy of the calculation of the traffic volume.
이상에서와 같이 본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 기술적 보호범위는 아래의 특허청구범위에 의해서 판단되어야 할 것이다.As described above, the present invention has been described with reference to the embodiments shown in the drawings, which are merely exemplary, and those of ordinary skill in the art can make various modifications and equivalent other embodiments therefrom. You will understand that it is possible. Therefore, the technical protection scope of the present invention should be judged by the following claims.
100 : 교통량 산정 시스템 110 : 학습데이터 수집부
120 : 학습부 130 : 영상데이터 수신부
140 : 차량 추정부 150 : 부등각사상변환 파라미터 결정부
160 : 차량 탐지부 170 : 교통량 산정부
180 : 교통량 산정정보 제공부 190 : 메모리
200 : 스테레오 카메라 210 : 제1 카메라
220 : 제2 카메라 230 : 제1 열화상 센서
240 : 제2 열화상 센서 300 : 데이터베이스
310 : 학습모델 DB 320 : 영상데이터 DB
330 : 교통량 산정정보 DB 400 : 교통량 산정정보 이용 단말100: traffic volume calculation system 110: learning data collection unit
120: learning unit 130: image data receiving unit
140: vehicle estimating unit 150: non-conformal map transformation parameter determining unit
160: vehicle detection unit 170: traffic volume calculation unit
180: traffic calculation information providing unit 190: memory
200: stereo camera 210: first camera
220: second camera 230: first thermal image sensor
240: second thermal image sensor 300: database
310: learning model DB 320: image data DB
330: traffic volume estimation information DB 400: traffic volume estimation information use terminal
Claims (10)
상기 좌영상 및 우영상에서 추정된 각 차량의 좌표를 통해서 상기 좌영상과 우영상간의 위치나 각도의 차이를 계산하여 부등각사상변환 파라미터를 결정하는 부등각사상변환 파라미터 결정부;
상기 결정한 부등각사상변환 파라미터를 이용하여 상기 좌영상 및 우영상에서 추정하지 못한 차량을 추가로 탐지하는 차량 탐지부; 및
상기 탐지한 결과를 이용하여 단위시간에 따른 교통량을 산정하는 교통량 산정부;를 포함하는 것을 특징으로 하는 스테레오 영상과 딥러닝을 이용한 교통량 산정 시스템.a vehicle estimator for estimating a vehicle from a left image and a right image taken with a stereo camera;
an asymmetry image transformation parameter determining unit for determining an asymmetric image transformation parameter by calculating a difference in position or angle between the left image and the right image through the coordinates of each vehicle estimated from the left image and the right image;
a vehicle detector for additionally detecting a vehicle that cannot be estimated from the left image and the right image by using the determined asymmetric image transformation parameter; and
Traffic volume calculation system using stereo image and deep learning, characterized in that it comprises;
상기 스테레오 카메라로 촬영한 좌영상 및 우영상은,
광학영상, 열화상 또는 이들의 조합을 포함하며,
상기 차량 탐지부는,
상기 광학영상, 열화상 또는 이들의 조합을 통해서 차량이 겹쳐져 있는 사각지대나, 안개, 황사 및 비를 포함한 기상조건이나, 역광을 포함한 촬영환경에 따라 좌영상 또는 우영상에 추정하지 못한 차량을 추가로 탐지하는 것을 특징으로 하는 스테레오 영상과 딥러닝을 이용한 교통량 산정 시스템.The method according to claim 1,
The left and right images taken with the stereo camera are,
Including optical imaging, thermal imaging, or a combination thereof,
The vehicle detection unit,
Through the optical image, thermal image, or a combination thereof, an unestimated vehicle is added to the left or right image depending on the blind spot where vehicles are overlapped, weather conditions including fog, yellow sand and rain, or the shooting environment including backlight A traffic volume estimation system using stereo images and deep learning, characterized in that it is detected with
상기 교통량 산정 시스템은,
다양한 종류의 차량을 촬영한 광학영상, 열화상 또는 이들의 조합으로부터 상기 차량을 학습하여 차량 추정용 학습모델을 생성하는 학습부;를 더 포함하며,
상기 차량 추정부는,
상기 스테레오 카메라에서 촬영한 광학영상, 열화상 또는 이들의 조합에 대한 좌영상 및 우영상을 상기 차량 추정용 학습모델에 각각 입력하여, 상기 좌영상 및 우영상에 포함된 차량에 대한 특징점을 추출하고, 상기 추출한 특징점을 연결하여 바운딩박스를 구성함으로써, 상기 좌영상 및 우영상에 존재하는 차량을 추정하는 것을 더 포함하는 것을 특징으로 하는 스테레오 영상과 딥러닝을 이용한 교통량 산정 시스템.The method according to claim 1,
The traffic volume calculation system,
It further includes; a learning unit that generates a learning model for vehicle estimation by learning the vehicle from optical images, thermal images, or a combination of various types of vehicles,
The vehicle estimation unit,
By inputting the left image and the right image of the optical image, the thermal image, or a combination thereof taken by the stereo camera into the learning model for vehicle estimation, respectively, the feature points for the vehicle included in the left image and the right image are extracted, and , By connecting the extracted feature points to configure a bounding box, the system for calculating the amount of traffic using stereo image and deep learning, characterized in that it further comprises estimating the vehicle present in the left image and the right image.
상기 차량 탐지부는,
상기 좌영상(또는 우영상)에서 추정된 차량을 나타내는 바운딩박스의 좌표를 확인하고,
상기 결정한 부등각사상변환 파라미터를 이용하여 상기 좌영상(또는 우영상)에서 추정된 차량을 나타내는 바운딩박스의 좌표와 대응하는 상기 우영상(또는 좌영상)의 좌표를 확인하고,
상기 확인한 우영상(또는 좌영상)의 좌표에 상기 차량 추정부에서 추정한 차량을 나타내는 바운딩박스가 없는 경우 상기 우영상(또는 좌영상)의 좌표에 바운딩박스를 표시하여 차량이 위치한 것으로 결정하며,
상기 좌영상 및 우영상에서 각각 추정한 차량의 수를 일치시킴으로써, 상기 좌영상 및 우영상에서 추정하지 못한 차량을 추가로 탐지하도록 하는 것을 특징으로 하는 스테레오 영상과 딥러닝을 이용한 교통량 산정 시스템.The method according to claim 1,
The vehicle detection unit,
Check the coordinates of the bounding box indicating the vehicle estimated in the left image (or right image),
Check the coordinates of the right image (or the left image) corresponding to the coordinates of the bounding box indicating the vehicle estimated from the left image (or the right image) using the determined asymmetric map transformation parameter,
If there is no bounding box indicating the vehicle estimated by the vehicle estimation unit in the coordinates of the checked right image (or left image), the vehicle is determined to be located by displaying a bounding box in the coordinates of the right image (or left image),
Traffic volume calculation system using stereo image and deep learning, characterized in that by matching the number of vehicles estimated in the left image and the right image, respectively, to additionally detect a vehicle that is not estimated in the left image and the right image.
상기 교통량 산정 시스템은,
상기 교통량 산정부에서 산정한 특정 교통량 산정대상 영역에서의 단위시간에 따른 교통량 산정정보를 정부나 지방자치단체, 기관, 기업 또는 이들의 조합을 포함한 교통량 산정정보 이용 단말로 제공하는 교통량 산정정보 제공부;를 더 포함하는 것을 특징으로 하는 스테레오 영상과 딥러닝을 이용한 교통량 산정 시스템.The method according to claim 1,
The traffic volume calculation system,
Traffic volume calculation information providing unit that provides traffic volume calculation information according to unit time in a specific traffic volume calculation target area calculated by the traffic volume calculation unit to a terminal using traffic volume calculation information including the government, local governments, institutions, companies, or a combination thereof ; Traffic volume calculation system using stereo images and deep learning, characterized in that it further comprises.
상기 교통량 산정 시스템에서, 상기 좌영상 및 우영상에서 추정된 각 차량의 좌표를 통해서 상기 좌영상과 우영상간의 위치나 각도의 차이를 계산하여 부등각사상변환 파라미터를 결정하는 부등각사상변환 파라미터 결정 단계;
상기 교통량 산정 시스템에서, 상기 결정한 부등각사상변환 파라미터를 이용하여 상기 좌영상 및 우영상에서 추정하지 못한 차량을 추가로 탐지하는 차량 탐지 단계; 및
상기 교통량 산정 시스템에서, 상기 탐지한 결과를 이용하여 단위시간에 따른 교통량을 산정하는 교통량 산정 단계;를 포함하는 것을 특징으로 하는 스테레오 영상과 딥러닝을 이용한 교통량 산정 방법.A vehicle estimation step of estimating a vehicle from a left image and a right image taken with a stereo camera in the traffic volume calculation system;
In the traffic volume calculation system, an asymmetry transformation parameter determination step of determining the asymmetry transformation parameter by calculating the difference in position or angle between the left image and the right image through the coordinates of each vehicle estimated from the left image and the right image ;
a vehicle detection step of additionally detecting, in the traffic volume calculation system, a vehicle that has not been estimated in the left image and the right image by using the determined asymmetric map transformation parameter; and
The traffic volume calculation method using stereo image and deep learning, comprising: in the traffic volume calculation system, a traffic volume calculation step of calculating the traffic volume according to a unit time using the detected result.
상기 스테레오 카메라로 촬영한 좌영상 및 우영상은,
광학영상, 열화상 또는 이들의 조합을 포함하며,
상기 차량 탐지 단계는,
상기 광학영상, 열화상 또는 이들의 조합을 통해서 차량이 겹쳐져 있는 사각지대나, 안개, 황사 및 비를 포함한 기상조건이나, 역광을 포함한 촬영환경에 따라 좌영상 또는 우영상에 추정하지 못한 차량을 추가로 탐지하는 것을 특징으로 하는 스테레오 영상과 딥러닝을 이용한 교통량 산정 방법.7. The method of claim 6,
The left and right images taken with the stereo camera are,
Including optical imaging, thermal imaging, or a combination thereof,
The vehicle detection step is
Through the optical image, thermal image, or a combination thereof, an unestimated vehicle is added to the left or right image depending on the blind spot where vehicles are overlapped, weather conditions including fog, yellow sand and rain, or the shooting environment including backlight A method of calculating traffic volume using stereo images and deep learning, characterized in that it is detected with
상기 교통량 산정 방법은,
상기 교통량 산정 시스템에서, 다양한 종류의 차량을 촬영한 광학영상, 열화상 또는 이들의 조합으로부터 상기 차량을 학습하여 차량 추정용 학습모델을 생성하는 학습 단계;를 더 포함하며,
상기 차량 추정 단계는,
상기 교통량 산정 시스템에서, 상기 스테레오 카메라에서 촬영한 광학영상, 열화상 또는 이들의 조합에 대한 좌영상 및 우영상을 상기 차량 추정용 학습모델에 각각 입력하여, 상기 좌영상 및 우영상에 포함된 차량에 대한 특징점을 추출하고, 상기 추출한 특징점을 연결하여 바운딩박스를 구성함으로써, 상기 좌영상 및 우영상에 존재하는 차량을 추정하는 것을 더 포함하는 것을 특징으로 하는 스테레오 영상과 딥러닝을 이용한 교통량 산정 방법.7. The method of claim 6,
The traffic volume calculation method is,
In the traffic volume calculation system, a learning step of generating a learning model for vehicle estimation by learning the vehicle from optical images, thermal images, or a combination thereof, obtained by photographing various types of vehicles;
The vehicle estimation step is
In the traffic volume calculation system, the left image and the right image of the optical image, the thermal image, or a combination thereof captured by the stereo camera are respectively input to the learning model for estimating the vehicle, and the vehicle included in the left image and the right image Method for calculating traffic volume using stereo image and deep learning, characterized in that it further comprises estimating the vehicle present in the left image and the right image by extracting the feature points for .
상기 차량 탐지 단계는,
상기 교통량 산정 시스템에서, 상기 좌영상(또는 우영상)에서 추정된 차량을 나타내는 바운딩박스의 좌표를 확인하는 단계;
상기 교통량 산정 시스템에서, 상기 결정한 부등각사상변환 파라미터를 이용하여 상기 좌영상(또는 우영상)에서 추정된 차량을 나타내는 바운딩박스의 좌표와 대응하는 상기 우영상(또는 좌영상)의 좌표를 확인하는 단계; 및
상기 교통량 산정 시스템에서, 상기 확인한 우영상(또는 좌영상)의 좌표에 상기 차량 추정 단계에서 추정한 차량을 나타내는 바운딩박스가 없는 경우, 상기 우영상(또는 좌영상)의 좌표에 바운딩박스를 표시하여 차량이 위치한 것으로 결정하는 단계;를 더 포함하며,
상기 교통량 산정 시스템에서, 상기 좌영상과 우영상에서 각각 추정한 차량의 수를 일치시킴으로써, 상기 좌영상과 우영상에서 추정하지 못한 차량을 추가로 탐지하도록 하는 것을 특징으로 하는 스테레오 영상과 딥러닝을 이용한 교통량 산정 방법.7. The method of claim 6,
The vehicle detection step is
checking, in the traffic volume calculation system, coordinates of a bounding box indicating a vehicle estimated from the left image (or right image);
In the traffic volume calculation system, the coordinates of the right image (or left image) corresponding to the coordinates of the bounding box indicating the vehicle estimated from the left image (or right image) using the determined asymmetry transformation parameter are confirmed step; and
In the traffic volume calculation system, when there is no bounding box indicating the vehicle estimated in the vehicle estimation step in the coordinates of the checked right image (or left image), the bounding box is displayed in the coordinates of the right image (or left image) Determining that the vehicle is located; further comprising,
In the traffic volume calculation system, by matching the number of vehicles estimated in the left image and the right image, respectively, the traffic volume using stereo image and deep learning, characterized in that the vehicle not estimated in the left image and the right image is additionally detected calculation method.
상기 교통량 산정 방법은,
상기 교통량 산정 시스템에서, 상기 교통량 산정 단계에서 산정한 특정 교통량 산정대상 영역에서의 단위시간에 따른 교통량 산정정보를 정부나 지방자치단체, 기관, 기업 또는 이들의 조합을 포함한 교통량 산정정보 이용 단말로 제공하는 교통량 산정정보 제공 단계;를 더 포함하는 것을 특징으로 하는 스테레오 영상과 딥러닝을 이용한 교통량 산정 방법.7. The method of claim 6,
The traffic volume calculation method is,
In the traffic volume calculation system, the traffic volume calculation information according to the unit time in the specific traffic volume calculation target area calculated in the traffic volume calculation step is provided to the traffic volume calculation information use terminal including the government, local government, institution, company, or a combination thereof A traffic volume estimation method using stereo images and deep learning, characterized in that it further comprises; providing traffic volume estimation information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200072865A KR102381527B1 (en) | 2020-06-16 | 2020-06-16 | System for estimating traffic volume using stereo image and deep learning and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200072865A KR102381527B1 (en) | 2020-06-16 | 2020-06-16 | System for estimating traffic volume using stereo image and deep learning and method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210155536A KR20210155536A (en) | 2021-12-23 |
KR102381527B1 true KR102381527B1 (en) | 2022-03-31 |
Family
ID=79175682
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200072865A KR102381527B1 (en) | 2020-06-16 | 2020-06-16 | System for estimating traffic volume using stereo image and deep learning and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102381527B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100874890B1 (en) | 2007-09-10 | 2008-12-19 | 경원대학교 산학협력단 | Traffic analysis system and method thereof |
KR101281687B1 (en) | 2012-07-13 | 2013-07-03 | 주식회사 비스타씨엔씨 | Method for monitoring region on bad visuality |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100945307B1 (en) * | 2008-08-04 | 2010-03-03 | 에이알비전 (주) | Method and apparatus for image synthesis in stereoscopic moving picture |
KR102655999B1 (en) * | 2018-10-25 | 2024-04-11 | 현대모비스 주식회사 | Apparatus and method for detecting distance values per instance object using a stereo camera |
-
2020
- 2020-06-16 KR KR1020200072865A patent/KR102381527B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100874890B1 (en) | 2007-09-10 | 2008-12-19 | 경원대학교 산학협력단 | Traffic analysis system and method thereof |
KR101281687B1 (en) | 2012-07-13 | 2013-07-03 | 주식회사 비스타씨엔씨 | Method for monitoring region on bad visuality |
Non-Patent Citations (1)
Title |
---|
서홍덕외 1. 스테레오 CCTV 영상에서 딥러닝을 이용한 교통량 추정. 한국측량학회지 제38권 제3호, 2020.06.30, pp. 269-279. |
Also Published As
Publication number | Publication date |
---|---|
KR20210155536A (en) | 2021-12-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230195131A1 (en) | Mobile robot system and method for generating map data using straight lines extracted from visual images | |
CN103176185B (en) | Method and system for detecting road barrier | |
Grassi et al. | Parkmaster: An in-vehicle, edge-based video analytics service for detecting open parking spaces in urban environments | |
CN107850672B (en) | System and method for accurate vehicle positioning | |
CN112700470B (en) | Target detection and track extraction method based on traffic video stream | |
JP2023523243A (en) | Obstacle detection method and apparatus, computer device, and computer program | |
CN106525057A (en) | Generation system for high-precision road map | |
WO2021155685A1 (en) | Map updating method, apparatus and device | |
CN105628951A (en) | Method and device for measuring object speed | |
KR102628736B1 (en) | Deep learning-based camera calibration | |
US11025865B1 (en) | Contextual visual dataspaces | |
KR20140112171A (en) | Display system of vehicle information based on the position | |
KR20170124299A (en) | A method and apparatus of assisting parking by creating virtual parking lines | |
US11961304B2 (en) | Systems and methods for deriving an agent trajectory based on multiple image sources | |
CN105608417A (en) | Traffic signal lamp detection method and device | |
US20230068001A1 (en) | Video-based tracking systems and methods | |
CN113419245B (en) | Real-time mapping system and mapping method based on V2X | |
US11961241B2 (en) | Systems and methods for deriving an agent trajectory based on tracking points within images | |
CN113885046A (en) | Intelligent internet automobile laser radar positioning system and method for low-texture garage | |
CN110189537B (en) | Parking guidance method, device and equipment based on space-time characteristics and storage medium | |
Zhanabatyrova et al. | Automatic map update using dashcam videos | |
KR20200013156A (en) | Method and system for improving signage detection performance | |
KR102381527B1 (en) | System for estimating traffic volume using stereo image and deep learning and method thereof | |
CN116892949A (en) | Ground object detection device, ground object detection method, and computer program for ground object detection | |
CN115223361A (en) | Layout optimization method for roadside sensors in vehicle-road cooperative system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |