KR102381527B1 - System for estimating traffic volume using stereo image and deep learning and method thereof - Google Patents

System for estimating traffic volume using stereo image and deep learning and method thereof Download PDF

Info

Publication number
KR102381527B1
KR102381527B1 KR1020200072865A KR20200072865A KR102381527B1 KR 102381527 B1 KR102381527 B1 KR 102381527B1 KR 1020200072865 A KR1020200072865 A KR 1020200072865A KR 20200072865 A KR20200072865 A KR 20200072865A KR 102381527 B1 KR102381527 B1 KR 102381527B1
Authority
KR
South Korea
Prior art keywords
image
vehicle
traffic volume
volume calculation
right image
Prior art date
Application number
KR1020200072865A
Other languages
Korean (ko)
Other versions
KR20210155536A (en
Inventor
김의명
서홍덕
홍송표
Original Assignee
남서울대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 남서울대학교 산학협력단 filed Critical 남서울대학교 산학협력단
Priority to KR1020200072865A priority Critical patent/KR102381527B1/en
Publication of KR20210155536A publication Critical patent/KR20210155536A/en
Application granted granted Critical
Publication of KR102381527B1 publication Critical patent/KR102381527B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 스테레오 영상과 딥러닝을 이용한 교통량 산정 시스템 및 그 방법에 관한 것으로, 다양한 종류의 차량을 촬영한 광학영상, 열화상 또는 이들의 조합으로부터 상기 차량을 학습하여 학습모델을 생성하고, 광학영상 카메라 및 열화상 센서를 탑재한 각 스테레오 카메라에서 촬영한 좌영상 및 우영상을 상기 학습모델에 각각 적용하여 교통량 산정대상 영역내의 차량을 추정하고, 상기 좌영상 및 우영상에서 추정된 각 차량의 좌표를 통해서 상기 좌영상과 우영상간의 위치나 각도의 차이를 계산하여 부등각사상변환(affine transform) 파라미터를 결정하고, 상기 결정한 부등각사상변환 파라미터를 이용하여 상기 좌영상이나 우영상에서 추정하지 못한 차량을 추가로 탐지하거나 기상조건이나 촬영환경에 따라 차량을 찾아내지 못하는 것을 방지함으로써, 정밀한 차량 탐지를 가능하게 하여 교통량 산정의 정확도를 높일 수 있는 시스템 및 그 방법에 관한 것이다.The present invention relates to a traffic volume calculation system and method using stereo images and deep learning, and to generate a learning model by learning the vehicle from optical images, thermal images, or a combination of various types of vehicles, and optical images The left image and right image captured by each stereo camera equipped with a camera and thermal image sensor are applied to the learning model, respectively, to estimate the vehicle within the target area for traffic volume calculation, and the coordinates of each vehicle estimated from the left image and the right image are calculated Through calculating the difference in position or angle between the left image and the right image, an affine transform parameter is determined, and a vehicle that cannot be estimated from the left image or the right image using the determined inequality transform parameter The present invention relates to a system and method capable of increasing the accuracy of traffic volume calculation by enabling precise vehicle detection by additionally detecting or preventing the vehicle from failing to be found depending on weather conditions or shooting environment.

Description

스테레오 영상과 딥러닝을 이용한 교통량 산정 시스템 및 그 방법{SYSTEM FOR ESTIMATING TRAFFIC VOLUME USING STEREO IMAGE AND DEEP LEARNING AND METHOD THEREOF}Traffic volume estimation system and method using stereo image and deep learning

본 발명은 스테레오 영상과 딥러닝을 이용한 교통량 산정 시스템 및 그 방법에 관한 것으로, 더욱 상세하게는 다양한 종류의 차량을 촬영한 광학영상, 열화상 또는 이들의 조합으로부터 상기 차량을 학습하여 학습모델을 생성하고, 광학영상 카메라 및 열화상 센서를 탑재한 각 스테레오 카메라에서 촬영한 좌영상 및 우영상을 상기 학습모델에 각각 적용하여 교통량 산정대상 영역내의 차량을 추정하고, 상기 좌영상 및 우영상에서 추정된 각 차량의 좌표를 통해서 상기 좌영상과 우영상간의 위치나 각도의 차이를 계산하여 부등각사상변환(affine transform) 파라미터를 결정하고, 상기 결정한 부등각사상변환 파라미터를 이용하여 상기 좌영상이나 우영상에서 추정하지 못한 차량을 추가로 탐지하거나 기상조건이나 촬영환경에 따라 차량을 찾아내지 못하는 것을 방지함으로써, 정밀한 차량 탐지를 가능하게 하여 교통량 산정의 정확도를 높일 수 있는 시스템 및 그 방법에 관한 것이다.The present invention relates to a system and method for calculating traffic volume using stereo images and deep learning, and more particularly, to generate a learning model by learning the vehicle from optical images, thermal images, or a combination thereof. And, by applying the left image and the right image captured by each stereo camera equipped with an optical image camera and a thermal image sensor to the learning model, respectively, to estimate the vehicle in the traffic volume calculation target area, and to estimate the angle estimated from the left image and the right image An affine transform parameter is determined by calculating the difference in position or angle between the left image and the right image through the coordinates of the vehicle, and estimated from the left image or the right image using the determined unequal image transformation parameter To a system and method capable of increasing the accuracy of traffic volume estimation by enabling precise vehicle detection by additionally detecting failed vehicles or preventing vehicles from failing to be found depending on weather conditions or shooting environments.

최근들어 컴퓨터의 그래픽 가속을 담당하는 장치인 GPU(Graphics Processing Unit)와 같은 하드웨어 성능이 크게 향상되면서, 카메라를 이용하여 수집한 영상에서 딥러닝(deep learning)을 통해 객체를 탐지(detection)하고 객체의 영역을 분할(segmentation)하는 연구가 활발하게 수행되고 있다. 예를 들어, 딥러닝과 도로가 촬영된 영상을 이용하여 차량을 탐지하는 연구, 차량 탐지에 따른 교통량 산정 연구 등이 활발하게 진행되고 있는 것이다.Recently, as the performance of hardware such as GPU (Graphics Processing Unit), a device responsible for computer graphics acceleration, has greatly improved, objects are detected and objects are detected through deep learning from images collected using a camera. Research on segmentation of the domain is being actively carried out. For example, research on vehicle detection using deep learning and road-captured images, and traffic volume estimation studies based on vehicle detection, are being actively conducted.

이처럼 딥러닝 기술은 다양한 조명 조건의 영상에서 차량과 사람을 탐지하는 작업이나 교통의 흐름을 산정하는 작업 등에 활발하게 적용되고 있으며, 이를 통해 자전거, 차량, 보행자 등의 교통 흐름을 모니터링하여 분석 정보를 제공하거나, 기상 데이터, 교통 현황, 도로 표면 상태 등 운전자에게 필수적인 도로 환경 정보를 제공할 수 있게 되었다.As such, deep learning technology is being actively applied to the task of detecting vehicles and people in images under various lighting conditions or estimating the traffic flow. It is now possible to provide essential road environment information to drivers, such as weather data, traffic conditions, and road surface conditions.

상기 교통량 산정 연구와 관련하여, 국토교통부의 교통량정보제공시스템에 의하면 기본 교통량 자료가 필요하다고 판단되는 모든 구간에 대하여 광범위하게 실시하는 수시조사 방식과 특정 지점에 자동 차종 분류 조사 장비를 설치하여 1년 365일 24시간 연속으로 통과 차량의 차종, 방향, 시간대별로 측정하는 상시조사 방식이 있다.In relation to the above-mentioned traffic volume calculation study, according to the traffic volume information provision system of the Ministry of Land, Infrastructure and Transport, a frequent survey method that is widely conducted for all sections for which basic traffic data is deemed necessary, and a vehicle classification survey equipment installed at a specific point for one year There is a regular survey method that measures the vehicle type, direction, and time zone of passing vehicles for 24 hours a day, 365 days a year.

상기 수시조사 방식과 상시조사 방식은 교통량조사시스템(AVC : Automatic Vehicle Classification), 차량검지시스템(VDS : Vehicle Detection System), 통행료징수시스템(TCS : Toll Collection System) 등의 조사 장비와 CCTV(Closed Circuit TeleVision)를 통한 인력식 조사와 조사원을 조사지점에 배치하여 차종별, 방향별, 시간대별 교통량 조사를 병행하고 있다.The occasional survey method and the regular survey method include survey equipment such as Automatic Vehicle Classification (AVC), Vehicle Detection System (VDS), Toll Collection System (TCS), and CCTV (Closed Circuit). TeleVision) is used to conduct a human-based survey and investigators are placed at the survey points to conduct a traffic volume survey by vehicle type, direction, and time period.

상기 CCTV는 교통에 대한 정성적인 정보를 판독할 수 있어 보급이 확산되고 있으나, CCTV의 수가 급속하게 증가하면서 관제요원의 눈에만 의존하는 단순 모니터링 방식의 문제점들이 나타나기 시작하였고, CCTV 관제를 위한 통합관제센터는 1인당 평균 46대의 CCTV를 관리하여 중요 이벤트를 수작업으로 감지하기는 쉽지 않은 실정이기 때문에, 영상분석을 통해 전반적인 상황을 인지하는 지능형 CCTV 기술이 필수적으로 필요한 상황이며, 이를 해결하기 위한 일 예로 딥러닝을 사용할 수 있다.The CCTV is spreading because it can read qualitative information about traffic, but as the number of CCTVs increases rapidly, problems with the simple monitoring method that rely only on the eyes of the control personnel begin to appear, and the integrated control for CCTV control Since the center manages 46 CCTVs per person on average and it is not easy to manually detect important events, intelligent CCTV technology that recognizes the overall situation through image analysis is essential. Deep learning can be used.

그러나 상술한 바와 같은 교통량 산정 연구를 수행할 때, 단일 CCTV 영상과 딥러닝을 이용하여 차량을 탐지할 경우 촬영환경에 따른 잡영과 낮은 공간해상도로 인해 인식률이 저하되는 문제가 발생되었다.However, when performing the above-mentioned traffic volume estimation study, when a vehicle was detected using a single CCTV image and deep learning, there was a problem in that the recognition rate was lowered due to noise depending on the shooting environment and low spatial resolution.

또한 광학영상 카메라만 탑재된 CCTV 영상을 이용할 경우 기상 조건 및 촬영환경에 따라 차량이 보호색으로 나타나 차량 탐지가 불가할 수 있기 때문에 이를 보완하기 위한 추가적인 센서의 도입이 필요한 상황이다.In addition, when using CCTV images equipped with only an optical image camera, the vehicle may appear in a protective color depending on weather conditions and shooting environment, making it impossible to detect the vehicle. Therefore, it is necessary to introduce an additional sensor to compensate for this.

또한 스테레오 CCTV와 딥러닝을 이용할 경우 좌우 영상은 영상의 특징이 다를 수 있기 때문에 진단이나 예측의 정확도에 차이가 날 수 있으므로 이를 상호보완하여 구간 내 모든 차량을 탐지할 필요가 있다.In addition, when using stereo CCTV and deep learning, since the characteristics of the left and right images may be different, the accuracy of diagnosis or prediction may differ.

따라서 본 발명에서는 광학영상 카메라 및 열화상 센서를 탑재한 스테레오 카메라에서 촬영한 좌영상 및 우영상을 기 설정한 학습모델에 각각 적용하여 교통량 산정대상 영역내의 차량을 추정하고, 상기 좌영상 및 우영상에서 추정된 각 차량의 좌표를 통해서 상기 좌영상과 우영상간의 위치나 각도의 차이를 계산하여 부등각사상변환 파라미터를 결정하고, 상기 결정된 부등각사상변환 파라미터를 이용하여 상기 좌영상 및 우영상에서 추정하지 못한 차량을 추가로 탐지하거나 기상조건이나 촬영환경에 따라 차량을 찾아내지 못하는 것을 방지함으로써, 정밀한 차량 탐지를 통해 교통량을 정확하게 산정할 수 있는 방안을 제시하고자 한다.Therefore, in the present invention, the left image and the right image captured by a stereo camera equipped with an optical image camera and a thermal image sensor are respectively applied to a preset learning model to estimate the vehicle within the area to be calculated, and from the left image and the right image The asymmetry map transformation parameter is determined by calculating the difference in position or angle between the left image and the right image through the estimated coordinates of each vehicle, and the left image and the right image are not estimated using the determined asymmetric image transformation parameter. This is to suggest a method that can accurately calculate the traffic volume through precise vehicle detection by additionally detecting unsuccessful vehicles or preventing vehicles from being found depending on weather conditions or shooting environment.

다음으로 본 발명의 기술분야에 존재하는 선행기술에 대하여 간단하게 설명하고, 이어서 본 발명이 상기 선행기술에 비해서 차별적으로 이루고자 하는 기술적 사항에 대해서 기술하고자 한다.Next, the prior art existing in the technical field of the present invention will be briefly described, and then the technical matters that the present invention intends to achieve differently from the prior art will be described.

먼저 일본등록특허 제5105400호(2012.10.12.)는 교통량 계측 방법 및 교통량 계측 장치에 관한 것으로, 주 차량이 겹쳐 촬영되었을 경우나, 야간의 차량에 헤드라이트와 혼동하기 쉬운 발광체가 존재하는 경우에도 다른 차량의 유무를 정확하게 판정하여 교통량을 정확하게 계수할 수 있도록 하는 교통량 계측 방법 및 교통량 계측 장치에 관한 것이다.First, Japanese Patent Registration No. 5105400 (October 12, 2012) relates to a traffic volume measurement method and a traffic volume measurement device, even when the main vehicle is photographed overlaid or there is a luminous body that is easily confused with a headlight in a vehicle at night. The present invention relates to a traffic volume measuring method and a traffic volume measuring device for accurately counting the traffic volume by accurately determining the presence or absence of another vehicle.

즉, 상기 선행기술은 도로를 통행하는 차량을 카메라로 촬영하여 얻은 영상을 해석하여 교통량을 계측하는 교통량 계측방법 및 교통량 계측장치에 대해 기재하고 있다.That is, the prior art describes a traffic volume measurement method and a traffic volume measurement device for measuring the traffic volume by analyzing an image obtained by photographing a vehicle passing on the road with a camera.

상기 선행기술은 다양한 촬영환경에서 차량의 존재 유무를 판정하여 교통량을 정확하게 계수할 수 있는 점에서 본 발명과 일부 유사점이 있지만, 본 발명은 광학영상 카메라 및 열화상 센서가 탑재된 스테레오 카메라에서 촬영한 좌영상 및 우영상을 기 설정한 학습모델에 각각 적용하여 차량을 추정하고, 부등각사상변환을 적용하여 좌영상 및 우영상에서 추정하지 못한 차량을 추가로 탐지하는 것이므로, 상기 선행기술과 본 발명은 현저한 구성상 차이점이 있다.The prior art has some similarities with the present invention in that it can accurately count the amount of traffic by determining the presence or absence of a vehicle in various shooting environments, but the present invention is a stereo camera equipped with an optical image camera and a thermal image sensor. Since the vehicle is estimated by applying the left image and the right image to a preset learning model, respectively, and the vehicle that cannot be estimated from the left image and the right image is additionally detected by applying an asymmetry transformation, the prior art and the present invention are There are significant structural differences.

또한 한국등록특허 제1813783호(2017.12.29.)는 컴퓨터 비전을 사용한 교통량 측정 방법 및 시스템에 관한 것으로, 컴퓨터 비전을 이용하여 카메라를 통해 획득한 영상 데이터의 윤곽선을 추출하고, 영상 데이터를 분할하여 관심 영역을 지정하고, 모션 히스토리 영상을 이용하여 상기 지정된 관심 영역 내에서 이동하는 차량들을 인식하고 추적하며, 상기 차량들에 따른 교통 밀도를 계산할 수 있도록 하는 컴퓨터 비전을 사용한 교통량 측정 방법 및 시스템에 관한 것이다.In addition, Korean Patent No. 1813783 (2017.12.29.) relates to a method and system for measuring traffic volume using computer vision. A method and system for measuring traffic volume using computer vision that designates an area of interest, recognizes and tracks vehicles moving within the designated area of interest using motion history images, and calculates traffic density according to the vehicles will be.

즉, 상기 선행기술은 차량들의 교통량을 컴퓨터 비전을 이용해 측정하여 통행시간 및 지체시간 파악, 과속 차량 단속, 사고지역 파악, 도난차량 관리 등의 서비스를 제공하는 방법 및 시스템을 기재하고 있다.That is, the prior art describes a method and system for measuring the traffic volume of vehicles using computer vision to provide services such as identification of travel time and delay time, speeding vehicle control, accident area identification, and stolen vehicle management.

상기 선행기술은 지정된 관심 영역 내에서 이동하는 차량들을 인식, 추적하여, 교통 밀도를 계산하는 점에서 본 발명과 일부 유사점이 있지만, 본 발명은 광학영상 카메라와 열화상 센서가 탑재된 스테레오 카메라에서 촬영한 좌영상 및 우영상을 사전에 설정한 학습모델에 각각 적용하여 차량을 추정하며, 좌영상 및 우영상에서 추정하지 못한 차량을 부등각사상변환을 통해 추가로 탐지하여 교통량을 산정하는 기술적 구성을 제시하고 있으므로 구성상 차이점이 분명하다.The prior art has some similarities with the present invention in that it recognizes and tracks vehicles moving within a designated area of interest and calculates traffic density, but the present invention is photographed with a stereo camera equipped with an optical image camera and a thermal image sensor A vehicle is estimated by applying a left image and a right image to a previously set learning model, and a technical configuration is proposed to calculate the traffic volume by additionally detecting a vehicle that could not be estimated from the left image and the right image through an asymmetry transformation. Therefore, there is a clear difference in composition.

본 발명은 상기와 같은 문제점을 해결하기 위해 창작된 것으로서, 광학영상 카메라와 열화상 센서가 탑재된 스테레오 카메라와 딥러닝을 이용하여 교통량 산정대상 영역내의 차량 탐지의 성능을 향상시킴으로써, 사각지대, 기상조건, 촬영환경 등에 따라 차량을 찾아내지 못하는 것을 방지하고, 정밀한 차량 탐지를 통해 교통량 산정의 정확도를 향상시킬 수 있는 시스템 및 그 방법을 제공하는 것을 목적으로 한다.The present invention was created to solve the above problems, and by improving the performance of vehicle detection in the area subject to traffic volume calculation by using a stereo camera equipped with an optical image camera and a thermal image sensor and deep learning, blind spots, weather An object of the present invention is to provide a system and method capable of preventing a vehicle from being found depending on conditions, shooting environment, etc., and improving the accuracy of traffic volume calculation through precise vehicle detection.

또한 본 발명은 광학영상 카메라 및 열화상 센서를 탑재한 스테레오 카메라에서 촬영한 좌영상 및 우영상을 사전에 설정한 학습모델에 각각 적용하여 차량을 추정하고, 상기 좌영상 및 우영상에서 각각 추정한 차량의 좌표를 통해서 상기 좌영상과 우영상간의 위치나 각도의 차이를 계산하여 부등각사상변환 파라미터를 결정하고, 상기 결정한 부등각사상변환 파라미터를 이용하여 상기 좌영상 및 우영상에서 추정하지 못한 차량을 추가로 탐지할 수 있도록 함으로써, 교통량 산정의 정확도를 높일 수 있는 시스템 및 그 방법을 제공하는 것을 다른 목적으로 한다.In addition, the present invention estimates a vehicle by applying the left image and the right image captured by a stereo camera equipped with an optical image camera and a thermal image sensor to a previously set learning model, respectively, and the vehicle estimated from the left image and the right image, respectively Calculate the difference in position or angle between the left image and the right image through the coordinates to determine an asymmetric map transformation parameter, and add a vehicle that could not be estimated from the left image and the right image using the determined asymmetric image transformation parameter Another object is to provide a system and method that can increase the accuracy of traffic volume estimation by enabling detection by

본 발명의 일 실시예에 따른 스테레오 영상과 딥러닝을 이용한 교통량 산정 시스템은, 스테레오 카메라로 촬영한 좌영상 및 우영상에서 차량을 추정하는 차량 추정부; 상기 좌영상 및 우영상에서 추정된 각 차량의 좌표를 통해서 상기 좌영상과 우영상간의 위치나 각도의 차이를 계산하여 부등각사상변환 파라미터를 결정하는 부등각사상변환 파라미터 결정부; 상기 결정한 부등각사상변환 파라미터를 이용하여 상기 좌영상 및 우영상에서 추정하지 못한 차량을 추가로 탐지하는 차량 탐지부; 및 상기 탐지한 결과를 이용하여 단위시간에 따른 교통량을 산정하는 교통량 산정부;를 포함하는 것을 특징으로 한다.A traffic volume calculation system using a stereo image and deep learning according to an embodiment of the present invention includes: a vehicle estimator for estimating a vehicle from a left image and a right image taken with a stereo camera; an asymmetry image transformation parameter determining unit for determining an asymmetric image transformation parameter by calculating a difference in position or angle between the left image and the right image through the coordinates of each vehicle estimated from the left image and the right image; a vehicle detector for additionally detecting a vehicle that cannot be estimated from the left image and the right image using the determined asymmetry map transformation parameter; and a traffic volume calculation unit that calculates the traffic volume according to a unit time by using the detection result.

또한 상기 스테레오 카메라로 촬영한 좌영상 및 우영상은, 광학영상, 열화상 또는 이들의 조합을 포함하며, 상기 차량 탐지부는, 상기 광학영상, 열화상 또는 이들의 조합을 통해서 차량이 겹쳐져 있는 사각지대나, 안개, 황사 및 비를 포함한 기상조건이나, 역광을 포함한 촬영환경에 따라 차량을 탐지하지 못하는 것을 방지하는 것을 더 포함하는 것을 특징으로 한다.In addition, the left image and the right image taken with the stereo camera include an optical image, a thermal image, or a combination thereof, and the vehicle detection unit is a blind spot where vehicles are overlapped through the optical image, thermal image, or a combination thereof. B, it characterized in that it further comprises preventing the vehicle from being detected according to weather conditions including fog, yellow sand and rain, or the shooting environment including backlight.

또한 상기 교통량 산정 시스템은, 다양한 종류의 차량을 촬영한 광학영상, 열화상 또는 이들의 조합으로부터 상기 차량을 학습하여 차량 추정용 학습모델을 생성하는 학습부;를 더 포함하며, 상기 차량 추정부는, 상기 스테레오 카메라에서 촬영한 광학영상, 열화상 또는 이들의 조합에 대한 좌영상 및 우영상을 상기 차량 추정용 학습모델에 각각 입력하여, 상기 좌영상 및 우영상에 포함된 차량에 대한 특징점을 추출하고, 상기 추출한 특징점을 연결하여 바운딩박스를 구성함으로써, 상기 좌영상 및 우영상에 존재하는 차량을 추정하는 것을 더 포함하는 것을 특징으로 한다.In addition, the traffic volume calculation system further includes a learning unit that generates a learning model for vehicle estimation by learning the vehicle from optical images, thermal images, or a combination thereof, obtained by photographing various types of vehicles, wherein the vehicle estimation unit includes: By inputting the left image and the right image of the optical image, the thermal image, or a combination thereof taken by the stereo camera into the learning model for vehicle estimation, respectively, the feature points for the vehicle included in the left image and the right image are extracted, and , estimating the vehicle present in the left image and the right image by configuring a bounding box by connecting the extracted feature points.

또한 상기 차량 탐지부는, 상기 좌영상(또는 우영상)에서 추정된 차량을 나타내는 바운딩박스의 좌표를 확인하고, 상기 결정한 부등각사상변환 파라미터를 이용하여 상기 좌영상(또는 우영상)에서 추정된 차량을 나타내는 바운딩박스의 좌표와 대응하는 상기 우영상(또는 좌영상)의 좌표를 확인하고, 상기 확인한 우영상(또는 좌영상)의 좌표에 상기 차량 추정부에서 추정한 차량을 나타내는 바운딩박스가 없는 경우 상기 우영상(또는 좌영상)의 좌표에 바운딩박스를 표시하여 차량이 위치한 것으로 결정하며, 상기 좌영상 및 우영상에서 각각 추정한 차량의 수를 일치시킴으로써, 상기 좌영상 및 우영상에서 추정하지 못한 차량을 추가로 탐지하도록 하는 것을 특징으로 한다.In addition, the vehicle detector, confirms the coordinates of the bounding box indicating the vehicle estimated from the left image (or right image), and the vehicle estimated from the left image (or the right image) using the determined asymmetry transformation parameter Check the coordinates of the right image (or left image) corresponding to the coordinates of the bounding box representing By displaying a bounding box on the coordinates of the right image (or left image) to determine that the vehicle is located, and by matching the number of vehicles estimated in the left image and the right image, respectively, the vehicle that cannot be estimated in the left image and the right image It is characterized in that it is further detected.

또한 상기 교통량 산정 시스템은, 상기 교통량 산정부에서 산정한 특정 교통량 산정대상 영역에서의 단위시간에 따른 교통량 산정정보를 정부나 지방자치단체, 기관, 기업 또는 이들의 조합을 포함한 교통량 산정정보 이용 단말로 제공하는 교통량 산정정보 제공부;를 더 포함하는 것을 특징으로 한다.In addition, the traffic volume calculation system transmits the traffic volume calculation information according to the unit time in the specific traffic volume calculation target area calculated by the traffic volume calculation unit to the traffic volume calculation information use terminal including the government, local government, institution, company, or a combination thereof. It characterized in that it further comprises; a traffic volume calculation information providing unit to provide.

아울러, 본 발명의 일 실시예에 따른 스테레오 영상과 딥러닝을 이용한 교통량 산정 방법은, 교통량 산정 시스템에서, 스테레오 카메라로 촬영한 좌영상 및 우영상에서 차량을 추정하는 차량 추정 단계; 상기 교통량 산정 시스템에서, 상기 좌영상 및 우영상에서 추정된 각 차량의 좌표를 통해서 상기 좌영상과 우영상간의 위치나 각도의 차이를 계산하여 부등각사상변환 파라미터를 결정하는 부등각사상변환 파라미터 결정 단계; 상기 교통량 산정 시스템에서, 상기 결정한 부등각사상변환 파라미터를 이용하여 상기 좌영상 및 우영상에서 추정하지 못한 차량을 추가로 탐지하는 차량 탐지 단계; 및 상기 교통량 산정 시스템에서, 상기 탐지한 결과를 이용하여 단위시간에 따른 교통량을 산정하는 교통량 산정 단계;를 포함하는 것을 특징으로 한다.In addition, the traffic volume calculation method using a stereo image and deep learning according to an embodiment of the present invention, in the traffic volume calculation system, the vehicle estimation step of estimating the vehicle from the left image and the right image taken with a stereo camera; In the traffic volume calculation system, an asymmetric map transformation parameter determination step of determining the asymmetric map transformation parameter by calculating the difference in position or angle between the left image and the right image through the coordinates of each vehicle estimated from the left image and the right image ; a vehicle detection step of additionally detecting, in the traffic volume calculation system, a vehicle that cannot be estimated from the left image and the right image by using the determined asymmetric map transformation parameter; and a traffic volume calculation step of calculating, in the traffic volume calculation system, the traffic volume according to a unit time by using the detected result.

또한 상기 스테레오 카메라로 촬영한 좌영상 및 우영상은, 광학영상, 열화상 또는 이들의 조합을 포함하며, 상기 차량 탐지 단계는, 상기 광학영상, 열화상 또는 이들의 조합을 통해서 차량이 겹쳐져 있는 사각지대나, 안개, 황사 및 비를 포함한 기상조건이나, 역광을 포함한 촬영환경에 따라 차량을 탐지하지 못하는 것을 방지하는 것을 더 포함하는 것을 특징으로 한다.In addition, the left image and the right image taken with the stereo camera include an optical image, a thermal image, or a combination thereof, and the vehicle detection step is a blind spot where vehicles are overlapped through the optical image, thermal image or a combination thereof. It characterized in that it further comprises preventing the vehicle from being detected according to the terrain, weather conditions including fog, yellow sand and rain, or the shooting environment including backlight.

또한 상기 교통량 산정 방법은, 상기 교통량 산정 시스템에서, 다양한 종류의 차량을 촬영한 광학영상, 열화상 또는 이들의 조합으로부터 상기 차량을 학습하여 차량 추정용 학습모델을 생성하는 학습 단계;를 더 포함하며, 상기 차량 추정 단계는, 상기 교통량 산정 시스템에서, 상기 스테레오 카메라에서 촬영한 광학영상, 열화상 또는 이들의 조합에 대한 좌영상 및 우영상을 상기 차량 추정용 학습모델에 각각 입력하여, 상기 좌영상 및 우영상에 포함된 차량에 대한 특징점을 추출하고, 상기 추출한 특징점을 연결하여 바운딩박스를 구성함으로써, 상기 좌영상 및 우영상에 존재하는 차량을 추정하는 것을 더 포함하는 것을 특징으로 한다.In addition, the traffic volume calculation method, in the traffic volume calculation system, a learning step of generating a learning model for vehicle estimation by learning the vehicle from optical images, thermal images, or a combination thereof obtained by photographing various types of vehicles; , In the vehicle estimation step, the left image and the right image of the optical image, thermal image, or a combination thereof captured by the stereo camera are respectively input to the learning model for vehicle estimation in the traffic volume calculation system, and the left image and estimating a vehicle existing in the left image and the right image by extracting feature points for a vehicle included in the right image and connecting the extracted feature points to configure a bounding box.

또한 상기 차량 탐지 단계는, 상기 교통량 산정 시스템에서, 상기 좌영상(또는 우영상)에서 추정된 차량을 나타내는 바운딩박스의 좌표를 확인하는 단계; 상기 교통량 산정 시스템에서, 상기 결정한 부등각사상변환 파라미터를 이용하여 상기 좌영상(또는 우영상)에서 추정된 차량을 나타내는 바운딩박스의 좌표와 대응하는 상기 우영상(또는 좌영상)의 좌표를 확인하는 단계; 및 상기 교통량 산정 시스템에서, 상기 확인한 우영상(또는 좌영상)의 좌표에 상기 차량 추정 단계에서 추정한 차량을 나타내는 바운딩박스가 없는 경우, 상기 우영상(또는 좌영상)의 좌표에 바운딩박스를 표시하여 차량이 위치한 것으로 결정하는 단계;를 더 포함하며, 상기 교통량 산정 시스템에서, 상기 좌영상과 우영상에서 각각 추정한 차량의 수를 일치시킴으로써, 상기 좌영상과 우영상에서 추정하지 못한 차량을 추가로 탐지하도록 하는 것을 특징으로 한다.In addition, the vehicle detection step may include: in the traffic volume calculation system, checking coordinates of a bounding box indicating a vehicle estimated from the left image (or right image); In the traffic volume calculation system, the coordinates of the right image (or the left image) corresponding to the coordinates of the bounding box indicating the vehicle estimated from the left image (or the right image) using the determined asymmetry transformation parameter are confirmed. step; and in the traffic volume calculation system, if there is no bounding box indicating the vehicle estimated in the vehicle estimation step in the coordinates of the checked right image (or left image), a bounding box is displayed in the coordinates of the right image (or left image) and determining that the vehicle is located; further comprising, in the traffic volume calculation system, by matching the number of vehicles estimated in the left image and the right image, respectively, additionally detecting a vehicle that was not estimated in the left image and the right image characterized by doing so.

또한 상기 교통량 산정 방법은, 상기 교통량 산정 시스템에서, 상기 교통량 산정 단계에서 산정한 특정 교통량 산정대상 영역에서의 단위시간에 따른 교통량 산정정보를 정부나 지방자치단체, 기관, 기업 또는 이들의 조합을 포함한 교통량 산정정보 이용 단말로 제공하는 교통량 산정정보 제공 단계;를 더 포함하는 것을 특징으로 한다.In addition, the traffic volume calculation method includes, in the traffic volume calculation system, the traffic volume calculation information according to the unit time in the specific traffic volume calculation target area calculated in the traffic volume calculation step, including the government, local government, institution, company, or a combination thereof. It characterized in that it further comprises; providing the traffic volume estimation information provided to the traffic volume estimation information using terminal.

이상에서와 같이 본 발명의 스테레오 영상과 딥러닝을 이용한 교통량 산정 시스템 및 그 방법에 따르면, 광학영상 카메라 및 열화상 센서를 탑재한 스테레오 카메라에서 촬영한 좌영상 및 우영상을 기 설정한 학습모델에 각각 적용하여 교통량 산정대상 영역내의 차량을 추정하고, 상기 좌영상 및 우영상에서 추정한 각 차량의 좌표를 통해서 상기 좌영상과 우영상간의 위치나 각도의 차이를 계산하여 부등각사상변환 파라미터를 결정하고, 이를 토대로 상기 좌영상 및 우영상에서 추정하지 못한 차량을 추가로 탐지하거나 기상조건이나 촬영환경에 따라 차량을 찾아내지 못하는 것을 방지함으로써, 정밀한 차량 탐지를 가능하게 하여 교통량 산정의 정확도를 높일 수 있는 효과가 있다.As described above, according to the traffic volume calculation system and method using stereo images and deep learning of the present invention, the left and right images captured by the stereo camera equipped with an optical image camera and a thermal image sensor are applied to a preset learning model. Estimate the vehicle within the area to be calculated by applying each, and calculate the difference in position or angle between the left image and the right image through the coordinates of each vehicle estimated from the left image and the right image to determine an asymmetry transformation parameter, , based on this, it is possible to increase the accuracy of traffic volume calculation by enabling precise vehicle detection by additionally detecting a vehicle that cannot be estimated in the left and right images or preventing the vehicle from being found depending on weather conditions or shooting environment. there is

도 1은 본 발명의 일 실시예에 따른 스테레오 영상과 딥러닝을 이용한 교통량 산정 시스템의 전체 구성을 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른 스테레오 영상과 딥러닝을 이용한 교통량 산정 과정을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 교통량 산정 시스템의 구성을 상세하게 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른 스테레오 카메라의 구성과 동작을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 스테레오 영상과 딥러닝을 이용한 차량 추정 과정을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 스테레오 영상과 딥러닝을 이용한 차량 추정 결과와 좌영상과 우영상 간의 부등각사상변환 파라미터를 적용한 차량 탐지 과정을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 스테레오 영상과 딥러닝을 이용한 교통량 산정 방법의 동작과정을 상세하게 나타낸 순서도이다.
도 8은 본 발명의 일 실시예에 따른 좌영상과 우영상 내의 모든 차량을 탐지하는 과정을 상세하게 나타낸 순서도이다.
도 9는 본 발명의 일 실시예에 따른 교통량 산정 시스템의 하드웨어 구조를 나타낸 도면이다.
1 is a view showing the overall configuration of a traffic volume calculation system using a stereo image and deep learning according to an embodiment of the present invention.
2 is a view for explaining a traffic volume calculation process using a stereo image and deep learning according to an embodiment of the present invention.
3 is a diagram illustrating in detail the configuration of a traffic volume calculation system according to an embodiment of the present invention.
4 is a diagram for explaining the configuration and operation of a stereo camera according to an embodiment of the present invention.
5 is a diagram for explaining a vehicle estimation process using a stereo image and deep learning according to an embodiment of the present invention.
6 is a view for explaining a vehicle detection process to which a vehicle estimation result using a stereo image and deep learning and an asymmetry map transformation parameter between a left image and a right image are applied according to an embodiment of the present invention.
7 is a flowchart illustrating in detail an operation process of a method for calculating a traffic volume using a stereo image and deep learning according to an embodiment of the present invention.
8 is a flowchart illustrating in detail a process of detecting all vehicles in a left image and a right image according to an embodiment of the present invention.
9 is a diagram illustrating a hardware structure of a traffic volume calculation system according to an embodiment of the present invention.

이하, 첨부한 도면을 참조하여 본 발명의 스테레오 영상과 딥러닝을 이용한 교통량 산정 시스템 및 그 방법에 대한 바람직한 실시 예를 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다. 또한 본 발명의 실시 예들에 대해서 특정한 구조적 내지 기능적 설명들은 단지 본 발명에 따른 실시 예를 설명하기 위한 목적으로 예시된 것으로, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는 것이 바람직하다.Hereinafter, with reference to the accompanying drawings, a preferred embodiment of the system and method for calculating the amount of traffic using a stereo image and deep learning of the present invention will be described in detail. Like reference numerals in each figure indicate like elements. In addition, specific structural or functional descriptions for the embodiments of the present invention are only exemplified for the purpose of describing the embodiments according to the present invention, and unless otherwise defined, all terms used herein, including technical or scientific terms They have the same meaning as commonly understood by those of ordinary skill in the art to which the present invention pertains. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present specification. It is preferable not to

도 1은 본 발명의 일 실시예에 따른 스테레오 영상과 딥러닝을 이용한 교통량 산정 시스템의 전체 구성을 나타낸 도면이다.1 is a view showing the overall configuration of a traffic volume calculation system using a stereo image and deep learning according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명은 교통량 산정 시스템(100), 스테레오 카메라(200), 데이터베이스(300), 교통량 산정정보 이용 단말(400) 등을 포함하여 구성된다.As shown in FIG. 1 , the present invention is configured to include a traffic volume calculation system 100 , a stereo camera 200 , a database 300 , and a traffic volume estimation information using terminal 400 .

상기 교통량 산정 시스템(100)은 광학영상 카메라와 열화상 센서가 탑재되어 있는 스테레오 카메라(200)에서 촬영한 좌영상 및 우영상을 사전에 학습해둔 차량 추정용 학습모델에 각각 적용하여 교통량 산정대상 영역내의 차량을 추정한다.The traffic volume calculation system 100 applies the left image and the right image captured by the stereo camera 200 equipped with an optical image camera and a thermal image sensor to the learning model for vehicle estimation learned in advance, respectively, to the target area for calculating the traffic volume Estimate the vehicle within.

즉 상기 교통량 산정 시스템(100)에서 단일의 광학영상 카메라와 차량 추정용 학습모델을 이용하여 차량을 탐지하는 경우에는 사각지대로 인해 차량을 인식하지 못하거나, 촬영환경에 따른 잡영과 낮은 공간해상도로 인해 차량의 인식률이 저하될 수 있으며, 또한 광학영상 카메라를 이용할 경우 기상조건에 따라 차량이 보호색으로 나타나 차량의 추정이 불가능할 수 있으므로, 본 발명에서는 이를 보완하기 위해서 제1 카메라(210) 및 제2 카메라(220)로 이루어진 광학영상 카메라 이외에 제1 열화상 센서(230) 및 제2 열화상 센서(240)를 추가로 탑재한 스테레오 카메라(200)를 사용한다.That is, when the traffic volume calculation system 100 detects a vehicle using a single optical image camera and a learning model for vehicle estimation, the vehicle may not be recognized due to a blind spot, or due to noise and low spatial resolution according to the shooting environment. Due to this, the recognition rate of the vehicle may be lowered, and when an optical image camera is used, the vehicle appears in a protective color depending on weather conditions and thus it may be impossible to estimate the vehicle. In addition to the optical imaging camera composed of the camera 220 , the stereo camera 200 additionally mounted with the first thermal image sensor 230 and the second thermal image sensor 240 is used.

이에 따라 교통량 산정대상 영역내의 차량 추정의 성능이 향상되어, 사각지대(예를 들어, 차량이 겹쳐져 있어 후미에 위치한 차량이 어느 하나의 광학영상 카메라나 열화상 센서에서는 확인되지 않지만, 다른 광학영상 카메라나 열화상 센서에서는 확인되는 경우), 기상조건, 촬영환경 등에 따라 차량을 찾아내지 못하는 것을 방지할 수 있게 된다.Accordingly, the performance of vehicle estimation within the area to be estimated for traffic volume is improved, so that a vehicle located at the rear of a blind spot (for example, due to overlapping vehicles is not identified by either optical imaging camera or thermal imaging sensor, but by other optical imaging cameras or It is possible to prevent the vehicle from being found depending on the thermal image sensor), weather conditions, and shooting environment.

이때 상기 차량 추정용 학습모델은 다양한 종류의 차량을 촬영한 복수의 광학영상, 열화상 또는 이들의 조합으로부터 상기 차량을 학습하여 생성한 것으로서, 상기 교통량 산정 시스템(100)에서 관련 데이터를 지속적으로 수집하여 업데이트할 수 있다.At this time, the learning model for vehicle estimation is generated by learning the vehicle from a plurality of optical images, thermal images, or a combination of various types of vehicles, and the traffic volume calculation system 100 continuously collects related data can be updated.

상기 학습은 영상 학습에 최적화된 CNN(Convolutional Neural Network) 학습네트워크를 사용하는 것이 바람직하지만 이에 한정되는 것은 아니며, 그 이외에 ANN(Artificial Neural Network), DCNN(Deep CNN) 등과 같은 다양한 학습네트워크를 사용할 수 있다.For the above learning, it is preferable to use a CNN (Convolutional Neural Network) learning network optimized for image learning, but it is not limited thereto. In addition, various learning networks such as ANN (Artificial Neural Network) and DCNN (Deep CNN) can be used. there is.

또한 상기 교통량 산정 시스템(100)은 상기 차량 추정용 학습모델을 통해 상기 스테레오 카메라(200)에서 촬영한 좌영상 및 우영상으로부터 차량을 추정한 이후, 상기 좌영상 및 우영상에서 추정된 각 차량의 좌표를 통해서 상기 좌영상과 우영상간의 위치나 각도의 차이를 계산하여 부등각사상변환 파라미터를 결정하고, 상기 결정한 부등각사상변환 파라미터를 토대로 상기 좌영상과 우영상에서 탐지하지 못한 차량을 추가로 탐지하여 상기 좌영상과 우영상의 차량 대수를 일치시키며, 이를 토대로 교통량 산정대상 영역을 통과하는 차량의 교통량을 산정한다.In addition, the traffic volume calculation system 100 estimates the vehicle from the left image and the right image captured by the stereo camera 200 through the vehicle estimation learning model, and then the coordinates of each vehicle estimated from the left image and the right image By calculating the difference in position or angle between the left image and the right image through to determine the asymmetric image transformation parameter, and based on the determined asymmetric image transformation parameter, additionally detect a vehicle that has not been detected in the left image and the right image. The number of vehicles in the left image and the right image are matched, and based on this, the traffic volume of vehicles passing through the traffic volume calculation target area is calculated.

즉 상기 스테레오 카메라(200)와 차량 추정용 학습모델을 이용할 경우, 상기 스테레오 카메라(200)에서 촬영한 좌영상 및 우영상은 영상의 특징이 다를 수 있기 때문에 진단이나 예측의 정확도에 차이가 날 수 있으므로, 본 발명에서는 이를 상호보완하여 교통량 산정대상 영역내의 모든 차량을 탐지하기 위해서 부등각사상변환 파라미터를 사용한다. 이에 따라 상기 좌영상 및 우영상에서 추정하지 못한 차량을 추가로 탐지할 수 있으며, 이에 따라 교통량 산정의 정확도를 높일 수 있게 된다.That is, when the stereo camera 200 and the learning model for vehicle estimation are used, the left image and the right image captured by the stereo camera 200 may have different image characteristics, so the accuracy of diagnosis or prediction may differ. Therefore, in the present invention, the asymmetry transformation parameter is used to detect all the vehicles in the traffic volume calculation target area by complementing them. Accordingly, it is possible to additionally detect a vehicle that has not been estimated in the left image and the right image, thereby increasing the accuracy of calculating the traffic volume.

여기서 상기 부등각사상변환(affine transform)은 상기 스테레오 카메라(200)를 통해 동일한 공간을 촬영한 좌영상과 우영상에서, 상기 공간의 차이에 대한 함수이다. 즉 상기 부등각사상변환은 한 벡터 공간을 다른 벡터 공간에 대응시키고, 직선과 거리의 비를 보존하는 변환으로서, 상기 스테레오 카메라(200)에서 촬영한 좌영상과 우영상 간의 축척(scaling), 회전(rotation) 또는 이동(translation) 등과 같은 일차변환이다.Here, the affine transform is a function of the space difference between the left image and the right image photographed in the same space through the stereo camera 200 . That is, the asymmetry transformation is a transformation that makes one vector space correspond to another vector space and preserves the ratio of the straight line to the distance, and scales and rotates the left image and the right image captured by the stereo camera 200 . It is a linear transformation such as rotation or translation.

또한 상기 교통량 산정 시스템(100)은 특정 교통량 산정대상 영역에서 산정한 교통량 산정정보를 네트워크를 통해 상기 교통량 산정정보 이용 단말(400)로 제공할 수 있다.In addition, the traffic volume calculation system 100 may provide the traffic volume calculation information calculated in a specific traffic volume calculation target area to the traffic volume calculation information using terminal 400 through a network.

이때 상기 네트워크는, 인터넷, WiFi, 4G, 5G, LTE 등과 같은 다양한 유선 및 무선통신방법을 지원함으로써, 상기 교통량 산정 시스템(100)과 상기 스테레오 카메라(200) 사이에 영상데이터를 송수신하며, 상기 교통량 산정 시스템(100)과 교통량 산정정보 이용 단말(400) 사이에 교통량 산정정보에 대한 데이터를 송수신할 수 있도록 한다.At this time, the network supports various wired and wireless communication methods such as the Internet, WiFi, 4G, 5G, LTE, etc., thereby transmitting and receiving image data between the traffic volume calculation system 100 and the stereo camera 200, and the traffic volume It enables transmission and reception of data on traffic volume estimation information between the calculation system 100 and the traffic volume estimation information use terminal 400 .

한편 상기 교통량 산정 시스템(100)은 독립적인 플랫폼 형태로 구성되어, 복수의 스테레오 카메라(200)에서 촬영한 좌영상 및 우영상을 토대로 각 교통량 산정대상 영역내의 교통량 산정을 수행하는 것을 예로 하여 설명하였지만, 상기 스테레오 카메라(200)와 일체로 구성하여 해당 교통량 산정대상 영역내의 교통량 산정을 수행할 수 있음을 밝혀둔다.On the other hand, the traffic volume calculation system 100 is configured as an independent platform, and based on the left and right images captured by the plurality of stereo cameras 200, it was described as an example to calculate the traffic volume in each traffic volume calculation target area. , it is revealed that it is possible to calculate the amount of traffic within the corresponding traffic amount calculation target area by being integrally configured with the stereo camera 200 .

상기 스테레오 카메라(200)는 광학영상 카메라로서 교통량 산정대상 영역을 촬영하여 좌영상 및 우영상을 생성하는 제1 카메라(210) 및 제2 카메라(220)와, 상기 좌영상 및 우영상에 대한 열화상을 생성하는 제1 열화상 센서(230) 및 제2 열화상 센서(240)를 포함하며, 상기 좌영상 및 우영상에 대한 광학영상이나 열화상을 네트워크를 통해 상기 교통량 산정 시스템(100)으로 전송한다.The stereo camera 200 is an optical image camera, and a first camera 210 and a second camera 220 for generating a left image and a right image by photographing a traffic volume calculation target area, and a column for the left image and the right image It includes a first thermal image sensor 230 and a second thermal image sensor 240 for generating images, and transmits optical images or thermal images of the left image and right image to the traffic volume estimation system 100 through a network. send.

즉 상기 스테레오 카메라(200)는 단일의 광학영상 카메라만을 사용하는 경우 역광 등의 촬영조건이나 안개, 황사 및 비 등의 기상조건에 따라 차량의 탐지가 불가능할 경우가 발생할 수 있는데, 이를 방지하기 위해서 적어도 2개 이상의 광학영상 카메라 및 열화상 센서를 구비함으로써, 상기 교통량 산정대상 영역을 이동하는 차량을 정확하게 탐지할 수 있도록 한 것이다.(도 4 참조)That is, when only a single optical image camera is used, the stereo camera 200 may not be able to detect a vehicle depending on shooting conditions such as backlight or weather conditions such as fog, yellow sand and rain. In order to prevent this, at least By having two or more optical imaging cameras and thermal imaging sensors, it is possible to accurately detect a vehicle moving in the area subject to the traffic volume calculation (see FIG. 4).

상기 데이터베이스(300)는 상기 교통량 산정 시스템(100)에서 생성한 차량 추정용 학습모델을 저장하여 관리하는 학습모델 DB(310), 상기 교통량 산정 시스템(100)에서 각 스테레오 카메라(200)로부터 수집하는 광학영상, 열화상 또는 이들의 조합을 저장하여 관리하는 영상데이터 DB(320), 상기 교통량 산정 시스템(100)에서 상기 광학영상, 열화상 또는 이들의 조합으로부터 확인한 차량의 탐지결과를 통해 수행하는 교통량 산정정보를 저장하여 관리하는 교통량 산정정보 DB(330) 등을 포함하여 구성된다.The database 300 is a learning model DB 310 that stores and manages the learning model for vehicle estimation generated by the traffic volume calculation system 100, and collects from each stereo camera 200 in the traffic volume calculation system 100 Image data DB 320 that stores and manages optical images, thermal images, or a combination thereof, and the amount of traffic performed through the vehicle detection result confirmed from the optical image, thermal image, or a combination thereof in the traffic volume calculation system 100 It is configured to include a traffic volume calculation information DB 330 that stores and manages the calculation information.

또한 상기 데이터베이스(300)는 도면에 도시하지는 않았지만, 각 지역별로 설치되어 있는 각 스테레오 카메라(200)의 정보(예를 들어, 식별 정보, 설치 위치 등)를 저장하여 관리할 수 있다.In addition, although not shown in the drawing, the database 300 may store and manage information (eg, identification information, installation location, etc.) of each stereo camera 200 installed in each region.

상기 교통량 산정정보 이용 단말(400)은 정부나 지방자치단체, 기관, 기업 등에 소속된 관리자나 개인 사용자가 사용하는 스마트폰, 태블릿, PC 등의 통신단말로서, 상기 교통량 산정 시스템(100)에서 수행한 각 교통량 산정대상 영역의 교통량 산정정보를 네트워크를 통해 상기 교통량 산정 시스템(100)으로부터 제공받아 활용한다.The traffic volume calculation information use terminal 400 is a communication terminal such as a smart phone, tablet, PC, etc. used by an administrator or individual user belonging to the government, local government, institution, company, etc., performed in the traffic volume calculation system 100 The traffic volume calculation information of each traffic volume calculation target area is provided from the traffic volume calculation system 100 through the network and is used.

다음에는, 본 발명의 일 실시예에 따른 교통량 산정 시스템에서의 스테레오 영상과 딥러닝을 이용한 차량 탐지 및 교통량 산정 과정을 도 2를 참조하여 보다 상세하게 설명한다.Next, a process of detecting a vehicle and calculating a traffic volume using a stereo image and deep learning in a traffic volume calculation system according to an embodiment of the present invention will be described in more detail with reference to FIG. 2 .

도 2는 본 발명의 일 실시예에 따른 스테레오 영상과 딥러닝을 이용한 교통량 산정 과정을 설명하기 위한 도면이다.2 is a view for explaining a traffic volume calculation process using a stereo image and deep learning according to an embodiment of the present invention.

도 2에 도시된 바와 같이, 본 발명의 상기 교통량 산정 시스템(100)은 차량 추정용 학습모델을 생성하여, 상기 학습모델 DB(310)에 저장한다(①). 즉 상기 교통량 산정 시스템(100)은 다양한 종류의 차량을 촬영한 복수의 광학영상, 열화상 또는 이들을 조합한 영상데이터를 수집하고, 상기 수집한 영상데이터로부터 상기 다양한 종류의 차량을 학습하여 생성한 차량 추정용 학습모델을 상기 학습모델 DB(310)에 저장하여 관리하는 것이다.As shown in FIG. 2 , the traffic volume calculation system 100 of the present invention generates a learning model for vehicle estimation and stores it in the learning model DB 310 (①). That is, the traffic volume calculation system 100 collects a plurality of optical images, thermal images, or a combination of these images of various types of vehicles, and learns the various types of vehicles from the collected image data. The learning model for estimation is stored and managed in the learning model DB 310 .

이처럼 상기 차량 추정용 학습모델을 생성하여 상기 데이터베이스(300)에 저장하여 관리하는 상태에서, 상기 교통량 산정 시스템(100)은 네트워크를 통해 상기 스테레오 카메라(200)에서 촬영한 광학영상, 열화상 또는 이들의 조합에 대한 좌영상 및 우영상을 수집하고, 상기 수집한 좌영상 및 우영상을 상기 차량 추정용 학습모델의 입력으로 하여, 상기 좌영상 및 우영상에서 각 차량을 추정한다(②).In this way, in the state where the learning model for vehicle estimation is created, stored in the database 300 and managed, the traffic volume calculation system 100 is an optical image, a thermal image, or these A left image and a right image are collected for a combination of , and each vehicle is estimated from the left image and the right image by using the collected left image and right image as an input of the learning model for vehicle estimation (②).

이어서, 상기 교통량 산정 시스템(100)은 상기 좌영상 및 우영상에서 추정한 각 차량의 좌표를 통해서 상기 좌영상과 우영상간의 위치나 각도 차이를 계산하여 부등각사상변환 파라미터를 결정한다(③).Next, the traffic volume calculation system 100 calculates the position or angle difference between the left image and the right image through the coordinates of each vehicle estimated from the left image and the right image to determine an asymmetry transformation parameter (③).

또한 상기 교통량 산정 시스템(100)은 상기 결정한 부등각사상변환 파라미터를 이용하여 상기 좌영상 및 우영상 내의 차량을 추가로 탐지한다(④). 즉 상기 좌영상과 우영상에서 탐지하지 못한 차량을 추가로 탐지하여 상기 좌영상과 우영상의 차량 대수를 일치시키는 것이다.(도 6 참조)In addition, the traffic volume calculation system 100 additionally detects a vehicle in the left image and the right image using the determined asymmetric map transformation parameter (④). That is, vehicles that have not been detected in the left and right images are additionally detected to match the number of vehicles in the left and right images (refer to FIG. 6).

또한 상기 교통량 산정 시스템(100)은 상기 ④ 과정에서 추가로 탐지한 결과를 이용하여, 교통량 산정대상 영역을 통과하는 차량평균속도, 차량통과시간 등을 고려하여 단위시간(예를 들어, 일, 시간, 15분, 5분 등)에 따른 차량의 교통량을 산정하고, 상기 산정한 교통량 산정정보를 상기 교통량 산정정보 DB(330)에 저장한다(⑤).In addition, the traffic volume calculation system 100 uses the result of the additional detection in step ④, taking into consideration the average speed of the vehicle passing through the traffic volume calculation target area, the vehicle transit time, etc. , 15 minutes, 5 minutes, etc.) calculates the vehicle traffic volume, and stores the calculated traffic volume calculation information in the traffic volume calculation information DB 330 (⑤).

이렇게 산정된 각 교통량 산정대상 영역별 교통량 산정정보는 정부나 지방자치단체, 기관, 기업 등에 소속된 관리자나 개인 사용자의 요청에 따라 네트워크를 통해 상기 관리자나 개인 사용자가 소지한 상기 교통량 산정정보 이용 단말(400)로 제공된다.The traffic volume calculation information for each traffic volume calculation target area calculated in this way is transmitted through the network at the request of the manager or individual user belonging to the government, local government, institution, company, etc. (400).

도 3은 본 발명의 일 실시예에 따른 교통량 산정 시스템의 구성을 상세하게 나타낸 도면이다.3 is a diagram illustrating in detail the configuration of a traffic volume calculation system according to an embodiment of the present invention.

도 3에 도시된 바와 같이, 상기 교통량 산정 시스템(100)은 학습데이터 수집부(110), 학습부(120), 영상데이터 수신부(130), 차량 추정부(140), 부등각사상변환 파라미터 결정부(150), 차량 탐지부(160), 교통량 산정부(170), 교통량 산정정보 제공부(180), 메모리(190) 등으로 포함하여 구성된다.As shown in FIG. 3 , the traffic amount calculation system 100 determines the learning data collection unit 110 , the learning unit 120 , the image data receiving unit 130 , the vehicle estimation unit 140 , and the asymmetry mapping parameter. It is configured to include a unit 150 , a vehicle detection unit 160 , a traffic quantity calculation unit 170 , a traffic quantity estimation information providing unit 180 , a memory 190 , and the like.

또한 상기 교통량 산정 시스템(100)은 도면에 도시하지는 않았지만, 각 구성 부분에 동작전원을 공급하는 전원부, 각종 기능에 대한 데이터 입력을 위한 입력부, 각종 동작프로그램의 업데이트를 관리하는 업데이트 관리부, 상기 교통량 산정 시스템(100)의 각 구성 부분의 동작을 총괄적으로 제어하는 제어부 등을 추가로 포함할 수 있다.In addition, although not shown in the drawing, the traffic volume calculation system 100 includes a power supply unit for supplying operating power to each component, an input unit for data input for various functions, an update management unit for managing updates of various operation programs, and the traffic calculation The system 100 may further include a control unit that collectively controls the operation of each component.

상기 학습데이터 수집부(110)는 다양한 종류의 차량이 촬영된 복수의 광학영상, 열화상 또는 이들의 조합을 포함한 영상데이터를 수집한다.The learning data collection unit 110 collects image data including a plurality of optical images, thermal images, or a combination thereof of various types of vehicles.

상기 학습부(120)는 상기 학습데이터 수집부(110)에서 수집한 다양한 종류의 차량을 촬영한 복수의 광학영상, 열화상 또는 이들의 조합을 포함한 영상데이터로부터 상기 차량을 학습하여 차량 추정용 학습모델을 생성하고, 상기 생성한 차량 추정용 학습모델을 상기 학습모델 DB(310)에 저장하여 관리하도록 한다.The learning unit 120 learns the vehicle from image data including a plurality of optical images, thermal images, or a combination thereof obtained by photographing various types of vehicles collected by the learning data collection unit 110 to learn vehicle estimation. A model is generated, and the generated learning model for vehicle estimation is stored and managed in the learning model DB 310 .

한편 상기 학습데이터 수집부(110)는 상기 차량 추정용 학습모델에 필요한 영상데이터를 지속적으로 수집할 수 있으며, 상기 학습부(120)는 상기 수집한 영상데이터를 토대로 상기 차량 추정용 학습모델을 업데이트할 수 있다.Meanwhile, the learning data collection unit 110 may continuously collect image data required for the vehicle estimation learning model, and the learning unit 120 updates the vehicle estimation learning model based on the collected image data. can do.

상기 영상데이터 수신부(130)는 상기 스테레오 카메라(200)에서 촬영한 광학영상, 열화상 또는 이들의 조합에 대한 좌영상 및 우영상을 수집하고, 상기 수집한 좌영상 및 우영상을 각 스테레오 카메라(200)별로 분류하여 상기 영상데이터 DB(320)에 저장하며, 상기 수집한 좌영상 및 우영상을 상기 차량 추정부(140)로 제공한다.The image data receiving unit 130 collects the left and right images of the optical image, thermal image, or a combination thereof taken by the stereo camera 200, and collects the collected left and right images by each stereo camera ( 200) and stored in the image data DB 320 , and the collected left and right images are provided to the vehicle estimator 140 .

상기 차량 추정부(140)는 상기 영상데이터 수집부(130)로부터 입력받은 상기 스테레오 카메라(200)에서 촬영한 좌영상 및 우영상으로부터 차량을 추정하고, 상기 좌영상 및 우영상에서 추정한 각 차량의 추정결과를 상기 부등각사상변환 파라미터 결정부(150)로 출력한다.The vehicle estimator 140 estimates a vehicle from the left image and the right image captured by the stereo camera 200 received from the image data collection unit 130 , and estimates of each vehicle estimated from the left image and the right image. The estimation result is output to the disequiangular map transformation parameter determining unit 150 .

즉 상기 차량 추정부(140)는 상기 스테레오 카메라(200)에서 촬영한 광학영상, 열화상 또는 이들의 조합에 대한 좌영상 및 우영상을 상기 차량 추정용 학습모델에 각각 입력으로 하여, 상기 좌영상 및 우영상에 포함된 차량에 대한 특징점을 추출하고, 상기 추출한 특징점을 연결하여 바운딩박스를 구성하여, 상기 좌영상 및 우영상에 존재하는 차량을 추정하는 것이다.That is, the vehicle estimator 140 inputs the left image and the right image of the optical image, the thermal image, or a combination thereof captured by the stereo camera 200 to the learning model for vehicle estimation, respectively, and the left image and extracting a feature point for a vehicle included in the right image, connecting the extracted feature point to configure a bounding box, and estimating a vehicle existing in the left image and the right image.

상기 부등각사상변환 파라미터 결정부(150)는 상기 차량 추정부(140)에서 추정한 상기 좌영상 및 우영상에서의 각 차량의 좌표를 통해서 상기 좌영상과 우영상간의 위치나 각도의 차이를 계산하여 부등각사상변환 파라미터를 결정하며, 상기 결정한 부등각사상변환 파라미터를 상기 차량 탐지부(160)로 출력한다.The asymmetric map transformation parameter determining unit 150 calculates a difference in position or angle between the left image and the right image through the coordinates of each vehicle in the left image and the right image estimated by the vehicle estimator 140, An asymmetry image transformation parameter is determined, and the determined asymmetric image transformation parameter is output to the vehicle detection unit 160 .

상기 차량 탐지부(160)는 상기 부등각사상변환 파라미터 결정부(150)에서 결정한 부등각사상변환 파라미터를 이용하여, 상기 차량 추정부(140)에서 추정하지 못한 차량을 추가로 탐지하고, 상기 추가로 탐지한 차량에 대한 정보를 상기 교통량 산정부(170)로 출력한다.The vehicle detection unit 160 additionally detects a vehicle that has not been estimated by the vehicle estimating unit 140 by using the disequiangular map transformation parameter determined by the asymmetric image transformation parameter determining unit 150, and the addition The information on the vehicle detected as , is output to the traffic amount calculating unit 170 .

즉 상기 차량 탐지부(160)는 상기 광학영상, 열화상 또는 이들의 조합을 포함한 영상데이터에서 차량이 겹쳐져 있는 사각지대나, 안개, 황사 및 비를 포함한 기상조건이나, 역광을 포함한 촬영환경에 따라 차량을 탐지하지 못하는 것을 방지하는 것이다.That is, the vehicle detection unit 160 is a blind spot where vehicles are overlapped in the image data including the optical image, thermal image, or a combination thereof, weather conditions including fog, yellow sand and rain, or shooting environment including backlight. This is to prevent the vehicle from being detected.

이를 위해서, 상기 차량 탐지부(160)는 상기 차량 추정부(140)를 통해 추정한 상기 좌영상(또는 우영상)에서 추정된 차량을 나타내는 바운딩박스의 좌표를 확인한 후, 상기 부등각사상변환 파라미터 결정부(150)에서 결정한 부등각사상변환 파라미터를 이용하여 상기 좌영상(또는 우영상)에서 추정된 차량을 나타내는 바운딩박스의 좌표와 대응하는 상기 우영상(또는 좌영상)의 좌표를 확인한다.To this end, the vehicle detector 160 checks the coordinates of a bounding box indicating a vehicle estimated from the left image (or right image) estimated through the vehicle estimator 140 , and then the amorphous map transformation parameter The coordinates of the right image (or the left image) corresponding to the coordinates of the bounding box indicating the vehicle estimated from the left image (or the right image) are checked using the asymmetric map transformation parameter determined by the determining unit 150 .

이어서, 상기 차량 탐지부(160)는 상기 확인한 우영상(또는 좌영상)의 좌표에 상기 차량 추정부(140)에서 추정한 차량을 나타내는 바운딩박스가 없는 경우 이에 대응하는 상기 우영상(또는 좌영상)의 좌표에 바운딩박스를 표시하여 차량이 위치한 것으로 결정하며, 이러한 방식으로 상기 좌영상 및 우영상에서 각각 추정한 차량의 수를 일치시킴으로써, 상기 좌영상 및 우영상에서 추정하지 못한 차량을 추가로 탐지한다.Next, when there is no bounding box indicating the vehicle estimated by the vehicle estimator 140 in the coordinates of the checked right image (or left image), the vehicle detection unit 160 determines the corresponding right image (or left image). ) to determine that the vehicle is located by displaying a bounding box on the coordinates of, and by matching the number of vehicles estimated in the left and right images in this way, additionally detects vehicles that were not estimated in the left and right images. .

상기 교통량 산정부(170)는 상기 차량 탐지부(160)에서 탐지한 상기 좌영상 및 우영상내의 차량탐지 결과를 이용하여, 교통량 산정대상 영역을 통과하는 차량평균속도, 차량통과시간 등을 고려하여 단위시간에 따른 교통량을 산정하며, 상기 산정한 교통량 산정정보를 상기 교통량 산정정보 DB(330)에 저장하여 관리하도록 한다.The traffic volume calculation unit 170 uses the vehicle detection results in the left and right images detected by the vehicle detection unit 160, taking into consideration the average vehicle speed and vehicle transit time passing through the traffic volume calculation target area. The traffic volume is calculated for each unit time, and the calculated traffic volume calculation information is stored and managed in the traffic volume calculation information DB (330).

상기 교통량 산정정보 제공부(180)는 상기 교통량 산정부(170)에서 산정한 특정 교통량 산정대상 영역에서의 단위시간에 따른 교통량 산정정보를 정부나 지방자치단체, 기관, 기업 또는 이들의 조합을 포함한 교통량 산정정보 이용 단말(400)로 제공한다.The traffic volume calculation information providing unit 180 provides the traffic volume calculation information according to the unit time in the specific traffic volume calculation target area calculated by the traffic volume calculation unit 170, including the government, local governments, institutions, companies, or a combination thereof. It is provided to the traffic volume calculation information using terminal 400 .

상기 메모리(190)는 상기 교통량 산정 시스템(100)에서 사용하는 각종 동작프로그램을 저장하고 있으며, 상기 영상데이터 수신부(130)에서 수신한 광학영상, 열화상 또는 이들의 조합을 포함한 좌영상 및 우영상, 상기 차량 추정부(140)에서 추정한 차량에 대한 정보, 상기 부등각사상변환 파라미터 결정부(150)에서 결정한 부등각사상변환 파라미터, 상기 차량 탐지부(160)에서 탐지한 추가 차량 정보, 상기 교통량 산정부(170)에서 수행한 교통량 산정정보 등을 임시 저장하는 기능을 수행한다.The memory 190 stores various operation programs used in the traffic volume calculation system 100 , and a left image and a right image including an optical image, a thermal image, or a combination thereof received by the image data receiving unit 130 . , information on the vehicle estimated by the vehicle estimator 140 , the asymmetric map transformation parameter determined by the asymmetric map transformation parameter determiner 150 , additional vehicle information detected by the vehicle detection unit 160 , the It performs a function of temporarily storing the traffic volume calculation information, etc. performed by the traffic volume calculation unit 170 .

도 4는 본 발명의 일 실시예에 따른 스테레오 카메라의 구성과 동작을 설명하기 위한 도면이다.4 is a view for explaining the configuration and operation of a stereo camera according to an embodiment of the present invention.

도 4에 도시된 바와 같이, 본 발명의 일 실시예에 따른 스테레오 카메라(200)는 교통량 산정대상 영역의 도로상에 설치되며, 광학영상 카메라로서 교통량 산정대상 영역을 촬영하여 좌영상을 생성하는 제1 카메라(210), 교통량 산정대상 영역을 촬영하여 우영상을 생성하는 제2 카메라(220), 상기 제1 카메라(210)의 전방에 위치하여 좌영상에 대한 열화상을 획득하는 제1 열화상 센서(230), 상기 제2 카메라(220)의 전방에 위치하여 우영상에 대한 열화상을 획득하는 제2 열화상 센서(240)로 구성된다.As shown in FIG. 4, the stereo camera 200 according to an embodiment of the present invention is installed on the road of the traffic volume estimation target area, and as an optical image camera, generates a left image by photographing the traffic volume calculation target area. 1 camera 210, a second camera 220 that generates a right image by photographing a traffic volume calculation target area, and a first thermal image that is located in front of the first camera 210 to obtain a thermal image of the left image It consists of a sensor 230 and a second thermal image sensor 240 positioned in front of the second camera 220 to obtain a thermal image of a right image.

이때 도면상의 위치에 따라 편의상 상기 제1 카메라(210)는 좌측 카메라로서 좌영상을 생성하며, 상기 제2 카메라(220)는 우측 카메라로서 우영상을 촬영하는 것으로 설명한다.At this time, it will be described that the first camera 210 generates a left image as a left camera, and the second camera 220 captures a right image as a right camera for convenience according to a location in the drawing.

상기 제1 카메라(210)에 의해 촬영되는 영역은 실선 삼각형 부분이며, 상기 제2 카메라(220)에 의해 촬영되는 영역은 점선 삼각형 부분이다.The area photographed by the first camera 210 is a solid triangle portion, and the area photographed by the second camera 220 is a dotted triangle portion.

상기 스테레오 카메라(200)는 제어부(미도시)의 제어를 토대로 기상상황이 좋은 상황(즉 평상시)에서는 상기 제1 카메라(210) 및 제2 카메라(220)를 이용하여 촬영한 좌영상 및 우영상을 네트워크를 통해 상기 교통량 산정 시스템(100)으로 전송하며, 안개, 황사, 비 등의 기상상황이 악화되거나 역광 등의 촬영환경이 적합하지 않을 때에는 상기 제1 열화상 센서(230) 및 제2 열화상 센서(240)를 통해 좌영상 및 우영상에 대한 열화상을 네트워크를 통해 상기 교통량 산정 시스템(100)으로 전송한다.The stereo camera 200 is a left image and a right image captured using the first camera 210 and the second camera 220 in good weather conditions (ie, normal) based on the control of the controller (not shown). is transmitted to the traffic volume calculation system 100 through the network, and when the weather conditions such as fog, yellow sand, rain, etc. deteriorate or the shooting environment such as backlight is not suitable, the first thermal image sensor 230 and the second column Thermal images of the left image and the right image are transmitted through the image sensor 240 to the traffic volume calculation system 100 through a network.

도 5는 본 발명의 일 실시예에 따른 스테레오 영상과 딥러닝을 이용한 차량 추정 과정을 설명하기 위한 도면이다.5 is a diagram for explaining a vehicle estimation process using a stereo image and deep learning according to an embodiment of the present invention.

도 5에 도시된 바와 같이, 상기 교통량 산정 시스템(100)은 네트워크를 통해 상기 스테레오 카메라(200)로부터 수신한 좌영상 및 우영상을 상기 차량 추정용 학습모델에 적용하여 각 차량을 추정한다.As shown in FIG. 5 , the traffic volume calculation system 100 estimates each vehicle by applying the left image and the right image received from the stereo camera 200 through the network to the vehicle estimation learning model.

이때 상기 교통량 산정 시스템(100)은 도 5의 (a)에 나타낸 바와 같이 평상시에는 상기 스테레오 카메라(200)의 제1 카메라(210)에서 촬영한 좌영상 및 제2 카메라(220)에서 촬영한 우영상을 상기 차량 추정용 학습모델에 각각 적용하여 각 차량을 추정한다.At this time, as shown in FIG. 5 ( a ), the traffic volume calculation system 100 is a left image taken by the first camera 210 of the stereo camera 200 and a right image taken by the second camera 220 , as shown in FIG. 5 ( a ). Each vehicle is estimated by applying each image to the learning model for vehicle estimation.

또한 상기 교통량 산정 시스템(100)은 도 5의 (b)에 나타낸 바와 같이 안개, 황사, 비 등의 기상상황이 악화될 경우(또는 역광 등의 촬영환경이 적합하지 않을 경우)에는 상기 스테레오 카메라(200)의 제1 열화상 센서(230)를 통해 생성한 좌영상에 대한 열화상 및 제2 열화상 센서(240)를 통해 생성한 우영상에 대한 열화상을 상기 차량 추정용 학습모델에 각각 적용하여 각 차량을 추정한다.In addition, as shown in (b) of FIG. 5, when the weather conditions such as fog, yellow dust, and rain deteriorate (or when the shooting environment such as backlight is not suitable), the stereo camera ( 200), the thermal image of the left image generated by the first thermal image sensor 230 and the thermal image of the right image generated by the second thermal image sensor 240 are respectively applied to the learning model for vehicle estimation. to estimate each vehicle.

이때 상기 교통량 산정 시스템(100)에서 수행한 차량의 추정결과는 바운딩박스 형태로 나타나는데, 사각지대, 기상상황, 촬영환경 등의 조건에 따라 좌영상 및 우영상에서 교통량 산정대상 영역내의 차량에 대한 추정 결과가 다를 수 있다. 즉 상기 좌영상 및 우영상에서 추정한 차량의 수가 일치하지 않거나 정확도가 떨어지는 경우가 발생될 수 있는 것이다. 이에 따라 상기 좌영상 및 우영상에서의 차량 추정 결과를 보완하여야 한다.At this time, the estimation result of the vehicle performed by the traffic volume calculation system 100 appears in the form of a bounding box, and the estimation result for the vehicle within the traffic volume calculation target area in the left image and the right image according to conditions such as blind spots, weather conditions, and shooting environment may be different. That is, the number of vehicles estimated from the left image and the right image does not match or the accuracy is low. Accordingly, it is necessary to supplement the vehicle estimation results in the left and right images.

도 6은 본 발명의 일 실시예에 따른 스테레오 영상과 딥러닝을 이용한 차량 추정 결과와 좌영상과 우영상 간의 부등각사상변환 파라미터를 적용한 차량 탐지 과정을 설명하기 위한 도면이다.6 is a view for explaining a vehicle detection process to which a vehicle estimation result using a stereo image and deep learning and an asymmetry map transformation parameter between a left image and a right image are applied according to an embodiment of the present invention.

도 6에 나타낸 바와 같이, 상기 교통량 산정 시스템(100)은 상기 도 5에서 설명한 상기 좌영상 및 우영상에서의 차량 추정 결과를 보완하기 위하여, 상기 좌영상(또는 우영상)에서 추정된 차량을 나타내는 바운딩박스의 좌표를 확인하고, 각 차량의 좌표를 통해서 좌영상과 우영상간의 위치나 각도 차이를 계산한 부등각사상변환 파라미터를 이용하여 상기 좌영상에서 확인한 차량의 좌표와 대응하는 우영상의 좌표를 확인한다.As shown in FIG. 6 , in order to supplement the vehicle estimation results in the left image and the right image described in FIG. 5 , the traffic volume calculation system 100 indicates a vehicle estimated from the left image (or the right image). Check the coordinates of the box, and the coordinates of the right image corresponding to the coordinates of the vehicle identified in the left image using the asymmetric map transformation parameter that calculates the position or angle difference between the left image and the right image through the coordinates of each vehicle. Check it.

이어서, 상기 교통량 산정 시스템(100)은 상기 확인한 우영상(또는 좌영상)의 좌표에 차량이 추정되었음을 나타내는 바운딩박스가 없으면, 도 6의 (a) 및 (b)에 나타낸 파랑색(또는 빨강색) 화살표와 같이 해당 좌표에 바운딩박스를 표시하여 차량이 위치한 것으로 결정하고, 이러한 방식을 반복하여 상기 좌영상과 우영상에서 각각 추정한 차량의 수를 일치시켜, 상기 좌영상과 우영상에서 추정하지 못한 차량을 추가로 탐지한다.Next, if there is no bounding box indicating that the vehicle is estimated at the coordinates of the confirmed right image (or left image), the traffic volume calculation system 100 shows the blue (or red) color shown in (a) and (b) of FIG. 6 . ) Determining that the vehicle is located by displaying a bounding box on the corresponding coordinates as shown by the arrow, repeating this method to match the number of vehicles estimated in the left and right images, respectively, and the vehicle that could not be estimated in the left and right images to detect additionally.

이때 도 6의 (a)는 평상시의 스테레오 영상과 딥러닝을 이용한 차량 추정 결과와 부등각사상변환 파라미터를 적용한 추가 탐지를 나타낸 일 실시예이며, 도 6의 (b)는 안개 발생시의 스테레오 영상과 딥러닝을 이용한 차량 추정 결과와 부등각사상변환 파라미터를 적용한 추가 탐지를 나타낸 일 실시예이다.At this time, Fig. 6 (a) is an embodiment showing an ordinary stereo image, a vehicle estimation result using deep learning, and additional detection by applying an asymmetry map transformation parameter, and Fig. 6 (b) is a stereo image and a stereo image at the time of fog generation. It is an embodiment showing the vehicle estimation result using deep learning and additional detection by applying the disequiangular map transformation parameter.

다음에는, 이와 같이 구성된 본 발명에 따른 스테레오 영상과 딥러닝을 이용한 교통량 산정 방법의 일 실시예를 도 7과 도 8을 참조하여 상세하게 설명한다. 이때 본 발명의 방법에 따른 각 단계는 사용 환경이나 당업자에 의해 순서가 변경될 수 있다.Next, an embodiment of a method for calculating a traffic volume using a stereo image and deep learning according to the present invention configured as described above will be described in detail with reference to FIGS. 7 and 8 . In this case, the order of each step according to the method of the present invention may be changed by the environment of use or by a person skilled in the art.

도 7은 본 발명의 일 실시예에 따른 스테레오 영상과 딥러닝을 이용한 교통량 산정 방법의 동작과정을 상세하게 나타낸 순서도이며, 도 8은 본 발명의 일 실시예에 따른 좌영상과 우영상 내의 모든 차량을 탐지하는 과정을 상세하게 나타낸 순서도이다.7 is a flowchart illustrating in detail the operation process of a method for calculating a traffic volume using a stereo image and deep learning according to an embodiment of the present invention, and FIG. 8 is all vehicles in the left image and the right image according to an embodiment of the present invention. It is a flowchart showing the process of detecting in detail.

우선, 상기 교통량 산정 시스템(100)은 다양한 종류의 차량을 촬영한 복수의 광학영상, 열화상 또는 이들의 조합을 포함한 영상데이터를 수집하고(S100), 상기 수집한 복수의 광학영상, 열화상 또는 이들의 조합을 포함한 영상데이터로부터 상기 차량을 학습하여 차량 추정용 학습모델을 생성하는 학습 단계를 수행한다(S200).First, the traffic volume calculation system 100 collects image data including a plurality of optical images, thermal images, or a combination thereof taken of various types of vehicles (S100), and the collected plurality of optical images, thermal images, or A learning step of generating a learning model for vehicle estimation by learning the vehicle from image data including a combination thereof is performed (S200).

상기 S200 단계를 통해 차량 추정용 학습모델을 생성하여 데이터베이스(300)에 저장해둔 상태에서, 상기 교통량 산정 시스템(100)은 상기 스테레오 카메라(200)로 촬영한 좌영상 및 우영상을 수신한다(S300). 즉 상기 스테레오 카메라(200)로부터 광학영상, 열화상 또는 이들의 조합을 포함한 좌영상 및 우영상을 수신하는 것이다.In the state that the vehicle estimation learning model is generated and stored in the database 300 through the step S200, the traffic volume calculation system 100 receives the left image and the right image captured by the stereo camera 200 (S300) ). That is, a left image and a right image including an optical image, a thermal image, or a combination thereof are received from the stereo camera 200 .

이어서, 상기 교통량 산정 시스템(100)은 상기 S300 단계에서 수신한 좌영상 및 우영상을 상기 S200 단계에서 생성한 차량 추정용 학습모델에 각각 적용하여, 상기 좌영상 및 우영상에서 각 차량을 추정하는 차량 추정 단계를 수행한다(S400).Next, the traffic volume calculation system 100 applies the left image and the right image received in the step S300 to the learning model for vehicle estimation generated in the step S200, respectively, a vehicle for estimating each vehicle from the left image and the right image An estimation step is performed (S400).

즉 상기 교통량 산정 시스템(100)은 상기 스테레오 카메라(200)로부터 수신한 광학영상, 열화상 또는 이들의 조합에 대한 좌영상 및 우영상을 상기 차량 추정용 학습모델에 각각 입력하여, 상기 좌영상 및 우영상에 포함된 차량에 대한 특징점을 추출하고, 상기 추출한 특징점을 연결하여 바운딩박스를 구성함으로써, 상기 좌영상 및 우영상에 존재하는 차량을 추정하는 것이다.That is, the traffic volume calculation system 100 inputs the left image and the right image of the optical image, the thermal image, or a combination thereof received from the stereo camera 200 to the learning model for vehicle estimation, respectively, and the left image and By extracting feature points for a vehicle included in the right image and connecting the extracted feature points to form a bounding box, vehicles present in the left image and the right image are estimated.

또한 상기 교통량 산정 시스템(100)은 상기 S400 단계를 통해 상기 좌영상 및 우영상에서 추정한 각 차량의 좌표를 통해서 상기 좌영상과 우영상간의 위치나 각도의 차이를 계산하여 부등각사상변환 파라미터를 결정하는 부등각사상변환 파라미터 결정 단계를 수행한다(S500).In addition, the traffic volume calculation system 100 calculates the difference in position or angle between the left image and the right image through the coordinates of each vehicle estimated from the left image and the right image through the step S400 to determine the asymmetric map transformation parameter. to perform the step of determining the disequiangular map transformation parameter (S500).

이어서, 상기 교통량 산정 시스템(100)은 상기 S500 단계에서 결정한 부등각사상변환 파라미터를 이용하여, 상기 좌영상 및 우영상에서 추정하지 못한 차량을 추가로 탐지하는 차량 탐지 단계를 수행한다(S600).Next, the traffic volume calculation system 100 performs a vehicle detection step of additionally detecting a vehicle that has not been estimated in the left image and the right image by using the asymmetric map transformation parameter determined in the step S500 (S600).

즉 상기 교통량 산정 시스템(100)은 상기 좌영상 및 우영상에서 추정하지 못한 차량을 추가로 탐지함으로써, 상기 스테레오 카메라(200)로부터 수신한 상기 광학영상, 열화상 또는 이들의 조합을 통해서 차량이 겹쳐져 있는 사각지대나, 안개, 황사 및 비를 포함한 기상조건이나, 역광을 포함한 촬영환경에 따라 차량을 탐지하지 못하는 것을 방지하는 것이다.That is, the traffic volume calculation system 100 additionally detects a vehicle that cannot be estimated in the left image and the right image, so that the vehicle is overlapped through the optical image, thermal image, or a combination thereof received from the stereo camera 200 It is to prevent a vehicle from being detected in a blind spot, weather conditions including fog, yellow sand and rain, or a shooting environment including backlight.

상기 S600 단계를 도 8을 참조하여 보다 상세하게 설명하면, 상기 교통량 산정 시스템(100)은 상기 좌영상(또는 우영상)에서 추정된 차량을 나타내는 바운딩박스의 좌표를 확인하고(S610), 상기 S500 단계에서 결정한 부등각사상변환 파라미터를 이용하여 상기 좌영상(또는 우영상)에서 추정된 차량을 나타내는 바운딩박스의 좌표와 대응하는 상기 우영상(또는 좌영상)의 좌표를 확인한다(S620).When the step S600 is described in more detail with reference to FIG. 8, the traffic volume calculation system 100 checks the coordinates of the bounding box indicating the vehicle estimated in the left image (or right image) (S610), and the S500 The coordinates of the right image (or the left image) corresponding to the coordinates of the bounding box indicating the vehicle estimated from the left image (or the right image) are checked using the asymmetric map transformation parameter determined in the step (S620).

또한 상기 교통량 산정 시스템(100)은 상기 S620 단계에서 확인한 우영상(또는 좌영상)의 좌표에 상기 S400 단계에서 추정한 차량을 나타내는 바운딩박스가 없는 경우, 상기 우영상(또는 좌영상)의 좌표에 바운딩박스를 표시하여 차량이 위치한 것으로 결정하며(S630), 상기 좌영상과 우영상에서 각각 추정한 차량의 수를 일치시킴으로써, 상기 좌영상과 우영상에서 추정하지 못한 차량을 추가로 탐지한다(S640).In addition, if there is no bounding box indicating the vehicle estimated in step S400 in the coordinates of the right image (or left image) checked in step S620, the traffic volume calculation system 100 is the coordinates of the right image (or left image). It is determined that the vehicle is located by displaying a bounding box (S630), and by matching the number of vehicles estimated in the left image and the right image, respectively, a vehicle that is not estimated in the left image and the right image is additionally detected (S640).

다시 도 7을 참조하면, 상기 교통량 산정 시스템(100)은 상기 S600 단계에서 탐지한 결과를 이용하여 단위시간에 따른 교통량을 산정하는 교통량 산정 단계를 수행한다(S700).Referring back to FIG. 7 , the traffic volume calculation system 100 performs a traffic volume calculation step of calculating the traffic volume according to a unit time using the result detected in step S600 ( S700 ).

또한 상기 교통량 산정 시스템(100)은 교통량 산정 작업이 종료되는지를 판단하여(S800), 교통량 산정 작업이 종료될 때까지 상기 S300 단계 내지 S700 단계를 반복하여 수행한다.In addition, the traffic volume calculation system 100 determines whether the traffic volume calculation operation is finished (S800), and repeats steps S300 to S700 until the traffic volume calculation operation ends.

한편, 도면에 도시하지는 않았지만, 상기 교통량 산정 시스템(100)은 상기 S700 단계에서 산정한 특정 교통량 산정대상 영역에서의 단위시간에 따른 교통량 산정정보를 정부나 지방자치단체, 기관, 기업 또는 이들의 조합을 포함한 교통량 산정정보 이용 단말(400)로 제공하는 교통량 산정정보 제공 단계를 더 수행할 수 있다.On the other hand, although not shown in the drawing, the traffic volume calculation system 100 calculates the traffic volume calculation information according to the unit time in the specific traffic volume calculation target area calculated in step S700, the government, local government, institution, company, or a combination thereof. The step of providing traffic volume estimation information provided to the terminal 400 using traffic volume estimation information including

도 9는 본 발명의 일 실시예에 따른 교통량 산정 시스템의 하드웨어 구조를 나타낸 도면이다.9 is a diagram illustrating a hardware structure of a traffic volume calculation system according to an embodiment of the present invention.

도 9에 도시된 바와 같이, 상기 교통량 산정 시스템(100)의 하드웨어 구조는, 중앙처리장치(1000), 메모리(2000), 사용자 인터페이스(3000), 데이터베이스 인터페이스(4000), 네트워크 인터페이스(5000), 웹서버(6000) 등을 포함하여 구성된다.As shown in FIG. 9 , the hardware structure of the traffic volume calculation system 100 includes a central processing unit 1000 , a memory 2000 , a user interface 3000 , a database interface 4000 , a network interface 5000 , It is configured to include a web server 6000 and the like.

상기 사용자 인터페이스(3000)는 그래픽 사용자 인터페이스(GUI, graphical user interface)를 사용함으로써, 사용자에게 입력과 출력 인터페이스를 제공한다.The user interface 3000 provides input and output interfaces to the user by using a graphical user interface (GUI).

상기 데이터베이스 인터페이스(4000)는 데이터베이스와 하드웨어 구조 사이의 인터페이스를 제공한다. 상기 네트워크 인터페이스(5000)는 사용자가 보유한 장치 간의 네트워크 연결을 제공한다.The database interface 4000 provides an interface between a database and a hardware structure. The network interface 5000 provides a network connection between devices owned by a user.

상기 웹 서버(6000)는 사용자가 네트워크를 통해 하드웨어 구조로 액세스하기 위한 수단을 제공한다. 대부분의 사용자들은 원격에서 웹 서버로 접속하여 상기 교통량 산정 시스템(100)을 사용할 수 있다.The web server 6000 provides a means for a user to access the hardware structure via a network. Most users can remotely access the web server and use the traffic volume calculation system 100 .

상술한 구성 또는 방법의 각 단계는, 컴퓨터 판독 가능한 기록매체 상의 컴퓨터 판독 가능 코드로 구현되거나 전송 매체를 통해 전송될 수 있다. 컴퓨터 판독 가능한 기록매체는, 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터를 저장할 수 있는 데이터 저장 디바이스이다.Each step of the above-described configuration or method may be implemented as computer-readable code on a computer-readable recording medium or transmitted through a transmission medium. The computer-readable recording medium is a data storage device capable of storing data that can be read by a computer system.

컴퓨터 판독 가능한 기록매체의 예로는 데이터베이스, ROM, RAM, CD-ROM, DVD, 자기 테이프, 플로피 디스크 및 광학 데이터 저장 디바이스가 있으나 이에 한정되는 것은 아니다. 전송매체는 인터넷 또는 다양한 유형의 통신 채널을 통해 전송되는 반송파를 포함할 수 있다. 또한 컴퓨터 판독 가능한 기록매체는, 컴퓨터 판독 가능 코드가 분산 방식으로 저장되고, 실행되도록 네트워크 결합 컴퓨터 시스템을 통해 분배될 수 있다.Examples of computer-readable recording media include, but are not limited to, databases, ROMs, RAMs, CD-ROMs, DVDs, magnetic tapes, floppy disks, and optical data storage devices. The transmission medium may include a carrier wave transmitted through the Internet or various types of communication channels. In addition, the computer readable recording medium may be distributed through a network coupled computer system so that the computer readable code is stored and executed in a distributed manner.

또한 본 발명에 적용된 적어도 하나 이상의 구성요소는, 각각의 기능을 수행하는 중앙처리장치(CPU), 마이크로프로세서 등과 같은 프로세서를 포함하거나 이에 의해 구현될 수 있으며, 상기 구성요소 중 둘 이상은 하나의 단일 구성요소로 결합되어 결합된 둘 이상의 구성요소에 대한 모든 동작 또는 기능을 수행할 수 있다. 또한 본 발명에 적용된 적어도 하나 이상의 구성요소의 일부는, 이들 구성요소 중 다른 구성요소에 의해 수행될 수 있다. 또한 상기 구성요소들 간의 통신은 버스(미도시)를 통해 수행될 수 있다.In addition, at least one or more components applied to the present invention may include or be implemented by a processor such as a central processing unit (CPU), a microprocessor, etc. that perform each function, and two or more of the components are one single It may be combined as a component to perform any operation or function for two or more combined components. In addition, a part of at least one or more components applied to the present invention may be performed by other components among these components. In addition, communication between the components may be performed through a bus (not shown).

이처럼, 본 발명은 광학영상 카메라 및 열화상 센서를 탑재한 스테레오 카메라에서 촬영한 좌영상 및 우영상을 기 설정한 학습모델에 각각 적용하여 교통량 산정대상 영역내의 차량을 추정하고, 상기 좌영상 및 우영상에서 추정한 각 차량의 좌표를 통해서 상기 좌영상과 우영상간의 위치나 각도의 차이를 계산하여 부등각사상변환 파라미터를 결정하고, 이를 토대로 상기 좌영상 및 우영상에서 추정하지 못한 차량을 추가로 탐지하거나 기상조건이나 촬영환경에 따라 차량을 찾아내지 못하는 것을 방지함으로써, 정밀한 차량 탐지를 가능하게 하여 교통량 산정의 정확도를 높일 수 있다.As such, the present invention estimates a vehicle within a traffic volume calculation target area by applying the left image and the right image captured by a stereo camera equipped with an optical image camera and a thermal image sensor to a preset learning model, respectively, and the left image and the right image An asymmetry map transformation parameter is determined by calculating the difference in position or angle between the left image and the right image through the coordinates of each vehicle estimated above, and based on this, additionally detecting a vehicle that is not estimated in the left image and the right image, or By preventing the vehicle from being found depending on the weather conditions or the shooting environment, it is possible to accurately detect the vehicle and increase the accuracy of the calculation of the traffic volume.

이상에서와 같이 본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 기술적 보호범위는 아래의 특허청구범위에 의해서 판단되어야 할 것이다.As described above, the present invention has been described with reference to the embodiments shown in the drawings, which are merely exemplary, and those of ordinary skill in the art can make various modifications and equivalent other embodiments therefrom. You will understand that it is possible. Therefore, the technical protection scope of the present invention should be judged by the following claims.

100 : 교통량 산정 시스템 110 : 학습데이터 수집부
120 : 학습부 130 : 영상데이터 수신부
140 : 차량 추정부 150 : 부등각사상변환 파라미터 결정부
160 : 차량 탐지부 170 : 교통량 산정부
180 : 교통량 산정정보 제공부 190 : 메모리
200 : 스테레오 카메라 210 : 제1 카메라
220 : 제2 카메라 230 : 제1 열화상 센서
240 : 제2 열화상 센서 300 : 데이터베이스
310 : 학습모델 DB 320 : 영상데이터 DB
330 : 교통량 산정정보 DB 400 : 교통량 산정정보 이용 단말
100: traffic volume calculation system 110: learning data collection unit
120: learning unit 130: image data receiving unit
140: vehicle estimating unit 150: non-conformal map transformation parameter determining unit
160: vehicle detection unit 170: traffic volume calculation unit
180: traffic calculation information providing unit 190: memory
200: stereo camera 210: first camera
220: second camera 230: first thermal image sensor
240: second thermal image sensor 300: database
310: learning model DB 320: image data DB
330: traffic volume estimation information DB 400: traffic volume estimation information use terminal

Claims (10)

스테레오 카메라로 촬영한 좌영상 및 우영상에서 차량을 추정하는 차량 추정부;
상기 좌영상 및 우영상에서 추정된 각 차량의 좌표를 통해서 상기 좌영상과 우영상간의 위치나 각도의 차이를 계산하여 부등각사상변환 파라미터를 결정하는 부등각사상변환 파라미터 결정부;
상기 결정한 부등각사상변환 파라미터를 이용하여 상기 좌영상 및 우영상에서 추정하지 못한 차량을 추가로 탐지하는 차량 탐지부; 및
상기 탐지한 결과를 이용하여 단위시간에 따른 교통량을 산정하는 교통량 산정부;를 포함하는 것을 특징으로 하는 스테레오 영상과 딥러닝을 이용한 교통량 산정 시스템.
a vehicle estimator for estimating a vehicle from a left image and a right image taken with a stereo camera;
an asymmetry image transformation parameter determining unit for determining an asymmetric image transformation parameter by calculating a difference in position or angle between the left image and the right image through the coordinates of each vehicle estimated from the left image and the right image;
a vehicle detector for additionally detecting a vehicle that cannot be estimated from the left image and the right image by using the determined asymmetric image transformation parameter; and
Traffic volume calculation system using stereo image and deep learning, characterized in that it comprises;
청구항 1에 있어서,
상기 스테레오 카메라로 촬영한 좌영상 및 우영상은,
광학영상, 열화상 또는 이들의 조합을 포함하며,
상기 차량 탐지부는,
상기 광학영상, 열화상 또는 이들의 조합을 통해서 차량이 겹쳐져 있는 사각지대나, 안개, 황사 및 비를 포함한 기상조건이나, 역광을 포함한 촬영환경에 따라 좌영상 또는 우영상에 추정하지 못한 차량을 추가로 탐지하는 것을 특징으로 하는 스테레오 영상과 딥러닝을 이용한 교통량 산정 시스템.
The method according to claim 1,
The left and right images taken with the stereo camera are,
Including optical imaging, thermal imaging, or a combination thereof,
The vehicle detection unit,
Through the optical image, thermal image, or a combination thereof, an unestimated vehicle is added to the left or right image depending on the blind spot where vehicles are overlapped, weather conditions including fog, yellow sand and rain, or the shooting environment including backlight A traffic volume estimation system using stereo images and deep learning, characterized in that it is detected with
청구항 1에 있어서,
상기 교통량 산정 시스템은,
다양한 종류의 차량을 촬영한 광학영상, 열화상 또는 이들의 조합으로부터 상기 차량을 학습하여 차량 추정용 학습모델을 생성하는 학습부;를 더 포함하며,
상기 차량 추정부는,
상기 스테레오 카메라에서 촬영한 광학영상, 열화상 또는 이들의 조합에 대한 좌영상 및 우영상을 상기 차량 추정용 학습모델에 각각 입력하여, 상기 좌영상 및 우영상에 포함된 차량에 대한 특징점을 추출하고, 상기 추출한 특징점을 연결하여 바운딩박스를 구성함으로써, 상기 좌영상 및 우영상에 존재하는 차량을 추정하는 것을 더 포함하는 것을 특징으로 하는 스테레오 영상과 딥러닝을 이용한 교통량 산정 시스템.
The method according to claim 1,
The traffic volume calculation system,
It further includes; a learning unit that generates a learning model for vehicle estimation by learning the vehicle from optical images, thermal images, or a combination of various types of vehicles,
The vehicle estimation unit,
By inputting the left image and the right image of the optical image, the thermal image, or a combination thereof taken by the stereo camera into the learning model for vehicle estimation, respectively, the feature points for the vehicle included in the left image and the right image are extracted, and , By connecting the extracted feature points to configure a bounding box, the system for calculating the amount of traffic using stereo image and deep learning, characterized in that it further comprises estimating the vehicle present in the left image and the right image.
청구항 1에 있어서,
상기 차량 탐지부는,
상기 좌영상(또는 우영상)에서 추정된 차량을 나타내는 바운딩박스의 좌표를 확인하고,
상기 결정한 부등각사상변환 파라미터를 이용하여 상기 좌영상(또는 우영상)에서 추정된 차량을 나타내는 바운딩박스의 좌표와 대응하는 상기 우영상(또는 좌영상)의 좌표를 확인하고,
상기 확인한 우영상(또는 좌영상)의 좌표에 상기 차량 추정부에서 추정한 차량을 나타내는 바운딩박스가 없는 경우 상기 우영상(또는 좌영상)의 좌표에 바운딩박스를 표시하여 차량이 위치한 것으로 결정하며,
상기 좌영상 및 우영상에서 각각 추정한 차량의 수를 일치시킴으로써, 상기 좌영상 및 우영상에서 추정하지 못한 차량을 추가로 탐지하도록 하는 것을 특징으로 하는 스테레오 영상과 딥러닝을 이용한 교통량 산정 시스템.
The method according to claim 1,
The vehicle detection unit,
Check the coordinates of the bounding box indicating the vehicle estimated in the left image (or right image),
Check the coordinates of the right image (or the left image) corresponding to the coordinates of the bounding box indicating the vehicle estimated from the left image (or the right image) using the determined asymmetric map transformation parameter,
If there is no bounding box indicating the vehicle estimated by the vehicle estimation unit in the coordinates of the checked right image (or left image), the vehicle is determined to be located by displaying a bounding box in the coordinates of the right image (or left image),
Traffic volume calculation system using stereo image and deep learning, characterized in that by matching the number of vehicles estimated in the left image and the right image, respectively, to additionally detect a vehicle that is not estimated in the left image and the right image.
청구항 1에 있어서,
상기 교통량 산정 시스템은,
상기 교통량 산정부에서 산정한 특정 교통량 산정대상 영역에서의 단위시간에 따른 교통량 산정정보를 정부나 지방자치단체, 기관, 기업 또는 이들의 조합을 포함한 교통량 산정정보 이용 단말로 제공하는 교통량 산정정보 제공부;를 더 포함하는 것을 특징으로 하는 스테레오 영상과 딥러닝을 이용한 교통량 산정 시스템.
The method according to claim 1,
The traffic volume calculation system,
Traffic volume calculation information providing unit that provides traffic volume calculation information according to unit time in a specific traffic volume calculation target area calculated by the traffic volume calculation unit to a terminal using traffic volume calculation information including the government, local governments, institutions, companies, or a combination thereof ; Traffic volume calculation system using stereo images and deep learning, characterized in that it further comprises.
교통량 산정 시스템에서, 스테레오 카메라로 촬영한 좌영상 및 우영상에서 차량을 추정하는 차량 추정 단계;
상기 교통량 산정 시스템에서, 상기 좌영상 및 우영상에서 추정된 각 차량의 좌표를 통해서 상기 좌영상과 우영상간의 위치나 각도의 차이를 계산하여 부등각사상변환 파라미터를 결정하는 부등각사상변환 파라미터 결정 단계;
상기 교통량 산정 시스템에서, 상기 결정한 부등각사상변환 파라미터를 이용하여 상기 좌영상 및 우영상에서 추정하지 못한 차량을 추가로 탐지하는 차량 탐지 단계; 및
상기 교통량 산정 시스템에서, 상기 탐지한 결과를 이용하여 단위시간에 따른 교통량을 산정하는 교통량 산정 단계;를 포함하는 것을 특징으로 하는 스테레오 영상과 딥러닝을 이용한 교통량 산정 방법.
A vehicle estimation step of estimating a vehicle from a left image and a right image taken with a stereo camera in the traffic volume calculation system;
In the traffic volume calculation system, an asymmetry transformation parameter determination step of determining the asymmetry transformation parameter by calculating the difference in position or angle between the left image and the right image through the coordinates of each vehicle estimated from the left image and the right image ;
a vehicle detection step of additionally detecting, in the traffic volume calculation system, a vehicle that has not been estimated in the left image and the right image by using the determined asymmetric map transformation parameter; and
The traffic volume calculation method using stereo image and deep learning, comprising: in the traffic volume calculation system, a traffic volume calculation step of calculating the traffic volume according to a unit time using the detected result.
청구항 6에 있어서,
상기 스테레오 카메라로 촬영한 좌영상 및 우영상은,
광학영상, 열화상 또는 이들의 조합을 포함하며,
상기 차량 탐지 단계는,
상기 광학영상, 열화상 또는 이들의 조합을 통해서 차량이 겹쳐져 있는 사각지대나, 안개, 황사 및 비를 포함한 기상조건이나, 역광을 포함한 촬영환경에 따라 좌영상 또는 우영상에 추정하지 못한 차량을 추가로 탐지하는 것을 특징으로 하는 스테레오 영상과 딥러닝을 이용한 교통량 산정 방법.
7. The method of claim 6,
The left and right images taken with the stereo camera are,
Including optical imaging, thermal imaging, or a combination thereof,
The vehicle detection step is
Through the optical image, thermal image, or a combination thereof, an unestimated vehicle is added to the left or right image depending on the blind spot where vehicles are overlapped, weather conditions including fog, yellow sand and rain, or the shooting environment including backlight A method of calculating traffic volume using stereo images and deep learning, characterized in that it is detected with
청구항 6에 있어서,
상기 교통량 산정 방법은,
상기 교통량 산정 시스템에서, 다양한 종류의 차량을 촬영한 광학영상, 열화상 또는 이들의 조합으로부터 상기 차량을 학습하여 차량 추정용 학습모델을 생성하는 학습 단계;를 더 포함하며,
상기 차량 추정 단계는,
상기 교통량 산정 시스템에서, 상기 스테레오 카메라에서 촬영한 광학영상, 열화상 또는 이들의 조합에 대한 좌영상 및 우영상을 상기 차량 추정용 학습모델에 각각 입력하여, 상기 좌영상 및 우영상에 포함된 차량에 대한 특징점을 추출하고, 상기 추출한 특징점을 연결하여 바운딩박스를 구성함으로써, 상기 좌영상 및 우영상에 존재하는 차량을 추정하는 것을 더 포함하는 것을 특징으로 하는 스테레오 영상과 딥러닝을 이용한 교통량 산정 방법.
7. The method of claim 6,
The traffic volume calculation method is,
In the traffic volume calculation system, a learning step of generating a learning model for vehicle estimation by learning the vehicle from optical images, thermal images, or a combination thereof, obtained by photographing various types of vehicles;
The vehicle estimation step is
In the traffic volume calculation system, the left image and the right image of the optical image, the thermal image, or a combination thereof captured by the stereo camera are respectively input to the learning model for estimating the vehicle, and the vehicle included in the left image and the right image Method for calculating traffic volume using stereo image and deep learning, characterized in that it further comprises estimating the vehicle present in the left image and the right image by extracting the feature points for .
청구항 6에 있어서,
상기 차량 탐지 단계는,
상기 교통량 산정 시스템에서, 상기 좌영상(또는 우영상)에서 추정된 차량을 나타내는 바운딩박스의 좌표를 확인하는 단계;
상기 교통량 산정 시스템에서, 상기 결정한 부등각사상변환 파라미터를 이용하여 상기 좌영상(또는 우영상)에서 추정된 차량을 나타내는 바운딩박스의 좌표와 대응하는 상기 우영상(또는 좌영상)의 좌표를 확인하는 단계; 및
상기 교통량 산정 시스템에서, 상기 확인한 우영상(또는 좌영상)의 좌표에 상기 차량 추정 단계에서 추정한 차량을 나타내는 바운딩박스가 없는 경우, 상기 우영상(또는 좌영상)의 좌표에 바운딩박스를 표시하여 차량이 위치한 것으로 결정하는 단계;를 더 포함하며,
상기 교통량 산정 시스템에서, 상기 좌영상과 우영상에서 각각 추정한 차량의 수를 일치시킴으로써, 상기 좌영상과 우영상에서 추정하지 못한 차량을 추가로 탐지하도록 하는 것을 특징으로 하는 스테레오 영상과 딥러닝을 이용한 교통량 산정 방법.
7. The method of claim 6,
The vehicle detection step is
checking, in the traffic volume calculation system, coordinates of a bounding box indicating a vehicle estimated from the left image (or right image);
In the traffic volume calculation system, the coordinates of the right image (or left image) corresponding to the coordinates of the bounding box indicating the vehicle estimated from the left image (or right image) using the determined asymmetry transformation parameter are confirmed step; and
In the traffic volume calculation system, when there is no bounding box indicating the vehicle estimated in the vehicle estimation step in the coordinates of the checked right image (or left image), the bounding box is displayed in the coordinates of the right image (or left image) Determining that the vehicle is located; further comprising,
In the traffic volume calculation system, by matching the number of vehicles estimated in the left image and the right image, respectively, the traffic volume using stereo image and deep learning, characterized in that the vehicle not estimated in the left image and the right image is additionally detected calculation method.
청구항 6에 있어서,
상기 교통량 산정 방법은,
상기 교통량 산정 시스템에서, 상기 교통량 산정 단계에서 산정한 특정 교통량 산정대상 영역에서의 단위시간에 따른 교통량 산정정보를 정부나 지방자치단체, 기관, 기업 또는 이들의 조합을 포함한 교통량 산정정보 이용 단말로 제공하는 교통량 산정정보 제공 단계;를 더 포함하는 것을 특징으로 하는 스테레오 영상과 딥러닝을 이용한 교통량 산정 방법.
7. The method of claim 6,
The traffic volume calculation method is,
In the traffic volume calculation system, the traffic volume calculation information according to the unit time in the specific traffic volume calculation target area calculated in the traffic volume calculation step is provided to the traffic volume calculation information use terminal including the government, local government, institution, company, or a combination thereof A traffic volume estimation method using stereo images and deep learning, characterized in that it further comprises; providing traffic volume estimation information.
KR1020200072865A 2020-06-16 2020-06-16 System for estimating traffic volume using stereo image and deep learning and method thereof KR102381527B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200072865A KR102381527B1 (en) 2020-06-16 2020-06-16 System for estimating traffic volume using stereo image and deep learning and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200072865A KR102381527B1 (en) 2020-06-16 2020-06-16 System for estimating traffic volume using stereo image and deep learning and method thereof

Publications (2)

Publication Number Publication Date
KR20210155536A KR20210155536A (en) 2021-12-23
KR102381527B1 true KR102381527B1 (en) 2022-03-31

Family

ID=79175682

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200072865A KR102381527B1 (en) 2020-06-16 2020-06-16 System for estimating traffic volume using stereo image and deep learning and method thereof

Country Status (1)

Country Link
KR (1) KR102381527B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100874890B1 (en) 2007-09-10 2008-12-19 경원대학교 산학협력단 Traffic analysis system and method thereof
KR101281687B1 (en) 2012-07-13 2013-07-03 주식회사 비스타씨엔씨 Method for monitoring region on bad visuality

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100945307B1 (en) * 2008-08-04 2010-03-03 에이알비전 (주) Method and apparatus for image synthesis in stereoscopic moving picture
KR102655999B1 (en) * 2018-10-25 2024-04-11 현대모비스 주식회사 Apparatus and method for detecting distance values per instance object using a stereo camera

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100874890B1 (en) 2007-09-10 2008-12-19 경원대학교 산학협력단 Traffic analysis system and method thereof
KR101281687B1 (en) 2012-07-13 2013-07-03 주식회사 비스타씨엔씨 Method for monitoring region on bad visuality

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
서홍덕외 1. 스테레오 CCTV 영상에서 딥러닝을 이용한 교통량 추정. 한국측량학회지 제38권 제3호, 2020.06.30, pp. 269-279.

Also Published As

Publication number Publication date
KR20210155536A (en) 2021-12-23

Similar Documents

Publication Publication Date Title
US20230195131A1 (en) Mobile robot system and method for generating map data using straight lines extracted from visual images
CN103176185B (en) Method and system for detecting road barrier
Grassi et al. Parkmaster: An in-vehicle, edge-based video analytics service for detecting open parking spaces in urban environments
CN107850672B (en) System and method for accurate vehicle positioning
CN112700470B (en) Target detection and track extraction method based on traffic video stream
JP2023523243A (en) Obstacle detection method and apparatus, computer device, and computer program
CN106525057A (en) Generation system for high-precision road map
WO2021155685A1 (en) Map updating method, apparatus and device
CN105628951A (en) Method and device for measuring object speed
KR102628736B1 (en) Deep learning-based camera calibration
US11025865B1 (en) Contextual visual dataspaces
KR20140112171A (en) Display system of vehicle information based on the position
KR20170124299A (en) A method and apparatus of assisting parking by creating virtual parking lines
US11961304B2 (en) Systems and methods for deriving an agent trajectory based on multiple image sources
CN105608417A (en) Traffic signal lamp detection method and device
US20230068001A1 (en) Video-based tracking systems and methods
CN113419245B (en) Real-time mapping system and mapping method based on V2X
US11961241B2 (en) Systems and methods for deriving an agent trajectory based on tracking points within images
CN113885046A (en) Intelligent internet automobile laser radar positioning system and method for low-texture garage
CN110189537B (en) Parking guidance method, device and equipment based on space-time characteristics and storage medium
Zhanabatyrova et al. Automatic map update using dashcam videos
KR20200013156A (en) Method and system for improving signage detection performance
KR102381527B1 (en) System for estimating traffic volume using stereo image and deep learning and method thereof
CN116892949A (en) Ground object detection device, ground object detection method, and computer program for ground object detection
CN115223361A (en) Layout optimization method for roadside sensors in vehicle-road cooperative system

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant