KR20200055492A - A vehicle driving behavior analysis system using images by uav - Google Patents

A vehicle driving behavior analysis system using images by uav Download PDF

Info

Publication number
KR20200055492A
KR20200055492A KR1020180139198A KR20180139198A KR20200055492A KR 20200055492 A KR20200055492 A KR 20200055492A KR 1020180139198 A KR1020180139198 A KR 1020180139198A KR 20180139198 A KR20180139198 A KR 20180139198A KR 20200055492 A KR20200055492 A KR 20200055492A
Authority
KR
South Korea
Prior art keywords
vehicle
image
driving behavior
unit
lane
Prior art date
Application number
KR1020180139198A
Other languages
Korean (ko)
Other versions
KR102169910B1 (en
Inventor
김수희
한동희
Original Assignee
한국도로공사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국도로공사 filed Critical 한국도로공사
Priority to KR1020180139198A priority Critical patent/KR102169910B1/en
Publication of KR20200055492A publication Critical patent/KR20200055492A/en
Application granted granted Critical
Publication of KR102169910B1 publication Critical patent/KR102169910B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • B64C2201/127
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

The present invention relates to a vehicle driving behavior analysis system capable of providing a microscopic and empirical way which can clearly diagnose problem occurring spots, occurring causes, etc. with respect to traffic problems occurring on a road by using aerial images of an unmanned aerial vehicle.

Description

무인비행장치 영상을 이용한 차량 주행행태 분석시스템{A VEHICLE DRIVING BEHAVIOR ANALYSIS SYSTEM USING IMAGES BY UAV}Vehicle driving behavior analysis system using unmanned aerial vehicle image {A VEHICLE DRIVING BEHAVIOR ANALYSIS SYSTEM USING IMAGES BY UAV}

본 발명은, 무인비행장치에서 촬영한 영상을 통해 차량의 주행행태를 분석할 수 있는 기술에 관한 것으로, 보다 구체적으로는 무인비행장치에서 촬영된 도로 영상을 분석하여 도로상에서 주행하고 있는 차량의 주행행태를 분석하고, 분석된 결과를 기초로 교통문제의 원인을 분석하고 개선할 수 있는 기술에 관한 것이다. The present invention relates to a technology capable of analyzing a vehicle's driving behavior through an image taken by an unmanned aerial vehicle, and more specifically, driving a vehicle driving on the road by analyzing a road image captured by an unmanned aerial vehicle. It is about technology that analyzes behavior and analyzes and improves the cause of traffic problems based on the analyzed results.

현재 한정된 도로의 용량에 비해 교통수요의 집중과 지속적인 증가가 이루어지고 있다. 이로 인하여 다양한 교통문제가 지속적으로 발생하고 있으며, 이러한 교통문제를 해결하기 위해서 도로상에 설치된 다양한 차량검지장치에서 수집된 교통데이터를 기반으로 교통분석에 활용하고 있다.Currently, the concentration of traffic demand and the continuous increase have been made compared to the limited road capacity. Due to this, various traffic problems are continuously occurring, and in order to solve these traffic problems, it is used for traffic analysis based on traffic data collected from various vehicle detection devices installed on the road.

일반적으로 고속도로의 본선에는 대략 1~2Km 간격으로 차량검지기(VDS, Vehicle Detection System)를 설치하고, 설치지점을 통과하는 차량의 대수, 통과속도 등의 교통 데이터를 수집하고 있다. 또한, 고속도로 본선에 3~5km간격으로 설치된 노측 안테나와 차량 내 설치된 하이패스 단말기와의 무선통신 시각을 기준으로 통행시간을 수집하는 DSRC(DSRC, Dedicated Short Range Communication)기반 하이패스 교통정보시스템을 설치하여 차량의 소통(흐름) 통행시간 데이터를 수집하고 있다.In general, a vehicle detection system (VDS) is installed on the main line of the highway at approximately 1 to 2 km intervals, and traffic data such as the number of vehicles passing through the installation point and the passing speed are collected. In addition, a DSRC (DSRC, Dedicated Short Range Communication) -based high-pass traffic information system is installed to collect the travel time based on the wireless communication time between the roadside antenna installed on the highway main line at intervals of 3 to 5 km and the high-pass terminal installed in the vehicle. The vehicle is collecting traffic communication (flow) time of travel.

전술한 바와 같이, 기존의 교통분석 방법은 고속도로 본선 위주로 설치된 교통정보수집체계(예: 차량검지기(VDS, Vehicle Detection System), DSRC(DSRC, Dedicated Short Range Communication)기반 차량의 통행시간 수집시스템 등)를 통해 수집된 자료를 시공간적으로 집계하여 도로상의 교통상황을 추정하거나 이론적 모형(Simulation 포함) 등을 기반으로 원인을 분석하고 교통문제를 해결하는 방식이었다. As described above, the existing traffic analysis method is a traffic information collection system installed mainly on the highway main line (eg, vehicle detection system (VDS), DSRC (DSRC, Dedicated Short Range Communication) based vehicle travel time collection system, etc.) It was a method of estimating the traffic situation on the road by temporally and temporally collecting the data collected through or analyzing the cause based on the theoretical model (including simulation) and solving the traffic problem.

그러나, 이러한 교통데이터는 개별 차량의 주행행태보다는 검지장비 설치지점에서 해당지점을 통과하는 다수 차량의 통과대수 및 속도, 통행시간 데이터를 시공간적으로 집계 또는 평균하여 수집하므로, 교통문제에 대한 명확하고 실증적인 분석 보다는 교통 이론 및 모형에 의존하므로, 추정에 의한 원인 분석으로 접근할 수 밖에 없는 한계가 있었으며, 개별 차량의 주행행태를 분석하는 미시적 교통 분석이 사실상 불가능하다는 한계가 있었다. However, these traffic data are collected by spatiotemporally aggregated or averaged the number of vehicles passing through the corresponding point at the detection equipment installation point, rather than the driving behavior of the individual vehicle, so that the traffic problems are clear and empirical. Because it relies on traffic theory and model rather than phosphorus analysis, there was a limit that can only be approached by analyzing the cause by estimation, and there was a limit that microscopic traffic analysis that analyzes the driving behavior of individual vehicles is virtually impossible.

또한, 기존의 차량 검지체계에서는 고속도로 IC(Interchange)/JCT(Junction)의 합류?분류부, 엇갈림구간, 종단(상?하향)경사 변화구간, 공사구간 등 다양한 구간에서 나타나는 개별 차량의 주행행태 분석자료를 기반으로 하는 실증적, 미시적 교통분석은 매우 어려운 실정이다.In addition, in the existing vehicle detection system, the analysis of the driving behavior of individual vehicles appearing in various sections, such as the intersection / classification section of the highway IC (Interchange) / JCT (Junction), the cross section, the change section of the vertical (upward / downward) slope, and the construction section Empirical and microscopic traffic analysis based on data is very difficult.

이러한 한계점으로 교통 문제 해결 시에도 명확한 문제 해결이 아니므로, 교통 문제 개선에도 한계가 발생할 뿐 아니라 개선 효과가 저하된다는 문제점이 있었다. Because of these limitations, there is a problem that the improvement effect is lowered as well as limitations in improving the traffic problem because the problem is not clearly solved when solving the traffic problem.

따라서 교통문제 개선을 위해서는 미시적이고 실증적인 교통 분석을 통해 정확한 문제 발생 지점과 발생 원인을 명확하게 도출하고 진단하는 것이 중요하기 때문에 실증적이고 명확한 교통문제 발생 지점 및 원인을 분석할 수 있는 기술이 필요할 것이다. Therefore, in order to improve the traffic problem, it is important to clearly derive and diagnose the exact point and cause of the problem through microscopic and empirical traffic analysis. .

본 발명은 상기한 사정을 감안하여 창출된 것으로서, 본 발명에서 도달하고자 하는 목적은, 무인비행장치를 통해 촬영된 항공영상의 분석을 통해 차량의 주행행태데이터를 추출하고 분석함으로써 도로상에 발생하는 교통문제 요인 발생 지점 및 발생 원인 등을 명확하고 실증적으로 진단할 수 있는 방안을 제공하는데 있다. The present invention has been created in view of the above circumstances, and the object to be reached in the present invention is to generate on the road by extracting and analyzing the driving behavior data of a vehicle through analysis of aerial images photographed through an unmanned aerial vehicle. The aim is to provide a method for clearly and empirically diagnosing the point of occurrence and the cause of traffic problem factors.

상기 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 차량의 주행행태를 추출하고 분석하기 위한 무인비행장치 영상을 이용한 차량 주행행태 분석시스템은, 무인비행장치를 이용하여 상기 차량이 주행하는 차로를 영상으로 촬영하고, 촬영된 영상이 입력 및 출력되는 영상입출력부와, 상기 영상입출력부에서 출력된 영상을 기초로 상기 도로를 주행하는 상기 차량의 주행행태 및 차로의 차량의 주행행태를 분석하기 위한 정보 설정부와, 상기 정보 설정부에서 설정된 상기 차량의 주행행태를 기초로 상기 차량의 주행행태를 추출하는 추출부 및 상기 추출부에서 추출된 상기 차량의 주행행태를 저장하는 저장부를 포함하는 것을 특징으로 한다. A vehicle driving behavior analysis system using an unmanned flying vehicle image for extracting and analyzing a driving behavior of a vehicle according to an embodiment of the present invention for achieving the above object, uses an unmanned flying apparatus to drive a lane driving the vehicle. For analyzing the driving behavior of the vehicle driving the road and the driving behavior of the vehicle on the lane based on the image output from the image input / output unit and the image input / output unit in which the captured image is input and output. And an information setting unit, an extracting unit for extracting the driving behavior of the vehicle based on the driving behavior of the vehicle set in the information setting unit, and a storage unit for storing the driving behavior of the vehicle extracted by the extraction unit. Is done.

구체적으로, 상기 영상입출력부는, 상기 차량의 정보, 차로 정보 중 어느 하나의 정보를 영상으로 촬영하는 영상 촬영부, 상기 영상 촬영부에서 촬영한 영상이 입력되는 영상 입력부 및 상기 영상 입력부에 입력된 영상을 정보 분석을 위한 보정 영상으로 보정하는 영상 보정부를 포함하는 것을 특징으로 한다.Specifically, the image input and output unit, an image capture unit for capturing any one of the information of the vehicle, lane information as an image, an image input unit for inputting an image captured by the image capture unit, and an image input to the image input unit It characterized in that it comprises an image correction unit for correcting the correction image for information analysis.

구체적으로, 상기 영상 촬영부는, 고정된 위치에서 상기 차량의 정보, 차로 정보 중 어느 하나의 정보를 영상으로 촬영하는 드론인 것을 특징으로 한다. Specifically, the image capturing unit is characterized in that it is a drone for capturing any one of the information of the vehicle and the lane information as a video at a fixed position.

구체적으로, 상기 정보 설정부는, 상기 영상 입력부에 입력된 영상에서 상기 차로의 유형을 설정하는 차로 설정부, 상기 영상 촬영부에서 촬영한 영상 시간 중 상기 차량의 주행행태를 추출하는 특정 시간을 설정하는 시간 설정부, 상기 영상 촬영부에서 촬영한 영상 중 상기 차량의 주행행태를 추출하는 공간을 설정하는 공간 설정부를 포함하는 것을 특징으로 한다. Specifically, the information setting unit, the lane setting unit for setting the type of the lane from the image input to the image input unit, set a specific time for extracting the driving behavior of the vehicle from the video time taken by the image taking unit It characterized in that it comprises a time setting unit, a space setting unit for setting a space for extracting the driving behavior of the vehicle among the images taken by the image capture unit.

구체적으로, 상기 시간 설정부는, 상기 차로 상에 일정 수 이상의 차량이 운행하는 시점을 기초로 도출시작시간 및 도출종료시간을 설정하는 것을 특징으로 한다. Specifically, the time setting unit is characterized in that to set the start time and the end time derived based on the time when a certain number of vehicles on the lane is running.

구체적으로, 상기 시간 설정부는 상기 영상 촬영부에 의해 촬영된 영상에서 상기 차량의 주행행태 분석을 위한 추출 시간 단위를 설정하는 것을 특징으로 한다. Specifically, the time setting unit is characterized in that to set the extraction time unit for analyzing the driving behavior of the vehicle from the image taken by the image capturing unit.

구체적으로 상기 공간 설정부는, 상기 차량이 주행하는 지역 중 관심 지역 및 상기 차량이 주행하는 차로 중 관심 차로 중 어느 하나를 설정하는 것을 특징으로 한다. Specifically, the space setting unit is characterized in that to set any one of the region of interest among the region in which the vehicle travels and the lane of interest among the lanes in which the vehicle runs.

구체적으로, 상기 공간 설정부는, 상기 차량이 주행하는 차로 중 지정된 차로의 실제 거리를 설정하는 것을 특징으로 한다. Specifically, the space setting unit is characterized in that to set the actual distance of the specified lane among the lanes the vehicle travels.

구체적으로, 상기 영상입출력부는, 상기 차로를 주행하는 상기 특정 개별 차량의 차종 정보, 상기 특정 개별 차량의 주행 속도, 상기 특정 개별 차량이 주행하는 차로 정보, 상기 특정 개별 차량의 차로 변경 위치 및 횟수, 상기 특정 개별 차량과 인접한 서로 다른 특정 개별 차량과의 거리, 차두시간 정보 중 어느 하나의 정보를 검출하는 객체 검출부, 상기 객체 검출부에서 검출된 상기 특정 개별 차량의 주행행태를 산출하는 객체 산출부를 포함하는 것을 특징으로 한다. Specifically, the image input and output unit, the vehicle type information of the specific individual vehicle driving the lane, the driving speed of the specific individual vehicle, the lane information of the specific individual vehicle running, the lane change position and number of times of the specific individual vehicle, An object detection unit that detects any one of distances and headway time information from different specific individual vehicles adjacent to the specific individual vehicle, and an object calculation unit that calculates driving behavior of the specific individual vehicle detected by the object detection unit It is characterized by.

본 발명의 무인비행장치 영상을 이용한 차량 주행행태 분석시스템에 따르면, 교통 문제가 발생하는 도로구간에 대하여 공간적 제약, 예컨대, 고속도로 본선, IC(Interchange)/JCT(Junction)의 합류,분류부, 엇갈림구간, 종단(상,하향)경사 변화구간, 공사구간 등의 제약이 없이 영상을 촬영할 수 있으며, 촬영된 영상의 분석을 통해 문제 발생 구간에 대한 차량주행행태를 추출할 수 있다.According to the vehicle driving behavior analysis system using the image of the unmanned aerial vehicle of the present invention, spatial constraints on a road section in which a traffic problem occurs, for example, a highway main line, an IC (Interchange) / JCT (Junction) confluence, classification, staggering It is possible to take an image without any restrictions such as section, vertical (up, down) slope change section, construction section, etc., and analyze the captured image to extract vehicle driving behavior for the problem section.

특히, 개별 차량의 주행행태기반의 미시적 실증적 교통분석을 수행하기 때문에, 대상 도로구간의 명확한 문제점 진단이 가능하며, 정확한 개선안을 도출함으로써, 교통개선효과를 극대화 할 수 있다. In particular, since microscopic and empirical traffic analysis based on the driving behavior of individual vehicles is performed, it is possible to diagnose clearly problems in the target road section, and by deriving an accurate improvement plan, the traffic improvement effect can be maximized.

도 1은 본 발명의 일 실시 예에 따른 차량 주행행태 분석시스템을 개략적으로 도시한 도면이다.
도 2는 본 발명의 일 실시 예에 따른 영상입출력부의 구성을 도시한 블록도를 나타낸 도면이다.
도 3은 본 발명의 일 실시 예에 따른 정보 설정부의 구성을 도시한 블록도를 나타낸 도면이다.
도 4는 본 발명의 일 실시 예에 따른 개별차량정보 설정부의 구성을 도시한 블록도를 나타낸 도면이다.
도 5는 본 발명의 일 실시 예에 따른 드론을 이용한 차량 주행행태 분석시스템을 통해 분석된 차량의 주행행태 및 분석 진행 방향을 분류한 실시예를 나타내는 도면이다.
1 is a view schematically showing a vehicle driving behavior analysis system according to an embodiment of the present invention.
2 is a block diagram showing the configuration of an image input and output unit according to an embodiment of the present invention.
3 is a block diagram showing a configuration of an information setting unit according to an embodiment of the present invention.
4 is a block diagram showing a configuration of an individual vehicle information setting unit according to an embodiment of the present invention.
5 is a view showing an embodiment of classifying a driving behavior and an analysis progress direction of a vehicle analyzed through a vehicle driving behavior analysis system using a drone according to an embodiment of the present invention.

본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that the technical terms used in this specification are only used to describe specific embodiments and are not intended to limit the present invention. In addition, technical terms used in this specification should be interpreted as meanings generally understood by those having ordinary knowledge in the technical field to which the present invention belongs, unless defined otherwise. It should not be interpreted as a meaning or an excessively reduced meaning. In addition, when the technical term used in this specification is a wrong technical term that does not accurately represent the spirit of the present invention, it should be understood as being replaced by a technical term that can be correctly understood by those skilled in the art. In addition, the general terms used in the present invention should be interpreted as defined in the dictionary or in context before and after, and should not be interpreted as an excessively reduced meaning.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 명세서의 실시 예에 대하여 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings, but the same or similar elements will be given the same reference numbers regardless of the reference numerals, and repeated descriptions thereof will be omitted. In addition, in the description of the present invention, when it is determined that detailed descriptions of related known technologies may obscure the subject matter of the present invention, detailed descriptions thereof will be omitted. Hereinafter, embodiments of the present specification will be described with reference to the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른 차량 주행행태 분석시스템을 개략적으로 도시한 도면이고, 도 2는 본 발명의 일 실시 예에 따른 영상입출력부의 구성을 도시한 블록도를 나타낸 도면이며, 도 3은 본 발명의 일 실시 예에 따른 정보 설정부의 구성을 도시한 블록도를 나타낸 도면이다. 1 is a view schematically showing a vehicle driving behavior analysis system according to an embodiment of the present invention, and FIG. 2 is a block diagram showing a configuration of an image input / output unit according to an embodiment of the present invention, FIG. 3 is a block diagram showing the configuration of the information setting unit according to an embodiment of the present invention.

도면에 도시된 바와 같이, 본 발명이 적용되는 무인비행장치 영상을 이용한 차량 주행행태 분석시스템(10)은, 영상입출력부(120), 정보 설정부(140), 추출부(160) 및 저장부(180)를 포함하여 구성된다. As shown in the figure, the vehicle driving behavior analysis system 10 using an image of an unmanned flight apparatus to which the present invention is applied includes an image input / output unit 120, an information setting unit 140, an extraction unit 160, and a storage unit It is configured to include 180.

영상입출력부(120)는 영상입출력부(120)는, 영상 촬영부(122), 영상 입력부(124), 영상 보정부(126)를 포함하여 구성될 수 있다. The image input / output unit 120 may include an image input / output unit 120, an image capture unit 122, an image input unit 124, and an image correction unit 126.

구체적으로 영상 촬영부(122)는 항공에서 차로 및 차로를 주행하는 차량을 촬영하는 구성이다. 이를 위해, 영상 촬영부(122)는 무인비행장치를 이용할 수 있으며, 이하 본 발명의 일 실시예의 무인비행장치는 도 1에 도시된 바와 같이 드론인 경우를 예를 들어 설명하지만, 드론 이외에 항공에서 영상을 촬영할 수 있는 장치 중 어느 하나가 될 수 있음은 물론이다. Specifically, the image photographing unit 122 is configured to photograph a vehicle driving through a lane and a lane in the air. To this end, the image photographing unit 122 may use an unmanned flying device, and the unmanned flying device according to an embodiment of the present invention will be described as an example of a drone as shown in FIG. Of course, it can be any one of the devices that can shoot.

이러한 영상 촬영부(122)에는 차로 및 차로를 주행하는 촬영하기 위하여 카메라, 동영상 촬영 장치 등이 장착될 수 있다. 촬영장치가 장착된 영상 촬영부(122)는 고정된 위치에서 도로 및 도로에서 주행하는 차량 등을 촬영할 수 있다. 이때, 영상 촬영부(122)에서 촬영한 영상은 AVI, MP4 등의 포맷, 4K(UHD급) 이상의 고해상도의 영상이 될 수 있다. The image capturing unit 122 may be equipped with a camera, a video recording device, and the like in order to photograph a lane and a driving lane. The image photographing unit 122 equipped with the photographing apparatus may photograph a road, a vehicle driving on the road, and the like at a fixed position. At this time, the image captured by the image capture unit 122 may be a high-resolution image of a format such as AVI, MP4, or higher than 4K (UHD).

한편, 드론으로 형성된 영상 촬영부(122)는 비행고도(예: 촬영높이)에 따라 영상 내 도로의 공간적 범위조정이 가능하고 대상도로의 종류, 형태, 장소에 상관없이 다양한 장소에서 촬영이 가능하기 때문에 도로 영상분석을 통해 모든 개별 차량의 주행행태의 추출이 가능하다는 장점이 있다. On the other hand, the image capturing unit 122 formed of a drone can adjust the spatial range of the road in the image according to the flight altitude (for example, the shooting height), and can shoot in various places regardless of the type, shape, and location of the target road. Therefore, there is an advantage in that it is possible to extract driving behavior of all individual vehicles through road image analysis.

영상 입력부(124)는 영상 촬영부(122)에서 촬영한 영상이 입력되는 구성이다. 영상 입력부(124)에는 영상 이외에, 촬영된 영상이 이미지화된 데이터가 저장될 수도 있다. The image input unit 124 is a configuration in which an image captured by the image capture unit 122 is input. In addition to the image, the image input unit 124 may store data in which the captured image is imaged.

영상 보정부(126)는 영상 입력부(124)에 입력된 영상 및 이미지에서 다양한 정보를 획득하기 위해 영상을 보정하는 구성이다.The image correction unit 126 is a component that corrects an image to obtain various information from the image and image input to the image input unit 124.

구체적으로, 영상 보정부(126)는 입력된 영상 촬영부(122)에서 촬영한 영상의 미세한 흔들림을 보정할 수 있다. Specifically, the image correction unit 126 may correct fine shaking of the image captured by the input image photographing unit 122.

이러한 영상 보정부(126)에 의해 보정된 영상을 통해 차로의 세부 이미지 정보, 주행 중인 차량의 속도 별로 차량 색상을 다르게 표시한 이미지 정보, 특정 차로에서 차량의 이동 궤적을 표현한 이미지 정보, 주행 중인 차량의 차로 변경 발생 지점을 표시한 이미지 정보 등을 획득할 수 있다. Through the image corrected by the image correcting unit 126, detailed image information of a lane, image information in which vehicle colors are differently displayed for each vehicle speed, image information representing a vehicle's movement trajectory in a specific lane, and a driving vehicle It is possible to obtain image information, etc. indicating the point of occurrence of a change in the lane.

획득한 정보는 도로를 주행하고 있는 차량의 주행행태를 분석할 수 있는 기초 데이터가 될 수 있으며, 획득한 정보를 통해 분석된 차량의 주행행태를 통해 교통 문제의 원인을 분석하고 개선할 수 있게 된다. The acquired information may be basic data for analyzing the driving behavior of a vehicle driving on the road, and it is possible to analyze and improve the cause of a traffic problem through the driving behavior of the vehicle analyzed through the acquired information. .

한편, 영상입출력부(120)에서 촬영하고 보정한 영상은 정보설정부(140)를 통해 차량의 주행행태 출력에 필요한 정보를 설정할 수 있다. Meanwhile, the image photographed and corrected by the image input / output unit 120 may set information necessary for outputting the driving behavior of the vehicle through the information setting unit 140.

이를 위해, 정보 설정부(140)는, 차로 설정부(142), 시간 설정부(144) 및 공간 설정부(146)를 포함하여 구성될 수 있다. To this end, the information setting unit 140 may include a lane setting unit 142, a time setting unit 144, and a space setting unit 146.

구체적으로, 차로 설정부(142)는 영상입출력부(120)에서 촬영하고 보정한 영상에서 차량이 주행하는 차로를 구분하고, 차로의 유형 등의 정보를 설정할 수 있다. Specifically, the lane setting unit 142 may classify the lane in which the vehicle travels from the image captured and corrected by the image input / output unit 120 and set information such as the type of lane.

이때, 차로의 구분이란 차량이 주행하고 있는 차로의 구분 정보, 즉 1, 2, 3차 등의 차로 중에서 어느 차로에서 차량이 주행하는지 여부를 의미한다. At this time, the classification of the lane means information on the lane of the lane in which the vehicle is running, that is, in which lane, such as 1, 2, 3, etc.

또한, 차로의 유형이란 차량의 주행행태 도출에 필요한 정보에서 차로가 속해 있는 도로의 유형이다. 예를 들어, 고속도로 본선 구간, 동일 방향의 차로로 형성된 2 이상의 고속도로가 합류되거나 분리되는 합분류 구간, 동일 방향의 차로로 형성된 2 이상의 고속도로를 연결하는 IC/JC 연결로 구간, 긴 구간의 도로를 따라가면서 동일 방향의 교통류가 엇갈리며 차로가 변경되는 구간인 엇갈림 구간 등의 유형 중 어느 하나의 정보이다. In addition, the type of lane is a type of road to which the lane belongs in the information necessary for deriving the driving behavior of the vehicle. For example, the highway main road section, the summation section in which two or more highways formed by lanes in the same direction join or separate, and the IC / JC connection road section in which two or more highways formed by lanes in the same direction connect, and roads in long sections It is information of any one of the types such as the crossing section, which is a section where traffic flows in the same direction as they follow, and the lane changes.

시간 설정부(144)는 영상입출력부(120)에서 촬영한 영상 시간에서 차량의 주행행태를 출력하기 위한 특정 시간을 선택할 수 있다. The time setting unit 144 may select a specific time for outputting the driving behavior of the vehicle from the image time taken by the image input / output unit 120.

구체적으로, 시간 설정부(144)는 영상입출력부(120)에서 촬영한 영상에서 불필요한 영상을 제외하고, 차량의 주행행태 도출에 필요한 시간대의 영상을 선택할 수 있다. 특히, 추출된 데이터에서 보다 명확하게 차량의 주행행태를 분석하기 위하여 촬영된 영상에서 차량의 주행행태 차량의 주행행태 도출에 필요한 도출시작시간과 도출종료시간을 설정할 수 있다. Specifically, the time setting unit 144 may select an image in a time period necessary for deriving driving behavior of the vehicle, except for unnecessary images from the image captured by the image input / output unit 120. Particularly, in order to more clearly analyze the driving behavior of the vehicle from the extracted data, it is possible to set a driving start time and a driving end time required to derive the driving behavior of the vehicle from the captured image.

이와 다르게 시간 설정부(144)는 영상입출력부(120)에서 촬영된 영상에서 교통 분석을 위한 차량 주행행태를 추출하는 시간 단위를 설정할 수도 있다. Alternatively, the time setting unit 144 may set a time unit for extracting the vehicle driving behavior for traffic analysis from the image captured by the image input / output unit 120.

상세하게 시간 설정부(144)는 촬영된 영상에서 차량의 주행행태 도출에 필요한 영상을 저장하는 시간 단위를 설정할 수 있다. 예를 들어, 촬영된 영상이 초(sec)당 24Frame라 가정하면(24frame/sec), 영상 촬영부(122)에서 촬영한 영상을 6Frame으로 설정할 수 있으며, 촬영된 영상은 0.25초 단위로 저장될 수 있다. 설정된 추출 시간 단위는 차량의 속도 및 가속도를 추출할 수 있는 정보로 사용될 수 있다. In detail, the time setting unit 144 may set a time unit for storing an image necessary for deriving driving behavior of the vehicle from the captured image. For example, assuming that the captured image is 24 frames per second (24 frames / sec), the image captured by the image capture unit 122 may be set to 6 frames, and the captured image may be stored in 0.25 second increments. Can be. The set extraction time unit may be used as information capable of extracting vehicle speed and acceleration.

한편, 공간 설정부(146)는 영상입출력부(120)에서 촬영한 영상 중 차량 주행행태 도출에 필요한 공간을 설정할 수 있다. Meanwhile, the space setting unit 146 may set a space required for deriving a vehicle driving behavior among the images captured by the image input / output unit 120.

상세하게, 공간 설정부(146)는 차량이 주행하는 구간 중 관심 지역 및 차량이 주행하는 차로 중 관심 차로 중 어느 하나를 설정할 수 있다. 관심지역 및 관심 차로란, 교통 문제가 빈번히 발생하는 도로 구간 또는 차로 등이 될 수 있으며, 설정되는 관심지역 및 관심 차로는 사용자의 조건에 따라 변경될 수 있다. 설정된 관심 지역 및 관심 차로는 차량의 밀도 관계를 분석, 추출할 수 있는 정보로 사용될 수 있다.In detail, the space setting unit 146 may set any one of the lane of interest and the lane of interest among the lanes in which the vehicle travels. The region of interest and the lane of interest may be a road section or a lane where traffic problems frequently occur, and the set region of interest and the lane of interest may be changed according to a user's condition. The set region of interest and the lane of interest may be used as information to analyze and extract the density relationship of the vehicle.

또한, 공간 설정부(146)는 주행하는 차로 중 지정된 차로의 실제 거리를 설정할 수도 있다. Also, the space setting unit 146 may set an actual distance of a specified lane among driving lanes.

촬영된 영상에서 추출되는 차량의 주행행태 중에는 차량별 통행속도, 차량의 가감속 정도, 이동궤적, 차량들간의 거리, 도로의 밀도 등이 될 수 있다. 이러한 정보를 추출하기 위해서는 사용자가 실제 거리(m)를 알고 있는 두 지점을 지정한 뒤, 지정한 두 지점에 대하여 픽셀(pixel)/거리(m)를 통해 실제 거리(m)로 환산하여 설정하게 된다. Among the driving behavior of the vehicle extracted from the captured image, it may be a traffic speed for each vehicle, a degree of acceleration and deceleration of the vehicle, a movement trajectory, a distance between vehicles, and a density of roads. To extract this information, the user designates two points that know the actual distance (m), and then converts and sets the specified two points into the actual distance (m) through pixels / distance (m).

이와 같이 정보 설정부(140)에서 시공간적인 영역이 설정되면, 추출부(160)에서 설정된 시공간적인 영역을 기초로 차량의 주행행태를 추출할 수 있다. When the spatiotemporal region is set in the information setting unit 140 as described above, the driving behavior of the vehicle may be extracted based on the spatiotemporal region set in the extraction unit 160.

추출되는 차량의 주행행태는, 예를 들어, 차종, 차량의 속도/가속도, 주행차로 등이 있으며, 이러한 자료를 통해 교통류 특성, 특정 개별 차량의 주행 궤적, 2 이상의 특정 개별 차량 사이의 상호 주행 특성 등을 추출할 수 있다. The driving behavior of the extracted vehicle is, for example, a vehicle type, a vehicle speed / acceleration, a driving lane, and the like, and through these data, traffic flow characteristics, a specific individual vehicle trajectory, and mutual driving characteristics between two or more specific individual vehicles. Etc. can be extracted.

상세하게, 차종의 경우, 픽셀 수에 따라 차량 길이를 기반으로 소형, 중형, 대형을 기본으로 분류하여 추출할 수 있고, 차량의 속도는 앞서 정보 설정부(140)에서 설정한 정보를 기초로 차량의 주행 속도 및 가속도를 산출할 수 있다. 주행 차로는 차량이 주행하고 있는 차로를 구분하는 것으로 차량의 위치 정보와 사용자가 설정한 차로의 구분 정보(1, 2, 3차로)를 이용하여 주행차로 위치를 산출할 수 있다. In detail, in the case of a vehicle model, small, medium, and large can be classified and extracted based on the vehicle length according to the number of pixels, and the vehicle speed is based on the information set by the information setting unit 140. Can calculate the driving speed and acceleration. The driving lane distinguishes the lane on which the vehicle is driving, and the driving lane position can be calculated using the location information of the vehicle and the user's set lane identification information (1, 2, 3 lanes).

한편, 차량의 주행행태를 추출할 때, 도로를 주행하고 있는 차량 중 선택된 특정 개별 차량의 차량의 주행행태도 추출할 수 있다. 상세하게, 복수 대의 개별 차량을 선택하고, 선택된 특정 개별 차량에 의해 도로의 차량 밀도를 추출할 수 있다. 이때, 차량 밀도를 추출하기 위한 산출식은 다음과 같다. On the other hand, when extracting the driving behavior of the vehicle, it is also possible to extract the driving behavior of the vehicle of a specific individual vehicle selected from among the vehicles driving the road. In detail, a plurality of individual vehicles may be selected, and the vehicle density of the road may be extracted by the selected specific individual vehicles. At this time, the calculation formula for extracting the vehicle density is as follows.

차량밀도(k)= 교통량(q)/평균속도(u)Vehicle density (k) = traffic volume (q) / average speed (u)

즉, 정보 설정부(140)에서 설정한 조건에 기초하여 시, 공간 범위 내의 통과차량의 평균속도를 산출하고, 차량의 주행행태 도출에 필요한 정보에서 의 단위 시간 당 통과하는 차량의 통과 대수를 산출하여 차량의 주행행태도출에 필요한 정보에서 차량 밀도를 산출할 수 있다. That is, based on the conditions set by the information setting unit 140, the average speed of the passing vehicle within the time and space range is calculated, and the number of passing vehicles passing per unit time is calculated from the information necessary to derive the driving behavior of the vehicle. By doing so, the vehicle density can be calculated from information necessary to derive the driving behavior of the vehicle.

한편, 정보 설정부(140)에서 설정된 차량의 주행행태를 기초로 더불어, 개별 차량의 주행행태를 추출할 수 있다. 이를 위해 추출부(160)는 객체 검출부(162)와 객체 산출부(164)를 포함하며 구성될 수 있다. Meanwhile, the driving behavior of the individual vehicle may be extracted based on the driving behavior of the vehicle set in the information setting unit 140. To this end, the extraction unit 160 may include an object detection unit 162 and an object calculation unit 164.

객체 검출부(162)에서 검출하는 개별 차량의 주행행태란, 영상입출력부(120)에서 촬영한 영상에서 선택된 복수 대의 개별 차량의 주행행태가 될 수 있다. 상세하게 개별 차량의 차종, 개별 차량의 주행 속도 및 주행하고 있는 차로, 개별 차량이 주행 중 차로를 변경한 횟수 및 변경위치, 개별 차량과 인접한 서로 다른 개별 차량 사이의 차간 거리 등이 될 수 있다. The driving behavior of individual vehicles detected by the object detection unit 162 may be driving behavior of a plurality of individual vehicles selected from images captured by the image input / output unit 120. In detail, it may be the vehicle type of the individual vehicle, the driving speed of the individual vehicle and the driving lane, the number and location of changes of the lane during the driving of the individual vehicle, the distance between the individual vehicles and the adjacent individual vehicles.

객체 검출부(162)에서 개별 차량의 정보를 검출하면, 객체 산출부(164)에서 검출된 정보를 기초로 개별 차량의 주행행태를 산출할 수 있다. 전술한 바와 같이 선택된 개별 차량의 차종, 개별 차량의 주행 속도 및 주행하고 있는 차로, 개별 차량이 주행 중 차로를 변경한 횟수 및 변경위치, 개별 차량과 인접한 서로 다른 개별 차량 사이의 차간 거리 등에 따른 개별 차량의 주행행태를 검출할 수 있다. When the object detection unit 162 detects the information of the individual vehicle, the driving behavior of the individual vehicle may be calculated based on the information detected by the object calculation unit 164. Individuals according to the vehicle type of the selected individual vehicle, the driving speed of the individual vehicle and the driving lane, the number and location of changes of the individual vehicle while driving, and the distance between the individual vehicles and other individual vehicles adjacent to each other, as described above. The driving behavior of the vehicle can be detected.

이와 같이 산출된 차량의 주행행태는 저장부(180)에 저장될 수 있으며, 저장된 데이터는 도로상의 교통 문제점을 도출하고 원인을 분석하여 해결 방안을 수립할 수 있게 하는 기초 자료로 사용될 수 있다.The driving behavior of the vehicle thus calculated may be stored in the storage unit 180, and the stored data may be used as basic data to derive a traffic problem on the road and analyze a cause to establish a solution.

이하 도 5를 참고하여 본 발명의 실시 예의 차량 주행행태 분석시스템(10)을 통해 분석된 차량의 주행행태 및 분석 진행 방향을 살펴보기로 한다. Hereinafter, with reference to FIG. 5, the driving behavior of the vehicle analyzed through the vehicle driving behavior analysis system 10 of the embodiment of the present invention and the direction of analysis progress will be described.

도 5는 본 발명의 일 실시 예에 따른 드론을 이용한 차량 주행행태 분석시스템을 통해 분석된 차량의 주행행태 및 분석 진행 방향을 분류한 실시예를 나타내는 도면이다. 5 is a view showing an embodiment of classifying a driving behavior and an analysis progress direction of a vehicle analyzed through a vehicle driving behavior analysis system using a drone according to an embodiment of the present invention.

도면을 참고하면, 영상입출력부(120)를 통해 도로를 촬영한다. 촬영된 영상을 촬영하는 과정에서 발생한 미세한 흔들림을 보정할 수 있다. 보정된 영상을 통해 차로의 세부 이미지 정보, 주행 중인 차량의 속도 별로 차량 색상을 다르게 표시한 이미지 정보, 특정 차로에서 차량의 이동 궤적을 표현한 이미지 정보, 주행 중인 차량의 차로 변경 발생 지점을 표시한 이미지 정보 등을 획득할 수 있다. Referring to the drawings, a road is photographed through the image input / output unit 120. It is possible to correct fine shaking caused in the process of photographing the captured image. Through the corrected image, detailed image information of the lane, image information that displays the vehicle color differently according to the speed of the driving vehicle, image information that expresses the trajectory of the vehicle in a specific lane, and image showing the lane change point of the driving vehicle Information, etc. can be obtained.

영상이 촬영되면, 차량의 주행행태 출력에 필요한 정보를 설정할 수 있다. 예컨대, 사용자가 기준한 관심지역 및 관심차로 중 어느 하나인 기준지점을 우선적으로 선정한 후, 선정된 기준지점에 따라 구간별로 분할할 수 있다. 이때, 분할된 구간의 길이는 균등하게 분할 수 있지만 다르게는 목적과 필요에 따라 길이는 다르게 설정될 수 있으며, 분할되는 구간의 개수 또한 조건에 따라 변경 가능하다. When an image is captured, information necessary for outputting a driving behavior of the vehicle may be set. For example, a reference point, which is one of a region of interest and a lane based on a user's preference, may be preferentially selected and divided into sections according to the selected reference point. At this time, the length of the divided section can be divided evenly, but differently, the length can be set differently according to the purpose and need, and the number of divided sections can also be changed according to conditions.

분할된 차량의 주행행태도출에 필요한 정보에서 차로의 유형에 따라 자료를 추출할 수 있다. From the information required to derive the driving behavior of the divided vehicle, data can be extracted according to the type of lane.

우선 도 5의 (a)와 같이 도로의 본선(1), 본선(1)과 동일 방향으로 형성된 서로 다른 도로인 합류부 연결로(2)가 합류되는 합류부 차로를 예를 들기로 한다. First, as an example of FIG. 5 (a), a confluence part lane in which the confluence part connecting path 2, which is different roads formed in the same direction as the main line 1 of the road and the main line 1, is joined will be taken as an example.

합류부 차로는, 합류하는 지점의 합류부 연결로(2)가 본선(1)에 접속되는 구간으로 도로 본선(1)의 차량과 합류부 연결로(2)에서의 유입 차량의 주행권 확보를 위한 상호 작용이 발생할 수 있는 도로이다. 이러한 합류부 차로에서는 차량 간 상충이 발생하기 때문에 교통 정체가 유발될 수 있으며 이를 해결하기 위한 교통 분석 항목은 다음과 같다. In the confluence lane, it is a section in which the confluence connection path 2 at the point of confluence is connected to the main line 1, so as to secure the driving rights of the vehicle on the road main line 1 and the inflow vehicle at the confluence connection path 2. It is a road for interaction to occur. Traffic congestion may be caused in these confluence lanes due to conflicts between vehicles, and the traffic analysis items to solve this are as follows.

우선 본선(1)과 합류부 연결로(2)의 합류 교통량을 비교할 수 있다. 이를 위해, 영상 촬영부(122)에서 촬영한 도로(합류부 차로)에서 차량 통행이 많은 혼잡 시간과 차량 통행이 적은 비 혼잡 시간을 설정하여 차량의 주행행태를 도출할 수 있다. 이때, 특정 시간대를 설정하기 위해 시간 설정부(144)에서 도출시작시간과 도출종료시간을 설정하게 된다. First, it is possible to compare the traffic volume of the main line (1) and the confluence connection road (2). To this end, the driving behavior of the vehicle may be derived by setting a congestion time with a lot of vehicle traffic and a non-congestion time with little vehicle traffic on a road (a confluence lane) photographed by the image photographing unit 122. At this time, in order to set a specific time zone, the time setting unit 144 sets the start time and the end time.

또한, 합류부 차로의 특징에 따라 차량의 합류에 영향을 가하는 교통 변수에는 본선(1)과 합류부 연결로(2) 사이의 교통량, 차량의 차로 변경 횟수, 차량의 주행 속도, 밀도 등이 있다. In addition, the traffic variables affecting the confluence of the vehicle according to the characteristics of the confluence of the confluence include traffic volume between the main line 1 and the confluence connection path 2, the number of times the vehicle has changed lanes, the vehicle's running speed, density, and the like. .

한편, 도출된 차량의 주행행태에 따라 본선(1)과 합류부 연결로(2)의 합류 구간 내 정체 형성에 영향을 주는 교통량을 분석할 수 있다. 분석된 결과를 기초로 차로가 줄어드는 구간의 위치를 조절하는 등의 문제점 해결 방안을 도출할 수 있게 된다.On the other hand, it is possible to analyze the traffic volume affecting the formation of congestion in the confluence section of the main line (1) and the confluence connection path (2) according to the driving behavior of the derived vehicle. Based on the analyzed results, it is possible to derive a solution to problems such as adjusting the position of the section in which the lane decreases.

한편, 영상입출력부(120)에서 촬영한 영상에서 추출한 차로는 분류부 차로의 구조일 수 있다. Meanwhile, the lane extracted from the image photographed by the image input / output unit 120 may have a structure of a classifier lane.

즉, 도 5의 (b)에 도시된 분류부 차로는 도로 본선(1)에서 분류부 연결로(3)가 본선(1) 외부로 배출되는 구간으로, 분류부 연결로(3)로 빠져나가려는 차량이 많아 차량의 차로 변경이 잦고, 이에 따른 교통 정체가 발생하는 도로이다. That is, in the classifier lane shown in FIG. 5 (b), a section in which the classifier connecting path 3 is discharged from the road main line 1 to the outside of the main line 1 is attempted to escape to the classifier connecting path 3 Is a road where many vehicles have frequent lane changes, resulting in traffic jams.

이러한 분류부 차로의 차량의 주행행태를 분석하고, 분석된 결과를 기초로 교통 문제의 해결방안을 도출할 수 있다. It is possible to analyze the driving behavior of the vehicle in the classification lane and derive a solution to the traffic problem based on the analyzed result.

한편, 영상입출력부(120)에서 촬영한 영상에서 추출한 차로는 엇갈림 구간일 수 있다. Meanwhile, the lane extracted from the image photographed by the image input / output unit 120 may be a staggered section.

즉, 도 5의 (c)를 도시된 바와 같이 엇갈림 구간이란, 교통통제 시설의 도움 없이 긴 구간의 도로를 따라가면서 동일 방향의 교통류가 엇갈리며 차로를 변경하는 구간을 의미한다. That is, as shown in Fig. 5 (c), the crossing section means a section in which traffic flows in the same direction are alternating and a lane is changed while following a long section of a road without the aid of a traffic control facility.

예를 들어, 엇갈림 구간은 본선(1)를 따라 합류부 연결로(2)와 분류부 연결로(3)가 모두 형성될 수 있다. 이러한 엇갈림 구간은 합류부 연결로(2)에서 유입되는 차량과 분류부 연결로(3)로 유출되는 차량이 모두 주행하고 있으므로, 잦은 차로 변경이 발생하여 정체가 발생할 수 있다. For example, in the staggered section, both the confluence connection path 2 and the classification connection path 3 may be formed along the main line 1. In this staggered section, since both the vehicle flowing in from the confluence connection path 2 and the vehicle flowing out into the classification connection path 3 are traveling, congestion may occur due to frequent lane changes.

이러한 엇갈림 구간은 차량의 엇갈림에 의해 교통 문제인 교통 정체가 발생하기 때문에 이를 해결하기 위한 교통 분석 항목은 다음과 같다. The traffic analysis items for solving this staggered section are as follows, because traffic stagnation, which is a traffic problem, occurs due to the staggering of the vehicle.

우선, 본선(1)과 합류부 연결로(2)의 합류 교통량을 비교할 수 있다. 이를 위해, 영상 촬영부(122)에서 촬영한 도로(합류부 차로)에서 차량 통행이 많은 혼잡 시간과 비 혼잡 시간을 설정하여 차량의 주행행태를 분석할 수 있다. 이때, 특정 시간대를 설정하기 위해 시간 설정부(144)에서 도출시작시간과 도출종료시간을 설정하게 된다.First, it is possible to compare the traffic volume of the confluence of the main line (1) and the confluence section (2). To this end, the driving behavior of the vehicle may be analyzed by setting a congestion time and a non-congestion time with a lot of vehicle traffic on a road (a confluence lane) photographed by the image photographing unit 122. At this time, in order to set a specific time zone, the time setting unit 144 sets the start time and the end time.

또한, 합류부 연결로(2)에서 유입된 차량과 분류부 연결로(3)에서 배출되는 차량의 차로 변경 횟수를 비교하여 차량 변경 횟수에 다른 교통 문제를 분석할 수 있다. In addition, it is possible to analyze other traffic problems in the number of vehicle changes by comparing the number of lane changes between the vehicle introduced from the confluence connection path 2 and the vehicle discharged from the sorting portion connection path 3.

또한, 각 차로 구간마다의 차량 속도, 밀도, 가속도를 분석하여 엇갈림 차로에서 정체 및 사고 등이 자주 일어나는 구간을 분석할 수 있다. In addition, by analyzing the vehicle speed, density, and acceleration for each section of the lane, it is possible to analyze a section where traffic jams and accidents frequently occur in a staggered lane.

이와 같이 엇갈림 차로에서 분석한 교통 문제에 따라 예를 들어, 본선(1)에서 분류부 연결로(3) 진입을 위한 도로의 폭을 확대하거나, 본선(1)에서 분류부 연결로(3)로 진입할 때, 점선 노면표시를 미리 진행할 수 있는 등의 도로를 개선하여 교통 문제를 해결할 수 있다. Depending on the traffic problems analyzed in the crossing lanes, for example, the width of the road for entry into the sorting section connecting path (3) from the main line (1) is expanded, or from the main line (1) to the sorting section connecting path (3). When entering, it is possible to solve the traffic problem by improving roads, such as in advance that the dotted road surface can be displayed in advance.

이러한 문제 해결안을 통해 엇갈림 차로에서 주행 시, 운전자들의 주행 시인성 확보 및 안전사고를 예방할 수 있는 효과를 도출할 수 있게 된다. Through this problem solving solution, it is possible to derive an effect of securing visibility of driving and preventing safety accidents when driving in a crossing lane.

한편, 영상입출력부(120)에서 촬영한 영상에서 추출한 차로는 경사구간의 차로일 수 있다. Meanwhile, the lane extracted from the image photographed by the image input / output unit 120 may be a lane of a slope.

도 5 (d)를 참고하면 경사구간의 차로란 도로의 수평선상을 기준으로 도로를 세로 방향으로 절단한 면에서 경사진 세로측 경사구간 및 도로의 수평선상을 기준으로 도로를 가로로 방향으로 절단한 면에서 경사진 가로측 구간으로 구성되는 차로라고 할 수 있다. Referring to FIG. 5 (d), a road in a horizontal direction is cut in a horizontal direction based on an inclined vertical slope section and a horizontal line of a road in a direction in which the road is cut in the vertical direction based on the horizontal line of the road. It can be said to be a lane consisting of a lateral section that slopes from the side.

이러한 경사구간 차로에서는 차량 주행이 지형 조건에 큰 영향을 받으며, 특히 중차량(예를 들어 대형차량, 승합차 등)의 경우 승용차보다 주행 속도에 영향을 받아 감속할 수 있기 때문에 도로 전반의 차량 정체를 유발할 수 있다. Vehicle driving is greatly affected by the terrain conditions in these sloping lanes. In particular, heavy vehicles (e.g., heavy vehicles, vans, etc.) can be decelerated due to the driving speed rather than passenger cars. Can cause

즉, 경사구간 차로에서 경사도와 경사 길이가 증가할수록 차량의 감속이 이 나타남을 알 수 있다. 구체적으로, 서로 다른 4%의 경사각도를 가진 도로에서 1000m의 길이만큼 차량이 이동한 경우 차량의 속도 감소 폭(A)과 9%의 경사각도를 가진 도로에서 1000m의 길이만큼 차량이 이동한 경우 차량의 속도 감속 폭(B)을 비교할 경우 (A)의 경우보다 (B)의 경우가 감소 폭이 큰 것으로 나타난다. 따라서, 경사구간의 차로에서는 차량의 무게가 증가하거나, 도로 경사도가 높은 경우 등의 차량의 주행 속도가 차량 주행행태에 영향이 있음을 알 수 있다. That is, it can be seen that the deceleration of the vehicle appears as the inclination and the inclination length increase in the inclined section lane. Specifically, when a vehicle moves by a length of 1000m on a road having a different 4% inclination angle, when the vehicle moves by a length of 1000m on a road with a speed reduction width (A) of the vehicle and a 9% inclination angle When comparing the speed deceleration width (B) of the vehicle, it appears that the reduction width is greater in the case of (B) than in the case of (A). Accordingly, it can be seen that the driving speed of the vehicle, such as when the weight of the vehicle increases or the road slope is high in the lane of the slope section, affects the vehicle driving behavior.

이와 같이, 경사구간 차로에서의 차량 주행행태를 도출하고, 도출된 결과를 기초로 교통 문제를 분석하면, 예를 들어 경사 표시판 설치를 통해 사전에 차량의 속도 감속을 유발하거나, 경사지점 이전에서부터 사전에 차량의 차로 변경을 알리는 차로 변경 유도시스템을 설치하는 등의 개선안이 필요할 것으로 판단된다. As described above, when the driving behavior of the vehicle in the lane of the slope section is derived and the traffic problem is analyzed based on the derived result, for example, the installation of the slope display panel causes the vehicle to decelerate in advance, or advances from before the slope point. It is judged that an improvement plan such as installing a lane change guidance system informing the lane change of the vehicle will be necessary.

이러한 개선안에 따라 경사구간 차로에서의 차량의 차로 변경으로 인한 사고 및 정체 유발을 최소화할 수 있다. According to this improvement plan, it is possible to minimize the occurrence of accidents and congestion caused by the change of the lane of the vehicle in the lane of the slope.

한편, 영상입출력부(120)에서 촬영한 영상에서 추출한 차로는 비 반복적 정체 유발 구간 도로일 수 있다.Meanwhile, the lane extracted from the image photographed by the image input / output unit 120 may be a non-repetitive congestion-inducing section road.

도 5의 (e)를 참고하면 교통정체가 반복적으로 발생하지 않거나 정체의 예측이 가능하거나 불가능한 비 반복적 정체 유발 구간은, 예를 들어, 공사구간, 사고구간과 같이 특정 이유로 차로를 점용하게 되어 도로의 차량 통행에 제한을 주는 구간이라 할 수 있다. 이하 본 발명의 실시예에서는 공사구간으로 인하여 비 반복적 정체 유발 구간이 발생한 예를 들어 설명하기로 한다. Referring to (e) of FIG. 5, a non-repetitive congestion-inducing section in which traffic congestion does not occur repeatedly, or where congestion is predictable or impossible, occupies a lane for a specific reason, such as a construction section or an accident section. It can be said to be a section that limits the traffic of a vehicle. Hereinafter, in the embodiment of the present invention, an example in which a non-repetitive congestion-inducing section occurs due to a construction section will be described.

이러한 비 반복적 정체 유발 구간(4)이 도로에 발생하면 높은 속도 및 일정 속도로 주행하던 차량은 비 반복적 정체 유발 구간(4)으로 인하여 감속하게 되고, 잦은 차로의 변경이 발생하는 등의 주행권 확보를 위한 정체가 발생하게 된다. When the non-repetitive congestion-inducing section 4 occurs on the road, a vehicle driving at a high speed and a constant speed decelerates due to the non-repetitive congestion-inducing section 4 and secures a right to travel, such as frequent lane changes. Congestion for will occur.

발생한 문제를 해결하기 위하여 공사 구간 내의 교통량과, 본선(1) 내에서 차로 변경 분포, 차로 차단 구간의 일반적인 차량의 정보(속도, 밀도, 가속도 등) 등의 정보를 분석하여 비 반복적 정체 유발 구간(4)의 교통 문제 해결을 위한 방법을 제시할 수 있다. In order to solve the problem, analysis of traffic volume in the construction section, lane change distribution in the main line (1), and general vehicle information (speed, density, acceleration, etc.) in the lane blocking section analyzes information such as non-repetitive congestion causing sections ( 4) can provide a method for solving the traffic problem.

앞서 예시한 도로 이외에 터널 진입 구간, 졸음 쉼터구간, 과속카메라 설치 구간 등의 여러 구간에서의 차량 주행행태를 분석하고, 분석된 자료를 기초로 차량 주행의 안정성, 정체 구간 감소 등의 문제를 해결할 수도 있다. In addition to the roads exemplified above, it is possible to analyze vehicle driving behavior in various sections, such as the tunnel entry section, drowsiness shelter section, and speed camera installation section, and solve problems such as vehicle stability and traffic jam reduction based on the analyzed data. have.

이러한 차량 주행행태 분석시스템에 의하여 교통 문제가 발생하는 도로의 영상을 선택적으로 촬영할 수 있으며, 촬영된 영상을 통해 문제가 발생하는 지점에 대한 차량의 미시적 주행행태를 확인할 수 있다. By using the vehicle driving behavior analysis system, it is possible to selectively photograph an image of a road where a traffic problem occurs, and through the photographed image, it is possible to check the microscopic driving behavior of the vehicle at a point where the problem occurs.

이상과 같이, 본 발명의 무인비행장치 영상을 이용한 차량 주행행태 분석시스템에 따르면, 교통 문제가 발생하는 도로구간에 대하여 공간적 제약, 예컨대, 고속도로 본선, IC(Interchange)/JCT(Junction)의 합류,분류부, 엇갈림구간, 종단(상,하향)경사 변화구간, 공사구간 등의 제약이 없이 영상을 촬영할 수 있으며, 촬영된 영상의 분석을 통해 문제 발생 구간에 대한 차량주행행태를 추출할 수 있다.As described above, according to the vehicle driving behavior analysis system using the image of the unmanned aerial vehicle of the present invention, spatial constraints on a road section in which a traffic problem occurs, for example, the consolidation of an expressway main line, IC (Interchange) / JCT (Junction), The image can be taken without restrictions such as a classification section, a staggered section, a vertical (upward, downward) slope change section, a construction section, etc., and an analysis of the captured image can be used to extract vehicle driving behavior for a problem-prone section.

특히, 차량의 주행행태기반의 미시적 실증적 교통분석을 수행하기 때문에, 대상 도로구간의 명확한 문제점 진단이 가능하며, 정확한 개선안을 도출함으로써, 교통개선효과를 극대화 할 수 있다. In particular, since microscopic and empirical traffic analysis based on the driving behavior of the vehicle is performed, it is possible to diagnose problems clearly in the target road section, and by deriving an accurate improvement plan, the traffic improvement effect can be maximized.

한편, 본 명세서에서 설명하는 기능적인 동작과 주제의 구현물들은 디지털 전자 회로로 구현되거나, 본 명세서에서 개시하는 구조 및 그 구조적인 등가물들을 포함하는 컴퓨터 소프트웨어, 펌웨어 혹은 하드웨어로 구현되거나, 이들 중 하나 이상의 결합으로 구현 가능하다.  본 명세서에서 설명하는 주제의 구현물들은 하나 이상의 컴퓨터 프로그램 제품, 다시 말해 제어 시스템의 동작을 제어하기 위하여 혹은 이것에 의한 실행을 위하여 유형의 프로그램 저장매체 상에 인코딩된 컴퓨터 프로그램 명령에 관한 하나 이상의 모듈로서 구현될 수 있다.On the other hand, the functional operations and subject implementations described herein are implemented as digital electronic circuits, or computer software, firmware, or hardware including the structures disclosed herein and their structural equivalents, or one or more of them. It can be implemented in combination. Implementations of the subject matter described herein are one or more modules for computer program instructions encoded on a tangible program storage medium to control or thereby execute operations of one or more computer program products, ie control systems. Can be implemented.

컴퓨터로 판독 가능한 매체는 기계로 판독 가능한 저장 장치, 기계로 판독 가능한 저장 기판, 메모리 장치, 기계로 판독 가능한 전파형 신호에 영향을 미치는 물질의 조성물 혹은 이들 중 하나 이상의 조합일 수 있다.The computer-readable medium can be a machine-readable storage device, a machine-readable storage substrate, a memory device, a composition of materials affecting a machine-readable propagated signal, or a combination of one or more of these.

본 명세서에서 "시스템"이나 "장치"라 함은 예컨대 프로그래머블 프로세서, 컴퓨터 혹은 다중 프로세서나 컴퓨터를 포함하여 데이터를 제어하기 위한 모든 기구, 장치 및 기계를 포괄한다. 제어 시스템은, 하드웨어에 부가하여, 예컨대 프로세서 펌웨어를 구성하는 코드, 프로토콜 스택, 데이터베이스 관리 시스템, 운영 체제 혹은 이들 중 하나 이상의 조합 등 요청 시 컴퓨터 프로그램에 대한 실행 환경을 형성하는 코드를 포함할 수 있다.As used herein, "system" or "device" encompasses all mechanisms, devices, and machines for controlling data, including, for example, programmable processors, computers, or multiple processors or computers. The control system may include, in addition to hardware, code that forms an execution environment for a computer program upon request, such as code constituting the processor firmware, protocol stack, database management system, operating system, or a combination of one or more of them. .

컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 어플리케이션, 스크립트 혹은 코드로도 알려져 있음)은 컴파일되거나 해석된 언어나 선험적 혹은 절차적 언어를 포함하는 프로그래밍 언어의 어떠한 형태로도 작성될 수 있으며, 독립형 프로그램이나 모듈, 컴포넌트, 서브루틴 혹은 컴퓨터 환경에서 사용하기에 적합한 다른 유닛을 포함하여 어떠한 형태로도 전개될 수 있다. 컴퓨터 프로그램은 파일 시스템의 파일에 반드시 대응하는 것은 아니다. 프로그램은 요청된 프로그램에 제공되는 단일 파일 내에, 혹은 다중의 상호 작용하는 파일(예컨대, 하나 이상의 모듈, 하위 프로그램 혹은 코드의 일부를 저장하는 파일) 내에, 혹은 다른 프로그램이나 데이터를 보유하는 파일의 일부(예컨대, 마크업 언어 문서 내에 저장되는 하나 이상의 스크립트) 내에 저장될 수 있다. 컴퓨터 프로그램은 하나의 사이트에 위치하거나 복수의 사이트에 걸쳐서 분산되어 통신 네트워크에 의해 상호 접속된 다중 컴퓨터나 하나의 컴퓨터 상에서 실행되도록 전개될 수 있다.A computer program (also known as a program, software, software application, script, or code) can be written in any form of a compiled or interpreted language or a programming language, including a priori or procedural languages. It can be deployed in any form, including components, subroutines or other units suitable for use in a computer environment. Computer programs do not necessarily correspond to files in the file system. The program is in a single file provided to the requested program, or in multiple interactive files (e.g., one or more modules, files storing subprograms or parts of code), or part of a file holding other programs or data (Eg, one or more scripts stored in a markup language document). The computer program can be deployed to be executed on one computer or on multiple computers that are located at one site or distributed across multiple sites and interconnected by a communication network.

한편, 컴퓨터 프로그램 명령어와 데이터를 저장하기에 적합한 컴퓨터로 판독 가능한 매체는, 예컨대 EPROM, EEPROM 및 플래시메모리 장치와 같은 반도체 메모리 장치, 예컨대 내부 하드디스크나 외장형 디스크와 같은 자기 디스크, 자기광학 디스크 및 CD-ROM과 DVD-ROM 디스크를 포함하여 모든 형태의 비휘발성 메모리, 매체 및 메모리 장치를 포함할 수 있다. 프로세서와 메모리는 특수 목적의 논리 회로에 의해 보충되거나, 그것에 통합될 수 있다.On the other hand, computer-readable media suitable for storing computer program instructions and data include, for example, semiconductor memory devices such as EPROM, EEPROM and flash memory devices, such as magnetic disks such as internal hard disks or external disks, magneto-optical disks and CDs. It can include any form of non-volatile memory, media and memory devices, including -ROM and DVD-ROM disks. The processor and memory may be supplemented by, or incorporated in, special purpose logic circuitry.

본 명세서에서 설명한 주제의 구현물은 예컨대 차량의 주행행태서버와 같은 백엔드 컴포넌트를 포함하거나, 예컨대 어플리케이션 서버와 같은 미들웨어 컴포넌트를 포함하거나, 예컨대 사용자가 본 명세서에서 설명한 주제의 구현물과 상호 작용할 수 있는 웹 브라우저나 그래픽 유저 인터페이스를 갖는 클라이언트 컴퓨터와 같은 프론트엔드 컴포넌트 혹은 그러한 백엔드, 미들웨어 혹은 프론트엔드 컴포넌트의 하나 이상의 모든 조합을 포함하는 연산 시스템에서 구현될 수도 있다. 시스템의 컴포넌트는 예컨대 통신 네트워크와 같은 디지털 차량의 주행행태통신의 어떠한 형태나 매체에 의해서도 상호 접속 가능하다.Implementations of the subject matter described herein include, for example, a back-end component, such as a vehicle's odometer server, or, for example, a middleware component, such as an application server, or, for example, a web browser that allows a user to interact with implementations of the subject matter described herein. Or a front-end component such as a client computer with a graphical user interface, or a computational system including any combination of one or more of such back-end, middleware or front-end components. The components of the system can be interconnected by any form or medium of driving behavior communication of a digital vehicle, such as a communication network.

본 명세서는 다수의 특정한 구현물의 세부사항들을 포함하지만, 이들은 어떠한 발명이나 청구 가능한 것의 범위에 대해서도 제한적인 것으로서 이해되어서는 안되며, 오히려 특정한 발명의 특정한 실시형태에 특유할 수 있는 특징들에 대한 설명으로서 이해되어야 한다. 마찬가지로, 개별적인 실시형태의 문맥에서 본 명세서에 기술된 특정한 특징들은 단일 실시형태에서 조합하여 구현될 수도 있다. 반대로, 단일 실시형태의 문맥에서 기술한 다양한 특징들 역시 개별적으로 혹은 어떠한 적절한 하위 조합으로도 복수의 실시형태에서 구현 가능하다. 나아가, 특징들이 특정한 조합으로 동작하고 초기에 그와 같이 청구된 바와 같이 묘사될 수 있지만, 청구된 조합으로부터의 하나 이상의 특징들은 일부 경우에 그 조합으로부터 배제될 수 있으며, 그 청구된 조합은 하위 조합이나 하위 조합의 변형물로 변경될 수 있다.This specification includes details of many specific implementations, but these should not be understood as limiting on the scope of any invention or claim, but rather as a description of features that may be specific to a particular embodiment of a particular invention. It should be understood. Likewise, certain features described herein in the context of individual embodiments may be implemented in combination in a single embodiment. Conversely, various features described in the context of a single embodiment can also be implemented in multiple embodiments individually or in any suitable subcombination. Further, although features may operate in a particular combination and may be initially depicted as so claimed, one or more features from the claimed combination may in some cases be excluded from the combination, and the claimed combination subcombined. Or sub-combinations.

또한, 본 명세서에서는 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. 또한, 상술한 실시형태의 다양한 시스템 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 시스템들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징될 수 있다는 점을 이해하여야 한다Also, although the descriptions describe the operations in the drawings in a specific order, it should be understood that such operations must be performed in the specific order or sequential order shown in order to obtain a desired result, or that all illustrated actions should be performed. Can not be done. In certain cases, multitasking and parallel processing may be advantageous. In addition, the separation of various system components of the above-described embodiments should not be understood as requiring such separation in all embodiments, and the described program components and systems will generally be integrated together into a single software product or packaged in multiple software products. Understand that you can

이와 같이, 본 명세서는 그 제시된 구체적인 용어에 본 발명을 제한하려는 의도가 아니다. 따라서, 상술한 예를 참조하여 본 발명을 상세하게 설명하였지만, 당업자라면 본 발명의 범위를 벗어나지 않으면서도 본 예들에 대한 개조, 변경 및 변형을 가할 수 있다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.As such, this specification is not intended to limit the invention to the specific terms presented. Therefore, although the present invention has been described in detail with reference to the above-mentioned examples, those skilled in the art can make modifications, alterations and modifications to the examples without departing from the scope of the present invention. The scope of the present invention is indicated by the following claims rather than the above detailed description, and it should be interpreted that all changes or modifications derived from the meaning and scope of the claims and equivalent concepts thereof are included in the scope of the present invention. do.

본 발명의 차량 주행행태 분석시스템에 따르면 무인비행장치를 이용하여 도로 교통 문제를 분석하여 문제 요인 발생 지점 및 발생 이유 등을 명확하게 진단할 수 있는 방안을 서비스할 수 있게 하는 기술을 실현하는 점에서, 기존 기술의 한계를 뛰어 넘음에 따라 관련 기술에 대한 이용만이 아닌 적용되는 장치의 시판 또는 영업의 가능성이 충분할 뿐만 아니라 현실적으로 명백하게 실시할 수 있는 정도이므로 산업상 이용가능성이 있는 발명이다.According to the vehicle driving behavior analysis system of the present invention, it is possible to analyze a road traffic problem using an unmanned flight apparatus and realize a technology that can provide a service capable of clearly diagnosing a problem cause and a cause of trouble. In addition, as it surpasses the limitations of the existing technology, it is not only the use of the related technology, but also the possibility of commercially available or sales of the applied device, as well as the degree to which it can be practiced clearly and realistically.

10: 차량 주행행태 분석시스템
120: 영상 입출력부
140: 정보 설정부
160: 추출부
180: 저장부
10: Vehicle driving behavior analysis system
120: video input and output unit
140: information setting unit
160: extraction unit
180: storage unit

Claims (9)

차량의 주행행태를 출력하기 위한 무인비행장치 영상을 이용한 차량 주행행태 분석시스템에 있어서,
무인비행장치를 이용하여 상기 차량이 주행하는 차로를 영상으로 촬영하고, 촬영된 영상이 입력 및 출력되는 영상입출력부;
상기 영상입출력부에서 출력된 영상을 기초로 상기 차로를 주행하는 상기 차량의 주행행태를 출력하기 위한 정보를 설정하는 정보 설정부;
상기 정보 설정부에서 설정된 정보를 기초로 상기 차량의 주행행태를 추출하는 추출부; 및
상기 추출부에서 추출된 상기 차량의 주행행태를 저장하는 저장부;
를 포함하는 것을 특징으로 하는 무인비행장치 영상을 이용한 차량 주행행태 분석시스템.
In the vehicle driving behavior analysis system using the image of the unmanned flight apparatus for outputting the driving behavior of the vehicle,
An image input / output unit for photographing a lane on which the vehicle travels as an image using an unmanned flying device, and inputting and outputting the photographed image;
An information setting unit configured to set information for outputting driving behavior of the vehicle driving the lane based on the image output from the image input / output unit;
An extraction unit that extracts the driving behavior of the vehicle based on the information set by the information setting unit; And
A storage unit which stores the driving behavior of the vehicle extracted from the extraction unit;
Vehicle driving behavior analysis system using an unmanned aerial vehicle image, characterized in that it comprises a.
제 1 항에 있어서,
상기 영상입출력부는,
상기 차량의 정보, 차로 정보 중 어느 하나의 정보를 영상으로 촬영하는 영상 촬영부;
상기 영상 촬영부에서 촬영한 영상이 입력되는 영상 입력부; 및
상기 차량의 주행행태를 출력하기 위해 데이터를 추출하기 위해 상기 영상 입력부에 입력된 영상을 보정하는 영상 보정부; 를 포함하는 것을 특징으로 하는 무인비행장치 영상을 이용한 차량 주행행태 분석시스템.
According to claim 1,
The video input and output unit,
An image photographing unit for photographing any one of the vehicle information and lane information as an image;
An image input unit to which an image photographed by the image photographing unit is input; And
An image correction unit that corrects an image input to the image input unit to extract data to output the driving behavior of the vehicle; Vehicle driving behavior analysis system using an unmanned aerial vehicle image, characterized in that it comprises a.
제 2 항에 있어서,
상기 영상 촬영부는,
고정된 위치에서 상기 차량의 정보, 차로 정보 중 어느 하나의 정보를 영상으로 촬영하는 드론인 것을 특징으로 하는 무인비행장치 영상을 이용한 차량 주행행태 분석시스템.
According to claim 2,
The image capture unit,
A vehicle driving behavior analysis system using an image of an unmanned aerial vehicle, characterized in that it is a drone for capturing either information of the vehicle information or lane information as a video at a fixed location.
제 1 항에 있어서,
상기 정보 설정부는,
상기 영상입출력부에서 촬영한 영상에서 상기 차량의 주행행태 도출에 필요한 상기 차로의 유형을 설정하는 차로 설정부;
상기 영상입출력부에서 촬영한 영상에서 상기 차량의 주행행태 도출에 필요한 특정 시간을 설정하는 시간 설정부;
상기 영상 촬영부에서 촬영한 영상 중 상기 차량의 주행행태 도출에 필요한 공간을 설정하는 공간 설정부; 를 포함하는 것을 특징으로 하는 무인비행장치 영상을 이용한 차량 주행행태 분석시스템.
According to claim 1,
The information setting unit,
A lane setting unit for setting the type of the lane required to derive driving behavior of the vehicle from the image taken by the image input / output unit;
A time setting unit for setting a specific time required for deriving driving behavior of the vehicle from the image taken by the image input / output unit;
A space setting unit for setting a space required for deriving driving behavior of the vehicle among the images captured by the image capturing unit; Vehicle driving behavior analysis system using an unmanned aerial vehicle image, characterized in that it comprises a.
제 4 항에 있어서,
상기 시간 설정부는,
상기 차로 상에 일정 수 이상의 차량이 운행하는 시점을 기초로 분석시작시간 및 분석종료시간을 설정하는 것을 특징으로 하는 무인비행장치 영상을 이용한 차량 주행행태 분석시스템.
The method of claim 4,
The time setting unit,
A vehicle driving behavior analysis system using an image of an unmanned flight apparatus, characterized in that an analysis start time and an analysis end time are set based on a time point when a certain number of vehicles are running on the lane.
제 4 항에 있어서,
상기 시간 설정부는
상기 영상입출력부에서 촬영된 영상에서 상기 차량의 주행행태 추출을 위한 시간 단위를 설정하는 것을 특징으로 하는 무인비행장치 영상을 이용한 차량 주행행태 분석시스템.
The method of claim 4,
The time setting unit
Vehicle driving behavior analysis system using the image of the unmanned flight apparatus, characterized in that for setting the time unit for extracting the driving behavior of the vehicle from the image taken by the image input and output unit.
제 4 항에 있어서,
상기 공간 설정부는,
상기 차량이 주행하는 구간 중 관심 지역 및 상기 차량이 주행하는 차로 중 관심 차로 중 어느 하나를 설정하는 것을 특징으로 하는 무인비행장치 영상을 이용한 차량 주행행태 분석시스템.
The method of claim 4,
The space setting unit,
Vehicle driving behavior analysis system using an image of an unmanned flight apparatus, characterized in that to set one of the region of interest and the lane of interest among the lane in which the vehicle is driven.
제 4 항에 있어서,
상기 공간 설정부는,
상기 차량이 주행하는 차로 중 지정된 차로의 실제 거리를 설정하는 것을 특징으로 하는 무인비행장치 영상을 이용한 차량 주행행태 분석시스템.
The method of claim 4,
The space setting unit,
A vehicle driving behavior analysis system using an unmanned flight apparatus image, characterized in that an actual distance of a designated lane is set among the lanes on which the vehicle travels.
제 1 항에 있어서,
상기 추출부는,
상기 차로를 주행하는 차량 중 선택된 특정 개별 차량의 차종 정보, 상기 특정 개별 차량의 주행 속도, 상기 특정 개별 차량이 주행하는 차로 정보, 상기 특정 개별 차량의 차로 변경 위치 및 횟수, 상기 특정 개별 차량과 인접한 서로 다른 특정 개별 차량과의 거리와 차두시간 정보 중 어느 하나를 검출하는 객체 검출부; 및
상기 객체 검출부에서 검출된 상기 특정 개별 차량의 주행행태를 산출하는 객체 산출부;를 포함하는 것을 특징으로 하는 무인비행장치 영상을 이용한 차량 주행행태 분석시스템.

According to claim 1,
The extraction unit,
Vehicle type information of a specific individual vehicle selected among vehicles driving the lane, driving speed of the specific individual vehicle, lane information driven by the specific individual vehicle, lane change position and number of times of the specific individual vehicle, adjacent to the specific individual vehicle An object detection unit detecting any one of distance and headway time information from different specific individual vehicles; And
And an object calculator configured to calculate driving behavior of the specific individual vehicle detected by the object detecting unit.

KR1020180139198A 2018-11-13 2018-11-13 A vehicle driving behavior analysis system using images by uav KR102169910B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180139198A KR102169910B1 (en) 2018-11-13 2018-11-13 A vehicle driving behavior analysis system using images by uav

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180139198A KR102169910B1 (en) 2018-11-13 2018-11-13 A vehicle driving behavior analysis system using images by uav

Publications (2)

Publication Number Publication Date
KR20200055492A true KR20200055492A (en) 2020-05-21
KR102169910B1 KR102169910B1 (en) 2020-10-26

Family

ID=70910434

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180139198A KR102169910B1 (en) 2018-11-13 2018-11-13 A vehicle driving behavior analysis system using images by uav

Country Status (1)

Country Link
KR (1) KR102169910B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116311940A (en) * 2023-03-23 2023-06-23 东南大学 Dynamic traffic guidance system and method for expressway reconstruction and expansion operation area

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102492290B1 (en) 2021-02-23 2023-01-26 단국대학교 산학협력단 Drone image analysis system based on deep learning for traffic measurement

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11296788A (en) * 1998-04-10 1999-10-29 Mitsubishi Electric Corp Vehicle speed measuring instrument
JP2001101572A (en) * 1999-09-29 2001-04-13 Sumitomo Electric Ind Ltd Transportation control system
KR20100135573A (en) * 2009-06-17 2010-12-27 주식회사 인투텍 Apparatus, methode for mesuring velocity of vehicles and computer readable recording medium therefor
JP2013171491A (en) * 2012-02-22 2013-09-02 Nippon Expressway Research Institute Co Ltd Traffic estimation system using single image
KR101848236B1 (en) * 2016-12-06 2018-05-28 주식회사부산항공 Drone for photographing car and system for monitoring car using thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11296788A (en) * 1998-04-10 1999-10-29 Mitsubishi Electric Corp Vehicle speed measuring instrument
JP2001101572A (en) * 1999-09-29 2001-04-13 Sumitomo Electric Ind Ltd Transportation control system
KR20100135573A (en) * 2009-06-17 2010-12-27 주식회사 인투텍 Apparatus, methode for mesuring velocity of vehicles and computer readable recording medium therefor
JP2013171491A (en) * 2012-02-22 2013-09-02 Nippon Expressway Research Institute Co Ltd Traffic estimation system using single image
KR101848236B1 (en) * 2016-12-06 2018-05-28 주식회사부산항공 Drone for photographing car and system for monitoring car using thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116311940A (en) * 2023-03-23 2023-06-23 东南大学 Dynamic traffic guidance system and method for expressway reconstruction and expansion operation area
CN116311940B (en) * 2023-03-23 2024-03-26 东南大学 Dynamic traffic guidance system and method for expressway reconstruction and expansion operation area

Also Published As

Publication number Publication date
KR102169910B1 (en) 2020-10-26

Similar Documents

Publication Publication Date Title
Chen et al. Surrogate safety analysis of pedestrian-vehicle conflict at intersections using unmanned aerial vehicle videos
US9058744B2 (en) Image based detecting system and method for traffic parameters and computer program product thereof
CN105761494B (en) Abnormal traffic information collecting method based on unmanned plane
US11380105B2 (en) Identification and classification of traffic conflicts
Zhang et al. Pedestrian safety analysis in mixed traffic conditions using video data
CN107301776A (en) Track road conditions processing and dissemination method based on video detection technology
KR102200204B1 (en) 3-D Image Analyzing System Using CCTV Image
CN110738857A (en) vehicle violation evidence obtaining method, device and equipment
KR102111363B1 (en) Accident monitoring system in tunnel using camera grouping of IoT based
US20220237919A1 (en) Method, Apparatus, and Computing Device for Lane Recognition
KR20200055492A (en) A vehicle driving behavior analysis system using images by uav
KR102018123B1 (en) Vehicle sensing apparatus using laser scanning
CN116128360A (en) Road traffic congestion level evaluation method and device, electronic equipment and storage medium
Kamijo et al. A real-time traffic monitoring system by stochastic model combination
JP6419260B1 (en) Traffic information acquisition device, traffic information acquisition system, traffic information acquisition method, and traffic information acquisition program
JP3470172B2 (en) Traffic flow monitoring device
CN111627224A (en) Vehicle speed abnormality detection method, device, equipment and storage medium
Zhang et al. Machine learning and computer vision-enabled traffic sensing data analysis and quality enhancement
KR101444233B1 (en) LCS system for roadway communication based on CCTV, and method for managing traffic accident using the same
CN114387533A (en) Method and device for identifying road violation, electronic equipment and storage medium
Kolcheck et al. Visual counting of traffic flow from a car via vehicle detection and motion analysis
Perkasa et al. Video-based system development for automatic traffic monitoring
Budhkar et al. Emerging traffic data collection practices under mixed traffic conditions: Challenges and solutions
Cheewapattananuwong et al. Mitigating traffic congestion and accidents in Thailand with intelligent transportation system technology
Wu et al. Detection of moving violations

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant