KR102169910B1 - A vehicle driving behavior analysis system using images by uav - Google Patents

A vehicle driving behavior analysis system using images by uav Download PDF

Info

Publication number
KR102169910B1
KR102169910B1 KR1020180139198A KR20180139198A KR102169910B1 KR 102169910 B1 KR102169910 B1 KR 102169910B1 KR 1020180139198 A KR1020180139198 A KR 1020180139198A KR 20180139198 A KR20180139198 A KR 20180139198A KR 102169910 B1 KR102169910 B1 KR 102169910B1
Authority
KR
South Korea
Prior art keywords
vehicle
image
lane
driving behavior
unit
Prior art date
Application number
KR1020180139198A
Other languages
Korean (ko)
Other versions
KR20200055492A (en
Inventor
김수희
한동희
Original Assignee
한국도로공사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국도로공사 filed Critical 한국도로공사
Priority to KR1020180139198A priority Critical patent/KR102169910B1/en
Publication of KR20200055492A publication Critical patent/KR20200055492A/en
Application granted granted Critical
Publication of KR102169910B1 publication Critical patent/KR102169910B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • B64C2201/127
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

본 발명은, 무인비행장치의 항공 영상을 이용하여 도로상에 발생하는 교통 문제에 대하여 문제 발생 지점 및 발생 원인 등을 명확하게 진단할 수 있는 미시적이고 실증적인 방안을 제공할 수 있는 차량 주행행태 분석시스템에 관한 것이다. The present invention is a vehicle driving behavior analysis capable of providing a microscopic and empirical method capable of clearly diagnosing a problem occurrence point and a cause of a traffic problem occurring on a road by using aerial images of an unmanned aerial vehicle. It's about the system.

Description

무인비행장치 영상을 이용한 차량 주행행태 분석시스템{A VEHICLE DRIVING BEHAVIOR ANALYSIS SYSTEM USING IMAGES BY UAV}Vehicle driving behavior analysis system using unmanned aerial vehicle image {A VEHICLE DRIVING BEHAVIOR ANALYSIS SYSTEM USING IMAGES BY UAV}

본 발명은, 무인비행장치에서 촬영한 영상을 통해 차량의 주행행태를 분석할 수 있는 기술에 관한 것으로, 보다 구체적으로는 무인비행장치에서 촬영된 도로 영상을 분석하여 도로상에서 주행하고 있는 차량의 주행행태를 분석하고, 분석된 결과를 기초로 교통문제의 원인을 분석하고 개선할 수 있는 기술에 관한 것이다. The present invention relates to a technology capable of analyzing the driving behavior of a vehicle through an image captured by an unmanned aerial vehicle. More specifically, the driving of a vehicle running on a road by analyzing a road image captured by an unmanned aerial vehicle It is related to technology that can analyze behavior and analyze the cause of traffic problems and improve based on the analyzed results.

현재 한정된 도로의 용량에 비해 교통수요의 집중과 지속적인 증가가 이루어지고 있다. 이로 인하여 다양한 교통문제가 지속적으로 발생하고 있으며, 이러한 교통문제를 해결하기 위해서 도로상에 설치된 다양한 차량검지장치에서 수집된 교통데이터를 기반으로 교통분석에 활용하고 있다.Compared to the current limited road capacity, traffic demand is concentrated and continuously increased. Due to this, various traffic problems are continuously occurring, and in order to solve such traffic problems, traffic data collected from various vehicle detection devices installed on the road are used for traffic analysis.

일반적으로 고속도로의 본선에는 대략 1~2Km 간격으로 차량검지기(VDS, Vehicle Detection System)를 설치하고, 설치지점을 통과하는 차량의 대수, 통과속도 등의 교통 데이터를 수집하고 있다. 또한, 고속도로 본선에 3~5km간격으로 설치된 노측 안테나와 차량 내 설치된 하이패스 단말기와의 무선통신 시각을 기준으로 통행시간을 수집하는 DSRC(DSRC, Dedicated Short Range Communication)기반 하이패스 교통정보시스템을 설치하여 차량의 소통(흐름) 통행시간 데이터를 수집하고 있다.In general, a vehicle detection system (VDS) is installed on the main line of a highway at approximately 1~2km intervals, and traffic data such as the number of vehicles passing through the installation point and passing speed are collected. In addition, a high-pass traffic information system based on DSRC (Dedicated Short Range Communication) that collects travel time based on the wireless communication time between the road-side antenna installed at intervals of 3~5km on the main line of the highway and the high-pass terminal installed in the vehicle was installed. Therefore, it is collecting vehicle traffic (flow) travel time data.

전술한 바와 같이, 기존의 교통분석 방법은 고속도로 본선 위주로 설치된 교통정보수집체계(예: 차량검지기(VDS, Vehicle Detection System), DSRC(DSRC, Dedicated Short Range Communication)기반 차량의 통행시간 수집시스템 등)를 통해 수집된 자료를 시공간적으로 집계하여 도로상의 교통상황을 추정하거나 이론적 모형(Simulation 포함) 등을 기반으로 원인을 분석하고 교통문제를 해결하는 방식이었다. As described above, the existing traffic analysis method is a traffic information collection system mainly installed on the main line of a highway (e.g., a vehicle detection system (VDS), a travel time collection system based on DSRC (Dedicated Short Range Communication), etc.) It was a method of estimating traffic conditions on the road by spatio-temporal aggregation of the data collected through the process, or analyzing the cause and solving traffic problems based on theoretical models (including simulation).

그러나, 이러한 교통데이터는 개별 차량의 주행행태보다는 검지장비 설치지점에서 해당지점을 통과하는 다수 차량의 통과대수 및 속도, 통행시간 데이터를 시공간적으로 집계 또는 평균하여 수집하므로, 교통문제에 대한 명확하고 실증적인 분석 보다는 교통 이론 및 모형에 의존하므로, 추정에 의한 원인 분석으로 접근할 수 밖에 없는 한계가 있었으며, 개별 차량의 주행행태를 분석하는 미시적 교통 분석이 사실상 불가능하다는 한계가 있었다. However, this traffic data is collected by spatiotemporal aggregation or averaging data of the number of vehicles passing through the point at the point where the detection equipment is passing, rather than the driving behavior of individual vehicles. Since it relies on traffic theory and model rather than phosphorus analysis, there is a limitation that it cannot but be approached by analysis of causes by estimation, and there is a limitation that microscopic traffic analysis that analyzes the driving behavior of individual vehicles is virtually impossible.

또한, 기존의 차량 검지체계에서는 고속도로 IC(Interchange)/JCT(Junction)의 합류?분류부, 엇갈림구간, 종단(상?하향)경사 변화구간, 공사구간 등 다양한 구간에서 나타나는 개별 차량의 주행행태 분석자료를 기반으로 하는 실증적, 미시적 교통분석은 매우 어려운 실정이다.In addition, in the existing vehicle detection system, it analyzes the driving behavior of individual vehicles in various sections, such as the confluence/classification section of the highway IC (Interchange)/JCT (Junction), the cross section, the end (up/down) slope change section, and the construction section. Empirical and microscopic traffic analysis based on data is very difficult.

이러한 한계점으로 교통 문제 해결 시에도 명확한 문제 해결이 아니므로, 교통 문제 개선에도 한계가 발생할 뿐 아니라 개선 효과가 저하된다는 문제점이 있었다. Due to these limitations, since it is not clear problem solving even when solving traffic problems, there is a problem that not only a limitation occurs in improving traffic problems, but also the improvement effect decreases.

따라서 교통문제 개선을 위해서는 미시적이고 실증적인 교통 분석을 통해 정확한 문제 발생 지점과 발생 원인을 명확하게 도출하고 진단하는 것이 중요하기 때문에 실증적이고 명확한 교통문제 발생 지점 및 원인을 분석할 수 있는 기술이 필요할 것이다. Therefore, in order to improve traffic problems, it is important to clarify and diagnose the exact problem occurrence point and cause through microscopic and empirical traffic analysis. Therefore, a technology that can analyze the empirical and clear traffic problem occurrence point and cause will be required. .

본 발명은 상기한 사정을 감안하여 창출된 것으로서, 본 발명에서 도달하고자 하는 목적은, 무인비행장치를 통해 촬영된 항공영상의 분석을 통해 차량의 주행행태데이터를 추출하고 분석함으로써 도로상에 발생하는 교통문제 요인 발생 지점 및 발생 원인 등을 명확하고 실증적으로 진단할 수 있는 방안을 제공하는데 있다. The present invention was created in view of the above circumstances, and an object to be reached in the present invention is to extract and analyze the driving behavior data of the vehicle through the analysis of the aerial image captured by the unmanned aerial vehicle. It is to provide a method to clearly and empirically diagnose the point of occurrence and cause of traffic problem factors.

상기 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 차량의 주행행태를 추출하고 분석하기 위한 무인비행장치 영상을 이용한 차량 주행행태 분석시스템은, 무인비행장치를 이용하여 상기 차량이 주행하는 차로를 영상으로 촬영하고, 촬영된 영상이 입력 및 출력되는 영상입출력부와, 상기 영상입출력부에서 출력된 영상을 기초로 상기 도로를 주행하는 상기 차량의 주행행태 및 차로의 차량의 주행행태를 분석하기 위한 정보 설정부와, 상기 정보 설정부에서 설정된 상기 차량의 주행행태를 기초로 상기 차량의 주행행태를 추출하는 추출부 및 상기 추출부에서 추출된 상기 차량의 주행행태를 저장하는 저장부를 포함하는 것을 특징으로 한다. A vehicle driving behavior analysis system using an unmanned aerial vehicle image for extracting and analyzing the driving behavior of a vehicle according to an embodiment of the present invention for achieving the above object is, by using an unmanned flight device, a lane in which the vehicle is traveling. For analyzing the driving behavior of the vehicle traveling on the road and the driving behavior of the vehicle in the lane based on the image input and output unit for photographing as an image and input and output of the captured image and the image output from the image input and output unit And an information setting unit, an extraction unit for extracting the driving behavior of the vehicle based on the driving behavior of the vehicle set by the information setting unit, and a storage unit for storing the driving behavior of the vehicle extracted from the extraction unit To do.

구체적으로, 상기 영상입출력부는, 상기 차량의 정보, 차로 정보 중 어느 하나의 정보를 영상으로 촬영하는 영상 촬영부, 상기 영상 촬영부에서 촬영한 영상이 입력되는 영상 입력부 및 상기 영상 입력부에 입력된 영상을 정보 분석을 위한 보정 영상으로 보정하는 영상 보정부를 포함하는 것을 특징으로 한다.Specifically, the image input/output unit includes: an image photographing unit for capturing any one of the vehicle information and lane information as an image, an image input unit for inputting an image captured by the image capturing unit, and an image input to the image input unit It characterized in that it comprises an image correction unit for correcting the correction image for information analysis.

구체적으로, 상기 영상 촬영부는, 고정된 위치에서 상기 차량의 정보, 차로 정보 중 어느 하나의 정보를 영상으로 촬영하는 드론인 것을 특징으로 한다. Specifically, the image capturing unit is a drone that photographs any one of information on the vehicle or lane information as an image at a fixed location.

구체적으로, 상기 정보 설정부는, 상기 영상 입력부에 입력된 영상에서 상기 차로의 유형을 설정하는 차로 설정부, 상기 영상 촬영부에서 촬영한 영상 시간 중 상기 차량의 주행행태를 추출하는 특정 시간을 설정하는 시간 설정부, 상기 영상 촬영부에서 촬영한 영상 중 상기 차량의 주행행태를 추출하는 공간을 설정하는 공간 설정부를 포함하는 것을 특징으로 한다. Specifically, the information setting unit may include a lane setting unit for setting the type of the lane from the image input to the image input unit, and for setting a specific time for extracting the driving behavior of the vehicle from the image time taken by the image capturing unit. And a space setting unit for setting a space for extracting the driving behavior of the vehicle from among the images captured by the time setting unit and the image capturing unit.

구체적으로, 상기 시간 설정부는, 상기 차로 상에 일정 수 이상의 차량이 운행하는 시점을 기초로 도출시작시간 및 도출종료시간을 설정하는 것을 특징으로 한다. Specifically, the time setting unit may set a derivation start time and a derivation end time based on a point in time at which a certain number of vehicles or more are operated on the lane.

구체적으로, 상기 시간 설정부는 상기 영상 촬영부에 의해 촬영된 영상에서 상기 차량의 주행행태 분석을 위한 추출 시간 단위를 설정하는 것을 특징으로 한다. Specifically, the time setting unit may set an extraction time unit for analyzing the driving behavior of the vehicle from the image captured by the image capturing unit.

구체적으로 상기 공간 설정부는, 상기 차량이 주행하는 지역 중 관심 지역 및 상기 차량이 주행하는 차로 중 관심 차로 중 어느 하나를 설정하는 것을 특징으로 한다. In more detail, the space setting unit may set one of an area of interest among an area in which the vehicle travels and a lane of interest among an area in which the vehicle travels.

구체적으로, 상기 공간 설정부는, 상기 차량이 주행하는 차로 중 지정된 차로의 실제 거리를 설정하는 것을 특징으로 한다. Specifically, the space setting unit may set an actual distance of a designated lane among lanes on which the vehicle travels.

구체적으로, 상기 영상입출력부는, 상기 차로를 주행하는 상기 특정 개별 차량의 차종 정보, 상기 특정 개별 차량의 주행 속도, 상기 특정 개별 차량이 주행하는 차로 정보, 상기 특정 개별 차량의 차로 변경 위치 및 횟수, 상기 특정 개별 차량과 인접한 서로 다른 특정 개별 차량과의 거리, 차두시간 정보 중 어느 하나의 정보를 검출하는 객체 검출부, 상기 객체 검출부에서 검출된 상기 특정 개별 차량의 주행행태를 산출하는 객체 산출부를 포함하는 것을 특징으로 한다. Specifically, the image input/output unit includes vehicle type information of the specific individual vehicle driving the lane, the driving speed of the specific individual vehicle, information about the lane in which the specific individual vehicle travels, the location and number of lane changes of the specific individual vehicle, An object detection unit that detects any one of distance between the specific individual vehicle and other specific individual vehicle adjacent to the specific vehicle, and vehicle head time information, and an object calculation unit that calculates the driving behavior of the specific individual vehicle detected by the object detection unit. It features.

본 발명의 무인비행장치 영상을 이용한 차량 주행행태 분석시스템에 따르면, 교통 문제가 발생하는 도로구간에 대하여 공간적 제약, 예컨대, 고속도로 본선, IC(Interchange)/JCT(Junction)의 합류,분류부, 엇갈림구간, 종단(상,하향)경사 변화구간, 공사구간 등의 제약이 없이 영상을 촬영할 수 있으며, 촬영된 영상의 분석을 통해 문제 발생 구간에 대한 차량주행행태를 추출할 수 있다.According to the vehicle driving behavior analysis system using the image of the unmanned aerial vehicle of the present invention, spatial constraints on the road section in which traffic problems occur, such as the main line of the highway, the confluence of IC (Interchange)/JCT (Junction), the classification unit, and the intersection Images can be taken without restrictions such as section, longitudinal (upward, downward) slope change section, construction section, etc., and vehicle driving behavior for the problem section can be extracted through analysis of the captured image.

특히, 개별 차량의 주행행태기반의 미시적 실증적 교통분석을 수행하기 때문에, 대상 도로구간의 명확한 문제점 진단이 가능하며, 정확한 개선안을 도출함으로써, 교통개선효과를 극대화 할 수 있다. In particular, since microscopic empirical traffic analysis based on the driving behavior of individual vehicles is performed, it is possible to diagnose problems clearly in the target road section, and by deriving an accurate improvement plan, the traffic improvement effect can be maximized.

도 1은 본 발명의 일 실시 예에 따른 차량 주행행태 분석시스템을 개략적으로 도시한 도면이다.
도 2는 본 발명의 일 실시 예에 따른 영상입출력부의 구성을 도시한 블록도를 나타낸 도면이다.
도 3은 본 발명의 일 실시 예에 따른 정보 설정부의 구성을 도시한 블록도를 나타낸 도면이다.
도 4는 본 발명의 일 실시 예에 따른 개별차량정보 설정부의 구성을 도시한 블록도를 나타낸 도면이다.
도 5는 본 발명의 일 실시 예에 따른 드론을 이용한 차량 주행행태 분석시스템을 통해 분석된 차량의 주행행태 및 분석 진행 방향을 분류한 실시예를 나타내는 도면이다.
1 is a diagram schematically showing a vehicle driving behavior analysis system according to an embodiment of the present invention.
2 is a block diagram showing a configuration of an image input/output unit according to an embodiment of the present invention.
3 is a block diagram illustrating a configuration of an information setting unit according to an embodiment of the present invention.
4 is a block diagram showing a configuration of an individual vehicle information setting unit according to an embodiment of the present invention.
5 is a view showing an embodiment in which a driving behavior and an analysis progress direction of a vehicle analyzed through a vehicle driving behavior analysis system using a drone according to an embodiment of the present invention are classified.

본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that the technical terms used in the present specification are only used to describe specific embodiments, and are not intended to limit the present invention. In addition, the technical terms used in the present specification should be interpreted as generally understood by those of ordinary skill in the technical field to which the present invention belongs, unless otherwise defined in the present specification, and excessively comprehensive It should not be construed as a human meaning or an excessively reduced meaning. In addition, when a technical term used in the present specification is an incorrect technical term that does not accurately express the spirit of the present invention, it should be replaced with a technical term that can be correctly understood by those skilled in the art. In addition, general terms used in the present invention should be interpreted as defined in the dictionary or according to the context before and after, and should not be interpreted as an excessively reduced meaning.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 명세서의 실시 예에 대하여 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of the reference numerals, and redundant descriptions thereof will be omitted. In addition, in describing the present invention, when it is determined that a detailed description of a related known technology may obscure the subject matter of the present invention, a detailed description thereof will be omitted. Hereinafter, exemplary embodiments of the present specification will be described with reference to the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른 차량 주행행태 분석시스템을 개략적으로 도시한 도면이고, 도 2는 본 발명의 일 실시 예에 따른 영상입출력부의 구성을 도시한 블록도를 나타낸 도면이며, 도 3은 본 발명의 일 실시 예에 따른 정보 설정부의 구성을 도시한 블록도를 나타낸 도면이다. 1 is a diagram schematically showing a vehicle driving behavior analysis system according to an embodiment of the present invention, and FIG. 2 is a block diagram showing a configuration of an image input/output unit according to an embodiment of the present invention. 3 is a block diagram showing the configuration of an information setting unit according to an embodiment of the present invention.

도면에 도시된 바와 같이, 본 발명이 적용되는 무인비행장치 영상을 이용한 차량 주행행태 분석시스템(10)은, 영상입출력부(120), 정보 설정부(140), 추출부(160) 및 저장부(180)를 포함하여 구성된다. As shown in the drawing, the vehicle driving behavior analysis system 10 using an unmanned aerial vehicle image to which the present invention is applied includes an image input/output unit 120, an information setting unit 140, an extraction unit 160, and a storage unit. It is comprised of 180.

영상입출력부(120)는 영상입출력부(120)는, 영상 촬영부(122), 영상 입력부(124), 영상 보정부(126)를 포함하여 구성될 수 있다. The image input/output unit 120 may include an image capture unit 122, an image input unit 124, and an image correction unit 126.

구체적으로 영상 촬영부(122)는 항공에서 차로 및 차로를 주행하는 차량을 촬영하는 구성이다. 이를 위해, 영상 촬영부(122)는 무인비행장치를 이용할 수 있으며, 이하 본 발명의 일 실시예의 무인비행장치는 도 1에 도시된 바와 같이 드론인 경우를 예를 들어 설명하지만, 드론 이외에 항공에서 영상을 촬영할 수 있는 장치 중 어느 하나가 될 수 있음은 물론이다. Specifically, the image capturing unit 122 is a component for photographing a vehicle traveling on a lane or lane in the air. To this end, the image photographing unit 122 may use an unmanned aerial vehicle. Hereinafter, the unmanned aerial vehicle according to an embodiment of the present invention is described as an example of a drone as shown in FIG. 1. It goes without saying that it can be any one of the devices that can shoot.

이러한 영상 촬영부(122)에는 차로 및 차로를 주행하는 촬영하기 위하여 카메라, 동영상 촬영 장치 등이 장착될 수 있다. 촬영장치가 장착된 영상 촬영부(122)는 고정된 위치에서 도로 및 도로에서 주행하는 차량 등을 촬영할 수 있다. 이때, 영상 촬영부(122)에서 촬영한 영상은 AVI, MP4 등의 포맷, 4K(UHD급) 이상의 고해상도의 영상이 될 수 있다. The image capturing unit 122 may be equipped with a camera, a moving picture capturing device, etc. to take pictures while driving in a lane or lane. The image capturing unit 122 equipped with a photographing device may photograph a road and a vehicle traveling on the road at a fixed position. In this case, the image captured by the image capturing unit 122 may be a format such as AVI or MP4, and a high-resolution image of 4K (UHD level) or higher.

한편, 드론으로 형성된 영상 촬영부(122)는 비행고도(예: 촬영높이)에 따라 영상 내 도로의 공간적 범위조정이 가능하고 대상도로의 종류, 형태, 장소에 상관없이 다양한 장소에서 촬영이 가능하기 때문에 도로 영상분석을 통해 모든 개별 차량의 주행행태의 추출이 가능하다는 장점이 있다. On the other hand, the image capture unit 122 formed of a drone can adjust the spatial range of roads in the image according to the flight altitude (eg, shooting height), and can shoot in various places regardless of the type, shape, or location of the target road. Therefore, there is an advantage that it is possible to extract the driving behavior of all individual vehicles through road image analysis.

영상 입력부(124)는 영상 촬영부(122)에서 촬영한 영상이 입력되는 구성이다. 영상 입력부(124)에는 영상 이외에, 촬영된 영상이 이미지화된 데이터가 저장될 수도 있다. The image input unit 124 is a component for inputting an image captured by the image capturing unit 122. In addition to the image, the image input unit 124 may store data in which a captured image is imaged.

영상 보정부(126)는 영상 입력부(124)에 입력된 영상 및 이미지에서 다양한 정보를 획득하기 위해 영상을 보정하는 구성이다.The image correction unit 126 is a component that corrects an image to obtain various information from an image and an image input to the image input unit 124.

구체적으로, 영상 보정부(126)는 입력된 영상 촬영부(122)에서 촬영한 영상의 미세한 흔들림을 보정할 수 있다. Specifically, the image correction unit 126 may correct a minute shake of an image captured by the input image capturing unit 122.

이러한 영상 보정부(126)에 의해 보정된 영상을 통해 차로의 세부 이미지 정보, 주행 중인 차량의 속도 별로 차량 색상을 다르게 표시한 이미지 정보, 특정 차로에서 차량의 이동 궤적을 표현한 이미지 정보, 주행 중인 차량의 차로 변경 발생 지점을 표시한 이미지 정보 등을 획득할 수 있다. Through the image corrected by the image correction unit 126, detailed image information of the lane, image information in which vehicle colors are displayed differently according to the speed of the vehicle being driven, image information expressing the movement trajectory of the vehicle in a specific lane, and the vehicle being driven It is possible to obtain image information indicating the point where the change occurred in the lane.

획득한 정보는 도로를 주행하고 있는 차량의 주행행태를 분석할 수 있는 기초 데이터가 될 수 있으며, 획득한 정보를 통해 분석된 차량의 주행행태를 통해 교통 문제의 원인을 분석하고 개선할 수 있게 된다. The acquired information can become basic data that can analyze the driving behavior of the vehicle driving on the road, and the cause of the traffic problem can be analyzed and improved through the driving behavior of the vehicle analyzed through the acquired information. .

한편, 영상입출력부(120)에서 촬영하고 보정한 영상은 정보설정부(140)를 통해 차량의 주행행태 출력에 필요한 정보를 설정할 수 있다. Meanwhile, the image captured and corrected by the image input/output unit 120 may set information necessary for outputting the driving behavior of the vehicle through the information setting unit 140.

이를 위해, 정보 설정부(140)는, 차로 설정부(142), 시간 설정부(144) 및 공간 설정부(146)를 포함하여 구성될 수 있다. To this end, the information setting unit 140 may be configured to include a lane setting unit 142, a time setting unit 144, and a space setting unit 146.

구체적으로, 차로 설정부(142)는 영상입출력부(120)에서 촬영하고 보정한 영상에서 차량이 주행하는 차로를 구분하고, 차로의 유형 등의 정보를 설정할 수 있다. Specifically, the lane setting unit 142 may distinguish a lane on which the vehicle travels from an image photographed and corrected by the image input/output unit 120 and set information such as a type of the lane.

이때, 차로의 구분이란 차량이 주행하고 있는 차로의 구분 정보, 즉 1, 2, 3차 등의 차로 중에서 어느 차로에서 차량이 주행하는지 여부를 의미한다. At this time, the classification of the lane means information on the classification of the lane on which the vehicle is traveling, that is, whether the vehicle is driving in which lane among lanes such as 1st, 2nd, and 3rd.

또한, 차로의 유형이란 차량의 주행행태 도출에 필요한 정보에서 차로가 속해 있는 도로의 유형이다. 예를 들어, 고속도로 본선 구간, 동일 방향의 차로로 형성된 2 이상의 고속도로가 합류되거나 분리되는 합분류 구간, 동일 방향의 차로로 형성된 2 이상의 고속도로를 연결하는 IC/JC 연결로 구간, 긴 구간의 도로를 따라가면서 동일 방향의 교통류가 엇갈리며 차로가 변경되는 구간인 엇갈림 구간 등의 유형 중 어느 하나의 정보이다. In addition, the type of lane is the type of road to which the lane belongs in the information necessary to derive the driving behavior of the vehicle. For example, a main line section of a highway, a combined classification section in which two or more expressways formed by lanes in the same direction are joined or separated, an IC/JC connecting route section connecting two or more highways formed by lanes in the same direction, and a road of a long section. It is any one of the types of information such as a cross section, which is a section in which traffic flows in the same direction alternate and lanes change while following.

시간 설정부(144)는 영상입출력부(120)에서 촬영한 영상 시간에서 차량의 주행행태를 출력하기 위한 특정 시간을 선택할 수 있다. The time setting unit 144 may select a specific time for outputting the driving behavior of the vehicle from the image time captured by the image input/output unit 120.

구체적으로, 시간 설정부(144)는 영상입출력부(120)에서 촬영한 영상에서 불필요한 영상을 제외하고, 차량의 주행행태 도출에 필요한 시간대의 영상을 선택할 수 있다. 특히, 추출된 데이터에서 보다 명확하게 차량의 주행행태를 분석하기 위하여 촬영된 영상에서 차량의 주행행태 차량의 주행행태 도출에 필요한 도출시작시간과 도출종료시간을 설정할 수 있다. Specifically, the time setting unit 144 may exclude unnecessary images from the image captured by the image input/output unit 120 and select an image of a time period necessary for deriving the driving behavior of the vehicle. In particular, in order to analyze the driving behavior of the vehicle more clearly from the extracted data, it is possible to set the driving behavior of the vehicle from the captured image and the driving behavior of the vehicle.

이와 다르게 시간 설정부(144)는 영상입출력부(120)에서 촬영된 영상에서 교통 분석을 위한 차량 주행행태를 추출하는 시간 단위를 설정할 수도 있다. Alternatively, the time setting unit 144 may set a time unit for extracting a vehicle driving behavior for traffic analysis from an image captured by the image input/output unit 120.

상세하게 시간 설정부(144)는 촬영된 영상에서 차량의 주행행태 도출에 필요한 영상을 저장하는 시간 단위를 설정할 수 있다. 예를 들어, 촬영된 영상이 초(sec)당 24Frame라 가정하면(24frame/sec), 영상 촬영부(122)에서 촬영한 영상을 6Frame으로 설정할 수 있으며, 촬영된 영상은 0.25초 단위로 저장될 수 있다. 설정된 추출 시간 단위는 차량의 속도 및 가속도를 추출할 수 있는 정보로 사용될 수 있다. In detail, the time setting unit 144 may set a time unit for storing an image necessary for deriving a driving behavior of the vehicle from the captured image. For example, assuming that the captured image is 24 frames per second (24 frames/sec), the image captured by the image capturing unit 122 can be set to 6 frames, and the captured image will be stored in increments of 0.25 seconds. I can. The set extraction time unit may be used as information for extracting the vehicle speed and acceleration.

한편, 공간 설정부(146)는 영상입출력부(120)에서 촬영한 영상 중 차량 주행행태 도출에 필요한 공간을 설정할 수 있다. Meanwhile, the space setting unit 146 may set a space required for deriving a vehicle driving behavior among images captured by the image input/output unit 120.

상세하게, 공간 설정부(146)는 차량이 주행하는 구간 중 관심 지역 및 차량이 주행하는 차로 중 관심 차로 중 어느 하나를 설정할 수 있다. 관심지역 및 관심 차로란, 교통 문제가 빈번히 발생하는 도로 구간 또는 차로 등이 될 수 있으며, 설정되는 관심지역 및 관심 차로는 사용자의 조건에 따라 변경될 수 있다. 설정된 관심 지역 및 관심 차로는 차량의 밀도 관계를 분석, 추출할 수 있는 정보로 사용될 수 있다.In detail, the space setting unit 146 may set one of a region of interest among a section in which the vehicle is traveling and a lane of interest among a lane in which the vehicle is traveling. The region of interest and lane of interest may be a road section or lane in which traffic problems occur frequently, and the set region of interest and lane of interest may be changed according to the conditions of the user. The set region of interest and lane of interest can be used as information to analyze and extract the density relationship of the vehicle.

또한, 공간 설정부(146)는 주행하는 차로 중 지정된 차로의 실제 거리를 설정할 수도 있다. In addition, the space setting unit 146 may set an actual distance of a designated lane among driving lanes.

촬영된 영상에서 추출되는 차량의 주행행태 중에는 차량별 통행속도, 차량의 가감속 정도, 이동궤적, 차량들간의 거리, 도로의 밀도 등이 될 수 있다. 이러한 정보를 추출하기 위해서는 사용자가 실제 거리(m)를 알고 있는 두 지점을 지정한 뒤, 지정한 두 지점에 대하여 픽셀(pixel)/거리(m)를 통해 실제 거리(m)로 환산하여 설정하게 된다. Among the driving behavior of the vehicle extracted from the captured image, it may be a travel speed for each vehicle, a degree of acceleration/deceleration of the vehicle, a movement trajectory, a distance between vehicles, a road density, and the like. In order to extract such information, the user designates two points for which the actual distance (m) is known, and then converts the two designated points to the actual distance (m) through pixels/distance (m) and sets them.

이와 같이 정보 설정부(140)에서 시공간적인 영역이 설정되면, 추출부(160)에서 설정된 시공간적인 영역을 기초로 차량의 주행행태를 추출할 수 있다. When a spatiotemporal region is set in the information setting unit 140 as described above, the driving behavior of the vehicle may be extracted based on the spatiotemporal region set in the extraction unit 160.

추출되는 차량의 주행행태는, 예를 들어, 차종, 차량의 속도/가속도, 주행차로 등이 있으며, 이러한 자료를 통해 교통류 특성, 특정 개별 차량의 주행 궤적, 2 이상의 특정 개별 차량 사이의 상호 주행 특성 등을 추출할 수 있다. The driving behavior of the vehicle to be extracted includes, for example, vehicle type, vehicle speed/acceleration, and driving lane, and through these data, traffic flow characteristics, driving trajectories of specific individual vehicles, and mutual driving characteristics between two or more specific individual vehicles Etc. can be extracted.

상세하게, 차종의 경우, 픽셀 수에 따라 차량 길이를 기반으로 소형, 중형, 대형을 기본으로 분류하여 추출할 수 있고, 차량의 속도는 앞서 정보 설정부(140)에서 설정한 정보를 기초로 차량의 주행 속도 및 가속도를 산출할 수 있다. 주행 차로는 차량이 주행하고 있는 차로를 구분하는 것으로 차량의 위치 정보와 사용자가 설정한 차로의 구분 정보(1, 2, 3차로)를 이용하여 주행차로 위치를 산출할 수 있다. In detail, in the case of a vehicle type, small, medium, and large can be classified and extracted based on the length of the vehicle according to the number of pixels, and the vehicle speed is determined based on the information set in the information setting unit 140 above. You can calculate the driving speed and acceleration. The driving lane identifies the lane in which the vehicle is traveling, and the driving lane location can be calculated using the vehicle location information and the lane classification information (1st, 2nd, and 3rd lanes) set by the user.

한편, 차량의 주행행태를 추출할 때, 도로를 주행하고 있는 차량 중 선택된 특정 개별 차량의 차량의 주행행태도 추출할 수 있다. 상세하게, 복수 대의 개별 차량을 선택하고, 선택된 특정 개별 차량에 의해 도로의 차량 밀도를 추출할 수 있다. 이때, 차량 밀도를 추출하기 위한 산출식은 다음과 같다. Meanwhile, when extracting the driving behavior of the vehicle, the driving behavior of the vehicle of a specific individual vehicle selected from among vehicles traveling on the road may also be extracted. In detail, a plurality of individual vehicles may be selected, and vehicle density of a road may be extracted by the selected specific individual vehicles. At this time, the calculation formula for extracting the vehicle density is as follows.

차량밀도(k)= 교통량(q)/평균속도(u)Vehicle density (k) = traffic volume (q) / average speed (u)

즉, 정보 설정부(140)에서 설정한 조건에 기초하여 시, 공간 범위 내의 통과차량의 평균속도를 산출하고, 차량의 주행행태 도출에 필요한 정보에서 의 단위 시간 당 통과하는 차량의 통과 대수를 산출하여 차량의 주행행태도출에 필요한 정보에서 차량 밀도를 산출할 수 있다. That is, based on the conditions set by the information setting unit 140, the average speed of the passing vehicles within the time and space range is calculated, and the number of passing vehicles per unit time is calculated from the information necessary for deriving the driving behavior of the vehicle. Thus, it is possible to calculate the vehicle density from information necessary for deriving the driving behavior of the vehicle.

한편, 정보 설정부(140)에서 설정된 차량의 주행행태를 기초로 더불어, 개별 차량의 주행행태를 추출할 수 있다. 이를 위해 추출부(160)는 객체 검출부(162)와 객체 산출부(164)를 포함하며 구성될 수 있다. Meanwhile, based on the driving behavior of the vehicle set by the information setting unit 140, the driving behavior of the individual vehicle may be extracted. To this end, the extraction unit 160 may include an object detection unit 162 and an object calculation unit 164 and may be configured.

객체 검출부(162)에서 검출하는 개별 차량의 주행행태란, 영상입출력부(120)에서 촬영한 영상에서 선택된 복수 대의 개별 차량의 주행행태가 될 수 있다. 상세하게 개별 차량의 차종, 개별 차량의 주행 속도 및 주행하고 있는 차로, 개별 차량이 주행 중 차로를 변경한 횟수 및 변경위치, 개별 차량과 인접한 서로 다른 개별 차량 사이의 차간 거리 등이 될 수 있다. The driving behavior of individual vehicles detected by the object detection unit 162 may be a driving behavior of a plurality of individual vehicles selected from images captured by the image input/output unit 120. In detail, it may be the vehicle type of the individual vehicle, the driving speed of the individual vehicle and the lane being driven, the number of times the individual vehicle has changed the lane while driving and the location of the change, and the inter-vehicle distance between the individual vehicle and other adjacent individual vehicles.

객체 검출부(162)에서 개별 차량의 정보를 검출하면, 객체 산출부(164)에서 검출된 정보를 기초로 개별 차량의 주행행태를 산출할 수 있다. 전술한 바와 같이 선택된 개별 차량의 차종, 개별 차량의 주행 속도 및 주행하고 있는 차로, 개별 차량이 주행 중 차로를 변경한 횟수 및 변경위치, 개별 차량과 인접한 서로 다른 개별 차량 사이의 차간 거리 등에 따른 개별 차량의 주행행태를 검출할 수 있다. When the object detection unit 162 detects the information of the individual vehicle, the driving behavior of the individual vehicle may be calculated based on the information detected by the object calculation unit 164. As described above, the vehicle type of the individual vehicle selected, the driving speed of the individual vehicle, the driving lane, the number of times the individual vehicle has changed the lane while driving and the location of the change, the individual vehicle and the individual vehicle distance between adjacent individual vehicles, etc. Vehicle driving behavior can be detected.

이와 같이 산출된 차량의 주행행태는 저장부(180)에 저장될 수 있으며, 저장된 데이터는 도로상의 교통 문제점을 도출하고 원인을 분석하여 해결 방안을 수립할 수 있게 하는 기초 자료로 사용될 수 있다.The calculated driving behavior of the vehicle may be stored in the storage unit 180, and the stored data may be used as basic data to derive traffic problems on the road and analyze the cause to establish a solution.

이하 도 5를 참고하여 본 발명의 실시 예의 차량 주행행태 분석시스템(10)을 통해 분석된 차량의 주행행태 및 분석 진행 방향을 살펴보기로 한다. Hereinafter, with reference to FIG. 5, the driving behavior of the vehicle analyzed by the vehicle driving behavior analysis system 10 according to an embodiment of the present invention and the analysis progress direction will be described.

도 5는 본 발명의 일 실시 예에 따른 드론을 이용한 차량 주행행태 분석시스템을 통해 분석된 차량의 주행행태 및 분석 진행 방향을 분류한 실시예를 나타내는 도면이다. 5 is a view showing an embodiment in which a driving behavior and an analysis progress direction of a vehicle analyzed through a vehicle driving behavior analysis system using a drone according to an embodiment of the present invention are classified.

도면을 참고하면, 영상입출력부(120)를 통해 도로를 촬영한다. 촬영된 영상을 촬영하는 과정에서 발생한 미세한 흔들림을 보정할 수 있다. 보정된 영상을 통해 차로의 세부 이미지 정보, 주행 중인 차량의 속도 별로 차량 색상을 다르게 표시한 이미지 정보, 특정 차로에서 차량의 이동 궤적을 표현한 이미지 정보, 주행 중인 차량의 차로 변경 발생 지점을 표시한 이미지 정보 등을 획득할 수 있다. Referring to the drawing, a road is photographed through the image input/output unit 120. It is possible to correct the minute shake that occurs in the process of capturing the captured image. Through the corrected image, detailed image information of the lane, image information that displays the vehicle color differently for each speed of the vehicle being driven, image information that expresses the vehicle's movement trajectory in a specific lane, and an image that displays the point of change in the lane of the vehicle being driven. Information, etc. can be obtained.

영상이 촬영되면, 차량의 주행행태 출력에 필요한 정보를 설정할 수 있다. 예컨대, 사용자가 기준한 관심지역 및 관심차로 중 어느 하나인 기준지점을 우선적으로 선정한 후, 선정된 기준지점에 따라 구간별로 분할할 수 있다. 이때, 분할된 구간의 길이는 균등하게 분할 수 있지만 다르게는 목적과 필요에 따라 길이는 다르게 설정될 수 있으며, 분할되는 구간의 개수 또한 조건에 따라 변경 가능하다. When an image is captured, information necessary for outputting the driving behavior of the vehicle can be set. For example, the user may preferentially select a reference point, which is one of a region of interest and a lane of interest, referenced by the user, and then divide it by section according to the selected reference point. In this case, the length of the divided sections may be equally divided, but differently, the length may be set differently according to the purpose and need, and the number of divided sections may also be changed according to conditions.

분할된 차량의 주행행태도출에 필요한 정보에서 차로의 유형에 따라 자료를 추출할 수 있다. Data can be extracted according to the type of lane from the information necessary to derive the driving behavior of the divided vehicle.

우선 도 5의 (a)와 같이 도로의 본선(1), 본선(1)과 동일 방향으로 형성된 서로 다른 도로인 합류부 연결로(2)가 합류되는 합류부 차로를 예를 들기로 한다. First, as shown in (a) of FIG. 5, the main line 1 and the main line 1 and the main line 1 and the main line 1 and the main line 1 of the road are joined in the same direction.

합류부 차로는, 합류하는 지점의 합류부 연결로(2)가 본선(1)에 접속되는 구간으로 도로 본선(1)의 차량과 합류부 연결로(2)에서의 유입 차량의 주행권 확보를 위한 상호 작용이 발생할 수 있는 도로이다. 이러한 합류부 차로에서는 차량 간 상충이 발생하기 때문에 교통 정체가 유발될 수 있으며 이를 해결하기 위한 교통 분석 항목은 다음과 같다. The confluence lane is a section in which the confluence connecting road 2 at the point of confluence is connected to the main line 1, and it is necessary to secure the driving rights of the vehicles on the main road 1 and the incoming vehicles in the confluence connecting route 2. It is a road where interactions can occur. Traffic congestion can be caused because a conflict between vehicles occurs in such a converging lane, and the traffic analysis items to solve this problem are as follows.

우선 본선(1)과 합류부 연결로(2)의 합류 교통량을 비교할 수 있다. 이를 위해, 영상 촬영부(122)에서 촬영한 도로(합류부 차로)에서 차량 통행이 많은 혼잡 시간과 차량 통행이 적은 비 혼잡 시간을 설정하여 차량의 주행행태를 도출할 수 있다. 이때, 특정 시간대를 설정하기 위해 시간 설정부(144)에서 도출시작시간과 도출종료시간을 설정하게 된다. First, it is possible to compare the converging traffic volume of the main line 1 and the confluence connecting road 2. To this end, it is possible to derive the driving behavior of the vehicle by setting a congestion time for a large amount of vehicle traffic and a non-congestion time for a small amount of vehicle traffic on the road (coupling part lane) photographed by the image photographing unit 122. At this time, in order to set a specific time zone, the time setting unit 144 sets the derivation start time and the derivation end time.

또한, 합류부 차로의 특징에 따라 차량의 합류에 영향을 가하는 교통 변수에는 본선(1)과 합류부 연결로(2) 사이의 교통량, 차량의 차로 변경 횟수, 차량의 주행 속도, 밀도 등이 있다. In addition, traffic variables that affect the confluence of vehicles according to the characteristics of the confluence lane include the amount of traffic between the main line 1 and the confluence connecting road 2, the number of changes to the vehicle lane, the driving speed of the vehicle, and the density. .

한편, 도출된 차량의 주행행태에 따라 본선(1)과 합류부 연결로(2)의 합류 구간 내 정체 형성에 영향을 주는 교통량을 분석할 수 있다. 분석된 결과를 기초로 차로가 줄어드는 구간의 위치를 조절하는 등의 문제점 해결 방안을 도출할 수 있게 된다.On the other hand, according to the derived driving behavior of the vehicle, it is possible to analyze the amount of traffic that affects the formation of congestion in the congestion section between the main line 1 and the confluence connecting road 2. Based on the analyzed results, it is possible to derive a solution to problems such as adjusting the position of the section where the lane is reduced.

한편, 영상입출력부(120)에서 촬영한 영상에서 추출한 차로는 분류부 차로의 구조일 수 있다. Meanwhile, a lane extracted from an image captured by the image input/output unit 120 may be a structure of a classification unit lane.

즉, 도 5의 (b)에 도시된 분류부 차로는 도로 본선(1)에서 분류부 연결로(3)가 본선(1) 외부로 배출되는 구간으로, 분류부 연결로(3)로 빠져나가려는 차량이 많아 차량의 차로 변경이 잦고, 이에 따른 교통 정체가 발생하는 도로이다. That is, the sorting section lane shown in Fig. 5(b) is a section in which the sorting section connection path 3 is discharged to the outside of the main line 1 from the main road line 1, and is trying to escape to the sorting section connection path 3 Is a road in which traffic congestion occurs due to frequent changes to the vehicle lane due to the large number of vehicles.

이러한 분류부 차로의 차량의 주행행태를 분석하고, 분석된 결과를 기초로 교통 문제의 해결방안을 도출할 수 있다. It is possible to analyze the driving behavior of the vehicle in the lane of the classification unit and derive a solution to the traffic problem based on the analyzed result.

한편, 영상입출력부(120)에서 촬영한 영상에서 추출한 차로는 엇갈림 구간일 수 있다. Meanwhile, a lane extracted from an image captured by the image input/output unit 120 may be a cross section.

즉, 도 5의 (c)를 도시된 바와 같이 엇갈림 구간이란, 교통통제 시설의 도움 없이 긴 구간의 도로를 따라가면서 동일 방향의 교통류가 엇갈리며 차로를 변경하는 구간을 의미한다. That is, as shown in (c) of FIG. 5, the cross section refers to a section in which traffic flows in the same direction are alternated and lanes are changed while following a long section of road without the help of a traffic control facility.

예를 들어, 엇갈림 구간은 본선(1)를 따라 합류부 연결로(2)와 분류부 연결로(3)가 모두 형성될 수 있다. 이러한 엇갈림 구간은 합류부 연결로(2)에서 유입되는 차량과 분류부 연결로(3)로 유출되는 차량이 모두 주행하고 있으므로, 잦은 차로 변경이 발생하여 정체가 발생할 수 있다. For example, in the intersecting section, both the confluence connection path 2 and the splitter connection path 3 may be formed along the main line 1. In such an intersecting section, since both the vehicles flowing in from the confluence section connection path 2 and the vehicle flowing out of the classification section connection path 3 are running, frequent lane changes may occur and congestion may occur.

이러한 엇갈림 구간은 차량의 엇갈림에 의해 교통 문제인 교통 정체가 발생하기 때문에 이를 해결하기 위한 교통 분석 항목은 다음과 같다. Since traffic congestion, which is a traffic problem, occurs due to the crossing of vehicles in such a cross section, the traffic analysis items to solve this problem are as follows.

우선, 본선(1)과 합류부 연결로(2)의 합류 교통량을 비교할 수 있다. 이를 위해, 영상 촬영부(122)에서 촬영한 도로(합류부 차로)에서 차량 통행이 많은 혼잡 시간과 비 혼잡 시간을 설정하여 차량의 주행행태를 분석할 수 있다. 이때, 특정 시간대를 설정하기 위해 시간 설정부(144)에서 도출시작시간과 도출종료시간을 설정하게 된다.First, it is possible to compare the converging traffic volume of the main line 1 and the confluence connecting road 2. To this end, it is possible to analyze the driving behavior of the vehicle by setting a congestion time and a non-congestion time in which the vehicle passes a lot on the road taken by the image capturing unit 122 (the converging section lane). At this time, in order to set a specific time zone, the time setting unit 144 sets the derivation start time and the derivation end time.

또한, 합류부 연결로(2)에서 유입된 차량과 분류부 연결로(3)에서 배출되는 차량의 차로 변경 횟수를 비교하여 차량 변경 횟수에 다른 교통 문제를 분석할 수 있다. In addition, it is possible to analyze a traffic problem different from the number of vehicle changes by comparing the number of changes to the lane of the vehicle introduced from the confluence unit connection path 2 and the vehicle discharged from the classification unit connection path 3.

또한, 각 차로 구간마다의 차량 속도, 밀도, 가속도를 분석하여 엇갈림 차로에서 정체 및 사고 등이 자주 일어나는 구간을 분석할 수 있다. In addition, by analyzing vehicle speed, density, and acceleration for each section of each lane, it is possible to analyze sections in which congestion and accidents occur frequently in intersecting lanes.

이와 같이 엇갈림 차로에서 분석한 교통 문제에 따라 예를 들어, 본선(1)에서 분류부 연결로(3) 진입을 위한 도로의 폭을 확대하거나, 본선(1)에서 분류부 연결로(3)로 진입할 때, 점선 노면표시를 미리 진행할 수 있는 등의 도로를 개선하여 교통 문제를 해결할 수 있다. Depending on the traffic problem analyzed at the intersection as described above, for example, the width of the road for accessing the main line (1) to the classification unit linkage (3), or from the main line (1) to the classification unit linkage (3). Traffic problems can be solved by improving roads such as the ability to advance dotted road markings when entering.

이러한 문제 해결안을 통해 엇갈림 차로에서 주행 시, 운전자들의 주행 시인성 확보 및 안전사고를 예방할 수 있는 효과를 도출할 수 있게 된다. Through such a solution to the problem, it is possible to derive the effect of securing driving visibility of drivers and preventing safety accidents when driving on a cross lane.

한편, 영상입출력부(120)에서 촬영한 영상에서 추출한 차로는 경사구간의 차로일 수 있다. Meanwhile, the lane extracted from the image captured by the image input/output unit 120 may be a lane between the inclined section.

도 5 (d)를 참고하면 경사구간의 차로란 도로의 수평선상을 기준으로 도로를 세로 방향으로 절단한 면에서 경사진 세로측 경사구간 및 도로의 수평선상을 기준으로 도로를 가로로 방향으로 절단한 면에서 경사진 가로측 구간으로 구성되는 차로라고 할 수 있다. Referring to FIG. 5 (d), the lane of the inclined section is a vertical inclined section that is inclined from the side of the road in the vertical direction with respect to the horizontal line of the road and the road is cut in the horizontal direction with respect to the horizontal line of the road. It can be said to be a lane composed of a horizontal section inclined in plane.

이러한 경사구간 차로에서는 차량 주행이 지형 조건에 큰 영향을 받으며, 특히 중차량(예를 들어 대형차량, 승합차 등)의 경우 승용차보다 주행 속도에 영향을 받아 감속할 수 있기 때문에 도로 전반의 차량 정체를 유발할 수 있다. In these inclined lanes, vehicle driving is greatly influenced by the terrain conditions, and in particular, heavy vehicles (for example, large vehicles, vans, etc.) are affected by the driving speed than passenger vehicles and can reduce vehicle congestion across the road. Can cause.

즉, 경사구간 차로에서 경사도와 경사 길이가 증가할수록 차량의 감속이 이 나타남을 알 수 있다. 구체적으로, 서로 다른 4%의 경사각도를 가진 도로에서 1000m의 길이만큼 차량이 이동한 경우 차량의 속도 감소 폭(A)과 9%의 경사각도를 가진 도로에서 1000m의 길이만큼 차량이 이동한 경우 차량의 속도 감속 폭(B)을 비교할 경우 (A)의 경우보다 (B)의 경우가 감소 폭이 큰 것으로 나타난다. 따라서, 경사구간의 차로에서는 차량의 무게가 증가하거나, 도로 경사도가 높은 경우 등의 차량의 주행 속도가 차량 주행행태에 영향이 있음을 알 수 있다. In other words, it can be seen that the deceleration of the vehicle appears as the slope and the slope length increase in the lane of the slope section. Specifically, when the vehicle moves a length of 1000 m on roads with different 4% inclination angles, when the vehicle moves 1000 m on a road with a speed reduction width (A) of the vehicle and 9% inclination angle When comparing the speed deceleration width (B) of the vehicle, the reduction width in the case (B) is larger than that in the case (A). Accordingly, it can be seen that the vehicle's driving speed, such as when the weight of the vehicle increases or the road slope is high, affects the vehicle driving behavior in the lane of the slope section.

이와 같이, 경사구간 차로에서의 차량 주행행태를 도출하고, 도출된 결과를 기초로 교통 문제를 분석하면, 예를 들어 경사 표시판 설치를 통해 사전에 차량의 속도 감속을 유발하거나, 경사지점 이전에서부터 사전에 차량의 차로 변경을 알리는 차로 변경 유도시스템을 설치하는 등의 개선안이 필요할 것으로 판단된다. In this way, if the vehicle driving behavior on the inclined lane is derived and the traffic problem is analyzed based on the derived result, for example, by installing an inclined display plate, the vehicle speed deceleration is caused in advance, or from before the inclined point. It is believed that improvement measures such as installing a lane change guidance system that informs the vehicle's lane change will be needed.

이러한 개선안에 따라 경사구간 차로에서의 차량의 차로 변경으로 인한 사고 및 정체 유발을 최소화할 수 있다. According to this improvement plan, it is possible to minimize the occurrence of accidents and congestion due to the change of the vehicle lane in the sloped lane.

한편, 영상입출력부(120)에서 촬영한 영상에서 추출한 차로는 비 반복적 정체 유발 구간 도로일 수 있다.Meanwhile, the lane extracted from the image captured by the image input/output unit 120 may be a non-repetitive congestion-causing section road.

도 5의 (e)를 참고하면 교통정체가 반복적으로 발생하지 않거나 정체의 예측이 가능하거나 불가능한 비 반복적 정체 유발 구간은, 예를 들어, 공사구간, 사고구간과 같이 특정 이유로 차로를 점용하게 되어 도로의 차량 통행에 제한을 주는 구간이라 할 수 있다. 이하 본 발명의 실시예에서는 공사구간으로 인하여 비 반복적 정체 유발 구간이 발생한 예를 들어 설명하기로 한다. Referring to (e) of FIG. 5, a non-repetitive congestion-causing section in which traffic congestion does not occur repeatedly, or where congestion is predictable or impossible, is occupied by a lane for a specific reason, such as a construction section and an accident section. It can be said that it is a section that restricts vehicle traffic. Hereinafter, in the embodiment of the present invention, an example in which a non-repetitive congestion-causing section occurs due to a construction section will be described.

이러한 비 반복적 정체 유발 구간(4)이 도로에 발생하면 높은 속도 및 일정 속도로 주행하던 차량은 비 반복적 정체 유발 구간(4)으로 인하여 감속하게 되고, 잦은 차로의 변경이 발생하는 등의 주행권 확보를 위한 정체가 발생하게 된다. When such a non-repetitive congestion-causing section (4) occurs on the road, the vehicle running at a high speed and a constant speed slows down due to the non-repetitive congestion-causing section (4), securing driving rights such as frequent lane changes. There is a congestion for this.

발생한 문제를 해결하기 위하여 공사 구간 내의 교통량과, 본선(1) 내에서 차로 변경 분포, 차로 차단 구간의 일반적인 차량의 정보(속도, 밀도, 가속도 등) 등의 정보를 분석하여 비 반복적 정체 유발 구간(4)의 교통 문제 해결을 위한 방법을 제시할 수 있다. In order to solve the problem that occurred, information such as traffic volume within the construction section, distribution of lane changes within the main line (1), and general vehicle information (speed, density, acceleration, etc.) 4) Can suggest a method for solving traffic problems.

앞서 예시한 도로 이외에 터널 진입 구간, 졸음 쉼터구간, 과속카메라 설치 구간 등의 여러 구간에서의 차량 주행행태를 분석하고, 분석된 자료를 기초로 차량 주행의 안정성, 정체 구간 감소 등의 문제를 해결할 수도 있다. In addition to the aforementioned roads, it is also possible to analyze vehicle driving behavior in various sections such as tunnel entry section, drowsiness shelter section, and speed camera installation section, and solve problems such as stability of vehicle driving and reduction of congestion sections based on the analyzed data. have.

이러한 차량 주행행태 분석시스템에 의하여 교통 문제가 발생하는 도로의 영상을 선택적으로 촬영할 수 있으며, 촬영된 영상을 통해 문제가 발생하는 지점에 대한 차량의 미시적 주행행태를 확인할 수 있다. The vehicle driving behavior analysis system can selectively photograph an image of a road where a traffic problem occurs, and the microscopic driving behavior of the vehicle at a point where the problem occurs can be checked through the photographed image.

이상과 같이, 본 발명의 무인비행장치 영상을 이용한 차량 주행행태 분석시스템에 따르면, 교통 문제가 발생하는 도로구간에 대하여 공간적 제약, 예컨대, 고속도로 본선, IC(Interchange)/JCT(Junction)의 합류,분류부, 엇갈림구간, 종단(상,하향)경사 변화구간, 공사구간 등의 제약이 없이 영상을 촬영할 수 있으며, 촬영된 영상의 분석을 통해 문제 발생 구간에 대한 차량주행행태를 추출할 수 있다.As described above, according to the vehicle driving behavior analysis system using the image of the unmanned aerial vehicle of the present invention, spatial constraints on the road section where traffic problems occur, for example, the main line of the highway, the confluence of IC (Interchange) / JCT (Junction), Images can be photographed without restrictions such as classification unit, cross section, vertical (upward, downward) slope change section, construction section, etc., and vehicle driving behavior for the problem section can be extracted through analysis of the captured image.

특히, 차량의 주행행태기반의 미시적 실증적 교통분석을 수행하기 때문에, 대상 도로구간의 명확한 문제점 진단이 가능하며, 정확한 개선안을 도출함으로써, 교통개선효과를 극대화 할 수 있다. In particular, since microscopic empirical traffic analysis based on the driving behavior of the vehicle is performed, it is possible to diagnose problems clearly in the target road section, and by deriving an accurate improvement plan, it is possible to maximize the effect of traffic improvement.

한편, 본 명세서에서 설명하는 기능적인 동작과 주제의 구현물들은 디지털 전자 회로로 구현되거나, 본 명세서에서 개시하는 구조 및 그 구조적인 등가물들을 포함하는 컴퓨터 소프트웨어, 펌웨어 혹은 하드웨어로 구현되거나, 이들 중 하나 이상의 결합으로 구현 가능하다.  본 명세서에서 설명하는 주제의 구현물들은 하나 이상의 컴퓨터 프로그램 제품, 다시 말해 제어 시스템의 동작을 제어하기 위하여 혹은 이것에 의한 실행을 위하여 유형의 프로그램 저장매체 상에 인코딩된 컴퓨터 프로그램 명령에 관한 하나 이상의 모듈로서 구현될 수 있다.Meanwhile, the functional operations and implementations of the subject described in this specification are implemented as digital electronic circuits, or computer software, firmware, or hardware including the structures disclosed in this specification and structural equivalents, or one or more of them. It can be implemented in combination. Implementations of the subject matter described herein are one or more computer program products, i.e., one or more modules relating to computer program instructions encoded on a tangible program storage medium for controlling or executing by the control system. Can be implemented.

컴퓨터로 판독 가능한 매체는 기계로 판독 가능한 저장 장치, 기계로 판독 가능한 저장 기판, 메모리 장치, 기계로 판독 가능한 전파형 신호에 영향을 미치는 물질의 조성물 혹은 이들 중 하나 이상의 조합일 수 있다.The computer-readable medium may be a machine-readable storage device, a machine-readable storage substrate, a memory device, a composition of materials that affect a machine-readable radio wave signal, or a combination of one or more of them.

본 명세서에서 "시스템"이나 "장치"라 함은 예컨대 프로그래머블 프로세서, 컴퓨터 혹은 다중 프로세서나 컴퓨터를 포함하여 데이터를 제어하기 위한 모든 기구, 장치 및 기계를 포괄한다. 제어 시스템은, 하드웨어에 부가하여, 예컨대 프로세서 펌웨어를 구성하는 코드, 프로토콜 스택, 데이터베이스 관리 시스템, 운영 체제 혹은 이들 중 하나 이상의 조합 등 요청 시 컴퓨터 프로그램에 대한 실행 환경을 형성하는 코드를 포함할 수 있다.In the present specification, the term "system" or "device" encompasses all devices, devices and machines for controlling data, including, for example, a programmable processor, a computer, or multiple processors or computers. The control system may include, in addition to hardware, code that forms an execution environment for a computer program upon request, such as a code constituting a processor firmware, a protocol stack, a database management system, an operating system, or a combination of one or more of them. .

컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 어플리케이션, 스크립트 혹은 코드로도 알려져 있음)은 컴파일되거나 해석된 언어나 선험적 혹은 절차적 언어를 포함하는 프로그래밍 언어의 어떠한 형태로도 작성될 수 있으며, 독립형 프로그램이나 모듈, 컴포넌트, 서브루틴 혹은 컴퓨터 환경에서 사용하기에 적합한 다른 유닛을 포함하여 어떠한 형태로도 전개될 수 있다. 컴퓨터 프로그램은 파일 시스템의 파일에 반드시 대응하는 것은 아니다. 프로그램은 요청된 프로그램에 제공되는 단일 파일 내에, 혹은 다중의 상호 작용하는 파일(예컨대, 하나 이상의 모듈, 하위 프로그램 혹은 코드의 일부를 저장하는 파일) 내에, 혹은 다른 프로그램이나 데이터를 보유하는 파일의 일부(예컨대, 마크업 언어 문서 내에 저장되는 하나 이상의 스크립트) 내에 저장될 수 있다. 컴퓨터 프로그램은 하나의 사이트에 위치하거나 복수의 사이트에 걸쳐서 분산되어 통신 네트워크에 의해 상호 접속된 다중 컴퓨터나 하나의 컴퓨터 상에서 실행되도록 전개될 수 있다.Computer programs (also known as programs, software, software applications, scripts, or code) can be written in any form of a compiled or interpreted language or a programming language, including a priori or procedural language, and can be written as a standalone program or module, It can be deployed in any form, including components, subroutines, or other units suitable for use in a computer environment. Computer programs do not necessarily correspond to files in the file system. A program may be in a single file provided to the requested program, or in multiple interactive files (e.g., files that store one or more modules, subprograms, or portions of code), or part of a file that holds other programs or data. (Eg, one or more scripts stored within a markup language document). The computer program may be deployed to run on one computer or multiple computers located at one site or distributed across a plurality of sites and interconnected by a communication network.

한편, 컴퓨터 프로그램 명령어와 데이터를 저장하기에 적합한 컴퓨터로 판독 가능한 매체는, 예컨대 EPROM, EEPROM 및 플래시메모리 장치와 같은 반도체 메모리 장치, 예컨대 내부 하드디스크나 외장형 디스크와 같은 자기 디스크, 자기광학 디스크 및 CD-ROM과 DVD-ROM 디스크를 포함하여 모든 형태의 비휘발성 메모리, 매체 및 메모리 장치를 포함할 수 있다. 프로세서와 메모리는 특수 목적의 논리 회로에 의해 보충되거나, 그것에 통합될 수 있다.On the other hand, computer-readable media suitable for storing computer program instructions and data include, for example, semiconductor memory devices such as EPROM, EEPROM, and flash memory devices, such as magnetic disks such as internal hard disks or external disks, magneto-optical disks, and CDs. -May contain all types of nonvolatile memory, media and memory devices, including ROM and DVD-ROM disks. The processor and memory can be supplemented by special purpose logic circuits or incorporated into it.

본 명세서에서 설명한 주제의 구현물은 예컨대 차량의 주행행태서버와 같은 백엔드 컴포넌트를 포함하거나, 예컨대 어플리케이션 서버와 같은 미들웨어 컴포넌트를 포함하거나, 예컨대 사용자가 본 명세서에서 설명한 주제의 구현물과 상호 작용할 수 있는 웹 브라우저나 그래픽 유저 인터페이스를 갖는 클라이언트 컴퓨터와 같은 프론트엔드 컴포넌트 혹은 그러한 백엔드, 미들웨어 혹은 프론트엔드 컴포넌트의 하나 이상의 모든 조합을 포함하는 연산 시스템에서 구현될 수도 있다. 시스템의 컴포넌트는 예컨대 통신 네트워크와 같은 디지털 차량의 주행행태통신의 어떠한 형태나 매체에 의해서도 상호 접속 가능하다.Implementations of the subject matter described in this specification include a backend component such as, for example, a driving behavior server of a vehicle, or include a middleware component such as an application server, or, for example, a web browser that allows a user to interact with the subject matter implementation described herein. It may be implemented in a front-end component, such as a client computer with a graphical user interface, or a computing system that includes all combinations of one or more of such back-end, middleware, or front-end components. The components of the system can be interconnected by any form or medium of digital vehicle driving behavior communication, for example a communication network.

본 명세서는 다수의 특정한 구현물의 세부사항들을 포함하지만, 이들은 어떠한 발명이나 청구 가능한 것의 범위에 대해서도 제한적인 것으로서 이해되어서는 안되며, 오히려 특정한 발명의 특정한 실시형태에 특유할 수 있는 특징들에 대한 설명으로서 이해되어야 한다. 마찬가지로, 개별적인 실시형태의 문맥에서 본 명세서에 기술된 특정한 특징들은 단일 실시형태에서 조합하여 구현될 수도 있다. 반대로, 단일 실시형태의 문맥에서 기술한 다양한 특징들 역시 개별적으로 혹은 어떠한 적절한 하위 조합으로도 복수의 실시형태에서 구현 가능하다. 나아가, 특징들이 특정한 조합으로 동작하고 초기에 그와 같이 청구된 바와 같이 묘사될 수 있지만, 청구된 조합으로부터의 하나 이상의 특징들은 일부 경우에 그 조합으로부터 배제될 수 있으며, 그 청구된 조합은 하위 조합이나 하위 조합의 변형물로 변경될 수 있다.While this specification includes details of a number of specific implementations, these should not be construed as limiting to the scope of any invention or claim, but rather as a description of features that may be peculiar to a particular embodiment of a particular invention. It must be understood. Likewise, certain features described herein in the context of separate embodiments may be implemented in combination in a single embodiment. Conversely, various features described in the context of a single embodiment can also be implemented in multiple embodiments individually or in any suitable sub-combination. Furthermore, although features operate in a particular combination and may be initially described as so claimed, one or more features from a claimed combination may in some cases be excluded from the combination, and the claimed combination may be a subcombination. Or sub-combination variations.

또한, 본 명세서에서는 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. 또한, 상술한 실시형태의 다양한 시스템 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 시스템들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징될 수 있다는 점을 이해하여야 한다In addition, although the present specification describes the operations in the drawings in a specific order, it is not understood that such operations must be performed in the specific order or sequential order shown in order to obtain a desirable result, or that all illustrated operations must be performed. Can not be done. In certain cases, multitasking and parallel processing can be advantageous. In addition, separation of the various system components of the above-described embodiments should not be understood as requiring such separation in all embodiments, and the program components and systems described are generally integrated together into a single software product or packaged in multiple software products. Understand that you can

이와 같이, 본 명세서는 그 제시된 구체적인 용어에 본 발명을 제한하려는 의도가 아니다. 따라서, 상술한 예를 참조하여 본 발명을 상세하게 설명하였지만, 당업자라면 본 발명의 범위를 벗어나지 않으면서도 본 예들에 대한 개조, 변경 및 변형을 가할 수 있다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.As such, this specification is not intended to limit the invention to the specific terms presented. Accordingly, although the present invention has been described in detail with reference to the above-described examples, those skilled in the art can make modifications, changes, and modifications to these examples without departing from the scope of the present invention. The scope of the present invention is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.

본 발명의 차량 주행행태 분석시스템에 따르면 무인비행장치를 이용하여 도로 교통 문제를 분석하여 문제 요인 발생 지점 및 발생 이유 등을 명확하게 진단할 수 있는 방안을 서비스할 수 있게 하는 기술을 실현하는 점에서, 기존 기술의 한계를 뛰어 넘음에 따라 관련 기술에 대한 이용만이 아닌 적용되는 장치의 시판 또는 영업의 가능성이 충분할 뿐만 아니라 현실적으로 명백하게 실시할 수 있는 정도이므로 산업상 이용가능성이 있는 발명이다.According to the vehicle driving behavior analysis system of the present invention, by analyzing road traffic problems using an unmanned flight device, in terms of realizing a technology that enables a service to clearly diagnose the point of occurrence and reason of the problem factor, etc. However, it is an invention that has industrial applicability because it exceeds the limitations of the existing technology, so that not only the use of the related technology, but also the possibility of marketing or sales of the applied device is sufficient, and it can be practically clearly implemented.

10: 차량 주행행태 분석시스템
120: 영상 입출력부
140: 정보 설정부
160: 추출부
180: 저장부
10: Vehicle driving behavior analysis system
120: video input/output unit
140: information setting unit
160: extraction unit
180: storage unit

Claims (9)

차량의 주행행태를 추출하여 교통문제가 발생하는 원인을 진단하기 위한 무인비행장치 영상을 이용한 차량 주행행태 분석시스템에 있어서,
무인비행장치를 이용하여 상기 차량이 주행하는 차로를 영상으로 촬영하고, 촬영된 영상이 입력 및 출력되는 영상입출력부;
상기 영상입출력부에서 출력된 영상을 기초로 상기 차로를 주행하는 상기 차량의 주행행태를 출력하기 위한 정보를 설정하는 정보 설정부;
상기 정보 설정부에서 설정된 정보를 기초로 상기 차량의 주행행태를 추출하는 추출부; 및
상기 추출부에서 추출된 상기 차량의 주행행태를 저장하는 저장부; 를 포함하고,
상기 영상입출력부는,
상기 차량의 정보, 차로 정보 중 어느 하나의 정보를 영상으로 촬영하는 영상 촬영부;
상기 영상 촬영부에서 촬영한 영상이 입력되는 영상 입력부; 및 _
상기 영상 입력부에 입력된 영상을 보정하여 상기 차량 속도별로 상기 차량 색상을 다르게 표시한 이미지 정보, 특정 차로에서 상기 차량의 이동 궤적을 표현한 이미지 정보, 및 주행중인 상기 차량이 상기 차로를 변경하는 차로 변경 발생 지점을 표시한 이미지 정보를 획득하는 영상 보정부; 를 포함하는 것을 특징으로 하는 무인비행장치 영상을 이용한 차량 주행행태 분석시스템.
In the vehicle driving behavior analysis system using an image of an unmanned flight device for diagnosing a cause of a traffic problem by extracting the driving behavior of the vehicle,
An image input/output unit for photographing a lane on which the vehicle travels as an image using an unmanned aerial vehicle, and inputting and outputting the captured image;
An information setting unit configured to set information for outputting a driving behavior of the vehicle traveling in the lane based on the image output from the image input/output unit;
An extracting unit for extracting the driving behavior of the vehicle based on the information set by the information setting unit; And
A storage unit for storing the driving behavior of the vehicle extracted by the extraction unit; Including,
The image input and output unit,
An image photographing unit for photographing any one of the vehicle information and the lane information as an image;
An image input unit for inputting an image captured by the image capturing unit; And _
Image information in which the color of the vehicle is displayed differently for each vehicle speed by correcting the image input to the image input unit, image information representing the movement trajectory of the vehicle in a specific lane, and a lane change in which the vehicle being driven changes the lane An image correction unit for obtaining image information indicating an occurrence point; Vehicle driving behavior analysis system using an unmanned aerial vehicle image comprising a.
삭제delete 제 1 항에 있어서,
상기 영상 촬영부는,
고정된 위치에서 상기 차량의 정보, 차로 정보 중 어느 하나의 정보를 영상으로 촬영하는 드론인 것을 특징으로 하는 무인비행장치 영상을 이용한 차량 주행행태 분석시스템.
The method of claim 1,
The image capture unit,
A vehicle driving behavior analysis system using an image of an unmanned aerial vehicle, characterized in that it is a drone that photographs any one of information on the vehicle or lane information at a fixed location.
제 1 항에 있어서,
상기 정보 설정부는,
상기 영상입출력부에서 촬영한 영상에서 상기 차량이 주행하는 차로, 상기 차량이 주행하는 차로의 유형 중 적어도 어느 하나의 정보를 설정하는 차로 설정부;
상기 영상입출력부에서 촬영한 영상에서 상기 차량의 주행행태 도출에 필요한 특정 시간을 설정하는 시간 설정부;
상기 영상 촬영부에서 촬영한 영상에서 상기 차량의 주행행태 도출하기 위해 상기 차량이 주행하는 구간 중 관심 지역, 상기 차량이 주행하는 차로 중 관심 차로, 상기 차량이 주행하는 차로 중 지정된 차로의 실제 거리 중 어느 하나를 설정하는 공간 설정부; 를 포함하는 것을 특징으로 하는 무인비행장치 영상을 이용한 차량 주행행태 분석시스템.
The method of claim 1,
The information setting unit,
A lane setting unit for setting information on at least one of a type of a lane on which the vehicle travels and a type of lane on which the vehicle travels in the image captured by the image input/output unit;
A time setting unit for setting a specific time required for deriving the driving behavior of the vehicle from the image captured by the image input/output unit;
In order to derive the driving behavior of the vehicle from the image captured by the image capturing unit, one of a region of interest among a section in which the vehicle is traveling, a lane of interest among a lane in which the vehicle is traveling, and an actual distance of a designated lane among the lanes in which the vehicle is traveling A space setting unit for setting any one; Vehicle driving behavior analysis system using an unmanned aerial vehicle image comprising a.
제 4 항에 있어서,
상기 시간 설정부는,
상기 차로 상에 일정 수 이상의 차량이 운행하는 시점을 기초로 분석시작시간 및 분석종료시간을 설정하는 것을 특징으로 하는 무인비행장치 영상을 이용한 차량 주행행태 분석시스템.
The method of claim 4,
The time setting unit,
A vehicle driving behavior analysis system using an unmanned aerial vehicle image, characterized in that the analysis start time and the analysis end time are set based on a time point at which more than a certain number of vehicles operate on the lane.
제 4 항에 있어서,
상기 시간 설정부는
상기 영상입출력부에서 촬영된 영상에서 상기 차량의 주행행태 추출을 위한 시간 단위를 설정하는 것을 특징으로 하는 무인비행장치 영상을 이용한 차량 주행행태 분석시스템.
The method of claim 4,
The time setting unit
A vehicle driving behavior analysis system using an unmanned aerial vehicle image, characterized in that setting a time unit for extracting the driving behavior of the vehicle from the image captured by the image input/output unit.
제 4 항에 있어서,
상기 차로 설정부는,
상기 차량이 주행하는 상기 차로가 고속도로 본선 구간, 동일 방향의 차로로 형성된 2 이상의 고속도로가 합류되거나 분리되는 합분류 구간, 동일 방향의 차로로 형성된 2 이상의 고속도로를 연결하는 IC/JC 연결로 구간, 긴 구간의 도로를 따라가면서 동일 방향의 교통류가 엇갈리며 차로가 변경되는 구간인 엇갈림 구간 등의 유형 중 어느 하나의 정보인지를 설정하는 것을 특징으로 하는 무인비행장치 영상을 이용한 차량 주행행태 분석시스템.
The method of claim 4,
The lane setting unit,
The lane on which the vehicle runs is a main line section of a highway, a combined classification section in which two or more expressways formed by lanes in the same direction are joined or separated, an IC/JC connection route section connecting two or more highways formed by lanes in the same direction, and a long A vehicle driving behavior analysis system using an unmanned aerial vehicle image, characterized in that it sets any one of types of information, such as a cross section, which is a section in which traffic flows in the same direction alternate and lanes are changed while following a road of a section.
제 1 항에 있어서,
상기 추출부는,
상기 영상입출력부에서 촬영된 영상에서 추출된 픽셀 수에 의해 추출된 상기 차량의 길이를 기초로 추출된 차종, 상기 차량의 속도 및 가속도, 상기 차량의 위치, 설정된 상기 차로의 구분 정보를 기초로 추출된 상기 차량이 주행하는 주행차로 중 어느 하나의 정보를 추출하며, 추출된 정보를 기초로 교통류 특성, 특정 개별 차량의 주행 궤적, 2 이상의 특정 개별 차량 사이의 상호 주행 특성 중 어느 하나의 정보를 추출하는 것을 특징으로 하는 무인비행장치 영상을 이용한 차량 주행행태 분석시스템.
The method of claim 1,
The extraction unit,
Extracted based on the vehicle type extracted based on the length of the vehicle extracted by the number of pixels extracted from the image captured by the image input/output unit, the vehicle speed and acceleration, the vehicle location, and the set classification information of the lane Extracts information on any one of the driving lanes on which the vehicle is driven, and extracts any one of traffic flow characteristics, a driving trajectory of a specific individual vehicle, and mutual driving characteristics between two or more specific individual vehicles based on the extracted information Vehicle driving behavior analysis system using an unmanned aerial vehicle image, characterized in that.
제 8 항에 있어서,
상기 추출부는,
상기 차로를 주행하는 상기 차량 중 선택된 특정 개별 차량에 의해 상기 차량이 주행하는 도로의 차량 밀도를 추출하는 것을 특징으로 하는 무인비행장치 영상을 이용한 차량 주행행태 분석시스템.


The method of claim 8,
The extraction unit,
A vehicle driving behavior analysis system using an unmanned aerial vehicle image, characterized in that the vehicle density of a road on which the vehicle is traveling is extracted by a specific individual vehicle selected from among the vehicles traveling in the lane.


KR1020180139198A 2018-11-13 2018-11-13 A vehicle driving behavior analysis system using images by uav KR102169910B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180139198A KR102169910B1 (en) 2018-11-13 2018-11-13 A vehicle driving behavior analysis system using images by uav

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180139198A KR102169910B1 (en) 2018-11-13 2018-11-13 A vehicle driving behavior analysis system using images by uav

Publications (2)

Publication Number Publication Date
KR20200055492A KR20200055492A (en) 2020-05-21
KR102169910B1 true KR102169910B1 (en) 2020-10-26

Family

ID=70910434

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180139198A KR102169910B1 (en) 2018-11-13 2018-11-13 A vehicle driving behavior analysis system using images by uav

Country Status (1)

Country Link
KR (1) KR102169910B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220120211A (en) 2021-02-23 2022-08-30 단국대학교 산학협력단 Drone image analysis system based on deep learning for traffic measurement

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116311940B (en) * 2023-03-23 2024-03-26 东南大学 Dynamic traffic guidance system and method for expressway reconstruction and expansion operation area

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101572A (en) 1999-09-29 2001-04-13 Sumitomo Electric Ind Ltd Transportation control system
JP2013171491A (en) 2012-02-22 2013-09-02 Nippon Expressway Research Institute Co Ltd Traffic estimation system using single image
KR101848236B1 (en) * 2016-12-06 2018-05-28 주식회사부산항공 Drone for photographing car and system for monitoring car using thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11296788A (en) * 1998-04-10 1999-10-29 Mitsubishi Electric Corp Vehicle speed measuring instrument
KR20100135573A (en) * 2009-06-17 2010-12-27 주식회사 인투텍 Apparatus, methode for mesuring velocity of vehicles and computer readable recording medium therefor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101572A (en) 1999-09-29 2001-04-13 Sumitomo Electric Ind Ltd Transportation control system
JP2013171491A (en) 2012-02-22 2013-09-02 Nippon Expressway Research Institute Co Ltd Traffic estimation system using single image
KR101848236B1 (en) * 2016-12-06 2018-05-28 주식회사부산항공 Drone for photographing car and system for monitoring car using thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220120211A (en) 2021-02-23 2022-08-30 단국대학교 산학협력단 Drone image analysis system based on deep learning for traffic measurement

Also Published As

Publication number Publication date
KR20200055492A (en) 2020-05-21

Similar Documents

Publication Publication Date Title
Chen et al. Surrogate safety analysis of pedestrian-vehicle conflict at intersections using unmanned aerial vehicle videos
Wu et al. Automatic lane identification using the roadside LiDAR sensors
US11380105B2 (en) Identification and classification of traffic conflicts
KR102267335B1 (en) Method for detecting a speed employing difference of distance between an object and a monitoring camera
DE112020004931T5 (en) SYSTEMS AND METHODS FOR DETERMINING ROAD SAFETY
KR102105162B1 (en) A smart overspeeding vehicle oversee apparatus for analyzing vehicle speed, vehicle location and traffic volume using radar, for detecting vehicles that violate the rules, and for storing information on them as videos and images, a smart traffic signal violation vehicle oversee apparatus for the same, and a smart city solution apparatus for the same
CN105761494B (en) Abnormal traffic information collecting method based on unmanned plane
CN107301776A (en) Track road conditions processing and dissemination method based on video detection technology
DE112020002764T5 (en) SYSTEMS AND METHODS FOR VEHICLE NAVIGATION
CN105488485B (en) Lane line extraction method based on track of vehicle
Kar et al. Real-time traffic estimation at vehicular edge nodes
KR102169910B1 (en) A vehicle driving behavior analysis system using images by uav
CN110033622A (en) Violation snap-shooting based on unmanned plane aerial photography technology occupies Emergency Vehicle Lane method
KR102200204B1 (en) 3-D Image Analyzing System Using CCTV Image
KR102111363B1 (en) Accident monitoring system in tunnel using camera grouping of IoT based
EP4020428A1 (en) Method and apparatus for recognizing lane, and computing device
DE112020005275T5 (en) SYSTEMS AND METHODS FOR SELECTIVE DECELERATION OF A VEHICLE
DE112022000380T5 (en) SYSTEMS AND METHODS FOR UNIFORM SPEED MAPPING AND NAVIGATION
CN110111582B (en) Multi-lane free flow vehicle detection method and system based on TOF camera
CN116580567A (en) Road congestion cause acquisition method, system and equipment based on intelligent traffic light
CN114207627A (en) Extreme case detection and collection for path planning systems
CN112447060A (en) Method and device for recognizing lane and computing equipment
JP6419260B1 (en) Traffic information acquisition device, traffic information acquisition system, traffic information acquisition method, and traffic information acquisition program
JP2013134609A (en) Curbstone detection device and curbstone detection program
CN109308807A (en) Road violation snap-shooting system based on unmanned plane aerial photography technology

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant