KR20210008737A - Device and method for calculation vehicle position in an image, and traffic analysis system using the same - Google Patents
Device and method for calculation vehicle position in an image, and traffic analysis system using the same Download PDFInfo
- Publication number
- KR20210008737A KR20210008737A KR1020190085290A KR20190085290A KR20210008737A KR 20210008737 A KR20210008737 A KR 20210008737A KR 1020190085290 A KR1020190085290 A KR 1020190085290A KR 20190085290 A KR20190085290 A KR 20190085290A KR 20210008737 A KR20210008737 A KR 20210008737A
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- information
- image
- calculating
- unit
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/065—Traffic control systems for road vehicles by counting the vehicles in a section of the road or in a parking area, i.e. comparing incoming count with outgoing count
-
- G06K9/00771—
-
- G06K9/00798—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0137—Measuring and analyzing of parameters relative to traffic conditions for specific applications
- G08G1/0145—Measuring and analyzing of parameters relative to traffic conditions for specific applications for active traffic flow control
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/052—Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed
Abstract
Description
본 발명은 영상 내 차량위치 산출 장치 및 그 방법, 이를 이용한 교통량 분석 시스템에 관한 것으로, 더욱 상세하게는 취득한 영상 데이터 내에 차량의 정확한 위치정보를 연산하여 제공함으로써, 이를 통해 도로 상의 교통정보/교통상황을 실시간으로 제공할 수 있어 교통 시스템의 효율성을 향상시킬 수 있는 영상 내 차량위치 산출 장치 및 그 방법, 이를 이용한 교통량 분석 시스템에 관한 것이다.The present invention relates to an apparatus and method for calculating vehicle position in an image, and to a traffic volume analysis system using the same, and more particularly, by calculating and providing accurate position information of a vehicle in acquired image data, traffic information/traffic conditions on the road through this The present invention relates to an apparatus and method for calculating a vehicle location in an image that can improve the efficiency of a transportation system by providing real-time, and a traffic volume analysis system using the same.
교차로 등의 도로 교통량을 분석하여 실시간으로 상황에 맞게 교통 신호를 제어하는 시스템이 요구되고 있지만, 교통량 관련 정보를 실시간으로 알아내는 기술의 부재로 인해, 제대로 정착되지 못하고 있는 실정이다.There is a demand for a system that controls traffic signals according to the situation in real time by analyzing road traffic volumes such as intersections, but due to the lack of technology to find out traffic volume-related information in real time, it is not settled properly.
이에 대한 대안으로, 차량의 GPS 정보를 수집하여 실시간으로 교통량을 분석하고자 하였지만, 분석 시간이 너무 오래 걸리기 때문에 교통 신호에 적절하게 적용하는 것이 불가능하다.As an alternative to this, it was attempted to analyze the traffic volume in real time by collecting GPS information of the vehicle, but it is impossible to properly apply it to the traffic signal because the analysis time is too long.
또한, 일반적으로 교통방송 등을 위해 도로 상의 교통정보/교통상황에 의한 교통 데이터를 수집하는 방법으로, 루프 검지기와 영상기반 검지기가 주를 이루고 있다.In addition, in general, as a method of collecting traffic data based on traffic information/traffic conditions on a road for traffic broadcasting, etc., a loop detector and an image-based detector are mainly used.
그렇지만, 이를 실시간 교통량 분석에 적용하기 위해서는, 루프 검지기의 경우, 설치 및 유지 관리시에 도로 포장 공사가 같이 이루어져야 하기 때문에 비용이 많이 발생하는 문제점이 있으며, 영상기반 검지기의 경우, 여러 차선, 여러 방향의 교통 데이터를 취득하기 위한 해당 개수만큼의 검지기를 설치 및 관리해야 하는 문제점이 있다.However, in order to apply this to real-time traffic volume analysis, in the case of a roof detector, there is a problem in that it is expensive because road pavement construction must be performed together during installation and maintenance. There is a problem in that it is necessary to install and manage as many detectors as the number of detectors to acquire traffic data of.
이와 관련해서, 국내등록특허 제10-1942491호("도로교통 상황 모니터링 관제, 실시간 교통정보 분석, 교통신호제어로 이루어진 인공지능형 CCTV 통합관제중개제어모듈을 갖는 CCTV통합관제센터시스템")에서는 복수개의 현장용 CCTV모듈과 CCTV 통합관제관리서버 사이에 형성된 인공지능형 CCTV통합관제중개제어모듈을 통해, CCTV 통합관제관리서버가 해야 할 도로교통 상황 모니터링 관제기능과, 특정이동차량검출기능, 특정이동차량추적기능, 교통정보분석기능, 교통신호제어기능을 수행시킬 수 있는 도로교통 상황 모니터링 관제 ㅇ 실시간 교통정보 분석ㅇ교통신호제어로 이루어진 인공지능형 CCTV통합관제중개제어모듈을 갖는 CCTV통합관제센터시스템을 개시하고 있다.In this regard, Korean Patent Registration No. 10-1942491 ("CCTV integrated control center system having an artificial intelligent CCTV integrated control intermediary control module consisting of road traffic condition monitoring control, real-time traffic information analysis, and traffic signal control") Through the artificial intelligence CCTV integrated control intermediary control module formed between the on-site CCTV module and the CCTV integrated control management server, the road traffic condition monitoring control function that the CCTV integrated control management server should do, the specific mobile vehicle detection function, and the specific mobile vehicle tracking function It is launching a CCTV integrated control center system with an artificial intelligent CCTV integrated control intermediary control module consisting of traffic information analysis function, traffic information analysis function, and traffic signal control function. .
본 발명은 상기한 바와 같은 종래 기술의 문제점을 해결하기 위하여 안출된 것으로, 교차로 등을 촬영한 영상 데이터가 해당 교차로의 중심점이 되는 곳에서 촬영할 수 없기 때문에, 영상에서 촬영된 차량의 실제 지도 좌표계로 변환하여 정확한 위치정보를 제공함으로써, 교차로 내부 통과량, 회전량 등을 판단할 수 있어 도로 상의 교통정보/교통상황을 실시간으로 제공할 수 있어 교통 시스템의 효율성을 향상시킬 수 있는 영상 내 차량위치 산출 장치 및 그 방법, 이를 이용한 교통량 분석 시스템을 제공하는 것이다.The present invention was conceived to solve the problems of the prior art as described above, and since image data photographed at an intersection cannot be photographed at the center point of the intersection, the actual map coordinate system of the vehicle photographed from the image By converting and providing accurate location information, it is possible to determine the amount of passage inside the intersection, the amount of turn, etc., so that traffic information/traffic conditions on the road can be provided in real time, thereby calculating the vehicle location in the image that can improve the efficiency of the transportation system. It is to provide an apparatus and method, and a traffic analysis system using the same.
본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치는, 교차로 주변에 소정높이를 갖는 기설정된 영역에 설치되어, 교차로 내부의 기설정된 구역을 촬영하여 영상 데이터를 취득하는 영상 취득부(100) 및 상기 영상 취득부(100)와 네트워크 연결되어, 상기 영상 취득부(100)로부터 상기 영상 데이터를 전송받아, 이를 분석하여 영상 내 위치한 차량들의 관련 정보들을 연산하는 통합 분석부(200)를 포함하여 구성되는 것이 바람직하다.The apparatus for calculating a vehicle position in an image according to an embodiment of the present invention is installed in a predetermined area having a predetermined height around an intersection, and an
더 나아가, 상기 영상 취득부(100)는 광학 센서(optical sensor)를 포함하는 카메라(IP camera)를 포함하는 것이 바람직하다.Furthermore, it is preferable that the
더 나아가, 상기 통합 분석부(200)는 전송받은 상기 영상 데이터에 포함되어 있는 적어도 하나의 영상 프레임을 이용하여, 상기 영상 프레임 내에 포함되어 있는 차선 객체 정보들을 추출하고, 상기 영상 프레임의 고정된 x, y 좌표를 기준으로 각각의 차선 방향에 따라 차량의 진행방향 각도(θhor, θver)를 연산하여 초기각도 정보로 설정하는 초기 설정부(210)를 포함하여 구성되며, 상기 초기 설정부(210)는 각각의 차선 방향에 따라 차량의 진행에 의한 차량의 앞면길이를 연산하여, 초기길이 정보로 설정하는 것이 바람직하다.Furthermore, the
더 나아가, 상기 통합 분석부(200)는 전송받은 상기 영상 데이터에 포함되어 있는 영상 프레임들을 순차적으로 이용하여, 각각의 상기 영상 프레임 내에 포함되어 있는 적어도 하나의 차량 객체 정보를 추출하는 차량 탐지부(220)를 포함하여 구성되며, 상기 차량 객체 정보는 기설정된 차량의 중심점을 기준으로 기설정된 영역크기(x, y, w, h)를 갖는 것이 바람직하다.Further, the
더 나아가, 상기 통합 분석부(200)는 상기 차량 탐지부(220)에서 특정 영상 프레임(i번째 프레임)에서 추출한 특정 차량 객체 정보(P x(i), y(i), w(i), h(i))와 특정 영상 프레임의 다음 영상 프레임(i+1 번째 프레임)에서 추출한 특정 차량 객체 정보(P x(i+1), y(i+1), w(i+1), h(i+1))를 비교하여, 상기 차량의 진행방향에 따른 각도(θmain)를 연산하여, 추정 진행방향 각도 정보로 설정하는 차량 추정부(230) 및 상기 초기 설정부(210)에서 설정한 상기 초기각도 정보와 상기 차량 추정부(230)에서 설정한 상기 추정 진행방향 각도 정보를 비교하여, 상기 차량이 현재 위치에서 직진할 경우의 진행방향 각도(θbase_main)와, 차량의 앞면방향 각도(θbase_sub)를 연산하여, 기본 진행방향 각도 정보와 기본 앞면방향 각도 정보로 설정하는 차량위치 보정부(240)를 포함하여 구성되는 것이 바람직하다.Furthermore, the
더 나아가, 상기 차량위치 보정부(240)는 상기 차량 탐지부(220)에서 추출한 상기 차량 객체 정보를 이용하여, 상기 차량이 현재 위치에서 회전되었을 경우에 대한 차량의 앞면길이(Lbase_main), 상기 차량이 현재 위치에서 직진할 경우에 대한 차량의 앞면길이(Lbase_sub)를 연산하여, 제1, 제2 기본 앞면길이 정보로 설정하는 것이 바람직하다.Furthermore, the vehicle
더 나아가, 상기 통합 분석부(200)는 상기 차량 추정부(230)와 차량위치 보정부(240)에서 연산한 상기 차량의 관련 정보들을 이용하여, 상기 차량의 추정 앞면방향 각도 정보(θsub), 추정 앞면길이 정보(Lsub)를 추정하여, 기설정된 수식에 적용하여 최종 차량위치 정보(Xcar, Ycar)를 연산하는 최종 연산부(250)를 더 포함하여 구성되는 것이 바람직하다.Furthermore, the
더 나아가, 상기 최종 연산부(250)는 상기 기본 진행방향 각도 정보와 기본 앞면방향 각도 정보의 각도차를 연산하여, 차량이 회전할 경우의 진행방향의 최대 변화량(θdif_main)과 차량 앞면방향의 최대 변화량(θdif_sub)을 산출하고, 연산한 변화량과 상기 추정 진행방향 각도 정보의 변화량을 이용하여, 차량이 직진할 경우의 진행방향과 현재 진행방향의 차이값(θdelta_main)과, 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값(θdelta_sub)을 산출하고, 차이값들을 이용하여, 상기 추정 앞면방향 각도 정보를 연산하는 것이 바람직하다.Further, the
더 나아가, 상기 최종 연산부(250)는 상기 제1, 제2 기본 앞면길이 정보들의 길이차(Ldif_sub)를 연산하고, 연산한 길이차와 상기 차량 앞면방향의 최대 변화량, 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값을 이용하여, 차량이 회전할 경우의 앞면길이 변화량(Ldelta_sub)을 산출하고, 상기 현재 위치에서 직진할 경우에 대한 차량의 앞면길이 정보와 차량이 회전할 경우의 앞면길이 변화량을 이용하여 상기 추정 앞면길이 정보를 연산하는 것이 바람직하다.Further, the
본 발명의 또다른 일 실시예에 따른 영상 내 차량위치 산출 방법은, 영상 취득부에서, 교차로 내부의 기설정된 구역을 촬영하여 영상 데이터를 취득하는 영상 취득단계(S100), 통합 분석부에서, 상기 영상 취득단계(S100)에 의해 취득한 상기 영상 데이터를 전송받아 이를 분석하여 영상 내 위치한 차량들의 관련 정보들을 연산하여, 각 차량의 최종 위치정보(Xcar, Ycar)를 판단하는 분석단계(S200)로 이루어지며, 상기 영상 취득단계(S100)는 광학 센서(optical sensor)를 포함하는 카메라(IP camera)로 영상 데이터를 취득하는 것이 바람직하다.According to another embodiment of the present invention, a method for calculating a vehicle location in an image includes, in an image acquisition unit, an image acquisition step (S100) of acquiring image data by photographing a preset area inside an intersection, in an integrated analysis unit, the Consists of an analysis step (S200) of receiving the image data acquired by the image acquisition step (S100), analyzing it, calculating related information of vehicles located in the image, and determining the final location information (Xcar, Ycar) of each vehicle. In the image acquisition step (S100), it is preferable to acquire image data with an IP camera including an optical sensor.
더 나아가, 상기 분석단계(S200)는 전송받은 상기 영상 데이터에 포함되어 있는 적어도 하나의 영상 프레임을 이용하여, 상기 영상 프레임 내에 포함되어 있는 차선 객체 정보들을 추출하고, 상기 영상 프레임의 고정된 x, y 좌표를 기준으로 각각의 차선 방향에 따라 차량의 진행방향 각도(θhor, θver)를 연산하여 초기각도 정보로 설정하며, 각각의 차선 방향에 따라 차량의 진행에 의한 차량의 앞면길이를 연산하여, 초기길이 정보로 설정하는 초기 설정단계(S210), 전송받은 상기 영상 데이터에 포함되어 있는 영상 프레임들을 순차적으로 이용하여, 기설정된 차량의 중심점을 기준으로 기설정된 영역크기(x, y, w, h)를 갖으며, 각각의 상기 영상 프레임 내에 포함되어 있는 적어도 하나의 차량 객체 정보를 추출하는 차량 탐지단계(S220), 상기 차량 탐지단계(S220)에 의해, 특정 영상 프레임(i번째 프레임)에서 추출한 특정 차량 객체 정보(P x(i), y(i), w(i), h(i))와 특정 영상 프레임의 다음 영상 프레임(i+1 번째 프레임)에서 추출한 특정 차량 객체 정보(P x(i+1), y(i+1), w(i+1), h(i+1))를 비교하여, 상기 차량의 진행방향에 따른 각도(θmain)를 연산하여, 추정 진행방향 각도 정보로 설정하는 차량 추정단계(S230), 상기 초기 설정단계(S210)에 의해 설정한 상기 초기각도 정보와, 상기 차량 추정단계(S230)에 의해 설정한 상기 추정 진행방향 각도 정보를 비교하여, 상기 차량이 현재 위치에서 직진할 경우의 진행방향 각도(θbase_main)와, 차량의 앞면방향 각도(θbase_sub)를 연산하여, 기본 진행방향 각도 정보와 기본 앞면방향 각도 정보로 설정하며, 상기 차량 탐지단계(S220)에 의해 추출한 상기 차량 객체 정보를 이용하여, 상기 차량이 현재 위치에서 회전되었을 경우에 대한 차량의 앞면길이(Lbase_main), 상기 차량이 현재 위치에서 직진할 경우에 대한 차량의 앞면길이(Lbase_sub)를 연산하여, 제1, 제2 기본 앞면길이 정보로 설정하는 차량위치 보정단계(S240) 및 상기 차량 추정단계(S230)와 상기 차량위치 보정단계(S240)에 의해 연산한 상기 차량의 관련 정보들을 이용하여, 상기 차량의 추정 앞면방향 각도 정보(θsub), 추정 앞면길이 정보(Lsub)를 추정하여, 기설정된 수식에 적용하여 최종 차량위치 정보(Xcar, Ycar)를 연산하는 최종 연산단계(S250)를 포함하여 구성되는 것이 바람직하다.Furthermore, in the analysis step (S200), by using at least one image frame included in the transmitted image data, lane object information included in the image frame is extracted, and fixed x of the image frame, Based on the y-coordinate, the vehicle's travel direction angles (θhor, θver) are calculated according to each lane direction and set as initial angle information, and the front length of the vehicle due to the vehicle's progress is calculated according to each lane direction, The initial setting step of setting the initial length information (S210), by sequentially using the image frames included in the transmitted image data, a preset area size (x, y, w, h) based on a preset center point of the vehicle. ), and extracted from a specific image frame (i-th frame) by the vehicle detection step (S220) of extracting at least one vehicle object information included in each of the image frames, and the vehicle detection step (S220). Specific vehicle object information (P x(i), y(i), w(i), h(i)) and specific vehicle object information extracted from the next video frame (i+1th frame) of a specific video frame (P x (i+1), y(i+1), w(i+1), h(i+1)) are compared, and the angle θmain according to the traveling direction of the vehicle is calculated, and the estimated traveling direction angle By comparing the initial angle information set by the vehicle estimating step (S230) and the initial setting step (S210) of setting information with the estimated traveling direction angle information set by the vehicle estimating step (S230), the When the vehicle goes straight from the current position, the driving direction angle (θbase_main) and the front direction angle (θbase_sub) of the vehicle are calculated and set as basic travel direction angle information and basic front direction angle information, and the vehicle detection step (S220) Using the vehicle object information extracted by ), the front length of the vehicle (Lbase_main) when the vehicle is rotated at the current position, and the front length of the vehicle when the vehicle goes straight from the current position (Lbase_su b) is calculated and the vehicle position correction step (S240) of setting the first and second basic front length information, and the relationship of the vehicle calculated by the vehicle estimating step (S230) and the vehicle position correction step (S240) Using the information, a final calculation step of calculating the final vehicle position information (Xcar, Ycar) by estimating the estimated front direction angle information (θsub) and the estimated front length information (Lsub) of the vehicle and applying it to a preset equation ( S250) is preferably configured to include.
더 나아가, 상기 최종 연산단계(S250)는 상기 기본 진행방향 각도 정보와 기본 앞면방향 각도 정보의 각도차를 연산하여, 차량이 회전되었을 경우의 진행방향의 최대 변화량(θdif_main)과 차량 앞면방향의 최대 변화량(θdif_sub)을 산출하고, 연산한 변화량과 상기 추정 진행방향 각도 정보의 변화량을 이용하여, 차량이 직진할 경우의 진행방향과 현재 진행방향의 차이값(θdelta_main)과, 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값(θdelta_sub)을 산출하고, 차이값들을 이용하여, 상기 추정 앞면방향 각도 정보를 연산하며, 상기 제1, 제2 기본 앞면길이 정보들의 길이차(Ldif_sub)를 연산하고, 연산한 길이차와 상기 차량 앞면방향의 최대 변화량, 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값을 이용하여, 차량이 회전되었을 경우의 앞면길이 변화량(Ldelta_sub)을 산출하고, 상기 현재 위치에서 직진할 경우에 대한 차량의 앞면길이 정보와 차량이 회전되었을 경우의 앞면길이 변화량을 이용하여 상기 추정 앞면길이 정보를 연산하는 것이 바람직하다.Further, the final calculation step (S250) calculates the angle difference between the basic travel direction angle information and the basic front direction angle information, and the maximum change amount θdif_main in the driving direction when the vehicle is rotated and the maximum amount of the vehicle front direction. Calculate the amount of change (θdif_sub), and using the calculated amount of change and the amount of change in the estimated heading direction angle information, the difference value (θdelta_main) between the moving direction when the vehicle goes straight and the current driving direction, and when the vehicle goes straight Calculate the difference value (θdelta_sub) between the front direction and the current front direction, calculate the estimated front direction angle information using the difference values, and calculate the length difference (Ldif_sub) between the first and second basic front length information And, using the calculated length difference and the maximum change in the front direction of the vehicle, and the difference between the front direction when the vehicle goes straight and the current front direction, the front length change amount (Ldelta_sub) when the vehicle is rotated is calculated, It is preferable to calculate the estimated front length information by using the front length information of the vehicle when going straight from the current position and the amount of change in the front length when the vehicle is rotated.
본 발명의 다른 일 실시예에 따른 영상 내 차량위치 산출 방법을 이용한 교통량 분석 시스템은, 영상 내 차량위치 산출 방법에 의해, 영상 내 위치한 차량들의 최종 위치정보를 판단하는 차량위치 판단부(1000) 및 상기 차량위치 판단부(1000)에서 판단한 상기 차량의 최종 위치정보들을 이용하여, 교통량을 분석하는 교통량 분석부(2000)를 포함하여 구성되며, 상기 교통량 분석부(2000)는 외부의 요청에 따라, 분석한 교통량 관련 정보들을 전송하는 것이 바람직하다.A traffic volume analysis system using a vehicle position calculation method in an image according to another embodiment of the present invention includes a vehicle
더 나아가, 상기 교통량 분석부(2000)는 상기 차량위치 판단부(1000)에서 판단한 상기 차량의 최종 위치정보들을 이용하여, 교차로 내부의 각 방향별 차량들의 이동량과 평균속도를 분석하여, 교통량을 분석하는 것이 바람직하다.Furthermore, the traffic
더 나아가, 상기 교통량 분석부(2000)는 상기 차량위치 판단부(1000)에서 판단한 상기 차량의 최종 위치정보들을 이용하여, 특정 차량이 기설정된 시간동안 위치 변화가 발생하지 않을 경우, 해당 차량의 문제가 발생한 것으로 판단하는 것이 바람직하다.Furthermore, the traffic
상기와 같은 구성에 의한 본 발명의 영상 내 차량위치 산출 장치 및 그 방법, 이를 이용한 교통량 분석 시스템은, 교차로 외부 일측에 광학 센서를 포함하는 IP camera를 설치하여, 영상 데이터를 취득함으로써, 기존의 교통데이터를 수집하는 루프검지기 또는 영상기반 검지기가 갖는 문제점을 해소할 수 있는 장점이 있다.The vehicle location calculation apparatus and method of the present invention according to the above configuration, and a traffic volume analysis system using the same, install an IP camera including an optical sensor on one side outside an intersection to acquire image data, There is an advantage of solving the problems of a loop detector or an image-based detector that collects data.
또한, 교차로 등을 촬영한 영상 데이터가 해당 교차로의 중심점이 되는 곳에서 촬영할 수 없기 때문에, 영상에서 촬영된 차량의 실제 지도 좌표계로 변환하여 정확한 위치정보를 제공함으로써, 교차로 내부 통과량, 회전량 등을 판단할 수 있어 도로 상의 교통정보/교통상황을 실시간으로 제공할 수 있는 장점이 있다.In addition, since image data photographing an intersection, etc. cannot be photographed at the center point of the intersection, it is converted into the actual map coordinate system of the vehicle photographed in the image and provides accurate location information, such as the amount of passage inside the intersection, the amount of rotation, etc. It has the advantage of being able to provide traffic information/traffic conditions on the road in real time.
이를 통해서, 도로혼잡, 교통혼잡 등에 따른 신호체계를 실시간으로 제어할 수 있어, 교통 시스템의 효율성을 향상시킬 수 있는 장점이 있다.Through this, since it is possible to control a signal system according to road congestion, traffic congestion, etc. in real time, there is an advantage of improving the efficiency of the transportation system.
더불어, 교차로 등의 내부의 돌방상황까지 비교적 정확하게 판단할 수 있어, 진입 예정의 차량을 제어할 수 있는 장점이 있다.In addition, there is an advantage in that it is possible to relatively accurately determine a turning situation inside an intersection or the like, thereby controlling a vehicle to be entered.
도 1은 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치의 도로 상에 위치시킬 경우의 구성 예시도이다.
도 3은 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치의 초기 설정부(210)에서의, 기준각도 설정 예시도이다.
도 4는 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치의 차량 탐지부(220)에서의, 차량객체정보 추출 예시도이다.
도 5는 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치의 차량위치 보정부(240), 최종 연산부(250)에서의, 각도 추출 예시도이다.
도 6 및 도 7은 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치의 차량 위치 연산 예시도이다.
도 8은 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 방법의 순서도이다.
도 9는 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치를 이용한 교통량 분석 시스템의 구성도이다.1 is a block diagram of an apparatus for calculating a vehicle position in an image according to an exemplary embodiment of the present invention.
FIG. 2 is a diagram illustrating a configuration of an apparatus for calculating a vehicle position in an image according to an exemplary embodiment of the present invention.
3 is an exemplary view of setting a reference angle in the
4 is an exemplary diagram illustrating extraction of vehicle object information by the
FIG. 5 is an exemplary diagram of angle extraction in the vehicle
6 and 7 are exemplary diagrams for calculating a vehicle position by an apparatus for calculating a vehicle position in an image according to an exemplary embodiment of the present invention.
8 is a flowchart of a method of calculating a vehicle position in an image according to an embodiment of the present invention.
9 is a block diagram of a traffic volume analysis system using an apparatus for calculating a vehicle position in an image according to an embodiment of the present invention.
이하 첨부한 도면들을 참조하여 본 발명의 영상 내 차량위치 산출 장치 및 그 방법, 이를 이용한 교통량 분석 시스템을 상세히 설명한다. 다음에 소개되는 도면들은 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 예로서 제공되는 것이다. 따라서, 본 발명은 이하 제시되는 도면들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 또한, 명세서 전반에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다.Hereinafter, an apparatus for calculating a vehicle position in an image, a method thereof, and a traffic volume analysis system using the same according to the present invention will be described in detail with reference to the accompanying drawings. The drawings introduced below are provided as examples in order to sufficiently convey the spirit of the present invention to those skilled in the art. Accordingly, the present invention is not limited to the drawings presented below and may be embodied in other forms. In addition, the same reference numbers throughout the specification indicate the same elements.
이 때, 사용되는 기술 용어 및 과학 용어에 있어서 다른 정의가 없다면, 이 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 통상적으로 이해하고 있는 의미를 가지며, 하기의 설명 및 첨부 도면에서 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 설명은 생략한다.In this case, unless there are other definitions in the technical terms and scientific terms used, they have the meanings commonly understood by those of ordinary skill in the art to which this invention belongs, and the gist of the present invention in the following description and accompanying drawings A description of known functions and configurations that may unnecessarily obscure will be omitted.
더불어, 시스템은 필요한 기능을 수행하기 위하여 조직화되고 규칙적으로 상호 작용하는 장치, 기구 및 수단 등을 포함하는 구성 요소들의 집합을 의미한다.In addition, the system refers to a set of components including devices, devices, and means that are organized and regularly interact to perform a required function.
ITS(지능형 교통 시스템, Intelligent Transportation System)이란, 정보통신 기술을 통해 교통정보를 수집하여 운전자나, 여행자, 교통 정책 수집자 등에게 제공함으로써, 편리한 통행과, 교통체계 전체의 효율성을 극대화하기 위한 교통 시스템이다. 도로 상의 교통정보를 실시간으로 제공하는 것은, 별도의 신호체계의 제어 없이도, 교통정보의 제공 그 자체만으로도 운영자 측면의 수요관리와 교통 시스템의 효율성을 향상시키고, 이용자의 통행시간 절감이나 운행비용절감 등의 편익이 발생하는 장점이 있다.ITS (Intelligent Transportation System) is a transportation system that collects traffic information through information and communication technology and provides it to drivers, travelers, and traffic policy collectors. System. Providing traffic information on the road in real time, without controlling a separate signal system, improves the demand management of the operator and the efficiency of the traffic system, and reduces travel time or operating cost by providing traffic information itself. There is an advantage that the benefits of
특히, 교차로에서의 교통사고는 전체 교통사고 중 13%에 해당할 정도로 많이 발생하고 있으며, 이를 감안하여, 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치 및 그 방법, 이를 이용한 교통량 분석 시스템을 통해서, 교차로 내부의 교통상황을 미리 추정하고 이를 제공함으로써, 교통사고를 미연에 방지하여 사고율을 낮출 수 있는 장점이 있다.In particular, traffic accidents at intersections are occurring as many as 13% of the total traffic accidents, and taking this into account, the apparatus and method for calculating the vehicle location in the image according to an embodiment of the present invention, and a traffic volume analysis system using the same Through this, there is an advantage of lowering the accident rate by preventing traffic accidents in advance by estimating and providing the traffic conditions inside the intersection in advance.
이를 위해, 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치 및 그 방법, 이를 이용한 교통량 분석 시스템은, 1. 딥러닝을 이용한 차량 객체 검출을 수행함으로써, 실시간 차량 객체 검출이 가능하며, 부정확성을 해소하기 위하여 칼만필터를 이용하여 보정하는 것이 바람직하다.To this end, the apparatus and method for calculating a vehicle position in an image according to an embodiment of the present invention, and a traffic analysis system using the same, 1. By performing vehicle object detection using deep learning, real-time vehicle object detection is possible, and inaccuracy It is preferable to correct using a Kalman filter to solve the problem.
또한, 2. 영상처리기법을 이용한 차량 객체의 이동방향을 추적함으로써, 이전 프레임과 현재 프레임 간의 객체들의 위치관계를 이용하여 차량의 이동방향을 추적함으로써, 좀 더 정확한 교통량을 분석할 수 있는 장점이 있다.In addition, 2. By tracking the moving direction of the vehicle object using an image processing technique, it is advantageous to analyze more accurate traffic volume by tracking the moving direction of the vehicle using the positional relationship of objects between the previous frame and the current frame. have.
마지막으로, 3. 차량의 위치에 따른 기본각 및 차량의 앞면 길이를 이용하여, 차량의 위치를 좌표로 연산할 수 있어, 영상에서의 픽셀 좌표를 실세계의 위경도 좌표계로 변환하여, 좀 더 정확한 교통량을 분석할 수 있는 장점이 있다.Finally, 3. By using the base angle according to the vehicle's position and the length of the front side of the vehicle, the position of the vehicle can be calculated as a coordinate, and the pixel coordinates in the image can be converted into a real-world latitude and longitude coordinate system. There is an advantage of being able to analyze traffic volume.
이를 통해서, 기존의 영상처리방식의 문제점인, 두 대 이상의 차량이 비슷한 경로로 이동할 경우, 단일차량으로 검출되는 문제점이나, 주행하는 차량의 그림자로 인하여 다른 차선에도 차량이 존재하는 것처럼 검출되는 문제점을 해소할 수 있으며, 실시간 교통량을 파악함으로써, 실시간 도로 혼잡, 교통 혼잡을 효과적으로 관리할 수 있다.Through this, when two or more vehicles move in a similar path, which is a problem of the existing image processing method, a problem that is detected as a single vehicle, or a problem that is detected as if a vehicle exists in another lane due to the shadow of the driving vehicle is solved. It can be resolved, and by grasping the real-time traffic volume, real-time road congestion and traffic congestion can be effectively managed.
특히, 자율주행 차량이 주행하면서 필요한 정보를 교차로에 도착하기 전에 사전에 제공받음으로써, 자율주행 정책에 도움을 줄 수 있는 장점이 있다.In particular, there is an advantage of being able to help the autonomous driving policy by receiving necessary information before arriving at the intersection while the autonomous vehicle is driving.
이러한, 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치는 도 1에 도시된 바와 같이, 영상 취득부(100), 통합 분석부(200)를 포함하여 구성되는 것이 바람직하다.As shown in FIG. 1, the apparatus for calculating a vehicle location in an image according to an exemplary embodiment of the present invention is preferably configured to include an
각 구성에 대해서 자세히 알아보자면,To learn more about each configuration,
상기 영상 취득부(100)는 교차로 주변에 소정높이를 갖는 미리 설정된 영역에 설치되어, 교차로 내부의 미리 설정된 구역을 촬영하여 영상 데이터를 취득하는 것이 바람직하다. 이 때, 상기 영상 취득부(100)는 광학 센서(optical sensor)를 포함하는 카메라(IP camera)를 포함하여 구성되는 것이 바람직하다.It is preferable that the
상세하게는, 상기 영상 취득부(100)는 도 2에 도시된 바와 같이, 교차로 외부의 독립 지주나 신호등 또는 가로등 지주에 설치되어, 교차로 내부의 일정한 영역을 촬영하는 것이 바람직하다.Specifically, as shown in FIG. 2, the
이 때, 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치에서, 교차로 내부를 촬영하여 교통량을 파악하는 이유는, 도로 모든 곳에 대한 교통량을 감지하는 수단을 구비하기에는, 현실적으로 불가능하지만, 도로는 크게 놓고 보았을 때, 교차로의 연속으로, 교차로에서 각 방향으로 분기되어 교통 흐름이 이어지기 때문에, 각 교차로를 모니터링함으로써, 교차로 간 이어지는 나머지 부분을 예측할 수 있기 때문이다.At this time, in the apparatus for calculating the vehicle position in the image according to an embodiment of the present invention, the reason for determining the traffic volume by photographing the interior of the intersection is that it is practically impossible to provide a means for detecting the traffic volume for all places on the road. This is because, when viewed in a larger way, traffic flow is continued by branching from the intersection in each direction in a series of intersections, and by monitoring each intersection, the remaining parts of the intersection can be predicted.
그렇기 때문에, 상기 영상 취득부(100)를 통해서, 교차로 내부의 일정한 영역, 즉 교차로 내부의 통과량과 회전량을 알 수 있는 영역을 설정하여 해당 영역의 차량 움직임을 분석하는 것이 가장 바람직하다.Therefore, it is most preferable to set a certain area inside the intersection through the
다만, 상술한 바와 같이, 상기 영상 취득부(100)에서 취득한 영상을 그대로 활용하기에는, 도 2에 도시된 바와 같이, 카메라가 교차로의 중심부 한가운데 설치되는 것은 현실적으로 거의 불가능하고, 일측에 치우쳐진 상태로 영상 데이터를 취득하게 된다.However, as described above, in order to use the image acquired by the
이 경우, 도 4, 도 6 및 도 7에 도시된 바와 같이, 교차로의 형태가 영상 데이터의 x축, y축과 정확히 맞지 않고 영상 자체가 틀어진 채로 나타나게 된다.In this case, as shown in FIGS. 4, 6, and 7, the shape of the intersection does not exactly match the x-axis and y-axis of the image data, and the image itself appears to be distorted.
이에 따라, 상기 통합 분석부(200)를 통해서, 영상 내 차량의 움직임을 판단하여, 그 움직임을 추정할 뿐 아니라, 기본적으로 영상 자체를 정확한 위경도 좌표계로 변환할 수 있다.Accordingly, through the
즉, 상기 통합 분석부(200)는 상기 영상 취득부(100)와 네트워크 연결되어, 상기 영상 취득부(100)로부터 상기 영상 데이터를 전송받아, 이를 분석하여 영상 내 위치한 차량들의 관련 정보들을 연산할 수 있다.That is, the
이를 위해, 상기 통합 분석부(200)는 도 1에 도시된 바와 같이, 초기 설정부(210), 차량 탐지부(220), 차량 추정부(230), 차량위치 보정부(240) 및 최종 연산부(250)를 포함하여 구성되는 것이 바람직하다.To this end, the
상기 초기 설정부(210)는 전송받은 상기 영상 데이터에 포함되어 있는 적어도 하나의 영상 프레임을 이용하여, 상기 영상 프레임 내에 포함되어 있는 차선 객체 정보들을 추출하는 것이 바람직하다.It is preferable that the
이 때, 전송받은 상기 영상 데이터에 포함되어 있는 적어도 하나의 영상 프레임은, 가장 바람직하게는 첫 번째 영상 프레임이다.At this time, at least one image frame included in the transmitted image data is most preferably a first image frame.
상기 초기 설정부(210)를 통해서, 도 3, 도 4, 도 6 및 도 7에 도시된 바와 같이, 특히, 도 3에 도시된 바와 같이, 영상 데이터의 x축, y축과 차량의 수직, 수평방향의 이동이 일치하지 않기 때문에 이를 보정하기 위한 연산을 수행하는 것이 바람직하다.Through the
상세하게는, 상기 초기 설정부(210)는 미리 설정되어 있는 딥러닝 모델을 이용하여 상기 영상 프레임 내에 포함되어 있는 차선 객체 정보들을 추출하고, 미리 설정된 상기 영상 프레임의 고정된 x, y 좌표를 기준으로 각각의 차선 방향에 따라 차량의 진행방향 각도(θhor, θver)를 연산하여 초기각도 정보로 설정하는 것이 바람직하다.In detail, the
또한, 상기 초기 설정부(210)는 각각의 차선 방향에 따라 차량의 진행에 의한 차량의 앞면길이(Lhor, Lver)를 연산하여 초기길이 정보로 설정하는 것이 바람직하다.In addition, it is preferable that the
즉, 도 3, 도 5의 a)에서 각도로 표시된 바와 같이, 상기 영상 프레임의 x, y축 대비, 상기 차선 객체 정보들이 향하고 있는 축을 판단하여, 차량이 차선을 따라 수평방향으로 직진할 경우의 진행방향 각도(θhor)를 연산할 수 있으며, 차량이 차선을 따라 수직방향으로 직진할 경우의 진행방향 각도(θver)를 연산할 수 있다.That is, as indicated by angles in FIGS. 3 and 5A), when the vehicle goes straight horizontally along the lane by determining the axis to which the lane object information is directed compared to the x and y axes of the image frame. The traveling direction angle θhor can be calculated, and the traveling direction angle θver can be calculated when the vehicle goes straight along the lane in the vertical direction.
뿐만 아니라, 차량이 차선을 따라 수평방향으로 직진할 경우의 차량의 앞면 길이(Lhor)와 차량이 차선을 따라 수직방향으로 직진할 경우의 차량의 앞면 길이(Lver)를 연산할 수 있다.In addition, it is possible to calculate the front length Lhor of the vehicle when the vehicle travels horizontally along the lane and the front length Lver of the vehicle when the vehicle travels vertically along the lane.
다시 말하자면, 상기 초기 설정부(210)는 영상 프레임 내에 차량의 존재 여부와는 무관하며, 영상 데이터의 정확성을 높이기 위하여 영상 프레임과 교차로 간의 틀어진 각도를 연산하는 것이 바람직하다.In other words, the
상기 차량 탐지부(220)는 전송받은 상기 영상 데이터에 포함되어 있는 영상 프레임들을 순차적으로 이용하여, 각각의 상기 영상 프레임 내에 포함되어 있는 적어도 하나의 차량 객체 정보를 추출하는 것이 바람직하다.Preferably, the
즉, 상기 차량 탐지부(220)는 도 4에 도시된 바와 같이, 미리 설정되어 있는 딥러닝 모델을 이용하여 상기 영상 프레임 내에 포함되어 있는 상기 차량 객체 정보를 추출할 수 있다.That is, as shown in FIG. 4, the
이 때, 상기 차량 객체 정보는 도 4에 도시된 바와 같이, 사각형 형태로서, 미리 설정된 차량의 중심점을 기준으로 미리 설정된 영역크기(x, y, w, h)를 갖도록 추출하는 것이 바람직하다.In this case, it is preferable to extract the vehicle object information to have a preset area size (x, y, w, h) based on a preset center point of the vehicle in a rectangular shape as shown in FIG. 4.
또한, 상기 차량 탐지부(220)는 영상 프레임의 순서대로, 즉, 순차적으로, 각각의 영상 프레임 내에 포함되어 있는 차량 객체 정보를 추출하는 것이 바람직하다.In addition, it is preferable that the
이를 통해서, 상기 차량 추정부(230)는 상기 차량 탐지부(220)에서 추출한 하나의 차량 객체 정보에 대한 두 개의 영상 프레임 내에 포함되어 있는 정보들을 비교하여, 차량의 진행방향을 연산하여 추정 진행방향 각도 정보로 설정할 수 있다.Through this, the
상세하게는, 상기 차량 추정부(230)는 도 5의 b)에서 각도로 표시된 바와 같이, 상기 차량 탐지부(220)에서 특정 영상 프레임(i번째 프레임)에서 추출한 특정 차량 객체 정보(P x(i), y(i), w(i), h(i))와 특정 영상 프레임의 다음 영상 프레임(i+1번째 프레임)에서 추출한 동일한 특정 차량에 대한 차량 객체 정보(P x(i+1), y(i+1), w(i+1), h(i+1))를 비교하여, 상기 차량의 진행방향에 따른 각도(θmain)를 연산하여, 상기 추정 진행방향 정보로 설정하는 것이 바람직하다.In detail, the
이 때, 상기 차량 추정부(230)는 미리 설정된 코드 함수연산을 이용하여 차량의 진행방향에 따는 추정각도를 계산하는 것이 바람직하며, 미리 설정된 코드 함수연산은 하기의 수학식 1과 같다.In this case, it is preferable that the
여기서, i는 1이상의 자연수임.Where i is a natural number greater than or equal to 1.
상기 차량위치 보정부(240)는 상기 초기 설정부(210)에서 설정한 상기 초기각도 정보와 상기 차량 추정부(230)에서 설정한 상기 추정 진행방향 각도 정보를 비교하여, 상기 차량이 현재 위치에서 직진할 경우의 진행방향 각도(θbase_main)와, 차량의 앞면방향 각도(θbase_sub)를 연산하여, 기본 진행방향 각도 정보와 기본 앞면방향 각도 정보로 설정하는 것이 바람직하다.The vehicle
물론, 상기 차량위치 보정부(240)는 상기 차량 탐지부(220)에서 추출한 상기 차량 객체 정보를 이용하여, 상기 차량이 현재 위치에서 회전되었을 경우에 대한 차량의 앞면길이(Lbase_main), 상기 차량이 현재 위치에서 직진할 경우에 대한 차량의 앞면길이(Lbase_sub)를 연산하여, 제1, 제2 기본 앞면길이 정보로 설정하는 것이 바람직하다.Of course, the vehicle
다시 말하자면, 상기 차량위치 보정부(240)는 상기 초기각도 정보와 상기 추정 진행방향 각도 정보를 이용하여, 기본정보(기본 진행방향 각도 정보, 기본 앞면방향 각도 정보, 제1 기본 앞면길이 정보, 제2 기본 앞면길이 정보)들을 설정하는 것으로, 미리 설정된 코드 함수연산을 이용하여 기본정보들을 계산하는 것이 바람직하며, 미리 설정된 코드 함수연산은 하기의 수학식 2와 같다.In other words, the vehicle
상기 차량위치 보정부(240)는 상기의 수학식 2의 코드 함수연산을 수행하여, 비교된 값 중 작은 값의 방향을 상기 차량이 현재 위치에서 직진할 경우의 진행방향 각도(θbase_main)로, 상기 차량이 현재 위치에서 회전되었을 경우에 대한 차량의 앞면길이(Lbase_main)로 설정하는 것이 바람직하며,The vehicle
이와 반대방향을 상기 차량이 현재 위치에서 직진할 경우의 차량의 앞면방향 각도(θbase_sub), 상기 차량이 현재 위치에서 직진할 경우에 대한 차량의 앞면길이(Lbase_sub)로 설정하는 것이 바람직하다.It is preferable to set the opposite direction as the vehicle's front direction angle (θbase_sub) when the vehicle goes straight from the current position and the vehicle's front length (Lbase_sub) when the vehicle goes straight from the current position.
상기 최종 연산부(250)는 상기 차량 추정부(230)와 차량위치 보정부(240)에서 연산한 상기 차량의 관련 정보들을 이용하여, 상기 차량의 추정 앞면방향 각도 정보(θsub), 추정 앞면길이 정보(Lsub)를 추정하여, 미리 설정된 수학식에 적용하여 최종 차량위치 정보(Xcar, Ycar)를 연산하는 것이 바람직하다.The
상세하게는, 도 5의 c)에서 각도로 표시된 바와 같이, 상기 최종 연산부(250)는 상기 기본 진행방향 각도 정보(θbase_main)와 기본 앞면방향 각도 정보(θbase_sub)를 이용하여, 하기의 수학식 3에 적용하여 각도차를 연산함으로써, 차량이 회전되었을 경우의 진행방향의 최대 변화량(θdif_main)과 차량 앞면방향의 최대 변화량(θdif_sub)을 산출하는 것이 바람직하다.In detail, as indicated by an angle in FIG. 5C, the
더불어, 상기 최종 연산부(250)는 도 5의 d)에서 각도로 표시된 바와 같이, 상기 기본 진행방향 각도 정보(θbase_main)와 상기 추정 진행방향 정보(θmain)의 변화량을 이용하여, 하기의 수학식 4에 적용하여 차량이 직진할 경우의 진행방향과 현재 진행방향의 차이값(θdelta_main)을 산출하는 것이 바람직하다.In addition, the
또한, 상기 최종 연산부(250)는 도 5의 d)에서 각도로 표시된 바와 같이, 상기 차량이 직진할 경우의 진행방향과 현재 진행방향의 차이값(θdelta_main), 차량이 회전되었을 경우의 진행방향의 최대 변화량(θdif_main), 차량이 회전되었을 경우의 차량 앞면방향의 최대 변화량(θdif_sub)을 이용하여, 하기의 수학식 5에 적용하여 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값(θdelta_sub)을 산출하는 것이 바람직하다.In addition, the
상기 최종 연산부(250)는 도 5의 e)에서 각도로 표시된 바와 같이, 상기 기본 앞면방향 각도 정보(θbase_sub)와, 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값(θdelta_sub)을 이용하여, 하기의 수학식 6에 적용하여 상기 추정 앞면방향 각도 정보(θsub)를 산출하는 것이 바람직하다.The
분만 아니라, 상기 최종 연산부(250)는 상기 제1 기본 앞면길이 정보(Lbase_main), 제2 기본 앞면길이 정보(Lbase_sub)를 이용하여, 하기의 수학식 7에 적용하여 길이차(Ldif_sub)를 연산하고,In addition to delivery, the
연산한 길이차(Ldif_sub), 차량이 회전되었을 경우의 차량 앞면방향의 최대 변화량(θdif_sub), 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값(θdelta_sub)을 이용하여 하기의 수학식 8에 적용하여 차량이 회전되었을 경우의 앞면길이 변화량(Ldelta_sub)을 산출하는 것이 바람직하다.
또한, 상기 최종 연산부(250)는 상기 제2 기본 앞면길이 정보(Lbase_sub), 차량이 회전되었을 경우의 앞면길이 변화량(Ldelta_sub)을 이용하여 하기의 수학식 9에 적용하여 상기 추정 앞면길이 정보(Lsub)를 산출하는 것이 바람직하다.In addition, the
마지막으로, 상기 최종 연산부(250)는 상기 추정 진행방향 정보(θmain), 추정 앞면방향 각도 정보(θsub), 추정 앞면길이 정보(Lsub)들을 이용하여 차량 바닥면의 x, y 위치를 계산하여 차량의 최종 위치정보(Xcar, Ycar)를 산출하는 것이 바람직하며, 하기의 수학식 10에 적용하여 산출할 수 있다.Finally, the
더불어, 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치는 영상 내 포함되어 있는 차량의 이동 경로를 추적하기 위하여, 상기 영상 데이터 내에 포함되어 있는 마지막 영상 프레임까지 동작을 반복 수행하는 것이 가장 바람직하다.In addition, it is most preferable that the apparatus for calculating a vehicle position in an image according to an embodiment of the present invention repeatedly performs an operation up to the last image frame included in the image data in order to track the moving path of the vehicle included in the image. Do.
즉, 다시 말하자면, 도 6 및 도 7에 도시된 바와 같이, 다수의 영상 프레임 내에 포함되어 있는 하나의 차량을 특정하여 분석할 경우,That is, in other words, as shown in FIGS. 6 and 7, when specifying and analyzing one vehicle included in a plurality of image frames,
노란박스 내의 차량은 상기 차량 탐지부(220)를 통해서 딥러닝을 이용한 차량객체 탐지 결과를 의미하며, 차량의 이동에 따라 표시된 하얀 선은 상기 차량 추정부(230)를 통해서 다수의 영상 프레임을 비교하여 판단한 차량 객체의 이동경로 결과를 의미하며, 검은 선은 상기 최종 연산부(250)를 통해서 다수의 영상 프레임을 비교하여 판단한 차량 객체의 추정 이동경로 결과(추정된 바닥 중심점의 이동경로 결과)를 의미하며, 차량 객체에 표시된 빨간 선은 상기 차량 객체의 기본 진행방향 각도 정보(θbase_main)를 의미하며, 차량 객체에 표시된 파란 선은 상기 차량 객체의 앞면방향 각도(θbase_sub)를 의미하며, 차량 객체에 표시된 주황 선은 상기 차량 객체의 추정 진행방향 정보(θmain)를 의미하며, 차량 객체에 표시된 하늘색 선은 상기 차량 객체의 추정 앞면방향 각도 정보(θsub)를 의미함을 알 수 있다.The vehicle in the yellow box refers to a vehicle object detection result using deep learning through the
이러한 분석을 통해서 차량의 최종 위치정보(Xcar, Ycar)를 산출함으로써, 정확한 차량 위치정보를 다양한 분야에서 제공하여 활용할 수 있다.By calculating the final location information (Xcar, Ycar) of the vehicle through this analysis, accurate vehicle location information can be provided and utilized in various fields.
도 8은 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 방법을 나타낸 순서도이며, 도 8을 참조로 하여 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 방법을 상세히 설명한다.8 is a flowchart showing a method of calculating a vehicle position in an image according to an exemplary embodiment of the present invention, and a method of calculating a vehicle position in an image according to an exemplary embodiment of the present invention will be described in detail with reference to FIG. 8.
본 발명의 일 실시예에 따른 영상 내 차량위치 산출 방법은 도 8에 도시된 바와 같이, 영상 취득단계(S100), 분석단계(S200)로 이루어지는 것이 바람직하다.As shown in FIG. 8, the method of calculating the vehicle position in the image according to an embodiment of the present invention preferably includes an image acquisition step (S100) and an analysis step (S200).
각 단계에 대해서 자세히 알아보자면,To learn more about each step,
상기 영상 취득단계(S100)는 상기 영상 취득부(100)에서, 교차로 내부의 미리 설정된 구역을 촬영하여 상기 영상 데이터를 취득하게 된다.In the image acquisition step (S100), the
상기 영상 취득단계(S100)는 교차로 주변에 소정높이를 갖는 미리 설정된 영역에 설치되는 광학 센서(optical sensor)를 포함하는 카메라(IP camera)를 포함하여 구성되는 것이 바람직하다.The image acquisition step (S100) is preferably configured to include a camera (IP camera) including an optical sensor (optical sensor) installed in a predetermined area having a predetermined height around the intersection.
상세하게는, 교차로 외부의 독립 지주나 신호등 또는 가로등 지주에 설치되어, 교차로 내부의 일정한 영역을 촬영하는 것이 바람직하며, 교차로 내부의 일정한 영역, 즉 교차로 내부의 통과량과 회전량을 알 수 있는 영역을 설정하여 해당 영역의 차량 움직임을 분석하는 것이 가장 바람직하다.Specifically, it is desirable to shoot a certain area inside the intersection by being installed on an independent post, traffic light, or street lamp post outside the intersection, and a certain area inside the intersection, that is, an area where you can know the amount of passing and the amount of turn inside the intersection. It is most preferable to set up to analyze the vehicle movement in the corresponding area.
다만, 상술한 바와 같이, 상기 영상 취득단계(S100)에서 취득한 영상을 그대로 활용하기에는, 도 2에 도시된 바와 같이, 카메라가 교차로의 중심부 한가운데 설치되는 것은 현실적으로 거의 불가능하고, 일측에 치우쳐진 상태로 영상 데이터를 취득하게 된다.However, as described above, in order to utilize the image acquired in the image acquisition step (S100) as it is, it is practically impossible for the camera to be installed in the middle of the intersection, as shown in FIG. Video data is acquired.
이 경우, 도 4, 도 6 및 도 7에 도시된 바와 같이, 교차로의 형태가 영상 데이터의 x축, y축과 정확히 맞지 않고 영상 자체가 틀어진 채로 나타나게 된다.In this case, as shown in FIGS. 4, 6, and 7, the shape of the intersection does not exactly match the x-axis and y-axis of the image data, and the image itself appears to be distorted.
이에 따라, 상기 분석단계(S200)를 통해서, 영상 내 차량의 움직임을 판단하여, 그 움직임을 추정할 뿐 아니라, 기본적으로 영상 자체를 정확한 위경도 좌표계로 변환할 수 있다.Accordingly, through the analysis step S200, the movement of the vehicle in the image is determined, the movement thereof is estimated, and the image itself may be converted into an accurate latitude and longitude coordinate system.
상기 분석단계(S200)는 상기 통합 분석부(200)에서, 상기 영상 취득단계(S100)에 의해 취득한 상기 영상 데이터를 전송받아, 이를 분석하여 영상 내 위치한 차량들의 관련 정보들을 연산하여 각 차량의 최종 위치정보(Xcar, Ycar)를 판단하는 것이 바람직하다.In the analysis step (S200), the
상세하게는, 상기 분석단계(S200)는 초기 설정단계(S210), 차량 탐지단계(S220), 차량 추정단계(S230), 차량위치 보정단계(S240) 및 최종 연산단계(S250)를 포함하여 구성되는 것이 바람직하다.In detail, the analysis step (S200) comprises an initial setting step (S210), a vehicle detection step (S220), a vehicle estimation step (S230), a vehicle position correction step (S240), and a final calculation step (S250). It is desirable to be.
상기 초기 설정단계(S210)는 상기 초기 설정부(210)에서, 전송받은 상기 영상 데이터에 포함되어 있는 적어도 하나의 영상 프레임을 이용하여, 상기 영상 프레임 내에 포함되어 있는 차선 객체 정보들을 추출하는 것이 바람직하다.In the initial setting step (S210), it is preferable that the
이 때, 전송받은 상기 영상 데이터에 포함되어 있는 적어도 하나의 영상 프레임은, 가장 바람직하게는 첫 번째 영상 프레임이다.At this time, at least one image frame included in the transmitted image data is most preferably a first image frame.
도 3, 도 4, 도 6 및 도 7에 도시된 바와 같이, 특히, 도 3에 도시된 바와 같이, 영상 데이터의 x축, y축과 차량의 수직, 수평방향의 이동이 일치하지 않기 때문에 이를 보정하기 위한 연산을 수행하는 것이 바람직하다.3, 4, 6, and 7, especially, as shown in FIG. 3, the x-axis and y-axis of the image data and the vertical and horizontal movement of the vehicle do not coincide. It is desirable to perform an operation to correct.
상세하게는, 상기 초기 설정단계(S210)는 미리 설정되어 있는 딥러닝 모델을 이용하여 상기 영상 프레임 내에 포함되어 있는 차선 객체 정보들을 추출하고, 미리 설정된 상기 영상 프레임의 고정된 x, y 좌표를 기준으로 각각의 차선 방향에 따라 차량의 진행방향 각도(θhor, θver)를 연산하여 초기각도 정보로 설정하는 것이 바람직하다.Specifically, the initial setting step (S210) extracts lane object information included in the image frame using a preset deep learning model, and based on the fixed x, y coordinates of the image frame set in advance. As a result, it is preferable to set the initial angle information by calculating the traveling direction angles (θhor, θver) of the vehicle according to each lane direction.
또한, 각각의 차선 방향에 따라 차량의 진행에 의한 차량의 앞면길이(Lhor, Lver)를 연산하여 초기길이 정보로 설정하는 것이 바람직하다.In addition, it is preferable to set the initial length information by calculating the front length (Lhor, Lver) of the vehicle due to the progress of the vehicle according to each lane direction.
즉, 도 3, 도 5의 a)에서 각도로 표시된 바와 같이, 상기 영상 프레임의 x, y축 대비, 상기 차선 객체 정보들이 향하고 있는 축을 판단하여, 차량이 차선을 따라 수평방향으로 직진할 경우의 진행방향 각도(θhor)를 연산할 수 있으며, 차량이 차선을 따라 수직방향으로 직진할 경우의 진행방향 각도(θver)를 연산할 수 있다.That is, as indicated by angles in FIGS. 3 and 5A), when the vehicle goes straight horizontally along the lane by determining the axis to which the lane object information is directed compared to the x and y axes of the image frame. The traveling direction angle θhor can be calculated, and the traveling direction angle θver when the vehicle travels straight along the lane in the vertical direction can be calculated.
뿐만 아니라, 차량이 차선을 따라 수평방향으로 직진할 경우의 차량의 앞면 길이(Lhor)와 차량이 차선을 따라 수직방향으로 직진할 경우의 차량의 앞면 길이(Lver)를 연산할 수 있다.In addition, it is possible to calculate the front length Lhor of the vehicle when the vehicle travels horizontally along the lane and the front length Lver of the vehicle when the vehicle travels vertically along the lane.
다시 말하자면, 상기 초기 설정단계(S210)는 영상 프레임 내에 차량의 존재 여부와는 무관하며, 영상 데이터의 정확성을 높이기 위하여 영상 프레임과 교차로 간의 틀어진 각도를 연산하는 것이 바람직하다.In other words, the initial setting step (S210) is irrelevant to the presence or absence of a vehicle in the image frame, and it is preferable to calculate a twisted angle between the image frame and the intersection in order to increase the accuracy of the image data.
상기 차량 탐지단계(S220)는 상기 차량 탐지부(220)에서, 전송받은 상기 영상 데이터에 포함되어 있는 상기 영상 프레임들을 순차적으로 이용하여, 미리 설정된 차량의 중심점을 기준으로 미리 설정된 영역크기(x, y, w, h)를 갖으면, 각각의 상기 영상 프레임 내에 포함되어 있는 적어도 하나의 차량 객체 정보를 추출하게 된다.In the vehicle detection step S220, the
상세하게는, 상기 차량 탐지단계(S220)는 도 4에 도시된 바와 같이, 미리 설정되어 있는 딥러닝 모델을 이용하여 상기 영상 프레임 내에 포함되어 있는 상기 차량 객체 정보를 추출할 수 있다.In detail, in the vehicle detection step S220, the vehicle object information included in the image frame may be extracted using a preset deep learning model, as shown in FIG. 4.
이 때, 상기 차량 객체 정보는 도 4에 도시된 바와 같이, 사각형 형태로서, 미리 설정된 차량의 중심점을 기준으로 미리 설정된 영역크기(x, y, w, h)를 갖도록 추출하는 것이 바람직하며, 영상 프레임의 순서대로, 즉, 순차적으로, 각각의 영상 프레임 내에 포함되어 있는 차량 객체 정보를 추출하는 것이 바람직하다.In this case, it is preferable to extract the vehicle object information to have a preset area size (x, y, w, h) based on a preset center point of the vehicle in a rectangular shape, as shown in FIG. It is preferable to extract vehicle object information included in each image frame in the order of frames, that is, sequentially.
상기 차량 추정단계(S230)는 상기 차량 추정부(230)에서, 상기 차량 탐지단계(S220)에 의해, 추출한 하나의 차량 객체 정보에 대한 두 개의 영상 프레임 내에 포함되어 있는 정보들을 비교하여, 차량의 진행방향을 연산하여 추정 진행방향 각도 정보로 설정할 수 있다.In the vehicle estimating step (S230), the
상세하게는, 상기 차량 추정단계(S230)는 도 5의 b)에서 각도로 표시된 바와 같이, 상기 차량 탐지단계(S220)에 의해, 특정 영상 프레임(i번째 프레임)에서 추출한 특정 차량 객체 정보(P x(i), y(i), w(i), h(i))와 특정 영상 프레임의 다음 영상 프레임(i+1번째 프레임)에서 추출한 동일한 특정 차량에 대한 차량 객체 정보(P x(i+1), y(i+1), w(i+1), h(i+1))를 비교하여, 상기 차량의 진행방향에 따른 각도(θmain)를 연산하여, 상기 추정 진행방향 정보로 설정하는 것이 바람직하다.In detail, the vehicle estimating step (S230) includes specific vehicle object information (P) extracted from a specific image frame (i-th frame) by the vehicle detection step (S220), as indicated by an angle in FIG. Vehicle object information for the same specific vehicle extracted from x(i), y(i), w(i), h(i)) and the next image frame (i+1th frame) of a specific image frame (P x(i) +1), y(i+1), w(i+1), h(i+1)) are compared, and the angle θmain according to the traveling direction of the vehicle is calculated, as the estimated traveling direction information. It is desirable to set.
이 때, 상기 차량 추정단계(S230)는 미리 설정된 코드 함수연산을 이용하여 차량의 진행방향에 따는 추정각도를 계산하는 것이 바람직하며, 미리 설정된 코드 함수연산은 상기의 수학식 1과 같다.In this case, in the vehicle estimating step (S230), it is preferable to calculate the estimated angle according to the traveling direction of the vehicle using a preset code function calculation, and the preset code function calculation is the same as in
상기 차량위치 보정단계(S240)는 상기 차량위치 보정부(240)에서, 상기 초기 설정단계(S210)에 의해 설정한 상기 초기각도 정보와 상기 차량 추정단계(S230)에 의해 설정한 상기 추정 진행방향 각도 정보를 비교하여, 상기 차량이 현재 위치에서 직진할 경우의 진행방향 각도(θbase_main)와, 차량의 앞면방향 각도(θbase_sub)를 연산하여, 기본 진행방향 각도 정보와 기본 앞면방향 각도 정보로 설정하는 것이 바람직하다.In the vehicle position correction step (S240), the initial angle information set by the initial setting step (S210) and the estimated progress direction set by the vehicle estimating step (S230) in the vehicle
물론, 상기 차량위치 보정단계(S240)는 상기 차량 탐지단계(S220)에 의해 추출한 상기 차량 객체 정보를 이용하여, 상기 차량이 현재 위치에서 회전되었을 경우에 대한 차량의 앞면길이(Lbase_main), 상기 차량이 현재 위치에서 직진할 경우에 대한 차량의 앞면길이(Lbase_sub)를 연산하여, 제1, 제2 기본 앞면길이 정보로 설정하는 것이 바람직하다.Of course, the vehicle position correction step (S240) uses the vehicle object information extracted by the vehicle detection step (S220), the front length (Lbase_main) of the vehicle when the vehicle is rotated at the current position, the vehicle It is preferable to calculate the front length (Lbase_sub) of the vehicle for the case of going straight from the current position, and set the first and second basic front length information.
다시 말하자면, 상기 차량위치 보정단계(S240)는 상기 초기각도 정보와 상기 추정 진행방향 각도 정보를 이용하여, 기본정보(기본 진행방향 각도 정보, 기본 앞면방향 각도 정보, 제1 기본 앞면길이 정보, 제2 기본 앞면길이 정보)들을 설정하는 것으로, 미리 설정된 코드 함수연산을 이용하여 기본정보들을 계산하는 것이 바람직하며, 미리 설정된 코드 함수연산은 상기의 수학식 2와 같다.In other words, the vehicle position correction step (S240) uses the initial angle information and the estimated travel direction angle information, and uses basic information (basic travel direction angle information, basic front direction angle information, first basic front length information, first 2 Basic front length information) is set, and it is preferable to calculate basic information using a preset code function calculation, and the preset code function calculation is the same as in Equation 2 above.
상기 차량위치 보정단계(S240)는 상기의 수학식 2의 코드 함수연산을 수행하여, 비교된 값 중 작은 값의 방향을 상기 차량이 현재 위치에서 직진할 경우의 진행방향 각도(θbase_main)로, 상기 차량이 현재 위치에서 회전되었을 경우에 대한 차량의 앞면길이(Lbase_main)로 설정하는 것이 바람직하며,In the vehicle position correction step (S240), a direction of a small value among the compared values is a traveling direction angle (θbase_main) when the vehicle goes straight from the current position by performing the code function calculation of Equation 2 above, and the It is desirable to set the front length of the vehicle (Lbase_main) when the vehicle is rotated from the current position.
이와 반대방향을 상기 차량이 현재 위치에서 직진할 경우의 차량의 앞면방향 각도(θbase_sub), 상기 차량이 현재 위치에서 직진할 경우에 대한 차량의 앞면길이(Lbase_sub)로 설정하는 것이 바람직하다.It is preferable to set the opposite direction as the vehicle's front direction angle (θbase_sub) when the vehicle goes straight from the current position and the vehicle's front length (Lbase_sub) when the vehicle goes straight from the current position.
상기 최종 연산단계(S250)는 상기 최종 연산부(250)에서, 도 6에 도시된 바와 같이, 상기 차량 추정단계(S230)와 상기 차량위치 보정단계(S240)에 의해 연산한 상기 차량의 관련 정보들을 이용하여, 상기 차량의 추정 앞면방향 각도 정보(θsub), 추정 앞면길이 정보(Lsub)를 추정하여, 미리 설정된 수학식에 적용하여 최종 차량위치 정보(Xcar, Ycar)를 연산하는 것이 바람직하다.In the final calculation step (S250), as shown in FIG. 6, in the
상세하게는, 상기 최종 연산단계(S250)는 도 5의 c)에서 각도로 표시된 바와 같이, 상기 기본 진행방향 각도 정보(θbase_main)와 기본 앞면방향 각도 정보(θbase_sub)를 이용하여, 상기의 수학식 3에 적용하여 각도차를 연산함으로써, 차량이 회전되었을 경우의 진행방향의 최대 변화량(θdif_main)과 차량 앞면방향의 최대 변화량(θdif_sub)을 산출하는 것이 바람직하다.In detail, the final calculation step (S250) is, as indicated by the angle in FIG. 5C, using the basic moving direction angle information θbase_main and the basic front direction angle information θbase_sub, the above equation By applying to 3 and calculating the angle difference, it is preferable to calculate the maximum change amount θdif_main in the traveling direction when the vehicle is rotated and the maximum change amount θdif_sub in the front direction of the vehicle.
도 5의 d)에 도시된 바와 같이, 상기 기본 진행방향 각도 정보(θbase_main)와 상기 추정 진행방향 정보(θmain)의 변화량을 이용하여, 상기의 수학식 4에 적용하여 차량이 직진할 경우의 진행방향과 현재 진행방향의 차이값(θdelta_main)을 산출하는 것이 바람직하다.As shown in d) of FIG. 5, by using the amount of change in the basic travel direction angle information θbase_main and the estimated travel direction information θmain, the progress when the vehicle goes straight by applying to Equation 4 above. It is preferable to calculate the difference value (θdelta_main) between the direction and the current traveling direction.
도 5의 d)에서 각도로 표시된 바된 바와 같이, 상기 차량이 직진할 경우의 진행방향과 현재 진행방향의 차이값(θdelta_main), 차량이 회전되었을 경우의 진행방향의 최대 변화량(θdif_main), 차량이 회전되었을 경우의 차량 앞면방향의 최대 변화량(θdif_sub)을 이용하여, 상기의 수학식 5에 적용하여 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값(θdelta_sub)을 산출하는 것이 바람직하다.As indicated by the angle in FIG. 5D), the difference between the driving direction when the vehicle goes straight and the current driving direction (θdelta_main), the maximum amount of change in the driving direction when the vehicle is rotated (θdif_main), and the vehicle It is preferable to calculate the difference value (θdelta_sub) between the front direction when the vehicle goes straight and the current front direction by applying to
도 5의 e)에서 각도로 표시된 바된 바와 같이, 상기 기본 앞면방향 각도 정보(θbase_sub)와, 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값(θdelta_sub)을 이용하여, 상기의 수학식 6에 적용하여 상기 추정 앞면방향 각도 정보(θsub)를 산출하는 것이 바람직하다.As indicated by the angle in Fig. 5e), using the basic front direction angle information (θbase_sub) and the difference value (θdelta_sub) between the front direction when the vehicle goes straight and the current front direction, the above equation It is preferable to apply to 6 to calculate the estimated front angle information θsub.
뿐만 아니라, 상기 최종 연산단계(S250)는 상기 제1 기본 앞면길이 정보(Lbase_main), 제2 기본 앞면길이 정보(Lbase_sub)를 이용하여, 상기의 수학식 7에 적용하여 길이차(Ldif_sub)를 연산하고,In addition, in the final operation step (S250), the first basic front length information (Lbase_main) and the second basic front length information (Lbase_sub) are used to apply the length difference (Ldif_sub) to Equation 7 above. and,
연산한 길이차(Ldif_sub), 차량이 회전되었을 경우의 차량 앞면방향의 최대 변화량(θdif_sub), 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값(θdelta_sub)을 이용하여 상기의 수학식 8에 적용하여 차량이 회전되었을 경우의 앞면길이 변화량(Ldelta_sub)을 산출하는 것이 바람직하다.
또한, 상기 제2 기본 앞면길이 정보(Lbase_sub), 차량이 회전되었을 경우의 앞면길이 변화량(Ldelta_sub)을 이용하여 상기의 수학식 9에 적용하여 상기 추정 앞면길이 정보(Lsub)를 산출하는 것이 바람직하다.In addition, it is preferable to calculate the estimated front length information Lsub by applying to Equation 9 above using the second basic front length information (Lbase_sub) and the amount of change in the front length when the vehicle is rotated (Ldelta_sub). .
마지막으로, 상기 최종 연산단계(S250)는 상기 추정 진행방향 정보(θmain), 추정 앞면방향 각도 정보(θsub), 추정 앞면길이 정보(Lsub)들을 이용하여 차량 바닥면의 x, y 위치를 계산하여 차량의 최종 위치정보(Xcar, Ycar)를 산출하는 것이 바람직하며, 상기의 수학식 10에 적용하여 산출할 수 있다.Finally, in the final calculation step (S250), the x and y positions of the vehicle floor are calculated using the estimated travel direction information θmain, the estimated front angle information θsub, and the estimated front length information Lsub. It is preferable to calculate the final location information (Xcar, Ycar) of the vehicle, and can be calculated by applying to Equation 10 above.
더불어, 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 방법은 영상 내 포함되어 있는 차량의 이동 경로를 추적하기 위하여, 상기 영상 데이터 내에 포함되어 있는 마지막 영상 프레임까지 동작을 반복 수행하는 것이 가장 바람직하다.In addition, in the method for calculating a vehicle position in an image according to an embodiment of the present invention, it is most preferable to repeatedly perform an operation up to the last image frame included in the image data in order to track the moving path of the vehicle included in the image. Do.
이와 같이, 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 방법은, 교차로에서 차량들이 이동하였을 때의 차량의 앞면과 측면의 기본각과 차량의 앞면 길이를 이용하여 차량의 위치를 추정하고, 영상에서의 픽셀 좌표에서 실세계의 위경도 좌표계로 변환할 수 있다.As described above, the method of calculating the vehicle position in an image according to an embodiment of the present invention estimates the position of the vehicle using the basic angles of the front and side surfaces of the vehicle and the length of the front surface of the vehicle when the vehicles move at an intersection, and It can be converted from the pixel coordinates in the real world latitude and longitude coordinate system.
도 9는 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 방법을 이용한 교통량 분석 시스템을 나타낸 구성도이며, 도 9를 참조로 하여 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 방법을 이용한 교통량 분석 시스템을 상세히 설명한다.9 is a block diagram showing a traffic volume analysis system using a method for calculating a vehicle position in an image according to an embodiment of the present invention. Referring to FIG. 9, a method for calculating a vehicle position in an image is used. The traffic analysis system will be described in detail.
본 발명의 일 실시예에 따른 영상 내 차량위치 산출 방법을 이용한 교통량 분석 시스템은 도 9에 도시된 바와 같이, 차량위치 판단부(1000), 교통량 분석부(2000)를 포함하여 구성되는 것이 바람직하다.It is preferable that the traffic volume analysis system using the method for calculating the vehicle location in the image according to an embodiment of the present invention includes a vehicle
상기 차량위치 판단부(1000)는 상기 영상 내 차량위치 산출 장치의 구성으로서, 상기 영상 내 위치한 차량들의 최종 위치 정보를 판단하는 것이 바람직하다.The vehicle
상기 교통량 분석부(2000)는 상기 차량위치 판단부(1000)와 네트워크 연결되어, 상기 차량위치 판단부(1000)에서 판단한 상기 차량의 최종 위치정보(Xcar, Ycar)들을 이용하여 교통량을 분석하는 것이 바람직하다.The traffic
물론, 상기 교통량 분석부(2000)는 외부의 요청에 따라, 분석한 교통량 관련 정보들을 전송하는 것이 바람직하다.Of course, it is preferable that the traffic
이 때, 교통량 관련 정보들로는, 교차로 내부 차선별 차량 통과량, 회전량 등을 포함하여 구성되는 것이 바람직하나, 상기 차량의 최종 위치정보를 이용하여 분석할 수 있는 모든 종류의 정보들을 포함하는 것이 가장 바람직하다.At this time, the traffic volume-related information is preferably configured to include the amount of vehicle passing by each lane inside the intersection, the amount of rotation, etc., but it is best to include all types of information that can be analyzed using the final location information of the vehicle. desirable.
상기 교통량 분석부(2000)는 차량을 추적한 데이터를 이용하여 교통정보를 생성하는 것이 바람직하며, 즉, 상기 차량위치 판단부(1000)에서 판단한 프레임별 상기 차량의 최종 위치정보들을 이용하여, 교차로 내부의 각 방향별(각 차선에 따른) 차량들의 이동량과 평균속도를 분석하여, 교통량을 분석하는 것이 바람직하다.It is preferable that the traffic
특히, 상기 교통량 분석부(2000)는 상기 차량위치 판단부(1000)에서 판단한 프레임별 상기 차량의 최종 위치정보들을 이용하여, 특정 차량이 미리 설정된 시간동안 위치 변화가 발생하지 않을 경우,(프레임이 변경되더라도 차량의 최종 위치정보가 변화되지 않을 경우) 해당 차량의 문제가 발생한 것으로 판단하여 돌발상황에 대비할 수 있도록 교통량 관련 정보를 생성하는 것이 바람직하다.In particular, the traffic
이 때, 미리 설정된 시간이란, 신호등 동작 시간을 감안하여, 설정하는 것이 가장 바람직하다.At this time, it is most preferable to set the preset time in consideration of the operation time of the traffic light.
상기 교통량 분석부(2000)에서 분석한 교통량 관련 정보들을 이용하여, 자율 주행 차량의 안전한 주행을 지원하는 정보로 활용하는 것이 가장 바람직하며, 도로 혼잡, 교통혼잡을 효율적으로 관리하기 위하여 실시간으로 신호체계를 제어하는게 활용하는 것 역시 바람직하다.It is most preferable to use the traffic volume-related information analyzed by the traffic
이상과 같이 본 발명에서는 구체적인 구성 소자 등과 같은 특정 사항들과 한정된 실시예 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것 일 뿐, 본 발명은 상기의 일 실시예에 한정되는 것이 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, in the present invention, specific matters such as specific components, etc. and limited embodiments have been described, but this is provided only to aid in a more general understanding of the present invention, and the present invention is limited to the above-described embodiment. It is not, and those of ordinary skill in the field to which the present invention belongs can make various modifications and variations from this description.
따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허 청구 범위뿐 아니라 이 특허 청구 범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention is limited to the described embodiments and should not be determined, and all things equivalent or equivalent to the claims as well as the claims to be described later belong to the scope of the spirit of the present invention. .
100 : 영상 취득부
200 : 통합 분석부
210 : 초기 설정부
220 : 차량 탐지부
230 : 차량 추정부
240 : 차량위치 보정부
250 : 최종 연산부
1000 : 차량위치 판단부
2000 : 교통량 분석부100: image acquisition unit
200: integrated analysis unit
210: initial setting unit 220: vehicle detection unit
230: vehicle estimation unit 240: vehicle position correction unit
250: final operation unit
1000: vehicle location determination unit
2000: Traffic Analysis Department
Claims (15)
상기 영상 취득부(100)와 네트워크 연결되어, 상기 영상 취득부(100)로부터 상기 영상 데이터를 전송받아, 이를 분석하여 영상 내 위치한 차량들의 관련 정보들을 연산하는 통합 분석부(200);
를 포함하여 구성되는 것을 특징으로 하는 영상 내 차량위치 산출 장치.
An image acquisition unit 100 installed in a predetermined area having a predetermined height around the intersection, and acquiring image data by photographing a predetermined area inside the intersection; And
An integrated analysis unit 200 connected to the image acquisition unit 100 through a network, receiving the image data from the image acquisition unit 100, analyzing the data and calculating related information of vehicles located in the image;
Vehicle position calculation device in the image, characterized in that configured to include.
상기 영상 취득부(100)는
광학 센서(optical sensor)를 포함하는 카메라(IP camera)를 포함하는 것을 특징으로 하는 영상 내 차량위치 산출 장치.
The method of claim 1,
The image acquisition unit 100
An apparatus for calculating vehicle position in an image, comprising: an IP camera including an optical sensor.
상기 통합 분석부(200)는
전송받은 상기 영상 데이터에 포함되어 있는 적어도 하나의 영상 프레임을 이용하여, 상기 영상 프레임 내에 포함되어 있는 차선 객체 정보들을 추출하고,
상기 영상 프레임의 고정된 x, y 좌표를 기준으로 각각의 차선 방향에 따라 차량의 진행방향 각도(θhor, θver)를 연산하여 초기각도 정보로 설정하는 초기 설정부(210);
를 포함하여 구성되며,
상기 초기 설정부(210)는
각각의 차선 방향에 따라 차량의 진행에 의한 차량의 앞면길이를 연산하여, 초기길이 정보로 설정하는 것을 특징으로 하는 영상 내 차량위치 산출 장치.
The method of claim 1,
The integrated analysis unit 200
Using at least one image frame included in the received image data, lane object information included in the image frame is extracted,
An initial setting unit 210 for calculating the vehicle traveling direction angles θhor and θver based on the fixed x and y coordinates of the image frame and setting initial angle information;
Consists of including,
The initial setting unit 210
A vehicle position calculation apparatus in an image, characterized in that by calculating a front length of the vehicle due to the progress of the vehicle according to each lane direction and setting the initial length information.
상기 통합 분석부(200)는
전송받은 상기 영상 데이터에 포함되어 있는 영상 프레임들을 순차적으로 이용하여, 각각의 상기 영상 프레임 내에 포함되어 있는 적어도 하나의 차량 객체 정보를 추출하는 차량 탐지부(220);
를 포함하여 구성되며,
상기 차량 객체 정보는
기설정된 차량의 중심점을 기준으로 기설정된 영역크기(x, y, w, h)를 갖는 것을 특징으로 하는 영상 내 차량위치 산출 장치.
The method of claim 3,
The integrated analysis unit 200
A vehicle detection unit 220 that sequentially uses image frames included in the transmitted image data to extract at least one vehicle object information included in each of the image frames;
Consists of including,
The vehicle object information is
A vehicle position calculation apparatus in an image, characterized in that it has a preset area size (x, y, w, h) based on a preset center point of the vehicle.
상기 통합 분석부(200)는
상기 차량 탐지부(220)에서 특정 영상 프레임(i번째 프레임)에서 추출한 특정 차량 객체 정보(P x(i), y(i), w(i), h(i))와 특정 영상 프레임의 다음 영상 프레임(i+1 번째 프레임)에서 추출한 특정 차량 객체 정보(P x(i+1), y(i+1), w(i+1), h(i+1))를 비교하여,
상기 차량의 진행방향에 따른 각도(θmain)를 연산하여, 추정 진행방향 각도 정보로 설정하는 차량 추정부(230); 및
상기 초기 설정부(210)에서 설정한 상기 초기각도 정보와 상기 차량 추정부(230)에서 설정한 상기 추정 진행방향 각도 정보를 비교하여, 상기 차량이 현재 위치에서 직진할 경우의 진행방향 각도(θbase_main)와, 차량의 앞면방향 각도(θbase_sub)를 연산하여, 기본 진행방향 각도 정보와 기본 앞면방향 각도 정보로 설정하는 차량위치 보정부(240);
를 포함하여 구성되는 것을 특징으로 하는 영상 내 차량위치 산출 장치.
(i는 1이상의 자연수임.)
The method of claim 4,
The integrated analysis unit 200
Specific vehicle object information (P x(i), y(i), w(i), h(i)) extracted from the specific image frame (i-th frame) by the vehicle detection unit 220 and the next By comparing specific vehicle object information (P x(i+1), y(i+1), w(i+1), h(i+1)) extracted from the image frame (i+1th frame),
A vehicle estimating unit 230 for calculating the angle θmain according to the traveling direction of the vehicle and setting the estimated traveling direction angle information; And
The initial angle information set by the initial setting unit 210 is compared with the estimated traveling direction angle information set by the vehicle estimating unit 230, and the traveling direction angle (θbase_main) when the vehicle goes straight from the current position. ) And a vehicle position correction unit 240 that calculates the front direction angle of the vehicle (θbase_sub) and sets the basic travel direction angle information and the basic front direction angle information;
Vehicle position calculation device in the image, characterized in that configured to include.
(i is a natural number greater than or equal to 1.)
상기 차량위치 보정부(240)는
상기 차량 탐지부(220)에서 추출한 상기 차량 객체 정보를 이용하여, 상기 차량이 현재 위치에서 회전되었을 경우에 대한 차량의 앞면길이(Lbase_main), 상기 차량이 현재 위치에서 직진할 경우에 대한 차량의 앞면길이(Lbase_sub)를 연산하여, 제1, 제2 기본 앞면길이 정보로 설정하는 것을 특징으로 하는 영상 내 차량위치 산출 장치.
The method of claim 5,
The vehicle position correction unit 240
Using the vehicle object information extracted by the vehicle detection unit 220, the length of the front surface of the vehicle (Lbase_main) when the vehicle is rotated at the current position, and the front surface of the vehicle when the vehicle goes straight from the current position. An apparatus for calculating a vehicle position in an image, characterized in that by calculating a length (Lbase_sub) and setting it as first and second basic front length information.
상기 통합 분석부(200)는
상기 차량 추정부(230)와 차량위치 보정부(240)에서 연산한 상기 차량의 관련 정보들을 이용하여, 상기 차량의 추정 앞면방향 각도 정보(θsub), 추정 앞면길이 정보(Lsub)를 추정하여, 기설정된 수식에 적용하여 최종 차량위치 정보(Xcar, Ycar)를 연산하는 최종 연산부(250);
를 더 포함하여 구성되는 것을 특징으로 하는 영상 내 차량위치 산출 장치.
The method of claim 6,
The integrated analysis unit 200
Using the vehicle-related information calculated by the vehicle estimating unit 230 and the vehicle position correction unit 240, the estimated front angle information θsub and the estimated front length information Lsub of the vehicle are estimated, A final calculation unit 250 for calculating final vehicle location information (Xcar, Ycar) by applying a predetermined formula;
Vehicle position calculation device in the image, characterized in that the configuration further comprises a.
상기 최종 연산부(250)는
상기 기본 진행방향 각도 정보와 기본 앞면방향 각도 정보의 각도차를 연산하여, 차량이 회전되었을 경우의 진행방향의 최대 변화량(θdif_main)과 차량 앞면방향의 최대 변화량(θdif_sub)을 산출하고,
연산한 변화량과 상기 추정 진행방향 각도 정보의 변화량을 이용하여, 차량이 직진할 경우의 진행방향과 현재 진행방향의 차이값(θdelta_main)과, 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값(θdelta_sub)을 산출하고,
차이값들을 이용하여, 상기 추정 앞면방향 각도 정보를 연산하는 것을 특징으로 하는 영상 내 차량위치 산출 장치.
The method of claim 7,
The final operation unit 250
By calculating the angle difference between the basic travel direction angle information and the basic front direction angle information, the maximum change amount θdif_main in the driving direction when the vehicle is rotated and the maximum change amount θdif_sub in the front direction of the vehicle are calculated,
Using the calculated amount of change and the amount of change in the estimated heading angle information, the difference between the driving direction and the current driving direction (θdelta_main) when the vehicle goes straight, and the difference between the front direction and the current front direction when the vehicle goes straight Calculate the value (θdelta_sub),
An apparatus for calculating a vehicle position in an image, characterized in that calculating the estimated front angle information by using difference values.
상기 최종 연산부(250)는
상기 제1, 제2 기본 앞면길이 정보들의 길이차(Ldif_sub)를 연산하고,
연산한 길이차와 상기 차량 앞면방향의 최대 변화량, 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값을 이용하여, 차량이 회전되었을 경우의 앞면길이 변화량(Ldelta_sub)을 산출하고,
상기 현재 위치에서 직진할 경우에 대한 차량의 앞면길이 정보와 차량이 회전되었을 경우의 앞면길이 변화량을 이용하여 상기 추정 앞면길이 정보를 연산하는 것을 특징으로 하는 영상 내 차량위치 산출 장치.
The method of claim 8,
The final operation unit 250
Calculate a length difference (Ldif_sub) between the first and second basic front length information,
Using the calculated length difference and the maximum change in the front direction of the vehicle, and the difference between the front direction when the vehicle goes straight and the current front direction, the front length change amount (Ldelta_sub) when the vehicle is turned is calculated,
And calculating the estimated front length information by using front length information of the vehicle when going straight from the current position and a change amount of the front length when the vehicle is rotated.
통합 분석부에서, 상기 영상 취득단계(S100)에 의해 취득한 상기 영상 데이터를 전송받아 이를 분석하여 영상 내 위치한 차량들의 관련 정보들을 연산하여, 각 차량의 최종 위치정보(Xcar, Ycar)를 판단하는 분석단계(S200);
로 이루어지며,
상기 영상 취득단계(S100)는
광학 센서(optical sensor)를 포함하는 카메라(IP camera)로 영상 데이터를 취득하는 것을 특징으로 하는 영상 내 차량위치 산출 방법.
An image acquisition step (S100) of acquiring image data by photographing a predetermined area inside the intersection by the image acquisition unit;
The integrated analysis unit receives the image data acquired in the image acquisition step (S100), analyzes it, calculates related information of vehicles located in the image, and determines the final location information (Xcar, Ycar) of each vehicle. Step S200;
Consists of
The image acquisition step (S100)
A method for calculating a vehicle position in an image, comprising acquiring image data with an IP camera including an optical sensor.
상기 분석단계(S200)는
전송받은 상기 영상 데이터에 포함되어 있는 적어도 하나의 영상 프레임을 이용하여, 상기 영상 프레임 내에 포함되어 있는 차선 객체 정보들을 추출하고,
상기 영상 프레임의 고정된 x, y 좌표를 기준으로 각각의 차선 방향에 따라 차량의 진행방향 각도(θhor, θver)를 연산하여 초기각도 정보로 설정하며,
각각의 차선 방향에 따라 차량의 진행에 의한 차량의 앞면길이를 연산하여, 초기길이 정보로 설정하는 초기 설정단계(S210);
전송받은 상기 영상 데이터에 포함되어 있는 영상 프레임들을 순차적으로 이용하여, 기설정된 차량의 중심점을 기준으로 기설정된 영역크기(x, y, w, h)를 갖으며, 각각의 상기 영상 프레임 내에 포함되어 있는 적어도 하나의 차량 객체 정보를 추출하는 차량 탐지단계(S220);
상기 차량 탐지단계(S220)에 의해, 특정 영상 프레임(i번째 프레임)에서 추출한 특정 차량 객체 정보(P x(i), y(i), w(i), h(i))와 특정 영상 프레임의 다음 영상 프레임(i+1 번째 프레임)에서 추출한 특정 차량 객체 정보(P x(i+1), y(i+1), w(i+1), h(i+1))를 비교하여,
상기 차량의 진행방향에 따른 각도(θmain)를 연산하여, 추정 진행방향 각도 정보로 설정하는 차량 추정단계(S230);
상기 초기 설정단계(S210)에 의해 설정한 상기 초기각도 정보와, 상기 차량 추정단계(S230)에 의해 설정한 상기 추정 진행방향 각도 정보를 비교하여, 상기 차량이 현재 위치에서 직진할 경우의 진행방향 각도(θbase_main)와, 차량의 앞면방향 각도(θbase_sub)를 연산하여, 기본 진행방향 각도 정보와 기본 앞면방향 각도 정보로 설정하며,
상기 차량 탐지단계(S220)에 의해 추출한 상기 차량 객체 정보를 이용하여, 상기 차량이 현재 위치에서 회전되었을 경우에 대한 차량의 앞면길이(Lbase_main), 상기 차량이 현재 위치에서 직진할 경우에 대한 차량의 앞면길이(Lbase_sub)를 연산하여, 제1, 제2 기본 앞면길이 정보로 설정하는 차량위치 보정단계(S240); 및
상기 차량 추정단계(S230)와 상기 차량위치 보정단계(S240)에 의해 연산한 상기 차량의 관련 정보들을 이용하여, 상기 차량의 추정 앞면방향 각도 정보(θsub), 추정 앞면길이 정보(Lsub)를 추정하여, 기설정된 수식에 적용하여 최종 차량위치 정보(Xcar, Ycar)를 연산하는 최종 연산단계(S250);
를 포함하여 구성되는 것을 특징으로 하는 영상 내 차량위치 산출 방법.
(i는 1이상의 자연수임.)
The method of claim 10,
The analysis step (S200)
Using at least one image frame included in the received image data, lane object information included in the image frame is extracted,
Based on the fixed x, y coordinates of the image frame, the driving direction angles (θhor, θver) of the vehicle are calculated according to each lane direction and set as initial angle information,
An initial setting step (S210) of calculating the front length of the vehicle due to the progress of the vehicle according to each lane direction and setting the initial length information;
The image frames included in the transmitted image data are sequentially used, and have a preset area size (x, y, w, h) based on a preset center point of the vehicle, and are included in each of the image frames. A vehicle detection step (S220) of extracting information on at least one vehicle object in existence;
By the vehicle detection step (S220), specific vehicle object information (P x(i), y(i), w(i), h(i)) extracted from a specific image frame (i-th frame) and a specific image frame By comparing the specific vehicle object information (P x(i+1), y(i+1), w(i+1), h(i+1)) extracted from the next image frame of (i+1th frame) ,
A vehicle estimating step (S230) of calculating the angle θmain according to the traveling direction of the vehicle and setting the estimated traveling direction angle information;
The initial angle information set by the initial setting step (S210) is compared with the estimated traveling direction angle information set by the vehicle estimating step (S230), and the traveling direction when the vehicle goes straight from the current position By calculating the angle (θbase_main) and the front direction angle (θbase_sub) of the vehicle, the basic driving direction angle information and the basic front direction angle information are set.
Using the vehicle object information extracted by the vehicle detection step (S220), the front length of the vehicle (Lbase_main) when the vehicle is rotated at the current position, and the vehicle's length when the vehicle is going straight from the current position. A vehicle position correction step of calculating the front length (Lbase_sub) and setting the first and second basic front length information (S240); And
Using the vehicle-related information calculated by the vehicle estimating step (S230) and the vehicle position correction step (S240), the estimated front angle information (θsub) and the estimated front length information (Lsub) of the vehicle are estimated. Thus, the final calculation step (S250) of calculating the final vehicle location information (Xcar, Ycar) by applying the predetermined formula;
Vehicle position calculation method in the image, characterized in that configured to include.
(i is a natural number greater than or equal to 1.)
상기 최종 연산단계(S250)는
상기 기본 진행방향 각도 정보와 기본 앞면방향 각도 정보의 각도차를 연산하여, 차량이 회전되었을 경우의 진행방향의 최대 변화량(θdif_main)과 차량 앞면방향의 최대 변화량(θdif_sub)을 산출하고,
연산한 변화량과 상기 추정 진행방향 각도 정보의 변화량을 이용하여, 차량이 직진할 경우의 진행방향과 현재 진행방향의 차이값(θdelta_main)과, 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값(θdelta_sub)을 산출하고,
차이값들을 이용하여, 상기 추정 앞면방향 각도 정보를 연산하며,
상기 제1, 제2 기본 앞면길이 정보들의 길이차(Ldif_sub)를 연산하고,
연산한 길이차와 상기 차량 앞면방향의 최대 변화량, 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값을 이용하여, 차량이 회전되었을 경우의 앞면길이 변화량(Ldelta_sub)을 산출하고,
상기 현재 위치에서 직진할 경우에 대한 차량의 앞면길이 정보와 차량이 회전되었을 경우의 앞면길이 변화량을 이용하여 상기 추정 앞면길이 정보를 연산하는 것을 특징으로 하는 영상 내 차량위치 산출 방법.
The method of claim 11,
The final operation step (S250) is
By calculating the angle difference between the basic travel direction angle information and the basic front direction angle information, the maximum change amount θdif_main in the driving direction when the vehicle is rotated and the maximum change amount θdif_sub in the front direction of the vehicle are calculated,
Using the calculated amount of change and the amount of change in the estimated heading angle information, the difference between the driving direction and the current driving direction (θdelta_main) when the vehicle goes straight, and the difference between the front direction and the current front direction when the vehicle goes straight Calculate the value (θdelta_sub),
Using the difference values, calculate the estimated front angle information,
Calculate a length difference (Ldif_sub) of the first and second basic front length information,
Using the calculated length difference and the maximum change in the front direction of the vehicle, and the difference between the front direction when the vehicle goes straight and the current front direction, the front length change amount (Ldelta_sub) when the vehicle is rotated is calculated,
And calculating the estimated front length information by using front length information of the vehicle when going straight from the current position and an amount of change in the front length when the vehicle is rotated.
상기 차량위치 판단부(1000)에서 판단한 상기 차량의 최종 위치정보들을 이용하여, 교통량을 분석하는 교통량 분석부(2000);
를 포함하여 구성되며,
상기 교통량 분석부(2000)는
외부의 요청에 따라, 분석한 교통량 관련 정보들을 전송하는 것을 특징으로 하는 영상 내 차량위치 산출 방법을 이용한 교통량 분석 시스템.
A vehicle position determining unit 1000 for determining final position information of vehicles located in the image by the method of calculating vehicle position in the image according to any one of claims 10 to 12; And
A traffic volume analysis unit 2000 that analyzes a traffic volume by using the final location information of the vehicle determined by the vehicle location determination unit 1000;
Consists of including,
The traffic volume analysis unit 2000
A traffic volume analysis system using a method of calculating a vehicle location in an image, characterized in that transmitting the analyzed traffic volume related information according to an external request.
상기 교통량 분석부(2000)는
상기 차량위치 판단부(1000)에서 판단한 상기 차량의 최종 위치정보들을 이용하여, 교차로 내부의 각 방향별 차량들의 이동량과 평균속도를 분석하여, 교통량을 분석하는 것을 특징으로 하는 영상 내 차량위치 산출 방법을 이용한 교통량 분석 시스템.
The method of claim 13,
The traffic volume analysis unit 2000
A method for calculating a vehicle position in an image, characterized in that for analyzing the amount of traffic by analyzing the moving amount and the average speed of vehicles in each direction inside the intersection using the final position information of the vehicle determined by the vehicle position determining unit 1000 Traffic analysis system using.
상기 교통량 분석부(2000)는
상기 차량위치 판단부(1000)에서 판단한 상기 차량의 최종 위치정보들을 이용하여, 특정 차량이 기설정된 시간동안 위치 변화가 발생하지 않을 경우, 해당 차량의 문제가 발생한 것으로 판단하는 것을 특징으로 하는 영상 내 차량위치 산출 방법을 이용한 교통량 분석 시스템.
The method of claim 13,
The traffic volume analysis unit 2000
Using the final location information of the vehicle determined by the vehicle location determination unit 1000, when a specific vehicle does not change in position for a preset time, it is determined that a problem with the vehicle has occurred. Traffic analysis system using vehicle location calculation method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190085290A KR102256205B1 (en) | 2019-07-15 | 2019-07-15 | Device and method for calculation vehicle position in an image, and traffic analysis system using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190085290A KR102256205B1 (en) | 2019-07-15 | 2019-07-15 | Device and method for calculation vehicle position in an image, and traffic analysis system using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210008737A true KR20210008737A (en) | 2021-01-25 |
KR102256205B1 KR102256205B1 (en) | 2021-05-27 |
Family
ID=74238065
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190085290A KR102256205B1 (en) | 2019-07-15 | 2019-07-15 | Device and method for calculation vehicle position in an image, and traffic analysis system using the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102256205B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102499023B1 (en) * | 2022-01-27 | 2023-02-14 | 포티투닷 주식회사 | Apparatus and method for determining traffic flow by lane |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020092107A (en) * | 2001-06-02 | 2002-12-11 | 엘지산전 주식회사 | Traffic information extracting method and apparatus using a image information |
JP2007149077A (en) * | 2005-11-07 | 2007-06-14 | Fujitsu Ltd | Video processing method and device |
KR101889085B1 (en) * | 2017-12-07 | 2018-08-16 | 렉스젠(주) | Apparatus for generating traffic information using vehicle trajectory and method thereof |
KR101942491B1 (en) | 2018-11-08 | 2019-04-11 | 주식회사 싸인텔레콤 | Hybrid ai cctv mediation module device consisting of road traffic situation monitoring and real time traffic information analysis |
-
2019
- 2019-07-15 KR KR1020190085290A patent/KR102256205B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020092107A (en) * | 2001-06-02 | 2002-12-11 | 엘지산전 주식회사 | Traffic information extracting method and apparatus using a image information |
JP2007149077A (en) * | 2005-11-07 | 2007-06-14 | Fujitsu Ltd | Video processing method and device |
KR101889085B1 (en) * | 2017-12-07 | 2018-08-16 | 렉스젠(주) | Apparatus for generating traffic information using vehicle trajectory and method thereof |
KR101942491B1 (en) | 2018-11-08 | 2019-04-11 | 주식회사 싸인텔레콤 | Hybrid ai cctv mediation module device consisting of road traffic situation monitoring and real time traffic information analysis |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102499023B1 (en) * | 2022-01-27 | 2023-02-14 | 포티투닷 주식회사 | Apparatus and method for determining traffic flow by lane |
Also Published As
Publication number | Publication date |
---|---|
KR102256205B1 (en) | 2021-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110446278B (en) | Intelligent driving automobile sensor blind area safety control method and system based on V2I | |
CN106297330B (en) | Reduce the method and system that pedestrian's street crossing influences plane perceptual signal control efficiency | |
CN105632175B (en) | Vehicle behavior analysis method and system | |
CN108198441B (en) | Rapid intelligent traffic system and method | |
KR101446546B1 (en) | Display system of vehicle information based on the position | |
CN107664500B (en) | garage vehicle positioning and navigation method based on image feature recognition | |
CN104616502B (en) | Car license recognition and alignment system based on combination type bus or train route video network | |
CN113034960A (en) | Object change detection system for updating precision route map and method thereof | |
KR20170126909A (en) | Directions for autonomous driving | |
KR20180046798A (en) | Method and apparatus for real time traffic information provision | |
CN111275960A (en) | Traffic road condition analysis method, system and camera | |
CN106530794A (en) | Automatic identification and calibration method of driving road and system thereof | |
CN102208035A (en) | Image processing system and position measurement system | |
CN111081047A (en) | Accurate intelligent parking management method and management system based on photoelectric image processing | |
JP2015060443A (en) | Traffic volume grasping device and method | |
CN115953912B (en) | Vehicle-road cooperative sensing equipment and method | |
CN110164164A (en) | The method for identifying complicated road precision using camera shooting function enhancing Mobile Telephone Gps software | |
US20210183237A1 (en) | Method and device for providing a position of at least one object | |
CN112556718A (en) | Inferring lane boundaries via high speed vehicle telemetry | |
KR102418051B1 (en) | Lane traffic situation judgement apparatus, system, and method thereof | |
KR101998834B1 (en) | Traffic Information Providing System Enabling Traffic Accident Risk Prediction | |
KR102256205B1 (en) | Device and method for calculation vehicle position in an image, and traffic analysis system using the same | |
JP2012215442A (en) | Own position determination system, own position determination program, own position determination method | |
KR20090090049A (en) | Apparatus and method for real-time traffic information service | |
CN111429723B (en) | Communication and perception data fusion method based on road side equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right |