KR20210008737A - Device and method for calculation vehicle position in an image, and traffic analysis system using the same - Google Patents

Device and method for calculation vehicle position in an image, and traffic analysis system using the same Download PDF

Info

Publication number
KR20210008737A
KR20210008737A KR1020190085290A KR20190085290A KR20210008737A KR 20210008737 A KR20210008737 A KR 20210008737A KR 1020190085290 A KR1020190085290 A KR 1020190085290A KR 20190085290 A KR20190085290 A KR 20190085290A KR 20210008737 A KR20210008737 A KR 20210008737A
Authority
KR
South Korea
Prior art keywords
vehicle
information
image
calculating
unit
Prior art date
Application number
KR1020190085290A
Other languages
Korean (ko)
Other versions
KR102256205B1 (en
Inventor
성선경
송정헌
윤동현
김지영
Original Assignee
주식회사 하이퍼센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 하이퍼센싱 filed Critical 주식회사 하이퍼센싱
Priority to KR1020190085290A priority Critical patent/KR102256205B1/en
Publication of KR20210008737A publication Critical patent/KR20210008737A/en
Application granted granted Critical
Publication of KR102256205B1 publication Critical patent/KR102256205B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/065Traffic control systems for road vehicles by counting the vehicles in a section of the road or in a parking area, i.e. comparing incoming count with outgoing count
    • G06K9/00771
    • G06K9/00798
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0145Measuring and analyzing of parameters relative to traffic conditions for specific applications for active traffic flow control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/052Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed

Abstract

The present invention relates to a device for calculating a vehicle position in an image, a method thereof, and a traffic volume analysis system using the same. More specifically, the present invention relates to the device for calculating the vehicle position in the image comprising: an image acquisition unit (100) installed in a predetermined area having a predetermined height around the intersection, and acquiring image data by photographing a predetermined area inside the intersection; and an integrated analysis unit (200) connected to the network with the image acquisition unit (100), receiving the image data from the image acquisition unit (100), and operating the related information of vehicles located in the image.

Description

영상 내 차량위치 산출 장치 및 그 방법, 이를 이용한 교통량 분석 시스템 {Device and method for calculation vehicle position in an image, and traffic analysis system using the same}Device and method for calculation vehicle position in an image, and traffic analysis system using the same}

본 발명은 영상 내 차량위치 산출 장치 및 그 방법, 이를 이용한 교통량 분석 시스템에 관한 것으로, 더욱 상세하게는 취득한 영상 데이터 내에 차량의 정확한 위치정보를 연산하여 제공함으로써, 이를 통해 도로 상의 교통정보/교통상황을 실시간으로 제공할 수 있어 교통 시스템의 효율성을 향상시킬 수 있는 영상 내 차량위치 산출 장치 및 그 방법, 이를 이용한 교통량 분석 시스템에 관한 것이다.The present invention relates to an apparatus and method for calculating vehicle position in an image, and to a traffic volume analysis system using the same, and more particularly, by calculating and providing accurate position information of a vehicle in acquired image data, traffic information/traffic conditions on the road through this The present invention relates to an apparatus and method for calculating a vehicle location in an image that can improve the efficiency of a transportation system by providing real-time, and a traffic volume analysis system using the same.

교차로 등의 도로 교통량을 분석하여 실시간으로 상황에 맞게 교통 신호를 제어하는 시스템이 요구되고 있지만, 교통량 관련 정보를 실시간으로 알아내는 기술의 부재로 인해, 제대로 정착되지 못하고 있는 실정이다.There is a demand for a system that controls traffic signals according to the situation in real time by analyzing road traffic volumes such as intersections, but due to the lack of technology to find out traffic volume-related information in real time, it is not settled properly.

이에 대한 대안으로, 차량의 GPS 정보를 수집하여 실시간으로 교통량을 분석하고자 하였지만, 분석 시간이 너무 오래 걸리기 때문에 교통 신호에 적절하게 적용하는 것이 불가능하다.As an alternative to this, it was attempted to analyze the traffic volume in real time by collecting GPS information of the vehicle, but it is impossible to properly apply it to the traffic signal because the analysis time is too long.

또한, 일반적으로 교통방송 등을 위해 도로 상의 교통정보/교통상황에 의한 교통 데이터를 수집하는 방법으로, 루프 검지기와 영상기반 검지기가 주를 이루고 있다.In addition, in general, as a method of collecting traffic data based on traffic information/traffic conditions on a road for traffic broadcasting, etc., a loop detector and an image-based detector are mainly used.

그렇지만, 이를 실시간 교통량 분석에 적용하기 위해서는, 루프 검지기의 경우, 설치 및 유지 관리시에 도로 포장 공사가 같이 이루어져야 하기 때문에 비용이 많이 발생하는 문제점이 있으며, 영상기반 검지기의 경우, 여러 차선, 여러 방향의 교통 데이터를 취득하기 위한 해당 개수만큼의 검지기를 설치 및 관리해야 하는 문제점이 있다.However, in order to apply this to real-time traffic volume analysis, in the case of a roof detector, there is a problem in that it is expensive because road pavement construction must be performed together during installation and maintenance. There is a problem in that it is necessary to install and manage as many detectors as the number of detectors to acquire traffic data of.

이와 관련해서, 국내등록특허 제10-1942491호("도로교통 상황 모니터링 관제, 실시간 교통정보 분석, 교통신호제어로 이루어진 인공지능형 CCTV 통합관제중개제어모듈을 갖는 CCTV통합관제센터시스템")에서는 복수개의 현장용 CCTV모듈과 CCTV 통합관제관리서버 사이에 형성된 인공지능형 CCTV통합관제중개제어모듈을 통해, CCTV 통합관제관리서버가 해야 할 도로교통 상황 모니터링 관제기능과, 특정이동차량검출기능, 특정이동차량추적기능, 교통정보분석기능, 교통신호제어기능을 수행시킬 수 있는 도로교통 상황 모니터링 관제 ㅇ 실시간 교통정보 분석ㅇ교통신호제어로 이루어진 인공지능형 CCTV통합관제중개제어모듈을 갖는 CCTV통합관제센터시스템을 개시하고 있다.In this regard, Korean Patent Registration No. 10-1942491 ("CCTV integrated control center system having an artificial intelligent CCTV integrated control intermediary control module consisting of road traffic condition monitoring control, real-time traffic information analysis, and traffic signal control") Through the artificial intelligence CCTV integrated control intermediary control module formed between the on-site CCTV module and the CCTV integrated control management server, the road traffic condition monitoring control function that the CCTV integrated control management server should do, the specific mobile vehicle detection function, and the specific mobile vehicle tracking function It is launching a CCTV integrated control center system with an artificial intelligent CCTV integrated control intermediary control module consisting of traffic information analysis function, traffic information analysis function, and traffic signal control function. .

국내등록특허 제10-1942491호(등록일 2019.01.21.)Domestic registration patent No. 10-1942491 (registration date 2019.01.21.)

본 발명은 상기한 바와 같은 종래 기술의 문제점을 해결하기 위하여 안출된 것으로, 교차로 등을 촬영한 영상 데이터가 해당 교차로의 중심점이 되는 곳에서 촬영할 수 없기 때문에, 영상에서 촬영된 차량의 실제 지도 좌표계로 변환하여 정확한 위치정보를 제공함으로써, 교차로 내부 통과량, 회전량 등을 판단할 수 있어 도로 상의 교통정보/교통상황을 실시간으로 제공할 수 있어 교통 시스템의 효율성을 향상시킬 수 있는 영상 내 차량위치 산출 장치 및 그 방법, 이를 이용한 교통량 분석 시스템을 제공하는 것이다.The present invention was conceived to solve the problems of the prior art as described above, and since image data photographed at an intersection cannot be photographed at the center point of the intersection, the actual map coordinate system of the vehicle photographed from the image By converting and providing accurate location information, it is possible to determine the amount of passage inside the intersection, the amount of turn, etc., so that traffic information/traffic conditions on the road can be provided in real time, thereby calculating the vehicle location in the image that can improve the efficiency of the transportation system. It is to provide an apparatus and method, and a traffic analysis system using the same.

본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치는, 교차로 주변에 소정높이를 갖는 기설정된 영역에 설치되어, 교차로 내부의 기설정된 구역을 촬영하여 영상 데이터를 취득하는 영상 취득부(100) 및 상기 영상 취득부(100)와 네트워크 연결되어, 상기 영상 취득부(100)로부터 상기 영상 데이터를 전송받아, 이를 분석하여 영상 내 위치한 차량들의 관련 정보들을 연산하는 통합 분석부(200)를 포함하여 구성되는 것이 바람직하다.The apparatus for calculating a vehicle position in an image according to an embodiment of the present invention is installed in a predetermined area having a predetermined height around an intersection, and an image acquisition unit 100 for obtaining image data by photographing a predetermined area inside the intersection. And an integrated analysis unit 200 connected to the image acquisition unit 100 through a network, receiving the image data from the image acquisition unit 100, analyzing the image data, and calculating related information of vehicles located in the image. It is desirable to be configured.

더 나아가, 상기 영상 취득부(100)는 광학 센서(optical sensor)를 포함하는 카메라(IP camera)를 포함하는 것이 바람직하다.Furthermore, it is preferable that the image acquisition unit 100 includes an IP camera including an optical sensor.

더 나아가, 상기 통합 분석부(200)는 전송받은 상기 영상 데이터에 포함되어 있는 적어도 하나의 영상 프레임을 이용하여, 상기 영상 프레임 내에 포함되어 있는 차선 객체 정보들을 추출하고, 상기 영상 프레임의 고정된 x, y 좌표를 기준으로 각각의 차선 방향에 따라 차량의 진행방향 각도(θhor, θver)를 연산하여 초기각도 정보로 설정하는 초기 설정부(210)를 포함하여 구성되며, 상기 초기 설정부(210)는 각각의 차선 방향에 따라 차량의 진행에 의한 차량의 앞면길이를 연산하여, 초기길이 정보로 설정하는 것이 바람직하다.Furthermore, the integrated analysis unit 200 extracts lane object information included in the image frame by using at least one image frame included in the transmitted image data, and a fixed x of the image frame. , configured to include an initial setting unit 210 for setting the initial angle information by calculating the driving direction angles (θhor, θver) of the vehicle according to each lane direction based on the y coordinate, and the initial setting unit 210 It is preferable to set the initial length information by calculating the front length of the vehicle due to the progress of the vehicle according to each lane direction.

더 나아가, 상기 통합 분석부(200)는 전송받은 상기 영상 데이터에 포함되어 있는 영상 프레임들을 순차적으로 이용하여, 각각의 상기 영상 프레임 내에 포함되어 있는 적어도 하나의 차량 객체 정보를 추출하는 차량 탐지부(220)를 포함하여 구성되며, 상기 차량 객체 정보는 기설정된 차량의 중심점을 기준으로 기설정된 영역크기(x, y, w, h)를 갖는 것이 바람직하다.Further, the integrated analysis unit 200 sequentially uses image frames included in the transmitted image data, and extracts at least one vehicle object information included in each of the image frames ( 220), and the vehicle object information preferably has a preset area size (x, y, w, h) based on a preset central point of the vehicle.

더 나아가, 상기 통합 분석부(200)는 상기 차량 탐지부(220)에서 특정 영상 프레임(i번째 프레임)에서 추출한 특정 차량 객체 정보(P x(i), y(i), w(i), h(i))와 특정 영상 프레임의 다음 영상 프레임(i+1 번째 프레임)에서 추출한 특정 차량 객체 정보(P x(i+1), y(i+1), w(i+1), h(i+1))를 비교하여, 상기 차량의 진행방향에 따른 각도(θmain)를 연산하여, 추정 진행방향 각도 정보로 설정하는 차량 추정부(230) 및 상기 초기 설정부(210)에서 설정한 상기 초기각도 정보와 상기 차량 추정부(230)에서 설정한 상기 추정 진행방향 각도 정보를 비교하여, 상기 차량이 현재 위치에서 직진할 경우의 진행방향 각도(θbase_main)와, 차량의 앞면방향 각도(θbase_sub)를 연산하여, 기본 진행방향 각도 정보와 기본 앞면방향 각도 정보로 설정하는 차량위치 보정부(240)를 포함하여 구성되는 것이 바람직하다.Furthermore, the integrated analysis unit 200 includes specific vehicle object information (P x(i), y(i), w(i)) extracted from a specific image frame (i-th frame) by the vehicle detection unit 220, h(i)) and specific vehicle object information (P x(i+1), y(i+1), w(i+1), h extracted from the next video frame (i+1th frame) of the specific video frame) By comparing (i+1)), the vehicle estimating unit 230 that calculates the angle θmain according to the driving direction of the vehicle, and sets the estimated driving direction angle information, and the initial setting unit 210 By comparing the initial angle information and the estimated traveling direction angle information set by the vehicle estimating unit 230, the traveling direction angle (θbase_main) when the vehicle goes straight from the current position and the front direction angle (θbase_sub) of the vehicle ) By calculating the basic direction angle information and the basic front direction angle information is preferably configured to include a vehicle position correction unit 240 for setting.

더 나아가, 상기 차량위치 보정부(240)는 상기 차량 탐지부(220)에서 추출한 상기 차량 객체 정보를 이용하여, 상기 차량이 현재 위치에서 회전되었을 경우에 대한 차량의 앞면길이(Lbase_main), 상기 차량이 현재 위치에서 직진할 경우에 대한 차량의 앞면길이(Lbase_sub)를 연산하여, 제1, 제2 기본 앞면길이 정보로 설정하는 것이 바람직하다.Furthermore, the vehicle position correction unit 240 uses the vehicle object information extracted from the vehicle detection unit 220 to determine the length of the front surface of the vehicle when the vehicle is rotated at the current position (Lbase_main), and the vehicle It is preferable to calculate the front length (Lbase_sub) of the vehicle for the case of going straight from the current position, and set the first and second basic front length information.

더 나아가, 상기 통합 분석부(200)는 상기 차량 추정부(230)와 차량위치 보정부(240)에서 연산한 상기 차량의 관련 정보들을 이용하여, 상기 차량의 추정 앞면방향 각도 정보(θsub), 추정 앞면길이 정보(Lsub)를 추정하여, 기설정된 수식에 적용하여 최종 차량위치 정보(Xcar, Ycar)를 연산하는 최종 연산부(250)를 더 포함하여 구성되는 것이 바람직하다.Furthermore, the integrated analysis unit 200 uses the vehicle-related information calculated by the vehicle estimating unit 230 and the vehicle position correction unit 240, and the estimated front angle information (θsub) of the vehicle, It is preferable to further include a final calculation unit 250 that estimates the estimated front length information Lsub and applies it to a preset equation to calculate final vehicle position information (Xcar, Ycar).

더 나아가, 상기 최종 연산부(250)는 상기 기본 진행방향 각도 정보와 기본 앞면방향 각도 정보의 각도차를 연산하여, 차량이 회전할 경우의 진행방향의 최대 변화량(θdif_main)과 차량 앞면방향의 최대 변화량(θdif_sub)을 산출하고, 연산한 변화량과 상기 추정 진행방향 각도 정보의 변화량을 이용하여, 차량이 직진할 경우의 진행방향과 현재 진행방향의 차이값(θdelta_main)과, 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값(θdelta_sub)을 산출하고, 차이값들을 이용하여, 상기 추정 앞면방향 각도 정보를 연산하는 것이 바람직하다.Further, the final calculation unit 250 calculates the angle difference between the basic travel direction angle information and the basic front direction angle information, and the maximum change amount θdif_main in the driving direction when the vehicle rotates and the maximum change amount in the front direction of the vehicle (θdif_sub) is calculated, and using the calculated amount of change and the amount of change in the estimated heading direction angle information, the difference value (θdelta_main) between the moving direction when the vehicle goes straight and the current driving direction, and the front surface when the vehicle goes straight It is preferable to calculate the difference value θdelta_sub between the direction and the current front direction, and calculate the estimated front direction angle information by using the difference values.

더 나아가, 상기 최종 연산부(250)는 상기 제1, 제2 기본 앞면길이 정보들의 길이차(Ldif_sub)를 연산하고, 연산한 길이차와 상기 차량 앞면방향의 최대 변화량, 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값을 이용하여, 차량이 회전할 경우의 앞면길이 변화량(Ldelta_sub)을 산출하고, 상기 현재 위치에서 직진할 경우에 대한 차량의 앞면길이 정보와 차량이 회전할 경우의 앞면길이 변화량을 이용하여 상기 추정 앞면길이 정보를 연산하는 것이 바람직하다.Further, the final calculation unit 250 calculates the length difference (Ldif_sub) of the first and second basic front length information, the calculated length difference and the maximum amount of change in the front direction of the vehicle, and the front surface when the vehicle goes straight. Using the difference between the direction and the current front direction, calculate the amount of change in the front length (Ldelta_sub) when the vehicle rotates, and information on the front length of the vehicle when going straight from the current position and the front surface when the vehicle rotates. It is preferable to calculate the estimated front length information by using the length change amount.

본 발명의 또다른 일 실시예에 따른 영상 내 차량위치 산출 방법은, 영상 취득부에서, 교차로 내부의 기설정된 구역을 촬영하여 영상 데이터를 취득하는 영상 취득단계(S100), 통합 분석부에서, 상기 영상 취득단계(S100)에 의해 취득한 상기 영상 데이터를 전송받아 이를 분석하여 영상 내 위치한 차량들의 관련 정보들을 연산하여, 각 차량의 최종 위치정보(Xcar, Ycar)를 판단하는 분석단계(S200)로 이루어지며, 상기 영상 취득단계(S100)는 광학 센서(optical sensor)를 포함하는 카메라(IP camera)로 영상 데이터를 취득하는 것이 바람직하다.According to another embodiment of the present invention, a method for calculating a vehicle location in an image includes, in an image acquisition unit, an image acquisition step (S100) of acquiring image data by photographing a preset area inside an intersection, in an integrated analysis unit, the Consists of an analysis step (S200) of receiving the image data acquired by the image acquisition step (S100), analyzing it, calculating related information of vehicles located in the image, and determining the final location information (Xcar, Ycar) of each vehicle. In the image acquisition step (S100), it is preferable to acquire image data with an IP camera including an optical sensor.

더 나아가, 상기 분석단계(S200)는 전송받은 상기 영상 데이터에 포함되어 있는 적어도 하나의 영상 프레임을 이용하여, 상기 영상 프레임 내에 포함되어 있는 차선 객체 정보들을 추출하고, 상기 영상 프레임의 고정된 x, y 좌표를 기준으로 각각의 차선 방향에 따라 차량의 진행방향 각도(θhor, θver)를 연산하여 초기각도 정보로 설정하며, 각각의 차선 방향에 따라 차량의 진행에 의한 차량의 앞면길이를 연산하여, 초기길이 정보로 설정하는 초기 설정단계(S210), 전송받은 상기 영상 데이터에 포함되어 있는 영상 프레임들을 순차적으로 이용하여, 기설정된 차량의 중심점을 기준으로 기설정된 영역크기(x, y, w, h)를 갖으며, 각각의 상기 영상 프레임 내에 포함되어 있는 적어도 하나의 차량 객체 정보를 추출하는 차량 탐지단계(S220), 상기 차량 탐지단계(S220)에 의해, 특정 영상 프레임(i번째 프레임)에서 추출한 특정 차량 객체 정보(P x(i), y(i), w(i), h(i))와 특정 영상 프레임의 다음 영상 프레임(i+1 번째 프레임)에서 추출한 특정 차량 객체 정보(P x(i+1), y(i+1), w(i+1), h(i+1))를 비교하여, 상기 차량의 진행방향에 따른 각도(θmain)를 연산하여, 추정 진행방향 각도 정보로 설정하는 차량 추정단계(S230), 상기 초기 설정단계(S210)에 의해 설정한 상기 초기각도 정보와, 상기 차량 추정단계(S230)에 의해 설정한 상기 추정 진행방향 각도 정보를 비교하여, 상기 차량이 현재 위치에서 직진할 경우의 진행방향 각도(θbase_main)와, 차량의 앞면방향 각도(θbase_sub)를 연산하여, 기본 진행방향 각도 정보와 기본 앞면방향 각도 정보로 설정하며, 상기 차량 탐지단계(S220)에 의해 추출한 상기 차량 객체 정보를 이용하여, 상기 차량이 현재 위치에서 회전되었을 경우에 대한 차량의 앞면길이(Lbase_main), 상기 차량이 현재 위치에서 직진할 경우에 대한 차량의 앞면길이(Lbase_sub)를 연산하여, 제1, 제2 기본 앞면길이 정보로 설정하는 차량위치 보정단계(S240) 및 상기 차량 추정단계(S230)와 상기 차량위치 보정단계(S240)에 의해 연산한 상기 차량의 관련 정보들을 이용하여, 상기 차량의 추정 앞면방향 각도 정보(θsub), 추정 앞면길이 정보(Lsub)를 추정하여, 기설정된 수식에 적용하여 최종 차량위치 정보(Xcar, Ycar)를 연산하는 최종 연산단계(S250)를 포함하여 구성되는 것이 바람직하다.Furthermore, in the analysis step (S200), by using at least one image frame included in the transmitted image data, lane object information included in the image frame is extracted, and fixed x of the image frame, Based on the y-coordinate, the vehicle's travel direction angles (θhor, θver) are calculated according to each lane direction and set as initial angle information, and the front length of the vehicle due to the vehicle's progress is calculated according to each lane direction, The initial setting step of setting the initial length information (S210), by sequentially using the image frames included in the transmitted image data, a preset area size (x, y, w, h) based on a preset center point of the vehicle. ), and extracted from a specific image frame (i-th frame) by the vehicle detection step (S220) of extracting at least one vehicle object information included in each of the image frames, and the vehicle detection step (S220). Specific vehicle object information (P x(i), y(i), w(i), h(i)) and specific vehicle object information extracted from the next video frame (i+1th frame) of a specific video frame (P x (i+1), y(i+1), w(i+1), h(i+1)) are compared, and the angle θmain according to the traveling direction of the vehicle is calculated, and the estimated traveling direction angle By comparing the initial angle information set by the vehicle estimating step (S230) and the initial setting step (S210) of setting information with the estimated traveling direction angle information set by the vehicle estimating step (S230), the When the vehicle goes straight from the current position, the driving direction angle (θbase_main) and the front direction angle (θbase_sub) of the vehicle are calculated and set as basic travel direction angle information and basic front direction angle information, and the vehicle detection step (S220) Using the vehicle object information extracted by ), the front length of the vehicle (Lbase_main) when the vehicle is rotated at the current position, and the front length of the vehicle when the vehicle goes straight from the current position (Lbase_su b) is calculated and the vehicle position correction step (S240) of setting the first and second basic front length information, and the relationship of the vehicle calculated by the vehicle estimating step (S230) and the vehicle position correction step (S240) Using the information, a final calculation step of calculating the final vehicle position information (Xcar, Ycar) by estimating the estimated front direction angle information (θsub) and the estimated front length information (Lsub) of the vehicle and applying it to a preset equation ( S250) is preferably configured to include.

더 나아가, 상기 최종 연산단계(S250)는 상기 기본 진행방향 각도 정보와 기본 앞면방향 각도 정보의 각도차를 연산하여, 차량이 회전되었을 경우의 진행방향의 최대 변화량(θdif_main)과 차량 앞면방향의 최대 변화량(θdif_sub)을 산출하고, 연산한 변화량과 상기 추정 진행방향 각도 정보의 변화량을 이용하여, 차량이 직진할 경우의 진행방향과 현재 진행방향의 차이값(θdelta_main)과, 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값(θdelta_sub)을 산출하고, 차이값들을 이용하여, 상기 추정 앞면방향 각도 정보를 연산하며, 상기 제1, 제2 기본 앞면길이 정보들의 길이차(Ldif_sub)를 연산하고, 연산한 길이차와 상기 차량 앞면방향의 최대 변화량, 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값을 이용하여, 차량이 회전되었을 경우의 앞면길이 변화량(Ldelta_sub)을 산출하고, 상기 현재 위치에서 직진할 경우에 대한 차량의 앞면길이 정보와 차량이 회전되었을 경우의 앞면길이 변화량을 이용하여 상기 추정 앞면길이 정보를 연산하는 것이 바람직하다.Further, the final calculation step (S250) calculates the angle difference between the basic travel direction angle information and the basic front direction angle information, and the maximum change amount θdif_main in the driving direction when the vehicle is rotated and the maximum amount of the vehicle front direction. Calculate the amount of change (θdif_sub), and using the calculated amount of change and the amount of change in the estimated heading direction angle information, the difference value (θdelta_main) between the moving direction when the vehicle goes straight and the current driving direction, and when the vehicle goes straight Calculate the difference value (θdelta_sub) between the front direction and the current front direction, calculate the estimated front direction angle information using the difference values, and calculate the length difference (Ldif_sub) between the first and second basic front length information And, using the calculated length difference and the maximum change in the front direction of the vehicle, and the difference between the front direction when the vehicle goes straight and the current front direction, the front length change amount (Ldelta_sub) when the vehicle is rotated is calculated, It is preferable to calculate the estimated front length information by using the front length information of the vehicle when going straight from the current position and the amount of change in the front length when the vehicle is rotated.

본 발명의 다른 일 실시예에 따른 영상 내 차량위치 산출 방법을 이용한 교통량 분석 시스템은, 영상 내 차량위치 산출 방법에 의해, 영상 내 위치한 차량들의 최종 위치정보를 판단하는 차량위치 판단부(1000) 및 상기 차량위치 판단부(1000)에서 판단한 상기 차량의 최종 위치정보들을 이용하여, 교통량을 분석하는 교통량 분석부(2000)를 포함하여 구성되며, 상기 교통량 분석부(2000)는 외부의 요청에 따라, 분석한 교통량 관련 정보들을 전송하는 것이 바람직하다.A traffic volume analysis system using a vehicle position calculation method in an image according to another embodiment of the present invention includes a vehicle position determination unit 1000 that determines final position information of vehicles located in the image by the vehicle position calculation method in the image, and It is configured to include a traffic volume analysis unit 2000 that analyzes the traffic volume using the final location information of the vehicle determined by the vehicle location determination unit 1000, the traffic volume analysis unit 2000 according to an external request, It is desirable to transmit the analyzed traffic volume related information.

더 나아가, 상기 교통량 분석부(2000)는 상기 차량위치 판단부(1000)에서 판단한 상기 차량의 최종 위치정보들을 이용하여, 교차로 내부의 각 방향별 차량들의 이동량과 평균속도를 분석하여, 교통량을 분석하는 것이 바람직하다.Furthermore, the traffic volume analysis unit 2000 analyzes the amount of movement and average speed of vehicles in each direction inside the intersection using the final location information of the vehicle determined by the vehicle location determination unit 1000, and analyzes the traffic volume. It is desirable to do.

더 나아가, 상기 교통량 분석부(2000)는 상기 차량위치 판단부(1000)에서 판단한 상기 차량의 최종 위치정보들을 이용하여, 특정 차량이 기설정된 시간동안 위치 변화가 발생하지 않을 경우, 해당 차량의 문제가 발생한 것으로 판단하는 것이 바람직하다.Furthermore, the traffic volume analysis unit 2000 uses the final location information of the vehicle determined by the vehicle location determination unit 1000, and when a specific vehicle does not change in position for a preset time, the problem of the vehicle It is desirable to judge that has occurred.

상기와 같은 구성에 의한 본 발명의 영상 내 차량위치 산출 장치 및 그 방법, 이를 이용한 교통량 분석 시스템은, 교차로 외부 일측에 광학 센서를 포함하는 IP camera를 설치하여, 영상 데이터를 취득함으로써, 기존의 교통데이터를 수집하는 루프검지기 또는 영상기반 검지기가 갖는 문제점을 해소할 수 있는 장점이 있다.The vehicle location calculation apparatus and method of the present invention according to the above configuration, and a traffic volume analysis system using the same, install an IP camera including an optical sensor on one side outside an intersection to acquire image data, There is an advantage of solving the problems of a loop detector or an image-based detector that collects data.

또한, 교차로 등을 촬영한 영상 데이터가 해당 교차로의 중심점이 되는 곳에서 촬영할 수 없기 때문에, 영상에서 촬영된 차량의 실제 지도 좌표계로 변환하여 정확한 위치정보를 제공함으로써, 교차로 내부 통과량, 회전량 등을 판단할 수 있어 도로 상의 교통정보/교통상황을 실시간으로 제공할 수 있는 장점이 있다.In addition, since image data photographing an intersection, etc. cannot be photographed at the center point of the intersection, it is converted into the actual map coordinate system of the vehicle photographed in the image and provides accurate location information, such as the amount of passage inside the intersection, the amount of rotation, etc. It has the advantage of being able to provide traffic information/traffic conditions on the road in real time.

이를 통해서, 도로혼잡, 교통혼잡 등에 따른 신호체계를 실시간으로 제어할 수 있어, 교통 시스템의 효율성을 향상시킬 수 있는 장점이 있다.Through this, since it is possible to control a signal system according to road congestion, traffic congestion, etc. in real time, there is an advantage of improving the efficiency of the transportation system.

더불어, 교차로 등의 내부의 돌방상황까지 비교적 정확하게 판단할 수 있어, 진입 예정의 차량을 제어할 수 있는 장점이 있다.In addition, there is an advantage in that it is possible to relatively accurately determine a turning situation inside an intersection or the like, thereby controlling a vehicle to be entered.

도 1은 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치의 도로 상에 위치시킬 경우의 구성 예시도이다.
도 3은 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치의 초기 설정부(210)에서의, 기준각도 설정 예시도이다.
도 4는 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치의 차량 탐지부(220)에서의, 차량객체정보 추출 예시도이다.
도 5는 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치의 차량위치 보정부(240), 최종 연산부(250)에서의, 각도 추출 예시도이다.
도 6 및 도 7은 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치의 차량 위치 연산 예시도이다.
도 8은 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 방법의 순서도이다.
도 9는 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치를 이용한 교통량 분석 시스템의 구성도이다.
1 is a block diagram of an apparatus for calculating a vehicle position in an image according to an exemplary embodiment of the present invention.
FIG. 2 is a diagram illustrating a configuration of an apparatus for calculating a vehicle position in an image according to an exemplary embodiment of the present invention.
3 is an exemplary view of setting a reference angle in the initial setting unit 210 of an apparatus for calculating a vehicle position in an image according to an embodiment of the present invention.
4 is an exemplary diagram illustrating extraction of vehicle object information by the vehicle detection unit 220 of the apparatus for calculating a vehicle position in an image according to an embodiment of the present invention.
FIG. 5 is an exemplary diagram of angle extraction in the vehicle position correction unit 240 and the final operation unit 250 of the apparatus for calculating a vehicle position in an image according to an exemplary embodiment of the present invention.
6 and 7 are exemplary diagrams for calculating a vehicle position by an apparatus for calculating a vehicle position in an image according to an exemplary embodiment of the present invention.
8 is a flowchart of a method of calculating a vehicle position in an image according to an embodiment of the present invention.
9 is a block diagram of a traffic volume analysis system using an apparatus for calculating a vehicle position in an image according to an embodiment of the present invention.

이하 첨부한 도면들을 참조하여 본 발명의 영상 내 차량위치 산출 장치 및 그 방법, 이를 이용한 교통량 분석 시스템을 상세히 설명한다. 다음에 소개되는 도면들은 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 예로서 제공되는 것이다. 따라서, 본 발명은 이하 제시되는 도면들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 또한, 명세서 전반에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다.Hereinafter, an apparatus for calculating a vehicle position in an image, a method thereof, and a traffic volume analysis system using the same according to the present invention will be described in detail with reference to the accompanying drawings. The drawings introduced below are provided as examples in order to sufficiently convey the spirit of the present invention to those skilled in the art. Accordingly, the present invention is not limited to the drawings presented below and may be embodied in other forms. In addition, the same reference numbers throughout the specification indicate the same elements.

이 때, 사용되는 기술 용어 및 과학 용어에 있어서 다른 정의가 없다면, 이 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 통상적으로 이해하고 있는 의미를 가지며, 하기의 설명 및 첨부 도면에서 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 설명은 생략한다.In this case, unless there are other definitions in the technical terms and scientific terms used, they have the meanings commonly understood by those of ordinary skill in the art to which this invention belongs, and the gist of the present invention in the following description and accompanying drawings A description of known functions and configurations that may unnecessarily obscure will be omitted.

더불어, 시스템은 필요한 기능을 수행하기 위하여 조직화되고 규칙적으로 상호 작용하는 장치, 기구 및 수단 등을 포함하는 구성 요소들의 집합을 의미한다.In addition, the system refers to a set of components including devices, devices, and means that are organized and regularly interact to perform a required function.

ITS(지능형 교통 시스템, Intelligent Transportation System)이란, 정보통신 기술을 통해 교통정보를 수집하여 운전자나, 여행자, 교통 정책 수집자 등에게 제공함으로써, 편리한 통행과, 교통체계 전체의 효율성을 극대화하기 위한 교통 시스템이다. 도로 상의 교통정보를 실시간으로 제공하는 것은, 별도의 신호체계의 제어 없이도, 교통정보의 제공 그 자체만으로도 운영자 측면의 수요관리와 교통 시스템의 효율성을 향상시키고, 이용자의 통행시간 절감이나 운행비용절감 등의 편익이 발생하는 장점이 있다.ITS (Intelligent Transportation System) is a transportation system that collects traffic information through information and communication technology and provides it to drivers, travelers, and traffic policy collectors. System. Providing traffic information on the road in real time, without controlling a separate signal system, improves the demand management of the operator and the efficiency of the traffic system, and reduces travel time or operating cost by providing traffic information itself. There is an advantage that the benefits of

특히, 교차로에서의 교통사고는 전체 교통사고 중 13%에 해당할 정도로 많이 발생하고 있으며, 이를 감안하여, 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치 및 그 방법, 이를 이용한 교통량 분석 시스템을 통해서, 교차로 내부의 교통상황을 미리 추정하고 이를 제공함으로써, 교통사고를 미연에 방지하여 사고율을 낮출 수 있는 장점이 있다.In particular, traffic accidents at intersections are occurring as many as 13% of the total traffic accidents, and taking this into account, the apparatus and method for calculating the vehicle location in the image according to an embodiment of the present invention, and a traffic volume analysis system using the same Through this, there is an advantage of lowering the accident rate by preventing traffic accidents in advance by estimating and providing the traffic conditions inside the intersection in advance.

이를 위해, 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치 및 그 방법, 이를 이용한 교통량 분석 시스템은, 1. 딥러닝을 이용한 차량 객체 검출을 수행함으로써, 실시간 차량 객체 검출이 가능하며, 부정확성을 해소하기 위하여 칼만필터를 이용하여 보정하는 것이 바람직하다.To this end, the apparatus and method for calculating a vehicle position in an image according to an embodiment of the present invention, and a traffic analysis system using the same, 1. By performing vehicle object detection using deep learning, real-time vehicle object detection is possible, and inaccuracy It is preferable to correct using a Kalman filter to solve the problem.

또한, 2. 영상처리기법을 이용한 차량 객체의 이동방향을 추적함으로써, 이전 프레임과 현재 프레임 간의 객체들의 위치관계를 이용하여 차량의 이동방향을 추적함으로써, 좀 더 정확한 교통량을 분석할 수 있는 장점이 있다.In addition, 2. By tracking the moving direction of the vehicle object using an image processing technique, it is advantageous to analyze more accurate traffic volume by tracking the moving direction of the vehicle using the positional relationship of objects between the previous frame and the current frame. have.

마지막으로, 3. 차량의 위치에 따른 기본각 및 차량의 앞면 길이를 이용하여, 차량의 위치를 좌표로 연산할 수 있어, 영상에서의 픽셀 좌표를 실세계의 위경도 좌표계로 변환하여, 좀 더 정확한 교통량을 분석할 수 있는 장점이 있다.Finally, 3. By using the base angle according to the vehicle's position and the length of the front side of the vehicle, the position of the vehicle can be calculated as a coordinate, and the pixel coordinates in the image can be converted into a real-world latitude and longitude coordinate system. There is an advantage of being able to analyze traffic volume.

이를 통해서, 기존의 영상처리방식의 문제점인, 두 대 이상의 차량이 비슷한 경로로 이동할 경우, 단일차량으로 검출되는 문제점이나, 주행하는 차량의 그림자로 인하여 다른 차선에도 차량이 존재하는 것처럼 검출되는 문제점을 해소할 수 있으며, 실시간 교통량을 파악함으로써, 실시간 도로 혼잡, 교통 혼잡을 효과적으로 관리할 수 있다.Through this, when two or more vehicles move in a similar path, which is a problem of the existing image processing method, a problem that is detected as a single vehicle, or a problem that is detected as if a vehicle exists in another lane due to the shadow of the driving vehicle is solved. It can be resolved, and by grasping the real-time traffic volume, real-time road congestion and traffic congestion can be effectively managed.

특히, 자율주행 차량이 주행하면서 필요한 정보를 교차로에 도착하기 전에 사전에 제공받음으로써, 자율주행 정책에 도움을 줄 수 있는 장점이 있다.In particular, there is an advantage of being able to help the autonomous driving policy by receiving necessary information before arriving at the intersection while the autonomous vehicle is driving.

이러한, 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치는 도 1에 도시된 바와 같이, 영상 취득부(100), 통합 분석부(200)를 포함하여 구성되는 것이 바람직하다.As shown in FIG. 1, the apparatus for calculating a vehicle location in an image according to an exemplary embodiment of the present invention is preferably configured to include an image acquisition unit 100 and an integrated analysis unit 200.

각 구성에 대해서 자세히 알아보자면,To learn more about each configuration,

상기 영상 취득부(100)는 교차로 주변에 소정높이를 갖는 미리 설정된 영역에 설치되어, 교차로 내부의 미리 설정된 구역을 촬영하여 영상 데이터를 취득하는 것이 바람직하다. 이 때, 상기 영상 취득부(100)는 광학 센서(optical sensor)를 포함하는 카메라(IP camera)를 포함하여 구성되는 것이 바람직하다.It is preferable that the image acquisition unit 100 is installed in a preset area having a predetermined height around the intersection, and acquires image data by photographing a preset area inside the intersection. In this case, the image acquisition unit 100 is preferably configured to include a camera (IP camera) including an optical sensor (optical sensor).

상세하게는, 상기 영상 취득부(100)는 도 2에 도시된 바와 같이, 교차로 외부의 독립 지주나 신호등 또는 가로등 지주에 설치되어, 교차로 내부의 일정한 영역을 촬영하는 것이 바람직하다.Specifically, as shown in FIG. 2, the image acquisition unit 100 is preferably installed on an independent post, a traffic light, or a street lamp post outside the intersection, and photographs a certain area inside the intersection.

이 때, 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치에서, 교차로 내부를 촬영하여 교통량을 파악하는 이유는, 도로 모든 곳에 대한 교통량을 감지하는 수단을 구비하기에는, 현실적으로 불가능하지만, 도로는 크게 놓고 보았을 때, 교차로의 연속으로, 교차로에서 각 방향으로 분기되어 교통 흐름이 이어지기 때문에, 각 교차로를 모니터링함으로써, 교차로 간 이어지는 나머지 부분을 예측할 수 있기 때문이다.At this time, in the apparatus for calculating the vehicle position in the image according to an embodiment of the present invention, the reason for determining the traffic volume by photographing the interior of the intersection is that it is practically impossible to provide a means for detecting the traffic volume for all places on the road. This is because, when viewed in a larger way, traffic flow is continued by branching from the intersection in each direction in a series of intersections, and by monitoring each intersection, the remaining parts of the intersection can be predicted.

그렇기 때문에, 상기 영상 취득부(100)를 통해서, 교차로 내부의 일정한 영역, 즉 교차로 내부의 통과량과 회전량을 알 수 있는 영역을 설정하여 해당 영역의 차량 움직임을 분석하는 것이 가장 바람직하다.Therefore, it is most preferable to set a certain area inside the intersection through the image acquisition unit 100, that is, an area in which the amount of passage and the amount of rotation inside the intersection can be known, and analyze the vehicle movement in the area.

다만, 상술한 바와 같이, 상기 영상 취득부(100)에서 취득한 영상을 그대로 활용하기에는, 도 2에 도시된 바와 같이, 카메라가 교차로의 중심부 한가운데 설치되는 것은 현실적으로 거의 불가능하고, 일측에 치우쳐진 상태로 영상 데이터를 취득하게 된다.However, as described above, in order to use the image acquired by the image acquisition unit 100 as it is, it is practically impossible for the camera to be installed in the middle of the intersection, as shown in FIG. Video data is acquired.

이 경우, 도 4, 도 6 및 도 7에 도시된 바와 같이, 교차로의 형태가 영상 데이터의 x축, y축과 정확히 맞지 않고 영상 자체가 틀어진 채로 나타나게 된다.In this case, as shown in FIGS. 4, 6, and 7, the shape of the intersection does not exactly match the x-axis and y-axis of the image data, and the image itself appears to be distorted.

이에 따라, 상기 통합 분석부(200)를 통해서, 영상 내 차량의 움직임을 판단하여, 그 움직임을 추정할 뿐 아니라, 기본적으로 영상 자체를 정확한 위경도 좌표계로 변환할 수 있다.Accordingly, through the integrated analysis unit 200, it is possible to determine the movement of the vehicle in the image, estimate the movement, and basically transform the image itself into an accurate latitude and longitude coordinate system.

즉, 상기 통합 분석부(200)는 상기 영상 취득부(100)와 네트워크 연결되어, 상기 영상 취득부(100)로부터 상기 영상 데이터를 전송받아, 이를 분석하여 영상 내 위치한 차량들의 관련 정보들을 연산할 수 있다.That is, the integrated analysis unit 200 is network-connected to the image acquisition unit 100, receives the image data from the image acquisition unit 100, analyzes it, and calculates related information of vehicles located in the image. I can.

이를 위해, 상기 통합 분석부(200)는 도 1에 도시된 바와 같이, 초기 설정부(210), 차량 탐지부(220), 차량 추정부(230), 차량위치 보정부(240) 및 최종 연산부(250)를 포함하여 구성되는 것이 바람직하다.To this end, the integrated analysis unit 200 includes an initial setting unit 210, a vehicle detection unit 220, a vehicle estimation unit 230, a vehicle position correction unit 240, and a final operation unit, as shown in FIG. 1. It is preferable to be configured to include (250).

상기 초기 설정부(210)는 전송받은 상기 영상 데이터에 포함되어 있는 적어도 하나의 영상 프레임을 이용하여, 상기 영상 프레임 내에 포함되어 있는 차선 객체 정보들을 추출하는 것이 바람직하다.It is preferable that the initial setting unit 210 extracts lane object information included in the image frame by using at least one image frame included in the transmitted image data.

이 때, 전송받은 상기 영상 데이터에 포함되어 있는 적어도 하나의 영상 프레임은, 가장 바람직하게는 첫 번째 영상 프레임이다.At this time, at least one image frame included in the transmitted image data is most preferably a first image frame.

상기 초기 설정부(210)를 통해서, 도 3, 도 4, 도 6 및 도 7에 도시된 바와 같이, 특히, 도 3에 도시된 바와 같이, 영상 데이터의 x축, y축과 차량의 수직, 수평방향의 이동이 일치하지 않기 때문에 이를 보정하기 위한 연산을 수행하는 것이 바람직하다.Through the initial setting unit 210, as shown in FIGS. 3, 4, 6, and 7, in particular, as shown in FIG. 3, the x-axis, y-axis of the image data and the vertical of the vehicle, Since the movement in the horizontal direction does not coincide, it is desirable to perform an operation to correct this.

상세하게는, 상기 초기 설정부(210)는 미리 설정되어 있는 딥러닝 모델을 이용하여 상기 영상 프레임 내에 포함되어 있는 차선 객체 정보들을 추출하고, 미리 설정된 상기 영상 프레임의 고정된 x, y 좌표를 기준으로 각각의 차선 방향에 따라 차량의 진행방향 각도(θhor, θver)를 연산하여 초기각도 정보로 설정하는 것이 바람직하다.In detail, the initial setting unit 210 extracts lane object information included in the image frame using a preset deep learning model, and based on the fixed x, y coordinates of the image frame set in advance. As a result, it is preferable to set the initial angle information by calculating the traveling direction angles (θhor, θver) of the vehicle according to each lane direction.

또한, 상기 초기 설정부(210)는 각각의 차선 방향에 따라 차량의 진행에 의한 차량의 앞면길이(Lhor, Lver)를 연산하여 초기길이 정보로 설정하는 것이 바람직하다.In addition, it is preferable that the initial setting unit 210 calculates the front length (Lhor, Lver) of the vehicle due to the progress of the vehicle according to each lane direction and sets the initial length information.

즉, 도 3, 도 5의 a)에서 각도로 표시된 바와 같이, 상기 영상 프레임의 x, y축 대비, 상기 차선 객체 정보들이 향하고 있는 축을 판단하여, 차량이 차선을 따라 수평방향으로 직진할 경우의 진행방향 각도(θhor)를 연산할 수 있으며, 차량이 차선을 따라 수직방향으로 직진할 경우의 진행방향 각도(θver)를 연산할 수 있다.That is, as indicated by angles in FIGS. 3 and 5A), when the vehicle goes straight horizontally along the lane by determining the axis to which the lane object information is directed compared to the x and y axes of the image frame. The traveling direction angle θhor can be calculated, and the traveling direction angle θver can be calculated when the vehicle goes straight along the lane in the vertical direction.

뿐만 아니라, 차량이 차선을 따라 수평방향으로 직진할 경우의 차량의 앞면 길이(Lhor)와 차량이 차선을 따라 수직방향으로 직진할 경우의 차량의 앞면 길이(Lver)를 연산할 수 있다.In addition, it is possible to calculate the front length Lhor of the vehicle when the vehicle travels horizontally along the lane and the front length Lver of the vehicle when the vehicle travels vertically along the lane.

다시 말하자면, 상기 초기 설정부(210)는 영상 프레임 내에 차량의 존재 여부와는 무관하며, 영상 데이터의 정확성을 높이기 위하여 영상 프레임과 교차로 간의 틀어진 각도를 연산하는 것이 바람직하다.In other words, the initial setting unit 210 is irrelevant to the presence or absence of a vehicle in the image frame, and it is preferable to calculate a distorted angle between the image frame and the intersection in order to increase the accuracy of the image data.

상기 차량 탐지부(220)는 전송받은 상기 영상 데이터에 포함되어 있는 영상 프레임들을 순차적으로 이용하여, 각각의 상기 영상 프레임 내에 포함되어 있는 적어도 하나의 차량 객체 정보를 추출하는 것이 바람직하다.Preferably, the vehicle detection unit 220 sequentially uses image frames included in the transmitted image data to extract at least one vehicle object information included in each of the image frames.

즉, 상기 차량 탐지부(220)는 도 4에 도시된 바와 같이, 미리 설정되어 있는 딥러닝 모델을 이용하여 상기 영상 프레임 내에 포함되어 있는 상기 차량 객체 정보를 추출할 수 있다.That is, as shown in FIG. 4, the vehicle detection unit 220 may extract the vehicle object information included in the image frame using a preset deep learning model.

이 때, 상기 차량 객체 정보는 도 4에 도시된 바와 같이, 사각형 형태로서, 미리 설정된 차량의 중심점을 기준으로 미리 설정된 영역크기(x, y, w, h)를 갖도록 추출하는 것이 바람직하다.In this case, it is preferable to extract the vehicle object information to have a preset area size (x, y, w, h) based on a preset center point of the vehicle in a rectangular shape as shown in FIG. 4.

또한, 상기 차량 탐지부(220)는 영상 프레임의 순서대로, 즉, 순차적으로, 각각의 영상 프레임 내에 포함되어 있는 차량 객체 정보를 추출하는 것이 바람직하다.In addition, it is preferable that the vehicle detection unit 220 extracts vehicle object information included in each image frame in the order of the image frames, that is, sequentially.

이를 통해서, 상기 차량 추정부(230)는 상기 차량 탐지부(220)에서 추출한 하나의 차량 객체 정보에 대한 두 개의 영상 프레임 내에 포함되어 있는 정보들을 비교하여, 차량의 진행방향을 연산하여 추정 진행방향 각도 정보로 설정할 수 있다.Through this, the vehicle estimating unit 230 compares the information included in two image frames for one vehicle object information extracted by the vehicle detection unit 220, and calculates the driving direction of the vehicle. It can be set by angle information.

상세하게는, 상기 차량 추정부(230)는 도 5의 b)에서 각도로 표시된 바와 같이, 상기 차량 탐지부(220)에서 특정 영상 프레임(i번째 프레임)에서 추출한 특정 차량 객체 정보(P x(i), y(i), w(i), h(i))와 특정 영상 프레임의 다음 영상 프레임(i+1번째 프레임)에서 추출한 동일한 특정 차량에 대한 차량 객체 정보(P x(i+1), y(i+1), w(i+1), h(i+1))를 비교하여, 상기 차량의 진행방향에 따른 각도(θmain)를 연산하여, 상기 추정 진행방향 정보로 설정하는 것이 바람직하다.In detail, the vehicle estimating unit 230 includes specific vehicle object information (P x ()) extracted from a specific image frame (i-th frame) by the vehicle detection unit 220 as indicated by an angle in FIG. 5B). Vehicle object information for the same specific vehicle extracted from i), y(i), w(i), h(i)) and the next video frame (i+1th frame) of a specific video frame (P x(i+1) ), y(i+1), w(i+1), h(i+1)) are compared to calculate the angle θmain according to the traveling direction of the vehicle, and set as the estimated traveling direction information. It is desirable.

이 때, 상기 차량 추정부(230)는 미리 설정된 코드 함수연산을 이용하여 차량의 진행방향에 따는 추정각도를 계산하는 것이 바람직하며, 미리 설정된 코드 함수연산은 하기의 수학식 1과 같다.In this case, it is preferable that the vehicle estimating unit 230 calculates an estimated angle according to the traveling direction of the vehicle by using a preset code function calculation, and the preset code function calculation is as Equation 1 below.

Figure pat00001
Figure pat00001

여기서, i는 1이상의 자연수임.Where i is a natural number greater than or equal to 1.

상기 차량위치 보정부(240)는 상기 초기 설정부(210)에서 설정한 상기 초기각도 정보와 상기 차량 추정부(230)에서 설정한 상기 추정 진행방향 각도 정보를 비교하여, 상기 차량이 현재 위치에서 직진할 경우의 진행방향 각도(θbase_main)와, 차량의 앞면방향 각도(θbase_sub)를 연산하여, 기본 진행방향 각도 정보와 기본 앞면방향 각도 정보로 설정하는 것이 바람직하다.The vehicle position correction unit 240 compares the initial angle information set by the initial setting unit 210 with the estimated travel direction angle information set by the vehicle estimating unit 230, and the vehicle is at the current position. It is preferable to set the basic travel direction angle information and basic front direction angle information by calculating the traveling direction angle θbase_main and the front direction angle θbase_sub of the vehicle when going straight.

물론, 상기 차량위치 보정부(240)는 상기 차량 탐지부(220)에서 추출한 상기 차량 객체 정보를 이용하여, 상기 차량이 현재 위치에서 회전되었을 경우에 대한 차량의 앞면길이(Lbase_main), 상기 차량이 현재 위치에서 직진할 경우에 대한 차량의 앞면길이(Lbase_sub)를 연산하여, 제1, 제2 기본 앞면길이 정보로 설정하는 것이 바람직하다.Of course, the vehicle position correction unit 240 uses the vehicle object information extracted from the vehicle detection unit 220, the front length of the vehicle when the vehicle is rotated at the current position (Lbase_main), the vehicle is It is preferable to calculate the front length (Lbase_sub) of the vehicle for the case of going straight from the current position, and set the first and second basic front length information.

다시 말하자면, 상기 차량위치 보정부(240)는 상기 초기각도 정보와 상기 추정 진행방향 각도 정보를 이용하여, 기본정보(기본 진행방향 각도 정보, 기본 앞면방향 각도 정보, 제1 기본 앞면길이 정보, 제2 기본 앞면길이 정보)들을 설정하는 것으로, 미리 설정된 코드 함수연산을 이용하여 기본정보들을 계산하는 것이 바람직하며, 미리 설정된 코드 함수연산은 하기의 수학식 2와 같다.In other words, the vehicle position correction unit 240 uses the initial angle information and the estimated travel direction angle information, and uses basic information (basic travel direction angle information, basic front direction angle information, first basic front length information, first 2 Basic front length information) is set, and it is preferable to calculate basic information using a preset code function calculation, and the preset code function calculation is as shown in Equation 2 below.

Figure pat00002
Figure pat00002

상기 차량위치 보정부(240)는 상기의 수학식 2의 코드 함수연산을 수행하여, 비교된 값 중 작은 값의 방향을 상기 차량이 현재 위치에서 직진할 경우의 진행방향 각도(θbase_main)로, 상기 차량이 현재 위치에서 회전되었을 경우에 대한 차량의 앞면길이(Lbase_main)로 설정하는 것이 바람직하며,The vehicle position correction unit 240 performs the code function calculation of Equation 2, and determines the direction of the smaller value among the compared values as the traveling direction angle θbase_main when the vehicle goes straight from the current position, It is desirable to set the front length of the vehicle (Lbase_main) when the vehicle is rotated from the current position.

이와 반대방향을 상기 차량이 현재 위치에서 직진할 경우의 차량의 앞면방향 각도(θbase_sub), 상기 차량이 현재 위치에서 직진할 경우에 대한 차량의 앞면길이(Lbase_sub)로 설정하는 것이 바람직하다.It is preferable to set the opposite direction as the vehicle's front direction angle (θbase_sub) when the vehicle goes straight from the current position and the vehicle's front length (Lbase_sub) when the vehicle goes straight from the current position.

상기 최종 연산부(250)는 상기 차량 추정부(230)와 차량위치 보정부(240)에서 연산한 상기 차량의 관련 정보들을 이용하여, 상기 차량의 추정 앞면방향 각도 정보(θsub), 추정 앞면길이 정보(Lsub)를 추정하여, 미리 설정된 수학식에 적용하여 최종 차량위치 정보(Xcar, Ycar)를 연산하는 것이 바람직하다.The final calculation unit 250 uses the vehicle-related information calculated by the vehicle estimating unit 230 and the vehicle position correction unit 240 to determine the estimated front angle information (θsub) and the estimated front length information of the vehicle. It is preferable to estimate (Lsub) and apply it to a preset equation to calculate final vehicle position information (Xcar, Ycar).

상세하게는, 도 5의 c)에서 각도로 표시된 바와 같이, 상기 최종 연산부(250)는 상기 기본 진행방향 각도 정보(θbase_main)와 기본 앞면방향 각도 정보(θbase_sub)를 이용하여, 하기의 수학식 3에 적용하여 각도차를 연산함으로써, 차량이 회전되었을 경우의 진행방향의 최대 변화량(θdif_main)과 차량 앞면방향의 최대 변화량(θdif_sub)을 산출하는 것이 바람직하다.In detail, as indicated by an angle in FIG. 5C, the final calculation unit 250 uses the basic progress direction angle information θbase_main and basic front direction angle information θbase_sub, as shown in Equation 3 below. It is preferable to calculate the maximum change amount θdif_main in the traveling direction when the vehicle is rotated and the maximum change amount θdif_sub in the front direction of the vehicle by applying to and calculating the angle difference.

Figure pat00003
Figure pat00003

더불어, 상기 최종 연산부(250)는 도 5의 d)에서 각도로 표시된 바와 같이, 상기 기본 진행방향 각도 정보(θbase_main)와 상기 추정 진행방향 정보(θmain)의 변화량을 이용하여, 하기의 수학식 4에 적용하여 차량이 직진할 경우의 진행방향과 현재 진행방향의 차이값(θdelta_main)을 산출하는 것이 바람직하다.In addition, the final calculation unit 250 uses the amount of change in the basic travel direction angle information θbase_main and the estimated travel direction information θmain as indicated by an angle in FIG. It is preferable to calculate the difference value (θdelta_main) between the traveling direction and the current traveling direction when the vehicle goes straight.

Figure pat00004
Figure pat00004

또한, 상기 최종 연산부(250)는 도 5의 d)에서 각도로 표시된 바와 같이, 상기 차량이 직진할 경우의 진행방향과 현재 진행방향의 차이값(θdelta_main), 차량이 회전되었을 경우의 진행방향의 최대 변화량(θdif_main), 차량이 회전되었을 경우의 차량 앞면방향의 최대 변화량(θdif_sub)을 이용하여, 하기의 수학식 5에 적용하여 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값(θdelta_sub)을 산출하는 것이 바람직하다.In addition, the final calculation unit 250, as indicated by an angle in FIG. 5D), a difference value (θdelta_main) between the driving direction when the vehicle is going straight and the current driving direction, and the driving direction when the vehicle is rotated. Using the maximum change amount (θdif_main) and the maximum change amount in the front direction of the vehicle when the vehicle is rotated (θdif_sub), the difference between the front direction when the vehicle goes straight and the current front direction (θdelta_sub) is applied to Equation 5 below. It is desirable to calculate ).

Figure pat00005
Figure pat00005

상기 최종 연산부(250)는 도 5의 e)에서 각도로 표시된 바와 같이, 상기 기본 앞면방향 각도 정보(θbase_sub)와, 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값(θdelta_sub)을 이용하여, 하기의 수학식 6에 적용하여 상기 추정 앞면방향 각도 정보(θsub)를 산출하는 것이 바람직하다.The final calculation unit 250 uses the basic front-facing angle information (θbase_sub) and the difference value (θdelta_sub) between the front direction when the vehicle goes straight and the current front direction, as indicated by the angle in FIG. Thus, it is preferable to calculate the estimated front direction angle information θsub by applying to Equation 6 below.

Figure pat00006
Figure pat00006

분만 아니라, 상기 최종 연산부(250)는 상기 제1 기본 앞면길이 정보(Lbase_main), 제2 기본 앞면길이 정보(Lbase_sub)를 이용하여, 하기의 수학식 7에 적용하여 길이차(Ldif_sub)를 연산하고,In addition to delivery, the final calculation unit 250 calculates the length difference (Ldif_sub) by applying to Equation 7 below using the first basic front length information (Lbase_main) and the second basic front length information (Lbase_sub), ,

연산한 길이차(Ldif_sub), 차량이 회전되었을 경우의 차량 앞면방향의 최대 변화량(θdif_sub), 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값(θdelta_sub)을 이용하여 하기의 수학식 8에 적용하여 차량이 회전되었을 경우의 앞면길이 변화량(Ldelta_sub)을 산출하는 것이 바람직하다.Equation 8 below using the calculated length difference (Ldif_sub), the maximum change in the front direction of the vehicle when the vehicle is rotated (θdif_sub), and the difference value between the front direction when the vehicle goes straight and the current front direction (θdelta_sub). It is desirable to calculate the change in front length (Ldelta_sub) when the vehicle is rotated.

Figure pat00007
Figure pat00007

Figure pat00008
Figure pat00008

또한, 상기 최종 연산부(250)는 상기 제2 기본 앞면길이 정보(Lbase_sub), 차량이 회전되었을 경우의 앞면길이 변화량(Ldelta_sub)을 이용하여 하기의 수학식 9에 적용하여 상기 추정 앞면길이 정보(Lsub)를 산출하는 것이 바람직하다.In addition, the final calculation unit 250 applies the estimated front length information (Lsub) to Equation 9 below using the second basic front length information (Lbase_sub) and the front length change amount (Ldelta_sub) when the vehicle is rotated. It is desirable to calculate ).

Figure pat00009
Figure pat00009

마지막으로, 상기 최종 연산부(250)는 상기 추정 진행방향 정보(θmain), 추정 앞면방향 각도 정보(θsub), 추정 앞면길이 정보(Lsub)들을 이용하여 차량 바닥면의 x, y 위치를 계산하여 차량의 최종 위치정보(Xcar, Ycar)를 산출하는 것이 바람직하며, 하기의 수학식 10에 적용하여 산출할 수 있다.Finally, the final operation unit 250 calculates the x and y positions of the vehicle floor using the estimated traveling direction information θmain, the estimated front angle information θsub, and the estimated front length information Lsub. It is preferable to calculate the final location information (Xcar, Ycar) of, and can be calculated by applying to Equation 10 below.

Figure pat00010
Figure pat00010

더불어, 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치는 영상 내 포함되어 있는 차량의 이동 경로를 추적하기 위하여, 상기 영상 데이터 내에 포함되어 있는 마지막 영상 프레임까지 동작을 반복 수행하는 것이 가장 바람직하다.In addition, it is most preferable that the apparatus for calculating a vehicle position in an image according to an embodiment of the present invention repeatedly performs an operation up to the last image frame included in the image data in order to track the moving path of the vehicle included in the image. Do.

즉, 다시 말하자면, 도 6 및 도 7에 도시된 바와 같이, 다수의 영상 프레임 내에 포함되어 있는 하나의 차량을 특정하여 분석할 경우,That is, in other words, as shown in FIGS. 6 and 7, when specifying and analyzing one vehicle included in a plurality of image frames,

노란박스 내의 차량은 상기 차량 탐지부(220)를 통해서 딥러닝을 이용한 차량객체 탐지 결과를 의미하며, 차량의 이동에 따라 표시된 하얀 선은 상기 차량 추정부(230)를 통해서 다수의 영상 프레임을 비교하여 판단한 차량 객체의 이동경로 결과를 의미하며, 검은 선은 상기 최종 연산부(250)를 통해서 다수의 영상 프레임을 비교하여 판단한 차량 객체의 추정 이동경로 결과(추정된 바닥 중심점의 이동경로 결과)를 의미하며, 차량 객체에 표시된 빨간 선은 상기 차량 객체의 기본 진행방향 각도 정보(θbase_main)를 의미하며, 차량 객체에 표시된 파란 선은 상기 차량 객체의 앞면방향 각도(θbase_sub)를 의미하며, 차량 객체에 표시된 주황 선은 상기 차량 객체의 추정 진행방향 정보(θmain)를 의미하며, 차량 객체에 표시된 하늘색 선은 상기 차량 객체의 추정 앞면방향 각도 정보(θsub)를 의미함을 알 수 있다.The vehicle in the yellow box refers to a vehicle object detection result using deep learning through the vehicle detection unit 220, and a white line displayed according to the movement of the vehicle compares a plurality of image frames through the vehicle estimation unit 230 It means the movement path result of the vehicle object determined by doing so, and the black line means the estimated movement path result of the vehicle object determined by comparing a plurality of image frames through the final operation unit 250 (the movement path result of the estimated floor center point). And, the red line displayed on the vehicle object means basic travel direction angle information (θbase_main) of the vehicle object, and the blue line displayed on the vehicle object means the front direction angle (θbase_sub) of the vehicle object, and It can be seen that the orange line means the estimated traveling direction information θmain of the vehicle object, and the sky blue line displayed on the vehicle object means the estimated front direction angle information θsub of the vehicle object.

이러한 분석을 통해서 차량의 최종 위치정보(Xcar, Ycar)를 산출함으로써, 정확한 차량 위치정보를 다양한 분야에서 제공하여 활용할 수 있다.By calculating the final location information (Xcar, Ycar) of the vehicle through this analysis, accurate vehicle location information can be provided and utilized in various fields.

도 8은 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 방법을 나타낸 순서도이며, 도 8을 참조로 하여 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 방법을 상세히 설명한다.8 is a flowchart showing a method of calculating a vehicle position in an image according to an exemplary embodiment of the present invention, and a method of calculating a vehicle position in an image according to an exemplary embodiment of the present invention will be described in detail with reference to FIG. 8.

본 발명의 일 실시예에 따른 영상 내 차량위치 산출 방법은 도 8에 도시된 바와 같이, 영상 취득단계(S100), 분석단계(S200)로 이루어지는 것이 바람직하다.As shown in FIG. 8, the method of calculating the vehicle position in the image according to an embodiment of the present invention preferably includes an image acquisition step (S100) and an analysis step (S200).

각 단계에 대해서 자세히 알아보자면,To learn more about each step,

상기 영상 취득단계(S100)는 상기 영상 취득부(100)에서, 교차로 내부의 미리 설정된 구역을 촬영하여 상기 영상 데이터를 취득하게 된다.In the image acquisition step (S100), the image acquisition unit 100 acquires the image data by photographing a preset area inside the intersection.

상기 영상 취득단계(S100)는 교차로 주변에 소정높이를 갖는 미리 설정된 영역에 설치되는 광학 센서(optical sensor)를 포함하는 카메라(IP camera)를 포함하여 구성되는 것이 바람직하다.The image acquisition step (S100) is preferably configured to include a camera (IP camera) including an optical sensor (optical sensor) installed in a predetermined area having a predetermined height around the intersection.

상세하게는, 교차로 외부의 독립 지주나 신호등 또는 가로등 지주에 설치되어, 교차로 내부의 일정한 영역을 촬영하는 것이 바람직하며, 교차로 내부의 일정한 영역, 즉 교차로 내부의 통과량과 회전량을 알 수 있는 영역을 설정하여 해당 영역의 차량 움직임을 분석하는 것이 가장 바람직하다.Specifically, it is desirable to shoot a certain area inside the intersection by being installed on an independent post, traffic light, or street lamp post outside the intersection, and a certain area inside the intersection, that is, an area where you can know the amount of passing and the amount of turn inside the intersection. It is most preferable to set up to analyze the vehicle movement in the corresponding area.

다만, 상술한 바와 같이, 상기 영상 취득단계(S100)에서 취득한 영상을 그대로 활용하기에는, 도 2에 도시된 바와 같이, 카메라가 교차로의 중심부 한가운데 설치되는 것은 현실적으로 거의 불가능하고, 일측에 치우쳐진 상태로 영상 데이터를 취득하게 된다.However, as described above, in order to utilize the image acquired in the image acquisition step (S100) as it is, it is practically impossible for the camera to be installed in the middle of the intersection, as shown in FIG. Video data is acquired.

이 경우, 도 4, 도 6 및 도 7에 도시된 바와 같이, 교차로의 형태가 영상 데이터의 x축, y축과 정확히 맞지 않고 영상 자체가 틀어진 채로 나타나게 된다.In this case, as shown in FIGS. 4, 6, and 7, the shape of the intersection does not exactly match the x-axis and y-axis of the image data, and the image itself appears to be distorted.

이에 따라, 상기 분석단계(S200)를 통해서, 영상 내 차량의 움직임을 판단하여, 그 움직임을 추정할 뿐 아니라, 기본적으로 영상 자체를 정확한 위경도 좌표계로 변환할 수 있다.Accordingly, through the analysis step S200, the movement of the vehicle in the image is determined, the movement thereof is estimated, and the image itself may be converted into an accurate latitude and longitude coordinate system.

상기 분석단계(S200)는 상기 통합 분석부(200)에서, 상기 영상 취득단계(S100)에 의해 취득한 상기 영상 데이터를 전송받아, 이를 분석하여 영상 내 위치한 차량들의 관련 정보들을 연산하여 각 차량의 최종 위치정보(Xcar, Ycar)를 판단하는 것이 바람직하다.In the analysis step (S200), the integrated analysis unit 200 receives the image data acquired by the image acquisition step (S100), analyzes it, calculates related information of vehicles located in the image, It is desirable to determine the location information (Xcar, Ycar).

상세하게는, 상기 분석단계(S200)는 초기 설정단계(S210), 차량 탐지단계(S220), 차량 추정단계(S230), 차량위치 보정단계(S240) 및 최종 연산단계(S250)를 포함하여 구성되는 것이 바람직하다.In detail, the analysis step (S200) comprises an initial setting step (S210), a vehicle detection step (S220), a vehicle estimation step (S230), a vehicle position correction step (S240), and a final calculation step (S250). It is desirable to be.

상기 초기 설정단계(S210)는 상기 초기 설정부(210)에서, 전송받은 상기 영상 데이터에 포함되어 있는 적어도 하나의 영상 프레임을 이용하여, 상기 영상 프레임 내에 포함되어 있는 차선 객체 정보들을 추출하는 것이 바람직하다.In the initial setting step (S210), it is preferable that the initial setting unit 210 extracts lane object information included in the image frame by using at least one image frame included in the transmitted image data. Do.

이 때, 전송받은 상기 영상 데이터에 포함되어 있는 적어도 하나의 영상 프레임은, 가장 바람직하게는 첫 번째 영상 프레임이다.At this time, at least one image frame included in the transmitted image data is most preferably a first image frame.

도 3, 도 4, 도 6 및 도 7에 도시된 바와 같이, 특히, 도 3에 도시된 바와 같이, 영상 데이터의 x축, y축과 차량의 수직, 수평방향의 이동이 일치하지 않기 때문에 이를 보정하기 위한 연산을 수행하는 것이 바람직하다.3, 4, 6, and 7, especially, as shown in FIG. 3, the x-axis and y-axis of the image data and the vertical and horizontal movement of the vehicle do not coincide. It is desirable to perform an operation to correct.

상세하게는, 상기 초기 설정단계(S210)는 미리 설정되어 있는 딥러닝 모델을 이용하여 상기 영상 프레임 내에 포함되어 있는 차선 객체 정보들을 추출하고, 미리 설정된 상기 영상 프레임의 고정된 x, y 좌표를 기준으로 각각의 차선 방향에 따라 차량의 진행방향 각도(θhor, θver)를 연산하여 초기각도 정보로 설정하는 것이 바람직하다.Specifically, the initial setting step (S210) extracts lane object information included in the image frame using a preset deep learning model, and based on the fixed x, y coordinates of the image frame set in advance. As a result, it is preferable to set the initial angle information by calculating the traveling direction angles (θhor, θver) of the vehicle according to each lane direction.

또한, 각각의 차선 방향에 따라 차량의 진행에 의한 차량의 앞면길이(Lhor, Lver)를 연산하여 초기길이 정보로 설정하는 것이 바람직하다.In addition, it is preferable to set the initial length information by calculating the front length (Lhor, Lver) of the vehicle due to the progress of the vehicle according to each lane direction.

즉, 도 3, 도 5의 a)에서 각도로 표시된 바와 같이, 상기 영상 프레임의 x, y축 대비, 상기 차선 객체 정보들이 향하고 있는 축을 판단하여, 차량이 차선을 따라 수평방향으로 직진할 경우의 진행방향 각도(θhor)를 연산할 수 있으며, 차량이 차선을 따라 수직방향으로 직진할 경우의 진행방향 각도(θver)를 연산할 수 있다.That is, as indicated by angles in FIGS. 3 and 5A), when the vehicle goes straight horizontally along the lane by determining the axis to which the lane object information is directed compared to the x and y axes of the image frame. The traveling direction angle θhor can be calculated, and the traveling direction angle θver when the vehicle travels straight along the lane in the vertical direction can be calculated.

뿐만 아니라, 차량이 차선을 따라 수평방향으로 직진할 경우의 차량의 앞면 길이(Lhor)와 차량이 차선을 따라 수직방향으로 직진할 경우의 차량의 앞면 길이(Lver)를 연산할 수 있다.In addition, it is possible to calculate the front length Lhor of the vehicle when the vehicle travels horizontally along the lane and the front length Lver of the vehicle when the vehicle travels vertically along the lane.

다시 말하자면, 상기 초기 설정단계(S210)는 영상 프레임 내에 차량의 존재 여부와는 무관하며, 영상 데이터의 정확성을 높이기 위하여 영상 프레임과 교차로 간의 틀어진 각도를 연산하는 것이 바람직하다.In other words, the initial setting step (S210) is irrelevant to the presence or absence of a vehicle in the image frame, and it is preferable to calculate a twisted angle between the image frame and the intersection in order to increase the accuracy of the image data.

상기 차량 탐지단계(S220)는 상기 차량 탐지부(220)에서, 전송받은 상기 영상 데이터에 포함되어 있는 상기 영상 프레임들을 순차적으로 이용하여, 미리 설정된 차량의 중심점을 기준으로 미리 설정된 영역크기(x, y, w, h)를 갖으면, 각각의 상기 영상 프레임 내에 포함되어 있는 적어도 하나의 차량 객체 정보를 추출하게 된다.In the vehicle detection step S220, the vehicle detection unit 220 sequentially uses the image frames included in the transmitted image data, and a preset area size (x, With y, w, h), at least one vehicle object information included in each of the image frames is extracted.

상세하게는, 상기 차량 탐지단계(S220)는 도 4에 도시된 바와 같이, 미리 설정되어 있는 딥러닝 모델을 이용하여 상기 영상 프레임 내에 포함되어 있는 상기 차량 객체 정보를 추출할 수 있다.In detail, in the vehicle detection step S220, the vehicle object information included in the image frame may be extracted using a preset deep learning model, as shown in FIG. 4.

이 때, 상기 차량 객체 정보는 도 4에 도시된 바와 같이, 사각형 형태로서, 미리 설정된 차량의 중심점을 기준으로 미리 설정된 영역크기(x, y, w, h)를 갖도록 추출하는 것이 바람직하며, 영상 프레임의 순서대로, 즉, 순차적으로, 각각의 영상 프레임 내에 포함되어 있는 차량 객체 정보를 추출하는 것이 바람직하다.In this case, it is preferable to extract the vehicle object information to have a preset area size (x, y, w, h) based on a preset center point of the vehicle in a rectangular shape, as shown in FIG. It is preferable to extract vehicle object information included in each image frame in the order of frames, that is, sequentially.

상기 차량 추정단계(S230)는 상기 차량 추정부(230)에서, 상기 차량 탐지단계(S220)에 의해, 추출한 하나의 차량 객체 정보에 대한 두 개의 영상 프레임 내에 포함되어 있는 정보들을 비교하여, 차량의 진행방향을 연산하여 추정 진행방향 각도 정보로 설정할 수 있다.In the vehicle estimating step (S230), the vehicle estimating unit 230 compares information contained in two image frames for one vehicle object information extracted by the vehicle detection step (S220), The traveling direction can be calculated and set as the estimated traveling direction angle information.

상세하게는, 상기 차량 추정단계(S230)는 도 5의 b)에서 각도로 표시된 바와 같이, 상기 차량 탐지단계(S220)에 의해, 특정 영상 프레임(i번째 프레임)에서 추출한 특정 차량 객체 정보(P x(i), y(i), w(i), h(i))와 특정 영상 프레임의 다음 영상 프레임(i+1번째 프레임)에서 추출한 동일한 특정 차량에 대한 차량 객체 정보(P x(i+1), y(i+1), w(i+1), h(i+1))를 비교하여, 상기 차량의 진행방향에 따른 각도(θmain)를 연산하여, 상기 추정 진행방향 정보로 설정하는 것이 바람직하다.In detail, the vehicle estimating step (S230) includes specific vehicle object information (P) extracted from a specific image frame (i-th frame) by the vehicle detection step (S220), as indicated by an angle in FIG. Vehicle object information for the same specific vehicle extracted from x(i), y(i), w(i), h(i)) and the next image frame (i+1th frame) of a specific image frame (P x(i) +1), y(i+1), w(i+1), h(i+1)) are compared, and the angle θmain according to the traveling direction of the vehicle is calculated, as the estimated traveling direction information. It is desirable to set.

이 때, 상기 차량 추정단계(S230)는 미리 설정된 코드 함수연산을 이용하여 차량의 진행방향에 따는 추정각도를 계산하는 것이 바람직하며, 미리 설정된 코드 함수연산은 상기의 수학식 1과 같다.In this case, in the vehicle estimating step (S230), it is preferable to calculate the estimated angle according to the traveling direction of the vehicle using a preset code function calculation, and the preset code function calculation is the same as in Equation 1 above.

상기 차량위치 보정단계(S240)는 상기 차량위치 보정부(240)에서, 상기 초기 설정단계(S210)에 의해 설정한 상기 초기각도 정보와 상기 차량 추정단계(S230)에 의해 설정한 상기 추정 진행방향 각도 정보를 비교하여, 상기 차량이 현재 위치에서 직진할 경우의 진행방향 각도(θbase_main)와, 차량의 앞면방향 각도(θbase_sub)를 연산하여, 기본 진행방향 각도 정보와 기본 앞면방향 각도 정보로 설정하는 것이 바람직하다.In the vehicle position correction step (S240), the initial angle information set by the initial setting step (S210) and the estimated progress direction set by the vehicle estimating step (S230) in the vehicle position correction unit 240 By comparing the angle information, the driving direction angle (θbase_main) when the vehicle goes straight from the current position and the front direction angle (θbase_sub) of the vehicle are calculated and set as basic travel direction angle information and basic front direction angle information. It is desirable.

물론, 상기 차량위치 보정단계(S240)는 상기 차량 탐지단계(S220)에 의해 추출한 상기 차량 객체 정보를 이용하여, 상기 차량이 현재 위치에서 회전되었을 경우에 대한 차량의 앞면길이(Lbase_main), 상기 차량이 현재 위치에서 직진할 경우에 대한 차량의 앞면길이(Lbase_sub)를 연산하여, 제1, 제2 기본 앞면길이 정보로 설정하는 것이 바람직하다.Of course, the vehicle position correction step (S240) uses the vehicle object information extracted by the vehicle detection step (S220), the front length (Lbase_main) of the vehicle when the vehicle is rotated at the current position, the vehicle It is preferable to calculate the front length (Lbase_sub) of the vehicle for the case of going straight from the current position, and set the first and second basic front length information.

다시 말하자면, 상기 차량위치 보정단계(S240)는 상기 초기각도 정보와 상기 추정 진행방향 각도 정보를 이용하여, 기본정보(기본 진행방향 각도 정보, 기본 앞면방향 각도 정보, 제1 기본 앞면길이 정보, 제2 기본 앞면길이 정보)들을 설정하는 것으로, 미리 설정된 코드 함수연산을 이용하여 기본정보들을 계산하는 것이 바람직하며, 미리 설정된 코드 함수연산은 상기의 수학식 2와 같다.In other words, the vehicle position correction step (S240) uses the initial angle information and the estimated travel direction angle information, and uses basic information (basic travel direction angle information, basic front direction angle information, first basic front length information, first 2 Basic front length information) is set, and it is preferable to calculate basic information using a preset code function calculation, and the preset code function calculation is the same as in Equation 2 above.

상기 차량위치 보정단계(S240)는 상기의 수학식 2의 코드 함수연산을 수행하여, 비교된 값 중 작은 값의 방향을 상기 차량이 현재 위치에서 직진할 경우의 진행방향 각도(θbase_main)로, 상기 차량이 현재 위치에서 회전되었을 경우에 대한 차량의 앞면길이(Lbase_main)로 설정하는 것이 바람직하며,In the vehicle position correction step (S240), a direction of a small value among the compared values is a traveling direction angle (θbase_main) when the vehicle goes straight from the current position by performing the code function calculation of Equation 2 above, and the It is desirable to set the front length of the vehicle (Lbase_main) when the vehicle is rotated from the current position.

이와 반대방향을 상기 차량이 현재 위치에서 직진할 경우의 차량의 앞면방향 각도(θbase_sub), 상기 차량이 현재 위치에서 직진할 경우에 대한 차량의 앞면길이(Lbase_sub)로 설정하는 것이 바람직하다.It is preferable to set the opposite direction as the vehicle's front direction angle (θbase_sub) when the vehicle goes straight from the current position and the vehicle's front length (Lbase_sub) when the vehicle goes straight from the current position.

상기 최종 연산단계(S250)는 상기 최종 연산부(250)에서, 도 6에 도시된 바와 같이, 상기 차량 추정단계(S230)와 상기 차량위치 보정단계(S240)에 의해 연산한 상기 차량의 관련 정보들을 이용하여, 상기 차량의 추정 앞면방향 각도 정보(θsub), 추정 앞면길이 정보(Lsub)를 추정하여, 미리 설정된 수학식에 적용하여 최종 차량위치 정보(Xcar, Ycar)를 연산하는 것이 바람직하다.In the final calculation step (S250), as shown in FIG. 6, in the final calculation unit 250, related information of the vehicle calculated by the vehicle estimating step (S230) and the vehicle position correction step (S240) It is preferable to calculate the final vehicle position information (Xcar, Ycar) by estimating the estimated front direction angle information (θsub) and the estimated front length information (Lsub) of the vehicle and applying it to a predetermined equation.

상세하게는, 상기 최종 연산단계(S250)는 도 5의 c)에서 각도로 표시된 바와 같이, 상기 기본 진행방향 각도 정보(θbase_main)와 기본 앞면방향 각도 정보(θbase_sub)를 이용하여, 상기의 수학식 3에 적용하여 각도차를 연산함으로써, 차량이 회전되었을 경우의 진행방향의 최대 변화량(θdif_main)과 차량 앞면방향의 최대 변화량(θdif_sub)을 산출하는 것이 바람직하다.In detail, the final calculation step (S250) is, as indicated by the angle in FIG. 5C, using the basic moving direction angle information θbase_main and the basic front direction angle information θbase_sub, the above equation By applying to 3 and calculating the angle difference, it is preferable to calculate the maximum change amount θdif_main in the traveling direction when the vehicle is rotated and the maximum change amount θdif_sub in the front direction of the vehicle.

도 5의 d)에 도시된 바와 같이, 상기 기본 진행방향 각도 정보(θbase_main)와 상기 추정 진행방향 정보(θmain)의 변화량을 이용하여, 상기의 수학식 4에 적용하여 차량이 직진할 경우의 진행방향과 현재 진행방향의 차이값(θdelta_main)을 산출하는 것이 바람직하다.As shown in d) of FIG. 5, by using the amount of change in the basic travel direction angle information θbase_main and the estimated travel direction information θmain, the progress when the vehicle goes straight by applying to Equation 4 above. It is preferable to calculate the difference value (θdelta_main) between the direction and the current traveling direction.

도 5의 d)에서 각도로 표시된 바된 바와 같이, 상기 차량이 직진할 경우의 진행방향과 현재 진행방향의 차이값(θdelta_main), 차량이 회전되었을 경우의 진행방향의 최대 변화량(θdif_main), 차량이 회전되었을 경우의 차량 앞면방향의 최대 변화량(θdif_sub)을 이용하여, 상기의 수학식 5에 적용하여 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값(θdelta_sub)을 산출하는 것이 바람직하다.As indicated by the angle in FIG. 5D), the difference between the driving direction when the vehicle goes straight and the current driving direction (θdelta_main), the maximum amount of change in the driving direction when the vehicle is rotated (θdif_main), and the vehicle It is preferable to calculate the difference value (θdelta_sub) between the front direction when the vehicle goes straight and the current front direction by applying to Equation 5 above using the maximum change amount θdif_sub in the vehicle front direction when it is rotated.

도 5의 e)에서 각도로 표시된 바된 바와 같이, 상기 기본 앞면방향 각도 정보(θbase_sub)와, 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값(θdelta_sub)을 이용하여, 상기의 수학식 6에 적용하여 상기 추정 앞면방향 각도 정보(θsub)를 산출하는 것이 바람직하다.As indicated by the angle in Fig. 5e), using the basic front direction angle information (θbase_sub) and the difference value (θdelta_sub) between the front direction when the vehicle goes straight and the current front direction, the above equation It is preferable to apply to 6 to calculate the estimated front angle information θsub.

뿐만 아니라, 상기 최종 연산단계(S250)는 상기 제1 기본 앞면길이 정보(Lbase_main), 제2 기본 앞면길이 정보(Lbase_sub)를 이용하여, 상기의 수학식 7에 적용하여 길이차(Ldif_sub)를 연산하고,In addition, in the final operation step (S250), the first basic front length information (Lbase_main) and the second basic front length information (Lbase_sub) are used to apply the length difference (Ldif_sub) to Equation 7 above. and,

연산한 길이차(Ldif_sub), 차량이 회전되었을 경우의 차량 앞면방향의 최대 변화량(θdif_sub), 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값(θdelta_sub)을 이용하여 상기의 수학식 8에 적용하여 차량이 회전되었을 경우의 앞면길이 변화량(Ldelta_sub)을 산출하는 것이 바람직하다.Equation 8 above using the calculated length difference (Ldif_sub), the maximum amount of change in the front direction of the vehicle when the vehicle is rotated (θdif_sub), and the difference value between the front direction when the vehicle goes straight and the current front direction (θdelta_sub). It is desirable to calculate the change in front length (Ldelta_sub) when the vehicle is rotated.

또한, 상기 제2 기본 앞면길이 정보(Lbase_sub), 차량이 회전되었을 경우의 앞면길이 변화량(Ldelta_sub)을 이용하여 상기의 수학식 9에 적용하여 상기 추정 앞면길이 정보(Lsub)를 산출하는 것이 바람직하다.In addition, it is preferable to calculate the estimated front length information Lsub by applying to Equation 9 above using the second basic front length information (Lbase_sub) and the amount of change in the front length when the vehicle is rotated (Ldelta_sub). .

마지막으로, 상기 최종 연산단계(S250)는 상기 추정 진행방향 정보(θmain), 추정 앞면방향 각도 정보(θsub), 추정 앞면길이 정보(Lsub)들을 이용하여 차량 바닥면의 x, y 위치를 계산하여 차량의 최종 위치정보(Xcar, Ycar)를 산출하는 것이 바람직하며, 상기의 수학식 10에 적용하여 산출할 수 있다.Finally, in the final calculation step (S250), the x and y positions of the vehicle floor are calculated using the estimated travel direction information θmain, the estimated front angle information θsub, and the estimated front length information Lsub. It is preferable to calculate the final location information (Xcar, Ycar) of the vehicle, and can be calculated by applying to Equation 10 above.

더불어, 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 방법은 영상 내 포함되어 있는 차량의 이동 경로를 추적하기 위하여, 상기 영상 데이터 내에 포함되어 있는 마지막 영상 프레임까지 동작을 반복 수행하는 것이 가장 바람직하다.In addition, in the method for calculating a vehicle position in an image according to an embodiment of the present invention, it is most preferable to repeatedly perform an operation up to the last image frame included in the image data in order to track the moving path of the vehicle included in the image. Do.

이와 같이, 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 방법은, 교차로에서 차량들이 이동하였을 때의 차량의 앞면과 측면의 기본각과 차량의 앞면 길이를 이용하여 차량의 위치를 추정하고, 영상에서의 픽셀 좌표에서 실세계의 위경도 좌표계로 변환할 수 있다.As described above, the method of calculating the vehicle position in an image according to an embodiment of the present invention estimates the position of the vehicle using the basic angles of the front and side surfaces of the vehicle and the length of the front surface of the vehicle when the vehicles move at an intersection, and It can be converted from the pixel coordinates in the real world latitude and longitude coordinate system.

도 9는 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 방법을 이용한 교통량 분석 시스템을 나타낸 구성도이며, 도 9를 참조로 하여 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 방법을 이용한 교통량 분석 시스템을 상세히 설명한다.9 is a block diagram showing a traffic volume analysis system using a method for calculating a vehicle position in an image according to an embodiment of the present invention. Referring to FIG. 9, a method for calculating a vehicle position in an image is used. The traffic analysis system will be described in detail.

본 발명의 일 실시예에 따른 영상 내 차량위치 산출 방법을 이용한 교통량 분석 시스템은 도 9에 도시된 바와 같이, 차량위치 판단부(1000), 교통량 분석부(2000)를 포함하여 구성되는 것이 바람직하다.It is preferable that the traffic volume analysis system using the method for calculating the vehicle location in the image according to an embodiment of the present invention includes a vehicle location determination unit 1000 and a traffic volume analysis unit 2000 as shown in FIG. 9. .

상기 차량위치 판단부(1000)는 상기 영상 내 차량위치 산출 장치의 구성으로서, 상기 영상 내 위치한 차량들의 최종 위치 정보를 판단하는 것이 바람직하다.The vehicle position determining unit 1000 is a configuration of a device for calculating a vehicle position in the image, and it is preferable to determine final position information of vehicles located in the image.

상기 교통량 분석부(2000)는 상기 차량위치 판단부(1000)와 네트워크 연결되어, 상기 차량위치 판단부(1000)에서 판단한 상기 차량의 최종 위치정보(Xcar, Ycar)들을 이용하여 교통량을 분석하는 것이 바람직하다.The traffic volume analysis unit 2000 is network-connected with the vehicle location determination unit 1000 to analyze the traffic volume using the final location information (Xcar, Ycar) of the vehicle determined by the vehicle location determination unit 1000. desirable.

물론, 상기 교통량 분석부(2000)는 외부의 요청에 따라, 분석한 교통량 관련 정보들을 전송하는 것이 바람직하다.Of course, it is preferable that the traffic volume analysis unit 2000 transmits the analyzed traffic volume related information according to an external request.

이 때, 교통량 관련 정보들로는, 교차로 내부 차선별 차량 통과량, 회전량 등을 포함하여 구성되는 것이 바람직하나, 상기 차량의 최종 위치정보를 이용하여 분석할 수 있는 모든 종류의 정보들을 포함하는 것이 가장 바람직하다.At this time, the traffic volume-related information is preferably configured to include the amount of vehicle passing by each lane inside the intersection, the amount of rotation, etc., but it is best to include all types of information that can be analyzed using the final location information of the vehicle. desirable.

상기 교통량 분석부(2000)는 차량을 추적한 데이터를 이용하여 교통정보를 생성하는 것이 바람직하며, 즉, 상기 차량위치 판단부(1000)에서 판단한 프레임별 상기 차량의 최종 위치정보들을 이용하여, 교차로 내부의 각 방향별(각 차선에 따른) 차량들의 이동량과 평균속도를 분석하여, 교통량을 분석하는 것이 바람직하다.It is preferable that the traffic volume analysis unit 2000 generate traffic information by using the vehicle tracking data, that is, by using the final position information of the vehicle for each frame determined by the vehicle position determination unit 1000, the intersection It is desirable to analyze the traffic volume by analyzing the moving amount and average speed of vehicles in each direction (according to each lane) inside.

특히, 상기 교통량 분석부(2000)는 상기 차량위치 판단부(1000)에서 판단한 프레임별 상기 차량의 최종 위치정보들을 이용하여, 특정 차량이 미리 설정된 시간동안 위치 변화가 발생하지 않을 경우,(프레임이 변경되더라도 차량의 최종 위치정보가 변화되지 않을 경우) 해당 차량의 문제가 발생한 것으로 판단하여 돌발상황에 대비할 수 있도록 교통량 관련 정보를 생성하는 것이 바람직하다.In particular, the traffic volume analysis unit 2000 uses the final position information of the vehicle for each frame determined by the vehicle position determination unit 1000, and when a specific vehicle does not change in position for a preset time, (the frame is If the final location information of the vehicle does not change even if the vehicle is changed), it is preferable to generate traffic volume-related information to prepare for an unexpected situation by determining that a problem has occurred in the vehicle.

이 때, 미리 설정된 시간이란, 신호등 동작 시간을 감안하여, 설정하는 것이 가장 바람직하다.At this time, it is most preferable to set the preset time in consideration of the operation time of the traffic light.

상기 교통량 분석부(2000)에서 분석한 교통량 관련 정보들을 이용하여, 자율 주행 차량의 안전한 주행을 지원하는 정보로 활용하는 것이 가장 바람직하며, 도로 혼잡, 교통혼잡을 효율적으로 관리하기 위하여 실시간으로 신호체계를 제어하는게 활용하는 것 역시 바람직하다.It is most preferable to use the traffic volume-related information analyzed by the traffic volume analysis unit 2000 as information to support the safe driving of autonomous vehicles, and a signal system in real time to efficiently manage road congestion and traffic congestion. It is also desirable to utilize to control.

이상과 같이 본 발명에서는 구체적인 구성 소자 등과 같은 특정 사항들과 한정된 실시예 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것 일 뿐, 본 발명은 상기의 일 실시예에 한정되는 것이 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, in the present invention, specific matters such as specific components, etc. and limited embodiments have been described, but this is provided only to aid in a more general understanding of the present invention, and the present invention is limited to the above-described embodiment. It is not, and those of ordinary skill in the field to which the present invention belongs can make various modifications and variations from this description.

따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허 청구 범위뿐 아니라 이 특허 청구 범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention is limited to the described embodiments and should not be determined, and all things equivalent or equivalent to the claims as well as the claims to be described later belong to the scope of the spirit of the present invention. .

100 : 영상 취득부
200 : 통합 분석부
210 : 초기 설정부 220 : 차량 탐지부
230 : 차량 추정부 240 : 차량위치 보정부
250 : 최종 연산부
1000 : 차량위치 판단부
2000 : 교통량 분석부
100: image acquisition unit
200: integrated analysis unit
210: initial setting unit 220: vehicle detection unit
230: vehicle estimation unit 240: vehicle position correction unit
250: final operation unit
1000: vehicle location determination unit
2000: Traffic Analysis Department

Claims (15)

교차로 주변에 소정높이를 갖는 기설정된 영역에 설치되어, 교차로 내부의 기설정된 구역을 촬영하여 영상 데이터를 취득하는 영상 취득부(100); 및
상기 영상 취득부(100)와 네트워크 연결되어, 상기 영상 취득부(100)로부터 상기 영상 데이터를 전송받아, 이를 분석하여 영상 내 위치한 차량들의 관련 정보들을 연산하는 통합 분석부(200);
를 포함하여 구성되는 것을 특징으로 하는 영상 내 차량위치 산출 장치.
An image acquisition unit 100 installed in a predetermined area having a predetermined height around the intersection, and acquiring image data by photographing a predetermined area inside the intersection; And
An integrated analysis unit 200 connected to the image acquisition unit 100 through a network, receiving the image data from the image acquisition unit 100, analyzing the data and calculating related information of vehicles located in the image;
Vehicle position calculation device in the image, characterized in that configured to include.
제 1항에 있어서,
상기 영상 취득부(100)는
광학 센서(optical sensor)를 포함하는 카메라(IP camera)를 포함하는 것을 특징으로 하는 영상 내 차량위치 산출 장치.
The method of claim 1,
The image acquisition unit 100
An apparatus for calculating vehicle position in an image, comprising: an IP camera including an optical sensor.
제 1항에 있어서,
상기 통합 분석부(200)는
전송받은 상기 영상 데이터에 포함되어 있는 적어도 하나의 영상 프레임을 이용하여, 상기 영상 프레임 내에 포함되어 있는 차선 객체 정보들을 추출하고,
상기 영상 프레임의 고정된 x, y 좌표를 기준으로 각각의 차선 방향에 따라 차량의 진행방향 각도(θhor, θver)를 연산하여 초기각도 정보로 설정하는 초기 설정부(210);
를 포함하여 구성되며,
상기 초기 설정부(210)는
각각의 차선 방향에 따라 차량의 진행에 의한 차량의 앞면길이를 연산하여, 초기길이 정보로 설정하는 것을 특징으로 하는 영상 내 차량위치 산출 장치.
The method of claim 1,
The integrated analysis unit 200
Using at least one image frame included in the received image data, lane object information included in the image frame is extracted,
An initial setting unit 210 for calculating the vehicle traveling direction angles θhor and θver based on the fixed x and y coordinates of the image frame and setting initial angle information;
Consists of including,
The initial setting unit 210
A vehicle position calculation apparatus in an image, characterized in that by calculating a front length of the vehicle due to the progress of the vehicle according to each lane direction and setting the initial length information.
제 3항에 있어서,
상기 통합 분석부(200)는
전송받은 상기 영상 데이터에 포함되어 있는 영상 프레임들을 순차적으로 이용하여, 각각의 상기 영상 프레임 내에 포함되어 있는 적어도 하나의 차량 객체 정보를 추출하는 차량 탐지부(220);
를 포함하여 구성되며,
상기 차량 객체 정보는
기설정된 차량의 중심점을 기준으로 기설정된 영역크기(x, y, w, h)를 갖는 것을 특징으로 하는 영상 내 차량위치 산출 장치.
The method of claim 3,
The integrated analysis unit 200
A vehicle detection unit 220 that sequentially uses image frames included in the transmitted image data to extract at least one vehicle object information included in each of the image frames;
Consists of including,
The vehicle object information is
A vehicle position calculation apparatus in an image, characterized in that it has a preset area size (x, y, w, h) based on a preset center point of the vehicle.
제 4항에 있어서,
상기 통합 분석부(200)는
상기 차량 탐지부(220)에서 특정 영상 프레임(i번째 프레임)에서 추출한 특정 차량 객체 정보(P x(i), y(i), w(i), h(i))와 특정 영상 프레임의 다음 영상 프레임(i+1 번째 프레임)에서 추출한 특정 차량 객체 정보(P x(i+1), y(i+1), w(i+1), h(i+1))를 비교하여,
상기 차량의 진행방향에 따른 각도(θmain)를 연산하여, 추정 진행방향 각도 정보로 설정하는 차량 추정부(230); 및
상기 초기 설정부(210)에서 설정한 상기 초기각도 정보와 상기 차량 추정부(230)에서 설정한 상기 추정 진행방향 각도 정보를 비교하여, 상기 차량이 현재 위치에서 직진할 경우의 진행방향 각도(θbase_main)와, 차량의 앞면방향 각도(θbase_sub)를 연산하여, 기본 진행방향 각도 정보와 기본 앞면방향 각도 정보로 설정하는 차량위치 보정부(240);
를 포함하여 구성되는 것을 특징으로 하는 영상 내 차량위치 산출 장치.
(i는 1이상의 자연수임.)
The method of claim 4,
The integrated analysis unit 200
Specific vehicle object information (P x(i), y(i), w(i), h(i)) extracted from the specific image frame (i-th frame) by the vehicle detection unit 220 and the next By comparing specific vehicle object information (P x(i+1), y(i+1), w(i+1), h(i+1)) extracted from the image frame (i+1th frame),
A vehicle estimating unit 230 for calculating the angle θmain according to the traveling direction of the vehicle and setting the estimated traveling direction angle information; And
The initial angle information set by the initial setting unit 210 is compared with the estimated traveling direction angle information set by the vehicle estimating unit 230, and the traveling direction angle (θbase_main) when the vehicle goes straight from the current position. ) And a vehicle position correction unit 240 that calculates the front direction angle of the vehicle (θbase_sub) and sets the basic travel direction angle information and the basic front direction angle information;
Vehicle position calculation device in the image, characterized in that configured to include.
(i is a natural number greater than or equal to 1.)
제 5항에 있어서,
상기 차량위치 보정부(240)는
상기 차량 탐지부(220)에서 추출한 상기 차량 객체 정보를 이용하여, 상기 차량이 현재 위치에서 회전되었을 경우에 대한 차량의 앞면길이(Lbase_main), 상기 차량이 현재 위치에서 직진할 경우에 대한 차량의 앞면길이(Lbase_sub)를 연산하여, 제1, 제2 기본 앞면길이 정보로 설정하는 것을 특징으로 하는 영상 내 차량위치 산출 장치.
The method of claim 5,
The vehicle position correction unit 240
Using the vehicle object information extracted by the vehicle detection unit 220, the length of the front surface of the vehicle (Lbase_main) when the vehicle is rotated at the current position, and the front surface of the vehicle when the vehicle goes straight from the current position. An apparatus for calculating a vehicle position in an image, characterized in that by calculating a length (Lbase_sub) and setting it as first and second basic front length information.
제 6항에 있어서,
상기 통합 분석부(200)는
상기 차량 추정부(230)와 차량위치 보정부(240)에서 연산한 상기 차량의 관련 정보들을 이용하여, 상기 차량의 추정 앞면방향 각도 정보(θsub), 추정 앞면길이 정보(Lsub)를 추정하여, 기설정된 수식에 적용하여 최종 차량위치 정보(Xcar, Ycar)를 연산하는 최종 연산부(250);
를 더 포함하여 구성되는 것을 특징으로 하는 영상 내 차량위치 산출 장치.
The method of claim 6,
The integrated analysis unit 200
Using the vehicle-related information calculated by the vehicle estimating unit 230 and the vehicle position correction unit 240, the estimated front angle information θsub and the estimated front length information Lsub of the vehicle are estimated, A final calculation unit 250 for calculating final vehicle location information (Xcar, Ycar) by applying a predetermined formula;
Vehicle position calculation device in the image, characterized in that the configuration further comprises a.
제 7항에 있어서,
상기 최종 연산부(250)는
상기 기본 진행방향 각도 정보와 기본 앞면방향 각도 정보의 각도차를 연산하여, 차량이 회전되었을 경우의 진행방향의 최대 변화량(θdif_main)과 차량 앞면방향의 최대 변화량(θdif_sub)을 산출하고,
연산한 변화량과 상기 추정 진행방향 각도 정보의 변화량을 이용하여, 차량이 직진할 경우의 진행방향과 현재 진행방향의 차이값(θdelta_main)과, 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값(θdelta_sub)을 산출하고,
차이값들을 이용하여, 상기 추정 앞면방향 각도 정보를 연산하는 것을 특징으로 하는 영상 내 차량위치 산출 장치.
The method of claim 7,
The final operation unit 250
By calculating the angle difference between the basic travel direction angle information and the basic front direction angle information, the maximum change amount θdif_main in the driving direction when the vehicle is rotated and the maximum change amount θdif_sub in the front direction of the vehicle are calculated,
Using the calculated amount of change and the amount of change in the estimated heading angle information, the difference between the driving direction and the current driving direction (θdelta_main) when the vehicle goes straight, and the difference between the front direction and the current front direction when the vehicle goes straight Calculate the value (θdelta_sub),
An apparatus for calculating a vehicle position in an image, characterized in that calculating the estimated front angle information by using difference values.
제 8항에 있어서,
상기 최종 연산부(250)는
상기 제1, 제2 기본 앞면길이 정보들의 길이차(Ldif_sub)를 연산하고,
연산한 길이차와 상기 차량 앞면방향의 최대 변화량, 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값을 이용하여, 차량이 회전되었을 경우의 앞면길이 변화량(Ldelta_sub)을 산출하고,
상기 현재 위치에서 직진할 경우에 대한 차량의 앞면길이 정보와 차량이 회전되었을 경우의 앞면길이 변화량을 이용하여 상기 추정 앞면길이 정보를 연산하는 것을 특징으로 하는 영상 내 차량위치 산출 장치.
The method of claim 8,
The final operation unit 250
Calculate a length difference (Ldif_sub) between the first and second basic front length information,
Using the calculated length difference and the maximum change in the front direction of the vehicle, and the difference between the front direction when the vehicle goes straight and the current front direction, the front length change amount (Ldelta_sub) when the vehicle is turned is calculated,
And calculating the estimated front length information by using front length information of the vehicle when going straight from the current position and a change amount of the front length when the vehicle is rotated.
영상 취득부에서, 교차로 내부의 기설정된 구역을 촬영하여 영상 데이터를 취득하는 영상 취득단계(S100);
통합 분석부에서, 상기 영상 취득단계(S100)에 의해 취득한 상기 영상 데이터를 전송받아 이를 분석하여 영상 내 위치한 차량들의 관련 정보들을 연산하여, 각 차량의 최종 위치정보(Xcar, Ycar)를 판단하는 분석단계(S200);
로 이루어지며,
상기 영상 취득단계(S100)는
광학 센서(optical sensor)를 포함하는 카메라(IP camera)로 영상 데이터를 취득하는 것을 특징으로 하는 영상 내 차량위치 산출 방법.
An image acquisition step (S100) of acquiring image data by photographing a predetermined area inside the intersection by the image acquisition unit;
The integrated analysis unit receives the image data acquired in the image acquisition step (S100), analyzes it, calculates related information of vehicles located in the image, and determines the final location information (Xcar, Ycar) of each vehicle. Step S200;
Consists of
The image acquisition step (S100)
A method for calculating a vehicle position in an image, comprising acquiring image data with an IP camera including an optical sensor.
제 10항에 있어서,
상기 분석단계(S200)는
전송받은 상기 영상 데이터에 포함되어 있는 적어도 하나의 영상 프레임을 이용하여, 상기 영상 프레임 내에 포함되어 있는 차선 객체 정보들을 추출하고,
상기 영상 프레임의 고정된 x, y 좌표를 기준으로 각각의 차선 방향에 따라 차량의 진행방향 각도(θhor, θver)를 연산하여 초기각도 정보로 설정하며,
각각의 차선 방향에 따라 차량의 진행에 의한 차량의 앞면길이를 연산하여, 초기길이 정보로 설정하는 초기 설정단계(S210);
전송받은 상기 영상 데이터에 포함되어 있는 영상 프레임들을 순차적으로 이용하여, 기설정된 차량의 중심점을 기준으로 기설정된 영역크기(x, y, w, h)를 갖으며, 각각의 상기 영상 프레임 내에 포함되어 있는 적어도 하나의 차량 객체 정보를 추출하는 차량 탐지단계(S220);
상기 차량 탐지단계(S220)에 의해, 특정 영상 프레임(i번째 프레임)에서 추출한 특정 차량 객체 정보(P x(i), y(i), w(i), h(i))와 특정 영상 프레임의 다음 영상 프레임(i+1 번째 프레임)에서 추출한 특정 차량 객체 정보(P x(i+1), y(i+1), w(i+1), h(i+1))를 비교하여,
상기 차량의 진행방향에 따른 각도(θmain)를 연산하여, 추정 진행방향 각도 정보로 설정하는 차량 추정단계(S230);
상기 초기 설정단계(S210)에 의해 설정한 상기 초기각도 정보와, 상기 차량 추정단계(S230)에 의해 설정한 상기 추정 진행방향 각도 정보를 비교하여, 상기 차량이 현재 위치에서 직진할 경우의 진행방향 각도(θbase_main)와, 차량의 앞면방향 각도(θbase_sub)를 연산하여, 기본 진행방향 각도 정보와 기본 앞면방향 각도 정보로 설정하며,
상기 차량 탐지단계(S220)에 의해 추출한 상기 차량 객체 정보를 이용하여, 상기 차량이 현재 위치에서 회전되었을 경우에 대한 차량의 앞면길이(Lbase_main), 상기 차량이 현재 위치에서 직진할 경우에 대한 차량의 앞면길이(Lbase_sub)를 연산하여, 제1, 제2 기본 앞면길이 정보로 설정하는 차량위치 보정단계(S240); 및
상기 차량 추정단계(S230)와 상기 차량위치 보정단계(S240)에 의해 연산한 상기 차량의 관련 정보들을 이용하여, 상기 차량의 추정 앞면방향 각도 정보(θsub), 추정 앞면길이 정보(Lsub)를 추정하여, 기설정된 수식에 적용하여 최종 차량위치 정보(Xcar, Ycar)를 연산하는 최종 연산단계(S250);
를 포함하여 구성되는 것을 특징으로 하는 영상 내 차량위치 산출 방법.
(i는 1이상의 자연수임.)
The method of claim 10,
The analysis step (S200)
Using at least one image frame included in the received image data, lane object information included in the image frame is extracted,
Based on the fixed x, y coordinates of the image frame, the driving direction angles (θhor, θver) of the vehicle are calculated according to each lane direction and set as initial angle information,
An initial setting step (S210) of calculating the front length of the vehicle due to the progress of the vehicle according to each lane direction and setting the initial length information;
The image frames included in the transmitted image data are sequentially used, and have a preset area size (x, y, w, h) based on a preset center point of the vehicle, and are included in each of the image frames. A vehicle detection step (S220) of extracting information on at least one vehicle object in existence;
By the vehicle detection step (S220), specific vehicle object information (P x(i), y(i), w(i), h(i)) extracted from a specific image frame (i-th frame) and a specific image frame By comparing the specific vehicle object information (P x(i+1), y(i+1), w(i+1), h(i+1)) extracted from the next image frame of (i+1th frame) ,
A vehicle estimating step (S230) of calculating the angle θmain according to the traveling direction of the vehicle and setting the estimated traveling direction angle information;
The initial angle information set by the initial setting step (S210) is compared with the estimated traveling direction angle information set by the vehicle estimating step (S230), and the traveling direction when the vehicle goes straight from the current position By calculating the angle (θbase_main) and the front direction angle (θbase_sub) of the vehicle, the basic driving direction angle information and the basic front direction angle information are set.
Using the vehicle object information extracted by the vehicle detection step (S220), the front length of the vehicle (Lbase_main) when the vehicle is rotated at the current position, and the vehicle's length when the vehicle is going straight from the current position. A vehicle position correction step of calculating the front length (Lbase_sub) and setting the first and second basic front length information (S240); And
Using the vehicle-related information calculated by the vehicle estimating step (S230) and the vehicle position correction step (S240), the estimated front angle information (θsub) and the estimated front length information (Lsub) of the vehicle are estimated. Thus, the final calculation step (S250) of calculating the final vehicle location information (Xcar, Ycar) by applying the predetermined formula;
Vehicle position calculation method in the image, characterized in that configured to include.
(i is a natural number greater than or equal to 1.)
제 11항에 있어서,
상기 최종 연산단계(S250)는
상기 기본 진행방향 각도 정보와 기본 앞면방향 각도 정보의 각도차를 연산하여, 차량이 회전되었을 경우의 진행방향의 최대 변화량(θdif_main)과 차량 앞면방향의 최대 변화량(θdif_sub)을 산출하고,
연산한 변화량과 상기 추정 진행방향 각도 정보의 변화량을 이용하여, 차량이 직진할 경우의 진행방향과 현재 진행방향의 차이값(θdelta_main)과, 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값(θdelta_sub)을 산출하고,
차이값들을 이용하여, 상기 추정 앞면방향 각도 정보를 연산하며,
상기 제1, 제2 기본 앞면길이 정보들의 길이차(Ldif_sub)를 연산하고,
연산한 길이차와 상기 차량 앞면방향의 최대 변화량, 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값을 이용하여, 차량이 회전되었을 경우의 앞면길이 변화량(Ldelta_sub)을 산출하고,
상기 현재 위치에서 직진할 경우에 대한 차량의 앞면길이 정보와 차량이 회전되었을 경우의 앞면길이 변화량을 이용하여 상기 추정 앞면길이 정보를 연산하는 것을 특징으로 하는 영상 내 차량위치 산출 방법.
The method of claim 11,
The final operation step (S250) is
By calculating the angle difference between the basic travel direction angle information and the basic front direction angle information, the maximum change amount θdif_main in the driving direction when the vehicle is rotated and the maximum change amount θdif_sub in the front direction of the vehicle are calculated,
Using the calculated amount of change and the amount of change in the estimated heading angle information, the difference between the driving direction and the current driving direction (θdelta_main) when the vehicle goes straight, and the difference between the front direction and the current front direction when the vehicle goes straight Calculate the value (θdelta_sub),
Using the difference values, calculate the estimated front angle information,
Calculate a length difference (Ldif_sub) of the first and second basic front length information,
Using the calculated length difference and the maximum change in the front direction of the vehicle, and the difference between the front direction when the vehicle goes straight and the current front direction, the front length change amount (Ldelta_sub) when the vehicle is rotated is calculated,
And calculating the estimated front length information by using front length information of the vehicle when going straight from the current position and an amount of change in the front length when the vehicle is rotated.
제 10항 내지 제 12항에 중 선택되는 어느 한 항에 의한 영상 내 차량위치 산출 방법에 의해, 영상 내 위치한 차량들의 최종 위치정보를 판단하는 차량위치 판단부(1000); 및
상기 차량위치 판단부(1000)에서 판단한 상기 차량의 최종 위치정보들을 이용하여, 교통량을 분석하는 교통량 분석부(2000);
를 포함하여 구성되며,
상기 교통량 분석부(2000)는
외부의 요청에 따라, 분석한 교통량 관련 정보들을 전송하는 것을 특징으로 하는 영상 내 차량위치 산출 방법을 이용한 교통량 분석 시스템.
A vehicle position determining unit 1000 for determining final position information of vehicles located in the image by the method of calculating vehicle position in the image according to any one of claims 10 to 12; And
A traffic volume analysis unit 2000 that analyzes a traffic volume by using the final location information of the vehicle determined by the vehicle location determination unit 1000;
Consists of including,
The traffic volume analysis unit 2000
A traffic volume analysis system using a method of calculating a vehicle location in an image, characterized in that transmitting the analyzed traffic volume related information according to an external request.
제 13항에 있어서,
상기 교통량 분석부(2000)는
상기 차량위치 판단부(1000)에서 판단한 상기 차량의 최종 위치정보들을 이용하여, 교차로 내부의 각 방향별 차량들의 이동량과 평균속도를 분석하여, 교통량을 분석하는 것을 특징으로 하는 영상 내 차량위치 산출 방법을 이용한 교통량 분석 시스템.
The method of claim 13,
The traffic volume analysis unit 2000
A method for calculating a vehicle position in an image, characterized in that for analyzing the amount of traffic by analyzing the moving amount and the average speed of vehicles in each direction inside the intersection using the final position information of the vehicle determined by the vehicle position determining unit 1000 Traffic analysis system using.
제 13항에 있어서,
상기 교통량 분석부(2000)는
상기 차량위치 판단부(1000)에서 판단한 상기 차량의 최종 위치정보들을 이용하여, 특정 차량이 기설정된 시간동안 위치 변화가 발생하지 않을 경우, 해당 차량의 문제가 발생한 것으로 판단하는 것을 특징으로 하는 영상 내 차량위치 산출 방법을 이용한 교통량 분석 시스템.
The method of claim 13,
The traffic volume analysis unit 2000
Using the final location information of the vehicle determined by the vehicle location determination unit 1000, when a specific vehicle does not change in position for a preset time, it is determined that a problem with the vehicle has occurred. Traffic analysis system using vehicle location calculation method.
KR1020190085290A 2019-07-15 2019-07-15 Device and method for calculation vehicle position in an image, and traffic analysis system using the same KR102256205B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190085290A KR102256205B1 (en) 2019-07-15 2019-07-15 Device and method for calculation vehicle position in an image, and traffic analysis system using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190085290A KR102256205B1 (en) 2019-07-15 2019-07-15 Device and method for calculation vehicle position in an image, and traffic analysis system using the same

Publications (2)

Publication Number Publication Date
KR20210008737A true KR20210008737A (en) 2021-01-25
KR102256205B1 KR102256205B1 (en) 2021-05-27

Family

ID=74238065

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190085290A KR102256205B1 (en) 2019-07-15 2019-07-15 Device and method for calculation vehicle position in an image, and traffic analysis system using the same

Country Status (1)

Country Link
KR (1) KR102256205B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102499023B1 (en) * 2022-01-27 2023-02-14 포티투닷 주식회사 Apparatus and method for determining traffic flow by lane

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020092107A (en) * 2001-06-02 2002-12-11 엘지산전 주식회사 Traffic information extracting method and apparatus using a image information
JP2007149077A (en) * 2005-11-07 2007-06-14 Fujitsu Ltd Video processing method and device
KR101889085B1 (en) * 2017-12-07 2018-08-16 렉스젠(주) Apparatus for generating traffic information using vehicle trajectory and method thereof
KR101942491B1 (en) 2018-11-08 2019-04-11 주식회사 싸인텔레콤 Hybrid ai cctv mediation module device consisting of road traffic situation monitoring and real time traffic information analysis

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020092107A (en) * 2001-06-02 2002-12-11 엘지산전 주식회사 Traffic information extracting method and apparatus using a image information
JP2007149077A (en) * 2005-11-07 2007-06-14 Fujitsu Ltd Video processing method and device
KR101889085B1 (en) * 2017-12-07 2018-08-16 렉스젠(주) Apparatus for generating traffic information using vehicle trajectory and method thereof
KR101942491B1 (en) 2018-11-08 2019-04-11 주식회사 싸인텔레콤 Hybrid ai cctv mediation module device consisting of road traffic situation monitoring and real time traffic information analysis

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102499023B1 (en) * 2022-01-27 2023-02-14 포티투닷 주식회사 Apparatus and method for determining traffic flow by lane

Also Published As

Publication number Publication date
KR102256205B1 (en) 2021-05-27

Similar Documents

Publication Publication Date Title
CN110446278B (en) Intelligent driving automobile sensor blind area safety control method and system based on V2I
CN106297330B (en) Reduce the method and system that pedestrian's street crossing influences plane perceptual signal control efficiency
CN105632175B (en) Vehicle behavior analysis method and system
CN108198441B (en) Rapid intelligent traffic system and method
KR101446546B1 (en) Display system of vehicle information based on the position
CN107664500B (en) garage vehicle positioning and navigation method based on image feature recognition
CN104616502B (en) Car license recognition and alignment system based on combination type bus or train route video network
CN113034960A (en) Object change detection system for updating precision route map and method thereof
KR20170126909A (en) Directions for autonomous driving
KR20180046798A (en) Method and apparatus for real time traffic information provision
CN111275960A (en) Traffic road condition analysis method, system and camera
CN106530794A (en) Automatic identification and calibration method of driving road and system thereof
CN102208035A (en) Image processing system and position measurement system
CN111081047A (en) Accurate intelligent parking management method and management system based on photoelectric image processing
JP2015060443A (en) Traffic volume grasping device and method
CN115953912B (en) Vehicle-road cooperative sensing equipment and method
CN110164164A (en) The method for identifying complicated road precision using camera shooting function enhancing Mobile Telephone Gps software
US20210183237A1 (en) Method and device for providing a position of at least one object
CN112556718A (en) Inferring lane boundaries via high speed vehicle telemetry
KR102418051B1 (en) Lane traffic situation judgement apparatus, system, and method thereof
KR101998834B1 (en) Traffic Information Providing System Enabling Traffic Accident Risk Prediction
KR102256205B1 (en) Device and method for calculation vehicle position in an image, and traffic analysis system using the same
JP2012215442A (en) Own position determination system, own position determination program, own position determination method
KR20090090049A (en) Apparatus and method for real-time traffic information service
CN111429723B (en) Communication and perception data fusion method based on road side equipment

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right