KR102256205B1 - 영상 내 차량위치 산출 장치 및 그 방법, 이를 이용한 교통량 분석 시스템 - Google Patents

영상 내 차량위치 산출 장치 및 그 방법, 이를 이용한 교통량 분석 시스템 Download PDF

Info

Publication number
KR102256205B1
KR102256205B1 KR1020190085290A KR20190085290A KR102256205B1 KR 102256205 B1 KR102256205 B1 KR 102256205B1 KR 1020190085290 A KR1020190085290 A KR 1020190085290A KR 20190085290 A KR20190085290 A KR 20190085290A KR 102256205 B1 KR102256205 B1 KR 102256205B1
Authority
KR
South Korea
Prior art keywords
vehicle
information
image
calculating
length
Prior art date
Application number
KR1020190085290A
Other languages
English (en)
Other versions
KR20210008737A (ko
Inventor
성선경
송정헌
윤동현
김지영
Original Assignee
주식회사 하이퍼센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 하이퍼센싱 filed Critical 주식회사 하이퍼센싱
Priority to KR1020190085290A priority Critical patent/KR102256205B1/ko
Publication of KR20210008737A publication Critical patent/KR20210008737A/ko
Application granted granted Critical
Publication of KR102256205B1 publication Critical patent/KR102256205B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/065Traffic control systems for road vehicles by counting the vehicles in a section of the road or in a parking area, i.e. comparing incoming count with outgoing count
    • G06K9/00771
    • G06K9/00798
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0145Measuring and analyzing of parameters relative to traffic conditions for specific applications for active traffic flow control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/052Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed

Abstract

본 발명은 영상 내 차량위치 산출 장치 및 그 방법, 이를 이용한 교통량 분석 시스템에 관한 것으로서, 더욱 상세하게는, 교차로 주변에 소정높이를 갖는 기설정된 영역에 설치되어, 교차로 내부의 기설정된 구역을 촬영하여 영상 데이터를 취득하는 영상 취득부(100) 및 상기 영상 취득부(100)와 네트워크 연결되어, 상기 영상 취득부(100)로부터 상기 영상 데이터를 전송받아, 이를 분석하여 영상 내 위치한 차량들의 관련 정보들을 연산하는 통합 분석부(200)를 포함하여 구성되는 것을 특징으로 하는 영상 내 차량위치 산출 장치에 관한 것이다.

Description

영상 내 차량위치 산출 장치 및 그 방법, 이를 이용한 교통량 분석 시스템 {Device and method for calculation vehicle position in an image, and traffic analysis system using the same}
본 발명은 영상 내 차량위치 산출 장치 및 그 방법, 이를 이용한 교통량 분석 시스템에 관한 것으로, 더욱 상세하게는 취득한 영상 데이터 내에 차량의 정확한 위치정보를 연산하여 제공함으로써, 이를 통해 도로 상의 교통정보/교통상황을 실시간으로 제공할 수 있어 교통 시스템의 효율성을 향상시킬 수 있는 영상 내 차량위치 산출 장치 및 그 방법, 이를 이용한 교통량 분석 시스템에 관한 것이다.
교차로 등의 도로 교통량을 분석하여 실시간으로 상황에 맞게 교통 신호를 제어하는 시스템이 요구되고 있지만, 교통량 관련 정보를 실시간으로 알아내는 기술의 부재로 인해, 제대로 정착되지 못하고 있는 실정이다.
이에 대한 대안으로, 차량의 GPS 정보를 수집하여 실시간으로 교통량을 분석하고자 하였지만, 분석 시간이 너무 오래 걸리기 때문에 교통 신호에 적절하게 적용하는 것이 불가능하다.
또한, 일반적으로 교통방송 등을 위해 도로 상의 교통정보/교통상황에 의한 교통 데이터를 수집하는 방법으로, 루프 검지기와 영상기반 검지기가 주를 이루고 있다.
그렇지만, 이를 실시간 교통량 분석에 적용하기 위해서는, 루프 검지기의 경우, 설치 및 유지 관리시에 도로 포장 공사가 같이 이루어져야 하기 때문에 비용이 많이 발생하는 문제점이 있으며, 영상기반 검지기의 경우, 여러 차선, 여러 방향의 교통 데이터를 취득하기 위한 해당 개수만큼의 검지기를 설치 및 관리해야 하는 문제점이 있다.
이와 관련해서, 국내등록특허 제10-1942491호("도로교통 상황 모니터링 관제, 실시간 교통정보 분석, 교통신호제어로 이루어진 인공지능형 CCTV 통합관제중개제어모듈을 갖는 CCTV통합관제센터시스템")에서는 복수개의 현장용 CCTV모듈과 CCTV 통합관제관리서버 사이에 형성된 인공지능형 CCTV통합관제중개제어모듈을 통해, CCTV 통합관제관리서버가 해야 할 도로교통 상황 모니터링 관제기능과, 특정이동차량검출기능, 특정이동차량추적기능, 교통정보분석기능, 교통신호제어기능을 수행시킬 수 있는 도로교통 상황 모니터링 관제 ㅇ 실시간 교통정보 분석ㅇ교통신호제어로 이루어진 인공지능형 CCTV통합관제중개제어모듈을 갖는 CCTV통합관제센터시스템을 개시하고 있다.
국내등록특허 제10-1942491호(등록일 2019.01.21.)
본 발명은 상기한 바와 같은 종래 기술의 문제점을 해결하기 위하여 안출된 것으로, 교차로 등을 촬영한 영상 데이터가 해당 교차로의 중심점이 되는 곳에서 촬영할 수 없기 때문에, 영상에서 촬영된 차량의 실제 지도 좌표계로 변환하여 정확한 위치정보를 제공함으로써, 교차로 내부 통과량, 회전량 등을 판단할 수 있어 도로 상의 교통정보/교통상황을 실시간으로 제공할 수 있어 교통 시스템의 효율성을 향상시킬 수 있는 영상 내 차량위치 산출 장치 및 그 방법, 이를 이용한 교통량 분석 시스템을 제공하는 것이다.
본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치는, 교차로 주변에 소정높이를 갖는 기설정된 영역에 설치되어, 교차로 내부의 기설정된 구역을 촬영하여 영상 데이터를 취득하는 영상 취득부(100) 및 상기 영상 취득부(100)와 네트워크 연결되어, 상기 영상 취득부(100)로부터 상기 영상 데이터를 전송받아, 이를 분석하여 영상 내 위치한 차량들의 관련 정보들을 연산하는 통합 분석부(200)를 포함하여 구성되는 것이 바람직하다.
더 나아가, 상기 영상 취득부(100)는 광학 센서(optical sensor)를 포함하는 카메라(IP camera)를 포함하는 것이 바람직하다.
더 나아가, 상기 통합 분석부(200)는 전송받은 상기 영상 데이터에 포함되어 있는 적어도 하나의 영상 프레임을 이용하여, 상기 영상 프레임 내에 포함되어 있는 차선 객체 정보들을 추출하고, 상기 영상 프레임의 고정된 x, y 좌표를 기준으로 각각의 차선 방향에 따라 차량의 진행방향 각도(θhor, θver)를 연산하여 초기각도 정보로 설정하는 초기 설정부(210)를 포함하여 구성되며, 상기 초기 설정부(210)는 각각의 차선 방향에 따라 차량의 진행에 의한 차량의 앞면길이를 연산하여, 초기길이 정보로 설정하는 것이 바람직하다.
더 나아가, 상기 통합 분석부(200)는 전송받은 상기 영상 데이터에 포함되어 있는 영상 프레임들을 순차적으로 이용하여, 각각의 상기 영상 프레임 내에 포함되어 있는 적어도 하나의 차량 객체 정보를 추출하는 차량 탐지부(220)를 포함하여 구성되며, 상기 차량 객체 정보는 기설정된 차량의 중심점을 기준으로 기설정된 영역크기(x, y, w, h)를 갖는 것이 바람직하다.
더 나아가, 상기 통합 분석부(200)는 상기 차량 탐지부(220)에서 특정 영상 프레임(i번째 프레임)에서 추출한 특정 차량 객체 정보(P x(i), y(i), w(i), h(i))와 특정 영상 프레임의 다음 영상 프레임(i+1 번째 프레임)에서 추출한 특정 차량 객체 정보(P x(i+1), y(i+1), w(i+1), h(i+1))를 비교하여, 상기 차량의 진행방향에 따른 각도(θmain)를 연산하여, 추정 진행방향 각도 정보로 설정하는 차량 추정부(230) 및 상기 초기 설정부(210)에서 설정한 상기 초기각도 정보와 상기 차량 추정부(230)에서 설정한 상기 추정 진행방향 각도 정보를 비교하여, 상기 차량이 현재 위치에서 직진할 경우의 진행방향 각도(θbase_main)와, 차량의 앞면방향 각도(θbase_sub)를 연산하여, 기본 진행방향 각도 정보와 기본 앞면방향 각도 정보로 설정하는 차량위치 보정부(240)를 포함하여 구성되는 것이 바람직하다.
더 나아가, 상기 차량위치 보정부(240)는 상기 차량 탐지부(220)에서 추출한 상기 차량 객체 정보를 이용하여, 상기 차량이 현재 위치에서 회전되었을 경우에 대한 차량의 앞면길이(Lbase_main), 상기 차량이 현재 위치에서 직진할 경우에 대한 차량의 앞면길이(Lbase_sub)를 연산하여, 제1, 제2 기본 앞면길이 정보로 설정하는 것이 바람직하다.
더 나아가, 상기 통합 분석부(200)는 상기 차량 추정부(230)와 차량위치 보정부(240)에서 연산한 상기 차량의 관련 정보들을 이용하여, 상기 차량의 추정 앞면방향 각도 정보(θsub), 추정 앞면길이 정보(Lsub)를 추정하여, 기설정된 수식에 적용하여 최종 차량위치 정보(Xcar, Ycar)를 연산하는 최종 연산부(250)를 더 포함하여 구성되는 것이 바람직하다.
더 나아가, 상기 최종 연산부(250)는 상기 기본 진행방향 각도 정보와 기본 앞면방향 각도 정보의 각도차를 연산하여, 차량이 회전할 경우의 진행방향의 최대 변화량(θdif_main)과 차량 앞면방향의 최대 변화량(θdif_sub)을 산출하고, 연산한 변화량과 상기 추정 진행방향 각도 정보의 변화량을 이용하여, 차량이 직진할 경우의 진행방향과 현재 진행방향의 차이값(θdelta_main)과, 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값(θdelta_sub)을 산출하고, 차이값들을 이용하여, 상기 추정 앞면방향 각도 정보를 연산하는 것이 바람직하다.
더 나아가, 상기 최종 연산부(250)는 상기 제1, 제2 기본 앞면길이 정보들의 길이차(Ldif_sub)를 연산하고, 연산한 길이차와 상기 차량 앞면방향의 최대 변화량, 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값을 이용하여, 차량이 회전할 경우의 앞면길이 변화량(Ldelta_sub)을 산출하고, 상기 현재 위치에서 직진할 경우에 대한 차량의 앞면길이 정보와 차량이 회전할 경우의 앞면길이 변화량을 이용하여 상기 추정 앞면길이 정보를 연산하는 것이 바람직하다.
본 발명의 또다른 일 실시예에 따른 영상 내 차량위치 산출 방법은, 영상 취득부에서, 교차로 내부의 기설정된 구역을 촬영하여 영상 데이터를 취득하는 영상 취득단계(S100), 통합 분석부에서, 상기 영상 취득단계(S100)에 의해 취득한 상기 영상 데이터를 전송받아 이를 분석하여 영상 내 위치한 차량들의 관련 정보들을 연산하여, 각 차량의 최종 위치정보(Xcar, Ycar)를 판단하는 분석단계(S200)로 이루어지며, 상기 영상 취득단계(S100)는 광학 센서(optical sensor)를 포함하는 카메라(IP camera)로 영상 데이터를 취득하는 것이 바람직하다.
더 나아가, 상기 분석단계(S200)는 전송받은 상기 영상 데이터에 포함되어 있는 적어도 하나의 영상 프레임을 이용하여, 상기 영상 프레임 내에 포함되어 있는 차선 객체 정보들을 추출하고, 상기 영상 프레임의 고정된 x, y 좌표를 기준으로 각각의 차선 방향에 따라 차량의 진행방향 각도(θhor, θver)를 연산하여 초기각도 정보로 설정하며, 각각의 차선 방향에 따라 차량의 진행에 의한 차량의 앞면길이를 연산하여, 초기길이 정보로 설정하는 초기 설정단계(S210), 전송받은 상기 영상 데이터에 포함되어 있는 영상 프레임들을 순차적으로 이용하여, 기설정된 차량의 중심점을 기준으로 기설정된 영역크기(x, y, w, h)를 갖으며, 각각의 상기 영상 프레임 내에 포함되어 있는 적어도 하나의 차량 객체 정보를 추출하는 차량 탐지단계(S220), 상기 차량 탐지단계(S220)에 의해, 특정 영상 프레임(i번째 프레임)에서 추출한 특정 차량 객체 정보(P x(i), y(i), w(i), h(i))와 특정 영상 프레임의 다음 영상 프레임(i+1 번째 프레임)에서 추출한 특정 차량 객체 정보(P x(i+1), y(i+1), w(i+1), h(i+1))를 비교하여, 상기 차량의 진행방향에 따른 각도(θmain)를 연산하여, 추정 진행방향 각도 정보로 설정하는 차량 추정단계(S230), 상기 초기 설정단계(S210)에 의해 설정한 상기 초기각도 정보와, 상기 차량 추정단계(S230)에 의해 설정한 상기 추정 진행방향 각도 정보를 비교하여, 상기 차량이 현재 위치에서 직진할 경우의 진행방향 각도(θbase_main)와, 차량의 앞면방향 각도(θbase_sub)를 연산하여, 기본 진행방향 각도 정보와 기본 앞면방향 각도 정보로 설정하며, 상기 차량 탐지단계(S220)에 의해 추출한 상기 차량 객체 정보를 이용하여, 상기 차량이 현재 위치에서 회전되었을 경우에 대한 차량의 앞면길이(Lbase_main), 상기 차량이 현재 위치에서 직진할 경우에 대한 차량의 앞면길이(Lbase_sub)를 연산하여, 제1, 제2 기본 앞면길이 정보로 설정하는 차량위치 보정단계(S240) 및 상기 차량 추정단계(S230)와 상기 차량위치 보정단계(S240)에 의해 연산한 상기 차량의 관련 정보들을 이용하여, 상기 차량의 추정 앞면방향 각도 정보(θsub), 추정 앞면길이 정보(Lsub)를 추정하여, 기설정된 수식에 적용하여 최종 차량위치 정보(Xcar, Ycar)를 연산하는 최종 연산단계(S250)를 포함하여 구성되는 것이 바람직하다.
더 나아가, 상기 최종 연산단계(S250)는 상기 기본 진행방향 각도 정보와 기본 앞면방향 각도 정보의 각도차를 연산하여, 차량이 회전되었을 경우의 진행방향의 최대 변화량(θdif_main)과 차량 앞면방향의 최대 변화량(θdif_sub)을 산출하고, 연산한 변화량과 상기 추정 진행방향 각도 정보의 변화량을 이용하여, 차량이 직진할 경우의 진행방향과 현재 진행방향의 차이값(θdelta_main)과, 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값(θdelta_sub)을 산출하고, 차이값들을 이용하여, 상기 추정 앞면방향 각도 정보를 연산하며, 상기 제1, 제2 기본 앞면길이 정보들의 길이차(Ldif_sub)를 연산하고, 연산한 길이차와 상기 차량 앞면방향의 최대 변화량, 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값을 이용하여, 차량이 회전되었을 경우의 앞면길이 변화량(Ldelta_sub)을 산출하고, 상기 현재 위치에서 직진할 경우에 대한 차량의 앞면길이 정보와 차량이 회전되었을 경우의 앞면길이 변화량을 이용하여 상기 추정 앞면길이 정보를 연산하는 것이 바람직하다.
본 발명의 다른 일 실시예에 따른 영상 내 차량위치 산출 방법을 이용한 교통량 분석 시스템은, 영상 내 차량위치 산출 방법에 의해, 영상 내 위치한 차량들의 최종 위치정보를 판단하는 차량위치 판단부(1000) 및 상기 차량위치 판단부(1000)에서 판단한 상기 차량의 최종 위치정보들을 이용하여, 교통량을 분석하는 교통량 분석부(2000)를 포함하여 구성되며, 상기 교통량 분석부(2000)는 외부의 요청에 따라, 분석한 교통량 관련 정보들을 전송하는 것이 바람직하다.
더 나아가, 상기 교통량 분석부(2000)는 상기 차량위치 판단부(1000)에서 판단한 상기 차량의 최종 위치정보들을 이용하여, 교차로 내부의 각 방향별 차량들의 이동량과 평균속도를 분석하여, 교통량을 분석하는 것이 바람직하다.
더 나아가, 상기 교통량 분석부(2000)는 상기 차량위치 판단부(1000)에서 판단한 상기 차량의 최종 위치정보들을 이용하여, 특정 차량이 기설정된 시간동안 위치 변화가 발생하지 않을 경우, 해당 차량의 문제가 발생한 것으로 판단하는 것이 바람직하다.
상기와 같은 구성에 의한 본 발명의 영상 내 차량위치 산출 장치 및 그 방법, 이를 이용한 교통량 분석 시스템은, 교차로 외부 일측에 광학 센서를 포함하는 IP camera를 설치하여, 영상 데이터를 취득함으로써, 기존의 교통데이터를 수집하는 루프검지기 또는 영상기반 검지기가 갖는 문제점을 해소할 수 있는 장점이 있다.
또한, 교차로 등을 촬영한 영상 데이터가 해당 교차로의 중심점이 되는 곳에서 촬영할 수 없기 때문에, 영상에서 촬영된 차량의 실제 지도 좌표계로 변환하여 정확한 위치정보를 제공함으로써, 교차로 내부 통과량, 회전량 등을 판단할 수 있어 도로 상의 교통정보/교통상황을 실시간으로 제공할 수 있는 장점이 있다.
이를 통해서, 도로혼잡, 교통혼잡 등에 따른 신호체계를 실시간으로 제어할 수 있어, 교통 시스템의 효율성을 향상시킬 수 있는 장점이 있다.
더불어, 교차로 등의 내부의 돌방상황까지 비교적 정확하게 판단할 수 있어, 진입 예정의 차량을 제어할 수 있는 장점이 있다.
도 1은 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치의 도로 상에 위치시킬 경우의 구성 예시도이다.
도 3은 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치의 초기 설정부(210)에서의, 기준각도 설정 예시도이다.
도 4는 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치의 차량 탐지부(220)에서의, 차량객체정보 추출 예시도이다.
도 5는 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치의 차량위치 보정부(240), 최종 연산부(250)에서의, 각도 추출 예시도이다.
도 6 및 도 7은 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치의 차량 위치 연산 예시도이다.
도 8은 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 방법의 순서도이다.
도 9는 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치를 이용한 교통량 분석 시스템의 구성도이다.
이하 첨부한 도면들을 참조하여 본 발명의 영상 내 차량위치 산출 장치 및 그 방법, 이를 이용한 교통량 분석 시스템을 상세히 설명한다. 다음에 소개되는 도면들은 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 예로서 제공되는 것이다. 따라서, 본 발명은 이하 제시되는 도면들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 또한, 명세서 전반에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다.
이 때, 사용되는 기술 용어 및 과학 용어에 있어서 다른 정의가 없다면, 이 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 통상적으로 이해하고 있는 의미를 가지며, 하기의 설명 및 첨부 도면에서 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 설명은 생략한다.
더불어, 시스템은 필요한 기능을 수행하기 위하여 조직화되고 규칙적으로 상호 작용하는 장치, 기구 및 수단 등을 포함하는 구성 요소들의 집합을 의미한다.
ITS(지능형 교통 시스템, Intelligent Transportation System)이란, 정보통신 기술을 통해 교통정보를 수집하여 운전자나, 여행자, 교통 정책 수집자 등에게 제공함으로써, 편리한 통행과, 교통체계 전체의 효율성을 극대화하기 위한 교통 시스템이다. 도로 상의 교통정보를 실시간으로 제공하는 것은, 별도의 신호체계의 제어 없이도, 교통정보의 제공 그 자체만으로도 운영자 측면의 수요관리와 교통 시스템의 효율성을 향상시키고, 이용자의 통행시간 절감이나 운행비용절감 등의 편익이 발생하는 장점이 있다.
특히, 교차로에서의 교통사고는 전체 교통사고 중 13%에 해당할 정도로 많이 발생하고 있으며, 이를 감안하여, 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치 및 그 방법, 이를 이용한 교통량 분석 시스템을 통해서, 교차로 내부의 교통상황을 미리 추정하고 이를 제공함으로써, 교통사고를 미연에 방지하여 사고율을 낮출 수 있는 장점이 있다.
이를 위해, 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치 및 그 방법, 이를 이용한 교통량 분석 시스템은, 1. 딥러닝을 이용한 차량 객체 검출을 수행함으로써, 실시간 차량 객체 검출이 가능하며, 부정확성을 해소하기 위하여 칼만필터를 이용하여 보정하는 것이 바람직하다.
또한, 2. 영상처리기법을 이용한 차량 객체의 이동방향을 추적함으로써, 이전 프레임과 현재 프레임 간의 객체들의 위치관계를 이용하여 차량의 이동방향을 추적함으로써, 좀 더 정확한 교통량을 분석할 수 있는 장점이 있다.
마지막으로, 3. 차량의 위치에 따른 기본각 및 차량의 앞면 길이를 이용하여, 차량의 위치를 좌표로 연산할 수 있어, 영상에서의 픽셀 좌표를 실세계의 위경도 좌표계로 변환하여, 좀 더 정확한 교통량을 분석할 수 있는 장점이 있다.
이를 통해서, 기존의 영상처리방식의 문제점인, 두 대 이상의 차량이 비슷한 경로로 이동할 경우, 단일차량으로 검출되는 문제점이나, 주행하는 차량의 그림자로 인하여 다른 차선에도 차량이 존재하는 것처럼 검출되는 문제점을 해소할 수 있으며, 실시간 교통량을 파악함으로써, 실시간 도로 혼잡, 교통 혼잡을 효과적으로 관리할 수 있다.
특히, 자율주행 차량이 주행하면서 필요한 정보를 교차로에 도착하기 전에 사전에 제공받음으로써, 자율주행 정책에 도움을 줄 수 있는 장점이 있다.
이러한, 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치는 도 1에 도시된 바와 같이, 영상 취득부(100), 통합 분석부(200)를 포함하여 구성되는 것이 바람직하다.
각 구성에 대해서 자세히 알아보자면,
상기 영상 취득부(100)는 교차로 주변에 소정높이를 갖는 미리 설정된 영역에 설치되어, 교차로 내부의 미리 설정된 구역을 촬영하여 영상 데이터를 취득하는 것이 바람직하다. 이 때, 상기 영상 취득부(100)는 광학 센서(optical sensor)를 포함하는 카메라(IP camera)를 포함하여 구성되는 것이 바람직하다.
상세하게는, 상기 영상 취득부(100)는 도 2에 도시된 바와 같이, 교차로 외부의 독립 지주나 신호등 또는 가로등 지주에 설치되어, 교차로 내부의 일정한 영역을 촬영하는 것이 바람직하다.
이 때, 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치에서, 교차로 내부를 촬영하여 교통량을 파악하는 이유는, 도로 모든 곳에 대한 교통량을 감지하는 수단을 구비하기에는, 현실적으로 불가능하지만, 도로는 크게 놓고 보았을 때, 교차로의 연속으로, 교차로에서 각 방향으로 분기되어 교통 흐름이 이어지기 때문에, 각 교차로를 모니터링함으로써, 교차로 간 이어지는 나머지 부분을 예측할 수 있기 때문이다.
그렇기 때문에, 상기 영상 취득부(100)를 통해서, 교차로 내부의 일정한 영역, 즉 교차로 내부의 통과량과 회전량을 알 수 있는 영역을 설정하여 해당 영역의 차량 움직임을 분석하는 것이 가장 바람직하다.
다만, 상술한 바와 같이, 상기 영상 취득부(100)에서 취득한 영상을 그대로 활용하기에는, 도 2에 도시된 바와 같이, 카메라가 교차로의 중심부 한가운데 설치되는 것은 현실적으로 거의 불가능하고, 일측에 치우쳐진 상태로 영상 데이터를 취득하게 된다.
이 경우, 도 4, 도 6 및 도 7에 도시된 바와 같이, 교차로의 형태가 영상 데이터의 x축, y축과 정확히 맞지 않고 영상 자체가 틀어진 채로 나타나게 된다.
이에 따라, 상기 통합 분석부(200)를 통해서, 영상 내 차량의 움직임을 판단하여, 그 움직임을 추정할 뿐 아니라, 기본적으로 영상 자체를 정확한 위경도 좌표계로 변환할 수 있다.
즉, 상기 통합 분석부(200)는 상기 영상 취득부(100)와 네트워크 연결되어, 상기 영상 취득부(100)로부터 상기 영상 데이터를 전송받아, 이를 분석하여 영상 내 위치한 차량들의 관련 정보들을 연산할 수 있다.
이를 위해, 상기 통합 분석부(200)는 도 1에 도시된 바와 같이, 초기 설정부(210), 차량 탐지부(220), 차량 추정부(230), 차량위치 보정부(240) 및 최종 연산부(250)를 포함하여 구성되는 것이 바람직하다.
상기 초기 설정부(210)는 전송받은 상기 영상 데이터에 포함되어 있는 적어도 하나의 영상 프레임을 이용하여, 상기 영상 프레임 내에 포함되어 있는 차선 객체 정보들을 추출하는 것이 바람직하다.
이 때, 전송받은 상기 영상 데이터에 포함되어 있는 적어도 하나의 영상 프레임은, 가장 바람직하게는 첫 번째 영상 프레임이다.
상기 초기 설정부(210)를 통해서, 도 3, 도 4, 도 6 및 도 7에 도시된 바와 같이, 특히, 도 3에 도시된 바와 같이, 영상 데이터의 x축, y축과 차량의 수직, 수평방향의 이동이 일치하지 않기 때문에 이를 보정하기 위한 연산을 수행하는 것이 바람직하다.
상세하게는, 상기 초기 설정부(210)는 미리 설정되어 있는 딥러닝 모델을 이용하여 상기 영상 프레임 내에 포함되어 있는 차선 객체 정보들을 추출하고, 미리 설정된 상기 영상 프레임의 고정된 x, y 좌표를 기준으로 각각의 차선 방향에 따라 차량의 진행방향 각도(θhor, θver)를 연산하여 초기각도 정보로 설정하는 것이 바람직하다.
또한, 상기 초기 설정부(210)는 각각의 차선 방향에 따라 차량의 진행에 의한 차량의 앞면길이(Lhor, Lver)를 연산하여 초기길이 정보로 설정하는 것이 바람직하다.
즉, 도 3, 도 5의 a)에서 각도로 표시된 바와 같이, 상기 영상 프레임의 x, y축 대비, 상기 차선 객체 정보들이 향하고 있는 축을 판단하여, 차량이 차선을 따라 수평방향으로 직진할 경우의 진행방향 각도(θhor)를 연산할 수 있으며, 차량이 차선을 따라 수직방향으로 직진할 경우의 진행방향 각도(θver)를 연산할 수 있다.
뿐만 아니라, 차량이 차선을 따라 수평방향으로 직진할 경우의 차량의 앞면 길이(Lhor)와 차량이 차선을 따라 수직방향으로 직진할 경우의 차량의 앞면 길이(Lver)를 연산할 수 있다.
다시 말하자면, 상기 초기 설정부(210)는 영상 프레임 내에 차량의 존재 여부와는 무관하며, 영상 데이터의 정확성을 높이기 위하여 영상 프레임과 교차로 간의 틀어진 각도를 연산하는 것이 바람직하다.
상기 차량 탐지부(220)는 전송받은 상기 영상 데이터에 포함되어 있는 영상 프레임들을 순차적으로 이용하여, 각각의 상기 영상 프레임 내에 포함되어 있는 적어도 하나의 차량 객체 정보를 추출하는 것이 바람직하다.
즉, 상기 차량 탐지부(220)는 도 4에 도시된 바와 같이, 미리 설정되어 있는 딥러닝 모델을 이용하여 상기 영상 프레임 내에 포함되어 있는 상기 차량 객체 정보를 추출할 수 있다.
이 때, 상기 차량 객체 정보는 도 4에 도시된 바와 같이, 사각형 형태로서, 미리 설정된 차량의 중심점을 기준으로 미리 설정된 영역크기(x, y, w, h)를 갖도록 추출하는 것이 바람직하다.
또한, 상기 차량 탐지부(220)는 영상 프레임의 순서대로, 즉, 순차적으로, 각각의 영상 프레임 내에 포함되어 있는 차량 객체 정보를 추출하는 것이 바람직하다.
이를 통해서, 상기 차량 추정부(230)는 상기 차량 탐지부(220)에서 추출한 하나의 차량 객체 정보에 대한 두 개의 영상 프레임 내에 포함되어 있는 정보들을 비교하여, 차량의 진행방향을 연산하여 추정 진행방향 각도 정보로 설정할 수 있다.
상세하게는, 상기 차량 추정부(230)는 도 5의 b)에서 각도로 표시된 바와 같이, 상기 차량 탐지부(220)에서 특정 영상 프레임(i번째 프레임)에서 추출한 특정 차량 객체 정보(P x(i), y(i), w(i), h(i))와 특정 영상 프레임의 다음 영상 프레임(i+1번째 프레임)에서 추출한 동일한 특정 차량에 대한 차량 객체 정보(P x(i+1), y(i+1), w(i+1), h(i+1))를 비교하여, 상기 차량의 진행방향에 따른 각도(θmain)를 연산하여, 상기 추정 진행방향 정보로 설정하는 것이 바람직하다.
이 때, 상기 차량 추정부(230)는 미리 설정된 코드 함수연산을 이용하여 차량의 진행방향에 따는 추정각도를 계산하는 것이 바람직하며, 미리 설정된 코드 함수연산은 하기의 수학식 1과 같다.
Figure 112019072343137-pat00001
여기서, i는 1이상의 자연수임.
상기 차량위치 보정부(240)는 상기 초기 설정부(210)에서 설정한 상기 초기각도 정보와 상기 차량 추정부(230)에서 설정한 상기 추정 진행방향 각도 정보를 비교하여, 상기 차량이 현재 위치에서 직진할 경우의 진행방향 각도(θbase_main)와, 차량의 앞면방향 각도(θbase_sub)를 연산하여, 기본 진행방향 각도 정보와 기본 앞면방향 각도 정보로 설정하는 것이 바람직하다.
물론, 상기 차량위치 보정부(240)는 상기 차량 탐지부(220)에서 추출한 상기 차량 객체 정보를 이용하여, 상기 차량이 현재 위치에서 회전되었을 경우에 대한 차량의 앞면길이(Lbase_main), 상기 차량이 현재 위치에서 직진할 경우에 대한 차량의 앞면길이(Lbase_sub)를 연산하여, 제1, 제2 기본 앞면길이 정보로 설정하는 것이 바람직하다.
다시 말하자면, 상기 차량위치 보정부(240)는 상기 초기각도 정보와 상기 추정 진행방향 각도 정보를 이용하여, 기본정보(기본 진행방향 각도 정보, 기본 앞면방향 각도 정보, 제1 기본 앞면길이 정보, 제2 기본 앞면길이 정보)들을 설정하는 것으로, 미리 설정된 코드 함수연산을 이용하여 기본정보들을 계산하는 것이 바람직하며, 미리 설정된 코드 함수연산은 하기의 수학식 2와 같다.
Figure 112019072343137-pat00002
상기 차량위치 보정부(240)는 상기의 수학식 2의 코드 함수연산을 수행하여, 비교된 값 중 작은 값의 방향을 상기 차량이 현재 위치에서 직진할 경우의 진행방향 각도(θbase_main)로, 상기 차량이 현재 위치에서 회전되었을 경우에 대한 차량의 앞면길이(Lbase_main)로 설정하는 것이 바람직하며,
이와 반대방향을 상기 차량이 현재 위치에서 직진할 경우의 차량의 앞면방향 각도(θbase_sub), 상기 차량이 현재 위치에서 직진할 경우에 대한 차량의 앞면길이(Lbase_sub)로 설정하는 것이 바람직하다.
상기 최종 연산부(250)는 상기 차량 추정부(230)와 차량위치 보정부(240)에서 연산한 상기 차량의 관련 정보들을 이용하여, 상기 차량의 추정 앞면방향 각도 정보(θsub), 추정 앞면길이 정보(Lsub)를 추정하여, 미리 설정된 수학식에 적용하여 최종 차량위치 정보(Xcar, Ycar)를 연산하는 것이 바람직하다.
상세하게는, 도 5의 c)에서 각도로 표시된 바와 같이, 상기 최종 연산부(250)는 상기 기본 진행방향 각도 정보(θbase_main)와 기본 앞면방향 각도 정보(θbase_sub)를 이용하여, 하기의 수학식 3에 적용하여 각도차를 연산함으로써, 차량이 회전되었을 경우의 진행방향의 최대 변화량(θdif_main)과 차량 앞면방향의 최대 변화량(θdif_sub)을 산출하는 것이 바람직하다.
Figure 112019072343137-pat00003
더불어, 상기 최종 연산부(250)는 도 5의 d)에서 각도로 표시된 바와 같이, 상기 기본 진행방향 각도 정보(θbase_main)와 상기 추정 진행방향 정보(θmain)의 변화량을 이용하여, 하기의 수학식 4에 적용하여 차량이 직진할 경우의 진행방향과 현재 진행방향의 차이값(θdelta_main)을 산출하는 것이 바람직하다.
Figure 112019072343137-pat00004
또한, 상기 최종 연산부(250)는 도 5의 d)에서 각도로 표시된 바와 같이, 상기 차량이 직진할 경우의 진행방향과 현재 진행방향의 차이값(θdelta_main), 차량이 회전되었을 경우의 진행방향의 최대 변화량(θdif_main), 차량이 회전되었을 경우의 차량 앞면방향의 최대 변화량(θdif_sub)을 이용하여, 하기의 수학식 5에 적용하여 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값(θdelta_sub)을 산출하는 것이 바람직하다.
Figure 112019072343137-pat00005
상기 최종 연산부(250)는 도 5의 e)에서 각도로 표시된 바와 같이, 상기 기본 앞면방향 각도 정보(θbase_sub)와, 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값(θdelta_sub)을 이용하여, 하기의 수학식 6에 적용하여 상기 추정 앞면방향 각도 정보(θsub)를 산출하는 것이 바람직하다.
Figure 112019072343137-pat00006
분만 아니라, 상기 최종 연산부(250)는 상기 제1 기본 앞면길이 정보(Lbase_main), 제2 기본 앞면길이 정보(Lbase_sub)를 이용하여, 하기의 수학식 7에 적용하여 길이차(Ldif_sub)를 연산하고,
연산한 길이차(Ldif_sub), 차량이 회전되었을 경우의 차량 앞면방향의 최대 변화량(θdif_sub), 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값(θdelta_sub)을 이용하여 하기의 수학식 8에 적용하여 차량이 회전되었을 경우의 앞면길이 변화량(Ldelta_sub)을 산출하는 것이 바람직하다.
Figure 112019072343137-pat00007
Figure 112019072343137-pat00008
또한, 상기 최종 연산부(250)는 상기 제2 기본 앞면길이 정보(Lbase_sub), 차량이 회전되었을 경우의 앞면길이 변화량(Ldelta_sub)을 이용하여 하기의 수학식 9에 적용하여 상기 추정 앞면길이 정보(Lsub)를 산출하는 것이 바람직하다.
Figure 112019072343137-pat00009
마지막으로, 상기 최종 연산부(250)는 상기 추정 진행방향 정보(θmain), 추정 앞면방향 각도 정보(θsub), 추정 앞면길이 정보(Lsub)들을 이용하여 차량 바닥면의 x, y 위치를 계산하여 차량의 최종 위치정보(Xcar, Ycar)를 산출하는 것이 바람직하며, 하기의 수학식 10에 적용하여 산출할 수 있다.
Figure 112019072343137-pat00010
더불어, 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 장치는 영상 내 포함되어 있는 차량의 이동 경로를 추적하기 위하여, 상기 영상 데이터 내에 포함되어 있는 마지막 영상 프레임까지 동작을 반복 수행하는 것이 가장 바람직하다.
즉, 다시 말하자면, 도 6 및 도 7에 도시된 바와 같이, 다수의 영상 프레임 내에 포함되어 있는 하나의 차량을 특정하여 분석할 경우,
노란박스 내의 차량은 상기 차량 탐지부(220)를 통해서 딥러닝을 이용한 차량객체 탐지 결과를 의미하며, 차량의 이동에 따라 표시된 하얀 선은 상기 차량 추정부(230)를 통해서 다수의 영상 프레임을 비교하여 판단한 차량 객체의 이동경로 결과를 의미하며, 검은 선은 상기 최종 연산부(250)를 통해서 다수의 영상 프레임을 비교하여 판단한 차량 객체의 추정 이동경로 결과(추정된 바닥 중심점의 이동경로 결과)를 의미하며, 차량 객체에 표시된 빨간 선은 상기 차량 객체의 기본 진행방향 각도 정보(θbase_main)를 의미하며, 차량 객체에 표시된 파란 선은 상기 차량 객체의 앞면방향 각도(θbase_sub)를 의미하며, 차량 객체에 표시된 주황 선은 상기 차량 객체의 추정 진행방향 정보(θmain)를 의미하며, 차량 객체에 표시된 하늘색 선은 상기 차량 객체의 추정 앞면방향 각도 정보(θsub)를 의미함을 알 수 있다.
이러한 분석을 통해서 차량의 최종 위치정보(Xcar, Ycar)를 산출함으로써, 정확한 차량 위치정보를 다양한 분야에서 제공하여 활용할 수 있다.
도 8은 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 방법을 나타낸 순서도이며, 도 8을 참조로 하여 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 방법을 상세히 설명한다.
본 발명의 일 실시예에 따른 영상 내 차량위치 산출 방법은 도 8에 도시된 바와 같이, 영상 취득단계(S100), 분석단계(S200)로 이루어지는 것이 바람직하다.
각 단계에 대해서 자세히 알아보자면,
상기 영상 취득단계(S100)는 상기 영상 취득부(100)에서, 교차로 내부의 미리 설정된 구역을 촬영하여 상기 영상 데이터를 취득하게 된다.
상기 영상 취득단계(S100)는 교차로 주변에 소정높이를 갖는 미리 설정된 영역에 설치되는 광학 센서(optical sensor)를 포함하는 카메라(IP camera)를 포함하여 구성되는 것이 바람직하다.
상세하게는, 교차로 외부의 독립 지주나 신호등 또는 가로등 지주에 설치되어, 교차로 내부의 일정한 영역을 촬영하는 것이 바람직하며, 교차로 내부의 일정한 영역, 즉 교차로 내부의 통과량과 회전량을 알 수 있는 영역을 설정하여 해당 영역의 차량 움직임을 분석하는 것이 가장 바람직하다.
다만, 상술한 바와 같이, 상기 영상 취득단계(S100)에서 취득한 영상을 그대로 활용하기에는, 도 2에 도시된 바와 같이, 카메라가 교차로의 중심부 한가운데 설치되는 것은 현실적으로 거의 불가능하고, 일측에 치우쳐진 상태로 영상 데이터를 취득하게 된다.
이 경우, 도 4, 도 6 및 도 7에 도시된 바와 같이, 교차로의 형태가 영상 데이터의 x축, y축과 정확히 맞지 않고 영상 자체가 틀어진 채로 나타나게 된다.
이에 따라, 상기 분석단계(S200)를 통해서, 영상 내 차량의 움직임을 판단하여, 그 움직임을 추정할 뿐 아니라, 기본적으로 영상 자체를 정확한 위경도 좌표계로 변환할 수 있다.
상기 분석단계(S200)는 상기 통합 분석부(200)에서, 상기 영상 취득단계(S100)에 의해 취득한 상기 영상 데이터를 전송받아, 이를 분석하여 영상 내 위치한 차량들의 관련 정보들을 연산하여 각 차량의 최종 위치정보(Xcar, Ycar)를 판단하는 것이 바람직하다.
상세하게는, 상기 분석단계(S200)는 초기 설정단계(S210), 차량 탐지단계(S220), 차량 추정단계(S230), 차량위치 보정단계(S240) 및 최종 연산단계(S250)를 포함하여 구성되는 것이 바람직하다.
상기 초기 설정단계(S210)는 상기 초기 설정부(210)에서, 전송받은 상기 영상 데이터에 포함되어 있는 적어도 하나의 영상 프레임을 이용하여, 상기 영상 프레임 내에 포함되어 있는 차선 객체 정보들을 추출하는 것이 바람직하다.
이 때, 전송받은 상기 영상 데이터에 포함되어 있는 적어도 하나의 영상 프레임은, 가장 바람직하게는 첫 번째 영상 프레임이다.
도 3, 도 4, 도 6 및 도 7에 도시된 바와 같이, 특히, 도 3에 도시된 바와 같이, 영상 데이터의 x축, y축과 차량의 수직, 수평방향의 이동이 일치하지 않기 때문에 이를 보정하기 위한 연산을 수행하는 것이 바람직하다.
상세하게는, 상기 초기 설정단계(S210)는 미리 설정되어 있는 딥러닝 모델을 이용하여 상기 영상 프레임 내에 포함되어 있는 차선 객체 정보들을 추출하고, 미리 설정된 상기 영상 프레임의 고정된 x, y 좌표를 기준으로 각각의 차선 방향에 따라 차량의 진행방향 각도(θhor, θver)를 연산하여 초기각도 정보로 설정하는 것이 바람직하다.
또한, 각각의 차선 방향에 따라 차량의 진행에 의한 차량의 앞면길이(Lhor, Lver)를 연산하여 초기길이 정보로 설정하는 것이 바람직하다.
즉, 도 3, 도 5의 a)에서 각도로 표시된 바와 같이, 상기 영상 프레임의 x, y축 대비, 상기 차선 객체 정보들이 향하고 있는 축을 판단하여, 차량이 차선을 따라 수평방향으로 직진할 경우의 진행방향 각도(θhor)를 연산할 수 있으며, 차량이 차선을 따라 수직방향으로 직진할 경우의 진행방향 각도(θver)를 연산할 수 있다.
뿐만 아니라, 차량이 차선을 따라 수평방향으로 직진할 경우의 차량의 앞면 길이(Lhor)와 차량이 차선을 따라 수직방향으로 직진할 경우의 차량의 앞면 길이(Lver)를 연산할 수 있다.
다시 말하자면, 상기 초기 설정단계(S210)는 영상 프레임 내에 차량의 존재 여부와는 무관하며, 영상 데이터의 정확성을 높이기 위하여 영상 프레임과 교차로 간의 틀어진 각도를 연산하는 것이 바람직하다.
상기 차량 탐지단계(S220)는 상기 차량 탐지부(220)에서, 전송받은 상기 영상 데이터에 포함되어 있는 상기 영상 프레임들을 순차적으로 이용하여, 미리 설정된 차량의 중심점을 기준으로 미리 설정된 영역크기(x, y, w, h)를 갖으면, 각각의 상기 영상 프레임 내에 포함되어 있는 적어도 하나의 차량 객체 정보를 추출하게 된다.
상세하게는, 상기 차량 탐지단계(S220)는 도 4에 도시된 바와 같이, 미리 설정되어 있는 딥러닝 모델을 이용하여 상기 영상 프레임 내에 포함되어 있는 상기 차량 객체 정보를 추출할 수 있다.
이 때, 상기 차량 객체 정보는 도 4에 도시된 바와 같이, 사각형 형태로서, 미리 설정된 차량의 중심점을 기준으로 미리 설정된 영역크기(x, y, w, h)를 갖도록 추출하는 것이 바람직하며, 영상 프레임의 순서대로, 즉, 순차적으로, 각각의 영상 프레임 내에 포함되어 있는 차량 객체 정보를 추출하는 것이 바람직하다.
상기 차량 추정단계(S230)는 상기 차량 추정부(230)에서, 상기 차량 탐지단계(S220)에 의해, 추출한 하나의 차량 객체 정보에 대한 두 개의 영상 프레임 내에 포함되어 있는 정보들을 비교하여, 차량의 진행방향을 연산하여 추정 진행방향 각도 정보로 설정할 수 있다.
상세하게는, 상기 차량 추정단계(S230)는 도 5의 b)에서 각도로 표시된 바와 같이, 상기 차량 탐지단계(S220)에 의해, 특정 영상 프레임(i번째 프레임)에서 추출한 특정 차량 객체 정보(P x(i), y(i), w(i), h(i))와 특정 영상 프레임의 다음 영상 프레임(i+1번째 프레임)에서 추출한 동일한 특정 차량에 대한 차량 객체 정보(P x(i+1), y(i+1), w(i+1), h(i+1))를 비교하여, 상기 차량의 진행방향에 따른 각도(θmain)를 연산하여, 상기 추정 진행방향 정보로 설정하는 것이 바람직하다.
이 때, 상기 차량 추정단계(S230)는 미리 설정된 코드 함수연산을 이용하여 차량의 진행방향에 따는 추정각도를 계산하는 것이 바람직하며, 미리 설정된 코드 함수연산은 상기의 수학식 1과 같다.
상기 차량위치 보정단계(S240)는 상기 차량위치 보정부(240)에서, 상기 초기 설정단계(S210)에 의해 설정한 상기 초기각도 정보와 상기 차량 추정단계(S230)에 의해 설정한 상기 추정 진행방향 각도 정보를 비교하여, 상기 차량이 현재 위치에서 직진할 경우의 진행방향 각도(θbase_main)와, 차량의 앞면방향 각도(θbase_sub)를 연산하여, 기본 진행방향 각도 정보와 기본 앞면방향 각도 정보로 설정하는 것이 바람직하다.
물론, 상기 차량위치 보정단계(S240)는 상기 차량 탐지단계(S220)에 의해 추출한 상기 차량 객체 정보를 이용하여, 상기 차량이 현재 위치에서 회전되었을 경우에 대한 차량의 앞면길이(Lbase_main), 상기 차량이 현재 위치에서 직진할 경우에 대한 차량의 앞면길이(Lbase_sub)를 연산하여, 제1, 제2 기본 앞면길이 정보로 설정하는 것이 바람직하다.
다시 말하자면, 상기 차량위치 보정단계(S240)는 상기 초기각도 정보와 상기 추정 진행방향 각도 정보를 이용하여, 기본정보(기본 진행방향 각도 정보, 기본 앞면방향 각도 정보, 제1 기본 앞면길이 정보, 제2 기본 앞면길이 정보)들을 설정하는 것으로, 미리 설정된 코드 함수연산을 이용하여 기본정보들을 계산하는 것이 바람직하며, 미리 설정된 코드 함수연산은 상기의 수학식 2와 같다.
상기 차량위치 보정단계(S240)는 상기의 수학식 2의 코드 함수연산을 수행하여, 비교된 값 중 작은 값의 방향을 상기 차량이 현재 위치에서 직진할 경우의 진행방향 각도(θbase_main)로, 상기 차량이 현재 위치에서 회전되었을 경우에 대한 차량의 앞면길이(Lbase_main)로 설정하는 것이 바람직하며,
이와 반대방향을 상기 차량이 현재 위치에서 직진할 경우의 차량의 앞면방향 각도(θbase_sub), 상기 차량이 현재 위치에서 직진할 경우에 대한 차량의 앞면길이(Lbase_sub)로 설정하는 것이 바람직하다.
상기 최종 연산단계(S250)는 상기 최종 연산부(250)에서, 도 6에 도시된 바와 같이, 상기 차량 추정단계(S230)와 상기 차량위치 보정단계(S240)에 의해 연산한 상기 차량의 관련 정보들을 이용하여, 상기 차량의 추정 앞면방향 각도 정보(θsub), 추정 앞면길이 정보(Lsub)를 추정하여, 미리 설정된 수학식에 적용하여 최종 차량위치 정보(Xcar, Ycar)를 연산하는 것이 바람직하다.
상세하게는, 상기 최종 연산단계(S250)는 도 5의 c)에서 각도로 표시된 바와 같이, 상기 기본 진행방향 각도 정보(θbase_main)와 기본 앞면방향 각도 정보(θbase_sub)를 이용하여, 상기의 수학식 3에 적용하여 각도차를 연산함으로써, 차량이 회전되었을 경우의 진행방향의 최대 변화량(θdif_main)과 차량 앞면방향의 최대 변화량(θdif_sub)을 산출하는 것이 바람직하다.
도 5의 d)에 도시된 바와 같이, 상기 기본 진행방향 각도 정보(θbase_main)와 상기 추정 진행방향 정보(θmain)의 변화량을 이용하여, 상기의 수학식 4에 적용하여 차량이 직진할 경우의 진행방향과 현재 진행방향의 차이값(θdelta_main)을 산출하는 것이 바람직하다.
도 5의 d)에서 각도로 표시된 바된 바와 같이, 상기 차량이 직진할 경우의 진행방향과 현재 진행방향의 차이값(θdelta_main), 차량이 회전되었을 경우의 진행방향의 최대 변화량(θdif_main), 차량이 회전되었을 경우의 차량 앞면방향의 최대 변화량(θdif_sub)을 이용하여, 상기의 수학식 5에 적용하여 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값(θdelta_sub)을 산출하는 것이 바람직하다.
도 5의 e)에서 각도로 표시된 바된 바와 같이, 상기 기본 앞면방향 각도 정보(θbase_sub)와, 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값(θdelta_sub)을 이용하여, 상기의 수학식 6에 적용하여 상기 추정 앞면방향 각도 정보(θsub)를 산출하는 것이 바람직하다.
뿐만 아니라, 상기 최종 연산단계(S250)는 상기 제1 기본 앞면길이 정보(Lbase_main), 제2 기본 앞면길이 정보(Lbase_sub)를 이용하여, 상기의 수학식 7에 적용하여 길이차(Ldif_sub)를 연산하고,
연산한 길이차(Ldif_sub), 차량이 회전되었을 경우의 차량 앞면방향의 최대 변화량(θdif_sub), 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값(θdelta_sub)을 이용하여 상기의 수학식 8에 적용하여 차량이 회전되었을 경우의 앞면길이 변화량(Ldelta_sub)을 산출하는 것이 바람직하다.
또한, 상기 제2 기본 앞면길이 정보(Lbase_sub), 차량이 회전되었을 경우의 앞면길이 변화량(Ldelta_sub)을 이용하여 상기의 수학식 9에 적용하여 상기 추정 앞면길이 정보(Lsub)를 산출하는 것이 바람직하다.
마지막으로, 상기 최종 연산단계(S250)는 상기 추정 진행방향 정보(θmain), 추정 앞면방향 각도 정보(θsub), 추정 앞면길이 정보(Lsub)들을 이용하여 차량 바닥면의 x, y 위치를 계산하여 차량의 최종 위치정보(Xcar, Ycar)를 산출하는 것이 바람직하며, 상기의 수학식 10에 적용하여 산출할 수 있다.
더불어, 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 방법은 영상 내 포함되어 있는 차량의 이동 경로를 추적하기 위하여, 상기 영상 데이터 내에 포함되어 있는 마지막 영상 프레임까지 동작을 반복 수행하는 것이 가장 바람직하다.
이와 같이, 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 방법은, 교차로에서 차량들이 이동하였을 때의 차량의 앞면과 측면의 기본각과 차량의 앞면 길이를 이용하여 차량의 위치를 추정하고, 영상에서의 픽셀 좌표에서 실세계의 위경도 좌표계로 변환할 수 있다.
도 9는 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 방법을 이용한 교통량 분석 시스템을 나타낸 구성도이며, 도 9를 참조로 하여 본 발명의 일 실시예에 따른 영상 내 차량위치 산출 방법을 이용한 교통량 분석 시스템을 상세히 설명한다.
본 발명의 일 실시예에 따른 영상 내 차량위치 산출 방법을 이용한 교통량 분석 시스템은 도 9에 도시된 바와 같이, 차량위치 판단부(1000), 교통량 분석부(2000)를 포함하여 구성되는 것이 바람직하다.
상기 차량위치 판단부(1000)는 상기 영상 내 차량위치 산출 장치의 구성으로서, 상기 영상 내 위치한 차량들의 최종 위치 정보를 판단하는 것이 바람직하다.
상기 교통량 분석부(2000)는 상기 차량위치 판단부(1000)와 네트워크 연결되어, 상기 차량위치 판단부(1000)에서 판단한 상기 차량의 최종 위치정보(Xcar, Ycar)들을 이용하여 교통량을 분석하는 것이 바람직하다.
물론, 상기 교통량 분석부(2000)는 외부의 요청에 따라, 분석한 교통량 관련 정보들을 전송하는 것이 바람직하다.
이 때, 교통량 관련 정보들로는, 교차로 내부 차선별 차량 통과량, 회전량 등을 포함하여 구성되는 것이 바람직하나, 상기 차량의 최종 위치정보를 이용하여 분석할 수 있는 모든 종류의 정보들을 포함하는 것이 가장 바람직하다.
상기 교통량 분석부(2000)는 차량을 추적한 데이터를 이용하여 교통정보를 생성하는 것이 바람직하며, 즉, 상기 차량위치 판단부(1000)에서 판단한 프레임별 상기 차량의 최종 위치정보들을 이용하여, 교차로 내부의 각 방향별(각 차선에 따른) 차량들의 이동량과 평균속도를 분석하여, 교통량을 분석하는 것이 바람직하다.
특히, 상기 교통량 분석부(2000)는 상기 차량위치 판단부(1000)에서 판단한 프레임별 상기 차량의 최종 위치정보들을 이용하여, 특정 차량이 미리 설정된 시간동안 위치 변화가 발생하지 않을 경우,(프레임이 변경되더라도 차량의 최종 위치정보가 변화되지 않을 경우) 해당 차량의 문제가 발생한 것으로 판단하여 돌발상황에 대비할 수 있도록 교통량 관련 정보를 생성하는 것이 바람직하다.
이 때, 미리 설정된 시간이란, 신호등 동작 시간을 감안하여, 설정하는 것이 가장 바람직하다.
상기 교통량 분석부(2000)에서 분석한 교통량 관련 정보들을 이용하여, 자율 주행 차량의 안전한 주행을 지원하는 정보로 활용하는 것이 가장 바람직하며, 도로 혼잡, 교통혼잡을 효율적으로 관리하기 위하여 실시간으로 신호체계를 제어하는게 활용하는 것 역시 바람직하다.
이상과 같이 본 발명에서는 구체적인 구성 소자 등과 같은 특정 사항들과 한정된 실시예 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것 일 뿐, 본 발명은 상기의 일 실시예에 한정되는 것이 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허 청구 범위뿐 아니라 이 특허 청구 범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.
100 : 영상 취득부
200 : 통합 분석부
210 : 초기 설정부 220 : 차량 탐지부
230 : 차량 추정부 240 : 차량위치 보정부
250 : 최종 연산부
1000 : 차량위치 판단부
2000 : 교통량 분석부

Claims (15)

  1. 교차로 주변에 소정높이를 갖는 기설정된 영역에 설치되어, 교차로 내부의 기설정된 구역을 촬영하여 영상 데이터를 취득하는 영상 취득부(100); 및
    상기 영상 취득부(100)와 네트워크 연결되어, 상기 영상 취득부(100)로부터 상기 영상 데이터를 전송받아, 이를 분석하여 영상 내 위치한 차량들의 관련 정보들을 연산하는 통합 분석부(200);
    를 포함하여 구성되며,
    상기 통합 분석부(200)는
    상기 영상 데이터에 포함되어 있는 적어도 하나의 영상 프레임을 이용하여, 상기 영상 프레임 내에 포함되어 있는 차선 객체 정보들을 추출하고, 상기 영상 프레임의 고정된 x, y 좌표를 기준으로, 각각의 차선 방향에 따라 차량의 진행방향 각도(θhor, θver)를 연산하여 초기각도 정보로 설정하고, 각각의 차선 방향에 따라 차량의 진행에 의한 차량의 앞면길이를 연산하여 초기길이 정보로 설정하는 초기 설정부(210);
    상기 영상 데이터에 포함되어 있는 영상 프레임들을 순차적으로 이용하여, 각각의 상기 영상 프레임 내에 포함되어 있으며, 기설정된 차량의 중심점을 기준으로 기설정된 영역크기(x, y, w, h)를 갖는 적어도 하나의 차량 객체 정보를 추출하는 차량 탐지부(220);
    상기 차량 탐지부(220)에서 특정 영상 프레임(i번째 프레임)에서 추출한 특정 차량 객체 정보(P x(i), y(i), w(i), h(i))와 특정 영상 프레임의 다음 영상 프레임(i+1 번째 프레임)에서 추출한 특정 차량 객체 정보(P x(i+1), y(i+1), w(i+1), h(i+1))를 비교하여, 상기 차량의 진행방향에 따른 각도(θmain)를 연산하여 추정 진행방향 각도 정보로 설정하는 차량 추정부(230);
    상기 초기각도 정보와 상기 추정 진행방향 각도 정보를 비교하여, 상기 차량이 현재 위치에서 직진할 경우의 진행방향 각도(θbase_main)와 차량의 앞면방향 각도(θbase_sub)를 연산하여, 기본 진행방향 각도 정보와 기본 앞면방향 각도 정보로 설정하고,
    상기 차량 객체 정보를 이용하여 상기 차량이 현재 위치에서 회전되었을 경우의 차량의 앞면길이(Lbase_main), 상기 차량이 직진할 경우의 차량의 앞면길이(Lbase_sub)를 연산하여, 제1 기본 앞면길이 정보, 제2 기본 앞면길이 정보로 설정하는 차량위치 보정부(240);
    상기 기본 진행방향 각도 정보와 기본 앞면방향 각도 정보의 각도차를 연산하여 차량이 회전되었을 경우의 진행방향의 최대 변화량(θdif_main)과 차량 앞면방향의 최대 변화량(θdif_sub)을 산출하고, 연산한 변화량과 상기 추정 진행방향 각도 정보의 변화량을 이용하여, 차량이 직진할 경우의 진행방향과 현재 진행방향의 차이값(θdelta_main)과 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값(θdelta_sub)을 산출하여, 산출한 상기 차이값들을 이용하여 상기 차량의 추정 앞면방향 각도 정보(θsub)를 연산하고,
    상기 제1 기본 앞면길이 정보, 제2 기본 앞면길이 정보의 길이차(Ldif_sub)를 연산하고, 연산한 길이차와 상기 차량 앞면방향의 최대 변화량, 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값을 이용하여, 차량이 회전되었을 경우의 앞면길이 변화량(Ldelta_sub)을 산출하고, 상기 현재 위치에서 직진할 경우의 차량의 앞면길이 정보와 차량이 회전되었을 경우의 앞면길이 정보의 변화량을 이용하여 상기 차량의 추정 앞면길이 정보(Lsub)를 연산하여, 기설정된 수식을 적용하여 최종 차량위치 정보(Xcar, Ycar)를 연산하는 최종 연산부(250);
    를 더 포함하여 구성되는 것을 특징으로 하는 영상 내 차량위치 산출 장치.
    (i는 1이상의 자연수임.)
  2. 제 1항에 있어서,
    상기 영상 취득부(100)는
    광학 센서(optical sensor)를 포함하는 카메라(IP camera)를 포함하는 것을 특징으로 하는 영상 내 차량위치 산출 장치.
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 삭제
  10. 영상 취득부에서, 교차로 내부의 기설정된 구역을 촬영하여 영상 데이터를 취득하는 영상 취득단계(S100);
    통합 분석부에서, 상기 영상 취득단계(S100)에 의해 취득한 상기 영상 데이터를 전송받아 이를 분석하여 영상 내 위치한 차량들의 관련 정보들을 연산하여, 각 차량의 최종 위치정보(Xcar, Ycar)를 판단하는 분석단계(S200);
    로 이루어지며,
    상기 영상 취득단계(S100)는
    광학 센서(optical sensor)를 포함하는 카메라(IP camera)로 영상 데이터를 취득하며,
    상기 분석단계(S200)는
    전송받은 상기 영상 데이터에 포함되어 있는 적어도 하나의 영상 프레임을 이용하여, 상기 영상 프레임 내에 포함되어 있는 차선 객체 정보들을 추출하고,
    상기 영상 프레임의 고정된 x, y 좌표를 기준으로 각각의 차선 방향에 따라 차량의 진행방향 각도(θhor, θver)를 연산하여 초기각도 정보로 설정하며,
    각각의 차선 방향에 따라 차량의 진행에 의한 차량의 앞면길이를 연산하여, 초기길이 정보로 설정하는 초기 설정단계(S210);
    전송받은 상기 영상 데이터에 포함되어 있는 영상 프레임들을 순차적으로 이용하여, 기설정된 차량의 중심점을 기준으로 기설정된 영역크기(x, y, w, h)를 갖으며, 각각의 상기 영상 프레임 내에 포함되어 있는 적어도 하나의 차량 객체 정보를 추출하는 차량 탐지단계(S220);
    상기 차량 탐지단계(S220)에 의해, 특정 영상 프레임(i번째 프레임)에서 추출한 특정 차량 객체 정보(P x(i), y(i), w(i), h(i))와 특정 영상 프레임의 다음 영상 프레임(i+1 번째 프레임)에서 추출한 특정 차량 객체 정보(P x(i+1), y(i+1), w(i+1), h(i+1))를 비교하여,
    상기 차량의 진행방향에 따른 각도(θmain)를 연산하여, 추정 진행방향 각도 정보로 설정하는 차량 추정단계(S230);
    상기 초기 설정단계(S210)에 의해 설정한 상기 초기각도 정보와, 상기 차량 추정단계(S230)에 의해 설정한 상기 추정 진행방향 각도 정보를 비교하여, 상기 차량이 현재 위치에서 직진할 경우의 진행방향 각도(θbase_main)와, 차량의 앞면방향 각도(θbase_sub)를 연산하여, 기본 진행방향 각도 정보와 기본 앞면방향 각도 정보로 설정하며,
    상기 차량 탐지단계(S220)에 의해 추출한 상기 차량 객체 정보를 이용하여, 상기 차량이 현재 위치에서 회전되었을 경우에 대한 차량의 앞면길이(Lbase_main), 상기 차량이 현재 위치에서 직진할 경우에 대한 차량의 앞면길이(Lbase_sub)를 연산하여, 제1, 제2 기본 앞면길이 정보로 설정하는 차량위치 보정단계(S240); 및
    상기 차량 추정단계(S230)와 상기 차량위치 보정단계(S240)에 의해 연산한 상기 차량의 관련 정보들을 이용하여, 상기 차량의 추정 앞면방향 각도 정보(θsub), 추정 앞면길이 정보(Lsub)를 추정하여, 기설정된 수식에 적용하여 최종 차량위치 정보(Xcar, Ycar)를 연산하는 최종 연산단계(S250);
    를 포함하여 구성되되,
    상기 최종 연산단계(S250)는
    상기 기본 진행방향 각도 정보와 기본 앞면방향 각도 정보의 각도차를 연산하여, 차량이 회전되었을 경우의 진행방향의 최대 변화량(θdif_main)과 차량 앞면방향의 최대 변화량(θdif_sub)을 산출하고,
    연산한 변화량과 상기 추정 진행방향 각도 정보의 변화량을 이용하여, 차량이 직진할 경우의 진행방향과 현재 진행방향의 차이값(θdelta_main)과, 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값(θdelta_sub)을 산출하고,
    차이값들을 이용하여, 상기 추정 앞면방향 각도 정보를 연산하며,
    상기 제1, 제2 기본 앞면길이 정보들의 길이차(Ldif_sub)를 연산하고,
    연산한 길이차와 상기 차량 앞면방향의 최대 변화량, 차량이 직진할 경우의 앞면방향과 현재 앞면방향의 차이값을 이용하여, 차량이 회전되었을 경우의 앞면길이 변화량(Ldelta_sub)을 산출하고,
    상기 현재 위치에서 직진할 경우에 대한 차량의 앞면길이 정보와 차량이 회전되었을 경우의 앞면길이 변화량을 이용하여 상기 추정 앞면길이 정보를 연산하는 것을 특징으로 하는 영상 내 차량위치 산출 방법.
    (i는 1이상의 자연수임.)
  11. 삭제
  12. 삭제
  13. 제 10항에 의한 영상 내 차량위치 산출 방법에 의해, 영상 내 위치한 차량들의 최종 위치정보를 판단하는 차량위치 판단부(1000); 및
    상기 차량위치 판단부(1000)에서 판단한 상기 차량의 최종 위치정보들을 이용하여, 교통량을 분석하는 교통량 분석부(2000);
    를 포함하여 구성되며,
    상기 교통량 분석부(2000)는
    외부의 요청에 따라, 분석한 교통량 관련 정보들을 전송하는 것을 특징으로 하는 영상 내 차량위치 산출 방법을 이용한 교통량 분석 시스템.
  14. 제 13항에 있어서,
    상기 교통량 분석부(2000)는
    상기 차량위치 판단부(1000)에서 판단한 상기 차량의 최종 위치정보들을 이용하여, 교차로 내부의 각 방향별 차량들의 이동량과 평균속도를 분석하여, 교통량을 분석하는 것을 특징으로 하는 영상 내 차량위치 산출 방법을 이용한 교통량 분석 시스템.
  15. 제 13항에 있어서,
    상기 교통량 분석부(2000)는
    상기 차량위치 판단부(1000)에서 판단한 상기 차량의 최종 위치정보들을 이용하여, 특정 차량이 기설정된 시간동안 위치 변화가 발생하지 않을 경우, 해당 차량의 문제가 발생한 것으로 판단하는 것을 특징으로 하는 영상 내 차량위치 산출 방법을 이용한 교통량 분석 시스템.
KR1020190085290A 2019-07-15 2019-07-15 영상 내 차량위치 산출 장치 및 그 방법, 이를 이용한 교통량 분석 시스템 KR102256205B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190085290A KR102256205B1 (ko) 2019-07-15 2019-07-15 영상 내 차량위치 산출 장치 및 그 방법, 이를 이용한 교통량 분석 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190085290A KR102256205B1 (ko) 2019-07-15 2019-07-15 영상 내 차량위치 산출 장치 및 그 방법, 이를 이용한 교통량 분석 시스템

Publications (2)

Publication Number Publication Date
KR20210008737A KR20210008737A (ko) 2021-01-25
KR102256205B1 true KR102256205B1 (ko) 2021-05-27

Family

ID=74238065

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190085290A KR102256205B1 (ko) 2019-07-15 2019-07-15 영상 내 차량위치 산출 장치 및 그 방법, 이를 이용한 교통량 분석 시스템

Country Status (1)

Country Link
KR (1) KR102256205B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102499023B1 (ko) * 2022-01-27 2023-02-14 포티투닷 주식회사 차로 별 트래픽 흐름을 결정하는 장치 및 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007149077A (ja) 2005-11-07 2007-06-14 Fujitsu Ltd 映像処理方法及び装置
KR101889085B1 (ko) * 2017-12-07 2018-08-16 렉스젠(주) 차량 궤적을 이용한 통행 정보 생성 장치 및 그 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100438981B1 (ko) * 2001-06-02 2004-07-03 엘지산전 주식회사 영상정보를 이용한 교통정보 추출 방법 및 장치
KR101942491B1 (ko) 2018-11-08 2019-04-11 주식회사 싸인텔레콤 도로교통 상황 모니터링 관제·실시간 교통정보 분석·교통신호제어로 이루어진 인공지능형 cctv통합관제중개제어모듈을 갖는 cctv통합관제센터시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007149077A (ja) 2005-11-07 2007-06-14 Fujitsu Ltd 映像処理方法及び装置
KR101889085B1 (ko) * 2017-12-07 2018-08-16 렉스젠(주) 차량 궤적을 이용한 통행 정보 생성 장치 및 그 방법

Also Published As

Publication number Publication date
KR20210008737A (ko) 2021-01-25

Similar Documents

Publication Publication Date Title
CN111145545B (zh) 基于深度学习的道路交通行为无人机监测系统及方法
CN106297330B (zh) 减少行人过街对平面感知信号控制效率影响的方法及系统
CN106781675B (zh) 一种收集停车场信息的系统和方法
CN108198441B (zh) 一种快速智能交通系统及方法
CN107664500B (zh) 基于图像特征识别的车库车辆定位导航方法
CN109615870A (zh) 一种基于毫米波雷达和视频的交通检测系统
CN104616502B (zh) 基于组合式车路视频网络的车牌识别与定位系统
KR101446546B1 (ko) 위치기반 실시간 차량정보 표시시스템
CN108257410A (zh) 一种现场监控与导航系统协作的停车位精准导航方法
KR20180046798A (ko) 실시간 교통 정보 제공 방법 및 장치
CN111275960A (zh) 一种交通路况分析方法、系统及摄像机
CN106875707A (zh) 一种针对应急交通场景的空中交警系统
CN111081047A (zh) 一种基于光电图像处理的精准智能停车管理方法及管理系统
CN109544940A (zh) 基于三目视觉的公交车专用道占道抓拍系统及其抓拍方法
CN104504364A (zh) 基于时空关联的停止线实时识别与测距方法
CN110164164A (zh) 利用摄像头拍摄功能增强手机导航软件识别复杂道路精准度的方法
RU2587662C1 (ru) Автоматизированная система выявления нарушений правил дорожного движения при проезде перекрестка, железнодорожного переезда или пешеходного перехода
CN112556718A (zh) 经由高速车辆遥测来推断车道边界
KR101998834B1 (ko) 사고 위험도 예측이 가능한 교통 정보 제공 시스템
KR102256205B1 (ko) 영상 내 차량위치 산출 장치 및 그 방법, 이를 이용한 교통량 분석 시스템
KR101841978B1 (ko) 지자기 센서를 이용한 교차로 교통량 감지시스템
CN108682154B (zh) 基于车流状态变化深度学习分析的道路拥堵检测系统
KR102116029B1 (ko) 드론을 이용한 교통신호 최적화 시스템
CN111429723B (zh) 一种基于路侧设备的通信与感知数据融合方法
CN111275957A (zh) 一种交通事故信息采集方法、系统及摄像机

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right