KR20190047218A - 교통정보 제공 방법, 장치 및 그러한 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램 - Google Patents

교통정보 제공 방법, 장치 및 그러한 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램 Download PDF

Info

Publication number
KR20190047218A
KR20190047218A KR1020170140812A KR20170140812A KR20190047218A KR 20190047218 A KR20190047218 A KR 20190047218A KR 1020170140812 A KR1020170140812 A KR 1020170140812A KR 20170140812 A KR20170140812 A KR 20170140812A KR 20190047218 A KR20190047218 A KR 20190047218A
Authority
KR
South Korea
Prior art keywords
frame
vehicle
tag
person
information
Prior art date
Application number
KR1020170140812A
Other languages
English (en)
Other versions
KR102460915B1 (ko
Inventor
서연식
Original Assignee
한화테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화테크윈 주식회사 filed Critical 한화테크윈 주식회사
Priority to KR1020170140812A priority Critical patent/KR102460915B1/ko
Priority to US16/648,667 priority patent/US11436841B2/en
Priority to PCT/KR2017/012462 priority patent/WO2019083073A1/ko
Publication of KR20190047218A publication Critical patent/KR20190047218A/ko
Priority to US17/885,921 priority patent/US11657623B2/en
Priority to KR1020220136837A priority patent/KR102561308B1/ko
Application granted granted Critical
Publication of KR102460915B1 publication Critical patent/KR102460915B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • G06F16/434Query formulation using image data, e.g. images, photos, pictures taken by a user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/30Transportation; Communications
    • G06Q50/40
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Abstract

본 발명의 일 실시예는 단말로부터 제1 차량에 대한 이동경로 요청을 수신하는 단계; 및 교통 정보를 촬영하는 복수의 카메라로부터 촬영된 영상에 포함된 복수의 프레임 각각에 대한 레코드가 저장되고 상기 레코드는 각 프레임에서 인식된 객체 태그 및 이벤트 태그를 포함하는 데이터베이스에서, 시간 순으로 레코드를 탐색하면서, 상기 제1 차량 정보에 대응되는 객체 태그를 포함하는 연속적인 제1 레코드 구간, 상기 제1 차량 정보에 대응되는 객체 태그 및 하차 이벤트 태그를 포함하는 제2 레코드, 및 상기 제2 레코드에 연속하면서 상기 제2 레코드의 하차 이벤트 태그에 포함된 제1 사람 정보에 대응되는 객체 태그를 포함하는 연속적인 제3 레코드 구간에 대응되는 영상 및 촬영 위치 정보 중 적어도 하나를 포함하는 경로 정보를 제공하는 단계;를 포함하는 교통 정보를 이용하는 객체 추적 방법을 개시한다.

Description

교통정보 제공 방법, 장치 및 그러한 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램{Method and apparatus of providing traffic information, and computer program for executing the method.}
교통정보 제공 방법, 장치 및 그러한 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램에 관한 것이다.
현재 고속도로 및 일반도로, 주거지역 등 대부분의 지역에 CCTV가 설치되어, 유사시 범죄자, 용의자 혹은 범죄차량을 색출하기 위해 사용된다. 그러나 단순히 동영상을 기록하고, 필요시 동영상을 사람이 직접 탐색하면서 원하는 사람 또는 차량을 찾는 방법이 주로 이용되고 있다. 그 외에 차량 인식, 안면 인식, 기타 여러가지 영상 분석 알고리즘을 사용하더라도, 각 객체들 간의 상관관계에 대한 정보가 부재하므로, 추적의 어려움이 있다.
차량과 사람의 정보를 연계하는 객체 추적 서비스를 제공하는 교통정보 제공 방법, 장치 및 그러한 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램을 제공하는 데 있다. 또한, 차량과 사람의 정보를 연계시킬 수 있는 데이터베이스를 구축하는 교통정보 처리 방법을 제공하는 데 있다.
상기된 방법을 제공하는 컴퓨터 프로그램 및 이를 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다. 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 이하의 실시예들로부터 또 다른 기술적 과제들이 유추될 수 있다.
본 발명의 일 실시예는 단말로부터 제1 차량에 대한 이동경로 요청을 수신하는 단계; 및 교통 정보를 촬영하는 복수의 카메라로부터 촬영된 영상에 포함된 복수의 프레임 각각에 대한 레코드가 저장되고 상기 레코드는 각 프레임에서 인식된 객체 태그 및 이벤트 태그를 포함하는 데이터베이스에서, 시간 순으로 레코드를 탐색하면서, 상기 제1 차량 정보에 대응되는 객체 태그를 포함하는 연속적인 제1 레코드 구간, 상기 제1 차량 정보에 대응되는 객체 태그 및 하차 이벤트 태그를 포함하는 제2 레코드, 및 상기 제2 레코드에 연속하면서 상기 제2 레코드의 하차 이벤트 태그에 포함된 제1 사람 정보에 대응되는 객체 태그를 포함하는 연속적인 제3 레코드 구간에 대응되는 영상 및 촬영 위치 정보 중 적어도 하나를 포함하는 경로 정보를 제공하는 단계;를 포함하는 교통 정보를 이용하는 객체 추적 방법을 개시한다.
상기 방법은, 교통 정보를 촬영하는 복수의 카메라로부터 촬영된 영상에 포함된 프레임으로부터 사람 및 차량 중 적어도 하나를 인식하여 상기 프레임에 대한 객체 태그를 생성하는, 객체 태그 생성 단계; 및 상기 객체 태그를 참조하여, 차량이 인식되고 상기 차량으로부터 기설정된 거리 이내에서 사람이 인식된 제1 프레임에 연속하는 제2 프레임에서 상기 차량이 인식되고 상기 사람이 인식되지 않는 경우 상기 제2 프레임에 대하여 상기 차량의 정보와 상기 사람의 정보를 포함하는 승차 이벤트 태그를 생성하거나, 차량이 인식되고 사람이 인식되지 않은 제3 프레임에 연속하는 제4 프레임에서 상기 차량이 인식되고 상기 차량으로부터 기설정된 거리 이내에서 사람이 인식되는 경우 상기 제4 프레임에 대하여 상기 차량의 정보와 상기 사람의 정보를 포함하는 하차 이벤트 태그를 생성하는, 이벤트 태그 생성 단계;를 더 포함할 수 있다.
상기 객체 태그 생성 단계는, 상기 영상을 기설정된 N프레임 간격으로 샘플링하고, 샘플링된 복수의 프레임 각각에 대하여 사람 및 차량 중 적어도 하나의 존재 여부를 인식하고, 인식된 결과에 따라 복수의 프레임 각각에 대한 객체 태그를 생성할 수 있고, 상기 이벤트 태그 생성 단계는, 상기 샘플링된 복수의 프레임들에 대하여 생성된 객체 태그를 참조하여 승차 이벤트 및 하차 이벤트 중 적어도 하나의 태그를 생성하고, 상기 제1 프레임과 상기 제2 프레임은 상기 샘플링된 복수의 프레임들 중 연속하고, 상기 제3 프레임과 상기 제4 프레임은 상기 샘플링된 복수의 프레임들 중 연속할 수 있다.
상기 객체 태그 생성 단계는, 상기 영상에 포함된 복수의 프레임 각각에 대한 레코드에 각 프레임에서 인식된 객체 태그를 포함시켜 데이터베이스에 저장하는 단계;를 포함할 수 있고, 상기 이벤트 태그 생성 단계는, 상기 레코드의 객체 태그를 참조하여 상기 이벤트 태그를 생성할 수 있고, 상기 생성된 이벤트 태그를, 상기 생성된 이벤트 태그에 대응되는 프레임의 레코드에 저장하는 단계;를 포함할 수 있다.
상기 이벤트 태그 생성 단계는, 차량이 인식되고 상기 차량으로부터 기설정된 거리 이내에서 사람이 인식된 제1 프레임에 연속하는 제2 프레임에서 상기 차량이 인식되고 상기 사람이 인식되지 않고, 상기 제2 프레임 이후에 m개의 프레임에서 상기 사람이 인식되는 않는 경우, 상기 제2 프레임에 대하여 상기 차량의 정보와 상기 사람의 정보를 포함하는 승차 이벤트 태그를 생성할 수 있다.
상기 이벤트 태그 생성 단계는, 차량이 인식되고 상기 차량으로부터 기설정된 거리 이내에서 사람이 인식된 제1 프레임에 연속하는 제2 프레임에서 상기 차량이 인식되고 상기 사람이 인식되지 않고, 상기 제2 프레임이 촬영된 카메라의 인접 카메라에서 촬영된 상기 제2 프레임의 촬영 시간 이후 m개의 프레임에서 상기 사람이 인식되지 않는 경우, 상기 제2 프레임에 대하여 상기 차량의 정보와 상기 사람의 정보를 포함하는 승차 이벤트 태그를 생성할 수 있다.
본 발명의 다른 실시예는, 단말로부터 제1 사람에 대한 이동경로 요청을 수신하는 단계; 및 교통 정보를 촬영하는 복수의 카메라로부터 촬영된 영상에 포함된 복수의 프레임 각각에 대한 레코드가 저장되고 상기 레코드는 각 프레임에서 인식된 객체 태그 및 이벤트 태그를 포함하는 데이터베이스에서, 시간 순으로 레코드를 탐색하면서, 상기 제1 사람 정보에 대응되는 객체 태그를 포함하는 연속적인 제1 레코드 구간, 상기 제1 사람 정보에 대응되는 객체 태그 및 승차 이벤트 태그를 포함하는 제2 레코드, 및 상기 제2 레코드에 연속하면서 상기 제2 레코드의 승차 이벤트 태그에 포함된 제2 차량 정보에 대응되는 객체 태그를 포함하는 연속적인 제3 레코드 구간에 대응되는 영상 및 촬영 위치 정보 중 적어도 하나를 포함하는 경로 정보를 제공하는 단계;를 포함하는 교통 정보를 이용하는 객체 추적 방법을 개시한다.
본 발명의 다른 실시예는 컴퓨터를 이용하여 전술한 적어도 하나의 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램을 개시한다.
본 발명의 다른 실시예는 단말로부터 제1 차량에 대한 이동경로 요청을 수신하는 통신부; 및 교통 정보를 촬영하는 복수의 카메라로부터 촬영된 영상에 포함된 복수의 프레임 각각에 대한 레코드가 저장되고 상기 레코드는 각 프레임에서 인식된 객체 태그 및 이벤트 태그를 포함하는 데이터베이스에서, 시간 순으로 레코드를 탐색하면서, 상기 제1 차량 정보에 대응되는 객체 태그를 포함하는 연속적인 제1 레코드 구간, 상기 제1 차량 정보에 대응되는 객체 태그 및 하차 이벤트 태그를 포함하는 제2 레코드, 및 상기 제2 레코드에 연속하면서 상기 제2 레코드의 하차 이벤트 태그에 포함된 제1 사람 정보에 대응되는 객체 태그를 포함하는 연속적인 제3 레코드 구간에 대응되는 영상 및 촬영 위치 정보 중 적어도 하나를 포함하는 경로 정보를 제공하는 경로 제공부;를 포함하는 교통 정보를 이용하는 객체 추적 장치를 개시한다.
상기 장치는, 교통 정보를 촬영하는 복수의 카메라로부터 촬영된 영상에 포함된 프레임으로부터 사람 및 차량 중 적어도 하나를 인식하여 상기 프레임에 대한 객체 태그를 생성하는, 객체 인식부; 및 상기 객체 태그를 참조하여, 차량이 인식되고 상기 차량으로부터 기설정된 거리 이내에서 사람이 인식된 제1 프레임에 연속하는 제2 프레임에서 상기 차량이 인식되고 상기 사람이 인식되지 않는 경우 상기 제2 프레임에 대하여 상기 차량의 정보와 상기 사람의 정보를 포함하는 승차 이벤트 태그를 생성하거나, 차량이 인식되고 사람이 인식되지 않은 제3 프레임에 연속하는 제4 프레임에서 상기 차량이 인식되고 상기 차량으로부터 기설정된 거리 이내에서 사람이 인식되는 경우 상기 제4 프레임에 대하여 상기 차량의 정보와 상기 사람의 정보를 포함하는 하차 이벤트 태그를 생성하는, 이벤트 인식부;를 더 포함할 수 있다.
상기 객체 인식부는, 상기 영상을 기설정된 N프레임 간격으로 샘플링하고, 샘플링된 복수의 프레임 각각에 대하여 사람 및 차량 중 적어도 하나의 존재 여부를 인식하고, 인식된 결과에 따라 복수의 프레임 각각에 대한 객체 태그를 생성할 수 있고, 상기 이벤트 인식부는, 상기 샘플링된 복수의 프레임들에 대하여 생성된 객체 태그를 참조하여 승차 이벤트 및 하차 이벤트 중 적어도 하나의 태그를 생성하고, 상기 제1 프레임과 상기 제2 프레임은 상기 샘플링된 복수의 프레임들 중 연속하고, 상기 제3 프레임과 상기 제4 프레임은 상기 샘플링된 복수의 프레임들 중 연속할 수 있다.
상기 객체 인식부는, 상기 영상에 포함된 복수의 프레임 각각에 대한 레코드에 각 프레임에서 인식된 객체 태그를 포함시켜 데이터베이스에 저장할 수 있고, 상기 이벤트 인식부는, 상기 레코드의 객체 태그를 참조하여 상기 이벤트 태그를 생성하고, 상기 생성된 이벤트 태그를, 상기 생성된 이벤트 태그에 대응되는 프레임의 레코드에 저장할 수 있다.
상기 이벤트 인식부는, 차량이 인식되고 상기 차량으로부터 기설정된 거리 이내에서 사람이 인식된 제1 프레임에 연속하는 제2 프레임에서 상기 차량이 인식되고 상기 사람이 인식되지 않고, 상기 제2 프레임 이후에 m개의 프레임에서 상기 사람이 인식되는 않는 경우, 상기 제2 프레임에 대하여 상기 차량의 정보와 상기 사람의 정보를 포함하는 승차 이벤트 태그를 생성할 수 있다.
상기 이벤트 인식부는, 차량이 인식되고 상기 차량으로부터 기설정된 거리 이내에서 사람이 인식된 제1 프레임에 연속하는 제2 프레임에서 상기 차량이 인식되고 상기 사람이 인식되지 않고, 상기 제2 프레임이 촬영된 카메라의 인접 카메라에서 촬영된 상기 제2 프레임의 촬영 시간 이후 m개의 프레임에서 상기 사람이 인식되지 않는 경우, 상기 제2 프레임에 대하여 상기 차량의 정보와 상기 사람의 정보를 포함하는 승차 이벤트 태그를 생성할 수 있다.
본 발명의 다른 실시예는, 단말로부터 제1 사람에 대한 이동경로 요청을 수신하는 통신부; 및 교통 정보를 촬영하는 복수의 카메라로부터 촬영된 영상에 포함된 복수의 프레임 각각에 대한 레코드가 저장되고 상기 레코드는 각 프레임에서 인식된 객체 태그 및 이벤트 태그를 포함하는 데이터베이스에서, 시간 순으로 레코드를 탐색하면서, 상기 제1 사람 정보에 대응되는 객체 태그를 포함하는 연속적인 제1 레코드 구간, 상기 제1 사람 정보에 대응되는 객체 태그 및 승차 이벤트 태그를 포함하는 제2 레코드, 및 상기 제2 레코드에 연속하면서 상기 제2 레코드의 승차 이벤트 태그에 포함된 제2 차량 정보에 대응되는 객체 태그를 포함하는 연속적인 제3 레코드 구간에 대응되는 영상 및 촬영 위치 정보 중 적어도 하나를 포함하는 경로 정보를 제공하는 경로 제공부;를 포함하는 교통 정보를 이용하는 객체 추적 장치를 개시한다.
본 발명의 일 실시예에 따르면 차량과 사람의 정보를 연계시킬 수 있는 데이터베이스가 구축되고, 구축된 데이터베이스를 이용하여 차량과 사람의 정보를 연계하는 추적 기능이 제공되는 바, 사람이 차량을 이용하여 도주하거나, 차량에서 사람이 하차하여 도주하는 등의 경우에도 용의자 혹은 용의차량을 놓치지 않고 추적할 수 있는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 시스템을 도시한 것이다.
도 2는 본 발명의 일 실시예에 따른 교통정보 제공 장치객체 추적 장치를 개략적으로 도시한 블록도이다.
도 3은 본 발명의 일 실시예에 따라 데이터베이스에 저장된 테이블의 예를 도시한 것이다.
도 4는 본 발명의 일 실시예에 따라 데이터베이스에 저장된 테이블의 다른 예를 도시한 것이다.
도 5는 승차 이벤트가 발생한 프레임의 예이다.
도 6은 하차 이벤트가 발생한 프레임의 예이다.
도 7은 본 발명의 일 실시예에 따라 데이터베이스에 저장된 테이블의 또 다른 예를 도시한 것이다.
도 8은 본 발명의 일 실시예에 따라 데이터베이스에 저장된 테이블의 또 다른 예를 도시한 것이다.
도 9는 본 발명의 일 실시예에 따른 교통정보 처리 방법을 도시한 흐름도이다.
도 10은 본 발명의 일 실시예에 따른 객체 추적 방법을 도시한 흐름도이다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고, 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
제 1, 제 2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의하여 한정되어서는 안된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, “포함한다” 또는 “가지다” 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하, 첨부된 도면들에 도시된 본 발명의 바람직한 실시예를 참조하여 본 발명을 보다 상세히 설명한다.
도 1은 본 발명의 일 실시예에 따른 시스템을 도시한 것이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 시스템은, 교통 정보를 촬영하는 복수의 카메라(C) 및 카메라(C)로부터 영상을 수신하여 저장하고, 저장된 영상 기반 추적 서비스를 제공하는 서버(S)를 포함할 수 있다.
본 발명의 일 실시예에 따른 시스템은, 추적 서비스를 요청하고 추적 서비스를 제공받는 단말(T)을 더 포함할 수 있다.
카메라(C), 서버(S) 및 단말(T)은 네트워크(N)를 통해 데이터를 송수신할 수 있다.
카메라(C)는 도로, 도보, 주차장, 거리 등 차량 및/또는 사람이 있는 장소를 촬영할 수 있다. 카메라(C)는 서로 다른 위치에 2대 이상 구비될 수 있다. 카메라(C)는 팬닝(panning), 틸팅(tilting), 주밍(zooming) 동작이 가능한 PTZ 카메라일 수 있다. 카메라(C)는 촬영된 영상을 네트워크(N)를 통해 서버(S)에 전송할 수 있다.
서버(S)는 카메라(C)로부터 영상을 수신하고, 영상을 분석하고, 영상 및 분석결과를 저장할 수 있다. 서버(S)는 카메라(C)를 제어할 수 있다. 서버(S)는 클라이언트인 단말(T)을 대상으로, 하나 이상의 서비스를 제공할 수 있다. 예컨대 서버(S)는 단말(T)에게 객체추적 서비스를 제공할 수 있다.
단말(T)은 서버(S)에 저장된 자료의 조회를 요청할 수 있다. 단말(T)은 서버(S)에 저장된 영상의 조회를 요청할 수 있다. 단말(T)은 서버(S)에 저장된 자료를 기반으로, 특정 객체의 추적을 요청할 수 있다. 단말(T)은 특정 객체의 정보를 서버(S)에 전송하면서 해당 객체에 대한 이동경로 추적을 요청할 수 있고, 서버(S)로부터 추적된 경로를 제공받을 수 있다.
단말(T)은 PC, 스마트폰, 태블릿, 노트북 등으로, 서버(S)와 관련된 웹/모바일 사이트의 접속, 서비스 전용 프로그램의 설치 및 실행이 가능한 모든 단말 장치를 포함할 수 있다. 복수의 단말(T)이 본 시스템에 포함될 수 있다.
네트워크(N)는 예컨대 LANs(Local Area Networks), WANs(Wide Area Networks), MANs(Metropolitan Area Networks), ISDNs(Integrated Service Digital Networks) 등의 유선 네트워크나, 무선 LANs, CDMA, 블루투스, 위성 통신, 3G, 4G, 5G, LTE 등의 무선 네트워크를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
도 2는 본 발명의 일 실시예에 따른 객체 추적 장치(100)를 개략적으로 도시한 블록도이다. 객체 추적 장치(100)는 서버(S) 측에 마련될 수 있다.
도 2를 참조하면, 객체 추적 장치(100)는 프로세서(110), 데이터베이스(120) 및 통신부(130)를 포함할 수 있다. 한편, 도 2에 도시된 객체 추적 장치(100)는 본 실시예의 특징이 흐려지는 것을 방지하기 위하여 본 실시예와 관련된 구성요소들만을 도시한 것이다. 따라서, 도 2에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
도 2의 프로세서(110)는 적어도 하나 이상의 프로세서(processor)에 해당하거나, 적어도 하나 이상의 프로세서를 포함할 수 있다. 이에 따라, 마찰 토크 보상 장치(100)는 마이크로 프로세서나 범용 컴퓨터 시스템과 같은 다른 하드웨어 장치에 포함된 형태로 구동될 수 있다. 프로세서(110)는 메모리(미도시)에 포함된 프로그램의 실행에 따라 본 발명의 실시예들에 필요한 데이터처리를 수행할 수 있다.
본 발명의 실시예들은 프로세서(110)의 기능적 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.
프로세서(110)는 객체 인식부(111), 이벤트 인식부(112), 경로 제공부(113)를 포함할 수 있다.
데이터베이스(120)는 카메라(C)로부터 수신한 영상을 저장하거나, 프로세서(110)에 의해 분석된 영상 정보를 저장할 수 있다.
통신부(130)는 카메라(C) 및/또는 단말(T)과 데이터를 송수신할 수 있다. 통신부(130)는 카메라(C)로부터 영상을 수신하고, 단말(T)로부터 객체 추적 요청을 수신하고, 단말(T)에게 객체 추적 결과를 제공할 수 있다.
일 실시예에 따르면, 통신부(130)는 교통 정보를 촬영하는 복수의 카메라(C)로부터 영상을 수신한다. 또는 교통 정보를 촬영하는 복수의 카메라(C)로부터 기 촬영된 영상을 타 서버로부터 수신할 수 있다. 일 실시예에 따르면, 객체 인식부(111)는 영상에 포함된 프레임으로부터 사람 및 차량 중 적어도 하나를 인식한다. 객체 인식부(111)는 프레임에 대한 객체 태그를 생성할 수 있다. 객체 태그는, 사람에 대한 태그이거나, 차량에 대한 태그일 수 있고, 객체를 식별할 수 있는 식별 정보를 포함할 수 있다. 예컨대, 사람을 식별할 수 있는 정보로써 안면인식 정보, 키, 안경 착용 여부, 성별, 실루엣 정보, 생체 정보 또는 주민등록번호나 휴대폰 번호와 같은 개인정보를 포함할 수 있고, 차량을 식별할 수 있는 정보로써, 차량번호, 차종, 색상, 차량등록번호 중 적어도 하나를 포함할 수 있다. 식별 정보는 객체 인식부(111)에 의해 영상으로부터 획득될 수 있다.
일 실시예에 따르면 객체 인식부(111)는 영상에 포함된 모든 프레임에 대하여 객체 인식 및 태그 생성을 수행할 수 있다.
일 실시예에 따르면 객체 인식부(111)는 영상에 포함된 프레임을 기설정된 N프레임 간격으로 샘플링하고, 샘플링된 복수 프레임 각각에 대하여 사람 및 차량 중 적어도 하나의 존재 여부를 인식하고, 인식된 결과에 따라 샘플링된 복수 프레임 각각에 대한 객체 태그를 생성할 수 있다. 샘플링 간격 N은 관리자에 의해 설정되거나, 프로세서(110)의 성능 및 영상의 프레임레이트를 고려하여 적절하게 설정될 수 있다. 예컨대 샘플링 간격 N은 프레임레이트와 동일하게 설정됨으로써, 샘플링된 프레임의 시간 간격이 1초가 될 수 있다.
이벤트 인식부(112)는, 객체 인식부(111)에 의해 생성된 객체 태그를 참조하여, 승차 이벤트 및/또는 하차 이벤트를 생성할 수 있다. 상세히, 이벤트 인식부(112)는, 차량이 인식되고 상기 차량으로부터 기설정된 거리 이내에서 사람이 인식된 제1 프레임에 연속하는 제2 프레임에서 상기 차량이 인식되고 상기 사람이 인식되지 않는 경우, 해당 사람이 차량에 승차한 것으로 판단하여 제2 프레임에 대하여 차량의 정보와 사람의 정보를 포함하는 승차 이벤트 태그를 생성할 수 있다.
이벤트 인식부(112)는 차량이 인식되고 사람이 인식되지 않은 제3 프레임에 연속하는 제4 프레임에서 상기 차량이 인식되고, 차량으로부터 기설정된 거리 이내에서 사람이 인식되는 경우, 제4 프레임에서 사람이 차량으로부터 하차한 것으로 판단할 수 있고, 이에 따라 제4 프레임에 대하여 하차 이벤트 태그를 생성할 수 있다. 하차 이벤트 태그는, 하차한 사람 정보 및 해당 사람이 하차한 차량 정보를 포함할 수 있다.
한편 전술한 것과 같이, 객체 인식부(111)는 영상을 샘플링할 수 있는 바, 이벤트 인식부(112) 역시 샘플링된 복수 프레임들에 대해 생성된 객체 태그를 참조하여, 샘플링된 복수 프레임들에 대해 승차 이벤트 및 하차 이벤트 중 적어도 하나의 태그를 생성할 수 있다. 이 경우, 전술한 제1 프레임과 제2 프레임은 샘플링된 복수의 프레임들 중 연속하는 프레임이고, 제3 프레임과 제4 프레임은 샘플링된 복수의 프레임들 중 연속하는 프레임일 수 있다.
일 실시예에 따른 객체 인식부(111)는 영상에 포함된 복수 프레임 각각 (또는 샘플링된 프레임 각각)에 대한 레코드를 생성하여 데이터베이스(120)에 저장할 수 있다. 레코드는 각 프레임에서 인식된 객체 태그를 포함할 수 있다. 객체 태그는 객체 식별 정보를 포함할 수 있다.
일 실시예에 따른 이벤트 인식부(112)는 데이터베이스(120)에 저장된 레코드의 객체 태그를 참조하여, 전술한 이벤트 태그를 생성하고, 생성된 이벤트 태그를, 생성된 이벤트 태그에 대응되는 프레임의 레코드에 포함시켜 데이터베이스(120)에 저장할 수 있다.
한편, 전술한 실시예들에 있어서, 각 프레임에 대해 객체가 존재하는 경우에만 객체 태그가 생성되고, 이벤트가 발생하는 경우에만 이벤트 태그가 생성되는 바, 객체 태그 및 이벤트 태그를 전혀 포함하지 않는 프레임도 존재할 수 있고, 객체 태그만 포함하는 프레임, 이벤트 태그만 포함하는 프레임, 객체 태그 및 이벤트 태그를 모두 포함하는 프레임이 각각 존재할 수 있다.
일 실시예에 따르면, 통신부(130)는 단말(T)로부터 제1 차량에 대한 이동경로 요청을 수신할 수 있다. 경로 제공부(113)는 제1 차량에 대한 이동경로를 데이터베이스(120)에서 추적하고, 경로 제공부(113)에 의해 추적된 경로는 통신부(130)에 의해 단말(T)로 제공될 수 있다.
상세히, 경로 제공부(113)는 데이터베이스(120)에 저장된 복수의 레코드를 시간 순으로 탐색하면서 제1 차량 정보에 대응되는 객체 태그를 포함하는 연속적인 제1 레코드 구간, 상기 제1 차량 정보에 대응되는 객체 태그 및 하차 이벤트 태그를 포함하는 제2 레코드, 및 상기 제2 레코드에 연속하면서 상기 제2 레코드의 하차 이벤트 태그에 포함된 제1 사람 정보에 대응되는 객체 태그를 포함하는 연속적인 제3 레코드 구간에 대응되는 영상 및 촬영 위치 정보 중 적어도 하나를 포함하는 경로 정보를 제공할 수 있다.
한편, 단말(T)로부터 사람에 대한 이동경로 요청이 수신되는 경우에는, 전술한 실시예에서 사람을 차량으로, 차량을 사람으로 치환함으로써, 경로 제공부(113)가 사람에 대한 이동경로를 제공할 수 있다.
예컨대, 통신부(130)는 단말(T)로부터 제1 사람에 대한 이동경로 요청을 수신할 수 있다. 이 경우 경로 제공부(113)는 데이터베이스(120)에 저장된 복수의 레코드를 시간 순으로 탐색하면서 제1 사람 정보에 대응되는 객체 태그를 포함하는 연속적인 제1 레코드 구간, 제1 사람 정보에 대응되는 객체 태그 및 승차 이벤트 태그를 포함하는 제2 레코드, 및 제2 레코드에 연속하면서 제2 레코드의 승차 이벤트 태그에 포함된 제2 차량 정보에 대응되는 객체 태그를 포함하는 연속적인 제3 레코드 구간에 대응되는 영상 및 촬영 위치 정보 중 적어도 하나를 포함하는 경로 정보를 제공할 수 있다.
도 3은 본 발명의 일 실시예에 따라 데이터베이스(120)에 저장된 테이블의 예를 도시한 것이다.
도 3에 도시된 각 레코드(31-36)는 프레임에 대응된다. 도 3을 참조하면, 각 레코드(31-36)는 복수의 컬럼에 대한 데이터를 포함한다. 컬럼은, 채널 No., 시간, 및 태그정보를 포함할 수 있다. 레코드(31)를 참조하면, 레코드(31)에 대응되는 프레임은 채널 1에 해당하는 카메라에서 촬영되었으며, 01:01:01 시간에 촬영되었고, 객체 인식부(111)에 의해 해당 프레임에서 사람 "A"가 인식되어 사람 정보가 태그되었음을 알 수 있다. 레코드(35)를 참조하면, 레코드(35)에 대응되는 프레임은 채널 2에 해당하는 카메라에서 촬영되었으며, 01:05:03 시간에 촬영되었고, 객체 인식부(111)에 의해 해당 프레임에서 사람 "A"와 차량 "B"가 인식되어 사람 정보 및 차량 정보가 태그되었음을 알 수 있다.
카메라의 채널 번호는 카메라의 위치(좌표, 주소 등) 정보로 대체될 수 있다. 또는 카메라의 채널 번호에 대응되는 카메라의 위치 정보가 데이터베이스(120)에 함께 저장되거나, 서버(S)에 의해 조회 가능하도록 설정될 수 있다.
한편, 도 3에 도시된 테이블은 객체 인식부(111)에 의해 각 프레임의 차량 및 사람이 인식되어, 객체 태그가 생성 및 저장된 상태의 데이터베이스(120)에 저장된 테이블일 수 있다.
도 4는 본 발명의 일 실시예에 따라 데이터베이스(120)에 저장된 테이블의 다른 예를 도시한 것이다.
도 4에 도시된 테이블은, 이벤트 인식부(112)가 도 3에 도시된 테이블을 참조하여 이벤트를 인식하고, 인식된 이벤트의 태그를 각 레코드에 추가한 상태의 테이블일 수 있다.
도 4를 참조하면, 이벤트 인식부(112)는 데이터베이스(120)에 저장된 레코드들을 시간 순으로 참조하면서, 사람 "A"와 차량 "B"가 모두 태그된 레코드(32) 이후에 차량 "B"만 태그된 레코드(33)가 연속하는 경우, 사람 "A"가 차량 "B"에 승차한 것으로 판단하여 레코드(33)에 승차 이벤트 태그를 추가할 수 있다. 레코드(33)에 추가된 승차 이벤트 태그는, 승차한 사람의 정보로서 "A"의 식별 정보 및 "A"가 승차한 차량의 정보로서 "B"의 식별 정보를 포함할 수 있다.
일 실시예에 따르면, 사람 태그와 차량 태그는, 객체가 인식된 위치 정보를 포함할 수 있다. 본 실시예에서 이벤트 인식부(112)는 승차 이벤트를 인식하기 위하여 레코드(32)에 해당하는 프레임에서 사람과 차량의 위치 간의 거리가 기설정된 거리 미만인가의 조건을 판단할 수 있고, 해당 조건이 만족되는 경우 승차 이벤트 태그를 생성 및 저장할 수 있다. 기설정된 거리는, 프레임의 샘플링 간격에 따라 설정될 수 있다. 프레임의 샘플링 간격이 클수록, 거리도 크게 설정될 수 있다.
이벤트 인식부(112)는 데이터베이스(120)에 저장된 레코드들을 시간 순으로 참조하면서, 차량 "B"가 태그된 레코드(34) 이후에 새롭게 사람 "A"가 태그된 레코드(35)가 연속하는 경우, 사람 "A"가 차량 "B"로부터 하차한 것으로 판단하여 레코드(35)에 하차 이벤트 태그를 추가할 수 있다. 레코드(35)에 추가된 하차 이벤트 태그는, 하차한 사람의 정보로서 "A"의 식별 정보 및 "A"가 하차한 차량의 정보로서 "B"의 식별 정보를 포함할 수 있다.
전술한 것과 마찬가지로, 이벤트 인식부(112)는 하차 이벤트를 인식하기 위해 레코드(35)에 해당하는 프레임에서 사람과 차량의 위치 간의 거리가 기설정된 거리 미만인가의 조건을 판단할 수 있고, 해당 조건이 만족되는 경우 하차 이벤트 태그를 생성 및 저장할 수 있다. 기설정된 거리는, 프레임의 샘플링 간격에 따라 설정될 수 있다. 프레임의 샘플링 간격이 클수록, 거리도 크게 설정될 수 있다.
한편, 도 4에는 사람과 차량의 태그가 최대 1개씩 표시된 예가 도시되었으나, 이는 본 발명의 일 실시예를 설명하기 위한 것이기 때문에 본 발명이 이에 한정되지 않는다. 예를 들어, 레코드(32)에 사람 "A", "C"가 태그되고, 레코드(33)에 사람 "C"가 태그된 경우에도, 이벤트 인식부(112)는 레코드(32)에서 사람 "A"가 차량 "B" 부근에 위치하였고, 레코드(32)에 연속하는 레코드(33)에서 사람 "A"가 태그되지 않았으므로, 승차 이벤트를 생성 및 저장할 수 있다.
승차 이벤트를 생성함에 있어서 만일 레코드(32, 33)에 복수의 차량이 태그된 경우, 이벤트 인식부(112)는 레코드(32)에서 사람 "A"와 가장 가까운 위치에서 인식된 차량 정보를 포함하도록, 레코드(33)에 대해 승차 이벤트를 생성할 수 있다. 만일 레코드(34, 35)에 복수의 차량이 태그된 경우, 이벤트 인식부(112)는 레코드(35)에서 사람 "A"와 가장 가까운 위치에서 인식된 차량 정보를 포함하도록, 레코드(35)에 대해 하차 이벤트를 생성할 수 있다.
도 5는 승차 이벤트가 발생한 프레임의 예이다.
도 5에 있어서, 제1 프레임(51)은 도 4의 레코드(32)에 대응되고, 제2 프레임(52)은 도 4의 레코드(33)에 대응되는 것일 수 있다.
도 5를 참조하면, 사람 "A"와 차량 "B"가 인식된 제1 프레임(51)에 연속하는 제2 프레임(52)에서 사람"A"가 인식되지 않고, 제1 프레임(51)에서 사람 "A"와 차량 "B"가 기설정된 거리 이내에서 인식된 경우, 제2 프레임(52)에 대해 사람 "A"와 차량 "B"의 승차 이벤트 태그를 생성할 수 있다.
도 6은 하차 이벤트가 발생한 프레임의 예이다.
도 6에 있어서, 제3 프레임(61)은 도 4의 레코드(34)에 대응되고, 제4 프레임(62)은 도 4의 레코드(35)에 대응되는 것일 수 있다.
도 6을 참조하면, 사람 "A"가 인식되지 않고 차량 "B"가 인식된 제3 프레임(61)에 연속하는 제4 프레임(62)에서 사람 "A"와 차량 "B"가 인식되고, 제4 프레임(62)에서 사람 "A"와 차량 "B"가 기설정된 거리 이내에서 인식된 경우, 제4 프레임(62)에 대해 사람 "A"와 차량 "B"의 하차 이벤트 태그를 생성할 수 있다.
도 7은 본 발명의 일 실시예에 따라 데이터베이스(120)에 저장된 테이블의 또 다른 예를 도시한 것이다. 도 7을 참조하면, 복수의 레코드(71-77)가 도시되었고, 각 레코드(71-77)는 연속되는 각 프레임에 대응된다.
도 7을 참조하면, 이벤트 인식부(112)는 승차 이벤트를 생성하기 위해 유효성 검증 단계를 거칠 수 있다. 예컨대 이벤트 인식부(112)는 전술한 승차 이벤트 생성 조건에 따라 레코드(73)에 대해 승차 이벤트 태그를 추가하기 전에, 승차 이벤트 태그를 추가할 레코드(73) 이후에 m개의 레코드에서 승차 이벤트에 포함되는 사람 "A"이 인식되지 않는지를 확인하는 유효성 검증 단계를 거칠 수 있다. 즉, 이벤트 인식부(112)는 레코드(72)에 대응하는 제1 프레임에서 차량 "B"가 인식되고, 차량 "B"로부터 기설정된 거리 이내에서 사람 "A"가 인식되고, 레코드(73)에 대응되는 제2 프레임에서 차량 "B"가 인식되고 사람 "A"가 인식되지 않고, 레코드(73) 이후 m개의 레코드(74~)에서 사람 "A"가 인식되지 않는 경우, 차량 "B"와 사람 "A"의 정보를 포함하는 승차 이벤트 태그를 레코드(73)에 추가하여 저장할 수 있다.
일 실시예에 따르면, 이벤트 인식부(112)는 유효성 검증을 위해 승차 이벤트 태그를 추가할 레코드(73)의 인접 채널(예를 들어, 레코드 73의 채널인 채널 1에 인접한 채널 2)에서, 레코드(73)의 촬영 시간(01:01:03) 이후 m개의 레코드에서 사람 "A"가 인식되지 않는지 여부를 추가로 확인할 수 있다. 이벤트 인식부(112)는 인접 채널에서도 사람 "A"가 인식되지 않는 경우, "B"와 사람 "A"의 정보를 포함하는 승차 이벤트 태그를 레코드(73)에 추가하여 저장할 수 있다.
본 실시예에 따르면, 사람 "A"가 채널 1의 촬영 영역을 벗어남으로 인해 영상에서 사라져 채널 2의 촬영 영역에서 다시 등장한 경우에는 레코드(73)에 승차 이벤트가 생성되지 않게 되므로, 사람 "A"가 차량 "B" 근처에 있다가 이동하여 채널 1의 촬영 영역을 벗어남으로써 우연히 차량 "B" 근처에서 사라진 경우에 차량 "B"에 승차한 것으로 잘못 인식되는 것을 방지할 수 있다.
도 8은 본 발명의 일 실시예에 따라 데이터베이스(120)에 저장된 테이블의 또 다른 예를 도시한 것이다. 도 8을 참조하면, 복수의 레코드(81-87)가 도시되었고, 각 레코드(81-87)는 연속되는 각 프레임에 대응된다.
도 8을 참조하면, 이벤트 인식부(112)는 하차 이벤트를 생성하기 위해 유효성 검증 단계를 거칠 수 있다. 예컨대 이벤트 인식부(112)는 전술한 하차 이벤트 생성 조건에 따라 레코드(82)에 대해 하차 이벤트 태그를 추가하기 전에, 하차 이벤트 태그를 추가할 레코드(82) 이후에 m개의 레코드에서 하차 이벤트에 포함되는 사람 "A"가 지속적으로 인식되는가를 확인하는 유효성 검증 단계를 거칠 수 있다. 즉, 이벤트 인식부(112)는 레코드(81)에 대응하는 제3 프레임에서 차량 "B"가 인식되고, 레코드(82)에 대응되는 제4 프레임에서 차량 "B" 및 차량 "B"로부터 기설정된 거리 이내에서 사람 "A"가 인식되고, 레코드(82) 이후 m개의 레코드(83~)에서 사람 "A"가 지속적으로 인식되는 경우, 차량 "B"와 사람 "A"의 정보를 포함하는 하차 이벤트 태그를 레코드(82)에 추가하여 저장할 수 있다.
도 9는 본 발명의 일 실시예에 따른 교통정보 처리 방법을 도시한 흐름도이다. 도 9에 도시된 흐름도는 도 1에 도시된 시스템 및 도 2에 도시된 교통정보 처리 장치(100)에서 시계열적으로 처리되는 단계들로 구성되므로, 이하에서 생략된 내용이라도 도 2에 도시된 구성을 참조하여 이상에서 기술된 내용은 도 9에 도시된 흐름도에 모두 적용될 수 있다.
도 9를 참조하면, 단계 91에서 통신부(130)는 카메라(C)로부터 영상을 수신한다. 또는 단계 91에서 통신부(130)는 카메라(C)로부터 촬영된 영상을 타 서버로부터 수신할 수 있다.
단계 92에서 객체 인식부(111)는 영상에 포함된 프레임으로부터 사람 및 차량 중 적어도 하나를 인식하여 객체 태그를 생성한다. 객체 인식부(111)는 생성된 객체 태그를 데이터베이스(120)에 저장할 수 있다.
단계 93에서 이벤트 인식부(112)는 단계 92에서 생성된 객체 태그를 참조하여, 승차 이벤트 태그 및/또는 하차 이벤트 태그를 생성한다. 이벤트 인식부(112)는 생성된 이벤트 태그를 데이터베이스(120)에 저장할 수 있다.
본 발명의 일 실시예에 따르면 도 9에 도시된 교통정보 처리 방법은 카메라(C)에서 수행되도록 설계될 수도 있다. 예를 들어, 단계 91에서 카메라(C)가 영상을 촬영하고, 단계 92 내지 단계 93에서 카메라(C)가 직접 자신이 촬영한 영상을 분석하여 객체 태그 및 이벤트 태그를 생성하고, 생성된 태그를 서버(S) 측의 데이터베이스(120)에 직접 저장하거나, 데이터베이스(120)에 저장하도록 서버(S)에 전송할 수 있다. 이와 같은 실시예의 변형은 카메라(C)에 구비된 데이터처리장치의 연산 성능에 따라 설계될 수 있다. 즉, 카메라(C)에 구비된 데이터처리장치의 연산 성능이 높으면 태그 생성 작업을 카메라(C)에서 처리하고, 그렇지 않으면 서버(S)에서 처리하도록 설계 가능하다.
본 발명의 일 실시예에 따르면, 도 9의 방법에 의해 데이터베이스(120)에 저장된 레코드들은, 정기적으로 또는 비정기적으로 취합되어 별도의 중앙 데이터베이스(미도시)에 백업될 수 있다.
도 10은 본 발명의 일 실시예에 따른 객체 추적 방법을 도시한 흐름도이다. 도 10에 도시된 흐름도는 도 2에 도시된 교통정보 처리 장치(100)에서 시계열적으로 처리되는 단계들로 구성되므로, 이하에서 생략된 내용이라도 도 2에 도시된 구성을 참조하여 이상에서 기술된 내용은 도 10에 도시된 흐름도에 모두 적용될 수 있다.
도 10을 참조하면, 단계 101에서 통신부(130)는 단말(T)로부터 제1 차량에 대한 경로 추적 요청을 수신한다.
단계 102에서 경로 제공부(113)는 데이터베이스(120)에 저장된 레코드를 시간 순으로 참조하면서, 제1 차량의 정보에 대응되는 객체 태그를 포함하는 레코드를 추출한다. 경로 제공부(113)는 제1 차량의 정보가 태그된 레코드가 하나씩 추출될 때마다, 각 레코드에 제1 차량에 대한 하차 이벤트가 태그되었는가의 여부를 판단(103)한다. 만약 하차 이벤트가 태그되었다면 단계 104로 진행하고, 그렇지 않다면 단계 102로 다시 진행하여, 다음 레코드를 추출한다. 이와 같이 단계 102가 반복적으로 처리되면서, 제1 차량 정보에 대응되는 객체 태그를 포함하는 연속적인 제1 레코드 구간이 추출된다.
제1 차량 정보의 태그가 더 이상 발견되지 않으면 단계 102에서 단계 107로 진행한다.
단계 103에서 하차 이벤트가 태그된 제2 레코드가 추출된다.
단계 104로 진행한 경우, 하차 이벤트 태그에 포함된 제1 사람 정보를 이용하여 추적을 계속하게 된다. 즉, 단말(T)로부터 요청된 추적은 제1 차량에 대한 것이었으나, 본 발명의 일 실시예에 따르면 제1 차량에서 하차한 제1 사람을 연속적으로 추적한다. 단계 104에서 경로 제공부(113)는 레코드를 계속하여 시간 순으로 참조하면서, 제1 사람의 정보에 대응되는 객체 태그를 포함하는 레코드를 추출한다. 경로 제공부(113)는 제1 사람의 정보가 태그된 레코드가 하나씩 추출될 때마다, 각 레코드에 제1 사람에 대한 승차 이벤트가 태그되었는가의 여부를 판단(105)한다. 승차 이벤트가 태그되었다면 단계 106으로 진행하고, 그렇지 않다면 단계 104로 다시 진행하여, 다음 레코드를 추출한다. 이와 같이 단계 104가 반복적으로 처리되면서, 제1 사람 정보에 대응되는 객체 태그를 포함하는 연속적인 제3 레코드 구간이 추출된다.
제1 사람 정보의 태그가 더 이상 발견되지 않으면 단계 104에서 단계 107로 진행한다.
단계 105에서 승차 이벤트가 태그된 제4 레코드가 추출된다.
단계 106으로 진행한 경우, 단계 105의 승차 이벤트 태그에 포함된 제2 차량 정보가 태그된 레코드가 추출된다.
도 10에서는 단계 101 내지 107이 도시되었으나, 본 발명은 도 10에 도시된 흐름도에 한정하지 않는다. 예컨대 단계 106은 단계 102에 대하여 전술한 것과 마찬가지로, 하차 이벤트가 태그될 때까지, 혹은 더 이상 제2 차량이 태그되지 않은 레코드가 발견될 때까지 반복적으로 수행될 수 있으며, 이에 따라 연속적인 제5 레코드 구간이 추출될 수 있다.
추적이 완료되면 단계 107에서 경로 제공부(113)는 그 동안 추출된 레코드에 대응되는 프레임들의 영상 및/또는 위치정보를 포함하는 경로 정보를 제공할 수 있다. 경로 제공부(113)는 단계 102에서 추출된 제1 레코드 구간, 단계 103에서 추출된 제2 레코드, 단계 104에서 추출된 제3 레코드 구간, 단계 105에서 추출된 제4 레코드, 단계 105에서 추출된 제5 레코드 구간 중 연속하는 둘 이상의 레코드를 추적 결과로 획득할 수 있고, 추적 결과로 획득된 레코드에 대응되는 프레임들의 영상을 연속적으로 나열하여 단말(T)에 제공하거나, 추적 결과로 획득된 레코드에 대응되는 프레임들의 위치정보를 연속적으로 나열하여 단말(T)에 제공할 수 있다. 프레임의 위치정보는, 프레임이 촬영된 카메라의 채널 정보로부터 획득될 수 있다.
일 실시예에 따르면 도 10에 도시된 단계들 중 일부 단계들만 수행될 수 있다. 예를 들어, 단계 101에서 제1 차량에 대한 경로 요청이 수신되어 단계 102로 진행한 경우, 제1 차량 정보가 태그된 레코드들이 시간 순으로 추출되면서 단계 103의 조건에 따라 단계 104로의 진행 여부가 결정된다. 만약 단계 102에서 추출된 레코드에 하차이벤트가 태그되지 않음으로 인해 단계 104로 진행하지 못하고 단계 102가 반복적으로 수행되는 중에 제1 차량 태그가 없는 레코드가 발견되는 경우에는, 단계 107로 진행하게 된다. 즉, 본 실시예의 경우 단계 101, 102, 107만 수행된다. 다른 실시예에 따르면, 단계 101 내지 105, 107만 수행될 수 있다.
만일 단계 101에서 단말(T)로부터 제1 사람에 대한 경로가 요청되는 경우에는, 도 10에 도시된 단계들에서 사람과 차량을 치환한 흐름도가 적용될 수 있다.
한편, 본 발명의 일 실시예에 따라 데이터베이스(120)에 저장된 레코드들이 정기적으로 또는 비정기적으로 취합되어 별도의 중앙 데이터베이스(미도시)에 백업되는 경우에는, 도 10에 도시된 방법에 있어서 경로 제공부(113)는 중앙 데이터베이스를 참조하여 경로를 생성 및 제공할 수 있다.
한편, 도 9 및 도 10에 도시된 본 발명의 일 실시예에 따른 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있으며, 균등한 다른 실시 예가 가능함을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
C: 카메라
T: 단말
S: 서버
N: 네트워크
100: 교통정보 제공 방법
110: 프로세서
120: 데이터베이스
130: 통신부
111: 객체 인식부
112: 이벤트 인식부
113: 경로 제공부

Claims (15)

  1. 단말로부터 제1 차량에 대한 이동경로 요청을 수신하는 단계; 및
    교통 정보를 촬영하는 복수의 카메라로부터 촬영된 영상에 포함된 복수의 프레임 각각에 대한 레코드가 저장되고 상기 레코드는 각 프레임에서 인식된 객체 태그 및 이벤트 태그를 포함하는 데이터베이스에서, 시간 순으로 레코드를 탐색하면서, 상기 제1 차량 정보에 대응되는 객체 태그를 포함하는 연속적인 제1 레코드 구간, 상기 제1 차량 정보에 대응되는 객체 태그 및 하차 이벤트 태그를 포함하는 제2 레코드, 및 상기 제2 레코드에 연속하면서 상기 제2 레코드의 하차 이벤트 태그에 포함된 제1 사람 정보에 대응되는 객체 태그를 포함하는 연속적인 제3 레코드 구간에 대응되는 영상 및 촬영 위치 정보 중 적어도 하나를 포함하는 경로 정보를 제공하는 단계;를 포함하는
    교통 정보를 이용하는 객체 추적 방법.
  2. 제1 항에 있어서,
    교통 정보를 촬영하는 복수의 카메라로부터 촬영된 영상에 포함된 프레임으로부터 사람 및 차량 중 적어도 하나를 인식하여 상기 프레임에 대한 객체 태그를 생성하는, 객체 태그 생성 단계; 및
    상기 객체 태그를 참조하여, 차량이 인식되고 상기 차량으로부터 기설정된 거리 이내에서 사람이 인식된 제1 프레임에 연속하는 제2 프레임에서 상기 차량이 인식되고 상기 사람이 인식되지 않는 경우 상기 제2 프레임에 대하여 상기 차량의 정보와 상기 사람의 정보를 포함하는 승차 이벤트 태그를 생성하거나, 차량이 인식되고 사람이 인식되지 않은 제3 프레임에 연속하는 제4 프레임에서 상기 차량이 인식되고 상기 차량으로부터 기설정된 거리 이내에서 사람이 인식되는 경우 상기 제4 프레임에 대하여 상기 차량의 정보와 상기 사람의 정보를 포함하는 하차 이벤트 태그를 생성하는, 이벤트 태그 생성 단계;를 더 포함하는,
    교통 정보를 이용하는 객체 추적 방법.
  3. 제2 항에 있어서,
    상기 객체 태그 생성 단계는,
    상기 영상을 기설정된 N프레임 간격으로 샘플링하고, 샘플링된 복수의 프레임 각각에 대하여 사람 및 차량 중 적어도 하나의 존재 여부를 인식하고, 인식된 결과에 따라 복수의 프레임 각각에 대한 객체 태그를 생성하고,
    상기 이벤트 태그 생성 단계는,
    상기 샘플링된 복수의 프레임들에 대하여 생성된 객체 태그를 참조하여 승차 이벤트 및 하차 이벤트 중 적어도 하나의 태그를 생성하고, 상기 제1 프레임과 상기 제2 프레임은 상기 샘플링된 복수의 프레임들 중 연속하고, 상기 제3 프레임과 상기 제4 프레임은 상기 샘플링된 복수의 프레임들 중 연속하는,
    교통 정보를 이용하는 객체 추적 방법.
  4. 제2 항에 있어서,
    상기 객체 태그 생성 단계는,
    상기 영상에 포함된 복수의 프레임 각각에 대한 레코드에 각 프레임에서 인식된 객체 태그를 포함시켜 데이터베이스에 저장하는 단계;를 포함하고,
    상기 이벤트 태그 생성 단계는,
    상기 레코드의 객체 태그를 참조하여 상기 이벤트 태그를 생성하고,
    상기 생성된 이벤트 태그를, 상기 생성된 이벤트 태그에 대응되는 프레임의 레코드에 저장하는 단계;를 포함하는
    교통 정보를 이용하는 객체 추적 방법.
  5. 제2 항에 있어서,
    상기 이벤트 태그 생성 단계는,
    차량이 인식되고 상기 차량으로부터 기설정된 거리 이내에서 사람이 인식된 제1 프레임에 연속하는 제2 프레임에서 상기 차량이 인식되고 상기 사람이 인식되지 않고, 상기 제2 프레임 이후에 m개의 프레임에서 상기 사람이 인식되는 않는 경우, 상기 제2 프레임에 대하여 상기 차량의 정보와 상기 사람의 정보를 포함하는 승차 이벤트 태그를 생성하는,
    교통 정보를 이용하는 객체 추적 방법.
  6. 제2 항에 있어서,
    상기 이벤트 태그 생성 단계는,
    차량이 인식되고 상기 차량으로부터 기설정된 거리 이내에서 사람이 인식된 제1 프레임에 연속하는 제2 프레임에서 상기 차량이 인식되고 상기 사람이 인식되지 않고, 상기 제2 프레임이 촬영된 카메라의 인접 카메라에서 촬영된 상기 제2 프레임의 촬영 시간 이후 m개의 프레임에서 상기 사람이 인식되지 않는 경우, 상기 제2 프레임에 대하여 상기 차량의 정보와 상기 사람의 정보를 포함하는 승차 이벤트 태그를 생성하는,
    교통 정보를 이용하는 객체 추적 방법.
  7. 단말로부터 제1 사람에 대한 이동경로 요청을 수신하는 단계; 및
    교통 정보를 촬영하는 복수의 카메라로부터 촬영된 영상에 포함된 복수의 프레임 각각에 대한 레코드가 저장되고 상기 레코드는 각 프레임에서 인식된 객체 태그 및 이벤트 태그를 포함하는 데이터베이스에서, 시간 순으로 레코드를 탐색하면서, 상기 제1 사람 정보에 대응되는 객체 태그를 포함하는 연속적인 제1 레코드 구간, 상기 제1 사람 정보에 대응되는 객체 태그 및 승차 이벤트 태그를 포함하는 제2 레코드, 및 상기 제2 레코드에 연속하면서 상기 제2 레코드의 승차 이벤트 태그에 포함된 제2 차량 정보에 대응되는 객체 태그를 포함하는 연속적인 제3 레코드 구간에 대응되는 영상 및 촬영 위치 정보 중 적어도 하나를 포함하는 경로 정보를 제공하는 단계;를 포함하는
    교통 정보를 이용하는 객체 추적 방법.
  8. 컴퓨터를 이용하여 제1 항 내지 제6 항 중 어느 한 항의 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램.
  9. 단말로부터 제1 차량에 대한 이동경로 요청을 수신하는 통신부; 및
    교통 정보를 촬영하는 복수의 카메라로부터 촬영된 영상에 포함된 복수의 프레임 각각에 대한 레코드가 저장되고 상기 레코드는 각 프레임에서 인식된 객체 태그 및 이벤트 태그를 포함하는 데이터베이스에서, 시간 순으로 레코드를 탐색하면서, 상기 제1 차량 정보에 대응되는 객체 태그를 포함하는 연속적인 제1 레코드 구간, 상기 제1 차량 정보에 대응되는 객체 태그 및 하차 이벤트 태그를 포함하는 제2 레코드, 및 상기 제2 레코드에 연속하면서 상기 제2 레코드의 하차 이벤트 태그에 포함된 제1 사람 정보에 대응되는 객체 태그를 포함하는 연속적인 제3 레코드 구간에 대응되는 영상 및 촬영 위치 정보 중 적어도 하나를 포함하는 경로 정보를 제공하는 경로 제공부;를 포함하는
    교통 정보를 이용하는 객체 추적 장치.
  10. 제9 항에 있어서,
    교통 정보를 촬영하는 복수의 카메라로부터 촬영된 영상에 포함된 프레임으로부터 사람 및 차량 중 적어도 하나를 인식하여 상기 프레임에 대한 객체 태그를 생성하는, 객체 인식부; 및
    상기 객체 태그를 참조하여, 차량이 인식되고 상기 차량으로부터 기설정된 거리 이내에서 사람이 인식된 제1 프레임에 연속하는 제2 프레임에서 상기 차량이 인식되고 상기 사람이 인식되지 않는 경우 상기 제2 프레임에 대하여 상기 차량의 정보와 상기 사람의 정보를 포함하는 승차 이벤트 태그를 생성하거나, 차량이 인식되고 사람이 인식되지 않은 제3 프레임에 연속하는 제4 프레임에서 상기 차량이 인식되고 상기 차량으로부터 기설정된 거리 이내에서 사람이 인식되는 경우 상기 제4 프레임에 대하여 상기 차량의 정보와 상기 사람의 정보를 포함하는 하차 이벤트 태그를 생성하는, 이벤트 인식부;를 더 포함하는,
    교통 정보를 이용하는 객체 추적 장치.
  11. 제10 항에 있어서,
    상기 객체 인식부는,
    상기 영상을 기설정된 N프레임 간격으로 샘플링하고, 샘플링된 복수의 프레임 각각에 대하여 사람 및 차량 중 적어도 하나의 존재 여부를 인식하고, 인식된 결과에 따라 복수의 프레임 각각에 대한 객체 태그를 생성하고,
    상기 이벤트 인식부는,
    상기 샘플링된 복수의 프레임들에 대하여 생성된 객체 태그를 참조하여 승차 이벤트 및 하차 이벤트 중 적어도 하나의 태그를 생성하고, 상기 제1 프레임과 상기 제2 프레임은 상기 샘플링된 복수의 프레임들 중 연속하고, 상기 제3 프레임과 상기 제4 프레임은 상기 샘플링된 복수의 프레임들 중 연속하는,
    교통 정보를 이용하는 객체 추적 장치.
  12. 제10 항에 있어서,
    상기 객체 인식부는,
    상기 영상에 포함된 복수의 프레임 각각에 대한 레코드에 각 프레임에서 인식된 객체 태그를 포함시켜 데이터베이스에 저장하고,
    상기 이벤트 인식부는,
    상기 레코드의 객체 태그를 참조하여 상기 이벤트 태그를 생성하고, 상기 생성된 이벤트 태그를, 상기 생성된 이벤트 태그에 대응되는 프레임의 레코드에 저장하는
    교통 정보를 이용하는 객체 추적 장치.
  13. 제10 항에 있어서,
    상기 이벤트 인식부는,
    차량이 인식되고 상기 차량으로부터 기설정된 거리 이내에서 사람이 인식된 제1 프레임에 연속하는 제2 프레임에서 상기 차량이 인식되고 상기 사람이 인식되지 않고, 상기 제2 프레임 이후에 m개의 프레임에서 상기 사람이 인식되는 않는 경우, 상기 제2 프레임에 대하여 상기 차량의 정보와 상기 사람의 정보를 포함하는 승차 이벤트 태그를 생성하는,
    교통 정보를 이용하는 객체 추적 장치.
  14. 제10 항에 있어서,
    상기 이벤트 인식부는,
    차량이 인식되고 상기 차량으로부터 기설정된 거리 이내에서 사람이 인식된 제1 프레임에 연속하는 제2 프레임에서 상기 차량이 인식되고 상기 사람이 인식되지 않고, 상기 제2 프레임이 촬영된 카메라의 인접 카메라에서 촬영된 상기 제2 프레임의 촬영 시간 이후 m개의 프레임에서 상기 사람이 인식되지 않는 경우, 상기 제2 프레임에 대하여 상기 차량의 정보와 상기 사람의 정보를 포함하는 승차 이벤트 태그를 생성하는,
    교통 정보를 이용하는 객체 추적 장치.
  15. 단말로부터 제1 사람에 대한 이동경로 요청을 수신하는 통신부; 및
    교통 정보를 촬영하는 복수의 카메라로부터 촬영된 영상에 포함된 복수의 프레임 각각에 대한 레코드가 저장되고 상기 레코드는 각 프레임에서 인식된 객체 태그 및 이벤트 태그를 포함하는 데이터베이스에서, 시간 순으로 레코드를 탐색하면서, 상기 제1 사람 정보에 대응되는 객체 태그를 포함하는 연속적인 제1 레코드 구간, 상기 제1 사람 정보에 대응되는 객체 태그 및 승차 이벤트 태그를 포함하는 제2 레코드, 및 상기 제2 레코드에 연속하면서 상기 제2 레코드의 승차 이벤트 태그에 포함된 제2 차량 정보에 대응되는 객체 태그를 포함하는 연속적인 제3 레코드 구간에 대응되는 영상 및 촬영 위치 정보 중 적어도 하나를 포함하는 경로 정보를 제공하는 경로 제공부;를 포함하는
    교통 정보를 이용하는 객체 추적 장치.
KR1020170140812A 2017-10-27 2017-10-27 교통정보 제공 방법, 장치 및 그러한 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램 KR102460915B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020170140812A KR102460915B1 (ko) 2017-10-27 2017-10-27 교통정보 제공 방법, 장치 및 그러한 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램
US16/648,667 US11436841B2 (en) 2017-10-27 2017-11-06 Traffic information providing method and device, and computer program stored in medium in order to execute method
PCT/KR2017/012462 WO2019083073A1 (ko) 2017-10-27 2017-11-06 교통정보 제공 방법, 장치 및 그러한 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램
US17/885,921 US11657623B2 (en) 2017-10-27 2022-08-11 Traffic information providing method and device, and computer program stored in medium in order to execute method
KR1020220136837A KR102561308B1 (ko) 2017-10-27 2022-10-21 교통정보 제공 방법, 장치 및 그러한 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170140812A KR102460915B1 (ko) 2017-10-27 2017-10-27 교통정보 제공 방법, 장치 및 그러한 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220136837A Division KR102561308B1 (ko) 2017-10-27 2022-10-21 교통정보 제공 방법, 장치 및 그러한 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램

Publications (2)

Publication Number Publication Date
KR20190047218A true KR20190047218A (ko) 2019-05-08
KR102460915B1 KR102460915B1 (ko) 2022-10-31

Family

ID=66246918

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020170140812A KR102460915B1 (ko) 2017-10-27 2017-10-27 교통정보 제공 방법, 장치 및 그러한 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램
KR1020220136837A KR102561308B1 (ko) 2017-10-27 2022-10-21 교통정보 제공 방법, 장치 및 그러한 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020220136837A KR102561308B1 (ko) 2017-10-27 2022-10-21 교통정보 제공 방법, 장치 및 그러한 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램

Country Status (3)

Country Link
US (2) US11436841B2 (ko)
KR (2) KR102460915B1 (ko)
WO (1) WO2019083073A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10885775B2 (en) * 2019-06-06 2021-01-05 Verizon Patent And Licensing Inc. Monitoring a scene to analyze an event using a plurality of image streams
US11625859B2 (en) * 2020-07-22 2023-04-11 Motorola Solutions, Inc. Method and system for calibrating a camera and localizing objects within the camera field of view
CN115472014B (zh) * 2022-09-16 2023-10-10 苏州映赛智能科技有限公司 一种交通追溯方法、系统、服务器及计算机存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110037486A (ko) * 2009-10-07 2011-04-13 (주)아구스 지능형 영상 감시 장치
KR101365762B1 (ko) * 2013-10-04 2014-03-12 안양시 추적 대상 차량번호의 이동 패턴 분석 방법 및 이를 이용한 통합 관제 시스템
US20140324864A1 (en) * 2013-04-12 2014-10-30 Objectvideo, Inc. Graph matching by sub-graph grouping and indexing

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7663502B2 (en) * 1992-05-05 2010-02-16 Intelligent Technologies International, Inc. Asset system control arrangement and method
US5568406A (en) * 1995-12-01 1996-10-22 Gerber; Eliot S. Stolen car detection system and method
DE69940161D1 (de) * 1998-06-18 2009-02-05 Kline & Walker L L C Automatische vorrichtung zur überwachung von auf abstand zu bedienende ausrüstungen und maschinen weltweit anwendbar
US7439847B2 (en) * 2002-08-23 2008-10-21 John C. Pederson Intelligent observation and identification database system
US20060026017A1 (en) * 2003-10-28 2006-02-02 Walker Richard C National / international management and security system for responsible global resourcing through technical management to brige cultural and economic desparity
US20060206246A1 (en) * 2004-10-28 2006-09-14 Walker Richard C Second national / international management and security system for responsible global resourcing through technical management to brige cultural and economic desparity
US20070250898A1 (en) * 2006-03-28 2007-10-25 Object Video, Inc. Automatic extraction of secondary video streams
US9712486B2 (en) * 2006-09-25 2017-07-18 Weaved, Inc. Techniques for the deployment and management of network connected devices
WO2016014966A2 (en) * 2014-07-24 2016-01-28 Brubaker Curtis M Systems, methods, and devices for generating critical mass in a mobile advertising, media, and communications platform
KR101205365B1 (ko) 2010-01-06 2012-11-28 한국산업기술대학교산학협력단 차량용 탑승자 정보 획득 시스템 및 방법
US9087297B1 (en) * 2010-12-17 2015-07-21 Google Inc. Accurate video concept recognition via classifier combination
US9286516B2 (en) * 2011-10-20 2016-03-15 Xerox Corporation Method and systems of classifying a vehicle using motion vectors
US9489839B2 (en) * 2012-08-06 2016-11-08 Cloudparc, Inc. Tracking a vehicle using an unmanned aerial vehicle
US8995721B1 (en) * 2013-02-04 2015-03-31 Google Inc. Using object appearance changes due to high reflectivity for feature detection
US10037689B2 (en) * 2015-03-24 2018-07-31 Donald Warren Taylor Apparatus and system to manage monitored vehicular flow rate
KR101368831B1 (ko) 2013-10-17 2014-03-05 에이제이파크 주식회사 차량번호 인식 시스템 및 방법
US9530310B2 (en) * 2013-11-01 2016-12-27 Xerox Corporation Method and system for detecting and tracking a vehicle of interest utilizing a network of traffic image-capturing units
US9646210B2 (en) * 2013-12-06 2017-05-09 Vivint, Inc. Entity detection
US20150161541A1 (en) * 2013-12-06 2015-06-11 Bank Of America Corporation Processing and Routing Referrals
GB201401009D0 (en) * 2014-01-21 2014-03-05 Qinetiq Ltd Vehicle identification
US11244171B2 (en) * 2014-01-22 2022-02-08 Conduent Business Services Llc Video-based system for automated detection of double parking violations
US20220033077A1 (en) * 2014-02-28 2022-02-03 Lucas J. Myslinski Drone device
US9363357B2 (en) * 2014-04-25 2016-06-07 Mirsani, LLC Detecting and reporting a vehicle of interest
KR101460781B1 (ko) 2014-06-16 2014-11-19 (주)아이엠시티 불법차량 단속시스템
KR101470315B1 (ko) 2014-08-11 2014-12-09 (주)엔토스정보통신 객체의 움직임 감지에 의한 위험 감지 cctv 시스템 및 그 방법
WO2016038415A1 (en) * 2014-09-12 2016-03-17 Umm Al-Qura University Automatic update of crowd and traffic data using device monitoring
US10121370B2 (en) * 2014-09-20 2018-11-06 Mohamed Roshdy Elsheemy Comprehensive traffic control system
US9418553B2 (en) * 2014-10-02 2016-08-16 Omid B. Nakhjavani Easy parking finder
KR101621822B1 (ko) 2015-02-02 2016-05-31 김명석 하이브리드 이미지 전송 기반의 방범겸용 차량번호 인식 장치, 그리고 이를 이용한 차량번호 인식 및 제공 방법
US20200317216A1 (en) * 2015-04-10 2020-10-08 State Farm Mutual Automobile Insurance Company Operator-specific configuration of autonomous vehicle operation
US10691958B1 (en) * 2015-07-30 2020-06-23 Ambarella International Lp Per-lane traffic data collection and/or navigation
US20170034470A1 (en) * 2015-08-02 2017-02-02 Cfkk, Llc Systems and methods and apparatuses for capturing concurrent multiple perspectives of a target by mobile devices
US9989965B2 (en) * 2015-08-20 2018-06-05 Motionloft, Inc. Object detection and analysis via unmanned aerial vehicle
US9704398B2 (en) * 2015-09-14 2017-07-11 At&T Intellectual Property I, L.P. Method and apparatus for enhancing driver situational awareness
US9946734B2 (en) * 2015-09-16 2018-04-17 Ekin Teknoloji Sanayi Ve Ticaret Anonim Sirketi Portable vehicle monitoring system
US20170243479A1 (en) * 2016-02-19 2017-08-24 Reach Consulting Group, Llc Community security system
US9922560B2 (en) * 2016-03-14 2018-03-20 International Business Machines Corporation Interactive camera viewpoint and adjustment sharing system
US20170308800A1 (en) * 2016-04-26 2017-10-26 Smokescreen Intelligence, LLC Interchangeable Artificial Intelligence Perception Systems and Methods
US10034066B2 (en) * 2016-05-02 2018-07-24 Bao Tran Smart device
US10789840B2 (en) * 2016-05-09 2020-09-29 Coban Technologies, Inc. Systems, apparatuses and methods for detecting driving behavior and triggering actions based on detected driving behavior
US10152858B2 (en) * 2016-05-09 2018-12-11 Coban Technologies, Inc. Systems, apparatuses and methods for triggering actions based on data capture and characterization
US10269242B2 (en) * 2016-07-12 2019-04-23 Ford Global Technologies, Llc Autonomous police vehicle
US11086334B2 (en) * 2016-07-21 2021-08-10 Mobileye Vision Technologies Ltd. Crowdsourcing a sparse map for autonomous vehicle navigation
US11068813B2 (en) * 2016-08-26 2021-07-20 Palo Alto Research Center Incorporated System and method for providing conditional autonomous messaging to parking enforcement officers with the aid of a digital computer
JP2018060481A (ja) * 2016-10-07 2018-04-12 パナソニックIpマネジメント株式会社 誘導システム及び誘導方法
US11194846B2 (en) * 2016-11-28 2021-12-07 Here Global B.V. Method and apparatus for providing automated generation of parking restriction data using machine learning
US10720182B2 (en) * 2017-03-02 2020-07-21 Ricoh Company, Ltd. Decomposition of a video stream into salient fragments
US20180268238A1 (en) * 2017-03-14 2018-09-20 Mohammad Ayub Khan System and methods for enhancing license plate and vehicle recognition
US11250054B1 (en) * 2017-05-10 2022-02-15 Waylens, Inc. Dynamic partitioning of input frame buffer to optimize resources of an object detection and recognition system
US11151192B1 (en) * 2017-06-09 2021-10-19 Waylens, Inc. Preserving locally stored video data in response to metadata-based search requests on a cloud-based database
US10134286B1 (en) * 2017-09-26 2018-11-20 GM Global Technology Operations LLC Selecting vehicle pickup location

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110037486A (ko) * 2009-10-07 2011-04-13 (주)아구스 지능형 영상 감시 장치
US20140324864A1 (en) * 2013-04-12 2014-10-30 Objectvideo, Inc. Graph matching by sub-graph grouping and indexing
KR101365762B1 (ko) * 2013-10-04 2014-03-12 안양시 추적 대상 차량번호의 이동 패턴 분석 방법 및 이를 이용한 통합 관제 시스템

Also Published As

Publication number Publication date
KR20220147566A (ko) 2022-11-03
US20200272839A1 (en) 2020-08-27
WO2019083073A1 (ko) 2019-05-02
KR102460915B1 (ko) 2022-10-31
US20220392233A1 (en) 2022-12-08
US11436841B2 (en) 2022-09-06
US11657623B2 (en) 2023-05-23
KR102561308B1 (ko) 2023-07-28

Similar Documents

Publication Publication Date Title
US11157778B2 (en) Image analysis system, image analysis method, and storage medium
CN109886078B (zh) 目标对象的检索定位方法和装置
CN107292240B (zh) 一种基于人脸与人体识别的找人方法及系统
KR102561308B1 (ko) 교통정보 제공 방법, 장치 및 그러한 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램
JP7040463B2 (ja) 解析サーバ、監視システム、監視方法及びプログラム
CN107305627B (zh) 一种车辆视频监控方法、服务器及系统
JP6406241B2 (ja) 情報処理システム、情報処理方法及びプログラム
US20220092881A1 (en) Method and apparatus for behavior analysis, electronic apparatus, storage medium, and computer program
CN105574506A (zh) 基于深度学习和大规模集群的智能人脸追逃系统及方法
JP6013923B2 (ja) ビデオエピソードの閲覧及び検索のためのシステム及び方法
WO2021180004A1 (zh) 视频分析方法、视频分析的管理方法及相关设备
CN111325954B (zh) 人员走失预警方法、装置、系统及服务器
Davies et al. A progress review of intelligent CCTV surveillance systems
KR100885418B1 (ko) 오버헤드 카메라 영상에서 사람을 감지하고 추적하는시스템 및 그 방법
KR102328199B1 (ko) 추적 가능한 비식별화 방법, 장치 및 시스템
KR102077632B1 (ko) 로컬 영상분석과 클라우드 서비스를 활용하는 하이브리드 지능형 침입감시 시스템
CN112132057A (zh) 一种多维身份识别方法及系统
KR101422217B1 (ko) 차량 번호 인식 서비스 제공 방법
CN111651690A (zh) 涉案信息查找方法、装置以及计算机设备
US11417105B1 (en) Identifying individuals who witnessed a fleeing suspect
JP7357649B2 (ja) 識別を容易にするための方法および装置
KR20120006133A (ko) 휴대형 단속 장치 및 그 단속 방법
CN117710890A (zh) 一种基于遥感技术的智慧城市公共安全监测方法与系统
KR20180001705A (ko) 사물통신(M2M) 환경에서의 하르유사특징(Haar-Like-Feature)을 이용한 얼굴추적 기반 출입자 탐지 방법
KR20230158984A (ko) 사진속 인물의 안면 인식 기반 찾기 서비스 제공 방법

Legal Events

Date Code Title Description
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant