KR20200062065A - Method and apparatus for prodicting moving path - Google Patents

Method and apparatus for prodicting moving path Download PDF

Info

Publication number
KR20200062065A
KR20200062065A KR1020190153289A KR20190153289A KR20200062065A KR 20200062065 A KR20200062065 A KR 20200062065A KR 1020190153289 A KR1020190153289 A KR 1020190153289A KR 20190153289 A KR20190153289 A KR 20190153289A KR 20200062065 A KR20200062065 A KR 20200062065A
Authority
KR
South Korea
Prior art keywords
interest
data
user
image data
moving path
Prior art date
Application number
KR1020190153289A
Other languages
Korean (ko)
Other versions
KR102475752B1 (en
Inventor
권은정
박현호
변성원
신원재
이용태
정의석
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20200062065A publication Critical patent/KR20200062065A/en
Application granted granted Critical
Publication of KR102475752B1 publication Critical patent/KR102475752B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06K9/00718
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72457User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to geographic location
    • H04M1/72569
    • H04M1/72572
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Environmental & Geological Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Social Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a method and a device for accurately predicting a moving path by combining image data and sensor data. The device for predicting a moving path extracts an object from image data to identify an object of interest, extracts behavior information of the object of interest from the sensor data obtained from a personal portable terminal of the object of interest, synchronizes the behavior information of the object of interest obtained from the sensor data with that of the object of interest identified from the image data according to time information to generate training data for an analysis model, and predicts a moving path and behavior information of the object of interest through the output of the analysis model when input data is input to the analysis model.

Description

이동 경로 예측 방법 및 장치{METHOD AND APPARATUS FOR PRODICTING MOVING PATH}METHOD AND APPARATUS FOR PRODICTING MOVING PATH}

본 발명은 이동 경로 예측 방법 및 장치에 관한 것으로, 특히 CCTV(Closed Circuit Television) 영상 데이터와 사용자의 개인 휴대 단말을 통해 획득한 센서 데이터를 융합하여 사용자의 이동 경로와 행동을 예측하는 이동 경로 예측 방법 및 장치에 관한 것이다. The present invention relates to a method and apparatus for predicting a movement path, and in particular, a movement path prediction method for predicting a movement path and a behavior of a user by fusing CCTV (Closed Circuit Television) image data and sensor data acquired through a user's personal mobile terminal. And devices.

CCTV에 기록되는 영상 데이터를 통해 관심 객체의 이동 경로를 예측하기 위한 기존 기술에서는 빛의 각도, 빛의 반사 등과 같은 실외 환경의 요인, 관심 객체를 획득하기 위한 비-관심 객체의 영상 내 중첩 등으로 관심 객체를 식별하기가 용이하지 않았다. 따라서 영상 데이터를 통해 추출된 객체에 대한 세부 정보(메타데이터)의 정확도가 높지 않기 때문에 관심 객체의 이동 경로에 대한 예측을 정확하게 확보하기가 용이하지 않았다. Existing technologies for predicting the moving path of an object of interest through image data recorded in CCTV include factors such as the angle of light, reflection of light, and other factors in the outdoor environment, and the overlap of non-interested objects in the image to obtain the object of interest. It was not easy to identify the object of interest. Therefore, since the accuracy of detailed information (metadata) of the object extracted through the image data is not high, it is not easy to accurately obtain a prediction of the moving path of the object of interest.

이러한 문제를 해결하기 위하여, 영상 데이터와 센서 데이터를 결합하여 관심 객체의 이동 경로를 정확하게 예측하기 위한 학습 데이터가 필요하다. 학습데이터를 어떻게 구축하여 학습모델에 활용하느냐에 따라 예측 결과값은 달라지기 때문에 영상 데이터와 센서 데이터를 결합한 학습 데이터 구축은 예측 결과값을 얻기 위한 중요한 기술 요소로 작용된다.In order to solve this problem, learning data is required to accurately predict a moving path of an object of interest by combining image data and sensor data. Since the prediction result value varies depending on how the training data is constructed and used in the learning model, the construction of the training data combining image data and sensor data acts as an important technical factor for obtaining the prediction result value.

본 발명이 해결하려는 과제는 영상 데이터와 센서 데이터를 결합하여 관심 객체의 이동 경로를 정확하게 예측할 수 있는 이동 경로 예측 방법 및 장치를 제공하는 것이다. The problem to be solved by the present invention is to provide a moving path prediction method and apparatus capable of accurately predicting a moving path of an object of interest by combining image data and sensor data.

본 발명의 한 실시 예에 따르면, 이동 경로 예측 장치에서 관심 객체의 이동 경로를 예측하는 방법이 제공된다. 이동 경로 예측 방법은 영상 데이터에서 객체를 추출하여 상기 관심 객체를 식별하는 단계, 상기 관심 객체의 개인 휴대 단말로부터 획득되는 센서 데이터로부터 상기 관심 객체의 행동 정보를 추출하는 단계, 상기 센서 데이터로부터 획득된 상기 관심 객체의 행동 정보를 상기 영상 데이터로부터 식별된 상기 관심 객체와 시간 정보에 따라 동기화시켜 분석 모델의 학습 데이터로 생성하는 단계, 입력 데이터가 상기 분석 모델에 입력되면, 상기 분석 모델의 출력을 통해 상기 관심 객체의 이동 경로 및 행동 정보를 예측하는 단계를 포함한다. According to an embodiment of the present invention, a method for predicting a moving path of an object of interest in a moving path prediction apparatus is provided. The moving path prediction method includes extracting an object from image data to identify the object of interest, extracting action information of the object of interest from sensor data obtained from a personal portable terminal of the object of interest, and obtained from the sensor data Synchronizing the behavior information of the object of interest according to time information with the object of interest identified from the image data to generate learning data of the analysis model, and when input data is input to the analysis model, through output of the analysis model And predicting a movement path and behavior information of the object of interest.

본 발명의 실시 예에 의하면, 영상보안감시 기술 분야에서 활용되던 관심 객체(사람)의 인식 및 추적 기술을 활용하여 관심 객체(사람)의 가까운 미래의 이동 경로 값을 예측하고, 이동 경로 상에서 사용자의 행동을 예측하여 위험한 상황을 선제적으로 대응할 수 있는 다양한 서비스 모델에 활용될 수 있다.According to an embodiment of the present invention, by using the recognition and tracking technology of the object of interest (person) used in the field of video security surveillance technology, predict the value of the moving path of the object of interest (person) in the near future, and It can be used in a variety of service models that can predict behavior and proactively respond to dangerous situations.

도 1은 본 발명의 실시 예에 따른 CCTV 영상 데이터와 센서 데이터를 이용하여 사용자의 이동 경로와 행동 패턴을 획득하는 일 예를 설명하는 도면이다.
도 2는 본 발명의 실시 예에 따른 관심 객체의 영상 메타데이터를 획득하는 방법을 설명하는 도면이다.
도 3은 본 발명의 실시 예에 따른 관심 객체의 센서 메타데이터를 획득하는 방법을 설명하는 도면이다.
도 4는 본 발명의 실시 예에 따른 영상 메타데이터와 센서 메타데이터를 시간적으로 매핑하여 학습 데이터로 활용하는 방법을 설명하는 도면이다.
도 5는 본 발명의 실시 예에 따른 영상 메타데이터와 센서 메타데이터를 시간 정보에 따라 동기화하는 방법을 나타낸 흐름도이다.
도 6은 본 발명의 실시 예에 따른 이동 경로 예측 장치를 나타낸 도면이다.
1 is a view for explaining an example of acquiring a user's movement path and behavior pattern using CCTV image data and sensor data according to an embodiment of the present invention.
2 is a diagram illustrating a method of obtaining image metadata of an object of interest according to an embodiment of the present invention.
3 is a diagram illustrating a method of obtaining sensor metadata of an object of interest according to an embodiment of the present invention.
FIG. 4 is a diagram illustrating a method of temporally mapping image metadata and sensor metadata according to an embodiment of the present invention and using it as learning data.
5 is a flowchart illustrating a method of synchronizing image metadata and sensor metadata according to time information according to an embodiment of the present invention.
6 is a diagram illustrating an apparatus for predicting a moving path according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art to which the present invention pertains may easily practice. However, the present invention can be implemented in many different forms and is not limited to the embodiments described herein. In addition, in order to clearly describe the present invention in the drawings, parts irrelevant to the description are omitted, and like reference numerals are assigned to similar parts throughout the specification.

명세서 및 청구범위 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification and claims, when a part “includes” a certain component, it means that the component may further include other components, not to exclude other components, unless specifically stated to the contrary.

이제 본 발명의 실시 예에 따른 이동 경로 예측 방법 및 장치에 대하여 도면을 참고로 하여 상세하게 설명한다. Now, a method and apparatus for predicting a moving path according to an embodiment of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 실시 예에 따른 CCTV 영상 데이터와 센서 데이터를 이용하여 사용자의 이동 경로와 행동 패턴을 획득하는 일 예를 설명하는 도면이다. 1 is a view for explaining an example of acquiring a user's movement path and behavior pattern using CCTV image data and sensor data according to an embodiment of the present invention.

도 1을 참고하면, CCTV(Closed Circuit Television)(CAM1, CAM2, CAM3, CAM4)는 서로 다른 장소에 설치되어 있다. 개인 휴대 단말을 보유한 사용자는 시간(T1, T2, T3, T4)에 따라 CCTV(CAM1, CAM2, CAM3, CAM4)가 설치되어 있는 장소를 이동한다. Referring to Figure 1, CCTV (Closed Circuit Television) (CAM1, CAM2, CAM3, CAM4) is installed in different places. A user having a personal portable terminal moves to a place where CCTV (CAM1, CAM2, CAM3, CAM4) is installed according to the time (T1, T2, T3, T4).

CCTV(CAM1, CAM2, CAM3, CAM4)는 설치된 위치에서 사용자의 영상을 촬영하고, 촬영한 영상 데이터를 녹화 및 기록하고, 기록한 영상 데이터를 이동 경로 예측 장치(100)로 전송한다. CCTV (CAM1, CAM2, CAM3, CAM4) photographs the user's image at the installed location, records and records the captured image data, and transmits the recorded image data to the movement path prediction apparatus 100.

이동 경로 예측 장치(100)는 CCTV(CAM1, CAM2, CAM3, CAM4)로부터 영상 데이터를 수집하고, CCTV(CAM1, CAM2, CAM3, CAM4)를 통해 기록된 영상 데이터로부터 사용자를 식별하고 추적한다. 이동 경로 예측 장치(100)는 시간(T1, T2, T3, T4)에 따라 계속적으로 수집되는 영상 데이터를 이전 수집된 영상 데이터와 비교하여 동일한 사용자인지를 확인하는 재식별 과정을 수행한다. 사용자를 식별 또는 재식별하는 과정에서 사용자가 영상 데이터에서 인식된 크기, 영상 데이터 내 위치한 좌표값을 획득할 수 있다. The movement path prediction apparatus 100 collects image data from CCTV (CAM1, CAM2, CAM3, CAM4), and identifies and tracks a user from the image data recorded through CCTV (CAM1, CAM2, CAM3, CAM4). The motion path prediction apparatus 100 performs a re-identification process to check whether the same user is the same by comparing the image data continuously collected according to the times T1, T2, T3, and T4 with the previously collected image data. In the process of identifying or re-identifying the user, the user may acquire a size recognized in the image data and coordinate values located in the image data.

구체적으로, 시간(T1)에서, CCTV(CAM1)는 사용자 식별자가 Person A인 사용자의 영상을 촬영하고, 촬영된 영상 데이터를 이동 경로 예측 장치(100)로 전달한다. 이동 경로 예측 장치(100)는 시간(T1)에서 촬영된 영상 데이터와 사용자의 개인 휴대 단말로부터 가속도 센서 데이터를 획득하고, 이들 데이터를 활용하여 분석하고, 분석한 결과 해당 이동 경로 상에서 Person A에 해당하는 사용자는 현재 걷기(walking) 상태임을 알 수 있게 된다. Specifically, at time T1, the CCTV (CAM1) captures the image of the user whose user identifier is Person A, and transmits the captured image data to the motion path prediction apparatus 100. The movement path prediction apparatus 100 acquires the image data captured at time T1 and the acceleration sensor data from the user's personal portable terminal, analyzes them using these data, and analyzes the result, and corresponds to Person A on the movement path The user can know that he is currently walking.

이후, 시간(T2)에서, CCTV(CAM2)는 시간(T2)에서 촬영된 사용자의 CCTV 영상 데이터를 이동 경로 예측 장치(100)로 전송한다. 이동 경로 예측 장치(100)는 시간(T2)에서 촬영된 영상 데이터로부터 Person A에 해당하는 사용자를 식별하고, 해당 사용자의 개인 휴대 단말의 가속도 센서 데이터를 분석한 결과 해당 이동 경로 상에서 Person A에 해당하는 사용자는 조깅(jogging) 상태임을 알 수 있게 된다. Then, at time T2, CCTV (CAM2) transmits the CCTV image data of the user photographed at time T2 to the movement path prediction apparatus 100. The movement path prediction apparatus 100 identifies a user corresponding to Person A from the image data captured at time T2, and analyzes acceleration sensor data of the user's personal portable terminal, and corresponds to Person A on the movement path A user who can do this can know that he is in a jogging state.

이후, 시간(T3)에서, 이동 경로 예측 장치(100)는 시간(T3)에서 CCTV(CAM3)을 통해 촬영된 영상 데이터와 사용자(Person A)의 개인 휴대 단말의 가속도 센서 데이터를 활용하여 분석하고, 분석한 결과 해당 이동 경로 상에서 Person A에 해당하는 사용자는 계단 오르기(ascending) 상태임을 알 수 있게 된다.Subsequently, at time T3, the movement path prediction apparatus 100 analyzes by using the video data captured through CCTV (CAM3) at time T3 and the acceleration sensor data of the user's (Person A) personal mobile terminal. , As a result of analysis, it can be seen that the user corresponding to Person A on the corresponding movement path is in an ascending state.

이후, 시간(T4)에서, 이동 경로 예측 장치(100)는 시간(T4)에서 CCTV(CAM4)를 통해 촬영된 영상 데이터와 사용자(Person A)의 개인 휴대 단말의 가속도 센서 데이터를 활용하여 분석한 결과 해당 이동 경로 상에서 Person A에 해당하는 사용자는 계단 내려오기(descending) 상태임을 알 수 있게 된다. Subsequently, at time T4, the movement path prediction apparatus 100 analyzes by using the video data captured through CCTV (CAM4) at time T4 and the acceleration sensor data of the personal portable terminal of the user (Person A). As a result, it can be seen that the user corresponding to Person A on the corresponding movement path is in a descending state of stairs.

이동 경로 예측 장치(100)는 시간(T1, T2, T3, T4)의 흐름에 따라 분석된 정보를 누적하여 메타데이터로 활용하여, 다가올 시간(예를 들면, T10)에서 사용자(Person A)의 이동 경로 및 이동 경로 상에서 사용자의 행동 패턴(예를 들면, 걷기, 뛰기, 계단 오르기, 계단 내려오기, 멈춤, 쓰러짐 등)을 예측한다. 이러한 예측은 사용자가 다가올 시간(예를 들면, T10)에서 직면할 수 있는 위험 상황(예를 들면, 과거 범죄가 발생한 위험장소 진입, 위험 차량 조우, 위험인물 조우)을 사전에 회피할 수 있도록 함으로써 공공안전 보장 서비스를 실현할 수 있게 한다. The moving path prediction apparatus 100 accumulates and analyzes the information analyzed according to the flow of time (T1, T2, T3, T4) as metadata, and uses the information of the user (Person A) at the time to come (for example, T10). Predict the user's behavioral patterns (eg, walking, running, climbing stairs, descending stairs, stopping, falling, etc.) on the moving path and on the moving path. This prediction enables users to avoid the dangerous situations (for example, entering a dangerous place where a past crime occurred, encountering a dangerous vehicle, encountering a dangerous person) in the time to come (for example, T10). Enable public safety assurance services to be realized.

특히, 본 발명의 실시 예에 따른 이동 경로 예측 장치(100)는 CCTV(CAM1, CAM2, CAM3, CAM4)의 영상 데이터 분석을 통해 획득한 영상 메타데이터와 관심 객체의 개인 휴대 단말의 가속도 센서 데이터의 특징 분석을 통해 획득된 행동 패턴 분류 값을 학습 데이터로 사용하여 분석 모델을 학습시키고, 학습된 분석 모델을 이용하여 다가올 시간에 대한 사용자의 이동 경로 및 행동을 예측한다. 분석 모델은 시계열 데이터 분석에 활용되는 딥러닝 기법인 RNN(Recurrent Neural Network), LSTM(Long-Short Term Memory) 등과 같은 다양한 기법이 사용될 수 있다. In particular, the movement path prediction apparatus 100 according to an embodiment of the present invention includes image metadata obtained through video data analysis of CCTV (CAM1, CAM2, CAM3, CAM4) and acceleration sensor data of the personal portable terminal of the object of interest. The analysis model is trained using the behavior pattern classification values obtained through feature analysis as training data, and the user's movement path and behavior are predicted for the time to come using the learned analysis model. As for the analysis model, various techniques such as Recurrent Neural Network (RNN) and Long-Short Term Memory (LSTM), which are deep learning techniques used for time series data analysis, can be used.

도 2는 본 발명의 실시 예에 따른 관심 객체의 영상 메타데이터를 획득하는 방법을 설명하는 도면이다. 2 is a diagram for explaining a method of obtaining image metadata of an object of interest according to an embodiment of the present invention.

도 2를 참고하면, 이동 경로 예측 장치(100)는 CCTV로부터 영상 데이터를 획득한다(S210). Referring to FIG. 2, the movement path prediction apparatus 100 acquires image data from CCTV (S210).

이동 경로 예측 장치(100)는 영상 데이터를 구성하는 프레임별로 객체를 검출한다. 이동 경로 예측 장치(100는 객체를 검출하기 위해 프레임별 영상 데이터로부터 특징 추출 알고리즘을 이용하여 특징을 추출하고(S220), 추출된 특징을 이용하여 객체를 검출할 수 있다(S230). 특징 추출 알고리즘으로는 HOG(Histogram of Oriented Gradients), 하르 유사 특징(Haar-like features) 방법 등 기존 영상처리 알고리즘이 사용될 수 있다. 또는 이동 경로 예측 장치(100)는 객체를 검출하기 위해 딥러닝을 활용한 객체 추출 분석 기법을 이용할 수 있다. 딥러닝을 활용한 객체 추출 분석 기법으로는 YOLO(You only Look Once)나 빠른-RNN 등이 사용될 수 있다. The motion path prediction apparatus 100 detects an object for each frame constituting image data. The motion path prediction apparatus 100 may extract a feature using a feature extraction algorithm from frame-by-frame image data to detect the object (S220), and detect the object using the extracted feature (S230). As an example, existing image processing algorithms such as Histogram of Oriented Gradients (HOG) and Har-like features can be used, or the motion path prediction apparatus 100 is an object using deep learning to detect an object. You can use an extraction analysis technique: You can use YOLO (You only Look Once) or Fast-RNN as an object extraction analysis technique using deep learning.

이동 경로 예측 장치(100)는 현재 프레임에서 검출된 객체를 분류한 후(S240), 분류된 객체를 각각 이전 프레임에서 검출된 객체와 유사성을 비교하여 관심 객체에 대한 재식별 과정을 수행하고(S250), 재식별을 통해 시간에 따라 관심 객체의 움직임의 변화를 확인한다. The motion path predicting apparatus 100 classifies the objects detected in the current frame (S240), then compares the classified objects with similarities to the objects detected in the previous frame, and performs a re-identification process for the object of interest (S250). ), the change of the movement of the object of interest with time is confirmed through re-identification.

이동 경로 예측 장치(100)는 관심 객체의 재식별을 위해 관심 객체의 상하의를 구분하여 의상에 대한 색상 특징 및/또는 윤곽선에 대한 특징을 비교하여 유사도 점수를 계산하고, 유사도 점수가 일정 점수 이상이면 동일한 객체로 재식별할 수 있다. 예를 들어, 이동 경로 예측 장치(100)는 관심 객체의 재식별을 위해 수학식 1과 같이 관심 객체의 상하의를 구분하여 의상에 대한 색상 특징을 비교하여 색상 유사도 점수를 계산하고, 색상 유사도 점수가 일정 점수 이상이면 동일한 객체로 재식별할 수 있다.The motion path prediction apparatus 100 calculates a similarity score by comparing color characteristics and/or contour characteristics of a garment by classifying upper and lower objects of interest to re-identify the object of interest, and if the similarity score is equal to or greater than a certain score It can be re-identified with the same object. For example, the motion path prediction apparatus 100 calculates a color similarity score by comparing the color characteristics of the clothes by classifying the top and bottom of the object of interest as shown in Equation 1 to re-identify the object of interest. If it is above a certain score, it can be re-identified with the same object.

Figure pat00001
Figure pat00001

구체적으로, 유사도 점수는 수학식 2와 같이 계산될 수 있다. Specifically, the similarity score can be calculated as in Equation 2.

Figure pat00002
Figure pat00002

수학식 2에서, B, G, R은 각각 청색, 녹색, 적색을 나타낸다. B11, G11, R11은 각각 사용자 1의 상의에 대한 청색, 녹색, 적색을 나타내고, B12, G12, R12는 각각 사용자 2의 상의에 대한 청색, 녹색, 적색을 나타낸다. B21, G21, R21은 각각 사용자 1의 하의에 대한 청색, 녹색, 적색을 나타내고, B22, G22, R22는 각각 사용자 2의 하의에 대한 청색, 녹색, 적색을 나타낸다. In Equation 2, B, G, and R represent blue, green, and red, respectively. B 11 , G 11 , and R 11 each represent blue, green, and red for the user 1's top, and B 12 , G 12 , and R 1 2 respectively represent the blue, green, and red for the top of the user 2. B 21 , G 21 , and R 21 each represent blue, green, and red colors for User 1's bottoms, and B 22 , G 22 , and R 22 respectively represent Blue, green, and red colors for User 2's bottoms.

한편, 영상 데이터를 생성하는 CCTV와 센서 데이터를 생성하는 개인 휴대 단말은 서로 다른 장치이며 각각 독립적으로 동작하기 때문에 CCTV에서 생성되는 영상 데이터와 개인 휴대 단말에서 센서 데이터간 시간적 동기화 정보가 없다. 영상 데이터와 센서 데이터가 비동기화된 상태로 학습이 진행되면, 학습 과정에서 특징을 융합하는 문제를 해결해야 하고, 분석 모델이 학습되더라도 예측 결과를 획득하는 과정에서 시간에 따른 정확도에 오차가 발생한다. 따라서 이러한 문제를 해결하기 위해 영상 데이터와 센서 데이터를 동기화시키는 방법에 대해 도 3 내지 도 5를 참고로 하여 설명한다. On the other hand, there is no temporal synchronization information between the video data generated in CCTV and the sensor data in the personal portable terminal because the CCTV for generating video data and the personal portable terminal for generating sensor data are different devices and operate independently. If the image data and the sensor data are asynchronously trained, it is necessary to solve the problem of fusion of features in the learning process, and even if the analysis model is trained, an error occurs in accuracy over time in the process of obtaining prediction results. . Therefore, a method of synchronizing image data and sensor data to solve this problem will be described with reference to FIGS. 3 to 5.

도 3은 본 발명의 실시 예에 따른 관심 객체의 센서 메타데이터를 획득하는 방법을 설명하는 도면이다. 3 is a diagram illustrating a method of obtaining sensor metadata of an object of interest according to an embodiment of the present invention.

도 3을 참고하면, 사용자 A와 사용자 B는 시간(T1, T2, T3)에 따라 행동 패턴이 달라진다. 이동 경로 예측 장치(100)는 시간(T3)에서 발생 가능한 사용자 A와 사용자 B의 행동 패턴을 시간(T1, T2)을 통해 분석된 메타데이터를 과거 데이터로 활용하여 예측한다. Referring to FIG. 3, user A and user B have different behavior patterns according to time T1, T2, and T3. The motion path prediction apparatus 100 predicts the behavior patterns of user A and user B that may occur at time T3 by using the metadata analyzed through time T1 and T2 as past data.

즉 시간(T1)에서 센서 데이터 분석 모델에 따라 사용자 A 및 사용자 B가 각각 넘어짐(Fall), 멈춤(Still), 뛰기(Run) 중에 하나의 행동으로 판단된다고 할 때, 분석된 결과 값이 센서 메타데이터로 사용된다. 이 결과 값은 도 2에서 분석되어 획득된 영상 메타데이터와 결합되고, 시간 정보를 기준으로 영상 메타데이터와 센서 메타데이터간 관계를 매핑함으로써, 사용자 A와 사용자 B의 이동경로에 따른 행동 패턴 예측을 위한 학습 데이터로 활용될 수 있다.That is, at time T1, when user A and user B are judged to be one of the following actions: fall, stop, and run according to the sensor data analysis model, the analyzed result value is the sensor meta. Used as data. This result value is combined with the image metadata obtained by analyzing in FIG. 2 and mapping the relationship between the image metadata and the sensor metadata based on the time information, thereby predicting the behavior pattern according to the movement paths of the user A and the user B. It can be used as learning data for.

도 4는 본 발명의 실시 예에 따른 영상 메타데이터와 센서 메타데이터를 시간적으로 매핑하여 학습 데이터로 활용하는 방법을 설명하는 도면이다.FIG. 4 is a diagram illustrating a method of temporally mapping image metadata and sensor metadata according to an embodiment of the present invention and using it as learning data.

도 4를 참고하면, 학습을 위한 입력 데이터(401)가 분석 모델(405)에 입력된다. Referring to FIG. 4, input data 401 for learning is input to the analysis model 405.

학습을 위한 입력 데이터(401)는 프레임 번호(frame_number), 사용자 식별자(uer_id), 시간 정보(timestamp), 해당 시간 정보에서 영상 내 객체의 x 좌표값(x_value), 해당 시간 정보에서 영상 내 객체의 y 좌표값(y_value), 행동 패턴 분류 값(activity)을 포함할 수 있다. The input data 401 for learning includes the frame number (frame_number), user identifier (uer_id), time information (timestamp), x coordinate value (x_value) of the object in the image from the time information, and the object in the image from the time information. y coordinate values (y_value) and behavior pattern classification values (activity) may be included.

이와 같이 구성된 학습 데이터(401)가 분석 모델(405)에 입력되어 분석 모델(401)이 학습된다. 학습된 분석 모델(405)은 학습 데이터와 유사한 또는 동일한 형태의 테스트 데이터를 입력 받으면, 가까운 미래의 예측 결과 값(403)을 출력한다. The learning data 401 configured as described above is input to the analysis model 405 to train the analysis model 401. The learned analysis model 405 outputs a prediction result value 403 in the near future when inputting test data similar or identical to the learning data.

시간 정보를 기준으로 영상 메타데이터와 센서 메타데이터의 융합된 형태로 학습 데이터를 생성하기 위해 이동 경로 예측 장치는 도 5와 같이 동작한다.The motion path prediction apparatus operates as shown in FIG. 5 to generate learning data in a fused form of image metadata and sensor metadata based on time information.

도 5는 본 발명의 실시 예에 따른 영상 메타데이터와 센서 메타데이터를 시간 정보에 따라 동기화하는 방법을 나타낸 흐름도이다.5 is a flowchart illustrating a method of synchronizing image metadata and sensor metadata according to time information according to an embodiment of the present invention.

도 5를 참고하면, 이동 경로 예측 장치(100)는 사용자 식별자와 사용자 영상의 특징에 대한 매칭 정보를 생성한다(S502). 예를 들어, 이동 경로 예측 장치(100)는 사용자의 개인 휴대 단말 번호와 사용자의 의상 정보(색상, 형태)를 특징으로 매칭 정보를 생성하여 저장하고, 이때 사용자의 개인 휴대 단말 번호를 사용자 식별자로 사용하여, 매칭 정보를 저장할 수 있다. Referring to FIG. 5, the motion path prediction apparatus 100 generates matching information for a user identifier and characteristics of a user image (S502). For example, the movement path prediction apparatus 100 generates and stores matching information characterized by the user's personal mobile terminal number and the user's clothing information (color, shape), and the user's personal mobile terminal number as a user identifier. By using, it is possible to store matching information.

이후, 이동 경로 예측 장치(100)는 CCTV로부터 녹화된 CCTV 영상 데이터 및 사용자의 개인 휴대 단말로부터 센서 데이터를 획득한다(S504). 이동 경로 예측 장치(100)는 물리적으로 독립적인 장치인 CCTV와 개인 휴대 단말로부터 각각 동일한 장소에서의 영상 데이터와 센서 데이터를 수집한다. Thereafter, the movement route prediction apparatus 100 acquires CCTV image data recorded from CCTV and sensor data from the user's personal portable terminal (S504). The motion path prediction device 100 collects image data and sensor data at the same place from CCTV, which is a physically independent device, and a personal portable terminal, respectively.

이동 경로 예측 장치(100)는 CCTV 영상 데이터와 센서 데이터 간의 시간 관계 정보를 파악하기 위해서 각각 시스템 타이머를 동작시킨다. 이동 경로 예측 장치(100)는 CCTV 영상 데이터에서 관심 객체를 추출하기 위해 필요한 시간을 체크하기 위한 CCTV 영상 분석 타이머(timer1)를 설정하고(S506), CCTV 영상 데이터의 첫 번째 프레임부터 마지막 프레임까지 순차적으로 영상 데이터를 분석하여 객체를 검출한다. The motion path predicting apparatus 100 operates a system timer to grasp time relationship information between CCTV image data and sensor data. The motion path prediction apparatus 100 sets a CCTV video analysis timer (timer1) to check the time required to extract the object of interest from CCTV video data (S506), and sequentially from the first frame to the last frame of CCTV video data. Objects are detected by analyzing image data.

이동 경로 예측 장치(100)는 CCTV 영상 분석 타이머(timer1)의 시간 구간에서 발생한 센서 데이터가 있는지 확인한다(S508). The movement path prediction apparatus 100 checks whether there is sensor data generated in a time interval of the CCTV video analysis timer (timer1) (S508).

이동 경로 예측 장치(100)는 CCTV 영상 분석 타이머(timer1)의 시간 구간 동안 CCTV 영상 데이터의 첫 번째 프레임부터 마지막 프레임까지 영상을 분석하는 과정에서 관련 사용자의 센서 데이터가 수집되는 경우, 센서 데이터 수집에 대한 시간을 체크하기 위한 센서 타이머(timer2)를 설정한다(S510). When the sensor data of the related user is collected in the process of analyzing the image from the first frame to the last frame of the CCTV image data during the time interval of the CCTV image analysis timer (timer1), the movement path prediction apparatus 100 is used to collect sensor data. Set a sensor timer (timer2) for checking the time for (S510).

이동 경로 예측 장치(100)는 CCTV 영상 분석 타이머(timer1)의 시간 구간 동안 입력되는 센서 데이터가 없고, 입력된 영상 데이터의 마지막 프레임까지 객체 분석이 완료되었다면(S512), 프레임별로 분석된 객체들간의 유사도를 계산한다(S514). 유사도 점수는 전술한 바와 같이 이전 프레임에서 추출된 객체와 현재 프레임에서 추출된 객체 간의 윤곽선에 대한 특징 및/또는 상하의 의상에 대한 색상 값을 토대로 계산될 수 있다. If there is no sensor data input during the time interval of the CCTV video analysis timer (timer1), and the object analysis is completed until the last frame of the input video data (S512), the motion path prediction device 100 is displayed between the analyzed objects by frame. The similarity is calculated (S514). The similarity score may be calculated based on the feature of the contour between the object extracted from the previous frame and the object extracted from the current frame, and/or the color value for the top and bottom clothes.

이동 경로 예측 장치(100)는 유사도가 일정값(예를 들면, 80%)을 넘으면 해당 객체가 동일한 사용자인 것으로 판단하고, 해당 객체에 동일한 사용자 식별자를 부여한다(S516). When the similarity degree exceeds a certain value (for example, 80%), the motion path prediction apparatus 100 determines that the corresponding object is the same user, and gives the same user identifier to the corresponding object (S516).

다음, 이동 경로 예측 장치(100)는 사용자 식별자에 매칭된 사용자 영상의 특징 정보와 유사한 객체에 대해 매칭된 사용자의 사용자 식별자로 구분(tagging)한다(S518). Next, the motion path prediction apparatus 100 tags the object similar to the feature information of the user image matched with the user identifier as the user ID of the matched user (S518).

이동 경로 예측 장치(100)는 이런 과정을 거쳐서 CCTV 영상 데이터로부터 객체를 인식하고 객체를 재식별한다(S502~S508, S512~S518). The moving path prediction apparatus 100 recognizes an object from the CCTV image data and re-identifies the object through these processes (S502 to S508, S512 to S518).

한편, 이동 경로 예측 장치(100)는 CCTV 영상 분석 타이머(timer1)의 시간 구간 동안 수집되는 센서 데이터가 존재한다면(S508), 이 센서 데이터를 통해 행동 패턴을 분석하여, 학습 데이터로 사용하기 위한 과정을 수행한다. 구체적으로, 이동 경로 예측 장치(100)는 센서 타이머(timer2)의 시간 정보(timestamp)를 기록하고 시간 정보(timestamp)를 기준으로 센서 데이터의 x, y, 및 z축의 값을 분리하고, 행동 패턴을 분류하는 분석 모델을 통해 분석된 행동 패턴 값을 사용자 식별자별로 시간 정보(timestamp)와 함께 기록한다(S520, S522). Meanwhile, if the sensor data collected during the time interval of the CCTV image analysis timer (timer1) exists (S508), the movement path prediction apparatus 100 analyzes the behavior pattern through the sensor data and uses it as learning data To perform. Specifically, the movement path prediction apparatus 100 records the time information (timestamp) of the sensor timer (timer2) and separates the values of the x, y, and z axes of the sensor data based on the time information (timestamp), and behavior patterns The behavior pattern values analyzed through the analysis model for classifying are recorded along with timestamp for each user identifier (S520, S522).

이동 경로 예측 장치(100)는 사용자 식별자에 따라 영상 데이터 내 객체의 좌표 정보와 행동 패턴 정보를 이용하여 학습 데이터를 생성한다(S524). The motion path prediction apparatus 100 generates learning data using coordinate information and behavior pattern information of an object in the image data according to the user identifier (S524).

이와 같이, 본 발명의 실시 예에 따른 이동 경로 예측 장치(100)는 CCTV 영상 데이터로부터 객체를 인식하고 객체를 재식별하고, 개인 휴대 단말로부터 획득되는 센서 데이터를 통해 해당 객체의 행동 패턴을 분석하여, 학습 데이터를 확보한다. As described above, the movement path prediction apparatus 100 according to an embodiment of the present invention recognizes an object from CCTV image data, re-identifies the object, and analyzes the behavior pattern of the object through sensor data obtained from the personal portable terminal. , Secure learning data.

이동 경로 예측 장치(100)는 학습 데이터를 분석 모델에 입력하여 분석 모델을 학습시킨다. The moving path prediction apparatus 100 trains the analysis model by inputting the training data into the analysis model.

이런 방법으로 학습된 분석 모델은 학습 데이터와 유사한 형태의 데이터를 입력 받으면, 가까운 미래에 해당하는 객체의 좌표 정보와 행동 패턴 정보를 출력함으로써, 해당 사용자의 이동 경로 및 행동을 예측할 수 있도록 한다. When an analysis model learned in this way receives data in a form similar to the learning data, it outputs coordinate information and behavior pattern information of an object corresponding to the near future, thereby predicting the movement path and behavior of the user.

도 6은 본 발명의 실시 예에 따른 이동 경로 예측 장치를 나타낸 도면이다.6 is a diagram illustrating an apparatus for predicting a moving path according to an embodiment of the present invention.

도 6을 참고하면, 이동 경로 예측 장치(600)는 프로세서(610), 메모리(620), 저장 장치(630) 및 입출력(input/output, I/O) 인터페이스(640)를 포함한다. Referring to FIG. 6, the motion path prediction device 600 includes a processor 610, a memory 620, a storage device 630, and an input/output (I/O) interface 640.

프로세서(610)는 중앙 처리 유닛(central processing unit, CPU)이나 기타 칩셋, 마이크로프로세서 등으로 구현될 수 있다.The processor 610 may be implemented as a central processing unit (CPU) or other chipset, microprocessor, or the like.

메모리(620)는 동적 랜덤 액세스 메모리(dynamic random access memory, DRAM), 램버스 DRAM(rambus DRAM, RDRAM), 동기식 DRAM(synchronous DRAM, SDRAM), 정적 RAM(static RAM, SRAM) 등의 RAM과 같은 매체로 구현될 수 있다. The memory 620 is a medium such as RAM, such as dynamic random access memory (DRAM), rambus DRAM (RDRAM), synchronous DRAM (SDRAM), static RAM (SRAM), etc. Can be implemented as

저장 장치(630)는 하드 디스크(hard disk), CD-ROM(compact disk read only memory), CD-RW(CD rewritable), DVD-ROM(digital video disk ROM), DVD-RAM, DVD-RW 디스크, 블루레이(blu-ray) 디스크 등의 광학 디스크, 플래시 메모리, 다양한 형태의 RAM과 같은 영구 또는 휘발성 저장 장치로 구현될 수 있다. The storage device 630 is a hard disk, compact disk read only memory (CD-ROM), CD rewritable (CD-RW), digital video disk ROM (DVD-ROM), DVD-RAM, DVD-RW disk , Blu-ray disks, optical disks, flash memory, and various types of RAM such as permanent or volatile storage devices.

I/O 인터페이스(640)는 프로세서(610) 및/또는 메모리(620)가 저장 장치(630)에 접근할 수 있도록 한다. 또한 I/O 인터페이스(640)는 사용자와 인터페이스를 제공할 수 있다. I/O interface 640 allows processor 610 and/or memory 620 to access storage 630. Also, the I/O interface 640 may provide an interface with a user.

프로세서(610)는 도 1 내지 도 5에서 설명한 이동 경로 예측을 위한 학습 데이터 생성, 학습 및 이동 경로 예측 기능을 수행할 수 있으며, 학습 데이터 생성, 학습 및 이동 경로 예측 기능을 구현하기 위한 프로그램 명령을 메모리(620)에 로드시켜, 도 1 내지 도 5를 참고로 하여 설명한 동작이 수행되도록 제어할 수 있다. 그리고 이러한 프로그램 명령은 저장 장치(630)에 저장되어 있을 수 있으며, 또는 네트워크로 연결되어 있는 다른 시스템에 저장되어 있을 수 있다. The processor 610 may perform training data generation, learning, and movement path prediction functions for movement path prediction described with reference to FIGS. 1 to 5, and execute program instructions for implementing training data generation, learning, and movement path prediction functions. Loaded into the memory 620, it can be controlled to perform the operation described with reference to Figures 1 to 5. In addition, these program commands may be stored in the storage device 630 or may be stored in another system connected through a network.

이상에서 본 발명의 실시 예에 대하여 상세하게 설명하였지만 본 발명의 권리 범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리 범위에 속하는 것이다. Although the embodiments of the present invention have been described in detail above, the scope of rights of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concept of the present invention defined in the following claims are also provided. It belongs to the scope of rights.

Claims (1)

이동 경로 예측 장치에서 관심 객체의 이동 경로를 예측하는 방법으로서,
영상 데이터에서 객체를 추출하여 상기 관심 객체를 식별하는 단계,
상기 관심 객체의 개인 휴대 단말로부터 획득되는 센서 데이터로부터 상기 관심 객체의 행동 정보를 추출하는 단계,
상기 센서 데이터로부터 획득된 상기 관심 객체의 행동 정보를 상기 영상 데이터로부터 식별된 상기 관심 객체와 시간 정보에 따라 동기화시켜 분석 모델의 학습 데이터로 생성하는 단계, 그리고
입력 데이터가 상기 분석 모델에 입력되면, 상기 분석 모델의 출력을 통해 상기 관심 객체의 이동 경로 및 행동 정보를 예측하는 단계
를 포함하는 이동 경로 예측 방법.
A method for predicting a moving path of an object of interest in the moving path prediction apparatus,
Identifying the object of interest by extracting an object from image data,
Extracting behavior information of the object of interest from sensor data obtained from the personal portable terminal of the object of interest;
Synchronizing action information of the object of interest obtained from the sensor data according to time information with the object of interest identified from the image data to generate learning data of the analysis model; and
When input data is input to the analysis model, predicting a movement path and behavior information of the object of interest through the output of the analysis model
Moving path prediction method comprising a.
KR1020190153289A 2018-11-26 2019-11-26 Method and apparatus for prodicting moving path KR102475752B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20180147846 2018-11-26
KR1020180147846 2018-11-26

Publications (2)

Publication Number Publication Date
KR20200062065A true KR20200062065A (en) 2020-06-03
KR102475752B1 KR102475752B1 (en) 2022-12-08

Family

ID=71087511

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190153289A KR102475752B1 (en) 2018-11-26 2019-11-26 Method and apparatus for prodicting moving path

Country Status (1)

Country Link
KR (1) KR102475752B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220089205A (en) 2020-12-21 2022-06-28 한화시스템 주식회사 Trajectories embedding method for deep learning and route prediction method using the same
KR102430033B1 (en) * 2021-12-21 2022-08-05 주식회사 코난테크놀로지 Method for detecting object and apparatus thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150078757A (en) * 2013-12-31 2015-07-08 주식회사 케이티 Method for controlling device, method for predicting moving route of device, computing device and computer-readable medium
KR20160141152A (en) * 2015-05-28 2016-12-08 (주)에프엠커뮤니케이션즈 System and method of Multiple object tracking
KR20170094022A (en) * 2016-02-05 2017-08-17 한국전자통신연구원 Apparatus for searching object trajectories in video clips captured by static cameras
KR101866338B1 (en) * 2017-01-23 2018-06-11 광주과학기술원 A method for tracking for multi-object through relational appearance features and motion patterns, and a computer readable storage medium thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150078757A (en) * 2013-12-31 2015-07-08 주식회사 케이티 Method for controlling device, method for predicting moving route of device, computing device and computer-readable medium
KR20160141152A (en) * 2015-05-28 2016-12-08 (주)에프엠커뮤니케이션즈 System and method of Multiple object tracking
KR20170094022A (en) * 2016-02-05 2017-08-17 한국전자통신연구원 Apparatus for searching object trajectories in video clips captured by static cameras
KR101866338B1 (en) * 2017-01-23 2018-06-11 광주과학기술원 A method for tracking for multi-object through relational appearance features and motion patterns, and a computer readable storage medium thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220089205A (en) 2020-12-21 2022-06-28 한화시스템 주식회사 Trajectories embedding method for deep learning and route prediction method using the same
KR102430033B1 (en) * 2021-12-21 2022-08-05 주식회사 코난테크놀로지 Method for detecting object and apparatus thereof

Also Published As

Publication number Publication date
KR102475752B1 (en) 2022-12-08

Similar Documents

Publication Publication Date Title
JP7317919B2 (en) Appearance search system and method
De Geest et al. Online action detection
JP6018674B2 (en) System and method for subject re-identification
Khan et al. Analyzing crowd behavior in naturalistic conditions: Identifying sources and sinks and characterizing main flows
CN109829382B (en) Abnormal target early warning tracking system and method based on intelligent behavior characteristic analysis
US8266174B2 (en) Behavior history retrieval apparatus and behavior history retrieval method
JP2006133946A (en) Moving object recognition device
Anishchenko Machine learning in video surveillance for fall detection
KR20200119391A (en) Apparatus and method for recognizing activity and detecting activity duration in video
KR102475752B1 (en) Method and apparatus for prodicting moving path
KR20110035662A (en) Intelligent image search method and system using surveillance camera
KR101979375B1 (en) Method of predicting object behavior of surveillance video
Balazia et al. You are how you walk: Uncooperative MoCap gait identification for video surveillance with incomplete and noisy data
De Silva Audiovisual sensing of human movements for home-care and security in a smart environment
Baba et al. Stray dogs behavior detection in urban area video surveillance streams
KR102016262B1 (en) Image processing method and system for smoky environment
Park et al. Intensity classification background model based on the tracing scheme for deep learning based CCTV pedestrian detection
WO2022228325A1 (en) Behavior detection method, electronic device, and computer readable storage medium
JP2022062675A (en) Method and apparatus for people flow analysis using similar-image search
KR20210108018A (en) Method and apparatus for mapping objects besed on movement path
Chandran et al. A PTZ camera based people-occupancy estimation system (PCBPOES)
Doulamis et al. An architecture for a self configurable video supervision
US20230386185A1 (en) Statistical model-based false detection removal algorithm from images
KR101482970B1 (en) A system and method for human action recognition in still images using action poselets and a two-layer classification model
Le et al. Real-time abnormal events detection combining motion templates and object localization

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant