KR20200062065A - Method and apparatus for prodicting moving path - Google Patents
Method and apparatus for prodicting moving path Download PDFInfo
- Publication number
- KR20200062065A KR20200062065A KR1020190153289A KR20190153289A KR20200062065A KR 20200062065 A KR20200062065 A KR 20200062065A KR 1020190153289 A KR1020190153289 A KR 1020190153289A KR 20190153289 A KR20190153289 A KR 20190153289A KR 20200062065 A KR20200062065 A KR 20200062065A
- Authority
- KR
- South Korea
- Prior art keywords
- interest
- data
- user
- image data
- moving path
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G06K9/00718—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72448—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
- H04M1/72454—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72448—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
- H04M1/72457—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to geographic location
-
- H04M1/72569—
-
- H04M1/72572—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/235—Processing of additional data, e.g. scrambling of additional data or processing content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/12—Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Environmental & Geological Engineering (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Social Psychology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 이동 경로 예측 방법 및 장치에 관한 것으로, 특히 CCTV(Closed Circuit Television) 영상 데이터와 사용자의 개인 휴대 단말을 통해 획득한 센서 데이터를 융합하여 사용자의 이동 경로와 행동을 예측하는 이동 경로 예측 방법 및 장치에 관한 것이다. The present invention relates to a method and apparatus for predicting a movement path, and in particular, a movement path prediction method for predicting a movement path and a behavior of a user by fusing CCTV (Closed Circuit Television) image data and sensor data acquired through a user's personal mobile terminal. And devices.
CCTV에 기록되는 영상 데이터를 통해 관심 객체의 이동 경로를 예측하기 위한 기존 기술에서는 빛의 각도, 빛의 반사 등과 같은 실외 환경의 요인, 관심 객체를 획득하기 위한 비-관심 객체의 영상 내 중첩 등으로 관심 객체를 식별하기가 용이하지 않았다. 따라서 영상 데이터를 통해 추출된 객체에 대한 세부 정보(메타데이터)의 정확도가 높지 않기 때문에 관심 객체의 이동 경로에 대한 예측을 정확하게 확보하기가 용이하지 않았다. Existing technologies for predicting the moving path of an object of interest through image data recorded in CCTV include factors such as the angle of light, reflection of light, and other factors in the outdoor environment, and the overlap of non-interested objects in the image to obtain the object of interest. It was not easy to identify the object of interest. Therefore, since the accuracy of detailed information (metadata) of the object extracted through the image data is not high, it is not easy to accurately obtain a prediction of the moving path of the object of interest.
이러한 문제를 해결하기 위하여, 영상 데이터와 센서 데이터를 결합하여 관심 객체의 이동 경로를 정확하게 예측하기 위한 학습 데이터가 필요하다. 학습데이터를 어떻게 구축하여 학습모델에 활용하느냐에 따라 예측 결과값은 달라지기 때문에 영상 데이터와 센서 데이터를 결합한 학습 데이터 구축은 예측 결과값을 얻기 위한 중요한 기술 요소로 작용된다.In order to solve this problem, learning data is required to accurately predict a moving path of an object of interest by combining image data and sensor data. Since the prediction result value varies depending on how the training data is constructed and used in the learning model, the construction of the training data combining image data and sensor data acts as an important technical factor for obtaining the prediction result value.
본 발명이 해결하려는 과제는 영상 데이터와 센서 데이터를 결합하여 관심 객체의 이동 경로를 정확하게 예측할 수 있는 이동 경로 예측 방법 및 장치를 제공하는 것이다. The problem to be solved by the present invention is to provide a moving path prediction method and apparatus capable of accurately predicting a moving path of an object of interest by combining image data and sensor data.
본 발명의 한 실시 예에 따르면, 이동 경로 예측 장치에서 관심 객체의 이동 경로를 예측하는 방법이 제공된다. 이동 경로 예측 방법은 영상 데이터에서 객체를 추출하여 상기 관심 객체를 식별하는 단계, 상기 관심 객체의 개인 휴대 단말로부터 획득되는 센서 데이터로부터 상기 관심 객체의 행동 정보를 추출하는 단계, 상기 센서 데이터로부터 획득된 상기 관심 객체의 행동 정보를 상기 영상 데이터로부터 식별된 상기 관심 객체와 시간 정보에 따라 동기화시켜 분석 모델의 학습 데이터로 생성하는 단계, 입력 데이터가 상기 분석 모델에 입력되면, 상기 분석 모델의 출력을 통해 상기 관심 객체의 이동 경로 및 행동 정보를 예측하는 단계를 포함한다. According to an embodiment of the present invention, a method for predicting a moving path of an object of interest in a moving path prediction apparatus is provided. The moving path prediction method includes extracting an object from image data to identify the object of interest, extracting action information of the object of interest from sensor data obtained from a personal portable terminal of the object of interest, and obtained from the sensor data Synchronizing the behavior information of the object of interest according to time information with the object of interest identified from the image data to generate learning data of the analysis model, and when input data is input to the analysis model, through output of the analysis model And predicting a movement path and behavior information of the object of interest.
본 발명의 실시 예에 의하면, 영상보안감시 기술 분야에서 활용되던 관심 객체(사람)의 인식 및 추적 기술을 활용하여 관심 객체(사람)의 가까운 미래의 이동 경로 값을 예측하고, 이동 경로 상에서 사용자의 행동을 예측하여 위험한 상황을 선제적으로 대응할 수 있는 다양한 서비스 모델에 활용될 수 있다.According to an embodiment of the present invention, by using the recognition and tracking technology of the object of interest (person) used in the field of video security surveillance technology, predict the value of the moving path of the object of interest (person) in the near future, and It can be used in a variety of service models that can predict behavior and proactively respond to dangerous situations.
도 1은 본 발명의 실시 예에 따른 CCTV 영상 데이터와 센서 데이터를 이용하여 사용자의 이동 경로와 행동 패턴을 획득하는 일 예를 설명하는 도면이다.
도 2는 본 발명의 실시 예에 따른 관심 객체의 영상 메타데이터를 획득하는 방법을 설명하는 도면이다.
도 3은 본 발명의 실시 예에 따른 관심 객체의 센서 메타데이터를 획득하는 방법을 설명하는 도면이다.
도 4는 본 발명의 실시 예에 따른 영상 메타데이터와 센서 메타데이터를 시간적으로 매핑하여 학습 데이터로 활용하는 방법을 설명하는 도면이다.
도 5는 본 발명의 실시 예에 따른 영상 메타데이터와 센서 메타데이터를 시간 정보에 따라 동기화하는 방법을 나타낸 흐름도이다.
도 6은 본 발명의 실시 예에 따른 이동 경로 예측 장치를 나타낸 도면이다.1 is a view for explaining an example of acquiring a user's movement path and behavior pattern using CCTV image data and sensor data according to an embodiment of the present invention.
2 is a diagram illustrating a method of obtaining image metadata of an object of interest according to an embodiment of the present invention.
3 is a diagram illustrating a method of obtaining sensor metadata of an object of interest according to an embodiment of the present invention.
FIG. 4 is a diagram illustrating a method of temporally mapping image metadata and sensor metadata according to an embodiment of the present invention and using it as learning data.
5 is a flowchart illustrating a method of synchronizing image metadata and sensor metadata according to time information according to an embodiment of the present invention.
6 is a diagram illustrating an apparatus for predicting a moving path according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art to which the present invention pertains may easily practice. However, the present invention can be implemented in many different forms and is not limited to the embodiments described herein. In addition, in order to clearly describe the present invention in the drawings, parts irrelevant to the description are omitted, and like reference numerals are assigned to similar parts throughout the specification.
명세서 및 청구범위 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification and claims, when a part “includes” a certain component, it means that the component may further include other components, not to exclude other components, unless specifically stated to the contrary.
이제 본 발명의 실시 예에 따른 이동 경로 예측 방법 및 장치에 대하여 도면을 참고로 하여 상세하게 설명한다. Now, a method and apparatus for predicting a moving path according to an embodiment of the present invention will be described in detail with reference to the drawings.
도 1은 본 발명의 실시 예에 따른 CCTV 영상 데이터와 센서 데이터를 이용하여 사용자의 이동 경로와 행동 패턴을 획득하는 일 예를 설명하는 도면이다. 1 is a view for explaining an example of acquiring a user's movement path and behavior pattern using CCTV image data and sensor data according to an embodiment of the present invention.
도 1을 참고하면, CCTV(Closed Circuit Television)(CAM1, CAM2, CAM3, CAM4)는 서로 다른 장소에 설치되어 있다. 개인 휴대 단말을 보유한 사용자는 시간(T1, T2, T3, T4)에 따라 CCTV(CAM1, CAM2, CAM3, CAM4)가 설치되어 있는 장소를 이동한다. Referring to Figure 1, CCTV (Closed Circuit Television) (CAM1, CAM2, CAM3, CAM4) is installed in different places. A user having a personal portable terminal moves to a place where CCTV (CAM1, CAM2, CAM3, CAM4) is installed according to the time (T1, T2, T3, T4).
CCTV(CAM1, CAM2, CAM3, CAM4)는 설치된 위치에서 사용자의 영상을 촬영하고, 촬영한 영상 데이터를 녹화 및 기록하고, 기록한 영상 데이터를 이동 경로 예측 장치(100)로 전송한다. CCTV (CAM1, CAM2, CAM3, CAM4) photographs the user's image at the installed location, records and records the captured image data, and transmits the recorded image data to the movement
이동 경로 예측 장치(100)는 CCTV(CAM1, CAM2, CAM3, CAM4)로부터 영상 데이터를 수집하고, CCTV(CAM1, CAM2, CAM3, CAM4)를 통해 기록된 영상 데이터로부터 사용자를 식별하고 추적한다. 이동 경로 예측 장치(100)는 시간(T1, T2, T3, T4)에 따라 계속적으로 수집되는 영상 데이터를 이전 수집된 영상 데이터와 비교하여 동일한 사용자인지를 확인하는 재식별 과정을 수행한다. 사용자를 식별 또는 재식별하는 과정에서 사용자가 영상 데이터에서 인식된 크기, 영상 데이터 내 위치한 좌표값을 획득할 수 있다. The movement
구체적으로, 시간(T1)에서, CCTV(CAM1)는 사용자 식별자가 Person A인 사용자의 영상을 촬영하고, 촬영된 영상 데이터를 이동 경로 예측 장치(100)로 전달한다. 이동 경로 예측 장치(100)는 시간(T1)에서 촬영된 영상 데이터와 사용자의 개인 휴대 단말로부터 가속도 센서 데이터를 획득하고, 이들 데이터를 활용하여 분석하고, 분석한 결과 해당 이동 경로 상에서 Person A에 해당하는 사용자는 현재 걷기(walking) 상태임을 알 수 있게 된다. Specifically, at time T1, the CCTV (CAM1) captures the image of the user whose user identifier is Person A, and transmits the captured image data to the motion
이후, 시간(T2)에서, CCTV(CAM2)는 시간(T2)에서 촬영된 사용자의 CCTV 영상 데이터를 이동 경로 예측 장치(100)로 전송한다. 이동 경로 예측 장치(100)는 시간(T2)에서 촬영된 영상 데이터로부터 Person A에 해당하는 사용자를 식별하고, 해당 사용자의 개인 휴대 단말의 가속도 센서 데이터를 분석한 결과 해당 이동 경로 상에서 Person A에 해당하는 사용자는 조깅(jogging) 상태임을 알 수 있게 된다. Then, at time T2, CCTV (CAM2) transmits the CCTV image data of the user photographed at time T2 to the movement
이후, 시간(T3)에서, 이동 경로 예측 장치(100)는 시간(T3)에서 CCTV(CAM3)을 통해 촬영된 영상 데이터와 사용자(Person A)의 개인 휴대 단말의 가속도 센서 데이터를 활용하여 분석하고, 분석한 결과 해당 이동 경로 상에서 Person A에 해당하는 사용자는 계단 오르기(ascending) 상태임을 알 수 있게 된다.Subsequently, at time T3, the movement
이후, 시간(T4)에서, 이동 경로 예측 장치(100)는 시간(T4)에서 CCTV(CAM4)를 통해 촬영된 영상 데이터와 사용자(Person A)의 개인 휴대 단말의 가속도 센서 데이터를 활용하여 분석한 결과 해당 이동 경로 상에서 Person A에 해당하는 사용자는 계단 내려오기(descending) 상태임을 알 수 있게 된다. Subsequently, at time T4, the movement
이동 경로 예측 장치(100)는 시간(T1, T2, T3, T4)의 흐름에 따라 분석된 정보를 누적하여 메타데이터로 활용하여, 다가올 시간(예를 들면, T10)에서 사용자(Person A)의 이동 경로 및 이동 경로 상에서 사용자의 행동 패턴(예를 들면, 걷기, 뛰기, 계단 오르기, 계단 내려오기, 멈춤, 쓰러짐 등)을 예측한다. 이러한 예측은 사용자가 다가올 시간(예를 들면, T10)에서 직면할 수 있는 위험 상황(예를 들면, 과거 범죄가 발생한 위험장소 진입, 위험 차량 조우, 위험인물 조우)을 사전에 회피할 수 있도록 함으로써 공공안전 보장 서비스를 실현할 수 있게 한다. The moving
특히, 본 발명의 실시 예에 따른 이동 경로 예측 장치(100)는 CCTV(CAM1, CAM2, CAM3, CAM4)의 영상 데이터 분석을 통해 획득한 영상 메타데이터와 관심 객체의 개인 휴대 단말의 가속도 센서 데이터의 특징 분석을 통해 획득된 행동 패턴 분류 값을 학습 데이터로 사용하여 분석 모델을 학습시키고, 학습된 분석 모델을 이용하여 다가올 시간에 대한 사용자의 이동 경로 및 행동을 예측한다. 분석 모델은 시계열 데이터 분석에 활용되는 딥러닝 기법인 RNN(Recurrent Neural Network), LSTM(Long-Short Term Memory) 등과 같은 다양한 기법이 사용될 수 있다. In particular, the movement
도 2는 본 발명의 실시 예에 따른 관심 객체의 영상 메타데이터를 획득하는 방법을 설명하는 도면이다. 2 is a diagram for explaining a method of obtaining image metadata of an object of interest according to an embodiment of the present invention.
도 2를 참고하면, 이동 경로 예측 장치(100)는 CCTV로부터 영상 데이터를 획득한다(S210). Referring to FIG. 2, the movement
이동 경로 예측 장치(100)는 영상 데이터를 구성하는 프레임별로 객체를 검출한다. 이동 경로 예측 장치(100는 객체를 검출하기 위해 프레임별 영상 데이터로부터 특징 추출 알고리즘을 이용하여 특징을 추출하고(S220), 추출된 특징을 이용하여 객체를 검출할 수 있다(S230). 특징 추출 알고리즘으로는 HOG(Histogram of Oriented Gradients), 하르 유사 특징(Haar-like features) 방법 등 기존 영상처리 알고리즘이 사용될 수 있다. 또는 이동 경로 예측 장치(100)는 객체를 검출하기 위해 딥러닝을 활용한 객체 추출 분석 기법을 이용할 수 있다. 딥러닝을 활용한 객체 추출 분석 기법으로는 YOLO(You only Look Once)나 빠른-RNN 등이 사용될 수 있다. The motion
이동 경로 예측 장치(100)는 현재 프레임에서 검출된 객체를 분류한 후(S240), 분류된 객체를 각각 이전 프레임에서 검출된 객체와 유사성을 비교하여 관심 객체에 대한 재식별 과정을 수행하고(S250), 재식별을 통해 시간에 따라 관심 객체의 움직임의 변화를 확인한다. The motion
이동 경로 예측 장치(100)는 관심 객체의 재식별을 위해 관심 객체의 상하의를 구분하여 의상에 대한 색상 특징 및/또는 윤곽선에 대한 특징을 비교하여 유사도 점수를 계산하고, 유사도 점수가 일정 점수 이상이면 동일한 객체로 재식별할 수 있다. 예를 들어, 이동 경로 예측 장치(100)는 관심 객체의 재식별을 위해 수학식 1과 같이 관심 객체의 상하의를 구분하여 의상에 대한 색상 특징을 비교하여 색상 유사도 점수를 계산하고, 색상 유사도 점수가 일정 점수 이상이면 동일한 객체로 재식별할 수 있다.The motion
구체적으로, 유사도 점수는 수학식 2와 같이 계산될 수 있다. Specifically, the similarity score can be calculated as in
수학식 2에서, B, G, R은 각각 청색, 녹색, 적색을 나타낸다. B11, G11, R11은 각각 사용자 1의 상의에 대한 청색, 녹색, 적색을 나타내고, B12, G12, R12는 각각 사용자 2의 상의에 대한 청색, 녹색, 적색을 나타낸다. B21, G21, R21은 각각 사용자 1의 하의에 대한 청색, 녹색, 적색을 나타내고, B22, G22, R22는 각각 사용자 2의 하의에 대한 청색, 녹색, 적색을 나타낸다. In
한편, 영상 데이터를 생성하는 CCTV와 센서 데이터를 생성하는 개인 휴대 단말은 서로 다른 장치이며 각각 독립적으로 동작하기 때문에 CCTV에서 생성되는 영상 데이터와 개인 휴대 단말에서 센서 데이터간 시간적 동기화 정보가 없다. 영상 데이터와 센서 데이터가 비동기화된 상태로 학습이 진행되면, 학습 과정에서 특징을 융합하는 문제를 해결해야 하고, 분석 모델이 학습되더라도 예측 결과를 획득하는 과정에서 시간에 따른 정확도에 오차가 발생한다. 따라서 이러한 문제를 해결하기 위해 영상 데이터와 센서 데이터를 동기화시키는 방법에 대해 도 3 내지 도 5를 참고로 하여 설명한다. On the other hand, there is no temporal synchronization information between the video data generated in CCTV and the sensor data in the personal portable terminal because the CCTV for generating video data and the personal portable terminal for generating sensor data are different devices and operate independently. If the image data and the sensor data are asynchronously trained, it is necessary to solve the problem of fusion of features in the learning process, and even if the analysis model is trained, an error occurs in accuracy over time in the process of obtaining prediction results. . Therefore, a method of synchronizing image data and sensor data to solve this problem will be described with reference to FIGS. 3 to 5.
도 3은 본 발명의 실시 예에 따른 관심 객체의 센서 메타데이터를 획득하는 방법을 설명하는 도면이다. 3 is a diagram illustrating a method of obtaining sensor metadata of an object of interest according to an embodiment of the present invention.
도 3을 참고하면, 사용자 A와 사용자 B는 시간(T1, T2, T3)에 따라 행동 패턴이 달라진다. 이동 경로 예측 장치(100)는 시간(T3)에서 발생 가능한 사용자 A와 사용자 B의 행동 패턴을 시간(T1, T2)을 통해 분석된 메타데이터를 과거 데이터로 활용하여 예측한다. Referring to FIG. 3, user A and user B have different behavior patterns according to time T1, T2, and T3. The motion
즉 시간(T1)에서 센서 데이터 분석 모델에 따라 사용자 A 및 사용자 B가 각각 넘어짐(Fall), 멈춤(Still), 뛰기(Run) 중에 하나의 행동으로 판단된다고 할 때, 분석된 결과 값이 센서 메타데이터로 사용된다. 이 결과 값은 도 2에서 분석되어 획득된 영상 메타데이터와 결합되고, 시간 정보를 기준으로 영상 메타데이터와 센서 메타데이터간 관계를 매핑함으로써, 사용자 A와 사용자 B의 이동경로에 따른 행동 패턴 예측을 위한 학습 데이터로 활용될 수 있다.That is, at time T1, when user A and user B are judged to be one of the following actions: fall, stop, and run according to the sensor data analysis model, the analyzed result value is the sensor meta. Used as data. This result value is combined with the image metadata obtained by analyzing in FIG. 2 and mapping the relationship between the image metadata and the sensor metadata based on the time information, thereby predicting the behavior pattern according to the movement paths of the user A and the user B. It can be used as learning data for.
도 4는 본 발명의 실시 예에 따른 영상 메타데이터와 센서 메타데이터를 시간적으로 매핑하여 학습 데이터로 활용하는 방법을 설명하는 도면이다.FIG. 4 is a diagram illustrating a method of temporally mapping image metadata and sensor metadata according to an embodiment of the present invention and using it as learning data.
도 4를 참고하면, 학습을 위한 입력 데이터(401)가 분석 모델(405)에 입력된다. Referring to FIG. 4,
학습을 위한 입력 데이터(401)는 프레임 번호(frame_number), 사용자 식별자(uer_id), 시간 정보(timestamp), 해당 시간 정보에서 영상 내 객체의 x 좌표값(x_value), 해당 시간 정보에서 영상 내 객체의 y 좌표값(y_value), 행동 패턴 분류 값(activity)을 포함할 수 있다. The
이와 같이 구성된 학습 데이터(401)가 분석 모델(405)에 입력되어 분석 모델(401)이 학습된다. 학습된 분석 모델(405)은 학습 데이터와 유사한 또는 동일한 형태의 테스트 데이터를 입력 받으면, 가까운 미래의 예측 결과 값(403)을 출력한다. The learning
시간 정보를 기준으로 영상 메타데이터와 센서 메타데이터의 융합된 형태로 학습 데이터를 생성하기 위해 이동 경로 예측 장치는 도 5와 같이 동작한다.The motion path prediction apparatus operates as shown in FIG. 5 to generate learning data in a fused form of image metadata and sensor metadata based on time information.
도 5는 본 발명의 실시 예에 따른 영상 메타데이터와 센서 메타데이터를 시간 정보에 따라 동기화하는 방법을 나타낸 흐름도이다.5 is a flowchart illustrating a method of synchronizing image metadata and sensor metadata according to time information according to an embodiment of the present invention.
도 5를 참고하면, 이동 경로 예측 장치(100)는 사용자 식별자와 사용자 영상의 특징에 대한 매칭 정보를 생성한다(S502). 예를 들어, 이동 경로 예측 장치(100)는 사용자의 개인 휴대 단말 번호와 사용자의 의상 정보(색상, 형태)를 특징으로 매칭 정보를 생성하여 저장하고, 이때 사용자의 개인 휴대 단말 번호를 사용자 식별자로 사용하여, 매칭 정보를 저장할 수 있다. Referring to FIG. 5, the motion
이후, 이동 경로 예측 장치(100)는 CCTV로부터 녹화된 CCTV 영상 데이터 및 사용자의 개인 휴대 단말로부터 센서 데이터를 획득한다(S504). 이동 경로 예측 장치(100)는 물리적으로 독립적인 장치인 CCTV와 개인 휴대 단말로부터 각각 동일한 장소에서의 영상 데이터와 센서 데이터를 수집한다. Thereafter, the movement
이동 경로 예측 장치(100)는 CCTV 영상 데이터와 센서 데이터 간의 시간 관계 정보를 파악하기 위해서 각각 시스템 타이머를 동작시킨다. 이동 경로 예측 장치(100)는 CCTV 영상 데이터에서 관심 객체를 추출하기 위해 필요한 시간을 체크하기 위한 CCTV 영상 분석 타이머(timer1)를 설정하고(S506), CCTV 영상 데이터의 첫 번째 프레임부터 마지막 프레임까지 순차적으로 영상 데이터를 분석하여 객체를 검출한다. The motion
이동 경로 예측 장치(100)는 CCTV 영상 분석 타이머(timer1)의 시간 구간에서 발생한 센서 데이터가 있는지 확인한다(S508). The movement
이동 경로 예측 장치(100)는 CCTV 영상 분석 타이머(timer1)의 시간 구간 동안 CCTV 영상 데이터의 첫 번째 프레임부터 마지막 프레임까지 영상을 분석하는 과정에서 관련 사용자의 센서 데이터가 수집되는 경우, 센서 데이터 수집에 대한 시간을 체크하기 위한 센서 타이머(timer2)를 설정한다(S510). When the sensor data of the related user is collected in the process of analyzing the image from the first frame to the last frame of the CCTV image data during the time interval of the CCTV image analysis timer (timer1), the movement
이동 경로 예측 장치(100)는 CCTV 영상 분석 타이머(timer1)의 시간 구간 동안 입력되는 센서 데이터가 없고, 입력된 영상 데이터의 마지막 프레임까지 객체 분석이 완료되었다면(S512), 프레임별로 분석된 객체들간의 유사도를 계산한다(S514). 유사도 점수는 전술한 바와 같이 이전 프레임에서 추출된 객체와 현재 프레임에서 추출된 객체 간의 윤곽선에 대한 특징 및/또는 상하의 의상에 대한 색상 값을 토대로 계산될 수 있다. If there is no sensor data input during the time interval of the CCTV video analysis timer (timer1), and the object analysis is completed until the last frame of the input video data (S512), the motion
이동 경로 예측 장치(100)는 유사도가 일정값(예를 들면, 80%)을 넘으면 해당 객체가 동일한 사용자인 것으로 판단하고, 해당 객체에 동일한 사용자 식별자를 부여한다(S516). When the similarity degree exceeds a certain value (for example, 80%), the motion
다음, 이동 경로 예측 장치(100)는 사용자 식별자에 매칭된 사용자 영상의 특징 정보와 유사한 객체에 대해 매칭된 사용자의 사용자 식별자로 구분(tagging)한다(S518). Next, the motion
이동 경로 예측 장치(100)는 이런 과정을 거쳐서 CCTV 영상 데이터로부터 객체를 인식하고 객체를 재식별한다(S502~S508, S512~S518). The moving
한편, 이동 경로 예측 장치(100)는 CCTV 영상 분석 타이머(timer1)의 시간 구간 동안 수집되는 센서 데이터가 존재한다면(S508), 이 센서 데이터를 통해 행동 패턴을 분석하여, 학습 데이터로 사용하기 위한 과정을 수행한다. 구체적으로, 이동 경로 예측 장치(100)는 센서 타이머(timer2)의 시간 정보(timestamp)를 기록하고 시간 정보(timestamp)를 기준으로 센서 데이터의 x, y, 및 z축의 값을 분리하고, 행동 패턴을 분류하는 분석 모델을 통해 분석된 행동 패턴 값을 사용자 식별자별로 시간 정보(timestamp)와 함께 기록한다(S520, S522). Meanwhile, if the sensor data collected during the time interval of the CCTV image analysis timer (timer1) exists (S508), the movement
이동 경로 예측 장치(100)는 사용자 식별자에 따라 영상 데이터 내 객체의 좌표 정보와 행동 패턴 정보를 이용하여 학습 데이터를 생성한다(S524). The motion
이와 같이, 본 발명의 실시 예에 따른 이동 경로 예측 장치(100)는 CCTV 영상 데이터로부터 객체를 인식하고 객체를 재식별하고, 개인 휴대 단말로부터 획득되는 센서 데이터를 통해 해당 객체의 행동 패턴을 분석하여, 학습 데이터를 확보한다. As described above, the movement
이동 경로 예측 장치(100)는 학습 데이터를 분석 모델에 입력하여 분석 모델을 학습시킨다. The moving
이런 방법으로 학습된 분석 모델은 학습 데이터와 유사한 형태의 데이터를 입력 받으면, 가까운 미래에 해당하는 객체의 좌표 정보와 행동 패턴 정보를 출력함으로써, 해당 사용자의 이동 경로 및 행동을 예측할 수 있도록 한다. When an analysis model learned in this way receives data in a form similar to the learning data, it outputs coordinate information and behavior pattern information of an object corresponding to the near future, thereby predicting the movement path and behavior of the user.
도 6은 본 발명의 실시 예에 따른 이동 경로 예측 장치를 나타낸 도면이다.6 is a diagram illustrating an apparatus for predicting a moving path according to an embodiment of the present invention.
도 6을 참고하면, 이동 경로 예측 장치(600)는 프로세서(610), 메모리(620), 저장 장치(630) 및 입출력(input/output, I/O) 인터페이스(640)를 포함한다. Referring to FIG. 6, the motion
프로세서(610)는 중앙 처리 유닛(central processing unit, CPU)이나 기타 칩셋, 마이크로프로세서 등으로 구현될 수 있다.The
메모리(620)는 동적 랜덤 액세스 메모리(dynamic random access memory, DRAM), 램버스 DRAM(rambus DRAM, RDRAM), 동기식 DRAM(synchronous DRAM, SDRAM), 정적 RAM(static RAM, SRAM) 등의 RAM과 같은 매체로 구현될 수 있다. The
저장 장치(630)는 하드 디스크(hard disk), CD-ROM(compact disk read only memory), CD-RW(CD rewritable), DVD-ROM(digital video disk ROM), DVD-RAM, DVD-RW 디스크, 블루레이(blu-ray) 디스크 등의 광학 디스크, 플래시 메모리, 다양한 형태의 RAM과 같은 영구 또는 휘발성 저장 장치로 구현될 수 있다. The
I/O 인터페이스(640)는 프로세서(610) 및/또는 메모리(620)가 저장 장치(630)에 접근할 수 있도록 한다. 또한 I/O 인터페이스(640)는 사용자와 인터페이스를 제공할 수 있다. I/
프로세서(610)는 도 1 내지 도 5에서 설명한 이동 경로 예측을 위한 학습 데이터 생성, 학습 및 이동 경로 예측 기능을 수행할 수 있으며, 학습 데이터 생성, 학습 및 이동 경로 예측 기능을 구현하기 위한 프로그램 명령을 메모리(620)에 로드시켜, 도 1 내지 도 5를 참고로 하여 설명한 동작이 수행되도록 제어할 수 있다. 그리고 이러한 프로그램 명령은 저장 장치(630)에 저장되어 있을 수 있으며, 또는 네트워크로 연결되어 있는 다른 시스템에 저장되어 있을 수 있다. The
이상에서 본 발명의 실시 예에 대하여 상세하게 설명하였지만 본 발명의 권리 범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리 범위에 속하는 것이다. Although the embodiments of the present invention have been described in detail above, the scope of rights of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concept of the present invention defined in the following claims are also provided. It belongs to the scope of rights.
Claims (1)
영상 데이터에서 객체를 추출하여 상기 관심 객체를 식별하는 단계,
상기 관심 객체의 개인 휴대 단말로부터 획득되는 센서 데이터로부터 상기 관심 객체의 행동 정보를 추출하는 단계,
상기 센서 데이터로부터 획득된 상기 관심 객체의 행동 정보를 상기 영상 데이터로부터 식별된 상기 관심 객체와 시간 정보에 따라 동기화시켜 분석 모델의 학습 데이터로 생성하는 단계, 그리고
입력 데이터가 상기 분석 모델에 입력되면, 상기 분석 모델의 출력을 통해 상기 관심 객체의 이동 경로 및 행동 정보를 예측하는 단계
를 포함하는 이동 경로 예측 방법.A method for predicting a moving path of an object of interest in the moving path prediction apparatus,
Identifying the object of interest by extracting an object from image data,
Extracting behavior information of the object of interest from sensor data obtained from the personal portable terminal of the object of interest;
Synchronizing action information of the object of interest obtained from the sensor data according to time information with the object of interest identified from the image data to generate learning data of the analysis model; and
When input data is input to the analysis model, predicting a movement path and behavior information of the object of interest through the output of the analysis model
Moving path prediction method comprising a.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20180147846 | 2018-11-26 | ||
KR1020180147846 | 2018-11-26 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200062065A true KR20200062065A (en) | 2020-06-03 |
KR102475752B1 KR102475752B1 (en) | 2022-12-08 |
Family
ID=71087511
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190153289A KR102475752B1 (en) | 2018-11-26 | 2019-11-26 | Method and apparatus for prodicting moving path |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102475752B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220089205A (en) | 2020-12-21 | 2022-06-28 | 한화시스템 주식회사 | Trajectories embedding method for deep learning and route prediction method using the same |
KR102430033B1 (en) * | 2021-12-21 | 2022-08-05 | 주식회사 코난테크놀로지 | Method for detecting object and apparatus thereof |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150078757A (en) * | 2013-12-31 | 2015-07-08 | 주식회사 케이티 | Method for controlling device, method for predicting moving route of device, computing device and computer-readable medium |
KR20160141152A (en) * | 2015-05-28 | 2016-12-08 | (주)에프엠커뮤니케이션즈 | System and method of Multiple object tracking |
KR20170094022A (en) * | 2016-02-05 | 2017-08-17 | 한국전자통신연구원 | Apparatus for searching object trajectories in video clips captured by static cameras |
KR101866338B1 (en) * | 2017-01-23 | 2018-06-11 | 광주과학기술원 | A method for tracking for multi-object through relational appearance features and motion patterns, and a computer readable storage medium thereof |
-
2019
- 2019-11-26 KR KR1020190153289A patent/KR102475752B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150078757A (en) * | 2013-12-31 | 2015-07-08 | 주식회사 케이티 | Method for controlling device, method for predicting moving route of device, computing device and computer-readable medium |
KR20160141152A (en) * | 2015-05-28 | 2016-12-08 | (주)에프엠커뮤니케이션즈 | System and method of Multiple object tracking |
KR20170094022A (en) * | 2016-02-05 | 2017-08-17 | 한국전자통신연구원 | Apparatus for searching object trajectories in video clips captured by static cameras |
KR101866338B1 (en) * | 2017-01-23 | 2018-06-11 | 광주과학기술원 | A method for tracking for multi-object through relational appearance features and motion patterns, and a computer readable storage medium thereof |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220089205A (en) | 2020-12-21 | 2022-06-28 | 한화시스템 주식회사 | Trajectories embedding method for deep learning and route prediction method using the same |
KR102430033B1 (en) * | 2021-12-21 | 2022-08-05 | 주식회사 코난테크놀로지 | Method for detecting object and apparatus thereof |
Also Published As
Publication number | Publication date |
---|---|
KR102475752B1 (en) | 2022-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7317919B2 (en) | Appearance search system and method | |
De Geest et al. | Online action detection | |
JP6018674B2 (en) | System and method for subject re-identification | |
Khan et al. | Analyzing crowd behavior in naturalistic conditions: Identifying sources and sinks and characterizing main flows | |
CN109829382B (en) | Abnormal target early warning tracking system and method based on intelligent behavior characteristic analysis | |
US8266174B2 (en) | Behavior history retrieval apparatus and behavior history retrieval method | |
JP2006133946A (en) | Moving object recognition device | |
Anishchenko | Machine learning in video surveillance for fall detection | |
KR20200119391A (en) | Apparatus and method for recognizing activity and detecting activity duration in video | |
KR102475752B1 (en) | Method and apparatus for prodicting moving path | |
KR20110035662A (en) | Intelligent image search method and system using surveillance camera | |
KR101979375B1 (en) | Method of predicting object behavior of surveillance video | |
Balazia et al. | You are how you walk: Uncooperative MoCap gait identification for video surveillance with incomplete and noisy data | |
De Silva | Audiovisual sensing of human movements for home-care and security in a smart environment | |
Baba et al. | Stray dogs behavior detection in urban area video surveillance streams | |
KR102016262B1 (en) | Image processing method and system for smoky environment | |
Park et al. | Intensity classification background model based on the tracing scheme for deep learning based CCTV pedestrian detection | |
WO2022228325A1 (en) | Behavior detection method, electronic device, and computer readable storage medium | |
JP2022062675A (en) | Method and apparatus for people flow analysis using similar-image search | |
KR20210108018A (en) | Method and apparatus for mapping objects besed on movement path | |
Chandran et al. | A PTZ camera based people-occupancy estimation system (PCBPOES) | |
Doulamis et al. | An architecture for a self configurable video supervision | |
US20230386185A1 (en) | Statistical model-based false detection removal algorithm from images | |
KR101482970B1 (en) | A system and method for human action recognition in still images using action poselets and a two-layer classification model | |
Le et al. | Real-time abnormal events detection combining motion templates and object localization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |