KR102656084B1 - Method and apparatus for mapping objects besed on movement path - Google Patents

Method and apparatus for mapping objects besed on movement path Download PDF

Info

Publication number
KR102656084B1
KR102656084B1 KR1020200022670A KR20200022670A KR102656084B1 KR 102656084 B1 KR102656084 B1 KR 102656084B1 KR 1020200022670 A KR1020200022670 A KR 1020200022670A KR 20200022670 A KR20200022670 A KR 20200022670A KR 102656084 B1 KR102656084 B1 KR 102656084B1
Authority
KR
South Korea
Prior art keywords
movement path
cluster
image
images
mapping
Prior art date
Application number
KR1020200022670A
Other languages
Korean (ko)
Other versions
KR20210108018A (en
Inventor
최범석
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020200022670A priority Critical patent/KR102656084B1/en
Publication of KR20210108018A publication Critical patent/KR20210108018A/en
Application granted granted Critical
Publication of KR102656084B1 publication Critical patent/KR102656084B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

이동경로 기반 객체 매핑 장치는 관심 객체의 이동경로 정보를 획득하고, 상기 이동경로 상의 다수의 카메라로부터 각각 촬영된 적어도 하나의 프레임 영상에서 객체 영역을 추출한 후, 상기 각 카메라에서 추출된 객체 영역의 특징점을 기반으로 동일한 객체를 하나의 클러스터로 분류한다. 그리고 객체별 클러스터 내 객체 영역의 영상들 중에서 상기 이동경로 상의 가장 많은 지점에서 매핑이 되는 객체 영역의 영상을 출력한다. A movement path-based object mapping device acquires movement path information of an object of interest, extracts an object area from at least one frame image each captured by a plurality of cameras on the movement path, and then selects feature points of the object area extracted from each camera. Based on this, identical objects are classified into one cluster. And, among the images of the object area within the cluster for each object, the image of the object area mapped at the most points on the movement path is output.

Description

이동경로 기반 객체 매핑 방법 및 장치{METHOD AND APPARATUS FOR MAPPING OBJECTS BESED ON MOVEMENT PATH}Movement path-based object mapping method and device {METHOD AND APPARATUS FOR MAPPING OBJECTS BESED ON MOVEMENT PATH}

본 발명은 이동경로 기반 객체 매핑 방법 및 장치에 관한 것으로, 자세하게는 객체의 이동경로가 주어졌을 때 CCTV(Closed-circuit television) 영상으로부터 주어진 이동경로에 일치하는 객체를 찾기 위한 이동경로 기반 객체 객체 매핑 방법 및 장치에 관한 것이다.The present invention relates to a movement path-based object mapping method and device, and more specifically, to a movement path-based object mapping method and device for finding an object matching a given movement path from a closed-circuit television (CCTV) image when the movement path of an object is given. It relates to methods and devices.

다중 CCTV(Closed-circuit television) 환경에서 동일한 객체(예를 들면, 사람 또는 차량)를 영상 분석 기술을 통하여 찾는 기술을 재인식[Re-ID(Identification)] 기술이라고 한다. 이때 서로 다른 CCTV 화면에서 같은 객체를 인식하는 것은 CCTV 마다 출력되는 해상도, 랜즈 왜곡, 색상이 다르기 때문에 사람의 능력으로도 쉽지 않다.The technology to find the same object (for example, a person or a vehicle) in a multiple closed-circuit television (CCTV) environment through video analysis technology is called Re-ID (Identification) technology. At this time, recognizing the same object in different CCTV screens is not easy even for human abilities because the resolution, lens distortion, and color output for each CCTV are different.

최근 딥러닝 기술의 한 파트인 Re-ID 기술이 발전하면서 재인식 성능이 높아지고 있다. 그러나 딥러닝 기술로도 분간이 쉽지 않은 경우가 많다. 예를 들어, 어떤 CCTV에는 사람의 앞 모습만 촬영된 반면 다른 CCTV에는 동일인임에도 불구하고 사람의 뒷모습만 촬영될 수 있다. 이때 이 사람이 앞뒤가 비슷한 모양의 옷을 입고 있다면 비교적 쉽게 구분이 되지만, 앞뒤가 전혀 다른 옷을 입고 있다면 서로 다른 사람으로 인식될 확률이 높다. Recently, as Re-ID technology, a part of deep learning technology, has developed, re-recognition performance is increasing. However, there are many cases where it is not easy to distinguish even with deep learning technology. For example, in some CCTVs, only the front of a person is filmed, while in other CCTVs, only the back of a person can be filmed, even though they are the same person. At this time, if this person is wearing clothes that are similar on the front and back, it is relatively easy to distinguish them, but if they are wearing clothes that are completely different on the front and back, there is a high probability that they will be recognized as different people.

Re-ID 기술은 관심 객체에 해당하는 쿼리 이미지를 입력하면 갤러리 이미지들 중에서 동일 객체를 찾는 문제이다. 그러나 쿼리 이미지 없이 특정 객체의 이동경로 정보만이 주어지고 CCTV를 통하여 해당 객체를 인식해야 할 경우가 발생하기도 한다. 예를 들어, 보호 감시가 필요한 사람에게 위치추적 전자장치가 착용된다. 위치추적 전자장치를 착용한 사람이 이동하게 되면 실시간 GPS 정보를 통하여 그 사람의 이동경로를 알 수 있다. 그러나 그 사람이 어떤 행동을 하고 있는지는 단순히 이동경로만을 가지고 알 수가 없다. 이는 CCTV를 통해서만 파악할 수가 있다. 만일 관찰이 필요한 객체의 이동경로 정보만을 가지고도 CCTV를 통하여 동일 객체를 확인할 수 있다면, 범죄가 일어나기 전에 미리 대처를 하여 피해를 줄이거나, 범인의 도주 경로가 예상이 될 때 CCTV를 통하여 빠르게 용의자를 한정할 수 있을 것이다. Re-ID technology is a problem of finding the same object among gallery images by entering a query image corresponding to the object of interest. However, there are cases where only the movement path information of a specific object is given without a query image, and the object must be recognized through CCTV. For example, location tracking electronic devices are worn by people who require protective surveillance. When a person wearing a location tracking electronic device moves, the person's movement path can be known through real-time GPS information. However, it is impossible to know what a person is doing simply by looking at his/her movement path. This can only be detected through CCTV. If the same object can be identified through CCTV with only information on the movement path of the object requiring observation, damage can be reduced by taking action before a crime occurs, or suspects can be quickly identified through CCTV when the criminal's escape route is expected. It may be limited.

본 발명이 해결하려는 과제는 객체의 이동경로 정보를 기반으로 다중 CCTV 환경에서 해당 이동경로와 일치하는 객체를 인식할 수 있는 이동경로 기반 객체 매핑 방법 및 장치를 제공하는 것이다.The problem to be solved by the present invention is to provide a movement path-based object mapping method and device that can recognize objects matching the movement path in a multi-CCTV environment based on the movement path information of the object.

본 발명의 한 실시 예에 따르면, 이동경로 기반 객체 매핑 장치의 이동경로 기반 객체 매핑 방법이 제공된다. 이동경로 기반 객체 매핑 방법은 관심 객체의 이동경로 정보를 획득하는 단계, 상기 이동경로 상의 다수의 카메라로부터 각각 촬영된 적어도 하나의 프레임 영상에서 객체 영역을 추출하는 단계, 상기 각 카메라에서 추출된 객체 영역의 특징점을 기반으로 동일한 객체를 하나의 클러스터로 분류하는 단계, 그리고 객체별 클러스터 내 객체 영역의 영상들 중에서 상기 이동경로 상의 가장 많은 지점에서 매핑이 되는 객체 영역의 영상을 출력하는 단계를 포함한다. According to one embodiment of the present invention, a movement path-based object mapping method of a movement path-based object mapping device is provided. The movement path-based object mapping method includes obtaining movement path information of an object of interest, extracting an object area from at least one frame image each captured by a plurality of cameras on the movement path, and object areas extracted from each camera. It includes the step of classifying the same object into one cluster based on the feature points of , and outputting the image of the object area mapped at the most points on the movement path among the images of the object area within the cluster for each object.

본 발명의 실시 예에 의하면, 객체의 이동경로 정보를 바탕으로 영상에서 해당 객체를 이동경로 정보에 매핑함으로써, 빠른 시간에 이동경로에 일치하는 객체의 찾을 수 있으며, 객체의 추적을 가능하게 한다.According to an embodiment of the present invention, by mapping the object in the image to the movement path information based on the object's movement path information, an object matching the movement path can be found quickly and tracking of the object is possible.

도 1은 본 발명의 실시 예에 따른 이동경로 기반 객체 매핑 개념을 나타낸 도면이다.
도 2는 본 발명의 한 실시 예에 따른 이동경로 기반 객체 매핑 장치를 나타낸 도면이다.
도 3은 도 2에 도시된 인트라 클러스터 생성기가 하나의 CCTV에서 추출한 동일 사람에 대한 클러스터링 결과의 일 예를 나타낸 도면이다.
도 4는 도 2에 도시된 인터 클러스터 생성기가 서로 다른 CCTV에서 추출한 동일 사람에 대한 클러스터링 결과의 일 예를 나타낸 도면이다.
도 5는 본 발명의 실시 예에 따른 이동경로 기반 객체 매핑 방법을 나타낸 흐름도이다.
도 6은 본 발명의 다른 실시 예에 따른 이동경로 기반 객체 매핑 장치를 개략적인 도면이다.
Figure 1 is a diagram showing the concept of object mapping based on a movement path according to an embodiment of the present invention.
Figure 2 is a diagram showing a movement path-based object mapping device according to an embodiment of the present invention.
FIG. 3 is a diagram showing an example of a clustering result for the same person extracted from one CCTV by the intra-cluster generator shown in FIG. 2.
FIG. 4 is a diagram showing an example of clustering results for the same person extracted from different CCTVs by the inter-cluster generator shown in FIG. 2.
Figure 5 is a flowchart showing a movement path-based object mapping method according to an embodiment of the present invention.
Figure 6 is a schematic diagram of a movement path-based object mapping device according to another embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Below, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present invention in the drawings, parts that are not related to the description are omitted, and similar parts are given similar reference numerals throughout the specification.

명세서 및 청구범위 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification and claims, when a part is said to “include” a certain component, this means that it may further include other components rather than excluding other components, unless specifically stated to the contrary.

이제 본 발명의 실시 예에 따른 이동경로 기반 객체 매핑 방법 및 장치에 대하여 도면을 참고로 하여 상세하게 설명한다.Now, the movement path-based object mapping method and device according to an embodiment of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 실시 예에 따른 이동경로 기반 객체 매핑 개념을 나타낸 도면이다.Figure 1 is a diagram showing the concept of object mapping based on a movement path according to an embodiment of the present invention.

도 1을 참고하면, 이동경로 기반 객체 매핑 장치(100)는 사람 또는 차량(이하, "관심 객체"라 함)의 이동경로 정보를 획득한다. 이동경로 기반 객체 매핑 장치는 관심 객체가 소지하고 있는(또는 객체에 장착된) 위치추적 전자장치로부터의 위치 정보로부터 이동경로 정보를 획득할 수 있다. Referring to FIG. 1, the movement path-based object mapping device 100 acquires movement path information of a person or vehicle (hereinafter referred to as “object of interest”). A movement path-based object mapping device can obtain movement path information from location information from a location tracking electronic device possessed by the object of interest (or mounted on the object).

이동경로 기반 객체 매핑 장치(100)는 관심 객체의 이동경로에 위치한 다수의 CCTV들(10a, 10b, 10c, 10d)로부터 촬영된 영상을 입력 받고, 입력 받은 영상의 분석을 통해 가장 많은 CCTV(10a, 10b, 10c, 10d)에 동일하게 나타난 객체를 알려준다. 이동경로 기반 객체 매핑 장치(100)는 영상 분석을 통하여 이동경로 상의 각 CCTV(10a, 10b, 10c, 10d)에서 등장한 객체들을 이동경로 상에 매핑하고, 주어진 이동경로 상에서 가장 많이 매핑된 객체를 검출할 수 있다. 도 1에서는 편의상 이동경로 상의 각 CCTV(10a, 10b, 10c, 10d)에서 등장한 각기 다른 객체들을 다른 모양으로 표현하였다. The movement path-based object mapping device 100 receives images captured from a plurality of CCTVs (10a, 10b, 10c, 10d) located on the movement path of the object of interest, and analyzes the input images to determine the number of CCTVs (10a). , 10b, 10c, and 10d). The movement path-based object mapping device 100 maps objects appearing in each CCTV (10a, 10b, 10c, 10d) on the movement path through image analysis, and detects the most mapped object on the given movement path. can do. In Figure 1, for convenience, different objects appearing in each CCTV (10a, 10b, 10c, 10d) on the movement path are expressed in different shapes.

도 2는 본 발명의 한 실시 예에 따른 이동경로 기반 객체 매핑 장치를 나타낸 도면이다. Figure 2 is a diagram showing a movement path-based object mapping device according to an embodiment of the present invention.

도 2를 참고하면, 이동경로 기반 객체 매핑 장치(100)는 프레임 추출기(110), 객체 탐지기(120), 객체 재인식 특징점 추출기(130), 객체 이미지 저장부(140), 인트라 클러스터 생성기(150), 인트라 클러스터 결과 저장부(160), 인터 클러스터 생성기(170), 인터 클러스터 결과 저장부(180) 및 이동경로 매핑부(190)를 포함한다. Referring to FIG. 2, the movement path-based object mapping device 100 includes a frame extractor 110, an object detector 120, an object recognition feature point extractor 130, an object image storage unit 140, and an intra cluster generator 150. , It includes an intra-cluster result storage unit 160, an inter-cluster generator 170, an inter-cluster result storage unit 180, and a movement path mapping unit 190.

다수의 CCTV의 동영상은 프레임 추출기(110)로 입력된다. Videos from multiple CCTVs are input to the frame extractor 110.

프레임 추출기(110)는 각 CCTV의 동영상을 샘플링하여 프레임 영상을 추출한다. 일반적으로 동영상은 초당 30 프레임의 영상을 사용한다. 프레임 추출기(110)는 초당 30 프레임 영상을 모두 추출할 수도 있지만, 영상 분석의 오버헤드를 고려하여 초당 1~2 프레임으로 한정하여 추출할 수도 있다. 추출된 영상은 객체 탐지기(120)로 전달된다. The frame extractor 110 extracts a frame image by sampling the video of each CCTV. Typically, video uses 30 frames per second. The frame extractor 110 may extract all 30 frames per second of images, but may be limited to 1 to 2 frames per second in consideration of the overhead of image analysis. The extracted image is transmitted to the object detector 120.

객체 탐지기(120)는 프레임 추출기(110)로부터 추출된 프레임 영상으로부터 객체 영역을 추출하고, 추출된 객체 영역을 객체 재인식 특징점 추출기(130)로 전달한다. 객체 영역의 영상은 해당 영상을 획득한 CCTV의 위치 정보를 포함할 수 있다. 객체 탐지기(120)는 객체를 포함하는 대량의 영상에서 객체의 위치정보를 반복적으로 학습하는 딥러닝 모델을 이용하여 객체 영역을 추출할 수 있다. 객체 탐지기(120)는 YOLO(You only Look Once) 또는 SSD(Single Shot Detector) 모델을 사용할 수 있으나 이에 한정되지 않는다.The object detector 120 extracts an object area from the frame image extracted from the frame extractor 110 and transmits the extracted object area to the object recognition feature point extractor 130. The image of the object area may include location information of the CCTV that acquired the image. The object detector 120 can extract the object area using a deep learning model that repeatedly learns the location information of objects from a large amount of images containing objects. The object detector 120 may use a YOLO (You only Look Once) or SSD (Single Shot Detector) model, but is not limited thereto.

객체 재인식 특징점 추출기(130)는 각 CCTV에서 서로 다른 프레임 영상의 객체 영역으로부터 검출되는 두 객체가 동일한 객체인지 검출한다. 객체 재인식 특징점 추출기(130)는 각 프레임 영상의 객체 영역의 영상에 포함된 CCTV 위치 정보로부터 동일한 CCTV의 서로 다른 프레임 영상인지 확인할 수 있다. 객체 재인식 특징점 추출기(130)는 하나의 CCTV에 녹화된 연속 프레임으로부터 추출된 객체들의 특징점을 기반으로 연속 프레임으로부터 추출된 객체가 동일한 객체인지 검출한다. CCTV별 객체 영역의 영상은 객체 이미지 저장부(140)에 저장된다. 객체 재인식 특징점 추출기(130)는 동일한 객체인지 검출하기 위해 딥러닝 모델을 이용할 수 있다. 객체 재인식 특징점 추출기(130)의 딥러닝 모델은 다수의 같은 객체 영상과 다수의 다른 객체 영상을 이용하여 같은 객체인지 다른 객체인지 학습함으로써, 두 개의 객체 영상이 입력되었을 때 같은 객체인지 다른 객체인지를 예측하여 출력한다. 객체 재인식 특징점 추출기(130)는 레즈넷(ResNet) 모델을 사용할 수 있으나 이에 한정되지 않는다.The object recognition feature point extractor 130 detects whether two objects detected from object areas of different frame images in each CCTV are the same object. The object recognition feature point extractor 130 can check whether different frame images of the same CCTV are obtained from CCTV location information included in the image of the object area of each frame image. The object recognition feature point extractor 130 detects whether the object extracted from the consecutive frames is the same object based on the feature points of the objects extracted from the consecutive frames recorded in one CCTV. Images of the object area for each CCTV are stored in the object image storage unit 140. The object recognition feature point extractor 130 may use a deep learning model to detect whether the object is the same. The deep learning model of the object recognition feature point extractor 130 uses multiple images of the same object and multiple images of different objects to learn whether it is the same object or different objects, so that when two object images are input, it determines whether they are the same object or different objects. Predict and output. The object recognition feature point extractor 130 may use the ResNet model, but is not limited to this.

본 발명의 실시 예에 따르면, 객체 탐지기(120)는 차량 탐지기(122)와 사람 탐지기(124)로 구성될 수 있다. 객체 재인식 특징점 추출기(130)는 차량 재인식 특징점 추출기(132)와 사람 재인식 특징점 추출기(134)로 구성될 수 있다. 또한 객체 이미지 저장부(140)는 차량 이미지 저장부(142)와 사람 이미지 저장부(144)로 구성될 수 있다. 일반적으로 찾고자 하는 관심 객체는 차량이나 사람이 대부분이므로, 본 발명의 실시 예에서는 찾고자 하는 객체를 차량이나 사람으로 한정하여 설명하지만, 관심 객체가 차량이나 사람이 아닌 경우, 관심 객체 대상에 따라 객체 탐지기(120), 객체 재인식 특징점 추출기(130) 및 객체 이미지 저장부(140)의 구성이 달라질 수 있다.According to an embodiment of the present invention, the object detector 120 may be composed of a vehicle detector 122 and a person detector 124. The object recognition feature point extractor 130 may be composed of a vehicle recognition feature point extractor 132 and a person recognition feature point extractor 134. Additionally, the object image storage unit 140 may be comprised of a vehicle image storage unit 142 and a person image storage unit 144. In general, most objects of interest to be found are vehicles or people, so in the embodiment of the present invention, the description is limited to the object to be found as a vehicle or person. However, if the object of interest is not a vehicle or a person, an object detector is used according to the object of interest. (120), the configuration of the object recognition feature point extractor 130 and the object image storage unit 140 may vary.

차량 탐지기(122)는 프레임 영상으로부터 차량 영역을 추출한다. 사람 탐지기(124)는 프레임 영상으로부터 사람 영역을 추출한다. CCTV별 추출된 차량 영역 정보 또는 CCTV별 추출된 사람 영역 정보는 각각 차량 재인식 특징점 추출기(132)와 사람 재인식 특징점 추출기(134)로 전달된다. 차량 재인식 특징점 추출기(132)는 서로 다른 프레임 영상의 차량 영역으로부터 동일한 차량인지 검출한다. 사람 재인식 특징점 추출기(134)는 서로 다른 프레임 영상의 사람 영역으로부터 동일한 사람인지 검출한다. CCTV별 추출된 차량 영역 정보는 차량 이미지 저장부(142)에 저장된다. CCTV별 추출된 사람 영역 정보는 사람 이미지 저장부(144)에 저장된다.The vehicle detector 122 extracts the vehicle area from the frame image. The person detector 124 extracts the person area from the frame image. The vehicle area information extracted for each CCTV or the person area information extracted for each CCTV is transmitted to the vehicle recognition feature point extractor 132 and the person recognition feature point extractor 134, respectively. The vehicle re-recognition feature point extractor 132 detects whether the vehicle is the same from vehicle areas of different frame images. The person recognition feature point extractor 134 detects whether the person is the same person from the person area of different frame images. Vehicle area information extracted for each CCTV is stored in the vehicle image storage unit 142. The person area information extracted for each CCTV is stored in the person image storage unit 144.

인트라 클러스터 생성기(150)는 CCTV별로 연속된 프레임 상에서 나타나는 동일한 객체들을 하나의 클러스터로 분류한다. 분류 결과는 인트라 클러스터 결과 저장부(160)에 CCTV별로 클러스터 대표 이미지들로 저장된다. CCTV별 클러스터링을 수행하면, CCTV별로 동일한 객체들이 군집 형태의 그룹을 형성하게 된다. 그룹을 형성하는 객체들간의 유클리디언 거리를 토대로 중심점이 결정되고, 그 중심점에서 가장 가까운 이미지가 해당 CCTV에서의 클러스터 대표 이미지로 선택될 수 있다. 이러한 방식은 하나의 예이며, 이와 다른 방법을 통해서 중심점이 결정될 수도 있다. CCTV별 클러스터 대표 이미지들은 인터 클러스터 생성기(170)로 전달된다. 일 실시 예에 따르면, 인트라 클러스터 생성기(150)는 K-mean 모델을 사용할 수 있으나 이에 한정되지 않는다. The intra-cluster generator 150 classifies identical objects appearing on consecutive frames for each CCTV into one cluster. The classification results are stored as cluster representative images for each CCTV in the intra-cluster result storage unit 160. When clustering for each CCTV is performed, identical objects for each CCTV form a group in the form of a cluster. The center point is determined based on the Euclidean distance between the objects forming the group, and the image closest to the center point can be selected as the representative image of the cluster in the corresponding CCTV. This method is an example, and the center point may be determined through other methods. Cluster representative images for each CCTV are transmitted to the inter-cluster generator 170. According to one embodiment, the intra cluster generator 150 may use the K-mean model, but is not limited to this.

도 3은 도 2에 도시된 인트라 클러스터 생성기가 하나의 CCTV에서 추출한 동일 사람에 대한 클러스터링 결과의 일 예를 나타낸 도면이다. FIG. 3 is a diagram showing an example of a clustering result for the same person extracted from one CCTV by the intra-cluster generator shown in FIG. 2.

도 3에 도시한 바와 같이, 하나의 CCTV에서 연속된 프레임 상에서 나타나는 동일한 사람들은 하나의 클러스터(C1, C2, C3)로 구분된다. 이때 하나의 CCTV에서 연속된 프레임 상에서 나타나는 동일한 사람들에 대한 클러스터링 결과는 매우 유사한 모양의 객체가 클러스터링 되는 경향이 있다. 이는 연속 프레임에서는 동일 객체의 움직임 차이가 거의 없는 경우가 많기 때문이다. As shown in Figure 3, the same people appearing in consecutive frames in one CCTV are divided into one cluster (C1, C2, C3). At this time, the clustering results for the same people appearing in consecutive frames in one CCTV tend to cluster objects with very similar shapes. This is because there is often little difference in the movement of the same object in consecutive frames.

다시, 도 2를 보면, 인터 클러스터 생성기(170)는 인트라 클러스터 생성기(150)에서 분류된 각 클러스터 대표 이미지들의 특징점을 기반으로 전체 카메라에 대하여 같은 객체를 하나의 클러스터로 분류한다. 분류 결과는 인터 클러스터 결과 저장부(180)에 객체별 클러스터 대표 이미지들로 저장된다. 일실시예에 따르면, 인터 클러스터 생성기(170)는 K-mean 모델을 사용할 수 있으나 이에 제한되지 않는다. Again, looking at FIG. 2, the inter-cluster generator 170 classifies the same object into one cluster for all cameras based on the feature points of representative images of each cluster classified by the intra-cluster generator 150. The classification results are stored as cluster representative images for each object in the inter-cluster result storage unit 180. According to one embodiment, the inter-cluster generator 170 may use a K-mean model, but is not limited thereto.

도 4는 도 2에 도시된 인터 클러스터 생성기가 서로 다른 CCTV에서 추출한 동일 사람에 대한 클러스터링 결과의 일 예를 나타낸 도면이다. FIG. 4 is a diagram showing an example of clustering results for the same person extracted from different CCTVs by the inter-cluster generator shown in FIG. 2.

도 4를 참고하면, 인터 클러스터 생성기(170)는 서로 다른 CCTV의 영상에서 동일한 사람을 하나의 클러스터(C11, C22, C33, C44)로 분류한다. 그런데 카메라간 렌즈 왜곡, 해상도, 촬영 각도, 컬러 등의 차이로 인해서 동일인이 아님에도 동일 클러스터로 분류되거나 반대로 동일인임에도 다른 클러스터로 분류되는 경우가 많다. 예를 들어, 클러스터(C44)의 객체 영역의 영상(400)과 같이 동일인이 아님에도 동일 클러스터(C44)로 분류될 수 있다. 인터 클러스터 생성기(170)는 객체별 클러스터링 결과를 출력할 수 있고, 사용자는 객체별 클러스터링 결과로부터 잘못 분류된 객체를 확인한다. 인터 클러스터 생성기(170)는 사용자에 의해 객체별 클러스터링 결과에서 잘못 분류된 객체를 보정할 수 있다. 구체적으로, 인터 클러스터 생성기(170)는 클러스터별로 분류된 결과를 이미지로 출력하여 사용자에게 제공한다. 사용자는 최종적으로 각 클러스터에서 가장 많이 나타난 객체를 선택할 수 있다. 그러면, 인터 클러스터 생성기(170)는 사용자가 선택한 객체만으로 해당 클러스터를 구성함으로써, 잘못 분류된 객체를 보정할 수 있다. Referring to FIG. 4, the inter-cluster generator 170 classifies the same person in different CCTV images into one cluster (C11, C22, C33, C44). However, due to differences in lens distortion, resolution, shooting angle, color, etc. between cameras, people are often classified into the same cluster even though they are not the same person, or conversely, they are classified into different clusters even though they are the same person. For example, like the image 400 of the object area of the cluster C44, the images 400 may be classified into the same cluster C44 even though they are not the same person. The inter-cluster generator 170 can output clustering results for each object, and the user checks misclassified objects from the clustering results for each object. The inter-cluster generator 170 can correct objects misclassified by the user in the object-specific clustering results. Specifically, the inter-cluster generator 170 outputs the results classified by cluster as an image and provides it to the user. The user can finally select the object that appears most frequently in each cluster. Then, the inter-cluster generator 170 can correct misclassified objects by constructing a corresponding cluster only from objects selected by the user.

다음, 도 2를 보면, 이동경로 매핑부(190)는 관심 객체의 이동경로 정보를 획득하고, 인터 클러스터 생성기(170)에 의해 전체 CCTV에 대하여 분류된 객체별 클러스터 중에서 획득한 이동경로 정보와 가장 많은 지점에서 매핑이 되는 클러스터 대표 이미지를 결정한다. 이동경로 매핑부(190)는 전체 카메라에 대하여 분류된 객체별 클러스터에서 해당 이미지가 추출된 CCTV의 위치 정보를 토대로 객체별 클러스터 내 이미지를 이동경로 정보에 매핑하고, 이동경로 정보 상의 가장 많은 지점에서 매핑이 되는 클러스터의 클러스터 대표 이미지 즉, 객체 영역의 영상을 검출한다. 이동경로 매핑부(190)는 이동경로에 일치하는 객체 영역의 영상을 검출할 수 있다. Next, looking at FIG. 2, the movement path mapping unit 190 acquires the movement path information of the object of interest, and the movement path information and the most Determine a cluster representative image that is mapped at many points. The movement path mapping unit 190 maps the images within each cluster to the movement path information based on the location information of the CCTV from which the corresponding image was extracted from the object cluster classified for all cameras, and maps the images within the movement path information at the most points on the movement path information. The cluster representative image of the mapped cluster, that is, the image of the object area, is detected. The movement path mapping unit 190 can detect an image of an object area that matches the movement path.

또한 이동경로 매핑부(190)는 객체별 클러스터 내 이미지들로부터, 이 이미지를 촬영한 CCTV의 위치 정보를 확인하면, 해당 객체의 이동 경로를 파악할 수도 있다. In addition, the movement path mapping unit 190 can determine the movement path of the object by checking the location information of the CCTV that captured the image from the images in the cluster for each object.

도 5는 본 발명의 실시 예에 따른 이동경로 기반 객체 매핑 방법을 나타낸 흐름도이다.Figure 5 is a flowchart showing a movement path-based object mapping method according to an embodiment of the present invention.

도 5를 참고하면, 이동경로 기반 객체 매핑 장치(100)는 관심 객체의 이동경로 정보를 획득한다(S500).Referring to FIG. 5, the movement path-based object mapping device 100 acquires movement path information of the object of interest (S500).

다수의 CCTV에서 입력되는 동영상을 샘플링하여 프레임 영상을 추출한다(S510). A frame image is extracted by sampling video input from multiple CCTVs (S510).

이동경로 기반 객체 매핑 장치(100)는 각 CCTV에서 추출된 적어도 하나의 프레임 영상에서 객체 영역을 추출한다(S520). The movement path-based object mapping device 100 extracts an object area from at least one frame image extracted from each CCTV (S520).

이동경로 기반 객체 매핑 장치(100)는 1차적으로 동일한 CCTV 내의 적어도 하나의 프레임 영상에서 추출된 객체 영역의 특징점을 기반으로 CCTV별로 동일 객체를 하나의 클러스터로 분류한다(S530). The movement path-based object mapping device 100 primarily classifies the same object into one cluster for each CCTV based on feature points of the object area extracted from at least one frame image within the same CCTV (S530).

다음, 이동경로 기반 객체 매핑 장치(100)는 CCTV별 클러스터 내 객체 영역들에 대하여 전체적으로 동일한 객체를 하나의 클러스터로 재분류한다(S540). Next, the movement path-based object mapping device 100 reclassifies the overall identical objects into one cluster for the object areas within each CCTV cluster (S540).

이동경로 기반 객체 매핑 장치(100)는 객체별 클러스터 내 객체 영역의 영상들을 해당 CCTV 위치 정보를 토대로 이동경로 정보에 매핑시키고(S550), 이동경로 상의 가장 많은 지점에서 매핑이 되는 객체 영역의 영상을 출력한다(S560).The movement path-based object mapping device 100 maps images of the object area within a cluster for each object to movement path information based on the corresponding CCTV location information (S550), and images of the object area mapped at the most points on the movement path are Print out (S560).

이상에서 설명한 본 발명의 실시 예에 따른 이동경로 기반 객체 매핑 방법 및 장치 중 적어도 일부 기능은 하드웨어로 구현되거나 하드웨어에 결합된 소프트웨어로 구현될 수 있다. 아래에서는 이동경로 기반 객체 매핑 방법 및 장치가 컴퓨터 시스템에 결합된 실시 예에 대해서 도 6을 참고로 하여 상세하게 설명한다.At least some functions of the movement path-based object mapping method and device according to the embodiment of the present invention described above may be implemented as hardware or as software combined with hardware. Below, an embodiment in which a movement path-based object mapping method and device are combined with a computer system will be described in detail with reference to FIG. 6.

도 6은 본 발명의 다른 실시 예에 따른 이동경로 기반 객체 매핑 장치를 개략적인 도면으로, 도 1 내지 도 5를 참고하여 설명한 이동경로 기반 객체 매핑 방법 및 장치 중 적어도 일부를 수행하는 데 사용할 수 있는 시스템을 나타낸다.Figure 6 is a schematic diagram of a movement path-based object mapping device according to another embodiment of the present invention, which can be used to perform at least some of the movement path-based object mapping method and device described with reference to Figures 1 to 5 represents the system.

도 6을 참고하면, 이동경로 기반 객체 매핑 장치(600)는 프로세서(610), 메모리(620), 저장 장치(630) 및 입출력(input/output, I/O) 인터페이스(640)를 포함한다. Referring to FIG. 6 , the movement path-based object mapping device 600 includes a processor 610, a memory 620, a storage device 630, and an input/output (I/O) interface 640.

프로세서(610)는 중앙 처리 유닛(central processing unit, CPU)이나 기타 칩셋, 마이크로프로세서 등으로 구현될 수 있다.The processor 610 may be implemented as a central processing unit (CPU), other chipset, microprocessor, etc.

메모리(620)는 동적 랜덤 액세스 메모리(dynamic random access memory, DRAM), 램버스 DRAM(rambus DRAM, RDRAM), 동기식 DRAM(synchronous DRAM, SDRAM), 정적 RAM(static RAM, SRAM) 등의 RAM과 같은 매체로 구현될 수 있다. The memory 620 is a RAM-like medium such as dynamic random access memory (DRAM), rambus DRAM (RDRAM), synchronous DRAM (SDRAM), and static RAM (static RAM, SRAM). It can be implemented as:

저장 장치(630)는 하드 디스크(hard disk), CD-ROM(compact disk read only memory), CD-RW(CD rewritable), DVD-ROM(digital video disk ROM), DVD-RAM, DVD-RW 디스크, 블루레이(blu-ray) 디스크 등의 광학 디스크, 플래시 메모리, 다양한 형태의 RAM과 같은 영구 또는 휘발성 저장 장치로 구현될 수 있다. The storage device 630 may be a hard disk, compact disk read only memory (CD-ROM), CD rewritable (CD-RW), digital video disk ROM (DVD-ROM), DVD-RAM, or DVD-RW disk. , may be implemented as permanent or volatile storage devices such as optical disks such as Blu-ray disks, flash memory, and various types of RAM.

I/O 인터페이스(640)는 프로세서(610) 및/또는 메모리(620)가 저장 장치(630)에 접근할 수 있도록 한다. I/O interface 640 allows processor 610 and/or memory 620 to access storage device 630.

프로세서(610)는 도 1 내지 도 5에서 설명한 이동경로 기반 객체 매핑 방법을 수행할 수 있으며, 프레임 추출기(110), 객체 탐지기(120), 객체 재인식 특징점 추출기(130), 인트라 클러스터 생성기(150), 인터 클러스터 생성기(170) 및 이동경로 매핑부(190)의 적어도 일부 기능을 구현하기 위한 프로그램 명령을 메모리(620)에 로드시켜, 도 1 내지 도 5를 참고로 하여 설명한 동작이 수행되도록 제어할 수 있다. 이러한 프로그램 명령은 저장 장치(630)에 저장되어 있을 수 있으며, 또는 네트워크로 연결되어 있는 다른 시스템에 저장되어 있을 수 있다. The processor 610 can perform the movement path-based object mapping method described in FIGS. 1 to 5, and includes a frame extractor 110, an object detector 120, an object recognition feature point extractor 130, and an intra cluster generator 150. , program instructions for implementing at least some functions of the inter-cluster generator 170 and the movement path mapping unit 190 are loaded into the memory 620 and controlled so that the operations described with reference to FIGS. 1 to 5 are performed. You can. These program commands may be stored in the storage device 630, or may be stored in another system connected to a network.

메모리(620) 또는 저장 장치(630)는 객체 이미지 저장부(140), 인트라 클러스터 결과 저장부(160) 및 인터 클러스터 결과 저장부(180)를 포함할 수 있다. The memory 620 or storage device 630 may include an object image storage unit 140, an intra-cluster result storage unit 160, and an inter-cluster result storage unit 180.

I/O 인터페이스(640)는 사용자 인터페이스를 제공할 수 있다. I/O 인터페이스(640)를 통해 관심 객체의 이동경로 정보 및 CCTV로부터의 영상을 입력 받을 수 있고, 이동경로 상의 가장 많은 지점에서 매핑이 되는 객체 이미지를 출력할 수 있다. I/O interface 640 may provide a user interface. Through the I/O interface 640, information on the movement path of the object of interest and images from CCTV can be input, and an image of the object mapped at the most points on the movement path can be output.

이상에서 본 발명의 실시 예에 대하여 상세하게 설명하였지만 본 발명의 권리 범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리 범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements can be made by those skilled in the art using the basic concept of the present invention defined in the following claims. It falls within the scope of rights.

Claims (9)

이동경로 기반 객체 매핑 장치의 이동경로 기반 객체 매핑 방법으로서,
관심 객체의 이동경로의 정보를 획득하는 단계,
상기 이동경로 상의 다수의 카메라로부터 각각 촬영된 복수의 프레임 영상에서 객체 영역을 추출하는 단계,
상기 다수의 카메라에서 각각 추출된 객체 영역의 특징점을 기반으로 동일한 객체를 하나의 클러스터로 분류하는 단계, 그리고
객체별 클러스터 내 객체 영역의 영상들 중에서 상기 이동경로 상의 가장 많은 지점에서 매핑이 되는 객체 영역의 영상을 출력하는 단계
를 포함하고,
상기 분류하는 단계는, 사용자의 선택을 수신하는 단계, 그리고
상기 사용자의 선택에 대응하는 객체만으로 클러스터를 구성하여 잘못 분류된 객체를 보정하는 단계를 포함하는 이동경로 기반 객체 매핑 방법.
A movement path-based object mapping method of a movement path-based object mapping device,
Obtaining information on the movement path of the object of interest,
Extracting an object area from a plurality of frame images each taken from a plurality of cameras on the movement path,
Classifying the same object into one cluster based on feature points of the object area each extracted from the plurality of cameras, and
Outputting the image of the object area mapped at the most points on the movement path among the images of the object area within the cluster for each object.
Including,
The classifying step includes receiving the user's selection, and
A movement path-based object mapping method comprising correcting misclassified objects by forming a cluster only with objects corresponding to the user's selection.
제1항에서,
상기 출력하는 단계는
상기 객체별 클러스터 내 객체 영역의 영상들을 해당 카메라의 위치 정보를 토대로 상기 이동경로에 매핑시키는 단계, 그리고
상기 이동경로 상의 가장 많은 지점에서 매핑되는 객체 영역의 영상을 검출하는 단계를 포함하는 이동경로 기반 객체 매핑 방법.
In paragraph 1:
The output step is
mapping images of the object area within the cluster for each object to the movement path based on the location information of the corresponding camera; and
A movement path-based object mapping method comprising detecting an image of an object area mapped at the most points on the movement path.
제1항에서,
상기 분류하는 단계는 상기 사용자의 선택 전에,
카메라별로 동일한 객체를 하나의 클러스터로 분류하는 단계,
상기 카메라별로 분류된 각 클러스터에 대하여 클러스터 대표 이미지를 저장하는 단계,
상기 카메라별 각 클러스터의 클러스터 대표 이미지를 이용하여 카메라 전체에 대하여 동일한 객체를 하나의 클러스터로 분류하는 단계, 그리고
상기 카메라 전체에 대하여 객체별 분류된 결과를 출력하는 단계를 더 포함하는 이동경로 기반 객체 매핑 방법.
In paragraph 1:
The classifying step is performed before the user's selection,
Classifying identical objects into one cluster for each camera,
Storing a cluster representative image for each cluster classified by the camera,
Classifying the same object into one cluster for all cameras using the cluster representative image of each cluster for each camera, and
A movement path-based object mapping method further comprising outputting results classified by object for the entire camera.
제1항에서,
상기 분류하는 단계는 클러스터별로 분류된 결과를 이미지로 출력하는 단계를 더 포함하는 이동경로 기반 객체 매핑 방법.
In paragraph 1:
The classifying step further includes outputting the classified results for each cluster as an image.
이동경로 기반 객체 매핑 장치로서,
이동경로 상의 다수의 카메라로부터 각각 촬영된 복수의 프레임 영상에서 객체 영역을 추출하는 객체 탐지기,
관심 객체의 이동경로 정보를 획득하고, 상기 다수의 카메라로부터 추출된 객체 영역의 영상들 중에서 상기 이동경로 상의 가장 많은 지점에서 매핑이 되는 객체 영역의 영상을 출력하는 이동경로 매핑부, 그리고
상기 다수의 카메라에 대하여 동일한 객체를 하나의 클러스터로 분류하고, 객체별 분류 결과를 상기 이동경로 매핑부로 전달하는 인터 클러스터 생성기; 를 포함하고,
상기 인터 클러스터 생성기는 클러스터별 분류 결과를 이미지로 출력하고, 사용자의 선택을 수신하여 상기 사용자의 선택에 대응하는 객체만으로 클러스터를 구성하여 잘못 분류된 객체를 보정하는 이동경로 기반 객체 매핑 장치.
As a movement path-based object mapping device,
An object detector that extracts object areas from multiple frame images each taken from multiple cameras on the movement path,
A movement path mapping unit that obtains movement path information of the object of interest and outputs an image of the object area mapped at the most points on the movement path among the images of the object area extracted from the plurality of cameras, and
an inter-cluster generator that classifies the same object into one cluster for the plurality of cameras and transmits the classification result for each object to the movement path mapping unit; Including,
The inter-cluster generator outputs the classification results for each cluster as an image, receives the user's selection, and configures a cluster with only objects corresponding to the user's selection. A movement path-based object mapping device that corrects misclassified objects.
제5항에서,
상기 다수의 카메라에서 각각 추출된 객체 영역의 특징점을 기반으로 동일한 객체들을 검출하는 객체 재인식 특징점 추출기를 더 포함하는 이동경로 기반 객체 매핑 장치.
In paragraph 5,
A movement path-based object mapping device further comprising an object recognition feature point extractor that detects the same objects based on feature points of object areas each extracted from the plurality of cameras.
제6항에서,
상기 이동경로 매핑부는 상기 객체별 클러스터 내 객체 영역의 영상들을 해당 카메라의 위치 정보를 토대로 상기 이동경로에 매핑시키고, 상기 이동경로 상의 가장 많은 지점에서 매핑되는 객체 영역의 영상을 검출하는 이동경로 기반 객체 매핑 장치.
In paragraph 6:
The movement path mapping unit maps images of the object area within the cluster for each object to the movement path based on the location information of the corresponding camera, and detects images of the object area mapped at the most points on the movement path. Mapping device.
삭제delete 제6항에서,
상기 복수의 프레임 영상에서 각 프레임 영상에 포함된 카메라의 위치 정보로부터 동일한 카메라의 서로 다른 프레임 영상인지 확인하고, 상기 동일한 카메라의 서로 다른 프레임 영상의 객체 영역으로부터 검출되는 객체들이 동일한 객체인지 검출하는 인트라 클러스터 생성기를 더 포함하는 이동경로 기반 객체 매핑 장치.
In paragraph 6:
In the plurality of frame images, it is determined whether each frame image is a different frame image from the same camera based on the position information of the camera included in each frame image, and detects whether objects detected from the object areas of the different frame images of the same camera are the same object. A path-based object mapping device further comprising a cluster generator.
KR1020200022670A 2020-02-25 2020-02-25 Method and apparatus for mapping objects besed on movement path KR102656084B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200022670A KR102656084B1 (en) 2020-02-25 2020-02-25 Method and apparatus for mapping objects besed on movement path

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200022670A KR102656084B1 (en) 2020-02-25 2020-02-25 Method and apparatus for mapping objects besed on movement path

Publications (2)

Publication Number Publication Date
KR20210108018A KR20210108018A (en) 2021-09-02
KR102656084B1 true KR102656084B1 (en) 2024-04-11

Family

ID=77794217

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200022670A KR102656084B1 (en) 2020-02-25 2020-02-25 Method and apparatus for mapping objects besed on movement path

Country Status (1)

Country Link
KR (1) KR102656084B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230160594A (en) * 2022-05-17 2023-11-24 한화비전 주식회사 Method and apparatus for managing information of objects

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015143921A (en) 2014-01-31 2015-08-06 株式会社日立製作所 Image search system, image search apparatus, and image search method
JP6194963B2 (en) * 2014-02-14 2017-09-13 日本電気株式会社 Video processing system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101990789B1 (en) * 2012-10-29 2019-06-19 에스케이 텔레콤주식회사 Method and Apparatus for Searching Object of Interest by Selection of Object
KR20160143108A (en) * 2015-06-04 2016-12-14 에스케이텔레콤 주식회사 Apparatus for Providing Video Synopsis and Computer-Readable Recording Medium with Program therefor
KR102147100B1 (en) * 2018-04-04 2020-08-25 한국과학기술연구원 Method for generatinig video synopsis by identifying target object using plurality of image devices and system for performing the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015143921A (en) 2014-01-31 2015-08-06 株式会社日立製作所 Image search system, image search apparatus, and image search method
JP6194963B2 (en) * 2014-02-14 2017-09-13 日本電気株式会社 Video processing system

Also Published As

Publication number Publication date
KR20210108018A (en) 2021-09-02

Similar Documents

Publication Publication Date Title
JP7317919B2 (en) Appearance search system and method
US20200364443A1 (en) Method for acquiring motion track and device thereof, storage medium, and terminal
Kalra et al. Dronesurf: Benchmark dataset for drone-based face recognition
US9208226B2 (en) Apparatus and method for generating evidence video
US8314854B2 (en) Apparatus and method for image recognition of facial areas in photographic images from a digital camera
US11527000B2 (en) System and method for re-identifying target object based on location information of CCTV and movement information of object
CN111291633B (en) Real-time pedestrian re-identification method and device
JP4642128B2 (en) Image processing method, image processing apparatus and system
CN108009466B (en) Pedestrian detection method and device
US20050013507A1 (en) Apparatus for and method of constructing multi-view face database, and apparatus for and method of generating multi-view face descriptor
KR20170015639A (en) Personal Identification System And Method By Face Recognition In Digital Image
TWI704505B (en) Face recognition system, establishing data method for face recognition, and face recognizing method thereof
KR101372860B1 (en) System for searching video and server for analysing video
KR20220098030A (en) Method for constructing target motion trajectory, device and computer storage medium
Serrano et al. Spatio-temporal elastic cuboid trajectories for efficient fight recognition using Hough forests
KR20170082025A (en) Apparatus and Method for Identifying Video with Copyright using Recognizing Face based on Machine Learning
KR20180001356A (en) Intelligent video surveillance system
KR102656084B1 (en) Method and apparatus for mapping objects besed on movement path
Khan et al. Dimension invariant model for human head detection
KR101547255B1 (en) Object-based Searching Method for Intelligent Surveillance System
JP2024045460A (en) Information processing system, information processing device, information processing method, and program
CN113657250A (en) Flame detection method and system based on monitoring video
KR102475752B1 (en) Method and apparatus for prodicting moving path
Raghavendra et al. A novel image fusion scheme for robust multiple face recognition with light-field camera
KR20210055567A (en) Positioning system and the method thereof using similarity-analysis of image

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right