KR20190068000A - Person Re-identification System in Multiple Camera Environments - Google Patents
Person Re-identification System in Multiple Camera Environments Download PDFInfo
- Publication number
- KR20190068000A KR20190068000A KR1020170167945A KR20170167945A KR20190068000A KR 20190068000 A KR20190068000 A KR 20190068000A KR 1020170167945 A KR1020170167945 A KR 1020170167945A KR 20170167945 A KR20170167945 A KR 20170167945A KR 20190068000 A KR20190068000 A KR 20190068000A
- Authority
- KR
- South Korea
- Prior art keywords
- person
- image
- same
- identifying
- feature points
- Prior art date
Links
- 238000000034 method Methods 0.000 claims abstract description 18
- 238000013136 deep learning model Methods 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 7
- 238000013135 deep learning Methods 0.000 claims description 4
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 2
- 230000007423 decrease Effects 0.000 claims 1
- 238000003384 imaging method Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000011840 criminal investigation Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 210000000746 body region Anatomy 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G06K9/00369—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/22—Indexing; Data structures therefor; Storage structures
-
- G06K9/46—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 다중 영상환경에서 동일인을 재식별하기 위한 시스템과 그 기술에The present invention relates to a system and a technique for re-identifying the same person in a multi-
대한 것이다. It is about.
매년 공공기관, 민간 시설의 CCTV설치 대수가 증가하고 있다. CCTV에서 수집The number of CCTV installations in public institutions and private facilities is increasing annually. Collection from CCTV
된 영상 데이터는 다양하게 활용되고 있다. 특히 범죄 수사과정에서 용의자 Image data is utilized in various ways. Especially in the criminal investigation process,
탐문, 동선 등의 증거자료 수집에 CCTV 영상 데이터가 크게 활용된다. 여러 CCTV image data is widely used for collecting evidence such as inspections and copper lines. Various
CCTV 영상에서 동일한 인물을 검출해내 해당 용의자의 동선을 파악하는 과정The process of detecting the same person in CCTV video and grasping the line of the suspect
은 범죄의 피해(자), 가해(자) 파악 및 범죄 사실에 대한 증거 수집의 측면(A) the identification of the victim (s), the harm (s) of the crime, and the collection of evidence
에서 필수적인 과정이다. 하지만, 실제 범죄 수사에서는 이 과정을 모두 사Is an essential process. However, in a real criminal investigation,
람이 직접 수행하여 과도하게 많은 시간과 인력을 소모하게 된다. 한국등록And it consumes an excessive amount of time and manpower. Korea Registration
특허 제10-0995569호(등록일 2010년 11월 15일)은 다중 영상에서 사람 재식Patent No. 10-0995569 (registered on November 15, 2010)
별을 통한 영상에 등장한 인물 배회 인식 시스템을 기술한다. 위 시스템은 Describe a human perverse recognition system that appears in images through the stars. The above system
근접해있는 다중 영상간의 동일인을 판별하여 인물의 배회를 인식한다. 그러Recognizes the same person among multiple images in proximity and recognizes the character's wandering. Then
나 영상 간의 위치가 다소 먼 곳에서는 동일인에 대한 판별이 어렵기 때문에 Because it is difficult to identify the same person in a place that is somewhat distant from the image
배회 인식의 어려움이 있다. 그러므로 영상 데이터의 위치정보와 상관없이 There is a difficulty in recognition of roaming. Therefore, regardless of the location information of the image data
영상으로부터 추출된 인물의 특징점을 기준으로 동일인을 판별하는 기술이 A technique for identifying the same person based on the feature points of the person extracted from the image
요구된다. Is required.
다중 카메라에서 사람 객체 추출과 동일인 판별을 하나의 파이프 라인으로 Extraction of human objects from multiple cameras and the same discrimination as one pipeline
구성하여 서로 다른 영상에서 사용자가 찾고자하는 인물을 검색할 수 있다. So that the user can search for the person to be searched in different images.
본 발명의 일실시예에 따른 다중 영상 동일인 재식별 시스템은, 다중 영상에The multi-image same re-identification system according to an embodiment of the present invention includes a multi-
서 환경에서의 동일인 재식별 시스템이 개시된다. 동일인 재식별을 위한 방The same identity re-identification system in the home environment is disclosed. Room for Identification
법은 다중 영상에서 사람으로 추정되는 객체를 추출하는 단계; 단일영상에서 The method includes extracting an object estimated as a person from multiple images; In a single image
추출된 인물에 대한 고유한 인물을 판별하는 단계; 인물 관절에 해당하는 14Determining a unique person for the extracted person; 14 corresponding to the human joints
개의 특징점을 추출하는 단계; 추출된 인물에 대한인물 이미지에 대한 특징 Extracting feature points of the feature points; Characteristics of the person image on the extracted person
벡터를 추출하는 단계; 사용자가 선택한 인물과 동일인으로 추정되는 인물을 Extracting a vector; A person who is presumed to be the same person as the person selected by the user.
재식별하는 단계; 재식별 후보로 리스트된 인물 중에 사용자가 선택을 통해 Re-identifying; Among the people listed as candidates for re-identification,
다시 재식별을 하는 단계; 재식별된 인물 후보 리스트 중 사용자가 동일인이Re-identifying again; Of the re-identified person candidates list,
라 판단하는 인물을 선택하는 단계; 동일인으로 선택된 인물이 등장한 영상Selecting a person to be judged; Image of the person selected as the same person
의 위치정보를 지도상에 표시하는 단계를 포함한다.And displaying the location information on the map.
다중 영상 환경에서 동일인 판별함에 있어 사용자가 모든 영상의 나타난 인In the multi-image environment, when the user identifies the same person,
물의 검색을 하기에 어려움이 있다. 각 영상에서 나타난 인물들을 데이터베There is a difficulty in searching for water. The characters in each video
이스에 저장하여 고유 번호를 부여하고 재식별 모델을 통해 사용자가 선택한 And then reassigns them to the user through the re-identification model.
동일인 리스트를 같은 고유번호를 부여한다. 실제 사람이 동일인을 판별할때 Identical list is given the same unique number. When a real person identifies the same person
인물간의 인상착의를 기준으로 동일인으로 판별한다. 이 시스템의 재식별 모It is judged to be the same person based on the impressions between the characters. The re-identification of this system
델 또한 사람의 인물 재식별 과정과 동일하게 각 인물의 인상착의에 대한 특In addition to the process of re-identification of people,
징점을 추출하여 판별한다. 다중 영상에서 추출된 인물의 신체 부위별 별로 Extract and determine the points. By the body part of the figure extracted from multiple images
추출점을 추출하여 사람 재식별 학습 모델을 만들고 이를 기반으로 동일인이 The extraction point is extracted and a human re-identification learning model is created.
나타난 영상들의 위치를 표시하여 동일인의 경로를 추적할 수 있다It can track the path of the same person by displaying the location of the displayed images
도 1은 본 발명의 일 실시예에 있어서, 다중 카메라 환경에서 사용자가 동
일인을 판별하는 과정을 도시한 것이다.
도 2는 본 발명의 일 실시예에 있어서, 다중 영상으로 부터 등장한 인물을
인체 부위별로 이미지를 추출한 후 각 특징점에 대해 학습하여 모델을 개발
과정을 도시한 것이다.Figure 1 is a block diagram of an exemplary embodiment of the present invention,
It is a process to identify a person.
FIG. 2 is a block diagram illustrating an exemplary embodiment of the present invention. Referring to FIG. 2,
After extracting images for each human body area, learn about each feature point and develop a model
FIG.
이하, 첨부된 도면에 기재된 내용들을 참조하여 본 발명에 따른 실시예를 상Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
세하게 설명한다. 다만, 본 발명이 실시예들에 의해 제한되거나 한정되는 것Explain in detail. However, it should be understood that the present invention is limited or limited by the embodiments
은 아니다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.. Like reference symbols in the drawings denote like elements.
도 1은 본 발명의 일실시예에 있어서, 다중 카메라 환경에서 사용자가 동일1 is a block diagram of an embodiment of the present invention,
인을 판별하는 과정을 도시한 흐름도이다.And FIG.
도 1을 참고하면, 사람 객체 인식(S110)에서는 다중 영상에서 등장한 인물 Referring to FIG. 1, in the human object recognition (S110), a person
객체를 추출한다.Extract the object.
이때, 사람 객체 인식(S110)은 딥러닝 객체 인식 모델을 기반으로 사람 객체At this time, the human object recognition (S110) is based on the deep learning object recognition model,
를 추출한다. 사람 객체를 추출하는 단계는 구체적으로 1초 단위의 프레임으. The step of extracting the human object is specifically a frame of 1 second
로 나누는 단계, 각 프레임별로 사람 객체로 추정 되는 범위를 예측하는 단, A step of estimating a range estimated as a human object for each frame
계로 구성된다. 딥러닝 객체 인식 모델은 프레임에 대해 객체 인식을 하기 . The Deep Learning Object Recognition Model is based on
때문에 영상을 프레임으로 나누는 작업이 필요하다. 입력받은 다중의 영상 Therefore, it is necessary to divide the image into frames. The input multiple images
각각에 대해 1초 단위로 프레임을 나눈다. 그리고 각 프레임에서 대해 딥러Divide the frame by 1 second for each. For each frame,
닝 객체 인식 모형으로 사람 객체 인식을 수행한다. 딥러닝 객체 인식 모형We perform human object recognition with Ning object recognition model. Deep Learning Object Recognition Model
은 x좌표, y좌표, 가로너비, 세로너비를 예측한다. 예측된 4개의 값을 기반Predicts the x-coordinate, y-coordinate, width, and width. Based on the four predicted values
으로 사람 객체에 대해 네모난 바운딩 박스를 처리한다. 이러한 과정을 각 To handle a square bounding box for a human object. Each of these processes
영상에 대해 적용한다. Apply to the image.
도 1을 참고하면, 추출된 사람 객체들을 데이터베이스에 저장하고 사람 객체 Referring to FIG. 1, the extracted human objects are stored in a database,
집합에서 사용자가 찾고자하는 인물을 선택(S120)한다. The user selects a person to be searched in the set (S120).
이때, (S110) 과정에서 추출된 사람 객체들에 대해 고유번호를 부여하고 데At this time, a unique number is assigned to the extracted human objects in step S110,
이터 베이스에 저장한다. 부여된 고유번호는 (S140), (S150)에서 인물 재식It is stored in the database. The assigned unique number is S140, and in S150,
별 과정에 사용된다. 사용자가 찾고자하는 인물을 선택할 때, 각 영상의 시It is used in the star process. When a user selects a person to be searched,
간대 별로 탐색을 할 수 있다. 사용자가 찾고자하는 인물을 선택하면 해당 You can search by each household. If you select the person you are looking for,
고유번호에 대한 인물로 재식별을 시행(S130)한다.And the re-identification is performed with the person of the unique number (S130).
도 1을 참고하면, 사용자가 선택한 인물을 기준으로 다른 인물 집합에 대해 Referring to FIG. 1, it is assumed that, based on the person selected by the user,
재식별을 시행(S130)한다.The re-identification is performed (S130).
이때, 재식별 딥러닝 모델을 이용해 재식별을 수행한다. 재식별 딥러닝 모델 At this time, re-identification is performed using the re-identification deep learning model. Re-identification deep learning model
학습과정은 도면 2를 참고하여 상세히 설명한다.The learning process will be described in detail with reference to FIG.
도 2는 인물 재식별 딥러닝 모델의 학습과정을 도시한 흐름도이다.2 is a flowchart showing a learning process of the person re-identification deep learning model.
도 2를 참고하면, 객체 인식 딥러닝 모델(S210)은, 학습 시킬 영상 데이터로 Referring to FIG. 2, the object recognition deep learning model (S210)
부터 사람 객체를 추출한다. And extracts the human object.
이때, 객체 인식 딥러닝 모델은 (S110)의 객체 인식 모델과 같은 원리로 사At this time, the object recognition deep learning model uses the same principle as the object recognition model of (S110)
람 객체를 추출한다.And extracts the object.
도 2를 참고하면, (S210)에서 추출된 사람 객체 이미지들에 대해 고유번호를 Referring to FIG. 2, a unique number is assigned to the human object images extracted in step S210
부여하는 단계; 매트릭 학습을 위한 인물 이미지를 샘플링하는 단계(S220)로 ; In step S220, a person image for metric learning is sampled
구성된다..
(S210)에서 추출된 사람 객체 이미지들에 대해 고유번호를 부여한 후, 매트A unique number is assigned to the human object images extracted in step S210,
릭 학습을 위해 특정 고유번호의 인물(기준인물), 기준인물과 동일한 인물 A person with a specific number (standard figure), the same person as the reference person
객체 이미지, 기준인물과 다른 인물 객체 이미지를 샘플링한다. 모든 인물의 The object image, and the person object image different from the reference person. All of the characters
고유번호에 대해 매트릭 학습을 하기 때문에 순차별로 고유번호를 선택한다. Since the matrix learning is performed for the unique number, the unique number is selected for each sequence.
선택한 인물 고유번호를 기준으로 같은 고유번호를 가진 인물 이미지를 샘플Sample a portrait image with the same unique number based on the selected person's unique number
링한다. 동일한 인물의 다른 이미지를 의미한다. 그리고 인물 고유번호와 다. Means another image of the same person. And the figure number is different.
른 고유번호를 가진 인물의 인물 이미지를 샘플링한다.Sampling the portrait image of a person with a different unique number.
도 2를 참고하면, (S220)에서 추출된 기준인물 인체 부위별 이미지를 Referring to FIG. 2, an image of the reference human body part extracted at (S220)
추출(S230)한다.(S230).
이때, 인체 부위별 이미지는 머리, 몸통, 다리, 팔로 나뉘고 세부적으로 다At this time, the image of human body part is divided into head, body, leg,
리, 팔은 좌, 우로 구분된다. 머리, 몸통, 왼팔, 오른팔, 왼발, 오른발 총 7Lee, arms are divided into left and right. Head, torso, left arm, right arm, left foot, right foot 7
개로 나뉜다. 인체 부위별 이미지를 추출하는 단계;It is divided into dogs. Extracting an image of a human body part;
도 2를 참고하면, (S230)에서 추출된 각 부위별 특징점을 추출(S240)한다.Referring to FIG. 2, minutiae points of each part extracted in S230 are extracted (S240).
각 부위별로 특징점을 추출하는 이유는, 각 인물 이미지가 가진 고유의 특The reason for extracting minutiae points for each part is that the unique features of each person image
징점을 학습하기 위함이다. 일반적으로 사람이 CCTV영상에서 등장한 인물의 It is for learning the settlement. In general, a person is a person
동일인 판별하는 원리는 해당 인물의 인상착의를 기반으로 판별을 한다. 대The principle of discriminating the same person is based on the impression of the person. versus
부분의 CTV영상들은 저해상도의 화질이기 때문에 안면을 기반으로 동일인을 Because CTV images of the part are low-resolution image quality,
판별하기 어렵다. 이러한 이유로 사람 재식별 알고리즘 대부분은 박스처리된 It is difficult to discriminate. For this reason, most of the human re-identification algorithms are box-
인물 이미지에서 특징점을 추출하여 동일인을 판별한다. Feature points are extracted from the portrait image to identify the same person.
본 발명의 사람 재식별을 수행함에 있어 특징은 각 사람 이미지가 가지고 있In carrying out the person re-identification of the present invention,
는 고유의 특징점을 세분화하여 추출하는데 있다. 인물 이미지에서 신체부위Is to separate and extract the characteristic points of the original. Body image in person image
별로 추출하고 사람 재식별 딥러닝 모델을 이용해 각 신체부위별 특징점을 And the human re-identification deep-run model is used to extract the feature points of each body part
추출한다. .
도 2를 참고하면, 인체 부위별로 추출된 특징점에 대해 매트릭 학습(S250)을 Referring to FIG. 2, a matrix learning (S250) is performed on the minutiae extracted for each human body region
한다.do.
이때, 매트릭 학습은 Triplet Loss를 사용한다. Triplet Loss에 대한 정의는 At this time, triplet loss is used for metric learning. The definition of triplet loss is
다음과 같다. As follows.
는 기준이 되는 Class로 정의된다. a = anchor Is defined as a reference class. a = anchor
는 (기준이 되는 인물)와 같은 Class(소속)로 정의된다. p = The (The reference person) and the same class (belonging). p =
positivepositive
는 (기준이 되는 인물)과 다른 Class로 정의된다. n = negative The Is defined as a different class from the standard (the reference person). n = negative
Triplet Loss는 fia과 fip의 거리는 최소로, 과 의 거리는 최대하는 The triplet loss is the minimum distance between fia and fip, and The distance of
방향으로 학습한다.Direction.
사람 재식별에 있어서 매트릭 학습은 각 인물들간의 특징점간의 거리를 정확In the re-identification of people, metric learning measures the distance between feature points of each person
히 분류하기 위한 목적에 있다. 매트릭 학습 없이 재식별 모델로 부터 추출It is for the purpose of classification. Extraction from re-identification model without metric learning
된 특징점간의 거리로 부터 동일인을 판단한다면 높은 정확도를 얻을 수 없If the same person is judged from the distance between the feature points, high accuracy can not be obtained
다. 그러므로 매트릭 학습을 통해 같은 Class에 있는 특징점은 거리가 가까All. Therefore, through the metric learning, feature points in the same class are close to each other
운 방향으로, 다른 Class에 있는 특징점들은 거리가 먼 방향으로 학습되도록 In the running direction, feature points in different classes are
한다.do.
도 2를 참고하면, (S260)은 모든 인물 이미지 특징점에 대해 매트릭 학Referring to FIG. 2, (S260)
습을 수행 후 사람 재식별 모델을 생성 한다. Create a human re-identification model after performing the hum.
Claims (6)
물들을 데이터베이스에 저장하는 단계; 데이터 베이스에 저장된 인물 중에
사용자가 검색하고자 하는 인물을 선택하는 단계; 선택된 인물을 기준으로
동일인을 재식별 하는 단계; 동일인으로 추정되는 재식별된 인물 중에 사용
자가 선택한 인물을 기준으로 다시 재식별을 하는 단계; 동일인으로 추정되
는 인물이 나타난 영상 데이터의 위치정보를 지도상에 표시하는 단계 를 포
함하는 다중 영상 사람 동인일 추적 시스템
We extract information of human object from multiple images using a deep learning model,
Storing the water in a database; Among the people stored in the database
Selecting a person to be searched by a user; Based on selected characters
Re-identifying the same person; Used for re-identified persons presumed to be the same person
Re-identifying based on the self-selected character; Presumed to be the same person
A step of displaying the positional information of the image data on which the person is displayed on the map
Multi-imaging human driver tracking system
데이터 베이스에 영상에서 추출된 인물을 저장하는 단계는,
사람 객체 인식 딥러닝 모델을 사용하여 영상에서 프레임을 추출하고 각 프
레임별로 인물을 탐지하는 방법
The method according to claim 1,
The step of storing the person extracted from the image in the database includes:
A human object recognition deep learning model is used to extract a frame from an image,
How to detect people by frame
데이터베이스에 저장된 인물 중에 사용자가 검색하고자 하는 인물을 선택하
는 단계는, 영상 데이터의 시간별 탐지된 인물 리스트를 보여주고 사용자가
찾고자하는 인물을 선택할 수 있는 방법
The method according to claim 1,
Among the people stored in the database, the user selects the person
Shows a list of the detected persons in time of the video data,
How to choose the person you are looking for
선택된 인물을 기준으로 동일인을 재식별하는 단계는,
사람 재식별 딥러닝 모델을 기반으로 각 인물에 대한 특징점을 추출하는 단
계, 추출된 특징점을 기반으로 특징점간의 거리가 작은 순서대로 동일인 추
정 리스트를 보여주는 방법을 포함한다.
The method according to claim 1,
The step of re-identifying the same person based on the selected person includes:
Based on the human re-identification deep learning model, it extracts feature points for each person
Based on the extracted feature points,
Includes a way to show a list of rules.
딥러닝 사람 재식별 모델로 각 인물에 대한 특징점을 추출하는 단계는,
인물 이미지를 머리, 몸통, 팔, 다리의 신체부위별로 이미지를 추출하고 각
이미지에 대한 특징점을 기반으로 특징점간의 거리가 작아지는 방향으로
학습하는 모델
5. The method of claim 4,
The step of extracting feature points for each person using the deep learning person re-
The image of the person is extracted by the body parts of the head, torso, arms, and legs,
Based on the feature points of the image, the distance between the feature points decreases
Learning model
재식별된 인물 리스트에서 사용자가 동일인으로 추정되는 인물을 선택하는
단계는, 선택된 인물로 부터 특징점의 거리가 가까운 인물로 재식별 리스
를 다시 구성하는 방법
The method according to claim 1,
In the re-identified person list, the user selects a person presumed to be the same person
The step is to re-identify the person as a person whose distance from the selected person is close to the feature point
How to Reconfigure
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170167945A KR20190068000A (en) | 2017-12-08 | 2017-12-08 | Person Re-identification System in Multiple Camera Environments |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170167945A KR20190068000A (en) | 2017-12-08 | 2017-12-08 | Person Re-identification System in Multiple Camera Environments |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20190068000A true KR20190068000A (en) | 2019-06-18 |
Family
ID=67103301
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170167945A KR20190068000A (en) | 2017-12-08 | 2017-12-08 | Person Re-identification System in Multiple Camera Environments |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20190068000A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102225022B1 (en) | 2019-08-27 | 2021-03-08 | 연세대학교 산학협력단 | Person re-identification apparatus and method |
CN112541453A (en) * | 2020-12-18 | 2021-03-23 | 广州丰石科技有限公司 | Luggage weight recognition model training and luggage weight recognition method |
CN113191338A (en) * | 2021-06-29 | 2021-07-30 | 苏州浪潮智能科技有限公司 | Pedestrian re-identification method, device and equipment and readable storage medium |
KR20210094784A (en) * | 2020-01-22 | 2021-07-30 | 한국과학기술연구원 | System and method for re-identifying target object based on location information of cctv and movement information of object |
KR20210146109A (en) * | 2020-05-26 | 2021-12-03 | 동명대학교산학협력단 | Apparatus for continuous object location tracking through training of multiple image data and method thereof |
WO2022019601A1 (en) * | 2020-07-24 | 2022-01-27 | 김승모 | Extraction of feature point of object from image and image search system and method using same |
WO2023282410A1 (en) * | 2021-07-05 | 2023-01-12 | 서울과학기술대학교 산학협력단 | Method for recognizing same character in images captured by plurality of cameras, and recording medium and apparatus for performing same |
KR20230021566A (en) | 2021-08-05 | 2023-02-14 | 국민대학교산학협력단 | Method and apparatus for matching object based on re-identification |
KR102533091B1 (en) * | 2022-03-04 | 2023-05-26 | 주식회사 한국공간데이터 | Method and device for pperson re-identification |
-
2017
- 2017-12-08 KR KR1020170167945A patent/KR20190068000A/en not_active Application Discontinuation
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11321556B2 (en) | 2019-08-27 | 2022-05-03 | Industry-Academic Cooperation Foundation, Yonsei University | Person re-identification apparatus and method |
KR102225022B1 (en) | 2019-08-27 | 2021-03-08 | 연세대학교 산학협력단 | Person re-identification apparatus and method |
US11527000B2 (en) | 2020-01-22 | 2022-12-13 | Korea Institute Of Science And Technology | System and method for re-identifying target object based on location information of CCTV and movement information of object |
KR20210094784A (en) * | 2020-01-22 | 2021-07-30 | 한국과학기술연구원 | System and method for re-identifying target object based on location information of cctv and movement information of object |
KR20210146109A (en) * | 2020-05-26 | 2021-12-03 | 동명대학교산학협력단 | Apparatus for continuous object location tracking through training of multiple image data and method thereof |
WO2022019601A1 (en) * | 2020-07-24 | 2022-01-27 | 김승모 | Extraction of feature point of object from image and image search system and method using same |
CN112541453A (en) * | 2020-12-18 | 2021-03-23 | 广州丰石科技有限公司 | Luggage weight recognition model training and luggage weight recognition method |
CN113191338B (en) * | 2021-06-29 | 2021-09-17 | 苏州浪潮智能科技有限公司 | Pedestrian re-identification method, device and equipment and readable storage medium |
CN113191338A (en) * | 2021-06-29 | 2021-07-30 | 苏州浪潮智能科技有限公司 | Pedestrian re-identification method, device and equipment and readable storage medium |
US11830275B1 (en) | 2021-06-29 | 2023-11-28 | Inspur Suzhou Intelligent Technology Co., Ltd. | Person re-identification method and apparatus, device, and readable storage medium |
WO2023282410A1 (en) * | 2021-07-05 | 2023-01-12 | 서울과학기술대학교 산학협력단 | Method for recognizing same character in images captured by plurality of cameras, and recording medium and apparatus for performing same |
KR20230021566A (en) | 2021-08-05 | 2023-02-14 | 국민대학교산학협력단 | Method and apparatus for matching object based on re-identification |
KR102533091B1 (en) * | 2022-03-04 | 2023-05-26 | 주식회사 한국공간데이터 | Method and device for pperson re-identification |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20190068000A (en) | Person Re-identification System in Multiple Camera Environments | |
JP4216668B2 (en) | Face detection / tracking system and method for detecting and tracking multiple faces in real time by combining video visual information | |
JP6614611B2 (en) | Apparatus, program, and method for tracking object in consideration of similarity between images | |
Ahmed et al. | Vision based hand gesture recognition using dynamic time warping for Indian sign language | |
CN106960181B (en) | RGBD data-based pedestrian attribute identification method | |
CN108009466B (en) | Pedestrian detection method and device | |
US11348371B2 (en) | Person detection system | |
JP2019109709A (en) | Image processing apparatus, image processing method and program | |
JP2007317062A (en) | Person recognition apparatus and method | |
JP2016162232A (en) | Method and device for image recognition and program | |
US20150324659A1 (en) | Method for detecting objects in stereo images | |
CN111582126B (en) | Pedestrian re-recognition method based on multi-scale pedestrian contour segmentation fusion | |
KR101753097B1 (en) | Vehicle detection method, data base for the vehicle detection, providing method of data base for the vehicle detection | |
CN110674680B (en) | Living body identification method, living body identification device and storage medium | |
KR20160132731A (en) | Device and method for tracking pedestrian in thermal image using an online random fern learning | |
CN110796074A (en) | Pedestrian re-identification method based on space-time data fusion | |
CN112541448A (en) | Pedestrian re-identification method and device, electronic equipment and storage medium | |
CN111444850A (en) | Picture detection method and related device | |
KR20190050551A (en) | Apparatus and method for recognizing body motion based on depth map information | |
CN110580708B (en) | Rapid movement detection method and device and electronic equipment | |
CN114743026A (en) | Target object orientation detection method, device, equipment and computer readable medium | |
CN113255542A (en) | Illegal object identity recognition method based on illegal behavior recognition | |
Amin et al. | An automatic number plate recognition of Bangladeshi vehicles | |
Mitsukura et al. | A design of face detection system by using lip detection neural network and skin distinction neural network | |
Swathika et al. | Emergency exit sign detection system for visually impaired people |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |