KR20190068000A - Person Re-identification System in Multiple Camera Environments - Google Patents

Person Re-identification System in Multiple Camera Environments Download PDF

Info

Publication number
KR20190068000A
KR20190068000A KR1020170167945A KR20170167945A KR20190068000A KR 20190068000 A KR20190068000 A KR 20190068000A KR 1020170167945 A KR1020170167945 A KR 1020170167945A KR 20170167945 A KR20170167945 A KR 20170167945A KR 20190068000 A KR20190068000 A KR 20190068000A
Authority
KR
South Korea
Prior art keywords
person
image
same
identifying
feature points
Prior art date
Application number
KR1020170167945A
Other languages
Korean (ko)
Inventor
이의령
최광희
하지윤
Original Assignee
이의령
하지윤
최광희
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이의령, 하지윤, 최광희 filed Critical 이의령
Priority to KR1020170167945A priority Critical patent/KR20190068000A/en
Publication of KR20190068000A publication Critical patent/KR20190068000A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • G06K9/00369
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/22Indexing; Data structures therefor; Storage structures
    • G06K9/46
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

According to an embodiment of the present invention, a multiple image same person re-identifying system is the system for re-identifying the same person in multiple image environments. A method for re-identifying the same person comprises the steps of: extracting an object estimated as human from multiple images; discriminating a person who is unique to a person extracted from a single image; extracting 14 feature points corresponding to a person′s joint; extracting a feature vector for a person image of the extracted person; re-identifying a person presumed to be the same person as the person selected by a user; re-identifying the person again in which the user selects among the persons listed as re-identification candidates; selecting a person, who is determined by the user to be the same person, among a re-identified person candidate list; and displaying location information of the image, in which the person selected as the same person is present, on a map. Thus, the user can search for a person in a plurality of images different from one another.

Description

다중 영상 환경에서의 동일인 재식별 시스템{Person Re-identification System in Multiple Camera Environments}[Background Art] [0002] In a multi-image environment,

본 발명은 다중 영상환경에서 동일인을 재식별하기 위한 시스템과 그 기술에The present invention relates to a system and a technique for re-identifying the same person in a multi-

대한 것이다. It is about.

매년 공공기관, 민간 시설의 CCTV설치 대수가 증가하고 있다. CCTV에서 수집The number of CCTV installations in public institutions and private facilities is increasing annually. Collection from CCTV

된 영상 데이터는 다양하게 활용되고 있다. 특히 범죄 수사과정에서 용의자 Image data is utilized in various ways. Especially in the criminal investigation process,

탐문, 동선 등의 증거자료 수집에 CCTV 영상 데이터가 크게 활용된다. 여러 CCTV image data is widely used for collecting evidence such as inspections and copper lines. Various

CCTV 영상에서 동일한 인물을 검출해내 해당 용의자의 동선을 파악하는 과정The process of detecting the same person in CCTV video and grasping the line of the suspect

은 범죄의 피해(자), 가해(자) 파악 및 범죄 사실에 대한 증거 수집의 측면(A) the identification of the victim (s), the harm (s) of the crime, and the collection of evidence

에서 필수적인 과정이다. 하지만, 실제 범죄 수사에서는 이 과정을 모두 사Is an essential process. However, in a real criminal investigation,

람이 직접 수행하여 과도하게 많은 시간과 인력을 소모하게 된다. 한국등록And it consumes an excessive amount of time and manpower. Korea Registration

특허 제10-0995569호(등록일 2010년 11월 15일)은 다중 영상에서 사람 재식Patent No. 10-0995569 (registered on November 15, 2010)

별을 통한 영상에 등장한 인물 배회 인식 시스템을 기술한다. 위 시스템은 Describe a human perverse recognition system that appears in images through the stars. The above system

근접해있는 다중 영상간의 동일인을 판별하여 인물의 배회를 인식한다. 그러Recognizes the same person among multiple images in proximity and recognizes the character's wandering. Then

나 영상 간의 위치가 다소 먼 곳에서는 동일인에 대한 판별이 어렵기 때문에 Because it is difficult to identify the same person in a place that is somewhat distant from the image

배회 인식의 어려움이 있다. 그러므로 영상 데이터의 위치정보와 상관없이 There is a difficulty in recognition of roaming. Therefore, regardless of the location information of the image data

영상으로부터 추출된 인물의 특징점을 기준으로 동일인을 판별하는 기술이 A technique for identifying the same person based on the feature points of the person extracted from the image

요구된다. Is required.

다중 카메라에서 사람 객체 추출과 동일인 판별을 하나의 파이프 라인으로 Extraction of human objects from multiple cameras and the same discrimination as one pipeline

구성하여 서로 다른 영상에서 사용자가 찾고자하는 인물을 검색할 수 있다. So that the user can search for the person to be searched in different images.

본 발명의 일실시예에 따른 다중 영상 동일인 재식별 시스템은, 다중 영상에The multi-image same re-identification system according to an embodiment of the present invention includes a multi-

서 환경에서의 동일인 재식별 시스템이 개시된다. 동일인 재식별을 위한 방The same identity re-identification system in the home environment is disclosed. Room for Identification

법은 다중 영상에서 사람으로 추정되는 객체를 추출하는 단계; 단일영상에서 The method includes extracting an object estimated as a person from multiple images; In a single image

추출된 인물에 대한 고유한 인물을 판별하는 단계; 인물 관절에 해당하는 14Determining a unique person for the extracted person; 14 corresponding to the human joints

개의 특징점을 추출하는 단계; 추출된 인물에 대한인물 이미지에 대한 특징 Extracting feature points of the feature points; Characteristics of the person image on the extracted person

벡터를 추출하는 단계; 사용자가 선택한 인물과 동일인으로 추정되는 인물을 Extracting a vector; A person who is presumed to be the same person as the person selected by the user.

재식별하는 단계; 재식별 후보로 리스트된 인물 중에 사용자가 선택을 통해 Re-identifying; Among the people listed as candidates for re-identification,

다시 재식별을 하는 단계; 재식별된 인물 후보 리스트 중 사용자가 동일인이Re-identifying again; Of the re-identified person candidates list,

라 판단하는 인물을 선택하는 단계; 동일인으로 선택된 인물이 등장한 영상Selecting a person to be judged; Image of the person selected as the same person

의 위치정보를 지도상에 표시하는 단계를 포함한다.And displaying the location information on the map.

다중 영상 환경에서 동일인 판별함에 있어 사용자가 모든 영상의 나타난 인In the multi-image environment, when the user identifies the same person,

물의 검색을 하기에 어려움이 있다. 각 영상에서 나타난 인물들을 데이터베There is a difficulty in searching for water. The characters in each video

이스에 저장하여 고유 번호를 부여하고 재식별 모델을 통해 사용자가 선택한 And then reassigns them to the user through the re-identification model.

동일인 리스트를 같은 고유번호를 부여한다. 실제 사람이 동일인을 판별할때 Identical list is given the same unique number. When a real person identifies the same person

인물간의 인상착의를 기준으로 동일인으로 판별한다. 이 시스템의 재식별 모It is judged to be the same person based on the impressions between the characters. The re-identification of this system

델 또한 사람의 인물 재식별 과정과 동일하게 각 인물의 인상착의에 대한 특In addition to the process of re-identification of people,

징점을 추출하여 판별한다. 다중 영상에서 추출된 인물의 신체 부위별 별로 Extract and determine the points. By the body part of the figure extracted from multiple images

추출점을 추출하여 사람 재식별 학습 모델을 만들고 이를 기반으로 동일인이 The extraction point is extracted and a human re-identification learning model is created.

나타난 영상들의 위치를 표시하여 동일인의 경로를 추적할 수 있다It can track the path of the same person by displaying the location of the displayed images

도 1은 본 발명의 일 실시예에 있어서, 다중 카메라 환경에서 사용자가 동
일인을 판별하는 과정을 도시한 것이다.
도 2는 본 발명의 일 실시예에 있어서, 다중 영상으로 부터 등장한 인물을
인체 부위별로 이미지를 추출한 후 각 특징점에 대해 학습하여 모델을 개발
과정을 도시한 것이다.
Figure 1 is a block diagram of an exemplary embodiment of the present invention,
It is a process to identify a person.
FIG. 2 is a block diagram illustrating an exemplary embodiment of the present invention. Referring to FIG. 2,
After extracting images for each human body area, learn about each feature point and develop a model
FIG.

이하, 첨부된 도면에 기재된 내용들을 참조하여 본 발명에 따른 실시예를 상Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

세하게 설명한다. 다만, 본 발명이 실시예들에 의해 제한되거나 한정되는 것Explain in detail. However, it should be understood that the present invention is limited or limited by the embodiments

은 아니다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.. Like reference symbols in the drawings denote like elements.

도 1은 본 발명의 일실시예에 있어서, 다중 카메라 환경에서 사용자가 동일1 is a block diagram of an embodiment of the present invention,

인을 판별하는 과정을 도시한 흐름도이다.And FIG.

도 1을 참고하면, 사람 객체 인식(S110)에서는 다중 영상에서 등장한 인물 Referring to FIG. 1, in the human object recognition (S110), a person

객체를 추출한다.Extract the object.

이때, 사람 객체 인식(S110)은 딥러닝 객체 인식 모델을 기반으로 사람 객체At this time, the human object recognition (S110) is based on the deep learning object recognition model,

를 추출한다. 사람 객체를 추출하는 단계는 구체적으로 1초 단위의 프레임으. The step of extracting the human object is specifically a frame of 1 second

로 나누는 단계, 각 프레임별로 사람 객체로 추정 되는 범위를 예측하는 단, A step of estimating a range estimated as a human object for each frame

계로 구성된다. 딥러닝 객체 인식 모델은 프레임에 대해 객체 인식을 하기 . The Deep Learning Object Recognition Model is based on

때문에 영상을 프레임으로 나누는 작업이 필요하다. 입력받은 다중의 영상 Therefore, it is necessary to divide the image into frames. The input multiple images

각각에 대해 1초 단위로 프레임을 나눈다. 그리고 각 프레임에서 대해 딥러Divide the frame by 1 second for each. For each frame,

닝 객체 인식 모형으로 사람 객체 인식을 수행한다. 딥러닝 객체 인식 모형We perform human object recognition with Ning object recognition model. Deep Learning Object Recognition Model

은 x좌표, y좌표, 가로너비, 세로너비를 예측한다. 예측된 4개의 값을 기반Predicts the x-coordinate, y-coordinate, width, and width. Based on the four predicted values

으로 사람 객체에 대해 네모난 바운딩 박스를 처리한다. 이러한 과정을 각 To handle a square bounding box for a human object. Each of these processes

영상에 대해 적용한다. Apply to the image.

도 1을 참고하면, 추출된 사람 객체들을 데이터베이스에 저장하고 사람 객체 Referring to FIG. 1, the extracted human objects are stored in a database,

집합에서 사용자가 찾고자하는 인물을 선택(S120)한다. The user selects a person to be searched in the set (S120).

이때, (S110) 과정에서 추출된 사람 객체들에 대해 고유번호를 부여하고 데At this time, a unique number is assigned to the extracted human objects in step S110,

이터 베이스에 저장한다. 부여된 고유번호는 (S140), (S150)에서 인물 재식It is stored in the database. The assigned unique number is S140, and in S150,

별 과정에 사용된다. 사용자가 찾고자하는 인물을 선택할 때, 각 영상의 시It is used in the star process. When a user selects a person to be searched,

간대 별로 탐색을 할 수 있다. 사용자가 찾고자하는 인물을 선택하면 해당 You can search by each household. If you select the person you are looking for,

고유번호에 대한 인물로 재식별을 시행(S130)한다.And the re-identification is performed with the person of the unique number (S130).

도 1을 참고하면, 사용자가 선택한 인물을 기준으로 다른 인물 집합에 대해 Referring to FIG. 1, it is assumed that, based on the person selected by the user,

재식별을 시행(S130)한다.The re-identification is performed (S130).

이때, 재식별 딥러닝 모델을 이용해 재식별을 수행한다. 재식별 딥러닝 모델 At this time, re-identification is performed using the re-identification deep learning model. Re-identification deep learning model

학습과정은 도면 2를 참고하여 상세히 설명한다.The learning process will be described in detail with reference to FIG.

도 2는 인물 재식별 딥러닝 모델의 학습과정을 도시한 흐름도이다.2 is a flowchart showing a learning process of the person re-identification deep learning model.

도 2를 참고하면, 객체 인식 딥러닝 모델(S210)은, 학습 시킬 영상 데이터로 Referring to FIG. 2, the object recognition deep learning model (S210)

부터 사람 객체를 추출한다. And extracts the human object.

이때, 객체 인식 딥러닝 모델은 (S110)의 객체 인식 모델과 같은 원리로 사At this time, the object recognition deep learning model uses the same principle as the object recognition model of (S110)

람 객체를 추출한다.And extracts the object.

도 2를 참고하면, (S210)에서 추출된 사람 객체 이미지들에 대해 고유번호를 Referring to FIG. 2, a unique number is assigned to the human object images extracted in step S210

부여하는 단계; 매트릭 학습을 위한 인물 이미지를 샘플링하는 단계(S220)로 ; In step S220, a person image for metric learning is sampled

구성된다..

(S210)에서 추출된 사람 객체 이미지들에 대해 고유번호를 부여한 후, 매트A unique number is assigned to the human object images extracted in step S210,

릭 학습을 위해 특정 고유번호의 인물(기준인물), 기준인물과 동일한 인물 A person with a specific number (standard figure), the same person as the reference person

객체 이미지, 기준인물과 다른 인물 객체 이미지를 샘플링한다. 모든 인물의 The object image, and the person object image different from the reference person. All of the characters

고유번호에 대해 매트릭 학습을 하기 때문에 순차별로 고유번호를 선택한다. Since the matrix learning is performed for the unique number, the unique number is selected for each sequence.

선택한 인물 고유번호를 기준으로 같은 고유번호를 가진 인물 이미지를 샘플Sample a portrait image with the same unique number based on the selected person's unique number

링한다. 동일한 인물의 다른 이미지를 의미한다. 그리고 인물 고유번호와 다. Means another image of the same person. And the figure number is different.

른 고유번호를 가진 인물의 인물 이미지를 샘플링한다.Sampling the portrait image of a person with a different unique number.

도 2를 참고하면, (S220)에서 추출된 기준인물 인체 부위별 이미지를 Referring to FIG. 2, an image of the reference human body part extracted at (S220)

추출(S230)한다.(S230).

이때, 인체 부위별 이미지는 머리, 몸통, 다리, 팔로 나뉘고 세부적으로 다At this time, the image of human body part is divided into head, body, leg,

리, 팔은 좌, 우로 구분된다. 머리, 몸통, 왼팔, 오른팔, 왼발, 오른발 총 7Lee, arms are divided into left and right. Head, torso, left arm, right arm, left foot, right foot 7

개로 나뉜다. 인체 부위별 이미지를 추출하는 단계;It is divided into dogs. Extracting an image of a human body part;

도 2를 참고하면, (S230)에서 추출된 각 부위별 특징점을 추출(S240)한다.Referring to FIG. 2, minutiae points of each part extracted in S230 are extracted (S240).

각 부위별로 특징점을 추출하는 이유는, 각 인물 이미지가 가진 고유의 특The reason for extracting minutiae points for each part is that the unique features of each person image

징점을 학습하기 위함이다. 일반적으로 사람이 CCTV영상에서 등장한 인물의 It is for learning the settlement. In general, a person is a person

동일인 판별하는 원리는 해당 인물의 인상착의를 기반으로 판별을 한다. 대The principle of discriminating the same person is based on the impression of the person. versus

부분의 CTV영상들은 저해상도의 화질이기 때문에 안면을 기반으로 동일인을 Because CTV images of the part are low-resolution image quality,

판별하기 어렵다. 이러한 이유로 사람 재식별 알고리즘 대부분은 박스처리된 It is difficult to discriminate. For this reason, most of the human re-identification algorithms are box-

인물 이미지에서 특징점을 추출하여 동일인을 판별한다. Feature points are extracted from the portrait image to identify the same person.

본 발명의 사람 재식별을 수행함에 있어 특징은 각 사람 이미지가 가지고 있In carrying out the person re-identification of the present invention,

는 고유의 특징점을 세분화하여 추출하는데 있다. 인물 이미지에서 신체부위Is to separate and extract the characteristic points of the original. Body image in person image

별로 추출하고 사람 재식별 딥러닝 모델을 이용해 각 신체부위별 특징점을 And the human re-identification deep-run model is used to extract the feature points of each body part

추출한다. .

도 2를 참고하면, 인체 부위별로 추출된 특징점에 대해 매트릭 학습(S250)을 Referring to FIG. 2, a matrix learning (S250) is performed on the minutiae extracted for each human body region

한다.do.

이때, 매트릭 학습은 Triplet Loss를 사용한다. Triplet Loss에 대한 정의는 At this time, triplet loss is used for metric learning. The definition of triplet loss is

다음과 같다. As follows.

Figure pat00001
Figure pat00001

Figure pat00002
는 기준이 되는 Class로 정의된다. a = anchor
Figure pat00002
Is defined as a reference class. a = anchor

Figure pat00003
Figure pat00004
(기준이 되는 인물)와 같은 Class(소속)로 정의된다. p =
Figure pat00003
The
Figure pat00004
(The reference person) and the same class (belonging). p =

positivepositive

Figure pat00005
Figure pat00006
(기준이 되는 인물)과 다른 Class로 정의된다. n = negative
Figure pat00005
The
Figure pat00006
Is defined as a different class from the standard (the reference person). n = negative

Triplet Loss는 fia과 fip의 거리는 최소로,

Figure pat00007
Figure pat00008
의 거리는 최대하는 The triplet loss is the minimum distance between fia and fip,
Figure pat00007
and
Figure pat00008
The distance of

방향으로 학습한다.Direction.

사람 재식별에 있어서 매트릭 학습은 각 인물들간의 특징점간의 거리를 정확In the re-identification of people, metric learning measures the distance between feature points of each person

히 분류하기 위한 목적에 있다. 매트릭 학습 없이 재식별 모델로 부터 추출It is for the purpose of classification. Extraction from re-identification model without metric learning

된 특징점간의 거리로 부터 동일인을 판단한다면 높은 정확도를 얻을 수 없If the same person is judged from the distance between the feature points, high accuracy can not be obtained

다. 그러므로 매트릭 학습을 통해 같은 Class에 있는 특징점은 거리가 가까All. Therefore, through the metric learning, feature points in the same class are close to each other

운 방향으로, 다른 Class에 있는 특징점들은 거리가 먼 방향으로 학습되도록 In the running direction, feature points in different classes are

한다.do.

도 2를 참고하면, (S260)은 모든 인물 이미지 특징점에 대해 매트릭 학Referring to FIG. 2, (S260)

습을 수행 후 사람 재식별 모델을 생성 한다. Create a human re-identification model after performing the hum.

Claims (6)

다중 영상에서 사람 객체에 대한 정보를 딥러닝 모델로 추출하고 추출된 인
물들을 데이터베이스에 저장하는 단계; 데이터 베이스에 저장된 인물 중에
사용자가 검색하고자 하는 인물을 선택하는 단계; 선택된 인물을 기준으로
동일인을 재식별 하는 단계; 동일인으로 추정되는 재식별된 인물 중에 사용
자가 선택한 인물을 기준으로 다시 재식별을 하는 단계; 동일인으로 추정되
는 인물이 나타난 영상 데이터의 위치정보를 지도상에 표시하는 단계 를 포
함하는 다중 영상 사람 동인일 추적 시스템
We extract information of human object from multiple images using a deep learning model,
Storing the water in a database; Among the people stored in the database
Selecting a person to be searched by a user; Based on selected characters
Re-identifying the same person; Used for re-identified persons presumed to be the same person
Re-identifying based on the self-selected character; Presumed to be the same person
A step of displaying the positional information of the image data on which the person is displayed on the map
Multi-imaging human driver tracking system
제 1항에 있어서,
데이터 베이스에 영상에서 추출된 인물을 저장하는 단계는,
사람 객체 인식 딥러닝 모델을 사용하여 영상에서 프레임을 추출하고 각 프
레임별로 인물을 탐지하는 방법
The method according to claim 1,
The step of storing the person extracted from the image in the database includes:
A human object recognition deep learning model is used to extract a frame from an image,
How to detect people by frame
제 1항에 있어서,
데이터베이스에 저장된 인물 중에 사용자가 검색하고자 하는 인물을 선택하
는 단계는, 영상 데이터의 시간별 탐지된 인물 리스트를 보여주고 사용자가
찾고자하는 인물을 선택할 수 있는 방법
The method according to claim 1,
Among the people stored in the database, the user selects the person
Shows a list of the detected persons in time of the video data,
How to choose the person you are looking for
제 1항에 있어서,
선택된 인물을 기준으로 동일인을 재식별하는 단계는,
사람 재식별 딥러닝 모델을 기반으로 각 인물에 대한 특징점을 추출하는 단
계, 추출된 특징점을 기반으로 특징점간의 거리가 작은 순서대로 동일인 추
정 리스트를 보여주는 방법을 포함한다.
The method according to claim 1,
The step of re-identifying the same person based on the selected person includes:
Based on the human re-identification deep learning model, it extracts feature points for each person
Based on the extracted feature points,
Includes a way to show a list of rules.
제 4항에 있어서,
딥러닝 사람 재식별 모델로 각 인물에 대한 특징점을 추출하는 단계는,
인물 이미지를 머리, 몸통, 팔, 다리의 신체부위별로 이미지를 추출하고 각
이미지에 대한 특징점을 기반으로 특징점간의 거리가 작아지는 방향으로
학습하는 모델
5. The method of claim 4,
The step of extracting feature points for each person using the deep learning person re-
The image of the person is extracted by the body parts of the head, torso, arms, and legs,
Based on the feature points of the image, the distance between the feature points decreases
Learning model
제 1항에 있어서,
재식별된 인물 리스트에서 사용자가 동일인으로 추정되는 인물을 선택하는
단계는, 선택된 인물로 부터 특징점의 거리가 가까운 인물로 재식별 리스
를 다시 구성하는 방법


The method according to claim 1,
In the re-identified person list, the user selects a person presumed to be the same person
The step is to re-identify the person as a person whose distance from the selected person is close to the feature point
How to Reconfigure


KR1020170167945A 2017-12-08 2017-12-08 Person Re-identification System in Multiple Camera Environments KR20190068000A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170167945A KR20190068000A (en) 2017-12-08 2017-12-08 Person Re-identification System in Multiple Camera Environments

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170167945A KR20190068000A (en) 2017-12-08 2017-12-08 Person Re-identification System in Multiple Camera Environments

Publications (1)

Publication Number Publication Date
KR20190068000A true KR20190068000A (en) 2019-06-18

Family

ID=67103301

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170167945A KR20190068000A (en) 2017-12-08 2017-12-08 Person Re-identification System in Multiple Camera Environments

Country Status (1)

Country Link
KR (1) KR20190068000A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102225022B1 (en) 2019-08-27 2021-03-08 연세대학교 산학협력단 Person re-identification apparatus and method
CN112541453A (en) * 2020-12-18 2021-03-23 广州丰石科技有限公司 Luggage weight recognition model training and luggage weight recognition method
CN113191338A (en) * 2021-06-29 2021-07-30 苏州浪潮智能科技有限公司 Pedestrian re-identification method, device and equipment and readable storage medium
KR20210094784A (en) * 2020-01-22 2021-07-30 한국과학기술연구원 System and method for re-identifying target object based on location information of cctv and movement information of object
KR20210146109A (en) * 2020-05-26 2021-12-03 동명대학교산학협력단 Apparatus for continuous object location tracking through training of multiple image data and method thereof
WO2022019601A1 (en) * 2020-07-24 2022-01-27 김승모 Extraction of feature point of object from image and image search system and method using same
WO2023282410A1 (en) * 2021-07-05 2023-01-12 서울과학기술대학교 산학협력단 Method for recognizing same character in images captured by plurality of cameras, and recording medium and apparatus for performing same
KR20230021566A (en) 2021-08-05 2023-02-14 국민대학교산학협력단 Method and apparatus for matching object based on re-identification
KR102533091B1 (en) * 2022-03-04 2023-05-26 주식회사 한국공간데이터 Method and device for pperson re-identification

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11321556B2 (en) 2019-08-27 2022-05-03 Industry-Academic Cooperation Foundation, Yonsei University Person re-identification apparatus and method
KR102225022B1 (en) 2019-08-27 2021-03-08 연세대학교 산학협력단 Person re-identification apparatus and method
US11527000B2 (en) 2020-01-22 2022-12-13 Korea Institute Of Science And Technology System and method for re-identifying target object based on location information of CCTV and movement information of object
KR20210094784A (en) * 2020-01-22 2021-07-30 한국과학기술연구원 System and method for re-identifying target object based on location information of cctv and movement information of object
KR20210146109A (en) * 2020-05-26 2021-12-03 동명대학교산학협력단 Apparatus for continuous object location tracking through training of multiple image data and method thereof
WO2022019601A1 (en) * 2020-07-24 2022-01-27 김승모 Extraction of feature point of object from image and image search system and method using same
CN112541453A (en) * 2020-12-18 2021-03-23 广州丰石科技有限公司 Luggage weight recognition model training and luggage weight recognition method
CN113191338B (en) * 2021-06-29 2021-09-17 苏州浪潮智能科技有限公司 Pedestrian re-identification method, device and equipment and readable storage medium
CN113191338A (en) * 2021-06-29 2021-07-30 苏州浪潮智能科技有限公司 Pedestrian re-identification method, device and equipment and readable storage medium
US11830275B1 (en) 2021-06-29 2023-11-28 Inspur Suzhou Intelligent Technology Co., Ltd. Person re-identification method and apparatus, device, and readable storage medium
WO2023282410A1 (en) * 2021-07-05 2023-01-12 서울과학기술대학교 산학협력단 Method for recognizing same character in images captured by plurality of cameras, and recording medium and apparatus for performing same
KR20230021566A (en) 2021-08-05 2023-02-14 국민대학교산학협력단 Method and apparatus for matching object based on re-identification
KR102533091B1 (en) * 2022-03-04 2023-05-26 주식회사 한국공간데이터 Method and device for pperson re-identification

Similar Documents

Publication Publication Date Title
KR20190068000A (en) Person Re-identification System in Multiple Camera Environments
JP4216668B2 (en) Face detection / tracking system and method for detecting and tracking multiple faces in real time by combining video visual information
JP6614611B2 (en) Apparatus, program, and method for tracking object in consideration of similarity between images
Ahmed et al. Vision based hand gesture recognition using dynamic time warping for Indian sign language
CN106960181B (en) RGBD data-based pedestrian attribute identification method
CN108009466B (en) Pedestrian detection method and device
US11348371B2 (en) Person detection system
JP2019109709A (en) Image processing apparatus, image processing method and program
JP2007317062A (en) Person recognition apparatus and method
JP2016162232A (en) Method and device for image recognition and program
US20150324659A1 (en) Method for detecting objects in stereo images
CN111582126B (en) Pedestrian re-recognition method based on multi-scale pedestrian contour segmentation fusion
KR101753097B1 (en) Vehicle detection method, data base for the vehicle detection, providing method of data base for the vehicle detection
CN110674680B (en) Living body identification method, living body identification device and storage medium
KR20160132731A (en) Device and method for tracking pedestrian in thermal image using an online random fern learning
CN110796074A (en) Pedestrian re-identification method based on space-time data fusion
CN112541448A (en) Pedestrian re-identification method and device, electronic equipment and storage medium
CN111444850A (en) Picture detection method and related device
KR20190050551A (en) Apparatus and method for recognizing body motion based on depth map information
CN110580708B (en) Rapid movement detection method and device and electronic equipment
CN114743026A (en) Target object orientation detection method, device, equipment and computer readable medium
CN113255542A (en) Illegal object identity recognition method based on illegal behavior recognition
Amin et al. An automatic number plate recognition of Bangladeshi vehicles
Mitsukura et al. A design of face detection system by using lip detection neural network and skin distinction neural network
Swathika et al. Emergency exit sign detection system for visually impaired people

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application