CN110826424A - 一种基于行人重识别驱动定位调整的行人搜索方法 - Google Patents

一种基于行人重识别驱动定位调整的行人搜索方法 Download PDF

Info

Publication number
CN110826424A
CN110826424A CN201910998178.2A CN201910998178A CN110826424A CN 110826424 A CN110826424 A CN 110826424A CN 201910998178 A CN201910998178 A CN 201910998178A CN 110826424 A CN110826424 A CN 110826424A
Authority
CN
China
Prior art keywords
pedestrian
identification
positioning adjustment
driving positioning
loss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910998178.2A
Other languages
English (en)
Other versions
CN110826424B (zh
Inventor
桑农
韩楚楚
邵远杰
郑若辰
高常鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huazhong University of Science and Technology
Original Assignee
Huazhong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huazhong University of Science and Technology filed Critical Huazhong University of Science and Technology
Priority to CN201910998178.2A priority Critical patent/CN110826424B/zh
Publication of CN110826424A publication Critical patent/CN110826424A/zh
Priority to US17/253,124 priority patent/US11263491B2/en
Priority to PCT/CN2020/097623 priority patent/WO2021077785A1/zh
Application granted granted Critical
Publication of CN110826424B publication Critical patent/CN110826424B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2193Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于行人重识别驱动定位调整的行人搜索方法,属于计算机视觉技术领域,本发明通过设计感兴趣转换模块有效实现行人检测网络和行人重识别的联合优化;一方面,感兴趣转换模块将原始输入图像转换为感兴趣区域对应的小图,避免行人重识别网络和检测网络共享部分特征存在的矛盾;另一方面,行人重识别网络的损失可通过感兴趣区域转换模块梯度回传至检测网络,实现行人重识别网络损失对检测网络输出检测框的监督,调整后的检测框可以有效去除背景干扰,并且会包含更多有用的属性信息,更适合用于行人搜索,从而大大提升了行人搜索的准确率。

Description

一种基于行人重识别驱动定位调整的行人搜索方法
技术领域
本发明属于计算机视觉技术领域,更具体地,涉及一种基于行人重识别驱动定位调整的行人搜索方法。
背景技术
目前在人员密集的公共场所、政府部门、企事业单位、住宅小区、甚至许多居民的家中都装有监控摄像头,为维护社会治安、保障人民生命财产安全提供了可靠的视频监控资源。在视频监控中,由于摄像头的分辨率、拍摄角度等参数变化较大,难以实现高质量人脸图片的稳定获取,使得基于人脸识别技术的目标追踪稳定性较差。相对而言,行人搜索(Person Sea rch)技术可以为视频监控提供鲁棒性更强的目标追踪解决方案。行人搜索是指给定一张包含待查询行人的图片,从图片库中将该行人检测并识别出来,共包括行人检测和行人重识别两个子任务。相比于行人重识别直接利用裁好的行人图片,行人搜索更加接近现实场景。
现有的行人搜索方法主要分为两大类:一类方法是通过共享行人检测和行人重识别网络的部分特征进行联合训练,例如首篇行人搜索文章:“Joint detection andidentification feature learning for person search,Computer Vision and PatternRecognition(CVPR),2017 IEEE Conference on IEEE,2017:3376-3385.”,但这类方法忽略了行人检测是二分类,而行人重识别是多分类任务,直接共享特征这种做法存在冲突,因此这类方法的准确率普遍比较低;另一类方法是分别进行检测和重识别,将两个任务分隔开,不能很好的进行联合优化,检测网络输出的检测框往往存在背景干扰,不适合用于行人搜索,因此这类方法的准确率普遍也较低;此外,该方法不能实现端到端的检测,也导致了行人搜索的效率比较低。
总体而言,现有现有行人搜索方法通过共享部分特征,实现行人检测网络和行人重识别网络的联合训练,由于共享特征存在冲突,而造成行人搜索的准确率较低的技术问题。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种基于行人重识别驱动定位调整的行人搜索方法,其目的在于解决,现有现有行人搜索方法通过共享部分特征,实现行人检测网络和行人重识别网络的联合训练,由于共享特征存在冲突,而造成行人搜索的准确率较低的技术问题。
为实现上述目的,本发明提供了一种基于行人重识别驱动定位调整的行人搜索方法,包括:
(1)构建行人重识别驱动定位调整模型;所述行人重识别驱动定位调整模型包括检测模块、感兴趣区域转换模块和行人重识别模块;
所述检测模块,用于对输入图像中的行人进行检测,得到行人位置对应的检测框坐标;所述感兴趣区域转换模块,用于根据所述检测框坐标计算得到由输入图像到检测框坐标的仿射变换参数,并根据所述仿射变换参数和双线性采样对输入图像中的感兴趣区域进行提取;所述行人重识别模块,用于对所述感兴趣区域提取深度特征;
(2)将原始图片作为所述行人重识别驱动定位调整模型的输入,将原始图片内行人对应的身份标签的概率值作为所述行人重识别驱动定位调整模型输出特征经过分类后的期望输出,对所述行人重识别驱动定位调整模型进行训练;
(3)将待搜索图像和目标图像分别输入训练好的行人重识别驱动定位调整模型,得到待搜索图像行人特征和目标图像行人特征,计算待搜索图像行人特征与目标图像行人特征之间的相似度,获得待搜索图像的匹配结果。
进一步地,采用交叉熵损失和三元组代理损失对所述行人重识别模型进行监督。
进一步地,采用三元组代理损失监督所述行人重识别模块的方法具体为:
(01)初始化用于存储每个类别特征值的三元组代理表T∈RN*K;其中,N代表样本的类别总数,K代表每个类别存储特征的个数;
(02)前向传播时,通过计算三元组代理损失值使同类别的样本之间距离更近,不同类别样本之间的距离更远;
(03)反向传播时,更新当前样本对应类别在所述三元组代理表中的特征,采用先入先出原则替换已有特征。
进一步地,所述行人重识别模块的损失函数对所述检测模块输出的检测框坐标进行监督。
进一步地,所述检测模块采用Faster R-CNN作为网络主干。
进一步地,所述Faster R-CNN包括分类损失,不包括回归损失。
进一步地,所述Faster R-CNN采用的锚框长宽比小于1。
进一步地,所述行人重识别模块ResNet50作为网络主干。
进一步地,所述ResNet50采用批归一化层替换网络最后的全连接层。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,能够取得下列有益效果:
(1)本发明通过设计感兴趣转换模块有效实现行人检测网络和行人重识别的联合优化;一方面,感兴趣转换模块将原始输入图像转换为感兴趣区域对应的小图,避免行人重识别网络和检测网络共享部分特征存在的矛盾;另一方面,行人重识别网络的损失可通过感兴趣区域转换模块梯度回传至检测网络,实现行人重识别网络损失对检测网络输出检测框的监督,调整后的检测框可以有效去除背景干扰,并且会包含更多有用的属性信息,更适合用于行人搜索,从而大大提升了行人搜索的准确率。
(2)本发明设计了一种三元组代理损失,用一个三元组代理表来存储所有类别的特征,并且在每次迭代进行更新,因此即使在行人搜索任务中,由于批训练样本个数太少的限制,无法构建常规的三元组损失,也可以通过提取三元组代理表中的代理样本来构建三元组,进而使同类别的样本之间距离更近,不同类别样本之间的距离更远,提高行人搜索的精确度。
附图说明
图1是本发明实施例的一种基于行人重识别驱动定位调整的行人搜索方法的流程图。
图2是本发明实施例的行人重识别驱动定位调整模型结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
如图1所示,本发明实施例提供了一种基于行人重识别驱动定位调整的行人搜索方法,包括:
(1)构建行人重识别驱动定位调整模型;如图2所示,该行人重识别驱动定位调整模型包括检测模块、感兴趣区域转换模块和行人重识别模块;其中,检测模块,用于对输入图像中的行人进行检测,得到行人位置对应的检测框坐标;感兴趣区域转换模块,用于根据检测框坐标计算得到由输入图像到检测框坐标的仿射变换参数,并根据仿射变换参数和双线性采样对输入图像中的感兴趣区域进行提取;行人重识别模块,用于对感兴趣区域提取深度特征;
具体地,本发明实施例提供的检测模块采用Faster R-CNN作为网络主干,由于检测目标为行人,为更适合人体比例,应修改Faster R-CNN中anchor的长宽比使其小于1,本发明实施例修改Faster R-CNN中anchor的长宽比从1:1,1:2,2:1到1:1,1:2,1:3;同时为使重识别损失能够主导检测框的生成,而不仅仅使检测框接近于真实框,本发明只保留原始Faster R-CNN的分类损失,去掉原始网络中的回归损失。
由于感兴趣转换模块的作用,使得重识别网络的损失可以梯度回传至检测网络,从而对检测出的坐标进行监督,具体地,采用以下公式根据检测框坐标计算得到由输入图像到检测框坐标的仿射变换参数θ:
Figure BDA0002240397160000051
其中,
Figure BDA0002240397160000052
表示检测框在原始输入图像中的坐标,
Figure BDA0002240397160000053
表示提取的感兴趣区域小图的坐标;
根据仿射变换参数θ以及双线性采样,可以得到检测框对应的感兴趣区域小图,并且实现损失函数的梯度回传;感兴趣区域小图的计算公式为:
V=B(PS,U)
其中,B代表双线性采样,U和V分别代表原始输入图像和感兴趣区域小图,PS是根据仿射变换得到由小图到原图像的像素点。
行人重识别模块采用ResNet50作为网络主干,为了保持训练的类别数和训练集类别数保持一致,本发明移除ResNet50最后的全连接层,得到修改后的残差网络,并在修改后的残差网络之后添加批归一化层。
(2)将原始图片作为所述行人重识别驱动定位调整模型的输入,将原始图片内行人对应的身份标签概率值作为所述行人重识别驱动定位调整模型输出特征经过分类后的期望输出,对所述行人重识别驱动定位调整模型进行训练;
具体地,本发明采用交叉熵损失和三元组代理损失对行人重识别模型进行监督;其中,三元组损失是行人重识别领域一种常用的度量损失,该损失可以使同类别的样本之间距离更近,不同类别样本之间的距离更远,但是由于在行人搜索任务中,由于批训练样本个数太少的限制,无法构建常规的三元组损失。因此本发明设计了一种三元组代理损失,用一个三元组代理表来存储所有类别的特征,并且在每次迭代进行更新,这样即使批训练样本不足以构成三元组,也可以通过提取三元组代理表中的代理样本来构建三元组,故称为三元组代理损失;采用三元组代理损失监督所述行人重识别模块的方法具体为:(01)初始化用于存储每个类别特征值的三元组代理表T∈RN*K;其中,N代表样本的类别总数,K代表每个类别存储特征的个数,本发明实施例取K=2;(02)前向传播时,通过计算三元组代理损失值L使同类别的样本之间距离更近,不同类别样本之间的距离更远:
Figure BDA0002240397160000061
其中,m表示约束负样本对大于正样本对距离的间隔,fi a,fi p,fi n分别表示三元组中的锚点样本、正样本以及负样本的特征,D表示欧氏距离;
(03)反向传播时,更新当前样本对应类别在所述三元组代理表中的特征,采用先入先出原则替换已有特征。
(3)将待搜索图像和目标图像分别输入训练好的行人重识别驱动定位调整模型,得到待搜索图像行人特征和目标图像行人特征,计算待搜索图像行人特征与目标图像行人特征之间的相似度,获得待搜索图像的匹配结果。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种基于行人重识别驱动定位调整的行人搜索方法,其特征在于,包括:
(1)构建行人重识别驱动定位调整模型;所述行人重识别驱动定位调整模型包括检测模块、感兴趣区域转换模块和行人重识别模块;
所述检测模块,用于对输入图像中的行人进行检测,得到行人位置对应的检测框坐标;所述感兴趣区域转换模块,用于根据所述检测框坐标计算得到由输入图像到检测框坐标的仿射变换参数,并根据所述仿射变换参数和双线性采样对输入图像中的感兴趣区域进行提取;所述行人重识别模块,用于对所述感兴趣区域提取深度特征;
(2)将原始图片作为所述行人重识别驱动定位调整模型的输入,将原始图片内行人对应的身份标签的概率值作为所述行人重识别驱动定位调整模型输出特征经过分类后的期望输出,对所述行人重识别驱动定位调整模型进行训练;
(3)将待搜索图像和目标图像分别输入训练好的行人重识别驱动定位调整模型,得到待搜索图像行人特征和目标图像行人特征,计算待搜索图像行人特征与目标图像行人特征之间的相似度,获得待搜索图像的匹配结果。
2.根据权利要求1所述的一种基于行人重识别驱动定位调整的行人搜索方法,其特征在于,采用交叉熵损失和三元组代理损失对所述行人重识别模型进行监督。
3.根据权利要求2所述的一种基于行人重识别驱动定位调整的行人搜索方法,其特征在于,采用三元组代理损失监督所述行人重识别模块的方法具体为:
(01)初始化用于存储每个类别特征值的三元组代理表T∈RN*K;其中,N代表样本的类别总数,K代表每个类别存储特征的个数;
(02)前向传播时,通过计算三元组代理损失值使同类别的样本之间距离更近,不同类别样本之间的距离更远;
(03)反向传播时,更新当前样本对应类别在所述三元组代理表中的特征,采用先入先出原则替换已有特征。
4.根据权利要求1-3任一项所述的一种基于行人重识别驱动定位调整的行人搜索方法,其特征在于,所述行人重识别模块的损失函数对所述检测模块输出的检测框坐标进行监督。
5.根据权利要求1-4任一项所述的一种基于行人重识别驱动定位调整的行人搜索方法,其特征在于,所述检测模块采用Faster R-CNN作为网络主干。
6.根据权利要求5所述的一种基于行人重识别驱动定位调整的行人搜索方法,其特征在于,所述Faster R-CNN包括分类损失,不包括回归损失。
7.根据权利要求6所述的一种基于行人重识别驱动定位调整的行人搜索方法,其特征在于,所述Faster R-CNN采用的锚框长宽比小于1。
8.根据权利要求1-7任一项所述的一种基于行人重识别驱动定位调整的行人搜索方法,其特征在于,所述行人重识别模块ResNet50作为网络主干。
9.根据权利要求8所述的一种基于行人重识别驱动定位调整的行人搜索方法,其特征在于,所述ResNet50采用批归一化层替换网络最后的全连接层。
CN201910998178.2A 2019-10-21 2019-10-21 一种基于行人重识别驱动定位调整的行人搜索方法 Active CN110826424B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201910998178.2A CN110826424B (zh) 2019-10-21 2019-10-21 一种基于行人重识别驱动定位调整的行人搜索方法
US17/253,124 US11263491B2 (en) 2019-10-21 2020-06-23 Person search method based on person re-identification driven localization refinement
PCT/CN2020/097623 WO2021077785A1 (zh) 2019-10-21 2020-06-23 一种基于行人重识别驱动定位调整的行人搜索方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910998178.2A CN110826424B (zh) 2019-10-21 2019-10-21 一种基于行人重识别驱动定位调整的行人搜索方法

Publications (2)

Publication Number Publication Date
CN110826424A true CN110826424A (zh) 2020-02-21
CN110826424B CN110826424B (zh) 2021-07-27

Family

ID=69549837

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910998178.2A Active CN110826424B (zh) 2019-10-21 2019-10-21 一种基于行人重识别驱动定位调整的行人搜索方法

Country Status (3)

Country Link
US (1) US11263491B2 (zh)
CN (1) CN110826424B (zh)
WO (1) WO2021077785A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112085119A (zh) * 2020-09-17 2020-12-15 上海眼控科技股份有限公司 数据处理方法、装置、设备和存储介质
CN112232203A (zh) * 2020-10-15 2021-01-15 平安科技(深圳)有限公司 行人识别方法、装置、电子设备及存储介质
WO2021077785A1 (zh) * 2019-10-21 2021-04-29 华中科技大学 一种基于行人重识别驱动定位调整的行人搜索方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113191338B (zh) * 2021-06-29 2021-09-17 苏州浪潮智能科技有限公司 一种行人重识别方法、装置、设备及可读存储介质
CN113743251B (zh) * 2021-08-17 2024-02-13 华中科技大学 一种基于弱监督场景的目标搜索方法及装置
CN115424086A (zh) * 2022-07-26 2022-12-02 北京邮电大学 多视角的细粒度识别方法、装置、电子设备及介质
CN116229381B (zh) * 2023-05-11 2023-07-07 南昌工程学院 一种河湖采砂船船脸识别方法
CN116863313B (zh) * 2023-09-05 2024-01-12 湖北大学 基于标签增量精炼和对称评分的目标重识别方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190156154A1 (en) * 2017-11-21 2019-05-23 Nvidia Corporation Training a neural network to predict superpixels using segmentation-aware affinity loss
CN109902573A (zh) * 2019-01-24 2019-06-18 中国矿业大学 面向矿井下视频监控的多摄像机无标注行人重识别方法
CN110334687A (zh) * 2019-07-16 2019-10-15 合肥工业大学 一种基于行人检测、属性学习和行人识别的行人检索增强方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9158971B2 (en) * 2014-03-03 2015-10-13 Xerox Corporation Self-learning object detectors for unlabeled videos using multi-task learning
US10579911B2 (en) * 2017-05-23 2020-03-03 The United States Of America, As Represented By The Secretary Of The Navy Systems and related methods employing directed energy and machine learning operable for enabling or protecting from non-destructive degradation or disruption of electro-optic(s) or sensors
US20190205608A1 (en) * 2017-12-29 2019-07-04 Deep Innovations Ltd Method and apparatus for safety monitoring of a body of water
US11504607B2 (en) * 2019-02-05 2022-11-22 Deep Innovations Ltd. System and method for using a camera unit for the pool cleaning robot for safety monitoring and augmented reality games
US11363416B2 (en) * 2019-10-04 2022-06-14 Samsung Electronics Co., Ltd. System and method for WiFi-based indoor localization via unsupervised domain adaptation
CN110826424B (zh) * 2019-10-21 2021-07-27 华中科技大学 一种基于行人重识别驱动定位调整的行人搜索方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190156154A1 (en) * 2017-11-21 2019-05-23 Nvidia Corporation Training a neural network to predict superpixels using segmentation-aware affinity loss
CN109902573A (zh) * 2019-01-24 2019-06-18 中国矿业大学 面向矿井下视频监控的多摄像机无标注行人重识别方法
CN110334687A (zh) * 2019-07-16 2019-10-15 合肥工业大学 一种基于行人检测、属性学习和行人识别的行人检索增强方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021077785A1 (zh) * 2019-10-21 2021-04-29 华中科技大学 一种基于行人重识别驱动定位调整的行人搜索方法
US11263491B2 (en) 2019-10-21 2022-03-01 Huazhong University Of Science And Technology Person search method based on person re-identification driven localization refinement
CN112085119A (zh) * 2020-09-17 2020-12-15 上海眼控科技股份有限公司 数据处理方法、装置、设备和存储介质
CN112232203A (zh) * 2020-10-15 2021-01-15 平安科技(深圳)有限公司 行人识别方法、装置、电子设备及存储介质
CN112232203B (zh) * 2020-10-15 2024-05-28 平安科技(深圳)有限公司 行人识别方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
WO2021077785A1 (zh) 2021-04-29
US11263491B2 (en) 2022-03-01
CN110826424B (zh) 2021-07-27
US20210365743A1 (en) 2021-11-25

Similar Documents

Publication Publication Date Title
CN110826424B (zh) 一种基于行人重识别驱动定位调整的行人搜索方法
Kawewong et al. Online and incremental appearance-based SLAM in highly dynamic environments
CN108564052A (zh) 基于mtcnn的多摄像头动态人脸识别系统与方法
CN104978567B (zh) 基于场景分类的车辆检测方法
CN109063581A (zh) 用于有限资源嵌入式视觉系统的增强型人脸检测和人脸跟踪方法和系统
CN105160649A (zh) 基于核函数非监督聚类的多目标跟踪方法及系统
Wang et al. An overview of 3d object detection
Saputra et al. Graph-based thermal–inertial SLAM with probabilistic neural networks
Can et al. Detection and tracking of sea-surface targets in infrared and visual band videos using the bag-of-features technique with scale-invariant feature transform
CN111145222A (zh) 一种结合烟雾运动趋势和纹理特征的火灾检测方法
Du et al. Face association across unconstrained video frames using conditional random fields
CN108363771B (zh) 一种面向公安侦查应用的图像检索方法
Maalej et al. Vanets meet autonomous vehicles: A multimodal 3d environment learning approach
CN111444816A (zh) 一种基于Faster RCNN的多尺度密集行人检测方法
Dai et al. Overview of UAV target detection algorithms based on deep learning
Sun et al. Collaborative multi-object tracking as an edge service using transfer learning
CN116862832A (zh) 一种基于三维实景模型的作业人员定位方法
Altundogan et al. Multiple object tracking with dynamic fuzzy cognitive maps using deep learning
Zhao et al. Siamese network for object tracking in aerial video
Kansal et al. CARF-Net: CNN attention and RNN fusion network for video-based person reidentification
Lai et al. Exploring a cam-based approach for weakly supervised fire detection task
Kovács et al. Shape-and-motion-fused multiple flying target recognition and tracking
Hu et al. Modified multi-hypothesis tracking algorithm based on radar target appearance features
Naseri et al. Detection of drones with YOLOv4 deep learning algorithm
Ambesh et al. Drone Detection using YOLOv4 and Amazon Rekognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant