CN110826424B - 一种基于行人重识别驱动定位调整的行人搜索方法 - Google Patents
一种基于行人重识别驱动定位调整的行人搜索方法 Download PDFInfo
- Publication number
- CN110826424B CN110826424B CN201910998178.2A CN201910998178A CN110826424B CN 110826424 B CN110826424 B CN 110826424B CN 201910998178 A CN201910998178 A CN 201910998178A CN 110826424 B CN110826424 B CN 110826424B
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- identification
- positioning adjustment
- loss
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000001514 detection method Methods 0.000 claims abstract description 54
- 238000006243 chemical reaction Methods 0.000 claims abstract description 13
- 238000012544 monitoring process Methods 0.000 claims abstract description 6
- 238000012549 training Methods 0.000 claims description 11
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 abstract description 3
- 239000003795 chemical substances by application Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2193—Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/95—Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于行人重识别驱动定位调整的行人搜索方法,属于计算机视觉技术领域,本发明通过设计感兴趣转换模块有效实现行人检测网络和行人重识别的联合优化;一方面,感兴趣转换模块将原始输入图像转换为感兴趣区域对应的小图,避免行人重识别网络和检测网络共享部分特征存在的矛盾;另一方面,行人重识别网络的损失可通过感兴趣区域转换模块梯度回传至检测网络,实现行人重识别网络损失对检测网络输出检测框的监督,调整后的检测框可以有效去除背景干扰,并且会包含更多有用的属性信息,更适合用于行人搜索,从而大大提升了行人搜索的准确率。
Description
技术领域
本发明属于计算机视觉技术领域,更具体地,涉及一种基于行人重识别驱动定位调整的行人搜索方法。
背景技术
目前在人员密集的公共场所、政府部门、企事业单位、住宅小区、甚至许多居民的家中都装有监控摄像头,为维护社会治安、保障人民生命财产安全提供了可靠的视频监控资源。在视频监控中,由于摄像头的分辨率、拍摄角度等参数变化较大,难以实现高质量人脸图片的稳定获取,使得基于人脸识别技术的目标追踪稳定性较差。相对而言,行人搜索(Person Sea rch)技术可以为视频监控提供鲁棒性更强的目标追踪解决方案。行人搜索是指给定一张包含待查询行人的图片,从图片库中将该行人检测并识别出来,共包括行人检测和行人重识别两个子任务。相比于行人重识别直接利用裁好的行人图片,行人搜索更加接近现实场景。
现有的行人搜索方法主要分为两大类:一类方法是通过共享行人检测和行人重识别网络的部分特征进行联合训练,例如首篇行人搜索文章:“Joint detection andidentification feature learning for person search,Computer Vision and PatternRecognition(CVPR),2017 IEEE Conference on IEEE,2017:3376-3385.”,但这类方法忽略了行人检测是二分类,而行人重识别是多分类任务,直接共享特征这种做法存在冲突,因此这类方法的准确率普遍比较低;另一类方法是分别进行检测和重识别,将两个任务分隔开,不能很好的进行联合优化,检测网络输出的检测框往往存在背景干扰,不适合用于行人搜索,因此这类方法的准确率普遍也较低;此外,该方法不能实现端到端的检测,也导致了行人搜索的效率比较低。
总体而言,现有现有行人搜索方法通过共享部分特征,实现行人检测网络和行人重识别网络的联合训练,由于共享特征存在冲突,而造成行人搜索的准确率较低的技术问题。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种基于行人重识别驱动定位调整的行人搜索方法,其目的在于解决,现有现有行人搜索方法通过共享部分特征,实现行人检测网络和行人重识别网络的联合训练,由于共享特征存在冲突,而造成行人搜索的准确率较低的技术问题。
为实现上述目的,本发明提供了一种基于行人重识别驱动定位调整的行人搜索方法,包括:
(1)构建行人重识别驱动定位调整模型;所述行人重识别驱动定位调整模型包括检测模块、感兴趣区域转换模块和行人重识别模块;
所述检测模块,用于对输入图像中的行人进行检测,得到行人位置对应的检测框坐标;所述感兴趣区域转换模块,用于根据所述检测框坐标计算得到由输入图像到检测框坐标的仿射变换参数,并根据所述仿射变换参数和双线性采样对输入图像中的感兴趣区域进行提取;所述行人重识别模块,用于对所述感兴趣区域提取深度特征;
(2)将原始图片作为所述行人重识别驱动定位调整模型的输入,将原始图片内行人对应的身份标签的概率值作为所述行人重识别驱动定位调整模型输出特征经过分类后的期望输出,对所述行人重识别驱动定位调整模型进行训练;
(3)将待搜索图像和目标图像分别输入训练好的行人重识别驱动定位调整模型,得到待搜索图像行人特征和目标图像行人特征,计算待搜索图像行人特征与目标图像行人特征之间的相似度,获得待搜索图像的匹配结果。
进一步地,采用交叉熵损失和三元组代理损失对所述行人重识别模型进行监督。
进一步地,采用三元组代理损失监督所述行人重识别模块的方法具体为:
(01)初始化用于存储每个类别特征值的三元组代理表T∈RN*K;其中,N代表样本的类别总数,K代表每个类别存储特征的个数;
(02)前向传播时,通过计算三元组代理损失值使同类别的样本之间距离更近,不同类别样本之间的距离更远;
(03)反向传播时,更新当前样本对应类别在所述三元组代理表中的特征,采用先入先出原则替换已有特征。
进一步地,所述行人重识别模块的损失函数对所述检测模块输出的检测框坐标进行监督。
进一步地,所述检测模块采用Faster R-CNN作为网络主干。
进一步地,所述Faster R-CNN包括分类损失,不包括回归损失。
进一步地,所述Faster R-CNN采用的锚框长宽比小于1。
进一步地,所述行人重识别模块ResNet50作为网络主干。
进一步地,所述ResNet50采用批归一化层替换网络最后的全连接层。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,能够取得下列有益效果:
(1)本发明通过设计感兴趣转换模块有效实现行人检测网络和行人重识别的联合优化;一方面,感兴趣转换模块将原始输入图像转换为感兴趣区域对应的小图,避免行人重识别网络和检测网络共享部分特征存在的矛盾;另一方面,行人重识别网络的损失可通过感兴趣区域转换模块梯度回传至检测网络,实现行人重识别网络损失对检测网络输出检测框的监督,调整后的检测框可以有效去除背景干扰,并且会包含更多有用的属性信息,更适合用于行人搜索,从而大大提升了行人搜索的准确率。
(2)本发明设计了一种三元组代理损失,用一个三元组代理表来存储所有类别的特征,并且在每次迭代进行更新,因此即使在行人搜索任务中,由于批训练样本个数太少的限制,无法构建常规的三元组损失,也可以通过提取三元组代理表中的代理样本来构建三元组,进而使同类别的样本之间距离更近,不同类别样本之间的距离更远,提高行人搜索的精确度。
附图说明
图1是本发明实施例的一种基于行人重识别驱动定位调整的行人搜索方法的流程图。
图2是本发明实施例的行人重识别驱动定位调整模型结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
如图1所示,本发明实施例提供了一种基于行人重识别驱动定位调整的行人搜索方法,包括:
(1)构建行人重识别驱动定位调整模型;如图2所示,该行人重识别驱动定位调整模型包括检测模块、感兴趣区域转换模块和行人重识别模块;其中,检测模块,用于对输入图像中的行人进行检测,得到行人位置对应的检测框坐标;感兴趣区域转换模块,用于根据检测框坐标计算得到由输入图像到检测框坐标的仿射变换参数,并根据仿射变换参数和双线性采样对输入图像中的感兴趣区域进行提取;行人重识别模块,用于对感兴趣区域提取深度特征;
具体地,本发明实施例提供的检测模块采用Faster R-CNN作为网络主干,由于检测目标为行人,为更适合人体比例,应修改Faster R-CNN中anchor的长宽比使其小于1,本发明实施例修改Faster R-CNN中anchor的长宽比从1:1,1:2,2:1到1:1,1:2,1:3;同时为使重识别损失能够主导检测框的生成,而不仅仅使检测框接近于真实框,本发明只保留原始Faster R-CNN的分类损失,去掉原始网络中的回归损失。
由于感兴趣转换模块的作用,使得重识别网络的损失可以梯度回传至检测网络,从而对检测出的坐标进行监督,具体地,采用以下公式根据检测框坐标计算得到由输入图像到检测框坐标的仿射变换参数θ:
根据仿射变换参数θ以及双线性采样,可以得到检测框对应的感兴趣区域小图,并且实现损失函数的梯度回传;感兴趣区域小图的计算公式为:
V=B(PS,U)
其中,B代表双线性采样,U和V分别代表原始输入图像和感兴趣区域小图,PS是根据仿射变换得到由小图到原图像的像素点。
行人重识别模块采用ResNet50作为网络主干,为了保持训练的类别数和训练集类别数保持一致,本发明移除ResNet50最后的全连接层,得到修改后的残差网络,并在修改后的残差网络之后添加批归一化层。
(2)将原始图片作为所述行人重识别驱动定位调整模型的输入,将原始图片内行人对应的身份标签概率值作为所述行人重识别驱动定位调整模型输出特征经过分类后的期望输出,对所述行人重识别驱动定位调整模型进行训练;
具体地,本发明采用交叉熵损失和三元组代理损失对行人重识别模型进行监督;其中,三元组损失是行人重识别领域一种常用的度量损失,该损失可以使同类别的样本之间距离更近,不同类别样本之间的距离更远,但是由于在行人搜索任务中,由于批训练样本个数太少的限制,无法构建常规的三元组损失。因此本发明设计了一种三元组代理损失,用一个三元组代理表来存储所有类别的特征,并且在每次迭代进行更新,这样即使批训练样本不足以构成三元组,也可以通过提取三元组代理表中的代理样本来构建三元组,故称为三元组代理损失;采用三元组代理损失监督所述行人重识别模块的方法具体为:(01)初始化用于存储每个类别特征值的三元组代理表T∈RN*K;其中,N代表样本的类别总数,K代表每个类别存储特征的个数,本发明实施例取K=2;(02)前向传播时,通过计算三元组代理损失值L使同类别的样本之间距离更近,不同类别样本之间的距离更远:
其中,m表示约束负样本对大于正样本对距离的间隔,fi a,fi p,fi n分别表示三元组中的锚点样本、正样本以及负样本的特征,D表示欧氏距离;
(03)反向传播时,更新当前样本对应类别在所述三元组代理表中的特征,采用先入先出原则替换已有特征。
(3)将待搜索图像和目标图像分别输入训练好的行人重识别驱动定位调整模型,得到待搜索图像行人特征和目标图像行人特征,计算待搜索图像行人特征与目标图像行人特征之间的相似度,获得待搜索图像的匹配结果。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种基于行人重识别驱动定位调整的行人搜索方法,其特征在于,包括:
(1)构建行人重识别驱动定位调整模型;所述行人重识别驱动定位调整模型包括检测模块、感兴趣区域转换模块和行人重识别模块;
所述检测模块,用于对输入图像中的行人进行检测,得到行人位置对应的检测框坐标;所述感兴趣区域转换模块,用于根据所述检测框坐标计算得到由输入图像到检测框坐标的仿射变换参数,并根据所述仿射变换参数和双线性采样对输入图像中的感兴趣区域进行提取;所述行人重识别模块,用于对所述感兴趣区域提取深度特征;
(2)将原始图片作为所述行人重识别驱动定位调整模型的输入,将原始图片内行人对应的身份标签的概率值作为所述行人重识别驱动定位调整模型输出特征经过分类后的期望输出,对所述行人重识别驱动定位调整模型进行训练;采用交叉熵损失和三元组代理损失对所述行人重识别模块进行监督;其中,采用三元组代理损失监督所述行人重识别模块的方法具体为:
(01)初始化用于存储每个类别特征值的三元组代理表T∈RN*K;其中,N代表样本的类别总数,K代表每个类别存储特征的个数;
(02)前向传播时,通过计算三元组代理损失值使同类别的样本之间距离更近,不同类别样本之间的距离更远;
(03)反向传播时,更新当前样本对应类别在所述三元组代理表中的特征,采用先入先出原则替换已有特征;
(3)将待搜索图像和目标图像分别输入训练好的行人重识别驱动定位调整模型,得到待搜索图像行人特征和目标图像行人特征,计算待搜索图像行人特征与目标图像行人特征之间的相似度,获得待搜索图像的匹配结果。
2.根据权利要求1所述的一种基于行人重识别驱动定位调整的行人搜索方法,其特征在于,所述行人重识别模块的损失函数对所述检测模块输出的检测框坐标进行监督。
3.根据权利要求2所述的一种基于行人重识别驱动定位调整的行人搜索方法,其特征在于,所述检测模块采用Faster R-CNN作为网络主干。
4.根据权利要求3所述的一种基于行人重识别驱动定位调整的行人搜索方法,其特征在于,所述Faster R-CNN包括分类损失,不包括回归损失。
5.根据权利要求4所述的一种基于行人重识别驱动定位调整的行人搜索方法,其特征在于,所述Faster R-CNN采用的锚框长宽比小于1。
6.根据权利要求1-5任一项所述的一种基于行人重识别驱动定位调整的行人搜索方法,其特征在于,所述行人重识别模块ResNet50作为网络主干。
7.根据权利要求6所述的一种基于行人重识别驱动定位调整的行人搜索方法,其特征在于,所述ResNet50采用批归一化层替换网络最后的全连接层。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910998178.2A CN110826424B (zh) | 2019-10-21 | 2019-10-21 | 一种基于行人重识别驱动定位调整的行人搜索方法 |
PCT/CN2020/097623 WO2021077785A1 (zh) | 2019-10-21 | 2020-06-23 | 一种基于行人重识别驱动定位调整的行人搜索方法 |
US17/253,124 US11263491B2 (en) | 2019-10-21 | 2020-06-23 | Person search method based on person re-identification driven localization refinement |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910998178.2A CN110826424B (zh) | 2019-10-21 | 2019-10-21 | 一种基于行人重识别驱动定位调整的行人搜索方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110826424A CN110826424A (zh) | 2020-02-21 |
CN110826424B true CN110826424B (zh) | 2021-07-27 |
Family
ID=69549837
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910998178.2A Active CN110826424B (zh) | 2019-10-21 | 2019-10-21 | 一种基于行人重识别驱动定位调整的行人搜索方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11263491B2 (zh) |
CN (1) | CN110826424B (zh) |
WO (1) | WO2021077785A1 (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110826424B (zh) | 2019-10-21 | 2021-07-27 | 华中科技大学 | 一种基于行人重识别驱动定位调整的行人搜索方法 |
CN112085119A (zh) * | 2020-09-17 | 2020-12-15 | 上海眼控科技股份有限公司 | 数据处理方法、装置、设备和存储介质 |
CN112232203B (zh) * | 2020-10-15 | 2024-05-28 | 平安科技(深圳)有限公司 | 行人识别方法、装置、电子设备及存储介质 |
CN113191338B (zh) * | 2021-06-29 | 2021-09-17 | 苏州浪潮智能科技有限公司 | 一种行人重识别方法、装置、设备及可读存储介质 |
CN113743251B (zh) * | 2021-08-17 | 2024-02-13 | 华中科技大学 | 一种基于弱监督场景的目标搜索方法及装置 |
CN115424086A (zh) * | 2022-07-26 | 2022-12-02 | 北京邮电大学 | 多视角的细粒度识别方法、装置、电子设备及介质 |
CN116229381B (zh) * | 2023-05-11 | 2023-07-07 | 南昌工程学院 | 一种河湖采砂船船脸识别方法 |
CN116863313B (zh) * | 2023-09-05 | 2024-01-12 | 湖北大学 | 基于标签增量精炼和对称评分的目标重识别方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109902573A (zh) * | 2019-01-24 | 2019-06-18 | 中国矿业大学 | 面向矿井下视频监控的多摄像机无标注行人重识别方法 |
CN110334687A (zh) * | 2019-07-16 | 2019-10-15 | 合肥工业大学 | 一种基于行人检测、属性学习和行人识别的行人检索增强方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9158971B2 (en) * | 2014-03-03 | 2015-10-13 | Xerox Corporation | Self-learning object detectors for unlabeled videos using multi-task learning |
US10579911B2 (en) * | 2017-05-23 | 2020-03-03 | The United States Of America, As Represented By The Secretary Of The Navy | Systems and related methods employing directed energy and machine learning operable for enabling or protecting from non-destructive degradation or disruption of electro-optic(s) or sensors |
US10748036B2 (en) * | 2017-11-21 | 2020-08-18 | Nvidia Corporation | Training a neural network to predict superpixels using segmentation-aware affinity loss |
US20190205608A1 (en) * | 2017-12-29 | 2019-07-04 | Deep Innovations Ltd | Method and apparatus for safety monitoring of a body of water |
US11504607B2 (en) * | 2019-02-05 | 2022-11-22 | Deep Innovations Ltd. | System and method for using a camera unit for the pool cleaning robot for safety monitoring and augmented reality games |
US11363416B2 (en) * | 2019-10-04 | 2022-06-14 | Samsung Electronics Co., Ltd. | System and method for WiFi-based indoor localization via unsupervised domain adaptation |
CN110826424B (zh) * | 2019-10-21 | 2021-07-27 | 华中科技大学 | 一种基于行人重识别驱动定位调整的行人搜索方法 |
-
2019
- 2019-10-21 CN CN201910998178.2A patent/CN110826424B/zh active Active
-
2020
- 2020-06-23 US US17/253,124 patent/US11263491B2/en active Active
- 2020-06-23 WO PCT/CN2020/097623 patent/WO2021077785A1/zh active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109902573A (zh) * | 2019-01-24 | 2019-06-18 | 中国矿业大学 | 面向矿井下视频监控的多摄像机无标注行人重识别方法 |
CN110334687A (zh) * | 2019-07-16 | 2019-10-15 | 合肥工业大学 | 一种基于行人检测、属性学习和行人识别的行人检索增强方法 |
Also Published As
Publication number | Publication date |
---|---|
US20210365743A1 (en) | 2021-11-25 |
WO2021077785A1 (zh) | 2021-04-29 |
US11263491B2 (en) | 2022-03-01 |
CN110826424A (zh) | 2020-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110826424B (zh) | 一种基于行人重识别驱动定位调整的行人搜索方法 | |
Kawewong et al. | Online and incremental appearance-based SLAM in highly dynamic environments | |
Cao et al. | Vehicle detection and motion analysis in low-altitude airborne video under urban environment | |
CN111539370A (zh) | 一种基于多注意力联合学习的图像行人重识别方法和系统 | |
Cadena et al. | Robust place recognition with stereo cameras | |
CN108564052A (zh) | 基于mtcnn的多摄像头动态人脸识别系统与方法 | |
CN109063581A (zh) | 用于有限资源嵌入式视觉系统的增强型人脸检测和人脸跟踪方法和系统 | |
EP3765995B1 (en) | Systems and methods for inter-camera recognition of individuals and their properties | |
US10937150B2 (en) | Systems and methods of feature correspondence analysis | |
Du et al. | Face association across unconstrained video frames using conditional random fields | |
CN108363771B (zh) | 一种面向公安侦查应用的图像检索方法 | |
Maalej et al. | Vanets meet autonomous vehicles: A multimodal 3d environment learning approach | |
CN111444816A (zh) | 一种基于Faster RCNN的多尺度密集行人检测方法 | |
Dai et al. | Overview of UAV target detection algorithms based on deep learning | |
Sun et al. | Collaborative multi-object tracking as an edge service using transfer learning | |
CN116862832A (zh) | 一种基于三维实景模型的作业人员定位方法 | |
Altundogan et al. | Multiple object tracking with dynamic fuzzy cognitive maps using deep learning | |
Girdhar et al. | Gibbs sampling strategies for semantic perception of streaming video data | |
CN112487927A (zh) | 一种基于物体关联注意力的室内场景识别实现方法及系统 | |
Zhao et al. | Siamese network for object tracking in aerial video | |
Kovács et al. | Shape-and-motion-fused multiple flying target recognition and tracking | |
Lai et al. | Exploring a cam-based approach for weakly supervised fire detection task | |
Naseri et al. | Detection of drones with YOLOv4 deep learning algorithm | |
Ambesh et al. | Drone Detection using YOLOv4 and Amazon Rekognition | |
Chavez et al. | Automated species counting using a hierarchical classification approach with haar cascades and multi-descriptor random forests |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |