WO2020155873A1 - Caractéristiques apparentes profondes et procédé de suivi de multiples visages basé sur un réseau d'agrégation adaptative - Google Patents
Caractéristiques apparentes profondes et procédé de suivi de multiples visages basé sur un réseau d'agrégation adaptative Download PDFInfo
- Publication number
- WO2020155873A1 WO2020155873A1 PCT/CN2019/124966 CN2019124966W WO2020155873A1 WO 2020155873 A1 WO2020155873 A1 WO 2020155873A1 CN 2019124966 W CN2019124966 W CN 2019124966W WO 2020155873 A1 WO2020155873 A1 WO 2020155873A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- face
- frame
- feature
- target
- tracking
- Prior art date
Links
- 230000002776 aggregation Effects 0.000 title claims abstract description 53
- 238000004220 aggregation Methods 0.000 title claims abstract description 53
- 230000003044 adaptive effect Effects 0.000 title claims abstract description 44
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000001514 detection method Methods 0.000 claims abstract description 27
- 238000004364 calculation method Methods 0.000 claims abstract description 4
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 4
- 239000013598 vector Substances 0.000 claims description 15
- 239000011159 matrix material Substances 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 9
- 230000001815 facial effect Effects 0.000 claims description 9
- 230000004927 fusion Effects 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 9
- 230000008859 change Effects 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 6
- 238000004422 calculation algorithm Methods 0.000 claims description 5
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000000844 transformation Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 9
- 238000004590 computer program Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000003860 storage Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
Definitions
- the invention relates to the field of pattern recognition and computer vision, in particular to a multi-face tracking method based on deep appearance features and an adaptive aggregation network.
- Face tracking technology is a specific application of current tracking technology. It uses tracking algorithms to process the moving faces in the video sequence, and keep the face area The lock completes the tracking, and the technology has good application prospects in scenarios such as smart security and video surveillance.
- Face tracking plays an important role in video surveillance, but at present, in real scenes, due to the large changes in face pose and the overlap and occlusion between tracking targets, practical applications are still difficult.
- the purpose of the present invention is to propose a multi-face tracking method based on deep appearance features and an adaptive aggregation network, which can improve the performance of face tracking.
- the present invention adopts the following scheme to realize: a multi-face tracking method based on deep appearance features and an adaptive aggregation network, which specifically includes the following steps:
- Step S1 Use the face recognition data set to train an adaptive aggregation network
- Step S2 According to the initial input video frame, use the convolutional neural network to obtain the position of the face, initialize the face target to be tracked, extract and save the face features;
- Step S3 Use the Kalman filter to predict the position of each face target in the next frame, and locate the position of the face again in the next frame, and extract features from the detected face;
- Step S4 Use the adaptive aggregation network trained in step S1 to aggregate the face feature sets in the tracking trajectory of each tracked face target, and dynamically generate a face depth apparent feature fused with multi-frame information, combined The predicted position and fusion features are calculated and matched with the face position and features obtained through detection in the current frame, and the tracking state is updated.
- step S1 specifically includes the following steps:
- Step S11 Collect public face recognition data sets to obtain pictures and names of relevant people
- Step S12 Use the fusion strategy to integrate the pictures of the common people in the multiple data sets, use the pre-trained MTCNN model for face detection and face key point positioning, and apply similar transformations for face alignment, and at the same time all the training sets The image subtracts the mean value of each channel on the training set, completes the data preprocessing, and trains the adaptive aggregation network.
- the adaptive aggregation network is composed of a deep feature extraction module and an adaptive feature aggregation module in series. It accepts one or more face images of the same person as input and outputs the aggregated features, where the deep feature extraction
- q represents the weight of each component of the feature vector z t , which is a parameter that can be learned.
- the face recognition signal is used as a supervisory signal to learn using back propagation and gradient descent methods.
- V t is the output of the sigmoid function, representing The score of each feature vector z t ranges between 0 and 1
- step S2 specifically includes the following steps:
- Step S24 Input the aligned face image into the adaptive aggregation network to obtain the corresponding deep apparent feature of the face, and add it to the feature list E k of T k in the tracker.
- step S3 specifically includes the following steps:
- Step S31 Express the state of each tracked face target in the following form:
- m represents the state of the tracked face target
- u and v represent the center coordinates of the tracked face area
- s is the area of the face frame
- r is the aspect ratio of the face frame
- Step S33 Change As the direct observation result of the k-th tracking target in the i-th frame, it is derived from face detection, and the state of the k-th tracking target in the i+1-th frame is determined by the Kalman filter based on the linear uniform motion model. Make predictions
- Step S34 In the i+1th frame, the MTCNN model is used to perform face detection and facial key point positioning again, to obtain the face position Di +1 and the face key point C i+1 ;
- Step S35 For each person's face position Based on its facial key points The similarity transformation is applied to complete the face alignment, and the adaptive aggregation network is input to extract the features, and the feature set F i+1 is obtained , where F i+1 represents the feature set of all faces in the i+1 frame.
- step S4 specifically includes the following steps:
- Step S41 For each face tracker T k , the set E k of all the features in its historical motion trajectory is input into the adaptive aggregation network to obtain the aggregated feature f k , where f k represents the k-th tracking target historical motion trajectory An aggregated feature output after all feature vectors in the fusion;
- Step S42 Set the position state of the kth target predicted by the Kalman filter in the i-th frame in the next frame change into form
- Step S43 Combine And certain features of the polymeric k f k, as well as human face detection in the i + 1-position of the face frame obtained D i + 1, and the feature set F i + 1, the correlation matrix is calculated as follows:
- J i+1 is the number of faces detected in the i+1 frame
- K i is the number of tracking targets in the i frame
- the degree of overlap between Is the j-th face feature in the i+1-th frame The cosine similarity with the k-th target aggregation feature f k in the i-th frame, where ⁇ is a hyperparameter used to balance the weights of the two metrics;
- Step S44 Using the incidence matrix G as the cost matrix, the Hungarian algorithm is used to calculate the matching result, and the face detection frame in the i+1 frame Related to the kth tracking target;
- Step S45 Correspond the subscripts in the matching result to items in the incidence matrix G, and filter all items g jk that are less than T similarity , and delete them from the matching result, where T similarity is the set hyperparameter, which means the matching is successful The lowest similarity threshold;
- Step S47 For each tracker T k , if its life cycle A k > T age , delete the tracker, where T age is a set hyperparameter, which represents the longest time a tracking target can survive.
- the present invention has the following beneficial effects:
- a multi-face tracking method based on deep appearance features and an adaptive aggregation network constructed by the present invention can effectively track faces in videos, improve the accuracy of face tracking, and reduce target switching The number of times.
- the present invention can track the face in the video online while ensuring the tracking effect.
- the predicted face position is uncertain, and at the same time, the face may undergo significant posture changes and occlusion.
- the present invention proposes a method of using the depth and apparent features of the face. The information between position and depth features improves the performance of face tracking.
- the present invention proposes an adaptive aggregation network, which is adaptive through a feature aggregation module The importance of each feature in the feature set is learned and fused effectively, which improves the effect of face tracking.
- Fig. 1 is a schematic flowchart of an embodiment of the present invention.
- this embodiment provides a multi-face tracking method based on deep appearance features and an adaptive aggregation network, which specifically includes the following steps:
- Step S1 Use the face recognition data set to train an adaptive aggregation network
- Step S2 According to the initial input video frame, the face detection method based on convolutional neural network is used to obtain the position of the face, initialize the face target to be tracked, and extract and save the face feature;
- Step S3 Use the Kalman filter to predict the position of each face target in the next frame, and use the face detection method to locate the position of the face again in the next frame, and extract features from the detected face;
- Step S4 Use the adaptive aggregation network trained in step S1 to aggregate the face feature sets in the tracking trajectory of each tracked face target, and dynamically generate a face depth apparent feature fused with multi-frame information, combined The predicted position and fusion features are calculated and matched with the face position and features obtained through detection in the current frame, and the tracking state is updated.
- step S1 specifically includes the following steps:
- Step S11 Collect public face recognition data sets to obtain pictures and names of relevant people
- Step S12 Use the fusion strategy to integrate the pictures of the common people in the multiple data sets, use the pre-trained MTCNN model for face detection and face key point positioning, and apply similar transformations for face alignment, and at the same time all the training sets The image subtracts the mean value of each channel on the training set, completes the data preprocessing, and trains the adaptive aggregation network.
- the adaptive aggregation network is composed of a deep feature extraction module and an adaptive feature aggregation module in series. It accepts one or more face images of the same person as input and outputs the aggregated features, where
- q represents the weight of each component of the feature vector z t , which is a parameter that can be learned.
- the learning is performed using back propagation and gradient descent methods
- v t is the output of the sigmoid function, representing The score of each feature vector z t ranges between 0 and 1
- step S2 specifically includes the following steps:
- Step S24 Input the aligned face image into the adaptive aggregation network to obtain the corresponding deep apparent feature of the face, and add it to the feature list E k of T k in the tracker.
- step S3 specifically includes the following steps:
- Step S31 Express the state of each tracked face target in the following form:
- m represents the state of the tracked face target
- u and v represent the center coordinates of the tracked face area
- s is the area of the face frame
- r is the aspect ratio of the face frame
- Step S33 Change As the direct observation result of the k-th tracking target in the i-th frame, it is derived from face detection, and the state of the k-th tracking target in the i+1-th frame is determined by the Kalman filter based on the linear uniform motion model. Make predictions
- Step S34 In the i+1th frame, the MTCNN model is used to perform face detection and facial key point positioning again, to obtain the face position Di +1 and the face key point C i+1 ;
- Step S35 For each person's face position Based on its facial key points The similarity transformation is applied to complete the face alignment, and the adaptive aggregation network is input to extract the features, and the feature set F i+1 is obtained , where F i+1 represents the feature set of all faces in the i+1 frame.
- step S4 specifically includes the following steps:
- Step S41 For each face tracker T k , the set E k of all the features in its historical motion trajectory is input into the adaptive aggregation network to obtain the aggregated feature f k , where f k represents the k-th tracking target historical motion trajectory An aggregated feature output after all feature vectors in the fusion;
- Step S42 Set the position state of the kth target predicted by the Kalman filter in the i-th frame in the next frame change into form
- Step S43 Combine And certain features of the polymeric k f k, as well as human face detection in the i + 1-position of the face frame obtained D i + 1, and the feature set F i + 1, the correlation matrix is calculated as follows:
- J i+1 is the number of faces detected in the i+1 frame
- K i is the number of tracking targets in the i frame
- the degree of overlap between Is the j-th face feature in the i+1-th frame The cosine similarity with the k-th target aggregation feature f k in the i-th frame, where ⁇ is a hyperparameter used to balance the weights of the two metrics;
- Step S44 Using the incidence matrix G as the cost matrix, the Hungarian algorithm is used to calculate the matching result, and the face detection frame in the i+1 frame Related to the kth tracking target;
- Step S45 Correspond the subscripts in the matching result to items in the incidence matrix G, and filter all items g jk that are less than T similarity , and delete them from the matching result, where T similarity is the set hyperparameter, which means the matching is successful The lowest similarity threshold;
- Step S47 For each tracker T k , if its life cycle A k > T age , delete the tracker, where T age is a set hyperparameter, which represents the longest time a tracking target can survive.
- this application can be provided as methods, systems, or computer program products. Therefore, this application may adopt the form of a complete hardware embodiment, a complete software embodiment, or an embodiment combining software and hardware. Moreover, this application may adopt the form of a computer program product implemented on one or more computer-usable storage media (including but not limited to disk storage, CD-ROM, optical storage, etc.) containing computer-usable program codes.
- computer-usable storage media including but not limited to disk storage, CD-ROM, optical storage, etc.
- These computer program instructions can also be stored in a computer-readable memory that can direct a computer or other programmable data processing equipment to work in a specific manner, so that the instructions stored in the computer-readable memory produce an article of manufacture including the instruction device.
- the device implements the functions specified in one process or multiple processes in the flowchart and/or one block or multiple blocks in the block diagram.
- These computer program instructions can also be loaded on a computer or other programmable data processing equipment, so that a series of operation steps are executed on the computer or other programmable equipment to produce computer-implemented processing, so as to execute on the computer or other programmable equipment.
- the instructions provide steps for implementing the functions specified in one process or multiple processes in the flowchart and/or one block or multiple blocks in the block diagram.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
La présente invention concerne un procédé de suivi de multiples visages basé sur un réseau d'agrégation adaptative consistant : premièrement, à former un réseau d'agrégation adaptatif à l'aide d'un ensemble de données de reconnaissance faciale ; puis, à l'aide d'un procédé de détection de visage basé sur un réseau neuronal convolutif pour obtenir la position d'un visage, à initialiser une cible de visage à suivre, et à extraire des caractéristiques de visage ; puis, à utiliser un filtre de Kalman pour prédire la position de chaque cible de suivi de visage dans une trame suivante, et à localiser à nouveau la position du visage dans la trame suivante afin d'extraire les caractéristiques du visage détecté ; enfin, à utiliser le réseau d'agrégation adaptative pour agréger des ensembles de caractéristiques de visage dans chaque trajectoire de suivi de cible de visage suivi, à générer dynamiquement une caractéristique apparente de profondeur de visage fusionnée avec une pluralité de trames d'informations, à réaliser un calcul de similarité et de mise en correspondance au moyen de la position du visage et de la caractéristique correspondante obtenue par la détection dans une trame actuelle conjointement avec la position prédite et la caractéristique fusionnée, et à mettre à jour un état de suivi. Le procédé décrit peut améliorer la réalisation de suivi de visage.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910106309.1A CN109829436B (zh) | 2019-02-02 | 2019-02-02 | 基于深度表观特征和自适应聚合网络的多人脸跟踪方法 |
CN201910106309.1 | 2019-02-02 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020155873A1 true WO2020155873A1 (fr) | 2020-08-06 |
Family
ID=66863393
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/CN2019/124966 WO2020155873A1 (fr) | 2019-02-02 | 2019-12-13 | Caractéristiques apparentes profondes et procédé de suivi de multiples visages basé sur un réseau d'agrégation adaptative |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN109829436B (fr) |
WO (1) | WO2020155873A1 (fr) |
Cited By (75)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111784746A (zh) * | 2020-08-10 | 2020-10-16 | 上海高重信息科技有限公司 | 一种鱼眼镜头下行人多目标跟踪方法、装置及计算机系统 |
CN111899284A (zh) * | 2020-08-14 | 2020-11-06 | 北京交通大学 | 一种基于参数化esm网络的平面目标跟踪方法 |
CN111932661A (zh) * | 2020-08-19 | 2020-11-13 | 上海交通大学 | 一种人脸表情编辑系统及方法、终端 |
CN111932588A (zh) * | 2020-08-07 | 2020-11-13 | 浙江大学 | 一种基于深度学习的机载无人机多目标跟踪系统的跟踪方法 |
CN112016440A (zh) * | 2020-08-26 | 2020-12-01 | 杭州云栖智慧视通科技有限公司 | 一种基于多目标跟踪的目标推送方法 |
CN112036271A (zh) * | 2020-08-18 | 2020-12-04 | 汇纳科技股份有限公司 | 基于卡尔曼滤波的行人重识别方法、系统、介质及终端 |
CN112053386A (zh) * | 2020-08-31 | 2020-12-08 | 西安电子科技大学 | 基于深度卷积特征自适应集成的目标跟踪方法 |
CN112085767A (zh) * | 2020-08-28 | 2020-12-15 | 安徽清新互联信息科技有限公司 | 一种基于深度光流跟踪的客流统计方法及系统 |
CN112215155A (zh) * | 2020-10-13 | 2021-01-12 | 北京中电兴发科技有限公司 | 一种基于多特征融合的人脸跟踪方法及系统 |
CN112288773A (zh) * | 2020-10-19 | 2021-01-29 | 慧视江山科技(北京)有限公司 | 基于Soft-NMS的多尺度人体跟踪方法及装置 |
CN112287877A (zh) * | 2020-11-18 | 2021-01-29 | 上海泗科智能科技有限公司 | 一种多角色特写镜头追踪方法 |
CN112541418A (zh) * | 2020-12-04 | 2021-03-23 | 北京百度网讯科技有限公司 | 用于图像处理的方法、装置、设备、介质和程序产品 |
CN112560669A (zh) * | 2020-12-14 | 2021-03-26 | 杭州趣链科技有限公司 | 人脸姿态估计方法、装置及电子设备 |
CN112560874A (zh) * | 2020-12-25 | 2021-03-26 | 北京百度网讯科技有限公司 | 图像识别模型的训练方法、装置、设备和介质 |
CN112597944A (zh) * | 2020-12-29 | 2021-04-02 | 北京市商汤科技开发有限公司 | 关键点检测方法及装置、电子设备和存储介质 |
CN112651994A (zh) * | 2020-12-18 | 2021-04-13 | 零八一电子集团有限公司 | 地面多目标跟踪方法 |
CN112668432A (zh) * | 2020-12-22 | 2021-04-16 | 上海幻维数码创意科技股份有限公司 | 一种基于YoloV5和DeepSort的地面互动投影系统中人体检测跟踪方法 |
CN112669345A (zh) * | 2020-12-30 | 2021-04-16 | 中山大学 | 一种面向云端部署的多目标轨迹跟踪方法及系统 |
CN112686175A (zh) * | 2020-12-31 | 2021-04-20 | 北京澎思科技有限公司 | 人脸抓拍方法、系统及计算机可读存储介质 |
CN113033439A (zh) * | 2021-03-31 | 2021-06-25 | 北京百度网讯科技有限公司 | 用于数据处理的方法、装置和电子设备 |
CN113076808A (zh) * | 2021-03-10 | 2021-07-06 | 青岛海纳云科技控股有限公司 | 一种通过图像算法精准获取双向人流量的方法 |
CN113096156A (zh) * | 2021-04-23 | 2021-07-09 | 中国科学技术大学 | 面向自动驾驶的端到端实时三维多目标追踪方法及装置 |
CN113158788A (zh) * | 2021-03-12 | 2021-07-23 | 中国平安人寿保险股份有限公司 | 人脸表情识别方法、装置、终端设备及存储介质 |
CN113158853A (zh) * | 2021-04-08 | 2021-07-23 | 浙江工业大学 | 一种结合人脸与人体姿态的闯红灯行人识别系统 |
CN113158909A (zh) * | 2021-04-25 | 2021-07-23 | 中国科学院自动化研究所 | 基于多目标跟踪的行为识别轻量化方法、系统、设备 |
CN113192105A (zh) * | 2021-04-16 | 2021-07-30 | 嘉联支付有限公司 | 一种室内多人追踪及姿态估量的方法及装置 |
CN113269098A (zh) * | 2021-05-27 | 2021-08-17 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于无人机的多目标跟踪定位与运动状态估计方法 |
CN113313201A (zh) * | 2021-06-21 | 2021-08-27 | 南京挥戈智能科技有限公司 | 基于Swin Transformer和ZED摄像头的多目标检测和测距方法 |
CN113379795A (zh) * | 2021-05-21 | 2021-09-10 | 浙江工业大学 | 一种基于条件卷积和光流特征的多目标跟踪与分割方法 |
CN113377192A (zh) * | 2021-05-20 | 2021-09-10 | 广州紫为云科技有限公司 | 一种基于深度学习的体感游戏跟踪方法及装置 |
CN113408348A (zh) * | 2021-05-14 | 2021-09-17 | 桂林电子科技大学 | 一种基于视频的人脸识别方法、装置及存储介质 |
CN113486771A (zh) * | 2021-06-30 | 2021-10-08 | 福州大学 | 基于关键点检测的视频动作整齐度评估方法及系统 |
CN113487653A (zh) * | 2021-06-24 | 2021-10-08 | 之江实验室 | 一种基于轨迹预测的自适应图跟踪方法 |
CN113658223A (zh) * | 2021-08-11 | 2021-11-16 | 山东建筑大学 | 一种基于深度学习的多行人检测与跟踪方法及系统 |
CN113688740A (zh) * | 2021-08-26 | 2021-11-23 | 燕山大学 | 一种基于多传感器融合视觉的室内姿势检测方法 |
CN113723361A (zh) * | 2021-09-18 | 2021-11-30 | 西安邮电大学 | 一种基于深度学习的视频监测方法及设备 |
CN113723279A (zh) * | 2021-08-30 | 2021-11-30 | 东南大学 | 边缘计算环境中基于时空间优化的多目标跟踪加速方法 |
CN113724291A (zh) * | 2021-07-29 | 2021-11-30 | 西安交通大学 | 多熊猫跟踪方法、系统、终端设备及可读存储介质 |
CN113762013A (zh) * | 2020-12-02 | 2021-12-07 | 北京沃东天骏信息技术有限公司 | 用于人脸识别的方法及装置 |
CN113808170A (zh) * | 2021-09-24 | 2021-12-17 | 电子科技大学长三角研究院(湖州) | 一种基于深度学习的反无人机跟踪方法 |
CN113807187A (zh) * | 2021-08-20 | 2021-12-17 | 北京工业大学 | 基于注意力特征融合的无人机视频多目标跟踪方法 |
CN113850843A (zh) * | 2021-09-27 | 2021-12-28 | 联想(北京)有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
CN113920457A (zh) * | 2021-09-16 | 2022-01-11 | 中国农业科学院农业资源与农业区划研究所 | 一种基于空间和地面信息采集协同处理的果实产量估计方法和系统 |
CN113936312A (zh) * | 2021-10-12 | 2022-01-14 | 南京视察者智能科技有限公司 | 一种基于深度学习图卷积网络的人脸识别底库筛选方法 |
CN114022509A (zh) * | 2021-09-24 | 2022-02-08 | 北京邮电大学 | 基于多个动物的监控视频的目标跟踪方法及相关设备 |
CN114120188A (zh) * | 2021-11-19 | 2022-03-01 | 武汉大学 | 一种基于联合全局和局部特征的多行人跟踪方法 |
CN114332909A (zh) * | 2021-11-16 | 2022-04-12 | 南京行者易智能交通科技有限公司 | 一种监控场景下的双目行人识别方法及装置 |
CN114339398A (zh) * | 2021-12-24 | 2022-04-12 | 天翼视讯传媒有限公司 | 一种在大型视频直播中实时特效处理的方法 |
CN114419151A (zh) * | 2021-12-31 | 2022-04-29 | 福州大学 | 一种基于对比学习的多目标跟踪方法 |
CN114445766A (zh) * | 2021-12-29 | 2022-05-06 | 中原动力智能机器人有限公司 | 一种人流量的检测管理方法、装置及机器人 |
CN114529577A (zh) * | 2022-01-10 | 2022-05-24 | 燕山大学 | 一种路侧视角多目标跟踪方法 |
CN114627339A (zh) * | 2021-11-09 | 2022-06-14 | 昆明物理研究所 | 茂密丛林区域对越境人员的智能识别跟踪方法及存储介质 |
CN114639129A (zh) * | 2020-11-30 | 2022-06-17 | 北京君正集成电路股份有限公司 | 一种用于门禁系统的纸张介质活体检测方法 |
CN114663835A (zh) * | 2022-03-21 | 2022-06-24 | 合肥工业大学 | 一种行人跟踪方法、系统、设备及存储介质 |
CN114663796A (zh) * | 2022-01-04 | 2022-06-24 | 北京航空航天大学 | 一种目标人物持续跟踪方法、装置及系统 |
CN114783043A (zh) * | 2022-06-24 | 2022-07-22 | 杭州安果儿智能科技有限公司 | 一种儿童行为轨迹定位方法和系统 |
CN114821702A (zh) * | 2022-03-15 | 2022-07-29 | 电子科技大学 | 一种基于遮挡人脸的热红外人脸识别方法 |
CN114863539A (zh) * | 2022-06-09 | 2022-08-05 | 福州大学 | 一种基于特征融合的人像关键点检测方法及系统 |
CN114882417A (zh) * | 2022-05-23 | 2022-08-09 | 天津理工大学 | 一种基于dimp跟踪器的轻量化LightDimp单目标跟踪方法 |
CN114898458A (zh) * | 2022-04-15 | 2022-08-12 | 中国兵器装备集团自动化研究所有限公司 | 基于图像处理的厂区人数监测方法、系统、终端及介质 |
CN114943924A (zh) * | 2022-06-21 | 2022-08-26 | 深圳大学 | 基于人脸表情视频的疼痛评估方法、系统、设备及介质 |
CN114972426A (zh) * | 2022-05-18 | 2022-08-30 | 北京理工大学 | 一种基于注意力和卷积的单目标跟踪方法 |
CN115223223A (zh) * | 2022-07-14 | 2022-10-21 | 南京慧安炬创信息科技有限公司 | 一种基于多特征融合的复杂人群动态目标识别方法及装置 |
CN115272404A (zh) * | 2022-06-17 | 2022-11-01 | 江南大学 | 一种基于核空间和隐式空间特征对齐的多目标跟踪方法 |
CN115690545A (zh) * | 2021-12-03 | 2023-02-03 | 北京百度网讯科技有限公司 | 训练目标跟踪模型和目标跟踪的方法和装置 |
CN115994929A (zh) * | 2023-03-24 | 2023-04-21 | 中国兵器科学研究院 | 一种融合空间运动和表观特征学习的多目标跟踪方法 |
CN116596958A (zh) * | 2023-07-18 | 2023-08-15 | 四川迪晟新达类脑智能技术有限公司 | 一种基于在线样本增广的目标跟踪方法及装置 |
CN117011335A (zh) * | 2023-07-26 | 2023-11-07 | 山东大学 | 一种基于自适应双解码器的多目标跟踪方法及系统 |
CN117455955A (zh) * | 2023-12-14 | 2024-01-26 | 武汉纺织大学 | 一种基于无人机视角下的行人多目标跟踪方法 |
CN117576166A (zh) * | 2024-01-15 | 2024-02-20 | 浙江华是科技股份有限公司 | 基于相机和低帧率激光雷达的目标跟踪方法及系统 |
CN117809054A (zh) * | 2024-02-29 | 2024-04-02 | 南京邮电大学 | 一种基于特征解耦融合网络的多目标跟踪方法 |
CN118072000A (zh) * | 2024-04-17 | 2024-05-24 | 中国科学院合肥物质科学研究院 | 一种基于新型目标识别算法的鱼类检测方法 |
CN118379608A (zh) * | 2024-06-26 | 2024-07-23 | 浙江大学 | 一种基于自适应学习的高鲁棒性深度伪造检测方法 |
CN118522058A (zh) * | 2024-07-22 | 2024-08-20 | 中电桑达电子设备(江苏)有限公司 | 基于人脸识别的对象跟踪方法、系统与介质 |
CN118587758A (zh) * | 2024-08-06 | 2024-09-03 | 杭州登虹科技有限公司 | 跨域人员识别匹配方法、装置和电子设备 |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109829436B (zh) * | 2019-02-02 | 2022-05-13 | 福州大学 | 基于深度表观特征和自适应聚合网络的多人脸跟踪方法 |
TWI727337B (zh) * | 2019-06-06 | 2021-05-11 | 大陸商鴻富錦精密工業(武漢)有限公司 | 電子裝置及人臉識別方法 |
CN110490901A (zh) * | 2019-07-15 | 2019-11-22 | 武汉大学 | 抗姿态变化的行人检测跟踪方法 |
CN110414443A (zh) * | 2019-07-31 | 2019-11-05 | 苏州市科远软件技术开发有限公司 | 一种目标跟踪方法、装置及枪球联动跟踪方法 |
CN110705478A (zh) * | 2019-09-30 | 2020-01-17 | 腾讯科技(深圳)有限公司 | 人脸跟踪方法、装置、设备及存储介质 |
CN111078295B (zh) * | 2019-11-28 | 2021-11-12 | 核芯互联科技(青岛)有限公司 | 一种乱序高性能核的混合分支预测装置及方法 |
CN111160202B (zh) * | 2019-12-20 | 2023-09-05 | 万翼科技有限公司 | 基于ar设备的身份核验方法、装置、设备及存储介质 |
CN111079718A (zh) * | 2020-01-15 | 2020-04-28 | 中云智慧(北京)科技有限公司 | 人脸快速比对方法 |
CN111275741B (zh) * | 2020-01-19 | 2023-09-08 | 北京迈格威科技有限公司 | 目标跟踪方法、装置、计算机设备和存储介质 |
CN111325279B (zh) * | 2020-02-26 | 2022-06-10 | 福州大学 | 一种融合视觉关系的行人与随身敏感物品跟踪方法 |
CN111476826A (zh) * | 2020-04-10 | 2020-07-31 | 电子科技大学 | 一种基于ssd目标检测的多目标车辆跟踪方法 |
CN111770299B (zh) * | 2020-04-20 | 2022-04-19 | 厦门亿联网络技术股份有限公司 | 一种智能视频会议终端的实时人脸摘要服务的方法及系统 |
CN111553234B (zh) * | 2020-04-22 | 2023-06-06 | 上海锘科智能科技有限公司 | 融合人脸特征与Re-ID特征排序的行人跟踪方法及装置 |
CN111914613B (zh) * | 2020-05-21 | 2024-03-01 | 淮阴工学院 | 一种多目标跟踪及面部特征信息识别方法 |
CN112001225B (zh) * | 2020-07-06 | 2023-06-23 | 西安电子科技大学 | 一种在线多目标跟踪方法、系统及应用 |
CN112215873A (zh) * | 2020-08-27 | 2021-01-12 | 国网浙江省电力有限公司电力科学研究院 | 用于对变电站内多目标跟踪定位的方法 |
CN112257502A (zh) * | 2020-09-16 | 2021-01-22 | 深圳微步信息股份有限公司 | 一种监控视频行人识别与跟踪方法、装置及存储介质 |
CN112149557B (zh) * | 2020-09-22 | 2022-08-09 | 福州大学 | 一种基于人脸识别的人物身份跟踪方法及系统 |
CN112307234A (zh) * | 2020-11-03 | 2021-02-02 | 厦门兆慧网络科技有限公司 | 一种人脸底库合成方法、系统和、设备及存储介质 |
CN112597901B (zh) * | 2020-12-23 | 2023-12-29 | 艾体威尔电子技术(北京)有限公司 | 一种基于三维测距的多人脸场景有效人脸识别装置及方法 |
CN112653844A (zh) * | 2020-12-28 | 2021-04-13 | 珠海亿智电子科技有限公司 | 一种摄像头云台转向自适应跟踪调节方法 |
CN112581506A (zh) * | 2020-12-31 | 2021-03-30 | 北京澎思科技有限公司 | 人脸跟踪方法、系统及计算机可读存储介质 |
CN112784725B (zh) * | 2021-01-15 | 2024-06-07 | 北京航天自动控制研究所 | 行人防撞预警方法、设备、存储介质及堆高机 |
CN113822211B (zh) * | 2021-09-27 | 2023-04-11 | 山东睿思奥图智能科技有限公司 | 一种交互人信息获取方法 |
CN115214430B (zh) * | 2022-03-23 | 2023-11-17 | 广州汽车集团股份有限公司 | 车辆座椅调节方法及车辆 |
CN117178292A (zh) * | 2022-03-30 | 2023-12-05 | 京东方科技集团股份有限公司 | 目标跟踪方法、装置、系统及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110051999A1 (en) * | 2007-08-31 | 2011-03-03 | Lockheed Martin Corporation | Device and method for detecting targets in images based on user-defined classifiers |
CN108363997A (zh) * | 2018-03-20 | 2018-08-03 | 南京云思创智信息科技有限公司 | 一种在视频中对特定人的实时跟踪方法 |
CN109086724A (zh) * | 2018-08-09 | 2018-12-25 | 北京华捷艾米科技有限公司 | 一种加速的人脸检测方法及存储介质 |
CN109101915A (zh) * | 2018-08-01 | 2018-12-28 | 中国计量大学 | 基于深度学习的人脸与行人及属性识别网络结构设计方法 |
CN109829436A (zh) * | 2019-02-02 | 2019-05-31 | 福州大学 | 一种基于深度表观特征和自适应聚合网络的多人脸跟踪方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101216885A (zh) * | 2008-01-04 | 2008-07-09 | 中山大学 | 一种基于视频的行人人脸检测与跟踪算法 |
CN101777116B (zh) * | 2009-12-23 | 2012-07-25 | 中国科学院自动化研究所 | 一种基于动作跟踪的脸部表情分析方法 |
US10902243B2 (en) * | 2016-10-25 | 2021-01-26 | Deep North, Inc. | Vision based target tracking that distinguishes facial feature targets |
CN106845385A (zh) * | 2017-01-17 | 2017-06-13 | 腾讯科技(上海)有限公司 | 视频目标跟踪的方法和装置 |
CN107292911B (zh) * | 2017-05-23 | 2021-03-30 | 南京邮电大学 | 一种基于多模型融合和数据关联的多目标跟踪方法 |
CN107492116A (zh) * | 2017-09-01 | 2017-12-19 | 深圳市唯特视科技有限公司 | 一种基于多外观模型进行人脸跟踪的方法 |
CN107609512A (zh) * | 2017-09-12 | 2018-01-19 | 上海敏识网络科技有限公司 | 一种基于神经网络的视频人脸捕捉方法 |
CN108509859B (zh) * | 2018-03-09 | 2022-08-26 | 南京邮电大学 | 一种基于深度神经网络的无重叠区域行人跟踪方法 |
-
2019
- 2019-02-02 CN CN201910106309.1A patent/CN109829436B/zh active Active
- 2019-12-13 WO PCT/CN2019/124966 patent/WO2020155873A1/fr active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110051999A1 (en) * | 2007-08-31 | 2011-03-03 | Lockheed Martin Corporation | Device and method for detecting targets in images based on user-defined classifiers |
CN108363997A (zh) * | 2018-03-20 | 2018-08-03 | 南京云思创智信息科技有限公司 | 一种在视频中对特定人的实时跟踪方法 |
CN109101915A (zh) * | 2018-08-01 | 2018-12-28 | 中国计量大学 | 基于深度学习的人脸与行人及属性识别网络结构设计方法 |
CN109086724A (zh) * | 2018-08-09 | 2018-12-25 | 北京华捷艾米科技有限公司 | 一种加速的人脸检测方法及存储介质 |
CN109829436A (zh) * | 2019-02-02 | 2019-05-31 | 福州大学 | 一种基于深度表观特征和自适应聚合网络的多人脸跟踪方法 |
Cited By (117)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111932588A (zh) * | 2020-08-07 | 2020-11-13 | 浙江大学 | 一种基于深度学习的机载无人机多目标跟踪系统的跟踪方法 |
CN111932588B (zh) * | 2020-08-07 | 2024-01-30 | 浙江大学 | 一种基于深度学习的机载无人机多目标跟踪系统的跟踪方法 |
CN111784746A (zh) * | 2020-08-10 | 2020-10-16 | 上海高重信息科技有限公司 | 一种鱼眼镜头下行人多目标跟踪方法、装置及计算机系统 |
CN111784746B (zh) * | 2020-08-10 | 2024-05-03 | 青岛高重信息科技有限公司 | 一种鱼眼镜头下行人多目标跟踪方法、装置及计算机系统 |
CN111899284B (zh) * | 2020-08-14 | 2024-04-09 | 北京交通大学 | 一种基于参数化esm网络的平面目标跟踪方法 |
CN111899284A (zh) * | 2020-08-14 | 2020-11-06 | 北京交通大学 | 一种基于参数化esm网络的平面目标跟踪方法 |
CN112036271B (zh) * | 2020-08-18 | 2023-10-10 | 汇纳科技股份有限公司 | 基于卡尔曼滤波的行人重识别方法、系统、介质及终端 |
CN112036271A (zh) * | 2020-08-18 | 2020-12-04 | 汇纳科技股份有限公司 | 基于卡尔曼滤波的行人重识别方法、系统、介质及终端 |
CN111932661A (zh) * | 2020-08-19 | 2020-11-13 | 上海交通大学 | 一种人脸表情编辑系统及方法、终端 |
CN111932661B (zh) * | 2020-08-19 | 2023-10-24 | 上海艾麒信息科技股份有限公司 | 一种人脸表情编辑系统及方法、终端 |
CN112016440A (zh) * | 2020-08-26 | 2020-12-01 | 杭州云栖智慧视通科技有限公司 | 一种基于多目标跟踪的目标推送方法 |
CN112016440B (zh) * | 2020-08-26 | 2024-02-20 | 杭州云栖智慧视通科技有限公司 | 一种基于多目标跟踪的目标推送方法 |
CN112085767A (zh) * | 2020-08-28 | 2020-12-15 | 安徽清新互联信息科技有限公司 | 一种基于深度光流跟踪的客流统计方法及系统 |
CN112053386B (zh) * | 2020-08-31 | 2023-04-18 | 西安电子科技大学 | 基于深度卷积特征自适应集成的目标跟踪方法 |
CN112053386A (zh) * | 2020-08-31 | 2020-12-08 | 西安电子科技大学 | 基于深度卷积特征自适应集成的目标跟踪方法 |
CN112215155A (zh) * | 2020-10-13 | 2021-01-12 | 北京中电兴发科技有限公司 | 一种基于多特征融合的人脸跟踪方法及系统 |
CN112215155B (zh) * | 2020-10-13 | 2022-10-14 | 北京中电兴发科技有限公司 | 一种基于多特征融合的人脸跟踪方法及系统 |
CN112288773A (zh) * | 2020-10-19 | 2021-01-29 | 慧视江山科技(北京)有限公司 | 基于Soft-NMS的多尺度人体跟踪方法及装置 |
CN112287877A (zh) * | 2020-11-18 | 2021-01-29 | 上海泗科智能科技有限公司 | 一种多角色特写镜头追踪方法 |
CN114639129B (zh) * | 2020-11-30 | 2024-05-03 | 北京君正集成电路股份有限公司 | 一种用于门禁系统的纸张介质活体检测方法 |
CN114639129A (zh) * | 2020-11-30 | 2022-06-17 | 北京君正集成电路股份有限公司 | 一种用于门禁系统的纸张介质活体检测方法 |
CN113762013A (zh) * | 2020-12-02 | 2021-12-07 | 北京沃东天骏信息技术有限公司 | 用于人脸识别的方法及装置 |
CN112541418B (zh) * | 2020-12-04 | 2024-05-28 | 北京百度网讯科技有限公司 | 用于图像处理的方法、装置、设备、介质和程序产品 |
CN112541418A (zh) * | 2020-12-04 | 2021-03-23 | 北京百度网讯科技有限公司 | 用于图像处理的方法、装置、设备、介质和程序产品 |
CN112560669A (zh) * | 2020-12-14 | 2021-03-26 | 杭州趣链科技有限公司 | 人脸姿态估计方法、装置及电子设备 |
CN112651994A (zh) * | 2020-12-18 | 2021-04-13 | 零八一电子集团有限公司 | 地面多目标跟踪方法 |
CN112668432A (zh) * | 2020-12-22 | 2021-04-16 | 上海幻维数码创意科技股份有限公司 | 一种基于YoloV5和DeepSort的地面互动投影系统中人体检测跟踪方法 |
CN112560874A (zh) * | 2020-12-25 | 2021-03-26 | 北京百度网讯科技有限公司 | 图像识别模型的训练方法、装置、设备和介质 |
CN112560874B (zh) * | 2020-12-25 | 2024-04-16 | 北京百度网讯科技有限公司 | 图像识别模型的训练方法、装置、设备和介质 |
CN112597944A (zh) * | 2020-12-29 | 2021-04-02 | 北京市商汤科技开发有限公司 | 关键点检测方法及装置、电子设备和存储介质 |
CN112597944B (zh) * | 2020-12-29 | 2024-06-11 | 北京市商汤科技开发有限公司 | 关键点检测方法及装置、电子设备和存储介质 |
CN112669345B (zh) * | 2020-12-30 | 2023-10-20 | 中山大学 | 一种面向云端部署的多目标轨迹跟踪方法及系统 |
CN112669345A (zh) * | 2020-12-30 | 2021-04-16 | 中山大学 | 一种面向云端部署的多目标轨迹跟踪方法及系统 |
CN112686175A (zh) * | 2020-12-31 | 2021-04-20 | 北京澎思科技有限公司 | 人脸抓拍方法、系统及计算机可读存储介质 |
CN113076808A (zh) * | 2021-03-10 | 2021-07-06 | 青岛海纳云科技控股有限公司 | 一种通过图像算法精准获取双向人流量的方法 |
CN113076808B (zh) * | 2021-03-10 | 2023-05-26 | 海纳云物联科技有限公司 | 一种通过图像算法精准获取双向人流量的方法 |
CN113158788B (zh) * | 2021-03-12 | 2024-03-08 | 中国平安人寿保险股份有限公司 | 人脸表情识别方法、装置、终端设备及存储介质 |
CN113158788A (zh) * | 2021-03-12 | 2021-07-23 | 中国平安人寿保险股份有限公司 | 人脸表情识别方法、装置、终端设备及存储介质 |
CN113033439B (zh) * | 2021-03-31 | 2023-10-20 | 北京百度网讯科技有限公司 | 用于数据处理的方法、装置和电子设备 |
CN113033439A (zh) * | 2021-03-31 | 2021-06-25 | 北京百度网讯科技有限公司 | 用于数据处理的方法、装置和电子设备 |
CN113158853A (zh) * | 2021-04-08 | 2021-07-23 | 浙江工业大学 | 一种结合人脸与人体姿态的闯红灯行人识别系统 |
CN113192105B (zh) * | 2021-04-16 | 2023-10-17 | 嘉联支付有限公司 | 一种室内多人追踪及姿态估量的方法及装置 |
CN113192105A (zh) * | 2021-04-16 | 2021-07-30 | 嘉联支付有限公司 | 一种室内多人追踪及姿态估量的方法及装置 |
CN113096156A (zh) * | 2021-04-23 | 2021-07-09 | 中国科学技术大学 | 面向自动驾驶的端到端实时三维多目标追踪方法及装置 |
CN113096156B (zh) * | 2021-04-23 | 2024-05-24 | 中国科学技术大学 | 面向自动驾驶的端到端实时三维多目标追踪方法及装置 |
CN113158909A (zh) * | 2021-04-25 | 2021-07-23 | 中国科学院自动化研究所 | 基于多目标跟踪的行为识别轻量化方法、系统、设备 |
CN113408348A (zh) * | 2021-05-14 | 2021-09-17 | 桂林电子科技大学 | 一种基于视频的人脸识别方法、装置及存储介质 |
CN113408348B (zh) * | 2021-05-14 | 2022-08-19 | 桂林电子科技大学 | 一种基于视频的人脸识别方法、装置及存储介质 |
CN113377192B (zh) * | 2021-05-20 | 2023-06-20 | 广州紫为云科技有限公司 | 一种基于深度学习的体感游戏跟踪方法及装置 |
CN113377192A (zh) * | 2021-05-20 | 2021-09-10 | 广州紫为云科技有限公司 | 一种基于深度学习的体感游戏跟踪方法及装置 |
CN113379795B (zh) * | 2021-05-21 | 2024-03-22 | 浙江工业大学 | 一种基于条件卷积和光流特征的多目标跟踪与分割方法 |
CN113379795A (zh) * | 2021-05-21 | 2021-09-10 | 浙江工业大学 | 一种基于条件卷积和光流特征的多目标跟踪与分割方法 |
CN113269098A (zh) * | 2021-05-27 | 2021-08-17 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于无人机的多目标跟踪定位与运动状态估计方法 |
CN113269098B (zh) * | 2021-05-27 | 2023-06-16 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于无人机的多目标跟踪定位与运动状态估计方法 |
CN113313201A (zh) * | 2021-06-21 | 2021-08-27 | 南京挥戈智能科技有限公司 | 基于Swin Transformer和ZED摄像头的多目标检测和测距方法 |
CN113487653B (zh) * | 2021-06-24 | 2024-03-26 | 之江实验室 | 一种基于轨迹预测的自适应图跟踪方法 |
CN113487653A (zh) * | 2021-06-24 | 2021-10-08 | 之江实验室 | 一种基于轨迹预测的自适应图跟踪方法 |
CN113486771B (zh) * | 2021-06-30 | 2023-07-07 | 福州大学 | 基于关键点检测的视频动作整齐度评估方法及系统 |
CN113486771A (zh) * | 2021-06-30 | 2021-10-08 | 福州大学 | 基于关键点检测的视频动作整齐度评估方法及系统 |
CN113724291B (zh) * | 2021-07-29 | 2024-04-02 | 西安交通大学 | 多熊猫跟踪方法、系统、终端设备及可读存储介质 |
CN113724291A (zh) * | 2021-07-29 | 2021-11-30 | 西安交通大学 | 多熊猫跟踪方法、系统、终端设备及可读存储介质 |
CN113658223B (zh) * | 2021-08-11 | 2023-08-04 | 山东建筑大学 | 一种基于深度学习的多行人检测与跟踪方法及系统 |
CN113658223A (zh) * | 2021-08-11 | 2021-11-16 | 山东建筑大学 | 一种基于深度学习的多行人检测与跟踪方法及系统 |
CN113807187B (zh) * | 2021-08-20 | 2024-04-02 | 北京工业大学 | 基于注意力特征融合的无人机视频多目标跟踪方法 |
CN113807187A (zh) * | 2021-08-20 | 2021-12-17 | 北京工业大学 | 基于注意力特征融合的无人机视频多目标跟踪方法 |
CN113688740B (zh) * | 2021-08-26 | 2024-02-27 | 燕山大学 | 一种基于多传感器融合视觉的室内姿势检测方法 |
CN113688740A (zh) * | 2021-08-26 | 2021-11-23 | 燕山大学 | 一种基于多传感器融合视觉的室内姿势检测方法 |
CN113723279A (zh) * | 2021-08-30 | 2021-11-30 | 东南大学 | 边缘计算环境中基于时空间优化的多目标跟踪加速方法 |
CN113723279B (zh) * | 2021-08-30 | 2022-11-01 | 东南大学 | 边缘计算环境中基于时空间优化的多目标跟踪加速方法 |
CN113920457A (zh) * | 2021-09-16 | 2022-01-11 | 中国农业科学院农业资源与农业区划研究所 | 一种基于空间和地面信息采集协同处理的果实产量估计方法和系统 |
CN113723361A (zh) * | 2021-09-18 | 2021-11-30 | 西安邮电大学 | 一种基于深度学习的视频监测方法及设备 |
CN114022509A (zh) * | 2021-09-24 | 2022-02-08 | 北京邮电大学 | 基于多个动物的监控视频的目标跟踪方法及相关设备 |
CN113808170B (zh) * | 2021-09-24 | 2023-06-27 | 电子科技大学长三角研究院(湖州) | 一种基于深度学习的反无人机跟踪方法 |
CN113808170A (zh) * | 2021-09-24 | 2021-12-17 | 电子科技大学长三角研究院(湖州) | 一种基于深度学习的反无人机跟踪方法 |
CN113850843A (zh) * | 2021-09-27 | 2021-12-28 | 联想(北京)有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
CN113936312A (zh) * | 2021-10-12 | 2022-01-14 | 南京视察者智能科技有限公司 | 一种基于深度学习图卷积网络的人脸识别底库筛选方法 |
CN113936312B (zh) * | 2021-10-12 | 2024-06-07 | 南京视察者智能科技有限公司 | 一种基于深度学习图卷积网络的人脸识别底库筛选方法 |
CN114627339B (zh) * | 2021-11-09 | 2024-03-29 | 昆明物理研究所 | 茂密丛林区域对越境人员的智能识别跟踪方法及存储介质 |
CN114627339A (zh) * | 2021-11-09 | 2022-06-14 | 昆明物理研究所 | 茂密丛林区域对越境人员的智能识别跟踪方法及存储介质 |
CN114332909A (zh) * | 2021-11-16 | 2022-04-12 | 南京行者易智能交通科技有限公司 | 一种监控场景下的双目行人识别方法及装置 |
CN114120188B (zh) * | 2021-11-19 | 2024-04-05 | 武汉大学 | 一种基于联合全局和局部特征的多行人跟踪方法 |
CN114120188A (zh) * | 2021-11-19 | 2022-03-01 | 武汉大学 | 一种基于联合全局和局部特征的多行人跟踪方法 |
CN115690545B (zh) * | 2021-12-03 | 2024-06-11 | 北京百度网讯科技有限公司 | 训练目标跟踪模型和目标跟踪的方法和装置 |
CN115690545A (zh) * | 2021-12-03 | 2023-02-03 | 北京百度网讯科技有限公司 | 训练目标跟踪模型和目标跟踪的方法和装置 |
CN114339398A (zh) * | 2021-12-24 | 2022-04-12 | 天翼视讯传媒有限公司 | 一种在大型视频直播中实时特效处理的方法 |
CN114445766A (zh) * | 2021-12-29 | 2022-05-06 | 中原动力智能机器人有限公司 | 一种人流量的检测管理方法、装置及机器人 |
CN114419151A (zh) * | 2021-12-31 | 2022-04-29 | 福州大学 | 一种基于对比学习的多目标跟踪方法 |
CN114663796A (zh) * | 2022-01-04 | 2022-06-24 | 北京航空航天大学 | 一种目标人物持续跟踪方法、装置及系统 |
CN114529577A (zh) * | 2022-01-10 | 2022-05-24 | 燕山大学 | 一种路侧视角多目标跟踪方法 |
CN114821702A (zh) * | 2022-03-15 | 2022-07-29 | 电子科技大学 | 一种基于遮挡人脸的热红外人脸识别方法 |
CN114663835A (zh) * | 2022-03-21 | 2022-06-24 | 合肥工业大学 | 一种行人跟踪方法、系统、设备及存储介质 |
CN114898458A (zh) * | 2022-04-15 | 2022-08-12 | 中国兵器装备集团自动化研究所有限公司 | 基于图像处理的厂区人数监测方法、系统、终端及介质 |
CN114972426A (zh) * | 2022-05-18 | 2022-08-30 | 北京理工大学 | 一种基于注意力和卷积的单目标跟踪方法 |
CN114882417A (zh) * | 2022-05-23 | 2022-08-09 | 天津理工大学 | 一种基于dimp跟踪器的轻量化LightDimp单目标跟踪方法 |
CN114863539A (zh) * | 2022-06-09 | 2022-08-05 | 福州大学 | 一种基于特征融合的人像关键点检测方法及系统 |
CN114863539B (zh) * | 2022-06-09 | 2024-09-24 | 福州大学 | 一种基于特征融合的人像关键点检测方法及系统 |
CN115272404A (zh) * | 2022-06-17 | 2022-11-01 | 江南大学 | 一种基于核空间和隐式空间特征对齐的多目标跟踪方法 |
CN114943924A (zh) * | 2022-06-21 | 2022-08-26 | 深圳大学 | 基于人脸表情视频的疼痛评估方法、系统、设备及介质 |
CN114943924B (zh) * | 2022-06-21 | 2024-05-14 | 深圳大学 | 基于人脸表情视频的疼痛评估方法、系统、设备及介质 |
CN114783043A (zh) * | 2022-06-24 | 2022-07-22 | 杭州安果儿智能科技有限公司 | 一种儿童行为轨迹定位方法和系统 |
CN115223223A (zh) * | 2022-07-14 | 2022-10-21 | 南京慧安炬创信息科技有限公司 | 一种基于多特征融合的复杂人群动态目标识别方法及装置 |
CN115994929A (zh) * | 2023-03-24 | 2023-04-21 | 中国兵器科学研究院 | 一种融合空间运动和表观特征学习的多目标跟踪方法 |
CN116596958B (zh) * | 2023-07-18 | 2023-10-10 | 四川迪晟新达类脑智能技术有限公司 | 一种基于在线样本增广的目标跟踪方法及装置 |
CN116596958A (zh) * | 2023-07-18 | 2023-08-15 | 四川迪晟新达类脑智能技术有限公司 | 一种基于在线样本增广的目标跟踪方法及装置 |
CN117011335B (zh) * | 2023-07-26 | 2024-04-09 | 山东大学 | 一种基于自适应双解码器的多目标跟踪方法及系统 |
CN117011335A (zh) * | 2023-07-26 | 2023-11-07 | 山东大学 | 一种基于自适应双解码器的多目标跟踪方法及系统 |
CN117455955B (zh) * | 2023-12-14 | 2024-03-08 | 武汉纺织大学 | 一种基于无人机视角下的行人多目标跟踪方法 |
CN117455955A (zh) * | 2023-12-14 | 2024-01-26 | 武汉纺织大学 | 一种基于无人机视角下的行人多目标跟踪方法 |
CN117576166B (zh) * | 2024-01-15 | 2024-04-30 | 浙江华是科技股份有限公司 | 基于相机和低帧率激光雷达的目标跟踪方法及系统 |
CN117576166A (zh) * | 2024-01-15 | 2024-02-20 | 浙江华是科技股份有限公司 | 基于相机和低帧率激光雷达的目标跟踪方法及系统 |
CN117809054B (zh) * | 2024-02-29 | 2024-05-10 | 南京邮电大学 | 一种基于特征解耦融合网络的多目标跟踪方法 |
CN117809054A (zh) * | 2024-02-29 | 2024-04-02 | 南京邮电大学 | 一种基于特征解耦融合网络的多目标跟踪方法 |
CN118072000A (zh) * | 2024-04-17 | 2024-05-24 | 中国科学院合肥物质科学研究院 | 一种基于新型目标识别算法的鱼类检测方法 |
CN118379608A (zh) * | 2024-06-26 | 2024-07-23 | 浙江大学 | 一种基于自适应学习的高鲁棒性深度伪造检测方法 |
CN118522058A (zh) * | 2024-07-22 | 2024-08-20 | 中电桑达电子设备(江苏)有限公司 | 基于人脸识别的对象跟踪方法、系统与介质 |
CN118522058B (zh) * | 2024-07-22 | 2024-09-17 | 中电桑达电子设备(江苏)有限公司 | 基于人脸识别的对象跟踪方法、系统与介质 |
CN118587758A (zh) * | 2024-08-06 | 2024-09-03 | 杭州登虹科技有限公司 | 跨域人员识别匹配方法、装置和电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN109829436A (zh) | 2019-05-31 |
CN109829436B (zh) | 2022-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020155873A1 (fr) | Caractéristiques apparentes profondes et procédé de suivi de multiples visages basé sur un réseau d'agrégation adaptative | |
CN110472554B (zh) | 基于姿态分割和关键点特征的乒乓球动作识别方法及系统 | |
Kudo et al. | Unsupervised adversarial learning of 3d human pose from 2d joint locations | |
Liu et al. | Human pose estimation in video via structured space learning and halfway temporal evaluation | |
Arif et al. | Automated body parts estimation and detection using salient maps and Gaussian matrix model | |
CN105574510A (zh) | 一种步态识别方法及装置 | |
CN110135249A (zh) | 基于时间注意力机制和lstm的人体行为识别方法 | |
Shah et al. | Multi-view action recognition using contrastive learning | |
CN112149557B (zh) | 一种基于人脸识别的人物身份跟踪方法及系统 | |
Vantigodi et al. | Action recognition from motion capture data using meta-cognitive rbf network classifier | |
CN111931654A (zh) | 一种人员跟踪智能监测方法、系统和装置 | |
CN113111857A (zh) | 基于多模态信息融合的人体姿态估计方法 | |
Abobakr et al. | Body joints regression using deep convolutional neural networks | |
Mu et al. | Resgait: The real-scene gait dataset | |
Raychaudhuri et al. | Prior-guided source-free domain adaptation for human pose estimation | |
CN112906520A (zh) | 一种基于姿态编码的动作识别方法及装置 | |
Pang et al. | Analysis of computer vision applied in martial arts | |
Yaseen et al. | A novel approach based on multi-level bottleneck attention modules using self-guided dropblock for person re-identification | |
Yu | Deep learning methods for human action recognition | |
CN112487926A (zh) | 一种基于时空图卷积网络的景区投喂行为识别方法 | |
Li et al. | Real-time human action recognition using depth motion maps and convolutional neural networks | |
Wang et al. | Thermal infrared object tracking based on adaptive feature fusion | |
Su et al. | Dynamic facial expression recognition using autoregressive models | |
KR20220142673A (ko) | 인체 관절 좌표계를 이용한 lstm 기반의 행동인식 방법 | |
Caetano et al. | Magnitude-Orientation Stream network and depth information applied to activity recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19913037 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 19913037 Country of ref document: EP Kind code of ref document: A1 |