CN113012201B - 一种基于深度学习的地面无人平台人员跟踪方法 - Google Patents
一种基于深度学习的地面无人平台人员跟踪方法 Download PDFInfo
- Publication number
- CN113012201B CN113012201B CN202110311795.8A CN202110311795A CN113012201B CN 113012201 B CN113012201 B CN 113012201B CN 202110311795 A CN202110311795 A CN 202110311795A CN 113012201 B CN113012201 B CN 113012201B
- Authority
- CN
- China
- Prior art keywords
- personnel
- network
- target
- person
- tracked
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000013135 deep learning Methods 0.000 title claims abstract description 9
- 238000001514 detection method Methods 0.000 claims abstract description 23
- 239000013598 vector Substances 0.000 claims description 45
- 238000012549 training Methods 0.000 claims description 10
- 238000013461 design Methods 0.000 claims description 4
- 230000008447 perception Effects 0.000 claims description 4
- 238000011176 pooling Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000012512 characterization method Methods 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 230000006835 compression Effects 0.000 claims description 3
- 238000007906 compression Methods 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 3
- 210000003141 lower extremity Anatomy 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 abstract description 4
- 239000000284 extract Substances 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明提出一种基于深度学习的地面无人平台人员跟踪方法,包括行人目标检测、人员识别以及图像与激光雷达的匹配方法。其中,行人目标检测提取出图像中包含人员的包围框,人员识别则是从提取的包围框中识别出特定的引导人员,图像与激光雷达的匹配方法则是计算出特定引导人员与地面无人平台的相对距离,为之后的底盘跟踪速度生成提供数据。本发明能够实现无人平台对人员的跟踪,不需要人员穿戴特殊制品的前提下,解决了传统视觉目标跟踪易导致的目标漂移问题,提高了算法的鲁棒性,同时不损失算法使用的灵活性。
Description
技术领域
本发明属于地面无人平台感知决策技术领域,具体涉及一种基于深度学习的地面无人平台人员跟踪方法。
背景技术
地面无人平台的一大优势在于其负重能够远远超过普通人类。为利用这一优势,常常要求地面无人平台能够跟踪引导人员,穿越各种地面环境,这要求目标跟踪算法能够长时间跟踪移动目标。而人员作为移动目标,其型变和尺度变化较大,遮挡较多,目标跟踪算法需要极高的鲁棒性,以及跟丢目标后的纠错能力。
现有目标追踪技术,包括基于纯视觉和基于点云两种方法,但是基于视觉的算法容易目标漂移以致目标丢失,在长时间跟踪过程中,目标的遮挡型变容易出现目标漂移的问题,导致最终目标丢失,地面无人平台失去跟踪目标,只能人工检测目标是否丢失,并重新初始化开始跟踪。此外,而基于点云的算法缺乏灵活性,点云的人员目标跟踪一般无法区别人员,需要佩戴或穿着特殊的制品,这导致在实际应用中缺乏灵活性,当跟踪目标种类变更,特殊制品需要被更换,跟踪算法也需要被重新设计,并且如果多个特殊制品出现在视野范围内,点云不能对其进行有效的识别区分。
发明内容
(一)要解决的技术问题
本发明提出一种融合视觉和点云优势的基于深度学习的地面无人平台人员跟踪方法,以解决既如何提高目标跟踪算法的鲁棒性,又能免除点云中对于特殊穿戴物和手动设计特征依赖的技术问题。
(二)技术方案
为了解决上述技术问题,本发明提出一种基于深度学习的地面无人平台人员跟踪方法,该跟踪方法包括以下步骤:
步骤S1、对摄像头采集的图像进行人员目标检测,输出图片内各个人员的像素坐标位置;
步骤S2、将图片内每个识别出的人员目标作为甄别对象,依次输入人员识别网络,通过骨干网络提取得到特征图,再针对确定的人员目标种类,对特征图进行区域划分;在将特征图进行全连层输出前,在特征图上添加分类分支,利用分类分支给每一部分的表征能力打分,对分数归一化后得到分类概率,输出的分类概率作为注意力权值与对应特征相乘得到最终具有高区分度的特征向量;
步骤S3、对跟踪方法进行初始化,以确认待跟踪的人员目标;初始化时,确保图像画面内只有待跟踪目标一人,由人员检测网络检测出人员的像素位置,再将由人员识别网络得到的特征向量存为模板向量;
步骤S4、初始化完成后,对之后视频的每一帧图像进行人员检测和人员识别,提取出各人员的特征向量,与模板向量进行余弦距离计算,将距离值小于阈值的特征向量作为待跟踪人员的特征向量,并以如公式2、3所示的更新规则,更新模板向量:
其中,Ti为第i时刻的模板向量,Fi为第i时刻求出的待跟踪人员的特征向量,β和γ分别为人员像素目标框的长和宽,α和ε为根据试验设置的常数;
步骤S5、根据待跟踪人员的特征向量,反推出待跟踪人员的图像像素坐标,利用联合标定的激光雷达与摄像头的感知系统,将待跟踪人员的图像像素坐标转换为与激光雷达的三维相对位置,经过坐标转换后最终确定识别目标与地面无人平台的三维相对位置,从而实现对特定人员目标的三维位置跟踪。
进一步地,步骤S1中,人员目标检测网络使用通用目标检测网络作为基准网络;以收集标注好的人员目标图片作为训练数据,对基准网络进行训练;在去除基准网络的分类通道后重新训练,根据标注信息与网络输出求取误差,利用优化器更新网络各级权重,直至网络误差收敛。
进一步地,步骤S2中,通过骨干网络MobileNetV3提取得到压缩步长为32x的特征图。
进一步地,步骤S2中,将特征图分为6份,并平均池化分为三部分,从上往下的第一部分表征头部,第二和第三部分表征躯干,剩下部分表征下肢。
进一步地,步骤S2中,对分数使用sigmoid归一后得到分类概率。
进一步地,步骤S2中,在使用识别网络输出的特征向量前,首先对识别网络进行训练,利用如公式1所示的类ArcFaceLoss的误差设计求取误差,将特征向量投射到高维超球面,剔除高维特征向量的模长影响,不同种的向量差距由余弦距离进行表示:
其中,Loss为识别误差输出,n为数据库中人员个体的总数,θ为权重与输入之间的夹角,s为用于保持误差数值稳定的常数。
(三)有益效果
本发明提出一种基于深度学习的地面无人平台人员跟踪方法,包括行人目标检测、人员识别以及图像与激光雷达的匹配方法。其中,行人目标检测提取出图像中包含人员的包围框,人员识别则是从提取的包围框中识别出特定的引导人员,图像与激光雷达的匹配方法则是计算出特定引导人员与地面无人平台的相对距离,为之后的底盘跟踪速度生成提供数据。本发明能够实现无人平台对人员的跟踪,不需要人员穿戴特殊制品的前提下,解决了传统视觉目标跟踪易导致的目标漂移问题,提高了算法的鲁棒性,同时不损失算法使用的灵活性。
附图说明
图1为本发明实施例的方法流程图;
图2为本发明实施例中特征图池化示意图:(a)人员特征图;(b)特征图分为6份;(c)分为6份的特征图池化分为三部分。
具体实施方式
为使本发明的目的、内容和优点更加清楚,下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。
本实施例提出一种基于深度学习的地面无人平台人员跟踪方法,主要流程如图1所示,该方法包括以下步骤:
步骤S1、对摄像头采集的图像进行人员目标检测,输出图片内各个人员的像素坐标位置。
人员目标检测网络使用高检测精度、高鲁棒性、高检测速率的通用目标检测网络作为基准网络。基准网络需要经过训练才能正确检测人员目标,收集标注好的人员目标图片作为训练数据,在去除基准网络的分类通道后重新训练,根据标注信息与网络输出求取误差,利用优化器更新网络各级权重,直至网络误差收敛。
步骤S2、将图片内每个识别出的人员目标作为甄别对象,依次输入人员识别网络,首先通过骨干网络MobileNetV3提取得到压缩步长为32x的特征图,再针对确定的人员目标种类,对特征图进行区域划分,包括:将特征图分为6份,并依试验经验值平均池化分为三部分,从上往下的第一部分表征头部,第二和第三部分表征躯干,剩下部分表征下肢,如图2所示。在将特征图进行全连层输出前,在特征图上添加分类分支,利用分类分支给每一部分的表征能力打分,对分数使用sigmoid归一后得到分类概率,输出的分类概率作为注意力权值与对应特征相乘得到最终具有高区分度的特征向量。
在使用识别网络输出的特征向量前,首先对识别网络进行训练,利用类ArcFaceLoss的误差设计(如公式1所示)求取误差,将特征向量投射到高维超球面,从而剔除高维特征向量的模长影响,不同种的向量差距可以由余弦距离进行表示。
其中,Loss为识别误差输出,n为数据库中人员个体的总数,θ为权重与输入之间的夹角,s为用于保持误差数值稳定的常数。
步骤S3、对跟踪方法进行初始化,以确认待跟踪的人员目标。初始化时,确保图像画面内只有待跟踪目标一人,由人员检测网络检测出人员的像素位置,再将由人员识别网络得到的特征向量存为模板向量。
步骤S4、初始化完成后,对之后视频的每一帧图像进行人员检测和人员识别,提取出各人员的特征向量,与模板向量进行余弦距离计算,将距离值小于阈值的特征向量作为待跟踪人员的特征向量,并以一定更新规则(如公式2、3所示)更新模板向量。
其中,Ti为第i时刻的模板向量,Fi为第i时刻求出的待跟踪人员的特征向量,β和γ分别为人员像素目标框的长和宽,α和ε为根据试验设置的常数。
步骤S5、根据待跟踪人员的特征向量,反推出待跟踪人员的图像像素坐标,利用联合标定的激光雷达(可提供三维坐标)与摄像头(可提供像素坐标)的感知系统,将待跟踪人员的图像像素坐标转换为与激光雷达的三维相对位置,经过坐标转换后最终确定识别目标与地面无人平台的三维相对位置,从而实现对特定人员目标的三维位置跟踪。
本发明的地面无人平台人员跟踪方法包括目标检测、目标识别和点云图像配准。其中,目标检测与目标识别组合可以有效地解决视觉目标跟踪易造成的目标框漂移问题,同时因为目标检测检测种类的多样和视觉图像包含的丰富信息,能够摆脱点云目标跟踪算法对特殊穿戴品依赖。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (5)
1.一种基于深度学习的地面无人平台人员跟踪方法,其特征在于,所述跟踪方法包括以下步骤:
步骤S1、对摄像头采集的图像进行人员目标检测,输出图片内各个人员的像素坐标位置;
步骤S2、将图片内每个识别出的人员目标作为甄别对象,依次输入人员识别网络,通过骨干网络提取得到特征图,再针对确定的人员目标种类,对特征图进行区域划分;在将特征图进行全连层输出前,在特征图上添加分类分支,利用分类分支给每一部分的表征能力打分,对分数归一化后得到分类概率,输出的分类概率作为注意力权值与对应特征相乘得到最终具有高区分度的特征向量;
在使用识别网络输出的特征向量前,首先对识别网络进行训练,利用如公式1所示的类ArcFaceLoss的误差设计求取误差,将特征向量投射到高维超球面,剔除高维特征向量的模长影响,不同种的向量差距由余弦距离进行表示:
其中,Loss为识别误差输出,n为数据库中人员个体的总数,θ为权重与输入之间的夹角,s为用于保持误差数值稳定的常数;
步骤S3、对跟踪方法进行初始化,以确认待跟踪的人员目标;初始化时,确保图像画面内只有待跟踪目标一人,由人员检测网络检测出人员的像素位置,再将由人员识别网络得到的特征向量存为模板向量;
步骤S4、初始化完成后,对之后视频的每一帧图像进行人员检测和人员识别,提取出各人员的特征向量,与模板向量进行余弦距离计算,将距离值小于阈值的特征向量作为待跟踪人员的特征向量,并以如公式2、3所示的更新规则,更新模板向量:
其中,Ti为第i时刻的模板向量,Fi为第i时刻求出的待跟踪人员的特征向量,β和γ分别为人员像素目标框的长和宽,α和ε为根据试验设置的常数;
步骤S5、根据待跟踪人员的特征向量,反推出待跟踪人员的图像像素坐标,利用联合标定的激光雷达与摄像头的感知系统,将待跟踪人员的图像像素坐标转换为与激光雷达的三维相对位置,经过坐标转换后最终确定识别目标与地面无人平台的三维相对位置,从而实现对特定人员目标的三维位置跟踪。
2.如权利要求1所述的跟踪方法,其特征在于,所述步骤S1中,人员目标检测网络使用通用目标检测网络作为基准网络;以收集标注好的人员目标图片作为训练数据,对基准网络进行训练;在去除基准网络的分类通道后重新训练,根据标注信息与网络输出求取误差,利用优化器更新网络各级权重,直至网络误差收敛。
3.如权利要求1所述的跟踪方法,其特征在于,所述步骤S2中,通过骨干网络MobileNetV3提取得到压缩步长为32x的特征图。
4.如权利要求3所述的跟踪方法,其特征在于,所述步骤S2中,将特征图分为6份,并平均池化分为三部分,从上往下的第一部分表征头部,第二和第三部分表征躯干,剩下部分表征下肢。
5.如权利要求1所述的跟踪方法,其特征在于,所述步骤S2中,对分数使用sigmoid归一后得到分类概率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110311795.8A CN113012201B (zh) | 2021-03-24 | 2021-03-24 | 一种基于深度学习的地面无人平台人员跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110311795.8A CN113012201B (zh) | 2021-03-24 | 2021-03-24 | 一种基于深度学习的地面无人平台人员跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113012201A CN113012201A (zh) | 2021-06-22 |
CN113012201B true CN113012201B (zh) | 2024-03-19 |
Family
ID=76405859
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110311795.8A Active CN113012201B (zh) | 2021-03-24 | 2021-03-24 | 一种基于深度学习的地面无人平台人员跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113012201B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113763423A (zh) * | 2021-08-03 | 2021-12-07 | 中国北方车辆研究所 | 一种基于多模态数据的系统性目标识别与跟踪方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108875588A (zh) * | 2018-05-25 | 2018-11-23 | 武汉大学 | 基于深度学习的跨摄像头行人检测跟踪方法 |
CN109739266A (zh) * | 2018-12-03 | 2019-05-10 | 中国北方车辆研究所 | 一种地面无人运输平台的跟随控制方法 |
CN111368755A (zh) * | 2020-03-09 | 2020-07-03 | 山东大学 | 一种基于视觉的四足机器人行人自主跟随方法 |
CN112084985A (zh) * | 2020-09-15 | 2020-12-15 | 山东鲁能软件技术有限公司 | 一种基于cssd的电力检修行人多目标跟踪算法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10303953B2 (en) * | 2017-04-17 | 2019-05-28 | Intel Corporation | Person tracking and privacy and acceleration of data using autonomous machines |
-
2021
- 2021-03-24 CN CN202110311795.8A patent/CN113012201B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108875588A (zh) * | 2018-05-25 | 2018-11-23 | 武汉大学 | 基于深度学习的跨摄像头行人检测跟踪方法 |
CN109739266A (zh) * | 2018-12-03 | 2019-05-10 | 中国北方车辆研究所 | 一种地面无人运输平台的跟随控制方法 |
CN111368755A (zh) * | 2020-03-09 | 2020-07-03 | 山东大学 | 一种基于视觉的四足机器人行人自主跟随方法 |
CN112084985A (zh) * | 2020-09-15 | 2020-12-15 | 山东鲁能软件技术有限公司 | 一种基于cssd的电力检修行人多目标跟踪算法 |
Non-Patent Citations (1)
Title |
---|
面向个体人员特征的跨模态目标跟踪算法;周千里;张文靖;赵路平;田乃倩;王蓉;;北京航空航天大学学报(第09期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113012201A (zh) | 2021-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110175566B (zh) | 一种基于rgbd融合网络的手部姿态估计系统及方法 | |
CN109508654B (zh) | 融合多任务和多尺度卷积神经网络的人脸分析方法及系统 | |
CN105869178B (zh) | 一种基于多尺度组合特征凸优化的复杂目标动态场景无监督分割方法 | |
CN106055091B (zh) | 一种基于深度信息和校正方式的手部姿态估计方法 | |
US11107242B2 (en) | Detecting pose using floating keypoint(s) | |
CN110490158B (zh) | 一种基于多级模型的鲁棒人脸对齐方法 | |
CN109064484B (zh) | 基于子群组划分与动量特征融合的人群运动行为识别方法 | |
CN110276785B (zh) | 一种抗遮挡红外目标跟踪方法 | |
CN106203423B (zh) | 一种融合上下文探测的弱结构感知视觉目标跟踪方法 | |
CN108022254B (zh) | 一种基于征点辅助的时空上下文目标跟踪方法 | |
WO2022184133A1 (zh) | 一种基于视觉的人脸表情识别方法 | |
CN111998862A (zh) | 一种基于bnn的稠密双目slam方法 | |
CN102289822A (zh) | 一种多摄像机协同跟踪运动目标的方法 | |
CN112989889A (zh) | 一种基于姿态指导的步态识别方法 | |
CN116030519A (zh) | 一种直播教学平台的学习注意力检测与评估方法 | |
CN112200056A (zh) | 人脸活体检测方法、装置、电子设备及存储介质 | |
CN113012201B (zh) | 一种基于深度学习的地面无人平台人员跟踪方法 | |
CN109993116B (zh) | 一种基于人体骨骼相互学习的行人再识别方法 | |
CN114627339A (zh) | 茂密丛林区域对越境人员的智能识别跟踪方法及存储介质 | |
CN109886780B (zh) | 基于眼球跟踪的商品目标检测方法及装置 | |
CN113327269A (zh) | 一种无标记颈椎运动检测方法 | |
CN108665470B (zh) | 一种交互式轮廓提取方法 | |
CN116311361A (zh) | 一种基于像素级标注的危险源室内工作人员定位方法 | |
CN115797397A (zh) | 一种机器人全天候自主跟随目标人员的方法及系统 | |
CN114299536A (zh) | 一种基于关键点相关性的人体姿态估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |