CN111986236A - 一种基于在线学习的抗遮挡目标跟踪算法 - Google Patents
一种基于在线学习的抗遮挡目标跟踪算法 Download PDFInfo
- Publication number
- CN111986236A CN111986236A CN202010904335.1A CN202010904335A CN111986236A CN 111986236 A CN111986236 A CN 111986236A CN 202010904335 A CN202010904335 A CN 202010904335A CN 111986236 A CN111986236 A CN 111986236A
- Authority
- CN
- China
- Prior art keywords
- contour line
- real
- preset
- human body
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于在线学习的抗遮挡目标跟踪算法,包括以下步骤:步骤一:获取实时跟踪人员的人体影像信息,人体影像信息为跟踪人员的人体影像照片;步骤二:对获取到的人体影像照片进行分割处理,将人体影像照片进行区块化处理,将其等分为九块;步骤三:将区块化处理后的照片分别提取出,并将各个区块进行轮廓化处理;步骤四:各个区域的轮廓线即为预设轮廓线,将各个区域的轮廓线提取出,上传到储存库;步骤五:当跟踪目标被遮挡时,再获取一张实时影像,将未被遮挡部分进行轮廓化处理得到实时轮廓线。本发明能够更加精准的在目标被遮挡继续进行目标跟踪,更加值得推广使用。
Description
技术领域
本发明涉及目标跟踪技术领域,具体涉及一种基于在线学习的抗遮挡目标跟踪算法。
背景技术
目标跟踪技术在近几年应用较广,属计算机视觉的研究范畴,其应用包括相机的跟踪对焦、无人机的自动目标跟踪、交通监管视频中的车辆跟踪、人脸跟踪、手势跟踪等等,并且在智能监控中也会使用目标跟踪技术来跟踪特定的人或物体等等,目标跟踪作为一项重要研究课题在近些年也得到了快速的研究和发展,抗遮挡目标跟踪算法是在目标跟踪过程中目标被遮挡时使用到的算法。
现有的抗遮挡目标跟踪算法,在进行的抗遮挡目标跟踪时出现判定错误的几率,大大影响了抗遮挡目标跟踪算法的使用,因此,提出一种基于在线学习的抗遮挡目标跟踪算法。
发明内容
本发明所要解决的技术问题在于:如何解决现有的抗遮挡目标跟踪算法,在进行的抗遮挡目标跟踪时出现判定错误的几率,大大影响了抗遮挡目标跟踪算法的使用的问题,提供了一种基于在线学习的抗遮挡目标跟踪算法。
本发明是通过以下技术方案解决上述技术问题的,本发明包括以下步骤:
步骤一:获取实时跟踪人员的人体影像信息,人体影像信息为跟踪人员的人体影像照片;
步骤二:对获取到的人体影像照片进行分割处理,将人体影像照片进行区块化处理,将其等分为九块;
步骤三:将区块化处理后的照片分别提取出,并将各个区块进行轮廓化处理;
步骤四:各个区域的轮廓线即为预设轮廓线,将各个区域的轮廓线提取出,上传到储存库;
步骤五:当跟踪目标被遮挡时,再获取一张实时影像,将未被遮挡部分进行轮廓化处理得到实时轮廓线;
步骤六:从储存库中提取出预设轮廓线与实时轮廓线进行对比处理,对比通过即继续跟踪该目标,对比不通过即回到步骤一重新进行跟踪处理;
步骤七:当跟踪目标的遮挡物消失时,即再次获取跟踪人体影像信息,并再次对其进行区块化处理获取出各个区域的轮廓线,将该次获取的轮廓线标记为二次轮廓线;
步骤八:将二次轮廓线与储存库中的预设轮廓线进行比对,从而更新储存库中储存的轮廓线数据;
步骤九:更新完轮廓线数据后继续进行目标跟踪。
优选的,所述步骤三中的轮廓化处理过程具体如下:
S1:将人体信息照片区域化处理后的九个区域提取出:
S2:从人体影像信息中提取出背景色和人体色;
S3:依次将九个区域内的人体色与背景色交接处进行描线处理,九个区域内的描线处理得到的轮廓线分别为L1、L2、L3、L4、L5、L6、L7、L8和L9。
优选的,所述步骤五中实时轮廓线处理过程如下:将再获取的实时影像的人体色与背景色交接处进行描线处理,得到实时轮廓线。
优选的,所述步骤六中的预设轮廓线与实时轮廓线对比处理的过程如下:
SS1:将实时轮廓线提取出将其标记为K;
SS2:再从储存库中提取出预设轮廓线L1、L2、L3、L4、L5、L6、L7、L8和L9;
SS3:将实时轮廓线K与预设轮廓线L1、L2、L3、L4、L5、L6、L7、L8和L9进行相似度比较,实时轮廓线K与预设轮廓线L1、L2、L3、L4、L5、L6、L7、L8和L9中任意的两个或两以上轮廓线对比相似度超过预设值时,即继续跟踪该目标;
SS4:实时轮廓线K与预设轮廓线L1、L2、L3、L4、L5、L6、L7、L8和L9中任意的一个轮廓线对比相似度超过预设值时,即需要回到步骤五重新获取实时影像照片。
优选的,所述步骤八中的二次轮廓线与储存库中的预设轮廓线比对过程如下:
步骤一:将二次轮廓线按照顺便分别标记为M1、M2、M3、M4、M5、M6、M7、M8和M9;
步骤二:从储存库中提取出预设轮廓线比L1、L2、L3、L4、L5、L6、L7、L8和L9;
步骤三:从二次轮廓线按照顺便分别标记为M1、M2、M3、M4、M5、M6、M7、M8和M9与储存库中提取出预设轮廓线比L1、L2、L3、L4、L5、L6、L7、L8和L9中随机抽取X个编号相同的预设轮廓线与二次轮廓线,X≥3;
步骤四:将X个编号相同的预设轮廓线与二次轮廓线进行相似度比对,当X个编号相同的预设轮廓线与二次轮廓线的相似度大于预设值时,即不替换储存库内的预设轮廓线;
步骤五:当X个编号相同的预设轮廓线与二次轮廓线的相似度小于预设值时,即使用二次轮廓线替换储存库内的预设轮廓线。
本发明相比现有技术具有以下优点:该基于在线学习的抗遮挡目标跟踪算法,通过将跟踪目标的影像进行轮廓话处理,能够在目标被遮挡后可以更好继续对特定目标进行实时监控,有效的避免了因为遮挡物导致跟踪目标丢失的状况发生,并且当遮挡物消失后,会再次采集新的轮廓线替换掉原轮廓线,保证了数据的及时更新,更进一步的提升了跟踪精准性。
附图说明
图1是本发明的整体结构图。
具体实施方式
下面对本发明的实施例作详细说明,本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
如图1所示,本实施例提供一种技术方案:一种基于在线学习的抗遮挡目标跟踪算法,包括以下步骤:
步骤一:获取实时跟踪人员的人体影像信息,人体影像信息为跟踪人员的人体影像照片;
步骤二:对获取到的人体影像照片进行分割处理,将人体影像照片进行区块化处理,将其等分为九块;
步骤三:将区块化处理后的照片分别提取出,并将各个区块进行轮廓化处理;
步骤四:各个区域的轮廓线即为预设轮廓线,将各个区域的轮廓线提取出,上传到储存库;
步骤五:当跟踪目标被遮挡时,再获取一张实时影像,将未被遮挡部分进行轮廓化处理得到实时轮廓线;
步骤六:从储存库中提取出预设轮廓线与实时轮廓线进行对比处理,对比通过即继续跟踪该目标,对比不通过即回到步骤一重新进行跟踪处理;
步骤七:当跟踪目标的遮挡物消失时,即再次获取跟踪人体影像信息,并再次对其进行区块化处理获取出各个区域的轮廓线,将该次获取的轮廓线标记为二次轮廓线;
步骤八:将二次轮廓线与储存库中的预设轮廓线进行比对,从而更新储存库中储存的轮廓线数据;
步骤九:更新完轮廓线数据后继续进行目标跟踪。
所述步骤三中的轮廓化处理过程具体如下:
S1:将人体信息照片区域化处理后的九个区域提取出:
S2:从人体影像信息中提取出背景色和人体色;
S3:依次将九个区域内的人体色与背景色交接处进行描线处理,九个区域内的描线处理得到的轮廓线分别为L1、L2、L3、L4、L5、L6、L7、L8和L9。
所述步骤五中实时轮廓线处理过程如下:将再获取的实时影像的人体色与背景色交接处进行描线处理,得到实时轮廓线。
所述步骤六中的预设轮廓线与实时轮廓线对比处理的过程如下:
SS1:将实时轮廓线提取出将其标记为K;
SS2:再从储存库中提取出预设轮廓线L1、L2、L3、L4、L5、L6、L7、L8和L9;
SS3:将实时轮廓线K与预设轮廓线L1、L2、L3、L4、L5、L6、L7、L8和L9进行相似度比较,实时轮廓线K与预设轮廓线L1、L2、L3、L4、L5、L6、L7、L8和L9中任意的两个或两以上轮廓线对比相似度超过预设值时,即继续跟踪该目标;
SS4:实时轮廓线K与预设轮廓线L1、L2、L3、L4、L5、L6、L7、L8和L9中任意的一个轮廓线对比相似度超过预设值时,即需要回到步骤五重新获取实时影像照片;
通过实时轮廓线与预设轮廓线的比对来判定跟踪人的身份,从而提升跟踪准确性。
所述步骤八中的二次轮廓线与储存库中的预设轮廓线比对过程如下:
步骤一:将二次轮廓线按照顺便分别标记为M1、M2、M3、M4、M5、M6、M7、M8和M9;
步骤二:从储存库中提取出预设轮廓线比L1、L2、L3、L4、L5、L6、L7、L8和L9;
步骤三:从二次轮廓线按照顺便分别标记为M1、M2、M3、M4、M5、M6、M7、M8和M9与储存库中提取出预设轮廓线比L1、L2、L3、L4、L5、L6、L7、L8和L9中随机抽取X个编号相同的预设轮廓线与二次轮廓线,X≥3;
步骤四:将X个编号相同的预设轮廓线与二次轮廓线进行相似度比对,当X个编号相同的预设轮廓线与二次轮廓线的相似度大于预设值时,即不替换储存库内的预设轮廓线;
步骤五:当X个编号相同的预设轮廓线与二次轮廓线的相似度小于预设值时,即使用二次轮廓线替换储存库内的预设轮廓线;
实时的更新储存库中数据信息从而提高识别效率和识别准备度。
综上,本实发明在使用时,获取实时跟踪人员的人体影像信息,人体影像信息为跟踪人员的人体影像照片,对获取到的人体影像照片进行分割处理,将人体影像照片进行区块化处理,将其等分为九块,将区块化处理后的照片分别提取出,并将各个区块进行轮廓化处理,各个区域的轮廓线即为预设轮廓线,将各个区域的轮廓线提取出,上传到储存库,当跟踪目标被遮挡时,再获取一张实时影像,将未被遮挡部分进行轮廓化处理得到实时轮廓线,从储存库中提取出预设轮廓线与实时轮廓线进行对比处理,对比通过即继续跟踪该目标,对比不通过即回到步骤一重新进行跟踪处理,当跟踪目标的遮挡物消失时,即再次获取跟踪人体影像信息,并再次对其进行区块化处理获取出各个区域的轮廓线,将该次获取的轮廓线标记为二次轮廓线,将二次轮廓线与储存库中的预设轮廓线进行比对,从而更新储存库中储存的轮廓线数据,更新完轮廓线数据后继续进行目标跟踪。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (5)
1.一种基于在线学习的抗遮挡目标跟踪算法,其特征在于,包括以下步骤:
步骤一:获取实时跟踪人员的人体影像信息,人体影像信息为跟踪人员的人体影像照片;
步骤二:对获取到的人体影像照片进行分割处理,将人体影像照片进行区块化处理,将其等分为九块;
步骤三:将区块化处理后的照片分别提取出,并将各个区块进行轮廓化处理;
步骤四:各个区域的轮廓线即为预设轮廓线,将各个区域的轮廓线提取出,上传到储存库;
步骤五:当跟踪目标被遮挡时,再获取一张实时影像,将未被遮挡部分进行轮廓化处理得到实时轮廓线;
步骤六:从储存库中提取出预设轮廓线与实时轮廓线进行对比处理,对比通过即继续跟踪该目标,对比不通过即回到步骤一重新进行跟踪处理;
步骤七:当跟踪目标的遮挡物消失时,即再次获取跟踪人体影像信息,并再次对其进行区块化处理获取出各个区域的轮廓线,将该次获取的轮廓线标记为二次轮廓线;
步骤八:将二次轮廓线与储存库中的预设轮廓线进行比对,从而更新储存库中储存的轮廓线数据;
步骤九:更新完轮廓线数据后继续进行目标跟踪。
2.根据权利要求1所述的一种基于在线学习的抗遮挡目标跟踪算法,其特征在于:所述步骤三中的轮廓化处理过程具体如下:
S1:将人体信息照片区域化处理后的九个区域提取出:
S2:从人体影像信息中提取出背景色和人体色;
S3:依次将九个区域内的人体色与背景色交接处进行描线处理,九个区域内的描线处理得到的轮廓线分别为L1、L2、L3、L4、L5、L6、L7、L8和L9。
3.根据权利要求1所述的一种基于在线学习的抗遮挡目标跟踪算法,其特征在于:所述步骤五中实时轮廓线处理过程如下:将再获取的实时影像的人体色与背景色交接处进行描线处理,得到实时轮廓线。
4.根据权利要求1所述的一种基于在线学习的抗遮挡目标跟踪算法,其特征在于:所述步骤六中的预设轮廓线与实时轮廓线对比处理的过程如下:
SS1:将实时轮廓线提取出将其标记为K;
SS2:再从储存库中提取出预设轮廓线L1、L2、L3、L4、L5、L6、L7、L8和L9;
SS3:将实时轮廓线K与预设轮廓线L1、L2、L3、L4、L5、L6、L7、L8和L9进行相似度比较,实时轮廓线K与预设轮廓线L1、L2、L3、L4、L5、L6、L7、L8和L9中任意的两个或两以上轮廓线对比相似度超过预设值时,即继续跟踪该目标;
SS4:实时轮廓线K与预设轮廓线L1、L2、L3、L4、L5、L6、L7、L8和L9中任意的一个轮廓线对比相似度超过预设值时,即需要回到步骤五重新获取实时影像照片。
5.根据权利要求1所述的一种基于在线学习的抗遮挡目标跟踪算法,其特征在于:所述步骤八中的二次轮廓线与储存库中的预设轮廓线比对过程如下:
步骤一:将二次轮廓线按照顺便分别标记为M1、M2、M3、M4、M5、M6、M7、M8和M9;
步骤二:从储存库中提取出预设轮廓线比L1、L2、L3、L4、L5、L6、L7、L8和L9;
步骤三:从二次轮廓线按照顺便分别标记为M1、M2、M3、M4、M5、M6、M7、M8和M9与储存库中提取出预设轮廓线比L1、L2、L3、L4、L5、L6、L7、L8和L9中随机抽取X个编号相同的预设轮廓线与二次轮廓线,X≥3;
步骤四:将X个编号相同的预设轮廓线与二次轮廓线进行相似度比对,当X个编号相同的预设轮廓线与二次轮廓线的相似度大于预设值时,即不替换储存库内的预设轮廓线;
步骤五:当X个编号相同的预设轮廓线与二次轮廓线的相似度小于预设值时,即使用二次轮廓线替换储存库内的预设轮廓线。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010904335.1A CN111986236A (zh) | 2020-09-01 | 2020-09-01 | 一种基于在线学习的抗遮挡目标跟踪算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010904335.1A CN111986236A (zh) | 2020-09-01 | 2020-09-01 | 一种基于在线学习的抗遮挡目标跟踪算法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111986236A true CN111986236A (zh) | 2020-11-24 |
Family
ID=73447184
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010904335.1A Pending CN111986236A (zh) | 2020-09-01 | 2020-09-01 | 一种基于在线学习的抗遮挡目标跟踪算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111986236A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112435277A (zh) * | 2020-12-11 | 2021-03-02 | 中科人工智能创新技术研究院(青岛)有限公司 | 一种监控场景下限定区域内目标跟踪方法及系统 |
CN114550306A (zh) * | 2022-04-21 | 2022-05-27 | 杭州雅观科技有限公司 | 一种智慧教室的部署方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103065325A (zh) * | 2012-12-20 | 2013-04-24 | 中国科学院上海微系统与信息技术研究所 | 一种基于彩色颜色距离和图像分科聚合的目标跟踪方法 |
KR101508310B1 (ko) * | 2014-04-10 | 2015-04-07 | 군산대학교산학협력단 | 영상 감시 시스템에서 다중 이동 물체를 추적하는 방법 및 장치 |
US20150110349A1 (en) * | 2013-10-22 | 2015-04-23 | Samsung Electronics Co., Ltd. | Face tracking apparatuses and methods |
CN106023155A (zh) * | 2016-05-10 | 2016-10-12 | 电子科技大学 | 基于水平集的在线目标轮廓跟踪方法 |
CN109448022A (zh) * | 2018-10-16 | 2019-03-08 | 天津津航技术物理研究所 | 用于导引系统的红外抗遮挡跟踪方法 |
CN109544601A (zh) * | 2018-11-27 | 2019-03-29 | 天津工业大学 | 一种基于在线学习的目标检测与跟踪方法 |
CN109903313A (zh) * | 2019-02-28 | 2019-06-18 | 中国人民解放军国防科技大学 | 一种基于目标三维模型的实时位姿跟踪方法 |
CN111598925A (zh) * | 2020-05-15 | 2020-08-28 | 武汉卓目科技有限公司 | 基于eco算法和区域生长分割的视觉目标跟踪方法及装置 |
-
2020
- 2020-09-01 CN CN202010904335.1A patent/CN111986236A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103065325A (zh) * | 2012-12-20 | 2013-04-24 | 中国科学院上海微系统与信息技术研究所 | 一种基于彩色颜色距离和图像分科聚合的目标跟踪方法 |
US20150110349A1 (en) * | 2013-10-22 | 2015-04-23 | Samsung Electronics Co., Ltd. | Face tracking apparatuses and methods |
KR101508310B1 (ko) * | 2014-04-10 | 2015-04-07 | 군산대학교산학협력단 | 영상 감시 시스템에서 다중 이동 물체를 추적하는 방법 및 장치 |
CN106023155A (zh) * | 2016-05-10 | 2016-10-12 | 电子科技大学 | 基于水平集的在线目标轮廓跟踪方法 |
CN109448022A (zh) * | 2018-10-16 | 2019-03-08 | 天津津航技术物理研究所 | 用于导引系统的红外抗遮挡跟踪方法 |
CN109544601A (zh) * | 2018-11-27 | 2019-03-29 | 天津工业大学 | 一种基于在线学习的目标检测与跟踪方法 |
CN109903313A (zh) * | 2019-02-28 | 2019-06-18 | 中国人民解放军国防科技大学 | 一种基于目标三维模型的实时位姿跟踪方法 |
CN111598925A (zh) * | 2020-05-15 | 2020-08-28 | 武汉卓目科技有限公司 | 基于eco算法和区域生长分割的视觉目标跟踪方法及装置 |
Non-Patent Citations (4)
Title |
---|
C. GENTILE等: "Segmentation for robust tracking in the presence of severe occlusion", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》, vol. 13, no. 2, pages 166 - 178 * |
S. R. RAO等: "Motion segmentation via robust subspace separation in the presence of outlying, incomplete, or corrupted trajectories", 《IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》, vol. 1, pages 107 - 109 * |
康烈: "序列图像中目标跟踪算法研究", 《中国优秀硕士学位论文全文数据库:信息科技辑》, no. 7, pages 1 - 104 * |
才华等: "遮挡环境下多示例学习分块目标跟踪", 《吉林大学学报(工学版)》, vol. 47, no. 1, pages 281 - 287 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112435277A (zh) * | 2020-12-11 | 2021-03-02 | 中科人工智能创新技术研究院(青岛)有限公司 | 一种监控场景下限定区域内目标跟踪方法及系统 |
CN112435277B (zh) * | 2020-12-11 | 2022-09-02 | 中科人工智能创新技术研究院(青岛)有限公司 | 一种监控场景下限定区域内目标跟踪方法及系统 |
CN114550306A (zh) * | 2022-04-21 | 2022-05-27 | 杭州雅观科技有限公司 | 一种智慧教室的部署方法 |
CN114550306B (zh) * | 2022-04-21 | 2022-08-05 | 杭州雅观科技有限公司 | 一种智慧教室的部署方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Nguyen et al. | Structure and context in prostatic gland segmentation and classification | |
CN103258432B (zh) | 基于视频的交通事故自动识别处理方法和系统 | |
CN111784746B (zh) | 一种鱼眼镜头下行人多目标跟踪方法、装置及计算机系统 | |
Tang et al. | A multi-stage framework with context information fusion structure for skin lesion segmentation | |
CN111986236A (zh) | 一种基于在线学习的抗遮挡目标跟踪算法 | |
CN106934817B (zh) | 基于多属性的多目标跟踪方法及装置 | |
US8520949B1 (en) | Self-similar descriptor filtering | |
US20070025593A1 (en) | Automated searching for probable matches in a video surveillance system | |
Zhang et al. | Lane detection model based on spatio-temporal network with double convolutional gated recurrent units | |
CN110349170B (zh) | 一种全连接crf级联fcn和k均值脑肿瘤分割算法 | |
CN114743259A (zh) | 位姿估计方法、位姿估计系统、终端、存储介质及应用 | |
US20230060211A1 (en) | System and Method for Tracking Moving Objects by Video Data | |
CN106650741A (zh) | 一种车牌字符识别方法及装置 | |
CN113095232B (zh) | 一种目标实时跟踪方法 | |
CN116403139A (zh) | 一种基于目标检测的视觉跟踪定位方法 | |
CN112989901A (zh) | 基于深度学习的液位仪读数的识别方法 | |
CN113516682B (zh) | 一种激光slam的回环检测方法 | |
CN114332172A (zh) | 一种基于协方差矩阵改进的激光点云配准方法 | |
CN109492652B (zh) | 一种基于有序视觉特征单词库模型的相似图像判断方法 | |
CN116778164A (zh) | 一种基于多尺度结构改进DeeplabV3+网络的语义分割方法 | |
CN115392407B (zh) | 基于无监督学习的危险源预警方法、装置、设备及介质 | |
US11645827B2 (en) | Detection method and device for assembly body multi-view change based on feature matching | |
NL2032560A (en) | Deep learning model performance evaluation method and system | |
CN108734213A (zh) | 一种基于贝叶斯统计分析的间歇过程模态识别方法 | |
CN111428734B (zh) | 一种基于残差对抗推理学习的图像特征提取方法、装置和计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |