CN113111795A - 一种基于行人重识别的定位追踪装置及方法 - Google Patents
一种基于行人重识别的定位追踪装置及方法 Download PDFInfo
- Publication number
- CN113111795A CN113111795A CN202110415427.8A CN202110415427A CN113111795A CN 113111795 A CN113111795 A CN 113111795A CN 202110415427 A CN202110415427 A CN 202110415427A CN 113111795 A CN113111795 A CN 113111795A
- Authority
- CN
- China
- Prior art keywords
- module
- pedestrian
- identification
- tracking
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000012545 processing Methods 0.000 claims abstract description 59
- 230000004807 localization Effects 0.000 claims abstract 2
- 238000001514 detection method Methods 0.000 claims description 38
- 238000013135 deep learning Methods 0.000 claims description 23
- 230000011218 segmentation Effects 0.000 claims description 19
- 230000000007 visual effect Effects 0.000 claims description 16
- 238000004891 communication Methods 0.000 claims description 12
- 238000012549 training Methods 0.000 claims description 8
- 238000013500 data storage Methods 0.000 claims description 7
- 230000006399 behavior Effects 0.000 claims description 6
- 230000036544 posture Effects 0.000 claims description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于行人重识别的定位追踪装置及方法,包括装置外壳,所述装置外壳内部设置有终端服务器、数据采集模块、数据处理模块和以太网端口;设置深度学习模块,通过机器的深度学习模式可以从人的背面、侧面或在人脸模糊不清的条件下,将一个人的行为轨迹还原,实现对目标人物的识别、检索和追踪,让安防工作变得更为立体,通过设置属性识别模块,把行人的属性提炼出来,比如他衣服的颜色、裤子的类型、背包的颜色,进而增加了定位追踪的效率,防止由于人脸识别不准确或者无法识别时造成的失效,并且可以运用在人员管理方面,实用性较强。
Description
技术领域
本发明涉及定位追踪装置领域,尤其涉及一种基于行人重识别的定位追踪装置及方法。
背景技术
行人重识别也称行人再识别,是利用计算机视觉技术判断图像或者视频序列中是否存在特定行人的技术;通俗点讲就是对行人进行重新识别,是对不同的、没有视野重叠覆盖的摄像机拍摄的行人图像建立对应关系的处理过程;当摄像头拍摄范围之间不存在重叠时,由于没有了连续信息,检索难度也随之增大非常多,因此,行人重识别强调的是在跨摄像机的视频中对特定行人进行检索,弥补现有人脸识别系统中的不足之处。
例如申请号CN201810410845.6公开了基于行人重识别的定位追踪方法及装置,获取目标行人的初始图片和待识别图片库,进行统一化处理,之后在图片库中对目标行人进行行人重识别,找到N个与目标行人最相似的行人图片,如果所找到的某一行人图片里有目标行人,则查询与该某一行人图片相应的地点,调取所查询到的地点的监控视频,对目标行人进行定位和追踪,即可获取目标行人的行走数据例如行走路线。本发明利用行人重识别的结果结合固定摄像头的监控结果,实现对目标行人的定位追踪,可以获取目标行人的行走路线。进一步的,还可以根据行人的身高、步长、行走速度判断行人当时的行走状态。对目标行人的行走分析,包括行走路线和行走状态,可以用于后续的侦察分析,但是对于行人中对特定人进行识别难度仍然较大,导致识别不够清晰,对目标行人的定位追踪效率不高。
发明内容
本发明的目的在于提供一种基于行人重识别的定位追踪装置及方法,以解决上述技术问题。
本发明为解决上述技术问题,采用以下技术方案来实现:一种基于行人重识别的定位追踪装置,包括装置外壳,所述装置外壳内部设置有终端服务器、数据采集模块、数据处理模块和以太网端口,所述数据采集模块、数据处理模块和以太网端口均与终端服务器通过导线电性连接,所述终端服务器通过以太网端口与前端摄像头通讯连接,所述前端摄像头设置有若干个,所述数据处理模块包括中央处理模块、数据接收模块、行人检测模块、像素分割模块、视觉检测模块、MOT数据集、动作识别模块、属性识别模块和深度学习模块,所述数据接收模块、行人检测模块、像素分割模块、视觉检测模块、MOT数据集、动作识别模块、属性识别模块和深度学习模块均通过导线与中央处理模块电性连接。
优选的,所述装置外壳内部还设置有数据存储模块和编辑模块,所述数据存储模块和编辑模块均通过导线与终端服务器电性连接。
优选的,所述装置外壳外侧设置有主显示屏和副显示屏,所述副显示屏位于主显示屏的两侧,所述副显示屏设置有若干个。
优选的,所述主显示屏和副显示屏均通过导线与终端服务器电性连接。
一种基于行人重识别的定位追踪装置及方法,包括以下步骤:
步骤1:行人检测;
步骤2:通过像素分割模块进行行人分割以及背景替换,预估每个行人在图片里的像素概率,把这个像素分割出来是人或是背景;
步骤3:骨架关键点检测及姿态识别;
步骤4:行人跟踪;
步骤5:动作识别;
步骤6:行人属性结构化和跨境追踪及行人再识别。
优选的,所述步骤1包括以下步骤:
步骤1.1:将前端摄像头通过以太网端口与终端服务器通讯连接,通过前端摄像头进行行人画面拍摄;
步骤1.2:装置外壳中的数据采集模块对前端摄像头的拍摄画面数据进行获取,并且传输到终端服务器;
步骤1.3:终端服务器通过数据处理模块将前端摄像头的拍摄数据进行处理;
步骤1.4:数据处理模块通过数据接收模块接收信息后经过中央处理模块进行数据处理,然后通过行人检测模块在给定图片中检测出行人位置的矩形框。
优选的,所述步骤3包括以下步骤:
步骤3.1:通过视觉检测模块识别出人体的几个关键点,比如头部、肩部、手掌、脚掌,用到行人姿态识别的任务中;
步骤3.2:通过深度学习模块对行人的状态训练识别模型。
优选的,所述步骤4包括以下步骤:
步骤4.1:基于MOT数据集研究行人在单个前端摄像头里行进的轨迹,每个人后面拖了一根线,这根线表示这个人在摄像头里行进的轨迹;
步骤4.2:和ReID技术结合在一起可以形成跨镜头的细粒度的轨迹跟踪。
优选的,所述步骤5包括以下步骤:
步骤5.1:通过视觉检测模块抓取行人的关键点;
步骤5.2:通过动作识别模块与深度学习模块训练模型进行对比;
步骤5.3:根据对比结果确定动作行为;
步骤5.4:将无法识别的动作通过深度学习模块进行模型训练。
所述步骤6包括以下步骤:
优选的,步骤6.1:通过属性识别模块将行人的属性提炼出来,比如衣服的颜色、裤子的类型、背包的颜色;
步骤6.2:根据识别的属性对行人进行跨境追踪;
步骤6.3:根据跨境追踪画面进行人脸识别。
本发明的有益效果是:
1、本发明通过设置深度学习模块,通过机器的深度学习模式可以从人的背面、侧面或在人脸模糊不清的条件下,将一个人的行为轨迹还原,实现对目标人物的识别、检索和追踪,让安防工作变得更为立体;
2、本发明通过设置属性识别模块,把行人的属性提炼出来,比如他衣服的颜色、裤子的类型、背包的颜色,进而增加了定位追踪的效率,防止由于人脸识别不准确或者无法识别时造成的失效,并且可以运用在人员管理方面,实用性较强。
附图说明
图1为本发明的立体结构示意图;
图2为本发明中装置外壳的内部示意图;
图3为本发明的连接框图;
图4为本发明中数据处理模块的程序连接框图;
图5为本发明的使用流程图;
附图标记:装置外壳1、终端服务器2、数据采集模块3、数据处理模块4、以太网端口5、前端摄像头6、中央处理模块7、数据接收模块8、行人检测模块9、像素分割模块10、视觉检测模块11、MOT数据集12、动作识别模块13、属性识别模块14、深度学习模块15、数据存储模块16、编辑模块17、主显示屏18、副显示屏19。
具体实施方式
为了使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,下面结合具体实施例和附图,进一步阐述本发明,但下述实施例仅仅为本发明的优选实施例,并非全部。基于实施方式中的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得其它实施例,都属于本发明的保护范围。
下面结合附图描述本发明的具体实施例。
实施例1
如图1-4所示,一种基于行人重识别的定位追踪装置,包括装置外壳1,装置外壳1内部设置有终端服务器2、数据采集模块3、数据处理模块4和以太网端口5,数据采集模块3、数据处理模块4和以太网端口5均与终端服务器2通过导线电性连接,终端服务器2通过以太网端口5与前端摄像头6通讯连接,前端摄像头6设置有若干个,数据处理模块4包括中央处理模块7、数据接收模块8、行人检测模块9、像素分割模块10、视觉检测模块11、MOT数据集12、动作识别模块13、属性识别模块14和深度学习模块15,数据接收模块8、行人检测模块9、像素分割模块10、视觉检测模块11、MOT数据集12、动作识别模块13、属性识别模块14和深度学习模块15均通过导线与中央处理模块7电性连接。
本发明中,优选的,装置外壳1内部还设置有数据存储模块16和编辑模块17,数据存储模块16和编辑模块17均通过导线与终端服务器2电性连接。
本发明中,优选的,装置外壳1外侧设置有主显示屏18和副显示屏19,副显示屏19位于主显示屏18的两侧,副显示屏19设置有若干个。
本发明中,优选的,主显示屏18和副显示屏19均通过导线与终端服务器2电性连接。
工作原理:将前端摄像头6通过以太网端口5与终端服务器2通讯连接,通过前端摄像头6进行行人画面拍摄,装置外壳1中的数据采集模块3对前端摄像头6的拍摄画面数据进行获取,并且传输到终端服务器2,终端服务器2通过数据处理模块4将前端摄像头6的拍摄数据进行处理,数据处理模块4通过数据接收模块8接收信息后经过中央处理模块7进行数据处理,然后通过行人检测模块9在给定图片中检测出行人位置的矩形框,然后基于MOT数据集12研究行人在单个前端摄像头6里行进的轨迹,每个人后面拖了一根线,这根线表示这个人在摄像头里行进的轨迹,再通过属性识别模块14将行人的属性提炼出来,比如衣服的颜色、裤子的类型、背包的颜色,根据识别的属性对行人进行跨境追踪,再根据跨境追踪画面进行人脸识别,通过主显示屏18和副显示屏19对定位跟追过程及结构进行展示,并且将定位跟踪结果通过数据存储模块16进行存储,便于后期调用察看,
实施例2
如图1-5所示,在其它部分均与实施例1相同的情况下,本实施例与实施例1的区别在于:一种基于行人重识别的定位追踪装置,包括装置外壳1,装置外壳1内部设置有终端服务器2、数据采集模块3、数据处理模块4和以太网端口5,数据采集模块3、数据处理模块4和以太网端口5均与终端服务器2通过导线电性连接,终端服务器2通过以太网端口5与前端摄像头6通讯连接,前端摄像头6设置有若干个,数据处理模块4包括中央处理模块7、数据接收模块8、行人检测模块9、像素分割模块10、视觉检测模块11、MOT数据集12、动作识别模块13、属性识别模块14和深度学习模块15,数据接收模块8、行人检测模块9、像素分割模块10、视觉检测模块11、MOT数据集12、动作识别模块13、属性识别模块14和深度学习模块15均通过导线与中央处理模块7电性连接。
一种基于行人重识别的定位追踪装置及方法,包括以下步骤:
步骤1:行人检测;
步骤2:通过像素分割模块10进行行人分割以及背景替换,预估每个行人在图片里的像素概率,把这个像素分割出来是人或是背景;
步骤3:骨架关键点检测及姿态识别;
步骤4:行人跟踪;
步骤5:动作识别;
步骤6:行人属性结构化和跨境追踪及行人再识别。
本发明中,优选的,步骤1包括以下步骤:
步骤1.1:将前端摄像头6通过以太网端口5与终端服务器2通讯连接,通过前端摄像头6进行行人画面拍摄;
步骤1.2:装置外壳1中的数据采集模块3对前端摄像头6的拍摄画面数据进行获取,并且传输到终端服务器2;
步骤1.3:终端服务器2通过数据处理模块4将前端摄像头6的拍摄数据进行处理;
步骤1.4:数据处理模块4通过数据接收模块8接收信息后经过中央处理模块7进行数据处理,然后通过行人检测模块9在给定图片中检测出行人位置的矩形框。
本发明中,优选的,步骤3包括以下步骤:
步骤3.1:通过视觉检测模块11识别出人体的几个关键点,比如头部、肩部、手掌、脚掌,用到行人姿态识别的任务中;
步骤3.2:通过深度学习模块15对行人的状态训练识别模型。
本发明中,优选的,步骤4包括以下步骤:
步骤4.1:基于MOT数据集12研究行人在单个前端摄像头6里行进的轨迹,每个人后面拖了一根线,这根线表示这个人在摄像头里行进的轨迹;
步骤4.2:和ReID技术结合在一起可以形成跨镜头的细粒度的轨迹跟踪。
本发明中,优选的,步骤5包括以下步骤:
步骤5.1:通过视觉检测模块11抓取行人的关键点;
步骤5.2:通过动作识别模块13与深度学习模块15训练模型进行对比;
步骤5.3:根据对比结果确定动作行为;
步骤5.4:将无法识别的动作通过深度学习模块15进行模型训练。
本发明中,优选的,步骤6包括以下步骤:
步骤6.1:通过属性识别模块14将行人的属性提炼出来,比如衣服的颜色、裤子的类型、背包的颜色;
步骤6.2:根据识别的属性对行人进行跨境追踪;
步骤6.3:根据跨境追踪画面进行人脸识别。
工作原理:将前端摄像头6通过以太网端口5与终端服务器2通讯连接,通过前端摄像头6进行行人画面拍摄,通过数据采集模块3对前端摄像头6的拍摄画面数据进行获取,并且传输到终端服务器2,终端服务器2通过数据处理模块4将前端摄像头6的拍摄数据进行处理,数据处理模块4通过数据接收模块8接收信息后经过中央处理模块7进行数据处理,然后通过行人检测模块9在给定图片中检测出行人位置的矩形框,再通过像素分割模块10进行行人分割以及背景替换,预估每个行人在图片里的像素概率,把这个像素分割出来是人或是背景,这时用到很多P图的场景,比如背景替换,然后通过视觉检测模块11识别出人体的几个关键点,比如头部、肩部、手掌、脚掌,用到行人姿态识别的任务中,这些技术可以应用在互动娱乐的场景中,类似于Kinnect人机互动方面,然后通过深度学习模块15对行人的状态训练识别模型,训练时,采用基于LSTM的循环神经网络(RNN)来搭建基础框架,用于学习有效的特征并且对时域的动态过程建模,实现端到端的行为识别及检测,最后基于MOT数据集12研究行人在单个前端摄像头6里行进的轨迹,每个人后面拖了一根线,这根线表示这个人在摄像头里行进的轨迹,和ReID技术结合在一起可以形成跨镜头的细粒度的轨迹跟踪,当进行动作识别时,通过视觉检测模块11抓取行人的关键点,然后通过动作识别模块13与深度学习模块15训练模型进行对比确定动作行为,将无法识别的动作通过深度学习模块15进行模型训练,进行跟踪时,通过属性识别模块14将行人的属性提炼出来,比如衣服的颜色、裤子的类型、背包的颜色,根据识别的属性对行人进行跨境追踪,最后根据跨境追踪画面进行人脸识别,从而可以从人的背面、侧面或在人脸模糊不清的条件下,将一个人的行为轨迹还原,实现对目标人物的识别、检索和追踪,弥补了现有人脸识别系统中的不足之处。
实施例3
如图1-5所示,在其它部分均与实施例1和实施例2相同的情况下,本实施例与实施例1和实施例2的区别在于:一种基于行人重识别的定位追踪装置,包括装置外壳1,装置外壳1内部设置有终端服务器2、数据采集模块3、数据处理模块4和以太网端口5,数据采集模块3、数据处理模块4和以太网端口5均与终端服务器2通过导线电性连接,终端服务器2通过以太网端口5与前端摄像头6通讯连接,前端摄像头6设置有若干个,数据处理模块4包括中央处理模块7、数据接收模块8、行人检测模块9、像素分割模块10、视觉检测模块11、MOT数据集12、动作识别模块13、属性识别模块14和深度学习模块15,数据接收模块8、行人检测模块9、像素分割模块10、视觉检测模块11、MOT数据集12、动作识别模块13、属性识别模块14和深度学习模块15均通过导线与中央处理模块7电性连接。
一种基于行人重识别的定位追踪装置及方法,包括以下步骤:
步骤1:行人检测;
步骤2:行人跟踪;
步骤3:行人属性结构化和跨境追踪及行人再识别。
本发明中,优选的,步骤1包括以下步骤:
步骤1.1:将前端摄像头6通过以太网端口5与终端服务器2通讯连接,通过前端摄像头6进行行人画面拍摄;
步骤1.2:装置外壳1中的数据采集模块3对前端摄像头6的拍摄画面数据进行获取,并且传输到终端服务器2;
步骤1.3:终端服务器2通过数据处理模块4将前端摄像头6的拍摄数据进行处理;
步骤1.4:数据处理模块4通过数据接收模块8接收信息后经过中央处理模块7进行数据处理,然后通过行人检测模块9在给定图片中检测出行人位置的矩形框。
本发明中,优选的,步骤4包括以下步骤:
步骤2.1:基于MOT数据集12研究行人在单个前端摄像头6里行进的轨迹,每个人后面拖了一根线,这根线表示这个人在摄像头里行进的轨迹;
步骤2.2:和ReID技术结合在一起可以形成跨镜头的细粒度的轨迹跟踪。
本发明中,优选的,步骤6包括以下步骤:
步骤3.1:通过属性识别模块14将行人的属性提炼出来,比如衣服的颜色、裤子的类型、背包的颜色;
步骤3.2:根据识别的属性对行人进行跨境追踪;
步骤3.3:根据跨境追踪画面进行人脸识别。
工作原理:将前端摄像头6通过以太网端口5与终端服务器2通讯连接,通过前端摄像头6进行行人画面拍摄,通过数据采集模块3对前端摄像头6的拍摄画面数据进行获取,并且传输到终端服务器2,终端服务器2通过数据处理模块4将前端摄像头6的拍摄数据进行处理,数据处理模块4通过数据接收模块8接收信息后经过中央处理模块7进行数据处理,然后通过行人检测模块9在给定图片中检测出行人位置的矩形框,基于MOT数据集12研究行人在单个前端摄像头6里行进的轨迹,每个人后面拖了一根线,这根线表示这个人在摄像头里行进的轨迹,和ReID技术结合在一起可以形成跨镜头的细粒度的轨迹跟踪,进行跟踪时,通过属性识别模块14将行人的属性提炼出来,比如衣服的颜色、裤子的类型、背包的颜色,根据识别的属性对行人进行跨境追踪,最后根据跨境追踪画面进行人脸识别,从而可以从人的背面、侧面或在人脸模糊不清的条件下,将一个人的行为轨迹还原,实现对目标人物的识别、检索和追踪,弥补了现有人脸识别系统中的不足之处。
将实施例3运用到员工管理方面,可以实时获取营业厅工作人员在岗、离岗状态,以及在岗人员进行识别,统计离岗时间,离岗异常,工作制服,发型是否规整。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的仅为本发明的优选例,并不用来限制本发明,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。
Claims (10)
1.一种基于行人重识别的定位追踪装置,包括装置外壳(1),其特征在于:所述装置外壳(1)内部设置有终端服务器(2)、数据采集模块(3)、数据处理模块(4)和以太网端口(5),所述数据采集模块(3)、数据处理模块(4)和以太网端口(5)均与终端服务器(2)通过导线电性连接,所述终端服务器(2)通过以太网端口(5)与前端摄像头(6)通讯连接,所述前端摄像头(6)设置有若干个,所述数据处理模块(4)包括中央处理模块(7)、数据接收模块(8)、行人检测模块(9)、像素分割模块(10)、视觉检测模块(11)、MOT数据集(12)、动作识别模块(13)、属性识别模块(14)和深度学习模块(15),所述数据接收模块(8)、行人检测模块(9)、像素分割模块(10)、视觉检测模块(11)、MOT数据集(12)、动作识别模块(13)、属性识别模块(14)和深度学习模块(15)均通过导线与中央处理模块(7)电性连接。
2.根据权利要求1所述的一种基于行人重识别的定位追踪装置,其特征在于:所述装置外壳(1)内部还设置有数据存储模块(16)和编辑模块(17),所述数据存储模块(16)和编辑模块(17)均通过导线与终端服务器(2)电性连接。
3.根据权利要求1所述的一种基于行人重识别的定位追踪装置,其特征在于:所述装置外壳(1)外侧设置有主显示屏(18)和副显示屏(19),所述副显示屏(19)位于主显示屏(18)的两侧,所述副显示屏(19)设置有若干个。
4.根据权利要求3所述的一种基于行人重识别的定位追踪装置,其特征在于:所述主显示屏(18)和副显示屏(19)均通过导线与终端服务器(2)电性连接。
5.根据权利要求1所述的一种基于行人重识别的定位追踪装置及方法,其特征在于:包括以下步骤:
步骤1:行人检测;
步骤2:通过像素分割模块(10)进行行人分割以及背景替换,预估每个行人在图片里的像素概率,把这个像素分割出来是人或是背景;
步骤3:骨架关键点检测及姿态识别;
步骤4:行人跟踪;
步骤5:动作识别;
步骤6:行人属性结构化和跨境追踪及行人再识别。
6.根据权利要求5所述的一种基于行人重识别的定位追踪装置及方法,其特征在于:所述步骤1包括以下步骤:
步骤1.1:将前端摄像头(6)通过以太网端口(5)与终端服务器(2)通讯连接,通过前端摄像头(6)进行行人画面拍摄;
步骤1.2:装置外壳(1)中的数据采集模块(3)对前端摄像头(6)的拍摄画面数据进行获取,并且传输到终端服务器(2);
步骤1.3:终端服务器(2)通过数据处理模块(4)将前端摄像头(6)的拍摄数据进行处理;
步骤1.4:数据处理模块(4)通过数据接收模块(8)接收信息后经过中央处理模块(7)进行数据处理,然后通过行人检测模块(9)在给定图片中检测出行人位置的矩形框。
7.根据权利要求5所述的一种基于行人重识别的定位追踪装置及方法,其特征在于:所述步骤3包括以下步骤:
步骤3.1:通过视觉检测模块(11)识别出人体的几个关键点,比如头部、肩部、手掌、脚掌,用到行人姿态识别的任务中;
步骤3.2:通过深度学习模块(15)对行人的状态训练识别模型。
8.根据权利要求5所述的一种基于行人重识别的定位追踪装置及方法,其特征在于:所述步骤4包括以下步骤:
步骤4.1:基于MOT数据集(12)研究行人在单个前端摄像头(6)里行进的轨迹,每个人后面拖了一根线,这根线表示这个人在摄像头里行进的轨迹;
步骤4.2:和ReID技术结合在一起可以形成跨镜头的细粒度的轨迹跟踪。
9.根据权利要求5所述的一种基于行人重识别的定位追踪装置及方法,其特征在于:所述步骤5包括以下步骤:
步骤5.1:通过视觉检测模块(11)抓取行人的关键点;
步骤5.2:通过动作识别模块(13)与深度学习模块(15)训练模型进行对比;
步骤5.3:根据对比结果确定动作行为;
步骤5.4:将无法识别的动作通过深度学习模块(15)进行模型训练。
10.根据权利要求5所述的一种基于行人重识别的定位追踪装置及方法,其特征在于:所述步骤6包括以下步骤:
步骤6.1:通过属性识别模块(14)将行人的属性提炼出来,比如衣服的颜色、裤子的类型、背包的颜色;
步骤6.2:根据识别的属性对行人进行跨境追踪;
步骤6.3:根据跨境追踪画面进行人脸识别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110415427.8A CN113111795A (zh) | 2021-04-18 | 2021-04-18 | 一种基于行人重识别的定位追踪装置及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110415427.8A CN113111795A (zh) | 2021-04-18 | 2021-04-18 | 一种基于行人重识别的定位追踪装置及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113111795A true CN113111795A (zh) | 2021-07-13 |
Family
ID=76718271
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110415427.8A Pending CN113111795A (zh) | 2021-04-18 | 2021-04-18 | 一种基于行人重识别的定位追踪装置及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113111795A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113435429A (zh) * | 2021-08-27 | 2021-09-24 | 广东电网有限责任公司中山供电局 | 一种基于现场作业监控视频的多目标检测和跟踪系统 |
CN114783037A (zh) * | 2022-06-17 | 2022-07-22 | 浙江大华技术股份有限公司 | 目标重识别方法、目标重识别装置和计算机可读存储介质 |
-
2021
- 2021-04-18 CN CN202110415427.8A patent/CN113111795A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113435429A (zh) * | 2021-08-27 | 2021-09-24 | 广东电网有限责任公司中山供电局 | 一种基于现场作业监控视频的多目标检测和跟踪系统 |
CN114783037A (zh) * | 2022-06-17 | 2022-07-22 | 浙江大华技术股份有限公司 | 目标重识别方法、目标重识别装置和计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
He et al. | Part-regularized near-duplicate vehicle re-identification | |
CN105187785B (zh) | 一种基于动态选取显著特征的跨卡口行人识别系统与方法 | |
CN108229335A (zh) | 关联人脸识别方法和装置、电子设备、存储介质、程序 | |
CN108256439A (zh) | 一种基于循环生成式对抗网络的行人图像生成方法及系统 | |
CN109389086A (zh) | 检测无人机影像目标的方法和系统 | |
CN107025420A (zh) | 视频中人体行为识别的方法和装置 | |
CN113111795A (zh) | 一种基于行人重识别的定位追踪装置及方法 | |
CN111325048B (zh) | 一种人员聚集检测方法和装置 | |
CN111753601B (zh) | 一种图像处理的方法、装置以及存储介质 | |
WO2017150899A1 (ko) | 전역적 다중 객체 추적을 위한 객체 재식별 방법 | |
CN109409250A (zh) | 一种基于深度学习的无交叠视域跨摄像机行人再识别方法 | |
WO2019010557A1 (en) | SYSTEM AND METHOD FOR COLLECTING DATA RELATING TO QUALITY OF SERVICE IN A CLIENT SERVICE ENVIRONMENT | |
D'Orazio et al. | A survey of automatic event detection in multi-camera third generation surveillance systems | |
Liu et al. | Spatial-temporal motion information integration for action detection and recognition in non-static background | |
Polikovsky et al. | Detection and measurement of facial micro-expression characteristics for psychological analysis | |
Li et al. | Evaluation of an ivs system for abandoned object detection on pets 2006 datasets | |
Vora et al. | Bringing generalization to deep multi-view pedestrian detection | |
Amirbandi et al. | Exploring methods and systems for vision based human activity recognition | |
Ling et al. | Colour-based object tracking in surveillance application | |
CN114677608A (zh) | 身份特征生成方法、设备及存储介质 | |
CN116797632A (zh) | 一种基于多目标跟踪的跑步监督系统及方法 | |
CN113743380B (zh) | 一种基于视频图像动态监测的主动跟踪方法 | |
Lee et al. | An intelligent image-based customer analysis service | |
Tsinikos et al. | Real-time activity recognition for surveillance applications on edge devices | |
Taha et al. | Exploring behavior analysis in video surveillance applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210713 |