CN112749658A - 大数据金融安防系统行人行为分析方法、系统及机器人 - Google Patents
大数据金融安防系统行人行为分析方法、系统及机器人 Download PDFInfo
- Publication number
- CN112749658A CN112749658A CN202110032162.3A CN202110032162A CN112749658A CN 112749658 A CN112749658 A CN 112749658A CN 202110032162 A CN202110032162 A CN 202110032162A CN 112749658 A CN112749658 A CN 112749658A
- Authority
- CN
- China
- Prior art keywords
- image
- human body
- target
- pedestrian
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 189
- 241001465754 Metazoa Species 0.000 claims abstract description 67
- 238000001914 filtration Methods 0.000 claims abstract description 8
- 230000006399 behavior Effects 0.000 claims description 140
- 238000010586 diagram Methods 0.000 claims description 31
- 210000003127 knee Anatomy 0.000 claims description 28
- 238000000034 method Methods 0.000 claims description 25
- 210000000544 articulatio talocruralis Anatomy 0.000 claims description 21
- 210000001364 upper extremity Anatomy 0.000 claims description 21
- 210000003423 ankle Anatomy 0.000 claims description 20
- 210000000707 wrist Anatomy 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 17
- 210000000629 knee joint Anatomy 0.000 claims description 16
- 210000002414 leg Anatomy 0.000 claims description 11
- 101100134058 Caenorhabditis elegans nth-1 gene Proteins 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 5
- 210000002683 foot Anatomy 0.000 claims description 3
- 230000004927 fusion Effects 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 210000003754 fetus Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例提供了一种大数据金融安防系统行人行为分析方法、系统及机器人,通过接收行人进入预设区域的一段视频;在所述一段视频中的第一帧图像中选中目标行人;采用卡尔曼滤波在所述多帧图像中跟踪所述目标行人;在每帧图像中获得其他目标与所述目标行人之间的距离;在每帧图像中获得所述目标行人的人体姿态信息和所述其他目标的姿态信息;针对每帧图像,基于所述距离和所述其他目标的姿态信息调整所述目标行人的人体姿态信息,得到所述目标行人调整后的人体姿态信息;根据所述调整后的人体姿态信息预测所述目标行为的行为类别。考虑了目标行人周围的人或者动物对目标行为的下一步行为的影响,提高了行为分析的准确性,计算量少。
Description
本发明专利申请是分案申请,原案的申请号是202010362579.1,申请日是2020年4月30日,发明名称为大数据金融安防系统行人行为分析方法、系统及机器人。
技术领域
本发明涉及计算机技术领域,具体而言,涉及一种大数据金融安防系统行人行为分析方法、系统及机器人。
背景技术
现有技术中,对行人、目标行人的行为分析都是基于该行人大量的历史运动数据进行预测得到。但是现实生活中,一个人的行动受到周围环境的影响,例如受到周围人或者动物的影响。因此,仅仅依靠人的历史行为对人的行为进行分析,其分析结果是不准确的。
发明内容
本发明的目的在于提供了一种大数据金融安防系统行人行为分析方法、系统及机器人,用以解决现有技术中的。
第一方面,本发明实施例提供了一种大数据金融安防系统行人行为分析方法,应用于云计算平台,所述方法包括:
接收行人进入预设区域的一段视频,其中所述一段视频包括多帧图像,图像中含有所述行人的图像信息,所述一段视频是在行人进入预设区域的时间拍摄的;
在所述一段视频中的第一帧图像中选中目标行人,所述第一帧图像为所述一段视频中拍摄时间最先的图像;
采用卡尔曼滤波在所述多帧图像中跟踪所述目标行人;在每帧图像中获得其他目标与所述目标行人之间的距离,所述其他目标是所述图像中含有的区别于所述目标行人的人或者动物;
在每帧图像中获得所述目标行人的人体姿态信息和所述其他目标的姿态信息;
针对每帧图像,基于所述距离和所述其他目标的姿态信息调整所述目标行人的人体姿态信息,得到所述目标行人调整后的人体姿态信息;
根据所述调整后的人体姿态信息预测所述目标行为的行为类别。
可选的,人体姿态信息包括人体骨架图;所述在每帧图像中获得所述目标行人的人体姿态信息,包括:
在每帧图像中检测出人体关键点,人体关键点包括两个胯部点位、一个尾椎点位、两个肩部点位、一个颈部点位、一个头部点位、两个手肘点位、两个手腕点位、两个膝盖点位、两个脚踝点位;
通过线段对一个脚踝点位、一个膝盖点位、一个胯部点位、尾椎点位、另一个胯部点位、另一个膝盖点位、另一个脚踝点位按照顺序进行连线,对尾椎点位、颈部点位、头部点位按照顺序进行连线,对一个手腕点位、一个手肘点位、颈部点位、另一个手腕点位、另一个手肘点位按顺序进行连线,得到人体骨架图;
所述其他目标的姿态信息包括骨架图,所述在每帧图像中获得所述其他目标的姿态信息,包括:
若所述其他目标是人,则所述在每帧图像中获得所述其他目标的姿态信息与所述在每帧图像中获得所述目标行人的人体姿态信息相同,得到的是所述其他目标的人体骨架图,所述其他目标的人体骨架图包含其他目标关键点,所述其他目标关键点包括两个胯部点位、一个尾椎点位、两个肩部点位、一个颈部点位、一个头部点位、两个手肘点位、两个手腕点位、两个膝盖点位、两个脚踝点位;
若所述其他目标是动物,则所述在每帧图像中获得所述其他目标的姿态信息包括:
在每帧图像中检测出动物关键点,动物关键点包括两个后腿踝关节点位、两个后腿膝盖点位、一个尾椎点位、一个脊背中间点位、一个头部点位、两个前腿踝关节点位、两个前腿膝盖点位;并按照一个后腿踝关节点位、一个后腿膝盖点位、尾椎点位、另一个后腿膝盖点位、另一个后腿踝关节点位的顺序进行连线,然后按照一个尾椎点位、一个脊背中间点位、一个头部点位的顺序进行连线;再按照一个、一个前腿膝盖点位、脊背中间点位、另一个前腿踝关节点位、另一个前腿膝盖点位的顺序进行连线,得到动物骨架图。
可选的,若所述其他目标是人,所述其他目标关键点包括的两个胯部点位、一个尾椎点位、两个肩部点位、一个颈部点位、一个头部点位、两个手肘点位、两个手腕点位、两个膝盖点位、两个脚踝点位与所述人体关键点包括的两个胯部点位、一个尾椎点位、两个肩部点位、一个颈部点位、一个头部点位、两个手肘点位、两个手腕点位、两个膝盖点位、两个脚踝点位分别一一对应;
所述基于所述距离和所述其他目标的姿态信息调整所述目标行人的人体姿态信息,得到所述目标行人调整后的人体姿态信息,包括:
对所述其他目标的人体骨架图中的其他目标关键点进行打分;
获得所述打分与所述其他目标到所述目标行人之间的距离的比值;
将与所述其他目标关键点对应的所述人体关键点的坐标加上所述比值,得到调整后的人体关键点;
对调整后的人体关键点进行连线,得到调整后的人体骨架图。
可选的,对所述其他目标的人体骨架图中的其他目标关键点进行打分,包括:
获得所述其他目标关键点到所述人体关键点的X轴方向的距离和Y轴方向的距离,其中,X轴和Y轴分别表示图像坐标中的横轴和纵轴;
若Y轴方向的距离大于预设值,确定所述其他目标关键点的打分的计算方式为:q=y/(x+y),其中,y表示其他目标关键点与所述人体关键点在Y轴方向的距离,x表示其他目标关键点与所述人体关键点在X轴方向的距离;q表示所述打分;
若Y轴方向的距离小于或者等于预设值,确定所述其他目标关键点的打分的计算方式为:q=x/(x+y)。
可选的,若所述其他目标是动物,其他目标关键点是动物关键点,动物关键点包括的两个后腿踝关节点位、两个后腿膝盖点位、一个尾椎点位、一个脊背中间点位、一个头部点位、两个前腿踝关节点位、两个前腿膝盖点位与所述人体关键点包括的两个脚踝点位、两个膝盖点位、一个尾椎点位、两个肩部点位、一个颈部点位、一个头部点位、两个手腕点位、两个手肘点位分别一一对应;
基于所述距离和所述其他目标的姿态信息调整所述目标行人的人体姿态信息,得到所述目标行人调整后的人体姿态信息,包括:
对所述动物骨架图中的动物关键点进行打分;
获得所述打分与所述其他目标到所述目标行人之间的距离的比值;
将与所述动物关键点对应的所述人体关键点的坐标加上所述比值,得到累加人体关键点;
将所述累加人体关键点的坐标乘以害怕系数,得到调整后的人体关键点;其中,所述害怕系数表征目标行人对所述动物的害怕程度;
对调整后的人体关键点进行连线,得到调整后的人体骨架图。
可选的,对所述动物骨架图中的动物关键点进行打分,包括:
获得所述动物关键点到所述人体关键点的X轴方向的距离和Y轴方向的距离,其中,X轴和Y轴分别表示图像坐标中的横轴和纵轴;
若X轴方向的距离大于阈值,确定所述动物关键点的打分的计算方式为:q=g*y/(x+y),其中,y表示其他目标关键点与所述人体关键点在Y轴方向的距离,x表示动物关键点与所述人体关键点在X轴方向的距离;g表示所述害怕系数;
若X轴方向的距离小于或者等于预设值,确定所述动物关键点的打分的计算方式为:q=x/(x+y)。
可选的,所述调整后的人体姿态信息包括步长、步频和人体姿态数据;所述根据所述调整后的人体姿态信息预测所述目标行为的行为类别,包括:
根据一段视频中的图像的调整后的人体姿态信息,获得目标行人在一段视频中的每张图像中的步长、目标行人在一段视频中的每两张相邻的图像之间的步频、目标行人在一段视频中的每张图像中的人体姿态数据;其中,步长指的是目标行人两只脚板的距离,步频指的是目标行人在两张相邻的图像中踏步的频率;人体姿态数据表征目标行人在图像中的姿势;
将目标行人在一段视频中的步长按照所述步长所在图像的拍摄时间的先后顺序,构成步长流;将目标行人在一段视频中的人体姿态数据按照所述人体姿态所在图像的拍摄时间的先后顺序,构成体态流;将目标行人在一段视频中的步频按照所述步频发生时间的先后顺序,构成步频流;
将步长流、体态流、步频流输入行为分析网络,行为分析网络包括多层分析层,行为分析网络包括的多层分析层的数量比所述一段视频中的图像的数量多1;
行为分析网络中的每层分析层包括3个分析节点,3个分析节点包括第一分析节点、第二分析节点、第三分析节点;
第n层分析层的第一分析节点根据第n帧图像的步长、第n帧图像的人体姿态数据、第n帧图像的表情信息、第n帧图像与第n+1帧图像之间的步频以及第n-1层分析层的第二分析节点的输出调整步长,得到第n帧图像的调整后的步长;其中,n为小于N+1的正整数,N+1表示行为分析网络中的分析层的层数;第n帧图像为所一端视频中拍摄时间排序为第n的图像;N表示一段视频中的图像的数量;
第n层分析层的第二分析节点根据第n帧图像的步长、第n帧图像的人体姿态数据、第n帧图像的表情信息、第n帧图像与第n+1帧图像之间的步频以及第n-1层分析层的第三分析节点的输出调整人体姿态数据,得到第n帧图像的调整后的人体姿态数据;
第n层分析层的第三分析节点根据第n帧图像的步长、第n帧图像的人体姿态数据、第n帧图像的表情信息、第n帧图像与第n+1帧图像之间的步频以及第n-1层分析层的第四分析节点的输出调整步频,得到第n帧图像与第n+1帧图像之间的调整后的步频;
行为分析网络中,第N+1层分析层对第N层分析层的输出的调整后的步长、调整后的人体姿态数据、调整后的步频进行融合计算,得到目标行人行为值,目标行人行为值表征目标行为的行为类别。
可选的,在所述根据所述调整后的人体姿态信息预测所述目标行为的行为类别之后,所述方法还包括:
从大数据库中获得与所述行为类别对应的目标行人需要办理的事项;所述目标行人需要办理的事项预先存储在大数据库中;
和\或,发出与所述行为类别对应的警报和\或行动指示,所述行动指示用于指示管理人员针对所述目标行人采取规范行动。
第二方面,本发明实施例提供了一种大数据金融安防系统行人行为分析系统,应用于云计算平台,所述系统包括:
接收模块,用于接收行人进入预设区域的一段视频,其中所述一段视频包括多帧图像,图像中含有所述行人的图像信息,所述一段视频是在行人进入预设区域的时间拍摄的;
选中模块,用于在所述一段视频中的第一帧图像中选中目标行人,所述第一帧图像为所述一段视频中拍摄时间最先的图像;
跟踪模块,用于采用卡尔曼滤波在所述多帧图像中跟踪所述目标行人;在每帧图像中获得其他目标与所述目标行人之间的距离,所述其他目标是所述图像中含有的区别于所述目标行人的人或者动物;
获得模块,用于在每帧图像中获得所述目标行人的人体姿态信息和所述其他目标的姿态信息;
调整模块,用于针对每帧图像,基于所述距离和所述其他目标的姿态信息调整所述目标行人的人体姿态信息,得到所述目标行人调整后的人体姿态信息;
分析模块,用于根据所述调整后的人体姿态信息预测所述目标行为的行为类别。
第二方面,本发明实施例提供了一种机器人,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述任一项所述方法的步骤。
相对现有技术,本发明达到了以下有益效果:
本发明实施例提供了一种大数据金融安防系统行人行为分析方法、系统及机器人,所述方法包括:接收行人进入预设区域的一段视频,其中所述一段视频包括多帧图像,图像中含有所述行人的图像信息,所述一段视频是在行人进入预设区域的时间拍摄的;在所述一段视频中的第一帧图像中选中目标行人,所述第一帧图像为所述一段视频中拍摄时间最先的图像;采用卡尔曼滤波在所述多帧图像中跟踪所述目标行人;在每帧图像中获得其他目标与所述目标行人之间的距离,所述其他目标是所述图像中含有的区别于所述目标行人的人或者动物;在每帧图像中获得所述目标行人的人体姿态信息和所述其他目标的姿态信息;针对每帧图像,基于所述距离和所述其他目标的姿态信息调整所述目标行人的人体姿态信息,得到所述目标行人调整后的人体姿态信息;根据所述调整后的人体姿态信息预测所述目标行为的行为类别。通过采用以上方案,考虑了目标行人周围的人或者动物对目标行为的下一步行为的影响,提高了行为分析的准确性,同时,根据一段视频中所有图像的调整后的人体姿态信息预测所述目标行为的行为类别,不需要大量的训练,直接根据目标行人在短时间内的行为情况预测目标行人的行为,计算量少,准确性高。
附图说明
图1是本发明实施例提供的一种大数据金融安防系统行人行为分析方法流程图。
图2是本发明实施例提供的一种行为分析网络的结构示意图。
图3是本发明实施例提供的一种大数据金融安防系统行人行为分析系统200的方框结构示意图。
图4是本发明实施例提供的一种机器人的方框结构示意图。
图中标记:大数据金融安防系统行人行为分析系统100;接收模块210;选中模块220;跟踪模块230;获得模块240;调整模块250;分析模块260;总线500;接收器501;处理器502;发送器503;存储器504;总线接口505。
具体实施方式
下面结合附图,对本发明作详细的说明。
一个人在群体中,其感受会收到人群中的其他人或者动物状况的影响,进而影响其行为,即一个人的行为会受到其周围人或者动物的行为的影响,因此,基于周围人或许和动物对目标行人的行为进行分析预测,得到的分析预测准确性高。
实施例
本发明实施例提供了一种大数据金融安防系统行人行为分析方法,应用于云计算平台,如图1所示,所述方法包括:
S101:接收行人进入预设区域的一段视频,其中所述一段视频包括多帧图像。
其中,图像中含有所述行人的图像信息,所述一段视频是在行人进入预设区域的时间拍摄的。即可以在预设区域内设置摄像装置,例如摄像头,一旦目标行人进入该预设区域,就对拍目标行人进行拍摄,将拍摄了一段时间(一段时间可以是一分钟)获得的一段视频发送至云计算平台。
S102:在所述一段视频中的第一帧图像中选中目标行人。目标行人可以是系统显示出第一帧图像,由用户(管理者)手动选中的,也可以是系统自动选中行为出现异常的行人作为目标行人。
其中,所述第一帧图像为所述一段视频中拍摄时间最先的图像。
S103:采用卡尔曼滤波在所述多帧图像中跟踪所述目标行人;在每帧图像中获得其他目标与所述目标行人之间的距离。
其中,所述其他目标是所述图像中含有的区别于所述目标行人的人或者动物。
S104:在每帧图像中获得所述目标行人的人体姿态信息和所述其他目标的姿态信息。
S105:针对每帧图像,基于所述距离和所述其他目标的姿态信息调整所述目标行人的人体姿态信息,得到所述目标行人调整后的人体姿态信息。
S106:根据一段视频中所有图像的调整后的人体姿态信息预测所述目标行为的行为类别。
通过采用以上方案,考虑了目标行人周围的人或者动物对目标行为的下一步行为的影响,提高了行为分析的准确性,同时,根据一段视频中所有图像的调整后的人体姿态信息预测所述目标行为的行为类别,不需要大量的训练,直接根据目标行人在短时间内的行为情况预测目标行人的行为,计算量少,准确性高。
其中,预设区域可以是银行大厅、政府部门的大厅、地铁、火车站等场所。预先准确预测出目标行人的行为(需要办理的事项),一方面提高了银行服务、市政服务等服务的服务效果和服务的效率,提高银行运营、市政工作的有效性和效率,另一方面还可以及时根据预测的行为(需要办理的事项),防止安全性问题的发生,提高银行大厅、政府部门的大厅、地铁、火车站等场所的安防效果,保证目标行人的安全。
可选的,人体姿态信息包括人体骨架图;所述在每帧图像中获得所述目标行人的人体姿态信息,包括:在每帧图像中检测出人体关键点,人体关键点包括两个胯部点位、一个尾椎点位、两个肩部点位、一个颈部点位、一个头部点位、两个手肘点位、两个手腕点位、两个膝盖点位、两个脚踝点位;通过线段对一个脚踝点位、一个膝盖点位、一个胯部点位、尾椎点位、另一个胯部点位、另一个膝盖点位、另一个脚踝点位按照顺序进行连线,对尾椎点位、颈部点位、头部点位按照顺序进行连线,对一个手腕点位、一个手肘点位、颈部点位、另一个手腕点位、另一个手肘点位按顺序进行连线,得到人体骨架图;所述其他目标的姿态信息包括骨架图,所述在每帧图像中获得所述其他目标的姿态信息,包括:若所述其他目标是人,则所述在每帧图像中获得所述其他目标的姿态信息与所述在每帧图像中获得所述目标行人的人体姿态信息相同,得到的是所述其他目标的人体骨架图,所述其他目标的人体骨架图包含其他目标关键点,所述其他目标关键点包括两个胯部点位、一个尾椎点位、两个肩部点位、一个颈部点位、一个头部点位、两个手肘点位、两个手腕点位、两个膝盖点位、两个脚踝点位。
其中,在每帧图像中检测出人体关键点的具体方式可以是采用图形结构的关键点检测方法(Pictorial Structure)检测得到人体关键点。
若所述其他目标是动物,则所述在每帧图像中获得所述其他目标的姿态信息包括:
在每帧图像中检测出动物关键点,动物关键点包括两个后腿踝关节点位、两个后腿膝盖点位、一个尾椎点位、一个脊背中间点位、一个头部点位、两个前腿踝关节点位、两个前腿膝盖点位;并按照一个后腿踝关节点位、一个后腿膝盖点位、尾椎点位、另一个后腿膝盖点位、另一个后腿踝关节点位的顺序进行连线,然后按照一个尾椎点位、一个脊背中间点位、一个头部点位的顺序进行连线;再按照一个、一个前腿膝盖点位、脊背中间点位、另一个前腿踝关节点位、另一个前腿膝盖点位的顺序进行连线,得到动物骨架图。其中,在每帧图像中检测出动物关键点的具体方式可以是采用图形结构的关键点检测方法(PictorialStructure)检测得到动物关键点。
可选的,若所述其他目标是人,所述其他目标关键点包括的两个胯部点位、一个尾椎点位、两个肩部点位、一个颈部点位、一个头部点位、两个手肘点位、两个手腕点位、两个膝盖点位、两个脚踝点位与所述人体关键点包括的两个胯部点位、一个尾椎点位、两个肩部点位、一个颈部点位、一个头部点位、两个手肘点位、两个手腕点位、两个膝盖点位、两个脚踝点位分别一一对应。例如,左边的肩膀的肩部点位对应其他目标的左边肩膀的肩部点位,右边肩膀的肩部点位对应其他目标的右边肩膀的肩部点位,等等,依次类推。
可选的,所述基于所述距离和所述其他目标的姿态信息调整所述目标行人的人体姿态信息,得到所述目标行人调整后的人体姿态信息,包括:对所述其他目标的人体骨架图中的其他目标关键点进行打分;获得所述打分与所述其他目标到所述目标行人之间的距离的比值;将与所述其他目标关键点对应的所述人体关键点的坐标加上所述比值,得到调整后的人体关键点;对调整后的人体关键点进行连线,得到调整后的人体骨架图。
如此,对目标行人的人体骨架图进行调整,提高了由于摄像装置的原因带来的目标行人的人体骨架图检测的不准确的问题,提高了目标行人的人体骨架图的准确性,进而提高了基于目标行人的人体骨架图分析目标行人的行为的准确性。
可选的,对所述其他目标的人体骨架图中的其他目标关键点进行打分,具体的可以是:获得所述其他目标关键点到所述人体关键点的X轴方向的距离和Y轴方向的距离,其中,X轴和Y轴分别表示图像坐标中的横轴和纵轴;若Y轴方向的距离大于预设值,确定所述其他目标关键点的打分的计算方式为:q=y/(x+y),其中,y表示其他目标关键点与所述人体关键点在Y轴方向的距离,x表示其他目标关键点与所述人体关键点在X轴方向的距离,q表示所述打分;若Y轴方向的距离小于或者等于预设值,确定所述其他目标关键点的打分的计算方式为:q=x/(x+y)。其中,预设值的取值可以是2米,3米,4米等。
可选的,若所述其他目标是动物,其他目标关键点是动物关键点,动物关键点包括的两个后腿踝关节点位、两个后腿膝盖点位、一个尾椎点位、一个脊背中间点位、一个头部点位、两个前腿踝关节点位、两个前腿膝盖点位与所述人体关键点包括的两个脚踝点位、两个膝盖点位、一个尾椎点位、两个肩部点位、一个颈部点位、一个头部点位、两个手腕点位、两个手肘点位分别一一对应。
可选的,基于所述距离和所述其他目标的姿态信息调整所述目标行人的人体姿态信息,得到所述目标行人调整后的人体姿态信息,包括:对所述动物骨架图中的动物关键点进行打分;获得所述打分与所述其他目标到所述目标行人之间的距离的比值;将与所述动物关键点对应的所述人体关键点的坐标加上所述比值,得到累加人体关键点;将所述累加人体关键点的坐标乘以害怕系数,得到调整后的人体关键点;其中,所述害怕系数表征目标行人对所述动物的害怕程度;对调整后的人体关键点进行连线,得到调整后的人体骨架图。
其中,对所述动物骨架图中的动物关键点进行打分,具体为:获得所述动物关键点到所述人体关键点的X轴方向的距离和Y轴方向的距离,其中,X轴和Y轴分别表示图像坐标中的横轴和纵轴;若X轴方向的距离大于阈值,确定所述动物关键点的打分的计算方式为:q=g*y/(x+y),其中,y表示其他目标关键点与所述人体关键点在Y轴方向的距离,x表示动物关键点与所述人体关键点在X轴方向的距离;g表示所述害怕系数;若X轴方向的距离小于或者等于预设值,确定所述动物关键点的打分的计算方式为:q=x/(x+y)。阈值的取值可以是5米,6米,7米等。在本发明实施例中,阈值的取值大于预设值的取值。害怕系数的取值为0.1、1、2、3,其中,g=0.1表示不害怕,g=1表示轻度害怕,g=2表示中度害怕,g=3表示极度害怕。
如此,直接根据位置坐标作为打分的计算基准,提高了打分表征其他目标对目标行人的影响的准确性。
可选的,所述调整后的人体姿态信息包括步长、步频和人体姿态数据,所述根据所述调整后的人体姿态信息预测所述目标行为的行为类别,包括:
根据一段视频中的图像的调整后的人体姿态信息,获得目标行人在一段视频中的每张图像中的步长、目标行人在一段视频中的每两张相邻的图像之间的步频、目标行人在一段视频中的每张图像中的人体姿态数据;其中,步长指的是目标行人两只脚板的距离,步频指的是目标行人在两张相邻的图像中踏步的频率;人体姿态数据表征目标行人在图像中的姿势;
将目标行人在一段视频中的步长按照所述步长所在图像的拍摄时间的先后顺序,构成步长流;将目标行人在一段视频中的人体姿态数据按照所述人体姿态所在图像的拍摄时间的先后顺序,构成体态流;将目标行人在一段视频中的步频按照所述步频发生时间的先后顺序,构成步频流。例如,拍摄的一段视频中包括3张图像,按照拍摄时间由早到晚排序,3张图像分别是第1帧图像、第2帧图像、第3帧图像。那么步长流为:第1帧图像的步长、第2帧图像的步长、第3帧图像的步长,体态流为:第1帧图像的人体姿态数据、第2帧图像的人体姿态数据、第3帧图像的人体姿态数据,步频流为:第1帧图像的步频、第2帧图像的步频、第3帧图像的步频。
然后,将步长流、体态流、步频流输入行为分析网络,行为分析网络包括多层分析层,行为分析网络包括的多层分析层的数量比所述一段视频中的图像的数量多1;
行为分析网络中的每层分析层包括3个分析节点,3个分析节点包括第一分析节点、第二分析节点、第三分析节点;
第n层分析层的第一分析节点根据第n帧图像的步长、第n帧图像的人体姿态数据、第n帧图像的表情信息、第n帧图像与第n+1帧图像之间的步频以及第n-1层分析层的第二分析节点的输出调整步长,得到第n帧图像的调整后的步长;其中,n为小于N+1的正整数,N+1表示行为分析网络中的分析层的层数;第n帧图像为所一端视频中拍摄时间排序为第n的图像;N表示一段视频中的图像的数量;
第n层分析层的第二分析节点根据第n帧图像的步长、第n帧图像的人体姿态数据、第n帧图像的表情信息、第n帧图像与第n+1帧图像之间的步频以及第n-1层分析层的第三分析节点的输出调整人体姿态数据,得到第n帧图像的调整后的人体姿态数据;
第n层分析层的第三分析节点根据第n帧图像的步长、第n帧图像的人体姿态数据、第n帧图像的表情信息、第n帧图像与第n+1帧图像之间的步频以及第n-1层分析层的第四分析节点的输出调整步频,得到第n帧图像与第n+1帧图像之间的调整后的步频;
行为分析网络中,第N+1层分析层对第N层分析层的输出的调整后的步长、调整后的人体姿态数据、调整后的步频进行融合计算,得到目标行人行为值,目标行人行为值表征目标行为的行为类别。
可选的,所述第n层分析层的第一分析节点根据第n帧图像的步长、第n帧图像的人体姿态数据、第n帧图像的表情信息、第n帧图像与第n+1帧图像之间的步频以及第n-1层分析层的第一分析节点的输出调整步长,得到第n帧图像的调整后的步长,包括:
第n层分析层第一分析节点按照公式:
a1=(0.5*a0+0.05*b+0.1*c)a/a0对第n帧图像的步长进行调整,获得第n帧图像的调整后的步长;其中,a1表示第n帧图像的调整后的步长;a0表示第n-1帧图像的调整后的步长,即第n-1层分析层的第一分析节点的输出为第n-1帧图像的调整后的步长;对于n=1时,第n-1帧图像的调整后的步长为0。其中,a表示第n帧图像的步长、b表示第n帧图像的人体姿态数据的指数;c表示第n帧图像与第n+1帧图像之间的步频,其中,第n帧图像的人体姿态数据的指数由第n帧图像的人体姿态数据(人体骨架图)的二进制编码转换得到的十进制数字。
可选的,可以根据人体骨架图中每个人体关键点的打分,然后综合每个人体关键点的打分得到人体姿态数据的指数,也可以直接以人体骨架图作为人体姿态信息,然后将人体骨架图二进制编码转换得到的十进制数字,以该十进制数字作为人体姿态数据的指数。如此,得到的人体姿态数据的指数可以准确表征目标行人的体态。
可以根据人体骨架图中每个人体关键点的打分,然后综合每个人体关键点的打分得到人体姿态数据的指数具体可以是:计算每个人体关键点的打分,以人体关键点的打分作为人体姿态数据。其中,计算每个人体关键点的打分的具体方式为:针对其中一个人体关键点,获得其余的人体关键点与该人体关键点的距离,以及获得其余的人体关键点与该人体关键点的连线与该关键点的法线之间的夹角的余弦值,该人体关键点的法线是该关键点指向尾椎点位的射线,如果人体关键点是尾椎点位,那么尾椎点位的法线是尾椎点位指向颈部点位的射线。以余弦值作为权值对其余的人体关键点与该人体关键点的距离进行加权求和,得到该人体关键点的打分。例如,人体骨架图包括3个人体关键点,获得其余两个人体关键点与针对的人体关键点的距离分别是2和3,其余两个人体关键点与该人体关键点的连线与该关键点的法线之间的夹角的余弦值分别是0.5、0.1,那么该人体关键点的打分h=2*0.5+3*0.1=1.3。
可选的,所述第n层分析层的第二分析节点根据第n帧图像的步长、第n帧图像的人体姿态数据、第n帧图像的表情信息、第n帧图像与第n+1帧图像之间的步频以及第n-1层分析层的第二分析节点的输出调整人体姿态数据,得到第n帧图像的调整后的人体姿态数据,包括:
所述第n层分析层的第二分析节点按照公式:
b1=(0.06*a+0.5*b0+0.05*c)b/b0对人体姿态数据进行调整,获得调整后的人体姿态数据的指数,其中,b1表示调整后的人体姿态数据的指数;b0表示第n-1帧图像的调整后的人体姿态数据的指数,即第n-1层分析层的第二分析节点的输出为第n-1帧图像的调整后的人体姿态数据的指数;对于n=1时,第n-1帧图像的调整后的人体姿态数据的指数为0。
可选的,所述第n层分析层的第三分析节点根据第n帧图像的步长、第n帧图像的人体姿态数据、第n帧图像的表情信息、第n帧图像与第n+1帧图像之间的步频以及第n-1层分析层的第三分析节点的输出调整步频,得到第n帧图像与第n+1帧图像之间的调整后的步频,包括:
所述第n层分析层的第四分析节点按照公式:
c1=(0.1*a+0.01*b+0.5*c0)c/c0对步频进行调整,获得调整后的步频,其中,c1表示第n帧图像的调整后的步频;c0表示第n-1帧图像的调整后的步频,即第n-1层分析层的第四分析节点的输出为第n-1帧图像的调整后的步频;对于n=1时,第n-1帧图像的调整后的步频为0。
可选的,第N+1层分析层对第N层分析层的输出的调整后的步长、调整后的人体姿态数据、调整后的步频进行融合计算,得到目标行人行为值,目标行人行为值表征目标行人需要办理的事项,包括:
第N+1层分析层按照公式f=0.2*aN+0.5*bN+0.3*cN计算得到目标行人行为值,其中,f表示目标行人行为值,aN表示行为分析网络的第N层分析层的第一个分析节点的输出,bN表示行为分析网络的第N层分析层的第二个分析节点的输出,cN表示行为分析网络的第N层分析层的第三个分析节点的输出。
请结参阅图2所示的一种行为分析网络的结构示意图,示意图中,行为分析网络包括四层分析层。步长流、体态流、步频流中的步长、人体姿态数据、步频分别输入第一层分析层、第二层分析层、第三层分析层中的第一分析节点、第二分析节点、第三分析节点,第四层分析层按照公式f=0.2*a3+0.5*b3+0.3*c3计算得到用户行为值,其中,f表示用户行为值,a3表示行为分析网络的第三层分析层的第一个分析节点的输出,b3表示行为分析网络的第三层分析层的第二个分析节点的输出,c3表示行为分析网络的第三层分析层的第三个分析节点的输出。用户行为值表征用户行为分类,与用户行为分类有一一对应的关系。图2中,F1表示步长流、F2表示体态流、F3表示步频流。
如此,行为分析网络综合考虑了时间在前的步长、步频、人体姿态数据和表情信息对时间在后的用户的步长、步频、人体姿态数据的影响,同时还考虑到了同一时间内步长、步频、人体姿态数据之间的相互影响,通过行为分析网络基于用户的步长、步频、人体姿态数据对用户的行为进行分析,提高了用户行为分析的准确性,最后输出的户行为值能够准确表征用户需要办理的事项,如此可以准确预测出用户下一步的意图,即需要办理的事项,可以对该用户的行为进行预先的准备应付或者服务事项,一方面提高了银行服务、市政服务等服务的服务效果和服务的效率,提高银行运营、市政工作的有效性和效率,另一方面还可以及时根据预测的行为(需要办理的事项),防止安全性问题的发生,提高银行大厅、政府部门的大厅、地铁、火车站等场所的安防效果,保证用户的安全。
可选的,在所述根据所述调整后的人体姿态信息预测所述目标行为的行为类别之后,所述方法还包括:从大数据库中获得与所述行为类别对应的目标行人需要办理的事项;所述目标行人需要办理的事项预先存储在大数据库中;和\或,发出与所述行为类别对应的警报和\或行动指示,所述行动指示用于指示管理人员针对所述目标行人采取规范行动。如此能够及时告知管理人员对该目标用户进行管控或者服务,提高管控、服务效率。
需要说明的是,本发明实施例提供的大数据金融安防系统行人行为分析方法可以用于行人运动检测检测,还可以用于识别病人、腹中的胎儿的运动情况等,可以广泛应用于安防、医疗、驾驶、化妆、直播、教育、农业、军事、铁路、公路、公共交通等领域中。其可以在人工智能领域起到举足轻重的作用,即本申请提供的大数据金融安防系统行人行为分析方法可以广泛应用在人工智能领域中。本申请提供的金融机构安防系统的用户行为分析方法其实也是一种数据处理方法。
针对上述实施例提供一种大数据金融安防系统行人行为分析方法,本申请实施例还对应提供一种用于执行上述的步骤的执行主体,该执行主体可以为图3中的大数据金融安防系统行人行为分析系统200。大数据金融安防系统行人行为分析系统200配置在云计算平台中,请参考图3,该系统包括:
接收模块210,用于接收行人进入预设区域的一段视频,其中所述一段视频包括多帧图像,图像中含有所述行人的图像信息,所述一段视频是在行人进入预设区域的时间拍摄的;
选中模块220,用于在所述一段视频中的第一帧图像中选中目标行人,所述第一帧图像为所述一段视频中拍摄时间最先的图像;
跟踪模块230,用于采用卡尔曼滤波在所述多帧图像中跟踪所述目标行人;在每帧图像中获得其他目标与所述目标行人之间的距离,所述其他目标是所述图像中含有的区别于所述目标行人的人或者动物;
获得模块240,用于在每帧图像中获得所述目标行人的人体姿态信息和所述其他目标的姿态信息;
调整模块250,用于针对每帧图像,基于所述距离和所述其他目标的姿态信息调整所述目标行人的人体姿态信息,得到所述目标行人调整后的人体姿态信息;
分析模块260,用于根据所述调整后的人体姿态信息预测所述目标行为的行为类别。
关于上述实施例中的系统,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本发明实施例还提供了一种机器人,如图4所示,包括存储器504、处理器502及存储在存储器504上并可在处理器502上运行的计算机程序,所述处理器502执行所述程序时实现前文所述大数据金融安防系统行人行为分析方法的任一方法的步骤。
其中,在图4中,总线架构(用总线500来代表),总线500可以包括任意数量的互联的总线和桥,总线500将包括由处理器502代表的一个或多个处理器和存储器504代表的存储器的各种电路链接在一起。总线500还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路链接在一起,这些都是本领域所公知的,因此,本文不再对其进进一步描述。总线接口505在总线500和接收器501和发送器503之间提供接口。接收器501和发送器503可以是同一个元件,即收发机,提供用于在传输介质上与各种其他装置通信的单元。处理器502负责管理总线500和通常的处理,而存储器504可以被用于存储处理器502在执行操作时所使用的数据。
可选的,所述机器人还包括通讯模块、摄像模块;
摄像模块与所述存储器、处理器和通讯模块连接;所述处理器与所述通讯模块连接。所述摄像模块用于采集接收目标行人进入预设区域的一段视频,将所述一段视频发送至所述存储器和\或所述处理器和\或所述通讯模块。所述通讯模块用于将所述人脸图像发送至云计算终端;所述通讯模块还用于从云计算终端获得存储在大数据库中的一段视频或者行动指示,并发送给所述处理器。
大数据库可以是存储器中的数据库,也可以是设置在云计算平台的数据库。
大数据金融安防系统行人行为分析应用于人工智能领域,即通过该机器人执行上述的大数据金融安防系统行人行为分析方法,从而进步一为目标行人提供对应的服务。
在本发明实施例中,大数据金融安防系统行人行为分析系统安装在机器人中,具体的可以软件功能模块的形式存储在存储器中并可以被处理器处理运行。作为一个实施例,目标行人(目标行人)走进金融机构或者公共场所的大厅、区域,则机器启动摄像装置中的摄像头拍摄采集目标行人一段视频,然后将所述一段视频发送至所述存储器和\或所述处理器和\或所述通讯模块。所述通讯模块用于将所述人脸图像发送至云计算平台;所述通讯模块还用于从云计算平台获得存储在大数据库中的目标行人流程指引,并发送给所述处理器,然后机器人启动上述的金融机构安防系统的目标行人行为分析系统执行上述的大数据金融安防系统行人行为分析方法、从而分析出目标行人行为分析。
在此提供的算法和显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的装置中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
Claims (9)
1.一种大数据金融安防系统行人行为分析方法,应用于云计算平台,其特征在于,所述方法包括:
接收行人进入预设区域的一段视频,其中所述一段视频包括多帧图像,图像中含有所述行人的图像信息,所述一段视频是在行人进入预设区域的时间拍摄的;
在所述一段视频中的第一帧图像中选中目标行人,所述第一帧图像为所述一段视频中拍摄时间最先的图像;
采用卡尔曼滤波在所述多帧图像中跟踪所述目标行人;在每帧图像中获得其他目标与所述目标行人之间的距离,所述其他目标是所述图像中含有的区别于所述目标行人的人或者动物;
在每帧图像中获得所述目标行人的人体姿态信息和所述其他目标的姿态信息;
针对每帧图像,基于所述距离和所述其他目标的姿态信息调整所述目标行人的人体姿态信息,得到所述目标行人调整后的人体姿态信息;
根据所述调整后的人体姿态信息预测所述目标行为的行为类别;人体姿态信息包括人体骨架图;所述在每帧图像中获得所述目标行人的人体姿态信息,包括:
在每帧图像中检测出人体关键点,人体关键点包括两个胯部点位、一个尾椎点位、两个肩部点位、一个颈部点位、一个头部点位、两个手肘点位、两个手腕点位、两个膝盖点位、两个脚踝点位;
通过线段对一个脚踝点位、一个膝盖点位、一个胯部点位、尾椎点位、另一个胯部点位、另一个膝盖点位、另一个脚踝点位按照顺序进行连线,对尾椎点位、颈部点位、头部点位按照顺序进行连线,对一个手腕点位、一个手肘点位、颈部点位、另一个手腕点位、另一个手肘点位按顺序进行连线,得到人体骨架图;
所述其他目标的姿态信息包括骨架图,所述在每帧图像中获得所述其他目标的姿态信息,包括:
若所述其他目标是动物,则所述在每帧图像中获得所述其他目标的姿态信息包括:
在每帧图像中检测出动物关键点,动物关键点包括两个后腿踝关节点位、两个后腿膝盖点位、一个尾椎点位、一个脊背中间点位、一个头部点位、两个前腿踝关节点位、两个前腿膝盖点位;并按照一个后腿踝关节点位、一个后腿膝盖点位、尾椎点位、另一个后腿膝盖点位、另一个后腿踝关节点位的顺序进行连线,然后按照一个尾椎点位、一个脊背中间点位、一个头部点位的顺序进行连线;再按照一个、一个前腿膝盖点位、脊背中间点位、另一个前腿踝关节点位、另一个前腿膝盖点位的顺序进行连线,得到动物骨架图。
2.根据权利要求1所述的方法,其特征在于,若所述其他目标是人,所述其他目标关键点包括的两个胯部点位、一个尾椎点位、两个肩部点位、一个颈部点位、一个头部点位、两个手肘点位、两个手腕点位、两个膝盖点位、两个脚踝点位与所述人体关键点包括的两个胯部点位、一个尾椎点位、两个肩部点位、一个颈部点位、一个头部点位、两个手肘点位、两个手腕点位、两个膝盖点位、两个脚踝点位分别一一对应;
所述基于所述距离和所述其他目标的姿态信息调整所述目标行人的人体姿态信息,得到所述目标行人调整后的人体姿态信息,包括:
对所述其他目标的人体骨架图中的其他目标关键点进行打分;
获得所述打分与所述其他目标到所述目标行人之间的距离的比值;
将与所述其他目标关键点对应的所述人体关键点的坐标加上所述比值,得到调整后的人体关键点;
对调整后的人体关键点进行连线,得到调整后的人体骨架图。
3.根据权利要求2所述的方法,其特征在于,对所述其他目标的人体骨架图中的其他目标关键点进行打分,包括:
获得所述其他目标关键点到所述人体关键点的X轴方向的距离和Y轴方向的距离,其中,X轴和Y轴分别表示图像坐标中的横轴和纵轴;
若Y轴方向的距离大于预设值,确定所述其他目标关键点的打分的计算方式为:q=y/(x+y),其中,y表示其他目标关键点与所述人体关键点在Y轴方向的距离,x表示其他目标关键点与所述人体关键点在X轴方向的距离;q表示所述打分;
若Y轴方向的距离小于或者等于预设值,确定所述其他目标关键点的打分的计算方式为:q=x/( x+y)。
4.根据权利要求3所述的方法,其特征在于,若所述其他目标是动物,其他目标关键点是动物关键点,动物关键点包括的两个后腿踝关节点位、两个后腿膝盖点位、一个尾椎点位、一个脊背中间点位、一个头部点位、两个前腿踝关节点位、两个前腿膝盖点位与所述人体关键点包括的两个脚踝点位、两个膝盖点位、一个尾椎点位、两个肩部点位、一个颈部点位、一个头部点位、两个手腕点位、两个手肘点位分别一一对应;
基于所述距离和所述其他目标的姿态信息调整所述目标行人的人体姿态信息,得到所述目标行人调整后的人体姿态信息,包括:
对所述动物骨架图中的动物关键点进行打分;
获得所述打分与所述其他目标到所述目标行人之间的距离的比值;
将与所述动物关键点对应的所述人体关键点的坐标加上所述比值,得到累加人体关键点;
将所述累加人体关键点的坐标乘以害怕系数,得到调整后的人体关键点;其中,所述害怕系数表征目标行人对所述动物的害怕程度;
对调整后的人体关键点进行连线,得到调整后的人体骨架图。
5.根据权利要求4所述的方法,其特征在于,对所述动物骨架图中的动物关键点进行打分,包括:
获得所述动物关键点到所述人体关键点的X轴方向的距离和Y轴方向的距离,其中,X轴和Y轴分别表示图像坐标中的横轴和纵轴;
若X轴方向的距离大于阈值,确定所述动物关键点的打分的计算方式为:q=g*y/( x+y),其中,y表示其他目标关键点与所述人体关键点在Y轴方向的距离,x表示动物关键点与所述人体关键点在X轴方向的距离; g表示所述害怕系数;
若X轴方向的距离小于或者等于预设值,确定所述动物关键点的打分的计算方式为:q=x/( x+y)。
6.根据权利要求5所述的方法,其特征在于,所述调整后的人体姿态信息包括步长、步频和人体姿态数据;所述根据所述调整后的人体姿态信息预测所述目标行为的行为类别,包括:
根据一段视频中的图像的调整后的人体姿态信息,获得目标行人在一段视频中的每张图像中的步长、目标行人在一段视频中的每两张相邻的图像之间的步频、目标行人在一段视频中的每张图像中的人体姿态数据;其中,步长指的是目标行人两只脚板的距离,步频指的是目标行人在两张相邻的图像中踏步的频率;人体姿态数据表征目标行人在图像中的姿势;
将目标行人在一段视频中的步长按照所述步长所在图像的拍摄时间的先后顺序,构成步长流;将目标行人在一段视频中的人体姿态数据按照所述人体姿态所在图像的拍摄时间的先后顺序,构成体态流;将目标行人在一段视频中的步频按照所述步频发生时间的先后顺序,构成步频流;
将步长流、体态流、步频流输入行为分析网络,行为分析网络包括多层分析层,行为分析网络包括的多层分析层的数量比所述一段视频中的图像的数量多1;
行为分析网络中的每层分析层包括3个分析节点,3个分析节点包括第一分析节点、第二分析节点、第三分析节点;
第n层分析层的第一分析节点根据第n帧图像的步长、第n帧图像的人体姿态数据、第n帧图像的表情信息、第n帧图像与第n+1帧图像之间的步频以及第n-1层分析层的第二分析节点的输出调整步长,得到第n帧图像的调整后的步长;其中,n为小于N+1的正整数,N+1表示行为分析网络中的分析层的层数;第n帧图像为所一端视频中拍摄时间排序为第n的图像;N表示一段视频中的图像的数量;
第n层分析层的第二分析节点根据第n帧图像的步长、第n帧图像的人体姿态数据、第n帧图像的表情信息、第n帧图像与第n+1帧图像之间的步频以及第n-1层分析层的第三分析节点的输出调整人体姿态数据,得到第n帧图像的调整后的人体姿态数据;
第n层分析层的第三分析节点根据第n帧图像的步长、第n帧图像的人体姿态数据、第n帧图像的表情信息、第n帧图像与第n+1帧图像之间的步频以及第n-1层分析层的第四分析节点的输出调整步频,得到第n帧图像与第n+1帧图像之间的调整后的步频;
行为分析网络中,第N+1层分析层对第N层分析层的输出的调整后的步长、调整后的人体姿态数据、调整后的步频进行融合计算,得到目标行人行为值,目标行人行为值表征目标行为的行为类别。
7.根据权利要求1所述的方法,其特征在于,在所述根据所述调整后的人体姿态信息预测所述目标行为的行为类别之后,所述方法还包括:
从大数据库中获得与所述行为类别对应的目标行人需要办理的事项;所述目标行人需要办理的事项预先存储在大数据库中;
和\或,发出与所述行为类别对应的警报和\或行动指示,所述行动指示用于指示管理人员针对所述目标行人采取规范行动。
8.一种大数据金融安防系统行人行为分析系统,应用于云计算平台,其特征在于,所述系统包括:
接收模块,用于接收行人进入预设区域的一段视频,其中所述一段视频包括多帧图像,图像中含有所述行人的图像信息,所述一段视频是在行人进入预设区域的时间拍摄的;
选中模块,用于在所述一段视频中的第一帧图像中选中目标行人,所述第一帧图像为所述一段视频中拍摄时间最先的图像;
跟踪模块,用于采用卡尔曼滤波在所述多帧图像中跟踪所述目标行人;在每帧图像中获得其他目标与所述目标行人之间的距离,所述其他目标是所述图像中含有的区别于所述目标行人的人或者动物;
获得模块,用于在每帧图像中获得所述目标行人的人体姿态信息和所述其他目标的姿态信息;
调整模块,用于针对每帧图像,基于所述距离和所述其他目标的姿态信息调整所述目标行人的人体姿态信息,得到所述目标行人调整后的人体姿态信息;
分析模块,用于根据所述调整后的人体姿态信息预测所述目标行为的行为类别。
9.一种机器人,其特征在于,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现权利要求1-7任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110032162.3A CN112749658A (zh) | 2020-04-30 | 2020-04-30 | 大数据金融安防系统行人行为分析方法、系统及机器人 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110032162.3A CN112749658A (zh) | 2020-04-30 | 2020-04-30 | 大数据金融安防系统行人行为分析方法、系统及机器人 |
CN202010362579.1A CN111488858B (zh) | 2020-04-30 | 2020-04-30 | 云计算大数据金融安防系统行人行为分析方法及系统 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010362579.1A Division CN111488858B (zh) | 2020-04-30 | 2020-04-30 | 云计算大数据金融安防系统行人行为分析方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112749658A true CN112749658A (zh) | 2021-05-04 |
Family
ID=71793073
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110032162.3A Pending CN112749658A (zh) | 2020-04-30 | 2020-04-30 | 大数据金融安防系统行人行为分析方法、系统及机器人 |
CN202010362579.1A Active CN111488858B (zh) | 2020-04-30 | 2020-04-30 | 云计算大数据金融安防系统行人行为分析方法及系统 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010362579.1A Active CN111488858B (zh) | 2020-04-30 | 2020-04-30 | 云计算大数据金融安防系统行人行为分析方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (2) | CN112749658A (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112133051B (zh) * | 2020-11-24 | 2021-02-19 | 兰和科技(深圳)有限公司 | 一种基于大数据的行为预判监控系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190012531A1 (en) * | 2017-07-06 | 2019-01-10 | Wisconsin Alumni Research Foundation | Movement monitoring system |
CN109670474A (zh) * | 2018-12-28 | 2019-04-23 | 广东工业大学 | 一种基于视频的人体姿态估计方法、装置及设备 |
CN109977856A (zh) * | 2019-03-25 | 2019-07-05 | 中国科学技术大学 | 一种多源视频中复杂行为识别的方法 |
EP3531340A2 (en) * | 2018-07-02 | 2019-08-28 | Baidu Online Network Technology (Beijing) Co., Ltd. | Human body tracing method, apparatus and device, and storage medium |
CN110287923A (zh) * | 2019-06-29 | 2019-09-27 | 腾讯科技(深圳)有限公司 | 人体姿态获取方法、装置、计算机设备及存储介质 |
CN110674785A (zh) * | 2019-10-08 | 2020-01-10 | 中兴飞流信息科技有限公司 | 一种基于人体关键点跟踪的多人姿态分析方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102136066B (zh) * | 2011-04-29 | 2013-04-03 | 电子科技大学 | 一种视频序列中人体动作的识别方法 |
CN104156819B (zh) * | 2014-08-08 | 2017-08-25 | 中国矿业大学(北京) | 一种重要岗位不安全行为自动观察纠偏方法及装置 |
US10003926B2 (en) * | 2014-09-16 | 2018-06-19 | DataSpark, Pte., Ltd. | Predicting human movement behaviors using location services model |
CN108549835A (zh) * | 2018-03-08 | 2018-09-18 | 深圳市深网视界科技有限公司 | 人群计数及其模型构建的方法、终端设备及存储介质 |
CN108875712A (zh) * | 2018-08-01 | 2018-11-23 | 四川电科维云信息技术有限公司 | 一种基于ViF描述符的暴力行为检测系统及方法 |
CN109522793B (zh) * | 2018-10-10 | 2021-07-23 | 华南理工大学 | 基于机器视觉的多人异常行为检测与识别方法 |
CN110008867B (zh) * | 2019-03-25 | 2023-04-18 | 五邑大学 | 一种基于人物异常行为的预警方法、装置及存储介质 |
CN110188599A (zh) * | 2019-04-12 | 2019-08-30 | 哈工大机器人义乌人工智能研究院 | 一种人体姿态行为智能分析识别方法 |
CN110110613B (zh) * | 2019-04-19 | 2020-04-14 | 北京航空航天大学 | 一种基于动作识别的轨道交通异常人员检测方法 |
CN110532948B (zh) * | 2019-08-29 | 2023-05-30 | 南京泛在地理信息产业研究院有限公司 | 一种基于视频的高精度行人轨迹提取方法 |
CN110796472A (zh) * | 2019-09-02 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 信息推送方法、装置、计算机可读存储介质和计算机设备 |
CN110929638B (zh) * | 2019-11-20 | 2023-03-07 | 北京奇艺世纪科技有限公司 | 一种人体关键点识别方法、装置及电子设备 |
-
2020
- 2020-04-30 CN CN202110032162.3A patent/CN112749658A/zh active Pending
- 2020-04-30 CN CN202010362579.1A patent/CN111488858B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190012531A1 (en) * | 2017-07-06 | 2019-01-10 | Wisconsin Alumni Research Foundation | Movement monitoring system |
EP3531340A2 (en) * | 2018-07-02 | 2019-08-28 | Baidu Online Network Technology (Beijing) Co., Ltd. | Human body tracing method, apparatus and device, and storage medium |
CN109670474A (zh) * | 2018-12-28 | 2019-04-23 | 广东工业大学 | 一种基于视频的人体姿态估计方法、装置及设备 |
CN109977856A (zh) * | 2019-03-25 | 2019-07-05 | 中国科学技术大学 | 一种多源视频中复杂行为识别的方法 |
CN110287923A (zh) * | 2019-06-29 | 2019-09-27 | 腾讯科技(深圳)有限公司 | 人体姿态获取方法、装置、计算机设备及存储介质 |
CN110674785A (zh) * | 2019-10-08 | 2020-01-10 | 中兴飞流信息科技有限公司 | 一种基于人体关键点跟踪的多人姿态分析方法 |
Non-Patent Citations (2)
Title |
---|
VAN-HUNG LE 等: ""OpenPose’s Evaluation in The Video Traditional Martial Arts Presentation"", 《2019 19TH INTERNATIONAL SYMPOSIUM ON COMMUNICATIONS AND INFORMATION TECHNOLOGIES (ISCIT)》 * |
马淼: ""视频中人体姿态估计、跟踪与行为识别研究"", 《中国优秀博硕士学位论文全文数据库(博士)-信息科技辑》 * |
Also Published As
Publication number | Publication date |
---|---|
CN111488858B (zh) | 2021-07-06 |
CN111488858A (zh) | 2020-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111261301B (zh) | 一种大数据传染病防控方法及系统 | |
US11478169B2 (en) | Action recognition and pose estimation method and apparatus | |
CN109741309A (zh) | 一种基于深度回归网络的骨龄预测方法及装置 | |
CN111914636B (zh) | 一种检测行人是否佩戴安全帽的方法及装置 | |
CN111488853B (zh) | 金融机构安防系统的大数据人脸识别方法、系统及机器人 | |
CN112465855B (zh) | 客流统计方法、装置、存储介质及设备 | |
CN111488858B (zh) | 云计算大数据金融安防系统行人行为分析方法及系统 | |
Suju et al. | FLANN: Fast approximate nearest neighbour search algorithm for elucidating human-wildlife conflicts in forest areas | |
CN106600652A (zh) | 一种基于人工神经网络的全景摄像头定位方法 | |
IL257092A (en) | System and method for tracking objects between cameras | |
CN113177968A (zh) | 目标跟踪方法、装置、电子设备及存储介质 | |
CN114333058A (zh) | 一种跌倒风险评估及防控方法和相关设备 | |
CN111476202B (zh) | 安防系统的用户行为分析方法及系统 | |
CN114120436A (zh) | 动作识别模型的训练方法、动作识别方法及相关装置 | |
Dobos et al. | Validation of pitchAITM markerless motion capture using marker-based 3D motion capture | |
Ooi et al. | Study on a navigation system for visually impaired persons based on egocentric vision using deep learning | |
CN114913550A (zh) | 集伤点场景下基于深度学习的伤员识别方法与系统 | |
CN112019723A (zh) | 区块链的大数据目标监控方法及系统 | |
CN114511922A (zh) | 一种体能训练姿态识别方法、装置、设备及存储介质 | |
CN113674306A (zh) | 基于鱼眼镜头的行人轨迹获取方法、系统、装置和介质 | |
CN113449674B (zh) | 一种猪脸识别方法及系统 | |
CN111123734A (zh) | 用于无人车的复杂场景测试方法、装置及存储介质 | |
Purushothaman et al. | Smart vision-based analysis and error deduction of human pose to reduce musculoskeletal disorders in construction | |
CN111476115B (zh) | 一种人体行为识别方法、装置及设备 | |
CN117058767B (zh) | 训练场监测方法、设备、存储介质及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210504 |