CN111325137B - 暴力分拣检测方法、装置、设备及存储介质 - Google Patents

暴力分拣检测方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN111325137B
CN111325137B CN202010098184.5A CN202010098184A CN111325137B CN 111325137 B CN111325137 B CN 111325137B CN 202010098184 A CN202010098184 A CN 202010098184A CN 111325137 B CN111325137 B CN 111325137B
Authority
CN
China
Prior art keywords
sorting
tracking
pedestrian
target
video stream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010098184.5A
Other languages
English (en)
Other versions
CN111325137A (zh
Inventor
杨周龙
李斯
赵齐辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dongpu Software Co Ltd
Original Assignee
Dongpu Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dongpu Software Co Ltd filed Critical Dongpu Software Co Ltd
Priority to CN202010098184.5A priority Critical patent/CN111325137B/zh
Publication of CN111325137A publication Critical patent/CN111325137A/zh
Application granted granted Critical
Publication of CN111325137B publication Critical patent/CN111325137B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种暴力分拣检测方法、装置、设备及存储介质。该方法通过多目标跟踪算法对快件分拣口上的视频流中的目标行人进行分拣轨迹跟踪,识别出分拣轨迹中的目标行人的关节字条,计算所述关节姿态的移动幅度,基于所述移动幅度判断是否属于暴力分拣。基于该视频分析暴力分拣的方式,不仅能提高识别的速度,减少人力资源内的消耗,并且人体区域的整体跟踪识别,大大提高了识别准确率,同时还有效的扼制暴力分拣行为,保证货物完好无损的送达客户手中。

Description

暴力分拣检测方法、装置、设备及存储介质
技术领域
本发明涉及快件分拣技术领域,尤其涉及一种暴力分拣检测方法、装置、设备及存储介质。
背景技术
近年来,快递行业快速发展,快递乱丢以及快件遭到破坏的投诉现象剧增。其投诉原因表面上是从业人员服务水平差,但追根究底,民营快递多以加盟制为主,由于管理松散、准入门槛低,对基层网点的管理和员工培训很难做到严格规范。其中,暴力分拣是一个十分突出的问题。货物分拣是快递行业的中间过程,由于工作量大,经常出现员工不按规范操作,以扔的方式将物品归类,包装盒内的物品极易受损,如果分拣的时候动作幅度较大或者违规操作会破损货物。
基于上述的问题,目前所使用的解决方案是通过人力监控以及客户的反馈对业务员的评分,根据评分对业务员进行处理,但是这样的监控方式效率太低,同时也需要消耗过多的人力资源,这样并不划算。
发明内容
本发明的主要目的在于解决现有的暴力分拣监控效率过低的技术问题。
本发明第一方面提供了一种暴力分拣检测方法,所述暴力分拣检测方法包括:
获取快件分拣口的视频流;
根据多目标跟踪算法,识别所述视频流中的目标行人,并基于所述目标行人进行分拣轨迹跟踪;
识别所述分拣轨迹中目标行人的关节姿态,并计算所述关节姿态的移动幅度;
判断所述移动幅度是否满足暴力分拣的条件;
若满足,则对所述目标行人进行告警处理。
可选的,在本发明第一方面的第一种实现方式中,所述获取快件分拣口的视频流包括:
通过设置于所述快件分拣口上的摄像头监控平台进行样本视频流采集,并存储于硬盘录像机中;
利用DSS视频处理软件对所述样本视频流进行视频提取,得到所述视频流。
可选的,在本发明第一方面的第二种实现方式中,所述根据多目标跟踪算法,识别所述视频流中的目标行人,并基于所述目标行人进行分拣轨迹跟踪包括:
根据人脸识别技术,识别所述视频流中的人脸图像,并基于所述人脸图像确定对应的人体区域,以及分配对应的唯一识别ID;
建立所述ID与所述人体区域的跟踪关联,基于预设的行人重识别跟踪模型对所述ID进行移动跟踪,得到所述目标行人的分拣轨迹。
可选的,在本发明第一方面的第三种实现方式中,所述基于预设的行人重识别跟踪模型对所述ID进行移动跟踪,得到所述目标行人的分拣轨迹包括:
通过所述行人重识别跟踪模型识别所述ID在所述视频流中每个视频帧的位置;
判断在所述位置时的所述人体区域是否与其他人体区域存在重叠;
若存在,则提取所述ID在当前位置上未被遮挡的表观特征,并根据最近邻匹配原理绘制出所述ID对应的人体区域;
所述绘制后的人体区域按照同一ID进行归类,并对归类后的视频帧按照时间先后顺序进行串联,得到目标行人的分拣轨迹。
可选的,在本发明第一方面的第四种实现方式中,所述识别所述分拣轨迹中目标行人的关节姿态,并计算所述关节姿态的移动幅度包括:
识别所述分拣轨迹中的目标行人在分拣快件时抛离快件的快件坐标信息,其中,所述坐标信息包括起点坐标、终点坐标和最高点坐标;
基于所述坐标信息所述快件的移动幅度。
可选的,在本发明第一方面的第五种实现方式中,所述识别所述分拣轨迹中目标行人的关节姿态,并计算所述关节姿态的移动幅度包括:
检测所述分拣轨迹中每一个视频帧的关节姿态和其对应的坐标位置,所述关节姿态包括人体动作、面部表情和手指运动;
比较前后每一帧视频帧中关节姿态的坐标位置,计算出前后视频帧的目标行人的移动幅度。
可选的,在本发明第一方面的第六种实现方式中,所述判断所述移动幅度是否满足暴力分拣的条件包括:
根据所述快件的信息,通过预设的分拣模型预测出所述快件的合理分拣幅度;
比较所述移动幅度与所述合理分拣幅度进行比较,得到比较结果;
基于所述比较结果确定当前快件的分拣是否为暴力分拣。
本发明第二方面提供了一种暴力分拣检测装置,所述暴力分拣检测装置包括:
获取模块用于:获取快件分拣口的视频流;
跟踪模块用于:根据多目标跟踪算法,识别所述视频流中的目标行人,并基于所述目标行人进行分拣轨迹跟踪;
计算模块用于:识别所述分拣轨迹中目标行人的关节姿态,并计算所述关节姿态的移动幅度;
判断模块用于:判断所述移动幅度是否满足暴力分拣的条件;
告警模块用于:若满足,则对所述目标行人进行告警处理。
可选的,在本发明第二方面的第一种实现方式中,所述获取模块具体用于:
通过设置于所述快件分拣口上的摄像头监控平台进行样本视频流采集,并存储于硬盘录像机中;
利用DSS视频处理软件对所述样本视频流进行视频提取,得到所述视频流。
可选的,在本发明第二方面的第二种实现方式中,所述跟踪模块包括行人识别单元和跟踪单元,其中:
所述行人识别单元用于根据人脸识别技术,识别所述视频流中的人脸图像,并基于所述人脸图像确定对应的人体区域,以及分配对应的唯一识别ID;
所述跟踪单元用于建立所述ID与所述人体区域的跟踪关联,基于预设的行人重识别跟踪模型对所述ID进行移动跟踪,得到所述目标行人的分拣轨迹。
可选的,在本发明第二方面的第三种实现方式中,所述跟踪单元具体用于:
通过所述行人重识别跟踪模型识别所述ID在所述视频流中每个视频帧的位置;
判断在所述位置时的所述人体区域是否与其他人体区域存在重叠;
若存在,则提取所述ID在当前位置上未被遮挡的表观特征,并根据最近邻匹配原理绘制出所述ID对应的人体区域;
所述绘制后的人体区域按照同一ID进行归类,并对归类后的视频帧按照时间先后顺序进行串联,得到目标行人的分拣轨迹。
可选的,在本发明第二方面的第四种实现方式中,所述计算模块包括快件坐标计算单元,用于识别所述分拣轨迹中的目标行人在分拣快件时抛离快件的快件坐标信息,其中,所述坐标信息包括起点坐标、终点坐标和最高点坐标;基于所述坐标信息所述快件的移动幅度。
可选的,在本发明第二方面的第五种实现方式中,所述计算模块还包括行人轨迹计算单元,用于:
检测所述分拣轨迹中每一个视频帧的关节姿态和其对应的坐标位置,所述关节姿态包括人体动作、面部表情和手指运动;
比较前后每一帧视频帧中关节姿态的坐标位置,计算出前后视频帧的目标行人的移动幅度。
可选的,在本发明第二方面的第六种实现方式中,所述判断模块具体用于:
根据所述快件的信息,通过预设的分拣模型预测出所述快件的合理分拣幅度;
比较所述移动幅度与所述合理分拣幅度进行比较,得到比较结果;
基于所述比较结果确定当前快件的分拣是否为暴力分拣。
本发明第三方面提供了一种暴力分拣检测设备,包括:存储器和至少一个处理器,所述存储器中存储有指令,所述存储器和所述至少一个处理器通过线路互连;所述至少一个处理器调用所述存储器中的所述指令,以使得所述暴力分拣检测设备执行上述的暴力分拣检测方法。
本发明的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述的暴力分拣检测方法。
本发明提供的技术方案中,通过多目标跟踪算法对快件分拣口上的视频流中的目标行人进行分拣轨迹跟踪,识别出分拣轨迹中的目标行人的关节字条,计算所述关节姿态的移动幅度,基于所述移动幅度判断是否属于暴力分拣,若是,则对对应的目标行人进行告警处理。基于该多目标跟踪算法以及构建人体区域对行人的视频分析暴力分拣的方式,不仅能提高识别的速度,减少人力资源内的消耗,并且人体区域的整体跟踪识别,大大提高了识别准确率,同时还有效的扼制暴力分拣行为,保证货物完好无损的送达客户手中。
附图说明
图1为本发明实施例中暴力分拣检测方法的第一个实施例示意图;
图2为本发明实施例中暴力分拣检测方法的第二个实施例示意图;
图3为本发明实施例提供的跟踪显示示意图;
图4为本发明实施例中行人重识别的流程示意图;
图5为本发明实施例中暴力分拣检测方法的第三个实施例示意图;
图6为本发明实施例中暴力分拣检测装置的第一个实施例示意图;
图7为本发明实施例中暴力分拣检测装置的第二个实施例示意图;
图8为本发明暴力分拣检测设备一实施例的结构示意图。
具体实施方式
本发明实施例提供了一种暴力分拣检测方法、装置、设备及存储介质,其中,暴力分拣检测方法通过多目标跟踪算法对快件分拣口上的视频流中的目标行人进行分拣轨迹跟踪,识别出分拣轨迹中的目标行人的关节字条,计算所述关节姿态的移动幅度,基于所述移动幅度判断是否属于暴力分拣。基于该视频分析暴力分拣的方式,不仅能提高识别的速度,减少人力资源内的消耗,并且人体区域的整体跟踪识别,大大提高了识别准确率,同时还有效的扼制暴力分拣行为,保证货物完好无损的送达客户手中。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”或“具有”及其任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为便于理解,下面对本发明实施例的具体流程进行描述,请参阅图1,本发明实施例中暴力分拣检测方法的一个实施例包括:
101、获取快件分拣口的视频流。
在本实施例中,这里的快件分拣口可以理解为是快递中转站的分拣区域,也可以理解为是快件的包装场地等等,只要是存在快件分拣的任何场地都可以。
在实际应用中,在获取快件分拣口的视频流时,该视频流可以是实时的监控视频数据,也可以是快件场地监控的历史数据,当然,这里选择的是以实时的监控视频数据为例,具体是通过设置在快件分拣口上的视频监控系统来采集视频数据,例如某一快递员或者业务员在分拣快件时的视频数据,当然还可以是多个快递员的视频数据。
优选的,所述获取快件分拣口的视频流包括:
通过设置于所述快件分拣口上的摄像头监控平台进行样本视频流采集,并存储于硬盘录像机中;
利用DSS视频处理软件对所述样本视频流进行视频提取,得到所述视频流。
即是利用摄像头监控平台进行样本取视频流。摄像头监控的视频都存储在DVR中,可以直接用DSS客户端进行视频取流。
102、根据多目标跟踪算法,识别所述视频流中的目标行人,并基于所述目标行人进行分拣轨迹跟踪。
在本实施例中,这里的多目标跟踪算法Deep_sort目标追踪技术来自于论文
《SIMPLEONLINEANDREALTIMETRACKINGWITHADEEPASSOCIATION METRIC》,是在Sort目标追踪基础上的改进。引入了在行人重识别数据集上离线训练的深度学习模型,在实时目标追踪过程中,提取目标的表观特征进行最近邻匹配,可以改善有遮挡情况下的目标追踪效果。同时,也减少了目标ID跳变的问题。Deep_sort最大的特点就是追踪目标稳定,目标不会丢失,且保留追踪目标的轨迹。识别框需要手动选择,圈出需要追踪的目标(快递员)。
在实际应用中,通过该多目标跟踪算法先识别出视频流中的快递员的人脸区域,基于该人脸区域采用人像描绘算法和像素邻近匹配方法描绘出所述人脸区域对应的行人画像;然后基于该行人画像进行跟踪,在跟踪的过程中采集快递员分拣快件的动作画面,并将所述动作画面和快递员在每帧视频中的位置进行记录,形成跟踪的分拣轨迹。
103、识别所述分拣轨迹中目标行人的关节姿态,并计算所述关节姿态的移动幅度。
在本实施例中,在识别目标行人的关节姿态时,优选的选用OpenPose人体姿态识别项目来识别,该识别技术是美国卡耐基梅隆大学(CMU)基于卷积神经网络和监督学习并以caffe为框架开发的开源库。采用该识别技术进行关节姿态的识别的过程中可以实现人体动作、面部表情、手指运动等姿态估计。同时还适用于单人和多人,其估计主要是基于深度学习的实时多人二维姿态估计应用。通过该识别技术不仅实现了目标行人的定位追踪,还实现了基于追踪的目标行人,快速识别出快递员的姿态,各个关节的行为。
在实际应用中,通过OpenPose人体姿态识别项目对分拣轨迹中的每一帧视频帧中的目标行人的行人画像进行识别,在识别过程中,首先是根据 OpenPose人体姿态识别项目中的卷积神级网络的识别模型对行人画像中的关节点进行标记识别,然后基于关节点进行邻近性的匹配,将匹配到的同一行人的关节点按照人体结构形态进行连接,以形成该目标行人在当前视频帧上形成的关节姿态。
进一步的,将每个视频帧上识别到的关节姿态按照视频流中的时间顺序进行串联,记录同一行人画像在视频流中的起始帧的位置和结束帧中的位置,比较两者的位置是否相同,若不相同,则计算两者的位置差来确定移动幅度,若相同,则识别起始帧中的关节姿态之间的差异,例如动作画面的差异,计算差异画面的位移关系,从而得到移动幅度。
104、判断所述移动幅度是否满足暴力分拣的条件。
在本实施例中,所述移动幅度可以是目标行人的整体移动幅度,也可以是目标行人的某一肢体的移动幅度,当然这里优选选择的是肢体的移动幅度,肢体的移动幅度更能体现出业务员在分拣快件时采用的力度。
进一步的,首先会设置一个暴力分拣的力度阈值(即是移动幅度),将实时计算到的移动幅度与预设的值进行比较,然大于或者是等于时,则认为是暴力分拣,反之,则正常分拣。
在实际应用中,这里的关节姿态除了上述的肢体之外,还可以包括表情数据,而表情数据的暴力分拣的判断具体是根据判断表情数据是否属于表情数据库中的厌恶、愤怒等容易产生异常情绪的表情特征,若是,则也会被认定为是暴力分拣。
105、若满足,则对所述目标行人进行告警处理。
本实施例中,对于告警处理包括实时的告警和非实时的告警,而实时的告警可以是通过摄像头进行报警以及后台进行记录,而非实时的告警则是在分拣动作结束后,在接收到客户的投诉等异常反馈时,通过调出监控的视频流重新进行暴力分拣的认定时,将检测到的暴力分拣进行评分,对业务员进行评等级处理。
本发明实施例提供的技术方案中,通过多目标跟踪算法对快件分拣口上的视频流中的目标行人进行分拣轨迹跟踪,识别出分拣轨迹中的目标行人的关节字条,计算所述关节姿态的移动幅度,基于所述移动幅度判断是否属于暴力分拣,若是,则对对应的目标行人进行告警处理。基于该多目标跟踪算法以及构建人体区域对行人的视频分析暴力分拣的方式,不仅能提高识别的速度,减少人力资源内的消耗,并且人体区域的整体跟踪识别,大大提高了识别准确率,同时还有效的扼制暴力分拣行为,保证货物完好无损的送达客户手中。
请参阅图2,本发明实施例中暴力分拣检测方法的另一个实施例包括:
201、利用摄像头监控平台进行样本取视频流。摄像头监控的视频都存储在DVR中,可以直接用DSS客户端进行视频取流;
202、根据人脸识别技术,识别所述视频流中的人脸图像,并基于所述人脸图像确定对应的人体区域,以及分配对应的唯一识别ID;
203、建立所述ID与所述人体区域的跟踪关联,基于预设的行人重识别跟踪模型对所述ID进行移动跟踪,得到所述目标行人的分拣轨迹;
在本实施例中,若检测到视频流的单帧画面中只有一个目标行人时,则可以选择不设置ID,若存在两个或两个以上的目标行人时,则选择设置ID,在每个ID对应的人体区域上进行显示ID,基于该ID以及ID上的人脸图像进行跟踪。
如图3所示,ID显示在人脸图像的上方,在人脸图像的区域外构建有人体区域,该人体区域基于绑定关系同时移动和显示,从而实现目标行人的整体跟踪。
基于行人重识别跟踪模型跟踪过程中,当存在遮挡时,采用最近邻匹配原理来进行补充人体区域,从而实现完整目标行人的跟踪,并记录每一帧中该目标行人的实时位置和动态的关节姿态。
在实际应用中,在记录关节姿态时,应当记录人体区域中的各肢体位置。具体的,对于关节姿态的识别,可以选择采用模型来进行识别,而该模型具体是通过以下方式训练得到:
1)使用运动捕捉技术采集高精度快递操作动作数据,将其加入到运动捕获数据库。然后对人体三维姿态集采用最大距离聚类分析方法,当两个人体三维姿态之间的距离小于预定的阈值时,就剔除相似的冗余三维姿态数据。最后,使用标准计算机图形学技术,从纹理映射到三维网格渲染,人工合成训练用的深度图像。
2)人体部位标签定义:定义31个人体部位标签,使它们可以稠密地覆盖整个身体,把深度图像与人体部位标签图绑定为一个数据对作为训练数据。
3)对深度图像特征提取。
4)随机决策森林构建:采用最大信息增益构建决策树,每棵决策树都在一个不同的随机合成图像集上训练。随机决策森林是由若干棵决策树所组成,每棵决策树都有若干个分支节点和叶子节点,每个分支节点都由一个特征和一个阈值组成。
5)图像像素分类:对图像中的每个像素进行分类,从决策树根节点开始,根据特征值与阈值的比较结果往左或者往右分支,最终到达的决策树的叶子节点决定了该节点所属于的身体部位标签。对每个训练集上生成的决策树求平均值作为每个像素最终的所属身体部位标签。
6)人体骨骼节点位置估计:根据每个像素所属于的身体部位标签的位置,使用均值漂移方法估计身体部位的密度,取最大密度的中心作为人体骨骼关节位置,从而得到最终的识别模型。
204、识别所述分拣轨迹中目标行人的关节姿态,并计算所述关节姿态的移动幅度;
205、判断所述移动幅度是否满足暴力分拣的条件;
206、若满足,则对所述目标行人进行告警处理。
通过上述实施方式的实施,不仅能提高识别的速度,减少人力资源内的消耗,并且人体区域的整体跟踪识别,大大提高了识别准确率,同时还有效的扼制暴力分拣行为,保证货物完好无损的送达客户手中。
在本施例中,对于基于预设的行人重识别跟踪模型对所述ID进行移动跟踪,得到所述目标行人的分拣轨迹的实现,具体可以通过以下方式来实现,如图4所示:
401、通过所述行人重识别跟踪模型识别所述ID在所述视频流中每个视频帧的位置;
402、判断在所述位置时的所述人体区域是否与其他人体区域存在重叠;
403、若存在,则提取所述ID在当前位置上未被遮挡的表观特征,并根据最近邻匹配原理绘制出所述ID对应的人体区域;
405、所述绘制后的人体区域按照同一ID进行归类,并对归类后的视频帧按照时间先后顺序进行串联,得到目标行人的分拣轨迹。
在实际应用中,所述行人重识别具体实现如下:
从多个视频帧中提取得到行人CNN特征图;
进一步的,所述从多个视频帧中提取得到行人CNN特征图包括:
从训练数据集中随机选择所述多个图片;
将所述多个图片输入到ResNet50模型的多个不同语义层进行提取,得到多个通道的特征图;
利用通道注意力模块对所述多个通道的特征图进行处理,得到经通道处理的特征图;
利用空间注意力模块对所述经通道处理的特征图在不同位置的空间上下文信息进行处理,得到所述行人CNN特征图。
在本实施例中,所述利用通道注意力模块对所述多个通道的特征图进行处理,得到经通道处理的特征图包括:
根据所述多个通道的特征图中的每一通道的特征图,得到通道特征描述子;
对所述通道特征描述子通过激活函数运算,得到通道注意力特征图;
将所述通道注意力特征图与所述特征图聚合的特征图相乘,得到所述经通道处理的特征图。
采用对抗擦除学习的方式模仿对所述行人CNN特征图的判别性区域被遮挡的情形进行模型训练,得到训练模型;
利用所述训练模型结合目标行人图像和待识别行人图像进行行人重识别,得到行人重识别结果。
请参阅图5,本发明实施例中暴力分拣检测方法的另一个实施例,该实施例以应用英特尔的openvino技术、deep_sort和openpose技术实现暴力分拣检测为例进行说明,该方法具体包括:
501、基于隔口场景取视频流。
利用摄像头监控平台进行样本取视频流。摄像头监控的视频都存储在DVR中,可以直接用DSS客户端进行视频取流。
502、deep_sort算法追踪。
Deep_sort目标追踪技术来自于论文《SIMPLE ONLINE AND REALTIME TRACKINGWITH A DEEP ASSOCIATION METRIC》,是在Sort目标追踪基础上的改进。引入了在行人重识别数据集上离线训练的深度学习模型,在实时目标追踪过程中,提取目标的表观特征进行最近邻匹配,可以改善有遮挡情况下的目标追踪效果。同时,也减少了目标ID跳变的问题。
Deep_sort最大的特点就是追踪目标稳定,目标不会丢失,且保留追踪目标的轨迹。识别框需要手动选择,圈出需要追踪的目标(快递员)。
503、openpose人体关节识别。
OpenPose人体姿态识别项目是美国卡耐基梅隆大学(CMU)基于卷积神经网络和监督学习并以caffe为框架开发的开源库。可以实现人体动作、面部表情、手指运动等姿态估计。适用于单人和多人,具有极好的鲁棒性。是世界上首个基于深度学习的实时多人二维姿态估计应用。
基于追踪的目标,识别出快递员的姿态,各个关节的行为。
504、openvino视觉加速。
OpenVINO是英特尔基于自身现有的硬件平台开发的一种可以加快高性能计算机视觉和深度学习视觉应用开发速度工具套件,支持各种英特尔平台的硬件加速器上进行深度学习,并且允许直接异构执行。
Openvino有预训练模型库,集合模型优化器和推断引擎大幅度提高计算机视觉优化加速。
在实际应用中,所述识别所述分拣轨迹中目标行人的关节姿态,并计算所述关节姿态的移动幅度包括:
识别所述分拣轨迹中的目标行人在分拣快件时抛离快件的快件坐标信息,其中,所述坐标信息包括起点坐标、终点坐标和最高点坐标;
基于所述坐标信息所述快件的移动幅度。
在本实施例中,所述识别所述分拣轨迹中目标行人的关节姿态,并计算所述关节姿态的移动幅度包括:
检测所述分拣轨迹中每一个视频帧的关节姿态和其对应的坐标位置,所述关节姿态包括人体动作、面部表情和手指运动;
比较前后每一帧视频帧中关节姿态的坐标位置,计算出前后视频帧的目标行人的移动幅度。
505、肢体移动幅度判断暴力分拣。
比较前后每帧画面的移动幅度:先预估一个正常搬运货物需要移动的合理幅度,再通过计算相关关节前后每帧画面的移动幅度,如果大于预估的合理幅度,则判断为暴力分拣,摄像头进行报警或者后台进行记录。
在本施例中,所述判断所述移动幅度是否满足暴力分拣的条件包括:
根据所述快件的信息,通过预设的分拣模型预测出所述快件的合理分拣幅度;
比较所述移动幅度与所述合理分拣幅度进行比较,得到比较结果;
基于所述比较结果确定当前快件的分拣是否为暴力分拣。
通过上述实施方式的实现,提高识别的速度,减少人力资源内的消耗,并且人体区域的整体跟踪识别,大大提高了识别准确率,同时还有效的扼制暴力分拣行为。
上面对本发明实施例中暴力分拣检测方法进行了描述,下面对本发明实施例中暴力分拣检测装置进行描述,请参阅图6,本发明实施例中暴力分拣检测装置一个实施例包括:
获取模块61用于获取快件分拣口的视频流;
跟踪模块62用于根据多目标跟踪算法,识别所述视频流中的目标行人,并基于所述目标行人进行分拣轨迹跟踪;
计算模块63用于识别所述分拣轨迹中目标行人的关节姿态,并计算所述关节姿态的移动幅度;
判断模块64用于判断所述移动幅度是否满足暴力分拣的条件;
告警模块65用于在判断满足时,对所述目标行人进行告警处理。
本发明实施例提供的技术方案中,通过多目标跟踪算法对快件分拣口上的视频流中的目标行人进行分拣轨迹跟踪,识别出分拣轨迹中的目标行人的关节字条,计算所述关节姿态的移动幅度,基于所述移动幅度判断是否属于暴力分拣,若是,则对对应的目标行人进行告警处理。基于该多目标跟踪算法以及构建人体区域对行人的视频分析暴力分拣的方式,不仅能提高识别的速度,减少人力资源内的消耗,并且人体区域的整体跟踪识别,大大提高了识别准确率,同时还有效的扼制暴力分拣行为
请参阅图7,本发明实施例中暴力分拣检测装置一个实施例包括:
获取模块61用于获取快件分拣口的视频流;
跟踪模块62用于根据多目标跟踪算法,识别所述视频流中的目标行人,并基于所述目标行人进行分拣轨迹跟踪;
计算模块63用于识别所述分拣轨迹中目标行人的关节姿态,并计算所述关节姿态的移动幅度;
判断模块64用于判断所述移动幅度是否满足暴力分拣的条件;
告警模块65用于在判断满足时,对所述目标行人进行告警处理。
可选的,所述获取模块61具体用于:
通过设置于所述快件分拣口上的摄像头监控平台进行样本视频流采集,并存储于硬盘录像机中;
利用DSS视频处理软件对所述样本视频流进行视频提取,得到所述视频流。
可选的,所述跟踪模块62包括行人识别单元621和跟踪单元622,其中:
所述行人识别单元621用于根据人脸识别技术,识别所述视频流中的人脸图像,并基于所述人脸图像确定对应的人体区域,以及分配对应的唯一识别ID;
所述跟踪单元622用于建立所述ID与所述人体区域的跟踪关联,基于预设的行人重识别跟踪模型对所述ID进行移动跟踪,得到所述目标行人的分拣轨迹。
可选的,所述跟踪单元622具体用于:
通过所述行人重识别跟踪模型识别所述ID在所述视频流中每个视频帧的位置;
判断在所述位置时的所述人体区域是否与其他人体区域存在重叠;
若存在,则提取所述ID在当前位置上未被遮挡的表观特征,并根据最近邻匹配原理绘制出所述ID对应的人体区域;
所述绘制后的人体区域按照同一ID进行归类,并对归类后的视频帧按照时间先后顺序进行串联,得到目标行人的分拣轨迹。
可选的,所述计算模块63包括快件坐标计算单元631,用于识别所述分拣轨迹中的目标行人在分拣快件时抛离快件的快件坐标信息,其中,所述坐标信息包括起点坐标、终点坐标和最高点坐标;基于所述坐标信息所述快件的移动幅度。
可选的,所述计算模块63还包括行人轨迹计算单元632,用于:
检测所述分拣轨迹中每一个视频帧的关节姿态和其对应的坐标位置,所述关节姿态包括人体动作、面部表情和手指运动;
比较前后每一帧视频帧中关节姿态的坐标位置,计算出前后视频帧的目标行人的移动幅度。
可选的,所述判断模块64具体用于:
根据所述快件的信息,通过预设的分拣模型预测出所述快件的合理分拣幅度;
比较所述移动幅度与所述合理分拣幅度进行比较,得到比较结果;
基于所述比较结果确定当前快件的分拣是否为暴力分拣。
基于与上述本发明暴力分拣检测方法相同的实施例说明内容,因此本实施例对暴力分拣检测装置的实施例内容不做过多赘述。
上面图6-7从模块化功能实体的角度对本发明实施例中的暴力分拣检测装置进行详细描述,下面从硬件处理的角度对本发明实施例中暴力分拣检测设备进行详细描述。
图8是本发明暴力分拣检测设备一实施例的结构示意图,该暴力分拣检测设备1000可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(centralprocessingunits,CPU)1010(例如,一个或一个以上处理器)和存储器1020,一个或一个以上存储应用程序1033或数据1032的存储介质1030(例如一个或一个以上海量存储设备)。其中,存储器1020和存储介质1030可以是短暂存储或持久存储。存储在存储介质1030的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对暴力分拣检测设备设备1000中的一系列指令操作。更进一步地,处理器1010可以设置为与存储介质1030通信,在暴力分拣检测设备1000上执行存储介质1030中的一系列指令操作。
基于暴力分拣检测设备1000还可以包括一个或一个以上电源1040,一个或一个以上有线或无线网络接口1050,一个或一个以上输入输出接口1060,和/或,一个或一个以上操作系统1031,例如WindowsServe,MacOSX,Unix, Linux,FreeBSD等等。本领域技术人员可以理解,图8示出的暴力分拣检测设备结构并不构成对基于暴力分拣检测设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
本发明还提供一种计算机可读存储介质,该计算机可读存储介质可以为非易失性计算机可读存储介质,该计算机可读存储介质也可以为易失性计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在计算机上运行时,使得计算机执行所述暴力分拣检测方法的步骤。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (7)

1.一种暴力分拣检测方法,其特征在于,所述暴力分拣检测方法包括:
获取快件分拣口的视频流;
根据多目标跟踪算法,识别所述视频流中的目标行人,并基于所述目标行人进行分拣轨迹跟踪;
识别所述分拣轨迹中目标行人的关节姿态,并计算所述关节姿态的移动幅度;
判断所述移动幅度是否满足暴力分拣的条件;
若满足,则对所述目标行人进行告警处理;
所述获取快件分拣口的视频流包括:
通过设置于所述快件分拣口上的摄像头监控平台进行样本视频流采集,并存储于硬盘录像机中;
利用DSS视频处理软件对所述样本视频流进行视频提取,得到所述视频流;
所述根据多目标跟踪算法,识别所述视频流中的目标行人,并基于所述目标行人进行分拣轨迹跟踪包括:
根据人脸识别技术,识别所述视频流中的人脸图像,并基于所述人脸图像确定对应的人体区域,以及分配对应的唯一识别ID;
建立所述ID与所述人体区域的跟踪关联,基于预设的行人重识别跟踪模型对所述ID进行移动跟踪,得到所述目标行人的分拣轨迹;
所述基于预设的行人重识别跟踪模型对所述ID进行移动跟踪,得到所述目标行人的分拣轨迹包括:
通过所述行人重识别跟踪模型识别所述ID在所述视频流中每个视频帧的位置;
判断在所述位置时的所述人体区域是否与其他人体区域存在重叠;
若存在,则提取所述ID在当前位置上未被遮挡的表观特征,并根据最近邻匹配原理绘制出所述ID对应的人体区域;
所述绘制后的人体区域按照同一ID进行归类,并对归类后的视频帧按照时间先后顺序进行串联,得到目标行人的分拣轨迹。
2.根据权利要求1所述的暴力分拣检测方法,其特征在于,所述识别所述分拣轨迹中目标行人的关节姿态,并计算所述关节姿态的移动幅度包括:
识别所述分拣轨迹中的目标行人在分拣快件时抛离快件的快件坐标信息,其中,所述坐标信息包括起点坐标、终点坐标和最高点坐标;
基于所述坐标信息所述快件的移动幅度。
3.根据权利要求2所述的暴力分拣检测方法,其特征在于,所述识别所述分拣轨迹中目标行人的关节姿态,并计算所述关节姿态的移动幅度包括:
检测所述分拣轨迹中每一个视频帧的关节姿态和其对应的坐标位置,所述关节姿态包括人体动作、面部表情和手指运动;
比较前后每一帧视频帧中关节姿态的坐标位置,计算出前后视频帧的目标行人的移动幅度。
4.根据权利要求2或3所述的暴力分拣检测方法,其特征在于,所述判断所述移动幅度是否满足暴力分拣的条件包括:
根据所述快件的信息,通过预设的分拣模型预测出所述快件的合理分拣幅度;
比较所述移动幅度与所述合理分拣幅度进行比较,得到比较结果;
基于所述比较结果确定当前快件的分拣是否为暴力分拣。
5.一种暴力分拣检测装置,其特征在于,所述暴力分拣检测装置包括:
获取模块用于:获取快件分拣口的视频流;
跟踪模块用于:根据多目标跟踪算法,识别所述视频流中的目标行人,并基于所述目标行人进行分拣轨迹跟踪;
计算模块用于:识别所述分拣轨迹中目标行人的关节姿态,并计算所述关节姿态的移动幅度;
判断模块用于:判断所述移动幅度是否满足暴力分拣的条件;
告警模块用于:若满足,则对所述目标行人进行告警处理;
所述获取模块具体用于:通过设置于所述快件分拣口上的摄像头监控平台进行样本视频流采集,并存储于硬盘录像机中;利用DSS视频处理软件对所述样本视频流进行视频提取,得到所述视频流;
所述跟踪模块包括行人识别单元和跟踪单元,其中:所述行人识别单元用于根据人脸识别技术,识别所述视频流中的人脸图像,并基于所述人脸图像确定对应的人体区域,以及分配对应的唯一识别ID;所述跟踪单元用于建立所述ID与所述人体区域的跟踪关联,基于预设的行人重识别跟踪模型对所述ID进行移动跟踪,得到所述目标行人的分拣轨迹;
所述跟踪单元具体用于:通过所述行人重识别跟踪模型识别所述ID在所述视频流中每个视频帧的位置;判断在所述位置时的所述人体区域是否与其他人体区域存在重叠;若存在,则提取所述ID在当前位置上未被遮挡的表观特征,并根据最近邻匹配原理绘制出所述ID对应的人体区域;所述绘制后的人体区域按照同一ID进行归类,并对归类后的视频帧按照时间先后顺序进行串联,得到目标行人的分拣轨迹。
6.一种暴力分拣检测设备,其特征在于,所述暴力分拣检测设备包括:存储器和至少一个处理器,所述存储器中存储有指令,所述存储器和所述至少一个处理器通过线路互连;
所述至少一个处理器调用所述存储器中的所述指令,以使得所述暴力分拣检测设备执行如权利要求1-4中任一项所述的暴力分拣检测方法。
7.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-4中任一项所述的暴力分拣检测方法。
CN202010098184.5A 2020-02-18 2020-02-18 暴力分拣检测方法、装置、设备及存储介质 Active CN111325137B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010098184.5A CN111325137B (zh) 2020-02-18 2020-02-18 暴力分拣检测方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010098184.5A CN111325137B (zh) 2020-02-18 2020-02-18 暴力分拣检测方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN111325137A CN111325137A (zh) 2020-06-23
CN111325137B true CN111325137B (zh) 2023-06-13

Family

ID=71172825

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010098184.5A Active CN111325137B (zh) 2020-02-18 2020-02-18 暴力分拣检测方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN111325137B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111832466A (zh) * 2020-07-08 2020-10-27 上海东普信息科技有限公司 基于vgg网络的暴力分拣识别方法、装置、设备及存储介质
CN112668410B (zh) * 2020-12-15 2024-03-29 浙江大华技术股份有限公司 分拣行为检测方法、系统、电子装置和存储介质
CN112560720A (zh) * 2020-12-21 2021-03-26 奥比中光科技集团股份有限公司 一种行人识别方法及系统
CN113255466A (zh) * 2021-04-30 2021-08-13 广州有酱料网络科技有限公司 一种酱料供应链物流监控系统
CN113473124B (zh) * 2021-05-28 2024-02-06 北京达佳互联信息技术有限公司 信息获取方法、装置、电子设备及存储介质
CN113221819A (zh) * 2021-05-28 2021-08-06 中邮信息科技(北京)有限公司 包裹暴力分拣的检测方法、装置、计算机设备和存储介质
CN115816469B (zh) * 2023-02-21 2023-05-05 北京科技大学 一种基于机器视觉的云化plc控制物料分拣方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106897670A (zh) * 2017-01-19 2017-06-27 南京邮电大学 一种基于计算机视觉的快递暴力分拣识别方法
CN107358194A (zh) * 2017-07-10 2017-11-17 南京邮电大学 一种基于计算机视觉的暴力分拣快递判断方法
WO2018133666A1 (zh) * 2017-01-17 2018-07-26 腾讯科技(深圳)有限公司 视频目标跟踪方法和装置
CN108764066A (zh) * 2018-05-08 2018-11-06 南京邮电大学 一种基于深度学习的快件分拣操作规范检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018133666A1 (zh) * 2017-01-17 2018-07-26 腾讯科技(深圳)有限公司 视频目标跟踪方法和装置
CN106897670A (zh) * 2017-01-19 2017-06-27 南京邮电大学 一种基于计算机视觉的快递暴力分拣识别方法
CN107358194A (zh) * 2017-07-10 2017-11-17 南京邮电大学 一种基于计算机视觉的暴力分拣快递判断方法
CN108764066A (zh) * 2018-05-08 2018-11-06 南京邮电大学 一种基于深度学习的快件分拣操作规范检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
尚淑玲.基于计算机视觉的物流暴力分拣行为识别.计算机仿真.2013,(12),全文. *

Also Published As

Publication number Publication date
CN111325137A (zh) 2020-06-23

Similar Documents

Publication Publication Date Title
CN111325137B (zh) 暴力分拣检测方法、装置、设备及存储介质
CN110147743B (zh) 一种复杂场景下的实时在线行人分析与计数系统及方法
CN107358149B (zh) 一种人体姿态检测方法和装置
CN110796051B (zh) 基于货柜场景下的实时存取行为检测方法和系统
CN109583315B (zh) 一种面向智能视频监控的多通道快速人体姿态识别方法
Akkaladevi et al. Action recognition for human robot interaction in industrial applications
CN102227750A (zh) 移动体检测装置及移动体检测方法
CN112163469A (zh) 一种吸烟行为识别方法、系统、设备及可读存储介质
CN113378770A (zh) 手势识别方法、装置、设备、存储介质以及程序产品
CN111091057A (zh) 一种信息处理方法、装置及计算机可读存储介质
CN112861808B (zh) 动态手势识别方法、装置、计算机设备及可读存储介质
Mukherjee et al. Human activity recognition in RGB-D videos by dynamic images
CN114038056A (zh) 一种跳跃式及下蹲式逃票行为识别方法
Batool et al. Telemonitoring of daily activities based on multi-sensors data fusion
CN111898418A (zh) 一种基于t-tiny-yolo网络的人体异常行为检测方法
Michel et al. Gesture recognition supporting the interaction of humans with socially assistive robots
Elharrouss et al. Mhad: multi-human action dataset
Diete et al. Recognizing grabbing actions from inertial and video sensor data in a warehouse scenario
Kulbacki et al. Intelligent video monitoring system with the functionality of online recognition of people’s behavior and interactions between people
Abdulhamied et al. Real-time recognition of American sign language using long-short term memory neural network and hand detection
Kushwaha et al. Rule based human activity recognition for surveillance system
Vashistha et al. A comparative analysis of different violence detection algorithms from videos
CN114943873A (zh) 一种工地人员异常行为分类方法及装置
CN111311643B (zh) 使用动态搜索的视频目标跟踪方法
CN115131826A (zh) 物品检测识别方法、网络模型的训练方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant