CN111723633B - 一种基于深度数据的人员行为模式分析方法和系统 - Google Patents

一种基于深度数据的人员行为模式分析方法和系统 Download PDF

Info

Publication number
CN111723633B
CN111723633B CN201911249544.0A CN201911249544A CN111723633B CN 111723633 B CN111723633 B CN 111723633B CN 201911249544 A CN201911249544 A CN 201911249544A CN 111723633 B CN111723633 B CN 111723633B
Authority
CN
China
Prior art keywords
target
depth data
data
behavior
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911249544.0A
Other languages
English (en)
Other versions
CN111723633A (zh
Inventor
邵肖伟
许永伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Hongyida Technology Co ltd
Original Assignee
Shenzhen Hongyida Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Hongyida Technology Co ltd filed Critical Shenzhen Hongyida Technology Co ltd
Priority to CN201911249544.0A priority Critical patent/CN111723633B/zh
Priority to PCT/CN2020/113952 priority patent/WO2021114766A1/zh
Publication of CN111723633A publication Critical patent/CN111723633A/zh
Application granted granted Critical
Publication of CN111723633B publication Critical patent/CN111723633B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Alarm Systems (AREA)

Abstract

本发明提出一种基于深度数据的人员行为模式分析方法,包括:S1,部署多台距离传感器,采集检测区域内的深度数据;S2,对采集的深度数据进行处理,形成结构化数据;S3,分析目标的行为模式,判断目标的异常行为,如果异常,则告警。本发明能够实现:1)自动检测:对当前人员姿态进行实时监测,检测异常行为情况。出现异常行为时,自动告警。2)行为分析:对人员行为进行连续监测,为人员生活习惯、习性等进行分析。

Description

一种基于深度数据的人员行为模式分析方法和系统
技术领域
本发明涉及行人检测和点云智能化分析技术,更具体地,涉及一种基于深度数据的人员行为模式分析方法和系统。
背景技术
在室内环境中对人员进行视频监控,一般使用常规彩色摄像头人工监控人员行为,也有一些基于彩色视频运用机器视觉技术来自动监控人员行为。使用视频对人员进行监控,对异常行为进行监控,在安防领域具有重要作用。当前存在的问是:1、在一些司法安全领域,不适合使用常规彩色摄像,如何保护被监控人员一定的隐私。2、基于彩色视频运用机器视觉技术可以监控一定的人员行为,但是不能定位监控人员的空间信息。3、夜间监控,常规彩色摄像无法监控人员行为。4、视频监控异常的告警。
发明内容
为解决现有技术中的问题,本发明提出一种基于深度数据的人员行为模式分析方法,包括:S1,部署多台距离传感器,采集检测区域内的深度数据;S2,对采集的深度数据进行处理,形成结构化数据; S3,分析目标的行为模式,判断目标的异常行为,如果异常,则告警。
本发明还提出一种基于深度数据的人员行为模式分析系统,包括存储有计算机程序的存储器和能够执行所述计算机程序的处理器,所述计算机程序被执行时实现如下步骤:S1,部署多台距离传感器,采集检测区域内的深度数据;S2,对采集的深度数据进行处理,形成结构化数据;S3,分析目标的行为模式,判断目标的异常行为,如果异常,则告警。
本发明采用基于深度数据的人员行为模式分析技术对人员进行监控。在室内安装距离传感器,采集人员的深度数据,利用智能算法自动监控人员行为,对异常行为自动进行告警。解决了以下问题:1、自动检测:对当前人员姿态进行实时监测,检测异常行为情况。出现异常行为时,自动告警。2、行为分析:对人员行为进行连续监测,为人员生活习惯、习性等进行分析。
本发明的有益效果包括:1、高精度空间数据采集:毫米级识别精度。2、数据分辨能力强:物体精准识别、行为动作准确判别。 3、无需外部光照。不受夜晚、雾霭等外部环境影响。4、隐私保护:不识别面部信息。5、主动的智能化判断及预警:结构化数据,基于规则的数据检测和主动式预警。6、智能联动:基于规则判断结果驱动视频监控、声光告警等传统安防设备,协同联动。
附图说明
图1为本发明的方法的一个实施方式的流程图。
图2为本发明的方法的一个实施方式的流程图。
具体实施方式
下面参照附图描述本发明的实施方式。
如图1所示,本发明的一个实施方式的方法如下。
S1,部署多台距离传感器,采集检测区域内的深度数据。
距离传感器布置在空中,传感器将现有的应用层面从二维提升到三维空间,从空间视角呈现管理对象,以结构化的空间数据提升安防管理能力,实现精准数据支撑的主动式安防。
每个距离传感器为一个客户端,通过无线LSN进行通信,传感器采集的收据返回到主机服务器。主机服务器可查看各台传感器的工作状态,利用数据同化算法,可收集、统合所有传感器的数据,形成上帝视角,实时查看整个区域内的人群流动状况。
距离传感器通过面扫描方式发射并接收非可见光光束,获取每一帧的扫描数据。该数据包括被扫描物体到传感器的距离、扫描时间和扫描频率。
优选地,在数据采集之前,需要对距离传感器进行如下处理:
1、同步:数据采集开始前,各客户端需要进行时间同步。即使在采集前各设备进行了时间同步,采集PC、传感器在长时间工作中,仍会有稍许时间误差,需要在后期手动消除这些误差,使其数据时间完全一致。
2、配准:使多台传感器数据点云放置在一个世界坐标显示,形成上帝视角;选取原始点云数据空间中一个平面数据点,如地面数据点,将地面数据点转换为同一平面数据点,通过最小二乘方法使得地面数据点与此平面的距离最小,从而获取一个变换参数,再计算各传感器的相对坐标。
S2,对采集的深度数据进行处理,形成结构化数据。所述步骤S2 包括:
S21,对深度数据进行预处理,包括:1)数据去噪:由于硬件设备和实际环境的影响,深度传感器采集到的深度数据有部分噪声,根据各数据点邻域信息,设置一定大小的滤波算子,使用二维卷积运算,去除无效数据点,可以提升目标检测精度;2)数据归一化:由于实际环境的影响,深度传感器采集到的深度数据中有部分无效距离数据。通过选择有效的检测距离,将距离值转换线性变换到[0-1]之间,这种归一化深度数据可以消除不同目标距离远近对检测的影响,有利于提到目标检查精度;
S22,对预处理后的深度数据,根据采集时间、数据大小、深度数据和点云数据等信息,按照需要制作深度数据数据库,用于目标检测、实时告警、行为分析等任务。
S3,分析目标的行为模式,判断目标的异常行为,如果异常,则告警。具体地,将深度数据与已经确定的后台模型库进行比对,得出目标的行为模式信息,由此断定目标属于坐姿、站姿或是躺姿等。
在分析目标的行为模式时,具体包括如下步骤:
S31、采集、标注目标的行为模式。对当前深度数据进行深度学习检测分析,根据目标任务对获取的结构化数据进行人工标注,标注类别为坐姿、站姿或是躺姿等,标注信息为目标在深度图像中的边界信息。
S32、通过深度神经网络训练一个目标位置和类别检测的分类器。对当前深度数据进行预处理,使用训练得到的目标检测模型,前向运算得到当前帧的目标检测结果,检测目标是否为坐姿、站姿或躺姿等姿态信息;结合对应目标的点云空间信息获取目标所在的坐标位置;最后得到目标的空间位置信息和行为模式类别。
深度神经网络可以采用SSD网络结构(参见Liu W,Snguelov D, ErhSn D,etSl.SSD:Single Shot MultiBox Detector),通过网络输出结果和标注真实结果差距不断训练网络参数。本发明的目的是检测人员的位置和类别信息,深度学习SSD网络结构结合使用卷积运算和回归分析来获取目标的位置和类别。SSD网络结构使用卷积运算获取目标的特征信息,回归分析获取目标的位置和类别,再结合多尺度特征信息精精确定目标位置。
S33、用得到的行为模式分类器预测深度数据中目标的行为类别,根据检测得到的类别结果判断异常行为,检测到异常行为时进行告警。当获取到目标的空间坐标位置和姿态类别后,可以确定检测区域内人员的目标位置和姿态,再通过人员时序性的空间位置和姿态信息,可以判断人员的行为。最后对行为进行检测,当出现不规范或违规行为时,触发告警机制,实时告警。如在某一被监控的房间内,出现人员超高自缢行为时,后台检测软件会检测出有人员在一定位置持续出现高度异常,从而实时触发超高自缢告警;如在某一被监控的房间内,出现人员未在指定时间内休息时,后台检测软件会检测出有人员未在指定时间躺下休息,从而实时触发行为不规范告警。
S4,对目标行为进行分析。
融合多个距离传感器检测结果,根据长期的行为数据对目标生活习惯进行分析。获取目标的空间位置和姿态类别后,可以实时监测目标人员的状态,也可以获取目标的长时间内的状态信息。对目标长时间内的状态信息的分析包括:
1)运动轨迹分析:根据目标人员的位置和姿态,获取目标人员的运动和动作轨迹;
2)作息习惯分析:根据目标人员的位置和姿态,获取目标人员的起讫睡觉时间、睡觉时长和睡觉质量等信息,从而得到目标人员的作息习惯;
3)交流习惯分析:根据目标人员的位置和姿态,获取目标人员与其他人员的交流频率、交流时间和独自状态等信息,从而得到目标人员的交流习惯。可对目标人员心理分析和心理治疗等;
本发明可以对室内人员姿态进行智能识别,室内监控可以应用在以下场景:1、学校、幼儿园、司法机构和政府机构等室内监控预警:对人群聚集、人群行为异常和个体行为异常等,实现实时侦测、预警。 2、交通枢纽、公共场所群体性事件和异常事件预警:实时掌握乘客的分布、区域密度、行动速度,规划应急疏导的科学化路径,与广播系统联动的越界告警、非法闯入告警、聚集告警。
以上所述仅是本发明较优选的具体实施方式,应当指出,本领域的技术人员在本发明技术方案范围内进行的通常变化和替换都应包含在本发明的保护范围内。

Claims (8)

1.一种基于深度数据的人员行为模式分析方法,其特征在于,包括:
S1,部署多台距离传感器,采集检测区域内的深度数据;
S2,对采集的深度数据进行处理,形成结构化数据;
S3,分析目标的行为模式,判断目标的异常行为,如果异常,则告警,包括:S31,采集、标注目标的行为模式:对当前深度数据进行深度学习检测分析,根据目标任务对获取的结构化数据进行人工标注;S32,通过深度神经网络训练一个目标位置和类别检测的分类器;S33,用得到的行为模式分类器预测深度数据中目标的行为类别,根据检测得到的类别结果判断异常行为,检测到异常行为时进行告警;
其中,步骤33还包括:根据获取到的目标的空间坐标位置和姿态类别来确定检测区域内人员的目标位置和姿态,再通过人员时序性的空间位置和姿态信息,从而判断人员的行为。
2.根据权利要求1所述的方法,其特征在于,在步骤S1中,还包括:
1)数据采集开始前,时间同步各个距离传感器;
2)对各个距离传感器进行配置,计算各个传感器的相对坐标。
3.根据权利要求1所述的方法,其特征在于,在步骤S2中,还包括:
S21,对深度数据进行预处理,包括数据去噪和数据归一化;
S22,对预处理后的深度数据,根据采集时间、数据大小、深度数据和点云数据信息,按照需要制作深度数据数据库。
4.根据权利要求3所述的方法,其特征在于,步骤S3还包括:
1)对当前深度数据进行预处理,使用训练得到的目标检测模型,前向运算得到当前帧的目标检测结果,检测目标是否为坐姿、站姿或躺姿的姿态信息;
2)结合对应目标的点云空间信息获取目标所在的坐标位置;
3)得到目标的空间位置信息和行为模式类别。
5.根据权利要求4所述的方法,其特征在于,步骤S33还包括:
使用SSD网络结构来进行训练,通过网络输出结果和标注真实结果差距不断训练网络参数。
6.一种基于深度数据的人员行为模式分析系统,其特征在于,包括存储有计算机程序的存储器和能够执行所述计算机程序的处理器,所述计算机程序被执行时实现如下步骤:
S1,部署多台距离传感器,采集检测区域内的深度数据;
S2,对采集的深度数据进行处理,形成结构化数据;
S3,分析目标的行为模式,判断目标的异常行为,如果异常,则告警,包括: S31,采集、标注目标的行为模式:对当前深度数据进行深度学习检测分析,根据目标任务对获取的结构化数据进行人工标注;S32,通过深度神经网络训练一个目标位置和类别检测的分类器;S33,用得到的行为模式分类器预测深度数据中目标的行为类别,根据检测得到的类别结果判断异常行为,检测到异常行为时进行告警;
其中,步骤S33还包括:根据获取到的目标的空间坐标位置和姿态类别来确定检测区域内人员的目标位置和姿态,再通过人员时序性的空间位置和姿态信息,从而判断人员的行为。
7.根据权利要求6所述的系统,其特征在于,
步骤S1还包括:1)数据采集开始前,时间同步各个距离传感器;2)对各个距离传感器进行配置,计算各个传感器的相对坐标;
步骤S2还包括:S21,对深度数据进行预处理,包括数据去噪和数据归一化;S22,对预处理后的深度数据,根据采集时间、数据大小、深度数据和点云数据信息,按照需要制作深度数据数据库。
8.根据权利要求7所述的系统,其特征在于,
步骤S32还包括:1)对当前深度数据进行预处理,使用训练得到的目标检测模型,前向运算得到当前帧的目标检测结果,检测目标是否为坐姿、站姿或躺姿的姿态信息;2)结合对应目标的点云空间信息获取目标所在的坐标位置;3)得到目标的空间位置信息和行为模式类别;
使用SSD网络结构来进行训练,通过网络输出结果和标注真实结果差距不断训练网络参数。
CN201911249544.0A 2019-12-09 2019-12-09 一种基于深度数据的人员行为模式分析方法和系统 Active CN111723633B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201911249544.0A CN111723633B (zh) 2019-12-09 2019-12-09 一种基于深度数据的人员行为模式分析方法和系统
PCT/CN2020/113952 WO2021114766A1 (zh) 2019-12-09 2020-09-08 一种基于深度数据的人员行为模式分析方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911249544.0A CN111723633B (zh) 2019-12-09 2019-12-09 一种基于深度数据的人员行为模式分析方法和系统

Publications (2)

Publication Number Publication Date
CN111723633A CN111723633A (zh) 2020-09-29
CN111723633B true CN111723633B (zh) 2022-05-20

Family

ID=72563974

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911249544.0A Active CN111723633B (zh) 2019-12-09 2019-12-09 一种基于深度数据的人员行为模式分析方法和系统

Country Status (2)

Country Link
CN (1) CN111723633B (zh)
WO (1) WO2021114766A1 (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113436426A (zh) * 2021-06-22 2021-09-24 北京时空数智科技有限公司 一种基于视频ai分析的人员行为警示系统
CN113688740B (zh) * 2021-08-26 2024-02-27 燕山大学 一种基于多传感器融合视觉的室内姿势检测方法
CN113433598A (zh) * 2021-08-26 2021-09-24 泰豪信息技术有限公司 一种应用于监所的自缢行为监测方法、装置及系统
CN114418903A (zh) * 2022-01-21 2022-04-29 支付宝(杭州)信息技术有限公司 基于隐私保护的人机交互方法及人机交互装置
CN115883779B (zh) * 2022-10-13 2023-08-04 湖北公众信息产业有限责任公司 一种基于大数据的智慧园区信息安全管理系统
CN116665402A (zh) * 2023-04-27 2023-08-29 无锡稚慧启蒙教育科技有限公司 一种基于物联网的防走失系统及方法
CN116580424A (zh) * 2023-05-05 2023-08-11 深圳市领天智杰科技有限公司 一种基于神经网络的防近视方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104850846A (zh) * 2015-06-02 2015-08-19 深圳大学 一种基于深度神经网络的人体行为识别方法及识别系统
CN106447698A (zh) * 2016-09-28 2017-02-22 深圳市鸿逸达科技有限公司 一种基于距离传感器的多行人跟踪方法和系统
CN107423679A (zh) * 2017-05-31 2017-12-01 深圳市鸿逸达科技有限公司 一种行人意图检测方法和系统
CN109697830A (zh) * 2018-12-21 2019-04-30 山东大学 一种基于目标分布规律的人员异常行为检测方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5963653A (en) * 1997-06-19 1999-10-05 Raytheon Company Hierarchical information fusion object recognition system and method
CN105787469B (zh) * 2016-03-25 2019-10-18 浩云科技股份有限公司 行人监控和行为识别的方法和系统
US10977818B2 (en) * 2017-05-19 2021-04-13 Manor Financial, Inc. Machine learning based model localization system
US10546197B2 (en) * 2017-09-26 2020-01-28 Ambient AI, Inc. Systems and methods for intelligent and interpretive analysis of video image data using machine learning
CN109003303B (zh) * 2018-06-15 2020-09-29 四川长虹电器股份有限公司 基于语音和空间物体识别及定位的设备控制方法及装置
CN110516720A (zh) * 2019-08-13 2019-11-29 北京三快在线科技有限公司 安全监控设备和安全监控方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104850846A (zh) * 2015-06-02 2015-08-19 深圳大学 一种基于深度神经网络的人体行为识别方法及识别系统
CN106447698A (zh) * 2016-09-28 2017-02-22 深圳市鸿逸达科技有限公司 一种基于距离传感器的多行人跟踪方法和系统
CN107423679A (zh) * 2017-05-31 2017-12-01 深圳市鸿逸达科技有限公司 一种行人意图检测方法和系统
CN109697830A (zh) * 2018-12-21 2019-04-30 山东大学 一种基于目标分布规律的人员异常行为检测方法

Also Published As

Publication number Publication date
CN111723633A (zh) 2020-09-29
WO2021114766A1 (zh) 2021-06-17

Similar Documents

Publication Publication Date Title
CN111723633B (zh) 一种基于深度数据的人员行为模式分析方法和系统
US11232326B2 (en) System and process for detecting, tracking and counting human objects of interest
CN104680555B (zh) 基于视频监控的越界检测方法及越界监控系统
JP2021514548A (ja) 目標対象物の監視方法、装置及びシステム
US9597016B2 (en) Activity analysis, fall detection and risk assessment systems and methods
EP2297701B1 (de) Videoanalyse
US20110115909A1 (en) Method for tracking an object through an environment across multiple cameras
CN109977813A (zh) 一种基于深度学习框架的巡检机器人目标定位方法
CN102306304B (zh) 人脸遮挡物识别方法及其装置
CN107145851A (zh) 建筑作业区危险源智能识别系统
CN104821056A (zh) 基于雷达与视频融合的智能警戒方法
CN111653368A (zh) 一种人工智能疫情大数据防控预警系统
CA2723613A1 (en) System and process for detecting, tracking and counting human objects of interest
EP2728375A1 (de) Verfahren und Vorrichtung zur Bestimmung einer Orientierung eines Objekts
WO2018232846A1 (zh) 一种大范围周边安全监控方法和系统
CN112235537A (zh) 一种变电站现场作业安全预警方法
CN106127814A (zh) 一种智慧金睛识别人员聚集打斗报警方法和装置
CN113269142A (zh) 一种检察领域值班人员睡觉行为识别方法
CN110047092B (zh) 一种复杂环境下多目标实时跟踪方法
CA3196344A1 (en) Rail feature identification system
CN112270807A (zh) 一种老人跌倒预警系统
CN109831634A (zh) 目标对象的密度信息确定方法及装置
CN111753587A (zh) 一种倒地检测方法及装置
CN114170295A (zh) 一种基于混合视觉的高空抛物检测方法及装置
CN109993107A (zh) 一种基于非迭代k均值算法的移动机器人障碍物视觉检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant