CN117994863A - 一种人体行为识别方法及其识别系统 - Google Patents
一种人体行为识别方法及其识别系统 Download PDFInfo
- Publication number
- CN117994863A CN117994863A CN202410396198.3A CN202410396198A CN117994863A CN 117994863 A CN117994863 A CN 117994863A CN 202410396198 A CN202410396198 A CN 202410396198A CN 117994863 A CN117994863 A CN 117994863A
- Authority
- CN
- China
- Prior art keywords
- data
- human behavior
- model
- module
- identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 230000006399 behavior Effects 0.000 claims abstract description 127
- 238000012545 processing Methods 0.000 claims abstract description 38
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 25
- 238000012544 monitoring process Methods 0.000 claims abstract description 25
- 206010000117 Abnormal behaviour Diseases 0.000 claims abstract description 16
- 238000012549 training Methods 0.000 claims description 29
- 238000004140 cleaning Methods 0.000 claims description 19
- 238000004458 analytical method Methods 0.000 claims description 15
- 230000002159 abnormal effect Effects 0.000 claims description 14
- 238000011156 evaluation Methods 0.000 claims description 14
- 238000000605 extraction Methods 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000013145 classification model Methods 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 8
- 238000010801 machine learning Methods 0.000 claims description 8
- 230000007246 mechanism Effects 0.000 claims description 8
- 238000007781 pre-processing Methods 0.000 claims description 8
- 238000007405 data analysis Methods 0.000 claims description 7
- 238000012937 correction Methods 0.000 claims description 6
- 230000002776 aggregation Effects 0.000 claims description 4
- 238000004220 aggregation Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 230000003044 adaptive effect Effects 0.000 abstract description 6
- 238000005516 engineering process Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 4
- 238000000513 principal component analysis Methods 0.000 description 4
- 238000007619 statistical method Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000007621 cluster analysis Methods 0.000 description 2
- 238000002790 cross-validation Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000008713 feedback mechanism Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000007477 logistic regression Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 238000013450 outlier detection Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/602—Providing cryptographic facilities or services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
- G06F21/6254—Protecting personal data, e.g. for financial or medical purposes by anonymising data, e.g. decorrelating personal data from the owner's identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/098—Distributed learning, e.g. federated learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/766—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/44—Event detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/04—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
- G08B21/0407—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
- G08B21/043—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting an emergency event, e.g. a fall
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/04—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
- G08B21/0438—Sensor means for detecting
- G08B21/0476—Cameras to detect unsafe condition, e.g. video cameras
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Bioethics (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Emergency Management (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computer Security & Cryptography (AREA)
- Gerontology & Geriatric Medicine (AREA)
- Computer Hardware Design (AREA)
- Business, Economics & Management (AREA)
- Mathematical Physics (AREA)
- Psychology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Human Computer Interaction (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种人体行为识别方法及其识别系统,本发明通过联邦学习算法训练初始模型,建立预估模型,并实现自适应调节的预估阈值,能够实时采集人体行为数据并进行特征标识,利用预估模型进行判断,并根据结果匹配相应方案,包括预警发出等措施,并进行二次识别,降低了对人体异常行为识别所需的计算量,提高了识别的实时性,确保突发事件的及时发现与处理,且适用场景多样化,有效的提高了监控系统的效率、适用性以及安全性。
Description
技术领域
本发明涉及人体行为监控识别技术领域,尤其涉及一种人体行为识别方法及其识别系统。
背景技术
随着生产生活智能化发展,智能监控的应用越来越多。人体行为识别(HumanBehavior Recognition,HBR)是指通过对人体姿态、动作、表情等生理特征的分析和识别,来推测或判别人的行为、意图、情绪等信息,可以用于看护家中的老年、小孩群体,及时识别老年人摔倒、长时间躺卧静坐,孩童玩火、靠近窗户等行为,及时向监护人发送警报信息,减少家庭损失,以及应用于地铁站和高铁等公共场所。
而传统的人体行为识别系统以及方法,其存在着诸多问题,如在一些场景,特别是人员较多的场景时,其为了保障对人体异常行为识别的精准性,需要对全部人员同时进行精准识别,导致大规模数据需要同时进行实时处理,所需的计算量较大且实时性不高,且应对于不同场景识别时,则适用性欠缺,进而对突发事件的处理效率较低。
因此,有必要提供一种人体行为识别方法及其识别系统解决上述技术问题。
发明内容
为解决上述技术问题,本发明提供一种人体行为识别方法及其识别系统用于解决需要对全部人员同时进行精准识别,导致大规模数据需要同时进行实时处理,所需的计算量较大且实时性不高,且应对于不同场景识别时,则适用性欠缺,进而对突发事件的处理效率较低的问题。
本发明提供的一种人体行为识别方法,所述识别方法包括以下步骤:
S1、基于人体行为数据,使用联邦学习算法训练初始模型;
S2、根据初始模型的历史人体行为特征数据建立预估模型;
S3、根据预估模型,且基于使用场景的不同,设置自适应调节的预估阈值;
S4、实时采集人体行为数据,并输入至初始模型,对人体行为特征进行标识;
S5、获取特征标识数据,输入至预估模型得到预估值,并基于预估阈值对获得的预估值进行判断,获得判断结果;
S6、根据获得的判断结果,匹配相应的方案,具体包括无反馈和反馈发出预警示;
S7、根据反馈发出预警示,锁定人体行为,进行二次识别,最终根据确定的结果再决定是否发出正式警报。
优选的,所述步骤S1具体步骤为:
S1.1、从不同用户或设备中收集人体行为数据,并在本地进行处理和训练;
S1.2、应用联邦学习算法,在各个本地节点上训练初始模型,充分利用各地的数据而无需将其发送至中心服务器。
优选的,所述步骤S2具体步骤:
S2.1、收集大量历史人体行为数据,并进行清洗,具体包括去除异常数据和处理缺失值,以确保数据的质量和完整性;
S2.2、从历史数据中提取相关的人体行为特征,对提取的特征进行转换和降维处理;
S2.3、根据需求选择预测模型,具体包括基于监督学习的分类模型和回归模型,并利用历史数据对模型进行训练;
S2.4、对训练好的模型进行评估以及部署。
优选的,所述步骤S3具体步骤为:
S3.1、针对需要监测的不同场景,进行详细的分析和分类;
S3.2、根据场景分析结果,初步设定各类场景下的预估阈值;
S3.3、对数据进行动态监测;
S3.4、根据动态监测到的数据,结合预估模型输出的结果,通过数据分析和机器学习算法,对预估阈值进行自适应调整。
优选的,所述步骤S4具体步骤包括:
S4.1、利用各类传感器实时采集人体行为数据,确保数据的连续性和完整性;
S4.2、对采集到的数据进行预处理,具体包括去噪、数据清洗以及信号校正;
S4.3、从原始人体行为数据中提取相应的特征并进行数据表示;
S4.4、将经过表示的特征数据输入至初始模型中;
S4.5、初始模型对输入的特征数据进行处理和识别,输出相应的标识结果,以表征当前时刻的人体行为特征。
优选的,所述步骤S7具体包括以下步骤:
S7.1、当初始模型输出预警信号时,系统触发相应的异常检测机制,系统向监控中心发送预警;
S7.2、在收到预警信号后,系统对异常行为所在的区域或人体进行锁定;
S7.3、针对锁定的异常行为区域或人体,系统进行锁定识别;
S7.4、锁定识别后确认了异常行为,系统触发警报机制,向相关人员发送警报通知。
一种人体行为识别系统,所述识别系统包括:
模型聚合与部署模块,用于基于人体行为数据,使用联邦学习算法训练初始模型;
模型训练评估模块,用于根据历史人体行为特征数据建立预估模型;
计算更新模块,用于根据预估模型,且基于使用场景的不同,设置自适应调节的预估阈值;
采集标识模块,用于实时采集人体行为数据,并输入至初始模型,对人体行为特征进行标识;
识别判断模块,用于获取特征标识数据,输入至预估模型得到预估值,并基于预估阈值对获得的预估值进行判断,获得判断结果;
匹配模块,用于根据获得的判断结果,匹配相应的方案,具体包括无反馈和反馈发出预警示;
反馈识别模块,用于根据反馈发出预警示,预估的锁定人体行为,进行二次识别,最终确定后再进行警报。
优选的,所述模型训练评估模块具体包括:
数据清洗模块,用于收集大量历史人体行为数据,并进行清洗,具体包括去除异常数据和处理缺失值,以确保数据的质量和完整性;
提取转换模块,用于从历史数据中提取相关的人体行为特征,对提取的特征进行转换和降维处理;
标定模块,用于根据需求选择预测模型,具体包括基于监督学习的分类模型和回归模型,并利用历史数据对模型进行训练;
评估模块,用于对训练好的模型进行评估以及部署。
优选的,所述计算更新模块具体包括:
分类模块,用于针对需要监测的不同场景,进行详细的分析和分类;
预设模块,用于根据场景分析结果,初步设定各类场景下的预估阈值;
监测模块,用于对数据进行动态监测;
训练模块,用于根据动态监测到的数据,结合预估模型输出的结果,通过数据分析和机器学习算法,对预估阈值进行自适应调整。
优选的,所述采集标识模块具体包括:
数据处理模块,用于对采集到的数据进行预处理,具体包括去噪和数据信号校正;
特征提取模块,用于从原始人体行为数据中提取相应的特征并进行数据表示;
输入模块,用于将经过表示的特征数据输入至初始模型中;
特征处理模块,用于初始模型对输入的特征数据进行处理和识别,输出相应的标识结果,以表征当前时刻的人体行为特征。
与相关技术相比较,本发明提供的一种人体行为识别方法及其识别系统具有如下有益效果:
本发明通过联邦学习算法训练初始模型,建立预估模型,并实现自适应调节的预估阈值,能够实时采集人体行为数据并进行特征标识,利用预估模型进行判断,并根据结果匹配相应方案,包括预警发出等措施,并进行二次识别,降低了对人体异常行为识别所需的计算量,提高了识别的实时性,确保突发事件的及时发现与处理,且适用场景多样化,有效的提高了监控系统的效率、适用性以及安全性。
附图说明
图1为本发明提供的一种人体行为识别方法流程图;
图2为本发明提供的一种人体行为识别方法步骤S1流程图;
图3为本发明提供的一种人体行为识别方法步骤S2流程图;
图4为本发明提供的一种人体行为识别方法步骤S3流程图;
图5为本发明提供的一种人体行为识别方法步骤S4流程图;
图6为本发明提供的一种人体行为识别方法步骤S7流程图;
图7为本发明提供的一种人体行为识别系统的系统框图;
图8为本发明提供的一种人体行为识别系统的模型训练评估模块系统框图;
图9为本发明提供的一种人体行为识别系统的计算更新模块系统框图;
图10为本发明提供的一种人体行为识别系统的采集标识模块系统框图。
具体实施方式
下面结合附图和实施方式对本发明做进一步说明。
实施例一
一种人体行为识别方法,包括以下步骤:S1、基于人体行为数据,使用联邦学习算法训练初始模型。
具体的,采集不同用户或设备上的人体行为数据,并通过联邦学习算法在本地进行训练,同时制定隐私保护方案,以保护用户隐私的同时提高模型的整体性能和泛化能力。
步骤S1具体步骤为:
S1.1、从不同用户或设备中收集人体行为数据,并在本地进行处理和训练。
S1.2、应用联邦学习算法,在各个本地节点上训练初始模型,充分利用各地的数据而无需将其发送至中心服务器,本地节点在结束一轮的训练之后将模型传输到中心服务器。
中心服务器对本地节点传来的模型参数处理。针对不同异构情况的数据,选择合适的联邦学习算法进行多轮聚合。
S2、根据历史人体行为特征数据建立预估模型。
具体的,确定用于建立预估模型的具体算法,实施特征工程,以提取并选择对预测有影响的特征,以优化预估模型的性能。本实施例中,具体采用逻辑回归的具体算法。
步骤S2具体步骤:
S2.1、收集大量历史人体行为数据,并进行清洗,具体包括去除异常数据和处理缺失值,以确保数据的质量和完整性。
具体的,设立数据清洗流程,包括异常值检测和处理,以及缺失值填补策略,确保数据隐私和安全,通过匿名化或加密等手段对敏感信息进行保护。
S2.2、从历史数据中提取相关的人体行为特征,对提取的特征进行转换和降维处理。
具体的,利用空间特征提取方法,如聚类分析或空间分布特征提取,以捕获不同位置的行为规律,使用机器学习技术对运动轨迹进行识别和分析,使用标准化方法对特征进行缩放,确保各个特征在相似的数值范围内,使用主成分分析或其他降维技术减少特征空间的维度并保留最重要的信息。本实施例中具体采用主成分分析降维。本实施例中利用卷积神经网络来提取关键的运动特征。
S2.3、根据需求选择预测模型,具体包括基于监督学习的分类模型和回归模型,并利用历史数据对模型进行训练。
具体的,选取基于监督学习的分类模型和回归模型,且针对不同模型设计交叉验证或其他评估方法,以确认模型的泛化能力和准确性。
S2.4、对训练好的模型进行评估以及部署。
具体的,部署模型至实际环境时,确定模型更新和维护策略,确保模型能够持续有效地服务于实际应用。
S3、根据预估模型,且基于使用场景的不同,设置自适应调节的预估阈值。
具体的,确定不同使用场景下的预估阈值自适应调节策略,设计反馈机制,使系统能够根据实时反馈自动调整阈值,以适应不同环境下的人体行为变化。
步骤S3具体步骤为:
S3.1、针对需要监测的不同场景,进行详细的分析和分类。
具体的,确定各个监测场景的特征和需求,进行数据收集和分析,以了解不同场景下人体行为的规律和特点。本实施例中,确定监测场景为室内、室外以及公园场所。
S3.2、根据场景分析结果,初步设定各类场景下的预估阈值。
具体的,使用统计方法或基于历史数据的分析,确定初始的预估阈值范围,设定不同场景下的特定阈值,以适应不同环境和行为特征。
S3.3、对数据进行动态监测。
具体的,设立实时数据监测系统,确保及时获取传感器、摄像头或其他监测设备采集的数据,实施数据质量监控,以识别并处理异常数据,确保输入模型的准确性。
S3.4、根据动态监测到的数据,结合预估模型输出的结果,通过数据分析和机器学习算法,对预估阈值进行自适应调整。
具体的,利用实时监测数据和模型输出结果,采用反馈控制理论或自适应算法,动态调整预估阈值,并根据参数更新频率、灵敏度等因素辅助自适应调整策略。
S4、实时采集人体行为数据,并输入至初始模型,对人体行为特征进行标识。
具体的,选择合适的数据采集技术和设备,确保对人体行为数据的高效采集和传输,实施数据清洗和预处理,以确保数据保持良好的质量输入至初始模型,对人体行为特征进行标识。
步骤S4具体步骤包括:
S4.1、利用各类传感器实时采集人体行为数据,确保数据的连续性和完整性。
具体的,确定需要使用的传感器类型,如摄像头、红外传感器、加速度计等,以涵盖多种人体行为数据的获取,设置数据采集频率和时间间隔,以充分捕获人体行为的动态变化。
S4.2、对采集到的数据进行预处理,具体包括去噪、数据清洗以及信号校正。
具体的,实施滤波处理以消除传感器数据中的干扰信号,且进行数据清洗,包括异常值检测和处理。
S4.3、从原始人体行为数据中提取相应的特征并进行数据表示。
具体的,应用信号处理技术,以提取频域或时域特征,用计算机视觉技术,对图像或视频数据进行特征提取,以进行数据表示。本实施例中采用小波变换信号处理技术。
S4.4、将经过表示的特征数据输入至初始模型中。
具体的,设定数据输入格式,并确认数据传输和存储的安全性将经过表示的特征数据输入至初始模型。
S4.5、初始模型对输入的特征数据进行处理和识别,输出相应的标识结果,以表征当前时刻的人体行为特征。
具体的,确定模型输出的标识结果格式,以便后续处理和判断,设计模型输出结果的后续利用方式,进行实时响应。
S5、获取特征标识数据,输入至预估模型得到预估值,并基于预估阈值对获得的预估值进行判断,获得判断结果。
具体的,获取特征标识数据,输入至预估模型,可根据实际情况采用基于树的集成模型(如随机森林)中的单颗决策树或梯度提升树(Gradient Boosting Tree)以确定预估值,并设定判断规则,具体包括判断预估值是否大于预估阈值,以将预估值与预估阈值进行比较并做出最终判断,得到获得判断结果,具体实施中,可使用统计方法、监督学习或强化学习等来确定最佳预估阈值的设定。
S6、根据获得的判断结果,匹配相应的方案,具体包括无反馈和反馈发出预警示。
具体的,根据获得的判断结果,若判断预估值大于预估阈值则反馈发出预警示,若判断预估值小于预估阈值则无反馈。
S7、根据反馈发出预警示,锁定人体行为,进行二次识别,最终根据确定的结果再决定是否发出正式警报。
具体的,根据反馈发出预警示,通过摄像设备以及传感器等锁定标记的人体,并对其进行快速二次识别,其中,二次识别具体步骤包括:将锁定标记人体进行人体行为数据采集,并且直接将数据做预处理后输入初始模型中进行识别,通过初始模型判断识别出行为结果,最终确定其行为异常后再进行警报。
步骤S7具体包括以下步骤:
S7.1、当初始模型输出预警信号时,系统触发相应的异常检测机制,系统向监控中心发送预警。
具体的,设立异常检测机制,包括基于规则的检测,且确保异常信号的实时性和准确性。
S7.2、在收到预警信号后,系统对异常行为所在的区域以及人体进行锁定。
具体的,确定锁定策略,包括如何界定异常行为区域并确保准确的人体锁,并使用多种传感器数据协同工作,以提高对异常行为的准确定位和锁定。
S7.3、针对锁定的异常行为区域以及人体,系统进行锁定识别。
具体的,运用计算机视觉技术对锁定区域内的行为进行识别,确认是否存在异常行为,且可以结合深度学习方法,提高对复杂异常行为的准确性和鲁棒性。
S7.4、锁定识别后确认了异常行为,系统触发警报机制,向相关人员发送警报通知。
具体的,设立警报机制,包括选择合适的通知方式,如短信、邮件、电话等方式,确认警报触发后的响应流程,包括如何进行事后分析和处理。
实施例二
一种人体行为识别系统,包括:
模型聚合与部署模块,用于基于人体行为数据,使用联邦学习算法训练初始模型。
模型训练评估模块,用于根据历史人体行为特征数据建立预估模型。
具体的,模型训练评估模块用于确定用于建立预估模型的具体算法,实施特征工程,以提取并选择对预测有影响的特征,以优化预估模型的性能。本实施例中,具体采用逻辑回归的具体算法。
所述模型训练评估模块具体包括:
数据清洗模块,用于收集大量历史人体行为数据,并进行清洗,具体包括去除异常数据和处理缺失值,以确保数据的质量和完整性。
具体的,数据清洗模块用于设立数据清洗流程,包括异常值检测和处理,以及缺失值填补策略,确保数据隐私和安全,通过匿名化或加密等手段对敏感信息进行保护。
提取转换模块,用于从历史数据中提取相关的人体行为特征,对提取的特征进行转换和降维处理。
具体的,提取转换模块用于利用空间特征提取方法,如聚类分析或空间分布特征提取,以捕获不同位置的行为规律,使用机器学习技术对运动轨迹进行识别和分析,使用标准化方法对特征进行缩放,确保各个特征在相似的数值范围内,使用主成分分析或其他降维技术减少特征空间的维度并保留最重要的信息。本实施例中具体采用主成分分析降维。
标定模块,用于根据需求选择预测模型,具体包括基于监督学习的分类模型和回归模型,并利用历史数据对模型进行训练。
具体的,标定模块用于选取基于监督学习的分类模型和回归模型,且针对不同模型设计交叉验证或其他评估方法,以确认模型的泛化能力和准确性。
评估模块,用于对训练好的模型进行评估以及部署。
具体的,评估模块用于部署模型至实际环境时,确定模型更新和维护策略,确保模型能够持续有效地服务于实际应用。
计算更新模块,用于根据预估模型,且基于使用场景的不同,设置自适应调节的预估阈值。
具体的,计算更新模块用于确定不同使用场景下的预估阈值自适应调节策略,设计反馈机制,使系统能够根据实时反馈自动调整阈值,以适应不同环境下的人体行为变化。
计算更新模块具体包括:
分类模块,用于针对需要监测的不同场景,进行详细的分析和分类。
具体的,分类模块用于确定各个监测场景的特征和需求,进行数据收集和分析,以了解不同场景下人体行为的规律和特点。本实施例中,确定监测场景为室内、室外以及公园场所。
预设模块,用于根据场景分析结果,初步设定各类场景下的预估阈值。
具体的,预设模块用于使用统计方法或基于历史数据的分析,确定初始的预估阈值范围,设定不同场景下的特定阈值,以适应不同环境和行为特征。
监测模块,用于对数据进行动态监测。
具体的,设立实时数据监测系统,确保及时获取传感器、摄像头或其他监测设备采集的数据,实施数据质量监控,以识别并处理异常数据,确保输入模型的准确性。
训练模块,用于根据动态监测到的数据,结合预估模型输出的结果,通过数据分析和机器学习算法,对预估阈值进行自适应调整。
具体的,训练模块用于利用实时监测数据和模型输出结果,采用反馈控制理论或自适应算法,动态调整预估阈值,并根据参数更新频率、灵敏度等因素辅助自适应调整策略。
采集标识模块,用于实时采集人体行为数据,并输入至初始模型,对人体行为特征进行标识。
具体的,采集标识模块用于选择合适的数据采集技术和设备,确保对人体行为数据的高效采集和传输,实施数据清洗和预处理,以确保数据保持良好的质量输入至初始模型,对人体行为特征进行标识。
采集标识模块具体包括:
数据处理模块,用于对采集到的数据进行预处理,具体包括去噪和数据信号校正。
具体的,数据处理模块用于实施滤波处理以消除传感器数据中的干扰信号,且进行数据清洗,包括异常值检测和处理。
特征提取模块,用于从原始人体行为数据中提取相应的特征并进行数据表示。
具体的,特征提取模块用于应用信号处理技术,以提取频域或时域特征,用计算机视觉技术,对图像或视频数据进行特征提取,以进行数据表示。本实施例中采用小波变换信号处理技术。
输入模块,用于将经过表示的特征数据输入至初始模型中。
具体的,输入模块用于设定数据输入格式,并确认数据传输和存储的安全性将经过表示的特征数据输入至初始模型。
特征处理模块,用于初始模型对输入的特征数据进行处理和识别,输出相应的标识结果,以表征当前时刻的人体行为特征。
识别判断模块,用于获取特征标识数据,输入至预估模型得到预估值,并基于预估阈值对获得的预估值进行判断,获得判断结果。
具体的,识别判断模块用于确定模型输出的标识结果格式,以便后续处理和判断,设计模型输出结果的后续利用方式,进行实时响应得到判断结果。
匹配模块,用于根据获得的判断结果,匹配相应的方案,具体包括无反馈和反馈发出预警示。
反馈识别模块,用于根据反馈发出预警示,预估的锁定人体行为,进行二次识别,最终确定后再进行警报。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。
Claims (10)
1.一种人体行为识别方法,其特征在于,所述识别方法包括以下步骤:
S1、基于人体行为数据,使用联邦学习算法训练初始模型;
S2、基于初始模型的历史人体行为特征数据建立预估模型;
S3、根据预估模型,且基于使用场景的不同,设置自适应调节的预估阈值;
S4、实时采集人体行为数据,并输入至初始模型,对人体行为特征进行标识;
S5、获取特征标识数据,输入至预估模型得到预估值,并基于预估阈值对获得的预估值进行判断,获得判断结果;
S6、根据获得的判断结果,匹配相应的方案,具体包括无反馈和反馈发出预警示;
S7、根据反馈发出预警示,锁定人体行为,进行二次识别,最终根据确定的结果再决定是否发出正式警报。
2.根据权利要求1所述的一种人体行为识别方法,其特征在于,所述步骤S1具体包括以下步骤:
S1.1、从不同用户以及设备中收集人体行为数据,并在本地进行处理和训练;
S1.2、应用联邦学习算法,在各个本地节点上训练初始模型,充分利用各地的数据而无需将其发送至中心服务器。
3.根据权利要求1所述的一种人体行为识别方法,其特征在于,所述步骤S2具体包括以下步骤:
S2.1、收集初始模型大量历史人体行为数据,并进行清洗,具体包括去除异常数据和处理缺失值,以确保数据的质量和完整性;
S2.2、从初始模型的历史数据中提取相关的人体行为特征,对提取的特征进行转换和降维处理;
S2.3、根据需求选择预测模型,具体包括基于监督学习的分类模型和回归模型,并利用历史数据对模型进行训练;
S2.4、对训练好的模型进行评估以及部署。
4.根据权利要求1所述的一种人体行为识别方法,其特征在于,所述步骤S3具体包括以下步骤:
S3.1、针对需要监测的不同场景,进行详细的分析和分类;
S3.2、根据场景分析结果,初步设定各类场景下的预估阈值;
S3.3、对数据进行动态监测;
S3.4、根据动态监测到的数据,结合预估模型输出的结果,通过数据分析和机器学习算法,对预估阈值进行自适应调整。
5.根据权利要求1所述的一种人体行为识别方法,其特征在于,所述步骤S4具体包括以下步骤:
S4.1、利用各类传感器实时采集人体行为数据,确保数据的连续性和完整性;
S4.2、对采集到的数据进行预处理,具体包括去噪、数据清洗以及信号校正;
S4.3、从原始人体行为数据中提取相应的特征并进行数据表示;
S4.4、将经过表示的特征数据输入至初始模型中;
S4.5、初始模型对输入的特征数据进行处理和识别,输出相应的标识结果,以表征当前时刻的人体行为特征。
6.根据权利要求1所述的一种人体行为识别方法,其特征在于,所述步骤S7具体包括以下步骤:
S7.1、当初始模型输出预警信号时,系统触发相应的异常检测机制,系统向监控中心发送预警;
S7.2、在收到预警信号后,系统对异常行为所在的区域以及人体进行锁定;
S7.3、针对锁定的异常行为区域以及人体,系统进行锁定识别;
S7.4、锁定识别后确认了异常行为,系统触发警报机制,向相关人员发送警报通知。
7.一种人体行为识别系统,其特征在于,所述识别系统包括:
模型聚合与部署模块,用于基于人体行为数据,使用联邦学习算法训练初始模型;
模型训练评估模块,用于根据历史人体行为特征数据建立预估模型;
计算更新模块,用于根据预估模型,且基于使用场景的不同,设置自适应调节的预估阈值;
采集标识模块,用于实时采集人体行为数据,并输入至初始模型,对人体行为特征进行标识;
识别判断模块,用于获取特征标识数据,输入至预估模型得到预估值,并基于预估阈值对获得的预估值进行判断,获得判断结果;
匹配模块,用于根据获得的判断结果,匹配相应的方案,具体包括无反馈和反馈发出预警示;
反馈识别模块,用于根据反馈发出预警示,预估的锁定人体行为,进行二次识别,最终确定后再进行警报。
8.根据权利要求7所述的一种人体行为识别系统,其特征在于,所述模型训练评估模块具体包括:
数据清洗模块,用于收集大量历史人体行为数据,并进行清洗,具体包括去除异常数据和处理缺失值,以确保数据的质量和完整性;
提取转换模块,用于从历史数据中提取相关的人体行为特征,对提取的特征进行转换和降维处理;
标定模块,用于根据需求选择预测模型,具体包括基于监督学习的分类模型和回归模型,并利用历史数据对模型进行训练;
评估模块,用于对训练好的模型进行评估以及部署。
9.根据权利要求7所述的一种人体行为识别系统,其特征在于,所述计算更新模块具体包括:
分类模块,用于针对需要监测的不同场景,进行详细的分析和分类;
预设模块,用于根据场景分析结果,初步设定各类场景下的预估阈值;
监测模块,用于对数据进行动态监测;
训练模块,用于根据动态监测到的数据,结合预估模型输出的结果,通过数据分析和机器学习算法,对预估阈值进行自适应调整。
10.根据权利要求7所述的一种人体行为识别系统,其特征在于,所述采集标识模块具体包括:
数据处理模块,用于对采集到的数据进行预处理,具体包括去噪和数据信号校正;
特征提取模块,用于从原始人体行为数据中提取相应的特征并进行数据表示;
输入模块,用于将经过表示的特征数据输入至初始模型中;
特征处理模块,用于初始模型对输入的特征数据进行处理和识别,输出相应的标识结果,以表征当前时刻的人体行为特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410396198.3A CN117994863B (zh) | 2024-04-03 | 2024-04-03 | 一种人体行为识别方法及其识别系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410396198.3A CN117994863B (zh) | 2024-04-03 | 2024-04-03 | 一种人体行为识别方法及其识别系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117994863A true CN117994863A (zh) | 2024-05-07 |
CN117994863B CN117994863B (zh) | 2024-06-11 |
Family
ID=90893577
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410396198.3A Active CN117994863B (zh) | 2024-04-03 | 2024-04-03 | 一种人体行为识别方法及其识别系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117994863B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118471554A (zh) * | 2024-07-15 | 2024-08-09 | 吉林大学 | 一种身体数据采集系统及方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017156835A1 (zh) * | 2016-03-18 | 2017-09-21 | 深圳大学 | 健身姿势识别、评估、预警和强度估算的智能方法及系统 |
US20220051437A1 (en) * | 2020-08-17 | 2022-02-17 | Northeastern University | 3D Human Pose Estimation System |
CN116259109A (zh) * | 2023-04-04 | 2023-06-13 | 西南交通大学唐山研究院 | 基于生成式自监督学习和对比学习的人体行为识别方法 |
CN117574361A (zh) * | 2023-12-12 | 2024-02-20 | 广州新华学院 | 基于人工智能的计算机安全管理系统及方法 |
CN117749995A (zh) * | 2023-12-22 | 2024-03-22 | 深圳市智安天下科技有限公司 | 一种基于多场景识别与语音交互的视频监控方法及系统 |
-
2024
- 2024-04-03 CN CN202410396198.3A patent/CN117994863B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017156835A1 (zh) * | 2016-03-18 | 2017-09-21 | 深圳大学 | 健身姿势识别、评估、预警和强度估算的智能方法及系统 |
US20220051437A1 (en) * | 2020-08-17 | 2022-02-17 | Northeastern University | 3D Human Pose Estimation System |
CN116259109A (zh) * | 2023-04-04 | 2023-06-13 | 西南交通大学唐山研究院 | 基于生成式自监督学习和对比学习的人体行为识别方法 |
CN117574361A (zh) * | 2023-12-12 | 2024-02-20 | 广州新华学院 | 基于人工智能的计算机安全管理系统及方法 |
CN117749995A (zh) * | 2023-12-22 | 2024-03-22 | 深圳市智安天下科技有限公司 | 一种基于多场景识别与语音交互的视频监控方法及系统 |
Non-Patent Citations (2)
Title |
---|
张延安;王宏玉;徐方;: "基于深度卷积神经网络与中心损失的人脸识别", 科学技术与工程, no. 35, 18 December 2017 (2017-12-18) * |
王阳阳;: "基于虚拟现实的三维建模技术探析", 数字技术与应用, no. 07, 15 July 2017 (2017-07-15) * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118471554A (zh) * | 2024-07-15 | 2024-08-09 | 吉林大学 | 一种身体数据采集系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN117994863B (zh) | 2024-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN117994863B (zh) | 一种人体行为识别方法及其识别系统 | |
KR101748121B1 (ko) | 객체 인지 기반의 실시간 영상 검지 시스템 및 그 방법 | |
JP2018173914A (ja) | 画像処理システム、撮像装置、学習モデル作成方法、情報処理装置 | |
CN112183265A (zh) | 基于图像识别的电力施工视频监控告警方法及系统 | |
CN110674761B (zh) | 一种区域行为预警方法及系统 | |
CN108776452B (zh) | 一种特种设备现场维保监控方法及系统 | |
KR20200017594A (ko) | 딥 러닝과 멀티 에이전트를 활용한 대규모 개체 식별 및 추적 방법 | |
CN112861826B (zh) | 基于视频图像的煤矿监管方法、系统、设备及存储介质 | |
CN115984767A (zh) | 一种基于监控画面实时分析的异常预警方法及系统 | |
CN112419650A (zh) | 基于神经网络与图像识别技术的火灾探测方法及系统 | |
CN118247713B (zh) | 一种应急管理区域入侵检测方法 | |
CN115620471A (zh) | 一种基于大数据筛查的图像识别安防系统 | |
CN114023399A (zh) | 一种基于人工智能的空气颗粒物分析预警方法和装置 | |
CN118071159B (zh) | 一种基于gpt的智慧园区安全应急管理系统及方法 | |
CN104574729B (zh) | 一种报警方法、装置及系统 | |
CN118042084A (zh) | 一种智能监控校验系统 | |
CN117671887A (zh) | 一种基于大数据的智慧安防预警管理方法和系统 | |
CN116912744B (zh) | 基于物联网的智能监控系统及其方法 | |
CN111339970B (zh) | 一种适用于公共环境下的吸烟行为检测方法 | |
CN112435240A (zh) | 一种面向工人违规使用手机的深度视觉手机检测系统 | |
CN106899828A (zh) | 智能监舍系统及方法 | |
Hu et al. | Development of the real-time evaluation and decision support system for incident management | |
CN113158888A (zh) | 一种电梯异常视频识别方法 | |
CN116822929A (zh) | 一种告警方法、装置、电子设备及存储介质 | |
CN117033913A (zh) | 基于电力设备画像的异常检测方法及设备、存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |