CN115100739B - 人机行为检测方法、系统、终端设备及存储介质 - Google Patents
人机行为检测方法、系统、终端设备及存储介质 Download PDFInfo
- Publication number
- CN115100739B CN115100739B CN202210648574.4A CN202210648574A CN115100739B CN 115100739 B CN115100739 B CN 115100739B CN 202210648574 A CN202210648574 A CN 202210648574A CN 115100739 B CN115100739 B CN 115100739B
- Authority
- CN
- China
- Prior art keywords
- data
- behavior
- scene
- time window
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Testing Or Calibration Of Command Recording Devices (AREA)
Abstract
本发明提供了一种人机行为检测方法、系统、终端设备及存储介质,该方法包括:对移动终端的传感数据和行为场景数据分别进行行为标记;根据行为标记后的传感数据和行为场景数据构建样本集,对样本集进行异常特征检测和数据筛选,根据数据筛选后的样本集对人机行为检测模型进行模型训练,直至人机行为检测模型收敛;将待检测数据输入收敛后的人机行为检测模型进行行为检测,得到人机行为检测结果,人机检测结果包括行为概率和场景概率。本发明基于携带多个标签任务的样本集训练后的检测模型,能有效地对待检测数据进行行为检测和场景检测,提高了人机行为检测效率。
Description
技术领域
本发明涉及数据处理技术领域,尤其涉及一种人机行为检测方法、系统、终端设备及存储介质。
背景技术
随着机器模拟人类行为的手段日趋灵活,移动端人机检测及场景检测技术越发重要,机器模拟人类行为最开始从简单的脚本与工具,到具备解析能力的工具,再到脚本驱动的手机模拟器,再到录屏重放攻击等,隐蔽性逐渐提高,恶意用户能够结合手机群控批量模拟正常用户输入,从而绕过现有人机检测系统的规则,因此,人机行为检测方法越来越受人们所重视。
现有的人机行为检测过程中,一般是将行为检测与场景检测分别进行建模,并根据建立的模型分别对待检测数据进行行为检测和场景检测,得到人机检测结果,但由于将行为与场景单独建模所消耗的资源较多,且需要分别优化多个模型,导致人机行为检测效率较低。
发明内容
本发明实施例的目的在于提供一种人机行为检测方法、系统、终端设备及存储介质,旨在解决现有的人机行为检测效率较低的问题。
本发明实施例是这样实现的,一种人机行为检测方法,所述方法包括:
获取移动终端的传感数据和行为场景数据,并对所述传感数据和所述行为场景数据分别进行行为标记;
根据行为标记后的所述传感数据和所述行为场景数据构建样本集,并对所述样本集进行异常特征检测;
根据异常特征检测结果对所述样本集进行数据筛选,并根据数据筛选后的所述样本集对预存储的人机行为检测模型进行模型训练,直至所述人机行为检测模型收敛;
将待检测数据输入收敛后的所述人机行为检测模型进行行为检测,得到人机行为检测结果,所述人机检测结果包括行为概率和场景概率。
更进一步的,所述对所述传感数据和所述行为场景数据分别进行行为标记,包括:
根据预设时长分别对所述传感数据和所述行为场景数据进行分段,得到传感分段数据和场景分段数据;
根据第一标签对所述传感分段数据中存在打字行为的数据进行行为标记,并根据第二标签对所述传感分段数据中未存在打字行为的数据进行行为标记;
分别确定各场景分段数据的行为场景,并根据确定到的所述行为场景进行标签查询,得到场景行为标签;
根据所述场景行为标签对对应所述场景分段数据进行行为标记。
更进一步的,所述对所述样本集进行异常特征检测,包括:
分别对所述样本集中的各样本数据进行时间窗分割,得到传感时间窗数据和场景时间窗数据,所述样本数据包括行为标记后的所述传感数据和对应行为标记后的所述行为场景数据;
分别计算各传感时间窗数据和各场景时间窗数据中的时间窗特征,并根据所述时间窗特征确定异常特征范围;
根据所述异常特征范围确定所述传感时间窗数据和所述场景时间窗数据中的异常数据,并针对各样本数据,分别查询每条数据中异常数据的数量,得到异常数量。
更进一步的,所述将待检测数据输入收敛后的所述人机行为检测模型进行行为检测,包括:
对所述待检测数据进行时间窗分割,得到待检测时间窗数据,并将所述待检测时间窗数据输入收敛后的所述人机行为检测模型进行打字检测和场景识别;
根据各待检测时间窗数据的打字检测和场景识别结果,构建所述待检测数据的打字检测序列和场景检测序列,并根据所述打字检测序列和场景检测序列,确定所述待检测数据的打字概率和与各预设场景之间的场景概率;
根据所述打字概率和所述场景概率生成所述人机行为检测结果。
更进一步的,所述根据所述时间窗特征确定异常特征范围,包括:
根据所述时间窗特征分别计算所述传感时间窗数据和所述场景时间窗数据的特征标准差;
根据所述传感时间窗数据和所述场景时间窗数据的特征标准差,分别计算三倍标准差;
根据所述三倍标准差分别确定所述传感时间窗数据和所述场景时间窗数据的异常特征范围,得到传感异常范围和场景异常范围;
所述根据所述异常特征范围确定所述传感时间窗数据和所述场景时间窗数据中的异常数据,包括:
若任一所述传感时间窗数据的时间窗特征未处于所述传感异常范围,则将所述传感时间窗数据确定为所述异常数据;
若任一所述场景时间窗数据的时间窗特征未处于所述场景异常范围,则将所述场景时间窗数据确定为所述异常数据。
更进一步的,所述根据异常特征检测结果对所述样本集进行数据筛选,包括:
若任一所述样本数据的异常数量大于数量阈值,则删除所述样本数据;或
分别获取各样本数据中时间窗数据的个数,得到时间窗数量;
针对各样本数据,根据所述时间窗数量和所述异常数量确定异常数据比例;
若任一所述样本数据的异常数据比例大于比例阈值,则删除所述样本数据。
更进一步的,所述根据数据筛选后的所述样本集对预存储的人机行为检测模型进行模型训练,直至所述人机行为检测模型收敛,包括:
将数据筛选后的所述样本集输入所述人机行为检测模型,并根据所述检测模型分别对所述样本集中的传感数据和行为场景数据进行打字行为预测和行为场景预测,得到行为预测结果;
根据所述行为预测结果和所述样本集中各样本数据上的行为标记进行损失计算,得到模型损失值;
根据所述模型损失值对所述人机行为检测模型进行参数更新,直至所述模型损失值小于损失阈值和/或所述模型损失值的迭代次数大于迭代阈值,则判定所述检测模型收敛。
本发明实施例的另一目的在于提供一种人机行为检测系统,所述系统包括:
行为标记单元,用于获取移动终端的传感数据和行为场景数据,并对所述传感数据和所述行为场景数据分别进行行为标记;
异常检测单元,用于根据行为标记后的所述传感数据和所述行为场景数据构建样本集,并对所述样本集进行异常特征检测;
模型训练单元,用于根据异常特征检测结果对所述样本集进行数据筛选,并根据数据筛选后的所述样本集对预存储的人机行为检测模型进行模型训练,直至所述人机行为检测模型收敛;
行为检测单元,用于将待检测数据输入收敛后的所述人机行为检测模型进行行为检测,得到人机行为检测结果,所述人机检测结果包括行为概率和场景概率。
本发明实施例的另一目的在于提供一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述方法的步骤。
本发明实施例的另一目的在于提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述方法的步骤。
本发明实施例,通过对传感数据和行为场景数据分别进行行为标记,能有效地在构建后的样本集中设置多个标签任务,基于携带多个标签任务的样本集训练后的检测模型,能有效地对待检测数据进行行为检测和场景检测,提高了人机行为检测效率,无需设置多个模型进行人机行为检测,降低了资源消耗,通过对样本集进行异常特征检测,能有效地确定到样本集中的异常数据,并通过异常特征检测结果对样本集进行数据筛选,提高了样本集中数据的准确性。
附图说明
图1是本发明第一实施例提供的人机行为检测方法的流程图;
图2是本发明第二实施例提供的人机行为检测方法的流程图;
图3是本发明第三实施例提供的人机行为检测系统的结构示意图;
图4是本发明第四实施例提供的终端设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
为了说明本发明所述的技术方案,下面通过具体实施例来进行说明。
实施例一
请参阅图1,是本发明第一实施例提供的人机行为检测方法的流程图,该人机行为检测方法可以应用于任一终端设备或系统,该人机行为检测方法包括步骤:
步骤S10,获取移动终端的传感数据和行为场景数据,并对所述传感数据和所述行为场景数据分别进行行为标记;
其中,该移动终端可以根据需求进行设置,例如,该移动终端可以为手机、平板或可穿戴设备等,本实施例中的移动终端为手机,在移动终端中设置有传感器,该传感器用于采集移动终端的传感数据和行为场景数据,该传感器主要关注于线加速度计和陀螺仪,传感器在采集数据前需要设置采样频率,该采样频率可以根据需求进行设置,例如采样频率可以设置为50Hz、100Hz等。
该步骤中,传感数据和行为场景数据为两类任务,针对传感数据的任务为识别是否存在打字行为,对场景数据的任务为识别移动终端当前所处环境的场景,该打字行为指的是在移动终端的软键盘上是否具有打字动作,在对传感数据时,将有打字动作的标记为1,没有打字动作的标记为0。识别移动终端当前所处环境的场景,指的是用户整体处于何种行为状态之下,例如处于行走、上楼、下楼、乘坐公共交通工具、乘坐私家车、站立、躺等,通过记录所有待检测行为后,对其进行独热编码用于标识每类行为场景,该步骤中,通过对传感数据和行为场景数据分别进行行为标记,能有效地在后续构建后的样本集中设置多个标签任务。
可选的,该步骤中,所述对所述传感数据和所述行为场景数据分别进行行为标记,包括:
根据预设时长分别对所述传感数据和所述行为场景数据进行分段,得到传感分段数据和场景分段数据;
其中,该预设时长可以根据需求进行设置,例如,该预设时长可以设置为0.2秒或0.5秒等;
根据第一标签对所述传感分段数据中存在打字行为的数据进行行为标记,并根据第二标签对所述传感分段数据中未存在打字行为的数据进行行为标记;
其中,第一标签和第二标签均可以根据用户需求进行设置,该步骤中,将传感分段数据中存在打字行为的数据标记为1,将未存在打字行为的数据标记为0;
分别确定各场景分段数据的行为场景,并根据确定到的所述行为场景进行标签查询,得到场景行为标签;
本实施例中,可以采用人工标记的方式以确定各行为场景对应的场景行为标签,采集到的场景行为包括行走、上楼、下楼、乘坐公共交通工具等,比如在行走时还会分为打字与不打字两种状态进行采集,对采集到的场景行为进行分段,并对分段后的场景行为分别标记单独的标签,并根据标记得到的标签确定各场景分段数据的行为场景,针对行走场景采集完就有“行走-打字”和“行走-不打字”两类数据,针对不同场景,会得到每个场景下的两类数据,会对打字做01的标签,对行走、上楼、下楼、乘坐公共交通工具等会进行独热编码,独热编码例如:
行走:[0 0 0 0 0 0 0 1]上楼:[0 0 0 0 0 0 1 0],位数为场景行为个数,对于每个场景在不同的位数上标记为1。
根据所述场景行为标签对对应所述场景分段数据进行行为标记;
该步骤中,各场景分段数据上携带的标签为“打字的标签+场景独热编码的标签”,例如“打字+行走”为[1 0 0 0 0 0 0 0 1];步骤S20,根据行为标记后的所述传感数据和所述行为场景数据构建样本集,并对所述样本集进行异常特征检测;
其中,通过行为标记后的传感数据和行为场景数据构建样本集,为后续人机行为检测模型的训练提供了数据基础,通过对样本集进行异常特征检测,能有效地确定到样本集中的异常数据;
可选的,该步骤中,所述对所述样本集进行异常特征检测,包括:
分别对所述样本集中的各样本数据进行时间窗分割,得到传感时间窗数据和场景时间窗数据;
其中,样本数据包括行为标记后的传感数据和对应行为标记后的行为场景数据,同一个样本数据中的传感数据和行为场景数据之间的时间戳相同,即,将相同时间段内的传感数据和行为场景数据构建为一个样本数据,该步骤中,时间窗分割所设置的时间窗时长可以根据需求进行设置,例如,该时间窗时长可以设置为0.2秒、0.3秒或0.5秒等;
分别计算各传感时间窗数据和各场景时间窗数据中的时间窗特征,并根据所述时间窗特征确定异常特征范围;
根据所述异常特征范围确定所述传感时间窗数据和所述场景时间窗数据中的异常数据,并针对各样本数据,分别查询每条数据中异常数据的数量,得到异常数量;
其中,计算每个时间窗数据的统计学方面的特征(时间窗特征),例如最小值、最大值、平均值、方差、中位数等,或是加入一些特征工程相关的特征,该步骤中,可以选用三倍标准差法、平均绝对误差等方法进行时间窗数据中异常数据的确认,基于时间窗数据中确认到的异常数据,能有效地查询到各样本数据中的异常数量;
进一步地,该步骤中,所述根据所述时间窗特征确定异常特征范围,包括:
根据所述时间窗特征分别计算所述传感时间窗数据和所述场景时间窗数据的特征标准差;
根据所述传感时间窗数据和所述场景时间窗数据的特征标准差,分别计算三倍标准差;
根据所述三倍标准差分别确定所述传感时间窗数据和所述场景时间窗数据的异常特征范围,得到传感异常范围和场景异常范围;
其中,根据两类任务分别计算各时间窗数据的特征均值、特征标准差,根据两类任务得出特征标准差和三倍标准差,分别确定传感异常范围和场景异常范围。
更进一步地,所述根据所述异常特征范围确定所述传感时间窗数据和所述场景时间窗数据中的异常数据,包括:
若任一所述传感时间窗数据的时间窗特征未处于所述传感异常范围,则将所述传感时间窗数据确定为所述异常数据;
若任一所述场景时间窗数据的时间窗特征未处于所述场景异常范围,则将所述场景时间窗数据确定为所述异常数据;
其中,针对各时间窗数据可以分别查询其在两类任务中不同的统计量上是否超出了三倍标准差的合理范围,若是超出的在该统计量上可标记为异常数据;
步骤S30,根据异常特征检测结果对所述样本集进行数据筛选,并根据数据筛选后的所述样本集对预存储的人机行为检测模型进行模型训练,直至所述人机行为检测模型收敛;
其中,通过异常特征检测结果对样本集进行数据筛选,提高了样本集中数据的准确性,当完成样本集的数据筛选后,可以使用平滑滤波、中位值滤波、平均滤波、卡尔曼滤波等场景的降噪方法对样本集进行降噪,进而能进一步地提高样本集中护数据的准确性;
该步骤中,人机行为检测模的构建采用基于深度学习的多标签方法,采用的深度学习方法主要涉及时间序列方面的模型,例如LSTM、wavenet、transformer时序模型等方法。本实施例的最优实践为wavenet网络模型,wavenet网络模型能够设计更深的卷积层、更大的卷积核、更大的膨胀因子系数及更多的卷积数量,能够更好的提取信号数据不同周期下的高阶特征。
将数据筛选后的样本集输入wavenet网络模型中,由于采用的多标签方式,对同一输入具有两种预测结果,第一类结果是打字动作识别,第二类结果是场景识别,其中,打字动作识别是一个二分类任务,场景识别是一个多分类任务,本实施例采用的多标签方法是将两类任务的标签拼接为同一个输出,既将两组onehot目标进行拼接,在深度学习模型输出层输出为拼接维度,替换多分类softmax激活函数为sigmoid函数,损失函数由多分类损失函数替换为二分类损失函数,既关注于拼接维度上每一位的预测准确率,从而达到单模型在多标签多任务上的预测。可选的,该步骤中,所述根据异常特征检测结果对所述样本集进行数据筛选,包括:
若任一所述样本数据的异常数量大于数量阈值,则删除所述样本数据;或
分别获取各样本数据中时间窗数据的个数,得到时间窗数量,针对各样本数据,根据所述时间窗数量和所述异常数量确定异常数据比例;
若任一所述样本数据的异常数据比例大于比例阈值,则删除所述样本数据;其中,该数量阈值和比例阈值均可以根据需求进行设置;
进一步地,该步骤中,所述根据数据筛选后的所述样本集对预存储的人机行为检测模型进行模型训练,直至所述人机行为检测模型收敛,包括:
将数据筛选后的所述样本集输入所述人机行为检测模型,并根据所述检测模型分别对所述样本集中的传感数据和行为场景数据进行打字行为预测和行为场景预测,得到行为预测结果;
根据所述行为预测结果和所述样本集中各样本数据上的行为标记进行损失计算,得到模型损失值,根据所述模型损失值对所述人机行为检测模型进行参数更新,直至所述模型损失值小于损失阈值和/或所述模型损失值的迭代次数大于迭代阈值,则判定所述检测模型收敛;其中,该损失阈值和迭代次数均可以根据需求进行设置;
步骤S40,将待检测数据输入收敛后的所述人机行为检测模型进行行为检测,得到人机行为检测结果;
其中,该人机检测结果包括行为概率和场景概率,该人机行为检测结果用于表征待检测数据是否存在伪造数据的现象,即,该人机行为检测结果用于判定待检测数据是否是真实数据,本实施例中,在模型构建时,采用了多标签多任务方式将打字行为检测与场景行为检测结合起来。在实际判别过程中,仅需要经过一个模型就能够单独得出打字行为概率与场景行为每种行为的单独概率,可单独考察打字行为与场景行为的概率分布,后续能够进行更加精细化的控制,采用多标签的方式构建模型准确率较高,在自有的几十万数据上面准确率、精确率等指标在测试集上均能够达到90%以上。场景动作与手部操作识别的联合判断能够增强人机识别的效果,普遍机器脚本能够模仿手部动作,但对于场景数据模仿缺乏相关能力。相较于多分类方式,多标签的构建形式极大较少了判别类别,如果采用多分类构建打字与场景行为检测模型预测目标为2*场景数,在样本的利用及目标的输出上多标签更具优势。
该步骤中,人机行为检测模型输出时,模型对待检测数据进行人机行为检测后会变成每一位标签的概率,例如,[0.9 0.1 0.2 0.15 0.3 0.1 0.3 0.05 0.9];
人机行为检测模型训练时,会将[0.9 0.1 0.2 0.15 0.3 0.1 0.3 0.05 0.9]中的打字标签和场景行为的标签进行拆分,打字的使用二分类损失,场景行为使用多分类损失进行损失函数计算。
人机行为检测模型对标签进行拆分后得到:
[0.9][0.1 0.2 0.15 0.3 0.1 0.3 0.05 0.9]
对于[0.9],由于其概率>0.5,因此最终得到的标签为1,为打字;
[0.1 0.2 0.15 0.3 0.1 0.3 0.05 0.9],其最大的为第1位,取该位为1,其它位数为0,经过独热编码映射得到最终的场景行为为行走;
针对[0.1 0.2 0.15 0.3 0.1 0.3 0.05 0.9]这一串场景行为概率也可以有其它处理,虽然在训练时采用多分类函数进行优化,但是因为每一位是采用sigmoid激活,实际上每一位的概率可以看成是独立的,因此可能存在多个场景行为概率模型的输出概率都小于或者都大于0.5;
比如[0.1 0.9 0.15 0.3 0.1 0.3 0.05 0.9](场景行为内概率有两个大于0.9)或
[0.1 0.1 0.15 0.3 0.1 0.3 0.05 0.1](场景行为内概率全部小于0.5)。
若用于预测的场景可能没有包含在训练的场景内,由于训练时的场景包含了一般的多数场景行为,因此,若出现上述特殊情况可以认为是一种罕见场景行为事件,风险是较高的,可以设置为检验不通过。
针对场景跟打字概率也可以卡不同的阈值,在判别概率较高的情况下才允许人机校验通过,比如在打字概率高于0.8且场景行为仅有一个大于0.5且大于0.5的场景概率要大于0.8的情况下,才能认为是通过人机校验。
本实施例,通过对传感数据和行为场景数据分别进行行为标记,能有效地在构建后的样本集中设置多个标签任务,基于携带多个标签任务的样本集训练后的检测模型,能有效地对待检测数据进行行为检测和场景检测,提高了人机行为检测效率,无需设置多个模型进行人机行为检测,降低了资源消耗,通过对样本集进行异常特征检测,能有效地确定到样本集中的异常数据,并通过异常特征检测结果对样本集进行数据筛选,提高了样本集中数据的准确性。
实施例二
请参阅图2,是本发明第二实施例提供的人机行为检测方法的流程图,该实施例用于对步骤S40的步骤作进一步细化,包括步骤:
步骤S41,对所述待检测数据进行时间窗分割,得到待检测时间窗数据,并将所述待检测时间窗数据输入收敛后的所述人机行为检测模型进行打字检测和场景识别;
其中,通过对待检测数据进行时间窗分割,方便了后续对各待检测时间窗数据的打字检测和场景识别,通过将待检测时间窗数据输入收敛后的人机行为检测模型进行打字检测和场景识别,能有效地对待检测数据进行打字行为的预测和场景的预测;
步骤S42,根据各待检测时间窗数据的打字检测和场景识别结果,构建所述待检测数据的打字检测序列和场景检测序列,并根据所述打字检测序列和场景检测序列,确定所述待检测数据的打字概率和与各预设场景之间的场景概率;
其中,通过各待检测时间窗数据的打字检测和场景识别结果,构建打字检测序列和场景检测序列,基于打字检测序列和场景检测序列,能有效地确定到待检测数据的打字概率和与各预设场景之间的场景概率,该打字概率用于表征待检测数据中存在打字行为的概率,该场景概率用于表征待检测数据中存在对应场景行为的概率;
步骤S43,根据所述打字概率和所述场景概率生成所述人机行为检测结果;
本实施例中,将待检测时间窗数据输入收敛后的人机行为检测模型进行打字检测和场景识别,得到对于各待检测时间窗数据的打字检测结果与场景识别结果,基于打字检测序列和场景检测序列用于计算打字及场景各自的联合概率分布,并得出打字及场景相应的概率阈值,当待检测数据的打字概率及场景概率低于打字及场景相应的概率阈值,则判定待检测数据存在伪造数据的现象,当符合该阈值时,则判定待检测数据未存在伪造数据的现象。
实施例三
请参阅图3,是本发明第三实施例提供的人机行为检测系统100的结构示意图,包括:行为标记单元10、异常检测单元11、模型训练单元12和行为检测单元13,其中:
行为标记单元10,用于获取移动终端的传感数据和行为场景数据,并对所述传感数据和所述行为场景数据分别进行行为标记。
可选的,行为标记单元10还用于:根据预设时长分别对所述传感数据和所述行为场景数据进行分段,得到传感分段数据和场景分段数据;
根据第一标签对所述传感分段数据中存在打字行为的数据进行行为标记,并根据第二标签对所述传感分段数据中未存在打字行为的数据进行行为标记;
分别确定各场景分段数据的行为场景,并根据确定到的所述行为场景进行标签查询,得到场景行为标签;
根据所述场景行为标签对对应所述场景分段数据进行行为标记。
异常检测单元11,用于根据行为标记后的所述传感数据和所述行为场景数据构建样本集,并对所述样本集进行异常特征检测。
可选的,异常检测单元11还用于:分别对所述样本集中的各样本数据进行时间窗分割,得到传感时间窗数据和场景时间窗数据,所述样本数据包括行为标记后的所述传感数据和对应行为标记后的所述行为场景数据;
分别计算各传感时间窗数据和各场景时间窗数据中的时间窗特征,并根据所述时间窗特征确定异常特征范围;
根据所述异常特征范围确定所述传感时间窗数据和所述场景时间窗数据中的异常数据,并针对各样本数据,分别查询每条数据中异常数据的数量,得到异常数量。
进一步地,异常检测单元11还用于:根据所述时间窗特征分别计算所述传感时间窗数据和所述场景时间窗数据的特征标准差;
根据所述传感时间窗数据和所述场景时间窗数据的特征标准差,分别计算三倍标准差;
根据所述三倍标准差分别确定所述传感时间窗数据和所述场景时间窗数据的异常特征范围,得到传感异常范围和场景异常范围。
更进一步地,异常检测单元11还用于:若任一所述传感时间窗数据的时间窗特征未处于所述传感异常范围,则将所述传感时间窗数据确定为所述异常数据;
若任一所述场景时间窗数据的时间窗特征未处于所述场景异常范围,则将所述场景时间窗数据确定为所述异常数据。
模型训练单元12,用于根据异常特征检测结果对所述样本集进行数据筛选,并根据数据筛选后的所述样本集对预存储的人机行为检测模型进行模型训练,直至所述人机行为检测模型收敛。
可选的,模型训练单元12还用于:若任一所述样本数据的异常数量大于数量阈值,则删除所述样本数据;或
分别获取各样本数据中时间窗数据的个数,得到时间窗数量;
针对各样本数据,根据所述时间窗数量和所述异常数量确定异常数据比例;
若任一所述样本数据的异常数据比例大于比例阈值,则删除所述样本数据。
进一步地,模型训练单元12还用于:将数据筛选后的所述样本集输入所述人机行为检测模型,并根据所述检测模型分别对所述样本集中的传感数据和行为场景数据进行打字行为预测和行为场景预测,得到行为预测结果;
根据所述行为预测结果和所述样本集中各样本数据上的行为标记进行损失计算,得到模型损失值;
根据所述模型损失值对所述人机行为检测模型进行参数更新,直至所述模型损失值小于损失阈值和/或所述模型损失值的迭代次数大于迭代阈值,则判定所述检测模型收敛。
行为检测单元13,用于将待检测数据输入收敛后的所述人机行为检测模型进行行为检测,得到人机行为检测结果,所述人机检测结果包括行为概率和场景概率。
可选的,行为检测单元13还用于:对所述待检测数据进行时间窗分割,得到待检测时间窗数据,并将所述待检测时间窗数据输入收敛后的所述人机行为检测模型进行打字检测和场景识别;
根据各待检测时间窗数据的打字检测和场景识别结果,构建所述待检测数据的打字检测序列和场景检测序列,并根据所述打字检测序列和场景检测序列,确定所述待检测数据的打字概率和与各预设场景之间的场景概率;
根据所述打字概率和所述场景概率生成所述人机行为检测结果。
本实施例,通过对传感数据和行为场景数据分别进行行为标记,能有效地在构建后的样本集中设置多个标签任务,基于携带多个标签任务的样本集训练后的检测模型,能有效地对待检测数据进行行为检测和场景检测,提高了人机行为检测效率,无需设置多个模型进行人机行为检测,降低了资源消耗,通过对样本集进行异常特征检测,能有效地确定到样本集中的异常数据,并通过异常特征检测结果对样本集进行数据筛选,提高了样本集中数据的准确性。
实施例五
图4是本申请第四实施例提供的一种终端设备2的结构框图。如图4所示,该实施例的终端设备2包括:处理器20、存储器21以及存储在所述存储器21中并可在所述处理器20上运行的计算机程序22,例如人机行为检测方法的程序。处理器20执行所述计算机程序22时实现上述各个人机行为检测方法各实施例中的步骤,例如图1所示的S10至S40,或者图2所示的S41至S43。或者,所述处理器20执行所述计算机程序22时实现上述图3对应的实施例中各单元的功能,具体请参阅图3对应的实施例中的相关描述,此处不赘述。
示例性的,所述计算机程序22可以被分割成一个或多个单元,所述一个或者多个单元被存储在所述存储器21中,并由所述处理器20执行,以完成本申请。所述一个或多个单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序22在所述终端设备2中的执行过程。例如,所述计算机程序22可以被分割成行为标记单元10、异常检测单元11、模型训练单元12和行为检测单元13,各单元具体功能如上所述。
所述终端设备可包括,但不仅限于,处理器20、存储器21。本领域技术人员可以理解,图3仅仅是终端设备2的示例,并不构成对终端设备2的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器20可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器21可以是所述终端设备2的内部存储单元,例如终端设备2的硬盘或内存。所述存储器21也可以是所述终端设备2的外部存储设备,例如所述终端设备2上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器21还可以既包括所述终端设备2的内部存储单元也包括外部存储设备。所述存储器21用于存储所述计算机程序以及所述终端设备所需的其他程序和数据。所述存储器21还可以用于暂时地存储已经输出或者将要输出的数据。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的模块如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。其中,计算机可读存储介质可以是非易失性的,也可以是易失性的。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,计算机程序包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读存储介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读存储介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读存储介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (9)
1.一种人机行为检测方法,其特征在于,所述方法包括:
获取移动终端的传感数据和行为场景数据,并对所述传感数据和所述行为场景数据分别进行行为标记;
根据行为标记后的所述传感数据和所述行为场景数据构建样本集,并对所述样本集进行异常特征检测;
根据异常特征检测结果对所述样本集进行数据筛选,并根据数据筛选后的所述样本集对预存储的人机行为检测模型进行模型训练,直至所述人机行为检测模型收敛;
将待检测数据输入收敛后的所述人机行为检测模型进行行为检测,得到人机行为检测结果,所述人机检测结果包括行为概率和场景概率;
所述对所述传感数据和所述行为场景数据分别进行行为标记,包括:
根据预设时长分别对所述传感数据和所述行为场景数据进行分段,得到传感分段数据和场景分段数据;
根据第一标签对所述传感分段数据中存在打字行为的数据进行行为标记,并根据第二标签对所述传感分段数据中未存在打字行为的数据进行行为标记;
分别确定各场景分段数据的行为场景,并根据确定到的所述行为场景进行标签查询,得到场景行为标签;
根据所述场景行为标签对对应所述场景分段数据进行行为标记。
2.如权利要求1所述的人机行为检测方法,其特征在于,所述对所述样本集进行异常特征检测,包括:
分别对所述样本集中的各样本数据进行时间窗分割,得到传感时间窗数据和场景时间窗数据,所述样本数据包括行为标记后的所述传感数据和对应行为标记后的所述行为场景数据;
分别计算各传感时间窗数据和各场景时间窗数据中的时间窗特征,并根据所述时间窗特征确定异常特征范围;
根据所述异常特征范围确定所述传感时间窗数据和所述场景时间窗数据中的异常数据,并针对各样本数据,分别查询每条数据中异常数据的数量,得到异常数量。
3.如权利要求2所述的人机行为检测方法,其特征在于,所述将待检测数据输入收敛后的所述人机行为检测模型进行行为检测,包括:
对所述待检测数据进行时间窗分割,得到待检测时间窗数据,并将所述待检测时间窗数据输入收敛后的所述人机行为检测模型进行打字检测和场景识别;
根据各待检测时间窗数据的打字检测和场景识别结果,构建所述待检测数据的打字检测序列和场景检测序列,并根据所述打字检测序列和场景检测序列,确定所述待检测数据的打字概率和与各预设场景之间的场景概率;
根据所述打字概率和所述场景概率生成所述人机行为检测结果。
4.如权利要求2所述的人机行为检测方法,其特征在于,所述根据所述时间窗特征确定异常特征范围,包括:
根据所述时间窗特征分别计算所述传感时间窗数据和所述场景时间窗数据的特征标准差;
根据所述传感时间窗数据和所述场景时间窗数据的特征标准差,分别计算三倍标准差;
根据所述三倍标准差分别确定所述传感时间窗数据和所述场景时间窗数据的异常特征范围,得到传感异常范围和场景异常范围;
所述根据所述异常特征范围确定所述传感时间窗数据和所述场景时间窗数据中的异常数据,包括:
若任一所述传感时间窗数据的时间窗特征未处于所述传感异常范围,则将所述传感时间窗数据确定为所述异常数据;
若任一所述场景时间窗数据的时间窗特征未处于所述场景异常范围,则将所述场景时间窗数据确定为所述异常数据。
5.如权利要求2所述的人机行为检测方法,其特征在于,所述根据异常特征检测结果对所述样本集进行数据筛选,包括:
若任一所述样本数据的异常数量大于数量阈值,则删除所述样本数据;或
分别获取各样本数据中时间窗数据的个数,得到时间窗数量;
针对各样本数据,根据所述时间窗数量和所述异常数量确定异常数据比例;
若任一所述样本数据的异常数据比例大于比例阈值,则删除所述样本数据。
6.如权利要求1至5任一所述的人机行为检测方法,其特征在于,所述根据数据筛选后的所述样本集对预存储的人机行为检测模型进行模型训练,直至所述人机行为检测模型收敛,包括:
将数据筛选后的所述样本集输入所述人机行为检测模型,并根据所述检测模型分别对所述样本集中的传感数据和行为场景数据进行打字行为预测和行为场景预测,得到行为预测结果;
根据所述行为预测结果和所述样本集中各样本数据上的行为标记进行损失计算,得到模型损失值;
根据所述模型损失值对所述人机行为检测模型进行参数更新,直至所述模型损失值小于损失阈值和/或所述模型损失值的迭代次数大于迭代阈值,则判定所述检测模型收敛。
7.一种人机行为检测系统,其特征在于,所述系统包括:
行为标记单元,用于获取移动终端的传感数据和行为场景数据,并对所述传感数据和所述行为场景数据分别进行行为标记;
异常检测单元,用于根据行为标记后的所述传感数据和所述行为场景数据构建样本集,并对所述样本集进行异常特征检测;
模型训练单元,用于根据异常特征检测结果对所述样本集进行数据筛选,并根据数据筛选后的所述样本集对预存储的人机行为检测模型进行模型训练,直至所述人机行为检测模型收敛;
行为检测单元,用于将待检测数据输入收敛后的所述人机行为检测模型进行行为检测,得到人机行为检测结果,所述人机检测结果包括行为概率和场景概率;
所述行为标记单元还用于:根据预设时长分别对所述传感数据和所述行为场景数据进行分段,得到传感分段数据和场景分段数据;
根据第一标签对所述传感分段数据中存在打字行为的数据进行行为标记,并根据第二标签对所述传感分段数据中未存在打字行为的数据进行行为标记;
分别确定各场景分段数据的行为场景,并根据确定到的所述行为场景进行标签查询,得到场景行为标签;
根据所述场景行为标签对对应所述场景分段数据进行行为标记。
8.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至6任一项所述方法的步骤。
9.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210648574.4A CN115100739B (zh) | 2022-06-09 | 2022-06-09 | 人机行为检测方法、系统、终端设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210648574.4A CN115100739B (zh) | 2022-06-09 | 2022-06-09 | 人机行为检测方法、系统、终端设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115100739A CN115100739A (zh) | 2022-09-23 |
CN115100739B true CN115100739B (zh) | 2023-03-28 |
Family
ID=83288294
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210648574.4A Active CN115100739B (zh) | 2022-06-09 | 2022-06-09 | 人机行为检测方法、系统、终端设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115100739B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116258356B (zh) * | 2023-05-16 | 2023-08-25 | 深圳市万物云科技有限公司 | 基于WaveNet的工单派发方法、装置及相关介质 |
CN117170982B (zh) * | 2023-11-02 | 2024-02-13 | 建信金融科技有限责任公司 | 人机检测方法、装置、电子设备和计算机可读介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107333189A (zh) * | 2017-07-31 | 2017-11-07 | 深圳回收宝科技有限公司 | 一种检测视频的分段方法、设备以及存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101193248A (zh) * | 2006-11-21 | 2008-06-04 | 明基电通股份有限公司 | 依据场景变化进行影像数据分段的方法 |
CN111740991B (zh) * | 2020-06-19 | 2022-08-09 | 上海仪电(集团)有限公司中央研究院 | 一种异常检测方法及系统 |
CN113284142B (zh) * | 2021-07-16 | 2021-10-29 | 腾讯科技(深圳)有限公司 | 图像检测方法、装置、计算机可读存储介质及计算机设备 |
-
2022
- 2022-06-09 CN CN202210648574.4A patent/CN115100739B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107333189A (zh) * | 2017-07-31 | 2017-11-07 | 深圳回收宝科技有限公司 | 一种检测视频的分段方法、设备以及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN115100739A (zh) | 2022-09-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115100739B (zh) | 人机行为检测方法、系统、终端设备及存储介质 | |
CN109936582B (zh) | 构建基于pu学习的恶意流量检测模型的方法及装置 | |
CN111753290B (zh) | 软件类型的检测方法及相关设备 | |
CN110033018B (zh) | 图形相似度判断方法、装置及计算机可读存储介质 | |
CN110363220B (zh) | 行为类别检测方法、装置、电子设备和计算机可读介质 | |
CN106484837A (zh) | 相似视频文件的检测方法和装置 | |
WO2021174812A1 (zh) | 用于画像的数据的清洗方法、装置、介质及电子设备 | |
CN109087667B (zh) | 语音流利度识别方法、装置、计算机设备及可读存储介质 | |
CN112712005B (zh) | 识别模型的训练方法、目标识别方法及终端设备 | |
CN111931809A (zh) | 数据的处理方法、装置、存储介质及电子设备 | |
CN113705092B (zh) | 基于机器学习的疾病预测方法及装置 | |
CN109871891B (zh) | 一种物体识别方法、装置和存储介质 | |
CN113705468A (zh) | 基于人工智能的数字图像识别方法及相关设备 | |
CN111539390A (zh) | 一种基于Yolov3的小目标图像识别方法、设备和系统 | |
CN109492396B (zh) | 基于语义分割的恶意软件基因快速检测方法和装置 | |
CN116595534A (zh) | 一种solidity智能合约的缺陷检测方法 | |
CN116467720A (zh) | 一种基于图神经网络的智能合约漏洞检测方法及电子设备 | |
CN116186263A (zh) | 文档检测方法、装置、计算机设备及计算机可读存储介质 | |
CN113723431B (zh) | 图像识别方法、装置以及计算机可读存储介质 | |
CN114638304A (zh) | 图像识别模型的训练方法、图像识别方法及装置 | |
CN114090650A (zh) | 一种样本数据识别方法、装置、电子设备及存储介质 | |
CN115640577B (zh) | 一种针对二进制物联网固件程序的漏洞检测方法和系统 | |
CN118172799B (zh) | 毫米波雷达行人重识别方法、设备及存储介质 | |
CN117556425B (zh) | 基于图神经网络的智能合约漏洞检测方法、系统和设备 | |
CN113139187B (zh) | 一种预训练语言模型的生成、检测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |