CN107766852A - 一种基于卷积神经网络的人机鼠标轨迹检测方法 - Google Patents
一种基于卷积神经网络的人机鼠标轨迹检测方法 Download PDFInfo
- Publication number
- CN107766852A CN107766852A CN201711274982.3A CN201711274982A CN107766852A CN 107766852 A CN107766852 A CN 107766852A CN 201711274982 A CN201711274982 A CN 201711274982A CN 107766852 A CN107766852 A CN 107766852A
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- mtd
- mtr
- mfrac
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/32—Digital ink
- G06V30/36—Matching; Classification
Abstract
本发明属于机器学习和模式识别领域,具体为一种基于卷积神经网络的人机鼠标轨迹检测方法。该方法包括:对鼠标轨迹采样数据进行预处理,得到长度一致的原始特征,如坐标和时间特征、差分特征、速度特征、加速度特征、方向特征;对原始特征进行标准化处理,通过卷积神经网络自动提取高级语义特征,进行训练和预测。本发明简化了特征提取过程,同时采用的卷积神经网络具有更好的泛化能力,能够甄别人机验证产品中的机器攻击手段。
Description
技术领域
本发明属于机器学习和模式识别领域,涉及深度学习、网络安全相关技术,具体为一种基于卷积神经网络的人机鼠标轨迹检测方法。
背景技术
当前,鼠标轨迹检测被广泛运用于多种人机验证产品中,不仅便于用户操作,而且极大地增加了暴力破解难度。但是攻击者可通过黑产工具生成类人轨迹,批量操作以绕过检测,并在对抗过程中不断升级其伪造数据的手段以持续绕过同样升级的检测技术。我们期望用机器学习算法来提高人机验证中各种机器行为的检出率,其中包括对抗过程中出现的新的攻击手段的检测。
目前已有的鼠标轨迹检测方法,一般是基于决策树、SVM等机器学习算法,这类方法往往需要花费极大的精力进行数据统计和特征提取。这就导致了,一方面手动提取的低级语义特征使得模型的泛化能力不够,另外一方面检测模型的更新周期较长。随着对抗过程中黑产工具伪造数据的手段不断升级,新的攻击手段往往有机会突破陈旧的防守线。因此,一种简单、高效、对各种攻击手段适应能力更强的方法就成了亟待解决的焦点。
发明内容
针对上述存在问题或不足,为简化特征提取过程和增强检测模型的泛化能力,本发明提供了一种基于卷积神经网络的人机鼠标轨迹检测方法。
本发明采用的技术方案是:
(1)对训练样本库和测试样本库中的鼠标轨迹采样数据进行预处理,得到长度一致的原始特征。
(2)用(1)中提取的原始特征进行标准化,再通过卷积神经网络自动进行特征提取,进而进行训练和预测。
所述步骤(1)中的预处理步骤如下:
(11)每条鼠标轨迹采样数据记录了不同采样时刻鼠标的坐标信息,记录其坐标位置和采样时刻得到轨迹T={P1,P2...,PM}。每条鼠标轨迹的采样点数量|T|不一定相同,采样点越多,则鼠标轨迹记录的信息量越大,检测的计算代价越高;反之,采样点越少,则鼠标轨迹记录的信息量越小,检测的识别率越低。为了平衡计算代价和检测识别率,将鼠标轨迹等长缩放到长度L。具体步骤如下:
步骤1.当|T|<L时,在相邻两个采样点之间依次插入中点其中i=1,2...,M-1,经过一次或者多次迭代使得|T|≥L。
步骤2.当|T|>L时,从T中找到最小距离的一组点,用其中点取代之,经过一次或者多次迭代直到|T|=L。
(12)从(11)得到的等长鼠标轨迹T={P1,P2...,PM}中提取第i条鼠标轨迹的坐标和时间特征向量,记为Xi=[x1,x2...,xL],Yi=[y1,y2...,yL],Ti=[t1,t2...,tL]。
(13)从(12)得到的坐标和时间特征向量中提取差分特征向量,记为DXi=[dx1,dx2...,dxL],DYi=[dy1,dy2...,dyL],DTi=[dt1,dt2...,dtL]。计算公式如下:
(14)从(12)得到的坐标和时间特征向量中提取速度特征向量,记为VXi=[vx1,vx2...,vxL],VYi=[vy1,vy2...,vyL]。计算公式如下:
(15)从(12)得到的坐标和时间特征向量和(14)得到的速度特征向量中提取加速度特征向量,记为AXi=[ax1,ax2...,axL],AYi=[ay1,ay2...,ayL]。计算公式如下:
(16)从(12)得到的坐标和时间特征向量中提取方向特征向量,记为Ki=[k1,k2...,kL],KKi=[kk1,kk2...,kkL],AKi=[ak1,ak2...,akL]。计算公式如下:
所述步骤(2)中的标准化和自动特征提取步骤如下:
(21)对预处理中的坐标和时间特征向量、差分特征向量、速度特征向量、加速度特征向量、方向特征向量进行拼接,得到第i条鼠标轨迹的全部特征,记为Fi=[Xi,Ti,Yi,DXi,DTi,DYi,VXi,VYi,AXi,AYi,Ki,KKi,AKi]T。训练样本库中全部鼠标轨迹的特征向量组成训练集原始特征,测试样本库中全部鼠标轨迹的特征向量组成测试集原始特征。再求出每列特征的平均值μ和方差σ,分别对训练集原始特征和测试集原始特征标准化,标准化公式如下所示:
得到训练集原始特征和测试集原始特征的特征维数为13×L。
(22)将(21)中标准化后的训练集原始特征输入卷积神经网络进行训练。具体步骤如下:
步骤1.输入层的维数与特征维数相同,为13×L;依次在卷积层C11、C12上进行多通道卷积操作,产生特征矩阵;依次通过Dropout层D1、下采样层P1和ReLu激活函数进行非线性映射。
步骤2.步骤1产生的映射依次在卷积层C21、C22上进行多通道卷积操作,产生特征矩阵;依次通过Dropout层D2、下采样层P2和ReLu激活函数进行非线性映射。
步骤3.步骤2产生的映射依次在卷积层C31、C32上进行多通道卷积操作,产生特征矩阵;依次通过Dropout层D3、下采样层P3和ReLu激活函数进行非线性映射,得到原始特征的抽象非线性化特征表达向量;再通过sigmoid函数和logloss损失函数进行分类。
(23)将(21)中标准化后的测试集原始特征输入卷积神经网络进行预测,得到每条鼠标轨迹采样数据是人类轨迹的概率,实现人机鼠标轨迹检测。
本发明的有益效果是:
本发明提出基于卷积神经网络的人机鼠标轨迹检测方法,通过简单高效的预处理步骤,初步提取到鼠标轨迹中的原始特征,再通过卷积神经网络自动进行高级语义特征提取,进行人机鼠标轨迹的分类。本发明一方面简化了特征提取过程,另外一方面,采用的卷积神经网络具有更好的泛化能力,能够甄别各种攻击手段。
附图说明
图1是原始特征的提取流程图
图2是卷积神经网络的结构图
具体实施方式
以下将结合附图对本发明进行详细描述。
本发明公开了基于卷积神经网络的人机鼠标轨迹检测方法,具体实施步骤包括:
(1)对训练样本库和测试样本库中的鼠标轨迹采样数据进行预处理,得到长度一致的原始特征。原始特征的提取流程图如图1所示。
(2)用(1)中提取的原始特征进行标准化,再通过卷积神经网络自动进行特征提取,进而训练和预测。卷积神经网络的结构图如图2所示。
所述步骤(1)中的预处理步骤如下:
(11)每条鼠标轨迹采样数据记录了不同采样时刻鼠标的坐标信息,记录其坐标位置和采样时刻得到轨迹T={P1,P2...,PM}。每条鼠标轨迹的采样点数量|T|不一定相同,采样点越多,则鼠标轨迹记录的信息量越大,检测的计算代价越高;反之,采样点越少,则鼠标轨迹记录的信息量越小,检测的识别率越低。为了平衡计算代价和检测识别率,将鼠标轨迹等长缩放到长度L。具体步骤如下:
步骤1.当|T|<L时,在相邻两个采样点之间依次插入中点其中i=1,2...,M-1,经过一次或者多次迭代使得|T|≥L。
步骤2.当|T|>L时,从T中找到最小距离的一组点,用其中点取代之,经过一次或者多次迭代直到|T|=L。
(12)从(11)得到的等长鼠标轨迹T={P1,P2...,PM}中提取第i条鼠标轨迹的坐标和时间特征向量,记为Xi=[x1,x2...,xL],Yi=[y1,y2...,yL],Ti=[t1,t2...,tL]。
(13)从(12)得到的坐标和时间特征向量中提取差分特征向量,记为DXi=[dx1,dx2...,dxL],DYi=[dy1,dy2...,dyL],DTi=[dt1,dt2...,dtL]。计算公式如下:
(14)从(12)得到的坐标和时间特征向量中提取速度特征向量,记为VXi=[vx1,vx2...,vxL],VYi=[vy1,vy2...,vyL]。计算公式如下:
(15)从(12)得到的坐标和时间特征向量和(14)得到的速度特征向量中提取加速度特征向量,记为AXi=[ax1,ax2...,axL],AYi=[ay1,ay2...,ayL]。计算公式如下:
(16)从(12)得到的坐标和时间特征向量中提取方向特征向量,记为Ki=[k1,k2...,kL],KKi=[kk1,kk2...,kkL],AKi=[ak1,ak2...,akL]。计算公式如下:
所述步骤(2)中的特征标准化和自动特征提取步骤如下:
(22)对预处理中的坐标和时间特征向量、差分特征向量、速度特征向量、加速度特征向量、方向特征向量进行拼接,得到第i条鼠标轨迹的全部特征,记为Fi=[Xi,Ti,Yi,DXi,DTi,DYi,VXi,VYi,AXi,AYi,Ki,KKi,AKi]T。训练样本库中全部鼠标轨迹的特征向量组成训练集原始特征,测试样本库中全部鼠标轨迹的特征向量组成测试集原始特征。再求出每列特征的平均值μ和方差σ,分别对训练集原始特征和测试集原始特征标准化,标准化公式如下所示:
得到训练集原始特征和测试集原始特征的特征维数为13×L。
(22)将(21)中标准化后的训练集原始特征输入卷积神经网络进行训练。具体步骤如下:
步骤1.输入层的维数与特征维数相同,为13×L;依次在卷积层C11、C12上进行多通道卷积操作,产生特征矩阵;依次通过Dropout层D1、下采样层P1和ReLu激活函数进行非线性映射。
步骤2.步骤1产生的映射依次在卷积层C21、C22上进行多通道卷积操作,产生特征矩阵;依次通过Dropout层D2、下采样层P2和ReLu激活函数进行非线性映射。
步骤3.步骤2产生的映射依次在卷积层C31、C32上进行多通道卷积操作,产生特征矩阵;依次通过Dropout层D3、下采样层P3和ReLu激活函数进行非线性映射,得到原始特征的抽象非线性化特征表达向量;再通过sigmoid函数和logloss损失函数进行分类。
(23)将(21)中标准化后的测试集原始特征输入卷积神经网络进行预测,得到每条鼠标轨迹采样数据是人类轨迹的概率,实现人机鼠标轨迹检测。
Claims (3)
1.一种基于卷积神经网络的人机鼠标轨迹检测方法,其特征在于,所述方法包括:
(1)对训练样本库和测试样本库中的鼠标轨迹采样数据进行预处理,得到长度一致的原始特征;
(2)用(1)中提取的原始特征进行标准化,再通过卷积神经网络自动进行特征提取,进而训练和预测。
2.根据权利要求1所述的方法,其特征在于,所述步骤(1)中具体包括:
(11)每条鼠标轨迹采样数据记录了不同采样时刻鼠标的坐标信息,记录其坐标位置和采样时刻得到轨迹T={P1,P2...,PM},每条鼠标轨迹的采样点数量|T|不一定相同,采样点越多,则鼠标轨迹记录的信息量越大,检测的计算代价越高;反之,采样点越少,则鼠标轨迹记录的信息量越小,检测的识别率越低,为了平衡计算代价和检测识别率,将鼠标轨迹等长缩放到长度L,具体步骤如下:
步骤1.当|T|<L时,在相邻两个采样点之间依次插入中点其中i=1,2...,M-1,经过一次或者多次迭代使得|T|≥L;
步骤2.当|T|>L时,从T中找到最小距离的一组点,用其中点取代之,经过一次或者多次迭代直到|T|=L;
(12)从(11)得到的等长鼠标轨迹T={P1,P2...,PM}中提取第i条鼠标轨迹的坐标和时间特征向量,记为Xi=[x1,x2...,xL],Yi=[y1,y2...,yL],Ti=[t1,t2...,tL];
(13)从(12)得到的坐标和时间特征向量中提取差分特征向量,记为DXi=[dx1,dx2...,dxL],DYi=[dy1,dy2...,dyL],DTi=[dt1,dt2...,dtL]。计算公式如下:
<mrow>
<msub>
<mi>dx</mi>
<mi>j</mi>
</msub>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>x</mi>
<mrow>
<mi>j</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>x</mi>
<mi>j</mi>
</msub>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
<mn>2...</mn>
<mo>,</mo>
<mi>L</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>x</mi>
<mi>L</mi>
</msub>
<mo>-</mo>
<msub>
<mi>x</mi>
<mrow>
<mi>L</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mi>L</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
<mrow>
<msub>
<mi>dy</mi>
<mi>j</mi>
</msub>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>y</mi>
<mrow>
<mi>j</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>y</mi>
<mi>j</mi>
</msub>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
<mn>2...</mn>
<mo>,</mo>
<mi>L</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>y</mi>
<mi>L</mi>
</msub>
<mo>-</mo>
<msub>
<mi>y</mi>
<mrow>
<mi>L</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mi>L</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
<mrow>
<msub>
<mi>dt</mi>
<mi>j</mi>
</msub>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>t</mi>
<mrow>
<mi>j</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>t</mi>
<mi>j</mi>
</msub>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
<mn>2...</mn>
<mo>,</mo>
<mi>L</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>t</mi>
<mi>L</mi>
</msub>
<mo>-</mo>
<msub>
<mi>t</mi>
<mrow>
<mi>L</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mi>L</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
(14)从(12)得到的坐标和时间特征向量中提取速度特征向量,记为VXi=[vx1,vx2...,vxL],VYi=[vy1,vy2...,vyL],计算公式如下:
<mrow>
<msub>
<mi>vx</mi>
<mi>j</mi>
</msub>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mfrac>
<mrow>
<msub>
<mi>x</mi>
<mrow>
<mi>j</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>x</mi>
<mi>j</mi>
</msub>
</mrow>
<mrow>
<msub>
<mi>t</mi>
<mrow>
<mi>j</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>t</mi>
<mi>j</mi>
</msub>
</mrow>
</mfrac>
</mtd>
<mtd>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
<mn>2...</mn>
<mo>,</mo>
<mi>L</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mfrac>
<mrow>
<msub>
<mi>x</mi>
<mi>L</mi>
</msub>
<mo>-</mo>
<msub>
<mi>x</mi>
<mrow>
<mi>L</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
</mrow>
<mrow>
<msub>
<mi>t</mi>
<mi>L</mi>
</msub>
<mo>-</mo>
<msub>
<mi>t</mi>
<mrow>
<mi>L</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
</mrow>
</mfrac>
</mtd>
<mtd>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mi>L</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
<mrow>
<msub>
<mi>vy</mi>
<mi>j</mi>
</msub>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mfrac>
<mrow>
<msub>
<mi>y</mi>
<mrow>
<mi>j</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>y</mi>
<mi>j</mi>
</msub>
</mrow>
<mrow>
<msub>
<mi>t</mi>
<mrow>
<mi>j</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>t</mi>
<mi>j</mi>
</msub>
</mrow>
</mfrac>
</mtd>
<mtd>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
<mn>2...</mn>
<mo>,</mo>
<mi>L</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mfrac>
<mrow>
<msub>
<mi>y</mi>
<mi>L</mi>
</msub>
<mo>-</mo>
<msub>
<mi>y</mi>
<mrow>
<mi>L</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
</mrow>
<mrow>
<msub>
<mi>t</mi>
<mi>L</mi>
</msub>
<mo>-</mo>
<msub>
<mi>t</mi>
<mrow>
<mi>L</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
</mrow>
</mfrac>
</mtd>
<mtd>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mi>L</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
(15)从(12)得到的坐标和时间特征向量和(14)得到的速度特征向量中提取加速度特征向量,记为AXi=[ax1,ax2...,axL],AYi=[ay1,ay2...,ayL],计算公式如下:
<mrow>
<msub>
<mi>ax</mi>
<mi>j</mi>
</msub>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mfrac>
<mrow>
<msub>
<mi>vx</mi>
<mrow>
<mi>j</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>vx</mi>
<mi>j</mi>
</msub>
</mrow>
<mrow>
<msub>
<mi>t</mi>
<mrow>
<mi>j</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>t</mi>
<mi>j</mi>
</msub>
</mrow>
</mfrac>
</mtd>
<mtd>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
<mn>2</mn>
<mo>...</mo>
<mo>,</mo>
<mi>L</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mfrac>
<mrow>
<msub>
<mi>vx</mi>
<mi>L</mi>
</msub>
<mo>-</mo>
<msub>
<mi>vx</mi>
<mrow>
<mi>L</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
</mrow>
<mrow>
<msub>
<mi>t</mi>
<mi>L</mi>
</msub>
<mo>-</mo>
<msub>
<mi>t</mi>
<mrow>
<mi>L</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
</mrow>
</mfrac>
</mtd>
<mtd>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mi>L</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
<mrow>
<msub>
<mi>ay</mi>
<mi>j</mi>
</msub>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mfrac>
<mrow>
<msub>
<mi>vy</mi>
<mrow>
<mi>j</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>vy</mi>
<mi>j</mi>
</msub>
</mrow>
<mrow>
<msub>
<mi>t</mi>
<mrow>
<mi>j</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>t</mi>
<mi>j</mi>
</msub>
</mrow>
</mfrac>
</mtd>
<mtd>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
<mn>2...</mn>
<mo>,</mo>
<mi>L</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mfrac>
<mrow>
<msub>
<mi>vy</mi>
<mi>L</mi>
</msub>
<mo>-</mo>
<msub>
<mi>vy</mi>
<mrow>
<mi>L</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
</mrow>
<mrow>
<msub>
<mi>t</mi>
<mi>L</mi>
</msub>
<mo>-</mo>
<msub>
<mi>t</mi>
<mrow>
<mi>L</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
</mrow>
</mfrac>
</mtd>
<mtd>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mi>L</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
(16)从(12)得到的坐标和时间特征向量中提取方向特征向量,记为Ki=[k1,k2...,kL],KKi=[kk1,kk2...,kkL],AKi=[ak1,ak2...,akL],计算公式如下:
<mrow>
<msub>
<mi>k</mi>
<mi>j</mi>
</msub>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mfrac>
<mrow>
<msub>
<mi>y</mi>
<mrow>
<mi>j</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>y</mi>
<mi>j</mi>
</msub>
</mrow>
<mrow>
<msub>
<mi>x</mi>
<mrow>
<mi>j</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>x</mi>
<mi>j</mi>
</msub>
</mrow>
</mfrac>
</mtd>
<mtd>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
<mn>2...</mn>
<mo>,</mo>
<mi>L</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mfrac>
<mrow>
<msub>
<mi>y</mi>
<mi>L</mi>
</msub>
<mo>-</mo>
<msub>
<mi>y</mi>
<mrow>
<mi>L</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
</mrow>
<mrow>
<msub>
<mi>x</mi>
<mi>L</mi>
</msub>
<mo>-</mo>
<msub>
<mi>x</mi>
<mrow>
<mi>L</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
</mrow>
</mfrac>
</mtd>
<mtd>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mi>L</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
<mrow>
<msub>
<mi>kk</mi>
<mi>j</mi>
</msub>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mfrac>
<mrow>
<msub>
<mi>k</mi>
<mrow>
<mi>j</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>k</mi>
<mi>j</mi>
</msub>
</mrow>
<mrow>
<msub>
<mi>x</mi>
<mrow>
<mi>j</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>x</mi>
<mi>j</mi>
</msub>
</mrow>
</mfrac>
</mtd>
<mtd>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
<mn>2...</mn>
<mo>,</mo>
<mi>L</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mfrac>
<mrow>
<msub>
<mi>k</mi>
<mi>L</mi>
</msub>
<mo>-</mo>
<msub>
<mi>k</mi>
<mrow>
<mi>L</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
</mrow>
<mrow>
<msub>
<mi>x</mi>
<mi>L</mi>
</msub>
<mo>-</mo>
<msub>
<mi>x</mi>
<mrow>
<mi>L</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
</mrow>
</mfrac>
</mtd>
<mtd>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mi>L</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
<mrow>
<msub>
<mi>ak</mi>
<mi>j</mi>
</msub>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mfrac>
<mrow>
<msub>
<mi>k</mi>
<mrow>
<mi>j</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>k</mi>
<mi>j</mi>
</msub>
</mrow>
<mrow>
<msub>
<mi>t</mi>
<mrow>
<mi>j</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>t</mi>
<mi>j</mi>
</msub>
</mrow>
</mfrac>
</mtd>
<mtd>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
<mn>2...</mn>
<mo>,</mo>
<mi>L</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mfrac>
<mrow>
<msub>
<mi>k</mi>
<mi>L</mi>
</msub>
<mo>-</mo>
<msub>
<mi>k</mi>
<mrow>
<mi>L</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
</mrow>
<mrow>
<msub>
<mi>t</mi>
<mi>L</mi>
</msub>
<mo>-</mo>
<msub>
<mi>t</mi>
<mrow>
<mi>L</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
</mrow>
</mfrac>
</mtd>
<mtd>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mi>L</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
3.根据权利要求1所述的方法,其特征在于,所述步骤(2)中具体包括:
(21)对预处理中的坐标和时间特征向量、差分特征向量、速度特征向量、加速度特征向量、方向特征向量进行拼接,得到第i条鼠标轨迹的全部特征,记为Fi=[Xi,Ti,Yi,DXi,DTi,DYi,VXi,VYi,AXi,AYi,Ki,KKi,AKi]T,训练样本库中全部鼠标轨迹的特征向量组成训练集原始特征,测试样本库中全部鼠标轨迹的特征向量组成测试集原始特征,再求出每列特征的平均值μ和方差σ,分别对训练集原始特征和测试集原始特征标准化,标准化公式如下所示:
<mrow>
<mi>Z</mi>
<mo>=</mo>
<mfrac>
<mrow>
<mi>F</mi>
<mo>-</mo>
<mi>&mu;</mi>
</mrow>
<mi>&sigma;</mi>
</mfrac>
</mrow>
得到训练集原始特征和测试集原始特征的特征维数为13×L;
(22)将(21)中标准化后的训练集原始特征输入卷积神经网络进行训练,具体步骤如下:
步骤1.输入层的维数与特征维数相同,为13×L;依次在卷积层C11、C12上进行多通道卷积操作,产生特征矩阵;依次通过Dropout层D1、下采样层P1和ReLu激活函数进行非线性映射;
步骤2.步骤1产生的映射依次在卷积层C21、C22上进行多通道卷积操作,产生特征矩阵;依次通过Dropout层D2、下采样层P2和ReLu激活函数进行非线性映射;
步骤3.步骤2产生的映射依次在卷积层C31、C32上进行多通道卷积操作,产生特征矩阵;依次通过Dropout层D3、下采样层P3和ReLu激活函数进行非线性映射,得到原始特征的抽象非线性化特征表达向量;再通过sigmoid函数和logloss损失函数进行分类;
(22)将(21)中标准化后的测试集原始特征输入卷积神经网络进行预测,得到每条鼠标轨迹采样数据是人类轨迹的概率,实现人机鼠标轨迹检测。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711274982.3A CN107766852A (zh) | 2017-12-06 | 2017-12-06 | 一种基于卷积神经网络的人机鼠标轨迹检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711274982.3A CN107766852A (zh) | 2017-12-06 | 2017-12-06 | 一种基于卷积神经网络的人机鼠标轨迹检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107766852A true CN107766852A (zh) | 2018-03-06 |
Family
ID=61277641
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711274982.3A Pending CN107766852A (zh) | 2017-12-06 | 2017-12-06 | 一种基于卷积神经网络的人机鼠标轨迹检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107766852A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109918883A (zh) * | 2019-02-22 | 2019-06-21 | 袁精侠 | 一种基于手绘轨迹的生物性特征的身份验证方法 |
CN109961106A (zh) * | 2019-04-18 | 2019-07-02 | 北京百度网讯科技有限公司 | 轨迹分类模型的训练方法和装置、电子设备 |
CN109977826A (zh) * | 2019-03-15 | 2019-07-05 | 百度在线网络技术(北京)有限公司 | 物体的类别识别方法和装置 |
CN110188529A (zh) * | 2019-05-28 | 2019-08-30 | 北京奇艺世纪科技有限公司 | 一种异常滑动轨迹的检测方法、装置及电子设备 |
CN110795716A (zh) * | 2019-10-22 | 2020-02-14 | 武汉极意网络科技有限公司 | 基于cnn的身份验证方法、用户设备、存储介质及装置 |
CN111930249A (zh) * | 2020-07-21 | 2020-11-13 | 深圳市鹰硕教育服务股份有限公司 | 智能笔图像处理方法、装置及电子设备 |
CN112632494A (zh) * | 2020-12-22 | 2021-04-09 | 江苏通付盾科技有限公司 | 一种基于时序模型的移动应用身份验证方法及装置 |
WO2022016651A1 (zh) * | 2020-07-21 | 2022-01-27 | 深圳市鹰硕教育服务有限公司 | 智能笔图像处理方法、装置及电子设备 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7747749B1 (en) * | 2006-05-05 | 2010-06-29 | Google Inc. | Systems and methods of efficiently preloading documents to client devices |
CN102103409A (zh) * | 2011-01-20 | 2011-06-22 | 桂林理工大学 | 基于运动轨迹识别的人机交互方法及装置 |
CN105389486A (zh) * | 2015-11-05 | 2016-03-09 | 同济大学 | 一种基于鼠标行为的认证方法 |
CN105930402A (zh) * | 2016-04-15 | 2016-09-07 | 乐视控股(北京)有限公司 | 基于卷积神经网络的视频检索方法及系统 |
CN105975956A (zh) * | 2016-05-30 | 2016-09-28 | 重庆大学 | 一种基于红外全景摄像头的独居老人异常行为识别方法 |
CN105991281A (zh) * | 2015-02-04 | 2016-10-05 | 中国移动通信集团公司 | 一种身份认证方法、设备及系统 |
CN106155298A (zh) * | 2015-04-21 | 2016-11-23 | 阿里巴巴集团控股有限公司 | 人机识别方法及装置、行为特征数据的采集方法及装置 |
CN106681917A (zh) * | 2016-12-21 | 2017-05-17 | 南京大学 | 一种基于神经网络的前端自动化评估方法 |
CN106991315A (zh) * | 2017-03-02 | 2017-07-28 | 袁精侠 | 手势验证的验证方法及系统 |
-
2017
- 2017-12-06 CN CN201711274982.3A patent/CN107766852A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7747749B1 (en) * | 2006-05-05 | 2010-06-29 | Google Inc. | Systems and methods of efficiently preloading documents to client devices |
CN102103409A (zh) * | 2011-01-20 | 2011-06-22 | 桂林理工大学 | 基于运动轨迹识别的人机交互方法及装置 |
CN105991281A (zh) * | 2015-02-04 | 2016-10-05 | 中国移动通信集团公司 | 一种身份认证方法、设备及系统 |
CN106155298A (zh) * | 2015-04-21 | 2016-11-23 | 阿里巴巴集团控股有限公司 | 人机识别方法及装置、行为特征数据的采集方法及装置 |
CN105389486A (zh) * | 2015-11-05 | 2016-03-09 | 同济大学 | 一种基于鼠标行为的认证方法 |
CN105930402A (zh) * | 2016-04-15 | 2016-09-07 | 乐视控股(北京)有限公司 | 基于卷积神经网络的视频检索方法及系统 |
CN105975956A (zh) * | 2016-05-30 | 2016-09-28 | 重庆大学 | 一种基于红外全景摄像头的独居老人异常行为识别方法 |
CN106681917A (zh) * | 2016-12-21 | 2017-05-17 | 南京大学 | 一种基于神经网络的前端自动化评估方法 |
CN106991315A (zh) * | 2017-03-02 | 2017-07-28 | 袁精侠 | 手势验证的验证方法及系统 |
Non-Patent Citations (2)
Title |
---|
WANG P 等: "Action Recognition Based on Joint Trajectory Maps Using Convolutional Neural Networks", 《KNOWLEDGE BASED SYSTEMS》 * |
陈喆 等: "基于BP神经网络的鼠标轨迹识别技术", 《电脑知识与技术》 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109918883A (zh) * | 2019-02-22 | 2019-06-21 | 袁精侠 | 一种基于手绘轨迹的生物性特征的身份验证方法 |
CN109918883B (zh) * | 2019-02-22 | 2022-06-10 | 袁精侠 | 一种基于手绘轨迹的生物性特征的身份验证方法 |
CN109977826A (zh) * | 2019-03-15 | 2019-07-05 | 百度在线网络技术(北京)有限公司 | 物体的类别识别方法和装置 |
CN109977826B (zh) * | 2019-03-15 | 2021-11-02 | 百度在线网络技术(北京)有限公司 | 物体的类别识别方法和装置 |
CN109961106A (zh) * | 2019-04-18 | 2019-07-02 | 北京百度网讯科技有限公司 | 轨迹分类模型的训练方法和装置、电子设备 |
US11599825B2 (en) | 2019-04-18 | 2023-03-07 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for training trajectory classification model, and electronic device |
CN109961106B (zh) * | 2019-04-18 | 2022-03-18 | 北京百度网讯科技有限公司 | 轨迹分类模型的训练方法和装置、电子设备 |
CN110188529A (zh) * | 2019-05-28 | 2019-08-30 | 北京奇艺世纪科技有限公司 | 一种异常滑动轨迹的检测方法、装置及电子设备 |
CN110795716A (zh) * | 2019-10-22 | 2020-02-14 | 武汉极意网络科技有限公司 | 基于cnn的身份验证方法、用户设备、存储介质及装置 |
WO2022016651A1 (zh) * | 2020-07-21 | 2022-01-27 | 深圳市鹰硕教育服务有限公司 | 智能笔图像处理方法、装置及电子设备 |
CN111930249B (zh) * | 2020-07-21 | 2021-08-17 | 深圳市鹰硕教育服务有限公司 | 智能笔图像处理方法、装置及电子设备 |
CN111930249A (zh) * | 2020-07-21 | 2020-11-13 | 深圳市鹰硕教育服务股份有限公司 | 智能笔图像处理方法、装置及电子设备 |
US20230140470A1 (en) * | 2020-07-21 | 2023-05-04 | Shenzhen Eaglesoul Education Service Co., Ltd | Image processing method and apparatus for smart pen, and electronic device |
US11853483B2 (en) * | 2020-07-21 | 2023-12-26 | Shenzhen Eagle Soul Intelligence & Technology Co., Ltd. | Image processing method and apparatus for smart pen including pressure switches, and electronic device |
CN112632494A (zh) * | 2020-12-22 | 2021-04-09 | 江苏通付盾科技有限公司 | 一种基于时序模型的移动应用身份验证方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107766852A (zh) | 一种基于卷积神经网络的人机鼠标轨迹检测方法 | |
Yu et al. | CloudLeak: Large-Scale Deep Learning Models Stealing Through Adversarial Examples. | |
CN102591854B (zh) | 针对文本特征的广告过滤系统及其过滤方法 | |
CN105279554B (zh) | 基于哈希编码层的深度神经网络的训练方法及装置 | |
CN104376326B (zh) | 一种用于图像场景识别的特征提取方法 | |
CN108229338A (zh) | 一种基于深度卷积特征的视频行为识别方法 | |
CN112883738A (zh) | 基于神经网络和自注意力机制的医学实体关系抽取方法 | |
CN109299268A (zh) | 一种基于双通道模型的文本情感分析方法 | |
CN108717439A (zh) | 一种基于注意力机制和特征强化融合的中文文本分类方法 | |
CN106909784A (zh) | 基于二维时频图像深度卷积神经网络的癫痫脑电识别方法 | |
CN108573047A (zh) | 一种中文文本分类模型的训练方法及装置 | |
CN107491432A (zh) | 基于人工智能的低质量文章识别方法及装置、设备及介质 | |
CN108197294A (zh) | 一种基于深度学习的文本自动生成方法 | |
CN107403154A (zh) | 一种基于动态视觉传感器的步态识别方法 | |
CN108446700A (zh) | 一种基于对抗攻击的车牌攻击生成方法 | |
CN108549658A (zh) | 一种基于语法分析树上注意力机制的深度学习视频问答方法及系统 | |
CN108566627A (zh) | 一种利用深度学习识别诈骗短信的方法及系统 | |
CN112541501A (zh) | 一种基于视觉语言建模网络的场景文字识别方法 | |
CN110991290B (zh) | 基于语义指导与记忆机制的视频描述方法 | |
CN108763542A (zh) | 一种基于联合学习的文本情报分类方法、装置及计算机设备 | |
CN111753207B (zh) | 一种基于评论的神经图协同过滤方法 | |
CN109993169A (zh) | 一种基于端到端的字符型验证码识别方法 | |
CN108536572A (zh) | 基于AppUsage2Vec模型的智能手机App使用预测方法 | |
CN108960175A (zh) | 一种基于深度学习的车牌识别方法 | |
CN109740151A (zh) | 基于迭代膨胀卷积神经网络的公安笔录命名实体识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20180306 |
|
WD01 | Invention patent application deemed withdrawn after publication |