CN106155298B - 人机识别方法及装置、行为特征数据的采集方法及装置 - Google Patents

人机识别方法及装置、行为特征数据的采集方法及装置 Download PDF

Info

Publication number
CN106155298B
CN106155298B CN201510191030.XA CN201510191030A CN106155298B CN 106155298 B CN106155298 B CN 106155298B CN 201510191030 A CN201510191030 A CN 201510191030A CN 106155298 B CN106155298 B CN 106155298B
Authority
CN
China
Prior art keywords
man
machine
behavioural characteristic
machine identification
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510191030.XA
Other languages
English (en)
Other versions
CN106155298A (zh
Inventor
万朝新
魏兴国
林松英
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba Group Holding Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN201510191030.XA priority Critical patent/CN106155298B/zh
Priority to TW104142269A priority patent/TWI689942B/zh
Priority to US15/093,251 priority patent/US9917848B2/en
Priority to KR1020177026468A priority patent/KR20170120644A/ko
Priority to EP16783589.1A priority patent/EP3286679B1/en
Priority to PCT/US2016/026624 priority patent/WO2016171923A1/en
Priority to JP2017549526A priority patent/JP2018520397A/ja
Publication of CN106155298A publication Critical patent/CN106155298A/zh
Priority to US15/883,804 priority patent/US10404720B2/en
Application granted granted Critical
Publication of CN106155298B publication Critical patent/CN106155298B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/12Applying verification of the received information
    • H04L63/126Applying verification of the received information the source of the received data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/316User authentication by observing the pattern of computer usage, e.g. typical user behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/50Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
    • G06F21/55Detecting local intrusion or implementing counter-measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/10Network architectures or network communication protocols for network security for controlling access to devices or network resources
    • H04L63/102Entity profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/14Network architectures or network communication protocols for network security for detecting or protecting against malicious traffic
    • H04L63/1408Network architectures or network communication protocols for network security for detecting or protecting against malicious traffic by monitoring network traffic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2133Verifying human interaction, e.g., Captcha

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本申请提供了人机识别方法及装置、行为特征数据的采集方法及装置,其中,人机识别方法包括:响应于客户端发送的人机识别请求,渲染出用于人机识别的第一操作以供发送至客户端进行展示;接收客户端当前提交的、根据所述第一操作所表示的操作轨迹而触发的第二操作的操作;依据预先设置好的行为特征模型,对所述第二操作的触发主体进行人机识别。在本申请实施例中,可以提高人机识别的准确度,还可以在人机识别过程中提高用户的体验。

Description

人机识别方法及装置、行为特征数据的采集方法及装置
技术领域
本申请涉及互联网数据处理技术领域,特别涉及一种人机识别方法及装置、行为特征模型的训练方法及装置、行为特征数据的采集方法及装置。
背景技术
图灵测试(Turing test)是图灵于1950年提出的一个关于判断机器是否能够思考的著名试验,测试某机器是否能表现出与人等价或无法区分的智能。进行图灵测试通常是作为服务器的计算机自动生成一个问题由用户来解答,这个问题可以由计算机生成并评判,但是必须只有人类才能解答,由于计算机无法解答CAPTCHA(Completely AutomatedPublic Turing Test to Tell Computers and Humans Apart,全自动区分计算机和人类的图灵测试)的问题,所以回答出问题的用户就可以被认为是人类。其中,CAPTCHA是一种反向图灵测试,例如,计算机给出一张包括验证码的扭曲的图片,由人类或机器分别进行识别,能够识别出验证码的用户就是人类,不能识别验证码的就是机器。
发明内容
但是发明人在研究过程中发现,随着OCR(Optical Character Recognition,光学字符识别)技术的提高,验证码的图片的扭曲难度也越来越大,往往人类也无法识别对应的验证码图片或识别难度较大,导致用户体验极差。并且对抗的持续升级和计算机图形学的发展,必然会使得有一天,机器进行OCR的能力胜过人类,此时基于图片验证码的CAPTCHA技术也就失效了。
而发明人在研究过程中还发现,如同笔迹可以像指纹一样证明一个人的个体特征一样,每个人在PC网页或者触摸屏上进行交互操作的行为习惯都具备有独特的生物特征,例如,人操作电脑时习惯性的鼠标移动速度,或者点击位置偏好等习惯,是机器无法模拟的。因此,在本申请实施例中,可以通过机器学习,聚类出多维度的行为特征模型,后续就可以通过该生物特征模型来判定服务器当前接收到的交互操作是否具备生物特征,从而更准确地进行人机识别。
基于此,本申请提供了人机识别方法、行为特征模型的训练方法、行为特征数据的采集方法,用以采用行为特征分析及识别的方式,来提高人机识别的准确率。
本申请还提供了一种人机识别装置、行为特征模型的训练装置、行为特征数据的采集装置,用以保证上述方法在实际中的实现及应用。
为了解决上述问题,本申请公开了一种人机识别方法,应用于服务器,包括:
响应于客户端发送的人机识别请求,渲染出用于人机识别的第一操作以供发送至所述客户端进行展示;
接收客户端当前提交的、根据所述第一操作所表示的操作轨迹而触发的第二操作;
依据预先设置好的行为特征模型,对所述第二操作的触发主体进行人机识别;其中,所述行为特征模型为:依据若干操作样本训练得到的、人类操作和机器操作的分类器。
本申请公开了一种行为特征模型的训练方法,包括:
依据若干操作样本的移动速度和操作随机度,对所述若干操作样本进行预过滤;
采用主成分分析PCA算法对预过滤之后的操作样本的行为特征数据进行降维;
采用支持向量机SVM算法对降维后的行为特征数据进行分类,以获得符合生物行为的人类操作,和,符合机器行为的机器操作。
本申请公开了一种采集行为特征数据的方法,应用于客户端,包括:
向服务器发送当前触发的人机识别请求;
接收服务器响应于所述人机识别请求而渲染的、用于人机识别的第一操作;所述第一操作表示用于人机识别的操作轨迹;
将根据所述第一操作而触发的第二操作发送给服务器,以便服务器依据预先设置好的行为特征模型,对所述第二操作的触发主体进行人机识别;其中,所述行为特征模型为:依据操作样本训练得到的、人类操作和机器操作的分类器。
本申请公开了一种人机识别方法,应用于独立设备上,包括:
响应于当前触发的人机识别请求,渲染出用于人机识别的第一操作以供展示;
接收根据所述第一操作所表示的操作轨迹而触发的第二操作;
依据预先设置好的行为特征模型,对所述第二操作的触发主体进行人机识别;其中,所述行为特征模型为:依据若干操作样本训练得到的、人类操作和机器操作的分类器。
本申请公开了一种人机识别装置,集成于服务器端,包括:
第一渲染模块,用于响应于客户端发送的人机识别请求,渲染出用于人机识别的第一操作以供发送至所述客户端进行展示;
第一接收第二操作模块,用于接收客户端当前提交的、根据所述第一操作所表示的操作轨迹而触发的第二操作的操作;
第一识别模块,用于依据预先设置好的行为特征模型,对所述第二操作的触发主体进行人机识别;其中,所述行为特征模型为:依据若干操作样本训练得到的、人类操作和机器操作的分类器。
本申请公开了一种行为特征模型的训练装置,包括:
预过滤模块,用于依据若干操作样本的操作移动速度和操作随机度,对所述若干操作样本进行预过滤;
降维模块,用于采用主成分分析PCA算法对预过滤之后的操作样本的行为特征数据进行降维;
分类模块,用于采用支持向量机SVM算法对降维后的行为特征数据进行分类,以获得符合生物行为的第一类行为特征数据,和符合机器行为的第二类行为特征数据。
本申请公开了一种采集行为特征数据的装置,集成于客户端,包括:
发送请求模块,用于向服务器发送当前触发的人机识别请求;
接收第一操作模块,用于接收服务器响应于所述人机识别请求而渲染的、用于人机识别的第一操作;所述第一操作表示用于人机识别的操作轨迹;
发送操作模块,用于将根据所述第一操作而触发的第二操作发送给服务器,以便服务器依据预先设置好的行为特征模型,对所述第二操作的触发主体进行人机识别;其中,所述行为特征模型为:依据操作样本训练得到的、人类操作和机器操作的分类器。
本申请公开了一种人机识别装置,集成于独立设备上,包括:
第二渲染模块,用于响应于当前触发的人机识别请求,渲染出用于人机识别的第一操作以供展示;
第二接收第二操作模块,用于接收根据所述第一操作所表示的操作轨迹而触发的第二操作;
第二识别模块,用于依据预先设置好的行为特征模型,对所述第二操作的触发主体进行人机识别;其中,所述行为特征模型为:依据若干操作样本训练得到的、人类操作和机器操作的分类器。
与现有技术相比,本申请包括以下优点:
在本申请实施例中,服务器在需要进行人机识别的时候,渲染出用于人机识别的第一操作发送至客户端进行显示,该第一操作可以示意出用于人机识别的操作轨迹等,然后再接收到客户端提交的根据第一操作而触发的第二操作之后,再预先训练好的行为特征模型,对第二操作的触发主体进行人机识别,即判断第二操作的触发主体是人类还是机器。因为在实际中每个人进行鼠标操作或者触摸操作的时候,都是具有自己的特点,例如,习惯按照某一个速度进行触摸,或者不可避免的在触摸过程中产生抖动等等,因此,根据客户端提交的第二操作的行为特征数据,可以判定第二操作是人类所触发的还是机器触发。这样不仅可以比现有技术进行人机识别更准确,进而,可以拒绝机器的访问请求,从而进一步提高网络安全性;还能够因为用户可以直接按照第一操作触发第二操作即可,也提升了用户体验。
当然,实施本申请的任一产品并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请的训练行为特征模型的流程图;
图2是本申请的人机识别方法实施例1的流程图;
图3是本申请的行为特征数据的采集方法实施例的流程图;
图4是本申请的人机识别方法实施例2的流程图;
图5是本申请的一种人机识别装置实施例1的结构框图;
图6是本申请的行为特征模型的训练装置的结构框图;
图7是本申请的行为特征数据的采集装置的结构框图;
图8是本申请的人机识别装置实施例2的结构框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请可用于众多通用或专用的计算装置环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器装置、包括以上任何装置或设备的分布式计算环境等等。
本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
在本申请实施例中,可以首先机器学习出行为特征模型,其中,参考图1所示,为本申请中训练行为特征模型的流程图,行为特征模型可以由服务器训练得到,行为特征模型的训练过程可以包括以下步骤:
步骤101:依据若干操作样本的操作移动速度和操作随机度,对所述若干操作样本进行预过滤。
首先,可以获取到若干个操作样本,例如,可以从服务器现有的数据库中,选取100个已经存储的已有操作作为操作样本,已有操作可以是曾经服务器响应过的用户手势,也可以是服务器曾经拒绝过的机器行为,这些操作作为操作样本用来训练行为特征模型。
在数据库中可以提取到如表1所示的操作数据:
表1
信息类型 包含内容
设备信息 浏览器、操作系统、硬件信息
行为信息 鼠标移动、鼠标点击、用户按键
在表1的设备信息中,浏览器信息可以是对应的操作样本触发时通过哪个版本号的浏览器,操作系统可以表示对应的操作样本触发时是通过何种操作系统,例如android还是windows等,硬件信息可以表示对应的操作样本被触发时的移动终端的MEI号,或者电脑的IP地址等信息。在表1中的行为信息中,鼠标移动可以是对应的操作样本被触发时鼠标位置的轨迹,鼠标点击可以是对应的操作样本被触发时鼠标在显示屏上的点击位置信息,用户按键可以是对应的操作样本被触发时触摸屏上用户都按下了哪些按键。当然,在服务器的数据库中不止存储有上述信息类型,表1只是示例性的进行举例说明。
在本申请实施例中提取的操作样本的行为特征数据,即是从表1中的行为信息中获取。为了形象的说明行为特征数据的具体内容,参考表2所示,为行为特征数据的示例:
表2
在表2中,操作滑动时长指的是对应的操作样本被操作时的总时间。在实际应用中,为了更细分操作样本的特征,可以将滑动时长分为N段,N可以取20~50,当然,也可以根据实际需求设置其他数值。那么,每一段滑动时长T(i)就为第i段轨迹时长。每一段偏移中线次数O(i)就是,把操作轨迹分为N段后,第i段操作轨迹偏移中轴线的次数为O(i),其中,操作轨迹中轨迹向上或向下的一次抖动可以看成偏移一次中轴线,中轴线为操作轨迹的中轴线。每一段平均偏移距离OV(i)为,把操作轨迹分为N段,第i段轨迹偏移中轴线的距离的平均值OV(i)。操作被触发时的初始位置D(x,y)即为操作轨迹的起点,而操作被释放时的终止位置U(x,y)即为操作轨迹的终点。
需要说明的是,表2中的行为特征数据仅仅是举例示意,并且在实际应用中,本领域技术人员可以选择表2中的任一种行为特征数据进行人机识别,或者可以选择表2中的任一组合的行为特征数据进行人机识别。例如,仅仅选择操作滑动时长作为行为特征数据,或者,选择每一段操作滑动时长、每一段偏移中线次数和每一段平均偏移距离作为行为特征数据,或者,选择操作触发初始位置和操作触发终止位置作为行为特征数据,等等。行为特征数据的种类多少或者行为特征数据的选取并不影响本申请的实现。
其中,操作滑动时长可以通过统计操作样本的有效操作的总时间长度得到;每一段操作滑动时长通过将操作样本的总操作时间均分为若干段,并计算每一段子操作的时间长度得到;每一段偏移中线次数通过将操作样本的总操作时间均分为若干段,并计算每一段子操作偏离中轴线的次数得到;每一段平均偏移距离可以通过将操作样本的总操作时间均分为若干段,并计算每一段子操作偏离中轴线的距离得到;操作触发初始位置可以为操作样本开始被触发时的坐标,以及,操作触发终止位置可以为操作样本停止被触发时的坐标。
接着,在提取出操作样本的行为特征数据之后,可以依据这些操作样本的操作移动速度和操作随机度,对所述若干操作样本进行预过滤。其中,操作移动速度表示操作样本的轨迹移动速度,如果操作移动速度过快或者操作移动时间短可能就是机器行为,例如100ms以内,则认为对应的操作样本为明显的机器行为,将这种操作样本过滤掉。而操作随机度则表示操作样本的轨迹上下抖动的情况,例如,一个操作样本基本上没有上下抖动,也认为其属于明显的机器行为,也可以将这种操作样本过滤掉。
步骤102:采用主成分分析PCA算法对预过滤之后的操作样本的行为特征数据进行降维。
针对预过滤之后的操作样本的行为特征数据,采用主成分分析(PrincipalComponent Analysis,PCA)算法对其进行降维,使行为特征数据成为低维数据,以便后续基于SVM(支持向量机)进行分类。
具体的,步骤102具体可以包括:
步骤A1:对预过滤之后的操作样本的行为特征数据进行去均值。
首先,对预过滤之后的操作样本的行为特征数据进行去均值操作。例如,假设[a1、b1、c1….m1]分别对应一个用户的一次操作行为向量,其中,m表示一个用户的一次操作中不同类型的行为特征,假设一共有n个用户,接着对n多个用户的每一种类型的操作行为向量求均值可以得到进而通过操作行为向量的均值可以对每一种类型的操作行为向量进行均值化,得到如下所示的矩阵Y:
步骤A2:计算所述去均值后的行为特征数据的协方差矩阵。
其次,针对去均值后的行为特征数据计算协方差矩阵,其中,可以采用下述公式(一)来计算协方差矩阵:
(一)
其中,n为用户的个数,Y为步骤A1中计算得到的矩阵。
步骤A3:依据协方差矩阵计算行为特征数据的协方差特征值和特征向量。
再根据步骤A2计算出的协方差矩阵来计算行为特征数据的协方差特征值和特征向量。
步骤A4:按照所述协方差特征值对所述行为特征数据进行降序排列。
步骤A5:从降序排列后的行为特征数据中选取前若干个行为特征数据作为降维矩阵P。
步骤A6:依据所述降维矩阵对所述行为特征数据进行降维。
然后使用步骤A5排列好的降维矩阵P,基于公式“Z=PX”对行为数据进行降维,其中,X是步骤A1中的矩阵Y对应的原始数据,Z即是降维后的行为特征数据。
接着进入步骤103:采用支持向量机SVM算法对降维后的行为特征数据进行分类,以获得符合生物行为的第一类行为特征向量和符合机器行为的第二类行为特征向量的分类器。
在步骤102进行降维之后,在本步骤中则采用SVM对其进行分类,从而可以得到两类行为特征数据,一类是符合生物行为的第一类行为特征数据,这类行为特征数据对应了人类行为,另一类是符合机器行为的第二类行为特征数据,这类行为特征数据对应了机器行为。
具体的,步骤102在实现过程中可以包括:
步骤B1:使用映射函数将降维后的行为特征数据投影到高维空间。
其中的核函数我们使用的是高斯核函数,高斯核函数如公式(二)所示:
(二)
其中,基于高斯核函数的分类函数如公式(三):
(三)
步骤B2:基于投影后的行为特征向量的样本数据对支持向量机进行训练。
假设样本数据为集合{Xi,Zi},其中Xi为行为特征数据,对应的Zi∈{-1,1},其中-1表示该行为特征向量对应的操作样本是机器操作,1表示该行为特征向量对应的操作样本是人类操作。
步骤B3:将训练结果保存为人类操作和机器操作的分类器。
步骤B2训练之后可以得到最优的分类超平面,包括α、b和支持向量,将其保存为人类操作和机器操作的分类器,以便对后续采集到的行为特征数据进行二值化的分类。
在介绍完行为特征模型的训练过程之后,参考图2,示出了本申请一种人机识别方法实施例的流程图,本实施例可以应用于服务器端,本实施例可以包括以下步骤:
步骤201:响应于客户端发送的人机识别请求,渲染出用于人机识别的第一操作以供发送至客户端进行展示。
本申请方法实施例可以应用于人机识别服务器上,对与服务器相连的客户端提交的操作进行人机识别。在实际应用中,以支付宝为例,在用户使用支付宝钱包的过程中,很多时候都涉及到转账或者付款等金额操作,因此,这种情况下,识别客户端提交的操作是否是用户所为就比较重要。在本实施例中,服务器可以在客户端提交了转账操作之后,渲染出一个用于人机识别的第一操作,该第一操作示意了需要客户端模仿操作的操作轨迹,并发送至客户端进行显示,该转账操作即为人机识别请求的一种。当然,还可以提前设定好客户端提交的哪些操作是人机识别请求,在客户端提交的操作是人机识别请求的情况下,再渲染出第一操作,并将该第一操作发送至客户端以供展示。
具体的,针对web场景(可以包含个人计算机PC网页和移动终端的浏览器网页等),在服务器端可以由javascript渲染出一个交互操作进行显示,例如滑动解锁轨迹。而针对用户使用移动终端的无线APP场景(可以包含Android操作系统和iOS系统下的应用场景),在服务器端可以由java(Android)或Objective C(iOS)渲染出一个交互操作进行显示,例如拖动小球投篮的轨迹,等等。
步骤202:接收客户端当前提交的、根据所述第一操作所表示的操作轨迹而触发的第二操作。
在服务器将第一操作发送至客户端进行展示之后,接着会接收客户端继续提交的,用户或者机器根据第一操作所表示出的操作轨迹而模拟触发的第二操作,后续服务器会根据第二操作的一些行为特征来判断第二操作的触发主体是人类还是机器。
步骤203:依据预先设置好的行为特征模型,对所述第二操作的触发主体进行人机识别;其中,所述行为特征模型为:依据若干操作样本训练得到的、人类操作和机器操作的分类器。
其中,基于预先设置好的行为特征模型,人机识别的具体过程可以包括:
步骤C1:提取所述第二操作的待识别行为特征数据。
服务器在接收到客户端提交的第二操作之后,首先从第二操作中提取出第二操作的行为特征数据。具体的提取待识别行为特征数据的方式可以参考图1的实施例所示,可以理解的是,行为特征模型的操作样本是如何提取得到行为特征数据的,后续的第二操作也可以用同样的方式提出得到待识别行为特征数据。
步骤C2:在所述待识别行为特征数据符合人类操作的情况下,确定所述第二操作的触发主体为人类。
然后判断步骤C1中提取出的行为特征数据为行为特征模型中的第一类行为特征数据,还是行为特征模型中的第二类行为特征数据。如果为第一类行为特征数据,则可以确定符合人类操作,那么第二操作的触发主体就确定为人类。
步骤C3:在所述待识别行为特征数据符合机器操作的情况下,确定所述第二操作的触发主体为机器。
如果是第二类行为特征数据,则可以确定符合机器操作,那么确定第二操作的触发主体为机器。
在实际应用中,进一步的,在步骤203之后还可以包括:
步骤204:在所述人机识别的结果为机器的情况下,拒绝所述机器后续发出的访问请求,或者,在所述人机识别的结果为人类的情况下,响应所述机器后续发出的访问请求。
如果服务器识别出第二操作的触发主体为人类,则可以正常响应用户后续触发的访问请求,而如果服务器识别出第二操作的触发主体为机器,则认为当前的访问请求可能涉及恶意攻击或者安全问题,可以拒绝机器后续发出的访问请求,从而实现网络安全。
可见,在本申请实施例中,服务器在需要进行人机识别的时候,渲染出用于人机识别的第一操作发送至客户端进行显示,该第一操作可以示意出用于人机识别的操作轨迹等,然后再接收到客户端提交的根据第一操作而触发的第二操作之后,再预先训练好的行为特征模型,对第二操作的触发主体进行人机识别,即判断第二操作的触发主体是人类还是机器。因为在实际中每个人进行鼠标操作或者触摸操作的时候,都是具有自己的特点,例如,习惯按照某一个速度进行触摸,或者不可避免的在触摸过程中产生抖动等等,因此,根据客户端提交的第二操作的行为特征数据,可以判定第二操作是人类所触发的还是机器触发。这样不仅可以比现有技术进行人机识别更准确,进而,可以拒绝机器的访问请求,从而进一步提高网络安全性;还能够因为用户可以直接按照第一操作触发第二操作即可,也提升了用户体验。
参考图3,示出了本申请一种行为特征数据的采集方法实施例的流程图,本实施例可以应用于客户端,本实施例可以包括以下步骤:
步骤301:向服务器发送当前触发的人机识别请求。
本实施例可以应用于客户端上,由客户端采集当前被触发的行为特征数据,即第二操作。首先,在一些需要进行人机识别的交互过程中,如果客户端接收到了用户触发的交互请求,例如付款操作等,则客户端可以向服务器发送当前触发的人机识别请求。
步骤302:接收服务器响应于所述人机识别请求而渲染的、用于人机识别的第一操作;所述第一操作表示用于人机识别的操作轨迹。
服务器在接收客户端发送的人机识别请求之后,会渲染出一个用于人机识别的第一操作,该第一操作可以表示出需要客户端模仿操作的操作轨迹,进而发送给客户端进行显示。
步骤303:将根据所述第一操作而触发的第二操作发送给服务器,以便服务器依据预先设置好的行为特征模型,对所述第二操作的触发主体进行人机识别;其中,所述行为特征模型为:依据操作样本训练得到的、人类操作和机器操作的分类器。
客户端显示第一操作之后,再将当前根据第一操作所示意的操作轨迹而被触发的第二操作发送给服务器,服务器便可以依据预先设置好的行为特征模型,对所述第二操作的触发主体进行人机识别;其中,所述行为特征模型为:依据操作样本训练得到的、人类操作和机器操作的分类器。
具体的,服务器进行人机识别的详细过程可以参考图2所示的实施例,在此不再赘述。
在本实施例中,客户端被触发的第二操作是根据服务器发送的第一操作而进行的,而第一操作可以示意出用于人机识别的操作轨迹等,然后客户端提交第二操作之后,服务器再根据预先训练好的行为特征模型,对第二操作的触发主体进行人机识别,即判断第二操作的触发主体是人类还是机器。因为在实际中每个人进行鼠标操作或者触摸操作的时候,都是具有自己的特点,例如,习惯按照某一个速度进行触摸,或者不可避免的在触摸过程中产生抖动等等,因此,根据客户端提交的第二操作的行为特征数据,可以判定第二操作是人类所触发的还是机器触发。这样不仅可以比现有技术中进行人机识别更准确,进而,可以拒绝机器的访问请求,从而进一步提高网络安全性;还能够因为用户可以直接按照第一操作触发第二操作即可,也提升了用户体验。
参考图4所示,示出了本申请一种人机识别方法实施例2的流程图,本实施例可以应用于独立设备上,本实施例可以包括以下步骤:
步骤401:响应于当前触发的人机识别请求,渲染出用于人机识别的第一操作以供展示。
在实际应用中,可能会存在无网络情况下进行人机识别的需求,因此,为了保证在无法进行服务器和客户端交互的情况下,也能够准确进行人机识别,本实施例提供了一种应用于独立设备上的人机识别方法。独立设备可以是一台计算机、一个移动终端或者其他离线设备等。该独立设备可以采集在其上被触发的操作的行为特征数据,进而依据预先训练好的行为特征模型进行人机识别。具体的,在接收到人机识别请求之后渲染第一操作的实现过程可以参考步骤101的介绍,在此不再赘述。
步骤402:接收根据所述第一操作所表示的操作轨迹而触发的第二操作。
该独立设备可以在渲染第一操作之后进行显示,因为该第一操作已经示意了需要被模仿触发的操作轨迹,因此,待该第一操作被模仿触发之后,独立设备再接收第二操作。
步骤403:依据预先设置好的行为特征模型,对所述第二操作的触发主体进行人机识别;其中,所述行为特征模型为:依据若干操作样本训练得到的、人类操作和机器操作的分类器。
进而,该独立设备从第二操作中提取出待识别的行为特征数据,并参考预先训练好的行为特征模型,对所述第二操作的触发主体进行人机识别;其中,所述行为特征模型为:依据若干操作样本训练得到的、人类操作和机器操作的分类器。具体识别过程可以参考实施例1的介绍,在此不再赘述。
在本实施例中,被触发的第二操作是根据第一操作而进行的,而第一操作可以示意出用于人机识别的操作轨迹等,然后再根据预先训练好的行为特征模型,对第二操作的触发主体进行人机识别,即判断第二操作的触发主体是人类还是机器。因为在实际中每个人进行鼠标操作或者触摸操作的时候,都是具有自己的特点,例如,习惯按照某一个速度进行触摸,或者不可避免的在触摸过程中产生抖动等等,因此,根据第二操作的行为特征数据,可以判定第二操作是人类所触发的还是机器触发。这样不仅可以比现有技术中进行人机识别更准确,进而,可以拒绝机器的访问请求,从而进一步提高网络安全性;还能够因为用户可以直接按照第一操作触发第二操作即可,也提升了用户体验。
对于前述的方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
与上述本申请一种人机识别方法实施例1所提供的方法相对应,参见图5,本申请还提供了一种人机识别装置实施例1,在本实施例中,该装置可以集成于服务器端,该装置可以包括:
第一渲染模块501,用于响应于客户端发送的人机识别请求,渲染出用于人机识别的第一操作以供展示。
第一接收第二操作模块502,用于接收客户端当前提交的、根据所述第一操作所表示的操作轨迹而触发的第二操作的操作。
第一识别模块503,用于依据预先设置好的行为特征模型,对所述第二操作的触发主体进行人机识别;其中,所述行为特征模型为:依据若干操作样本训练得到的、人类操作和机器操作的分类器。
其中,所述第一识别模块503具体可以包括:
提取特征数据子模块,用于提取所述第二操作的待识别行为特征数据;第一确定子模块,用于在所述待识别行为特征数据符合人类操作的情况下,确定所述第二操作的触发主体为人类;和,第二确定子模块,在所述待识别行为特征数据符合机器操作的情况下,确定所述第二操作的触发主体为机器。
在实际应用中,该装置还可以包括:
拒绝模块,用于在所述人机识别的结果为机器的情况下,拒绝所述机器后续发出的访问请求;和,响应模块,用于在所述人机识别的结果为人类的情况下,响应所述机器后续发出的访问请求。
参考图6所示,本申请还提供了一种行为特征模型的训练装置实施例,在本实施例中,该训练装置可以包括:
预过滤模块601,用于依据若干操作样本的操作移动速度和操作随机度,对所述若干操作样本进行预过滤。
降维模块602,用于采用主成分分析PCA算法对预过滤之后的操作样本的行为特征数据进行降维。
分类模块603,用于采用支持向量机SVM算法对降维后的行为特征数据进行分类,以获得符合生物行为的第一类行为特征数据,和符合机器行为的第二类行为特征数据。
其中,所述降维模块602可以包括:
去均值子模块,用于对预过滤之后的操作样本的行为特征数据进行去均值;计算协方差矩阵子模块,用于计算所述去均值后的行为特征数据的协方差矩阵;计算特征参数子模块,用于依据协方差矩阵计算行为特征数据的协方差特征值和特征向量;降序排列子模块,用于按照所述协方差特征值对所述行为特征数据进行降序排列;和,选取子模块,用于从降序排列后的行为特征数据中选取前若干个行为特征数据作为降维矩阵;降维子模块,用于依据所述降维矩阵对所述行为特征数据进行降维。
其中,所述分类模块可以包括:
投影子模块,用于使用映射函数将降维后的行为特征数据投影到高维空间;训练子模块,用于基于投影后的行为特征数据的样本数据对支持向量机进行训练;和,保存子模块,用于将训练结果保存为人类操作和机器操作的分类器。
与上述本申请一种行为特征数据的采集方法实施例所提供的方法相对应,参见图7,本申请还提供了一种行为特征数据的采集装置实施例,在本实施例中,该装置可以集成于客户端,该装置可以包括:
发送请求模块701,用于向服务器发送当前触发的人机识别请求。
接收第一操作模块702,用于接收服务器响应于所述人机识别请求而渲染的、用于人机识别的第一操作;所述第一操作表示用于人机识别的操作轨迹。
发送操作模块703,用于将根据所述第一操作而触发的第二操作发送给服务器,以便服务器依据预先设置好的行为特征模型,对所述第二操作的触发主体进行人机识别;其中,所述行为特征模型为:依据操作样本训练得到的、人类操作和机器操作的分类器。
在本实施例中,客户端被触发的第二操作是根据服务器发送的第一操作而进行的,而第一操作可以示意出用于人机识别的操作轨迹等,然后客户端提交第二操作之后,服务器再根据预先训练好的行为特征模型,对第二操作的触发主体进行人机识别,即判断第二操作的触发主体是人类还是机器。因为在实际中每个人进行鼠标操作或者触摸操作的时候,都是具有自己的特点,例如,习惯按照某一个速度进行触摸,或者不可避免的在触摸过程中产生抖动等等,因此,根据客户端提交的第二操作的行为特征数据,可以判定第二操作是人类所触发的还是机器触发。这样不仅可以比现有技术中进行人机识别更准确,进而,可以拒绝机器的访问请求,从而进一步提高网络安全性;还能够因为用户可以直接按照第一操作触发第二操作即可,也提升了用户体验。
与上述本申请一种人机识别方法实施例2所提供的方法相对应,参见图8,本申请还提供了一种人机识别装置实施例2,在本实施例中,该装置可以集成于独立设备上,该装置可以包括:
第二渲染模块801,用于响应于当前触发的人机识别请求,渲染出用于人机识别的第一操作以供展示。
第二接收第二操作模块802,用于接收根据所述第一操作所表示的操作轨迹而触发的第二操作。
第二识别模块803,用于依据预先设置好的行为特征模型,对所述第二操作的触发主体进行人机识别;其中,所述行为特征模型为:依据若干操作样本训练得到的、人类操作和机器操作的分类器。
在本实施例中,被触发的第二操作是根据第一操作而进行的,而第一操作可以示意出用于人机识别的操作轨迹等,然后再根据预先训练好的行为特征模型,对第二操作的触发主体进行人机识别,即判断第二操作的触发主体是人类还是机器。因为在实际中每个人进行鼠标操作或者触摸操作的时候,都是具有自己的特点,例如,习惯按照某一个速度进行触摸,或者不可避免的在触摸过程中产生抖动等等,因此,根据第二操作的行为特征数据,可以判定第二操作是人类所触发的还是机器触发。这样不仅可以比现有技术中进行人机识别更准确,进而,可以拒绝机器的访问请求,从而进一步提高网络安全性;还能够因为用户可以直接按照第一操作触发第二操作即可,也提升了用户体验。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。对于装置类实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上对本申请所提供的人机识别方法及装置、行为特征数据的采集方法及装置进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。

Claims (16)

1.一种人机识别方法,其特征在于,应用于服务器,该方法包括:
响应于客户端发送的人机识别请求,渲染出用于人机识别的第一操作以供发送至所述客户端进行展示;所述第一操作,用于示意出用于人机识别的操作轨迹;
接收客户端当前提交的、根据所述第一操作所表示的操作轨迹而触发的第二操作;
依据预先设置好的行为特征模型,对所述第二操作的触发主体进行人机识别;其中,所述行为特征模型为:依据若干操作样本训练得到的、人类操作和机器操作的分类器。
2.根据权利要求1所述的方法,其特征在于,所述操作样本的行为特征数据包括:操作滑动时长。
3.根据权利要求2所述的方法,其特征在于,所述操作滑动时长通过以下方式得到:
统计所述操作样本的有效操作的总时间长度。
4.根据权利要求1所述的方法,其特征在于,所述行为特征模型的行为特征数据包括:每一段操作滑动时长、每一段偏移中线次数和每一段平均偏移距离。
5.根据权利要求4所述的方法,其特征在于,所述每一段操作滑动时长通过以下方式得到:将操作样本的总操作时间均分为若干段,并计算每一段子操作的时间长度;
所述每一段偏移中线次数通过以下方式得到:将操作样本的总操作时间均分为若干段,并计算每一段子操作偏离中轴线的次数;
所述每一段平均偏移距离通过以下方式得到:将操作样本的总操作时间均分为若干段,并计算每一段子操作偏离中轴线的距离。
6.根据权利要求1所述的方法,其特征在于,所述操作样本的行为特征数据包括:操作触发初始位置和操作触发终止位置。
7.根据权利要求6所述的方法,其特征在于,所述操作触发初始位置和操作触发终止位置通过以下方式得到:
将操作样本开始被触发时的坐标确定为操作触发初始位置,以及,将操作样本停止被触发时的坐标确定为操作触发终止位置。
8.根据权利要求1所述的方法,其特征在于,所述依据预先设置好的行为特征模型,对所述第二操作的触发主体进行人机识别,包括:
提取所述第二操作的待识别行为特征数据;
在所述待识别行为特征数据符合人类操作的情况下,确定所述第二操作的触发主体为人类;
在所述待识别行为特征数据符合机器操作的情况下,确定所述第二操作的触发主体为机器。
9.根据权利要求1所述的方法,其特征在于,所述对所述第二操作的触发主体进行人机识别之后,还包括:
在所述人机识别的结果为机器的情况下,拒绝所述机器后续发出的访问请求,或者,
在所述人机识别的结果为人类的情况下,响应所述机器后续发出的访问请求。
10.一种采集行为特征数据的方法,其特征在于,应用于客户端,包括:
向服务器发送当前触发的人机识别请求;
接收服务器响应于所述人机识别请求而渲染的、用于人机识别的第一操作;所述第一操作表示用于人机识别的操作轨迹;
将根据所述第一操作而触发的第二操作发送给服务器,以便服务器依据预先设置好的行为特征模型,对所述第二操作的触发主体进行人机识别;其中,所述行为特征模型为:依据操作样本训练得到的、人类操作和机器操作的分类器。
11.一种人机识别方法,其特征在于,应用于独立设备上,包括:
响应于当前触发的人机识别请求,渲染出用于人机识别的第一操作以供展示;所述第一操作,用于示意出用于人机识别的操作轨迹;
接收根据所述第一操作所表示的操作轨迹而触发的第二操作;
依据预先设置好的行为特征模型,对所述第二操作的触发主体进行人机识别;其中,所述行为特征模型为:依据若干操作样本训练得到的、人类操作和机器操作的分类器。
12.一种人机识别装置,其特征在于,集成于服务器端,包括:
第一渲染模块,用于响应于客户端发送的人机识别请求,渲染出用于人机识别的第一操作以供发送至所述客户端进行展示;所述第一操作,用于示意出用于人机识别的操作轨迹;
第一接收第二操作模块,用于接收客户端当前提交的、根据所述第一操作所表示的操作轨迹而触发的第二操作的操作;
第一识别模块,用于依据预先设置好的行为特征模型,对所述第二操作的触发主体进行人机识别;其中,所述行为特征模型为:依据若干操作样本训练得到的、人类操作和机器操作的分类器。
13.根据权利要求12所述的装置,其特征在于,所述第一识别模块包括:
提取特征数据子模块,用于提取所述第二操作的待识别行为特征数据;
第一确定子模块,用于在所述待识别行为特征数据符合人类操作的情况下,确定所述第二操作的触发主体为人类;
第二确定子模块,在所述待识别行为特征数据符合机器操作的情况下,确定所述第二操作的触发主体为机器。
14.根据权利要求12所述的装置,其特征在于,还包括:
拒绝模块,用于在所述人机识别的结果为机器的情况下,拒绝所述机器后续发出的访问请求;和,
响应模块,用于在所述人机识别的结果为人类的情况下,响应所述机器后续发出的访问请求。
15.一种采集行为特征数据的装置,其特征在于,集成于客户端,包括:
发送请求模块,用于向服务器发送当前触发的人机识别请求;
接收第一操作模块,用于接收服务器响应于所述人机识别请求而渲染的、用于人机识别的第一操作;所述第一操作表示用于人机识别的操作轨迹;
发送操作模块,用于将根据所述第一操作而触发的第二操作发送给服务器,以便服务器依据预先设置好的行为特征模型,对所述第二操作的触发主体进行人机识别;其中,所述行为特征模型为:依据操作样本训练得到的、人类操作和机器操作的分类器。
16.一种人机识别装置,其特征在于,集成于独立设备上,包括:
第二渲染模块,用于响应于当前触发的人机识别请求,渲染出用于人机识别的第一操作以供展示;所述第一操作,用于示意出用于人机识别的操作轨迹;
第二接收第二操作模块,用于接收根据所述第一操作所表示的操作轨迹而触发的第二操作;
第二识别模块,用于依据预先设置好的行为特征模型,对所述第二操作的触发主体进行人机识别;其中,所述行为特征模型为:依据若干操作样本训练得到的、人类操作和机器操作的分类器。
CN201510191030.XA 2015-04-21 2015-04-21 人机识别方法及装置、行为特征数据的采集方法及装置 Active CN106155298B (zh)

Priority Applications (8)

Application Number Priority Date Filing Date Title
CN201510191030.XA CN106155298B (zh) 2015-04-21 2015-04-21 人机识别方法及装置、行为特征数据的采集方法及装置
TW104142269A TWI689942B (zh) 2015-04-21 2015-12-16 人機識別方法及裝置、行為特徵資料的採集方法及裝置
US15/093,251 US9917848B2 (en) 2015-04-21 2016-04-07 Method and system for identifying a human or machine
EP16783589.1A EP3286679B1 (en) 2015-04-21 2016-04-08 Method and system for identifying a human or machine
KR1020177026468A KR20170120644A (ko) 2015-04-21 2016-04-08 인간 또는 기계를 식별하기 위한 방법 및 시스템
PCT/US2016/026624 WO2016171923A1 (en) 2015-04-21 2016-04-08 Method and system for identifying a human or machine
JP2017549526A JP2018520397A (ja) 2015-04-21 2016-04-08 人間であるか機械であるかを識別するための方法及びシステム
US15/883,804 US10404720B2 (en) 2015-04-21 2018-01-30 Method and system for identifying a human or machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510191030.XA CN106155298B (zh) 2015-04-21 2015-04-21 人机识别方法及装置、行为特征数据的采集方法及装置

Publications (2)

Publication Number Publication Date
CN106155298A CN106155298A (zh) 2016-11-23
CN106155298B true CN106155298B (zh) 2019-11-08

Family

ID=57148249

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510191030.XA Active CN106155298B (zh) 2015-04-21 2015-04-21 人机识别方法及装置、行为特征数据的采集方法及装置

Country Status (6)

Country Link
US (2) US9917848B2 (zh)
EP (1) EP3286679B1 (zh)
JP (1) JP2018520397A (zh)
KR (1) KR20170120644A (zh)
CN (1) CN106155298B (zh)
TW (1) TWI689942B (zh)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106529269A (zh) * 2016-12-01 2017-03-22 微梦创科网络科技(中国)有限公司 一种安全验证方法及系统
CN106815515A (zh) * 2016-12-12 2017-06-09 微梦创科网络科技(中国)有限公司 一种基于轨迹验证的验证码实现方法及装置
CA3052392A1 (en) * 2017-02-08 2018-08-16 Darrell John MARJORAM Identifying human interaction with a computer
CN108460268A (zh) 2017-02-20 2018-08-28 阿里巴巴集团控股有限公司 验证方法及装置
CN108229128A (zh) * 2017-04-10 2018-06-29 珠海市魅族科技有限公司 一种信息识别的方法及装置
CN108804885B (zh) * 2017-05-03 2022-06-14 阿里巴巴集团控股有限公司 人机验证方法和装置、存储介质及处理器
CN108877813A (zh) * 2017-05-12 2018-11-23 阿里巴巴集团控股有限公司 人机识别的方法、装置和系统
CN108958458B (zh) * 2017-05-19 2022-11-25 腾讯科技(深圳)有限公司 一种用户设备互动方法、装置、用户设备、以及计算机可读存储介质
CN107153786A (zh) * 2017-05-26 2017-09-12 北京奇点数聚科技有限公司 一种人机识别方法、系统及终端设备、可读存储介质
WO2019001566A1 (zh) * 2017-06-29 2019-01-03 苏州锦佰安信息技术有限公司 一种认证的方法和设备
CN107330311A (zh) * 2017-06-29 2017-11-07 苏州锦佰安信息技术有限公司 一种人机识别的方法和设备
CN107463879A (zh) * 2017-07-05 2017-12-12 成都数联铭品科技有限公司 基于深度学习的人体行为识别方法
CN107491991A (zh) * 2017-08-15 2017-12-19 上海精数信息科技有限公司 基于晃动的人机识别方法及应用其的广告投放方法和系统
CN107507027A (zh) * 2017-08-15 2017-12-22 上海精数信息科技有限公司 基于人机识别的广告投放控制方法及投放系统
CN107545464A (zh) * 2017-08-15 2018-01-05 上海精数信息科技有限公司 基于WiFi的人机识别方法及应用其的广告投放方法和系统
CN107688826A (zh) * 2017-08-15 2018-02-13 上海精数信息科技有限公司 基于光感的人机识别方法及应用其的广告投放方法和系统
CN109858211B (zh) * 2017-08-23 2021-02-19 北京三快在线科技有限公司 一种基于滑动轨迹的人机识别方法及装置,电子设备
CN109426701B (zh) * 2017-08-30 2022-04-05 西门子(中国)有限公司 数据模型的运行方法、运行系统和存储介质
CN107911338B (zh) * 2017-10-13 2019-06-28 深圳市迅雷网络技术有限公司 一种数据验证方法、相关设备和系统
CN108022101A (zh) * 2017-11-29 2018-05-11 上海壹账通金融科技有限公司 人机输入操作识别方法、装置、设备及可读存储介质
CN107766852A (zh) * 2017-12-06 2018-03-06 电子科技大学 一种基于卷积神经网络的人机鼠标轨迹检测方法
CN108287989B (zh) * 2018-01-18 2021-05-28 北京科技大学 一种基于轨迹的滑动验证码人机识别方法
CN110069910A (zh) * 2018-01-23 2019-07-30 袁明凯 一种机器行为确定方法、网页浏览器及网页服务器
CN108416198B (zh) * 2018-02-06 2022-02-01 平安科技(深圳)有限公司 人机识别模型的建立装置、方法及计算机可读存储介质
CN110120933B (zh) * 2018-02-07 2022-03-04 阿里巴巴集团控股有限公司 风控、人机识别与数据处理方法、设备及系统
CN110299063B (zh) * 2018-03-22 2022-01-25 阿里巴巴集团控股有限公司 轨迹数据的可视化展示方法及装置
CN108491714A (zh) * 2018-04-09 2018-09-04 众安信息技术服务有限公司 验证码的人机识别方法
CN109033793A (zh) * 2018-07-11 2018-12-18 北京京东金融科技控股有限公司 滑动验证码人机识别方法及装置、电子设备及可读介质
TWI697845B (zh) 2018-07-13 2020-07-01 緯創資通股份有限公司 多目標追蹤方法與系統
CN109447099B (zh) * 2018-08-28 2022-01-07 西安理工大学 一种基于pca降维的多分类器融合方法
CN109190357B (zh) * 2018-08-30 2021-08-06 袁精侠 一种仅利用缓存资源进行人机验证的手势验证码实现方法
CN109361660B (zh) * 2018-09-29 2021-09-03 武汉极意网络科技有限公司 异常行为分析方法、系统、服务器及存储介质
CN109255230A (zh) * 2018-09-29 2019-01-22 武汉极意网络科技有限公司 异常验证行为的识别方法、系统、用户设备及存储介质
CN109194689B (zh) * 2018-10-22 2021-04-23 武汉极意网络科技有限公司 异常行为识别方法、装置、服务器及存储介质
CN110162939B (zh) * 2018-10-25 2023-05-02 腾讯科技(深圳)有限公司 人机识别方法、设备和介质
CN110046647A (zh) * 2019-03-08 2019-07-23 同盾控股有限公司 一种验证码机器行为识别方法及装置
CN109977651A (zh) * 2019-03-14 2019-07-05 广州多益网络股份有限公司 基于滑动轨迹的人机识别方法、装置及电子设备
CN111723348B (zh) * 2019-03-18 2023-07-07 腾讯科技(深圳)有限公司 人机识别方法、装置、设备及存储介质
CN110188519A (zh) * 2019-05-20 2019-08-30 北京奇艺世纪科技有限公司 一种异常滑动轨迹的检测方法、装置及电子设备
CN110768980B (zh) * 2019-10-22 2022-04-05 武汉极意网络科技有限公司 网络人机验证方法、装置、设备及存储介质
CN111047332B (zh) * 2019-11-13 2021-05-07 支付宝(杭州)信息技术有限公司 模型训练和风险识别方法、装置及设备
CN111046379B (zh) * 2019-12-06 2021-06-18 支付宝(杭州)信息技术有限公司 一种对抗攻击的监测方法和装置
CN111046957B (zh) * 2019-12-13 2021-03-16 支付宝(杭州)信息技术有限公司 一种模型盗用的检测、模型的训练方法和装置
CN111125669B (zh) * 2019-12-17 2022-03-01 美的集团股份有限公司 滑动操作人机识别方法、装置、电子设备及存储介质
CN111125670B (zh) * 2019-12-17 2022-03-01 美的集团股份有限公司 滑动轨迹人机识别方法、装置、电子设备及存储介质
CN111666968A (zh) * 2020-04-21 2020-09-15 北京奇艺世纪科技有限公司 人机识别方法及装置、电子设备、计算机可读存储介质
CN111385313B (zh) * 2020-05-28 2020-09-11 支付宝(杭州)信息技术有限公司 一种对象请求合法性验证的方法和系统
CN111563049B (zh) * 2020-07-13 2020-11-03 支付宝(杭州)信息技术有限公司 一种生物特征识别的攻击测试方法、装置及设备
CN112182519B (zh) * 2020-10-10 2021-05-11 上海威固信息技术股份有限公司 一种计算机存储系统安全访问方法及访问系统
US20220239673A1 (en) * 2021-01-27 2022-07-28 Zscaler, Inc. System and method for differentiating between human and non-human access to computing resources
CN113900889B (zh) * 2021-09-18 2023-10-24 百融至信(北京)科技有限公司 一种智能识别app人为操作的方法及系统
US20230199025A1 (en) * 2021-12-21 2023-06-22 Microsoft Technology Licensing, Llc Account classification using a trained model and sign-in data
CN114861162B (zh) * 2022-04-22 2024-09-20 北京达佳互联信息技术有限公司 操作验证方法、装置、计算机设备及介质

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2558943B2 (ja) * 1990-10-19 1996-11-27 富士通株式会社 ニューラルネットワークを用いた人間の動作自動認識装置
CN1517889A (zh) 2003-01-14 2004-08-04 盖内蒂克瓦尔有限公司 具有身份认证功能的键盘装置及其方法
US20050008148A1 (en) * 2003-04-02 2005-01-13 Dov Jacobson Mouse performance identification
JP2006133937A (ja) 2004-11-04 2006-05-25 Fuji Xerox Co Ltd 動作識別装置
US7370050B2 (en) 2005-02-28 2008-05-06 Microsoft Corporation Discoverability and enumeration mechanisms in a hierarchically secure storage system
US20070026372A1 (en) * 2005-07-27 2007-02-01 Huelsbergen Lorenz F Method for providing machine access security by deciding whether an anonymous responder is a human or a machine using a human interactive proof
KR100738537B1 (ko) * 2005-12-27 2007-07-11 삼성전자주식회사 네트워크 침입 탐지 시스템 및 그 탐지 방법
GB2437100A (en) * 2006-04-10 2007-10-17 Univ Westminster Biometric security system using keystroke dynamics of a user's login attempt
US20080086524A1 (en) 2006-08-18 2008-04-10 Akamai Technologies, Inc. Method and system for identifying valid users operating across a distributed network
DE102007011912A1 (de) * 2007-03-13 2008-09-18 Sanofi-Aventis Verfahren für das Erzeugen von Peptidbibliotheken und deren Verwendung
US20090150983A1 (en) * 2007-08-27 2009-06-11 Infosys Technologies Limited System and method for monitoring human interaction
US8352598B2 (en) 2007-11-27 2013-01-08 Inha-Industry Partnership Institute Method of providing completely automated public turing test to tell computer and human apart based on image
US8140335B2 (en) * 2007-12-11 2012-03-20 Voicebox Technologies, Inc. System and method for providing a natural language voice user interface in an integrated voice navigation services environment
US20090276839A1 (en) * 2008-05-02 2009-11-05 Fortknock Protection Llc Identity collection, verification and security access control system
JP5252393B2 (ja) * 2008-05-13 2013-07-31 独立行政法人情報通信研究機構 動作学習装置
US8683582B2 (en) 2008-06-16 2014-03-25 Qualcomm Incorporated Method and system for graphical passcode security
US8494854B2 (en) * 2008-06-23 2013-07-23 John Nicholas and Kristin Gross CAPTCHA using challenges optimized for distinguishing between humans and machines
CA2789243A1 (en) * 2009-03-13 2010-09-16 Rutgers, The State University Of New Jersey Systems and methods for the detection of malware
US9225531B2 (en) * 2009-06-18 2015-12-29 Visa International Service Association Automated test to tell computers and humans apart
US20120002008A1 (en) * 2010-07-04 2012-01-05 David Valin Apparatus for secure recording and transformation of images to light for identification, and audio visual projection to spatial point targeted area
US11520455B2 (en) * 2009-06-29 2022-12-06 International Business Machines Corporation Dioramic user interface having a user customized experience
US8669846B2 (en) * 2009-10-19 2014-03-11 Eigent Technologies Inc. Wireless devices for process automation and verification
CN101833619A (zh) 2010-04-29 2010-09-15 西安交通大学 基于键鼠交叉认证的身份判定方法
JP5054177B2 (ja) * 2010-09-28 2012-10-24 楽天株式会社 認証システム、認証方法、認証装置、情報端末、プログラム及び情報記録媒体
CN102542137A (zh) * 2010-12-21 2012-07-04 F2威尔股份有限公司 基于全自动区分人机的测试数据的数据处理方法与系统
WO2012128916A2 (en) * 2011-03-24 2012-09-27 AYaH, LLC Method for generating a human likeness score
CN102737019B (zh) * 2011-03-31 2016-08-24 阿里巴巴集团控股有限公司 机器行为确定方法、网页浏览器及网页服务器
JP6106921B2 (ja) * 2011-04-26 2017-04-05 株式会社リコー 撮像装置、撮像方法および撮像プログラム
US8635692B2 (en) 2011-05-04 2014-01-21 Cisco Technology, Inc. System and method for user friendly detection of spammers
JP5520886B2 (ja) * 2011-05-27 2014-06-11 日本電信電話株式会社 行動モデル学習装置、方法、及びプログラム
US9183362B2 (en) * 2011-08-05 2015-11-10 Mobile Messenger Global, Inc. Method and system for verification of human presence at a mobile device
JP5953673B2 (ja) * 2011-08-11 2016-07-20 日本電気株式会社 行動識別装置、行動識別方法、及びプログラム
JP6168645B2 (ja) * 2012-03-31 2017-07-26 国立大学法人秋田大学 反転チューリングテスト方法およびアクセス認証方法
CN102902971A (zh) * 2012-08-31 2013-01-30 电子科技大学 基于智能视觉感知的电梯人流量统计方法及系统
CN103093235B (zh) * 2012-12-30 2016-01-20 北京工业大学 一种基于改进距离核主成分分析的手写体数字识别方法
CN104036780B (zh) * 2013-03-05 2017-05-24 阿里巴巴集团控股有限公司 一种人机识别方法及系统
CN104104652B (zh) * 2013-04-03 2017-08-18 阿里巴巴集团控股有限公司 一种人机识别方法、网络服务接入方法及相应的设备
US9589120B2 (en) * 2013-04-05 2017-03-07 Microsoft Technology Licensing, Llc Behavior based authentication for touch screen devices
US9177318B2 (en) * 2013-04-22 2015-11-03 Palo Alto Research Center Incorporated Method and apparatus for customizing conversation agents based on user characteristics using a relevance score for automatic statements, and a response prediction function
US9003196B2 (en) * 2013-05-13 2015-04-07 Hoyos Labs Corp. System and method for authorizing access to access-controlled environments
JP2014222392A (ja) * 2013-05-13 2014-11-27 株式会社Nttドコモ 電子機器、認証方法、プログラム
CN104239758B (zh) 2013-06-13 2018-04-27 阿里巴巴集团控股有限公司 一种人机识别方法及相应的人机识别系统
CN104301286B (zh) 2013-07-15 2018-03-23 中国移动通信集团黑龙江有限公司 用户登录认证方法及装置
US9996803B2 (en) * 2013-09-03 2018-06-12 Arizona Board Of Regents On Behalf Of Arizona State University Systems and methods for authenticating a user through an unobservable re-authentication system
CN103530543B (zh) 2013-10-30 2017-11-14 无锡赛思汇智科技有限公司 一种基于行为特征的用户识别方法及系统
US9015847B1 (en) * 2014-05-06 2015-04-21 Synack, Inc. Computer system for distributed discovery of vulnerabilities in applications
US9699205B2 (en) * 2015-08-31 2017-07-04 Splunk Inc. Network security system

Also Published As

Publication number Publication date
EP3286679B1 (en) 2021-01-20
TW201638816A (zh) 2016-11-01
US10404720B2 (en) 2019-09-03
JP2018520397A (ja) 2018-07-26
EP3286679A4 (en) 2018-10-10
TWI689942B (zh) 2020-04-01
US20180270253A1 (en) 2018-09-20
EP3286679A1 (en) 2018-02-28
KR20170120644A (ko) 2017-10-31
US9917848B2 (en) 2018-03-13
CN106155298A (zh) 2016-11-23
US20160315948A1 (en) 2016-10-27

Similar Documents

Publication Publication Date Title
CN106155298B (zh) 人机识别方法及装置、行为特征数据的采集方法及装置
CN108416198B (zh) 人机识别模型的建立装置、方法及计算机可读存储介质
US11501514B2 (en) Universal object recognition
US10846327B2 (en) Visual attribute determination for content selection
CN106104555B (zh) 用于保护外围设备的行为分析
Derawi et al. Gait and activity recognition using commercial phones
JP6409507B2 (ja) ユーザアクティビティラベルと凝視とを関連付ける方法、コンピュータシステム、及びプログラム
Blanco‐Gonzalo et al. Performance evaluation of handwritten signature recognition in mobile environments
CN109241709B (zh) 基于滑块验证码验证的用户行为识别方法及装置
CN105339952A (zh) 检测用户和修改设备设置
Wang et al. Towards continuous and passive authentication across mobile devices: an empirical study
CN104715170B (zh) 一种操作权限的确定方法和用户终端
CN109600336A (zh) 存储设备、验证码应用方法和装置
CN107194213A (zh) 一种身份识别方法及装置
Rungruanganukul et al. Deep learning based gesture classification for hand physical therapy interactive program
CN104966016A (zh) 移动终端儿童用户协作式判断及限制操作权限的方法
Samet et al. TouchMetric: a machine learning based continuous authentication feature testing mobile application
CN106060038A (zh) 基于客户端程序行为分析的钓鱼网站检测方法
US20230066295A1 (en) Configuring an association between objects based on an identification of a style associated with the objects
WO2016171923A1 (en) Method and system for identifying a human or machine
Chao et al. Swipe gestures for user authentication in smartphones
Miniukovich et al. Visual diversity and user interface quality
Kolakowska et al. Automatic recognition of males and females among web browser users based on behavioural patterns of peripherals usage
CN103440447A (zh) 具有攻击者身份识别能力的在线笔迹身份认证方法
Biswas et al. Smart city development: Theft handling of public vehicles using image analysis and cloud network

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1230297

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant