TWI689942B - 人機識別方法及裝置、行為特徵資料的採集方法及裝置 - Google Patents
人機識別方法及裝置、行為特徵資料的採集方法及裝置 Download PDFInfo
- Publication number
- TWI689942B TWI689942B TW104142269A TW104142269A TWI689942B TW I689942 B TWI689942 B TW I689942B TW 104142269 A TW104142269 A TW 104142269A TW 104142269 A TW104142269 A TW 104142269A TW I689942 B TWI689942 B TW I689942B
- Authority
- TW
- Taiwan
- Prior art keywords
- human
- machine
- behavior
- behavior characteristic
- characteristic data
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/12—Applying verification of the received information
- H04L63/126—Applying verification of the received information the source of the received data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/316—User authentication by observing the pattern of computer usage, e.g. typical user behaviour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/55—Detecting local intrusion or implementing counter-measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/10—Network architectures or network communication protocols for network security for controlling access to devices or network resources
- H04L63/102—Entity profiles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/14—Network architectures or network communication protocols for network security for detecting or protecting against malicious traffic
- H04L63/1408—Network architectures or network communication protocols for network security for detecting or protecting against malicious traffic by monitoring network traffic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2221/00—Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/21—Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/2133—Verifying human interaction, e.g., Captcha
Landscapes
- Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Transfer Between Computers (AREA)
Abstract
本發明提供了人機識別方法及裝置、行為特徵資料的採集方法及裝置,其中,人機識別方法包括:回應於用戶端發送的人機識別請求,轉列出用於人機識別的第一操作以供發送至用戶端進行展示;接收用戶端當前提交的、根據所述第一操作所表示的操作軌跡而觸發的第二操作的操作;依據預先設置好的行為特徵模型,對所述第二操作的觸發主體進行人機識別。在本發明實施例中,可以提高人機識別的準確度,還可以在人機識別過程中提高使用者的體驗。
Description
本發明係有關於網際網路資料處理技術領域,特別是有關於及一種人機識別方法及裝置、行為特徵模型的訓練方法及裝置、行為特徵資料的採集方法及裝置。
圖靈測試(Turing test)是圖靈於1950年提出的一個關於判斷機器是否能夠思考的著名試驗,測試某機器是否能表現出與人等價或無法區分的智慧。進行圖靈測試通常是作為伺服器的電腦自動產生一個問題由使用者來解答,這個問題可以由電腦產生並評判,但是必須只有人類才能解答,由於電腦無法解答CAPTCHA(Completely Automated Public Turing Test to Tell Computers and Humans Apart,全自動區分電腦和人類的圖靈測試)的問題,所以回答出問題的使用者就可以被認為是人類。其中,CAPTCHA是一種反向圖靈測試,例如,電腦給出一張包括驗證碼的扭曲的圖片,由人類或機器分別進行識別,能夠識別出驗證碼的使用者就是人類,不能識別驗證碼的就是機器。
但是發明人在研究過程中發現,隨著OCR(Optical Character Recognition,光學字元辨識)技術的提高,驗證碼的圖片的扭曲難度也越來越大,往往人類也無法識別對應的驗證碼圖片或識別難度較大,導致使用者體驗極差。並且對抗的持續升級和電腦圖形學的發展,必然會使得有一天,機器進行OCR的能力勝過人類,此時基於圖片驗證碼的CAPTCHA技術也就失效了。
而發明人在研究過程中還發現,如同筆跡可以像指紋一樣證明一個人的個體特徵一樣,每個人在PC網頁或者觸控式螢幕上進行交互操作的行為習慣都具備有獨特的生物特徵,例如,人操作電腦時習慣性的滑鼠移動速度,或者點擊位置偏好等習慣,是機器無法模擬的。因此,在本發明實施例中,可以透過機器學習,聚類出多維度的行為特徵模型,後續就可以透過該生物特徵模型來判定伺服器當前接收到的交互操作是否具備生物特徵,從而更準確地進行人機識別。
基於此,本發明提供了人機識別方法、行為特徵模型的訓練方法、行為特徵資料的採集方法,用以採用行為特徵分析及識別的方式,來提高人機識別的準確率。
本發明還提供了一種人機識別裝置、行為特徵模型的訓練裝置、行為特徵資料的採集裝置,用以保證上述方法在實際中的實現及應用。
為了解決上述問題,本發明公開了一種人機識別方
法,應用於伺服器,包括:回應於用戶端發送的人機識別請求,轉列出用於人機識別的第一操作以供發送至所述用戶端進行展示;接收用戶端當前提交的、根據所述第一操作所表示的操作軌跡而觸發的第二操作;依據預先設置好的行為特徵模型,對所述第二操作的觸發主體進行人機識別;其中,所述行為特徵模型為:依據若干操作樣本訓練得到的、人類操作和機器操作的分類器。
本發明公開了一種行為特徵模型的訓練方法,包括:依據若干操作樣本的移動速度和操作隨機度,對所述若干操作樣本進行預過濾;採用主成分分析PCA演算法對預過濾之後的操作樣本的行為特徵資料進行降維;採用支援向量機SVM演算法對降維後的行為特徵資料進行分類,以獲得符合生物行為的人類操作,和,符合機器行為的機器操作。
本發明公開了一種採集行為特徵資料的方法,應用於用戶端,包括:向伺服器發送當前觸發的人機識別請求;接收伺服器回應於所述人機識別請求而轉列的、用於人機識別的第一操作;所述第一動作表示用於人機識別的操作軌跡;將根據所述第一操作而觸發的第二操作發送給伺服
器,以便伺服器依據預先設置好的行為特徵模型,對所述第二操作的觸發主體進行人機識別;其中,所述行為特徵模型為:依據操作樣本訓練得到的、人類操作和機器操作的分類器。
本發明公開了一種人機識別方法,應用於獨立設備上,包括:回應於當前觸發的人機識別請求,轉列出用於人機識別的第一操作以供展示;接收根據所述第一操作所表示的操作軌跡而觸發的第二操作;依據預先設置好的行為特徵模型,對所述第二操作的觸發主體進行人機識別;其中,所述行為特徵模型為:依據若干操作樣本訓練得到的、人類操作和機器操作的分類器。
本發明公開了一種人機識別裝置,整合於伺服器端,包括:第一轉列模組,用於回應於用戶端發送的人機識別請求,轉列出用於人機識別的第一操作以供發送至所述用戶端進行展示;第一接收第二操作模組,用於接收用戶端當前提交的、根據所述第一操作所表示的操作軌跡而觸發的第二操作的操作;第一識別模組,用於依據預先設置好的行為特徵模型,對所述第二操作的觸發主體進行人機識別;其中,所
述行為特徵模型為:依據若干操作樣本訓練得到的、人類操作和機器操作的分類器。
本發明公開了一種行為特徵模型的訓練裝置,包括:預過濾模組,用於依據若干操作樣本的操作移動速度和操作隨機度,對所述若干操作樣本進行預過濾;降維模組,用於採用主成分分析PCA演算法對預過濾之後的操作樣本的行為特徵資料進行降維;分類別模組,用於採用支援向量機SVM演算法對降維後的行為特徵資料進行分類,以獲得符合生物行為的第一類行為特徵資料,和符合機器行為的第二類行為特徵資料。
本發明公開了一種採集行為特徵資料的裝置,整合於用戶端,包括:發送請求模組,用於向伺服器發送當前觸發的人機識別請求;接收第一操作模組,用於接收伺服器回應於所述人機識別請求而轉列的、用於人機識別的第一操作;所述第一動作表示用於人機識別的操作軌跡;發送操作模組,用於將根據所述第一操作而觸發的第二操作發送給伺服器,以便伺服器依據預先設置好的行為特徵模型,對所述第二操作的觸發主體進行人機識別;其中,所述行為特徵模型為:依據操作樣本訓練得到的、人類操作和機器操作的分類器。
本發明公開了一種人機識別裝置,整合於獨立設備
上,包括:第二轉列模組,用於回應於當前觸發的人機識別請求,轉列出用於人機識別的第一操作以供展示;第二接收第二操作模組,用於接收根據所述第一操作所表示的操作軌跡而觸發的第二操作;第二識別模組,用於依據預先設置好的行為特徵模型,對所述第二操作的觸發主體進行人機識別;其中,所述行為特徵模型為:依據若干操作樣本訓練得到的、人類操作和機器操作的分類器。
與現有技術相比,本發明包括以下優點:在本發明實施例中,伺服器在需要進行人機識別的時候,轉列出用於人機識別的第一操作發送至用戶端進行顯示,該第一操作可以示意出用於人機識別的操作軌跡等,然後再接收到用戶端提交的根據第一操作而觸發的第二操作之後,再預先訓練好的行為特徵模型,對第二操作的觸發主體進行人機識別,即判斷第二操作的觸發主體是人類還是機器。因為在實際中每個人進行滑鼠操作或者觸摸操作的時候,都是具有自己的特點,例如,習慣按照某一個速度進行觸摸,或者不可避免的在觸摸過程中產生抖動等等,因此,根據用戶端提交的第二操作的行為特徵資料,可以判定第二操作是人類所觸發的還是機器觸發。這樣不僅可以比現有技術進行人機識別更準確,進而,可以拒絕機器的訪問請求,從而進一步提高網路安全性;還能夠因為使用者可以直接按照第一操作觸發第二操作即可,也提
升了使用者體驗。
當然,實施本發明的任一產品並不一定需要同時達到以上所述的所有優點。
501‧‧‧第一轉列模組
502‧‧‧第一接收第二操作模組
503‧‧‧第一識別模組
601‧‧‧預過濾模組
602‧‧‧降維模組
603‧‧‧分類模組
701‧‧‧發送請求模組
702‧‧‧接收第一操作模組
703‧‧‧發送操作模組
801‧‧‧第二轉列模組
802‧‧‧第二接收第二操作模組
803‧‧‧第二識別模組
為了更清楚地說明本發明實施例中的技術方案,下面將對實施例描述中所需要使用的附圖作簡單地介紹,顯而易見地,下面描述中的附圖僅僅是本發明的一些實施例,對於本領域普通技術人員來講,在不付出創造性勞動性的前提下,還可以根據這些附圖獲得其他的附圖。
圖1是本發明的訓練行為特徵模型的流程圖;圖2是本發明的人機識別方法實施例1的流程圖;圖3是本發明的行為特徵資料的採集方法實施例的流程圖;圖4是本發明的人機識別方法實施例2的流程圖;圖5是本發明的一種人機識別裝置實施例1的結構框圖;圖6是本發明的行為特徵模型的訓練裝置的結構框圖;圖7是本發明的行為特徵資料的採集裝置的結構框圖;圖8是本發明的人機識別裝置實施例2的結構框圖。
下面將結合本發明實施例中的附圖,對本發明實施例中的技術方案進行清楚、完整地描述,顯然,所描述的實施例僅僅是本發明一部分實施例,而不是全部的實施例。基於本發明中的實施例,本領域普通技術人員在沒有做出創造性勞動前提下所獲得的所有其他實施例,都屬於本發明保護的範圍。
本發明可用於眾多通用或專用的計算裝置環境或配置中。例如:個人電腦、伺服器電腦、手持設備或可擕式設備、平板型設備、多處理器裝置、包括以上任何裝置或設備的分散式運算環境等等。
本發明可以在由電腦執行的電腦可執行指令的一般上下文中描述,例如程式模組。一般地,程式模組包括執行特定任務或實現特定抽象資料類型的常式、程式、物件、元件、資料結構等等。也可以在分散式運算環境中實踐本發明,在這些分散式運算環境中,由透過通信網路而被連接的遠端處理設備來執行任務。在分散式運算環境中,程式模組可以位於包括存放裝置在內的本地和遠端電腦儲存介質中。
在本發明實施例中,可以首先機器學習出行為特徵模型,其中,參考圖1所示,為本發明中訓練行為特徵模型的流程圖,行為特徵模型可以由伺服器訓練得到,行為特徵模型的訓練過程可以包括以下步驟:
步驟101:依據若干操作樣本的操作移動速度和操作隨機度,對所述若干操作樣本進行預過濾。
首先,可以獲取到若干個操作樣本,例如,可以從伺服器現有的資料庫中,選取100個已經儲存的已有操作作為操作樣本,已有操作可以是曾經伺服器回應過的使用者手勢,也可以是伺服器曾經拒絕過的機器行為,這些操作作為操作樣本用來訓練行為特徵模型。
在表1的設備資訊中,流覽器資訊可以是對應的操作樣本觸發時透過哪個版本號的流覽器,作業系統可以表示對應的操作樣本觸發時是透過何種作業系統,例如android還是windows等,硬體資訊可以表示對應的操作樣本被觸發時的行動終端的MEI號,或者電腦的IP位址等資訊。在表1中的行為資訊中,滑鼠移動可以是對應的操作樣本被觸發時滑鼠位置的軌跡,滑鼠點擊可以是對應的操作樣本被觸發時滑鼠在顯示幕上的點擊位置資訊,使用者按鍵可以是對應的操作樣本被觸發時觸控式螢幕上使用者都按下了哪些按鍵。當然,在伺服器的資料庫中不止儲存有上述資訊類型,表1只是示例性的進行舉例說明。
在表2中,操作滑動時長指的是對應的操作樣本被操作時的總時間。在實際應用中,為了更細分操作樣本的特徵,可以將滑動時長分為N段,N可以取20~50,當然,也可以根據實際需求設置其他數值。那麼,每一段滑動時長T(i)就為第i段軌跡時長。每一段偏移中線次數O(i)就是,把操作軌跡分為N段後,第i段操作軌跡偏移中軸線的次數為O(i),其中,操作軌跡中軌跡向上或向下的一次抖動可以看成偏移一次中軸線,中軸線為操作軌跡的中軸線。每一段平均偏移距離OV(i)為,把操作軌跡分為N段,第i段軌跡偏移中軸線的距離的平均值OV(i)。操作被觸發時的初始位置D(x,y)即為操作軌跡的起點,而操作被釋放時的終止位置U(x,y)即為操作軌跡的終點。
需要說明的是,表2中的行為特徵資料僅僅是舉例示意,並且在實際應用中,本領域技術人員可以選擇表2中的任一種行為特徵資料進行人機識別,或者可以選擇表2中的任一組合的行為特徵資料進行人機識別。例如,僅僅選擇操作滑動時長作為行為特徵資料,或者,選擇每一段操作滑動時長、每一段偏移中線次數和每一段平均偏移距離作為行為特徵資料,或者,選擇操作觸發初始位置和操作觸發終止位置作為行為特徵資料,等等。行為特徵資料的種類多少或者行為特徵資料的選取並不影響本發明的實現。
其中,操作滑動時長可以透過統計操作樣本的有效操作的總時間長度得到;每一段操作滑動時長透過將操作樣本的總操作時間均分為若干段,並計算每一段子操作的時間長度得到;每一段偏移中線次數透過將操作樣本的總操作時間均分為若干段,並計算每一段子操作偏離中軸線的次數得到;每一段平均偏移距離可以透過將操作樣本的總操作時間均分為若干段,並計算每一段子操作偏離中軸線的距離得到;操作觸發初始位置可以為操作樣本開始被觸發時的座標,以及,操作觸發終止位置可以為操作樣本停止被觸發時的座標。
接著,在提取出操作樣本的行為特徵資料之後,可以依據這些操作樣本的操作移動速度和操作隨機度,對所述若干操作樣本進行預過濾。其中,操作移動速度表示操作樣本的軌跡移動速度,如果操作移動速度過快或者操作移
動時間短可能就是機器行為,例如100ms以內,則認為對應的操作樣本為明顯的機器行為,將這種操作樣本過濾掉。而操作隨機度則表示操作樣本的軌跡上下抖動的情況,例如,一個操作樣本基本上沒有上下抖動,也認為其屬於明顯的機器行為,也可以將這種操作樣本過濾掉。
步驟102:採用主成分分析PCA演算法對預過濾之後的操作樣本的行為特徵資料進行降維。
針對預過濾之後的操作樣本的行為特徵資料,採用主成分分析(Principal Component Analysis,PCA)演算法對其進行降維,使行為特徵資料成為低維資料,以便後續基於SVM(支持向量機)進行分類。
具體的,步驟102具體可以包括:
步驟A1:對預過濾之後的操作樣本的行為特徵資料進行去均值。
首先,對預過濾之後的操作樣本的行為特徵資料進行去均值操作。例如,假設[a1、b1、c1....m1]分別對應一個使用者的一次操作行為向量,其中,m表示一個使用者的一次操作中不同類型的行為特徵,假設一共有n個使用者,接著對n多個使用者的每一種類型的操作行為向量求均值可以得到[、、......],進而透過操作行為向量的均值可以對每一種類型的操作行為向量進行均值化,得到如下所示的矩陣Y:
步驟A2:計算所述去均值後的行為特徵資料的協方差矩陣。
其中,n為使用者的個數,Y為步驟A1中計算得到的矩陣。
步驟A3:依據協方差矩陣計算行為特徵資料的協方差特徵值和特徵向量。
再根據步驟A2計算出的協方差矩陣來計算行為特徵資料的協方差特徵值和特徵向量。
步驟A4:按照所述協方差特徵值對所述行為特徵資料進行降冪排列。
步驟A5:從降冪排列後的行為特徵資料中選取前若干個行為特徵資料作為降維矩陣P。
步驟A6:依據所述降維矩陣對所述行為特徵資料進行降維。
然後使用步驟A5排列好的降維矩陣P,基於公式“Z=PX”對行為資料進行降維,其中,X是步驟A1中的矩陣Y對應的原始資料,Z即是降維後的行為特徵資料。
接著進入步驟103:採用支援向量機SVM演算法對降維後的行為特徵資料進行分類,以獲得符合生物行為的第一類行為特徵向量和符合機器行為的第二類行為特徵向量的分類器。
在步驟102進行降維之後,在本步驟中則採用SVM對其進行分類,從而可以得到兩類行為特徵資料,一類是符合生物行為的第一類行為特徵資料,這類行為特徵資料對應了人類行為,另一類是符合機器行為的第二類行為特徵資料,這類行為特徵資料對應了機器行為。
具體的,步驟102在實現過程中可以包括:
步驟B1:使用映射函數將降維後的行為特徵資料投影到高維空間。
步驟B2:基於投影後的行為特徵向量的樣本資料對支援向量機進行訓練。
步驟B3:將訓練結果保存為人類操作和機器操作的分類器。
步驟B2訓練之後可以得到最優的分類超平面,包括α、b和支援向量,將其保存為人類操作和機器操作的分類器,以便對後續採集到的行為特徵資料進行二值化的分類。
在介紹完行為特徵模型的訓練過程之後,參考圖2,示出了本發明一種人機識別方法實施例的流程圖,本實施例可以應用於伺服器端,本實施例可以包括以下步驟:
步驟201:回應於用戶端發送的人機識別請求,轉列出用於人機識別的第一操作以供發送至用戶端進行展示。
本發明方法實施例可以應用於人機識別伺服器上,對與伺服器相連的用戶端提交的操作進行人機識別。在實際應用中,以支付寶為例,在使用者使用支付寶錢包的過程中,很多時候都涉及到轉帳或者付款等金額操作,因此,這種情況下,識別用戶端提交的操作是否是使用者所為就比較重要。在本實施例中,伺服器可以在用戶端提交了轉帳操作之後,轉列出一個用於人機識別的第一操作,該第一操作示意了需要用戶端模仿操作的操作軌跡,並發送至用戶端進行顯示,該轉帳操作即為人機識別請求的一種。當然,還可以提前設定好用戶端提交的哪些操作是人機識別請求,在用戶端提交的操作是人機識別請求的情況下,再轉列出第一操作,並將該第一操作發送至用戶端以供展
示。
具體的,針對web場景(可以包含個人電腦PC網頁和行動終端的流覽器網頁等),在伺服器端可以由javascript轉列出一個交交交互操作進行顯示,例如滑動解鎖軌跡。而針對使用者使用行動終端的無線APP場景(可以包含Android作業系統和iOS系統下的應用場景),在伺服器端可以由java(Android)或Objective C(iOS)轉列出一個交交交互操作進行顯示,例如拖動小球投籃的軌跡,等等。
步驟202:接收用戶端當前提交的、根據所述第一操作所表示的操作軌跡而觸發的第二操作。
在伺服器將第一操作發送至用戶端進行展示之後,接著會接收用戶端繼續提交的,使用者或者機器根據第一操作所表示出的操作軌跡而模擬觸發的第二操作,後續伺服器會根據第二操作的一些行為特徵來判斷第二操作的觸發主體是人類還是機器。
步驟203:依據預先設置好的行為特徵模型,對所述第二操作的觸發主體進行人機識別;其中,所述行為特徵模型為:依據若干操作樣本訓練得到的、人類操作和機器操作的分類器。
其中,基於預先設置好的行為特徵模型,人機識別的具體過程可以包括:
步驟C1:提取所述第二操作的待識別行為特徵資料。
伺服器在接收到用戶端提交的第二操作之後,首先從第二操作中提取出第二操作的行為特徵資料。具體的提取待識別行為特徵資料的方式可以參考圖1的實施例所示,可以理解的是,行為特徵模型的操作樣本是如何提取得到行為特徵資料的,後續的第二操作也可以用同樣的方式提出得到待識別行為特徵資料。
步驟C2:在所述待識別行為特徵資料符合人類操作的情況下,確定所述第二操作的觸發主體為人類。
然後判斷步驟C1中提取出的行為特徵資料為行為特徵模型中的第一類行為特徵資料,還是行為特徵模型中的第二類行為特徵資料。如果為第一類行為特徵資料,則可以確定符合人類操作,那麼第二操作的觸發主體就確定為人類。
步驟C3:在所述待識別行為特徵資料符合機器操作的情況下,確定所述第二操作的觸發主體為機器。
如果是第二類行為特徵資料,則可以確定符合機器操作,那麼確定第二操作的觸發主體為機器。
在實際應用中,進一步的,在步驟203之後還可以包括:
步驟204:在所述人機識別的結果為機器的情況下,拒絕所述機器後續發出的訪問請求,或者,在所述人機識別的結果為人類的情況下,回應所述機器後續發出的訪問請求。
如果伺服器識別出第二操作的觸發主體為人類,則可
以正常回應使用者後續觸發的訪問請求,而如果伺服器識別出第二操作的觸發主體為機器,則認為當前的訪問請求可能涉及惡意攻擊或者安全問題,可以拒絕機器後續發出的訪問請求,從而實現網路安全。
可見,在本發明實施例中,伺服器在需要進行人機識別的時候,轉列出用於人機識別的第一操作發送至用戶端進行顯示,該第一操作可以示意出用於人機識別的操作軌跡等,然後再接收到用戶端提交的根據第一操作而觸發的第二操作之後,再預先訓練好的行為特徵模型,對第二操作的觸發主體進行人機識別,即判斷第二操作的觸發主體是人類還是機器。因為在實際中每個人進行滑鼠操作或者觸摸操作的時候,都是具有自己的特點,例如,習慣按照某一個速度進行觸摸,或者不可避免的在觸摸過程中產生抖動等等,因此,根據用戶端提交的第二操作的行為特徵資料,可以判定第二操作是人類所觸發的還是機器觸發。這樣不僅可以比現有技術進行人機識別更準確,進而,可以拒絕機器的訪問請求,從而進一步提高網路安全性;還能夠因為使用者可以直接按照第一操作觸發第二操作即可,也提升了使用者體驗。
參考圖3,示出了本發明一種行為特徵資料的採集方法實施例的流程圖,本實施例可以應用於用戶端,本實施例可以包括以下步驟:
步驟301:向伺服器發送當前觸發的人機識別請求。
本實施例可以應用於用戶端上,由用戶端採集當前被
觸發的行為特徵資料,即第二操作。首先,在一些需要進行人機識別的交互過程中,如果用戶端接收到了使用者觸發的交互請求,例如付款操作等,則用戶端可以向伺服器發送當前觸發的人機識別請求。
步驟302:接收伺服器回應於所述人機識別請求而轉列的、用於人機識別的第一操作;所述第一動作表示用於人機識別的操作軌跡。
伺服器在接收用戶端發送的人機識別請求之後,會轉列出一個用於人機識別的第一操作,該第一操作可以表示出需要用戶端模仿操作的操作軌跡,進而發送給用戶端進行顯示。
步驟303:將根據所述第一操作而觸發的第二操作發送給伺服器,以便伺服器依據預先設置好的行為特徵模型,對所述第二操作的觸發主體進行人機識別;其中,所述行為特徵模型為:依據操作樣本訓練得到的、人類操作和機器操作的分類器。
用戶端顯示第一操作之後,再將當前根據第一操作所示意的操作軌跡而被觸發的第二操作發送給伺服器,伺服器便可以依據預先設置好的行為特徵模型,對所述第二操作的觸發主體進行人機識別;其中,所述行為特徵模型為:依據操作樣本訓練得到的、人類操作和機器操作的分類器。
具體的,伺服器進行人機識別的詳細過程可以參考圖2所示的實施例,在此不再贅述。
在本實施例中,用戶端被觸發的第二操作是根據伺服器發送的第一操作而進行的,而第一操作可以示意出用於人機識別的操作軌跡等,然後用戶端提交第二操作之後,伺服器再根據預先訓練好的行為特徵模型,對第二操作的觸發主體進行人機識別,即判斷第二操作的觸發主體是人類還是機器。因為在實際中每個人進行滑鼠操作或者觸摸操作的時候,都是具有自己的特點,例如,習慣按照某一個速度進行觸摸,或者不可避免的在觸摸過程中產生抖動等等,因此,根據用戶端提交的第二操作的行為特徵資料,可以判定第二操作是人類所觸發的還是機器觸發。這樣不僅可以比現有技術中進行人機識別更準確,進而,可以拒絕機器的訪問請求,從而進一步提高網路安全性;還能夠因為使用者可以直接按照第一操作觸發第二操作即可,也提升了使用者體驗。
參考圖4所示,示出了本發明一種人機識別方法實施例2的流程圖,本實施例可以應用於獨立設備上,本實施例可以包括以下步驟:
步驟401:回應於當前觸發的人機識別請求,轉列出用於人機識別的第一操作以供展示。
在實際應用中,可能會存在無網路情況下進行人機識別的需求,因此,為了保證在無法進行伺服器和用戶端交互的情況下,也能夠準確進行人機識別,本實施例提供了一種應用於獨立設備上的人機識別方法。獨立設備可以是一台電腦、一個行動終端或者其他離線設備等。該獨立設
備可以採集在其上被觸發的操作的行為特徵資料,進而依據預先訓練好的行為特徵模型進行人機識別。具體的,在接收到人機識別請求之後轉列第一操作的實現過程可以參考步驟101的介紹,在此不再贅述。
步驟402:接收根據所述第一操作所表示的操作軌跡而觸發的第二操作。
該獨立設備可以在轉列第一操作之後進行顯示,因為該第一操作已經示意了需要被模仿觸發的操作軌跡,因此,待該第一操作被模仿觸發之後,獨立設備再接收第二操作。
步驟403:依據預先設置好的行為特徵模型,對所述第二操作的觸發主體進行人機識別;其中,所述行為特徵模型為:依據若干操作樣本訓練得到的、人類操作和機器操作的分類器。
進而,該獨立設備從第二操作中提取出待識別的行為特徵資料,並參考預先訓練好的行為特徵模型,對所述第二操作的觸發主體進行人機識別;其中,所述行為特徵模型為:依據若干操作樣本訓練得到的、人類操作和機器操作的分類器。具體識別過程可以參考實施例1的介紹,在此不再贅述。
在本實施例中,被觸發的第二操作是根據第一操作而進行的,而第一操作可以示意出用於人機識別的操作軌跡等,然後再根據預先訓練好的行為特徵模型,對第二操作的觸發主體進行人機識別,即判斷第二操作的觸發主體是
人類還是機器。因為在實際中每個人進行滑鼠操作或者觸摸操作的時候,都是具有自己的特點,例如,習慣按照某一個速度進行觸摸,或者不可避免的在觸摸過程中產生抖動等等,因此,根據第二操作的行為特徵資料,可以判定第二操作是人類所觸發的還是機器觸發。這樣不僅可以比現有技術中進行人機識別更準確,進而,可以拒絕機器的訪問請求,從而進一步提高網路安全性;還能夠因為使用者可以直接按照第一操作觸發第二操作即可,也提升了使用者體驗。
對於前述的方法實施例,為了簡單描述,故將其都表述為一系列的動作組合,但是本領域技術人員應該知悉,本發明並不受所描述的動作順序的限制,因為依據本發明,某些步驟可以採用其他順序或者同時進行。其次,本領域技術人員也應該知悉,說明書中所描述的實施例均屬於較佳實施例,所涉及的動作和模組並不一定是本發明所必須的。
與上述本發明一種人機識別方法實施例1所提供的方法相對應,參見圖5,本發明還提供了一種人機識別裝置實施例1,在本實施例中,該裝置可以整合於伺服器端,該裝置可以包括:
第一轉列模組501,用於回應於用戶端發送的人機識別請求,轉列出用於人機識別的第一操作以供展示。
第一接收第二操作模組502,用於接收用戶端當前提交的、根據所述第一操作所表示的操作軌跡而觸發的第二
操作的操作。
第一識別模組503,用於依據預先設置好的行為特徵模型,對所述第二操作的觸發主體進行人機識別;其中,所述行為特徵模型為:依據若干操作樣本訓練得到的、人類操作和機器操作的分類器。
其中,所述第一識別模組503具體可以包括:提取特徵資料子模組,用於提取所述第二操作的待識別行為特徵資料;第一確定子模組,用於在所述待識別行為特徵資料符合人類操作的情況下,確定所述第二操作的觸發主體為人類;和,第二確定子模組,在所述待識別行為特徵資料符合機器操作的情況下,確定所述第二操作的觸發主體為機器。
在實際應用中,該裝置還可以包括:拒絕模組,用於在所述人機識別的結果為機器的情況下,拒絕所述機器後續發出的訪問請求;和,回應模組,用於在所述人機識別的結果為人類的情況下,回應所述機器後續發出的訪問請求。
參考圖6所示,本發明還提供了一種行為特徵模型的訓練裝置實施例,在本實施例中,該訓練裝置可以包括:
預過濾模組601,用於依據若干操作樣本的操作移動速度和操作隨機度,對所述若干操作樣本進行預過濾。
降維模組602,用於採用主成分分析PCA演算法對預過濾之後的操作樣本的行為特徵資料進行降維。
分類別模組603,用於採用支援向量機SVM演算法
對降維後的行為特徵資料進行分類,以獲得符合生物行為的第一類行為特徵資料,和符合機器行為的第二類行為特徵資料。
其中,所述降維模組602可以包括:去均值子模組,用於對預過濾之後的操作樣本的行為特徵資料進行去均值;計算協方差矩陣子模組,用於計算所述去均值後的行為特徵資料的協方差矩陣;計算特徵參數子模組,用於依據協方差矩陣計算行為特徵資料的協方差特徵值和特徵向量;降冪排列子模組,用於按照所述協方差特徵值對所述行為特徵資料進行降冪排列;和,選取子模組,用於從降冪排列後的行為特徵資料中選取前若干個行為特徵資料作為降維矩陣;降維子模組,用於依據所述降維矩陣對所述行為特徵資料進行降維。
其中,所述分類別模組可以包括:投影子模組,用於使用映射函數將降維後的行為特徵資料投影到高維空間;訓練子模組,用於基於投影後的行為特徵資料的樣本資料對支援向量機進行訓練;和,保存子模組,用於將訓練結果保存為人類操作和機器操作的分類器。
與上述本發明一種行為特徵資料的採集方法實施例所提供的方法相對應,參見圖7,本發明還提供了一種行為特徵資料的採集裝置實施例,在本實施例中,該裝置可以整合於用戶端,該裝置可以包括:
發送請求模組701,用於向伺服器發送當前觸發的人
機識別請求。
接收第一操作模組702,用於接收伺服器回應於所述人機識別請求而轉列的、用於人機識別的第一操作;所述第一動作表示用於人機識別的操作軌跡。
發送操作模組703,用於將根據所述第一操作而觸發的第二操作發送給伺服器,以便伺服器依據預先設置好的行為特徵模型,對所述第二操作的觸發主體進行人機識別;其中,所述行為特徵模型為:依據操作樣本訓練得到的、人類操作和機器操作的分類器。
在本實施例中,用戶端被觸發的第二操作是根據伺服器發送的第一操作而進行的,而第一操作可以示意出用於人機識別的操作軌跡等,然後用戶端提交第二操作之後,伺服器再根據預先訓練好的行為特徵模型,對第二操作的觸發主體進行人機識別,即判斷第二操作的觸發主體是人類還是機器。因為在實際中每個人進行滑鼠操作或者觸摸操作的時候,都是具有自己的特點,例如,習慣按照某一個速度進行觸摸,或者不可避免的在觸摸過程中產生抖動等等,因此,根據用戶端提交的第二操作的行為特徵資料,可以判定第二操作是人類所觸發的還是機器觸發。這樣不僅可以比現有技術中進行人機識別更準確,進而,可以拒絕機器的訪問請求,從而進一步提高網路安全性;還能夠因為使用者可以直接按照第一操作觸發第二操作即可,也提升了使用者體驗。
與上述本發明一種人機識別方法實施例2所提供的方
法相對應,參見圖8,本發明還提供了一種人機識別裝置實施例2,在本實施例中,該裝置可以整合於獨立設備上,該裝置可以包括:
第二轉列模組801,用於回應於當前觸發的人機識別請求,轉列出用於人機識別的第一操作以供展示。
第二接收第二操作模組802,用於接收根據所述第一操作所表示的操作軌跡而觸發的第二操作。
第二識別模組803,用於依據預先設置好的行為特徵模型,對所述第二操作的觸發主體進行人機識別;其中,所述行為特徵模型為:依據若干操作樣本訓練得到的、人類操作和機器操作的分類器。
在本實施例中,被觸發的第二操作是根據第一操作而進行的,而第一操作可以示意出用於人機識別的操作軌跡等,然後再根據預先訓練好的行為特徵模型,對第二操作的觸發主體進行人機識別,即判斷第二操作的觸發主體是人類還是機器。因為在實際中每個人進行滑鼠操作或者觸摸操作的時候,都是具有自己的特點,例如,習慣按照某一個速度進行觸摸,或者不可避免的在觸摸過程中產生抖動等等,因此,根據第二操作的行為特徵資料,可以判定第二操作是人類所觸發的還是機器觸發。這樣不僅可以比現有技術中進行人機識別更準確,進而,可以拒絕機器的訪問請求,從而進一步提高網路安全性;還能夠因為使用者可以直接按照第一操作觸發第二操作即可,也提升了使用者體驗。
需要說明的是,本說明書中的各個實施例均採用遞進的方式描述,每個實施例重點說明的都是與其他實施例的不同之處,各個實施例之間相同相似的部分互相參見即可。對於裝置類實施例而言,由於其與方法實施例基本相似,所以描述的比較簡單,相關之處參見方法實施例的部分說明即可。
最後,還需要說明的是,在本文中,諸如第一和第二等之類的關係術語僅僅用來將一個實體或者操作與另一個實體或操作區分開來,而不一定要求或者暗示這些實體或操作之間存在任何這種實際的關係或者順序。而且,術語“包括”、“包含”或者其任何其他變體意在涵蓋非排他性的包含,從而使得包括一系列要素的過程、方法、物品或者設備不僅包括那些要素,而且還包括沒有明確列出的其他要素,或者是還包括為這種過程、方法、物品或者設備所固有的要素。在沒有更多限制的情況下,由語句“包括一個......”限定的要素,並不排除在包括所述要素的過程、方法、物品或者設備中還存在另外的相同要素。
以上對本發明所提供的人機識別方法及裝置、行為特徵資料的採集方法及裝置進行了詳細介紹,本文中應用了具體個例對本發明的原理及實施方式進行了闡述,以上實施例的說明只是用於幫助理解本發明的方法及其核心思想;同時,對於本領域的一般技術人員,依據本發明的思想,在具體實施方式及應用範圍上均會有改變之處,綜上所述,本說明書內容不應理解為對本發明的限制。
Claims (21)
- 一種人機識別方法,應用於伺服器,該方法包括:回應於用戶端發送的人機識別請求,轉列出用於人機識別的第一操作以供發送至所述用戶端進行展示;接收用戶端當前提交之根據所述第一操作所表示的操作軌跡而觸發的第二操作;依據預先設置好的行為特徵模型,對所述第二操作的觸發主體進行人機識別;其中,所述行為特徵模型為依據若干操作樣本訓練得到的人類操作和機器操作的分類器;其中,所述行為特徵模型的行為特徵資料包括每一段操作滑動時長;其中所述每一段操作滑動時長透過以下方式得到:將操作樣本的總操作時間均分為若干段,並計算每一段子操作的時間長度。
- 根據請求項第1項所述的方法,其中,所述操作樣本的行為特徵資料包括:操作滑動時長。
- 根據請求項第2項所述的方法,其中,所述操作滑動時長透過以下方式得到:統計所述操作樣本的有效操作的總時間長度。
- 根據請求項第1項所述的方法,其中,所述行為特徵模型的行為特徵資料進一步包括:每一段偏移中線次數和每一段平均偏移距離。
- 根據請求項第4項所述的方法,其中,所述每一段偏移中線次數透過以下方式得到:將操作樣本的總操作時 間均分為若干段,並計算每一段子操作偏離中軸線的次數;所述每一段平均偏移距離透過以下方式得到:將操作樣本的總操作時間均分為若干段,並計算每一段子操作偏離中軸線的距離。
- 根據請求項第1項所述的方法,其中,所述操作樣本的行為特徵資料包括:操作觸發初始位置和操作觸發終止位置。
- 根據請求項第6項所述的方法,其中,所述操作觸發初始位置和操作觸發終止位置透過以下方式得到:將操作樣本開始被觸發時的座標確定為操作觸發初始位置,以及,將操作樣本停止被觸發時的座標確定為操作觸發終止位置。
- 根據請求項第1項所述的方法,其中,所述依據預先設置好的行為特徵模型,對所述第二操作的觸發主體進行人機識別,包括:提取所述第二操作的待識別行為特徵資料;在所述待識別行為特徵資料符合人類操作的情況下,確定所述第二操作的觸發主體為人類;在所述待識別行為特徵資料符合機器操作的情況下,確定所述第二操作的觸發主體為機器。
- 根據請求項第1項所述的方法,其中,所述對所述第二操作的觸發主體進行人機識別之後,還包括:在所述人機識別的結果為機器的情況下,拒絕所述機 器後續發出的訪問請求,或者,在所述人機識別的結果為人類的情況下,回應所述機器後續發出的訪問請求。
- 一種行為特徵模型的訓練方法,包括:依據若干操作樣本的移動速度和操作隨機度,對所述若干操作樣本進行預過濾;採用主成分分析PCA演算法對預過濾之後的操作樣本的行為特徵資料進行降維;採用支援向量機SVM演算法對降維後的行為特徵資料進行分類,以獲得符合生物行為的人類操作和符合機器行為的機器操作;其中,所述採用主成分分析PCA演算法對預過濾之後的操作樣本的行為特徵資料進行降維,包括:對預過濾之後的操作樣本的行為特徵資料進行去均值;計算所述去均值後的行為特徵資料的協方差矩陣;依據協方差矩陣計算行為特徵資料的協方差特徵值和特徵向量;按照所述協方差特徵值對所述行為特徵資料進行降冪排列;從降冪排列後的行為特徵資料中選取前若干個行為特徵資料作為降維矩陣;依據所述降維矩陣對行為特徵資料進行降維。
- 根據請求項第10項所述的方法,其中,所述採用 支援向量機SVM演算法對降維後的行為特徵資料進行分類,包括:對所述降維後的行為特徵資料進行二值化,得到降維後的行為特徵資料的二值化圖像;從所述二值化圖像中提取行為特徵資料的二值化特徵;對所述二值化特徵按照SVM的特定格式進行格式化,得到格式化後的二值化特徵;按照預先設置好的SVM參數,將所述二值化特徵訓練為:符合生物行為的第一類行為特徵資料和符合機器行為的第二類行為特徵資料。
- 一種採集行為特徵資料的方法,應用於用戶端,包括:向伺服器發送當前觸發的人機識別請求;接收伺服器回應於所述人機識別請求而轉列的、用於人機識別的第一操作;所述第一動作表示用於人機識別的操作軌跡;將根據所述第一操作而觸發的第二操作發送給伺服器,以便伺服器依據預先設置好的行為特徵模型,對所述第二操作的觸發主體進行人機識別;其中,所述行為特徵模型為:依據操作樣本訓練得到的人類操作和機器操作的分類器;其中所述行為特徵模型的行為特徵資料包括每一段操作滑動時長; 其中所述每一段操作滑動時長透過以下方式得到:將操作樣本的總操作時間均分為若干段,並計算每一段子操作的時間長度。
- 一種人機識別方法,應用於獨立設備上,包括:回應於當前觸發的人機識別請求,轉列出用於人機識別的第一操作以供展示;接收根據所述第一操作所表示的操作軌跡而觸發的第二操作;依據預先設置好的行為特徵模型,對所述第二操作的觸發主體進行人機識別;其中,所述行為特徵模型為:依據若干操作樣本訓練得到的人類操作和機器操作的分類器;其中所述行為特徵模型的行為特徵資料包括每一段操作滑動時長;其中所述每一段操作滑動時長透過以下方式得到:將操作樣本的總操作時間均分為若干段,並計算每一段子操作的時間長度。
- 一種人機識別裝置,整合於伺服器端,包括:第一轉列模組,用於回應於用戶端發送的人機識別請求,轉列出用於人機識別的第一操作以供發送至所述用戶端進行展示;第一接收第二操作模組,用於接收用戶端當前提交的.根據所述第一操作所表示的操作軌跡而觸發的第二操作的操作; 第一識別模組,用於依據預先設置好的行為特徵模型,對所述第二操作的觸發主體進行人機識別;其中,所述行為特徵模型為:依據若干操作樣本訓練得到的人類操作和機器操作的分類器;其中所述行為特徵模型的行為特徵資料包括每一段操作滑動時長;其中所述每一段操作滑動時長透過以下方式得到:將操作樣本的總操作時間均分為若干段,並計算每一段子操作的時間長度。
- 根據請求項第14項所述的裝置,其中,所述第一識別模組包括:提取特徵資料子模組,用於提取所述第二操作的待識別行為特徵資料;第一確定子模組,用於在所述待識別行為特徵資料符合人類操作的情況下,確定所述第二操作的觸發主體為人類;第二確定子模組,在所述待識別行為特徵資料符合機器操作的情況下,確定所述第二操作的觸發主體為機器。
- 根據請求項第14項所述的裝置,其中於,還包括:拒絕模組,用於在所述人機識別的結果為機器的情況下,拒絕所述機器後續發出的訪問請求;和回應模組,用於在所述人機識別的結果為人類的情況下,回應所述機器後續發出的訪問請求。
- 一種行為特徵模型的訓練裝置,包括:預過濾模組,用於依據若干操作樣本的操作移動速度和操作隨機度,對所述若干操作樣本進行預過濾;降維模組,用於採用主成分分析PCA演算法對預過濾之後的操作樣本的行為特徵資料進行降維;分類別模組,用於採用支援向量機SVM演算法對降維後的行為特徵資料進行分類,以獲得符合生物行為的第一類行為特徵資料,和符合機器行為的第二類行為特徵資料。
- 根據請求項第17項所述的裝置,其中,所述降維模組包括:去均值子模組,用於對預過濾之後的操作樣本的行為特徵資料進行去均值;計算協方差矩陣子模組,用於計算所述去均值後的行為特徵資料的協方差矩陣;計算特徵參數子模組,用於依據協方差矩陣計算行為特徵資料的協方差特徵值和特徵向量;降冪排列子模組,用於按照所述協方差特徵值對所述行為特徵資料進行降冪排列;選取子模組,用於從降冪排列後的行為特徵資料中選取前若干個行為特徵資料作為降維矩陣;降維子模組,用於依據所述降維矩陣對所述行為特徵資料進行降維。
- 根據請求項第17項所述的裝置,其中,所述分類 別模組包括:投影子模組,用於使用映射函數將降維後的行為特徵資料投影到高維空間;訓練子模組,用於基於投影後的行為特徵資料的樣本資料對支援向量機進行訓練;保存子模組,用於將訓練結果保存為人類操作和機器操作的分類器。
- 一種採集行為特徵資料的裝置,整合於用戶端,包括:發送請求模組,用於向伺服器發送當前觸發的人機識別請求;接收第一操作模組,用於接收伺服器回應於所述人機識別請求而轉列的、用於人機識別的第一操作;所述第一動作表示用於人機識別的操作軌跡;發送操作模組,用於將根據所述第一操作而觸發的第二操作發送給伺服器,以便伺服器依據預先設置好的行為特徵模型,對所述第二操作的觸發主體進行人機識別;其中,所述行為特徵模型為:依據操作樣本訓練得到的人類操作和機器操作的分類器;其中所述行為特徵模型的行為特徵資料包括每一段操作滑動時長;其中所述每一段操作滑動時長透過以下方式得到:將操作樣本的總操作時間均分為若干段,並計算每一段子操作的時間長度。
- 一種人機識別裝置,整合於獨立設備上,包括:第二轉列模組,用於回應於當前觸發的人機識別請求,轉列出用於人機識別的第一操作以供展示;第二接收第二操作模組,用於接收根據所述第一操作所表示的操作軌跡而觸發的第二操作;第二識別模組,用於依據預先設置好的行為特徵模型,對所述第二操作的觸發主體進行人機識別;其中,所述行為特徵模型為:依據若干操作樣本訓練得到的人類操作和機器操作的分類器;其中所述行為特徵模型的行為特徵資料包括每一段操作滑動時長;其中所述每一段操作滑動時長透過以下方式得到:將操作樣本的總操作時間均分為若干段,並計算每一段子操作的時間長度。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510191030.X | 2015-04-21 | ||
CN201510191030.XA CN106155298B (zh) | 2015-04-21 | 2015-04-21 | 人机识别方法及装置、行为特征数据的采集方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
TW201638816A TW201638816A (zh) | 2016-11-01 |
TWI689942B true TWI689942B (zh) | 2020-04-01 |
Family
ID=57148249
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW104142269A TWI689942B (zh) | 2015-04-21 | 2015-12-16 | 人機識別方法及裝置、行為特徵資料的採集方法及裝置 |
Country Status (6)
Country | Link |
---|---|
US (2) | US9917848B2 (zh) |
EP (1) | EP3286679B1 (zh) |
JP (1) | JP2018520397A (zh) |
KR (1) | KR20170120644A (zh) |
CN (1) | CN106155298B (zh) |
TW (1) | TWI689942B (zh) |
Families Citing this family (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106529269A (zh) * | 2016-12-01 | 2017-03-22 | 微梦创科网络科技(中国)有限公司 | 一种安全验证方法及系统 |
CN106815515A (zh) * | 2016-12-12 | 2017-06-09 | 微梦创科网络科技(中国)有限公司 | 一种基于轨迹验证的验证码实现方法及装置 |
WO2018146480A1 (en) * | 2017-02-08 | 2018-08-16 | Sage (Uk) Limited | Identifying human interaction with a computer |
CN108460268A (zh) | 2017-02-20 | 2018-08-28 | 阿里巴巴集团控股有限公司 | 验证方法及装置 |
CN108229128A (zh) * | 2017-04-10 | 2018-06-29 | 珠海市魅族科技有限公司 | 一种信息识别的方法及装置 |
CN108804885B (zh) * | 2017-05-03 | 2022-06-14 | 阿里巴巴集团控股有限公司 | 人机验证方法和装置、存储介质及处理器 |
CN108877813A (zh) * | 2017-05-12 | 2018-11-23 | 阿里巴巴集团控股有限公司 | 人机识别的方法、装置和系统 |
CN108958458B (zh) * | 2017-05-19 | 2022-11-25 | 腾讯科技(深圳)有限公司 | 一种用户设备互动方法、装置、用户设备、以及计算机可读存储介质 |
CN107153786A (zh) * | 2017-05-26 | 2017-09-12 | 北京奇点数聚科技有限公司 | 一种人机识别方法、系统及终端设备、可读存储介质 |
CN107330311A (zh) * | 2017-06-29 | 2017-11-07 | 苏州锦佰安信息技术有限公司 | 一种人机识别的方法和设备 |
WO2019001566A1 (zh) * | 2017-06-29 | 2019-01-03 | 苏州锦佰安信息技术有限公司 | 一种认证的方法和设备 |
CN107463879A (zh) * | 2017-07-05 | 2017-12-12 | 成都数联铭品科技有限公司 | 基于深度学习的人体行为识别方法 |
CN107507027A (zh) * | 2017-08-15 | 2017-12-22 | 上海精数信息科技有限公司 | 基于人机识别的广告投放控制方法及投放系统 |
CN107491991A (zh) * | 2017-08-15 | 2017-12-19 | 上海精数信息科技有限公司 | 基于晃动的人机识别方法及应用其的广告投放方法和系统 |
CN107545464A (zh) * | 2017-08-15 | 2018-01-05 | 上海精数信息科技有限公司 | 基于WiFi的人机识别方法及应用其的广告投放方法和系统 |
CN107688826A (zh) * | 2017-08-15 | 2018-02-13 | 上海精数信息科技有限公司 | 基于光感的人机识别方法及应用其的广告投放方法和系统 |
CN107679374B (zh) * | 2017-08-23 | 2019-03-15 | 北京三快在线科技有限公司 | 一种基于滑动轨迹的人机识别方法及装置,电子设备 |
CN109426701B (zh) * | 2017-08-30 | 2022-04-05 | 西门子(中国)有限公司 | 数据模型的运行方法、运行系统和存储介质 |
CN107911338B (zh) * | 2017-10-13 | 2019-06-28 | 深圳市迅雷网络技术有限公司 | 一种数据验证方法、相关设备和系统 |
CN108022101A (zh) * | 2017-11-29 | 2018-05-11 | 上海壹账通金融科技有限公司 | 人机输入操作识别方法、装置、设备及可读存储介质 |
CN107766852A (zh) * | 2017-12-06 | 2018-03-06 | 电子科技大学 | 一种基于卷积神经网络的人机鼠标轨迹检测方法 |
CN108287989B (zh) * | 2018-01-18 | 2021-05-28 | 北京科技大学 | 一种基于轨迹的滑动验证码人机识别方法 |
CN110069910A (zh) * | 2018-01-23 | 2019-07-30 | 袁明凯 | 一种机器行为确定方法、网页浏览器及网页服务器 |
CN108416198B (zh) * | 2018-02-06 | 2022-02-01 | 平安科技(深圳)有限公司 | 人机识别模型的建立装置、方法及计算机可读存储介质 |
CN114374560A (zh) * | 2018-02-07 | 2022-04-19 | 阿里巴巴集团控股有限公司 | 数据处理方法、设备及存储介质 |
CN110299063B (zh) * | 2018-03-22 | 2022-01-25 | 阿里巴巴集团控股有限公司 | 轨迹数据的可视化展示方法及装置 |
CN108491714A (zh) * | 2018-04-09 | 2018-09-04 | 众安信息技术服务有限公司 | 验证码的人机识别方法 |
CN109033793A (zh) * | 2018-07-11 | 2018-12-18 | 北京京东金融科技控股有限公司 | 滑动验证码人机识别方法及装置、电子设备及可读介质 |
TWI697845B (zh) | 2018-07-13 | 2020-07-01 | 緯創資通股份有限公司 | 多目標追蹤方法與系統 |
CN109447099B (zh) * | 2018-08-28 | 2022-01-07 | 西安理工大学 | 一种基于pca降维的多分类器融合方法 |
CN109190357B (zh) * | 2018-08-30 | 2021-08-06 | 袁精侠 | 一种仅利用缓存资源进行人机验证的手势验证码实现方法 |
CN109255230A (zh) * | 2018-09-29 | 2019-01-22 | 武汉极意网络科技有限公司 | 异常验证行为的识别方法、系统、用户设备及存储介质 |
CN109361660B (zh) * | 2018-09-29 | 2021-09-03 | 武汉极意网络科技有限公司 | 异常行为分析方法、系统、服务器及存储介质 |
CN109194689B (zh) * | 2018-10-22 | 2021-04-23 | 武汉极意网络科技有限公司 | 异常行为识别方法、装置、服务器及存储介质 |
CN110162939B (zh) * | 2018-10-25 | 2023-05-02 | 腾讯科技(深圳)有限公司 | 人机识别方法、设备和介质 |
CN110046647A (zh) * | 2019-03-08 | 2019-07-23 | 同盾控股有限公司 | 一种验证码机器行为识别方法及装置 |
CN109977651A (zh) * | 2019-03-14 | 2019-07-05 | 广州多益网络股份有限公司 | 基于滑动轨迹的人机识别方法、装置及电子设备 |
CN111723348B (zh) * | 2019-03-18 | 2023-07-07 | 腾讯科技(深圳)有限公司 | 人机识别方法、装置、设备及存储介质 |
CN110188519A (zh) * | 2019-05-20 | 2019-08-30 | 北京奇艺世纪科技有限公司 | 一种异常滑动轨迹的检测方法、装置及电子设备 |
CN110768980B (zh) * | 2019-10-22 | 2022-04-05 | 武汉极意网络科技有限公司 | 网络人机验证方法、装置、设备及存储介质 |
CN111047332B (zh) * | 2019-11-13 | 2021-05-07 | 支付宝(杭州)信息技术有限公司 | 模型训练和风险识别方法、装置及设备 |
CN111046379B (zh) * | 2019-12-06 | 2021-06-18 | 支付宝(杭州)信息技术有限公司 | 一种对抗攻击的监测方法和装置 |
CN111046957B (zh) * | 2019-12-13 | 2021-03-16 | 支付宝(杭州)信息技术有限公司 | 一种模型盗用的检测、模型的训练方法和装置 |
CN111125669B (zh) * | 2019-12-17 | 2022-03-01 | 美的集团股份有限公司 | 滑动操作人机识别方法、装置、电子设备及存储介质 |
CN111125670B (zh) * | 2019-12-17 | 2022-03-01 | 美的集团股份有限公司 | 滑动轨迹人机识别方法、装置、电子设备及存储介质 |
CN111666968A (zh) * | 2020-04-21 | 2020-09-15 | 北京奇艺世纪科技有限公司 | 人机识别方法及装置、电子设备、计算机可读存储介质 |
CN111385313B (zh) * | 2020-05-28 | 2020-09-11 | 支付宝(杭州)信息技术有限公司 | 一种对象请求合法性验证的方法和系统 |
CN112559332B (zh) * | 2020-07-13 | 2023-04-07 | 支付宝(杭州)信息技术有限公司 | 一种生物特征识别的攻击测试方法、装置及设备 |
CN112182519B (zh) * | 2020-10-10 | 2021-05-11 | 上海威固信息技术股份有限公司 | 一种计算机存储系统安全访问方法及访问系统 |
US20220239673A1 (en) * | 2021-01-27 | 2022-07-28 | Zscaler, Inc. | System and method for differentiating between human and non-human access to computing resources |
CN113900889B (zh) * | 2021-09-18 | 2023-10-24 | 百融至信(北京)科技有限公司 | 一种智能识别app人为操作的方法及系统 |
US20230199025A1 (en) * | 2021-12-21 | 2023-06-22 | Microsoft Technology Licensing, Llc | Account classification using a trained model and sign-in data |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090150983A1 (en) * | 2007-08-27 | 2009-06-11 | Infosys Technologies Limited | System and method for monitoring human interaction |
US20090276839A1 (en) * | 2008-05-02 | 2009-11-05 | Fortknock Protection Llc | Identity collection, verification and security access control system |
US20120124655A1 (en) * | 2010-07-04 | 2012-05-17 | David Valin | Apparatus for connecting a human key identification to objects and content or identification, tracking, delivery, advertising, and marketing |
CN102737019A (zh) * | 2011-03-31 | 2012-10-17 | 阿里巴巴集团控股有限公司 | 机器行为确定方法、网页浏览器及网页服务器 |
Family Cites Families (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2558943B2 (ja) * | 1990-10-19 | 1996-11-27 | 富士通株式会社 | ニューラルネットワークを用いた人間の動作自動認識装置 |
CN1517889A (zh) | 2003-01-14 | 2004-08-04 | 盖内蒂克瓦尔有限公司 | 具有身份认证功能的键盘装置及其方法 |
US20050008148A1 (en) | 2003-04-02 | 2005-01-13 | Dov Jacobson | Mouse performance identification |
JP2006133937A (ja) | 2004-11-04 | 2006-05-25 | Fuji Xerox Co Ltd | 動作識別装置 |
US7370050B2 (en) * | 2005-02-28 | 2008-05-06 | Microsoft Corporation | Discoverability and enumeration mechanisms in a hierarchically secure storage system |
US20070026372A1 (en) * | 2005-07-27 | 2007-02-01 | Huelsbergen Lorenz F | Method for providing machine access security by deciding whether an anonymous responder is a human or a machine using a human interactive proof |
KR100738537B1 (ko) | 2005-12-27 | 2007-07-11 | 삼성전자주식회사 | 네트워크 침입 탐지 시스템 및 그 탐지 방법 |
GB2437100A (en) * | 2006-04-10 | 2007-10-17 | Univ Westminster | Biometric security system using keystroke dynamics of a user's login attempt |
US20080086524A1 (en) | 2006-08-18 | 2008-04-10 | Akamai Technologies, Inc. | Method and system for identifying valid users operating across a distributed network |
DE102007011912A1 (de) * | 2007-03-13 | 2008-09-18 | Sanofi-Aventis | Verfahren für das Erzeugen von Peptidbibliotheken und deren Verwendung |
US8352598B2 (en) | 2007-11-27 | 2013-01-08 | Inha-Industry Partnership Institute | Method of providing completely automated public turing test to tell computer and human apart based on image |
US8140335B2 (en) * | 2007-12-11 | 2012-03-20 | Voicebox Technologies, Inc. | System and method for providing a natural language voice user interface in an integrated voice navigation services environment |
JP5252393B2 (ja) * | 2008-05-13 | 2013-07-31 | 独立行政法人情報通信研究機構 | 動作学習装置 |
US8683582B2 (en) | 2008-06-16 | 2014-03-25 | Qualcomm Incorporated | Method and system for graphical passcode security |
US8380503B2 (en) | 2008-06-23 | 2013-02-19 | John Nicholas and Kristin Gross Trust | System and method for generating challenge items for CAPTCHAs |
WO2010105249A1 (en) * | 2009-03-13 | 2010-09-16 | Rutgers, The State University Of New Jersey | Systems and methods for the detection of malware |
US9225531B2 (en) * | 2009-06-18 | 2015-12-29 | Visa International Service Association | Automated test to tell computers and humans apart |
US11520455B2 (en) * | 2009-06-29 | 2022-12-06 | International Business Machines Corporation | Dioramic user interface having a user customized experience |
US8669846B2 (en) * | 2009-10-19 | 2014-03-11 | Eigent Technologies Inc. | Wireless devices for process automation and verification |
CN101833619A (zh) | 2010-04-29 | 2010-09-15 | 西安交通大学 | 基于键鼠交叉认证的身份判定方法 |
JP5054177B2 (ja) * | 2010-09-28 | 2012-10-24 | 楽天株式会社 | 認証システム、認証方法、認証装置、情報端末、プログラム及び情報記録媒体 |
CN102542137A (zh) * | 2010-12-21 | 2012-07-04 | F2威尔股份有限公司 | 基于全自动区分人机的测试数据的数据处理方法与系统 |
WO2012128916A2 (en) * | 2011-03-24 | 2012-09-27 | AYaH, LLC | Method for generating a human likeness score |
JP6106921B2 (ja) * | 2011-04-26 | 2017-04-05 | 株式会社リコー | 撮像装置、撮像方法および撮像プログラム |
US8635692B2 (en) | 2011-05-04 | 2014-01-21 | Cisco Technology, Inc. | System and method for user friendly detection of spammers |
JP5520886B2 (ja) * | 2011-05-27 | 2014-06-11 | 日本電信電話株式会社 | 行動モデル学習装置、方法、及びプログラム |
US9183362B2 (en) * | 2011-08-05 | 2015-11-10 | Mobile Messenger Global, Inc. | Method and system for verification of human presence at a mobile device |
JP5953673B2 (ja) * | 2011-08-11 | 2016-07-20 | 日本電気株式会社 | 行動識別装置、行動識別方法、及びプログラム |
JP6168645B2 (ja) * | 2012-03-31 | 2017-07-26 | 国立大学法人秋田大学 | 反転チューリングテスト方法およびアクセス認証方法 |
CN102902971A (zh) * | 2012-08-31 | 2013-01-30 | 电子科技大学 | 基于智能视觉感知的电梯人流量统计方法及系统 |
CN103093235B (zh) * | 2012-12-30 | 2016-01-20 | 北京工业大学 | 一种基于改进距离核主成分分析的手写体数字识别方法 |
CN104036780B (zh) * | 2013-03-05 | 2017-05-24 | 阿里巴巴集团控股有限公司 | 一种人机识别方法及系统 |
CN104104652B (zh) * | 2013-04-03 | 2017-08-18 | 阿里巴巴集团控股有限公司 | 一种人机识别方法、网络服务接入方法及相应的设备 |
US9589120B2 (en) * | 2013-04-05 | 2017-03-07 | Microsoft Technology Licensing, Llc | Behavior based authentication for touch screen devices |
US9177318B2 (en) * | 2013-04-22 | 2015-11-03 | Palo Alto Research Center Incorporated | Method and apparatus for customizing conversation agents based on user characteristics using a relevance score for automatic statements, and a response prediction function |
US9003196B2 (en) * | 2013-05-13 | 2015-04-07 | Hoyos Labs Corp. | System and method for authorizing access to access-controlled environments |
JP2014222392A (ja) * | 2013-05-13 | 2014-11-27 | 株式会社Nttドコモ | 電子機器、認証方法、プログラム |
CN104239758B (zh) | 2013-06-13 | 2018-04-27 | 阿里巴巴集团控股有限公司 | 一种人机识别方法及相应的人机识别系统 |
CN104301286B (zh) | 2013-07-15 | 2018-03-23 | 中国移动通信集团黑龙江有限公司 | 用户登录认证方法及装置 |
US9996803B2 (en) * | 2013-09-03 | 2018-06-12 | Arizona Board Of Regents On Behalf Of Arizona State University | Systems and methods for authenticating a user through an unobservable re-authentication system |
CN103530543B (zh) | 2013-10-30 | 2017-11-14 | 无锡赛思汇智科技有限公司 | 一种基于行为特征的用户识别方法及系统 |
US9015847B1 (en) * | 2014-05-06 | 2015-04-21 | Synack, Inc. | Computer system for distributed discovery of vulnerabilities in applications |
US9699205B2 (en) * | 2015-08-31 | 2017-07-04 | Splunk Inc. | Network security system |
-
2015
- 2015-04-21 CN CN201510191030.XA patent/CN106155298B/zh active Active
- 2015-12-16 TW TW104142269A patent/TWI689942B/zh active
-
2016
- 2016-04-07 US US15/093,251 patent/US9917848B2/en active Active
- 2016-04-08 EP EP16783589.1A patent/EP3286679B1/en active Active
- 2016-04-08 JP JP2017549526A patent/JP2018520397A/ja active Pending
- 2016-04-08 KR KR1020177026468A patent/KR20170120644A/ko not_active Application Discontinuation
-
2018
- 2018-01-30 US US15/883,804 patent/US10404720B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090150983A1 (en) * | 2007-08-27 | 2009-06-11 | Infosys Technologies Limited | System and method for monitoring human interaction |
US20090276839A1 (en) * | 2008-05-02 | 2009-11-05 | Fortknock Protection Llc | Identity collection, verification and security access control system |
US20120124655A1 (en) * | 2010-07-04 | 2012-05-17 | David Valin | Apparatus for connecting a human key identification to objects and content or identification, tracking, delivery, advertising, and marketing |
CN102737019A (zh) * | 2011-03-31 | 2012-10-17 | 阿里巴巴集团控股有限公司 | 机器行为确定方法、网页浏览器及网页服务器 |
Also Published As
Publication number | Publication date |
---|---|
EP3286679A4 (en) | 2018-10-10 |
CN106155298B (zh) | 2019-11-08 |
KR20170120644A (ko) | 2017-10-31 |
EP3286679B1 (en) | 2021-01-20 |
TW201638816A (zh) | 2016-11-01 |
US20160315948A1 (en) | 2016-10-27 |
CN106155298A (zh) | 2016-11-23 |
EP3286679A1 (en) | 2018-02-28 |
US20180270253A1 (en) | 2018-09-20 |
JP2018520397A (ja) | 2018-07-26 |
US10404720B2 (en) | 2019-09-03 |
US9917848B2 (en) | 2018-03-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI689942B (zh) | 人機識別方法及裝置、行為特徵資料的採集方法及裝置 | |
US20170140138A1 (en) | Behavior based authentication for touch screen devices | |
US9298912B2 (en) | System and method for distinguishing human swipe input sequence behavior and using a confidence value on a score to detect fraudsters | |
Fong et al. | A biometric authentication model using hand gesture images | |
Guennouni et al. | Biometric systems and their applications | |
US20190147218A1 (en) | User specific classifiers for biometric liveness detection | |
Qin et al. | Finger-vein quality assessment by representation learning from binary images | |
Antal et al. | Online Signature Verification on MOBISIG Finger‐Drawn Signature Corpus | |
Nassi et al. | Handwritten signature verification using hand-worn devices | |
Longjam et al. | Writer independent handwritten signature verification on multi-scripted signatures using hybrid CNN-BiLSTM: A novel approach | |
Alpar | Online signature verification by continuous wavelet transformation of speed signals | |
Ellavarason et al. | Evaluation of stability of swipe gesture authentication across usage scenarios of mobile device | |
PS | Performance evaluation of SVM-based hand gesture detection and recognition system using distance transform on different data sets for autonomous vehicle moving applications | |
WO2016171923A1 (en) | Method and system for identifying a human or machine | |
Abdulali et al. | Gender detection using random forest | |
Ge et al. | Learning multi-channel correlation filter bank for eye localization | |
Al-Jarrah et al. | Finger-drawn signature verification on touch devices using statistical anomaly detectors | |
Szczuko et al. | Variable length sliding models for banking clients face biometry | |
Elssaedi et al. | Comparing the effectiveness of different classifiers of data mining for signature recognition system | |
Mishra et al. | Integrating State-of-the-Art Face Recognition and Anti-Spoofing Techniques into Enterprise Information Systems | |
Chao et al. | Swipe gestures for user authentication in smartphones | |
Peralta et al. | Learning a policy for gesture-based active multi-touch authentication | |
Dittmar et al. | A conversive hidden non-Markovian model based structure for discriminating spatio-temporal movement trajectories | |
Almasre et al. | The Validation of Gesture-Based Datasets for Arabic Sign Language | |
Lee et al. | One-Stage Mobile Palmprint Recognition via Keypoint Detection Network |