JP2018520397A - 人間であるか機械であるかを識別するための方法及びシステム - Google Patents

人間であるか機械であるかを識別するための方法及びシステム Download PDF

Info

Publication number
JP2018520397A
JP2018520397A JP2017549526A JP2017549526A JP2018520397A JP 2018520397 A JP2018520397 A JP 2018520397A JP 2017549526 A JP2017549526 A JP 2017549526A JP 2017549526 A JP2017549526 A JP 2017549526A JP 2018520397 A JP2018520397 A JP 2018520397A
Authority
JP
Japan
Prior art keywords
machine
human
action
behavior characteristic
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017549526A
Other languages
English (en)
Inventor
ワン・チャオシン
ウェイ・シングオ
リン・ソンイン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba Group Holding Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority claimed from PCT/US2016/026624 external-priority patent/WO2016171923A1/en
Publication of JP2018520397A publication Critical patent/JP2018520397A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/12Applying verification of the received information
    • H04L63/126Applying verification of the received information the source of the received data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/316User authentication by observing the pattern of computer usage, e.g. typical user behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/50Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
    • G06F21/55Detecting local intrusion or implementing counter-measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/10Network architectures or network communication protocols for network security for controlling access to devices or network resources
    • H04L63/102Entity profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/14Network architectures or network communication protocols for network security for detecting or protecting against malicious traffic
    • H04L63/1408Network architectures or network communication protocols for network security for detecting or protecting against malicious traffic by monitoring network traffic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2133Verifying human interaction, e.g., Captcha

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【解決手段】 人間であるか機械であるかの識別が開示される。この開示は、現在トリガされている人間であるか機械であるかの識別リクエストをサーバに送信すること、人間であるか機械であるかの識別リクエストに応じてサーバによってレンダリングされる第1の動作を受信し、第1の動作は、人間か機械かを識別するように構成され、人間であるか機械であるかを識別するための動作トラックを表示する、受信すること、及び第1の動作に応じてトリガされた第2の動作をサーバに送信し、事前に設定された挙動特性モデルに基づいて、第2の動作のためのトリガ主体について人間であるか機械であるかを識別すること、を含む。【選択図】 図1A

Description

[関連技術の相互参照]
本出願は、2015年4月21日に出願され名称を「A HUMAN OR MACHINE METHOD AND DEVICE AND A METHOD AND A DEVICE FOR COLLECTING BEHAVIORAL CHARACTERISTIC DATA(人間か又は機械か方法及びデバイス、並びに挙動特性データを収集するための方法及びデバイス)」とする中国特許出願第201510191030.Xに基づく優先権を主張する。この出願は、あらゆる目的のために、参照によって本明細書に組み込まれる。
本出願は、人間であるか機械であるかを識別するための方法及びシステムに関する。
チューリングテストは、機械が思考できるかどうかを判定するためにAlan Turingによって1950年に考え出されたテストである。チューリングテストは、機械が人間の知性と同等の又は区別がつかないほどの知性を示せるかどうかをテストした。コンピュータと人間とを見分けるための完全自動化公開チューリング(CAPTCHA)テストは、逆チューリングテストの一種だと見なされることが多く、これは、質問への答えを提供している者が人間であるか機械であるかを検出するためにコンピュータによって実施されるテストである。コンピュータは、CAPTCHAによる質問に答えられないことが多く、質問への正しい答えを提供する者を人間であると見なせる。例えば、コンピュータは、検証コードを含む歪められた画像を提示し、それを、人間又は機械が認識しようと試みる。検証コードを正しく認識することができるものは、人間であると判定される。検証コードを認識することができないものは、機械であると判定される。
本発明の様々な実施形態が、以下の詳細な説明及び添付の図面において開示される。
本出願の実施形態における技術的構想を更に明瞭に説明するために、以下で、実施形態を説明するために必要とされる図面が簡単に説明される。明らかに、以下で説明される図面は、本出願の実施形態のうちの幾つかにすぎない。当業者ならば、創作的努力を費やさずとも、これらの図面をもとにしてその他の図面を得られるだろう。
挙動特性モデルを訓練するためのプロセスの一実施形態を示したフローチャートである。
プリフィルタリングを経た動作サンプルの挙動特性データの次元を縮小するためのプロセスの一実施形態を示したフローチャートである。
次元縮小された挙動特性データを分類して第1の挙動特性ベクトルと第2の挙動特性ベクトルとを有する分類子を得るためのプロセスの一実施形態を示したフローチャートである。
人間であるか機械であるかを識別するためのプロセスの一実施形態を示したフローチャートである。
既定の挙動特性モデルを使用して人間であるか機械であるかを識別するためのプロセスの一実施形態を示したフローチャートである。
挙動特性データを収集するためのプロセスの一実施形態を示したフローチャートである。
人間であるか機械であるかを識別するためのプロセスの別の一実施形態を示したフローチャートである。
人間であるか機械であるかを識別するためのデバイスの一実施形態を示した構造ブロック図である。
第1の識別モジュールの一実施形態を示した構造ブロック図である。
挙動特性モデルを訓練するためのデバイスの一実施形態を示した構造ブロック図である。
次元縮小モジュールの一実施形態を示した構造ブロック図である。
分類モジュールの一実施形態を示した構造ブロック図である。
挙動特性データを収集するためのデバイスの一実施形態を示した構造ブロック図である。
人間であるか機械であるかを識別するためのデバイスの別の一実施形態を示した構造ブロック図である。
人間であるか機械であるかを識別するためのシステムの一実施形態を示した図である。
人間であるか機械であるかを識別するためのプログラムドコンピュータシステムの一実施形態を示した機能図である。
本発明は、プロセス、装置、システム、合成物、コンピュータ読み取り可能ストレージ媒体に実装されたコンピュータプログラム製品、並びに/又は接続先のメモリに格納された命令及び/若しくは接続先のメモリによって提供される命令を実行するように構成されたプロセッサなどのプロセッサを含む、数々の形態で実現できる。本明細書では、これらの実現形態、又は本発明がとりえるその他のあらゆる形態が、技術と称されてよい。総じて、開示されるプロセスのステップの順番は、発明の範囲内で変更されてよい。別途明記されない限り、タスクを実施するように構成されているものとして説明されるプロセッサ又はメモリなどのコンポーネントは、所定時にタスクを実施するように一時的に構成されている汎用コンポーネントとして、又はタスクを実施するように製造された特殊コンポーネントとして実装されてよい。本書で使用される「プロセッサ」という用語は、コンピュータプログラム命令などのデータを処理するように構成された1つ以上のデバイス、回路、及び/又は処理コアを言う。
本発明の原理を例示した添付の図面とともに、以下で、本発明の1つ以上の実施形態の詳細な説明が提供される。本発明は、このような実施形態に関連付けて説明されるが、いずれの実施形態にも限定されない。本発明の範囲は、特許請求の範囲によってのみ限定され、本発明は、数々の代替形態、変更形態、及び同等形態を包含している。以下の説明では、本発明の完全な理解を与えるために、数々の具体的詳細が明記されている。これらの詳細は、例示を目的として提供されるものであり、本発明は、これらの詳細の一部又は全部を伴わずとも特許請求の範囲にしたがって実施されてよい。明瞭を期するため、本発明に関連する技術分野で知られる技工物は、本発明が不必要に不明瞭にされないように詳細な説明を省略される。
本出願は、機械学習を通じて訓練される挙動特性モデル、及び人間であるか機械であるかを識別するためのこの挙動特性モデルの使用を開示する。
図1Aは、挙動特性モデルを訓練するためのプロセスの一実施形態を示したフローチャートである。一部の実施形態では、プロセス100は、図9のサーバ910によって実行に移され、以下を含む。
ステップ110では、複数の動作サンプルが、それらの動作サンプルの動作移動速度及び動作無作為度に基づいてプリフィルタリングされる。動作無作為度は、動作サンプルトラックの上下変動に相当する。
先ず、この例では、サーバは、一式の動作サンプルを得る。例えば、サーバは、データベースに格納されている既存の動作行為の中から、100個の格納された動作サンプルを無作為に選択する。既存の動作は、サーバが以前に応答したユーザジェスチャ又はサーバが以前に拒絶したマシン挙動を含むことができる。これらの既存の動作行為の中からの(選択された)動作サンプルは、挙動特性モデルを訓練するために使用できる。
下記の表1に示されている動作データフォーマットは、記録されるデータフォーマットの一例を示しており、動作行為に関連付けられている動作データを格納しているデータベースから抽出できる。
Figure 2018520397
表1における機器情報フィールドに関し、ブラウザ/アプリケーション情報は、対応する動作サンプルがトリガされたときに、その動作サンプルのためにどのヴァージョンのブラウザ又はスタンドアロンアプリケーションが使用されるかに相当し得る。オペレーティングシステムは、対応する動作サンプルがトリガされたときに、その動作サンプルのために例えばAndroid 6又はWindows 10などのどのタイプ及び/又はヴァージョンのオペレーティングシステムが使用されるかを示し得る。ハードウェア情報は、対応する動作サンプルがトリガされたときの、その動作サンプルのための、モバイル端末の国際移動体装置識別(IMEI)番号又はコンピュータのInternel Protocol(IP)アドレスなどの情報を表し得る。表1における挙動情報フィールドに関し、マウスの動きは、対応する動作サンプルがトリガされたときの、その動作サンプルのためのマウスカーソル位置トラックに相当し得る。マウスのクリックは、マウスのクリックがトリガされたときの、その対応するサンプルのためのディスプレイ画面上におけるマウスのクリック位置情報に相当し得る。「ユーザが押したキー」は、対応するキーがトリガされたときに、そのサンプルのためにタッチ画面上においてユーザによってどのキーが押されたかに相当し得る。その他の実施形態では、上記よりも多くのタイプの動作データが、サーバデータベースに格納できる。表1は、説明のための例に過ぎない。
抽出された動作サンプルの挙動特性データは、表1における挙動情報フィールドから抽出される。表2は、挙動特性データの内容を例示している。
Figure 2018520397
表2では、作動スライド時間の長さは、対応する動作サンプルが作動している際の合計時間を指すことができる(合計作動時間とも呼ばれる)。例えば、ユーザがマウスカーソルを動かす又はスライダをドラッグするのに費やした合計時間である。一部の実施形態では、時間の長さをN区間に分割することが可能であり、Nの値は20から50までの間であることができる。実際のニーズに基づいて、別の値のNも設定できる。したがって、各区間の時間の長さT(i)は、i番目のトラック区間の時間の長さに相当する。i番目のトラック区間は、N個の区間のうちの1つを指す。各区間の中心軸−偏位頻度O(i)は、動作トラックをN区間に分割した後、動作トラックにおけるトラックの上下いずれかへの変動を中心軸からの一偏位と見なしたときに、i番目のトラック区間の中心軸からの偏位の数として計算され、中心軸は、動作トラックの中心軸に相当する。各区間の平均偏位距離OV(i)は、動作トラックをN区間に分割し、i番目のトラック区間の中心軸からの偏位の平均距離をOV(i)として計算される。ここで、中心軸は、スライダの中心に位置する軸を指す。動作がトリガされるときの初期位置D(x,y)は、動作トラックの始点に相当し、動作が解除されるときの最終位置U(x,y)は、動作トラックの終点に相当する。例えば、初期位置D(x,y)は、ユーザがカーソルを動かし始めたときのマウスカーソルの出発位置に相当することができ、最終位置U(x,y)は、ユーザがカーソルを動かすのを止めたときのマウスカーソルの最終位置に相当することができる。
なお、表2における挙動特性データは、例示的なものに過ぎないことに留意すべきである。更に、一例として、動作は、人間であるか機械であるかの識別のために、表2における一タイプの挙動特性データを選択してよい。別の例では、動作は、人間であるか機械であるかの識別のために、表2における挙動特性データの任意の組み合わせを選択してよい。一例では、挙動特性データとして、作動スライド時間の長さが単独で選択される。他の例では、各区間の作動スライド時間の長さ、各区間の中心軸−偏位頻度、又は各区間の平均偏位距離が、挙動特性データとして選択される。更に別の例では、動作トリガ初期位置及び動作トリガ最終位置が、挙動特性データとして選択される。本書で説明される技術は、挙動特性データのタイプを限定しない。挙動特性データカテゴリの量又は挙動特性データの選択が、プロセス100の実行に影響することはない。
作動スライド時間の長さは、動作サンプルの有効動作の合計時間の長さに相当する。各区間の作動スライド時間の長さは、動作サンプルの合計動作時間を幾つかの等区間に分割し、各区間の作動時間の長さを計算することによって得られる。各区間の中心軸−偏位頻度は、動作サンプルの合計動作時間を幾つかの等区間に分割し、各区間について中心軸からの作動偏位の数を計算することによって得られる。例えば、作動偏位の数は、ユーザのマウスポインタがスライダの中心軸から偏位する距離に基づいて計算される。各区間の平均偏位距離は、動作サンプルの合計動作時間を幾つかの等区間に分割し、各区間について中心軸からの作動距離偏位を計算することによって得られる。動作サンプルが例えばマウスクリックなどのトリガを経始めるときの座標は、動作トリガ初期位置に相当することができ、動作サンプルがトリガを経るのを止めるときの座標は、動作トリガ最終位置に相当することができる。
次に、動作サンプルの挙動特性データが抽出された後、動作サンプルは、それらの動作サンプルの移動速度及び動作無作為度に基づいてプリフィルタリングされる。動作速度は、動作サンプルのトラック移動速度を示す。動作移動速度が速すぎる(例えば、第1の閾値を上回る)場合又は動作移動時間が短すぎる(例えば、第2の閾値を下回る)場合は、動作サンプルは、機械挙動であると見なせる。例えば、動作移動時間が100ms以下である場合は、対応する動作サンプルは、機械挙動であると見なされる。したがって、このような動作サンプルは、フィルタリングによって排除される。動作無作為度は、動作サンプルトラックの上下変動に相当する。例えば、もし、動作サンプルが、基本的に上下変動を有さないならば、その動作サンプルは、やはり、機械挙動であると見なされ、フィルタリングによって排除されることになる。
ステップ120では、サーバは、プリフィルタリングされた動作サンプルの挙動特性データの次元を主成分解析(PCA)技術に基づいて縮小する。
プリフィルタリングされた動作サンプルの挙動特性データの次元を縮小するために、主成分解析(PCA)が用いられる。その結果、挙動特性データは、次元数を縮小され、これは、そのあとに続くサポートベクトルマシン(SVM)分類を容易にする。PCAは、周知のデータマイニング及び統計の技術である。作動スライド時間の長さは、挙動特性データの次元の一例である。
図1Bは、プリフィルタリングされた動作サンプルの挙動特性データの次元を縮小するためのプロセスの一実施形態を示したフローチャートである。一部の実施形態では、プロセス1200は、図1Aのステップ120の一実装形態であり、以下を含む。
ステップ1210では、サーバは、プリフィルタリングを経た動作サンプルの挙動特性データをデミーン(統計値調整する)する。
プリフィルタリングされた動作サンプルの挙動特性データは、デミーンされる。例えば、挙動特性データから経験的平均ベクトルが減算され、デミーンされた挙動特性データが得られる。例えば、[ai bi ci …… mi]のそれぞれが、ユーザiによって実施される動作の一動作挙動ベクトルに相当し、mが、ユーザiによって実施される一動作中の様々なタイプの挙動特性を示すと想定する。挙動特性の例が、表2に示されている。ベクトル要素aiやbiなどは、区間の作動スライド時間の長さや区間の中心軸−偏位頻度などに相当することができ、各ベクトル要素は、単一値である。また、合計n人のユーザが存在すると想定する。次に、n人のユーザについて各タイプの動作挙動ベクトルの平均をとることによって、
Figure 2018520397
に関するベクトルが得られる。次いで、各タイプの動作挙動ベクトルの平均が、動作挙動ベクトルを正規化するために使用できる。結果は、以下に示される行列Yである。
Figure 2018520397
ステップ1220では、サーバは、デミーンされた挙動特性データの共分散行列を計算する。
共分散行列は、デミーンされた挙動特性データについて計算される。共分散行列は、次の式(I)に基づいて計算できる。
Figure 2018520397
ここで、nは、ユーザの数であり、Yは、ステップ1210で計算された行列である。
ステップ1230では、サーバは、標準的な既知の技術を使用し、共分散行列に基づいて挙動特性データの共分散固有値及び共分散固有ベクトルを計算する。
続いて、ステップ1220で計算された共分散行列Cが、挙動特性データの共分散固有値及び共分散固有ベクトルを計算するために使用される。
ステップ1240では、サーバは、挙動特性データを共分散固有値に基づいて降順にランク付けする。
ステップ1250では、サーバは、ランク付けされた挙動特性データのうちの、上から順にN個の挙動特性データを、次元縮小行列Pとして選択する。ここで、Nは、1以上の整数である。
ステップ1260では、サーバは、次元縮小行列に基づいて挙動特性データの次元を縮小する。
サーバは、ステップ1250の次元縮小行列Pに基づいて、式「Z=PX」に基づいて挙動データの次元を縮小する。ここで、Xは、ステップ1210における行列Yに相当するローデータであり、Zは、次元縮小された挙動特性データである。
図1Aに戻り、130では、サーバは、サポートベクトルマシン(SVM)技術に基づいて、次元縮小された挙動特性データを分類し、人間挙動に関する第1の挙動特性ベクトルと機械挙動に関する第2の挙動特性ベクトルとを有する分類子を得る。SVMでは、分類子は、異なるタイプの入力ベクトルを分離する最適な超平面を得るために、訓練用データ(例えば、人間挙動又は機械挙動のいずれかとしてラベル付けされた挙動特性ベクトル)に基づいて訓練される。分類子が訓練されたら、ラベル付けされていない次元縮小された挙動特性データが、ラベル付け(又は同等な分類)を受けるために上記訓練済みの分類子に入力される。訓練をどのように実施してSVMをどのように実行に移すかは、以下で、図1Cとの関連のもとで説明される。
ステップ120で実施された次元縮小に続いて、サーバは、次元縮小された挙動特性データをSVMに基づいて分類し、そうして、2タイプの挙動特性データを得る。一方のタイプの挙動特性データは、人間挙動に適合する挙動特性データに相当し、人間挙動として分類される。もう一方のタイプは、機械挙動に適合する挙動特性データであり、機械挙動として分類される。
図1Cは、次元縮小された挙動特性データを分類して第1の挙動特性ベクトルと第2の挙動特性ベクトルとを有する分類子を得るためのプロセスの一実施形態を示したフローチャートである。一部の実施形態では、プロセス1300は、図1の130の一実装形態であり、以下を含む。
ステップ1310では、サーバは、マッピング関数に基づいて、次元縮小された挙動特性データをそれよりも高い次元の空間上に投影する。マッピング関数の一例が、カーネル関数である。
ここで使用されるカーネル関数は、ガウスカーネル関数である。ガウスカーネル関数は、式(II)に示されるような関数である。
Figure 2018520397
ガウスカーネル関数に基づく分類関数は、式(III)で示されるような関数である。
Figure 2018520397
ステップ1320では、サーバは、投影された挙動特性データのサンプルデータに基づいてサポートベクトルマシンを訓練する。
サンプルデータが、集合{Xi,Zi}に相当すると想定する。ここで、Xiは、挙動特性データであり、Ziは、{−1,1}である。ここで、−1は、挙動特性ベクトルに対応する動作サンプルが機械動作であることを示し、1は、挙動特性ベクトルに対応する動作サンプルが人間動作であることを示す。分類子の訓練の実施には、ロジスティク回帰などの既知の技術が使用できる。
ステップ1330では、サーバは、訓練結果を人間動作及び機械動作のための分類子として格納する。
ステップ1320を実施した後、サーバは、その後に続いて収集される挙動特性データの二値化分類を容易にするために、α、b、及びサポートベクトルを含む最適な分類超平面を取得して、該最適な分類超平面を人間動作及び機械動作のための分類子として格納することができる。
一部の実施形態では、次元縮小された挙動特性データの分類は、次元縮小された挙動特性データを二値化(例えば、真又は偽、1又は0などに)して、次元縮小された挙動特性データの二値化画像を取得すること、該二値化画像から、次元縮小された挙動特性データの二値化特性を抽出すること、SVMフォーマットに基づいて二値化特性をフォーマット化して、フォーマット済みの二値化特性を取得すること、及びフォーマット済みの二値化特性を人間挙動に適合する第1の挙動特性データと、機械挙動に適合する第2の挙動特性データとに分類する分類子を、既定のSVMパラメータに基づいて訓練すること、を含む。
挙動特性モデルのための訓練プロセスの初期化の完了後は、人間であるか機械であるかの識別のプロセスが実施できる。図2Aは、人間であるか機械であるかを識別するためのプロセスの一実施形態を示したフローチャートである。一部の実施形態では、プロセス200は、図9のサーバ910によって実行に移され、以下を含む。
ステップ210では、クライアントから人間であるか機械であるかの識別リクエストが受信された場合に、サーバは、人間であるか機械であるかを識別するための第1の動作を表示のためにクライアントに送信されるようにレンダリングする。
プロセス200は、人間であるか機械であるかを識別するために、及びサーバに接続されたクライアントによってサブミットされた動作について人間か機械化を識別するために、サーバに適用できる。一部の実施形態では、Alipayの例を使用し、ユーザによるAlipayウォレットの使用は、多くの場合、口座振替又は支払いなどの金銭動作を伴う。したがって、一部の実施形態では、クライアントによってサブミットされた動作が人間のユーザによって実施されたか又は機械によって実施されたかの識別が実施される。識別が実施されるのは、機械によってサブミットされる動作が、ユーザを装うなどの悪質なプログラムによるものである可能性が高いからである。一部の実施形態では、クライアントが口座振替動作をサブミットした後、サーバは、人間であるか機械であるかを識別するための第1の動作を提示する。例えば、動作(例えば、第1の動作)を実施するようにユーザに要求する動作トラックが、表示のためにクライアントに送信される。例えば、口座振替動作は、人間であるか機械であるかの識別リクエストのタイプの1つである。もちろん、クライアントによってサブミットされるどの動作が人間であるか機械であるかの識別リクエストであるかを、事前に設定することも可能である。クライアントによってサブミットされた動作が人間であるか機械であるかの識別リクエストに相当するときは、第1の動作がレンダリングされ、該第1の動作は、表示のためにクライアントに送信される。
一部の実施形態では、Web(パソコン(PC)ウェブページやモバイル端末ブラウザウェブページを含むことができる)の場合は、サーバ上のJavaScript(登録商標)によって、表示のために対話動作がレンダリングできる。モバイル端末上でユーザによって使用されるワイヤレスアプリの例(Androidオペレーティングシステム下及びiOSシステム下におけるアプリケーションシナリオを含むことができる)では、対話動作は、サーバ上のJava(登録商標)(Android)又はObjective C(iOS)によって、表示のためにレンダリングできる。一例では、トラック(例えば、ラインやバーなど)がユーザに表示され、自身が人間であることを証明するためにユーザが実施するように要求される対話動作は、自身の指をタッチ画面上のトラックで滑らせて又はディスプレイ上のトラックでマウスカーソルを動かしてトラックを「ロック解除」することを含む。別の例では、トラック、ボール、及びバスケットがユーザに表示され、ユーザが人間であることを証明するために実施される対話動作は、ボールをドラッグしトラックをたどらせてバスケットに入れることを含む。
ステップ220では、サーバは、第1の動作によって描写された動作トラックに基づいてトリガされる、クライアントによって現在サブミットされている第2の動作を受信する。
サーバは、第1の動作を表示のためにクライアントに送信した後、次いで、第1の動作によって提示された動作トラックをユーザ又は機械が模倣することによってトリガされた、即ち実施された、クライアントによってサブミットされた第2の動作を受信する。サーバは、第2の動作のためのトリガ主体(即ち、第2の動作を実施して、第2の動作に関連付けられているデータをサーバに送信させた者)が人間であるか又は機械であるかを、第2の動作の挙動特性に基づいて決定する。
ステップ230では、サーバは、事前に訓練された挙動特性モデルに基づいて、第2の動作のためのトリガ主体について人間であるか機械であるかを識別する。一部の実施形態では、挙動特性モデルは、動作サンプルに基づいて訓練される、人間動作及び機械動作のための分類子に相当する。
図2Bは、既定の挙動特性モデルを使用して人間であるか機械であるかを識別するためのプロセスの一実施形態を示したフローチャートである。一部の実施形態では、プロセス2300は、図2Aの動作230の一実装形態であり、以下を含む。
ステップ2310では、サーバは、第2の動作の識別対象挙動特性データを抽出する。
サーバは、クライアントによってサブミットされた第2の動作を受信した後、先ず、第2の動作の挙動特性データを第2の動作から抽出する。識別対象挙動特性データの抽出は、図1Aのプロセス100で実施された挙動特性データの抽出と同様なやり方で実施できる。挙動特性モデルのための動作サンプルは、挙動特性データがどのように抽出されるかを例示している。その後に続く第2の動作も、同じアプローチを使用して識別対象挙動特性データを提示することができる。
ステップ2320では、サーバは、識別対象挙動特性データを挙動特性モデルに適用することによって、識別対象挙動特性データが人間動作に適合するか又は機械動作に適合するかを決定する。
ステップ2330では、識別対象挙動特性データが人間動作に適合する場合に、サーバは、第2の動作のトリガ主体が人間であると決定する。
次いで、サーバは、ステップ2310で抽出された挙動特性データが、挙動特性モデルにおける第1の挙動特性データであるか又は挙動特性モデルにおける第2の挙動特性データであるかを決定する。抽出された挙動特性データが第1の挙動特性データに相当する場合は、サーバは、抽出された挙動特性データが人間動作に関するものであると決定する。したがって、第2の動作のためのトリガ主体は、人間であると決定される。
ステップ2340では、識別対象挙動特性データが機械動作に関するものである場合に、サーバは、第2の動作のトリガ主体が機械であると決定する。
識別対象挙動特性データが第2の挙動特性データに相当する場合に、サーバは、抽出された挙動特性データが機械動作に対応すると決定する。したがって、第2の動作のためのトリガ主体は、機械であると決定される。
図2Aに戻り、ステップ240では、人間であるか機械であるかの識別の結果が機械である場合に、サーバは、その後に機械によって送信されるアクセスリクエストを拒絶する。
ステップ250では、人間であるか機械であるかの識別の結果が人間である場合に、サーバは、その後にクライアントを通じて人間によって送信されるアクセスリクエストに応答する。
サーバは、第2の動作のためのトリガ主体を人間であると識別する場合は、その後にユーザによって送信されるアクセスリクエストに通常通りに応答することができる。一例として、サーバは、第2の動作のためのトリガ主体が機械であると識別する場合は、現アクセスリクエストを、悪質な攻撃又はセキュリティの問題に関連している可能性があると見なす。サーバは、その後に機械によって発行されるアクセスリクエストを拒絶することができ、そうして、ネットワークセキュリティの向上を実現することができる。
一部の実施形態では、サーバは、人間であるか機械であるかを識別するときに、人間であるか機械であるかの識別のための第1の動作を実施するためのリクエストを表示のためにクライアントに送信する。この第1の動作は、例えば、人間であるか機械であるかを識別するために使用される動作トラックを示すことができる。次いで、第1の動作に基づいてトリガされた、クライアントによってサブミットされた第2の動作を受信した後、サーバは、事前に訓練された挙動特性モデルに基づいて、第2の動作のためのトリガ主体が人間であるか又は機械であるかを識別する。別の言い方をすると、サーバは、第2の動作のためのトリガ主体が人間であるか又は機械であるかを決定する。例えば、ユーザは、マウス操作又はトリガ操作を実施するときに、ユーザ自身の特性を有する。例えば、ユーザは、特定の速度でスワイプすることに慣れている、スワイププロセス中に揺れを回避することができないなどである。したがって、クライアントによってサブミットされた第2の動作挙動特性データは、第2の動作が人間によってトリガされたか又は機械によってトリガされたかを決定するために使用できる。したがって、人間であるか機械であるかを識別するためのプロセス200は、従来のプロセスよりも正確であることができ、それゆえに、機械アクセスリクエストを拒絶することによってネットワークセキュリティを更に向上させることができ、しかしながら、プロセス200は、ユーザが第1の動作に基づいて第2の動作を直接実施することができるゆえに、ユーザエクスペリエンスを向上させることもできる。
図3は、挙動特性データを収集するためのプロセスの一実施形態を示したフローチャートである。一部の実施形態では、プロセス300は、図9のクライアント920によって実行に移され、以下を含む。
クライアントは、アプリ、パソコン(PC)アプリケーション、ブラウザ、デバイスなどを含むことができる。
ステップ310では、クライアントは、現在トリガされている人間であるか機械であるかの識別リクエストをサーバに送信する。
クライアントは、現在トリガされている挙動特性データ、即ち第2の動作を収集する。先ず、人間であるか機械であるかの識別を必要とする何らかの対話プロセス(例えば、ショッピングカート清算プロセス)では、クライアントは、ユーザによってトリガされた例えば支払い動作などの対話リクエストを受信した場合に、現在トリガされている人間であるか機械であるかの識別リクエストをサーバに送信することができる。
ステップ320では、クライアントは、人間であるか機械であるかの識別リクエストに応じてサーバによってレンダリングされた第1の動作を受信する。第1の動作は、人間であるか機械であるかを識別するために及び動作トラックを表現するために使用される。
クライアントによって送信された人間であるか機械であるかの識別リクエストを受信した後、サーバは、人間であるか機械であるかを識別するための第1の動作をレンダリングする。第1の動作は、クライアントによって模倣又は複製されることになる動作トラックを提示することができる。第1の動作は、次いで、表示のためにクライアントに送信される。
ステップ330では、クライアントは、事前に設定された挙動特性モデルに基づいて、第1の動作に基づいてトリガされた第2の動作のためのトリガ主体について人間であるか機械であるかを識別するために、上記第2の動作をサーバに送信する。一部の実施形態では、挙動特性モデルは、動作サンプルに基づいて訓練される、人間動作及び機械動作のための分類子に相当する。
クライアントは、第1の動作を表示した後、第1の動作によって提示された動作トラックに基づいてトリガされた第2の動作をサーバに送信する。サーバは、すると、事前に設定された挙動特性モデルに基づいて、第2の動作のためのトリガ主体について人間であるか機械であるかを識別することができる。一部の実施形態では、挙動特性モデルは、動作サンプルに基づいて訓練される、人間動作及び機械動作のための分類子を含む。
人間であるか機械であるかの識別の実施は、図2Aのプロセス200に示されており、ここでは再度述べることはしない。
一部の実施形態では、クライアントは、サーバによって送信された第1の動作に基づいて第2の動作をトリガし、第1の動作は、人間であるか機械であるかを識別するための動作トラックを提示することができる。続いて、クライアントが第2の動作をサブミットした後、サーバは、事前に訓練された挙動特性モデルに基づいて、第2の動作のためのトリガ主体について人間であるか機械であるかを識別する。別の言い方をすると、サーバは、第2の動作のためのトリガ主体が人間であるか機械であるかを決定する。例えば、ユーザは、マウス操作又はトリガ操作を実施するときに、ユーザ自身の特性を有する。例えば、ユーザは、特定の速度でスワイプすることに慣れている、スワイププロセス中に震えを回避することができないなどである。したがって、クライアントによってサブミットされた第2の動作の挙動特性データは、第2の動作が人間によってトリガされたか又は機械によってトリガされたかを決定するために使用できる。したがって、人間であるか機械であるかの識別プロセスの実施は、従来のプロセスよりも正確に決定を行うことができ、それゆえに、機械アクセスリクエストを拒絶することによってネットワークセキュリティを更に向上させることができ、しかしながら、ユーザが第1の動作に基づいて第2の動作を直接実施することができるゆえに、ユーザエクスペリエンスを向上させることもできる。
図4は、人間であるか機械であるかを識別するためのプロセスの別の一実施形態を示したフローチャートである。一部の実施形態では、プロセス400は、独立したデバイス又は図9のサーバ910によって実行に移され、以下を含む。
ステップ410では、現在トリガされている人間であるか機械であるかの識別リクエストが、クライアントから受信された場合に、サーバは、人間であるか機械であるかを識別するための第1の動作を表示のためにクライアントに送信されるようにレンダリングする。
一部の実施形態では、ネットワークが存在しないところで人間か機械化の識別が実施されることになる。したがって、サーバ又は独立デバイスとクライアントとがやり取りできない状況の中で、人間であるか機械であるかの正確な識別を保証するために、独立デバイスに適用されて人間であるか機械であるかを識別するためのプロセス400が、提供される。独立デバイスは、コンピュータ、モバイル端末、又は別のオフラインデバイスであることができる。この独立デバイスは、独立デバイス自体でトリガされた動作のための挙動特性データを収集することができる。独立デバイスは、次いで、独立デバイス自体に格納されている事前に訓練された挙動特性モデルに基づいて、人間か機械かを識別することができる。一例として、図2Aの動作210で説明されたような、人間か機械かの識別リクエストの受信に続いて第1の動作が実行に移される技術が挙げられ、これは、簡潔を期するために、これ以上は論じられない。
ステップ420では、サーバは、第1の動作によって表現された動作トラックに基づいてトリガされる第2の動作を受信する。
独立デバイスは、第1の動作によって表現された動作トラックをレンダリングした後に、第1の動作を表示することができる。第1の動作は、模倣及びトリガされることになる動作トラックを既に提示しているので、独立デバイスは、第1の動作が模倣及びトリガされた後に、次いで、第2の動作を受信することができる。
ステップ430では、サーバは、事前に設定された挙動特性モデルに基づいて、第2の動作のためのトリガ主体について人間であるか機械であるかを識別する。一部の実施形態では、挙動特性モデルは、動作サンプルに基づいて訓練される、人間動作及び機械動作のための分類子を含む。
独立デバイスは、識別対象挙動特性データを第2の動作から抽出する。更に、事前に訓練された挙動特性モデルに関連して、サーバは、第2の動作のためのトリガ主体について人間であるか機械であるかを識別する。一部の実施形態では、挙動特性モデルは、動作サンプルに基づいて訓練される、人間動作及び機械動作のための分類子である。人間であるか機械であるかを識別する動作に関しては、この人間であるか機械であるかを識別する動作は、図2Aのプロセス200で説明されており、簡潔を期するために、これ以上は論じられない。
一部の実施形態では、第2の動作のトリガは、第1の動作に基づいて実施され、第1の動作は、人間であるか機械であるかの識別のための動作トラックを提示する。続いて、サーバは、事前に訓練された挙動特性モデルに基づいて、第2の動作のためのトリガ主体について人間であるか機械であるかを識別する。別の言い方をすると、サーバは、第2の動作のためのトリガ主体が人間であるか又は機械であるかを決定する。例えば、ユーザは、マウス操作又はトリガ操作を実施するときに、ユーザ自身の特性を有する。例えば、ユーザは、特定の速度でスワイプすることに慣れている、スワイププロセス中に揺れを回避することができないなどである。したがって、第2の動作の挙動特性データは、第2の動作が人間によってトリガされたか又は機械によってトリガされたかを決定するために使用できる。したがって、人間であるか機械であるかの識別は、従来のプロセスよりも正確に実施でき、それゆえに、機械アクセスリクエストを拒絶することによってネットワークセキュリティを更に向上させることができ、しかしながら、ユーザが第1の動作に基づいて第2の動作を直接実施することができるゆえに、ユーザエクスペリエンスを向上させることもできる。
上述されたプロセスに関して、これらのプロセスは、一連の動作の組み合わせとして表現されてきた。しかしながら、特定の動作は、その他の順番で又は同時に実施できるので、当業者にならば、これらのプロセスが、説明された動作によって制限されないことが理解される。更に、当業者ならば、それらに伴う動作及びモジュールが、必ずしも必須ではないことがわかる。
図5Aは、人間であるか機械であるかを識別するためのデバイスの一実施形態を示した構造ブロック図である。一部の実施形態では、デバイス500は、図2Aのプロセス200を実施するように構成され、第1のレンダリングモジュール510と、第1の第2動作受信モジュール520と、第1の識別モジュール530と、拒絶モジュール540と、応答モジュール550とを含む。
一部の実施形態では、クライアントによって送信された人間であるか機械であるかの識別リクエストに応じて、第1のレンダリングモジュール510は、人間であるか機械であるかを識別するための第1の動作を表示のためにクライアントに送信されるようにレンダリングするように構成されている。
一部の実施形態では、第1の第2動作受信モジュール520は、第1の動作によって描写された動作トラックに基づいてトリガされる、クライアントによって現在サブミットされている第2の動作を受信するように構成されている。
一部の実施形態では、第1の識別モジュール530は、事前に設定された挙動特性モデルに基づいて、第2の動作のためのトリガ主体について人間であるか機械であるかを識別するように構成されている。一部の実施形態では、挙動特性モデルは、動作サンプルに基づいて訓練される、人間動作及び機械動作のための分類子に相当する。
上述されたモジュールは、1つ以上の汎用プロセッサ上で実行されるソフトウェアコンポーネントとして、又は特定の機能を実施するように設計されたプログラマブルロジックデバイス及び/若しくは特殊用途向け集積回路などのハードウェアとして、又はこれらの組み合わせとして実装することができる。一部の実施形態では、これらのモジュールは、本発明の実施形態で説明される方法を(パソコン、サーバ、ネットワーク機器等などの)コンピュータデバイスに実行させるための幾つかの命令を含み且つ(光ディスク、フラッシュストレージデバイス、モバイルハードディスク等などの)不揮発性のストレージ媒体に格納できるソフトウェア製品の形態で具現化できる。これらのモジュールは、1つのデバイス上に実装されてよい、又は複数のデバイスに分散されてよい。これらのモジュールの機能は、互いに合体されてよい、又は複数のサブモジュールに更に分割されてよい。
図5Bは、第1の識別モジュールの一実施形態を示した構造ブロック図である。一部の実施形態では、第1の識別モジュール5300は、図5Aの第1の識別モジュール530の一実装形態であり、特性データ抽出モジュール5310と、決定モジュール5320と、人間動作モジュール5330と、機械動作モジュール5340とを含む。
一部の実施形態では、特性データ抽出モジュール5310は、第2の動作の識別対象挙動特性データを抽出するように構成されている。
一部の実施形態では、決定モジュール5320は、識別対象挙動特性データが人間動作に適合するか又は機械動作に適合するかを決定するように構成されている。
一部の実施形態では、識別対象挙動特性データが人間動作に適合する場合に、人間動作モジュール5330は、第2の動作のトリガ主体が人間であると決定するように構成されている。
一部の実施形態では、識別対象挙動特性データが機械動作に関するものである場合に、機械動作モジュール5340は、第2の動作のトリガ主体が機械であると決定するように構成されている。
図5Aに戻り、一部の実施形態では、人間であるか機械であるかの識別の結果が機械である場合に、拒絶モジュール540は、その後に機械によって送信されるアクセスリクエストを拒絶するように構成されている。
一部の実施形態では、人間であるか機械であるかの識別の結果が人間である場合に、応答モジュール550は、その後にクライアントを通じて人間によって送信されるアクセスリクエストに応答する。
図6Aは、挙動特性モデルを訓練するためのデバイスの一実施形態を示した構造ブロック図である。一部の実施形態では、デバイス600は、図1Aのプロセス100を実行に移すように構成され、プリフィルタリングモジュール610と、次元縮小モジュール620と、分類モジュール630とを含む。
一部の実施形態では、プリフィルタリングモジュール610は、動作サンプルの動作移動速度及び動作無作為度に基づいて動作サンプルにプリフィルタリングを施すように構成されている。
一部の実施形態では、次元縮小モジュール620は、プリフィルタリングを経た動作サンプルの挙動特性データの次元を主成分解析(PCA)アルゴリズムに基づいて縮小するように構成されている。
一部の実施形態では、分類モジュール630は、次元縮小された挙動特性データをサポートベクトルマシン(SVM)アルゴリズムに基づいて分類し、人間挙動適合する第1の挙動特性データと、機械挙動に適合する第2の挙動特性データとを得るように構成されている。
図6Bは、次元縮小モジュールの一実施形態を示した構造ブロック図である。一部の実施形態では、次元縮小モジュール6200は、図6Aの次元縮小モジュール620の一実装形態であり、デミーンモジュール6210と、共分散行列計算モジュール6220と、固有パラメータ計算モジュール6230と、降順モジュール6240と、選択モジュール6250と、次元縮小モジュール6260とを含む。
一部の実施形態では、デミーンモジュール6210は、プリフィルタリングを経た動作サンプルの挙動特性データをデミーンするように構成されている。
一部の実施形態では、共分散行列計算モジュール6220は、デミーンされた挙動特性データの共分散行列を計算するように構成されている。
一部の実施形態では、固有パラメータ計算ンモジュール6230は、共分散行列に基づいて挙動特性データの共分散固有値及び共分散固有ベクトルを計算するように構成されている。
一部の実施形態では、降順モジュール6240は、共分散固有値に基づいて降順に挙動特性データをランク付けするように構成されている。
一部の実施形態では、選択モジュール6250は、ランク付けされた挙動特性データのうちの上から順にN個の挙動特性データを次元縮小行列として選択するように構成されている。ここで、Nは、1以上の整数である。
一部の実施形態では、次元縮小モジュール6260は、次元縮小行列に基づいて挙動特性データの次元を縮小するように構成されている。
図6Cは、分類モジュールの一実施形態を示した構造ブロック図である。一部の実施形態では、分類モジュール6300は、図6Aの分類モジュールの一実装形態であり、投影モジュール6310と、訓練モジュール6320と、格納モジュール6330とを含む。
一部の実施形態では、投影モジュール6310は、マッピング関数に基づいて、次元縮小された挙動特性データをそれよりも高い次元の空間上に投影するように構成されている。
一部の実施形態では、訓練モジュール6320は、投影された挙動特性データのサンプルデータに基づいてサポートベクトルマシンを訓練するように構成されている。
一部の実施形態では、格納モジュール6330は、訓練結果を人間動作及び機械動作のための分類子として格納するように構成されている。
図7は、挙動特性データを収集するためのデバイスの一実施形態を示した構造ブロック図である。一部の実施形態では、デバイス700は、図3のプロセス300を実行に移すように構成され、リクエスト送信モジュール710と、第1動作受信モジュール720と、動作送信モジュール730とを含む。
一部の実施形態では、リクエスト送信モジュール710は、現在トリガされている人間であるか機械であるかの識別リクエストをサーバに送信するように構成されている。
一部の実施形態では、第1動作受信モジュール720は、人間であるか機械であるかの識別リクエストに応じてサーバによってレンダリングされた、人間であるか機械であるかの識別に使用される第1の動作を受信するように構成されている。一部の実施形態では、第1の動作は、人間であるか機械であるかを識別するための動作トラックを表現する。
一部の実施形態では、動作送信モジュール730は、第1の動作に基づいてトリガされた第2の動作を、事前に設定された挙動特性モデルに基づいて第2の動作のためのトリガ主体について人間であるか機械であるかを識別するために、サーバに送信するように構成されている。一部の実施形態では、挙動特性モデルは、動作サンプルに基づいて訓練される、人間動作及び機械動作のための分類子である。
一部の実施形態では、クライアントは、サーバによって送信された第1の動作に基づいて第2の動作をトリガし、第1の動作は、人間であるか機械であるかを識別するための動作トラックを提示する。次いで、クライアントが第2の動作をサブミットした後、サーバは、事前に訓練された挙動特性モデルに基づいて第2の動作のためのトリガ主体について人間であるか機械であるかを識別する。別の言い方をすると、サーバは、第2の動作のためのトリガ主体が人間であるか又は機械であるかを決定する。例えば、ユーザは、マウス操作又はトリガ操作を実施するときに、ユーザ自身の特性を有する。例えば、ユーザは、特定の速度でスワイプすることに慣れている、スワイププロセス中に揺れを回避することができないなどである。したがって、クライアントは、第2の動作挙動特性モデルに基づいて、第2の動作が人間によってトリガされたか又は機械によってトリガされたかを決定することができる。したがって、デバイスは、人間であるか機械であるかを従来のデバイスよりも正確に識別することができ、それゆえに、機械アクセスリクエストを拒絶することによってネットワークセキュリティを更に向上させることができ、しかしながら、ユーザが第1の動作に基づいて第2の動作を直接実施することができるゆえに、ユーザエクスペリエンスを向上させることもできる。
図8は、人間であるか機械であるかを識別するためのデバイスの別の一実施形態を示した構造ブロック図である。一部の実施形態では、デバイス800は、図4のプロセス400を実行に移すように構成され、第2のレンダリングモジュール810と、第2の第2動作受信モジュール820と、第2の識別モジュール830とを含む。
一部の実施形態では、現在トリガされている人間であるか機械であるかの識別リクエストがクライアントから受信された場合に、第2のレンダリングモジュール810は、人間であるか機械であるかの識別のための第1の動作を表示のためにクライアントに送信されるようにレンダリングするように構成されている。
一部の実施形態では、第2の第2動作受信モジュール820は、第1の動作によって表現された動作トラックに基づいてトリガされる第2の動作を受信するように構成されている。
一部の実施形態では、第2の識別モジュール830は、事前に設定された挙動特性モデルに基づいて第2の動作のためのトリガ主体について人間であるか機械であるかを識別するように構成されている。一部の実施形態では、挙動特性モデルは、動作サンプルに基づいて訓練される、人間動作及び機械動作のための分類子である。
一部の実施形態では、第2の動作のトリガは、第1の動作に基づいて実施され、第1の動作は、人間であるか機械であるかを識別するための動作トラックを提示する。続いて、第2の識別モジュール830は、事前に訓練された挙動特性モデルに基づいて、第2の動作のためのトリガ主体について人間であるか機械であるかを識別する。別の言い方をすると、第2の識別モジュール830は、第2の動作のためのトリガ主体が人間であるか又は機械であるかを決定する。例えば、ユーザは、マウス操作又はトリガ操作を実施するときに、ユーザ自身の特性を有する。例えば、ユーザは、特定の速度でスワイプすることに慣れている、スワイププロセス中に揺れを回避することができないなどである。したがって、第2の動作挙動特性モデルは、第2の動作が人間によってトリガされたか又は機械によってトリガされたかを決定するために使用できる。したがって、デバイス800は、人間であるか機械であるかを従来のデバイスよりも正確に識別することができ、それゆえに、機械アクセスリクエストを拒絶することによってネットワークセキュリティを更に向上させることができ、しかしながら、ユーザが第1の動作に基づいて第2の動作を直接実施することができるゆえに、ユーザエクスペリエンスを向上させることもできる。
図9は、人間であるか機械であるかを識別するためのシステムの一実施形態を示した図である。一部の実施形態では、システム900は、ネットワーク930を通じてクライアント920に接続されたサーバ910を含む。
人間であるか機械であるかの識別リクエストがクライアント920から受信された場合に、サーバ910は、人間であるか機械であるかの識別のための第1の動作を表示のためにクライアント920に送信されるようにレンダリングすることができる。
サーバ910は、第1の動作によって表現された動作トラックに基づいてトリガされる、クライアント920によって現在サブミットされている第2の動作を受信することができる。
サーバ910は、事前に訓練された挙動特性モデルに基づいて、第2の動作のためのトリガ主体について人間であるか機械であるかを識別することができる。一部の実施形態では、挙動特性モデルは、動作サンプルに基づいて訓練される、人間動作及び機械動作のための分類子である。
図10は、人間であるか機械であるかを識別するためのプログラムドコンピュータシステムの一実施形態を示した機能図である。人間であるか機械であるかを識別するために、その他のアーキテクチャ及び構成のコンピュータシステムが使用できることが明らかである。後述のような様々なサブシステムを含むコンピュータシステム1000は、少なくとも1つのマイクロプロセッササブシステム(プロセッサ又は中央演算処理装置(CPU)とも呼ばれる)1002を含む。例えば、プロセッサ1002は、シングルチッププロセッサによって又は複数のプロセッサによって実現できる。一部の実施形態では、プロセッサ1002は、コンピュータシステム1000の動作を制御する汎用デジタルプロセッサである。メモリ1010から取り出された命令を使用して、プロセッサ1002は、入力データの受信及び操作、並びに出力デバイス(例えば、ディスプレイ1018)へのデータの出力及び表示を制御する。
プロセッサ1002は、メモリ1010に双方向に接続され、メモリ1010は、通常はランダムアクセスメモリ(RAM)である第1の一次ストレージと、通常は読み出し専用メモリ(ROM)である第2の一次ストレージエリアとを含むことができる。当該分野で周知のように、一次ストレージは、汎用ストレージエリアとして及びスクラッチパッドメモリとして使用でき、入力データ及び処理済みデータを格納するためにも使用できる。一次ストレージは、プロセッサ1002上で起きるプロセスのためのその他のデータ及び命令に追加して、プログラミング命令及びデータも、データオブジェクト及びテキストオブジェクトの形態で格納することができる。やはり当該分野で周知のように、一次ストレージは、通常は、プロセッサ1002がその機能(例えば、プログラムされた命令)を実施するために使用する基本的な動作命令、プログラムコード、データ、及びオブジェクトを含む。例えば、メモリ1010は、例えば、データアクセスが双方向又は単方向のいずれである必要があるかに応じて、後述される任意の適切なコンピュータ読み取り可能ストレージ媒体を含むことができる。例えば、プロセッサ1002は、頻繁に必要とされるデータを直接的に且つ非常に迅速に取り出してキャッシュメモリ(不図示)に格納することもできる。メモリは、非一時的なコンピュータ読み取り可能ストレージ媒体であることができる。
着脱式大容量ストレージデバイス1012が、コンピュータシステム1000のための追加のデータストレージ容量を提供し、双方向(読み出し/書き込み)又は単方向(読み出しのみ)のいずれかでプロセッサ1002に接続される。例えば、ストレージ1012は、磁気テープ、フラッシュメモリ、PCカード、ポータブル大容量ストレージデバイス、ホログラフィックストレージデバイス、及びその他のストレージデバイスなどの、コンピュータ読み取り可能媒体を含むこともできる。例えば、固定大容量ストレージ1020も、追加のデータストレージ容量を提供することができる。大容量ストレージ1020として最も一般的な例は、ハードディスクドライブである。大容量ストレージ1012及び1020は、一般に、プロセッサ1002によって通常は能動的に使用されていない追加のプログラミング命令やデータなどを格納する。大容量ストレージ1012及び1020に保持される情報は、必要に応じて、仮想メモリとしてメモリ1010(例えば、RAM)の一部に標準的に組み込めることがわかる。
バス1014は、プロセッサ1002をストレージサブシステムにアクセス可能にすることに加えて、その他のサブシステム及びデバイスへのアクセスを提供するためにも使用できる。図に示されるように、これらとしては、ディスプレイモニタ1018、ネットワークインターフェース1016、キーボード1004、及びポインティングデバイス1006はもちろん、必要に応じて、補助入出力デバイスインターフェース、サウンドカード、スピーカ、及びその他のサブシステムが挙げられる。例えば、ポインティングデバイス1006は、マウス、スタイラス、トラックボール、又はタブレットであることができ、グラフィカルユーザインターフェースとのやり取りに有用である。
ネットワークインターフェース1016は、図に示されるようにネットワーク接続を使用してプロセッサ1002が別のコンピュータ、コンピュータネットワーク、又は電気通信ネットワークに接続されることを可能にする。例えば、ネットワークインターフェース1016を通じて、プロセッサ1002は、方法/プロセスのステップを実施する過程において、別のネットワークから情報(例えば、データオブジェクト若しくはプログラム命令)を受信する又は別のネットワークに情報を出力することができる。情報は、プロセッサ上で実行される一連の命令として表されることが多く、別のネットワークから受信する又は別のネットワークに出力することができる。コンピュータシステム1000を外部ネットワークに接続するために及びデータを標準プロトコルにしたがって転送するために、インターフェースカード又は類似のデバイス、及びプロセッサ1002によって実現される(例えば、プロセッサ1002上で実行される/実施される)適切なソフトウェアが使用できる。例えば、本書で開示される様々なプロセスの実施形態は、プロセッサ1002上で実行できる、又は処理の一部を共有するリモートプロセッサと協働してインターネット、イントラネットネットワーク、若しくはローカルエリアネットワークなどのネットワークで実施できる。プロセッサ1002には、ネットワークインターフェース1016を通じて追加の大容量ストレージデバイス(不図示)も接続できる。
コンピュータシステム1000と協働して、補助入出力デバイスインターフェース(不図示)が使用できる。補助入出力デバイスインターフェースは、プロセッサ1002が、マイク、タッチセンサ式ディスプレイ、トランスデューサカードリーダ、テープリーダ、音声又は手書き認識装置、生体認証リーダ、カメラ、ポータブル大容量ストレージデバイス、及びその他のコンピュータなどの他のデバイスにデータを送信することを、及び更に一般的にはこれらの他のデバイスからデータを受信することを可能にする、汎用並びに専用のインターフェースを含むことができる。
図10に示されたコンピュータシステムは、本書で開示される様々な実施形態との使用に適したコンピュータシステムの一例に過ぎない。このような使用に適したその他のコンピュータシステムは、更に多い又は少ないサブシステムを含むことができる。また、バス1014は、サブシステムを接続する働きをする任意の相互接続方式を例示したものである。異なるサブシステム構成を有するその他のコンピュータアーキテクチャも利用できる。
本書で開示された実施形態に照らして説明された方法又はアルゴリズムステップは、ハードウェア、プロセッサによって実行されるソフトウェアモジュール、又はその両方を使用して実行に移せる。ソフトウェアモジュールは、ランダムアクセスメモリ(RAM)、メモリ、読み出し専用メモリ(ROM)、電気的にプログラム可能なROM、電気的に消去可能でプログラム可能なROM、レジスタ、ハードドライブ、着脱式ディスク、CD−ROM、又は当該分野で知られるその他の任意の系チアのストレージ媒体にインストールできる。
以上の実施形態は、理解を明瞭にする目的で幾らか詳細に説明されてきたが、本発明は、提供された詳細に限定されない。本発明を実現するためには、多くの代替的手法がある。開示された実施形態は、例示的であり、限定的ではない。
以上の実施形態は、理解を明瞭にする目的で幾らか詳細に説明されてきたが、本発明は、提供された詳細に限定されない。本発明を実現するためには、多くの代替的手法がある。開示された実施形態は、例示的であり、限定的ではない。
適用例1:方法であって、
クライアントによって送信される人間であるか機械であるかの識別リクエストに応じて、人間であるか機械であるかを識別するように構成されている第1の動作に関する情報を表示のためにクライアントに送信し、
前記クライアントによってサブミットされる第2の動作を受信し、前記第2の動作は、前記第1の動作に関連付けられている動作トラックに対して実施される対話動作に応じてトリガされ、
挙動特性モデルに基づいて、前記第2の動作のためのトリガ主体が人間であるか機械であるかを識別し、前記挙動特性モデルは、人間動作及び機械動作のための分類子を含み、前記分類子は、動作サンプルに基づいて訓練される、
ことを備える方法。
適用例2:適用例1に記載の方法であって、
前記動作サンプルの挙動特性データは、作動スライド時間の長さを含む、方法。
適用例3:適用例1に記載の方法であって、
前記動作サンプルの挙動特性データは、作動スライド時間の長さを含み、前記作動スライド時間の長さは、前記動作サンプルのうちの有効動作の合計時間の長さを決定することによって得られる、方法。
適用例4:適用例1に記載の方法であって、
前記挙動特性モデルの挙動特性データは、少なくとも1つの区間の作動スライド時間の長さ、少なくとも1つの区間の中心軸−偏位頻度、及び少なくとも1つの区間の平均偏位距離のうちの、少なくとも1つを含む、方法。
適用例5:適用例1に記載の方法であって、
前記挙動特性モデルの挙動特性データは、少なくとも1つの区間の作動スライド時間の長さ、少なくとも1つの区間の中心軸−偏位頻度、及び少なくとも1つの区間の平均偏位距離のうちの、少なくとも1つを含み、
前記少なくとも1つの区間の前記作動スライド時間の長さは、
前記動作サンプルの合計動作時間を複数の等区間に分割し、
少なくとも1つの動作区間の時間の長さを計算する、
ことに少なくとも部分的に基づいて得られ、
前記少なくとも1つの区間の前記中心軸−偏位頻度は、
前記動作サンプルの前記合計動作時間を複数の等区間に分割し、
少なくとも1つの動作区間について中心軸からの偏位の数を計算する、
ことに少なくとも部分的に基づいて得られ、
前記少なくとも1つの区間の前記平均偏位距離は、
前記動作サンプルのうちの少なくとも1つ動作サンプルの合計動作時間を複数の等区間に分割し、
前記少なくとも1つの動作区間について前記中心軸からの偏位の距離を計算する、
ことに少なくとも部分的に基づいて得られる、方法。
適用例6:適用例1に記載の方法であって、
前記動作サンプルの挙動特性データは、動作トリガ初期位置及び動作トリガ最終位置を含む、方法。
適用例7:適用例1に記載の方法であって、
前記動作サンプルの挙動特性データは、動作トリガ初期位置及び動作トリガ最終位置を含み、
前記動作トリガ初期位置及び前記動作トリガ最終位置は、
動作サンプルがトリガを経始めるときの座標を前記動作トリガ初期位置として決定し、
前記動作サンプルがトリガを経るのを止めるときの座標を前記動作トリガ最終位置として決定する、
ことに基づいて得られる、方法。
適用例8:適用例1に記載の方法であって、
前記挙動特性モデルに基づいて、前記第2の動作のためのトリガ主体を識別することは、
前記第2の動作の識別対象挙動特性データを抽出し、
前記識別対象挙動特性データが人間動作に適合する場合に、前記第2の動作のための前記トリガ主体は人間であると決定し、
前記識別対象挙動特性データが機械動作に適合する場合に、前記第2の動作のための前記トリガ主体は機械であると決定する、
ことを含む、方法。
適用例9:適用例1に記載の方法であって、更に、
前記事前に設定された前記挙動特性モデルに基づいて、前記第2の動作のための前記トリガ主体について人間であるか機械であるかを識別した後、
前記人間であるか機械であるかの識別の結果が機械である場合に、前記機械によって送信されるアクセスリクエストを拒絶し、
前記人間であるか機械であるかの識別の結果が人間である場合に、前記人間によって送信されるアクセスリクエストに応答する、
ことを備える方法。
適用例10:デバイスであって、
1つ以上のプロセッサと、
前記1つ以上のプロセッサに結合され、前記1つ以上のプロセッサに命令を提供するように構成されたメモリと、
を備え、
前記命令は、実行されたときに、
クライアントによって送信される人間であるか機械であるかの識別リクエストに応じて、人間であるか機械であるかを識別するように構成された第1の動作に関する情報を表示のためにクライアントに送信し、
前記クライアントによってサブミットされる第2の動作を受信し、前記第2の動作は、前記第1の動作に関連付けられている動作トラックに対して実施される対話動作に応じてトリガされ、
挙動特性モデルに基づいて、前記第2の動作のためのトリガ主体が人間であるか機械であるかを識別し、前記挙動特性モデルは、人間動作及び機械動作のための分類子を含み、前記分類子は、動作サンプルに基づいて訓練される、
ことを前記1つ以上のプロセッサに行わせる、デバイス。
適用例11:適用例10に記載のデバイスであって、
人間か機械かを識別するように構成された第1の動作に関する情報を表示のために前記クライアントに送信することは、
前記第2の動作の識別対象挙動特性データを抽出し、
前記識別対象挙動特性データが人間動作に適合する場合に、前記第2の動作のための前記トリガ主体は人間であると決定し、
前記識別対象挙動特性データが機械動作に適合する場合に、前記第2の動作のための前記トリガ主体は機械であると決定する、
ことを含む、デバイス。
適用例12:適用例10に記載のデバイスであって、
前記1つ以上のメモリは、更に、実行されたときに、
前記挙動特性モデルに基づいて、前記第2の動作のための前記トリガ主体を人間又は機械のいずれかとして識別した後、
前記人間であるか機械であるかの識別の結果が機械である場合に、その後に前記機械によって送信されるアクセスリクエストを拒絶し、
前記人間であるか機械であるかの識別の結果が人間である場合に、その後に前記人間によって送信されるアクセスリクエストに応答する、
ことを前記1つ以上のプロセッサに行わせる命令を、前記1つ以上のプロセッサに提供するように構成されている、デバイス。
適用例13:有形の非一時的なコンピュータ読み取り可能ストレージ媒体に記録されているコンピュータプログラム製品であって、
クライアントによって送信される人間であるか機械であるかの識別リクエストに応じて、人間であるか機械であるかを識別するように構成された第1の動作に関する情報を表示のためにクライアントに送信するためのコンピュータ命令と、
前記クライアントによってサブミットされる第2の動作を受信するためのコンピュータ命令と、前記第2の動作は、前記第1の動作に関連付けられている動作トラックに対して実施される対話動作に応じてトリガされ、
挙動特性モデルに基づいて、前記第2の動作のためのトリガ主体が人間であるか機械であるかを識別するためのコンピュータ命令と、前記挙動特性モデルは、人間動作及び機械動作のための分類子を含み、前記分類子は、動作サンプルに基づいて訓練されること、
を備えるコンピュータプログラム製品。

Claims (13)

  1. 方法であって、
    クライアントによって送信される人間であるか機械であるかの識別リクエストに応じて、人間であるか機械であるかを識別するように構成されている第1の動作に関する情報を表示のためにクライアントに送信し、
    前記クライアントによってサブミットされる第2の動作を受信し、前記第2の動作は、前記第1の動作に関連付けられている動作トラックに対して実施される対話動作に応じてトリガされ、
    挙動特性モデルに基づいて、前記第2の動作のためのトリガ主体が人間であるか機械であるかを識別し、前記挙動特性モデルは、人間動作及び機械動作のための分類子を含み、前記分類子は、動作サンプルに基づいて訓練される、
    ことを備える方法。
  2. 請求項1に記載の方法であって、
    前記動作サンプルの挙動特性データは、作動スライド時間の長さを含む、方法。
  3. 請求項1に記載の方法であって、
    前記動作サンプルの挙動特性データは、作動スライド時間の長さを含み、前記作動スライド時間の長さは、前記動作サンプルのうちの有効動作の合計時間の長さを決定することによって得られる、方法。
  4. 請求項1に記載の方法であって、
    前記挙動特性モデルの挙動特性データは、少なくとも1つの区間の作動スライド時間の長さ、少なくとも1つの区間の中心軸−偏位頻度、及び少なくとも1つの区間の平均偏位距離のうちの、少なくとも1つを含む、方法。
  5. 請求項1に記載の方法であって、
    前記挙動特性モデルの挙動特性データは、少なくとも1つの区間の作動スライド時間の長さ、少なくとも1つの区間の中心軸−偏位頻度、及び少なくとも1つの区間の平均偏位距離のうちの、少なくとも1つを含み、
    前記少なくとも1つの区間の前記作動スライド時間の長さは、
    前記動作サンプルの合計動作時間を複数の等区間に分割し、
    少なくとも1つの動作区間の時間の長さを計算する、
    ことに少なくとも部分的に基づいて得られ、
    前記少なくとも1つの区間の前記中心軸−偏位頻度は、
    前記動作サンプルの前記合計動作時間を複数の等区間に分割し、
    少なくとも1つの動作区間について中心軸からの偏位の数を計算する、
    ことに少なくとも部分的に基づいて得られ、
    前記少なくとも1つの区間の前記平均偏位距離は、
    前記動作サンプルのうちの少なくとも1つ動作サンプルの合計動作時間を複数の等区間に分割し、
    前記少なくとも1つの動作区間について前記中心軸からの偏位の距離を計算する、
    ことに少なくとも部分的に基づいて得られる、方法。
  6. 請求項1に記載の方法であって、
    前記動作サンプルの挙動特性データは、動作トリガ初期位置及び動作トリガ最終位置を含む、方法。
  7. 請求項1に記載の方法であって、
    前記動作サンプルの挙動特性データは、動作トリガ初期位置及び動作トリガ最終位置を含み、
    前記動作トリガ初期位置及び前記動作トリガ最終位置は、
    動作サンプルがトリガを経始めるときの座標を前記動作トリガ初期位置として決定し、
    前記動作サンプルがトリガを経るのを止めるときの座標を前記動作トリガ最終位置として決定する、
    ことに基づいて得られる、方法。
  8. 請求項1に記載の方法であって、
    前記挙動特性モデルに基づいて、前記第2の動作のためのトリガ主体を識別することは、
    前記第2の動作の識別対象挙動特性データを抽出し、
    前記識別対象挙動特性データが人間動作に適合する場合に、前記第2の動作のための前記トリガ主体は人間であると決定し、
    前記識別対象挙動特性データが機械動作に適合する場合に、前記第2の動作のための前記トリガ主体は機械であると決定する、
    ことを含む、方法。
  9. 請求項1に記載の方法であって、更に、
    前記事前に設定された前記挙動特性モデルに基づいて、前記第2の動作のための前記トリガ主体について人間であるか機械であるかを識別した後、
    前記人間であるか機械であるかの識別の結果が機械である場合に、前記機械によって送信されるアクセスリクエストを拒絶し、
    前記人間であるか機械であるかの識別の結果が人間である場合に、前記人間によって送信されるアクセスリクエストに応答する、
    ことを備える方法。
  10. デバイスであって、
    1つ以上のプロセッサと、
    前記1つ以上のプロセッサに結合され、前記1つ以上のプロセッサに命令を提供するように構成されたメモリと、
    を備え、
    前記命令は、実行されたときに、
    クライアントによって送信される人間であるか機械であるかの識別リクエストに応じて、人間であるか機械であるかを識別するように構成された第1の動作に関する情報を表示のためにクライアントに送信し、
    前記クライアントによってサブミットされる第2の動作を受信し、前記第2の動作は、前記第1の動作に関連付けられている動作トラックに対して実施される対話動作に応じてトリガされ、
    挙動特性モデルに基づいて、前記第2の動作のためのトリガ主体が人間であるか機械であるかを識別し、前記挙動特性モデルは、人間動作及び機械動作のための分類子を含み、前記分類子は、動作サンプルに基づいて訓練される、
    ことを前記1つ以上のプロセッサに行わせる、デバイス。
  11. 請求項10に記載のデバイスであって、
    人間か機械かを識別するように構成された第1の動作に関する情報を表示のために前記クライアントに送信することは、
    前記第2の動作の識別対象挙動特性データを抽出し、
    前記識別対象挙動特性データが人間動作に適合する場合に、前記第2の動作のための前記トリガ主体は人間であると決定し、
    前記識別対象挙動特性データが機械動作に適合する場合に、前記第2の動作のための前記トリガ主体は機械であると決定する、
    ことを含む、デバイス。
  12. 請求項10に記載のデバイスであって、
    前記1つ以上のメモリは、更に、実行されたときに、
    前記挙動特性モデルに基づいて、前記第2の動作のための前記トリガ主体を人間又は機械のいずれかとして識別した後、
    前記人間であるか機械であるかの識別の結果が機械である場合に、その後に前記機械によって送信されるアクセスリクエストを拒絶し、
    前記人間であるか機械であるかの識別の結果が人間である場合に、その後に前記人間によって送信されるアクセスリクエストに応答する、
    ことを前記1つ以上のプロセッサに行わせる命令を、前記1つ以上のプロセッサに提供するように構成されている、デバイス。
  13. 有形の非一時的なコンピュータ読み取り可能ストレージ媒体に記録されているコンピュータプログラム製品であって、
    クライアントによって送信される人間であるか機械であるかの識別リクエストに応じて、人間であるか機械であるかを識別するように構成された第1の動作に関する情報を表示のためにクライアントに送信するためのコンピュータ命令と、
    前記クライアントによってサブミットされる第2の動作を受信するためのコンピュータ命令と、前記第2の動作は、前記第1の動作に関連付けられている動作トラックに対して実施される対話動作に応じてトリガされ、
    挙動特性モデルに基づいて、前記第2の動作のためのトリガ主体が人間であるか機械であるかを識別するためのコンピュータ命令と、前記挙動特性モデルは、人間動作及び機械動作のための分類子を含み、前記分類子は、動作サンプルに基づいて訓練されること、
    を備えるコンピュータプログラム製品。
JP2017549526A 2015-04-21 2016-04-08 人間であるか機械であるかを識別するための方法及びシステム Pending JP2018520397A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
CN201510191030.XA CN106155298B (zh) 2015-04-21 2015-04-21 人机识别方法及装置、行为特征数据的采集方法及装置
CN201510191030.X 2015-04-21
US15/093,251 2016-04-07
US15/093,251 US9917848B2 (en) 2015-04-21 2016-04-07 Method and system for identifying a human or machine
PCT/US2016/026624 WO2016171923A1 (en) 2015-04-21 2016-04-08 Method and system for identifying a human or machine

Publications (1)

Publication Number Publication Date
JP2018520397A true JP2018520397A (ja) 2018-07-26

Family

ID=57148249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017549526A Pending JP2018520397A (ja) 2015-04-21 2016-04-08 人間であるか機械であるかを識別するための方法及びシステム

Country Status (6)

Country Link
US (2) US9917848B2 (ja)
EP (1) EP3286679B1 (ja)
JP (1) JP2018520397A (ja)
KR (1) KR20170120644A (ja)
CN (1) CN106155298B (ja)
TW (1) TWI689942B (ja)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106529269A (zh) * 2016-12-01 2017-03-22 微梦创科网络科技(中国)有限公司 一种安全验证方法及系统
CN106815515A (zh) * 2016-12-12 2017-06-09 微梦创科网络科技(中国)有限公司 一种基于轨迹验证的验证码实现方法及装置
AU2018218526B2 (en) * 2017-02-08 2022-06-16 Sage (Uk) Limited Identifying human interaction with a computer
CN108460268A (zh) * 2017-02-20 2018-08-28 阿里巴巴集团控股有限公司 验证方法及装置
CN108229128A (zh) * 2017-04-10 2018-06-29 珠海市魅族科技有限公司 一种信息识别的方法及装置
CN108804885B (zh) * 2017-05-03 2022-06-14 阿里巴巴集团控股有限公司 人机验证方法和装置、存储介质及处理器
CN108877813A (zh) * 2017-05-12 2018-11-23 阿里巴巴集团控股有限公司 人机识别的方法、装置和系统
CN108958458B (zh) * 2017-05-19 2022-11-25 腾讯科技(深圳)有限公司 一种用户设备互动方法、装置、用户设备、以及计算机可读存储介质
CN107153786A (zh) * 2017-05-26 2017-09-12 北京奇点数聚科技有限公司 一种人机识别方法、系统及终端设备、可读存储介质
CN107330311A (zh) * 2017-06-29 2017-11-07 苏州锦佰安信息技术有限公司 一种人机识别的方法和设备
WO2019001558A1 (zh) * 2017-06-29 2019-01-03 苏州锦佰安信息技术有限公司 一种人机识别的方法和设备
CN107463879A (zh) * 2017-07-05 2017-12-12 成都数联铭品科技有限公司 基于深度学习的人体行为识别方法
CN107491991A (zh) * 2017-08-15 2017-12-19 上海精数信息科技有限公司 基于晃动的人机识别方法及应用其的广告投放方法和系统
CN107688826A (zh) * 2017-08-15 2018-02-13 上海精数信息科技有限公司 基于光感的人机识别方法及应用其的广告投放方法和系统
CN107545464A (zh) * 2017-08-15 2018-01-05 上海精数信息科技有限公司 基于WiFi的人机识别方法及应用其的广告投放方法和系统
CN107507027A (zh) * 2017-08-15 2017-12-22 上海精数信息科技有限公司 基于人机识别的广告投放控制方法及投放系统
CN107679374B (zh) * 2017-08-23 2019-03-15 北京三快在线科技有限公司 一种基于滑动轨迹的人机识别方法及装置,电子设备
CN109426701B (zh) * 2017-08-30 2022-04-05 西门子(中国)有限公司 数据模型的运行方法、运行系统和存储介质
CN107911338B (zh) * 2017-10-13 2019-06-28 深圳市迅雷网络技术有限公司 一种数据验证方法、相关设备和系统
CN108022101A (zh) * 2017-11-29 2018-05-11 上海壹账通金融科技有限公司 人机输入操作识别方法、装置、设备及可读存储介质
CN107766852A (zh) * 2017-12-06 2018-03-06 电子科技大学 一种基于卷积神经网络的人机鼠标轨迹检测方法
CN108287989B (zh) * 2018-01-18 2021-05-28 北京科技大学 一种基于轨迹的滑动验证码人机识别方法
CN110069910A (zh) * 2018-01-23 2019-07-30 袁明凯 一种机器行为确定方法、网页浏览器及网页服务器
CN108416198B (zh) * 2018-02-06 2022-02-01 平安科技(深圳)有限公司 人机识别模型的建立装置、方法及计算机可读存储介质
CN114374560A (zh) * 2018-02-07 2022-04-19 阿里巴巴集团控股有限公司 数据处理方法、设备及存储介质
CN110299063B (zh) * 2018-03-22 2022-01-25 阿里巴巴集团控股有限公司 轨迹数据的可视化展示方法及装置
CN108491714A (zh) * 2018-04-09 2018-09-04 众安信息技术服务有限公司 验证码的人机识别方法
CN109033793A (zh) * 2018-07-11 2018-12-18 北京京东金融科技控股有限公司 滑动验证码人机识别方法及装置、电子设备及可读介质
TWI697845B (zh) 2018-07-13 2020-07-01 緯創資通股份有限公司 多目標追蹤方法與系統
CN109447099B (zh) * 2018-08-28 2022-01-07 西安理工大学 一种基于pca降维的多分类器融合方法
CN109190357B (zh) * 2018-08-30 2021-08-06 袁精侠 一种仅利用缓存资源进行人机验证的手势验证码实现方法
CN109255230A (zh) * 2018-09-29 2019-01-22 武汉极意网络科技有限公司 异常验证行为的识别方法、系统、用户设备及存储介质
CN109361660B (zh) * 2018-09-29 2021-09-03 武汉极意网络科技有限公司 异常行为分析方法、系统、服务器及存储介质
CN109194689B (zh) * 2018-10-22 2021-04-23 武汉极意网络科技有限公司 异常行为识别方法、装置、服务器及存储介质
CN110162939B (zh) * 2018-10-25 2023-05-02 腾讯科技(深圳)有限公司 人机识别方法、设备和介质
CN110046647A (zh) * 2019-03-08 2019-07-23 同盾控股有限公司 一种验证码机器行为识别方法及装置
CN109977651A (zh) * 2019-03-14 2019-07-05 广州多益网络股份有限公司 基于滑动轨迹的人机识别方法、装置及电子设备
CN111723348B (zh) * 2019-03-18 2023-07-07 腾讯科技(深圳)有限公司 人机识别方法、装置、设备及存储介质
CN110188519A (zh) * 2019-05-20 2019-08-30 北京奇艺世纪科技有限公司 一种异常滑动轨迹的检测方法、装置及电子设备
CN110768980B (zh) * 2019-10-22 2022-04-05 武汉极意网络科技有限公司 网络人机验证方法、装置、设备及存储介质
CN111047332B (zh) * 2019-11-13 2021-05-07 支付宝(杭州)信息技术有限公司 模型训练和风险识别方法、装置及设备
CN111046379B (zh) * 2019-12-06 2021-06-18 支付宝(杭州)信息技术有限公司 一种对抗攻击的监测方法和装置
CN111046957B (zh) * 2019-12-13 2021-03-16 支付宝(杭州)信息技术有限公司 一种模型盗用的检测、模型的训练方法和装置
CN111125670B (zh) * 2019-12-17 2022-03-01 美的集团股份有限公司 滑动轨迹人机识别方法、装置、电子设备及存储介质
CN111125669B (zh) * 2019-12-17 2022-03-01 美的集团股份有限公司 滑动操作人机识别方法、装置、电子设备及存储介质
CN111666968A (zh) * 2020-04-21 2020-09-15 北京奇艺世纪科技有限公司 人机识别方法及装置、电子设备、计算机可读存储介质
CN111385313B (zh) * 2020-05-28 2020-09-11 支付宝(杭州)信息技术有限公司 一种对象请求合法性验证的方法和系统
CN112559332B (zh) * 2020-07-13 2023-04-07 支付宝(杭州)信息技术有限公司 一种生物特征识别的攻击测试方法、装置及设备
CN112182519B (zh) * 2020-10-10 2021-05-11 上海威固信息技术股份有限公司 一种计算机存储系统安全访问方法及访问系统
US20220239673A1 (en) * 2021-01-27 2022-07-28 Zscaler, Inc. System and method for differentiating between human and non-human access to computing resources
CN113900889B (zh) * 2021-09-18 2023-10-24 百融至信(北京)科技有限公司 一种智能识别app人为操作的方法及系统
US20230199025A1 (en) * 2021-12-21 2023-06-22 Microsoft Technology Licensing, Llc Account classification using a trained model and sign-in data
CN114861162B (zh) * 2022-04-22 2024-09-20 北京达佳互联信息技术有限公司 操作验证方法、装置、计算机设备及介质

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04156610A (ja) * 1990-10-19 1992-05-29 Fujitsu Ltd ニューラルネットワークを用いた人間の動作自動認識装置
JP2006133937A (ja) * 2004-11-04 2006-05-25 Fuji Xerox Co Ltd 動作識別装置
JP2006244485A (ja) * 2005-02-28 2006-09-14 Microsoft Corp 階層的に安全なストレージシステム内の発見可能性および列挙の機構
JP2007179542A (ja) * 2005-12-27 2007-07-12 Samsung Electronics Co Ltd ネットワーク侵入探知システム及びその探知方法
JP2007531942A (ja) * 2004-04-01 2007-11-08 ヤコブソン,ドヴ マウス動作識別
WO2007128975A2 (en) * 2006-04-10 2007-11-15 University Of Westminster Biometric security systems
JP2009276886A (ja) * 2008-05-13 2009-11-26 National Institute Of Information & Communication Technology 動作学習装置
JP2012073708A (ja) * 2010-09-28 2012-04-12 Rakuten Inc 認証システム、認証方法、認証装置、情報端末、プログラム及び情報記録媒体
US20120246737A1 (en) * 2011-03-24 2012-09-27 AYaH, LLC Method for generating a human likeness score
JP2012239156A (ja) * 2011-04-26 2012-12-06 Ricoh Co Ltd 撮像装置、撮像方法および撮像プログラム
JP2012248017A (ja) * 2011-05-27 2012-12-13 Nippon Telegr & Teleph Corp <Ntt> 行動モデル学習装置、方法、及びプログラム
JP2013041323A (ja) * 2011-08-11 2013-02-28 Nec Corp 行動識別装置、行動識別方法、及びプログラム
JP2013254468A (ja) * 2012-03-31 2013-12-19 Akita Univ 反転チューリングテスト方法およびアクセス認証方法
JP2014510979A (ja) * 2011-03-31 2014-05-01 アリババ・グループ・ホールディング・リミテッド 機械挙動の決定
US20140304797A1 (en) * 2013-04-03 2014-10-09 Alibaba Group Holding Limited Method and system for distinguishing humans from machines and for controlling access to network services
US20140300554A1 (en) * 2013-04-05 2014-10-09 Microsoft Corporation Behavior based authentication for touch screen devices
JP2014222392A (ja) * 2013-05-13 2014-11-27 株式会社Nttドコモ 電子機器、認証方法、プログラム
US20150066822A1 (en) * 2013-09-03 2015-03-05 The Arizona Board Of Regents For And On Behalf Of Arizona State University Systems and methods for authenticating a user through an unobservable re-authentication system

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1517889A (zh) 2003-01-14 2004-08-04 盖内蒂克瓦尔有限公司 具有身份认证功能的键盘装置及其方法
US20070026372A1 (en) * 2005-07-27 2007-02-01 Huelsbergen Lorenz F Method for providing machine access security by deciding whether an anonymous responder is a human or a machine using a human interactive proof
US20080086524A1 (en) 2006-08-18 2008-04-10 Akamai Technologies, Inc. Method and system for identifying valid users operating across a distributed network
DE102007011912A1 (de) * 2007-03-13 2008-09-18 Sanofi-Aventis Verfahren für das Erzeugen von Peptidbibliotheken und deren Verwendung
US20090150983A1 (en) * 2007-08-27 2009-06-11 Infosys Technologies Limited System and method for monitoring human interaction
US8352598B2 (en) 2007-11-27 2013-01-08 Inha-Industry Partnership Institute Method of providing completely automated public turing test to tell computer and human apart based on image
US8140335B2 (en) * 2007-12-11 2012-03-20 Voicebox Technologies, Inc. System and method for providing a natural language voice user interface in an integrated voice navigation services environment
US20090276839A1 (en) * 2008-05-02 2009-11-05 Fortknock Protection Llc Identity collection, verification and security access control system
US8683582B2 (en) 2008-06-16 2014-03-25 Qualcomm Incorporated Method and system for graphical passcode security
US8489399B2 (en) 2008-06-23 2013-07-16 John Nicholas and Kristin Gross Trust System and method for verifying origin of input through spoken language analysis
US8763127B2 (en) * 2009-03-13 2014-06-24 Rutgers, The State University Of New Jersey Systems and method for malware detection
US9225531B2 (en) * 2009-06-18 2015-12-29 Visa International Service Association Automated test to tell computers and humans apart
US20120002008A1 (en) * 2010-07-04 2012-01-05 David Valin Apparatus for secure recording and transformation of images to light for identification, and audio visual projection to spatial point targeted area
US11520455B2 (en) * 2009-06-29 2022-12-06 International Business Machines Corporation Dioramic user interface having a user customized experience
US8669846B2 (en) * 2009-10-19 2014-03-11 Eigent Technologies Inc. Wireless devices for process automation and verification
CN101833619A (zh) 2010-04-29 2010-09-15 西安交通大学 基于键鼠交叉认证的身份判定方法
CN102542137A (zh) * 2010-12-21 2012-07-04 F2威尔股份有限公司 基于全自动区分人机的测试数据的数据处理方法与系统
US8635692B2 (en) 2011-05-04 2014-01-21 Cisco Technology, Inc. System and method for user friendly detection of spammers
CA2844262A1 (en) * 2011-08-05 2013-02-14 M-Qube, Inc. Method and system for verification of human presence at a mobile device
CN102902971A (zh) * 2012-08-31 2013-01-30 电子科技大学 基于智能视觉感知的电梯人流量统计方法及系统
CN103093235B (zh) * 2012-12-30 2016-01-20 北京工业大学 一种基于改进距离核主成分分析的手写体数字识别方法
CN104036780B (zh) * 2013-03-05 2017-05-24 阿里巴巴集团控股有限公司 一种人机识别方法及系统
US9177318B2 (en) * 2013-04-22 2015-11-03 Palo Alto Research Center Incorporated Method and apparatus for customizing conversation agents based on user characteristics using a relevance score for automatic statements, and a response prediction function
US9003196B2 (en) * 2013-05-13 2015-04-07 Hoyos Labs Corp. System and method for authorizing access to access-controlled environments
CN104239758B (zh) 2013-06-13 2018-04-27 阿里巴巴集团控股有限公司 一种人机识别方法及相应的人机识别系统
CN104301286B (zh) 2013-07-15 2018-03-23 中国移动通信集团黑龙江有限公司 用户登录认证方法及装置
CN103530543B (zh) 2013-10-30 2017-11-14 无锡赛思汇智科技有限公司 一种基于行为特征的用户识别方法及系统
US9015847B1 (en) * 2014-05-06 2015-04-21 Synack, Inc. Computer system for distributed discovery of vulnerabilities in applications
US9699205B2 (en) * 2015-08-31 2017-07-04 Splunk Inc. Network security system

Patent Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04156610A (ja) * 1990-10-19 1992-05-29 Fujitsu Ltd ニューラルネットワークを用いた人間の動作自動認識装置
JP2007531942A (ja) * 2004-04-01 2007-11-08 ヤコブソン,ドヴ マウス動作識別
JP2006133937A (ja) * 2004-11-04 2006-05-25 Fuji Xerox Co Ltd 動作識別装置
JP2006244485A (ja) * 2005-02-28 2006-09-14 Microsoft Corp 階層的に安全なストレージシステム内の発見可能性および列挙の機構
JP2007179542A (ja) * 2005-12-27 2007-07-12 Samsung Electronics Co Ltd ネットワーク侵入探知システム及びその探知方法
WO2007128975A2 (en) * 2006-04-10 2007-11-15 University Of Westminster Biometric security systems
JP2009276886A (ja) * 2008-05-13 2009-11-26 National Institute Of Information & Communication Technology 動作学習装置
US20130179958A1 (en) * 2010-09-28 2013-07-11 Rakuten, Inc. Authentication system, authentication method, authentication device, information terminal, program and information recording medium
JP2012073708A (ja) * 2010-09-28 2012-04-12 Rakuten Inc 認証システム、認証方法、認証装置、情報端末、プログラム及び情報記録媒体
US20120246737A1 (en) * 2011-03-24 2012-09-27 AYaH, LLC Method for generating a human likeness score
JP2014510979A (ja) * 2011-03-31 2014-05-01 アリババ・グループ・ホールディング・リミテッド 機械挙動の決定
JP2012239156A (ja) * 2011-04-26 2012-12-06 Ricoh Co Ltd 撮像装置、撮像方法および撮像プログラム
JP2012248017A (ja) * 2011-05-27 2012-12-13 Nippon Telegr & Teleph Corp <Ntt> 行動モデル学習装置、方法、及びプログラム
JP2013041323A (ja) * 2011-08-11 2013-02-28 Nec Corp 行動識別装置、行動識別方法、及びプログラム
JP2013254468A (ja) * 2012-03-31 2013-12-19 Akita Univ 反転チューリングテスト方法およびアクセス認証方法
US20140304797A1 (en) * 2013-04-03 2014-10-09 Alibaba Group Holding Limited Method and system for distinguishing humans from machines and for controlling access to network services
US20140300554A1 (en) * 2013-04-05 2014-10-09 Microsoft Corporation Behavior based authentication for touch screen devices
JP2014222392A (ja) * 2013-05-13 2014-11-27 株式会社Nttドコモ 電子機器、認証方法、プログラム
US20150066822A1 (en) * 2013-09-03 2015-03-05 The Arizona Board Of Regents For And On Behalf Of Arizona State University Systems and methods for authenticating a user through an unobservable re-authentication system

Also Published As

Publication number Publication date
CN106155298A (zh) 2016-11-23
CN106155298B (zh) 2019-11-08
TWI689942B (zh) 2020-04-01
US10404720B2 (en) 2019-09-03
KR20170120644A (ko) 2017-10-31
EP3286679A4 (en) 2018-10-10
US20180270253A1 (en) 2018-09-20
US9917848B2 (en) 2018-03-13
EP3286679B1 (en) 2021-01-20
US20160315948A1 (en) 2016-10-27
EP3286679A1 (en) 2018-02-28
TW201638816A (zh) 2016-11-01

Similar Documents

Publication Publication Date Title
JP2018520397A (ja) 人間であるか機械であるかを識別するための方法及びシステム
US9904873B2 (en) Extracting card data with card models
US20230099864A1 (en) User profiling based on transaction data associated with a user
US20170140138A1 (en) Behavior based authentication for touch screen devices
US11126827B2 (en) Method and system for image identification
US11861645B2 (en) Techniques to process biometric and transaction data to determine an emotional state of a user while performing a transaction
US20230109673A1 (en) Computing techniques to predict locations to obtain products utilizing machine-learning
WO2016171923A1 (en) Method and system for identifying a human or machine
Kratky et al. Recognition of web users with the aid of biometric user model
Chao et al. Swipe gestures for user authentication in smartphones
Uke et al. Optimal video processing and soft computing algorithms for human hand gesture recognition from real-time video
US11195170B1 (en) Method and a system for creating a behavioral user profile
Krzeminski et al. End-to-end transparent user identification using touchscreen biometrics

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171124

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190820

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191113

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200714