KR20220125320A - 인간-기계 검증 방법, 장치, 기기 및 기록 매체 - Google Patents

인간-기계 검증 방법, 장치, 기기 및 기록 매체 Download PDF

Info

Publication number
KR20220125320A
KR20220125320A KR1020227027380A KR20227027380A KR20220125320A KR 20220125320 A KR20220125320 A KR 20220125320A KR 1020227027380 A KR1020227027380 A KR 1020227027380A KR 20227027380 A KR20227027380 A KR 20227027380A KR 20220125320 A KR20220125320 A KR 20220125320A
Authority
KR
South Korea
Prior art keywords
requestor
identity verification
machine
verification
probability value
Prior art date
Application number
KR1020227027380A
Other languages
English (en)
Inventor
양양 친
Original Assignee
바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 filed Critical 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드
Publication of KR20220125320A publication Critical patent/KR20220125320A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/45Structures or tools for the administration of authentication
    • G06F21/46Structures or tools for the administration of authentication by designing passwords or checking the strength of passwords
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2133Verifying human interaction, e.g., Captcha

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Ophthalmology & Optometry (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Collating Specific Patterns (AREA)
  • Geophysics And Detection Of Objects (AREA)

Abstract

본 출원은 인터넷 보안 기술의 분야와 컴퓨터 비전 기술의 분야에 관한 인간-기계 검증 방법, 장치, 기기 및 기록 매체를 공개한다. 구체적인 구현 방안은, 요청자가 송신한 신원 검증 요청을 수신하고, 신원 검증 페이지에서의 안구 응시점 궤적을 수집하고, 상기 신원 검증 요청에는 신원 검증 정보가 포함되고, 미리 저장된 사용자 신원 정보에 따라, 상기 신원 검증 정보가 정확한지 여부를 식별하고, 상기 신원 검증 정보가 정확할 경우, 제1 분류 모델을 사용하여, 상기 신원 검증 페이지에서의 안구 응시점 궤적에 기반하여 분류하고, 상기 요청자가 실제 사람 및 기계인 제1 확률값을 출력하고, 상기 제1 확률값에 기반하여 상기 요청자가 실제 사람 또는 기계인지를 결정하고, 신원 검증에 합격 또는 실패한 신원 검증 결과를 출력한다. 본 출원은 인간-기계의 검증 신뢰성을 향상시키고, 동시에 사용자 체험을 향상시킬 수 있다.

Description

인간-기계 검증 방법, 장치, 기기 및 기록 매체
본 출원은 인터넷 기술 분야에 관한 것이고, 구체적으로, 인터넷 보안 기술의 분야와 컴퓨터 비전 기술 분야에 관한 것이며, 특히, 인간-기계 검증 방법, 장치, 기기 및 기록 매체에 관한 것이다.
<관련 출원의 상호 참조>
본 출원은 출원일이 2020년 6월 28일이고, 출원 번호가 2020106008572이며, 발명 명칭이 "인간-기계 검증 방법, 장치, 기기 및 기록 매체”인 중국 특허 출원의 우선권을 주장한다.
인터넷 기술의 발전에 따라, 일련의 기계 공격에 의존하는 흑회색 산업 체인(black and gray industrial chains)이 탄생하고, 기계가 실제 사람의 인터랙션 조작을 시뮬레이션하는 것을 통해, 인터넷에서 사용자를 유도하고, 허위 데이터를 생산하며, 타인의 정보를 도용하고, 익명의 불법 범죄 등의 행위를 실시한다. 공개된 데이터에 따르면, 페이스북(facebook)은 공식적으로 5%의 계정이 가짜 계정임을 발견하고, 국내의 큰 인터넷 회사가 매년 발견한 가짜 계정 수도 백만으로부터 십억에 이르며, 현재는 국내에만, 흑회색 시장은 이미 1000억 규모에 도달한다. 실제 사람의 액세스와 기계 공격을 어떻게 식별하는 것은, 이미, 각 인터넷 기업, 심지어 전자금융업계가 흑회색 상품과 대항하는 경기장이 되었다.
실제 사람의 액세스와 기계 공격을 식별하기 위해, 종래 기술은 주로 사용자 행위 인터랙션 검증 방식을 사용하여, 사용자의 단말 화면에서의 조작 행위를 수집하고, 주로, 지정된 화면 위치를 클릭하거나, 어느 슬라이더를 지정 위치에 슬라이드하여, 이에 따라 어느 지정된 조작을 완성하며, 예를 들어 한자를 클릭하고, 이미지를 클릭하고, 슬라이드하여 이미지의 각도를 바로하고, 퍼즐을 완성하는 등이 있으며, 이로부터, 실제 사람 조작인가 기계 공격인가를 결정한다. 상술한 사용자 행위 인터랙션 검증을 우회하기 위해, 현재, 비교적 풍부한 행위 시뮬레이션 방법이 이미 나타났으며, 한편으로는 실제 사람 행위 궤적을 재현하여 시뮬레이션 검증을 수행할 수 있고, 또한 기계를 통해 시뮬레이션 조작 행위를 자동적으로 생성할 수도 있다.
기계의 공격 비용을 높이기 위해, 검증 난이도를 부단히 향상시킬 필요가 있다. 그러면 먼저, 기계가 조작의 목적을 이해하게 하고, 그 다음에, 다시 조작하고, 예를 들어, 어느 색의 블록의 어느 방향을 클릭하는 도형을 예로 하고, 기계는 먼저 색상, 블록, 위치 등의 정보를 이해하고, 그 다음에, 구체적인 클릭 조작을 수행할 필요가 있다. 당해 방법은 기계 공격 비용을 비교적 높게 하지만, 실제 사람이 이해하는 난이도를 증가시키고, 사용자 체험을 크게 낮춘다.
본 출원의 복수의 측면은 인간-기계의 검증 신뢰성을 향상시키기 위해, 인간-기계 검증 방법, 장치, 기기 및 기록 매체를 제공한다.
제1 측면에 따르면, 인간-기계 검증 방법을 제공하고,
요청자가 송신한 신원 검증 요청을 수신하고, 신원 검증 페이지에서의 안구 응시점 궤적을 수집하는 단계 - 상기 신원 검증 요청에는 신원 검증 정보가 포함됨 -;
미리 저장된 사용자 신원 정보에 기반하여, 상기 신원 검증 정보가 정확한지 여부를 식별하는 단계;
상기 신원 검증 정보가 정확할 경우, 제1 분류 모델을 사용하여, 상기 신원 검증 페이지에서의 안구 응시점 궤적에 기반하여 분류하고, 상기 요청자가 실제 사람 및 기계인 제1 확률값을 출력하는 단계;
상기 제1 확률값에 기반하여 상기 요청자가 실제 사람 또는 기계인지를 결정하고, 신원 검증에 합격 또는 실패한 신원 검증 결과를 출력하는 단계;를 포함한다.
제2 측면에 따르면, 인간-기계 검증 장치를 제공하고,
요청자가 송신한 신원 검증 요청을 수신하기 위한 수신 유닛 - 상기 신원 검증 요청에는 신원 검증 정보가 포함됨 -;
신원 검증 페이지에서의 안구 응시점 궤적을 수집하기 위한 수집 유닛;
미리 저장된 사용자 신원 정보에 기반하여, 상기 신원 검증 정보가 정확한지 여부를 식별하기 위한 식별 유닛;
상기 신원 검증 정보가 정확할 경우, 상기 신원 검증 페이지에서의 안구 응시점 궤적에 기반하여 분류하고, 상기 요청자가 실제 사람 및 기계인 제1 확률값을 출력하는 제1 분류 모델;
상기 제1 확률값에 기반하여 상기 요청자가 실제 사람 또는 기계인지를 결정하기 위한 결정 유닛; 및
상기 요청자가 실제 사람 또는 기계인 것에 기반하여, 신원 검증에 합격 또는 실패한 신원 검증 결과를 출력하기 위한 출력 유닛;을 포함한다.
제3 측면에 따르면, 전자 기기를 제공하고, 적어도 하나의 프로세서; 및 상기 적어도 하나의 프로세서에 통신 연결되는 메모리;를 포함하고, 상기 메모리에는 상기 적어도 하나의 프로세서에 의해 수행 가능한 명령이 저장되어 있고, 상기 명령이 상기 적어도 하나의 프로세서에 의해 수행되어, 상기 적어도 하나의 프로세서에 의해 상술한 방법이 수행되도록 한다.
제4 측면에 따르면, 컴퓨터 명령이 저장되어 있는 비일시적 컴퓨터 판독 가능 기록 매체를 제공하고, 상기 컴퓨터 명령은 상기 컴퓨터가 상술한 방법을 수행하도록 한다.
상술한 기술 방안으로부터 알 수 있는 것은, 본 출원은 요청자가 송신한 신원 검증 요청을 수신하고, 신원 검증 페이지에서의 안구 응시점 궤적을 수집하고, 먼저, 미리 저장된 사용자 신원 정보에 기반하여 신원 검증 요청 내의 신원 검증 정보가 정확한지 여부를 식별하고, 상기 신원 검증 정보가 정확할 경우, 그 다음에, 제1 분류 모델을 사용하여 상기 신원 검증 페이지에서의 안구 응시점 궤적에 기반하여 분류하고, 상기 요청자가 실제 사람 및 기계인 제1 확률값을 출력하고, 또한, 상기 제1 확률값에 기반하여 상기 요청자가 실제 사람 또는 기계인지를 결정하고, 신원 검증에 합격 또는 실패한 신원 검증 결과를 출력한다. 본 출원은 요청자에 대해 신원 검증을 수행할 때, 동시에 요청자에 대해 안구 이동 궤적 검증을 수행하여, 인간-기계의 보안 검증을 구현하고, 요청자가 실제 사람인가 기계 공격인가를 자동적으로 식별하여, 인간-기계의 보안 검증의 신뢰성을 향상시킨다.
또한, 본 출원에서 제공되는 기술 방안을 사용하여, 요청자에 대해 신원 검증을 수행하는 과정에서, 신원 검증 페이지에서의 안구 응시점 궤적을 자동적으로 수집하고, 요청자에 대해 안구 이동 궤적 검증을 수행하여, 사용자가 조작할 필요가 없기 때문에, 사용자가 거의 무감각 또는 미세하게 감지하는 상황에서, 안구 이동 궤적 검증을 완성하여, 실제 사람이 이해하는 난이도를 증가하지 않는 동시에 사용자 체험을 향상시킬 수 있다.
본 명세서에 설명된 내용은, 본 개시의 실시예의 키 또는 중요한 특징을 식별하는 것이 아니고, 본 개시의 범위를 한정하는 것도 아닌 것을 이해해야 한다. 본 개시의 다른 특징은, 이하의 설명을 통해 쉽게 이해될 것이다.
본 출원의 실시예에서의 기술 방안을 따라 명확히 설명하기 위해, 이하, 실시예 또는 기존의 기술의 설명에서 사용할 필요가 있는 도면을 간단히 설명한다. 분명히, 하기에서 설명하는 도면은 본 출원의 일부 실시예이며, 당업자가, 창조적인 노동없이, 이 도면에 따라 다른 도면을 획득할 수도 있다. 도면은 단지 본 기술 방안을 더 잘 이해하기 위해서 사용되고, 본 출원에 대한 한정을 구성하지 않는다.
도 1은 본 출원의 제1 실시예에 따른 개략도이다.
도 2는 본 출원의 제1 실시예의 신원 검증 페이지 및 안구 응시점 궤적의 하나의 개략도이다.
도 3은 본 출원의 제2 실시예에 따른 개략도이다.
도 4(a), 도 4(b), 및 도 4(c)는 본 출원의 제2 실시예의 서로 다른 난이도의 검증 내용 및 제시 정보의 하나의 개략도이다.
도 5는 본 출원의 제3 실시예에 따른 개략도이다.
도 6은 본 출원의 제4 실시예에 따른 개략도이다.
도 7은 본 출원의 제5 실시예에 따른 개략도이다.
도 8은 본 출원의 실시예를 구현하기 위한 단말 기기의 개략도이다.
도 9는 본 출원의 실시예를 구현하기 위한 인간-기계 검증 방법의 전자 기기의 개략도이다.
이하, 첨부된 도면을 결부하여 본 출원의 예시적 실시예를 설명하되, 여기에는 이해를 돕기 위한 본 출원의 실시예의 다양한 세부 사항이 포함되며, 이는 단지 예시적인 것으로 간주되어야 한다. 따라서, 본 기술분야의 통에서의 기술자는 본 출원의 범위와 사상을 벗어나지 않으면서, 여기서 설명되는 실시예에 대한 다양한 변경과 수정이 이루어질 수 있음을 이해해야 한다. 마찬가지로, 명확성 및 간결성을 위해, 아래의 설명에서 공지된 기능과 구조에 대한 설명을 생략한다.
분명히, 설명된 실시예는 본 출원의 일부 실시예이고, 모든 실시예가 아니다. 본 출원의 실시예에 의하면, 당업자는 창조적인 노동없이 획득되는 모든 기타 실시예는 모두 본 출원의 보호 범위에 속한다.
설명해야 하는 바로는, 본 출원의 실시예에 관한 단말은 휴대전화, 휴대정보 단말(PerSonal Digital ASSiStant, PDA), 무선 휴대 장치, 태블릿 컴퓨터(Tablet Computer), 개인용 컴퓨터(Personal Computer, PC), MP3 플레이어, MP4 플레이어, 웨어러블 기기(예를 들어 스마트 안경, 스마트 시계, 스마트 팔찌 등), 스마트 홈 기기 등 스마트 기기 등의 스마트 디바이스를 포함할 수 있지만, 이에 한정하지 않는다.
또한, 본 명세서의 용어 “및/또는”은 관련 대에서의 관련 관계를 설명하며 3가지 관계가 존재함을 나타낸다. 예를 들어 A 및/또는 B는, A가 단독으로 존재; A와 B가 동시에 존재; B가 단독으로 존재하는 3가지 경우를 나타낼 수 있다. 캐릭터 "/"는 일반적으로 전후 관련 대상이 "또는”의 관계를 가짐을 나타낸다.
종래 기술에서 기계 공격 비용을 향상시키기 위해, 간단한 클릭 및 슬라이드로부터, 사칙 연산, 이미지 식별, 위치 식별, 순서 식별 등으로 업그레이드하여, 검증 난이도를 부단히 향상시킨다. 먼저, 기계가 조작의 목적을 이해하게 하고, 그 다음에, 다시 조작하고, 예를 들어, 어느 색의 블록의 어느 방향을 클릭하는 도형을 예로 하고, 기계는 먼저 색상, 블록, 위치 등의 정보를 이해하고, 그 다음에, 구체적인 클릭 조작을 수행할 필요가 있다. 당해 방법은 기계 공격 비용을 비교적 높게 하지만, 실제 사람이 이해하는 난이도도 향상시키고, 사용자 체험을 크게 낮춘다.
본 출원은 상술한 문제에 대해, 인간-기계 검증 방법, 장치, 전자 기기, 및 판독 가능 기록 매체를 제공하고, 인간-기계의 검증 신뢰성을 향상시키고, 동시에 사용자 체험을 향상시킬 수 있다.
도 1에 도시된 바와 같이, 도 1은 본 출원의 제1 실시예에 따른 개략도이다.
101, 요청자가 송신한 신원 검증 요청을 수신하고, 신원 검증 페이지에서의 안구 응시점 궤적을 수집한다.
그 중, 상기 신원 검증 요청에는 신원 검증 정보가 포함된다.
102, 미리 저장된 사용자 신원 정보에 기반하여, 상기 신원 검증 정보가 정확한지 여부를 식별한다.
103, 상기 신원 검증 정보가 정확할 경우, 제1 분류 모델을 사용하여, 상기 신원 검증 페이지에서의 안구 응시점 궤적에 기반하여 분류하고, 상기 요청자가 실제 사람 및 기계인 제1 확률값을 출력한다.
104, 상기 제1 확률값에 기반하여 상기 요청자가 실제 사람 또는 기계인지를 결정하고, 신원 검증에 합격 또는 실패한 신원 검증 결과를 출력한다.
설명해야 하는 바로는, 101∼104의 실행 주체의 일부 또는 모두는 로컬 단말에 있는 애플리케이션일 수 있고, 또는 로컬 단말에 있는 애플리케이션에 설치된 플러그인 또는 소프트웨어 개발 킷(Software DeVelopment Kit, SDK) 등의 기능 유닛일 수 있고, 또는 네트워크측의 서버에 있는 처리 엔진일 수 있고, 본 실시예는 이에 대해 특히 한정하지 않는다.
상기 애플리케이션은 단말에 인스톨된 로컬 프로그램(natiVeAPP)일 수 있고, 단말에서의 브라우저에 하나 웹 프로그램(webAPP)일 수 있고, 본 실시예는 이에 대해 한정하지 않는 것을 이해할 수 있다.
본 실시예에서, 요청자에 대해 신원 검증을 수행할 때, 동시에 요청자에 대해 안구 이동 궤적 검증을 수행하여, 인간-기계의 보안 검증을 구현하고, 요청자가 실제 사람인가 기계 공격인가를 자동적으로 식별하여, 인간-기계의 보안 검증의 신뢰성을 향상시킨다.
또한, 본 출원에서 제공되는 기술 방안을 사용하여, 요청자에 대해 신원 검증을 수행하는 과정에서, 신원 검증 페이지에서의 안구 응시점 궤적을 자동적으로 수집하고, 요청자에 대해 안구 이동 궤적 검증을 수행하여, 사용자가 조작할 필요가 없기 때문에, 사용자가 거의 무감각 또는 미세하게 감지하는 상황에서, 안구 이동 궤적 검증을 완성하여, 실제 사람이 이해하는 난이도를 증가하지 않는 동시에 사용자 체험을 향상시킬 수 있다.
선택적으로, 본 실시예의 가능한 구현 방식에 있어서, 일정한 과거의 시간 내의 다른 사용자의 안구 응시점 궤적을 포지티브 샘플로 수집하고, 과거 행위 유사성 분석을 수행하고, 이에 기반하여 당해 과거 행위 유사성에 적합하지 않는 허위 안구 응시점 궤적을 네거티브 샘플로 생성하고, 그 다음에, 포지티브 샘플과 네거티브 샘플을 사용하여, 감독이 있는 트레이닝 방식을 통해 제1 분류 모델을 트레이닝하고, 제1 분류 모델이 트레이닝 완성한 후에, 입력된 안구 응시점 궤적에 기반하여 실제 사람인지 여부 (즉 실제 사람과 기계이다)의 확률값을 출력할 수 있다.
구체적인 구현에서, 실제 사람 사용자(실제 사람)에 대해, 적외선 광원과 적외선 카메라의 보조를 통해, 어느 시각에 사용자가 단말 화면(예를 들어, 신원 검증 페이지, 인터랙션 검증 페이지 등과 같은 페이지에 대응된다)에서의 안구 응시점의 위치를 위치결정할 수 있고, 예를 들어, 적외선 광원을 통해 적외선을 발사할 수 있고, 사용자의 안구가 적외선 신호를 수신한 후에 발사하고, 적외선 카메라는 단말 화면에서의 적외선 신호를 수집하는 것을 통해, 사용자의 안구 단말 화면(페이지에 대응한다)에서의 위치, 즉 안구 응시점 위치를 위치결정할 수 있고, 일정한 시간의 안구 응시점 위치를 수집하는 것을 통해 안구 응시점 궤적을 획득할 수 있다. 이러면, 적외선 광원과 적외선 카메라를 통해, 안구 응시점의 위치를 추적할 수 있다. 그러나, 기계 공격에서, 기계가 안구가 회전하는 체감 데이터를 생성하는 것이 곤란하여, 적외선 광원과 적외선 카메라의 도움으로, 단말 디바이스가 안구 응시점 위치를 검출할 수 없으며, 안구 응시점 궤적도 추적할 수 없을 경우, 기계 공격으로 판단할 확률이 높다. 기계 공격자가 복수의 사진을 이용하여 3D 모델링을 수행하여 생체 검증을 시뮬레이션할 경우, 안구 회전을 구현하기 위한 공격 비용도 매우 높기 때문에, 사용자 검증 비용을 증가하지 않는 상황에서, 기계 공격 비용을 증가시킨다.
선택적으로, 도 1에 도시된 실시예에서, 또한, 상기 신원 검증 정보가 정확하지 않을 경우, 신원 검증에 실패한 신원 검증 결과를 출력하는 단계를 포함할 수 있다.
본 실시예에서, 신원 검증 정보가 정확하지 않을 경우, 즉 사용자 신원이 합법적이지 않다고 간주되며, 그 다음에, 후속 인간-기계의 검증을 수행할 필요가 없고, 컴퓨팅 자원을 절약하고, 검증 효율을 향상시킬 수 있다.
선택적으로, 본 실시예의 가능한 구현 방식에 있어서, 101에서, 상기 요청자가 상기 신원 검증 페이지에 액세스하는 요청을 수신할 경우, 상기 신원 검증 페이지에서의 안구 응시점 궤적의 수집을 시작하고, 상기 요청자가 사용자 이름과 비밀 번호를 입력한 후에 송신한 신원 검증 요청을 수신하고, 상기 신원 검증 정보는 상기 사용자 이름과 비밀 번호를 포함한다.
본 실시예에서, 요청자가 상기 신원 검증 페이지에 액세스하는 요청을 수신할 경우, 즉 상기 신원 검증 페이지에서의 안구 응시점 궤적의 수집을 시작하고, 사용자에 대해 신원 검증을 수행하는 과정에서, 즉 인간-기계의 검증 위한 안구 응시점 궤적을 수집하여 획득하고, 전체 검증 절차의 효율을 향상시킬 수 있다.
도 2는 본 출원의 제1 실시예의 신원 검증 페이지 및 안구 응시점 궤적의 하나의 개략도이다. 신원 검증 페이지는, 자주 사용하는 계정 비밀번호 로그인 인터페이스를 예시적으로 제공하고, 사용자 이름 입력 인터페이스, 비밀 번호 입력 인터페이스, 및 하나의 로그인 버튼을 포함하고, 사용자가 계정 비밀번호 로그인 인터페이스에 들어간 후에 서로 다른 시각에서의 안구 응시점 위치를 수집하고, 시간 순서에 따라 서로 다른 시각의 안구 응시점 위치에 대해 시퀀스 모델링을 수행하여, 하나의 안구 응시점 궤적을 형성할 수 있으며, 도 2는 하나의 안구 응시점 궤적을 예시적으로 제공한다. 종래의 기계 공격은 안구 응시점 궤적이 나타나지 않고, 3D 모델링 또는 비디오 녹화를 사용하여 획득된 안구 응시점 궤적은 실제 사람 궤적과 현저하게 다르다.
예를 들어, 실제 사람일 경우, 사용자가 계정 비밀번호 로그인 인터페이스에 들어간 후에 먼저, 주목하게 되는 것은 왼쪽 상단 모서리이며, 그 다음에, 사용자 이름과 비밀 번호의 입력을 시작하고, 마지막으로, 로그인 버튼을 클릭하여 로그인을 완성하고, 이로부터, 카운트 및 비밀번호 로그인 인터페이스 후 사용자의 서로 다른 시각에서의 안구 응시점 위치를 시뮬레이션하고, 시간 순서에 따라 서로 다른 시각의 안구 응시점 위치에 대해 시퀀스 모델링을 수행하고, 안구 응시점 궤적을 형성할 수 있다.
도 2에 도시된 신원 검증 페이지 상에서 추적된 안구 응시점 궤적은, 사용자에게 방해가 되지 않으며, 사용자가 감지 못 한 상황에서 보안 검증을 완성할 수 있다. 체감 기술을 통해, 기계 공격 비용이 매우 높아진다.
선택적으로, 본 실시예의 가능한 구현 방식에 있어서, 104에서, 상기 제1 확률값에서, 상기 요청자가 실제 사람인 확률값이 상기 요청자가 기계인 확률값보다 클 경우, 상기 요청자가 실제 사람인 것으로 결정하고, 신원 검증에 합격한 신원 검증 결과를 출력하거나, 또는,
상기 제1 확률값에서, 상기 요청자가 기계인 확률이 제1 기설정된 값보다 클 경우, 예를 들어, 0.5이며, 상기 요청자가 기계인 것으로 결정하고, 신원 검증에 실패한 신원 검증 결과를 출력하거나, 또는,
상기 제1 확률값에서, 상기 요청자가 실제 사람인 확률이 제2 기설정된 값보다 클 경우, 예를 들어, 0.6이며, 상기 요청자가 실제 사람인 것으로 결정하고, 신원 검증에 합격한 신원 검증 결과를 출력할 수 있다.
제1 기설정된 값, 및 제2 기설정된 값은 실제 수요에 따라 설치할 수 있고, 수요에 따라 실시간으로 조정할 수 있고, 본 출원은 제1 기설정된 값, 및 제2 기설정된 값의 구체적인 값에 대해 한정하지 않는다.
본 실시예에서, 요청자가 실제 사람 또는 기계인 확률값의 크기에 따라 요청자가 실제 사람 또는 기계인지를 결정하여, 요청자가 실제 사람 또는 기계인지를 결정하는 기준을 더 객관적으로 할 수 있고, 요청자가 실제 사람 또는 기계인지를 결정하는 효율을 향상하는데 도움이 된다.
상기 제1 확률값에서, 상기 요청자가 실제 사람인 확률값이 상기 요청자가 기계인 확률값과 같거나, 또는, 상기 요청자가 기계인 확률값이 제3 기설정된 값(0.4)보다 크고, 제1 기설정된 값(0.5)보다 크지 않거나, 또는, 상기 요청자가 실제 사람인 확률값이 제4 기설정된 값(0.5)보다 크고, 제2 기설정된 값(0.6)보다 크지 않을 경우, 이때, 상기 요청자가 실제 사람 또는 기계인지를 결정하는 것이 곤란하며, 하기의 307에 도시된 바와 같이, 사용자에 대해 인터랙션 행위 검증을 수행할 수 있다.
제3 기설정된 값, 및 제4 기설정된 값은, 실제 수요에 따라 설치할 수 있고, 수요에 따라 실시간으로 조정할 수 있고, 본 출원은 제3 기설정된 값, 제4 기설정된 값의 구체적인 값에 대해 한정하지 않는다.
도 3에 도시된 바와 같이, 도 3은 본 출원의 제2 실시예에 따른 개략도이다.
301, 요청자가 송신한 신원 검증 요청을 수신하고, 신원 검증 페이지에서의 안구 응시점 궤적을 수집한다.
상기 신원 검증 요청에는 신원 검증 정보가 포함된다.
302, 미리 저장된 사용자 신원 정보에 기반하여, 상기 신원 검증 정보가 정확한지 여부를 식별한다.
상기 신원 검증 정보가 정확할 경우, 303을 실행하고, 그렇지 않으면, 상기 신원 검증 정보가 정확하지 않을 경우, 306을 실행한다.
303, 제1 분류 모델을 사용하여, 상기 신원 검증 페이지에서의 안구 응시점 궤적에 기반하여 분류하고, 상기 요청자가 실제 사람 및 기계인 제1 확률값을 출력한다.
304, 상기 제1 확률값에 기반하여 상기 요청자가 실제 사람 또는 기계인지를 결정한다.
상기 요청자가 실제 사람인 것으로 결정되었을 경우, 305을 실행하고, 그렇지 않으면, 상기 요청자가 기계인 것으로 결정되었을 경우, 306을 실행하고, 상기 요청자가 실제 사람 또는 기계인지를 결정하지 못하였을 경우, 307을 실행한다.
구체적인 구현 과정에 있어서, 상기 제1 확률값에서, 상기 요청자가 실제 사람인 확률값이 상기 요청자가 기계인 확률값과 같거나, 또는, 상기 요청자가 기계인 확률값이 제3 기설정된 값보다 크고, 제1 기설정된 값보다 크지 않거나, 또는, 상기 요청자가 실제 사람인 확률값이 제4 기설정된 값보다 크고, 제2 기설정된 값보다 크지 않을 경우, 상기 요청자가 실제 사람 또는 기계인지를 결정하지 못한 것으로 간주할 수 있다.
305, 신원 검증에 합격한 신원 검증 결과를 출력한다.
305 후에, 본 실시예의 후속 절차를 실행하지 않는다.
306, 신원 검증에 실패한 신원 검증 결과를 출력한다.
306 후에, 본 실시예의 후속 절차를 실행하지 않는다.
307, 상기 요청자가 기계인 확률값의 크기에 따라, 인터랙션 검증 페이지를 통해 대응하는 난이도의 검증 내용을 전시하고, 상기 요청자가 조작하도록 제시하는 제시 정보를 전시한다.
신원 검증 페이지에서의 요청자의 안구 응시점 궤적이 인간-기계의 식별을 할 수 없을 경우, 인터랙션 행위 검증 방식으로, 인터랙션 검증 페이지로 난이도가 있는 검증 내용 및 제시 정보를 전시하고, 또한, 요청자를 검증한다. 도 4(a), 도 4(b), 및 도 4(c)는 본 출원의 제2 실시예의 서로 다른 난이도의 검증 내용 및 제시 정보의 하나의 개략도이다. 도 4(a), 도 4(b), 및 도 4(c)에 도시된 바와 같이, 검증 내용은, 모두 9개의 블록을 포함하고, 9개의 블록은 랜덤 파라미터(리스크 정도에 따라 랜덤 파라미터를 미리 설정할 수 있다)에 따라 랜덤으로 숫자가 나타날 수 있으며, 각 블록에 숫자가 나타나거나, 또는 나타나지 않을 수 있고, 숫자는 0, 양의 정수, 음의 정수, 심지어 부동 소수점일 수 있고, 사용자를 제시하여 작은 순서에서 큰 순서로 블록 내의 숫자를 클릭한다. 사용자는 작은 순서에서 큰 순서로 숫자를 클릭하고, 클릭 순서가 정확할 경우, 요청자의 조작이 정확하다.
당해 인터랙션 행위 검증 방식은 서로 다른 난이도의 검증 내용을 제공하고, 요청자가 실제 사람인 확률값이 클수록, 검증 내용의 난이도는 작아지고, 도 4(a)에서 제공되는 검증 내용은 사용자가 4번만 클릭해야 하도, 블록 내의 숫자의 크기는, 비교적으로 용이하게 판단한다. 요청자가 기계인 확률값이 클수록, 검증 내용의 난이도가 높아지며, 도 4(b)에서 제공되는 검증 내용은 사용자가 6번 클릭해야 하고, 블록 내의 숫자는 모두 양의 정수다. 요청자가 기계인 확률값이 클 경우, 도 4(c)에서 제공되는 더 어려운 검증 내용을 전시할 수 있고, 블록 내의 숫자는 동시에 음의 정수, 양의 정수, 및 부동소수점을 포함하고, 기계가 검증을 완성하는 난이도가 더 높아진다.
308, 상기 인터랙션 검증 페이지에서의 상기 요청자의 행위 궤적을 수집한다.
사용자가 검증 내용 중의 구체적인 내용 (예를 들어, 블록)을 클릭할 때마다, 단말 화면에 생성된 조작 행위 위치에서, 사용자가 다른 시각에 검증 내용 중의 구체적인 대응하는 조작 행위 위치를 클릭하는 것을 수집하는 것을 통해, 행위 궤적을 획득할 수 있다. 안구 응시점 궤적과 사용자 행위 궤적에 대해 유사성 분석과 감독이 있는 행위 모델링을 수행할 수 있고, 동시에, 안구 응시점 궤적과 사용자 행위 궤적은 또한, 교차 모델링을 수행할 수 있고, 예를 들어, 안구 응시점 궤적과 행위 궤적의 다변수 시간 시퀀스 모델을 구축한다.
309, 상기 인터랙션 검증 페이지에서의 상기 요청자의 행위 궤적에 기반하여, 상기 요청자의 조작이 정확한지 여부를 결정한다.
310, 상기 요청자의 조작이 정확한지 여부에 따라, 신원 검증에 합격 또는 실패한 신원 검증 결과를 출력한다.
구체적으로, 요청자의 조작이 정확할 경우, 신원 검증에 합격한 신원 검증 결과를 출력하고, 그렇지 않으면, 요청자의 조작이 정확하지 않을 경우, 신원 검증에 실패한 신원 검증 결과를 출력한다.
본 실시예에서, 요청자가 기계인 확률값의 크기에 따라, 인터랙션 검증 페이지를 통해 서로 다른 난이도의 검증 내용을 전시할 수 있고, 또한, 사용자에 대해 인터랙션 행위 검증을 수행하고, 요청자가 기계인 확률값이 클수록, 검증 내용의 난이도가 높아지며, 신원 검증 페이지에서의 안구 응시점 궤적과 요청자의 행위 궤적을 결합하고, 기계가 검증을 완성하는 난이도가 더 높아지며, 인간-기계의 검증 정밀도와 신뢰성을 향상시키고, 네트워크 안정성을 향상시킬 수 있다. 최악의 경우, 즉 공격자가 신원 검증 페이지의 안구 응시점 궤적을 시뮬레이션하는데 성공하여, 실제 사람 조작인가 기계 공격인가를 판단하기 어려울 경우, 행위 시퀀스 궤적을 통해 식별할 수도 있고, 신원 검증 페이지에서의 안구 응시점 궤적을 행위 궤적에 결합하여, 거의 모든 기계 공격을 막을 수 있다.
도 5는 본 출원의 제3 실시예에 따른 개략도이다. 도 5에 도시된 바와 같이, 도 3에 도시된 실시예에 기반하여, 사용자에 대해 인터랙션 행위 검증을 수행하는 과정에서, 인터랙션 검증 페이지를 통해 검증 내용 및 제시 정보를 전시한 후, 또한, 하기와 같은 단계를 포함할 수 있고,
501, 상기 인터랙션 검증 페이지에서의 안구 응시점 궤적을 수집한다.
502, 제2 분류 모델을 사용하여, 상기 인터랙션 검증 페이지에서의 안구 응시점 궤적에 기반하여 분류하고, 상기 요청자가 실제 사람 및 기계인 제2 확률값을 출력한다.
503, 상기 제2 확률값에 기반하여 상기 요청자가 실제 사람 또는 기계인지를 결정하고, 중간 결과를 획득한다.
상응하게, 310은 하기의 방식을 통해 구현할 수 있고,
504, 상기 요청자의 조작이 정확한지 여부와 상기 중간 결과에 따라, 최종적으로, 상기 요청자가 실제 사람 또는 기계인지를 결정하고, 신원 검증에 합격 또는 실패한 신원 검증 결과를 출력한다.
구체적으로, 상기 요청자의 조작이 정확하고, 상기 중간 결과가 상기 요청자가 실제 사람일 경우, 최종적으로, 상기 요청자가 실제 사람인 것으로 결정하고, 305을 실행하고, 그렇지 않으면, 상기 요청자의 조작이 정확하지 않은 것, 및 상기 중간 결과가 상기 요청자가 기계인 것 중의 적어도 하나인 경우, 최종적으로, 상기 요청자가 기계인 것으로 결정하고, 306을 실행한다.
본 실시예에서, 사용자에 대해 인터랙션 행위 검증을 수행하는 과정에서, 인터랙션 검증 페이지에서의 안구 응시점 궤적과, 사용자가 검증 내용을 클릭하여 생성한 행위 궤적인 두 가지의 궤적을 수집할 수 있고, 동시에 이 두 가지의 궤적에 기반하여 사용자에 대해 인터랙션 행위 검증을 수행하고, 이 두 가지의 궤적 검증이 모두 합격하였을 경우, 최종적으로, 상기 요청자가 실제 사람인 것으로 결정할 수 있고, 그렇지 않으면, 한가지 유형의 궤적 검증이 실패하였 경우, 최종적으로, 상기 요청자가 기계인 것으로 결정할 수 있고, 인터랙션 행위 검증의 신뢰성을 향상시키고, 또한, 인간-기계의 보안 검증의 신뢰성을 향상시킨다.
선택적으로, 도 5에 도시된 실시예에서, 또한, 상기 인터랙션 검증 페이지에서의 안구 응시점 궤적과 상기 신원 검증 페이지에서의 안구 응시점 궤적이 일치한지 여부를 비교하여, 비교 결과를 획득할 수 있다. 상응하게, 504에서, 구체적으로, 상기 요청자의 조작이 정확한지 여부, 상기 중간 결과, 및 상기 비교 결과에 따라, 신원 검증에 합격 또는 실패한 신원 검증 결과를 출력한다.
동일한 사용자가 다른 페이지에 대한 열람 습관은 동일하거나 비슷하기 때문에, 실시예에서, 인터랙션 검증 페이지에서의 안구 응시점 궤적과 상기 신원 검증 페이지에서의 안구 응시점 궤적이 일치한지 여부를 비교하여, 비교 결과를 획득하고, 동시에, 상기 요청자의 조작이 정확한지 여부, 상기 중간 결과, 및 상기 비교 결과에 따라, 요청자가 실제 사람 또는 기계인지를 결정하고, 또한, 인간-기계의 검증 결과의 정밀도와 신뢰성을 향상시킨다.
선택적으로, 본 실시예의 가능한 구현 방식에 있어서, 상기 요청자의 조작이 정확하고, 상기 중간 결과가 상기 요청자가 실제 사람이며, 상기 비교 결과가 상기 인터랙션 검증 페이지에서의 안구 응시점 궤적과 상기 신원 검증 페이지에서의 안구 응시점 궤적이 일치할 경우, 최종적으로, 상기 요청자가 실제 사람인 것으로 결정하고, 신원 검증에 합격한 신원 검증 결과를 출력한다. 그렇지 않으면, 상기 요청자의 조작이 정확하지 않은 것, 상기 중간 결과가 상기 요청자가 기계인 것, 및 상기 비교 결과가 상기 인터랙션 검증 페이지에서의 안구 응시점 궤적과 상기 신원 검증 페이지에서의 안구 응시점 궤적이 일치하지 않은 것 중의 적어도 하나인 경우, 최종적으로, 상기 요청자가 기계인 것으로 결정하고, 신원 검증에 실패한 신원 검증 결과를 출력한다.
본 실시예에서, 요청자의 조작이 정확하고, 상기 중간 결과가 요청자가 실제 사람이며, 비교 결과가 인터랙션 검증 페이지에서의 안구 응시점 궤적과 신원 검증 페이지에서의 안구 응시점 궤적이 일치할 경우만, 최종적으로 요청자가 실제 사람인 것으로 결정할 수 있고, 상술한 3개의 조건 중의 임의의 하나를 만족하지 않을 경우, 요청자가 기계인 것으로 간주되어, 인간-기계의 검증 난이도를 향상시키고, 인간-기계의 검증 결과의 정밀도와 신뢰성을 향상시킨다.
설명해야 하는 바로는, 전술의 각 방법의 실시예에 대해, 간단히 설명하기 위해, 그것을 모두 일련의 동작 조합으로서 표현하지만, 당업자는, 본 출원은 설명된 동작의 순서에 의해 제한되지 않는 것을 이해할 수 있다. 본 출원에 따라, 일부 단계는 다른 순서를 사용하거나, 또는 동시에 할 수 있다. 그 다음에, 당업자는 명세서에 설명된 실시예가 모두 바람직한 실시예이며, 관련된 동작 및 모듈이 본 출원에 필수적이지 않은 것도 이해할 수 있다.
상술한 실시예에서는, 각 실시예에 대한 설명은 모두 중점이 있어, 어느 실시예로 상세하게 설명되어 있지 않은 부분은 다른 실시예의 관련 설명을 참조할 수 있다.
도 6에 도시된 바와 같이, 도 6은 본 출원의 제4 실시예에 따른 개략도이다. 본 실시예의 인간-기계 검증 장치(600)는, 수신 유닛(601), 수집 유닛(602), 식별 유닛(603), 제1 분류 모델(604), 결정 유닛(605), 및 출력 유닛(606)을 포함할 수 있다. 수신 유닛(601)은, 요청자가 송신한 신원 검증 요청을 수신하는데 사용되고, 상기 신원 검증 요청에는 신원 검증 정보가 포함되고, 수집 유닛(602)은, 신원 검증 페이지에서의 안구 응시점 궤적을 수집하는데 사용되고, 식별 유닛(603)은, 미리 저장된 사용자 신원 정보에 따라, 상기 신원 검증 정보가 정확한지 여부를 식별하는데 사용되고, 제1 분류 모델(604)은, 상기 신원 검증 정보가 정확할 경우, 상기 신원 검증 페이지에서의 안구 응시점 궤적에 기반하여 분류하고, 상기 요청자가 실제 사람 및 기계인 제1 확률값을 출력하는데 사용되고, 결정 유닛(605)은, 상기 제1 확률값에 기반하여 상기 요청자가 실제 사람 또는 기계인지를 결정하는데 사용되고, 출력 유닛(606)은, 상기 요청자가 실제 사람 또는 기계인 것에 기반하여, 신원 검증에 합격 또는 실패한 신원 검증 결과를 출력하는데 사용된다.
설명해야 하는 바로는, 본 실시예의 인간-기계 검증 장치는, 로컬 단말에 있는 애플리케이션일 수 있고, 또는 로컬 단말에 있는 애플리케이션에 설치된 플러그인 또는 소프트웨어 개발 킷(Software DeVelopment Kit, SDK) 등의 기능 유닛일 수 있고, 또는 네트워크측의 서버에 있는 처리 엔진일 수 있고, 본 실시예는 이에 대해 특히 한정하지 않는다.
상기 애플리케이션은 단말에 인스톨된 로컬 프로그램(natiVeAPP)일 수 있고, 단말에서의 브라우저에 하나 웹 프로그램(webAPP)일 수 있고, 본 실시예는 이에 대해 한정하지 않는 것을 이해할 수 있다.
본 실시예에서, 요청자에 대해 신원 검증을 수행할 때, 동시에 요청자에 대해 안구 이동 궤적 검증을 수행하여, 인간-기계의 보안 검증을 구현하고, 요청자가 실제 사람인가 기계 공격인가를 자동적으로 식별하여, 인간-기계의 보안 검증의 신뢰성을 향상시킨다.
또한, 본 출원에서 제공되는 기술 방안을 사용하여, 요청자에 대해 신원 검증을 수행하는 과정에서, 신원 검증 페이지에서의 안구 응시점 궤적을 자동적으로 수집하고, 요청자에 대해 안구 이동 궤적 검증을 수행하여, 사용자가 조작할 필요가 없기 때문에, 사용자가 거의 무감각 또는 미세하게 감지하는 상황에서, 안구 이동 궤적 검증을 완성하여, 실제 사람이 이해하는 난이도를 증가하지 않는 동시에 사용자 체험을 향상시킬 수 있다.
선택적으로, 도 6에 도시된 실시예의 인간-기계 인터랙션 장치(600)에서, 상기 출력 유닛(606)은, 또한, 상기 신원 검증 정보가 정확하지 않을 경우, 신원 검증에 실패한 신원 검증 결과를 출력하는데 사용된다.
선택적으로, 본 실시예의 가능한 구현 방식에 있어서, 상기 수신 유닛(601)은, 구체적으로, 상기 요청자가 상기 신원 검증 페이지에 액세스하는 요청을 수신하고, 상기 요청자가 사용자 이름과 비밀 번호를 입력한 후에 송신한 신원 검증 요청을 수신하는데 사용되고, 상기 신원 검증 정보는 상기 사용자 이름과 비밀 번호를 포함한다. 상응하게, 상기 수집 유닛(602)은, 구체적으로, 상기 요청자가 상기 신원 검증 페이지에 액세스하는 요청을 수신한 것에 응답하여, 상기 신원 검증 페이지에서의 안구 응시점 궤적의 수집을 시작하는데 사용된다.
선택적으로, 본 실시예의 가능한 구현 방식에 있어서, 상기 결정 유닛(605)은, 구체적으로, 상기 제1 확률값에서, 상기 요청자가 실제 사람인 확률값이 상기 요청자가 기계인 확률값보다 클 경우, 상기 요청자가 실제 사람인 것으로 결정하거나, 또는, 상기 제1 확률값에서, 상기 요청자가 기계인 확률이 제1 기설정된 값보다 클 경우, 상기 요청자가 기계인 것으로 결정하거나, 또는, 상기 제1 확률값에서, 상기 요청자가 실제 사람인 확률이 제2 기설정된 값보다 클 경우, 상기 요청자가 실제 사람인 것으로 결정하는데 사용된다.
도 7은 본 출원의 제5 실시예에 따른 개략도이다. 도 7에 도시된 바와 같이, 도 6에 도시된 실시예에 기반하여, 본 실시예의 인간-기계 검증 장치(600)는, 또한, 인터랙션 검증 유닛(701)을 포함할 수 있고, 인터랙션 검증 유닛(701)은, 상기 제1 확률값에서, 상기 요청자가 실제 사람인 확률값이 상기 요청자가 기계인 확률값과 같거나, 또는, 상기 요청자가 기계인 확률값이 제3 기설정된 값보다 크고, 제1 기설정된 값보다 크지 않거나, 또는, 상기 요청자가 실제 사람인 확률값이 제4 기설정된 값보다 크고, 제2 기설정된 값보다 크지 않을 경우, 상기 요청자가 기계인 확률값의 크기에 따라, 인터랙션 검증 페이지를 통해 대응하는 난이도의 검증 내용을 전시하고, 상기 요청자가 조작하도록 제시하는 제시 정보를 전시하고, 상기 인터랙션 검증 페이지에서의 상기 요청자의 행위 궤적을 수집하고, 상기 인터랙션 검증 페이지에서의 상기 요청자의 행위 궤적에 따라, 상기 요청자의 조작이 정확한지 여부를 결정하는데 사용된다. 상응하게, 상기 결정 유닛(605)은, 또한, 상기 요청자의 조작이 정확한지 여부에 따라, 상기 요청자가 실제 사람 또는 기계인지를 결정하는데 사용된다.
선택적으로, 도 6 또는 도 7에 도시된 실시예의 인간-기계 인터랙션 장치(600)에서, 상기 수집 유닛(602)은, 또한, 상기 인터랙션 검증 페이지에서의 안구 응시점 궤적을 수집하는데 사용된다. 또한, 도 7을 참조하면, 본 실시예의 인간-기계 검증 장치(600)는, 또한, 제2 분류 모델(702)을 포함할 수 있고, 제2 분류 모델(702)은, 상기 인터랙션 검증 페이지에서의 안구 응시점 궤적에 기반하여 분류하고, 상기 요청자가 실제 사람 및 기계인 제2 확률값을 출력하는데 사용된다. 상응하게, 당해 실시예에서, 상기 결정 유닛(605)은, 구체적으로, 상기 제2 확률값에 기반하여 상기 요청자가 실제 사람 또는 기계인지를 결정하고, 중간 결과를 획득하고, 상기 요청자의 조작이 정확한지 여부와 상기 중간 결과에 따라, 최종적으로, 상기 요청자가 실제 사람 또는 기계인지를 결정하는데 사용된다.
선택적으로, 또한, 도 7을 참조하면, 본 실시예의 인간-기계 검증 장치(600)는, 또한, 비교 유닛(703)을 포함할 수 있고, 비교 유닛(703)은, 상기 인터랙션 검증 페이지에서의 안구 응시점 궤적과 상기 신원 검증 페이지에서의 안구 응시점 궤적이 일치한지 여부를 비교하여, 비교 결과를 획득하는데 사용된다. 상응하게, 상기 결정 유닛(605)은, 구체적으로, 상기 요청자의 조작이 정확한지 여부, 상기 중간 결과, 및 상기 비교 결과에 따라, 최종적으로, 상기 요청자가 실제 사람 또는 기계인지를 결정하는데 사용된다.
선택적으로, 본 실시예의 가능한 구현 방식에 있어서, 상기 결정 유닛(605)은, 구체적으로, 상기 요청자의 조작이 정확하고, 상기 중간 결과가 상기 요청자가 실제 사람이며, 상기 비교 결과가 상기 인터랙션 검증 페이지에서의 안구 응시점 궤적과 상기 신원 검증 페이지에서의 안구 응시점 궤적이 일치할 경우, 최종적으로, 상기 요청자가 실제 사람인 것으로 결정하고, 상기 요청자의 조작이 정확하지 않은 것, 상기 중간 결과가 상기 요청자가 기계인 것, 및 상기 비교 결과가 상기 인터랙션 검증 페이지에서의 안구 응시점 궤적과 상기 신원 검증 페이지에서의 안구 응시점 궤적이 일치하지 않은 것 중의 적어도 하나인 경우, 최종적으로, 상기 요청자가 기계인 것으로 결정하는데 사용된다.
설명해야 하는 바로는, 도 1 내지 도 5에 대응하는 실시예의 방법은, 상술한 도 6 및 도 7의 실시예에서 제공되는 상술한 실시예의 인간-기계 검증 장치로부터 구현된다. 상세한 설명은, 도 1 내지 도 5에 대응하는 실시예의 관련 내용을 참조할 수 있고, 여기에서는 상세하게 설명하지 않는다.
도 8은 본 출원의 실시예를 구현하기 위한 단말 기기의 개략도이다. 단말 기기는, 임의의 안구 응시점 추적 기능을 구비한 휴대용 컴퓨팅 장치일 수 있고, 도 8의 예시도는 스마트폰이며, 당업자는 유사한 기능을 구비한 기타의 일반적인 노트북 컴퓨터, 태블릿 컴퓨터, 데스크톱 컴퓨터, 스마트 텔레비전도 마찬가지로 본 출원에 적용될 수 있는 것을 알 수 있다. 도 8에 도시된 바와 같이, 당해 단말 기기에는 이어피스, 마이크, 터치 스크린, 적외선 광원, 전면 카메라(적외선 카메라 포함) 및 케이스가 설치된다. 이어피스는 사용자 및 외부세계에 음성을 송신하는데 사용될 수 있고, 또한, 사용자에게 사용자 조작을 제시하기 위한 음성정보를 출력하는데 사용될 수 있고, 마이크는 사용자 및 외부세계의 음성신호를 수신하는데 사용될 수 있고, 터치 가능한 스크린은 사용자와의 인터랙션 정보를 표시하고, 사용자가 입력한 인터랙션 신호를 수신하는데 사용될 수 있고, 적외선 광원은 하나 또는 복수의 적외선 발광 다이오드 또는 적외선 레이저 다이오드일 수 있고, 사용자의 안구를 비출 수 있고, 적외선 카메라가 사용자의 안구 동공 위치를 포착하고, 터치 가능한 스크린에서의 사용자의 초점 위치 (즉, 응시점 위치)를 위치결정할 수 있다. 전면 카메라(적외선 카메라를 포함한다)는 본 출원에 관한 안구 응시점 추적 기능을 구현하는데 사용되는 사진 촬영, 촬영에 사용된다. 적외선 카메라를 통해 획득된 안구 이미지 정보는 사용자의 안구가 응시하는 터치 가능한 화면에서의 구체적인 구역 및 위치를 결정할 수 있다.
본 출원의 실시예에 의하면, 본 출원은 전자 기기 및 컴퓨터 명령이 저장되어 있는 비일시적 컴퓨터 판독 가능 저장 매체를 더 제공한다.
도 9에 도시된 바와 같이, 본 출원의 실시예에 따른 인간-기계 검증 방법을 구현하는 전자 기기의 블록도이다. 전자 기기는 랩톱 컴퓨터, 데스크톱 컴퓨터, 운영 플랫폼, 개인 정보 단말기, 서버, 블레이드 서버, 대형 컴퓨터, 및 다른 적합한 컴퓨터와 같은 다양한 형태의 디지털 컴퓨터를 의미한다. 전자 기기는 개인 디지털 처리, 셀룰러폰, 스마트폰, 웨어러블 기기 및 다른 유사한 컴퓨팅 장치와 같은 다양한 형태의 이동 장치를 의미할 수도 있다. 본문에서 나타낸 부재, 이들의 연결과 관계, 및 이들의 기능은 단지 예시적인 것으로, 본문에서 설명 및/또는 요구된 본 발명의 구현을 한정하지 않는다.
도 9에 도시된 바와 같이, 상기 전자 기기는, 하나 또는 복수의 프로세서(901), 메모리(902), 및 고속 인터페이스 및 저속 인터페이스를 포함하는 각 부재를 연결하기 위한 인터페이스를 포함한다. 각 부재는 상이한 버스를 이용하여 서로 연결되고, 공통 메인보드에 장착될 수 있거나 필요에 따라 다른 방식으로 장착될 수 있다. 프로세서는, 메모리에 저장되거나 메모리에서 외부 입력/출력 장치(예를 들어, 인터페이스에 커플링된 표시 기기)에 GUI의 그래픽 정보를 표시하는 명령을 포함하는 전자 기기 내에서 실행되는 명령을 처리할 수 있다. 다른 실시형태에서, 필요에 따라 다수의 프로세서 및/또는 다수의 버스를 다수의 메모리와 함께 사용할 수 있다. 마찬가지로, 다수의 전자 기기를 연결할 수 있고, 각 기기는 일부 필요한 동작(예를 들어, 서버 어레이, 한 그룹의 블레이드 서버, 또는 다중프로세서 시스템)을 제공한다. 도 9에서는 하나의 프로세서(901)를 예로 한다.
메모리(902)는 본 출원에서 제공된 비일시적 컴퓨터 판독 가능 저장 매체이다. 여기서, 상기 메모리에는 적어도 하나의 프로세서에 의해 실행 가능한 명령이 저장되어, 상기 적어도 하나의 프로세서가 본 출원에서 제공된 인간-기계 검증 방법을 수행하도록 한다. 본 출원의 비일시적 컴퓨터 판독 가능 저장 매체는 컴퓨터 명령을 저장하며, 상기 컴퓨터 명령은 컴퓨터가 본 출원에서 제공된 인간-기계 검증 방법을 수행하도록 한다.
메모리(902)는 비일시적 컴퓨터 판독 가능 저장 매체로서, 본 출원의 실시예에서의 인간-기계 검증 방법에 대응되는 프로그램 명령/모듈(예를 들어, 도 6에 도시된 수신 유닛(601), 수집 유닛(602), 식별 유닛(603), 제1 분류 모델(604), 결정 유닛(605), 및 출력 유닛(606))과 같은 비일시적 소프트웨어 프로그램, 비일시적 컴퓨터 실행 가능 프로그램 및 모듈을 저장하는데 사용될 수 있다. 프로세서(901)는 메모리(902)에 저장되어 있는 비일시적 소프트웨어 프로그램, 명령 및 모듈을 실행함으로써, 서버의 다양한 기능 애플리케이션 및 데이터 처리를 수행하며, 즉 상기 방법의 실시예에서의 인간-기계 검증 방법을 구현한다.
메모리(902)는 프로그램 저장 영역 및 데이터 저장 영역을 포함할 수 있는 바, 여기서 프로그램 저장 영역은 운영 체제, 적어도 하나의 기능에 필요한 애플리케이션 프로그램을 저장할 수 있고; 데이터 저장 영역은 인간-기계 검증 방법에 따른 전자 기기의 사용에 따라 구축된 데이터 등을 저장할 수 있다. 이밖에, 메모리(902)는 고속 랜덤 액세스 메모리를 포함할 수 있고, 적어도 하나의 자기 디스크 저장 소자, 플래시 소자, 또는 다른 비일시적 솔리드 스테이트 저장 소자와 같은 비일시적 메모리를 더 포함할 수 있다. 일부 실시예에서, 메모리(902)는 프로세서(901)에 대해 원격으로 설치되는 메모리를 선택적으로 포함할 수 있고, 이러한 원격 메모리는 네트워크를 통해 인간-기계 검증 방법을 구현하는 전자 기기에 연결될 수 있다. 상기 네트워크의 구현예는 인터넷, 기업 인트라넷, 근거리 통신망, 이동 통신망, 및 이들의 조합을 포함하지만 이에 한정되지 않는다.
인간-기계 검증 방법을 구현하는 전자 기기는, 입력 장치(903) 및 출력 장치(904)를 더 포함할 수 있다. 프로세서(901), 메모리(902), 입력 장치(903) 및 출력 장치(904)는 버스 또는 다른 방식을 통해 연결될 수 있고, 도 9에서는 버스를 통한 연결을 예로 한다.
입력 장치(903)는 입력된 숫자 또는 캐릭터 정보를 수신할 수 있고, 인간-기계 검증 방법을 구현하는 전자 기기의 사용자 설정 및 기능 제어와 관련된 키 신호 입력을 생성할 수 있으며, 예를 들어 터치 스크린, 키패드, 마우스, 트랙 패드, 터치 패드, 포인팅 스틱, 하나 또는 다수의 마우스 버튼, 트랙볼, 조이스틱 등 입력 장치일 수 있다. 출력 장치(904)는 디스플레이 기기, 보조 조명 장치(예를 들어, LED) 및 촉각 피드백 장치(예를 들어, 진동 모터) 등을 포함할 수 있다. 상기 디스플레이 기기는 LCD(액정 디스플레이 장치), LED(발광 다이오드) 디스플레이 장치 및 플라즈마 디스플레이 장치를 포함할 수 있으나 이에 한정되지 않는다. 일부 실시형태에서, 디스플레이 기기는 터치 스크린일 수 있다.
여기서 설명된 시스템 및 기술의 다양한 실시형태는 디지털 전자 회로 시스템, 집적 회로 시스템, 전용 ASIC(전용 집적 회로), 컴퓨터 하드웨어, 펌웨어, 소프트웨어, 및/또는 이들의 조합에서 구현될 수 있다. 이러한 다양한 실시형태는 하나 또는 다수의 컴퓨터 프로그램에서의 구현을 포함할 수 있고, 상기 하나 또는 다수의 컴퓨터 프로그램은 적어도 하나의 프로그램 가능 프로세서를 포함하는 프로그램 가능 시스템에서 실행 및/또는 해석될 수 있으며, 상기 프로그램 가능 프로세서는 전용 또는 범용 프로그램 가능 프로세서일 수 있고, 저장 시스템, 적어도 하나의 입력 장치, 및 적어도 하나의 출력 장치로부터 데이터 및 명령을 수신할 수 있으며, 데이터 및 명령을 상기 저장 시스템, 상기 적어도 하나의 입력 장치, 및 상기 적어도 하나의 출력 장치에 전송할 수 있다.
이러한 컴퓨팅 프로그램(프로그램, 소프트웨어, 소프트웨어 애플리케이션, 또는 코드라고도 함)은 프로그램 가능 프로세서의 기계 명령을 포함하고, 하이레벨 프로세스 및/또는 객체에 대한 프로그래밍 언어, 및/또는 어셈블리/기계 언어를 이용하여 이러한 컴퓨팅 프로그램을 실행할 수 있다. 본문에서 사용된 바와 같이, 용어 "기계 판독 가능한 매체” 및 "컴퓨터 판독 가능한 매체”는 기계 명령 및/또는 데이터를 프로그램 가능 프로세서에 제공하기 위한 임의의 컴퓨터 프로그램 제품, 기기, 및/또는 장치(예를 들어, 자기 디스크, 광 디스크, 메모리, 프로그램 가능 로직 장치(PLD))를 의미하고, 기계 판독 가능한 신호인 기계 명령을 수신하는 기계 판독 가능한 매체를 포함한다. 용어 "기계 판독 가능한 신호”는 기계 명령 및/또는 데이터를 프로그램 가능 프로세서에 제공하기 위한 임의의 신호를 의미한다.
사용자와의 인터랙션을 제공하기 위하여, 컴퓨터에서 여기서 설명된 시스템 및 기술을 실시할 수 있고, 상기 컴퓨터는 사용자에게 정보를 표시하기 위한 표시 장치(예를 들어, CRT(음극선관) 또는 LCD(액정 표시 장치) 모니터); 및 키보드 및 지향 장치(예를 들어, 마우스 또는 트랙 볼)를 구비하며, 사용자는 상기 키보드 및 상기 지향 장치를 통해 컴퓨터에 입력을 제공한다. 다른 타입의 장치는 또한 사용자와의 인터랙션을 제공할 수 있는데, 예를 들어, 사용자에게 제공된 피드백은 임의의 형태의 감지 피드백(예를 들어, 시각 피드백, 청각 피드백, 또는 촉각 피드백)일 수 있고; 임의의 형태(소리 입력, 음성 입력, 또는 촉각 입력)로 사용자로부터의 입력을 수신할 수 있다.
여기서 설명된 시스템 및 기술은 백엔드 부재를 포함하는 컴퓨팅 시스템(예를 들어, 데이터 서버로 사용됨), 또는 미들웨어 부재를 포함하는 컴퓨팅 시스템(예를 들어, 애플리케이션 서버), 또는 프론트 엔드 부재를 포함하는 컴퓨팅 시스템(예를 들어, 그래픽 사용자 인터페이스 또는 네트워크 브라우저를 구비하는 사용자 컴퓨터인 바, 사용자는 상기 그래픽 사용자 인터페이스 또는 상기 네트워크 브라우저를 통해 여기서 설명된 시스템 및 기술의 실시형태와 인터랙션할 수 있음), 또는 이러한 백엔드 부재, 미들웨어 부재, 또는 프론트 엔드 부재의 임의의 조합을 포함하는 컴퓨팅 시스템에서 구현될 수 있다. 임의의 형태 또는 매체의 디지털 데이터 통신(예를 들어, 통신 네트워크)을 통해 시스템의 부재를 서로 연결시킬 수 있다. 통신 네트워크의 예는, 근거리 통신망(LAN), 광역망(WAN), 인터넷을 포함한다.
컴퓨터 시스템은 클라이언트 및 서버를 포함할 수 있다. 클라이언트 및 서버는 일반적으로 서로 멀리 떨어져 있고 일반적으로 통신 네트워크를 통해 서로 인터랙션한다. 대응되는 컴퓨터에서 실행되고 또한 서로 클라이언트-서버 관계를 가지는 컴퓨터 프로그램을 통해 클라이언트 및 서버의 관계를 생성한다.
본 출원의 실시예의 기술 방안에 따르면, 요청자가 송신한 신원 검증 요청을 수신하고, 신원 검증 페이지에서의 안구 응시점 궤적을 수집하고, 먼저, 미리 저장된 사용자 신원 정보에 기반하여 신원 검증 요청 내의 신원 검증 정보가 정확한지 여부를 식별하고, 상기 신원 검증 정보가 정확할 경우, 그 다음에, 제1 분류 모델을 사용하여 상기 신원 검증 페이지에서의 안구 응시점 궤적에 기반하여 분류하고, 상기 요청자가 실제 사람 및 기계인 제1 확률값을 출력하고, 또한, 상기 제1 확률값에 기반하여 상기 요청자가 실제 사람 또는 기계인지를 결정하고, 신원 검증에 합격 또는 실패한 신원 검증 결과를 출력한다. 본 출원은 요청자에 대해 신원 검증을 수행할 때, 동시에 요청자에 대해 안구 이동 궤적 검증을 수행하여, 인간-기계의 보안 검증을 구현하고, 요청자가 실제 사람인가 기계 공격인가를 자동적으로 식별하여, 인간-기계의 보안 검증의 신뢰성을 향상시킨다.
또한, 본 출원에서 제공되는 기술 방안을 사용하여, 요청자에 대해 신원 검증을 수행하는 과정에서, 신원 검증 페이지에서의 안구 응시점 궤적을 자동적으로 수집하고, 요청자에 대해 안구 이동 궤적 검증을 수행하여, 사용자가 조작할 필요가 없기 때문에, 사용자가 거의 무감각 또는 미세하게 감지하는 상황에서, 안구 이동 궤적 검증을 완성하여, 실제 사람이 이해하는 난이도를 증가하지 않는 동시에 사용자 체험을 향상시킬 수 있다.
위에서 설명된 다양한 형태의 프로세스를 사용하여 단계를 재배열, 추가 또는 삭제할 수 있음을 이해해야 한다. 예를 들어, 본 출원에 기재된 각 단계는 동시에, 순차적으로, 또는 상이한 순서로 수행될 수 있으며, 본 출원에 개시된 기술적 해결수단이 이루고자 하는 결과를 구현할 수 있는 한, 본문은 여기서 한정되지 않는다.
상기 구체적인 실시형태는 본 출원의 보호 범위를 한정하지 않는다. 본 기술분야의 통상의 기술자는, 설계 요구 및 다른 요소에 따라 다양한 수정, 조합, 서브 조합 및 대체를 진행할 수 있음을 이해해야 한다. 본 출원의 정신 및 원칙 내에서 이루어진 임의의 수정, 등가 교체 및 개선 등은 모두 본 출원의 보호 범위 내에 포함되어야 한다.

Claims (18)

  1. 인간-기계 검증 방법(CAPTCHA method)에 있어서,
    요청자가 송신한 신원 검증 요청을 수신하고, 신원 검증 페이지에서의 안구 응시점 궤적(eyeball gaze point trajectory)을 수집하는 단계 - 상기 신원 검증 요청에는 신원 검증 정보가 포함됨 -;
    미리 저장된 사용자 신원 정보에 기반하여, 상기 신원 검증 정보가 정확한지 여부를 식별하는 단계;
    상기 신원 검증 정보가 정확할 경우, 제1 분류 모델을 사용하여, 상기 신원 검증 페이지에서의 안구 응시점 궤적에 기반하여 분류하고, 상기 요청자가 실제 사람 및 기계인 제1 확률값을 출력하는 단계; 및
    상기 제1 확률값에 기반하여 상기 요청자가 실제 사람 또는 기계인지를 결정하고, 신원 검증에 합격 또는 실패한 신원 검증 결과를 출력하는 단계;를 포함하는,
    인간-기계 검증 방법.
  2. 제1항에 있어서,
    상기 신원 검증 정보가 정확하지 않을 경우, 신원 검증에 실패한 신원 검증 결과를 출력하는 단계를 더 포함하는,
    인간-기계 검증 방법.
  3. 제1항에 있어서,
    상기 요청자가 송신한 신원 검증 요청을 수신하고, 신원 검증 페이지에서의 안구 응시점 궤적을 수집하는 단계는,
    상기 요청자가 상기 신원 검증 페이지에 액세스하는 요청을 수신한 것에 응답하여, 상기 신원 검증 페이지에서의 안구 응시점 궤적의 수집을 시작하는 단계; 및
    상기 요청자가 사용자 이름과 비밀 번호를 입력한 후에 송신한 신원 검증 요청을 수신하는 단계 - 상기 신원 검증 정보는 상기 사용자 이름과 비밀 번호를 포함함 -;를 포함하는,
    인간-기계 검증 방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 제1 확률값에 기반하여 상기 요청자가 실제 사람 또는 기계인지를 결정하고, 신원 검증에 합격 또는 실패한 신원 검증 결과를 출력하는 단계는,
    상기 제1 확률값에서, 상기 요청자가 실제 사람인 확률값이 상기 요청자가 기계인 확률값보다 클 경우, 상기 요청자가 실제 사람인 것으로 결정하고, 신원 검증에 합격한 신원 검증 결과를 출력하는 단계;
    또는,
    상기 제1 확률값에서, 상기 요청자가 기계인 확률이 제1 기설정된 값보다 클 경우, 상기 요청자가 기계인 것으로 결정하고, 신원 검증에 실패한 신원 검증 결과를 출력하는 단계;
    또는,
    상기 제1 확률값에서, 상기 요청자가 실제 사람인 확률이 제2 기설정된 값보다 클 경우, 상기 요청자가 실제 사람인 것으로 결정하고, 신원 검증에 합격한 신원 검증 결과를 출력하는 단계를 포함하는,
    인간-기계 검증 방법.
  5. 제4항에 있어서,
    상기 제1 확률값에 기반하여 상기 요청자가 실제 사람 또는 기계인지를 결정하고, 신원 검증에 합격 또는 실패한 신원 검증 결과를 출력하는 단계는,
    상기 제1 확률값에서, 상기 요청자가 실제 사람인 확률값이 상기 요청자가 기계인 확률값과 같거나, 또는, 상기 요청자가 기계인 확률값이 제3 기설정된 값보다 크고, 제1 기설정된 값보다 크지 않거나, 또는, 상기 요청자가 실제 사람인 확률값이 제4 기설정된 값보다 크고, 제2 기설정된 값보다 크지 않을 경우, 상기 요청자가 기계인 확률값의 크기에 따라, 인터랙션 검증 페이지를 통해 대응하는 난이도의 검증 내용을 전시하고, 상기 요청자가 조작하도록 제시하는 제시 정보를 전시하는 단계;
    상기 인터랙션 검증 페이지에서의 상기 요청자의 행위 궤적을 수집하는 단계;
    상기 인터랙션 검증 페이지에서의 상기 요청자의 행위 궤적에 기반하여, 상기 요청자의 조작이 정확한지 여부를 결정하는 단계; 및
    상기 요청자의 조작이 정확한지 여부에 따라, 신원 검증에 합격 또는 실패한 신원 검증 결과를 출력하는 단계;를 더 포함하는,
    인간-기계 검증 방법.
  6. 제5항에 있어서,
    상기 인터랙션 검증 페이지를 통해 대응하는 난이도의 검증 내용을 전시하고, 상기 요청자가 조작하도록 제시하는 제시 정보를 전시한 단계의 후에,
    상기 인터랙션 검증 페이지에서의 안구 응시점 궤적을 수집하는 단계;
    제2 분류 모델을 사용하여, 상기 인터랙션 검증 페이지에서의 안구 응시점 궤적에 기반하여 분류하고, 상기 요청자가 실제 사람 및 기계인 제2 확률값을 출력하는 단계; 및
    상기 제2 확률값에 기반하여 상기 요청자가 실제 사람 또는 기계인지를 결정하고, 중간 결과를 획득하는 단계;를 더 포함하되,
    상기 요청자의 조작이 정확한지 여부에 따라, 신원 검증에 합격 또는 실패한 신원 검증 결과를 출력하는 단계는,
    상기 요청자의 조작이 정확한지 여부와 상기 중간 결과에 따라, 신원 검증에 합격 또는 실패한 신원 검증 결과를 출력하는 단계를 포함하는,
    인간-기계 검증 방법.
  7. 제6항에 있어서,
    상기 인터랙션 검증 페이지에서의 안구 응시점 궤적과 상기 신원 검증 페이지에서의 안구 응시점 궤적이 일치한지 여부를 비교하여, 비교 결과를 획득하는 단계를 더 포함하고,
    상기 요청자의 조작이 정확한지 여부와 상기 중간 결과에 따라, 신원 검증에 합격 또는 실패한 신원 검증 결과를 출력하는 단계는,
    상기 요청자의 조작이 정확한지 여부, 상기 중간 결과, 및 상기 비교 결과에 따라, 신원 검증에 합격 또는 실패한 신원 검증 결과를 출력하는 단계를 포함하는,
    인간-기계 검증 방법.
  8. 제7항에 있어서,
    상기 요청자의 조작이 정확한지 여부, 상기 중간 결과, 및 상기 비교 결과에 따라, 신원 검증에 합격 또는 실패한 신원 검증 결과를 출력하는 단계는,
    상기 요청자의 조작이 정확하고, 상기 중간 결과가 상기 요청자가 실제 사람이며, 상기 비교 결과가 상기 인터랙션 검증 페이지에서의 안구 응시점 궤적과 상기 신원 검증 페이지에서의 안구 응시점 궤적이 일치할 경우, 상기 요청자가 실제 사람인 것으로 결정하고, 신원 검증에 합격한 신원 검증 결과를 출력하는 단계; 및
    상기 요청자의 조작이 정확하지 않은 것, 상기 중간 결과가 상기 요청자가 기계인 것, 및 상기 비교 결과가 상기 인터랙션 검증 페이지에서의 안구 응시점 궤적과 상기 신원 검증 페이지에서의 안구 응시점 궤적이 일치하지 않은 것 중의 적어도 하나인 경우, 상기 요청자가 기계인 것으로 결정하고, 신원 검증에 실패한 신원 검증 결과를 출력하는 단계를 포함하는,
    인간-기계 검증 방법.
  9. 인간-기계 검증 장치(CAPTCHA device)에 있어서,
    요청자가 송신한 신원 검증 요청을 수신하기 위한 수신 유닛 - 상기 신원 검증 요청에는 신원 검증 정보가 포함됨 -;
    신원 검증 페이지에서의 안구 응시점 궤적을 수집하기 위한 수집 유닛;
    미리 저장된 사용자 신원 정보에 기반하여, 상기 신원 검증 정보가 정확한지 여부를 식별하기 위한 식별 유닛;
    상기 신원 검증 정보가 정확할 경우, 상기 신원 검증 페이지에서의 안구 응시점 궤적에 기반하여 분류하고, 상기 요청자가 실제 사람 및 기계인 제1 확률값을 출력하는 제1 분류 모델;
    상기 제1 확률값에 기반하여 상기 요청자가 실제 사람 또는 기계인지를 결정하기 위한 결정 유닛; 및
    상기 요청자가 실제 사람 또는 기계인 것에 기반하여, 신원 검증에 합격 또는 실패한 신원 검증 결과를 출력하기 위한 출력 유닛;을 포함하는,
    인간-기계 검증 장치.
  10. 제9항에 있어서,
    상기 출력 유닛은 또한, 상기 신원 검증 정보가 정확하지 않을 경우, 신원 검증에 실패한 신원 검증 결과를 출력하는데 사용되는,
    인간-기계 검증 장치.
  11. 제9항에 있어서,
    상기 수신 유닛은 구체적으로, 상기 요청자가 상기 신원 검증 페이지에 액세스하는 요청을 수신하고, 상기 요청자가 사용자 이름과 비밀 번호를 입력한 후에 송신한 신원 검증 요청을 수신하는데 사용되고, 상기 신원 검증 정보는 상기 사용자 이름과 비밀 번호를 포함하고,
    상기 수집 유닛은 구체적으로, 상기 요청자가 상기 신원 검증 페이지에 액세스하는 요청을 수신한 것에 응답하여, 상기 신원 검증 페이지에서의 안구 응시점 궤적의 수집을 시작하는데 사용되는,
    인간-기계 검증 장치.
  12. 제9항 내지 제11항 중 어느 한 항에 있어서,
    상기 결정 유닛은 구체적으로,
    상기 제1 확률값에서, 상기 요청자가 실제 사람인 확률값이 상기 요청자가 기계인 확률값보다 클 경우, 상기 요청자가 실제 사람인 것으로 결정하거나, 또는,
    상기 제1 확률값에서, 상기 요청자가 기계인 확률이 제1 기설정된 값보다 클 경우, 상기 요청자가 기계인 것으로 결정하거나, 또는,
    상기 제1 확률값에서, 상기 요청자가 실제 사람인 확률이 제2 기설정된 값보다 클 경우, 상기 요청자가 실제 사람인 것으로 결정하는데 사용되는,
    인간-기계 검증 장치.
  13. 제12항에 있어서,
    상기 장치는, 인터랙션 검증 유닛을 더 포함하고,
    상기 인터랙션 검증 유닛은, 상기 제1 확률값에서, 상기 요청자가 실제 사람인 확률값이 상기 요청자가 기계인 확률값과 같거나, 또는, 상기 요청자가 기계인 확률값이 제3 기설정된 값보다 크고, 제1 기설정된 값보다 크지 않거나, 또는, 상기 요청자가 실제 사람인 확률값이 제4 기설정된 값보다 크고, 제2 기설정된 값보다 크지 않을 경우, 상기 요청자가 기계인 확률값의 크기에 따라, 인터랙션 검증 페이지를 통해 대응하는 난이도의 검증 내용을 전시하고, 상기 요청자가 조작하도록 제시하는 제시 정보를 전시하고, 상기 인터랙션 검증 페이지에서의 상기 요청자의 행위 궤적을 수집하고, 상기 인터랙션 검증 페이지에서의 상기 요청자의 행위 궤적에 기반하여, 상기 요청자의 조작이 정확한지 여부를 결정하는데 사용되고,
    상기 결정 유닛은 또한, 상기 요청자의 조작이 정확한지 여부에 따라, 상기 요청자가 실제 사람 또는 기계인지를 결정하는데 사용되는,
    인간-기계 검증 장치.
  14. 제13항에 있어서,
    상기 수집 유닛은 또한, 상기 인터랙션 검증 페이지에서의 안구 응시점 궤적을 수집하는데 사용되고,
    상기 장치는, 제2 분류 모델을 더 포함하고,
    상기 제2 분류 모델은, 상기 인터랙션 검증 페이지에서의 안구 응시점 궤적에 기반하여 분류하고, 상기 요청자가 실제 사람 및 기계인 제2 확률값을 출력하는데 사용되고,
    상기 결정 유닛은 구체적으로, 상기 제2 확률값에 기반하여 상기 요청자가 실제 사람 또는 기계인지를 결정하고, 중간 결과를 획득하고, 상기 요청자의 조작이 정확한지 여부와 상기 중간 결과에 따라, 최종적으로, 상기 요청자가 실제 사람 또는 기계인지를 결정하는데 사용되는,
    인간-기계 검증 장치.
  15. 제14항에 있어서,
    상기 장치는, 비교 유닛을 더 포함하고,
    상기 비교 유닛은, 상기 인터랙션 검증 페이지에서의 안구 응시점 궤적과 상기 신원 검증 페이지에서의 안구 응시점 궤적이 일치한지 여부를 비교하여, 비교 결과를 획득하는데 사용되고,
    상기 결정 유닛은 구체적으로, 상기 요청자의 조작이 정확한지 여부, 상기 중간 결과, 및 상기 비교 결과에 따라, 최종적으로, 상기 요청자가 실제 사람 또는 기계인지를 결정하는데 사용되는,
    인간-기계 검증 장치.
  16. 제15항에 있어서,
    상기 결정 유닛은 구체적으로,
    상기 요청자의 조작이 정확하고, 상기 중간 결과가 상기 요청자가 실제 사람이며, 상기 비교 결과가 상기 인터랙션 검증 페이지에서의 안구 응시점 궤적과 상기 신원 검증 페이지에서의 안구 응시점 궤적이 일치할 경우, 최종적으로, 상기 요청자가 실제 사람인 것으로 결정하고,
    상기 요청자의 조작이 정확하지 않은 것, 상기 중간 결과가 상기 요청자가 기계인 것, 및 상기 비교 결과가 상기 인터랙션 검증 페이지에서의 안구 응시점 궤적과 상기 신원 검증 페이지에서의 안구 응시점 궤적이 일치하지 않은 것 중의 적어도 하나인 경우, 최종적으로, 상기 요청자가 기계인 것으로 결정하는데 사용되는,
    인간-기계 검증 장치.
  17. 전자 기기에 있어서,
    적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서에 통신 연결되는 메모리;를 포함하고,
    상기 메모리에는 상기 적어도 하나의 프로세서에 의해 수행 가능한 명령이 저장되어 있고, 상기 명령이 상기 적어도 하나의 프로세서에 의해 수행되어, 상기 적어도 하나의 프로세서에 의해 제1항 내지 제8항 중 어느 한 항의 방법이 수행되도록 하는,
    전자 기기.
  18. 컴퓨터 명령이 저장되어 있는 비일시적 컴퓨터 판독 가능 기록 매체에 있어서,
    상기 컴퓨터 명령은 상기 컴퓨터가 제1항 내지 제8항 중 어느 한 항의 방법을 수행하도록 하는,
    비일시적 컴퓨터 판독 가능 기록 매체.
KR1020227027380A 2020-06-28 2020-11-24 인간-기계 검증 방법, 장치, 기기 및 기록 매체 KR20220125320A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010600857.2 2020-06-28
CN202010600857.2A CN111881431B (zh) 2020-06-28 2020-06-28 人机验证方法、装置、设备及存储介质
PCT/CN2020/131071 WO2022000959A1 (zh) 2020-06-28 2020-11-24 人机验证方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
KR20220125320A true KR20220125320A (ko) 2022-09-14

Family

ID=73157166

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227027380A KR20220125320A (ko) 2020-06-28 2020-11-24 인간-기계 검증 방법, 장치, 기기 및 기록 매체

Country Status (6)

Country Link
US (1) US11989272B2 (ko)
EP (1) EP4092549A4 (ko)
JP (1) JP7415297B2 (ko)
KR (1) KR20220125320A (ko)
CN (1) CN111881431B (ko)
WO (1) WO2022000959A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111881431B (zh) 2020-06-28 2023-08-22 百度在线网络技术(北京)有限公司 人机验证方法、装置、设备及存储介质
US20220342963A1 (en) * 2021-04-22 2022-10-27 Dell Products L.P. Verifying a user of an information handling system
CN113486847A (zh) * 2021-07-27 2021-10-08 中国银行股份有限公司 基于眼球追踪的活体检测方法及装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7430306B1 (en) * 2005-03-10 2008-09-30 Sun Microsystems, Inc. Methods and apparatus to verify identity using biomorphic information
US7986816B1 (en) * 2006-09-27 2011-07-26 University Of Alaska Methods and systems for multiple factor authentication using gaze tracking and iris scanning
US9692732B2 (en) 2011-11-29 2017-06-27 Amazon Technologies, Inc. Network connection automation
US8892697B2 (en) * 2012-07-24 2014-11-18 Dhana Systems Corp. System and digital token for personal identity verification
CN103065077A (zh) * 2013-01-06 2013-04-24 于朔 一种真人用户验证方法及装置
CN104239758B (zh) 2013-06-13 2018-04-27 阿里巴巴集团控股有限公司 一种人机识别方法及相应的人机识别系统
US9465800B2 (en) * 2013-10-01 2016-10-11 Trunomi Ltd. Systems and methods for sharing verified identity documents
CN104579658B (zh) * 2013-10-15 2019-07-05 深圳市腾讯计算机系统有限公司 一种身份验证方法和装置
US9111181B2 (en) * 2013-12-10 2015-08-18 International Business Machines Corporation Detecting and flagging likely confidential content in photographs to prevent automated dissemination
TWI520007B (zh) * 2014-05-30 2016-02-01 由田新技股份有限公司 眼控密碼輸入設備、方法、電腦可讀取紀錄媒體及電腦程式產品
CN114077726A (zh) * 2015-04-16 2022-02-22 托比股份公司 用于对用户进行认证的系统、方法和机器可读介质
US10678897B2 (en) 2015-04-16 2020-06-09 Tobii Ab Identification, authentication, and/or guiding of a user using gaze information
JP2016224510A (ja) 2015-05-27 2016-12-28 株式会社リコー 情報処理装置、及びコンピュータプログラム
CN106411812B (zh) * 2015-07-27 2019-10-08 阿里巴巴集团控股有限公司 用户身份的验证方法、系统和验证服务器
CN105426827B (zh) * 2015-11-09 2019-03-08 北京市商汤科技开发有限公司 活体验证方法、装置和系统
CN107622188A (zh) * 2016-07-15 2018-01-23 阿里巴巴集团控股有限公司 基于生物特征的验证方法、装置、系统和设备
CN106899567B (zh) 2016-08-24 2019-12-13 阿里巴巴集团控股有限公司 用户核身方法、装置及系统
WO2018125563A1 (en) * 2016-12-30 2018-07-05 Tobii Ab Identification, authentication, and/or guiding of a user using gaze information
US10747859B2 (en) * 2017-01-06 2020-08-18 International Business Machines Corporation System, method and computer program product for stateful instruction-based dynamic man-machine interactions for humanness validation
CN107158707A (zh) * 2017-04-27 2017-09-15 浙江大学 一种针对MMORPGs游戏的异常检测方法及装置
CN206807609U (zh) * 2017-06-09 2017-12-26 深圳市迪威泰实业有限公司 一种usb双目活体检测摄像机
CN108900700A (zh) * 2018-06-04 2018-11-27 北京大学 基于人脸识别和视线定位的双重验证的认证方法及系统
CN111259369B (zh) * 2018-12-03 2024-04-12 北京京东尚科信息技术有限公司 一种人机身份验证方法和系统
CN109815665A (zh) * 2018-12-25 2019-05-28 深圳供电局有限公司 身份认证方法及系统、电子设备、计算机可读存储介质
CN110765434A (zh) * 2019-10-23 2020-02-07 上海商汤智能科技有限公司 身份验证方法、装置、电子设备和存储介质
CN111324878A (zh) * 2020-02-05 2020-06-23 重庆特斯联智慧科技股份有限公司 一种基于人脸识别的身份验证方法、装置、存储介质及终端
CN111881431B (zh) * 2020-06-28 2023-08-22 百度在线网络技术(北京)有限公司 人机验证方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN111881431B (zh) 2023-08-22
JP2023513161A (ja) 2023-03-30
WO2022000959A1 (zh) 2022-01-06
CN111881431A (zh) 2020-11-03
US20220350870A1 (en) 2022-11-03
EP4092549A4 (en) 2023-09-13
EP4092549A1 (en) 2022-11-23
JP7415297B2 (ja) 2024-01-17
US11989272B2 (en) 2024-05-21

Similar Documents

Publication Publication Date Title
Katsini et al. The role of eye gaze in security and privacy applications: Survey and future HCI research directions
KR20220125320A (ko) 인간-기계 검증 방법, 장치, 기기 및 기록 매체
US10387645B2 (en) Method for recognizing if a user of an electronic terminal is a human or a robot
CN111966223B (zh) 非感知的mr眼镜人机识别方法、系统、设备及存储介质
Guerar et al. Gotta CAPTCHA’Em all: a survey of 20 Years of the human-or-computer Dilemma
US11361068B2 (en) Securing passwords by using dummy characters
US10402089B2 (en) Universal keyboard
US11720742B2 (en) Detecting webpages that share malicious content
US11675928B2 (en) Electronic device for obfuscating and decoding data and method for controlling same
KR102513334B1 (ko) 픽처 검증 방법, 장치, 전자기기, 컴퓨터 판독 가능 기록 매체 및 컴퓨터 프로그램
CN112487973B (zh) 用户图像识别模型的更新方法和装置
US20170104740A1 (en) Mobile-optimized captcha system based on multi-modal gesture challenge and mobile orientation
KR20220116491A (ko) 눈 추적을 이용한 스푸핑 차단 방법, 시스템 및 매체
Dinh et al. Recent advances of Captcha security analysis: a short literature review
US20170161479A1 (en) Biometric Authentication, and Near-Eye Wearable Device
Jeong et al. Examining the current status and emerging trends in continuous authentication technologies through citation network analysis
US11599612B2 (en) Method, apparatus and system for authenticating a user based on eye data and/or facial data
CN113313048B (zh) 脸部表情识别方法和装置
De Marsico et al. FATCHA: biometrics lends tools for CAPTCHAs
CN114547581A (zh) 提供验证码系统的方法和设备
US20120023549A1 (en) CAPTCHA AND reCAPTCHA WITH SINOGRAPHS
US11514082B1 (en) Dynamic content selection
Lee et al. VRKeyLogger: Virtual keystroke inference attack via eavesdropping controller usage pattern in WebVR
Hinbarji Behavioural biometric identification based on human computer interaction
Abulibdeh Skimming Smartphone PINs Under Restrictive Conditions

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal