KR20160040230A - Rgb―nir 카메라 쌍을 사용하는 특징 식별 - Google Patents

Rgb―nir 카메라 쌍을 사용하는 특징 식별 Download PDF

Info

Publication number
KR20160040230A
KR20160040230A KR1020167004708A KR20167004708A KR20160040230A KR 20160040230 A KR20160040230 A KR 20160040230A KR 1020167004708 A KR1020167004708 A KR 1020167004708A KR 20167004708 A KR20167004708 A KR 20167004708A KR 20160040230 A KR20160040230 A KR 20160040230A
Authority
KR
South Korea
Prior art keywords
hand
determined
image data
captured
values
Prior art date
Application number
KR1020167004708A
Other languages
English (en)
Inventor
앤 엠. 첸
쉬지아 팬
Original Assignee
퀄컴 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀄컴 인코포레이티드 filed Critical 퀄컴 인코포레이티드
Publication of KR20160040230A publication Critical patent/KR20160040230A/ko

Links

Images

Classifications

    • G06K9/4652
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • G06K9/00006
    • G06K9/00375
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

사람의 핸드의 RGB 이미지를 캡처하는 단계, 핸드의 NIR(near infrared) 이미지를 캡처하는 단계, 및 캡처된 RGB 및 NIR 이미지들에 기초하여 핸드의 기하학적 특징들을 결정하는 단계를 포함하는 방법을 비롯하여, 시스템들, 장치, 디바이스들, 방법들, 컴퓨터 프로그램 매체들 및 물건들 및 다른 구현들이 개시된다. 일부 실시예들에서, 기하학적 특징들을 결정하는 것은, 예를 들면, 핸드에 대한 추출된 이미지 데이터에서 제 1 쌍의 2 개의 핑거들 사이의 각도 및/또는 핸드에 대한 추출된 이미지 데이터에서 제 2 쌍의 핑거들에 대한 상대적인 거리 또는 길이 중 하나 이상과 같이, 핸드에 대한 상대적인 공간적 특징들을 나타내는 하나 이상의 값들을 핸드에 대한 추출된 이미지 데이터로부터 결정하는 것을 포함할 수 있다. 일부 실시예들에서, 상기 방법은 핸드의 결정된 기하학적 특징들에 기초하여 사람의 아이덴티티를 결정하는 것을 더 포함할 수 있다.

Description

RGB―NIR 카메라 쌍을 사용하는 특징 식별{FEATURE IDENTIFICATION USING AN RGB―NIR CAMERA PAIR}
[0001] 비인가된 액세스로부터 컴퓨팅 디바이스들(예를 들면, 모바일 디바이스들로서 핸드헬드 디바이스들)을 보호하기 위한 해결책들은 사용자가 4-넘버 핀을 입력하거나 스와이프 패턴을 수행하도록 유도하는 것을 포함한다. 이러한 해결책들은 약간의 취약성을 갖는데, 왜냐하면 그 해결책들이 디바이스를 액세스하기 위한 사용자의 인가를 결정하기 위해 생체 데이터를 사용하지 않기 때문이다. 다른 해결책에서, 디바이스에는 핑거프린트 판독기가 장착되고, 액세스하려고 시도하는 사용자의 핑거프린트(들)가 미리 결정된 핑거프린트들의 세트(들)와 일치한다고 검증할 때 액세스를 허용할 수 있다. 그러나, 이러한 접근법은 부가적인 고가의 하드웨어를 요구하고, 디바이스 상의 이용 가능한 공간 중 비교적 큰 부분을 차지하고, 계속 진행중인 사용-기반 마모(use-based wear and tear)에 영향을 받기 쉽다.
[0002] 일부 변형예들에서, 방법이 개시된다. 상기 방법은 사람의 핸드의 RGB 이미지를 캡처하는 단계, 핸드의 NIR(near infrared) 이미지를 캡처하는 단계, 및 캡처된 RGB 및 NIR 이미지들에 기초하여 핸드의 기하학적 특징들을 결정하는 단계를 포함한다.
[0003] 상기 방법의 실시예들은 다음의 특징들 중 하나 이상을 비롯하여 본 개시물에 설명된 특징들 중 적어도 일부를 포함할 수 있다.
[0004] 상기 방법은 캡처된 RGB 이미지와 캡처된 NIR 이미지를 정렬하는 단계를 더 포함할 수 있다.
[0005] 핸드의 기하학적 특징들을 결정하는 단계는, 캡처된 RGB 이미지로부터의 RGB 이미지 데이터 및 캡처된 NIR 이미지로부터의 NIR 이미지 데이터에 기초하여 핸드에 대한 이미지 데이터를 추출하는 단계를 포함할 수 있다.
[0006] 핸드에 대한 이미지 데이터를 추출하는 단계는, 캡처된 RGB 이미지의 적어도 하나의 픽셀에 대한 각각의 RGB 픽셀 값 및 캡처된 NIR 이미지의 대응하는 픽셀에 대한 각각의 NIR 픽셀 값에 기초하여 적어도 하나의 픽셀 각각에 대한 제 1 값 및 제 2 값을 계산하는 단계, 및 캡처된 RGB 이미지의 적어도 하나의 픽셀로부터의 특정 픽셀에 대한 제 1 값이 제 1 미리 결정된 값 범위 내에 있고, 제 2 값이 제 2 미리 결정된 값 범위 내에 있을 때, 특정 픽셀이 핸드에 대응한다고 결정하는 단계를 포함할 수 있다. 제 1 값(r1) 및 제 2 값(r2)은 다음의 식에 따라 계산되는 특정 픽셀에 대한 스킨 컬러 표시자들일 수 있고,
Figure pct00001
Figure pct00002
여기서 ρ는 반사 레이트를 표기하고, λ는 파장을 표기한다.
[0007] 기하학적 특징들을 결정하는 단계는, 핸드에 대한 추출된 이미지 데이터로부터 핸드에 대한 상대적인 공간적 특징들을 나타내는 하나 이상의 값들을 결정하는 단계를 포함할 수 있다.
[0008] 상대적인 공간적 특징들은, 예를 들면, 핸드에 대한 추출된 이미지 데이터에서 제 1 쌍의 2 개의 핑거들 사이의 각도, 또는 핸드에 대한 추출된 이미지 데이터에서 제 2 쌍의 핑거들에 대한 상대적인 거리 또는 길이 중 하나 이상을 포함할 수 있다.
[0009] 상기 방법은 핸드의 결정된 기하학적 특징들에 기초하여 사람의 아이덴티티를 결정하는 단계를 더 포함할 수 있다.
[0010] 핸드의 결정된 기하학적 특징들에 기초하여 사람의 아이덴티티를 결정하는 단계는, 핸드의 결정된 기하학적 특징들을 나타내는 값들과 저장된 기록들 내의 값들을 비교하는 단계를 포함할 수 있고, 각각의 기록은 이전에 포착된 핸드 이미지들 각각에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 각각의 대응하는 기록 값들을 포함한다.
[0011] 핸드의 결정된 기하학적 특징들을 나타내는 값들과 저장된 기록들 내의 값들을 비교하는 단계는, 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부와, 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부 사이의 차이에 대한 표준 편차를 계산하는 단계, 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부와, 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부 사이의 차이에 대한 평균 값을 계산하는 단계, 및 계산된 표준 편차와 미리 결정된 표준 편차 임계치의 제 1 비교에 기초하여, 그리고 계산된 평균과 미리 결정된 평균 임계치의 제 2 비교에 기초하여, 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부와, 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부 사이에 일치가 존재하는지를 결정하는 단계를 포함할 수 있다.
[0012] 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부와, 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부 사이에 일치가 존재하는지를 결정하는 단계는, 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부와, 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부 사이의 차이에 대한 계산된 표준 편차가 표준 편차 임계치 미만이고, 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부와, 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부 사이의 차이에 대한 계산된 평균이 평균 임계치 미만일 때, 또는 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부와, 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부 사이의 차이에 대한 계산된 표준 편차가 표준 편차 임계치보다 높거나 이와 동일하고, 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부와, 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부 사이의 차이에 대한 계산된 평균이 평균 임계치보다 더 작은 제 2 평균 임계치 미만일 때, 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부가 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부와 일치한다고 결정하는 단계를 포함할 수 있다.
[0013] 상기 방법은 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부와, 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부 사이에 일치가 존재한다는 결정에 응답하여 사람이 컴퓨팅 디바이스에 액세스하는 것을 가능하게 하는 단계를 더 포함할 수 있다.
[0014] 일부 변형예에서, RGB 이미지 캡처링 유닛, NIR(near infrared) 이미지 캡처링 유닛, 하나 이상의 프로세서들, 및 컴퓨터 명령들을 포함하는 저장 매체들을 포함하는 디바이스가 개시된다. 컴퓨터 명령들은, 하나 이상의 프로세서들 상에서 실행될 때, 동작들은 RGB 이미지 캡처링 유닛을 통해 사람의 핸드의 RGB 이미지를 캡처하는 동작, NIR 이미지 캡처링 유닛을 통해 핸드의 NIR 이미지를 캡처하는 동작, 및 캡처된 RGB 및 NIR 이미지들에 기초하여 핸드의 기하학적 특징들을 결정하는 동작을 포함한다.
[0015] 디바이스의 실시예들은, 상기 방법에 관련하여 앞서 설명된 특징들 중 적어도 일부를 비롯하여, 본 개시물에 설명된 특징들 중 적어도 일부를 포함할 수 있다.
[0016] 일부 변형예들에서, 사람의 핸드의 RGB 이미지를 캡처하기 위한 수단, 핸드의 NIR(near infrared) 이미지를 캡처하기 위한 수단, 및 캡처된 RGB 및 NIR 이미지들에 기초하여 핸드의 기하학적 특징들을 결정하기 위한 수단을 포함하는 장치가 개시된다.
[0017] 상기 장치의 실시예들은 방법 및 디바이스에 관련하여 앞서 설명된 특징들 중 적어도 일부뿐만 아니라 다음의 특징들 중 하나 이상을 비롯하여, 본 개시물에 설명된 특징들 중 적어도 일부를 포함할 수 있다.
[0018] 핸드의 기하학적 특징들을 결정하기 위한 수단은, 캡처된 RGB 이미지로부터의 RGB 이미지 데이터 및 캡처된 NIR 이미지로부터의 NIR 이미지 데이터에 기초하여 핸드에 대한 이미지 데이터를 추출하기 위한 수단을 포함할 수 있고, 추출하기 위한 수단은, 캡처된 RGB 이미지의 적어도 하나의 픽셀에 대한 각각의 RGB 픽셀 값 및 캡처된 NIR 이미지의 대응하는 픽셀에 대한 각각의 NIR 픽셀 값에 기초하여 적어도 하나의 픽셀 각각에 대한 제 1 값 및 제 2 값을 계산하기 위한 수단, 및 캡처된 RGB 이미지의 적어도 하나의 픽셀로부터의 특정 픽셀에 대한 제 1 값이 제 1 미리 결정된 값 범위 내에 있고, 제 2 값이 제 2 미리 결정된 값 범위 내에 있을 때, 특정 픽셀이 핸드에 대응한다고 결정하기 위한 수단을 포함한다.
[0019] 기하학적 특징들을 결정하기 위한 수단은, 핸드에 대한 추출된 이미지 데이터로부터 핸드에 대한 상대적인 공간적 특징들을 나타내는 하나 이상의 값들을 결정하기 위한 수단을 포함할 수 있고, 상대적인 공간적 특징들은, 예를 들면, 핸드에 대한 추출된 이미지 데이터에서 제 1 쌍의 2 개의 핑거들 사이의 각도, 또는 핸드에 대한 추출된 이미지 데이터에서 제 2 쌍의 핑거들에 대한 상대적인 거리 또는 길이 중 하나 이상을 포함한다.
[0020] 상기 장치는 핸드의 결정된 기하학적 특징들에 기초하여 사람의 아이덴티티를 결정하기 위한 수단을 더 포함할 수 있고, 아이덴티티를 결정하기 위한 수단은, 핸드의 결정된 기하학적 특징들을 나타내는 값들과 저장된 기록들 내의 값들을 비교하기 위한 수단을 포함하고, 각각의 기록은 이전에 포착된 핸드 이미지들 각각에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 각각의 대응하는 기록 값들을 포함한다.
[0021] 핸드의 결정된 기하학적 특징들을 나타내는 값들과 저장된 기록들 내의 값들을 비교하기 위한 수단은, 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부와, 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부 사이의 차이에 대한 표준 편차를 계산하기 위한 수단, 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부와, 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부 사이의 차이에 대한 평균 값을 계산하기 위한 수단, 및 계산된 표준 편차와 미리 결정된 표준 편차 임계치의 제 1 비교에 기초하여, 그리고 계산된 평균과 미리 결정된 평균 임계치의 제 2 비교에 기초하여, 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부와, 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부 사이에 일치가 존재하는지를 결정하기 위한 수단을 포함할 수 있다.
[0022] 일부 변형예들에서, 프로세서 상에서 실행 가능한 컴퓨터 명령들로 프로그래밍된 비일시적인 프로세서 판독 가능 매체들이 개시된다. 컴퓨터 명령들은, 실행될 때, 사람의 핸드의 RGB 이미지를 캡처하는 동작, 핸드의 NIR(near infrared) 이미지를 캡처하는 동작, 및 캡처된 RGB 및 NIR 이미지들에 기초하여 핸드의 기하학적 특징들을 결정하는 동작을 포함하는 동작들을 발생시킨다.
[0023] 프로세서-판독 가능 매체들의 실시예들은 방법, 디바이스 및 장치에 관련하여 앞서 설명된 특징들 중 적어도 일부를 비롯하여, 본 개시물에 설명된 특징들 중 적어도 일부를 포함할 수 있다.
[0024] 별도로 정의되지 않는다면, 본원에서 이용되는 모든 기술적 그리고 과학적 용어들은 일반적으로 또는 종래에 이해된 바와 동일한 의미를 가진다. 본원에서 이용되는 바와 같이, 단수 형태들은 단수 형태의 문법적 오브젝트(grammatical object) 중 하나 이상(즉, 적어도 하나)을 지칭한다. 예로서, "엘리먼트"는 하나의 엘리먼트 또는 둘 이상의 엘리먼트를 의미한다. 양, 시간적 듀레이션 등과 같은 측정가능한 값을 지칭할 때 본원에서 이용되는 "약" 및/또는 "대략"은, 본원에 설명되는 시스템들, 디바이스들, 회로들, 방법들 및 다른 구현들의 문맥상, 특정된 값으로부터 ±20% 또는 ±10%, ±5% 또는 +0.1%의 편차들이 적절하므로, 이러한 편차들을 포괄한다. 양, 시간적 듀레이션, 물리적 속성(이를테면, 주파수) 등과 같은 측정가능한 값을 지칭할 때 본원에서 이용되는 바와 같은 "실질적으로"는 또한, 본원에 설명되는 시스템들, 디바이스들, 회로들, 방법들 및 다른 구현들의 문맥상, 특정된 값으로부터 ±20% 또는 ±10%, ±5% 또는 +0.1%의 편차들이 적절하므로, 이러한 편차들을 포괄한다.
[0025] 청구항들을 포함하여 본원에 이용되는 바와 같이, "~중 적어도 하나" 또는 "~중 하나 이상"으로 서두가 달린 아이템들의 리스트에 이용되는 바와 같은 "또는" 혹은 "및"은, 리스팅된 아이템들의 임의의 결합이 이용될 수 있음을 표시한다. 예를 들어, "A, B 또는 C 중 적어도 하나"의 리스트는 결합들 A 또는 B 또는 C 또는 AB 또는 AC 또는 BC 및/또는 ABC(즉, A 및 B 및 C) 중 임의의 것을 포함한다. 게다가, 아이템들 A, B 또는 C의 둘 이상의 발생 또는 이용이 가능한 정도까지, A, B 및/또는 C의 다수의 이용들은 참작되는 결합들의 부분을 형성할 수 있다. 예를 들어, "A, B 또는 C 중 적어도 하나"(또는 "A, B 또는 C 중 하나 이상")의 리스트는 또한 A, AA, AAB, AAA, BB, BCC 등을 포함할 수 있다.
[0026] 청구항들을 포함하여 본원에 이용되는 바와 같이, 별도로 서술되지 않는 한, 기능, 동작 또는 특징이 아이템 및/또는 조건"에 기초한다"는 표현(statement)은 기능, 동작, 함수가 서술된 아이템 및/또는 조건에 기초한다는 것을 의미하며, 서술된 아이템 및/또는 조건에 더불어 하나 이상의 아이템들 및/또는 조건들에 기초할 수 있다.
[0027] 본 개시의 다른 그리고 추가 목적들, 특징들, 양상들 및 이점들은 첨부한 도면들의 다음의 상세한 설명에 의해 더 잘 이해될 것이다.
[0028] 도 1은 RGB-NIR 카메라 쌍을 사용하여 기하학적 특징 결정 및 분석을 수행하기 위한 예시적인 시스템의 개략도이다.
[0029] 도 2는 사용자의 핸드에 대한 기하학적 특징들을 결정하기 위한 예시적인 절차의 흐름도이다.
[0030] 도 3은 특정 사용자의 핸드에 대한 기하학적 특징들을 추출하기 위한 다양한 프로세싱 동작들을 예시한 예시적인 스크린샷이다.
[0031] 도 4는 현재 이미지로부터 추출된 특징 세트가 베이스라인 특징 세트와 일치하는지를 결정하기 위한 예시적인 결정 트리 절차의 도면이다.
[0032] 도 5는 모바일 디바이스에 대한 예시적인 동작 환경의 개략도이다.
[0033] 도 6은 예시적인 모바일 디바이스의 블록도이다.
[0034] 도 7은 예시적인 컴퓨팅 시스템의 개략도이다.
[0035] 한 쌍의 RGB-NIR 카메라들이 신체 부분(예를 들면, 핸드)에 대한 기하학적 특징들을 결정하고, 사용자 식별 프로세스를 수행하는데 사용되는 구현들이 본원에 설명된다. 많은 핸드헬드 디바이스들, 예를 들면, 스마트폰들에는 일반적으로 RGB 카메라가 장착되고, 상당한 물리적 공간 요건 또는 상당한 비용 증가를 부가하지 않고서 NIR(Near Infrared) 카메라가 설치될 수 있다. NIR 카메라는 상이한 콘트라스트, 광 및 컬러를 갖는 잡음이 있는 배경으로부터 스킨 영역들을 검출할 수 있다. 또한, NIR 카메라는 실제 스킨 대 촬영된 스킨을 검출할 수 있고, 따라서 비인가된 사용자들이 알려진 인가된 사용자와 연관된 사진(예를 들면, 그 알려진 인가된 사용자의 핸드, 또는 몇몇의 다른 신체 부분의 사진)을 사용하려는 시도들로부터 보호하는 식별 프로세스들의 구현들을 가능하게 한다. 본원에 설명된 구현들은 또한 RGB 및 NIR 카메라들에 의해 포착된 이미지들에 기초하여 (예를 들면, 핸드와 같은 사용자의 신체 부분의) 기하학적 특징 분석을 수행하는 것을 포함하고, 액세스를 추구하는 사용자의 아이덴티티를 결정 또는 검증하기 위해 생체 데이터로부터 이미지들로부터 결정된 기하학적 특징들을 사용한다. 예를 들면, 일부 실시예들에서, 핸드와 같은 사용자의 신체 부분에 대응하는 RGB 이미지의 영역(들)을 결정하고, 기하학적 특징 분석을 수행하기 위해 그 신체 부분에 대응하는 이미지 데이터를 사용하기 위해, NIR 카메라로부터의 이미지 데이터는 RGB 카메라로부터의 이미지 데이터와 관련하여 사용된다. 본원에 설명된 절차들 및 프로세스들 상에서 수행되는 테스팅은 핑거프린트 식별 절차들/프로세스들보다 더 높은 절차들/프로세스들의 정확성을 보여주었다.
[0036] 따라서, 사람의 핸드의 RGB 이미지를 캡처하고, 핸드의 NIR(near infrared) 이미지를 캡처하고, 캡처된 RGB 및 NIR 이미지들에 기초하여 핸드의 기하학적 특징들을 결정하는 것을 포함하는 방법을 비롯하여, 시스템들, 장치, 디바이스들, 방법들, 컴퓨터 프로그램 물건들, 미디어 및 다른 구현들이 본원에 설명된다. 일부 실시예들에서, 상기 방법은 사람의 핸드(또는 몇몇의 다른 신체 부분)의 결정된 기하학적 특징들에 기초하여 사람의 아이덴티티를 결정하는 것을 더 포함한다. 일부 실시예들에서, 핸드의 기하학적 특징들을 결정하는 것은 캡처된 RGB 이미지로부터의 RGB 이미지 데이터 및 캡처된 NIR 이미지로부터의 NIR 이미지 데이터에 기초하여 핸드에 대한 이미지 데이터를 추출하는 것을 포함하고, 또한, 핸드(또는 몇몇의 다른 신체 부분)에 대한 상대적인 공간 특징들 또는 특성들을 나타내는 하나 이상의 값들을 추출된 이미지 데이터로부터 결정하는 것을 포함할 수 있다. 예를 들면, 상대적인 공간 특징들은, 예를 들면, 핸드에 대한 추출된 이미지 데이터에서 제 1 쌍의 핑거들(또는 몇몇의 다른 신체 부분 특징들) 간의 각도, 핸드에 대한 추출된 이미지 데이터에서 제 2 쌍의 핑거들에 대한 상대적인 거리, 임의의 2 개의 핑거들의 길이 사이의 길이 비율 등 중 하나 이상을 포함할 수 있다.
[0037] 도 1을 참조하면, (예를 들면, 사용자 식별 프로세스를 수행하기 위해) 기하학적 특징 결정 및 분석을 수행하기 위한 예시적인 시스템(100)의 개략도가 도시된다. 개략도는, 정보-감지 프로세싱 스테이지/모듈(110), 기하학적 분석 프로세싱 스테이지/모듈(120) 및 애플리케이션 프로세싱 스테이지/모듈(130)을 포함하는 시스템(100)을 구성하는 다양한 프로세싱 스테이지들/모듈들을 예시한다. 정보-감지 프로세싱 스테이지(110)는, 예를 들면, 핸드헬드 디바이스 상에 제공된 RGB 이미지 캡처링 유닛 및 NIR 이미지 캡처링 유닛(예를 들면, 도 6에 도시됨)을 사용하여 원시 이미지 데이터를 캡처하고, RGB 이미지(112) 및 NIR 이미지(114)를 영역 검출 유닛(116)에 제공하도록 구성된다. 일부 실시예들에서, 사용자는 카메라들로부터 그/그녀의 핸드를 특정 거리 및/또는 방향으로 위치시키도록 유도될 수 있다. 특히, RGB 카메라 및 NIR 카메라는 카메라에 대해 적절한 위치에 사용자의 핸드의 포지셔닝을 요구하는 일부 미리 결정된 방향들로 서로에 근접하게 배치될 수 있다. 카메라의 그 미리 결정된 방향에 기초하여, 사용자는, 카메라들이 본원에 설명된 기하학적 특징 결정 및 분석 절차들을 가능하게 하기 위해 사용자의 핸드의 충분한 세부사항들을 캡처할 수 있도록 그/그녀의 핸드를 위치시키도록 유도될 수 있다. 일부 실시예들에서, 사용자는 복수의 가능한 핸드 프로파일들(예를 들면, 모두 서로 터치하는 핑거들, 넓게 개방 또는 확장된 핑거들 등)로부터 (예를 들면, 랜덤하게 또는 의사랜덤하게) 선택될 수 있는 일부 특정 미리 결정된 프로파일로 핸드를 제시하도록 유도될 수 있다. 다수의 가능한 핸드 프로파일들의 사용은, 사용자가 (예를 들면, 몇몇의 핸드 프로파일들에 대해 결정된 대응하는 기하학적 특징들에 의해 표현된) 그러한 프로파일들을 사전-등록할 수 있고, 따라서 불량 사용자가 시도하고 보안을 위반하는 것을 더 어렵게 만든다는 점에서 다른 보안 특징을 제공할 수 있다(예를 들면, 왜냐하면 동일한 사용자에 대한 몇몇의 프로파일들 중 하나가 테스터의 핸드 이미지들이 포착될 때 랜덤하게/의사랜덤하게 선택될 수 있고, 불량 사용자가 모든 상이한 핸드 프로파일들에 대한 보안 특징들을 피해갈 수 없기 때문에).
[0038] 도 1을 계속해서 참조하면, 영역 검출 유닛(116)은 (예를 들면, 불량 사용자가 디바이스에 대한 비인가된 액세스를 획득하기 위해 사용하려고 시도할 수 있는 핸드의 사진보다는) 사용자의 실제 핸드에 대응하는 RGB 캡처된 이미지의 영역을 결정하도록 구성되고, 그 영역 상에서 기하학적 특징 분석이 수행된다. 기하학적 특징 결정 및 분석에 사용될 RGB 이미지의 영역의 결정은 NIR 이미지 데이터 및 RGB 이미지 데이터에 기초한다. 예를 들면, 일부 구현들에서, (112) 및 (114)의 이미지들로부터의 네(4) 개의 채널들이 추출되고, 각각의 채널 내의 각각의 상관된 픽셀의 값은 대응하는 픽셀이 스킨 조직에 대응하는지를 결정하는데 사용된다. 픽셀이 스킨에 대응하는지 여부의 결정은, '1'의 값을 갖는 픽셀들이 스킨 영역을 나타낼 수 있고, '0'은 비-스킨 영역을 나타낼 수 있는(또는 그 역도 가능함) 이진 이미지를 생성하는데 사용될 수 있다.
[0039] 분석될 사용자의 핸드(또는 몇몇의 다른 신체 부분)에 대응하는 것으로 결정된 이미지 데이터의 부분은 기하학적 분석 프로세싱 스테이지(120)에 제공되고, 여기서 프로세싱 스테이지(110)에 의해 제공된 이미지 데이터의 부분으로부터 결정될 수 있는 식별 가능한 특징들로부터 특징 포인트들 또는 세트들을 획득하기 위해 이미지 프로세싱이 수행된다. 특징 세트들은, 기하학적 분석 프로세싱 스테이지 일치를 사용하여 추출 또는 유도된 특징들이, 시스템(100)을 구현하는 디바이스(예를 들면, 모바일 디바이스와 같은 핸드헬드 디바이스) 상에 (또는 일부 원격 디바이스에) 저장될 수 있는 복수의 프로파일들 중 하나에서 대응하는 기하학적 특징들과 일치하는지를 결정하기 위해, 애플리케이션 프로세싱 스테이지(130)의 식별 애플리케이션(132)에 의해 사용될 수 있다. 일부 실시예들에서, 스테이지들(120 및 130)에 의해 수행되는 동작들 중 하나 이상은 원격 디바이스/시스템(예를 들면, RGB 및 NIR 카메라들을 포함하는 핸드헬드 디바이스와 통신하는 원격 서버)에서 수행될 수 있다.
[0040] 도시된 바와 같이, 애플리케이션 프로세싱 스테이지(130)는 또한, 기하학적 분석 프로세싱 스테이지(120)에 의해 결정된 식별된 특징 포인트들 또는 세트들로부터 기하학적 특징 프로파일들을 생성하도록 구성된 등록 애플리케이션(134)을 포함한다. 예를 들면, 등록 애플리케이션(134)은, 등록/신고되는 사용자들에 대해 획득된 이미지들(예를 들면, RGB 및 NIR 이미지들)로부터 결정된 식별가능한 특징들의 쌍들에 대응하는 거리/길이 비율들 및 각도들과 같은 상대적인 공간 특징들을 포함하는 기록들을 생성 및 저장하도록 구성될 수 있다. 생성된 기하학적 프로파일들은 하나 이상의 로컬 저장 디바이스들(예를 들면, 비휘발성 메모리) 상에서 로컬 디바이스에서 또는 (본원에 설명된 동작들 중 일부가 원격 디바이스/시스템의 도움으로 수행되는 실시예에서) 원격 디바이스에서 저장될 수 있다. 일부 실시예들에서, 등록된 사용자들에 대한 기하학적 특징 프로파일들은 데이터베이스 구현을 사용하여 저장 및 관리될 수 있다. 언급된 바와 같이, 일부 실시예들에서, 보안을 개선하기 위해, 사용자는 몇몇의 상이한 핸드 제스처들 또는 방향들에 대한 특징 프로파일들을 등록할 수 있고, 식별 단계 동안에, 테스터는 등록 스테이지 동안에 사용자(들)에 대해 등록된 가능한 제스처들/방향들 중 하나로 그/그녀의 핸드(또는 식별을 위해 사용되는 상이한 신체 부분)을 제시하도록 요청될 수 있다. 후속으로, 식별 애플리케이션(132)은 현재 테스터의 핸드(또는 다른 신체 부분)의 기하학적 특징들에 대응하거나 이를 나타내는 값들이 저장된 프로파일들 중 하나와 일치하는지를 결정하였다.
[0041] 이제 도 2를 참조하면, 사람의 핸드(또는 몇몇의 다른 신체 부분)에 대한 기하학적 특징들을 결정하기 위한 예시적인 절차(200)의 흐름도가 도시된다. 절차(200)는 사람의 핸드(또는 몇몇의 다른 신체 부분)의 RGB 이미지를, 디바이스(가령, 핸드헬드/휴대용 디바이스)의 디바이스의 RGB 이미지 캡처링 유닛(예를 들면, CCD 카메라와 같은 카메라)에 의해, 캡처하는 것(210)을 포함한다. RGB 이미지를 캡처하는 것은, 이미지 캡처링 유닛을 활성화할 수 있는, 핸드헬드 디바이스를 휴대한 사용자의 재량(discretion)에 따라 수행될 수 있다. 대안적으로 및/또는 부가적으로, 이미지를 캡처하는 것은, 몇몇의 미리 결정된 조건이 만족 또는 충족되었다고 결정하는 것에 응답하여 자동적으로 개시될 수 있다. 예를 들면, 이미지 캡처링 유닛은 a) 사람/사용자가 그/그녀의 핸드의 이미지를 막 촬영하려고 한다는 것을 표시하는 방식으로 디바이스(예를 들면, 관성 센서들을 사용함)가 이동된 것을 검출하는 것에 응답하여, b) 일부 미리 결정된 시간에, c) 핸드헬드 디바이스 등에 의해 수신된 시각 또는 오디오 정보에 기초하여 이미징된 물체를 인식한 것에 응답하여 활성화될 수 있다. 일부 실시예들에서, 스크린 디스플레이(가령, 도 6에 도시된 디바이스(600)의 디스플레이(662))는 사용자가 원하는 타겟 물체에 카메라를 적절한 지시하는 것을 가능하게 하기 위해 디바이스의 카메라로 촬영된 이미지(들)를 제시할 수 있다. 언급된 바와 같이, 일부 실시예들에서, 사용자는, 복수의 가능한 핸드 프로파일들, 제스처들 또는 방향들로부터 랜덤하게 또는 의사랜덤하게 선택될 수 있는 일부 특정 미리 결정된 프로파일, 제스처 또는 방향으로 핸드를 제시하도록 유도될 수 있다.
[0042] 절차(200)는, RGB 이미지가 캡처된 핸드의 NIR(near infrared) 이미지를 캡처하는 것(220)을 더 포함한다. NIR 이미지를 캡처하는 것은, 일부 구현들에서, NIR 이미지가 RGB 이미지의 캡처링보다 약간 나중에 또는 더 빨리 캡처될 수 있다는 것을 제외하고, RGB 이미지의 캡처링에 발생시킨 동일한 활성화 시퀀스 또는 트리거들에 응답하여 이루어질 수 있다.
[0043] 일부 실시예들에서, RGB 및 NIR 카메라들은 서로 독립적일 수 있고 및/또는 실질적으로 동시에 이미지들을 캡처하도록 구성될 수 있다. 2 개의 카메라들로부터 획득된 이미지들은 카메라들을 하우징하는 디바이스 상의 자신들의 위치들의 차이로 인해 오프셋 거리를 가질 수 있다. 언급된 바와 같이, 일부 실시예들에서, 이미지들은 자동적으로 또는 사용자에 의한 활성화에 응답하여 캡처될 수 있다. 이미지들이 사용자 활성화에 응답하여 포착될 때, 사용자는 RGB 및 NIR 카메라들 둘 모두로부터 촬영하기 위해 활성화 버튼을 한번 누를 필요가 있을 수 있다. 그러나, 일부 실시예들에서, RGB 카메라로부터의 이미지가 캡처된 때 및 NIR 카메라로부터의 이미지가 캡처된 때 사이에 여전히 작은 시간 차이가 존재할 수 있다. 시간 차이가 매우 작을 수 있을지라도, 임의의 약간의 핸드 움직임은 2 개의 이미지들 간의 오프셋을 발생시킬 것이다. 따라서, 그러한 실시예들에서, 캡처된 이미지들에 대해 프로세싱을 개시하기 전에, 2 개의 카메라들로부터의 이미지들은 정렬될 필요가 있을 수 있다.
[0044] 일반적으로, RGB 및 NIR 카메라들이 서로 떨어져 1 cm 미만으로 배치되고, 카메라들과 핸드(또는 다른 신체 부분) 사이의 거리가 적어도 20 cm일 때, 2 개의 이미지들의 각도 차이는 상당한 관점 변화를 발생시키기에 크게 충분하지 않다. 일부 실시예들에서, 샘플 이미지 쌍을 정렬하기 위해, 이미지 상의 스케일-불변 특징 포인트들이 추적될 수 있다(예를 들면, 2004, 60(2):91-110, International Journal of Computer Vision에서 공개된, D. G. Lowe에 의한 "Distinctive image features from scale-invariant keypoints"에 더 상세히 설명됨, 이것의 내용은 전체적으로 인용에 의해 본원에 통합됨). 일단 추적되면, 2 개의 특징 포인트 세트들 간의 상관된 포인트들은, 1981, 24(6):381-395, Communications of the ACM에서 공개된 M. A. Fischler 및 R. C. Bolles에 의한 "Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography"에 더 상세히 설명된 바와 같이 결정되고, 이것의 내용은 전체적으로 인용에 의해 본원에 통합된다. 사용될 수 있는 RANSAC(random sample consensus) 모드는 "아핀(affin)"인데, 왜냐하면 2 개의 카메라들이 큰 관점 각도 차이를 갖지 않기 때문이다.
[0045] 계속해서 도 2를 참조하면, 일단 핸드의 RGB 및 NIR 이미지들이 캡처되면, 핸드의 기하학적 특징들은 캡처된 RGB 및 NIR 이미지들에 기초하여 결정된다(230). 사용자의 핸드에 대해 수행된 기하학적 특징 결정은 사용자의 핸드(또는 다른 신체 부분) 영역에 대응하는 이미지 데이터를 추출하고, 이미지 데이터의 추출된 부분에 대응하는 기하학적 특징들(예를 들면, 이미지 데이터로부터 결정된 바와 같은, 픽셀들에서, 핑거들의 길이 또는 폭)을 결정하기 위한 프로세스들을 포함한다. 일부 실시예들에서, 사용자의 핸드(또는 몇몇의 다른 신체 부분)와 연관된 상대적인 공간 특징들/특성들(예를 들면, 임의의 2 개의 핑거들 사이의 길이 비율)이 계산될 수 있고, 그러한 계산된 값들은 (이전에 신고/등록된 사용자들에 대한) 이전에 계산된 기하학적 특징들의 저장된 기록들과 일치가 존재하는지를 결정하기 위해 사용될 수 있다.
[0046] 캡처된 이미지들(이들로부터 기하학적 특징들이 결정됨)로부터 관련 이미지 데이터를 추출하기 위해, 해소될 필요가 있는 도전과제는, 캡처된 이미지들이 종종 환경적 광 불안전성에 의해 야기된 불안정한 이미지 및 컬러 변화들을 포함한다는 것이다. 이미지에서 스킨-기반 물체들을 캡처하기 위해, 전통적인 YCrCb 컬러 경계화(thresholding) 기술들은 넓은 임계치들을 사용하고, 이것은 다른 물체들로부터의 컬러 특징들(즉, 스킨-기반 물체들만이 아님)이 또한 프로세스에서 검출되게 한다. 반면에, NIR 카메라는, RGB 및 NIR 이미지들 둘 모두를 사용하여 픽셀 컬러의 라이브니스(liveness)를 분석함으로써, 다른 물체들에 대응하는 픽셀들 또는 배경으로부터 스킨 픽셀들을 구별할 수 있다. NIR 이미징의 사용은 또한 이미지 물체가 그러한 물체의 컬러 사진보다 실제 인간의 조직에 대응하는지를 결정하는 것을 가능하게 한다.
[0047] 캡처된 이미지들로부터 스킨 영역 검출을 달성하기 위해, NIR 이미지들을 통한 스킨 검출 및 분광 반사율(spectral reflectance)의 변환이 사용될 수 있다. NIR 스펙트럼 범위에서 낮은 광학 흡수 특성들을 갖는 멜라닌을 포함하는 인간의 스킨은 NIR 방사선(radiation)의 반사를 발생시킨다. 따라서, 인간의 스킨에 대응하는 이미지 데이터의 부분들을 결정하기 위해, RGB 및 NIR 이미지들 내의 픽셀들 중 적어도 일부(및 일반적으로 전부)에 대해 스킨 컬러 표시자 값들(r1 및 r2)이, 예를 들면, 다음의 식에 따라 먼저 계산된다.
Figure pct00003
(1)
Figure pct00004
(2)
여기서 ρ는 (특정 픽셀에 대한) 반사 레이트를 표기하고, λ는 특정 픽셀에 대한 파장을 표기한다. 스킨 컬러 표시자들을 도출하기 위한 다른 공식들이 또한 사용될 수 있다.
[0048] 이어서, 픽셀(i)은 LowerBoundNIR,G, UpperBoundNIR,G, LowerBoundG,R 및 UpperBoundG,R의 몇몇의 미리 결정된 값들에 대해 다음과 같을 때 스킨 영역에 대응하는 것으로 결정된다(일부 실시예들에서, 임계값들은 조명의 스펙트럼 조성 및 센서의 양자 효율에 적어도 부분적으로 기초하여 결정될 수 있다).
Figure pct00005
Figure pct00006
[0049] 실제 물리적 신체 부분에 대응하는 (예를 들면, RGB 이미지의) 이미지 데이터의 부분/영역이 결정되면, 이미지 데이터의 그 부분은 (예를 들면, 도 1에 도시된 기하학적 분석 프로세싱 스테이지(120)를 사용하여) 분석된다. 핸드헬드 디바이스의 카메라들에 의해 캡처된 이미지들로부터의 기하학적 특징 결정에 대한 하나의 도전과제는, 등록 단계에 사용된 이미지들 및 식별 단계 동안에 사용된 것들이 상이한 이미지 스케일들을 가질 수 있다는 것이다. '스케일-변화' 문제는 사용자들을 식별하기 위해 그러한 특징들의 절대적인 계산된 물리적 치수들을 결정 및 사용하는 것보다는 추출된 데이터로부터 상대적인 공간 특징들/특성들을 결정함으로써, 예를 들면, (길이 비율과 같은) 특징들의 물리적 치수들에 대응하는 비율들을 계산함으로써 해결될 수 있다.
[0050] 신체 부분 기하학적 특징 결정 및 분석은, 일부 실시예들에서, 윤곽 검출에서 시작된다. 윤곽 검출은 핸드 영역의 윤곽을 제공할 뿐만 아니라, 윤곽에 걸친 외피들(hulls)을 제공하고, 이것은 임의의 중요한 포인트들(예를 들면, 분석되는 신체 부분이 핸드일 때, 핑거 팁들)의 위치를 나타낸다. 사용자의 핸드의 예에서, 윤곽들 상의 볼록부들(convexes)이 또한 검출되어, 서로 옆에 있는 모든 각각의 2 개의 핑거 팁들 사이의 밸리를 나타낼 수 있다. 이들 이외에, 예를 들면, 핑거 폭들의 시작 및 끝 포인트들을 결정하기 위해 다른 특징 포인트들이 계산될 수 있다.
[0051] 도 3은 특정 사용자의 핸드에 대한 기하학적 특징들을 추출하기 위한 다양한 프로세싱 동작들을 예시하는 예시적인 스크린샷(300)이다. 도 3의 핸드 이미지 '(a)'에서, 사용자의 핸드의 윤곽들(310)이 검출되고, 외피(312)(즉, 윤곽들(310)을 포함하는 다각형)가 윤곽들(310)로부터 결정된다. 볼록 라인(314)은 사용자의 핸드의 2 개의 핑거들에 의해 정의된 밸리를 표시한다. 핸드 이미지 '(b)'에서, 핸드의 특징 포인트들, 예를 들면, 핑거 팁들(320 및 322)은 (핸드 이미지 '(a)'에 도시된) 이전에 결정된 외피(312)로부터 검출되고, 2 개의 밸리 포인트들(324)은 이전에 결정된 볼록부들로부터 검출된다. 부가적으로, 연장 라인들(가령, 연장 라인(328)) 및 핸드의 윤곽의 교차 포인트들에 대응하는 연장 포인트들(326)은 핑거 팁들, 밸리들 및 윤곽들로부터 도출될 수 있다(예를 들면, 식별된 핑거 팁들, 밸리들 및 윤곽들은 연장 라인들을 결정 또는 정의하는데 사용될 수 있다). 핸드 이미지들 '(a)' 및 '(b)'에 예시된 식별된/도출된 특징 포인트들을 사용하여, 예를 들면, 핑거 폭(도시되지 않음), 핑거 길이(가령, 핑거 길이(330)), 손바닥 폭(가령, 손바닥 폭(332)), 밸리 각도(가령, 밸리 각도(334))와 같은 공간적 특징들, 및 다른 타입들의 공간적 특징들이 도출된다.
[0052] 일부 실시예들에서 그리고 도 2에 추가로 도시된 바와 같이, 절차(200)는 핸드의 결정된 기하학적 특징들에 기초하여 사람/사용자의 아이덴티티를 결정하는 것(240)을 더 포함할 수 있다. 언급된 바와 같이, 핸드의 캡처된 이미지들로부터 식별된 공간적 특징들(가령, 도 3에 예시된 특징들)은 일반적으로 픽셀-기반 치수들의 견지에서 제공된다(예를 들면, 핑거 폭은 핑거의 폭을 구성하는 이미지로부터 결정된 픽셀들의 수로서 표현된다). 그러나, 사용자가 그/그녀의 핸드의 이미지를 촬영할 때마다, 핸드 및 카메라의 관점 사이의 거리들 및 이미지 상의 핸드의 위치가 정확하게 동일하지는 않다. 따라서, 특징 포인트들은 그러한 특징들에 기초하여 사용자를 식별하기 위해 전적으로 신뢰할 수 있는 것은 아니다. 따라서, 사용자 식별을 가능하게 하기 위해 특징 포인트들을 직접적으로 사용하는 것 대신에, 분석되는 신체 부분에 대응하는 상대적인 공간 특징들이 계산되어, 식별 프로세싱을 수행하는데 사용될 수 있다. 예를 들면, 다양한 식별된 특징 포인트들 사이의 상대적인 길이들(예를 들면, 비율 길이들/거리들) 및 각도들은 식별을 위해 사용될 수 있다. 일부 실시예들에서, 1) 핑거 길이, 2) 핑거 폭, 3) 손바닥 폭 및 4) 핑거들 사이의 밸리 각도들을 포함하는 상대적인 공간 특징들을 결정할 때 사용될 수 있는 4 개의 카테고리들의 특징들이 존재한다. 일부 실시예들에서, 상대적인 길이 특징들은 이미지 데이터에서 등장하는 일부 특정 지정된 특징의 겉보기 크기(apparent size)로 다양한 식별 가능한 특징들의 겉보기 크기(예를 들면, 픽셀로 측정됨)를 나눔으로써 계산될 수 있다. 예를 들면, 그러한 다양한 식별 가능한 특징들(예를 들면, 다양한 핑거들에 대한 핑거 길이, 다양한 핑거들에 대한 핑거 폭, 손바닥 폭 등)에 대한 (예를 들면, 픽셀 단위의) 겉보기 크기 모두는, 이미지 데이터에서, 상대적인 공간적 특징들을 도출하기 위해 링 핑거 폭(및/또는 몇몇의 다른 선택된 특징)의 겉보기 크기로 나누어질 수 있다. 이어서, 그러한 도출된 공간적 특징들은 등록된 사용자들의 유사하게 도출된 저장된 특징들과 비교될 수 있다.
[0053] 따라서, 상대적인 공간적 특징들은, 예를 들면, 핸드에 대한 추출된 이미지 데이터에서 제 1 쌍의 2 개의 핑거들 사이의 각도 및/또는 핸드에 대한 추출된 이미지 데이터에서 제 2 쌍의 핑거들에 대한 상대적인 거리 또는 길이 중 하나 이상을 포함할 수 있다. 예를 들면, 계산된 상대적인 공간 특징들은 하나의 핑거 및 다른 핑거의 길이의 비율(예를 들면, 핑거들의 길이의 몫(quotient)으로서 픽셀 단위로 계산됨)뿐만 아니라 핸드의 식별된 공간적 특징들 사이의 다른 비율들을 포함할 수 있다. 밸리 각도들에 대해, 핑거들 사이의 각도들이 사용자가 그/그녀의 핸드를 스트레칭하는 정도에 따라 변동할 수 있기 때문에, 이러한 특징 카테고리를 사용할 때, 사용자는 일부 특정 방식으로 그/그녀의 핸드를 스트레칭 또는 뒤틀도록 요청될 수 있다. 일단 도출되면, 기하학적 특징들은 식별 프로세싱에 대한 입력들로서 기능한다.
[0054] 식별 목적으로 기하학적 특징들을 사용하기 위해, 일부 구현들에서, 인가된 사용자의 기하학적 특징들(예를 들면, 분석되는 신체 부분의 실제 식별된 특징들과 연관된 데이터 및/또는 그러한 실제 특징들에 대응하는 상대적인 공간적 특성들)은 현재 사용자의 기하학적 특징들이 등록된 사용자의 특징들과 일치하는지(그리고 따라서 현재 사용자가 디바이스 또는 몇몇의 다른 컴퓨팅 디바이스에 대한 액세스를 획득하도록 인가되는지)를 후속으로 결정하기 위해 (예를 들면, 도 1의 애플리케이션 프로세싱 스테이지(130)와 같은 모듈에 의해) 먼저 인가된 사용자를 등록하는데 사용된다. (예컨대, 예를 들면, 등록 애플리케이션(134)에 의해 구현되는) 등록 단계에서, 인가된 사용자의 베이스라인 핸드 특징 세트들(또는 사용자의 다른 신체 부분에 대한 특징 세트들)은 추가의 식별 프로세싱 사용들을 위해 등록된다. 예를 들면, 도 1에 도시된 식별 애플리케이션(132)에 의해 구현되는 식별 단계는 후속으로 현재 테스터의 핸드 특징 세트 값들과 이전에 등록된 베이스라인 프로파일(들)을 비교하고, 그들이 이전에 등록된 베이스라인 프로파일들 중 하나와 일치하는지를 결정할 것이다.
[0055] 따라서, 사용자가 그의 디바이스를 잠금 해제하거나, 개인 정보를 액세스하기 위해 특정 애플리케이션들을 사용하기를 원할 때, 식별 애플리케이션이 트리거링된다. 초기에, 사용자는 카메라들을 그/그녀의 핸드(예를 들어)로 포인팅하고 핸드의 이미지를 촬영하도록 유도될 것이다(핸드 또는 다른 신체 부분의 이미지들은 RGB 카메라 및 NIR 카메라 둘 모두에 의해 캡처될 것이다). 이어서, 핸드의 기하학적 특징들을 나타내는 값들을 갖는 특징 세트는 원시(raw) RGB 및 NIR 이미지들을 사용하여 추출된 핸드 이미지로부터 도출된다. 후속으로, 일부 실시예들에서, 그리고 아래에 더 상세히 설명될 바와 같이, 사용자가 디바이스에 대해 액세스하도록 허용되는지 여부를 결정하기 위해 결정 트리가 특징 세트에 적용된다. 현재 테스터에 대해 유도된 특징 세트가 베이스라인 프로파일 특징 세트들 중 하나와 일치하면, 현재 테스터가 이전에 등록된 사용자와 동일하다는 결정이 이루어진다.
[0056] 사용자 식별을 수행할 때, 1) 유용한 특징 포인트들을 추출하는데 사용될 수 없는 무효한 이미지를 획득하는 것, 2) 불완전한 추출된 특징 세트가 불안정한 검출 환경에 의해 야기되는 것, 3) 신체 부분과 디바이스의 카메라 사이의 작은 관점 변화가 일치 불가한 특징들을 발생시키는 것을 포함하여 몇몇의 문제들이 발생할 수 있다. 무효한 이미지 특징 포인트 추출이 획득되는 상황을 처리하기 위해, 추출된 특징 포인트들은 특징 포인트 포지셔닝 규칙들에 의해 점검될 수 있다. 예를 들면, 이미징된 핸드의 5 개의 핑거 팁들 및 4 개의 밸리들은 이미지 픽셀 좌표의 견지에서 좌에서 우로 그들의 정확한 공간적 순서로 되어야 한다.
[0057] 불완전한 추출된 특징 세트의 이슈들을 해결하기 위해, 식별을 위해 공유된 특징들만이 추출될 수 있다. 예를 들면, 일부 상황들에서, (예를 들면, 모바일 디바이스의 사용의 불안정성으로 인해) 테스터의 핸드의 이미지로부터 전부가 아닌 특징들이 추출될 수 있다. 따라서, 베이스라인 등록된 특징 세트로부터 분실되지 않는, 테스터의 특징 세트로부터 분실된 특징(들)이 존재할 수 있다. 그러한 상황들에서, 특징 세트들 둘 모두에 포함되는 특징들을 포함하는 특징 서브세트는 추가의 프로세싱이 적용될 공유되는 특징 세트로서 선택될 수 있다. 예를 들면, F0i가 등록된 사용자의 특징 세트들이고, F1i가 테스터의 특징 세트를 표시한다고 가정되고, 여기서 조사될 4 개의 특징 카테고리들 또는 그룹들에 대해 i ∈ [1 ... 4]이다(더 많거나 더 적은 특징 카테고리들 또는 그룹들이 결정 및/또는 사용될 수 있다). 각각의 특징 세트에서 분실 값들은 무효한 것으로 고려되고, 따라서 F0i, F1i에서 유효한 특징들을 나타내는 데이터를 포함하는 결과적인 세트들(F0Vi, F1Vi)이 생성된다. FSi는, 결국, F0Vi, F1Vi에 대한 공유된 유효 특징들을 나타내는 데이터를 포함하는 세트에 대응한다.
[0058] 테스터의 신체 부분과 디바이스의 카메라들 사이의 작은 관점 각도에 의해 도입된 아티팩트들을 제거하기 위해, 특징 세트 내의 비율 거리들 간의 차이(즉, 현재 이미지 데이터로부터 계산된 특징, 및 등록된 사용자들 중 하나에 대한 대응하는 저장된 특징 사이의 차이)에 대한 계산된 표준 편차 및 평균 값들이 사용될 수 있다. 특히, 차이가 상이한 사용자의 핸드들에 대한 기하학적 구조의 차이에 의해 발생될 때, 평균 및 표준 편차 둘 모두는 높을 것으로 예상된다. 이와 대조적으로, 차이가 (즉, 특정 사용자에 대한) 동일한 핸드의 위치 차이의 결과로서 발생될 때, 계산된 표준 표차가 높을지라도(이것은 하나의 불량한 측정에 의해 발생될 수 있음), 계산된 평균은 일반적으로 높지 않을 것이며, 따라서 잠재적인 이미지 아티팩트의 존재를 표시한다.
[0059] 따라서, 다양한 카테고리들 또는 그룹들 내의 특징들(예를 들면, 핑거 길이, 핑거 폭, 손바닥 폭 및 핑거들 사이의 각도)은 현재 사용자의 핸드(또는 몇몇의 다른 신체 부분)의 이미지로부터 계산되고, 등록/신고된 사용자들에 대해 이전에 획득된 대응하는 특징들과 비교된다. 현재 사용자의 특징 세트와 등록된 특징 세트들의 비교로부터의 결과들은 식별 결과를 결정(그리고 따라서 현재 사용자가 인가된 사용자인지를 결정)하는데 사용된다.
[0060] 특히, 현재 사용자의 핸드에 대한 식별 프로세싱에 대한 요청이 수신될 때, 등록된 사용자의 핸드의 베이스 라인 특징 세트 및 현재 사용자의 핸드에 대한 특징 세트 간의 std(Δ) 및 avg(Δ) 값들은 다음과 같이 계산된다.
Figure pct00007
(3)
Figure pct00008
(4)
여기서 F0i' 및 F1i'(특징 세트 내의 유효 특징들)은 다음과 같이 결정된다.
Figure pct00009
Figure pct00010
[0061] 이어서, std(Δi) 및 avg(Δi)의 계산된 값들에 적용되는 프로세싱은 현재 사용자(즉, 테스터)에 대한 핸드 이미지로부터의 핸드 특징들이 특정 등록된(신고된) 사용자에 대한 특정 베이스라인 특징 세트와 일치하는지를 결정하는데 사용될 수 있다. 예를 들면, 일부 실시예들에서, 현재 사용자에 대해 획득된 핸드 이미지로부터의 특징들이 특정 등록된 사용자에 대한 신체 부분 특징들과 일치하는지를 결정하기 위해, std(Δi) 및 avg(Δi)의 계산된 값들을 사용하여 결정 트리 절차가 수행된다. 도 4는 현재 사용자(테스터)의 핸드 이미지로부터 추출된 특징 세트가 저장된 하나 이상의 베이스라인 특징 세트들 중 특정 하나의 특징 세트와 일치하는지를 결정하기 위해 수행될 수 있는 예시적인 결정 트리 절차(400)의 도면이다. 도시된 바와 같이, 현재 이미지에 대한 특징 값들 및 특정 등록된 사용자에 대한 대응하는 특징 값들(예를 들면, 테스터의 핸드의 특징 세트와 공유된 유효 특징들) 사이의 차이에 대한 계산된 표준 편차(예를 들면, 식 3에 따라 도출됨)가 미리 결정된 임계치(threshold _std)보다 더 낮은지에 대한 결정이 먼저 이루어진다(410). 그렇다면(즉, 현재 이미지에 대해 계산된 특징 값들 및 특정 등록된 사용자에 대한 대응하는 특징 값들 사이의 차이에 대한 계산된 표준 편차가 미리 결정된 임계치보다 더 적다면), 현재 이미지에 대한 특징 값들 및 특정 등록된 사용자에 대한 대응하는 특징 값들(예를 들면, 식 4에 따라 도출됨) 사이의 평균 차이가 일부 미리 결정된 임계치(threshold_avg)보다 더 낮은지에 대한 결정이 이루어진다(420). 그렇다면, (현재 사용자에 대한) 현재 이미지의 특징 세트들 및 특정 등록된 사용자에 대한 특징 세트는 일치되는 것으로 결정된다(430). 그러나, 현재 이미지에 대한 특징 값들 및 특정 등록된 사용자에 대한 대응하는 특징 값들 간의 평균 차이가 threshold_avg 미만이 아닌 것으로 결정이 이루어지면(420), "결정 불가" 결정이 이루어진다(440).
[0062] 현재 이미지에 대해 도출된 특징 값들 및 특정 등록된 사용자에 대한 대응하는 값들 사이의 차이에 대한 표준 편차가 threshold_std보다 더 높거나 이와 동일하다는 결정이 (410)에서 이루어지면, 다음의 2 개의 시나리오들: 1) 현재 사용자(테스터)가 도출된 특징 세트에서 하나의 부정확한 특징 판독을 갖지만, 그럼에도 불구하고 테스터가 등록된 사용자인 시나리오, 또는 2) 테스터가 등록된 사용자가 아닌 시나리오가 발생할 수 있다. 첫 번째 경우에, "일치" 결정이 이루어지기 위해, 남아있는 특징들(즉, 부정확한 판독이 존재하는 특징을 배제함) 및 베이스라인 특징들 사이에 양호한 일치가 존재해야 한다. 일부 실시예들에서, 현재 테스터에 대한 남아있는 특징들은, 현재 이미지에 대한 남아있는 특징들에 대한 값들 및 사용되는 베이스라인 프로파일의 대응하는 특징들의 값들 사이의 차이로부터 도출된 낮은 평균 차이 값이 존재하면(즉, 2 개의 세트들이 가깝게 일치함), 특정 등록된 사용자의 특정 베이스라인 특징 세트에 대한 대응하는 남아있는 특징들에 대한 양호한 일치를 구성하는 것으로 여겨진다. 따라서, 절차(400)는, 그러한 실시예들에서, 현재 이미지로부터 도출된 특징 값들 및 특정 등록된 사용자에 대한 대응하는 값들 사이의 평균 차이가 threshold_avg × rate_2nd_chance(여기서 rate_2nd_chance 값은 미리 결정된 값임)로서 계산된 몇몇의 다른 미리 결정된 임계값 미만인지를 결정하는 것(450)을 포함할 수 있다. 평균 차이 계산이 제 2 임계값 미만(즉, threshold_avg × rate_2nd_chance 미만)인 것으로 결정되면, "일치"의 결정이 이루어진다(460). 제 2 임계치는, 현재 특징들이 (고려되는 베이스라인 특징 세트에 대한) 기록된 특징 값들과 일치한다는 결정을 위해 현재 기하학적 특징들 및 미리 결정된 기록된 특징들 사이의 더 작은 차이가 요구된다는 사실을 반영하기 위해, 일반적으로 threshold_avg 임계값보다 더 작다. 그렇지 않다면, "불일치"의 결정이 이루어진다(470).
[0063] 일부 실시예들에서, 도 4의 예시적인 결정 트리 절차(400)와 같은 결정 트리는 특징 세트들의 각각의 단일 카테고리에 적용된다. 따라서, 예를 들면, 관점 각도 변화로 인해, 하나의 특징 카테고리가 일치하지 않을 수 있다면, 결정하는 것을 가능하게 하기 위해 또 다른 카테고리들이 존재한다. 예를 들면, 일부 실시예들에서, 각각의 특징 카테고리/그룹은 다음과 같이 스코어링(score)될 수 있다.
Figure pct00011
[0064] 결정 트리로부터의 결과 스코어가 세트 내의 특징 그룹들(예를 들면, 4 개 이상의 특징 그룹들)에 대해 획득될 때, 결과들이 합산된다. 일부 실시예들에서, 스코어 합산이 카테고리들/그룹들의 수의 절반에 대응하는 값을 초과하면(예를 들면, 4 개의 카테고리들이 존재할 때 2를 초과하면), 그러한 상황들 하에서, 현재 테스터의 이미징된 핸드(또는 몇몇의 다른 신체 부분)에 대해 결정된 특징 세트가 등록된 사용자에 대한 특징 세트 프로파일과 일치한다는 결정이 이루어진다.
[0065] 이제 도 5를 참조하면, 모바일 디바이스(508)와 같은 핸드헬드 디바이스에 대한 예시적 동작 환경(500)의 개략도가 도시된다. 모바일 디바이스(무선 디바이스 또는 모바일 스테이션으로 또한 지칭됨)(508)는 도 1에 도시된 시스템(100)을 구현하는데 사용되는 디바이스와 유사할 수 있고, 실내 통신에 대한 WLAN, 펨토셀들, 블루투스® 무선 기술-기반 트랜시버들, 다른 타입들의 실내 통신 네트워크 노드들, 광역 무선 네트워크 노드들, 위성 통신 시스템들 등과 같은, 근거리 네트워크 디바이스들(또는 노드들)을 포함하는 다수의 타입들의 다른 통신 시스템들/디바이스들과 동작 및 상호작용하도록 구성될 수 있고, 이로써, 모바일 디바이스(508)는 다양한 타입들의 통신 시스템들과 통신하기 위한 하나 이상의 인터페이스들을 포함할 수 있다. 본원에 이용되는 바와 같이, 모바일 디바이스(508)와 통신할 수 있는 통신 시스템/디바이스들은 액세스 포인트들(AP들)로 또한 지칭된다. 모바일 디바이스(508)는 또한 RGB 및 NIR 이미지 캡처링 유닛들을 사용하여 캡처된 이미지들에 기초하여 사용자의 신체 부분(예를 들면, 핸드)에 대한 기하학적 특징들을 결정 또는 도출하고, 결정된 기하학적 특징들에 기초하여 사용자가 모바일 디바이스(508)를 사용하도록(또는 사용자가 액세스를 획득하고자 하는 몇몇의 다른 디바이스 또는 시스템을 사용하도록) 인가되는지를 결정하도록 구성될 수 있다. 일부 실시예들에서, 프로세싱(예를 들면, 캡처된 RGB 및 NIR 이미지들에서 등장하는 신체 부분에 대한 기하학적 특징들을 결정하는 것, 결정된 기하학적 특징들에 기초하여 사용자가 디바이스를 사용하도록 인가되는지를 결정하는 것 등) 중 적어도 일부는 원격 서버(예를 들면, 도 5에 도시된 서버(510))에서 수행될 수 있고, 디바이스(508)는 (예를 들면, 아래에 더 상세히 설명되는 바와 같이, 도 5에 예시된 통신 노드들 중 하나 이상을 통해) 원격 서버와 통신 링크를 설정할 수 있다.
[0066] 서술된 바와 같이, 동작 환경(500)은 하나 이상의 서로 다른 타입들의 무선 통신 시스템들 또는 노드들을 포함할 수 있다. 무선 액세스 포인트들(또는 WAP들)로 또한 지칭되는 이러한 노드들은, 예를 들어, WiFi 기지국들, 펨토 셀 트랜시버들, 블루투스® 무선 기술 트랜시버들, 셀룰러 기지국들, WiMax 트랜시버들 등을 포함하는 LAN 및/또는 WAN 무선 트랜시버들을 포함할 수 있다. 따라서, 예를 들어, 그리고 도 5를 계속 참조하면, 동작 환경(500)은 모바일 디바이스(508)와의 무선 음성 및/또는 데이터 통신에 이용될 수 있는 LAN-WAP(Local Area Network Wireless Access Point)들(506a-e)을 포함할 수 있다. 일부 실시예들에서, LAN-WAP들(506a-e)은 또한, 예컨대, 예를 들어, 도착 시간(time of arrival) 기법들에 기초하는 삼변측량-기반 절차들의 구현을 통해, 포지션 데이터의 독립적 소스들로서 이용될 수 있다. LAN-WAP들(506a-e)은 빌딩들 내에서 동작하고 WWAN보다 더 작은 지리적 구역들 상에서 통신들을 수행할 수 있는 WLAN(Wireless Local Area Network)의 부분일 수 있다. 추가적으로, 일부 실시예들에서, LAN-WAP들(506a-e)은 또한, WWAN 네트워크의 부분인 피코 또는 펨토 셀들일 수 있다. 일부 실시예들에서, LAN-WAP들(506a-e)은, 예를 들어, WiFi 네트워크들(802.11x), 셀룰러 피코넷들 및/또는 펨토셀들, 블루투스® 무선 기술 네트워크들 등의 부분일 수 있다. LAN-WAP들(506a-e)은 또한, 실내 포지셔닝 시스템의 부분을 형성할 수 있다. 다섯(5) 개의 LAN-WAP 액세스 포인트들이 도 5에 도시되지만, 임의의 수의 이러한 LAN-WAP들이 이용될 수 있고, 일부 실시예들에서, 동작 환경(500)은 어떠한 LAN-WAP들의 액세스 포인트들도 전혀 포함하지 않을 수 있거나, 단일 LAN-WAP 액세스 포인트를 포함할 수 있다. 게다가, 도 5에 도시된 LAN-WAP들(506a-e) 각각은 이동가능한 노드일 수 있거나, 그렇지 않으면 재로케이팅될 수 있다.
[0067] 도 5에 추가로 도시된 바와 같이, 동작 환경(500)은 또한, 일부 실시예들에서, 무선 음성 및/또는 데이터 통신에 이용될 수 있는 복수의 하나 이상의 타입들의 WAN-WAP(Wide Area Network Wireless Access Point)들(504a-c)을 포함할 수 있으며, 또한 모바일 디바이스(508)가 자신의 포지션/위치를 결정할 수 있게 하는 독립적 정보의 또 다른 소스로서 역할을 할 수 있다. WAN-WAP들(504a-c)은, 셀룰러 기지국들을 포함할 수 있는 WWAN(wide area wireless network) 및/또는 예를 들어, WiMAX(예를 들어, 802.16), 펨토셀 트랜시버들 등과 같은 다른 광역 무선 시스템들의 부분일 수 있다. WWAN은 도 5에 도시되지 않은 다른 공지된 네트워크 컴포넌트들을 포함할 수 있다. 전형적으로, WWAN 내의 각각의 WAN-WAP들(504a-504c)은 고정 포지션들로부터 동작하고, 대도시 및/또는 지방 영역들 상에서 네트워크 커버리지를 제공할 수 있다. 세(3)개의 WAN-WAP들이 도 5에 도시되지만, 임의의 수의 이러한 WAN-WAP들이 이용될 수 있다. 일부 실시예들에서, 동작 환경(500)은 어떠한 WAN-WAP들도 전혀 포함하지 않을 수 있거나, 단일 WAN-WAP를 포함할 수 있다. 추가적으로, 도 5에 도시된 WAN-WAP들(504a-c) 각각은 이동가능한 노드일 수 있거나, 그렇지 않으면 재로케이팅될 수 있다.
[0068] 따라서, (데이터를 교환하기 위해, 디바이스(508)의 포지션 결정을 인에이블하는 식) 모바일 디바이스(508)로의 그리고 모바일 디바이스(508)로부터의 통신은 또한, 일부 실시예들에서, WWAN(wide area wireless network), WLAN(wireless local area network), WPAN(wireless personal area network) 등과 같은 다양한 무선 통신 네트워크들을 이용하여 구현될 수 있다. "네트워크" 및 "시스템"이라는 용어는 상호교환가능하게 이용될 수 있다. WWAN은 CDMA(Code Division Multiple Access) 네트워크, TDMA(Time Division Multiple Access) 네트워크, FDMA(Frequency Division Multiple Access) 네트워크, OFDMA(Orthogonal Frequency Division Multiple Access) 네트워크, SC-FDMA(Single-Carrier Frequency Division Multiple Access) 네트워크, WiMax(IEEE 802.16) 등일 수 있다. CDMA 네트워크는 cdma2000, W-CDMA(Wideband-CDMA) 등과 같은 하나 이상의 RAT(radio access technology)들을 구현할 수 있다. cdma2000은 IS-95, IS-2000 및/또는 IS-856 표준들을 포함한다. TDMA 네트워크는 GSM(Global System for Mobile Communications), D-AMPS(Digital Advanced Mobile Phone System), 또는 일부 다른 RAT를 구현할 수 있다. GSM 및 W-CDMA는 "3GPP(3rd Generation Partnership Project)"로 명명된 컨소시엄으로부터의 문서들에 설명되어 있다. cdma2000은 "3GPP2(3rd Generation Partnership Project 2)"로 명명된 컨소시엄으로부터의 문서들에 설명되어 있다. 3GPP 및 3GPP2 문서들은 공개적으로 입수가능하다. WLAN은 또한 IEEE 802.11x 네트워크일 수 있고, WPAN은 블루투스® 무선 기술 네트워크, IEEE 802.15x, 또는 일부 다른 타입의 네트워크일 수 있다. 본원에 설명되는 기법들은 또한, WWAN, WLAN 및/또는 WPAN의 임의의 결합에 대해 이용될 수 있다.
[0069] WWAN 노드들을 이용하여 포지션을 유도할 때, 모바일 디바이스(508)는 선택적으로 포지셔닝 서버(도 5의 서버(510)와 동일하거나 상이한 서버 상에서 구현될 수 있음) 및 네트워크(512)의 보조를 받아, 도착 시간 기법들을 이용할 수 있다. 따라서, 모바일 디바이스(508)는 서로 다른 타입들의 WAP들(예를 들어, 셀룰러 기지국들, WiMax 기지국들 등)을 포함할 수 있는 WAN-WAP들(504a-c)을 이용하여 포지션 정보를 결정하도록 구성될 수 있다. 이러한 동작 환경에서, 모바일 디바이스(508)는 정확성을 향상시키기 위해 서로 다른 타입들의 WAN-WAP로부터의 신호들을 이용할 수 있다. 포지셔닝 서버는 네트워크(512)를 통해 모바일 디바이스(508)와 통신할 수 있다.
[0070] 일부 실시예들에서, 그리고 도 5에 추가로 도시된 바와 같이, 모바일 디바이스(508)는 또한 적어도, 모바일 디바이스(508)에 대한 포지션 정보의 독립적 소스로서 이용될 수 있는 SPS(Satellite Positioning System)(502a-b)로부터 정보를 수신하도록 구성될 수 있다. 따라서, 모바일 디바이스(508)는 SPS 위성들로부터 지오-위치(geo-location) 정보를 유도하기 위해 신호들을 수신하도록 특정하게 설계된 하나 이상의 전용 SPS 수신기들을 포함한다. 따라서, 일부 실시예들에서, 모바일 디바이스(508)는 SPS 위성들(502a-b), WAN-WAP들(504a-c) 및/또는 LAN-WAP들(506a-e) 중 임의의 하나 또는 이들의 결합과 통신할 수 있다. 일부 실시예들에서, 전술된 시스템들 각각은 서로 다른 기법들을 이용하여 모바일 디바이스(508)에 대한 포지션의 독립적 정보 추정치를 제공할 수 있다. 일부 실시예들에서, 모바일 디바이스는 포지션 데이터의 정확성을 향상시키기 위해, 서로 다른 타입들의 액세스 포인트들 각각으로부터 유도된 솔루션들을 결합할 수 있다.
[0071] 모바일 디바이스(508)가 위성 신호들을 수신할 수 있는 실시예들에서, 모바일 디바이스는 SPS 위성들(502a-b)에 의해 송신된 복수의 신호들로부터 포지션 데이터를 추출하는 SPS에 대해 사용하기 위해 특정하게 구현되는 수신기를 이용할 수 있다. 송신된 위성 신호들은, 예를 들어, 칩들의 세트 번호에 대한 반복적 PN(pseudo-random noise) 코드를 이용하여 마킹되는 신호들을 포함할 수 있으며, 그라운드 기반 제어 스테이션들, 사용자 장비 및/또는 우주선들 상에 로케이팅될 수 있다. 본원에 제공된 기술들은 위성 포지셔닝 시스템들은, GPS(Global Positioning System), Galileo, Glonass, Compass, 일본의 QZSS(Quasi-Zenith Satellite System), 인도의 IRNSS(Indian Regional Navigational Satellite System), 중국의 Beidou 등 및/또는 하나 이상의 글로벌 그리고/또는 지역적 내비게이션 위성 시스템들과 연관되거나, 그렇지 않으면 이들에 대해 이용하기 위해 인에이블될 수 있는 다양한 증강(augmentation) 시스템들(예를 들어, SBAS(Satellite Based Augmentation System))과 같은 이러한 시스템들에서 사용하기 위해 적용되거나 그렇지 않다면 인에이블될 수 있다. 제한이 아니라 예로서, SBAS는, 예를 들어, WAAS(Wide Area Augmentation System), EGNOS(European Geostationary Navigation Overlay Service), MSAS(Multi-functional Satellite Augmentation System), GAGAN(GPS Aided Geo Augmented Navigation 또는 GPS and Geo Augmented Navigation System) 등과 같은, 무결성 정보, 미분 보정들 등을 제공하는 증강 시스템(들)을 포함할 수 있다. 따라서, 본원에 사용된 바와 같이, SPS는 하나 이상의 글로벌 및/또는 지역 내비게이션 위성 시스템들 및/또는 증강 시스템들의 임의의 조합을 포함할 수 있고, SPS 신호들은 SPS, SPS형 및 그러한 하나 이상의 SPS와 연관된 다른 신호들을 포함할 수 있다.
[0072] 본원에 이용되는 바와 같이, 모바일 디바이스 또는 스테이션(MS)은 셀룰러 또는 다른 무선 통신 디바이스, PCS(personal communication system) 디바이스, PND(personal navigation device), PIM(Personal Information Manager), PDA(Personal Digital Assistant), 랩탑 또는 내비게이션 포지셔닝 신호들과 같은 무선 통신 및/또는 내비게이션 신호들을 수신할 수 있는 다른 적합한 모바일 디바이스와 같은 디바이스를 지칭한다. "모바일 스테이션"(또는 "모바일 디바이스" 또는 "무선 디바이스")이라는 용어는 또한 - 위성 신호 수신, 보조 데이터 수신 및/또는 포지션-관련 프로세싱이 디바이스에서 발생하는지 아니면 PND(personal navigation device)에서 발생하는지에 관계없이 - 이를테면, 단거리 무선, 적외선, 유선 연결 또는 다른 연결에 의해 PND와 통신하는 디바이스들을 포함하는 것으로 의도된다. 또한, "모바일 스테이션"은, 이를테면, 인터넷, WiFi 또는 다른 네트워크를 통해, 그리고 위성 신호 수신, 보조 데이터 수신 및/또는 포지션-관련 프로세싱이 디바이스에서 발생하는지, 서버에서 발생하는지 또는 네트워크와 연관된 다른 디바이스에서 발생하는지에 관계없이, 서버와 통신할 수 있는, 무선 통신 디바이스들, 컴퓨터들, 랩탑들, 태블릿 디바이스들 등을 포함하는 모든 디바이스들을 포함하는 것으로 의도된다. 위의 것들의 임의의 동작가능한 결합이 또한 "모바일 스테이션"으로서 고려된다. 일부 실시예들에서, 디바이스의 모션/움직임을 결정하고, 결정된 모션에 적어도 부분적으로 기초하여 하나 이상의 캡처된 이미지들에서 등장하는 물체의 특징들의 변동들을 검출하는 등을 위한 절차들을 포함하여 본원에 설명된 절차들은 무선 기능(예를 들면, 다른 원격 디바이스들과 무선으로 통신하는 기능)을 갖지 않는 디바이스들에 의해 수행될 수 있다.
[0073] 이제, 도 6을 참조하면, 도 1의 시스템(100)을 구현하는데 사용되는 디바이스 또는 도 5와 관련하여 설명된 디바이스(508)와 유사할 수 있는 모바일 디바이스(600)의 블록도가 도시된다. 도 6에 예시된 바와 같이, 모바일 디바이스(600)는, 예를 들어, 자력계, 가속도계(예를 들어, 3D 가속도계), 자이로스코프들 등일 수 있는 적어도 하나의 방향 센서(공간 또는 관성 센서로 또한 지칭됨)(620)를 포함할 수 있다. 오직 하나의 방향 센서만이 도시되지만, 추가 센서들이 디바이스(600)에 포함될 수 있다. 모바일 디바이스는 디스플레이 또는 스크린과 같은 사용자 인터페이스 디바이스 상에 디스플레이될 수 있는 스틸 이미지들 또는 동영상들(예를 들어, 비디오 시퀀스)을 생성할 수 있는, 카메라(630)(예를 들어, CCD(charge-coupled device)-타입 카메라, CMOS-타입 카메라 등)과 같은 RGB 이미지 캡처링 디바이스를 더 포함한다. 모바일 디바이스는 또한 이미지가 또한 RGB 카메라(630)에 의해 캡처되는 물체(들)의 스틸 또는 움직이는 NIR 이미지들을 캡처하기 위해 NIR(near infrared) 카메라(632)와 같은 NIR 이미지 캡처링 디바이스를 포함한다.
[0074] 모바일 디바이스(600)는 안테나(644)를 통해 SPS(satellite positioning system) 위성들(이를테면, 도 5의 위성들(502a-b))로부터 신호들을 수신하는 SPS 수신기와 같은 수신기(640)를 포함할 수 있다. 모바일 디바이스(600)는 또한, 예를 들어, 하나 이상의 무선 액세스 포인트들(이를테면, 도 5의 LAN-WAP들(506a-e) 및/또는 WAN-WAP들(504a-c) 중 임의의 것)로 그리고 무선 액세스 포인트들로부터 통신들을 전송 및 수신하도록 구성되는 셀룰러 모뎀 또는 무선 네트워크 라디오 수신기/송신기일 수 있거나, 무선/셀룰러 통신을 위해 구성된 임의의 다른 타입의 네트워크 노드를 갖는 무선 트랜시버(635)를 포함한다. 무선 트랜시버로 그리고 무선 트랜시버로부터의 통신은 전용 안테나(636)를 통해, 안테나(644)를 통해 또는 일부 다른 안테나를 통해 인에이블될 수 있다. 일부 실시예들에서, 모바일 디바이스(600)는 셀룰러 모뎀 및 무선 네트워크 라디오 수신기들/송신기들로서 역할을 하는 별개의 트랜시버들을 포함할 수 있다.
[0075] 적어도 하나의 방향 센서(620), 카메라들(630 및 632), SPS 수신기(640) 및 무선 트랜시버(635)는 모바일 디바이스 제어기(650)에 연결되며, 모바일 디바이스 제어기(650)와 통신한다. 제어기(650)는, 예를 들면, 적어도 하나의 방향 센서(620), 카메라들(630 및 632), SPS 수신기(640) 및/또는 무선 트랜시버(635)로부터의 데이터를 수용 및 프로세싱하고, 디바이스(600)의 다양한 온-보드 유닛들/모듈들의 동작뿐만 아니라 모바일 디바이스(600)의 일반적 동작을 제어하도록 구성된다. 예를 들면, 제어기(650)는 카메라들(630 및 632)에 의해 캡처된 하나 이상의 이미지들을 프로세싱하고, 사용자의 핸드(또는 몇몇의 다른 신체 부분)에 대응하는 캡처된 RGB 및 NIR 이미지 영역들에 기초하여 식별하고, 기하학적 특징들을 결정(예를 들면, 핸드의 핑거들과 같은 식별 가능한 특징들의 겉보기 치수들을 결정)하고 및/또는 핸드의 식별가능한 특징들에 대한 상대적인 공간적 특징들 또는 특성들을 결정하도록 구성된다. 제어기는 또한, 일부 실시예들에서, 결정된 기하학적 특징이 이전에 등록된(예를 들면, 신고된) 사용자들의 미리 기록된 특징들과 일치하는지를 결정하도록 구성되고, 따라서 현재 사용자가 모바일 디바이스(또는 몇몇의 원격 디바이스)에 대한 액세스가 승인될 수 있는 인가된 사용자인지를 결정하도록 구성될 수 있다.
[0076] 제어기(650)는, 일부 구현들에서, 프로세서(652) 및 연관된 메모리(654), 클록(653), 하드웨어(656), 소프트웨어(658) 및 펌웨어(657)를 포함할 수 있다. 모바일 디바이스 제어기(650)는, 일부 실시예들에서, 명료성을 위해 프로세서(652)로부터 개별적으로 예시되지만 프로세서(652)의 부분을 구성할 수 있는 전용 이미지 프로세싱 엔진(655)을 더 포함할 수 있다. 이미지 프로세싱 엔진(655)은 이미지를 프로세싱하고 및/또는 본원에 설명된 절차들의 동작들 중 적어도 일부를 수행하도록 구성된다.
[0077] 이제 도 7을 참조하면, 예시적 컴퓨팅 시스템(700)의 개략도가 도시된다. 본원에 설명된 디바이스들, 서버들 및/또는 시스템들(예를 들면, 도 1 및 도 5에 도시된 디바이스들, 액세스 포인트들, 또는 서버 중 어느 하나) 중 하나 이상은 예시적인 컴퓨팅 시스템(700)과 유사할 수 있는 컴퓨팅 시스템의 일부 또는 전부를 적어도 부분적으로 사용하여 실현될 수 있다.
[0078] 컴퓨팅 시스템(700)은 중앙 프로세서 유닛(712)을 전형적으로 포함하는 프로세서-기반 디바이스(710), 이를테면, 개인용 컴퓨터, 특수화된 컴퓨팅 디바이스 등을 포함한다. CPU(712)와 더불어, 시스템(700)은 메인 메모리, 캐시 메모리 및 버스 인터페이스 회로들(미도시)을 포함한다. 프로세서-기반 디바이스(710)는 대용량 저장 디바이스(714), 이를테면, 컴퓨터 시스템과 연관된 플래시 드라이브 및/또는 하드 드라이브를 포함할 수 있다. 컴퓨팅 시스템(700)은 사용자가 이들에 액세스할 수 있는 곳(예를 들어, 모바일 디바이스의 스크린)에 배치될 수 있는 키보드(716) 또는 키패드 및 모니터(720), 예를 들어, CRT(cathode ray tube) 또는 LCD(liquid crystal display) 모니터를 더 포함할 수 있다.
[0079] 프로세서-기반 디바이스(710)는, 예를 들면, 본원에 설명된 절차들의 구현을 가능하게 하도록 구성된다(일부 실시예들에서, 절차의 동작들 중 일부는 RGB 및 NIR 카메라들을 포함하는 모바일 디바이스와 같은 제 1 디바이스에서 수행될 수 있고, 반면에 절차의 동작들 중 다른 것은 모바일 디바이스와 통신하는 시스템에서 수행될 수 있다). 따라서, 대용량 저장 디바이스(714)는 프로세서-기반 디바이스(710) 상에서 실행될 때, 프로세서-기반 디바이스로 하여금, 위에서 설명된 절차들의 구현을 가능하게 하기 위한 동작들을 수행하게 하는 컴퓨터 프로그램 물건을 포함할 수 있다. 프로세서-기반 디바이스는 입력/출력 기능을 인에이블하기 위한 주변 디바이스들을 더 포함할 수 있다. 이러한 주변 디바이스들은, 예를 들어, 관련 컨텐츠를 연결된 시스템에 다운로딩하기 위한 CD-ROM 드라이브 및/또는 플래시 드라이브 또는 네트워크 연결을 포함할 수 있다. 이러한 주변 디바이스들은 또한, 각각의 시스템/디바이스의 일반적 동작을 인에이블하기 위해 컴퓨터 명령들을 포함하는 소프트웨어를 다운로딩하는데 이용될 수 있다. 대안적으로 그리고/또는 추가적으로, 일부 실시예들에서, 특수 목적의 로직 회로, 예를 들어, FPGA(field programmable gate array), DSP 프로세서, 또는 ASIC(application-specific integrated circuit)는 컴퓨팅 시스템(700)의 구현에서 이용될 수 있다. 프로세서-기반 디바이스(710)에 포함될 수 있는 다른 모듈들은 스피커들, 사운드 카드, 포인팅 디바이스, 예를 들어, 마우스 또는 트랙볼(trackball)인데, 이들에 의해 사용자가 컴퓨팅 시스템(700)에 입력을 제공할 수 있다. 프로세서-기반 디바이스(710)는 운영 시스템을 포함할 수 있다.
[0080] 컴퓨터 프로그램들(또한, 프로그램들, 소프트웨어, 소프트웨어 애플리케이션들 또는 코드로 알려져 있음)은 프로그램가능한 프로세서에 대한 기계 명령들을 포함하며, 하이-레벨 절차 및/또는 객체 지향 프로그래밍 언어로 그리고/또는 어셈블리/기계 언어로 구현될 수 있다. 본원에 이용되는 바와 같이, "기계 판독가능한 매체"라는 용어는, 기계 판독가능한 신호로서 기계 명령들을 수신하는 비-일시적 기계 판독가능한 매체를 포함하는, 기계 명령들 및/또는 데이터를 프로그램가능한 프로세서에 제공하는데 이용되는 임의의 비-일시적 컴퓨터 프로그램 물건, 장치 및/또는 디바이스(예를 들어, 자기 디스크들(magnetic discs), 광 디스크들(optical disks), 메모리, PLD(Programmable Logic Device)들)를 지칭한다.
[0081] 메모리는 프로세싱 유닛 내부에서 또는 프로세싱 유닛 외부에서 구현될 수 있다. 본원에 이용되는 바와 같이, "메모리"라는 용어는 임의의 타입의 롱 텀, 쇼트 텀, 휘발성, 비휘발성 또는 다른 메모리를 지칭하며, 임의의 특정 타입의 메모리 또는 임의의 특정 수의 메모리들 또는 메모리가 저장되는 임의의 타입의 매체들에 제한되는 것은 아니다.
[0082] 펌웨어 및/또는 소프트웨어로 구현되는 경우, 기능들은 컴퓨터 판독가능한 매체 상에 하나 이상의 명령들 또는 코드로서 저장될 수 있다. 예들은 데이터 구조를 이용하여 인코딩되는 컴퓨터 판독가능한 매체들 및 컴퓨터 프로그램을 이용하여 인코딩되는 컴퓨터 판독가능한 매체들을 포함한다. 컴퓨터 판독가능한 매체들은 물리적 컴퓨터 저장 매체들을 포함한다. 저장 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 이용가능한 매체일 수 있다. 제한이 아닌 예로서, 이러한 컴퓨터 판독가능한 매체들은 RAM, ROM, EEPROM, CD-ROM 또는 다른 광 디스크 스토리지, 자기 디스크 스토리지, 반도체 스토리지 또는 다른 저장 디바이스들, 또는 원하는 프로그램 코드를 명령들 또는 데이터 구조들의 형태로 저장하는데 이용될 수 있고, 컴퓨터에 의해 액세스될 수 있는 임의의 다른 매체를 포함할 수 있고; 본원에서 이용되는 바와 같은 디스크(disk 및 disc)는 CD(compact disc), 레이저 디스크(disc), 광 디스크(disc), DVD(digital versatile disc), 플로피 디스크(disk) 및 블루-레이 디스크(disc)를 포함하며, 여기서 디스크(disk)들은 통상적으로 데이터를 자기적으로 재생하는 반면, 디스크(disc)들은 레이저들을 이용하여 데이터를 광학적으로 재생한다. 위의 것들의 결합들은 또한, 컴퓨터 판독가능한 매체들의 범위 내에 포함되어야 한다.
[0083] 컴퓨터 판독가능한 매체 상에서의 저장과 더불어, 명령들 및/또는 데이터는 통신 장치에 포함되는 송신 매체들 상에 신호들로서 제공될 수 있다. 예를 들어, 통신 장치는 명령들 및 데이터를 표시하는 신호들을 가지는 트랜시버를 포함할 수 있다. 명령들 및 데이터는 하나 이상의 프로세싱 유닛들로 하여금 청구항들에서 약술되는 기능들을 구현하게 하도록 구성된다. 즉, 통신 장치는 개시된 기능들을 수행하기 위해 정보를 표시하는 신호들을 이용하는 송신 매체들을 포함한다. 첫 번째로, 통신 장치에 포함되는 송신 매체들은 개시된 기능들을 수행하기 위해 정보의 제 1 부분을 포함할 수 있는 한편, 두 번째로, 통신 장치에 포함되는 송신 매체들은 개시된 기능들을 수행하기 위해 정보의 제 2 부분을 포함할 수 있다.
[0084] 본원에 설명된 주제의 일부 또는 전부는, (예컨대, 데이터 서버로서의) 백-엔드 컴포넌트를 포함하거나, 또는 미들웨어 컴포넌트(예컨대, 애플리케이션 서버)를 포함하거나, 또는 프론트-엔드 컴포넌트(예컨대, 사용자가 본원에 설명된 주제의 실시예와 상호작용할 수 있는 웹 브라우저 또는 그래픽 사용자 인터페이스를 갖는 클라이언트 컴퓨터) 또는 이러한 백-엔드, 미들웨어, 또는 프론트-엔드 컴포넌트들의 임의의 조합을 포함하는 컴퓨팅 시스템에서 구현될 수 있다. 시스템의 컴포넌트들은 디지털 데이터 통신의 임의의 형태 또는 매체, 예를 들면, 통신 네트워크에 의해 상호접속될 수 있다. 통신 네트워크들의 예들은 로컬 영역 네트워크("LAN"), 광역 네트워크("WAN") 및 인터넷을 포함한다.
[0085] 컴퓨팅 시스템은 클라이언트들 및 서버들을 포함할 수 있다. 클라이언트 및 서버는 일반적으로 서로로부터 원격에 있고 그리고 통상적으로 통신 네트워크를 통해 상호작용한다. 클라이언트와 서버의 관계는 일반적으로 개별적인 컴퓨터들 상에서 구동하고 그리고 서로에 대한 클라이언트-서버 관계를 갖는 컴퓨터 프로그램들로 인해 발생한다.
[0086] 특정 실시예들이 본원에 상세하게 개시되었지만, 이것은 단지 예시를 목적으로, 예로서 행해졌으며, 다음의 첨부된 청구항들의 범위에 관련하여 제한되는 것으로 의도되지 않는다. 특히, 다양한 치환들, 변경들 및 수정들은 청구항들에 의해 정의되는 바와 같은, 본 발명의 사상 및 범위로부터 벗어나지 않으면서 이루어질 수 있다는 것이 참작된다. 다른 양상들, 이점들 및 수정들은 다음의 청구항들의 범위 내에 있는 것으로 고려된다. 제시된 청구항들은 본원에 개시된 실시예들 및 특징들을 표현한다. 다른 청구되지 않은 실시예들 및 특징들 또한 참작된다. 따라서, 다른 실시예들은 다음의 청구항들의 범위 내에 있다.

Claims (30)

  1. 방법으로서,
    사람의 핸드의 RGB 이미지를 캡처하는 단계,
    상기 핸드의 NIR(near infrared) 이미지를 캡처하는 단계, 및
    캡처된 RGB 및 NIR 이미지들에 기초하여 상기 핸드의 기하학적 특징들을 결정하는 단계를 포함하는,
    방법.
  2. 제 1 항에 있어서,
    캡처된 RGB 이미지와 캡처된 NIR 이미지를 정렬하는 단계를 더 포함하는,
    방법.
  3. 제 1 항에 있어서,
    상기 핸드의 기하학적 특징들을 결정하는 단계는,
    캡처된 RGB 이미지로부터의 RGB 이미지 데이터 및 캡처된 NIR 이미지로부터의 NIR 이미지 데이터에 기초하여 상기 핸드에 대한 이미지 데이터를 추출하는 단계를 포함하는,
    방법.
  4. 제 3 항에 있어서,
    상기 핸드에 대한 이미지 데이터를 추출하는 단계는,
    캡처된 RGB 이미지의 적어도 하나의 픽셀에 대한 각각의 RGB 픽셀 값 및 캡처된 NIR 이미지의 대응하는 픽셀에 대한 각각의 NIR 픽셀 값에 기초하여 상기 적어도 하나의 픽셀 각각에 대한 제 1 값 및 제 2 값을 계산하는 단계, 및
    캡처된 RGB 이미지의 적어도 하나의 픽셀로부터의 특정 픽셀에 대한 제 1 값이 제 1 미리 결정된 값 범위 내에 있고, 제 2 값이 제 2 미리 결정된 값 범위 내에 있을 때, 상기 특정 픽셀이 상기 핸드에 대응한다고 결정하는 단계를 포함하는,
    방법.
  5. 제 4 항에 있어서,
    상기 제 1 값(r1) 및 상기 제 2 값(r2)은 다음의 식에 따라 계산되는 특정 픽셀에 대한 스킨 컬러 표시자들이고,
    Figure pct00012

    Figure pct00013

    여기서 ρ는 반사 레이트를 표기하고, λ는 파장을 표기하는,
    방법.
  6. 제 3 항에 있어서,
    상기 기하학적 특징들을 결정하는 단계는,
    상기 핸드에 대한 추출된 이미지 데이터로부터 상기 핸드에 대한 상대적인 공간적 특징들을 나타내는 하나 이상의 값들을 결정하는 단계를 포함하는,
    방법.
  7. 제 6 항에 있어서,
    상기 상대적인 공간적 특징들은 상기 핸드에 대한 추출된 이미지 데이터에서 제 1 쌍의 2 개의 핑거들 사이의 각도, 또는 상기 핸드에 대한 추출된 이미지 데이터에서 제 2 쌍의 핑거들에 대한 상대적인 거리 또는 길이 중 하나 이상을 포함하는,
    방법.
  8. 제 1 항에 있어서,
    상기 핸드의 결정된 기하학적 특징들에 기초하여 사람의 아이덴티티를 결정하는 단계를 더 포함하는,
    방법.
  9. 제 8 항에 있어서,
    상기 핸드의 결정된 기하학적 특징들에 기초하여 사람의 아이덴티티를 결정하는 단계는,
    상기 핸드의 결정된 기하학적 특징들을 나타내는 값들과 저장된 기록들 내의 값들을 비교하는 단계를 포함하고,
    각각의 기록은 이전에 포착된 핸드 이미지들 각각에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 각각의 대응하는 기록 값들을 포함하는,
    방법.
  10. 제 9 항에 있어서,
    상기 핸드의 결정된 기하학적 특징들을 나타내는 값들과 저장된 기록들 내의 값들을 비교하는 단계는,
    상기 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부와, 상기 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부 사이의 차이에 대한 표준 편차를 계산하는 단계,
    상기 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부와, 상기 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부 사이의 차이에 대한 평균 값을 계산하는 단계, 및
    계산된 표준 편차와 미리 결정된 표준 편차 임계치의 제 1 비교에 기초하여, 그리고 계산된 평균과 미리 결정된 평균 임계치의 제 2 비교에 기초하여, 상기 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부와, 상기 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부 사이에 일치가 존재하는지를 결정하는 단계를 포함하는,
    방법.
  11. 제 10 항에 있어서,
    상기 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부와, 상기 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부 사이에 일치가 존재하는지를 결정하는 단계는,
    상기 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부와, 상기 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부 사이의 차이에 대한 계산된 표준 편차가 상기 표준 편차 임계치 미만이고, 상기 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부와, 상기 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부 사이의 차이에 대한 계산된 평균이 상기 평균 임계치 미만일 때, 또는
    상기 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부와, 상기 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부 사이의 차이에 대한 계산된 표준 편차가 상기 표준 편차 임계치보다 높거나 이와 동일하고, 상기 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부와, 상기 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부 사이의 차이에 대한 계산된 평균이 상기 평균 임계치보다 더 작은 제 2 평균 임계치 미만일 때,
    상기 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부가 상기 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부와 일치한다고 결정하는 단계를 포함하는,
    방법.
  12. 제 10 항에 있어서,
    상기 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부와, 상기 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부 사이에 일치가 존재한다는 결정에 응답하여 상기 사람이 컴퓨팅 디바이스에 액세스하는 것을 가능하게 하는 단계를 더 포함하는,
    방법.
  13. 디바이스로서,
    RGB 이미지 캡처링 유닛,
    NIR(near infrared) 이미지 캡처링 유닛,
    하나 이상의 프로세서들, 및
    컴퓨터 명령들을 포함하는 저장 매체들을 포함하고,
    상기 컴퓨터 명령들은, 상기 하나 이상의 프로세서들 상에서 실행될 때, 동작들을 발생시키고, 상기 동작들은,
    상기 RGB 이미지 캡처링 유닛을 통해 사람의 핸드의 RGB 이미지를 캡처하는 동작,
    상기 NIR 이미지 캡처링 유닛을 통해 상기 핸드의 NIR 이미지를 캡처하는 동작, 및
    캡처된 RGB 및 NIR 이미지들에 기초하여 상기 핸드의 기하학적 특징들을 결정하는 동작을 포함하는,
    디바이스.
  14. 제 13 항에 있어서,
    상기 핸드의 기하학적 특징들을 결정하는 동작은,
    캡처된 RGB 이미지로부터의 RGB 이미지 데이터 및 캡처된 NIR 이미지로부터의 NIR 이미지 데이터에 기초하여 상기 핸드에 대한 이미지 데이터를 추출하는 동작을 포함하고, 상기 추출하는 동작은,
    캡처된 RGB 이미지의 적어도 하나의 픽셀에 대한 각각의 RGB 픽셀 값 및 캡처된 NIR 이미지의 대응하는 픽셀에 대한 각각의 NIR 픽셀 값에 기초하여 상기 적어도 하나의 픽셀 각각에 대한 제 1 값 및 제 2 값을 계산하는 동작, 및
    캡처된 RGB 이미지의 적어도 하나의 픽셀로부터의 특정 픽셀에 대한 상기 제 1 값이 제 1 미리 결정된 값 범위 내에 있고, 상기 제 2 값이 제 2 미리 결정된 값 범위 내에 있을 때, 상기 특정 픽셀이 상기 핸드에 대응한다고 결정하는 동작을 포함하는,
    디바이스.
  15. 제 14 항에 있어서,
    상기 제 1 값(r1) 및 상기 제 2 값(r2)은 다음의 식에 따라 계산되는 특정 픽셀에 대한 스킨 컬러 표시자들이고,
    Figure pct00014

    Figure pct00015

    여기서 ρ는 반사 레이트를 표기하고, λ는 파장을 표기하는,
    디바이스.
  16. 제 14 항에 있어서,
    상기 기하학적 특징들을 결정하는 동작은,
    상기 핸드에 대한 추출된 이미지 데이터로부터 상기 핸드에 대한 상대적인 공간적 특징들을 나타내는 하나 이상의 값들을 결정하는 동작을 포함하고,
    상기 상대적인 공간적 특징들은 상기 핸드에 대한 추출된 이미지 데이터에서 제 1 쌍의 2 개의 핑거들 사이의 각도, 또는 상기 핸드에 대한 추출된 이미지 데이터에서 제 2 쌍의 핑거들에 대한 상대적인 거리 또는 길이 중 하나 이상을 포함하는,
    디바이스.
  17. 제 13 항에 있어서,
    상기 동작들은 상기 핸드의 결정된 기하학적 특징들에 기초하여 사람의 아이덴티티를 결정하는 동작을 더 포함하고,
    상기 아이덴티티를 결정하는 동작은,
    상기 핸드의 결정된 기하학적 특징들을 나타내는 값들과 저장된 기록들 내의 값들을 비교하는 동작을 포함하고,
    각각의 기록은 이전에 포착된 핸드 이미지들 각각에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 각각의 대응하는 기록 값들을 포함하는,
    디바이스.
  18. 제 17 항에 있어서,
    상기 핸드의 결정된 기하학적 특징들을 나타내는 값들과 저장된 기록들 내의 값들을 비교하는 동작은,
    상기 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부와, 상기 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부 사이의 차이에 대한 표준 편차를 계산하는 동작,
    상기 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부와, 상기 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부 사이의 차이에 대한 평균 값을 계산하는 동작, 및
    계산된 표준 편차와 미리 결정된 표준 편차 임계치의 제 1 비교에 기초하여, 그리고 계산된 평균과 미리 결정된 평균 임계치의 제 2 비교에 기초하여, 상기 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부와, 상기 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부 사이에 일치가 존재하는지를 결정하는 동작을 포함하는,
    디바이스.
  19. 장치로서,
    사람의 핸드의 RGB 이미지를 캡처하기 위한 수단,
    상기 핸드의 NIR(near infrared) 이미지를 캡처하기 위한 수단, 및
    캡처된 RGB 및 NIR 이미지들에 기초하여 상기 핸드의 기하학적 특징들을 결정하기 위한 수단을 포함하는,
    장치.
  20. 제 19 항에 있어서,
    상기 핸드의 기하학적 특징들을 결정하기 위한 수단은,
    캡처된 RGB 이미지로부터의 RGB 이미지 데이터 및 캡처된 NIR 이미지로부터의 NIR 이미지 데이터에 기초하여 상기 핸드에 대한 이미지 데이터를 추출하기 위한 수단을 포함하고, 상기 추출하기 위한 수단은,
    캡처된 RGB 이미지의 적어도 하나의 픽셀에 대한 각각의 RGB 픽셀 값 및 캡처된 NIR 이미지의 대응하는 픽셀에 대한 각각의 NIR 픽셀 값에 기초하여 상기 적어도 하나의 픽셀 각각에 대한 제 1 값 및 제 2 값을 계산하기 위한 수단, 및
    캡처된 RGB 이미지의 적어도 하나의 픽셀로부터의 특정 픽셀에 대한 상기 제 1 값이 제 1 미리 결정된 값 범위 내에 있고, 상기 제 2 값이 제 2 미리 결정된 값 범위 내에 있을 때, 상기 특정 픽셀이 상기 핸드에 대응한다고 결정하기 위한 수단을 포함하는,
    장치.
  21. 제 20 항에 있어서,
    상기 제 1 값(r1) 및 상기 제 2 값(r2)은 다음의 식에 따라 계산되는 특정 픽셀에 대한 스킨 컬러 표시자들이고,
    Figure pct00016

    Figure pct00017

    여기서 ρ는 반사 레이트를 표기하고, λ는 파장을 표기하는,
    장치.
  22. 제 19 항에 있어서,
    상기 기하학적 특징들을 결정하기 위한 수단은,
    상기 핸드에 대한 추출된 이미지 데이터로부터 상기 핸드에 대한 상대적인 공간적 특징들을 나타내는 하나 이상의 값들을 결정하기 위한 수단을 포함하고,
    상기 상대적인 공간적 특징들은 상기 핸드에 대한 추출된 이미지 데이터에서 제 1 쌍의 2 개의 핑거들 사이의 각도, 또는 상기 핸드에 대한 추출된 이미지 데이터에서 제 2 쌍의 핑거들에 대한 상대적인 거리 또는 길이 중 하나 이상을 포함하는,
    장치.
  23. 제 19 항에 있어서,
    상기 핸드의 결정된 기하학적 특징들에 기초하여 사람의 아이덴티티를 결정하기 위한 수단을 더 포함하고,
    상기 아이덴티티를 결정하기 위한 수단은,
    상기 핸드의 결정된 기하학적 특징들을 나타내는 값들과 저장된 기록들 내의 값들을 비교하기 위한 수단을 포함하고,
    각각의 기록은 이전에 포착된 핸드 이미지들 각각에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 각각의 대응하는 기록 값들을 포함하는,
    장치.
  24. 제 23 항에 있어서,
    상기 핸드의 결정된 기하학적 특징들을 나타내는 값들과 저장된 기록들 내의 값들을 비교하기 위한 수단은,
    상기 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부와, 상기 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부 사이의 차이에 대한 표준 편차를 계산하기 위한 수단,
    상기 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부와, 상기 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부 사이의 차이에 대한 평균 값을 계산하기 위한 수단, 및
    계산된 표준 편차와 미리 결정된 표준 편차 임계치의 제 1 비교에 기초하여, 그리고 계산된 평균과 미리 결정된 평균 임계치의 제 2 비교에 기초하여, 상기 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부와, 상기 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부 사이에 일치가 존재하는지를 결정하기 위한 수단을 포함하는,
    장치.
  25. 프로세서 상에서 실행 가능한 컴퓨터 명령들로 프로그래밍된 비일시적인 프로세서 판독 가능 매체들로서,
    상기 컴퓨터 명령들은, 실행될 때,
    사람의 핸드의 RGB 이미지를 캡처하는 동작,
    상기 핸드의 NIR(near infrared) 이미지를 캡처하는 동작, 및
    캡처된 RGB 및 NIR 이미지들에 기초하여 상기 핸드의 기하학적 특징들을 결정하는 동작을 포함하는 동작들을 발생시키는,
    비일시적인 프로세서 판독 가능 매체들.
  26. 제 25 항에 있어서,
    상기 핸드의 기하학적 특징들을 결정하는 동작은,
    캡처된 RGB 이미지로부터의 RGB 이미지 데이터 및 캡처된 NIR 이미지로부터의 NIR 이미지 데이터에 기초하여 상기 핸드에 대한 이미지 데이터를 추출하는 동작을 포함하고, 상기 추출하는 동작은,
    캡처된 RGB 이미지의 적어도 하나의 픽셀에 대한 각각의 RGB 픽셀 값 및 캡처된 NIR 이미지의 대응하는 픽셀에 대한 각각의 NIR 픽셀 값에 기초하여 상기 적어도 하나의 픽셀 각각에 대한 제 1 값 및 제 2 값을 계산하는 동작, 및
    캡처된 RGB 이미지의 적어도 하나의 픽셀로부터의 특정 픽셀에 대한 제 1 값이 제 1 미리 결정된 값 범위 내에 있고, 제 2 값이 제 2 미리 결정된 값 범위 내에 있을 때, 상기 특정 픽셀이 상기 핸드에 대응한다고 결정하는 동작을 포함하는,
    비일시적인 프로세서 판독 가능 매체들.
  27. 제 26 항에 있어서,
    상기 제 1 값(r1) 및 상기 제 2 값(r2)은 다음의 식에 따라 계산되는 특정 픽셀에 대한 스킨 컬러 표시자들이고,
    Figure pct00018

    Figure pct00019

    여기서 ρ는 반사 레이트를 표기하고, λ는 파장을 표기하는,
    비일시적인 프로세서 판독 가능 매체들.
  28. 제 26 항에 있어서,
    상기 기하학적 특징들을 결정하는 동작은,
    상기 핸드에 대한 추출된 이미지 데이터로부터 상기 핸드에 대한 상대적인 공간적 특징들을 나타내는 하나 이상의 값들을 결정하는 동작을 포함하고,
    상기 상대적인 공간적 특징들은 상기 핸드에 대한 추출된 이미지 데이터에서 제 1 쌍의 2 개의 핑거들 사이의 각도, 또는 상기 핸드에 대한 추출된 이미지 데이터에서 제 2 쌍의 핑거들에 대한 상대적인 거리 또는 길이 중 하나 이상을 포함하는,
    비일시적인 프로세서 판독 가능 매체들.
  29. 제 25 항에 있어서,
    상기 컴퓨터 명령들은, 실행될 때,
    상기 핸드의 결정된 기하학적 특징들에 기초하여 사람의 아이덴티티를 결정하는 동작을 포함하는 추가의 동작들을 발생시키는 명령들을 더 포함하고,
    상기 아이덴티티를 결정하는 동작은,
    상기 핸드의 결정된 기하학적 특징들을 나타내는 값들과 저장된 기록들 내의 값들을 비교하는 동작을 포함하고,
    각각의 기록은 이전에 포착된 핸드 이미지들 각각에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 각각의 대응하는 기록 값들을 포함하는,
    비일시적인 프로세서 판독 가능 매체들.
  30. 제 29 항에 있어서,
    상기 핸드의 결정된 기하학적 특징들을 나타내는 값들과 저장된 기록들 내의 값들을 비교하는 동작은,
    상기 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부와, 상기 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부 사이의 차이에 대한 표준 편차를 계산하는 동작,
    상기 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부와, 상기 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부 사이의 차이에 대한 평균 값을 계산하는 동작, 및
    계산된 표준 편차와 미리 결정된 표준 편차 임계치의 제 1 비교에 기초하여, 그리고 계산된 평균과 미리 결정된 평균 임계치의 제 2 비교에 기초하여, 상기 핸드의 결정된 기하학적 특징들을 나타내는 값들 중 적어도 일부와, 상기 이전에 포착된 핸드 이미지들 중 하나에 대한 이미지 데이터로부터 결정된 기하학적 특징들을 나타내는 대응하는 기록 값들 중 적어도 일부 사이에 일치가 존재하는지를 결정하는 동작을 포함하는,
    비일시적인 프로세서 판독 가능 매체들.
KR1020167004708A 2013-08-02 2014-07-10 Rgb―nir 카메라 쌍을 사용하는 특징 식별 KR20160040230A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361861915P 2013-08-02 2013-08-02
US61/861,915 2013-08-02
US14/168,267 2014-01-30
US14/168,267 US9996726B2 (en) 2013-08-02 2014-01-30 Feature identification using an RGB-NIR camera pair
PCT/US2014/046071 WO2015017099A1 (en) 2013-08-02 2014-07-10 Feature identification using an rgb-nir camera pair

Publications (1)

Publication Number Publication Date
KR20160040230A true KR20160040230A (ko) 2016-04-12

Family

ID=52427305

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167004708A KR20160040230A (ko) 2013-08-02 2014-07-10 Rgb―nir 카메라 쌍을 사용하는 특징 식별

Country Status (6)

Country Link
US (1) US9996726B2 (ko)
EP (1) EP3028217A1 (ko)
JP (1) JP2016528627A (ko)
KR (1) KR20160040230A (ko)
CN (1) CN105393262B (ko)
WO (1) WO2015017099A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190089387A (ko) * 2018-01-22 2019-07-31 삼성전자주식회사 라이브니스 검사 방법 및 장치

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10452894B2 (en) 2012-06-26 2019-10-22 Qualcomm Incorporated Systems and method for facial verification
JP6160148B2 (ja) * 2013-03-19 2017-07-12 富士通株式会社 生体情報入力装置、生体情報入力プログラム、生体情報入力方法
JP6241230B2 (ja) * 2013-11-28 2017-12-06 富士通株式会社 生体情報判定装置及びプログラム
CN107873101B (zh) 2014-11-21 2022-01-11 克里斯多夫·M·马蒂 用于对象辨识和评估的成像系统
DE102015202922A1 (de) * 2015-02-18 2016-08-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum kamerabasierten Berechnen eines Längenverhältnisses von Fingern einer Hand
US10649536B2 (en) * 2015-11-24 2020-05-12 Intel Corporation Determination of hand dimensions for hand and gesture recognition with a computing interface
US9958951B1 (en) * 2016-09-12 2018-05-01 Meta Company System and method for providing views of virtual content in an augmented reality environment
CN106572289B (zh) * 2016-10-21 2019-08-20 维沃移动通信有限公司 一种摄像头模组的图像处理方法和移动终端
CN106657725B (zh) * 2016-10-21 2019-10-18 维沃移动通信有限公司 一种摄像头模组的图像处理方法和移动终端
CN106572290B (zh) * 2016-10-21 2019-08-20 维沃移动通信有限公司 一种图像数据的处理方法和移动终端
CN106657726B (zh) * 2016-10-21 2019-10-18 维沃移动通信有限公司 一种摄像头模组的图像处理方法和移动终端
RU2769652C2 (ru) * 2017-05-16 2022-04-04 Албертус Баренд ГЕЛДЕНХЕЙС Обработка мельчайших деталей цифровых данных для анализа культурных артефактов
TWI658411B (zh) * 2018-02-26 2019-05-01 關鍵禾芯科技股份有限公司 無方向性之手指掌紋辨識方法及無方向性之手指掌紋資料建立方法
US10769406B2 (en) * 2018-03-18 2020-09-08 Keycore Technology Corp. Non-directional fingerprint and palmprint identification method and non-directional fingerprint and palmprint data creation method
WO2020024603A1 (zh) * 2018-08-01 2020-02-06 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
CN111611977B (zh) * 2020-06-05 2021-10-15 吉林求是光谱数据科技有限公司 基于光谱与多波段融合的人脸识别监控系统及识别方法
CN112530133B (zh) * 2020-11-22 2022-08-09 李绪明 一种用于识别注射器的装置及方法

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2823564B2 (ja) 1988-05-27 1998-11-11 日本電信電話株式会社 生物体検知装置
US6496594B1 (en) 1998-10-22 2002-12-17 Francine J. Prokoski Method and apparatus for aligning and comparing images of the face and body from different imagers
US6424727B1 (en) 1998-11-25 2002-07-23 Iridian Technologies, Inc. System and method of animal identification and animal transaction authorization using iris patterns
US6820979B1 (en) 1999-04-23 2004-11-23 Neuroptics, Inc. Pupilometer with pupil irregularity detection, pupil tracking, and pupil response detection capability, glaucoma screening capability, intracranial pressure detection capability, and ocular aberration measurement capability
US6920236B2 (en) 2001-03-26 2005-07-19 Mikos, Ltd. Dual band biometric identification system
US7027619B2 (en) 2001-09-13 2006-04-11 Honeywell International Inc. Near-infrared method and system for use in face detection
US7469160B2 (en) * 2003-04-18 2008-12-23 Banks Perry S Methods and apparatus for evaluating image focus
JP4387643B2 (ja) 2002-07-31 2009-12-16 富士通株式会社 個人認識機能付き処理装置
US8190239B2 (en) 2002-09-03 2012-05-29 Fujitsu Limited Individual identification device
US7460696B2 (en) 2004-06-01 2008-12-02 Lumidigm, Inc. Multispectral imaging biometrics
GB0316631D0 (en) 2003-07-16 2003-08-20 Omniperception Ltd Facial liveness assessment system
US7379567B2 (en) 2003-07-17 2008-05-27 Matsushita Electric Industrial Co., Ltd. Iris code generation method, individual authentication method, iris code entry device, individual authentication device, and individual certification program
JP4254418B2 (ja) * 2003-08-18 2009-04-15 Kddi株式会社 個人認証装置及び方法並びに携帯通信端末
JP4470434B2 (ja) 2003-10-06 2010-06-02 富士ゼロックス株式会社 動作識別装置、及び対象物の姿勢識別装置
FR2864290B1 (fr) 2003-12-18 2006-05-26 Sagem Procede et dispositif de reconnaissance d'iris
KR100682898B1 (ko) 2004-11-09 2007-02-15 삼성전자주식회사 적외선을 이용한 영상 장치 및 그의 영상 식별 방법
US7469060B2 (en) 2004-11-12 2008-12-23 Honeywell International Inc. Infrared face detection and recognition system
US7602942B2 (en) 2004-11-12 2009-10-13 Honeywell International Inc. Infrared and visible fusion face recognition system
EP2083259A1 (en) 2004-12-07 2009-07-29 Clean Earth Technologies, Llc Method and apparatus for standoff detection of liveness
JPWO2006088042A1 (ja) 2005-02-16 2008-07-03 松下電器産業株式会社 生体判別装置および認証装置ならびに生体判別方法
JP4696610B2 (ja) 2005-03-15 2011-06-08 オムロン株式会社 被写体認証装置、顔認証装置、携帯電話、及び被写体認証方法
US8260008B2 (en) 2005-11-11 2012-09-04 Eyelock, Inc. Methods for performing biometric recognition of a human eye and corroboration of same
US20070248330A1 (en) 2006-04-06 2007-10-25 Pillman Bruce H Varying camera self-determination based on subject motion
CN101506826A (zh) * 2006-07-19 2009-08-12 光谱辨识公司 多重生物测定多谱成像器
US7801339B2 (en) 2006-07-31 2010-09-21 Lumidigm, Inc. Biometrics with spatiospectral spoof detection
EP2076871A4 (en) 2006-09-22 2015-09-16 Eyelock Inc COMPACT BIOMETRIC DETECTION SYSTEM AND CORRESPONDING METHOD
US8953849B2 (en) 2007-04-19 2015-02-10 Eyelock, Inc. Method and system for biometric recognition
US20090060286A1 (en) 2007-09-04 2009-03-05 General Electric Company Identification system and method utilizing iris imaging
US8782775B2 (en) * 2007-09-24 2014-07-15 Apple Inc. Embedded authentication systems in an electronic device
US8411910B2 (en) 2008-04-17 2013-04-02 Biometricore, Inc. Computationally efficient feature extraction and matching iris recognition
US8345936B2 (en) 2008-05-09 2013-01-01 Noblis, Inc. Multispectral iris fusion for enhancement and interoperability
FR2931979B1 (fr) * 2008-06-02 2014-02-28 Advanced Track & Trace Procede et dispositif d'identification d'une plaque d'impression d'un document
CN101404060B (zh) 2008-11-10 2010-06-30 北京航空航天大学 一种基于可见光与近红外Gabor信息融合的人脸识别方法
JP4702441B2 (ja) 2008-12-05 2011-06-15 ソニー株式会社 撮像装置及び撮像方法
US8374404B2 (en) 2009-02-13 2013-02-12 Raytheon Company Iris recognition using hyper-spectral signatures
US8503778B2 (en) 2009-05-14 2013-08-06 National University Of Singapore Enhancing photograph visual quality using texture and contrast data from near infra-red images
JP2011243862A (ja) 2010-05-20 2011-12-01 Sony Corp 撮像デバイス及び撮像装置
US8408821B2 (en) 2010-10-12 2013-04-02 Omnivision Technologies, Inc. Visible and infrared dual mode imaging system
CN101964056B (zh) 2010-10-26 2012-06-27 徐勇 一种具有活体检测功能的双模态人脸认证方法和系统
US8897522B2 (en) * 2012-05-30 2014-11-25 Xerox Corporation Processing a video for vascular pattern detection and cardiac function analysis
US10452894B2 (en) 2012-06-26 2019-10-22 Qualcomm Incorporated Systems and method for facial verification
US8411909B1 (en) 2012-06-26 2013-04-02 Google Inc. Facial recognition
WO2014028911A2 (en) 2012-08-16 2014-02-20 Potter Darrel V Structure formed from panels joined with universal clamping brackets
US20170091550A1 (en) 2014-07-15 2017-03-30 Qualcomm Incorporated Multispectral eye analysis for identity authentication
US20160019420A1 (en) 2014-07-15 2016-01-21 Qualcomm Incorporated Multispectral eye analysis for identity authentication
US20160019421A1 (en) 2014-07-15 2016-01-21 Qualcomm Incorporated Multispectral eye analysis for identity authentication

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190089387A (ko) * 2018-01-22 2019-07-31 삼성전자주식회사 라이브니스 검사 방법 및 장치

Also Published As

Publication number Publication date
US9996726B2 (en) 2018-06-12
WO2015017099A1 (en) 2015-02-05
JP2016528627A (ja) 2016-09-15
CN105393262A (zh) 2016-03-09
CN105393262B (zh) 2018-11-13
US20150035961A1 (en) 2015-02-05
EP3028217A1 (en) 2016-06-08

Similar Documents

Publication Publication Date Title
US9996726B2 (en) Feature identification using an RGB-NIR camera pair
US11263475B2 (en) Incremental learning for dynamic feature database management in an object recognition system
US9672406B2 (en) Touchless fingerprinting acquisition and processing application for mobile devices
US10198645B2 (en) Preventing face-based authentication spoofing
US9690998B2 (en) Facial spoofing detection in image based biometrics
EP3072106B1 (en) Detection of an object's varying features with a non-stationary device
US9697415B2 (en) Recording medium, image processing method, and information terminal
WO2019071664A1 (zh) 结合深度信息的人脸识别方法、装置及存储介质
US8427536B2 (en) Orientation determination of a mobile station using side and top view images
US9095285B2 (en) Portable biometric identification device using a dorsal hand vein pattern
JP2019509545A (ja) 生きた人の顔検証方法およびデバイス
US20150366487A1 (en) Portable Biometric Identification Device Using a Dorsal Hand Vein Pattern
JP6588413B2 (ja) 監視装置および監視方法
JP6216353B2 (ja) 情報特定システム、情報特定方法及び、そのプログラム
KR20180108628A (ko) 사용자의 생체측정을 분석하기 위한 방법 및 지문감지 시스템
US11048915B2 (en) Method and a device for detecting fraud by examination using two different focal lengths during automatic face recognition
CN109447000B (zh) 活体检测方法、污渍检测方法、电子设备及记录介质
JP2018081424A (ja) 画像処理装置および画像処理方法
US9684831B2 (en) Adaptive edge-like feature selection during object detection
CN108416273A (zh) 一种快速人脸识别系统及其识别方法

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right