TW201643761A - 活體檢測方法和裝置以及身分認證方法和裝置 - Google Patents
活體檢測方法和裝置以及身分認證方法和裝置 Download PDFInfo
- Publication number
- TW201643761A TW201643761A TW104142722A TW104142722A TW201643761A TW 201643761 A TW201643761 A TW 201643761A TW 104142722 A TW104142722 A TW 104142722A TW 104142722 A TW104142722 A TW 104142722A TW 201643761 A TW201643761 A TW 201643761A
- Authority
- TW
- Taiwan
- Prior art keywords
- biometric information
- user
- coordinate system
- screen
- target position
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/08—Network architectures or network communication protocols for network security for authentication of entities
- H04L63/0861—Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/60—Static or dynamic means for assisting the user to position a body part for biometric acquisition
- G06V40/67—Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
Abstract
本發明提出一種活體檢測方法和裝置及身分認證方法和裝置,該活體檢測方法包括終端採集用戶的生物特徵資訊,並將該生物特徵資訊顯示在終端螢幕的初始位置上;根據該初始位置,確定目標位置,並在該螢幕上顯示該目標位置;提示該用戶移動該生物特徵資訊,以使該生物特徵資訊在該螢幕上的顯示位置從該初始位置向該目標位置移動;檢測移動後的生物特徵資訊在該螢幕上的顯示位置,並根據該顯示位置與該目標位置之間的關係,判斷該用戶是否為活體。該方法能夠識別出用戶是否為活體,從而在用戶登錄時只對活體的生物特徵資訊進行驗證,提高安全性。
Description
本發明關於安全驗證技術領域,尤其關於一種活體檢測方法和裝置以及身分認證方法和裝置。
傳統的身分認證方式是採用帳號密碼方式,但這種方式密碼容易遺忘且容易被洩露,因此,傳統的基於密碼的方式面臨越來越多的問題。以指紋,人臉為代表的生物識別技術正在很多場合替代傳統密碼方式,但是,以人臉驗證為例,不法者可能以圖片等進行冒充,因此,現有的生物識別技術也存在安全隱患。
本發明旨在至少在一定程度上解決相關技術中的技術問題之一。
為此,本發明的一個目的在於提出一種活體檢測方法,該方法可以識別出用戶是否為活體,從而在用戶身分認證時只對活體的生物特徵資訊進行驗證,提高安全性。
本發明的另一個目的在於提出一種身分認證方法,該
方法可以提高認證時的安全性。
本發明的另一個目的在於提出一種活體檢測裝置。
本發明的另一個目的在於提出一種身分認證裝置。
為達到上述目的,本發明第一方面實施例提出的活體檢測方法,包括:終端採集用戶的生物特徵資訊,並將該生物特徵資訊顯示在終端螢幕的初始位置上;根據該初始位置,確定目標位置,並在該螢幕上顯示該目標位置;提示該用戶移動該生物特徵資訊,以使該生物特徵資訊在所述螢幕上的顯示位置從所述初始位置向所述目標位置移動;檢測移動後的生物特徵資訊在所述螢幕上的顯示位置,並根據所述顯示位置與所述目標位置之間的關係,判斷所述用戶是否為活體。
本發明第一方面實施例提出的活體檢測方法,透過將生物特徵資訊映射到螢幕的顯示位置上,並根據顯示位置和目標位置之間的關係可以識別出用戶是否為活體,從而在用戶身分認證時只對活體的生物特徵資訊進行驗證,提高安全性。
為達到上述目的,本發明第二方面實施例提出的身分認證方法,包括:接收到用戶的身分認證指令後,終端採集所述用戶的生物特徵資訊;根據採集的所述生物特徵資訊,判斷所述用戶是否為活體;若是,發送所述用戶的生物特徵資訊給認證伺服器;接收所述認證伺服器發送的身分認證結果,所述身分認證結果是所述認證伺服器對所述生物特徵資訊及預先儲存的與所述用戶對應的生物特徵資
訊進行比對後發送的;其中,所述判斷所述用戶是否為活體,具體包括:將採集的所述用戶的生物特徵資訊顯示在終端螢幕的初始位置上;根據所述初始位置,確定目標位置,並在所述螢幕上顯示所述目標位置;提示所述用戶移動所述生物特徵資訊,以使所述生物特徵資訊在所述螢幕上的顯示位置從所述初始位置向所述目標位置移動;檢測移動後的生物特徵資訊在所述螢幕上的顯示位置,並根據所述顯示位置與所述目標位置之間的關係,判斷所述用戶是否為活體。
本發明第二方面實施例提出的身分認證方法,透過在身分認證之前先進行活體檢測,可以在用戶是活體時才進行進一步驗證,避免用照片等形式進行驗證資訊的冒用,從而提高認證時的安全性。
為達到上述目的,本發明第三方面實施例提出的活體檢測裝置,包括:第一顯示模組,用於採集用戶的生物特徵資訊,並將所述生物特徵資訊顯示在終端螢幕的初始位置上;第二顯示模組,用於根據所述初始位置,確定目標位置,並在所述螢幕上顯示所述目標位置;提示模組,用於提示所述用戶移動所述生物特徵資訊,以使所述生物特徵資訊在所述螢幕上的顯示位置從所述初始位置向所述目標位置移動;判斷模組,用於檢測移動後的生物特徵資訊在所述螢幕上的顯示位置,並根據所述顯示位置與所述目標位置之間的關係,判斷所述用戶是否為活體。
本發明第三方面實施例提出的活體檢測裝置,透過將
生物特徵資訊映射到螢幕的顯示位置上,並根據顯示位置和目標位置之間的關係可以識別出用戶是否為活體,從而在用戶身分認證時只對活體的生物特徵資訊進行驗證,提高安全性。
為達到上述目的,本發明第四方面實施例提出的身分認證裝置,包括:獲取模組,用於接收到用戶的身分認證指令後,採集所述用戶的生物特徵資訊;判斷模組,用於根據採集的所述生物特徵資訊,判斷所述用戶是否為活體;發送模組,用於在所述判斷模組判斷出所述用戶是活體後,發送所述用戶的生物特徵資訊給認證伺服器;接收模組,用於接收所述認證伺服器發送的身分認證結果,所述身分認證結果是所述認證伺服器對所述生物特徵資訊及預先儲存的與所述用戶對應的生物特徵資訊進行比對後發送的;其中,所述判斷模組具體用於:將採集的所述用戶的生物特徵資訊顯示在終端螢幕的初始位置上;根據所述初始位置,確定目標位置,並在所述螢幕上顯示所述目標位置;提示所述用戶移動所述生物特徵資訊,以使所述生物特徵資訊在所述螢幕上的顯示位置從所述初始位置向所述目標位置移動;檢測移動後的生物特徵資訊在所述螢幕上的顯示位置,並根據所述顯示位置與所述目標位置之間的關係,判斷所述用戶是否為活體。
本發明第四方面實施例提出的身分認證裝置,透過在身分認證之前先進行顯示位置與目標位置之間的匹配,可以在用戶是活體時才進行進一步驗證,避免用照片等形式
進行驗證資訊的冒用,從而提高認證時的安全性。
本發明附加的方面和優點將在下面的描述中部分給出,部分將從下面的描述中變得明顯,或透過本發明的實踐瞭解到。
S11,S12,S13,S14‧‧‧方法步驟
S31,S32,S33‧‧‧方法步驟
S51,S52,S53,S54‧‧‧方法步驟
S71,S72,S73,S74‧‧‧方法步驟
S81,S82,S83,S84‧‧‧方法步驟
90‧‧‧裝置
91‧‧‧第一顯示模組
92‧‧‧第二顯示模組
93‧‧‧提示模組
100‧‧‧裝置
101‧‧‧獲取模組
94,102‧‧‧判斷模組
103‧‧‧發送模組
104‧‧‧接收模組
本發明上述的和/或附加的方面和優點從下面結合附圖對實施例的描述中將變得明顯和容易理解,其中:圖1是本發明一實施例提出的活體檢測方法的流程示意圖;圖2是本發明實施例中第一座標系的示意圖;圖3是本發明實施例中將生物特徵資訊顯示在終端螢幕的初始位置的流程示意圖;圖4是本發明實施例中第二座標系的示意圖;圖5是本發明實施例中根據初始位置確定目標位置的流程示意圖;圖6是本發明實施例中初始人臉位置與目標人臉位置的示意圖;圖7是本發明另一實施例提出的身分認證方法的流程示意圖;圖8是本發明另一實施例提出的身分認證方法的流程示意圖;圖9是本發明另一實施例提出的活體檢測裝置的結構示意圖;
圖10是本發明另一實施例提出的身分認證裝置的結構示意圖。
下面詳細描述本發明的實施例,所述實施例的示例在附圖中示出,其中自始至終相同或類似的標號表示相同或類似的模組或具有相同或類似功能的模組。下面透過參考附圖描述的實施例是示例性的,僅用於解釋本發明,而不能理解為對本發明的限制。相反,本發明的實施例包括落入所附加申請專利範圍的精神和內涵範圍內的所有變化、修改和等同物。
圖1是本發明一實施例提出的活體檢測方法的流程示意圖,該方法可以在終端執行,該方法包括:
S11:終端採集用戶的生物特徵資訊,並將所述生物特徵資訊顯示在終端螢幕的初始位置上。
本實施例中,以生物特徵資訊是人臉資訊為例。可以理解的是,生物特徵資訊不限於人臉資訊,還可以是指紋,掌紋,虹膜等。
本實施例中,以人臉姿態資訊為例,人臉姿態資訊用(pitch,roll,yaw)表示,其中,pitch是俯仰角,roll是轉動角,yaw是擺動角。
例如,參見圖2,人臉所在的座標系可以稱為第一座標系,為一個三維座標系,假設將人的頭部看作一個三維球體,則第一座標系的座標原點選擇的是該球體的中心
點。第一座標系的三個座標軸分別是X軸,Y軸和Z軸,其中,X軸正方向是水平向右的,Y軸正方向是豎直向上的,Z軸正方向是人眼正視前方的方向。在圖2所示的第一座標系內,當人臉平視時的人臉姿態資訊中的pitch,roll,yaw均為0度。
可選的,參見圖3,所述將所述生物特徵資訊顯示在終端螢幕的初始位置上,可以具體包括:
S31:確定採集到的所述用戶的生物特徵資訊的關鍵區域。
以生物特徵資訊是人臉資訊為例,可以採用所述終端的攝像頭對所述用戶的人臉進行拍攝,得到人臉圖片。
例如,用戶進入基於人臉資訊的登錄介面後,系統自動或者提示用戶人工確認圖片拍攝,從而得到人臉圖片。
之後,採用人臉檢測算法,從所述人臉圖片中檢測出人臉區域。
人臉檢測算法可以採用已有算法,例如,基於級聯分類器的人臉檢測算法。級聯分類器中可以採用串聯的多個函數,假設包括第一函數,第二函數等,則採用第一函數淘汰一部分圖像,之後採用第二函數在剩下的圖像中再次淘汰一部分圖像,依次類推,採用串聯的多個函數依次淘汰一部分圖像後,剩下的圖像就是人臉。當然,可以理解的是,這只是簡要說明,由於級聯分類器是已有技術,具體內容可以採用已有技術。
在檢測出人臉區域後,將人臉區域確定為關鍵區域。
S32:利用所述關鍵區域內的生物特徵資訊,計算得到所述生物特徵資訊的初始姿態。
其中,可以根據所述人臉區域進行人臉姿態估計,獲取所述人臉的初始姿態,所述初始姿態包括如下至少一項角度的初始值:俯仰角,轉動角和擺動角。
在檢測出人臉區域後,可以採用人臉關鍵點定位算法得到人臉關鍵點,人臉關鍵點例如眼睛,鼻子,嘴巴等臉部特徵點。人臉關鍵點定位方法通常是採用機器學習的方法,分成訓練和定位兩個階段,訓練階段是透過人臉關鍵點座標與其對應人臉圖像的訓練資料集,訓練從人臉圖像到關鍵點座標的回歸器,在定位階段則直接利用訓練好的回歸器,從輸入的人臉圖像中估計人臉關鍵點座標,具體的人臉關鍵點定位算法也可以採用已有算法。
在定位出人臉關鍵點後,可以採用人臉關鍵點以及頭部三維建模算法,估算出人的頭部對應的三維球體,頭部三維建模算法也有很多已有算法,例如基於單幅圖片的三維建模,實時三維建模等。估算出該三維球體後,該球體相對於X軸的旋轉角度就是俯仰角(pitch),該球體相對於Y軸的旋轉角度就是擺動角(yaw),該球體相對於Z軸的旋轉角度就是轉動角(roll),從而得到初始狀態資訊。
S33:根據所述初始姿態進行座標映射,將所述生物特徵資訊映射到終端螢幕的初始位置。
可選的,所述根據所述初始姿態進行座標映射,將所
述生物特徵資訊映射到終端螢幕的初始位置,包括:獲取第一座標系內的座標與第二座標系內的座標之間的映射關係,所述第一座標系是所述生物特徵資訊所在的座標系,所述第二座標系是所述螢幕所在座標系;根據所述映射關係,確定與所述初始姿態對應的初始位置的座標;根據所述初始位置的座標,將所述生物特徵資訊映射到所述初始位置。
初始位置,以及後續生物特徵資訊移動後的顯示位置,都可以根據預先建立的第一座標系與第二座標系之間的映射關係得到,其中,第一座標系是如圖2所示的生物特徵資訊所在的座標系,第二座標系是螢幕所在的座標系。參見圖4,第二座標系是一個二維座標系,以終端為手機為例,第二座標系的座標原點是手機螢幕的中心點,第二座標系的兩個座標軸分別是X軸和Y軸,其中,X軸的方向與第一座標系的X軸方向一致,Y軸正方向是豎直向下的。
本實施例中,在計算時採用了上述三個角度中的兩個角度,在圖2和圖4所示的兩個座標系中,兩個座標系之間的映射關係可以表示為:△x=S x ×sin(yaw),△y=S y ×sin(pitch); (1)
其中,yaw,pitch分別是人臉資訊在第一座標系內的狀態資訊,具體為擺動角和俯仰角,△x,△y分別是在第二座標系內,人臉資訊在螢幕上的顯示位置相對於第二座標系
的座標原點的偏移量。
S x ,S y 由人臉姿態角的變化範圍與螢幕的寬高決定。如假設螢幕的寬和高分別為w,h,且螢幕座標系原點位於(w/2,h/2),即螢幕正中心位置;假設頭部的俯仰角變化範圍為[-θ,+θ],擺動角的變化範圍為:[-β,+β],則:
θ,β是可配置的,本實施例中,可以配置θ=β=45°。
在得到的上述公式(1)和(2)後,就可以由狀態資訊(yaw,pitch)得到對應的顯示位置(△x,△y),從而再根據第二座標系的座標原點(O x ,O y ),得到與狀態資訊對應的位置資訊(O x +△x,O y +△y)。
例如,在確定出初始位置後,就可以將人臉資訊顯示在初始位置上。
可以理解的是,上述座標原點的選擇方式,以及座標系中各座標軸方向的選擇不限於上述方式,還可以選擇其他座標原點或者其他方向的座標軸等,相應的,當座標原點或者座標軸方向改變後,上述的計算公式可以根據兩個座標系之間的空間幾何關係進行相應調整。
S12:根據所述初始位置,確定目標位置,並在所述螢幕上顯示所述目標位置。
該目標位置可以是採用隨機方式產生的。
透過採用隨機的方式產生目標位置,可以降低目標位置被破解的可能,提高活體檢測的準確性。
可選的,所述根據所述初始位置,確定目標位置,包
括:隨機產生候選目標位置;判斷所述候選目標位置與所述初始位置是否滿足預設條件;當滿足預設條件時,將所述候選目標位置確定為所述目標位置。
具體的,另一實施例中,參見圖5,所述根據所述初始位置,確定目標位置,包括:
S51:隨機產生候選目標位置。
例如,採用隨機算法隨機產生X和Y方向的座標值,用隨機產生的X和Y方向的座標值表示候選目標位置。
S52:計算隨機產生的候選目標位置與所述初始位置之間的距離。由於候選目標位置和初始位置都可以表示為第二座標系內的一個點,因此候選目標位置與初始位置之間的距離,可以採用二維平面上兩個點之間距離的計算方式得到。
S53:判斷所述距離是否小於第一預設值,若是,重複執行S51及其後續步驟,否則,執行S54。第一預設值例如為w/2,透過比較該距離與w/2,可以得到判斷結果。
S54:將該距離大於或等於所述第一預設值的候選目標位置,確定為最終採用的目標位置。
S13:提示所述用戶移動所述生物特徵資訊,以使所
述生物特徵資訊在所述螢幕上的顯示位置從所述初始位置向所述目標位置移動。
其中,在確定出最終採用的目標位置後,終端可以向用戶顯示提示資訊,提示資訊用於提示用戶移動人臉資訊,使得人臉資訊的顯示位置移動到最終採用的目標位置。
用戶在看到提示資訊後,可以運動頭部,使得人臉資訊在螢幕上的顯示位置不斷移動。
本實施例中,透過選擇與初始位置之間的距離大於預設值的目標位置,可以將目標位置與初始位置在位置上進行區分,從而方便用戶運動頭部等生物特徵。
以人臉資訊為例,目標人臉位置與初始人臉位置的關係可以如圖6所示。
S14:檢測移動後的生物特徵資訊在所述螢幕上的顯示位置,並根據所述顯示位置與所述目標位置之間的關係,判斷所述用戶是否為活體。
如上所示,移動後的生物特徵資訊在螢幕上的顯示位置也可以類似初始位置的計算方式得到。
具體的,所述計算移動後的生物特徵資訊在所述螢幕上的顯示位置,包括:獲取移動後的生物特徵資訊,在第一座標系內的姿態資訊;根據預先建立的第一座標系內的座標與第二座標系內的座標之間的映射關係,計算與所述第一座標系內的姿態
資訊對應的第二座標系內的座標資訊,根據所述第二座標系內的座標資訊確定移動後的生物特徵資訊在所述螢幕上的顯示位置;其中,所述第一座標系是所述生物特徵資訊所在的座標系,所述第二座標系是所述螢幕所在的座標系。
例如,當用戶運動頭部後,會改變人臉姿態資訊,從而根據之前建立的第一座標系與第二座標系之間的映射關係,△x,△y也是變化的,再根據△x,△y以及座標原點得到人臉在螢幕上的顯示位置,該顯示位置也是變化的。
另外,實時計算人臉在螢幕上的顯示位置後,還可以根據實時計算出的顯示位置,在相應位置顯示人臉資訊,以方便用戶將人臉資訊移動到目標位置。
透過第一座標系與第二座標系的映射關係,可以實現將人臉姿態資訊映射到螢幕上的相應位置。
可選的,所述顯示位置是隨著所述生物特徵資訊的移動而移動的,所述生物特徵資訊的移動驅動所述顯示位置的移動,所述根據所述顯示位置與所述目標位置之間的關係,判斷所述用戶是否為活體,包括:當所述顯示位置與所述目標位置之間的距離小於第二預設值時,判斷出成功移動;如果成功移動的次數達到預設次數,判斷出所述用戶是活體。
例如,用戶在運動頭部時,終端實時計算相應的移動後的顯示位置,並實時計算移動後的顯示位置與目標位置
之間的距離,直至兩者之間的距離小於第二預設值。當兩者之間的距離小於第二預設值時,表明一次成功移動。如果預設次數是1,則一次成功移動後,就可以判斷出用戶是活體。或者,為了進一步提高安全性,可以設置次數大於1,此時,在一次成功移動後,可以重新隨機產生目標位置,並根據上述流程提示用戶移動生物特徵資訊,並實時計算顯示位置與重新產生的目標位置之間的距離,當兩者距離再次小於第二預設值時,則表明二次成功移動,如果預設次數是2次,則此時可以判斷出用戶是活體。當然,可以理解的是,如果預設次數多於2次,則還可以依此繼續判斷是否成功移動,從而判斷是否為活體。
第二預設值可以與第一預設值相同或者不同,本實施例中,假設第二預設值也為w/2,從而當移動後的顯示位置與目標位置之間的距離小於w/2後,可以確認檢測的用戶是活體,另一方面,也可以確認人臉匹配成功。
透過實時計算移動後的顯示位置與目標位置之間的距離,可以及時發現活體檢測或者說人臉匹配是否成功。
本實施例中,透過將生物特徵資訊映射到螢幕的顯示位置上,並根據顯示位置和目標位置之間的關係可以識別出用戶是否為活體,從而在用戶登錄時只對活體的生物特徵資訊進行驗證,提高安全性。
圖7是本發明另一實施例提出的身分認證方法的流程示意圖,該方法可以由終端執行,該方法包括:
S71:接收到用戶的身分認證指令後,終端採集所述
用戶的生物特徵資訊。
用戶在需要身分認證時,可以點擊終端登錄介面上的身分認證按鈕,從而產生身分認證指令。
終端接收到用戶產生的身分認證指令後,可以獲取人臉資訊等生物特徵資訊。
S72:根據採集的所述生物特徵資訊,判斷所述用戶是否為活體。
其中,所述判斷所述用戶是否為活體,具體包括:將採集的所述用戶的生物特徵資訊顯示在終端螢幕的初始位置上;根據所述初始位置,確定目標位置,並在所述螢幕上顯示所述目標位置;提示所述用戶移動所述生物特徵資訊,以使所述生物特徵資訊在所述螢幕上的顯示位置從所述初始位置向所述目標位置移動;檢測移動後的生物特徵資訊在所述螢幕上的顯示位置,並根據所述顯示位置與所述目標位置之間的關係,判斷所述用戶是否為活體。
其中,所述活體檢測的具體內容可以參見上述相關實施例,在此不再贅述。
S73:若是,發送所述用戶的生物特徵資訊給認證伺服器。
其中,發送給認證伺服器的生物特徵資訊可以是在多個生物特徵資訊中選擇得到的。
可選的,參見圖8,另一實施例中,該身分認證方法包括:
S81:接收到用戶的身分認證指令後,終端採集所述用戶的生物特徵資訊。
如上所示,當終端提示用戶移動後,用戶可以運動頭部,並且用戶在運動頭部的過程中,終端可以實時對用戶的人臉進行拍照,從而獲取多個人臉圖片。其中,多個人臉圖片可以具體是指從提示用戶運動開始,直至確認人臉匹配成功(也就是確認用戶是活體)這一過程中實時拍攝的人臉圖片。
S82:根據採集的所述生物特徵資訊,判斷所述用戶是否為活體。
其中,活體檢測的內容可以參見上述相關實施例,在此不再贅述。
S83:如果是活體,確定採集的所述用戶的生物特徵資訊的圖像幀品質,並從採集的所述用戶的生物特徵資訊中,選取圖像幀品質排在前N個的生物特徵資訊的圖像幀;其中,N為預設正整數。
根據生物特徵資訊的不同,可以採用不同的衡量算法評估相應的品質。以人臉圖片為例,例如可以根據姿態(是否正視),光線(臉部光線是否充足),表情(是否無表情)等來衡量圖片品質。具體的衡量算法可以根據實際需求設置,例如,設置上述各種參數(姿態,光線,表情)的權重,再將權重與各自參數的數值相乘,再將相乘
後的各數值相加後得到每個人臉圖片的圖像幀品質的數值。之後可以根據該數值從大到小的順序選擇N個,假設N為1時,可以選擇數值最大的圖片。
S84:將選取的圖像幀品質排在前N個的生物特徵資訊的圖像幀,發送給認證伺服器。
例如,選取圖像幀品質排在第一位的人臉圖片後,將該人臉圖片發送給認證伺服器。
S74:接收所述認證伺服器發送的身分認證結果,所述身分認證結果是所述認證伺服器對所述生物特徵資訊及預先儲存的與所述用戶對應的生物特徵資訊進行比對後發送的。
其中,終端發送人臉圖片時還可以攜帶用戶標識資訊,認證伺服器中預先保存用戶標識資訊與人臉圖片的對應關係,當認證伺服器接收到終端發送的人臉圖片和用戶標識資訊後,可以先根據用戶標識資訊獲取到預先保存的人臉圖片,再將接收的人臉圖片與預先保存的人臉圖片進行比對,得到身分認證結果。
人臉圖片比對可以採用已有算法,例如,基於深度學習的人臉比對算法,或者,基於高維特徵的人臉比對算法。
認證伺服器獲取到身分認證結果後,可以將該身分認證結果發送給終端,終端接收到該身分認證結果後,可以顯示給用戶。當身分認證成功時,允許用戶登錄,否則,用戶登錄失敗。
另外,如果終端將多張圖片發送給認證伺服器,則認證伺服器可以分別將接收的每張圖片與儲存的圖片進行比對,如果存在一張比對成功的,則表明認證成功。
上述描述了顯示位置與目標位置滿足匹配條件後的驗證流程,另一方面,當判斷出顯示位置與目標位置不滿足匹配條件後,可以不需要再向認證伺服器進行驗證,直接由終端向用戶返回身分認證失敗的資訊。
本實施例中,透過在身分認證之前先進行活體檢測,可以在用戶是活體時才進行進一步驗證,避免用照片等形式進行驗證資訊的冒用,從而提高認證時的安全性。
圖9是本發明另一實施例提出的活體檢測裝置的結構示意圖,該裝置可以位於終端上,終端例如手機等,該裝置90包括:第一顯示模組91,用於採集用戶的生物特徵資訊,並將所述生物特徵資訊顯示在終端螢幕的初始位置上;本實施例中,以生物特徵資訊是人臉資訊為例。可以理解的是,生物特徵資訊不限於人臉資訊,還可以是指紋,掌紋,虹膜等。
本實施例中,以人臉姿態資訊為例,人臉姿態資訊用(pitch,roll,yaw)表示,其中,pitch是俯仰角,roll是轉動角,yaw是擺動角。
例如,參見圖2,人臉所在的座標系可以稱為第一座標系,為一個三維座標系,假設將人的頭部看作一個三維球體,則第一座標系的座標原點選擇的是該球體的中心
點。第一座標系的三個座標軸分別是X軸,Y軸和Z軸,其中,X軸正方向是水平向右的,Y軸正方向是豎直向上的,Z軸正方向是人眼正視前方的方向。在圖2所示的第一座標系內,當人臉平視時的人臉姿態資訊中的pitch,roll,yaw均為0度。
可選的,所述第一顯示模組91用於將所述生物特徵資訊顯示在終端螢幕的初始位置上,包括:確定採集到的所述用戶的生物特徵資訊的關鍵區域;以生物特徵資訊是人臉資訊為例,可以採用所述終端的攝像頭對所述用戶的人臉進行拍攝,得到人臉圖片。
例如,用戶進入基於人臉資訊的登錄介面後,系統自動或者提示用戶人工確認圖片拍攝,從而得到人臉圖片。
之後,採用人臉檢測算法,從所述人臉圖片中檢測出人臉區域。
人臉檢測算法可以採用已有算法,例如,基於級聯分類器的人臉檢測算法。級聯分類器中可以採用串聯的多個函數,假設包括第一函數,第二函數等,則採用第一函數淘汰一部分圖像,之後採用第二函數在剩下的圖像中再次淘汰一部分圖像,依次類推,採用串聯的多個函數依次淘汰一部分圖像後,剩下的圖像就是人臉。當然,可以理解的是,這只是簡要說明,由於級聯分類器是已有技術,具體內容可以採用已有技術。
在檢測出人臉區域後,將人臉區域確定為關鍵區域。利用所述關鍵區域內的生物特徵資訊,計算得到所述生物
特徵資訊的初始姿態;其中,可以根據所述人臉區域進行人臉姿態估計,獲取所述人臉的初始姿態,所述初始姿態包括如下至少一項角度的初始值:俯仰角,轉動角和擺動角。
在檢測出人臉區域後,可以採用人臉關鍵點定位算法得到人臉關鍵點,人臉關鍵點例如眼睛,鼻子,嘴巴等臉部特徵點。人臉關鍵點定位方法通常是採用機器學習的方法,分成訓練和定位兩個階段,訓練階段是透過人臉關鍵點座標與其對應人臉圖像的訓練資料集,訓練從人臉圖像到關鍵點座標的回歸器,在定位階段則直接利用訓練好的回歸器,從輸入的人臉圖像中估計人臉關鍵點座標,具體的人臉關鍵點定位算法也可以採用已有算法。
在定位出人臉關鍵點後,可以採用人臉關鍵點以及頭部三維建模算法,估算出人的頭部對應的三維球體,頭部三維建模算法也有很多已有算法,例如基於單幅圖片的三維建模,實時三維建模等。估算出該三維球體後,該球體相對於X軸的旋轉角度就是俯仰角(pitch),該球體相對於Y軸的旋轉角度就是擺動角(yaw),該球體相對於Z軸的旋轉角度就是轉動角(roll),從而得到初始狀態資訊。
根據所述初始姿態進行座標映射,將所述生物特徵資訊映射到終端螢幕的初始位置。
可選的,所述第一顯示模組91用於根據所述初始姿態進行座標映射,將所述生物特徵資訊映射到終端螢幕的
初始位置,包括:獲取第一座標系內的座標與第二座標系內的座標之間的映射關係,所述第一座標系是所述生物特徵資訊所在的座標系,所述第二座標系是所述螢幕所在座標系;根據所述映射關係,確定與所述初始姿態對應的初始位置的座標;根據所述初始位置的座標,將所述生物特徵資訊映射到所述初始位置。
初始位置,以及後續生物特徵資訊移動後的顯示位置,都可以根據預先建立的第一座標系與第二座標系之間的映射關係得到,其中,第一座標系是如圖2所示的生物特徵資訊所在的座標系,第二座標系是螢幕所在的座標系。
參見圖4,第二座標系是一個二維座標系,以終端為手機為例,第二座標系的座標原點是手機螢幕的中心點,第二座標系的兩個座標軸分別是X軸和Y軸,其中,X軸的方向與第一座標系的X軸方向一致,Y軸正方向是豎直向下的。
本實施例中,在計算時採用了上述三個角度中的兩個角度,在圖2和圖4所示的兩個座標系中,兩個座標系之間的映射關係可以表示為:△x=S x ×sin(yaw),△y=S y ×sin(pitch); (1)
其中,yaw,pitch分別是人臉資訊在第一座標系內的狀態資訊,具體為擺動角和俯仰角,△x,△y分別是在第二座
標系內,人臉資訊在螢幕上的顯示位置相對於第二座標系的座標原點的偏移量。
S x ,S y 由人臉姿態角的變化範圍與螢幕的寬高決定。如假設螢幕的寬和高分別為w,h,且螢幕座標系原點位於(w/2,h/2),即螢幕正中心位置;假設頭部的俯仰角變化範圍為[-θ,+θ],擺動角的變化範圍為:[-β,+β],則:
θ,β是可配置的,本實施例中,可以配置θ=β=45°。
在得到的上述公式(1)和(2)後,就可以由狀態資訊(yaw,pitch)得到對應的顯示位置(△x,△y),從而再根據第二座標系的座標原點(O x ,O y ),得到與狀態資訊對應的位置資訊(O x +△x,O y +△y)。
例如,在確定出初始位置後,就可以將人臉資訊顯示在初始位置上。
可以理解的是,上述座標原點的選擇方式,以及座標系中各座標軸方向的選擇不限於上述方式,還可以選擇其他座標原點或者其他方向的座標軸等,相應的,當座標原點或者座標軸方向改變後,上述的計算公式可以根據兩個座標系之間的空間幾何關係進行相應調整。
第二顯示模組92,用於根據所述初始位置,確定目標位置,並在所述螢幕上顯示所述目標位置;該目標位置可以是採用隨機方式產生的。
透過採用隨機的方式產生目標位置,可以降低目標位置被破解的可能,提高活體檢測的準確性。
可選的,所述產生模組92用於根據所述初始位置,確定目標位置,包括:隨機產生候選目標位置;例如,採用隨機算法隨機產生X和Y方向的座標值,用隨機產生的X和Y方向的座標值表示候選目標位置。
判斷所述候選目標位置與所述初始位置是否滿足預設條件;可選的,所述產生模組用於判斷所述候選目標位置與所述初始位置是否滿足預設條件,包括:計算所述候選目標位置與所述初始位置之間的距離;判斷所述距離是否小於第一預設值;如果所述距離小於第一預設值時,重新產生候選目標位置,直至所述距離大於或等於所述第一預設值;當所述距離大於或等於所述第一預設值時,判斷出所述候選目標位置與所述初始位置滿足預設條件。
由於候選目標位置和初始位置都可以表示為第二座標系內的一個點,因此候選目標位置與初始位置之間的距離,可以採用二維平面上兩個點之間距離的計算方式得到。
第一預設值例如為w/2,透過比較該距離與w/2,可以得到判斷結果。
當滿足預設條件時,將所述候選目標位置確定為所述目標位置。
例如,將距離大於或等於所述第一預設值的候選目標位置,確定為最終採用的目標位置。
提示模組93,用於提示所述用戶移動所述生物特徵資訊,以使所述生物特徵資訊在所述螢幕上的顯示位置從所述初始位置向所述目標位置移動。
其中,在確定出最終採用的目標位置後,終端可以向用戶顯示提示資訊,提示資訊用於提示用戶移動人臉資訊,使得人臉資訊的顯示位置移動到最終採用的目標位置。
用戶在看到提示資訊後,可以運動頭部,使得人臉資訊在螢幕上的顯示位置不斷移動。
本實施例中,透過選擇與初始位置之間的距離大於預設值的目標位置,可以將目標位置與初始位置在位置上進行區分,從而方便用戶運動頭部等生物特徵。
以人臉資訊為例,目標人臉位置與初始人臉位置的關係可以如圖6所示。
判斷模組94,用於檢測移動後的生物特徵資訊在所述螢幕上的顯示位置,並根據所述顯示位置與所述目標位置之間的關係,判斷所述用戶是否為活體。
如上所示,移動後的生物特徵資訊在螢幕上的顯示位置也可以類似初始位置的計算方式得到。
可選的,所述判斷模組93用於計算移動後的生物特徵資訊在所述螢幕上的顯示位置,包括:獲取移動後的生物特徵資訊,在第一座標系內的姿態
資訊;根據預先建立的第一座標系內的座標與第二座標系內的座標之間的映射關係,計算與所述第一座標系內的姿態資訊對應的第二座標系內的座標資訊,根據所述第二座標系內的座標資訊確定移動後的生物特徵資訊在所述螢幕上的顯示位置;其中,所述第一座標系是所述生物特徵資訊所在的座標系,所述第二座標系是所述螢幕所在的座標系。
例如,當用戶運動頭部後,會改變人臉姿態資訊,從而根據之前建立的第一座標系與第二座標系之間的映射關係,△x,△y也是變化的,再根據△x,△y以及座標原點得到人臉在螢幕上的顯示位置,該顯示位置也是變化的。
另外,實時計算人臉在螢幕上的顯示位置後,還可以根據實時計算出的顯示位置,在相應位置顯示人臉資訊,以方便用戶將人臉資訊移動到目標位置。
透過第一座標系與第二座標系的映射關係,可以實現將人臉姿態資訊映射到螢幕上的相應位置。
可選的,所述顯示位置是隨著所述生物特徵資訊的移動而移動的,所述生物特徵資訊的移動驅動所述顯示位置的移動,所述判斷模組94用於根據所述顯示位置與所述目標位置之間的關係,判斷所述用戶是否為活體,包括:當所述顯示位置與所述目標位置之間的距離小於第二預設值時,判斷出成功移動;如果成功移動的次數達到預設次數,判斷出所述用戶
是活體。
例如,用戶在運動頭部時,終端實時計算相應的移動後的顯示位置,並實時計算移動後的顯示位置與目標位置之間的距離,直至兩者之間的距離小於第二預設值。當兩者之間的距離小於第二預設值時,表明一次成功移動。如果預設次數是1,則一次成功移動後,就可以判斷出用戶是活體。或者,為了進一步提高安全性,可以設置次數大於1,此時,在一次成功移動後,可以重新隨機產生目標位置,並根據上述流程提示用戶移動生物特徵資訊,並實時計算顯示位置與重新產生的目標位置之間的距離,當兩者距離再次小於第二預設值時,則表明二次成功移動,如果預設次數是2次,則此時可以判斷出用戶是活體。當然,可以理解的是,如果預設次數多於2次,則還可以依此繼續判斷是否成功移動,從而判斷是否為活體。
第二預設值可以與第一預設值相同或者不同,本實施例中,假設第二預設值也為w/2,從而當移動後的顯示位置與目標位置之間的距離小於w/2後,可以確認檢測的用戶是活體,另一方面,也可以確認人臉匹配成功。
透過實時計算移動後的顯示位置與目標位置之間的距離,可以及時發現活體檢測或者說人臉匹配是否成功。
本實施例中,透過將生物特徵資訊映射到螢幕的顯示位置上,並根據顯示位置和目標位置之間的關係可以識別出用戶是否為活體,從而在用戶登錄時只對活體的生物特徵資訊進行驗證,提高安全性。
圖10是本發明另一實施例提出的身分認證裝置的結構示意圖,該裝置可以位於終端上,終端例如手機等。該裝置100包括:獲取模組101,用於接收到用戶的身分認證指令後,採集所述用戶的生物特徵資訊;用戶在需要身分認證時,可以點擊終端登錄介面上的身分認證按鈕,從而產生身分認證指令。
終端接收到用戶產生的身分認證指令後,可以獲取人臉資訊等生物特徵資訊。
判斷模組102,用於根據採集的所述生物特徵資訊,判斷所述用戶是否為活體。
所述判斷模組102具體用於:將採集的所述用戶的生物特徵資訊顯示在終端螢幕的初始位置上;根據所述初始位置,確定目標位置,並在所述螢幕上顯示所述目標位置;提示所述用戶移動所述生物特徵資訊,以使所述生物特徵資訊在所述螢幕上的顯示位置從所述初始位置向所述目標位置移動;檢測移動後的生物特徵資訊在所述螢幕上的顯示位置,並根據所述顯示位置與所述目標位置之間的關係,判斷所述用戶是否為活體。
其中,所述活體檢測的具體內容可以參見上述相關實施例,在此不再贅述。
發送模組103,用於在所述判斷模組判斷出所述用戶是活體時,發送所述用戶的生物特徵資訊給認證伺服器;其中,發送給認證伺服器的生物特徵資訊可以是在多個生物特徵資訊中選擇得到的。
可選的,所述發送模組103具體用於:確定採集的所述用戶的生物特徵資訊的圖像幀品質,並從採集的所述用戶的生物特徵資訊中,選取圖像幀品質排在前N個的生物特徵資訊的圖像幀;其中,N為預設正整數;將選取的圖像幀品質排在前N個的生物特徵資訊的圖像幀,發送給認證伺服器。
如上所示,當終端提示用戶移動後,用戶可以運動頭部,並且用戶在運動頭部的過程中,終端可以實時對用戶的人臉進行拍照,從而獲取多個人臉圖片。其中,多個人臉圖片可以具體是指從提示用戶運動開始,直至確認人臉匹配成功(也就是確認用戶是活體)這一過程中實時拍攝的人臉圖片。
之後可以進行活體檢測,其中,多個生物特徵資訊的獲取以及活體檢測的流程可以參見上述相關實施例,在此不再贅述。
根據生物特徵資訊的不同,可以採用不同的衡量算法評估相應的品質。以人臉圖片為例,例如可以根據姿態(是否正視),光線(臉部光線是否充足),表情(是否無表情)等來衡量圖片品質。具體的衡量算法可以根據實際需求設置,例如,設置上述各種參數(姿態,光線,表
情)的權重,再將權重與各自參數的數值相乘,再將相乘後的各數值相加後得到每個人臉圖片的圖像幀品質的數值。之後可以根據該數值從大到小的順序選擇N個,假設N為1時,可以選擇數值最大的圖片。
例如,選取圖像幀品質排在第一位的人臉圖片後,將該人臉圖片發送給認證伺服器。
接收模組104,用於接收所述認證伺服器發送的身分認證結果,所述身分認證結果是所述認證伺服器對所述生物特徵資訊及預先儲存的與所述用戶對應的生物特徵資訊進行比對後發送的;其中,終端發送人臉圖片時還可以攜帶用戶標識資訊,認證伺服器中預先保存用戶標識資訊與人臉圖片的對應關係,當認證伺服器接收到終端發送的人臉圖片和用戶標識資訊後,可以先根據用戶標識資訊獲取到預先保存的人臉圖片,再將接收的人臉圖片與預先保存的人臉圖片進行比對,得到身分認證結果。
人臉圖片比對可以採用已有算法,例如,基於深度學習的人臉比對算法,或者,基於高維特徵的人臉比對算法。
認證伺服器獲取到身分認證結果後,可以將該身分認證結果發送給終端,終端接收到該身分認證結果後,可以顯示給用戶。當身分認證成功時,允許用戶登錄,否則,用戶登錄失敗。
另外,如果終端將多張圖片發送給認證伺服器,則認
證伺服器可以分別將接收的每張圖片與儲存的圖片進行比對,如果存在一張比對成功的,則表明認證成功。
上述描述了顯示位置與目標位置滿足匹配條件後的驗證流程,另一方面,當判斷出顯示位置與目標位置不滿足匹配條件後,可以不需要再向認證伺服器進行驗證,直接由終端向用戶返回身分認證失敗的資訊。
本實施例中,透過在身分認證之前先進行活體檢測,可以在用戶是活體時才進行進一步驗證,避免用照片等形式進行驗證資訊的冒用,從而提高認證時的安全性。
需要說明的是,在本發明的描述中,術語“第一”、“第二”等僅用於描述目的,而不能理解為指示或暗示相對重要性。此外,在本發明的描述中,除非另有說明,“多個”的含義是指至少兩個。
流程圖中或在此以其他方式描述的任何過程或方法描述可以被理解為,表示包括一個或更多個用於實現特定邏輯功能或過程的步驟的可執行指令的代碼的模組、片段或部分,並且本發明的較佳實施方式的範圍包括另外的實現,其中可以不按所示出或討論的順序,包括根據所關於的功能按基本同時的方式或按相反的順序,來執行功能,這應被本發明的實施例所屬技術領域的技術人員所理解。
應當理解,本發明的各部分可以用硬體、軟體、韌體或它們的組合來實現。在上述實施方式中,多個步驟或方法可以用儲存在儲存器中且由合適的指令執行系統執行的軟體或韌體來實現。例如,如果用硬體來實現,和在另一
實施方式中一樣,可用本領域公知的下列技術中的任一項或他們的組合來實現:具有用於對資料信號實現邏輯功能的邏輯門電路的離散邏輯電路,具有合適的組合邏輯門電路的專用積體電路,可編程門陣列(PGA),現場可編程門陣列(FPGA)等。
本技術領域的普通技術人員可以理解實現上述實施例方法攜帶的全部或部分步驟是可以透過程序來指令相關的硬體完成,所述的程序可以儲存於一種電腦可讀儲存媒體中,該程序在執行時,包括方法實施例的步驟之一或其組合。
此外,在本發明各個實施例中的各功能單元可以整合在一個處理模組中,也可以是各個單元單獨物理存在,也可以兩個或兩個以上單元整合在一個模組中。上述整合的模組既可以採用硬體的形式實現,也可以採用軟體功能模組的形式實現。所述整合的模組如果以軟體功能模組的形式實現並作為獨立的產品銷售或使用時,也可以儲存在一個電腦可讀取儲存媒體中。
上述提到的儲存媒體可以是唯讀儲存器,磁盤或光盤等。
在本說明書的描述中,參考術語“一個實施例”、“一些實施例”、“示例”、“具體示例”、或“一些示例”等的描述意指結合該實施例或示例描述的具體特徵、結構、材料或者特點包含於本發明的至少一個實施例或示例中。在本說明書中,對上述術語的示意性表述不一定指
的是相同的實施例或示例。而且,描述的具體特徵、結構、材料或者特點可以在任何的一個或多個實施例或示例中以合適的方式結合。
儘管上面已經示出和描述了本發明的實施例,可以理解的是,上述實施例是示例性的,不能理解為對本發明的限制,本領域的普通技術人員在本發明的範圍內可以對上述實施例進行變化、修改、替換和變型。
Claims (19)
- 一種活體檢測方法,其特徵在於,包括:終端採集用戶的生物特徵資訊,並將該生物特徵資訊顯示在終端螢幕的初始位置上;根據該初始位置,確定目標位置,並在該螢幕上顯示該目標位置;提示該用戶移動該生物特徵資訊,以使該生物特徵資訊在該螢幕上的顯示位置從該初始位置向該目標位置移動;以及檢測移動後的生物特徵資訊在該螢幕上的顯示位置,並根據該顯示位置與該目標位置之間的關係,判斷該用戶是否為活體。
- 根據申請專利範圍第1項所述的方法,其中,所述將該生物特徵資訊顯示在終端螢幕的初始位置上,具體包括:確定採集到的該用戶的生物特徵資訊的關鍵區域;利用該關鍵區域內的生物特徵資訊,計算得到該生物特徵資訊的初始姿態;以及根據該初始姿態進行座標映射,將該生物特徵資訊映射到終端螢幕的初始位置。
- 根據申請專利範圍第2項所述的方法,其中,所述根據該初始姿態進行座標映射,將該生物特徵資訊映射到終端螢幕的初始位置,包括:獲取第一座標系內的座標與第二座標系內的座標之間 的映射關係,該第一座標系是該生物特徵資訊所在的座標系,該第二座標系是該螢幕所在座標系;根據該映射關係,確定與該初始姿態對應的初始位置的座標;以及根據該初始位置的座標,將該生物特徵資訊映射到該初始位置。
- 根據申請專利範圍第1項該的方法,其中,所述根據該初始位置,確定目標位置,包括:隨機產生候選目標位置;判斷該候選目標位置與該初始位置是否滿足預設條件;以及當滿足預設條件時,將該候選目標位置確定為該目標位置。
- 根據申請專利範圍第4項所述的方法,其中,所述判斷該候選目標位置與該初始位置是否滿足預設條件,包括:計算該候選目標位置與該初始位置之間的距離;判斷該距離是否小於第一預設值;如果該距離小於第一預設值時,則重新產生候選目標位置,直至該距離大於或等於該第一預設值;以及當該距離大於或等於該第一預設值時,判斷出該候選目標位置與該初始位置滿足預設條件。
- 根據申請專利範圍第1項所述的方法,其中,所述顯示位置是隨著該生物特徵資訊的移動而移動的,該生 物特徵資訊的移動驅動該顯示位置的移動,該根據該顯示位置與該目標位置之間的關係,判斷該用戶是否為活體,包括:當該顯示位置與該目標位置之間的距離小於第二預設值時,判斷出成功移動;以及如果成功移動的次數達到預設次數,則判斷出該用戶是活體。
- 根據申請專利範圍第1項所述的方法,其中,該檢測移動後的生物特徵資訊在該螢幕上的顯示位置,包括:獲取移動後的生物特徵資訊,在第一座標系內的姿態資訊;以及根據預先建立的第一座標系內的座標與第二座標系內的座標之間的映射關係,計算與該第一座標系內的姿態資訊對應的第二座標系內的座標資訊,根據該第二座標系內的座標資訊確定移動後的生物特徵資訊在該螢幕上的顯示位置,其中,該第一座標系是該生物特徵資訊所在的座標系,該第二座標系是該螢幕所在的座標系。
- 根據申請專利範圍第1-7項中任一項所述的方法,其中,該生物特徵資訊是人臉資訊。
- 一種身分認證方法,其特徵在於,包括:接收到用戶的身分認證指令後,終端採集該用戶的生物特徵資訊; 根據採集的該生物特徵資訊,判斷該用戶是否為活體;若是,發送該用戶的生物特徵資訊給認證伺服器;以及接收該認證伺服器發送的身分認證結果,該身分認證結果是該認證伺服器對該生物特徵資訊及預先儲存的與該用戶對應的生物特徵資訊進行比對後發送的,其中,該判斷該用戶是否為活體,具體包括:將採集的該用戶的生物特徵資訊顯示在終端螢幕的初始位置上;根據該初始位置,確定目標位置,並在該螢幕上顯示該目標位置;提示該用戶移動該生物特徵資訊,以使該生物特徵資訊在該螢幕上的顯示位置從該初始位置向該目標位置移動;以及檢測移動後的生物特徵資訊在該螢幕上的顯示位置,並根據該顯示位置與該目標位置之間的關係,判斷該用戶是否為活體。
- 根據申請專利範圍第9項所述的方法,其中,所述發送該用戶的生物特徵資訊給認證伺服器,包括:確定採集的該用戶的生物特徵資訊的圖像幀品質,並從採集的該用戶的生物特徵資訊中,選取圖像幀品質排在前N個的生物特徵資訊的圖像幀,其中,N為預設正整數;以及 將選取的圖像幀品質排在前N個的生物特徵資訊的圖像幀,發送給認證伺服器。
- 一種活體檢測裝置,其特徵在於,包括:第一顯示模組,用於採集用戶的生物特徵資訊,並將該生物特徵資訊顯示在終端螢幕的初始位置上;第二顯示模組,用於根據該初始位置,確定目標位置,並在該螢幕上顯示該目標位置;提示模組,用於提示該用戶移動該生物特徵資訊,以使該生物特徵資訊在該螢幕上的顯示位置從該初始位置向該目標位置移動;以及判斷模組,用於檢測移動後的生物特徵資訊在該螢幕上的顯示位置,並根據該顯示位置與該目標位置之間的關係,判斷該用戶是否為活體。
- 根據申請專利範圍第11項所述的裝置,其中,該第一顯示模組用於將該生物特徵資訊顯示在終端螢幕的初始位置上,具體包括:確定採集到的該用戶的生物特徵資訊的關鍵區域;利用該關鍵區域內的生物特徵資訊,計算得到該生物特徵資訊的初始姿態;以及根據該初始姿態進行座標映射,將該生物特徵資訊映射到終端螢幕的初始位置。
- 根據申請專利範圍第12項所述的裝置,其中,該第一顯示模組用於根據該初始姿態進行座標映射,將該生物特徵資訊映射到終端螢幕的初始位置,包括: 獲取第一座標系內的座標與第二座標系內的座標之間的映射關係,該第一座標系是該生物特徵資訊所在的座標系,該第二座標系是該螢幕所在座標系;根據該映射關係,確定與該初始姿態對應的初始位置的座標;以及根據該初始位置的座標,將該生物特徵資訊映射到該初始位置。
- 根據申請專利範圍第11項所述的裝置,其中,該第二顯示模組用於根據該初始位置,確定目標位置,包括:隨機產生候選目標位置;判斷該候選目標位置與該初始位置是否滿足預設條件;以及當滿足預設條件時,將該候選目標位置確定為該目標位置。
- 根據申請專利範圍第14項所述的裝置,其中,該第二顯示模組用於判斷該候選目標位置與該初始位置是否滿足預設條件,包括:計算該候選目標位置與該初始位置之間的距離;判斷該距離是否小於第一預設值;如果該距離小於第一預設值時,則重新產生候選目標位置,直至該距離大於或等於該第一預設值;以及當該距離大於或等於該第一預設值時,判斷出該候選目標位置與該初始位置滿足預設條件。
- 根據申請專利範圍第11項所述的裝置,其中,該顯示位置是隨著該生物特徵資訊的移動而移動的,該生物特徵資訊的移動驅動該顯示位置的移動,該判斷模組用於根據該顯示位置與該目標位置之間的關係,判斷該用戶是否為活體,包括:當該顯示位置與該目標位置之間的距離小於第二預設值時,判斷出成功移動;以及如果成功移動的次數達到預設次數,則判斷出該用戶是活體。
- 根據申請專利範圍第11項所述的裝置,其中,該判斷模組用於檢測移動後的生物特徵資訊在該螢幕上的顯示位置,包括:獲取移動後的生物特徵資訊,在第一座標系內的姿態資訊;以及根據預先建立的第一座標系內的座標與第二座標系內的座標之間的映射關係,計算與該第一座標系內的姿態資訊對應的第二座標系內的座標資訊,根據該第二座標系內的座標資訊確定移動後的生物特徵資訊在該螢幕上的顯示位置,其中,該第一座標系是該生物特徵資訊所在的座標系,該第二座標系是該螢幕所在的座標系。
- 一種身分認證裝置,其特徵在於,包括:獲取模組,用於接收到用戶的身分認證指令後,採集該用戶的生物特徵資訊; 判斷模組,用於根據採集的該生物特徵資訊,判斷該用戶是否為活體;發送模組,用於在該判斷模組判斷出該用戶是活體後,發送該用戶的生物特徵資訊給認證伺服器;以及接收模組,用於接收該認證伺服器發送的身分認證結果,該身分認證結果是該認證伺服器對該生物特徵資訊及預先儲存的與該用戶對應的生物特徵資訊進行比對後發送的,其中,該判斷模組具體用於:將採集的該用戶的生物特徵資訊顯示在終端螢幕的初始位置上;根據該初始位置,確定目標位置,並在該螢幕上顯示該目標位置;提示該用戶移動該生物特徵資訊,以使該生物特徵資訊在該螢幕上的顯示位置從該初始位置向該目標位置移動;以及檢測移動後的生物特徵資訊在該螢幕上的顯示位置,並根據該顯示位置與該目標位置之間的關係,判斷該用戶是否為活體。
- 根據申請專利範圍第18項所述的裝置,其中,該發送模組具體用於:確定採集的該用戶的生物特徵資訊的圖像幀品質,並從採集的該用戶的生物特徵資訊中,選取圖像幀品質排在前N個的生物特徵資訊的圖像幀,其中,N為預設正整 數;以及將選取的圖像幀品質排在前N個的生物特徵資訊的圖像幀,發送給認證伺服器。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
??201510315782.2 | 2015-06-10 | ||
CN201510315782.2A CN106295287B (zh) | 2015-06-10 | 2015-06-10 | 活体检测方法和装置以及身份认证方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
TW201643761A true TW201643761A (zh) | 2016-12-16 |
TWI662433B TWI662433B (zh) | 2019-06-11 |
Family
ID=57517360
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW104142722A TWI662433B (zh) | 2015-06-10 | 2015-12-18 | Living body detection method and device, and identity authentication method and device |
Country Status (6)
Country | Link |
---|---|
US (1) | US10250598B2 (zh) |
EP (1) | EP3308325B1 (zh) |
JP (1) | JP6610906B2 (zh) |
KR (1) | KR102036978B1 (zh) |
CN (1) | CN106295287B (zh) |
TW (1) | TWI662433B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI684923B (zh) * | 2016-07-22 | 2020-02-11 | 美商美國Nec實驗室有限公司 | 用於抗欺騙臉部辨識之活性偵測 |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104980278B (zh) * | 2014-04-14 | 2018-11-16 | 阿里巴巴集团控股有限公司 | 验证生物特征图像的可用性的方法和装置 |
US11042725B2 (en) * | 2016-12-16 | 2021-06-22 | Keylemon Sa | Method for selecting frames used in face processing |
GB2560340A (en) * | 2017-03-07 | 2018-09-12 | Eyn Ltd | Verification method and system |
US11199907B2 (en) * | 2017-05-29 | 2021-12-14 | Abhinav Arvindkumar AGGARWAL | Method and a system for assisting in performing financial services |
CN107292620A (zh) * | 2017-06-14 | 2017-10-24 | 浪潮金融信息技术有限公司 | 身份识别方法及装置、计算机可读存储介质、终端 |
CN107609462A (zh) * | 2017-07-20 | 2018-01-19 | 北京百度网讯科技有限公司 | 待检测信息生成及活体检测方法、装置、设备及存储介质 |
CN107657160B (zh) * | 2017-09-12 | 2020-01-31 | Oppo广东移动通信有限公司 | 面部信息采集方法及相关产品 |
CN109587188B (zh) * | 2017-09-28 | 2021-10-22 | 阿里巴巴集团控股有限公司 | 确定终端设备之间相对位置关系的方法、装置及电子设备 |
CN107832598B (zh) * | 2017-10-17 | 2020-08-14 | Oppo广东移动通信有限公司 | 解锁控制方法及相关产品 |
KR20190046063A (ko) * | 2017-10-25 | 2019-05-07 | 현대자동차주식회사 | 사용자 인증 시스템, 사용자 인증 방법 및 서버 |
CN107733911A (zh) * | 2017-10-30 | 2018-02-23 | 郑州云海信息技术有限公司 | 一种动力与环境监控系统客户端登录验证系统及方法 |
FR3077658B1 (fr) * | 2018-02-06 | 2020-07-17 | Idemia Identity And Security | Procede d'authentification d'un visage |
CN108509916A (zh) * | 2018-03-30 | 2018-09-07 | 百度在线网络技术(北京)有限公司 | 用于生成图像的方法和装置 |
CN109345253A (zh) * | 2018-09-04 | 2019-02-15 | 阿里巴巴集团控股有限公司 | 资源转移方法、装置及系统 |
WO2020095350A1 (ja) * | 2018-11-05 | 2020-05-14 | 日本電気株式会社 | 情報処理装置、情報処理方法及び記録媒体 |
CN110532744A (zh) * | 2019-07-22 | 2019-12-03 | 平安科技(深圳)有限公司 | 人脸登录方法、装置、计算机设备及存储介质 |
US11263634B2 (en) * | 2019-08-16 | 2022-03-01 | Advanced New Technologies Co., Ltd. | Payment method and device |
KR102115989B1 (ko) * | 2020-02-25 | 2020-05-27 | 주식회사 이글루시큐리티 | 3차원 대시보드 제공 방법, 장치 및 프로그램 |
KR102389587B1 (ko) * | 2020-10-13 | 2022-04-25 | (주)드림시큐리티 | 안면인식 바이오 정보 라이브니스 검증 장치 및 방법 |
CN112363621A (zh) * | 2020-11-13 | 2021-02-12 | 北京达佳互联信息技术有限公司 | 一种终端控制方法、装置、电子设备及存储介质 |
KR102545565B1 (ko) * | 2021-10-06 | 2023-06-21 | 주식회사 오픈잇 | 라이브니스 검증 방법, 및 이를 이용하는 서버 및 프로그램 |
CN116994344A (zh) * | 2022-07-18 | 2023-11-03 | 腾讯科技(深圳)有限公司 | 刷掌验证的引导方法、装置、终端、存储介质及程序产品 |
CN116883003A (zh) * | 2023-07-10 | 2023-10-13 | 国家电网有限公司客户服务中心 | 基于生物探针技术的移动端支付购电反欺诈方法、系统 |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR0146446B1 (ko) * | 1995-07-24 | 1998-08-17 | 양승택 | 병렬 공통 버스형 고속 패킷 교환 시스템의 가입자 입출력 장치 |
JP2003317100A (ja) | 2002-02-22 | 2003-11-07 | Matsushita Electric Ind Co Ltd | 情報端末装置、認証システム、及び登録・認証方法 |
FI117217B (fi) * | 2003-10-01 | 2006-07-31 | Nokia Corp | Menetelmä ja järjestelmä käyttöliittymän (User Interface) hallitsemiseksi, vastaava laite ja ohjelmalliset (Software) välineet menetelmän toteuttamiseksi |
US7629880B2 (en) * | 2004-03-09 | 2009-12-08 | Ingrid, Inc. | System, method and device for detecting a siren |
EP1715443B1 (en) | 2005-04-22 | 2012-12-05 | Hitachi-Omron Terminal Solutions, Corp. | Biometrics authentication apparatus |
JP2007241500A (ja) * | 2006-03-07 | 2007-09-20 | Toshiba Corp | 顔認証装置および顔認証方法 |
WO2008039252A2 (en) | 2006-05-15 | 2008-04-03 | Retica Systems, Inc. | Multimodal ocular biometric system |
JP4752660B2 (ja) * | 2006-07-28 | 2011-08-17 | 沖電気工業株式会社 | 個人認証方法及び個人認証装置 |
KR100851981B1 (ko) | 2007-02-14 | 2008-08-12 | 삼성전자주식회사 | 비디오 영상에서 실 객체 판별 방법 및 장치 |
US8555207B2 (en) * | 2008-02-27 | 2013-10-08 | Qualcomm Incorporated | Enhanced input using recognized gestures |
EP2371283B1 (en) | 2008-12-17 | 2017-03-29 | Fujitsu Limited | Biometric authentication device and biometric authentication method |
US8697435B2 (en) * | 2009-08-31 | 2014-04-15 | Mbio Diagnostics, Inc. | Integrated sample preparation and analyte detection |
EP2357608B1 (en) * | 2009-12-28 | 2012-11-21 | Softkinetic Software | Tracking method |
US8994499B2 (en) * | 2011-03-16 | 2015-03-31 | Apple Inc. | Locking and unlocking a mobile device using facial recognition |
JP2012196286A (ja) * | 2011-03-18 | 2012-10-18 | Konami Digital Entertainment Co Ltd | ゲーム装置、ゲーム装置の制御方法、及びプログラム |
JP4916583B1 (ja) * | 2011-05-31 | 2012-04-11 | 有限会社はたらきもの | 画像利用式認証方法 |
US8548207B2 (en) | 2011-08-15 | 2013-10-01 | Daon Holdings Limited | Method of host-directed illumination and system for conducting host-directed illumination |
US8988350B2 (en) * | 2011-08-20 | 2015-03-24 | Buckyball Mobile, Inc | Method and system of user authentication with bioresponse data |
BR112014007073A2 (pt) * | 2011-09-25 | 2017-04-11 | Theranos Inc | sistemas e métodos para multi-análise |
US9081947B2 (en) | 2011-12-27 | 2015-07-14 | Intel Corporation | Turing test based user authentication and user presence verification system, device, and method |
US9025830B2 (en) | 2012-01-20 | 2015-05-05 | Cyberlink Corp. | Liveness detection system based on face behavior |
US9082011B2 (en) | 2012-03-28 | 2015-07-14 | Texas State University—San Marcos | Person identification using ocular biometrics with liveness detection |
TW201401186A (zh) * | 2012-06-25 | 2014-01-01 | Psp Security Co Ltd | 人臉判斷系統以及方法 |
US8437513B1 (en) | 2012-08-10 | 2013-05-07 | EyeVerify LLC | Spoof detection for biometric authentication |
EP2713307B1 (en) | 2012-09-28 | 2018-05-16 | Accenture Global Services Limited | Liveness detection |
US8856541B1 (en) | 2013-01-10 | 2014-10-07 | Google Inc. | Liveness detection |
US9294475B2 (en) | 2013-05-13 | 2016-03-22 | Hoyos Labs Ip, Ltd. | System and method for generating a biometric identifier |
CN104166835A (zh) * | 2013-05-17 | 2014-11-26 | 诺基亚公司 | 用于识别活体用户的方法和装置 |
CN103440479B (zh) * | 2013-08-29 | 2016-12-28 | 湖北微模式科技发展有限公司 | 一种活体人脸检测方法与系统 |
TW201512882A (zh) | 2013-09-30 | 2015-04-01 | Hon Hai Prec Ind Co Ltd | 身份認證系統及方法 |
US9305225B2 (en) | 2013-10-14 | 2016-04-05 | Daon Holdings Limited | Methods and systems for determining user liveness |
US9020213B1 (en) | 2013-10-17 | 2015-04-28 | Daon Holdings Limited | Methods and systems for detecting biometric characteristics in an image |
US9202119B2 (en) | 2013-10-18 | 2015-12-01 | Daon Holdings Limited | Methods and systems for determining user liveness |
CN103593598B (zh) * | 2013-11-25 | 2016-09-21 | 上海骏聿数码科技有限公司 | 基于活体检测和人脸识别的用户在线认证方法及系统 |
KR20150087670A (ko) * | 2014-01-22 | 2015-07-30 | 삼성전자주식회사 | 스마트 워치 및 그 제어 방법 |
-
2015
- 2015-06-10 CN CN201510315782.2A patent/CN106295287B/zh active Active
- 2015-12-18 TW TW104142722A patent/TWI662433B/zh active
-
2016
- 2016-06-08 US US15/176,515 patent/US10250598B2/en active Active
- 2016-06-09 EP EP16808238.6A patent/EP3308325B1/en active Active
- 2016-06-09 KR KR1020177037454A patent/KR102036978B1/ko active IP Right Grant
- 2016-06-09 JP JP2017556528A patent/JP6610906B2/ja active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI684923B (zh) * | 2016-07-22 | 2020-02-11 | 美商美國Nec實驗室有限公司 | 用於抗欺騙臉部辨識之活性偵測 |
Also Published As
Publication number | Publication date |
---|---|
JP2018524654A (ja) | 2018-08-30 |
CN106295287A (zh) | 2017-01-04 |
CN106295287B (zh) | 2019-04-09 |
KR20180017056A (ko) | 2018-02-20 |
US10250598B2 (en) | 2019-04-02 |
KR102036978B1 (ko) | 2019-10-25 |
TWI662433B (zh) | 2019-06-11 |
EP3308325C0 (en) | 2023-10-25 |
EP3308325B1 (en) | 2023-10-25 |
EP3308325A4 (en) | 2019-01-23 |
EP3308325A1 (en) | 2018-04-18 |
US20160366129A1 (en) | 2016-12-15 |
JP6610906B2 (ja) | 2019-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TW201643761A (zh) | 活體檢測方法和裝置以及身分認證方法和裝置 | |
CN105574518B (zh) | 人脸活体检测的方法和装置 | |
EP3862897A1 (en) | Facial recognition for user authentication | |
CN105740779B (zh) | 人脸活体检测的方法和装置 | |
WO2017101267A1 (zh) | 人脸活体的鉴别方法、终端、服务器和存储介质 | |
CN104933389B (zh) | 一种基于指静脉的身份识别方法和装置 | |
AU2019203928B2 (en) | Face location detection | |
CN111194449A (zh) | 用于人脸活体检测的系统和方法 | |
CN109690553A (zh) | 执行眼睛注视跟踪的系统和方法 | |
WO2017025573A1 (en) | Liveness detection | |
WO2013159686A1 (en) | Three-dimensional face recognition for mobile devices | |
JP6760490B2 (ja) | 認識装置、認識方法および認識プログラム | |
TW202121251A (zh) | 活體檢測方法及裝置、儲存介質 | |
EP3700167B1 (en) | Methods and systems for determining user liveness and verifying user identities | |
CN105320954A (zh) | 人脸认证装置和方法 | |
CN106937532B (zh) | 用于检测真正用户的系统和方法 | |
JPWO2015146101A1 (ja) | 顔照合装置、方法、及び、記録媒体 | |
JP2021531601A (ja) | ニューラルネットワーク訓練、視線検出方法及び装置並びに電子機器 | |
CN110751728B (zh) | 具有bim建筑模型混合现实功能的虚拟现实设备及方法 | |
JP5555193B2 (ja) | データ処理装置、データ処理システム、及びプログラム | |
CN109492455A (zh) | 活体对象检测及身份认证方法、介质、系统和相关装置 | |
WO2016201016A1 (en) | Liveness detection method and device, and identity authentication method and device | |
TWI668639B (zh) | 臉部辨識系統與方法 | |
KR20130081126A (ko) | 손 제스처 인식 방법 및 그 장치 | |
JP2010231354A (ja) | 顔認識装置及び顔器官の特徴点特定方法 |