TWI754887B - 活體檢測方法和裝置、電子設備及儲存介質 - Google Patents
活體檢測方法和裝置、電子設備及儲存介質 Download PDFInfo
- Publication number
- TWI754887B TWI754887B TW109101824A TW109101824A TWI754887B TW I754887 B TWI754887 B TW I754887B TW 109101824 A TW109101824 A TW 109101824A TW 109101824 A TW109101824 A TW 109101824A TW I754887 B TWI754887 B TW I754887B
- Authority
- TW
- Taiwan
- Prior art keywords
- image
- processed
- prosthesis
- living body
- probability
- Prior art date
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 202
- 238000000034 method Methods 0.000 title claims abstract description 84
- 238000012545 processing Methods 0.000 claims abstract description 24
- 230000008569 process Effects 0.000 claims description 25
- 238000004590 computer program Methods 0.000 claims description 20
- 238000013528 artificial neural network Methods 0.000 claims description 19
- 238000001727 in vivo Methods 0.000 claims description 10
- 238000012549 training Methods 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 9
- 238000001574 biopsy Methods 0.000 claims description 2
- 238000013527 convolutional neural network Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 14
- 238000012795 verification Methods 0.000 description 14
- 238000013135 deep learning Methods 0.000 description 9
- 238000010801 machine learning Methods 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000012360 testing method Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000011218 segmentation Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000011478 gradient descent method Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 210000000746 body region Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2433—Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/758—Involving statistics of pixels or of feature values, e.g. histogram matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Operations Research (AREA)
- Probability & Statistics with Applications (AREA)
- Algebra (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
本申請實施例公開了一種活體檢測方法和裝置、電子設備及儲存介質,其中方法包括:對待處理圖像進行處理,獲得所述待處理圖像的多個像素點對應於假體的概率;確定所述待處理圖像中的預測人臉區域;基於所述待處理圖像的多個像素點對應於假體的概率和所述預測人臉區域,獲得所述待處理圖像的活體檢測結果。
Description
本申請關於電腦視覺技術領域但不限於視覺技術領域,具體關於一種活體檢測方法和裝置、電子設備及儲存介質。
人臉識別技術已經廣泛應用於人臉解鎖、人臉支付、身份認證、視頻監控等場景中。然而,人臉識別系統存在容易被帶人臉的圖片和視頻、面具等假體攻破的風險。為了保證人臉識別系統的安全性,需要活體檢測技術來確認輸入系統的人臉的真實性,即判斷提交的生物特徵是否來自有生命的個體。
目前,基於人臉運動的人臉識別方法在單次活體檢測中需要的時間過長,降低了人臉識別系統的整體效率。基於單幀圖像的識別與檢測方法中通常引入多眼攝影頭、3D結構光設備等額外的硬體設施,提高了部署成本,也降低了適用性,如何提高單幀圖像的活體檢測精度是本領域亟待解決的技術問題。
本申請實施例提供了一種活體檢測方法和裝置、電子設備及儲存介質。
本申請實施例第一方面提供一種活體檢測方法,包括:對待處理圖像進行處理,獲得所述待處理圖像的多個像素點對應於假體的概率;確定所述待處理圖像中的預測人臉區域;基於所述待處理圖像的多個像素點對應於假體的概率和所述預測人臉區域,獲得所述待處理圖像的活體檢測結果。
在一種實施方式中,所述對待處理圖像進行處理,獲得所述待處理圖像的多個像素點對應於假體的概率,包括:利用神經網路對所述待處理圖像進行處理,輸出所述待處理圖像中每個像素點對應於假體的概率。
在一種實施方式中,所述神經網路基於具有像素級別標籤的樣本資料訓練獲得。
在一種實施方式中,所述基於所述待處理圖像的多個像素點對應於假體的概率和所述預測人臉區域,獲得所述待處理圖像的活體檢測結果,包括:基於所述多個像素點的位置資訊和所述預測人臉區域,從所述多個像素點中確定所述預測人臉區域包括的至少兩個像素點;基於所述至少兩個像素點中每個像素點對應於假體的概率,確定所述待檢測圖像的活體檢測結果。
在一種實施方式中,所述基於所述至少兩個像素點中每個像素點對應於假體的概率,確定所述待檢測圖像的活體檢測結果,包括:基於所述至少兩個像素點中每個像素點對應於假體的概率,確定所述至少兩個像素點中的至少一個假體像素點;
基於所述至少一個假體像素點在所述至少兩個像素點中所占的比例,確定所述待檢測圖像的活體檢測結果。
在一種實施方式中,所述基於所述至少兩個像素點中每個像素點對應於假體的概率,確定所述待檢測圖像的活體檢測結果,包括:基於所述至少兩個像素點中每個像素點對應於假體的概率,確定所述至少兩個像素點中的至少一個假體像素點;基於所述至少一個假體像素點在所述至少兩個像素點中所占的比例,確定所述待檢測圖像的活體檢測結果。
在一種實施方式中,所述基於所述至少兩個像素點中每個像素點對應於假體的概率,確定所述待檢測圖像的活體檢測結果,包括:對所述至少兩個像素點對應於假體的概率進行平均處理,得到概率平均值;基於所述概率平均值,確定所述待處理圖像的活體檢測結果。
在一種實施方式中,所述基於所述待處理圖像的多個像素點對應於假體的概率和所述預測人臉區域,獲得所述待處理圖像的活體檢測結果,包括:基於所述待處理圖像的多個像素點對應於假體的概率,確定所述待處理圖像
的假體區域;基於所述假體區域和所述預測人臉區域的位置,確定所述待處理圖像的活體檢測結果。
在一種實施方式中,所述基於所述假體區域和所述預測人臉區域的位置,確定所述待處理圖像的活體檢測結果,包括:基於所述假體區域和所述預測人臉區域的位置,確定所述假體區域與所述預測人臉區域之間的重疊區域;基於所述重疊區域在所述預測人臉區域中所占的比例,確定所述待檢測圖像的活體檢測結果。
在一種實施方式中,所述方法還包括:顯示基於所述多個像素點對應於假體的概率確定的至少一個假體像素點;和/或,輸出基於所述多個像素點對應於假體的概率確定的至少一個假體像素點的資訊以用於顯示。
在一種實施方式中,所述確定所述待處理圖像中的預測人臉區域包括:對所述待處理圖像進行人臉關鍵點檢測,得到關鍵點預測資訊;基於所述關鍵點預測資訊,確定所述待處理圖像中的預測人臉區域。
在一種實施方式中,所述對所述待處理圖像進行人臉關鍵點檢測,得到關鍵點預測資訊之前,所述方法還包括:對所述待檢測圖像進行人臉檢測,得到所述待處理圖像中的人臉框選區域;所述對所述待處理圖像進行人臉關鍵點檢測,得到關鍵點預測資訊包括:對所述人臉框選區域的圖像進行人臉關鍵點檢測,得到關鍵點預測資訊。
在一種實施方式中,所述確定所述待處理圖像中的預測人臉區域包括:對所述待處理圖像進行人臉檢測,得到所述待處理圖像中的預測人臉區域。
在一種實施方式中,在所述對待處理圖像進行處理之前,所述方法還包括:獲取單眼攝影頭採集的所述待處理圖像。
本申請實施例第二方面提供一種活體檢測裝置,包括:像素預測模組、人臉檢測模組和分析模組,其中:所述像素預測模組,用於對待處理圖像進行處理,獲得所述待處理圖像的多個像素點對應於假體的概率;所述人臉檢測模組,用於確定所述待處理圖像中的預測人臉區域;所述分析模組,用於基於所述待處理圖像的多個像素點對應於假體的概率和所述預測人臉區域,獲得所述待處理圖像的活體檢測結果。
本申請實施例第三方面提供一種電子設備,包括處理器以及記憶體,所述記憶體用於儲存電腦程式,所述電腦程式被配置成由所述處理器執行,所述處理器用於執行如本申請實施例第一方面任一方法中所描述的部分或全部步驟。
本申請實施例第四方面提供一種電腦可讀儲存介質,所述電腦可讀儲存介質用於儲存電腦程式,其中,所述電腦程式使得電腦執行如本申請實施例第一方面任一方法中所描述的部分或全部步驟。
本申請實施例第五方面提供一種電腦程式產品,其中,所述電腦程式產品包含電腦程式;所述電腦程式被配置成由所述處理器執行,所述處理器用於執行前述第一方面任一方法中所描述的部分或全部步驟。
本申請實施例中,通過對待處理圖像進行處理,獲得上述待處理圖像的多個像素點對應於假體的概率,確定上述待處理圖像中的預測人臉區域,再基於上述待處理圖像的多個像素點對應於假體的概率和上述預測人臉區域,獲得上述待處理圖像的活體檢測結果,能夠提升對於單幀圖像的活體檢測的精度。
300‧‧‧活體檢測裝置
310‧‧‧像素預測模組
320‧‧‧人臉檢測模組
330‧‧‧分析模組
331‧‧‧第一單元
332‧‧‧第二單元
340‧‧‧顯示模組
350‧‧‧傳輸模組
360‧‧‧圖像獲取模組
400‧‧‧電子設備
401‧‧‧處理器
402‧‧‧記憶體
403‧‧‧匯流排
404‧‧‧輸入輸出設備
此處的附圖被併入說明書中並構成本說明書的一部分,這些附圖示出了符合本公開的實施例,並與說明書一起用於說明本公開的技術方案。
圖1是本申請實施例公開的一種活體檢測方法的流程示意圖;
圖2是本申請實施例公開的另一種活體檢測方法的流程示意圖;
圖3是本申請實施例公開的一種神經網路處理過程示意圖;
圖4是本申請實施例公開的一種活體檢測裝置的結構示意圖;
圖5是本申請實施例公開的一種電子設備的結構示意圖。
下面將結合本申請實施例中的附圖,對本申請實施例中的技術方案進行清楚、完整地描述,顯然,所描述的實施例僅僅是本申請一部分實施例,而不是全部的實施例。基於本申請中的實施例,本領域普通技術人員在沒有作出創造性勞動前提下所獲得的所有其他實施例,都屬於本申請保護的範圍。
本申請中的術語“和/或”,僅僅是一種描述關聯物件的關聯關係,表示可以存在三種關係,例如,A和/或B,可以表示:單獨存在A,同時存在A和B,單獨存在B這三種情況。另外,本文中術語“至少一種”表示多種中的任意一種或多種中的至少兩種的任意組合,例如,包括A、B、C中的至少一種,可以表示包括從A、B和C構成的集合中選擇的任意一個或多個元素。本申請的說明書和申請專利範圍及上述附圖中的術語“第一”、“第二”等是用於區別不同物件,而不是用於描述特定順序。此外,術語“包括”和“具有”以及它們任何變形,意圖在於覆蓋不排他的包含。例如包含了一系列步驟或單元的過程、方法、系統、產品或設備沒有限定於已列出的步驟或單元,而是可選地還包括沒有列出的步驟或單元,或可選地還包括對於這些過程、方法、產品或設備固有的其他步驟或單元。
在本文中提及“實施例”意味著,結合實施例描述的特定特徵、結構或特性可以包含在本申請的至少一個實施例中。在說明書中的各個位置出現該短語並不一定均是指相同的實施例,也不是與其它實施例互斥的獨立的或備選的實施例。本領域技術人員顯式地和隱式地理解的是,本文所描述的實施例可以與其它實施例相結合。
本申請實施例所涉及到的活體檢測裝置是可以進行活體檢測的裝置,可以為電子設備,上述電子設備包括終端設備,具體實現中,上述終端設備包括但不限於諸如具有觸摸敏感表面(例如,觸控式螢幕顯示器和/或觸控板)的行動電話、膝上型電腦或平板電腦之類的其它可擕式設備。還應當理解的是,在某些實施例中,所述設備並非可擕式通信設備,而是具有觸摸敏感表面(例如,觸控式螢幕顯示器和/或觸控板)的臺式電腦。
本申請實施例中的深度學習的概念源於人工神經網路的研究。含多隱層的多層感知器就是一種深度學習結構。深度學習通過組合低層特徵形成更加抽象的高層表示屬性類別或特徵,以發現資料的分散式特徵表示。
深度學習是機器學習中一種基於對資料進行表徵學習的方法。觀測值(例如一幅圖像)可以使用多種方式來表示,如每個像素點強度值的向量,或者更抽象地表示成一系列邊、特定形狀的區域等。而使用某些特定的表示方法更容易從實例中學習任務(例如,人臉識別或面部表情識別)。深度學習的好處是用非監督式或半監督式的特
徵學習和分層特徵提取高效演算法來替代手工獲取特徵。深度學習是機器學習研究中的一個新的領域,其動機在於建立、模擬人腦進行分析學習的神經網路,它模仿人腦的機制來解釋資料,例如圖像,聲音和文本。
同機器學習方法一樣,深度機器學習方法也有監督學習與無監督學習之分。不同的學習框架下建立的學習模型很是不同。例如,卷積神經網路(Convolutional neural network,CNN)就是一種深度的監督學習下的機器學習模型,也可稱為基於深度學習的網路結構模型,是一類包含卷積計算且具有深度結構的前饋神經網路(Feed forward Neural Networks),是深度學習的代表演算法之一。而深度置信網(Deep Belief Net,DBN)就是一種無監督學習下的機器學習模型。
下面對本申請實施例進行詳細介紹。請參閱圖1,圖1是本申請實施例公開的一種活體檢測方法的流程示意圖,如圖1所示,該活體檢測方法包括如下步驟。
101、對待處理圖像進行處理,獲得上述待處理圖像的多個像素點對應於假體的概率。活體檢測是在一些身份驗證場景確定物件真實生理特徵的方法,一般在人臉識別應用中,活體檢測能通過眨眼、張嘴、搖頭、點頭等組合動作,使用人臉關鍵點定位和人臉追蹤等技術,驗證用戶是否為真實活體本人操作,可有效抵禦照片、換臉、面具、遮擋以及螢幕翻拍等常見的攻擊手段,從而幫助甄別欺詐行為,保障用戶的利益。
在本申請實施例中,所述活體檢測方法可以應用於各種需要人臉應用的場景。例如,所述活體檢測方法可應用於安防領域,當安防領域的安防設備進行安防的人臉驗證時,可以通過本申請實施例提供的活體檢測方法,確定當前採集的圖像是否為針對活人採集的圖像。
例如,安防領域的門禁設備通過採集到人臉圖像或者從其他採集設備接收到人臉圖像之後,會採用本申請實施例提供的方法進行活體驗證,若通過活體驗證,確定當前採集的圖像是針對真人活體進行的採集的,在結合人臉驗證和/或虹膜驗證等其他生物特徵驗證技術進行安防驗證,一方面,確保生物特徵結果的準確性,以確保安防領域的安全性;採用本申請實施例提供的方法,可以基於單張圖像等進行像素級的假體驗證,快速完成活體驗證,提升驗證速率,減少時延。
再例如,移動終端等終端設備在支付時,為了確保支付的安全性,可以結合生物特徵進行支付驗證,但是為了減少利用假體冒充通過生物特徵驗證,移動終端等還會進行本申請實施例中的活體驗證,該移動終端可以採集圖像之後,自行執行本申請的活體驗證,從而減少假體假冒的風險;另一方面採用本申請實施例提供的活體驗證方法進行活體驗證,具有採集的圖像少及驗證速度快的特點。
而如上述所說,基於人臉運動的這類活體檢測方法在單次檢測中需要時間較長,因而降低了人臉識別系統的整體效率。
活體檢測方法的執行主體可以是上述活體檢測裝置,例如,活體檢測方法可以由終端設備或伺服器或其它處理設備執行,其中,終端設備可以為使用者設備(User Equipment,UE)、移動設備、使用者終端、終端、蜂窩電話、無線電話、個人數位助理(Personal Digital Assistant,PDA)、手持設備、計算設備、車載設備、可穿戴設備等。在一些可能的實現方式中,該活體檢測方法可以通過處理器調用記憶體中儲存的電腦可讀指令的方式來實現。
本申請實施例主要可以解決對於單幀圖像的活體檢測技術問題。其中,上述待處理圖像可以為單幀圖像,可以是攝影頭採集的圖像,比如終端設備的攝影頭拍攝的照片,或者通過終端設備的攝影頭拍攝的視頻中的單幀圖像等,本申請實施例對待處理圖像的獲取方式以及實例的具體實現不做限定。
本申請實施例中提到的單幀圖像,就是一副靜止的畫面,連續的幀就形成動畫效果,如電視視頻等。通常說的幀數,簡單地說就是在1秒鐘時間裡傳輸的圖片的幀數,也可以理解為圖形處理器每秒鐘能夠刷新幾次,通常用fps(Frames Per Second)表示。高的幀率可以得到更流暢、更逼真的動畫。
在一種可能的實施方式中,可以將上述待處理圖像輸入神經網路進行處理,輸出上述待處理圖像中每個像素點對應於假體的概率。可以基於訓練後的卷積神經網路對
待處理圖像進行處理,其中,上述卷積神經網路可以為任意端對端、點對點的卷積神經網路,可以為目前已有的語義分割網路,包括用於全監督的語義分割網路。
在一種實施方式中,可以使用具有像素級別標籤的樣本資料訓練上述卷積神經網路。訓練後的上述卷積神經網路可以在輸入的單幀圖像中逐像素點預測其屬於假體的概率。
在一些實施例中,樣本資料包括:第一類資料和第二類資料,第一類資料為來自假體的樣本資料,第二類資料為真人拍照圖像的非假體資料。這些樣本資料為圖像資料,圖像資料中每一個像素都被標注了標籤,這種標籤為像素級別標籤。
其中,上述多個像素點可以為待處理圖像的所有或部分像素點,本申請實施例對此不做限定。本申請實施例中的活體檢測裝置可以識別待處理圖像中的像素點,並預測該待處理圖像的多個像素點對應於假體的概率。上述待處理圖像可以是包含人臉的圖像。
在一些實施例中,活體檢測裝置的輸入可以為上述包含人臉的待處理圖像,輸出可以為上述待處理圖像的多個像素點對應於假體的概率,上述多個像素點對應於假體的概率可以是概率矩陣的形式,即可以獲得該待處理圖像的像素點的概率矩陣,該概率矩陣可以指示上述待處理圖像中的多個像素點對應於假體的概率。在獲得上述待處理
圖像的多個像素點對應於假體的概率之後,可以執行步驟102。
102、確定上述待處理圖像中的預測人臉區域。在一些實施例中,可以通過人臉識別演算法,在檢測到圖像中的人臉並定位面部關鍵特徵點之後,確定出其中主要的人臉區域。上述人臉區域可以理解為該待處理圖像中人臉所在的區域。
本申請實施例中可以基於人臉關鍵點檢測演算法確定上述待處理圖像中的預測人臉區域。在一種實施方式中,可以對上述待處理圖像進行人臉關鍵點檢測,得到關鍵點預測資訊;再基於上述關鍵點預測資訊,確定上述待處理圖像中的預測人臉區域。在一些實施例中,通過人臉關鍵點檢測可以得到上述待處理圖像中人臉的關鍵點並且求出其凸包,這個凸包可以作為大致的人臉區域。
在一個實數向量空間V中,對於給定集合X,所有包含X的凸集的交集S被稱為X的凸包。X的凸包可以用X內所有點(X1,...Xn)的凸組合來構造。通俗來講,給定二維平面上的點集,凸包可以理解為將最外層的點連接起來構成的凸多邊形,它能包含點集中所有的點,在待處理圖像中可以表現為框起來的人臉區域。上述人臉關鍵點檢測演算法可以是輸入平面上的若干點、輸出它們的凸包的任意演算法,比如旋轉卡殼法、Graham掃描法和Jarvis步進法演算法等,也可以包括OpenCV中的相關演算法。
OpenCV是一個基於BSD許可(開源)發行的跨平臺電腦視覺庫,可以運行在Linux、Windows、Android和Mac OS作業系統上。它輕量級而且高效(由一系列C函數和少量C++類構成),同時提供了Python、Ruby、MATLAB等語言的介面,實現了影像處理和電腦視覺方面的很多通用演算法。
在一些實施例中,對上述待處理圖像進行人臉關鍵點檢測,得到關鍵點預測資訊之前,上述方法還包括:對上述待檢測圖像進行人臉檢測,得到上述待處理圖像中的人臉框選區域;上述對上述待處理圖像進行人臉關鍵點檢測,得到關鍵點預測資訊可包括:對上述人臉框選區域的圖像進行人臉關鍵點檢測,得到關鍵點預測資訊。
在一些人臉關鍵點檢測演算法中,需要確定出人臉的外部輪廓和器官。在本申請實施例中,對人臉的定位有較高的精准度,所以在獲得上述人臉關鍵點之前,可以先進行人臉檢測(要求有較高的準確度,但任意可行的人臉檢測演算法都可以)得出人臉的輪廓邊框,即上述人臉框選區域,再將該人臉框選區域輸入進行人臉關鍵點檢測,獲得上述關鍵點預測資訊,再確定預測人臉區域。
本申請實施例中對關鍵點的數量不做限定,可以標注出人臉的輪廓即可。
在一些可能的實現方式中,可以對待處理圖像進行人臉檢測,得到上述待處理圖像中的預測人臉區域。
在一些實施例中,可以基於人臉分割方法進行人臉檢測,確定上述待處理圖像中的預測人臉區域。由於本申請實施例中,對人臉區域的準確度要求並不嚴格,所以能夠大概確定出人臉區域的相關演算法都可以用於確定上述預測人臉區域,本申請實施例對此不做限定。
在獲得待處理圖像的多個像素點對應於假體的概率和確定上述待處理圖像中的預測人臉區域之後,可以執行步驟103。103、基於上述待處理圖像的多個像素點對應於假體的概率和上述預測人臉區域,獲得上述待處理圖像的活體檢測結果。
可以基於上述獲得的多個像素點對應於假體的概率和得到的人臉的大概位置(預測人臉區域)進行綜合分析,來判斷待處理圖像中人臉的真實性。其中,基於上述多個像素點對應於假體的概率可以生成概率分佈圖,上述概率分佈圖可以理解為在待處理圖像中體現像素點對應於假體的概率的圖像,比較直觀,在此基礎上,可以結合上述預測人臉區域,確定該預測人臉區域中的像素點對應於假體的概率,便於進行活體檢測的判斷。其中,可以按照預設的閾值對像素點進行判斷。
在一種可能的實施方式中,可以基於上述多個像素點的位置資訊和上述預測人臉區域,從上述多個像素點中確定上述預測人臉區域包括的至少兩個像素點;基於上述至少兩個像素點中每個像素點對應於假體的概率,確定上述待檢測圖像的活體檢測結果。
在一些實施例中,待處理圖像中的像素點位置可以被確定,活體檢測裝置可以確定其中每個像素點的位置資訊,再根據上述像素點的位置資訊和上述預測人臉區域,判斷像素點與該預測人臉區域的相對位置,以進一步確定該預測人臉區域內的像素點,即可以確定上述預測人臉區域包括的至少兩個像素點,可記為P,可以是預測人臉區域的像素點總數。可以基於上述至少兩個像素點中每個像素點對應於假體的概率來判斷活體檢測結果,可以理解為,對於預測人臉區域內的像素點,其對應於假體的概率越大,概率大的像素點越多,則活體檢測結果為假體的可能性越大,反之,活體檢測結果為活體的可能性越大。
進一步,上述基於上述至少兩個像素點中每個像素點對應於假體的概率,確定上述待檢測圖像的活體檢測結果,包括:基於上述至少兩個像素點中每個像素點對應於假體的概率,確定上述至少兩個像素點中的至少一個假體像素點;基於上述至少一個假體像素點在上述至少兩個像素點中所占的比例,確定上述待檢測圖像的活體檢測結果。
在一些實施例中,由於已得到待處理圖像的每個像素點對應於假體的概率,又確定了預測人臉區域包括的至少兩個像素點,可以確定基於該至少兩個像素點中每個像素點對應於假體的概率,確定上述至少兩個像素點中的至少一個假體像素點,上述假體像素點可以理解為被判斷屬於假體的像素點。
其中,對假體像素點的判斷可以基於概率和預設閾值的比對。一般而言,假體像素點占預測人臉區域的像素點的比例越高,活體檢測為假體的可能性越大。
在一些實施例中,該活體檢測裝置中可以儲存有預設閾值λ1,可以獲得上述至少兩個像素點中每個像素點對應於假體的概率大於預設閾值λ1的像素點數量,即假體像素點可記為Q。
在確定上述假體像素點之後,可以計算獲得上述至少一個假體像素點在上述至少兩個像素點中所占的比例Q/P,在確定上述比例之後,可以確定上述待檢測圖像的活體檢測結果。
在一些實施例中,上述基於上述至少一個假體像素點在上述至少兩個像素點中所占的比例,確定上述待檢測圖像的活體檢測結果,包括:回應於上述比例大於或等於第一閾值,確定上述待檢測圖像的活體檢測結果為假體。
在另一些實施例中,回應於上述比例小於上述第一閾值,確定上述待檢測圖像的活體檢測結果為活體。
在一些實施例中,可以預先設置有上述第一閾值λ2,該活體檢測裝置可以儲存有上述第一閾值λ2,用於逐像素分析進行活體檢測的判定,即通過比較上述比例Q/P和第一閾值λ2的大小,來分析待處理圖像中的人臉是否為假體。一般而言,上述比例Q/P越高,表示活體檢測結果為假體的可能性越大。
若比例Q/P大於或者等於第一閾值λ2,可以確定上述待檢測圖像的活體檢測結果為假體;若比例Q/P小於第一閾值λ2,可以確定上述待檢測圖像的活體檢測結果為活體。
本申請實施例中對像素點進行判斷使用的各個閾值可以是預設的或者是根據實際情況確定的,以及可以進行修改和增刪,本申請實施例對此不做限定。
在一種可能的實施方式中,上述待處理圖像的活體檢測結果即包括該待處理圖像中的人臉為活體還是假體,在獲得上述活體檢測結果之後,可以輸出上述活體檢測結果。
在一種實施方式中,該方法還包括:顯示基於所述多個像素點對應於假體的概率確定的至少一個假體像素點。
在一種實施方式中,該方法還包括:輸出基於所述多個像素點對應於假體的概率確定的至少一個假體像素點的資訊以用於顯示。
在一些實施例中,活體檢測裝置可以對活體檢測結果進行顯示,可以顯示出上述至少一個假體像素點,也可以輸出基於上述多個像素點對應於假體的概率確定的至少一個假體像素點的資訊,上述資訊可以用於顯示上述假體像素點,即也可以向其他終端設備傳輸上述資訊以進行假體像素點的顯示。通過顯示或者說標記出假體像素點,
可以直觀的看出每一次判斷所依據的圖像中確切的區域,所以檢測結果有更高的可解釋性。
本領域技術人員可以理解,在具體實施方式的上述方法中,各步驟的撰寫順序並不意味著嚴格的執行順序而對實施過程構成任何限定,各步驟的具體執行順序應當以其功能和可能的內在邏輯確定。
在本申請實施例中,可以對待處理圖像進行處理,獲得上述待處理圖像的多個像素點對應於假體的概率,確定上述待處理圖像中的預測人臉區域,再基於上述待處理圖像的多個像素點對應於假體的概率和上述預測人臉區域,獲得上述待處理圖像的活體檢測結果,不需要多眼攝影頭、3D結構光等額外的硬體設施,在只有一個單眼攝影頭的情況下也可以大幅提升對於單幀圖像的活體檢測的精度,適應性更高,降低檢測成本。
請參閱圖2,圖2是本申請實施例公開的另一種活體檢測方法的流程示意圖,圖2是在圖1的基礎上進一步優化得到的。執行本申請實施例步驟的主體可以為前述的一種活體檢測裝置。如圖2所示,該活體檢測方法包括如下步驟:201、利用神經網路對待處理圖像進行處理,輸出上述待處理圖像中每個像素點對應於假體的概率。
訓練後的神經網路獲得待處理圖像中每個像素點對應於假體的概率。在一些實施例中,可以獲得待處理圖像的圖像尺寸M×N,基於神經網路對包含人臉的待處理圖像進行處理,可以輸出M×N階概率矩陣,上述M×N階概
率矩陣中的元素可以分別指示上述待處理圖像中每個像素點對應於假體的概率,其中,上述M和N為大於1的整數。
本申請實施例中的圖像尺寸的長度與寬度可以以像素為單位,像素與解析度像素是數碼影像最基本的單位,每個像素就是一個小點,而不同顏色的點(像素)聚集起來就變成一幅圖片。圖像解析度為許多終端設備可選擇的成像大小及尺寸,單位為dpi。比如常見的有640 x 480、1024 x 768、1600 x 1200、2048 x 1536。在成像的兩組數位中,前者為圖片寬度,後者為圖片的高度,兩者相乘得出的是圖片的像素。
本申請實施例主要是解決對於單幀圖像的活體檢測技術問題。其中,上述待處理圖像可以為單幀圖像,可以是攝影頭採集的圖像,比如終端設備的攝影頭拍攝的照片,或者通過終端設備的攝影頭拍攝的視頻中的單幀圖像等。
在一些實施例中,在上述對待處理圖像進行處理之前,上述方法還包括:獲取單眼攝影頭採集的上述待處理圖像。
本申請實施例對待處理圖像的獲取方式以及實例的具體實現不做限定。
本申請實施例中提到的單幀圖像,就是一副靜止的畫面,連續的幀就形成動畫效果,如電視視頻等。通常說的幀數,簡單地說就是在1秒鐘時間裡傳輸的圖片的幀
數,也可以理解為圖形處理器每秒鐘能夠刷新幾次,通常用fps表示。高的幀率可以得到更流暢、更逼真的動畫。
本申請實施例可以基於訓練後的卷積神經網路對包含人臉的待處理圖像進行處理,其中,上述卷積神經網路可以為任意端對端、點對點的卷積神經網路,可以為目前已有的語義分割網路,包括用於全監督的語義分割網路。
在一種實施方式中,可以使用具有像素級別標籤的樣本資料訓練上述卷積神經網路,比起現有方法使用圖像級標籤的資料,達到同樣的精度所需資料量可以減少一到兩個數量級。訓練後的卷積神經網路可以在輸入的單幀圖像中逐像素點預測其對應於假體的概率。
本申請實施例的活體檢測方法的執行主體可以是活體檢測裝置,例如,可以由終端設備或伺服器或其它處理設備執行,其中,終端設備可以為使用者設備(User Equipment,UE)、移動設備、使用者終端、終端、蜂窩電話、無線電話、個人數位助理(Personal Digital Assistant,PDA)、手持設備、計算設備、車載設備、可穿戴設備等。在一些可能的實現方式中,該活體檢測方法可以通過處理器調用記憶體中儲存的電腦可讀指令的方式來實現,本申請實施例不做限定。
本申請實施例中上述活體檢測裝置可以識別待處理圖像的圖像尺寸M×N,通過卷積神經網路對包含人臉的上述待處理圖像進行處理,預測出上述待處理圖像中每個
像素點對應於假體的概率,可以以對應的M×N階概率矩陣形式輸出,可以理解為上述M×N階概率矩陣中的元素分別指示待處理圖像中各個像素點對應於假體的概率,其中,上述M和N為大於1的整數。
在本公開實施例中,基於上述卷積神經網路還可以生成概率分佈圖,上述概率分佈圖可以理解為在待處理圖像中體現各個像素點對應於假體的概率的圖像,比較直觀,也便於進行活體檢測的判斷。
在一些實施例中,上述卷積神經網路可以基於小批量隨機梯度下降演算法和學習率衰減策略訓練獲得,也可用類似作用的優化演算法替代,保證網路模型在訓練過程中能收斂即可,本申請實施例對訓練演算法不作限定。
梯度下降(Gradient Descent)是反覆運算法的一種,可以用於求解最小二乘問題(線性和非線性都可以)。在求解機器學習演算法的模型參數,即無約束優化問題時,梯度下降是最常採用的方法之一。在求解損失函數的最小值時,可以通過梯度下降法來一步步的反覆運算求解,得到最小化的損失函數和模型參數值。在機器學習中,基於基本的梯度下降法發展了兩種梯度下降方法,分別為隨機梯度下降(Stochastic Gradient Descent,SGD)法和批量梯度下降(Batch Gradient Descent,BGD)法。
本申請實施例中的小批量梯度下降(Mini-Batch Gradient Descent,MBGD),是對批量梯度下降以
及隨機梯度下降的一個折中辦法。其思想是每次反覆運算使用“batch_size”個樣本來對參數進行更新。該方法通過矩陣運算,每次在一個batch上優化神經網路參數並不會比單個資料慢太多,而每次使用一個batch可以大大減小收斂所需要的反覆運算次數,同時可以使收斂到的結果更加接近梯度下降的效果。
學習率(Learning rate)作為監督學習以及深度學習中重要的參數,決定著目標函數能否收斂到局部最小值以及何時收斂到最小值。合適的學習率能夠使目標函數在合適的時間內收斂到局部最小值。
在一種實施方式中,上述學習率衰減策略可以調整的參數有初始學習率,比如設置為0.005,衰減多項式的冪次,比如設置為0.9;梯度下降演算法中可調整的有動量,比如設置為0.5,和權值衰減參數,比如設置為0.001。上述參數可以根據訓練和應用的實際情況設置和修改,本申請實施例對訓練過程的具體參數設置不作限定。
202、確定上述待處理圖像中的預測人臉區域。
其中,上述步驟202可以參考圖1所示實施例中步驟102的具體描述,此處不再贅述。
在確定預測人臉區域和獲得上述待處理圖像中每個像素點對應於假體的概率之後可以執行步驟203。
203、基於上述每個像素點的位置資訊和上述預測人臉區域,從上述每個像素點中確定上述預測人臉區域包括的至少兩個像素點。
在一些實施例中,待處理圖像中的像素點位置可以被確定,活體檢測裝置可以確定其中每個像素點的位置資訊,再根據上述像素點的位置資訊和上述預測人臉區域,判斷像素點與該預測人臉區域的相對位置,以進一步確定該預測人臉區域內的像素點,即可以確定上述預測人臉區域包括的至少兩個像素點,其數量可記為P,可以是預測人臉區域的像素點總數。之後可以執行步驟204。
204、基於上述至少兩個像素點中每個像素點對應於假體的概率,確定上述至少兩個像素點中的至少一個假體像素點。
在一些實施例中,由於已得到待處理圖像的每個像素點對應於假體的概率,又確定了預測人臉區域包括的至少兩個像素點,可以確定基於該至少兩個像素點中每個像素點對應於假體的概率,確定上述至少兩個像素點中的至少一個假體像素點,上述假體像素點可以理解為被判斷屬於假體的像素點。
其中,對假體像素點的判斷可以基於概率和預設閾值的比對。該活體檢測裝置中可以儲存有預設閾值λ1,可以獲得上述至少兩個像素點中每個像素點對應於假體的概率大於預設閾值λ1的像素點數量,即假體像素點的數量可記為Q。
在確定上述至少兩個像素點中的至少一個假體像素點之後,可以執行步驟205。
205、確定上述至少一個假體像素點在上述至少兩個像素點中所占的比例。進一步地,在確定上述假體像素點之後,可以計算獲得上述至少一個假體像素點在上述至少兩個像素點中所占的比例Q/P,即在預測人臉區域中假體像素點所占的比例。在確定上述比例之後,可以執行步驟206和/或步驟207。
206、回應於上述比例大於或等於第一閾值,確定上述待檢測圖像的活體檢測結果為假體。本申請實施例中可以預先設置有上述第一閾值λ2,該活體檢測裝置可以儲存有上述第一閾值λ2,用於逐像素分析進行活體檢測的判定,即通過判斷上述比例Q/P是否大於第一閾值λ2,來分析待處理圖像中的人臉是否為假體。若比例Q/P大於或者等於第一閾值λ2,即表示在預測人臉區域中被判斷為假體像素點的像素點所占比例較高,可以確定上述待檢測圖像的活體檢測結果為假體,並且可以輸出上述活體檢測結果。若比例Q/P小於第一閾值λ2,即表示在預測人臉區域中被判斷為假體像素點的像素點所占比例較低,可以執行步驟207,即確定上述待檢測圖像的活體檢測結果為活體。
進一步,在確定上述待處理圖像中的人臉為假體之後,可以輸出告警資訊或者向預設終端設備發送上述告警資訊,以提示使用者在人臉識別過程中檢測到假體,保證人臉識別的安全性。
207、回應於上述比例小於上述第一閾值,確定上述待檢測圖像的活體檢測結果為活體。
在另一種實施方式中,該方法還包括:
對所述至少兩個像素點對應於假體的概率進行平均處理,得到概率平均值;
基於所述概率平均值,確定所述待處理圖像的活體檢測結果。
在一些實施例中,類似的,可以對上述至少兩個像素點對應於假體的概率進行平均處理,得到概率平均值,即該預測人臉區域內各個像素點屬於假體的概率平均值R。
在一些實施例中,該活體檢測裝置中可以預先設置並儲存有目標閾值λ3,進而可以判斷上述概率平均值R是否大於目標閾值λ3,來進行活體檢測的判斷。若上述概率平均值R大於目標閾值λ3,表示該人臉的像素點屬於假體的概率相對偏高,可以確定上述待檢測圖像的活體檢測結果為假體;若上述概率平均值R不大於目標閾值λ3,表示該人臉的像素點屬於假體的概率相對偏低,可以確定上述待檢測圖像的活體檢測結果為活體。
在又一種實施方式中,上述基於所述待處理圖像的多個像素點對應於假體的概率和所述預測人臉區域,獲得所述待處理圖像的活體檢測結果,可包括:基於所述待處理圖像的多個像素點對應於假體的概率,確定所述待處理
圖像的假體區域;基於所述假體區域和所述預測人臉區域的位置,確定所述待處理圖像的活體檢測結果。
上述假體區域可以理解為待處理圖像中對應於假體的概率相對較高的像素點所聚集的區域。在一些實施例中,活體檢測裝置中可以儲存有第二閾值λ4,可以將多個像素點對應於假體的概率與第二閾值λ4進行比較,確定大於或者等於該第二閾值λ4的像素點所在的區域為假體區域,進一步地,可以對假體區域和預測人臉區域的位置進行比較,主要可以比對兩者的重疊情況,可以確定活體檢測結果。
在一些實施例中,可以基於上述假體區域和上述預測人臉區域的位置,確定上述假體區域與上述預測人臉區域之間的重疊區域;基於上述重疊區域在上述預測人臉區域中所占的比例,確定上述待檢測圖像的活體檢測結果。
通過對上述假體區域和上述預測人臉區域的位置的比對,可以確定出上述假體區域與上述預測人臉區域之間的重疊區域,進而可以計算出該重疊區域在上述預測人臉區域中所占的比例n,可以是該重疊區域的面積占該預測人臉區域的面積的比值,通過該比例n可以確定待檢測圖像的活體檢測結果,一般而言,該比例n越大表示檢測結果為假體的可能性越大。在一些實施例中,活體檢測裝置中可以儲存有第三閾值λ5,可以將上述比例n與第三閾值λ5進行比較,若上述比例n大於或等於第三閾值λ5,則可以確定上述待檢測圖像的活體檢測結果為假體,若上述比例
n小於第三閾值λ5,則可以確定上述待檢測圖像的活體檢測結果為活體。
本申請實施例中對像素點進行判斷使用的各個閾值可以是預設的或者是根據實際情況確定的,以及可以進行修改和增刪,本申請實施例對此不做限定。
可以參見圖3所示的神經網路處理過程示意圖,其中圖像A為待處理圖像,具體為包含人臉的圖像,在進行人臉識別的過程中需要進行活體檢測,B過程表示利用本申請實施例中訓練後的神經網路對輸入的圖像A進行卷積處理,其中白框可以理解為卷積層中進行特徵提過程取的多個特徵圖,神經網路的處理過程可以參考圖1、圖2中的相關描述,此處不再贅述;通過神經網路對圖像A進行逐像素點的預測,可以輸出圖像C,可以包含預測人臉區域,以及確定的圖像中各像素點對應於假體的概率,即可以得到活體檢測結果(假體或者活體)。在活體檢測結果為假體的情況下,圖像C中所示的預測人臉區域即為假體區域(圖像C中部淺色區域),其中包含的用於概率判斷的像素點可以稱為上述假體像素點,角落的黑色區域是粗略判斷為圖像背景的部分,對活體檢測的影響不大。基於上述神經網路對輸入的待處理圖像的處理,其輸出結果也可以直觀的看出判斷所依據的圖像中確切的區域,活體檢測結果有更高的可解釋性。
本領域技術人員可以理解,在具體實施方式的上述方法中,各步驟的撰寫順序並不意味著嚴格的執行順序而
對實施過程構成任何限定,各步驟的具體執行順序應當以其功能和可能的內在邏輯確定。
本申請實施例可以作為人臉識別系統的一部分,判斷輸入系統的人臉的真實性,以保障整個人臉識別系統的安全。在一些實施例中,可以應用於監控系統或者考勤系統等人臉識別場景中,與直接預測圖像中人臉是否為假體的概率的方法相比,基於像素點的概率分析提高了活體檢測的精度;並且適用於單眼攝影頭和單幀圖像的檢測,適應性高,與使用多眼攝影頭、3D結構光等硬體設備的活體檢測相比降低了成本;而使用具有像素級別標籤的樣本資料訓練卷積神經網路,比起一般使用圖像級標籤的資料,達到同樣的精度所需資料量可以減少一到兩個數量級,在提高活體檢測精度的前提下減少了訓練所需資料量,提高了處理效率。
本申請實施例通過利用神經網路對待處理圖像進行處理,輸出上述待處理圖像中每個像素點對應於假體的概率,確定上述待處理圖像中的預測人臉區域,基於上述每個像素點的位置資訊和上述預測人臉區域,從上述每個像素點中確定上述預測人臉區域包括的至少兩個像素點,再基於上述至少兩個像素點中每個像素點對應於假體的概率,確定上述至少兩個像素點中的至少一個假體像素點,然後確定上述至少一個假體像素點在上述至少兩個像素點中所占的比例,回應於上述比例大於或等於第一閾值,確定上述待檢測圖像的活體檢測結果為假體,回應於
上述比例小於上述第一閾值,則確定上述待檢測圖像的活體檢測結果為活體,不需要多眼攝影頭、3D結構光等額外的硬體設施,可以在只有一個單眼攝影頭的情況下,通過逐像點的預測,大幅提升對於單幀圖像的活體檢測的精度,適應性更高,降低檢測成本。
上述主要從方法側執行過程的角度對本申請實施例的方案進行了介紹。可以理解的是,活體檢測裝置為了實現上述功能,其包含了執行各個功能相應的硬體結構和/或軟體模組。本領域技術人員應該很容易意識到,結合本文中所公開的實施例描述的各示例的單元及演算法步驟,本申請能夠以硬體或硬體和電腦軟體的結合形式來實現。某個功能究竟以硬體還是電腦軟體驅動硬體的方式來執行,取決於技術方案的特定應用和設計約束條件。專業技術人員可以對特定的應用使用不同方法來實現所描述的功能,但是這種實現不應認為超出本申請的範圍。
本申請實施例可以根據上述方法示例對活體檢測裝置進行功能單元的劃分,例如,可以對應各個功能劃分各個功能單元,也可以將兩個或兩個以上的功能集成在一個處理單元中。上述集成的單元既可以採用硬體的形式實現,也可以採用軟體功能單元的形式實現。需要說明的是,本申請實施例中對單元的劃分是示意性的,僅僅為一種邏輯功能劃分,實際實現時可以有另外的劃分方式。
請參閱圖4,圖4是本申請實施例公開的一種活體檢測裝置的結構示意圖。如圖4所示,該活體檢測裝置300
包括像素預測模組310、人臉檢測模組320和分析模組330,其中:所述像素預測模組310,用於對待處理圖像進行處理,獲得所述待處理圖像的多個像素點對應於假體的概率;所述人臉檢測模組320,用於確定所述待處理圖像中的預測人臉區域;所述分析模組330,用於基於所述待處理圖像的多個像素點對應於假體的概率和所述預測人臉區域,獲得所述待處理圖像的活體檢測結果。
在一些實施例中,所述像素預測模組310用於,將所述待處理圖像輸入到卷積神經網路進行處理,獲得所述待處理圖像中每個像素點對應於假體的概率。
在一些實施例中,上述卷積神經網路基於具有像素級別標籤的樣本資料訓練獲得。
在一些實施例中,所述分析模組330包括第一單元331和第二單元332,其中:所述第一單元331用於,基於所述多個像素點的位置資訊和所述預測人臉區域,從所述多個像素點中確定所述預測人臉區域包括的至少兩個像素點;所述第二單元332用於,基於所述至少兩個像素點中每個像素點對應於假體的概率,確定所述待檢測圖像的活體檢測結果。
在一些實施例中,所述第二單元332用於:基於所述至少兩個像素點中每個像素點對應於假體的概率,確定所述至少兩個像素點中的至少一個假體像素點;基於所述至少一個假體像素點在所述至少兩個像素點中所占的比例,確定所述待檢測圖像的活體檢測結果。
在一種實施方式中,所述第二單元332用於:回應於所述比例大於或等於第一閾值,確定所述待檢測圖像的活體檢測結果為假體;和/或,回應於所述比例小於所述第一閾值,確定所述待檢測圖像的活體檢測結果為活體。
在一些實施例中,所述第二單元332用於:對所述至少兩個像素點對應於假體的概率進行平均處理,得到概率平均值;基於所述概率平均值,確定所述待處理圖像的活體檢測結果。
在一種實施方式中,所述分析模組330用於:基於所述待處理圖像的多個像素點對應於假體的概率,確定所述待處理圖像的假體區域;基於所述假體區域和所述預測人臉區域的位置,確定所述待處理圖像的活體檢測結果。
在一些實施例中,所述分析模組330用於:基於所述假體區域和所述預測人臉區域的位置,確定所述假體區域與所述預測人臉區域之間的重疊區域;基於所述重疊區域在所述預測人臉區域中所占的比例,確定所述待檢測圖像的活體檢測結果。
在一種可能的實施方式中,該活體檢測裝置300還包括:顯示模組340,用於顯示基於所述多個像素點對應於假體的概率確定的至少一個假體像素點;和/或,傳輸模組350,用於輸出基於所述多個像素點對應於假體的概率確定的至少一個假體像素點的資訊以用於顯示。
在一些實施例中,所述人臉檢測模組320用於:對所述待處理圖像進行人臉關鍵點檢測,得到關鍵點預測資
訊;基於所述關鍵點預測資訊,確定所述待處理圖像中的預測人臉區域。
在一些實施例中,所述人臉檢測模組320還用於,對所述待檢測圖像進行人臉檢測,得到所述待處理圖像中的人臉框選區域;所述人臉檢測模組320用於,對所述人臉框選區域的圖像進行人臉關鍵點檢測,得到關鍵點預測資訊。
在一種實施方式中,所述人臉檢測模組320用於:對所述待處理圖像進行人臉檢測,得到所述待處理圖像中的預測人臉區域。
在一種實施方式中,上述活體檢測裝置300還包括圖像獲取模組360,用於獲取單眼攝影頭採集的所述待處理圖像。
使用本申請實施例中的活體檢測裝置300,可以實現前述圖1和圖2實施例中的活體檢測方法。
實施圖4所示的活體檢測裝置300,活體檢測裝置300可以對待處理圖像進行處理,獲得上述待處理圖像的多個像素點對應於假體的概率,確定上述待處理圖像中的預測人臉區域,再基於上述待處理圖像的多個像素點對應於假體的概率和上述預測人臉區域,獲得上述待處理圖像的活體檢測結果,不需要多眼攝影頭、3D結構光等額外的硬體設施,在只有一個單眼攝影頭的情況下也可以大幅提升對於單幀圖像的活體檢測的精度,適應性更高,降低檢測成本。
請參閱圖5,圖5是本申請實施例公開的一種電子設備的結構示意圖。如圖5所示,該電子設備400包括處理器401和記憶體402,其中,電子設備400還可以包括匯流排403,處理器401和記憶體402可以通過匯流排403相互連接,匯流排403可以是外設部件互連標準(Peripheral Component Interconnect,PCI)匯流排或延伸工業標準架構(Extended Industry Standard Architecture,EISA)匯流排等。匯流排403可以分為位址匯流排、資料匯流排、控制匯流排等。為便於表示,圖4中僅用一條粗線表示,但並不表示僅有一根匯流排或一種類型的匯流排。其中,電子設備400還可以包括輸入輸出設備404,輸入輸出設備404可以包括顯示幕,例如液晶顯示幕。記憶體402用於儲存電腦程式;處理器401用於調用儲存在記憶體402中的電腦程式執行上述圖1和圖2實施例中提到的部分或全部方法步驟。
實施圖5所示的電子設備400,電子設備400可以對待處理圖像進行處理,獲得上述待處理圖像的多個像素點對應於假體的概率,確定上述待處理圖像中的預測人臉區域,再基於上述待處理圖像的多個像素點對應於假體的概率和上述預測人臉區域,獲得上述待處理圖像的活體檢測結果,不需要多眼攝影頭、3D結構光等額外的硬體設施,在只有一個單眼攝影頭的情況下也可以大幅提升對於單幀圖像的活體檢測的精度,適應性更高,降低檢測成本。
本申請實施例還提供一種電腦儲存介質,其中,該電腦儲存介質用於儲存電腦程式,該電腦程式使得電腦執行如上述方法實施例中記載的任何一種活體檢測方法的部分或全部步驟。
本申請實施例提供一種電腦程式產品,其中,所述電腦程式產品包含電腦程式;所述電腦程式被配置成由所述處理器執行,所述處理器用於執行上述方法實施例中記載的任何一種活體檢測方法的部分或全部步驟。
需要說明的是,對於前述的各方法實施例,為了簡單描述,故將其都表述為一系列的動作組合,但是本領域技術人員應該知悉,本申請並不受所描述的動作順序的限制,因為依據本申請,某些步驟可以採用其他順序或者同時進行。其次,本領域技術人員也應該知悉,說明書中所描述的實施例均屬於優選實施例,所涉及的動作和模組並不一定是本申請所必須的。
在上述實施例中,對各個實施例的描述都各有側重,某個實施例中沒有詳述的部分,可以參見其他實施例的相關描述。
在本申請所提供的幾個實施例中,應該理解到,所揭露的裝置,可通過其它的方式實現。例如,以上所描述的裝置實施例僅僅是示意性的,例如所述單元的劃分,僅僅為一種邏輯功能劃分,實際實現時可以有另外的劃分方式,例如多個單元或元件可以結合或者可以集成到另一個系統,或一些特徵可以忽略,或不執行。另一點,所顯示
或討論的相互之間的耦合或直接耦合或通信連接可以是通過一些介面,裝置或單元的間接耦合或通信連接,可以是電性或其它的形式。
所述作為分離部件說明的單元(模組)可以是或者也可以不是物理上分開的,作為單元顯示的部件可以是或者也可以不是物理單元,即可以位於一個地方,或者也可以分佈到多個網路單元上。可以根據實際的需要選擇其中的部分或者全部單元來實現本實施例方案的目的。
另外,在本申請各個實施例中的各功能單元可以集成在一個處理單元中,也可以是各個單元單獨物理存在,也可以兩個或兩個以上單元集成在一個單元中。上述集成的單元既可以採用硬體的形式實現,也可以採用軟體功能單元的形式實現。
所述集成的單元如果以軟體功能單元的形式實現並作為獨立的產品銷售或使用時,可以儲存在一個電腦可讀取記憶體中。基於這樣的理解,本申請的技術方案本質上或者說對現有技術做出貢獻的部分或者該技術方案的全部或部分可以以軟體產品的形式體現出來,該電腦軟體產品儲存在一個記憶體中,包括若干指令用以使得一台電腦設備(可為個人電腦、伺服器或者網路設備等)執行本申請各個實施例所述方法的全部或部分步驟。而前述的記憶體包括:U盤、唯讀記憶體(Read-Only Memory,ROM)、隨機存取記憶體(Random Access Memory,
RAM)、移動硬碟、磁碟或者光碟等各種可以儲存程式碼的介質。
本領域普通技術人員可以理解上述實施例的各種方法中的全部或部分步驟是可以通過程式來指令相關的硬體來完成,該程式可以儲存於一電腦可讀記憶體中,記憶體可以包括:快閃記憶體盤、唯讀記憶體、隨機存取器、磁片或光碟等。
以上對本申請實施例進行了詳細介紹,本文中應用了具體個例對本申請的原理及實施方式進行了闡述,以上實施例的說明只是用於幫助理解本申請的方法及其核心思想;同時,對於本領域的一般技術人員,依據本申請的思想,在具體實施方式及應用範圍上均會有改變之處,綜上所述,本說明書內容不應理解為對本申請的限制。
圖1代表圖為流程圖,無元件符號簡單說明。
Claims (15)
- 一種活體檢測方法,所述方法包括:對待處理圖像進行處理,獲得所述待處理圖像的多個像素點對應於假體的概率,所述假體包括帶人臉的圖片和視頻、面具中的至少一項;確定所述待處理圖像中的預測人臉區域;基於所述待處理圖像的多個像素點對應於假體的概率和所述預測人臉區域,獲得所述待處理圖像的活體檢測結果。
- 根據請求項1所述的活體檢測方法,其中,所述對待處理圖像進行處理,獲得所述待處理圖像的多個像素點對應於假體的概率,包括:利用神經網路對所述待處理圖像進行處理,輸出所述待處理圖像中每個像素點對應於假體的概率:所述神經網路基於具有像素級別標籤的樣本資料訓練獲得。
- 根據請求項1至2中任一項所述的活體檢測方法,其中,所述基於所述待處理圖像的多個像素點對應於假體的概率和所述預測人臉區域,獲得所述待處理圖像的活體檢測結果,包括:基於所述多個像素點的位置資訊和所述預測人臉區域,從所述多個像素點中確定所述預測人臉區域包括的至少兩個像素點;基於所述至少兩個像素點中每個像素點對應於假體 的概率,確定所述待檢測圖像的活體檢測結果。
- 根據請求項3所述的活體檢測方法,其中,所述基於所述至少兩個像素點中每個像素點對應於假體的概率,確定所述待檢測圖像的活體檢測結果,包括:基於所述至少兩個像素點中每個像素點對應於假體的概率,確定所述至少兩個像素點中的至少一個假體像素點;基於所述至少一個假體像素點在所述至少兩個像素點中所占的比例,確定所述待檢測圖像的活體檢測結果。
- 根據請求項4所述的活體檢測方法,其中,所述基於所述至少一個假體像素點在所述至少兩個像素點中所占的比例,確定所述待檢測圖像的活體檢測結果,包括:回應於所述比例大於或等於第一閾值,確定所述待檢測圖像的活體檢測結果為假體;和/或回應於所述比例小於所述第一閾值,確定所述待檢測圖像的活體檢測結果為活體。
- 根據請求項3所述的活體檢測方法,其中,所述基於所述至少兩個像素點中每個像素點對應於假體的概率,確定所述待檢測圖像的活體檢測結果,包括:對所述至少兩個像素點對應於假體的概率進行平均 處理,得到概率平均值;基於所述概率平均值,確定所述待處理圖像的活體檢測結果。
- 根據請求項1至2中任一項所述的活體檢測方法,其中,所述基於所述待處理圖像的多個像素點對應於假體的概率和所述預測人臉區域,獲得所述待處理圖像的活體檢測結果,包括:基於所述待處理圖像的多個像素點對應於假體的概率,確定所述待處理圖像的假體區域;基於所述假體區域和所述預測人臉區域的位置,確定所述待處理圖像的活體檢測結果。
- 根據請求項7所述的活體檢測方法,其中,所述基於所述假體區域和所述預測人臉區域的位置,確定所述待處理圖像的活體檢測結果,包括:基於所述假體區域和所述預測人臉區域的位置,確定所述假體區域與所述預測人臉區域之間的重疊區域;基於所述重疊區域在所述預測人臉區域中所占的比例,確定所述待檢測圖像的活體檢測結果。
- 根據請求項8所述的活體檢測方法,還包括:顯示基於所述多個像素點對應於假體的概率確定的至少一個假體像素點;和/或輸出基於所述多個像素點對應於假體的概率確定的 至少一個假體像素點的資訊以用於顯示。
- 根據請求項1至2中任一項所述的活體檢測方法,其中,所述確定所述待處理圖像中的預測人臉區域包括:對所述待處理圖像進行人臉關鍵點檢測,得到關鍵點預測資訊;基於所述關鍵點預測資訊,確定所述待處理圖像中的預測人臉區域。
- 根據請求項10所述的活體檢測方法,其中,所述對所述待處理圖像進行人臉關鍵點檢測,得到關鍵點預測資訊之前,所述方法還包括:對所述待檢測圖像進行人臉檢測,得到所述待處理圖像中的人臉框選區域;所述對所述待處理圖像進行人臉關鍵點檢測,得到關鍵點預測資訊包括:對所述人臉框選區域的圖像進行人臉關鍵點檢測,得到關鍵點預測資訊。
- 根據請求項1至2中任一項所述的活體檢測方法,其中,所述確定所述待處理圖像中的預測人臉區域包括:對所述待處理圖像進行人臉檢測,得到所述待處理圖像中的預測人臉區域;和/或在所述對待處理圖像進行處理之前,所述方法還包括:獲取單眼攝影頭採集的所述待處理圖像。
- 一種活體檢測裝置,包括:像素預測模組、 人臉檢測模組和分析模組;其中:所述像素預測模組,用於對待處理圖像進行處理,獲得所述待處理圖像的多個像素點對應於假體的概率,所述假體包括帶人臉的圖片和視頻、面具中的至少一項;所述人臉檢測模組,用於確定所述待處理圖像中的預測人臉區域;所述分析模組,用於基於所述待處理圖像的多個像素點對應於假體的概率和所述預測人臉區域,獲得所述待處理圖像的活體檢測結果。
- 一種電子設備,包括處理器以及記憶體,所述記憶體用於儲存電腦程式,所述電腦程式被配置成由所述處理器執行,所述處理器用於執行如請求項1至12任一項所述的方法。
- 一種電腦可讀儲存介質,所述電腦可讀儲存介質用於儲存電腦程式,其中,所述電腦程式使得電腦執行如請求項1至12任一項所述的方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910257350.9 | 2019-04-01 | ||
CN201910257350.9A CN111767760A (zh) | 2019-04-01 | 2019-04-01 | 活体检测方法和装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
TW202038191A TW202038191A (zh) | 2020-10-16 |
TWI754887B true TWI754887B (zh) | 2022-02-11 |
Family
ID=72664509
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW109101824A TWI754887B (zh) | 2019-04-01 | 2020-01-17 | 活體檢測方法和裝置、電子設備及儲存介質 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20200380279A1 (zh) |
JP (1) | JP7165742B2 (zh) |
KR (1) | KR20200118076A (zh) |
CN (1) | CN111767760A (zh) |
SG (1) | SG11202008103YA (zh) |
TW (1) | TWI754887B (zh) |
WO (1) | WO2020199611A1 (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019118089A1 (en) * | 2017-12-11 | 2019-06-20 | Analog Devices, Inc. | Multi-modal far field user interfaces and vision-assisted audio processing |
US11861480B2 (en) * | 2018-08-21 | 2024-01-02 | Siemens Mobility GmbH | Orientation detection in overhead line insulators |
US11670069B2 (en) * | 2020-02-06 | 2023-06-06 | ID R&D, Inc. | System and method for face spoofing attack detection |
CN111507262B (zh) * | 2020-04-17 | 2023-12-08 | 北京百度网讯科技有限公司 | 用于检测活体的方法和装置 |
CN112102154B (zh) * | 2020-08-20 | 2024-04-26 | 北京百度网讯科技有限公司 | 图像处理方法、装置、电子设备和存储介质 |
CN112651311A (zh) * | 2020-12-15 | 2021-04-13 | 展讯通信(天津)有限公司 | 一种人脸识别方法和相关设备 |
CN114913565B (zh) | 2021-01-28 | 2023-11-17 | 腾讯科技(深圳)有限公司 | 人脸图像检测方法、模型训练方法、装置及存储介质 |
CN112883902B (zh) * | 2021-03-12 | 2023-01-24 | 百度在线网络技术(北京)有限公司 | 视频检测方法、装置、电子设备及存储介质 |
CN113705428B (zh) * | 2021-08-26 | 2024-07-19 | 北京市商汤科技开发有限公司 | 活体检测方法及装置、电子设备及计算机可读存储介质 |
CN113869906A (zh) * | 2021-09-29 | 2021-12-31 | 北京市商汤科技开发有限公司 | 人脸支付方法及装置、存储介质 |
CN113971841A (zh) * | 2021-10-28 | 2022-01-25 | 北京市商汤科技开发有限公司 | 一种活体检测方法、装置、计算机设备及存储介质 |
CN114550244A (zh) * | 2022-02-11 | 2022-05-27 | 支付宝(杭州)信息技术有限公司 | 一种活体检测方法、装置及设备 |
CN114648814A (zh) * | 2022-02-25 | 2022-06-21 | 北京百度网讯科技有限公司 | 人脸活体检测方法及模型的训练方法、装置、设备及介质 |
CN116363762B (zh) * | 2022-12-23 | 2024-09-03 | 南京羽丰视讯科技有限公司 | 活体检测方法、深度学习模型的训练方法及装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI632509B (zh) * | 2017-12-29 | 2018-08-11 | 技嘉科技股份有限公司 | 人臉辨識裝置及方法、提升影像辨識率的方法、及電腦可讀儲存介質 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1306456C (zh) * | 2002-12-13 | 2007-03-21 | 佳能株式会社 | 图像处理方法和装置 |
US7415137B2 (en) * | 2002-12-13 | 2008-08-19 | Canon Kabushiki Kaisha | Image processing method, apparatus and storage medium |
JP4812497B2 (ja) | 2006-03-31 | 2011-11-09 | セコム株式会社 | 生体照合システム |
JP5402026B2 (ja) | 2009-01-30 | 2014-01-29 | 株式会社ニコン | 電子カメラおよび画像処理プログラム |
JP6507046B2 (ja) | 2015-06-26 | 2019-04-24 | 株式会社東芝 | 立体物検知装置及び立体物認証装置 |
CN105389554B (zh) * | 2015-11-06 | 2019-05-17 | 北京汉王智远科技有限公司 | 基于人脸识别的活体判别方法和设备 |
CN108603922A (zh) | 2015-11-29 | 2018-09-28 | 阿特瑞斯公司 | 自动心脏体积分割 |
CN109640821B (zh) * | 2016-06-30 | 2022-06-28 | 皇家飞利浦有限公司 | 用于面部检测/识别系统的方法和装置 |
KR102387571B1 (ko) * | 2017-03-27 | 2022-04-18 | 삼성전자주식회사 | 라이브니스 검사 방법 및 장치 |
US10262236B2 (en) * | 2017-05-02 | 2019-04-16 | General Electric Company | Neural network training image generation system |
CN107358157B (zh) * | 2017-06-07 | 2020-10-02 | 创新先进技术有限公司 | 一种人脸活体检测方法、装置以及电子设备 |
CN107220635A (zh) | 2017-06-21 | 2017-09-29 | 北京市威富安防科技有限公司 | 基于多造假方式的人脸活体检测方法 |
CN108229479B (zh) * | 2017-08-01 | 2019-12-31 | 北京市商汤科技开发有限公司 | 语义分割模型的训练方法和装置、电子设备、存储介质 |
CN108280418A (zh) * | 2017-12-12 | 2018-07-13 | 北京深醒科技有限公司 | 脸部图像的欺骗识别方法及装置 |
CN108121977A (zh) * | 2018-01-08 | 2018-06-05 | 深圳天珑无线科技有限公司 | 一种移动终端及其活体人脸识别方法和系统 |
CN108549854B (zh) * | 2018-03-28 | 2019-04-30 | 中科博宏(北京)科技有限公司 | 一种人脸活体检测方法 |
CN108537193A (zh) * | 2018-04-17 | 2018-09-14 | 厦门美图之家科技有限公司 | 一种人脸属性中的种族属性识别方法及移动终端 |
CN108764330A (zh) * | 2018-05-25 | 2018-11-06 | 西安电子科技大学 | 基于超像素分割和卷积反卷积网络的sar图像分类方法 |
CN109191424B (zh) * | 2018-07-23 | 2022-04-22 | 哈尔滨工业大学(深圳) | 一种乳腺肿块检测与分类系统、计算机可读存储介质 |
CN109035516A (zh) * | 2018-07-25 | 2018-12-18 | 深圳市飞瑞斯科技有限公司 | 控制智能锁的方法、装置、设备及存储介质 |
CN109086718A (zh) * | 2018-08-02 | 2018-12-25 | 深圳市华付信息技术有限公司 | 活体检测方法、装置、计算机设备及存储介质 |
US11657525B2 (en) * | 2018-12-04 | 2023-05-23 | Yoti Holding Limited | Extracting information from images |
-
2019
- 2019-04-01 CN CN201910257350.9A patent/CN111767760A/zh active Pending
- 2019-11-22 KR KR1020207024614A patent/KR20200118076A/ko not_active IP Right Cessation
- 2019-11-22 WO PCT/CN2019/120404 patent/WO2020199611A1/zh active Application Filing
- 2019-11-22 SG SG11202008103YA patent/SG11202008103YA/en unknown
- 2019-11-22 JP JP2020544595A patent/JP7165742B2/ja active Active
-
2020
- 2020-01-17 TW TW109101824A patent/TWI754887B/zh active
- 2020-08-20 US US16/998,279 patent/US20200380279A1/en not_active Abandoned
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI632509B (zh) * | 2017-12-29 | 2018-08-11 | 技嘉科技股份有限公司 | 人臉辨識裝置及方法、提升影像辨識率的方法、及電腦可讀儲存介質 |
Also Published As
Publication number | Publication date |
---|---|
US20200380279A1 (en) | 2020-12-03 |
JP7165742B2 (ja) | 2022-11-04 |
SG11202008103YA (en) | 2020-11-27 |
CN111767760A (zh) | 2020-10-13 |
KR20200118076A (ko) | 2020-10-14 |
JP2021520530A (ja) | 2021-08-19 |
WO2020199611A1 (zh) | 2020-10-08 |
TW202038191A (zh) | 2020-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI754887B (zh) | 活體檢測方法和裝置、電子設備及儲存介質 | |
CN108805047B (zh) | 一种活体检测方法、装置、电子设备和计算机可读介质 | |
WO2020103700A1 (zh) | 一种基于微表情的图像识别方法、装置以及相关设备 | |
CN112733802B (zh) | 图像的遮挡检测方法、装置、电子设备及存储介质 | |
CN110532871A (zh) | 图像处理的方法和装置 | |
US20210382542A1 (en) | Screen wakeup method and apparatus | |
CN112036331B (zh) | 活体检测模型的训练方法、装置、设备及存储介质 | |
KR20190099914A (ko) | 전자 장치, 이의 영상 처리 방법 및 컴퓨터 판독가능 기록 매체 | |
CN111597884A (zh) | 面部动作单元识别方法、装置、电子设备及存储介质 | |
CN111368672A (zh) | 一种用于遗传病面部识别模型的构建方法及装置 | |
US11816876B2 (en) | Detection of moment of perception | |
CN114333078A (zh) | 活体检测方法、装置、电子设备及存储介质 | |
CN112487844A (zh) | 手势识别方法、电子设备、计算机可读存储介质和芯片 | |
CN111488774A (zh) | 一种图像处理方法、装置和用于图像处理的装置 | |
CN116778415A (zh) | 一种无人机用人群计数网络模型及计数方法 | |
CN112381064B (zh) | 一种基于时空图卷积网络的人脸检测方法及装置 | |
CN117237547B (zh) | 图像重建方法、重建模型的处理方法和装置 | |
CN110363111A (zh) | 基于镜头失真原理的人脸活体检测方法、装置及存储介质 | |
CN110866508B (zh) | 识别目标对象的形态的方法、装置、终端及存储介质 | |
CN117037244A (zh) | 人脸安全检测方法、装置、计算机设备和存储介质 | |
CN113888432A (zh) | 一种图像增强方法、装置和用于图像增强的装置 | |
CN113542598B (zh) | 图像处理方法、装置、电子设备及可读存储介质 | |
CN114332955B (zh) | 一种行人重识别的方法、装置及计算机可读存储介质 | |
Hanche et al. | Comparative Analysis of Methods of Gesture Recognition in Image Processing | |
Ahmed et al. | Tiny-ML based person identification in dynamic motion |