TWI736883B - 影像處理方法和電子設備 - Google Patents
影像處理方法和電子設備 Download PDFInfo
- Publication number
- TWI736883B TWI736883B TW108114617A TW108114617A TWI736883B TW I736883 B TWI736883 B TW I736883B TW 108114617 A TW108114617 A TW 108114617A TW 108114617 A TW108114617 A TW 108114617A TW I736883 B TWI736883 B TW I736883B
- Authority
- TW
- Taiwan
- Prior art keywords
- target
- face
- image
- depth
- infrared
- Prior art date
Links
- 238000012545 processing Methods 0.000 title claims abstract description 199
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000001514 detection method Methods 0.000 claims abstract description 147
- 238000012795 verification Methods 0.000 claims abstract description 132
- 238000003672 processing method Methods 0.000 claims description 29
- 230000008569 process Effects 0.000 claims description 28
- 238000012937 correction Methods 0.000 claims description 17
- 230000001815 facial effect Effects 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 238000004422 calculation algorithm Methods 0.000 description 11
- 238000007726 management method Methods 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 7
- 238000004590 computer program Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000001678 irradiating effect Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000003796 beauty Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000013478 data encryption standard Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000001727 in vivo Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000036548 skin texture Effects 0.000 description 1
- 230000036555 skin type Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000004148 unit process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/20—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/958—Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
- H04N23/959—Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
一種影像處理方法、裝置、電腦可讀儲存媒體和電子設備。方法包括:獲取目標紅外影像和目標深度影像,並根據目標紅外影像進行人臉檢測確定目標人臉區域,其中目標深度影像用於表示目標紅外影像對應的深度訊息;獲取目標人臉區域對應的目標人臉屬性參數,根據目標人臉屬性參數對目標人臉區域進行人臉匹配處理;若人臉匹配成功,則根據目標深度影像對目標人臉區域進行活體檢測處理,得到活體檢測結果;根據活體檢測結果得到人臉驗證結果。
Description
本申請涉及電腦技術領域,特別是涉及一種影像處理方法、裝置、電腦可讀儲存媒體和電子設備。
[優先權訊息]
本申請請求2018年04月28日向中國國家知識產權局提交的、專利申請號為201810404505.2的專利申請的優先權和權益,並且通過參照將其全文併入此處。
由於人臉具有唯一性特徵,因此人臉識別技術在智能終端中的應用越來越廣泛。智能終端的很多應用程式都會通過人臉進行認證,例如通過人臉進行智能終端的解鎖、通過人臉進行支付認證。同時,智能終端還可以對包含人臉的影像進行處理。例如,對人臉特徵進行識別,根據人臉表情製作表情包,或者通過人臉特徵進行美顏處理等。
本申請實施例提供一種影像處理方法、裝置、電腦可讀儲存媒體和電子設備,可以提高影像處理的準確率。
第一方面,提供了一種影像處理方法,包括:獲取目標紅外影像和目標深度影像,並根據所述目標紅外影像進行人臉檢測確定目標人臉區域,其中所述目標深度影像用於表示目標紅外影像對應的深度訊息;取所述目標人臉區域對應的目標人臉屬性參數,根據所述目標人臉屬性參數對所述目標人臉區域進行人臉匹配處理;若人臉匹配成功,則根據所述目標深度影像對所述目標人臉區域進行活體檢測處理,得到活體檢測結果;和,根據所述活體檢測結果得到人臉驗證結果。
第二方面,提供了一種影像處理裝置,包括人臉檢測模組、人臉匹配模組、活體檢測模組和人臉驗證模組。所述人臉檢測模組用於獲取目標紅外影像和目標深度影像,並根據所述目標紅外影像進行人臉檢測確定目標人臉區域,其中所述目標深度影像用於表示目標紅外影像對應的深度訊息。所述人臉匹配模組用於獲取所述目標人臉區域對應的目標人臉屬性參數,根據所述目標人臉屬性參數對所述目標人臉區域進行人臉匹配處理。所述活體檢測模組用於若人臉匹配成功,則根據所述目標深度影像對所述目標人臉區域進行活體檢測處理,得到活體檢測結果。所述人臉驗證模組用於根據所述活體檢測結果得到人臉驗證結果。
第三方面,提供了一種電腦可讀儲存媒體,其上儲存有電腦程式,所述電腦程式被處理器執行時實現如下步驟:獲取目標紅外影像和目標深度影像,並根據所述目標紅外影像進行人臉檢測確定目標人臉區域,其中所述目標深度影像用於表示目標紅外影像對應的深度訊息;獲取所述目標人臉區域對應的目標人臉屬性參數,根據所述目標人臉屬性參數對所述目標人臉區域進行人臉匹配處理;人臉匹配成功,則根據所述目標深度影像對所述目標人臉區域進行活體檢測處理,得到活體檢測結果;和,根據所述活體檢測結果得到人臉驗證結果。
第四方面,提供了一種電子設備,包括儲存器及處理器,所述儲存器中儲存有電腦可讀指令,所述指令被所述處理器執行時,使得所述處理器執行如下步驟:獲取目標紅外影像和目標深度影像,並根據所述目標紅外影像進行人臉檢測確定目標人臉區域,其中所述目標深度影像用於表示目標紅外影像對應的深度訊息;獲取所述目標人臉區域對應的目標人臉屬性參數,根據所述目標人臉屬性參數對所述目標人臉區域進行人臉匹配處理;若人臉匹配成功,則根據所述目標深度影像對所述目標人臉區域進行活體檢測處理,得到活體檢測結果;和,根據所述活體檢測結果得到人臉驗證結果。
本申請附加的方面和優點將在下面的描述中部分給出,部分將從下面的描述中變得明顯,或通過本申請的實踐瞭解到。
為了使本申請的目的、技術方案及優點更加清楚明白,以下結合附圖及實施例,對本申請進行進一步詳細說明。應當理解,此處所描述的具體實施例僅僅用以解釋本申請,並不用於限定本申請。
可以理解,本申請所使用的術語“第一”、“第二”等可在本文中用於描述各種元件,但這些元件不受這些術語限制。這些術語僅用於將第一個元件與另一個元件區分。舉例來說,在不脫離本申請的範圍的情況下,可以將第一客戶端稱為第二客戶端,且類似地,可將第二客戶端稱為第一客戶端。第一客戶端和第二客戶端兩者都是客戶端,但其不是同一客戶端。
請參閱圖2,本申請的影像處理方法包括步驟202,獲取目標紅外影像和目標深度影像,並根據目標紅外影像進行人臉檢測確定目標人臉區域,其中目標深度影像用於表示目標紅外影像對應的深度訊息。步驟204,獲取目標人臉區域對應的目標人臉屬性參數,根據目標人臉屬性參數對目標人臉區域進行人臉匹配處理。步驟206,若人臉匹配成功,則根據目標深度影像對目標人臉區域進行活體檢測處理,得到活體檢測結果。步驟208,根據活體檢測結果得到人臉驗證結果。
在一個實施例中,目標人臉屬性參數包括人臉偏轉角度、人臉亮度參數、五官參數、膚質參數、幾何特徵參數中的至少一個。
請參閱圖3,在一個實施例中,獲取目標紅外影像和目標深度影像,包括步驟302,當第一處理單元檢測到人臉驗證指令時,控制攝像頭模組採集紅外影像和深度影像;其中,採集紅外影像的第一時刻與採集深度影像的第二時刻之間的時間間隔小於第一閾值。步驟304,根據紅外影像獲取目標紅外影像,根據深度影像獲取目標深度影像。
請參閱圖5,在一個實施例中,根據紅外影像獲取目標紅外影像,根據深度影像獲取目標深度影像,包括步驟502,第一處理單元根據紅外影像計算得到紅外視差影像,並根據深度影像計算得到深度視差影像。步驟504,第一處理單元將紅外視差影像和深度視差影像發送給第二處理單元。步驟506,第二處理單元根據紅外視差影像進行校正得到目標紅外影像,並根據深度視差影像進行校正得到目標深度影像。
請參閱圖3,在一個實施例中,根據目標紅外影像進行人臉檢測確定目標人臉區域,包括步驟306,檢測目標紅外影像中的人臉區域。步驟308,若目標紅外影像中存在兩個或兩個以上的人臉區域,則將區域面積最大的人臉區域作為目標人臉區域。
請參閱圖3,在一個實施例中,根據目標深度影像對目標人臉區域進行活體檢測處理,包括步驟312,提取目標人臉區域在目標深度影像中對應的目標人臉深度區域,根據目標人臉深度區域獲取目標活體屬性參數。步驟314,根據目標活體屬性參數進行活體檢測處理。
在一個實施例中,目標活體屬性參數包括人臉深度訊息、膚質特徵、紋理的方向、紋理的密度、紋理的寬度中的至少一個。
請參閱圖6,在一個實施例中,根據目標深度影像對目標人臉區域進行活體檢測處理,包括步驟602,提取目標人臉區域在目標深度影像中對應的目標人臉深度區域,根據目標人臉深度區域獲取第一目標活體屬性參數。步驟604,獲取散斑影像,散斑影像是通過雷射攝像頭採集的雷射散斑照射到物體上所形成的影像,目標深度影像是根據散斑影像計算得到的。步驟606,提取目標人臉區域在散斑影像中對應的目標人臉散斑區域,根據目標人臉散斑區域獲取第二目標活體屬性參數。步驟608,根據第一目標活體屬性參數和第二目標活體屬性參數進行活體檢測處理。
在一個實施例中,根據活體檢測結果得到人臉驗證結果,包括:若活體檢測成功,則得到人臉驗證成功的結果。若活體檢測失敗,則得到人臉驗證失敗的結果。
方法還包括:若人臉匹配失敗,則得到人臉驗證失敗的結果。
請參閱圖10,本申請的影像處理裝置1000包括人臉檢測模組1002、人臉匹配模組1004、活體檢測模組1006和人臉驗證模組1008。人臉檢測模組1002用於獲取目標紅外影像和目標深度影像,並根據目標紅外影像進行人臉檢測確定目標人臉區域,其中目標深度影像用於表示目標紅外影像對應的深度訊息。人臉匹配模組1004用於獲取目標人臉區域對應的目標人臉屬性參數,根據目標人臉屬性參數對目標人臉區域進行人臉匹配處理。活體檢測模組1006用於若人臉匹配成功,則根據目標深度影像對目標人臉區域進行活體檢測處理,得到活體檢測結果。人臉驗證模組1008用於根據活體檢測結果得到人臉驗證結果。
在一個實施例中,目標人臉屬性參數包括人臉偏轉角度、人臉亮度參數、五官參數、膚質參數、幾何特徵參數中的至少一個。
在一個實施例中,人臉檢測模組1002還用於當第一處理單元檢測到人臉驗證指令時,控制攝像頭模組採集紅外影像和深度影像;其中,採集紅外影像的第一時刻與採集深度影像的第二時刻之間的時間間隔小於第一閾值。人臉檢測模組1002還用於根據紅外影像獲取目標紅外影像,根據深度影像獲取目標深度影像。
在一個實施例中,人臉檢測模組1002還用於控制第一處理單元根據紅外影像計算得到紅外視差影像,並根據深度影像計算得到深度視差影像;控制第一處理單元將紅外視差影像和深度視差影像發送給第二處理單元;控制第二處理單元根據紅外視差影像進行校正得到目標紅外影像,並根據深度視差影像進行校正得到目標深度影像。
在一個實施例中,人臉檢測模組1002還用於檢測目標紅外影像中的人臉區域;若目標紅外影像中存在兩個或兩個以上的人臉區域,則將區域面積最大的人臉區域作為目標人臉區域。
在一個實施例中,活體檢測模組1006還用於提取目標人臉區域在目標深度影像中對應的目標人臉深度區域,根據目標人臉深度區域獲取目標活體屬性參數;根據目標活體屬性參數進行活體檢測處理。
在一個實施例中,目標活體屬性參數包括人臉深度訊息、膚質特徵、紋理的方向、紋理的密度、紋理的寬度中的至少一個。
在一個實施例中,活體檢測模組1006還用於提取目標人臉區域在目標深度影像中對應的目標人臉深度區域,根據目標人臉深度區域獲取第一目標活體屬性參數;獲取散斑影像,散斑影像是通過雷射攝像頭採集的雷射散斑照射到物體上所形成的影像,目標深度影像是根據散斑影像計算得到的;提取目標人臉區域在散斑影像中對應的目標人臉散斑區域,根據目標人臉散斑區域獲取第二目標活體屬性參數;根據第一目標活體屬性參數和第二目標活體屬性參數進行活體檢測處理。
在一個實施例中,人臉驗證模組1008還用於若活體檢測成功,則得到人臉驗證成功的結果;若活體檢測失敗,則得到人臉驗證失敗的結果;若人臉匹配失敗,則得到人臉驗證失敗的結果。
本申請的電腦可讀儲存媒體儲存有電腦程式,電腦程式被處理器執行時實現上述任一實施例的影像處理方法。
本申請的電子設備104包括儲存器及處理器,儲存器中儲存有電腦可讀指令,指令被處理器執行時,使得處理器執行上述任一實施例的影像處理方法。
上述實施例的影像處理方法、裝置、電腦可讀儲存媒體和電子設備可以獲取目標紅外影像和目標深度影像,根據目標紅外影像進行人臉檢測得到目標人臉區域。然後獲取目標人臉區域對應的目標人臉屬性參數,並根據目標人臉屬性參數對目標人臉區域進行人臉匹配處理。當人臉匹配成功之後,再根據目標深度影像對目標人臉區域進行活體檢測,根據活體檢測結果得到最後的人臉驗證結果。這樣在人臉驗證的過程中,可以根據紅外影像進行人臉匹配,根據深度影像進行活體檢測,提高了人臉驗證的準確性。
圖1為一個實施例中影像處理方法的應用場景圖。如圖1所示,該應用場景中包括用戶102和電子設備104。電子設備104中可安裝攝像頭模組,並獲取用戶102對應的目標紅外影像和目標深度影像,並根據目標紅外影像進行人臉檢測確定目標人臉區域,其中目標深度影像用於表示目標紅外影像對應的深度訊息。獲取目標人臉區域對應的目標人臉屬性參數,根據目標人臉屬性參數對目標人臉區域進行人臉匹配處理。若人臉匹配成功,則根據目標深度影像對目標人臉區域進行活體檢測處理,得到活體檢測結果。根據活體檢測結果得到人臉驗證結果。其中,電子設備104可為智能手機、平板電腦、個人數字助理、穿戴式設備等。
圖2為一個實施例中影像處理方法的流程圖。如圖2所示,該影像處理方法包括步驟202至步驟208。其中:
步驟202,獲取目標紅外影像和目標深度影像,並根據目標紅外影像進行人臉檢測確定目標人臉區域,其中目標深度影像用於表示目標紅外影像對應的深度訊息。
在一個實施例中,電子設備上可以安裝攝像頭,並通過安裝的攝像頭獲取影像。攝像頭可以根據獲取的影像的不同分為雷射攝像頭、可見光攝像頭等類型,雷射攝像頭可以獲取雷射照射到物體上所形成的影像,可見光影像可以獲取可見光照射到物體上所形成的影像。電子設備上可以安裝若干個攝像頭,且安裝的位置不做限定。例如,可以在電子設備的正面面板上安裝一個攝像頭,在電子設備的背面面板上安裝兩個攝像頭,攝像頭還可以以內嵌的方式安裝於電子設備的內部,然後通過旋轉或滑動的方式打開攝像頭。具體地,電子設備上可安裝前置攝像頭和後置攝像頭,前置攝像頭和後置攝像頭可以從不同的視角獲取影像,一般前置攝像頭可以從電子設備的正面視角獲取影像,後置攝像頭可以從電子設備的背面視角獲取影像。
電子設備獲取的目標紅外影像和目標深度影像是對應的,目標深度影像用於表示目標紅外影像對應的深度訊息。目標紅外影像可以顯示採集的拍攝物體的細節訊息,目標深度影像可以表示拍攝影像的深度訊息。在獲取到目標紅外影像之後,可以根據目標紅外影像進行人臉檢測,從而檢測出上述目標紅外影像中是否包含人臉。若上述目標紅外影像中包含人臉,則提取該目標紅外影像中人臉所在的目標人臉區域。由於目標紅外影像和目標深度影像是對應的,因此在提取出目標人臉區域之後,就可以根據目標深度影像中的對應區域獲取目標人臉區域中各個像素點對應的深度訊息。
步驟204,獲取目標人臉區域對應的目標人臉屬性參數,根據目標人臉屬性參數對目標人臉區域進行人臉匹配處理。
目標人臉屬性參數是指可以表示目標人臉的屬性的參數,根據目標人臉屬性參數可以對目標人臉進行識別和匹配處理。目標人臉屬性參數可以但不限於包括人臉偏轉角度、人臉亮度參數、五官參數、膚質參數、幾何特徵參數等。電子設備可以預先儲存用於匹配的預設人臉區域,然後獲取預設人臉區域的人臉屬性參數。在獲取到目標人臉屬性參數之後,就可以將目標人臉屬性參數與預先儲存的人臉屬性參數進行比較。若目標人臉屬性參數與預先儲存的人臉屬性參數匹配,則該相匹配的人臉屬性參數所對應的的預設人臉區域,就為與目標人臉區域相對應的預設人臉區域。
電子設備中儲存的預設人臉區域,被認為是具有操作權限的人臉區域。若目標人臉區域與預設人臉區域相匹配,那麼就認為目標人臉區域對應的用戶是具有操作權限的。即當目標人臉區域與預設人臉區域相匹配時,則認為人臉匹配成功;當目標人臉區域與預設人臉區域不匹配時,則認為人臉匹配失敗。
步驟206,若人臉匹配成功,則根據目標深度影像對目標人臉區域進行活體檢測處理,得到活體檢測結果。
目標紅外影像和目標深度影像是對應的,根據目標紅外影像提取目標人臉區域之後,可以根據目標人臉區域的位置找到目標深度影像中目標人臉所在的區域。具體地,影像是一個二維的像素矩陣,每一個像素點在影像中的位置都可以通過一個二維坐標來表示。例如,將影像最左下角的像素點作為坐標原點建立坐標系,在該坐標原點的基礎上每向右移動一個像素點即為向X軸正方向移動一個單位,每向上移動一個像素點即為向Y軸正方向移動一個單位,因此通過一個二維坐標可以表示影像中每個像素點的位置坐標。
當在目標紅外影像中檢測到目標人臉區域之後,可以通過人臉坐標來表示目標人臉區域中任意一個像素點在目標紅外影像中的位置,然後根據該人臉坐標來定位目標深度影像中目標人臉所在的位置,從而獲取目標人臉區域對應的人臉深度訊息。一般地,活體人臉是立體的,而例如圖片、螢幕等顯示的人臉則是平面的。同時,不同膚質,所採集到的深度訊息也可能是不同一樣的。因此根據獲取的人臉深度訊息可以判斷採集的目標人臉區域是立體還是平面的,還可以根據獲取的人臉深度訊息得到人臉的膚質特徵,從而對目標人臉區域進行活體檢測。
步驟208,根據活體檢測結果得到人臉驗證結果。
在一個實施例中,根據目標紅外影像進行人臉匹配處理,若人臉匹配成功,再根據目標深度影像進行活體檢測。只有人臉匹配和活體檢測都成功之後,才認為人臉驗證成功。電子設備的處理單元可以接收來自上層應用程式發起的人臉驗證指令,當處理單元檢測到人臉驗證指令之後,根據目標紅外影像和目標深度影像進行人臉驗證處理,最後將人臉驗證結果返回給上層的應用程式,應用程式再根據人臉驗證結果進行後續的處理。
上述實施例提供的影像處理方法,可以獲取目標紅外影像和目標深度影像,根據目標紅外影像進行人臉檢測得到目標人臉區域。然後獲取目標人臉區域對應的目標人臉屬性參數,並根據目標人臉屬性參數對目標人臉區域進行人臉匹配處理。當人臉匹配成功之後,再根據目標深度影像對目標人臉區域進行活體檢測,根據活體檢測結果得到最後的人臉驗證結果。這樣在人臉驗證的過程中,可以根據紅外影像進行人臉匹配,根據深度影像進行活體檢測,這樣提高了人臉驗證的準確性。
圖3為另一個實施例中影像處理方法的流程圖。如圖3所示,該影像處理方法包括步驟302至步驟316。其中:
步驟302,當第一處理單元檢測到人臉驗證指令時,控制攝像頭模組採集紅外影像和深度影像;其中,採集紅外影像的第一時刻與採集深度影像的第二時刻之間的時間間隔小於第一閾值。
在一個實施例中,電子設備的處理單元可以接收來自上層應用程式的指令,當處理單元接收到人臉驗證指令時,就可以控制攝像頭模組進行工作,通過攝像頭採集紅外影像和深度影像。處理單元連接於攝像頭,攝像頭獲取的影像就可以傳輸給處理單元,並通過處理單元進行裁剪、亮度調節、人臉檢測、人臉識別等處理。攝像頭模組中可以但不限於包括雷射攝像頭、雷射燈和泛光燈。當處理單元接收到人臉驗證指令時,可以直接獲取紅外影像和深度影像,也可以獲取紅外影像和散斑影像,根據散斑影像計算得到深度影像。具體地,處理單元會控制雷射燈和泛光燈進行分時工作,當雷射燈開啟時,通過雷射攝像頭採集散斑影像;當泛光燈開啟時,通過雷射攝像頭採集紅外影像。
可以理解的是,當雷射照射在平均起伏大於波長數量級的光學粗糙表面上時,這些表面上無規分布的面元散射的子波相互疊加使反射光場具有隨機的空間光強分布,呈現出顆粒狀的結構,這就是雷射散斑。形成的雷射散斑具有高度隨機性,因此不同的雷射發射器發射出來的雷射所生成的雷射散斑不同。當形成的雷射散斑照射到不同深度和形狀的物體上時,生成的散斑影像是不一樣的。通過不同的雷射發射器形成的雷射散斑具有唯一性,從而得到的散斑影像也具有唯一性。雷射燈形成的雷射散斑可以照射到物體上,然後通過雷射攝像頭來採集雷射散斑照射到物體上所形成的散斑影像。
雷射燈可以發射出若干個雷射散斑點,雷射散斑點照射到不同距離的物體上時,在影像上所呈現的斑點位置不同。電子設備可以預先採集一個標準的參考影像,參考影像是雷射散斑照射到平面上所形成的影像。所以參考影像上的散斑點一般是均勻分布的,然後建立該參考影像中每一個散斑點與參考深度的對應關係。當需要採集散斑影像時,控制雷射燈發出雷射散斑,雷射散斑照射到物體上之後,通過雷射攝像頭採集得到散斑影像。然後將散斑影像中的每一個散斑點與參考影像中的散斑點進行比較,獲取散斑影像中的散斑點相對於參考影像中對應的散斑點的位置偏移量,並根據散斑點的位置偏移量與參考深度來獲取散斑點對應的實際深度訊息。
攝像頭採集的紅外影像與散斑影像是對應的,散斑影像可以用於計算紅外影像中每一個像素點對應的深度訊息。這樣可以通過紅外影像對人臉進行檢測和識別,根據散斑影像可以計算得到人臉對應的深度訊息。具體地,根據散斑影像計算深度訊息的過程中,首先要根據散斑影像的散斑點相對與參考影像的散斑點的位置偏移量計算相對深度,相對深度可以表示實際拍攝物體到參考平面的深度訊息。然後再根據獲取的相對深度和參考深度計算物體的實際深度訊息。深度影像用於表示紅外影像對應的深度訊息,可以是表示的物體到參考平面的相對深度,也可以是物體到攝像頭的絕對深度。
根據散斑影像計算得到深度影像的步驟具體可以包括:獲取參考影像,參考影像為標定得到的帶有參考深度訊息的影像;將參考影像與散斑影像進行比較得到偏移訊息,偏移訊息用於表示散斑影像中散斑點相對於參考影像中對應散斑點的水平偏移量;根據偏移訊息和參考深度訊息計算得到深度影像。
圖4為一個實施例中計算深度訊息的原理圖。如圖4所示,雷射燈402可以生成雷射散斑,雷射散斑經過物體進行反射後,通過雷射攝像頭404獲取形成的影像。在攝像頭的標定過程中,雷射燈402發射的雷射散斑會經過參考平面408進行反射,然後通過雷射攝像頭404採集反射光線,通過成像平面410成像得到參考影像。參考平面408到雷射燈402的參考深度為L,該參考深度為已知的。在實際計算深度訊息的過程中,雷射燈402發射的雷射散斑會經過物體406進行反射,再由雷射攝像頭404採集反射光線,通過成像平面410成像得到實際的散斑影像。則可以得到實際的深度訊息的計算公式為:
其中,是雷射燈402到與參考平面408之間的距離,為雷射攝像頭404中透鏡的焦距,CD為雷射燈402到雷射攝像頭404之間的距離,AB為物體406的成像與參考平面408的成像之間的偏移距離。AB可為像素偏移量n與像素點的實際距離p的乘積。當物體406到雷射燈402之間的距離Dis大於參考平面408到雷射燈402之間的距離L時,AB為負值;當物體406到雷射燈402之間的距離Dis小於參考平面408到雷射燈402之間的距離L時,AB為正值。
具體地,遍歷散斑影像中每一個像素點(x,y),以該像素點為中心,選擇一個預設大小像素塊。例如,可以是選取31pixel*31pixel大小的像素塊。然後在參考影像上搜索相匹配的像素塊,計算在參考影像上匹配的像素點的坐標與像素點(x,y)坐標的水平偏移量,向右偏移即為正,向左偏移記為負。再把計算得到的水平偏移量帶入公式(1)可以得到像素點(x,y)的深度訊息。這樣依次計算散斑影像中每個像素點的深度訊息,就可以得到散斑影像中各個像素點所對應的深度訊息。
深度影像可以用於表示紅外影像對應的深度訊息,深度影像中包含的每一個像素點表示一個深度訊息。具體地,參考影像中的每一個散斑點都對應一個參考深度訊息,當獲取到參考影像中散斑點與散斑影像中散斑點的水平偏移量後,可以根據該水平偏移量計算得到散斑影像中的物體到參考平面的相對深度訊息,然後再根據相對深度訊息和參考深度訊息,就可以計算得到物體到攝像頭的實際深度訊息,即得到最後的深度影像。
步驟304,根據紅外影像獲取目標紅外影像,根據深度影像獲取目標深度影像。
在本申請提供的實施例中,獲取到紅外影像和散斑影像之後,可以根據散斑影像計算得到深度影像。還可以分別將紅外影像和深度影像進行校正,對上述紅外影像和深度影像分別進行校正,是指校正上述紅外影像和深度影像中內外參數。例如,雷射攝像頭產生偏轉,那麼獲取的紅外影像和深度影像就需要對該偏轉視差產生的誤差進行校正,從而得到標準的紅外影像和深度影像。在對上述紅外影像校正後可得到目標紅外影像,上述深度影像進行校正可得到目標深度影像。具體地,可以根據紅外影像計算得到紅外視差影像,再根據紅外視差影像進行內外參數校正,得到目標紅外影像。根據深度影像計算得到深度視差影像,再根據深度視差影像進行內外參數校正,得到目標深度影像。
步驟306,檢測目標紅外影像中的人臉區域。
步驟308,若目標紅外影像中存在兩個或兩個以上的人臉區域,則將區域面積最大的人臉區域作為目標人臉區域。
可以理解的是,目標紅外影像中可能不存在人臉區域,也可能存在一個人臉區域,還可能存在兩個或兩個以上的人臉區域。當目標紅外影像中不存在人臉區域時,則可以不用進行人臉驗證處理。當目標紅外影像中存在一個人臉區域時,可以直接對該人臉區域進行人臉驗證處理。當目標紅外影像中存在兩個或兩個以上的人臉區域時,則可以獲取其中一個人臉區域作為目標人臉區域進行人臉驗證處理。具體地,若目標紅外影像中存在兩個或兩個以上的人臉區域,在可以計算各個人臉區域對應的區域面積。該區域面積可以通過人臉區域中包含的像素點的數量進行表示,區域面積最大的人臉區域可作為用於驗證的目標人臉區域。
步驟310,獲取目標人臉區域對應的目標人臉屬性參數,根據目標人臉屬性參數對目標人臉區域進行人臉匹配處理。
在一個實施例中,人臉驗證的過程包括人臉匹配階段和活體檢測階段,人臉匹配階段是指識別人臉身份的過程,活體檢測階段是指檢測被拍攝人臉是否為活體的過程。在人臉匹配階段,第二處理單元可以將提取的目標人臉區域與預設人臉區域進行匹配。在對目標人臉影像進行匹配的時候,可以提取目標人臉影像的目標人臉屬性參數,再將提取的目標人臉屬性參數與電子設備中儲存的預設人臉影像的人臉屬性參數進行匹配,若匹配值超過匹配閾值,則認為人臉匹配成功。例如,可以提取人臉影像中人臉的偏轉角度、亮度訊息、五官特徵等特徵作為人臉屬性參數,若提取的目標人臉屬性參數與儲存的人臉屬性參數匹配度超過90%,則認為人臉匹配成功。具體地,判斷目標人臉區域的目標人臉屬性參數與預設人臉區域的人臉屬性參數否匹配;若是,則目標人臉區域的人臉匹配成功;若否,則目標人臉區域的人臉匹配失敗。
步驟312,若人臉匹配成功,則提取目標人臉區域在目標深度影像中對應的目標人臉深度區域,根據目標人臉深度區域獲取目標活體屬性參數。
一般地,在對人臉進行匹配處理的過程中,可以根據採集的目標紅外影像認證人臉區域是否與預設的人臉區域匹配。假設拍攝的為照片、雕塑等人臉時,也可能匹配成功。因此,需要根據採集的目標深度影像進行活體檢測處理,這樣必須保證採集的是活體的人臉才能驗證成功。可以理解的是,採集的目標紅外影像可以表示人臉的細節訊息,採集目標深度影像可以表示目標紅外影像對應的深度訊息,根據目標深度影像可以進行活體檢測處理。例如,被拍攝的人臉為照片中的人臉的話,根據目標深度影像就可以判斷採集的人臉不是立體的,則可以認為採集的人臉為非活體的人臉。
步驟314,根據目標活體屬性參數進行活體檢測處理。
具體地,根據上述目標深度影像進行活體檢測包括:在目標深度影像中查找與上述目標人臉區域對應的目標人臉深度區域,根據目標人臉深度區域提取目標活體屬性參數,根據目標活體屬性參數進行活體檢測處理。可選地,目標活體屬性參數可以包括與人臉對應的人臉深度訊息、膚質特徵、紋理的方向、紋理的密度、紋理的寬度等。例如,目標活體屬性參數可以為人臉深度訊息,若上述人臉深度訊息符合人臉活體規則,則認為上述目標人臉區域具有生物活性,即為活體人臉區域。
步驟316,根據活體檢測結果得到人臉驗證結果。
在本申請提供的實施例中,在對人臉進行人臉匹配處理後,若人臉匹配成功,則再對人臉進行活體識別。只有人臉匹配成功且活體檢測成功時,才認為人臉驗證成功。具體的,步驟316可包括:若活體檢測成功,則得到人臉驗證成功的結果;若活體檢測失敗,則得到人臉驗證失敗的結果。上述影像處理方法還可以包括:若人臉匹配失敗,則得到人臉驗證失敗的結果。處理單元在得到人臉驗證結果之後,可以再將人臉驗證結果發送給上層的應用程式,應用程式可根據該人臉驗證結果進行相應的處理。
例如,在根據人臉進行支付驗證的時候,當處理單元將人臉驗證結果發送給應用程式之後,應用程式可以根據人臉驗證結果進行支付處理。若人臉驗證成功,則應用程式就可以繼續進行支付操作,並向用戶展示支付成功的訊息;若人臉驗證失敗,則應用程式就可以停止進行支付操作,並向用戶展示支付失敗的訊息。
在一個實施例中,獲取目標紅外影像和目標深度影像的步驟可包括:
步驟502,第一處理單元根據紅外影像計算得到紅外視差影像,並根據深度影像計算得到深度視差影像。
具體地,電子設備中可包括第一處理單元和第二處理單元,第一處理單元和第二處理單元都運行在安全運行環境中。安全運行環境可以包括第一安全環境和第二安全環境,第一處理單元運行在第一安全環境中,第二處理單元運行在第二安全環境中。第一處理單元和第二處理單元為分布在不同的處理器上處理單元,且處於不同的安全環境下。例如,第一處理單元可以是外置的MCU(Microcontroller Unit,微控制單元)模組,或者DSP(Digital Signal Processing,數字信號處理器)中的安全處理模組,第二處理單元可以是處於TEE(Trust Execution Environment,可信執行環境)下的CPU(Central Processing Unit,中央處理器)內核。
電子設備中CPU有2種運行模式:TEE和REE(Rich Execution Environment,自然執行環境)。通常情況下,CPU運行在REE下,但當電子設備需要獲取安全級別較高的資料時,例如電子設備需要獲取人臉資料進行識別驗證時,CPU可由REE切換到TEE進行運行。當電子設備中CPU為單核時,可直接將上述單核由REE切換到TEE;當電子設備中CPU為多核時,電子設備將一個內核由REE切換到TEE,其他內核仍運行在REE中。
步驟504,第一處理單元將紅外視差影像和深度視差影像發送給第二處理單元。
具體地,第一處理單元連接了兩個資料傳輸的通道,包括安全傳輸通道和非安全傳輸通道。在進行人臉驗證處理時,通常需要在安全運行環境下進行處理,第二處理單元即為安全運行環境下的處理單元,所以第一處理單元連接到第二處理單元時,說明第一處理單元當前連接的是安全傳輸通道。第一處理單元連接到非安全運行環境下的處理單元時,說明第一處理單元當前連接的是非安全傳輸通道。第一處理單元在檢測到人臉驗證指令時,可以切換到安全傳輸通道來傳輸資料。則步驟504可以包括:判斷第一處理單元是否連接到第二處理單元,若是,則將紅外視差影像和深度視差影像發送給第二處理單元;若否,則控制第一處理單元連接到第二處理單元,並通過第一處理單元將紅外視差影像和深度視差影像發送給第二處理單元。
步驟506,第二處理單元根據紅外視差影像進行校正得到目標紅外影像,並根據深度視差影像進行校正得到目標深度影像。
在一個實施例中,進行活體檢測的步驟可包括:
步驟602,提取目標人臉區域在目標深度影像中對應的目標人臉深度區域,根據目標人臉深度區域獲取第一目標活體屬性參數。
在一個實施例中,可以根據目標深度影像進行活體檢測,還可以根據目標深度影像和散斑影像進行活體檢測。具體地,根據目標深度影像獲取第一目標活體屬性參數,根據散斑影像獲取第二目標活體屬性參數,然後根據第一目標活體屬性參數和第二目標活體屬性參數進行活體檢測。
步驟604,獲取散斑影像,散斑影像是通過雷射攝像頭採集的雷射散斑照射到物體上所形成的影像,目標深度影像是根據散斑影像計算得到的。
步驟606,提取目標人臉區域在散斑影像中對應的目標人臉散斑區域,根據目標人臉散斑區域獲取第二目標活體屬性參數。
散斑影像和紅外影像是對應的,所以根據目標人臉區域可以在散斑影像中找到目標人臉散斑區域,然後根據目標人臉散斑區域獲取第二目標活體屬性參數。電子設備可以控制雷射燈開啟,並通過雷射攝像頭來採集散斑影像。一般地,電子設備可以同時安裝兩個或兩個以上的攝像頭,若安裝兩個以上的攝像頭,那麼每個攝像頭採集的視場就會有差異。為了保證不同的攝像頭採集是同一場景對應的影像,需要將不同攝像頭採集的影像進行對齊,使攝像頭採集的影像是對應的。因此,攝像頭採集到原始散斑影像後,一般還會將原始散斑影像進行校正,得到校正之後的散斑影像。那麼該用於進行活體檢測的散斑影像,可以是原始的散斑影像,也可以是校正之後的散斑影像。
具體地,若獲取的散斑影像為攝像頭採集的原始散斑影像,則步驟606之前還可包括:根據散斑影像計算得到散斑視差影像,根據散斑視差影像進行校正得到目標散斑影像。則步驟606可包括:提取目標人臉區域在目標散斑影像中對應的目標人臉散斑區域,根據目標人臉散斑區域獲取第二目標活體屬性參數。
步驟608,根據第一目標活體屬性參數和第二目標活體屬性參數進行活體檢測處理。
可以理解的是,第一目標活體屬性參數和第二目標活體屬性參數都可以是根據網路學習演算法得到的,得到第一目標活體屬性參數和第二目標活體屬性參數後,可以根據第一目標活體屬性參數和第二目標活體屬性參數進行活體檢測處理。例如,第一目標活體屬性參數可以是人臉深度訊息,第二目標活體屬性參數可以是膚質特徵參數,可以通過網路學習演算法對散斑影像進行訓練,從而得到採集的散斑影像對應的膚質特徵參數,再根據人臉深度訊息和膚質特徵參數來判斷目標人臉是否為活體。
在本申請提供的實施例中,人臉驗證處理可以在第二處理單元中進行,第二處理單元在得到人臉驗證結果之後,可以將人臉驗證結果發送給發起人臉驗證指令的目標應用程式。具體的,可將人臉驗證結果進行加密處理,並將加密處理後的人臉驗證結果發送給發起人臉驗證指令的目標應用程式。將人臉驗證結果進行加密處理,具體的加密演算法不做限定。例如,可以是根據DES(Data Encryption Standard,資料加密標準)、MD5(Message-Digest Algorithm 5,訊息-摘要演算法5)、HAVAL(Diffie-Hellman,密鑰交換演算法)。
具體地,可以根據電子設備的網路環境進行加密處理:獲取電子設備當前所處的網路環境的網路安全等級;根據網路安全等級獲取加密等級,將人臉驗證結果進行加密等級對應的加密處理。可以理解的是,應用程式在獲取影像進行操作的時候,一般需要進行聯網操作。例如,對人臉進行支付認證的時候,可以將人臉驗證結果發送給應用程式,應用程式再發送給對應的伺服器完成相應的支付操作。應用程式在發送人臉驗證結果時,需要連接網路,再通過網路將人臉驗證結果發送給對應的伺服器。因此,在發送人臉驗證結果時,可以首先對人臉驗證結果進行加密。檢測電子設備當前所處的網路環境的網路安全等級,並根據網路安全等級進行加密處理。
網路安全等級越低,認為網路環境的安全性越低,對應的加密等級越高。電子設備預先建立網路安全等級與加密等級的對應關係,根據網路安全等級可以獲取對應的加密等級,並根據加密等級對人臉驗證結果進行加密處理。可以根據獲取的參考影像對人臉驗證結果進行加密處理。
在一個實施例中,參考影像是電子設備在對攝像頭模組進行標定時採集的散斑影像,由於參考影像具有高度唯一性,不同的電子設備採集的參考影像是不同的。所以參考影像本身就可以作為一個加密的密鑰,用來對資料進行加密處理。電子設備可以將參考影像存放在安全環境中,這樣可以防止資料泄露。具體地,獲取的參考影像是由一個二維的像素矩陣構成的,每一個像素點都有對應的像素值。可以根據參考影像的全部或部分像素點對人臉驗證結果進行加密處理。例如,人臉驗證結果中可包含深度影像,則可以將參考影像直接與深度影像進行疊加,得到一張加密影像。也可以深度影像對應的像素矩陣與參考影像對應的像素矩陣進行乘積運算,得到加密影像。還可以取參考影像中某一個或多個像素點對應的像素值作為加密密鑰,對深度影像進行加密處理,具體加密演算法在本實施例不做限定。
參考影像是在電子設備標定時生成的,則電子設備可以將參考影像預先儲存在安全環境中,在需要對人臉驗證結果進行加密的時候,可以在安全環境下讀取參考影像,並根據參考影像對人臉驗證結果進行加密處理。同時,會在目標應用程式對應的伺服器上儲存一張相同的參考影像,當電子設備將加密處理後的人臉驗證結果發送給目標應用程式對應的伺服器之後,目標應用程式的伺服器獲取參考影像,並根據獲取的參考影像對加密後的人臉驗證結果進行解密處理。
可以理解的是,目標應用程式的伺服器中可能會儲存多張不同電子設備採集的參考影像,每個電子設備對應的參考影像不同。因此,伺服器中可以對每一張參考影像定義一個參考影像標識,並儲存電子設備的設備標識,然後建立參考影像標識與設備標識之間的對應關係。當伺服器接收到人臉驗證結果時,接收到的人臉驗證結果會同時攜帶電子設備的設備標識。伺服器就可以根據設備標識查找對應的參考影像標識,並根據參考影像標識找到對應的參考影像,然後根據找到的參考影像對人臉驗證結果進行解密處理。
在本申請提供的其他實施例中,根據參考影像進行加密處理的方法具體可以包括:獲取參考影像對應的像素矩陣,根據該像素矩陣獲取加密密鑰;根據加密密鑰對人臉驗證結果進行加密處理。參考影像是由一個二維像素矩陣構成的,由於獲取的參考影像是唯一的,因此參考影像對應的像素矩陣也是唯一的。該像素矩陣本身可以作為一個加密密鑰對人臉驗證結果進行加密,也可以對像素矩陣進行一定的轉換得到加密密鑰,再通過轉換得到的加密密鑰對人臉驗證結果進行加密處理。舉例來說,像素矩陣是一個由多個像素值構成的二維矩陣,每一個像素值在像素矩陣中的位置可以通過一個二維坐標進行表示,則可以通過一個或多個位置坐標獲取對應的像素值,並將獲取的這一個或多個像素值組合成一個加密密鑰。獲取到加密密鑰之後,可以根據加密密鑰對人臉驗證結果進行加密處理,具體地加密演算法在本實施例中不做限定。例如,可以直接將加密密鑰與資料進行疊加或乘積,或者可以將加密密鑰作為一個數值插入資料中,得到最終的加密資料。
電子設備還可以對不同的應用程式採用不同的加密演算法。具體地,電子設備可以預先建立應用程式的應用標識與加密演算法的對應關係,人臉驗證指令中可包含目標應用程式的目標應用標識。在接收到人臉驗證指令後,可以獲取人臉驗證指令中包含的目標應用標識,並根據目標應用標識獲取對應的加密演算法,根據獲取的加密演算法對人臉驗證結果進行加密處理。
具體地,上述影像處理方法還可包括:獲取目標紅外影像、目標散斑影像和目標深度影像中的一種或多種作為待發送影像;獲取發起人臉驗證指令的目標應用程式的應用等級,根據應用等級獲取對應的精度等級;根據精度級別調整待發送影像的精度,將調整後的待發送影像發送給上述目標應用程式。應用等級可以表示目標應用程式對應的重要等級。一般目標應用程式的應用等級越高,發送的影像的精度越高。電子設備可以預先設置應用程式的應用等級,並建立應用等級與精度等級的對應關係,根據應用等級可以獲取對應的精度等級。例如,可以將應用程式分為系統安全類應用程式、系統非安全類應用程式、第三方安全類應用程式、第三方非安全類應用程式等四個應用等級,對應的精度等級逐漸降低。
待發送影像的精度可以表現為影像的分辨率,或者散斑影像中包含的散斑點的個數,這樣根據散斑影像得到的目標深度影像和目標散斑影像的精度也會不同。具體地,調整影像精度可以包括:根據精度級別調整待發送影像的分辨率;或,根據精度級別調整採集的散斑影像中包含的散斑點的個數。其中,散斑影像中包含的散斑點的個數可以通過軟體的方式進行調整,也可以通過硬體的方式進行調整。軟體方式調整時,可直接檢測採集的散斑圖中的散斑點,並將部分散斑點進行合並或消除處理,這樣調整後的散斑圖中包含的散斑點的數量就減少了。硬體方式調整時,可以調整雷射燈衍射生成的雷射散斑點的個數。例如,精度高時,生成的雷射散斑點的個數為30000個;精度較低時,生成的雷射散斑點的個數為20000個。這樣對應計算得到的深度影像的精度就會相應地降低。
具體的,可在雷射燈中預置不同的衍射光學元件(Diffractive Optical Elements,DOE),其中不同DOE衍射形成的散斑點的個數不同。根據精度級別切換不同的DOE進行衍射生成散斑影像,並根據得到的散斑影像得到不同精度的深度圖。當應用程式的應用等級較高時,對應的精度級別也比較高,雷射燈可控制散斑點個數較多的DOE來發射雷射散斑,從而獲取散斑點個數較多的散斑影像;當應用程式的應用等級較低時,對應的精度級別也比較低,雷射燈可控制散斑點個數較少的DOE來發射雷射散斑,從而獲取散斑點個數較少的散斑影像。
上述實施例提供的影像處理方法,第一處理單元在檢測到人臉驗證指令時,可以控制攝像頭模組採集紅外影像和深度影像,然後根據紅外影像和深度影像得到目標紅外影像和目標深度影像,並根據目標紅外影像進行人臉檢測得到目標人臉區域。然後獲取目標人臉區域對應的目標人臉屬性參數,並根據目標人臉屬性參數對目標人臉區域進行人臉匹配處理。當人臉匹配成功之後,再根據目標深度影像對目標人臉區域進行活體檢測,根據活體檢測結果得到最後的人臉驗證結果。這樣在人臉驗證的過程中,可以根據紅外影像進行人臉匹配,根據深度影像進行活體檢測,提高了人臉驗證的準確性。
應該理解的是,雖然圖2、圖3、圖5、圖6的流程圖中的各個步驟按照箭頭的指示依次顯示,但是這些步驟並不是必然按照箭頭指示的順序依次執行。除非本文中有明確的說明,這些步驟的執行並沒有嚴格的順序限制,這些步驟可以以其它的順序執行。而且,圖2、圖3、圖5、圖6中的至少一部分步驟可以包括多個子步驟或者多個階段,這些子步驟或者階段並不必然是在同一時刻執行完成,而是可以在不同的時刻執行,這些子步驟或者階段的執行順序也不必然是依次進行,而是可以與其它步驟或者其它步驟的子步驟或者階段的至少一部分輪流或者交替地執行。
圖7為一個實施例中實現影像處理方法的硬體結構圖。如圖7所示,該電子設備中可包括攝像頭模組710、中央處理器(CPU)720和第一處理單元730,上述攝像頭模組710中包括雷射攝像頭712、泛光燈714、RGB(Red/Green/Blue,紅/綠/藍色彩模式)攝像頭716和雷射燈718。第一處理單元730包括PWM(Pulse Width Modulation,脈衝寬度調變)模組732、SPI/I2C(Serial Peripheral Interface/Inter-Integrated Circuit,串行外設介面/雙向二線制同步串行介面)模組734、RAM(Random Access Memory,隨機存取儲存器)模組736、Depth Engine模組738。其中,第二處理單元722可為處於TEE(Trusted execution environment,可信運行環境)下的CPU內核,第一處理單元730為MCU(Microcontroller Unit,微控制單元)處理器。可以理解的是,中央處理器720可以為多核運行模式,中央處理器720中的CPU內核可以在TEE或REE(Rich Execution Environment,自然運行環境)下運行。TEE和REE均為ARM模組(Advanced RISC Machines,高級精簡指令集處理器)的運行模式。通常情況下,電子設備中安全性較高的操作行為需要在TEE下執行,其他操作行為則可在REE下執行。本申請實施例中,當中央處理器720接收到目標應用程式發起的人臉驗證指令,TEE下運行的CPU內核即第二處理單元722,會通過SECURE SPI/I2C向MCU730中SPI/I2C模組734發送人臉驗證指令至第一處理單元730。第一處理單元730在接收到人臉驗證指令後,通過PWM模組732發射脈衝波控制攝像頭模組710中泛光燈714開啟來採集紅外影像、控制攝像頭模組710中雷射燈718開啟來採集散斑影像。攝像頭模組710可將採集到的紅外影像和散斑影像傳送給第一處理單元730中Depth Engine模組738,Depth Engine模組738可根據紅外影像計算紅外視差影像,根據散斑影像計算深度影像,並根據深度影像得到深度視差影像。然後將紅外視差影像和深度視差影像發送給TEE下運行的第二處理單元722。第二處理單元722會根據紅外視差影像進行校正得到目標紅外影像,並根據深度視差影像進行校正得到目標深度影像。然後根據目標紅外影像進行人臉檢測,檢測上述目標紅外影像中是否存在目標人臉區域以及檢測到的目標人臉區域與預設人臉區域是否匹配;若人臉匹配成功,再根據上述目標深度影像來進行活體檢測,檢測上述目標人臉區域是否為活體人臉。根據活體檢測結果得到最後的人臉驗證結果,若活體檢測成功,則得到人臉驗證成功的結果;若活體檢測失敗,則得到人臉驗證失敗的結果。可以理解的是,上述人臉匹配失敗後,則得到人臉驗證失敗的結果,並不再繼續進行活體檢測處理。第二處理單元722在得到人臉驗證結果後,會將人臉驗證結果發送至目標應用程式。
圖8為另一個實施例中實現影像處理方法的硬體結構圖。如圖8所示,該硬體結構中包括第一處理單元80、攝像頭模組82和第二處理單元84。攝像頭模組82中包括雷射攝像頭820、泛光燈822、RGB攝像頭824和雷射燈826。其中,中央處理器中可包括處於TEE下的CPU內核與處於REE下的CPU內核,第一處理單元80為中央處理器中開闢的DSP處理模組,第二處理單元84即為處於TEE下的CPU內核,第二處理單元84和第一處理單元80可以通過一個安全緩衝區(secure buffer)進行連接,這樣可以保證影像傳輸過程中的安全性。通常情況下,中央處理器在處理安全性較高的操作行為時,需要將處理器內核切換到TEE下執行,安全性較低的操作行為則可在REE下執行。本申請實施例中,可通過第二處理單元84接收上層應用發送的人臉驗證指令,然後通過PWM模組發射脈衝波控制攝像頭模組82中泛光燈822開啟來採集紅外影像,控制攝像頭模組82中雷射燈826開啟來採集散斑影像。攝像頭模組82可將採集到的紅外影像和散斑影像傳送給第一處理單元80中,第一處理單元80可根據散斑影像計算得到深度影像,然後根據深度影像計算得到深度視差影像,並根據紅外影像計算得到紅外視差影像。然後將紅外視差影像和深度視差影像發送給第二處理單元84。第二處理單元84可以根據紅外視差影像進行校正得到目標紅外影像,並根據深度視差影像進行校正得到目標深度影像。第二處理單元84會根據目標紅外影像進行人臉匹配,檢測上述目標紅外影像中是否存在目標人臉區域,以及檢測到的目標人臉區域與預設人臉區域是否匹配;若人臉匹配成功,再根據上述目標深度影像來進行活體檢測,判斷上述目標人臉區域是否為活體人臉。在第二處理單元84進行人臉匹配和活體檢測處理後,會將人臉驗證結果發送給目標應用程式,目標應用程式再根據檢測結果進行解鎖、支付等應用操作。
圖9為一個實施例中實現影像處理方法的軟體架構示意圖。如圖9所示,該軟體架構包括應用層910、操作系統920和安全運行環境930。其中,處於安全運行環境930中的模組包括第一處理單元931、攝像頭模組932、第二處理單元933和加密模組934等;操作系統930中包含安全管理模組921、人臉管理模組922、攝像頭驅動923和攝像頭框架924;應用層910中包含應用程式911。應用程式911可以發起影像採集指令,並將影像採集指令發送給第一處理單元931進行處理。例如,在通過採集人臉進行支付、解鎖、美顏、擴增實境技術(Augmented Reality,AR)等操作時,應用程式會發起採集人臉影像的影像採集指令。可以理解的是,應用程式911發起的影像採集指令可以首先發送到第二處理單元933,再由第二處理單元933發送給第一處理單元931。
第一處理單元931接收到影像採集指令之後,若判斷影像採集指令為對人臉進行驗證的人臉驗證指令,則會根據人臉驗證指令控制攝像頭模組932採集紅外影像和散斑影像,攝像頭模組932採集的紅外影像和散斑影像傳輸給第一處理單元931。第一處理單元931根據散斑影像計算得到包含深度訊息的深度影像,並根據深度影像計算得到深度視差影像,根據紅外影像計算得到紅外視差影像。然後通過安全傳輸通道將深度視差影像和紅外視差影像發送給第二處理單元933。第二處理單元933會根據紅外視差影像進行校正得到目標紅外影像,根據深度視差影像進行校正得到目標深度影像。然後根據目標紅外影像進行人臉匹配,檢測上述目標紅外影像中是否存在目標人臉區域,以及檢測到的目標人臉區域與預設人臉區域是否匹配;若人臉匹配成功,再根據上述目標紅外影像和目標深度影像來進行活體檢測,判斷上述目標人臉區域是否為活體人臉。第二處理單元933得到的人臉驗證結果可以發送給加密模組934,通過加密模組934進行加密後,將加密後的人臉驗證結果發送給安全管理模組921。一般地,不同的應用程式911都有對應的安全管理模組921,安全管理模組921會將加密後的人臉驗證結果進行解密處理,並將解密處理後得到的人臉驗證結果發送給相應的人臉管理模組922。人臉管理模組922會將人臉驗證結果發送給上層的應用程式911,應用程式911再根據人臉驗證結果進行相應的操作。
若第一處理單元931接收到的影像採集指令不是人臉驗證指令,則第一處理單元931可以控制攝像頭模組932採集散斑影像,並根據散斑影像計算深度影像,然後根據深度影像得到深度視差影像。第一處理單元931會通過非安全傳輸通道將深度視差影像發送給攝像頭驅動923,攝像頭驅動923再根據深度視差影像進行校正處理得到目標深度影像,然後將目標深度影像發送給攝像頭框架924,再由攝像頭框架924發送給人臉管理模組922或應用程式911。
圖10為一個實施例中影像處理裝置的結構示意圖。如圖10所示,該影像處理裝置1000包括人臉檢測模組1002、人臉匹配模組1004、活體檢測模組1006和人臉驗證模組1008。其中:
人臉檢測模組1002,用於獲取目標紅外影像和目標深度影像,並根據所述目標紅外影像進行人臉檢測確定目標人臉區域,其中所述目標深度影像用於表示目標紅外影像對應的深度訊息。
人臉匹配模組1004,用於獲取所述目標人臉區域對應的目標人臉屬性參數,根據所述目標人臉屬性參數對所述目標人臉區域進行人臉匹配處理。
活體檢測模組1006,用於若人臉匹配成功,則根據所述目標深度影像對所述目標人臉區域進行活體檢測處理,得到活體檢測結果。
人臉驗證模組1008,用於根據所述活體檢測結果得到人臉驗證結果。
上述實施例提供的影像處理裝置,可以獲取目標紅外影像和目標深度影像,根據目標紅外影像進行人臉檢測得到目標人臉區域。然後獲取目標人臉區域的目標人臉屬性參數,並根據目標人臉屬性參數進行人臉匹配處理。當人臉匹配成功之後,再根據目標深度影像進行活體檢測,根據活體檢測結果得到最後的人臉驗證結果。這樣在人臉驗證的過程中,可以根據紅外影像進行人臉匹配,根據深度影像進行活體檢測,這樣提高了人臉驗證的準確性。
在一個實施例中,人臉檢測模組1002還用於在第一處理單元檢測到人臉驗證指令時,控制攝像頭模組採集紅外影像和深度影像;其中,採集所述紅外影像的第一時刻與採集所述深度影像的第二時刻之間的時間間隔小於第一閾值;人臉檢測模組1002還用於根據所述紅外影像獲取目標紅外影像,以及根據所述深度影像獲取目標深度影像。
在一個實施例中,人臉檢測模組1002還用於控制所述第一處理單元根據所述紅外影像計算得到紅外視差影像,並根據深度影像計算得到深度視差影像;控制所述第一處理單元將紅外視差影像和深度視差影像發送給第二處理單元;控制所述第二處理單元根據紅外視差影像進行校正得到目標紅外影像,並根據深度視差影像進行校正得到目標深度影像。
在一個實施例中,人臉檢測模組1002還用於檢測所述目標紅外影像中的人臉區域;若所述目標紅外影像中存在兩個或兩個以上的人臉區域,則將區域面積最大的人臉區域作為目標人臉區域。
在一個實施例中,活體檢測模組1006還用於提取所述目標人臉區域在所述目標深度影像中對應的目標人臉深度區域,根據所述目標人臉深度區域獲取目標活體屬性參數;根據所述目標活體屬性參數進行活體檢測處理。
在一個實施例中,活體檢測模組1006還用於提取所述目標人臉區域在所述目標深度影像中對應的目標人臉深度區域,根據所述目標人臉深度區域獲取第一目標活體屬性參數;獲取散斑影像,所述散斑影像是通過雷射攝像頭採集的雷射散斑照射到物體上所形成的影像,所述目標深度影像是根據所述散斑影像計算得到的;提取所述目標人臉區域在所述散斑影像中對應的目標人臉散斑區域,根據所述目標人臉散斑區域獲取第二目標活體屬性參數;根據所述第一目標活體屬性參數和第二目標活體屬性參數進行活體檢測處理。
在一個實施例中,人臉驗證模組1008還用於若活體檢測成功,則得到人臉驗證成功的結果;若活體檢測失敗,則得到人臉驗證失敗的結果;若人臉匹配失敗,則得到人臉驗證失敗的結果。
上述影像處理裝置中各個模組的劃分僅用於舉例說明,在其他實施例中,可將影像處理裝置按照需要劃分為不同的模組,以完成上述影像處理裝置的全部或部分功能。
本申請實施例還提供了一種電腦可讀儲存媒體。一個或多個包含電腦可執行指令的非易失性電腦可讀儲存媒體,當所述電腦可執行指令被一個或多個處理器執行時,使得所述處理器執行上述實施例提供的影像處理方法。
一種包含指令的電腦程式產品,當其在電腦上運行時,使得電腦執行上述實施例提供的影像處理方法。
本申請所使用的對儲存器、儲存、資料庫或其它媒體的任何引用可包括非易失性和/或易失性儲存器。合適的非易失性儲存器可包括只讀儲存器(ROM)、可編程ROM(PROM)、電可編程ROM(EPROM)、電可擦除可編程ROM(EEPROM)或閃存。易失性儲存器可包括隨機存取儲存器(RAM),它用作外部高速緩衝儲存器。作為說明而非局限,RAM以多種形式可得,諸如靜態 RAM (SRAM)、動態 RAM (DRAM)、同步 DRAM (SDRAM)、雙資料率 SDRAM (DDR SDRAM)、增強型 SDRAM(ESDRAM)、同步鏈路(Synchlink)DRAM(SLDRAM)、儲存器匯流排(Rambus)直接RAM(RDRAM)、直接儲存器匯流排動態RAM(DRDRAM)、以及儲存器匯流排動態RAM(RDRAM)。
以上所述實施例僅表達了本申請的幾種實施方式,其描述較為具體和詳細,但並不能因此而理解為對本申請專利範圍的限制。應當指出的是,對於本領域的普通技術人員來說,在不脫離本申請構思的前提下,還可以做出若干變形和改進,這些都屬於本申請的保護範圍。因此,本申請專利的保護範圍應以所附權利要求為准。
102‧‧‧用戶
104‧‧‧電子設備
202~208、302~316、502~506、602~608‧‧‧步驟
AB、CD、EG、Dis、L‧‧‧距離
F‧‧‧焦聚
L‧‧‧參考深度
402‧‧‧雷射燈
404‧‧‧雷射攝像頭
406‧‧‧物體
408‧‧‧參考平面
410‧‧‧成像平面
710‧‧‧攝像頭模組
712‧‧‧雷射攝像頭
714‧‧‧泛光燈
716‧‧‧RGB攝像頭
718‧‧‧雷射燈
720‧‧‧中央處理器
722‧‧‧第二處理單元
730‧‧‧第一處理單元
732‧‧‧脈衝寬度調變模組
734‧‧‧串行外設介面/雙向二線制同步串行介面
736‧‧‧隨機存取儲存器模組
738‧‧‧深度引擎
80‧‧‧第一處理單元
82‧‧‧攝像頭模組
820‧‧‧雷射攝像頭
822‧‧‧泛光燈
824‧‧‧RGB攝像頭
826‧‧‧雷射燈
84‧‧‧第二處理單元
910‧‧‧應用層
911‧‧‧應用程式
920‧‧‧操作系統
921‧‧‧安全管理模組
922‧‧‧人臉管理模組
923‧‧‧攝像頭驅動
924‧‧‧攝像頭框架
930‧‧‧安全運行環境
931‧‧‧第一處理單元
932‧‧‧攝像頭模組
933‧‧‧第二處理單元
934‧‧‧加密模組
1000‧‧‧影像處理裝置
1002‧‧‧人臉檢測模組
1004‧‧‧人臉匹配模組
1006‧‧‧活體檢測模組
1008‧‧‧人臉驗證模組
為了更清楚地說明本申請實施例或相關技術中的技術方案,下面將對實施例或相關技術描述中所需要使用的附圖作簡單地介紹,顯而易見地,下面描述中的附圖僅僅是本申請的一些實施例,對於本領域普通技術人員來講,在不付出創造性勞動的前提下,還可以根據這些附圖獲得其他的附圖。
圖1為本申請實施例的一個實施例中影像處理方法的應用場景圖。
圖2為本申請實施例的一個實施例中影像處理方法的流程圖。
圖3為本申請實施例的另一個實施例中影像處理方法的流程圖。
圖4為本申請實施例的一個實施例中計算深度訊息的原理圖。
圖5為本申請實施例的又一個實施例中影像處理方法的流程圖。
圖6為本申請實施例的又一個實施例中影像處理方法的流程圖。
圖7為本申請實施例的一個實施例中實現影像處理方法的硬體結構圖。
圖8為本申請實施例的另一個實施例中實現影像處理方法的硬體結構圖。
圖9為本申請實施例的一個實施例中實現影像處理方法的軟體架構示意圖。
圖10為本申請實施例的一個實施例中影像處理裝置的結構示意圖。
202~208‧‧‧步驟
Claims (6)
- 一種影像處理方法,包括:獲取目標紅外影像和目標深度影像,並根據所述目標紅外影像進行人臉檢測確定目標人臉區域,其中,所述目標紅外影像和所述目標深度影像是對應的,所述目標深度影像用於表示目標紅外影像對應的深度訊息;獲取所述目標人臉區域對應的目標人臉屬性參數,根據所述目標人臉屬性參數對所述目標人臉區域進行人臉匹配處理,其中所述目標人臉屬性參數包括人臉偏轉角度、人臉亮度參數、五官參數、膚質參數、幾何特徵參數中的至少一個;若人臉匹配成功,則根據所述目標深度影像對所述目標人臉區域進行活體檢測處理,得到活體檢測結果;和根據所述活體檢測結果得到人臉驗證結果;其中,所述獲取目標紅外影像和目標深度影像,包括:當第一處理單元檢測到人臉驗證指令時,控制攝像頭模組採集紅外影像和深度影像;其中,採集所述紅外影像的第一時刻與採集所述深度影像的第二時刻之間的時間間隔小於第一閾值;所述第一處理單元根據所述紅外影像計算得到紅外視差影像,並根據深度影像計算得到深度視差影像;所述第一處理單元將紅外視差影像和深度視差影像發送給第二處理單元;和所述第二處理單元根據紅外視差影像進行校正得到目標紅外 影像,並根據深度視差影像進行校正得到目標深度影像,其中,所述根據所述目標深度影像對所述目標人臉區域進行活體檢測處理,包括:提取所述目標人臉區域在所述目標深度影像中對應的目標人臉深度區域,根據所述目標人臉深度區域獲取第一目標活體屬性參數;獲取散斑影像,所述散斑影像是通過雷射攝像頭採集的雷射散斑照射到物體上所形成的影像,所述目標深度影像是根據所述散斑影像計算得到的;提取所述目標人臉區域在所述散斑影像中對應的目標人臉散斑區域,根據所述目標人臉散斑區域獲取第二目標活體屬性參數;和根據所述第一目標活體屬性參數和第二目標活體屬性參數進行活體檢測處理。
- 如申請專利範圍第1項所述的方法,其中,所述根據所述目標紅外影像進行人臉檢測確定目標人臉區域,包括:檢測所述目標紅外影像中的人臉區域;和若所述目標紅外影像中存在兩個或兩個以上的人臉區域,則將區域面積最大的人臉區域作為目標人臉區域。
- 如申請專利範圍第1項所述的方法,其中,所述根據所述目標深度影像對所述目標人臉區域進行活體檢測處理,包括:提取所述目標人臉區域在所述目標深度影像中對應的目標人 臉深度區域,根據所述目標人臉深度區域獲取目標活體屬性參數;和根據所述目標活體屬性參數進行活體檢測處理。
- 一種電子設備,包括:儲存器,和第一處理器,用於獲取目標紅外影像和目標深度影像,並根據所述目標紅外影像進行人臉檢測確定目標人臉區域,其中,所述目標紅外影像和所述目標深度影像是對應的,所述目標深度影像用於表示目標紅外影像對應的深度訊息;獲取所述目標人臉區域對應的目標人臉屬性參數,根據所述目標人臉屬性參數對所述目標人臉區域進行人臉匹配處理,其中所述目標人臉屬性參數包括人臉偏轉角度、人臉亮度參數、五官參數、膚質參數、幾何特徵參數中的至少一個;若人臉匹配成功,則根據所述目標深度影像對所述目標人臉區域進行活體檢測處理,得到活體檢測結果;及根據所述活體檢測結果得到人臉驗證結果;其中,所述電子設備還包括第二處理器和攝像頭模組,所述第二處理器,用於在檢測到人臉驗證指令時,控制所述攝像頭模組採集紅外影像和深度影像;其中,採集所述紅外影像的第一時刻與採集所述深度影像的第二時刻之間的時間間隔小於第一閾值;及根據所述紅外影像計算得到紅外視差影像,並根據深度影像 計算得到深度視差影像;將紅外視差影像和深度視差影像發送給第一處理器;所述第一處理器,用於根據紅外視差影像進行校正得到目標紅外影像,並根據深度視差影像進行校正得到目標深度影像,其中,所述第一處理器,還用於提取所述目標人臉區域在所述目標深度影像中對應的目標人臉深度區域,根據所述目標人臉深度區域獲取第一目標活體屬性參數;獲取散斑影像,所述散斑影像是通過雷射攝像頭採集的雷射散斑照射到物體上所形成的影像,所述目標深度影像是根據所述散斑影像計算得到的;提取所述目標人臉區域在所述散斑影像中對應的目標人臉散斑區域,根據所述目標人臉散斑區域獲取第二目標活體屬性參數;根據所述第一目標活體屬性參數和第二目標活體屬性參數進行活體檢測處理。
- 如申請專利範圍第4項所述的電子設備,其中,所述第一處理器,還用於檢測所述目標紅外影像中的人臉區域;若所述目標紅外影像中存在兩個或兩個以上的人臉區域,則將區域面積最大的人臉區域作為目標人臉區域。
- 如申請專利範圍第4項所述的電子設備,其中,所述第一處理器,還用於提取所述目標人臉區域在所述目標深度影像中對應的目標人臉深度區域,根據所述目標人臉深度區域獲取目標活體屬性參數;根據所述目標活體屬性參數進行活體檢測處理。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810404505.2 | 2018-04-28 | ||
CN201810404505.2A CN108764052B (zh) | 2018-04-28 | 2018-04-28 | 图像处理方法、装置、计算机可读存储介质和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
TW201945980A TW201945980A (zh) | 2019-12-01 |
TWI736883B true TWI736883B (zh) | 2021-08-21 |
Family
ID=64008891
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW108114617A TWI736883B (zh) | 2018-04-28 | 2019-04-26 | 影像處理方法和電子設備 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10771689B2 (zh) |
EP (1) | EP3561724A1 (zh) |
CN (1) | CN108764052B (zh) |
TW (1) | TWI736883B (zh) |
WO (1) | WO2019205742A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI814556B (zh) * | 2021-12-24 | 2023-09-01 | 大陸商中國銀聯股份有限公司 | 一種模型保護方法、資料處理方法、裝置、設備及介質 |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10726245B2 (en) * | 2017-12-12 | 2020-07-28 | Black Sesame International Holding Limited | Secure facial authentication system using active infrared light source and RGB-IR sensor |
KR102374747B1 (ko) * | 2017-12-15 | 2022-03-15 | 삼성전자주식회사 | 객체를 인식하는 장치 및 방법 |
CN110008783A (zh) * | 2018-01-04 | 2019-07-12 | 杭州海康威视数字技术股份有限公司 | 基于神经网络模型的人脸活体检测方法、装置及电子设备 |
CN108764052B (zh) | 2018-04-28 | 2020-09-11 | Oppo广东移动通信有限公司 | 图像处理方法、装置、计算机可读存储介质和电子设备 |
CN109684925B (zh) * | 2018-11-21 | 2023-10-27 | 奥比中光科技集团股份有限公司 | 一种基于深度图像的人脸活体检测方法及设备 |
CN109639983B (zh) * | 2019-01-03 | 2020-09-04 | Oppo广东移动通信有限公司 | 拍照方法、装置、终端及计算机可读存储介质 |
CN109871819A (zh) * | 2019-02-28 | 2019-06-11 | 百度在线网络技术(北京)有限公司 | 用于发送信息的方法和装置 |
CN112861568A (zh) * | 2019-11-12 | 2021-05-28 | Oppo广东移动通信有限公司 | 认证方法和装置、电子设备、计算机可读存储介质 |
CN110956114A (zh) * | 2019-11-25 | 2020-04-03 | 展讯通信(上海)有限公司 | 人脸活体检测方法、装置、检测系统及存储介质 |
CN113673286B (zh) * | 2020-05-15 | 2024-04-16 | 深圳市光鉴科技有限公司 | 基于目标区域的深度重建方法、系统、设备及介质 |
CN113673285B (zh) * | 2020-05-15 | 2023-09-12 | 深圳市光鉴科技有限公司 | 深度相机抓拍时的深度重建方法、系统、设备及介质 |
CN113537993B (zh) * | 2020-08-27 | 2024-02-13 | 腾讯科技(深圳)有限公司 | 一种基于脸部支付的数据检测方法及装置 |
CN112036376B (zh) * | 2020-10-01 | 2024-05-31 | 奥比中光科技集团股份有限公司 | 一种检测红外图像与深度图像的方法、装置及人脸识别系统 |
CN112257538A (zh) * | 2020-10-15 | 2021-01-22 | 杭州锐颖科技有限公司 | 基于双目深度信息的活体检测方法、设备及存储介质 |
CN112232324B (zh) * | 2020-12-15 | 2021-08-03 | 杭州宇泛智能科技有限公司 | 人脸验伪方法、装置、计算机设备和存储介质 |
CN112633181B (zh) * | 2020-12-25 | 2022-08-12 | 北京嘀嘀无限科技发展有限公司 | 数据处理方法、系统、装置、设备和介质 |
WO2022150874A1 (en) * | 2021-01-13 | 2022-07-21 | Seeing Machines Limited | System and method for skin detection in images |
CN113255587B (zh) * | 2021-06-24 | 2021-10-15 | 深圳市光鉴科技有限公司 | 基于深度相机的刷脸支付系统 |
CN113936050B (zh) * | 2021-10-21 | 2022-08-12 | 合肥的卢深视科技有限公司 | 散斑图像生成方法、电子设备及存储介质 |
WO2023156375A1 (en) * | 2022-02-15 | 2023-08-24 | Trinamix Gmbh | Method and system for detecting a vital sign |
CN114783041B (zh) * | 2022-06-23 | 2022-11-18 | 合肥的卢深视科技有限公司 | 目标对象识别方法、电子设备和计算机可读存储介质 |
WO2024088738A1 (en) * | 2022-10-25 | 2024-05-02 | Trinamix Gmbh | Image manipulation for detecting a state of a material associated with the object |
CN115797995B (zh) * | 2022-11-18 | 2023-09-01 | 北京的卢铭视科技有限公司 | 人脸活体检测方法、电子设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7652251B1 (en) * | 2008-11-17 | 2010-01-26 | Fluke Corporation | Registration methods for fusing corresponding infrared and visible light images |
TWM412400U (en) * | 2011-02-10 | 2011-09-21 | Yuan-Hong Li | Augmented virtual reality system of bio-physical characteristics identification |
TWI464692B (zh) * | 2012-07-03 | 2014-12-11 | Wistron Corp | 操作物辨識方法、操作物深度資訊建立方法及電子裝置 |
CN105516613A (zh) * | 2015-12-07 | 2016-04-20 | 凌云光技术集团有限责任公司 | 基于人脸识别的智能曝光方法及系统 |
CN106407914A (zh) * | 2016-08-31 | 2017-02-15 | 北京旷视科技有限公司 | 用于检测人脸的方法、装置和远程柜员机系统 |
CN107341481A (zh) * | 2017-07-12 | 2017-11-10 | 深圳奥比中光科技有限公司 | 利用结构光图像进行识别 |
CN107451510A (zh) * | 2016-05-30 | 2017-12-08 | 北京旷视科技有限公司 | 活体检测方法和活体检测系统 |
CN107832677A (zh) * | 2017-10-19 | 2018-03-23 | 深圳奥比中光科技有限公司 | 基于活体检测的人脸识别方法及系统 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5919944B2 (ja) * | 2012-03-27 | 2016-05-18 | 富士通株式会社 | 非接触生体認証装置 |
US9338544B2 (en) * | 2014-06-03 | 2016-05-10 | Cisco Technology, Inc. | Determination, display, and adjustment of best sound source placement region relative to microphone |
US9767358B2 (en) | 2014-10-22 | 2017-09-19 | Veridium Ip Limited | Systems and methods for performing iris identification and verification using mobile devices |
CN105518582B (zh) * | 2015-06-30 | 2018-02-02 | 北京旷视科技有限公司 | 活体检测方法及设备 |
CN205140028U (zh) * | 2015-07-31 | 2016-04-06 | 北京旷视科技有限公司 | 门禁系统 |
CN105335722B (zh) * | 2015-10-30 | 2021-02-02 | 商汤集团有限公司 | 一种基于深度图像信息的检测系统及方法 |
US10335045B2 (en) * | 2016-06-24 | 2019-07-02 | Universita Degli Studi Di Trento | Self-adaptive matrix completion for heart rate estimation from face videos under realistic conditions |
WO2018079031A1 (ja) * | 2016-10-31 | 2018-05-03 | 日本電気株式会社 | 画像処理装置、画像処理方法、顔認証システム、プログラム及び記録媒体 |
CN106533667B (zh) * | 2016-11-08 | 2019-07-19 | 深圳大学 | 基于双光束干涉的多级密钥生成方法和用户分级认证方法 |
CN106874871B (zh) | 2017-02-15 | 2020-06-05 | 广东光阵光电科技有限公司 | 一种活体人脸双摄像头识别方法及识别装置 |
KR102350781B1 (ko) * | 2017-06-15 | 2022-01-14 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
CN107590430A (zh) * | 2017-07-26 | 2018-01-16 | 百度在线网络技术(北京)有限公司 | 活体检测方法、装置、设备及存储介质 |
CN107590463A (zh) * | 2017-09-12 | 2018-01-16 | 广东欧珀移动通信有限公司 | 人脸识别方法及相关产品 |
CN108764052B (zh) * | 2018-04-28 | 2020-09-11 | Oppo广东移动通信有限公司 | 图像处理方法、装置、计算机可读存储介质和电子设备 |
-
2018
- 2018-04-28 CN CN201810404505.2A patent/CN108764052B/zh not_active Expired - Fee Related
-
2019
- 2019-01-08 WO PCT/CN2019/070845 patent/WO2019205742A1/zh active Application Filing
- 2019-04-24 US US16/393,778 patent/US10771689B2/en active Active
- 2019-04-25 EP EP19171189.4A patent/EP3561724A1/en not_active Withdrawn
- 2019-04-26 TW TW108114617A patent/TWI736883B/zh active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7652251B1 (en) * | 2008-11-17 | 2010-01-26 | Fluke Corporation | Registration methods for fusing corresponding infrared and visible light images |
TWM412400U (en) * | 2011-02-10 | 2011-09-21 | Yuan-Hong Li | Augmented virtual reality system of bio-physical characteristics identification |
TWI464692B (zh) * | 2012-07-03 | 2014-12-11 | Wistron Corp | 操作物辨識方法、操作物深度資訊建立方法及電子裝置 |
CN105516613A (zh) * | 2015-12-07 | 2016-04-20 | 凌云光技术集团有限责任公司 | 基于人脸识别的智能曝光方法及系统 |
CN107451510A (zh) * | 2016-05-30 | 2017-12-08 | 北京旷视科技有限公司 | 活体检测方法和活体检测系统 |
CN106407914A (zh) * | 2016-08-31 | 2017-02-15 | 北京旷视科技有限公司 | 用于检测人脸的方法、装置和远程柜员机系统 |
CN107341481A (zh) * | 2017-07-12 | 2017-11-10 | 深圳奥比中光科技有限公司 | 利用结构光图像进行识别 |
CN107832677A (zh) * | 2017-10-19 | 2018-03-23 | 深圳奥比中光科技有限公司 | 基于活体检测的人脸识别方法及系统 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI814556B (zh) * | 2021-12-24 | 2023-09-01 | 大陸商中國銀聯股份有限公司 | 一種模型保護方法、資料處理方法、裝置、設備及介質 |
Also Published As
Publication number | Publication date |
---|---|
US20190335098A1 (en) | 2019-10-31 |
CN108764052B (zh) | 2020-09-11 |
CN108764052A (zh) | 2018-11-06 |
WO2019205742A1 (zh) | 2019-10-31 |
EP3561724A1 (en) | 2019-10-30 |
TW201945980A (zh) | 2019-12-01 |
US10771689B2 (en) | 2020-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI736883B (zh) | 影像處理方法和電子設備 | |
CN108805024B (zh) | 图像处理方法、装置、计算机可读存储介质和电子设备 | |
CN108804895B (zh) | 图像处理方法、装置、计算机可读存储介质和电子设备 | |
CN111126146B (zh) | 图像处理方法、装置、计算机可读存储介质和电子设备 | |
WO2019206020A1 (zh) | 图像处理方法、装置、计算机可读存储介质和电子设备 | |
WO2019205890A1 (zh) | 图像处理方法、装置、计算机可读存储介质和电子设备 | |
WO2019196683A1 (zh) | 图像处理方法、装置、计算机可读存储介质和电子设备 | |
CN108668078A (zh) | 图像处理方法、装置、计算机可读存储介质和电子设备 | |
CN108711054B (zh) | 图像处理方法、装置、计算机可读存储介质和电子设备 | |
CN110248111B (zh) | 控制拍摄的方法、装置、电子设备及计算机可读存储介质 | |
CN108921903B (zh) | 摄像头标定方法、装置、计算机可读存储介质和电子设备 | |
CN108830141A (zh) | 图像处理方法、装置、计算机可读存储介质和电子设备 | |
KR101444538B1 (ko) | 3차원 얼굴 인식 시스템 및 그의 얼굴 인식 방법 | |
WO2019205887A1 (zh) | 控制拍摄的方法、装置、电子设备及计算机可读存储介质 | |
WO2020024576A1 (zh) | 摄像头校准方法和装置、电子设备、计算机可读存储介质 | |
CN108985255B (zh) | 数据处理方法、装置、计算机可读存储介质和电子设备 | |
CN108712400B (zh) | 数据传输方法、装置、计算机可读存储介质和电子设备 | |
WO2019196669A1 (zh) | 基于激光的安全验证方法、装置及终端设备 | |
WO2020015403A1 (zh) | 图像处理方法、装置、计算机可读存储介质和电子设备 | |
US20200151428A1 (en) | Data Processing Method, Electronic Device and Computer-Readable Storage Medium | |
WO2019205889A1 (zh) | 图像处理方法、装置、计算机可读存储介质和电子设备 | |
WO2020024619A1 (zh) | 数据处理方法、装置、计算机可读存储介质和电子设备 | |
CN108881712B (zh) | 图像处理方法、装置、计算机可读存储介质和电子设备 | |
CN109145772B (zh) | 数据处理方法、装置、计算机可读存储介质和电子设备 | |
JP2007004534A (ja) | 顔判別方法および装置ならびに顔認証装置 |