TW202034195A - 車門解鎖方法及其裝置、車載人臉解鎖系統、車、電子設備和儲存媒體 - Google Patents

車門解鎖方法及其裝置、車載人臉解鎖系統、車、電子設備和儲存媒體 Download PDF

Info

Publication number
TW202034195A
TW202034195A TW109105976A TW109105976A TW202034195A TW 202034195 A TW202034195 A TW 202034195A TW 109105976 A TW109105976 A TW 109105976A TW 109105976 A TW109105976 A TW 109105976A TW 202034195 A TW202034195 A TW 202034195A
Authority
TW
Taiwan
Prior art keywords
image
depth
distance
vehicle
target object
Prior art date
Application number
TW109105976A
Other languages
English (en)
Other versions
TWI785312B (zh
Inventor
胡鑫
黃程
Original Assignee
大陸商上海商湯臨港智能科技有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 大陸商上海商湯臨港智能科技有限公司 filed Critical 大陸商上海商湯臨港智能科技有限公司
Publication of TW202034195A publication Critical patent/TW202034195A/zh
Application granted granted Critical
Publication of TWI785312B publication Critical patent/TWI785312B/zh

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
    • G07C9/00563Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys using personal physical data of the operator, e.g. finger prints, retinal images, voicepatterns
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/20Means to switch the anti-theft system on or off
    • B60R25/25Means to switch the anti-theft system on or off using biometry
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/30Detection related to theft or to other events relevant to anti-theft systems
    • B60R25/305Detection related to theft or to other events relevant to anti-theft systems using a camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/30Detection related to theft or to other events relevant to anti-theft systems
    • B60R25/31Detection related to theft or to other events relevant to anti-theft systems of human presence inside or outside the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/30Detection related to theft or to other events relevant to anti-theft systems
    • B60R25/34Detection related to theft or to other events relevant to anti-theft systems of conditions of vehicle components, e.g. of windows, door locks or gear selectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0861Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/06Authentication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2325/00Indexing scheme relating to vehicle anti-theft devices
    • B60R2325/10Communication protocols, communication systems of vehicle anti-theft devices
    • B60R2325/101Bluetooth
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2325/00Indexing scheme relating to vehicle anti-theft devices
    • B60R2325/20Communication devices for vehicle anti-theft devices
    • B60R2325/205Mobile phones
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/08Systems for measuring distance only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C2209/00Indexing scheme relating to groups G07C9/00 - G07C9/38
    • G07C2209/60Indexing scheme relating to groups G07C9/00174 - G07C9/00944
    • G07C2209/63Comprising locating means for detecting the position of the data carrier, i.e. within the vehicle or within a certain distance from the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Evolutionary Computation (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Computer Security & Cryptography (AREA)
  • Databases & Information Systems (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Geometry (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Lock And Its Accessories (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本發明涉及一種車門解鎖方法及其裝置、車載人臉解鎖系統、車、電子設備和儲存媒體。所述方法包括:經設置於車的至少一距離感測器獲取所述車外的目標對象和所述車之間的距離;響應於所述距離滿足預定條件,喚醒並控制設置於所述車的圖像採集模組採集所述目標對象的第一圖像;基於所述第一圖像進行人臉識別;響應於人臉識別成功,向所述車的至少一車門鎖發送車門解鎖指令。

Description

車門解鎖方法及其裝置、車載人臉解鎖系統、車、電子設備和儲存媒體
本發明涉及車輛技術領域,尤其涉及一種車門解鎖方法及其裝置、車載人臉解鎖系統、車、電子設備和儲存媒體。
目前,用戶需要攜帶車鑰匙用於車門解鎖。攜帶車鑰匙存在不便捷的問題。另外,車鑰匙存在損壞、失效或丟失的風險。
因此,本發明提出了一種車門解鎖技術方案。
根據本發明的一方面,提供了一種車門解鎖方法,包括:
經設置於車的至少一距離感測器獲取所述車外的目標對象和所述車之間的距離;
響應於所述距離滿足預定條件,喚醒並控制設置於所述車的圖像採集模組採集所述目標對象的第一圖像;
基於所述第一圖像進行人臉識別;
響應於人臉識別成功,向所述車的至少一車門鎖發送車門解鎖指令。
根據本發明的另一方面,提供了一種車門解鎖裝置,包括:
獲取模組,用於經設置於車的至少一距離感測器獲取所述車外的目標對象和所述車之間的距離;
喚醒與控制模組,用於響應於所述距離滿足預定條件,喚醒並控制設置於所述車的圖像採集模組採集所述目標對象的第一圖像;
人臉識別模組,用於基於所述第一圖像進行人臉識別;
發送模組,用於響應於人臉識別成功,向所述車的至少一車門鎖發送車門解鎖指令。
根據本發明的另一方面,提供了一種車載人臉解鎖系統,包括:記憶體、人臉識別系統、圖像採集模組和人體接近監測系統;所述人臉識別系統分別與所述記憶體、所述圖像採集模組和所述人體接近監測系統連接;所述人體接近監測系統包括若距離滿足預定條件時喚醒所述人臉識別系統的微處理器和與所述微處理器連接的至少一距離感測器;所述人臉識別系統還設置有用於與車門域控制器連接的通訊介面,若人臉識別成功則基於所述通訊介面向所述車門域控制器發送用於解鎖車門的控制訊息。
根據本發明的另一方面,提供了一種車,所述車包括上述車載人臉解鎖系統,所述車載人臉解鎖系統與所述車的車門域控制器連接。
根據本發明的另一方面,提供了一種電子設備,包括:
處理器;
用於儲存處理器可執行指令的記憶體;
其中,所述處理器被配置爲:執行上述車門解鎖方法。
根據本發明的另一方面,提供了一種電腦可讀儲存媒體,其上儲存有電腦程式指令,所述電腦程式指令被處理器執行時實現上述車門解鎖方法。
根據本發明的另一方面,提供了一種電腦程式,所述電腦程式包括電腦可讀代碼,當所述電腦可讀代碼在電子設備中運行時,所述電子設備中的處理器執行用於實現上述車門解鎖方法。
在本發明實施例中,經設置於車的至少一距離感測器獲取所述車外的目標對象和所述車之間的距離,響應於所述距離滿足預定條件,喚醒並控制設置於所述車的圖像採集模組採集所述目標對象的第一圖像,基於所述第一圖像進行人臉識別,並響應於人臉識別成功,向所述車的至少一車門鎖發送車門解鎖指令,由此能夠在保障車門解鎖的安全性的前提下提高車門解鎖的便捷性。
應當理解的是,以上的一般描述和後文的細節描述僅是示例性和解釋性的,而非限制本發明。
根據下面參考附圖對示例性實施例的詳細說明,本發明的其它特徵及方面將變得清楚。
以下將參考附圖詳細說明本發明的各種示例性實施例、特徵和方面。附圖中相同的附圖標記表示功能相同或相似的元件。儘管在附圖中示出了實施例的各種方面,但是除非特別指出,不必按比例繪製附圖。
在這裏專用的詞“示例性”意爲“用作例子、實施例或說明性”。這裏作爲“示例性”所說明的任何實施例不必解釋爲優於或好於其它實施例。
本文中術語“和/或”,僅僅是一種描述關聯對象的關聯關係,表示可以存在三種關係,例如,A和/或B,可以表示:單獨存在A,同時存在A和B,單獨存在B這三種情況。另外,本文中術語“至少一種”表示多種中的任意一種或多種中的至少兩種的任意組合,例如,包括A、B、C中的至少一種,可以表示包括從A、B和C構成的集合中選擇的任意一個或多個元素。
另外,爲了更好地說明本發明,在下文的具體實施方式中給出了眾多的具體細節。本領域技術人員應當理解,沒有某些具體細節,本發明同樣可以實施。在一些實例中,對於本領域技術人員熟知的方法、手段、元件和電路未作詳細描述,以便於凸顯本發明的主旨。
圖1示出根據本發明實施例的車門解鎖方法的流程圖。該車門解鎖方法的執行主體可以是車門解鎖裝置。例如,該車門解鎖裝置可以安裝在以下至少一個位置上:在車的B柱、至少一個車門、至少一個後視鏡。圖2示出車的B柱的示意圖。例如,車門解鎖裝置可以安裝在B柱上離地130cm至160cm處,車門解鎖裝置的水平識別距離可以爲30cm至100cm,在此不作限定。圖3示出根據本發明實施例的車門解鎖方法中車門解鎖裝置的安裝高度與可識別的身高範圍的示意圖。在圖3所示的示例中,車門解鎖裝置的安裝高度爲160cm,可識別的身高範圍爲140cm至190cm。
在一種可能的實現方式中,該車門解鎖方法可以通過處理器調用記憶體中儲存的電腦可讀指令的方式來實現。
如圖1所示,該車門解鎖方法包括步驟S11至步驟S14。
在步驟S11中,經設置於車的至少一距離感測器獲取車外的目標對象和車之間的距離。
在一種可能的實現方式中,至少一距離感測器包括:藍牙距離感測器;經設置於車的至少一距離感測器獲取車外的目標對象和車之間的距離,包括:建立外部設備和藍牙距離感測器的藍牙配對連接;響應於藍牙配對連接成功,經藍牙距離感測器獲取帶有外部設備的目標對象和車之間的第一距離。
在該實現方式中,外部設備可以是任何具有藍牙功能的行動設備,例如,外部設備可以是手機、可穿戴設備或者電子鑰匙等。其中,可穿戴設備可以爲智能手環或者智能眼鏡等。
在一個示例中,在至少一距離感測器包括藍牙距離感測器的情況下,可以採用RSSI(Received Signal Strength Indication,接收訊號强度指示)來測算帶有外部設備的目標對象和車之間的第一距離,其中,藍牙測距的距離範圍爲1至100m。例如,可以採用式1確定帶有外部設備的目標對象和車之間的第一距離,
P =A -10n . lgr 式1。
其中,P 表示當前RSSI,A 表示主從機(藍牙距離感測器與外部設備)距離爲1m時的RSSI,n 表示傳播因子,傳播因子與溫度、濕度等環境相關,r 表示帶有外部設備的目標對象與藍牙距離感測器之間的第一距離。
在一個示例中,n 隨著環境的變化而變化。在不同的環境中進行測距之前,需要根據環境因素(例如溫度和濕度)調整n 。通過根據環境因素調整n ,能夠提高不同環境中藍牙測距的準確性。
在一個示例中,A 需要根據不同的外部設備進行校準。通過根據不同的外部設備校準A ,能夠提高針對不同的外部設備進行藍牙測距的準確性。
在一個示例中,可以多次獲取藍牙距離感測器感測到的第一距離,並根據多次獲取的第一距離的平均值判斷是否滿足預定條件,從而能夠減小單次測距的誤差。
在該實現方式中,通過建立外部設備和藍牙距離感測器的藍牙配對連接,由此能夠通過藍牙增加一層認證,從而能夠提高車門解鎖的安全性。
在另一種可能的實現方式中,至少一距離感測器包括:超音波距離感測器;經設置於車的至少一距離感測器獲取車外的目標對象和車之間的距離,包括:經設置於車的室外部的超音波距離感測器獲取目標對象和車之間的第二距離。
在一個示例中,超音波測距的測量範圍可以爲0.1至10m,測量精確度可以爲1cm。超音波測距的公式可以表示爲式3:
L=C×Tu 式3。
其中,L表示第二距離,C表示超音波在空氣中的傳播速度,Tu 等於超音波的發射時間與接收時間的時間差的1/2。
在步驟S12中,響應於距離滿足預定條件,喚醒並控制設置於車的圖像採集模組採集目標對象的第一圖像。
在一種可能的實現方式中,預定條件包括以下至少之一:距離小於預定的距離閾值;距離小於預定的距離閾值的持續時間達到預定的時間閾值;持續時間獲得的距離表示目標對象接近車。
在一個示例中,預定條件爲距離小於預定的距離閾值。例如,若藍牙距離感測器多次感測到的第一距離的平均值小於距離閾值,則判定滿足預定條件。例如,距離閾值爲5m。
在另一個示例中,預定條件爲距離小於預定的距離閾值的持續時間達到預定的時間閾值。例如,在獲取超音波距離感測器感測到的第二距離的情況下,若第二距離小於距離閾值的持續時間達到時間閾值,則判定滿足預定條件。
在一種可能的實現方式中,至少一距離感測器包括:藍牙距離感測器和超音波距離感測器;經設置於車的至少一距離感測器獲取車外的目標對象和車之間的距離,包括:建立外部設備和藍牙距離感測器的藍牙配對連接;響應於藍牙配對連接成功,經藍牙距離感測器獲取帶有外部設備的目標對象和車之間的第一距離;經超音波距離感測器獲取目標對象和車之間的第二距離;響應於距離滿足預定條件,喚醒並控制設置於車的圖像採集模組採集目標對象的第一圖像,包括:響應於第一距離和第二距離滿足預定條件,喚醒並控制設置於車的圖像採集模組採集目標對象的第一圖像。
在該實現方式中,能夠通過藍牙距離感測器與超音波距離感測器配合來提高車門解鎖的安全性。
在一種可能的實現方式中,預定條件包括第一預定條件和第二預定條件;第一預定條件包括以下至少之一:第一距離小於預定的第一距離閾值;第一距離小於預定的第一距離閾值的持續時間達到預定的時間閾值;持續時間獲得的第一距離表示目標對象接近車;第二預定條件包括:第二距離小於預定的第二距離閾值,第二距離小於預定的第二距離閾值的持續時間達到預定的時間閾值;第二距離閾值小於第一距離閾值。
在一種可能的實現方式中,響應於第一距離和第二距離滿足預定條件,喚醒並控制設置於車的圖像採集模組採集目標對象的第一圖像,包括:響應於第一距離滿足第一預定條件,喚醒設置於車的人臉識別系統;響應於第二距離滿足第二預定條件,經喚醒的人臉識別系統控制圖像採集模組採集目標對象的第一圖像。
人臉識別系統的喚醒過程通常需要一些時間,例如需要4至5秒,這會使人臉識別觸發和處理較慢,影響用戶體驗。在上述實現方式中,通過結合藍牙距離感測器和超音波距離感測器,在藍牙距離感測器獲取的第一距離滿足第一預定條件時,喚醒人臉識別系統,使人臉識別系統提前處於可工作狀態,由此在超音波距離感測器獲取的第二距離滿足第二預定條件時能夠通過人臉識別系統快速進行人臉圖像處理,由此能夠提高人臉識別效率,改善用戶體驗。
在一種可能的實現方式中,距離感測器爲超音波距離感測器,預定的距離閾值根據計算得到的距離閾值基準值和預定的距離閾值偏移值確定,距離閾值基準值表示車外的對象與車之間的距離閾值的基準值,距離閾值偏移值表示車外的對象與車之間的距離閾值的偏移值。
在一個示例中,距離偏移值可以根據人站立時所占用的距離確定。例如,距離偏移值在初始化時設置爲默認值。例如,默認值爲10cm。
在一種可能的實現方式中,預定的距離閾值等於距離閾值基準值與預定的距離閾值偏移值的差值。例如,距離閾值基準值爲D’ ,距離閾值偏移值爲Dw ,則預定的距離閾值D 可以採用式4確定,
D =D’ -Dw 式4。
需要說明的是,儘管以預定的距離閾值等於距離閾值基準值與距離閾值偏移值的差值作爲示例介紹了預定的距離閾值根據距離閾值基準值和距離閾值偏移值確定的方式如上,但本領域技術人員能夠理解,本發明應不限於此。本領域技術人員可以根據實際應用場景需求和/或個人喜好靈活設置預定的距離閾值根據距離閾值基準值和距離閾值偏移值確定的具體實現方式。例如,預定的距離閾值可以等於距離閾值基準值與距離閾值偏移值之和。又如,可以確定距離閾值偏移值與第五預設係數的乘積,並可以將距離閾值基準值與該乘積的差值確定爲預定的距離閾值。
在一個示例中,距離閾值基準值取車輛熄火後的距離平均值與車門解鎖的最大距離中的最小值,其中,車輛熄火後的距離平均值表示車輛熄火後的指定時間段內車外的對象與車之間的距離的平均值。例如,車輛熄火後的指定時間段爲車輛熄火後的N 秒,則車輛熄火後的指定時間段內距離感測器感測到的距離的平均值爲
Figure 02_image001
,其中,D(t) 表示從距離感測器中獲取的t 時刻的距離值。例如,車門解鎖的最大距離爲Da ,則距離閾值基準值D’ 可以採用式5確定,
Figure 02_image003
式5。
即,距離閾值基準值D’ 取車輛熄火後的距離平均值
Figure 02_image005
與車門解鎖的最大距離Da 中的最小值。
在另一示例中,距離閾值基準值等於車輛熄火後的距離平均值。在該示例中,可以不考慮車門解鎖的最大距離,僅由車輛熄火後的距離平均值確定距離閾值基準值。
在另一個示例中,距離閾值基準值等於車門解鎖的最大距離。在該示例中,可以不考慮車輛熄火後的距離平均值,僅由車門解鎖的最大距離確定距離閾值基準值。
在一種可能的實現方式中,距離閾值基準值周期性更新。例如,距離閾值基準值的更新周期可以爲5分鐘,即,可以每5分鐘更新一次距離閾值基準值。通過周期性更新距離閾值基準值,能夠適應不同的環境。
在另一種可能的實現方式中,在確定了距離閾值基準值之後,可以不對距離閾值基準值進行更新。
在另一種可能的實現方式中,預定的距離閾值可以設置爲默認值。
在一種可能的實現方式中,距離感測器爲超音波距離感測器,預定的時間閾值根據計算得到的時間閾值基準值和時間閾值偏移值確定,其中,時間閾值基準值表示車外的對象與車之間的距離小於預定的距離閾值的時間閾值的基準值,時間閾值偏移值表示車外的對象與車之間的距離小於預定的距離閾值的時間閾值的偏移值。
在一些實施例中,時間閾值偏移值可以通過實驗確定。在一個示例中,時間閾值偏移值可以默認爲時間閾值基準值的1/2。需要說明的是,本領域技術人員可以根據實際應用場景需求和/或個人喜好靈活設置時間閾值偏移值,在此不作限定。
在另一種可能是實現方式中,預定的時間閾值可以設置爲默認值。
在一種可能的實現方式中,預定的時間閾值等於時間閾值基準值與時間閾值偏移值之和。例如,時間閾值基準值爲Ts ,時間閾值偏移值爲Tw ,則預定的時間閾值T 可以採用式6確定,
T =Ts +Tw 式6。
需要說明的是,儘管以預定的時間閾值等於時間閾值基準值與時間閾值偏移值之和作爲示例介紹了預定的時間閾值根據時間閾值基準值和時間閾值偏移值確定的方式如上,但本領域技術人員能夠理解,本發明應不限於此。本領域技術人員可以根據實際應用場景需求和/或個人喜好靈活設置預定的時間閾值根據時間閾值基準值和時間閾值偏移值確定的具體實現方式。例如,預定的時間閾值可以等於時間閾值基準值與時間閾值偏移值的差值。又如,可以確定時間閾值偏移值與第六預設係數的乘積,並可以將時間閾值基準值與該乘積之和確定爲預定的時間閾值。
在一種可能的實現方式中,時間閾值基準值根據超音波距離感測器的水平方向探測角、超音波距離感測器的探測半徑、對象尺寸和對象速度中的一項或多項確定。
圖4示出根據本發明實施例的車門解鎖方法中超音波距離感測器的水平方向探測角和超音波距離感測器的探測半徑的示意圖。例如,時間閾值基準值根據超音波距離感測器的水平方向探測角、超音波距離感測器的探測半徑、至少一種類別的對象尺寸和至少一種類別的對象速度確定。超音波距離感測器的探測半徑可以爲超音波距離感測器的水平方向探測半徑。超音波距離感測器的探測半徑可以等於車門解鎖的最大距離,例如,可以等於1m。
在其他示例中,時間閾值基準值可以設置爲默認值,或者,時間閾值基準值可以根據其他參數確定,在此不作限定。
在一種可能的實現方式中,該方法還包括:根據不同類別的對象尺寸、不同類別的對象速度、超音波距離感測器的水平方向探測角和超音波距離感測器的探測半徑,確定不同類別的對象對應的備選基準值;從不同類別的對象對應的備選基準值中確定時間閾值基準值。
例如,類別可以包括行人類別、自行車類別和摩托車類別等。對象尺寸可以爲對象的寬度,例如,行人類別的對象尺寸可以爲行人的寬度的經驗值,自行車類別的對象尺寸可以爲自行車的寬度的經驗值等。對象速度可以爲對象的速度的經驗值,例如,行人類別的對象速度可以爲行人的步行速度的經驗值。
在一個示例中,根據不同類別的對象尺寸、不同類別的對象速度、超音波距離感測器的水平方向探測角和超音波距離感測器的探測半徑,確定不同類別的對象對應的備選基準值,包括:採用式2確定類別i 的對象對應的備選基準值Ti
Figure 02_image007
式2。
其中,α 表示距離感測器的水平方向探測角,R 表示距離感測器的探測半徑,di 表示類別i 的對象尺寸,vi 表示類別i 的對象速度。
需要說明的是,儘管以式2爲例介紹了根據不同類別的對象尺寸、不同類別的對象速度、超音波距離感測器的水平方向探測角和超音波距離感測器的探測半徑,確定不同類別的對象對應的備選基準值的方式如上,但本領域技術人員能夠理解,本發明應不限於此。例如,本領域技術人員可以調整式2以滿足實際應用場景需求。
在一種可能的實現方式中,從不同類別的對象對應的備選基準值中確定時間閾值基準值,包括:將不同類別的對象對應的備選基準值中的最大值確定爲時間閾值基準值。
在其他示例中,可以將不同類別的對象對應的備選基準值的平均值確定爲時間閾值基準值,或者,可以從不同類別的對象對應的備選基準值隨機選取一個作爲時間閾值基準值,在此不作限定。
在一些實施例中,爲了不影響體驗,預定的時間閾值設置爲小於1秒。在一個示例,可以通過減小超音波距離感測器的水平方向探測角來減小行人、自行車等通過帶來的干擾。
在本發明實施例中,預定的時間閾值可以不需要根據環境動態更新。
在本發明實施例中,距離感測器可以長時間保持低功耗(>5mA)運行。
在步驟S13中,基於第一圖像進行人臉識別。
在一種可能的實現方式中,人臉識別包括:活體檢測和人臉認證;基於第一圖像進行人臉識別,包括:經圖像採集模組中的圖像感測器採集第一圖像,並基於第一圖像和預註冊的人臉特徵進行人臉認證;經圖像採集模組中的深度感測器採集第一圖像對應的第一深度圖,並基於第一圖像和第一深度圖進行活體檢測。
在本發明實施例中,第一圖像包含目標對象。其中,目標對象可以爲人臉或者人體的至少一部分,本發明實施例對此不做限定。
其中,第一圖像可以爲靜態圖像或者爲視訊幀圖像。例如,第一圖像可以爲從視訊序列中選取的圖像,其中,可以通過多種方式從視訊序列中選取圖像。在一個具體例子中,第一圖像爲從視訊序列中選取的滿足預設品質條件的圖像,該預設品質條件可以包括下列中的一種或任意組合:是否包含目標對象、目標對象是否位於圖像的中心區域、目標對象是否完整地包含在圖像中、目標對象在圖像中所占比例、目標對象的狀態(例如人臉角度)、圖像清晰度、圖像曝光度等等,本發明實施例對此不做限定。
在一個示例中,可以先進行活體檢測再進行人臉認證。例如,若目標對象的活體檢測結果爲目標對象爲活體,則觸發人臉認證流程;若目標對象的活體檢測結果爲目標對象爲假體,則不觸發人臉認證流程。
在另一個示例中,可以先進行人臉認證再進行活體檢測。例如,若人臉認證通過,則觸發活體檢測流程;若人臉認證不通過,則不觸發活體檢測流程。
在另一個示例中,可以同時進行活體檢測和人臉認證。
在該實現方式中,活體檢測用於驗證目標對象是否是活體,例如可以用於驗證目標對象是否是人體。人臉認證用於提取採集的圖像中的人臉特徵,將採集的圖像中的人臉特徵與預註冊的人臉特徵進行比對,判斷是否屬同一個人的人臉特徵,例如可以判斷採集的圖像中的人臉特徵是否屬車主的人臉特徵。
在本發明實施例中,深度感測器表示用於採集深度訊息的感測器。本發明實施例不對深度感測器的工作原理和工作波段進行限定。
在本發明實施例中,圖像採集模組的圖像感測器和深度感測器可以分開設置,也可以一起設置。例如,圖像採集模組的圖像感測器和深度感測器分開設置可以爲,圖像感測器採用RGB(Red,紅;Green,綠;Blue,藍)感測器或紅外線感測器,深度感測器採用雙目紅外線感測器或者TOF(Time of Flight,飛行時間)感測器;圖像採集模組的圖像感測器和深度感測器一起設置可以爲,圖像採集模組採用RGBD( Red,紅;Green,綠;Blue,藍;Deep,深度)感測器實現圖像感測器和深度感測器的功能。
作爲一個示例,圖像感測器爲RGB感測器。若圖像感測器爲RGB感測器,則圖像感測器採集到的圖像爲RGB圖像。
作爲另一個示例,圖像感測器爲紅外線感測器。若圖像感測器爲紅外線感測器,則圖像感測器採集到的圖像爲紅外線圖像。其中,紅外線圖像可以爲帶光斑的紅外線圖像,也可以爲不帶光斑的紅外線圖像。
在其他示例中,圖像感測器可以爲其他類型的感測器,本發明實施例對此不做限定。
可選地,車門解鎖裝置可以通過多種方式獲取第一圖像。例如,在一些實施例中,車門解鎖裝置上設置有攝影機,車門解鎖裝置通過攝影機進行靜態圖像或視訊流採集,得到第一圖像,本發明實施例對此不做限定。
作爲一個示例,深度感測器爲三維感測器。例如,深度感測器爲雙目紅外線感測器、飛行時間TOF感測器或者結構光感測器,其中,雙目紅外線感測器包括兩個紅外線攝影機。結構光感測器可以爲編碼結構光感測器或者散斑結構光感測器。通過深度感測器獲取目標對象的深度圖,可以獲得高精確度的深度圖。本發明實施例利用包含目標對象的深度圖進行活體檢測,能夠充分挖掘目標對象的深度訊息,從而能夠提高活體檢測的準確性。例如,當目標對象爲人臉時,本發明實施例利用包含人臉的深度圖進行活體檢測,能夠充分挖掘人臉數據的深度訊息,從而能夠提高活體人臉檢測的準確性。
在一個示例中,TOF感測器採用基於紅外線波段的TOF模組。在該示例中,通過採用基於紅外線波段的TOF模組,能夠降低外界光線對深度圖拍攝造成的影響。
在本發明實施例中,第一深度圖和第一圖像相對應。例如,第一深度圖和第一圖像分別爲深度感測器和圖像感測器針對同一場景採集到的,或者,第一深度圖和第一圖像爲深度感測器和圖像感測器在同一時刻針對同一目標區域採集到的,但本發明實施例對此不做限定。
圖5A示出根據本發明實施例的車門解鎖方法中圖像感測器和深度感測器的示意圖。在圖5A所示的示例中,圖像感測器爲RGB感測器,圖像感測器的攝影機爲RGB攝影機,深度感測器爲雙目紅外線感測器,深度感測器包括兩個紅外線(IR)攝影機,雙目紅外線感測器的兩個紅外線攝影機設置在圖像感測器的RGB攝影機的兩側。其中,兩個紅外線攝影機基於雙目視差原理採集深度訊息。
在一個示例中,圖像採集模組還包括至少一個補光燈,該至少一個補光燈設置在雙目紅外線感測器的紅外線攝影機和圖像感測器的攝影機之間,該至少一個補光燈包括用於圖像感測器的補光燈和用於深度感測器的補光燈中的至少一種。例如,若圖像感測器爲RGB感測器,則用於圖像感測器的補光燈可以爲白光燈;若圖像感測器爲紅外線感測器,則用於圖像感測器的補光燈可以爲紅外線燈;若深度感測器爲雙目紅外線感測器,則用於深度感測器的補光燈可以爲紅外線燈。在圖5A所示的示例中,在雙目紅外線感測器的紅外線攝影機和圖像感測器的攝影機之間設置紅外線燈。例如,紅外線燈可以採用940nm的紅外線。
在一個示例中,補光燈可以處於常開模式。在該示例中,在圖像採集模組的攝影機處於工作狀態時,補光燈處於開啓狀態。
在另一個示例中,可以在光線不足時開啓補光燈。例如,可以通過環境光感測器獲取環境光强度,並在環境光强度低於光强度閾值時判定光線不足,並開啓補光燈。
圖5B示出根據本發明實施例的車門解鎖方法中圖像感測器和深度感測器的另一示意圖。在圖5B所示的示例中,圖像感測器爲RGB感測器,圖像感測器的攝影機爲RGB攝影機,深度感測器爲TOF感測器。
在一個示例中,圖像採集模組還包括雷射器,雷射器設置在深度感測器的攝影機和圖像感測器的攝影機之間。例如,雷射器設置在TOF感測器的攝影機和RGB感測器的攝影機之間。例如,雷射器可以爲VCSEL(Vertical Cavity Surface Emitting Laser,垂直腔面發射雷射器),TOF感測器可以基於VCSEL發出的雷射採集深度圖。
在本發明實施例中,深度感測器用於採集深度圖,圖像感測器用於採集二維圖像。需要說明的是,儘管以RGB感測器和紅外線感測器爲例對圖像感測器進行了說明,並以雙目紅外線感測器、TOF感測器和結構光感測器爲例對深度感測器進行了說明,但本領域技術人員能夠理解,本發明實施例應不限於此。本領域技術人員可以根據實際應用需求選擇圖像感測器和深度感測器的類型,只要分別能夠實現對二維圖像和深度圖的採集即可。
在步驟S14中,響應於人臉識別成功,向車的至少一車門鎖發送車門解鎖指令。
在一個示例中,車門解鎖裝置的SoC可以向車門域控制器發送車門解鎖指令,以控制車門進行解鎖。
本發明實施例中的車門可以包括人進出的車門(例如左前門、右前門、左後門、右後門),也可以包括車的後備箱門等。相應地,所述至少一車門鎖可以包括左前門鎖、右前門鎖、左後門鎖、右後門鎖和後備箱門鎖等中的至少之一。
在一種可能的實現方式中,所述人臉識別還包括權限認證;所述基於第一圖像進行人臉識別,包括:基於第一圖像獲取所述目標對象的開門權限訊息;基於所述目標對象的開門權限訊息進行權限認證。根據該實現方式,可以爲不同的用戶設置不同的開門權限訊息,從而能夠提高車的安全性。
作爲該實現方式的一個示例,所述目標對象的開門權限訊息包括以下一項或多項:所述目標對象具有開門權限的車門的訊息、所述目標對象具有開門權限的時間、所述目標對象對應的開門權限次數。
例如,所述目標對象具有開門權限的車門的訊息可以爲所有車門或者部分車門。例如,車主或者車主的家人、朋友具有開門權限的車門可以是所有車門,快遞員或者物業工作人員具有開門權限的車門可以是後備箱門。其中,車主可以爲其他人員設置具有開門權限的車門的訊息。又如,在網約車的場景中,乘客具有開門權限的車門可以是非駕駛艙的車門和後備箱門。
例如,目標對象具有開門權限的時間可以是所有時間,或者可以是預設時間段。例如,車主或者車主的家人具有開門權限的時間可以是所有時間。車主可以爲其他人員設置具有開門權限的時間。例如,在車主的朋友向車主借車的應用場景中,車主可以爲朋友設置具有開門權限的時間爲兩天。又如,在快遞員聯繫車主後,車主可以爲快遞員設置具有開門權限的時間爲2019年9月29日13:00-14:00。又如,在租車的場景中,若顧客租車3天,則租車行工作人員可以爲該顧客設置具有開門權限的時間爲3天。又如,在網約車的場景中,乘客具有開門權限的時間可以是出行訂單的服務期間。
例如,目標對象對應的開門權限次數可以是不限次數或者有限次數。例如,車主或者車主的家人、朋友對應的開門權限次數可以是不限次數。又如,快遞員對應的開門權限次數可以是有限次數,例如1次。
在一種可能的實現方式中,基於第一圖像和第一深度圖進行活體檢測,包括:基於第一圖像,更新第一深度圖,得到第二深度圖;基於第一圖像和第二深度圖,確定目標對象的活體檢測結果。
具體地,基於第一圖像,更新第一深度圖中一個或多個像素的深度值,得到第二深度圖。
在一些實施例中,基於第一圖像,對第一深度圖中的深度失效像素的深度值進行更新,得到第二深度圖。
其中,深度圖中的深度失效像素可以指深度圖中包括的深度值無效的像素,即深度值不準確或與實際情況明顯不符的像素。深度失效像素的個數可以爲一個或多個。通過更新深度圖中的至少一個深度失效像素的深度值,使得深度失效像素的深度值更爲準確,有助於提高活體檢測的準確率。
在一些實施例中,第一深度圖爲帶缺失值的深度圖,通過基於第一圖像修復第一深度圖,得到第二深度圖,其中,可選地,對第一深度圖的修復包括對缺失值的像素的深度值的確定或補充,但本發明實施例不限於此。
在本發明實施例中,可以通過多種方式更新或修復第一深度圖。在一些實施例中,直接利用第一圖像進行活體檢測,例如直接利用第一圖像更新第一深度圖。在另一些實施例中,對第一圖像進行預處理,並基於預處理後的第一圖像進行活體檢測。例如,從第一圖像中獲取目標對象的圖像,並基於目標對象的圖像,更新第一深度圖。
可以通過多種方式從第一圖像中截取目標對象的圖像。作爲一個示例,對第一圖像進行目標檢測,得到目標對象的位置訊息,例如目標對象的定界框(bounding box)的位置訊息,並基於目標對象的位置訊息從第一圖像中截取目標對象的圖像。例如,從第一圖像中截取目標對象的定界框所在區域的圖像作爲目標對象的圖像,再例如,將目標對象的定界框放大一定倍數並從第一圖像中截取放大後的定界框所在區域的圖像作爲目標對象的圖像。作爲另一個示例,獲取第一圖像中目標對象的關鍵點訊息,並基於目標對象的關鍵點訊息,從第一圖像中獲取目標對象的圖像。
可選地,對第一圖像進行目標檢測,得到目標對象所在區域的位置訊息;對目標對象所在區域的圖像進行關鍵點檢測,得到第一圖像中目標對象的關鍵點訊息。
可選地,目標對象的關鍵點訊息可以包括目標對象的多個關鍵點的位置訊息。若目標對象爲人臉,則目標對象的關鍵點可以包括眼睛關鍵點、眉毛關鍵點、鼻子關鍵點、嘴巴關鍵點和人臉輪廓關鍵點等中的一項或多項。其中,眼睛關鍵點可以包括眼睛輪廓關鍵點、眼角關鍵點和瞳孔關鍵點等中的一項或多項。
在一個示例中,基於目標對象的關鍵點訊息,確定目標對象的輪廓,並根據目標對象的輪廓,從第一圖像中截取目標對象的圖像。與通過目標檢測得到的目標對象的位置訊息相比,通過關鍵點訊息得到的目標對象的位置更爲準確,從而有利於提高後續活體檢測的準確率。
可選地,可以基於第一圖像中目標對象的關鍵點,確定第一圖像中目標對象的輪廓,並將第一圖像中目標對象的輪廓所在區域的圖像或放大一定倍數後得到的區域的圖像確定爲目標對象的圖像。例如,可以將第一圖像中基於目標對象的關鍵點確定的橢圓形區域確定爲目標對象的圖像,或者可以將第一圖像中基於目標對象的關鍵點確定的橢圓形區域的最小外接矩形區域確定爲目標對象的圖像,但本發明實施例對此不作限定。
這樣,通過從第一圖像中獲取目標對象的圖像,基於目標對象的圖像進行活體檢測,能夠降低第一圖像中的背景訊息對活體檢測産生的干擾。
在本發明實施例中,可以對獲取到的原始深度圖進行更新處理,或者,在一些實施例中,從第一深度圖中獲取目標對象的深度圖,並基於第一圖像,更新目標對象的深度圖,得到第二深度圖。
作爲一個示例,獲取第一圖像中目標對象的位置訊息,並基於目標對象的位置訊息,從第一深度圖中獲取目標對象的深度圖。其中,可選地,可以預先對第一深度圖和第一圖像進行配準或對齊處理,但本發明實施例對此不做限定。
這樣,通過從第一深度圖中獲取目標對象的深度圖,並基於第一圖像,更新目標對象的深度圖,得到第二深度圖,由此能夠降低第一深度圖中的背景訊息對活體檢測産生的干擾。
在一些實施例中,在獲取第一圖像和第一圖像對應的第一深度圖之後,根據圖像感測器的參數以及深度感測器的參數,對齊第一圖像和第一深度圖。
作爲一個示例,可以對第一深度圖進行轉換處理,以使得轉換處理後的第一深度圖和第一圖像對齊。例如,可以根據深度感測器的參數和圖像感測器的參數,確定第一轉換矩陣,並根據第一轉換矩陣,對第一深度圖進行轉換處理。相應地,可以基於第一圖像的至少一部分,對轉換處理後的第一深度圖的至少一部分進行更新,得到第二深度圖。例如,基於第一圖像,對轉換處理後的第一深度圖進行更新,得到第二深度圖。再例如,基於從第一圖像中截取的目標對象的圖像,對從第一深度圖中截取的目標對象的深度圖進行更新,得到第二深度圖等等。
作爲另一個示例,可以對第一圖像進行轉換處理,以使得轉換處理後的第一圖像與第一深度圖對齊。例如,可以根據深度感測器的參數和圖像感測器的參數,確定第二轉換矩陣,並根據第二轉換矩陣,對第一圖像進行轉換處理。相應地,可以基於轉換處理後的第一圖像的至少一部分,對第一深度圖的至少一部分進行更新,得到第二深度圖。
可選地,深度感測器的參數可以包括深度感測器的內參數和/或外參數,圖像感測器的參數可以包括圖像感測器的內參數和/或外參數。通過對齊第一深度圖和第一圖像,能夠使第一深度圖和第一圖像中相應的部分在兩個圖像中的位置相同。
在上文的例子中,第一圖像爲原始圖像(例如RGB或紅外線圖像),而在另一些實施例中,第一圖像也可以指從原始圖像中截取的目標對象的圖像,類似地,第一深度圖也可以指從原始深度圖中截取的目標對象的深度圖,本發明實施例對此不做限定。
圖6示出根據本發明實施例的活體檢測方法的一個示例的示意圖。在圖6示出的例子中,第一圖像爲RGB圖像且目標對象爲人臉,將RGB圖像和第一深度圖進行對齊校正處理,並將處理後的圖像輸入到人臉關鍵點模型中進行處理,得到RGB人臉圖(目標對象的圖像)和深度人臉圖(目標對象的深度圖),並基於RGB人臉圖對深度人臉圖進行更新或修復。這樣,能夠降低後續的數據處理量,提高活體檢測效率和準確率。
在本發明實施例中,目標對象的活體檢測結果可以爲目標對象爲活體或者目標對象爲假體。
在一些實施例中,將第一圖像和第二深度圖輸入到活體檢測神經網路進行處理,得到第一圖像中的目標對象的活體檢測結果。或者,通過其他活體檢測算法對第一圖像和第二深度圖進行處理,得到活體檢測結果。
在一些實施例中,對第一圖像進行特徵提取處理,得到第一特徵訊息;對第二深度圖進行特徵提取處理,得到第二特徵訊息;基於第一特徵訊息和第二特徵訊息,確定第一圖像中的目標對象的活體檢測結果。
其中,可選地,特徵提取處理可以通過神經網路或其他機器學習算法實現,提取到的特徵訊息的類型可選地可以通過對樣本的學習得到,本發明實施例對此不做限定。
在某些特定場景(如室外强光場景)下,獲取到的深度圖(例如深度感測器採集到的深度圖)可能會出現部分面積失效的情況。此外,正常光照下,由於眼鏡反光、黑色頭髮或者黑色眼鏡邊框等因素也會隨機引起深度圖局部失效。而某些特殊的紙質能夠使得打印出的人臉照片産生類似的深度圖大面積失效或者局部失效的效果。另外,通過遮擋深度感測器的主動光源也可以使得深度圖部分失效,同時假體在圖像感測器的成像正常。因此,在一些深度圖的部分或全部失效的情況下,利用深度圖區分活體和假體會造成誤差。因此,在本發明實施例中,通過對第一深度圖進行修復或更新,並利用修復或更新後的深度圖進行活體檢測,有利於提高活體檢測的準確率。
圖7示出根據本發明實施例的活體檢測方法中基於第一圖像和第二深度圖,確定第一圖像中的目標對象的活體檢測結果的一個示例的示意圖。
在該示例中,將第一圖像和第二深度圖輸入到活體檢測網路中進行活體檢測處理,得到活體檢測結果。
如圖7所示,該活體檢測網路包括兩個分支,即第一子網路和第二子網路,其中,第一子網路用於對第一圖像進行特徵提取處理,得到第一特徵訊息,第二子網路用於對第二深度圖進行特徵提取處理,得到第二特徵訊息。
在一個可選示例中,第一子網路可以包括卷積層、下採樣層和全連接層。
例如,第一子網路可以包括一級卷積層、一級下採樣層和一級全連接層。其中,該級卷積層可以包括一個或多個卷積層,該級下採樣層可以包括一個或多個下採樣層,該級全連接層可以包括一個或多個全連接層。
又如,第一子網路可以包括多級卷積層、多級下採樣層和一級全連接層。其中,每級卷積層可以包括一個或多個卷積層,每級下採樣層可以包括一個或多個下採樣層,該級全連接層可以包括一個或多個全連接層。其中,第i級卷積層後級聯第i級下採樣層,第i級下採樣層後級聯第i+1級卷積層,第n級下採樣層後級聯全連接層,其中,i和n均爲正整數,1≤i≤n,n表示深度預測神經網路中卷積層和下採樣層的級數。
或者,第一子網路可以包括卷積層、下採樣層、歸一化層和全連接層。
例如,第一子網路可以包括一級卷積層、一個歸一化層、一級下採樣層和一級全連接層。其中,該級卷積層可以包括一個或多個卷積層,該級下採樣層可以包括一個或多個下採樣層,該級全連接層可以包括一個或多個全連接層。
又如,第一子網路可以包括多級卷積層、多個歸一化層和多級下採樣層和一級全連接層。其中,每級卷積層可以包括一個或多個卷積層,每級下採樣層可以包括一個或多個下採樣層,該級全連接層可以包括一個或多個全連接層。其中,第i級卷積層後級聯第i個歸一化層,第i個歸一化層後級聯第i級下採樣層,第i級下採樣層後級聯第i+1級卷積層,第n級下採樣層後級聯全連接層,其中,i和n均爲正整數,1≤i≤n,n表示第一子網路中卷積層、下採樣層的級數和歸一化層的個數。
作爲一個示例,對第一圖像進行卷積處理,得到第一卷積結果;對第一卷積結果進行下採樣處理,得到第一下採樣結果;基於第一下採樣結果,得到第一特徵訊息。
例如,可以通過一級卷積層和一級下採樣層對第一圖像進行卷積處理和下採樣處理。其中,該級卷積層可以包括一個或多個卷積層,該級下採樣層可以包括一個或多個下採樣層。
又如,可以通過多級卷積層和多級下採樣層對第一圖像進行卷積處理和下採樣處理。其中,每級卷積層可以包括一個或多個卷積層,每級下採樣層可以包括一個或多個下採樣層。
例如,對第一卷積結果進行下採樣處理,得到第一下採樣結果,可以包括:對第一卷積結果進行歸一化處理,得到第一歸一化結果;對第一歸一化結果進行下採樣處理,得到第一下採樣結果。
例如,可以將第一下採樣結果輸入全連接層,通過全連接層對第一下採樣結果進行融合處理,得到第一特徵訊息。
可選地,第二子網路和第一子網路具有相同的網路結構,但具有不同的參數。或者,第二子網路具有與第一子網路不同的網路結構,本發明實施例對此不做限定。
如圖7所示,活體檢測網路還包括第三子網路,用於對第一子網路得到的第一特徵訊息和第二子網路得到的第二特徵訊息進行處理,得到第一圖像中的目標對象的活體檢測結果。可選地,第三子網路可以包括全連接層和輸出層。例如,輸出層採用softmax函數,若輸出層的輸出爲1,則表示目標對象爲活體,若輸出層的輸出爲0,則表示目標對象爲假體,但本發明實施例對第三子網路的具體實現不做限定。
作爲一個示例,對第一特徵訊息和第二特徵訊息進行融合處理,得到第三特徵訊息;基於第三特徵訊息,確定第一圖像中的目標對象的活體檢測結果。
例如,通過全連接層對第一特徵訊息和第二特徵訊息進行融合處理,得到第三特徵訊息。
在一些實施例中,基於第三特徵訊息,得到第一圖像中的目標對象爲活體的機率,並根據目標對象爲活體的機率,確定目標對象的活體檢測結果。
例如,若目標對象爲活體的機率大於第二閾值,則確定目標對象的活體檢測結果爲目標對象爲活體。再例如,若目標對象爲活體的機率小於或等於第二閾值,則確定目標對象的活體檢測結果爲假體。
在另一些實施例中,基於第三特徵訊息,得到目標對象爲假體的機率,並根據目標對象爲假體的機率,確定目標對象的活體檢測結果。例如,若目標對象爲假體的機率大於第三閾值,則確定目標對象的活體檢測結果爲目標對象爲假體。再例如,若目標對象爲假體的機率小於或等於第三閾值,則確定目標對象的活體檢測結果爲活體。
在一個例子中,可以將第三特徵訊息輸入Softmax層中,通過Softmax層得到目標對象爲活體或假體的機率。例如,Softmax層的輸出包括兩個神經元,其中,一個神經元代表目標對象爲活體的機率,另一個神經元代表目標對象爲假體的機率,但本發明實施例不限於此。
在本發明實施例中,通過獲取第一圖像和第一圖像對應的第一深度圖,基於第一圖像,更新第一深度圖,得到第二深度圖,基於第一圖像和第二深度圖,確定第一圖像中的目標對象的活體檢測結果,由此能夠完善深度圖,從而提高活體檢測的準確性。
在一種可能的實現方式中,基於第一圖像,更新第一深度圖,得到第二深度圖,包括:基於第一圖像,確定第一圖像中多個像素的深度預測值和關聯訊息,其中,該多個像素的關聯訊息指示該多個像素之間的關聯度;基於該多個像素的深度預測值和關聯訊息,更新第一深度圖,得到第二深度圖。
具體地,基於第一圖像確定第一圖像中多個像素的深度預測值,並基於多個像素的深度預測值對第一深度圖進行修復完善。
具體地,通過對第一圖像進行處理,得到第一圖像中多個像素的深度預測值。例如,將第一圖像輸入到深度預測深度網路中進行處理,得到多個像素的深度預測結果,例如,得到第一圖像對應的深度預測圖,但本發明實施例對此不做限定。
在一些實施例中,基於第一圖像和第一深度圖,確定第一圖像中多個像素的深度預測值。
作爲一個示例,將第一圖像和第一深度圖輸入到深度預測神經網路進行處理,得到第一圖像中多個像素的深度預測值。或者,通過其他方式對第一圖像和第一深度圖進行處理,得到多個像素的深度預測值,本發明實施例對此不做限定。
圖8示出根據本發明實施例的車門解鎖方法中的深度預測神經網路的示意圖。如圖8所示,可以將第一圖像和第一深度圖輸入到深度預測神經網路進行處理,得到初始深度估計圖。基於初始深度估計圖,可以確定第一圖像中多個像素的深度預測值。例如,初始深度估計圖的像素值爲第一圖像中的相應像素的深度預測值。
深度預測神經網路可以通過多種網路結構實現。在一個示例中,深度預測神經網路包括編碼部分和解碼部分。其中,可選地,編碼部分可以包括卷積層和下採樣層,解碼部分包括反卷積層和/或上採樣層。此外,編碼部分和/或解碼部分還可以包括歸一化層,本發明實施例對編碼部分和解碼部分的具體實現不做限定。在編碼部分,隨著網路層數的增加,特徵圖的解析度逐漸降低,特徵圖的數量逐漸增多,從而能夠獲取豐富的語義特徵和圖像空間特徵;在解碼部分,特徵圖的解析度逐漸增大,解碼部分最終輸出的特徵圖的解析度與第一深度圖的解析度相同。
在一些實施例中,對第一圖像和第一深度圖進行融合處理,得到融合結果,並基於融合結果,確定第一圖像中多個像素的深度預測值。
在一個示例中,可以對第一圖像和第一深度圖進行串接(concat),得到融合結果。
在一個示例中,對融合結果進行卷積處理,得到第二卷積結果;基於第二卷積結果進行下採樣處理,得到第一編碼結果;基於第一編碼結果,確定第一圖像中多個像素的深度預測值。
例如,可以通過卷積層對融合結果進行卷積處理,得到第二卷積結果。
例如,對第二卷積結果進行歸一化處理,得到第二歸一化結果;對第二歸一化結果進行下採樣處理,得到第一編碼結果。在這裏,可以通過歸一化層對第二卷積結果進行歸一化處理,得到第二歸一化結果;通過下採樣層對第二歸一化結果進行下採樣處理,得到第一編碼結果。或者,可以通過下採樣層對第二卷積結果進行下採樣處理,得到第一編碼結果。
例如,對第一編碼結果進行反卷積處理,得到第一反卷積結果;對第一反卷積結果進行歸一化處理,得到深度預測值。在這裏,可以通過反卷積層對第一編碼結果進行反卷積處理,得到第一反卷積結果;通過歸一化層對第一反卷積結果進行歸一化處理,得到深度預測值。或者,可以通過反卷積層對第一編碼結果進行反卷積處理,得到深度預測值。
例如,對第一編碼結果進行上採樣處理,得到第一上採樣結果;對第一上採樣結果進行歸一化處理,得到深度預測值。在這裏,可以通過上採樣層對第一編碼結果進行上採樣處理,得到第一上採樣結果;通過歸一化層對第一上採樣結果進行歸一化處理,得到深度預測值。或者,可以通過上採樣層對第一編碼結果進行上採樣處理,得到深度預測值。
此外,通過對第一圖像進行處理,得到第一圖像中多個像素的關聯訊息。其中,第一圖像中多個像素的關聯訊息可以包括第一圖像的多個像素中每個像素與其周圍像素之間的關聯度。其中,像素的周圍像素可以包括像素的至少一個相鄰像素,或者包括與該像素間隔不超過一定數值的多個像素。例如,如圖11所示,像素5的周圍像素包括與其相鄰的像素1、像素2、像素3、像素4、像素6、像素7、像素8和像素9,相應地,第一圖像中多個像素的關聯訊息包括像素1、像素2、像素3、像素4、像素6、像素7、像素8和像素9與像素5之間的關聯度。作爲一個示例,第一像素與第二像素之間的關聯度可以利用第一像素與第二像素的相關性來度量,其中,本發明實施例可以採用相關技術確定像素之間的相關性,在此不再贅述。
在本發明實施例中,可以通過多種方式確定多個像素的關聯訊息。在一些實施例中,將第一圖像輸入到關聯度檢測神經網路進行處理,得到第一圖像中多個像素的關聯訊息。例如,得到第一圖像對應的關聯特徵圖。或者,也可以通過其他算法得到多個像素的關聯訊息,本發明實施例對此不做限定。
圖9示出根據本發明實施例的車門解鎖方法中的關聯度檢測神經網路的示意圖。如圖9所示,將第一圖像輸入到關聯度檢測神經網路進行處理,得到多張關聯特徵圖。基於多張關聯特徵圖,可以確定第一圖像中多個像素的關聯訊息。例如,某一像素的周圍像素指的是與該像素的距離等於0的像素,即,該像素的周圍像素指的是與該像素相鄰的像素,則關聯度檢測神經網路可以輸出8張關聯特徵圖。例如,在第一張關聯特徵圖中,像素Pi,j 的像素值=第一圖像中像素Pi-1,j-1 與像素Pi,j 之間的關聯度,其中,Pi,j 表示第i行第j列的像素;在第二張關聯特徵圖中,像素Pi,j 的像素值=第一圖像中像素Pi-1,j 與像素Pi,j 之間的關聯度;在第三張關聯特徵圖中,像素Pi,j 的像素值=第一圖像中像素Pi-1,j+1 與像素Pi,j 之間的關聯度;在第四張關聯特徵圖中,像素Pi,j 的像素值=第一圖像中像素Pi,j-1 與像素Pi,j 之間的關聯度;在第五張關聯特徵圖中,像素Pi,j 的像素值=第一圖像中像素Pi,j+1 與像素Pi,j 之間的關聯度;在第六張關聯特徵圖中,像素Pi,j 的像素值=第一圖像中像素Pi+1,j-1 與像素Pi,j 之間的關聯度;在第七張關聯特徵圖中,像素Pi,j 的像素值=第一圖像中像素Pi+1,j 與像素Pi,j 之間的關聯度;在第八張關聯特徵圖中,像素Pi,j 的像素值=第一圖像中像素Pi+1,j+1 與像素Pi,j 之間的關聯度。
關聯度檢測神經網路可以通過多種網路結構實現。作爲一個示例,關聯度檢測神經網路可以包括編碼部分和解碼部分。其中,編碼部分可以包括卷積層和下採樣層,解碼部分可以包括反卷積層和/或上採樣層。編碼部分還可以包括歸一化層,解碼部分也可以包括歸一化層。在編碼部分,特徵圖的解析度逐漸降低,特徵圖的數量逐漸增多,從而獲取豐富的語義特徵和圖像空間特徵;在解碼部分,特徵圖的解析度逐漸增大,解碼部分最終輸出的特徵圖的解析度與第一圖像的解析度相同。在本發明實施例中,關聯訊息可以爲圖像,也可以爲其他數據形式,例如矩陣等。
作爲一個示例,將第一圖像輸入到關聯度檢測神經網路進行處理,得到第一圖像中多個像素的關聯訊息,可以包括:對第一圖像進行卷積處理,得到第三卷積結果;基於第三卷積結果進行下採樣處理,得到第二編碼結果;基於第二編碼結果,得到第一圖像中多個像素的關聯訊息。
在一個示例中,可以通過卷積層對第一圖像進行卷積處理,得到第三卷積結果。
在一個示例中,基於第三卷積結果進行下採樣處理,得到第二編碼結果,可以包括:對第三卷積結果進行歸一化處理,得到第三歸一化結果;對第三歸一化結果進行下採樣處理,得到第二編碼結果。在該示例中,可以通過歸一化層對第三卷積結果進行歸一化處理,得到第三歸一化結果;通過下採樣層對第三歸一化結果進行下採樣處理,得到第二編碼結果。或者,可以通過下採樣層對第三卷積結果進行下採樣處理,得到第二編碼結果。
在一個示例中,基於第二編碼結果,確定關聯訊息,可以包括:對第二編碼結果進行反卷積處理,得到第二反卷積結果;對第二反卷積結果進行歸一化處理,得到關聯訊息。在該示例中,可以通過反卷積層對第二編碼結果進行反卷積處理,得到第二反卷積結果;通過歸一化層對第二反卷積結果進行歸一化處理,得到關聯訊息。或者,可以通過反卷積層對第二編碼結果進行反卷積處理,得到關聯訊息。
在一個示例中,基於第二編碼結果,確定關聯訊息,可以包括:對第二編碼結果進行上採樣處理,得到第二上採樣結果;對第二上採樣結果進行歸一化處理,得到關聯訊息。在示例中,可以通過上採樣層對第二編碼結果進行上採樣處理,得到第二上採樣結果;通過歸一化層對第二上採樣結果進行歸一化處理,得到關聯訊息。或者,可以通過上採樣層對第二編碼結果進行上採樣處理,得到關聯訊息。
當前的TOF、結構光等3D感測器,在室外容易受到陽光的影響,導致深度圖有大面積的空洞缺失,從而影響3D活體檢測算法的性能。本發明實施例提出的基於深度圖自完善的3D活體檢測算法,通過對3D感測器檢測到的深度圖的完善修復,提高了3D活體檢測算法的性能。
在一些實施例中,在得到多個像素的深度預測值和關聯訊息之後,基於多個像素的深度預測值和關聯訊息,對第一深度圖進行更新處理,得到第二深度圖。圖10示出根據本發明實施例的車門解鎖方法中深度圖更新的一示例性的示意圖。在圖10所示的例子中,第一深度圖爲帶缺失值的深度圖,得到的多個像素的深度預測值和關聯訊息分別爲初始深度估計圖和關聯特徵圖,此時,將帶缺失值的深度圖、初始深度估計圖和關聯特徵圖輸入到深度圖更新模組(例如深度更新神經網路)中進行處理,得到最終深度圖,即第二深度圖。
在一些實施例中,從該多個像素的深度預測值中獲取深度失效像素的深度預測值以及深度失效像素的多個周圍像素的深度預測值;從該多個像素的關聯訊息中獲取深度失效像素與深度失效像素的多個周圍像素之間的關聯度;基於深度失效像素的深度預測值、深度失效像素的多個周圍像素的深度預測值、以及深度失效像素與深度失效像素的周圍像素之間的關聯度,確定深度失效像素的更新後的深度值。
在本發明實施例中,可以通過多種方式確定深度圖中的深度失效像素。作爲一個示例,將第一深度圖中深度值等於0的像素確定爲深度失效像素,或將第一深度圖中不具有深度值的像素確定爲深度失效像素。
在該示例中,對於帶缺失值的第一深度圖中有值的部分(即深度值不爲0),我們認爲其深度值是正確可信的,對這部分不進行更新,保留原始的深度值。而對第一深度圖中深度值爲0的像素的深度值進行更新。
作爲另一個示例,深度感測器可以將深度失效像素的深度值設置爲一個或多個預設數值或預設範圍。在示例中,可以將第一深度圖中深度值等於預設數值或者屬預設範圍的像素確定爲深度失效像素。
本發明實施例也可以基於其他統計方式確定第一深度圖中的深度失效像素,本發明實施例對此不做限定。
在該實現方式中,可以將第一圖像中與深度失效像素位置相同的像素的深度值確定爲深度失效像素的深度預測值,類似地,可以將第一圖像中與深度失效像素的周圍像素位置相同的像素的深度值確定爲深度失效像素的周圍像素的深度預測值。
作爲一個示例,深度失效像素的周圍像素與深度失效像素之間的距離小於或等於第一閾值。
圖11示出根據本發明實施例的車門解鎖方法中周圍像素的示意圖。例如,第一閾值爲0,則只將鄰居像素作爲周圍像素。例如,像素5的鄰居像素包括像素1、像素2、像素3、像素4、像素6、像素7、像素8和像素9,則只將像素1、像素2、像素3、像素4、像素6、像素7、像素8和像素9作爲像素5的周圍像素。
圖12示出根據本發明實施例的車門解鎖方法中周圍像素的另一示意圖。例如,第一閾值爲1,則除了將鄰居像素作爲周圍像素,還將鄰居像素的鄰居像素作爲周圍像素。即,除了將像素1、像素2、像素3、像素4、像素6、像素7、像素8和像素9作爲像素5的周圍像素,還將像素10至像素25作爲像素5的周圍像素。
作爲一個示例,基於深度失效像素的周圍像素的深度預測值以及深度失效像素與深度失效像素的多個周圍像素之間的關聯度,確定深度失效像素的深度關聯值;基於深度失效像素的深度預測值以及深度關聯值,確定深度失效像素的更新後的深度值。
作爲另一個示例,基於深度失效像素的周圍像素的深度預測值以及深度失效像素與該周圍像素之間的關聯度,確定該周圍像素對於深度失效像素的有效深度值;基於深度失效像素的各個周圍像素對於深度失效像素的有效深度值,以及深度失效像素的深度預測值,確定深度失效像素的更新後的深度值。例如,可以將深度失效像素的某一周圍像素的深度預測值與該周圍像素對應的關聯度的乘積,確定爲該周圍像素對於深度失效像素的有效深度值,其中,該周圍像素對應的關聯度指的是該周圍像素與深度失效像素之間的關聯度。例如,可以確定深度失效像素的各個周圍像素對於深度失效像素的有效深度值之和與第一預設係數的乘積,得到第一乘積;確定深度失效像素的深度預測值與第二預設係數的乘積,得到第二乘積;將第一乘積與第二乘積之和確定爲深度失效像素的更新後的深度值。在一些實施例中,第一預設係數與第二預設係數之和爲1。
在一個示例中,將深度失效像素與每個周圍像素之間的關聯度作爲每個周圍像素的權重,對深度失效像素的多個周圍像素的深度預測值進行加權求和處理,得到深度失效像素的深度關聯值。例如,像素5爲深度失效像素,則深度失效像素5的深度關聯值爲
Figure 02_image009
,深度失效像素5的更新後的深度值可以採用式7確定,
Figure 02_image011
式7。
其中,
Figure 02_image013
wi 表示像素i 與像素5之間的關聯度,Fi 表示像素i 的深度預測值。
在另一個示例中,確定深度失效像素的多個周圍像素中每個周圍像素與深度失效像素之間的關聯度和每個周圍像素的深度預測值的乘積;將乘積的最大值確定爲深度失效像素的深度關聯值。
在一個示例中,將深度失效像素的深度預測值與深度關聯值之和確定爲深度失效像素的更新後的深度值。
在另一個示例中,確定深度失效像素的深度預測值與第三預設係數的乘積,得到第三乘積;確定深度關聯值與第四預設係數的乘積,得到第四乘積;將第三乘積與第四乘積之和確定爲深度失效像素的更新後的深度值。在一些實施例中,第三預設係數與第四預設係數之和爲1。
在一些實施例中,非深度失效像素在第二深度圖中的深度值等於該非深度失效像素在第一深度圖中的深度值。
在另一些實施例中,也可以對非深度失效像素的深度值進行更新,以得到更準確的第二深度圖,從而能夠進一步提高活體檢測的準確性。
在本發明實施例中,經設置於車的至少一距離感測器獲取車外的目標對象和車之間的距離,響應於距離滿足預定條件,喚醒並控制設置於車的圖像採集模組採集目標對象的第一圖像,基於第一圖像進行人臉識別,並響應於人臉識別成功,向車的至少一車門鎖發送車門解鎖指令,由此能夠在保障車門解鎖的安全性的前提下提高車門解鎖的便捷性。採用本發明實施例,在車主接近車輛時,無需刻意做動作(如觸摸按鈕或做手勢),就能夠自動觸發活體檢測與人臉認證流程,並在車主活體檢測和人臉認證通過後自動打開車門。
在一種可能的實現方式中,在基於第一圖像進行人臉識別之後,該方法還包括:響應於人臉識別失敗,啓動設置於車的密碼解鎖模組以啓動密碼解鎖流程。
在該實現方式中,密碼解鎖是人臉識別解鎖的備選方案。人臉識別失敗的原因可以包括活體檢測結果爲目標對象爲假體、人臉認證失敗、圖像採集失敗(例如攝影機故障)和識別次數超過預定次數等中的至少一項。當目標對象不通過人臉識別時,啓動密碼解鎖流程。例如,可以通過B柱上的觸控螢幕獲取用戶輸入的密碼。在一個示例中,在連續輸入M次錯誤的密碼後,密碼解鎖將失效,例如,M等於5。
在一種可能的實現方式中,該方法還包括以下一項或兩項:根據圖像採集模組採集的車主的人臉圖像進行車主註冊;根據車主的終端設備採集的車主的人臉圖像進行遠端註冊,並將註冊訊息發送到車上,其中,註冊訊息包括車主的人臉圖像。
在一個示例中,根據圖像採集模組採集的車主的人臉圖像進行車主註冊,包括:在檢測到觸控螢幕上的註冊按鈕被點擊時,請求用戶輸入密碼,在密碼驗證通過後,啓動圖像採集模組中的RGB攝影機獲取用戶的人臉圖像,並根據獲取的人臉圖像進行註冊,提取該人臉圖像中的人臉特徵作爲預註冊的人臉特徵,以在後續人臉認證時基於該預註冊的人臉特徵進行人臉比對。
在一個示例中,根據車主的終端設備採集的車主的人臉圖像進行遠端註冊,並將註冊訊息發送到車上,其中,註冊訊息包括車主的人臉圖像。在該示例中,車主可以通過手機App(Application,應用)向TSP(Telematics Service Provider,汽車遠端服務提供商)雲端發送註冊請求,其中,註冊請求可以攜帶車主的人臉圖像;TSP雲端將註冊請求發送給車門解鎖裝置的車載T-Box(Telematics Box,遠端訊息處理器),車載T-Box根據註冊請求啓動人臉識別功能,並將註冊請求中攜帶的人臉圖像中的人臉特徵作爲預註冊的人臉特徵,以在後續人臉認證時基於該預註冊的人臉特徵進行人臉比對。
可以理解,本發明提及的上述各個方法實施例,在不違背原理邏輯的情況下,均可以彼此相互結合形成結合後的實施例,限於篇幅,本發明不再贅述。
本領域技術人員可以理解,在具體實施方式的上述方法中,各步驟的撰寫順序並不意味著嚴格的執行順序而對實施過程構成任何限定,各步驟的具體執行順序應當以其功能和可能的內在邏輯確定。
此外,本發明還提供了車門解鎖裝置、電子設備、電腦可讀儲存媒體、程式,上述均可用來實現本發明提供的任一種車門解鎖方法,相應技術方案和描述和參見方法部分的相應記載,不再贅述。
圖13示出根據本發明實施例的車門解鎖裝置的方塊圖。該裝置包括:獲取模組21,用於經設置於車的至少一距離感測器獲取車外的目標對象和車之間的距離;喚醒與控制模組22,用於響應於距離滿足預定條件,喚醒並控制設置於車的圖像採集模組採集目標對象的第一圖像;人臉識別模組23,用於基於第一圖像進行人臉識別;發送模組24,用於響應於人臉識別成功,向車的至少一車門鎖發送車門解鎖指令。
在本發明實施例中,經設置於車的至少一距離感測器獲取車外的目標對象和車之間的距離,響應於距離滿足預定條件,喚醒並控制設置於車的圖像採集模組採集目標對象的第一圖像,基於第一圖像進行人臉識別,並響應於人臉識別成功,向車的至少一車門鎖發送車門解鎖指令,由此能夠在保障車門解鎖的安全性的前提下提高車門解鎖的便捷性。
在一種可能的實現方式中,預定條件包括以下至少之一:距離小於預定的距離閾值;距離小於預定的距離閾值的持續時間達到預定的時間閾值;持續時間獲得的距離表示目標對象接近車。
在一種可能的實現方式中,至少一距離感測器包括:藍牙距離感測器;獲取模組21用於:建立外部設備和藍牙距離感測器的藍牙配對連接;響應於藍牙配對連接成功,經藍牙距離感測器獲取帶有外部設備的目標對象和車之間的第一距離。
在該實現方式中,外部設備可以是任何具有藍牙功能的行動設備,例如,外部設備可以是手機、可穿戴設備或者電子鑰匙等。其中,可穿戴設備可以爲智能手環或者智能眼鏡等。
在該實現方式中,通過建立外部設備和藍牙距離感測器的藍牙配對連接,由此能夠通過藍牙增加一層認證,從而能夠提高車門解鎖的安全性。
在一種可能的實現方式中,至少一距離感測器包括:超音波距離感測器;獲取模組21用於:經設置於車的室外部的超音波距離感測器獲取目標對象和車之間的第二距離。
在一種可能的實現方式中,至少一距離感測器包括:藍牙距離感測器和超音波距離感測器;獲取模組21用於:建立外部設備和藍牙距離感測器的藍牙配對連接;響應於藍牙配對連接成功,經藍牙距離感測器獲取帶有外部設備的目標對象和車之間的第一距離;經超音波距離感測器獲取目標對象和車之間的第二距離;喚醒與控制模組22用於:響應於第一距離和第二距離滿足預定條件,喚醒並控制設置於車的圖像採集模組採集目標對象的第一圖像。
在該實現方式中,能夠通過藍牙距離感測器與超音波距離感測器配合來提高車門解鎖的安全性。
在一種可能的實現方式中,預定條件包括第一預定條件和第二預定條件;第一預定條件包括以下至少之一:第一距離小於預定的第一距離閾值;第一距離小於預定的第一距離閾值的持續時間達到預定的時間閾值;持續時間獲得的第一距離表示目標對象接近車;第二預定條件包括:第二距離小於預定的第二距離閾值,第二距離小於預定的第二距離閾值的持續時間達到預定的時間閾值;第二距離閾值小於第一距離閾值。
在一種可能的實現方式中,喚醒與控制模組22包括:喚醒子模組,用於響應於第一距離滿足第一預定條件,喚醒設置於車的人臉識別系統;控制子模組,用於響應於第二距離滿足第二預定條件,經喚醒的人臉識別系統控制圖像採集模組採集目標對象的第一圖像。
人臉識別系統的喚醒過程通常需要一些時間,例如需要4至5秒,這會使人臉識別觸發和處理較慢,影響用戶體驗。在上述實現方式中,通過結合藍牙距離感測器和超音波距離感測器,在藍牙距離感測器獲取的第一距離滿足第一預定條件時,喚醒人臉識別系統,使人臉識別系統提前處於可工作狀態,由此在超音波距離感測器獲取的第二距離滿足第二預定條件時能夠通過人臉識別系統快速進行人臉圖像處理,由此能夠提高人臉識別效率,改善用戶體驗。
在一種可能的實現方式中,距離感測器爲超音波距離感測器,預定的距離閾值根據計算得到的距離閾值基準值和預定的距離閾值偏移值確定,距離閾值基準值表示車外的對象與車之間的距離閾值的基準值,距離閾值偏移值表示車外的對象與車之間的距離閾值的偏移值。
在一種可能的實現方式中,預定的距離閾值等於距離閾值基準值與預定的距離閾值偏移值的差值。
在一種可能的實現方式中,距離閾值基準值取車輛熄火後的距離平均值與車門解鎖的最大距離中的最小值,其中,車輛熄火後的距離平均值表示車輛熄火後的指定時間段內車外的對象與車之間的距離的平均值。
在一種可能的實現方式中,距離閾值基準值周期性更新。通過周期性更新距離閾值基準值,能夠適應不同的環境。
在一種可能的實現方式中,距離感測器爲超音波距離感測器,預定的時間閾值根據計算得到的時間閾值基準值和時間閾值偏移值確定,其中,時間閾值基準值表示車外的對象與車之間的距離小於預定的距離閾值的時間閾值的基準值,時間閾值偏移值表示車外的對象與車之間的距離小於預定的距離閾值的時間閾值的偏移值。
在一種可能的實現方式中,預定的時間閾值等於時間閾值基準值與時間閾值偏移值之和。
在一種可能的實現方式中,時間閾值基準值根據超音波距離感測器的水平方向探測角、超音波距離感測器的探測半徑、對象尺寸和對象速度中的一項或多項確定。
在一種可能的實現方式中,裝置還包括:第一確定模組,用於根據不同類別的對象尺寸、不同類別的對象速度、超音波距離感測器的水平方向探測角和超音波距離感測器的探測半徑,確定不同類別的對象對應的備選基準值;第二確定模組,用於從不同類別的對象對應的備選基準值中確定時間閾值基準值。
在一種可能的實現方式中,第二確定模組用於:將不同類別的對象對應的備選基準值中的最大值確定爲時間閾值基準值。
在一些實施例中,爲了不影響體驗,預定的時間閾值設置爲小於1秒。在一個示例,可以通過減小超音波距離感測器的水平方向探測角來減小行人、自行車等通過帶來的干擾。
在一種可能的實現方式中,人臉識別包括:活體檢測和人臉認證;人臉識別模組23包括:人臉認證模組,用於經圖像採集模組中的圖像感測器採集第一圖像,並基於第一圖像和預註冊的人臉特徵進行人臉認證;活體檢測模組,用於經圖像採集模組中的深度感測器採集第一圖像對應的第一深度圖,並基於第一圖像和第一深度圖進行活體檢測。
在該實現方式中,活體檢測用於驗證目標對象是否是活體,例如可以用於驗證目標對象是否是人體。人臉認證用於提取採集的圖像中的人臉特徵,將採集的圖像中的人臉特徵與預註冊的人臉特徵進行比對,判斷是否屬同一個人的人臉特徵,例如可以判斷採集的圖像中的人臉特徵是否屬車主的人臉特徵。
在一種可能的實現方式中,活體檢測模組包括:更新子模組,用於基於第一圖像,更新第一深度圖,得到第二深度圖;確定子模組,用於基於第一圖像和第二深度圖,確定目標對象的活體檢測結果。
在一種可能的實現方式中,圖像感測器包括RGB圖像感測器或者紅外線感測器;深度感測器包括雙目紅外線感測器或者飛行時間TOF感測器。其中,雙目紅外線感測器包括兩個紅外線攝影機。結構光感測器可以爲編碼結構光感測器或者散斑結構光感測器。通過深度感測器獲取目標對象的深度圖,可以獲得高精確度的深度圖。本發明實施例利用包含目標對象的深度圖進行活體檢測,能夠充分挖掘目標對象的深度訊息,從而能夠提高活體檢測的準確性。例如,當目標對象爲人臉時,本發明實施例利用包含人臉的深度圖進行活體檢測,能夠充分挖掘人臉數據的深度訊息,從而能夠提高活體人臉檢測的準確性。
在一種可能的實現方式中,TOF感測器採用基於紅外線波段的TOF模組。通過採用基於紅外線波段的TOF模組,能夠降低外界光線對深度圖拍攝造成的影響。
在一種可能的實現方式中,更新子模組用於:基於第一圖像,對第一深度圖中的深度失效像素的深度值進行更新,得到第二深度圖。
其中,深度圖中的深度失效像素可以指深度圖中包括的深度值無效的像素,即深度值不準確或與實際情況明顯不符的像素。深度失效像素的個數可以爲一個或多個。通過更新深度圖中的至少一個深度失效像素的深度值,使得深度失效像素的深度值更爲準確,有助於提高活體檢測的準確率。
在一種可能的實現方式中,更新子模組用於:基於第一圖像,確定第一圖像中多個像素的深度預測值和關聯訊息,其中,多個像素的關聯訊息指示多個像素之間的關聯度;基於多個像素的深度預測值和關聯訊息,更新第一深度圖,得到第二深度圖。
在一種可能的實現方式中,更新子模組用於:確定第一深度圖中的深度失效像素;從多個像素的深度預測值中獲取深度失效像素的深度預測值以及深度失效像素的多個周圍像素的深度預測值;從多個像素的關聯訊息中獲取深度失效像素與深度失效像素的多個周圍像素之間的關聯度;基於深度失效像素的深度預測值、深度失效像素的多個周圍像素的深度預測值、以及深度失效像素與深度失效像素的周圍像素之間的關聯度,確定深度失效像素的更新後的深度值。
在一種可能的實現方式中,更新子模組用於:基於深度失效像素的周圍像素的深度預測值以及深度失效像素與深度失效像素的多個周圍像素之間的關聯度,確定深度失效像素的深度關聯值;基於深度失效像素的深度預測值以及深度關聯值,確定深度失效像素的更新後的深度值。
在一種可能的實現方式中,更新子模組用於:將深度失效像素與每個周圍像素之間的關聯度作爲每個周圍像素的權重,對深度失效像素的多個周圍像素的深度預測值進行加權求和處理,得到深度失效像素的深度關聯值。
在一種可能的實現方式中,更新子模組用於:基於第一圖像和第一深度圖,確定第一圖像中多個像素的深度預測值。
在一種可能的實現方式中,更新子模組用於:將第一圖像和第一深度圖輸入到深度預測神經網路進行處理,得到第一圖像中多個像素的深度預測值。
在一種可能的實現方式中,更新子模組用於:對第一圖像和第一深度圖進行融合處理,得到融合結果;基於融合結果,確定第一圖像中多個像素的深度預測值。
在一種可能的實現方式中,更新子模組用於:將第一圖像輸入到關聯度檢測神經網路進行處理,得到第一圖像中多個像素的關聯訊息。
在一種可能的實現方式中,更新子模組用於:從第一圖像中獲取目標對象的圖像;基於目標對象的圖像,更新第一深度圖。
在一種可能的實現方式中,更新子模組用於:獲取第一圖像中目標對象的關鍵點訊息;基於目標對象的關鍵點訊息,從第一圖像中獲取目標對象的圖像。
在一個示例中,基於目標對象的關鍵點訊息,確定目標對象的輪廓,並根據目標對象的輪廓,從第一圖像中截取目標對象的圖像。與通過目標檢測得到的目標對象的位置訊息相比,通過關鍵點訊息得到的目標對象的位置更爲準確,從而有利於提高後續活體檢測的準確率。
這樣,通過從第一圖像中獲取目標對象的圖像,基於目標對象的圖像進行活體檢測,能夠降低第一圖像中的背景訊息對活體檢測産生的干擾。
在一種可能的實現方式中,更新子模組用於:對第一圖像進行目標檢測,得到目標對象所在區域;對目標對象所在區域的圖像進行關鍵點檢測,得到第一圖像中目標對象的關鍵點訊息。
在一種可能的實現方式中,更新子模組用於:從第一深度圖中獲取目標對象的深度圖;基於第一圖像,更新目標對象的深度圖,得到第二深度圖。
這樣,通過從第一深度圖中獲取目標對象的深度圖,並基於第一圖像,更新目標對象的深度圖,得到第二深度圖,由此能夠降低第一深度圖中的背景訊息對活體檢測産生的干擾。
在某些特定場景(如室外强光場景)下,獲取到的深度圖(例如深度感測器採集到的深度圖)可能會出現部分面積失效的情況。此外,正常光照下,由於眼鏡反光、黑色頭髮或者黑色眼鏡邊框等因素也會隨機引起深度圖局部失效。而某些特殊的紙質能夠使得打印出的人臉照片産生類似的深度圖大面積失效或者局部失效的效果。另外,通過遮擋深度感測器的主動光源也可以使得深度圖部分失效,同時假體在圖像感測器的成像正常。因此,在一些深度圖的部分或全部失效的情況下,利用深度圖區分活體和假體會造成誤差。因此,在本發明實施例中,通過對第一深度圖進行修復或更新,並利用修復或更新後的深度圖進行活體檢測,有利於提高活體檢測的準確率。
在一種可能的實現方式中,確定子模組用於:將第一圖像和第二深度圖輸入到活體檢測神經網路進行處理,得到目標對象的活體檢測結果。
在一種可能的實現方式中,確定子模組用於:對第一圖像進行特徵提取處理,得到第一特徵訊息;對第二深度圖進行特徵提取處理,得到第二特徵訊息;基於第一特徵訊息和第二特徵訊息,確定目標對象的活體檢測結果。
其中,可選地,特徵提取處理可以通過神經網路或其他機器學習算法實現,提取到的特徵訊息的類型可選地可以通過對樣本的學習得到,本發明實施例對此不做限定。
在一種可能的實現方式中,確定子模組用於:對第一特徵訊息和第二特徵訊息進行融合處理,得到第三特徵訊息;基於第三特徵訊息,確定目標對象的活體檢測結果。
在一種可能的實現方式中,確定子模組用於:基於第三特徵訊息,得到目標對象爲活體的機率;根據目標對象爲活體的機率,確定目標對象的活體檢測結果。
在本發明實施例中,經設置於車的至少一距離感測器獲取車外的目標對象和車之間的距離,響應於距離滿足預定條件,喚醒並控制設置於車的圖像採集模組採集目標對象的第一圖像,基於第一圖像進行人臉識別,並響應於人臉識別成功,向車的至少一車門鎖發送車門解鎖指令,由此能夠在保障車門解鎖的安全性的前提下提高車門解鎖的便捷性。採用本發明實施例,在車主接近車輛時,無需刻意做動作(如觸摸按鈕或做手勢),就能夠自動觸發活體檢測與人臉認證流程,並在車主活體檢測和人臉認證通過後自動打開車門。
在一種可能的實現方式中,裝置還包括:啓動模組,用於響應於人臉識別失敗,啓動設置於車的密碼解鎖模組以啓動密碼解鎖流程。
在該實現方式中,密碼解鎖是人臉識別解鎖的備選方案。人臉識別失敗的原因可以包括活體檢測結果爲目標對象爲假體、人臉認證失敗、圖像採集失敗(例如攝影機故障)和識別次數超過預定次數等中的至少一項。當目標對象不通過人臉識別時,啓動密碼解鎖流程。例如,可以通過B柱上的觸控螢幕獲取用戶輸入的密碼。
在一種可能的實現方式中,裝置還包括註冊模組,註冊模組用於以下一項或兩項:根據圖像採集模組採集的車主的人臉圖像進行車主註冊;根據車主的終端設備採集的車主的人臉圖像進行遠端註冊,並將註冊訊息發送到車上,其中,註冊訊息包括車主的人臉圖像。
通過該實現方式,能夠在後續人臉認證時基於該預註冊的人臉特徵進行人臉比對。
在一些實施例中,本發明實施例提供的裝置具有的功能或包含的模組可以用於執行上文方法實施例描述的方法,其具體實現可以參照上文方法實施例的描述,爲了簡潔,這裏不再贅述。
圖14示出根據本發明實施例的車載人臉解鎖系統的方塊圖。如圖14所示,該車載人臉解鎖系統包括:記憶體31、人臉識別系統32、圖像採集模組33和人體接近監測系統34;人臉識別系統32分別與記憶體31、圖像採集模組33和人體接近監測系統34連接;人體接近監測系統34包括若距離滿足預定條件時喚醒人臉識別系統的微處理器341和與微處理器341連接的至少一距離感測器342;人臉識別系統32還設置有用於與車門域控制器連接的通訊介面,若人臉識別成功則基於通訊介面向車門域控制器發送用於解鎖車門的控制訊息。
在一個示例中,記憶體31可以包括快閃記憶體(Flash)和DDR3(Double Data Rate 3,第三代雙倍資料傳輸率)內存中的至少一項。
在一個示例中,人臉識別系統32可以採用SoC(System on Chip,系統單晶片)實現。
在一個示例中,人臉識別系統32通過CAN(Controller Area Network,控制器區域網路)總線與車門域控制器連接。
在一種可能的實現方式中,至少一距離感測器342包括以下至少之一:藍牙距離感測器、超音波距離感測器。
在一個示例中,超音波距離感測器通過序列(Serial)總線與微處理器341連接。
在一種可能的實現方式中,圖像採集模組33包括圖像感測器和深度感測器。
在一個示例中,圖像感測器包括RGB感測器和紅外線感測器中的至少一項。
在一個示例中,深度感測器包括雙目紅外線感測器和飛行時間TOF感測器中的至少一項。
在一種可能的實現方式中,深度感測器包括雙目紅外線感測器,雙目紅外線感測器的兩個紅外線攝影機設置在圖像感測器的攝影機的兩側。例如,在圖5A所示的示例中,圖像感測器爲RGB感測器,圖像感測器的攝影機爲RGB攝影機,深度感測器爲雙目紅外線感測器,深度感測器包括兩個IR(紅外線)攝影機,雙目紅外線感測器的兩個紅外線攝影機設置在圖像感測器的RGB攝影機的兩側。
在一個示例中,圖像採集模組33還包括至少一個補光燈,該至少一個補光燈設置在雙目紅外線感測器的紅外線攝影機和圖像感測器的攝影機之間,該至少一個補光燈包括用於圖像感測器的補光燈和用於深度感測器的補光燈中的至少一種。例如,若圖像感測器爲RGB感測器,則用於圖像感測器的補光燈可以爲白光燈;若圖像感測器爲紅外線感測器,則用於圖像感測器的補光燈可以爲紅外線燈;若深度感測器爲雙目紅外線感測器,則用於深度感測器的補光燈可以爲紅外線燈。在圖5A所示的示例中,在雙目紅外線感測器的紅外線攝影機和圖像感測器的攝影機之間設置紅外線燈。例如,紅外線燈可以採用940nm的紅外線。
在一個示例中,補光燈可以處於常開模式。在該示例中,在圖像採集模組的攝影機處於工作狀態時,補光燈處於開啓狀態。
在另一個示例中,可以在光線不足時開啓補光燈。例如,可以通過環境光感測器獲取環境光强度,並在環境光强度低於光强閾值時判定光線不足,並開啓補光燈。
在一種可能的實現方式中,圖像採集模組33還包括雷射器,雷射器設置在深度感測器的攝影機和圖像感測器的攝影機之間。例如,在圖5B所示的示例中,圖像感測器爲RGB感測器,圖像感測器的攝影機爲RGB攝影機,深度感測器爲TOF感測器,雷射器設置在TOF感測器的攝影機和RGB感測器的攝影機之間。例如,雷射器可以爲VCSEL,TOF感測器可以基於VCSEL發出的雷射採集深度圖。
在一個示例中,深度感測器通過LVDS(Low-Voltage Differential Signaling,低電壓差分訊號)介面與人臉識別系統32連接。
在一種可能的實現方式中,車載人臉解鎖系統還包括:用於解鎖車門的密碼解鎖模組35,密碼解鎖模組35與人臉識別系統32連接。
在一種可能的實現方式中,密碼解鎖模組35包括觸控螢幕和鍵盤中的一項或兩項。
在一個示例中,觸控螢幕通過FPD-Link(Flat Panel Display Link,平面顯示器連結)與人臉識別系統32連接。
在一種可能的實現方式中,車載人臉解鎖系統還包括:電池模組36,電池模組36分別與微處理器341和人臉識別系統32連接。
在一種可能的實現方式中,記憶體31、人臉識別系統32、人體接近監測系統34和電池模組36可以搭建在ECU(Electronic Control Unit,電子控制單元)上。
圖15示出根據本發明實施例的車載人臉解鎖系統的示意圖。在圖15所示的示例中,記憶體31、人臉識別系統32、人體接近監測系統34和電池模組(Power Management)36搭建在ECU上,人臉識別系統32採用SoC實現,記憶體31包括快閃記憶體(Flash)和DDR3內存,至少一距離感測器342包括藍牙(Bluetooth)距離感測器和超音波(Ultrasonic)距離感測器,圖像採集模組33包括深度感測器(3D Camera),深度感測器通過LVDS介面與人臉識別系統32連接,密碼解鎖模組35包括觸控螢幕(Touch Screen),觸控螢幕通過FPD-Link與人臉識別系統32連接,人臉識別系統32通過CAN總線與車門域控制器連接。
圖16示出根據本發明實施例的車的示意圖。如圖16所示,車包括車載人臉解鎖系統41,車載人臉解鎖系統41與車的車門域控制器42連接。
在一種可能的實現方式中,圖像採集模組設置在車的室外部。
在一種可能的實現方式中,圖像採集模組設置在以下至少一個位置上:車的B柱、至少一個車門、至少一個後視鏡。
在一種可能的實現方式中,人臉識別系統設置在車內,人臉識別系統經CAN總線與車門域控制器連接。
在一種可能的實現方式中,至少一距離感測器包括藍牙距離感測器,藍牙距離感測器設置在車內。
在一種可能的實現方式中,至少一距離感測器包括超音波距離感測器,超音波距離感測器設置在車的室外部。
本發明實施例還提出一種電腦可讀儲存媒體,其上儲存有電腦程式指令,所述電腦程式指令被處理器執行時實現上述方法。電腦可讀儲存媒體可以是非揮發性電腦可讀儲存媒體或者揮發性電腦可讀儲存媒體。
本發明實施例還提出一種電腦程式,所述電腦程式包括電腦可讀代碼,當所述電腦可讀代碼在電子設備中運行時,所述電子設備中的處理器執行用於實現上述車門解鎖方法。
本發明實施例還提出一種電子設備,包括:處理器;用於儲存處理器可執行指令的記憶體;其中,所述處理器被配置爲上述方法。
電子設備可以被提供爲終端、伺服器或其它形態的設備。
圖17是根據一示例性實施例示出的一種電子設備800的方塊圖。例如,電子設備800可以是車門解鎖裝置等終端。
參照圖17,電子設備800可以包括以下一個或多個組件:處理組件802,記憶體804,電源組件806,多媒體組件808,音頻組件810,輸入/輸出(I/O)介面812,感測器組件814,以及通訊組件816。
處理組件802通常控制電子設備800的整體操作,諸如與顯示,電話呼叫,數據通訊,相機操作和記錄操作相關聯的操作。處理組件802可以包括一個或多個處理器820來執行指令,以完成上述的方法的全部或部分步驟。此外,處理組件802可以包括一個或多個模組,便於處理組件802和其他組件之間的交互。例如,處理組件802可以包括多媒體模組,以方便多媒體組件808和處理組件802之間的交互。
記憶體804被配置爲儲存各種類型的數據以支持在電子設備800的操作。這些數據的示例包括用於在電子設備800上操作的任何應用程式或方法的指令,連絡人數據,電話簿數據,訊息,圖片,視訊等。記憶體804可以由任何類型的揮發性或非揮發性儲存設備或者它們的組合實現,如靜態隨機存取記憶體(SRAM),電子可抹除式可程式化唯讀記憶體(EEPROM),可抹除式可程式化唯讀記憶體(EPROM),可程式化唯讀記憶體(PROM),唯讀記憶體(ROM),磁記憶體,快閃記憶體,磁碟或光碟。
電源組件806爲電子設備800的各種組件提供電力。電源組件806可以包括電源管理系統,一個或多個電源,及其他與爲電子設備800生成、管理和分配電力相關聯的組件。
多媒體組件808包括在所述電子設備800和用戶之間的提供一個輸出介面的螢幕。在一些實施例中,螢幕可以包括液晶顯示器(LCD)和觸控面板(TP)。如果螢幕包括觸控面板,螢幕可以被實現爲觸控螢幕,以接收來自用戶的輸入訊號。觸控面板包括一個或多個觸控感測器以感測觸控、滑動和觸控面板上的手勢。所述觸控感測器可以不僅感測觸控或滑動動作的邊界,而且還檢測與所述觸控或滑動操作相關的持續時間和壓力。在一些實施例中,多媒體組件808包括一個前置攝影機和/或後置攝影機。當電子設備800處於操作模式,如拍攝模式或視訊模式時,前置攝影機和/或後置攝影機可以接收外部的多媒體數據。每個前置攝影機和後置攝影機可以是一個固定的光學透鏡系統或具有焦距和光學變焦能力。
音頻組件810被配置爲輸出和/或輸入音頻訊號。例如,音頻組件810包括一個麥克風(MIC),當電子設備800處於操作模式,如呼叫模式、記錄模式和語音識別模式時,麥克風被配置爲接收外部音頻訊號。所接收的音頻訊號可以被進一步儲存在記憶體804或經由通訊組件816發送。在一些實施例中,音頻組件810還包括一個揚聲器,用於輸出音頻訊號。
I/O介面812爲處理組件802和外圍介面模組之間提供介面,上述外圍介面模組可以是鍵盤,點擊輪,按鈕等。這些按鈕可包括但不限於:主頁按鈕、音量按鈕、啓動按鈕和鎖定按鈕。
感測器組件814包括一個或多個感測器,用於爲電子設備800提供各個方面的狀態評估。例如,感測器組件814可以檢測到電子設備800的打開/關閉狀態,組件的相對定位,例如所述組件爲電子設備800的顯示器和小鍵盤,感測器組件814還可以檢測電子設備800或電子設備800一個組件的位置改變,用戶與電子設備800接觸的存在或不存在,電子設備800方位或加速/減速和電子設備800的溫度變化。感測器組件814可以包括接近感測器,被配置用來在沒有任何的物理接觸時檢測附近物體的存在。感測器組件814還可以包括光感測器,如CMOS或CCD圖像感測器,用於在成像應用中使用。在一些實施例中,該感測器組件814還可以包括加速度感測器,陀螺儀感測器,磁感測器,壓力感測器或溫度感測器。
通訊組件816被配置爲便於電子設備800和其他設備之間有線或無線方式的通訊。電子設備800可以接入基於通訊標準的無線網路,如WiFi,2G、3G、4G或5G,或它們的組合。在一個示例性實施例中,通訊組件816經由廣播通道接收來自外部廣播管理系統的廣播訊號或廣播相關訊息。在一個示例性實施例中,所述通訊組件816還包括近場通訊(NFC)模組,以促進短程通訊。例如,在NFC模組可基於射頻識別(RFID)技術,紅外線數據協會(IrDA)技術,超寬帶(UWB)技術,藍牙(BT)技術和其他技術來實現。
在示例性實施例中,電子設備800可以被一個或多個應用專用積體電路(ASIC)、數位訊號處理器(DSP)、數位訊號處理設備(DSPD)、可程式化邏輯裝置(PLD)、現場可程式化邏輯閘陣列(FPGA)、控制器、微控制器、微處理器或其他電子元件實現,用於執行上述方法。
在示例性實施例中,還提供了一種非揮發性電腦可讀儲存媒體,例如包括電腦程式指令的記憶體804,上述電腦程式指令可由電子設備800的處理器820執行以完成上述方法。
發明可以是系統、方法和/或電腦程式産品。電腦程式産品可以包括電腦可讀儲存媒體,其上載有用於使處理器實現本發明的各個方面的電腦可讀程式指令。
電腦可讀儲存媒體可以是可以保持和儲存由指令執行設備使用的指令的有形設備。電腦可讀儲存媒體例如可以是――但不限於――電儲存設備、磁儲存設備、光儲存設備、電磁儲存設備、半導體儲存設備或者上述的任意合適的組合。電腦可讀儲存媒體的更具體的例子(非窮舉的列表)包括:可攜式電腦盤、硬碟、隨機存取記憶體(RAM)、唯讀記憶體(ROM)、可抹除式可程式化唯讀記憶體(EPROM或快閃記憶體)、靜態隨機存取記憶體(SRAM)、可攜式壓縮磁碟唯讀記憶體(CD-ROM)、數位多功能影音光碟(DVD)、記憶卡、磁片、機械編碼設備、例如其上儲存有指令的打孔卡或凹槽內凸起結構、以及上述的任意合適的組合。這裏所使用的電腦可讀儲存媒體不被解釋爲瞬時訊號本身,諸如無線電波或者其他自由傳播的電磁波、通過波導或其他傳輸媒介傳播的電磁波(例如,通過光纖電纜的光脈衝)、或者通過電線傳輸的電訊號。
這裏所描述的電腦可讀程式指令可以從電腦可讀儲存媒體下載到各個計算/處理設備,或者通過網路、例如網際網路、區域網路、廣域網路和/或無線網路下載到外部電腦或外部儲存設備。網路可以包括銅傳輸電纜、光纖傳輸、無線傳輸、路由器、防火牆、交換機、網關電腦和/或邊緣伺服器。每個計算/處理設備中的網路介面卡或者網路介面從網路接收電腦可讀程式指令,並轉發該電腦可讀程式指令,以供儲存在各個計算/處理設備中的電腦可讀儲存媒體中。
用於執行本發明操作的電腦程式指令可以是彙編指令、指令集架構(ISA)指令、機器指令、機器相關指令、微代碼、硬體指令、狀態設置數據、或者以一種或多種程式化語言的任意組合編寫的源代碼或目標代碼,所述程式化語言包括面向對象的編程語言—諸如Smalltalk、C++等,以及常規的過程式程式化語言—諸如“C”語言或類似的程式化語言。電腦可讀程式指令可以完全地在用戶電腦上執行、部分地在用戶電腦上執行、作爲一個獨立的套裝軟體執行、部分在用戶電腦上部分在遠端電腦上執行、或者完全在遠端電腦或伺服器上執行。在涉及遠端電腦的情形中,遠端電腦可以通過任意種類的網路—包括區域網路(LAN)或廣域網路(WAN)—連接到用戶電腦,或者,可以連接到外部電腦(例如利用網際網路服務提供商來通過網際網路連接)。在一些實施例中,通過利用電腦可讀程式指令的狀態訊息來個性化定制電子電路,例如可程式化邏輯電路、現場可程式化邏輯閘陣列(FPGA)或可程式化邏輯陣列(PLA),該電子電路可以執行電腦可讀程式指令,從而實現本發明的各個方面。
這裏參照根據本發明實施例的方法、裝置(系統)和電腦程式産品的流程圖和/或方塊圖描述了本發明的各個方面。應當理解,流程圖和/或方塊圖的每個方塊以及流程圖和/或方塊圖中各方塊的組合,都可以由電腦可讀程式指令實現。
這些電腦可讀程式指令可以提供給通用電腦、專用電腦或其它可程式化數據處理裝置的處理器,從而生産出一種機器,使得這些指令在通過電腦或其它可程式化數據處理裝置的處理器執行時,産生了實現流程圖和/或方塊圖中的一個或多個方塊中規定的功能/動作的裝置。也可以把這些電腦可讀程式指令儲存在電腦可讀儲存媒體中,這些指令使得電腦、可程式化數據處理裝置和/或其他設備以特定方式工作,從而,儲存有指令的電腦可讀媒體則包括一個製造品,其包括實現流程圖和/或方塊圖中的一個或多個方塊中規定的功能/動作的各個方面的指令。
也可以把電腦可讀程式指令加載到電腦、其它可程式化數據處理裝置、或其它設備上,使得在電腦、其它可程式化數據處理裝置或其它設備上執行一系列操作步驟,以産生電腦實現的過程,從而使得在電腦、其它可程式化數據處理裝置、或其它設備上執行的指令實現流程圖和/或方塊圖中的一個或多個方塊中規定的功能/動作。
附圖中的流程圖和方塊圖顯示了根據本發明的多個實施例的系統、方法和電腦程式産品的可能實現的體系架構、功能和操作。在這點上,流程圖或方塊圖中的每個方塊可以代表一個模組、程式段或指令的一部分,所述模組、程式段或指令的一部分包含一個或多個用於實現規定的邏輯功能的可執行指令。在有些作爲替換的實現中,方塊中所標注的功能也可以以不同於附圖中所標注的順序發生。例如,兩個連續的方塊實際上可以基本並行地執行,它們有時也可以按相反的順序執行,這依所涉及的功能而定。也要注意的是,方塊圖和/或流程圖中的每個方塊、以及方塊圖和/或流程圖中的方塊的組合,可以用執行規定的功能或動作的專用的基於硬體的系統來實現,或者可以用專用硬體與電腦指令的組合來實現。
以上已經描述了本發明的各實施例,上述說明是示例性的,並非窮盡性的,並且也不限於所披露的各實施例。在不偏離所說明的各實施例的範圍和精神的情況下,對於本技術領域的普通技術人員來說許多修改和變更都是顯而易見的。本文中所用術語的選擇,旨在最好地解釋各實施例的原理、實際應用或對市場中的技術的技術改進,或者使本技術領域的其它普通技術人員能理解本文披露的各實施例。
惟以上所述者,僅為本發明之實施例而已,當不能以此限定本發明實施之範圍,凡是依本發明申請專利範圍及專利說明書內容所作之簡單的等效變化與修飾,皆仍屬本發明專利涵蓋之範圍內。
21:獲取模組 22:喚醒與控制模組 23:人臉識別模組 24:發送模組 31:記憶體 32:人臉識別系統 33:圖像採集模組 34:人體接近監測系統 341:微處理器 342:距離感測器 35:密碼解鎖模組 36:電池模組 802:處理組件 804:記憶體 806:電源組件 808:多媒體組件 810:音頻組件 812:輸入/輸出介面 814:感測器組件 816:通訊組件 820:處理器
此處的附圖被並入說明書中並構成本說明書的一部分,這些附圖示出了符合本發明的實施例,並與說明書一起用於說明本發明的技術方案: 圖1示出根據本發明實施例的車門解鎖方法的流程圖; 圖2示出車的B柱的示意圖; 圖3示出根據本發明實施例的車門解鎖方法中車門解鎖裝置的安裝高度與可識別的身高範圍的示意圖; 圖4示出根據本發明實施例的車門解鎖方法中超音波距離感測器的水平方向探測角和超音波距離感測器的探測半徑的示意圖; 圖5A示出根據本發明實施例的車門解鎖方法中圖像感測器和深度感測器的示意圖; 圖5B示出根據本發明實施例的車門解鎖方法中圖像感測器和深度感測器的另一示意圖; 圖6示出根據本發明實施例的活體檢測方法的一個示例的示意圖; 圖7示出根據本發明實施例的活體檢測方法中基於第一圖像和第二深度圖,確定第一圖像中的目標對象的活體檢測結果的一個示例的示意圖; 圖8示出根據本發明實施例的車門解鎖方法中的深度預測神經網路的示意圖; 圖9示出根據本發明實施例的車門解鎖方法中的關聯度檢測神經網路的示意圖; 圖10示出根據本發明實施例的車門解鎖方法中深度圖更新的一示例性的示意圖; 圖11示出根據本發明實施例的車門解鎖方法中周圍像素的示意圖; 圖12示出根據本發明實施例的車門解鎖方法中周圍像素的另一示意圖; 圖13示出根據本發明實施例的車門解鎖裝置的方塊圖; 圖14示出根據本發明實施例的車載人臉解鎖系統的方塊圖; 圖15示出根據本發明實施例的車載人臉解鎖系統的示意圖; 圖16示出根據本發明實施例的車的示意圖;及 圖17是根據一示例性實施例示出的一種電子設備的方塊圖。

Claims (47)

  1. 一種車門解鎖方法,其特徵在於,所述方法包括: 經設置於車的至少一距離感測器獲取所述車外的目標對象和所述車之間的距離; 響應於所述距離滿足預定條件,喚醒並控制設置於所述車的圖像採集模組採集所述目標對象的第一圖像; 基於所述第一圖像進行人臉識別; 響應於人臉識別成功,向所述車的至少一車門鎖發送車門解鎖指令。
  2. 如請求項1所述的方法,其中,所述預定條件包括以下其中至少之一: 所述距離小於預定的距離閾值; 所述距離小於預定的距離閾值的持續時間達到預定的時間閾值; 持續時間獲得的所述距離表示所述目標對象接近所述車。
  3. 如請求項1或2所述的方法,其中,所述至少一距離感測器包括:藍牙距離感測器; 所述經設置於車的至少一距離感測器獲取所述車外的目標對象和所述車之間的距離,包括: 建立外部設備和所述藍牙距離感測器的藍牙配對連接; 響應於所述藍牙配對連接成功,經所述藍牙距離感測器獲取帶有所述外部設備的目標對象和所述車之間的第一距離。
  4. 如請求項1或2所述的方法,其中,所述至少一距離感測器包括:超音波距離感測器; 所述經設置於車的至少一距離感測器獲取所述車外的目標對象和所述車之間的距離,包括: 經設置於所述車的室外部的所述超音波距離感測器獲取所述目標對象和所述車之間的第二距離。
  5. 如請求項1或2所述的方法,其中,所述至少一距離感測器包括:藍牙距離感測器和超音波距離感測器; 所述經設置於車的至少一距離感測器獲取所述車外的目標對象和所述車之間的距離,包括:建立外部設備和所述藍牙距離感測器的藍牙配對連接;響應於所述藍牙配對連接成功,經所述藍牙距離感測器獲取帶有所述外部設備的目標對象和所述車之間的第一距離;經所述超音波距離感測器獲取所述目標對象和所述車之間的第二距離; 所述響應於所述距離滿足預定條件,喚醒並控制設置於所述車的圖像採集模組採集所述目標對象的第一圖像,包括:響應於所述第一距離和所述第二距離滿足預定條件,喚醒並控制設置於所述車的圖像採集模組採集所述目標對象的第一圖像。
  6. 如請求項5所述的方法,其中,所述預定條件包括第一預定條件和第二預定條件; 所述第一預定條件包括以下其中至少之一:所述第一距離小於預定的第一距離閾值;所述第一距離小於預定的第一距離閾值的持續時間達到預定的時間閾值;持續時間獲得的所述第一距離表示所述目標對象接近所述車; 所述第二預定條件包括:所述第二距離小於預定的第二距離閾值,所述第二距離小於預定的第二距離閾值的持續時間達到預定的時間閾值;所述第二距離閾值小於所述第一距離閾值。
  7. 如請求項5所述的方法,其中,所述響應於所述第一距離和所述第二距離滿足預定條件,喚醒並控制設置於所述車的圖像採集模組採集所述目標對象的第一圖像,包括: 響應於所述第一距離滿足第一預定條件,喚醒設置於所述車的人臉識別系統; 響應於所述第二距離滿足第二預定條件,經喚醒的所述人臉識別系統控制所述圖像採集模組採集所述目標對象的第一圖像。
  8. 如請求項2所述的方法,其中,所述距離感測器爲超音波距離感測器,所述預定的距離閾值根據計算得到的距離閾值基準值和預定的距離閾值偏移值確定,所述距離閾值基準值表示所述車外的對象與所述車之間的距離閾值的基準值,所述距離閾值偏移值表示所述車外的對象與所述車之間的距離閾值的偏移值。
  9. 如請求項8所述的方法,其中,所述預定的距離閾值等於所述距離閾值基準值與所述預定的距離閾值偏移值的差值。
  10. 如請求項8或9所述的方法,其中,所述距離閾值基準值取車輛熄火後的距離平均值與車門解鎖的最大距離中的最小值,其中,所述車輛熄火後的距離平均值表示車輛熄火後的指定時間段內所述車外的對象與所述車之間的距離的平均值。
  11. 如請求項8或9所述的方法,其中,所述距離閾值基準值周期性更新。
  12. 如請求項2所述的方法,其中,所述距離感測器爲超音波距離感測器,所述預定的時間閾值根據計算得到的時間閾值基準值和時間閾值偏移值確定,其中,所述時間閾值基準值表示所述車外的對象與所述車之間的距離小於所述預定的距離閾值的時間閾值的基準值,所述時間閾值偏移值表示所述車外的對象與所述車之間的距離小於所述預定的距離閾值的時間閾值的偏移值。
  13. 如請求項12所述的方法,其中,所述預定的時間閾值等於所述時間閾值基準值與所述時間閾值偏移值之和。
  14. 如請求項12或13所述的方法,其中,所述時間閾值基準值根據所述超音波距離感測器的水平方向探測角、所述超音波距離感測器的探測半徑、對象尺寸和對象速度中的一項或多項確定。
  15. 如請求項14所述的方法,其中,所述方法還包括: 根據不同類別的對象尺寸、不同類別的對象速度、所述超音波距離感測器的水平方向探測角和所述超音波距離感測器的探測半徑,確定不同類別的對象對應的備選基準值; 從所述不同類別的對象對應的備選基準值中確定所述時間閾值基準值。
  16. 如請求項15所述的方法,其中,所述從所述不同類別的對象對應的備選基準值中確定所述時間閾值基準值,包括: 將不同類別的對象對應的備選基準值中的最大值確定爲所述時間閾值基準值。
  17. 如請求項1所述的方法,其中,所述人臉識別包括:活體檢測和人臉認證; 所述基於所述第一圖像進行人臉識別,包括: 經所述圖像採集模組中的圖像感測器採集所述第一圖像,並基於所述第一圖像和預註冊的人臉特徵進行人臉認證; 經所述圖像採集模組中的深度感測器採集所述第一圖像對應的第一深度圖,並基於所述第一圖像和所述第一深度圖進行活體檢測。
  18. 如請求項17所述的方法,其中,所述基於所述第一圖像和所述第一深度圖進行活體檢測,包括: 基於所述第一圖像,更新所述第一深度圖,得到第二深度圖; 基於所述第一圖像和所述第二深度圖,確定所述目標對象的活體檢測結果。
  19. 如請求項17所述的方法,其中,所述圖像感測器包括RGB感測器或者紅外線感測器; 所述深度感測器包括雙目紅外線感測器或者TOF感測器。
  20. 如請求項19所述的方法,其中,所述TOF感測器採用基於紅外線波段的TOF模組。
  21. 如請求項18所述的方法,其中,所述基於所述第一圖像,更新所述第一深度圖,得到第二深度圖,包括: 基於所述第一圖像,對所述第一深度圖中的深度失效像素的深度值進行更新,得到所述第二深度圖。
  22. 如請求項18所述的方法,其中,所述基於所述第一圖像,更新所述第一深度圖,得到第二深度圖,包括: 基於所述第一圖像,確定所述第一圖像中多個像素的深度預測值和關聯訊息,其中,所述多個像素的關聯訊息指示所述多個像素之間的關聯度; 基於所述多個像素的深度預測值和關聯訊息,更新所述第一深度圖,得到第二深度圖。
  23. 如請求項22所述的方法,其中,所述基於所述多個像素的深度預測值和關聯訊息,更新所述第一深度圖,得到第二深度圖,包括: 確定所述第一深度圖中的深度失效像素; 從所述多個像素的深度預測值中獲取所述深度失效像素的深度預測值以及所述深度失效像素的多個周圍像素的深度預測值; 從所述多個像素的關聯訊息中獲取所述深度失效像素與所述深度失效像素的多個周圍像素之間的關聯度; 基於所述深度失效像素的深度預測值、所述深度失效像素的多個周圍像素的深度預測值、以及所述深度失效像素與所述深度失效像素的周圍像素之間的關聯度,確定所述深度失效像素的更新後的深度值。
  24. 如請求項23所述的方法,其中,所述基於所述深度失效像素的深度預測值、所述深度失效像素的多個周圍像素的深度預測值、以及所述深度失效像素與所述深度失效像素的多個周圍像素之間的關聯度,確定所述深度失效像素的更新後的深度值,包括: 基於所述深度失效像素的周圍像素的深度預測值以及所述深度失效像素與所述深度失效像素的多個周圍像素之間的關聯度,確定所述深度失效像素的深度關聯值; 基於所述深度失效像素的深度預測值以及所述深度關聯值,確定所述深度失效像素的更新後的深度值。
  25. 如請求項24所述的方法,其中,所述基於所述深度失效像素的周圍像素的深度預測值以及所述深度失效像素與所述深度失效像素的多個周圍像素之間的關聯度,確定所述深度失效像素的深度關聯值,包括: 將所述深度失效像素與每個周圍像素之間的關聯度作爲所述每個周圍像素的權重,對所述深度失效像素的多個周圍像素的深度預測值進行加權求和處理,得到所述深度失效像素的深度關聯值。
  26. 如請求項22至25其中任意一項所述的方法,其中,所述基於所述第一圖像,確定所述第一圖像中多個像素的深度預測值,包括: 基於所述第一圖像和所述第一深度圖,確定所述第一圖像中多個像素的深度預測值。
  27. 如請求項26所述的方法,其中,所述基於所述第一圖像和所述第一深度圖,確定所述第一圖像中多個像素的深度預測值,包括: 將所述第一圖像和所述第一深度圖輸入到深度預測神經網路進行處理,得到所述第一圖像中多個像素的深度預測值。
  28. 如請求項26所述的方法,其中,所述基於所述第一圖像和所述第一深度圖,確定所述第一圖像中多個像素的深度預測值,包括: 對所述第一圖像和所述第一深度圖進行融合處理,得到融合結果; 基於所述融合結果,確定所述第一圖像中多個像素的深度預測值。
  29. 如請求項22至25其中任意一項所述的方法,其中,所述基於所述第一圖像,確定所述第一圖像中多個像素的關聯訊息,包括: 將所述第一圖像輸入到關聯度檢測神經網路進行處理,得到所述第一圖像中多個像素的關聯訊息。
  30. 如請求項18至25其中任意一項所述的方法,其中,所述基於所述第一圖像,更新所述第一深度圖,包括: 從所述第一圖像中獲取所述目標對象的圖像; 基於所述目標對象的圖像,更新所述第一深度圖。
  31. 如請求項30所述的方法,其中,所述從所述第一圖像中獲取所述目標對象的圖像,包括: 獲取所述第一圖像中所述目標對象的關鍵點訊息; 基於所述目標對象的關鍵點訊息,從所述第一圖像中獲取所述目標對象的圖像。
  32. 如請求項31所述的方法,其中,所述獲取所述第一圖像中所述目標對象的關鍵點訊息,包括: 對所述第一圖像進行目標檢測,得到所述目標對象所在區域; 對所述目標對象所在區域的圖像進行關鍵點檢測,得到所述第一圖像中所述目標對象的關鍵點訊息。
  33. 如請求項18至25其中任意一項所述的方法,其中,所述基於所述第一圖像,更新所述第一深度圖,得到第二深度圖,包括: 從所述第一深度圖中獲取所述目標對象的深度圖; 基於所述第一圖像,更新所述目標對象的深度圖,得到所述第二深度圖。
  34. 如請求項18所述的方法,其中,所述基於所述第一圖像和所述第二深度圖,確定所述目標對象的活體檢測結果,包括: 將所述第一圖像和所述第二深度圖輸入到活體檢測神經網路進行處理,得到所述目標對象的活體檢測結果。
  35. 如請求項18所述的方法,其中,所述基於所述第一圖像和所述第二深度圖,確定所述目標對象的活體檢測結果,包括: 對所述第一圖像進行特徵提取處理,得到第一特徵訊息; 對所述第二深度圖進行特徵提取處理,得到第二特徵訊息; 基於所述第一特徵訊息和所述第二特徵訊息,確定所述目標對象的活體檢測結果。
  36. 如請求項35所述的方法,其中,所述基於所述第一特徵訊息和所述第二特徵訊息,確定所述目標對象的活體檢測結果,包括: 對所述第一特徵訊息和所述第二特徵訊息進行融合處理,得到第三特徵訊息; 基於所述第三特徵訊息,確定所述目標對象的活體檢測結果。
  37. 如請求項36所述的方法,其中,所述基於所述第三特徵訊息,確定所述目標對象的活體檢測結果,包括: 基於所述第三特徵訊息,得到所述目標對象爲活體的機率; 根據所述目標對象爲活體的機率,確定所述目標對象的活體檢測結果。
  38. 如請求項1或2所述的方法,其中,在所述基於所述第一圖像進行人臉識別之後,所述方法還包括: 響應於人臉識別失敗,啓動設置於所述車的密碼解鎖模組以啓動密碼解鎖流程。
  39. 如請求項1或2所述的方法,其中,所述方法還包括以下一項或兩項: 根據所述圖像採集模組採集的車主的人臉圖像進行車主註冊; 根據所述車主的終端設備採集的所述車主的人臉圖像進行遠端註冊,並將註冊訊息發送到所述車上,其中,所述註冊訊息包括所述車主的人臉圖像。
  40. 一種車門解鎖裝置,其特徵在於,所述裝置包括: 獲取模組,用於經設置於車的至少一距離感測器獲取所述車外的目標對象和所述車之間的距離; 喚醒與控制模組,用於響應於所述距離滿足預定條件,喚醒並控制設置於所述車的圖像採集模組採集所述目標對象的第一圖像; 人臉識別模組,用於基於所述第一圖像進行人臉識別; 發送模組,用於響應於人臉識別成功,向所述車的至少一車門鎖發送車門解鎖指令。
  41. 一種車載人臉解鎖系統,其特徵在於,所述系統包括:記憶體、人臉識別系統、圖像採集模組和人體接近監測系統;所述人臉識別系統分別與所述記憶體、所述圖像採集模組和所述人體接近監測系統連接;所述人體接近監測系統包括若距離滿足預定條件時喚醒所述人臉識別系統的微處理器和與所述微處理器連接的至少一距離感測器;所述人臉識別系統還設置有用於與車門域控制器連接的通訊介面,若人臉識別成功則基於所述通訊介面向所述車門域控制器發送用於解鎖車門的控制訊息。
  42. 如請求項41所述的車載人臉解鎖系統,其中, 所述至少一距離感測器包括以下至少之一:藍牙距離感測器、超音波距離感測器;和/或, 所述圖像採集模組包括圖像感測器和深度感測器。
  43. 如請求項42所述的車載人臉解鎖系統,其中, 所述深度感測器包括雙目紅外線感測器,所述雙目紅外線感測器的兩個紅外線攝影機設置在所述圖像感測器的攝影機的兩側;和/或, 所述圖像採集模組還包括至少一個補光燈,所述至少一個補光燈設置在所述雙目紅外線感測器的紅外線攝影機和所述圖像感測器的攝影機之間,所述至少一個補光燈包括用於所述圖像感測器的補光燈和用於所述深度感測器的補光燈中的至少一種;和/或, 所述圖像採集模組還包括雷射器,所述雷射器設置在所述深度感測器的攝影機和所述圖像感測器的攝影機之間。
  44. 如請求項41至43其中任意一項所述的車載人臉解鎖系統,其中, 所述車載人臉解鎖系統還包括: 用於解鎖車門的密碼解鎖模組,所述密碼解鎖模組與所述人臉識別系統連接; 電池模組,所述電池模組分別與所述微處理器和所述人臉識別系統連接。
  45. 一種車,其特徵在於,所述車包括如請求項41至44其中任意一項所述的車載人臉解鎖系統,所述車載人臉解鎖系統與所述車的車門域控制器連接。
  46. 一種電子設備,其特徵在於,所述電子設備包括: 處理器; 用於儲存處理器可執行指令的記憶體; 其中,所述處理器被配置爲:執行如請求項1至39其中任意一項所述的方法。
  47. 一種電腦可讀儲存媒體,其上儲存有電腦程式指令,其特徵在於,所述電腦程式指令被處理器執行時實現如請求項1至39其中任意一項所述的方法。
TW109105976A 2019-02-28 2020-02-25 車門解鎖方法及其裝置、車載人臉解鎖系統、車、電子設備和儲存媒體 TWI785312B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910152568.8 2019-02-28
CN201910152568.8A CN110930547A (zh) 2019-02-28 2019-02-28 车门解锁方法及装置、系统、车、电子设备和存储介质

Publications (2)

Publication Number Publication Date
TW202034195A true TW202034195A (zh) 2020-09-16
TWI785312B TWI785312B (zh) 2022-12-01

Family

ID=69855718

Family Applications (1)

Application Number Title Priority Date Filing Date
TW109105976A TWI785312B (zh) 2019-02-28 2020-02-25 車門解鎖方法及其裝置、車載人臉解鎖系統、車、電子設備和儲存媒體

Country Status (7)

Country Link
US (1) US20210009080A1 (zh)
JP (2) JP7035270B2 (zh)
KR (1) KR20210013129A (zh)
CN (1) CN110930547A (zh)
SG (1) SG11202009419RA (zh)
TW (1) TWI785312B (zh)
WO (1) WO2020173155A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI785761B (zh) * 2021-08-26 2022-12-01 崑山科技大學 車用智能之二階段安全控制系統
TWI833429B (zh) * 2022-11-08 2024-02-21 國立勤益科技大學 智慧辨識門鎖系統

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111332252B (zh) * 2020-02-19 2022-11-29 上海商汤临港智能科技有限公司 车门解锁方法、装置、系统、电子设备和存储介质
CN212447430U (zh) * 2020-03-30 2021-02-02 上海商汤临港智能科技有限公司 车门解锁系统
CN111516640B (zh) * 2020-04-24 2022-01-04 上海商汤临港智能科技有限公司 车门控制方法、车辆、系统、电子设备和存储介质
CN111540090A (zh) * 2020-04-29 2020-08-14 北京市商汤科技开发有限公司 控制车门解锁的方法、装置、车辆、电子设备及存储介质
CN111862030B (zh) * 2020-07-15 2024-02-09 北京百度网讯科技有限公司 一种人脸合成图检测方法、装置、电子设备及存储介质
CN111915641A (zh) * 2020-08-12 2020-11-10 四川长虹电器股份有限公司 一种基于tof技术的车辆测速方法及系统
CN114120484A (zh) * 2020-08-31 2022-03-01 比亚迪股份有限公司 一种面部识别系统及车辆
CN112135275B (zh) * 2020-09-24 2023-08-18 Oppo广东移动通信有限公司 蓝牙扫描方法、装置、电子设备和可读存储介质
CN112562154B (zh) * 2020-11-04 2022-08-26 重庆恢恢信息技术有限公司 一种实现智慧建筑工地区域建筑人员安全意识保障方法
CN112615983A (zh) * 2020-12-09 2021-04-06 广州橙行智动汽车科技有限公司 车辆闭锁方法、装置、车辆以及存储介质
EP4017057A1 (en) * 2020-12-18 2022-06-22 INTEL Corporation Resource allocation for cellular networks
WO2022217294A1 (en) * 2021-04-09 2022-10-13 Qualcomm Incorporated Personalized biometric anti-spoofing protection using machine learning and enrollment data
CN113177584B (zh) * 2021-04-19 2022-10-28 合肥工业大学 基于零样本学习的复合故障诊断方法
DE102021002165A1 (de) 2021-04-23 2022-10-27 Mercedes-Benz Group AG Verfahren und Kraftfahrzeug
CN113060094B (zh) * 2021-04-29 2022-07-26 北京车和家信息技术有限公司 一种车辆的控制方法、装置和车载设备
CN113327348A (zh) * 2021-05-08 2021-08-31 宁波盈芯信息科技有限公司 一种联网型3d人脸智能锁
CN112950820B (zh) * 2021-05-14 2021-07-16 北京旗偲智能科技有限公司 一种车辆的自动控制方法、装置、系统及存储介质
CN112950819A (zh) * 2021-05-14 2021-06-11 北京旗偲智能科技有限公司 车辆解锁控制方法、装置、服务器及存储介质
KR20230011551A (ko) * 2021-07-14 2023-01-25 현대자동차주식회사 인증 장치 및 그를 가지는 차량
EP4374335A1 (en) * 2021-07-19 2024-05-29 Sony Semiconductor Solutions Corporation Electronic device and method
CN113815562A (zh) * 2021-09-24 2021-12-21 上汽通用五菱汽车股份有限公司 基于全景摄像头的车辆解锁方法、设备及存储介质
WO2023053364A1 (ja) * 2021-09-30 2023-04-06 楽天グループ株式会社 情報処理装置、情報処理方法及び情報処理プログラム
CN113838465A (zh) * 2021-09-30 2021-12-24 广东美的厨房电器制造有限公司 智能设备的控制方法及其装置、智能设备和可读存储介质
CN114268380B (zh) * 2021-10-27 2024-03-08 浙江零跑科技股份有限公司 一种基于声波通信的汽车蓝牙无感进入改进方法
CN114954354A (zh) * 2022-04-02 2022-08-30 阿维塔科技(重庆)有限公司 车门解锁方法、装置、设备及计算机可读存储介质
US20230316552A1 (en) * 2022-04-04 2023-10-05 Microsoft Technology Licensing, Llc Repairing image depth values for an object with a light absorbing surface
CN114872659B (zh) * 2022-04-19 2023-03-10 支付宝(杭州)信息技术有限公司 车辆控制方法及装置
WO2023248807A1 (ja) * 2022-06-21 2023-12-28 ソニーグループ株式会社 画像処理装置および方法
CN115527293B (zh) * 2022-11-25 2023-04-07 广州万协通信息技术有限公司 安全芯片基于人体特征开门的方法及安全芯片装置
CN116805430B (zh) * 2022-12-12 2024-01-02 安徽国防科技职业学院 一种基于大数据的数字图像安全处理系统
CN116605176B (zh) * 2023-07-20 2023-11-07 江西欧迈斯微电子有限公司 开闭锁控制方法、装置及车辆

Family Cites Families (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7164117B2 (en) * 1992-05-05 2007-01-16 Automotive Technologies International, Inc. Vehicular restraint system control system and method using multiple optical imagers
US7663502B2 (en) * 1992-05-05 2010-02-16 Intelligent Technologies International, Inc. Asset system control arrangement and method
US20070126561A1 (en) * 2000-09-08 2007-06-07 Automotive Technologies International, Inc. Integrated Keyless Entry System and Vehicle Component Monitoring
US8169311B1 (en) * 1999-12-15 2012-05-01 Automotive Technologies International, Inc. Wireless transmission system for vehicular component control and monitoring
US20090046538A1 (en) * 1995-06-07 2009-02-19 Automotive Technologies International, Inc. Apparatus and method for Determining Presence of Objects in a Vehicle
US8054203B2 (en) * 1995-06-07 2011-11-08 Automotive Technologies International, Inc. Apparatus and method for determining presence of objects in a vehicle
JP3216586B2 (ja) * 1997-09-17 2001-10-09 トヨタ自動車株式会社 車両用遠隔操作制御装置およびそのシステム
DE10105060B4 (de) * 2001-02-05 2004-04-08 Siemens Ag Zugangskontrollsystem
JP2006161545A (ja) 2004-11-10 2006-06-22 Denso Corp スマートエントリシステム用車載装置
JP2006328932A (ja) * 2005-04-28 2006-12-07 Denso Corp 車両ドア制御システム
JP4509042B2 (ja) * 2006-02-13 2010-07-21 株式会社デンソー 自動車用もてなし情報提供システム
US7636033B2 (en) * 2006-04-05 2009-12-22 Larry Golden Multi sensor detection, stall to stop and lock disabling system
JP4572889B2 (ja) * 2006-11-20 2010-11-04 株式会社デンソー 自動車用ユーザーもてなしシステム
TW200831767A (en) * 2007-01-22 2008-08-01 shi-xiong Li Door lock control system with integrated sensing and video identification functions
US10289288B2 (en) * 2011-04-22 2019-05-14 Emerging Automotive, Llc Vehicle systems for providing access to vehicle controls, functions, environment and applications to guests/passengers via mobile devices
CN102609941A (zh) * 2012-01-31 2012-07-25 北京航空航天大学 基于ToF深度相机的三维注册方法
US9378601B2 (en) * 2012-03-14 2016-06-28 Autoconnect Holdings Llc Providing home automation information via communication with a vehicle
WO2014172369A2 (en) * 2013-04-15 2014-10-23 Flextronics Ap, Llc Intelligent vehicle for assisting vehicle occupants and incorporating vehicle crate for blade processors
US9153084B2 (en) * 2012-03-14 2015-10-06 Flextronics Ap, Llc Destination and travel information application
US8457367B1 (en) * 2012-06-26 2013-06-04 Google Inc. Facial recognition
US8542879B1 (en) * 2012-06-26 2013-09-24 Google Inc. Facial recognition
TW201402378A (zh) * 2012-07-11 2014-01-16 Hon Hai Prec Ind Co Ltd 汽車啟動控制系統及方法
US9751534B2 (en) * 2013-03-15 2017-09-05 Honda Motor Co., Ltd. System and method for responding to driver state
WO2014172320A1 (en) * 2013-04-15 2014-10-23 Flextronics Ap, Llc Vehicle location-based home automation triggers
US20150009010A1 (en) * 2013-07-03 2015-01-08 Magna Electronics Inc. Vehicle vision system with driver detection
US9761074B2 (en) * 2014-03-12 2017-09-12 August Home Inc. Intelligent door lock system with audio and RF communication
US9582888B2 (en) * 2014-06-19 2017-02-28 Qualcomm Incorporated Structured light three-dimensional (3D) depth map based on content filtering
US20160078696A1 (en) * 2014-09-15 2016-03-17 Skr Labs, Llc Access method and system with wearable controller
US20160300410A1 (en) * 2015-04-10 2016-10-13 Jaguar Land Rover Limited Door Access System for a Vehicle
JP6447379B2 (ja) * 2015-06-15 2019-01-09 トヨタ自動車株式会社 認証装置、認証システムおよび認証方法
KR102146398B1 (ko) * 2015-07-14 2020-08-20 삼성전자주식회사 3차원 컨텐츠 생성 장치 및 그 3차원 컨텐츠 생성 방법
JP6614999B2 (ja) * 2016-02-23 2019-12-04 株式会社東海理化電機製作所 電子キーシステム
US20170263017A1 (en) * 2016-03-11 2017-09-14 Quan Wang System and method for tracking gaze position
JP7005526B2 (ja) * 2016-05-31 2022-01-21 ぺロトン テクノロジー インコーポレイテッド 隊列走行コントローラの状態マシン
JP6790483B2 (ja) 2016-06-16 2020-11-25 日産自動車株式会社 認証方法及び認証装置
US10198685B2 (en) * 2016-06-24 2019-02-05 Crown Equipment Corporation Electronic badge to authenticate and track industrial vehicle operator
US20180032042A1 (en) * 2016-08-01 2018-02-01 Qualcomm Incorporated System And Method Of Dynamically Controlling Parameters For Processing Sensor Output Data
JP2018036102A (ja) * 2016-08-30 2018-03-08 ソニーセミコンダクタソリューションズ株式会社 測距装置、および、測距装置の制御方法
JP6399064B2 (ja) * 2016-09-07 2018-10-03 トヨタ自動車株式会社 ユーザ特定システム
US10031523B2 (en) * 2016-11-07 2018-07-24 Nio Usa, Inc. Method and system for behavioral sharing in autonomous vehicles
US10472091B2 (en) * 2016-12-02 2019-11-12 Adesa, Inc. Method and apparatus using a drone to input vehicle data
CN113490147A (zh) * 2016-12-14 2021-10-08 株式会社电装 用于建立关于便携式设备和车辆的位置信息的系统及方法
US10721859B2 (en) * 2017-01-08 2020-07-28 Dolly Y. Wu PLLC Monitoring and control implement for crop improvement
US10255670B1 (en) * 2017-01-08 2019-04-09 Dolly Y. Wu PLLC Image sensor and module for agricultural crop improvement
JP2018145589A (ja) * 2017-03-01 2018-09-20 オムロンオートモーティブエレクトロニクス株式会社 車両ドア開閉制御装置
CN106951842A (zh) * 2017-03-09 2017-07-14 重庆长安汽车股份有限公司 汽车后备箱智能开启系统及方法
JP6446086B2 (ja) * 2017-03-31 2018-12-26 本田技研工業株式会社 非接触電力伝送システム
JP2018174686A (ja) * 2017-03-31 2018-11-08 本田技研工業株式会社 非接触電力伝送システム
JP6450414B2 (ja) * 2017-03-31 2019-01-09 本田技研工業株式会社 非接触電力伝送システム
WO2018191894A1 (zh) * 2017-04-19 2018-10-25 深圳市汇顶科技股份有限公司 一种车辆解锁方法及车辆解锁系统
CN206741431U (zh) * 2017-05-09 2017-12-12 深圳未来立体教育科技有限公司 桌面型空间立体交互系统
CN107578418B (zh) * 2017-09-08 2020-05-19 华中科技大学 一种融合色彩和深度信息的室内场景轮廓检测方法
WO2019056310A1 (en) * 2017-09-22 2019-03-28 Qualcomm Incorporated SYSTEMS AND METHODS FOR DETECTING FACIAL ACTIVITY
CN108197537A (zh) * 2017-12-21 2018-06-22 广东汇泰龙科技有限公司 一种云锁上基于电容式指纹头采集指纹的方法、设备
CN108109249A (zh) * 2018-01-26 2018-06-01 河南云拓智能科技有限公司 智能云门禁管理系统及方法
CN207752544U (zh) * 2018-01-26 2018-08-21 河南云拓智能科技有限公司 一种智能门禁设备
CN108520582B (zh) * 2018-03-29 2020-08-18 荣成名骏户外休闲用品股份有限公司 汽车开关门自动感应系统
CN108846924A (zh) * 2018-05-31 2018-11-20 上海商汤智能科技有限公司 车辆及车门解锁控制方法、装置和车门解锁系统
CN108549886A (zh) * 2018-06-29 2018-09-18 汉王科技股份有限公司 一种人脸活体检测方法及装置
CN111832535A (zh) * 2018-08-24 2020-10-27 创新先进技术有限公司 人脸识别方法及装置
US11060864B1 (en) * 2019-01-22 2021-07-13 Tp Lab, Inc. Controller for measuring distance from reference location and real size of object using a plurality of cameras
US11091949B2 (en) * 2019-02-13 2021-08-17 Ford Global Technologies, Llc Liftgate opening height control

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI785761B (zh) * 2021-08-26 2022-12-01 崑山科技大學 車用智能之二階段安全控制系統
TWI833429B (zh) * 2022-11-08 2024-02-21 國立勤益科技大學 智慧辨識門鎖系統

Also Published As

Publication number Publication date
TWI785312B (zh) 2022-12-01
CN110930547A (zh) 2020-03-27
JP7428993B2 (ja) 2024-02-07
SG11202009419RA (en) 2020-10-29
KR20210013129A (ko) 2021-02-03
JP2022091755A (ja) 2022-06-21
JP7035270B2 (ja) 2022-03-14
WO2020173155A1 (zh) 2020-09-03
JP2021516646A (ja) 2021-07-08
US20210009080A1 (en) 2021-01-14

Similar Documents

Publication Publication Date Title
TW202034195A (zh) 車門解鎖方法及其裝置、車載人臉解鎖系統、車、電子設備和儲存媒體
WO2021000587A1 (zh) 车门解锁方法及装置、系统、车、电子设备和存储介质
WO2021077738A1 (zh) 车门控制方法及装置、系统、车、电子设备和存储介质
US11158067B1 (en) Neighborhood alert mode for triggering multi-device recording, multi-camera locating, and multi-camera event stitching for audio/video recording and communication devices
US11196966B2 (en) Identifying and locating objects by associating video data of the objects with signals identifying wireless devices belonging to the objects
US10885396B2 (en) Generating composite images using audio/video recording and communication devices
JP2022538557A (ja) ユーザ認可に基づいて操作を可能にするためのシステム、方法、およびコンピュータプログラム
US20180233010A1 (en) Neighborhood alert mode for triggering multi-device recording, multi-camera motion tracking, and multi-camera event stitching for audio/video recording and communication devices
US11232685B1 (en) Security system with dual-mode event video and still image recording
US20180247504A1 (en) Identification of suspicious persons using audio/video recording and communication devices
US10511810B2 (en) Accessing cameras of audio/video recording and communication devices based on location
US11049375B2 (en) Parcel delivery prediction-based theft detection
US11195408B1 (en) Sending signals for help during an emergency event
US11659144B1 (en) Security video data processing systems and methods
US11349707B1 (en) Implementing security system devices as network nodes
US11393108B1 (en) Neighborhood alert mode for triggering multi-device recording, multi-camera locating, and multi-camera event stitching for audio/video recording and communication devices