CN111275901A - 快递柜的控制方法、装置、存储介质和计算机设备 - Google Patents
快递柜的控制方法、装置、存储介质和计算机设备 Download PDFInfo
- Publication number
- CN111275901A CN111275901A CN202010090646.9A CN202010090646A CN111275901A CN 111275901 A CN111275901 A CN 111275901A CN 202010090646 A CN202010090646 A CN 202010090646A CN 111275901 A CN111275901 A CN 111275901A
- Authority
- CN
- China
- Prior art keywords
- target user
- face image
- information
- living body
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07F—COIN-FREED OR LIKE APPARATUS
- G07F17/00—Coin-freed apparatus for hiring articles; Coin-freed facilities or services
- G07F17/10—Coin-freed apparatus for hiring articles; Coin-freed facilities or services for means for safe-keeping of property, left temporarily, e.g. by fastening the property
- G07F17/12—Coin-freed apparatus for hiring articles; Coin-freed facilities or services for means for safe-keeping of property, left temporarily, e.g. by fastening the property comprising lockable containers, e.g. for accepting clothes to be cleaned
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Collating Specific Patterns (AREA)
Abstract
本申请涉及一种快递柜的控制方法、装置、计算机可读存储介质和计算机设备,方法包括:获取目标用户的第一人脸图像,根据所述第一人脸图像判断所述目标用户是否为活体;当判定所述目标用户为活体时,根据所述第一人脸图像确定所述目标用户的用户标识,根据所述用户标识确定所述目标用户的订单信息;根据所述订单信息控制快递柜开启对应的柜门。本申请提供的方案简化了通过快递柜寄件、取件的操作流程。
Description
技术领域
本申请涉及计算机技术领域,特别是涉及一种快递柜的控制方法、装置、计算机可读存储介质和计算机设备。
背景技术
随着电子商务的快速发展,改变了人们长久以来的消费方式,随之衍生的快递行业蓬勃发展。传统的快递业务大多数以人工揽件、人工派件为主,以人工揽件为例,需要快递员到客户下单的地址,由客户预先或者现场填写快递单,确定金额、付费,进而快递员收取快件。这种方式需要浪费大量的人力,而且存在效率低下的缺点。随着快递业不断发展,出现了智能快递柜,智能快递柜方便人们自主寄件、取件,很快成为了一种热门的寄件、取件方式。
但是,当用户通过智能快递柜寄件、取件时,需要先在智能快递柜登录,比如扫码、输入取件码等,调出用户的订单信息,而当网络状态不佳时,需要重复扫码、输入取件码等,这存在操作繁琐的缺点。
发明内容
基于此,有必要针对传统的取件、寄件方式操作繁琐的技术问题,提供一种简化操作流程的快递柜的控制方法、装置、计算机可读存储介质和计算机设备。
一种快递柜的控制方法,包括:
获取目标用户的第一人脸图像,根据第一人脸图像判断目标用户是否为活体;
当判定目标用户为活体时,根据第一人脸图像确定目标用户的用户标识,根据用户标识确定目标用户的订单信息;
根据订单信息控制快递柜开启对应的柜门。
一种快递柜的控制装置,装置包括:
获取模块,用于获取目标用户的第一人脸图像,根据第一人脸图像判断目标用户是否为活体;
确定模块,用于当判定目标用户为活体时,根据第一人脸图像确定目标用户的用户标识,根据用户标识确定目标用户的订单信息;
控制模块,用于根据订单信息控制快递柜开启对应的柜门。
一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时,使得处理器执行任一项快递柜的控制方法的步骤。
一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,计算机程序被处理器执行时,使得处理器执行任一项快递柜的控制方法的步骤。
上述快递柜的控制方法、装置、计算机可读存储介质和计算机设备,获取目标用户的第一人脸图像,根据第一人脸图像判断目标用户是否为活体,当判定目标用户为活体时,根据第一人脸图像确定目标用户的用户标识,根据用户标识确定目标用户的订单信息,根据订单信息控制快递柜开启对应的柜门,通过用户的人脸图像即可识别得到用户的订单信息,使得用户进行寄件或者取件操作,避免了扫码登录、输入取件码等繁琐的操作流程;对目标用户进行活体检测,提高了寄件、取件的安全性,并且无需目标用户执行交互动作来进行活体检测,更为简单高效,降低了交互成本。
附图说明
图1为一个实施例中快递柜的控制方法的应用环境图;
图2为一个实施例中快递柜的控制方法的流程示意图;
图3为另一个实施例中快递柜的控制方法的流程示意图;
图4为一个实施例中生成订单信息的流程示意图;
图5为一个实施例中执行订单信息的流程示意图;
图6为又一个实施例中快递柜的控制方法的流程示意图;
图7为一个实施例中快递柜的控制装置的结构框图;
图8为一个实施例中计算机设备的结构框图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的快递柜的控制方法,可以应用于如图1所示的应用环境中。其中,终端102通过网络与服务器104通过网络进行通信。在一个实施例中,服务器104通过终端102获取目标用户的第一人脸图像,根据第一人脸图像判断目标用户是否为活体,接着,服务器104判定目标用户为活体时,根据第一人脸图像确定目标用户的用户标识,根据用户标识确定目标用户的订单信息,接着,服务器104根据订单信息控制快递柜开启对应的柜门。其中,终端102可以但不限于是各种快递柜,服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一个实施例中,如图2所示,提供了一种快递柜的控制方法。参照图2,该快递柜的控制方法具体包括如下步骤:
步骤202,获取目标用户的第一人脸图像,根据第一人脸图像判断目标用户是否为活体。
其中,目标用户是指通过快递柜进行取件或者寄件的用户。可选地,当一用户出现在快递柜的摄像头的拍摄范围内,且停留预设时长时,将该用户作为目标用户。预设时长可根据实际应用进行设定,比如3秒。当出现在快递柜的摄像头的拍摄范围内的用户不止一个时,可选取距离摄像头最近的用户作为目标用户。
人脸图像是指包含有人脸的图像。第一人脸图像是当目标用户寄件或者取件时,快递柜的摄像头拍摄到的图像。第一人脸图像可为彩色图像和/或深度图像。彩色图像的每个像素值采用R(红)、G(绿)、B(蓝)三个通道的颜色分量来表示。深度图像是指将从摄像头到目标用户所处场景中各点的距离值作为像素值的图像。
具体地,彩色图像和深度图像可以是采用3D摄像头拍摄得到的图像(较于2D摄像头仅能够拍摄彩色图像,3D摄像头除了能够拍摄彩色图像之外,还能够拍摄深度图像),也可以是分别采用2D摄像头和3D摄像头拍摄得到的图像。其中,3D摄像头可包括彩色摄像头和深度传感器,彩色摄像头用于拍摄彩色图像,深度传感器用于采集深度信息以生成深度图像。
在一个实施例中,快递柜的摄像头采集目标用户的第一人脸图像。在另一个实施例中,快递柜的摄像头采集目标用户的第一人脸图像,服务器通过快递柜获取目标用户的第一人脸图像。
在一个实施例中,可调用第一神经网络对彩色图像进行处理得到第一处理结果,调用第二神经网络对深度图像进行处理得到第二处理结果,根据第一处理结果和第二处理结果确定目标用户是否为活体。第一神经网络、第二神经网络均可以是深度神经网络,比如卷积神经网络。第一处理结果是由第一神经网络从彩色图像中提取的,用于表征目标用户是否为活体的特征信息,第二处理结果是由第二神经网络从深度图像中提取的,用于表征目标用户是否为活体的特征信息。可根据第一处理结果和第二处理结果得到概率值,该概率值用于指示目标用户为活体的概率。可将概率值与预设阈值进行比对,当概率值大于预设阈值时,确定目标用户为活体,当概率值小于或者等于预设阈值时,确定目标用户不是活体,该预设阈值可根据实际应用进行设定。可选地,可采集多帧彩色图像作为第一神经网络输入,多帧深度图像作为第二神经网络输入,第一神经网络、第二神经网络均可以是具备上下文感知的神经网络,比如RNN(Recurrent Neural Network,循环神经网络)等。通过获取目标用户的彩色图像和深度图像,结合上述两个图像对目标用户进行活体检测,融合了人脸纹理线索和3D人脸结构线索进行活体检测,提高了活体检测的准确性,可以有效拦截人脸纸片、高清屏幕人脸翻拍、合成人脸视频、面具、3D假体模型等攻击;并且,在彩色图像和深度图像的拍摄过程中,无需用户执行交互动作,更为简单高效,降低了交互成本。
在一个实施例中,可通过检测目标用户在第一人脸图像中的约束框进行形状变化的捕捉,来判断目标用户是否为活体。由于攻击者的假体攻击行为将导致约束框所发生的形状变化异常,故而当约束框存在异常形变时,便可判定目标用户不是活体。其中,第一人脸图像可为至少两张彩色图像。对第一人脸图像中目标用户的生物特征部位进行关键点检测,生物特征部位可为眼睛、鼻子、嘴巴、虹膜、脸部轮廓等。生物特征部位在第一人脸图像中具有相应的轮廓,该轮廓是由第一人脸图像中一系列像素点构成的,该一系列像素点中关键的像素点即为生物特征部位的关键点。在检测到生物特征部位的关键点之后,便可从中进一步选取若干关键点,以在第一人脸图像中构建约束框,对约束框进行形状变化的捕捉。比如选取左眼的一个关键点、右眼的一个关键点、嘴巴的一个关键点,三个关键点相连接得到约束框。假体攻击包括旋转弯折攻击、多角度旋转攻击等,旋转弯折攻击会造成图像弯折、扭曲、旋转偏移等,多角度旋转攻击则可能造成图像旋转偏移,进而会导致第一人脸图像中的约束框发生剧烈的形变。
在一个实施例中,快递柜的摄像头采集目标用户的第一人脸图像,并根据第一人脸图像判断目标用户是否为活体,当判定目标用户为活体时,进而执行根据第一人脸图像确定目标用户的用户标识,根据用户标识确定目标用户的订单信息的步骤。在另一个实施例中,快递柜的摄像头采集目标用户的第一人脸图像,服务器通过快递柜获取目标用户的第一人脸图像,并根据第一人脸图像判断目标用户是否为活体,当判定目标用户为活体时,进而执行根据第一人脸图像确定目标用户的用户标识,根据用户标识确定目标用户的订单信息的步骤。
步骤204,当判定目标用户为活体时,根据第一人脸图像确定目标用户的用户标识,根据用户标识确定目标用户的订单信息。
其中,用户标识可为目标用户登录快递柜所使用的账号,该账号可为目标用户的第三方应用账号,比如微信账号、支付宝账号等;也可为目标用户的手机号、邮箱等;也可为目标用户专门针对快递柜注册的账号。目标用户可通过快递柜的微信小程序、快递柜的微信API(Application Programming Interface,应用程序接口)网页、快递柜的客户端APP(Application,应用程序)等进行注册。
订单信息是指目标用户的快递信息,该订单信息可为寄件的订单信息或者取件的订单信息。订单信息可包括寄件人信息(寄件人信息可包括寄件人姓名、联系方式、联系地址)、收件人信息(收件人信息可包括收件人姓名、联系方式、联系地址)、快递公司、包裹信息(包裹信息可包括包裹类型、包裹数量、寄付方式、是否保价)、订单支付信息、运单号等。
在一个实施例中,将第一人脸图像与预存人脸图像进行匹配识别,当第一人脸图像与预存人脸图像匹配识别成功时,获取预存人脸图像对应的用户标识,将相关联的用户标识作为目标用户的用户标识。该预存人脸图像可存储在服务器中,或者存储在服务器以及快递柜中。在一个实施例中,服务器根据第一人脸图像确定目标用户的用户标识,根据用户标识确定目标用户的订单信息。在另一个实施例中,服务器将用户标识与订单信息发送至对应的快递柜,快递柜根据第一人脸图像确定目标用户的用户标识,根据用户标识确定目标用户的订单信息。比如,可在快递柜接入微信人脸硬件开放平台,使该快递柜可实现刷脸识别功能,通过调用微信刷脸识别接口,来识别得到目标用户的用户标识。
步骤206,根据订单信息控制快递柜开启对应的柜门。
其中,快递柜具有多个柜子,该柜子用于存放包裹。每个柜子具有柜门,柜门开启,以使目标用户存放包裹或者取出包裹。每一个订单信息有对应的柜子,寄件的订单信息对应的柜子为服务器分配,取件的订单信息对应的柜子为快递员分配。
在一个实施例中,服务器根据订单信息控制快递柜开启对应的柜门。在另一个实施例中,快递柜根据订单信息开启对应的柜门。
上述快递柜的控制方法,获取目标用户的第一人脸图像,根据第一人脸图像确定目标用户的用户标识,根据用户标识确定目标用户的订单信息,根据订单信息控制快递柜开启对应的柜门,通过用户的人脸图像即可识别得到用户的订单信息,使得用户进行寄件或者取件操作,避免了扫码登录、输入取件码等繁琐的操作流程;对目标用户进行活体检测,提高了寄件、取件的安全性,并且无需目标用户执行交互动作来进行活体检测,更为简单高效,降低了交互成本。
在一个实施例中,根据第一人脸图像判断目标用户是否为活体,包括:将深度图像输入训练好的活体识别模型中,经过训练好的活体识别模型中卷积层、池化层和全连接层的处理,得到训练好的活体识别模型中分类器输出的活体信息,活体信息用于表征深度图像对应的目标用户是否为活体,训练好的活体识别模型是根据深度图像样本以及深度图像样本对应的活体信息标签训练得到的。
其中,第一人脸图像可为深度图像。深度图像样本可为多组深度图像。深度图像样本对应的活体信息标签用于表征每一组深度图像所对应的活体信息。
在一个实施例中,活体识别模型可包括输入层、卷积层、池化层、全连接层和分类器。其中,输入层用于接收输入的深度图像,并将深度图像发送至卷积层;卷积层、池化层、全连接层用于提取出具有区分性的特征,并将提取出的特征发送至分类器;分类器计算深度图像属于每一类别的概率,从而得到该深度图像对应的活体信息。其中,卷积层用于对输入的深度图像初步提取特征,得到卷积特征向量;池化层对卷积层输出的卷积特征向量进行降维操作,并进一步提取特征,得到池化特征向量;全连接层将卷积层和池化层处理得到的特征向量进行合并或者取样,提取出具有区分性的特征。
该活体识别模型的训练方式,包括:将深度图像样本输入待训练的活体识别模型中,经过待训练的活体识别模型中卷积层、池化层和全连接层的处理,得到该待训练的活体识别模型中分类器输出的预测活体信息,按照该深度图像样本对应的活体信息标签与该预测活体信息之间的差异,调整该活体识别模型的参数并继续训练,直至满足训练停止条件时结束训练。
具体地,利用深度图像样本对应的活体信息标签对深度图像样本进行标记,将标记后的深度图像样本输入活体识别模型,利用反向传播的方式训练活体识别模型,以使活体识别模型的识别结果趋近深度图像样本对应的活体信息标签,从而使得活体识别模型学习深度图像与活体信息之间的映射。当获取到深度图像属于各个类别的概率时,与深度图像样本对应的活体信息标签进行对比,得到误差;利用反向传播算法,根据活体识别模型的权重计算误差的梯度;利用梯度下降算法更新活体识别模型的参数,使得活体识别模型输出的误差最小化。
上述快递柜的控制方法,将深度图像输入训练好的活体识别模型中,经过训练好的活体识别模型中卷积层、池化层和全连接层的处理,得到训练好的活体识别模型中分类器输出的活体信息,采用神经网络从第一人脸图像中提取特征进行活体检测,无需人工制定所要提取的图像特征,因此该方案更具鲁棒性,有助于提升活体检测的准确度。
在一个实施例中,根据第一人脸图像确定目标用户的用户标识,包括:将彩色图像与预存人脸图像进行匹配识别;当彩色图像与预存人脸图像匹配识别成功时,获取预存人脸图像对应的身份信息;获取身份信息相关联的用户标识,将相关联的用户标识作为目标用户的用户标识。
其中,第一人脸图像可为彩色图像。身份信息可为身份证信息。预存人脸图像可从权威征信源获取得到,该预存人脸图像与身份信息相关联。
在一个实施例中,服务器从权威征信源获取并存储预存人脸图像与身份信息之间的映射关系,服务器将彩色图像与预存人脸图像进行匹配识别,当彩色图像与预存人脸图像匹配识别成功时,获取预存人脸图像对应的身份信息,获取该身份信息相关联的用户标识,将相关联的用户标识作为目标用户的用户标识。在另一个实施例中,服务器从权威征信源获取并存储预存人脸图像与身份信息之间的映射关系,服务器将预存人脸图像与身份信息之间的映射关系下发至快递柜,快递柜将彩色图像与预存人脸图像进行匹配识别,当彩色图像与预存人脸图像匹配识别成功时,获取预存人脸图像对应的身份信息,获取该身份信息相关联的用户标识,将相关联的用户标识作为目标用户的用户标识。
上述快递柜的控制方法,将彩色图像与预存人脸图像进行匹配识别,当彩色图像与预存人脸图像匹配识别成功时,获取预存人脸图像对应的身份信息,获取身份信息相关联的用户标识,将相关联的用户标识作为目标用户的用户标识,避免了扫码登录、输入取件码等繁琐的登录流程。
在一个实施例中,如图3所示,根据订单信息控制快递柜开启对应的柜门之前,还包括:
步骤302,根据订单信息获取订单支付信息。
其中,订单支付信息用于表征该订单信息对应的费用。
在一个实施例中,当根据订单信息获取到订单支付信息时,可输出支付选择界面,以使目标用户选择支付方式。
步骤304,根据订单支付信息获取目标用户的第二人脸图像。
其中,第二人脸图像是当目标用户针对订单支付信息进行支付时,快递柜的摄像头拍摄到的图像。
在一个实施例中,当目标用户基于支付选择界面选择刷脸支付时,通过快递柜的摄像头获取目标用户的第二人脸图像,以通过第二人脸图像实现支付。比如,可在快递柜接入微信人脸硬件开放平台,使该快递柜可实现刷脸支付功能。
步骤306,对第二人脸图像进行特征提取,生成与第二人脸图像对应的目标特征码。
其中,目标特征码是根据第二人脸图像得到的唯一确定的图形码。
可选地,第二人脸图像与第一人脸图像也可为同一图像,即直接对第一人脸图像进行特征提取,生成与第一人脸图像对应的目标特征码。
在一个实施例中,当获取到第二人脸图像时,可将第二人脸图像发送至服务器,以使服务器检测第二人脸图像的质量,当第二人脸图像的质量满足预设的质量标准,则对第二人脸图像进行特征提取,生成第二人脸图像对应的特征码。
步骤308,获取与目标特征码绑定的至少一个支付账户,并根据订单支付信息对至少一个支付账户中的目标支付账户进行数值转移操作。
在一个实施例中,在获取与目标特征码绑定的至少一个支付账户之前,可判断已注册的特征码集合中是否存在与该目标特征码相匹配的预存特征码,若否,则将该目标特征码添加到已注册的特征码集合中,并输出支付账号绑定提示信息,该支付账号绑定提示信息包括与用户关联的支付账户。可根据用户针对与用户关联的支付账户的选择操作,从与用户关联的支付账户中确定至少一个支付账户,并将该支付账户与目标特征码绑定。该已注册的特征码集合可存储在服务器中。
在一个实施例中,可通过计算目标特征码与已注册的特征码集合中各个预存特征码的相似度,来确定与目标特征码相匹配的预存特征码。具体地,计算目标特征码与已注册的特征码集合中各个预存特征码的相似度,获取相似度最大的预存特征码,若该相似度大于相似度阈值,则判定该预存特征码与目标特征码相匹配。
在一个实施例中,在对至少一个支付账户中的目标支付账户进行数值转移操作之前,可输出扣款提示信息,扣款提示信息包括订单支付信息和与目标特征码绑定的至少一个支付账户。当接收到扣款提示信息的确认操作时,可根据订单支付信息对至少一个支付账户中的目标支付账户进行扣款操作。通过这种实施方式,目标用户可以自主选择支付账户,提高了选择支付账户的灵活性。
在一个实施例中,在根据订单支付信息对至少一个支付账户中的目标支付账户进行扣款操作时,可以获取与目标特征码绑定的至少一个支付账户中各支付账户的扣款优先级,并从至少一个支付账户中确定出扣款优先级最高的目标支付账户,从而根据订单支付信息对目标支付账户进行扣款操作。在一个实施例中,扣款优先级可以是用户预先设置的;在其他实施例中,扣款优先级可以是根据与用户的目标特征码绑定的至少一个支付账户中各支付账户的历史使用频率确定的,历史使用频率越高,则对应的扣款优先级越高。通过这种实施方式,可以根据目标用户使用支付账户的习惯确定支付账户扣款优先级,提升了用户体验。
在一个实施例中,收款终端在根据订单支付信息对至少一个支付账户中的目标支付账户进行扣款操作时,如果扣款优先级最高的目标支付账户中的剩余金额小于订单支付信息的订单信息中的订单金额,则可以根据扣款优先级选取扣款优先级次高的支付账户,并根据订单支付信息对扣款优先级次高的支付账户进行扣款操作。通过这种实施方式,可以降低由于一个支付账户中的剩余金额不足而导致扣款失败的可能性,提高了扣款的成功率和扣款效率。
在一个实施例中,可在扣款优先级最高的目标支付账户中的剩余金额小于订单支付信息的订单信息中的订单金额时,输出提示信息,提示信息用于提示目标用户是否确认使用扣款优先级次高的支付账户进行扣款,如果接收到针对提示信息确认操作,则根据订单支付信息对扣款优先级次高的支付账户进行扣款操作。
上述快递柜的控制方法,根据订单信息获取订单支付信息,根据订单支付信息获取目标用户的第二人脸图像,对第二人脸图像进行特征提取,生成与第二人脸图像对应的目标特征码,获取与目标特征码绑定的至少一个支付账户,并根据订单支付信息对至少一个支付账户中的目标支付账户进行数值转移操作,通过刷脸支付简化了操作流程,提高了支付效率。
在一个实施例中,根据订单支付信息获取目标用户的第二人脸图像之前,还包括:检测订单支付信息的状态标识;当订单支付信息的状态标识为待付标识时,执行根据订单支付信息获取目标用户的第二人脸图像的步骤。
其中,订单支付信息的状态标识用于表征订单支付信息的支付状态。比如,待付标识用于表征订单支付信息未支付,支付标识用于表征订单支付信息已支付。
具体地,订单支付信息与订单信息的寄付方式有关,当为寄件的订单信息,且寄付方式为寄件方付款时,需要寄件的目标用户进行支付,当为取件的订单信息,且寄付方式为收件方付款时,需要取件的目标用户进行支付。检测订单支付信息的状态标识,当订单支付信息的状态标识为待付标识时,根据订单支付信息获取目标用户的第二人脸图像,以实现刷脸支付。
上述快递柜的控制方法,检测订单支付信息的状态标识,当订单支付信息的状态标识为待付标识时,执行根据订单支付信息获取目标用户的第二人脸图像的步骤,灵活根据订单支付信息的状态标识进行操作。
在一个实施例中,目标用户的订单信息的生成方式,包括:当检测到目标用户的用户标识发起的订单生成请求时,获取并核验目标用户的身份信息;当目标用户的身份信息核验通过时,生成订单生成请求对应的订单信息。
其中,订单生成请求用于请求生成订单信息。目标用户可通过快递柜的微信小程序、快递柜的微信API(Application Programming Interface,应用程序接口)网页、快递柜的客户端APP(Application,应用程序)等发起订单生成请求。
在一个实施例中,当检测到目标用户的用户标识发起的订单生成请求时,获取并核验目标用户的身份证信息,当目标用户的身份证信息核验通过时,生成订单生成请求对应的订单信息,并从权威征信源获取得到预存人脸图像,该预存人脸图像与身份信息相关联,该预存人脸图像用于与第一人脸图像进行识别匹配。
在一个实施例中,当目标用户首次下单时,对目标用户的身份信息进行核验。在另一个实施例中,当目标用户每次下单时,对目标用户的身份信息进行核验。
上述快递柜的控制方法,当检测到目标用户的用户标识发起的订单生成请求时,获取并核验目标用户的身份信息,当目标用户的身份信息核验通过时,即生成订单生成请求对应的订单信息,当用户通过移动终端生成订单信息时,无需用户自主上传照片等操作,简化了操作流程。
在一个实施例中,获取并核验目标用户的身份信息之前,还包括:获取目标用户的第三人脸图像,根据第三人脸图像判断目标用户是否为活体;当判定目标用户为活体时,执行获取并核验目标用户的身份信息的步骤。
其中,第三人脸图像是当目标用户通过移动终端下单时,移动终端的摄像头拍摄到的图像。第三人脸图像可为彩色图像和/或深度图像。如前,可选地,可调用第一神经网络对彩色图像进行处理得到第一处理结果,调用第二神经网络对深度图像进行处理得到第二处理结果,根据第一处理结果和第二处理结果确定目标用户是否为活体。可选地,可通过检测目标用户在第三人脸图像中的约束框进行形状变化的捕捉,来判断目标用户是否为活体,由于攻击者的假体攻击行为将导致约束框所发生的形状变化异常,故而当约束框存在异常形变时,便可判定目标用户不是活体。可选地,可将深度图像输入训练好的活体识别模型中,经过训练好的活体识别模型中卷积层、池化层和全连接层的处理,得到训练好的活体识别模型中分类器输出的活体信息,活体信息用于表征深度图像对应的目标用户是否为活体。
在一个实施例中,移动终端采集目标用户的第三人脸图像,根据第三人脸图像判断目标用户是否为活体。在另一个实施例中,移动终端采集目标用户的第三人脸图像,将第三人脸图像发送至服务器,以供服务器根据第三人脸图像判断目标用户是否为活体。
上述快递柜的控制方法,获取目标用户的第三人脸图像,根据第三人脸图像判断目标用户是否为活体,当判定目标用户为活体时,执行获取并核验目标用户的身份信息的步骤,对目标用户进行活体检测,提高了寄件、取件的安全性,并且,无需目标用户执行交互动作来进行活体检测,更为简单高效,降低了交互成本。
在一个具体的实施例中,提供了一种快递柜的控制方法,方法包括:
获取目标用户的第一人脸图像;
接着,根据第一人脸图像判断目标用户是否为活体;
进一步地,当判定目标用户为活体时,根据第一人脸图像确定目标用户的身份信息,获取身份信息相关联的用户标识,根据用户标识确定目标用户的订单信息;
接着,根据订单信息获取订单支付信息,根据订单支付信息获取目标用户的第二人脸图像,对第二人脸图像进行特征提取,生成与第二人脸图像对应的目标特征码;
进一步地,获取与目标特征码绑定的至少一个支付账户,并根据订单支付信息对至少一个支付账户中的目标支付账户进行数值转移操作;
接着,根据订单信息控制快递柜开启对应的柜门。
以寄件为例,如图4所示,目标用户可通过快递柜的微信小程序、快递柜的微信API(Application Programming Interface,应用程序接口)网页、快递柜的客户端APP(Application,应用程序)等发起订单生成请求。当服务器检测到目标用户的用户标识发起的订单生成请求时,获取并核验目标用户的身份证信息,当目标用户的身份证信息核验通过时,生成订单生成请求对应的订单信息,并从权威征信源获取得到预存人脸图像,该预存人脸图像与身份信息相关联,该预存人脸图像用于与第一人脸图像进行识别匹配。这样,无需用户自主上传照片等操作,并且,无需目标用户执行交互动作来进行活体检测,更为简单高效,降低了交互成本,简化了操作流程。
如图5所示,当目标用户寄件或者取件时,获取目标用户的第一人脸图像,根据第一人脸图像判断目标用户是否为活体,当判定目标用户为活体时,根据第一人脸图像确定目标用户的身份信息,获取身份信息相关联的用户标识,根据用户标识确定目标用户的订单信息,根据订单信息获取订单支付信息,根据订单支付信息获取目标用户的第二人脸图像,对第二人脸图像进行特征提取,生成与第二人脸图像对应的目标特征码,以实现刷脸支付。这样,只需刷脸就可以完成寄件流程。
上述快递柜的控制方法,通过目标用户的人脸图像即可识别得到用户的订单信息,使得用户进行寄件或者取件操作,避免了扫码登录、输入取件码等繁琐的操作流程;用户只需刷脸就可以完成寄件、取件流程,提高了用户体验;对目标用户进行活体检测,提高了寄件、取件的安全性,并且无需目标用户执行交互动作来进行活体检测,更为简单高效,降低了交互成本。
在一个具体的实施例中,提供了一种快递柜的控制方法,方法包括:
获取目标用户的第一人脸图像;
接着,根据第一人脸图像判断目标用户是否为活体;
进一步地,当判定目标用户为活体时,根据第一人脸图像确定目标用户的身份信息,获取身份信息相关联的微信账号,根据微信账号确定目标用户的订单信息;
接着,根据订单信息获取订单支付信息,根据订单支付信息获取目标用户的第二人脸图像,对第二人脸图像进行特征提取,生成与第二人脸图像对应的目标特征码;
进一步地,获取与目标特征码绑定的至少一个支付账户,并根据订单支付信息对至少一个支付账户中的目标支付账户进行数值转移操作;
接着,根据订单信息控制快递柜开启对应的柜门。
具体地,在快递柜接入微信人脸硬件开放平台,使该快递柜可实现刷脸识别功能以及刷脸支付功能,通过调用微信刷脸识别接口,来识别得到目标用户的微信账号;通过调用微信刷脸支付接口,实现刷脸支付。
如图6所示,以寄件为例,目标用户通过移动终端生成订单信息,移动终端将目标用户的身份信息、用户标识等用户信息,以及订单信息上传至服务器。当用户进行寄件操作时,调用微信刷脸识别接口,识别用户的身份信息,得到用户的身份标识,进而得到用户的订单信息。调用微信刷脸支付接口,实现刷脸支付,完成寄件流程。
上述快递柜的控制方法,将微信刷脸识别、微信刷脸支付技术与线下用户利用快递柜寄件、取件的需求结合,提高了包裹流转效率;用户只需刷脸就可以完成寄件、取件流程,提高了用户体验;对目标用户进行活体检测,提高了寄件、取件的安全性,并且无需目标用户执行交互动作来进行活体检测,更为简单高效,降低了交互成本。
图2、图3分别为一个实施例中快递柜的控制方法的流程示意图。应该理解的是,虽然图2、图3的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2、图3中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图7所示,提供了一种快递柜的控制装置,包括:获取模块702、确定模块704和控制模块706。其中,获取模块702,用于获取目标用户的第一人脸图像,根据第一人脸图像判断目标用户是否为活体;确定模块704,用于当判定目标用户为活体时,根据第一人脸图像确定目标用户的用户标识,根据用户标识确定目标用户的订单信息;控制模块706,用于根据订单信息控制快递柜开启对应的柜门。
上述快递柜的控制装置,获取目标用户的第一人脸图像,根据第一人脸图像判断目标用户是否为活体,当判定目标用户为活体时,根据第一人脸图像确定目标用户的用户标识,根据用户标识确定目标用户的订单信息,根据订单信息控制快递柜开启对应的柜门,通过用户的人脸图像即可识别得到用户的订单信息,使得用户进行寄件或者取件操作,避免了扫码登录、输入取件码等繁琐的操作流程;对目标用户进行活体检测,提高了寄件、取件的安全性,并且无需目标用户执行交互动作来进行活体检测,更为简单高效,降低了交互成本。
在一个实施例中,获取模块,具体用于:将深度图像输入训练好的活体识别模型中,经过训练好的活体识别模型中卷积层、池化层和全连接层的处理,得到训练好的活体识别模型中分类器输出的活体信息,活体信息用于表征深度图像对应的目标用户是否为活体,训练好的活体识别模型是根据深度图像样本以及深度图像样本对应的活体信息标签训练得到的,第一人脸图像包括深度图像。
上述快递柜的控制装置,将深度图像输入训练好的活体识别模型中,经过训练好的活体识别模型中卷积层、池化层和全连接层的处理,得到训练好的活体识别模型中分类器输出的活体信息,采用神经网络从第一人脸图像中提取特征进行活体检测,无需人工制定所要提取的图像特征,因此该方案更具鲁棒性,有助于提升活体检测的准确度。
在一个实施例中,确定模块704,具体用于:将彩色图像与预存人脸图像进行匹配识别;当彩色图像与预存人脸图像匹配识别成功时,获取预存人脸图像对应的身份信息;获取身份信息相关联的用户标识,将相关联的用户标识作为目标用户的用户标识,第一人脸图像包括彩色图像。
上述快递柜的控制装置,将彩色图像与预存人脸图像进行匹配识别,当彩色图像与预存人脸图像匹配识别成功时,获取预存人脸图像对应的身份信息,获取身份信息相关联的用户标识,将相关联的用户标识作为目标用户的用户标识,避免了扫码登录、输入取件码等繁琐的登录流程。
在一个实施例中,快递柜的控制装置还包括生成模块,获取模块702,还用于:根据订单信息获取订单支付信息;获取模块702,还用于:根据订单支付信息获取目标用户的第二人脸图像;生成模块,用于:对第二人脸图像进行特征提取,生成与第二人脸图像对应的目标特征码;获取模块702,还用于:获取与目标特征码绑定的至少一个支付账户,并根据订单支付信息对至少一个支付账户中的目标支付账户进行数值转移操作。
上述快递柜的控制装置,根据订单信息获取订单支付信息,根据订单支付信息获取目标用户的第二人脸图像,对第二人脸图像进行特征提取,生成与第二人脸图像对应的目标特征码,获取与目标特征码绑定的至少一个支付账户,并根据订单支付信息对至少一个支付账户中的目标支付账户进行数值转移操作,通过刷脸支付简化了操作流程,提高了支付效率。
在一个实施例中,快递柜的控制装置还包括检测模块,检测模块,用于:检测订单支付信息的状态标识;执行模块,还用于:当订单支付信息的状态标识为待付标识时,执行根据订单支付信息获取目标用户的第二人脸图像的步骤。
上述快递柜的控制装置,检测订单支付信息的状态标识,当订单支付信息的状态标识为待付标识时,执行根据订单支付信息获取目标用户的第二人脸图像的步骤,灵活根据订单支付信息的状态标识进行操作。
在一个实施例中,获取模块702,还用于:当检测到目标用户的用户标识发起的订单生成请求时,获取并核验目标用户的身份信息;生成模块,还用于:当目标用户的身份信息核验通过时,生成订单生成请求对应的订单信息。
上述快递柜的控制装置,当检测到目标用户的用户标识发起的订单生成请求时,获取并核验目标用户的身份信息,当目标用户的身份信息核验通过时,即生成订单生成请求对应的订单信息,当用户通过移动终端生成订单信息时,无需用户自主上传照片等操作,简化了操作流程。
在一个实施例中,判断模块,还用于:获取目标用户的第三人脸图像,根据第三人脸图像判断目标用户是否为活体;执行模块,还用于:当判定目标用户为活体时,执行获取并核验目标用户的身份信息的步骤。
上述快递柜的控制装置,获取目标用户的第三人脸图像,根据第三人脸图像判断目标用户是否为活体,当判定目标用户为活体时,执行获取并核验目标用户的身份信息的步骤,对目标用户进行活体检测,提高了寄件、取件的安全性,并且,无需目标用户执行交互动作来进行活体检测,更为简单高效,降低了交互成本。
图8示出了一个实施例中计算机设备的内部结构图。该计算机设备具体可以是图1中的终端102。如图8所示,该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、输入装置、显示屏和摄像头。其中,存储器包括非易失性存储介质和内存储器。该计算机设备的非易失性存储介质存储有操作系统,还可存储有计算机程序,该计算机程序被处理器执行时,可使得处理器实现方法。该内存储器中也可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行方法。计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图8中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,本申请提供的快递柜的控制装置可以实现为一种计算机程序的形式,计算机程序可在如图8所示的计算机设备上运行。计算机设备的存储器中可存储组成该快递柜的控制装置的各个程序模块,比如,图7所示的:获取模块702、确定模块704和控制模块706。各个程序模块构成的计算机程序使得处理器执行本说明书中描述的本申请各个实施例的快递柜的控制方法中的步骤。
例如,图8所示的计算机设备可以通过如图7所示的快递柜的控制装置中的获取模块702执行获取目标用户的第一人脸图像,根据第一人脸图像判断目标用户是否为活体的步骤。计算机设备可通过确定模块704执行当判定目标用户为活体时,根据第一人脸图像确定目标用户的用户标识,根据用户标识确定目标用户的订单信息的步骤。计算机设备还可通过控制模块706执行根据订单信息控制快递柜开启对应的柜门的步骤。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述快递柜的控制方法的步骤。此处快递柜的控制方法的步骤可以是上述各个实施例的快递柜的控制方法中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述快递柜的控制方法的步骤。此处快递柜的控制方法的步骤可以是上述各个实施例的快递柜的控制方法中的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种快递柜的控制方法,包括:
获取目标用户的第一人脸图像,根据所述第一人脸图像判断所述目标用户是否为活体;
当判定所述目标用户为活体时,根据所述第一人脸图像确定所述目标用户的用户标识,根据所述用户标识确定所述目标用户的订单信息;
根据所述订单信息控制快递柜开启对应的柜门。
2.根据权利要求1所述的方法,其特征在于,所述第一人脸图像包括深度图像;
所述根据所述第一人脸图像判断所述目标用户是否为活体,包括:
将所述深度图像输入训练好的活体识别模型中,经过所述训练好的活体识别模型中卷积层、池化层和全连接层的处理,得到所述训练好的活体识别模型中分类器输出的活体信息,所述活体信息用于表征所述深度图像对应的所述目标用户是否为活体,所述训练好的活体识别模型是根据深度图像样本以及所述深度图像样本对应的活体信息标签训练得到的。
3.根据权利要求1所述的方法,其特征在于,所述第一人脸图像包括彩色图像;
所述根据所述第一人脸图像确定所述目标用户的用户标识,包括:
将所述彩色图像与预存人脸图像进行匹配识别;
当所述彩色图像与所述预存人脸图像匹配识别成功时,获取所述预存人脸图像对应的身份信息;
获取所述身份信息相关联的用户标识,将所述相关联的用户标识作为所述目标用户的用户标识。
4.根据权利要求1所述的方法,其特征在于,所述根据所述订单信息控制快递柜开启对应的柜门之前,还包括:
根据所述订单信息获取订单支付信息;
根据所述订单支付信息获取所述目标用户的第二人脸图像;
对所述第二人脸图像进行特征提取,生成与所述第二人脸图像对应的目标特征码;
获取与所述目标特征码绑定的至少一个支付账户,并根据所述订单支付信息对所述至少一个支付账户中的目标支付账户进行数值转移操作。
5.根据权利要求4所述的方法,其特征在于,所述根据所述订单支付信息获取所述目标用户的第二人脸图像之前,还包括:
检测所述订单支付信息的状态标识;
当所述订单支付信息的状态标识为待付标识时,执行所述根据所述订单支付信息获取所述目标用户的第二人脸图像的步骤。
6.根据权利要求1所述的方法,其特征在于,所述目标用户的订单信息的生成方式,包括:
当检测到所述目标用户的用户标识发起的订单生成请求时,获取并核验所述目标用户的身份信息;
当所述目标用户的身份信息核验通过时,生成所述订单生成请求对应的订单信息。
7.根据权利要求6所述的方法,其特征在于,所述获取并核验所述目标用户的身份信息之前,还包括:
获取所述目标用户的第三人脸图像,根据所述第三人脸图像判断所述目标用户是否为活体;
当判定所述目标用户为活体时,执行所述获取并核验所述目标用户的身份信息的步骤。
8.一种快递柜的控制装置,包括:
获取模块,用于获取目标用户的第一人脸图像,根据所述第一人脸图像判断所述目标用户是否为活体;
确定模块,用于当判定所述目标用户为活体时,根据所述第一人脸图像确定所述目标用户的用户标识,根据所述用户标识确定所述目标用户的订单信息;
控制模块,用于根据所述订单信息控制快递柜开启对应的柜门。
9.一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如权利要求1至7中任一项所述方法的步骤。
10.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至7中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010090646.9A CN111275901B (zh) | 2020-02-13 | 2020-02-13 | 快递柜的控制方法、装置、存储介质和计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010090646.9A CN111275901B (zh) | 2020-02-13 | 2020-02-13 | 快递柜的控制方法、装置、存储介质和计算机设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111275901A true CN111275901A (zh) | 2020-06-12 |
CN111275901B CN111275901B (zh) | 2022-04-12 |
Family
ID=71002161
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010090646.9A Active CN111275901B (zh) | 2020-02-13 | 2020-02-13 | 快递柜的控制方法、装置、存储介质和计算机设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111275901B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113408494A (zh) * | 2021-07-29 | 2021-09-17 | 上海蜜罐科技有限公司 | 自助式寄件柜寄件人身份识别系统及方法 |
CN114023007A (zh) * | 2020-07-17 | 2022-02-08 | 中移物联网有限公司 | 开锁控制方法、信息平台和快递箱 |
CN114670189A (zh) * | 2020-12-24 | 2022-06-28 | 精工爱普生株式会社 | 存储介质、以及生成机器人的控制程序的方法及系统 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010146320A (ja) * | 2008-12-19 | 2010-07-01 | Yamaha Motor Co Ltd | 自動販売機 |
CN107967458A (zh) * | 2017-12-06 | 2018-04-27 | 宁波亿拍客网络科技有限公司 | 一种人脸识别方法 |
CN108230574A (zh) * | 2017-12-20 | 2018-06-29 | 阿里巴巴集团控股有限公司 | 储物终端取件方法及装置和电子设备 |
CN108416940A (zh) * | 2018-03-07 | 2018-08-17 | 深圳万发创新进出口贸易有限公司 | 一种储物柜管理装置 |
CN108447190A (zh) * | 2018-03-06 | 2018-08-24 | 中国邮政集团公司广州市分公司 | 一种人脸识别快速取件智能柜 |
CN109034102A (zh) * | 2018-08-14 | 2018-12-18 | 腾讯科技(深圳)有限公司 | 人脸活体检测方法、装置、设备及存储介质 |
CN109409895A (zh) * | 2018-09-29 | 2019-03-01 | 深圳先牛信息技术有限公司 | 一种融合虹膜识别和人脸识别的支付装置及支付方法 |
CN109447742A (zh) * | 2018-10-16 | 2019-03-08 | 广东工业大学 | 一种订单处理方法及相关装置 |
CN109637040A (zh) * | 2018-12-28 | 2019-04-16 | 深圳市丰巢科技有限公司 | 一种快递柜取件方法、装置、快递柜及存储介质 |
CN109887187A (zh) * | 2019-03-04 | 2019-06-14 | 深圳市丰巢科技有限公司 | 一种取件处理方法、装置、设备及存储介质 |
CN110415463A (zh) * | 2019-07-25 | 2019-11-05 | 腾讯科技(深圳)有限公司 | 一种支付方法及终端 |
-
2020
- 2020-02-13 CN CN202010090646.9A patent/CN111275901B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010146320A (ja) * | 2008-12-19 | 2010-07-01 | Yamaha Motor Co Ltd | 自動販売機 |
CN107967458A (zh) * | 2017-12-06 | 2018-04-27 | 宁波亿拍客网络科技有限公司 | 一种人脸识别方法 |
CN108230574A (zh) * | 2017-12-20 | 2018-06-29 | 阿里巴巴集团控股有限公司 | 储物终端取件方法及装置和电子设备 |
CN108447190A (zh) * | 2018-03-06 | 2018-08-24 | 中国邮政集团公司广州市分公司 | 一种人脸识别快速取件智能柜 |
CN108416940A (zh) * | 2018-03-07 | 2018-08-17 | 深圳万发创新进出口贸易有限公司 | 一种储物柜管理装置 |
CN109034102A (zh) * | 2018-08-14 | 2018-12-18 | 腾讯科技(深圳)有限公司 | 人脸活体检测方法、装置、设备及存储介质 |
CN109409895A (zh) * | 2018-09-29 | 2019-03-01 | 深圳先牛信息技术有限公司 | 一种融合虹膜识别和人脸识别的支付装置及支付方法 |
CN109447742A (zh) * | 2018-10-16 | 2019-03-08 | 广东工业大学 | 一种订单处理方法及相关装置 |
CN109637040A (zh) * | 2018-12-28 | 2019-04-16 | 深圳市丰巢科技有限公司 | 一种快递柜取件方法、装置、快递柜及存储介质 |
CN109887187A (zh) * | 2019-03-04 | 2019-06-14 | 深圳市丰巢科技有限公司 | 一种取件处理方法、装置、设备及存储介质 |
CN110415463A (zh) * | 2019-07-25 | 2019-11-05 | 腾讯科技(深圳)有限公司 | 一种支付方法及终端 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114023007A (zh) * | 2020-07-17 | 2022-02-08 | 中移物联网有限公司 | 开锁控制方法、信息平台和快递箱 |
CN114670189A (zh) * | 2020-12-24 | 2022-06-28 | 精工爱普生株式会社 | 存储介质、以及生成机器人的控制程序的方法及系统 |
CN114670189B (zh) * | 2020-12-24 | 2024-01-12 | 精工爱普生株式会社 | 存储介质、以及生成机器人的控制程序的方法及系统 |
CN113408494A (zh) * | 2021-07-29 | 2021-09-17 | 上海蜜罐科技有限公司 | 自助式寄件柜寄件人身份识别系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111275901B (zh) | 2022-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108009528B (zh) | 基于Triplet Loss的人脸认证方法、装置、计算机设备和存储介质 | |
CN111275901B (zh) | 快递柜的控制方法、装置、存储介质和计算机设备 | |
CN105681316B (zh) | 身份验证方法和装置 | |
CN104537389B (zh) | 人脸识别方法和装置 | |
CN110751025A (zh) | 基于人脸识别的业务办理方法、装置、设备及介质 | |
CN107103218B (zh) | 一种业务实现方法和装置 | |
CN105989263A (zh) | 身份认证方法、开户方法、装置及系统 | |
CN109886697A (zh) | 基于表情组别的操作确定方法、装置及电子设备 | |
CN109326058A (zh) | 基于智慧柜员机的身份核查方法、装置、终端及可读介质 | |
CN109756458B (zh) | 身份认证方法和系统 | |
CN109903474A (zh) | 一种基于人脸识别的智能开柜方法及装置 | |
CN110688878B (zh) | 活体识别检测方法、装置、介质及电子设备 | |
CN110795714A (zh) | 一种身份验证方法、装置、计算机设备及存储介质 | |
CN106303599A (zh) | 一种信息处理方法、系统及服务器 | |
CN110532988A (zh) | 行为监控方法、装置、计算机设备和可读存储介质 | |
CN109446772A (zh) | 授信额度计算方法、装置、计算机设备和存储介质 | |
CN108446687A (zh) | 一种基于移动端和后台互联的自适应人脸视觉认证方法 | |
CN113642639B (zh) | 活体检测方法、装置、设备和存储介质 | |
CN110689644A (zh) | 业务办理管理系统、方法、服务器和闸机 | |
CN115240262A (zh) | 基于端侧协同人脸识别方法、系统、计算机设备及介质 | |
CN110942067A (zh) | 文本识别方法、装置、计算机设备和存储介质 | |
CN115019364A (zh) | 基于人脸识别的身份认证方法、装置、电子设备及介质 | |
CN110807630B (zh) | 基于人脸识别的支付方法、装置、计算机设备和存储介质 | |
CN110288483B (zh) | 账号开通方法、装置、设备及计算机可读存储介质 | |
WO2020232889A1 (zh) | 支票取现方法、装置、设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40023568 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |