CN114863517A - 一种面部识别中的风险控制方法、装置以及设备 - Google Patents
一种面部识别中的风险控制方法、装置以及设备 Download PDFInfo
- Publication number
- CN114863517A CN114863517A CN202210427771.3A CN202210427771A CN114863517A CN 114863517 A CN114863517 A CN 114863517A CN 202210427771 A CN202210427771 A CN 202210427771A CN 114863517 A CN114863517 A CN 114863517A
- Authority
- CN
- China
- Prior art keywords
- equipment
- internet
- combination
- decision
- modal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000012954 risk control Methods 0.000 title claims abstract description 23
- 239000013598 vector Substances 0.000 claims abstract description 60
- 230000001815 facial effect Effects 0.000 claims abstract description 20
- 230000003044 adaptive effect Effects 0.000 claims abstract description 17
- 238000009826 distribution Methods 0.000 claims abstract description 16
- 238000012549 training Methods 0.000 claims description 39
- 230000006870 function Effects 0.000 claims description 27
- 238000003062 neural network model Methods 0.000 claims description 26
- 230000007613 environmental effect Effects 0.000 claims description 17
- 238000011156 evaluation Methods 0.000 claims description 8
- 230000004927 fusion Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 18
- 238000003860 storage Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 10
- 238000001514 detection method Methods 0.000 description 9
- 230000006872 improvement Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 238000001727 in vivo Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Evolutionary Computation (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Databases & Information Systems (AREA)
- Signal Processing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本说明书实施例公开了一种面部识别中的风险控制方法、装置以及设备。通过获取所述物联网设备的设备特征向量;根据所述设备特征向量,采用预先训练的自适应分配模型确定所述物联网设备的模态组合和决策逻辑,其中,所述模态组合中包括至少一个单模态活体模型;获取待识别的面部特征所对应的多模态用户数据,所述多模态数据包括多类单模态数据;将所述单模态数据分别输入到对应的所述单模态活体模型中,生成识别结果的组合;根据所述决策逻辑对所述识别结果的组合进行决策,生成目标识别结果。从而实现基于物联网设备的实际特征情形,自适应的确定所需要采用的模态组合和决策逻辑。
Description
技术领域
本说明书涉及互联网技术领域,尤其涉及基于一种面部识别中的风险控制方法、装置以及设备。
背景技术
面部识别技术在支付、交通、考勤等领域都得到了广泛应用。在给人们的生产生活带来了方便的同时,人脸识别系统的活体攻击风险也被放大。
对于搭载了面部识别功能的物联网(Internet of Things,IoT)设备而言,可以采用的识别算法有很多,但是目前的IoT设备采取的活体防攻击的算法中,往往忽视设备本身的实际情况,难以在效率和安全上兼顾
基于此,需要一种灵活适配物联网设备的风险控制方案。
发明内容
本说明书一个或多个实施例提供一种面部识别中的风险控制方法、装置、设备以及存储介质,用以解决如下技术问题:需要一种灵活适配物联网设备的风险控制方案。
为解决上述技术问题,本说明书一个或多个实施例是这样实现的:
在第一方面,本说明书实施例提供一种面部识别中的风险控制方法,应用于物联网设备中,包括:
获取所述物联网设备的设备特征向量;
根据所述设备特征向量,采用预先训练的自适应分配模型确定所述物联网设备的模态组合和决策逻辑,其中,所述模态组合中包括至少一个单模态活体模型;
获取待识别的面部特征所对应的多模态用户数据,所述多模态数据包括多类单模态数据;
将所述单模态数据分别输入到对应的所述单模态活体模型中,生成识别结果的组合;
根据所述决策逻辑对所述识别结果的组合进行决策,生成目标识别结果。
在第二方面,本说明书实施例提供一种面部识别中的风险控制装置,应用于物联网设备中,包括:特征获取模块,获取所述物联网设备的设备特征向量;确定模块,根据所述设备特征向量,采用预先训练的自适应分配模型确定所述物联网设备的模态组合和决策逻辑,其中,所述模态组合中包括至少一个单模态活体模型;用户数据获取模块,获取待识别的面部特征所对应的多模态用户数据,所述多模态数据包括多类单模态数据;生成模块,将所述单模态数据分别输入到对应的所述单模态活体模型中,生成识别结果的组合;决策模块,根据所述决策逻辑对所述识别结果的组合进行决策,生成目标识别结果。
在第三方面,本说明书实施例提供的一种电子设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如第一方面所述的方法
在第四方面,本说明书实施例提供一种非易失性计算机存储介质存储有计算机可执行指令,当计算机读取存储介质中的计算机可执行指令后,该指令使得一个或多个处理器执行如第一方面所述的方法。
本说明书一个或多个实施例采用的上述至少一个技术方案能够达到以下有益效果:通过获取所述物联网设备的设备特征向量;根据所述设备特征向量,采用预先训练的自适应分配模型确定所述物联网设备的模态组合和决策逻辑,其中,所述模态组合中包括至少一个单模态活体模型;获取待识别的面部特征所对应的多模态用户数据,所述多模态数据包括多类单模态数据;将所述单模态数据分别输入到对应的所述单模态活体模型中,生成识别结果的组合;根据所述决策逻辑对所述识别结果的组合进行决策,生成目标识别结果。从而实现基于物联网设备的实际特征情形,自适应的确定所需要采用的模态组合和决策逻辑,使得得到的模态组合可以灵活适配物联网设备的安全和效率的要求,在面部识别中保障用户的体验。
附图说明
为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本说明书实施例提供的一种面部识别中的风险控制方法的流程示意图;
图2a为本说明书实施例所提供的一种并联决策逻辑的示意图;
图2b为本说明书实施例所提供的一种串联决策逻辑的示意图;
图3为本说明书实施例所提供的一种互联网设备进行风险控制的系统框架示意图;
图4为本说明书实施例提供的一种面部识别中的风险控制装置的结构示意图;
图5为本说明书实施例提供的一种电子设备的结构示意图。
具体实施方式
本说明书实施例提供一种面部识别中的风险控制方法、装置、设备以及存储介质。
为了使本技术领域的人员更好地理解本说明书中的技术方案,下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本说明书实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
在当前,对于搭载了人脸识别的IoT设备,一般使用多种模态的活体检测算法组合来进行活体防攻击。多种模态的活体检测算法各有特点,例如3D活体检测算法对平面攻击有较好的防护能力,近红外光(Near Infrared,NIR)活体检测算法对于纸张面具等防护能力较好。
但是在实际应用中IoT设备本身存在多样性,而检测算法本身也存在一些缺陷。例如,追求识别的效率设备,往往只开启3D活体,导致对于面具一类的攻击防护能力较弱;追求高安全能力的设备,往往开启所有模态的活体,这样会导致误拦截率过高。换言之,如果对于所有的设备采用统一的检测算法,实际上忽略了设备本身的特性,这将导致风控过程中降低用户体验。基于此,本说明书实施例提供一种能够灵活适配物联网设备的风险控制方案。
在第一方面,如图1所示,图1为本说明书实施例提供的一种面部识别中的风险控制方法的流程示意图,具体包括以下步骤:
S101:获取所述物联网设备的设备特征向量。
物联网设备本身具有个性化的硬件特征和环境特征。例如,硬件特征可以包括诸如中央处理器(Central Processing Unit,CPU)型号,图形处理器(Graphics ProcessingUnit,GPU)型号、主板型号、存储器型号等等;环境特征可以包括物联网设备所处的城市、建筑、经纬度坐标等等。
对于硬件特征和环境特征,可以采用枚举的方式,将各特征进行独热(one-hot)编码。例如,对于各CPU型号可以利用枚举的方式,编码成不同的编号。
进行对于N个硬件特征和环境特征,最终编码得到该设备的N维的初始向量。进而可以基于已经训练成功的图形神经网络模型(Graph convolution Network,GCN)进行嵌入(embedding),生成所述物联网设备的设备特征向量。
例如,某个物联网设备其采用了第一型号的CPU、第二型号的GPU,同时其处于建筑A中。而基于预先约定的编码方式,第一型号的CPU其对应的独热编码为0010,第二型号的GPU其对应的独热编码为0020,建筑A对应的独热编码为1001,那么,该物联网设备的N维的初始向量则可以将前述多种特征的独热编码合并而得到,如形式可能是“001000201001”。
需要说明的是,已经训练成功的图形神经网络模型可以是处于服务端中,也可以是被存储与所述物联网设备中。
当图形神经网络模型处于服务端中时,物联网设备可以将自身的硬件特征以及环境特征上传至服务端,服务端也可以从其它方式获取各物联网设备的环境特征(例如,从存储了坐标和建筑对应关系的兴趣点数据库中获取),从而可以根据所述硬件特征和环境特征,在服务端生成物联网设备的设备特征向量,并将所述设备特征向量其发送至物联网设备进行存储。
此外,物联网设备上传特征时,可以是定期的上传(例如,每隔一周上传一次),从而可以保持设备特征的准确性时,还可以降低服务端的负载压力。
当图形神经网络模型处于物联网设备本地时,服务端可以对图形神经网络模型进行训练以及更新,并将更新后的图形神经网络模型及时推送至各物联网设备,从而物联网设备可以在本地基于自身的硬件特征和环境特征计算得到所述物联网设备的设备特征向量。
S103,根据所述设备特征向量,采用预先训练的自适应分配模型确定所述物联网设备的模态组合和决策逻辑,其中,所述模态组合中包括至少一个单模态活体模型。
预先训练的自适应分配模型用于确定物联网设备所应当采用的模态组合和决策逻辑。类似前述,所述自适应分配模型同样可以是处于服务端中,也可以是被存储与所述物联网设备中。
自适应分配模型为预先训练得到的模型,通过输入物联网设备的设备评估指标和设备特征向量,即可以自动输出物联网设备所应当采用的模态组合和决策逻辑。物联网设备的设备评估指标包括预先设定的安全等级、体验等级等等;物联网设备的设备特征向量即为前述步骤中所得到。模态组合是多类不同的检测模型的组合,其中包括多个以前训练好的单模态活体模型,以及,多种单模态活体模型的组合。通常而言,当单模态活体模型的数量为N时,模态组合中即包括2^N-1类的检测模型的组合。N为大于1的自然数。
多个单模态活体模型指的是所需要的用户数据在模态上是各自独立而没有重叠部分的多个模型。例如,单模态活体模型1采用了用户数据中的模态1的数据,则其它单模态活体模型就不会使用模态1的数据。
例如,在活体检测算法中,若提前训练好的单模态活体模型的数量N=3,具体为RGB活体模型、NIR活体模型和3D活体模型。从而检测模型的组合可以包括7种模态组合,分别为{RGB,NIR,3D,RGB+NIR,RGB+3D,NIR+3D,RGB+NIR+3D}。
需要说明是,对于任意的物联网设备而言,其最终被确定所采用的模态组合则是该集合中的一种。例如,物联网设备所采用的模态组合最终可能被确定为RGB活体模型或者RGB+NIR+3D模型。
决策逻辑是指预先定义的对于模态组合所产生的结果的决策方式。由于模态组合中可能包含M个单模态活体模型(1≤M≤N),则对应的会产生M个识别结果。决策逻辑则基于M个识别结果和预先定义的方式最终生成一个结果。
S105,获取待识别的面部特征所对应的多模态用户数据,所述多模态数据包括多类单模态数据。
用户开始进行面部识别之后,物联网设备即可以开始进行图像采集,检测到用户人脸后,将图像保存并生成多模态用户数据。具体而言,多模态的用户数据同样可以视为多类单模态数据。续前例而言,当单模态活体模型的数量为N时,则多模态数据中包括N类单模态数据。
例如,当单模态活体模型为RGB活体模型、NIR活体模型和3D活体模型;则获取得到的多模态用户数据中同样包括用户的RGB图像、NIR图像和3D图像。
S107,将所述单模态数据分别输入到对应的所述单模态活体模型中,生成识别结果的组合。
例如,若模态组合所确定的是NIR+3D活体模型,即其中包含的单模态活体模型分别为NIR活体模型和3D活体模型,则将获取得到的用户数据中的NIR图像输入至NIR活体模型中,将用户数据中的3D图像输入至3D活体模型中,从而分别得到NIR活体模型的第一识别结果和3D活体模型的第二识别结果,形成识别结果的组合。
S109,根据所述决策逻辑对所述识别结果的组合进行决策,生成目标识别结果。
如前所述,当识别结果的组合中仅包含一个结果时(即所采用的模态组合中仅包括一个单模态活体模型),则将该结果作为目标识别结果。当识别结果的组合中包含多个识别结果时,即基于所述决策逻辑生成一个目标识别结果。以下示例性的给出几种决策逻辑:
第一种,并联决策,若所述识别结果的组合中包括至少一个为表征活体的结果,则将所述目标识别结果确定为表征活体的结果。例如,对于模态组合所确定的是NIR+3D活体模型而言,若NIR模型识别结果为“活体”,而3D模型识别为“攻击”,则此时将所述目标识别结果确定为表征活体的结果。如图2a所示,图2a为本说明书实施例所提供的一种并联决策逻辑的示意图。通常并联决策在设备较为安全时采用,可以提高识别效率。
第二种,串联决策,若所述识别结果的组合中包括至少一个为表征攻击的结果,则将所述目标识别结果确定为表征攻击的结果。同样以前述示例,若NIR模型识别结果为“活体”,而3D模型识别为“攻击”,则此时将所述目标识别结果确定为表征攻击的结果。如图2b所示,图2b为本说明书实施例所提供的一种串联决策逻辑的示意图。通常串联决策在设备经常被攻击时使用,可以降低用户被盗刷的风险。
第三种,融合决策,融合所述识别结果的组合中所包含的各识别结果所对应的评分,生成目标评分,根据所述目标评分确定目标识别结果。
例如,将评分高于7分的视为活体,而低于7分的视为攻击。若NIR模型识别结果为的评分为8分,而3D模型识别的评分为3分。此时,则可以基于预先的评分融合方式生成目标评分。例如,可以采用加权平均的方式,各独立模态模型的权重可以基于需要预先给定。在默认各模态的权重相同的情形下,则该次的目标评分为5.5分,从而可以将所述目标识别结果确定为表征攻击的结果。
通过获取所述物联网设备的设备特征向量;根据所述设备特征向量,采用预先训练的自适应分配模型确定所述物联网设备的模态组合和决策逻辑,其中,所述模态组合中包括至少一个单模态活体模型;获取待识别的面部特征所对应的多模态用户数据,所述多模态数据包括多类单模态数据;将所述单模态数据分别输入到对应的所述单模态活体模型中,生成识别结果的组合;根据所述决策逻辑对所述识别结果的组合进行决策,生成目标识别结果。从而实现基于物联网设备的实际特征情形,自适应的确定所需要采用的模态组合和决策逻辑,使得得到的模态组合可以灵活适配物联网设备的安全和效率的要求,在面部识别中保障用户的体验。
如图3所示,图3为本说明书实施例所提供的一种互联网设备进行风险控制的系统框架示意图。其首先基于图形神经网络模型GCN进行设备特征向量的计算,并且基于自适应分配模型确定模态组合和决策逻辑,最后则基于决策逻辑进行风险决策。
在一种实施例中,本说明书实施例中的图形神经网络模型可以基于如下方式预先训练生成:构建包括多个互相连接节点的初始图形网络模型,其中,所述节点与物联网设备一一对应;针对任一节点,获取与该节点距离小于预设范围的三个邻居节点的自注意力特征;根据所述自注意力特征生成该节点所对应的预测节点;确定所述预测节点和该节点中的设备特征和安全特征的损失值,根据所述损失值对所述初始图形网络模型进行训练,生成所述预先训练的图形神经网络模型。
具体而言,图的每一个节点为一个IoT设备,节点之间如果地理距离小于一定距离(例如500m),则进行连接,否则没有连接。
对于图中的任意一个节点而言,其预测节点(或者可以称为信息传输节点)的输入为,与该节点距离小于预设范围的三个邻居节点的自注意力特征。
自注意力特征的生成方式可以是对于邻居节点所对应的嵌入向量分别进行卷积,并给出不同的权重进行拼接,从而得到3倍于设备特征向量长度的中间向量;把中间向量通过全连接层进行降维之后则可以得到与设备特征向量长度相同的另一向量,进而将所述另一向量与该节点的设备特征向量相加,从而生成自注意力特征。
再将自注意力特征通过全连接层进行识别,即可以得到预测节点。在图形神经网络模型的训练过程中,训练样本本身即包含有设备特征和安全特征(例如通过安全系数表征,安全系数为设备收到攻击的次数,次数越高,安全系数越大),因此,预测节点同样包含有设备特征和安全特征。
在本说明书实施例中,损失函数可以分别采用与设备特征和安全特征的欧式距离来计算,即预测节点的特征向量和训练样板的特征向量之间的欧式距离作为损失值。基于上述的初始图形网络模型和损失函数进行训练,直至模型收敛即可得到预先训练的图形神经网络模型。从而对于任意给定设备特征和安全特征的物联网设备,都可以基于该预先训练的图形神经网络模型得到对应的设备特征向量。
在一种实施例中,对于所述预先训练的自适应分配模型可以采用如下方式预先训练得到:构建包括多层感知机的初始模型;获取包括特征和标签的训练样本,其中,所述训练样本的特征包括物联网设备的设备评估指标和设备特征向量,所述训练样本的特征包括模态组合标签和决策逻辑标签;采用所述训练样本对所述初始模型训练,生成所述的预先训练的自适应分配模型。
具体而言,构建的初始模型可以包括多层感知机(Multilayer Perceptron,MLP),并最终同时输出两个分类结果,第一类为模态组合结果,第二类为决策逻辑结果。对应的,损失函数也同样包括两类,即所述初始模型的损失函数包括用于计算所述模态组合结果的第一分类损失函数和用于计算所述决策逻辑结果的第二分类损失函数。
模型的训练样本为人为根据经验定义的输入输出之间的成对数据,具体而言即为所述训练样本的特征包括物联网设备的设备评估指标(包括安全等级、体验等级等等)和设备特征向量,所述训练样本的特征包括模态组合标签和决策逻辑标签。例如,输入数据为(安全等级、体验等级、设备特征向量),其中,所述设备特征向量基于所述预先训练的图形神经网络模型根据所述物联网设备的硬件特征和环境特征生成。
从而基于前述的悬链样本、初始模型和损失函数进行模型训练,直至模型收敛;生成所述的预先训练的自适应分配模型。
训练生成的自适应分配模型对于任意给定设备评估指标和设备特征向量的物联网设备,都可以给出对应的模态组合和决策逻辑。从而实现设备自适应的风险决策。
基于同样的思路,本说明书实施例还提供了上述方法对应的装置和设备。
在第二方面,如图4所示,图4为本说明书实施例提供的一种面部识别中的风险控制装置的结构示意图,应用于物联网设备中,所述装置包括:
特征获取模块401,获取所述物联网设备的设备特征向量;
确定模块403,根据所述设备特征向量,采用预先训练的自适应分配模型确定所述物联网设备的模态组合和决策逻辑,其中,所述模态组合中包括至少一个单模态活体模型;
用户数据获取模块405,获取待识别的面部特征所对应的多模态用户数据,所述多模态数据包括多类单模态数据;
生成模块407,将所述单模态数据分别输入到对应的所述单模态活体模型中,生成识别结果的组合;
决策模块409,根据所述决策逻辑对所述识别结果的组合进行决策,生成目标识别结果。
可选地,所述特征获取模块,获取所述物联网设备的硬件特征和环境特征;根据所述硬件特征和环境特征,采用预先训练的图形神经网络模型生成所述物联网设备的设备特征向量。
可选地,所述装置还包括第一训练模块411,构建包括多个互相连接节点的初始图形网络模型,其中,所述节点与物联网设备一一对应;针对任一节点,获取与该节点距离小于预设范围的三个邻居节点的自注意力特征;根据所述自注意力特征生成该节点所对应的预测节点;确定所述预测节点和该节点中的设备特征和安全特征的损失值,根据所述损失值对所述初始图形网络模型进行训练,生成所述预先训练的图形神经网络模型
可选地,所述特征获取模块401,定期将所述硬件特征和环境特征发送至服务端;接收服务端所返回的所述物联网设备的设备特征向量,其中,所述设备特征向量由所述服务端采用预先训练的图形神经网络模型根据所述硬件特征和环境特征生成。
可选地,所述决策逻辑包括并联决策、串联决策或者融合决策;相应的,所述决策模块409,当所述决策逻辑为并联决策时,若所述识别结果的组合中包括至少一个为表征活体的结果,则将所述目标识别结果确定为表征活体的结果;当所述决策逻辑为串联决策时,若所述识别结果的组合中包括至少一个为表征攻击的结果,则将所述目标识别结果确定为表征攻击的结果;当所述决策逻辑为融合决策时,融合所述识别结果的组合中所包含的各识别结果所对应的评分,生成目标评分,根据所述目标评分确定目标识别结果。
可选地,所述装置还包括还包括第二训练模块413,构建包括多层感知机的初始模型,其中,所述初始模型用于输出模态组合结果和决策逻辑结果,所述初始模型的损失函数包括用于计算所述模态组合结果的第一分类损失函数和用于计算所述决策逻辑结果的第二分类损失函数;获取包括特征和标签的训练样本,其中,所述训练样本的特征包括物联网设备的设备评估指标和设备特征向量,所述训练样本的特征包括模态组合标签和决策逻辑标签,其中,所述设备特征向量基于所述预先训练的图形神经网络模型根据所述物联网设备的硬件特征和环境特征生成;采用所述训练样本对所述初始模型训练,生成所述的预先训练的自适应分配模型。
在第三方面,如图5所示,图5为本说明书实施例提供的一种电子设备的结构示意图,所述设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如第一方面所述的方法。
在第四方面,基于同样的思路,本说明书实施例还提供了对应于上述方法的一种非易失性计算机存储介质,存储有计算机可执行指令,当计算机读取存储介质中的计算机可执行指令后,该指令使得一个或多个处理器执行如第一方面所述的方法。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书实施例可提供为方法、系统、或计算机程序产品。因此,本说明书实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置、设备、非易失性计算机存储介质实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
以上所述仅为本说明书的一个或多个实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书的一个或多个实施例可以有各种更改和变化。凡在本说明书的一个或多个实施例的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。
Claims (13)
1.一种面部识别中的风险控制方法,应用于物联网设备中,包括:
获取所述物联网设备的设备特征向量;
根据所述设备特征向量,采用预先训练的自适应分配模型确定所述物联网设备的模态组合和决策逻辑,其中,所述模态组合中包括至少一个单模态活体模型;
获取待识别的面部特征所对应的多模态用户数据,所述多模态数据包括多类单模态数据;
将所述单模态数据分别输入到对应的所述单模态活体模型中,生成识别结果的组合;
根据所述决策逻辑对所述识别结果的组合进行决策,生成目标识别结果。
2.如权利要求1所述的方法,其中,获取所述物联网设备的设备特征向量,包括:
获取所述物联网设备的硬件特征和环境特征;
根据所述硬件特征和环境特征,采用预先训练的图形神经网络模型生成所述物联网设备的设备特征向量。
3.如权利要求2所述的方法,其中,所述预先训练的图形神经网络模型采用如下方式预先训练得到:
构建包括多个互相连接节点的初始图形网络模型,其中,所述节点与物联网设备一一对应;
针对任一节点,获取与该节点距离小于预设范围的三个邻居节点的自注意力特征;
根据所述自注意力特征生成该节点所对应的预测节点;
确定所述预测节点和该节点中的设备特征和安全特征的损失值,
根据所述损失值对所述初始图形网络模型进行训练,生成所述预先训练的图形神经网络模型。
4.如权利要求2所述的方法,其中,根据所述硬件特征和环境特征,采用预先训练的图形神经网络模型生成所述物联网设备的设备特征向量,包括:
定期将所述硬件特征和环境特征发送至服务端;
接收服务端所返回的所述物联网设备的设备特征向量,其中,所述设备特征向量由所述服务端采用预先训练的图形神经网络模型根据所述硬件特征和环境特征生成。
5.如权利要求1所述的方法,其中,所述决策逻辑包括并联决策、串联决策或者融合决策;
相应的,根据所述决策逻辑对所述识别结果的组合进行决策,生成目标识别结果,包括:
当所述决策逻辑为并联决策时,若所述识别结果的组合中包括至少一个为表征活体的结果,则将所述目标识别结果确定为表征活体的结果;
当所述决策逻辑为串联决策时,若所述识别结果的组合中包括至少一个为表征攻击的结果,则将所述目标识别结果确定为表征攻击的结果;
当所述决策逻辑为融合决策时,融合所述识别结果的组合中所包含的各识别结果所对应的评分,生成目标评分,根据所述目标评分确定目标识别结果。
6.如权利要求2所述的方法,其中,所述预先训练的自适应分配模型采用如下方式预先训练得到:
构建包括多层感知机的初始模型,其中,所述初始模型用于输出模态组合结果和决策逻辑结果,所述初始模型的损失函数包括用于计算所述模态组合结果的第一分类损失函数和用于计算所述决策逻辑结果的第二分类损失函数;
获取包括特征和标签的训练样本,其中,所述训练样本的特征包括物联网设备的设备评估指标和设备特征向量,所述训练样本的特征包括模态组合标签和决策逻辑标签,其中,所述设备特征向量基于所述预先训练的图形神经网络模型根据所述物联网设备的硬件特征和环境特征生成;
采用所述训练样本对所述初始模型训练,生成所述的预先训练的自适应分配模型。
7.一种面部识别中的风险控制装置,应用于物联网设备中,包括:
特征获取模块,获取所述物联网设备的设备特征向量;
确定模块,根据所述设备特征向量,采用预先训练的自适应分配模型确定所述物联网设备的模态组合和决策逻辑,其中,所述模态组合中包括至少一个单模态活体模型;
用户数据获取模块,获取待识别的面部特征所对应的多模态用户数据,所述多模态数据包括多类单模态数据;
生成模块,将所述单模态数据分别输入到对应的所述单模态活体模型中,生成识别结果的组合;
决策模块,根据所述决策逻辑对所述识别结果的组合进行决策,生成目标识别结果。
8.如权利要求7所述的装置,所述特征获取模块,获取所述物联网设备的硬件特征和环境特征;根据所述硬件特征和环境特征,采用预先训练的图形神经网络模型生成所述物联网设备的设备特征向量。
9.如权利要求8所述的装置,还包括第一训练模块,构建包括多个互相连接节点的初始图形网络模型,其中,所述节点与物联网设备一一对应;针对任一节点,获取与该节点距离小于预设范围的三个邻居节点的自注意力特征;根据所述自注意力特征生成该节点所对应的预测节点;确定所述预测节点和该节点中的设备特征和安全特征的损失值,根据所述损失值对所述初始图形网络模型进行训练,生成所述预先训练的图形神经网络模型。
10.如权利要求8所述的装置,其中,所述特征获取模块,定期将所述硬件特征和环境特征发送至服务端;接收服务端所返回的所述物联网设备的设备特征向量,其中,所述设备特征向量由所述服务端采用预先训练的图形神经网络模型根据所述硬件特征和环境特征生成。
11.如权利要求8所述的装置,其中,所述决策逻辑包括并联决策、串联决策或者融合决策;相应的,所述决策模块,当所述决策逻辑为并联决策时,若所述识别结果的组合中包括至少一个为表征活体的结果,则将所述目标识别结果确定为表征活体的结果;当所述决策逻辑为串联决策时,若所述识别结果的组合中包括至少一个为表征攻击的结果,则将所述目标识别结果确定为表征攻击的结果;当所述决策逻辑为融合决策时,融合所述识别结果的组合中所包含的各识别结果所对应的评分,生成目标评分,根据所述目标评分确定目标识别结果。
12.如权利要求8所述的装置,还包括第二训练模块,构建包括多层感知机的初始模型,其中,所述初始模型用于输出模态组合结果和决策逻辑结果,所述初始模型的损失函数包括用于计算所述模态组合结果的第一分类损失函数和用于计算所述决策逻辑结果的第二分类损失函数;获取包括特征和标签的训练样本,其中,所述训练样本的特征包括物联网设备的设备评估指标和设备特征向量,所述训练样本的特征包括模态组合标签和决策逻辑标签,其中,所述设备特征向量基于所述预先训练的图形神经网络模型根据所述物联网设备的硬件特征和环境特征生成;采用所述训练样本对所述初始模型训练,生成所述的预先训练的自适应分配模型。
13.一种电子设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至6任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210427771.3A CN114863517B (zh) | 2022-04-22 | 2022-04-22 | 一种面部识别中的风险控制方法、装置以及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210427771.3A CN114863517B (zh) | 2022-04-22 | 2022-04-22 | 一种面部识别中的风险控制方法、装置以及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114863517A true CN114863517A (zh) | 2022-08-05 |
CN114863517B CN114863517B (zh) | 2024-06-07 |
Family
ID=82632766
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210427771.3A Active CN114863517B (zh) | 2022-04-22 | 2022-04-22 | 一种面部识别中的风险控制方法、装置以及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114863517B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115455129A (zh) * | 2022-10-14 | 2022-12-09 | 阿里巴巴(中国)有限公司 | Poi处理方法、装置、电子设备及存储介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160277435A1 (en) * | 2015-03-18 | 2016-09-22 | Qualcomm Incorporated | Methods and Systems for Automated Anonymous Crowdsourcing of Characterized Device Behaviors |
CN110008813A (zh) * | 2019-01-24 | 2019-07-12 | 阿里巴巴集团控股有限公司 | 基于活体检测技术的人脸识别方法和系统 |
CN110458687A (zh) * | 2019-07-05 | 2019-11-15 | 平安银行股份有限公司 | 决策自动审批方法、装置及计算机可读存储介质 |
CN110556129A (zh) * | 2019-09-09 | 2019-12-10 | 北京大学深圳研究生院 | 双模态情感识别模型训练方法及双模态情感识别方法 |
CN110782333A (zh) * | 2019-08-26 | 2020-02-11 | 腾讯科技(深圳)有限公司 | 一种设备风险控制方法、装置、设备及介质 |
CN111368901A (zh) * | 2020-02-28 | 2020-07-03 | 深圳前海微众银行股份有限公司 | 基于联邦学习的多方联合建模方法、设备和介质 |
CN112926367A (zh) * | 2019-12-06 | 2021-06-08 | 杭州海康威视数字技术股份有限公司 | 一种活体检测的设备及方法 |
CN113377899A (zh) * | 2020-03-09 | 2021-09-10 | 华为技术有限公司 | 意图识别方法及电子设备 |
CN113590849A (zh) * | 2021-01-27 | 2021-11-02 | 腾讯科技(深圳)有限公司 | 多媒体资源分类模型训练方法和多媒体资源推荐方法 |
CN114171019A (zh) * | 2021-11-12 | 2022-03-11 | 杭州逗酷软件科技有限公司 | 一种控制方法及装置、存储介质 |
CN114332905A (zh) * | 2020-09-25 | 2022-04-12 | 北京眼神智能科技有限公司 | 生物特征多模态融合识别方法、装置、存储介质及设备 |
-
2022
- 2022-04-22 CN CN202210427771.3A patent/CN114863517B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160277435A1 (en) * | 2015-03-18 | 2016-09-22 | Qualcomm Incorporated | Methods and Systems for Automated Anonymous Crowdsourcing of Characterized Device Behaviors |
CN110008813A (zh) * | 2019-01-24 | 2019-07-12 | 阿里巴巴集团控股有限公司 | 基于活体检测技术的人脸识别方法和系统 |
CN110458687A (zh) * | 2019-07-05 | 2019-11-15 | 平安银行股份有限公司 | 决策自动审批方法、装置及计算机可读存储介质 |
CN110782333A (zh) * | 2019-08-26 | 2020-02-11 | 腾讯科技(深圳)有限公司 | 一种设备风险控制方法、装置、设备及介质 |
CN110556129A (zh) * | 2019-09-09 | 2019-12-10 | 北京大学深圳研究生院 | 双模态情感识别模型训练方法及双模态情感识别方法 |
CN112926367A (zh) * | 2019-12-06 | 2021-06-08 | 杭州海康威视数字技术股份有限公司 | 一种活体检测的设备及方法 |
CN111368901A (zh) * | 2020-02-28 | 2020-07-03 | 深圳前海微众银行股份有限公司 | 基于联邦学习的多方联合建模方法、设备和介质 |
CN113377899A (zh) * | 2020-03-09 | 2021-09-10 | 华为技术有限公司 | 意图识别方法及电子设备 |
CN114332905A (zh) * | 2020-09-25 | 2022-04-12 | 北京眼神智能科技有限公司 | 生物特征多模态融合识别方法、装置、存储介质及设备 |
CN113590849A (zh) * | 2021-01-27 | 2021-11-02 | 腾讯科技(深圳)有限公司 | 多媒体资源分类模型训练方法和多媒体资源推荐方法 |
CN114171019A (zh) * | 2021-11-12 | 2022-03-11 | 杭州逗酷软件科技有限公司 | 一种控制方法及装置、存储介质 |
Non-Patent Citations (1)
Title |
---|
李敬伟;马同伟;: "大数据网络平台的双模态情绪识别方法", 计算机工程与设计, no. 11, 16 November 2017 (2017-11-16) * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115455129A (zh) * | 2022-10-14 | 2022-12-09 | 阿里巴巴(中国)有限公司 | Poi处理方法、装置、电子设备及存储介质 |
CN115455129B (zh) * | 2022-10-14 | 2023-08-25 | 阿里巴巴(中国)有限公司 | Poi处理方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114863517B (zh) | 2024-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111563551B (zh) | 一种多模态信息融合方法、装置及电子设备 | |
CN113240056B (zh) | 多模态数据联合学习模型训练方法及装置 | |
CN110020580B (zh) | 识别对象和面部表情的方法以及训练面部表情的方法 | |
CN112084331B (zh) | 文本处理、模型训练方法、装置、计算机设备和存储介质 | |
US10963738B2 (en) | Method for processing input on basis of neural network learning and apparatus therefor | |
US20200372217A1 (en) | Method and apparatus for processing language based on trained network model | |
KR20200022739A (ko) | 데이터 증강에 기초한 인식 모델 트레이닝 방법 및 장치, 이미지 인식 방법 및 장치 | |
CN111782838A (zh) | 图像问答方法、装置、计算机设备和介质 | |
CN115223020B (zh) | 图像处理方法、装置、设备、存储介质及计算机程序产品 | |
CN112788990A (zh) | 获得情绪信息的电子设备和方法 | |
CN112308113A (zh) | 一种基于半监督的目标识别方法、设备及介质 | |
CN111753878A (zh) | 一种网络模型部署方法、设备及介质 | |
CN114821096A (zh) | 一种图像处理方法、神经网络的训练方法以及相关设备 | |
CN114091594A (zh) | 模型训练方法及装置、设备、存储介质 | |
CN114863517B (zh) | 一种面部识别中的风险控制方法、装置以及设备 | |
CN116151355B (zh) | 一种模型训练和业务执行的方法、装置、介质及设备 | |
CN116308738B (zh) | 一种模型训练的方法、业务风控的方法及装置 | |
CN117612269A (zh) | 一种生物攻击检测方法、装置及设备 | |
KR102072757B1 (ko) | 딥 러닝을 이용한 이종 센서 정보 융합 장치 및 방법 | |
CN115357712A (zh) | 方面级情感分析方法、装置、电子设备及存储介质 | |
KR20230097540A (ko) | 물체 경계 예측 불확실성 및 강조 신경망을 이용한 물체 검출 장치 및 방법 | |
CN113946658A (zh) | 基于ai的人机对话方法、设备以及存储介质 | |
CN114662706B (zh) | 一种模型训练方法、装置及设备 | |
CN117152467B (zh) | 图像识别方法、装置、介质及电子设备 | |
CN113792703B (zh) | 一种基于Co-Attention深度模块化网络的图像问答方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |