CN109753850A - 面部识别模型的训练方法和训练设备 - Google Patents
面部识别模型的训练方法和训练设备 Download PDFInfo
- Publication number
- CN109753850A CN109753850A CN201711070481.3A CN201711070481A CN109753850A CN 109753850 A CN109753850 A CN 109753850A CN 201711070481 A CN201711070481 A CN 201711070481A CN 109753850 A CN109753850 A CN 109753850A
- Authority
- CN
- China
- Prior art keywords
- glasses
- training data
- data
- image
- ratio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种面部识别模型的训练方法和训练设备。该方法包括:去除从实际场景获取的、包含面部的图像组成的第一实际场景数据中的黑眼眶、墨镜,以得到第二实际场景数据;统计第二实际场景数据中戴眼镜的比例;将由包含面部的图像组成的原始训练数据划分为戴眼镜的第一训练数据和不戴眼镜的第二训练数据,其中,原始训练数据中戴眼镜的比例低于第二实际场景数据中戴眼镜的比例;基于眼镜数据和第二训练数据,生成戴眼镜的第三训练数据;基于第三训练数据和原始训练数据,生成其中戴眼镜的比例等于第二实际场景数据中戴眼镜的比例的第四训练数据;以及基于第四训练数据,训练面部识别模型。
Description
技术领域
本发明一般地涉及信息处理技术领域。具体而言,本发明涉及一种能够以符合实际场景的戴眼镜比例的训练数据训练面部识别模型的方法和设备。
背景技术
近年来,随着信息技术的发展,基于人脸识别的系统和应用越来越多。这得益于大量的训练数据和卷积神经网络CNN。然而,对于戴眼镜的人脸图像进行人脸识别存在巨大挑战。主要原因在于缺少戴眼镜的人脸图像用于对人脸识别模型的训练。当前存在开放的人脸数据库,如WebFace和MS-Celeb-1M数据库。但是这些数据库中主要是名人的图像数据,而名人通常很少戴眼镜,因此,这些数据库中戴眼镜的比例低于常规人群中戴眼镜的比例。另外,名人带的眼镜大多数为墨镜,不同于常规人群常带的近视镜。收集大量的戴眼镜的人脸数据显然是耗费人力和资源的。
为了解决上述问题,本发明提出了生成戴眼镜图像的方法,使得训练图像中戴眼镜的比例与实际场景中戴眼镜的比例相符,从而利于训练面部识别模型。
因此,本发明旨在提供一种以符合实际场景的戴眼镜比例的训练数据训练面部识别模型的方法和设备。
发明内容
在下文中给出了关于本发明的简要概述,以便提供关于本发明的某些方面的基本理解。应当理解,这个概述并不是关于本发明的穷举性概述。它并不是意图确定本发明的关键或重要部分,也不是意图限定本发明的范围。其目的仅仅是以简化的形式给出某些概念,以此作为稍后论述的更详细描述的前序。
本发明的目的是提出一种以符合实际场景的戴眼镜比例的训练数据训练面部识别模型的方法和设备。
为了实现上述目的,根据本发明的一个方面,提供了一种面部识别模型的训练方法,该方法包括:去除从实际场景获取的、包含面部的图像组成的第一实际场景数据中的黑眼眶、墨镜,以得到第二实际场景数据;统计第二实际场景数据中戴眼镜的比例;将由包含面部的图像组成的原始训练数据划分为戴眼镜的第一训练数据和不戴眼镜的第二训练数据,其中,原始训练数据中戴眼镜的比例低于第二实际场景数据中戴眼镜的比例;基于眼镜数据和第二训练数据,生成戴眼镜的第三训练数据;基于第三训练数据和原始训练数据,生成其中戴眼镜的比例等于第二实际场景数据中戴眼镜的比例的第四训练数据;以及基于第四训练数据,训练面部识别模型。
根据本发明的另一个方面,提供了一种面部识别模型的训练设备,该设备包括:去除装置,被配置为:去除从实际场景获取的、包含面部的图像组成的第一实际场景数据中的黑眼眶、墨镜,以得到第二实际场景数据;统计装置,被配置为:统计第二实际场景数据中戴眼镜的比例;划分装置,被配置为:将由包含面部的图像组成的原始训练数据划分为戴眼镜的第一训练数据和不戴眼镜的第二训练数据,其中,原始训练数据中戴眼镜的比例低于第二实际场景数据中戴眼镜的比例;加眼镜装置,被配置为:基于眼镜数据和第二训练数据,生成戴眼镜的第三训练数据;比例调整装置,被配置为:基于第三训练数据和原始训练数据,生成其中戴眼镜的比例等于第二实际场景数据中戴眼镜的比例的第四训练数据;以及模型训练装置,被配置为:基于第四训练数据,训练面部识别模型。
另外,根据本发明的另一方面,还提供了一种存储介质。所述存储介质包括机器可读的程序代码,当在信息处理设备上执行所述程序代码时,所述程序代码使得所述信息处理设备执行根据本发明的上述方法。
此外,根据本发明的再一方面,还提供了一种程序产品。所述程序产品包括机器可执行的指令,当在信息处理设备上执行所述指令时,所述指令使得所述信息处理设备执行根据本发明的上述方法。
附图说明
参照下面结合附图对本发明的实施例的说明,会更加容易地理解本发明的以上和其它目的、特点和优点。附图中的部件只是为了示出本发明的原理。在附图中,相同的或类似的技术特征或部件将采用相同或类似的附图标记来表示。附图中:
图1示出了根据本发明的实施例的面部识别模型的训练方法的流程图;
图2示出了将原始训练数据中包含面部的图像按照是否戴眼镜进行划分的方法的流程图;
图3示出了生成戴眼镜的第三训练数据的方法;
图4示出了使得眼睛变小的合并方法;
图5示出了根据本发明的实施例的面部识别模型的训练设备的结构方框图;以及
图6示出了可用于实施根据本发明的实施例的方法和设备的计算机的示意性框图。
具体实施方式
在下文中将结合附图对本发明的示范性实施例进行详细描述。为了清楚和简明起见,在说明书中并未描述实际实施方式的所有特征。然而,应该了解,在开发任何这种实际实施方式的过程中必须做出很多特定于实施方式的决定,以便实现开发人员的具体目标,例如,符合与系统及业务相关的那些限制条件,并且这些限制条件可能会随着实施方式的不同而有所改变。此外,还应该了解,虽然开发工作有可能是非常复杂和费时的,但对得益于本公开内容的本领域技术人员来说,这种开发工作仅仅是例行的任务。
在此,还需要说明的一点是,为了避免因不必要的细节而模糊了本发明,在附图中仅仅示出了与根据本发明的方案密切相关的装置结构和/或处理步骤,而省略了与本发明关系不大的其他细节。另外,还需要指出的是,在本发明的一个附图或一种实施方式中描述的元素和特征可以与一个或更多个其它附图或实施方式中示出的元素和特征相结合。
下面将参照图1描述根据本发明的实施例的面部识别模型的训练方法的流程。
图1示出了根据本发明的实施例的面部识别模型的训练方法的流程图。如图1所示,该方法包括如下步骤:去除从实际场景获取的、包含面部的图像组成的第一实际场景数据中的黑眼眶、墨镜,以得到第二实际场景数据(步骤S1);统计第二实际场景数据中戴眼镜的比例(步骤S2);将由包含面部的图像组成的原始训练数据划分为戴眼镜的第一训练数据和不戴眼镜的第二训练数据,其中,原始训练数据中戴眼镜的比例低于第二实际场景数据中戴眼镜的比例(步骤S3);基于眼镜数据和第二训练数据,生成戴眼镜的第三训练数据(步骤S4);基于第三训练数据和原始训练数据,生成其中戴眼镜的比例等于第二实际场景数据中戴眼镜的比例的第四训练数据(步骤S5);以及基于第四训练数据,训练面部识别模型(步骤S6)。
面部识别模型的训练对于面部模型的识别精度、准确率影响很大。面部识别模型的训练又主要依赖于训练数据。前文提到,现有面部识别模型对于戴眼镜的人脸图像识别困难的主要原因就在于缺少大量的戴眼镜的训练数据。事实上,在不同的实际应用场景中,戴眼镜的比例是不同的。例如,每个公司的打卡机主要应用于特定公司的职员,不同公司的戴眼镜的比例不同,小学校园和大学校园、医院的戴眼镜比例也都不一致。希望针对每个应用的实际场景,生成与实际场景中戴眼镜比例相同的训练数据来训练面部识别模型,从而提高该面部识别模型在该实际场景中识别的准确率。
因此,首先需要获知具体应用的实际场景中戴眼镜的比例。
从具体应用的实际场景获取包含面部的图像,组成第一实际场景数据。
与一般采用的直接判断图像数据是否戴眼镜的方式相比,本发明进行预处理,以提高判断的准确度。
因为黑眼眶和墨镜对判断是否戴眼镜具有较强的干扰作用,所以,在步骤S1中,去除第一实际场景数据中的黑眼眶、墨镜,以得到第二实际场景数据。使用第二实际场景数据进行戴眼镜的判断更为准确。
在步骤S2中,统计第二实际场景数据中戴眼镜的比例。
例如,可采用训练好的分类器或卷积神经网络来判断第二实际场景数据中包含面部的图像是否戴眼镜,并进行统计,以获知第二实际场景数据中戴眼镜的比例,作为具体应用的实际场景中戴眼镜的比例。这是本发明调整戴眼镜比例的目标。分类器或卷积神经网络的训练数据例如是标记了是否戴眼镜的、包含面部的图像构成的标记训练数据。
在步骤S3中,将由包含面部的图像组成的原始训练数据划分为戴眼镜的第一训练数据和不戴眼镜的第二训练数据,其中,原始训练数据中戴眼镜的比例低于第二实际场景数据中戴眼镜的比例。
原始训练数据例如从因特网获取,如前所述,例如从WebFace和MS-Celeb-1M数据库获取,也可以由人工收集。由于原始训练数据中戴眼镜的比例往往低于第二实际场景数据中戴眼镜的比例,所以需要通过增加戴眼镜的图像的数量来将原始训练数据中戴眼镜的比例调整为与第二实际场景数据中戴眼镜的比例相同。
首先要将原始训练数据划分为戴眼镜的第一训练数据和不戴眼镜的第二训练数据,然后通过给第二训练数据加眼镜,增加戴眼镜的数据量。
为了准确地判断原始训练数据中包含面部的图像是否戴眼镜,如图2所示,在步骤S21中,检测原始训练数据中面部的位置。人脸检测是人脸识别的基础,可以采用现有技术来实现步骤S21。
在步骤S22中,将原始训练数据中的面部与标准脸对齐。标准脸是人脸的标准模板,标准脸中的眼睛、嘴角位置固定。通过将步骤S21中检测出的面部与标准脸对齐,可以提高判断是否戴眼镜的准确率。对齐技术是图像处理领域的已有技术。
在步骤S23中,利用训练好的卷积神经网络或分类器(例如是上述步骤S2中使用的卷积神经网络和分类器)判断对齐的原始训练数据中的面部是否戴眼镜,从而将原始训练数据划分为戴眼镜的第一训练数据和不戴眼镜的第二训练数据。
由于已经检测到面部位置并与标准脸对齐,所以原始训练数据中的图像是否戴眼镜的判断准确率较高。
下面需要增加戴眼镜的数据量,增加的基础是不戴眼镜的第二训练数据。
在步骤S4中,基于眼镜数据和第二训练数据,生成戴眼镜的第三训练数据。
眼镜数据是预先准备的数据,包括各种类型的眼镜,如平镜、近视镜、远视镜、墨镜,不同的镜框镜片形状、镜框粗细、镜片颜色等。眼镜数据包括每种类型的眼镜的关键点信息、眼镜图像、镜片信息。关键点信息足以表征眼镜的形状结构,眼镜图像是加眼镜时叠加的内容,镜片信息标识了镜片与镜框的边界。通过分割算法可以将已有眼镜分割为眼镜框和眼镜片,从而获知镜片信息。
如图3所示,生成戴眼镜的第三训练数据的方法包括:从已有眼镜类型中随机选择眼镜类型(步骤S31);随机改变所选择的眼镜类型对应的眼镜图像(步骤S32);识别第二训练数据中的眼睛附近的关键点信息(步骤S33);基于随机改变的眼镜图像对应的关键点信息和所识别的眼睛附近的关键点信息,利用仿射变换,合并第二训练数据中的包含面部的图像与随机改变的眼镜图像,以得到第三训练数据(步骤S34)。
在步骤S31中,从已有眼镜类型中随机选择眼镜类型。也就是选择一种类型的眼镜数据,例如是近视镜、某种镜框镜片形状、某种镜框粗细、某种镜片颜色等,对应的关键点信息能够表征眼镜的形状结构,用于合并,对应的眼镜图像体现了镜框镜片形状、镜框粗细、镜片颜色等,镜片信息标识了镜片与镜框的边界,用于后续针对近视镜的缩放处理。
在步骤S32中,随机改变所选择的眼镜类型对应的眼镜图像。
数据库中已有眼镜类型包含的数据量是有限的。然而,眼镜数据的各个方面的排列组合种类是多样的。因此,可以通过随机改变所选择的眼镜类型对应的眼镜图像来丰富眼镜的种类,利于更好地训练面部识别模块。
具体地,可以替换眼镜图像中的眼镜框,眼镜框限于已有类型的眼镜框,包括特定的形状、粗细、颜色等。另外,可以随机改变眼镜框的粗细,即在预定合理范围内加粗眼镜框或者使得眼镜框变细。此外,可以随机改变眼镜框的形状,即在保留现有眼镜框的粗细、颜色的情况下仅改变其形状。当然,还可以随机改变眼镜片的颜色。颜色不限于数据库中已有的眼镜片的颜色,可以是人眼能够识别的各种颜色。
在步骤S33中,识别第二训练数据中的眼睛附近的关键点信息。人脸特征点检测算法(Facial Landmark Detection Algorithm)能够检测出68个面部关键点。利用眼睛附近的约9个关键点数据,可以帮助将眼镜添加到合适位置。
在步骤S34中,基于随机改变的眼镜图像对应的关键点信息和所识别的眼睛附近的关键点信息,利用仿射变换,合并第二训练数据中的包含面部的图像与随机改变的眼镜图像,以得到第三训练数据。
利用眼镜图像的关键点信息和眼睛附近的关键点信息,可以将第二训练数据的面部图像与经随机选择和随机改变得到的眼镜图像合并,实现加眼镜的效果。仿射变换为本领域技术人员熟知的技术,在此不再赘述。
特别地,当所选择的眼镜为近视镜时,考虑到近视镜为凹透镜,会使得眼睛看起来变小,采取如下特殊处理以缩小第二训练数据中面部图像中的眼睛大小。
具体地,如图4所示,首先,在步骤S41中,基于随机改变的眼镜图像对应的关键点信息、镜片信息、以及所识别的眼睛附近的关键点信息,利用仿射变换,确定所识别的眼睛周围的合并区域和镜片区域。合并区域是要与眼镜图像合并的区域,镜片区域是要与眼镜图像中的镜片所在的区域合并的区域,即合并区域中与镜片对应的区域。
在步骤S42中,从第二训练数据中的面部图像中,提取出眼睛周围比镜片区域大的原始图像,将这部分原始图像缩放为与镜片区域同样大小,再将缩放结果与随机改变的眼镜图像叠加,叠加结果称为贴图数据。
在步骤S43中,将第二训练数据中的面部图像中的合并区域中的原始数据用贴图数据替换。
由于贴图数据中的原始图像部分包括眼睛并且相对于第二训练数据中的面部图像中的原始数据来说是缩小了的,所以能够起到眼睛变小的效果。
这样,就在步骤S4中,生成了戴眼镜的第三训练数据。有了戴眼镜的第三训练数据,就能够提高原始训练数据中戴眼镜的比例,使得最终得到的训练数据中戴眼镜的比例与实际应用的场景中戴眼镜的比例相一致。
在步骤S5中,基于第三训练数据和原始训练数据,生成其中戴眼镜的比例等于第二实际场景数据中戴眼镜的比例的第四训练数据。
例如,可以从第三训练数据中随机选取适量的数据,增加到原始训练数据中,直至增加后得到的第四训练数据中戴眼镜的比例等于第二实际场景数据中戴眼镜的比例。
根据本发明的方法得到的第四训练数据中戴眼镜的比例符合实际应用场景,并且眼镜的种类丰富。
在步骤S6中,基于第四训练数据,训练面部识别模型。
由于第四训练数据中戴眼镜的比例与实际应用场景中戴眼镜的比例高度相符,所以面部识别模型的训练效果好,训练出的面部识别模型识别准确率高。
下面,将参照图5描述根据本发明的实施例的面部识别模型的训练设备。
图5示出了根据本发明的实施例的面部识别模型的训练设备的结构方框图。如图5所示,根据本发明的面部识别模型的训练设备500包括:去除装置51,被配置为:去除从实际场景获取的、包含面部的图像组成的第一实际场景数据中的黑眼眶、墨镜,以得到第二实际场景数据;统计装置52,被配置为:统计第二实际场景数据中戴眼镜的比例;划分装置53,被配置为:将由包含面部的图像组成的原始训练数据划分为戴眼镜的第一训练数据和不戴眼镜的第二训练数据,其中,原始训练数据中戴眼镜的比例低于第二实际场景数据中戴眼镜的比例;加眼镜装置54,被配置为:基于眼镜数据和第二训练数据,生成戴眼镜的第三训练数据;比例调整装置55,被配置为:基于第三训练数据和原始训练数据,生成其中戴眼镜的比例等于第二实际场景数据中戴眼镜的比例的第四训练数据;以及模型训练装置56,被配置为:基于第四训练数据,训练面部识别模型。
在一个实施例中,所述划分装置53包括:检测单元,被配置为:检测原始训练数据中面部的位置;对齐单元,被配置为:将原始训练数据中的面部与标准脸对齐;深度卷积神经网络或分类器,用于判断对齐的原始训练数据中的面部是否戴眼镜,以将原始训练数据划分为第一训练数据和第二训练数据。
在一个实施例中,眼镜数据包括各种类型的眼镜的关键点信息、眼镜图像、镜片信息,关键点信息表征了眼镜的形状结构,镜片信息标识了镜片与镜框的边界。
在一个实施例中,所述加眼镜装置54包括:类型选择单元,被配置为:从已有眼镜类型中随机选择眼镜类型;图像改变单元,被配置为:随机改变所选择的眼镜类型对应的眼镜图像;识别单元,被配置为:识别第二训练数据中的眼睛附近的关键点信息;合并单元,被配置为:基于随机改变的眼镜图像对应的关键点信息和所识别的眼睛附近的关键点信息,利用仿射变换,合并第二训练数据中的包含面部的图像与随机改变的眼镜图像,以得到第三训练数据。
在一个实施例中,所述图像改变单元被进一步配置为执行下述操作中的至少一个:随机选择已有类型的眼镜框,替换眼镜图像中的眼镜框;随机改变眼镜框的粗细;随机改变眼镜框的形状;随机改变眼镜片的颜色。
在一个实施例中,在所选择的眼镜类型为近视镜的情况下,所述合并单元被进一步配置为:基于随机改变的眼镜图像对应的关键点信息、镜片信息、以及所识别的眼睛附近的关键点信息,利用仿射变换,确定所识别的眼睛周围的合并区域和镜片区域;将第二训练数据中的包含面部的图像中眼睛周围的、比镜片区域大的区域从图像中提取出来并将其缩放为与镜片区域同样大小,并将缩放结果与随机改变的眼镜图像叠加,以得到贴图数据;用贴图数据代替合并区域中的原始数据。
在一个实施例中,原始训练数据从因特网获取或由人工收集。
由于在根据本发明的设备500中所包括的处理与上面描述的方法中所包括的各个步骤中的处理类似,因此为了简洁起见,在此省略这些处理的详细描述。
此外,这里尚需指出的是,上述设备中各个组成装置、单元可以通过软件、固件、硬件或其组合的方式进行配置。配置可使用的具体手段或方式为本领域技术人员所熟知,在此不再赘述。在通过软件或固件实现的情况下,从存储介质或网络向具有专用硬件结构的计算机(例如图6所示的通用计算机600)安装构成该软件的程序,该计算机在安装有各种程序时,能够执行各种功能等。
图6示出了可用于实施根据本发明的实施例的方法和设备的计算机的示意性框图。
在图6中,中央处理单元(CPU)601根据只读存储器(ROM)602中存储的程序或从存储部分606加载到随机存取存储器(RAM)603的程序执行各种处理。在RAM 603中,还根据需要存储当CPU 601执行各种处理等等时所需的数据。CPU 601、ROM 602和RAM 603经由总线604彼此连接。输入/输出接口605也连接到总线604。
下述部件连接到输入/输出接口605:输入部分606(包括键盘、鼠标等等)、输出部分607(包括显示器,比如阴极射线管(CRT)、液晶显示器(LCD)等,和扬声器等)、存储部分606(包括硬盘等)、通信部分609(包括网络接口卡比如LAN卡、调制解调器等)。通信部分609经由网络比如因特网执行通信处理。根据需要,驱动器610也可连接到输入/输出接口605。可拆卸介质611比如磁盘、光盘、磁光盘、半导体存储器等等可以根据需要被安装在驱动器610上,使得从中读出的计算机程序根据需要被安装到存储部分606中。
在通过软件实现上述系列处理的情况下,从网络比如因特网或存储介质比如可拆卸介质611安装构成软件的程序。
本领域的技术人员应当理解,这种存储介质不局限于图6所示的其中存储有程序、与设备相分离地分发以向用户提供程序的可拆卸介质611。可拆卸介质611的例子包含磁盘(包含软盘(注册商标))、光盘(包含光盘只读存储器(CD-ROM)和数字通用盘(DVD))、磁光盘(包含迷你盘(MD)(注册商标))和半导体存储器。或者,存储介质可以是ROM 602、存储部分606中包含的硬盘等等,其中存有程序,并且与包含它们的设备一起被分发给用户。
本发明还提出一种存储有机器可读取的指令代码的程序产品。所述指令代码由机器读取并执行时,可执行上述根据本发明的实施例的方法。
相应地,用于承载上述存储有机器可读取的指令代码的程序产品的存储介质也包括在本发明的公开中。所述存储介质包括但不限于软盘、光盘、磁光盘、存储卡、存储棒等等。
在上面对本发明具体实施例的描述中,针对一种实施方式描述和/或示出的特征可以以相同或类似的方式在一个或更多个其它实施方式中使用,与其它实施方式中的特征相组合,或替代其它实施方式中的特征。
应该强调,术语“包括/包含”在本文使用时指特征、要素、步骤或组件的存在,但并不排除一个或更多个其它特征、要素、步骤或组件的存在或附加。
此外,本发明的方法不限于按照说明书中描述的时间顺序来执行,也可以按照其他的时间顺序地、并行地或独立地执行。因此,本说明书中描述的方法的执行顺序不对本发明的技术范围构成限制。
尽管上面已经通过对本发明的具体实施例的描述对本发明进行了披露,但是,应该理解,上述的所有实施例和示例均是示例性的,而非限制性的。本领域的技术人员可在所附权利要求的精神和范围内设计对本发明的各种修改、改进或者等同物。这些修改、改进或者等同物也应当被认为包括在本发明的保护范围内。
附记
1.一种面部识别模型的训练方法,包括:
去除从实际场景获取的、包含面部的图像组成的第一实际场景数据中的黑眼眶、墨镜,以得到第二实际场景数据;
统计第二实际场景数据中戴眼镜的比例;
将由包含面部的图像组成的原始训练数据划分为戴眼镜的第一训练数据和不戴眼镜的第二训练数据,其中,原始训练数据中戴眼镜的比例低于第二实际场景数据中戴眼镜的比例;
基于眼镜数据和第二训练数据,生成戴眼镜的第三训练数据;
基于第三训练数据和原始训练数据,生成其中戴眼镜的比例等于第二实际场景数据中戴眼镜的比例的第四训练数据;以及
基于第四训练数据,训练面部识别模型。
2.如权利要求1所述的方法,其中,所述划分步骤包括:
检测原始训练数据中面部的位置;
将原始训练数据中的面部与标准脸对齐;
利用深度卷积神经网络或分类器判断对齐的原始训练数据中的面部是否戴眼镜,以将原始训练数据划分为第一训练数据和第二训练数据。
3.如权利要求1所述的方法,其中,眼镜数据包括各种类型的眼镜的关键点信息、眼镜图像、镜片信息,关键点信息表征了眼镜的形状结构,镜片信息标识了镜片与镜框的边界。
4.如权利要求3所述的方法,其中,所述基于眼镜数据和第二训练数据,生成戴眼镜的第三训练数据包括:
从已有眼镜类型中随机选择眼镜类型;
随机改变所选择的眼镜类型对应的眼镜图像;
识别第二训练数据中的眼睛附近的关键点信息;
基于随机改变的眼镜图像对应的关键点信息和所识别的眼睛附近的关键点信息,利用仿射变换,合并第二训练数据中的包含面部的图像与随机改变的眼镜图像,以得到第三训练数据。
5.如权利要求4所述的方法,其中,随机改变所选择的眼镜类型对应的眼镜图像包括下述中的至少一个:
随机选择已有类型的眼镜框,替换眼镜图像中的眼镜框;
随机改变眼镜框的粗细;
随机改变眼镜框的形状;
随机改变眼镜片的颜色。
6.如权利要求4所述的方法,其中,在所选择的眼镜类型为近视镜的情况下,所述合并步骤包括:
基于随机改变的眼镜图像对应的关键点信息、镜片信息、以及所识别的眼睛附近的关键点信息,利用仿射变换,确定所识别的眼睛周围的合并区域和镜片区域;
将第二训练数据中的包含面部的图像中眼睛周围的、比镜片区域大的区域从图像中提取出来并将其缩放为与镜片区域同样大小,并将缩放结果与随机改变的眼镜图像叠加,以得到贴图数据;
用贴图数据代替合并区域中的原始数据。
7.如权利要求1所述的方法,其中,原始训练数据从因特网获取或由人工收集。
8.一种面部识别模型的训练设备,包括:
去除装置,被配置为:去除从实际场景获取的、包含面部的图像组成的第一实际场景数据中的黑眼眶、墨镜,以得到第二实际场景数据;
统计装置,被配置为:统计第二实际场景数据中戴眼镜的比例;
划分装置,被配置为:将由包含面部的图像组成的原始训练数据划分为戴眼镜的第一训练数据和不戴眼镜的第二训练数据,其中,原始训练数据中戴眼镜的比例低于第二实际场景数据中戴眼镜的比例;
加眼镜装置,被配置为:基于眼镜数据和第二训练数据,生成戴眼镜的第三训练数据;
比例调整装置,被配置为:基于第三训练数据和原始训练数据,生成其中戴眼镜的比例等于第二实际场景数据中戴眼镜的比例的第四训练数据;以及
模型训练装置,被配置为:基于第四训练数据,训练面部识别模型。
9.如权利要求8所述的设备,其中,所述划分装置包括:
检测单元,被配置为:检测原始训练数据中面部的位置;
对齐单元,被配置为:将原始训练数据中的面部与标准脸对齐;
深度卷积神经网络或分类器,用于判断对齐的原始训练数据中的面部是否戴眼镜,以将原始训练数据划分为第一训练数据和第二训练数据。
10.如权利要求8所述的设备,其中,眼镜数据包括各种类型的眼镜的关键点信息、眼镜图像、镜片信息,关键点信息表征了眼镜的形状结构,镜片信息标识了镜片与镜框的边界。
11.如权利要求10所述的设备,其中,所述加眼镜装置包括:
类型选择单元,被配置为:从已有眼镜类型中随机选择眼镜类型;
图像改变单元,被配置为:随机改变所选择的眼镜类型对应的眼镜图像;
识别单元,被配置为:识别第二训练数据中的眼睛附近的关键点信息;
合并单元,被配置为:基于随机改变的眼镜图像对应的关键点信息和所识别的眼睛附近的关键点信息,利用仿射变换,合并第二训练数据中的包含面部的图像与随机改变的眼镜图像,以得到第三训练数据。
12.如权利要求11所述的设备,其中,所述图像改变单元被进一步配置为执行下述操作中的至少一个:
随机选择已有类型的眼镜框,替换眼镜图像中的眼镜框;
随机改变眼镜框的粗细;
随机改变眼镜框的形状;
随机改变眼镜片的颜色。
13.如权利要求11所述的设备,其中,在所选择的眼镜类型为近视镜的情况下,所述合并单元被进一步配置为:
基于随机改变的眼镜图像对应的关键点信息、镜片信息、以及所识别的眼睛附近的关键点信息,利用仿射变换,确定所识别的眼睛周围的合并区域和镜片区域;
将第二训练数据中的包含面部的图像中眼睛周围的、比镜片区域大的区域从图像中提取出来并将其缩放为与镜片区域同样大小,并将缩放结果与随机改变的眼镜图像叠加,以得到贴图数据;
用贴图数据代替合并区域中的原始数据。
14.如权利要求8所述的设备,其中,原始训练数据从因特网获取或由人工收集。
15.一种计算机可读存储介质,其上存储有程序,该程序在被信息处理设备执行时,使得信息处理设备执行以下操作:
去除从实际场景获取的、包含面部的图像组成的第一实际场景数据中的黑眼眶、墨镜,以得到第二实际场景数据;
统计第二实际场景数据中戴眼镜的比例;
将由包含面部的图像组成的原始训练数据划分为戴眼镜的第一训练数据和不戴眼镜的第二训练数据,其中,原始训练数据中戴眼镜的比例低于第二实际场景数据中戴眼镜的比例;
基于眼镜数据和第二训练数据,生成戴眼镜的第三训练数据;
基于第三训练数据和原始训练数据,生成其中戴眼镜的比例等于第二实际场景数据中戴眼镜的比例的第四训练数据;以及
基于第四训练数据,训练面部识别模型。
Claims (10)
1.一种面部识别模型的训练方法,包括:
去除从实际场景获取的、包含面部的图像组成的第一实际场景数据中的黑眼眶、墨镜,以得到第二实际场景数据;
统计第二实际场景数据中戴眼镜的比例;
将由包含面部的图像组成的原始训练数据划分为戴眼镜的第一训练数据和不戴眼镜的第二训练数据,其中,原始训练数据中戴眼镜的比例低于第二实际场景数据中戴眼镜的比例;
基于眼镜数据和第二训练数据,生成戴眼镜的第三训练数据;
基于第三训练数据和原始训练数据,生成其中戴眼镜的比例等于第二实际场景数据中戴眼镜的比例的第四训练数据;以及
基于第四训练数据,训练面部识别模型。
2.如权利要求1所述的方法,其中,所述划分步骤包括:
检测原始训练数据中面部的位置;
将原始训练数据中的面部与标准脸对齐;
利用深度卷积神经网络或分类器判断对齐的原始训练数据中的面部是否戴眼镜,以将原始训练数据划分为第一训练数据和第二训练数据。
3.如权利要求1所述的方法,其中,眼镜数据包括各种类型的眼镜的关键点信息、眼镜图像、镜片信息,关键点信息表征了眼镜的形状结构,镜片信息标识了镜片与镜框的边界。
4.如权利要求3所述的方法,其中,所述基于眼镜数据和第二训练数据,生成戴眼镜的第三训练数据包括:
从已有眼镜类型中随机选择眼镜类型;
随机改变所选择的眼镜类型对应的眼镜图像;
识别第二训练数据中的眼睛附近的关键点信息;
基于随机改变的眼镜图像对应的关键点信息和所识别的眼睛附近的关键点信息,利用仿射变换,合并第二训练数据中的包含面部的图像与随机改变的眼镜图像,以得到第三训练数据。
5.如权利要求4所述的方法,其中,随机改变所选择的眼镜类型对应的眼镜图像包括下述中的至少一个:
随机选择已有类型的眼镜框,替换眼镜图像中的眼镜框;
随机改变眼镜框的粗细;
随机改变眼镜框的形状;
随机改变眼镜片的颜色。
6.如权利要求4所述的方法,其中,在所选择的眼镜类型为近视镜的情况下,所述合并步骤包括:
基于随机改变的眼镜图像对应的关键点信息、镜片信息、以及所识别的眼睛附近的关键点信息,利用仿射变换,确定所识别的眼睛周围的合并区域和镜片区域;
将第二训练数据中的包含面部的图像中眼睛周围的、比镜片区域大的区域从图像中提取出来并将其缩放为与镜片区域同样大小,并将缩放结果与随机改变的眼镜图像叠加,以得到贴图数据;
用贴图数据代替合并区域中的原始数据。
7.如权利要求1所述的方法,其中,原始训练数据从因特网获取或由人工收集。
8.一种面部识别模型的训练设备,包括:
去除装置,被配置为:去除从实际场景获取的、包含面部的图像组成的第一实际场景数据中的黑眼眶、墨镜,以得到第二实际场景数据;
统计装置,被配置为:统计第二实际场景数据中戴眼镜的比例;
划分装置,被配置为:将由包含面部的图像组成的原始训练数据划分为戴眼镜的第一训练数据和不戴眼镜的第二训练数据,其中,原始训练数据中戴眼镜的比例低于第二实际场景数据中戴眼镜的比例;
加眼镜装置,被配置为:基于眼镜数据和第二训练数据,生成戴眼镜的第三训练数据;
比例调整装置,被配置为:基于第三训练数据和原始训练数据,生成其中戴眼镜的比例等于第二实际场景数据中戴眼镜的比例的第四训练数据;以及
模型训练装置,被配置为:基于第四训练数据,训练面部识别模型。
9.如权利要求8所述的设备,其中,所述划分装置包括:
检测单元,被配置为:检测原始训练数据中面部的位置;
对齐单元,被配置为:将原始训练数据中的面部与标准脸对齐;
深度卷积神经网络或分类器,用于判断对齐的原始训练数据中的面部是否戴眼镜,以将原始训练数据划分为第一训练数据和第二训练数据。
10.一种计算机可读存储介质,其上存储有程序,该程序在被信息处理设备执行时,使得信息处理设备执行以下操作:
去除从实际场景获取的、包含面部的图像组成的第一实际场景数据中的黑眼眶、墨镜,以得到第二实际场景数据;
统计第二实际场景数据中戴眼镜的比例;
将由包含面部的图像组成的原始训练数据划分为戴眼镜的第一训练数据和不戴眼镜的第二训练数据,其中,原始训练数据中戴眼镜的比例低于第二实际场景数据中戴眼镜的比例;
基于眼镜数据和第二训练数据,生成戴眼镜的第三训练数据;
基于第三训练数据和原始训练数据,生成其中戴眼镜的比例等于第二实际场景数据中戴眼镜的比例的第四训练数据;以及
基于第四训练数据,训练面部识别模型。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711070481.3A CN109753850B (zh) | 2017-11-03 | 2017-11-03 | 面部识别模型的训练方法和训练设备 |
JP2018203648A JP7119907B2 (ja) | 2017-11-03 | 2018-10-30 | 顔認識モデルの訓練方法及び訓練装置 |
DE102018218767.3A DE102018218767A1 (de) | 2017-11-03 | 2018-11-02 | Verfahren und einrichtung zum trainieren von gesichtserkennungsmodell |
US16/179,292 US10769499B2 (en) | 2017-11-03 | 2018-11-02 | Method and apparatus for training face recognition model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711070481.3A CN109753850B (zh) | 2017-11-03 | 2017-11-03 | 面部识别模型的训练方法和训练设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109753850A true CN109753850A (zh) | 2019-05-14 |
CN109753850B CN109753850B (zh) | 2022-10-25 |
Family
ID=66178992
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711070481.3A Active CN109753850B (zh) | 2017-11-03 | 2017-11-03 | 面部识别模型的训练方法和训练设备 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10769499B2 (zh) |
JP (1) | JP7119907B2 (zh) |
CN (1) | CN109753850B (zh) |
DE (1) | DE102018218767A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110909654A (zh) * | 2019-11-18 | 2020-03-24 | 深圳市商汤科技有限公司 | 训练图像的生成方法及装置、电子设备和存储介质 |
CN110991325A (zh) * | 2019-11-29 | 2020-04-10 | 腾讯科技(深圳)有限公司 | 一种模型训练的方法、图像识别的方法以及相关装置 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106407912B (zh) * | 2016-08-31 | 2019-04-02 | 腾讯科技(深圳)有限公司 | 一种人脸验证的方法及装置 |
US11687778B2 (en) | 2020-01-06 | 2023-06-27 | The Research Foundation For The State University Of New York | Fakecatcher: detection of synthetic portrait videos using biological signals |
CN113435226B (zh) * | 2020-03-23 | 2022-09-16 | 北京百度网讯科技有限公司 | 信息处理方法和装置 |
CN111488843A (zh) * | 2020-04-16 | 2020-08-04 | 贵州安防工程技术研究中心有限公司 | 基于漏报与误报率分步骤抑制的人脸墨镜判别方法 |
CN111582068B (zh) * | 2020-04-22 | 2023-07-07 | 北京交通大学 | 人员口罩佩戴状态检测方法 |
CN111582141B (zh) * | 2020-04-30 | 2023-05-09 | 京东方科技集团股份有限公司 | 人脸识别模型训练方法、人脸识别方法及装置 |
CN116993929B (zh) * | 2023-09-27 | 2024-01-16 | 北京大学深圳研究生院 | 基于人眼动态变化的三维人脸重建方法、装置及存储介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060034495A1 (en) * | 2004-04-21 | 2006-02-16 | Miller Matthew L | Synergistic face detection and pose estimation with energy-based models |
US20070177794A1 (en) * | 2006-01-31 | 2007-08-02 | Fuji Photo Film Co., Ltd. | Method and apparatus for automatic eyeglasses detection using a nose ridge mask |
US20080285801A1 (en) * | 2005-11-30 | 2008-11-20 | Jochen Heinzmann | Visual Tracking Eye Glasses In Visual Head And Eye Tracking Systems |
US20110135166A1 (en) * | 2009-06-02 | 2011-06-09 | Harry Wechsler | Face Authentication Using Recognition-by-Parts, Boosting, and Transduction |
US20120218172A1 (en) * | 2010-02-28 | 2012-08-30 | Osterhout Group, Inc. | See-through near-eye display glasses with a small scale image source |
WO2013079766A1 (en) * | 2011-11-29 | 2013-06-06 | Nokia Corporation | Methods, apparatuses and computer program products for generating a new subspace representation for faces that improves discriminant analysis |
US8885893B1 (en) * | 2011-11-22 | 2014-11-11 | The United States Of America As Represented By The Secretary Of The Navy | System and method for adaptive face recognition |
CN105184253A (zh) * | 2015-09-01 | 2015-12-23 | 北京旷视科技有限公司 | 一种人脸识别方法和人脸识别系统 |
CN106778681A (zh) * | 2017-01-11 | 2017-05-31 | 厦门中控生物识别信息技术有限公司 | 一种人脸识别方法及人脸识别设备 |
WO2017107957A1 (zh) * | 2015-12-22 | 2017-06-29 | 中兴通讯股份有限公司 | 人脸图像的检索方法及装置 |
US20170262472A1 (en) * | 2014-11-24 | 2017-09-14 | Isityou Ltd. | Systems and methods for recognition of faces e.g. from mobile-device-generated images of faces |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000123053A (ja) * | 1998-10-12 | 2000-04-28 | Hoya Corp | 眼鏡装用シミュレーション方法 |
CN101162502A (zh) * | 2006-10-13 | 2008-04-16 | 上海银晨智能识别科技有限公司 | 一种人脸识别中的眼镜消除的方法 |
JP2009237669A (ja) * | 2008-03-26 | 2009-10-15 | Ayonix Inc | 顔認識装置 |
JP2009294955A (ja) * | 2008-06-05 | 2009-12-17 | Nippon Telegr & Teleph Corp <Ntt> | 画像処理装置、画像処理方法、画像処理プログラムおよび同プログラムを記録した記録媒体。 |
US8903198B2 (en) * | 2011-06-03 | 2014-12-02 | International Business Machines Corporation | Image ranking based on attribute correlation |
JP2015088095A (ja) * | 2013-11-01 | 2015-05-07 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置および情報処理方法 |
JP6855175B2 (ja) * | 2015-06-11 | 2021-04-07 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
CN106570447B (zh) * | 2015-12-16 | 2019-07-12 | 黄开竹 | 基于灰度直方图匹配的人脸照片太阳镜自动去除方法 |
CN106407912B (zh) * | 2016-08-31 | 2019-04-02 | 腾讯科技(深圳)有限公司 | 一种人脸验证的方法及装置 |
CN107609481B (zh) * | 2017-08-14 | 2020-11-20 | 百度在线网络技术(北京)有限公司 | 为人脸识别生成训练数据的方法、装置和计算机存储介质 |
CN107845062B (zh) * | 2017-11-14 | 2021-08-17 | 北京小米移动软件有限公司 | 图像生成方法及装置 |
-
2017
- 2017-11-03 CN CN201711070481.3A patent/CN109753850B/zh active Active
-
2018
- 2018-10-30 JP JP2018203648A patent/JP7119907B2/ja active Active
- 2018-11-02 US US16/179,292 patent/US10769499B2/en active Active
- 2018-11-02 DE DE102018218767.3A patent/DE102018218767A1/de active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060034495A1 (en) * | 2004-04-21 | 2006-02-16 | Miller Matthew L | Synergistic face detection and pose estimation with energy-based models |
US20080285801A1 (en) * | 2005-11-30 | 2008-11-20 | Jochen Heinzmann | Visual Tracking Eye Glasses In Visual Head And Eye Tracking Systems |
US20070177794A1 (en) * | 2006-01-31 | 2007-08-02 | Fuji Photo Film Co., Ltd. | Method and apparatus for automatic eyeglasses detection using a nose ridge mask |
US20110135166A1 (en) * | 2009-06-02 | 2011-06-09 | Harry Wechsler | Face Authentication Using Recognition-by-Parts, Boosting, and Transduction |
US20120218172A1 (en) * | 2010-02-28 | 2012-08-30 | Osterhout Group, Inc. | See-through near-eye display glasses with a small scale image source |
US8885893B1 (en) * | 2011-11-22 | 2014-11-11 | The United States Of America As Represented By The Secretary Of The Navy | System and method for adaptive face recognition |
WO2013079766A1 (en) * | 2011-11-29 | 2013-06-06 | Nokia Corporation | Methods, apparatuses and computer program products for generating a new subspace representation for faces that improves discriminant analysis |
US20170262472A1 (en) * | 2014-11-24 | 2017-09-14 | Isityou Ltd. | Systems and methods for recognition of faces e.g. from mobile-device-generated images of faces |
CN105184253A (zh) * | 2015-09-01 | 2015-12-23 | 北京旷视科技有限公司 | 一种人脸识别方法和人脸识别系统 |
WO2017107957A1 (zh) * | 2015-12-22 | 2017-06-29 | 中兴通讯股份有限公司 | 人脸图像的检索方法及装置 |
CN106778681A (zh) * | 2017-01-11 | 2017-05-31 | 厦门中控生物识别信息技术有限公司 | 一种人脸识别方法及人脸识别设备 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110909654A (zh) * | 2019-11-18 | 2020-03-24 | 深圳市商汤科技有限公司 | 训练图像的生成方法及装置、电子设备和存储介质 |
CN110991325A (zh) * | 2019-11-29 | 2020-04-10 | 腾讯科技(深圳)有限公司 | 一种模型训练的方法、图像识别的方法以及相关装置 |
Also Published As
Publication number | Publication date |
---|---|
DE102018218767A1 (de) | 2019-05-09 |
US20190138854A1 (en) | 2019-05-09 |
JP2019087242A (ja) | 2019-06-06 |
US10769499B2 (en) | 2020-09-08 |
JP7119907B2 (ja) | 2022-08-17 |
CN109753850B (zh) | 2022-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109753850A (zh) | 面部识别模型的训练方法和训练设备 | |
JP6900516B2 (ja) | 注視点判定方法および装置、電子機器ならびにコンピュータ記憶媒体 | |
CN109345556A (zh) | 用于混合现实的神经网络前景分离 | |
CN104239858B (zh) | 一种人脸特征验证的方法和装置 | |
JP7309116B2 (ja) | 視線方向特定方法、装置、電子機器及び記憶媒体 | |
CN108629168A (zh) | 脸部验证方法、设备以及计算设备 | |
CN107545245A (zh) | 一种年龄估计方法及设备 | |
CN109033938A (zh) | 一种基于可区分性特征融合的人脸识别方法 | |
CN106407911A (zh) | 基于图像的眼镜识别方法及装置 | |
CN108875511A (zh) | 图像生成的方法、装置、系统及计算机存储介质 | |
CN110472494A (zh) | 脸部特征提取模型训练方法、脸部特征提取方法、装置、设备及存储介质 | |
CN108229508A (zh) | 用于训练图像处理装置的训练装置和训练方法 | |
CN109241857A (zh) | 一种单据信息的识别方法及系统 | |
CN107358247A (zh) | 一种确定流失用户的方法及装置 | |
CN108765261A (zh) | 图像变换方法和装置、电子设备、计算机存储介质、程序 | |
CN107025678A (zh) | 一种3d虚拟模型的驱动方法及装置 | |
CN110363233A (zh) | 一种基于块检测器及特征融合的卷积神经网络的细粒度图像识别方法及系统 | |
CN109584153A (zh) | 修饰眼部的方法、装置和系统 | |
CN110008961A (zh) | 文字实时识别方法、装置、计算机设备及存储介质 | |
CN112200154A (zh) | 一种戴口罩人脸识别方法、装置、电子设备及存储介质 | |
CN111839455A (zh) | 甲状腺相关眼病的眼部体征识别方法及设备 | |
CN114565602A (zh) | 基于多通道融合的图像识别方法、装置和存储介质 | |
CN110059607A (zh) | 活体多重检测方法、装置、计算机设备及存储介质 | |
CN108986569A (zh) | 一种桌面ar交互学习方法及装置 | |
CN109640787A (zh) | 测量瞳孔距离的系统与方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |