CN107679466A - 信息输出方法和装置 - Google Patents

信息输出方法和装置 Download PDF

Info

Publication number
CN107679466A
CN107679466A CN201710859525.4A CN201710859525A CN107679466A CN 107679466 A CN107679466 A CN 107679466A CN 201710859525 A CN201710859525 A CN 201710859525A CN 107679466 A CN107679466 A CN 107679466A
Authority
CN
China
Prior art keywords
image
sample
sample image
characteristic vector
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710859525.4A
Other languages
English (en)
Other versions
CN107679466B (zh
Inventor
刘文献
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201710859525.4A priority Critical patent/CN107679466B/zh
Publication of CN107679466A publication Critical patent/CN107679466A/zh
Priority to US16/052,446 priority patent/US10719693B2/en
Application granted granted Critical
Publication of CN107679466B publication Critical patent/CN107679466B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • G06N5/025Extracting rules from data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本申请实施例公开了信息输出方法和装置。该方法的一具体实施方式包括:获取第一图像和第二图像,其中,第一图像包括第一人脸图像区域,第二图像包括第二人脸图像区域;生成第一图像的图像矩阵和第二图像的图像矩阵;分别将第一图像的图像矩阵和第二图像的图像矩阵输入至预先训练的卷积神经网络,得到第一图像的特征向量和第二图像的特征向量,其中,卷积神经网络用于表征图像矩阵与特征向量之间的对应关系;计算第一图像的特征向量和第二图像的特征向量之间的距离;基于所计算的距离,输出第一人脸图像区域所属的对象和第二人脸图像区域所属的对象之间的对象关系信息。该实施方式提高了信息输出效率。

Description

信息输出方法和装置
技术领域
本申请涉及计算机技术领域,具体涉及互联网技术领域,尤其涉及信息输出方法和装置。
背景技术
亲子鉴定就是利用法医学、生物学和遗传学的理论和技术,从子代和亲代的形态构造或生理机能方面的相似特点,分析遗传特征,判断父母与子女之间是否是亲生关系。
然而,现有的信息输出方式通常是通过DNA测试鉴定父母与子女之间的亲缘关系,然后对所鉴定出的信息进行输出。DNA测试通常需要花费大量的时间,导致信息输出效率较低。
发明内容
本申请实施例的目的在于提出一种改进的信息输出方法和装置,来解决以上背景技术部分提到的技术问题。
第一方面,本申请实施例提供了一种信息输出方法,该方法包括:获取第一图像和第二图像,其中,第一图像包括第一人脸图像区域,第二图像包括第二人脸图像区域;生成第一图像的图像矩阵和第二图像的图像矩阵,其中,图像矩阵的行对应图像的高,图像矩阵的列对应图像的宽,图像矩阵的元素对应图像的像素;分别将第一图像的图像矩阵和第二图像的图像矩阵输入至预先训练的卷积神经网络,得到第一图像的特征向量和第二图像的特征向量,其中,卷积神经网络用于表征图像矩阵与特征向量之间的对应关系;计算第一图像的特征向量和第二图像的特征向量之间的距离;基于所计算的距离,输出第一人脸图像区域所属的对象和第二人脸图像区域所属的对象之间的对象关系信息,其中,对象关系包括亲子关系和非亲子关系。
在一些实施例中,该方法还包括训练卷积神经网络的步骤,训练卷积神经网络的步骤包括:分别获取第一样本图像、第二样本图像和第三样本图像的图像矩阵;执行以下训练步骤:分别将第一样本图像、第二样本图像和第三样本图像的图像矩阵输入至初始化卷积神经网络,得到第一样本图像、第二样本图像和第三样本图像的特征向量,确定第一样本图像、第二样本图像和第三样本图像的特征向量是否满足预设条件,若满足预设条件,则将初始化卷积神经网络作为训练完成的卷积神经网络。
在一些实施例中,在分别获取第一样本图像、第二样本图像和第三样本图像的图像矩阵之前,还包括:获取第一样本图像和第二样本图像,其中,第一样本图像包括第一样本人脸图像区域,第二样本图像包括述第二样本人脸图像区域,第一样本人脸图像区域所属的对象与第二样本人脸图像区域所属的对象为非亲子关系;基于第一样本图像和第二样本图像,生成第三样本图像,其中,第三样本图像包括第三样本人脸图像区域,第三样本人脸图像区域包括至少部分第一样本人脸图像区域和/或至少部分第二样本人脸图像区域;分别生成第一样本图像、第二样本图像和第三样本图像的图像矩阵。
在一些实施例中,该方法还包括:响应于不满足预设条件,调整初始化卷积神经网络的参数,并继续执行训练步骤。
在一些实施例中,确定第一样本图像、第二样本图像和第三样本图像的特征向量是否满足预设条件,包括:计算第一样本图像的特征向量和/或第二样本图像的特征向量与第三样本图像的特征向量之间的距离,得到第一计算结果;基于第一计算结果,确定是否满足预设条件。
在一些实施例中,计算第一样本图像的特征向量和/或第二样本图像的特征向量与第三样本图像的特征向量之间的距离,得到第一计算结果,包括:计算第一样本图像的特征向量和/或第二样本图像的特征向量与第三样本图像的特征向量之间的欧氏距离,得到第一计算结果。
在一些实施例中,基于第一计算结果,确定是否满足预设条件,包括:确定第一样本图像的特征向量和/或第二样本图像的特征向量与第三样本图像的特征向量之间的欧氏距离是否小于第一预设距离阈值;若小于第一预设距离阈值,则满足预设条件;若不小于第一预设距离阈值,则不满足预设条件。
在一些实施例中,确定第一样本图像、第二样本图像和第三样本图像的特征向量是否满足预设条件,包括:计算第一样本图像的特征向量与第二样本图像的特征向量之间的距离,得到第二计算结果;基于第二计算结果,确定是否满足预设条件。
在一些实施例中,计算第一样本图像的特征向量与第二样本图像的特征向量之间的距离,得到第二计算结果,包括:计算第一样本图像的特征向量与第二样本图像的特征向量之间的欧氏距离,得到第二计算结果。
在一些实施例中,基于第二计算结果,确定是否满足预设条件,包括:确定第一样本图像的特征向量与第二样本图像的特征向量之间的欧氏距离是否大于第二预设距离阈值;若大于第二预设距离阈值,则满足预设条件;若不大于第二预设距离阈值,则不满足预设条件。
在一些实施例中,基于第一样本图像和第二样本图像,生成第三样本图像,包括:分别对第一样本人脸图像区域和第二样本人脸图像区域进行分割,得到第一样本人脸图像区域的局部区域集合和第二样本人脸图像区域的局部区域集合;从第一样本人脸图像区域的局部区域集合和第二样本人脸图像区域的局部区域集合中选取局部区域;对所选取出的局部区域进行组合,生成第三样本图像。
在一些实施例中,基于第一样本图像和第二样本图像,生成第三样本图像,包括:分别提取第一样本图像和第二样本图像的特征向量;分别对第一样本图像和第二样本图像的特征向量进行分段,生成第一样本图像的子特征向量集合和第二样本图像的子特征向量集合;从第一样本图像的子特征向量集合和第二样本图像的子特征向量集合选取出子特征向量;对所选取出的子特征向量进行组合,生成第三样本图像的特征向量;基于第三样本图像的特征向量,生成第三样本图像。
第二方面,本申请实施例提供了一种信息输出装置,该装置包括:图像获取单元,配置用于获取第一图像和第二图像,其中,第一图像包括第一人脸图像区域,第二图像包括第二人脸图像区域;矩阵生成单元,配置用于生成第一图像的图像矩阵和第二图像的图像矩阵,其中,图像矩阵的行对应图像的高,图像矩阵的列对应图像的宽,图像矩阵的元素对应图像的像素;矩阵输入单元,配置用于分别将第一图像的图像矩阵和第二图像的图像矩阵输入至预先训练的卷积神经网络,得到第一图像的特征向量和第二图像的特征向量,其中,卷积神经网络用于表征图像矩阵与特征向量之间的对应关系;距离计算单元,配置用于计算第一图像的特征向量和第二图像的特征向量之间的距离;信息输出单元,配置用于基于所计算的距离,输出第一人脸图像区域所属的对象和第二人脸图像区域所属的对象之间的对象关系信息,其中,对象关系包括亲子关系和非亲子关系。
在一些实施例中,该装置还包括网络训练单元,网络训练单元包括:矩阵获取子单元,配置用于分别获取第一样本图像、第二样本图像和第三样本图像的图像矩阵;网络训练子单元,配置用于执行以下训练步骤:分别将第一样本图像、第二样本图像和第三样本图像的图像矩阵输入至初始化卷积神经网络,得到第一样本图像、第二样本图像和第三样本图像的特征向量,确定第一样本图像、第二样本图像和第三样本图像的特征向量是否满足预设条件,若满足预设条件,则将初始化卷积神经网络作为训练完成的卷积神经网络。
在一些实施例中,网络训练单元还包括:样本获取子单元,配置用于获取第一样本图像和第二样本图像,其中,第一样本图像包括第一样本人脸图像区域,第二样本图像包括述第二样本人脸图像区域,第一样本人脸图像区域所属的对象与第二样本人脸图像区域所属的对象为非亲子关系;样本生成子单元,配置用于基于第一样本图像和第二样本图像,生成第三样本图像,其中,第三样本图像包括第三样本人脸图像区域,第三样本人脸图像区域包括至少部分第一样本人脸图像区域和/或至少部分第二样本人脸图像区域;矩阵生成子单元,配置用于分别生成第一样本图像、第二样本图像和第三样本图像的图像矩阵。
在一些实施例中,网络训练单元还包括:参数调整子单元,配置用于响应于不满足预设条件,调整初始化卷积神经网络的参数,并继续执行训练步骤。
在一些实施例中,网络训练子单元包括:第一计算模块,配置用于计算第一样本图像的特征向量和/或第二样本图像的特征向量与第三样本图像的特征向量之间的距离,得到第一计算结果;第一确定模块,配置用于基于第一计算结果,确定是否满足预设条件。
在一些实施例中,第一计算模块进一步配置用于:计算第一样本图像的特征向量和/或第二样本图像的特征向量与第三样本图像的特征向量之间的欧氏距离,得到第一计算结果。
在一些实施例中,第一确定模块进一步配置用于:确定第一样本图像的特征向量和/或第二样本图像的特征向量与第三样本图像的特征向量之间的欧氏距离是否小于第一预设距离阈值;若小于第一预设距离阈值,则满足预设条件;若不小于第一预设距离阈值,则不满足预设条件。
在一些实施例中,网络训练子单元包括:第二计算模块,配置用于计算第一样本图像的特征向量与第二样本图像的特征向量之间的距离,得到第二计算结果;第二确定模块,配置用于基于第二计算结果,确定是否满足预设条件。
在一些实施例中,第二计算模块进一步配置用于:计算第一样本图像的特征向量与第二样本图像的特征向量之间的欧氏距离,得到第二计算结果。
在一些实施例中,第二确定模块进一步配置用于:确定第一样本图像的特征向量与第二样本图像的特征向量之间的欧氏距离是否大于第二预设距离阈值;若大于第二预设距离阈值,则满足预设条件;若不大于第二预设距离阈值,则不满足预设条件。
在一些实施例中,样本生成子单元包括:分割模块,配置用于分别对第一样本人脸图像区域和第二样本人脸图像区域进行分割,得到第一样本人脸图像区域的局部区域集合和第二样本人脸图像区域的局部区域集合;第一选取模块,配置用于从第一样本人脸图像区域的局部区域集合和第二样本人脸图像区域的局部区域集合中选取局部区域;第一组合模块,配置用于对所选取出的局部区域进行组合,生成第三样本图像。
在一些实施例中,样本生成子单元包括:提取模块,配置用于分别提取第一样本图像和第二样本图像的特征向量;分段模块,配置用于分别对第一样本图像和第二样本图像的特征向量进行分段,生成第一样本图像的子特征向量集合和第二样本图像的子特征向量集合;第二选取模块,配置用于从第一样本图像的子特征向量集合和第二样本图像的子特征向量集合选取出子特征向量;第二组合模块,配置用于对所选取出的子特征向量进行组合,生成第三样本图像的特征向量;样本生成模块,配置用于基于第三样本图像的特征向量,生成第三样本图像。
第三方面,本申请实施例提供了一种服务器,该服务器包括:一个或多个处理器;存储装置,用于存储一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本申请实施例提供的信息输出方法和装置,通过获取第一图像和第二图像,以便生成第一图像的图像矩阵和第二图像的图像矩阵;然后分别将第一图像的图像矩阵和第二图像的图像矩阵输入至预先训练的卷积神经网络,以便得到第一图像的特征向量和第二图像的特征向量;最后计算第一图像的特征向量和第二图像的特征向量之间的距离,以便输出第一人脸图像区域所属的对象和第二人脸图像区域所属的对象之间的对象关系信息。通过对图像进行分析来鉴定图像中的人脸图像区域所属的对象之间的对象关系,从而提高了信息输出效率。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请实施例可以应用于其中的示例性系统架构图;
图2是根据本申请的信息输出方法的一个实施例的流程图;
图3是根据本申请实施例的信息输出方法的一个应用场景的示意图;
图4是根据本申请的训练卷积神经网络的方法的一个实施例的流程图;
图5是根据本申请的训练卷积神经网络的方法的又一个实施例的流程图;
图6是根据本申请的信息输出装置的一个实施例的结构示意图;
图7是适于用来实现本申请实施例的服务器的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的信息输出方法或信息输出装置的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如对象关系鉴定类应用、图像浏览类应用、浏览器类应用、阅读类应用等。
终端设备101、102、103可以是具有显示屏并且支持图像浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、膝上型便携计算机和台式计算机等等。
服务器105可以提供各种服务,例如服务器105可以通过网络104从终端设备101、102、103中获取第一图像和第二图像,并对所获取到的第一图像和第二图像进行分析等处理,并将处理结果(例如对象关系信息)反馈至终端设备101、102、103。
需要说明的是,本申请实施例所提供的信息输出方法一般由服务器105执行,相应地,信息输出装置一般设置于服务器105中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。在服务器105中存储有第一图像和第二图像的情况下,系统架构100可以不设置终端设备101、102、103。
继续参考图2,其示出了根据本申请的信息输出方法的一个实施例的流程200。该信息输出方法,包括以下步骤:
步骤201,获取第一图像和第二图像。
在本实施例中,信息输出方法运行于其上的电子设备(例如图1所示的服务器105)可以通过有线连接或者无线连接的方式从终端设备(例如图1所示的终端设备101、102、103)获取第一图像和第二图像。其中,第一图像可以包括第一人脸图像区域,第二图像可以包括第二人脸图像区域。
需要说明的是,在电子设备本地存储有第一图像和第二图像的情况下,电子设备可以直接从本地获取第一图像和第二图像。
步骤202,生成第一图像的图像矩阵和第二图像的图像矩阵。
在本实施例中,基于步骤201所获取的第一图像和第二图像,电子设备可以生成第一图像的图像矩阵和第二图像的图像矩阵。实践中,图像可以用矩阵来表示,具体地,可以采用矩阵理论和矩阵算法对图像进行分析和处理。其中,图像矩阵的行对应图像的高,图像矩阵的列对应图像的宽,图像矩阵的元素对应图像的像素。作为示例,在图像是灰度图像的情况下,图像矩阵的元素可以对应灰度图像的灰度值;在图像是彩色图像的情况下,图像矩阵的元素对应彩色图像的RGB(Red Green Blue,红绿蓝)值。通常,人类视力所能感知的所有颜色均是通过对红(R)、绿(G)、蓝(B)三个颜色通道的变化以及它们相互之间的叠加来得到的。
步骤203,分别将第一图像的图像矩阵和第二图像的图像矩阵输入至预先训练的卷积神经网络,得到第一图像的特征向量和第二图像的特征向量。
在本实施例中,基于步骤202所生成的第一图像的图像矩阵和第二图像的图像矩阵,电子设备可以将第一图像的图像矩阵和第二图像的图像矩阵输入至预先训练的卷积神经网络,从而得到第一图像的特征向量和第二图像的特征向量。具体地,电子设备可以将第一图像的图像矩阵和第二图像的图像矩阵从卷积神经网络的输入侧输入,依次经过卷积神经网络中各层的处理,并从卷积神经网络的输出侧输出。这里,电子设备可以利用各层的参数矩阵对各层的输入进行处理(例如乘积、卷积)。其中,从输出侧输出的特征向量即为第一图像的特征向量和第二图像的特征向量。图像的特征向量可以用于描述图像中的人脸图像区域所具有的特征。第一图像的特征向量可以用于描述第一人脸图像区域所具有的特征,第二图像的特征向量可以用于描述第二人脸图像区域所具有的特征。
在本实施例中,卷积神经网络可以是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。通常,卷积神经网络的基本结构包括两层,其一为特征提取层,每个神经元的输入与前一层的局部接受域相连,并提取该局部的特征。一旦该局部特征被提取后,它与其它特征间的位置关系也随之确定下来;其二是特征映射层,网络的每个计算层由多个特征映射组成,每个特征映射是一个平面,平面上所有神经元的权值相等。并且,卷积神经网络的输入是图像矩阵,卷积神经网络的输出是特征向量,使得卷积神经网络可以用于表征图像矩阵与特征向量之间的对应关系。
作为一种示例,卷积神经网络可以是AlexNet。其中,AlexNet是卷积神经网络的一种现有的结构,在2012年的ImageNet(一个计算机视觉系统识别项目名称,是目前世界上图像识别最大的数据库)的竞赛中,Geoffrey(杰弗里)和他学生Alex(亚历克斯)所用的结构被称为AlexNet。通常,AlexNet包括8层,其中,前5层是convolutional(卷积层),后面3层是full-connected(全连接层)。将图像的图像矩阵输入至AlexNet中,经过AlexNet的各层的处理,可以输出图像的特征向量。
作为另一种示例,卷积神经网络可以是GoogleNet。其中,GoogleNet也是卷积神经网络的一种现有结构,是2014年的ImageNet的竞赛中的冠军模型。其基本构成部件和AlexNet类似,是一个22层的模型。将图像的图像矩阵输入至GoogleNet中,经过GoogleNet的各层的处理,可以输出图像的特征向量。
在本实施例中,电子设备可以通过多种方式预先训练出卷积神经网络。作为示例,电子设备可以基于对大量图像的图像矩阵和特征向量的统计而生成存储有多个图像矩阵与特征向量的对应关系的对应关系表,并将该对应关系表作为卷积神经网络。
步骤204,计算第一图像的特征向量和第二图像的特征向量之间的距离。
在本实施例,基于步骤203所得到的第一图像的特征向量和第二图像的特征向量,电子设备可以计算第一图像的特征向量和第二图像的特征向量之间的距离。其中,第一图像的特征向量和第二图像的特征向量之间的距离可以用于衡量第一图像的特征向量和第二图像的特征向量之间的相似度。通常,距离越小或越接近某一个数值,相似度越高,距离越大或越偏离某一个数值,相似度越低。
在本实施例的一些可选的实现方式中,电子设备可以计算第一图像的特征向量和第二图像的特征向量之间的欧氏距离。其中,欧氏距离又可以被称为欧几里得度量(euclidean metric),通常指在m维空间中两个点之间的真实距离,或者向量的自然长度(即该点到原点的距离)。在二维和三维空间中的欧氏距离就是两点之间的实际距离。通常,两个向量之间的欧氏距离越小,相似度越高;两个向量之间的欧氏距离越大,相似度越低。
在本实施例的一些可选的实现方式中,电子设备可以计算第一图像的特征向量和第二图像的特征向量之间的余弦距离。其中,余弦距离又可以被称为余弦相似度,是通过计算两个向量的夹角余弦值来评估它们的相似度。通常,两个向量之间的夹角越小,余弦值越接近于1,相似度越高;两个向量之间的夹角越大,余弦值越偏离1,相似度越低。
步骤205,基于所计算的距离,输出第一人脸图像区域所属的对象和第二人脸图像区域所属的对象之间的对象关系信息。
在本实施中,基于步骤204所计算的距离,电子设备可以利用各种分析方式对所计算的距离进行数值分析,以鉴定第一人脸图像区域所属的对象和第二人脸图像区域所属的对象之间的对象关系,并输出对象关系信息。其中,对象关系可以包括亲子关系和非亲子关系。其中,亲子关系的对象的图像的特征向量之间的相似度高,非亲子关系的对象的图像的特征向量之间的相似度低。
在本实施例的一些可选的实现方式中,电子设备可以将第一图像的特征向量和第二图像的特征向量之间的欧氏距离与第一预设距离阈值进行比较;若小于第一预设距离阈值,则第一人脸图像区域所属的对象和第二人脸图像区域所属的对象之间的对象关系为亲子关系;若不小于第一预设距离阈值,则第一人脸图像区域所属的对象和第二人脸图像区域所属的对象之间的对象关系为非亲子关系。
在本实施例的一些可选的实现方式中,电子设备可以将第一图像的特征向量和第二图像的特征向量之间的余弦距离与1进行比较;若接近1,则第一人脸图像区域所属的对象和第二人脸图像区域所属的对象之间的对象关系为亲子关系;若偏离1,则第一人脸图像区域所属的对象和第二人脸图像区域所属的对象之间的对象关系为非亲子关系。
继续参见图3,图3是根据本申请实施例的信息输出方法的应用场景的一个示意图。在图3的应用场景中,首先,用户通过终端设备将包含第一人脸图像区域的第一图像301和包含第二人脸图像区域的第二图像302上传至电子设备;而后,电子设备生成第一图像301的图像矩阵和第二图像302的图像矩阵;之后,电子设备可以分别将第一图像301的图像矩阵和第二图像302的图像矩阵输入至预先训练的卷积神经网络,从而得到第一图像301的特征向量和第二图像302的特征向量;然后,电子设备可以计算第一图像301的特征向量和第二图像302的特征向量之间的距离;最后,电子设备可以基于所计算的距离,鉴定第一人脸图像区域所属的对象和第二人脸图像区域所属的对象之间的对象关系,并将对象关系信息303发送至终端设备。其中,终端设备上可以呈现第一图像301、第二图像302和对象关系信息303。
本申请实施例提供的信息输出方法,通过获取第一图像和第二图像,以便生成第一图像的图像矩阵和第二图像的图像矩阵;然后分别将第一图像的图像矩阵和第二图像的图像矩阵输入至预先训练的卷积神经网络,以便得到第一图像的特征向量和第二图像的特征向量;最后计算第一图像的特征向量和第二图像的特征向量之间的距离,以便输出第一人脸图像区域所属的对象和第二人脸图像区域所属的对象之间的对象关系信息。通过对图像进行分析来鉴定图像中的人脸图像区域所属的对象之间的对象关系,从而提高了信息输出效率。
进一步参考图4,其示出了训练卷积神经网络的方法的一个实施例的流程400。该训练卷积神经网络的方法的流程400,包括以下步骤:
步骤401,分别获取第一样本图像、第二样本图像和第三样本图像的图像矩阵。
在本实施例中,训练卷积神经网络的方法运行于其上的电子设备(例如图1所示的服务器105)可以分别获取第一样本图像、第二样本图像和第三样本图像的图像矩阵。
步骤402,分别将第一样本图像、第二样本图像和第三样本图像的图像矩阵输入至初始化卷积神经网络,得到第一样本图像、第二样本图像和第三样本图像的特征向量。
在本实施例中,基于步骤401所获取的第一样本图像、第二样本图像和第三样本图像的图像矩阵,电子设备可以分别将第一样本图像、第二样本图像和第三样本图像的图像矩阵输入至初始化卷积神经网络,从而得到第一样本图像、第二样本图像和第三样本图像的特征向量。具体地,电子设备可以分别将第一样本图像、第二样本图像和第三样本图像的图像矩阵从初始化卷积神经网络的输入侧输入,依次经过卷积神经网络中各层的处理,并从初始化卷积神经网络的输出侧输出。这里,电子设备可以利用各层的参数矩阵对各层的输入进行处理(例如乘积、卷积)。其中,从输出侧输出的特征向量即为第一样本图像、第二样本图像和第三样本图像的特征向量。初始化卷积神经网络中存储有初始化参数,初始化参数在卷积神经网络的训练过程中可以被不断地调整。
步骤403,确定第一样本图像、第二样本图像和第三样本图像的特征向量是否满足预设条件。
在本实施例中,基于步骤402所得到的第一样本图像、第二样本图像和第三样本图像的特征向量,电子设备可以确定第一样本图像、第二样本图像和第三样本图像的特征向量是否满足预设条件;在满足预设条件的情况下,执行步骤404;在不满足预设条件的情况下,执行步骤405。具体地,电子设备可以首先分别获取第一样本图像、第二样本图像和第三样本图像的特征向量所具有的某些规律;然后确定所获取的规律是否符合预设规律;若符合预设规律,则满足预设条件;若不符合预设规律,则不满足预设条件。作为示例,电子设备可以分别确定第一样本图像、第二样本图像和第三样本图像的特征向量能否准确地表征第一样本图像、第二样本图像和第三样本图像所具有的特征;若能够准确地表征第一样本图像、第二样本图像和第三样本图像所具有的特征,则满足预设条件;若不能够准确地表征第一样本图像、第二样本图像和第三样本图像所具有的特征,则不满足预设条件。
步骤404,将初始化卷积神经网络作为训练完成的卷积神经网络。
在本实施例中,在满足预设条件的情况下,则说明卷积神经网络训练完成,此时,电子设备可以将初始化卷积神经网络作为训练完成的卷积神经网络。
步骤405,调整初始化卷积神经网络的参数。
在本实施例中,在不满足预设条件的情况下,电子设备可以调整初始化卷积神经网络的参数,并返回执行步骤402,直至训练出能够表征图像矩阵和特征向量之间准确对应关系的卷积神经网络为止。
本申请实施例提供的训练卷积神经网络的方法,通过获取第一样本图像、第二样本图像和第三样本图像的图像矩阵,以便于执行以下训练步骤:通过将第一样本图像、第二样本图像和第三样本图像的图像矩阵输入至初始化卷积神经网络,以便得到第一样本图像、第二样本图像和第三样本图像的特征向量;确定第一样本图像、第二样本图像和第三样本图像的特征向量是否满足预设条件;若满足预设条件,则说明卷积神经网络训练完成,此时将初始化卷积神经网络作为训练完成的卷积神经网络;若不满足预设条件,则说明卷积神经网络尚未训练完成,此时调整初始化卷积神经网络的参数,并返回继续执行训练步骤,直至卷积神经网络训练完成为止。从而实现了快速地训练出能够表征图像矩阵与特征向量之间对应关系的卷积神经网络。
进一步参考图5,其示出了训练卷积神经网络的方法的又一个实施例的流程500。该训练卷积神经网络的方法的流程500,包括以下步骤:
步骤501,获取第一样本图像和第二样本图像。
在本实施例中,训练卷积神经网络的方法运行于其上的电子设备(例如图1所示的服务器105)可以通过有线连接或者无线连接的方式从终端设备(例如图1所示的终端设备101、102、103)获取第一样本图像和第二样本图像。其中,第一样本图像可以包括第一样本人脸图像区域,第二样本图像可以包括述第二样本人脸图像区域,第一样本人脸图像区域所属的对象与第二样本人脸图像区域所属的对象可以为非亲子关系。作为示例,第一样本人脸图像区域所属的对象与第二样本人脸图像区域所属的对象可以夫妻关系。
需要说明的是,在电子设备本地存储有第一样本图像和第二样本图像的情况下,电子设备可以直接从本地获取第一样本图像和第二样本图像。
步骤502,基于第一样本图像和第二样本图像,生成第三样本图像。
在本实施例中,基于步骤501所获取的第一样本图像和第二样本图像,电子设备可以生成第三样本图像。其中,第三样本图像可以包括第三样本人脸图像区域,第三样本人脸图像区域可以包括至少部分第一样本人脸图像区域和/或至少部分第二样本人脸图像区域。作为示例,第三样本人脸图像区域可以包括第一样本人脸图像区域的脸部轮廓区域和耳朵区域,以及第二样本人脸图像区域的眉毛区域、眼睛区域、鼻子区域和嘴巴区域。
在本实施例中,电子设备可以通过多种方式生成第三样本图像。
作为一种示例,电子设备可以通过以下方式生成第三样本图像:
首先,分别对第一样本人脸图像区域和第二样本人脸图像区域进行分割,得到第一样本人脸图像区域的局部区域集合和第二样本人脸图像区域的局部区域集合。
具体地,电子设备可以分割出第一样本人脸图像区域和第二样本人脸图像区域的脸部轮廓区域、耳朵区域、眉毛区域、眼睛区域、鼻子区域和嘴巴区域。
然后,从第一样本人脸图像区域的局部区域集合和第二样本人脸图像区域的局部区域集合中选取局部区域。
例如,电子设备可以从第一样本人脸图像区域的局部区域集合中选取出脸部轮廓区域和耳朵区域,并从第二样本人脸图像区域的局部区域集合中选取出眉毛区域、眼睛区域、鼻子区域和嘴巴区域。
最后,对所选取出的局部区域进行组合,生成第三样本图像。
例如,电子设备可以利用从第一样本人脸图像区域的局部区域集合中选取出脸部轮廓区域和耳朵区域,以及从第二样本人脸图像区域的局部区域集合中选取出眉毛区域、眼睛区域、鼻子区域和嘴巴区域组合出一个人脸图像区域,并作为第三人脸图像区域。
作为另一种示例,电子设备还可以通过以下方式生成第三样本图像:
首先,分别提取第一样本图像和第二样本图像的特征向量。
具体地,电子设备可以利用可以提取图像的特征向量的卷积神经网络提取第一样本图像的特征向量和第二样本图像的特征向量。
而后,分别对第一样本图像的特征向量和第二样本图像的特征向量进行分段,生成第一样本图像的子特征向量集合和第二样本图像的子特征向量集合。
例如,电子设备可以分别将第一样本图像和第二样本图像的特征向量中的表征第一样本人脸图像区域和第二样本人脸图像区域的脸部轮廓区域、耳朵区域、眉毛区域、眼睛区域、鼻子区域和嘴巴区域的特征的元素分割出来,并作为各个子特征向量。
之后,从第一样本图像的子特征向量集合和第二样本图像的子特征向量集合选取出子特征向量。
例如,电子设备可以从第一样本图像的子特征向量集合中选取出表征脸部轮廓区域和耳朵区域的特征的子特征向量,并从第二样本图像的子特征向量集合中选取出表征眉毛区域、眼睛区域、鼻子区域和嘴巴区域的特征的子特征向量。
然后,对所选取出的子特征向量进行组合,生成第三样本图像的特征向量。
电子设备可以利用从第一样本图像的子特征向量集合中选取出表征脸部轮廓区域和耳朵区域的特征的子特征向量,以及从第二样本图像的子特征向量集合中选取出表征眉毛区域、眼睛区域、鼻子区域和嘴巴区域的特征的子特征向量组合出表征一个人脸图像区域的特征的特征向量,并作为第三样本图像的特征向量。
最后,基于第三样本图像的特征向量,生成第三样本图像。
具体地,电子设备可以利用反卷积神经网络将第三样本图像的特征向量处理成第三样本图像。
步骤503,分别生成第一样本图像、第二样本图像和第三样本图像的图像矩阵。
在本实施例中,基于步骤501所获取的第一样本图像和第二样本图像以及步骤502所生成的第三样本图像,电子设备可以分别生成第一样本图像、第二样本图像和第三样本图像的图像矩阵。
步骤504,分别获取第一样本图像、第二样本图像和第三样本图像的图像矩阵。
在本实施例中,电子设备可以获取步骤503所生成的第一样本图像、第二样本图像和第三样本图像的图像矩阵。
步骤505,分别将第一样本图像、第二样本图像和第三样本图像的图像矩阵输入至初始化卷积神经网络,得到第一样本图像、第二样本图像和第三样本图像的特征向量。
在本实施例中,基于步骤504所获取的第一样本图像、第二样本图像和第三样本图像的图像矩阵,电子设备可以分别将第一样本图像、第二样本图像和第三样本图像的图像矩阵输入至初始化卷积神经网络,从而得到第一样本图像、第二样本图像和第三样本图像的特征向量。具体地,电子设备可以分别将第一样本图像、第二样本图像和第三样本图像的图像矩阵从初始化卷积神经网络的输入侧输入,依次经过卷积神经网络中各层的处理,并从初始化卷积神经网络的输出侧输出。这里,电子设备可以利用各层的参数矩阵对各层的输入进行处理(例如乘积、卷积)。其中,从输出侧输出的特征向量即为第一样本图像、第二样本图像和第三样本图像的特征向量。初始化卷积神经网络中存储有初始化参数,初始化参数在卷积神经网络的训练过程中可以被不断地调整。
步骤506,确定第一样本图像、第二样本图像和第三样本图像的特征向量是否满足预设条件。
在本实施例中,基于步骤505所得到的第一样本图像、第二样本图像和第三样本图像的特征向量,电子设备可以确定第一样本图像、第二样本图像和第三样本图像的特征向量是否满足预设条件;在满足预设条件的情况下,执行步骤507;在不满足预设条件的情况下,执行步骤508。具体地,电子设备可以首先分别获取第一样本图像、第二样本图像和第三样本图像的特征向量所具有的某些规律;然后确定所获取的规律是否符合预设规律;若符合预设规律,则满足预设条件;若不符合预设规律,则不满足预设条件。
在本实施例的一些可选的实现方式中,电子设备可以通过以下至少一种方式来确定第一样本图像、第二样本图像和第三样本图像的特征向量是否满足预设条件:
1、首先,计算第一样本图像的特征向量和/或第二样本图像的特征向量与第三样本图像的特征向量之间的距离,得到第一计算结果。
作为一种示例,电子设备可以计算第一样本图像的特征向量和/或第二样本图像的特征向量与第三样本图像的特征向量之间的欧氏距离,以得到第一计算结果。
作为另一种示例,电子设备可以计算第一样本图像的特征向量和/或第二样本图像的特征向量与第三样本图像的特征向量之间的余弦距离,以得到第一计算结果。
然后,基于第一计算结果,确定是否满足预设条件。
作为一种示例,电子设备可以确定第一样本图像的特征向量和/或第二样本图像的特征向量与第三样本图像的特征向量之间的欧氏距离是否小于第一预设距离阈值;若小于第一预设距离阈值,则满足预设条件;若不小于第一预设距离阈值,则不满足预设条件。
作为另一种示例,电子设备可以将第一样本图像的特征向量和/或第二样本图像的特征向量与第三样本图像的特征向量之间的余弦距离与1进行比较;若接近1,则满足预设条件;若偏离1,则不满足预设条件。
2、首先,计算第一样本图像的特征向量与第二样本图像的特征向量之间的距离,得到第二计算结果。
作为一种示例,电子设备可以计算第一样本图像的特征向量与第二样本图像的特征向量之间的欧氏距离,以得到第二计算结果。
作为另一种示例,电子设备可以计算第一样本图像的特征向量与第二样本图像的特征向量之间的余弦距离,以得到第二计算结果。
然后,基于第二计算结果,确定是否满足预设条件。
作为一种示例,电子设备可以确定第一样本图像的特征向量与第二样本图像的特征向量之间的欧氏距离是否大于第二预设距离阈值;若大于第二预设距离阈值,则满足预设条件;若不大于第二预设距离阈值,则不满足预设条件。
作为另一种示例,电子设备可以将第一样本图像的特征向量与第二样本图像的特征向量之间的余弦距离与1进行比较;若偏离1,则满足预设条件;若接近1,则不满足预设条件。
步骤507,将初始化卷积神经网络作为训练完成的卷积神经网络。
在本实施例中,在满足预设条件的情况下,则说明卷积神经网络训练完成,此时,电子设备可以将初始化卷积神经网络作为训练完成的卷积神经网络。其中,训练完成的卷积神经网络可以使具有亲子关系的对象的图像的特征向量之间的相似度尽可能的高,并且使具有非亲子关系的对象的图像的特征向量之间的相似度尽可能的低。
步骤508,调整初始化卷积神经网络的参数。
在本实施例中,在不满足预设条件的情况下,电子设备可以调整初始化卷积神经网络的参数,并返回执行步骤505,直至训练出能够表征图像矩阵和特征向量之间准确对应关系的卷积神经网络为止。
从图5中可以看出,与图4对应的实施例相比,本实施例中的信息输出方法的流程500增加了步骤501-503。由此,本实施例描述的方案训练出的卷积神经网络可以使具有亲子关系的对象的图像的特征向量之间的相似度尽可能的高,并使具有非亲子关系的对象的图像的特征向量之间的相似度尽可能的低。
进一步参考图6,作为对上述各图所示方法的实现,本申请提供了一种信息输出装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,本实施例的信息输出装置600可以包括:图像获取单元601、矩阵生成单元602、矩阵输入单元603、距离计算单元604和信息输出单元605。其中,图像获取单元601,配置用于获取第一图像和第二图像,其中,第一图像包括第一人脸图像区域,第二图像包括第二人脸图像区域;矩阵生成单元602,配置用于生成第一图像的图像矩阵和第二图像的图像矩阵,其中,图像矩阵的行对应图像的高,图像矩阵的列对应图像的宽,图像矩阵的元素对应图像的像素;矩阵输入单元603,配置用于分别将第一图像的图像矩阵和第二图像的图像矩阵输入至预先训练的卷积神经网络,得到第一图像的特征向量和第二图像的特征向量,其中,卷积神经网络用于表征图像矩阵与特征向量之间的对应关系;距离计算单元604,配置用于计算第一图像的特征向量和第二图像的特征向量之间的距离;信息输出单元605,配置用于基于所计算的距离,输出第一人脸图像区域所属的对象和第二人脸图像区域所属的对象之间的对象关系信息,其中,对象关系包括亲子关系和非亲子关系。
在本实施例中,信息输出装置600中:图像获取单元601、矩阵生成单元602、矩阵输入单元603、距离计算单元604和信息输出单元605的具体处理及其所带来的技术效果可分别参考图2对应实施例中的步骤201、步骤202、步骤203、步骤204和步骤205的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,信息输出装置600还可以包括网络训练单元(图中未示出),网络训练单元可以包括:矩阵获取子单元(图中未示出),配置用于分别获取第一样本图像、第二样本图像和第三样本图像的图像矩阵;网络训练子单元(图中未示出),配置用于执行以下训练步骤:分别将第一样本图像、第二样本图像和第三样本图像的图像矩阵输入至初始化卷积神经网络,得到第一样本图像、第二样本图像和第三样本图像的特征向量,确定第一样本图像、第二样本图像和第三样本图像的特征向量是否满足预设条件,若满足预设条件,则将初始化卷积神经网络作为训练完成的卷积神经网络。
在本实施例的一些可选的实现方式中,网络训练单元还可以包括:样本获取子单元(图中未示出),配置用于获取第一样本图像和第二样本图像,其中,第一样本图像包括第一样本人脸图像区域,第二样本图像包括述第二样本人脸图像区域,第一样本人脸图像区域所属的对象与第二样本人脸图像区域所属的对象为非亲子关系;样本生成子单元(图中未示出),配置用于基于第一样本图像和第二样本图像,生成第三样本图像,其中,第三样本图像包括第三样本人脸图像区域,第三样本人脸图像区域包括至少部分第一样本人脸图像区域和/或至少部分第二样本人脸图像区域;矩阵生成子单元(图中未示出),配置用于分别生成第一样本图像、第二样本图像和第三样本图像的图像矩阵。
在本实施例的一些可选的实现方式中,网络训练单元还可以包括:参数调整子单元(图中未示出),配置用于响应于不满足预设条件,调整初始化卷积神经网络的参数,并继续执行训练步骤。
在本实施例的一些可选的实现方式中,网络训练子单元可以包括:第一计算模块(图中未示出),配置用于计算第一样本图像的特征向量和/或第二样本图像的特征向量与第三样本图像的特征向量之间的距离,得到第一计算结果;第一确定模块(图中未示出),配置用于基于第一计算结果,确定是否满足预设条件。
在本实施例的一些可选的实现方式中,第一计算模块可以进一步配置用于:计算第一样本图像的特征向量和/或第二样本图像的特征向量与第三样本图像的特征向量之间的欧氏距离,得到第一计算结果。
在本实施例的一些可选的实现方式中,第一确定模块可以进一步配置用于:确定第一样本图像的特征向量和/或第二样本图像的特征向量与第三样本图像的特征向量之间的欧氏距离是否小于第一预设距离阈值;若小于第一预设距离阈值,则满足预设条件;若不小于第一预设距离阈值,则不满足预设条件。
在本实施例的一些可选的实现方式中,网络训练子单元可以包括:第二计算模块(图中未示出),配置用于计算第一样本图像的特征向量与第二样本图像的特征向量之间的距离,得到第二计算结果;第二确定模块(图中未示出),配置用于基于第二计算结果,确定是否满足预设条件。
在本实施例的一些可选的实现方式中,第二计算模块可以进一步配置用于:计算第一样本图像的特征向量与第二样本图像的特征向量之间的欧氏距离,得到第二计算结果。
在本实施例的一些可选的实现方式中,第二确定模块可以进一步配置用于:确定第一样本图像的特征向量与第二样本图像的特征向量之间的欧氏距离是否大于第二预设距离阈值;若大于第二预设距离阈值,则满足预设条件;若不大于第二预设距离阈值,则不满足预设条件。
在本实施例的一些可选的实现方式中,样本生成子单元可以包括:分割模块(图中未示出),配置用于分别对第一样本人脸图像区域和第二样本人脸图像区域进行分割,得到第一样本人脸图像区域的局部区域集合和第二样本人脸图像区域的局部区域集合;第一选取模块(图中未示出),配置用于从第一样本人脸图像区域的局部区域集合和第二样本人脸图像区域的局部区域集合中选取局部区域;第一组合模块(图中未示出),配置用于对所选取出的局部区域进行组合,生成第三样本图像。
在本实施例的一些可选的实现方式中,样本生成子单元可以包括:提取模块(图中未示出),配置用于分别提取第一样本图像和第二样本图像的特征向量;分段模块(图中未示出),配置用于分别对第一样本图像和第二样本图像的特征向量进行分段,生成第一样本图像的子特征向量集合和第二样本图像的子特征向量集合;第二选取模块(图中未示出),配置用于从第一样本图像的子特征向量集合和第二样本图像的子特征向量集合选取出子特征向量;第二组合模块(图中未示出),配置用于对所选取出的子特征向量进行组合,生成第三样本图像的特征向量;样本生成模块(图中未示出),配置用于基于第三样本图像的特征向量,生成第三样本图像。
下面参考图7,其示出了适于用来实现本申请实施例的服务器的计算机系统700的结构示意图。图7示出的服务器仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图7所示,计算机系统700包括中央处理单元(CPU)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储部分708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM 703中,还存储有系统700操作所需的各种程序和数据。CPU 701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
以下部件连接至I/O接口705:包括键盘、鼠标等的输入部分706;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分707;包括硬盘等的存储部分708;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分709。通信部分709经由诸如因特网的网络执行通信处理。驱动器710也根据需要连接至I/O接口705。可拆卸介质711,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器710上,以便于从其上读出的计算机程序根据需要被安装入存储部分708。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分709从网络上被下载和安装,和/或从可拆卸介质711被安装。在该计算机程序被中央处理单元(CPU)701执行时,执行本申请的方法中限定的上述功能。
需要说明的是,本申请上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是但不限于:电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括图像获取单元、矩阵生成单元、矩阵输入单元、距离计算单元和信息输出单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,图像获取单元还可以被描述为“获取第一图像和第二图像的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的服务器中所包含的;也可以是单独存在,而未装配入该服务器中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该服务器执行时,使得该服务器:获取第一图像和第二图像,其中,第一图像包括第一人脸图像区域,第二图像包括第二人脸图像区域;生成第一图像的图像矩阵和第二图像的图像矩阵,其中,图像矩阵的行对应图像的高,图像矩阵的列对应图像的宽,图像矩阵的元素对应图像的像素;分别将第一图像的图像矩阵和第二图像的图像矩阵输入至预先训练的卷积神经网络,得到第一图像的特征向量和第二图像的特征向量,其中,卷积神经网络用于表征图像矩阵与特征向量之间的对应关系;计算第一图像的特征向量和第二图像的特征向量之间的距离;基于所计算的距离,输出第一人脸图像区域所属的对象和第二人脸图像区域所属的对象之间的对象关系信息,其中,对象关系包括亲子关系和非亲子关系。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (22)

1.一种信息输出方法,其特征在于,所述方法包括:
获取第一图像和第二图像,其中,所述第一图像包括第一人脸图像区域,所述第二图像包括第二人脸图像区域;
生成所述第一图像的图像矩阵和所述第二图像的图像矩阵,其中,图像矩阵的行对应图像的高,图像矩阵的列对应图像的宽,图像矩阵的元素对应图像的像素;
分别将所述第一图像的图像矩阵和所述第二图像的图像矩阵输入至预先训练的卷积神经网络,得到所述第一图像的特征向量和所述第二图像的特征向量,其中,所述卷积神经网络用于表征图像矩阵与特征向量之间的对应关系;
计算所述第一图像的特征向量和所述第二图像的特征向量之间的距离;
基于所计算的距离,输出所述第一人脸图像区域所属的对象和所述第二人脸图像区域所属的对象之间的对象关系信息,其中,对象关系包括亲子关系和非亲子关系。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括训练卷积神经网络的步骤,所述训练卷积神经网络的步骤包括:
分别获取第一样本图像、第二样本图像和第三样本图像的图像矩阵;
执行以下训练步骤:分别将所述第一样本图像、所述第二样本图像和所述第三样本图像的图像矩阵输入至初始化卷积神经网络,得到所述第一样本图像、所述第二样本图像和所述第三样本图像的特征向量,确定所述第一样本图像、所述第二样本图像和所述第三样本图像的特征向量是否满足预设条件,若满足所述预设条件,则将所述初始化卷积神经网络作为训练完成的卷积神经网络。
3.根据权利要求2所述的方法,其特征在于,在所述分别获取第一样本图像、第二样本图像和第三样本图像的图像矩阵之前,还包括:
获取第一样本图像和第二样本图像,其中,所述第一样本图像包括第一样本人脸图像区域,所述第二样本图像包括述第二样本人脸图像区域,所述第一样本人脸图像区域所属的对象与所述第二样本人脸图像区域所属的对象为所述非亲子关系;
基于所述第一样本图像和所述第二样本图像,生成第三样本图像,其中,所述第三样本图像包括第三样本人脸图像区域,所述第三样本人脸图像区域包括至少部分所述第一样本人脸图像区域和/或所述至少部分所述第二样本人脸图像区域;
分别生成所述第一样本图像、所述第二样本图像和所述第三样本图像的图像矩阵。
4.根据权利要求3所述的方法,其特征在于,所述方法还包括:
响应于不满足所述预设条件,调整所述初始化卷积神经网络的参数,并继续执行所述训练步骤。
5.根据权利要求4所述的方法,其特征在于,所述确定所述第一样本图像、所述第二样本图像和所述第三样本图像的特征向量是否满足预设条件,包括:
计算所述第一样本图像的特征向量和/或所述第二样本图像的特征向量与所述第三样本图像的特征向量之间的距离,得到第一计算结果;
基于所述第一计算结果,确定是否满足预设条件。
6.根据权利要求5所述的方法,其特征在于,所述计算所述第一样本图像的特征向量和/或所述第二样本图像的特征向量与所述第三样本图像的特征向量之间的距离,得到第一计算结果,包括:
计算所述第一样本图像的特征向量和/或所述第二样本图像的特征向量与所述第三样本图像的特征向量之间的欧氏距离,得到第一计算结果。
7.根据权利要求6所述的方法,其特征在于,所述基于所述第一计算结果,确定是否满足预设条件,包括:
确定所述第一样本图像的特征向量和/或所述第二样本图像的特征向量与所述第三样本图像的特征向量之间的欧氏距离是否小于第一预设距离阈值;
若小于所述第一预设距离阈值,则满足所述预设条件;
若不小于所述第一预设距离阈值,则不满足所述预设条件。
8.根据权利要求4-7之一所述的方法,其特征在于,所述确定所述第一样本图像、所述第二样本图像和所述第三样本图像的特征向量是否满足预设条件,包括:
计算所述第一样本图像的特征向量与所述第二样本图像的特征向量之间的距离,得到第二计算结果;
基于所述第二计算结果,确定是否满足预设条件。
9.根据权利要求8所述的方法,其特征在于,所述计算所述第一样本图像的特征向量与所述第二样本图像的特征向量之间的距离,得到第二计算结果,包括:
计算所述第一样本图像的特征向量与所述第二样本图像的特征向量之间的欧氏距离,得到第二计算结果。
10.根据权利要求9所述的方法,其特征在于,所述基于所述第二计算结果,确定是否满足预设条件,包括:
确定所述第一样本图像的特征向量与所述第二样本图像的特征向量之间的欧氏距离是否大于第二预设距离阈值;
若大于所述第二预设距离阈值,则满足所述预设条件;
若不大于所述第二预设距离阈值,则不满足所述预设条件。
11.根据权利要求3所述的方法,其特征在于,所述基于所述第一样本图像和所述第二样本图像,生成第三样本图像,包括:
分别对所述第一样本人脸图像区域和所述第二样本人脸图像区域进行分割,得到所述第一样本人脸图像区域的局部区域集合和所述第二样本人脸图像区域的局部区域集合;
从所述第一样本人脸图像区域的局部区域集合和所述第二样本人脸图像区域的局部区域集合中选取局部区域;
对所选取出的局部区域进行组合,生成第三样本图像。
12.根据权利要求3所述的方法,其特征在于,所述基于所述第一样本图像和所述第二样本图像,生成第三样本图像,包括:
分别提取所述第一样本图像和所述第二样本图像的特征向量;
分别对所述第一样本图像和所述第二样本图像的特征向量进行分段,生成所述第一样本图像的子特征向量集合和所述第二样本图像的子特征向量集合;
从所述第一样本图像的子特征向量集合和所述第二样本图像的子特征向量集合选取出子特征向量;
对所选取出的子特征向量进行组合,生成第三样本图像的特征向量;
基于所述第三样本图像的特征向量,生成所述第三样本图像。
13.一种信息输出装置,其特征在于,所述装置包括:
图像获取单元,配置用于获取第一图像和第二图像,其中,所述第一图像包括第一人脸图像区域,所述第二图像包括第二人脸图像区域;
矩阵生成单元,配置用于生成所述第一图像的图像矩阵和所述第二图像的图像矩阵,其中,图像矩阵的行对应图像的高,图像矩阵的列对应图像的宽,图像矩阵的元素对应图像的像素;
矩阵输入单元,配置用于分别将所述第一图像的图像矩阵和所述第二图像的图像矩阵输入至预先训练的卷积神经网络,得到所述第一图像的特征向量和所述第二图像的特征向量,其中,所述卷积神经网络用于表征图像矩阵与特征向量之间的对应关系;
距离计算单元,配置用于计算所述第一图像的特征向量和所述第二图像的特征向量之间的距离;
信息输出单元,配置用于基于所计算的距离,输出所述第一人脸图像区域所属的对象和所述第二人脸图像区域所属的对象之间的对象关系信息,其中,对象关系包括亲子关系和非亲子关系。
14.根据权利要求13所述的装置,其特征在于,所述装置还包括网络训练单元,所述网络训练单元包括:
矩阵获取子单元,配置用于分别获取第一样本图像、第二样本图像和第三样本图像的图像矩阵;
网络训练子单元,配置用于执行以下训练步骤:分别将所述第一样本图像、所述第二样本图像和所述第三样本图像的图像矩阵输入至初始化卷积神经网络,得到所述第一样本图像、所述第二样本图像和所述第三样本图像的特征向量,确定所述第一样本图像、所述第二样本图像和所述第三样本图像的特征向量是否满足预设条件,若满足所述预设条件,则将所述初始化卷积神经网络作为训练完成的卷积神经网络。
15.根据权利要求14所述的装置,其特征在于,所述网络训练单元还包括:
样本获取子单元,配置用于获取第一样本图像和第二样本图像,其中,所述第一样本图像包括第一样本人脸图像区域,所述第二样本图像包括述第二样本人脸图像区域,所述第一样本人脸图像区域所属的对象与所述第二样本人脸图像区域所属的对象为所述非亲子关系;
样本生成子单元,配置用于基于所述第一样本图像和所述第二样本图像,生成第三样本图像,其中,所述第三样本图像包括第三样本人脸图像区域,所述第三样本人脸图像区域包括至少部分所述第一样本人脸图像区域和/或所述至少部分所述第二样本人脸图像区域;
矩阵生成子单元,配置用于分别生成所述第一样本图像、所述第二样本图像和所述第三样本图像的图像矩阵。
16.根据权利要求15所述的装置,其特征在于,所述网络训练单元还包括:
参数调整子单元,配置用于响应于不满足所述预设条件,调整所述初始化卷积神经网络的参数,并继续执行所述训练步骤。
17.根据权利要求16所述的装置,其特征在于,所述网络训练子单元包括:
第一计算模块,配置用于计算所述第一样本图像的特征向量和/或所述第二样本图像的特征向量与所述第三样本图像的特征向量之间的距离,得到第一计算结果;
第一确定模块,配置用于基于所述第一计算结果,确定是否满足预设条件。
18.根据权利要求16或17所述的装置,其特征在于,所述网络训练子单元包括:
第二计算模块,配置用于计算所述第一样本图像的特征向量与所述第二样本图像的特征向量之间的距离,得到第二计算结果;
第二确定模块,配置用于基于所述第二计算结果,确定是否满足预设条件。
19.根据权利要求15所述的装置,其特征在于,所述样本生成子单元包括:
分割模块,配置用于分别对所述第一样本人脸图像区域和所述第二样本人脸图像区域进行分割,得到所述第一样本人脸图像区域的局部区域集合和所述第二样本人脸图像区域的局部区域集合;
第一选取模块,配置用于从所述第一样本人脸图像区域的局部区域集合和所述第二样本人脸图像区域的局部区域集合中选取局部区域;
第一组合模块,配置用于对所选取出的局部区域进行组合,生成第三样本图像。
20.根据权利要求15所述的装置,其特征在于,所述样本生成子单元包括:
提取模块,配置用于分别提取所述第一样本图像和所述第二样本图像的特征向量;
分段模块,配置用于分别对所述第一样本图像和所述第二样本图像的特征向量进行分段,生成所述第一样本图像的子特征向量集合和所述第二样本图像的子特征向量集合;
第二选取模块,配置用于从所述第一样本图像的子特征向量集合和所述第二样本图像的子特征向量集合选取出子特征向量;
第二组合模块,配置用于对所选取出的子特征向量进行组合,生成第三样本图像的特征向量;
样本生成模块,配置用于基于所述第三样本图像的特征向量,生成所述第三样本图像。
21.一种服务器,其特征在于,所述服务器包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-12中任一所述的方法。
22.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-12中任一所述的方法。
CN201710859525.4A 2017-09-21 2017-09-21 信息输出方法和装置 Active CN107679466B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201710859525.4A CN107679466B (zh) 2017-09-21 2017-09-21 信息输出方法和装置
US16/052,446 US10719693B2 (en) 2017-09-21 2018-08-01 Method and apparatus for outputting information of object relationship

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710859525.4A CN107679466B (zh) 2017-09-21 2017-09-21 信息输出方法和装置

Publications (2)

Publication Number Publication Date
CN107679466A true CN107679466A (zh) 2018-02-09
CN107679466B CN107679466B (zh) 2021-06-15

Family

ID=61136809

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710859525.4A Active CN107679466B (zh) 2017-09-21 2017-09-21 信息输出方法和装置

Country Status (2)

Country Link
US (1) US10719693B2 (zh)
CN (1) CN107679466B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108389172A (zh) * 2018-03-21 2018-08-10 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
CN108491824A (zh) * 2018-04-03 2018-09-04 百度在线网络技术(北京)有限公司 模型生成方法和装置
CN108898185A (zh) * 2018-07-03 2018-11-27 北京字节跳动网络技术有限公司 用于生成图像识别模型的方法和装置
CN108898186A (zh) * 2018-07-03 2018-11-27 北京字节跳动网络技术有限公司 用于提取图像的方法和装置
CN109165572A (zh) * 2018-08-03 2019-01-08 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
CN110929073A (zh) * 2018-08-30 2020-03-27 上海掌门科技有限公司 用于推送信息、采集数据的方法和设备
US20200383629A1 (en) * 2017-11-30 2020-12-10 Lululab Inc. Portable device for measuring skin condition and skin condition diagnosis and management system
CN113837036A (zh) * 2021-09-09 2021-12-24 成都齐碳科技有限公司 生物聚合物的表征方法、装置、设备及计算机存储介质

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106990894B (zh) * 2017-03-21 2020-08-11 北京小米移动软件有限公司 智能设备的控制方法及装置
FR3087028B1 (fr) * 2018-10-04 2021-05-07 Idemia Identity & Security France Procede de classification securisee d'une donnee d'entree au moyen d'un reseau de neurones a convolution
US11568168B2 (en) * 2019-04-08 2023-01-31 Shutterstock, Inc. Generating synthetic photo-realistic images

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110150340A1 (en) * 2009-12-22 2011-06-23 Sony Corporation Information processing device, method, and program
CN105005774A (zh) * 2015-07-28 2015-10-28 中国科学院自动化研究所 一种基于卷积神经网络的人脸亲属关系识别方法及装置
CN105975914A (zh) * 2016-04-28 2016-09-28 东南大学 基于线性组合特征的夫妇与孩子间三人亲属关系判别方法
CN106709482A (zh) * 2017-03-17 2017-05-24 中国人民解放军国防科学技术大学 基于自编码器的人物亲缘关系识别方法
CN106951858A (zh) * 2017-03-17 2017-07-14 中国人民解放军国防科学技术大学 一种基于深度卷积网络的人物亲缘关系识别方法与装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013014536B4 (de) * 2013-09-03 2015-07-09 Sew-Eurodrive Gmbh & Co Kg Verfahren zur Übertragung von Information und Vorrichtung zur Durchführung des Verfahrens
US10083347B2 (en) * 2016-07-29 2018-09-25 NTech lab LLC Face identification using artificial neural network
KR102483642B1 (ko) * 2016-08-23 2023-01-02 삼성전자주식회사 라이브니스 검사 방법 및 장치
DE112017006136T5 (de) * 2016-12-05 2019-08-22 Avigilon Corporation System und Verfahren zur CNN-Schichtenteilung
CA3077830C (en) * 2016-12-05 2023-03-07 Avigilon Coporation System and method for appearance search

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110150340A1 (en) * 2009-12-22 2011-06-23 Sony Corporation Information processing device, method, and program
CN105005774A (zh) * 2015-07-28 2015-10-28 中国科学院自动化研究所 一种基于卷积神经网络的人脸亲属关系识别方法及装置
CN105975914A (zh) * 2016-04-28 2016-09-28 东南大学 基于线性组合特征的夫妇与孩子间三人亲属关系判别方法
CN106709482A (zh) * 2017-03-17 2017-05-24 中国人民解放军国防科学技术大学 基于自编码器的人物亲缘关系识别方法
CN106951858A (zh) * 2017-03-17 2017-07-14 中国人民解放军国防科学技术大学 一种基于深度卷积网络的人物亲缘关系识别方法与装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200383629A1 (en) * 2017-11-30 2020-12-10 Lululab Inc. Portable device for measuring skin condition and skin condition diagnosis and management system
US11950921B2 (en) * 2017-11-30 2024-04-09 Lululab Inc. Portable device for measuring skin condition and skin condition diagnosis and management system
CN108389172A (zh) * 2018-03-21 2018-08-10 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
CN108389172B (zh) * 2018-03-21 2020-12-18 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
CN108491824A (zh) * 2018-04-03 2018-09-04 百度在线网络技术(北京)有限公司 模型生成方法和装置
CN108898185A (zh) * 2018-07-03 2018-11-27 北京字节跳动网络技术有限公司 用于生成图像识别模型的方法和装置
CN108898186A (zh) * 2018-07-03 2018-11-27 北京字节跳动网络技术有限公司 用于提取图像的方法和装置
WO2020006961A1 (zh) * 2018-07-03 2020-01-09 北京字节跳动网络技术有限公司 用于提取图像的方法和装置
CN109165572A (zh) * 2018-08-03 2019-01-08 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
CN109165572B (zh) * 2018-08-03 2022-02-08 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
CN110929073A (zh) * 2018-08-30 2020-03-27 上海掌门科技有限公司 用于推送信息、采集数据的方法和设备
CN113837036A (zh) * 2021-09-09 2021-12-24 成都齐碳科技有限公司 生物聚合物的表征方法、装置、设备及计算机存储介质

Also Published As

Publication number Publication date
CN107679466B (zh) 2021-06-15
US10719693B2 (en) 2020-07-21
US20190087683A1 (en) 2019-03-21

Similar Documents

Publication Publication Date Title
CN107679466A (zh) 信息输出方法和装置
CN108038469B (zh) 用于检测人体的方法和装置
CN107507153A (zh) 图像去噪方法和装置
CN114913565B (zh) 人脸图像检测方法、模型训练方法、装置及存储介质
CN110263681B (zh) 面部表情的识别方法和装置、存储介质、电子装置
CN107644209A (zh) 人脸检测方法和装置
Fang et al. Bottom-up saliency detection model based on human visual sensitivity and amplitude spectrum
CN107679490A (zh) 用于检测图像质量的方法和装置
CN108898185A (zh) 用于生成图像识别模型的方法和装置
CN110457994A (zh) 人脸图像生成方法及装置、存储介质、计算机设备
CN107633218A (zh) 用于生成图像的方法和装置
CN108898186A (zh) 用于提取图像的方法和装置
CN110070101A (zh) 植物种类的识别方法及装置、存储介质、计算机设备
CN107590807A (zh) 用于检测图像质量的方法和装置
CN108038880A (zh) 用于处理图像的方法和装置
CN106910247A (zh) 用于生成三维头像模型的方法和装置
CN108427939A (zh) 模型生成方法和装置
CN108776786A (zh) 用于生成用户真伪识别模型的方法和装置
CN107622240A (zh) 人脸检测方法和装置
CN108491809A (zh) 用于生成近红外图像生成模型的方法和装置
CN109308681A (zh) 图像处理方法和装置
CN108197618A (zh) 用于生成人脸检测模型的方法和装置
CN107578034A (zh) 信息生成方法和装置
CN107609506A (zh) 用于生成图像的方法和装置
CN108509892A (zh) 用于生成近红外图像的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant