CN105138963A - 图片场景判定方法、装置以及服务器 - Google Patents
图片场景判定方法、装置以及服务器 Download PDFInfo
- Publication number
- CN105138963A CN105138963A CN201510463271.5A CN201510463271A CN105138963A CN 105138963 A CN105138963 A CN 105138963A CN 201510463271 A CN201510463271 A CN 201510463271A CN 105138963 A CN105138963 A CN 105138963A
- Authority
- CN
- China
- Prior art keywords
- picture
- scene
- recognition model
- pending
- photograph album
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/35—Categorising the entire scene, e.g. birthday party or wedding scene
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/1916—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/32—Normalisation of the pattern dimensions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开是关于一种图片场景判定方法、装置以及服务器,其中方法包括:通过获取用户终端的图库,所述图库中包括至少一张待处理图片,采用图片场景识别模型分别对所述待处理图片进行识别,确定所述待处理图片对应的场景,采用所述待处理图片对应的场景对所述待处理图片进行标记,以便在用户查看时,根据待处理图片对应的场景对图库中的待处理图片进行分类并提供给用户,提高用户对图库的使用体验。
Description
技术领域
本公开涉及通信技术领域,尤其涉及一种图片场景判定方法、装置以及服务器。
背景技术
目前,随着智能手机的普及程度越来越高,随时随地的采用手机拍照也越来越流行。针对手机图库中的大量图片,相关技术中,采用拍照时的时间或位置对图片进行标记,以便用户查看某一时间段内或者某个位置拍照得到的图片。
发明内容
本公开实施例提供了一种图片场景判定方法、装置以及服务器。所述技术方案如下:
根据本公开实施例的第一方面,提供一种图片场景判定方法,该方法包括:
获取用户终端的图库,所述图库中包括至少一张待处理图片;
采用图片场景识别模型分别对所述待处理图片进行识别,确定所述待处理图片对应的场景;
采用所述待处理图片对应的场景对所述待处理图片进行标记。
本公开实施例提供的技术方案可以包括以下有益效果:通过获取用户终端的图库,所述图库中包括至少一张待处理图片,采用图片场景识别模型分别对所述待处理图片进行识别,确定所述待处理图片对应的场景,采用所述待处理图片对应的场景对所述待处理图片进行标记,以便在用户查看时,根据待处理图片对应的场景对图库中的待处理图片进行分类并提供给用户,提高用户对图库的使用体验。
进一步地,所述采用图片场景识别模型分别对所述待处理图片进行识别,确定所述待处理图片对应的场景之前,还包括:
获取训练样本集,所述训练样本集中包括各个场景对应的训练图片;
随机将所述各个场景对应的训练图片输入到所述初始图片场景识别模型中,对初始图片场景识别模型中各层隐层节点之间的特征系数进行训练,得到所述图片场景识别模型。
本公开实施例提供的技术方案可以包括以下有益效果:通过获取训练样本集,所述训练样本集中包括各个场景对应的训练图片,随机将所述各个场景对应的训练图片输入到所述初始图片场景识别模型中,对初始图片场景识别模型中各层隐层节点之间的特征系数进行训练,得到所述图片场景识别模型,提高了图片场景识别模型正确识别待处理图片的可能性。
进一步地,所述的方法还包括:
获取测试样本集,所述测试样本集中包括各个场景对应的测试图片;
采用所述图片场景识别模型分别对所述测试样本集中的各个场景对应的测试图片进行识别,得到各个测试图片对应的场景分类结果;
根据所述各个测试图片对应的场景分类结果,确定所述图片场景识别模型对应的分类正确率。
进一步地,根据所述各个测试图片对应的场景分类结果,确定所述图片场景识别模型对应的分类正确率之后,还包括:
若所述分类正确率小于预设阈值,则迭代执行如下处理,直到达到最大迭代次数或分类正确率大于预设阈值为止:
更新所述训练样本集;
根据更新后的训练样本集对所述前一次迭代对应的图片场景识别模型中各层隐层节点之间的特征系数进行训练,迭代本次迭代对应的更新后图片场景识别模型;
根据更新的测试样本集对本次迭代对应的更新后图片场景识别模型进行分类正确率测试,确定对应的分类正确率。
进一步地,确定各次迭代对应的分类正确率中的最大分类正确率;
确定与所述最大分类正确率对应的更新后图片场景识别模型为目标图片场景识别模型。
本公开实施例提供的技术方案可以包括以下有益效果:通过获取测试样本集,所述测试样本集中包括各个场景对应的测试图片,采用所述图片场景识别模型分别对所述测试样本集中的各个场景对应的测试图片进行识别,获取所述图片场景识别模型对应的分类正确率,在所述分类正确率小于预设阈值时,采用更新后的训练样本集对前一次迭代对应的图片场景识别模型中各层隐层节点之间的特征系数进行训练,直至达到最大迭代次数或分类正确率大于预设阈值为止,确定各次迭代对应的分类正确率中的最大分类正确率,确定与最大分类正确率对应的更新后图片场景识别模型为目标图片场景识别模型,从而提高了图片场景识别模型的分类正确率,提高了图片场景识别模型正确识别待处理图片的可能性。
进一步地,所述采用图片场景识别模型分别对所述待处理图片进行识别,确定所述待处理图片对应的场景之前,还包括:
按照预设尺寸对所述待处理图片进行归一化处理,得到与所述待处理图片对应的预设尺寸图片;
对应的,所述采用图片场景识别模型分别对所述待处理图片进行识别,确定所述待处理图片对应的场景,包括:
采用图片场景识别模型对所述预设尺寸图片进行识别,得到所述待处理图片对应的场景。
本公开实施例提供的技术方案可以包括以下有益效果:通过按照预设尺寸对待处理图片进行归一化处理,得到与待处理图片对应的预设尺寸图片,采用图片场景识别模型对预设尺寸图片进行识别,得到所述待处理图片对应的场景,对待处理图片尺寸的归一化处理,提高图片场景识别模型对待处理图片的识别速度,从而提高了待处理图片识别的效率。
进一步地,所述的方法还包括:根据每张待处理图片对应的场景,对用户终端的图库中的每张待处理图片进行分类存储,得到至少一个类相册;
采用各个类相册对应的场景对所述类相册进行标记。
本公开实施例提供的技术方案可以包括以下有益效果:通过获取用户终端的图库,所述图库中包括至少一张待处理图片,采用图片场景识别模型分别对所述待处理图片进行识别,确定所述待处理图片对应的场景,采用所述待处理图片对应的场景对所述待处理图片进行标记,根据每张待处理图片对应的场景,对用户终端的图库中的每张待处理图片进行分类存储,得到至少一个类相册,采用各个类相册对应的场景对所述类相册进行标记,以便用户查看各个类相册,提高用户对图库的使用体验。
进一步地,所述的方法还包括:针对各个类相册,根据所述类相册中每张待处理图片对应的时间和/或地理位置,对所述类相册中的每张待处理图片进行分类存储,得到所述类相册对应的至少一个子类相册;
采用各个子类相册对应的时间和/或地理位置对所述子类相册进行标记。
本公开实施例提供的技术方案可以包括以下有益效果:通过获取用户终端的图库,所述图库中包括至少一张待处理图片,采用图片场景识别模型分别对所述待处理图片进行识别,确定所述待处理图片对应的场景,采用所述待处理图片对应的场景对所述待处理图片进行标记,根据每张待处理图片对应的场景,对用户终端的图库中的每张待处理图片进行分类存储,得到至少一个类相册,针对各个类相册,根据所述类相册中每张待处理图片对应的时间和/或地理位置,对所述类相册中的每张待处理图片进行分类存储,得到所述类相册对应的至少一个子类相册,采用各个子类相册对应的时间和/或地理位置对所述子类相册进行标记,以便用户查看各个类相册或者子类相册,提高用户对图库的使用体验。
根据本公开实施例的第二方面,提供一种图片场景判定装置,该装置包括:
第一获取模块,被配置为获取用户终端的图库,所述图库中包括至少一张待处理图片;
第一识别模块,被配置为采用图片场景识别模型分别对所述待处理图片进行识别,确定所述待处理图片对应的场景;
第一标记模块,被配置为采用所述待处理图片对应的场景对所述待处理图片进行标记。
本公开实施例提供的技术方案可以包括以下有益效果:通过获取用户终端的图库,所述图库中包括至少一张待处理图片,采用图片场景识别模型分别对所述待处理图片进行识别,确定所述待处理图片对应的场景,采用所述待处理图片对应的场景对所述待处理图片进行标记,以便在用户查看时,根据待处理图片对应的场景对图库中的待处理图片进行分类并提供给用户,提高用户对图库的使用体验。
进一步地,所述的装置还包括:
第二获取模块,被配置为获取训练样本集,所述训练样本集中包括各个场景对应的训练图片;
输入模块,被配置为随机将所述各个场景对应的训练图片输入到所述初始图片场景识别模型中,对初始图片场景识别模型中各层隐层节点之间的特征系数进行训练,得到所述图片场景识别模型。
本公开实施例提供的技术方案可以包括以下有益效果:通过获取训练样本集,所述训练样本集中包括各个场景对应的训练图片,随机将所述各个场景对应的训练图片输入到所述初始图片场景识别模型中,对初始图片场景识别模型中各层隐层节点之间的特征系数进行训练,得到所述图片场景识别模型,提高了图片场景识别模型正确识别待处理图片的可能性。
进一步地,所述的装置还包括:
第三获取模块,被配置为获取测试样本集,所述测试样本集中包括各个场景对应的测试图片;
第二识别模块,被配置为采用所述图片场景识别模型分别对所述测试样本集中的各个场景对应的测试图片进行识别,得到各个测试图片对应的场景分类结果;
第一确定模块,被配置为根据所述各个测试图片对应的场景分类结果,确定所述图片场景识别模型对应的分类正确率。
进一步地,所述的装置还包括:
迭代处理模块,被配置为在所述分类正确率小于预设阈值时,迭代执行如下处理,直到达到最大迭代次数或分类正确率大于预设阈值为止:
更新所述训练样本集;
根据更新后的训练样本集对所述前一次迭代对应的图片场景识别模型中各层隐层节点之间的特征系数进行训练,迭代本次迭代对应的更新后图片场景识别模型;
根据更新的测试样本集对本次迭代对应的更新后图片场景识别模型进行分类正确率测试,确定对应的分类正确率。
进一步地,所述的装置还包括:
第二确定模块,被配置为确定各次迭代对应的分类正确率中的最大分类正确率;
第三确定模块,被配置为确定与所述最大分类正确率对应的更新后图片场景识别模型为目标图片场景识别模型。
本公开实施例提供的技术方案可以包括以下有益效果:通过获取测试样本集,所述测试样本集中包括各个场景对应的测试图片,采用所述图片场景识别模型分别对所述测试样本集中的各个场景对应的测试图片进行识别,获取所述图片场景识别模型对应的分类正确率,在所述分类正确率小于预设阈值时,采用更新后的训练样本集对前一次迭代对应的图片场景识别模型中各层隐层节点之间的特征系数进行训练,直至达到最大迭代次数或分类正确率大于预设阈值为止,确定各次迭代对应的分类正确率中的最大分类正确率,确定与最大分类正确率对应的更新后图片场景识别模型为目标图片场景识别模型,从而提高了图片场景识别模型的分类正确率,提高了图片场景识别模型正确识别待处理图片的可能性。
进一步地,所述的装置还包括:
处理模块,被配置为按照预设尺寸对所述待处理图片进行归一化处理,得到与所述待处理图片对应的预设尺寸图片;
对应的,第一识别模块包括:
识别单元,被配置为采用图片场景识别模型对所述预设尺寸图片进行识别,得到所述待处理图片对应的场景。
本公开实施例提供的技术方案可以包括以下有益效果:通过按照预设尺寸对待处理图片进行归一化处理,得到与待处理图片对应的预设尺寸图片,采用图片场景识别模型对预设尺寸图片进行识别,得到所述待处理图片对应的场景,对待处理图片尺寸的归一化处理,提高图片场景识别模型对待处理图片的识别速度,从而提高了待处理图片识别的效率。
进一步地,所述的装置还包括:
第一存储模块,被配置为根据每张待处理图片对应的场景,对用户终端的图库中的每张待处理图片进行分类存储,得到至少一个类相册;
第二标记模块,被配置为采用各个类相册对应的场景对所述类相册进行标记。
本公开实施例提供的技术方案可以包括以下有益效果:通过获取用户终端的图库,所述图库中包括至少一张待处理图片,采用图片场景识别模型分别对所述待处理图片进行识别,确定所述待处理图片对应的场景,采用所述待处理图片对应的场景对所述待处理图片进行标记,根据每张待处理图片对应的场景,对用户终端的图库中的每张待处理图片进行分类存储,得到至少一个类相册,采用各个类相册对应的场景对所述类相册进行标记,以便用户查看各个类相册,提高用户对图库的使用体验。
进一步地,所述的装置还包括:
第二存储模块,被配置为针对各个类相册,根据所述类相册中每张待处理图片对应的时间和/或地理位置,对所述类相册中的每张待处理图片进行分类存储,得到所述类相册对应的至少一个子类相册;
第三标记模块,被配置为采用各个子类相册对应的时间和/或地理位置对所述子类相册进行标记。
本公开实施例提供的技术方案可以包括以下有益效果:通过获取用户终端的图库,所述图库中包括至少一张待处理图片,采用图片场景识别模型分别对所述待处理图片进行识别,确定所述待处理图片对应的场景,采用所述待处理图片对应的场景对所述待处理图片进行标记,根据每张待处理图片对应的场景,对用户终端的图库中的每张待处理图片进行分类存储,得到至少一个类相册,针对各个类相册,根据所述类相册中每张待处理图片对应的时间和/或地理位置,对所述类相册中的每张待处理图片进行分类存储,得到所述类相册对应的至少一个子类相册,采用各个子类相册对应的时间和/或地理位置对所述子类相册进行标记,以便用户查看各个类相册或者子类相册,提高用户对图库的使用体验。
根据本公开实施例的第三方面,提供一种服务器,包括:
处理组件;
用于存储所述处理组件的可执行指令的存储器;
其中,所述处理组件被配置为,
获取用户终端的图库,所述图库中包括至少一张待处理图片;
采用图片场景识别模型分别对所述待处理图片进行识别,确定所述待处理图片对应的场景;
采用所述待处理图片对应的场景对所述待处理图片进行标记。
本公开实施例提供的技术方案可以包括以下有益效果:通过获取用户终端的图库,所述图库中包括至少一张待处理图片,采用图片场景识别模型分别对所述待处理图片进行识别,确定所述待处理图片对应的场景,采用所述待处理图片对应的场景对所述待处理图片进行标记,以便在用户查看时,根据待处理图片对应的场景对图库中的待处理图片进行分类并提供给用户,提高用户对图库的使用体验。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的一种图片场景判定方法的流程图;
图2为卷积神经网络的网络结构;
图3是根据另一示例性实施例示出的一种图片场景判定方法的流程图;
图4是根据另一示例性实施例示出的一种图片场景判定方法的流程图;
图5是根据另一示例性实施例示出的一种图片场景判定方法的流程图;
图6是根据另一示例性实施例示出的一种图片场景判定方法的流程图;
图7是根据另一示例性实施例示出的一种图片场景判定方法的流程图;
图8是根据一示例性实施例示出的一种图片场景判定装置的框图;
图9是根据另一示例性实施例示出的一种图片场景判定装置的框图;
图10是根据另一示例性实施例示出的一种图片场景判定装置的框图;
图11是根据另一示例性实施例示出的一种图片场景判定装置的框图;
图12是根据另一示例性实施例示出的一种图片场景判定装置的框图;
图13是根据另一示例性实施例示出的一种图片场景判定装置的框图;
图14是根据一示例性实施例示出的一种服务器的框图。
通过上述附图,已示出本公开明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本公开构思的范围,而是通过参考特定实施例为本领域技术人员说明本公开的概念。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
图1是根据一示例性实施例示出的一种图片场景判定方法的流程图,该图片场景判定方法可以由图片场景判定装置执行,图片场景判定装置具体可以为手机终端、PAD等智能终端对应的服务器或者服务器上安装的应用程序app。图片场景判定装置还可以为手机终端、PAD等智能终端或者智能终端上安装的应用程序app。本示例性实施例示出的图片场景判定方法可以包括如下几个步骤:
在步骤101中,获取用户终端的图库,图库中包括至少一张待处理图片。
本示例中,服务器获取用户终端的图库之前,用户终端可以通过手动方式或自动方式将图库更新或上传至云服务器。
在步骤102中,采用图片场景识别模型分别对待处理图片进行识别,确定待处理图片对应的场景。
本实施例中,采用卷积神经网络构建图片场景识别模型。卷积神经网络是人工神经网络的一种,已成为当前语音分析和图像识别领域的研究热点。它的权值共享网络结构使之更类似于生物神经网络,降低了网络模型的复杂度,减少了权值的数量。该优点在网络的输入是多维图像时表现的更为明显,使图像可以直接作为网络的输入,避免了传统识别算法中复杂的特征提取和数据重建过程。
卷积神经网络的网络结构如图2所示,卷积神经网络是一个多层的神经网络,每层由多个二维平面组成,而每个平面由多个独立神经元组成。本实施例中,假设基于卷积神经网络获得的敏感图片识别模型具有N层结构,相邻两层隐层节点间的各个连接的权重系数由训练样本集训练确定,为描述方便,本公开实施例中将隐层节点间的连接的权重系数称为特征系数,从而,敏感图片识别模型具有N层特征系数。
本示例中,图片场景识别模型的输入为待处理图片,输出可以为待处理图片的场景分类结果,待处理图片对应的场景可以包括:聚会场景、风景场景、沙滩场景、其他场景等等。将待处理图片输入到图片场景识别模型中,就可以根据输出的待处理图片的场景分类结果确定待处理图片对应的场景是上述场景中的哪一种。
在步骤103中,采用待处理图片对应的场景对待处理图片进行标记。
本示例中,待处理图片可以不局限于用户终端的图库中的图片,也可以为通过其他方式或其他来源获取到的图片,此处对待处理图片的获取方式不做限定,可以根据需要进行设置。
本示例性实施例中,通过获取用户终端的图库,图库中包括至少一张待处理图片,采用图片场景识别模型分别对待处理图片进行识别,确定待处理图片对应的场景,采用待处理图片对应的场景对待处理图片进行标记,以便在用户查看时,根据待处理图片对应的场景对图库中的待处理图片进行分类并提供给用户,提高用户对图库的使用体验。
图3是根据另一示例性实施例示出的一种图片场景判定方法的流程图,如图3所示,在图1所示示例性实施例的基础上,步骤102之前,所述的方法还可以包括:
在步骤104中,获取训练样本集,训练样本集中包括各个场景对应的训练图片。
本示例中,为了保证训练效果,训练样本集中各个场景对应的训练图片的数量可以大于第一预设数量。例如,聚会场景对应的训练图片的数量可以为10万张,风景场景对应的训练图片的数量可以为10万张,沙滩场景对应的训练图片的数量可以为10万张,其他场景对应的训练图片的数量可以为20万张,或者更多。
在步骤105中,随机将各个场景对应的训练图片输入到初始图片场景识别模型中,对初始图片场景识别模型中各层隐层节点之间的特征系数进行训练,得到图片场景识别模型。
本示例中,服务器可以随机将每张训练图片输入到初始图片场景识别模型中,将初始图片场景识别模型输出的场景分类结果与输入的训练图片对应的场景进行比对来确定是否需要对当前图片场景识别模型中各层隐层节点之间的特征系数进行调整。但这样的训练方式往往可能存在这样的问题:根据前一张训练图片对图片场景识别模型中各层隐层节点之间的特征系数进行正向调整后,可能根据后一张训练图片对图片场景识别模型中各层隐层节点之间的特征系数进行反相调整,导致需要频繁地对图片场景识别模型中各层隐层节点之间的特征系数进行调整。
为此,本示例中,服务器还可以将一批训练图片依次输入到初始图片场景识别模型中,根据初始图片场景识别模型输出的这一批训练图片的场景分类结果来确定是否需要对当前图片场景识别模型中各层隐层节点之间的特征系数进行调整。然后再将下一批训练图片依次输入到初始图片场景识别模型中。
本示例性实施例中,通过获取训练样本集,训练样本集中包括各个场景对应的训练图片,随机将各个场景对应的训练图片输入到初始图片场景识别模型中,对初始图片场景识别模型中各层隐层节点之间的特征系数进行训练,得到图片场景识别模型,提高了图片场景识别模型正确识别待处理图片的可能性。
上述示例性实施例训练得到图片场景识别模型后,图片场景识别模型的分类正确率不一定满足预设阈值,因此,为了使图片场景识别模型的分类正确率满足预设阈值,结合参考图4,在步骤105之后,服务器还可以进行以下步骤:
在步骤106中,获取测试样本集,测试样本集中包括各个场景对应的测试图片。
本示例中,为了提高测试效果,测试样本集中包括的各个场景对应的测试图片的数量可以大于第二预设数量。例如,聚会场景对应的测试图片的数量可以为1万张,风景场景对应的测试图片的数量可以为1万张,沙滩场景对应的测试图片的数量可以为1万张,其他场景对应的测试图片的数量可以为2万张,或者更多。
在步骤107中,采用图片场景识别模型分别对测试样本集中的各个场景对应的测试图片进行识别,得到各个测试图片对应的场景分类结果。
在步骤108中,根据各个测试图片对应的场景分类结果,确定图片场景识别模型对应的分类正确率。
本示例中,若测试图片对应的场景分类结果与该测试图片对应的场景相同,则分类正确;若测试图片对应的场景分类结果与该测试图片对应的场景不同,则分类错误;将场景分类正确的测试图片的数量与测试图片的总数量的比值确定为图片场景识别模型的分类正确率。
在步骤109中,若分类正确率小于预设阈值,则迭代执行如下处理,直到达到最大迭代次数或分类正确率大于预设阈值为止:
更新训练样本集;
根据更新后的训练样本集对前一次迭代对应的图片场景识别模型中各层隐层节点之间的特征系数进行训练,迭代本次迭代对应的更新后图片场景识别模型;
根据更新的测试样本集对本次迭代对应的更新后图片场景识别模型进行分类正确率测试,确定对应的分类正确率。
在步骤110中,确定各次迭代对应的分类正确率中的最大分类正确率。
在步骤111中,确定与最大分类正确率对应的更新后图片场景识别模型为目标图片场景识别模型。
本示例性实施例中,通过获取测试样本集,测试样本集中包括各个场景对应的测试图片,采用图片场景识别模型分别对测试样本集中的各个场景对应的测试图片进行识别,获取图片场景识别模型对应的分类正确率,在分类正确率小于预设阈值时,采用更新后的训练样本集对前一次迭代对应的图片场景识别模型中各层隐层节点之间的特征系数进行训练,直至达到最大迭代次数或分类正确率大于预设阈值为止,确定各次迭代对应的分类正确率中的最大分类正确率,确定与最大分类正确率对应的更新后图片场景识别模型为目标图片场景识别模型,从而提高了图片场景识别模型的分类正确率,提高了图片场景识别模型正确识别待处理图片的可能性。
图5是根据另一示例性实施例示出的一种图片场景判定方法的流程图,如图5所示,在图3所示示例性实施例的基础上,为了提高图片场景识别模型对输入的图片的处理速度,可以将待处理图片的尺寸设定为预设尺寸。因此,在步骤102之前,所述的方法还可以包括:
在步骤112中,按照预设尺寸对待处理图片进行归一化处理,得到与待处理图片对应的预设尺寸图片。
本示例中,例如,服务器可以根据需要对预设尺寸进行设置。例如,可以为224像素乘以224像素等。
需要进行说明的是,对应的,可以在步骤105之前和步骤107之前,对各个场景对应的训练图片和测试图片按照上述处理方式进行同样的处理。
对应的,步骤102可以包括步骤1021、采用图片场景识别模型对预设尺寸图片进行识别,得到待处理图片对应的场景。
本示例性实施例中,通过按照预设尺寸对待处理图片进行归一化处理,得到与待处理图片对应的预设尺寸图片,采用图片场景识别模型对预设尺寸图片进行识别,得到待处理图片对应的场景,对待处理图片尺寸的归一化处理,提高图片场景识别模型对待处理图片的识别速度,从而提高了待处理图片识别的效率。
图6是根据另一示例性实施例示出的一种图片场景判定方法的流程图,如图6所示,在图1所示示例性实施例的基础上,所述的方法还可以包括:
在步骤113中,根据每张待处理图片对应的场景,对用户终端的图库中的每张待处理图片进行分类存储,得到至少一个类相册。
在步骤114中,采用各个类相册对应的场景对类相册进行标记。
本示例性实施例中,通过获取用户终端的图库,图库中包括至少一张待处理图片,采用图片场景识别模型分别对待处理图片进行识别,确定待处理图片对应的场景,采用待处理图片对应的场景对待处理图片进行标记,根据每张待处理图片对应的场景,对用户终端的图库中的每张待处理图片进行分类存储,得到至少一个类相册,采用各个类相册对应的场景对类相册进行标记,以便用户查看各个类相册,提高用户对图库的使用体验。
图7是根据另一示例性实施例示出的一种图片场景判定方法的流程图,如图7所示,在图6所示示例性实施例的基础上,所述的方法还可以包括:
在步骤115中,针对各个类相册,根据类相册中每张待处理图片对应的时间和/或地理位置,对类相册中的每张待处理图片进行分类存储,得到类相册对应的至少一个子类相册。
在步骤116中,采用各个子类相册对应的时间和/或地理位置对子类相册进行标记。
本示例性实施例中,通过获取用户终端的图库,图库中包括至少一张待处理图片,采用图片场景识别模型分别对待处理图片进行识别,确定待处理图片对应的场景,采用待处理图片对应的场景对待处理图片进行标记,根据每张待处理图片对应的场景,对用户终端的图库中的每张待处理图片进行分类存储,得到至少一个类相册,针对各个类相册,根据类相册中每张待处理图片对应的时间和/或地理位置,对类相册中的每张待处理图片进行分类存储,得到类相册对应的至少一个子类相册,采用各个子类相册对应的时间和/或地理位置对子类相册进行标记,以便用户查看各个类相册或者子类相册,提高用户对图库的使用体验。
下述为本公开装置实施例,可以用于执行本公开方法实施例。对于本公开装置实施例中未披露的细节,请参照本公开方法实施例。
图8是根据一示例性实施例示出的一种图片场景判定装置的框图,该图片场景判定装置可以通过软件、硬件或者两者的结合实现上述方法。该图片场景判定装置可以包括:
第一获取模块81,被配置为获取用户终端的图库,图库中包括至少一张待处理图片;
第一识别模块82,被配置为采用图片场景识别模型分别对待处理图片进行识别,确定待处理图片对应的场景;
第一标记模块83,被配置为采用待处理图片对应的场景对待处理图片进行标记。
本实施例中,采用卷积神经网络构建图片场景识别模型。卷积神经网络是人工神经网络的一种,已成为当前语音分析和图像识别领域的研究热点。它的权值共享网络结构使之更类似于生物神经网络,降低了网络模型的复杂度,减少了权值的数量。该优点在网络的输入是多维图像时表现的更为明显,使图像可以直接作为网络的输入,避免了传统识别算法中复杂的特征提取和数据重建过程。
卷积神经网络的网络结构如图2所示,卷积神经网络是一个多层的神经网络,每层由多个二维平面组成,而每个平面由多个独立神经元组成。本实施例中,假设基于卷积神经网络获得的敏感图片识别模型具有N层结构,相邻两层隐层节点间的各个连接的权重系数由训练样本集训练确定,为描述方便,本公开实施例中将隐层节点间的连接的权重系数称为特征系数,从而,敏感图片识别模型具有N层特征系数。
本示例中,图片场景识别模型的输入为待处理图片,输出可以为待处理图片的场景分类结果,待处理图片对应的场景可以包括:聚会场景、风景场景、沙滩场景、其他场景等等。将待处理图片输入到图片场景识别模型中,就可以根据输出的待处理图片的场景分类结果确定待处理图片对应的场景是上述场景中的哪一种。
本示例中,待处理图片可以不局限于用户终端的图库中的图片,也可以为通过其他方式或其他来源获取到的图片,此处对待处理图片的获取方式不做限定,可以根据需要进行设置。
本示例性实施例中,通过获取用户终端的图库,图库中包括至少一张待处理图片,采用图片场景识别模型分别对待处理图片进行识别,确定待处理图片对应的场景,采用待处理图片对应的场景对待处理图片进行标记,以便在用户查看时,根据待处理图片对应的场景对图库中的待处理图片进行分类并提供给用户,提高用户对图库的使用体验。
结合参考图9,在图8所示示例性实施例的基础上,所述的装置还包括:
第二获取模块84,被配置为获取训练样本集,训练样本集中包括各个场景对应的训练图片;
输入模块85,被配置为随机将各个场景对应的训练图片输入到初始图片场景识别模型中,对初始图片场景识别模型中各层隐层节点之间的特征系数进行训练,得到图片场景识别模型。
本示例中,为了保证训练效果,训练样本集中各个场景对应的训练图片的数量可以大于第一预设数量。例如,聚会场景对应的训练图片的数量可以为10万张,风景场景对应的训练图片的数量可以为10万张,沙滩场景对应的训练图片的数量可以为10万张,其他场景对应的训练图片的数量可以为20万张,或者更多。
本示例中,服务器可以随机将每张训练图片输入到初始图片场景识别模型中,将初始图片场景识别模型输出的场景分类结果与输入的训练图片对应的场景进行比对来确定是否需要对当前图片场景识别模型中各层隐层节点之间的特征系数进行调整。但这样的训练方式往往可能存在这样的问题:根据前一张训练图片对图片场景识别模型中各层隐层节点之间的特征系数进行正向调整后,可能根据后一张训练图片对图片场景识别模型中各层隐层节点之间的特征系数进行反相调整,导致需要频繁地对图片场景识别模型中各层隐层节点之间的特征系数进行调整。
为此,本示例中,服务器还可以将一批训练图片依次输入到初始图片场景识别模型中,根据初始图片场景识别模型输出的这一批训练图片的场景分类结果来确定是否需要对当前图片场景识别模型中各层隐层节点之间的特征系数进行调整。然后再将下一批训练图片依次输入到初始图片场景识别模型中。
本示例性实施例中,通过获取训练样本集,训练样本集中包括各个场景对应的训练图片,随机将各个场景对应的训练图片输入到初始图片场景识别模型中,对初始图片场景识别模型中各层隐层节点之间的特征系数进行训练,得到图片场景识别模型,提高了图片场景识别模型正确识别待处理图片的可能性。
本示例性实施例中,通过获取训练样本集,训练样本集中包括各个场景对应的训练图片,随机将各个场景对应的训练图片输入到初始图片场景识别模型中,对初始图片场景识别模型中各层隐层节点之间的特征系数进行训练,得到图片场景识别模型,提高了图片场景识别模型正确识别待处理图片的可能性。
结合参考图10,在图9所示示例性实施例的基础上,所述的装置还包括:
第三获取模块86,被配置为获取测试样本集,测试样本集中包括各个场景对应的测试图片;
第二识别模块87,被配置为采用图片场景识别模型分别对测试样本集中的各个场景对应的测试图片进行识别,得到各个测试图片对应的场景分类结果;
第一确定模块88,被配置为根据各个测试图片对应的场景分类结果,确定图片场景识别模型对应的分类正确率。
迭代处理模块89,被配置为在分类正确率小于预设阈值时,迭代执行如下处理,直到达到最大迭代次数或分类正确率大于预设阈值为止:
更新训练样本集;
根据更新后的训练样本集对前一次迭代对应的图片场景识别模型中各层隐层节点之间的特征系数进行训练,迭代本次迭代对应的更新后图片场景识别模型;
根据更新的测试样本集对本次迭代对应的更新后图片场景识别模型进行分类正确率测试,确定对应的分类正确率。
第二确定模块90,被配置为确定各次迭代对应的分类正确率中的最大分类正确率;
第三确定模块91,被配置为确定与最大分类正确率对应的更新后图片场景识别模型为目标图片场景识别模型。
本示例中,为了提高测试效果,测试样本集中包括的各个场景对应的测试图片的数量可以大于第二预设数量。例如,聚会场景对应的测试图片的数量可以为1万张,风景场景对应的测试图片的数量可以为1万张,沙滩场景对应的测试图片的数量可以为1万张,其他场景对应的测试图片的数量可以为2万张,或者更多。
本示例中,若测试图片对应的场景分类结果与该测试图片对应的场景相同,则分类正确;若测试图片对应的场景分类结果与该测试图片对应的场景不同,则分类错误;将场景分类正确的测试图片的数量与测试图片的总数量的比值确定为图片场景识别模型的分类正确率。
本示例性实施例中,通过获取测试样本集,测试样本集中包括各个场景对应的测试图片,采用图片场景识别模型分别对测试样本集中的各个场景对应的测试图片进行识别,获取图片场景识别模型对应的分类正确率,在分类正确率小于预设阈值时,采用更新后的训练样本集对前一次迭代对应的图片场景识别模型中各层隐层节点之间的特征系数进行训练,直至达到最大迭代次数或分类正确率大于预设阈值为止,确定各次迭代对应的分类正确率中的最大分类正确率,确定与最大分类正确率对应的更新后图片场景识别模型为目标图片场景识别模型,从而提高了图片场景识别模型的分类正确率,提高了图片场景识别模型正确识别待处理图片的可能性。
结合参考图11,在图8所示示例性实施例的基础上,所述的装置还包括:
处理模块92,被配置为按照预设尺寸对待处理图片进行归一化处理,得到与待处理图片对应的预设尺寸图片;
对应的,第一识别模块82包括:
识别单元821,被配置为采用图片场景识别模型对预设尺寸图片进行识别,得到待处理图片对应的场景。
本示例中,对各个场景对应的训练图片和测试图片按照上述处理方式进行同样的处理。
本示例性实施例中,通过按照预设尺寸对待处理图片进行归一化处理,得到与待处理图片对应的预设尺寸图片,采用图片场景识别模型对预设尺寸图片进行识别,得到待处理图片对应的场景,对待处理图片尺寸的归一化处理,提高图片场景识别模型对待处理图片的识别速度,从而提高了待处理图片识别的效率。
结合参考图12,在图8所示示例性实施例的基础上,所述的装置还包括:
第一存储模块93,被配置为根据每张待处理图片对应的场景,对用户终端的图库中的每张待处理图片进行分类存储,得到至少一个类相册;
第二标记模块94,被配置为采用各个类相册对应的场景对类相册进行标记。
本示例性实施例中,通过获取用户终端的图库,图库中包括至少一张待处理图片,采用图片场景识别模型分别对待处理图片进行识别,确定待处理图片对应的场景,采用待处理图片对应的场景对待处理图片进行标记,根据每张待处理图片对应的场景,对用户终端的图库中的每张待处理图片进行分类存储,得到至少一个类相册,采用各个类相册对应的场景对类相册进行标记,以便用户查看各个类相册,提高用户对图库的使用体验。
结合参考图13,在图12所示示例性实施例的基础上,所述的装置还包括:
第二存储模块95,被配置为针对各个类相册,根据类相册中每张待处理图片对应的时间和/或地理位置,对类相册中的每张待处理图片进行分类存储,得到类相册对应的至少一个子类相册;
第三标记模块96,被配置为采用各个子类相册对应的时间和/或地理位置对子类相册进行标记。
本示例性实施例中,通过获取用户终端的图库,图库中包括至少一张待处理图片,采用图片场景识别模型分别对待处理图片进行识别,确定待处理图片对应的场景,采用待处理图片对应的场景对待处理图片进行标记,根据每张待处理图片对应的场景,对用户终端的图库中的每张待处理图片进行分类存储,得到至少一个类相册,针对各个类相册,根据类相册中每张待处理图片对应的时间和/或地理位置,对类相册中的每张待处理图片进行分类存储,得到类相册对应的至少一个子类相册,采用各个子类相册对应的时间和/或地理位置对子类相册进行标记,以便用户查看各个类相册或者子类相册,提高用户对图库的使用体验。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图14是根据一示例性实施例示出的一种服务器140的框图。参照图14,服务器140可以包括以下一个或多个组件:处理组件142,存储器144,电源组件146,输入/输出(I/O)的接口148,以及通信组件1410。
处理组件142通常控制服务器140的整体操作,处理组件142具体可以被配置为获取用户终端的图库,图库中包括至少一张待处理图片;采用图片场景识别模型分别对待处理图片进行识别,确定待处理图片对应的场景;采用待处理图片对应的场景对待处理图片进行标记。
处理组件142可以包括一个或多个处理器1420来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件142可以包括一个或多个模块,便于处理组件142和其他组件之间的交互。例如,处理组件142可以包括通信模块,以方便通信组件1410和处理组件142之间的交互。
存储器144被配置为存储各种类型的数据以及处理组件142的可执行指令以支持服务器的操作。这些数据的示例包括应用相关的程序、指令或运行数据等。存储器144可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件146为服务器140的各种组件提供电力。电源组件146可以包括电源管理系统,一个或多个电源,及其他与为服务器140相关联的组件。
I/O接口148为处理组件142和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。通信组件1410被配置为便于服务器140和其他设备之间有线或无线方式的通信。服务器140可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件1410经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,通信组件1410还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,服务器140可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述图片场景判定方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器144,上述指令可由服务器140的处理器1420执行以完成上述方法。例如,非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
一种非临时性计算机可读存储介质,当存储介质中的指令由服务器140的处理器执行时,使得服务器140能够执行上述图片场景判定方法。
本示例性实施例中,通过获取用户终端的图库,图库中包括至少一张待处理图片,采用图片场景识别模型分别对待处理图片进行识别,确定待处理图片对应的场景,采用待处理图片对应的场景对待处理图片进行标记,以便在用户查看时,根据待处理图片对应的场景对图库中的待处理图片进行分类并提供给用户,提高用户对图库的使用体验。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (17)
1.一种图片场景判定方法,其特征在于,包括:
获取用户终端的图库,所述图库中包括至少一张待处理图片;
采用图片场景识别模型分别对所述待处理图片进行识别,确定所述待处理图片对应的场景;
采用所述待处理图片对应的场景对所述待处理图片进行标记。
2.根据权利要求1所述的方法,其特征在于,所述采用图片场景识别模型分别对所述待处理图片进行识别,确定所述待处理图片对应的场景之前,还包括:
获取训练样本集,所述训练样本集中包括各个场景对应的训练图片;
随机将所述各个场景对应的训练图片输入到所述初始图片场景识别模型中,对初始图片场景识别模型中各层隐层节点之间的特征系数进行训练,得到所述图片场景识别模型。
3.根据权利要求2所述的方法,其特征在于,还包括:
获取测试样本集,所述测试样本集中包括各个场景对应的测试图片;
采用所述图片场景识别模型分别对所述测试样本集中的各个场景对应的测试图片进行识别,得到各个测试图片对应的场景分类结果;
根据所述各个测试图片对应的场景分类结果,确定所述图片场景识别模型对应的分类正确率。
4.根据权利要求3所述的方法,其特征在于,根据所述各个测试图片对应的场景分类结果,确定所述图片场景识别模型对应的分类正确率之后,还包括:
若所述分类正确率小于预设阈值,则迭代执行如下处理,直到达到最大迭代次数或分类正确率大于预设阈值为止:
更新所述训练样本集;
根据更新后的训练样本集对所述前一次迭代对应的图片场景识别模型中各层隐层节点之间的特征系数进行训练,迭代本次迭代对应的更新后图片场景识别模型;
根据更新的测试样本集对本次迭代对应的更新后图片场景识别模型进行分类正确率测试,确定对应的分类正确率。
5.根据权利要求4所述的方法,其特征在于,还包括:
确定各次迭代对应的分类正确率中的最大分类正确率;
确定与所述最大分类正确率对应的更新后图片场景识别模型为目标图片场景识别模型。
6.根据权利要求1所述的方法,其特征在于,所述采用图片场景识别模型分别对所述待处理图片进行识别,确定所述待处理图片对应的场景之前,还包括:
按照预设尺寸对所述待处理图片进行归一化处理,得到与所述待处理图片对应的预设尺寸图片;
对应的,所述采用图片场景识别模型分别对所述待处理图片进行识别,确定所述待处理图片对应的场景,包括:
采用图片场景识别模型对所述预设尺寸图片进行识别,得到所述待处理图片对应的场景。
7.根据权利要求1所述的方法,其特征在于,还包括:
根据每张待处理图片对应的场景,对用户终端的图库中的每张待处理图片进行分类存储,得到至少一个类相册;
采用各个类相册对应的场景对所述类相册进行标记。
8.根据权利要求7所述的方法,其特征在于,还包括:
针对各个类相册,根据所述类相册中每张待处理图片对应的时间和/或地理位置,对所述类相册中的每张待处理图片进行分类存储,得到所述类相册对应的至少一个子类相册;
采用各个子类相册对应的时间和/或地理位置对所述子类相册进行标记。
9.一种图片场景判定装置,其特征在于,包括:
第一获取模块,被配置为获取用户终端的图库,所述图库中包括至少一张待处理图片;
第一识别模块,被配置为采用图片场景识别模型分别对所述待处理图片进行识别,确定所述待处理图片对应的场景;
第一标记模块,被配置为采用所述待处理图片对应的场景对所述待处理图片进行标记。
10.根据权利要求9所述的装置,其特征在于,还包括:
第二获取模块,被配置为获取训练样本集,所述训练样本集中包括各个场景对应的训练图片;
输入模块,被配置为随机将所述各个场景对应的训练图片输入到所述初始图片场景识别模型中,对初始图片场景识别模型中各层隐层节点之间的特征系数进行训练,得到所述图片场景识别模型。
11.根据权利要求10所述的装置,其特征在于,还包括:
第三获取模块,被配置为获取测试样本集,所述测试样本集中包括各个场景对应的测试图片;
第二识别模块,被配置为采用所述图片场景识别模型分别对所述测试样本集中的各个场景对应的测试图片进行识别,得到各个测试图片对应的场景分类结果;
第一确定模块,被配置为根据所述各个测试图片对应的场景分类结果,确定所述图片场景识别模型对应的分类正确率。
12.根据权利要求11所述的装置,其特征在于,还包括:
迭代处理模块,被配置为在所述分类正确率小于预设阈值时,迭代执行如下处理,直到达到最大迭代次数或分类正确率大于预设阈值为止:
更新所述训练样本集;
根据更新后的训练样本集对所述前一次迭代对应的图片场景识别模型中各层隐层节点之间的特征系数进行训练,迭代本次迭代对应的更新后图片场景识别模型;
根据更新的测试样本集对本次迭代对应的更新后图片场景识别模型进行分类正确率测试,确定对应的分类正确率。
13.根据权利要求12所述的装置,其特征在于,还包括:
第二确定模块,被配置为确定各次迭代对应的分类正确率中的最大分类正确率;
第三确定模块,被配置为确定与所述最大分类正确率对应的更新后图片场景识别模型为目标图片场景识别模型。
14.根据权利要求9所述的装置,其特征在于,还包括:
处理模块,被配置为按照预设尺寸对所述待处理图片进行归一化处理,得到与所述待处理图片对应的预设尺寸图片;
对应的,第一识别模块包括:
识别单元,被配置为采用图片场景识别模型对所述预设尺寸图片进行识别,得到所述待处理图片对应的场景。
15.根据权利要求9所述的装置,其特征在于,还包括:
第一存储模块,被配置为根据每张待处理图片对应的场景,对用户终端的图库中的每张待处理图片进行分类存储,得到至少一个类相册;
第二标记模块,被配置为采用各个类相册对应的场景对所述类相册进行标记。
16.根据权利要求15所述的装置,其特征在于,还包括:
第二存储模块,被配置为针对各个类相册,根据所述类相册中每张待处理图片对应的时间和/或地理位置,对所述类相册中的每张待处理图片进行分类存储,得到所述类相册对应的至少一个子类相册;
第三标记模块,被配置为采用各个子类相册对应的时间和/或地理位置对所述子类相册进行标记。
17.一种服务器,其特征在于,包括:
处理组件;
用于存储所述处理组件的可执行指令的存储器;
其中,所述处理组件被配置为,
获取用户终端的图库,所述图库中包括至少一张待处理图片;
采用图片场景识别模型分别对所述待处理图片进行识别,确定所述待处理图片对应的场景;
采用所述待处理图片对应的场景对所述待处理图片进行标记。
Priority Applications (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510463271.5A CN105138963A (zh) | 2015-07-31 | 2015-07-31 | 图片场景判定方法、装置以及服务器 |
KR1020167005266A KR101796401B1 (ko) | 2015-07-31 | 2015-12-28 | 이미지 장면 판정 방법, 장치 및 서버 |
MX2016003724A MX2016003724A (es) | 2015-07-31 | 2015-12-28 | Metodo, aparato y servidor para determinacion de escena de imagen. |
JP2017531955A JP2017536635A (ja) | 2015-07-31 | 2015-12-28 | ピクチャーのシーンの判定方法、装置及びサーバ |
PCT/CN2015/099291 WO2017020514A1 (zh) | 2015-07-31 | 2015-12-28 | 图片场景判定方法、装置以及服务器 |
RU2016110590A RU2631994C1 (ru) | 2015-07-31 | 2015-12-28 | Способ, устройство и сервер для определения плана съемки изображения |
US15/207,278 US20170032189A1 (en) | 2015-07-31 | 2016-07-11 | Method, apparatus and computer-readable medium for image scene determination |
EP16180960.3A EP3125156A1 (en) | 2015-07-31 | 2016-07-25 | Method, apparatus and server for image scene determination |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510463271.5A CN105138963A (zh) | 2015-07-31 | 2015-07-31 | 图片场景判定方法、装置以及服务器 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105138963A true CN105138963A (zh) | 2015-12-09 |
Family
ID=54724307
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510463271.5A Pending CN105138963A (zh) | 2015-07-31 | 2015-07-31 | 图片场景判定方法、装置以及服务器 |
Country Status (8)
Country | Link |
---|---|
US (1) | US20170032189A1 (zh) |
EP (1) | EP3125156A1 (zh) |
JP (1) | JP2017536635A (zh) |
KR (1) | KR101796401B1 (zh) |
CN (1) | CN105138963A (zh) |
MX (1) | MX2016003724A (zh) |
RU (1) | RU2631994C1 (zh) |
WO (1) | WO2017020514A1 (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105678622A (zh) * | 2016-01-07 | 2016-06-15 | 平安科技(深圳)有限公司 | 车险理赔照片的分析方法及系统 |
WO2017020514A1 (zh) * | 2015-07-31 | 2017-02-09 | 小米科技有限责任公司 | 图片场景判定方法、装置以及服务器 |
CN107527091A (zh) * | 2016-10-14 | 2017-12-29 | 腾讯科技(北京)有限公司 | 数据处理方法和装置 |
CN107609602A (zh) * | 2017-09-28 | 2018-01-19 | 吉林大学 | 一种基于卷积神经网络的驾驶场景分类方法 |
CN108009280A (zh) * | 2017-12-21 | 2018-05-08 | 广东欧珀移动通信有限公司 | 图片处理方法、装置、终端及存储介质 |
CN108236784A (zh) * | 2018-01-22 | 2018-07-03 | 腾讯科技(深圳)有限公司 | 模型的训练方法和装置、存储介质、电子装置 |
CN109101547A (zh) * | 2018-07-05 | 2018-12-28 | 北京泛化智能科技有限公司 | 用于野生动物的管理方法及装置 |
CN109284687A (zh) * | 2018-08-24 | 2019-01-29 | 武汉大学 | 一种基于室内机会信号增强的场景识别方法及装置 |
CN110059707A (zh) * | 2019-04-25 | 2019-07-26 | 北京小米移动软件有限公司 | 图像特征点的优化方法、装置和设备 |
CN110060122A (zh) * | 2019-03-16 | 2019-07-26 | 平安城市建设科技(深圳)有限公司 | 图片展示方法、装置、设备及计算机可读存储介质 |
CN110399803A (zh) * | 2019-07-01 | 2019-11-01 | 北京邮电大学 | 一种车辆检测方法及装置 |
CN111209904A (zh) * | 2018-11-21 | 2020-05-29 | 华为技术有限公司 | 一种业务处理的方法以及相关装置 |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL236598A0 (en) * | 2015-01-05 | 2015-05-31 | Superfish Ltd | Image similarity as a function of image weighted image descriptors generated from neural networks |
US10970605B2 (en) * | 2017-01-03 | 2021-04-06 | Samsung Electronics Co., Ltd. | Electronic apparatus and method of operating the same |
CN111526290B (zh) * | 2017-11-08 | 2021-09-28 | Oppo广东移动通信有限公司 | 图像处理方法、装置、终端及存储介质 |
CN108229680B (zh) * | 2017-12-15 | 2021-11-23 | 北京市商汤科技开发有限公司 | 神经网络系统、遥感图像识别方法、装置、设备及介质 |
CN110276364B (zh) * | 2018-03-15 | 2023-08-08 | 阿里巴巴集团控股有限公司 | 分类模型的训练方法、数据分类方法、装置及电子设备 |
CN112232476B (zh) * | 2018-05-10 | 2024-04-16 | 创新先进技术有限公司 | 更新测试样本集的方法及装置 |
CN109242984B (zh) * | 2018-08-27 | 2020-06-16 | 百度在线网络技术(北京)有限公司 | 虚拟三维场景构建方法、装置及设备 |
CN109452914A (zh) * | 2018-11-01 | 2019-03-12 | 北京石头世纪科技有限公司 | 智能清洁设备,清洁模式选择方法,计算机存储介质 |
CN110489592B (zh) * | 2019-07-18 | 2024-05-03 | 平安科技(深圳)有限公司 | 视频分类方法、装置、计算机设备和存储介质 |
US10943353B1 (en) | 2019-09-11 | 2021-03-09 | International Business Machines Corporation | Handling untrainable conditions in a network architecture search |
US11023783B2 (en) * | 2019-09-11 | 2021-06-01 | International Business Machines Corporation | Network architecture search with global optimization |
CN110929663B (zh) * | 2019-11-28 | 2023-12-29 | Oppo广东移动通信有限公司 | 一种场景预测方法及终端、存储介质 |
CN111860403B (zh) * | 2020-07-28 | 2024-06-14 | 商汤国际私人有限公司 | 场景信息的检测方法和装置、电子设备 |
CN112580481B (zh) * | 2020-12-14 | 2024-05-28 | 康佳集团股份有限公司 | 基于边缘节点和云端协同视频处理方法、装置、服务器 |
CN113705362B (zh) * | 2021-08-03 | 2023-10-20 | 北京百度网讯科技有限公司 | 图像检测模型的训练方法、装置、电子设备及存储介质 |
CN114677691B (zh) * | 2022-04-06 | 2023-10-03 | 北京百度网讯科技有限公司 | 文本识别方法、装置、电子设备及存储介质 |
CN116524302B (zh) * | 2023-05-05 | 2024-01-26 | 广州市智慧城市投资运营有限公司 | 一种场景识别模型的训练方法、装置及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102663448A (zh) * | 2012-03-07 | 2012-09-12 | 北京理工大学 | 一种基于网络的增强现实物体识别分析方法 |
US8385632B2 (en) * | 2010-06-01 | 2013-02-26 | Mitsubishi Electric Research Laboratories, Inc. | System and method for adapting generic classifiers for object detection in particular scenes using incremental training |
US8798378B1 (en) * | 2009-12-07 | 2014-08-05 | Google Inc. | Scene classification for place recognition |
CN104751175A (zh) * | 2015-03-12 | 2015-07-01 | 西安电子科技大学 | 基于增量支持向量机的sar图像多类标场景分类方法 |
CN104809469A (zh) * | 2015-04-21 | 2015-07-29 | 重庆大学 | 一种面向服务机器人的室内场景图像分类方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6482133A (en) * | 1987-09-24 | 1989-03-28 | Nec Corp | Network learning system |
JP4220595B2 (ja) * | 1998-08-10 | 2009-02-04 | 株式会社日立製作所 | 欠陥の分類方法並びに教示用データ作成方法 |
JP3965983B2 (ja) * | 2001-11-30 | 2007-08-29 | 松下電工株式会社 | 画像処理方法およびその装置 |
US7295700B2 (en) * | 2003-10-24 | 2007-11-13 | Adobe Systems Incorporated | Object extraction based on color and visual texture |
US7715597B2 (en) * | 2004-12-29 | 2010-05-11 | Fotonation Ireland Limited | Method and component for image recognition |
US8934717B2 (en) * | 2007-06-05 | 2015-01-13 | Intellectual Ventures Fund 83 Llc | Automatic story creation using semantic classifiers for digital assets and associated metadata |
US9443141B2 (en) * | 2008-06-02 | 2016-09-13 | New York University | Method, system, and computer-accessible medium for classification of at least one ICTAL state |
US8611677B2 (en) * | 2008-11-19 | 2013-12-17 | Intellectual Ventures Fund 83 Llc | Method for event-based semantic classification |
JP2011049740A (ja) * | 2009-08-26 | 2011-03-10 | Sony Corp | 画像処理装置および方法 |
US20130229262A1 (en) * | 2012-03-05 | 2013-09-05 | Symbol Technologies, Inc. | Radio frequency identification reader antenna arrangement with multiple linearly-polarized elements |
CA2905072A1 (en) * | 2013-03-15 | 2014-09-25 | The Cleveland Clinic Foundation | Self-evolving predictive model |
US20140280561A1 (en) * | 2013-03-15 | 2014-09-18 | Fujifilm North America Corporation | System and method of distributed event based digital image collection, organization and sharing |
CN103440318B (zh) * | 2013-08-29 | 2016-08-17 | 王靖洲 | 移动终端的景观识别系统 |
US10043112B2 (en) | 2014-03-07 | 2018-08-07 | Qualcomm Incorporated | Photo management |
US9524450B2 (en) * | 2015-03-04 | 2016-12-20 | Accenture Global Services Limited | Digital image processing using convolutional neural networks |
US10062010B2 (en) * | 2015-06-26 | 2018-08-28 | Intel Corporation | System for building a map and subsequent localization |
CN105138963A (zh) * | 2015-07-31 | 2015-12-09 | 小米科技有限责任公司 | 图片场景判定方法、装置以及服务器 |
-
2015
- 2015-07-31 CN CN201510463271.5A patent/CN105138963A/zh active Pending
- 2015-12-28 WO PCT/CN2015/099291 patent/WO2017020514A1/zh active Application Filing
- 2015-12-28 KR KR1020167005266A patent/KR101796401B1/ko active IP Right Grant
- 2015-12-28 JP JP2017531955A patent/JP2017536635A/ja active Pending
- 2015-12-28 MX MX2016003724A patent/MX2016003724A/es unknown
- 2015-12-28 RU RU2016110590A patent/RU2631994C1/ru active
-
2016
- 2016-07-11 US US15/207,278 patent/US20170032189A1/en not_active Abandoned
- 2016-07-25 EP EP16180960.3A patent/EP3125156A1/en not_active Withdrawn
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8798378B1 (en) * | 2009-12-07 | 2014-08-05 | Google Inc. | Scene classification for place recognition |
US8385632B2 (en) * | 2010-06-01 | 2013-02-26 | Mitsubishi Electric Research Laboratories, Inc. | System and method for adapting generic classifiers for object detection in particular scenes using incremental training |
CN102663448A (zh) * | 2012-03-07 | 2012-09-12 | 北京理工大学 | 一种基于网络的增强现实物体识别分析方法 |
CN104751175A (zh) * | 2015-03-12 | 2015-07-01 | 西安电子科技大学 | 基于增量支持向量机的sar图像多类标场景分类方法 |
CN104809469A (zh) * | 2015-04-21 | 2015-07-29 | 重庆大学 | 一种面向服务机器人的室内场景图像分类方法 |
Non-Patent Citations (2)
Title |
---|
BOLEI ZHOU等: "Learning Deep Features for Scene Recognition using Places Database", 《ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS 27(NIPS 2014)》 * |
余成波等: "《生物特征识别技术 手指静脉识别技术》", 30 April 2009 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017020514A1 (zh) * | 2015-07-31 | 2017-02-09 | 小米科技有限责任公司 | 图片场景判定方法、装置以及服务器 |
CN105678622A (zh) * | 2016-01-07 | 2016-06-15 | 平安科技(深圳)有限公司 | 车险理赔照片的分析方法及系统 |
CN107527091A (zh) * | 2016-10-14 | 2017-12-29 | 腾讯科技(北京)有限公司 | 数据处理方法和装置 |
CN107527091B (zh) * | 2016-10-14 | 2021-05-25 | 腾讯科技(北京)有限公司 | 数据处理方法和装置 |
CN107609602A (zh) * | 2017-09-28 | 2018-01-19 | 吉林大学 | 一种基于卷积神经网络的驾驶场景分类方法 |
CN108009280A (zh) * | 2017-12-21 | 2018-05-08 | 广东欧珀移动通信有限公司 | 图片处理方法、装置、终端及存储介质 |
CN108009280B (zh) * | 2017-12-21 | 2021-01-01 | Oppo广东移动通信有限公司 | 图片处理方法、装置、终端及存储介质 |
CN108236784A (zh) * | 2018-01-22 | 2018-07-03 | 腾讯科技(深圳)有限公司 | 模型的训练方法和装置、存储介质、电子装置 |
CN108236784B (zh) * | 2018-01-22 | 2021-09-24 | 腾讯科技(深圳)有限公司 | 模型的训练方法和装置、存储介质、电子装置 |
CN109101547A (zh) * | 2018-07-05 | 2018-12-28 | 北京泛化智能科技有限公司 | 用于野生动物的管理方法及装置 |
CN109101547B (zh) * | 2018-07-05 | 2021-11-12 | 北京泛化智能科技有限公司 | 用于野生动物的管理方法及装置 |
CN109284687B (zh) * | 2018-08-24 | 2020-08-07 | 武汉大学 | 一种基于室内机会信号增强的场景识别方法及装置 |
CN109284687A (zh) * | 2018-08-24 | 2019-01-29 | 武汉大学 | 一种基于室内机会信号增强的场景识别方法及装置 |
CN111209904A (zh) * | 2018-11-21 | 2020-05-29 | 华为技术有限公司 | 一种业务处理的方法以及相关装置 |
CN110060122A (zh) * | 2019-03-16 | 2019-07-26 | 平安城市建设科技(深圳)有限公司 | 图片展示方法、装置、设备及计算机可读存储介质 |
CN110059707A (zh) * | 2019-04-25 | 2019-07-26 | 北京小米移动软件有限公司 | 图像特征点的优化方法、装置和设备 |
CN110399803A (zh) * | 2019-07-01 | 2019-11-01 | 北京邮电大学 | 一种车辆检测方法及装置 |
CN110399803B (zh) * | 2019-07-01 | 2022-04-22 | 北京邮电大学 | 一种车辆检测方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2017536635A (ja) | 2017-12-07 |
MX2016003724A (es) | 2018-06-22 |
WO2017020514A1 (zh) | 2017-02-09 |
RU2631994C1 (ru) | 2017-09-29 |
EP3125156A1 (en) | 2017-02-01 |
KR20170023761A (ko) | 2017-03-06 |
KR101796401B1 (ko) | 2017-11-10 |
US20170032189A1 (en) | 2017-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105138963A (zh) | 图片场景判定方法、装置以及服务器 | |
CN105095911A (zh) | 敏感图片识别方法、装置以及服务器 | |
WO2020164270A1 (zh) | 基于深度学习的行人检测方法、系统、装置及存储介质 | |
CN105512685B (zh) | 物体识别方法和装置 | |
US10055673B2 (en) | Method and device for processing an image of pixels, corresponding computer program product and computer-readable medium | |
CN108009589A (zh) | 样本数据处理方法、装置和计算机可读存储介质 | |
WO2020062804A1 (zh) | 自然场景中行驶证拍照影像的识别方法、装置及电子设备 | |
CN106548145A (zh) | 图像识别方法及装置 | |
CN105335712A (zh) | 图像识别方法、装置及终端 | |
CN108009588A (zh) | 定位方法及装置、移动终端 | |
CN105868772A (zh) | 图像识别方法及装置 | |
CN106295499A (zh) | 年龄估计方法及装置 | |
CN109034069A (zh) | 用于生成信息的方法和装置 | |
CN108256549A (zh) | 图像分类方法、装置及终端 | |
CN105631406A (zh) | 图像识别处理方法和装置 | |
CN108446688B (zh) | 人脸图像性别判断方法、装置、计算机设备及存储介质 | |
CN105184313A (zh) | 分类模型构建方法及装置 | |
CN104077597B (zh) | 图像分类方法及装置 | |
CN105335753A (zh) | 图像识别方法和装置 | |
CN110046085A (zh) | 识别终端设备上显示的应用程序控件的方法及装置 | |
CN105139033A (zh) | 分类器构建方法及装置和图片处理方法及装置 | |
CN109683756A (zh) | 一种图片处理方法、装置、电子设备及存储介质 | |
CN112580750A (zh) | 图像识别方法、装置、电子设备及存储介质 | |
CN103984931A (zh) | 一种信息处理方法及第一电子设备 | |
CN107977463A (zh) | 图片处理方法、装置、存储介质及终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20151209 |
|
RJ01 | Rejection of invention patent application after publication |