CN112507155B - 一种信息处理方法 - Google Patents
一种信息处理方法 Download PDFInfo
- Publication number
- CN112507155B CN112507155B CN202011530791.0A CN202011530791A CN112507155B CN 112507155 B CN112507155 B CN 112507155B CN 202011530791 A CN202011530791 A CN 202011530791A CN 112507155 B CN112507155 B CN 112507155B
- Authority
- CN
- China
- Prior art keywords
- image
- training
- group
- subset
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/55—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/5866—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Library & Information Science (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种信息处理方法,该方法包括:获取第一和第二训练数据集,训练第一分类模型,第一训练图像的标签为人物照标签,第二训练图像的标签为非人物照标签;根据人脸标记结果,将第一训练图像的标签更新为单人照、小合照或集体照,训练第二分类模型;通过第一、第二分类模型对待处理图像集进行分类,得到单人照子集、小合照子集、集体照子集和非人物照子集;基于拍摄信息和人脸标记结果对每个子集分组,使得同一组中各图像的拍摄信息满足第一预定条件,且同一组中各图像的人脸标记结果满足第二预定条件;针对每个组除保留图像以外的每个图像,若其与该组任一保留图像相似度高于第一阈值,将且确定为待删除图像以供用户处理。
Description
技术领域
本发明涉及信息处理技术领域,具体涉及一种信息处理方法。
背景技术
随着智能设备的发展和普及,人们现在可以随时随地拍照、录像。
然而,操作的方便也使得诸如手机等设备的存储空间越来越小。在存储空间中常存在大量的重复数据,例如重复照片。
目前,尚无针对这种可疑视频的有效处理技术。
发明内容
在下文中给出了关于本发明的简要概述,以便提供关于本发明的某些方面的基本理解。应当理解,这个概述并不是关于本发明的穷举性概述。它并不意图确定本发明的关键或重要部分,也不意图限定本发明的范围。其目的仅仅是以简化的形式给出某些概念,以此作为稍后论述的更详细描述的前序。
本发明提供了一种信息处理方法,以解决现有技术的上述问题。
本发明提供了一种信息处理方法,所述信息处理方法包括:获取第一训练数据集和第二训练数据集;利用所述第一训练数据集和所述第二训练数据集训练第一分类模型,其中,所述第一训练数据集包括多个第一训练图像,每个第一训练图像的标签为人物照标签;所述第二训练数据集包括多个第二训练图像,每个第二训练图像的标签为非人物照标签;对所述第一训练数据集中的每个第一训练图像中的人脸进行标记;若该第一训练图像中标记的人脸个数为1,则将该第一训练图像的当前标签更新为单人照标签;若该第一训练图像中标记的人脸个数为2或3,则将该第一训练图像的当前标签更新为小合照标签;若该第一训练图像中标记的人脸个数大于或等于4,则将该第一训练图像的当前标签更新为集体照标签;利用所述第一训练数据集及其中各第一训练图像的当前标签训练第二分类模型;获得待处理图像集以及所述待处理图像集中每个图像对应的拍摄信息,所述拍摄信息至少包括拍摄时间和拍摄地点;通过所述第一分类模型对所述待处理图像集进行分类,得到人物照和非人物照两类;通过所述第二分类模型对所述待处理图像集中的所有人物照继续分类,得到单人照、小合照以及集体照三类;基于所述第一分类模型和所述第二分类模型的分类结果,将所述待处理图像集分为四个子集,该四个子集包括单人照子集、小合照子集、集体照子集和非人物照子集;针对所述四个子集中的每一子集,基于拍摄信息和人脸标记结果对该子集进行分组,得到该子集对应的多个组,使得分组后的同一组中各图像的拍摄信息满足第一预定条件,且同一组中各图像的人脸标记结果满足第二预定条件;针对所述单人照子集、小合照子集或集体照子集中每个子集的每个组,确定该组中每个图像中的人脸区域,计算该组每个图像的人脸区域中各个人脸清晰度,并将每个图像对应的最低的人脸清晰度作为该图像的人脸区域清晰度,在该组中基于人脸区域清晰度选择至少一个保留图像;针对所述非人物照子集的每个组,在该组中基于图像清晰度选择至少一个保留图像;在每个子集的每个组中,针对该组中除保留图像以外的每个图像,若该图像与该组任一保留图像之间的相似度高于第一阈值,将该图像确定为该组的待删除图像。
进一步地,使得分组后的同一组中的图像的拍摄信息满足第一预定条件的步骤包括:使得分组后的同一组中的各图像之间的拍摄时间相差不超过预定时间,且拍摄地点相差不超过预定距离。
进一步地,所述拍摄信息还包括拍摄参数。
进一步地,使得分组后的同一组中的图像的拍摄信息满足第一预定条件的步骤包括:使得分组后的同一组中的各图像之间的拍摄时间相差不超过预定时间,拍摄地点相差不超过预定距离,且拍摄参数完全一致。
进一步地,所述的同一组中各图像的人脸标记结果满足第二预定条件包括:使得分组后的同一组中任两个图像的人脸标记结果完全相同。
进一步地,所述的同一组中各图像的人脸标记结果满足第二预定条件包括:使得分组后的同一组中任两个图像的人脸标记结果之差别小于预定范围。
本发明的一种信息处理方法,能够有效地检测到重复图像,解决上述现有技术的不足。
通过以下结合附图对本发明的最佳实施例的详细说明,本发明的这些以及其他优点将更加明显。
附图说明
本发明可以通过参考下文中结合附图所给出的描述而得到更好的理解,其中在所有附图中使用了相同或相似的附图标记来表示相同或者相似的部件。所述附图连同下面的详细说明一起包含在本说明书中并且形成本说明书的一部分,而且用来进一步举例说明本发明的优选实施例和解释本发明的原理和优点。其中:
图1是示出本发明的一种信息处理方法的流程图。
本领域技术人员应当理解,附图中的元件仅仅是为了简单和清楚起见而示出的,而且不一定是按比例绘制的。例如,附图中某些元件的尺寸可能相对于其他元件放大了,以便有助于提高对本发明实施例的理解。
具体实施方式
在下文中将结合附图对本发明的示范性实施例进行描述。为了清楚和简明起见,在说明书中并未描述实际实施方式的所有特征。然而,应该了解,在开发任何这种实际实施例的过程中必须做出很多特定于实施方式的决定,以便实现开发人员的具体目标,例如,符合与系统及业务相关的那些限制条件,并且这些限制条件可能会随着实施方式的不同而有所改变。此外,还应该了解,虽然开发工作有可能是非常复杂和费时的,但对得益于本发明内容的本领域技术人员来说,这种开发工作仅仅是例行的任务。
在此,还需要说明的一点是,为了避免因不必要的细节而模糊了本发明,在附图中仅仅示出了与根据本发明的方案密切相关的装置结构和/或处理步骤,而省略了与本发明关系不大的其他细节。
本发明提供了一种信息处理方法,所述信息处理方法包括:获取第一训练数据集和第二训练数据集;利用所述第一训练数据集和所述第二训练数据集训练第一分类模型,其中,所述第一训练数据集包括多个第一训练图像,每个第一训练图像的标签为人物照标签;所述第二训练数据集包括多个第二训练图像,每个第二训练图像的标签为非人物照标签;对所述第一训练数据集中的每个第一训练图像中的人脸进行标记;若该第一训练图像中标记的人脸个数为1,则将该第一训练图像的当前标签更新为单人照标签;若该第一训练图像中标记的人脸个数为2或3,则将该第一训练图像的当前标签更新为小合照标签;若该第一训练图像中标记的人脸个数大于或等于4,则将该第一训练图像的当前标签更新为集体照标签;利用所述第一训练数据集及其中各第一训练图像的当前标签训练第二分类模型;获得待处理图像集以及所述待处理图像集中每个图像对应的拍摄信息,所述拍摄信息至少包括拍摄时间和拍摄地点;通过所述第一分类模型对所述待处理图像集进行分类,得到人物照和非人物照两类;通过所述第二分类模型对所述待处理图像集中的所有人物照继续分类,得到单人照、小合照以及集体照三类;基于所述第一分类模型和所述第二分类模型的分类结果,将所述待处理图像集分为四个子集,该四个子集包括单人照子集、小合照子集、集体照子集和非人物照子集;针对所述四个子集中的每一子集,基于拍摄信息和人脸标记结果对该子集进行分组,得到该子集对应的多个组,使得分组后的同一组中各图像的拍摄信息满足第一预定条件,且同一组中各图像的人脸标记结果满足第二预定条件;针对所述单人照子集、小合照子集或集体照子集中每个子集的每个组,确定该组中每个图像中的人脸区域,计算该组每个图像的人脸区域中各个人脸清晰度,并将每个图像对应的最低的人脸清晰度作为该图像的人脸区域清晰度,在该组中基于人脸区域清晰度选择至少一个保留图像;针对所述非人物照子集的每个组,在该组中基于图像清晰度选择至少一个保留图像;在每个子集的每个组中,针对该组中除保留图像以外的每个图像,若该图像与该组任一保留图像之间的相似度高于第一阈值,将该图像确定为该组的待删除图像。
图1示出了上述一种信息处理方法的流程。
如图1所示,在步骤1中,获取第一训练数据集和第二训练数据集。
其中,第一训练数据集包括多个第一训练图像,第一训练数据集中的每个第一训练图像都是含有人物的图像,例如,这里所说的含有人物的图像可以是包含有人物正面照、侧面照等的人物照。此外,第一训练图像中的人物可能是一个,也可能是多个(如2个或更多个)。
第二训练数据集包括多个第二训练图像,第二训练数据集中的每个第二训练图像都是不含人物的图像,比如,可以是风景照、建筑照片等等。需要说明的是,第二训练图像中可以存在人,但不含有人物的正面照或侧面照。比如,第二训练图像可以是一个山的照片,而在该照片中可以有部分人,但人物的面部无法识别,或者人物均是背影等。换句话说,在第二训练图像中,人是作为背景的。
第一和第二训练图像都是有标签的。
在训练第一分类模型的阶段,每个第一训练图像的标签为人物照标签,而每个第二训练图像的标签为非人物照标签。
这样,在步骤2中,可以利用第一训练数据集和第二训练数据集来训练第一分类模型。训练后的第一分类模型,能够对输入的图像进行二分类,如分为人物照,或者是非人物照。
第一分类模型例如可以采用支持向量机、卷积神经网络,或者也可以采用其他现有的二分类模型。
接着,在步骤3中,对第一训练数据集中的每个第一训练图像中的人脸进行标记。例如,可以采用人脸识别算法来自动识别每个第一训练图像中的人脸,识别到的不同人脸可以采用不同的标注。或者,也可以采用人工的方法来进行人脸标记(或者人脸识别算法结合人工标注)。
这样,通过人脸识别,可以获得每个第一训练图像中标记的人脸个数,以及包含哪些人物(如不同人物采用不同符号标记)。
在步骤4中,对于第一训练数据集中的每个第一训练图像的人脸标记结果进行判断。
若当前判断的第一训练图像的人脸标记个数为1,则执行步骤5,在步骤5中将该第一训练图像的当前标签更新为“单人照”标签,表示对应图像是单人照类型,然后执行步骤8。
若当前判断的第一训练图像的人脸标记个数为2或3,则执行步骤6,在步骤6中将该第一训练图像的当前标签更新为“小合照”标签, 表示对应图像是二人或三人的合影类型,然后执行步骤8。
若当前判断的第一训练图像的人脸标记个数为大于或等于4,则执行步骤7,在步骤7中将该第一训练图像的当前标签更新为“集体照”标签,表示对应图像是多人集体照的类型,然后执行步骤8。
接着,在步骤8中,利用第一训练数据集及其中各第一训练图像的当前标签来训练第二分类模型。
第二分类模型例如可以例如可以采用卷积神经网络,或者也可以采用其他现有的多分类模型。
训练后的第二分类模型,能够对输入的图像进行多分类,如分为“单人照”、“小合照”或者“集体照”。
在步骤9中,获得待处理图像集。待处理图像集可以是用户上传的一组图像,也可以是用户网盘中存储的图像数据,或者可以是用户本地存储的照片等。
此外,在步骤9中还获取上述待处理图像集中每个图像对应的拍摄信息,拍摄信息至少包括拍摄时间和拍摄地点。
可选地,拍摄信息还可以包括拍摄参数,如相机型号、镜头型号、快门、光圈、ISO、EV值、是否开闪光灯等。
在步骤10中,通过第一分类模型对待处理图像集进行分类,得到人物照和非人物照两类。
应当理解的是,若待处理图像集全部都是人物照,也可能通过第一分类模型得到的只有人物照这一类结果。或者,若待处理图像集全部都是非人物照时,通过第一分类模型得到的可能只有非人物照这一类结果。
接着,在步骤11中,通过第二分类模型对待处理图像集中的所有人物照继续分类,得到单人照、小合照以及集体照三类。
基于第一分类模型和第二分类模型的分类结果,将待处理图像集分为四个子集,该四个子集包括单人照子集、小合照子集、集体照子集和非人物照子集。
也就是说,基于第一分类模型的结果,类别为“非人物照”的所有待处理图像构成非人物照子集。
基于第二分类模型的结果,类别为“单人照”的所有待处理图像构成单人照子集,类别为“小合照”的所有待处理图像构成小合照子集,而类别为“集体照”的所有待处理图像构成集体照子集。
这样,在步骤12中,针对上述四个子集中的每一子集,基于拍摄信息和人脸标记结果对该子集进行分组,得到该子集对应的多个组,使得分组后的图像满足如下条件:同一组中各图像的拍摄信息满足第一预定条件,且同一组中各图像的人脸标记结果满足第二预定条件。
例如,同一组中各图像的拍摄信息满足的第一预定条件可以如下:使得分组后的同一组中的各图像之间的拍摄时间相差不超过预定时间,且拍摄地点相差不超过预定距离。
预定时间可以为30秒或1分钟等,可以根据经验设定,或通过试验确定。
预定距离可以为1米或3米等,可以根据经验设定,或通过试验确定。
又如,同一组中各图像的拍摄信息满足的第一预定条件也可以如下:使得分组后的同一组中的各图像之间的拍摄时间相差不超过预定时间,拍摄地点相差不超过预定距离,且拍摄参数完全一致。
或者,在实际应用中,也可以部分修改上述第一预定条件,比如“拍摄参数完全一致”可以替换为“拍摄参数部分一致”。
此外,上述同一组中各图像的人脸标记结果满足的第二预定条件可以如下:使得分组后的同一组中任两个图像的人脸标记结果完全相同。
两个图像的人脸标记结果完全相同,是指这两个图像各自包含的人脸(人物)数量一样,人物也一样。
比如,图像P1只包含人物A和人物B(2个人物),而图像P2也只包含人物A和人物B(2个人物),则图像P1和P2的人脸标记结果是完全相同的。
又如,若图像P3只包含人物A和人物B(2个人物),而图像P4只包含人物B和人物C(2个人物),则虽然二者人物数量一样,但所含人物是部分不同的,因此二者的人脸标记结果不是完全相同的。
在另一个例子中,上述同一组中各图像的人脸标记结果满足的第二预定条件也可以如下:使得分组后的同一组中任两个图像的人脸标记结果之差别小于预定范围。
其中,两个图像的人脸标记结果之差别小于预定范围,例如可以是两个图像人脸标记结果部分相同。
或者,人脸标记结果之差别小于预定范围可以设置为差别不大于1(或2等)。比如,当预定范围设置为差别不大于1时,例如可以是两个图像的人脸标记数量相差0个或1个,或者两个图像的人脸标记的人物有0个或1个是不同的。
在步骤13中,针对单人照子集、小合照子集或集体照子集中每个子集的每个组,确定该组中每个图像中的人脸区域,计算该组每个图像的人脸区域中各个人脸清晰度,并将每个图像对应的最低的人脸清晰度作为该图像的人脸区域清晰度,在该组中基于人脸区域清晰度选择至少一个保留图像。
例如,可以采用现有的人脸区域识别技术来确定图像中的人脸区域,这里不再详述。
每个图像的人脸区域识别结果中包含的人脸数可能是一个或多个,这样,每个图像的人脸区域中各个人脸清晰度是指,在每个图像的人脸区域中所识别的每一个人脸对应的局部区域的清晰度。举例来说,假设某个图像进行人脸区域识别后,得到3个人脸子区域(即对应包含3个人物),那么针对这3个人脸子区域分别计算各自的清晰度。
又如,假设图像P1中包含3个人脸子区域,对应的子区域清晰度分别为Q1、Q2和Q3,假设Q1、Q2和Q3之中Q2最小,则图像P1的人脸区域清晰度为Q2。
在一个组中,基于人脸区域清晰度选择至少一个保留图像时,例如可以选择人脸区域清晰度最高的前N个图像作为保留图像,其中N可以是1、2或其他预设整数。
在步骤14中,针对非人物照子集的每个组,在该组中基于图像清晰度选择至少一个保留图像。
对于非人物照子集的每个组,可以采用现有的清晰度计算方法计算该组每个图像的图像清晰度,然后在该组中选择图像清晰度最高的前N个图像作为保留图像,其中N可以是1、2或其他预设整数。
然后,在步骤15中,在上述四个子集中每个子集的每个组中,针对该组中除保留图像以外的每个图像,若该图像与该组任一保留图像之间的相似度高于第一阈值,将该图像确定为该组的待删除图像。
用户可以选择是否删除全部或部分待删除图像,也可以由系统自动删除部分或全部待删除图像。
最后应说明的是,以上实施例仅用以示例性说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明及本发明带来的有益效果进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施 例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明权利要求的范围。
Claims (1)
1.一种信息处理方法,其特征在于,所述信息处理方法包括:
获取第一训练数据集和第二训练数据集;
利用所述第一训练数据集和所述第二训练数据集训练第一分类模型,其中,所述第一训练数据集包括多个第一训练图像,每个第一训练图像的标签为人物照标签;所述第二训练数据集包括多个第二训练图像,每个第二训练图像的标签为非人物照标签;其中,第二训练图像中不含人物,或者,第二训练图像含人物但不含人物的正面或侧面照;
对所述第一训练数据集中的每个第一训练图像中的人脸进行标记;若该第一训练图像中标记的人脸个数为1,则将该第一训练图像的当前标签更新为单人照标签;若该第一训练图像中标记的人脸个数为2或3,则将该第一训练图像的当前标签更新为小合照标签;若该第一训练图像中标记的人脸个数大于或等于4,则将该第一训练图像的当前标签更新为集体照标签;
利用所述第一训练数据集及其中各第一训练图像的当前标签训练第二分类模型;
获得待处理图像集以及所述待处理图像集中每个图像对应的拍摄信息,所述拍摄信息至少包括拍摄时间和拍摄地点;
通过所述第一分类模型对所述待处理图像集进行分类,得到人物照和非人物照两类;
通过所述第二分类模型对所述待处理图像集中的所有人物照继续分类,得到单人照、小合照以及集体照三类;
基于所述第一分类模型和所述第二分类模型的分类结果,将所述待处理图像集分为四个子集,该四个子集包括单人照子集、小合照子集、集体照子集和非人物照子集;
针对所述四个子集中的每一子集,基于拍摄信息和人脸标记结果对该子集进行分组,得到该子集对应的多个组,使得分组后的同一组中各图像的拍摄信息满足第一预定条件,且同一组中各图像的人脸标记结果满足第二预定条件;
第一预定条件包括:使得分组后的同一组中的各图像之间的拍摄时间相差不超过预定时间,且拍摄地点相差不超过预定距离,且拍摄参数部分一致;
第二预定条件包括:使得分组后的同一组中任两个图像的人脸标记结果之差别小于预定范围;人脸标记结果之差别小于预定范围设置为差别不大于1,当预定范围设置为差别不大于1时,表示两个图像的人脸标记数量相差0个或1个,或者两个图像的人脸标记的人物有0个或1个是不同的;
针对所述单人照子集、小合照子集或集体照子集中每个子集的每个组,确定该组中每个图像中的人脸区域,计算该组每个图像的人脸区域中各个人脸清晰度,并将每个图像对应的最低的人脸清晰度作为该图像的人脸区域清晰度,在该组中基于人脸区域清晰度选择至少一个保留图像;
针对所述非人物照子集的每个组,在该组中基于图像清晰度选择至少一个保留图像;
在每个子集的每个组中,针对该组中除保留图像以外的每个图像,若该图像与该组任一保留图像之间的相似度高于第一阈值,将该图像确定为该组的待删除图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011530791.0A CN112507155B (zh) | 2020-12-22 | 2020-12-22 | 一种信息处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011530791.0A CN112507155B (zh) | 2020-12-22 | 2020-12-22 | 一种信息处理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112507155A CN112507155A (zh) | 2021-03-16 |
CN112507155B true CN112507155B (zh) | 2022-02-11 |
Family
ID=74922943
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011530791.0A Active CN112507155B (zh) | 2020-12-22 | 2020-12-22 | 一种信息处理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112507155B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114140655A (zh) * | 2022-01-29 | 2022-03-04 | 深圳市中讯网联科技有限公司 | 图像分类方法、装置、存储介质及电子设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105095915A (zh) * | 2015-08-21 | 2015-11-25 | 努比亚技术有限公司 | 一种信息处理方法及装置、终端 |
CN105472239A (zh) * | 2015-11-17 | 2016-04-06 | 小米科技有限责任公司 | 照片处理方法及装置 |
CN106326908A (zh) * | 2015-06-30 | 2017-01-11 | 中兴通讯股份有限公司 | 一种图片的管理方法、装置及终端设备 |
CN106528879A (zh) * | 2016-12-14 | 2017-03-22 | 北京小米移动软件有限公司 | 图片处理方法及装置 |
CN108133238A (zh) * | 2017-12-29 | 2018-06-08 | 国信优易数据有限公司 | 一种人脸识别模型训练方法和装置及人脸识别方法和装置 |
CN108229574A (zh) * | 2018-01-18 | 2018-06-29 | 维沃移动通信有限公司 | 一种图片筛选的方法、装置和移动终端 |
CN108614894A (zh) * | 2018-05-10 | 2018-10-02 | 西南交通大学 | 一种基于最大生成树的人脸识别数据库构成方法 |
CN111219573A (zh) * | 2020-01-09 | 2020-06-02 | 哈尔滨师范大学 | 一种图像电子元件精密定位装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090006471A1 (en) * | 2007-06-29 | 2009-01-01 | Microsoft Corporation | Exposing Specific Metadata in Digital Images |
JP2016021184A (ja) * | 2014-07-15 | 2016-02-04 | 東芝テック株式会社 | 顔識別装置及びプログラム |
CN106155593B (zh) * | 2016-08-01 | 2019-09-24 | 惠州Tcl移动通信有限公司 | 一种基于拍摄质量删除照片的方法及系统 |
US10818076B2 (en) * | 2018-10-26 | 2020-10-27 | Aaron Bradley Epstein | Immersive environment from video |
CN111488477A (zh) * | 2019-01-25 | 2020-08-04 | 中国科学院半导体研究所 | 相册处理方法、装置、电子设备及存储介质 |
-
2020
- 2020-12-22 CN CN202011530791.0A patent/CN112507155B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106326908A (zh) * | 2015-06-30 | 2017-01-11 | 中兴通讯股份有限公司 | 一种图片的管理方法、装置及终端设备 |
CN105095915A (zh) * | 2015-08-21 | 2015-11-25 | 努比亚技术有限公司 | 一种信息处理方法及装置、终端 |
CN105472239A (zh) * | 2015-11-17 | 2016-04-06 | 小米科技有限责任公司 | 照片处理方法及装置 |
CN106528879A (zh) * | 2016-12-14 | 2017-03-22 | 北京小米移动软件有限公司 | 图片处理方法及装置 |
CN108133238A (zh) * | 2017-12-29 | 2018-06-08 | 国信优易数据有限公司 | 一种人脸识别模型训练方法和装置及人脸识别方法和装置 |
CN108229574A (zh) * | 2018-01-18 | 2018-06-29 | 维沃移动通信有限公司 | 一种图片筛选的方法、装置和移动终端 |
CN108614894A (zh) * | 2018-05-10 | 2018-10-02 | 西南交通大学 | 一种基于最大生成树的人脸识别数据库构成方法 |
CN111219573A (zh) * | 2020-01-09 | 2020-06-02 | 哈尔滨师范大学 | 一种图像电子元件精密定位装置 |
Non-Patent Citations (1)
Title |
---|
互联网络拓扑结构Cayley图可靠性容错延迟的研究;周树娜 等;《自动化技术与应用》;20150525;第34卷(第5期);27-29+33 * |
Also Published As
Publication number | Publication date |
---|---|
CN112507155A (zh) | 2021-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7215828B2 (en) | Method and system for determining image orientation | |
US10523894B2 (en) | Automated selection of keeper images from a burst photo captured set | |
US7657089B2 (en) | Automatic classification of photographs and graphics | |
Boutell et al. | Photo classification by integrating image content and camera metadata | |
Boutell et al. | Bayesian fusion of camera metadata cues in semantic scene classification | |
US10679041B2 (en) | Hybrid deep learning method for recognizing facial expressions | |
Villalba et al. | Smartphone image clustering | |
CN111178120B (zh) | 一种基于作物识别级联技术的害虫图像检测方法 | |
CN111311475A (zh) | 检测模型训练方法、装置、存储介质和计算机设备 | |
CN113808069A (zh) | 图像中的分层多类曝光缺陷分类 | |
CN108491856B (zh) | 一种基于多尺度特征卷积神经网络的图像场景分类方法 | |
CN110807759A (zh) | 照片质量的评价方法及装置、电子设备、可读存储介质 | |
CN110136198A (zh) | 图像处理方法及其装置、设备和存储介质 | |
US11783192B2 (en) | Hybrid deep learning method for recognizing facial expressions | |
CN112507155B (zh) | 一种信息处理方法 | |
CN113065559B (zh) | 图像比对方法、装置、电子设备及存储介质 | |
US8218823B2 (en) | Determining main objects using range information | |
CN112507154B (zh) | 一种信息处理装置 | |
CN115049675A (zh) | 生成区域确定及光斑生成方法、设备、介质及程序产品 | |
CN113569940B (zh) | 一种基于知识迁移和概率校正的少样本目标检测方法 | |
CN112016434A (zh) | 一种基于注意力机制3d残差网络的镜头运动识别方法 | |
CN113111888B (zh) | 一种图片判别方法及装置 | |
CN116095363A (zh) | 基于关键行为识别的移动端短视频高光时刻剪辑方法 | |
CN115115552A (zh) | 图像矫正模型训练及图像矫正方法、装置和计算机设备 | |
CN115272223A (zh) | 基于深度学习的图像翻拍自动检测技术 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |