CN112650873A - 一种智能相册的实现方法及系统、电子装置及存储介质 - Google Patents
一种智能相册的实现方法及系统、电子装置及存储介质 Download PDFInfo
- Publication number
- CN112650873A CN112650873A CN202011523053.3A CN202011523053A CN112650873A CN 112650873 A CN112650873 A CN 112650873A CN 202011523053 A CN202011523053 A CN 202011523053A CN 112650873 A CN112650873 A CN 112650873A
- Authority
- CN
- China
- Prior art keywords
- folder
- face
- photos
- layer
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000003860 storage Methods 0.000 title claims description 9
- 230000014509 gene expression Effects 0.000 claims description 58
- 238000011176 pooling Methods 0.000 claims description 36
- 238000000605 extraction Methods 0.000 claims description 31
- 230000001815 facial effect Effects 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 18
- 238000004422 calculation algorithm Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 9
- 230000008921 facial expression Effects 0.000 claims description 9
- 230000004927 fusion Effects 0.000 claims description 9
- 230000011218 segmentation Effects 0.000 claims description 9
- 238000012706 support-vector machine Methods 0.000 claims description 6
- 230000002779 inactivation Effects 0.000 claims description 5
- 238000007670 refining Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 description 32
- 230000004913 activation Effects 0.000 description 28
- 238000010606 normalization Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 12
- 239000013598 vector Substances 0.000 description 11
- 238000009826 distribution Methods 0.000 description 7
- 230000005284 excitation Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 206010023644 Lacrimation increased Diseases 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000004317 lacrimation Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 229940088594 vitamin Drugs 0.000 description 1
- 229930003231 vitamin Natural products 0.000 description 1
- 235000013343 vitamin Nutrition 0.000 description 1
- 239000011782 vitamin Substances 0.000 description 1
- 150000003722 vitamin derivatives Chemical class 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/55—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Library & Information Science (AREA)
- Image Analysis (AREA)
Abstract
本申请公开一种智能相册的实现方法,包括:获取相册里面的所有人脸相片;对所有人脸相片进行人脸分类,并将相同人脸分类的人脸相片放在相同的第一文件夹内;利用场景识别模型识别所述第一文件夹内的人脸相片中的场景,并在人脸相片上进行场景标记;将相同场景标记的人脸相片置于所述第一文件夹下的第二文件夹内;通过使用对人脸分类后进行场景标记,能够在人脸分类后进一步对人脸相片进行分类,从而降低了文件夹内图片的杂乱程度,因此减少了用户浏览图片的困扰。
Description
技术领域
本申请涉及智能相册技术领域,具体涉及一种智能相册的实现方法、系统、电子装置及存储介质。
背景技术
目前的电子设备里均设置有电子相册的功能,以供人们查看电子设备内的图片。
现有的一些电子相册具备人脸聚类的功能,可以把相同人脸的图片聚类在一个文件夹内,以方便用户查看关注的人的图片。
但是,现有的电子相册只能将相同人脸的图片聚类在一个文件夹内,使得该文件夹内的图片较为杂乱,为用户浏览图片增加了困扰。
发明内容
鉴于此,本申请提供一种智能相册的实现方法,以解决现有的电子相册只能将相同人脸的图片聚类在一个文件夹内,使得该文件夹内的图片较为杂乱,为用户浏览图片增加了困扰的问题。
本申请第一方面提供一种智能相册的实现方法,包括:获取相册里面的所有人脸相片;对所有人脸相片进行人脸分类,并将相同人脸分类的人脸相片放在相同的第一文件夹内;利用场景识别模型识别所述第一文件夹内的人脸相片中的场景,并在人脸相片上进行场景标记;将相同场景标记的人脸相片置于所述第一文件夹下的第二文件夹内。
其中,所述方法还包括:将所述第一文件夹内的人脸相片输入预先训练的表情识别模型,所述表情识别模型用于识别人脸相片中的人脸表情,并在人脸相片上进行表情标记;接收所述表情识别模型输出的每张人脸相片的表情标记;将相同表情标记的人脸相片聚类在所述第一文件夹下的第三文件夹内。
其中,所述对所有人脸相片进行人脸分类包括:利用方向梯度直方图特征提取的方法提取人脸相片的浅层特征;利用预先训练的PCANet 网络模型提取人脸相片的深层特征;利用RSLDA算法对所述浅层特征及所述深层特征进行提炼;对提炼后的浅层特征及深层特征进行融合,得到融合特征;将所述融合特征输入预先训练的支持向量机进行分类,以对人脸相片进行人脸分类。
其中,所述场景识别模型的训练方法包括:构建语义分割网络,用于接收人脸相片,输出得分特征图;构建语义特征提取网络,用于接收所述得分特征图,输出语义特征图;构建RGB特征提取网络,用于接收人脸相片,输出RGB特征图;构建注意力特征提取网络,用于接收所述语义特征图及所述RGB特征图,输出注意力特征图;构建分类网络层,用于接收所述注意力特征图,输出人脸相片的场景分类,包括依次构建的平均池化层、随机失活层及全连接层;将具有场景标签的场景样本图像输入训练场景识别模型进行训练。
其中,所述表情识别模型的训练方法如下:构建第一核卷积块层及第一最大池化层;构建第二核卷积块层及第二最大池化层;构建第三核卷积块层及第三最大池化层;构建第四核卷积块层及第四最大池化层;构建第五核卷积块层及第五最大池化层;构建全连接层及输出层;将具有表情标签的表情样本图像输入表情识别模型行训练。
其中,所述智能相册的实现方法还包括:获取对所有人脸相片进行人脸分类类别的第一数量,并根据所述第一数量建立相同数量的第一文件夹;获取不同的所述场景标记的第二数量,并根据所述第二数量建立相同数量的第二文件夹;获取不同的所述表情标记的第三数量,并根据所述第三数量建立相同数量的第三文件夹。
其中,所述方法还包括:利用人脸分类的类别对所述第一文件夹命名;利用所述场景标记为所述第二文件夹命名;利用所述表情标记为所述第三文件夹命名。
本申请上述的智能相册的实现方法,通过使用对人脸分类后进行场景标记,能够在人脸分类后进一步对人脸相片进行分类,从而降低了文件夹内图片的杂乱程度,因此减少了用户浏览图片的困扰。
本申请第二方面提供一种智能相册的实现系统,包括:相片获取模块,用于获取相册里面的所有人脸相片;分类模块,用于对所有人脸相片进行人脸分类,并将相同人脸分类的人脸相片放在相同的第一文件夹内;场景标记模块,用于利用场景识别算法识别所述第一文件夹内的人脸人脸相片中的场景,并在人脸相片上进行场景标记;相片放置模块,用于将相同场景标记的人脸相片置于所述第一文件夹下的第二文件夹内。
本申请上述的智能相册的实现系统,场景识别模块通过使用场景识别模型,能够在对人脸分类后进行场景标记,从而在分类模块对人脸分类后进一步对人脸相片进行分类,从而降低了文件夹内图片的杂乱程度,因此减少了用户浏览图片的困扰。
本申请第三方面提供一种电子装置,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现上述中的任意一项所述智能相册的实现。
本申请第四方面提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时,实现上述中的任意一项所述智能相册的实现。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例智能相册的实现方法的流程示意图;
图2是本申请实施例智能相册的实现方法的语义特征网络的结构示意图;
图3是本申请实施例智能相册的实现方法的RGB特征提取网络的结构示意图;
图4是本申请实施例智能相册的实现方法的人脸表情识别模型结构的结构示意图;
图5是本申请实施例智能相册的实现系统的结构示意框图;
图6是本申请实施例电子装置的结构示意框图。
具体实施方式
下面结合附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而非全部实施例。基于本申请中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。在不冲突的情况下,下述各个实施例及其技术特征可以相互组合。
请参阅图1,本申请实施例提供一种智能相册的实现方法,包括: S1、获取相册里面的所有人脸相片;S2、对所有人脸相片进行人脸分类,并将相同人脸分类的人脸相片放在相同的第一文件夹内;S3、利用场景识别模型识别第一文件夹内的人脸相片中的场景,并在相片上进行场景标记;S4、将相同场景标记的人脸相片置于第一文件夹下的第二文件夹内。
当相册中有相片时,能够相同人脸分类的相片放在相同的第一文件夹内,并将不同场景的人脸相片放在第一文件夹下的第二文件夹内,用户浏览电子相册时,进入第一文件夹后,会有若干表示不同场景的第二文件夹,例如表示海边、树林、树林、逛街、骑车等场景的文件夹,一个第二文件夹内都是同样场景的人脸相片,因此降低了文件夹内图片的杂乱程度,从而可以使得用户根据自己的喜好浏览关注的人的同一场景的相片,从而减少了用户浏览图片的困扰。
在一个实施例中,智能相册的实现方法还包括:将第一文件夹内的人脸相片输入预先训练的表情识别模型,表情识别模型用于识别人脸相片中的人脸表情,并在人脸相片上进行表情标记;接收表情识别模型输出的每张人脸相片的表情标记;将相同表情标记的人脸相片聚类在第一文件夹下的第三文件夹内。
通过使用表情识别模型,能够将同一人的形同或相似表情的图像放在一个第三文件夹内,用户浏览电子相册时,进入第一文件夹后,会有若干表示不同表情的第三文件夹,例如表示欢笑、流泪、忧伤、自然表情等表情的文件夹,一个第三文件夹内都是一个人相同或相似的人脸照片,因此降低了文件夹内图片的杂乱程度,从而可以使得用户根据自己的喜好浏览关注的人的相同或相似表情的照片,从而减少了用户浏览量图片的困扰。
在一个实施例中,对所有人脸相片进行人脸分类包括:利用方向梯度直方图特征提取的方法提取相片的浅层特征;利用预先训练的 PCANet网络模型提取相片的深层特征;利用RSLDA算法对浅层特征及深层特征进行提炼;对提炼后的浅层特征及深层特征进行融合,得到融合特征;将融合特征输入预先训练的支持向量机进行分类,以对人脸相片进行人脸分类。
方向梯度直方图特征(HOG,Histogram of Oriented Gradient),是图像的一种局部特征描述符,利用方向梯度直方图特征提取的方法提取相片的浅层特征包括:
将人脸相片划分成多个区域;计算每个区域的梯度直方图,再将每个区域划分成几块,计算每块的梯度直方图并串联,构成该区域特征;将所有区域特征串联起来构成图像的HOG特征描述符,即图像的浅层特征。
PCANet网络模型在每个阶段选用经典的PCA滤波器作卷积核;非线性层选用最简单的二进制量化(哈希编码);特征池化层采用逐块二进制码直方图作为最终的网络输出特征。
第一阶段(PCA):对每个像素取大小为k1×k2的块,第i个图像的所有块构成集合即,Xi,1,Xi,2,…,其中xi,j表示图像Ii中的第j个向量化模块,其中[z]表示大于或等于 z的最小整数。然后,各模块减去块均值得到其中为减去均值后的块。对所有输入图像进行相同的操作并把结果合并起来得到
假设第i层滤波器个数为Li,PCA最小化造成的正交滤波器的重构误差即:
第二阶段(PCA)与第一阶段相似,令第一阶段第l个滤波器的输出为:
其中,*表示2D卷积。在卷积操作之前对Ii的边界进行零填充,这样Ii l与Ii尺寸一样。与第一阶段一样,令所有的块减去块均值。
RSLDA算法进一步对深浅层特征进行提炼。RSLDA算法可自适应选取最具判别性的特征,提取的特征不仅能保留大部分能量,且对噪声具有一定的鲁棒性。
设有数据集X=[x1,x2,…,xn]∈Rm×n(m表示样本维数,n表示样本个数),RSLDA采用l2,1范数,优化方程如下:
Tr(QT(Sw-uSb)Q)+λ1||Q||2,1+λ2||E||1
X=PQTX+E,PTP=I (3)
其中,Q∈Rm×d(d<m)为判别性投影矩阵;Sb和Sw分别为类间和类内散度矩阵;λ1为平衡参数,u为一个小的正常数用于平衡两个散度矩阵。通过采用l2,1范数,式(3)可自适应分配特征权重。其中约束条件 X=PQTX,PTP=I可以看作PCA的变体用以保留能量,P∈Rm×d为正交重构矩阵。λ2为平衡参数,E表示误差,是对随机噪声的建模。
对任意一张给定的图像I,采用HOG算法提取图像的浅层局部特征,记为IH,考虑到数据的分布特点,采用RSLDA进一步对HOG特征进行降维,同时在保留数据分布的基础上提取数据的全局特征,此时特征记为IHR,因此本文算法的浅层特征中包含了局部-全局特征,且保留数据分布性;同时本算法采用PCANet提取网络的深度特征记为IP,同样采用RSLDA对PCANet特征进行降维,降维后的特征记为IPR;在特征融合阶段首先采用串联的形式将深浅特征进行简单融合得到 IHP=[IHP,IPR],因融合后的特征会存在一定的冗余信息,因此进一步采用RSLDA对IHP进行降维,同时也提炼出IHP中最具判别力的特征,这也是对深浅特征的进一步融合;最后,使用支持向量机(SVM,Support Vector Machine)分类器进行分类。
在一个实施例中,场景识别模型的训练方法包括:构建语义分割网络,用于接收人脸相片,输出得分特征图;构建语义特征提取网络,用于接收得分特征图,输出语义特征图;构建RGB特征提取网络,用于接收人脸相片,输出RGB特征图;构建注意力特征提取网络,用于接收语义特征图及RGB特征图,输出注意力特征图;构建分类网络层,用于接收注意力特征图,输出人脸相片的场景分类,包括依次构建的平均池化层、随机失活层及全连接层;将具有场景标签的场景样本图像输入训练场景识别模型进行训练。
请参阅图2,在该实施例中,语义特征网络包括依次构建的第一卷积批量归一化层、第一激活函数层、第一最大池化层、第二卷积批量归一化层、第一语义注意力模块、第二激活函数层、第三卷积批量归一化层、第二语义注意力模块、第三激活函数层、第四卷积批量归一化层、第三语义注意力模块、第四激活函数层组成,语义注意力模块包括依次构建的卷积批量归一化层、最大池化层、平均池化层、全连接层、激励函数层、最大池化层、平均池化层、激励函数层、激活函数层,图中⊙代表哈达玛积。
请参阅图3,RGB特征提取网络包括依次构建的卷积批量归一化层、第一激活函数层、最大池化层、第一提取层、第二激活函数层、第二提取层、第三激活函数层、第三提取层、第四激活函数层、第四提取层、第五激活函数层,图中代表加和。
第一提取层、第二提取层、第三提取层、第四提取层结构相同,均由依次的卷积批量归一化层、激活函数层、卷积批量归一化层、激活函数层、卷积批量归一化层、激活函数层。
注意力特征提取网络包括依次构建的第一网络及第二网络,第一网络包括依次的第一卷积批量归一化层、第一激活函数层、第二卷积批量归一化层、第二激活函数层、激励函数层,用于提取所述语义特征图的注意力,第二网络包括依次的第一批量归一化层、第三激活函数层、第二批量归一化层、第四激活函数层,用于提取RGB特征图的注意力。
分类网络层包括平均池化层、随机失活层及全连接层。
在该实施例中,场景识别模型具有RGB特征提取网络构成的RGB 分支,以及语义分割网络及语义特征提取网络构成的语义分支,语义分支基于语义分割网络提取的表示了场景物体及物体关系的得分特征图,从中提取具有辨识力的语义注意力特征图。然后注意力模块使用该特征图对RGB分支从输入彩色图像中提取的特征图进行门控,通过这个过程将网络的注意力重新聚焦到话义分支学习到的有着区分力的特定物体上。提出的网络架构使用经过归一化后的彩色RGB图像I∈Rw×h×3作为语义分割网络和RGB分支的共同输入,语义分割网络输出一个得分特征图M∈Rw×h×L,L表示学习的语义标签数。因此该特征图的每一个深度列Mi,j∈Rw×h×L表示第i,j个像素在L个语义标签上的概率分布。整个网络使用通道分离CONV(卷积层)+BN(批量归一化层)接ReLU(激活函数层)的层组合模式,在ReLU激活层之前应用批标准化,删除任何在标准化中出现的负值(包括之前为非负的值)激活。
RGB分支接收输入图像I返回一组基于RGB的特征图其中wo,ho,co,分别为输出特征图的宽度、高度和通道数。该分支是由原始ResNet-50的骨干网络(删去网络尾部的平局池化层和全连接层) 改进而来,在构造块中间实现了4组残差连接组合块,每个组合分别含有3、4、6、3个残差块,FI通过最后个组合块得到,然后作为输入进入注意力模块。
语义分支的真正输入是语义分割得分特征图M,通过语义分割网络基于给定输入图像Ⅰ预先推理得到。由于M编码了场景中的特定物体和它们对应的空间位置关系,这些物体具有明确的语义并且属于场景中的代表性物体,所以语义分支输出一组基于语义的特征图该组特征图从空间和通道维度建模了语义标签及其语义相互依赖性,作为注意力模块的另一个输入。因为得分特征图M缺少RGB图像中的纹理和材质信息,所以语义分支使用了一个浅层网络,它的输出特征图维度和RGB分支相同。网络中的三个语义注意力模块穿插在通道分离卷积层之间以增强与场景相关语义类的表示。语义注意力模块通过两个阶段 (通道注意力阶段和空间注意力阶段)中的Sigmoid激活层(激励函数层)产生的语义注意力特征图(mc和ms)映射输入特征各通道和空间各部分的重要程度,使输出特征图的一些通道和空间特征被加强,另一些被抑制。在第一个阶段中,由于每个通道表示一个语义类的概率,通道注意力阶段强制网络聚焦到加强的类上。该阶段接收任意大小的输入量特征图Fi,n∈Rw'×h'×c',分别通过最大池和平均池操作从空间维度对Fi,n进行压缩,得到两个单独的特征向量和然后经过共享的FC层ReLU 激活层、FC层得到对应的特征向量f1 c和见式(4)和式(5),其中φ是ReLU激活函数分别是两个共享全连接层的权重,r是降维比例因子,在实验中被设置为16。f1 c和进行加和操作后通过Sigmoid 激活层的规范化产生一维的映射到区间(0,1)的通道注意力特征图mc见式(6),其中σ是Sigmoid激活函数。
通道注意力特征图mc对输入特征Fin进行逐通道加权得到第一阶段的输出特征图Fmid,见式(7),其中⊙是哈达玛积。
Fmid=mc(Fin)⊙Fin (7)
在第二个阶段,即空间注意力阶段中,Fmid作为输入特征图经过和第一个阶段类似的处理得到空间注意力特征图ms。通过两条并行的最大池化和平均池化操作分别对输入特征图沿着通道维度进行合并(输出特征图通道数被压缩为1)得到两个独立的二维空间特征(向量)和然后将这两个向量在通道维度上进行拼接并通过一个7×7大小卷积核f7×7的卷积操作,再经过Sigmoid激活层的归化后得到空间注意力特征图m2,见式(8)。其中a是Sigmoid激活函数,“;”表示拼接操作。
空间注意力特征图ms对中间特征Fmid同样的在每个通道上逐元素进行空间加权得到语义注意力模块的最终输出特征图Fout,见式(9),其中⊙是哈达玛积。
Fout=ms(Fmid)⊙Fmid (9)
注意力模块的作用是基于RGB图像和语义得分特征图的互补特征源在两条分支的最后输出特征图F1、Fm应用门控机制得到一组应用语义加权的输出特征图输入线性分类器中获得最终的场景概率分布预测。来自语义分支的输出FM经过两个通道分离CONV+BN块,再通过一个Sigmoid激活层得到语义驱动的特征门控表示FM,A,见式 (10),其中σ、φ中分别对应Sigmoid和ReLU激活函数,和分别表示两个通道分离CONV层的权重和偏差。
类似的,来自RGB分支的输出F通过两个通道分离CONV+BN块得到将被门控的RGB特征图FI,A,FI,A相比FM,A少了S1 geoid激活层的映射,其中和分别表示两个通道分离CONV层的权重和偏差。
注意力模块的输出特征图FA然后作为一个由平均池化层、随机失活层和全连接层组成的分类器的输入,该分类器产生一个特征向量f∈RK, K为场景的类别数。场景的概率分布Y∈RK由softmax函数对输入f应用值域映射、归一化后得到通过使用归一化指数函数γ(f)得到给定特征向量f的K维概率分布y,其中y的每一项yk由式(11)计算得到,表示对于给定的特征向量f预测类别为k的概率。
在一个实施例中,表情识别模型的训练方法如下:构建第一核卷积块层及第一最大池化层;构建第二核卷积块层及第二最大池化层;构建第三核卷积块层及第三最大池化层;构建第四核卷积块层及第四最大池化层;构建第五核卷积块层及第五最大池化层;构建全连接层及输出层;将具有表情标签的表情样本图像输入表情识别模型行训练。
在该实施例中,核卷积块包括第一卷积层、第一批标准化层、第一激活层、第二卷积层、第二批标准化层、第二激活层。
请参阅图4,该实施例设计人脸表情识别模型结构,由5个采用3 ×3卷积的核卷积块(Conv-block)、5个最大池化层、1个全连接层和1个输出层组成。第一核卷积块、第二核卷积块、第三核卷积块、第四核卷积块级第五核卷积块的卷积核个数分别为64,128,256,512,512,步长均为1。模型输入为预处理后的44×44像素大小的灰度图片,经过第一核卷积块处理后,输出64张特征图,大小为44×44,与原输入大小相同。特征图通过最大池化层进行下采样,输出的特征图大小为 22×22×64,为原输入的一半。经过第二个核卷积块处理,输出大小为 22×22×128的特征图,通过最大池化层得到特征图大小为11×11× 128。再经过3个同样的“核卷积块+池化”操作后,得到大小为2×2 ×512的特征图,送入一个含有512个神经元的全连接层,输出一个512 维的向量。最终通过softmax分类器获得7种表情的分类结果。
池化层对输入层的空间维度执行下采样操作,降低特征维度以减小输入特征图的大小。本文采用最大池化操作。完全连接层具有与输入中的每个权重相连的神经元。最终输出结果是一个向量,其维度大小是卷积核的个数。
Softmax分类器将输入值压缩在0和1之间来输出直观的归一化类概率,如公式(12)所示:
其中,N表示总的人脸表情类别数,s(x)表示Softmax分类器将输入x分类为j的概率,j表示具体的人脸表情类别。交叉熵损失函数如公式(13)所示:
其中,g(x')表示模型输出预测值,yi表示真实值,N为样本数,这里1og表示以e为底的自然对数。模型的运算复杂度主要通过参数数量来衡量,参数计算公式如公式(14)所示:
K2×I×O (14)
其中,K为卷积核尺寸,I为输入图像通道数,O为输出图像通道数。本实施例表情识别模型参数数量比经典神经网络AlexNet和VGG16 少很多,能够有效减少参数数量,在一定程度上降低了人脸表情识别模型训练过程的运算复杂度。
在一个实施例中,智能相册的实现方法还包括:获取对所有相片进行人脸分类类别的第一数量,并根据第一数量建立相同数量的第一文件夹;获取不同的场景标记的第二数量,并根据第二数量建立相同数量的第二文件夹;获取不同的表情标记的第三数量,并根据第三数量建立相同数量的第三文件夹。
通过建立与第一数量相同的第一文件夹、与第二数量相同的第二文件夹、第三数量相同的第三文件夹,能够使得文件夹的建立,不会多也不会少,从而防止文件夹建立多了导致用户点击空文件夹的情况发生,也不会由于文件夹少而导致不够用的情况发生。
在该实施例中,对所有相片进行人脸分类后,根据分类的类别数量建立相同数量的第一文件夹;在相片上进行场景标记后,根据不同场景标记的数量建立相同数量的第二文件夹;在人脸相片上进行表情标记后,根据不同表情标记的数量建立数量相同的第三文件夹。
在一个实施例中,智能相册的实现方法还包括:利用聚类模型对所有相片的分类对第一文件夹命名;利用场景标记为第二文件夹命名;利用表情标记为第三文件夹命名。
这样的命名方法,能够使得用户一目了然的看到并了解文件夹里的内容,从而使得用户可以第一时间找到自己关注的相片在哪个文件夹内,因此进一步减少了用户浏览图片的困扰。
请参阅图5,本申请实施例提供一种智能相册的实现系统,包括:相片获取模块1、分类模块2、场景标记模块3及相片放置模块4;相片获取模块1用于获取相册里面的所有相片;分类模块2用于对所有相片进行人脸分类,并将相同人脸分类的相片放在相同的第一文件夹内;场景标记模块3用于利用场景识别算法识别所述第一文件夹内的人脸相片中的场景,并在相片上进行场景标记;相片放置模块4用于将相同场景标记的人脸相片置于所述第一文件夹下的第二文件夹内。
本实施例上述的智能相册的实现系统,场景识别模块通过使用场景识别模型,能够在对人脸分类后进行场景标记,从而在分类模块2对人脸分类后进一步对相片进行分类,从而降低了文件夹内图片的杂乱程度,因此减少了用户浏览图片的困扰。
在一个实施例中,智能相册的实现系统还包括:表情标记模块、表情标记接收模块及调用模块;表情标记模块用于将所述第一文件夹内的人脸相片输入预先训练的表情识别模型,所述表情识别模型用于识别人脸相片中的人脸表情,并在人脸相片上进行表情标记;表情标记接收模块接收所述表情识别模型输出的每张人脸相片的表情标记;调用模块用于调用相片放置模块4将相同表情标记的人脸相片聚类在所述第一文件夹下的第三文件夹内。
在一个实施例中,分类模块2包括:浅层特征提取单元、深层特征提取单元、特征提炼单元、特征融合单元及分类单元;浅层特征提取单元用于利用方向梯度直方图特征提取的方法提取相片的浅层特征;深层特征提取单元用于利用预先训练的PCANet网络模型提取相片的深层特征;特征提炼单元用于利用RSLDA算法对所述浅层特征及所述深层特征进行提炼;特征融合单元用于对提炼后的浅层特征及深层特征进行融合,得到融合特征;分类单元用于将所述融合特征输入预先训练的支持向量机进行分类,以对相片进行分类。
在一个实施例中,智能相册的实现系统还包括:数量获取模块及文件夹建立模块,
数量获取模块用于获取对所有相片进行人脸分类类别的第一数量,不同的所述场景标记的第二数量,不同的所述表情标记的第三数量;文件夹建立模块用于根据所述第一数量建立相同数量的第一文件夹,根据所述第二数量建立相同数量的第二文件夹;根据所述第三数量建立相同数量的第三文件夹。
在一个实施例中,智能相册的实现系统还包括:文件夹命名模块,文件夹命名模块用于利用人脸分类的类别对所述第一文件夹命名,并利用所述场景标记为所述第二文件夹命名,并利用所述表情标记为所述第三文件夹命名。
本申请实施例提供一种电子装置,请参阅6,该电子装置包括:存储器601、处理器602及存储在存储器601上并可在处理器602上运行的计算机程序,处理器602执行该计算机程序时,实现前述中描述的智能相册的实现方法。
进一步的,该电子装置还包括:至少一个输入设备603以及至少一个输出设备604。
上述存储器601、处理器602、输入设备603以及输出设备604,通过总线605连接。
其中,输入设备603具体可为摄像头、触控面板、物理按键或者鼠标等等。输出设备604具体可为显示屏。
存储器601可以是高速随机存取记忆体(RAM,Random Access Memory)存储器,也可为非不稳定的存储器(non-volatile memory),例如磁盘存储器。存储器601用于存储一组可执行程序代码,处理器602 与存储器601耦合。
进一步的,本申请实施例还提供了一种计算机可读存储介质,该计算机可读存储介质可以是设置于上述各实施例中的电子装置中,该计算机可读存储介质可以是前述中的存储器601。该计算机可读存储介质上存储有计算机程序,该程序被处理器602执行时实现前述实施例中描述的智能相册的实现方法。
进一步的,该计算机可存储介质还可以是U盘、移动硬盘、只读存储器601(ROM,Read-Only Memory)、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
尽管已经相对于一个或多个实现方式示出并描述了本申请,但是本领域技术人员基于对本说明书和附图的阅读和理解将会想到等价变型和修改。本申请包括所有这样的修改和变型,并且仅由所附权利要求的范围限制。特别地关于由上述组件执行的各种功能,用于描述这样的组件的术语旨在对应于执行所述组件的指定功能(例如其在功能上是等价的)的任意组件(除非另外指示),即使在结构上与执行本文所示的本说明书的示范性实现方式中的功能的公开结构不等同。
即,以上所述仅为本申请的实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,例如各实施例之间技术特征的相互结合,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
另外,在本申请的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本申请和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本申请的限制。另外,对于特性相同或相似的结构元件,本申请可采用相同或者不相同的标号进行标识。此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个特征。在本申请的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
在本申请中,“示例性”一词是用来表示“用作例子、例证或说明”。本申请中被描述为“示例性”的任何一个实施例不一定被解释为比其它实施例更加优选或更加具优势。为了使本领域任何技术人员能够实现和使用本申请,本申请给出了以上描述。在以上描述中,为了解释的目的而列出了各个细节。应当明白的是,本领域普通技术人员可以认识到,在不使用这些特定细节的情况下也可以实现本申请。在其它实施例中,不会对公知的结构和过程进行详细阐述,以避免不必要的细节使本申请的描述变得晦涩。因此,本申请并非旨在限于所示的实施例,而是与符合本申请所公开的原理和特征的最广范围相一致。
Claims (10)
1.一种智能相册的实现方法,其特征在于,包括:
获取相册里面的所有人脸相片;
对所有人脸相片进行人脸分类,并将相同人脸分类的人脸相片放在相同的第一文件夹内;
利用场景识别模型识别所述第一文件夹内的人脸相片中的场景,并在人脸相片上进行场景标记;
将相同场景标记的人脸相片置于所述第一文件夹下的第二文件夹内。
2.根据权利要求1所述的智能相册的实现方法,其特征在于,
所述方法还包括:
将所述第一文件夹内的人脸相片输入预先训练的表情识别模型,所述表情识别模型用于识别人脸相片中的人脸表情,并在人脸相片上进行表情标记;
接收所述表情识别模型输出的每张人脸相片的表情标记;
将相同表情标记的人脸相片聚类在所述第一文件夹下的第三文件夹内。
3.根据权利要求1所述的智能相册的实现方法,其特征在于,
所述对所有人脸相片进行人脸分类包括:
利用方向梯度直方图特征提取的方法提取人脸相片的浅层特征;
利用预先训练的PCANet网络模型提取人脸相片的深层特征;
利用RSLDA算法对所述浅层特征及所述深层特征进行提炼;
对提炼后的浅层特征及深层特征进行融合,得到融合特征;
将所述融合特征输入预先训练的支持向量机进行分类,以对人脸相片进行人脸分类。
4.根据权利要求1所述的智能相册的实现方法,其特征在于,
所述场景识别模型的训练方法包括:
构建语义分割网络,用于接收人脸相片,输出得分特征图;
构建语义特征提取网络,用于接收所述得分特征图,输出语义特征图;
构建RGB特征提取网络,用于接收人脸相片,输出RGB特征图;
构建注意力特征提取网络,用于接收所述语义特征图及所述RGB特征图,输出注意力特征图;
构建分类网络层,用于接收所述注意力特征图,输出人脸相片的场景分类,包括依次构建的平均池化层、随机失活层及全连接层;
将具有场景标签的场景样本图像输入训练场景识别模型进行训练。
5.根据权利要求2所述的智能相册的实现方法,其特征在于,
所述表情识别模型的训练方法如下:
构建第一核卷积块层及第一最大池化层;
构建第二核卷积块层及第二最大池化层;
构建第三核卷积块层及第三最大池化层;
构建第四核卷积块层及第四最大池化层;
构建第五核卷积块层及第五最大池化层;
构建全连接层及输出层;
将具有表情标签的表情样本图像输入表情识别模型行训练。
6.根据权利要求2所述的智能相册的实现方法,其特征在于,
所述方法还包括:
获取对所有人脸相片进行人脸分类类别的第一数量,并根据所述第一数量建立相同数量的第一文件夹;
获取不同的所述场景标记的第二数量,并根据所述第二数量建立相同数量的第二文件夹;
获取不同的所述表情标记的第三数量,并根据所述第三数量建立相同数量的第三文件夹。
7.根据权利要求2所述的智能相册的实现方法,其特征在于,
所述方法还包括:
利用人脸分类的类别对所述第一文件夹命名;
利用所述场景标记为所述第二文件夹命名;
利用所述表情标记为所述第三文件夹命名。
8.一种智能相册的实现系统,其特征在于,包括:
相片获取模块,用于获取相册里面的所有人脸相片;
分类模块,用于对所有人脸相片进行人脸分类,并将相同人脸分类的人脸相片放在相同的第一文件夹内;
场景标记模块,用于利用场景识别算法识别所述第一文件夹内的人脸相片中的场景,并在人脸相片上进行场景标记;
相片放置模块,用于将相同场景标记的人脸相片置于所述第一文件夹下的第二文件夹内。
9.一种电子装置,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时,实现权利要求1至7中的任意一项所述方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现权利要求1至7中的任意一项所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011523053.3A CN112650873A (zh) | 2020-12-18 | 2020-12-18 | 一种智能相册的实现方法及系统、电子装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011523053.3A CN112650873A (zh) | 2020-12-18 | 2020-12-18 | 一种智能相册的实现方法及系统、电子装置及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112650873A true CN112650873A (zh) | 2021-04-13 |
Family
ID=75358749
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011523053.3A Pending CN112650873A (zh) | 2020-12-18 | 2020-12-18 | 一种智能相册的实现方法及系统、电子装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112650873A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113255841A (zh) * | 2021-07-02 | 2021-08-13 | 浙江大华技术股份有限公司 | 一种聚类方法、聚类装置和计算机可读存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106055624A (zh) * | 2016-05-26 | 2016-10-26 | 努比亚技术有限公司 | 一种基于图片聚类的照片整理方法和移动终端 |
CN108334848A (zh) * | 2018-02-06 | 2018-07-27 | 哈尔滨工业大学 | 一种基于生成对抗网络的微小人脸识别方法 |
CN109165564A (zh) * | 2018-08-01 | 2019-01-08 | 广州视源电子科技股份有限公司 | 电子相册、生成方法、系统、存储介质及计算机设备 |
CN110532900A (zh) * | 2019-08-09 | 2019-12-03 | 西安电子科技大学 | 基于U-Net和LS-CNN的人脸表情识别方法 |
CN110874420A (zh) * | 2019-11-09 | 2020-03-10 | 上海光数信息科技有限公司 | 一种图片信息处理系统及方法 |
CN111062279A (zh) * | 2019-12-04 | 2020-04-24 | 深圳先进技术研究院 | 照片处理方法及照片处理装置 |
CN111639544A (zh) * | 2020-05-07 | 2020-09-08 | 齐齐哈尔大学 | 基于多分支跨连接卷积神经网络的表情识别方法 |
CN111860116A (zh) * | 2020-06-03 | 2020-10-30 | 南京邮电大学 | 一种基于深度学习和特权信息的场景识别方法 |
-
2020
- 2020-12-18 CN CN202011523053.3A patent/CN112650873A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106055624A (zh) * | 2016-05-26 | 2016-10-26 | 努比亚技术有限公司 | 一种基于图片聚类的照片整理方法和移动终端 |
CN108334848A (zh) * | 2018-02-06 | 2018-07-27 | 哈尔滨工业大学 | 一种基于生成对抗网络的微小人脸识别方法 |
CN109165564A (zh) * | 2018-08-01 | 2019-01-08 | 广州视源电子科技股份有限公司 | 电子相册、生成方法、系统、存储介质及计算机设备 |
CN110532900A (zh) * | 2019-08-09 | 2019-12-03 | 西安电子科技大学 | 基于U-Net和LS-CNN的人脸表情识别方法 |
CN110874420A (zh) * | 2019-11-09 | 2020-03-10 | 上海光数信息科技有限公司 | 一种图片信息处理系统及方法 |
CN111062279A (zh) * | 2019-12-04 | 2020-04-24 | 深圳先进技术研究院 | 照片处理方法及照片处理装置 |
CN111639544A (zh) * | 2020-05-07 | 2020-09-08 | 齐齐哈尔大学 | 基于多分支跨连接卷积神经网络的表情识别方法 |
CN111860116A (zh) * | 2020-06-03 | 2020-10-30 | 南京邮电大学 | 一种基于深度学习和特权信息的场景识别方法 |
Non-Patent Citations (3)
Title |
---|
冯杨 等: "基于小尺度核卷积的人脸表情识别", 《计算机工程》 * |
王韬: "基于深度学习的场景识别算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
赵淑欢: "基于深浅特征融合的人脸识别", 《电子技术应用》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113255841A (zh) * | 2021-07-02 | 2021-08-13 | 浙江大华技术股份有限公司 | 一种聚类方法、聚类装置和计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Raja et al. | Color object detection based image retrieval using ROI segmentation with multi-feature method | |
Khosla et al. | Memorability of image regions | |
Nazir et al. | Facial expression recognition using histogram of oriented gradients based transformed features | |
US7035467B2 (en) | Method and system for processing images for themed imaging services | |
EP1418507A2 (en) | Method and system for multiple cue integration | |
CN110866140A (zh) | 图像特征提取模型训练方法、图像搜索方法及计算机设备 | |
JP2017062781A (ja) | 深層cnnプーリング層を特徴として用いる、類似度に基づく重要な対象の検知 | |
Sajjad et al. | Facial appearance and texture feature-based robust facial expression recognition framework for sentiment knowledge discovery | |
Chanti et al. | Improving bag-of-visual-words towards effective facial expressive image classification | |
Sathiamoorthy et al. | An efficient content based image retrieval using enhanced multi-trend structure descriptor | |
CN105389588B (zh) | 基于多语义码本图像特征表示方法 | |
Abaci et al. | Matching caricatures to photographs | |
Singh et al. | A novel position prior using fusion of rule of thirds and image center for salient object detection | |
Xiao et al. | Pedestrian object detection with fusion of visual attention mechanism and semantic computation | |
CN112650873A (zh) | 一种智能相册的实现方法及系统、电子装置及存储介质 | |
Parsa et al. | Coarse-grained correspondence-based ancient Sasanian coin classification by fusion of local features and sparse representation-based classifier | |
Sumalakshmi et al. | Fused deep learning based Facial Expression Recognition of students in online learning mode | |
Indu et al. | Survey on sketch based image retrieval methods | |
Liu et al. | Character recognition algorithm based on fusion probability model and deep learning | |
Ali et al. | Human-inspired features for natural scene classification | |
Moujahid et al. | Multi-scale multi-block covariance descriptor with feature selection | |
Chavda et al. | Robust image retrieval using CCV, GCH, and MS-LBP descriptors | |
Borgi et al. | Statistical binary patterns and post-competitive representation for pattern recognition | |
Zhu et al. | A novel deep quality-aware CNN for image edge smoothening | |
Sassi et al. | Neural approach for context scene image classification based on geometric, texture and color information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210413 |