CN114882226A - 图像处理方法、智能终端及存储介质 - Google Patents
图像处理方法、智能终端及存储介质 Download PDFInfo
- Publication number
- CN114882226A CN114882226A CN202210719728.4A CN202210719728A CN114882226A CN 114882226 A CN114882226 A CN 114882226A CN 202210719728 A CN202210719728 A CN 202210719728A CN 114882226 A CN114882226 A CN 114882226A
- Authority
- CN
- China
- Prior art keywords
- feature map
- attention
- picture
- module
- intelligent terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本申请提出了一种图像处理方法、智能终端及存储介质,处理方法应用于处理设备,包括以下步骤:获取待处理图片。该待处理图片中包括皮肤区域。该皮肤区域可以包括面部皮肤区域和/或身体皮肤区域。智能终端可以将待处理图片输入到识别模型中。该识别模型将根据其预设的参数和算法步骤,对该待处理图片进行处理,从而得到皮肤区域的第一信息。智能终端可以根据该第一信息,确定目标区域,从而根据该目标区域裁剪得到目标图片。本申请,提高了皮肤分割准确率,提高了识别模型的处理效率。
Description
技术领域
本申请涉及图像处理领域,具体涉及一种图像处理方法、智能终端及存储介质。
背景技术
随着科技的发展,人脸检测、手势识别、姿势识别等功能越来越多的被应用于各终端设备中。在这些功能的实现过程中,使用皮肤分割方法对图片进行预处理,可以有效减少人脸检测、手势识别过程中背景等外部干扰。
一些实现中,可以通过区域增长法、分水岭法的基于区域的分割方法实现皮肤分割。或者,还可以通过统计学、机器学习等方法设置阈值,实现通过像素完成皮肤分割。
在构思及实现本申请过程中,发明人发现至少存在如下问题:上述皮肤分割方法针对深色皮肤的用户,存在分割准确率低的问题。
前面的叙述在于提供一般的背景信息,并不一定构成现有技术。
发明内容
针对上述技术问题,本申请提供一种图像处理方法、智能终端及存储介质,可以针对深色皮肤的用户提高皮肤的分割准确率。
为解决上述技术问题,本申请提供一种图像处理方法,可应用于智能终端,包括以下步骤:
S1:获取待处理图片,可选地,所述待处理图片包括皮肤区域;
S2:将所述待处理图片输入识别模型进行处理得到所述皮肤区域的第一信息;
S3:根据所述第一信息对所述待处理图片进行处理(如裁剪),得到目标图片。
可选地,所述S3步骤,包括:
根据所述第一信息,确定目标物体的目标区域轮廓;
根据所述目标区域轮廓,对所述待处理图片进行处理得到所述目标物体的目标图片。
可选地,所述S2步骤,包括:
将所述待处理图片输入所述识别模型的特征提取模块,得到至少一个初级特征图;
将至少一个所述初级特征图输入所述识别模型的所述注意力模块,得到高级特征图;
基于所述高级特征图确定或生成所述皮肤区域的第一信息。
可选地,所述方法还包括:
将至少一个所述初级特征图输入所述识别模型的边缘提取模块,得到边缘特征图;
将所述高级特征图、所述边缘特征图和至少一个所述初级特征图输入所述识别模型的输出模块,得到所述第一信息。
可选地,所述将至少一个所述初级特征图输入所述识别模型的所述注意力模块,得到高级特征图,包括:
将所述初级特征图输入所述注意力模块的特征降维模块进行降维处理,得到第一降维特征图和第二降维特征图;
将所述第一降维特征图输入所述注意力模块的位置感知注意力模块进行上下位置信息感知处理,得到第一输出特征图;
将所述第二降维特征图输入所述注意力模块的通道注意力模块进行上下通道感知处理,得到第二输出特征图;
根据所述第一输出特征图和所述第二输出特征图,融合得到高级特征图。
可选地,所述将所述第一降维特征图输入所述注意力模块的位置感知注意力模块进行上下位置信息感知处理,得到第一输出特征图,包括:
使用所述位置感知注意力模块中的特征变换子模块,对所述第一降维特征图进行变换,得到第三降维特征图;
使用所述位置感知注意力模块中的多尺度混合距离关系子模块,计算所述第三降维特征图中每一个特征点的各个尺度的距离特征;
使用所述位置感知注意力模块中的特征交互子模块,融合所述第三降维特征图中每一个特征点的各个尺度的所述距离特征,得到第一注意力特征图;
根据所述第一注意力特征图和所述第一降维特征图,确定所述第一输出特征图。
可选地,所述根据所述第一注意力特征图和所述第一降维特征图,确定所述第一输出特征图,包括:
使用所述位置感知注意力模块中的特征激活模块,根据所述第一降维特征图和所述第一注意力特征图,确定第二注意力特征图;
使用所述位置感知注意力模块中的特征变换子模块,对所述第二注意力特征图进行变换,得到第三注意力特征图;
根据所述第三注意力特征图和所述第一降维特征图,确定第一输出特征图。
可选地,所述使用所述位置感知注意力模块中的多尺度混合距离关系子模块,计算所述第三降维特征图中每一个特征点的各个尺度的距离特征,包括:
对所述第三降维特征图进行池化此操作,得到所述第三降维特征图中每一个特征点的各个尺度的池化特征;
计算所述第三降维特征图中每一个特征点与所述特征点对应的每一池化特征之间的距离特征。
可选地,将所述第二降维特征图输入所述注意力模块的通道注意力模块进行上下通道感知处理,得到第二输出特征图,包括:
根据所述第二降维特征图的重构特征图和转置特征图,得到第四注意力特征图;
根据所述第四注意力特征图的重构特征图和所述第二降维特征图,确定第二输出特征图。
可选地,所述根据所述第二降维特征图的重构特征图和转置特征图,得到第四注意力特征图,包括:
根据所述第二降维特征图的重构特征图和转置特征图,计算其乘积为乘积特征图;
使用归一化函数对所述乘积特征图进行归一化,得到归一特征图;
根据所述归一特征图与所述第二降维特征图的重构特征图,计算其乘积为第四注意力特征图。
可选地,所述将至少一个所述初级特征图输入所述识别模型的边缘提取模块,得到边缘特征图,包括:
对所述至少一个初级特征图分别进行卷积计算,得到至少一个中间特征图;
对至少一个中间特征图进行卷积计算,得到至少一个边缘子特征图;
对所述至少一个边缘子特征图进行融合,得到所述边缘特征图。
可选地,所述方法还包括:
将训练图片输入所述识别模型进行处理,获得边缘损失值、分割损失值和辅助损失值中的至少一项;
使用所述分割损失值、所述边缘损失值和所述辅助损失值中的至少一项对所述识别模型进行参数调整,获得训练后的识别模型。
可选地,所述将训练图片输入所述识别模型进行处理,获得边缘损失值、分割损失值和辅助损失值中的至少一项,包括:
将训练图片输入所述识别模型的特征提取模块进行预测,得到第一信息;
根据所述第一信息和所述训练图片的边缘标签获得边缘损失值、分割损失值和辅助损失值中的至少一项。
可选地,所述方法还包括:
将训练图片输入所述识别模型进行处理,获得边缘损失值和分割损失值;
使用分割损失值和所述边缘损失值对所述识别模型进行参数调整,获得训练后的识别模型。
可选地,所述方法还包括:
将训练图片输入所述识别模型进行处理,获得分割损失值;
使用分割损失值对所述识别模型进行参数调整,获得训练后的识别模型。
可选地,所述将训练图片输入所述识别模型进行处理,获得分割损失值,包括:
将训练图片输入所述识别模型的特征提取模块进行预测,得到第一信息;
根据所述第一信息和所述训练图片的边缘标签获得分割损失值。
可选地,所述方法还包括:
获取原始图片;
对所述原始图片进行预处理得到所述待处理图片;
使用亮度增强模块,对待处理图片的亮度进行优化。
可选地,所述第一信息包括面部皮肤轮廓和/或身体皮肤轮廓。
本申请还提供一种智能终端,包括:存储器、处理器,其中,所述存储器上存储有图像处理方法程序,所述图像处理方法程序被所述处理器执行时实现如上任一所述图像处理方法的步骤。
本申请还提供一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上任一所述图像处理方法的步骤。
如上所述,本申请的图像处理方法,可应用于智能终端,包括步骤:智能终端可以获取待处理图片。该待处理图片中包括皮肤区域。该皮肤区域可以包括面部皮肤区域和/或身体皮肤区域。智能终端可以将待处理图片输入到识别模型中。该识别模型将根据其预设的参数和算法步骤,对该待处理图片进行处理,从而得到皮肤区域的第一信息。智能终端可以根据该第一信息,确定目标区域,从而根据该目标区域裁剪得到目标图片。通过上述技术方案,可以实现提高了皮肤分割准确率,提高了识别模型的处理效率的效果,解现有技术的皮肤分割方法针对深色皮肤的用户,存在分割准确率低的问题,进而提升了深色皮肤用户的用户体验。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。为了更清楚地说明本申请实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为实现本申请各个实施例的一种电子设备的硬件结构示意图;
图2为本申请实施例提供的一种通信网络系统架构图;
图3是根据第一实施例示出的一种图像处理方法的流程图;
图4是根据第一实施例示出的一种待处理图片的示意图;
图5是根据第一实施例示出的一种图像处理方法的应用场景示意图;
图6是根据第二实施例示出的一种训练图片的示意图;
图7是根据第二实施例示出的一种识别模型结构示意图;
图8是根据第三实施例示出的一种特征提取模块的流程示意图;
图9是根据第三实施例示出的一种注意力模块的流程示意图;
图10是根据第三实施例示出的一种位置感知注意力模块的结构示意图;
图11是根据第三实施例示出的一种通道注意力模块的结构示意图;
图12是根据第三实施例示出的一种边缘提取模块的流程示意图;
图13是根据第三实施例示出的一种边缘提取模块的结构示意图;
图14是根据第三实施例示出的一种输出模块的流程示意图;
图15是根据第三实施例示出的一种示出模块的结构示意图;
图16是根据第三实施例示出的一种解码器的结构示意图;
图17是根据第三实施例示出的一种深层次监督模块的流程示意图;
图18是根据第三实施例示出的一种标签示意图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。通过上述附图,已示出本申请明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本申请构思的范围,而是通过参考特定实施例为本领域技术人员说明本申请的概念。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素,此外,本申请不同实施例中具有同样命名的部件、特征、要素可能具有相同含义,也可能具有不同含义,其具体含义需以其在该具体实施例中的解释或者进一步结合该具体实施例中上下文进行确定。
应当理解,尽管在本文可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本文范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。再者,如同在本文中所使用的,单数形式“一”、“一个”和“该”旨在也包括复数形式,除非上下文中有相反的指示。应当进一步理解,术语“包含”、“包括”表明存在的特征、步骤、操作、元件、组件、项目、种类、和/或组,但不排除一个或多个其他特征、步骤、操作、元件、组件、项目、种类、和/或组的存在、出现或添加。本申请使用的术语“或”、“和/或”、“包括以下至少一个”等可被解释为包括性的,或意味着任一个或任何组合。例如,“包括以下至少一个:A、B、C”意味着“以下任一个:A;B;C;A和B;A和C;B和C;A和B和C”,再如,“A、B或C”或者“A、B和/或C”意味着“以下任一个:A;B;C;A和B;A和C;B和C;A和B和C”。仅当元件、功能、步骤或操作的组合在某些方式下内在地互相排斥时,才会出现该定义的例外。
应该理解的是,虽然本申请实施例中的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
取决于语境,如在此所使用的词语“如果”、“若”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于检测”。类似地,取决于语境,短语“如果确定”或“如果检测(陈述的条件或事件)”可以被解释成为“当确定时”或“响应于确定”或“当检测(陈述的条件或事件)时”或“响应于检测(陈述的条件或事件)”。
需要说明的是,在本文中,采用了诸如S101、S102等步骤代号,其目的是为了更清楚简要地表述相应内容,不构成顺序上的实质性限制,本领域技术人员在具体实施时,可能会先执行S102后执行S101等,但这些均应在本申请的保护范围之内。
应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或者“单元”的后缀仅为了有利于本申请的说明,其本身没有特定的意义。因此,“模块”、“部件”或者“单元”可以混合地使用。
智能终端可以以各种形式来实施。例如,本申请中描述的智能终端可以包括诸如手机、平板电脑、笔记本电脑、掌上电脑、PDA(Personal Digital Assistant,个人数字助理)、PMP(Portable Media Player,便捷式媒体播放器)、导航装置、可穿戴设备、智能手环、计步器等电子设备,以及诸如数字TV、台式计算机等固定终端。
后续描述中将以电子设备为例进行说明,本领域技术人员将理解的是,除了特别用于移动目的的元件之外,根据本申请的实施方式的构造也能够应用于固定类型的终端。
请参阅图1,其为实现本申请各个实施例的一种电子设备的硬件结构示意图,该电子设备100可以包括:RF(Radio Frequency,射频)单元101、WiFi模块102、音频输出单元103、A/V(音频/视频)输入单元104、传感器105、显示单元106、用户输入单元107、接口单元108、存储器109、处理器110、以及电源111等部件。本领域技术人员可以理解,图1中示出的电子设备结构并不构成对电子设备的限定,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图1对电子设备的各个部件进行具体的介绍:
射频单元101可用于收发信息或通话过程中,信号的接收和发送,具体的,将基站的下行信息接收后,给处理器110处理;另外,将上行的数据发送给基站。通常,射频单元101包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元101还可以通过无线通信与网络和其他设备通信。上述无线通信可以使用任一通信标准或协议,包括但不限于GSM(Global System of Mobile communication,全球移动通讯系统)、GPRS(General Packet Radio Service,通用分组无线服务)、CDMA2000(CodeDivision Multiple Access 2000,码分多址2000)、WCDMA(Wideband Code DivisionMultiple Access,宽带码分多址)、TD-SCDMA(Time Division-Synchronous CodeDivision Multiple Access,时分同步码分多址)、FDD-LTE(Frequency DivisionDuplexing-Long Term Evolution,频分双工长期演进)、TDD-LTE(Time DivisionDuplexing-Long Term Evolution,分时双工长期演进)和5G等。
WiFi属于短距离无线传输技术,电子设备通过WiFi模块102可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图1示出了WiFi模块102,但是可以理解的是,其并不属于电子设备的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
音频输出单元103可以在电子设备100处于呼叫信号接收模式、通话模式、记录模式、语音识别模式、广播接收模式等等模式下时,将射频单元101或WiFi模块102接收的或者在存储器109中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元103还可以提供与电子设备100执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元103可以包括扬声器、蜂鸣器等等。
A/V输入单元104用于接收音频或视频信号。A/V输入单元104可以包括GPU(Graphics Processing Unit,图形处理器)1041和麦克风1042,图形处理器1041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元106上。经图形处理器1041处理后的图像帧可以存储在存储器109(或其它存储介质)中或者经由射频单元101或WiFi模块102进行发送。麦克风1042可以在电话通话模式、记录模式、语音识别模式等等运行模式中经由麦克风1042接收声音(音频数据),并且能够将这样的声音处理为音频数据。处理后的音频(语音)数据可以在电话通话模式的情况下转换为可经由射频单元101发送到移动通信基站的格式输出。麦克风1042可以实施各种类型的噪声消除(或抑制)算法以消除(或抑制)在接收和发送音频信号的过程中产生的噪声或者干扰。
电子设备100还包括至少一种传感器105,比如光传感器、运动传感器以及其他传感器。可选地,光传感器包括环境光传感器及接近传感器,可选地,环境光传感器可根据环境光线的明暗来调节显示面板1061的亮度,接近传感器可在电子设备100移动到耳边时,关闭显示面板1061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于手机还可配置的指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
显示单元106用于显示由用户输入的信息或提供给用户的信息。显示单元106可包括显示面板1061,可以采用LCD(Liquid Crystal Display,液晶显示器)、OLED(OrganicLight-Emitting Diode,有机发光二极管)等形式来配置显示面板1061。
用户输入单元107可用于接收输入的数字或字符信息,以及产生与电子设备的用户设置以及功能控制有关的键信号输入。可选地,用户输入单元107可包括触控面板1071以及其他输入设备1072。触控面板1071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1071上或在触控面板1071附近的操作),并根据预先设定的程式驱动相应的连接装置。触控面板1071可包括触摸检测装置和触摸控制器两个部分。可选地,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器110,并能接收处理器110发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1071。除了触控面板1071,用户输入单元107还可以包括其他输入设备1072。可选地,其他输入设备1072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种,具体此处不做限定。
可选地,触控面板1071可覆盖显示面板1061,当触控面板1071检测到在其上或附近的触摸操作后,传送给处理器110以确定触摸事件的类型,随后处理器110根据触摸事件的类型在显示面板1061上提供相应的视觉输出。虽然在图1中,触控面板1071与显示面板1061是作为两个独立的部件来实现电子设备的输入和输出功能,但是在某些实施例中,可以将触控面板1071与显示面板1061集成而实现电子设备的输入和输出功能,具体此处不做限定。
接口单元108用作至少一个外部装置与电子设备100连接可以通过的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元108可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到电子设备100内的一个或至少一个元件或者可以用于在电子设备100和外部装置之间传输数据。
存储器109可用于存储软件程序以及各种数据。存储器109可主要包括存储程序区和存储数据区,可选地,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器109可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器110是电子设备的控制中心,利用各种接口和线路连接整个电子设备的各个部分,通过运行或执行存储在存储器109内的软件程序和/或模块,以及调用存储在存储器109内的数据,执行电子设备的各种功能和处理数据,从而对电子设备进行整体监控。处理器110可包括一个或至少一个处理单元;优选的,处理器110可集成应用处理器和调制解调处理器,可选地,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器110中。
电子设备100还可以包括给各个部件供电的电源111(比如电池),优选的,电源111可以通过电源管理系统与处理器110逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
尽管图1未示出,电子设备100还可以包括蓝牙模块等,在此不再赘述。
为了便于理解本申请实施例,下面对本申请的电子设备所基于的通信网络系统进行描述。
请参阅图2,图2为本申请实施例提供的一种通信网络系统架构图,该通信网络系统为通用移动通信技术的LTE系统,该LTE系统包括依次通讯连接的UE(User Equipment,用户设备)201,E-UTRAN(Evolved UMTS Terrestrial Radio Access Network,演进式UMTS陆地无线接入网)202,EPC(Evolved Packet Core,演进式分组核心网)203和运营商的IP业务204。
可选地,UE201可以是上述终端100,此处不再赘述。
E-UTRAN202包括eNodeB2021和其它eNodeB2022等。可选地,eNodeB2021可以通过回程(backhaul)(例如X2接口)与其它eNodeB2022连接,eNodeB2021连接到EPC203,eNodeB2021可以提供UE201到EPC203的接入。
EPC203可以包括MME(Mobility Management Entity,移动性管理实体)2031,HSS(Home Subscriber Server,归属用户智能终端)2032,其它MME2033,SGW(Serving GateWay,服务网关)2034,PGW(PDN Gate Way,分组数据网络网关)2035和PCRF(Policy andCharging Rules Function,政策和资费功能实体)2036等。可选地,MME2031是处理UE201和EPC203之间信令的控制节点,提供承载和连接管理。HSS2032用于提供一些寄存器来管理诸如归属位置寄存器(图中未示)之类的功能,并且保存有一些有关服务特征、数据速率等用户专用的信息。所有用户数据都可以通过SGW2034进行发送,PGW2035可以提供UE 201的IP地址分配以及其它功能,PCRF2036是业务数据流和IP承载资源的策略与计费控制策略决策点,它为策略与计费执行功能单元(图中未示)选择及提供可用的策略和计费控制决策。
IP业务204可以包括因特网、内联网、IMS(IP Multimedia Subsystem,IP多媒体子系统)或其它IP业务等。
虽然上述以LTE系统为例进行了介绍,但本领域技术人员应当知晓,本申请不仅仅适用于LTE系统,也可以适用于其他无线通信系统,例如GSM、CDMA2000、WCDMA、TD-SCDMA以及未来新的网络系统(如5G)等,此处不做限定。
基于上述电子设备硬件结构以及通信网络系统,提出本申请各个实施例。
第一实施例
请参阅图3,图3为本申请实施例提供的一种图像处理方法的流程图。在图1和图2所示实施例的基础上,如图3所示,以智能终端为执行主体,本实施例的方法可以包括如下步骤:
S101、获取待处理图片,可选地,待处理图片包括皮肤区域。
可选地,人脸检测、手势识别、姿势识别等功能的实现过程中,使用皮肤分割方法对图片进行预处理,可以有效提高处理效率。在人脸检测、手势识别、姿势识别等应用场景中,人脸检测、手势识别、姿势识别等功能可以在智能终端中执行。该智能终端可以在获取原始图片或者原始视频之后,将该原始图片或者原始视频发送到智能终端。智能终端可以在获取该原始图片或者原始视频后,从中获取该待处理图片。可选地,当智能终端获取智能终端发送的至少一张原始图片时,智能终端可以从该至少一张原始图片中选择一张原始图片作为待处理图片。可选地,当智能终端获取智能终端发送的原始视频时,智能终端可以根据预设采样频率,将该原始视频转换为至少一张原始图片,并从该至少一张原始图片中选择一张作为待处理图片。可选地,该待处理图片可以如图4(a)所示。该待处理图片中包括皮肤区域。该皮肤区域可以包括面部皮肤区域和/或身体皮肤区域。
可选地,智能终端还可以在从至少一张原始图片中选择一张原始图片后,对该被选择的原始图片进行预处理,得到待处理图片。该预处理可以包括对原始图片进行缩放、裁剪等。可选地,该预处理还可以包括使用亮度增强模块,对待处理图片的亮度进行优化。由于在本申请中的待处理图片中包括深肤色任重的皮肤区域识别。深肤色人种容易受到光照亮度影响,形成光斑等,会造成分割效果的不连续性。因此,为了减少亮度对识别的影响,还可以使用亮度增强模块,对该待处理图片进行优化,以提高图片处理效率和分割准确率。
S102、将待处理图片输入识别模型进行处理得到皮肤区域的第一信息。
可选地,智能终端可以将待处理图片输入到识别模型中。该识别模型将根据其预设的参数和算法步骤,对该待处理图片进行处理,从而得到皮肤区域的第一信息。可选地,第一信息中包括面部皮肤轮廓和/或身体皮肤轮廓。该第一信息可以如图4(b)所示。可选地,该识别模型中包括基于上下文信息的注意力模块。
可选地,一些实现中,识别模型通常为基于卷积神经网络的皮肤区域分割模型。其中,神经网络主要使用金字塔模型和注意力机制实现。然而,这些方法要么无法捕捉长期的依赖关系导致特征的隔离问题,要么计算量过大容易出现丢失特征的位置信息或扩大误差范围的问题。为此,该识别模型为一种基于双注意力机制的皮肤分割模型。
可选地,为了进一步提高深肤色人群的皮肤区域分割效果,还在识别模型的网络模型中采用了编码器-解码器的神经网络结构。并且,在该编码器-解码器的神经网络结构的涉及中,还引入了Mobi lenetv3,实现了减少参数和计算量的效果,从而提高了该模型的计算效率,提高了模型的识别效率,满足了实时性需求。
可选地,该识别模型中还采用了双重注意力机制,解决了特征的隔离问题,使得到的第一信息中的皮肤区域连续性更强,可选地,该识别模型中还包括边缘监督模块。该边缘监督模块的使用可以增强边缘信息指导和边缘标签监督。该边缘监督模块的使用使检测到的皮肤区域边缘更精细。同时,该边缘监督模块的使用还可以有效解决双重注意力的连续效应可能会扩大误差范围,损害分割结果的问题,提出深层次监督以改善并加快网络收敛。
S103、根据第一信息对待处理图片进行处理(如裁剪),得到目标图片。
可选地,智能终端可以在获取该第一信息后,根据该第一信息,确定目标区域,从而根据该目标区域处理(如裁剪)得到目标图片。例如,当第一信息中包括面部皮肤轮廓时,智能终端可以根据该面部区域轮廓,确定面部区域。当该面部区域为目标区域时,智能终端可以根据该面部区域处理(如裁剪)得到目标图片。又如,当目标区域为手,且该第一信息中包括生体皮肤轮廓时,智能终端可以根据该生体皮肤轮廓确定手部区域。智能终端可以根据该手部区域处理(如裁剪)得到该目标图片。
可选地,该处理(如裁剪)得到目标图片的具体步骤可以包括:
步骤1、智能终端根据第一信息,得到目标物体的目标区域轮廓。例如,该目标区域轮廓可以为面部轮廓、手部轮廓、身体轮廓等。可选地,为了便于后续裁剪,该目标区域轮廓可以为矩形。可选地,为了提高特征提取效率,该目标区域轮廓可以为贴近目标物体的多边形。
步骤2、智能终端根据目标区域轮廓,对待处理图片进行处理(如裁剪)得到目标物体的目标图片。例如,当该目标区域轮廓为矩形时,该智能终端可以根据该矩形框裁剪得到该包含目标物体的目标图片。又如,当该目标区域轮廓为多边形时,该智能终端可以根据该多边形裁剪得到该多边形的最小外切矩形。该多边形的最小外切矩形中,该多边形以外区域可以使用0或255等固定颜色进行覆盖。
本申请实施例提供的图像处理方法,智能终端可以获取待处理图片。该待处理图片中包括皮肤区域。该皮肤区域可以包括面部皮肤区域和/或身体皮肤区域。智能终端可以将待处理图片输入到识别模型中。该识别模型将根据其预设的参数和算法步骤,对该待处理图片进行处理,从而得到皮肤区域的第一信息。智能终端可以根据该第一信息,确定目标区域,从而根据该目标区域裁剪得到目标图片。本申请,通过使用该识别模型,实现了深色皮肤的分割,提高了皮肤分割的效果,提高了识别模型的处理效率。
第二实施例
请参阅图5,图5为本申请实施例提供的一种图像处理方法的应用场景示意图。在图1至图4所示实施例的基础上,如图5所示,以智能终端为执行主体,本实施例中,智能终端可以通过下述步骤完成识别模型的训练:
S201、获取训练数据集。
可选地,在网络的训练阶段,智能终端可以在现有的训练数据集的基础上,增加大量的深肤色训练数据,以增强该识别模型对于深肤色数据的识别效果。可选地,为了增加训练数据的样本数量,还可以通过对原图像进行随机水平翻转、缩放、裁剪、亮度增强等处理,得到训练图片。可选地,为了增加识别准确率,避免亮度对深肤色产生的影响,智能终端还可以使用亮度增强等方式对训练图片进行预处理。可选地,该训练数据集中的训练图片被划分为至少一个数据块。一个数据块为一个batch。训练图片可以以batch的形式送入到网络中进行训练。可选地,一个batch中包括的训练图片的数量可以根据需要设定。例如,batch_size=8时,一个batch中包括8张训练图片。
例如,该原始图片可以如图6(a)所示。智能终端可以通过对该原始图像进行随机水平翻转、缩放、裁剪、亮度增强等处理,获得一个batch的训练图片input。该训练图片可以如图6(b)或者图6(c)所示。可选地,该一个batch的训练图片的维度可以为(8,3,513,513)。
可选地,现有的皮肤检测数据集普遍存在肤色分布不均匀的问题。现有的皮肤检测数据集中浅肤色图片较多,深肤色图片较少。使用该皮肤检测数据集作为训练数据训练得到的识别模型,容易因为数据集本身存在域差异,出现识别模型鲁棒性差的问题。为了解决该问题,同时充分利用现有公开的皮肤检测数据集,本申请制作了语义更丰富的深肤色数据集作为训练数据集。本申请额外收集了大量的深肤色肖像图片,并对其进行标注,组成深肤色图像皮肤区域分割数据集。在深肤色肖像图片的标注过程中,为了尽可能地利用深肤色图像皮肤区域数据集中的语义信息,为皮肤分割任务提供语义指导或促进潜在的下游任务,本申请制定了更加细粒度的标注规则。本申请对数据集中的训练图片的标注规则进行了细粒度划分。其中包括将皮肤区域更加细致的划分为面部皮肤区域和身体皮肤区域。此外,还包括将非皮肤区域,根据其五官、毛发等特征,将其划分为五官非皮肤区域(包括眼睛、鼻孔、嘴唇等),毛发非皮肤区域(包括头发、胡子等)和其它非皮肤区域。
可选地,本申请为了实现了多数据集的联合训练。在该联合训练过程中,首先在公开的皮肤分割数据集上进行训练,得到预训练模型。其后,本申请利用预训练模型,使用深肤色皮肤区域分割数据再次进行微调训练,将预测类别由二分类改为多分类。基于此训练策略本申请能够使得从不同数据集获得的知识进行互补,解决数据集存在的域差异,提升模型的鲁棒性和对深肤色皮肤区域分割的精度。
S202、将训练图片输入识别模型进行处理,获得边缘损失值、分割损失值和分割辅助损失值中的至少一项。
可选地,智能终端在将训练图片输入到识别模型后,该智能终端可以使用如图7所示的识别模型,对该训练图片进行处理。如图7所示,该识别模型可以包括特征提取模块(特征提取主干网络、编码器)、边缘提取模块(边缘提取分支)、注意力模块(高层特征融合模块)、输出模块(解码器)以及深层次监督模块5个模块。该训练图片在该识别模型的具体处理过程可以包括如下步骤:
步骤1、智能终端将训练图片输入识别模型的特征提取模块,得到至少一个初级特征图。
可选地,智能终端获取待处理图片后,可以将该待处理图片输入特征提取模块进行特征提取。该编码器中具体执行的步骤可以如图8所示。智能终端可以将待处理图片输入该编码器。该待处理图片可以使用input进行表示。该编码器可以对该待处理图片进行数据预处理。该编码器可以将该待预处理后的数据输入到特征提取主干网络,完成初级特征的提取,得到至少一个初级特征图。该至少一个初级特征图可以分别表示为c0,c1,c2,c3,c4。可选地,该特征提取主干网络可以为经过ImageNet预训练的Mobi leNetv3_small_075网络。可选地,该初级特征图c0,c1,c2,c3,c4的维度可以分别为(8,16,257,257),(8,16,129,129),(8,24,65,65),(8,40,33,33),(8,432,17,17)。
步骤2、智能终端将至少一个初级特征图中的至少一个初级特征图输入识别模型的注意力模块,得到高级特征图。可选地,高级特征图用于确定或生成皮肤区域的第一信息。
可选地,智能终端可以将特征提取模块获取的初级特征图输入到注意力模块,得到高级特征图。该注意力模块的计算过程可以如图9所示。该注意力模块可以在获取初级特征图后,对该初级特征图进行降维处理。该降维处理可以通过该注意力模块的特征降维模块完成。该注意力模块中具体可以包括位置感知注意力模块(Location Aware Attention,LAA)和通道注意力模块(Channel Attention Module,CAM)两个部分。在该两个注意力模块的基础上,本申请还对通道数进行了调整,以使本申请的中数据可以更好的满足实时性需求,并与编码器的通道相匹配。智能终端可以将降维后的初级特征图分别输入位置感知注意力模块和通道注意力模块,得到第一输出特征图和第二输出特征图。注意力模块可以根据该第一输出特征图和第二输出特征图计算得到高级特征图。可选地,该过程具体可以被分为如下步骤:
步骤21、智能终端将初级特征图输入注意力模块的特征降维模块进行降维处理,得到第一降维特征图和第二降维特征图。可选地,该特征降维模块可以使用两个3x3卷积核,对初级特征图c4进行特征降维,获得降维后的第一降维特征图m1和第二降维特征图m2。可选地,该第一降维特征图m1和第二降维特征图m2的维度可以为(8,108,17,17)。
步骤22、智能终端将第一降维特征图输入注意力模块的位置感知注意力模块进行上下位置信息感知处理,得到第一输出特征图。可选地,该位置感知注意力模块LAA针对现有算法种存在的特征图离散导致的丢失位置信息的问题,提出了基于像素点与上下文区域的关系模型。该位置感知注意力模块LAA从物体级层面增强特征图的连续性。该位置感知注意力模块LAA具体可以包含特征变换子模块、多尺度混合距离关系子模块(HybridDistance Relation,HDR)、特征交互子模块和特征激活子模块四个部分。该位置感知注意力模块LAA的模型结构可以如图10所示。可选地,该LAA模块的计算过程具体包括如下步骤:
步骤221、智能终端使用位置感知注意力模块中的特征变换子模块,对第一降维特征图进行变换,得到第三降维特征图。可选地,特征变换子模块中可以存在输入变换参数θ。特征变换子模块可以使用1x1卷积核对第一降维特征图m1再次进行降维,得到第三降维特征图m3。可选地,该第三降维特征图m3的维度可以为(8,27,17,17)。
步骤222、智能终端使用位置感知注意力模块中的多尺度混合距离关系子模块,计算第三降维特征图中每一个特征点的各个尺度的距离特征。可选地,该距离特征的计算过程具体可以包括如下步骤:
步骤2221、智能终端对第三降维特征图进行池化此操作,得到第三降维特征图中每一个特征点的各个尺度的池化特征。可选地,多尺度混合距离关系子模块HDR可以在选定n个最大池化算子和平均池化算子后,对第三降维特征图m3进行池化操作,获得第三降维特征图中每一个特征点的各个尺度的池化特征。可选地,该n个池化算子的尺寸可以分别为[3,5,7,9,11,15,19]的最大池化算子和平均池化算子。该池化特征可以使用聚合函数Ak(xi,j)进行表示。其中xi,j为该聚合函数聚合的中心点,k为距离该中心点的上下文区域的范围,0≤k<n。该xi,j中的下标i,j用于表示该中心点在该第三降维特征图m3中的坐标。其维度可以为(8,27,17,17)。
步骤2222、智能终端计算第三降维特征图中每一个特征点与特征点对应的每一池化特征之间的距离特征。可选地,智能终端可以按照下述公式,对第三降维特征图m3和距离特征Ak(xi,j)进行计算,得到用于衡量两个高维特征向量的距离的距离特征Rk(i,j)。其维度可以为(8,1,17,17)。该公式可以为:
Rk(i,j)=F(xi,j,Ak(xi,j))
其中,F(xi,j,Ak(xi,j))为距离度量函数,该距离度量函数的公式具体可以表示为:
步骤223、智能终端使用位置感知注意力模块中的特征交互子模块,融合第三降维特征图中每一个特征点的各个尺度的距离特征,得到第一注意力特征图。可选地,智能终端可以将该距离特征输入到该位置感知注意力模块LAA的特征交互子模块中。智能终端可以根据每个像素点的不同关系,使用如下公式对获得的n个Rk(i,j)进行融合。该公式为:
其中融合函数ω(·)可以简化为1个3x3的卷积算子。智能终端可以通过该公式计算得到第一注意力特征图attention。该第一注意力特征图为一个权重矩阵。其中,i,j表示该第一注意力特征图attention中的坐标。每一个ui,j为该第一注意力特征图attention中的一个点。可选地,该第一注意力特征图attention的维度可以为(8,1,17,17)。
步骤224、智能终端根据第一注意力特征图和第一降维特征图,确定第一输出特征图。可选地,该过程可以包括激活函数的使用和再次特征变换,其具体过程包括:
步骤2241、智能终端使用位置感知注意力模块中的特征激活模块,根据第一降维特征图和第一注意力特征图,确定第二注意力特征图。可选地,智能终端可以使用该位置感知注意力模块LAA的特征激活子模块,按照如下公式,对权重矩阵attention和第一降维特征图m1进行激活,获得第二注意力特征图attention1。可选地,该第二注意力特征图attention1的维度可以为(8,108,17,17)。该公式为:
vi,j=ui,j×xi,j
其中,i,j表示该第二注意力特征图attention1中的坐标。每一个vi,j为该第二注意力特征图attention1中的一个点。
步骤2242、智能终端使用位置感知注意力模块中的特征变换子模块,对第二注意力特征图进行变换,得到第三注意力特征图。可选地,该特征变换子模块中还包括输出变换参数φ。智能终端可以使用该输出变换参数对第二注意力特征图attention1进行变换。该智能终端还可以使用1x1卷积核对该第二注意力特征图attention1进行特征变换,得到第三注意力特征图attention2。可选地,该第三注意力特征图attention2的维度可以为(8,108,17,17)。
步骤2243、智能终端根据第三注意力特征图和第一降维特征图,确定第一输出特征图。可选地,智能终端还可以使用如下公式,对第三注意力特征图attention2和第一降维特征图进行计算,得到第一输出特征图output1。该第一输出特征图output1为该LAA模块的最终输出。可选地,该第一输出特征图output1的维度可以为(8,108,17,17)。该公式具体为:
yi,j=xi,j+φ(vi,j)
步骤23、智能终端将第二降维特征图输入注意力模块的通道注意力模块进行上下通道感知处理,得到第二输出特征图。可选地,该通道注意力模块CAM用于通过整合所有通道映射之间的关联特征,选择性地强调相互依赖的通道映射。其具体计算过程可以如图11所示。可选地,该计算过程具体可以包括如下步骤:
步骤231、智能终端根据第二降维特征图的重构特征图和转置特征图,得到第四注意力特征图。可选地,在该通道注意力模块中,智能终端可以对第二降维特征图m2进行维度变换和转置,获得重构特征图A和转置特征图AT。可选地,该重构特征图A和转置特征图AT的维度可以分别为(8,108,17×17)和(8,17×17,108)。智能终端可以使用矩阵乘法和softmax函数对A和AT进行计算,得到特征图X。可选地,该特征图X的维度可以为(8,108,108)。该特征图X中的每一个特征点xji的计算公式可以如下所示:
智能终端可以使用矩阵乘法对XT和A,进行计算,得到第四注意力特征图attention3。可选地,该第四注意力特征图attention3的维度可以为(8,108,17,17),。可选地,该第四注意力特征图的计算过程具体可以包括如下步骤:
步骤2311、智能终端根据第二降维特征图的重构特征图和转置特征图,计算其乘积为乘积特征图。
步骤2312、智能终端使用归一化函数对乘积特征图进行归一化,得到归一特征图。
步骤2313、智能终端根据归一特征图与第二降维特征图的重构特征图,计算其乘积为第四注意力特征图。
步骤232、智能终端根据第四注意力特征图的重构特征图和第二降维特征图,确定第二输出特征图。可选地,智能终端可以将维度变换后的该第四注意力特征图attention3和第二降维特征图m2相加,得到第二输出特征图output2。可选地,该第二输出特征图output2的维度可以为(8,108,17,17)。该第二输出特征图output2的计算公式可以表示为:
其中,Ej为该第二输出特征图output2中的行向量。
步骤24、根据第一输出特征图和第二输出特征图,融合得到高级特征图。可选地,该智能终端还可以根据该第一输出特征图output1和第二输出特征图output2进行结合并进行特征升维得到高级特征图。其中,该结合过程具体包括对该第一输出特征图output1和第二输出特征图output2进行相加。其中,特征升维包括使用Dropout操作并使用1x1卷积核对第一输出特征图output1和第二输出特征图output1之和进行升维,获得双注意力模块最终输出的高级特征图output。可选地,该高级特征图output的维度可以为(8,40,17,17)。
步骤3、智能终端将至少一个初级特征图输入识别模型的边缘提取模块,得到边缘特征图。
可选地,智能终端可以将初级特征图输入到边缘提取模块,得到边缘特征图。该边缘提取模块的计算过程可以如图12所示。智能终端可以在获取特征提取模块提取得到的至少一个初级特征图后,根据这些初级特征图完成边缘特征提取和边缘预测,得到边缘特征图和边缘预测图。在该边缘提取模块的计算过程中,为了捕获更多的边缘细节等信息,边缘提取模块可以对初级特征图c1,c2,c3进行处理。可选地,该三个初级特征图的维度可以分别为(8,16,129,129),(8,24,65,65),(8,40,33,33)。该边缘提取模块的数据处理过程可以如图13所示。可选地,其具体步骤可以包括:
步骤31、智能终端对至少一个初级特征图分别进行卷积计算,得到至少一个中间特征图。可选地,边缘提取模块首先使用三个不同的3x3卷积对三个初级特征图c1,c2,c3分别进行降维处理,得到三个通道数统一并得到中间特征图edge1_fea,edge2_fea,edge3_fea。可选地,通过卷积计算后的该三个中间特征图的维度可以分别为维度分别为(8,16,129,129),(8,16,65,65),(8,16,33,33)。
步骤32、智能终端对至少一个中间特征图进行卷积计算,得到至少一个边缘子特征图。可选地,该边缘提取模块使用另外三个3x3卷积来对中间特征图edge1_fea,edge2_fea,edge3_fea进行边缘预测。该边缘预测的过程还实现了对该中间特征图的特征提取和降维。该边缘提取模块可以通过该边缘预测,得到同一通道数的三个边缘子特征图edge1,edge2,edge3。可选地,再次卷积计算后的三个边缘子特征图的维度可以分别为(8,2,129,129),(8,2,65,65),(8,2,33,33)。
步骤33、智能终端对至少一个边缘子特征图进行融合,得到边缘特征图。可选地,由于三个初级特征图是在特征提取模块的不同阶段得到的,因此,该三个初级特征图的维度并不相同。在边缘提取模块中,为了融合不同尺度的特征,智能终端还可以使用双线性插值法对中间特征图edge2_fea,edge3_fea进行处理,使得中间特征图edge2_fea,edge3_fea的维度与中间特征图edge1_fea的维度相同。可选地,双线性插值之后的维度可以为(8,16,129,129)。为了进行特征融合,智能终端将edge1_fea,edge2_fea,edge3_fea按照通道进行叠加得到特征图edge_fea。可选地,该特征图edge_fea的维度可以为(8,48,129,129)。而后,智能终端可以使用卷积对特征图edge_fea进行降维处理,得到边缘提取模块的最终结果边缘特征图edge_fea。其中边缘特征图edge_fea用于为解码器模块提供更多的边缘细节信息。可选地,该边缘特征图edge_fea的维度可以为(8,26,129,129)。
可选地,智能终端还可以对边缘子特征图edge2,edge3进行双线性插值,使得维度该两个边缘子特征图和edge1的维度相同。可选地,双线性插值之后的维度可以为(8,2,129,129)。智能终端还可以将edge1,edge2,edge3按照通道进行叠加得到特征图edge。可选地,叠加得到特征图edge的维度可以为(8,6,129,129)。而后,智能终端可以使用卷积对特征图edge进行降维处理,得到边缘提取模块的最终结果边缘预测图edge。边缘预测图edge用于进行最后的边缘损失计算,从而监督网络进行边缘信息学习。可选地,该边缘预测图edge的维度可以为(8,1,129,129)。
步骤4、智能终端将高级特征图、边缘特征图和至少一个初级特征图输入识别模型的输出模块,得到第一信息。
可选地,该智能终端还可以通过使用输出模块,完成高级特征图的解码,从而得到第一信息。其中,该输出模块(解码器)的执行步骤可以如图14所示。智能终端可以在获取高级特征图、初级特征图和边缘特征图后,根据这些数据计算得到第一信息。该第一信息中可以包括预测图和中间预测图。可选地,第一信息中可以包括最终预测图和中间预测图。该输出模块的结构图可以如图15所示。特征提取模块和注意力模块将初级特征图和高级体征图输入到输出模块的解码器中。该输出模块中可以包括至少一个解码器。可选地,图15中的每一解码器的具体结构可以如图16所示。如图15中的5个解码器的具体解码过程可以包括:
解码器1用于将高级特征图output与初级特征图c3拼接获得第一采样数据upsample1。可选地,第一采样数据upsample1的维度可以为(8,80,33,33)。其后,该解码器1可以通过1x1卷积对该第一采样数据upsample1进行降维,并通过1个3x3卷积核对降维后的第一采样数据upsample1进行特征提取,得到第一解码特征图decoder1。可选地,第一解码特征图decoder1的维度可以为(8,40,33,33)。该3x3卷积核对第一采样数据upsample1的处理不改变该第一采样数据upsample1的维度。
解码器2用于将第一解码特征图decoder1与初级特征图c2拼接获得第二采样数据upsample2。可选地,第二采样数据upsample2的维度可以为(8,64,65,65)。其后,该解码器2可以通过1x1卷积对该第二采样数据upsample2进行降维,并通过1个3x3卷积核对降维后的第二采样数据upsample2进行特征提取,得到第二解码特征图decoder2。可选地,第二解码特征图decoder2的维度可以为(8,24,65,65)。该3x3卷积核对第二采样数据upsample2的处理不改变该第二采样数据upsample2的维度。
为了融合边缘提取模块所提取到的边缘信息,该解码器3可以将初级特征图c1和边缘提取模块得到的边缘特征图edge_fea按通道进行叠加,得到特征图edge_c1。可选地,特征图edge_c1的维度可以为(8,48,129,129)。而后,该解码器3可以使用一个卷积层对该特征图edge_c1进行降维处理,得到降维后的特征图edge_c1。可选地,降维后的特征图edge_c1的维度可以为(8,24,129,129)。
解码器3可以将第二解码特征图decoder2上采样。解码器3可以将上采样后的第二解码特征图decoder2与降维后的特征图edge_c1拼接,得到第三采样数据upsample3。可选地,第三采样数据upsample3的维度可以为(8,48,129,129)。该解码器3可以通过1x1卷积对该第三采样数据upsample3进行降维。该解码器3还可以通过1个3x3卷积核对降维后的第三采样数据upsample3进行特征提取,并保持维度不变,得到第三解码特征图decoder3。可选地,第三解码特征图decoder3的维度可以为(8,16,129,129)。
解码器4用于将第三解码特征图decoder3上采样。解码器4可以将上采样后的第三解码特征图decoder3与初级特征图c0拼接,得到第四采样数据upsample4。可选地,第四采样数据upsample4的维度可以为(8,32,257,257)。解码器4可以通过1x1卷积对该第四采样数据upsample4进行降维。该解码器4还可以通过1个3x3卷积核对该第四采样数据upsample4进行特征提取,并保持维度不变,得到第四解码特征图decoder4。可选地,第四解码特征图decoder4的维度可以为(8,16,259,259)。
解码器5用于将第四解码特征图decoder4上采样。解码器5可以将上采样后的第四解码特征图decoder4与待处理图片input拼接,得到第五采样数据upsample5。可选地,第五采样数据upsample5的维度可以为(8,19,513,513)。解码器5可以通过1x1卷积对第五采样数据upsample5进行降维。解码器5还可以对通过1个3x3卷积核对第五采样数据upsample5进行特征提取,并保持维度不变,得到第一信息seg。该第一信息seg可以为皮肤边缘轮廓。可选地,第一信息seg的维度可以为(8,4,513,513)。
可选地,该识别模型中还包括深层次监督模块。该深层次监督模块的执行步骤可以如图17所示。可选地,第一信息中可以包括最终预测图和中间预测图。该深层次监督模块可以利用真实分割标签和该第一信息,计算得到分割损失值。可选地,如图6(b)和图6(c)所示的训练图片对应的标签可以如图18(a)和图18(b)所示。智能终端可以根据该标签得到真实分割标签和真实边缘标签。
可选地,智能终端可以通过前面的边缘提取模块获得边缘预测图edge。,为了与原图大小相匹配,智能终端还可以使用双线性插值对边缘预测图edge进行上采样,使其大小与训练图片input相同。智能终端可以使用sigmoid函数对边缘预测图edge进行激活。激活后的边缘预测图edge中每一个点的值域将被约束到(0,1)范围内。激活后的边缘预测图edge中的每个点将被作为边缘的概率值。该sigmoid函数的公式如下所示:
智能终端可以从训练数据集中获取输入图片的边缘的真实分割标签。智能终端可以使用二进制交叉熵损失函数对预测得到的第一信息进行监督,得到边缘损失值lossedge。其中,二进制交叉熵损失函数的公式如下所示:
lossedge=-wn[yn·logxn+(1-yn)·log(1-xn)]
其中,wn为权重系数,yn为真实分割标签中的标签值,xn为第一信息中的预测值。其中,n表示该训练图片的第n个像素点。
可选地,深层次监督模块中还可以包括辅助损失监督。为了加快模型收敛以及缓解双重注意力模块中出现的分割不完整问题,智能终端可以利用输出模块(解码器)所产生的至少一个解码特征图预测分割结果。智能终端可以使用卷积层作为辅助分割头,分别对解码器的中间结果进行预测,得到至少一个分割结果。例如,智能终端可以对第二解码特征图decoder2、第三解码特征图decoder3和第四解码特征图decoder4进行预测,得到第一分割结果out_aux1、第二分割结果out_aux2和第三分割结果out_aux3。可选地,该三个分割结果的维度可以分别为(8,4,65,65),(8,4,129,129)和(8,4,257,257)。智能终端可以使用交叉熵损失函数对上述至少一个分割结果进行损失计算,得到至少一个分割辅助损失值。例如,智能终端可以计算得到第一分割辅助损失值loss_aux1、第二分割辅助损失值loss_aux2和第三分割辅助损失值loss_aux3。
可选地,智能终端还可以应用交叉熵损失对最终输的第一信息seg进行计算,得到最终的分割损失值lossout。其中分割损失值的计算过程具体包括如下步骤:
步骤1、智能终端将训练图片输入识别模型的特征提取模块进行预测,得到第一信息。
步骤2、智能终端根据第一信息和训练图片的边缘标签获得分割损失值。该边缘标签中包括真实分割标签。
S203、使用边缘损失值、分割损失值和分割辅助损失值中的至少一项对识别模型进行参数调整,获得训练后的识别模型。
可选地,智能终端可以根据边缘损失值lossedge、分割损失值lossout和分割辅助损失值loss_aux1,loss_aux2,loss_aux3。计算得到最终的模型损失。该模型损失的计算公式可以为:
Lloss=lossedge+loss_aux1+loss_aux2+loss_aux3+lossout
可选地,智能终端可以根据该模型损失,通过梯度下降法和反向传播算法,优化识别模型的参数。
本申请实施例提供的图像处理方法,在网络的训练阶段,智能终端可以获取训练数据集。智能终端在将训练图片输入到识别模型后,该识别模型可以计算得到每一训练图片的边缘预测图、第一信息和解码特征图。智能终端可以根据边缘预测图和真实边缘标签计算得到边缘损失值。智能终端可以根据第一信息和真实分割标签计算得到分割损失值。智能终端可以根据至少一张解码特征图计算得到分割辅助损失值。智能终端可以使用边缘损失值、分割损失值和分割辅助损失值中的至少一项计算得到模型损失。智能终端可以使用该模型损失通过梯度下降法和反向传播算法,优化识别模型的参数。本申请,通过训练识别模型,实现了深色皮肤的分割,提高了皮肤分割的效果,提高了识别模型的处理效率。并且,本申请,通过在识别模型中增加边缘提取模块和深层次监督模块,提高了注意力模块的收敛速度和上下文相关性,提高了训练效率和模型准确率。此外,本申请还通过对数据集层面的改进,制作了语义更加丰富的深肤色的训练数据集,联合了多数据集实现了识别模型的训练,解决了数据集中肤色域存在域差异的问题,提高了深肤色皮肤区域的分割能力。同时,本申请还通过对模型层面的改进,引入Mobi lenetv3以满足模型的实时性需求,采用双重注意力机制得到了连续性强的皮肤区域,提出边缘监督模块使检测到的皮肤区域边缘更精细,提出深层次监督解决双注意力模块缺陷并加快网络收敛。因此,本申请通过上述方法,最终使得模型在实时性和精度上显著提高,皮肤的分割结果更精确,区域连续性更强,皮肤边缘更精细,模型效果更鲁棒,同时预测速度更快,模型参数量更小。
本申请实施例还提供一种智能终端,智能终端包括存储器、处理器,存储器上存储有图像处理程序,图像处理程序被处理器执行时实现上述任一实施例中的图像处理方法的步骤。
本申请实施例还提供一种计算机可读存储介质,存储介质上存储有图像处理程序,图像处理程序被处理器执行时实现上述任一实施例中的图像处理方法的步骤。
在本申请提供的智能终端和计算机可读存储介质的实施例中,可以包含任一上述图像处理方法实施例的全部技术特征,说明书拓展和解释内容与上述方法的各实施例基本相同,在此不再做赘述。
本申请实施例还提供一种计算机程序产品,计算机程序产品包括计算机程序代码,当计算机程序代码在计算机上运行时,使得计算机执行如上各种可能的实施方式中的方法。
本申请实施例还提供一种芯片,包括存储器和处理器,存储器用于存储计算机程序,处理器用于从存储器中调用并运行计算机程序,使得安装有芯片的设备执行如上各种可能的实施方式中的方法。
可以理解,上述场景仅是作为示例,并不构成对于本申请实施例提供的技术方案的应用场景的限定,本申请的技术方案还可应用于其他场景。例如,本领域普通技术人员可知,随着系统架构的演变和新业务场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
本申请实施例方法中的步骤可以根据实际需要进行顺序调整、合并和删减。
本申请实施例设备中的单元可以根据实际需要进行合并、划分和删减。
在本申请中,对于相同或相似的术语概念、技术方案和/或应用场景描述,一般只在第一次出现时进行详细描述,后面再重复出现时,为了简洁,一般未再重复阐述,在理解本申请技术方案等内容时,对于在后未详细描述的相同或相似的术语概念、技术方案和/或应用场景描述等,可以参考其之前的相关详细描述。
在本申请中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本申请技术方案的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本申请记载的范围。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,智能终端,被控终端,或者网络设备等)执行本申请每个实施例的方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。计算机程序产品包括至少一个计算机指令。在计算机上加载和执行计算机程序指令时,全部或部分地产生按照本申请实施例的流程或功能。计算机可以是通用计算机、专用计算机、计算机网络,或者其他可编程装置。计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,计算机指令可以从一个网站站点、计算机、智能终端或数据中心通过有线(例如同轴电缆、光纤、数字用户线)或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、智能终端或数据中心进行传输。计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含至少一个可用介质集成的智能终端、数据中心等数据存储设备。可用介质可以是磁性介质,(例如,软盘、存储盘、磁带)、光介质(例如,DVD),或者半导体介质(例如固态存储盘Solid State Disk(SSD))等。
以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (10)
1.一种图像处理方法,其特征在于,包括以下步骤:
S1:获取待处理图片,其中,所述待处理图片包括皮肤区域;
S2:将所述待处理图片输入识别模型进行处理得到所述皮肤区域的第一信息;
S3:根据所述第一信息对所述待处理图片进行处理,得到目标图片。
2.根据权利要求1所述的方法,其特征在于,所述S3步骤,包括:
根据所述第一信息,确定目标物体的目标区域轮廓;
根据所述目标区域轮廓,对所述待处理图片进行处理得到所述目标物体的目标图片。
3.根据权利要求1所述的方法,其特征在于,所述S2步骤,包括:
将所述待处理图片输入所述识别模型的特征提取模块,得到至少一个初级特征图;
将至少一个所述初级特征图输入所述识别模型的注意力模块,得到高级特征图;
基于所述高级特征图确定或生成所述皮肤区域的第一信息。
4.根据权利要求3所述的方法,其特征在于,所述将至少一个所述初级特征图输入所述识别模型的所述注意力模块,得到高级特征图,包括:
将所述初级特征图输入所述注意力模块的特征降维模块进行降维处理,得到第一降维特征图和第二降维特征图;
将所述第一降维特征图输入所述注意力模块的位置感知注意力模块进行上下位置信息感知处理,得到第一输出特征图;
将所述第二降维特征图输入所述注意力模块的通道注意力模块进行上下通道感知处理,得到第二输出特征图;
根据所述第一输出特征图和所述第二输出特征图,融合得到高级特征图。
5.根据权利要求4所述的方法,其特征在于,所述将所述第一降维特征图输入所述注意力模块的位置感知注意力模块进行上下位置信息感知处理,得到第一输出特征图,包括:
使用所述位置感知注意力模块中的特征变换子模块,对所述第一降维特征图进行变换,得到第三降维特征图;
使用所述位置感知注意力模块中的多尺度混合距离关系子模块,计算所述第三降维特征图中每一个特征点的各个尺度的距离特征;
使用所述位置感知注意力模块中的特征交互子模块,融合所述第三降维特征图中每一个特征点的各个尺度的所述距离特征,得到第一注意力特征图;
根据所述第一注意力特征图和所述第一降维特征图,确定所述第一输出特征图。
6.根据权利要求4所述的方法,其特征在于,将所述第二降维特征图输入所述注意力模块的通道注意力模块进行上下通道感知处理,得到第二输出特征图,包括:
根据所述第二降维特征图的重构特征图和转置特征图,得到第四注意力特征图;
根据所述第四注意力特征图的重构特征图和所述第二降维特征图,确定第二输出特征图。
7.根据权利要求6所述的方法,其特征在于,所述根据所述第二降维特征图的重构特征图和转置特征图,得到第四注意力特征图,包括:
根据所述第二降维特征图的重构特征图和转置特征图,计算其乘积为乘积特征图;
使用归一化函数对所述乘积特征图进行归一化,得到归一特征图;
根据所述归一特征图与所述第二降维特征图的重构特征图,计算其乘积为第四注意力特征图。
8.根据权利要求1至7中任一项所述的方法,其特征在于,还包括:
将训练图片输入所述识别模型进行处理,获得边缘损失值、分割损失值和辅助损失值中的至少一项;
使用所述分割损失值、所述边缘损失值和所述辅助损失值中的至少一项对所述识别模型进行参数调整,获得训练后的识别模型。
9.一种智能终端,其特征在于,所述智能终端包括:存储器、处理器,其中,所述存储器上存储有计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至8中任一项所述的图像处理方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至8中任一项所述的图像处理方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210719728.4A CN114882226A (zh) | 2022-06-23 | 2022-06-23 | 图像处理方法、智能终端及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210719728.4A CN114882226A (zh) | 2022-06-23 | 2022-06-23 | 图像处理方法、智能终端及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114882226A true CN114882226A (zh) | 2022-08-09 |
Family
ID=82682297
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210719728.4A Pending CN114882226A (zh) | 2022-06-23 | 2022-06-23 | 图像处理方法、智能终端及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114882226A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024055333A1 (zh) * | 2022-09-16 | 2024-03-21 | 深圳传音控股股份有限公司 | 图像处理方法、智能设备及存储介质 |
-
2022
- 2022-06-23 CN CN202210719728.4A patent/CN114882226A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024055333A1 (zh) * | 2022-09-16 | 2024-03-21 | 深圳传音控股股份有限公司 | 图像处理方法、智能设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109740516B (zh) | 一种用户识别方法、装置、电子设备及存储介质 | |
CN110276344B (zh) | 一种图像分割的方法、图像识别的方法以及相关装置 | |
CN110837842B (zh) | 一种无参考视频质量评估的方法、模型训练的方法及装置 | |
CN110163806B (zh) | 一种图像处理方法、装置以及存储介质 | |
CN110443366B (zh) | 神经网络的优化方法及装置、目标检测方法及装置 | |
CN111696176B (zh) | 图像处理方法、装置、电子设备及计算机可读介质 | |
CN114418069B (zh) | 一种编码器的训练方法、装置及存储介质 | |
US10810462B2 (en) | Object detection with adaptive channel features | |
CN108764051B (zh) | 图像处理方法、装置及移动终端 | |
US20210342632A1 (en) | Image processing method and apparatus, electronic device, and storage medium | |
CN112084959B (zh) | 一种人群图像处理方法及装置 | |
US20240169687A1 (en) | Model training method, scene recognition method, and related device | |
CN114140797A (zh) | 图像处理方法、智能终端及存储介质 | |
CN111737520B (zh) | 一种视频分类方法、视频分类装置、电子设备及存储介质 | |
CN114037692A (zh) | 图像处理方法、移动终端及存储介质 | |
CN111080747B (zh) | 一种人脸图像处理方法及电子设备 | |
CN114882226A (zh) | 图像处理方法、智能终端及存储介质 | |
CN113126844A (zh) | 显示方法、终端及存储介质 | |
CN116229188B (zh) | 图像处理显示方法、分类模型的生成方法及其设备 | |
CN110232417B (zh) | 图像识别方法、装置、计算机设备及计算机可读存储介质 | |
CN112598678A (zh) | 一种图像处理方法、终端及计算机可读存储介质 | |
CN113642359A (zh) | 人脸图像生成方法、装置、电子设备及存储介质 | |
CN116342940A (zh) | 图像审批方法、装置、介质及设备 | |
WO2024055333A1 (zh) | 图像处理方法、智能设备及存储介质 | |
CN114723645A (zh) | 图像处理方法、智能终端及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |