CN110866922B - 基于强化学习和迁移学习的图像语义分割模型及建模方法 - Google Patents

基于强化学习和迁移学习的图像语义分割模型及建模方法 Download PDF

Info

Publication number
CN110866922B
CN110866922B CN201911132553.1A CN201911132553A CN110866922B CN 110866922 B CN110866922 B CN 110866922B CN 201911132553 A CN201911132553 A CN 201911132553A CN 110866922 B CN110866922 B CN 110866922B
Authority
CN
China
Prior art keywords
image
state
module
submodule
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911132553.1A
Other languages
English (en)
Other versions
CN110866922A (zh
Inventor
韩佳琪
卓汉逵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN201911132553.1A priority Critical patent/CN110866922B/zh
Publication of CN110866922A publication Critical patent/CN110866922A/zh
Application granted granted Critical
Publication of CN110866922B publication Critical patent/CN110866922B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及图像的语义分割技术领域,更具体地,涉及一种基于强化学习和迁移学习的图像语义分割模型及建模方法,包括顺次通信连接的用于对原始图像进行预处理的预处理模块、用于强化学习中的环境部分的感知模块、用于强化学习中的智能体部分的像素类别决策模块。本发明将图像语义分割看成一种序列决策的过程,顺序地决定各像素的类别而不是一次性生成整张图像的分割结果,能够有效利用像素与像素之间的关系,减少训练时间,提高图像分割效果的精确性。

Description

基于强化学习和迁移学习的图像语义分割模型及建模方法
技术领域
本发明涉及图像的语义分割技术领域,更具体地,涉及一种基于强化学习和迁移学习的图像语义分割模型及建模方法。
背景技术
图像分割是计算机视觉领域的一项基本而富有挑战性的工作,已成为图像理解的重要组成部分。图像分割的目标是从输入图像中提取有意义的目标对象,将目标对象与背景完全分离出来,即进行像素级的分类,找到目标对象的轮廓分界线。传统的图像分割方法是利用图像的灰度、纹理、形状等基本特征,采用数字图像处理、拓补学、数学等方面的原理进行分割。随着机器学习、深度学习的发展,图像分割模型的效果已经远超传统的分割方法,产生了很多研究成果,但是还没有形成一个通用的标准方法,以适应各种各样的数据集。
目前常用来解决图像分割问题的技术大多以全卷积网络FCN为基础。FCN是通过反卷积与上采样,得到与输入图像相同尺寸的特征图,从而进行像素级的分类,解决了语义级的图像分割问题。基于区域选择的模型也逐渐由目标检测延伸到图像分割领域,例如MaskR-CNN模型是以Faster R-CNN模型为基础,在原本的候选框坐标回归和分类这两个分支上,增加了一个分支用来进行语义分割,这样不仅完成了目标检测与目标分类,还完成了像素级的图像语义分割。但这些基于或部分利用FCN思想的网络,由于上采样,模型对图像的细节不够敏感,语义分割比较模糊,并且没有充分考虑像素与像素之间的关系,即判断某个像素为某类别时对判断周围像素的影响,缺乏空间上的一致性。
发明内容
本发明的目的在于克服像素与像素之间缺乏空间上的一致性的不足,提供一种基于强化学习和迁移学习的图像语义分割模型及建模方法,将图像语义分割看成一种序列决策的过程,顺序地决定各像素的类别而不是一次性生成整张图像的分割结果,能够有效利用像素与像素之间的关系,减少训练时间,提高图像分割效果的精确性。
为解决上述技术问题,本发明采用的技术方案是:
提供一种基于强化学习和迁移学习的图像语义分割模型,包括:预处理模块,用于对原始图像进行预处理;感知模块,用于强化学习中的环境部分;像素类别决策模块,用于强化学习中的智能体部分;所述预处理模块、感知模块、像素类别决策模块顺次通信连接。
本发明包括一种基于强化学习和迁移学习的图像语义分割模型,预处理模块对原始图像进行预处理,包括调整图像大小到固定尺寸;感知模块作为强化学习中的环境部分,包含状态生成子模块和奖励生成子模块;奖励生成子模块包括分割效果奖励和分割比例奖励;像素类别决策模块作为强化学习中的智能体部分,包含图像特征提取子模块和像素类别选择模块;基于强化学习框架,感知模块会将状态输入到像素类别决策模块,由像素类别决策模块选择动作,然后感知模块会对此动作做出评价反馈给像素类别决策模块,以此对像素类别决策模块中的卷积神经网络进行训练。
进一步地,所述感知模块包括:状态生成子模块,用于根据精细或粗略等级生成不同的状态;奖励生成子模块,用于生成奖励;所述状态生成子模块与奖励生成子模块、预处理模块通信连接。
进一步地,所述奖励生成子模块生成的奖励包括分割效果奖励和分割比例奖励。
进一步地,所述像素类别决策模块包括:图像特征提取子模块,用于对输入的状态提取特征;像素类别选择子模块,用于根据Q值选择像素类别决策作为动作输出;所述图像特征提取子模块与像素类别选择子模块、状态生成子模块通信连接,所述像素类别选择子模块与状态生成子模块通信连接。
进一步地,所述图像特征提取子模块包括特征提取网络和经验回放存储器Ω;所述特征提取网络为卷积神经网络,其输出层的节点对应每个像素类别选择动作的Q值,所述经验回放存储器Ω用于对所述特征提取网络的参数进行训练。
本发明还包括一种基于强化学习和迁移学习的图像语义分割模型的建模方法,包括以下步骤:
S1.通过所述预处理模块对图像数据集进行预处理,将原始图像剪裁成固定大小,并随机旋转,得到数据集<图像X,标注图像Y>,划分训练集和测试集;
S2.利用迁移学习对所述图像特征提取子模块的卷积神经网络参数θ进行初始化;
S3.利用强化学习的深度Q网络框架,使用所述训练集,对所述图像特征提取子模块的卷积神经网络进行训练;
S4.使用步骤S3中训练好的参数对测试集图像的分割结果进行预测。
进一步地,在步骤S2中,还需将所述卷积神经网络在类似领域的大规模的图像数据集上进行预训练,并保留卷积层与池化层的参数作为初始化,全连接层则随机初始化。
进一步地,所述步骤S3的具体步骤如下:
所述步骤S3的具体步骤如下:
S31.从训练集采样得到原始图像x与标注图像y,对于训练集的每张图像xi,所述状态生成子模块将原始图像与初始像素类别决策矩阵拼接,生成得到初始状态s1
S32.使用分级策略,确定本轮次的分块大小m,每个分块内的像素在类别决策时选择同一个动作,且每张图像每轮次的分块大小m逐渐减小,使每张图像从粗略到精细进行分割;
S33.当进入第一轮次时,直接执行步骤S34;当进入第n(n≥2)轮次时,判断每个分块是否处于边界或图像的最后一个分块;若是,则执行步骤S34,否则保留当前分块在上一轮的类别决策,直接将状态移动到下一分块,重复执行步骤S33;
S34.所述像素类别选择子模块根据ε-greedy策略选择动作a,以ε的概率随机选择动作aτ,以1-ε的概率根据所述图像特征提取子模块输出的Q值选择动作aτ=maxaQ(sτ,a;θ);其中,sτ表示当前状态,θ表示所述图像特征提取子模块的卷积神经网络参数;
S35.在步骤S34之后,所述状态生成子模块根据当前状态sτ与像素类别选择动作aτ得到新状态sτ+1
S36.在步骤S35之后,所述奖励生成子模块根据新状态sτ+1的像素类别决策部分与图像xi对应的标注图像yi,生成奖励rτ;所述奖励rτ包括分割效果奖励r_baseτ和分割比例奖励r_ratioτ
S37.在步骤S36之后,将(sτ,aτ,rτ,sτ+1)存储在经验回放存储器Ω中;若经验回放存储器Ω中的记录达到一定数量后,每个训练步骤从经验回放存储器Ω中采样,采样的每条记录记为(sj,aj,rj,sj+1);对于每条记录,计算目标值yj和损失函数L(θ),并更新卷积神经网络参数θ,然后执行步骤S38;若所述经验回放存储器Ω中的记录没有达到一定数量,则执行步骤S38;
S38.判断目前该分块是否为本图像的最后一个分块,若是,则进入步骤S39;否则,将状态移动到下一分块,然后回到步骤S33;
S39.若分块大小m不等于1,则回到步骤S32,进入下一轮次;若分块大小m等于1,则使用下一张图像从步骤S31开始训练模型。
进一步地,在步骤S37中,所述目标值yj的计算公式为:
Figure BDA0002278725670000041
式中,rj表示第j条记录的奖励值,sj+1表示第j条记录的新状态,γ表示折扣因子,θ表示卷积神经网络参数,Q(s,a;θ)表示卷积神经网络输出的Q值;
所述损失函数L(θ)的计算公式为:
L(θ)=(yj-Q(sj,aj;θ))2
式中,yj表示目标值,Q(sj,aj;θ)表示第j条记录经过卷积神经网络输出的Q值。
进一步地,所述步骤S4的具体步骤如下:
S41.对于所述测试集的每张图像x_testi,所述状态生成子模块将原始图像与初始像素类别决策矩阵拼接,得到初始状态s_test1
S42.使用所述分级策略,确定本轮次的分块大小m;
S43.当进入第一轮次时,直接执行步骤S44;当进入第n(n≥2)轮次时,判断每个分块是否处于边界或图像的最后一个分块;若是,则执行步骤S44,否则保留当前分块在上一轮次的类别决策,直接将状态移动到下一分块,重复执行步骤S43;
S44.所述像素类别选择子模块根据图像特征提取子模块输出的Q值选择动作a_testτ=maxaQ(s_testτ,a;θ);
S45.在步骤S44之后,所述状态生成子模块根据当前状态s_testτ与像素类别选择动作a_testτ得到新状态s_testτ+1
S46.在步骤S45之后,判断目前该分块是否为本图像的最后一个分块,若是,则进入步骤S47;否则,将状态移动到下一分块,然后回到步骤S43;
S47.若分块大小m不等于1,则回到步骤S42,进入下一轮次;若分块大小m等于1,则得到预测的图像语义分割结果并输出。
本发明还包括一种基于强化学习和迁移学习的图像语义分割模型的建模方法,将对每个像素的类别决策视为一种强化学习中的动作,将每一步像素类别决策的情况构建为强化学习中的状态,基于深度Q网络架构构建整个强化学习框架。预处理模块用于对原始图像进行预处理;状态子模块将图像与当前像素类别决策矩阵进行拼接,生成状态,并且使用了分级策略,通过设置分块大小来控制当前轮次的精细或粗略等级,每一轮次的分块大小逐渐减小,使得分割效果从粗略到精细;奖励生成子模块生成的奖励包含两部分:分割效果奖励和分割比例奖励;图像特征提取子模块以卷积神经网络结构为基础,将状态作为输入,输出层节点对应了每个像素类别选择动作的Q值;卷积神经网络使用迁移学习进行预训练,得到的卷积层与池化层的参数保留作为初始化,而全连接层随机初始化;像素类别选择子模块使用随机策略或根据Q值选择像素类别决策作为动作输出。
与现有技术相比,本发明的有益效果是:
本发明利用强化学习方法,使前面像素的类别判定对后面像素的类别判定产生影响,不仅保持了卷积网络提取图像特征的优势,还在边缘轮廓的细节上更加精准;通过迁移学习技术,减少了训练时间,并且使得预训练的卷积神经网络的卷积层参数能够较好地提取图像通用特征;同时还通过分级策略,保证分割轮廓平滑精确,还避免了逐个像素判定导致训练时间过长的现象出现。
附图说明
图1为本发明一种基于强化学习和迁移学习的图像语义分割模型的示意图。
图2为本发明一种基于强化学习和迁移学习的图像语义分割模型的建模方法的流程图。
图3为本发明实施例1中训练图像特征提取子模块的卷积神经网络的流程图。
图4为本发明实施例2中对测试集的图像预测分割结果的流程图。
具体实施方式
下面结合具体实施方式对本发明作进一步的说明。其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本专利的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
实施例1
如图1所示为本发明一种基于强化学习和迁移学习的图像语义分割模型的实施例,包括:预处理模块,用于对原始图像进行预处理;感知模块,用于强化学习中的环境部分;像素类别决策模块,用于强化学习中的智能体部分;预处理模块、感知模块、像素类别决策模块顺次通信连接。
另外,感知模块包括:状态生成子模块,用于根据精细或粗略等级生成不同的状态;奖励生成子模块,用于生成奖励;状态生成子模块与奖励生成子模块、预处理模块通信连接。
其中,奖励生成子模块生成的奖励包括分割效果奖励和分割比例奖励。
其中,像素类别决策模块包括:图像特征提取子模块,用于对输入的状态提取特征;像素类别选择子模块,用于根据Q值选择像素类别决策作为动作输出;图像特征提取子模块与像素类别选择子模块、状态生成子模块通信连接,像素类别选择子模块与状态生成子模块通信连接。
其中,图像特征提取子模块包括特征提取网络和经验回放存储器Ω;特征提取网络为卷积神经网络,其输出层的节点对应每个像素类别选择动作的Q值,经验回放存储器Ω中存储的记录用于对特征提取网络的参数进行训练,存储的记录包括正例和负例,从经验回放存储器Ω中采样时正例和负例各占一半,以避免过多的错误像素类别决策对网络训练产生的不利影响。
实施例2
如图2至图3所示为本发明一种基于强化学习和迁移学习的图像语义分割模型的建模方法,包括以下步骤:
S1.通过预处理模块对图像数据集进行预处理,包括调整整个图像大小到固定尺寸,将原始图像剪裁成固定大小,L×L×3,其中L为图像边长,3为像素通道数,并随机旋转以进行图像增强;然后得到数据集<图像X,标注图像Y>,并将整个数据集的80%作为训练集,20%作为测试集;
S2.利用迁移学习对图像特征提取子模块的卷积神经网络参数θ进行初始化;首先找到一个类似领域的大规模的图像数据集作为源数据集,如ImageNet数据集,利用本发明的模型进行图像分割的数据集作为目标数据集;将卷积神经网络的输出层节点个数暂时改为源数据集的分类类别数量,然后将卷积神经网络在源数据集上训练一段时间,记录得到的卷积层与池化层的参数并保留,作为本模型卷积神经网络参数的初始化,而全连接层随机初始化;
S3.利用强化学习的深度Q网络框架,使用步骤S1的训练集,在感知模块与像素类别决策模块的交互中,对图像特征提取子模块的卷积神经网络进行训练;
其中,步骤S3的具体步骤如下:
S31.从训练集采样得到原始图像x与标注图像y,对于训练集的每张图像xi,状态生成子模块将当前图像xi(大小为L×L×3),与当前像素类别决策矩阵(大小为L×L×6)在第3维拼接,生成得到初始状态sτ(大小为L×L×6);
其中,当前像素类别决策矩阵的构建方式为:每个像素对应取值范围为{(0,0,0),(1,1,1),(2,2,2),…,(K,K,K)},K表示图像中的目标对象与背景的总类别数,(0,0,0)表示当前像素类别还没有进行判定,(k,k,k)表示当前像素类别判定为第k类。每个像素的取值为3维,是为了使像素类别决策矩阵与图像矩阵处在相同的状态空间中;对于训练集的每张图像,使用分级策略遍历像素判定类别,每次判定时,状态生成子模块生成当前状态,输入到图像特征提取子模块的卷积神经网络中;像素类别选择子模块根据网络的输出层判断选择哪种动作并输出;状态生成子模块根据动作得到下一个状态的图像;
S32.使用分级策略,确定本轮次的分块大小m,每个分块内的像素在类别决策时选择同一个动作,即每个分块内的像素选择同一类别;且每张图像每轮次的分块大小m逐渐减小,具体地,若前一轮次分块大小为mτ,则下一轮次分块大小为
Figure BDA0002278725670000071
直到最终mτ=1为止,使每张图像从粗略到精细进行分割;
S33.当进入第一轮次时,直接执行步骤S34;当进入第n(n≥2且n为自然数)轮次时,即从第二轮次开始,判断每个分块是否处于边界或图像的最后一个分块;若是,则执行步骤S34,否则保留当前分块在上一轮的类别决策,直接将状态移动到下一分块,重复执行步骤S33;
具体地,判断是否处于边界的具体方式为:若前一轮次的分块被上下左右及对角线方向的8个相同类别的分块所包围,则该分块不是位于边界,可以不进行精细划分;若分块位于整张图像的边界,则少于8个,需要在本轮次划分为小分块进行类别决策;
S34.像素类别选择子模块根据ε-greedy策略选择动作a,以ε的概率随机选择动作aτ,以1-ε的概率根据图像特征提取子模块输出的Q值选择动作aτ=maxaQ(sτ,a;θ);其中,sτ表示当前状态,θ表示图像特征提取子模块的卷积神经网络参数;
S35.在步骤S34之后,状态生成子模块根据当前状态sτ与像素类别选择动作aτ得到新状态sτ+1
具体地,生成新状态的方法为:在当前状态的像素类别决策矩阵中,根据aτ更新此次类别判定的分块内的像素,而原始图像部分不变;
S36.在步骤S35之后,奖励生成子模块根据新状态sτ+1的像素类别决策部分与图像xi对应的标注图像yi,生成奖励rτ;奖励rτ包括分割效果奖励r_baseτ和分割比例奖励r_ratioτ
其中,分割效果奖励r_baseτ根据当前分块(大小为m×m)内的像素类别决策状态图像与目标标注图像之间的交并比(Intersection-over-Union,IoU)来设置,分割比例奖励r_ratioτ按照图像中目标对象的面积占整张图像面积的比例来设置;
具体地,分割效果奖励r_baseτ与分割比例奖励r_ratioτ的计算方式如下:
rτ=r_baseτ+r_ratioτ
Figure BDA0002278725670000081
Figure BDA0002278725670000082
其中,Unionτ表示IoUτ的分母,nk,τ-1表示前一个状态的像素类别决策矩阵中预测为第k类的像素个数,nk,ground_truth表示真实标注图像中第k类的像素个数,ntotal表示当前图像的像素总个数;r_ratioτ的设计表明,对于一幅图像,当预测的第k类像素占整张图像的比例小于真实标注图像的第k类像素占整张图像的比例,将当前处理的分块内的像素预测为第k类会得到相对较大的奖励;而当预测的第k类像素占整张图像的比例大于真实标注图像的第k类像素占整张图像的比例,将当前处理的分块内的像素预测为第k类会得到相对较小的奖励,避免预测的每个类别的比例与真实标注图像的比例相差太大;
S37.在步骤S36之后,如果rτ≥0,就将记录(sτ,aτ,rτ,sτ+1)存储在特征提取子模块的正例经验回放存储器Ωpos中;如果rτ<0,就将记录(sτ,aτ,rτ,sτ+1)存储在特征提取子模块的负例经验回放存储器Ωneg中;如果经验回放存储器Ωpos和Ωneg中的记录都达到mini_batch_size的数量,分别从正例经验回放存储器Ωpos和负例经验回放存储器Ωneg中采样相同数量的记录,整合在一起,采样的每条记录记为(sj,aj,rj,sj+1),对于每条记录,计算目标值yj和损失函数L(θ),更新卷积神经网络参数θ,然后执行步骤S38;如果经验回放存储器Ωpos或Ωneg中的记录没有达到mini_batch_size的数量,则直接执行步骤S38;
其中,目标值yj的计算公式为:
Figure BDA0002278725670000091
式中,rj表示第j条记录的奖励值,sj+1表示第j条记录的新状态,γ表示折扣因子,θ表示卷积神经网络参数,Q(s,a;θ)表示卷积神经网络输出的Q值;
损失函数L(θ)的计算公式为:
L(θ)=(yj-Q(sj,aj;θ))2
式中,yj表示目标值,Q(sj,aj;θ)表示第j条记录经过卷积神经网络输出的Q值;
S38.判断目前该分块是否为本图像的最后一个分块,若是,则进入步骤S39;否则,将状态移动到下一分块,然后回到步骤S33;
S39.若分块大小m不等于1,则回到步骤S32,进入下一轮次;若分块大小m等于1,则使用下一张图像从步骤S31开始训练模型。
S4.使用步骤S3中训练好的参数对测试集图像的分割结果进行预测。
实施例3
本实施例与实施例2类似,所不同之处在于,如图4所示,本实施例中步骤S4的具体步骤如下:
S41.对于测试集的每张图像x_testi,状态生成子模块将原始图像与初始像素类别决策矩阵拼接,得到初始状态s_test1
S42.使用分级策略,确定本轮次的分块大小m;
S43.当进入第一轮次时,直接执行步骤S44;当进入第n(n≥2且n为自然数)轮次时,即从第二轮次开始,判断每个分块是否处于边界或图像的最后一个分块;若是,则执行步骤S44,否则保留当前分块在上一轮次的类别决策,直接将状态移动到下一分块,重复执行步骤S43;
S44.像素类别选择子模块根据图像特征提取子模块输出的Q值选择动作a_testτ=maxaQ(s_testτ,a;θ);
S45.在步骤S44之后,状态生成子模块根据当前状态s_testτ与像素类别选择动作a_testτ得到新状态s_testτ+1
S46.在步骤S45之后,判断目前该分块是否为本图像的最后一个分块,若是,则进入步骤S47;否则,将状态移动到下一分块,然后回到步骤S43;
S47.若分块大小m不等于1,则回到步骤S42,进入下一轮次;若分块大小m等于1,则得到预测的图像语义分割结果并输出。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (8)

1.一种基于强化学习和迁移学习的图像语义分割的建模方法,其特征在于,包括以下步骤:
S1.通过预处理模块对图像数据集进行预处理,将原始图像剪裁成固定大小,并随机旋转,得到数据集<图像X,标注图像Y>,划分训练集和测试集;
S2.利用迁移学习对图像特征提取子模块的卷积神经网络参数θ进行初始化;
S3.利用强化学习的深度Q网络框架,使用所述训练集,对所述图像特征提取子模块的卷积神经网络进行训练;其中,所述步骤S3的具体步骤如下:
S31.从训练集采样得到原始图像x与标注图像y,对于训练集的每张图像xi,状态生成子模块将原始图像与初始像素类别决策矩阵拼接,生成得到初始状态s1
S32.使用分级策略,确定本轮次的分块大小m,每个分块内的像素在类别决策时选择同一个动作,且每张图像每轮次的分块大小m逐渐减小,使每张图像从粗略到精细进行分割;
S33.当进入第一轮次时,直接执行步骤S34;当进入第n(n≥2)轮次时,判断每个分块是否处于边界或图像的最后一个分块;若是,则执行步骤S34,否则保留当前分块在上一轮的类别决策,直接将状态移动到下一分块,重复执行步骤S33;
S34.像素类别选择子模块根据ε-greedy策略选择动作a,以ε的概率随机选择动作aτ,以1-ε的概率根据所述图像特征提取子模块输出的Q值选择动作aτ=maxaQ(sτ,a;θ);其中,sτ表示当前状态,θ表示所述图像特征提取子模块的卷积神经网络参数;
S35.在步骤S34之后,所述状态生成子模块根据当前状态sτ与像素类别选择动作aτ得到新状态sτ+1
S36.在步骤S35之后,奖励生成子模块根据新状态sτ+1的像素类别决策部分与图像xi对应的标注图像yi,生成奖励rτ;所述奖励rτ包括分割效果奖励r_baseτ和分割比例奖励r_ratioτ
S37.在步骤S36之后,将(sτ,aτ,rτ,sτ+1)存储在经验回放存储器Ω中;若经验回放存储器Ω中的记录达到一定数量后,每个训练步骤从经验回放存储器Ω中采样,采样的每条记录记为(sj,aj,rj,sj+1);对于每条记录,计算目标值yj和损失函数L(θ),并更新卷积神经网络参数θ,然后执行步骤S38;若所述经验回放存储器Ω中的记录没有达到一定数量,则执行步骤S38;
S38.判断目前该分块是否为本图像的最后一个分块,若是,则进入步骤S39;否则,将状态移动到下一分块,然后回到步骤S33;
S39.若分块大小m不等于1,则回到步骤S32,进入下一轮次;若分块大小m等于1,则使用下一张图像从步骤S31开始训练模型;
S4.使用步骤S3中训练好的参数对测试集图像的分割结果进行预测;其中,所述步骤S4的具体步骤如下:
S41.对于所述测试集的每张图像x_testi,所述状态生成子模块将原始图像与初始像素类别决策矩阵拼接,得到初始状态s_test1
S42.使用所述分级策略,确定本轮次的分块大小m;
S43.当进入第一轮次时,直接执行步骤S44;当进入第n(n≥2)轮次时,判断每个分块是否处于边界或图像的最后一个分块;若是,则执行步骤S44,否则保留当前分块在上一轮次的类别决策,直接将状态移动到下一分块,重复执行步骤S43;
S44.所述像素类别选择子模块根据图像特征提取子模块输出的Q值选择动作a_testτ=maxa Q(s_testτ,a;θ);
S45.在步骤S44之后,所述状态生成子模块根据当前状态s_testτ与像素类别选择动作a_testτ得到新状态s_testτ+1
S46.在步骤S45之后,判断目前该分块是否为本图像的最后一个分块,若是,则进入步骤S47;否则,将状态移动到下一分块,然后回到步骤S43;
S47.若分块大小m不等于1,则回到步骤S42,进入下一轮次;若分块大小m等于1,则得到预测的图像语义分割结果并输出。
2.根据权利要求1所述的基于强化学习和迁移学习的图像语义分割的建模方法,其特征在于,在步骤S2中,还需将所述卷积神经网络在类似领域的大规模的图像数据集上进行预训练,并保留卷积层与池化层的参数作为初始化,全连接层则随机初始化。
3.根据权利要求1所述的基于强化学习和迁移学习的图像语义分割的建模方法,其特征在于,在步骤S37中,所述目标值yj的计算公式为:
Figure FDA0004111871340000021
式中,rj表示第j条记录的奖励值,sj+1表示第j条记录的新状态,γ表示折扣因子,θ表示卷积神经网络参数,Q(s,a;θ)表示卷积神经网络输出的Q值;
所述损失函数L(θ)的计算公式为:
L(θ)=(yj-Q(sj,aj;θ))2
式中,yj表示目标值,Q(sj,aj;θ)表示第j条记录经过卷积神经网络输出的Q值。
4.一种应用于权利要求1至3任一项所述的基于强化学习和迁移学习的图像语义分割的建模方法的模型,其特征在于,包括:
预处理模块,用于对原始图像进行预处理;
感知模块,用于强化学习中的环境部分;
像素类别决策模块,用于强化学习中的智能体部分;
所述预处理模块、感知模块、像素类别决策模块顺次通信连接。
5.根据权利要求4所述的基于强化学习和迁移学习的图像语义分割模型,其特征在于,所述感知模块包括:
状态生成子模块,用于根据精细或粗略等级生成不同的状态;
奖励生成子模块,用于生成奖励;
所述状态生成子模块与奖励生成子模块、预处理模块通信连接。
6.根据权利要求5所述的基于强化学习和迁移学习的图像语义分割模型,其特征在于,所述奖励生成子模块生成的奖励包括分割效果奖励和分割比例奖励。
7.根据权利要求6所述的基于强化学习和迁移学习的图像语义分割模型,其特征在于,所述像素类别决策模块包括:
图像特征提取子模块,用于对输入的状态提取特征;
像素类别选择子模块,用于根据Q值选择像素类别决策作为动作输出;
所述图像特征提取子模块与像素类别选择子模块、状态生成子模块通信连接,所述像素类别选择子模块与状态生成子模块通信连接。
8.根据权利要求7所述的基于强化学习和迁移学习的图像语义分割模型,其特征在于,所述图像特征提取子模块包括特征提取网络和经验回放存储器Ω;所述特征提取网络为卷积神经网络,其输出层的节点对应每个像素类别选择动作的Q值,所述经验回放存储器Ω用于对所述特征提取网络的参数进行训练。
CN201911132553.1A 2019-11-19 2019-11-19 基于强化学习和迁移学习的图像语义分割模型及建模方法 Active CN110866922B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911132553.1A CN110866922B (zh) 2019-11-19 2019-11-19 基于强化学习和迁移学习的图像语义分割模型及建模方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911132553.1A CN110866922B (zh) 2019-11-19 2019-11-19 基于强化学习和迁移学习的图像语义分割模型及建模方法

Publications (2)

Publication Number Publication Date
CN110866922A CN110866922A (zh) 2020-03-06
CN110866922B true CN110866922B (zh) 2023-05-16

Family

ID=69655583

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911132553.1A Active CN110866922B (zh) 2019-11-19 2019-11-19 基于强化学习和迁移学习的图像语义分割模型及建模方法

Country Status (1)

Country Link
CN (1) CN110866922B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112232350B (zh) * 2020-10-27 2022-04-19 广东技术师范大学 基于强化学习的水田机器人机械腿长度调整方法与系统
CN112287950B (zh) * 2020-11-16 2024-04-16 北京沃东天骏信息技术有限公司 特征提取模块压缩方法、图像处理方法、装置、介质
CN112965488B (zh) * 2021-02-05 2022-06-03 重庆大学 基于迁移学习神经网络的婴儿监控移动机器小车
CN117078923A (zh) * 2023-07-19 2023-11-17 苏州大学 面向自动驾驶环境的语义分割自动化方法、系统及介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109145939A (zh) * 2018-07-02 2019-01-04 南京师范大学 一种小目标敏感的双通道卷积神经网络语义分割方法
CN109711413A (zh) * 2018-12-30 2019-05-03 陕西师范大学 基于深度学习的图像语义分割方法
CN109902748A (zh) * 2019-03-04 2019-06-18 中国计量大学 一种基于多层信息融合全卷积神经网络的图像语义分割方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109145939A (zh) * 2018-07-02 2019-01-04 南京师范大学 一种小目标敏感的双通道卷积神经网络语义分割方法
CN109711413A (zh) * 2018-12-30 2019-05-03 陕西师范大学 基于深度学习的图像语义分割方法
CN109902748A (zh) * 2019-03-04 2019-06-18 中国计量大学 一种基于多层信息融合全卷积神经网络的图像语义分割方法

Also Published As

Publication number Publication date
CN110866922A (zh) 2020-03-06

Similar Documents

Publication Publication Date Title
CN110866922B (zh) 基于强化学习和迁移学习的图像语义分割模型及建模方法
CN113240580B (zh) 一种基于多维度知识蒸馏的轻量级图像超分辨率重建方法
CN109859190B (zh) 一种基于深度学习的目标区域检测方法
CN108986050B (zh) 一种基于多分支卷积神经网络的图像和视频增强方法
KR102114357B1 (ko) 풀링 타입에 대한 정보를 포함하는 테이블을 작성하기 위한 방법, 장치 및 이를 이용한 테스팅 방법, 테스팅 장치
CN109712165B (zh) 一种基于卷积神经网络的同类前景图像集分割方法
CN105139395B (zh) 基于小波池化卷积神经网络的sar图像分割方法
CN107506792B (zh) 一种半监督的显著对象检测方法
CN111723780A (zh) 基于高分辨率遥感图像的跨域数据的定向迁移方法及系统
CN112700434A (zh) 医学图像的分类方法及其分类装置
CN112101364B (zh) 基于参数重要性增量学习的语义分割方法
CN109740451A (zh) 基于重要性加权的道路场景图像语义分割方法
CN116645592B (zh) 一种基于图像处理的裂缝检测方法和存储介质
CN111652864A (zh) 一种基于条件式生成对抗网络的铸件缺陷图像生成方法
CN111553414A (zh) 一种基于改进Faster R-CNN的车内遗失物体检测方法
CN114556413A (zh) 用于组织分割的机器学习模型的交互式训练
CN114897738A (zh) 一种基于语义不一致性检测的图像盲修复方法
CN112819096A (zh) 一种基于复合卷积神经网络的化石图像分类模型的构建方法
CN114140469A (zh) 一种基于多层注意力的深度分层图像语义分割方法
CN113971764B (zh) 一种基于改进YOLOv3的遥感图像小目标检测方法
CN116228686A (zh) 一种基于轻量级网络的划痕缺陷检测方法、装置以及设备
CN115018729B (zh) 一种面向内容的白盒图像增强方法
CN115953330B (zh) 虚拟场景图像的纹理优化方法、装置、设备和存储介质
CN111738099A (zh) 基于视频图像场景理解的人脸自动检测方法
CN110866866A (zh) 图像仿色处理方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant