CN116168053B - 息肉分割模型的训练方法、息肉分割方法及相关装置 - Google Patents

息肉分割模型的训练方法、息肉分割方法及相关装置 Download PDF

Info

Publication number
CN116168053B
CN116168053B CN202310184641.6A CN202310184641A CN116168053B CN 116168053 B CN116168053 B CN 116168053B CN 202310184641 A CN202310184641 A CN 202310184641A CN 116168053 B CN116168053 B CN 116168053B
Authority
CN
China
Prior art keywords
polyp
region
predicted
sample
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310184641.6A
Other languages
English (en)
Other versions
CN116168053A (zh
Inventor
王杰祥
赵家英
李永会
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Douyin Vision Co Ltd
Original Assignee
Douyin Vision Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Douyin Vision Co Ltd filed Critical Douyin Vision Co Ltd
Priority to CN202310184641.6A priority Critical patent/CN116168053B/zh
Publication of CN116168053A publication Critical patent/CN116168053A/zh
Application granted granted Critical
Publication of CN116168053B publication Critical patent/CN116168053B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本公开涉及一种息肉分割模型的训练方法、息肉分割方法及相关装置,以提升目标域模型的息肉分割性能。其中,训练方法包括:针对预测息肉区域,从息肉正样本集中确定第一正样本,从息肉负样本集中确定第一负样本,针对预测非息肉区域,从非息肉正样本集中确定第二正样本,从非息肉负样本集中确定第二负样本;根据第一正样本、第一负样本和预测息肉区域的特征,确定第一损失值,并根据第二正样本、第二负样本和预测非息肉区域的特征,确定第二损失值;根据预测息肉分割结果和历史息肉分割结果,确定目标样本图像对应的伪标签,并根据伪标签和预测息肉分割结果,确定第三损失值;根据第一损失值、第二损失值和第三损失值,调整模型参数。

Description

息肉分割模型的训练方法、息肉分割方法及相关装置
技术领域
本公开涉及图像处理技术领域,具体地,涉及一种息肉分割模型的训练方法、息肉分割方法及相关装置。
背景技术
随着人工智能相关技术的发展,基于深度学习的辅助诊断技术被广泛应用于各种医疗相关场景中,比如基于深度学习模型对内窥镜图像进行息肉分割。在实际应用中,深度学习模型通常利用少数源域数据进行训练,目标是将训练完成的深度学习模型部署到目标域场景下,从而对目标域数据进行处理。但是,领域分布差异(Domain Shift),例如医学成像条件的变化和数据的模态差异等,导致利用源域数据训练好的模型,在部署到目标域场景后表现不佳。
发明内容
提供该发明内容部分以便以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。该发明内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
第一方面,本公开提供一种息肉分割模型的训练方法,所述方法包括:
将目标样本图像输入目标域模型,得到预测息肉分割结果,所述目标域模型是基于源域模型的参数进行初始化得到的息肉分割模型,所述源域模型是通过标注有息肉分割标签的图像进行监督训练得到的;
针对所述预测息肉分割结果对应的预测息肉区域,从息肉正样本集中确定第一正样本,从息肉负样本集中确定第一负样本,并针对所述预测息肉分割结果对应的预测非息肉区域,从非息肉正样本集中确定第二正样本,从非息肉负样本集中确定第二负样本;
根据所述第一正样本、所述第一负样本和所述预测息肉区域的特征,确定第一损失值,并根据所述第二正样本、所述第二负样本和所述预测非息肉区域的特征,确定第二损失值;
根据所述预测息肉分割结果和上次训练过程中所述目标域模型针对所述目标样本图像输出的历史息肉分割结果,确定所述目标样本图像对应的伪标签,并根据所述伪标签和所述预测息肉分割结果,确定第三损失值;
根据所述第一损失值、所述第二损失值和所述第三损失值,调整所述目标域模型的参数。
第二方面,本公开提供一种息肉分割方法,所述方法包括:
获取待处理的内窥镜图像;
将所述内窥镜图像输入息肉分割模型,得到所述内窥镜图像对应的息肉分割结果,其中,所述息肉分割模型是通过第一方面所述的方法训练得到的。
第三方面,本公开提供一种息肉分割模型的训练装置,所述装置包括:
第一训练模块,用于将目标样本图像输入目标域模型,得到预测息肉分割结果,所述目标域模型是基于源域模型的参数进行初始化得到的息肉分割模型,所述源域模型是通过标注有息肉分割标签的图像进行监督训练得到的;
第二训练模块,用于针对所述预测息肉分割结果对应的预测息肉区域,从息肉正样本集中确定第一正样本,从息肉负样本集中确定第一负样本,并针对所述预测息肉分割结果对应的预测非息肉区域,从非息肉正样本集中确定第二正样本,从非息肉负样本集中确定第二负样本;
第三训练模块,用于根据所述第一正样本、所述第一负样本和所述预测息肉区域的特征,确定第一损失值,并根据所述第二正样本、所述第二负样本和所述预测非息肉区域的特征,确定第二损失值;
第四训练模块,用于根据所述预测息肉分割结果和上次训练过程中所述目标域模型针对所述目标样本图像输出的历史息肉分割结果,确定所述目标样本图像对应的伪标签,并根据所述伪标签和所述预测息肉分割结果,确定第三损失值;
第五训练模块,用于根据所述第一损失值、所述第二损失值和所述第三损失值,调整所述目标域模型的参数。
第四方面,本公开提供一种息肉分割装置,所述装置包括:
获取模块,用于获取待处理的内窥镜图像;
分割模块,用于将所述内窥镜图像输入息肉分割模型,得到所述内窥镜图像对应的息肉分割结果,其中,所述息肉分割模型是通过第一方面所述的方法训练得到的。
第五方面,本公开提供一种非临时性计算机可读介质,其上存储有计算机程序,该程序被处理装置执行时实现第一方面或第二方面所述方法的步骤。
第六方面,本公开提供一种电子设备,包括:
存储装置,其上存储有计算机程序;
处理装置,用于执行所述存储装置中的所述计算机程序,以实现第一方面或第二方面所述方法的步骤。
通过上述技术方案,在目标域模型的训练过程中,可以针对预测息肉区域和非预测息肉区域分别确定对应的正样本和负样本,从而实现基于区域级别的对比学习,提高目标域模型对息肉区域和非息肉区域的区分度,进而提升训练后目标域模型的息肉分割性能。并且,按照本公开的方案,可以根据本次训练过程中的预测息肉分割结果和上次训练过程中的历史息肉分割结果,确定伪标签,从而减少伪标签的误差,提升训练后目标域模型的息肉分割准确性。
本公开的其他特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。在附图中:
图1是根据本公开一示例性实施例示出的一种息肉分割模型的训练方法的流程图;
图2是根据本公开另一示例性实施例示出的一种息肉分割模型的训练方法的过程示意图;
图3是根据本公开一示例性实施例示出的一种息肉分割方法的流程图;
图4是根据本公开一示例性实施例示出的一种息肉分割模型的训练装置的框图;
图5是根据本公开一示例性实施例示出的一种息肉分割装置的框图;
图6是根据本公开一示例性实施例示出的一种电子设备的框图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。另外需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
可以理解的是,在使用本公开各实施例公开的技术方案之前,均应当依据相关法律法规通过恰当的方式对本公开所涉及个人信息的类型、使用范围、使用场景等告知用户并获得用户的授权。
例如,在响应于接收到用户的主动请求时,向用户发送提示信息,以明确地提示用户,其请求执行的操作将需要获取和使用到用户的个人信息。从而,使得用户可以根据提示信息来自主地选择是否向执行本公开技术方案的操作的电子设备、应用程序、服务器或存储介质等软件或硬件提供个人信息。
作为一种可选的但非限定性的实现方式,响应于接收到用户的主动请求,向用户发送提示信息的方式例如可以是弹窗的方式,弹窗中可以以文字的方式呈现提示信息。此外,弹窗中还可以承载供用户选择“同意”或者“不同意”向电子设备提供个人信息的选择控件。
可以理解的是,上述通知和获取用户授权过程仅是示意性的,不对本公开的实现方式构成限定,其它满足相关法律法规的方式也可应用于本公开的实现方式中。
同时,可以理解的是,本技术方案所涉及的数据(包括但不限于数据本身、数据的获取或使用)应当遵循相应法律法规及相关规定的要求。
正如背景技术所言,深度学习模型可以利用少数源域数据进行训练,目标是将训练完成的深度学习模型部署到目标域场景下,从而对目标域数据进行处理。但是,领域分布差异(Domain Shift),例如源域和目标域场景下医学成像条件的变化和数据的模态差异等,导致利用源域数据训练好的模型,在部署到目标域场景后表现不佳。
相关技术可以通过无监督域自适应(Unsupervised Domain Adaptation,UDA)减小领域分布差异的影响。但是,无监督域自适应训练需要利用标注的源域数据和目标域数据进行联合训练,如果源域数据量很大,数据的存储的将是个问题。并且,由于医疗场景中的隐私保护问题和数据安全问题,来自不同临床中心的医疗数据通常需要保存在本地,即本地医院的患者数据可能不会共享给其他医院。
相关技术还存在一种无源域适应(Source-Free Domain Adapatation,SFDA)的方式,也可以称为模型适应,即训练过程只能接触到源域模型和目标域数据,无法接触到源域数据。与UDA方法相比,SFDA需要从源域模型中提取领域知识并将其适应到目标域数据。在这种情况下,由于无法明确测量源域数据分布和目标域数据分布之间的差异,因此通过UDA中的特征对齐策略(比如对抗性学习和矩匹配)来进行域适应是不可行的。
相关技术中的SFDA方法通常由两个阶段组成,包括源域预训练和目标域适应。具体地,相关技术中的SFDA可以开发一个熵最小化项,从而结合先验知识来提高目标域性能。或者,通过去噪伪标签策略,协同使用不确定性估计和原型(prototype)估计来选择可靠的伪标签,从而提高自我训练性能。又或者,引入一种批量归一化统计自适应框架,逐步学习目标域特定的均值和方差,并通过自适应加权策略来提高性能。
但是,相关技术中SFDA通常从源域模型中学习判别力,在息肉分割场景下,忽略了目标域数据区分息肉和非息肉的自我监督能力,存在息肉和非息肉区分度不高的问题。并且,相关技术中SFDA的伪标签会因为错误的预测导致误差累积问题,即如果伪标签错误,模型的表现会变得更差。
有鉴于此,本公开提供一种息肉分割模型的训练方法,以解决息肉分割场景下将源域模型部署到目标域场景后目标域模型对息肉和非息肉区分度不高的问题,并校准伪标签的结果,从而提高目标域模型的息肉分割性能。
图1是根据本公开一示例性实施例示出的一种息肉分割模型的训练方法的流程图。参照图1,该训练方法包括:
步骤101,将目标样本图像输入目标域模型,得到预测息肉分割结果。其中,该目标域模型是基于源域模型的参数进行初始化得到的息肉分割模型,源域模型是通过标注有息肉分割标签的图像进行监督训练得到的。
步骤102,针对预测息肉分割结果对应的预测息肉区域,从息肉正样本集中确定第一正样本,从息肉负样本集中确定第一负样本,并针对所述预测息肉分割结果对应的预测非息肉区域,从非息肉正样本集中确定第二正样本,从非息肉负样本集中确定第二负样本。
步骤103,根据第一正样本、第一负样本和预测息肉区域的特征,确定第一损失值,并根据第二正样本、第二负样本和预测非息肉区域的特征,确定第二损失值。
步骤104,根据预测息肉分割结果和上次训练过程中目标域模型针对目标样本图像输出的历史息肉分割结果,确定目标样本图像对应的伪标签,并根据伪标签和预测息肉分割结果,确定第三损失值。
步骤105,根据第一损失值、第二损失值和第三损失值,调整目标域模型的参数。
示例地,源域模型可以采用任意的分割网络(如UNet),本公开实施例对此不作限定。目标域模型和源域模型可以具有同样的网络结构。在步骤101之前,可以先通过标注有息肉分割标签的图像进行监督训练,得到源域模型。然后,可以利用源域模型的参数来初始化目标域模型。
示例地,目标样本图像为无标注的目标域图像。比如,通过医院A的有标注图像进行监督训练,得到用于息肉分割的源域模型。如果想将该源域模型部署到医院B进行息肉分割,则医院A的图像为源域图像,医院B的图像为目标域图像。在实际应用中,可以通过肠镜等不同类型的内窥镜得到多个样本图像,并将多个样本图像组成样本图像集。相应地,目标样本图像可以是样本图像集中的任一图像。
将目标样本图像输入目标域模型,可以得到预测息肉分割结果,该预测息肉分割结果可以理解为是一个概率特征图,该概率特征图中每个点的值表示目标样本图像中对应像素点的类别概率。其中,类别包括息肉类别和非息肉类别。由此,可以基于预测息肉分割结果,确定对应的预测息肉区域和预测非息肉区域。其中,预测息肉区域为目标域模型预测为息肉的图像区域,预测息肉区域为目标域模型预测为非息肉的图像区域。
为了增强息肉类别和非息肉类别的判别表示,可以针对息肉类别和非息肉类别建立对应的正样本集和负样本集,从而可以在训练过程中针对息肉类别和非息肉类确定对应的正样本和负样本进行损失函数的计算,实现区域级别的对比学习,进而提高目标域模型对息肉和非息肉的区分度,提高目标域模型的息肉分割性能。
应当理解的是,相关技术通常在分割任务中进行图像级别的对比学习,即原始图像的增强图像被视为正样本,数据集中的其他图像被视为负样本。但是,此种方式忽略了整个数据集的整体上下文信息,无法结合不同真实图像之间的关系进行模型训练。另外,相关技术利用伪标签来进行像素级的对比学习。但是,伪标签可能存在噪声,并且像素级的对比学习需要构造memory bank(存储体)存储历史预测结果,从而需要大量内存开销。因此,本公开实施例提供一种区域级别的对比学习方式,针对息肉类别和非息肉类别分别建立对应的正样本集和负样本集,以增强息肉和非息肉的判别表示。
示例地,在第一轮迭代训练中,可以将样本图像集中的样本图像输入目标域模型,得到每个样本图像对应的预测息肉区域和预测非息肉区域。然后,将这些预测息肉区域组成息肉正样本集和非息肉负样本集,并将这些预测非息肉区域组成息肉负样本集和非息肉正样本集。在第二轮迭代训练中,将样本图像集中的目标样本图像输入目标域模型后,可以针对预测息肉区域,从息肉正样本集中确定第一正样本,从息肉负样本集中确定第一负样本,并针对预测非息肉区域,从非息肉正样本集中确定第二正样本,从非息肉负样本集中确定第二负样本。应当理解的是,在第二轮迭代训练后,还可以根据第二轮迭代训练过程中目标域模型针对样本图像集中每个样本图像的预测息肉分割结果,更新息肉正样本集、息肉负样本集、非息肉负样本集和非息肉正样本集,本公开实施例对此不作限定。
应当理解的是,基于目标样本图像进行息肉类别和非息肉类别的对比学习时,正样本可以基于样本图像集中除目标样本图像外的其他图像确定,负样本可以基于样本图像集中的任一图像确定。即,针对预测息肉区域,第一正样本可以是息肉正样本集中除目标样本图像外的其他任一图像中对应的样本,第一负样本可以是息肉负样本集中的任一样本。针对预测非息肉区域,第二正样本可以是非息肉正样本集中除目标样本图像外的其他任一图像中对应的样本,第二负样本可以是非息肉负样本集中的任一样本。
之后,可以根据息肉类别和非息肉类别分别对应的正样本和负样本进行损失函数的计算,从而实现区域级别的对比学习,提高目标域模型对息肉和非息肉的区分度,进而提高目标域模型的息肉分割性能。
在一些实施例中,可以先确定第一正样本中息肉区域的区域质心特征、第一负样本中非息肉区域的区域质心特征和预测息肉区域的区域质心特征,并根据第一正样本中息肉区域的区域质心特征、第一负样本中非息肉区域的区域质心特征和预测息肉区域的区域质心特征,确定第一损失值。确定第二正样本中非息肉区域的区域质心特征、第二负样本中息肉区域的区域质心特征和预测非息肉区域的区域质心特征,并根据第二正样本中非息肉区域的区域质心特征、第二负样本中息肉区域的区域质心特征和预测非息肉区域的区域质心特征,确定第二损失值。由此,可以通过区域质心代表对应的图像区域,从而减少计算成本。
示例地,区域质心特征可以是图像区域的平均特征值,即,可以将图像区域中的所有特征相加后除以该图像区域内的特征个数。但是,训练过程中预测息肉区域或预测非息肉区域的特征可能存在误差,因此本公开实施例提供一种基于预测置信度给每个特征分配权重的方式,从而提高区域质心特征的表示准确性。
在一些实施例中,确定预测息肉区域的区域质心特征可以是:确定预测息肉区域内各像素点特征的熵,并根据每一像素点特征的熵,确定每一像素点的区域质心权重。针对预测息肉区域内的每一像素点,确定像素点经归一化指数函数处理之前的中间图像特征。根据每一像素点的区域质心权重,将每一像素点的中间图像特征进行加权求和,得到目标特征结果,并将目标特征结果除以预测息肉区域的像素点个数,得到预测息肉区域的区域质心特征。由此,可以通过区域内不同像素的预测置信度动态地给每个像素点特征分配权重,提高预测息肉区域对应的区域质心特征的表示准确性,从而提升息肉分割模型的训练效果。
应当理解的是,模型对息肉区域的预测越确定,则对应的熵越小,从而对应的区域质心权重应当越大。反之,模型对息肉区域的预测越不确定,则对应的熵较大,从而对应的区域质心权重应当较小。其中,若模型对息肉区域的预测结果越接近1,则表明模型对息肉区域的预测越确定。因此,可以按照熵与区域质心权重成反比的方式,确定每一像素点的区域质心权重。比如,可以将区域质心权重设定为1减去熵的值,本公开实施例对此不作限定。
示例地,归一化指数函数可以是softmax函数,在实际应用中可以获取目标域模型中softmax函数的输入特征作为中间图像特征。
例如,可以先按照如下方式确定预测息肉分割结果中各像素点特征的熵:
其中,表示目标域t图像对应的预测息肉分割结果的熵,/>表示预测息肉分割结果中的特征,h表示目标样本图像的高度,w表示目标样本图像的宽度,H表示熵函数。
然后,可以按照如下方式确定预测息肉区域的区域质心特征mi
其中,ΙΙ表示指示函数,表示预测息肉分割结果中类别为息肉i的像素点个数,即预测息肉区域的像素点个数,/>表示预测息肉区域对应的熵,可以基于预测息肉区域的特征按照上述计算式(1)计算得到,/>表示区域质心权重,/>表示目标样本图像经过softmax操作前的特征图像中类别为息肉i的像素点对应的特征,即预测息肉区域内的每一像素点经softmax操作前的中间图像特征。
类似地,在一些实施例中,确定预测非息肉区域的区域质心特征,可以是:确定预测非息肉区域内各像素点特征的熵,并根据每一像素点特征的熵,确定每一像素点的区域质心权重。针对预测非息肉区域内的每一像素点,确定像素点经归一化指数函数处理之前的中间图像特征。根据每一像素点的区域质心权重,将每一像素点的中间图像特征进行加权求和,得到目标特征结果,并将目标特征结果除以预测非息肉区域的像素点个数,得到预测非息肉区域的区域质心特征。由此,可以通过区域内不同像素的预测置信度动态地给每个像素点特征分配权重,提高预测非息肉区域对应的区域质心特征的表示准确性,从而提升息肉分割模型的训练效果。
例如,可以先基于预测非息肉区域的特征按照上述计算式(1)得到预测非息肉区域的熵然后,可以按照如下方式确定预测非息肉区域的区域质心特征mi′
其中,ΙΙ表示指示函数,表示预测息肉分割结果中类别为非息肉i′的像素点个数,即预测非息肉区域的像素点个数,/> 表示目标样本图像经过softmax操作前的特征图像中类别为非息肉i′的像素点对应的特征,即预测非息肉区域内的每一像素点经softmax操作前的中间图像特征。
对于第一正样本中息肉区域的区域质心特征,参照上文说明,第一正样本是基于目标域模型输出的预测结果得到的,因此可以按照上述计算式得到第一正样本中息肉区域的区域质心特征。比如,在第一轮迭代训练中,将样本图像集中的所有样本图像输入目标域模型后,得到每个样本图像计算区域质心特征所需的数据,然后再按照上述计算式确定对应的区域质心特征,最后将计算得到的区域质心特征进行存储。相应地,可以通过读取存储的方式确定第一正样本中息肉区域的区域质心特征。类似地,第一负样本中非息肉区域的区域质心特征、第二正样本中非息肉区域的区域质心特征和第二负样本中息肉区域的区域质心特征均可以按照此种方式确定,这里不再赘述。
在可能的方式中,在得到对应的区域质心特征后,可以按照如下方式确定息肉类别和非息肉类别的区域级对比损失值,即息肉类别对应的第一损失值和非息肉类别对应的第二损失值:
其中,L1表示第一损失值,L2表示第二损失值,Mi表示息肉正样本集,Mi′表示非息肉正样本集,Ni表示息肉负样本集,Ni′表示非息肉负样本集,mi表示预测息肉区域的特征,mi′表示预测非息肉区域的特征,m+表示第一正样本的特征,m′+表示第二正样本的特征,m-表示第一负样本的特征,m′-表示第二负样本的特征,τ表示温度系数。
在确定第一损失值和第二损失值的同时或之后,还可以根据预测息肉分割结果和上次训练过程中的历史息肉分割结果,确定目标样本图像对应的伪标签,并根据伪标签和预测息肉分割结果,确定第三损失值。
应当理解的是,相关技术中的伪标签方法将重点放在设计采样的策略上,以选择具有高预测置信度和适合任务特定属性的伪标签,忽略了单个图像内不同像素的结构化依赖,从而容易导致对某些局部区域的过度自信预测。并且,在一些前景和背景高度纠缠的医学应用中,相关技术的方式可能难以选择可信赖的伪标签。比如,息肉分割应用中,息肉和正常组织在视觉上相似且对比度低,极大地阻碍了相关技术中伪标签的正确性。因此,本公开实施例提供一种新的方式,可以通过整合先前和当前预测的输出结果,在像素级校准伪标签,从而提高伪标签的正确性,提升模型训练效果。
示例地,可以将第一轮迭代训练的预测息肉分割结果进行存储,在第二轮迭代训练过程中可以结合本轮迭代训练中目标样本图像对应的预测息肉分割结果和第一轮迭代训练中目标样本图像对应的预测息肉分割结果(即上次训练过程中的历史息肉分割结果),确定目标样本图像对应的伪标签。同样地,可以将第二轮迭代训练输出的预测息肉分割结果进行存储,以供第三轮迭代训练使用,以此类推。
在一些实施例中,可以根据预测息肉分割结果和上次训练过程中目标域模型针对目标样本图像输出的历史息肉分割结果进行归一化处理,得到归一化结果。将预测息肉分割结果除以归一化结果,得到第一中间数值,并将历史息肉分割结果除以归一化结果,得到第二中间数值。根据预设权重将第一中间数值和第二中间数值进行加权求和,得到目标样本图像对应的伪标签。
其中,预设权重可以根据实际情况设定,本公开实施例对此不作限定。比如,将第一中间数值和第二中间数据对应的预设权重均设定为0.5,或者可以将第一中间数值和第二中间数据对应的预设权重设定为不同值,本公开实施例对此不作限定。
例如,可以按照如下方式确定目标样本图像对应的伪标签:
其中,表示第l次训练目标样本图像对应的伪标签,α表示预设权重,取值范围为0至1,/>表示第l次训练输出的预测息肉分割结果,/>表示第l-1次训练输出的预测息肉分割结果(即上次训练过程中的历史息肉分割结果),/>表示归一化结果,表示一种归一化操作,用于平滑伪标签的概率分布,防止产生过于自信的预测结果,/>表示第一中间数值,/>表示第二中间数值。
由此,可以通过整合先前和当前预测的输出结果,在像素级校准伪标签,从而提高伪标签的正确性,提升模型训练效果。
在得到目标样本图像对应的伪标签后,可以将该伪标签与分类阈值进行对比,大于该分类阈值则确定为息肉类别,小于或等于该分类阈值则确定为非息肉类别。由此,可以得到用于计算损失值的伪标签类别数据其中k表示类别,可以是息肉类别i或非息肉类别i′。然后,可以利用交叉熵损失函数按照如下方式确定第三损失值:
其中,表示伪标签数据,/>对应的预测结果。
在得到第一损失值、第二损失值和第三损失值后,可以根据第一损失值、第二损失值和第三损失值,调整目标域模型的参数。
在一些实施例中,可以根据预设损失权重,将第一损失值、第二损失值和第三损失值进行加权求和,得到目标损失值。然后,根据目标损失值调整目标域模型的参数,以减小目标域模型预测的息肉区域与息肉正样本集中正样本之间的特征距离,增加目标域模型预测的息肉区域与息肉负样本集中负样本之间的特征距离,且减小目标域模型预测的非息肉区域与非息肉正样本集中正样本之间的特征距离,增加目标域模型预测的非息肉区域与非息肉负样本集中负样本之间的特征距离。
例如,可以先按照如下方式根据预设损失权重,将第一损失值、第二损失值和第三损失值进行加权求和,得到目标损失值:
Lo=β(L1+L2)+γL3 (8)
其中,Lo表示目标损失值,β和γ表示预设损失权重,可以取值为1。应当理解的是,预设损失权重可以根据实际情况设定为0至1的任意值,本公开实施例不作限定,上述举例仅作示意。
然后可以根据目标损失值调整目标域模型的参数,减小目标域模型预测的息肉区域与息肉正样本集中正样本之间的特征距离,增加目标域模型预测的息肉区域与息肉负样本集中负样本之间的特征距离,且减小目标域模型预测的非息肉区域与非息肉正样本集中正样本之间的特征距离,增加目标域模型预测的非息肉区域与非息肉负样本集中负样本之间的特征距离。由此,可以拉近正样本间距离,拉开负样本间距离,更好地区分息肉图像区域和非息肉图像区域,提高目标域模型的息肉分割性能。
下面参照图2说明本公开提供的息肉分割模型的训练方法。
如图2所示,训练过程可以包括两部分,分别是前景感知对比学习(Foreground-aware contrastive learning,FCL)和置信度校准的伪标签学习(Confidence-CalibratedPseudo-Labelling,CCPL)。其中,FCL在区域级别图像上引入一种有监督的对比学习范式,对比目标是不同目标域图像上的不同区域平均特征。在息肉分割场景下,不同区域为息肉区域和非息肉区域,从而可以对噪声样本具有鲁棒性。CCPL通过融合两个相同图像的不同预测结果来减少伪标签的过分自信问题,并且不需要引入任何额外的网络模块,不仅可以提高训练准确性,还可以提高训练效率。在实际应用中,FCL和CCPL可以同时并行执行。
继续参照图2,首先无标注目标域数据输入目标域模型,得到预测息肉分割结果。一方面,预测息肉分割结果经过FCL后得到第一损失值和第二损失值,图2中以LFCL进行示意。另一方面,预测息肉分割结果结合上次训练的历史息肉分割结果经过CCPL后得到第三损失值,图2中以LCCPL进行示意。最后,通过LFCL和LCCPL调整目标域模型的参数,完成对目标域模型的训练。在应用阶段,可以根据训练完成的目标域模型对目标域图像进行息肉分割。应当理解的是,图2所示的各训练过程的具体细节可以参照上文,这里不再赘述。
基于同一构思,本公开还提供一种息肉分割方法。参照图3,该息肉分割方法包括:
步骤301,获取待处理的内窥镜图像。
步骤302,将内窥镜图像输入息肉分割模型,得到内窥镜图像对应的息肉分割结果。其中,该息肉分割模型是通过上述任一息肉分割模型的训练方法训练得到的。
示例地,步骤301中的内窥镜图像可以是目标域图像。比如,通过医院A的有标注图像进行监督训练,得到用于息肉分割的源域模型。如果想将该源域模型部署到医院B进行息肉分割,则医院A的图像为源域图像,医院B的图像为目标域图像。
通过上述方案,由于在息肉分割模型的训练过程中针对预测息肉区域和非预测息肉区域分别确定对应的正样本和负样本,从而实现了基于区域级别的对比学习,并且根据本次训练过程中的预测息肉分割结果和上次训练过程中的历史息肉分割结果,确定伪标签,减少了伪标签的误差,因此训练后息肉分割模型的准确性有所提升,从而将内窥镜图像输入息肉分割模型后可以得到更准确的息肉分割结果。
基于同一构思,本公开还提供一种息肉分割模型的训练装置,该装置可以通过软件、硬件或者两者结合的方式成为电子设备的部分或全部。参照图4,该息肉分割模型的训练装置400可以包括:
第一训练模块401,用于将目标样本图像输入目标域模型,得到预测息肉分割结果,所述目标域模型是基于源域模型的参数进行初始化得到的息肉分割模型,所述源域模型是通过标注有息肉分割标签的图像进行监督训练得到的;
第二训练模块402,用于针对所述预测息肉分割结果对应的预测息肉区域,从息肉正样本集中确定第一正样本,从息肉负样本集中确定第一负样本,并针对所述预测息肉分割结果对应的预测非息肉区域,从非息肉正样本集中确定第二正样本,从非息肉负样本集中确定第二负样本;
第三训练模块403,用于根据所述第一正样本、所述第一负样本和所述预测息肉区域的特征,确定第一损失值,并根据所述第二正样本、所述第二负样本和所述预测非息肉区域的特征,确定第二损失值;
第四训练模块404,用于根据所述预测息肉分割结果和上次训练过程中所述目标域模型针对所述目标样本图像输出的历史息肉分割结果,确定所述目标样本图像对应的伪标签,并根据所述伪标签和所述预测息肉分割结果,确定第三损失值;
第五训练模块405,用于根据所述第一损失值、所述第二损失值和所述第三损失值,调整所述目标域模型的参数。
可选地,所述第三训练模块403用于:
确定所述第一正样本中息肉区域的区域质心特征、所述第一负样本中非息肉区域的区域质心特征和所述预测息肉区域的区域质心特征,并根据所述第一正样本中息肉区域的区域质心特征、所述第一负样本中非息肉区域的区域质心特征和所述预测息肉区域的区域质心特征,确定第一损失值;
确定所述第二正样本中非息肉区域的区域质心特征、所述第二负样本中息肉区域的区域质心特征和所述预测非息肉区域的区域质心特征,并根据所述第二正样本中非息肉区域的区域质心特征、所述第二负样本中息肉区域的区域质心特征和所述预测非息肉区域的区域质心特征,确定第二损失值。
可选地,所述第三训练模块403用于:
确定所述预测息肉区域内各像素点特征的熵,并根据每一所述像素点特征的熵,确定每一所述像素点的区域质心权重;
针对所述预测息肉区域内的每一所述像素点,确定所述像素点经归一化指数函数处理之前的中间图像特征;
根据每一所述像素点的所述区域质心权重,将每一所述像素点的所述中间图像特征进行加权求和,得到目标特征结果,并将所述目标特征结果除以所述预测息肉区域的像素点个数,得到所述预测息肉区域的区域质心特征。
可选地,所述第三训练模块403用于:
确定所述预测非息肉区域内各像素点特征的熵,并根据每一所述像素点特征的熵,确定每一所述像素点的区域质心权重;
针对所述预测非息肉区域内的每一所述像素点,确定所述像素点经归一化指数函数处理之前的中间图像特征;
根据每一所述像素点的所述区域质心权重,将每一所述像素点的所述中间图像特征进行加权求和,得到目标特征结果,并将所述目标特征结果除以所述预测非息肉区域的像素点个数,得到所述预测非息肉区域的区域质心特征。
可选地,所述第四训练模块404用于:
根据所述预测息肉分割结果和上次训练过程中所述目标域模型针对所述目标样本图像输出的历史息肉分割结果进行归一化处理,得到归一化结果;
将所述预测息肉分割结果除以所述归一化结果,得到第一中间数值,并将所述历史息肉分割结果除以所述归一化结果,得到第二中间数值;
根据预设权重将所述第一中间数值和所述第二中间数值进行加权求和,得到所述目标样本图像对应的伪标签。
可选地,所述第五训练模块405用于:
根据预设损失权重,将所述第一损失值、所述第二损失值和所述第三损失值进行加权求和,得到目标损失值;
根据所述目标损失值调整所述目标域模型的参数,以减小所述目标域模型预测的息肉区域与所述息肉正样本集中正样本之间的特征距离,增加所述目标域模型预测的息肉区域与所述息肉负样本集中负样本之间的特征距离,且减小所述目标域模型预测的非息肉区域与非息肉正样本集中正样本之间的特征距离,增加所述目标域模型预测的非息肉区域与非息肉负样本集中负样本之间的特征距离。
基于同一构思,本公开还提供一种息肉分割装置,该装置可以通过软件、硬件或者两者结合的方式成为电子设备的部分或全部。参照图5,该息肉分割模型的训练装置500可以包括:
获取模块501,用于获取待处理的内窥镜图像;
分割模块502,用于将所述内窥镜图像输入息肉分割模型,得到所述内窥镜图像对应的息肉分割结果,其中,所述息肉分割模型是通过上述任一息肉分割模型的训练方法训练得到的。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
基于同一构思,本公开还提供一种非临时性计算机可读介质,其上存储有计算机程序,该程序被处理装置执行时实现上述任一息肉分割模型的训练方法或息肉分割方法的步骤。
基于同一构思,本公开还提供一种电子设备,包括:
存储装置,其上存储有计算机程序;
处理装置,用于执行所述存储装置中的所述计算机程序,以实现上述任一息肉分割模型的训练方法或息肉分割方法的步骤。
下面参考图6,其示出了适于用来实现本公开实施例的电子设备600的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如笔记本电脑、PAD(平板电脑)等移动终端以及诸如台式计算机、内窥镜设备等固定终端。图6示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图6所示,电子设备600可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备600操作所需的各种程序和数据。处理装置601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备600与其他设备进行无线或有线通信以交换数据。虽然图6示出了具有各种装置的电子设备600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,可以利用诸如HTTP(HyperText Transfer Protocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:将目标样本图像输入目标域模型,得到预测息肉分割结果,所述目标域模型是基于源域模型的参数进行初始化得到的息肉分割模型,所述源域模型是通过标注有息肉分割标签的图像进行监督训练得到的;针对所述预测息肉分割结果对应的预测息肉区域,从息肉正样本集中确定第一正样本,从息肉负样本集中确定第一负样本,并针对所述预测息肉分割结果对应的预测非息肉区域,从非息肉正样本集中确定第二正样本,从非息肉负样本集中确定第二负样本;根据所述第一正样本、所述第一负样本和所述预测息肉区域的特征,确定第一损失值,并根据所述第二正样本、所述第二负样本和所述预测非息肉区域的特征,确定第二损失值;根据所述预测息肉分割结果和上次训练过程中所述目标域模型针对所述目标样本图像输出的历史息肉分割结果,确定所述目标样本图像对应的伪标签,并根据所述伪标签和所述预测息肉分割结果,确定第三损失值;根据所述第一损失值、所述第二损失值和所述第三损失值,调整所述目标域模型的参数。
或者,上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取待处理的内窥镜图像;
将所述内窥镜图像输入息肉分割模型,得到所述内窥镜图像对应的息肉分割结果,其中,所述息肉分割模型是通过上述任一息肉分割模型的训练方法训练得到的。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言——诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,模块的名称在某种情况下并不构成对该模块本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。

Claims (11)

1.一种息肉分割模型的训练方法,其特征在于,所述方法包括:
将目标样本图像输入目标域模型,得到预测息肉分割结果,所述目标域模型是基于源域模型的参数进行初始化得到的息肉分割模型,所述源域模型是通过标注有息肉分割标签的图像进行监督训练得到的;
针对所述预测息肉分割结果对应的预测息肉区域,从息肉正样本集中确定第一正样本,从息肉负样本集中确定第一负样本,并针对所述预测息肉分割结果对应的预测非息肉区域,从非息肉正样本集中确定第二正样本,从非息肉负样本集中确定第二负样本,所述息肉正样本集和所述非息肉负样本集由样本图像集中的样本图像对应的预测息肉区域组成,所述息肉负样本集和所述非息肉正样本集由所述样本图像集中的样本图像对应的预测非息肉区域组成,所述样本图像集包括所述目标样本图像;
根据所述第一正样本、所述第一负样本和所述预测息肉区域的特征,确定第一损失值,并根据所述第二正样本、所述第二负样本和所述预测非息肉区域的特征,确定第二损失值;
根据所述预测息肉分割结果和上次训练过程中所述目标域模型针对所述目标样本图像输出的历史息肉分割结果,确定所述目标样本图像对应的伪标签,并根据所述伪标签和所述预测息肉分割结果,确定第三损失值;
根据所述第一损失值、所述第二损失值和所述第三损失值,调整所述目标域模型的参数。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第一正样本、所述第一负样本和所述预测息肉区域的特征,确定第一损失值,并根据所述第二正样本、所述第二负样本和所述预测非息肉区域的特征,确定第二损失值,包括:
确定所述第一正样本中息肉区域的区域质心特征、所述第一负样本中非息肉区域的区域质心特征和所述预测息肉区域的区域质心特征,并根据所述第一正样本中息肉区域的区域质心特征、所述第一负样本中非息肉区域的区域质心特征和所述预测息肉区域的区域质心特征,确定第一损失值;
确定所述第二正样本中非息肉区域的区域质心特征、所述第二负样本中息肉区域的区域质心特征和所述预测非息肉区域的区域质心特征,并根据所述第二正样本中非息肉区域的区域质心特征、所述第二负样本中息肉区域的区域质心特征和所述预测非息肉区域的区域质心特征,确定第二损失值。
3.根据权利要求2所述的方法,其特征在于,所述确定所述预测息肉区域的区域质心特征,包括:
确定所述预测息肉区域内各像素点特征的熵,并根据每一所述像素点特征的熵,确定每一所述像素点的区域质心权重;
针对所述预测息肉区域内的每一所述像素点,确定所述像素点经归一化指数函数处理之前的中间图像特征;
根据每一所述像素点的所述区域质心权重,将每一所述像素点的所述中间图像特征进行加权求和,得到目标特征结果,并将所述目标特征结果除以所述预测息肉区域的像素点个数,得到所述预测息肉区域的区域质心特征。
4.根据权利要求2所述的方法,其特征在于,所述确定所述预测非息肉区域的区域质心特征,包括:
确定所述预测非息肉区域内各像素点特征的熵,并根据每一所述像素点特征的熵,确定每一所述像素点的区域质心权重;
针对所述预测非息肉区域内的每一所述像素点,确定所述像素点经归一化指数函数处理之前的中间图像特征;
根据每一所述像素点的所述区域质心权重,将每一所述像素点的所述中间图像特征进行加权求和,得到目标特征结果,并将所述目标特征结果除以所述预测非息肉区域的像素点个数,得到所述预测非息肉区域的区域质心特征。
5.根据权利要求1-4任一所述的方法,其特征在于,所述根据所述预测息肉分割结果和上次训练过程中所述目标域模型针对目标样本图像输出的历史息肉分割结果,确定所述目标样本图像对应的伪标签,包括:
根据所述预测息肉分割结果和上次训练过程中所述目标域模型针对所述目标样本图像输出的历史息肉分割结果进行归一化处理,得到归一化结果;
将所述预测息肉分割结果除以所述归一化结果,得到第一中间数值,并将所述历史息肉分割结果除以所述归一化结果,得到第二中间数值;
根据预设权重将所述第一中间数值和所述第二中间数值进行加权求和,得到所述目标样本图像对应的伪标签。
6.根据权利要求1-4任一所述的方法,其特征在于,所述根据所述第一损失值、所述第二损失值和所述第三损失值,调整所述目标域模型的参数,包括:
根据预设损失权重,将所述第一损失值、所述第二损失值和所述第三损失值进行加权求和,得到目标损失值;
根据所述目标损失值调整所述目标域模型的参数,以减小所述目标域模型预测的息肉区域与所述息肉正样本集中正样本之间的特征距离,增加所述目标域模型预测的息肉区域与所述息肉负样本集中负样本之间的特征距离,且减小所述目标域模型预测的非息肉区域与非息肉正样本集中正样本之间的特征距离,增加所述目标域模型预测的非息肉区域与非息肉负样本集中负样本之间的特征距离。
7.一种息肉分割方法,其特征在于,所述方法包括:
获取待处理的内窥镜图像;
将所述内窥镜图像输入息肉分割模型,得到所述内窥镜图像对应的息肉分割结果,其中,所述息肉分割模型是通过权利要求1-6任一所述的方法训练得到的。
8.一种息肉分割模型的训练装置,其特征在于,所述装置包括:
第一训练模块,用于将目标样本图像输入目标域模型,得到预测息肉分割结果,所述目标域模型是基于源域模型的参数进行初始化得到的息肉分割模型,所述源域模型是通过标注有息肉分割标签的图像进行监督训练得到的;
第二训练模块,用于针对所述预测息肉分割结果对应的预测息肉区域,从息肉正样本集中确定第一正样本,从息肉负样本集中确定第一负样本,并针对所述预测息肉分割结果对应的预测非息肉区域,从非息肉正样本集中确定第二正样本,从非息肉负样本集中确定第二负样本,所述息肉正样本集和所述非息肉负样本集由样本图像集中的样本图像对应的预测息肉区域组成,所述息肉负样本集和所述非息肉正样本集由所述样本图像集中的样本图像对应的预测非息肉区域组成,所述样本图像集包括所述目标样本图像;
第三训练模块,用于根据所述第一正样本、所述第一负样本和所述预测息肉区域的特征,确定第一损失值,并根据所述第二正样本、所述第二负样本和所述预测非息肉区域的特征,确定第二损失值;
第四训练模块,用于根据所述预测息肉分割结果和上次训练过程中所述目标域模型针对所述目标样本图像输出的历史息肉分割结果,确定所述目标样本图像对应的伪标签,并根据所述伪标签和所述预测息肉分割结果,确定第三损失值;
第五训练模块,用于根据所述第一损失值、所述第二损失值和所述第三损失值,调整所述目标域模型的参数。
9.一种息肉分割装置,其特征在于,所述装置包括:
获取模块,用于获取待处理的内窥镜图像;
分割模块,用于将所述内窥镜图像输入息肉分割模型,得到所述内窥镜图像对应的息肉分割结果,其中,所述息肉分割模型是通过权利要求1-6任一所述的方法训练得到的。
10.一种非临时性计算机可读介质,其上存储有计算机程序,其特征在于,该程序被处理装置执行时实现权利要求1-7中任一项所述方法的步骤。
11.一种电子设备,其特征在于,包括:
存储装置,其上存储有计算机程序;
处理装置,用于执行所述存储装置中的所述计算机程序,以实现权利要求1-7中任一项所述方法的步骤。
CN202310184641.6A 2023-02-28 2023-02-28 息肉分割模型的训练方法、息肉分割方法及相关装置 Active CN116168053B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310184641.6A CN116168053B (zh) 2023-02-28 2023-02-28 息肉分割模型的训练方法、息肉分割方法及相关装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310184641.6A CN116168053B (zh) 2023-02-28 2023-02-28 息肉分割模型的训练方法、息肉分割方法及相关装置

Publications (2)

Publication Number Publication Date
CN116168053A CN116168053A (zh) 2023-05-26
CN116168053B true CN116168053B (zh) 2024-02-02

Family

ID=86413045

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310184641.6A Active CN116168053B (zh) 2023-02-28 2023-02-28 息肉分割模型的训练方法、息肉分割方法及相关装置

Country Status (1)

Country Link
CN (1) CN116168053B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117057443B (zh) * 2023-10-09 2024-02-02 杭州海康威视数字技术股份有限公司 视觉语言模型的提示学习方法及电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113112509A (zh) * 2021-04-12 2021-07-13 深圳思谋信息科技有限公司 图像分割模型训练方法、装置、计算机设备和存储介质
CN114863124A (zh) * 2022-05-25 2022-08-05 小荷医疗器械(海南)有限公司 模型训练方法、息肉检测方法、相应装置、介质及设备
CN115115829A (zh) * 2022-05-06 2022-09-27 腾讯医疗健康(深圳)有限公司 医疗图像的分割方法、装置、设备、存储介质及程序产品
CN115375656A (zh) * 2022-08-23 2022-11-22 抖音视界有限公司 息肉分割模型的训练方法、分割方法、装置、介质及设备
CN115375657A (zh) * 2022-08-23 2022-11-22 抖音视界有限公司 息肉检测模型的训练方法、检测方法、装置、介质及设备
CN115690428A (zh) * 2022-11-16 2023-02-03 北京航空航天大学 一种用于语义分割的无源数据无监督领域自适应方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220114805A1 (en) * 2021-12-22 2022-04-14 Julio Fernando Jarquin Arroyo Autonomous vehicle perception multimodal sensor data management

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113112509A (zh) * 2021-04-12 2021-07-13 深圳思谋信息科技有限公司 图像分割模型训练方法、装置、计算机设备和存储介质
CN115115829A (zh) * 2022-05-06 2022-09-27 腾讯医疗健康(深圳)有限公司 医疗图像的分割方法、装置、设备、存储介质及程序产品
CN114863124A (zh) * 2022-05-25 2022-08-05 小荷医疗器械(海南)有限公司 模型训练方法、息肉检测方法、相应装置、介质及设备
CN115375656A (zh) * 2022-08-23 2022-11-22 抖音视界有限公司 息肉分割模型的训练方法、分割方法、装置、介质及设备
CN115375657A (zh) * 2022-08-23 2022-11-22 抖音视界有限公司 息肉检测模型的训练方法、检测方法、装置、介质及设备
CN115690428A (zh) * 2022-11-16 2023-02-03 北京航空航天大学 一种用于语义分割的无源数据无监督领域自适应方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
GraphSKT: Graph-Guided Structured Knowledge Transfer for Domain Adaptive Lesion Detection;Chaoqi Chen,et al;《IEEE Transactions on Medical Imaging》;第42卷(第2期);507-518页 *
Hau-San Wong,et al.model adaptation:unsupervised domain adaptation without source data.《2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)》.2020,9638-9647页. *
Li X,Chen W,Xie D,et al.A free lunch for unsupervised domain adaptive object detection without source data.《Proceedings of the AAAI Conference on Artificial Intelligence》.2020,1-8页. *
无监督领域自适应目标检测方法研究;张丹;《中国博士学位论文全文数据库 信息科技辑》;第2023年卷(第01期);I138-89 *

Also Published As

Publication number Publication date
CN116168053A (zh) 2023-05-26

Similar Documents

Publication Publication Date Title
EP3637310A1 (en) Method and apparatus for generating vehicle damage information
CN113095129B (zh) 姿态估计模型训练方法、姿态估计方法、装置和电子设备
WO2019240900A1 (en) Attention loss based deep neural network training
CN116168053B (zh) 息肉分割模型的训练方法、息肉分割方法及相关装置
CN113379813A (zh) 深度估计模型的训练方法、装置、电子设备及存储介质
CN112200173B (zh) 多网络模型训练方法、图像标注方法和人脸图像识别方法
US20190197425A1 (en) Deep convolutional factor analyzer
EP4343616A1 (en) Image classification method, model training method, device, storage medium, and computer program
EP4290406A1 (en) Saliency map generation method, and abnormal object detection method and device
WO2022012178A1 (zh) 用于生成目标函数的方法、装置、电子设备和计算机可读介质
CN115439449B (zh) 全视野组织学图像的处理方法、装置、介质和电子设备
US20240029420A1 (en) System, devices and/or processes for application of kernel coefficients
CN112465737A (zh) 图像处理模型训练方法、图像处理方法及图像处理装置
CN115830001B (zh) 肠道图像处理方法、装置、存储介质及电子设备
CN115375657A (zh) 息肉检测模型的训练方法、检测方法、装置、介质及设备
CN114863124A (zh) 模型训练方法、息肉检测方法、相应装置、介质及设备
CN115375656A (zh) 息肉分割模型的训练方法、分割方法、装置、介质及设备
CN113470026B (zh) 息肉识别方法、装置、介质及设备
CN115375655A (zh) 息肉检测模型的训练方法、检测方法、装置、介质及设备
CN116704593A (zh) 预测模型训练方法、装置、电子设备和计算机可读介质
CN112651467B (zh) 卷积神经网络的训练方法和系统以及预测方法和系统
CN111582456B (zh) 用于生成网络模型信息的方法、装置、设备和介质
CN116228715B (zh) 息肉检测模型的训练方法、息肉检测方法及相关装置
CN113642510A (zh) 目标检测方法、装置、设备和计算机可读介质
CN114782390B (zh) 检测模型的确定方法、息肉检测方法、装置、介质及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant