CN112837318B - 超声图像生成模型的生成方法、合成方法、介质及终端 - Google Patents
超声图像生成模型的生成方法、合成方法、介质及终端 Download PDFInfo
- Publication number
- CN112837318B CN112837318B CN202110334162.9A CN202110334162A CN112837318B CN 112837318 B CN112837318 B CN 112837318B CN 202110334162 A CN202110334162 A CN 202110334162A CN 112837318 B CN112837318 B CN 112837318B
- Authority
- CN
- China
- Prior art keywords
- ultrasonic image
- generator
- target
- generated
- ultrasound image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2132—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4007—Interpolation-based scaling, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本申请公开了一种超声图像生成模型的生成方法、合成方法、介质及终端,所述生成方法包括将结构标注图输入生成对抗网络模型中的生成器,通过生成器确定结构标注图对应的生成超声图像;将生成超声图像及目标超声图像分别输入生成对抗网络模型中判别器,通过判别器确定生成概率以及目标概率;基于生成超声图像、目标超声图像、生成概率及目标概率,对生成器及判别器进行训练,并将训练得到的生成器作为超声图像生成模型。本实施通过超声图像对应的结构标注图训练超声图像生成模型,并且结构标注图中包含有超声图像的边缘信息,从而可以提高训练得到的超声图像生成模型的精确度,进而可以提高通过超声图像生成模型生成的超声图像的精确度。
Description
技术领域
本申请涉及超声技术领域,特别涉及一种超声图像生成模型的生成方法、合成方法、介质及终端。
背景技术
目前普遍使用的超声模拟仿真合成方法为基于纯物理模型的超声合成仿真,基于纯物理模型的超声合成仿真通过预先搭建物理模型,设置好参数;列出超声物理过程的公式并简化;计算合成图像中每一个像素的具体灰度值。这种方法虽然可以控制物理模型具体的属性参数如密度、声阻抗等用于合成,但是需要重新构建不同形状的物理模型,需要花费时间成本。
发明内容
本申请要解决的技术问题在于,针对现有技术的不足,提供一种超声图像生成模型的生成方法、合成方法、介质及终端。
为了解决上述技术问题,本申请实施例第一方面提供了一种超声图像生成模型的生成方法,其特征在于,所述的生成方法包括:
将第一训练样本集中的结构标注图输入生成对抗网络模型中的生成器,通过所述生成器确定所述结构标注图对应的生成超声图像,其中,所述结构标注图为基于所述结构标注图对应的目标超声图像中的目标对象以及边缘信息确定的;
将所述生成超声图像以及所述结构标注图对应的目标超声图像分别输入生成对抗网络模型中判别器,通过所述判别器确定生成超声图像对应的生成概率以及所述目标超声图像对应的目标概率;
基于所述生成超声图像、所述目标超声图像、所述生成概率以及所述目标概率,对所述生成器以及所述判别器进行训练,并将训练得到的生成器作为超声图像生成模型。
所述的超声图像生成模型的生成方法,其中,所述将第一训练样本集中的结构标注图输入生成器,通过所述生成器确定所述结构标注图对应的生成超声图像之前,所述方法包括:
获取若干目标超声图像,其中,所述若干超声图像中至少存在第一超声图像和第二超声图像,第一超声图像对应的人体部位与第二超声图像对应的人体部位不同;
对于若干目标超声图像中的每个目标超声图像,获取该目标超声图像对应的目标对象对应的标注信息,以及该目标超声图像的边缘信息,并基于获取到的标注信息以及边缘信息,确定该目标超声图像对应的结构标注图;
将各目标超声图像以及各目标超声图像各自对应的结构标注图作为一训练样本,以得到第一训练样本集。
所述的超声图像生成模型的生成方法,其中,所述基于所述生成超声图像、所述目标超声图像、所述生成概率以及所述目标概率,对所述生成器以及所述判别器进行训练,并将训练得到的生成器作为超声图像生成模型具体包括:
基于所述生成超声图像、所述目标超声图像、所述生成概率以及所述目标概率,对所述生成器以及所述判别器进行训练;
当所述生成对抗网络模型满足第一预设条件时,扩展所述生成器的模型结构以及判别器的模型结构,以得到扩展后的生成对抗网络模型;
基于第二训练样本集对扩展后的生成对抗网络模型进行训练,直至扩展后的生成对抗网络模型满足第二预设条件;
将扩展后的生成对抗网络模型中的生成器作为超声图像生成模型。
所述的超声图像生成模型的生成方法,其中,所述扩展后的生成器的网络层数量大于扩展前的生成器的网络层数量,所述判别器的网络层数量大于扩展前的生成器的网络层数量。
所述的超声图像生成模型的生成方法,其中,所述生成器包括依次级联第一下采样模块、残差模块以及上采样模块,扩展所述生成器的模型结构具体为:
在所述第一下采样模块前级联预设的下采样渐进模块,在所述上采样模块后级联预设的上采样渐进模块,其中,扩展后的生成器的输出项的分辨率高于扩展前的生成器的输出项的分辨率。
所述的超声图像生成模型的生成方法,其中,所述判别器包括第二下采样模块,所述扩展所述判别器的模型结构具体为:
在所述第二下采样模块前级联预设的下采样渐进模块。
所述的超声图像生成模型的生成方法,其中,所述下采样渐进模块和所述上采样渐进模块均包括并行的第一卷积单元、第二卷积单元以及融合单元,所述第一卷积单元和第二卷积单元均与融合单元相连接,所述融合单元用于将所述第一卷积单元的输出项与第二卷积单元的输出项进行加权,其中,所述第一卷积单元的网络层数量小于第二网络单元的网络层数量。
所述的超声图像生成模型的生成方法,其中,所述第一卷积单元对应的加权系数与第二卷积单元的加权系数的和为1,并且当所述生成对抗网络模型的训练次数增大时,所述第一卷积单元对应的加权系数减小。
本申请实施例第二方面提供了一种超声图像的合成方法,应用如上任一所述的超声图像生成模型的生成方法,所述的合成方法包括:
获取结构标注图,并将所述结构标注图输入所述超声图像生成模型,其中,所述结构标注图包括目标对象的结构标注;
通过所述超声图像生成模型输出所述结构标注图对应的超声图像。
本申请实施例第三方面提供了一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如上任一所述的超声图像生成模型的生成方法中的步骤,或者以实现上所述的超声图像的合成方法中的步骤。
本申请实施例第四方面提供了一种终端设备,其特征在于,包括:处理器、存储器及通信总线;所述存储器上存储有可被所述处理器执行的计算机可读程序;
所述通信总线实现处理器和存储器之间的连接通信;
所述处理器执行所述计算机可读程序时实现如上任一所述的超声图像生成模型的生成方法中的步骤,或者实现上所述的超声图像的合成方法中的步骤。
有益效果:与现有技术相比,本申请提供了一种超声图像生成模型的生成方法、合成方法、介质及终端,所述生成方法包括将第一训练样本集中的结构标注图输入生成对抗网络模型中的生成器,通过所述生成器确定所述结构标注图对应的生成超声图像;将所述生成超声图像以及所述结构标注图对应的目标超声图像分别输入生成对抗网络模型中判别器,通过所述判别器确定生成超声图像对应的生成概率以及所述目标超声图像对应的目标概率;基于所述生成超声图像、所述目标超声图像、所述生成概率以及所述目标概率,对所述生成器以及所述判别器进行训练,并将训练得到的生成器作为超声图像生成模型。本实施通过超声图像对应的结构标注图训练超声图像生成模型,并且结构标注图中包含有超声图像的边缘信息,从而可以提高训练得到的超声图像生成模型的精确度,这样可以通过超声图像生成模型快速合成的高质量的超声图像,降低了合成超声图像的时间成本。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员而言,在不符创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请提供的超声图像生成模型的生成方法的流程图。
图2为本申请提供的超声图像生成模型的生成方法中确定卵巢超声图像的结构标注图过程的示意图。
图3为本申请提供的超声图像生成模型的生成方法中确定新生儿髋关节超声图像的结构标注图过程的示意图。
图4为本申请提供的超声图像生成模型的生成方法中确定肺部超声图像的结构标注图过程的示意图。
图5为本申请提供的超声图像生成模型的生成方法中的生成对抗网络模型的结构原理图。
图6为本申请提供的超声图像生成模型的生成方法中的扩展后的生成对抗网络模型的结构原理图。
图7为本申请提供的超声图像生成模型的生成方法中的下采样渐进模块的结构原理图。
图8为本申请提供的超声图像生成模型的生成方法中的上采样渐进模块的结构原理图。
图9为本申请提供的超声图像的合成方法的流程图。
图10为采用本申请提供的超声图像的合成方法合成卵巢超声图像的示例图。
图11为采用本申请提供的超声图像的合成方法合成新生儿髋关节超声图像的示例图。
图12为采用本申请提供的超声图像的合成方法合成肺部超声图像的示例图。
图13为本申请提供的终端设备的结构原理图。
具体实施方式
本申请提供一种超声图像生成模型的生成方法、合成方法、介质及终端,为使本申请的目的、技术方案及效果更加清楚、明确,以下参照附图并举实施例对本申请进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本申请的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语),具有与本申请所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样被特定定义,否则不会用理想化或过于正式的含义来解释。
发明人经过研究发现,超声成像因其具有的实时、无辐射、成本较低等的特点,而成为在临床上用于解剖结构的检查的首要选择。超声医师会控制超声机采集超声图像,并对超声图像做出正确解读。这使得通过超声进行解剖结构检查需要依赖于超声医师的经验。但是,由于缺乏临床资源和使用超声机器进行练习的机会,新手超声医师往往需要很长时间才能获得所需的技能。另外,由于缺乏一些罕见疾病的病例作为培训资料,超声医师的培训更是有难度。因此,利用超声合成仿真的方法模拟各种临床上可能出现的病例,增加临床病例的多样性成为人们关注的焦点。
目前普遍使用的超声模拟仿真合成方法为基于纯物理模型的超声合成仿真,基于纯物理模型的超声合成仿真通过预先搭建物理模型,设置好参数;列出超声物理过程的公式并简化;计算合成图像中每一个像素的具体灰度值。这种方法虽然可以控制物理模型具体的属性参数如密度、声阻抗等用于合成,但是需要重新构建不同形状的物理模型,需要花费时间成本。
为了解决上述问题,在本申请实施例中,将第一训练样本集中的结构标注图输入生成对抗网络模型中的生成器,通过所述生成器确定所述结构标注图对应的生成超声图像;将所述生成超声图像以及所述结构标注图对应的目标超声图像分别输入生成对抗网络模型中判别器,通过所述判别器确定生成超声图像对应的生成概率以及所述目标超声图像对应的目标概率;基于所述生成超声图像、所述目标超声图像、所述生成概率以及所述目标概率,对所述生成器以及所述判别器进行训练,并将训练得到的生成器作为超声图像生成模型。本实施通过超声图像对应的结构标注图训练超声图像生成模型,并且结构标注图中包含有超声图像的边缘信息,从而可以提高训练得到的超声图像生成模型的精确度,这样可以通过超声图像生成模型快速合成的高质量的超声图像,降低了合成超声图像的时间成本。
下面结合附图,通过对实施例的描述,对申请内容作进一步说明。
本实施例提供了一种超声图像生成模型的生成方法,如图1所示,所述方法包括:
S10、将第一训练样本集中的结构标注图输入生成对抗网络模型中的生成器,通过所述生成器确定所述结构标注图对应的生成超声图像。
具体地,第一训练样本集包括若干训练样本,若干训练样本中的每个训练样本均包括结构标注图和目标超声图像,所述结构标注图为基于该目标超声图像中的目标对象以及边缘信息确定的。可以理解的是,所述结构标注图可以为所述超声图像中的目标对象的结构信息以及超声图像的边缘信息,其中,结构信息可以通过对超声图像的目标对象进行标准所得到的,边缘信息可以通过对超声图像进行边缘识别得到。
所述生成对抗网络模型为预先设置的,所述生成对抗网络模型包括生成器和判别器,所述生成器用于生成结构标注图对应的生成超声图像,所述判别器用于判别生成超声图像的真假性。其中,所述生成器的输入项为结构标注图,所述生成器的输出项为生成超声图像,判别器的输入项为生成超声图像,输出项为生成超声图像对应的真实率。基于此,在基于第一训练样本集对生成对抗网络模型进行训练时,可以先将第一训练样本集中的结构标注图输入生成对抗网络模型中的生成器,通过生成器输出结构标注图对应的生成超声图像。
在本实施例的一个实现方式中,所述将第一训练样本集中的结构标注图输入生成器,通过所述生成器确定所述结构标注图对应的生成超声图像之前,所述方法包括:
获取若干目标超声图像;
对于若干目标超声图像中的每个目标超声图像,获取该目标超声图像对应的目标对象对应的标注信息,以及该目标超声图像的边缘信息,并基于获取到的标注信息以及边缘信息,确定该目标超声图像对应的结构标注图;
将各目标超声图像以及各目标超声图像各自对应的结构标注图作为一训练样本,以得到第一训练样本集。
具体地,所述若干超声图像中至少存在第一超声图像和第二超声图像,第一超声图像对应的人体部位与第二超声图像对应的人体部位不同。例如,所述若干超声图像包括卵巢超声图像和新生儿髋关节超声图像,其中,卵巢超声图像对应的人体部位为卵巢,新生儿髋关节超声图像对应的人体部位为髋关节。在本实施例的一个实现方式中,若干目标超声图像按照超声图像对应的人体部位划分为三个超声图像集,三个超声图像集中的每个超声图像集中的各目标超声图像对应的人体部位均相同。例如,三个超声图像集分别记为第一超声图像集、第二超声图像集以及第三超声图像集,第一超声图像集对应的人脸部位为卵巢,第二超声图像集对应的人体部位为新生儿髋关节,第三超声图像集对应的人体部位为肺部,第一超声图像集包括的超声图像数量、第二超声图像集包括的超声图像数量以及第三超声图像集包括的超声图像数量可以相同,这样可以提高第一训练样本集中超声图像的均匀性。
在本实施例的一个实现方式中,在获取到若干目标超声图像后,可以通过专业医生对各目标超声图像进行结构标注,以得到携带有标注信息的候选结构标注图,并将所述候选结构标注图作为该目标超声图像对应的结构标注图,其中,候选标注结构中的标注信息为该候选结构标注图对应的目标超声图像中的目标对象标注,例如,如图2所示,目标超声图像为卵巢超声图,那么该目标超声图像对应的候选结构标注图中被标注的目标对象包括卵巢和卵泡;如图3所示,目标超声图像为新生儿髋关节超声图,那么该目标超声图像对应的候选结构标注图中被标注的目标对象包括平直髂骨、髂骨下缘、盂唇以及骨软骨交界处;如图4所示,目标超声图像为肺部超声图像,那么该目标超声图像对应的候选结构标注图中被标注的目标对象包括A线、B线、胸膜线以及实变区域。
在本实施例的一个实现方式中,在获取到候选结构标注图后,可以对目标超声图像进行边缘识别,以得到目标超声图像对应的边缘掩膜图,再将边缘掩膜图与候选结构标注图进行合并,将边缘掩膜图中的边缘信息添加到候选结构标注图中,以得到目标超声图像对应的结构标注图。所述结构标注图为灰度图像,并且结构标注图中的各目标对象各自对应的标注线以及目标超声图像的边缘标注线的灰度值互不相同,例如,例如图2所示的卵巢超声图对应的结构标注图,如图3所示的新生儿髋关节超声图对应的结构标注图,如图4所示的肺部超声图像对应的结构标注图。
本实现方式通过将目标超声图像的边缘信息添加到结构标注图中,可以通过边缘信息提供目标超声图像中除目标对象所处区域外的背景区域的背景信息,从而可以提高生成对抗网络模型学习到的图像信息,进而可以提高生成对抗网络模型的训练效果,因而提高超声图像生成模型的训练效果。此外,通过在结构标注图中超声图像的边缘信息,可以有助于控制超声图像纹理自定义合成,可以编辑合成对应的超声纹理细节。
在本实施例的一个实现方式中,目标超声图像的边缘信息可以通过Canny边缘检测算子,并且在通过Canny边缘检测算子进行边缘信息提取时,对目标超声图像中除目标对象外的背景区域进行Canny边缘检测算子识别,以得到目标超声图像的边缘信息。本实现方式通过采用Canny边缘检测算子进行边缘识别,图像噪声对边缘识别的影响,并且可以识别到目标超声图像的背景区域中的弱边缘。当然,在实际应用中还可以采用边缘检测检测算子,只要可以提取目标超声图像中的背景区域的边缘信息的算子均可以,这里就不一一赘述。
在本实施例的一个实现方式中,由于获取到的各目标超声图像的分辨率可以互不相同,从而在获取到目标超声图像对应的结构标注图之后,还可以对各目标超声图像进行处理,使得处理后的各目标超声图像的分辨率相同,例如,将各目标超声图像以及各目标超声图像各自对应的结构标注图缩放或者截取到预设分辨率等。此外,在调整完各目标超声图像以及各目标超声图像各自对应的结构标注图之后,还可以将各目标超声图像各自对应的结构标注图中的各像素点的灰度值归一化到0到1之间,并将归一得到的结构标注图作为目标超声图像对应的结构标注图,这样可以便于对生成对抗网络模型的训练。
S20、将所述生成超声图像以及所述结构标注图对应的目标超声图像分别输入生成对抗网络模型中判别器,通过所述判别器确定生成超声图像对应的生成概率以及所述目标超声图像对应的目标概率。
具体地,所述判别器用于判别输入图像的真实性,若输入的超声图像是目标超声图像,判别器的输出概率图的值接近1;若输入的超声图像是合成超声图像,判别器的输出概率图接近0。由此,生成超声图像输入判别器,判别器输出生成超声图像对应的生成概率图,以得到生成超声图像对应的生成概率,目标超声图像输入判别器,判别器输出目标超声图像对应的目标概率图,以得到目标超声图像对应的目标概率。此外,为了便于判别器对生成超声图像以及目标超声图像进行判别,在将生成超声图像或者目标超声图像输入判别器时,将结构标注图与生成超声图像输入判别器,或者将结构标注图与目标超声图输入判别器。例如,通过加法器将结构标注图与生成超声图像融合,将融合后的生成超声图像输入判别器,或者是,通过加法器将结构标注图与目标超声图融合,将融合后的目标超声图输入判别器。
S30、基于所述生成超声图像、所述目标超声图像、所述生成概率以及所述目标概率,对所述生成器以及所述判别器进行训练,并将训练得到的生成器作为超声图像生成模型。
具体地,在对生成器和判别器进行训练时,由于生成器的训练需要依靠判别器的输出指导,由此,在一次的训练中,可以先训练判别器,计算判别器的损失函数,再进行判别器梯度的反向学习以更新判别器网络的参数;再训练生成器,计算生成器的损失函数,再进行生成器梯度的反传学习以更新生成器网络的参数。当然,在实际应用中,所述判别器与所述生成器可以交替训练,在一次训练中仅训练判别器或者生成器。
在本实施例的一个实现方式中,判别器的损失函数可以为目标超声图像的对抗损失函数与合成超声图像的对抗损失函数的平均。对于生成器来说,生成器的目的是让判别器判断不出输入的超声图像的真假,从而达到以假乱真的效果,生成器的训练需要通过判别器的网络来辅助,输入判别器的超声图像的合成超声图像,判别器输出的输出概率图的值与全为1的概率图的交叉熵,以确定生成器的对抗损失项。另外,由于有目标超声图像作为金标准,为了得到生成超声图像更接近目标超声图像,生成器的损失函数还引入了为减少目标超声图像与生成超声图像的L1距离的损失函数。然而,由于L1距离计算的是目标超声图像与生成超声图像对应像素的差值,并没有考虑到像素块之间的联系,会造成生成超声图像出现模糊现象。从而,在一个实现方式中,可以引入经过训练的特征提取网络结构,用于提取生成超声图像的高维度特征以及目标超声图像的高维度特征,再计算生成超声图像的高维度特征与目标超声图像的高维度特征之间的距离,并将该距离作为生成器的损失函数的损失项。例如,特征提取网络结构可以为ResNet-50,数据为一批150万的产前超声图像,任务为标准切面的分类。ResNet-50训练完成之后,将所有参数固定,在训练生成对抗网络时不再训练,只取其中卷积层后的输出特征图,计算均值和协方差。再分别计算输入的目标超声图像和生成超声图像之间的输出特征图均值和协方差的L1距离作为特征损失。基于此,生成器的损失函数包括三部分:对抗损失项,目标超声图像与生成超声图像的L1损失项和目标超声图像与生成超声图像的高维特征损失项。
在本实施例的一个实现放中,判别器的损失函数的计算公式可以为:
生成器的对抗损失项:
生成器的图像像素间的L1损失项:
生成器的图像的高维特征损失项:
LF=||Mean(Net(x))-Mean(Net(G(x)))||1+||Var(Net(x))-Var(Net(G(x)))||1
生成器的损失函数:
其中,G代表生成器网络,D代表判别器网络,x代表结构标注图,y代表x对应的目标超声图像,G(x)代表生成器的生成超声图像,Net代表预训练的特征提取网络。
当然,除了上述描述的损失函数除了原始的对抗损失函数,其它的用于训练对抗生成网络的损失函数如最小二乘损失、Wasserstein损失等,这里就不一一说明。
在本实施例的一个实现方式中,所述基于所述生成超声图像、所述目标超声图像、所述生成概率以及所述目标概率,对所述生成器以及所述判别器进行训练,并将训练得到的生成器作为超声图像生成模型具体包括:
基于所述生成超声图像、所述目标超声图像、所述生成概率以及所述目标概率,对所述生成器以及所述判别器进行训练;
当所述生成对抗网络模型满足第一预设条件时,扩展所述生成器的模型结构以及判别器的模型结构,以得到扩展后的生成对抗网络模型;
基于第二训练样本集对扩展后的生成对抗网络模型进行训练,直至扩展后的生成对抗网络模型满足第二预设条件;
将扩展后的生成对抗网络模型中的生成器作为超声图像生成模型。
具体地,所述第一预设条件为预先设置的,用于控制生成对抗网络模型训练结束的判别依据,其中,第一预设条件可以包括训练次数阈值,生成器的损失函数阈值,以及判别器的损失函数阈值中的一种或者多种,当生成对抗网络模型的训练满足第一预设条件中的任一条件时,生成对抗网络模型满足第一预设条件。
在本实施例的一个实现方式中,所述生成器包括上采样模块、残差模块以及下采样模块,所述下采样模块与所述残差模块相连接,残差模块与上采样模块相连接,下采样模块的输入项为结构标注图,残差模块的输入项为下采样模块的输出项,上采样模块的输入项为残差模块的输出项,上采样模块的是输出项为生成超声图像。在一个具体实现方式中,如图5所示,所述下采样模块包括三个级联的下次采样单元,所述上采样模块包括三个级联的上采样单元,所述判别器包括五个级联的下采样单元,所述上采样模块的最后一个上采样单元的输出项和下采样模块中的最前一个下采样单元的输入项通过加法器融合,并将融合得到融合图像作为判别器中的五个下采样单元中位于最前的下采样单元的输入项。
在本实施例的一个实现方式中,如图6所示,所述扩展所述生成器的模型结构,以及扩展所述判别器的模型结构具体包括:
在所述第一下采样模块前级联预设的下采样渐进模块,在所述上采样模块后级联预设的上采样渐进模块;
在所述第二下采样模块前级联预设的下采样渐进模块。
具体地,所述扩展后的生成器包括的网络层数量大于扩展前的生成器包括的网络层数量,并且扩展后的生成器的输出项的分辨率高于扩展前的生成器的输出项的分辨率,例如,扩展前的生成器的输出项的分辨率为256*256,扩展后的生成器的输出项的分辨率为512*512。这样通过扩展预设生成网络模型中的生成器,可以提高生成器输出图像的分辨率,从而可以提高训练得到的超声图像生成模型的输出项的分辨率。同时,本实施采用先对输出低分辨率的生成对抗网络模型进行训练,再对训练后的生成对抗网络模型进行扩展,并对扩展后的生成对抗网络模型进行训练,可以避免较高分辨率的输出图像对应的训练数据的限制,同时通过先采用低分辨率图像对判别器进行预训练,可以避免因判别器容易捕捉高分辨率图像中的图像缺陷而造成的训练困难,从而可以降低超声图像生成模型训练的困难程度。
在本实施例的一个实现方式中,所述下采样渐进模块和所述上采样渐进模块均包括并行的第一卷积单元、第二卷积单元以及融合单元,所述第一卷积单元和第二卷积单元均与融合单元相连接,所述融合单元用于将所述第一卷积单元的输出项与第二卷积单元的输出项进行加权,其中,所述第一卷积单元的网络层数量小于第二网络单元的网络层数量。例如,如图7所示,在所述采样渐进模块中,所述第一卷积单元包括依次级联下采样层和第一卷积层,所述第二卷几单元包括依次级联的第二卷积层、两个第三卷积层以及下采样层,所述融合单元包括加法器。如图8所示,在上采样渐进模块中,所述第一卷积单元包括依次级联上采样层以及第一卷积层,所述第二卷几单元包括依次级联的上采样层、两个第三卷积层以及第二卷积层,所述融合单元包括加法器。此外,下采样层可以使用平均池化将分辨率减半;上采样层可以使用双线性插值将分辨率加倍。此外,在实际应用中,可以根据实际应用确定对生成对抗网络模型的扩展次数,本实施例是以扩展一次为例进行说明,当然也可以在扩展完成得到扩展后的生成对抗网络模型后,再对扩展后的生成对抗网络模型进行扩展,其扩展过程与本申请中所述的扩展过程相同,这里就不在赘述。
在本实施例的一个实现方式中,在对生成对抗网络模型中的生成器和判别器扩展后,对扩展后的生成对抗网络模型进行训练,其中,扩展后的生成对抗网络模型训练所采用的训练样本集也可以为预先训练的,并且扩展后的生成对抗网络模型对应的训练样本集中的结构标注图的分辨率与扩展后的生成对抗网络模型输出项的生成超声图像的分辨率相同。由此,扩展后的生成对抗网络模型对应的第二训练样本集中的结构标注图像的分辨率大于扩展前的生成对抗网络模型对应的第一训练样本集中的结构标注图像的分辨率。其中,第二训练样本集的获取过程与第一训练样本集的获取过程相同,具体可以参照第一训练样本集的获取过程,这里就不再赘述。
在本实施例的一个实现方式中,所述第一卷积单元对应的加权系数与第二卷积单元的加权系数的和为1,并且当所述生成对抗网络模型的训练次数增大时,所述第一卷积单元对应的加权系数减小。例如,第二卷积单元的加权系数为a,第一卷积单元的加权系数为1-a,其中,a的取值范围为0-1,当所述生成对抗网络模型的训练次数增大时,第二卷积单元的加权系数a的值增大,第一卷积单元的加权系数为1-a的值减小。本实现方式通过逐步调整第二卷积单元所对应的加权系数,可以避免在训练过程中扩展下采样渐进模块以及上采样渐进模块是形成突然冲击,使得扩展的下采样渐进模块以及上采样渐进模块生成器和判别器可以平稳过渡。
在本实施例的一个实现方式中,由于高分辨率图像相比于低分辨率图像多了图像细节信息,因此采用通过扩展的生成对抗网络可以学习到更多的图像细节信息,换句话说,在低分辨率图像的生成对抗网络模型结构基础上新增层结构以提取更多的特征,并共享低分辨率图像的生成对抗网络模型结构参数,这样可以减少高分辨率图像的生成对抗网络模型的训练难度以及所需训练时长。
在本实施例的一个实现方式中,所述基于第二训练样本集对扩展后的生成对抗网络模型进行训练,直至扩展后的生成对抗网络模型满足第二预设条件具体包括:
保持扩展后的生成对抗网络模型中的生成器中的加权系数不变,对判别器中的加权系数进行调整;
当判别器中的加权系数满足第一条件时,保持扩展后的生成对抗网络模型中的判别器中的加权系数不变,对生成器中的加权系数进行调整;
当生成器中的加权系数满足第二条件时,对所述扩展后的生成对抗网络模型的模型参数进行训练,直至扩展后的生成对抗网络模型满足第二预设条件。
具体地,在对判别器中的加权系数进行调整以及对生成器中的加权系数进行调整的过程中,随着训练次数增加增大第二卷积单元的加权参数a,减小对第一卷积单元的依赖性。例如,在对判别器中的加权系数进行调整以及对生成器中的加权系数进行调整的过程中,当生成器的结构扩展时,生成器中的第二卷积单元的加权系数a随训练历程的增加而从0开始以固定步长线性增加(例如,第二卷积单元的加权系数a是以固定步长增加的,每训练一个批次的数据,增加固定步长(例如,0.02,0.03等),而判别器中的a保持不变;当判别器的结构增长时,判别器中的第二卷积单元的加权系数a随训练历程的增加而从0开始以固定步长线性增加(例如,第二卷积单元的加权系数a是以固定步长增加的,每训练一个批次的数据,增加固定步长(例如,0.02,0.03等),而生成器中的a保持不变。在本实施例的一个具体实现放纵,将生成器中的第二卷积单元的加权系数a增加到最大值0.5,判别器中的第二卷积单元的加权系数a增加到最大值1,相应的,第一条件为判别器中的第二卷积单元的加权系数a达到1,第二条件为生成器中的第二卷积单元的加权系数a达到0.5。
当然,在实际应用中,在对生成对抗网络模型进行扩展时,可以先扩展生成对抗网络模型中的判别器,在判别器扩展完成后,对扩展后的生成对抗网络模型进行训练,该训练过程中保持扩展后的生成对抗网络模型的模型参数不变,调整判别器中的加权系数,当判别器中的加权系数满足预设条件后,在扩展对抗生成网络模型中的生成器,在生成器扩展完成后,对扩展后的生成对抗网络模型进行训练,该训练过程中保持扩展后的生成对抗网络模型的模型参数以及判别器中的加权系数不变,调整生成器中的加权系数;最后,在生成器的加权系数和判别器的加权系数均调整完成后,再采用第二训练样本集对扩展后的生成网络模型进行训练,以得到超声图像生成模型。
综上所述,本实施例提供了一种超声图像生成模型的生成方法、合成方法、介质及终端,所述生成方法包括将结构标注图输入生成对抗网络模型中的生成器,通过生成器确定结构标注图对应的生成超声图像;将生成超声图像及目标超声图像分别输入生成对抗网络模型中判别器,通过判别器确定生成概率以及目标概率;基于生成超声图像、目标超声图像、生成概率及目标概率,对生成器及判别器进行训练,并将训练得到的生成器作为超声图像生成模型。本实施通过超声图像对应的结构标注图训练超声图像生成模型,并且结构标注图中包含有超声图像的边缘信息,从而可以提高训练得到的超声图像生成模型的精确度,进而可以提高通过超声图像生成模型生成的超声图像的精确度。
基于上述超声图像生成模型的生成方法,本实施例提供了一种超声图像的合成方法,应用如上所述的超声图像生成模型的生成方法,如9所示,所述的合成方法包括:
N10、获取结构标注图,并将所述结构标注图输入所述超声图像生成模型,其中,所述结构标注图包括目标对象的结构标注;
N20、通过所述超声图像生成模型输出所述结构标注图对应的超声图像。
具体地,所述结构标注图可以是对获取到的超声图像进行标注得到,也可以是在基于现有超声图像对应的结构标注图进行编辑得到的,例如,如图10-12所示,在获取到的结构标注图中,添加边缘信息以得到携带有边缘的结构标注图,并且通过所述超声图像生成模型可以输出携带有边缘信息的结构标注图对应的超声图像,也可以通过所述超声图像生成模型输出未携带有边缘信息的结构标注图对应的超声图像。这样在进行超声教学时,可以通过编辑结构标注图来获取多种结构标注图,在通过超声图像生成模型生成编辑得到的各结构标注图对应的超声图像,从而提高超声图像的多样性,给超声教学提供多样的超声图像示例。
基于上述超声图像生成模型的生成方法,本实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如上述实施例所述的超声图像生成模型的生成方法中的步骤。
基于上述超声图像生成模型的生成方法,本申请还提供了一种终端设备,如图13所示,其包括至少一个处理器(processor)20;显示屏21;以及存储器(memory)22,还可以包括通信接口(Communications Interface)23和总线24。其中,处理器20、显示屏21、存储器22和通信接口23可以通过总线24完成相互间的通信。显示屏21设置为显示初始设置模式中预设的用户引导界面。通信接口23可以传输信息。处理器20可以调用存储器22中的逻辑指令,以执行上述实施例中的方法。
此外,上述的存储器22中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。
存储器22作为一种计算机可读存储介质,可设置为存储软件程序、计算机可执行程序,如本公开实施例中的方法对应的程序指令或模块。处理器20通过运行存储在存储器22中的软件程序、指令或模块,从而执行功能应用以及数据处理,即实现上述实施例中的方法。
存储器22可包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端设备的使用所创建的数据等。此外,存储器22可以包括高速随机存取存储器,还可以包括非易失性存储器。例如,U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等多种可以存储程序代码的介质,也可以是暂态存储介质。
此外,上述存储介质以及终端设备中的多条指令处理器加载并执行的具体过程在上述方法中已经详细说明,在这里就不再一一陈述。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (10)
1.一种超声图像生成模型的生成方法,其特征在于,所述的生成方法包括:
将第一训练样本集中的结构标注图输入生成对抗网络模型中的生成器,通过所述生成器确定所述结构标注图对应的生成超声图像,其中,所述结构标注图为基于所述结构标注图对应的目标超声图像中的目标对象以及边缘信息确定的;
将所述生成超声图像以及所述结构标注图对应的目标超声图像分别输入生成对抗网络模型中判别器,通过所述判别器确定生成超声图像对应的生成概率以及所述目标超声图像对应的目标概率;
基于所述生成超声图像、所述目标超声图像、所述生成概率以及所述目标概率,对所述生成器以及所述判别器进行训练,并将训练得到的生成器作为超声图像生成模型;
其中,生成器的损失函数为:
LF=||Mean(Net(x))-Mean(Net(G(x)))||1+||Var(Net(x))-Var(Net(G(x)))||1
其中,G表示生成器网络,D代表判别器网络,LG表示生成器的损失函数,表示对抗损失项,/>表示图像像素间的L1损失项,LF表示高维特征损失项,x表示结构标注图,y表示x对应的目标超声图像,G(x)表示生成器的生成超声图像,Net表示预训练的特征提取网络,λ1和λ2均表示加权系数。
2.根据权利要求1所述的超声图像生成模型的生成方法,其特征在于,所述将第一训练样本集中的结构标注图输入生成器,通过所述生成器确定所述结构标注图对应的生成超声图像之前,所述方法包括:
获取若干目标超声图像,其中,若干超声图像中至少存在第一超声图像和第二超声图像,第一超声图像对应的人体部位与第二超声图像对应的人体部位不同;
对于若干目标超声图像中的每个目标超声图像,获取该目标超声图像对应的目标对象对应的标注信息,以及该目标超声图像的边缘信息,并基于获取到的标注信息以及边缘信息,确定该目标超声图像对应的结构标注图;
将各目标超声图像以及各目标超声图像各自对应的结构标注图作为一训练样本,以得到第一训练样本集。
3.根据权利要求1所述的超声图像生成模型的生成方法,其特征在于,所述基于所述生成超声图像、所述目标超声图像、所述生成概率以及所述目标概率,对所述生成器以及所述判别器进行训练,并将训练得到的生成器作为超声图像生成模型具体包括:
基于所述生成超声图像、所述目标超声图像、所述生成概率以及所述目标概率,对所述生成器以及所述判别器进行训练;
当所述生成对抗网络模型满足第一预设条件时,扩展所述生成器的模型结构以及判别器的模型结构,以得到扩展后的生成对抗网络模型;
基于第二训练样本集对扩展后的生成对抗网络模型进行训练,直至扩展后的生成对抗网络模型满足第二预设条件;
将扩展后的生成对抗网络模型中的生成器作为超声图像生成模型。
4.根据权利要求3所述的超声图像生成模型的生成方法,其特征在于,所述生成器包括依次级联第一下采样模块、残差模块以及上采样模块,扩展所述生成器的模型结构具体为:
在所述第一下采样模块前级联预设的下采样渐进模块,在所述上采样模块后级联预设的上采样渐进模块,其中,扩展后的生成器的输出项的分辨率高于扩展前的生成器的输出项的分辨率。
5.根据权利要求3所述超声图像生成模型的生成方法,其特征在于,所述判别器包括第二下采样模块,所述扩展所述判别器的模型结构具体为:
在所述第二下采样模块前级联预设的下采样渐进模块。
6.根据权利要求4所述的超声图像生成模型的生成方法,其特征在于,所述下采样渐进模块和所述上采样渐进模块均包括并行的第一卷积单元、第二卷积单元以及融合单元,所述第一卷积单元和第二卷积单元均与融合单元相连接,所述融合单元用于将所述第一卷积单元的输出项与第二卷积单元的输出项进行加权,其中,所述第一卷积单元的网络层数量小于第二网络单元的网络层数量。
7.根据权利要求6所述的超声图像生成模型的生成方法,其特征在于,所述第一卷积单元对应的加权系数与第二卷积单元的加权系数的和为1,并且当所述生成对抗网络模型的训练次数增大时,所述第一卷积单元对应的加权系数减小。
8.一种超声图像的合成方法,其特征在于,应用如权利要求1-7任一所述的超声图像生成模型的生成方法,所述的合成方法包括:
获取结构标注图,并将所述结构标注图输入所述超声图像生成模型,其中,所述结构标注图包括目标对象的结构标注;
通过所述超声图像生成模型输出所述结构标注图对应的超声图像。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如权利要求1-7任意一项所述的超声图像生成模型的生成方法中的步骤,或者以实现如权利要求8所述的超声图像的合成方法中的步骤。
10.一种终端设备,其特征在于,包括:处理器、存储器及通信总线;所述存储器上存储有可被所述处理器执行的计算机可读程序;
所述通信总线实现处理器和存储器之间的连接通信;所述处理器执行所述计算机可读程序时实现如权利要求1-7任意一项所述的超声图像生成模型的生成方法中的步骤,或者实现如权利要求8所述的超声图像的合成方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110334162.9A CN112837318B (zh) | 2021-03-29 | 2021-03-29 | 超声图像生成模型的生成方法、合成方法、介质及终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110334162.9A CN112837318B (zh) | 2021-03-29 | 2021-03-29 | 超声图像生成模型的生成方法、合成方法、介质及终端 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112837318A CN112837318A (zh) | 2021-05-25 |
CN112837318B true CN112837318B (zh) | 2023-07-18 |
Family
ID=75930692
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110334162.9A Active CN112837318B (zh) | 2021-03-29 | 2021-03-29 | 超声图像生成模型的生成方法、合成方法、介质及终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112837318B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115689924A (zh) * | 2022-10-28 | 2023-02-03 | 浙江大学 | 用于混凝土结构超声断层扫描图像的数据增强方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109785270A (zh) * | 2019-01-18 | 2019-05-21 | 四川长虹电器股份有限公司 | 一种基于gan的图像超分辨率方法 |
CN110084751A (zh) * | 2019-04-24 | 2019-08-02 | 复旦大学 | 图像重建系统及方法 |
CN110136063A (zh) * | 2019-05-13 | 2019-08-16 | 南京信息工程大学 | 一种基于条件生成对抗网络的单幅图像超分辨率重建方法 |
CN111507993A (zh) * | 2020-03-18 | 2020-08-07 | 南方电网科学研究院有限责任公司 | 一种基于生成对抗网络的图像分割方法、装置及存储介质 |
-
2021
- 2021-03-29 CN CN202110334162.9A patent/CN112837318B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109785270A (zh) * | 2019-01-18 | 2019-05-21 | 四川长虹电器股份有限公司 | 一种基于gan的图像超分辨率方法 |
CN110084751A (zh) * | 2019-04-24 | 2019-08-02 | 复旦大学 | 图像重建系统及方法 |
CN110136063A (zh) * | 2019-05-13 | 2019-08-16 | 南京信息工程大学 | 一种基于条件生成对抗网络的单幅图像超分辨率重建方法 |
CN111507993A (zh) * | 2020-03-18 | 2020-08-07 | 南方电网科学研究院有限责任公司 | 一种基于生成对抗网络的图像分割方法、装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112837318A (zh) | 2021-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chen et al. | Fsrnet: End-to-end learning face super-resolution with facial priors | |
JP5645079B2 (ja) | 画像処理装置および方法、プログラム、並びに記録媒体 | |
CN110599528A (zh) | 一种基于神经网络的无监督三维医学图像配准方法及系统 | |
CN110826389B (zh) | 基于注意力3d频率卷积神经网络的步态识别方法 | |
JP7246811B2 (ja) | 顔画像生成用のデータ処理方法、データ処理機器、コンピュータプログラム、及びコンピュータ機器 | |
CN112541864A (zh) | 一种基于多尺度生成式对抗网络模型的图像修复方法 | |
US11636695B2 (en) | Method for synthesizing image based on conditional generative adversarial network and related device | |
CN116309648A (zh) | 一种基于多注意力融合的医学图像分割模型构建方法 | |
US20230153965A1 (en) | Image processing method and related device | |
CN112837318B (zh) | 超声图像生成模型的生成方法、合成方法、介质及终端 | |
Ardino et al. | Semantic-guided inpainting network for complex urban scenes manipulation | |
US20220301106A1 (en) | Training method and apparatus for image processing model, and image processing method and apparatus | |
Leng et al. | Augmented two stream network for robust action recognition adaptive to various action videos | |
JP7010783B2 (ja) | 画像処理装置、画像処理システム、画像処理方法及びプログラム | |
Liang et al. | Weakly-supervised high-fidelity ultrasound video synthesis with feature decoupling | |
Huang et al. | Single image super-resolution reconstruction of enhanced loss function with multi-gpu training | |
CN114782592A (zh) | 基于图像的卡通动画生成方法、装置、设备及存储介质 | |
CN114694074A (zh) | 一种使用图像生成视频的方法、装置以及存储介质 | |
CN112529081A (zh) | 基于高效注意力校准的实时语义分割方法 | |
CN115938546B (zh) | 一种早期胃癌图像合成方法、系统、设备及存储介质 | |
CN113392840B (zh) | 基于多尺度分割融合的实时语义分割方法 | |
CN116363263B (zh) | 图像编辑方法、系统、电子设备、存储介质 | |
CN115294014B (zh) | 一种头颈动脉图像处理方法、装置、存储介质及终端 | |
Zhang et al. | Large motion anime head animation using a cascade pose transform network | |
CN115375671A (zh) | 一种基于空洞卷积的肝脏肿瘤分割方法、装置及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |