CN110363776A - 图像处理方法及电子设备 - Google Patents
图像处理方法及电子设备 Download PDFInfo
- Publication number
- CN110363776A CN110363776A CN201910579398.1A CN201910579398A CN110363776A CN 110363776 A CN110363776 A CN 110363776A CN 201910579398 A CN201910579398 A CN 201910579398A CN 110363776 A CN110363776 A CN 110363776A
- Authority
- CN
- China
- Prior art keywords
- layer
- feature
- target image
- category feature
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30056—Liver; Hepatic
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本发明实施例公开了一种图像处理方法及电子设备。该方法,包括:将图像序列中的目标图像和与目标图像关联的第一类关联图像和第二类关联图像,输入预定模型;该模型的编码器和解码器均包括N层;编码器的第n编码层,输出与目标图像和第一类关联图像中对应的第一数量的第n层第一类特征,与目标图像和第二类关联图像对应的第二数量的第n层第二类特征,及,与目标图像对应的第n层第三类特征;将第n层第一类特征和/或第n层第二类特征进行特征融合,得到融合特征;将第n层第一类特征和融合特征输入到第n解码层进行解码,得到第n解码层输出的解码信息。
Description
技术领域
本发明涉及信息技术领域,尤其涉及一种图像处理方法及电子设备。
背景技术
随着信息技术的发展,利用神经网络、向量机等学习模型进行图像处理。例如,针对医疗影像,可以利用深度学习模型对计算机断层扫描(Computed Tomography,CT)等进行目标分割等图像处理。
但是相关技术中,要不存在目标分割精确度低,要不存在着计算量大或计算效率低的问题。
发明内容
有鉴于此,本发明实施例期望提供一种图像处理方法及电子设备。
本发明的技术方案是这样实现的:
一种图像处理方法,包括:
将图像序列中的目标图像和与目标图像关联的第一类关联图像和第二类关联图像,输入预定模型;其中,所述预定模型包括:编码器和解码器,其中,所述编码器和解码器均包括N层;N为不小于2的正整数;
所述编码器的第n编码层,输出与所述目标图像和所述第一类关联图像中对应的第一数量的第n层第一类特征,与所述目标图像和所述第二类关联图像对应的第二数量的第n层第二类特征,及,与所述目标图像对应的第n层第三类特征,其中,n为小于或等于N的正整数;
将所述第n层第一类特征和/或所述第n层第二类特征进行特征融合,得到融合特征;
将所述第n层第三类特征和所述融合特征输入到第n解码层进行解码,得到第n解码层输出的解码信息;
其中,所述解码器的相邻层的前一编码层输出,还作为后一编码层的输入;所述编码器的相邻层的前一解码层的输出还作为后一解码层的输入。
基于上述方案,所述将所述第n层的第一类特征进行特征融合,得到第四类特征,包括:
将第一数量的所述第n层第一类特征进行融合,得到第n层第四类特征;
将第二数量的所述第n层第二类特征进行融合,得到第n层第五类特征。
基于上述方案,所述将第一数量的所述第n层第一类特征进行融合,得到第n层第四类特征,包括:
第m个所述第n层第一类特征与M个所述n层第一类特征,得到第m个所述融合特征,M为所述第一数量,m为小于或等于M的正整数;
所述将第二数量的所述第n层第二类特征进行融合,得到第n层第五类特征,包括:
第s个所述第n层第二类特征与S个所述n层第二类特征,得到第s个所述融合特征,S为所述第一数量,s为小于或等于M的正整数。
基于上述方案,所述预定模型还包括:连接所述编码器和所述解码器的底层;所述方法还包括:
利用所述预定模型的底层,基于所述编码器的第N编码层的输出,输出与所述目标图像和所述第一类关联图像中对应的第一数量的第N+1层第一类特征,与所述目标图像和所述第二类关联图像对应的第二数量的第N+1层第二类特征,及,与所述目标图像对应的第N+1层第三类特征;
将所述第N+1层第三类特征输入到所述解码器的第N解码层;
所述第N解码层,以所述第N编码层所对应的第N层第三类特征、第N层融合特征及所述第N+1层第三类特征为输入,进行解码处理并产生输出。
基于上述方案,所述目标图像为图像序列中的图像Star;
所述第一类关联图像包括:所述图像序列中的图像(Star-x*i,Star-(x-1)*i,……Star+(x-1)*i,Star+x*i);其中,x为正整数,i为正整数;
和/或,
所述第二类关联图像包括:所述图像序列中的图像(Star-y*j,Star-(y-1)*j,……Star+(y-1)*j,Star+y*j)其中,x为大于x的正整数,j为正整数。
基于上述方案,所述方法还包括:利用分类器基于所述目标图像的第一类特征及所述目标图像的第三类特征,进行所述目标图像的分类;当所述目标图像为第一类图像时,利用所述解码器对所述目标图像的特征解码。
基于上述方案,所述方法还包括:
当所述目标图像为第二类图像时,停止所述解码器对所述目标图像的特征解码。
基于上述方案,所述方法还包括:
当所述目标图像为所述第二类图像时,根据与所述目标图像相邻的所述第一类图像和所述第二类图像的解码信息,推测所述目标图像的解码信息。
基于上述方案,所述利用分类器基于所述目标图像的第一类特征及所述目标图像的第三类特征,进行所述目标图像的分类,包括:
利用所述分类器的加权平均层,将所述目标图像的第一类特征和所述目标图像的第三类特征进行加权平均,得到加权平均特征;
利用所述分类器的拼接层,将所述加权平均特征与所述目标图像的第一类特征进行拼接,得到拼接特征;
利用所述分类器的池化层,将所述拼接特征进行池化,得到池化特征;
利用所述分类器的分类层,基于所述池化特征对所述第一图像进行分类。
一种电子设备,其中,包括:
输入模块,用于将图像序列中的目标图像和与目标图像关联的第一类关联图像和第二类关联图像,输入预定模型;其中,所述预定模型包括:编码器和解码器,其中,所述编码器和解码器均包括N层;N为不小于2的正整数;
编码模块,用于所述编码器的第n编码层,输出与所述目标图像和所述第一类关联图像中对应的第一数量的第n层第一类特征,与所述目标图像和所述第二类关联图像对应的第二数量的第n层第二类特征,及,与所述目标图像对应的第n层第三类特征,其中,n为小于或等于N的正整数;
融合模块,用于将所述第n层第一类特征和/或所述第n层第二类特征进行特征融合,得到融合特征;
输出模块,用于将所述第n层第三类特征和所述融合特征输入到第n解码层进行解码,得到第n解码层输出的解码信息;其中,所述解码器的相邻层的前一编码层输出,还作为后一编码层的输入。
本发明实施例提供的技术方案,在利用预定模型进行图像处理时,不仅会将图像序列中的目标图像输入到预定模型中,还会将第一类关联图像和第二类关联图像一起输入到预定模型中,如此,结合第一类关联图像和第二类关联图像及目标图像本身,每一个编码层会得到共三类特征,然后通过编码器和解码器之间的横向连接,可以将第一类特征和第二类特征得到的融合特征,传输到解码层,如此解码层可以处理获得相邻的解码层给的特征,还可以从对应的编码层获得融合特征,辅助解码信息的获得,从而提升了编码信息的精确性。若将这种图像处理方法,用于图像中目标和背景之间的分割,或者,目标内不同部分的分割,可以提升分割精确度。
附图说明
图1为本发明实施例提供的一种图像处理方法的流程示意图;
图2为本发明实施例提供的一种图像处理方法的流程示意图;
图3为本发明实施例提供的一种图像处理方法的流程示意图;
图4为本发明实施例提供的一种预定模块的示意图;
图5为本发明实施例提供的一种特征融合的示意图;
图6为本发明实施例提供的一种目标图像分类的示意图;
图7为本发明实施例提供的一种电子设备的结构示意图;
图8为本发明实施例提供一种肝脏的喹诺分割后的示意图;
图9为本发明实施例提供的一种肝脏的CT图像的示意图;
图10为本发明实施例提供的一种用于确定肝脏体积的一种示意图。
具体实施方式
以下结合说明书附图及具体实施例对本发明的技术方案做进一步的详细阐述。
如图1所示,本发明实施例提供一种图像处理方法,包括:
步骤S110:将图像序列中的目标图像和与目标图像关联的第一类关联图像和第二类关联图像,输入预定模型;其中,所述预定模型包括:编码器和解码器,其中,所述编码器和解码器均包括N层;N为不小于2的正整数;
步骤S120:所述编码器的第n编码层,输出与所述目标图像和所述第一类关联图像中对应的第一数量的第n层第一类特征,与所述目标图像和所述第二类关联图像对应的第二数量的第n层第二类特征,及,与所述目标图像对应的第n层第三类特征,其中,n为小于或等于N的正整数;
步骤S130:将所述第n层第一类特征和/或所述第n层第二类特征进行特征融合,得到融合特征;
步骤S140:将所述第n层第三类特征和所述融合特征输入到第n解码层进行解码,得到第n解码层输出的解码信息;
其中,所述解码器的相邻层的前一编码层输出,还作为后一编码层的输入;所述编码器的相邻层的前一解码层的输出还作为后一解码层的输入。
本实施例提供的图像处理方法可以应用于各种具有信息处理能力的设备中,例如,电子设备和/或量子设备等。该图像处理方法可以采用各种具有自主学习能力的所述预定模型来实现。该具有自主学习能力的预定模型包括但不限于:深度学习模型和机器学习模型。所述深度学习模型可包括:各种类型的神经网络。例如,该预定模型包括但不限于:全卷积神经网络(FCN)或者多通道FCN、或者,三维(3D)FCNs、循环卷积网络(RNNs)等。
在一些实施例中,所述图像序列包括多张按照一定顺序排列的2D图像。这些2D图像可为来自统一采集对象的不同切面的图像。
例如,此处的2D图像可为:各种生理器官不同切面的核磁共振图像或CT图像。所述生理器官包括但不限于:肝脏、心脏、脾脏等。
在本实施例中,图像序列可为生理器官的图像,但是不限于生理器官。
例如,图像序列包括S张顺序排列的2D图像,所述目标图像可为当前图像,是所述图像处理方法的处理模型当前处理的图像。例如,处理模型当前处理的是第s张图像,则所述目标图像为所述第s张图像。
在本实施例中,所述第一类关联图像和所述第二类关联图像,统称为所述目标图像的关联图像,都是来自所述图像序列的图像。所述关联图像在所述图像序列中,与所述目标图像具有预定的位置关系。例如,所述第一类关联图像与所述目标图像具有第一位置关系,所述第二类关联图像与所述目标图像具有第二位置关系,所述第一位置关系不同于所述第一位置关系。
在一些实施例中,所述第一位置关系和所述第二位置关系均可为:与目标图像在所述图像序列中的相隔图像张数序列,但是第一位置关系和第二位置关系对对应的张数序列中两个元素的间隔值不同。
例如,所述第一类关联图像对应的相隔图像张数序列的间隔值,大于第二类关联图像对应的相隔图像张数序列的间隔值。例如,所述第一类关联图像对应的相隔图像张数序列的间隔值不小于2;而第二类关联图像对应的相隔图像张数序列的间隔值可为1。
如此,预定模型在进行单张的目标图像处理时,会分别参照第一类关联图像和第二类关联图像都输入到预定模型中,如此,预定模型可以根据处理需求,参照关联图像得到目标图像更加精确的处理结果。
所述预定模型包括编码器和解码器。编码器能够从图像中提取图像特征,解码器能够根据编码器提供的图像特征进行编码,将图像中的目标和背景进行分割,从而至少得到指示目标和背景之间分割信息的编码信息。
在本实施例中,预定模型不仅可以将目标和背景进行分割,还可以用于目标的不同部分的分割,例如,将生理器官的不同部分进行分割。
在本实施例中,所述预定模型可为V字型模型或U字型模型;编码器和解码器可对称分布。
根据信息流的传输方向,所述编码器从模型顶部向V字型模型或U字型模型的底部依次编码为:第1编码层、第2编码层……一直到第N编码层;所述解码器从模型顶部向V字型模型或U字型模型底部依次编码为:第1解码层、第二解码层……一直到第N解码层。
在本实施例中,预定模型具有三类型的输入通道,第一类输入通道用于输入所述目标图像;第二类输入通道用于输入所述第一类关联图像;第三类输入通道用于输入所述第二类关联图像。
预定模型在接收到这三类模型之后,会分别进行处理;单独从目标图像中得到第三类特征;结合目标图像和第一类关联图像得到第一类特征;结合目标图像和第二类关联图像得到第二类特征。所述第一类特征、第二类特征及第三类特征均为图像特征,都可以用特征图的方式来表示。在本实施例中,来自第n编码层的第一类特征、第二类特征及第三类特征,分别命名为:第n层第一类特征、第n层第二类特征及第n层第三类特征。n的取值为1到N的任意正整数。
图4所示为本实施例提供的一种预定模型的结构示意图,包括:编码器d1至d4;解码器u4至u3。预定模块可包括编码器d4和解码器u4的底层c5。
同序号的编码层和解码层之间具有横向连接,且横向连接中引入了进行特征融合的GLC模块。图4中的缩写conv表示卷积。*2、*4、*8、*16等表示卷积核的尺寸。
在一些实施例中,所述第一数量可大于所述第二数量。
所述第一类特征可为目标的全局特征;第二类特征为目标的局部特征;第三类特征为图像特征。
在步骤S120中得到这3类特征,会融合这3类特征得到融合特征。
所述步骤S130可包括但不限于以下至少之一:
将同一个编码层的同一类型的特征进行拼接;例如,同一个编码层的第一类特征进行拼接,同一个编码层的第二类特征进行拼接
将同一编码层的同一类型的特征基于特征对齐的加权平均,例如,将若干个第一类特征所对应特征图,按照特征图的像素对齐的方式进行特征的加权平均;
将同一个编码层的同一类的特征进行取极值处理,例如,取极大值或取极小值等。
总之进行特征融合得到融合特征的方式有多种,不局限于上述任意一种。
在得到融合特征之后,会将第n编码层的各类特征输入到下一个编码层,使得下一个编码层得到进行特征处理的输入;同时还会将融合特征通过预定模型的横向连接(或称之为跳转连接)输入到与第n编码层处于预定模型同一个高度的第n解码层,如此,通过横向连接使得融合特征在不经过后续编码层处理的情况下,尽可能保留更多原始信息的情况下,输入到对应的解码层,使得解码层对目标和背景的分割有更加全面和细致的参考信息,从而提升目标和背景的分割精确度。
在一些实施例中,所述融合特征的生成,可以是利用位于横向连接上的处理模块形成的。例如,利用位于所述横向连接上的GLC模块。
在一些实施例中若所述图像序列为肝脏的图像序列,例如,肝脏的CT图像,该预定模型可以采用喹诺分割原理对肝脏进行切分,具体如,利用肝脏中的血管,将肝脏分为多个部分,例如,根据肝脏的左血管、右血管和中部血管作为分割线,将肝脏分为多个部分。故本实施例中,利用预定模型,基于目标图像、第一类关联图像及第二类关联图像,将目标图像中肝脏部分与背景分开的同时,将肝脏中属于不同肝脏区域的子部分识别出来;且具有处理精度高的特点。
在一些实施例中,所述步骤S130可包括:
将第一数量的所述第n层第一类特征进行融合,得到第n层第四类特征;
将第二数量的所述第n层第二类特征进行融合,得到第n层第五类特征,其中,所述第二数量不同于所述第一数量。
在本实施例中,所述步骤S130可包括:
将第n层第一类特征融合,得到第n层第四类特征,且将第n层第二类特征进行融合得到第五类特征;此处的特征融合包括但不限于特征拼接。
在本实施例中通过特征融合得到的第n层第四类特征和第n层第五类特征都需要输入到第n解码层中,为第n解码层的解码提供参考信息。
在一些实施例中,所述将第一数量的所述第n层第一类特征进行融合,得到第n层第四类特征,包括:
第m个所述第n层第一类特征与M个所述n层第一类特征,得到第m个所述融合特征,M为所述第一数量,m为小于或等于M的正整数;
所述将第二数量的所述第n层第二类特征进行融合,得到第n层第五类特征,包括:
第s个所述第n层第二类特征与S个所述n层第二类特征,得到第s个所述融合特征,S为所述第一数量,s为小于或等于M的正整数。
图5所示为一种特征融合的示意图,第一类特征加权平均得到第四类特征;第二类特征加权平均得到第四类特征。图5中最底下的黑色方块表示对应编码层的第三类特征。再通过特征的拼接后输入到对应的解码层。第三类特征输入到解码层的过程中还通过上采样和卷积通道处理之后再输入到对应的解码层。例如,在图5中卷积核的尺寸为:2*2。
在一些实施例中,所述预定模型还包括:连接所述编码器和所述解码器的底层;如图2所示,所述方法还包括:
步骤S210:利用所述预定模型的底层,基于所述编码器的第N编码层的输出,输出与所述目标图像和所述第一类关联图像中对应的第一数量的第N+1层第一类特征,与所述目标图像和所述第二类关联图像对应的第二数量的第N+1层第二类特征,及,与所述目标图像对应的第N+1层第三类特征;
步骤S220:将所述第N+1层第三类特征输入到所述解码器的第N解码层;
步骤S230:所述第N解码层,以所述第N编码层所对应的第N层第三类特征、第N层融合特征及所述第N+1层第三类特征为输入,进行解码处理并产生输出。
通过底层的处理,实现了预定模型主干道上数据流的传输。
在一些实施例中,所述目标图像为图像序列中的图像Star;
所述第一类关联图像包括:所述图像序列中的图像(Star-x*i,Star-(x-1)*i,……Star+(x-1)*i,Star+x*i);其中,x为正整数,i为正整数;
和/或,
所述第二类关联图像包括:所述图像序列中的图像(Star-y*j,Star-(y-1)*j,……Star+(y-1)*j,Star+y*j)其中,x为大于x的正整数,j为正整数。
在一些实施例中,所述i可为2或3等取值。值得注意的是,tar+x*i及tar+y*j小于或等于图像序列中所包含的图像总个数。
在一些实施例中,所述第一数量大于所述第二数量。
在一些实施例中,所述方法还包括:利用分类器基于所述目标图像的第一类特征及所述目标图像的第三类特征,进行所述目标图像的分类;
当所述目标图像为第一类图像时,利用所述解码器对所述目标图像的特征解码。
在本实施例中,当利用编码器的最后一层输出了目标图像的第一类特征和第三类特征时,会进一步基于这两种特征确定出当前的目标图像是否是可以直接进行目标的不用区域分割的图像,或者需要基于目标图像的相邻图像进行推测的图像。
例如,所述第一类图像则是可以直接对目标图像进行分割的图像,需要利用解码器继续后续处理。
进一步地,所述方法还包括:
当所述目标图像为第二类图像时,停止所述解码器对所述目标图像的特征解码。
如果是第二类图像,则表明是需要基于相邻图像进行预测的图像,则可以停止解码器对目标图像的处理,减少不必要的计算量。
具体如,根据第二类图像的相邻的第一类图像,确定第二类图像中目标不同区域分割的信息。可以进根据第二类图像相邻的第一类图像,确定目标区域分割的信息,还可以是根据第二类图像相邻的第一类图像及目标的形态变化特征,确定目标区域分割的信息。
实现方式有很多种,此处就不再一一举例了。
在一些实施例中,所述方法还包括:当所述目标图像为所述第二类图像时,根据与所述目标图像相邻的所述第一类图像和所述第二类图像的解码信息,推测所述目标图像的解码信息。
进一步地,如图3所示,所述利用分类器基于所述目标图像的第一类特征及所述目标图像的第三类特征,进行所述目标图像的分类,包括:
步骤S310:利用所述分类器的加权平均层,将所述目标图像的第一类特征和所述目标图像的第三类特征进行加权平均,得到加权平均特征;
步骤S320:利用所述分类器的拼接层,将所述加权平均特征与所述目标图像的第一类特征进行拼接,得到拼接特征;
步骤S330:利用所述分类器的池化层,将所述拼接特征进行池化,得到池化特征;
步骤S340:利用所述分类器的分类层,基于所述池化特征对所述第一图像进行分类。
在步骤S310中进行加权平均时,由于有第一数量的第一类特征,每一个第一类特征所对应的第一类关联图像与目标图像之间的相似度不同。
图6所示为一种进行目标图像分类的示意图,包括:第一类特征加权平均后和第三类特征从加权平均的模块输出,并再次与第三类特征进行拼接后池化,基于池化后的特征进行二分类,得到目标图像是第一类图像还是第二类图像。
在加权平均时,所述步骤S310可包括:
根据各所述第一类特征对应的第一类关联图像与目标图像之间的相似度,确定加权平均的权值,其中,权值与相似度正相关,即相似度越大,则权值越大;
基于所述权值进行加权平均,得到所述加权平均特征。
在步骤S330中池化时,可以最大池化,也可以平均池化。在本实施例中直接可以是平均池化。
如图7所示,本实施例提供一种电子设备,包括:
输入模块110,用于将图像序列中的目标图像和与目标图像关联的第一类关联图像和第二类关联图像,输入预定模型;其中,所述预定模型包括:编码器和解码器,其中,所述编码器和解码器均包括N层;N为不小于2的正整数;
编码模块120,用于所述编码器的第n编码层,输出与所述目标图像和所述第一类关联图像中对应的第一数量的第n层第一类特征,与所述目标图像和所述第二类关联图像对应的第二数量的第n层第二类特征,及,与所述目标图像对应的第n层第三类特征,其中,n为小于或等于N的正整数;
融合模块130,用于将所述第n层第一类特征和/或所述第n层第二类特征进行特征融合,得到融合特征;
输出模块140,用于将所述第n层第三类特征和所述融合特征输入到第n解码层进行解码,得到第n解码层输出的解码信息;其中,所述解码器的相邻层的前一编码层输出,还作为后一编码层的输入。
在一些实施例中,所述输入模块110、编码模块120、融合模块130及输出模块140,均为程序模块。所述程序模块被处理器执行后,能够实现上述操作。
在还有一些实施例中,所述输入模块110、编码模块120、融合模块130及输出模块140,均为可编程模块。所述可编程模块包括但不限于:复杂可编程模块和现场可编程模块。在一些实施例中,所述融合模块130,具体用于将第一数量的所述第n层第一类特征进行融合,得到第n层第四类特征;将第二数量的所述第n层第二类特征进行融合,得到第n层第五类特征。
在一些实施例中,所述融合模块130,具体用于第m个所述第n层第一类特征与M个所述n层第一类特征,得到第m个所述融合特征,M为所述第一数量,m为小于或等于M的正整数;
所述融合模块130,还具体用于第s个所述第n层第二类特征与S个所述n层第二类特征,得到第s个所述融合特征,S为所述第一数量,s为小于或等于M的正整数。
在一些实施例中,所述预定模型还包括:连接所述编码器和所述解码器的底层;所述装置还包括:
第一底层模块,用于利用所述预定模型的底层,基于所述编码器的第N编码层的输出,输出与所述目标图像和所述第一类关联图像中对应的第一数量的第N+1层第一类特征,与所述目标图像和所述第二类关联图像对应的第二数量的第N+1层第二类特征,及,与所述目标图像对应的第N+1层第三类特征;
第二底层模块,用于将所述第N+1层第三类特征输入到所述解码器的第N解码层;
所述第N解码层,以所述第N编码层所对应的第N层第三类特征、第N层融合特征及所述第N+1层第三类特征为输入,进行解码处理并产生输出。
在一些实施例中,所述目标图像为图像序列中的图像Star;
所述第一类关联图像包括:所述图像序列中的图像(Star-x*i,Star-(x-1)*i,……Star+(x-1)*i,Star+x*i);其中,x为正整数,i为正整数;
和/或,
所述第二类关联图像包括:所述图像序列中的图像(Star-y*j,Star-(y-1)*j,……Star+(y-1)*j,Star+y*j)其中,x为大于x的正整数,j为正整数。
在一些实施例中,所述装置还包括:
分类模块,用于利用分类器基于所述目标图像的第一类特征及所述目标图像的第三类特征,进行所述目标图像的分类;当所述目标图像为第一类图像时,利用所述解码器对所述目标图像的特征解码。
在一些实施例中,所述装置法还包括:
停止模块,用于当所述目标图像为第二类图像时,停止所述解码器对所述目标图像的特征解码。
在一些实施例中,所述装置还包括:
推测模块,用于当所述目标图像为所述第二类图像时,根据与所述目标图像相邻的所述第一类图像和所述第二类图像的解码信息,推测所述目标图像的解码信息。
在一些实施例中,所述分类模块,具体用于利用所述分类器的加权平均层,将所述目标图像的第一类特征和所述目标图像的第三类特征进行加权平均,得到加权平均特征;利用所述分类器的拼接层,将所述加权平均特征与所述目标图像的第一类特征进行拼接,得到拼接特征;利用所述分类器的池化层,将所述拼接特征进行池化,得到池化特征;利用所述分类器的分类层,基于所述池化特征对所述第一图像进行分类。
以下结合上述任意实施例提供几个具体示例:
示例1:
喹诺分割(如图8所示)是用于描述功能性肝脏解剖结构的最广泛使用的系统。它是首选的解剖学分类系统,因为它将肝脏分成八个独立的功能单元,允许切除节段而不损坏其他节段。该系统使用肝脏中的血管供应来分离功能单元。如图8所示,肝静脉是三个大的实质内静脉,将肝脏物质排入下腔静脉(IVC),称为右肝静脉(RHV),中肝静脉(MHV)和左肝静脉。(LHV)。静脉是重要的标志,在两者之间运行,因此限定了肝脏的节段。它们在肝内IVC辐射的三个垂直平面中运行,将肝脏的四个部分分开。门静脉的左右分支(RPV和LPV)进一步将肝脏分为上下部分。
图8为肝脏的喹诺分割后的示意图。第I部分,由下腔静脉(IVC)的窝窝后外侧,是尾状叶。第II和第III段位于镰状韧带的左侧,II左上门和左下门静脉(LPV)。第四节位于镰状韧带和肝中静脉(MHV)之间。段V位于MHV和右肝静脉(RHV)之间的右门静脉(RPV)下方。段VI位于RHV右侧的RPV下方。第VII段位于RHV右侧的RPV上方。段VIII位于MHV和RHV之间的RPV之上。
每个节段可以被视觉化为楔形,其顶点指向肝门。传统上,肝脏功能单元在逐个图像的基础上手动描绘。在临床诊断中,经验丰富的放射科医师通常根据沿z轴的许多图像观察并进行喹诺分割。有必要探测远离z轴的空间信息以进行喹诺分割,这需要放射科医生几个小时。因此,在临床实践中非常需要全自动方法。
参考图9所示,图像序列包括图9所示的多个图像。图9中,四个带有标记静脉的CT图像。图像(a)更靠近肝脏的下部,图像(d)更靠近上部。从图像(a)到图像(d),RHV,MHV和LHV逐渐收敛到IVC。
本示例提出了一个框架,采用全局和局部上下文(GLC-UNet)进行图像处理,其中使用注意机制有效地探测3D上下文。而不是将整个上下文压缩成静态表示,注意允许显着特征根据需要动态地出现在最前面。此处的注意机制包括:对多个特征的加权平均等特征融合处理等。
首先,训练GLC-UNet以获得肝脏的分割,其用作喹诺分割的感兴趣区(包含肝脏的区域)。其次,训练更快的R-CNN网络以检测LPV和RPV。包含这些静脉的图像是喹诺分割的全局上下文的基线。最后,训练另一个多任务GLC-UNet以获得肝脏的喹诺分割。
建议在CT体积的肝脏上自动生成喹诺分割,这是临床上首选的解剖学分类系统。首先,训练GLC-UNet以获得肝脏的分割,其用作喹诺分割的感兴趣区域。其次,训练更快的R-CNN网络以检测LPV和RPV。包含这些静脉的图像是喹诺分割的全局上下文的基线。最后,训练另一个多任务GLC-UNet以获得肝脏的喹诺分割。
GLC-UNet的体系结构参数。图4中各编码层可由至少三个不同卷积层的级联而成。注意,“6×6,12,a2”对应于内容大小为6×6和12个特征的萎缩卷积层(速率=2),并且“3×3,24,c”代表常规卷积内核大小为3×3和24个特征的层。操作p代表最大池,内核大小为2×2,步幅值为2。
从大尺度提取的信息通过注意机制与全局特征图和局部特征图相结合。跳过连接将编码器中的特征映射带到同一级别的解码器。在扩展路径的同一级别上生成的要素图通过串联合并。全局特征图为第一类特征的特征图;局部特征图为第二类特征的特征图。
如图10所示,给定CT体积,首先利用GLC-UNet获得肝脏的分割,其用作喹诺分割的感兴趣区域。接下来,LPV和图10选择的CT图像,以及分别叠加在CT图像上的肝脏分割和喹诺分割。
肝脏的分割,其作为喹诺分割的感兴趣区域,首先在第二列中获得。在第三个方面,的方法在检测LPV和RPV的帮助下生成肝脏的喹诺分割。、
检测LPV和RPV,可如下:
首先,通过更快的R-CNN网络检测肝内门静脉。由于门静脉沿z轴是连续的,因此选择沿该方向的最大连通分量以消除错误分类的血管并提高置信水平。随着分叉的门静脉变为水平,左右门静脉分支的横截面积大于相邻的门静脉。因此,在获得具有高置信度的门静脉之后,选择具有横截面积峰值的静脉作为候选者,其中RPV是最左边的候选者(最小x坐标),并且LPV是具有最小y坐标的静脉。
全局解码信息和本地解码信息的组成,设tar是目标图像沿z轴的索引。对于喹诺分割,提取具有丰富血管信息的图像作为全局背景。值得一提的是,这些图像可能位于包含LPV和RPV的图像附近。
将通过Π表示全局上下文图像的总数,并且通过zt表示具有肝区域的图像的顶部索引。有输入全局上下文G(对应于前述第一类特征),如下所示:
ze=(zl+zt)/2, (1)
zb=min(ze-(II-1),zr), (2)
step=(ze-zb)/(II-1), (3)
G=(Szb,Szb+step,...,Sze-step,Sze), (4)
检测到RPV。包含这两个静脉的图像是喹诺分割的全局背景的基线。最后,使用另一个多任务GLC-UNet来获得肝脏的喹诺分割。
其中,z1和zr分别是沿着LPV和RPV的z轴的对应坐标。
在临床中,放射科医师通常观察几个相邻图像以分割肝脏。因此,对于肝脏分割,G如下获得。
G=(Star-4,Star-2,Star+2,Star+4),(5)
其中,沿z轴的范围根据经验设置为±4。
相邻图像,L=(Star-1,Star+1),用于提供局部背景,其用作肝脏和喹诺分割的平滑因子。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元,即可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以全部集成在一个处理模块中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本申请所提供的几个方法实施例中所揭露的方法,在不冲突的情况下可以任意组合,得到新的方法实施例。
本申请所提供的几个设备实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的设备实施例。
本申请所提供的几个方法或设备实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的方法实施例或设备实施例。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (10)
1.一种图像处理方法,包括:
将图像序列中的目标图像和与目标图像关联的第一类关联图像和第二类关联图像,输入预定模型;其中,所述预定模型包括:编码器和解码器,其中,所述编码器和解码器均包括N层;N为不小于2的正整数;
所述编码器的第n编码层,输出与所述目标图像和所述第一类关联图像中对应的第一数量的第n层第一类特征,与所述目标图像和所述第二类关联图像对应的第二数量的第n层第二类特征,及,与所述目标图像对应的第n层第三类特征,其中,n为小于或等于N的正整数;
将所述第n层第一类特征和/或所述第n层第二类特征进行特征融合,得到融合特征;
将所述第n层第三类特征和所述融合特征输入到第n解码层进行解码,得到第n解码层输出的解码信息;
其中,所述解码器的相邻层的前一编码层输出,还作为后一编码层的输入;所述编码器的相邻层的前一解码层的输出还作为后一解码层的输入。
2.根据权利要求1所述的方法,其中,所述将所述第n层的第一类特征进行特征融合,得到第四类特征,包括:
将第一数量的所述第n层第一类特征进行融合,得到第n层第四类特征;
将第二数量的所述第n层第二类特征进行融合,得到第n层第五类特征。
3.根据权利要求2所述的方法,其中,所述将第一数量的所述第n层第一类特征进行融合,得到第n层第四类特征,包括:
第m个所述第n层第一类特征与M个所述n层第一类特征,得到第m个所述融合特征,M为所述第一数量,m为小于或等于M的正整数;
所述将第二数量的所述第n层第二类特征进行融合,得到第n层第五类特征,包括:
第s个所述第n层第二类特征与S个所述n层第二类特征,得到第s个所述融合特征,S为所述第一数量,s为小于或等于M的正整数。
4.根据权利要求1所述的方法,其特征在于,所述预定模型还包括:连接所述编码器和所述解码器的底层;所述方法还包括:
利用所述预定模型的底层,基于所述编码器的第N编码层的输出,输出与所述目标图像和所述第一类关联图像中对应的第一数量的第N+1层第一类特征,与所述目标图像和所述第二类关联图像对应的第二数量的第N+1层第二类特征,及,与所述目标图像对应的第N+1层第三类特征;
将所述第N+1层第三类特征输入到所述解码器的第N解码层;
所述第N解码层,以所述第N编码层所对应的第N层第三类特征、第N层融合特征及所述第N+1层第三类特征为输入,进行解码处理并产生输出。
5.根据权利要求1所述的方法,其中,所述目标图像为图像序列中的图像Star;
所述第一类关联图像包括:所述图像序列中的图像(Star-x*i,Star-(x-1)*i,......Star+(x-1)*i,Star+x*i);其中,x为正整数,i为正整数;
和/或,
所述第二类关联图像包括:所述图像序列中的图像(Star-y*j,Star-(y-1)*j,......Star+(y-1)*j,Star+y*j)其中,x为大于x的正整数,j为正整数。
6.根据权利要求1所述的方法,其中,所述方法还包括:利用分类器基于所述目标图像的第一类特征及所述目标图像的第三类特征,进行所述目标图像的分类;当所述目标图像为第一类图像时,利用所述解码器对所述目标图像的特征解码。
7.根据权利要求6所述的方法,其中,所述方法还包括:
当所述目标图像为第二类图像时,停止所述解码器对所述目标图像的特征解码。
8.根据权利要求7所述的方法,其中,所述方法还包括:
当所述目标图像为所述第二类图像时,根据与所述目标图像相邻的所述第一类图像和所述第二类图像的解码信息,推测所述目标图像的解码信息。
9.根据权利要求6所述的方法,其中,所述利用分类器基于所述目标图像的第一类特征及所述目标图像的第三类特征,进行所述目标图像的分类,包括:
利用所述分类器的加权平均层,将所述目标图像的第一类特征和所述目标图像的第三类特征进行加权平均,得到加权平均特征;
利用所述分类器的拼接层,将所述加权平均特征与所述目标图像的第一类特征进行拼接,得到拼接特征;
利用所述分类器的池化层,将所述拼接特征进行池化,得到池化特征;
利用所述分类器的分类层,基于所述池化特征对所述第一图像进行分类。
10.一种电子设备,其中,包括:
输入模块,用于将图像序列中的目标图像和与目标图像关联的第一类关联图像和第二类关联图像,输入预定模型;其中,所述预定模型包括:编码器和解码器,其中,所述编码器和解码器均包括N层;N为不小于2的正整数;
编码模块,用于所述编码器的第n编码层,输出与所述目标图像和所述第一类关联图像中对应的第一数量的第n层第一类特征,与所述目标图像和所述第二类关联图像对应的第二数量的第n层第二类特征,及,与所述目标图像对应的第n层第三类特征,其中,n为小于或等于N的正整数;
融合模块,用于将所述第n层第一类特征和/或所述第n层第二类特征进行特征融合,得到融合特征;
输出模块,用于将所述第n层第三类特征和所述融合特征输入到第n解码层进行解码,得到第n解码层输出的解码信息;其中,所述解码器的相邻层的前一编码层输出,还作为后一编码层的输入。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910579398.1A CN110363776B (zh) | 2019-06-28 | 2019-06-28 | 图像处理方法及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910579398.1A CN110363776B (zh) | 2019-06-28 | 2019-06-28 | 图像处理方法及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110363776A true CN110363776A (zh) | 2019-10-22 |
CN110363776B CN110363776B (zh) | 2021-10-22 |
Family
ID=68216726
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910579398.1A Active CN110363776B (zh) | 2019-06-28 | 2019-06-28 | 图像处理方法及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110363776B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108648195A (zh) * | 2018-05-09 | 2018-10-12 | 联想(北京)有限公司 | 一种图像处理方法及装置 |
CN111523578A (zh) * | 2020-04-13 | 2020-08-11 | 北京推想科技有限公司 | 图像分类方法及装置、神经网络模型的训练方法及装置 |
CN112634279A (zh) * | 2020-12-02 | 2021-04-09 | 四川大学华西医院 | 一种基于注意力Unet模型的医学图像语义分割方法 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6252994B1 (en) * | 1998-01-26 | 2001-06-26 | Xerox Corporation | Adaptive quantization compatible with the JPEG baseline sequential mode |
CN103828364A (zh) * | 2011-09-29 | 2014-05-28 | 夏普株式会社 | 图像解码装置、图像解码方法及图像编码装置 |
CN107644426A (zh) * | 2017-10-12 | 2018-01-30 | 中国科学技术大学 | 基于金字塔池化编解码结构的图像语义分割方法 |
CN108062753A (zh) * | 2017-12-29 | 2018-05-22 | 重庆理工大学 | 基于深度对抗学习的无监督域自适应脑肿瘤语义分割方法 |
CN108510560A (zh) * | 2018-04-11 | 2018-09-07 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、存储介质和计算机设备 |
CN108875596A (zh) * | 2018-05-30 | 2018-11-23 | 西南交通大学 | 一种基于dssnn神经网络的铁路场景图像语义分割方法 |
CN108986124A (zh) * | 2018-06-20 | 2018-12-11 | 天津大学 | 结合多尺度特征卷积神经网络视网膜血管图像分割方法 |
US20190049540A1 (en) * | 2017-08-10 | 2019-02-14 | Siemens Healthcare Gmbh | Image standardization using generative adversarial networks |
CN109410307A (zh) * | 2018-10-16 | 2019-03-01 | 大连理工大学 | 一种场景点云语义分割方法 |
CN109598728A (zh) * | 2018-11-30 | 2019-04-09 | 腾讯科技(深圳)有限公司 | 图像分割方法、装置、诊断系统及存储介质 |
CN109816659A (zh) * | 2019-01-28 | 2019-05-28 | 北京旷视科技有限公司 | 图像分割方法、装置及系统 |
-
2019
- 2019-06-28 CN CN201910579398.1A patent/CN110363776B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6252994B1 (en) * | 1998-01-26 | 2001-06-26 | Xerox Corporation | Adaptive quantization compatible with the JPEG baseline sequential mode |
CN103828364A (zh) * | 2011-09-29 | 2014-05-28 | 夏普株式会社 | 图像解码装置、图像解码方法及图像编码装置 |
US20190049540A1 (en) * | 2017-08-10 | 2019-02-14 | Siemens Healthcare Gmbh | Image standardization using generative adversarial networks |
CN107644426A (zh) * | 2017-10-12 | 2018-01-30 | 中国科学技术大学 | 基于金字塔池化编解码结构的图像语义分割方法 |
CN108062753A (zh) * | 2017-12-29 | 2018-05-22 | 重庆理工大学 | 基于深度对抗学习的无监督域自适应脑肿瘤语义分割方法 |
CN108510560A (zh) * | 2018-04-11 | 2018-09-07 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、存储介质和计算机设备 |
CN108875596A (zh) * | 2018-05-30 | 2018-11-23 | 西南交通大学 | 一种基于dssnn神经网络的铁路场景图像语义分割方法 |
CN108986124A (zh) * | 2018-06-20 | 2018-12-11 | 天津大学 | 结合多尺度特征卷积神经网络视网膜血管图像分割方法 |
CN109410307A (zh) * | 2018-10-16 | 2019-03-01 | 大连理工大学 | 一种场景点云语义分割方法 |
CN109598728A (zh) * | 2018-11-30 | 2019-04-09 | 腾讯科技(深圳)有限公司 | 图像分割方法、装置、诊断系统及存储介质 |
CN109816659A (zh) * | 2019-01-28 | 2019-05-28 | 北京旷视科技有限公司 | 图像分割方法、装置及系统 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108648195A (zh) * | 2018-05-09 | 2018-10-12 | 联想(北京)有限公司 | 一种图像处理方法及装置 |
CN111523578A (zh) * | 2020-04-13 | 2020-08-11 | 北京推想科技有限公司 | 图像分类方法及装置、神经网络模型的训练方法及装置 |
CN112634279A (zh) * | 2020-12-02 | 2021-04-09 | 四川大学华西医院 | 一种基于注意力Unet模型的医学图像语义分割方法 |
CN112634279B (zh) * | 2020-12-02 | 2023-04-07 | 四川大学华西医院 | 一种基于注意力Unet模型的医学图像语义分割方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110363776B (zh) | 2021-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Han et al. | Infinite brain MR images: PGGAN-based data augmentation for tumor detection | |
JP6636678B2 (ja) | 画像内物体の注釈付けの学習 | |
Song et al. | Progressive refinement network for occluded pedestrian detection | |
Stansfield | ANGY: A rule-based expert system for automatic segmentation of coronary vessels from digital subtracted angiograms | |
CN110363776A (zh) | 图像处理方法及电子设备 | |
US20200184252A1 (en) | Deep Learning Network for Salient Region Identification in Images | |
EP4345746A2 (en) | Method and system for image segmentation and identification | |
CN110298844B (zh) | X光造影图像血管分割与识别方法及装置 | |
CN108986891A (zh) | 医疗影像处理方法及装置、电子设备及存储介质 | |
CN108876793A (zh) | 语义分割方法、装置和系统及存储介质 | |
CN108876792A (zh) | 语义分割方法、装置和系统及存储介质 | |
US20220076117A1 (en) | Methods for generating a deep neural net and for localising an object in an input image, deep neural net, computer program product, and computer-readable storage medium | |
CN110473243A (zh) | 基于深度轮廓感知的牙齿分割方法、装置及计算机设备 | |
JP7350582B2 (ja) | モデル学習用のシステム、装置、及び学習方法 | |
CN111340195A (zh) | 网络模型的训练方法及装置、图像处理方法及存储介质 | |
CN111179269B (zh) | 一种基于多视图和三维卷积融合策略的pet图像分割方法 | |
CN109035261A (zh) | 医疗影像处理方法及装置、电子设备及存储介质 | |
Feng et al. | SSN: A stair-shape network for real-time polyp segmentation in colonoscopy images | |
CN106682127A (zh) | 图像搜索系统及方法 | |
CN101151638A (zh) | 用于分割数据集中的结构的方法、系统和计算机程序 | |
Xu et al. | BMAnet: Boundary mining with adversarial learning for semi-supervised 2D myocardial infarction segmentation | |
Wang et al. | Context-aware spatio-recurrent curvilinear structure segmentation | |
Shao et al. | Application of U-Net and Optimized Clustering in Medical Image Segmentation: A Review. | |
Lin et al. | Stimulus-guided adaptive transformer network for retinal blood vessel segmentation in fundus images | |
Zambrano-Vizuete et al. | Segmentation of medical image using novel dilated ghost deep learning model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |