CN111553436B - 训练数据生成方法、模型训练方法及设备 - Google Patents

训练数据生成方法、模型训练方法及设备 Download PDF

Info

Publication number
CN111553436B
CN111553436B CN202010368307.2A CN202010368307A CN111553436B CN 111553436 B CN111553436 B CN 111553436B CN 202010368307 A CN202010368307 A CN 202010368307A CN 111553436 B CN111553436 B CN 111553436B
Authority
CN
China
Prior art keywords
fundus
training data
fundus images
images
label information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010368307.2A
Other languages
English (en)
Other versions
CN111553436A (zh
Inventor
熊健皓
赵昕
和超
张大磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Eaglevision Medical Technology Co Ltd
Original Assignee
Shanghai Eaglevision Medical Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Eaglevision Medical Technology Co Ltd filed Critical Shanghai Eaglevision Medical Technology Co Ltd
Priority to CN202010368307.2A priority Critical patent/CN111553436B/zh
Publication of CN111553436A publication Critical patent/CN111553436A/zh
Application granted granted Critical
Publication of CN111553436B publication Critical patent/CN111553436B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明提供一种训练数据生成方法、模型训练方法及设备,所述训练数据生成方法包括:获取同一眼球的多个眼底图像,所述多个眼底图像来自不同的域,且具有相同的标签信息;根据权重将所述多个眼底图像融合为一个眼底图像;根据所述权重将多个所述标签信息融合为一个标签信息,作为融合的眼底图像的标签信息。

Description

训练数据生成方法、模型训练方法及设备
技术领域
本发明涉及医学图像处理领域,具体涉及一种训练数据生成方法、模型训练方法及设备。
背景技术
医学图像中常常存在来自多个域(domain)的数据,具体可以表现为不同的成像设备有不同的色彩特点、不同的拍摄质量、不同的人群等。
在使用机器学习技术学习不同域的医学图像特征时,会因为这些数据内在的差异性,导致模型难以同时兼顾各个域的数据的特点,所以往往需要很大量的不同域的数据才能收敛到较好的效果,比如一般需要不同域的图像保持在同一数量级。实际场景中,往往难以收集到如此平衡的数据集。
具体到眼底图像识别任务中,比如有两种成像效果不同的眼底相机,通过第一种相机拍摄的眼底图像多达几万张,但通过第二种眼底相机拍摄的眼底图像只有几百张,如果用这些眼底图像及标签训练模型,在实际使用时往往是模型在识别第二种相机拍摄的眼底图像时的准确性特别差,想要提升模型性能会非常困难。
发明内容
有鉴于此,本发明提供一种训练数据生成方法,包括:
获取同一眼球的多个眼底图像,所述多个眼底图像来自不同的域,且具有相同的标签信息;
根据权重将所述多个眼底图像融合为一个眼底图像;
根据所述权重将多个所述标签信息融合为一个标签信息,作为融合的眼底图像的标签信息。
可选地,所述多个眼底图像具体为两个眼底图像;按照如下方式将两个眼底图像融合为一个眼底图像:
f′=λf1+(1-λ)f2
其中f1和f2分别表示两个眼底图像各点的像素值,λ为所述权重,f′表示融合后的眼底图像各点的像素值。
可选地,按照如下方式将两个眼底图像的标签信息融合为一个标签信息:
l′=λl1+(1-λ)l2
其中l1和l2分别表示两个眼底图像的标签信息,λ为所述权重,f′表示融合后的标签信息。
可选地,权重λ为随机变量,取值接近0或1。
可选地,λ~Beta(α,α),α的取值小于0.5。
本发明还提供一种机器学习模型训练方法,包括:
获取多个训练数据,所述训练数据分别包括眼底图像及其标签信息,多个训练数据中的眼底图像来自多个域;
利用上述训练数据生成方法,基于所述多个训练数据中相同眼球的眼底图像及其标签信息生成融合的眼底图像以及融合的标签信息作为生成的训练数据;
利用所述多个训练数据和生成的训练数据对机器学习模型进行训练,以使其根据输出结果与所述标签信息以及融合的标签信息的差异优化模型参数。
可选地,所述眼底图像来自不同的域是指通过不同的眼底相机所拍摄的图像。
可选地,所述标签信息是用于指示眼底图像所属的类别的数值。
可选地,所述标签信息是用于指示眼底图像相关指标的数值。
可选地,所述标签信息是用于指示眼底图像中感兴趣区域的标注信息。
相应地,本发明提供一种训练数据生成设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器执行上述训练数据生成方法。
相应地,一种机器学习模型训练设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器执行上述机器学习模型训练方法。
根据本发明提供的训练数据生成方法及设备,以来自不同域且具有相同标签信息的多个眼底图像为基础,利用权重生成融合的眼底图像,并且利用该权重生成融合的标签信息,这种生成的训练数据具备来自不同域的眼底图像的特点,用于训练机器学习模型可以调整模型对来自不同域的眼底图像的适应能力,从而提高模型的识别准确性。
根据本发明提供的机器学习模型训练方法及设备,通过使用不同域的训练数据生成更多的训练数据,可作为一种有效的数据增强手段,利用生成的训练数据和原始训练数据一同对机器学习模型进行训练可以使其适应来自不同域的眼底图像,从而表现出更高的准确性。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中来自两个域的眼底图像;
图2为本发明实施例中对眼底图像进行预处理的示意图;
图3为本发明实施例中的机器学习模型训练方法的流程图。
具体实施方式
下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明的描述中,需要说明的是,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性。此外,下面所描述的本发明不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
本发明提供一种训练数据生成方法,可通过计算机、服务器等电子设备执行,生成用于训练神经网络等机器学习模型的训练数据。
首先获取同一眼球的多个眼底图像,这些眼底图像来自不同的域(domain),具有不同的视觉效果,例如色彩特点不同、拍摄质量不同等等。域具体可以指眼底图像的来源,即眼底图像的生产者。比如通过不同厂商的眼底相机对同一人的眼球拍摄的眼底图像,即可称之为来自不同的域。
这些眼底图像具有相同的标签信息。标签信息的具体表现形式有多种,一般是由专业人员根据不同的训练任务、图像的实际特征和用途给定的信息。比如在一个实施例中,要生成用于训练分类模型的训练数据,标签信息即为用于指示眼底图像所属类别的数值,一般是通过如“0”、“1”这种数值表示类别,这些类别具体可以是眼底图像所体现出的疾病种类,比如“0”表示正常、“1”表示属于糖尿病视网膜病变这一类别等等。
在另一个实施例中,要生成用于训练回归预测模型的训练数据,标签信息即为用于指示眼底图像相关指标的数值,该指标可以是任何与眼底图像相关的人体指标。比如中国专利文件CN110135528A公开了一种基于眼底图像确定视网膜年龄的方案,其中涉及到用于表示年龄的标签,年龄即为本申请所述的相关指标;类似地,中国专利文件CN111047590A公开了一种高血压分类模型构建方法,所使用的训练数据中包括多种高血压相关信息,如收缩压、舒张压、BMI(身体质量指数)等,均属于本申请所述的相关指标。因此对于回归预测模型的训练数据,本申请所述标签信息为某种指标的数值。
在第三个实施例中,要生成用于训练图像分割模型的训练数据,所述标签信息是用于指示眼底图像中感兴趣区域的标注信息,感兴趣目标可以是眼底中的视盘、黄斑区域等人体器官,也可以是病灶区域。比如中国专利文件CN110503705A公开了一种图像标注方法,其中的手动标注区域和自动标注区域即为本申请所述的标注信息。因此对于图像分割模型的训练数据,本申请所述标签信息可以是掩模数据。需要说明的是,对于标注信息来说,本方案要求多个眼底图像的标注信息表示的是同一个感兴趣目标,但标注细节可能是不完全相同的,比如轮廓略有差别等等,这种情况是被允许的。所以应该对本申请所述多个眼底图像具有相同的标签信息做更广义的理解,不应当限定为完全相同的标注信息。
得到多个眼底图像和标签信息后,根据权重将多个眼底图像融合为一个眼底图像。眼底图像一般为多通道彩色图像,本申请所述融合可以解释为一种混淆,目的是使融合后的图像兼顾原始的各个图像的特点,权重则用于控制各个原始眼底图像对融合结果的贡献程度,融合得到的眼底图像与原始的各个眼底图像和权重信息符合某种函数关系。实际处理时可以提取各个原始眼底图像的各通道的像素值,结合相应的权重进行计算,使用计算结果还原出一个融合后的眼底图像。
同时,根据权重将多个标签信息融合为一个标签信息,作为融合的眼底图像的标签信息,融合得到的标签信息与原始的标签信息和权重信息符合某种函数关系。无论是上述表示类别或指标的数值型标签信息,还是上述表示感兴趣区域的标注型标签信息,均可以与权重相结合混淆为一个标签信息。举例来说,比如多个眼底图像的类别标签均为“1”,利用权重进行计算可得到一个0-1之间的数值作为融合后的标签信息,指标型标签与此类似;对于标注型标签,则利用权重和原始标注生成一个新的标注数据,与原始的各个标注数据均不相同。
根据本发明实施例提供的训练数据生成方法,以来自不同域且具有相同标签信息的多个眼底图像为基础,利用权重生成融合的眼底图像,并且利用该权重生成融合的标签信息,这种生成的训练数据具备来自各个域的眼底图像的特点,用于训练机器学习模型时可以调整模型对来自不同域的眼底图像的适应能力,从而提高模型的识别准确性。
结合图1所示,本发明实施例提供一种基于两个训练数据生成一个训练数据的方案,图1中位于左侧的是通过佳能公司(Canon)的眼底相机拍摄的图像(第一眼底图像,记为f1),位于右侧的是通过明达医学公司(Crystalvue)的眼底相机拍摄的图像(第二眼底图像,记为f2)。由于本申请附图为灰度图,所以表现出的色彩差异不够明显。实际图像为彩色图像,从彩色图中可以更清楚地看出左侧图像颜色更佳鲜艳和明亮,眼底区域呈桔红色;而右侧图像的眼底区域呈浅棕色并且较暗,其中的血管纹路更清楚。由于两张图像是针对同一人的同一眼球拍摄的图像,所以其中各种组织的纹路和轮廓是一致的。
这两张眼底图像具有相同的标签信息,比如表示类型的标签信息、感兴趣区域的标签信息、指标的标签信息等都是可行的,将这两个标签信息分别记为l1和l2
在本实施例中按照如下方式将两个眼底图像融合为一个眼底图像:
f′=λf1+(1-λ)f2
其中f1和f2分别表示两个眼底图像各点的像素值,λ为所述权重,f′表示融合后的眼底图像各点的像素值。
按照如下方式将两个眼底图像的标签信息融合为一个标签信息:
l′=λl1+(1-λ)l2
其中l1和l2分别表示两个眼底图像的标签信息,λ为所述权重,f′表示融合后的标签信息。
由此得到生成的训练数据,其中包括眼底图像f′及其标签信息l′。融合处理中所使用的权重λ可以是人为设定的,也可以是随机的变量。为了使生成的眼底图像f′具备f1或f2中的一个眼底图像的整体信息,同时掺杂少量来自另一眼底图像的少量信息以调整模型对该图像的适应能力,应当使权重λ比较接近0或1(不等于0或1),而不是处于中间值0.5左右。所以随机取值算法应当尽可能取到极值附近的值,经过大量的实验发现λ的取值接近0.95或者接近0.05时,生成的眼底图像和标签可以明显提高模型的性能。
作为优选的实施例,权重λ是符合β分布的随机变量,记为λ~Beta(α,α),α的取值应小于0.5,比如取值是0.2-0.01时将大概率将λ取值接近0.05或0.95。
在实际应用时,考虑到来自不同域的眼底图像的匹配问题,还可以在融合前对眼底图像进行一些预处理。在可选的实施例中,首先获取两种不同眼底相机所拍摄的同一眼球的眼底图像,这两种图像的整体尺寸可能是不同的,并且眼底区域的位置也可能是不匹配的。针对此情况可以分别在两张眼底图像中识别同一目标,例如是视盘中心、黄斑中心等等,然后基于该目标将两张眼底图像的位置对齐,再进行融合处理。
如图2所示,比如可以旋转眼底图像,将视盘(中心点)调整至设定的水平线上,图2中左侧是调整前的眼底图像、右侧为旋转调整后的眼底图像。按此方式对来自不同域的眼底图像进行调整,然后去除眼底图像的黑色背景,并将它们调整为同样的尺寸,即可得到高度匹配的多个眼底图像,由此可以提高模型的训练效率。
本发明实施例提供一种机器学习模型训练方法,可通过计算机、服务器等电子设备执行,利用上述方案生成的眼底图像及其标签信息来优化模型的性能,如图3所示本方法包括如下步骤:
S1,获取多个训练数据,各个训练数据分别包括眼底图像及其标签信息。这些图像来自真实被测者,标签信息可以是眼科医生提供的信息。多个训练数据中的眼底图像来自不同的域。
S2,利用上述训练数据生成方法,基于训练数据生成多个融合的眼底图像以及融合的标签信息作为生成的训练数据。多个训练数据可以来自三个或者更多的域,根据上述方案可知,只需要分别取来自各个域的一个眼底图像及其标签信息,即可生成一个融合的眼底图像和标签信息。
S3,利用原始的训练数据,以及生成的训练数据对机器学习模型进行训练,以使其根据输出结果与标签信息以及融合的标签信息的差异优化模型参数。
根据本发明实施例提供的机器学习模型训练方法,通过使用不同域的训练数据生成更多的训练数据,可作为一种有效的数据增强手段,利用生成的训练数据和原始训练数据一同对机器学习模型进行训练可以使其适应来自不同域的眼底图像,从而表现出更高的准确性。
在一个具体地实施例中,原始训练数据来自两个域,比如其中包括通过佳能公司的眼底相机拍摄的5万张眼底图像,以及通过明达医学公司的眼底相机拍摄的500张眼底图像。根据上述生成方案,可以生成多达2500万张融合的眼底图像及对应的标签信息。对于这种来自两个不同域的图像数量级相差较大的情况,利用上述方案生成训练数据可以明显提升数量较少的眼底图像使用效率,训练得到的模型在对于通过佳能相机拍摄的图眼底图像识别性能至少不变的情况下,面对通过明达相机拍摄的眼底图像的识别性能可得到大幅提升。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,上述实施例仅仅是为清楚地说明所作的举例,而并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。而由此所引伸出的显而易见的变化或变动仍处于本发明创造的保护范围之中。

Claims (10)

1.一种训练数据生成方法,其特征在于,包括:
获取同一眼球的多个眼底图像,所述多个眼底图像来自不同的域,且具有相同的标签信息;
根据权重将所述多个眼底图像融合为一个眼底图像;
根据所述权重将多个所述标签信息融合为一个标签信息,作为融合的眼底图像的标签信息;
其中所述多个眼底图像具体为两个眼底图像;按照如下方式将两个眼底图像融合为一个眼底图像:
f′=λf1+(1-λ)f2
其中f1和f2分别表示两个眼底图像各点的像素值,λ为所述权重,f′表示融合后的眼底图像各点的像素值;
以及其中按照如下方式将两个眼底图像的标签信息融合为一个标签信息:
l′=λl1+(1-λ)l2
其中l1和l2分别表示两个眼底图像的标签信息,λ为所述权重,l′表示融合后的标签信息。
2.根据权利要求1所述的方法,其特征在于,权重λ为随机变量,取值接近0或1。
3.根据权利要求2所述的方法,其特征在于,λ~Beta(α,α),α的取值小于0.5。
4.一种机器学习模型训练方法,其特征在于,包括:
获取多个训练数据,所述训练数据分别包括眼底图像及其标签信息,多个训练数据中的眼底图像来自多个域;
利用权利要求1-3中任一项所述的方法,基于所述多个训练数据中相同眼球的眼底图像及其标签信息生成融合的眼底图像以及融合的标签信息作为生成的训练数据;
利用所述多个训练数据和生成的训练数据对机器学习模型进行训练,以使其根据输出结果与所述标签信息以及融合的标签信息的差异优化模型参数。
5.根据权利要求1-4中任意一项所述的方法,其特征在于,所述眼底图像来自不同的域是指通过不同的眼底相机所拍摄的图像。
6.根据权利要求1-4中任意一项所述的方法,其特征在于,所述标签信息是用于指示眼底图像所属的类别的数值。
7.根据权利要求1-4中任意一项所述的方法,其特征在于,所述标签信息是用于指示眼底图像相关指标的数值。
8.根据权利要求1-4中任意一项所述的方法,其特征在于,所述标签信息是用于指示眼底图像中感兴趣区域的标注信息。
9.一种训练数据生成设备,其特征在于,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器执行如权利要求1-3、5-8中任意一项所述的训练数据生成方法。
10.一种机器学习模型训练设备,其特征在于,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器执行如权利要求4-8中任意一项所述的机器学习模型训练方法。
CN202010368307.2A 2020-04-30 2020-04-30 训练数据生成方法、模型训练方法及设备 Active CN111553436B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010368307.2A CN111553436B (zh) 2020-04-30 2020-04-30 训练数据生成方法、模型训练方法及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010368307.2A CN111553436B (zh) 2020-04-30 2020-04-30 训练数据生成方法、模型训练方法及设备

Publications (2)

Publication Number Publication Date
CN111553436A CN111553436A (zh) 2020-08-18
CN111553436B true CN111553436B (zh) 2024-03-22

Family

ID=72004382

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010368307.2A Active CN111553436B (zh) 2020-04-30 2020-04-30 训练数据生成方法、模型训练方法及设备

Country Status (1)

Country Link
CN (1) CN111553436B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112116102A (zh) * 2020-09-27 2020-12-22 张洪铭 一种域适应训练集的扩展方法及系统
CN112220448B (zh) * 2020-10-14 2022-04-22 北京鹰瞳科技发展股份有限公司 眼底相机及眼底图像合成方法
CN112102315B (zh) * 2020-11-02 2021-02-19 腾讯科技(深圳)有限公司 医学影像处理方法、装置、计算机设备和存储介质
CN112365493B (zh) * 2020-11-30 2022-04-22 北京鹰瞳科技发展股份有限公司 用于眼底图像识别模型的训练数据生成方法及设备
CN112633357A (zh) * 2020-12-18 2021-04-09 北京地平线信息技术有限公司 样本图像生成方法和装置、图像识别模型生成方法和装置
CN115082459A (zh) * 2022-08-18 2022-09-20 北京鹰瞳科技发展股份有限公司 对用于屈光度检测的检测模型进行训练的方法及相关产品

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110263755A (zh) * 2019-06-28 2019-09-20 上海鹰瞳医疗科技有限公司 眼底图像识别模型训练方法、眼底图像识别方法和设备
WO2019233421A1 (zh) * 2018-06-04 2019-12-12 京东数字科技控股有限公司 图像处理方法及装置、电子设备、存储介质
CN111047613A (zh) * 2019-12-30 2020-04-21 北京小白世纪网络科技有限公司 基于分支注意力及多模型融合的眼底血管分割方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10163241B2 (en) * 2016-12-09 2018-12-25 Microsoft Technology Licensing, Llc Automatic generation of fundus drawings

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019233421A1 (zh) * 2018-06-04 2019-12-12 京东数字科技控股有限公司 图像处理方法及装置、电子设备、存储介质
CN110263755A (zh) * 2019-06-28 2019-09-20 上海鹰瞳医疗科技有限公司 眼底图像识别模型训练方法、眼底图像识别方法和设备
CN111047613A (zh) * 2019-12-30 2020-04-21 北京小白世纪网络科技有限公司 基于分支注意力及多模型融合的眼底血管分割方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
康莉 ; 江静婉 ; 黄建军 ; 黄德渠 ; 张体江 ; .基于分步生成模型的视网膜眼底图像合成.中国体视学与图像分析.2019,(04),全文. *

Also Published As

Publication number Publication date
CN111553436A (zh) 2020-08-18

Similar Documents

Publication Publication Date Title
CN111553436B (zh) 训练数据生成方法、模型训练方法及设备
Cerentinia et al. Automatic identification of glaucoma using deep learning methods
Liu et al. Deepdrid: Diabetic retinopathy—grading and image quality estimation challenge
You et al. Fundus image enhancement method based on CycleGAN
CN111383210B (zh) 眼底图像分类模型训练方法及设备
CN110163839B (zh) 豹纹状眼底图像识别方法、模型训练方法及设备
CN109410158B (zh) 一种基于卷积神经网络的多焦点图像融合方法
Mathews et al. EfficientNet for retinal blood vessel segmentation
Sudha et al. Early Detection of Glaucoma Disease in Retinal Fundus Images Using Spatial FCM with Level Set Segmentation
CN111563910B (zh) 眼底图像分割方法及设备
Ebin et al. An approach using transfer learning to disclose diabetic retinopathy in early stage
Shaik et al. Glaucoma identification based on segmentation and fusion techniques
Diaz-Pinto et al. Retinal image synthesis for glaucoma assessment using DCGAN and VAE models
Reethika et al. Diabetic retinopathy detection using statistical features
CN110598652B (zh) 眼底数据预测方法和设备
CN111640097A (zh) 皮肤镜图像识别方法及设备
WO2020016836A1 (en) System and method for managing the quality of an image
CN112966620A (zh) 眼底图像处理方法、模型训练方法及设备
CN111539940B (zh) 超广角眼底图像生成方法及设备
CN112365493B (zh) 用于眼底图像识别模型的训练数据生成方法及设备
Lotlekar et al. Multilevel classification model for diabetic retinopathy
Darvish et al. Morphological exudate detection in retinal images using PCA-based optic disc removal
Alimanov et al. A hybrid approach for retinal image super-resolution
Mathias et al. Categorization of Diabetic Retinopathy and Identification of Characteristics to Assist Effective Diagnosis
Kumari et al. Automated process for retinal image segmentation and classification via deep learning based cnn model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant