CN110021052A - 用于生成眼底图像生成模型的方法和装置 - Google Patents
用于生成眼底图像生成模型的方法和装置 Download PDFInfo
- Publication number
- CN110021052A CN110021052A CN201910291160.9A CN201910291160A CN110021052A CN 110021052 A CN110021052 A CN 110021052A CN 201910291160 A CN201910291160 A CN 201910291160A CN 110021052 A CN110021052 A CN 110021052A
- Authority
- CN
- China
- Prior art keywords
- eye fundus
- network
- fundus image
- image
- training sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/001—Texturing; Colouring; Generation of texture or colour
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本公开的实施例公开了用于生成眼底图像生成模型的方法和装置。该方法的一具体实施方式包括:获取训练样本集合;获取初始生成对抗网络;从训练样本集合中选取训练样本,以及执行以下训练步骤:将选取的训练样本的第一类样本眼底图像输入初始生成对抗网络,得到第一输出眼底图像和第二输出眼底图像;分析确定第一判别损失值、第二判别损失值和图像差异;分析确定训练样本的总损失值,以及将训练样本的总损失值与目标值进行比较;根据比较结果确定第一生成网络是否训练完成;响应于确定第一生成网络训练完成,将第一生成网络确定为眼底图像生成模型。该实施方式有助于提高利用眼底图像生成模型生成眼底图像的真实度。
Description
技术领域
本公开的实施例涉及计算机技术领域,具体涉及用于生成眼底图像生成模型的方法和装置。
背景技术
随着科技的发展,计算机图像处理技术逐渐应用到越来越多的领域。而对于眼底图像的处理,目前期待有通用的图像处理方法。
在眼底图像的拍摄过程中,可能会有外部环境光进入成像区域,从而造成漏光现象,在眼底图像中出现大面积的泛白区域。
发明内容
本公开的实施例提出了用于生成眼底图像生成模型的方法和装置,以及用于生成眼底图像的方法和装置。
第一方面,本公开的实施例提供了一种用于生成眼底图像生成模型的方法,该方法包括:获取训练样本集合,其中,训练样本包括含有预定类型图像区域的第一类样本眼底图像和不含有预定类型图像区域的第二类样本眼底图像;获取初始生成对抗网络,其中初始生成对抗网络包括第一生成网络、第二生成网络、第一判别网络和第二判别网络;从训练样本集合中选取训练样本,以及执行以下训练步骤:将选取的训练样本的第一类样本眼底图像输入第一生成网络,得到不含有预定类型图像区域的第一输出眼底图像;将第一输出眼底图像输入第二生成网络,得到含有预定类型图像区域的第二输出眼底图像;将第一输出眼底图像和选取的训练样本的第二类样本眼底图像输入第一判别网络,得到第一判别损失值;将第二输出眼底图像和选取的训练样本的第一类样本眼底图像输入第二判别网络,得到第二判别损失值;对第二输出眼底图像与选取的训练样本的第一类样本眼底图像进行图像差异分析,确定图像差异;根据预设第一判别权重、预设第二判别权重和预设图像重构权重,将第一判别损失值、第二判别损失值和图像差异的加权结果作为训练样本的总损失值,以及将训练样本的总损失值与目标值进行比较;根据比较结果确定第一生成网络是否训练完成;响应于确定第一生成网络训练完成,将第一生成网络确定为眼底图像生成模型。
在一些实施例中,该方法还包括:响应于确定第一生成网络未训练完成,调整初始生成对抗网络中的相关参数,以及从训练样本集中重新选取训练样本,使用调整后的初始生成对抗网络作为初始生成对抗网络,再次执行上述训练步骤。
在一些实施例中,第一生成网络包括第一编码网络和第一解码网络;第二生成网络包括第二编码网络和第二解码网络。
第二方面,本公开的实施例提供了一种用于生成眼底图像的方法,该方法包括:获取含有预定类型图像区域的眼底图像;将该眼底图像输入眼底图像生成模型,生成不含有预定类型图像区域的眼底图像,其中,眼底图像生成模型是根据上述第一方面中任一实施例描述的方法生成的。
在一些实施例中,该方法还包括:将不含有预定类型图像区域的眼底图像发送给目标显示设备,以及控制目标显示设备对不含有预定类型图像区域的眼底图像进行显示。
第三方面,本公开的实施例提供了一种用于生成眼底图像生成模型的装置,该装置包括:第一获取单元,被配置成获取训练样本集合,其中,训练样本包括含有预定类型图像区域的第一类样本眼底图像和不含有预定类型图像区域的第二类样本眼底图像;第二获取单元,被配置成获取初始生成对抗网络,其中初始生成对抗网络包括第一生成网络、第二生成网络、第一判别网络和第二判别网络;训练单元,被配置成从训练样本集合中选取训练样本,以及执行以下训练步骤:将选取的训练样本的第一类样本眼底图像输入第一生成网络,得到不含有预定类型图像区域的第一输出眼底图像;将第一输出眼底图像输入第二生成网络,得到含有预定类型图像区域的第二输出眼底图像;将第一输出眼底图像和选取的训练样本的第二类样本眼底图像输入第一判别网络,得到第一判别损失值;将第二输出眼底图像和选取的训练样本的第一类样本眼底图像输入第二判别网络,得到第二判别损失值;对第二输出眼底图像与选取的训练样本的第一类样本眼底图像进行图像差异分析,确定图像差异;根据预设第一判别权重、预设第二判别权重和预设图像重构权重,将第一判别损失值、第二判别损失值和图像差异的加权结果作为训练样本的总损失值,以及将训练样本的总损失值与目标值进行比较;根据比较结果确定第一生成网络是否训练完成;响应于确定第一生成网络训练完成,将第一生成网络确定为眼底图像生成模型。
在一些实施例中,该装置还包括调整单元,被配置成响应于确定第一生成网络未训练完成,调整初始生成对抗网络中的相关参数,以及从训练样本集中重新选取训练样本,使用调整后的初始生成对抗网络作为初始生成对抗网络,再次执行所述训练步骤。
在一些实施例中,第一生成网络包括第一编码网络和第一解码网络;第二生成网络包括第二编码网络和第二解码网络。
第四方面,本公开的实施例提供了一种用于生成眼底图像的装置,该装置包括:获取单元,被配置成获取含有预定类型图像区域的眼底图像;生成单元,被配置成将该眼底图像输入眼底图像生成模型,生成不含有预定类型图像区域的眼底图像,其中,眼底图像生成模型是根据上述第一方面中任一实施例描述的方法生成的。
在一些实施例中,该装置还包括控制单元,被配置成将不含有预定类型图像区域的眼底图像发送给目标显示设备,以及控制目标显示设备对不含有预定类型图像区域的眼底图像进行显示。
第五方面,本公开的实施例提供了一种电子设备,该电子设备包括:一个或多个处理器;存储装置,其上存储有一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面或第二方面中任一实施例描述的方法。
第六方面,本公开的实施例提供了一种计算机可读介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面或第二方面中任一实施例描述的方法。
本公开的实施例提供的用于生成眼底图像生成模型的方法和装置,通过获取训练样本集合,从训练样本集合中选取训练样本进行第一生成网络的训练。其中,训练样本包括含有预定类型图像区域的第一类样本眼底图像和不含有预定类型图像区域的第二类样本眼底图像。首先,将选取的训练样本的第一类样本眼底图像输入初始生成对抗网络,得到第一输出眼底图像和第二输出眼底图像。然后分析确定第一判别损失值、第二判别损失值和图像差异,接着分析确定训练样本的总损失值,并将训练样本的总损失值与目标值进行比较,根据比较结果确定第一生成网络是否训练完成。如果确定第一生成网络训练完成,将第一生成网络确定为眼底图像生成模型。该实施方式有助于提高利用眼底图像生成模型生成眼底图像的真实度。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显:
图1是本公开的一个实施例可以应用于其中的示例性系统架构图;
图2是根据本公开的实施例的用于生成眼底图像生成模型的方法的一个实施例的流程图;
图3是根据本公开的眼底图像生成模型训练方法的一个实施例的流程图;
图4是根据本公开的实施例的用于生成眼底图像生成模型的方法的一个应用场景的示意图;
图5是根据本公开的实施例的用于生成眼底图像的方法的一个实施例的流程图;
图6是根据本公开的实施例的用于生成眼底图像生成模型的装置的一个实施例的结构示意图;
图7是根据本公开的实施例的用于生成眼底图像的装置的一个实施例的结构示意图;
图8是适于用来实现本公开的实施例的电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关公开,而非对该公开的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关公开相关的部分。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
图1示出了可以应用本公开的实施例的用于生成眼底图像生成模型的方法或用于生成眼底图像生成模型的装置,以及用于生成眼底图像的方法或用于生成眼底图像装置的示例性系统架构100。
如图1所示,系统架构100可以包括终端101、102,网络103、数据库服务器104和服务器105。网络103用以在终端101、102,数据库服务器104与服务器105之间提供通信链路的介质。网络103可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户110可以使用终端101、102通过网络103与服务器105进行交互,以接收或发送消息等。终端101、102上可以安装有各种客户端应用,例如模型训练类应用、图像处理类应用、购物类应用、支付类应用、网页浏览器和即时通讯工具等。
这里的终端101、102可以是硬件,也可以是软件。当终端101、102为硬件时,可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、膝上型便携计算机和台式计算机等等。当终端101、102为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
数据库服务器104可以是提供各种服务的数据库服务器。例如数据库服务器中可以存储有训练样本集合。训练样本集合中包含有大量的训练样本。其中,训练样本可以包括含有预定类型图像区域的第一类样本眼底图像和不含有预定类型图像区域的第二类样本眼底图像。这样,用户110也可以通过终端101、102,从数据库服务器104所存储的训练样本集合中选取训练样本。
服务器105也可以是提供各种服务的服务器,例如对终端101、102上显示的各种应用提供支持的后台服务器。后台服务器可以利用终端101、102发送的训练样本集合中的训练样本,对第一生成网络进行训练,并可以将训练结果(如生成的眼底图像生成模型)发送给终端101、102。这样,用户可以应用生成的眼底图像生成模型生成不含有预定类型图像区域的眼底图像。
这里的数据库服务器104和服务器105同样可以是硬件,也可以是软件。当它们为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当它们为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
需要说明的是,本公开实施例所提供的用于生成眼底图像生成模型的方法或用于生成眼底图像的方法一般由服务器105执行。相应地,用于生成眼底图像生成模型的装置或用于生成眼底图像的装置一般也设置于服务器105中。
需要指出的是,在服务器105可以实现数据库服务器104的相关功能的情况下,系统架构100中可以不设置数据库服务器104。
应该理解,图1中的终端、网络、数据库服务器和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端、网络、数据库服务器和服务器。
继续参考图2,示出了根据本公开的用于生成眼底图像生成模型的方法的一个实施例的流程200。该用于生成眼底图像生成模型的方法,包括以下步骤:
步骤201,获取训练样本集合。
在本实施例中,用于生成眼底图像生成模型的方法的执行主体(例如图1所示的服务器105)可以通过多种方式来获取训练样本集合。例如,执行主体可以通过有线连接方式或无线连接方式,从数据库服务器(例如图1所示的数据库服务器104)中获取存储于其中的现有的训练样本集合。再例如,用户可以通过终端(例如图1所示的终端101、102)来收集训练样本。这样,执行主体可以接收终端所收集的训练样本,并将这些训练样本存储在本地,从而生成训练样本集合。
眼底图像的获取原理,是在黑暗封闭的环境中,对眼底区域进行瞬间曝光,然后收集反射光进行成像。如果在眼底图像成像过程中有外部环境光进入成像区域,会导致拍摄所得的眼底图像中有10%~35%图像区域的图像颜色接近于白色。在本实施例中,将眼底图像中的10%~35%的图像颜色接近与白色的图像区域作为预定类型图像区域。将图像中含有预定类型图像区域的眼底图像确定为含有预定类型图像区域的第一类样本眼底图像。可以将图像中不含有预定类型图像区域的眼底图像确定为不含有预定类型图像区域的第二类样本眼底图像。
在本实施例中,训练样本集合中可以包括至少一个训练样本。其中,训练样本可以包括含有预定类型图像区域的第一类样本眼底图像和不含有预定类型图像区域的第二类样本眼底图像。
在本实施例中,训练样本集合中的训练样本的含有预定类型图像区域的第一类样本眼底图像与训练样本的不含有预定类型图像区域的第二类样本眼底图像之间可以不存在图像配对关系。该第一类样本眼底图像与该第二类样本图像之间可以不存在图像配对关系可以是以下任一种情况:该第一类样本眼底图像与该第二类样本图像的数据来源不同、该第一类样本眼底图像与该第二类样本图像所针对的采集个体不同。例如,该第一类样本眼底图像与该第二类样本眼底图像可以为以下任一项:取自相同终端的不同数据集的第一类样本眼底图像与第二类样本眼底图像、取自不同终端的数据集的第一类样本眼底图像与第二类样本眼底图像、取自相同终端的针对不同个体所采集的第一类样本眼底图像与第二类样本眼底图像、取自不相同终端的针对不同个体所采集的第一类样本眼底图像与第二类样本眼底图像。
在本实施例中,眼底图像可以包括彩色图像(如RGB(Red、Green、Blue,红绿蓝)照片)和/或灰度图像等等。该图像的格式在本公开中并不限制,如jpg(Joint Photo graphicExperts Group,一种图片格式)、BMP(Bitmap,图像文件格式)或RAW(RAW Image Format,无损压缩格式)等格式,只要可以被执行主体读取识别即可。
步骤202,获取初始生成对抗网络。
在本实施例中,上述执行主体可以从本地或从远程获取初始生成对抗网络。其中,初始生成对抗网络可以包括第一生成网络、第二生成网络、第一判别网络和第二判别网络。第一生成网络可以利用输入的含有预定类型图像区域的眼底图像,生成不含有预定类型图像区域的眼底图像。第二生成网络可以利用输入的不含有预定类型图像区域的眼底图像,生成含有预定类型图像区域的眼底图像。这里,第二生成网络的输入可以是第一生成网络的输出。第一判别网络可以用于确定第一生成网络输出的不含有预定类型图像区域的眼底图像是否为真实的不含有预定类型图像区域的眼底图像。第二判别网络可以用于确定第二生成网络输出的含有预定类型图像区域的眼底图像是否为真实的含有预定类型图像区域的眼底图像。
第一生成网络和第二生成网络可以包括但不限于以下至少一项:深度神经网络模型、隐马尔可夫模型(Hidden Markov Model,HMM)、朴素贝叶斯模型、高斯混合模型。第一判别网络和第二判别网络可以包括但不限于以下至少一项:线性回归模型、线性判别分析、支持向量机(Support Vector Machine,SVM)、神经网络。应当理解,初始生成对抗网络可以是初始化参数后,未经训练的生成对抗网络,也可以是预先训练过的生成对抗网络。
步骤203,从训练样本集合中选取训练样本,执行训练步骤。
在本实施例中,上述执行主体可以从步骤201中获取的训练样本集合中选取训练样本,以及执行如图3所示的步骤301至步骤308的训练步骤。其中,训练样本的选取方式和选取数量在本公开中并不限制。例如上述执行主体可以随机选取至少一个训练样本。
更具体地,训练步骤包括如下步骤:
步骤301,将选取的训练样本的第一类样本眼底图像输入第一生成网络,得到不含有预定类型图像区域的第一输出眼底图像。
在本实施例中,上述执行主体可以将步骤203中选取的训练样本的第一类样本眼底图像输入第一生成网络,得到不含有预定类型图像区域的第一输出眼底图像。该第一输出眼底图像与选取的训练样本的第二类样本眼底图像越相近,表明第一生成网络的图像生成效果越好。
在本实施例的一些可选的实现方式中,第一生成网络包括第一编码网络和第一解码网络。第一编码网可以将图像进行编码,得到图像的潜在空间表征。第一解码网络可以将潜在空间表征进行解码,得到图像数据。上述执行主体将步骤203中选取的训练样本的第一类样本眼底图像输入第一生成网络。第一生成网络中的第一编码网络可以将输入的该第一类样本眼底图像进行编码,得到该第一类样本眼底图像的潜在空间表征。第一生成网络中的第一解码网络可以对该潜在空间表征进行解码,生成与该第一类样本眼底图像对应的不含有预定类型图像区域的第一输出眼底图像。该第一输出眼底图像与选取的训练样本的第二类样本眼底图像越相近,表明第一生成网络的图像生成效果越好。
步骤302,将第一输出眼底图像输入第二生成网络,得到含有预定类型图像区域的第二输出眼底图像。
在本实施例中,上述执行主体可以将步骤301中第一生成网络输出的第一输出眼底图像输入第二生成网络,得到含有预定类型图像区域的第二输出眼底图像。该第二输出眼底图像与选取的训练样本的第一类样本眼底图像越相近,表明第二生成网络的图像生成效果越好。
在本实施例的一些可选的实现方式中,第二生成网络可以包括第二编码网络和第二解码网络。第二编码网可以将图像进行编码,得到图像的潜在空间表征。第二解码网络可以将潜在空间表征进行解码,得到图像数据。上述执行主体可以将步骤301中第一生成网络输出的第一输出眼底图像输入第二生成网络。第二生成网络中的第二编码网络可以将输入的该第一输出眼底图像进行编码,得到该第一输出眼底图像的潜在空间表征。第二生成网络中的第二解码网络可以对该潜在空间表征进行解码,生成与该第一输出眼底图像对应的含有预定类型图像区域的第二输出眼底图像。该第二输出眼底图像与选取的训练样本的第一类样本眼底图像越相近,表明第二生成网络的图像生成效果越好。
步骤303,将第一输出眼底图像和选取的训练样本的第二类样本眼底图像输入第一判别网络,得到第一判别损失值。
在本实施例中,上述执行主体可以将步骤301中第一生成网络输出的第一输出眼底图像和选取的训练样本的第二类样本眼底图像输入第一判别网络。判别网络可以输出该第一输出眼底图像为真实的不含有预定类型图像区域的眼底图像的概率,以及该第二类样本眼底图像为真实的不含有预定类型图像区域的眼底图像的概率。上述执行主体基于该第一输出眼底图像对应的概率、该第二类样本眼底图像对应的概率,以及第一判别网络的损失函数,确定第一判别损失值。其中,第一判别网络的损失函数可以为 可以有多种形式,其中一个形式可以为:
其中,F表示第一生成网络;θF表示第一生成网络的网络参数;DF表示第一判别网络;表示第一判别网络的网络参数;表示第一生成网络和第一判别网络组成的生成对抗网络的判别损失函数;xt表示真实图像的像素矩阵;xs表示生成图像的像素矩阵;F(xs)表示第一生成网络的输出;DF(xt)表示xt输入到第一判别网络后的输出;DF(F(xs))表示F(xs)输入到第一判别网络后的输出。第一判别网络若判定输入的图像是真实图像,则可以输出1;若判定不是真实图像,则可以输出0。需要说明的是,第一判别网络也可以输出其他预先设置的信息,不限于数值1和0。在本实施例中,该第二类样本眼底图像为真实图像,该第一输出眼底图像为第一生成网络的输出。
步骤304,将第二输出眼底图像和选取的训练样本的第一类样本眼底图像输入第二判别网络,得到第二判别损失值。
在本实施例中,上述执行主体可以将步骤302中第二生成网络输出的第二输出眼底图像和选取的训练样本的第一类样本眼底图像输入第二判别网络。判别网络可以输出该第二输出眼底图像为真实的含有预定类型图像区域的眼底图像的概率,以及该第一类样本眼底图像为真实的含有预定类型图像区域的眼底图像的概率。上述执行主体基于该第二输出眼底图像对应的概率、该第一类样本眼底图像对应的概率,以及第二判别网络的损失函数,确定第二判别损失值。第二判别网络的损失函数可以为 可以有多种形式,其中一个形式可以为:
其中,G表示第二生成网络;θG表示第二生成网络的网络参数;DG表示第二判别网络;表示第二判别网络的网络参数;表示第二生成网络和第二判别网络组成的生成对抗网络的判别损失函数;xt表示真实图像的像素矩阵;xs表示生成图像的像素矩阵;G(xs)表示第二生成网络的输出;DG(xt)表示xt输入到第二判别网络后的输出;DG(G(xs))表示G(xs)输入到第二判别网络后的输出。第二判别网络若判定输入的图像是真实图像,则可以输出1;若判定不是真实图像,则可以输出0。需要说明的是,第二判别网络也可以输出其他预先设置的信息,不限于数值1和0。在本实施例中,该第一类样本眼底图像为真实图像,该第二输出眼底图像为第二生成网络的输出。
步骤305,对第二输出眼底图像与选取的训练样本的第一类样本眼底图像进行图像差异分析,确定图像差异。
在本实施例中,上述执行主体可以基于步骤302中第二生成网络输出的第二输出眼底图像、选取的训练样本的第一类样本眼底图像,以及图像差异函数,确定图像差异。这里的图像差异函数可以为Lrec(θF,θG)。Lrec(θF,θG)可以有多种形式,其中一个形式可以为:
Lrec(θF,θG)=||xt-G(F(xs))|| (3)
其中,F表示第一生成网络;θF表示第一生成网络的网络参数;G表示第二生成网络;θG表示第二生成网络的网络参数;xt表示真实图像的像素矩阵;xs表示生成图像的像素矩阵;Lrec(θF,θG)表示图像差异损失函数;G(F(xs))表示将第一生成网络的输出F(xs)输入第二生成网络所得到的输出。在本实施例中,该第一类样本眼底图像为真实图像,该第二输出眼底图像为将第一输出眼底图像输入第二生成网络所得到的输出。
步骤306,根据预设第一判别权重、预设第二判别权重和预设图像重构权重,将第一判别损失值、第二判别损失值和图像差异的加权结果作为训练样本的总损失值,以及将训练样本的总损失值与目标值进行比较。
在本实施例中,上述执行主体根据预设第一判别权重、预设第二判别权重和预设图像重构权重,可以将步骤303得到的第一判别损失值、步骤304得到的第二判别损失值和步骤305得到的图像差异的加权结果作为训练样本的总损失值,以及该总损失值与目标指进行比较。训练样本总损失函数可以为 可以有多种形式,其中一种形式可以为:
其中,θF表示第一生成网络的网络参数;表示第一判别网络的网络参数;θG表示第二生成网络的网络参数;表示第二判别网络的网络参数;γ表示预设第一判别权重;α表示预设第二判别权重;β表示预设图像重构权重;表示第一判别损失;表示第二判别损失;Lrec(θF,θG)表示表示图像差异。
在本实施例中,上述预设第一判别权重、预设第二判别权重和预设图像重构权重可以根据实际情况来设置。而目标值一般可以用于表示预测值与期望值之间的不一致程度的理想情况。也就是说,当总损失值达到目标值时,可以认为预测值接近或近似期望值。目标值可以根据实际需求来设置。
需要说明的是,若步骤203中选取有多个(至少两个)训练样本,则执行主体可以将每个训练样本的总损失值分别与目标值进行比较。从而可以确定每个训练样本的总损失值是否达到目标值。
步骤307,根据比较结果确定第一生成网络是否训练完成。
在本实施例中,根据步骤306中的比较结果,执行主体可以确定第一生成网络是否训练完成。作为示例,如果步骤203中选取有多个训练样本,那么在每个训练样本的总损失值均达到目标值的情况下,执行主体可以确定第一生成网络训练完成。再例如,执行主体可以统计总损失值达到目标值的训练样本占选取的训练样本的比例。且在该比例达到预设训练样本比例(如95%),可以确定第一生成网络训练完成。如果执行主体确定第一生成网络已训练完成,则可以继续执行步骤308。
在本实施例的一些可选的实现方式中,如果上述执行主体确定第一生成网络未训练完成,则可以调整初始生成对抗网络中的相关参数。例如采用反向传播技术修改初始生成对抗网络中各卷积层中的权重。从训练样本集合中重新选取训练样本,从而可以继续执行上述训练步骤301至训练步骤307。
需要说明的是,这里的选取方式在本公开中也不限制。例如在训练样本集合中有大量训练样本的情况下,执行主体可以从中选取未被选取过的训练样本。
步骤308,响应于确定第一生成网络训练完成,将第一生成网络确定为眼底图像生成模型。
在本实施例中,若执行主体确定第一生成网络训练完成,则可以将该第一生成网络(即训练完成的第一生成网络)作为眼底图像生成模型。
进一步参见图4,图4是根据本实施例的用于生成眼底图像生成模型的方法的一个应用场景的示意图。在图4的应用场景中,用户所使用的终端41上可以安装有模型训练类应用。当用户打开该应用,并上传训练样本集合或训练样本集合的存储路径后,对该应用提供后台支持的服务器42可以运行用于生成眼底图像生成模型的方法,包括:
首先,可以获取训练样本集合。其中,训练样本集合中的训练样本可以包括含有预定类型图像区域的第一类样本眼底图像4201和不含有预定类型图像区域的第二类样本眼底图像4202。之后,服务器42可以从训练样本集合中选取训练样本,以及执行以下训练步骤:将选取的训练样本的第一类样本眼底图像4201输入第一生成网络4210,得到不含有预定类型图像区域的第一输出眼底图像4203;将第一输出眼底图像4203输入第二生成网络4211,得到含有预定类型图像区域的第二输出眼底图像4204;将第一输出眼底图像4203和选取的训练样本的第二类样本眼底图像4202输入第一判别网络4212,得到第一判别损失值4205;将第二输出眼底图像4204和选取的训练样本的第一类样本眼底图像4201输入第二判别网络4213,得到第二判别损失值4206;将第二输出眼底图像4204与选取的训练样本的第一类样本眼底图像4201进行图像差异分析4214,确定图像差异4207;根据预设第一判别权重、预设第二判别权重和预设图像重构权重,将第一判别损失值4205、第二判别损失值4206和图像差异4207的加权结果作为训练样本的总损失值4208,以及将该总损失值4208与目标值进行比较;根据比较结果确定第一生成网络是否训练完成;响应于确定第一生成网络训练完成,将第一生成网络确定为眼底图像生成模型4209。
此时,服务器42还可以向终端41发送用于指示模型训练完成的提示信息。该提示信息可以是语音和/或文字信息。这样,用户可以在预设的存储位置获取到眼底图像生成模型。
本实施例中用于生成眼底图像生成模型的方法,通过获取训练样本集合,从训练样本集合中选取训练样本进行第一生成网络的训练。其中训练样本包括含有预定类型图像区域的第一类样本眼底图像和不含有预定类型图像区域的第二类样本眼底图像。首先,可以将选取的训练样本的第一类样本眼底图像输入初始生成对抗网络,得到第一输出眼底图像和第二输出眼底图像。然后分析确定第一判别损失值、第二判别损失值和图像差异,接着分析确定训练样本的总损失值。之后,将训练样本的总损失值与目标值进行比较,根据比较结果确定第一生成网络是否训练完成。如果确定第一生成网络训练完成,将第一生成网络确定为眼底图像生成模型。该实施方式有助于提高利用眼底图像生成模型生成眼底图像的真实度。
请参见图5,其示出了本公开提供的用于生成眼底图像的方法的一个实施例的流程500。该用于生成眼底图像的方法可以包括以下步骤:
步骤501,获取含有预定类型图像区域的眼底图像。
在本实施例中,用于生成眼底图像的方法的执行主体(例如图1所示的服务器105)可以通过多种方式来获取含有预定类型图像区域的眼底图像。例如,执行主体可以通过有线连接方式或无线连接方式,从数据库服务器(例如图1所示的数据库服务器104)中获取存储于其中的含有预定类型图像区域的眼底图像。再例如,执行主体也可以接收终端(例如图1所示的终端101、102)或其他设备采集的含有预定类型图像区域的眼底图像。
步骤502,将该眼底图像输入眼底图像生成模型,生成不含有预定类型图像区域的眼底图像。
在本实施例中,执行主体可以将步骤501中获取的含有预定类型图像区域的眼底图像输入眼底图像生成模型中,生成不含有预定类型图像区域的眼底图像。
在本实施例中,眼底图像生成模型可以是采用如上述图2实施例所描述的方法而生成的。具体生成过程可以参见图2实施例的相关描述,在此不再赘述。
需要说明的是,本实施例用于生成眼底图像的方法可以用于测试上述各实施例所生成的眼底图像生成模型。进而根据测试结果可以不断地优化眼底图像生成模型。该方法也可以是上述各实施例所生成的眼底图像生成模型的实际应用方法。采用上述各实施例所生成的眼底图像生成模型,进行眼底图像生成,有助于提高所生成眼底图像的真实度。
在本实施例的一些可选的实现方式中,该方法还包括将不含有预定类型图像区域的眼底图像发送给目标显示设备,以及控制目标显示设备对不含有预定类型图像区域的眼底图像进行显示。
在该可选的实现方式中,目标显示设备可以为与上述执行主体通信连接的、用于显示上述执行主体发送的图像的设备(例如图1所示的终端101、102)。实践中,上述执行主体可以向目标显示设备发送控制信号,进而控制目标显示设备对不含有预定类型图像区域的眼底图像进行显示。
含有预定类型图像区域的眼底图像具有图像对比度低和可读性差的特点。用户很难从这类眼底图像中获得有用的图像信息。上述执行主体若不加处理地将这类图像直接发送给目标显示设备进行显示,一方面会造成图像传输流量的浪费,另一方面也会造成显示资源的浪费。在该可选的实现方式中,步骤502可以去除含有预定类型图像区域的眼底图像的预定类型图像区域,提高了图像的对比度和可读性。上述执行主体可以将步骤502中生成的不含有预定类型图像区域的眼底图像发送给目标显示设备,以及控制目标显示设备对该不含有预定类型图像区域的眼底图像进行显示。可以减小图像传输流量和显示资源的消耗。进一步地,目标显示设备的用户可以将该不含有预定类型图像区域的眼底图像作为不含有预定类型图像区域的第二类眼底样本图像用于之后的眼底生成模型训练。以及还可以将该不含有预定类型图像区域的眼底图像用于其他眼底图像处理模型的训练,相较于现有技术中的直接舍弃含有预定类型图像区域的眼底图像,提高了眼底图像的利用率。
请参见图6,作为对上述各图所示方法的实现,本公开提供了一种用于生成眼底图像生成模型的装置的一个实施例。该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,本实施例的用于生成眼底图像生成模型的装置600可以包括:第一获取单元601,被配置成获取训练样本集合,其中,训练样本包括含有预定类型图像区域的第一类样本眼底图像和不含有预定类型图像区域的第二类样本眼底图像;第二获取单元602,被配置成获取初始生成对抗网络,其中初始生成对抗网络包括第一生成网络、第二生成网络、第一判别网络和第二判别网络;训练单元603,被配置成从训练样本集合中选取训练样本,以及执行以下训练步骤:将选取的训练样本的第一类样本眼底图像输入第一生成网络,得到不含有预定类型图像区域的第一输出眼底图像;将第一输出眼底图像输入第二生成网络,得到含有预定类型图像区域的第二输出眼底图像;将第一输出眼底图像和选取的训练样本的第二类样本眼底图像输入第一判别网络,得到第一判别损失值;将第二输出眼底图像和选取的训练样本的第一类样本眼底图像输入第二判别网络,得到第二判别损失值;对第二输出眼底图像与选取的训练样本的第一类样本眼底图像进行图像差异分析,确定图像差异;根据预设第一判别权重、预设第二判别权重和预设图像重构权重,将第一判别损失值、第二判别损失值和图像差异的加权结果作为训练样本的总损失值,以及将训练样本的总损失值与目标值进行比较;根据比较结果确定第一生成网络是否训练完成;响应于确定第一生成网络训练完成,将第一生成网络确定为眼底图像生成模型。
在本实施例的一些可选的实现方式中,该装置还可以包括:调整单元(图中未示出),调整单元被配置成响应于确定第一生成网络未训练完成,调整初始生成对抗网络中的相关参数,以及从训练样本集中重新选取训练样本,使用调整后的初始生成对抗网络作为初始生成对抗网络,再次执行上述训练步骤。
可以理解的是,该装置600中记载的诸单元与参考图2描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于装置600及其中包含的单元,在此不再赘述。
请参见图7,作为对上述图5所示方法的实现,本公开提供了一种用于生成眼底图像的装置的一个实施例。该装置实施例与图5所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图7所示,本实施例的用于生成眼底图像的装置700可以包括:获取单元701,被配置成获取含有预定类型图像区域的眼底图像;生成单元702,被配置成将含有预定类型图像区域的眼底图像输入采用如上述图2实施例所描述的方法生成的眼底图像生成模型中,生成不含有预定类型图像区域的眼底图像。
在本实施例的一些可选的实现方式中,该装置700还可以包括:控制单元(图中未示出),控制单元被配置成将生成单元702所生成的不含有预定类型图像区域的眼底图像发送给目标显示设备,以及控制目标显示设备对该不含有预定类型图像区域的眼底图像进行显示。
可以理解的是,该装置700中记载的诸单元与参考图5描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于装置700及其中包含的单元,在此不再赘述。
下面参考图8,其示出了适于用来实现本公开的实施例的电子设备(例如图1中的服务器)800的结构示意图。本公开的实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图8示出的电子设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图8所示,电子设备800可以包括处理装置(例如中央处理器、图形处理器等)801,其可以根据存储在只读存储器(ROM)802中的程序或者从存储装置808加载到随机访问存储器(RAM)803中的程序而执行各种适当的动作和处理。在RAM 803中,还存储有电子设备800操作所需的各种程序和数据。处理装置801、ROM 802以及RAM803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
通常,以下装置可以连接至I/O接口805:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置806;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置807;包括例如磁带、硬盘等的存储装置808;以及通信装置809。通信装置809可以允许电子设备800与其他设备进行无线或有线通信以交换数据。虽然图8示出了具有各种装置的电子设备800,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图8中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置809从网络上被下载和安装,或者从存储装置808被安装,或者从ROM 802被安装。在该计算机程序被处理装置801执行时,执行本公开的实施例的方法中限定的上述功能。
需要说明的是,本公开的实施例的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取训练样本集合,其中,训练样本包括含有预定类型图像区域的样本眼底图像和不含有预定类型图像区域的样本眼底图像;获取初始生成对抗网络,其中初始生成对抗网络包括第一生成网络、第二生成网络、第一判别网络和第二判别网络;从训练样本集合中选取训练样本,以及执行以下训练步骤:将选取的训练样本的第一类样本眼底图像输入第一生成网络,得到不含有预定类型图像区域的第一输出眼底图像;将第一输出眼底图像输入第二生成网络,得到含有预定类型图像区域的第二输出眼底图像;将第一输出眼底图像和选取的训练样本的第二类样本眼底图像输入第一判别网络,得到第一判别损失值;将第二输出眼底图像和选取的训练样本的第一类样本眼底图像输入第二判别网络,得到第二判别损失值;对第二输出眼底图像与选取的训练样本的第一类样本眼底图像进行图像差异分析,确定图像差异;根据预设第一判别权重、预设第二判别权重和预设图像重构权重,将第一判别损失值、第二判别损失值和图像差异的加权结果作为训练样本的总损失值,以及将训练样本的总损失值与目标值进行比较;根据比较结果确定第一生成网络是否训练完成;响应于确定第一生成网络训练完成,将第一生成网络确定为眼底图像生成模型。
此外,当上述一个或者多个程序被该电子设备执行时,还可以使得该电子设备:获取含有预定类型图像区域的眼底图像,将该眼底图像输入眼底图像生成模型,生成不含有预定类型图像区域的眼底图像。其中,眼底图像生成模型是根据权上述第一方面中任一实施例描述的方法生成的。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的实施例的操作的计算机程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括第一获取单元、第二获取单元、训练单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取训练样本集合的单元”。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (12)
1.一种用于生成眼底图像生成模型的方法,包括:
获取训练样本集合,其中,训练样本包括含有预定类型图像区域的第一类样本眼底图像和不含有预定类型图像区域的第二类样本眼底图像;
获取初始生成对抗网络,其中,所述初始生成对抗网络包括第一生成网络、第二生成网络、第一判别网络和第二判别网络;
从所述训练样本集合中选取训练样本,以及执行以下训练步骤:将选取的训练样本的第一类样本眼底图像输入第一生成网络,得到不含有预定类型图像区域的第一输出眼底图像;将第一输出眼底图像输入第二生成网络,得到含有预定类型图像区域的第二输出眼底图像;将第一输出眼底图像和选取的训练样本的第二类样本眼底图像输入第一判别网络,得到第一判别损失值;将第二输出眼底图像和选取的训练样本的第一类样本眼底图像输入第二判别网络,得到第二判别损失值;对第二输出眼底图像与选取的训练样本的第一类样本眼底图像进行图像差异分析,确定图像差异;根据预设第一判别权重、预设第二判别权重和预设图像重构权重,将第一判别损失值、第二判别损失值和图像差异的加权结果作为训练样本的总损失值,以及将训练样本的总损失值与目标值进行比较;根据比较结果确定第一生成网络是否训练完成;响应于确定第一生成网络训练完成,将第一生成网络确定为眼底图像生成模型。
2.根据权利要求1所述的方法,其中,所述方法还包括:
响应于确定第一生成网络未训练完成,调整初始生成对抗网络中的相关参数,以及从所述训练样本集中重新选取训练样本,使用调整后的初始生成对抗网络作为初始生成对抗网络,再次执行所述训练步骤。
3.根据权利要求1所述的方法,其中,所述第一生成网络包括第一编码网络和第一解码网络;所述第二生成网络包括第二编码网络和第二解码网络。
4.一种用于生成眼底图像的方法,包括:
获取含有预定类型图像区域的眼底图像;
将所述眼底图像输入眼底图像生成模型,生成不含有预定类型图像区域的眼底图像,其中,所述眼底图像生成模型是根据权利要求1-3之一所述的方法生成的。
5.根据权利要求4所述的方法,其中,所述方法还包括:
将所述不含有预定类型图像区域的眼底图像发送给目标显示设备,以及控制所述目标显示设备对所述不含有预定类型图像区域的眼底图像进行显示。
6.一种用于生成眼底图像生成模型的装置,包括:
第一获取单元,被配置成获取训练样本集合,其中,训练样本包括含有预定类型图像区域的第一类样本眼底图像和不含有预定类型图像区域的第二类样本眼底图像;
第二获取单元,被配置成获取初始生成对抗网络,其中所述初始生成对抗网络包括第一生成网络、第二生成网络、第一判别网络和第二判别网络;
训练单元,被配置成从所述训练样本集合中选取训练样本,以及执行以下训练步骤:将选取的训练样本的第一类样本眼底图像输入第一生成网络,得到不含有预定类型图像区域的第一输出眼底图像;将第一输出眼底图像输入第二生成网络,得到含有预定类型图像区域的第二输出眼底图像;将第一输出眼底图像和选取的训练样本的第二类样本眼底图像输入第一判别网络,得到第一判别损失值;将第二输出眼底图像和选取的训练样本的第一类样本眼底图像输入第二判别网络,得到第二判别损失值;对第二输出眼底图像与选取的训练样本的第一类样本眼底图像进行图像差异分析,确定图像差异;根据预设第一判别权重、预设第二判别权重和预设图像重构权重,将第一判别损失值、第二判别损失值和图像差异的加权结果作为训练样本的总损失值,以及将训练样本的总损失值与目标值进行比较;根据比较结果确定第一生成网络是否训练完成;响应于确定第一生成网络训练完成,将第一生成网络确定为眼底图像生成模型。
7.根据权利要求6所述的装置,其中,所述装置还包括:
调整单元,被配置成响应于确定第一生成网络未训练完成,调整初始生成对抗网络中的相关参数,以及从所述训练样本集中重新选取训练样本,使用调整后的初始生成对抗网络作为初始生成对抗网络,再次执行所述训练步骤。
8.根据权利要求6所述的装置,其中,所述第一生成网络包括第一编码网络和第一解码网络;所述第二生成网络包括第二编码网络和第二解码网络。
9.一种用于生成眼底图像的装置,包括:
获取单元,被配置成获取含有预定类型图像区域的眼底图像;
生成单元,被配置成将所述眼底图像输入眼底图像生成模型,生成不含有预定类型图像区域的眼底图像,其中,所述眼底图像生成模型是根据权利要求6-8之一所述的装置生成的。
10.根据权利要求9所述的装置,其中,所述装置还包括:
控制单元,被配置成将所述不含有预定类型图像区域的眼底图像发送给目标显示设备,以及控制所述目标显示设备对所述不含有预定类型图像区域的眼底图像进行显示。
11.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的方法。
12.一种计算机可读介质,其上存储有计算机程序,其中,该程序被处理器执行时实现如权利要求1-5中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910291160.9A CN110021052B (zh) | 2019-04-11 | 2019-04-11 | 用于生成眼底图像生成模型的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910291160.9A CN110021052B (zh) | 2019-04-11 | 2019-04-11 | 用于生成眼底图像生成模型的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110021052A true CN110021052A (zh) | 2019-07-16 |
CN110021052B CN110021052B (zh) | 2023-05-30 |
Family
ID=67191125
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910291160.9A Active CN110021052B (zh) | 2019-04-11 | 2019-04-11 | 用于生成眼底图像生成模型的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110021052B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110647986A (zh) * | 2019-08-13 | 2020-01-03 | 杭州电子科技大学 | 一种基于对抗式生成网络的道路破损图像生成方法 |
CN110659625A (zh) * | 2019-09-29 | 2020-01-07 | 深圳市商汤科技有限公司 | 物体识别网络的训练方法及装置、电子设备和存储介质 |
CN110795892A (zh) * | 2019-10-23 | 2020-02-14 | 北京邮电大学 | 一种基于生成对抗网络的信道模拟方法及装置 |
CN110796161A (zh) * | 2019-09-18 | 2020-02-14 | 平安科技(深圳)有限公司 | 识别模型训练、眼底特征的识别方法、装置、设备及介质 |
CN111523593A (zh) * | 2020-04-22 | 2020-08-11 | 北京百度网讯科技有限公司 | 用于分析医学影像的方法和装置 |
CN113139893A (zh) * | 2020-01-20 | 2021-07-20 | 北京达佳互联信息技术有限公司 | 图像翻译模型的构建方法和装置、图像翻译方法和装置 |
CN113256507A (zh) * | 2021-04-01 | 2021-08-13 | 南京信息工程大学 | 一种针对二进制流量数据生成图像的注意力增强方法 |
WO2023040744A1 (zh) * | 2021-09-18 | 2023-03-23 | 华为技术有限公司 | 图像损失值的确定方法、装置、存储介质及程序产品 |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105931179A (zh) * | 2016-04-08 | 2016-09-07 | 武汉大学 | 一种联合稀疏表示与深度学习的图像超分辨率方法及系统 |
US20170112372A1 (en) * | 2015-10-23 | 2017-04-27 | International Business Machines Corporation | Automatically detecting eye type in retinal fundus images |
US20170323431A1 (en) * | 2015-01-30 | 2017-11-09 | Ventana Medical Systems, Inc. | Quality metrics for automatic evaluation of dual ish images |
CN107729929A (zh) * | 2017-09-30 | 2018-02-23 | 百度在线网络技术(北京)有限公司 | 用于获取信息的方法及装置 |
CN107845062A (zh) * | 2017-11-14 | 2018-03-27 | 北京小米移动软件有限公司 | 图像生成方法及装置 |
CN108095683A (zh) * | 2016-11-11 | 2018-06-01 | 北京羽医甘蓝信息技术有限公司 | 基于深度学习的处理眼底图像的方法和装置 |
CN108113639A (zh) * | 2017-12-20 | 2018-06-05 | 西安智盛锐芯半导体科技有限公司 | 适用于医院眼科的眼睛检查仪器 |
US20180225823A1 (en) * | 2017-02-09 | 2018-08-09 | Siemens Healthcare Gmbh | Adversarial and Dual Inverse Deep Learning Networks for Medical Image Analysis |
CN108491809A (zh) * | 2018-03-28 | 2018-09-04 | 百度在线网络技术(北京)有限公司 | 用于生成近红外图像生成模型的方法和装置 |
CN108577803A (zh) * | 2018-04-26 | 2018-09-28 | 上海鹰瞳医疗科技有限公司 | 基于机器学习的眼底图像检测方法、装置及系统 |
CN108764342A (zh) * | 2018-05-29 | 2018-11-06 | 广东技术师范学院 | 一种对于眼底图中视盘和视杯的语义分割方法 |
KR20180120478A (ko) * | 2017-04-27 | 2018-11-06 | 에스케이텔레콤 주식회사 | 생성적 대립 네트워크에 기반한 도메인 간 관계를 학습하는 방법 |
CN108805188A (zh) * | 2018-05-29 | 2018-11-13 | 徐州工程学院 | 一种基于特征重标定生成对抗网络的图像分类方法 |
CN108846355A (zh) * | 2018-06-11 | 2018-11-20 | 腾讯科技(深圳)有限公司 | 图像处理方法、人脸识别方法、装置和计算机设备 |
CN108898186A (zh) * | 2018-07-03 | 2018-11-27 | 北京字节跳动网络技术有限公司 | 用于提取图像的方法和装置 |
US20180365874A1 (en) * | 2017-06-14 | 2018-12-20 | Adobe Systems Incorporated | Neural face editing with intrinsic image disentangling |
CN109191491A (zh) * | 2018-08-03 | 2019-01-11 | 华中科技大学 | 基于多层特征融合的全卷积孪生网络的目标跟踪方法及系统 |
-
2019
- 2019-04-11 CN CN201910291160.9A patent/CN110021052B/zh active Active
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170323431A1 (en) * | 2015-01-30 | 2017-11-09 | Ventana Medical Systems, Inc. | Quality metrics for automatic evaluation of dual ish images |
US20170112372A1 (en) * | 2015-10-23 | 2017-04-27 | International Business Machines Corporation | Automatically detecting eye type in retinal fundus images |
CN105931179A (zh) * | 2016-04-08 | 2016-09-07 | 武汉大学 | 一种联合稀疏表示与深度学习的图像超分辨率方法及系统 |
CN108095683A (zh) * | 2016-11-11 | 2018-06-01 | 北京羽医甘蓝信息技术有限公司 | 基于深度学习的处理眼底图像的方法和装置 |
US20180225823A1 (en) * | 2017-02-09 | 2018-08-09 | Siemens Healthcare Gmbh | Adversarial and Dual Inverse Deep Learning Networks for Medical Image Analysis |
KR20180120478A (ko) * | 2017-04-27 | 2018-11-06 | 에스케이텔레콤 주식회사 | 생성적 대립 네트워크에 기반한 도메인 간 관계를 학습하는 방법 |
US20180365874A1 (en) * | 2017-06-14 | 2018-12-20 | Adobe Systems Incorporated | Neural face editing with intrinsic image disentangling |
CN107729929A (zh) * | 2017-09-30 | 2018-02-23 | 百度在线网络技术(北京)有限公司 | 用于获取信息的方法及装置 |
CN107845062A (zh) * | 2017-11-14 | 2018-03-27 | 北京小米移动软件有限公司 | 图像生成方法及装置 |
CN108113639A (zh) * | 2017-12-20 | 2018-06-05 | 西安智盛锐芯半导体科技有限公司 | 适用于医院眼科的眼睛检查仪器 |
CN108491809A (zh) * | 2018-03-28 | 2018-09-04 | 百度在线网络技术(北京)有限公司 | 用于生成近红外图像生成模型的方法和装置 |
CN108577803A (zh) * | 2018-04-26 | 2018-09-28 | 上海鹰瞳医疗科技有限公司 | 基于机器学习的眼底图像检测方法、装置及系统 |
CN108764342A (zh) * | 2018-05-29 | 2018-11-06 | 广东技术师范学院 | 一种对于眼底图中视盘和视杯的语义分割方法 |
CN108805188A (zh) * | 2018-05-29 | 2018-11-13 | 徐州工程学院 | 一种基于特征重标定生成对抗网络的图像分类方法 |
CN108846355A (zh) * | 2018-06-11 | 2018-11-20 | 腾讯科技(深圳)有限公司 | 图像处理方法、人脸识别方法、装置和计算机设备 |
CN108898186A (zh) * | 2018-07-03 | 2018-11-27 | 北京字节跳动网络技术有限公司 | 用于提取图像的方法和装置 |
CN109191491A (zh) * | 2018-08-03 | 2019-01-11 | 华中科技大学 | 基于多层特征融合的全卷积孪生网络的目标跟踪方法及系统 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110647986A (zh) * | 2019-08-13 | 2020-01-03 | 杭州电子科技大学 | 一种基于对抗式生成网络的道路破损图像生成方法 |
CN110796161A (zh) * | 2019-09-18 | 2020-02-14 | 平安科技(深圳)有限公司 | 识别模型训练、眼底特征的识别方法、装置、设备及介质 |
CN110659625A (zh) * | 2019-09-29 | 2020-01-07 | 深圳市商汤科技有限公司 | 物体识别网络的训练方法及装置、电子设备和存储介质 |
CN110795892A (zh) * | 2019-10-23 | 2020-02-14 | 北京邮电大学 | 一种基于生成对抗网络的信道模拟方法及装置 |
CN110795892B (zh) * | 2019-10-23 | 2021-10-01 | 北京邮电大学 | 一种基于生成对抗网络的信道模拟方法及装置 |
CN113139893A (zh) * | 2020-01-20 | 2021-07-20 | 北京达佳互联信息技术有限公司 | 图像翻译模型的构建方法和装置、图像翻译方法和装置 |
CN113139893B (zh) * | 2020-01-20 | 2023-10-03 | 北京达佳互联信息技术有限公司 | 图像翻译模型的构建方法和装置、图像翻译方法和装置 |
CN111523593A (zh) * | 2020-04-22 | 2020-08-11 | 北京百度网讯科技有限公司 | 用于分析医学影像的方法和装置 |
CN111523593B (zh) * | 2020-04-22 | 2023-07-21 | 北京康夫子健康技术有限公司 | 用于分析医学影像的方法和装置 |
CN113256507A (zh) * | 2021-04-01 | 2021-08-13 | 南京信息工程大学 | 一种针对二进制流量数据生成图像的注意力增强方法 |
CN113256507B (zh) * | 2021-04-01 | 2023-11-21 | 南京信息工程大学 | 一种针对二进制流量数据生成图像的注意力增强方法 |
WO2023040744A1 (zh) * | 2021-09-18 | 2023-03-23 | 华为技术有限公司 | 图像损失值的确定方法、装置、存储介质及程序产品 |
Also Published As
Publication number | Publication date |
---|---|
CN110021052B (zh) | 2023-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110021052A (zh) | 用于生成眼底图像生成模型的方法和装置 | |
CN109800732B (zh) | 用于生成漫画头像生成模型的方法和装置 | |
US11151765B2 (en) | Method and apparatus for generating information | |
CN111476871B (zh) | 用于生成视频的方法和装置 | |
CN109902186A (zh) | 用于生成神经网络的方法和装置 | |
CN109993150B (zh) | 用于识别年龄的方法和装置 | |
CN110298319B (zh) | 图像合成方法和装置 | |
CN110009059B (zh) | 用于生成模型的方法和装置 | |
CN109086719A (zh) | 用于输出数据的方法和装置 | |
CN109829432A (zh) | 用于生成信息的方法和装置 | |
CN109872276A (zh) | 用于生成图像超分辨率模型的方法和装置 | |
CN109919244A (zh) | 用于生成场景识别模型的方法和装置 | |
CN110046571B (zh) | 用于识别年龄的方法和装置 | |
CN110298850A (zh) | 眼底图像的分割方法和装置 | |
EP4354343A1 (en) | Data processing method and device | |
CN111598160A (zh) | 图像分类模型的训练方法、装置、计算机设备及存储介质 | |
CN109961141A (zh) | 用于生成量化神经网络的方法和装置 | |
CN110084317A (zh) | 用于识别图像的方法和装置 | |
CN108364029A (zh) | 用于生成模型的方法和装置 | |
CN112307947A (zh) | 用于生成信息的方法和装置 | |
CN110097004B (zh) | 面部表情识别方法和装置 | |
CN110008926A (zh) | 用于识别年龄的方法和装置 | |
CN109816023A (zh) | 用于生成图片标签模型的方法和装置 | |
CN109829431A (zh) | 用于生成信息的方法和装置 | |
CN108921138A (zh) | 用于生成信息的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |