CN112381012A - 眼部图像中目标区域的识别方法、装置及电子设备 - Google Patents
眼部图像中目标区域的识别方法、装置及电子设备 Download PDFInfo
- Publication number
- CN112381012A CN112381012A CN202011296343.9A CN202011296343A CN112381012A CN 112381012 A CN112381012 A CN 112381012A CN 202011296343 A CN202011296343 A CN 202011296343A CN 112381012 A CN112381012 A CN 112381012A
- Authority
- CN
- China
- Prior art keywords
- eye image
- region
- result
- eye
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 230000036541 health Effects 0.000 claims abstract description 43
- 238000000605 extraction Methods 0.000 claims abstract description 13
- 238000005070 sampling Methods 0.000 claims abstract description 11
- 238000012549 training Methods 0.000 claims description 28
- 239000011159 matrix material Substances 0.000 claims description 19
- 230000002159 abnormal effect Effects 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 7
- 238000013507 mapping Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 claims description 2
- 210000004204 blood vessel Anatomy 0.000 abstract description 12
- 210000001508 eye Anatomy 0.000 description 138
- 210000004185 liver Anatomy 0.000 description 16
- 230000006870 function Effects 0.000 description 10
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 9
- 210000003786 sclera Anatomy 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- BPYKTIZUTYGOLE-IFADSCNNSA-N Bilirubin Chemical compound N1C(=O)C(C)=C(C=C)\C1=C\C1=C(C)C(CCC(O)=O)=C(CC2=C(C(C)=C(\C=C/3C(=C(C=C)C(=O)N\3)C)N2)CCC(O)=O)N1 BPYKTIZUTYGOLE-IFADSCNNSA-N 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- HVYWMOMLDIMFJA-DPAQBDIFSA-N cholesterol Chemical compound C1C=C2C[C@@H](O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2 HVYWMOMLDIMFJA-DPAQBDIFSA-N 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 210000000697 sensory organ Anatomy 0.000 description 2
- 230000002792 vascular Effects 0.000 description 2
- 102100036475 Alanine aminotransferase 1 Human genes 0.000 description 1
- 108010082126 Alanine transaminase Proteins 0.000 description 1
- 102000002260 Alkaline Phosphatase Human genes 0.000 description 1
- 108020004774 Alkaline Phosphatase Proteins 0.000 description 1
- 102000003914 Cholinesterases Human genes 0.000 description 1
- 108090000322 Cholinesterases Proteins 0.000 description 1
- 108090000340 Transaminases Proteins 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 235000012000 cholesterol Nutrition 0.000 description 1
- 229940048961 cholinesterase Drugs 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000002526 effect on cardiovascular system Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 210000003734 kidney Anatomy 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 210000002966 serum Anatomy 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 102000014898 transaminase activity proteins Human genes 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
Abstract
本发明提供了一种眼部图像中目标区域的识别方法、装置及电子设备,涉及模式识别领域,该方法将获取的待识别的眼部图像输入至预先完成训练的目标区域识别模型;其中,目标区域识别模型包括第一卷积层、第二卷积层以及全连接层;待识别的眼部图像输入至第一卷积层后通过下采样提取得到第一特征结果;通过第二卷积层将第一特征结果中的每一层特征图进行下采样得到第二特征结果;将第二特征结果输入至全连接层,确定待识别的眼部图像中目标区域的识别结果。该方法可对眼部图像中特定的目标区域进行识别,解决了现有技术中缺少利用人眼的巩膜区域、虹膜颜色形状、眼前节及眼底的血管纹路等作为识别手段以确定用户的健康指标数据的技术问题。
Description
技术领域
本发明涉及模式识别领域,尤其是涉及一种眼部图像中目标区域的识别方法、装置及电子设备。
背景技术
眼睛是人体重要的五官,除了提供视觉之外,其自身的状态也能彰显人体的健康程度。人眼的巩膜、虹膜的颜色形状、眼前节及眼底的血管纹路等均可作为目标区域进行识别对比,但现有技术中缺少相关的技术手段,以实现根据对比结果确定目标区域对应用户的健康指标数据。
发明内容
有鉴于此,本发明的目的在于提供一种眼部图像中目标区域的识别方法、装置及电子设备,利用预先完成训练的目标区域识别模型对待识别的眼部图像中的相关目标区域进行识别,在对眼部图像中相关目标区域与体检数据相关联后,可对眼部图像中特定的目标区域进行识别,解决了现有技术中缺少利用人眼的巩膜、虹膜的颜色形状、眼前节及眼底的血管纹路等作为识别手段以确定对应用户的健康指标数据的技术问题。
第一方面,本发明实施例提供了一种眼部图像中目标区域的识别方法,该方法包括:
获取待识别的眼部数据;其中,待识别的眼部数据包括待识别的眼部图像;目标区域包括眼前节区域和/或眼底区域;
将待识别的眼部数据输入至预先完成训练的目标区域识别模型;其中,目标区域识别模型包括第一卷积层、第二卷积层以及全连接层;待识别的眼部图像输入至第一卷积层后,通过下采样提取得到第一特征结果;
通过第二卷积层将第一特征结果中的每一层特征图进行下采样,得到第二特征结果;
将第二特征结果输入至全连接层,确定待识别的眼部图像中的目标区域的识别结果;其中,识别结果至少包括:眼前节区域和/或眼底区域中是否包含异常区域;异常区域用于确定眼部图像对应用户的健康指标数据。
在一些实施方式中,待识别的眼部数据,还包括:待识别的眼部图像对应用户的健康指标数据;健康指标数据通过待识别的眼部图像对应用户的体检数据获取得到。
在一些实施方式中,包含眼前节区域的待识别的眼部图像的尺寸为648x432x3;包含眼底区域的待识别的眼部图像的尺寸为512x512x3;
第一卷积层的卷积核为7x7;步长为2;共有64层;通过下采样提取得到第一特征结果包含256x256x64的第一特征矩阵。
在一些实施方式中,上述通过第二卷积层将第一特征结果中的每一层特征图进行下采样,得到第二特征结果的步骤,包括:
提取第一特征结果中的第一特征矩阵;其中,第一特征矩阵的尺寸为256x256x64;
第二卷积层将第一特征矩阵中每一层对应的特征图进行多次下采样,分别得到尺寸为128x128x256、64x64x512、32x32x1024、16x16x2048的第二特征图,并将16x16x2048的第二特征图记为第二特征结果。
在一些实施方式中,上述目标区域识别模型采用ResNet-101模型、VGG-16模型或EfficientNet-B0模型训练得到。
在一些实施方式中,上述目标区域识别模型的训练过程,包括:
获取不同剖面下的多种眼部图像;眼部图像中至少包含眼前节区域图片以及眼底区域图片;
将眼部图像对应用户的体检数据与目标区域对应的图片进行映射,确定眼部图像的样本训练集;
将眼部图像的样本训练集输入至已初始化的ResNet-101模型中进行训练;
通过预设的损失函数对训练中的ResNet-101模型进行计算,当损失函数的计算结果在训练中已经收敛且模型推断评价指标满足预设的判断阈值时,得到目标区域识别模型。
在一些实施方式中,上述判断阈值通过AUC和/或ROC的数值所决定;损失函数为:交叉熵损失函数。
第二方面,本发明实施例提供了一种眼部图像中目标区域的识别装置,该装置包括:
待识别眼部图像获取模块,用于获取待识别的眼部数据;其中,待识别的眼部数据包括待识别的眼部图像;目标区域包括眼前节区域和/或眼底区域;
第一特征结果确定模块,用于将待识别的眼部数据输入至预先完成训练的目标区域识别模型;其中,目标区域识别模型包括第一卷积层、第二卷积层以及全连接层;待识别的眼部图像输入至第一卷积层后,通过下采样提取得到第一特征结果;
第二特征结果确定模块,用于通过第二卷积层将第一特征结果中的每一层特征图进行下采样,得到第二特征结果;
目标区域识别模块,用于将第二特征结果输入至全连接层,确定待识别的眼部图像中的目标区域的识别结果;其中,识别结果至少包括:眼前节区域和/或眼底区域中是否包含异常区域;异常区域用于确定眼部图像对应用户的健康指标数据。
第三方面,本发明实施例提供了一种电子设备,该电子设备包括:处理器和存储装置;存储装置上存储有计算机程序,计算机程序在被处理器运行时执行如第一方面提供的眼部图像中目标区域的识别方法的步骤。
第四方面,本发明实施例提供了一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器运行时实现上述第一方面提到的眼部图像中目标区域的识别方法的步骤。
本发明实施例带来了以下有益效果:本发明实施例提供了一种眼部图像中目标区域的识别方法、装置及电子设备,该方法将待识别的眼部数据输入至预先完成训练的目标区域识别模型;其中,目标区域识别模型包括第一卷积层、第二卷积层以及全连接层;待识别的眼部图像输入至第一卷积层后,通过下采样提取得到第一特征结果;通过第二卷积层将第一特征结果中的每一层特征图进行下采样,得到第二特征结果;将第二特征结果输入至全连接层,确定待识别的眼部图像中的目标区域的识别结果。识别结果至少包括:眼前节区域和/或眼底区域中是否包含异常区域;异常区域用于确定眼部图像对应用户的健康指标数据。该方法利用预先完成训练的目标区域识别模型对待识别的眼部图像中的相关目标区域进行识别,在对眼部图像中相关目标区域与体检数据相关联后,可对眼部图像中特定的目标区域进行识别,解决了现有技术中缺少利用人眼的巩膜、虹膜的颜色形状、眼前节及眼底的血管纹路等作为识别手段以确定对应用户的健康指标数据的技术问题。
本发明的其他特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种眼部图像中目标区域的识别方法的流程图;
图2为本发明实施例提供的眼部图像中目标区域的识别方法中步骤S103的流程图;
图3为本发明实施例提供的眼部图像中目标区域的识别方法中的一种目标区域识别的示意图;
图4为本发明实施例提供的眼部图像中目标区域的识别方法中的另一种目标区域识别的示意图;
图5为本发明实施例提供的眼部图像中目标区域的识别方法中,目标区域识别模型的训练过程的流程图;
图6为本发明实施例提供的一种眼部图像中目标区域的识别装置的结构示意图;
图7为本发明实施例提供的一种电子设备的结构示意图。
图标:
610-待识别眼部图像获取模块;620-第一特征结果确定模块;630-第二特征结果确定模块;640-目标区域识别模块;101-处理器;102-存储器;103-总线;104-通信接口。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
眼睛是人体重要的五官,除了提供视觉之外,其自身的状态也能彰显人体的健康程度。人眼的巩膜、虹膜的颜色形状、眼前节及眼底的血管纹路等均可作为目标区域进行识别对比,但现有技术中缺少相关的技术手段。
考虑到现有技术中存在的上述问题,本发明的目的在于提供一种眼部图像中目标区域的识别方法、装置及电子设备,该技术可以应用于相关模式识别的过程中,可以采用相关的软件或硬件实现,下面通过实施例进行描述。
为便于对本实施例进行理解,首先对本发明实施例所公开的一种眼部图像中目标区域的识别方法进行详细介绍,该方法的流程图如图1所示,包括:
步骤S101,获取待识别的眼部数据;其中,待识别的眼部数据包括待识别的眼部图像;目标区域包括眼前节区域和/或眼底区域。
眼部图像的获取可通过相关人脸识别数据库中获得,人脸图像中一般包含眼部图像,通过裁剪即可获得相应的眼部图像;也可从相关健康数据库中获得,健康数据库的数据来源可包括体检机构、医疗机构或者相关视力检测,这些机构中可获得相应的眼部图像;也可以直接通过相机对眼部进行拍摄,直接得到眼部图像。
眼部图像中通常包含具有明显特征的目标区域,以人眼结构来说,人眼的眼球轮廓、巩膜的颜色、虹膜的颜色及形状、眼前节及眼底的血管纹路等均可作为目标区域的特征,对上述眼球中的目标区域的识别,基于的是人眼中的相关纹路以及颜色。
步骤S102,将待识别的眼部数据输入至预先完成训练的目标区域识别模型;其中,目标区域识别模型包括第一卷积层、第二卷积层以及全连接层;待识别的眼部图像输入至第一卷积层后,通过下采样提取得到第一特征结果。
待识别的眼部图像作为输入数据,输入至预先完成训练的目标区域识别模型中。该模型整体由三个层组成,分别为:第一卷积层、第二卷积层以及全连接层。在第一卷积层、第二卷积层以及全连接层之间所用到的卷积核、步长以及特征矩阵均不相同,具体参数由模型在训练过程中所决定。
待识别的眼部图像输入至第一卷积层后,通过下采样提取得到第一特征结果。第一特征结果中包含着相关特征矩阵,该特征矩阵中每一层的特征图均包含着眼部图像存在的图像抽象特征,该层的特征图尺度比输入图像小一倍。
步骤S103,通过第二卷积层将第一特征结果中的每一层特征图进行下采样,得到第二特征结果。
第二卷积层中与第一卷积层的层数一般是不同的,下采样的过程与模型中的相关卷积层数量有关,通常情况下第二卷积层是多层结构。在将第一特征结果中的每一层特征图分别进行下采样,得到的新的特征图的尺寸继续缩小。每一次下采样对应着新的特征矩阵,这些新的特征矩阵中每一层的特征图也包含着眼部图像中存在的进一步图像抽象特征,在完成所有的下采样操作后,将获得的特征图以及相应的特征矩阵作为第二特征结果。
步骤S104,将第二特征结果输入至全连接层,确定待识别的眼部图像中的目标区域的识别结果。
识别结果至少包括:眼前节区域和/或眼底区域中是否包含异常区域;异常区域用于确定眼部图像对应用户的健康指标数据。第二特征结果中包含着眼部图像中目标区域存在的概率,但该数值需要根据相应的特征矩阵进行池化操作,并通过全连接层输出最终的结果,即待识别的眼部图像中的目标区域的识别结果。目标区域的识别结果可通过概率数值进行输出,也可直接从待识别的眼部图像中进行标记,还可以二者兼之。
在本发明实施例提到的眼部图像中目标区域的识别方法,利用预先完成训练的目标区域识别模型对待识别的眼部数据中眼部图像的相关目标区域进行识别,在对眼部图像中相关目标区域与体检数据相关联后,可对眼部图像中特定的目标区域进行识别,解决了现有技术中缺少利用人眼的巩膜、虹膜的颜色形状、眼前节及眼底的血管纹路等作为识别手段以确定对应用户的健康指标数据的技术问题。
在一些实施方式中,待识别的眼部数据,还包括:待识别的眼部图像对应用户的健康指标数据;健康指标数据通过待识别的眼部图像对应用户的体检数据获取得到。
待识别的眼部数据并不仅仅包含眼部图像,还可包含对应用户的相关健康数据,这些健康数据可通过用户的体检数据获得。
目标区域识别模型中可用ResNet-101、VGG-16以及EfficientNet-B0等,在一些实施方式中,包含眼前节区域的待识别的眼部图像的尺寸为648x432x3;包含眼底区域的待识别的眼部图像的尺寸为512x512x3;该模型的第一卷积层的卷积核为7x7;步长为2;共有64层;通过下采样提取得到第一特征结果包含256x256x64的第一特征矩阵。
再次基础上,通过第二卷积层将第一特征结果中的每一层特征图进行下采样,得到第二特征结果的步骤S103,如图2所示,包括:
步骤S201,提取第一特征结果中的第一特征矩阵;其中,第一特征矩阵的尺寸为256x256x64。
步骤S202,第二卷积层将第一特征矩阵中每一层对应的特征图进行多次下采样,分别得到尺寸为128x128x256、64x64x512、32x32x1024、16x16x2048的第二特征图,并将16x16x2048的第二特征图记为第二特征结果。
具体的,以ResNet-101模型为例,ResNet-101的模型结构为1x1、3x3、1x1卷积层组成的Bottleneck结构单元模块,各个卷积层之间通过Batchnorm和Relu激活层连接;Bottleneck结构单元模块中包含ResNet的主要结构——residual block。residual block由1x1的卷积构成,下采样时步长为2,padding为1;除下采样之外的residual blockstride取1,padding参数为1,不改变输入特征图的尺寸大小,只完成一定的线性变换和扩展特征图的通道层数。
具体的,上述输入图片采用3通道RGB图像,眼底为512x512x3,眼前段照片为648x432x3。以眼底图片作为输入为例,首先通过64个卷积核大小为7,stride为2的卷积层,下采样提取出256x256x64的特征矩阵;之后通过resnet的四层layer,分别将特征矩阵中每一层的特征图继续下采样至128x128x256、64x64x512、32x32x1024、16x16x2048;最后连接全连接层输出分类结果及对应的得分。
第一层layer首先通过3x3、步长为2的最大池化操作下采样特征,得到128x128x64的特征图,然后采用了重复3次的BottleNeck。BottleNeck结构单元模块的第一个1x1卷积和3x3卷积都使用64个卷积核,最后一个1x1的卷积使用256个卷积核,residual block采用保留输入特征尺寸的1x1卷积,即256个stride为1,padding参数为1的1x1卷积核,卷积之后与最后一个Bottleneck结构单元模块的输出相加,所以得到的输出特征依次是128x128x64,128x128x64,128x128x256。
第二层layer中第一个Bottleneck结构单元模块采用下采样方式的residualblock,其包含512个步长为2的1x1卷积核。Bottleneck结构单元模块的1x1、3x3、1x1卷积层分别将特征图变换至128x128x128,64x64x128,64x64x512,Bottleneck结构单元模块的输出与residual block输出相加得到第二层layer的第一个Bottlenec结构单元模块k输出,特征尺寸为64x64x512,然后重复使用3次无下采样的BottleNeck结构单元模块(类似layer1)得到layer2的输出64x64x512特征图。
第三层layer结构同layer2,区别在于3x3下采样的卷积核个数为256,residualblock中下采样卷积核个数为1024,所以第一个Bottleneck结构单元模块的1x1、3x3、1x1卷积层分别将特征图变换至64x64x256、32x32x256、32x32x1024,之后接22个无下采样操作的Bottleneck结构单元模块最终输出为32x32x1024。
第四层layer结构同上,区别在于3x3下采样的卷积核个数为512,residual block中下采样卷积核个数为2048,所以第一个Bottleneck结构单元模块的1x1、3x3、1x1卷积层分别将特征图变换至32x32x512,16x16x512,16x16x2048,之后接2个无下采样操作的Bottleneck结构单元模块最终输出为16x16x2048;最后对特征矩阵池化并通过全连接层输出2x1的最终分类输出。
以眼底的血管纹理以及视盘区作为目标区域进行识别,识别效果图如3所示。图3中可见,这二个不同眼底图片的血管纹理以及视盘区具有明显差异,其中,图3的左边眼底图为肝部不健康的成像;图3的右边眼底图为肝部健康的成像,因此结合图3中这两个眼底图片对应的健康程度,可建立一个映射关系,能够实现通过眼底图片的目标区域识别来映射该用户的健康程度。
同理,以眼前节的血管纹理、瞳孔纹理、瞳孔轮廓、颜色等作为目标区域进行识别,识别效果图如4所示。图4中可见,这二个不同眼前节图片之间涉及的血管纹理、瞳孔纹理、瞳孔轮廓、颜色具有明显差异。其中,图4的左边眼前节图为肝部不健康的成像;图4的眼前节眼底图为肝部健康的成像,因此结合图4中这两个眼底图片对应的健康程度,可建立一个映射关系,能够实现通过眼前节图片的目标区域识别来映射该用户的健康程度。
例如,以肝脏的健康指标数据为例,其健康程度可通过体检过程的相关指标来衡量,如:谷丙转氨酶数值、谷草转氨酶数值、碱性磷酸酶数值、血清胆红素、总胆固醇、胆碱酯酶等。肝脏健康程度会体现在眼底的血管纹理以及视盘区域是否发生异常,因此通过肝脏正常时对应的眼底图片以及眼前节图片;以及肝脏不正常时对应的眼底图片以及眼前节图片,建立眼部图像与肝脏健康指标的映射关系,最终通过相应的目标区域识别模型实现利用眼部图像来获取用户肝脏健康程度的过程。
分别利用ResNet-101、VGG-16以及EfficientNet-B0建立利用眼前节图片获取肝脏健康程度的眼前节模型,该眼前节模型在训练过程中使用肝脏不健康人群的眼前节图片以及肝脏健康人群的眼前节图片作为训练集,得到的眼前节模型的曲线下面积(AUC)、敏感性和特异性结果如表1所示。
表1:眼前节模型的验证结果
相应的,分别利用ResNet-101、VGG-16以及EfficientNet-B0建立利用眼底图片获取肝脏健康程度的眼底模型,该眼底模型在训练过程中使用肝脏不健康人群的眼底图片以及肝脏健康人群的眼底图片作为训练集,得到的眼前节模型的曲线下面积(AUC)、敏感性和特异性结果如表2所示。
表2:眼底模型的验证结果
由表1以及表2可知,眼前节模型以及眼底模型中,使用ResNet-101模型的性能最佳,在实际使用时可优先选择ResNet-101以及衍生的模型结构,而通过该类模型来获取其它部位的健康程度(如心脑血管、肾脏、肺部以及免疫器官等部位)均可通过上述实施例中描述的细节来实现,其实现原理及产生的技术效果和前述实施例相同,再次不再赘述。
在一些实施方式中,上述目标区域识别模型的训练过程,如图5所示,包括:
步骤S501,获取不同剖面下的多种眼部图像;眼部图像中包含眼前节区域以及眼底区域的图片。
获取不同剖面下的眼部图像作为目标区域识别模型的训练数据源,其中,眼部图像中包含眼前节区域以及眼底区域的图片。这是由于眼前节区域包含了巩膜、虹膜等特征结构,眼底区域包含了较多血管及视盘等结构,方便作为目标区域。
步骤S502,将眼部图像对应用户的体检数据与目标区域对应的图片进行映射,确定眼部图像的样本训练集。
由于眼前节区域以及眼底区域的图片的来源是相关健康数据库、体检机构或相关视力检测等途径获得的,一般包含着对应用户的检数据,因此将体检数据与该图片进行映射。体检数据中包含着对应用户的各类指标,将这些指标与眼前节区域以及眼底区域的形状进行关联。后续当识别到人眼目标区域后,可根据体检数据反推对应用户的健康程度。
步骤S503,将眼部图像的样本训练集输入至已初始化的ResNet-101模型中进行训练。
ResNet-101模型结构在上述步骤已经描述,再次不再赘述。
步骤S504,通过预设的损失函数对训练中的ResNet-101模型进行计算,当损失函数的计算结果在训练中已经收敛且模型推断时的指标满足预设的判断阈值时,得到目标区域识别模型。
预设的判断阈值为模型停止训练的指标,通过内部验证集的模型推断所得到,也可根据模型训练过程中某一环节中的识别准确率进行设置。该模型所用的损失函数为:交叉熵损失函数。
在一些实施方式中,上述判断阈值(即判断指标)通过AUC和/或ROC的数值所决定。AUC(Area Under Curve)被定义为ROC曲线下的面积。ROC曲线全称为受试者工作特征曲线(receiver operating characteristic curve),它是根据一系列不同的二分类方式(分界值或决定阈),以真阳性率(敏感性)为纵坐标,假阳性率(1-特异性)为横坐标绘制的曲线。在模型训练时,AUC就是衡量学习器优劣的一种性能指标。从定义可知,AUC可通过对ROC曲线下各部分的面积求和而得。
本发明实施例提供了一种眼部图像中目标区域的识别方法,将待识别的眼部数据输入至预先完成训练的目标区域识别模型;其中,目标区域识别模型包括第一卷积层、第二卷积层以及全连接层;待识别的眼部图像输入至第一卷积层后,通过下采样提取得到第一特征结果;通过第二卷积层将第一特征结果中的每一层特征图进行下采样,得到第二特征结果;将第二特征结果输入至全连接层,确定待识别的眼部图像中的目标区域的识别结果,识别结果至少包括:眼前节区域和/或眼底区域中是否包含异常区域;异常区域用于确定眼部图像对应用户的健康指标数据。该方法利用预先完成训练的目标区域识别模型对待识别的眼部图像中的相关目标区域进行识别,在对眼部图像中相关目标区域与体检数据相关联后,可对眼部图像中特定的目标区域进行识别,解决了现有技术中缺少利用人眼的巩膜、虹膜的颜色形状、眼前节及眼底的血管纹路等作为识别手段以确定对应用户的健康指标数据的技术问题,能够实现通过人眼图片来获取健康数据并据此进行健康筛查。
本发明实施例提供了一种眼部图像中目标区域的识别装置,如图6所示,该装置包括:
待识别眼部图像获取模块610,用于获取待识别的眼部数据;其中,待识别的眼部数据包括待识别的眼部图像;目标区域包括眼前节区域和/或眼底区域;
第一特征结果确定模块620,用于将待识别的眼部数据输入至预先完成训练的目标区域识别模型;其中,目标区域识别模型包括第一卷积层、第二卷积层以及全连接层;待识别的眼部图像输入至第一卷积层后,通过下采样提取得到第一特征结果;
第二特征结果确定模块630,用于通过第二卷积层将第一特征结果中的每一层特征图进行下采样,得到第二特征结果;
目标区域识别模块640,用于将第二特征结果输入至全连接层,确定待识别的眼部图像中的目标区域的识别结果;其中,识别结果至少包括:眼前节区域和/或眼底区域中是否包含异常区域;异常区域用于确定眼部图像对应用户的健康指标数据。
本发明实施例所提供的眼部图像中目标区域的识别装置,其实现原理及产生的技术效果和前述眼部图像中目标区域的识别方法的实施例相同,为简要描述,实施例部分未提及之处,可参考前述方法实施例中相应内容。
本实施例还提供一种电子设备,为该电子设备的结构示意图如图7所示,该设备包括处理器101和存储器102;其中,存储器102用于存储一条或多条计算机指令,一条或多条计算机指令被处理器执行,以实现上述眼部图像中目标区域的识别方法。
图7所示的服务器还包括总线103和通信接口104,处理器101、通信接口104和存储器102通过总线103连接。
其中,存储器102可能包含高速随机存取存储器(RAM,Random Access Memory),也可能还包括非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。总线103可以是ISA总线、PCI总线或EISA总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,图7中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。
通信接口104用于通过网络接口与至少一个用户终端及其它网络单元连接,将封装好的IPv4报文或IPv4报文通过网络接口发送至用户终端。
处理器101可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器101中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器101可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DigitalSignal Processor,简称DSP)、专用集成电路(Application Specific IntegratedCircuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本公开实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本公开实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器102,处理器101读取存储器102中的信息,结合其硬件完成前述实施例的方法的步骤。
本发明实施例还提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行前述实施例的方法的步骤。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、设备和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,设备或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以用软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种眼部图像中目标区域的识别方法,其特征在于,所述方法包括:
获取待识别的眼部数据;其中,所述待识别的眼部数据包括待识别的眼部图像;所述目标区域包括眼前节区域和/或眼底区域;
将所述待识别的眼部数据输入至预先完成训练的目标区域识别模型;其中,所述目标区域识别模型包括第一卷积层、第二卷积层以及全连接层;所述待识别的眼部图像输入至所述第一卷积层后,通过下采样提取得到第一特征结果;
通过所述第二卷积层将所述第一特征结果中的每一层特征图进行下采样,得到第二特征结果;
将所述第二特征结果输入至所述全连接层,确定所述待识别的眼部图像中的目标区域的识别结果;其中,所述识别结果至少包括:眼前节区域和/或眼底区域中是否包含异常区域;所述异常区域用于确定所述眼部图像对应用户的健康指标数据。
2.根据权利要求1所述的眼部图像中目标区域的识别方法,其特征在于,所述待识别的眼部数据,还包括:所述待识别的眼部图像对应用户的健康指标数据;所述健康指标数据通过所述待识别的眼部图像对应用户的体检数据获取得到。
3.根据权利要求1所述的眼部图像中目标区域的识别方法,其特征在于,包含眼前节区域的所述待识别的眼部图像的尺寸为648x432x3;包含眼底区域的所述待识别的眼部图像的尺寸为512x512x3;
所述第一卷积层的卷积核为7x7;步长为2;共有64层;通过下采样提取得到第一特征结果包含256x256x64的第一特征矩阵。
4.根据权利要求3所述的眼部图像中目标区域的识别方法,其特征在于,通过所述第二卷积层将所述第一特征结果中的每一层特征图进行下采样,得到第二特征结果的步骤,包括:
提取所述第一特征结果中的第一特征矩阵;其中,所述第一特征矩阵的尺寸为256x256x64;
所述第二卷积层将所述第一特征矩阵中每一层对应的特征图进行多次下采样,分别得到尺寸为128x128x256、64x64x512、32x32x1024、16x16x2048的第二特征图,并将16x16x2048的所述第二特征图记为所述第二特征结果。
5.根据权利要求1所述的眼部图像中目标区域的识别方法,其特征在于,所述目标区域识别模型采用ResNet-101模型、VGG-16模型或EfficientNet-B0模型训练得到。
6.根据权利要求5所述的眼部图像中目标区域的识别方法,其特征在于,目标区域识别模型的训练过程,包括:
获取不同剖面下的多种所述眼部图像;所述眼部图像中至少包含眼前节区域图片以及眼底区域图片;
将所述眼部图像对应用户的体检数据与所述目标区域对应的图片进行映射,确定所述眼部图像的样本训练集;
将所述眼部图像的样本训练集输入至已初始化的ResNet-101模型中进行训练;
通过预设的损失函数对训练中的所述ResNet-101模型进行计算,当所述损失函数的计算结果在训练中已经收敛且模型推断评价指标满足预设的判断阈值时,得到所述目标区域识别模型。
7.根据权利要求6所述的眼部图像中目标区域的识别方法,其特征在于,所述判断阈值通过AUC和/或ROC的数值所决定;所述损失函数为:交叉熵损失函数。
8.一种眼部图像中目标区域的识别装置,其特征在于,所述装置包括:
待识别眼部图像获取模块,用于获取待识别的眼部数据;其中,所述待识别的眼部数据包括待识别的眼部图像;所述目标区域包括眼前节区域和/或眼底区域;
第一特征结果确定模块,用于将所述待识别的眼部数据输入至预先完成训练的目标区域识别模型;其中,所述目标区域识别模型包括第一卷积层、第二卷积层以及全连接层;所述待识别的眼部图像输入至所述第一卷积层后,通过下采样提取得到第一特征结果;
第二特征结果确定模块,用于通过所述第二卷积层将所述第一特征结果中的每一层特征图进行下采样,得到第二特征结果;
目标区域识别模块,用于将所述第二特征结果输入至所述全连接层,确定所述待识别的眼部图像中的目标区域的识别结果;其中,所述识别结果至少包括:眼前节区域和/或眼底区域中是否包含异常区域;所述异常区域用于确定所述眼部图像对应用户的健康指标数据。
9.一种电子设备,其特征在于,包括:处理器和存储装置;所述存储装置上存储有计算机程序,所述计算机程序在被所述处理器运行时执行如权利要求1至7任一项所述的眼部图像中目标区域的识别方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理器运行时实现上述权利要求1至7任一项所述的眼部图像中目标区域的识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011296343.9A CN112381012A (zh) | 2020-11-18 | 2020-11-18 | 眼部图像中目标区域的识别方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011296343.9A CN112381012A (zh) | 2020-11-18 | 2020-11-18 | 眼部图像中目标区域的识别方法、装置及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112381012A true CN112381012A (zh) | 2021-02-19 |
Family
ID=74584308
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011296343.9A Pending CN112381012A (zh) | 2020-11-18 | 2020-11-18 | 眼部图像中目标区域的识别方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112381012A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114931436A (zh) * | 2022-07-27 | 2022-08-23 | 中国科学院宁波材料技术与工程研究所 | 一种白内障手术导航系统 |
CN116503932A (zh) * | 2023-05-24 | 2023-07-28 | 北京万里红科技有限公司 | 重点区域加权的眼周特征提取方法、系统及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108038466A (zh) * | 2017-12-26 | 2018-05-15 | 河海大学 | 基于卷积神经网络的多通道人眼闭合识别方法 |
CN109344763A (zh) * | 2018-09-26 | 2019-02-15 | 汕头大学 | 一种基于卷积神经网络的斜眼检测方法 |
CN110210286A (zh) * | 2019-04-17 | 2019-09-06 | 平安科技(深圳)有限公司 | 基于眼底图像的异常识别方法、装置、设备及存储介质 |
CN110276283A (zh) * | 2019-06-10 | 2019-09-24 | 腾讯科技(深圳)有限公司 | 图片识别方法、目标识别模型训练方法及装置 |
CN110349147A (zh) * | 2019-07-11 | 2019-10-18 | 腾讯医疗健康(深圳)有限公司 | 模型的训练方法、眼底黄斑区病变识别方法、装置及设备 |
-
2020
- 2020-11-18 CN CN202011296343.9A patent/CN112381012A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108038466A (zh) * | 2017-12-26 | 2018-05-15 | 河海大学 | 基于卷积神经网络的多通道人眼闭合识别方法 |
CN109344763A (zh) * | 2018-09-26 | 2019-02-15 | 汕头大学 | 一种基于卷积神经网络的斜眼检测方法 |
CN110210286A (zh) * | 2019-04-17 | 2019-09-06 | 平安科技(深圳)有限公司 | 基于眼底图像的异常识别方法、装置、设备及存储介质 |
CN110276283A (zh) * | 2019-06-10 | 2019-09-24 | 腾讯科技(深圳)有限公司 | 图片识别方法、目标识别模型训练方法及装置 |
CN110349147A (zh) * | 2019-07-11 | 2019-10-18 | 腾讯医疗健康(深圳)有限公司 | 模型的训练方法、眼底黄斑区病变识别方法、装置及设备 |
Non-Patent Citations (3)
Title |
---|
朱会明;赵锐;高悦;刘平;张华;: "基于图像识别技术的中医肝病目诊系统设计与研发", 世界中医药, no. 10, 31 May 2020 (2020-05-31), pages 1494 - 1497 * |
王丁辰 等: "人工智能在眼底图像识别方法中的应用", 《激光杂志》, no. 4, 5 December 2019 (2019-12-05), pages 183 - 186 * |
王威 等: "深度学习技术在疾病诊断中的应用", 《第二军医大学学报》, no. 8, 31 August 2018 (2018-08-31), pages 852 - 858 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114931436A (zh) * | 2022-07-27 | 2022-08-23 | 中国科学院宁波材料技术与工程研究所 | 一种白内障手术导航系统 |
CN116503932A (zh) * | 2023-05-24 | 2023-07-28 | 北京万里红科技有限公司 | 重点区域加权的眼周特征提取方法、系统及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109784337B (zh) | 一种黄斑区识别方法、装置及计算机可读存储介质 | |
Claro et al. | An hybrid feature space from texture information and transfer learning for glaucoma classification | |
CN107644225A (zh) | 肺部病灶识别方法、装置和实现装置 | |
CN112017185B (zh) | 病灶分割方法、装置及存储介质 | |
KR102354980B1 (ko) | 전안부 질환 진단 시스템 및 이를 이용한 진단 방법 | |
CN112101424B (zh) | 一种视网膜病变识别模型的生成方法、识别装置及设备 | |
CN112381012A (zh) | 眼部图像中目标区域的识别方法、装置及电子设备 | |
WO2021190656A1 (zh) | 眼底图像黄斑中心定位方法及装置、服务器、存储介质 | |
CN111862009A (zh) | 一种眼底oct图像的分类方法及计算机可读存储介质 | |
CN109785399B (zh) | 合成病变图像的生成方法、装置、设备及可读存储介质 | |
CN111696100A (zh) | 基于眼底影像确定吸烟程度的方法及设备 | |
CN111598853A (zh) | 针对肺炎的ct影像评分方法、装置及设备 | |
Loo et al. | Open-source automatic segmentation of ocular structures and biomarkers of microbial keratitis on slit-lamp photography images using deep learning | |
CN111986202B (zh) | 青光眼辅助诊断装置、方法及存储介质 | |
TW202221637A (zh) | 影像處理系統及影像處理方法 | |
CN114782337A (zh) | 基于人工智能的oct图像推荐方法、装置、设备及介质 | |
CN113724203B (zh) | 应用于oct图像中目标特征分割的模型训练方法及装置 | |
CN116309235A (zh) | 一种针对糖尿病预测的眼底图像的处理方法和系统 | |
CN113850804A (zh) | 基于生成对抗网络的视网膜图像生成系统及方法 | |
CN110598652A (zh) | 眼底数据预测方法和设备 | |
WO2021032325A1 (en) | Updating boundary segmentations | |
CN112734701A (zh) | 眼底病灶检测方法、检测装置及终端设备 | |
CN114612373A (zh) | 一种图像识别方法及服务器 | |
Shanthakumari et al. | Glaucoma Detection using Fundus Images using Deep Learning | |
CN117612221B (zh) | 结合注意力shift的OCTA图像血管提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |