CN109744996B - Oct图像的bmo位置定位方法 - Google Patents

Oct图像的bmo位置定位方法 Download PDF

Info

Publication number
CN109744996B
CN109744996B CN201910027537.XA CN201910027537A CN109744996B CN 109744996 B CN109744996 B CN 109744996B CN 201910027537 A CN201910027537 A CN 201910027537A CN 109744996 B CN109744996 B CN 109744996B
Authority
CN
China
Prior art keywords
image
bmo
oct
positioning
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910027537.XA
Other languages
English (en)
Other versions
CN109744996A (zh
Inventor
陈再良
彭鹏
沈海澜
魏浩
曾梓洋
梁毅雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central South University
Original Assignee
Central South University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central South University filed Critical Central South University
Priority to CN201910027537.XA priority Critical patent/CN109744996B/zh
Publication of CN109744996A publication Critical patent/CN109744996A/zh
Application granted granted Critical
Publication of CN109744996B publication Critical patent/CN109744996B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

本发明公开了一种OCT图像的BMO位置定位方法,包括合成二维投影图并对彩色眼底图像进行视盘分割;彩色眼底图和二维投影图进行配准得到二维投影图上的视盘轮廓;视盘轮廓投影到OCT图像上得到两条投影线;分割RPE层并得到BMO点的粗定位点;训练识别网络;以BMO点的粗定位点为中心提取感兴趣区域并输入识别网络;将识别结果进行后处理并选取一致性最好的图像块作为最终的BMO定位区域;最终的BMO定位区域的集合中心即为最终的BMO定位点。本发明方法在BMO定位的精度上优于现有方法,更为接近专家手动标定的结果,而且本发明能够减少BMO周围组织对自动定位造成的影响,帮助临床医生自动标定出BMO位置。

Description

OCT图像的BMO位置定位方法
技术领域
本发明具体涉及一种OCT图像的BMO位置定位方法。
背景技术
青光眼是世界第二大致盲疾病,它通过对人视乳头周围的视神经节细胞轴突的破坏,导致人的视野缺失。由于青光眼的不可逆性,对青光眼的早检测、早发现和早治疗能够减缓疾病发展的进程。但因为青光眼的发病机制尚未完全明确,因此对青光眼的风险因素的研究仍然是目前的热点问题。
光学相干断层扫描技术(Optical Coherence Tomography,OCT)技术在眼科的临床应用不过二十年,其技术创新迅速,现已经成为眼科临床最重要的检查之一。该技术通过对组织发射相干光,回收组织的反射光与散射光,并与时间的延迟相结合,可以获取到组织的二维断层信息或整体视网膜三维图像的信息。除了实时监测,无创等优点外,OCT最重要的特点是其分辨率高,并且观察到的细微结构为横截面结构,符合病理学的常规观察习惯,为眼科研究者的活体视网膜形态研究提供技术支持。OCT技术的发展给青光眼的早期诊断和临床治疗提供了极大的便利,目前视网膜OCT图像中的神经纤维层厚度等参数已经成为青光眼临床诊断中的重要依据。OCT的工作过程如下:由低相干光源发出的低相干光线,由干涉仪分成两束光线,一束进入探测光路,直接入射眼内,被眼内不同组织的界面发射回来,用以提供眼内各种组织的厚度与距离信息;另一束进入参照光路,由已知空间距离的参照镜反射回来。两束光在光纤偶联器中整合为一,由于发射到参照镜的来回距离和发射到眼内给定结构的距离精确匹配,故产生干涉现象,被光敏探测器探测到。调解后的信号输入计算机进行运算,得到被测物体的光学相干断层图像。由于眼内组织具有不同的深度和空间结构,所以两束光线之间会产生时间差,这种时间差叫做光学延迟时间。把探测器所计算出的时间差利用低相干光涉度量学原理,可获得组织反射的信息。获取到这些信息后,由计算机计算出一维的扫描图像信息,通常为二维图像中的一列。
Bruch膜开口点(Bruch’s Membrane Opening,BMO)是Bruch膜在视神经乳头位置的截止点,是OCT图像上的一个重要生物标记。研究表明,BMO的位置随着青光眼的发病位置保持稳定,而筛板和视杯等其他结构的位置会随着青光眼发展而改变,故BMO可以作为监测青光眼发展的一个重要参考位置,我们通过BMO的自动定位,可以计算出与青光眼早期发病相关的重要参数如BMO-MRW,筛板前表面深度等。在临床医学诊断中对OCT图像中参数测量的精确程度相对较高,而手动标定不仅费时费力,而且还会造成主观误差,因此如何实现精确自动定位BMO是目前亟待解决的问题。
近年来BMO的自动定位方法主要分为两种:基于图论的方法和基于机器学习的方法。
①基于图论的方法
2010年,美国爱荷华大学的Hu等人提出了一种基于图搜索算法的BMO定位方法,并利用眼底图上专家标定的视盘映射到三维SD-OCT数据中作为金标准。2015年Miri等人通过使用随机森林构造代价函数的图论算法改进了上述方法,该算法将分割问题转化为优化问题,用最短路径算法得到BMO的三维路径,提高了定位的精确度;但该方法的不足之处在于对血管阴影缺乏鲁棒性,并且过于依赖二维投影图和眼底图的配准效果,一旦失配,分割效果将会变得很差。Miri等人在2017年提出了一种改进方法,通过使用一种由近邻亮度特征、高斯特征和Gabor特征的组合特征进行学习,并采用动态规划的方法获取BMO的路径,脱离了对配准算法的依赖并且解决了血管阴影问题。但同时也大大增加了时间的消耗。
2015年,澳大利亚墨尔本大学的Hussain等人提出了一种基于图搜索和OCT分层信息的BMO分割方法,该方法利用图搜索得到视网膜内外节(inner segment-outer segment,IS-OS)和视网膜色素上皮层(retinal pigment epithelium,RPE)的交点作为初始定位,再用内界膜层(inner limiting membrane,ILM)的最深位置来进行校准,达到了较高的准确率;但没有解决BMO点周围组织对定位的干扰。爱荷华大学的Wang等人提出了一种基于形状软约束的图论算法,利用ILM的形状和BM层(Bruch’s Membrane)的纹理特征,利用二维高清OCT和3D SD-OCT的信息构造权重图估计SD-OCT上的BMO曲线,达到了与半自动算法相接近的效果;不足之处在于该算法依赖以视盘为中心的HD-OCT,并且依赖两种OCT图像配准的效果。
②基于机器学习的方法
2014年,Belghith等人提出了一种基于反卷积的模型,该模型用一条曲线对Bruch膜层进行建模,用一个卷积核对厚度进行建模,然后采用马尔可夫蒙特卡洛方法对模型的参数进行求解,并通过约束去除掉过短的线段,最后将问题转化为缺失数据填充,有效提高了分割的精确度,但缺失较长即血管阴影较大的样本会对该方法的定位造成较大的影响。2015年,付华柱等人提出了一种使用低秩矩阵的方法来分割BMO的位置,通过误差曲线和sigmoid曲线比较得到BMO分割点;该方法的准确度需要大量的实验来证明,而且会受到视盘旁萎缩弧的影响而使效果变差,对青光眼样本不具有鲁棒性。南京工业大学的Wu等人提出了一种基于支持向量机的块匹配BMO分割方法,达到了0.919的dice系数;该方法的主要问题在于特征窗口提取时的耗时太大,同时在倾斜度较大的OCT图像中分割的精度还有待提高。
发明内容
本发明的目的在于提供一种定位准确、方法可靠且时间复杂度相对较低的OCT图像的BMO位置定位方法。
本发明提供的这种OCT图像的BMO位置定位方法,包括如下步骤:
S1.将OCT体数据合成二维投影图,同时对彩色眼底图像进行视盘分割;
S2.对步骤S1得到的彩色眼底图和二维投影图进行配准,从而得到二维投影图上的视盘轮廓;
S3.将步骤S2得到的视盘轮廓投影到每一张OCT图像上,从而得到两条投影线;
S4.分割出OCT图像的RPE层,并将步骤S3得到的两条投影线与RPE层的交点作为BMO点的粗定位点;
S5.在训练图像中,以已标定的BMO点为中心提取感兴趣区域,并在感兴趣区域中随机选取图像块作为训练数据训练识别网络;
S6.以步骤S4得到的BMO点的粗定位点为中心提取感兴趣区域,并在感兴趣区域提取图像块输入到步骤S5得到的训练好的识别网络;
S7.将步骤S6得到的识别结果进行后处理,并在每个感兴趣区域提取的图像块中选取一致性最好的图像块,作为最终的BMO定位区域;
S8.步骤S7得到的最终的BMO定位区域的几何中心即为最终的BMO定位点。
步骤S1所述的将OCT体数据合成二维投影图,具体为将SD-OCT图像按列相加并归一化,得到OCT图像的二维投影图。
步骤S1所述的对彩色眼底图像进行视盘分割,具体为利用霍夫圆检测的方法,分割出彩色眼底图中的视盘。
步骤S2所述的对得到的彩色眼底图和二维投影图进行配准,从而得到二维投影图上的视盘轮廓,具体为提取出彩色眼底图和二维投影图中的FAST特征点,然后利用RPM-PIIFD方法进行特征点匹配并选择匹配对,并配准彩色眼底图和二维投影图,从而得到投影图中的视盘轮廓。
步骤S4所述的分割出OCT图像的RPE层,具体为将OCT图像转换为一个带权有向图,并在带权有向图中找到一条最短路径,从而分割出OCT图像的RPE层。
所述的带权有向图中,采用如下公式计算权重wab
wab=2-(ga+gb)+wmin
式中wab为连接结点a和结点b的边的权重,ga为结点a所代表图像像素的垂直梯度,gb为结点b所代表图像像素的垂直梯度,wmin为非零的最小边权重并用于避免除零错误。
步骤S5所述的识别网络为U-net网络。
U-net网络的的损失函数,具体为采用如下算式作为损失函数Loss:
Figure BDA0001943038190000051
式中x为图像块Ω中的像素,px为每个图像块中预测区域的像素,gx为每个图像块中训练标签的像素,
Figure BDA0001943038190000061
为预测区域的像素数量,
Figure BDA0001943038190000062
为训练标签的像素数量,n为图像块Ω中所包含的总像素数量。
步骤S7所述的选取一致性最好的图像块,具体为采用如下算式计算一致性:
Figure BDA0001943038190000063
式中,Mi为图像块i的一致性,Si为第i个图像块的分割结果;Dice(Si,Sj)为Si和Sj的dice系数值且
Figure BDA0001943038190000064
k为指数参数并用于扩大一致结果的影响同时减小不一致结果的影响。
本发明提供的这种OCT图像的BMO位置定位方法,基于眼底图和OCT二维投影图的多模态配准,并将RPE层分割出来,以粗略定位OCT图像中的BMO点,再根据粗定位的结果提取出感兴趣区域,并将问题转化为区域分割问题,使用卷积神经网络进行精确定位,最后利用分割结果的一致性进行优选,得到最终结果。本发明方法在BMO定位的精度上优于现有方法,更为接近专家手动标定的结果,而且本发明能够解决目前BMO自动定位方法精度不足的缺点,帮助临床医生自动标定出BMO位置。
附图说明
图1为本发明方法的方法流程图。
图2为本发明方法的二维投影图合成的示意图。
图3为本发明方法的BMO粗定位示意图。
图4为本发明方法的感兴趣区域提取和标签转换的示意图。
图5为本发明方法对不同圆形区域半径得到的结果折线图。
图6为本发明方法的BMO定位结果在二维合成图上的投影结果示意图。
具体实施方式
如图1所示为本发明方法的方法流程图:本发明提供的这种OCT图像的BMO位置定位方法,包括如下步骤:
S1.将OCT体数据合成二维投影图,同时对彩色眼底图像进行视盘分割;
在具体实施时,将SD-OCT图像按列相加并归一化,即可得到OCT图像的二维投影图,如图2所示;其中,图2(a)为单张的SD-OCT图像;图2(b)为128张SD-OCT图像所合成的二维投影图;
同时,利用霍夫圆检测的方法可以分割出彩色眼底图中的视盘;
S2.对步骤S1得到的彩色眼底图和二维投影图进行配准,从而得到二维投影图上的视盘轮廓;具体为提取出彩色眼底图和二维投影图中的FAST特征点,然后利用RPM-PIIFD方法进行特征点匹配并选择匹配对,并配准彩色眼底图和二维投影图,从而得到投影图中的视盘轮廓;
S3.将步骤S2得到的视盘轮廓投影到每一张OCT图像上,从而得到两条投影线;
S4.分割出OCT图像的RPE层,并将步骤S3得到的两条投影线与RPE层的交点作为BMO点的粗定位点;
在具体实施时,将OCT图像转换为一个带权有向图,并在带权有向图中找到一条最短路径,从而分割出OCT图像的RPE层;在带权有向图中,采用如下公式计算权重wab
wab=2-(ga+gb)+wmin
式中wab为连接结点a和结点b的边的权重,ga为结点a所代表图像像素的垂直梯度,gb为结点b所代表图像像素的垂直梯度,wmin为非零的最小边权重并用于避免除零错误,可以取值为10-5
同时,在得到RPE层的分割结果后,以两条视盘投影线和分割出的RPE层的交点作为BMO的粗定位点,如图3所示;其中,垂直的两条白线为二维投影图中视盘展开得到的结果,横向贯穿图3的白线即为BM层的分割结果,垂直的两条白线与横向线的交点即为BMO的粗定位点;
S5.在训练图像中,以已标定的BMO点为中心提取感兴趣区域,并在感兴趣区域中随机选取图像块作为训练数据训练识别网络;
在具体实施时,识别网络采用U-net网络;训练时利用镜像、旋转等数据扩充方法进一步扩大训练数据,同时为了保证网络输出的结果不仅准确度高,而且还尽可能保证是较为规范的圆形,在dice损失中加入了面积约束,并添加均方误差损失(Mean SquareError,MSE)以提高精度;因此,U-net网络采用如下算式作为损失函数Loss:
Figure BDA0001943038190000081
式中x为图像块Ω中的像素,px为每个图像块中预测区域的像素,gx为每个图像块中训练标签的像素,
Figure BDA0001943038190000082
为预测区域的像素数量,
Figure BDA0001943038190000083
为训练标签的像素数量,n为图像块Ω中所包含的总像素数量;
如图4所示,图4(a)为感兴趣区域的提取示意图,图4(b)为标签转换的示意图;
S6.以步骤S4得到的BMO点的粗定位点为中心提取感兴趣区域,并在感兴趣区域提取图像块输入到步骤S5得到的训练好的识别网络;
S7.将步骤S6得到的识别结果进行后处理,并在每个感兴趣区域提取的图像块中选取一致性最好的图像块,作为最终的BMO定位区域;
训练好U-net网络后,以得到的粗定位点为中心提取感兴趣区域,在感兴趣区域中提取出左上,左下,右上,右下4个图像块,同时输入到网络中进行测试得到结果;为了选取一致性最好的结果,采用如下算式计算一致性:
Figure BDA0001943038190000091
式中,Mi为图像块i的一致性,Si为第i个图像块的分割结果;Dice(Si,Sj)为Si和Sj的dice系数值且
Figure BDA0001943038190000092
k为指数参数并用于扩大一致结果的影响同时减小不一致结果的影响,取值范围为[5,8];
S8.步骤S7得到的最终的BMO定位区域的几何中心即为最终的BMO定位点。
以下结合具体实施例对本发明方法的效果进行说明:
对比时,采集了30个样本数据,每个样本为128张OCT图像组成的体数据,并以专家手工标定的BMO点作为对应的Ground Truth。
基于本发明方法的步骤所述,圆的半径大小对方法的定位精度有影响,如图5所示,在实验中,设置圆形区域的半径为9像素。
本发明将提出的方法在不同的损失函数组成上进行对比,以测定点和GroundTruth的平均误差及网络的准确率作为评价标准。
表1 不同损失函数下的定位结果
Figure BDA0001943038190000101
从表1中可以看出,在其他条件相同的情况下,本发明提出的面积约束不管在准确率还是平均误差上都能提升BMO定位的结果。
本发明同样对提出的后处理方法进行了评估,以测定点和Ground Truth的平均误差作为评价标准。
表2 后处理方法对定位结果的影响
Figure BDA0001943038190000102
从表2中可以看出,本发明提出的后处理方法由于利用结果的一致性,能够排除一些误差较大的误分割结果,从而提升定位的精度。
本发明将提出的方法与现有的不同的BMO定位方法进行对比,包括层次约束的方法,图像块搜索的方法和机器学习与图论相结合的方法,以测定点和Ground Truth的平均误差和标准差作为评价标准。
表3 BMO定位结果对比
定位方法 平均误差(微米) 标准差(微米)
层次约束方法 54.18 53.74
图像块搜索方法 67.00 42.00
机器学习结合图论方法 49.28 16.78
本发明提出的方法 42.38 18.33
从表3中可以看出,本发明提出的方法在精确度上(平均误差42.38微米)要优于现有的三种不同方法,而在稳定性上,本方法的标准差是18.33微米,优于层次约束方法和图像块搜索方法,与机器学习和图论相结合的方法相近。图6在二维合成图上投影出了本发明方法的定位结果与专家手动定位的结果,从图中可以看出,本发明方法可以得到非常准确的分割结果,并与专家手动标定的结果相一致。

Claims (7)

1.一种OCT图像的BMO位置定位方法,包括如下步骤:
S1.将OCT体数据合成二维投影图,同时对彩色眼底图像进行视盘分割;
S2.对步骤S1得到的彩色眼底图和二维投影图进行配准,从而得到二维投影图上的视盘轮廓;
S3.将步骤S2得到的视盘轮廓投影到每一张OCT图像上,从而得到两条投影线;
S4.分割出OCT图像的RPE层,并将步骤S3得到的两条投影线与RPE层的交点作为BMO点的粗定位点;
S5.在训练图像中,以已标定的BMO点为中心提取感兴趣区域,并在感兴趣区域中随机选取图像块作为训练数据训练识别网络;所述的识别网络为U-net网络;U-net网络的的损失函数,具体为采用如下算式作为损失函数Loss:
Figure FDA0003021223500000011
式中x为图像块Ω中的像素,px为每个图像块中预测区域的像素,gx为每个图像块中训练标签的像素,
Figure FDA0003021223500000012
为预测区域的像素数量,
Figure FDA0003021223500000013
为训练标签的像素数量,n为图像块Ω中所包含的总像素数量;
S6.以步骤S4得到的BMO点的粗定位点为中心提取感兴趣区域,并在感兴趣区域提取图像块输入到步骤S5得到的训练好的识别网络;
S7.将步骤S6得到的识别结果进行后处理,并在每个感兴趣区域提取的图像块中选取一致性最好的图像块,作为最终的BMO定位区域;
S8.步骤S7得到的最终的BMO定位区域的几何中心即为最终的BMO定位点。
2.根据权利要求1所述的OCT图像的BMO位置定位方法,其特征在于步骤S1所述的将OCT体数据合成二维投影图,具体为将SD-OCT图像按列相加并归一化,得到OCT图像的二维投影图。
3.根据权利要求2所述的OCT图像的BMO位置定位方法,其特征在于步骤S1所述的对彩色眼底图像进行视盘分割,具体为利用霍夫圆检测的方法,分割出彩色眼底图中的视盘。
4.根据权利要求3所述的OCT图像的BMO位置定位方法,其特征在于步骤S2所述的对得到的彩色眼底图和二维投影图进行配准,从而得到二维投影图上的视盘轮廓,具体为提取出彩色眼底图和二维投影图中的FAST特征点,然后利用RPM-PIIFD方法进行特征点匹配并选择匹配对,并配准彩色眼底图和二维投影图,从而得到投影图中的视盘轮廓。
5.根据权利要求4所述的OCT图像的BMO位置定位方法,其特征在于步骤S4所述的分割出OCT图像的RPE层,具体为将OCT图像转换为一个带权有向图,并在带权有向图中找到一条最短路径,从而分割出OCT图像的RPE层。
6.根据权利要求5所述的OCT图像的BMO位置定位方法,其特征在于所述的带权有向图中,采用如下公式计算权重wab
wab=2-(ga+gb)+wmin
式中wab为连接结点a和结点b的边的权重,ga为结点a所代表图像像素的垂直梯度,gb为结点b所代表图像像素的垂直梯度,wmin为非零的最小边权重并用于避免除零错误。
7.根据权利要求6所述的OCT图像的BMO位置定位方法,其特征在于步骤S7所述的选取一致性最好的图像块,具体为采用如下算式计算一致性:
Figure FDA0003021223500000031
式中,Mi为图像块i的一致性,Si为第i个图像块的分割结果;Dice(Si,Sj)为Si和Sj的dice系数值且
Figure FDA0003021223500000032
k为指数参数并用于扩大一致结果的影响同时减小不一致结果的影响。
CN201910027537.XA 2019-01-11 2019-01-11 Oct图像的bmo位置定位方法 Active CN109744996B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910027537.XA CN109744996B (zh) 2019-01-11 2019-01-11 Oct图像的bmo位置定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910027537.XA CN109744996B (zh) 2019-01-11 2019-01-11 Oct图像的bmo位置定位方法

Publications (2)

Publication Number Publication Date
CN109744996A CN109744996A (zh) 2019-05-14
CN109744996B true CN109744996B (zh) 2021-06-15

Family

ID=66405482

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910027537.XA Active CN109744996B (zh) 2019-01-11 2019-01-11 Oct图像的bmo位置定位方法

Country Status (1)

Country Link
CN (1) CN109744996B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112884820B (zh) * 2019-11-29 2024-06-25 杭州三坛医疗科技有限公司 一种影像初始配准及神经网络的训练方法、装置和设备
CN111489353B (zh) * 2020-05-07 2023-06-23 清华大学深圳国际研究生院 一种眼底图像中央凹定位方法
CN112508001A (zh) * 2020-12-03 2021-03-16 安徽理工大学 一种基于多光谱波段筛选和改进U-Net的煤矸石定位方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101010710A (zh) * 2005-07-07 2007-08-01 松下电器产业株式会社 地图信息校正装置、地图信息校正方法、程序、和使用地图信息校正装置的信息提供装置和信息获取装置
CN101576956A (zh) * 2009-05-11 2009-11-11 天津普达软件技术有限公司 基于机器视觉的在线字符检测方法和系统
CN105474234A (zh) * 2015-11-24 2016-04-06 厦门中控生物识别信息技术有限公司 一种掌静脉识别的方法和掌静脉识别装置
US9320007B2 (en) * 2013-05-31 2016-04-19 Broadcom Corporation Locationing via staged antenna utilization
CN106991388A (zh) * 2017-03-27 2017-07-28 中国科学院自动化研究所 关键点定位方法
CN108108669A (zh) * 2017-12-01 2018-06-01 中国科学院重庆绿色智能技术研究院 一种基于显著子区域的面部特征解析方法
CN108416344A (zh) * 2017-12-28 2018-08-17 中山大学中山眼科中心 眼底彩照视盘与黄斑定位识别方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050100126A1 (en) * 2003-11-07 2005-05-12 Mistretta Charles A. Computed tomography with z-axis scanning
FR2884008A1 (fr) * 2005-03-31 2006-10-06 France Telecom Systeme et procede de localisation de points d'interet dans une image d'objet mettant en oeuvre un reseau de neurones
JP4850927B2 (ja) * 2009-06-02 2012-01-11 キヤノン株式会社 画像処理装置、画像処理方法及びコンピュータプログラム
JP6230957B2 (ja) * 2014-05-29 2017-11-15 株式会社日立国際電気 検査装置及び検査方法
JP2016002380A (ja) * 2014-06-18 2016-01-12 キヤノン株式会社 画像処理装置、その作動方法及びプログラム
EP3376939B1 (en) * 2015-11-18 2022-05-11 University Of Louisville Research Foundation, Inc. Automated methods for the objective quantification of retinal characteristics by retinal region and diagnosis of retinal pathology
CN105701513B (zh) * 2016-01-14 2019-06-07 深圳市未来媒体技术研究院 快速提取掌纹感兴趣区域的方法
CN106296699A (zh) * 2016-08-16 2017-01-04 电子科技大学 基于深度神经网络和多模态mri图像的脑肿瘤分割方法
CN106408558B (zh) * 2016-09-05 2019-01-04 南京理工大学 糖尿病性视网膜病变图像中硬性渗出与高反射信号的分析方法
CN106530283A (zh) * 2016-10-20 2017-03-22 北京工业大学 一种基于svm的医疗图像血管识别方法
WO2018091486A1 (en) * 2016-11-16 2018-05-24 Ventana Medical Systems, Inc. Convolutional neural networks for locating objects of interest in images of biological samples
WO2018093182A1 (en) * 2016-11-16 2018-05-24 Samsung Electronics Co., Ltd. Image management method and apparatus thereof
US10051594B1 (en) * 2017-08-14 2018-08-14 Verizon Patent And Licensing Inc. Signal power pattern-based location detection and cell placement
CN108256440A (zh) * 2017-12-27 2018-07-06 长沙学院 一种眉毛图像分割方法和系统
CN108416772A (zh) * 2018-03-07 2018-08-17 汕头大学 一种基于级联卷积神经网络的斜眼检测方法
CN108427942A (zh) * 2018-04-22 2018-08-21 广州麦仑信息科技有限公司 一种基于深度学习的手掌检测与关键点定位方法
CN108717868A (zh) * 2018-04-26 2018-10-30 博众精工科技股份有限公司 基于深度学习的青光眼眼底图像筛查方法及系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101010710A (zh) * 2005-07-07 2007-08-01 松下电器产业株式会社 地图信息校正装置、地图信息校正方法、程序、和使用地图信息校正装置的信息提供装置和信息获取装置
CN101576956A (zh) * 2009-05-11 2009-11-11 天津普达软件技术有限公司 基于机器视觉的在线字符检测方法和系统
US9320007B2 (en) * 2013-05-31 2016-04-19 Broadcom Corporation Locationing via staged antenna utilization
CN105474234A (zh) * 2015-11-24 2016-04-06 厦门中控生物识别信息技术有限公司 一种掌静脉识别的方法和掌静脉识别装置
CN106991388A (zh) * 2017-03-27 2017-07-28 中国科学院自动化研究所 关键点定位方法
CN108108669A (zh) * 2017-12-01 2018-06-01 中国科学院重庆绿色智能技术研究院 一种基于显著子区域的面部特征解析方法
CN108416344A (zh) * 2017-12-28 2018-08-17 中山大学中山眼科中心 眼底彩照视盘与黄斑定位识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
《虹膜图像处理与识别技术研究》;孙光民等;《制造业自动化》;20110710;第33卷(第13期);第48-53页 *

Also Published As

Publication number Publication date
CN109744996A (zh) 2019-05-14

Similar Documents

Publication Publication Date Title
US10194866B2 (en) Methods and apparatus for reducing artifacts in OCT angiography using machine learning techniques
CN104271031B (zh) Oct血管造影数据的分析和可视化
US9098742B2 (en) Image processing apparatus and image processing method
US9418423B2 (en) Motion correction and normalization of features in optical coherence tomography
US7782464B2 (en) Processes, arrangements and systems for providing a fiber layer thickness map based on optical coherence tomography images
JP4909377B2 (ja) 画像処理装置及びその制御方法、コンピュータプログラム
US11653828B2 (en) Systems and methods for improved anterior segment OCT imaging
Niu et al. Automated retinal layers segmentation in SD-OCT images using dual-gradient and spatial correlation smoothness constraint
US9514513B2 (en) Establishing compatibility between two- and three-dimensional optical coherence tomography scans
US20120127427A1 (en) 3d retinal disruptions detection using optical coherence tomography
CN108961261B (zh) 一种基于空间连续性约束的视盘区域oct图像层次分割方法
CN109744996B (zh) Oct图像的bmo位置定位方法
US20090268159A1 (en) Automated assessment of optic nerve head with spectral domain optical coherence tomography
CN108416793B (zh) 基于三维相干断层成像图像的脉络膜血管分割方法及系统
CN108618749B (zh) 基于便携式数字化眼底照相机的视网膜血管三维重建方法
US10251550B2 (en) Systems and methods for automated segmentation of retinal fluid in optical coherence tomography
US10758122B2 (en) Volume analysis and display of information in optical coherence tomography angiography
EP3417401B1 (en) Method for reducing artifacts in oct using machine learning techniques
Eghtedar et al. An update on choroidal layer segmentation methods in optical coherence tomography images: a review
de Sisternes et al. A machine learning approach for device-independent automated segmentation of retinal cysts in spectral domain optical coherence tomography images
CN107657605B (zh) 一种基于主动轮廓和能量约束的筛板前表面深度测量方法
Slokom et al. Contribution to intra-retinal fluid segmentation in optical coherence tomography by using automatic personalized thresholding
Lee et al. Morphometry of the myopic optic nerve head using FDOCT
CN117752295A (zh) 一种视神经筛板测量方法和系统
Hussain et al. ILM and Fovea Detection using Standard Deviation Profiling Method

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant