CN115546214B - 一种基于神经网络的集合近点测量方法和装置 - Google Patents

一种基于神经网络的集合近点测量方法和装置 Download PDF

Info

Publication number
CN115546214B
CN115546214B CN202211523515.0A CN202211523515A CN115546214B CN 115546214 B CN115546214 B CN 115546214B CN 202211523515 A CN202211523515 A CN 202211523515A CN 115546214 B CN115546214 B CN 115546214B
Authority
CN
China
Prior art keywords
subject
eyes
cornea
image acquisition
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211523515.0A
Other languages
English (en)
Other versions
CN115546214A (zh
Inventor
刘玉萍
吴栩平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Shijing Medical Software Co ltd
Original Assignee
Guangzhou Shijing Medical Software Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Shijing Medical Software Co ltd filed Critical Guangzhou Shijing Medical Software Co ltd
Priority to CN202211523515.0A priority Critical patent/CN115546214B/zh
Publication of CN115546214A publication Critical patent/CN115546214A/zh
Application granted granted Critical
Publication of CN115546214B publication Critical patent/CN115546214B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Abstract

本发明提供了一种基于神经网络的集合近点测量方法和装置,方法包括:通过图像采集设备获取受试者的角膜图像;通过预先训练好的神经网络模型对所述角膜图像进行检测,获取受试者双眼的角膜大小和双眼的角膜中心;判断是否满足检测触发条件;当条件得到满足,根据双眼的角膜大小的平均值,结合双眼实际尺寸和设备参数,计算集合近点。相比于现有技术,不再需要有经验的医护人员对受试者进行引导和观察,简化了繁琐的流程,减少了人工的介入程度;此外,在满足检测触发条件时,根据角膜大小的平均值,结合双眼的实际尺寸和图像采集设备的设备参数计算集合近点,相比现有技术极大程度的降低了主观性并提高了测量的准确性。

Description

一种基于神经网络的集合近点测量方法和装置
技术领域
本发明涉及眼科医疗领域,尤其涉及一种基于神经网络的集合近点测量方法和装置。
背景技术
随着信息化的逐步加深,人的生活、学习、工作节奏逐渐加快,人的视觉压力也随之增加,进而容易产生视疲劳。视疲劳的原因之一包括人眼的聚散调节功能的异常。其中,集合近点是临床眼科门诊种检查眼睛集合功能是否正常的一项指标。在物体慢慢靠近人眼时,集合的程度也会慢慢增加,但是当集合功能到达极限时,两眼就会放弃集合,眼球突然向外转动,形成不可抑制的双眼复现。而在放弃聚散之前,两眼所能保持的最近点就被称为集合近点。
目前,临床主要采用人工方法进行测量,具体地:将视标由眼前50厘米沿正中线慢慢向鼻根位置靠近,然后会出现到达近点的特征,包括:(1)两眼的眼球运动停止;(2)一眼或者双眼视觉线向外散开;(3)受试者自觉有复视出现;(4)瞳孔近见反应消失等。但是这种依赖人工的测量方法是根据人眼来估计距离,具有一定的主观性,而且操作麻烦,准确性较低。
发明内容
本发明提供了一种基于神经网络的集合近点测量方法和装置,以解决如何提高集合近点测量结果准确性的技术问题。
为了解决上述技术问题,本发明实施例提供了一种基于神经网络的集合近点测量方法,包括:
通过图像采集设备获取受试者的角膜图像;
通过预先训练好的神经网络模型对所述角膜图像进行检测,获取受试者双眼的角膜大小和双眼的角膜中心;其中,所述双眼的角膜大小和双眼的角膜中心均为实时获取;
根据所述受试者角膜中心的位置变化判断是否满足检测触发条件;当所述检测触发条件得到满足,根据所述受试者双眼的角膜大小的平均值,结合所述受试者双眼的实际尺寸和图像采集设备的设备参数,计算当前时刻所述受试者与图像采集设备之间的距离,获得对应的集合近点。
所述根据所述受试者角膜中心的位置变化判断是否满足检测触发条件,具体为:
根据所述受试者的角膜中心的位置变化判断眼睛的移动距离和移动方向,具体地,根据下式计算所述受试者眼睛的移动距离d1
Figure SMS_1
其中,xt为角膜中心在第t帧的横坐标,xt+1为角膜中心在第t+1帧的横坐标,Se为所述受试者眼睛的实际尺寸,Hp为角膜大小;当d1<0时,判断眼睛向鼻侧运动,当d1>0时,判断眼睛向颞侧运动;
当所述受试者双眼的移动距离在预设范围,或所述受试者任意一眼往相反方向的移动距离大于预设值时,判断所述检测触发条件得到满足。
所述设备参数包括所述图像采集设备的焦距;
所述计算当前时刻所述受试者与图像采集设备之间的距离,具体为:
根据下式计算所述受试者与图像采集设备之间的距离d2
Figure SMS_2
其中,Hpavg为所述受试者双眼的角膜大小的平均值,f为所述图像采集设备的焦距。
作为优选方案,所述神经网络模型采用hrnet网络结构。
作为优选方案,在所述获取受试者双眼的角膜大小和双眼的角膜中心之前,还包括:
对所述神经网络模型进行训练,具体地:
获取第一数据集,将所述第一数据集按照预设比例划分为训练集和测试集;其中,所述第一数据集包含若干人脸图像,且所述人脸图像的角膜已被标注;
通过所述训练集对基础网络模型进行训练直至收敛,获得训练好的所述神经网络模型。
相应的,本发明实施例还提供了一种基于神经网络的集合近点测量装置,包括图像采集模块、检测模块和计算模块;其中,
所述图像采集模块,用于通过图像采集设备获取受试者的角膜图像;
所述检测模块,用于通过预先训练好的神经网络模型对所述角膜图像进行检测,获取受试者双眼的角膜大小和双眼的角膜中心;其中,所述双眼的角膜大小和双眼的角膜中心均为实时获取;
所述计算模块,用于根据所述受试者角膜中心的位置变化判断是否满足检测触发条件;当所述检测触发条件得到满足,根据所述受试者双眼的角膜大小的平均值,结合所述受试者双眼的实际尺寸和图像采集设备的设备参数,计算当前时刻所述受试者与图像采集设备之间的距离,获得对应的集合近点。
所述计算模块根据所述受试者角膜中心的位置变化判断是否满足检测触发条件,具体为:
所述计算模块根据所述受试者的角膜中心的位置变化判断眼睛的移动距离和移动方向,具体地,根据下式计算所述受试者眼睛的移动距离d1
Figure SMS_3
其中,xt为角膜中心在第t帧的横坐标,xt+1为角膜中心在第t+1帧的横坐标,Se为所述受试者眼睛的实际尺寸,Hp为角膜大小;当d1<0时,判断眼睛向鼻侧运动,当d1>0时,判断眼睛向颞侧运动;
当所述受试者双眼的移动距离在预设范围,或所述受试者任意一眼往相反方向的移动距离大于预设值时,判断所述检测触发条件得到满足。
所述设备参数包括所述图像采集设备的焦距;
所述计算模块计算当前时刻所述受试者与图像采集设备之间的距离,具体为:
所述计算模块根据下式计算所述受试者与图像采集设备之间的距离d2
Figure SMS_4
其中,Hpavg为所述受试者双眼的角膜大小的平均值,f为所述图像采集设备的焦距。
作为优选方案,所述神经网络模型采用hrnet网络结构。
作为优选方案,所述集合近点测量装置还包括训练模块,所述训练模块用于在所述获取受试者双眼的角膜大小和双眼的角膜中心之前,对所述神经网络模型进行训练,具体地:
获取第一数据集,将所述第一数据集按照预设比例划分为训练集和测试集;其中,所述第一数据集包含若干人脸图像,且所述人脸图像的角膜已被标注;
通过所述训练集对基础网络模型进行训练直至收敛,获得训练好的所述神经网络模型。
相比于现有技术,本发明实施例具有如下有益效果:
本发明实施例提供了一种基于神经网络的集合近点测量方法和装置,所述测量方法包括:通过图像采集设备获取受试者的角膜图像;通过预先训练好的神经网络模型对所述角膜图像进行检测,获取受试者双眼的角膜大小和双眼的角膜中心;其中,所述双眼的角膜大小和双眼的角膜中心均为实时获取;根据所述受试者角膜中心的位置变化判断是否满足检测触发条件;当所述检测触发条件得到满足,根据所述受试者双眼的角膜大小的平均值,结合所述受试者双眼的实际尺寸和图像采集设备的设备参数,计算当前时刻所述受试者与图像采集设备之间的距离,获得对应的集合近点。相比于现有技术,通过图像采集设备获取受试者的角膜图像,并通过训练好的神经网络模型获取受试者的角膜大小和双眼的角膜中心进而得出最终的集合近点,相比通过人工的方式进行测量,不再需要有经验的医护人员对受试者进行引导和观察,简化了繁琐的流程,减少了人工的介入程度;此外,在满足检测触发条件时,根据所述受试者双眼的角膜大小的平均值,结合所述受试者双眼的实际尺寸和图像采集设备的设备参数,即根据双眼的物理信息(实际尺寸)和获取图像的信息(角膜大小的平均值)之间的关系,结合设备参数进行计算集合近点,相比现有技术极大程度的降低了主观性并提高了测量的准确性。
附图说明
图1:为本发明基于神经网络提供的集合近点测量方法的一种实施例的流程示意图。
图2:为本发明基于神经网络提供的集合近点测量装置的一种实施例的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一:
请参照图1,图1为本发明实施例提供的一种基于神经网络的集合近点测量方法,包括步骤S1至步骤S3;其中,
步骤S1,通过图像采集设备获取受试者的角膜图像。
在本实施例中,所述图像采集设备包括但不限于手机摄像头和笔记本摄像头等。本实施例以手机前置摄像头为例,作为本实施的一种举例,在手机正中贴一竖直长条作为视标,作为本实施例的另一种举例,也可以于手机屏幕上显示视标,以使受试者的双眼平视视标中心。具体采用何种方式吸引受试者的注意力,可以根据具体应用场景进行选择。
在步骤S2所述获取受试者双眼的角膜大小和双眼的角膜中心之前,还包括,构建并训练神经网络模型,具体地:
获取第一数据集,将所述第一数据集按照预设比例(本实施例优选为8:2)划分为训练集和测试集;其中,所述第一数据集包含若干人脸图像,且所述人脸图像的角膜特征区域的轮廓已被标注。且标注的角膜特征区域的轮廓包括32个关键点。
进而,通过所述训练集对基础网络模型进行训练直至收敛,获得训练好的所述神经网络模型。
步骤S2,通过预先训练好的神经网络模型对所述角膜图像进行检测,获取受试者双眼的角膜大小和双眼的角膜中心;其中,所述双眼的角膜大小和双眼的角膜中心均为实时获取。
在本实施例中,所述预先训练好的神经网络模型采用hrnet结构,用于对所述角膜图像进行关键点的检测,获得若干角膜关键点。进一步地,通过对检测到的若干角膜关键点进行圆拟合,可以获得受试者双眼的角膜大小(圆拟合的圆直径,单位为像素)和双眼的角膜中心(圆拟合的圆心)。
步骤S3,根据所述受试者角膜中心的位置变化判断是否满足检测触发条件;当所述检测触发条件得到满足,根据所述受试者双眼的角膜大小的平均值,结合所述受试者双眼的实际尺寸和图像采集设备的设备参数,计算当前时刻所述受试者与图像采集设备之间的距离,获得对应的集合近点。
在本实施例中,手机摄像头逐渐靠近人眼,即缩短摄像头与受试者之间的距离。当人眼距离摄像头50cm处时,受试者保持注视视标1至3秒,将视标从当前距离(50cm)沿正中线慢慢向鼻根靠近。在该过程中,眼睛会随着视标的逐渐靠近发生移动,持续检测每一帧的角膜图像,以获取对应的眼位信息。
根据角膜图像中所述受试者角膜中心的位置变化判断眼睛的移动距离和移动方向,具体地,根据下式计算所述受试者眼睛的移动距离d1
Figure SMS_5
;/>
需要说明的是(xt,yt)为角膜中心在第t帧的位置坐标,(xt+1,yt+1)为角膜中心在第t+1帧的位置坐标,其中,xt为角膜中心在第t帧的横坐标,xt+1为角膜中心在第t+1帧的横坐标,Se为所述受试者眼睛的实际尺寸(该人眼尺寸为角膜的水平直径,为预设值,从图像上可以对应为黑色眼珠的直径),Hp为角膜大小;当d1<0时,判断眼睛向鼻侧运动,当d1>0时,判断眼睛向颞侧运动,即判断了眼睛的运动方向,当d1=0时即没有发生移动。需要说明的是,作为本实施例的一种举例,当人眼与摄像头距离满足50cm的要求时,开始实时计算受试者与图像采集设备之间的距离,图像采集设备缓慢向受试者移动,在判断所述检测触发条件得到满足时,确定当前时刻摄像头与人眼之间的距离为对应于所述受试者的集合近点。作为本实施例的另一种举例,受试者与图像采集设备之间的距离也可以是在检测触发条件得到满足的时刻再进行计算,计算结果即为所述集合近点。
当所述受试者双眼的移动距离在预设范围内,即小到几乎不发生变化,或所述受试者任意一眼往相反方向的移动距离大于预设值时,此时判断所述检测触发条件得到满足。进而计算当前位置的距离,作为对应的集合近点。
具体地,集合近点的计算过程中,所述设备参数包括所述图像采集设备的焦距(本实施例即手机摄像头的焦距f,可以通过图像的exif信息获取);所述计算当前时刻所述受试者与图像采集设备之间的距离,具体为:
根据下式计算所述受试者与图像采集设备之间的距离d2
Figure SMS_6
其中,Hpavg为所述受试者双眼的角膜大小的平均值,f为所述图像采集设备(本实施例为手机摄像头)的焦距。需要说明的是,双眼的角膜大小的平均值指两眼之间的平均值。本实施例是通过设备的焦距,结合物理尺寸(即眼睛的实际尺寸,预设为11.7毫米,其取值范围可以为11.7±0.5毫米)与获取的图像信息(单位为像素)之间的对应关系,从而计算得到受试者与采集设备之间的距离。在满足所述检测触发条件时通过该方式进行检测,其误差可以压缩到极小的范围,相比现有技术具有更高的准确性,并且,由于触发条件通过机器学习的方法进行判定,相比现有技术极大地降低了主观性,降低了误检率,能客观地、相对准确地检测获得集合近点。
相应的,参照图2,本发明实施例还提供了一种基于神经网络的集合近点测量装置,包括图像采集模块101、检测模块102和计算模块103;其中,
所述图像采集模块101,用于通过图像采集设备获取受试者的角膜图像;
所述检测模块102,用于通过预先训练好的神经网络模型对所述角膜图像进行检测,获取受试者双眼的角膜大小和双眼的角膜中心;其中,所述双眼的角膜大小和双眼的角膜中心均为实时获取;
所述计算模块103,用于根据所述受试者角膜中心的位置变化判断是否满足检测触发条件;当所述检测触发条件得到满足,根据所述受试者双眼的角膜大小的平均值,结合所述受试者双眼的实际尺寸和图像采集设备的设备参数,计算当前时刻所述受试者与图像采集设备之间的距离,获得对应的集合近点。
作为一种优选实施方式,所述计算模块103根据所述受试者角膜中心的位置变化判断是否满足检测触发条件,具体为:
所述计算模块103根据所述受试者的角膜中心的位置变化判断眼睛的移动距离和移动方向,具体地,根据下式计算所述受试者眼睛的移动距离d1
Figure SMS_7
其中,xt为角膜中心在第t帧的横坐标,xt+1为角膜中心在第t+1帧的横坐标,Se为所述受试者眼睛的实际尺寸,Hp为角膜大小;当d1<0时,判断眼睛向鼻侧运动,当d1>0时,判断眼睛向颞侧运动;
当所述受试者双眼的移动距离在预设范围,或所述受试者任意一眼往相反方向的移动距离大于预设值时,判断所述检测触发条件得到满足。
作为一种优选实施方式,所述设备参数包括所述图像采集设备的焦距;
所述计算模块103计算当前时刻所述受试者与图像采集设备之间的距离,具体为:
所述计算模块103根据下式计算所述受试者与图像采集设备之间的距离d2
Figure SMS_8
其中,Hpavg为所述受试者双眼的角膜大小的平均值,f为所述图像采集设备的焦距。
作为一种优选实施方式,所述神经网络模型采用hrnet网络结构。
作为一种优选实施方式,所述集合近点测量装置还包括训练模块,所述训练模块用于在所述获取受试者双眼的角膜大小和双眼的角膜中心之前,对所述神经网络模型进行训练,具体地:
获取第一数据集,将所述第一数据集按照预设比例划分为训练集和测试集;其中,所述第一数据集包含若干人脸图像,且所述人脸图像的角膜已被标注;
通过所述训练集对基础网络模型进行训练直至收敛,获得训练好的所述神经网络模型。
相比于现有技术,本发明实施例具有如下有益效果:
本发明实施例提供了一种基于神经网络的集合近点测量方法和装置,所述测量方法包括:通过图像采集设备获取受试者的角膜图像;通过预先训练好的神经网络模型对所述角膜图像进行检测,获取受试者双眼的角膜大小和双眼的角膜中心;其中,所述双眼的角膜大小和双眼的角膜中心均为实时获取;根据所述受试者角膜中心的位置变化判断是否满足检测触发条件;当所述检测触发条件得到满足,根据所述受试者双眼的角膜大小的平均值,结合所述受试者双眼的实际尺寸和图像采集设备的设备参数,计算当前时刻所述受试者与图像采集设备之间的距离,获得对应的集合近点。相比于现有技术,通过图像采集设备获取受试者的角膜图像,并通过训练好的神经网络模型获取受试者的角膜大小和双眼的角膜中心进而得出最终的集合近点,相比通过人工的方式进行测量,不再需要有经验的医护人员对受试者进行引导和观察,简化了繁琐的流程,减少了人工的介入程度;此外,在满足检测触发条件时,根据所述受试者双眼的角膜大小的平均值,结合所述受试者双眼的实际尺寸和图像采集设备的设备参数,即根据双眼的物理信息(实际尺寸)和获取图像的信息(角膜大小的平均值)之间的关系,结合设备参数进行计算集合近点,相比现有技术极大程度的降低了主观性并提高了测量的准确性。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步的详细说明,应当理解,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围。特别指出,对于本领域技术人员来说,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种基于神经网络的集合近点测量方法,其特征在于,包括:
通过图像采集设备获取受试者的角膜图像;
通过预先训练好的神经网络模型对所述角膜图像进行检测,获取受试者双眼的角膜大小和双眼的角膜中心;其中,所述双眼的角膜大小和双眼的角膜中心均为实时获取;
根据所述受试者角膜中心的位置变化判断是否满足检测触发条件;当所述检测触发条件得到满足,根据所述受试者双眼的角膜大小的平均值,结合所述受试者双眼的实际尺寸和图像采集设备的设备参数,计算当前时刻所述受试者与图像采集设备之间的距离,获得对应的集合近点;
所述根据所述受试者角膜中心的位置变化判断是否满足检测触发条件,具体为:
根据所述受试者的角膜中心的位置变化判断眼睛的移动距离和移动方向,具体地,根据下式计算所述受试者眼睛的移动距离d1
Figure QLYQS_1
其中,xt为角膜中心在第t帧的横坐标,xt+1为角膜中心在第t+1帧的横坐标,Se为所述受试者眼睛的实际尺寸,Hp为角膜大小;当d1<0时,判断眼睛向鼻侧运动,当d1>0时,判断眼睛向颞侧运动;
当所述受试者双眼的移动距离在预设范围,或所述受试者任意一眼往相反方向的移动距离大于预设值时,判断所述检测触发条件得到满足;
所述设备参数包括所述图像采集设备的焦距;
所述计算当前时刻所述受试者与图像采集设备之间的距离,具体为:
根据下式计算所述受试者与图像采集设备之间的距离d2
Figure QLYQS_2
其中,Hpavg为所述受试者双眼的角膜大小的平均值,f为所述图像采集设备的焦距。
2.如权利要求1所述的一种基于神经网络的集合近点测量方法,其特征在于,所述神经网络模型采用hrnet网络结构。
3.如权利要求2所述的一种基于神经网络的集合近点测量方法,其特征在于,在所述获取受试者双眼的角膜大小和双眼的角膜中心之前,还包括:
对所述神经网络模型进行训练,具体地:
获取第一数据集,将所述第一数据集按照预设比例划分为训练集和测试集;其中,所述第一数据集包含若干人脸图像,且所述人脸图像的角膜已被标注;
通过所述训练集对基础网络模型进行训练直至收敛,获得训练好的所述神经网络模型。
4.一种基于神经网络的集合近点测量装置,其特征在于,包括图像采集模块、检测模块和计算模块;其中,
所述图像采集模块,用于通过图像采集设备获取受试者的角膜图像;
所述检测模块,用于通过预先训练好的神经网络模型对所述角膜图像进行检测,获取受试者双眼的角膜大小和双眼的角膜中心;其中,所述双眼的角膜大小和双眼的角膜中心均为实时获取;
所述计算模块,用于根据所述受试者角膜中心的位置变化判断是否满足检测触发条件;当所述检测触发条件得到满足,根据所述受试者双眼的角膜大小的平均值,结合所述受试者双眼的实际尺寸和图像采集设备的设备参数,计算当前时刻所述受试者与图像采集设备之间的距离,获得对应的集合近点;
所述计算模块根据所述受试者角膜中心的位置变化判断是否满足检测触发条件,具体为:
所述计算模块根据所述受试者的角膜中心的位置变化判断眼睛的移动距离和移动方向,具体地,根据下式计算所述受试者眼睛的移动距离d1
Figure QLYQS_3
其中,xt为角膜中心在第t帧的横坐标,xt+1为角膜中心在第t+1帧的横坐标,Se为所述受试者眼睛的实际尺寸,Hp为角膜大小;当d1<0时,判断眼睛向鼻侧运动,当d1>0时,判断眼睛向颞侧运动;
当所述受试者双眼的移动距离在预设范围,或所述受试者任意一眼往相反方向的移动距离大于预设值时,判断所述检测触发条件得到满足;
所述设备参数包括所述图像采集设备的焦距;
所述计算模块计算当前时刻所述受试者与图像采集设备之间的距离,具体为:
所述计算模块根据下式计算所述受试者与图像采集设备之间的距离d2
Figure QLYQS_4
其中,Hpavg为所述受试者双眼的角膜大小的平均值,f为所述图像采集设备的焦距。
5.如权利要求4所述的一种基于神经网络的集合近点测量装置,其特征在于,所述神经网络模型采用hrnet网络结构。
6.如权利要求5所述的一种基于神经网络的集合近点测量装置,其特征在于,所述集合近点测量装置还包括训练模块,所述训练模块用于在所述获取受试者双眼的角膜大小和双眼的角膜中心之前,对所述神经网络模型进行训练,具体地:
获取第一数据集,将所述第一数据集按照预设比例划分为训练集和测试集;其中,所述第一数据集包含若干人脸图像,且所述人脸图像的角膜已被标注;
通过所述训练集对基础网络模型进行训练直至收敛,获得训练好的所述神经网络模型。
CN202211523515.0A 2022-12-01 2022-12-01 一种基于神经网络的集合近点测量方法和装置 Active CN115546214B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211523515.0A CN115546214B (zh) 2022-12-01 2022-12-01 一种基于神经网络的集合近点测量方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211523515.0A CN115546214B (zh) 2022-12-01 2022-12-01 一种基于神经网络的集合近点测量方法和装置

Publications (2)

Publication Number Publication Date
CN115546214A CN115546214A (zh) 2022-12-30
CN115546214B true CN115546214B (zh) 2023-03-28

Family

ID=84721816

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211523515.0A Active CN115546214B (zh) 2022-12-01 2022-12-01 一种基于神经网络的集合近点测量方法和装置

Country Status (1)

Country Link
CN (1) CN115546214B (zh)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN216962419U (zh) * 2021-11-24 2022-07-15 天津市眼科医院视光中心有限公司 测量集合近点的改良工具

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10010248B1 (en) * 2013-10-09 2018-07-03 Bertec Corporation Instrument for measuring near point of convergence and/or near point of accommodation
EP3305176A1 (en) * 2016-10-04 2018-04-11 Essilor International Method for determining a geometrical parameter of an eye of a subject
CN108592865A (zh) * 2018-04-28 2018-09-28 京东方科技集团股份有限公司 基于ar设备的几何量测量方法及其装置、ar设备
WO2020208494A1 (en) * 2019-04-10 2020-10-15 Eyeware Tech Sa Method and system for estimating eye-related geometric parameters of a user
US11612316B2 (en) * 2019-06-20 2023-03-28 Awss Zidan Medical system and method operable to control sensor-based wearable devices for examining eyes
CN215993931U (zh) * 2021-08-30 2022-03-11 济南市明水眼科医院股份有限公司 一种多功能集合近点检查仪

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN216962419U (zh) * 2021-11-24 2022-07-15 天津市眼科医院视光中心有限公司 测量集合近点的改良工具

Also Published As

Publication number Publication date
CN115546214A (zh) 2022-12-30

Similar Documents

Publication Publication Date Title
US11786117B2 (en) Mobile device application for ocular misalignment measurement
US20200069179A1 (en) Head and eye tracking
KR101966164B1 (ko) 가상현실을 이용한 안과 검사 시스템 및 방법
CN106037626B (zh) 一种头戴式视野检查仪
CN111863209B (zh) 基于图像识别的结肠镜检查质量评估工作站
CN110325104B (zh) 利用红外摄像机的影像眼震颤检查装置及方法
JP2014124308A (ja) 眼電位生成装置、眼電位生成方法およびビューワー
CN115590462A (zh) 一种基于摄像头的视力检测方法和装置
CN115171024A (zh) 一种基于视频序列的面部多特征融合疲劳检测方法及系统
CN115546214B (zh) 一种基于神经网络的集合近点测量方法和装置
CN113288044B (zh) 动态视力检测系统和方法
KR20210079937A (ko) 뇌졸중 진단 시스템 및 방법
CN114190879A (zh) 基于虚拟现实技术的弱视儿童视功能检测系统
Hirota et al. Automatic recording of the target location during smooth pursuit eye movement testing using video-oculography and deep learning-based object detection
CN107224292B (zh) 一种调度员的注意广度的测试方法和系统
CN113558564B (zh) 一种基于单纯高度近视数据库构建的数据处理系统
CN105279774B (zh) 一种屈光不正的数字化影像识别方法
JP2023549865A (ja) 児童を対象とした両眼距離測定の方法及びシステム
CN108921010A (zh) 一种瞳孔检测方法及检测装置
CN116958225B (zh) 一种基于单向玻璃虚实结合的深度感知检测方法及系统
KR20200108721A (ko) 사시각 측정 장치 및 방법
Ueno et al. A noncontact measurement of saccadic eye movement with two high-speed cameras
Schardosim et al. Motion detection in infrared retinal image sequences
Chaudhary et al. Enhancing the precision of remote eye-tracking using iris velocity estimation
CN115644796B (zh) 一种基于斜视度的ac/a检测方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant