CN112700858A - 一种儿童青少年近视预警方法及设备 - Google Patents

一种儿童青少年近视预警方法及设备 Download PDF

Info

Publication number
CN112700858A
CN112700858A CN202011468303.8A CN202011468303A CN112700858A CN 112700858 A CN112700858 A CN 112700858A CN 202011468303 A CN202011468303 A CN 202011468303A CN 112700858 A CN112700858 A CN 112700858A
Authority
CN
China
Prior art keywords
eye
data
state
early warning
examiner
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011468303.8A
Other languages
English (en)
Other versions
CN112700858B (zh
Inventor
毕宏生
胡媛媛
吴建峰
毛力
宋继科
吴慧
赵海强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jinan Tongxing Intelligent Technology Co ltd
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN202011468303.8A priority Critical patent/CN112700858B/zh
Publication of CN112700858A publication Critical patent/CN112700858A/zh
Application granted granted Critical
Publication of CN112700858B publication Critical patent/CN112700858B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/103Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Evolutionary Biology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Veterinary Medicine (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本申请公开了一种儿童青少年近视预警方法及设备,通过接收来自眼部检测设备的检测者的当前眼睛屈光度数据,并根据当前眼睛屈光度数据确定检测者的当前眼睛屈光状态。接收来自图像采集设备的面部图像,并根据对面部图像进行识别,根据识别结果确定检测者的用户基础信息。基于检测者的当前眼睛屈光状态以及面部图像,获取检测者的用眼行为数据以及当前眼睛生理数据。根据检测者的当前眼睛屈光状态,在若干眼睛屈光状态预警模型中确定一种眼睛屈光状态预警模型。根据获取的用户基础信息、用眼行为数据和当前眼睛生理数据,输入确定的眼睛屈光状态预警模型,得到检测者相应的预警信息。

Description

一种儿童青少年近视预警方法及设备
技术领域
本申请涉及计算机技术领域,尤其涉及一种儿童青少年近视预警方法及设备。
背景技术
儿童青少年近视问题一直以来都是一项非常严峻的问题。我国的儿童青少年近视率高居世界首位,患者低龄化趋势明显,儿童青少年近视问题已经成为我国面临的重要社会问题。儿童青少年近视问题还会严重危害儿童青少年的身心健康,会影响儿童青少年后续的发展。近视化过程是一种发育性过程,近视的发生是一个从小到大受到遗传与用眼环境习惯影响的连续积累的产物。
实际情况中,一般都是在儿童青少年出现看不清的问题后,才进行视力检查,从而导致儿童青少年的近视问题发现时间过晚,造成错过最佳治疗的时间。或者,在儿童青少年已经存在进行问题时,由于较多外部因素的影响,导致存在近视问题的儿童青少年无法定时检查,无法定时的调整眼镜度数,从而进一步导致近视的加深。
基于此,对于儿童青少年近视进行相应的预警就变得至为重要,成为当前亟需解决的技术问题。
发明内容
本说明书实施例提供一种儿童青少年近视预警方法及设备,用于解决现有技术中的如下技术问题:儿童青少年近视问题发展不及时,造成儿童青少年近视问题日益严重的问题。
本说明书实施例采用下述技术方案:一种儿童青少年近视预警方法,所述方法包括:
接收来自眼部检测设备的检测者的当前眼睛屈光度数据,并根据所述当眼睛屈光度数据确定所述检测者的当前眼睛屈光状态;
其中,所述当前眼睛屈光状态包括:近视临床前期状态、假性近视状态、真性近视状态;
接收来自图像采集设备的面部图像,并根对所述面部图像进行识别,根据识别结果确定所述检测者的用户基础信息;
基于所述检测者的当前眼睛屈光状态以及所述面部图像,获取所述检测者的用眼行为数据以及当前眼睛生理数据;
根据所述检测者的当前眼睛屈光状态,在若干眼睛屈光状态预警模型中确定一种眼睛屈光状态预警模型;其中,不同的当前眼睛屈光状态对应不同的眼睛屈光状态预警模型;
根据获取的所述用户基础信息、用眼行为数据和当前眼睛生理数据,输入所述确定的眼睛屈光状态预警模型,得到所述检测者相应的预警信息;
其中,所述预警信息用于表示预设时间段内所述检测者的眼睛屈光状态变化程度。
在本申请的一些实施例中,所述眼睛屈光状态预警模型包括:第一眼睛屈光状态预警模型、第二眼睛屈光状态预警模型、第三眼睛屈光状态预警模型;
根据所述检测者的当前眼睛屈光状态,确定相应的眼睛屈光状态预警模型,具体包括以下任意一项或多项:
在所述检测者的当前眼睛屈光状态为近视临床前期状态的情况下,确定的眼睛屈光状态预警模型为第一眼睛屈光状态预警模型;其中,所述第一眼睛屈光状态预警模型用于确定所述检测者在预设时间段内从近视临床前期状态变化为假性近视状态的概率;
在所述检测者的当前眼睛屈光状态为假性近视状态的情况下,确定的眼睛屈光状态预警模型为第二眼睛屈光状态预警模型;其中,所述第二眼睛屈光状态预警模型用于确定所述检测者在预设时间段内从假性近视状态变化为真性近视状态的概率;
在所述检测者的当前眼睛屈光状态为真性近视状态的情况下,确定的眼睛屈光状态预警模型为第三眼睛屈光状态预警模型;其中,所述第三眼睛屈光状态预警模型用于确定所述检测者在预设时间段内的近视增长度数。
在本申请的一些实施例中,所述基于所述检测者的当前眼睛屈光状态以及面部图像,获取所述检测者的用眼行为数据以及当前眼睛生理数据,具体包括:
对所述面部图像进行图像识别,确定所述面部图像对应的检测者的身份标识;
根据所述检测者的身份标识,获取预先存储的与所述身份标识相对应的用眼行为数据;
根据所述检测者的当前眼睛屈光状态以及身份标识,获取预先存储的当前眼睛生理数据。
在本申请的一些实施例中,所述根据所述检测者的当前眼睛屈光状态以及身份标识,获取预先存储的当前眼睛生理数据,具体包括:
在所述检测者的当前眼睛屈光状态为近视临床前期状态下,获取的当前眼睛生理数据包括:裸眼视力、屈光度、轴率比、眼压;
在所述检测者的当前眼睛屈光状态为假性近视状态的情况下,获取的当前眼睛生理数据包括:裸眼视力、屈光度、轴率比、眼压、眼轴长度增长量、调节灵敏度;
在所述检测者的当前眼睛屈光状态为真性近视状态的情况下,获取的当前眼睛生理数据包括:屈光度、轴率比、眼压、眼轴长度增长量、隐斜量、调节灵敏度、原镜视力、屈光度增长量。
在本申请的一些实施例中,在确定相应的眼睛屈光状态预警模型之前,所述方法还包括:
基于预设的数据采集与融合系统,获取原始数据;其中,所述预设的数据采集与融合系统用于获取用于眼睛检测的相应系统和/或设备中的眼睛数据;
按照预设规则,从所述原始数据中筛选出与若干眼睛屈光状态预警模型对应的样本数据;
对所述样本数据进行聚类运算,以得到各眼睛屈光状态预警模型对应的数据集;所述数据集包括:近视临床前期数据集、假性近视数据集、真性近视数据集;
根据各所述数据集,分别进行神经网络模型训练,以得到相应的眼睛屈光状态预警模型。
在本申请的一些实施例中,按照预设规则,筛选出与眼睛屈光状态预警模型对应的样本数据,具体包括:
对所述原始数据中的各监测指标进行计算,分别得到各监测指标对应的屈光度的变差;
根据各监测指标对应的屈光度的变差,确定各监测指标对应的检验统计量;
根据各所述检验统计量,确定分别相对应的相伴概;
基于所述相伴概率以及预设的显著性水平数,确定所述所述监测指标是否为显著指标;
将所述显著指标对应的数据作为所述样本数据。
在本申请的一些实施例中,所述方法还包括:
对所述原始数据中屈光度进行计算,得到屈光度的总变差;
选取各监测指标中的任意两个监测指标,分别为第一监测指标和第二监测指标;
基于所述屈光度总差值、第一监测指标的屈光度变差、以及第二监测指标的屈光度变差,确定在第一监测指标和第二监测指标的交互作用下对应的屈光度的差值;
根据所述第一监测指标和第二监测指标的交互作用下对应的屈光度的变差,确定所述第一监测指标和第二监测指标交互作用下对应的检验统计量;
根据第一监测指标和第二监测指标交互作用下对应的检验统计量确定相应的相伴概率;
根据所述相应的相伴概率、以及预设的显著性水平数,确定在所述两个监测指标交互作用下,所述两个监测指标是否为显著指标;
将显著指标对应的数据作为所述样本数据。
在本申请的一些实施例中,所述当前用眼数据包括:散瞳前球镜度、散瞳后球镜度、散瞳前柱镜度、散瞳后柱镜度;
所述根据所述当前用眼数据确定所述检测者的当前眼睛屈光状态,具体包括:
基于所述散瞳前球镜度和所述散瞳前柱镜度,计算散瞳前的等效球镜度;以及
基于所述散瞳后球镜度和散瞳后柱镜度,计算散瞳后的等效球镜度;
在所述散瞳后的等效球镜度小于或等于第一预设阈值的情况下,确定该检测者的当前眼睛屈光状态为真性近视状态;
在所述散瞳后的等效球镜度大于第一预设阈值、且小于或等于第二预设阈值的情况下,确定该检测者的当前眼睛屈光状态为近视临床前期状态;
在所述散瞳前的等效球镜度小于或等于第一预设阈值、散瞳后的等效球镜度大于第一预设阈值,且散瞳前等效球镜度与散瞳后等效球镜度的差值大于或等于第三预设阈值的情况下,确定该检测者的当前眼睛屈光状态为假性近视状态。
在本申请的一些实施例中,所述对所述面部图像进行识别,以确定所述面部图像对应的用户基础信息,具体包括:
获取所述图像采集设备采集所述面部图像的采集时间;
在所述采集时间与上一次采集时间之间的差值超过预设阈值的情况下,对所述面部图像进行灰度处理,以得到相应的预处理面部图像;
对所述预处理面部图像进行积分投影,以得到相应的积分投影曲线;
根据所述积分投影曲线,以及各面部特征之间的位置关系,确定各面部特征的位置信息;
其中,所述面部特征包括:瞳孔、眉毛、鼻子、嘴巴;
根据各面部特征的位置信息,构建第一面部特征向量;
根据第一面部特征向量以及预设面部图像的第二面部特征向量,确定所述面部图像与所述预设面部图像的第一相似度;
在所述第一相似度大于相应的预设阈值的情况下,确定所述面部图像与所述预设面部图像匹配,以得到所述预设面部图像相关联的用户基础信息。
在本申请的一些实施例中,对所述预处理面部图像进行积分投影,以得到相应的积分投影曲线;
将所述预处理面部图像,按照预设规则进行区域划分,得到多个面部区域;
分别对各面部区域进行水平积分投影、垂直积分投影,以得到相应的水平投影曲线以及垂直投影曲线;
根据水平投影曲线以及垂直投影曲线,确定各面部特征的位置信息。
在本申请的一些实施例中,所述第一面部特征向量由面部特征向量组成;
其中,所述面部特征向量包括:鼻子与嘴巴的垂直距离,瞳孔与鼻子的垂直距离,眉毛与相应瞳孔的垂直距离,瞳孔之间的水平距离。一种儿童青少年近视预警设备,所述设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
接收来自眼部检测设备的检测者的当前眼睛屈光度数据,并根据所述当前眼睛屈光度数据确定所述检测者的当前眼睛屈光状态;
其中,所述当前眼睛屈光状态包括:近视临床前期状态、假性近视状态、真性近视状态;
接收来自图像采集设备的面部图像,并对所述面部图像进行识别,并根据识别结果确定所述检测者的用户基础信息;
基于所述检测者的当前眼睛屈光状态以及面部图像,获取所述检测者的用眼行为数据以及当前眼睛生理数据;
根据所述检测者的当前眼睛屈光状态,在若干眼睛屈光状态预警模型中确定一种眼睛屈光状态预警模型;其中,不同的当前眼睛屈光状态对应不同的眼睛屈光状态预警模型;
根据获取的所述用户基础信息、用眼行为数据和当前眼睛生理数据,输入确定的所述眼睛屈光状态预警模型,得到所述检测者相应的预警信息;
其中,所述预警信息用于表示预设时间段内所述检测者的眼睛屈光状态变化程度。
本说明书实施例采用的上述至少一个技术方案能够达到以下有益效果:可以对儿童青少年进行相应的预测预警,从而及时对儿童青少年的近视问题进行治疗,减少儿童青少年近视,提高儿童青少年的眼睛健康。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本申请实施例提供了儿童青少年近视预警方法的一种流程示意图;
图2为本申请实施例提供了儿童青少年近视预警方法的另一种流程示意图;
图3为本申请实施例提供了儿童青少年近视预警方法的再一种流程示意图;
图4为本申请实施例提供了儿童青少年近视预警设备的结构示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本申请技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
图1为本申请实施例提供了儿童青少年近视预警方法的流程示意图。如图1所示,该方法可以包括以下步骤:
S101,眼部检测设备采集检测者的当前眼睛屈光度数据。
这里所说的眼部检测设备可以是电脑验光仪,用以采集检测者的当前眼睛屈光度数据。
上述当前眼睛屈光度数据可以包括:散瞳后球镜度、散瞳后柱镜度、散瞳前球镜度、散瞳前柱镜度。
散瞳前球镜度、散瞳前柱镜度都是在眼睛自然状态下检测获得的数据。现有技术中,可以通过应用药物使眼睛的睫状肌完全麻痹,失去调节作用,即眼睛为屈光状态,此时应用电脑验光所测得的值为散瞳后球镜度、散瞳后柱镜度。需要说明的是,本申请实施例中所说的当前眼睛屈光度数据可以是指包括左右眼的屈光度数据。
S102,服务器接收来自眼部检测设备的检测者的当前眼睛屈光度数据,并根据该当前眼睛屈光度数据确定所述检测者的当前眼睛屈光状态。
具体地,可以根据散瞳后球镜度、散瞳后柱镜度、散瞳前球镜度、散瞳前柱镜度,确定检测者的当前眼睛屈光状态。
这里所说的当前眼睛屈光状态可以包括:近视临床前期状态、假性近视状态、真性近视状态。除此之前,还可以包括:远视状态。其中,真性近视状态可以包括:低度近视、中度近视、高度近视。
需要说明的是,上述近视临床前期状态用于表示检测者的眼睛属于正常状态,既不是远视、也不是假性近视或者真性近视。
进一步地,可以根据散瞳后球镜度和散瞳后柱镜度,计算检测者散瞳后的等效球镜度。以及,可以根据散瞳前球镜度和散瞳前柱镜度,计算检测者散瞳前的等效球镜度。具体计算公式如下所示:
Figure BDA0002835340400000091
Figure BDA0002835340400000092
在散瞳后的等效球镜度小于或等于第一预设阈值的情况下,确定该检测者的当前眼睛屈光状态为真性近视状态;
在散瞳后的等效球镜度大于第一预设阈值,且小于或等于第二预设阈值的情况下,确定该检测者的当前眼睛屈光状态为近视临床前期状态;
在散瞳前的等效球镜度小于或等于第一预设阈值、散瞳后的等效球镜度大于第一预设阈值,且散瞳前等效球镜度与散瞳后等效球镜度的差值大于或等于第三预设阈值的情况下,确定该检测者的当前眼睛屈光状态为假性近视状态。
在散瞳后的等效球镜度大于第二预设阈值的情况下,确定该检测者的当前眼睛状态为远视状态。
上述第一预设阈值可以为-0.5D,第二预设阈值可以为+0.75D,第三预设阈值可以为1.0D,这里所说的D为屈光度(Diopter)。
由于在实际情况中,人的左右眼的眼睛屈光状态可能有所不同,所以在本申请实施例中,上述确定检测者的当前眼睛屈光状态可以是检测者左右眼各自的当前眼睛屈光状态,例如说某检测者左眼的当前眼睛屈光状态为真性近视,右眼的当前眼睛屈光状态为近视临床前期状态。
在本申请的一些实施例中,真性近视状态还可以包括低度近视、中度近视、高度近视。具体地,可以根据散瞳后的等效球镜度、以及相应的预设阈值,确定检测者是低度近视、中度近视,还是高度近视。
S103,图像采集设备采集上述检测者的面部图像并发送至服务器,服务器对该面部图像进行识别,并根据识别结果确定该检测者的用户基础信息。
需要说明的是,上述图像采集设备可以是摄像头、电脑、手机等设备,在本申请实施例中不加以限定。
具体地,服务器可以根据图像识别技术,对该面部图像进行识别,确定该面部图像对应的检测者标识,并且根据该检测者标识从预先存储的用户基础信息中,获得该检测者的用户基础信息。
这里所提到的检测者标识用于表示唯一的检测者,例如检测者的身份证号码等。
上述用户基础信息可以包括性别、年龄、常住地位置等等。
服务器中可以设置相应的面部图像识别模型,该面部图像识别模型可以为预先训练好的神经网络模型,用于识别面部图像对应的检测者标识。还可以通过相应的图像识别算法,确定该面部图像的面部关键特征点,根据这些面部关键特征点,确定该面部图像对应的检测者标识。需要说明的是,根据面部图像确定检测者的身份数据的方式不仅限于上述两种方式。
需要说明的是,上述步骤S103可以在步骤S101之前,也可以在步骤S101之后,在本申请实施例中不加以限定。
本申请实施例提供的为一种儿童青少年近视预警方法,该方法主要针对于青少年以及儿童。随着年龄的变化,青少年以及儿童的面部相较于成年人来说,发生的变化较大。并未,由于儿童、青少年进行近视检测的时间间隔可能较长,比如说半年或者一年,那么常用的面部识别不再适用,无法正确的识别出相应的检测者。为此,本申请提出了以下方法,如图2所示,以实现对所述面部图像进行识别,以确定所述面部图像对应的用户基础信息:
S201,服务器获取图像采集设备采集面部图像的采集时间。
图像采集设备采集采集检测者的面部图像时,可以记录采集时间,并将采集时间进行存储。
S202,服务器在采集时间与上一次采集时间之间的差值超过预设阈值的情况下,对面部图像进行灰度处理,以得到相应的预处理面部图像。
在本申请实施例中,服务器可以计算此次面部图像的采集时间与上一次采集时间之间的差值。在该差值超过预设阈值的情况下,则是说明二者之间间隔时间较长。
因此,在上述差值超过预设阈值的情况下,对面部图像进行灰度处理,以得到相应的预处理面部图像,具体地:
可以先对面部图像进行去噪处理,以得到近包含面部的图像,作为第一图像。对该第一图像进行灰度处理,得到灰度图像。对该灰度图像进行灰度变换以及灰度拉伸,从而得到上述预处理面部图像。
进行灰度变换可以通过以下公式实现:
Figure BDA0002835340400000111
其中,q(x,y)为灰度变换后的图像的坐标为(x,y)的点的灰度值;
Figure BDA0002835340400000112
为上述灰度图像坐标为(x,y)的点的灰度值;G为灰度图像中所有像素点的灰度值的平均值;H为灰度图像中所有像素点的灰度值的标准差。
将灰度变换后的图像进行灰度拉伸,使得图像的灰度范围在0-255之间,可以通过以下公式实现:
Figure BDA0002835340400000113
其中,Q(x,y)为灰度拉伸后的图像的坐标为(x,y)的点的灰度值;max为灰度拉伸后的图像中最大的像素值;min为灰度拉伸后的图像中最小的像素值。
S203,服务器对预处理面部图像进行积分投影,以得到相应的积分投影曲线。
具体地,服务器将预处理面部图像,按照预设规则进行区域划分,得到多个面部区域。分别对各面部区域进行水平积分投影、垂直积分投影,以得到相应的水平投影曲线以及垂直投影曲线。
S204,根据积分投影曲线,以及各面部特征之间的位置关系,确定各面部特征的位置信息。
其中,面部特征包括:瞳孔、眉毛、鼻子、嘴巴;
根据水平投影曲线以及垂直投影曲线,确定各面部特征的位置信息。
更进一步地,服务器可以根据面部特征,对预处理面部图像进行划分。例如,可以划分为三个面部区域,其中一个为左上半区域,该左上半区域为包含左侧眼睛和左侧眉毛的区域;另一个为走上半区域,该右上半区域为包含右侧眼睛和右侧眉毛的区域;再一个为下半区域,该下半区域为包含鼻子和嘴巴的区域。
以左上半区域为例,先对其进行水平积分投影,得到水平投影曲线,在该水平投影曲线上存在两个极值点,这两个极值点分别对应了瞳孔以及眉毛所在的垂直方向上的位置。并且根据眼睛和眉毛的位置关系,确定这两个极值点哪一个对应瞳孔,哪一个对应眉毛。
以眼睛的垂直位置为基准,按照预设规则,确定相应的检测区域,并对该检测区域进行垂直积分投影,得到相应的垂直投影曲线。该垂直投影曲线同样存在相应的极值点,该极值点对应了瞳孔的水平位置。同理,可以得到眉毛的水平位置,在此不再加以赘述。
基于此,可以得到左侧瞳孔和左侧眉毛的位置信息。
同理,可以采用上述方法得到右侧瞳孔和右侧眉毛的位置信息,具体实施方案在此不再加以赘述。
根据瞳孔的位置数据,确定预处理面部图像中两个鼻孔的位置数据。具体地,假定两眼瞳孔的距离为1,在距两眼中心点的垂直距离为0.7至1的范围内,选取两眼瞳孔之间宽度为1的条状区域。计算此区域的水平积分投影,谷点位置对应的是鼻孔Y的坐标位置。然后进行垂直方向投影,可以搜索到两个对称的谷点,以两眼瞳孔中心点的X左边为基准,分别向左向右搜素,则第一个谷点即为左右鼻孔的中心点X坐标。进而可以确定两鼻孔连线中点处的准确位置。在本申请实施例中,两鼻孔连线中点处的位置即为鼻子的位置。
根据鼻子的位置信息,采用上述相同或相似的方法,以确定嘴唇中线的垂直位置,从而确定嘴唇的位置信息。
S205,根据各面部特征的位置信息,构建第一面部特征向量。
其中,第一面部特征向量由面部特征向量组成。面部特征向量包括:鼻子与嘴巴的垂直距离,瞳孔与鼻子的垂直距离,眉毛与相应瞳孔的垂直距离,瞳孔之间的水平距离。
S206,根据第一面部特征向量以及预设面部图像的第二面部特征向量,确定面部图像与预设面部图像的第一相似度。
需要说明的是,预设面部图像是指预先存储的图像,可以采用上述相同或相似的方法,得到预设面部图像的第二面部特征向量。
在本申请的实施例中,可以根据先第一面部特征向量中的面部特征向量,与第二面部特征向量中的面部特征向量的相似度。具体地,可以通过下述公式实现:
Figure BDA0002835340400000131
其中,ai为第一面部特征向量中的第i个特征,bi第二面部特征向量中的第i个特征,i0为特征总数,Ri为第i个特征的权重;F为第一相似度。
在本申请实施例中,Ri的值与检测者的年龄相关,可以随着检测者的年龄增长,调整Ri的值。
S207,在第一相似度大于相应的预设阈值的情况下,确定面部图像与预设面部图像匹配,以得到预设面部图像相关联的用户基础信息。
通过上述方案,可以满足儿童青少年的近视预警的场景,避免由于面部识别不精确,造成后续其他的问题。
S104,服务器根据检测者的当前眼睛屈光状态,在若干眼睛屈光状态预警模型中确定一种眼睛屈光状态预警模型。
这里说提到的若干眼睛屈光状态预警模型可以包括第一眼睛屈光状态预警模型、第二眼睛屈光状态预警模型、第三眼睛屈光状态预警模型。
具体地,在检测者的当前用眼状态为近视临床前期状态时,确定的相应的眼睛屈光状态预警模型为第一眼睛屈光状态预警模型;
在检测者的当前用眼状态为假性近视状态时,确定的相应的眼睛屈光状态预警模型为第二眼睛屈光状态预警模型;
在检测者的当前用眼状态为真性近视状态时,确定的相应的眼睛屈光状态预警模型为第三眼睛屈光状态预警模型。
在本申请的一些实施例中,上述眼睛屈光状态预警模型可以为预先训练好的神经网络模型,即第一眼睛屈光状态预警模型、第二眼睛屈光状态预警模型、第三眼睛屈光状态预警模型均为预先训练好的神经网络模型。
需要说明的是,若干眼睛屈光状态预警模型中可以不仅仅包括上述第一眼睛屈光状态预警模型、第二眼睛屈光状态预警模型、第三眼睛屈光状态预警模型,还可以包括其他眼睛屈光状态预警模型。
在本申请的一些实施例中,在眼睛屈光状态预警模型为神经网络模型的情况下,建立眼睛屈光状态预警模型,如图3所示,具体可以通过以下步骤实现:
S301,建立多数据采集与融合系统。
预先与眼科门诊系统、学校眼睛筛查系统、流行病学调查数据、用眼行为检测系统等建立数据交换接口,通过数据交换接口,获取相关原始数据,以组建用于建立眼睛屈光状态预警模型的多数据采集与融合系统。
S302,将多数据采集与融合系统中的原始数据进行数据预处理,以得到建立眼睛屈光状态预警模型的样本数据。
由于原始数据的采集时间跨度一般较大,批次差异较大、设备与检测方式、条件可能也存在不同,尤其是对于手工误差及批次差异较大,同时数据指标间度量差异较大,直接可比性差异也不较大,因为可以先对原始数据依次做出以下方面的预处理:
(1)身份预处理:去除重复、同一人身份对应,一人只对应一个身份信息。最好采用身份证信息统一身份,没有什么证信息时,可以采用姓名+性别+出生日期的方式,近似匹配,当采集时间完全一致时,可归为一条数据去重,其他信息相同、而采集时间不同时,可认定为两条数据。
(2)缺失值:当批次采集所有人不包含该指标,则置空;当该批次大部分人(即该批次超过相应预设阈值的人)都包含该指标,则不包含该指标的人,此项数据为数值型时采用该指标的均值填补;此项数据为字符串型数据时,采用出现最多的字符串替代;当数据量不足,造成后续建模不理想情况下,可采用KNN算法,对贡献度较大(即贡献度超出相应的预设阈值)进行预测缺失值,已达到更准确的目的。
(3)异常值处理:可以采用IQP异常值检测方法,运用scipy包的IQR算法,异常值定义为比第1个四分位数小1.5IQR(即IQR的1.5倍)的值,或比第3个四分位数大1.5IQR的值。对获取到的异常值不做统一剔除,对贡献度的较小(即贡献度小于相应的预设阈值)的指标采用删除的方法,对贡献度大(即贡献度大于相应的预设阈值)的指标,采用对数取值降低影响度的方法。
(4)指标数据归一化处理:由于深度学习算法对数据的缩放敏感度都很强,需要将指标进行归一化处理后再进行运算,也就是可以利用scikit-learn的MinMaxScaler函数将指标值转为0~1或-1~1之间的名义值。
(5)数据分布转换:可以利用scikit-learn的StandardScaler函数,通过log转换,将非正态分布的指标值,转换为近似标准正态分布的值,即平均值为0,标准差为1的分布数组。
(6)问答卷数据处理:问答卷数据比较复杂,有结构化、非结构化、半结构化等多种数据,首先将ordinal类的数据进行分类转换成数值,同时保留其顺序,采用的方法是,创建一个字典,将分类的字符串标签映射为一个数字,然后将其映射在特征上。再利用scikit-learn提供的PolynomialFeature函数,生成交互特征。
通过上述方案,可以实现对原始数据的预处理,再根据预处理后的原始数据,从众多指标中选出对屈光度变化影响较为显著的主要指标,以获得相应的样本数据。
具体地,可以先找出各监测指标与屈光度的相关关系;再根据相关关系,确定对屈光度变化具有较为显著硬性的主要指标,以获得相应的样本数据。再采用数据仓库技术(Extract-transform-load,ETL)工具对原始数据进行抽取、处理与加载;运用手工、统计、挖掘等方法,对数据进行光滑、聚集、规范化、立方体聚集、微规约、离散化等预处理,实现数据的清洗、集成、变换、规约,得到相应的预处理数据。预处理数据可以存储在预先建立的分布式数据库。
进一步地,可以通过以下方式确定各监测指标与屈光度的相关关系:
首先,可以预设各监测指标在不同水平下屈光度(近视程度)各总体的均值无显著性差异,各监测指标之间的效应和交互作用效应同时为0,即监测指标和监测指标之间的交互作用没有对屈光度产生显著影响。
由于近视程度主要受到三方面的影响:监测指标独立作用的影响;监测指标间交互作用的影响;随机因素的影响,随机因素的影响主要指抽样误差带来的影响。
将屈光度的总变差分别为(以两个监测指标A、B为例):
G=g(A)+g(B)+g(AB)+g(E)
其中,G为屈光度的总变差;g(A)、g(B)分别为监测指标A、B独立作用引起的变差;g(AB)为监测指标A、B两两交互作用引起的变差;g(E)为随机因素引起的变差。
G可以根据下述计算得到:
Figure BDA0002835340400000171
其中,k为第i监测指标的水平数,r为第j监测指标的水平数,xijk为监测指标A第i个水平和监测指标B第j个水平下第k样本值,nij为监测指标A第i水平和监测指标B第j个水平下样本个数,
Figure BDA0002835340400000177
为屈光度均值。
g(A)、g(B)分别可以通过下述公式计算得到:
Figure BDA0002835340400000172
Figure BDA0002835340400000173
其中,
Figure BDA0002835340400000174
为监测指标B第j水平下屈光度的均值。
g(E)可以由下述公式计算得到:
Figure BDA0002835340400000175
其中,
Figure BDA0002835340400000176
为监测指标A、B在i、j水平下屈光度的均值。
再者,由于G=g(A)+g(B)+g(AB)+g(E),因此,g(AB)=G-g(A)-g(B)-g(E),即可计算得到g(AB)。
其次,确定各监测指标的类型。其中,监测指标的类型可以包括固定效应指标、随机效应指标。固定效应指标是指确定的监测指标,例如:阅读时间、看手机时长等,随机效应指标是指随机的监测指标,例如家庭遗传等。
按照监测指标A、B的类型,基于预设规则,计算相应的统计量FA、FB、FAB
具体地,在监测指标A、B为固定效应指标的情况下,可以按照下述公式计算得到:
Figure BDA0002835340400000181
Figure BDA0002835340400000182
Figure BDA0002835340400000183
在监测指标A、B为随机效应指标的情况下,可以通过下述公式计算得到:
Figure BDA0002835340400000184
Figure BDA0002835340400000185
Figure BDA0002835340400000186
根据计算出的统计量,依据统计量分布表计算相伴概率P。
在监测指标为固定效应指标的情况下。将相伴概率P与相应的预设显著性水平数d进行比较,在相伴概率P≤d,其相伴概率P对应的监测指标的不同水平对屈光度产生显著影响,将该监测指标作为屈光度的显著指标。
例如:如果FA的相伴概率P值≤d,则应拒绝原假设,监测指标A的不同水平对屈光度产生了显著影响;相反,如果FA的相伴概率P值>d,则不应拒绝原假设,监测指标A的不同水平对屈光度没有产生显著影响。对B和A、B交互作用的推断同理。
在监测指标为随机效应指标的情况下,先根据相应的相伴概率P确定其对应的检测指标A、B的交互作用是否有显著影响,再确定A、B分别对屈光度的影响。
通过上述技术方案,可以从预处理后的原始数据中的众多指标中选出对屈光度变化影响较为显著的主要指标,以获得相应的样本数据。
S303,按照预设规则,对上述预处理后得到的样本数据进行分类,以得到相应的数据集。
上述数据集可以包括:近视临床前期数据集、假性近视数据集、真性近视数据集。
具体地,建立分布式数据库,例如Hbase数据库,并采用hadoop分布式框架的HDFS技术,实现对预处理数据的分布式存取。采用聚类算法,结合预设规则,对预处理数据进行聚类,获得三个数据集,即近视临床前期数据集、假性近视数据集、真性近视数据集。
需要说明的是,近视临床前期数据集为表示近视临床前期群体的数据,假性近视数据表示假性近视群体的数据、真性近视数据集表示真性近视群体的数据。S304,通过随机取样的方式,分别从各数据集中进行采样,得到各数据集分别对应为训练数据子集、验证数据子集、测试数据子集。
具体地,可以按照6:2:2的比例,从各数据集中收取训练集、验证集、测试集。
S305,对各训练数据子集、验证数据子集、测试数据子集进行数据降维,以得到在降维后的训练数据子集、验证数据子集、测试数据子集。
具体地,可以采用主分量分析(principal components analysis,PCA)技术,对每一类数据子集自己进行主成分分析,降低指标间相关性,或构件新的强相关指标体系,从而对每一类数据子集的二次数据降维,进一步提取强相关指标。
上述PCA技术可以包括:Person相关系数法、Spearman系数法、Kendall系数法、协方差矩阵法。
S306,根据各训练数据子集,对预先建立神经网络模型进行训练,以得到到相应的待检测神经网络模型。
具体地,可以基于hadhop分布式计算的Yarn调度资源,以MapReduce技术Spark框架做计算工具,采用深度学习算法模型:方差分析、逻辑回归、CNN、决策树、ARIMA,进行聚类、分类、回归、时序分析,根据各训练数据子集对进行模型训练,以得到相应的待检测神经网络模型。
S307,根据各测试数据子集,对相应的待检测神经网络模型进行模型优化。
具体地,根据各测试数据子集,采用ROC法、误差法、交叉验证法、混淆矩阵法等技术,对相应的待检测神经网络模型进行评估,确定其是否达到预设的准确性。在未达到预设的准确性时,进一步调整参数,并代入新的训练数据,进行迭代训练,不断提高精度,降低过拟合的发生,获得目标模型,即相应的眼睛屈光状态预警模型。
S105,服务器根据检测者的当前眼睛屈光状态,从相应的数据库中获取该检测者的用眼行为数据。
这里说提到的用行为眼数据可以是指,检测者在预设时间段内的用眼行为数据。这里所说的预设时间段可以是指,检测者在当前眼睛屈光状态检测之前的较短时间内测得的,例如一周以内。。
其中,用眼行为数据可以包括:持续近距离用眼时间、户外活动时间。
本申请实施例中的持续近距离用眼时间、户外活动时间均可以是根据预设时间段内的平均值。
持续近距离用眼时间、户外活动时间均可以根据用眼监测仪测得。该用眼监测仪可以固定在检测者眼镜的镜架上,也可以固定在检测者的耳朵、胸前或者已领等位置,以便于实时的对用户的持续近距离用眼时间、户外活动时间进行监测。
用眼监测仪可以采集检测者的用眼距离,并确定该用眼距离下检测者的持续用眼时间。在用眼距离小于相应的预设阈值时,确定该检测者为近距离用眼,其对应的持续用眼时间即为持续近距离用眼时间。其中,用眼距离指的是用户在视物时,用户的眼睛与注视物(如,书本、手机等)之间的距离,可通过红外激光感应器等装置获得。用眼距离的持续用眼时间指的是,用户维持在某个用眼距离所持续的时间,可通过计时器获得,也可由服务器计算获得。
用眼监测仪可以根据其图像采集设备采集的相应图像,确定检测者是否进行户外活动,并确定其户外活动时间。这里的图像采集设备可以是按照预设时间段间隔采集图像。
S106,服务器根据检测者的当前眼睛屈光状态,获取相应的当前眼睛生理数据。
具体地,在检测者的当前眼睛屈光状态为近视临床前期状态下,当前眼睛生理数据包括:裸眼远视力、屈光度、眼轴长度和角膜曲率(轴率比)、眼压。
在检测者的当前眼睛屈光状态为假性近视状态下,当前眼睛生理数据除了包括:裸眼视力、屈光度、眼轴长度和角膜曲率(轴率比)、眼压之外,还要包括:眼轴长度增长量、调节灵敏度、调节幅度。
在检测者的当前眼睛屈光状态为真性近视状态下,当前眼睛生理数据除了包括:屈光度、轴率比、眼压、眼轴长度增长量、调节灵敏度、调节幅度之外,还要包括:原镜视力、屈光度增长量。
裸眼远视力是由眼睛的晶状体的屈光程度、透明度和眼轴长度决定的,在一定程度上可以反映出眼睛的健康状态,裸眼视力可以根据标准视力表测得,并提前存储在相应的存储设备中。
屈光度包括但散瞳前屈光度和散瞳后屈光度,可以由电脑验光仪等设备检测获取。
上述轴率比是指眼轴长度与角膜曲率半径的比值,眼轴是指由角膜正中心到视神经与视网膜黄斑中心窝之间的一条假设线。眼轴长度可以通过相应的眼轴长度测量仪检测获得。角膜曲率半径可以通过角膜曲率检测仪测得。
眼压可以是预设时间段内检测的眼压的平均值,可以通过眼压计在预设时间段内每隔一个时间段进行测量得到。在本申请实施例中,眼压计可以采用压陷式眼压计、压平式眼压计、非接触式眼压计中的一种或多种。
眼轴长度增长量可以由有眼轴长度计算得到,该眼轴长度增长量可以是指预设时间段内眼轴长度的增长量,该预设时间可以是年、季度、月等等,在本申请实施例中不加以限定。
调节灵敏度可以包括单眼调节灵敏度和双眼调节灵敏度,这里可以通过反转拍测量眼睛的调节灵敏度。
调节幅度表示眼睛能付出的最大的近距离调节范围。
屈光度增长量可以包括散瞳前屈光度增长量和散瞳后屈光度增长量,该屈光度增长量是指预设时间段内的眼睛屈光度的增长量,这里的预设时间段可以为年、季度、月份等等,在本申请实施例中不加以限定。
原镜视力是指检测者佩戴眼镜后的视力,可以通过标准视力表测得。
S107,基于检测者的用眼行为数据以及用户基础信息,并根据基于当前眼睛屈光状态确定的相应的眼睛屈光状态预警模型以及相应的当前眼睛生理数据,得出所述检测者的眼睛预警信息。
具体地,在检测者的当前用眼状态为近视临床前期状态时,确定的眼睛屈光状态预警模型为第一眼睛屈光状态预警模型,当前眼睛生理数据包括:裸眼远视力、屈光度、轴率比和眼压。
将检测者的当前眼睛生理数据、用户基础信息以及用眼行为数据,输入上述第一眼睛屈光状态预警模型中,以得到第一眼睛预警信息。该第一眼睛预警信息用于表示该检测者的眼睛屈光状态由近视临床前期状态演变为假性近视状态的概率。
在检测者的当前眼睛屈光状态为假性近视状态的情况下,其确定的眼睛屈光状态预警模型为第二眼睛屈光状态预警模型,当前眼睛生理数据包括:裸眼视力、屈光度、轴率比和眼压、眼轴长度增长量、调节灵敏度、调节幅度。
将该检测者的当前眼睛生理数据、用户基础信息以及用眼行为数据,输入上述第二眼睛屈光状态预警模型中,以得到第二眼睛预警信息。该第二眼睛预警信息用于表示该检测者的眼睛屈光状态由假性近视状态演变为真性近视状态的概率。
在检测者的当前眼睛屈光状态为真性近视状态的情况下,其确定的眼睛屈光状态预警模型为第三眼睛屈光状态预警模型,其当前眼睛生理数据包括:屈光度、轴率比、眼压、眼轴长度增长量、调节灵敏度、调节幅度、原镜视力、屈光度增长量。
将该检测者的当前眼睛生理数据、用户基础信息以及用眼行为数据,输入上述第三眼睛屈光状态预警模型中,以得到第三眼睛预警信息。该第三眼睛预警信息用于表示该检测者的眼睛屈光状态在预设时间段内的近视增长度数。
在本申请的一些实施例中,本申请儿童青少年近视预警方法还可以为检测者提供相应的诊疗方案,具体可以包括:
根据该检测者的眼睛屈光状态以及预警信息,生成相应的诊疗方案。
本申请实施例提供的一种儿童青少年近视预警方法,可以对儿童青少年进行相应的预测预警,从而及时对儿童青少年的近视问题进行治疗,减少儿童青少年近视,提高儿童青少年的眼睛健康。
需要说明的是,还可以通过上述相似或相同的方案,对儿童、青少年的远视问题进行预警,在本申请实施例中不再加以赘述。
一种儿童青少年近视预警设备,所述设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
接收来自眼部检测设备的检测者的当前眼睛屈光度数据,并根据所述当前眼睛屈光度数据确定所述检测者的当前眼睛屈光状态;
其中,所述当前眼睛屈光状态包括:近视临床前期状态、假性近视状态、真性近视状态;
接收来自图像采集设备的面部图像,并对所述面部图像进行识别,并根据识别结果确定所述检测者的用户基础信息;
基于所述检测者的当前眼睛屈光状态以及面部图像,获取所述检测者的用眼行为数据以及当前眼睛生理数据;
根据所述检测者的当前眼睛屈光状态,在若干眼睛屈光状态预警模型中确定一种眼睛屈光状态预警模型;其中,不同的当前眼睛屈光状态对应不同的眼睛屈光状态预警模型;
根据获取的所述用户基础信息、用眼行为数据和当前眼睛生理数据,输入确定的所述眼睛屈光状态预警模型,得到所述检测者相应的预警信息;
其中,所述预警信息用于表示预设时间段内所述检测者的眼睛屈光状态变化程度。
本申请中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于设备实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本申请实施例提供的设备与方法是一一对应的,因此,设备也具有与其对应的方法类似的有益技术效果,由于上面已经对方法的有益技术效果进行了详细说明,因此,这里不再赘述设备的有益技术效果。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (10)

1.一种儿童青少年近视预警方法,其特征在于,所述方法包括:
接收来自眼部检测设备的检测者的当前眼睛屈光度数据,并根据所述当前眼睛屈光度数据确定所述检测者的当前眼睛屈光状态;
其中,所述当前眼睛屈光状态包括:近视临床前期状态、假性近视状态、真性近视状态;
接收来自图像采集设备的面部图像,并对所述面部图像进行识别,根据识别结果确定所述检测者的用户基础信息;
基于所述检测者的当前眼睛屈光状态以及所述面部图像,获取所述检测者的用眼行为数据以及当前眼睛生理数据;
根据所述检测者的当前眼睛屈光状态,在若干眼睛屈光状态预警模型中确定一种眼睛屈光状态预警模型;其中,不同的当前眼睛屈光状态对应不同的眼睛屈光状态预警模型;
根据获取的所述用户基础信息、用眼行为数据和当前眼睛生理数据,输入所述确定的眼睛屈光状态预警模型,得到所述检测者相应的预警信息;
其中,所述预警信息用于表示预设时间段内所述检测者的眼睛屈光状态变化程度。
2.根据权利要求1所述的方法,其特征在于,所述基于所述检测者的当前眼睛屈光状态以及面部图像,获取所述检测者的用眼行为数据以及当前眼睛生理数据,具体包括:
对所述面部图像进行图像识别,确定所述面部图像对应的检测者的身份标识;
根据所述检测者的身份标识,获取预先存储的与所述身份标识相对应的用眼行为数据;
根据所述检测者的当前眼睛屈光状态以及身份标识,获取预先存储的当前眼睛生理数据。
3.根据权利要求1所述的方法,其特征在于,在确定相应的眼睛屈光状态预警模型之前,所述方法还包括:
基于预设的数据采集与融合系统,获取原始数据;其中,所述预设的数据采集与融合系统用于获取用于眼睛检测的相应系统和/或设备中的眼睛数据;
按照预设规则,从所述原始数据中筛选出与若干眼睛屈光状态预警模型对应的样本数据;
对所述样本数据进行聚类运算,以得到各眼睛屈光状态预警模型对应的数据集;所述数据集包括:远视数据集、近视临床前期数据集、假性近视数据集、真性近视数据集;
根据各所述数据集,分别进行神经网络模型训练,以得到相应的眼睛屈光状态预警模型。
4.根据权利要求3所述的方法,其特征在于,按照预设规则,筛选出与眼睛屈光状态预警模型对应的样本数据,具体包括:
对所述原始数据中的各监测指标进行计算,分别得到各监测指标对应的屈光度的变差;
根据各监测指标对应的屈光度的变差,确定各监测指标对应的检验统计量;
根据各所述检验统计量,确定分别相对应的相伴概率;
基于所述相伴概率以及预设的显著性水平数,确定所述所述监测指标是否为显著指标;
将所述显著指标对应的数据作为所述样本数据。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
对所述原始数据中屈光度进行计算,得到屈光度的总变差;
选取各监测指标中的任意两个监测指标,分别为第一监测指标和第二监测指标;
基于所述屈光度总差值、第一监测指标的屈光度变差、以及第二监测指标的屈光度变差,确定在第一监测指标和第二监测指标的交互作用下对应的屈光度的差值;
根据所述第一监测指标和第二监测指标的交互作用下对应的屈光度的变差,确定所述第一监测指标和第二监测指标交互作用下对应的检验统计量;
根据第一监测指标和第二监测指标交互作用下对应的检验统计量确定相应的相伴概率;
根据所述相应的相伴概率、以及预设的显著性水平数,确定在所述两个监测指标交互作用下,所述两个监测指标是否为显著指标;
将显著指标对应的数据作为所述样本数据。
6.根据权利要求1所述的方法,其特征在于,所述当前眼睛屈光度数据包括:散瞳前球镜度、散瞳后球镜度、散瞳前柱镜度、散瞳后柱镜度;
所述根据所述当前眼睛屈光度数据确定所述检测者的当前眼睛屈光状态,具体包括:
基于所述散瞳前球镜度和所述散瞳前柱镜度,计算散瞳前的等效球镜度;以及
基于所述散瞳后球镜度和散瞳后柱镜度,计算散瞳后的等效球镜度;
在所述散瞳后的等效球镜度小于或等于第一预设阈值的情况下,确定该检测者的当前眼睛屈光状态为真性近视状态;
在所述散瞳后的等效球镜度大于第一预设阈值、且小于或等于第二预设阈值的情况下,确定该检测者的当前眼睛屈光状态为近视临床前期状态;
在所述散瞳前的等效球镜度小于或等于第一预设阈值、散瞳后的等效球镜度大于第一预设阈值,且散瞳前等效球镜度与散瞳后等效球镜度的差值大于或等于第三预设阈值的情况下,确定该检测者的当前眼睛屈光状态为假性近视状态。
7.根据权利要求1所述的方法,其特征在于,所述对所述面部图像进行识别,以确定所述面部图像对应的用户基础信息,具体包括:
获取所述图像采集设备采集所述面部图像的采集时间;
在所述采集时间与上一次采集时间之间的差值超过预设阈值的情况下,对所述面部图像进行灰度处理,以得到相应的预处理面部图像;
对所述预处理面部图像进行积分投影,以得到相应的积分投影曲线;
根据所述积分投影曲线,以及各面部特征之间的位置关系,确定各面部特征的位置信息;
其中,所述面部特征包括:瞳孔、眉毛、鼻子、嘴巴;
根据各面部特征的位置信息,构建第一面部特征向量;
根据第一面部特征向量以及预设面部图像的第二面部特征向量,确定所述面部图像与所述预设面部图像的第一相似度;
在所述第一相似度大于相应的预设阈值的情况下,确定所述面部图像与所述预设面部图像匹配,以得到所述预设面部图像相关联的用户基础信息。
8.根据权利要求7所述的方法,其特征在于,对所述预处理面部图像进行积分投影,以得到相应的积分投影曲线;
将所述预处理面部图像,按照预设规则进行区域划分,得到多个面部区域;
分别对各面部区域进行水平积分投影、垂直积分投影,以得到相应的水平投影曲线以及垂直投影曲线;
根据水平投影曲线以及垂直投影曲线,确定各面部特征的位置信息。
9.根据权利要求7所述的方法,其特征在于,所述第一面部特征向量由面部特征向量组成;
其中,所述面部特征向量包括:鼻子与嘴巴的垂直距离,瞳孔与鼻子的垂直距离,眉毛与相应瞳孔的垂直距离,瞳孔之间的水平距离。
10.一种儿童青少年近视预警设备,其特征在于,所述设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
接收来自眼部检测设备的检测者的当前眼睛屈光度数据,并根据所述当前眼睛屈光度数据确定所述检测者的当前眼睛屈光状态;
其中,所述当前眼睛屈光状态包括:近视临床前期状态、假性近视状态、真性近视状态;
接收来自图像采集设备的面部图像,并对所述面部图像进行识别,并根据识别结果确定所述检测者的用户基础信息;
基于所述检测者的当前眼睛屈光状态以及面部图像,获取所述检测者的用眼行为数据以及当前眼睛生理数据;
根据所述检测者的当前眼睛屈光状态,在若干眼睛屈光状态预警模型中确定一种眼睛屈光状态预警模型;其中,不同的当前眼睛屈光状态对应不同的眼睛屈光状态预警模型;
根据获取的所述用户基础信息、用眼行为数据和当前眼睛生理数据,输入确定的所述眼睛屈光状态预警模型,得到所述检测者相应的预警信息;
其中,所述预警信息用于表示预设时间段内所述检测者的眼睛屈光状态变化程度。
CN202011468303.8A 2020-12-14 2020-12-14 一种儿童青少年近视预警方法及设备 Active CN112700858B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011468303.8A CN112700858B (zh) 2020-12-14 2020-12-14 一种儿童青少年近视预警方法及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011468303.8A CN112700858B (zh) 2020-12-14 2020-12-14 一种儿童青少年近视预警方法及设备

Publications (2)

Publication Number Publication Date
CN112700858A true CN112700858A (zh) 2021-04-23
CN112700858B CN112700858B (zh) 2022-05-03

Family

ID=75507825

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011468303.8A Active CN112700858B (zh) 2020-12-14 2020-12-14 一种儿童青少年近视预警方法及设备

Country Status (1)

Country Link
CN (1) CN112700858B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113936327A (zh) * 2021-12-17 2022-01-14 上海宝意医疗健康科技有限公司 弱视训练的监管方法及装置、计算机可读存储介质、终端
CN115132364A (zh) * 2022-08-25 2022-09-30 首都医科大学附属北京同仁医院 一种近视风险确定方法、装置、存储介质及可穿戴设备
CN115414033A (zh) * 2022-11-03 2022-12-02 京东方艺云(杭州)科技有限公司 一种用户用眼行为异常的确定方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106778042A (zh) * 2017-01-26 2017-05-31 中电科软件信息服务有限公司 心脑血管患者相似性分析方法及系统
CN107358036A (zh) * 2017-06-30 2017-11-17 北京机器之声科技有限公司 一种儿童近视风险预测方法、装置及系统
CN108364687A (zh) * 2018-01-10 2018-08-03 北京郁金香伙伴科技有限公司 眼球状态预测方法及预测模型构建方法和设备
CN109754885A (zh) * 2019-03-18 2019-05-14 杭州镜之镜科技有限公司 近视预测系统及方法
CN111449645A (zh) * 2020-03-07 2020-07-28 河南大学 心电图心拍智能分类识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106778042A (zh) * 2017-01-26 2017-05-31 中电科软件信息服务有限公司 心脑血管患者相似性分析方法及系统
CN107358036A (zh) * 2017-06-30 2017-11-17 北京机器之声科技有限公司 一种儿童近视风险预测方法、装置及系统
CN108364687A (zh) * 2018-01-10 2018-08-03 北京郁金香伙伴科技有限公司 眼球状态预测方法及预测模型构建方法和设备
CN109754885A (zh) * 2019-03-18 2019-05-14 杭州镜之镜科技有限公司 近视预测系统及方法
CN111449645A (zh) * 2020-03-07 2020-07-28 河南大学 心电图心拍智能分类识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
UJJWAL BAID等: "Detection of Pathological Myopia and Optic Disc Segmentation with Deep Convolutional Neural Networks", 《TENCON 2019 - 2019 IEEE REGION 10 CONFERENCE (TENCON)》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113936327A (zh) * 2021-12-17 2022-01-14 上海宝意医疗健康科技有限公司 弱视训练的监管方法及装置、计算机可读存储介质、终端
CN113936327B (zh) * 2021-12-17 2022-04-15 上海宝意医疗健康科技有限公司 弱视训练的监管方法及装置、计算机可读存储介质、终端
CN115132364A (zh) * 2022-08-25 2022-09-30 首都医科大学附属北京同仁医院 一种近视风险确定方法、装置、存储介质及可穿戴设备
CN115414033A (zh) * 2022-11-03 2022-12-02 京东方艺云(杭州)科技有限公司 一种用户用眼行为异常的确定方法及装置

Also Published As

Publication number Publication date
CN112700858B (zh) 2022-05-03

Similar Documents

Publication Publication Date Title
CN112700858B (zh) 一种儿童青少年近视预警方法及设备
Lavric et al. KeratoDetect: keratoconus detection algorithm using convolutional neural networks
JP6672529B2 (ja) 予測自覚屈折データまたは予測矯正値を確定するための装置およびコンピュータプログラム
Hallett et al. Deep learning based unsupervised and semi-supervised classification for keratoconus
CN113870239A (zh) 视力检测方法及装置、电子设备、存储介质
Masumoto et al. Severity classification of conjunctival hyperaemia by deep neural network ensembles
CN116563932A (zh) 基于多任务学习的眼部图像识别方法及相关设备
CN116682564A (zh) 基于机器学习的近视牵引性黄斑病变风险预测方法及装置
CN115985515A (zh) 一种基于机器学习的弱视矫治效果预测方法、装置及设备
Ogundokun et al. Diagnosis of long sightedness using neural network and decision tree algorithms
CN113892904A (zh) 一种基于摄像装置的儿童青少年屈光状态变化预测系统
US11282605B2 (en) Intraocular lenses that improve post-surgical spectacle independent and methods of manufacturing thereof
CN115998243A (zh) 一种基于眼轴增长预测和角膜信息验配角膜塑形镜的方法
Saika et al. Four discriminant models for detecting keratoconus pattern using Zernike coefficients of corneal aberrations
CN111259743B (zh) 一种近视图像深度学习识别模型训练方法及系统
CN115223232A (zh) 一种眼健康综合管理系统
CN114420289A (zh) 眼健康指数评估系统
Fu et al. Exploiting active learning in novel refractive error detection with smartphones
CN112700863A (zh) 一种基于Scheimpflug眼前节形态的屈光度精准评估的方法和应用
Saleh et al. Artificial intelligence in corneal topography
CN111513671A (zh) 基于眼部图像的眼镜舒适度评价方法
ÇİFTCİ ARTIFICIAL INTELLIGENCE FOR CATARACT
EP4177907A1 (en) A method and system for determining a risk of an onset or progression of myopia
Jose Classification of EYE Diseases Using Multi-Model CNN
CN116725479B (zh) 一种自助式验光仪以及自助验光方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20220112

Address after: Room 914, building 3, Minghu Plaza, Tianqiao District, Jinan City, Shandong Province

Applicant after: Jinan Tongxing Intelligent Technology Co.,Ltd.

Address before: 250002 No. 48, heroic mountain road, Ji'nan, Shandong

Applicant before: Bi Hongsheng

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant