CN114120357B - 一种基于神经网络的防近视方法和装置 - Google Patents

一种基于神经网络的防近视方法和装置 Download PDF

Info

Publication number
CN114120357B
CN114120357B CN202111238627.7A CN202111238627A CN114120357B CN 114120357 B CN114120357 B CN 114120357B CN 202111238627 A CN202111238627 A CN 202111238627A CN 114120357 B CN114120357 B CN 114120357B
Authority
CN
China
Prior art keywords
neural network
vector
human body
distance
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111238627.7A
Other languages
English (en)
Other versions
CN114120357A (zh
Inventor
王培源
郭列维
张秀兰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhongshan Ophthalmic Center
Original Assignee
Zhongshan Ophthalmic Center
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhongshan Ophthalmic Center filed Critical Zhongshan Ophthalmic Center
Priority to CN202111238627.7A priority Critical patent/CN114120357B/zh
Publication of CN114120357A publication Critical patent/CN114120357A/zh
Application granted granted Critical
Publication of CN114120357B publication Critical patent/CN114120357B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/24Reminder alarms, e.g. anti-loss alarms

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于神经网络技术领域,公开了一种基于神经网络的防近视方法和装置。所述防近视方法包括:获取待检测图像,所述待检测图像包括人体上半身图像和被视物体;将待检测图像输入到预先训练好的神经网络模型,获取人体的头部区域和被视区域;获取头部区域和被视区域之间的第一距离;将第一距离和标准阅读距离进行比较,若所述第一距离小于标准阅读距离,则发出第一提醒。有益效果:采用了神经网络对头部区域和阅读区域进行识别,通过摄像装置获取头部区域和阅读区域的距离,避免了青少年穿戴防近视设备的问题,可以避免穿戴防近视设备的诸多不良影响。

Description

一种基于神经网络的防近视方法和装置
技术领域
本发明涉及神经网络技术领域,特别是涉及一种基于神经网络的防近视方法和装置。
背景技术
目前,现有的防近视方法和装置均依赖于体外佩戴式的设备,例如:眼镜夹片、可穿戴的手表、帽子、耳机(耳挂)等。当佩戴人阅读姿势不正确、阅读距离(眼睛到被视物体的距离)过近、或阅读光线不适宜,会相应发出提示音或震动提醒,告知佩戴人现在处于非正常的阅读行为,从而提醒佩戴人调整坐姿,保持安全阅读距离或调整好阅读光线,从而预防近视。
但是采用体外佩戴式的防近视装置,需要用户正确佩戴设备,如果用户不能正确佩戴设备,则无法保证防近视效果。另外佩戴式的防近视设备需要针对用户的身体进行个性化设计,且一台设备只能对一个用户进行监测,成本高不利于广泛推广。
因此需要对现有的防近视方法和装置进行改进,使防近视方法和装置不依赖体外佩戴的设备,降低防近视方法和装置的成本,使防近视方法和装置更加广泛的推广应用,降低青少年的近视率。
发明内容
本发明的目的是:对现有的防近视方法和装置进行改进,使防近视方法和装置不依赖体外佩戴的设备,最大程度提高体外防近视干预装置的防近视正确率,降低防近视方法和装置的成本,使防近视方法和装置更加广泛的推广应用,降低青少年的近视率。
为了实现上述目的,本发明提供了一种基于神经网络的防近视方法,包括:
获取待检测图像,所述待检测图像包括人体上半身图像和被视物体。
将待检测图像输入到预先训练好的神经网络模型,获取人体的头部区域和被视区域。
获取头部区域和被视区域之间的第一距离。
将第一距离和标准阅读距离进行比较,若所述第一距离小于标准阅读距离,则发出第一提醒。
进一步的,在将待检测图像输入到预先训练好的神经网络模块后,所述防近视方法还包括:
根据所述神经网络模型获取并将获取到的人体空间向量和预存的标准坐姿的人体空间向量进行比较。
若获取到的人体空间向量和预存的标准坐姿的人体空间向量的相似度未超过预设的第一阈值,则发出第二提醒。
进一步的,所述神经网络模型包括:浅层神经网络、中层神经网络、深层神经网络和输出层神经网络。
所述浅层神经网络用于检测和提取待检测图像中复杂结构的边界特征,所述边界特征为待检测图像中像素值有较大差异的横线、竖线和正交线。
所述中层神经网络用于接收浅层神经网络提取的边界特征并对边界特征进行组合得到若干第一轮廓。
所述深层神经网络用于接收中层神经网络得到的第一轮廓并对第一轮廓进行组合得到第一形体,所述第一形体包括:头部和被视物体;对第一形体进行标定得到头部区域和被视区域。
所述输出层神经网络用于接收深层神经网络得到的第一形体,并利用空间函数和深度相机获取第一距离。
进一步的,所述获取头部区域和被视区域之间的第一距离,具体为:
所述第一形体还包括眼部,判断头部区域中是否包括可识别为眼部的第一形体,若包括则对眼部使用第一标记点进行标记,并获取第一标记点到被视区域之间的第一距离;
若不包括,则对第一形体中的头部使用第二标记点进行标记,所述第二标记点不少于四个且所述多个第二标记点按照头顶的轮廓进行拟合;拟合得到头部的空间坐标;根据拟合得到的头部空间坐标预测眼部的空间坐标,根据眼部的空间坐标和被视区域得到第一距离。
进一步的,所述根据所述神经网络模型获取人体空间向量并将获取到的人体空间向量和预存的标准坐姿的人体空间向量进行比较,具体为:
所述第一形体还包括:躯干和手臂。
采用第三标记对躯干和手臂进行标记,并获取第三标记的空间坐标,根据第三标记的空间坐标得到躯干向量和手臂向量。
将躯干向量和手臂向量和标准坐姿的人体空间向量进行比较,判断相似度是否大于预设的第一阈值。
进一步的,所述手臂向量包括肩部和手肘组成的第一向量和手肘和手腕组成的第二向量。
进一步的,所述将躯干向量和手臂向量和标准坐姿的人体空间向量进行比较,判断相似度是否大于预设的第一阈值,具体为:
将躯干向量和手臂向量的组合输入到预先训练好的姿势判定神经网络,由姿势判定神经网络输出输入的躯干向量和手臂向量的组合和标准姿势的人体空间向量的相似度并判定相似度是否大于预设的第一阈值。
进一步的,所述获取待检测图像,具体为:
通过深度相机或双目相机获取待检测对象的待检测图像,所述待检测对象为一个或多个。
本发明还公开了一种基于神经网络的防近视装置,包括:第一获取模块、第二获取模块、第三获取模块和第一判断模块。
所述第一获取模块,用于获取待检测图像,所述待检测图像包括人体上半身图像和被视物体。
所述第二获取模块,用于将待检测图像输入到预先训练好的神经网络模型,获取人体的头部区域和被视区域。
所述第三获取模块,用于获取头部区域和被视区域之间的第一距离。
所述第一判断模块,用于将第一距离和标准阅读距离进行比较,若所述第一距离小于标准阅读距离,则发出第一提醒。
进一步的,所述防近视装置还包括:第四获取模块和第二判断模块;
所述第四获取模块,用于根据所述神经网络模型获取人体空间向量并将获取到的人体空间向量和预存的标准坐姿的人体空间向量进行比较。
所述第二判断模块,用于若获取到的人体空间向量和预存的标准坐姿的人体空间向量的相似度未超过预设的第一阈值,则发出第二提醒。
本发明公开了一种基于神经网络的防近视方法和装置与现有技术相比,其有益效果在于:采用了神经网络对头部区域和阅读区域进行识别,通过摄像装置获取头部区域和阅读区域的距离,避免了青少年穿戴防近视设备的问题,可以避免穿戴防近视设备的诸多不良影响。本发明的方法和装置可以对多个青少年同时进行监测,进一步降低了防近视设备的成本,便于推广应用。
附图说明
图1是本发明一种基于神经网络的防近视方法的第一流程示意图;
图2是本发明一种基于神经网络的防近视方法的第二流程示意图;
图3是本发明一种基于神经网络的防近视装置的结构示意图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
结合背景技术中的论述进一步的对现有技术及现有技术的缺点进行说明。目前一些家庭或学校所使用的防近视方法和装置往往是佩戴式的设备,如眼镜夹片、可穿戴的手表、帽子、耳机(耳挂)等;这些设备的工作原理一般为采用红外传感器测量头部和桌面的距离,为了使佩戴设备能够正确的发出提醒,这些设备往往需要青少年按照使用规范进行佩戴,如果佩戴有偏差,如倾斜佩戴,则这些佩戴式的防近视装置则会错误提醒,影响正常使用。进一步的,佩戴式的放近视装置具有一定重量,戴在眼镜、耳朵或头上会使青少年产生束缚感并影响头部活动,因此青少年往往消极佩戴设备,使设备不能正常工作。
申请人还进一步观察到佩戴防近视设备的学生,由于防近视设备的外观并不美观,佩戴防近视设备的学生也会受到歧视,对青少年的身心发育造成不良影响,但是碍于家长的权威又不得不戴,造成青少年性格孤僻。
申请人进一步调研了佩戴式的防近视设备,发现目前的防近视设备主要依靠传感器工作,但是在青少年运动后所产生的汗液会腐蚀内部零件,影响设备的正常工作。并且青少年活动量大,活泼好动,频繁的穿戴和拆卸防近视设备会进一步降低使用者的依从性,无法长期坚持。佩戴式的防近视设备依靠电池供电工作,但是电池内含有重金属元素,长时间近距离接触有一定风险。
综合上述的对现有技术的分析,申请人从多个技术角度出发对防近视方法和装置进行了探索和研究,发现神经网络技术对图像进行实时识别,不需要青少年佩戴防近视装置,且摄像头可以对多个人同时进行监测,不仅仅解决的青少年佩戴防近视装置的诸多问题还大幅降低了防近视方法的成本和推广难度,有利于广泛应用,降低青少年的近视率。
实施例1:
参照附图1,本发明公开了一种基于神经网络的防近视方法,用于一人或多人情景下的近视预防,包括:
步骤S1,获取待检测图像,所述待检测图像包括人体上半身图像和被视物体。
步骤S2,将待检测图像输入到预先训练好的神经网络模型,获取人体的头部区域和被视区域。
步骤S3,获取头部区域和被视区域之间的第一距离。
步骤S4,将第一距离和标准阅读距离进行比较,若所述第一距离小于标准阅读距离,则发出第一提醒。
在步骤S1中,所述获取待检测图像,具体为:通过深度相机或双目相机获取待检测对象的待检测图像,所述待检测对象为一个或多个。在本实施例中,优选方案为采用深度相机或双目相机,这样可以直接获取到图像中像素点的空间位置,降低后续过程中的计算量。若使用普通相机获取待检测图像,需要引入额外的算法计算待检测图像中像素的空间位置,降低处理效率。
在本实施例中,由于防近视时主要考虑的是眼睛和被视物体的关系,因此最为关键的图像部分为人体的上半身图像,当然也不限于上半身图像,若图像中包括下半身图像也不会影响图像的识别。在本实施例中,所述检测图像优选为包括上半身图像的图像,可以使用的待检测图像包括:上半身图像、全身图像等。
在本实施例中,需要强调和说明的是,所述被视物体包括但不限于:纸质媒介(书本)、电子媒介(手机、电脑、平板电脑);进一步的桌面即使没有放置书本等物品也视为被视物体。以上只是进行举例,其它可以视为被视物体的物品也在本发明的保护范围之内。
在步骤S2中,将待检测图像输入到预先训练好的神经网络模型,获取人体的头部区域和被视区域。
神经网络技术目前已经是较为成熟的现有技术,但是在具体应用时还需要根据时机的应用场景进行改进,以使神经网络可以达到预期的效果。
在本实施例中,神经网络模型可以为CNN神经网络,进行训练时采用三通道的RGB图像进行训练,且训练的图像重点对人体的上半身图像中的头部、躯干、手臂、眼睛、书本、手机等形体进行了标注,以使神经网络更好的对上述特征进行学习。
在本实施例中,所述神经网络模型包括:浅层神经网络、中层神经网络、深层神经网络和输出层神经网络。
所述浅层神经网络用于检测和提取待检测图像中复杂结构的边界特征,所述边界特征为待检测图像中像素值有较大差异的横线、竖线和正交线。
所述中层神经网络用于接收浅层神经网络提取的边界特征并对边界特征进行组合得到若干第一轮廓。
所述深层神经网络用于接收中层神经网络得到的第一轮廓并对第一轮廓进行组合得到第一形体,所述第一形体包括:头部和被视物体;对第一形体进行标定得到头部区域和被视区域。
所述输出层神经网络用于接收深层神经网络得到的第一形体,并利用空间函数和深度相机获取第一距离。
在本实施例中,所述待检测图像为一个复杂图形,尤其是图形中包括多个青少年的上半身图形时,此时对待检测图形进行分割,将不同学生和其相对应的被视物体进行区分。由于应用场景为教室,学生与学生之间的课桌可以作为重要的区分特征,经过训练后可以实现对复杂图形中的多个青少年进行区分。复杂图形区分后得到的图形仍然为一个复杂图形包括较多的线条,但是对于复杂图形来说所有复杂的结构都可以用基本的线条组成。因此在设计神经网络时,浅层神经网络主要寻找并且提取图片当中复杂结构的边界特征。边界特征指的是在一张图片当中,R、G、B任意一个通道当中,像素值有较大差异的横线竖线、以及正交线,图片当中所有的复杂图形都是由这些横线竖线正交线所构成的。
在本实施例中层神经网络会将提取的这些基本线条特征(横线竖线、以及正交线)加以组合和,形成整体当中的一些局部(第一轮廓)。例如最终目的是识别一个完整的人脸(人头)、两只手臂、上身躯干、书本以及课桌。浅层神经网络会提取出图案当中的所有基本线条。中层神经网络会将这些基本线条组成脸部的、头部的、躯干的、手臂的、书本的、课桌的各个组成部分。例如眼睛的整体轮廓,鼻子的整体轮廓。睫毛的整体轮廓。完成这一部分之后。中层神经网络会将获得的脸部的部分特征传递给深层神经网络。
在本实施例中,深层神经网络会将中层神经网络中的部分轮廓(第一轮廓)组合起来,形成一个具体的人脸(第一形体)。或其他的第一形体(头部、躯干、脖子、手臂、书本、课桌)。对于训练好的神经网络,即可识别出图像当中那部分是(头部、躯干、脖子、手臂、书本、课桌)并对这些需求识别的部分进行标定,给定一个数字代号进行标定。
在本实施例中,深层神经网络已经标定好的第一形体传递给输出层神经网络。在输出层神经网络中,当识别出的第一形体包括眼部时,获取眼部和被视区域的距离,若不能识别出眼部时,可以根据头部区域和被视区域估算眼部和被视区域的距离。
在步骤S3中,所述获取头部区域和被视区域之间的第一距离,具体为:
所述第一形体还包括眼部,判断头部区域中是否包括可识别为眼部的第一形体,若包括则对眼部使用第一标记点进行标记,并获取第一标记点到被视区域之间的第一距离;
若不包括,则对第一形体中的头部使用第二标记点进行标记,所述第二标记点不少于四个且所述多个第二标记点按照头顶的轮廓进行拟合;拟合得到头部的空间坐标;根据拟合得到的头部空间坐标预测眼部的空间坐标,根据眼部的空间坐标和被视区域得到第一距离。
在本实施例中,被视物体一般是电脑、书本、手机等,可以选取被视区域的中心和眼部的空间坐标进行计算得到第一距离。本领域技术人员也可以采取其它方法获取一个能够代表被视区域的空间坐标,进而得到第一距离。
具体实施过程中,若深度相机能够拍到学生的眼睛部分,且神经网络成功识别并将眼部标识为点1,点2的定点标识。此时利用深度相机依次测量点1与书本(被视物体)的距离。点2与书本的距离。并进行判定此时学生的阅读距离是否过近。
具体实施过程中,若深度相机不能够拍到学生的眼睛部分,则通过点4、5、6、7结合人体生物学对头顶的轮廓进行拟合标记,可以按照预设的椭圆方程进行标记;标记完成后得到头部区域,然后再结合人体生物学估算出眼睛的空间坐标点;再通过估算的眼部的空间坐标点与书本进行计算。并进行判定此时学生的阅读距离是否过近。
在步骤S4中,将第一距离和标准阅读距离进行比较,若所述第一距离小于标准阅读距离,则发出第一提醒。
所述第一提醒可以发送到老师的移动终端、学生的智能手表、教室内的语音播放设备、教室内的投影仪或显示屏幕。所述第一提醒的内容可以为注意调整眼睛到被视物体的距离。
实施例2:
在实施例1的基础上,本申请进一步的对防近视方法进行优化和改进,不仅仅考虑青少年眼睛和被视物体的距离,更进一步的从坐姿方面优化防近视方法和装置。
在本实施例中,在将待检测图像输入到预先训练好的神经网络模块后,所述防近视方法还包括:
步骤S5,根据所述神经网络模型获取人体空间向量并将获取到的人体空间向量和预存的标准坐姿的人体空间向量进行比较;
步骤S6,若获取到的人体空间向量和预存的标准坐姿的人体空间向量的相似度未超过预设的第一阈值,则发出第二提醒。
在本步骤S5中,所述根据所述神经网络模型获取人体空间向量并将获取到的人体空间向量和预存的标准坐姿的人体空间向量进行比较,具体为:
所述第一形体还包括:躯干和手臂;
采用第三标记对躯干和手臂进行标记,并获取第三标记的空间坐标,根据第三标记的空间坐标得到躯干向量和手臂向量;
将躯干向量和手臂向量和标准坐姿的人体空间向量进行比较,判断相似度是否大于预设的第一阈值。
在本实施例中,所述预存的标准坐姿的人体空间向量存储于云端服务器,所述标准坐姿的人体空间向量为多个,当标准坐姿的人体空间向量增加或修改时将数据更新到云端服务器。
在进行第三标记时,一般肩部区域和手臂区域都能够更好的被拍摄到并被神经网络识别,因此在本实施例中,以肩部向量表示躯干向量,所述肩部向量为标记的肩部的两个点所组成的向量;所述手臂向量包括肩部和手肘组成的第一向量和手肘和手腕组成的第二向量。
在具体实施时,将肩膀的两个端点标记为点7和点8.并给出空间坐标。将两边的手肘标记为点9,点11;手腕标记为点10,点12,并给出空间坐标。完成标记后,点7点8两点组成一个空间向量,与标准的坐姿的肩部空间向量进行比对。若坐姿出现问题则进行提示。
同样的将点7点9组合成空间向量,点9点10组合成空间向量。点8点11、点11点12。左手臂两个空间向量。右手臂两个空间向量。同样的与标准坐姿的手臂空间向量进行比对。若坐姿出现问题则进行提示。
在本实施例中,所述将躯干向量和手臂向量和标准坐姿的人体空间向量进行比较,判断相似度是否大于预设的第一阈值,具体为:
将躯干向量和手臂向量的组合输入到预先训练好的姿势判定神经网络,由姿势判定神经网络输出输入的躯干向量和手臂向量的组合和标准姿势的人体空间向量的相似度并判定相似度是否大于预设的第一阈值。
在本实施中,在进行相似度判断是可进一步分为两种方法,一种是单独的计算所获得的躯干向量和手臂向量的空间位置关系,以及躯干向量、手臂向量和被视物的空间位置关系。判断获取到的空间位置关系和标准姿势的人体空间向量中躯干向量和手臂向量的空间位置关系,以及躯干向量、手臂向量和被视物的空间位置关系的比值是否在第一阈值范围内,以此来判定这个人的姿势是否正确。所述空间位置关系包括:夹角、距离等。
另一种判定方法是,通过大数据收集标准的青少年坐姿安全范围。将获得的躯干向量和手臂向量与大数据收集到的进行比对。大数据收集标准的青少年坐姿安全范围指的是一个坐姿库,这个坐姿库中有无数种正确的坐姿。这无数种正确的坐姿不一样但是都正确,所以这些坐姿对应的空间向量也是不一样的,也就形成了较大的范围。只要采集到的数据与任意一个正确的坐姿的相似度大于预设的第一阈值,就判断坐姿正确,否则认为坐姿不正确。
所述第二提醒可以发送到老师的移动终端、学生的智能手表、教室内的语音播放设备、教室内的投影仪或显示屏幕。所述第二提醒的内容可以为注意调整坐姿。
实施例3:
在实施例1和实施例2的基础上,本发明还公开了一种基于神经网络的防近视装置,包括:第一获取模块、第二获取模块、第三获取模块和第一判断模块。
所述第一获取模块,用于获取待检测图像,所述待检测图像包括人体上半身图像和被视物体。
所述第二获取模块,用于将待检测图像输入到预先训练好的神经网络模型,获取人体的头部区域和被视区域。
所述第三获取模块,用于获取头部区域和被视区域之间的第一距离。
所述第一判断模块,用于将第一距离和标准阅读距离进行比较,若所述第一距离小于标准阅读距离,则发出第一提醒。
在本实施例中,所述防近视装置还包括:第四获取模块和第二判断模块;
所述第四获取模块,用于根据所述神经网络模型获取人体空间向量并将获取到的人体空间向量和预存的标准坐姿的人体空间向量进行比较。
所述第二判断模块,用于若获取到的人体空间向量和预存的标准坐姿的人体空间向量的相似度未超过预设的第一阈值,则发出第二提醒。
由于实施例3是在实施例1和2的基础上进行撰写了,包括实施例1和2的全部技术特征,因此重复的技术特征不在实施例3中赘述。
综上,本发明实施例提供一种基于神经网络的防近视方法和装置,有益效果在于:
(1)采用了神经网络对头部区域和阅读区域进行识别,通过深度相机或双目相机获取头部区域和阅读区域的距离,避免了青少年穿戴防近视设备的问题,可以避免穿戴防近视设备的诸多不良影响。
(2)采用摄像头和存储有本发明防近视方法的处理器进行防近视提醒,设备简单易获取,且可以对多个青少年同时进行监测,进一步降低了防近视设备的成本,便于推广应用。
(3)本发明中不仅包括头部区域和被视区域的第一距离的第一提醒还包括根据人体向量得到的对坐姿评价后的第二提醒,在双重的提醒策略下,可以更为有效的纠正青少年不正确的阅读习惯。如果只有第一距离的提醒,那么因为青少年的坐姿没有更正,青少年很快还会出现头部和被视物体距离过近的问题,造成频繁提醒,但是如果增加了坐姿的第二提醒,使青少年及时调整坐姿,可以避免青少年频繁出现距离过近的问题。进一步的,增加坐姿提醒也可以帮助青少年纠正不良坐姿,帮助预防近视。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和替换,这些改进和替换也应视为本发明的保护范围。

Claims (4)

1.一种基于神经网络的防近视方法,其特征在于,包括:
获取待检测图像,所述待检测图像包括人体上半身图像和被视物体;
将待检测图像输入到预先训练好的神经网络模型,获取人体的头部区域和被视区域;
获取头部区域和被视区域之间的第一距离;
将第一距离和标准阅读距离进行比较,若所述第一距离小于标准阅读距离,则发出第一提醒;
在将待检测图像输入到预先训练好的神经网络模块后,所述防近视方法还包括:
根据所述神经网络模型获取人体空间向量并将获取到的人体空间向量和预存的标准坐姿的人体空间向量进行比较;
若获取到的人体空间向量和预存的标准坐姿的人体空间向量的相似度未超过预设的第一阈值,则发出第二提醒;
其中,在进行相似度判断分为两种方式,一种是单独的计算所获得的躯干向量和手臂向量的空间位置关系,以及躯干向量、手臂向量和被视物的空间位置关系;另一种是,通过大数据收集标准的青少年坐姿安全范围;将获得的躯干向量和手臂向量与大数据收集到的进行比对;
所述神经网络模型包括:浅层神经网络、中层神经网络、深层神经网络和输出层神经网络;
所述浅层神经网络用于检测和提取待检测图像中复杂结构的边界特征,所述边界特征为待检测图像中像素值有较大差异的横线、竖线和正交线;
所述中层神经网络用于接收浅层神经网络提取的边界特征并对边界特征进行组合得到若干第一轮廓;
所述深层神经网络用于接收中层神经网络得到的第一轮廓并对第一轮廓进行组合得到第一形体,所述第一形体包括:头部和被视物体;对第一形体进行标定得到头部区域和被视区域;
所述输出层神经网络用于接收深层神经网络得到的第一形体,并利用空间函数和深度相机获取第一距离;
所述根据所述神经网络模型获取人体空间向量并将获取到的人体空间向量和预存的标准坐姿的人体空间向量进行比较,具体为:
所述第一形体还包括:躯干和手臂;
采用第三标记对躯干和手臂进行标记,并获取第三标记的空间坐标,根据第三标记的空间坐标得到躯干向量和手臂向量;
将躯干向量和手臂向量和标准坐姿的人体空间向量进行比较,判断相似度是否大于预设的第一阈值;
所述手臂向量包括肩部和手肘组成的第一向量和手肘和手腕组成的第二向量;
所述将躯干向量和手臂向量和标准坐姿的人体空间向量进行比较,判断相似度是否大于预设的第一阈值,具体为:
将躯干向量和手臂向量的组合输入到预先训练好的姿势判定神经网络,由姿势判定神经网络输出输入的躯干向量和手臂向量的组合和标准姿势的人体空间向量的相似度并判定相似度是否大于预设的第一阈值。
2.根据权利要求1所述的一种基于神经网络的防近视方法,其特征在于,所述获取头部区域和被视区域之间的第一距离,具体为:
所述第一形体还包括眼部,判断头部区域中是否包括可识别为眼部的第一形体,若包括则对眼部使用第一标记点进行标记,并获取第一标记点到被视区域之间的第一距离;
若不包括,则对第一形体中的头部使用第二标记点进行标记,所述第二标记点不少于四个且所述多个第二标记点按照头顶的轮廓进行拟合;拟合得到头部的空间坐标;根据拟合得到的头部空间坐标预测眼部的空间坐标,根据眼部的空间坐标和被视区域得到第一距离。
3.根据权利要求1所述的一种基于神经网络的防近视方法,其特征在于,所述获取待检测图像,具体为:
通过深度相机或双目相机获取待检测对象的待检测图像,所述待检测对象为一个或多个。
4.一种基于神经网络的防近视装置,其特征在于,包括:第一获取模块、第二获取模块、第三获取模块和第一判断模块;
所述第一获取模块,用于获取待检测图像,所述待检测图像包括人体上半身图像和被视物体;
所述第二获取模块,用于将待检测图像输入到预先训练好的神经网络模型,获取人体的头部区域和被视区域;
所述第三获取模块,用于获取头部区域和被视区域之间的第一距离;
所述第一判断模块,用于将第一距离和标准阅读距离进行比较,若所述第一距离小于标准阅读距离,则发出第一提醒;
所述防近视装置还包括:第四获取模块和第二判断模块;
所述第四获取模块,用于根据所述神经网络模型获取人体空间向量并将获取到的人体空间向量和预存的标准坐姿的人体空间向量进行比较;
所述第二判断模块,用于若获取到的人体空间向量和预存的标准坐姿的人体空间向量的相似度未超过预设的第一阈值,则发出第二提醒;
其中,在进行相似度判断分为两种方式,一种是单独的计算所获得的躯干向量和手臂向量的空间位置关系,以及躯干向量、手臂向量和被视物的空间位置关系;另一种是,通过大数据收集标准的青少年坐姿安全范围;将获得的躯干向量和手臂向量与大数据收集到的进行比对;
所述神经网络模型包括:浅层神经网络、中层神经网络、深层神经网络和输出层神经网络;
所述浅层神经网络用于检测和提取待检测图像中复杂结构的边界特征,所述边界特征为待检测图像中像素值有较大差异的横线、竖线和正交线;
所述中层神经网络用于接收浅层神经网络提取的边界特征并对边界特征进行组合得到若干第一轮廓;
所述深层神经网络用于接收中层神经网络得到的第一轮廓并对第一轮廓进行组合得到第一形体,所述第一形体包括:头部和被视物体;对第一形体进行标定得到头部区域和被视区域;
所述输出层神经网络用于接收深层神经网络得到的第一形体,并利用空间函数和深度相机获取第一距离;
所述根据所述神经网络模型获取人体空间向量并将获取到的人体空间向量和预存的标准坐姿的人体空间向量进行比较,具体为:
所述第一形体还包括:躯干和手臂;
采用第三标记对躯干和手臂进行标记,并获取第三标记的空间坐标,根据第三标记的空间坐标得到躯干向量和手臂向量;
将躯干向量和手臂向量和标准坐姿的人体空间向量进行比较,判断相似度是否大于预设的第一阈值;
所述手臂向量包括肩部和手肘组成的第一向量和手肘和手腕组成的第二向量;
所述将躯干向量和手臂向量和标准坐姿的人体空间向量进行比较,判断相似度是否大于预设的第一阈值,具体为:
将躯干向量和手臂向量的组合输入到预先训练好的姿势判定神经网络,由姿势判定神经网络输出输入的躯干向量和手臂向量的组合和标准姿势的人体空间向量的相似度并判定相似度是否大于预设的第一阈值。
CN202111238627.7A 2021-10-22 2021-10-22 一种基于神经网络的防近视方法和装置 Active CN114120357B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111238627.7A CN114120357B (zh) 2021-10-22 2021-10-22 一种基于神经网络的防近视方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111238627.7A CN114120357B (zh) 2021-10-22 2021-10-22 一种基于神经网络的防近视方法和装置

Publications (2)

Publication Number Publication Date
CN114120357A CN114120357A (zh) 2022-03-01
CN114120357B true CN114120357B (zh) 2023-04-07

Family

ID=80376495

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111238627.7A Active CN114120357B (zh) 2021-10-22 2021-10-22 一种基于神经网络的防近视方法和装置

Country Status (1)

Country Link
CN (1) CN114120357B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115116088A (zh) * 2022-05-27 2022-09-27 中国科学院半导体研究所 近视预测方法、装置、存储介质和程序产品
CN115035588A (zh) * 2022-05-31 2022-09-09 中国科学院半导体研究所 视力保护的提示方法、装置、存储介质和程序产品
CN116580424A (zh) * 2023-05-05 2023-08-11 深圳市领天智杰科技有限公司 一种基于神经网络的防近视方法和装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040061037A1 (en) * 2001-03-29 2004-04-01 Loyce Smartt Adjustable reading bookstand
CN103908063A (zh) * 2014-04-03 2014-07-09 安徽海聚信息科技有限责任公司 一种矫正坐姿的智能书桌及其矫正方法
CN110801229A (zh) * 2019-11-15 2020-02-18 英华达(上海)科技有限公司 视力保护监测方法、系统、设备及存储介质
CN111192237B (zh) * 2019-12-16 2023-05-02 重庆大学 一种基于深度学习的涂胶检测系统和方法
CN111626211B (zh) * 2020-05-27 2023-09-26 大连成者云软件有限公司 一种基于单目视频图像序列的坐姿识别方法
CN112287865B (zh) * 2020-11-10 2024-03-26 上海依图网络科技有限公司 一种人体姿态识别的方法及装置
CN112966571B (zh) * 2021-02-09 2022-07-12 安徽一视科技有限公司 一种基于机器视觉的立定跳远腾空高度量测方法
CN112926462B (zh) * 2021-03-01 2023-02-07 创新奇智(西安)科技有限公司 训练方法、装置、动作识别方法、装置及电子设备
CN113297938B (zh) * 2021-05-17 2024-05-24 深圳市优必选科技股份有限公司 坐姿监控的方法、装置、电子设备及存储介质
CN113065532B (zh) * 2021-05-19 2024-02-09 南京大学 一种基于rgbd图像的坐姿几何参数检测方法及系统
CN113420704A (zh) * 2021-06-18 2021-09-21 北京盈迪曼德科技有限公司 一种基于视觉传感器的物体识别方法、装置及机器人

Also Published As

Publication number Publication date
CN114120357A (zh) 2022-03-01

Similar Documents

Publication Publication Date Title
CN114120357B (zh) 一种基于神经网络的防近视方法和装置
CN107609517B (zh) 一种基于计算机视觉的课堂行为检测系统
KR102097190B1 (ko) 스마트 미러를 이용하여 실시간 운동 동작을 분석 및 디스플레이하기 위한 방법 및 이를 위한 스마트 미러
US10893830B2 (en) Electronic apparatus, system, and method for providing body posture health information
CN111460872A (zh) 图像处理方法及装置、图像设备及存储介质
KR102377561B1 (ko) 미러 디스플레이를 이용하여 태권도 동작 코칭 서비스를 제공하는 장치 및 방법
CN111444789B (zh) 一种基于视频感应技术的近视预防方法及其系统
CN104952221B (zh) 智能防近视台灯
CN106781324A (zh) 一种护眼护脊椎提醒系统及灯具
US20170156585A1 (en) Eye condition determination system
CN110148092B (zh) 基于机器视觉的青少年坐姿及情绪状态的分析方法
US11127181B2 (en) Avatar facial expression generating system and method of avatar facial expression generation
CN112364694A (zh) 一种基于关键点检测的人体坐姿识别方法
CN109785396A (zh) 基于双目相机的写字姿态监测方法、系统、装置
Bei et al. Sitting posture detection using adaptively fused 3D features
WO2023040578A1 (zh) 一种基于童脸识别的儿童坐姿检测方法及系统
KR20140043174A (ko) 승마 시뮬레이터 및 승마 시뮬레이션 방법
Prueksanusak et al. An ergonomic chair with Internet of thing technology using SVM
CN115240247A (zh) 一种用于进行动作和姿态检测的识别方法及系统
CN112232128A (zh) 基于视线追踪的老年残障人士照护需求识别方法
CN113342157A (zh) 眼球追踪处理方法及相关装置
CN115578668A (zh) 目标行为识别方法、电子设备以及存储介质
CN115116088A (zh) 近视预测方法、装置、存储介质和程序产品
CN113197542A (zh) 一种在线自助视力检测系统、移动终端及存储介质
CN106327484A (zh) 一种用于牙医操作姿势评估的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant