CN115546884A - 一种眼球震颤识别方法、装置及设备 - Google Patents

一种眼球震颤识别方法、装置及设备 Download PDF

Info

Publication number
CN115546884A
CN115546884A CN202211523509.5A CN202211523509A CN115546884A CN 115546884 A CN115546884 A CN 115546884A CN 202211523509 A CN202211523509 A CN 202211523509A CN 115546884 A CN115546884 A CN 115546884A
Authority
CN
China
Prior art keywords
information
face
human eye
picture
nystagmus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211523509.5A
Other languages
English (en)
Other versions
CN115546884B (zh
Inventor
谢伟浩
郑小宾
吴梓华
刘玉萍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Shijing Medical Software Co ltd
Original Assignee
Guangzhou Shijing Medical Software Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Shijing Medical Software Co ltd filed Critical Guangzhou Shijing Medical Software Co ltd
Priority to CN202211523509.5A priority Critical patent/CN115546884B/zh
Publication of CN115546884A publication Critical patent/CN115546884A/zh
Application granted granted Critical
Publication of CN115546884B publication Critical patent/CN115546884B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种眼球震颤识别方法、装置及设备,包括:根据人脸信息获取人脸关键点信息,并根据所述人脸关键点信息进行人脸对齐,获取区域人眼信息;所述人脸信息包括视频流信息;根据所述区域人眼信息获取角膜轮廓信息,并根据所述角膜轮廓信息通过椭圆拟合获取角膜中心信息;将所述角膜中心信息输入预设的时间序列分类模型中,进行人眼震颤识别。本发明无需佩戴特定的设备,通过普通摄像头即可获取人脸视频流信息,简化了眼球震颤识别的操作,提高了眼球震颤识别的便利性,使得用户可随时随地拍摄人脸信息进行眼球震颤识别。

Description

一种眼球震颤识别方法、装置及设备
技术领域
本发明涉及于眼科监测技术领域,尤其涉及一种眼球震颤识别方法、装置及设备。
背景技术
眼球震颤(nystagmus;NY)是一种不自主、有节律性、往返摆动的眼球运动。 方向分为水平型、垂直型、旋转型等,以水平型为常见,通常以快相方向表示眼球震颤方向,快相为代偿性恢复注视位的运动,简称眼震。常由视觉系统、眼外肌、内耳迷路及中枢神经系统的疾病引起。
现有的眼球震颤识别方法,眼球震颤识别都是基于红外摄像头或包括十字结构光的摄像头;同时,需要特定的设备,例如需佩戴头戴式相机,并且特定设备的操作复杂、摄像头与人眼的相对位置是固定的,设备操作流程严格、容错率低。
发明内容
本发明提供了一种眼球震颤识别方法、装置及设备,以解决现有眼颤识别中需要佩戴特定的设备,设备操作复杂、流程严格、容错率低的技术问题。
为了解决上述技术问题,本发明实施例提供了一种眼球震颤识别方法,包括:
根据人脸信息获取人脸关键点信息,并根据所述人脸关键点信息进行人脸对齐,获取区域人眼信息;所述人脸信息包括视频流信息;
根据所述区域人眼信息获取角膜轮廓信息,并根据所述角膜轮廓信息通过椭圆拟合获取角膜中心信息;
将所述角膜中心信息输入预设的时间序列分类模型中,进行人眼震颤识别。
本发明通过人脸信息识别关键点,从而获取眼部关键点信息,并根据所述眼部关键点信息对齐人脸,获取每一帧图片的眼部信息,并通过时间序列分类模型对眼球震颤进行预测识别;无需佩戴特定的设备,通过普通摄像头即可获取人脸视频流信息,简化了眼球震颤识别的操作,提高了眼球震颤识别的便利性,使得用户可随时随地拍摄人脸信息进行眼球震颤识别。
进一步地,所述根据人脸信息获取人脸关键点信息,并根据所述人脸关键点信息进行人脸对齐,获取区域人眼信息;所述人脸信息包括视频流信息,具体为:
根据预设的采样率对人脸信息进行抽帧获取第一图片集,并根据预设的模型对第一图片集中的所有图片进行检测,获取人脸关键点信息,所述人脸关键点信息包括所有图片的人脸关键点;
根据预设规则选取一张图片作为基准图片,并根据所述基准图片对齐第一图片集中在基准图片后抽取的所有图片;
根据对齐后的图片判断人眼状态,获取区域人眼信息。
本发明通过人脸关键点对每一帧的人脸进行对齐,无需固定摄像头与人脸的关系,提高了眼球震颤识别的可操作性,便于用户独立进行眼球震颤识别。
进一步地,所述根据对齐后的图片判断人眼状态,获取区域人眼信息,具体为:
根据对齐后的第一图片集中的各个图片人眼的中上眼睑和下眼睑的关键点距离确定各个图片的人眼状态,所述人眼状态包括睁眼和眨眼;
筛选出所有人眼状态为非眨眼的第二图片作为第二图片集,并获取第二图片集中所有第二图片的区域人眼信息。
本发明通过剔除非睁眼图片,以获取有效的人眼信息,避免眨眼图片干扰眼球震颤识别。
进一步地,所述将所述角膜中心信息输入预设的时间序列分类模型中,进行人眼震颤识别,具体为:
将所有第二图片的区域人眼信息输入到预先训练好的角膜轮廓识别模型,获取第二图片集中各个图片的角膜中心信息;
在比对所有第二图片与基准图片的角膜中心信息,并获取所有第二图片与基准图片的角膜中心信息在水平方向和垂直方向上的偏差;
根据所有第二图片的时间顺序,将所有第二图片的角膜中心信息的偏差形成偏差序列;
将所述偏差序列输入预设的时间序列分类模型中识别眼球震颤。
进一步地,所述将所述偏差序列输入预设的时间序列分类模型中识别眼球震颤,具体为:
构建时间序列分类模型,设定第一预测时刻和第一预测长度;
抽取第一预测长度的偏差序列作为第一数据;
将第一数据输入时间序列分类模型中,预测第一预测时刻后各个时刻是否发生眼球震颤。
本发明通过获取视频片段中各帧角膜中心和眼部中心的偏差,以判断人眼的状态,并利用时间序列分类模型对抽取的数据进行预测,即可预测下一时刻眼球是否发生震颤,以识别整段视频片段中是否发生震颤。
进一步地,所述根据所述区域人眼信息获取角膜轮廓信息,并根据所述角膜轮廓信息通过椭圆拟合获取角膜中心信息,具体为:
将所述区域人眼信息输入预先训练好的角膜轮廓识别模型,获取角膜轮廓信息;
对角膜轮廓信息进行等间隔采样轮廓的位置信息,并根据所述位置信息进行椭圆拟合,获取角膜中心信息。
第二方面,本发明实施例还提供了一种眼球震颤识别装置,包括:关键点识别模块、角膜中心获取模块和震颤识别模块;
所述关键点识别模块,用于根据人脸信息获取人脸关键点信息,并根据所述人脸关键点信息进行人脸对齐,获取区域人眼信息;所述人脸信息包括视频流信息;
所述角膜中心获取模块,用于根据所述区域人眼信息获取角膜轮廓信息,并根据所述角膜轮廓信息通过椭圆拟合获取角膜中心信息;
所述震颤识别模块,用于将所述角膜中心信息输入预设的时间序列分类模型中,进行人眼震颤识别。
进一步地,所述关键点识别模块,还用于:
根据预设的采样率对人脸信息进行抽帧获取第一图片集,并根据预设的模型对第一图片集中的所有图片进行检测,获取人脸关键点信息,所述人脸关键点信息包括所有图片的人脸关键点;
根据预设规则选取一张图片作为基准图片,并根据所述基准图片对齐第一图片集中在基准图片后抽取的所有图片;
根据对齐后的图片判断人眼状态,获取区域人眼信息。
第三方面,本发明实施例提供了一种计算机设备,包括:处理器、通信接口和存储器,所述处理器、所述通信接口和所述存储器相互连接,其中,所述存储器存储有可执行程序代码,所述处理器用于调用所述可执行程序代码,执行所述的眼球震颤识别方法。
第四方面,本发明实施例提供了一种计算机可读存储介质,其上存储有计算机指令,所述计算机指令被处理器执行时实现所述的眼球震颤识别方法。
附图说明
图1为本发明实施例提供的眼球震颤识别方法的一种流程示意图;
图2为本发明实施例提供的眼球震颤识别方法的一种人脸关键点示意图;
图3为本发明实施例提供的眼球震颤识别装置的一种结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
请参照图1,图1为本发明实施例提供的眼球震颤识别方法的一种流程示意图,包括:步骤101至步骤103,具体为:
步骤101:根据人脸信息获取人脸关键点信息,并根据所述人脸关键点信息进行人脸对齐,获取区域人眼信息;所述人脸信息包括视频流信息;
在本实施例中,所述根据人脸信息获取人脸关键点信息,并根据所述人脸关键点信息进行人脸对齐,获取区域人眼信息;所述人脸信息包括视频流信息,具体为:
根据预设的采样率对人脸信息进行抽帧获取第一图片集,并根据预设的模型对第一图片集中的所有图片进行检测,获取人脸关键点信息,所述人脸关键点信息包括所有图片的人脸关键点;
根据预设规则选取一张图片作为基准图片,并根据所述基准图片对齐第一图片集中在基准图片后抽取的所有图片;
根据对齐后的图片判断人眼状态,获取区域人眼信息。
在本实施例中,所述根据对齐后的图片判断人眼状态,获取有效的人眼信息,具体为:
根据对齐后的各个图片中人眼的上眼睑和下眼睑的关键点距离确定各个图片的人眼状态,所述人眼状态包括睁眼和眨眼;
筛选出所有人眼状态为非眨眼的有效图片,并获取第二图片集中所有有效图片的人眼信息。
请参照图2,图2为本发明实施例提供的眼球震颤识别方法的一种人脸关键点示意图。
在本实施例中,所述人脸信息包括视频流信息,通过笔记本电脑、手机或平板电脑摄像头捕获用户的人脸视频流信息;然后根据预设的采样率对视频流进行抽帧;例如:每隔0、1、2或n帧对视频进行抽样;接着利用现有的人脸检测和人脸关键点检测方法和工具,如dlib库提供的人脸检测模型和人脸关键点检测模型对抽到的每一帧图片进行检测,得到68个人脸关键点信息。
在本实施例中,根据人脸关键点,选择前几秒采集到的视频帧中,根据关键点判断用户人眼状态,并选取人眼状态为睁眼,且眼睛正对摄像头的一张图片作为基准图片,并将所述基准图片上的5个关键点作为基准,通过所述5个关键点将基准图片之后抽取的图片与当前图片通过仿射变换进行对齐,这里主要通过opencv提供的仿射变换的接口实现。
作为本发明实施例的一种具体举例,如图2所示,选取图2中索引为36,39,42,45,30的关键点,这里选择的视频帧的方式为:选择睁眼状态下,39到27的距离与27到42的距离差距最小的视频帧作为基准帧,同时获取基准帧的角膜中心位置O。
在本实施例中,通过跟踪对齐之后索引为37和41的人眼上的关键点的变化,根据37到41的距离获取两次眨眼期间距离的变化,眨眼可通过距离为0判断,这里设K为距离top5的平均值与36到39的距离之间的比值。当37到41的距离与36到39的距离的比值减去K大于设定阈值(例如-K*0.1)的时候认为当前帧为睁眼状态。
在本实施例中,过滤掉非睁眼视频帧,得到第二图片集,在过滤后当两帧间隔大于时间间隔设定阈值时(比如0.5s)将其断开成为两个序列。随后根据睁眼状态时的眼部关键点(索引为36到41)的平均值作为眼睛的中心点,然后以此作为中心点,裁剪出出宽高分别为1.5倍单眼宽高的矩形框。所述矩形框内包括区域人眼信息。
在本实施例中,通过人脸关键点对每一帧的人脸进行对齐,无需固定摄像头与人脸的关系,提高了眼球震颤识别的可操作性,便于用户独立进行眼球震颤识别。通过剔除非睁眼图片,以获取有效的人眼信息,避免眨眼图片干扰眼球震颤识别。
步骤102:根据所述区域人眼信息获取角膜轮廓信息,并根据所述角膜轮廓信息通过椭圆拟合获取角膜中心信息;
在本实施例中,所述根据所述区域人眼信息获取角膜轮廓信息,并根据所述角膜轮廓信息通过椭圆拟合获取角膜中心信息,具体为:
将所述区域人眼信息输入预先训练好的角膜轮廓识别模型,获取角膜轮廓信息;
对角膜轮廓信息进行等间隔采样轮廓的关键点信息,并根据所述关键点信息进行椭圆拟合,获取角膜中心信息。
在本实施例中,获取区域人眼信息,并将区域人眼信息输入到基于深度学习的角膜轮廓识别模型,获取角膜轮廓,基于获取到的轮廓信息,采用椭圆拟合的方式,获取角膜中心。
在本实施例中,利用人眼的角膜数据及与之对应的分割图对现有的分割网络(如u-net)进行微调,并训练得到角膜分割模型。将所述区域人眼信息输入到预先训练好的角膜分割模型,获取角膜的分割信息。接着,对包括分割信息的分割图进行膨胀并减去膨胀前的分割图得到前景的轮廓信息。接着,从前景的轮廓信息等间隔采样轮廓的位置信息,并利用这些信息拟合成一个椭圆,最终,得到的椭圆中心作为角膜的中心,并获取第一图片集中所有图片的角膜中心。
步骤103:将所述角膜中心信息输入预设的时间序列分类模型中,进行人眼震颤识别。
在本实施例中,所述将所述角膜中心信息输入预设的时间序列分类模型中,进行人眼震颤识别,具体为:
将所有第二图片的区域人眼信息输入到预先训练好的角膜轮廓识别模型,获取第二图片集中各个图片的角膜中心信息;
在比对所有第二图片与基准图片的角膜中心信息,并获取所有第二图片与基准图片的角膜中心信息在水平方向和垂直方向上的偏差;
根据所有第二图片的时间顺序,将所有第二图片的角膜中心信息的偏差形成偏差序列;
将所述偏差序列输入预设的时间序列分类模型中识别眼球震颤。
在本实施例中,获取到角膜中心点之后,可以得到角膜中心点与基准图片的角膜中心点O在x和y方向上的偏差(bx、by),然后将连续N帧图片的偏差构成一个偏差序列(Bx N,By N)。
在本实施例中,所述将所述偏差序列输入预设的时间序列分类模型中识别眼球震颤,具体为:
构建时间序列分类模型,设定第一预测时刻和第一预测长度;
抽取第一预测长度的偏差序列作为第一数据;
将第一数据输入时间序列分类模型中,预测第一预测时刻后各个时刻是否发生眼球震颤。
在本实施例中,预先构建时间序列分类模型,所述时间序列分类模型可以为:rnn、lstm、transformer。
在本实施例中,获取偏差序列(Bx N,By N)以及每一帧对应的标签YN,Y为是否出现眼球震颤,然后从中抽取预设长度的序列(如300)作为一个训练样本,前r个标签不提供监督信号,第r个标签开始后的标签信息提供监督信号来训练模型,同时通过滑动窗口的方式对数据进行增强,以获取更多的模型训练样本。在本实施例中,将所述模型训练样本输入时间分类模型中进行训练,并获取训练好的时间序列分类模型。
在本实施例中,根据设定的预测长度和第一预测时刻,预测在第一预测时刻起,各个时刻是否发生震颤。具体的假设序列长度为n,则前r个时刻不做预测,从r+1个时刻开始每个时刻会预测当前时刻是否发生眼球震颤。
在本实施例中,本发明通过获取视频片段中各帧角膜中心和基准图片的角膜中心的偏差,以判断人眼的状态,并利用时间序列分类模型对抽取的数据进行预测,即可预测下一时刻眼球是否发生震颤,以识别整段视频片段中是否发生眼球震颤。
在本实施例中,通过人脸信息识别关键点,从而获取眼部关键点信息,并根据所述眼部关键点信息对齐人脸,获取每一帧图片的眼部信息,并通过时间序列分类模型对眼球震颤进行预测识别;无需佩戴特定的设备,通过普通摄像头即可获取人脸视频流信息,简化了眼球震颤识别的操作,提高了眼球震颤识别的便利性,使得用户可随时随地拍摄人脸信息进行眼球震颤识别。
请参照图3,图3为本发明实施例提供的眼球震颤识别装置的一种结构示意图,包括关键点识别模块301,角膜中心获取模块302和震颤识别模块303;
所述关键点识别模块301,用于根据人脸信息获取人脸关键点信息,并根据所述人脸关键点信息进行人脸对齐,获取区域人眼信息;所述人脸信息包括视频流信息;
所述角膜中心获取模块302,用于根据所述区域人眼信息获取角膜轮廓信息,并根据所述角膜轮廓信息通过椭圆拟合获取角膜中心信息;
所述震颤识别模块303,用于将所述角膜中心信息输入预设的时间序列分类模型中,进行人眼震颤识别。
在本实施例中,所述关键点识别模块,还用于:
根据预设的采样率对人脸信息进行抽帧获取第一图片集,并根据预设的模型对第一图片集中的所有图片进行检测,获取人脸关键点信息,所述人脸关键点信息包括所有图片的人脸关键点;
根据所述预设规则选取一张图片作为基准图片,并根据所述基准图片对齐第一图片集中在基准图片后抽取的所有图片;
根据对齐后的图片判断人眼状态,获取区域人眼信息。
在本实施例中,基于普通摄像头的眼球震颤识别方法,不需要使用额外的辅助设备;通过人脸关键点对齐的方式对人脸进行校准,无需固定摄像头与人脸的相对位置;通过对角膜轮廓的识别获取角膜中心,并采用基于rnn或者transformer的序列分析模型对从人脸的视频序列中获取到的角膜中心与基准图片的角膜中心的偏差序列进行识别,最终确定当前时刻是否出现眼球震动。
本发明实施例还提供了一种计算机设备,包括:处理器、通信接口和存储器,所述处理器、所述通信接口和所述存储器相互连接,其中,所述存储器存储有可执行程序代码,所述处理器用于调用所述可执行程序代码,执行所述的眼球震颤识别方法。
本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机指令,所述计算机指令被处理器执行时实现所述的眼球震颤识别方法。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步的详细说明,应当理解,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围。特别指出,对于本领域技术人员来说,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种眼球震颤识别方法,其特征在于,包括:
根据人脸信息获取人脸关键点信息,并根据所述人脸关键点信息进行人脸对齐,获取区域人眼信息;所述人脸信息包括视频流信息;
根据所述区域人眼信息获取角膜轮廓信息,并根据所述角膜轮廓信息通过椭圆拟合获取角膜中心信息;
将所述角膜中心信息输入预设的时间序列分类模型中,进行人眼震颤识别。
2.如权利要求1所述的眼球震颤识别方法,其特征在于,所述根据人脸信息获取人脸关键点信息,并根据所述人脸关键点信息进行人脸对齐,获取区域人眼信息;所述人脸信息包括视频流信息,具体为:
根据预设的采样率对人脸信息进行抽帧获取第一图片集,并根据预设的模型对第一图片集中的所有图片进行检测,获取人脸关键点信息,所述人脸关键点信息包括所有图片的人脸关键点;
根据预设规则选取一张图片作为基准图片,并根据所述基准图片对齐第一图片集中在基准图片后抽取的所有图片;
根据对齐后的图片判断人眼状态,获取区域人眼信息。
3.如权利要求2所述的眼球震颤识别方法,其特征在于,所述根据对齐后的图片判断人眼状态,获取区域人眼信息,具体为:
根据对齐后的第一图片集中的各个图片中人眼的上眼睑和下眼睑的关键点距离确定各个图片的人眼状态,所述人眼状态包括睁眼和眨眼;
筛选出所有人眼状态为非眨眼的第二图片作为第二图片集,并获取第二图片集中所有第二图片的区域人眼信息。
4.如权利要求3所述的眼球震颤识别方法,其特征在于,所述将所述角膜中心信息输入预设的时间序列分类模型中,进行人眼震颤识别,具体为:
将所有第二图片的区域人眼信息输入到预先训练好的角膜轮廓识别模型,获取第二图片集中各个图片的角膜中心信息;
在比对所有第二图片与基准图片的角膜中心信息,并获取所有第二图片与基准图片的角膜中心信息在水平方向和垂直方向上的偏差;
根据所有第二图片的时间顺序,将所有第二图片的角膜中心信息的偏差形成偏差序列;
将所述偏差序列输入预设的时间序列分类模型中识别眼球震颤。
5.如权利要求4所述的眼球震颤识别方法,其特征在于,所述将所述偏差序列输入预设的时间序列分类模型中识别眼球震颤,具体为:
构建时间序列分类模型,设定第一预测时刻和第一预测长度;
抽取第一预测长度的偏差序列作为第一数据;
将第一数据输入时间序列分类模型中,预测第一预测时刻后各个时刻是否发生眼球震颤。
6.如权利要求1所述的眼球震颤识别方法,其特征在于,所述根据所述区域人眼信息获取角膜轮廓信息,并根据所述角膜轮廓信息通过椭圆拟合获取角膜中心信息,具体为:
将所述区域人眼信息输入预先训练好的角膜轮廓识别模型,获取角膜轮廓信息;
对角膜轮廓信息进行等间隔采样轮廓的位置信息,并根据所述位置信息进行椭圆拟合,获取角膜中心信息。
7.一种眼球震颤识别装置,其特征在于,包括:关键点识别模块、角膜中心获取模块和震颤识别模块;
所述关键点识别模块,用于根据人脸信息获取人脸关键点信息,并根据所述人脸关键点信息进行人脸对齐,获取区域人眼信息;所述人脸信息包括视频流信息;
所述角膜中心获取模块,用于根据所述区域人眼信息获取角膜轮廓信息,并根据所述角膜轮廓信息通过椭圆拟合获取角膜中心信息;
所述震颤识别模块,用于将所述角膜中心信息输入预设的时间序列分类模型中,进行人眼震颤识别。
8.如权利要求7所述的眼球震颤识别装置,其特征在于,所述关键点识别模块,还用于:
根据预设的采样率对人脸信息进行抽帧获取第一图片集,并根据预设的模型对第一图片集中的所有图片进行检测,获取人脸关键点信息,所述人脸关键点信息包括所有图片的人脸关键点;
根据预设规则选取一张图片作为基准图片,并根据所述基准图片对齐第一图片集中在基准图片后抽取的所有图片;
根据对齐后的图片判断人眼状态,获取区域人眼信息。
9.一种计算机设备,其特征在于,包括:处理器、通信接口和存储器,所述处理器、所述通信接口和所述存储器相互连接,其中,所述存储器存储有可执行程序代码,所述处理器用于调用所述可执行程序代码,执行如权利要求1至6中任一项所述的眼球震颤识别方法。
10.一种计算机可读存储介质,其上存储有计算机指令,所述计算机指令被处理器执行时实现权利要求1至6中任意一项所述的眼球震颤识别方法。
CN202211523509.5A 2022-12-01 2022-12-01 一种眼球震颤识别方法、装置及设备 Active CN115546884B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211523509.5A CN115546884B (zh) 2022-12-01 2022-12-01 一种眼球震颤识别方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211523509.5A CN115546884B (zh) 2022-12-01 2022-12-01 一种眼球震颤识别方法、装置及设备

Publications (2)

Publication Number Publication Date
CN115546884A true CN115546884A (zh) 2022-12-30
CN115546884B CN115546884B (zh) 2023-03-14

Family

ID=84722094

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211523509.5A Active CN115546884B (zh) 2022-12-01 2022-12-01 一种眼球震颤识别方法、装置及设备

Country Status (1)

Country Link
CN (1) CN115546884B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150173665A1 (en) * 2013-12-19 2015-06-25 Denso Corporation State estimation device and state estimation program
CN105589551A (zh) * 2014-10-22 2016-05-18 褚秀清 一种用于移动设备人机交互的眼动跟踪方法
CN110427101A (zh) * 2019-07-08 2019-11-08 北京七鑫易维信息技术有限公司 眼球追踪的校准方法、装置、设备和存储介质
CN110623629A (zh) * 2019-07-31 2019-12-31 毕宏生 一种基于眼球运动的视觉注意检测方法及系统
CN112381050A (zh) * 2020-12-01 2021-02-19 天翼电子商务有限公司 一种基于面部表情单元和眼动的双模态活体检测方法
CN113065398A (zh) * 2021-03-04 2021-07-02 武汉大学 一种眼球震颤监测方法及系统
CN113177515A (zh) * 2021-05-20 2021-07-27 罗普特科技集团股份有限公司 一种基于图像的眼动追踪方法和系统
CN113705460A (zh) * 2021-08-30 2021-11-26 平安科技(深圳)有限公司 图像中人脸睁眼闭眼检测方法、装置、设备及存储介质
CN114973389A (zh) * 2022-05-10 2022-08-30 中山大学·深圳 一种基于耦合级联回归的眼动追踪方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150173665A1 (en) * 2013-12-19 2015-06-25 Denso Corporation State estimation device and state estimation program
CN105589551A (zh) * 2014-10-22 2016-05-18 褚秀清 一种用于移动设备人机交互的眼动跟踪方法
CN110427101A (zh) * 2019-07-08 2019-11-08 北京七鑫易维信息技术有限公司 眼球追踪的校准方法、装置、设备和存储介质
CN110623629A (zh) * 2019-07-31 2019-12-31 毕宏生 一种基于眼球运动的视觉注意检测方法及系统
CN112381050A (zh) * 2020-12-01 2021-02-19 天翼电子商务有限公司 一种基于面部表情单元和眼动的双模态活体检测方法
CN113065398A (zh) * 2021-03-04 2021-07-02 武汉大学 一种眼球震颤监测方法及系统
CN113177515A (zh) * 2021-05-20 2021-07-27 罗普特科技集团股份有限公司 一种基于图像的眼动追踪方法和系统
CN113705460A (zh) * 2021-08-30 2021-11-26 平安科技(深圳)有限公司 图像中人脸睁眼闭眼检测方法、装置、设备及存储介质
CN114973389A (zh) * 2022-05-10 2022-08-30 中山大学·深圳 一种基于耦合级联回归的眼动追踪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
邓艳丽: "基于视觉的眼动特征研究", 《CNKI硕士电子期刊信息科技辑》 *

Also Published As

Publication number Publication date
CN115546884B (zh) 2023-03-14

Similar Documents

Publication Publication Date Title
JP4162503B2 (ja) 眼の状態判定装置、眼の状態判定方法及びコンピュータプログラム
CN105844128B (zh) 身份识别方法和装置
US7798643B2 (en) System for analyzing eye responses to automatically track size, location, and movement of the pupil
EP1868138A2 (en) Method of tracking a human eye in a video image
US5926251A (en) Eye image tracking apparatus
JP7070605B2 (ja) 注目範囲推定装置、その方法およびプログラム
CN112434611B (zh) 基于眼部运动细微特征的早期疲劳检测方法及系统
JP6058089B2 (ja) 瞬き検出方法および装置
CN111616718B (zh) 基于姿态特征的驾驶员疲劳状态检测方法和系统
CN111414813A (zh) 一种危险驾驶行为的识别方法、装置、设备及存储介质
CN111095268A (zh) 一种用户身份识别方法、装置及电子设备
CN101908140A (zh) 一种在人脸识别中应用的活体检测方法
JP2000235648A (ja) 目の抽出装置および瞬き検出装置
CN107766785A (zh) 一种面部识别方法
CN106600903A (zh) 一种基于图像识别的预警方法及装置
CN112299172A (zh) 手势求救的识别方法、装置及存储介质
Alioua et al. Driver’s fatigue and drowsiness detection to reduce traffic accidents on road
CN111839455A (zh) 甲状腺相关眼病的眼部体征识别方法及设备
US20160302658A1 (en) Filtering eye blink artifact from infrared videonystagmography
CN110175553B (zh) 基于步态识别与人脸识别建立特征库的方法及装置
CN115546884B (zh) 一种眼球震颤识别方法、装置及设备
JP2019110474A (ja) 不審者検知装置
CN114998874A (zh) 一种基于深度学习的驾驶员异常行为检测方法
CN111091058B (zh) 眼部状态检测方法、装置、设备及存储介质
CN115953389B (zh) 一种基于人脸关键点检测的斜视判别方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant