CN115601825A - 一种基于视觉定位技术评价阅读能力的方法 - Google Patents
一种基于视觉定位技术评价阅读能力的方法 Download PDFInfo
- Publication number
- CN115601825A CN115601825A CN202211311660.2A CN202211311660A CN115601825A CN 115601825 A CN115601825 A CN 115601825A CN 202211311660 A CN202211311660 A CN 202211311660A CN 115601825 A CN115601825 A CN 115601825A
- Authority
- CN
- China
- Prior art keywords
- pupil
- read
- article
- person
- evaluated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/41—Analysis of document content
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Ophthalmology & Optometry (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于视觉定位技术评价阅读能力的方法,用于阅读能力评价,包括以下步骤:获取待阅读文章的语义结构;对待评价者的瞳孔进行精准定位;获取所述待评价者的瞳孔在所述待阅读文章上的实时阅读轨迹;基于实时所述阅读轨迹和所述待阅读文章的语义结构评价待评价者的阅读能力,并可视化显示。本发明可以在展现出阅读者具体的阅读过程,评判有无回读、反复读等不良习惯,以及阅读有无抓住文章表达的重点。
Description
技术领域
本发明涉及视觉定位技术领域,特别涉及一种基于视觉定位技术评价阅读能力的方法。
背景技术
在语言教学过程中,写作能力可通过作文写作的方式进行可视化评判;普通话表达可通过录音回放的方式进行评判,但阅读能力目前只能通过对比阅读者阅读后相同文章花费的时间、阅读者阅读后对文章内容的获取情况进行评判,不能对阅读者实时阅读过程中的阅读能力进行可视化评价。
因此,本领域技术人员亟需设计一种方法,以检测阅读者在阅读时的实时阅读能力水平。
发明内容
本发明的目的在于,提供一种基于视觉定位技术评价阅读能力的方法,解决上述现有技术中存在的技术问题。
为了实现上述目的,本发明提供了如下技术方案:
一种基于视觉定位技术评价阅读能力的方法,包括以下步骤:
获取待阅读文章的语义结构;
对待评价者的瞳孔进行精准定位;
获取所述待评价者的瞳孔在所述待阅读文章上的实时阅读轨迹;
基于实时所述阅读轨迹和所述待阅读文章的语义结构评价待评价者的阅读能力,并可视化显示。
优选的,获取待阅读文章的语义结构包括以下步骤:
对样本文章进行分词预处理,得到分词结果;
基于文法表达方式对所述分词结果进行句子成分划分,得到划分结果;
遍历分词结果,并与所述划分结果相结合构建文本词典;
基于所述文本词典和采样方法获取样本文章语义结构;
构建基于神经网络的语义结构提取模型,以所述样本文章语义结构作为训练样本集对所述语义结构提取模型进行训练,直至所述语义结构提取模型的提取准确率满足评价需求;
将所述待阅读文章输入所述语义结构提取模型,获取所述待阅读文章的语义结构。
优选的,对待评价者的瞳孔进行精准定位包括以下步骤:
确定所述待评价者的眼球图片;
对所述眼球图片进行形状筛选,获取具有完整瞳孔的图片;
对所述具有完整瞳孔的图片进行中心点获取处理得到瞳孔中心位置;
将所述瞳孔中心位置与所述待评价者的实时瞳孔图像相匹配,获取实时瞳孔中心的精准定位。
优选的,获取瞳孔中心位置包括以下步骤:
通过多个全局阈值分割所述具有完整瞳孔的图片,获得多个第一阈值分割图像;
根据所述第一阈值分割图像获取虹膜连通域;
基于所述虹膜连通域确定所瞳孔的最小外接矩形;
根据椭圆拟合算法对所述最小外接矩形处理,获得精准瞳孔图片;
对所述精准瞳孔图片内瞳孔形状进行数学处理得到所述瞳孔中心位置。
优选的,所述可视化显示的内容包括:
待评价者阅读所述待阅读文章时,对未阅读的内容进行后台高亮显示;
待评价者阅读所述待阅读文章时,实时阅读时间;
待评价者阅读所述待阅读文章时,阅读固定段落文章所使用的时间;
待评价者阅读所述待阅读文章时,待评价者眼球位移速率;
待评价者阅读所述待阅读文章时,重复阅读的内容;
待评价者阅读所述待阅读文章时,无意阅读时间和状态。
优选的,所述无意阅读时间和状态的获取步骤:
获取所述待评价者的瞳孔阅读时的实时摇摆频率;
基于时间对所述实时摇摆频率进行采样,获取平均摇摆频率;
获取所述瞳孔实时阅读轨迹,当检测到所述瞳孔实时阅读轨迹停止变化,且所述实时摇摆频率低于所述平均摇摆频率,则无意阅读时间开始计算,此时待评价者处于无意阅读状态。
优选的,基于所述虹膜连通域确定所述瞳孔的最小外接矩形的步骤包括:
对所述第一阈值分割图像进行灰度处理,获取所述虹膜连通域内边缘曲线图片;
以虹膜连通域边缘内曲线为基准,建立内切矩形;
所述内切矩形为所述瞳孔的最小外接矩形。
经由上述的内容可知与现有技术相比,本发明的有益效果在于:
本发明通过信息学技术结合阅读能力理论评价方法,展现出阅读者具体的阅读过程,评判有无回读、反复读等不良习惯,以及阅读有无抓住文章表达的重点。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明方法流程图。
图2为本发明瞳孔原始图像。
图3为本发明瞳孔阈值分割图像。
图4为本发明瞳孔连通域分割图像。
图5为本发明瞳孔形状筛选图像。
图6为本发明瞳孔最小外接矩形图像。
图7为本发明瞳孔椭圆拟合图像。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1:
本实施例公开了一种基于视觉定位技术评价阅读能力的方法,包括以下步骤:
获取待阅读文章的语义结构;
对待评价者的瞳孔进行精准定位;
获取待评价者的瞳孔在待阅读文章上的实时阅读轨迹;
基于实时阅读轨迹和待阅读文章的语义结构评价待评价者的阅读能力,并可视化显示。
具体地:
在本实施例中获取待阅读文章的语义结构包括以下步骤:
对样本文章进行分词预处理,得到分词结果;基于文法表达方式对分词结果进行句子成分划分,得到划分结果;遍历分词结果,并与划分结果相结合构建文本词典;基于文本词典和采样方法获取样本文章语义结构;
构建基于神经网络的语义结构提取模型,以样本文章语义结构作为训练样本集对语义结构提取模型进行训练,直至语义结构提取模型的提取准确率满足评价需求;将待阅读文章输入语义结构提取模型,获取待阅读文章的语义结构。例如在本实施例中,所阅读语句为:他非常诚恳地征求在场的每一位专家的意见;其中语义结构为:他-征求-意见。所阅读文章为一段说明文,按照本实施例的语义结构获取方法可通过获取连续词以获取本段内容的语义结构,如:首先-其次-再次-最后。
其中在本实施例中语义结构提取模型的网络结构为:输入层-卷积层-池化层-卷积层-输出层。
另外在本实施例中在待评价者阅读之前还包括依据文章的语义机构对阅读屏幕进行区域划分。
其中,对待评价者的瞳孔进行精准定位包括以下步骤:
确定待评价者的眼球图片;
对眼球图片进行形状筛选,获取具有完整瞳孔的图片;
对具有完整瞳孔的图片进行中心点获取处理得到瞳孔中心位置;
将瞳孔中心位置与待评价者的实时瞳孔图像相匹配,获取实时瞳孔中心的精准定位。
其中,获取瞳孔中心位置包括以下步骤:
通过多个全局阈值分割具有完整瞳孔的图片,获得多个第一阈值分割图像;
根据第一阈值分割图像获取虹膜连通域;
基于虹膜连通域确定所瞳孔的最小外接矩形;
根据椭圆拟合算法对最小外接矩形处理,获得精准瞳孔图片;
对精准瞳孔图片内瞳孔形状进行数学处理得到瞳孔中心位置。
优选的,可视化显示的内容包括:
待评价者阅读待阅读文章时,对未阅读的内容进行后台高亮显示;
待评价者阅读待阅读文章时,实时阅读时间;
待评价者阅读待阅读文章时,阅读固定段落文章所使用的时间;
待评价者阅读待阅读文章时,待评价者眼球位移速率;
待评价者阅读待阅读文章时,重复阅读的内容;
待评价者阅读待阅读文章时,无意阅读时间和状态。
优选的,无意阅读时间和状态的获取步骤:
获取待评价者的瞳孔阅读时的实时摇摆频率;
基于时间对实时摇摆频率进行采样,获取平均摇摆频率;
获取瞳孔实时阅读轨迹,当检测到瞳孔实时阅读轨迹停止变化,且实时摇摆频率低于平均摇摆频率,则无意阅读时间开始计算,此时待评价者处于无意阅读状态。
优选的,基于虹膜连通域确定瞳孔的最小外接矩形的步骤包括:
对第一阈值分割图像进行灰度处理,获取虹膜连通域内边缘曲线图片;
以虹膜连通域边缘内曲线为基准,建立内切矩形;
内切矩形为瞳孔的最小外接矩形。
更进一步,在具体实施时,待评价者通过佩戴与本实施例相适配的且与屏幕耦联的视觉定位器获取瞳孔的实时运动轨迹。在开始评价前,待阅读者在屏幕上选定所要阅读的文章,瞳孔聚焦与屏幕左上角,以屏幕的翻页动作作为触发信号开始进行评价。
其中在本实施例中对于瞳孔精准定位所使用的算法和参数包括:
图像处理采用Halcon处理;
阈值分割算子:threshold(Image:Region:MinGray,MaxGray:);具体参数:threshold(Image,Region1,0,5);
连通域分割算子:connection(Region:ConnectedRegions::);具体参数:connection(Region1,ConnectedRegions);
形状筛选:elect_shape(Regions:SelectedRegions:Features,Operation,Min,Max:);
具体参数:elect_shape(ConnectedRegions,SelectedRegions,'area','and',150,99999);
对所公开的实施例的上述说明,使本领域技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (7)
1.一种基于视觉定位技术评价阅读能力的方法,其特征在于,包括以下步骤:
获取待阅读文章的语义结构;
对待评价者的瞳孔进行精准定位;
获取所述待评价者的瞳孔在所述待阅读文章上的实时阅读轨迹;
基于实时所述阅读轨迹和所述待阅读文章的语义结构评价待评价者的阅读能力,并可视化显示。
2.根据权利要求1所述的一种视觉定位技术评价阅读能力的方法,其特征在于,获取待阅读文章的语义结构包括以下步骤:
对样本文章进行分词预处理,得到分词结果;
基于文法表达方式对所述分词结果进行句子成分划分,得到划分结果;
遍历分词结果,并与所述划分结果相结合构建文本词典;
基于所述文本词典和采样方法获取样本文章语义结构;
构建基于神经网络的语义结构提取模型,以所述样本文章语义结构作为训练样本集对所述语义结构提取模型进行训练,直至所述语义结构提取模型的提取准确率满足评价需求;
将所述待阅读文章输入所述语义结构提取模型,获取所述待阅读文章的语义结构。
3.根据权利要求1所述的一种视觉定位技术评价阅读能力的方法,其特征在于,对待评价者的瞳孔进行精准定位包括以下步骤:
确定所述待评价者的眼球图片;
对所述眼球图片进行形状筛选,获取具有完整瞳孔的图片;
对所述具有完整瞳孔的图片进行中心点获取处理得到瞳孔中心位置;
将所述瞳孔中心位置与所述待评价者的实时瞳孔图像相匹配,获取实时瞳孔中心的精准定位。
4.根据权利要求1所述的一种视觉定位技术评价阅读能力的方法,其特征在于,获取瞳孔中心位置包括以下步骤:
通过多个全局阈值分割所述具有完整瞳孔的图片,获得多个第一阈值分割图像;
根据所述第一阈值分割图像获取虹膜连通域;
基于所述虹膜连通域确定所瞳孔的最小外接矩形;
根据椭圆拟合算法对所述最小外接矩形处理,获得精准瞳孔图片;
对所述精准瞳孔图片内瞳孔形状进行数学处理得到所述瞳孔中心位置。
5.根据权利要求1所述的一种视觉定位技术评价阅读能力的方法,其特征在于,所述可视化显示的内容包括:
待评价者阅读所述待阅读文章时,对未阅读的内容进行后台高亮显示;
待评价者阅读所述待阅读文章时,实时阅读时间;
待评价者阅读所述待阅读文章时,阅读固定段落文章所使用的时间;
待评价者阅读所述待阅读文章时,待评价者眼球位移速率;
待评价者阅读所述待阅读文章时,重复阅读的内容;
待评价者阅读所述待阅读文章时,无意阅读时间和状态。
6.根据权利要求5所述的一种视觉定位技术评价阅读能力的方法,其特征在于,所述无意阅读时间和状态的获取步骤:
获取所述待评价者的瞳孔阅读时的实时摇摆频率;
基于时间对所述实时摇摆频率进行采样,获取平均摇摆频率;
获取所述瞳孔实时阅读轨迹,当检测到所述瞳孔实时阅读轨迹停止变化,且所述实时摇摆频率低于所述平均摇摆频率,则无意阅读时间开始计算,此时待评价者处于无意阅读状态。
7.根据权利要求4所述的一种视觉定位技术评价阅读能力的方法,其特征在于,基于所述虹膜连通域确定所述瞳孔的最小外接矩形的步骤包括:
对所述第一阈值分割图像进行灰度处理,获取所述虹膜连通域内边缘曲线图片;
以虹膜连通域边缘内曲线为基准,建立内切矩形;
所述内切矩形为所述瞳孔的最小外接矩形。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211311660.2A CN115601825B (zh) | 2022-10-25 | 2022-10-25 | 一种基于视觉定位技术评价阅读能力的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211311660.2A CN115601825B (zh) | 2022-10-25 | 2022-10-25 | 一种基于视觉定位技术评价阅读能力的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115601825A true CN115601825A (zh) | 2023-01-13 |
CN115601825B CN115601825B (zh) | 2023-09-19 |
Family
ID=84849155
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211311660.2A Active CN115601825B (zh) | 2022-10-25 | 2022-10-25 | 一种基于视觉定位技术评价阅读能力的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115601825B (zh) |
Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005338173A (ja) * | 2004-05-24 | 2005-12-08 | Advanced Telecommunication Research Institute International | 外国語読解学習支援装置 |
JP2010063621A (ja) * | 2008-09-10 | 2010-03-25 | Koichi Kikuchi | 視認情景に対する視認者感性反応装置 |
CN102708358A (zh) * | 2012-04-18 | 2012-10-03 | 北京十分科技有限公司 | 一种阅读轨迹识别的方法 |
WO2016142882A2 (es) * | 2015-03-10 | 2016-09-15 | Consejo Nacional De Investigaciones Cientificas Y Tecnicas (Conicet) | Metodo de evaluación de desempeño cognitivo de una persona y equipo para llevar a cabo el mismo |
CN106725531A (zh) * | 2016-12-03 | 2017-05-31 | 西安科锐盛创新科技有限公司 | 基于视线的儿童专注力测试分析系统和方法 |
CN106777139A (zh) * | 2016-12-19 | 2017-05-31 | 浙江工业大学 | 基于阅读时间的用户阅读偏好统计的个性化推送方法 |
CN107506346A (zh) * | 2017-07-10 | 2017-12-22 | 北京享阅教育科技有限公司 | 一种基于机器学习的中文阅读难度分级方法及系统 |
US20180295419A1 (en) * | 2015-01-07 | 2018-10-11 | Visyn Inc. | System and method for visual-based training |
CN108830467A (zh) * | 2018-05-31 | 2018-11-16 | 北京智能管家科技有限公司 | 阅读行为的评价方法、装置、设备和存储介质 |
CN109389033A (zh) * | 2018-08-28 | 2019-02-26 | 江苏理工学院 | 一种新型的瞳孔快速定位方法 |
CN109567817A (zh) * | 2018-11-19 | 2019-04-05 | 北京育铭天下科技有限公司 | 一种阅读能力评估方法及系统及其辅助装置 |
CN110020377A (zh) * | 2018-01-02 | 2019-07-16 | 北大方正集团有限公司 | 网络阅读活动互动方法、装置、服务器、终端和存储介质 |
CN110276324A (zh) * | 2019-06-27 | 2019-09-24 | 北京万里红科技股份有限公司 | 一种虹膜图像中确定瞳孔椭圆的方法 |
CN111178189A (zh) * | 2019-12-17 | 2020-05-19 | 北京无线电计量测试研究所 | 一种网络学习辅助方法和系统 |
CN111860121A (zh) * | 2020-06-04 | 2020-10-30 | 上海翎腾智能科技有限公司 | 一种基于ai视觉下的阅读能力辅助评估方法及系统 |
KR20210019266A (ko) * | 2019-08-12 | 2021-02-22 | 주식회사 비엔알아이 | 시선 추적을 이용한 머신 러닝 기반의 읽기 능력 진단 장치 및 방법 |
CN112417142A (zh) * | 2020-11-23 | 2021-02-26 | 浙江工业大学 | 基于眼动跟踪的词义和摘要生成辅助方法及系统 |
CN114637837A (zh) * | 2022-03-21 | 2022-06-17 | 平安普惠企业管理有限公司 | 用户阅读行为信息的采集方法、装置、设备及介质 |
CN114861643A (zh) * | 2022-04-07 | 2022-08-05 | 之江实验室 | 一种基于类脑注意机制优化机器阅读理解能力的方法 |
-
2022
- 2022-10-25 CN CN202211311660.2A patent/CN115601825B/zh active Active
Patent Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005338173A (ja) * | 2004-05-24 | 2005-12-08 | Advanced Telecommunication Research Institute International | 外国語読解学習支援装置 |
JP2010063621A (ja) * | 2008-09-10 | 2010-03-25 | Koichi Kikuchi | 視認情景に対する視認者感性反応装置 |
CN102708358A (zh) * | 2012-04-18 | 2012-10-03 | 北京十分科技有限公司 | 一种阅读轨迹识别的方法 |
US20180295419A1 (en) * | 2015-01-07 | 2018-10-11 | Visyn Inc. | System and method for visual-based training |
WO2016142882A2 (es) * | 2015-03-10 | 2016-09-15 | Consejo Nacional De Investigaciones Cientificas Y Tecnicas (Conicet) | Metodo de evaluación de desempeño cognitivo de una persona y equipo para llevar a cabo el mismo |
CN106725531A (zh) * | 2016-12-03 | 2017-05-31 | 西安科锐盛创新科技有限公司 | 基于视线的儿童专注力测试分析系统和方法 |
CN106777139A (zh) * | 2016-12-19 | 2017-05-31 | 浙江工业大学 | 基于阅读时间的用户阅读偏好统计的个性化推送方法 |
CN107506346A (zh) * | 2017-07-10 | 2017-12-22 | 北京享阅教育科技有限公司 | 一种基于机器学习的中文阅读难度分级方法及系统 |
CN110020377A (zh) * | 2018-01-02 | 2019-07-16 | 北大方正集团有限公司 | 网络阅读活动互动方法、装置、服务器、终端和存储介质 |
CN108830467A (zh) * | 2018-05-31 | 2018-11-16 | 北京智能管家科技有限公司 | 阅读行为的评价方法、装置、设备和存储介质 |
CN109389033A (zh) * | 2018-08-28 | 2019-02-26 | 江苏理工学院 | 一种新型的瞳孔快速定位方法 |
CN109567817A (zh) * | 2018-11-19 | 2019-04-05 | 北京育铭天下科技有限公司 | 一种阅读能力评估方法及系统及其辅助装置 |
CN110276324A (zh) * | 2019-06-27 | 2019-09-24 | 北京万里红科技股份有限公司 | 一种虹膜图像中确定瞳孔椭圆的方法 |
KR20210019266A (ko) * | 2019-08-12 | 2021-02-22 | 주식회사 비엔알아이 | 시선 추적을 이용한 머신 러닝 기반의 읽기 능력 진단 장치 및 방법 |
CN111178189A (zh) * | 2019-12-17 | 2020-05-19 | 北京无线电计量测试研究所 | 一种网络学习辅助方法和系统 |
CN111860121A (zh) * | 2020-06-04 | 2020-10-30 | 上海翎腾智能科技有限公司 | 一种基于ai视觉下的阅读能力辅助评估方法及系统 |
CN112417142A (zh) * | 2020-11-23 | 2021-02-26 | 浙江工业大学 | 基于眼动跟踪的词义和摘要生成辅助方法及系统 |
CN114637837A (zh) * | 2022-03-21 | 2022-06-17 | 平安普惠企业管理有限公司 | 用户阅读行为信息的采集方法、装置、设备及介质 |
CN114861643A (zh) * | 2022-04-07 | 2022-08-05 | 之江实验室 | 一种基于类脑注意机制优化机器阅读理解能力的方法 |
Non-Patent Citations (4)
Title |
---|
MATTHEW K. ROBISON ET.AL: "Pupillometry tracks fluctuations in working memory performance", 《ATTENTION, PERCEPTION, & PSYCHOPHYSICS 》, pages 407 * |
PABLO OYARZO ET.AL: "Attentional and meta-cognitive processes underlying mind wandering episodes during continuous naturalistic reading are associated with specific changes in eye behavior", 《PSYCHOPHYSIOLOGY 》, pages 1 - 20 * |
尤鸿霞等: "虹膜识别技术中瞳孔特征参数分析", 《苏州大学学报(自然科学版)》, vol. 22, no. 3, pages 60 - 64 * |
方淑仙等: "基于生物形状知识的人眼定位方法", 《 计算机系统应用》, vol. 27, no. 10, pages 296 - 21 * |
Also Published As
Publication number | Publication date |
---|---|
CN115601825B (zh) | 2023-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110363194B (zh) | 基于nlp的智能阅卷方法、装置、设备及存储介质 | |
CN105787522B (zh) | 基于手写笔迹的书写态度评价方法及系统 | |
CN109063587B (zh) | 数据处理方法、存储介质和电子设备 | |
CN114419736B (zh) | 一种实验评分方法、系统、设备及可读存储介质 | |
CN110956138B (zh) | 一种基于家教设备的辅助学习方法及家教设备 | |
CN111918130A (zh) | 视频封面确定方法、装置、电子设备及存储介质 | |
CN112183334B (zh) | 一种基于多模态特征融合的视频深度关系分析方法 | |
CN110210289B (zh) | 情绪识别方法、装置、计算机可读存储介质及电子设备 | |
CN111918122A (zh) | 视频处理方法、装置、电子设备和可读存储介质 | |
EP4163881A1 (en) | Video highlight extraction method and system, and storage medium | |
CN114881541B (zh) | 一种考生成绩的评定方法、装置、设备及可读存储介质 | |
CN114549993A (zh) | 实验中线段图像的评分方法、系统、设备及可读存储介质 | |
CN115601825B (zh) | 一种基于视觉定位技术评价阅读能力的方法 | |
CN109710735B (zh) | 基于多社交渠道的朗读内容推荐方法及电子设备 | |
CN108171144B (zh) | 信息处理方法、装置、电子设备及存储介质 | |
CN111950480A (zh) | 一种基于人工智能的英语发音自检方法和自检系统 | |
CN116521917A (zh) | 一种图片筛选方法及装置 | |
CN112560728B (zh) | 目标对象识别方法及装置 | |
CN115223232A (zh) | 一种眼健康综合管理系统 | |
CN109766413B (zh) | 一种应用于家教设备的搜索方法及家教设备 | |
CN112632265A (zh) | 智能机器阅读理解方法、装置、电子设备及存储介质 | |
CN112232166A (zh) | 基于人工智能的讲师动态评价方法、装置、计算机设备 | |
CN106599765A (zh) | 基于对象连续发音的视-音频判断活体的方法及系统 | |
CN113139629A (zh) | 一种字体识别方法、装置、电子设备及存储介质 | |
CN111064990B (zh) | 视频处理方法、装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |