CN114468973B - 一种智能视力检测系统 - Google Patents

一种智能视力检测系统 Download PDF

Info

Publication number
CN114468973B
CN114468973B CN202210084112.4A CN202210084112A CN114468973B CN 114468973 B CN114468973 B CN 114468973B CN 202210084112 A CN202210084112 A CN 202210084112A CN 114468973 B CN114468973 B CN 114468973B
Authority
CN
China
Prior art keywords
image
preset
test
limb
human body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210084112.4A
Other languages
English (en)
Other versions
CN114468973A (zh
Inventor
伍卫东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Vision Optical Technology Co ltd
Original Assignee
Guangzhou Vision Optical Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Vision Optical Technology Co ltd filed Critical Guangzhou Vision Optical Technology Co ltd
Priority to CN202210084112.4A priority Critical patent/CN114468973B/zh
Publication of CN114468973A publication Critical patent/CN114468973A/zh
Application granted granted Critical
Publication of CN114468973B publication Critical patent/CN114468973B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • A61B3/032Devices for presenting test symbols or characters, e.g. test chart projectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0008Apparatus for testing the eyes; Instruments for examining the eyes provided with illuminating means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0033Operational features thereof characterised by user input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种智能视力检测系统,包括:智能视力表和输入装置;所述智能视力表包括表箱,所述表箱上设置有视力表面板;所述视力表面板上设置有测试标准字,所述视力表面板后部设置有LED指示灯,所述LED指示灯位置和数量均与所述视力表面板上的测试标准字一一对应;所述表箱内还设置有单片机可编程控制器、信号接收器和扬声器;所述LED指示灯、所述信号接收器和所述扬声器均通过信号线与所述单片机可编程控制器连接;所述输入装置内设置有方向选择模块、信号发送模块;用以实现视力检测的智能化操作,提高视力检测的准确度和效率。

Description

一种智能视力检测系统
技术领域
本发明涉及视力检测技术领域,特别涉及一种智能视力检测系统。
背景技术
目前,传统的视力检测过程需要在专业人员的手动操作和陪同下才可完成,并且传统的视力检测表箱内设置的是整体的光照,在视力检测时不能针对性地为测试标准字提供照明,需要人工指示被测者测试的对应测试标准字,且测试过程主要通过专业人员的指示以及专业人员和被测者之间的语言传达,实现测试过程,对专业人员的依赖性更改,容易出现误差,且检测效率不高;
而且,传统的视力检测过程需要口头询问或者调取计算机中的历史用户信息,才可以获得用户的历史用户信息,进而认为指定检测计划,这样既导致效率不高,而且获取的历史用户信息来源不够可靠,可能会导致历史用户信息的误差,从而导致检测计划的误差,进而导致检测结果不够精准;
因此,本发明提出一种智能视力检测系统。
发明内容
本发明提供一种智能视力检测系统,用以实现视力检测的智能化操作,提高视力检测的准确度和效率。
本发明提出一种智能视力检测系统,包括:智能视力表和输入装置;所述智能视力表包括表箱,所述表箱上设置有视力表面板;所述视力表面板上设置有测试标准字,所述视力表面板后部设置有LED指示灯,所述LED指示灯位置和数量均与所述视力表面板上的测试标准字一一对应;所述表箱内还设置有单片机可编程控制器、信号接收器和扬声器;所述LED指示灯、所述信号接收器和所述扬声器均通过信号线与所述单片机可编程控制器连接;所述输入装置内设置有方向选择模块、信号发送模块。
优选的,所述的一种智能视力检测系统,包括:
所述单片机可编程控制器用于生成每个LED指示灯对应的发光控制信号;
所述LED指示灯用于基于对应的发光控制信号进行发光。
优选的,所述信号接收器,包括:
图像获取模块,用于实时获取所述视力表面板正前方预设范围内的场景图像;
人体识别模块,用于实时识别最新获取的第一场景图像中是否存在人体图像;
脸部提取模块,用于当所述第一场景图像中存在所述人体图像时,则从所述人体图像中识别出对应的脸部图像。
优选的,所述人体识别模块,包括:
图像对比单元,用于将最新获取的第一场景图像与前一帧第二场景图像进行对比,判断所述第一场景图像和所述第二场景图像是否完全一致,若是,则判定所述第一场景图像中不存在人体图像;
图像提取单元,用于当所述第一场景图像和所述第二场景图像不完全一致时,则确定出所述第一场景图像中与所述第二场景图像不一致的差异图像区域;
尺寸确定单元,用于确定出所述差异图像区域的图像尺寸;
第一判断单元,用于判断所述图像尺寸是否在疑似人体对应的图像尺寸范围内,若是,则将所述差异图像区域作为疑似人体图像,否则,判定所述第一场景图像中不存在人体图像;
第一处理单元,用于按照人体预设骨架结构将所述疑似人体图像进行对应缩放处理,获得对应的待判定图像;
肢体定位单元,用于基于人体预设骨架结构中的第一定位特征点,确定所述待判定图像中的第二定位特征点,基于所述待判定图像中的所有第二定位特征点,确定出所述待判定图像中的肢体定位线段,基于肢体定位线段的预设位置关系确定出所述肢体定位线段对应的肢体类别;
图像划分单元,用于基于所述肢体定位线段将所述待判定图像划分成多个肢体图像,并基于对应的肢体定位线段确定出每个肢体图像对应的肢体类别;
特征提取单元,用于基于每个肢体类别对应的特征提取方法,从对应的肢体图像中提取出对应的待检测特征;
特征匹配单元,用于将所述待检测特征与对应肢体类别预设的肢体图像特征进行匹配,并计算出对应的匹配度,若每个肢体图像对应的匹配度都大于对应的预设匹配度,则判定所述第一场景图像中存在人体图像,并将所述待判定图像作为对应的人体图像,否则,判定所述第一场景中不存在人体图像。
优选的,所述脸部提取模块,包括:
色块划分单元,用于按照色度预设梯度范围将所述人体图像划分为多个第一色块区域;
头部确定单元,用于基于所述人体图像中的肢体图像对应的肢体类别,确定出所述人体图像中的头部图像;
第一筛选单元,用于从所述第一色块区域中筛选出所述头部图像包含的第二色块区域;
第二筛选单元,用于从所有第二色块区域中筛选出满足脸部色度阈值范围的第三色块区域;
第三筛选单元,用于从所述第三色块区域中筛选出亮度值在预设亮度阈值范围内的第一像素点,基于所述第一像素点构成第一子区域;
五官提取单元,用于基于五官对应的预设提取特征从所述第一子区域中提取出对应的第一五官图像区域;
五官确定单元,用于基于所述第一五官图像区域在头部图像中的位置关系,确定出对应的五官相对位置连线;
第二处理单元,用于基于所述五官相对位置连线在所述头部图像中的位置对所述头部图像进行对应缩放处理,获得对应的待识别头部图像,将所述第一五官图像区域在所述待识别头部图像中对应的区域作为第二五官图像区域;
边缘修复单元,用于判断所述第二五官图像区域中包含的五官图像区域是否完整,若是,则基于预设的脸部边缘特征对所述第三色块区域进行边缘修复,获得修复后的脸部边缘;否则,从与所述第三色块区域相邻的第二色块区域中提取出第三五官图像区域,基于预设的脸部边缘特征从所述第三五官图像区域所属的第二色块区域和所述第三色块区域中获得对应的脸部边缘;
脸部确定单元,用于基于所述脸部边缘确定出对应的脸部图像。
优选的,所述单片机可编程控制器,包括:
生成模块,用于将所述脸部图像与历史用户库中存储的历史用户脸部图像进行匹配,获得匹配结果,基于所述匹配结果生成每个LED指示灯对应的发光控制信号;
调整模块,用于实时调整所述发光控制信号。
优选的,所述生成模块,包括:
用户匹配单元,用于将所述脸部图像与历史用户库中存储的历史用户脸部图像进行匹配,获得匹配结果;
第二判断单元,用于基于所述匹配结果判断所述历史用户库中是否存在所述脸部图像对应的历史用户信息;
第一生成单元,用于当所述历史用户库中存在所述脸部图像对应的历史用户信息时,则从所述历史用户信息中调取出最新视力检测结果,基于所述最新视力检测结果确定出当前用户在所述视力表面板上对应的测试范围,基于预设的测试顺序和所述测试范围,生成对应的第一测试计划,基于预设的发光时间间隔和所述第一测试计划生成对应的第一发光控制计划,基于所述第一发光控制计划生成每个LED指示灯对应的发光控制信号;
第二生成单元,用于当所述历史用户库中不存在所述脸部图像对应的历史用户信息时,则基于初始测试顺序,生成对应的第二测试计划,基于预设的发光时间间隔和所述第二测试计划生成对应的第二发光控制计划,基于所述第二发光控制计划生成每个LED指示灯对应的发光控制信号。
优选的,所述的一种智能视力检测系统,包括:
所述扬声器,用于获取所述发光控制信号,在每个LED指示灯发光的同时,播放测试提示语音;
所述方向选择模块,用于当每个LED指示灯开始发光时,开始接收用户触摸或者点选按钮输入的第一方向选择结果;
所述信号发送模块,用于将所述第一方向选择结果转换为对应的传输信号,并基于所述信号接收器将所述传输信号转送至所述调整模块;
所述调整模块,用于解析所述传输信号获得对应的第一方向选择结果,当所述第一方向选择结果与对应的测试标准字的开口方向不一致时,则控制当前发光LED指示灯重新发光,同时,控制所述扬声器播放测试提示语音,并接收对应的第二方向选择结果,当所述第二方向选择结果与对应的测试标准字的开口方向不一致时,则终止发光控制信号的发送,同时,将对应的测试标准字所在行作为初始测试结果;
否则,继续发送发光控制信号,直至连续两次解析获得的方向选择结果与对应的测试标准字的开口方向不一致时,则终止发光控制信号的发送,同时,将对应的测试标准字所在行作为初始测试结果。
优选的,所述单片机可编程控制器,还包括:
位置确定模块,用于基于所述脸部图像确定出当前用户的瞳孔空间位置;
校正模块,用于基于所述瞳孔空间位置校正所述初始测试结果,获得最终测试结果;
更新模块,用于将所述最终测试结果更新至所述历史用户库。
优选的,所述位置确定模块,包括:
获取单元,用于获取所述视力表面板正前方预设范围内的三维场景模型,
眼球确定单元,用于基于预设的瞳孔图像特征从所述脸部图像中确定出对应的瞳孔图像;
位置确定单元,用于将所述瞳孔图像的物理中心点作为基准点,按照预设确定方法在所述脸部图像的脸部边缘中确定出多个参考点,基于所述参考点将所述脸部图像和所述三维场景模型拟合,获得对应的融合模型,基于所述融合模型确定出所述参考点在虚拟坐标系中的第一空间位置,基于所述第一空间位置以及所述基准点和每个参考点之间的视觉信息,确定出当前用户的瞳孔空间位置。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例中一种智能视力检测系统示意图;
图2为本发明实施例中一种信号接收器示意图;
图3为本发明实施例中一种人体识别模块示意图;
图4为本发明实施例中一种脸部提取模块示意图;
图5为本发明实施例中一种单片机可编程控制器示意图;
图6为本发明实施例中一种生成模块示意图;
图7为本发明实施例中又一种单片机可编程控制器示意图;
图8为本发明实施例中一种位置确定模块示意图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
实施例1:
本发明提出了一种智能视力检测系统,参考图1,包括:智能视力表和输入装置;所述智能视力表包括表箱,所述表箱上设置有视力表面板;所述视力表面板上设置有测试标准字,所述视力表面板后部设置有LED指示灯,所述LED指示灯位置和数量均与所述视力表面板上的测试标准字一一对应;所述表箱内还设置有单片机可编程控制器、信号接收器和扬声器;所述LED指示灯、所述信号接收器和所述扬声器均通过信号线与所述单片机可编程控制器连接;所述输入装置内设置有方向选择模块、信号发送模块。
以上技术的有益效果为:本发明通过在视力表面板上设置测试标准字,在视力表面板后部设置位置和数量均与视力表面板上的测试标准字一一对应LED指示灯,可以基于单片机可编程控制器的控制有针对性地为测试标准字提供照明,无需人工指示或语言传达即可进行测试,与传统的视力检测方式相比,减少了对专业人员的依赖性,减少了视力检测的误差,提高了视力检测的准确性和效率,并通过设置单片机可编程控制器、信号接收器、扬声器、方向选择模块、信号发送模块,可以实现在视力检测过程中的一系列智能化操作,进一步提高了视力检测结果的准确性。
实施例2:
在实施例1的基础上,所述的一种智能视力检测系统,包括:
所述单片机可编程控制器用于生成每个LED指示灯对应的发光控制信号;
所述LED指示灯用于基于对应的发光控制信号进行发光。
该实施例中,发光控制信号即为控制对应LED指示灯发光的信号。
以上技术的有益效果为:单片机可编程控制器通过生成每个LED指示灯对应的发光控制信号,进而控制对应的LED指示灯发光,可以无需人工指示或语言传达即可完成测试过程,减少了对专业人员的依赖性,减少了视力检测的误差,提高了视力检测的准确性和效率。
实施例3:
在实施例1的基础上,所述信号接收器,参考图2,包括:
图像获取模块,用于实时获取所述视力表面板正前方预设范围内的场景图像;
人体识别模块,用于实时识别最新获取的第一场景图像中是否存在人体图像;
脸部提取模块,用于当所述第一场景图像中存在所述人体图像时,则从所述人体图像中识别出对应的脸部图像。
该实施例中,场景图像即为包含视力表面板正前方预设范围内场景的图像。
该实施例中,预设范围具体可以根据人为设置。
该实施例中,第一场景图像即为最新获取的视力表面板正前方预设范围内的场景图像。
该实施例中,人体图像即为人体对应的图像。
该实施例中,脸部图像即为人体脸部对应的图像。
以上技术的有益效果为:信号接收器通过获取视力表面板正前方预设范围内的场景图像,并从场景图像中识别出脸部图像,为从历史用户库中检索当前用户的历史用户信息提供了基础,也为生成准确的视力检测计划和视力检测结果提供了基础。
实施例4:
在实施例3的基础上,所述人体识别模块,参考图3,包括:
图像对比单元,用于将最新获取的第一场景图像与前一帧第二场景图像进行对比,判断所述第一场景图像和所述第二场景图像是否完全一致,若是,则判定所述第一场景图像中不存在人体图像;
图像提取单元,用于当所述第一场景图像和所述第二场景图像不完全一致时,则确定出所述第一场景图像中与所述第二场景图像不一致的差异图像区域;
尺寸确定单元,用于确定出所述差异图像区域的图像尺寸;
第一判断单元,用于判断所述图像尺寸是否在疑似人体对应的图像尺寸范围内,若是,则将所述差异图像区域作为疑似人体图像,否则,判定所述第一场景图像中不存在人体图像;
第一处理单元,用于按照人体预设骨架结构将所述疑似人体图像进行对应缩放处理,获得对应的待判定图像;
肢体定位单元,用于基于人体预设骨架结构中的第一定位特征点,确定所述待判定图像中的第二定位特征点,基于所述待判定图像中的所有第二定位特征点,确定出所述待判定图像中的肢体定位线段,基于肢体定位线段的预设位置关系确定出所述肢体定位线段对应的肢体类别;
图像划分单元,用于基于所述肢体定位线段将所述待判定图像划分成多个肢体图像,并基于对应的肢体定位线段确定出每个肢体图像对应的肢体类别;
特征提取单元,用于基于每个肢体类别对应的特征提取方法,从对应的肢体图像中提取出对应的待检测特征;
特征匹配单元,用于将所述待检测特征与对应肢体类别预设的肢体图像特征进行匹配,并计算出对应的匹配度,若每个肢体图像对应的匹配度都大于对应的预设匹配度,则判定所述第一场景图像中存在人体图像,并将所述待判定图像作为对应的人体图像,否则,判定所述第一场景中不存在人体图像。
该实施例中,第二场景图像即为第一场景图像的前一阵的场景图像。
该实施例中,判断所述第一场景图像和所述第二场景图像是否完全一致即为:判断第一场景图像中的每个像素点和第二场景图像中每个像素点对应的色度值、亮度值、对比度是否完全一致。
该实施例中,差异图像区域即为第一场景图像和第二场景图像中不一致的图像区域,也是像素点不一致(即像素点的色度值、亮度值、对比度至少其中之一不一致)的图像区域。
该实施例中,图像尺寸即为差异图像区域的面积。
该实施例中,疑似人体对应的图像尺寸范围即为场景图像中存在人体时对应的差异图像区域可能的图像尺寸范围。
该实施例中,疑似人体图像即为图像尺寸满足疑似人体对应的图像尺寸范围时的差异图像区域。
该实施例中,人体预设骨架结构即为:从预设的人体图像中确定的骨架连接点,基于骨架连接点确定出妇婴的骨架连接线,基于骨架连接点和骨架连接线确定的反映预设的人体图像的结构图。
该实施例中,按照人体预设骨架结构将所述疑似人体图像进行对应缩放处理,即为:确定疑似人体图像中的骨架连接点,基于骨架连接点进而确定出骨架连接线,基于人体预设骨架结构中的骨架连接线的大小将疑似人体图像中确定出的骨架连接线进行对应的缩放处理,使得疑似人体图像中确定出的骨架连接线与人体预设骨架结构中的骨架连接线的大小一致。
该实施例中,待判定图像即为按照人体预设骨架结构将所述疑似人体图像进行对应缩放处理后获得的图像。
该实施例中,第一定位特征点即为人体预设骨架结构中的骨架连接点或者肢体末端点,具体可根据实际人为设置。
该实施例中,第二定位特征点即为待判定图像中的骨架连接点或肢体末端点,与第一定位特征点的种类对应。
该实施例中,肢体定位线段即为基于第二定位特征点确定的骨架连接线。
该实施例中,肢体定位线段的预设位置关系即为不同肢体类别之间的位置连接诶关系。
该实施例中,肢体类别即为人体的肢体种类,包括:头部、颈部、上半身、四肢等。
该实施例中,肢体图像即为人体各个肢体种类对应的图像。
该实施例中,每个肢体类别对应的特征提取方法即为每个肢体类别的提取对应待检测特征的方法,具体可根据人为设定,例如:头部对应的特征提取方法为形状特征提取、四肢对应的特征提取方法为尺寸特征提取。
该实施例中,待检测特征即为从对应的肢体图像中提取的反映对应肢体特征的特征。
该实施例中,将所述待检测特征与对应肢体类别预设的肢体图像特征进行匹配,并计算出对应的匹配度,包括:
例如,待检测特征包括:当前用户对应的肢体图像的面积、最大长度值和最大宽度值,则所述待检测特征与对应肢体类别预设的肢体图像特征进行匹配,并计算出对应的匹配度,包括:
式中,ε为待检测特征与对应肢体类别预设的肢体图像特征的匹配度,S为当前用户对应的肢体图像的面积,S0为对应肢体类别预设的肢体图像的面积,A为当前用户对应的肢体图像的最大长度值,A0为对应肢体类别预设的肢体图像的最大长度值,B为当前用户对应的肢体图像的最大宽度值,B0为对应肢体类别预设的肢体图像的最大宽度值;
例如,S为101,S0为100,A为51,A0为50,B为9,B0为10,则ε为0.96。
以上技术的有益效果为:通过确定出最新获取的第一场景图像中与前一帧第二场景图像不一致的差异图像区域,基于对所述差异图像区域进行图像划分和肢体类别判别实现将差异图像区域中的肢体对应的待检测特征与预设的肢体图像特征进行匹配,获得对应的匹配度,从而可以准确地判别出第一场景图像中是否存在人体图像,为后续识别当前用户的脸部图像提供了基础,也为后续基于脸部图像从历史用户库中调取当前用户对应的历史用户信息提供了基础。
实施例5:
在实施例4的基础上,所述脸部提取模块,参考图4,包括:
色块划分单元,用于按照色度预设梯度范围将所述人体图像划分为多个第一色块区域;
头部确定单元,用于基于所述人体图像中的肢体图像对应的肢体类别,确定出所述人体图像中的头部图像;
第一筛选单元,用于从所述第一色块区域中筛选出所述头部图像包含的第二色块区域;
第二筛选单元,用于从所有第二色块区域中筛选出满足脸部色度阈值范围的第三色块区域;
第三筛选单元,用于从所述第三色块区域中筛选出亮度值在预设亮度阈值范围内的第一像素点,基于所述第一像素点构成第一子区域;
五官提取单元,用于基于五官对应的预设提取特征从所述第一子区域中提取出对应的第一五官图像区域;
五官确定单元,用于基于所述第一五官图像区域在头部图像中的位置关系,确定出对应的五官相对位置连线;
第二处理单元,用于基于所述五官相对位置连线在所述头部图像中的位置对所述头部图像进行对应缩放处理,获得对应的待识别头部图像,将所述第一五官图像区域在所述待识别头部图像中对应的区域作为第二五官图像区域;
边缘修复单元,用于判断所述第二五官图像区域中包含的五官图像区域是否完整,若是,则基于预设的脸部边缘特征对所述第三色块区域进行边缘修复,获得修复后的脸部边缘;否则,从与所述第三色块区域相邻的第二色块区域中提取出第三五官图像区域,基于预设的脸部边缘特征从所述第三五官图像区域所属的第二色块区域和所述第三色块区域中获得对应的脸部边缘;
脸部确定单元,用于基于所述脸部边缘确定出对应的脸部图像。
该实施例中,色度预设梯度范围可以根据实际情况人为设置,例如,[0,50)、[50,100)、[100,150)、[150,200)、[200,255)。
该实施例中,第一色块区域即为按照色度预设梯度范围将人体图像划分获得的图像区域。
该实施例中,头部图像即为人体图像中的头部区域对应的图像。
该实施例中,第二色块区域即为从所有第一色块区域中筛选出头部图像包含的第一色块区域。
该实施例中,第三色块区域即为从所有第二色块区域中筛选出满足脸部色度阈值范围的第二色块区域。
该实施例中,第一像素点即为从第三色块区域中筛选出亮度值在预设亮度阈值范围内的像素点。
该实施例中,第一子区域即为由所有第一像素点构成的图像区域。
该实施例中,五官对应的预设提取特征即为五官中每个器官对应的提取特征,例如,眼睛对应的预设提取特征为:位置在脸部图像的上半部分,色度值在[0,50]或[200,255]内,具体可根据实际情况人为设定。
该实施例中,第一五官图像区域即为基于五官对应的预设提取特征从第一子区域中提取的五官对应的图像区域。
该实施例中,五官相对位置连线即为第一五官图像区域中五官之间的连线。
该实施例中,基于所述五官相对位置连线在所述头部图像中的位置对所述头部图像进行对应缩放处理,包括:将五官相对位置连线在头部图像中的位置和五官在预设脸部图像中的预设位置关系一一对应,进而将五官相对位置连线的长度进行缩放,使五官相对位置连线的长度与对应五官相对位置连线的长度一致。
该实施例中,待识别头部图像即为基于五官相对位置连线在头部图像中的位置对头部图像进行对应缩放处理后获得的头部图像。
该实施例中,第二五官图像区域即为第一五官图像区域在待识别头部图像中对应的图像区域。
该实施例中,判断所述第二五官图像区域中包含的五官图像区域是否完整,即为判断第二五官图像区域中是否包含所有的五官图像。
该实施例中,预设的脸部边缘特征即为脸部边缘像素点对应的色度值范围、亮度值范围、对比度范围,具体可根据人为设定。
该实施例中,第三五官图像区域即为从与第三色块区域相邻的第二色块区域中提取出的五官对应的图像区域。
该实施例中,脸部边缘即为从人体图像中识别出的脸部图像的边缘。
以上技术的有益效果为:通过从人体图像中确定出对应的头部图像,同时对头部头像进行色块划分,再基于色度范围和亮度范围对获得的色块进行多洗筛选从而确定出当前用户的五官图像区域,之后对五官图像区域进行完整性判断和脸部边缘修复,从而获得完整准确的脸部图像,为后续基于脸部图像从历史用户库中调取当前用户对应的历史用户信息提供了基础。
实施例6:
在实施例2的基础上,所述单片机可编程控制器,参考图5,包括:
生成模块,用于将所述脸部图像与历史用户库中存储的历史用户脸部图像进行匹配,获得匹配结果,基于所述匹配结果生成每个LED指示灯对应的发光控制信号;
调整模块,用于实时调整所述发光控制信号。
该实施例中,历史用户库即为存储历史用户脸部图像和对应的历史用户信息的数据库。
该实施例中,历史用户脸部图像即为曾做过视力检测的用户的脸部图像。
该实施例中,匹配结果包括:历史用户库中存在与当前用户的脸部图像一致的历史用户脸部图像、历史用户库中不存在与当前用户的脸部图像一致的历史用户脸部图像。
以上技术的有益效果为:通过将前述步骤获得的当前用户的脸部图像与历史用户库中存储的历史用户脸部图像进行匹配,可以精准地检索出当前用户的历史用户信息,为基于历史用户信息中包含的最新视力检测结果生成对应的发光控制信号提供了基础,并可实时调整发光控制信号,实现了视力检测过程的智能化,进一步减少了视力检测的误差,提高了视力检测的准确性和效率。
实施例7:
在实施例6的基础上,所述生成模块,参考图6,包括:
用户匹配单元,用于将所述脸部图像与历史用户库中存储的历史用户脸部图像进行匹配,获得匹配结果;
第二判断单元,用于基于所述匹配结果判断所述历史用户库中是否存在所述脸部图像对应的历史用户信息;
第一生成单元,用于当所述历史用户库中存在所述脸部图像对应的历史用户信息时,则从所述历史用户信息中调取出最新视力检测结果,基于所述最新视力检测结果确定出当前用户在所述视力表面板上对应的测试范围,基于预设的测试顺序和所述测试范围,生成对应的第一测试计划,基于预设的发光时间间隔和所述第一测试计划生成对应的第一发光控制计划,基于所述第一发光控制计划生成每个LED指示灯对应的发光控制信号;
第二生成单元,用于当所述历史用户库中不存在所述脸部图像对应的历史用户信息时,则基于初始测试顺序,生成对应的第二测试计划,基于预设的发光时间间隔和所述第二测试计划生成对应的第二发光控制计划,基于所述第二发光控制计划生成每个LED指示灯对应的发光控制信号。
该实施例中,基于所述匹配结果判断所述历史用户库中是否存在所述脸部图像对应的历史用户信息,包括:
若历史用户库中存在与当前用户的脸部图像一致的历史用户脸部图像时,则历史用户库中存在脸部图像对应的历史用户信息;
若历史用户库中不存在与当前用户的脸部图像一致的历史用户脸部图像时,则历史用户库中不存在脸部图像对应的历史用户信息。
该实施例中,历史用户信息即为当前用户曾做过视力检测时存储的用户相关信息,包括:姓名,年龄、最新视力检测结果等。
该实施例中,最新视力检测结果即为当前用户上一次视力检测结果。
该实施例中,测试范围即为视力表面板上测试标准字尺寸的测试范围,即第几行测试标准字到第几行测试标准字。
该实施例中,预设的测试顺序例如有:从上到下、从左到右的顺序。
该实施例中,第一测试计划即为基于最新视力检测结果确定的测试范围和预设的测试顺序确定的测试标准字的测试顺序。
该实施例中,预设的发光时间间隔即为每个测试标准字对应的LED指示灯的发光时间,可人为设置,例如10秒。
该实施例中,第一发光控制计划即为按照第一测试计划生成的控制LED指示灯发光的计划。
该实施例中,初始测试顺序即为从视力表面板上测试标准字的最上端第一行开始从上到下、从左到右的顺序直至最后一行最右端的测试标准字的测试顺序。
该实施例中,第二测试计划即为基于初始测试顺序生成的测试标准字的测试顺序计划。
该实施例中,第二发光控制计划即为基于初始测试顺序生成的控制LED指示灯发光的计划。
以上技术的有益效果为:基于脸部图像的匹配结果调取当前用户的最新视力检测结果,基于最新视力检测结果确定对应的测试范围,进而确定出对应的测试计划,进而确定出控制LED指示灯发光的计划,若历史用户库中不存在当前用户对应的最新视力检测结果,也可以根据初始测试顺序生成对应的控制LED指示灯发光的计划,既节省了测试流程和时间,也减少了对专业人员的依赖,还保证了视力检测的准确性和效率,还实现了视力检测过程的智能化。
实施例8:
在实施例7的基础上,所述的一种智能视力检测系统,包括:
所述扬声器,用于获取所述发光控制信号,在每个LED指示灯发光的同时,播放测试提示语音;
所述方向选择模块,用于当每个LED指示灯开始发光时,开始接收用户触摸或者点选按钮输入的第一方向选择结果;
所述信号发送模块,用于将所述第一方向选择结果转换为对应的传输信号,并基于所述信号接收器将所述传输信号转送至所述调整模块;
所述调整模块,用于解析所述传输信号获得对应的第一方向选择结果,当所述第一方向选择结果与对应的测试标准字的开口方向不一致时,则控制当前发光LED指示灯重新发光,同时,控制所述扬声器播放测试提示语音,并接收对应的第二方向选择结果,当所述第二方向选择结果与对应的测试标准字的开口方向不一致时,则终止发光控制信号的发送,同时,将对应的测试标准字所在行作为初始测试结果;
否则,继续发送发光控制信号,直至连续两次解析获得的方向选择结果与对应的测试标准字的开口方向不一致时,则终止发光控制信号的发送,同时,将对应的测试标准字所在行作为初始测试结果。
该实施例中,测试提示语音即为用于提示用户在方向选择模块输入方向选择结果的提示语音。
该实施例中,第一方向选择结果即为在对应LED指示灯第一次开始发光之后用户输入的方向选择结果。
该实施例中,传输信号即为基于方向选择结果转换获得的信号。
该实施例中,第二方向选择结果即为对应LED指示灯重新发光之后用户输入的方向选择结果。
该实施例中,初始测试结果即为基于测试标准字和用户输入的方向选择结果初步确定的测试结果。
以上技术的有益效果为:基于发光控制信号指示被测者输入对应测试标准字的开口方向,并基于用户输入的方向选择结果,实时调整发光控制信号,既保证了视力检测过程的灵活性,也减少了专业人员的依赖,还保证了视力检测的准确性和效率,还实现了视力检测过程的智能化。
实施例9:
在实施例8的基础上,所述单片机可编程控制器,参考图7,还包括:
位置确定模块,用于基于所述脸部图像确定出当前用户的瞳孔空间位置;
校正模块,用于基于所述瞳孔空间位置校正所述初始测试结果,获得最终测试结果;
更新模块,用于将所述最终测试结果更新至所述历史用户库。
该实施例中,瞳孔空间位置即为瞳孔在视力表面板正前方预设范围内场景中的空间位置。
该实施例中,基于所述瞳孔空间位置校正所述初始测试结果,获得最终测试结果,包括:
式中,Q为最终测试结果,Q为初始测试结果,L0为标准测试距离,L为实际测试距离,h为瞳孔空间位置对应的瞳孔深度;
例如,Q为0.1,L0为5,L为5,h为0.01,则Q为0.0998。
该实施例中,最终测试结果即为将初始测试结果校正后获得的视力测试结果。
以上技术的有益效果为:基于瞳孔的空间位置校正初始测试结果,使得获得的最终测试结果更加准确。
实施例10:
在实施例9的基础上,所述位置确定模块,参考图8,包括:
获取单元,用于获取所述视力表面板正前方预设范围内的三维场景模型,
眼球确定单元,用于基于预设的瞳孔图像特征从所述脸部图像中确定出对应的瞳孔图像;
位置确定单元,用于将所述瞳孔图像的物理中心点作为基准点,按照预设确定方法在所述脸部图像的脸部边缘中确定出多个参考点,基于所述参考点将所述脸部图像和所述三维场景模型拟合,获得对应的融合模型,基于所述融合模型确定出所述参考点在虚拟坐标系中的第一空间位置,基于所述第一空间位置以及所述基准点和每个参考点之间的视觉信息,确定出当前用户的瞳孔空间位置。
该实施例中,三维场景模型即为表现视力表面板正前方预设范围内的场景三维结构的模型。
该实施例中,瞳孔图像即为脸部图像中的瞳孔的图像区域。
该实施例中,预设的瞳孔图像特征即为预设的表征瞳孔图像的特征,例如:位置在脸部图像的上半部分,色度值在[0,50]或[200,255]内,具体可根据实际情况人为设定。
该实施例中,基准点即为瞳孔图像的物理中心点。
该实施例中,预设确定方法例如每隔1mm确定一个参考点,具体可根据人为设定。
该实施例中,融合模型即为基于参考点将脸部图像和三维场景模型拟合获得的模型。
该实施例中,第一空间位置即为参考点在虚拟坐标系中的空间位置。
该实施例中,基于所述第一空间位置以及所述基准点和每个参考点之间的视觉信息,确定出当前用户的瞳孔空间位置,包括:
基于参考点对应的第一空间位置确定出参考点对应的第一深度值;
确定出与所述参考点对应的相邻参考点的视觉信息,基于每个参考点的视觉信息和对应的相邻参考点的视觉信息以及参考点对应的第一深度值,确定出当前用户的瞳孔深度值:
式中,h为当前用户的瞳孔深度值,i为第i个参考点,n为参考点的总个数,hi为第i个参考点的深度值,j为参考点的第j个相邻参考点,mi为第i个参考点对应的相邻参考点的总个数,hij为第i个参考点对应的第j个相邻参考点对应的深度值,si为第i个参考点的色度值,sij为第i个参考点对应的第j个相邻参考点对应的色度值,s0为基准点的色度值,wi为第i个参考点的亮度值,wij为第i个参考点对应的第j个相邻参考点对应的亮度值,w0为基准点的亮度值,其中,当si-sij为0时,则取0,当wi-wij为0时,则/>取0;
例如,有三个参考点,第一参考点的相邻参考点为第二参考点和第三采纳快单,第二参考点的相邻参考点为第一参考点和第三参考点,第三参考点的相邻参考点的相邻参考点为第一参考点和第二参考点;且第一参考点的色度值为10,亮度值为20,深度值为100;第二参考点的色度值为50,亮度值为20,深度值为150,第三参考点的色度值为40,亮度值为20,深度值为70,且基准点的色度值为50,亮度值为50,则当前用户的瞳孔深度值为240;
基于融合模型中参考点和基准点的相对位置以及参考点对应的横坐标值和纵坐标值确定出基准点的横坐标值x和纵坐标值y;
则当前用的瞳孔空间位置为(x,y,h)。
该实施例中,视觉信息包括亮度值和色度值。
以上技术的有益效果为:基于脸部图像边缘上的参考点和瞳孔图像上的基准点,将脸部图像和所述三维场景模型拟合获得融合图像,基于融合图像确定出瞳孔空间位置,为基于瞳孔的空间位置校正初始测试结果,进而使得获得的最终测试结果更加准确提供了基础。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (7)

1.一种智能视力检测系统,其特征在于,包括:智能视力表和输入装置;所述智能视力表包括表箱,所述表箱上设置有视力表面板;所述视力表面板上设置有测试标准字,所述视力表面板后部设置有LED指示灯,所述LED指示灯位置和数量均与所述视力表面板上的测试标准字一一对应;所述表箱内还设置有单片机可编程控制器、信号接收器和扬声器;所述LED指示灯、所述信号接收器和所述扬声器均通过信号线与所述单片机可编程控制器连接;所述输入装置内设置有方向选择模块、信号发送模块;
所述信号发送模块与所述方向选择模块相连;
所述信号发送模块输出的信号由所述信号接收器接收;
所述信号接收器,包括:
图像获取模块,用于实时获取所述视力表面板正前方预设范围内的场景图像;
人体识别模块,用于实时识别最新获取的第一场景图像中是否存在人体图像;
脸部提取模块,用于当所述第一场景图像中存在所述人体图像时,则从所述人体图像中识别出对应的脸部图像;
所述人体识别模块,包括:
图像对比单元,用于将最新获取的第一场景图像与前一帧第二场景图像进行对比,判断所述第一场景图像和所述第二场景图像是否完全一致,若是,则判定所述第一场景图像中不存在人体图像;
图像提取单元,用于当所述第一场景图像和所述第二场景图像不完全一致时,则确定出所述第一场景图像中与所述第二场景图像不一致的差异图像区域;
尺寸确定单元,用于确定出所述差异图像区域的图像尺寸;
第一判断单元,用于判断所述图像尺寸是否在疑似人体对应的图像尺寸范围内,若是,则将所述差异图像区域作为疑似人体图像,否则,判定所述第一场景图像中不存在人体图像;
第一处理单元,用于按照人体预设骨架结构将所述疑似人体图像进行对应缩放处理,获得对应的待判定图像;
肢体定位单元,用于基于人体预设骨架结构中的第一定位特征点,确定所述待判定图像中的第二定位特征点,基于所述待判定图像中的所有第二定位特征点,确定出所述待判定图像中的肢体定位线段,基于肢体定位线段的预设位置关系确定出所述肢体定位线段对应的肢体类别;
图像划分单元,用于基于所述肢体定位线段将所述待判定图像划分成多个肢体图像,并基于对应的肢体定位线段确定出每个肢体图像对应的肢体类别;
特征提取单元,用于基于每个肢体类别对应的特征提取方法,从对应的肢体图像中提取出对应的待检测特征;
特征匹配单元,用于将所述待检测特征与对应肢体类别预设的肢体图像特征进行匹配,并计算出对应的匹配度,若每个肢体图像对应的匹配度都大于对应的预设匹配度,则判定所述第一场景图像中存在人体图像,并将所述待判定图像作为对应的人体图像,否则,判定所述第一场景中不存在人体图像;
所述脸部提取模块,包括:
色块划分单元,用于按照色度预设梯度范围将所述人体图像划分为多个第一色块区域;
头部确定单元,用于基于所述人体图像中的肢体图像对应的肢体类别,确定出所述人体图像中的头部图像;
第一筛选单元,用于从所述第一色块区域中筛选出所述头部图像包含的第二色块区域;
第二筛选单元,用于从所有第二色块区域中筛选出满足脸部色度阈值范围的第三色块区域;
第三筛选单元,用于从所述第三色块区域中筛选出亮度值在预设亮度阈值范围内的第一像素点,基于所述第一像素点构成第一子区域;
五官提取单元,用于基于五官对应的预设提取特征从所述第一子区域中提取出对应的第一五官图像区域;
五官确定单元,用于基于所述第一五官图像区域在头部图像中的位置关系,确定出对应的五官相对位置连线;
第二处理单元,用于基于所述五官相对位置连线在所述头部图像中的位置对所述头部图像进行对应缩放处理,获得对应的待识别头部图像,将所述第一五官图像区域在所述待识别头部图像中对应的区域作为第二五官图像区域;
边缘修复单元,用于判断所述第二五官图像区域中包含的五官图像区域是否完整,若是,则基于预设的脸部边缘特征对所述第三色块区域进行边缘修复,获得修复后的脸部边缘;否则,从与所述第三色块区域相邻的第二色块区域中提取出第三五官图像区域,基于预设的脸部边缘特征从所述第三五官图像区域所属的第二色块区域和所述第三色块区域中获得对应的脸部边缘;
脸部确定单元,用于基于所述脸部边缘确定出对应的脸部图像。
2.根据权利要求1所述的一种智能视力检测系统,其特征在于,包括:
所述单片机可编程控制器用于生成每个LED指示灯对应的发光控制信号;
所述LED指示灯用于基于对应的发光控制信号进行发光。
3.根据权利要求2所述的一种智能视力检测系统,其特征在于,所述单片机可编程控制器,包括:
生成模块,用于将所述脸部图像与历史用户库中存储的历史用户脸部图像进行匹配,获得匹配结果,基于所述匹配结果生成每个LED指示灯对应的发光控制信号;
调整模块,用于实时调整所述发光控制信号。
4.根据权利要求3所述的一种智能视力检测系统,其特征在于,所述生成模块,包括:
用户匹配单元,用于所述脸部图像与历史用户库中存储的历史用户脸部图像进行匹配,获得匹配结果;
第二判断单元,用于基于所述匹配结果判断所述历史用户库中是否存在所述脸部图像对应的历史用户信息;
第一生成单元,用于当所述历史用户库中存在所述脸部图像对应的历史用户信息时,则从所述历史用户信息中调取出最新视力检测结果,基于所述最新视力检测结果确定出当前用户在所述视力表面板上对应的测试范围,基于预设的测试顺序和所述测试范围,生成对应的第一测试计划,基于预设的发光时间间隔和所述第一测试计划生成对应的第一发光控制计划,基于所述第一发光控制计划生成每个LED指示灯对应的发光控制信号;
第二生成单元,用于当所述历史用户库中不存在识别脸部图像对应的历史用户信息时,则基于初始测试顺序,生成对应的第二测试计划,基于预设的发光时间间隔和所述第二测试计划生成对应的第二发光控制计划,基于所述第二发光控制计划生成每个LED指示灯对应的发光控制信号。
5.根据权利要求4所述的一种智能视力检测系统,其特征在于,包括:
所述扬声器,用于获取所述发光控制信号,在每个LED指示灯发光的同时,播放测试提示语音;
所述方向选择模块,用于当每个LED指示灯开始发光时,开始接收用户触摸或者点选按钮输入的第一方向选择结果;
所述信号发送模块,用于将所述第一方向选择结果转换为对应的传输信号,并基于所述信号接收器将所述传输信号转送至所述调整模块;
所述调整模块,用于解析所述传输信号获得对应的第一方向选择结果,当所述第一方向选择结果与对应的测试标准字的开口方向不一致时,则控制当前发光LED指示灯重新发光,同时,控制所述扬声器播放测试提示语音,并接收对应的第二方向选择结果,当所述第二方向选择结果与对应的测试标准字的开口方向不一致时,则终止发光控制信号的发送,同时,将对应的测试标准字所在行作为初始测试结果;
否则,继续发送发光控制信号,直至连续两次解析获得的方向选择结果与对应的测试标准字的开口方向不一致时,则终止发光控制信号的发送,同时,将对应的测试标准字所在行作为初始测试结果。
6.根据权利要求5所述的一种智能视力检测系统,其特征在于,所述单片机可编程控制器,还包括:
位置确定模块,用于基于所述脸部图像确定出当前用户的瞳孔空间位置;
校正模块,用于基于所述瞳孔空间位置校正所述初始测试结果,获得最终测试结果;
更新模块,用于将所述最终测试结果更新至所述历史用户库。
7.根据权利要求6所述的一种智能视力检测系统,其特征在于,所述位置确定模块,包括:
获取单元,用于获取所述视力表面板正前方预设范围内的三维场景模型,
眼球确定单元,用于基于预设的瞳孔图像特征从所述脸部图像中确定出对应的瞳孔图像;
位置确定单元,用于将所述瞳孔图像的物理中心点作为基准点,按照预设确定方法在所述脸部图像的脸部边缘中确定出多个参考点,基于所述参考点将所述脸部图像和所述三维场景模型拟合,获得对应的融合模型,基于所述融合模型确定出所述参考点在虚拟坐标系中的第一空间位置,基于所述第一空间位置以及所述基准点和每个参考点之间的视觉信息,确定出当前用户的瞳孔空间位置。
CN202210084112.4A 2022-01-21 2022-01-21 一种智能视力检测系统 Active CN114468973B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210084112.4A CN114468973B (zh) 2022-01-21 2022-01-21 一种智能视力检测系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210084112.4A CN114468973B (zh) 2022-01-21 2022-01-21 一种智能视力检测系统

Publications (2)

Publication Number Publication Date
CN114468973A CN114468973A (zh) 2022-05-13
CN114468973B true CN114468973B (zh) 2023-08-11

Family

ID=81474003

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210084112.4A Active CN114468973B (zh) 2022-01-21 2022-01-21 一种智能视力检测系统

Country Status (1)

Country Link
CN (1) CN114468973B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115054198B (zh) * 2022-06-10 2023-07-21 广州视域光学科技股份有限公司 一种远程智能视力检测方法、系统和装置
CN117711567A (zh) * 2023-12-12 2024-03-15 广州视域光学科技股份有限公司 基于ai学习的近视防控系统及方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08153197A (ja) * 1994-11-28 1996-06-11 Sony Corp 画像処理装置
JP2001167273A (ja) * 1999-12-08 2001-06-22 Canon Inc 顔面検出方法及びその装置、コンピュータ可読媒体
CN102982598A (zh) * 2012-11-14 2013-03-20 三峡大学 基于单个摄像头场景配置的视频人数统计方法和系统
WO2018161289A1 (zh) * 2017-03-09 2018-09-13 广东欧珀移动通信有限公司 基于深度的控制方法、基于深度的控制装置和电子装置
CN110123257A (zh) * 2019-03-29 2019-08-16 深圳和而泰家居在线网络科技有限公司 一种视力检测方法、装置、视力检测仪及计算机存储介质
CN209269657U (zh) * 2018-07-27 2019-08-20 邵和义 一种智能视力检测仪
CN110210283A (zh) * 2019-04-09 2019-09-06 深圳市梦网百科信息技术有限公司 一种基于换装应用的图像处理方法和系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08153197A (ja) * 1994-11-28 1996-06-11 Sony Corp 画像処理装置
JP2001167273A (ja) * 1999-12-08 2001-06-22 Canon Inc 顔面検出方法及びその装置、コンピュータ可読媒体
CN102982598A (zh) * 2012-11-14 2013-03-20 三峡大学 基于单个摄像头场景配置的视频人数统计方法和系统
WO2018161289A1 (zh) * 2017-03-09 2018-09-13 广东欧珀移动通信有限公司 基于深度的控制方法、基于深度的控制装置和电子装置
CN209269657U (zh) * 2018-07-27 2019-08-20 邵和义 一种智能视力检测仪
CN110123257A (zh) * 2019-03-29 2019-08-16 深圳和而泰家居在线网络科技有限公司 一种视力检测方法、装置、视力检测仪及计算机存储介质
CN110210283A (zh) * 2019-04-09 2019-09-06 深圳市梦网百科信息技术有限公司 一种基于换装应用的图像处理方法和系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陈艺.人脸位置判断数学模型算法研究.电脑知识与技术.2020,第16卷(第19期),163-164. *

Also Published As

Publication number Publication date
CN114468973A (zh) 2022-05-13

Similar Documents

Publication Publication Date Title
CN114468973B (zh) 一种智能视力检测系统
JP7058373B2 (ja) 医療画像に対する病変の検出及び位置決め方法、装置、デバイス、及び記憶媒体
CN111563887B (zh) 一种口腔图像的智能分析方法与装置
CN103106401B (zh) 一种具有人机交互机制的移动终端虹膜识别装置
CN109829446A (zh) 眼底图像识别方法、装置、电子设备及存储介质
CN110363768A (zh) 一种基于深度学习的早期癌病灶范围预测辅助系统
CN106980852A (zh) 基于角点检测与匹配的药品识别系统及其识别方法
US20150131902A1 (en) Digital Image Analysis
CN115877555A (zh) 一种显微镜照明仿真模拟系统
CN115965607A (zh) 一种智能中医舌诊辅助分析系统
CN109977929A (zh) 一种基于tof的人脸识别系统和方法
CN117241445B (zh) 组合式氛围灯自适应场景的智能调试方法及系统
CN113033548A (zh) 用于机组运行状态判断及监控对点的图像识别方法
CN112020173B (zh) 一种灯光调节方法及智能台灯
CN110210401B (zh) 一种弱光下的目标智能检测方法
CN116647960A (zh) 一种基于物联网的舞台灯光调控系统
CN106778622A (zh) 识别颜色的方法、装置和移动终端
CN206363347U (zh) 基于角点检测与匹配的药品识别系统
CN109784317A (zh) 一种交通信号灯的识别方法及装置
CN103226689B (zh) 检测红眼的方法及装置、去除红眼的方法及装置
CN113313050A (zh) 一种基于视频流的皮肤智能检测系统
CN110443797B (zh) 病灶辅助判定装置
CN111513669A (zh) 一种自动化视力测试系统及方法
CN113376931B (zh) 用于甲状旁腺探测的荧光区域光强补光方法、装置及系统
CN116763251A (zh) 可视化智能手持式舌诊仪

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant