CN118402010A - 对人执行视力测试程序的方法和设备 - Google Patents
对人执行视力测试程序的方法和设备 Download PDFInfo
- Publication number
- CN118402010A CN118402010A CN202380015058.0A CN202380015058A CN118402010A CN 118402010 A CN118402010 A CN 118402010A CN 202380015058 A CN202380015058 A CN 202380015058A CN 118402010 A CN118402010 A CN 118402010A
- Authority
- CN
- China
- Prior art keywords
- person
- machine learning
- learning model
- information
- confidence value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004438 eyesight Effects 0.000 title claims abstract description 244
- 238000000034 method Methods 0.000 title claims abstract description 232
- 238000012956 testing procedure Methods 0.000 title claims abstract description 112
- 238000012360 testing method Methods 0.000 claims abstract description 247
- 238000012549 training Methods 0.000 claims abstract description 195
- 238000010801 machine learning Methods 0.000 claims abstract description 185
- 230000009471 action Effects 0.000 claims abstract description 106
- 238000004590 computer program Methods 0.000 claims abstract description 38
- 238000004519 manufacturing process Methods 0.000 claims abstract description 13
- 230000004044 response Effects 0.000 claims description 205
- 230000000007 visual effect Effects 0.000 claims description 83
- 230000006399 behavior Effects 0.000 claims description 74
- 238000005259 measurement Methods 0.000 claims description 53
- 238000012545 processing Methods 0.000 claims description 43
- 230000010287 polarization Effects 0.000 claims description 22
- 230000008859 change Effects 0.000 claims description 17
- 208000014733 refractive error Diseases 0.000 claims description 13
- 230000006378 damage Effects 0.000 claims description 7
- 230000003247 decreasing effect Effects 0.000 claims description 4
- 239000002245 particle Substances 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 description 87
- 230000014509 gene expression Effects 0.000 description 43
- 230000003287 optical effect Effects 0.000 description 34
- 210000003128 head Anatomy 0.000 description 32
- 238000010295 mobile communication Methods 0.000 description 21
- 230000001815 facial effect Effects 0.000 description 20
- 238000001514 detection method Methods 0.000 description 17
- 230000004927 fusion Effects 0.000 description 14
- 230000003595 spectral effect Effects 0.000 description 13
- 230000004304 visual acuity Effects 0.000 description 13
- 238000013527 convolutional neural network Methods 0.000 description 11
- 230000033001 locomotion Effects 0.000 description 11
- 230000008569 process Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 238000013500 data storage Methods 0.000 description 8
- 230000008921 facial expression Effects 0.000 description 8
- 239000007788 liquid Substances 0.000 description 8
- 238000012544 monitoring process Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 7
- 239000000463 material Substances 0.000 description 7
- 230000003190 augmentative effect Effects 0.000 description 6
- 230000000763 evoking effect Effects 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 6
- 208000027418 Wounds and injury Diseases 0.000 description 5
- 238000003745 diagnosis Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 201000010099 disease Diseases 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 208000014674 injury Diseases 0.000 description 5
- 230000007935 neutral effect Effects 0.000 description 5
- 230000035945 sensitivity Effects 0.000 description 5
- 239000004984 smart glass Substances 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000002950 deficient Effects 0.000 description 4
- 230000006735 deficit Effects 0.000 description 4
- 210000000744 eyelid Anatomy 0.000 description 4
- 230000001755 vocal effect Effects 0.000 description 4
- 208000029091 Refraction disease Diseases 0.000 description 3
- 230000004430 ametropia Effects 0.000 description 3
- 230000036772 blood pressure Effects 0.000 description 3
- 230000004456 color vision Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000001747 exhibiting effect Effects 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 210000001097 facial muscle Anatomy 0.000 description 3
- 230000001121 heart beat frequency Effects 0.000 description 3
- 238000003754 machining Methods 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 238000010998 test method Methods 0.000 description 3
- GNFTZDOKVXKIBK-UHFFFAOYSA-N 3-(2-methoxyethoxy)benzohydrazide Chemical compound COCCOC1=CC=CC(C(=O)NN)=C1 GNFTZDOKVXKIBK-UHFFFAOYSA-N 0.000 description 2
- FGUUSXIOTUKUDN-IBGZPJMESA-N C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 Chemical compound C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 FGUUSXIOTUKUDN-IBGZPJMESA-N 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000010835 comparative analysis Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 238000002329 infrared spectrum Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 238000002955 isolation Methods 0.000 description 2
- 230000010355 oscillation Effects 0.000 description 2
- 230000007170 pathology Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 230000002269 spontaneous effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 206010013887 Dysarthria Diseases 0.000 description 1
- 206010013952 Dysphonia Diseases 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 208000004350 Strabismus Diseases 0.000 description 1
- 208000003028 Stuttering Diseases 0.000 description 1
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000003759 clinical diagnosis Methods 0.000 description 1
- 230000003920 cognitive function Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000004821 distillation Methods 0.000 description 1
- 238000013399 early diagnosis Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000010195 expression analysis Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 230000004630 mental health Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 210000000653 nervous system Anatomy 0.000 description 1
- 230000000926 neurological effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000035790 physiological processes and functions Effects 0.000 description 1
- 230000009323 psychological health Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 230000001225 therapeutic effect Effects 0.000 description 1
- 238000002560 therapeutic procedure Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
- 210000001260 vocal cord Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02C—SPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
- G02C7/00—Optical parts
- G02C7/02—Lenses; Lens systems ; Methods of designing lenses
- G02C7/024—Methods of designing ophthalmic lenses
- G02C7/027—Methods of designing ophthalmic lenses considering wearer's parameters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/028—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Public Health (AREA)
- Ophthalmology & Optometry (AREA)
- Computational Linguistics (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Optics & Photonics (AREA)
- Databases & Information Systems (AREA)
- Pathology (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Eyeglasses (AREA)
Abstract
本发明涉及一种用于训练(500)机器学习模型(200)以在视力测试程序的至少一个测试循环(204)期间确定置信度值的计算机实现的方法,其中,该置信度值被指定用于确定视力测试程序的至少一个后续测试循环(204)中的至少一个动作。本发明还涉及一种经训练的机器学习模型(200)、一种包括用于训练机器学习模型(200)的指令的计算机程序、以及一种训练装置(600)。另外,本发明涉及一种用于对人(300)执行视力测试程序(202)的计算机实现的方法、一种包括用于执行视力测试程序的指令的计算机程序、一种视力测试装置(100)、以及一种用于生成至少一个眼镜透镜的几何模型以制造至少一个眼镜透镜的方法(704)。
Description
技术领域
本发明涉及一种用于训练机器学习模型以在视力测试程序的至少一个测试循环期间确定置信度值的计算机实现的方法和训练装置、一种用于对人执行视力测试程序的计算机实现的方法和视力测试装置、一种用于训练机器学习模型以在视力测试程序的至少一个测试循环期间确定置信度值的计算机程序、一种用于对人执行视力测试程序的计算机程序、一种经训练的机器学习模型、以及一种用于生产至少一个眼镜透镜的方法。
背景技术
US10,209,773B2披露了用于基于视觉简档和目标应用来修改媒体(诸如虚拟现实、增强现实或混合现实(VR/AR/MxR)媒体)的方法和系统。在说明书的实施例中,创建感知数据交换(SDE),其使得能够识别用户和用户组的各种视觉简档。SDE可以用于根据每种类型的用户和/或用户组来修改一个或多个媒体。
WO 2017/106770 A披露了向患者提供数字诊断和数字治疗的方法和装置。数字个性化医疗系统使用数字数据来评估或诊断患者的症状,并且考虑来自患者对治疗的响应的反馈来更新个性化治疗干预。本文所披露的方法和装置还可以以更少的问题、减少的时间量来诊断和治疗受试者的认知功能,并且确定多种行为障碍、神经障碍或精神健康障碍,并且为诊断和治疗提供临床上可接受的灵敏度和特异性。
CN 109157186 A披露了一种无人化自助视敏度监测仪,包括控制主机、与控制主机通信连接的显示屏、无线交互键盘、以及双目相机。双目相机包括两个子相机,用于同时采集被测试人的面部图像并将面部图像传输到控制主计算机。不规范测试行为识别模块用于根据由双目相机捕获的面部图像来识别出被测试人的眼睛是否存在不规范的测试行为。
Geethu Miriam Jacob和Stenger在Facial Action Unit Detection WithTransformers[利用变换器进行面部动作单元检测](CVPR(2021)第7680-7689页)中描述,面部动作编码系统是用于细粒度面部表情分析的分类学。该文件提出了一种用于从输入图像检测面部动作单元(FAU)的方法,FAU限定特定面部肌肉活动。FAU检测被公式化为多任务学习问题,其中图像特征和注意力图被输入到每个动作单元的分支,以使用新的损失函数(中心对比(CC)损失)来提取区别性特征嵌入。采用基于Transformer编码器架构的新的FAU相关网络,以捕获训练数据中的用于各种表情的不同动作单元之间的关系。
Xiaohong Li和Jun Yu、Shu Zhan在Spontaneous facial micro-expressiondetection based on deep learning[基于深度学习的自发面部微表情检测](第13届信号处理国际会议(2016),IEEE,第1130-1134页)中描述,面部微表情是指面部中的瞬间肌肉变化,表明人有意识地或无意识地抑制他们的真实情绪。尽管这些表情经常出现在人的面部上,但是它们容易被眨眼的人忽略。也就是说,大多数人不会注意到它们,并且它是人的情绪和心理健康的真实表示。相应地,心理学家和计算机科学家(特别是在计算机视觉和机器学习领域)都关注它,因为它们有希望应用在各个领域(例如,心理临床诊断和治疗、情感计算)中。然而,检测微表情仍然是一项困难的任务。提出了一种基于HOOF(定向光流直方图,Histograms of oriented optical flow)特征的深度多任务学习方法的微表情检测新方法。研究了一种用于面部界标定位的深度多任务学习方法,并将面部区域划分为感兴趣区域(ROI)。面部微表情是由面部肌肉的运动生成的,因此将稳健光流方法与HOOF特征相结合以评估面部肌肉的运动方向。
Rauf Momin、Ali Shan Momin、Khalid Rasheed和Muhammad Saqib在“Recognizing Facial Expressions in the Wild using Multi-ArchitecturalRepresentations based Ensemble Learning with Distillation[基于集成学习与提取使用多架构表示的自然面部表情识别]”(IEEE Access(2017),第XX卷)中描述,面部表情是身体语言的最常见的通用形式。在过去几年中,自动面部表情识别(FER)一直是活跃的研究领域。然而,由于不同的不确定性和复杂性,这仍然是一项具有挑战性的任务。然而,效率和性能仍然是构建稳健系统的必要方面。提出了两种模型,一种是EmoXNet,其是一种用于学习卷积面部表示的集成学习技术,还有一种是EmoXNetLite,其是一种提取技术,可用于使用标签平滑软标签将知识从我们的集成模型传送到有效的深度神经网络,以能够实时有效地检测表情。
Arsha Nagrani、Samuel Albanie和Andrew Zisserman在“Seeing Voices andHearing Faces:Cross-modal biometric matching[看到声音和听到面孔:跨模态生物特征匹配]”(IEEE国际计算机视觉与模式识别会议论文集(2018),第8427-8436页)中描述,引入了看似不可能的任务:仅给出有人说话的音频剪辑,决定两个面部图像中的哪一个是说话者。在该文件中,研究了这一点,以及许多相关的跨模态任务,旨在回答以下问题:从声音中可以推断出多少面部信息(反之亦然)?采用现在公开可用于从静态图像进行面部识别(VGGFace)和从音频进行说话者识别(VoxCeleb)的数据集“在自然环境下”研究该任务。这些为跨模态匹配的静态和动态测试提供了训练和测试场景。做出了以下贡献:(i)引入了用于二进制和多路跨模态面部和音频匹配的CNN架构;(ii)将动态测试(其中视频信息可用,但音频不是来自同一视频)与静态测试(其中仅单个静止图像可用)进行比较;以及(iii)使用人类测试作为基线来校准任务的难度。
Jeberson Retna Raj、J Jabez、S Senduru Srinivasulu、S Gowri和J SVimali在“Voice Pathology Detection Based on Deep Neural Network Approach[基于深度神经网络方法的发声障碍检测]”(IOP会议系列:材料科学与工程(2021),第1020卷,第1期,第012001页,英国物理学会出版社)中描述,技术的进步为社会面临的复杂问题提供了解决方案,并带来了个体的幸福。当今智能医疗在诊断、治疗和持续监测方面是卓越的,其减少了医院访问、交通成本和等待时间。发声障碍是影响人声带的疾病,使人言语困难。如果没有及时识别出疾病,则会导致个体的声音永久丢失。传统上,通过口头检查或手动程序来识别该疾病。由于智能电话的出现,人们可以记录声音并将其发送到云服务器进行处理。我们的系统对声音数据进行分类并向用户提供决策。这大大降低了去医疗中心进行口部检查的交通成本和等待时间。移动电话记录患者声音数据并将其存储到云中。声音数据被合成为信号,并且在深度神经网络的帮助下,可以识别出发声障碍。
Sidra Abid Syed、Munaf Rashid、Samreen Hussain和Hira Zahid在ComparativeAnalysis of CNN and RNN for Voice Pathology Detection[CNN与RNN发声障碍检测的对比分析](国际生物医学研究(2021),文章ID 6635964)中描述,基于计算机化声学检查的诊断可能在早期诊断和监测甚至改善有效的病理性语音诊断中发挥不可思议的重要作用。各种声学度量测试声音的健康。这些参数的精度与用于检测语音噪声的算法也有关。构思是从声音检测疾病障碍。首先,对SVD数据集应用特征提取。在特征提取之后,系统输入进入27个神经元层神经网络,其是卷积和递归神经网络。
在由人在没有经验丰富的专业人员的指导的情况下执行的典型视力测试中,人单独完成必须执行的复杂工作流程。在这个意义上,人必须对若干不同的任务做出响应,例如给出对特定参数的指示,如多个不同符号的形状、对比度、大小、取向。进一步地,人可能必须适应人的至少一只眼睛与在呈现设备处呈现的符号之间的不同距离。在这种典型视力测试中,不考虑人在典型视力测试期间的行为。这意味着测试策略不适于人的个体需求,因为后续动作不是基于人的行为。特别是,在典型视力测试期间不基于人的行为向人提供个体反馈。因此,人往往不相信这种典型视力测试的结果。
要解决的问题
因此,本发明的目的是,特别是鉴于US10,209,773B2、WO 2017/106770A和CN109157186 A,提供一种用于训练机器学习模型以在视力测试程序的至少一个测试循环期间确定置信度值的计算机实现的方法和训练装置、一种用于对人执行视力测试程序的计算机实现的方法和视力测试装置、一种用于训练机器学习模型以在视力测试程序的至少一个测试循环期间确定置信度值的计算机程序、一种用于对人执行视力测试程序的计算机程序、一种经训练的机器学习模型、以及一种用于生产至少一个眼镜透镜的方法,使得至少部分地克服现有技术的上述问题。
本发明的特定目的是提供一种易于访问且可信的视力测试程序,从而提供了通过训练程序获得的精确、快速且可靠的方法,使得更好地解决了视力测试中通常出现的实际问题。特别期望的是,在训练之后,可以最终以引导的方式执行对应的视力测试程序,为被问询的人提供了易于访问和理解的方法,从而显著有助于在视力测试中获得可靠且可再现的结果,最终使得生产出符合被问询的人的需要的适配度更好的眼镜透镜。
发明内容
该问题通过具有独立权利要求的特征的用于训练机器学习模型以在视力测试程序的至少一个测试循环期间确定置信度值的计算机实现的方法和训练装置、用于对人执行视力测试程序的计算机实现的方法和视力测试装置、计算机程序、经训练的机器学习模型、以及用于生产至少一个眼镜透镜的方法来解决。在从属权利要求或整个以下描述中列出了可以以单独方式或任意组合方式实施的优选实施例。
在第一方面,本发明涉及一种特别适合用于训练机器学习模型以在视力测试程序的至少一个测试循环期间确定置信度值的计算机实现的方法,其中,该置信度值被指定用于确定视力测试程序的至少一个后续测试循环中的至少一个动作;该方法包括以下步骤:
a)提供训练数据,该训练数据包括:
-关于在视力测试程序的至少一个测试循环期间人的至少一种行为的第一信息,其中,根据在人被问询以通过提供预期响应来解决至少一个任务之后的时间间隔期间对人的观察,记录如由第一信息提供的人的至少一种行为;
-关于至少一个已知置信度值的第二信息;
b)通过使用机器学习模型分析该第一信息来确定人的至少一个置信度值,其中,该置信度值是人在提供预期响应时的置信度水平的度量,并且确定所确定的置信度值与如由第二信息提供的至少一个已知置信度值之间的偏差;
c)调整机器学习模型,以使所确定的置信度值与至少一个已知置信度值之间的偏差最小化;
其中,重复步骤a)至c),直到满足确定标准。
本文中,所指示的步骤可以优选地以给定顺序执行,从步骤a)开始并以步骤c)结束。然而,任何或所有所指示的步骤也可以重复几次和/或部分地同时执行。
如通常所用,术语“计算机实现的方法”是指涉及至少一个装置(具体是计算机)或多个装置(特别是经由计算机网络连接)的方法。可以通过使用多个装置中的任一个装置处的至少一个连接接口经由网络连接该多个装置。计算机实现的方法可以被实现为可以在承载计算机程序的存储介质上提供的至少一个计算机程序,由此通过使用至少一个计算机程序来执行计算机实现的方法的至少一个步骤,具体是步骤a)、b)或c)中的至少一个步骤。优选地,使用至少一个计算机程序来执行步骤a)、b)和c)中的任何一个步骤。可替代地,至少一个计算机程序可以由可以适于经由网络(诸如经由内部网络或经由互联网)执行该方法的装置访问。特别关于本发明,因此,本方法可以在为此目的配置的可编程装置上执行,诸如通过提供为此目的配置的计算机程序。
如通常所用,术语“机器学习模型”是指可训练的计算机实现的架构,特别是可训练的统计模型,其应用人工智能来自动确定代表性结果,特别是置信度值。如通常所用,术语“训练”是指使用训练数据来确定机器学习模型的可调整参数以生成经训练的机器学习模型的过程。训练可以包括至少一个优化或调优过程,其中,确定最佳参数组合。实施训练以通过分析训练数据的至少一部分来提高机器学习模型确定代表性结果、特别是置信度值的能力。
如通常所用,术语“确定”或其任何语法变型是指生成代表性结果的过程。特别关于本发明,由本方面生成的代表性结果是关于人的置信度值的信息。该信息可以作为数据提供。术语“数据”是指包括至少一条信息的项目,诸如数字或字母数字项目。数据可以以机器可读形式提供,使得数据可以是机器学习模型的输入或输出,特别是机器学习模型所包括的任何神经网络的输入或输出。
如本文所用,术语“视力测试程序”是指确定人的至少一种状况、特别是至少一只眼睛的至少一种状况的程序,其中,至少一种状况是人的视力的表现指标,特别是人的视力损伤。人的至少一只眼睛的至少一种状况可以是人的至少一只眼睛的至少一个视觉参数。视力测试程序可以以逐步的方式执行,特别是作为一系列相继测试循环。如本文所用,术语“人的视力的表现指标”是指用于定义人的视觉能力的值,特别是人的至少一只眼睛的视觉参数。如本文所用,术语“后续测试循环”是指在至少一个特定测试循环之后执行的测试循环。至少一个“特定测试循环”可以是当前执行的测试循环。因此,可以在后续测试循环之前执行至少一个特定测试循环。在后续测试循环中,可以执行基于置信度值的动作。如本文所用,术语“动作”是指特别是与视力测试程序直接相关的过程步骤,具体是视力测试程序的进展和/或另外的训练数据的采集。如本文所用,术语“置信度值”是指人在提供预期响应时的确定性水平的度量。由此,置信度值指示人在视力测试程序的至少一个循环期间给出预期响应的确信程度和/或所给出的响应与问询相比是否正确。
根据步骤a),提供训练数据。首先,训练数据包括关于在视力测试程序的至少一个测试循环期间人的至少一种行为的第一信息,其中,根据在人被问询以通过提供预期响应来解决至少一个任务之后的时间间隔期间对人的观察,记录如由第一信息提供的人的至少一种行为。进一步地,训练数据包括关于至少一个已知置信度值的第二信息,其中,置信度值是人在提供预期响应时的置信度水平的度量。
如通常所用,术语“训练数据”是指用于训练机器学习模型的数据。因此,当机器学习模型分析训练数据的至少一部分时,可以调整机器学习模型的参数。在这个意义上,训练数据可以包括至少一个“已知”信息,并且机器学习模型可以被进一步配置用于训练尽可能准确地确定与已知信息相对应的信息,或者换句话说,所确定的信息可以尽可能少地偏离已知信息。训练数据可以包括真实数据和/或模拟数据。
如本文所用,术语“信息”是指数据所包括的一条内容。如本文所用,术语“第一”或“第二”或“第三”等被认为是对元素的描述,而不指定顺序或时间次序,并且不排除可能存在其他相同元素的可能性。具有高序数的元素的存在并不意味着具有低序数的元素也必须存在,例如,“第二”元素的存在并不意味着“第一”元素的存在。然而,可以存在“第一”元素。“第一”元素通常不同于“第二”元素和“第三”元素。对于任何可能的排列都是如此。
如本文所用,术语“行为”是指人的可观察的动作和/或反应,包括不行动和/或不反应,特别是对人正被问询以解决的至少一个任务的动作和/或反应。人的动作和/或反应可以被理解为人的一种交流,具体是任何言语交流和可以包括身体语言的任何非言语交流。
如本文所用,术语“记录”或其任何语法变型是指生成包括特定信息的数据,特别是包括第一信息的训练数据。特别是对于训练数据,术语“记录”不一定暗示根据观察记录的第一信息是真实数据,特别地,根据观察记录的第一信息可以是模拟数据,特别是通过模拟观察来模拟的数据。如本文所用,术语“观察”是指对人进行监测。在本文中,监测可以选自以下中的至少一者:记录人的至少一个图像、至少一个视频剪辑,记录人的声音,或记录人的至少一个生命体征。当人试图给出预期响应时,可以执行记录。
如本文所用,术语“问询”或其任何语法变型是指请求人特别是对于解决至少一个任务的响应或指示的过程。特别地,可以通过呈现请求来执行请求。可以在特定测试循环期间呈现请求。请求可以是以下中的至少一者:视觉请求、听觉请求或触觉请求。如本文进一步所用,术语“解决”或其任何语法变型是指请求人提供用于解决至少一个任务的预期响应。术语“预期响应”是指为了解决任务,请求提供特定响应的事实。特定响应可以是正确地解决至少一个任务的正确响应。作为替代方案,特定响应可以是不正确地解决至少一个任务的不正确响应。由此,被问询的人不提供对至少一个任务的响应也可以被认为是不正确响应。如果人的行为被解释为不确定,则响应可以被认为是不正确的。因此,可以通过预期响应预期提供对至少一个任务的正确响应或不正确响应。
如本文所用,术语“时间间隔”是指持续时间或具有持续时间开始的第一时间点和持续时间结束的第二时间点的时间段。特别地,时间间隔可以在问询人以提供预期响应时的第一时间点开始。时间间隔可以在人已经提供了预期响应时或当预定应答时间已经到期时的第二时间点结束。
根据步骤b),通过使用机器学习模型分析第一信息来确定人的至少一个置信度值。进一步地,确定所确定的置信度值与如由第二信息提供的至少一个已知置信度值之间的偏差。由此,可以通过损失函数和/或可以使用目标函数来确定偏差。
如通常所用,术语“分析”或其任何语法变型是指系统性研究,其中所研究的至少一种结果被分解成其分量。因此,基于所选择的标准对这些分量进行研究,并随后进行排序、检查和评估。如通常所用,术语“偏差”是指两条信息之间的差异,优选地是两个值之间的差异,特别是这两个值之间的数学和/或统计差异。如在步骤b)中使用的偏差是所确定的置信度值与至少一个已知置信度值之间的差异。
根据步骤c),调整机器学习模型以使所确定的置信度值与至少一个已知置信度值之间的偏差最小化。进一步地,重复步骤a)至c),直到满足确定标准。
如本文所用,术语“调整”或其任何语法变型是指改变机器学习模型的至少一个参数。可以改变至少一个参数,以便使所确定的置信度值与至少一个已知置信度值之间的偏差最小化,特别是在统计基础上。如本文所用,术语“确定标准”是指当满足时使得顺序或迭代程序终止,特别是使得用于训练机器学习模型的计算机实现的方法终止的条件。可以在经训练的机器学习模型中使用通过确定最小偏差而得到的机器学习模型的至少一个参数。
在优选实施例中,确定标准可以选自:
-该偏差低于阈值;
-在训练循环中确定的偏差与在前一训练循环中确定的偏差之间的差异低于另外的阈值,其中,训练循环包括步骤a)至c);
-达到预定数量的训练循环;或
-到达预定训练时间间隔的终点。
如本文所用,术语“阈值”是指在用于训练机器学习模型的计算机实现的方法终止之前可允许的最大偏差。如本文所用,术语“差异”是指在两个不同训练循环中确定的偏差之间的方差。如本文所用,术语“训练循环”(其也可以被称为训练期)是指步骤a)至c)的序列。如本文所用,术语“另外”是指项目的附加实例。如通常所用,术语“预定”是指预先建立和/或决定的量,特别是在开始用于训练机器学习模型的计算机实现的方法之前决定的训练循环的数量和/或训练时间间隔。
在另外的优选实施例中,关于第二信息的指示可以从以下中的至少一者获得:
-在执行视力测试程序方面有经验的专业人员;
-人,特别是在视力测试程序期间被问询以提供关于置信度值的指示之后;
-监测人的至少一个生命体征,特别是其中,该至少一个生命体征选自血压;心跳频率或眨眼频率中的任一者;或
-人提供响应、特别是预期响应所需的时间值。
如通常所用,术语“专业人员”是指在一个主题领域或几个特定主题领域中具有高于平均水平知识的专家,或者拥有特殊技能的专家。如通常所用,术语“有经验”或其任何语法变型是指在执行视力测试程序方面有实践的专业人员,特别是经常定期执行视力测试程序。如本文所用,术语“指示”是指与指示所涉及的特征直接和/或间接相关的细节或信息。因此,指示可以是特征本身或特征的释义。特别地,尤其可以要求被问询的人不仅提供至少一个任务的结果,而且还指示他或她对结果的正确性有多大自信。如通常所用,术语“监测”是指特别是定期和/或连续观察或检查可观察对象的过程。如通常所用,术语“生命体征”是指人的可感知且可测试或可测量的生理机能,其提供关于重要身体功能的信息。如本文所用,术语“人提供响应所需的时间值”可以是指时间间隔,特别是当问询人预期响应时开始和/或当提供响应、特别是预期响应时结束的时间间隔。
在另外的优选实施例中,专业人员可以是以下中的至少一者:
-配镜师;
-眼科医生;
-技术人员;
-心理学家;或
-护士。
如通常所用,术语“配镜师”是指设计、装配和分配眼镜透镜以用于矫正人的视力的技术从业者。如通常所用,术语“眼科医生”是指专门从事眼睛护理的医师。如通常所用,术语“技术人员”是指在技术领域中工作的在相关技能和/或技术、特别是在眼镜透镜的技能和/或技术和/或执行视力测试程序方面有经验的人。如通常所用,术语“心理学家”是指实践心理学的专业人员。如通常所用,术语“护士”是指在医疗保健部门工作的专业人员。特别地,包括来自所提及的列表的至少两个专业人员的团队也可以用于本发明的目的。
在另外的优选实施例中,机器学习模型可以被另外训练用于确定正确性值,其中,至少一个正确性值是由人提供的响应是预期响应的概率的度量,
-其中,第一信息进一步包括关于由人提供的响应的信息,并且
-其中,训练数据进一步包括关于至少一个已知正确性值的第三信息;
其中,通过使用机器学习模型分析第一信息来确定至少一个正确性值,其中,确定所确定的正确性值与如由第三信息提供的已知正确性值之间的第一另外的偏差,并且其中,重复另外的训练,直到满足第一另外的确定标准。如本文所用,术语“正确性值”是指由人提供的响应是预期响应的概率的度量。正确性值可以与置信度值相关,特别是以不确定给出预期响应、具体是正确响应的人更可能给出不正确响应的方式,反之亦然。
在另外的优选实施例中,第一另外的确定标准可以选自:
-第一另外的偏差低于第一另外的阈值;
-在训练循环中确定的第一另外的偏差与在前一训练循环中确定的第一另外的偏差之间的差异低于第一另外的阈值,其中,训练循环包括步骤a)至c);
-达到预定第一另外的数量的训练循环;或
-到达预定第一另外的训练时间间隔的终点。
在另外的优选实施例中,机器学习模型可以包括:
-被配置用于确定置信度值的第一神经网络;和/或
-被配置用于确定正确性值的第二神经网络,
特别是其中,第一神经网络不同于第二神经网络。
如通常所用,术语“神经网络”是指人工网络,特别是包括多个节点,这些节点优选地是通过至少一条边互连以在至少两个节点之间传送数据。神经网络,具体是第一神经网络和/或第二神经网络,可以由机器学习模型包括或者是机器学习模型。在节点之间传送数据和/或在节点内处理数据的方式可能受到机器学习模型的至少一个参数的影响,具体是第一神经网络和/或第二神经网络的至少一个参数。神经网络可以包括用于输入要分析的数据的输入层。另外,神经网络可以包括用于输出所确定的数据的输出层。如本文所用,术语“多个”是指至少两个单位、优选地是多于两个单位的量,特别是至少两条、优选地是多于两条的量的第二信息。
在另外的优选实施例中,机器学习模型可以被另外训练用于确定视力测试程序的至少一个后续测试循环中的至少一个动作,其中,训练数据进一步包括:
-关于至少一个已知动作的第四信息,
其中,通过使用机器学习模型分析至少一个所确定的置信度值来确定至少一个动作,其中,确定至少一个所确定的动作与由第四信息提供的至少一个已知动作之间的另外的偏差,其中,重复另外的训练,直到满足第二另外的确定标准。
在另外的优选实施例中,第二另外的确定标准可以选自:
-第二另外的偏差低于第二另外的阈值;
-在训练循环中确定的第二另外的偏差与在前一训练循环中确定的第二另外的偏差之间的差异低于第二另外的阈值,其中,训练循环包括步骤a)至c);
-达到预定第二另外的数量的训练循环;或
-到达预定第二另外的训练时间间隔的终点。
在另外的优选实施例中,机器学习模型可以进一步包括:
-用于确定至少一个动作的第三神经网络,
特别是其中,第三神经网络不同于第一神经网络和第二神经网络。在另外的实施例中,确定至少一个动作可以包括另外分析至少一个正确性值。在另外的实施例中,可以在执行视力测试程序方面有经验的专业人员的评估中确定关于至少一个已知动作的第四信息。如本文所用,术语“评估”可以是指基于专业人员的估计来采集信息的过程。
在另外的优选实施例中,机器学习模型可以是根据前述方面或实施例中任一项而被训练用于确定至少一个置信度值之前在适用于视力测试程序的领域中训练的机器学习模型。如本文所用,术语“在适用于视力测试程序的领域中训练”是指机器学习可以被训练用于分析相当的、具体是相同的输入数据和/或用于确定相当的输出数据的事实。由此,可以减少用于训练机器学习模型以确定该至少一个置信度值的努力。
在另外的优选实施例中,适用于视力测试程序的领域可以选自以下中的至少一者:
-声音分类或声音回归;
-面部表情分类或面部表情回归;或
-身体表情分类或身体表情回归。
如通常所用,术语“分类”是指在离散标度上确定相应值。如本文所用,术语“回归”是指在连续标度上确定相应值。
在另外的方面,本发明涉及一种特别适合用于对人执行视力测试程序的计算机实现的方法,其中,该视力测试程序包括至少两个后续测试循环,其中,测试循环至少包括以下步骤:
d)通过使用呈现设备向人呈现问询该人以提供预期响应的至少一个任务;
e)通过使用至少一个记录设备来记录测量数据,该测量数据包括:
-关于在视力测试程序的至少一个测试循环期间人的至少一种行为的第一信息,其中,根据在人被问询以通过提供预期响应来解决至少一个任务之后的时间间隔期间对人的观察,记录如由第一信息提供的人的至少一种行为;
f)通过使用处理设备使用由根据前述方面或实施例中任一项所述的方法训练的机器学习模型分析第一信息来确定人的置信度值;以及
g)通过使用处理设备基于所确定的置信度值来确定视力测试程序的至少一个后续测试循环中的至少一个动作。
如本文所用,术语“测试循环”是指步骤d)和e)的序列,特别是包括步骤f)和/或步骤g)。如本文所用,术语“呈现”是指向人显示至少一个任务。如本文所用,术语“呈现设备”是指被配置用于向人显示至少一个任务的设备。如本文所用,术语“记录设备”是指被配置用于生成测量数据的设备。如本文所用,术语“处理设备”是指被配置用于处理数据以确定结果的电子设备,特别是被配置用于处理测量数据,具体是用于确定至少一个动作的电子设备。处理设备可以是可编程装置(具体是计算机)的处理单元,具体是中央处理单元。处理单元可以是处理器和/或电子电路,其特别是可以执行计算机程序所包括的可执行指令。术语“基于所确定的置信度值”是指通过考虑所确定的置信度值来确定至少一个另外的动作。由此,至少一个另外的动作取决于置信度值。
在另外的实施例中,可以使用至少一个所确定的动作在至少一个后续测试循环中重复步骤d)至f)。
在另外的优选实施例中,置信度值可以选自:
-至少一个离散标度,特别是其中,置信度值选自至少两个个体值;或
-至少一个连续标度,特别是其中,连续标度的范围从人完全自信到人完全不确定。
如本文所用,术语“离散标度”是指布置有多个不同特征的范围,由此特征可以被进一步细分以增加范围的信息内容,由此生成另外的特征并且离散标度的分辨率增加。在置信度值可以被认为是特征的情况下,置信度值的可设想的特性的范围可以被包括在特征中。术语“连续标度”是指布置有多个不同特征的范围,由此特征不能被进一步细分以增加范围的信息内容。在置信度值可以被认为是特征的情况下,置信度值的恰好一个可设想的特性可以被包括在恰好一个特征中。
在另外的优选实施例中,
-置信度值的第一值可以表示人对于提供预期响应是自信的,并且
-置信度值的第二值可以表示人对于提供预期响应是不确定的。由此,恰好两个不同值,即第一值和第二值,可以在离散标度上可用。如本文所用,术语“自信”是指人对于提供预期响应是确定的。如本文所用,术语“不确定”是指人在提供预期响应时无把握或根本不自信。在另外的实施例中,置信度值可以选自至少三个个体值。
在另外的优选实施例中,
-置信度值的第一值可以表示人对于提供预期响应是自信的,和/或
-置信度值的第二值可以表示人对于提供预期响应是中立的,和/或
-置信度值的第三值可以表示人对于提供预期响应是不确定的。由此,恰好三个不同值,即第一值、第二值和第三值,可以是可用的。如本文所用,术语“中立”是指人在提供预期响应方面保持平衡,由此人对提供预期响应既不自信也不犹疑。然而,可设想另外的实施例。
在另外的优选实施例中,
-如由第二信息提供的至少一个已知置信度值可以具有与所确定的置信度值相同数量的值;和/或其中,
-如由第二信息提供的至少一个已知置信度值的个体值可以表示与所确定的置信度值的值相同的关于置信度值的同一条信息。
如本文所用,术语“相同数量的值”是指在相应标度上具有相同数量的特征的相应值。如本文所用,术语“表示关于置信度值的同一条信息”是指已知置信度值的每个值与所确定的置信度值的值相当和/或兼容。作为示例,置信度值可以选自以下百分比:从被分配给“不自信”的0%,经由被分配给“中立”的50%,直到被分配给“自信”的100%。然而,可设想另外的实施例和示例。
在另外的优选实施例中,时间间隔在可以问询人以提供预期响应时的第一时间点开始。如本文所用,术语“问询以提供预期响应”可以是指请求人的响应的时间点。请求开始和/或结束的时间点可以是“第一时间点”。在另外的实施例中,时间间隔可以在第二时间点结束,在该第二时间点之后人已经提供了响应和/或在该第二时间点时预定应答时间已经到期。如本文所用,术语“提供了预期响应”可以是指人已经停止给出响应、特别是预期响应的时间点。如本文所用,术语“应答时间”是指人可以提供预期响应的时间间隔。在本文中,该时间间隔的持续时间可以是预定的固定值,或者可以根据特定人对于至少一个任务可能实际需要的持续时间来调整。作为示例,该时间间隔的值可以根据人提供响应所需的时间值来改变,尤其是如果人可能表现出不提供对至少一个任务的响应的高概率,则增加该时间间隔的值。
在另外的优选实施例中,可以在至少一个相继测试循环中使用至少一个所确定的动作。如通常所用,术语“相继测试循环”是指在特定测试循环之后直接执行的测试循环,中间没有任何另外的测试循环在特定测试循环之后且在该相继测试循环之前执行。由此,相继测试循环是在特定测试循环之后执行的下一个测试循环。
在另外的优选实施例中,可以通过以下中的至少一者来确定至少一个动作:
-通过使用处理设备由根据前述方面或实施例中任一项所述的方法训练的机器学习模型;
-执行视力测试程序的专业人员;或
-预定的响应-动作方案,特别是通过使用处理设备。
如本文所用,术语“预定的响应-动作方案”是指关于如何执行视力测试程序的至少一个指令、特别是多个指令,特别是包括关于基于所确定的置信度值在后续测试循环中、特别是在特定测试循环中要执行的至少一个动作的信息的至少一个指令。
在另外的优选实施例中,测量数据可以进一步包括关于如由人提供的对至少一个任务的响应、尤其是实际响应的第五信息。在另外的实施例中,第五信息可以被包括在第一信息中。如本文所用,术语“第五信息”是指可以被包括在第一信息中的一条信息。特别地,可以在观察人期间记录第五信息。
在另外的优选实施例中,可以进一步基于以下中的至少一者来确定至少一个动作:
-至少一个正确性值;
-人提供响应、特别是预期响应所需的时间值;
-至少一个所呈现的任务;或
-视觉测试程序的进展。
在另外的优选实施例中,以下中的至少一者:
-至少一个置信度值;
-至少一个正确性值;
-至少一个动作;或
-至少一个所呈现的任务,
可以存储在数据存储单元中。
在另外的优选实施例中,其中,可以基于以下中的至少一者来确定至少一个后续测试循环中的至少一个动作:
-预定义数量的多个置信度值;
-预定义数量的多个正确性值;
-预定义数量的多个动作;或
-预定义数量的多个所呈现的任务,
其特别是在至少2、5、10、20或30个不同的测量中执行。
在另外的优选实施例中,至少一个正确性值可以选自至少两个个体值。由此,正确性值可以选自包括恰好两个个体值的离散标度。另一方面,正确性值可以进一步选自包括两个个体值的连续标度。特别地,上面关于置信度值提供的定义和示例也可以在这里适用。
在另外的优选实施例中,
-第一值可以表示如由人提供的响应是预期响应,和/或
-第二值可以表示如由人提供的响应不是预期响应。
由此,恰好两个不同值,即第一值和第二值,可以是可用的。此外,被问询的人不提供对至少一个任务的响应也可以被认为不是预期响应。
在另外的优选实施例中,可以执行视力测试程序以确定人的至少一种状况,特别是至少一只眼睛的至少一种状况,特别是其中,该状况可以是人的视力的表现指标,特别是人的损伤。如本文所用,术语“状况”可以是指人的精神和/或身体的状态。特别地,状况可以不是指需要任何医疗程序的人的疾病和/或健康状态。如通常所用,术语“损伤”是指生理、心理或解剖结构和/或功能的丧失和/或异常,无论是永久的还是暂时的。损伤特别是与人的视力、特别是人的至少一只眼睛相关的状况,其可以被认为是不正常的,和/或可以被人感知为不利的和/或可以是可能改善的。
在另外的优选实施例中,人的至少一只眼睛的至少一种状况可以是人的至少一只眼睛的至少一个视觉参数。如本文所用,术语“视觉参数”是指人的至少一只眼睛的屈光不正和/或视觉表现。
在另外的优选实施例中,至少一个视觉参数可以选自人的至少一只眼睛的屈光不正和/或视觉表现中的至少一者。如通常所用,术语“屈光(refraction)”或“屈光(refractive)”是指入射光经由瞳孔进入人的眼睛内部时发生的弯曲,其中,术语“屈光不正”是指观察到入射光可能(特别是由于眼睛的形状)没有适当地聚焦在眼睛的视网膜上,导致眼睛散焦。如本文所用,术语“视觉表现”是指与人的至少一只眼睛间接和/或直接相关的特性,其中,视觉表现可以通过使用适配的测量程序对人的至少一只眼睛进行研究来确定。
在另外的优选实施例中,人的至少一只眼睛的屈光不正可以是与以下相关的值中的至少一者:
-球镜度;
-柱镜度;
-柱镜轴位;或
-下加光焦度。
基于标准ISO 13666:2019(在下文中称为“标准”)第3.12.2节,术语“球镜度”(通常缩写为“球镜”或“sph”)是指球镜度透镜的后顶点焦度的值,或者是指散光度透镜的两个主子午面之一中的后顶点焦度,这取决于选择用于参考的主子午面。人的至少一只眼睛的球镜度可以是与“等效球镜”相关的值。如基于标准第3.13.7节,术语“柱镜度”(通常缩写为“柱镜”或“cyl”)是指主子午面顶焦度之间的代数差,其中从一个主子午面顶焦度中减去另一个选择作为参考的主子午面的焦度。如基于标准第3.13.8节,术语“柱镜轴位”(通常缩写为“cyl轴位”或“轴位”)是指选择顶点焦度作为参考的透镜的主子午面的方向。如基于标准第3.16.3节,术语“下加光焦度”(“下加光”也缩写为“add”)是指多焦点或焦度变化透镜中近侧部分的顶点焦度与远侧部分的顶点焦度之间的差。
在另外的优选实施例中,视觉表现可以选自以下中的至少一者:
-视敏度,特别是选自以下中的至少一者:
○近场视敏度;
○中场视敏度;或
○远场视敏度;
-对比敏感度;或
-色觉;或
-视野。
如通常所用,术语“视敏度”是指人的至少一只眼睛关于至少一个视觉目标内的结构的空间分辨能力。如通常所用,“近场”是指多达40厘米的距离,优选地是多达25厘米。如通常所用,“中场”是指多达2米或4米的距离,优选地是至少40厘米。如通常所用,“远场”是指至少4米的距离。如进一步通常所用,术语“对比敏感度”是指人的至少一只眼睛在至少一个视觉目标中辨别不同亮度水平的能力。如进一步通常所用,术语“色觉”是指人的至少一只眼睛辨别至少一个视觉目标所包括的不同颜色或波长的光的能力。如通常所用,术语“视野”是指人的至少一只眼睛可感知的空间区域。视野包括中心视场和外围视场。
在另外的优选实施例中,至少一个预期响应可以是以下中的至少一者:
-对至少一个任务的解决方案的言语指示;
-对至少一个任务的解决方案的非言语指示。
如本文所用,术语“言语指示”是指由被问询的人以声音形式提供的可听响应,特别是由人说话来提供的可听响应。如本文进一步所用,术语“非言语指示”是指通过使用与人说话不同的通信方式提供的另外的类型的响应。如本文特别所用,术语“非言语指示”因此可以包括通信的另外的部分,即无意地或有意地由人说话来传达的。
在另外的优选实施例中,第一信息可以仅包括在至少一个人提供响应的时间间隔中记录的信息。在另外的优选实施例中,可以在预处理例程中处理第一信息以仅包括关于人的预定身体部位的信息,该预定身体部位特别是选自以下中的至少一者:人的面部;或人的上半身。在另外的优选实施例中,可以在预处理例程中处理第一信息以仅包括关于人表现出预定的至少一种行为的信息。
在另外的优选实施例中,关于人的至少一种行为(特别是至少一种预定行为)的第一信息可以包括关于以下中的至少一者的信息:
-人的身体中的至少一种表情,特别是人的面部中的至少一种表情;
-人的声音中的至少一种表情;
-人的头部的特征行为,特别是引起至少一只眼睛朝向或背离呈现设备的移动;
-人的至少一只眼睛的移动的特征行为;
-人的至少一只眼睛的眼睑的特征行为;
-人的至少一只手臂的特征行为。
如通常所用,术语“身体中的表情”是指非言语交流的形式,特别是以下中的至少一者:手势、面部中的表情、姿势、习惯和/或另外的有意识或无意识的表情。如通常所用,术语“面部中的表情”是指面部表面和/或特征的至少一个可见移动,特别是包括面部表面根本没有可见移动。如通常所用,术语“声音中的表情”是指声音的特性,特别是人的语音。如本文所用,术语“特性”可以是指特定图案,特别是以重复方式执行的图案。如本文所用,术语“人的至少一只眼睛的移动”可以是指人的视线的变化。基于“标准”第3.2.24节,术语“视线”是指从物体空间中的感兴趣点(即注视点)到人的眼睛的入射光瞳中心的路径,并且进一步包括图像空间中从出射光瞳的中心到人的眼睛中的视网膜注视点(通常是中央凹)的延续。如通常所用,术语“眼睑”是指覆盖和保护人的至少一只眼睛的薄薄的皮肤褶皱。
在另外的优选实施例中,人的身体中的至少一种表情可以选自以下中的至少一者:
-人的面部中的至少一种表情;特别是人的至少一只眼睛的表情,特别是人的眼睛半眯着;
-挠头,特别是通过使用人的手;或
-人的头部靠近或背离呈现设备移动,特别地由此调整人的至少一只眼睛与呈现设备之间的距离。
如本文所用,术语“眼睛半眯着”是指眼睛部分闭合地看某事物的动作。
在另外的优选实施例中,声音中的至少一种表情可以选自以下中的至少一者:
-音量;
-持续时间;
-不规则停顿;
-频率或音高,特别是平均频率或音高;
-转调。
如通常所用,术语“音量”是指声音的强度或幅度。如本文所用,术语“持续时间”是指人给出响应的时间间隔,特别是当人开始给出响应时开始和/或当人终止给出响应和/或开始给出响应的至少一部分时结束。如本文所用,术语“不规则停顿”是指人在给出响应时的意外中断,特别是口吃。如本文所用,术语“频率”是指音调的音高,特别是人的语音和/或声音。如本文所用,术语“转调”是指调整声音以进行语音的整形。
在另外的优选实施例中,至少一个记录设备可以选自以下中的至少一者:
-音频记录设备;
-视觉记录设备;
-触觉记录设备;或
-距离记录设备
如本文所用,术语“音频记录设备”是指被配置用于特别是根据对人的观察记录人的音频数据的设备。音频数据可以包括人的声音,特别是人所提供的响应可以被包括在所记录的音频数据中,具体是被包括在第一信息中。如本文所用,术语“视觉记录设备”是指被配置用于特别是根据对人的观察记录人的视觉数据的设备,特别是相机。视觉数据可以包括以下中的至少一者:人的身体或面部,特别是人所提供的响应可以被包括在所记录的视觉数据中,具体是被包括在第一信息中。如本文所用,术语“触觉记录设备”是指被配置用于特别是根据对人的观察记录人的触觉数据的设备。触觉数据可以包括人触敏设备,特别是触摸板或按钮,具体是用于给出响应。如本文所用,术语“距离记录设备”是指被配置用于特别是根据对人的观察记录人的距离数据的设备,特别是选自以下中的至少一者:至少一个深度传感器;立体相机;或激光雷达传感器。距离数据可以包括人的至少一只眼睛与呈现设备之间的距离。如本文所用,术语“激光雷达传感器”是指用于光学距离和/或速度测量的测量设备。
在另外的优选实施例中,可以通过使用音频记录设备、特别是麦克风来记录人的声音中的至少一种表情。如通常所用,术语“麦克风”是指将来自空气的声压振荡转换成对应的电压变化的声音转换器。
在另外的优选实施例中,可以通过使用视觉记录设备来记录人的身体中的至少一种表情,该视觉记录设备特别是选自以下中的至少一者:
-相机,特别是移动通信设备的前置相机和/或后置相机中的至少一个,具体选自以下中的至少一者:
○智能电话;
○平板电脑;或
○智能手表;
-照相机;
-红外相机;
-网络摄像头;
-眼睛跟踪眼镜;或
-视觉诱发电位设备。
如通常所用,术语“相机”是指捕获视觉图像的光学设备。如通常所用,术语“移动通信设备”是指可以传输和/或接收声音、视频或计算机数据的便携式无线电信设备,具体是智能电话。如通常所用,术语“智能电话”是指具有广泛的计算机功能和连接的移动电话。如通常所用,术语“照相机”是指用于拍摄和/或存储至少一个图像和/或短系列图像的设备。如通常所用,术语“红外相机”是指被配置用于记录红外光谱和/或红外光谱的至少一部分的至少一个图像的相机。如通常所用,术语“网络摄像头”是指可以放置在监测仪上或监测仪中或者可以引入到计算机中的小相机。如通常所用,术语“眼睛跟踪眼镜”是指附接有用于跟踪眼睛、特别是眼睛移动的传感器的眼镜。如通常所用,术语“视觉诱发电位设备”是指被配置用于记录神经系统的特定部分的设备。
在另外的优选实施例中,解决至少一个任务可以由人使用至少一个辅助设备(特别是对人解决至少一个任务的能力具有一定程度的影响的至少一个辅助设备)来执行。如通常所用,术语“辅助设备”是指被配置用于支持人解决至少一个任务的设备。在另外的实施例中,至少一个辅助设备可以被配置为抵消阻碍人解决至少一个任务的人的损伤。如本文所用,术语“抵消”是指辅助设备的使用,结果是降低人的损伤。
在另外的优选实施例中,至少一个辅助设备可以选自以下中的至少一者:
-人所使用的视觉辅助装置,特别是光学透镜;或
-综合屈光检查仪;
-光谱滤波器;
-偏振滤波器;或
-液体光学透镜设备;
如通常所用,术语“视觉辅助装置”是指被配置用于改善人的观看能力、特别是由此改善人的视力的设备。典型的视觉辅助装置可以是光学透镜。如通常所用,术语“综合屈光检查仪”是指眼科测试设备。综合屈光检查仪也可以称为验光仪。如通常所用,“滤波器”通常用于选择或消除特定信息,特别是关于光的波长的光谱信息和/或关于光的偏振的偏振信息。如通常所用,术语“液体光学透镜设备”是指包括机械地或电气地控制并且包含光学级液体的至少一个单元或多个单元的设备。
在另外的优选实施例中,至少一个辅助设备影响人解决至少一个任务的能力的程度可以选自:
-人在解决至少一个任务时使用的视觉辅助装置的至少一个屈光值;
-人在解决至少一个任务时使用的综合屈光检查仪或液体光学透镜的至少一个屈光值;
-人在解决至少一个任务时使用的光谱滤波器的至少一个光谱特性;或
-人在解决至少一个任务时使用的偏振滤波器的至少一个偏振特性。
如本文所用,术语“屈光值”是指选择用于抵消如上文更详细定义的屈光不正的特性。如本文所用,术语“光谱特性”是指光谱滤波器的不同性质,其影响光谱滤波器选择或消除光的至少一个波长的能力。如本文所用,术语“偏振特性”是指偏振滤波器的不同性质,其影响偏振滤波器改变光的偏振的能力。
在另外的优选实施例中,视力测试程序的至少一个结果可以根据在最后一个测试循环中使用的至少一个辅助设备来确定,特别是根据在最后一个测试循环中使用的至少一个辅助设备影响人解决至少一个任务的能力的至少一个程度来确定。如本文所用,术语“最后一个测试循环”是指在视力测试程序停止或终止之前执行的最后测试循环。由此,可以得到辅助设备的至少一个屈光值。在另外的实施例中,至少一个结果可以是光学透镜的至少一个屈光值,特别是被配置用于补偿人的至少一只眼睛的至少一种屈光不正。术语“光学透镜”是指用于确定和/或矫正配戴光学透镜的人的有缺陷视力的视觉辅助装置。
在另外的优选实施例中,光学透镜可以选自以下中的至少一者:
-眼镜透镜;
-接触透镜;或
-眼内透镜。
基于“标准”第3.5.2节,术语“眼镜透镜”是指用于确定和/或矫正光学透镜配戴者的有缺陷视力的光学透镜,其中,光学透镜被戴在人的眼睛前方,由此避免与配戴者的眼睛直接接触。如通常所用,术语“接触透镜”是指直接放置在配戴者的眼睛表面上以矫正视觉缺陷的透镜。如进一步通常所用,术语“眼内透镜”是指植入配戴者眼睛中用于矫正有缺陷视力的人造晶状体。
在另外的优选实施例中,至少一个动作可以选自以下中的至少一者:
-向人给出至少一个所提供的响应是否是预期响应的反馈,特别是在至少一个后续测试循环中呈现至少一个任务之前;
-问询人关于至少一个确定性的估计的指示,特别是在至少一个后续测试循环中呈现至少一个任务之前;
-改变至少一个后续测试循环中的应答时间;
-维持至少一个所呈现的任务并在至少一个后续测试循环中再次呈现至少一个所呈现的任务;
-改变至少一个所呈现的任务并在后续测试循环中呈现与至少一个所呈现的任务不同的至少一个另外的任务;
-维持所使用的辅助设备并在至少一个后续测试循环中再次使用所使用的辅助设备;
-改变所使用的辅助设备并在后续测试循环中使用与所使用的辅助设备不同的至少一个另外的辅助设备;
-改变在呈现设备上呈现的符号的至少一个参数;特别是其中,符号的至少一个参数选自以下中的至少一者:该符号的○大小,
○取向,
○颜色,或
○偏振;
以及在至少一个后续测试循环中显示考虑所改变的参数的另外的符号;
-问询人关于人的眼睛与显示设备之间的距离的变化的指示,特别是在至少一个后续测试循环中呈现至少一个任务之前;或
-问询人关于人的眼睛与显示设备和/或符号之间的取向的变化的指示,特别是在至少一个后续测试循环中呈现至少一个任务之前。
如本文所用,术语“给出反馈”是指向人给出关于人在视力测试程序内的表现的指示,特别是关于所提供的响应(特别是在特定测量循环中)是预期响应或不是期望响应的指示。如本文所用,术语“维持”在特定测试循环中执行的特定的至少一个动作是指在后续测试循环中重复特定的至少一个动作。如本文所用,术语“改变”特定的至少一个动作是指在后续测试循环中调整在特定测试循环中执行的至少一个动作,特别是考虑至少一个置信度值。如本文所用,术语“符号”是指用于测试人的视觉参数的结构。如本文所用,术语“符号的参数”是指影响符号的外观的值,特别是当符号的参数改变时,符号的外观也改变。如通常所用,术语“偏振”是指横波(特别是光波)的属性,其指定至少一个振荡的几何取向。
在另外的优选实施例中,至少一个另外的任务可以具有不同的难度,特别是增大或减小的难度,具体是与至少一个所呈现的任务相比。如本文所用,术语“不同难度”可以与所呈现的符号和/或所呈现的符号的至少一个参数的变化相关,特别是在至少一个特定测试循环中呈现的。在另外的实施例中,至少一个另外的任务与至少一个所呈现的任务之间的难度的差异可以与至少一个所确定的置信度值相关。特别地,当人对于给出预期响应是自信的时,与人对于给出预期响应是不确定的情况相比,至少一个另外的任务与至少一个所呈现的任务之间的难度的变化可以更大和/或更小。
在另外的优选实施例中,至少一个另外的辅助设备可以对人解决至少一个任务的能力具有不同程度的影响,具体是与至少一个所使用的辅助设备相比。“所使用的辅助设备”可以是在特定测试循环中使用的辅助设备。在另外的实施例中,至少一个所使用的辅助设备与至少一个另外的辅助设备之间的程度的差异可以与至少一个所确定的置信度值相关。特别地,当人对于给出预期响应是不确定的时,与人对于给出预期响应是自信的情况相比,至少一个所使用的辅助设备与至少一个另外的辅助设备之间的程度的变化可以更大和/或更小。在另外的实施例中,可以选择至少一个另外的辅助设备影响人解决至少一个任务的能力的程度,以提高人解决任务的能力。如本文所用,术语“提高人解决任务的能力”可以是指辅助设备抵消了至少一个任务的难度的事实。
在另外的优选实施例中,呈现设备可以选自以下中的至少一者:
-视力表;
-电子设备,特别是选自以下中的至少一者:
○屏幕;
○监测仪;
○移动通信设备,具体是智能电话;
○个人计算机;或
○智能手表。
如通常所用,术语“视力表”是指用于测量以下中的至少一者的图表:视敏度;对比度;或色觉参数。如本文所用,术语“电子设备”是指需要电力来起作用的装置。如通常所用,术语“屏幕”是指被指定用于呈现电子传输的图像、项目、文本或视频中的至少一者的电子视觉显示设备。如通常所用,术语“监测仪”是指用于视觉显示诸如图像或项目等信息的电控显示器。如通常所用,术语“个人计算机”是指多用途计算机,其大小、能力和价格使其对于个体使用是可行的。个人计算机被配置用于由终端用户直接操作,而不是由计算机专家或技术人员操作。如通常所用,术语“智能手表”是指具有计算机功能和连接的电子腕表,并且可以另外包括至少一个传感器和/或至少一个致动器,例如至少一个振动马达。
在另外的优选实施例中,可以通过使用问询设备来问询人以提供预期响应,该问询设备特别是选自以下中的至少一者:屏幕或扬声器。如通常所用,术语“扬声器”是指用于将至少一个输入信号转换成至少一个机械振动的声音换能器,特别是其中,至少一个机械振动可感知为声音。问询设备可以与呈现设备相同。
在另外的优选实施例中,至少一个任务可以选自以下中的至少一者:
-提供关于至少一个符号的类型的指示;
-提供关于至少一个符号的至少一个参数的指示,其中,至少一个参数选自:
○取向;
○颜色;
○对比度;或
○偏振;
-提供关于在呈现设备上呈现并且具有共同特征的至少一个符号中的第一多个符号的数量的指示,特别是其中,至少一个符号中的第二多个符号另外呈现在呈现设备上并且不具有共同特征。
如本文所用,术语“至少一个符号的类型”是指符号的性质,特别是符号是以下中的至少一者:字母、数字、标志或箭头。如本文所用,术语“共同特征”是指多个符号的外观的方面,在这方面该多个符号是相同的。共同特征可以是具有相同外观方面的多个符号的共同参数的结果。如通常所用,术语“对比度”是指图像或两个像素之间的亮度梯度的区别特征。
在另外的优选实施例中,至少一个任务的难度可以与以下中的至少一者相关:
-至少一个符号的大小;
-至少一个符号的复杂度;
-符号的取向;
-符号的颜色;
-符号的对比度;或
-符号的偏振。
如本文所用,术语“复杂度”可以是指符号的细节的量。在另外的实施例中,至少一个符号可以具有选自以下中的至少一者的类型:字母;数字;或箭头。
在另外的优选实施例中,在至少一个测试循环期间记录的测量数据可以用作根据前述方面或实施例中任一项所述的用于另外训练机器学习模型以确定置信度值的计算机实现的方法中的另外的训练数据。如本文所用,术语“测量数据”是指根据对执行视力测试程序的人的观察记录的数据,特别是通过使用已经训练的机器学习模型。如本文所用,术语“另外训练”是指在已经被训练用于确定置信度水平的机器学习模型上执行的附加训练。
在另外的优选实施例中,测量数据可以包括以下中的至少一者:
-关于人的至少一种行为的第一信息;
-关于至少一个已知置信度值的第二信息:
-关于至少一个已知正确性值的第三信息;
-关于至少一个已知动作的第四信息;或
-关于如由人提供的响应的第五信息。
在另外的实施例中,至少一个另外的训练数据可以包括以下的测量数据:至少2;3;4;5;7;10;15;20;25;50;75;100;125;150;200;500;1000;2000;5000;10000;20000;50000个测试循环。
在另外的优选实施例中,测量数据可以从视力测试装置传输到训练装置,特别是通过使用连接接口,特别是其中,测量数据的至少一部分可以由视力测试装置记录,其中,训练装置可以执行至少一个另外的训练。如本文所用,术语“视力测试装置”是指用于执行视力测试程序的设备,特别是包括用于运行机器学习模型的处理设备。如本文所用,术语“训练装置”是指用于训练机器学习模型的设备,特别是包括用于运行机器学习模型的处理设备。训练装置可以是视力测试装置。如通常所用,术语“连接接口”或其任何语法变型是指被配置用于从第一装置向第二装置传输数据和/或利用第二装置接收从第一装置传输的数据的接口。典型的连接接口可以是网络控制器。
在另外的优选实施例中,更新的机器学习模型可以从训练装置传输到视力测试装置,特别是通过使用连接接口,其中,视力测试装置可以通过使用更新的经训练的机器学习模型来执行另外的测试循环。
在另外的优选实施例中,包括第一信息的数据可以选自以下中的至少一者:
-通过使用音频记录设备记录的音频数据;
-通过使用视觉记录设备记录的视觉数据;
-通过使用触觉记录设备记录的触觉数据;或
-通过使用距离记录设备记录的距离数据。
在另外的实施例中,触觉记录设备可以是触摸屏。如通常所用,术语“触摸屏”是指可以通过触摸来控制的输入和输出组合设备。
在另外的优选实施例中,视觉数据可以选自以下中的至少一者:
-图像;或
-视频;
特别是在时间间隔期间记录的,更特别是在人提供响应的特定时间间隔记录的。如本文所用,术语“图像”是指单个图片,特别是人的图片。如本文所用,术语“视频”是指示出场景的多个图像。
在另外的优选实施例中,可以在将音频数据输入到机器学习模型中之前对音频数据进行处理以确定音频数据的音频频谱图,特别是通过使用以下中的至少一者:
-傅里叶变换方法;或
-小波变换方法,
特别是通过使用数字信号处理器来实现的。
如通常所用,术语“频谱图”是指借助于图像对信号的频谱的时间进程的表示。如通常所用,术语“数字信号处理器”是指用于处理数字信号、特别是音频和/或视频信号的电子部件。如通常所用,术语“傅里叶变换方法”是指允许根据其正弦分量分析复杂波形的过程。如通常所用,术语“小波变换方法”是指用于通过控制单个小波函数的缩放和移位因子来将信号分解成多个较低分辨率水平的数学技术。
在另外的优选实施例中,机器学习模型可以包括用于音频数据的第一输入层,音频数据、特别是音频频谱图被输入到该第一输入层中。如通常所用,术语“输入层”是指要由包括输入层的神经网络处理的数据被输入到其中的层。
在另外的优选实施例中,可以在将视觉数据输入到机器学习模型中之前对视觉数据进行处理以提取视觉数据的包括关于人的面部的信息的部分,特别是通过使用以下中的至少一者:
-选择帧的特定子集,特别是其中,选择在人提供响应期间记录的帧,更特别是其中,选择在包括人提供响应的预定时间间隔内记录的另外的帧;
-面部界标检测;
-面部分类;或
-面部的裁剪,特别是基于面部界标检测,
特别是通过使用数字信号处理器来实现的。如本文所用,术语“提取”或其任何语法变型是指选择和另外处理视觉数据的包括关于人的面部的信息的部分的过程。如通常所用,术语“面部界标检测”是指检测面部上的关键界标并跟踪它们。如通常所用,术语“裁剪”,特别是图像的裁剪,是指通过去除不想要的区域实现的常见的照片操纵过程。
在另外的优选实施例中,机器学习模型可以包括用于视觉数据的第二输入层,视觉数据、特别是视觉数据的包括关于人的面部的信息的部分被输入到该第二输入层中。
在另外的优选实施例中,第一输入层可以通过第四编码神经网络转发信息,该第四编码神经网络特别是选自以下中的至少一者:
-卷积神经网络;
-VGG16;
-VGG19;
-Xception;
-InceptionV3;
-ResNet50;
-ResNet101;
-MobileNet;或
-MobileNetV2。
如通常所用,术语“编码神经网络”是指用于将至少一个输入减小并由此将其编码为简化特征表示的网络。如通常所用,术语“卷积神经网络”是指一类人工神经网络。卷积神经网络包括执行至少一次卷积的至少一个层。至少一次卷积可以由隐藏层执行。进一步参考网页https://keras.io/api/applications/(2022年03月18日检索),其中定义了不同类型的神经网络。应当注意,另外的神经网络类型可以是可行的。神经网络可以用任何编程语言实现。
在另外的优选实施例中,第四编码神经网络可以将信息转发到第一隐层中。如通常所用,术语“隐层”是指编码神经网络的最后一层,其生成至少一个输出,该至少一个输出随后被馈送到组合多个隐层、输出层或解码网络的密集融合层中。
在另外的优选实施例中,第二输入层可以通过第五编码神经网络转发信息,该第五编码神经网络特别是选自以下中的至少一者:
-卷积神经网络;
-VGG16;
-VGG19;
-Xception;
-InceptionV3;
-ResNet50;
-ResNet101;
-MobileNet;或
-MobileNetV2。
在另外的优选实施例中,第五编码神经网络可以将信息转发到第二隐层中。在另外的实施例中,以下中的至少一者:
-第一隐层;或
-第二隐层,
可以将信息转发到融合层中。如本文所用,术语“融合层”是指通过生成共同输出来合并第一隐层和/或第二隐层的输出的层。
在另外的优选实施例中,以下中的至少一者:
-融合层;
-第一隐层;或
-第二隐层,
可以通过具有第一输出层的第一神经网络转发信息,其中,第一输出层提供至少一个置信度值。
在另外的优选实施例中,第一神经网络可以选自以下中的至少一者:
-具有至少两个类softmax输出头的至少一个层密集网络;或
-具有至少两个线性输出头的至少一个层密集网络。
如通常所用,术语“层密集网络”是指具有至少一个密集层的神经网络。该密集层可以改变,特别是减少和/或增加神经网络的输入层的维度。如通常所用,术语“softmax输出头”是指神经网络所包括的输出层,该神经网络包括在至少两个类上提供概率分布的至少两个输出节点。两个类softmax输出头可以被相应神经网络的输出层包括。如通常所用,术语“线性输出头”是指神经网络所包括的输出层,该神经网络包括提供线性分布、特别是连续值的至少一个输出节点。两个线性输出头可以被相应神经网络的输出层包括。
在另外的优选实施例中,以下中的至少一者:
-融合层;
-第一隐层;或
-第二隐层,
可以通过具有第二输出层的第二神经网络转发信息,其中,第二输出层提供至少一个正确性值。
在另外的优选实施例中,第二神经网络可以选自以下中的至少一者:
-具有至少两个类softmax输出头的至少一个层密集网络;或
-具有至少一个线性输出头的至少一个层密集网络。
在另外的优选实施例中,以下中的至少一者:
-第一输出层;或
-第二输出层,
可以通过具有第三输出层的第三神经网络转发信息,其中,第三输出层提供至少一个动作。
在另外的优选实施例中,第三神经网络可以选自以下中的至少一者:
-具有至少两个类softmax输出头的至少一个层密集网络。
在另一方面,本发明涉及一种包括指令的计算机程序,当该程序由计算机执行时,这些指令使计算机实施根据前述方面或实施例中任一项所述的方法。
如通常所用,术语“计算机程序”是指用于至少一个可编程装置(具体是计算机)的至少一个可执行指令,优选地是可执行指令序列,用于通过使用至少一个可编程装置(特别是计算机)来处理和/或解决至少一个功能和/或至少一个任务和/或至少一个问题,优选地是用于执行根据本发明内描述的任何方面或实施例的方法中的任一种方法的一些或所有步骤。通常,指令被组合到计算机程序代码和/或以编程语言提供。通常通过使用至少一个计算机所包括的处理设备来处理计算机程序。为此目的,计算机程序可以在计算机上运行。计算机程序代码可以提供在数据存储介质或单独的设备(诸如光学存储介质)上,例如提供在光盘上,直接提供在计算机或数据处理设备上,或者经由网络(诸如经由内部网络或经由互联网)提供。对于关于计算机程序的进一步细节,可以参考如本文别处披露的根据本发明的方法。
在另外的方面,本发明涉及一种经训练的机器学习模型,其已经根据前述方面或实施例中的任一项进行了训练。如本文所用,术语“经训练的机器学习”是指机器学习模型的经训练的模型,具体是包括至少一个神经网络,特别是包括适于在视力测试程序的至少一个测试循环期间确定置信度值的参数。可以通过分析训练数据或另外的训练数据来调整机器学习模型的参数,特别是相应神经网络的参数。
在另外的方面,本发明涉及一种用于训练机器学习模型以在视力测试程序的至少一个测试循环期间确定置信度值的训练装置,其中,该训练装置被配置为实施用于训练机器学习模型以在视力测试程序的至少一个测试循环期间确定置信度值的计算机实现的方法,其中,该置信度值被指定用于确定该视力测试程序的至少一个后续测试循环中的至少一个动作;该方法包括以下步骤:
a)提供训练数据,该训练数据包括:
-关于在视力测试程序的至少一个测试循环期间人的至少一种行为的第一信息,其中,根据在人被问询以通过提供预期响应来解决至少一个任务之后的时间间隔期间对人的观察,记录如由第一信息提供的人的至少一种行为;
-关于至少一个已知置信度值的第二信息,其中,置信度值是人在提供预期响应时的置信度水平的度量;
b)通过使用机器学习模型分析第一信息来确定人的至少一个置信度值,并且确定所确定的置信度值与如由第二信息提供的至少一个已知置信度值之间的偏差;
c)调整机器学习模型,以使所确定的置信度值与至少一个已知置信度值之间的偏差最小化;
其中,重复步骤a)至c),直到满足确定标准。
在另外的实施例中,训练装置可以被进一步配置用于实施根据前述方面或实施例中任一项所述的用于训练机器学习模型以在视力测试程序的至少一个测试循环期间确定置信度值的计算机实现的方法。
在另外的方面,本发明涉及一种用于确定人的至少一个视觉参数的视力测试装置,其中,该视力测试装置被配置用于实施用于对该人执行视力测试程序的计算机实现的方法,其中,该视力测试装置被配置用于实施用于对人执行视力测试程序的计算机实现的方法,其中,该视力测试程序包括至少两个后续测试循环,其中,测试循环至少包括以下步骤:
d)通过使用呈现设备向人呈现问询该人以提供预期响应的至少一个任务;
e)通过使用至少一个记录设备来记录测量数据,该测量数据包括:
-关于在视力测试程序的至少一个测试循环期间人的至少一种行为的第一信息,其中,根据在人被问询以通过提供预期响应来解决至少一个任务之后的时间间隔期间对人的观察,记录如由第一信息提供的人的至少一种行为;
f)通过使用处理设备使用由根据前述方面或实施例中任一项所述的方法通过分析第一信息训练的机器学习模型分析第一信息来确定人的置信度值;以及
g)通过使用处理设备基于所确定的置信度值来确定视力测试程序的至少一个后续测试循环中的至少一个动作。
在另外的实施例中,该装置可以被进一步配置用于执行根据前述方面或实施例中任一项所述的用于对人执行视力测试程序的计算机实现的方法。
在另外的优选实施例中,其中,该装置可以选自以下中的至少一者:
-移动通信设备,具体是智能电话;
-平板电脑;或
-笔记本电脑。
如通常所用,术语“平板电脑”是指便携式平板触摸屏计算机。如通常所用,术语“笔记本电脑”是指具有可移动地附接到壳体的屏幕的特殊类型的计算机,其中,屏幕可以折叠到壳体上。
在另外的实施例中,呈现设备可以选自以下中的至少一者:
-视力表;
-电子设备,特别是选自以下中的至少一者:
○屏幕;
○监测仪;
○移动通信设备,具体是智能电话;
○个人计算机;或
○智能手表。
在另外的实施例中,屏幕可以选自以下中的至少一者:
-虚拟现实头戴式装置;
-增强现实系统;
-台式计算机;
-电视机;
-智能眼镜;或
-移动通信设备,具体是智能电话。
如通常所用,术语“虚拟现实头戴式装置”是指为配戴者提供虚拟现实的头戴式设备。如通常所用,术语“增强现实系统”是指用于现实世界环境与计算机生成的感知信息之间的交互式体验的硬件。如通常所用,术语“台式计算机”是指适合用作桌子上的工作站计算机的壳体形状的计算机。如通常所用,术语“电视机”是指具有调谐器、显示器和至少一个扬声器的设备或系统,用于通过卫星或电缆中的至少一者观看和收听电视广播的目的,其中,电视机也可以用作监测仪。如通常所用,术语“智能眼镜”是指具有计算机功能并且可以具有连接的可穿戴眼镜。它们可以添加对于人的至少一只眼睛可感知的信息。
在另外的实施例中,音频记录设备可以是麦克风。
在另外的实施例中,视觉记录设备可以选自以下中的至少一者:
-相机,特别是移动通信设备的前置相机和/或后置相机中的至少一个,具体选自以下中的至少一者:
○智能电话;
○平板电脑;或
○智能手表;
-照相机;
-红外敏感相机;
-网络摄像头;
-眼睛跟踪眼镜;或
-视觉诱发电位设备。
在另外的实施例中,触觉记录设备可以是触摸屏,特别是移动通信设备、具体是智能电话的至少一个触摸屏。在另一个实施例中,该装置包括用于问询人以提供预期响应的问询设备。在另外的实施例中,问询设备可以选自以下中的至少一者:扬声器;或屏幕。在另外的实施例中,该装置可以包括数据存储单元,特别是用于存储以下中的至少一者:
-至少一个置信度值;
-至少一个正确性值;
-至少一个动作;或
-至少一个所呈现的任务。
在另外的方面,本发明涉及一种用于生成至少一个眼镜透镜的几何模型以制造该至少一个眼镜透镜的方法,其中,生成几何模型包括:
-通过使用与至少一个屈光值相关的数据来生成用于人的至少一只眼睛的至少一个眼镜透镜的几何模型;以及
-通过实施用于对人执行视力测试程序的计算机实现的方法来确定与至少一个屈光值相关的数据,其中,该视力测试程序包括至少两个后续测试循环,其中,测试循环至少包括以下步骤:
d)通过使用呈现设备向人呈现问询该人以提供预期响应的至少一个任务;
e)通过使用至少一个记录设备来记录测量数据,该测量数据包括:
-关于在视力测试程序的至少一个测试循环期间人的至少一种行为的第一信息,其中,根据在人被问询以通过提供预期响应来解决至少一个任务之后的时间间隔期间对人的观察,记录如由第一信息提供的人的至少一种行为;
f)通过使用处理设备使用由根据前述方面或实施例中任一项所述的方法训练的机器学习模型分析第一信息来确定人的置信度值;以及
g)通过使用处理设备基于所确定的置信度值来确定视力测试程序的至少一个后续测试循环中的至少一个动作。
如通常所用,术语“生成”或其任何语法变型是指设计用于人的至少一只眼睛的至少一个光学透镜的几何模型。如本文所用,术语“眼镜透镜的几何模型”是指至少一个眼镜透镜的几何数据集,特别是仅包括该至少一个眼镜透镜的几何数据。几何数据可以是要制造的至少一个眼镜透镜的至少一个曲面的至少一个半径。如通常所用,术语“眼镜透镜”是指用于确定和/或矫正光学透镜配戴者的有缺陷视力的光学透镜,其中,基于标准3.5.2,光学透镜被戴在用户的眼睛前方,由此避免与用户的眼睛直接接触。
在另外的实施例中,通过加工至少一个透镜毛坯并考虑至少一个眼镜透镜的几何模型来制造至少一个眼镜。在制造至少一个眼镜透镜的过程中,最终使至少一个眼镜透镜的硬拷贝可供人使用。
在另外的实施例中,可以通过实施根据前述方面或实施例中任一项所述的用于对人执行视力测试程序的计算机实现的方法来确定与至少一个屈光值相关的数据。
可以设想用于实施根据本发明的方法的各种实施例。根据第一实施例,所有方法步骤可以通过使用单个处理设备来执行,诸如计算机,尤其是虚拟现实头戴式装置、增强现实系统、台式计算机、电视机、智能眼镜、或移动通信设备(具体是智能电话)。在该实施例中,单个处理设备可以被配置为专门执行至少一个计算机程序、特别是如在根据本发明的方法中的至少一种方法中使用的被配置为执行至少一种算法的至少一行计算机程序代码。在本文中,在单个处理设备上执行的计算机程序可以包括使计算机执行根据本发明的方法中的至少一种方法的所有指令。可替代地或另外地,可以通过使用至少一个远程处理设备来执行至少一个方法步骤,该远程处理设备尤其选自服务器或云计算机中的至少一个,当执行至少一个方法步骤时,该远程处理设备不位于用户现场。在该另外的实施例中,计算机程序可以包括要由至少一个远程处理设备执行以实施至少一个方法步骤的至少一个远程部分。进一步地,计算机程序可以包括至少一个界面,该至少一个界面被配置为向和/或从计算机程序的至少一个远程部分转发和/或接收数据。
关于现有技术,本发明表现出以下优点。
机器学习模型被训练用于确定置信度值和/或正确性值,具体是用于确定至少一个动作。由此,在视力测试程序期间评估人的行为,具体是评估人的至少一只眼睛的特定视觉参数。因此,可以由人在没有专业人员指导的情况下单独地执行相应的测量。可替代地,专业人员可以提供额外的支持。
结果,接受视力测试程序的人可以更加信任视力测试程序的结果,特别是因为视力测试程序可能感觉更自然,尤其是由于至少一个动作取决于人的行为。进一步地,可以以与从专业人员(特别是验光师、眼科医生和/或技术人员)提供反馈类似的方式向人提供反馈。
由于至少一个动作基于置信度值的事实,视力测试程序可以以更少的步骤执行,由此更快地执行,因为可以更快地接近结果。
如本文所用,术语“具有”、“包括”或“包含”或其任意语法变型以非排他性方式使用。因此,这些术语既可以是指除了由这些术语介绍的特征之外在本上下文中描述的实体中不存在其他特征的情况,也可以是指存在一个或多个其他特征的情况。作为示例,表述“A具有B”、“A包括B”和“A包含B”都可以是指A中除B之外不存在其他要素的情况(即A仅由B组成的情况),也可以是指除B之外实体A中还存在一个或多个其他要素的情况,比如要素C、要素C和要素D、或者甚至其他要素。
如本文中进一步使用的,术语“优选地”、“更优选地”、“特别地”、“更特别地”或类似术语与可选的特征结合使用,而不限制替代的可能性。因此,由这些术语介绍的特征是可选的特征,并不旨在以任何方式限制权利要求的范围。如技术人员将认识到的,本发明可以通过使用替代性特征来执行。类似地,由“在实施例中”或类似表述介绍的特征旨在是可选的特征,而不受关于本发明的替代性实施例的任何限制,没有关于本发明范围的任何限制,也没有关于以这种方式介绍的特征与本发明的其他特征相结合的可能性的任何限制。
实施例1.一种特别适合用于训练机器学习模型以在视力测试程序的至少一个测试循环期间确定置信度值的计算机实现的方法,其中,该置信度值被指定用于确定该视力测试程序的至少一个后续测试循环中的至少一个动作;该方法包括以下步骤:
a)提供训练数据,该训练数据包括:
-关于在视力测试程序的至少一个测试循环期间人的至少一种行为的第一信息,其中,根据在该人被问询以通过提供预期响应来解决至少一个任务之后的时间间隔期间对该人的观察,记录如由该第一信息提供的该人的至少一种行为;
-关于至少一个已知置信度值的第二信息;
b)通过使用机器学习模型分析该第一信息来确定该人的至少一个置信度值,其中,该置信度值是该人在提供该预期响应时的置信度水平的度量,并且确定所确定的置信度值与如由该第二信息提供的该至少一个已知置信度值之间的偏差;
c)调整该机器学习模型,以使所确定的置信度值与该至少一个已知置信度值之间的偏差最小化;
其中,重复步骤a)至c),直到满足确定标准。
实施例2.根据前述实施例中任一项所述的方法,其中,该确定标准选自:
-该偏差低于阈值;
-在训练循环中确定的偏差与在前一训练循环中确定的偏差之间的差异低于另外的阈值,其中,训练循环包括步骤a)至c);
-达到预定数量的训练循环;或
-到达预定训练时间间隔的终点。
实施例3.根据前述实施例中任一项所述的方法,其中,关于该第二信息的指示从以下中的至少一者获得:
-在执行该视力测试程序方面有经验的专业人员;
-该人,特别是在该视力测试程序期间被问询以提供关于该置信度值的指示之后;
-监测该人的至少一个生命体征,特别是其中,该至少一个生命体征选自血压或心跳频率或眨眼频率中的任一者;或
-该人提供响应、特别是该预期响应所需的时间值。
实施例4.根据前述实施例中任一项所述的方法,其中,该专业人员是以下中的至少一者:
-配镜师;
-眼科医生;
-技术人员;
-心理学家;或
-护士。
实施例5.根据前述实施例中任一项所述的方法,其中,该机器学习模型被另外训练用于确定正确性值,其中,该至少一个正确性值是由该人提供的响应是该预期响应的概率的度量,
-其中,该第一信息进一步包括关于由该人提供的响应的信息,并且
-其中,该训练数据进一步包括关于至少一个已知正确性值的第三信息;
其中,通过使用该机器学习模型分析该第一信息来确定该至少一个正确性值,其中,确定所确定的正确性值与如由该第三信息提供的该已知正确性值之间的第一另外的偏差,其中,重复另外的训练,直到满足第一另外的确定标准。
实施例6.根据前述实施例中任一项所述的方法,其中,该第一另外的确定标准选自:
-该第一另外的偏差低于另外的阈值;
-在训练循环中确定的第一另外的偏差与在前一训练循环中确定的第一另外的偏差之间的差异低于第一另外的阈值,其中,训练循环包括步骤a)至c);
-达到预定第一另外的数量的训练循环;或
-到达预定第一另外的训练时间间隔的终点。
实施例7.根据前述实施例中任一项所述的方法,其中,该机器学习模型包括:
-用于确定该置信度值的第一神经网络;和/或
-用于确定该正确性值的第二神经网络,
特别是其中,该第一神经网络不同于该第二神经网络。
实施例8.根据前述实施例中任一项所述的方法,其中,该机器学习模型被另外训练用于确定该视力测试程序的至少一个后续测试循环中的至少一个动作,其中,该训练数据进一步包括:
-关于至少一个已知动作的第四信息,
其中,通过使用该机器学习模型分析所确定的至少一个置信度值来确定该至少一个动作,其中,确定至少一个所确定的动作与由该第四信息提供的该至少一个已知动作之间的另外的偏差,其中,重复另外的训练,直到满足第二另外的确定标准。
实施例9.根据前述实施例中任一项所述的方法,其中,该第二另外的确定标准选自:
-该第二另外的偏差低于另外的阈值;
-在训练循环中确定的第二另外的偏差与在前一训练循环中确定的第二另外的偏差之间的差异低于第二另外的阈值,其中,训练循环包括步骤a)至c);
-达到预定第二另外的数量的训练循环;或
-到达预定第二另外的训练时间间隔的终点。
实施例10.根据前述实施例中任一项所述的方法,其中,该机器学习模型进一步包括:
-用于确定该至少一个动作的第三神经网络,
特别是其中,该第三神经网络不同于该第一神经网络和该第二神经网络。
实施例11.根据前述实施例中任一项所述的方法,其中,确定该至少一个动作包括另外分析该至少一个正确性值。
实施例12.根据前述实施例中任一项所述的方法,其中,在执行该视力测试程序方面有经验的专业人员的评估中确定关于该至少一个已知动作的第四信息。
实施例13.根据前述实施例中任一项所述的方法,其中,该机器学习模型是根据前述实施例中任一项而被训练用于确定该至少一个置信度值之前在适用于该视力测试程序的领域中训练的机器学习模型。
实施例14.根据前述实施例中任一项所述的方法,其中,适用于该视力测试程序的领域选自以下中的至少一者:
-声音分类或声音回归;
-面部表情分类或面部表情回归;或
-身体表情分类或身体表情回归
实施例15.一种特别适合用于对人执行视力测试程序的计算机实现的方法,其中,该视力测试程序包括至少两个后续测试循环,其中,测试循环至少包括以下步骤:
d)通过使用呈现设备向人呈现问询该人以提供预期响应的至少一个任务;
e)通过使用至少一个记录设备来记录测量数据,该测量数据包括:
-关于在视力测试程序的至少一个测试循环期间人的至少一种行为的第一信息,其中,根据在该人被问询以通过提供预期响应来解决至少一个任务之后的时间间隔期间对该人的观察,记录如由该第一信息提供的该人的至少一种行为;
f)通过使用处理设备使用由根据前述实施例中任一项所述的方法训练的机器学习模型分析该第一信息来确定该人的置信度值;以及
g)通过基于所确定的置信度值来确定该视力测试程序的至少一个后续测试循环中的至少一个动作。
实施例16.根据前述实施例中任一项所述的方法,其中,使用至少一个所确定的动作在至少一个后续测试循环中重复步骤d)至f)。
实施例17.根据前述实施例中任一项所述的方法,其中,该置信度值选自:
-至少一个离散标度,特别是其中,该置信度值选自至少两个个体值;或
-至少一个连续标度,特别是其中,该连续标度的范围从该人完全自信到该人完全不确定。
实施例18.根据前一实施例所述的方法,其中,
-该置信度值的第一值表示该人对于提供该预期响应是自信的,并且
-该置信度值的第二值表示该人对于提供该预期响应是不确定的。
实施例19.根据前一实施例所述的方法,其中,该置信度值选自至少三个个体值。
实施例20.根据前一实施例所述的方法,其中,
-该置信度值的第一值表示该人对于提供该预期响应是自信的,并且
-该置信度值的第二值表示该人对于提供该预期响应是中立的,并且
-该置信度值的第三值表示该人对于提供该预期响应是不确定的。
实施例21.根据前一实施例所述的方法,其中,
-如由该第二信息提供的该至少一个已知置信度值具有与所确定的置信度值相同数量的值;并且其中,
-如由该第二信息提供的该至少一个已知置信度值的个体值表示与所确定的置信度值的值相同的关于置信度值的同一条信息。
实施例22.根据前述实施例中任一项所述的方法,其中,该时间间隔在问询该人以提供该预期响应的第一时间点开始。
实施例23.根据前述实施例中任一项所述的方法,其中,该时间间隔在第二时间点结束,在该第二时间点之后该人已经提供了响应或在该第二时间点时预定应答时间已经到期。
实施例24.根据前述实施例中任一项所述的方法,其中,在至少一个相继测试循环中使用至少一个所确定的动作。
实施例25.根据前述实施例中任一项所述的方法,其中,该至少一个动作通过以下中的至少一者确定:
-通过使用该处理设备由根据前述实施例中任一项所述的方法训练的机器学习模型;
-执行该视力测试程序的专业人员;或
-预定的响应-动作方案,特别是通过使用该处理设备。
实施例26.根据前述实施例中任一项所述的方法,其中,该测量数据进一步包括关于如由人提供的对该至少一个任务的响应的第五信息。
实施例27.根据前述实施例中任一项所述的方法,其中,该第五信息被包括在该第一信息中。
实施例28.根据前述实施例中任一项所述的方法,其中,该至少一个动作进一步基于以下中的至少一者:
-该至少一个正确性值;或
-该人提供响应、特别是该预期响应所需的时间值;
-至少一个所呈现的任务;
-该视觉测试程序的进展。
实施例29.根据前述实施例中任一项所述的方法,其中,以下中的至少一者:
-该至少一个置信度值;
-该至少一个正确性值;
-该至少一个动作;或
-至少一个所呈现的任务,
存储在数据存储单元中。
实施例30.根据前述实施例中任一项所述的方法,其中,进一步基于以下中的至少一者来确定至少一个后续测试循环中的至少一个动作:
-预定义数量的多个置信度值;
-预定义数量的多个正确性值;
-预定义数量的多个动作;或
-预定义数量的多个所呈现的任务,
其特别是在至少2、5、10、20或30个不同的测量中执行。
实施例31.根据前述实施例中任一项所述的方法,其中,该至少一个正确性值选自至少两个个体值。
实施例32.根据前述实施例中任一个所述的方法,其中,
-第一值表示如由该人提供的响应是该预期响应,
-第二值表示如由该人提供的响应不是该预期响应。
实施例33.根据前述实施例中任一项所述的方法,其中,执行该视力测试程序以确定人的至少一种状况,特别是至少一只眼睛的至少一种状况,特别是其中,该状况是该人的视力的表现指标,特别是该人的损伤。
实施例34.根据前述实施例中任一项所述的方法,其中,该人的至少一只眼睛的至少一种状况是该人的至少一只眼睛的至少一个视觉参数。
实施例35.根据前述实施例中任一项所述的方法,其中,该至少一个视觉参数选自该人的至少一只眼睛的屈光不正或视觉表现中的至少一者。
实施例36.根据前述实施例中任一项所述的方法,其中,该人的至少一只眼睛的屈光不正是与以下相关的值中的至少一者:
-球镜度;
-柱镜度;
-柱镜轴位;或
-下加光焦度。
实施例37.根据前述实施例中任一项所述的方法,其中,该视觉表现选自以下中的至少一者:
-视敏度,特别是选自以下中的至少一者:
○近场视敏度;
○中场视敏度;或
○远场视敏度;
-对比敏感度;或
-色觉;或
-视野。
实施例38.根据前述实施例中任一项所述的方法,其中,该至少一个预期响应是以下中的至少一者:
-对该至少一个任务的解决方案的言语指示;
-对该至少一个任务的解决方案的非言语指示。
实施例39.根据前述实施例中任一项所述的方法,其中,该第一信息仅包括在至少一个人提供响应的时间间隔中记录的信息。
实施例40.根据前述实施例中任一项所述的方法,其中,在预处理例程中处理该第一信息以仅包括关于该人的预定身体部位的信息,该预定身体部位特别是选自以下中的至少一者:该人的面部;或该人的上半身。
实施例41.根据前述实施例中任一项所述的方法,其中,在预处理例程中处理该第一信息以仅包括关于该人表现出预定的至少一种行为的信息。
实施例42.根据前述实施例中任一项所述的方法,其中,关于该人的至少一种行为的第一信息包括关于以下中的至少一者的信息:
-该人的身体中的至少一种表情,特别是该人的面部中的至少一种表情;
-该人的声音中的至少一种表情;
-该人的头部的特征行为,特别是引起头部朝向或背离该呈现设备的移动;
-该人的至少一只眼睛的移动的特征行为;
-该人的至少一只眼睛的眼睑的特征行为;
-该人的至少一只手臂的特征行为。
实施例43.根据前述实施例中任一项所述的方法,其中,该人的身体中的至少一种表情选自以下中的至少一者:
-该人的面部中的至少一种表情;特别是该人的至少一只眼睛的表情,特别是该人的眼睛半眯着;
-挠头,特别是通过使用该人的手;或
-该人的头部靠近或背离该呈现设备移动,特别地由此调整该人的至少一只眼睛与该呈现设备之间的距离。
实施例44.根据前述实施例中任一项所述的方法,其中,声音中的至少一种表情选自以下中的至少一者:
-音量;
-持续时间;
-不规则停顿;
-转调;
-频率或音高,特别是平均频率或音高;或
-转调。
实施例45.根据前述实施例中任一项所述的方法,其中,至少一个记录设备选自以下中的至少一者:
-音频记录设备;
-视觉记录设备;
-触觉记录设备;或
-距离记录设备。
实施例46.根据前述实施例中任一项所述的方法,其中,通过使用该音频记录设备、特别是麦克风来记录该人的声音中的至少一种表情。
实施例47.根据前述实施例中任一项所述的方法,其中,该人的身体中的至少一种表情通过使用该视觉记录设备来记录,该视觉记录设备特别是选自以下中的至少一者:
-相机,特别是移动通信设备的前置相机和/或后置相机中的至少一个,具体选自以下中的至少一者:
○智能电话;
○平板电脑;或
○智能手表;
-照相机;
-红外相机;
-网络摄像头;
-眼睛跟踪眼镜;或
-视觉诱发电位设备。
实施例48.根据前述实施例中任一项所述的方法,其中,解决该至少一个任务由该人使用至少一个辅助设备来执行,特别是对该人解决该至少一个任务的能力具有一定程度的影响的至少一个辅助设备。
实施例49.根据前述实施例中任一项所述的方法,其中,该至少一个辅助设备被配置为抵消阻止该人解决该至少一个任务的该人的损伤。
实施例50.根据前述实施例中任一项所述的方法,其中,至少一个辅助设备选自以下中的至少一者:
-该人所使用的视觉辅助装置,特别是眼镜;或
-综合屈光检查仪;
-光谱滤波器;
-偏振滤波器;或
-液体光学透镜设备。
实施例51.根据前述实施例中任一项所述的方法,其中,该至少一个辅助设备影响该人解决该至少一个任务的能力的程度选自:
-该人在解决该至少一个任务时使用的视觉辅助装置的至少一个屈光值;
-该人在解决该至少一个任务时使用的综合屈光检查仪或液体光学透镜的至少一个屈光值;
-该人在解决该至少一个任务时使用的光谱滤波器的至少一个光谱特性;或
-该人在解决该至少一个任务时使用的偏振滤波器的至少一个偏振特性。
实施例52.根据前述实施例中任一项所述的方法,其中,该视力测试程序的至少一个结果根据在最后一个测试循环中使用的至少一个辅助设备来确定;特别是根据在最后一个测试循环中使用的至少一个辅助设备影响该人解决该至少一个任务的能力的至少一个程度来确定。
实施例53.根据前述实施例中任一项所述的方法,其中,该至少一个结果是光学透镜的至少一个屈光值,特别是被配置用于补偿该人的至少一只眼睛的至少一种屈光不正。
实施例54.根据前述实施例中任一项所述的方法,其中,该光学透镜选自以下中的至少一者:
-眼镜透镜;
-接触透镜;或
-眼内透镜。
实施例55.根据前述实施例中任一项所述的方法,其中,该至少一个动作选自以下中的至少一者:
-向该人给出至少一个所提供的响应是否是该预期响应的反馈,特别是在该至少一个后续测试循环中呈现该至少一个任务之前;
-问询该人关于至少一个确定性的估计的指示,特别是在该至少一个后续测试循环中呈现该至少一个任务之前;
-改变该至少一个后续测试循环中的应答时间;
-维持至少一个所呈现的任务并在该至少一个后续测试循环中再次呈现至少一个所呈现的任务;
-改变至少一个所呈现的任务并在该后续测试循环中呈现与至少一个所呈现的任务不同的至少一个另外的任务;
-维持所使用的辅助设备并在该至少一个后续测试循环中再次使用所使用的辅助设备;
-改变所使用的辅助设备并在该后续测试循环中使用与所使用的辅助设备不同的至少一个另外的辅助设备;
-改变在该呈现设备上呈现的符号的至少一个参数;特别是其中,该至少一个参数选自以下中的至少一者:该符号的○大小,
○取向,
○颜色,或
○偏振;
以及在至少一个后续测试循环中显示考虑所改变的参数的另外的符号;
-问询该人关于该人的眼睛与该显示设备之间的距离的变化的指示,特别是在该至少一个后续测试循环中呈现该至少一个任务之前;或
-问询该人关于该人的眼睛与该显示设备和/或符号之间的取向的变化的指示,特别是在该至少一个后续测试循环中呈现该至少一个任务之前。
实施例56.根据前述实施例中任一项所述的方法,其中,与至少一个所呈现的任务相比,该至少一个另外的任务具有不同的难度,特别是增大或减小的难度。
实施例57.根据前述实施例中任一项所述的方法,其中,该至少一个另外的任务与至少一个所呈现的任务之间的难度的变化与至少一个所确定的置信度值相关。
实施例58.根据前述实施例中任一项所述的方法,其中,与至少一个所使用的辅助设备相比,该至少一个另外的辅助设备对该人解决该至少一个任务的能力具有不同程度的影响。
实施例59.根据前述实施例中任一项所述的方法,其中,至少一个所使用的辅助设备与该至少一个另外的辅助设备之间的程度的变化与至少一个所确定的置信度值相关。
实施例60.根据前述实施例中任一项所述的方法,其中,选择该至少一个另外的辅助设备影响该人解决该至少一个任务的能力的程度,以提高该人解决任务的能力。
实施例61.根据前述实施例中任一项所述的方法,其中,该呈现设备选自以下中的至少一者:
-视力表;
-电子设备,特别是选自以下中的至少一者:
○屏幕;
○监测仪;
○移动通信设备,具体是智能电话;
○个人计算机;或
○智能手表。
实施例62.根据前述实施例中任一项所述的方法,其中,通过使用问询设备来问询该人以提供该预期响应,其中,该问询设备特别是选自以下中的至少一者:屏幕;或扬声器。
实施例63.根据前述实施例中任一项所述的方法,其中,至少一个任务选自以下中的至少一者:
-提供关于至少一个符号的类型的指示;
-提供关于该至少一个符号的至少一个参数的指示,其中,该至少一个参数选自:
○取向;
○颜色;
○对比度;或
○偏振;或
-提供关于在该呈现设备上呈现并且具有共同特征的该至少一个符号中的第一多个符号的数量的指示,特别是其中,该至少一个符号中的第二多个符号另外呈现在该呈现设备上并且不具有共同特征。
实施例64.根据前述实施例中任一项所述的方法,其中,该至少一个任务的难度与以下中的至少一者相关:
-该至少一个符号的大小;
-该至少一个符号的复杂度;
-符号的取向;
-符号的颜色;或
-符号的对比度。
实施例65.根据前述实施例中任一项所述的方法,其中,该至少一个符号具有选自以下中的至少一者的类型:
-字母;
-数字;
-标志;或
-箭头。
实施例66.根据前述实施例中任一项所述的方法,其中,在至少一个测试循环期间记录的测量数据用作根据前述实施例中任一项所述的用于另外训练机器学习模型以确定置信度值的计算机实现的方法中的另外的训练数据。
实施例67.根据前述实施例中任一项所述的方法,其中,该测量数据包括以下中的至少一者:
-关于人的至少一种行为的第一信息;
-关于至少一个已知置信度值的第二信息:
-关于至少一个已知正确性值的第三信息;
-关于至少一个已知动作的第四信息;或
-关于如由人提供的响应的第五信息。
实施例68.根据前述实施例中任一项所述的方法,其中,至少一个另外的训练数据包括以下的测量数据:至少2;3;4;5;7;10;15;20;25;50;75;100;125;150;200;500;1000;2000;5000;10000;20000;50000个测试循环。
实施例69.根据前述实施例中任一项所述的方法,其中,该测量数据从视力测试装置传输到训练装置,特别是通过使用连接接口,其中,该测量数据的至少一部分由该视力测试装置记录,其中,该训练装置执行至少一个另外的训练。
实施例70.根据前述实施例中任一项所述的方法,其中,更新的机器学习模型从该训练装置传输到该视力测试装置,特别是通过使用连接接口,其中,该视力测试装置通过使用该更新的经训练的机器学习模型来执行另外的测试循环。
实施例71.根据前述实施例中任一项所述的方法,其中,包括该第一信息的数据选自以下中的至少一者:
-通过使用该音频记录设备记录的音频数据;
-通过使用该视觉记录设备记录的视觉数据;
-通过使用该触觉记录设备记录的触觉数据;或
-通过使用该距离记录设备记录的距离数据。
实施例72.根据前述实施例中任一项所述的方法,其中,该触觉记录设备是触摸屏。
实施例73.根据前述实施例中任一项所述的方法,其中,该视觉数据选自以下中的至少一者:
-图像;或
-视频;
特别是在该时间间隔期间记录的,更特别是在该人提供响应的特定时间间隔记录的。
实施例74.根据前述实施例中任一项所述的方法,其中,在将该音频数据输入到该机器学习模型中之前对该音频数据进行处理以确定该音频数据的音频频谱图,特别是通过使用以下中的至少一者:
-傅里叶变换方法;或
-小波变换方法,
特别是通过使用数字信号处理器来实现的。
实施例75.根据前述实施例中任一项所述的方法,其中,该机器学习模型包括用于该音频数据的第一输入层,该音频数据、特别是该音频频谱图被输入到该第一输入层中。
实施例76.根据前述实施例中任一项所述的方法,其中,在将该视觉数据输入到该机器学习模型中之前对该视觉数据进行处理以提取该视觉数据的包括关于该人的面部的信息的部分,特别是通过使用以下中的至少一者:
-选择帧的特定子集,特别是其中,选择在该人提供响应期间记录的帧,更特别是其中,选择在包括该人提供响应的预定时间间隔内记录的另外的帧;
-面部界标检测;
-面部分类;或
-面部的裁剪,特别是基于该面部界标检测,
特别是通过使用数字信号处理器来实现的。
实施例77.根据前述实施例中任一项所述的方法,其中,该机器学习模型包括用于该视觉数据的第二输入层,该视觉数据、特别是该视觉数据的包括关于该人的面部的信息的部分被输入到该第二输入层中。
实施例78.根据前述实施例中任一项所述的方法,其中,该第一输入层通过第四编码神经网络转发信息,该第四编码神经网络特别是选自以下中的至少一者:
-卷积神经网络;
-VGG16;
-VGG19;
-Xception;
-InceptionV3;
-ResNet50;
-ResNet101;
-MobileNet;或
-MobileNetV2。
实施例79.根据前述实施例中任一项所述的方法,其中,该第四编码神经网络将信息转发到第一隐层中。
实施例80.根据前述实施例中任一项所述的方法,其中,该第二输入层通过第五编码神经网络转发信息,该第五编码神经网络特别是选自以下中的至少一者:
-卷积神经网络;
-VGG16;
-VGG19;
-Xception;
-InceptionV3;
-ResNet50;
-ResNet101;
-MobileNet;或
-MobileNetV2。
实施例81.根据前述实施例中任一项所述的方法,其中,该第五编码神经网络将信息转发到第二隐层中。
实施例82.根据前述实施例中任一项所述的方法,其中,以下中的至少一者:
-该第一隐层;或
-该第二隐层,
将信息转发到融合层中。
实施例83.根据前述实施例中任一项所述的方法,其中,以下中的至少一者:
-该融合层;
-该第一隐层;或
-该第二隐层,
通过具有第一输出层的第一神经网络转发信息,其中,该第一输出层提供该至少一个置信度值。
实施例84.根据前述实施例中任一项所述的方法,其中,该第一神经网络选自以下中的至少一者:
-具有至少两个类softmax输出头的至少一个层密集网络;或
-具有线性输出头的至少一个层密集网络。
实施例85.根据前述实施例中任一项所述的方法,其中,以下中的至少一者:
-该融合层;
-该第一隐层;或
-该第二隐层,
通过具有第二输出层的第二神经网络转发信息,其中,该第二输出层提供该至少一个正确性值。
实施例86.根据前述实施例中任一项所述的方法,其中,该第二神经网络选自以下中的至少一者:
-具有至少两个类softmax输出头的至少一个层密集网络;或
-具有线性输出头的至少一个层密集网络。
实施例87.根据前述实施例中任一项所述的方法,其中,以下中的至少一者:
-该第一输出层;或
-该第二输出层,
通过具有第三输出层的第三神经网络转发信息,其中,该第三输出层提供该至少一个动作。
实施例88.根据前述实施例中任一项所述的方法,其中,该第三神经网络选自以下中的至少一者:
-具有至少两个类softmax输出头的至少一个层密集网络;或
-具有线性输出头的至少一个层密集网络。
实施例89.一种包括指令的计算机程序,当该程序由计算机执行时,这些指令使该计算机执行根据前述实施例中任一项所述的方法。
实施例90.一种根据前述方法实施例中任一项而训练的经训练的机器学习模型。
实施例91.一种用于训练机器学习模型以在视力测试程序的至少一个测试循环期间确定置信度值的训练装置,其中,该训练装置被配置为实施用于训练机器学习模型以在视力测试程序的至少一个测试循环期间确定置信度值的计算机实现的方法,其中,该置信度值被指定用于确定该视力测试程序的至少一个后续测试循环中的至少一个动作;该方法包括以下步骤:
a)提供训练数据,该训练数据包括:
-关于在视力测试程序的至少一个测试循环期间人的至少一种行为的第一信息,其中,根据在该人被问询以通过提供预期响应来解决至少一个任务之后的时间间隔期间对该人的观察,记录如由该第一信息提供的该人的至少一种行为;
-关于至少一个已知置信度值的第二信息,其中,该置信度值是该人在提供该预期响应时的置信度水平的度量;
b)通过使用机器学习模型分析该第一信息来确定该人的至少一个置信度值,并且确定所确定的置信度值与如由该第二信息提供的该至少一个已知置信度值之间的偏差;
c)调整该机器学习模型,以使所确定的置信度值与该至少一个已知置信度值之间的偏差最小化;
其中,重复步骤a)至c),直到满足确定标准。
实施例92.根据前述权利要求中任一项所述的训练装置,其中,该训练装置被进一步配置用于实施根据前述实施例中任一项所述的用于训练机器学习模型以在视力测试程序的至少一个测试循环期间确定置信度值的计算机实现的方法。
实施例93.一种用于确定人的至少一个视觉参数的视力测试装置,其中,该视力测试装置被配置为实施用于对该人执行视力测试程序的计算机实现的方法,其中,该视力测试程序包括至少两个后续测试循环,其中,测试循环至少包括以下步骤:
d)通过使用呈现设备向人呈现问询该人以提供预期响应的至少一个任务;
e)通过使用至少一个记录设备来记录测量数据,该测量数据包括:
-关于在视力测试程序的至少一个测试循环期间人的至少一种行为的第一信息,其中,根据在该人被问询以通过提供预期响应来解决至少一个任务之后的时间间隔期间对该人的观察,记录如由该第一信息提供的该人的至少一种行为;
f)通过使用处理设备使用由根据前述实施例中任一项所述的方法通过分析该第一信息训练的机器学习模型分析该第一信息来确定该人的置信度值;以及
g)通过使用该处理设备基于所确定的置信度值来确定该视力测试程序的至少一个后续测试循环中的至少一个动作。
实施例94.根据前述权利要求中任一项所述的训练装置或视力测试装置,其中,该装置被进一步配置用于执行根据前述实施例中任一项所述的用于对人执行视力测试程序的计算机实现的方法。
实施例95.根据前述装置实施例中任一项所述的训练装置或视力测试装置,其中,该装置选自以下中的至少一者:
-移动通信设备,具体是智能电话;
-平板电脑;或
-笔记本电脑。
实施例96.根据前述装置实施例中任一项所述的训练装置或视力测试装置,其中,该呈现设备选自以下中的至少一者:
-视力表;
-电子设备,特别是选自以下中的至少一者:
○屏幕;
○监测仪;
○移动通信设备,具体是智能电话;
○个人计算机;或
○智能手表。
实施例97.根据前述装置实施例中任一项所述的训练装置或视力测试装置,其中,该屏幕选自以下中的至少一者:
-虚拟现实头戴式装置;
-增强现实系统;
-台式计算机;
-电视机;
-智能眼镜;或
-移动通信设备,具体是智能电话。
实施例98.根据前述装置实施例中任一项所述的训练装置或视力测试装置,其中,该音频记录设备是麦克风。
实施例99.根据前述装置实施例中任一项所述的训练装置或视力测试装置,其中,该视觉记录设备选自以下中的至少一者:
-相机,特别是移动通信设备的前置相机和/或后置相机中的至少一个,具体选自以下中的至少一者:
○智能电话;
○平板电脑;或
○智能手表;
-照相机;
-红外敏感相机;
-网络摄像头;
-眼睛跟踪眼镜;或
-视觉诱发电位设备。
实施例100.根据前述装置实施例中任一项所述的训练装置或视力测试装置,其中,该触觉记录设备是触摸屏,特别是移动通信设备、具体是智能电话的至少一个触摸屏。
实施例101.根据前述装置实施例中任一项所述的训练装置或视力测试装置,其中,该装置包括用于问询人以提供预期响应的问询设备。
实施例102.根据前述装置实施例中任一项所述的训练装置或视力测试装置,其中,该问询设备选自以下中的至少一者:扬声器;或屏幕。
实施例103.根据前述装置实施例中任一项所述的训练装置或视力测试装置,其中,该装置包括数据存储单元,特别是用于存储以下中的至少一者:
-该至少一个置信度值;
-该至少一个正确性值;或
-该至少一个动作。
实施例104.一种用于生成至少一个眼镜透镜的几何模型以制造该至少一个眼镜透镜的方法,其中,生成该几何模型包括:
-通过使用与至少一个屈光值相关的数据来生成用于人的至少一只眼睛的至少一个眼镜透镜的几何模型;以及
-通过实施用于对人执行视力测试程序的计算机实现的方法来确定与该至少一个屈光值相关的数据,其中,该视力测试程序包括至少两个后续测试循环,其中,测试循环至少包括以下步骤:
d)通过使用呈现设备向人呈现问询该人以提供预期响应的至少一个任务;
e)通过使用至少一个记录设备来记录测量数据,该测量数据包括:
-关于在视力测试程序的至少一个测试循环期间人的至少一种行为的第一信息,其中,根据在该人被问询以通过提供预期响应来解决至少一个任务之后的时间间隔期间对该人的观察,记录如由该第一信息提供的该人的至少一种行为;
f)通过使用处理设备使用由根据前述实施例中任一项所述的方法训练的机器学习模型分析该第一信息来确定该人的置信度值;以及
g)通过使用该处理设备基于所确定的置信度值来确定该视力测试程序的至少一个后续测试循环中的至少一个动作。
实施例105.根据前述权利要求中任一项所述的用于生产至少一个眼镜透镜的方法,通过考虑所生成的至少一个眼镜透镜的几何模型加工至少一个透镜毛坯来制造该至少一个眼镜透镜。
实施例106.根据前述权利要求中任一项所述的用于生产至少一个眼镜透镜的方法,其中,通过实施根据前述实施例中任一项所述的用于对人执行视力测试程序的计算机实现的方法来确定与至少一个屈光值相关的数据。
附图说明
优选地结合从属权利要求,在优选实施例的后续描述中更详细地披露本发明的其他可选特征和实施例。其中,如本领域技术人员将认识到的,各个可选特征可以以孤立方式以及任意可行的组合方式来实现。这里强调,本发明的范围不受优选实施例的限制。
在附图中:
图1展示了用于执行视力测试程序的示例性视力测试装置的鸟瞰图;
图2展示了在视力测试装置上运行的示例性计算机程序的示意图,该视力测试装置包括用于执行视力测试程序的计算机实现的方法;
图3a和图3b展示了计算机实现的方法所包括的机器学习模型的示例性示意图;
图4展示了用于训练机器学习模型的另外的示例性计算机实现的方法的示意图;
图5展示了示例性视力测试装置和示例性训练装置的示意图;以及
图6展示了用于生成眼镜透镜的几何模型以制造眼镜透镜的方法的示意图。
图1展示了运行经训练的机器学习模型200、特别是由视力测试装置100的处理设备110处理的经训练的机器学习模型的示例性视力测试装置100。视力测试装置100被配置用于实施用于对人300执行视力测试程序202的计算机实现的方法。视力测试程序包括至少两个后续测试循环204。稍后更详细地描述计算机实现的方法200。
可以执行视力测试程序以确定人300的至少一种状况,特别是至少一只眼睛302的至少一种状况,特别是其中,该状况是人的视力的表现指标,特别是人300的损伤。人300的至少一只眼睛302的至少一种状况可以是人300的至少一只眼睛302的至少一个视觉参数。
至少一个视觉参数可以是人300的至少一只眼睛302的屈光不正或视觉表现。屈光不正可以是与球镜度、柱镜度、柱镜轴位和/或下加光焦度相关的至少一个值。视觉表现可以是视敏度,特别是选自近场视敏度、中场视敏度或远场视敏度中的至少一者。可替代地或另外地,视觉表现可以是对比敏感度、色觉和/或视野。
如图1的示例性实施例中所描绘的,视力测试装置100是移动通信设备,具体是智能电话。可替代地,视力测试装置100可以是平板电脑或笔记本电脑。人300通过可选的辅助设备400看视力测试装置100。可以在不使用辅助设备400的情况下执行视力测试程序。如这里示例性地描绘的辅助设备400是光学透镜,特别是被眼镜架所包括的眼镜透镜。
在视力测试程序期间,在呈现设备102上向人300呈现至少一个任务。图1中描绘的呈现设备102示例性地是电子设备,具体是移动通信设备,更具体是智能电话。可替代地,呈现设备102可以选自:视力表;或至少一个另外的电子设备,具体是屏幕、监测仪、个人计算机和/或智能手表。屏幕可以选自虚拟现实头戴式装置、增强现实系统、台式计算机、电视机、智能眼镜;或移动通信设备,具体是智能电话。
在视力测试程序期间,问询人300以提供响应,具体是预期响应。进一步地,在视力测试程序期间,记录并分析人300的行为。因此,所描绘的实施例的装置100包括音频记录设备104,特别是麦克风。如进一步所描绘的,根据示例性实施例,装置100包括视觉记录设备106,特别是作为智能电话的装置100的前置相机。可替代地,视觉记录设备106可以是另外的和/或不同的相机,特别是另外的移动通信设备的后置相机。进一步可替代地,视觉记录设备106可以是照相机、红外敏感相机、网络摄像头、眼睛跟踪眼镜和/或视觉诱发电位设备。为了接收人300的响应和/或记录对人300的观察,装置100可以进一步包括触觉记录设备108。如所描绘的,触觉记录设备108可以是触摸屏,特别是示例性移动通信设备的触摸屏。视力测试装置100可以进一步包括距离记录设备112。
在图2中描绘了特别适合用于对人300执行视力测试程序202的计算机实现的方法。计算机实现的方法被实现为在视力测试装置100上执行和/或运行的计算机程序。
视力测试程序包括至少两个后续测试循环204,其中,测试循环204至少包括以下步骤:
d)通过使用呈现设备102向人300呈现问询该人300以提供预期响应的至少一个任务210;
e)通过使用至少一个记录设备来记录测量数据212,该测量数据包括:
-关于在视力测试程序的至少一个测试循环204期间人300的至少一种行为的第一信息,其中,根据在人300被问询以通过提供预期响应来解决至少一个任务之后的时间间隔期间对人300的观察,记录如由第一信息提供的人300的至少一种行为;
f)通过使用经训练的机器学习模型200分析第一信息来确定人300的置信度值214;以及
g)基于所确定的置信度值来确定该视力测试程序的至少一个后续测试循环204中的至少一个动作216。
可以使用该至少一个所确定的动作在至少一个后续测试循环204中重复步骤d)至g)。置信度值可以选自至少一个离散标度,特别是其中,置信度值选自至少两个个体值,或者选自至少一个连续标度,特别是其中,连续标度的范围从人300完全自信到人300完全不确定。可以在至少一个相继测试循环204中使用该至少一个所确定的动作。两个个体值可以是表示人300对于提供预期响应是自信的置信度值的第一值,和/或表示人300对于提供预期响应是不确定的置信度值的第二值。
可替代地,置信度值可以选自至少三个个体值,其中,置信度值的第一值表示人300对于提供预期响应是自信的,和/或其中,置信度值的第二值表示人300对于提供预期响应是中立的,和/或其中,置信度值的第三值表示人300对于提供预期响应是不确定的。
如由第二信息提供的至少一个已知置信度值可以具有与所确定的置信度值相同数量的值;和/或如由第二信息提供的至少一个已知置信度值的个体值可以表示与所确定的置信度值的值相同的关于置信度值的同一条信息。
在人300被问询以通过提供预期响应来解决至少一个任务之后的时间间隔可以在问询人300以提供预期响应时的第一时间点开始。时间间隔可以在第二时间点结束,在该第二时间点之后人300已经提供了响应和/或在该第二时间点时预定应答时间已经到期。
至少一个动作可以通过经训练的机器学习模型200、执行视力测试程序的专业人员和/或预定的响应-动作方案来确定。专业人员可以是配镜师、眼科医生、技术人员、心理学家和/或护士。测量数据可以进一步包括关于如由人300提供的响应的第五信息。第五信息可以被包括在第一信息中。至少一个动作可以进一步基于至少一个正确性值、或人300提供响应(特别是预期响应)所需的时间值、或视觉测试程序的进展、或至少一个所呈现的任务。
至少一个正确性值可以选自至少两个个体值,具体是选自恰好两个个体值。个体值可以是表示如由人300提供的响应是预期响应的第一值,以及表示如由人300提供的响应不是预期响应的第二值。至少一个预期响应可以是对至少一个任务的解决方案的言语指示,或者对至少一个任务的解决方案的非言语指示。
第一信息可以仅包括在至少一个人300提供响应的时间间隔中记录的信息。可以在预处理例程中处理第一信息以仅包括关于人300的预定身体部位的信息,该预定身体部位特别是选自以下中的至少一者:人300的面部;或人300的上半身。可以在预处理例程中处理第一信息以仅包括关于人300表现出预定的至少一种行为的信息。
关于人300的至少一种行为的第一信息可以包括关于人300的身体中的至少一种表情(特别是人300的面部中的至少一种表情)的信息。另外地或可替代地,关于人300的至少一种行为的第一信息可以包括关于人300的声音中的至少一种表情和/或人300的头部的特征行为(特别是引起头部朝向或背离呈现设备102的移动)的信息。另外地或可替代地,第一信息可以包括关于以下特征行为的信息:人300的至少一只眼睛302的移动的特征行为;人300的至少一只眼睛302的眼睑的特征行为和/或人300的至少一只手臂的特征行为。
人300的身体中的至少一种表情可以是人300的面部中的至少一种表情,特别是人300的至少一只眼睛302的表情,特别是人300的眼睛半眯着。另外地或可替代地,人的身体中的至少一种表情可以是:挠头,特别是通过使用人300的手;或者人300的头部靠近或背离呈现设备102移动,特别是由此调整人300的至少一只眼睛302与呈现设备102(具体是所呈现和/或问询的至少一个任务)之间的距离。声音中的至少一种表情可以是:音量;持续时间;不规则停顿;转调;频率和/或音高,特别是平均频率和/或音高;和/或转调。
至少一个记录设备可以是音频记录设备104、视觉记录设备106、触觉记录设备108和/或距离记录设备112。可以通过使用音频记录设备104、特别是麦克风来记录人300的声音中的至少一种表情。可以通过使用视觉记录设备106来记录人300的身体中的至少一种表情。
解决至少一个任务可以由人300使用至少一个辅助设备400来执行,特别是对人300解决至少一个任务的能力具有一定程度的影响的至少一个辅助设备400。至少一个辅助设备400可以被配置为抵消阻止人300解决至少一个任务的人300的损伤。
根据图1中描绘的示例性实施例,至少一个辅助设备400是由人300使用的视觉辅助装置,特别是作为眼镜透镜并且被眼镜所包括的光学透镜。可替代地或另外地,视觉辅助装置可以是综合屈光检查仪、光谱滤波器、偏振滤波器和/或液体光学透镜设备。可替代地,光学透镜可以是接触透镜或眼内透镜。
至少一个辅助设备400影响人300解决至少一个任务的能力的程度可以是人300在解决至少一个任务时使用的视觉辅助装置400的至少一个屈光值、人300在解决至少一个任务时使用的综合屈光检查仪或液体光学透镜的至少一个屈光值、人300在解决至少一个任务时使用的光谱滤波器的至少一个光谱特性、和/或人300在解决至少一个任务时使用的偏振滤波器的至少一个偏振特性。
视力测试程序的至少一个结果可以根据在最后一个测试循环204中使用的至少一个辅助设备400来确定,特别是根据在最后一个测试循环204中使用的至少一个辅助设备400影响人300解决至少一个任务的能力的至少一个程度来确定。至少一个结果可以是光学透镜的至少一个屈光值,特别是被配置用于补偿人300的至少一只眼睛302的至少一种屈光不正。
至少一个动作可以是向人300给出至少一个所提供的响应是否是预期响应的反馈,特别是在至少一个后续测试循环204中呈现至少一个任务之前。可替代地或另外地,至少一个动作可以是:问询人300关于至少一个确定性的估计的指示,特别是在至少一个后续测试循环204中呈现至少一个任务之前;改变至少一个后续测试循环204中的应答时间;维持至少一个所呈现的任务并在至少一个后续测试循环204中再次呈现至少一个所呈现的任务;改变至少一个所呈现的任务并在后续测试循环204中呈现与至少一个所呈现的任务不同的至少一个另外的任务;维持所使用的辅助设备400并在至少一个后续测试循环204中再次使用所使用的辅助设备;和/或改变所使用的辅助设备400并在后续测试循环204中使用与所使用的辅助设备不同的至少一个另外的辅助设备400。
可替代地或另外地,至少一个动作可以是改变在呈现设备102上呈现的符号的至少一个参数,以及在至少一个后续测试循环204中显示考虑所改变的参数的另外的符号。所改变的参数可以是大小、取向、颜色和/或偏振。可替代地或另外地,至少一个动作可以是问询人300关于人300的眼睛302与显示设备之间的距离的变化的指示,特别是在至少一个后续测试循环204中呈现至少一个任务之前。
与至少一个所呈现的任务相比,至少一个另外的任务可以具有不同的难度,特别是增大或减小的难度。至少一个另外的任务与至少一个所呈现的任务之间的难度的变化可以与至少一个所确定的置信度值相关。与至少一个所使用的辅助设备400相比,至少一个另外的辅助设备400可以对人300解决至少一个任务的能力具有不同程度的影响。至少一个所使用的辅助设备400与至少一个另外的辅助设备400之间的程度的变化可以与至少一个所确定的置信度值相关。可以选择至少一个另外的辅助设备400影响人300解决至少一个任务的能力的程度,以提高人300解决任务的能力。
至少一个任务可以是提供关于至少一个符号的类型的指示。可替代地或另外地,至少一个任务可以是提供关于至少一个符号的至少一个参数的指示,其中,至少一个参数可以选自取向、颜色、对比度或偏振。可替代地或另外地,至少一个任务可以是提供关于在呈现设备102上呈现并且具有共同特征的至少一个符号中的第一多个符号的数量的指示,特别是其中,至少一个符号中的第二多个符号另外呈现在呈现设备102上并且不具有共同特征。
至少一个任务的难度可以与至少一个符号的大小、至少一个符号的复杂度、符号的取向、符号的颜色和/或符号的对比度相关。至少一个符号可以具有可以选自字母、数字、标志或箭头的类型。
包括第一信息的数据可以是通过使用音频记录设备104记录的音频数据、通过使用视觉记录设备106记录的视觉数据、通过使用触觉记录设备108记录的触觉数据、和/或通过使用距离记录设备112记录的距离数据。视觉数据可以是图像或视频,特别是在时间间隔期间记录的,更特别是在人300提供响应时的特定时间间隔记录的。
如图3a中示例性地描绘的,用于执行视力测试程序202的计算机实现的方法在机器学习模型200中实现,该机器学习模型包括用于音频数据的第一输入层252,音频数据、特别是音频频谱图被输入到该第一输入层中。可以在将音频数据输入到机器学习模型200中之前对音频数据进行处理以确定音频数据的音频频谱图,特别是通过使用傅里叶变换方法;或小波变换方法,特别是通过使用数字信号处理器来实现的。
示例性机器学习模型200可以进一步包括用于视觉数据的第二输入层254,视觉数据、特别是视觉数据的包括关于人300的面部的信息的部分被输入到该第二输入层中。可以在将视觉数据输入到机器学习模型200中之前对视觉数据进行处理以提取视觉数据的包括关于人300的面部的信息的部分,特别是通过:选择帧的特定子集,特别是其中,选择在人提供响应期间记录的帧,更特别是其中,选择在包括人提供响应的预定时间间隔内记录的另外的帧;面部界标检测;面部分类;和/或面部的裁剪,特别是基于面部界标检测。可以通过使用数字信号处理器来实现对视觉数据的该部分的提取。可以存在用于另外的输入数据的另外的输入层。
第一输入层252通过第四编码神经网络256转发信息。第四编码神经网络256可以是卷积神经网络、VGG16、VGG19、Xception、InceptionV3、ResNet50、ResNet101、MobileNet、和/或MobileNetV2。可以存在用于实现第四网络206的其他方式。第四编码神经网络256将信息转发到第一隐层258中。
第二输入层254通过第五编码神经网络260转发信息。第五编码神经网络260可以是可以是卷积神经网络、VGG16、VGG19、Xception、InceptionV3、ResNet50、ResNet101、MobileNet、和/或MobileNetV2。第五编码神经网络260将信息转发到第二隐层262中。
第一隐层258和第二隐层262都将信息转发到融合层264中。在路由信息时可以存在另外的选项;特别是另外的层可以将信息转发到融合层264中。
融合层264通过具有第一输出层268的第一神经网络266转发信息,其中,第一输出层268提供至少一个置信度值。可替代地,来自第一隐层258和/或第二隐层262的信息可以通过第一神经网络266转发和/或直接转发到第一神经网络中。因此,可以不需要融合层264。第一神经网络266可以是具有至少两个类softmax输出头的至少一个层密集网络或具有至少两个线性输出头的至少一个层密集网络。
融合层264通过具有第二输出层272的第二神经网络270转发信息,其中,第二输出层272提供至少一个正确性值。可以不需要第二神经网络270。可替代地,来自第一隐层258和/或第二隐层262的信息可以通过第二神经网络270转发和/或直接转发到第二神经网络中。第二神经网络270可以是具有至少两个类softmax输出头的至少一个层密集网络或具有至少两个线性输出头的至少一个层密集网络。
第一输出层268和第二输出层272通过具有第三输出层276的第三神经网络274转发信息,其中,第三输出层276提供至少一个动作。可以不需要第三神经网络274。第三神经网络274可以是具有至少两个类softmax输出头的至少一个层密集网络或具有线性输出头的至少一个层密集网络。
如图3b中示例性地描绘的,用于执行视力测试程序202的计算机实现的方法在另外的机器学习模型200中实现。另外的机器学习模型200具有与图3a中描绘的机器学习模型200相同的部件,其中,其进一步细节可以参考上面对图3a的描述。除此之外,根据图3b的另外的机器学习模型200进一步包括用于存储以下中的至少一者的数据存储单元278:至少一个置信度值;至少一个正确性值;至少一个动作;特别是可以在当前测量循环中确定的至少一个动作。
因此,然后可以基于考虑以下中的至少一者来确定至少一个后续测试循环中的至少一个动作:
-预定义数量的多个置信度值;
-预定义数量的多个正确性值;
-预定义数量的多个动作;或
-预定义数量的多个所呈现的任务,
其可以特别是在至少2、5、10、20或30个不同的测量中执行,并且可以优选地从数据存储单元278输入到第三神经网络274中。以这种方式,还可以记录视觉测试程序的进展。
所讨论的机器学习模型200是经训练的机器学习模型200。在图4中描绘了特别适合用于训练机器学习模型200以在视力测试程序的至少一个测试循环204期间确定置信度值的示例性计算机实现的方法500。如图5所描绘的,可以在训练装置600上执行训练,在该训练装置上运行和/或实现用于训练机器学习模型200的示例性计算机实现的方法500。训练装置600可以是视力测试装置100。置信度值被指定用于确定视力测试程序的至少一个后续测试循环204中的至少一个动作;该方法包括以下步骤:
a)提供训练数据502,该训练数据包括:
-关于在视力测试程序的至少一个测试循环204期间人300的至少一种行为的第一信息,其中,根据在人300被问询以通过提供预期响应来解决至少一个任务之后的时间间隔期间对人300的观察,记录如由第一信息提供的人300的至少一种行为;
-关于至少一个已知置信度值的第二信息;
b)通过使用机器学习模型200分析第一信息来确定人300的至少一个置信度值504,其中,该置信度值是人300在提供预期响应时的置信度水平的度量,并且确定所确定的置信度值与如由第二信息提供的至少一个已知置信度值之间的偏差506;
c)调整508机器学习模型200,以使所确定的置信度值与至少一个已知置信度值之间的偏差最小化;
其中,重复步骤a)至c),直到满足确定标准。
确定标准可以是:偏差低于阈值;在训练循环中确定的偏差与在前一训练循环中确定的偏差之间的差异低于另外的阈值,其中,训练循环包括步骤a)至c)。可替代地或另外地,确定标准可以是达到预定数量的训练循环和/或到达预定训练时间间隔的终点。
关于第二信息的指示可以从在执行视力测试程序方面有经验的专业人员和/或人300(特别是在视力测试程序期间被问询以提供关于置信度值的指示之后)获得。可替代地或另外地,关于第二信息的指示可以从监测人300的至少一个生命体征获得,特别是其中,该至少一个生命体征选自血压、心跳频率或眨眼频率中的任一者。可替代地或另外地,关于第二信息的指示可以从人提供响应、特别是预期响应所需的时间值获得。
机器学习模型200可以被另外训练用于确定正确性值,其中,至少一个正确性值是由人300提供的响应是预期响应的概率的度量,
-其中,第一信息进一步包括关于由人300提供的响应的信息,并且
-其中,训练数据进一步包括关于至少一个已知正确性值的第三信息;
其中,可以通过使用机器学习模型200分析第一信息来确定510至少一个正确性值,其中,确定512所确定的正确性值与如由第三信息提供的已知正确性值之间的第一另外的偏差,其中,调整514机器学习模型200以使第一另外的偏差最小化,其中,重复另外的训练,直到满足第一另外的确定标准。
第一另外的确定标准可以是:第一另外的偏差低于另外的阈值;和/或在训练循环中确定的第一另外的偏差与在前一训练循环中确定的第一另外的偏差之间的差异低于第一另外的阈值,其中,训练循环包括步骤a)至c)。可替代地或另外地,第一另外的确定标准可以是达到预定第一另外的数量的训练循环和/或到达预定第一另外的训练时间间隔的终点。
可替代地或另外地,机器学习模型200可以被另外训练用于确定视力测试程序的至少一个后续测试循环204中的至少一个动作,其中,训练数据进一步包括:
-关于至少一个已知动作的第四信息,
其中,通过使用机器学习模型200分析所确定的至少一个置信度值来确定516至少一个动作,其中,确定518至少一个所确定的动作与由第四信息提供的至少一个已知动作之间的第二另外的偏差,其中,调整520机器学习模型200以使第二另外的偏差最小化,其中,重复另外的训练,直到满足第二另外的确定标准。
第二另外的确定标准可以是:第二另外的偏差低于另外的阈值;和/或在训练循环中确定的第二另外的偏差与在前一训练循环中确定的第二另外的偏差之间的差异低于第二另外的阈值,其中,训练循环包括步骤a)至c)。可替代地或另外地,第二另外的确定标准可以是达到预定第二另外的数量的训练循环和/或到达预定第二另外的训练时间间隔的终点。
确定至少一个动作可以包括另外分析至少一个正确性值。可以在执行视力测试程序方面有经验的专业人员的评估中确定关于至少一个已知动作的第四信息。机器学习模型200可以是在被训练用于确定至少一个置信度值之前在适用于视力测试程序的领域中训练的机器学习模型200。适用于视力测试程序的领域可以选自声音分类或声音回归和/或面部表情分类或面部表情回归和/或身体表情分类或身体表情回归。
在至少一个测试循环204期间记录的测量数据用作用于另外训练机器学习模型200以确定置信度值的计算机实现的方法中的另外的训练数据。由此,可以提供更新的机器学习模型200。至少一个另外的训练数据可以包括以下的测量数据:至少2;3;4;5;7;10;15;20;25;50;75;100;125;150;200;500;1000;2000;5000;10000;20000;50000个测试循环204。
测量数据可以包括关于人300的至少一种行为的第一信息和关于至少一个已知置信度值的第二信息。测量数据还可以包括关于至少一个已知正确性值的第三信息和/或关于至少一个已知动作的第四信息和/或关于如由人300提供的响应的第五信息。
根据图5,测量数据可以从视力测试装置100传输到训练装置600,特别是通过使用连接接口120、620,其中,测量数据的至少一部分由视力测试装置100记录,其中,训练装置600执行至少一个另外的训练。更新的机器学习模型200(特别是从另外训练机器学习模型200而生成的)从训练装置600传输到视力测试装置100,特别是通过使用连接接口120、620,其中,视力测试装置100通过使用更新的经训练的机器学习模型来执行另外的测试循环204。
如图6中示例性地描绘的,本发明还涉及一种用于生成至少一个眼镜透镜的几何模型以制造至少一个眼镜透镜的方法704,其中,生成几何模型包括以下步骤:通过使用与至少一个屈光值相关的数据来生成用于人300的至少一只眼睛302的至少一个眼镜透镜的几何模型700;以及通过实施用于对人300执行视力测试程序的计算机实现的方法来确定与至少一个屈光值相关的数据。在步骤702,可以通过考虑所生成的至少一个眼镜透镜的几何模型加工至少一个透镜毛坯来制造至少一个眼镜透镜。
附图标记清单
100 视力测试装置
102 呈现设备
104 音频记录设备
106 视觉记录设备
108 触觉记录设备
110 处理设备
112 距离记录设备
120 连接接口
200 机器学习模型
202 用于执行视力测试程序的方法
204 测试循环
210 步骤d):呈现至少一个任务
212 步骤e):记录测量数据
214 步骤f):确定置信度值
216 步骤g):确定至少一个动作
252 第一输入层
254 第二输入层
256 第四编码神经网络
258 第一隐层
260 第五编码神经网络
262 第二隐层
264 融合层
266 第一神经网络
268 第一输出层
270 第二神经网络
272 第二输出层
274 第三神经网络
276 第三输出层
278 数据存储单元
300 人
302 眼睛
400 辅助设备
500 用于训练机器学习模型的方法
502 步骤a):提供训练数据
504 步骤b)的一部分:确定至少一个置信度值
506 步骤b)的一部分:确定偏差
508 步骤c):调整机器学习模型
510 确定正确性值
512 确定第一另外的偏差
514 调整机器学习模型
516 确定至少一个动作
518 确定第二另外的偏差
520 调整机器学习模型
600 训练装置
620 连接接口
700 生成至少一个眼镜透镜的几何模型的步骤
702 制造至少一个眼镜透镜的步骤
704 用于生成至少一个眼镜透镜的几何模型以制造至少
一个眼镜透镜的方法
Claims (15)
1.一种用于训练(500)机器学习模型(200)来生成经训练的机器学习模型(200)以在视力测试程序(202)的至少一个测试循环(204)期间确定置信度值的计算机实现的方法,其中,该计算机实现的方法被实现为至少一个计算机程序,其中,该置信度值被指定用于确定该视力测试程序(202)的至少一个后续测试循环(204)中的至少一个动作;该方法包括通过使用该计算机程序执行的以下步骤:
a)提供训练数据(502),该训练数据包括:
-关于在视力测试程序(202)的至少一个测试循环(204)期间人(300)的至少一种行为的第一信息,其中,根据在该人(300)被问询以通过提供预期响应来解决至少一个任务之后的时间间隔期间对该人(300)的观察,记录如由该第一信息提供的该人(300)的至少一种行为;
-关于至少一个已知置信度值的第二信息;
b)通过使用机器学习模型(200)分析该第一信息来确定该人(300)的至少一个置信度值(504),其中,该置信度值是该人(300)在提供该预期响应时的置信度水平的度量,并且确定所确定的置信度值与如由该第二信息提供的该至少一个已知置信度值之间的偏差(506);
c)通过改变该机器学习模型(200)的至少一个参数来调整(508)该机器学习模型,以便使所确定的置信度值与该至少一个已知置信度值之间的偏差最小化;
其中,重复步骤a)至c),直到满足确定标准,当满足该确定标准时,使得该机器学习模型(200)的训练终止,其中,在该经训练的机器学习模型(200)中使用通过确定最小偏差而得到的该机器学习模型的至少一个参数。
2.根据前一项权利要求所述的方法,其中,该机器学习模型(200)被另外训练用于生成用于另外确定正确性值的经训练的机器学习模型(200),其中,该至少一个正确性值是由该人(300)提供的响应是该预期响应的概率的度量,
-其中,该第一信息进一步包括关于由该人(300)提供的响应的信息,并且
-其中,该训练数据进一步包括关于至少一个已知正确性值的第三信息;
其中,通过使用该机器学习模型(200)分析该第一信息来确定该至少一个正确性值,其中,确定所确定的正确性值与如由该第三信息提供的该已知正确性值之间的第一另外的偏差,其中,当该机器学习模型(200)分析该训练数据的至少一部分时,改变该机器学习模型(200)的参数,其中,重复另外的训练,直到满足第一另外的确定标准,当满足该第一另外的确定标准时,使得该机器学习模型(200)的另外的训练终止,其中,在该经训练的机器学习模型(200)中使用通过确定最小第一另外的偏差而得到的该机器学习模型的参数。
3.根据前述权利要求中任一项所述的方法,其中,该机器学习模型(200)被另外训练用于生成用于另外确定该视力测试程序的至少一个后续测试循环(204)中的至少一个动作的经训练的机器学习模型(200),其中,该训练数据进一步包括:
-关于至少一个已知动作的第四信息,
其中,通过使用该机器学习模型(200)分析所确定的至少一个置信度值来确定该至少一个动作,其中,确定至少一个所确定的动作与由该第四信息提供的该至少一个已知动作之间的第二另外的偏差,其中,当该机器学习模型(200)分析该训练数据的至少一部分时,改变该机器学习模型的参数,其中,重复另外的训练,直到满足第二另外的确定标准,当满足该第二另外的确定标准时,使得该机器学习模型(200)的另外的训练终止,其中,在该经训练的机器学习模型(200)中使用通过确定最小第二另外的偏差而得到的该机器学习模型的参数。
4.一种经训练的机器学习模型(200),其中,该机器学习模型(200)已经由根据前述权利要求中任一项所述的用于训练机器学习模型的计算机实现的方法(500)训练过。
5.一种用于对人(300)执行视力测试程序(202)的计算机实现的方法,其中,该视力测试程序包括至少两个后续测试循环(204),其中,测试循环(204)至少包括以下步骤:
d)通过使用呈现设备(102)向人(300)呈现问询该人(300)以提供预期响应的至少一个任务(210);
e)通过使用至少一个记录设备来记录测量数据(212),该测量数据包括:
-关于在视力测试程序的至少一个测试循环(204)期间人(300)的至少一种行为的第一信息,其中,根据在该人(300)被问询以通过提供预期响应来解决至少一个任务之后的时间间隔期间对该人(300)的观察,记录如由该第一信息提供的该人(300)的至少一种行为;
f)通过使用处理设备(110)使用由根据前述权利要求中任一项所述的方法训练的机器学习模型(200)分析该第一信息来确定该人(300)的置信度值(214);以及
g)通过考虑所确定的置信度值来确定该视力测试程序的至少一个后续测试循环(204)中的至少一个动作(216)。
6.根据前述权利要求中任一项所述的方法,其中,执行该视力测试程序以确定该人(300)的至少一只眼睛(302)的至少一种状况,其中,该状况是该人(300)的视力的表现指标,特别是由该人(300)的至少一只眼睛(302)的至少一个视觉参数表示的该人(300)的损伤,其中,该至少一个视觉参数选自该人(300)的至少一只眼睛(302)的屈光不正或视觉表现中的至少一者。
7.根据前述权利要求中任一项所述的方法,其中,解决该至少一个任务由该人(300)使用至少一个辅助设备(400)来执行,其中,该至少一个辅助设备(400)对该人(300)解决该至少一个任务的能力具有一定程度的影响,其中,该至少一个辅助设备(400)被配置为抵消阻碍该人(300)解决该至少一个任务的该人(300)的损伤。
8.根据前述权利要求中任一项所述的方法,其中,至少一个所确定的动作选自以下中的至少一者:
-向该人(300)给出至少一个所提供的响应是否是该预期响应的反馈,特别是在该至少一个后续测试循环(204)中呈现该至少一个任务之前;
-问询该人(300)关于至少一个确定性的估计的指示,特别是在该至少一个后续测试循环(204)中呈现该至少一个任务之前;
-改变该至少一个后续测试循环(204)中的应答时间;
-维持至少一个所呈现的任务并在该至少一个后续测试循环(204)中再次呈现至少一个所呈现的任务;
-改变至少一个所呈现的任务并在该后续测试循环(204)中呈现与至少一个所呈现的任务不同的至少一个另外的任务;
-维持所使用的辅助设备(400)并在该至少一个后续测试循环(204)中再次使用所使用的辅助设备;
-改变所使用的辅助设备(400)并在该后续测试循环(204)中使用与所使用的辅助设备(400)不同的至少一个另外的辅助设备(400);
-改变在该呈现设备(102)上呈现的符号的至少一个参数;特别是其中,该至少一个参数选自以下中的至少一者:该符号的○大小,
○取向,
○颜色,或
○偏振;
以及在至少一个后续测试循环中显示考虑所改变的参数的另外的符号(204);或
-问询该人(300)关于该人(300)的眼睛(302)与该显示设备之间的距离的变化的指示,特别是在该至少一个后续测试循环(204)中呈现该至少一个任务之前。
9.根据前一项权利要求所述的方法,其中,与至少一个所呈现的任务相比,该至少一个另外的任务具有不同的难度,特别是增大或减小的难度,其中,该至少一个另外的任务与至少一个所呈现的任务之间的难度的变化与至少一个所确定的置信度值相关。
10.根据前述两项权利要求中任一项所述的方法,其中,与至少一个所使用的辅助设备(400)相比,该至少一个另外的辅助设备(400)对该人(300)解决该至少一个任务的能力具有不同程度的影响,其中,至少一个所使用的辅助设备(400)与该至少一个另外的辅助设备(400)之间的程度的变化与至少一个所确定的置信度值相关。
11.一种包括指令的计算机程序,当该程序由计算机执行时,这些指令使该计算机实施用于训练机器学习模型(200)来生成经训练的机器学习模型(200)以在视力测试程序的至少一个测试循环(204)期间确定置信度值的计算机实现的方法,其中,该计算机实现的方法被实现为该计算机程序,其中,该置信度值被指定用于确定该视力测试程序的至少一个后续测试循环(204)中的至少一个动作;该方法包括通过使用该计算机程序执行的以下步骤:
a)提供训练数据(502),该训练数据(502)包括:
-关于在视力测试程序的至少一个测试循环(204)期间人(300)的至少一种行为的第一信息,其中,根据在该人(300)被问询以通过提供预期响应来解决至少一个任务之后的时间间隔期间对该人(300)的观察,记录如由该第一信息提供的该人(300)的至少一种行为;
-关于至少一个已知置信度值的第二信息,其中,该置信度值是该人(300)在提供该预期响应时的置信度水平的度量;
b)通过使用机器学习模型(200)分析该第一信息来确定该人(300)的至少一个置信度值(504),并且确定所确定的置信度值与如由该第二信息提供的该至少一个已知置信度值之间的偏差(506);
c)通过改变该机器学习模型(200)的至少一个参数来调整(508)该机器学习模型,以便使所确定的置信度值与该至少一个已知置信度值之间的偏差最小化;
其中,重复步骤a)至c),直到满足确定标准,当满足该确定标准时,使得该机器学习模型的训练终止,其中,在该经训练的机器学习模型中使用通过确定最小偏差而得到的该机器学习模型的至少一个参数。
12.一种包括指令的计算机程序,当该程序由计算机执行时,这些指令使该计算机实施用于对人(300)执行视力测试程序(202)的计算机实现的方法,其中,该视力测试程序包括至少两个后续测试循环(204),其中,测试循环(204)至少包括以下步骤:
d)通过使用呈现设备(102)向人(300)呈现问询该人(300)以提供预期响应的至少一个任务(210);
e)通过使用至少一个记录设备来记录测量数据(212),该测量数据包括:
-关于在视力测试程序的至少一个测试循环(204)期间人(300)的至少一种行为的第一信息,其中,根据在该人(300)被问询以通过提供预期响应来解决至少一个任务之后的时间间隔期间对该人(300)的观察,记录如由该第一信息提供的该人(300)的至少一种行为;
f)通过使用处理设备(110)使用由根据前述权利要求1至3中任一项所述的方法训练的机器学习模型(200)分析该第一信息来确定该人(300)的置信度值(214);以及
g)通过考虑所确定的置信度值来确定该视力测试程序的至少一个后续测试循环(204)中的至少一个动作(216)。
13.一种用于训练机器学习模型(200)以在视力测试程序的至少一个测试循环(204)期间确定置信度值的训练装置(600),其中,该训练装置(600)被配置为实施用于训练机器学习模型(200)来生成经训练的机器学习模型(200)以在视力测试程序的至少一个测试循环(204)期间确定置信度值的计算机实现的方法,该计算机实现的方法被实现为至少一个计算机程序,其中,该置信度值被指定用于确定该视力测试程序的至少一个后续测试循环(204)中的至少一个动作;该方法包括通过使用该计算机程序执行的以下步骤:
a)提供训练数据(502),该训练数据包括:
-关于在视力测试程序的至少一个测试循环(204)期间人(300)的至少一种行为的第一信息,其中,根据在该人(300)被问询以通过提供预期响应来解决至少一个任务之后的时间间隔期间对该人(300)的观察,记录如由该第一信息提供的该人(300)的至少一种行为;
-关于至少一个已知置信度值的第二信息,其中,该置信度值是该人(300)在提供该预期响应时的置信度水平的度量;
b)通过使用机器学习模型(200)分析该第一信息来确定该人(300)的至少一个置信度值(504),并且确定所确定的置信度值与如由该第二信息提供的该至少一个已知置信度值之间的偏差(506);
c)通过改变该机器学习模型(200)的至少一个参数来调整(508)该机器学习模型,以便使所确定的置信度值与该至少一个已知置信度值之间的偏差最小化;
其中,重复步骤a)至c),直到满足确定标准,当满足该确定标准时,使得该机器学习模型的训练终止,其中,在该经训练的机器学习模型中使用通过确定最小偏差而得到的该机器学习模型的至少一个参数。
14.一种用于确定人(300)的至少一个视觉参数的视力测试装置(100),其中,该视力测试装置(100)被配置为实施用于对该人(300)执行视力测试程序(202)的计算机实现的方法,其中,该视力测试程序包括至少两个后续测试循环(204),其中,测试循环(204)至少包括以下步骤:
d)通过使用呈现设备(102)向人(300)呈现问询该人(300)以提供预期响应的至少一个任务(210);
e)通过使用至少一个记录设备来记录测量数据(212),该测量数据包括:
-关于在视力测试程序的至少一个测试循环(204)期间人(300)的至少一种行为的第一信息,其中,根据在该人(300)被问询以通过提供预期响应来解决至少一个任务之后的时间间隔期间对该人(300)的观察,记录如由该第一信息提供的该人(300)的至少一种行为;
f)通过使用处理设备(110)使用由根据前述权利要求1至3中任一项所述的方法通过分析该第一信息训练的机器学习模型(200)分析该第一信息来确定该人(300)的置信度值(214);以及
g)通过使用该处理设备(110)考虑所确定的置信度值来确定该视力测试程序的至少一个后续测试循环(204)中的至少一个动作(216)。
15.一种用于生成至少一个眼镜透镜的几何模型以制造该至少一个眼镜透镜的方法(704),其中,生成该几何模型包括:
-通过使用计算机实施用于对人(300)执行视力测试程序(202)的计算机实现的方法来确定与至少一个屈光值相关的数据,其中,该视力测试程序包括至少两个后续测试循环(204),其中,测试循环(204)至少包括以下步骤:
d)通过使用呈现设备(102)向人(300)呈现问询该人(300)以提供预期响应的至少一个任务(212);
e)通过使用至少一个记录设备来记录测量数据(214),该测量数据包括:
-关于在视力测试程序的至少一个测试循环(204)期间人(300)的至少一种行为的第一信息,其中,根据在该人(300)被问询以通过提供预期响应来解决至少一个任务之后的时间间隔期间对该人(300)的观察,记录如由该第一信息提供的该人(300)的至少一种行为;
f)通过使用处理设备(110)使用由根据前述权利要求1至3中任一项所述的方法训练的机器学习模型(200)分析该第一信息来确定该人(300)的置信度值(216);以及
g)通过使用该处理设备(110)基于所确定的置信度值来确定该视力测试程序的至少一个后续测试循环(204)中的至少一个动作(218);以及
-通过使用该计算机、服务器或云,通过使用与该至少一个屈光值相关的数据来生成用于人(300)的至少一只眼睛(302)的至少一个眼镜透镜的几何模型(702)。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP22191012.8 | 2022-08-18 | ||
EP22191012.8A EP4325517A1 (en) | 2022-08-18 | 2022-08-18 | Methods and devices in performing a vision testing procedure on a person |
PCT/EP2023/072660 WO2024038134A1 (en) | 2022-08-18 | 2023-08-17 | Methods and devices in performing a vision testing procedure on a person |
Publications (1)
Publication Number | Publication Date |
---|---|
CN118402010A true CN118402010A (zh) | 2024-07-26 |
Family
ID=83507510
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202380015058.0A Pending CN118402010A (zh) | 2022-08-18 | 2023-08-17 | 对人执行视力测试程序的方法和设备 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20240289616A1 (zh) |
EP (1) | EP4325517A1 (zh) |
CN (1) | CN118402010A (zh) |
WO (1) | WO2024038134A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117786606B (zh) * | 2024-02-27 | 2024-04-30 | 四川大学 | 一种基于深度学习的视触融合信号识别方法及系统 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106175657B (zh) * | 2015-12-11 | 2018-01-30 | 北京大学第一医院 | 一种视力自动检测系统 |
EP4437962A2 (en) | 2015-12-18 | 2024-10-02 | Cognoa, Inc. | Platform and system for digital personalized medicine |
WO2017177188A1 (en) | 2016-04-08 | 2017-10-12 | Vizzario, Inc. | Methods and systems for obtaining, aggregating, and analyzing vision data to assess a person's vision performance |
CA3055996A1 (en) * | 2017-03-13 | 2018-09-20 | Kejako Sa | Accommodative lens device |
EP3586720A1 (de) * | 2018-06-29 | 2020-01-01 | Carl Zeiss Vision International GmbH | Verfahren zum optimieren eines optischen hilfsmittels mittels automatischer bestimmung subjektiver sehleistung |
CN109157186A (zh) | 2018-10-25 | 2019-01-08 | 武汉目明乐视健康科技有限公司 | 无人化自助视力监测仪 |
EP3730998A1 (de) * | 2019-04-23 | 2020-10-28 | Carl Zeiss Vision International GmbH | Bestimmung mindestens eines optischen parameters eines brillenglases |
KR102470341B1 (ko) * | 2019-06-07 | 2022-11-24 | 스펙스 리미티드 | 눈 테스트 |
WO2021026039A1 (en) * | 2019-08-02 | 2021-02-11 | Genentech, Inc. | Using deep learning to process images of the eye to predict visual acuity |
AU2020347874A1 (en) * | 2019-09-16 | 2022-04-14 | Eyeonic Pty Limited | Method and/or system for testing visual function |
WO2021124285A1 (en) * | 2019-12-19 | 2021-06-24 | Alcon Inc. | Vision quality assessment based on machine learning model and wavefront analysis |
DE102020004840A1 (de) * | 2020-08-07 | 2022-02-10 | Rodenstock Gmbh | Verbesserte Berechnung ophthalmischer Linsen |
US20220125299A1 (en) * | 2020-10-28 | 2022-04-28 | University Of Miami | Vision testing via prediction-based setting of initial stimuli characteristics for user interface locations |
US20220183546A1 (en) * | 2020-12-10 | 2022-06-16 | William V. Padula | Automated vision tests and associated systems and methods |
US20220354440A1 (en) * | 2021-05-04 | 2022-11-10 | Willis Dennis Grajales | Worldwide vision screening and visual field screening booth, kiosk, or exam room using artificial intelligence, screen sharing technology, and telemedicine video conferencing system to interconnect patient with eye doctor anywhere around the world via the internet using ethernet, 4G, 5G, 6G or Wifi for teleconsultation and to review results |
-
2022
- 2022-08-18 EP EP22191012.8A patent/EP4325517A1/en active Pending
-
2023
- 2023-08-17 CN CN202380015058.0A patent/CN118402010A/zh active Pending
- 2023-08-17 WO PCT/EP2023/072660 patent/WO2024038134A1/en unknown
-
2024
- 2024-05-10 US US18/660,605 patent/US20240289616A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2024038134A1 (en) | 2024-02-22 |
US20240289616A1 (en) | 2024-08-29 |
EP4325517A1 (en) | 2024-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11617559B2 (en) | Augmented reality systems and methods for user health analysis | |
US11048101B2 (en) | Light field processor system | |
US20240289616A1 (en) | Methods and devices in performing a vision testing procedure on a person | |
Wangwiwattana et al. | Pupilnet, measuring task evoked pupillary response using commodity rgb tablet cameras: Comparison to mobile, infrared gaze trackers for inferring cognitive load | |
EP4264627A1 (en) | System for determining one or more characteristics of a user based on an image of their eye using an ar/vr headset | |
Madhusanka et al. | Biofeedback method for human–computer interaction to improve elder caring: Eye-gaze tracking | |
US20220058999A1 (en) | Automated vision care diagnostics and digitally compensated smart eyewear | |
Lindén | Calibration in deep-learning eye tracking | |
CN117373075B (zh) | 基于眼部特征点和眼部区域分割结果的情感识别数据集 | |
Wong | Instantaneous and Robust Pupil-Based Cognitive Load Measurement for Eyewear Computing | |
Fürst | Evaluating two-stage gaze estimation using eye image segmentation | |
KR101887296B1 (ko) | 홍채 진단 시스템 및 그 시스템의 스트레스 진단 방법 | |
Lazar et al. | DEVELOPMENT OF EYE TRACKING PROCEDURES USED FOR THE ANALYSIS OF VISUAL BEHAVIOR-STATE OF ART | |
Logeshwari et al. | Deep Learning Era for Computer Vision-Based Eye Gaze Tracking: An Intensive Model | |
Wangwiwattana | RGB Image-Based Pupillary Diameter Tracking with Deep Convolutional Neural Networks | |
Mariakakis et al. | Making Medical Assessments Available and Objective Using Smartphone Sensors | |
WO2024182845A1 (en) | Eye models for mental state analysis | |
CN116964545A (zh) | 用于信号传递认知状态转换的系统和方法 | |
Munn | Three-dimensional head motion, point-of-regard and encoded gaze fixations in real scenes: Next-Generation portable video-based monocular eye tracking | |
Walter | Eye movements and the role of the quick phase |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |