CN117809807A - 基于交互平台的视觉训练方法、系统及存储介质 - Google Patents
基于交互平台的视觉训练方法、系统及存储介质 Download PDFInfo
- Publication number
- CN117809807A CN117809807A CN202410086557.5A CN202410086557A CN117809807A CN 117809807 A CN117809807 A CN 117809807A CN 202410086557 A CN202410086557 A CN 202410086557A CN 117809807 A CN117809807 A CN 117809807A
- Authority
- CN
- China
- Prior art keywords
- vision
- similarity
- user attribute
- user
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 43
- 238000000034 method Methods 0.000 title claims abstract description 38
- 230000000007 visual effect Effects 0.000 title claims abstract description 30
- 238000003860 storage Methods 0.000 title claims abstract description 17
- 230000003993 interaction Effects 0.000 title description 6
- 230000004438 eyesight Effects 0.000 claims abstract description 200
- 238000002645 vision therapy Methods 0.000 claims abstract description 70
- 238000001514 detection method Methods 0.000 claims abstract description 52
- 230000002452 interceptive effect Effects 0.000 claims abstract description 11
- 239000011159 matrix material Substances 0.000 claims description 44
- 238000004364 calculation method Methods 0.000 claims description 16
- 238000004458 analytical method Methods 0.000 claims description 15
- 238000000605 extraction Methods 0.000 claims description 10
- 238000005070 sampling Methods 0.000 claims description 6
- 238000000638 solvent extraction Methods 0.000 claims description 4
- 238000012216 screening Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 abstract description 13
- 230000000875 corresponding effect Effects 0.000 description 38
- 238000010586 diagram Methods 0.000 description 9
- 238000004590 computer program Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 210000001508 eye Anatomy 0.000 description 5
- 241000282472 Canis lupus familiaris Species 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000035484 reaction time Effects 0.000 description 4
- 238000007405 data analysis Methods 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 238000011524 similarity measure Methods 0.000 description 3
- 102100037651 AP-2 complex subunit sigma Human genes 0.000 description 2
- 101000806914 Homo sapiens AP-2 complex subunit sigma Proteins 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000004382 visual function Effects 0.000 description 2
- 208000033748 Device issues Diseases 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/30—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Physical Education & Sports Medicine (AREA)
- Epidemiology (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Primary Health Care (AREA)
- Public Health (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种基于交互平台的视觉训练方法、系统及存储介质,涉及视觉训练技术领域,其方法包括:获取目标用户的视力检测数据和第一用户属性;对视力检测数据进行特征提取;获取历史视力检测数据,对历史视力检测数据进行分类,得到每个第二用户属性的历史视力检测数据;确定每个第二用户属性与第一用户属性的相似度,确定邻居用户属性;对邻居用户属性的历史视力检测数据进行特征提取;确定目标用户的视力关键问题;得到每个视力关键问题对应的视力训练项目;将所有视力训练项目发送至第二设备,以使第二设备根据视力训练项目发布对应的视力训练课程至第一设备,使目标用户通过第一设备的视力训练课程进行视觉训练。
Description
技术领域
本申请涉及视觉训练技术领域,具体地涉及一种基于交互平台的视觉训练方法、系统及存储介质。
背景技术
视觉训练用于通过特定的训练活动来改善和增强视觉功能,目前用户可以通过视觉训练应用进行视觉训练,以改善和增强视觉功能。但是现有的视觉训练方式为固定的训练课程,即不同的用户对视觉进行训练时的训练课程是一致的,由于用户个体间存在差异,使得现有的视觉训练方式效果较差。
发明内容
本申请实施例的目的是提供一种基于交互平台的视觉训练方法、系统及存储介质,用以解决现有技术中现有的视觉训练方式效果较差的问题。
为了实现上述目的,本申请第一方面提供一种基于交互平台的视觉训练方法,应用于第一设备,所述第一设备上安装有第一应用,该方法包括:
响应于目标用户的第一操作,根据所述第一应用获取所述目标用户的视力检测数据和第一用户属性;
对所述视力检测数据进行特征提取,得到所述第一用户属性的多个第一视力特征;
获取不同第二用户属性下的历史视力检测数据,并根据所述第二用户属性对所述历史视力检测数据进行分类,得到每个所述第二用户属性的历史视力检测数据;
确定每个所述第二用户属性与所述第一用户属性的相似度,并将大于第一预设阈值的相似度对应的第二用户属性作为所述第一用户属性的邻居用户属性;
对所述邻居用户属性的历史视力检测数据进行特征提取,得到多个第二视力特征;
根据多个所述第一视力特征和多个所述第二视力特征,确定所述目标用户的视力关键问题;
将所述视力关键问题输入至预构建的视力分析模型,得到每个所述视力关键问题对应的视力训练项目;
将所有所述视力训练项目发送至第二设备,以使所述第二设备根据所述视力训练项目发布对应的视力训练课程至所述第一设备,使所述目标用户通过所述第一设备的所述视力训练课程进行视觉训练。
在本申请实施例中,所述根据多个所述第一视力特征和多个所述第二视力特征,确定所述目标用户的视力关键问题,包括:
对多个所述第二视力特征进行采样,获取无向词汇对,其中,所述无向词汇对用于表征所述第二视力特征的词汇共现关系;
将所述无向词汇对进行整理,得到词汇共现二维矩阵,在所述词汇共现二维矩阵中,行和列表示词汇,每个元素表示两个词汇的共现次数;
将所述词汇共现二维矩阵中小于第二预设阈值的共现次数设置为0,并将大于或等于第二预设阈值的共现次数进行保留,得到稀疏矩阵;
对所述稀疏矩阵进行压缩,以去除所述稀疏矩阵中的0元素,对于所述稀疏矩阵中的剩余元素,将小于第三预设阈值的共现次数作为稀疏节点,将大于或等于所述第三预设阈值的共现次数作为拥挤节点;
将m个稀疏节点与n个拥挤节点进行多项式特征交叉,得到p个第一组合特征,其中,m、n均为正整数,p=m*n;
将m个所述稀疏节点与k个所述第一视力特征进行类别特征交叉,得到r个第二组合特征,其中,k为正整数,r=m*k;
将n个所述拥挤节点与k个所述第一视力特征进行类别特征交叉,得到q个第三组合特征,其中q=n*k;
将所述第一组合特征、所述第二组合特征与所述第三组合特征按列进行拼接,得到特征矩阵;
根据所述特征矩阵,计算每个特征的方差,将小于第四预设阈值的方差对应的特征进行筛除,将大于或等于所述第四预设阈值的方差对应的特征进行保留,并作为关键特征,所述关键特征用于表征对所述目标用户的视力关键问题的预测能力较强;
对于每个所述关键特征,确定与所述关键特征关联性最大的视力问题,并将所述视力问题作为所述目标用户的视力关键问题。
在本申请实施例中,所述第一用户属性与所述第二用户属性均包括年龄、性别和职业,所述确定每个所述第二用户属性与所述第一用户属性的相似度,包括:
对于每个所述第二用户属性的第一年龄,计算所述第一年龄与所述第一用户属性的年龄的第一相似度;
对于每个所述第二用户属性的第一性别,根据性别相似度确定步骤,确定所述第一性别与所述第一用户属性的性别的第二相似度;
对于每个所述第二用户属性的第一职业,根据职业相似度确定步骤,确定所述第一职业与所述第一用户属性的职业的第三相似度;
对所述第一相似度、所述第二相似度与所述第三相似度进行加权求和步骤,得到每个所述第二用户属性与所述第一用户属性的相似度。
在本申请实施例中,所述对于每个所述第二用户属性的第一年龄,计算所述第一年龄与所述第一用户属性的年龄的第一相似度,包括:
对于每个所述第二用户属性的第一年龄,计算所述第一年龄与所述第一用户属性的年龄的欧式距离;
将所述欧式距离作为所述第一年龄与所述第一用户属性的年龄的第一相似度。
在本申请实施例中,所述性别相似度确定步骤,包括:
对于每个所述第二用户属性的第一性别,若所述第一性别与所述第一用户属性的性别不一致,则确定所述第一性别与所述第一用户属性的性别的第二相似度为0;
对于每个所述第二用户属性的第一性别,若所述第一性别与所述第一用户属性的性别一致,则确定所述第一性别与所述第一用户属性的性别的第二相似度为1。
在本申请实施例中,所述职业相似度确定步骤,包括:
对于每个所述第二用户属性的第一职业,将所述第一职业转换为第一数据集合,将所述第一用户属性的职业转换为第二数据集合;
计算所述第一数据集合与所述第二数据集合的交集大小和并集大小;
将所述交集大小除以所述并集大小,得到所述第一职业与所述第一用户属性的职业的第三相似度。
在本申请实施例中,所述对所述第一相似度、所述第二相似度与所述第三相似度进行加权求和步骤,包括:
将所述第一相似度、所述第二相似度与所述第三相似度均作为相似度数据集;
对于任意一个所述相似度数据集,获取总样本数量、相似样本数量和不相似样本数量,并确定划分条件,并根据所述划分条件确定每个划分条件下的相似数量和不相似数量;
采用熵计算公式,根据所述总样本数量、所述相似样本数量和所述不相似样本数量计算所述相似度数据集的熵;
采用条件熵计算公式,根据所述总样本数量、每个划分条件下的相似数量、不相似数量,计算所述相似度数据集的条件熵;
将所述熵减去所述条件熵,得到所述相似度数据集的信息增益;
将所述信息增益作为与所述相似度数据集对应的相似度的权重,得到所述第一相似度的第一权重、所述第二相似度的第二权重和所述第三相似度的第三权重;
根据加权求和公式,对所述第一相似度、所述第二相似度与所述第三相似度进行加权求和,得到所述第二用户属性与所述第一用户属性的相似度;
其中,所述加权求和公式包括:
H=x1*K1+x2*K2+x3*K3;
式中,H为所述第二用户属性与所述第一用户属性的相似度,x1为第一相似度,K1为第一权重,x2为第二相似度,K2为第二权重,x3为第三相似度,K3为第三权重。
在本申请实施例中,对于任意一个所述相似度数据集,确定划分条件,包括:
对于所述第一相似度对应的相似度数据集,确定划分条件为高年龄和低年龄;
对于所述第二相似度对应的相似度数据集,确定划分条件为第一性别与第二性别;
对于所述第三相似度对应的相似度数据集,确定划分条件为第一职业与第二职业。
本申请第二方面提供一种基于交互平台的视觉训练系统,包括:
第一设备,所述第一设备上安装有第一应用;
第二设备,与所述第一设备连接;
所述第一设备响应于目标用户的第一操作,根据所述第一应用获取所述目标用户的视力检测数据和第一用户属性;对所述视力检测数据进行特征提取,得到所述第一用户属性的多个第一视力特征;获取不同第二用户属性下的历史视力检测数据,并根据所述第二用户属性对所述历史视力检测数据进行分类,得到每个所述第二用户属性的历史视力检测数据;确定每个所述第二用户属性与所述第一用户属性的相似度,并将大于第一预设阈值的相似度对应的第二用户属性作为所述第一用户属性的邻居用户属性;对所述邻居用户属性的历史视力检测数据进行特征提取,得到多个第二视力特征;根据多个所述第一视力特征和多个所述第二视力特征,确定所述目标用户的视力关键问题;将所述视力关键问题输入至预构建的视力分析模型,得到每个所述视力关键问题对应的视力训练项目;将所有所述视力训练项目发送至第二设备;
所述第二设备根据所述视力训练项目发布对应的视力训练课程至所述第一设备,使所述目标用户通过所述第一设备的所述视力训练课程进行视觉训练。
本申请第三方面提供一种机器可读存储介质,该机器可读存储介质上存储有指令,该指令用于使得机器执行上述的基于交互平台的视觉训练方法。
通过上述技术方案,根据目标用户的视力检测数据和用户属性,通过特征提取得到多个视力特征。然后,根据不同用户属性下的历史视力检测数据进行分类,并确定与目标用户属性相似度较高的邻居用户属性。接着,对邻居用户属性的历史视力检测数据进行特征提取,得到多个第二视力特征。根据第一视力特征和第二视力特征,确定目标用户的视力关键问题。将关键问题输入预构建的视力分析模型,得到对应的视力训练项目。最后,将所有的视力训练项目发送至第二设备,发布对应的视力训练课程至第一设备,使目标用户能够通过第一设备进行个性化的视觉训练,从而可以根据用户的特点和需求进行个性化的视力训练,提供更加精准和有效的训练方案。同时综合分析目标用户的视力关键问题,并根据预构建的视力分析模型得到相应的视力训练项目,从而提供全面和多样化的训练内容。
本申请实施例的其它特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
附图是用来提供对本申请实施例的进一步理解,并且构成说明书的一部分,与下面的具体实施方式一起用于解释本申请实施例,但并不构成对本申请实施例的限制。在附图中:
图1示意性示出了根据本申请实施例的一种基于交互平台的视觉训练方法的流程示意图;
图2示意性示出了根据本申请实施例的一种基于交互平台的视觉训练系统的示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,应当理解的是,此处所描述的具体实施方式仅用于说明和解释本申请实施例,并不用于限制本申请实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明,若本申请实施例中有涉及方向性指示(诸如上、下、左、右、前、后……),则该方向性指示仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。
另外,若本申请实施例中有涉及“第一”、“第二”等的描述,则该“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本申请要求的保护范围之内。
图1示意性示出了根据本申请实施例的一种基于交互平台的视觉训练方法的流程示意图。如图1所示,本申请实施例提供一种基于交互平台的视觉训练方法,应用于第一设备,第一设备上安装有第一应用,该方法可以包括下列步骤。
S101、响应于目标用户的第一操作,根据第一应用获取目标用户的视力检测数据和第一用户属性。
目标用户指进行视力训练的用户,其中,第一设备可以是手机、电脑、平板等,在此不做限制。除此之外,第一设备上的第一应用预设有检测程序,用于为用户提供视力检测项目,包括用于对用户眼睛的运动轨迹和注视点的位置进行检测的检测项目、用于记录用户对训练刺激的反应时间的检测项目、记录用户在训练中对不同刺激的注意力分配情况的检测项目、记录用户的眼球位置和眼位异常情况的检测项目等。第一操作则指用户对第一应用进行的操作。
第一设备响应于目标用户的第一操作,即可根据第一应用获取目标用户的视力检测数据和第一用户属性。其中,第一用户属性包括目标用户的性别、年龄和职业,视力检测数据包括目标用户的眼动数据、反应时间、视觉注意力和眼位等。
S102、对视力检测数据进行特征提取,得到第一用户属性的多个第一视力特征。
从视力检测数据中提取出与第一用户属性相关的视力特征。可以提取眼动数据中的注视点密度、扫视路径长度等特征;提取反应时间数据中的平均反应时间、反应时间的方差等特征;提取视觉注意力数据中的注意力分配比例等特征;提取眼位数据中的眼位偏移角度等特征。通过对上述视力特征进行提取和分析,可以得到目标用户在不同视力方面的表现和特点。
S103、获取不同第二用户属性下的历史视力检测数据,并根据第二用户属性对历史视力检测数据进行分类,得到每个第二用户属性的历史视力检测数据。
第二用户属性下的历史检测数据通过历史数据库得到,具体的,历史数据库存储有第一应用获取的其他用户的视力特征集。第二用户属性包括其他用户的性别、年龄、职业等。
根据第二用户属性对历史视力检测数据进行分类,指将收集到的历史视力检测数据按照不同的第二用户属性进行分类。
S104、确定每个第二用户属性与第一用户属性的相似度,并将大于第一预设阈值的相似度对应的第二用户属性作为第一用户属性的邻居用户属性。
第一预设阈值是一个预先设定的阈值,用于确定相似度的阈值。如果第二用户属性与第一用户属性的相似度大于第一预设阈值,第二用户属性则被判定为第一用户属性的邻居用户属性。邻居用户属性指与第一用户属性的相似度大于预设阈值的第二用户属性。换句话说,邻居用户属性是与目标用户具有相似特征的其他用户属性。
S105、对邻居用户属性的历史视力检测数据进行特征提取,得到多个第二视力特征。
对邻居用户属性的历史视力检测数据进行特征提取,指从历史视力检测数据中提取出与视力相关的特征。
通过对邻居用户属性的历史视力检测数据进行特征提取,可以得到多个第二视力特征。第二视力特征反映了邻居用户属性在不同视力方面的表现和特点。
S106、根据多个第一视力特征和多个第二视力特征,确定目标用户的视力关键问题。
根据多个第一视力特征和多个第二视力特征,可以通过对上述特征进行综合分析和比较,确定目标用户的视力关键问题。
具体的,通过对目标用户的第一视力特征进行分析,可以了解目标用户在不同视力方面的表现。同时,通过对邻居用户的第二视力特征进行分析,可以了解与目标用户相似的其他用户在视力方面的表现。
通过对比目标用户的第一视力特征和邻居用户的第二视力特征,可以发现目标用户与邻居用户之间的差异和相似性。这些差异和相似性可以确定目标用户的视力关键问题,即在哪些视力方面目标用户存在问题或需要改善。
S107、将视力关键问题输入至预构建的视力分析模型,得到每个视力关键问题对应的视力训练项目。
预构建的视力分析模型是经过训练和优化后的模型,可以根据输入的视力关键问题,输出每个视力关键问题对应的视力训练项目。通过使用预构建的视力分析模型,可以实现对目标用户的视力问题的自动化分析和个性化训练方案的生成。有助于提高视力训练的效果和针对性,为目标用户提供更加个性化和有效的视力训练。
S108、将所有视力训练项目发送至第二设备,以使第二设备根据视力训练项目发布对应的视力训练课程至第一设备,使目标用户通过第一设备的视力训练课程进行视觉训练。
本实施例将根据目标用户的视力关键问题生成的视力训练项目传输到第二设备上。第二设备可以是个人电脑、智能手机、平板电脑或其他具备数据处理和存储能力的设备。其接收到视力训练项目后,发布对应的视力训练课程。第一设备与第二设备可以分别对应一个平台,第一设备对应的平台为训练平台,第二设备对应的平台为管理平台。
发布视力训练课程是指将视力训练项目转化为具体的训练内容和计划,并将其传输到第一设备上。这样,目标用户可以通过第一设备上的视力训练课程进行视觉训练,通过第一设备,目标用户可以访问和参与视力训练课程,进行视觉训练练习。
通过将视力训练项目发送至第二设备并发布视力训练课程至第一设备,可以实现远程视力训练的功能。目标用户可以根据个人的时间和地点,在第一设备上灵活地进行视觉训练。有效提供了便利性和灵活性,使目标用户能够根据自己的需求和进度进行视力训练,提高训练的效果和个性化程度。
本实施例根据目标用户的视力检测数据和用户属性,通过特征提取得到多个视力特征。然后,根据不同用户属性下的历史视力检测数据进行分类,并确定与目标用户属性相似度较高的邻居用户属性。接着,对邻居用户属性的历史视力检测数据进行特征提取,得到多个第二视力特征。根据第一视力特征和第二视力特征,确定目标用户的视力关键问题。将关键问题输入预构建的视力分析模型,得到对应的视力训练项目。最后,将所有的视力训练项目发送至第二设备,发布对应的视力训练课程至第一设备,使目标用户能够通过第一设备进行个性化的视觉训练,从而可以根据用户的特点和需求进行个性化的视力训练,提供更加精准和有效的训练方案。同时综合分析目标用户的视力关键问题,并根据预构建的视力分析模型得到相应的视力训练项目,从而提供全面和多样化的训练内容。
在本实施例的其中一种实施方式中,根据多个第一视力特征和多个第二视力特征,确定目标用户的视力关键问题,包括如下步骤:
S201、对多个所述第二视力特征进行采样,获取无向词汇对,其中,所述无向词汇对用于表征所述第二视力特征的词汇共现关系;
无向词汇对是指两个词汇之间的共现关系,用于表示第二视力特征中的词汇共现关系。
具体的,首先从第二视力特征中随机选择一定数量的样本或词汇对作为采样数据。对于每个采样得到的样本或词汇对,记录词汇共现关系。可以使用词频、共现次数等指标来表示词汇共现关系。其中,词频指的是某个词汇在样本或词汇对中出现的频率。可以通过计算某个词汇在样本中出现的次数,然后除以总词汇数来得到词频。词频表示了某个词汇在样本中的重要程度;共现次数指的是两个词汇在样本或词汇对中同时出现的次数。可以通过计算两个词汇在样本中同时出现的次数来得到共现次数。共现次数表示了两个词汇之间的关联程度。
例如:假设两个样本如下:
样本1:“Ilikecatsanddogs.”
样本2:“Catsarecuteanimals.”
若第二视力特征为"cats"和"dogs",并进行采样得到的样本或词汇对为(“cats”,“dogs”)。
词频:在这个样本集合中,"cats"出现了2次,"dogs"出现了1次。因此,词频分别为2和1。
共现次数:在这个样本集合中,"cats"和"dogs"共同出现了1次。因此,共现次数为1。
S202、将所述无向词汇对进行整理,得到词汇共现二维矩阵,在所述词汇共现二维矩阵中,行和列表示词汇,每个元素表示两个词汇的共现次数。
词汇共现二维矩阵中,行和列分别表示词汇,矩阵中的每个元素表示两个词汇的共现次数。
S203、将所述词汇共现二维矩阵中小于第二预设阈值的共现次数设置为0,并将大于或等于第二预设阈值的共现次数进行保留,得到稀疏矩阵。
具体来说,对于词汇共现矩阵中的每个元素,如果其共现次数低于第二预设阈值,则将其置为0;如果共现次数高于或等于第二预设阈值,则保留原始的共现次数。因此,原本稠密的词汇共现二维矩阵中会出现许多零元素,从而形成稀疏矩阵。
通过稀疏化处理,可以过滤掉共现次数较低的词汇对,集中关注共现次数较高的词汇对。
S204、对所述稀疏矩阵进行压缩,以去除所述稀疏矩阵中的0元素,对于所述稀疏矩阵中的剩余元素,将小于第三预设阈值的共现次数作为稀疏节点,将大于或等于所述第三预设阈值的共现次数作为拥挤节点。
对稀疏矩阵进行压缩,以去除稀疏矩阵中的0元素,有利于减少存储空间和计算复杂度。根据稀疏矩阵中的元素,将小于第三预设阈值的共现次数作为稀疏节点,将大于或等于第三预设阈值的共现次数作为拥挤节点。稀疏节点表示词汇对的共现次数较低,拥挤节点表示共现次数较高。
S205、将m个稀疏节点与n个拥挤节点进行多项式特征交叉,得到p个第一组合特征,其中,m、n均为正整数,p=m*n。
将稀疏节点、拥挤节点进行多项式特征交叉,生成新的组合特征,即第一组合特征。例如,如果有两个特征A和B,可以通过将A和B相乘得到新的组合特征AB。其中,多项式特征交叉是指将两个或多个特征进行组合,生成新的特征。
又例如,假设存在以下三个特征:稀疏节点特征(A)、拥挤节点特征(B)。下面说明如何采用特征交叉的方式得到第一组合特征。
假设将稀疏节点特征(A)和拥挤节点特征(B)进行多项式特征交叉,得到新的组合特征AB。如果A有3个取值(0、1、2),B有2个取值(0、1),那么通过多项式特征交叉可以生成6个新的组合特征AB:0-0、0-1、1-0、1-1、2-0、2-1。这样,即可得到了6个新的组合特征,用于表示A和B的组合情况。
S206、将m个所述稀疏节点与k个所述第一视力特征进行类别特征交叉,得到r个第二组合特征,其中,k为正整数,r=m*k。
类别特征交叉是指将类别型特征进行组合,生成新的特征。可以通过将不同类别的特征进行组合来实现。例如,对于特征A和特征B,类别特征交叉可以生成新的特征A_B,表示A和B的组合。
S207、将n个所述拥挤节点与k个所述第一视力特征进行类别特征交叉,得到q个第三组合特征,其中q=n*k。
S208、将所述第一组合特征、所述第二组合特征与所述第三组合特征按列进行拼接,得到特征矩阵。
例如,假设有以下的组合特征:
第一组合特征 (p个特征): [A1, A2, A3, …, Ap];
第二组合特征 (r个特征): [B1, B2, B3, …, Br];
第三组合特征 (q个特征): [C1, C2, C3, …, Cq];
按列将这些特征进行拼接,形成一个新的特征矩阵。假设p=2, r=3, q=4,得到的融合特征矩阵如下:
综上,得到了一个新的特征矩阵,其中每列代表一个组合特征。融合特征矩阵的行数由最长的组合特征决定,对于长度较短的组合特征,可以用空值或者其他填充值进行补充。
通过上述方式,将第一组合特征、第二组合特征和第三组合特征进行了拼接,得到了一个包含所有组合特征信息的融合特征矩阵。
S209、根据所述特征矩阵,计算每个特征的方差,将小于第四预设阈值的方差对应的特征进行筛除,将大于或等于所述第四预设阈值的方差对应的特征进行保留,并作为关键特征,所述关键特征用于表征对所述目标用户的视力关键问题的预测能力较强。
方差较小的特征可能对目标任务的预测能力较低,因此将小于第四预设阈值的方差对应的特征进行筛除。
举例来说,S1、假设有一个特征矩阵X,其中每一列代表一个特征,共有m行样本和n列特征。
S2、对于每个特征,计算其样本的均值μ和方差σ^2。
S3、对于第j列特征,计算方差的公式为:σ^2=(1/m)*Σ((X[i,j]-μ)^2),其中i表示样本的索引。
重复步骤3,计算每个特征的方差。
以下是一个计算特征矩阵中每个特征方差的简单示例:
假设一个特征矩阵X,如下所示:
首先,计算每个特征的均值μ。对于每列特征,计算其所有样本值的平均值。
特征1的均值μ1=(1+4+7+10)/4=5.5;
特征2的均值μ2=(2+5+8+11)/4=6.5;
特征3的均值μ3=(3+6+9+12)/4=7.5;
然后,计算每个特征的方差σ^2。对于每列特征,计算每个样本值与均值之差的平方,并求和后除以样本数。
特征1的方差σ1^2=[(1-5.5)^2+(4-5.5)^2+(7-5.5)^2+(10-5.5)^2]/4=10.5;
特征2的方差σ2^2=[(2-6.5)^2+(5-6.5)^2+(8-6.5)^2+(11-6.5)^2]/4=10.5;
特征3的方差σ3^2=[(3-7.5)^2+(6-7.5)^2+(9-7.5)^2+(12-7.5)^2]/4=10.5。
因此,特征1、特征2和特征3的方差均为10.5。
通过以上步骤,可以计算特征矩阵中每个特征的方差。方差用于表示特征的变化程度,方差较大的特征可能对目标任务的预测能力更强。
S2010、对于每个所述关键特征,确定与所述关键特征关联性最大的视力问题,并将所述视力问题作为所述目标用户的视力关键问题。
对于每个所述关键特征,在预设数据库中确定与所述关键特征关联性最大的视力问题,并将所述视力问题作为所述目标用户的视力关键问题。
本实施方式将稀疏节点和拥挤节点与第一视力特征进行组合,得到第一组合特征,增强了特征的表达能力,除此之外,将第一组合特征、第二组合特征和第三组合特征按列进行拼接,得到特征矩阵,通过计算特征的方差,筛选出方差较大的特征作为关键特征,这些特征具有较高的预测能力。可以从多个视力特征中提取出关键特征,并将其与具体的视力问题关联起来,从而能够更好地预测目标用户的视力关键问题。
在本实施例的其中一种实施方式中,第一用户属性与第二用户属性均包括年龄、性别和职业,确定每个第二用户属性与第一用户属性的相似度,包括如下步骤:
S301、对于每个第二用户属性的第一年龄,计算第一年龄与第一用户属性的年龄的第一相似度。
本实施例对于每个第二用户属性的第一年龄,计算第一年龄与第一用户属性的年龄的第一相似度,以确定两者之间在年龄方面的相似程度。
S302、对于每个第二用户属性的第一性别,根据性别相似度确定步骤,确定第一性别与第一用户属性的性别的第二相似度。
本实施例对于每个第二用户属性的第一性别,计算第一性别与第一用户属性的性别的第一相似度,以确定两者之间在性别方面的相似程度。
S303、对于每个第二用户属性的第一职业,根据职业相似度确定步骤,确定第一职业与第一用户属性的职业的第三相似度。
本实施例对于每个第二用户属性的第一职业,计算第一职业与第一用户属性的职业的第一相似度,以确定两者之间在职业方面的相似程度。
对于S301、S302和S303中的相似度的计算方式,年龄的相似度计算可以采用将年龄差值与预设阈值进行比较的方式,或采用预设的相似度算法等方式计算相似度;性别的相似度计算可以采用预设的二元相似度度量算法或者预设的字符串匹配算法计算相似度;职业的相似度计算可以采用预设的文本匹配算法、人为确定等方式计算相似度。
S304、对第一相似度、第二相似度与第三相似度进行加权求和步骤,得到每个第二用户属性与第一用户属性的相似度。
加权求和的目的是根据实际需求和数据特点,对不同相似度的贡献进行调整,以更好地反映属性之间的相似程度。通过加权求和,可以将不同相似度的贡献进行平衡,避免某个相似度过于重要或不重要对最终结果的影响。对第一相似度、第二相似度和第三相似度进行加权求和,可以得到每个第二用户属性与第一用户属性的相似度,用于将不同的相似度考虑进来,并根据其重要性进行加权处理,得到一个综合的相似度以表征每个第二用户属性与第一用户属性的相似度。
本实施方式可以计算每个第二用户属性与第一用户属性之间的相似度。有利于更好地确定两者之间的相似程度,从而更好地确定与目标用户相似的邻居用户。
在本实施例的其中一种实施方式中,对于每个第二用户属性的第一年龄,计算第一年龄与第一用户属性的年龄的第一相似度,包括如下步骤:
S401、对于每个第二用户属性的第一年龄,计算第一年龄与第一用户属性的年龄的欧式距离。
欧式距离是一种常见的距离度量方法,用于衡量两个向量之间的距离。在这里,将第一年龄和第一用户属性的年龄看作两个向量,计算它们之间的欧式距离。欧式距离的计算公式如下:
欧式距离=sqrt((x1-x2)^2)
其中,x1表示第一年龄,x2表示第一用户属性的年龄。
例如,假设第一用户属性的年龄为30岁,而第二用户属性的第一年龄有以下几个取值:25岁、35岁、40岁。
对于第一个取值25岁,计算与第一用户属性的年龄的欧式距离:
欧式距离=sqrt((30-25)^2)=5;
对于第二个取值35岁,计算与第一用户属性的年龄的欧式距离:
欧式距离=sqrt((30-35)^2)=5;
对于第三个取值40岁,计算与第一用户属性的年龄的欧式距离:
欧式距离=sqrt((30-40)^2)=10;
通过上述计算,得到第一年龄与第一用户属性的年龄的欧式距离分别为5、5和10。
S402、将欧式距离作为第一年龄与第一用户属性的年龄的第一相似度。
以S401中的例子为例,若第一年龄与第一用户属性的年龄的欧式距离分别为5、5和10,则第一年龄与第一用户属性的年龄的第一相似度分别为5、5和10。
本实施例将欧式距离转化为相似度度量,将差异程度转化为相似程度。一般来说,欧式距离越小,相似度越高。因此,将欧式距离作为相似度度量可以直接反映第一年龄与第一用户属性的年龄之间的相似程度。
本实施方式通过计算欧式距离来度量第一年龄与第一用户属性的年龄之间的差异,并将差异转化为相似度度量,从而得到第一年龄与第一用户属性的年龄的相似度。有利于比较不同年龄之间的相似程度,为后续的数据分析提供基础。
在本实施例的其中一种实施方式中,性别相似度确定步骤,包括如下步骤:
S501、对于每个第二用户属性的第一性别,若第一性别与第一用户属性的性别不一致,则确定第一性别与第一用户属性的性别的第二相似度为0。
如果第一性别与第一用户属性的性别不同,则第一性别与第一用户属性的性别之间的相似度为0,表示完全不相似。
S502、对于每个第二用户属性的第一性别,若第一性别与第一用户属性的性别一致,则确定第一性别与第一用户属性的性别的第二相似度为1。
如果第一性别与第一用户属性的性别相同,则第一性别与第一用户属性的性别之间的相似度为1,表示完全相似。
本实施方式可以根据第一性别与第一用户属性的性别的一致性来确定相似度,为后续的数据分析提供基础。
在本实施例的其中一种实施方式中,职业相似度确定步骤,包括如下步骤:
S601、对于每个第二用户属性的第一职业,将第一职业转换为第一数据集合,将第一用户属性的职业转换为第二数据集合。
将第一职业和第一用户属性的职业转换为可进行集合操作的数据集合,以便后续计算相似度。
S602、计算第一数据集合与第二数据集合的交集大小和并集大小。
交集大小表示第一职业和第一用户属性的职业中相同的部分,而并集大小表示第一职业和第一用户属性的职业的总体大小。
S603、将交集大小除以并集大小,得到第一职业与第一用户属性的职业的第三相似度。
通过交集的大小与并集的大小的比值来衡量两个职业之间的相似度。比值越大,表示两个职业越相似;比值越小,表示两个职业越不相似。
例如,假设第一用户属性的职业为“教师”,而第二用户属性的第一职业有以下几个取值:“医生”、“工程师”、“教师”。
S1、将第一职业转换为第一数据集合,将第一用户属性的职业转换为第二数据集合。在这个例子中,第一数据集合为{“教师”},第二数据集合为{“医生”,“工程师”,“教师”}。
S1、计算第一数据集合与第二数据集合的交集大小和并集大小。交集大小为1,表示第一职业“教师”和第一用户属性的职业“教师”中相同的部分;并集大小为3,表示第一职业和第一用户属性的职业的总体大小。
S3、将交集大小除以并集大小,得到第一职业与第一用户属性的职业的第三相似度。在这个例子中,第三相似度为1/3,即0.33。这表示第一职业“教师”与第一用户属性的职业“教师”之间的相似度为0.33。
本实施方式将第一职业和第一用户属性的职业转换为数据集合,计算交集大小和并集大小,并通过比较交集大小与并集大小的比值来确定第一职业与第一用户属性的职业的相似度。以便于比较不同职业之间的相似程度,为后续的数据分析提供基础。
在本实施例的其中一种实施方式中,对第一相似度、第二相似度与第三相似度进行加权求和步骤,包括如下步骤:
S701、将第一相似度、第二相似度与第三相似度均作为相似度数据集。
S702、对于任意一个相似度数据集,获取总样本数量、相似样本数量和不相似样本数量,并确定划分条件,并根据划分条件确定每个划分条件下的相似数量和不相似数量。
具体的,对于任意一个相似度数据集,确定划分条件,包括如下步骤:
S7021、对于第一相似度对应的相似度数据集,确定划分条件为高年龄和低年龄。
具体的,将大于预设年龄值的年龄作为高年龄,将小于或等于预设年龄值的年龄作为低年龄。
S7022、对于第二相似度对应的相似度数据集,确定划分条件为第一性别与第二性别。
可以设置第一性别为男性,第二性别为女性,也可以设置第一性别为女性,第二性别为男性。
S7023、对于第三相似度对应的相似度数据集,确定划分条件为第一职业与第二职业。
第一职业可以是学生或者教师等教育职业,第二职业可以是医生、工程师等除了教育职业的其他职业。
以年龄为例,对根据划分条件确定每个划分条件下的相似数量和不相似数量进行具体说明:
假设相似样本数量有10个,不相似样本数量有20个,并根据划分条件确定每个划分条件下的相似数量和不相似数量,可以进行划分得到高年龄的样本数量有10个,低年龄的样本数量有20个,且高年龄有5个相似样本和5个不相似样本,低年龄有13个相似样本和7个不相似样本。根据上述内容得知,高年龄的相似数量为5,不相似数量为5,低年龄的相似数量为13,不相似数量为7。
S703、采用熵计算公式,根据总样本数量、相似样本数量和不相似样本数量计算相似度数据集的熵。
熵用于衡量一个随机变量或一组数据的不确定性或信息量。
具体的,熵计算公式为:
熵=-Σ(p*log2p);
式中,p为划分条件的概率。
以职业为例举例说明,划分条件包括第一职业和第二职业,假设第一职业有10个相似样本和5个不相似样本,第二职业有5个相似样本和10个不相似样本,则第一职业的概率为p(A)=(10+5)/(10+5+5+10)=15/30=1/2,同理,第二职业的概率为1/2,则划分条件的概率p为1/2,则第一职业的熵=-Σ(1/2*log21/2)=1,第二职业的熵=-Σ(1/2*log21/2)=1,相似度数据集的熵=P(第一职业)*第一职业的熵+P(第二职业)*第二职业的熵=(1/2) * 1 +(1/2) * 1 = 1/2 + 1/2 = 1。
S704、采用条件熵计算公式,根据总样本数量、每个划分条件下的相似数量、不相似数量,计算相似度数据集的条件熵。
条件熵用于表示划分条件的不确定性。
具体的,条件熵计算公式为:
条件熵=Σ((|Dv|/|D|)*Ent(Dv));
式中,|Dv|表示划分条件的样本数量,划分条件的样本数量=划分条件下的相似数量+不相似数量,|D|表示总样本数量,Ent(Dv)表示相似度数据集的熵。
以上述职业为例举例说明,若相似度数据集的熵为1,条件熵=(15/30)*1+(15/30)*1=1。
S705、将熵减去条件熵,得到相似度数据集的信息增益。
以上述职业的相似度数据集为例,信息增益= 熵 - 条件熵=1-1=0。
S706、将信息增益作为与相似度数据集对应的相似度的权重,得到第一相似度的第一权重、第二相似度的第二权重和第三相似度的第三权重。
S707、根据加权求和公式,对第一相似度、第二相似度与第三相似度进行加权求和,得到第二用户属性与第一用户属性的相似度;
其中,加权求和公式包括:
H=x1*K1+x2*K2+x3*K3;
式中,H为第二用户属性与第一用户属性的相似度,x1为第一相似度,K1为第一权重,x2为第二相似度,K2为第二权重,x3为第三相似度,K3为第三权重。
举例说明,假设第一相似度x1为0.8,第二相似度x2为0.7,第三相似度x3为0.9。同时,第一权重K1为0.5,第二权重K2为0.3,第三权重K3为0.2。
代入加权求和公式,计算出第二用户属性与第一用户属性的相似度H:
H=0.8*0.5+0.7*0.3+0.9*0.2;
计算结果为:
H=0.4+0.21+0.18=0.79。
因此,根据给定的相似度和权重,第二用户属性与第一用户属性的相似度为0.79。
本实施方式可以根据相似度数据集的不确定性和划分条件,确定相似度的权重,并使用加权求和公式计算第二用户属性与第一用户属性的相似度。可以综合考虑不同相似度的重要性,有利于得到更准确的相似度度量结果。
参照图2,本申请实施例还提供一种基于交互平台的视觉训练系统,可以包括:
第一设备,第一设备上安装有第一应用;
第二设备,与第一设备连接;
第一设备响应于目标用户的第一操作,根据第一应用获取目标用户的视力检测数据和第一用户属性;对视力检测数据进行特征提取,得到第一用户属性的多个第一视力特征;获取不同第二用户属性下的历史视力检测数据,并根据第二用户属性对历史视力检测数据进行分类,得到每个第二用户属性的历史视力检测数据;确定每个第二用户属性与第一用户属性的相似度,并将大于第一预设阈值的相似度对应的第二用户属性作为第一用户属性的邻居用户属性;对邻居用户属性的历史视力检测数据进行特征提取,得到多个第二视力特征;根据多个第一视力特征和多个第二视力特征,确定目标用户的视力关键问题;将视力关键问题输入至预构建的视力分析模型,得到每个视力关键问题对应的视力训练项目;将所有视力训练项目发送至第二设备;
第二设备根据视力训练项目发布对应的视力训练课程至第一设备,使目标用户通过第一设备的视力训练课程进行视觉训练。
图2示出了第一设备与第二设备的两种连接方式,即第一设备可以使用互联网作为媒介,通过无线通信的方式(如Wi-Fi)与第二设备建立连接。也可以通过有线的方式与第二设备连接。
本申请实施例根据目标用户的视力检测数据和用户属性,通过特征提取得到多个视力特征。然后,根据不同用户属性下的历史视力检测数据进行分类,并确定与目标用户属性相似度较高的邻居用户属性。接着,对邻居用户属性的历史视力检测数据进行特征提取,得到多个第二视力特征。根据第一视力特征和第二视力特征,确定目标用户的视力关键问题。将关键问题输入预构建的视力分析模型,得到对应的视力训练项目。最后,将所有的视力训练项目发送至第二设备,发布对应的视力训练课程至第一设备,使目标用户能够通过第一设备进行个性化的视觉训练,从而可以根据用户的特点和需求进行个性化的视力训练,提供更加精准和有效的训练方案。同时综合分析目标用户的视力关键问题,并根据预构建的视力分析模型得到相应的视力训练项目,从而提供全面和多样化的训练内容。
本申请实施例还提供一种机器可读存储介质,该机器可读存储介质上存储有指令,该指令用于使得机器执行上述的基于交互平台的视觉训练方法。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器 (CPU)、输入/输出接口、网络接口和内存。
存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。存储器是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存 (PRAM)、静态随机存取存储器 (SRAM)、动态随机存取存储器 (DRAM)、其他类型的随机存取存储器 (RAM)、只读存储器 (ROM)、电可擦除可编程只读存储器 (EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘 (DVD) 或其他光学存储、磁盒式磁带,磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体 (transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。
以上仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (10)
1.一种基于交互平台的视觉训练方法,其特征在于,应用于第一设备,所述第一设备上安装有第一应用,该方法包括:
响应于目标用户的第一操作,根据所述第一应用获取所述目标用户的视力检测数据和第一用户属性;
对所述视力检测数据进行特征提取,得到所述第一用户属性的多个第一视力特征;
获取不同第二用户属性下的历史视力检测数据,并根据所述第二用户属性对所述历史视力检测数据进行分类,得到每个所述第二用户属性的历史视力检测数据;
确定每个所述第二用户属性与所述第一用户属性的相似度,并将大于第一预设阈值的相似度对应的第二用户属性作为所述第一用户属性的邻居用户属性;
对所述邻居用户属性的历史视力检测数据进行特征提取,得到多个第二视力特征;
根据多个所述第一视力特征和多个所述第二视力特征,确定所述目标用户的视力关键问题;
将所述视力关键问题输入至预构建的视力分析模型,得到每个所述视力关键问题对应的视力训练项目;
将所有所述视力训练项目发送至第二设备,以使所述第二设备根据所述视力训练项目发布对应的视力训练课程至所述第一设备,使所述目标用户通过所述第一设备的所述视力训练课程进行视觉训练。
2.根据权利要求1所述的方法,其特征在于,所述根据多个所述第一视力特征和多个所述第二视力特征,确定所述目标用户的视力关键问题,包括:
对多个所述第二视力特征进行采样,获取无向词汇对,其中,所述无向词汇对用于表征所述第二视力特征的词汇共现关系;
将所述无向词汇对进行整理,得到词汇共现二维矩阵,在所述词汇共现二维矩阵中,行和列表示词汇,每个元素表示两个词汇的共现次数;
将所述词汇共现二维矩阵中小于第二预设阈值的共现次数设置为0,并将大于或等于第二预设阈值的共现次数进行保留,得到稀疏矩阵;
对所述稀疏矩阵进行压缩,以去除所述稀疏矩阵中的0元素,对于所述稀疏矩阵中的剩余元素,将小于第三预设阈值的共现次数作为稀疏节点,将大于或等于所述第三预设阈值的共现次数作为拥挤节点;
将m个稀疏节点与n个拥挤节点进行多项式特征交叉,得到p个第一组合特征,其中,m、n均为正整数,p=m*n;
将m个所述稀疏节点与k个所述第一视力特征进行类别特征交叉,得到r个第二组合特征,其中,k为正整数,r=m*k;
将n个所述拥挤节点与k个所述第一视力特征进行类别特征交叉,得到q个第三组合特征,其中q=n*k;
将所述第一组合特征、所述第二组合特征与所述第三组合特征按列进行拼接,得到特征矩阵;
根据所述特征矩阵,计算每个特征的方差,将小于第四预设阈值的方差对应的特征进行筛除,将大于或等于所述第四预设阈值的方差对应的特征进行保留,并作为关键特征,所述关键特征用于表征对所述目标用户的视力关键问题的预测能力较强;
对于每个所述关键特征,确定与所述关键特征关联性最大的视力问题,并将所述视力问题作为所述目标用户的视力关键问题。
3.根据权利要求1所述的方法,其特征在于,所述第一用户属性与所述第二用户属性均包括年龄、性别和职业,所述确定每个所述第二用户属性与所述第一用户属性的相似度,包括:
对于每个所述第二用户属性的第一年龄,计算所述第一年龄与所述第一用户属性的年龄的第一相似度;
对于每个所述第二用户属性的第一性别,根据性别相似度确定步骤,确定所述第一性别与所述第一用户属性的性别的第二相似度;
对于每个所述第二用户属性的第一职业,根据职业相似度确定步骤,确定所述第一职业与所述第一用户属性的职业的第三相似度;
对所述第一相似度、所述第二相似度与所述第三相似度进行加权求和步骤,得到每个所述第二用户属性与所述第一用户属性的相似度。
4.根据权利要求3所述的方法,其特征在于,所述对于每个所述第二用户属性的第一年龄,计算所述第一年龄与所述第一用户属性的年龄的第一相似度,包括:
对于每个所述第二用户属性的第一年龄,计算所述第一年龄与所述第一用户属性的年龄的欧式距离;
将所述欧式距离作为所述第一年龄与所述第一用户属性的年龄的第一相似度。
5.根据权利要求3所述的方法,其特征在于,所述性别相似度确定步骤,包括:
对于每个所述第二用户属性的第一性别,若所述第一性别与所述第一用户属性的性别不一致,则确定所述第一性别与所述第一用户属性的性别的第二相似度为0;
对于每个所述第二用户属性的第一性别,若所述第一性别与所述第一用户属性的性别一致,则确定所述第一性别与所述第一用户属性的性别的第二相似度为1。
6.根据权利要求3所述的方法,其特征在于,所述职业相似度确定步骤,包括:
对于每个所述第二用户属性的第一职业,将所述第一职业转换为第一数据集合,将所述第一用户属性的职业转换为第二数据集合;
计算所述第一数据集合与所述第二数据集合的交集大小和并集大小;
将所述交集大小除以所述并集大小,得到所述第一职业与所述第一用户属性的职业的第三相似度。
7.根据权利要求4-6中任一项所述的方法,其特征在于,所述对所述第一相似度、所述第二相似度与所述第三相似度进行加权求和步骤,包括:
将所述第一相似度、所述第二相似度与所述第三相似度均作为相似度数据集;
对于任意一个所述相似度数据集,获取总样本数量、相似样本数量和不相似样本数量,并确定划分条件,并根据所述划分条件确定每个划分条件下的相似数量和不相似数量;
采用熵计算公式,根据所述总样本数量、所述相似样本数量和所述不相似样本数量计算所述相似度数据集的熵;
采用条件熵计算公式,根据所述总样本数量、每个划分条件下的相似数量、不相似数量,计算所述相似度数据集的条件熵;
将所述熵减去所述条件熵,得到所述相似度数据集的信息增益;
将所述信息增益作为与所述相似度数据集对应的相似度的权重,得到所述第一相似度的第一权重、所述第二相似度的第二权重和所述第三相似度的第三权重;
根据加权求和公式,对所述第一相似度、所述第二相似度与所述第三相似度进行加权求和,得到所述第二用户属性与所述第一用户属性的相似度;
其中,所述加权求和公式包括:
H=x1*K1+x2*K2+x3*K3;
式中,H为所述第二用户属性与所述第一用户属性的相似度,x1为第一相似度,K1为第一权重,x2为第二相似度,K2为第二权重,x3为第三相似度,K3为第三权重。
8.根据权利要求7所述的方法,其特征在于,对于任意一个所述相似度数据集,确定划分条件,包括:
对于所述第一相似度对应的相似度数据集,确定划分条件为高年龄和低年龄;
对于所述第二相似度对应的相似度数据集,确定划分条件为第一性别与第二性别;
对于所述第三相似度对应的相似度数据集,确定划分条件为第一职业与第二职业。
9.一种基于交互平台的视觉训练系统,其特征在于,包括:
第一设备,所述第一设备上安装有第一应用;
第二设备,与所述第一设备连接;
所述第一设备响应于目标用户的第一操作,根据所述第一应用获取所述目标用户的视力检测数据和第一用户属性;对所述视力检测数据进行特征提取,得到所述第一用户属性的多个第一视力特征;获取不同第二用户属性下的历史视力检测数据,并根据所述第二用户属性对所述历史视力检测数据进行分类,得到每个所述第二用户属性的历史视力检测数据;确定每个所述第二用户属性与所述第一用户属性的相似度,并将大于第一预设阈值的相似度对应的第二用户属性作为所述第一用户属性的邻居用户属性;对所述邻居用户属性的历史视力检测数据进行特征提取,得到多个第二视力特征;根据多个所述第一视力特征和多个所述第二视力特征,确定所述目标用户的视力关键问题;将所述视力关键问题输入至预构建的视力分析模型,得到每个所述视力关键问题对应的视力训练项目;将所有所述视力训练项目发送至第二设备;
所述第二设备根据所述视力训练项目发布对应的视力训练课程至所述第一设备,使所述目标用户通过所述第一设备的所述视力训练课程进行视觉训练。
10.一种机器可读存储介质,其特征在于,该机器可读存储介质上存储有指令,该指令用于使得机器执行根据权利要求1至8中任一项所述的基于交互平台的视觉训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410086557.5A CN117809807B (zh) | 2024-01-22 | 2024-01-22 | 基于交互平台的视觉训练方法、系统及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410086557.5A CN117809807B (zh) | 2024-01-22 | 2024-01-22 | 基于交互平台的视觉训练方法、系统及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117809807A true CN117809807A (zh) | 2024-04-02 |
CN117809807B CN117809807B (zh) | 2024-05-31 |
Family
ID=90430419
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410086557.5A Active CN117809807B (zh) | 2024-01-22 | 2024-01-22 | 基于交互平台的视觉训练方法、系统及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117809807B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020119030A1 (zh) * | 2018-12-11 | 2020-06-18 | 平安科技(深圳)有限公司 | 用于答复问题的模型训练方法、装置、设备及存储介质 |
CN112842249A (zh) * | 2021-03-09 | 2021-05-28 | 京东方科技集团股份有限公司 | 视力检测方法、装置、设备及存储介质 |
CN114783563A (zh) * | 2022-05-10 | 2022-07-22 | 浙江工业大学 | 一种视觉训练的推荐方法 |
CN115019933A (zh) * | 2022-06-16 | 2022-09-06 | 浙江工业大学 | 一种融合gmf及cdae的弱视训练方案推荐方法 |
WO2022198752A1 (zh) * | 2021-03-24 | 2022-09-29 | 平安科技(深圳)有限公司 | 推送模型训练方法、数据推送方法、装置及存储介质 |
CN116775996A (zh) * | 2023-06-21 | 2023-09-19 | 广州视景医疗软件有限公司 | 一种基于用户反馈的视觉训练项目推荐方法和装置 |
CN116958679A (zh) * | 2023-07-25 | 2023-10-27 | 辽宁蜻蜓健康科技有限公司 | 一种基于弱监督的目标检测方法及相关设备 |
-
2024
- 2024-01-22 CN CN202410086557.5A patent/CN117809807B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020119030A1 (zh) * | 2018-12-11 | 2020-06-18 | 平安科技(深圳)有限公司 | 用于答复问题的模型训练方法、装置、设备及存储介质 |
CN112842249A (zh) * | 2021-03-09 | 2021-05-28 | 京东方科技集团股份有限公司 | 视力检测方法、装置、设备及存储介质 |
WO2022198752A1 (zh) * | 2021-03-24 | 2022-09-29 | 平安科技(深圳)有限公司 | 推送模型训练方法、数据推送方法、装置及存储介质 |
CN114783563A (zh) * | 2022-05-10 | 2022-07-22 | 浙江工业大学 | 一种视觉训练的推荐方法 |
CN115019933A (zh) * | 2022-06-16 | 2022-09-06 | 浙江工业大学 | 一种融合gmf及cdae的弱视训练方案推荐方法 |
CN116775996A (zh) * | 2023-06-21 | 2023-09-19 | 广州视景医疗软件有限公司 | 一种基于用户反馈的视觉训练项目推荐方法和装置 |
CN116958679A (zh) * | 2023-07-25 | 2023-10-27 | 辽宁蜻蜓健康科技有限公司 | 一种基于弱监督的目标检测方法及相关设备 |
Non-Patent Citations (2)
Title |
---|
刘志;林振涛;鄢致雯;陈波;: "基于属性偏好自学习的推荐方法", 浙江工业大学学报, no. 02, 9 April 2018 (2018-04-09) * |
徐红艳;杜文刚;冯勇;王佳美;刘梦迪;: "一种基于多属性评分的协同过滤算法", 辽宁大学学报(自然科学版), no. 02, 15 May 2015 (2015-05-15) * |
Also Published As
Publication number | Publication date |
---|---|
CN117809807B (zh) | 2024-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111738001B (zh) | 同义词识别模型的训练方法、同义词确定方法及设备 | |
US20150278350A1 (en) | Recommendation System With Dual Collaborative Filter Usage Matrix | |
CN111506719A (zh) | 一种关联问句推荐方法、装置、设备及可读存储介质 | |
CN110674413B (zh) | 用户关系挖掘方法、装置、设备和存储介质 | |
CN114372532B (zh) | 标签标注质量的确定方法、装置、设备、介质及产品 | |
CN113656699B (zh) | 用户特征向量确定方法、相关设备及介质 | |
CN112329460A (zh) | 文本的主题聚类方法、装置、设备及存储介质 | |
CN114330499A (zh) | 分类模型的训练方法、装置、设备、存储介质及程序产品 | |
CN111159563A (zh) | 用户兴趣点信息的确定方法、装置、设备及存储介质 | |
CN110390019A (zh) | 一种试题的聚类方法、去重方法及系统 | |
KR101450453B1 (ko) | 컨텐츠 추천 방법 및 장치 | |
Li et al. | Dynamic key-value memory enhanced multi-step graph reasoning for knowledge-based visual question answering | |
JP2023536773A (ja) | テキスト品質評価モデルのトレーニング方法及びテキスト品質の決定方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
CN117437422A (zh) | 一种医学影像识别方法和装置 | |
KR20180066705A (ko) | 학습자 취약점 분석 방법 및 장치 | |
CN114416929A (zh) | 实体召回模型的样本生成方法、装置、设备及存储介质 | |
CN118260439A (zh) | 密集架系统的信息管理系统及方法 | |
CN111008916A (zh) | 知识点掌握推断方法、系统、计算机设备及存储介质 | |
CN113515593A (zh) | 基于聚类模型的话题检测方法、装置和计算机设备 | |
CN117809807B (zh) | 基于交互平台的视觉训练方法、系统及存储介质 | |
CN112949672A (zh) | 商品识别方法、装置、设备以及计算机可读存储介质 | |
CN116756554B (zh) | 对齐模型的训练方法、装置、设备、介质及程序产品 | |
CN116955788A (zh) | 一种内容处理的方法、装置、设备、存储介质及程序产品 | |
CN114330720A (zh) | 用于云计算的知识图谱构建方法、设备及存储介质 | |
CN114782224A (zh) | 基于用户特征的网页考评作弊监测方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |