CN112632351B - 分类模型的训练方法、分类方法、装置及设备 - Google Patents

分类模型的训练方法、分类方法、装置及设备 Download PDF

Info

Publication number
CN112632351B
CN112632351B CN202011595164.5A CN202011595164A CN112632351B CN 112632351 B CN112632351 B CN 112632351B CN 202011595164 A CN202011595164 A CN 202011595164A CN 112632351 B CN112632351 B CN 112632351B
Authority
CN
China
Prior art keywords
users
information
network
classification model
trained
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011595164.5A
Other languages
English (en)
Other versions
CN112632351A (zh
Inventor
王雅晴
窦德景
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202011595164.5A priority Critical patent/CN112632351B/zh
Publication of CN112632351A publication Critical patent/CN112632351A/zh
Priority to US17/349,280 priority patent/US20210312288A1/en
Application granted granted Critical
Publication of CN112632351B publication Critical patent/CN112632351B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/906Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Business, Economics & Management (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Databases & Information Systems (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请公开了一种分类模型的训练方法、分类方法、装置及设备,涉及数据处理领域中的深度学习、人工智能技术。具体实现方案为:获取多个用户的行为信息,以及所述多个用户的个人基本信息;其中,所述多个用户中的至少部分用户的类别已知;将所述多个用户的个人基本信息输入待训练的分类模型中,得到所述多个用户的特征信息,以及已知类别的用户的预测类别;根据所述多个用户的行为信息、所述多个用户的特征信息、所述已知类别的用户的预测类别、以及所述已知类别的用户的真实类别,对所述待训练的分类模型进行训练,得到训练后的分类模型。利用分类模型确定出的用户类别更加准确。

Description

分类模型的训练方法、分类方法、装置及设备
技术领域
本申请涉及数据处理领域中的深度学习、人工智能技术,尤其涉及一种分类模型的训练方法、分类方法、装置及设备。
背景技术
在多种应用场景中,需要对用户进行分类。例如,在教学场景中,教师需要识别学生的成绩类别,以便根据成绩类别对学生进行针对性的指导。再例如,在信息推荐场景中,需要识别用户的兴趣类别,以便根据兴趣类别对用户进行个性化的信息推荐。
现有技术中,一般会预先设置不同用户类别对应的识别规则。一个类别对应的识别规则中定义了属于该类别的用户具有的特征。在对用户进行分类时,先提取该用户的特征,然后将提取到的特征与识别规则进行匹配,从而确定出用户所属的类别。
然而,上述的识别规则一般是相关人员对各种类型的用户进行分析生成的,这样可能由于工作人员的经验或者主观因素的影响,导致识别规则准确性较低,进而采用这些识别规则对用户进行分类,分类结果的准确性较低。
发明内容
本申请提供了一种分类模型的训练方法、分类方法、装置及设备。
根据本申请的第一方面,提供了一种分类模型的训练方法,包括:
获取多个用户的行为信息,以及所述多个用户的个人基本信息;其中,所述多个用户中的至少部分用户的类别已知;
将所述多个用户的个人基本信息输入待训练的分类模型中,得到所述多个用户的特征信息,以及已知类别的用户的预测类别;
根据所述多个用户的行为信息、所述多个用户的特征信息、所述已知类别的用户的预测类别、以及所述已知类别的用户的真实类别,对所述待训练的分类模型进行训练,得到训练后的分类模型。
根据本申请的第二方面,提供了一种分类方法,包括:
获取未知类别的用户的特征信息;
将所述未知类别的用户的特征信息输入已训练的分类模型,根据所述分类模型的输出,确定所述未知类别的用户的预测类别;
其中,所述已训练的分类模型是根据多个用户的行为信息、所述多个用户的个人基本信息、以及已知类别的用户的真实类别训练得到的;所述多个用户包括所述已知类别的用户和所述未知类别的用户,所述未知类别的用户的特征信息是在所述分类模型的训练过程中学习得到的,所述分类模型采用第一方面任一项所述的方法训练得到。
根据本申请的第三方面,提供了一种分类模型的训练装置,包括:
获取模块,用于获取多个用户的行为信息,以及所述多个用户的个人基本信息;其中,所述多个用户中的至少部分用户的类别已知;
训练模块,用于将所述多个用户的个人基本信息输入待训练的分类模型中,得到所述多个用户的特征信息,以及已知类别的用户的预测类别;
所述训练模块,还用于根据所述多个用户的行为信息、所述多个用户的特征信息、所述已知类别的用户的预测类别、以及所述已知类别的用户的真实类别,对所述待训练的分类模型进行训练,得到训练后的分类模型。
根据本申请的第四方面,提供了一种分类装置,包括:
获取模块,用于获取未知类别的用户的特征信息;
分类模块,用于将所述未知类别的用户的特征信息输入已训练的分类模型,根据所述分类模型的输出,确定所述未知类别的用户的预测类别。
根据本申请的第五方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行第一方面中任一项所述的方法,或者,执行第二方面所述的方法。
根据本申请的第六方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行第一方面中任一项所述的方法,或者,执行第二方面所述的方法。
根据本申请的第七方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现如第一方面中任一项所述的方法,或者,实现如第二方面所述的方法。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1为本申请提供的一种分类模型的训练方法的流程示意图;
图2为本申请提供的一种调查问卷的示意图;
图3为本申请提供的另一种分类模型的训练方法的流程示意图;
图4A为本申请提供的一种可能的分类模型的结构示意图;
图4B为本申请提供的另一种可能的分类模型的结构示意图;
图4C为本申请提供的又一种可能的分类模型的结构示意图;
图5为本申请提供的一种分类方法的流程示意图;
图6A为本申请提供的一种分类模型的训练装置的结构示意图;
图6B为本申请提供的另一种分类模型的训练装置的结构示意图;
图7为本申请提供的一种分类装置的结构示意图;
图8为本申请提供的一种电子设备的结构示意图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本申请提供一种分类模型的训练方法、分类方法、装置及设备,应用于数据处理领域中的深度学习、人工智能技术,以提高分类结果的准确性。
本申请利用机器学习方法对用户类别的影响因素与类别之间的关系进行学习,得到分类模型。进而,利用分类模型来对用户进行分类,以提高确定出的用户类别的准确性。
发明人在研究过程中发现,用户的行为会影响用户所属的类别。并且,如果多个用户具有相似性的话,该多个用户所属的类别也相同或者相似,而用户之间的相似性可以通过用户的个人基本信息体现。因此,本申请中将用户的行为信息以及用户的个人基本信息作为类别影响因素。也就是说,通过对用户的行为信息、用户的个人基本信息与类别之间的关系进行学习,得到分类模型,使得分类模型能够准确对用户进行分类。
本申请方案可以有多种应用场景,包括但不限于:对学生成绩进行分类的场景、对员工绩效进行分类的场景、对用户兴趣进行分类的场景等。为了便于理解,本申请实施例涉及举例时,以学生成绩分类场景为例进行描述,其他应用场景的实现方式类似,本申请实施例不作赘述。
下面结合几个具体的实施例对本申请的技术方案进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。
图1为本申请提供的一种分类模型的训练方法的流程示意图。如图1所示,本实施例的方法包括:
S101:获取多个用户的行为信息,以及所述多个用户的个人基本信息;其中,所述多个用户中的至少部分用户的类别已知。
本实施例的方法可以由电子设备执行。该电子设备可以为具有计算能力的任意电子设备,包括但不限于:终端设备、服务器等。其中,服务器可以为云端服务器。本实施例中的电子设备中集成有数据库,或者电子设备与数据库连接。数据库用于存储训练分类模型所需要的数据。电子设备可以从数据库中获取训练分类模型所需要的数据。
本实施例中,行为信息是指用于描述用户的行为特点的信息。行为信息可以包括用户的外显的行为和内隐的行为。内隐的行为包括但不限于用户的心理活动或动机。外显的行为包括但不限于用户所表现出的举止、动作等。
当分类模型应用于不同的应用场景时,用户的行为信息可以包括不同的内容。示例性的,在学习成绩分类场景中,行为信息也可以称为学习状况信息,是指用于描述学生的学习动机、行为的信息,例如:学习习惯、学习态度、学习方法、学习时的情绪心情等。在员工绩效分类场景中,行为信息也可以称为工作状况信息,是指用于描述员工的工作动机、行为的信息,例如:工作习惯、工作态度、工作方法、工作压力等。在用户兴趣分类场景中,行为信息包括但不限于用户的购买行为、浏览行为、评论行为等。
用户的个人基本信息是指用于描述用户画像的信息。一些示例中,用户的个人基本信息也可以称为用户画像信息。用户的个人基本信息包括但不限于:性别、年龄、家庭背景、家乡、专业、职业、学历、工作年限等信息。与行为信息类似的,当分类模型应用于不同的应用场景时,用户的个人基本信息可以包括不同的内容。
本申请实施例中,用户的行为信息、用户的个人基本信息可以通过多种方式收集得到,例如,可以通过大数据分析的方式得到。一些可能的场景中,还可以采用调查问卷的方式,请用户自行提供自己的行为信息和个人基本信息。换句话说,可以根据所述多个用户填写的调查问卷信息,获取所述多个用户的行为信息,以及所述多个用户的个人基本信息。下面结合图2进行举例说明。
示例性的,图2为本申请提供的一种调查问卷的示意图。图2以教育调查问卷为例进行示意。如图2所示,调查问卷通常包含一系列问题或者描述语句(例如:我担心老师会随时纠正我的错误),每个问题或者描述语句提供有预设数量的选项供用户选择。例如,图2示例的是教育调查问卷中包括描述语句的情况。针对每个描述语句提供了选项1-7,其中1表示非常不同意,7表示非常同意。即,按照1到7的顺序表示同意的程度递增。用户在填写教育调查问卷时可以根据自己对描述语句的同意程度选择合适的选项。
应理解,调查问卷信息中包括:用户对于问题或者描述语句做出的选择答案,这些选择答案中隐含指示了用户的行为特点。因此,可以将调查问卷信息中的“用户对于问题或者描述语句做出的选择答案”作为用户的行为信息。当然,用户的行为信息还可以是通过对“用户对于问题或者描述语句做出的选择答案”进行分析处理得到的。
另外,在收集教育调查问卷信息时,通常还要求用户提供性别、年龄、家庭背景、家乡、专业等个人基本信息。因此,还可以根据教育调查问卷信息获取到用户的个人基本信息。
本实施例中,所述多个用户中的至少部分用户的类别已知,也就是说,已知至少部分用户所属的真实类别。能够理解,这些已知的真实类别将作为训练标签。一些示例中,所述多个用户中所有用户的类别已知,该情况相当于所有样本均具有标签,该情况对应全监督训练场景。另一些示例中,所述多个用户中部分用户的类别已知,该情况相当于部分样本具有标签,该情况对应半监督训练场景。
S102:将所述多个用户的个人基本信息输入待训练的分类模型中,得到所述多个用户的特征信息,以及已知类别的用户的预测类别。
本实施例中,分类模型被配置为接收多个用户的个人基本信息,并对所述多个用户的个人基本信息进行特征提取,得到所述多个用户的特征信息,并且,对已知类别的用户的特征信息进行分类处理,得到已知类别的用户的预测类别。
其中,分类模型可以采用神经网络模型。需要说明的是,本实施例对于分类模型的结构不作限定,可以采用多种网络结构。几种可能的网络结构示例可以参见后续实施例的详细描述。
S103:根据所述多个用户的行为信息、所述多个用户的特征信息、所述已知类别的用户的预测类别、以及所述已知类别的用户的真实类别,对所述待训练的分类模型进行训练,得到训练后的分类模型。
具体的,可以根据所述多个用户的行为信息、所述多个用户的特征信息、所述已知类别的用户的预测类别、以及所述已知类别的用户的真实类别,确定所述待训练的分类模型的损失。
为了实现端到端训练,上述损失可以为分类模型的端到端损失。一种可能的实现方式中,上述损失可以包括第一损失和第二损失。第一损失表示特征损失,第二损失表示分类损失。示例性的,可以根据所述多个用户的行为信息和所述用户的特征信息,确定第一损失。并且,根据所述已知类别的用户的预测类别和所述已知类别的用户的真实类别,确定第二损失。然后,根据所述第一损失和所述第二损失,确定所述待训练的分类模型的损失。
进一步的,以最小化所述损失为目标,对所述待训练的分类模型进行训练,得到训练后的分类模型。
示例性的,以最小化所述损失为目标,对分类模型中的参数进行优化调整。通过多次迭代,直至分类模型的分类准确率大于或者等于预设值,或者直至达到预设的迭代次数,训练结束。
本实施例提供的分类模型的训练方法,包括:获取多个用户的行为信息,以及所述多个用户的个人基本信息;其中,所述多个用户中的至少部分用户的类别已知;将所述多个用户的个人基本信息输入待训练的分类模型中,得到所述多个用户的特征信息,以及已知类别的用户的预测类别;根据所述多个用户的行为信息、所述多个用户的特征信息、所述已知类别的用户的预测类别、以及所述已知类别的用户的真实类别,对所述待训练的分类模型进行训练,得到训练后的分类模型。由于在分类模型的训练过程中,考虑了用户的行为信息以及用户的个人基本信息,因此,利用分类模型确定出的用户类别更加准确。
在上述实施例的基础上,为了便于理解,下面几个实施例以学生成绩分类场景为例进行描述。在下面几个实施例中,分类模型具体为成绩分类模型,用于对学生的成绩进行分类;用户的行为信息具体为学生的学习状况信息;用户的类别具体为学生的成绩类别。
图3为本申请提供的另一种分类模型的训练方法的流程示意图。如图3所示,本实施例的方法包括:
S301:获取多个学生的学习状况信息,以及所述多个学生的个人基本信息;其中,所述多个学生中的至少部分学生的成绩类别已知。
本实施例中,学生的学习状况信息是指用于描述学生的学习动机、行为的信息。学习状况信息包括但不限于:学习习惯、学习态度、学习方法、学习时长、课堂满意度、学习压力、学习时的情绪心情等信息。
学生的个人基本信息是指用于描述学生画像的信息。学生的个人基本信息包括但不限于:性别、年龄、家庭背景、家乡、专业、入学时间、学校等级、年级、自我评估等信息。一些示例中,学生的个人基本信息也可以称为学生画像信息。
本实施例中,将多个学生作为训练样本。可以根据所述多个学生填写的教育调查问卷信息,获取所述多个学生的学习状况信息,以及所述多个学生的个人基本信息。
应理解,教育调查问卷信息中包括:学生对于问题或者描述语句做出的选择答案,这些选择答案中隐含指示了学生的动机、行为。因此,可以将教育调查问卷信息中的“学生对于问题或者描述语句做出的选择答案”作为学生的学习状况信息。当然,学生的学习状况信息还可以是通过对“学生对于问题或者描述语句做出的选择答案”进行分析处理得到的。
在收集教育调查问卷信息时,通常还要求学生提供性别、年龄、家庭背景、家乡、专业、入学时间、学校等级、年级等个人基本信息。因此,可以根据教育调查问卷信息获取到学生的个人基本信息。
本实施例中,学生成绩可以划分为多个类别。例如:可以划分为优秀、良好、合格、不合格四个类别。还可以划分为通过、不通过两个类别。当然,还可以有其他划分方式。本申请对此不作限定。
其中,所述多个学生中的至少部分学生的成绩类别已知,所已知的成绩类别为对应学生的真实成绩类别。示例性的,可以在教育调查问卷中请学生提供自己的成绩类别,这样,可以根据教育调查问卷信息获取到学生的成绩类别。示例性的,还可以通过学生所在的教育机构获取到学生的成绩类别,例如,根据学生的历史成绩确定出的成绩类别。这样,得到的成绩类别较为客观。
能够理解,这些已知的成绩类别将作为训练标签。一些示例中,所述多个学生中所有学生的成绩类别已知,该情况相当于所有样本均具有标签,该情况对应全监督训练场景。另一些示例中,所述多个学生中部分学生的成绩类别已知,该情况相当于部分样本具有标签,该情况对应半监督训练场景。
S302:将所述多个学生的个人基本信息输入待训练的成绩分类模型中,得到所述多个学生的特征信息,以及已知成绩类别的学生的预测成绩类别。
本实施例中,成绩分类模型被配置为接收多个学生的个人基本信息,并对所述多个学生的个人基本信息进行特征提取,得到所述多个学生的特征信息,并且,对已知成绩类别的学生的特征信息进行分类处理,得到已知成绩类别的学生的预测成绩类别。
其中,成绩分类模型可以采用神经网络模型。需要说明的是,本实施例对于成绩分类模型的结构不作限定,可以采用多种网络结构。几种可能的网络结构示例可以参见后续实施例的详细描述。
S303:根据所述多个学生的学习状况信息、所述多个学生的特征信息、所述已知成绩类别的学生的预测成绩类别、以及所述已知成绩类别的学生的真实成绩类别,对所述待训练的成绩分类模型进行训练,得到训练后的成绩分类模型。
本实施例中,通过对学生的特征信息进行分类得到学生的预测成绩类别。由于学习状况信息指示了学生的动机和行为。只有当学生的特征信息与学习状况信息无限接近时,根据学生的特征信息分类得到的预测成绩类别才能与真实成绩类别更加接近。因此,在对训练模型进行训练的过程中,需要依据所述多个学生的学习状况信息、所述多个学生的特征信息、所述已知成绩类别的学生的预测成绩类别、以及所述已知成绩类别的学生的真实成绩类别,对所述待训练的成绩分类模型进行训练。
具体的,可以根据所述多个学生的学习状况信息、所述多个学生的特征信息、所述已知成绩类别的学生的预测成绩类别、以及所述已知成绩类别的学生的真实成绩类别,确定所述待训练的成绩分类模型的损失。
一种可能的实现方式中,上述损失可以包括第一损失和第二损失。第一损失表示特征损失,第二损失表示分类损失。示例性的,可以根据所述多个学生的学习状况信息和所述多个学生的特征信息,确定第一损失。并且,根据所述已知成绩类别的学生的预测成绩类别和所述已知成绩类别的学生的真实成绩类别,确定第二损失。然后,根据所述第一损失和所述第二损失,确定所述待训练的成绩分类模型的损失。
进一步的,以最小化所述损失为目标,对所述待训练的成绩分类模型进行训练,得到训练后的成绩分类模型。
示例性的,以最小化所述损失为目标,对成绩分类模型中的参数进行优化调整。通过多次迭代,直至成绩分类模型的分类准确率大于或者等于预设值,或者直至达到预设的迭代次数,训练结束。
本实施例提供的成绩分类模型的训练方法,包括:获取多个学生的学习状况信息,以及所述多个学生的个人基本信息;其中,所述多个学生中的至少部分学生的成绩类别已知;将所述多个学生的个人基本信息输入待训练的成绩分类模型中,得到所述多个学生的特征信息,以及已知成绩类别的学生的预测成绩类别;根据所述多个学生的学习状况信息、所述多个学生的特征信息、所述已知成绩类别的学生的预测成绩类别、以及所述已知成绩类别的学生的真实成绩类别,对所述待训练的成绩分类模型进行训练,得到训练后的成绩分类模型。由于在成绩分类模型的训练过程中,考虑了学生的学习状况信息和个人基本信息,因此,利用成绩分类模型确定出的成绩类别更加准确。
上述实施例描述了分类模型的训练过程。下面结合几个具体的示例描述分类模型可能采用的网络结构。
图4A为本申请提供的一种可能的分类模型的结构示意图。如图4A所示,本实施例的分类模型400包括:特征提取网络401和分类网络402。
其中,特征提取网络401被配置为接收所述多个用户的个人基本信息,对所述多个用户的个人基本信息进行特征提取,并输出所述多个用户的特征信息。
一个示例中,当所述多个用户中的所有用户的类别已知时,特征提取网络401可以将所述多个用户的特征信息输出至分类网络402。
另一个示例中,当所述多个用户中同时包括已知类别的用户和未知类别的用户时,已知类别的用户的特征信息可用于对分类网络402进行训练。因此,特征提取网络401可以将所述多个用户中的已知类别的用户的特征信息输出至分类网络402。
分类网络402被配置为接收所述已知类别的用户的特征信息,对所述已知类别的用户的特征信息进行分类处理,并输出所述已知类别的用户的预测类别。
图4B为本申请提供的另一种可能的分类模型的结构示意图。如图4B所示,在图4A所示的基础上,特征提取网络401可以包括:相似关系生成网络4011和特征生成网络4012。
其中,相似关系生成网络4011被配置为接收所述多个用户的个人基本信息,并根据所述多个用户的个人基本信息生成所述多个用户之间的相似关系,并输出所述多个用户之间的相似关系。
示例性的,相似关系生成网络4011将所述多个用户之间的相似关系输出至特征生成网络4012。
特征生成网络4012被配置为接收所述多个用户之间的相似关系,根据所述多个用户之间的相似关系对所述多个用户的特征信息进行更新,并输出所述多个用户更新后的特征信息。
示例性的,特征生成网络4012中被初始输入的所述多个用户的特征信息可以是随机生成的。利用相似关系生成网络4011输出的所述多个用户之间的相似关系,对所述多个用户的特征信息不断更新,得到所述多个用户更新后的特征信息。
一种可能的实现方式中,相似关系生成网络4011可以包括:多个第一神经网络和多个第二神经网络。第一神经网络和第二神经网络间隔设置。
其中,所述第一神经网络被配置为接收所述多个用户的个人基本信息,并根据所述多个用户的个人基本信息生成所述多个用户之间的相似关系,并将所述多个用户之间的相似关系输出至与其连接的所述第二神经网络,或者输出至所述特征生成网络;
所述第二神经网络被配置为接收所述多个用户之间的相似关系,以及所述多个用户的个人基本信息,并根据所述多个用户之间的相似关系对所述多个用户的个人基本信息进行更新,并将所述多个用户更新后的个人基本信息输出至与其连接的所述第一神经网络。
通过在相似关系生成网络中间隔设置多个第一神经网络和多个第二神经网络,使得得到的所述多个用户之间的相似关系更加准确。
上述任意实施例所描述的分类模型的网络结构中,不同的网络单元采用的神经网络模型可以相同或者不同。
可选的,第一神经网络可以采用多层感知器(Multilayer Perceptron,MLP),第二神经网络可以采用图卷积网络(Graph Convolutional Network,GCN)。
可选的,特征生成网络可以采用GCN。其中,特征生成网络对应的GCN与上述的第二神经网络对应的GCN的结构可以相同,也可以不同。
可选的,分类网络可以采用MLP。其中,分类网络对应的MLP与上述的第一神经网络对应的MLP的结构可以相同,也可以不同。
其中,MLP也可以称为人工神经网络(Artificial Neural Network,ANN)。MLP是一种前馈的人工神经网络,其将输入的多个数据集映射到单一的输出的数据集上。MLP的输入层和输出层之间可以包括一个或者多个隐层。MLP的层与层之间是全连接的,即,上一层的任何一个神经元与下一层的所有神经元都有连接。
GCN是以图作为输入的一种神经网络模型。图中的节点表示网络中的个体,连边表示个体之间的连接关系。
在上述任意实施例的基础上,下面结合图4C所示的分类模型描述具体的训练过程。
图4C为本申请提供的又一种可能的分类模型的结构示意图。如图4C所示,该分类模型中,相似关系生成网络4011中的第一神经网络采用MLP,第二神经网络采用GCN,特征生成网络4012采用GCN,分类网络402采用MLP。
基于图4C所示的分类模型,下面以学生成绩分类场景为例,对分类模型的训练过程进行详细描述。分类模型的训练过程包括下述步骤(1)至(4)。
(1)利用相似关系生成网络对多个学生的个人基本信息进行学习,得到多个学生之间的相似关系。
具体的,假设多个学生的数量为m,每个学生的个人基本信息的维度为n。针对多个学生中的第i个学生,将其个人基本信息记为bi∈Rn。将m个学生的个人基本信息组成的矩阵记为B,即,其中,(·)T为转置操作。
利用相似关系生成网络中的MLP,估计出m个学生中的任意两个学生之间的相似关系,得到相似关系矩阵A。相似关系矩阵A确定了以学生为节点、学生间的相似关系为边的图。如公式1所示。
Aij=sim(bi,bj)=MLP(abs(bi-bj)) 公式1
其中,MLP表示多层感知器,可捕捉复杂的非线性函数,abs表示取绝对值。Aij为第i个学生和第j个学生之间的相似关系。
能够理解,由于学生的个人基本信息包括多个维度的信息,不同维度代表的含义不同,通过采用MLP对相似关系进行评估,保证了相似关系的准确性。
如图4C所示,利用MLP估计出相似关系A之后,再利用GCN根据相似关系A对个人基本信息B进行更新。如公式2所示。
B=σ(ABW1) 公式2
其中,W1是相似关系生成网络中的GCN的参数矩阵,σ为激活函数。
参见图4C,相似关系生成网络中可以包括多个MLP和多个GCN。MLP和GCN间隔设置。这样使得上述公式1和公式2可以迭代执行多次。相似关系生成网络经过对相似关系A进行多次迭代更新,最终将相似关系A输出至特征生成网络。图4C中以经过两次迭代为例进行示意。能够理解,经过多次迭代之后,使得相似关系A更加准确。
(2)利用特征生成网络对多个学生之间的相似关系进行学习,得到多个学生的特征信息。
具体的,假设每个学生的特征信息的维度为k。针对多个学生中的第i个学生,随机初始化其特征信息为ui∈Rk。将m个学生的特征信息组成的矩阵记为U,即,
利用特征生成网络中的GCN根据上述步骤(1)中学习到的相似关系A来更新特征信息U。如公式3所示。
U=σ(AUW2) 公式3
其中,W2是特征生成网络中的GCN的参数矩阵,σ为激活函数。
可选的,特征生成网络中的GCN可以包括多层。这样,相当于上述公式3执行多次。通过对公式3多次迭代,提高了特征信息U的准确性。
(3)利用分类网络对已知成绩类别的学生的特征信息进行分类处理,得到已知成绩类别的学生的预测成绩类别。
具体的,m个学生中的已知成绩类别的学生组成集合D。针对学生i∈D,将学生i的特征信息ui输入至分类网络对应的MLP中,MLP预测得到学生i的成绩属于类别c的概率假设成绩被划分为C个类别,则c∈{1,2,…,C}。
(4)计算成绩分类模型的端到端损失,以最小化端到端损失为目标,对成绩分类模型进行训练。
在训练过程中,可以利用m个学生的学习状况信息对m个学生的特征信息进行更新,从而不断提高m个学生的特征信息的准确性。
示例性的,将m个学生的学习状况信息记为O。一个示例中,假设教育调查问卷中包括q个问题/描述语句,则学习状况信息O可以为m个学生对q个问题/描述语句的答案组成的矩阵,O∈Rm×q
将教育调查问卷中各个问题/描述语句的特征信息记为V,则根据学生的特征信息U和教育调查问卷中的各问题/描述语句的特征信息V,可以预测得到学生对调查问卷的填写信息X。如公式4所示。
X=UVT 公式4
能够理解,当学生的特征信息U无限准确时,学生对调查问卷的预测填写信息X应该无限接近于学生对调查问卷的实际填写信息(即,学习状况信息O)。因此,在训练过程中可以将X无限接近O作为一个训练目标,从而实现根据学习状况信息O不断对特征信息U进行更新,以提高特征信息U的准确性。
示例性的,可以采用公式5作为第一损失。
其中,l1为第一损失,||·||F表示范数。
另外,在训练过程中还可以将预测成绩类别无限接近真实成绩类别作为另一个训练目标。
示例性的,可以采用交叉熵(cross entropy)作为第二损失,如公式6所示。
其中,l2为第二损失,D表示已知成绩类别的学生组成的集合,yi表示学生i的真实成绩类别,表示分类网络对应的MLP输出的学生i属于类别yi的概率。
这样,根据第一损失l1和第二损失l2,即可得到成绩分类模型的端到端损失L,进而以最小化端到端损失L为目标函数(如公式7所示),对成绩分类模型的参数进行调整优化,直至成绩分类模型的分类准确率大于或者等于预设阈值,或者,直至迭代次数达到预设次数,停止训练。
其中,θ包括了成绩分类模型中的所有可学习参数,如W1、W2以及MLP的参数。可选的,可以使用随机优化算法如自适应矩工具(Adaptive moment estimation,ADAM)算法来对成绩分类模型进行优化。
本实施例中通过对成绩分类模型进行端到端的训练,提高了训练效率。
本实施例中,m个学生中包括已知成绩类别的学生和未知成绩类别的学生。在成绩分类模型的训练过程中,是对所有学生(即包括已知成绩类别的学生和未知成绩类别的学生)的特征信息进行统一学习,即,根据所有学生的个人基本信息学习到所有学生之间的相似关系,进而根据所有学生之间的相似关系,学习得到所有学生的特征信息。通过对所有学生的特征信息进行统一学习,提高了特征信息的准确性。
进一步的,由于在步骤(2)中学习到的特征信息中也包括了未知成绩类别的学生的特征信息。这样在成绩分类模型训练结束后,直接将未知成绩类别的学生的特征信息输入成绩分类模型的分类网络中,即可预测得到这些未知成绩类别的学生的成绩类别。提高了成绩预测效率。
示例性的,假设m个学生中未知成绩类别的学生组成集合T,则对于学生j∈T,将在步骤(2)中学习到的学生j的特征信息uj输入分类网络对应的MLP,MLP输出学生j属于多个类别的概率。将最大概率对应的类别确定为该学生的成绩类别。
在上述任意实施例的基础上,本申请实施例还提供一种分类方法,可以利用上述实施例训练得到的分类模型确定用户的类别。下面结合图5进行描述。
图5为本申请提供的一种分类方法的流程示意图。本实施例的执行主体可以为电子设备,该电子设备可以与图1所示的执行主体相同或者不同。如图5所示,本实施例的方法,包括:
S501:获取未知类别的用户的特征信息。
S502:将所述未知类别的用户的特征信息输入已训练的分类模型,根据所述分类模型的输出,确定所述未知类别的用户的预测类别。
其中,所述已训练的分类模型是根据多个用户的行为信息、所述多个用户的个人基本信息、以及已知类别的用户的真实类别训练得到的。所述多个用户包括所述已知类别的用户和所述未知类别的用户,所述未知类别的用户的特征信息是在所述分类模型的训练过程中学习得到的。
本实施例的分类模型采用上述实施例中的训练方法训练得到。
本实施例的分类方法可用于对学生成绩进行分类。结合图4C进行举例说明,将未知成绩类别的学生的特征信息输入分类网络对应的MLP,MLP输出该学生属于多个类别的概率。将最大概率对应的类别确定为该学生的成绩类别。通过采用上述实施例训练得到的分类模型确定学生的成绩类别,保证了确定出的成绩类别的准确性。
本实施例的成绩分类方法,可应用于辅助教师监督学生学习的场景。示例性的,教师可以向多个学生发放教育调查问卷。多个学生包已知成绩类别的学生和未知成绩类别的学生。根据多个学生填写的教育调查问卷,采用本申请提供的分类模型的训练方法训练得到成绩分类模型。进而利用成绩分类模型对未知成绩类别的学生进行预测/分类,得到他们的成绩类别。这样,即使还没有到期中、期末考试时间节点,教师们已经可以准确确定出学生的成绩类别。进而,针对成绩不佳的学生,教师们可以尽早干预,纠正不良学习习惯和心理,从而提高他们的学习成绩。
图6A为本申请提供的一种分类模型的训练装置的结构示意图。本实施例的装置可以为软件和/或硬件的形式。如图6A所示,本实施例提供的分类模型的训练装置600,包括:获取模块601和训练模块602。
其中,获取模块601,用于获取多个用户的行为信息,以及所述多个用户的个人基本信息;其中,所述多个用户中的至少部分用户的类别已知;
训练模块602,用于将所述多个用户的个人基本信息输入待训练的分类模型中,得到所述多个用户的特征信息,以及已知类别的用户的预测类别;
所述训练模块602,还用于根据所述多个用户的行为信息、所述多个用户的特征信息、所述已知类别的用户的预测类别、以及所述已知类别的用户的真实类别,对所述待训练的分类模型进行训练,得到训练后的分类模型。
一种可能的实现方式中,所述待训练的分类模型包括:特征提取网络和分类网络;
所述特征提取网络被配置为接收所述多个用户的个人基本信息,对所述多个用户的个人基本信息进行特征提取,并输出所述多个用户的特征信息;
所述分类网络被配置为接收所述已知类别的用户的特征信息,对所述已知类别的用户的特征信息进行分类处理,并输出所述已知类别的用户的预测类别。
一种可能的实现方式中,所述特征提取网络包括:相似关系生成网络和特征生成网络;
所述相似关系生成网络被配置为接收所述多个用户的个人基本信息,并根据所述多个用户的个人基本信息生成所述多个用户之间的相似关系,并输出所述多个用户之间的相似关系;
所述特征生成网络被配置为接收所述多个用户之间的相似关系,根据所述多个用户之间的相似关系对所述多个用户的特征信息进行更新,并输出所述多个用户更新后的特征信息。
一种可能的实现方式中,所述相似关系生成网络包括:多个第一神经网络和多个第二神经网络,所述第一神经网络和所述第二神经网络间隔设置;
所述第一神经网络被配置为接收所述多个用户的个人基本信息,并根据所述多个用户的个人基本信息生成所述多个用户之间的相似关系,并将所述多个用户之间的相似关系输出至与其连接的所述第二神经网络,或者输出至所述特征生成网络;
所述第二神经网络被配置为接收所述多个用户之间的相似关系,根据所述多个用户之间的相似关系对所述多个用户的个人基本信息进行更新,并将所述多个用户更新后的个人基本信息输出至与其连接的所述第一神经网络。
一种可能的实现方式中,所述第一神经网络为多层感知器,所述第二神经网络为图卷积网络。
一种可能的实现方式中,所述特征生成网络为图卷积网络。
一种可能的实现方式中,所述分类网络为多层感知器。
图6B为本申请提供的另一种分类模型的训练装置的结构示意图。如图6B所示,在图6A所示实施例的基础上,所述训练模块602包括:确定单元6021和训练单元6022。
其中,确定单元6021,用于根据所述多个用户的行为信息、所述多个用户的特征信息、所述已知类别的用户的预测类别、以及所述已知类别的用户的真实类别,确定所述待训练的分类模型的损失;
训练单元6022,用于以最小化所述损失为目标,对所述待训练的分类模型进行训练,得到训练后的分类模型。
一种可能的实现方式中,所述确定单元6021具体用于:
根据所述多个用户的行为信息和所述多个用户的特征信息,确定第一损失;
根据所述已知类别的用户的预测类别和所述已知类别的用户的真实类别,确定第二损失;
根据所述第一损失和所述第二损失,确定所述待训练的分类模型的损失。
一种可能的实现方式中,本实施例提供的分类模型的训练装置600,还可以包括分类模块603。所述多个用户中包括未知类别的用户。
分类模块603,用于将所述未知类别的用户的特征信息输入所述训练后的分类模型的分类网络,得到所述未知类别的用户的预测类别。
本实施例提供的装置,可用于执行上述任一方法实施例中的分类模型的训练方法,其实现原理和技术效果类似,此处不作赘述。
图7为本申请提供的一种分类装置的结构示意图。本实施例的装置可以为软件和/或硬件的形式。如图7所示,本实施例提供的分类装置700,包括:获取模块701和分类模块702。
其中,获取模块701,用于获取未知类别的用户的特征信息;
分类模块702,用于将所述未知类别的用户的特征信息输入已训练的分类模型,根据所述分类模型的输出,确定所述未知类别的用户的预测类别;
其中,所述已训练的分类模型是根据多个用户的行为信息、所述多个用户的个人基本信息、以及已知类别的用户的真实类别训练得到的;所述多个用户包括所述已知类别的用户和所述未知类别的用户,所述未知类别的用户的特征信息是在所述分类模型的训练过程中学习得到的,所述分类模型采用上述方法实施例中的训练方法训练得到。
本实施例提供的装置,可用于执行上述方法实施例中的分类方法,其实现原理和技术效果类似,此处不作赘述。
根据本申请的实施例,本申请还提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述实施例中的分类模型的训练方法,或者,上述实施例中的分类方法。其实现原理和技术效果类似,此处不作赘述。
根据本申请的实施例,本申请还提供一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行上述实施例中的分类模型的训练方法,或者,上述实施例中的分类方法。其实现原理和技术效果类似,此处不作赘述。
根据本申请的实施例,本申请提供一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现上述实施例中的分类模型的训练方法,或者,上述实施例中的分类方法。其实现原理和技术效果类似,此处不作赘述。
图8示出了可以用来实施本申请的实施例的示例电子设备800的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图8所示,电子设备800包括计算单元801,其可以根据存储在只读存储器(ROM)802中的计算机程序或者从存储单元808加载到随机访问存储器(RAM)803中的计算机程序,来执行各种适当的动作和处理。在RAM 803中,还可存储设备操作所需的各种程序和数据。计算单元801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
电子设备800中的多个部件连接至I/O接口805,包括:输入单元806,例如键盘、鼠标等;输出单元807,例如各种类型的显示器、扬声器等;存储单元808,例如磁盘、光盘等;以及通信单元809,例如网卡、调制解调器、无线通信收发机等。通信单元809允许设备通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元801可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元801的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元801执行上文所描述的各个方法和处理,例如成绩分类模型的训练方法或者成绩分类方法。例如,在一些实施例中,成绩分类模型的训练方法或者成绩分类方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元808。在一些实施例中,计算机程序的部分或者全部可以经由ROM 802和/或通信单元809而被载入和/或安装到电子设备800上。当计算机程序加载到RAM 803并由计算单元801执行时,可以执行上文描述的成绩分类模型的训练方法或者成绩分类方法的一个或多个步骤。备选地,在其他实施例中,计算单元801可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行成绩分类模型的训练方法或者成绩分类方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本申请的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本申请的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

Claims (20)

1.一种分类模型的训练方法,包括:
获取多个用户的行为信息,以及所述多个用户的个人基本信息;其中,所述多个用户中的至少部分用户的类别已知;
将所述多个用户的个人基本信息输入待训练的分类模型中,得到所述多个用户的特征信息,以及已知类别的用户的预测类别;
根据所述多个用户的行为信息和所述多个用户的特征信息,确定第一损失;
根据所述已知类别的用户的预测类别和所述已知类别的用户的真实类别,确定第二损失;
根据所述第一损失和所述第二损失,确定所述待训练的分类模型的损失;
以最小化所述损失为目标,对所述待训练的分类模型进行训练,得到训练后的分类模型。
2.根据权利要求1所述的方法,其中,所述待训练的分类模型包括:特征提取网络和分类网络;
所述特征提取网络被配置为接收所述多个用户的个人基本信息,对所述多个用户的个人基本信息进行特征提取,并输出所述多个用户的特征信息;
所述分类网络被配置为接收所述已知类别的用户的特征信息,对所述已知类别的用户的特征信息进行分类处理,并输出所述已知类别的用户的预测类别。
3.根据权利要求2所述的方法,其中,所述特征提取网络包括:相似关系生成网络和特征生成网络;
所述相似关系生成网络被配置为接收所述多个用户的个人基本信息,并根据所述多个用户的个人基本信息生成所述多个用户之间的相似关系,并输出所述多个用户之间的相似关系;
所述特征生成网络被配置为接收所述多个用户之间的相似关系,根据所述多个用户之间的相似关系对所述多个用户的特征信息进行更新,并输出所述多个用户更新后的特征信息。
4.根据权利要求3所述的方法,其中,所述相似关系生成网络包括:多个第一神经网络和多个第二神经网络,所述第一神经网络和所述第二神经网络间隔设置;
所述第一神经网络被配置为接收所述多个用户的个人基本信息,并根据所述多个用户的个人基本信息生成所述多个用户之间的相似关系,并将所述多个用户之间的相似关系输出至与其连接的所述第二神经网络,或者输出至所述特征生成网络;
所述第二神经网络被配置为接收所述多个用户之间的相似关系,根据所述多个用户之间的相似关系对所述多个用户的个人基本信息进行更新,并将所述多个用户更新后的个人基本信息输出至与其连接的所述第一神经网络。
5.根据权利要求4所述的方法,所述第一神经网络为多层感知器,所述第二神经网络为图卷积网络。
6.根据权利要求3至5任一项所述的方法,所述特征生成网络为图卷积网络。
7.根据权利要求2至5任一项所述的方法,所述分类网络为多层感知器。
8.根据权利要求2至5任一项所述的方法,所述多个用户中包括未知类别的用户;得到训练后的分类模型之后,所述方法还包括:
将所述未知类别的用户的特征信息输入所述训练后的分类模型的分类网络,得到所述未知类别的用户的预测类别。
9.一种分类方法,包括:
获取未知类别的用户的特征信息;
将所述未知类别的用户的特征信息输入已训练的分类模型,根据所述分类模型的输出,确定所述未知类别的用户的预测类别;
其中,所述已训练的分类模型是根据多个用户的行为信息、所述多个用户的个人基本信息、以及已知类别的用户的真实类别训练得到的;所述多个用户包括所述已知类别的用户和所述未知类别的用户,所述未知类别的用户的特征信息是在所述分类模型的训练过程中学习得到的,所述分类模型采用如权利要求1至8任一项所述的方法训练得到。
10.一种分类模型的训练装置,包括:
获取模块,用于获取多个用户的行为信息,以及所述多个用户的个人基本信息;其中,所述多个用户中的至少部分用户的类别已知;
训练模块,用于将所述多个用户的个人基本信息输入待训练的分类模型中,得到所述多个用户的特征信息,以及已知类别的用户的预测类别;
所述训练模块,还用于根据所述多个用户的行为信息和所述多个用户的特征信息,确定第一损失;
根据所述已知类别的用户的预测类别和所述已知类别的用户的真实类别,确定第二损失;
根据所述第一损失和所述第二损失,确定所述待训练的分类模型的损失;
以最小化所述损失为目标,对所述待训练的分类模型进行训练,得到训练后的分类模型。
11.根据权利要求10所述的装置,其中,所述待训练的分类模型包括:特征提取网络和分类网络;
所述特征提取网络被配置为接收所述多个用户的个人基本信息,对所述多个用户的个人基本信息进行特征提取,并输出所述多个用户的特征信息;
所述分类网络被配置为接收所述已知类别的用户的特征信息,对所述已知类别的用户的特征信息进行分类处理,并输出所述已知类别的用户的预测类别。
12.根据权利要求11所述的装置,其中,所述特征提取网络包括:相似关系生成网络和特征生成网络;
所述相似关系生成网络被配置为接收所述多个用户的个人基本信息,并根据所述多个用户的个人基本信息生成所述多个用户之间的相似关系,并输出所述多个用户之间的相似关系;
所述特征生成网络被配置为接收所述多个用户之间的相似关系,根据所述多个用户之间的相似关系对所述多个用户的特征信息进行更新,并输出所述多个用户更新后的特征信息。
13.根据权利要求12所述的装置,其中,所述相似关系生成网络包括:多个第一神经网络和多个第二神经网络,所述第一神经网络和所述第二神经网络间隔设置;
所述第一神经网络被配置为接收所述多个用户的个人基本信息,并根据所述多个用户的个人基本信息生成所述多个用户之间的相似关系,并将所述多个用户之间的相似关系输出至与其连接的所述第二神经网络,或者输出至所述特征生成网络;
所述第二神经网络被配置为接收所述多个用户之间的相似关系,根据所述多个用户之间的相似关系对所述多个用户的个人基本信息进行更新,并将所述多个用户更新后的个人基本信息输出至与其连接的所述第一神经网络。
14.根据权利要求13所述的装置,其中,所述第一神经网络为多层感知器,所述第二神经网络为图卷积网络。
15.根据权利要求12至14任一项所述的装置,所述特征生成网络为图卷积网络。
16.根据权利要求11至14任一项所述的装置,所述分类网络为多层感知器。
17.根据权利要求11至14任一项所述的装置,所述多个用户中包括未知类别的用户;所述装置还包括:
分类模块,用于将所述未知类别的用户的特征信息输入所述训练后的分类模型的分类网络,得到所述未知类别的用户的预测类别。
18.一种分类装置,包括:
获取模块,用于获取未知类别的用户的特征信息;
分类模块,用于将所述未知类别的用户的特征信息输入已训练的分类模型,根据所述分类模型的输出,确定所述未知类别的用户的预测类别;
其中,所述已训练的分类模型是根据多个用户的行为信息、所述多个用户的个人基本信息、以及已知类别的用户的真实类别训练得到的;所述多个用户包括所述已知类别的用户和所述未知类别的用户,所述未知类别的用户的特征信息是在所述分类模型的训练过程中学习得到的,所述分类模型采用如权利要求1至8任一项所述的方法训练得到。
19.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至8中任一项所述的方法,或者,执行权利要求9所述的方法。
20.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1至8中任一项所述的方法,或者,执行权利要求9所述的方法。
CN202011595164.5A 2020-12-28 2020-12-28 分类模型的训练方法、分类方法、装置及设备 Active CN112632351B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202011595164.5A CN112632351B (zh) 2020-12-28 2020-12-28 分类模型的训练方法、分类方法、装置及设备
US17/349,280 US20210312288A1 (en) 2020-12-28 2021-06-16 Method for training classification model, classification method, apparatus and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011595164.5A CN112632351B (zh) 2020-12-28 2020-12-28 分类模型的训练方法、分类方法、装置及设备

Publications (2)

Publication Number Publication Date
CN112632351A CN112632351A (zh) 2021-04-09
CN112632351B true CN112632351B (zh) 2024-01-16

Family

ID=75286133

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011595164.5A Active CN112632351B (zh) 2020-12-28 2020-12-28 分类模型的训练方法、分类方法、装置及设备

Country Status (2)

Country Link
US (1) US20210312288A1 (zh)
CN (1) CN112632351B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11868443B1 (en) * 2021-05-12 2024-01-09 Amazon Technologies, Inc. System for training neural network using ordered classes
CN113836370B (zh) * 2021-11-25 2022-03-01 上海观安信息技术股份有限公司 用户群体的分类方法、装置、存储介质及计算机设备
CN113886713A (zh) * 2021-12-09 2022-01-04 北京达佳互联信息技术有限公司 数据处理方法、装置、服务器及存储介质
CN114384861A (zh) * 2021-12-16 2022-04-22 重庆邮电大学 一种基于多层感知机的数控机床多工况切削参数优化方法
CN114547448B (zh) * 2022-02-17 2023-09-01 北京百度网讯科技有限公司 数据处理、模型训练方法、装置、设备、存储介质及程序

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108182489A (zh) * 2017-12-25 2018-06-19 浙江工业大学 一种基于在线学习行为分析的个性化学习推荐方法
CN108960142A (zh) * 2018-07-04 2018-12-07 国家新闻出版广电总局广播科学研究院 基于全局特征损失函数的行人再识别方法
CN109934619A (zh) * 2019-02-13 2019-06-25 北京三快在线科技有限公司 用户画像标签建模方法、装置、电子设备及可读存储介质
WO2019120019A1 (zh) * 2017-12-20 2019-06-27 Oppo广东移动通信有限公司 用户性别预测方法、装置、存储介质及电子设备
CN110490027A (zh) * 2018-05-15 2019-11-22 触景无限科技(北京)有限公司 一种用于人脸识别的人脸特征提取训练方法及系统
CN111695680A (zh) * 2020-06-15 2020-09-22 北京百度网讯科技有限公司 成绩预测方法、成绩预测模型训练方法、装置及电子设备
CN111709575A (zh) * 2020-06-16 2020-09-25 北京工业大学 基于c-lstm的学业成绩预测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180365590A1 (en) * 2017-06-19 2018-12-20 International Business Machines Corporation Assessment result determination based on predictive analytics or machine learning

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019120019A1 (zh) * 2017-12-20 2019-06-27 Oppo广东移动通信有限公司 用户性别预测方法、装置、存储介质及电子设备
CN108182489A (zh) * 2017-12-25 2018-06-19 浙江工业大学 一种基于在线学习行为分析的个性化学习推荐方法
CN110490027A (zh) * 2018-05-15 2019-11-22 触景无限科技(北京)有限公司 一种用于人脸识别的人脸特征提取训练方法及系统
CN108960142A (zh) * 2018-07-04 2018-12-07 国家新闻出版广电总局广播科学研究院 基于全局特征损失函数的行人再识别方法
CN109934619A (zh) * 2019-02-13 2019-06-25 北京三快在线科技有限公司 用户画像标签建模方法、装置、电子设备及可读存储介质
CN111695680A (zh) * 2020-06-15 2020-09-22 北京百度网讯科技有限公司 成绩预测方法、成绩预测模型训练方法、装置及电子设备
CN111709575A (zh) * 2020-06-16 2020-09-25 北京工业大学 基于c-lstm的学业成绩预测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Learning and Individual Differences;Lot Fonteyne等;《ELSEVIER》;34-48 *
基于SOM的图书馆用户个性化数字信息服务需求分类研究;朱光;朱学芳;;情报科学(02);全文 *

Also Published As

Publication number Publication date
CN112632351A (zh) 2021-04-09
US20210312288A1 (en) 2021-10-07

Similar Documents

Publication Publication Date Title
CN112632351B (zh) 分类模型的训练方法、分类方法、装置及设备
Tsinaslanidis et al. A prediction scheme using perceptually important points and dynamic time warping
US20180268286A1 (en) Neural network cooperation
CN112541122A (zh) 推荐模型的训练方法、装置、电子设备及存储介质
CN110737730B (zh) 基于无监督学习的用户分类方法、装置、设备及存储介质
CN112257966B (zh) 模型处理方法、装置、电子设备及存储介质
KR102265573B1 (ko) 인공지능 기반 입시 수학 학습 커리큘럼 재구성 방법 및 시스템
CN110957012A (zh) 化合物的性质分析方法、装置、设备及存储介质
CN113326852A (zh) 模型训练方法、装置、设备、存储介质及程序产品
Intisar et al. Classification of online judge programmers based on rule extraction from self organizing feature map
Isljamovic et al. Predicting students’ academic performance using artificial neural network: a case study from faculty of organizational sciences
CN112000788A (zh) 一种数据处理方法、装置以及计算机可读存储介质
CN108364098B (zh) 一种天气特征对用户签到影响的度量方法
Adeyemo et al. Effects of normalization techniques on logistic regression in data science
CN110826327A (zh) 情感分析方法、装置、计算机可读介质及电子设备
CN113283488B (zh) 一种基于学习行为的认知诊断方法及系统
Priya Linear regression algorithm in machine learning through MATLAB
CN113158030A (zh) 异地兴趣点的推荐方法、装置、电子设备及存储介质
Ahan et al. Social network analysis using data segmentation and neural networks
CN115330142B (zh) 联合能力模型的训练方法、能力需求匹配方法和装置
Kale et al. Forecasting Indian stock market using artificial neural networks
CN111461862A (zh) 为业务数据确定目标特征的方法及装置
Figueiredo et al. Assessing the Role of General Chemistry Learning in Higher Education
CN114529399A (zh) 用户数据处理方法、装置、计算机设备和存储介质
CN113947140A (zh) 人脸特征提取模型的训练方法和人脸特征提取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant