CN116541494A - 模型训练方法、回复信息的方法、装置、设备及介质 - Google Patents

模型训练方法、回复信息的方法、装置、设备及介质 Download PDF

Info

Publication number
CN116541494A
CN116541494A CN202310402861.1A CN202310402861A CN116541494A CN 116541494 A CN116541494 A CN 116541494A CN 202310402861 A CN202310402861 A CN 202310402861A CN 116541494 A CN116541494 A CN 116541494A
Authority
CN
China
Prior art keywords
preset
sample
question
model
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310402861.1A
Other languages
English (en)
Inventor
沈乐
肖宇
杨萱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Agricultural Bank of China
Original Assignee
Agricultural Bank of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agricultural Bank of China filed Critical Agricultural Bank of China
Priority to CN202310402861.1A priority Critical patent/CN116541494A/zh
Publication of CN116541494A publication Critical patent/CN116541494A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种模型训练方法、回复信息的方法、装置、设备及介质。该方法包括:确定预设问答样本对以及获取自然提问语句;利用预设初始模型中的初始预处理子模型语义清洗处理所述自然提问语句,并根据处理结果和所述预设提问样本,确定提问样本;将所述提问样本输入所述预设初始模型中的初始机器学习子模型中,得到样本回复信息;利用所述样本回复信息和所述预设回答样本训练所述预设初始模型,以得到训练完成后的预设模型。本发明实施例的技术方案,可以在训练的过程中,通过对自然提问语句的语义清洗处理将干扰内容筛除,不仅不需要大量的训练样本,还能在保证训练效果的基础上,提高训练的效率。

Description

模型训练方法、回复信息的方法、装置、设备及介质
技术领域
本发明涉及自然语言处理技术领域,尤其涉及一种模型训练方法、回复信息的方法、装置、设备及存储介质。
背景技术
在自动化交互系统中,客户提出问题,该系统会识别出客户的意图,并匹配适当的答案,而能够准确识别客户的意是极为关键的。只有正确的识别了客户意图,才能准确的回复客户,以解决客户的问题。
当客户与交互系统进行对话时,该系统通常会为客户直接解答问题,或给出引导问题,以引导客户输入关键问题。交互系统通常需要基于客户当前所给出的文本或语音内容,确定答案或下一轮引导问题。
然而,通常情况下,客户输入的对话内容不规范,如可能含有很多无效或干扰内容,故训练交互系统的语言应答模型时,需要大量的训练样本,训练效率较低。
发明内容
本发明提供了一种模型训练方法、回复信息的方法、装置、设备及存储介质,以解决训练模型时需要大量的训练样本的问题。
第一方面,本发明提供了一种模型训练方法,包括:
确定预设问答样本对以及获取自然提问语句,其中,所述预设问答样本对中包括预设提问样本和预设回答样本,所述自然提问语句和所述预设提问样本的提问目的一致;
利用预设初始模型中的初始预处理子模型语义清洗处理所述自然提问语句,并根据处理结果和所述预设提问样本,确定提问样本;
将所述提问样本输入所述预设初始模型中的初始机器学习子模型中,得到样本回复信息;
利用所述样本回复信息和所述预设回答样本训练所述预设初始模型,以得到训练完成后的预设模型。
第二方面,本发明提供了一种回复信息的方法,包括:
确定用户输入的对话信息;
利用预设模型中的语言预处理子模型,对所述对话信息进行语义清洗处理,得到目标特征编码,其中,所述预设模型采用如上述第一方面的模型训练方法得到;
将所述目标特征编码输入至所述预设模型中的预设机器学习子模型中,得到目标回复信息。
第三方面,本发明提供了一种模型训练装置,包括:
样本和语句确定模块,用于确定预设问答样本对以及获取自然提问语句,其中,所述预设问答样本对中包括预设提问样本和预设回答样本,所述自然提问语句和所述预设提问样本的提问目的一致;
提问样本确定模块,用于利用预设初始模型中的初始预处理子模型语义清洗处理所述自然提问语句,并根据处理结果和所述预设提问样本,确定提问样本;
样本回复确定模块,用于将所述提问样本输入所述预设初始模型中的初始机器学习子模型中,得到样本回复信息;
训练模块,用于利用所述样本回复信息和所述预设回答样本训练所述预设初始模型,以得到训练完成后的预设模型。
第四方面,本发明提供了一种回复信息的装置,包括:
对话信息确定模块,用于确定用户输入的对话信息;
特征编码确定模块,用于利用预设模型中的语言预处理子模型,对所述对话信息进行语义清洗处理,得到目标特征编码,其中,所述预设模型采用如上述第一方面的模型训练方法得到;
回复信息确定模块,用于将所述目标特征编码输入至所述预设模型中的预设机器学习子模型中,得到目标回复信息。
第五方面,本发明提供了一种电子设备,该电子设备包括:
至少一个处理器;
以及与至少一个处理器通信连接的存储器;
其中,存储器存储有可被至少一个处理器执行的计算机程序,该计算机程序被至少一个处理器执行,以使至少一个处理器能够执行上述第一方面的模型训练方法,和/或,执行上述第二方面的回复信息的方法。
第六方面,本发明提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机指令,计算机指令用于使处理器执行时实现上述第一方面的模型训练方法,和/或,执行时实现上述第二方面的回复信息的方法。
本发明提供的模型训练方案,确定预设问答样本对以及获取自然提问语句,其中,所述预设问答样本对中包括预设提问样本和预设回答样本,所述自然提问语句和所述预设提问样本的提问目的一致,利用预设初始模型中的初始预处理子模型语义清洗处理所述自然提问语句,并根据处理结果和所述预设提问样本,确定提问样本,将所述提问样本输入所述预设初始模型中的初始机器学习子模型中,得到样本回复信息,利用所述样本回复信息和所述预设回答样本训练所述预设初始模型,以得到训练完成后的预设模型。通过采用上述技术方案,可以根据初始预处理子模型语义清洗处理后的结果和预设提问样本,确定出较为规范的样本回复信息,再利用该样本回复信息和预设回答样本训练预设初始模型,即可得到训练完成后的预设模型,本方案的训练方式,在训练的过程中通过对自然提问语句的语义清洗处理,可将干扰内容筛除,该方式无需大量的训练样本,在保证训练效果的基础上,提高了训练的效率。
本发明提供的回复信息的方案,确定用户输入的对话信息,利用预设模型中的语言预处理子模型,对所述对话信息进行语义清洗处理,得到目标特征编码,其中,所述预设模型采用如上文所述的模型训练方法得到,将所述目标特征编码输入至所述预设模型中的预设机器学习子模型中,得到目标回复信息。通过采用上述技术方案,通过利用预设模型可以在识别用户输入的对话语义之前,先将干扰内容滤除,使预设模型中的预设机器学习子模型可以根据对话信息对应的目标特征编码,准确且迅速的确定出对用户的回复信息,保证了用户的体验感。
应当理解,本部分所描述的内容并非旨在标识本发明的关键或重要特征,也不用于限制本发明的范围。本发明的其它特征将通过以下的说明书而变得容易理解。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例一提供的一种模型训练方法的流程图;
图2是根据本发明实施例二提供的一种模型训练方法的流程图;
图3是根据本发明实施例三提供的一种回复信息的方法的流程图;
图4是根据本发明实施例四提供的一种模型训练装置的结构示意图;
图5是根据本发明实施例五提供的一种回复信息的装置的结构示意图;
图6是根据本发明实施例六提供的一种电子设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。在本发明的描述中,除非另有说明,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例一
图1为本发明实施例一提供了一种模型训练方法的流程图,本实施例可适用于训练模型的情况,该方法可以由模型训练装置来执行,该模型训练装置可以采用硬件和/或软件的形式实现,该模型训练装置可配置于电子设备中,该电子设备可以是两个或多个物理实体构成,也可以是一个物理实体构成。
如图1所示,该本发明实施例一提供的一种模型训练方法,具体包括如下步骤:
S101、确定预设问答样本对以及获取自然提问语句,其中,所述预设问答样本对中包括预设提问样本和预设回答样本,所述自然提问语句和所述预设提问样本的提问目的一致。
在本实施例中,可以先确定自然提问语句,再根据自然提问语句编写对应的预设问答样本对,也可以先编写预设问答样本对,再根据预设问答样本对确定对应的自然提问语句,自然提问语句和预设提问样本的提问意图,即目的,是一致的。其中,自然提问语句可以理解为用户口语化的不规范提问语句,其通常包含干扰信息,如语气词和无关内容等,预设提问样本可以理解为预设的规范化提问语句,其不包含干扰信息,预设回答样本可以理解为预设提问样本对应的规范化回答语句,其也不包含干扰信息。
S102、利用预设初始模型中的初始预处理子模型语义清洗处理所述自然提问语句,并根据处理结果和所述预设提问样本,确定提问样本。
在本实施例中,可以先利用初始预处理子模型,对自然提问语句进行语义清洗处理,该处理可以提取自然提问语句中的语义特征,以将自然提问语句中的干扰信息剔除。再对得到的处理结果和预设提问样本进行预设处理,如进行拼接或累加等,即可得到提问样本。
S103、将所述提问样本输入所述预设初始模型中的初始机器学习子模型中,得到样本回复信息。
在本实施例中,通过初始机器学习子模型对提问样本的处理,可以得到对应的(样本)回复信息。机器学习模型可以在动态、大容量和复杂的数据环境中处理各种格式的数据,机器学习模型的输出结果会随着时间推移越来越准确,从而使得到的样本回复信息越来越接近预设回答样本。其中,预设回答样本也可以理解为提问样本对应的标准回答。
S104、利用所述样本回复信息和所述预设回答样本训练所述预设初始模型,以得到训练完成后的预设模型。
在本实施例中,利用样本回复信息和预设回答样本,对预设初始模型进行多轮训练,使每轮得到的样本回复信息与预设回答样本间的差距越来越小,当该差距足够小时,即可得到训练完成的预设模型,该预设模型具备仅输入自然提问语句,就可以输出准确的回复信息的能力。
本发明实施例提供的模型训练方法,确定预设问答样本对以及获取自然提问语句,其中,所述预设问答样本对中包括预设提问样本和预设回答样本,所述自然提问语句和所述预设提问样本的提问目的一致,利用预设初始模型中的初始预处理子模型语义清洗处理所述自然提问语句,并根据处理结果和所述预设提问样本,确定提问样本,将所述提问样本输入所述预设初始模型中的初始机器学习子模型中,得到样本回复信息,利用所述样本回复信息和所述预设回答样本训练所述预设初始模型,以得到训练完成后的预设模型。本发明实施例技术方案,可以根据初始预处理子模型语义清洗处理后的结果和预设提问样本,确定出较为规范的样本回复信息,再利用该样本回复信息和预设回答样本训练预设初始模型,即可得到训练完成后的预设模型,本方案的训练方式,在训练的过程中通过对自然提问语句的语义清洗处理,可将干扰内容筛除,该方式无需大量的训练样本,在保证训练效果的基础上,提高了训练的效率。
实施例二
图2为本发明实施例二提供的一种模型训练方法的流程图,本发明实施例的技术方案在上述各可选技术方案的基础上进一步优化,给出了训练模型的具体方式。
可选的,所述利用预设初始模型中的初始预处理子模型语义清洗处理所述自然提问语句,并根据处理结果和所述预设提问样本,确定提问样本,包括:将所述自然提问语句输入至预设初始模型中的初始预处理子模型中,得到语义特征编码;确定所述预设提问样本的关键字的文本编码序列;根据所述语义特征编码和所述文本编码序列,确定提问样本。这样设置的好处在于,通过将文本编码序列和语义特征编码进行拼接,可以得到同时包含规范化的提问信息和口语化的提问信息的提问样本,与传统只包含口语化的提问信息的提问样本相比,提高了训练的效率。
可选的,所述利用所述样本回复信息和所述预设回答样本训练所述预设初始模型,以得到训练完成后的预设模型,包括:根据所述样本回复信息和所述预设回答样本,确定损失函数,并利用所述损失函数训练所述预设初始模型,得到训练完成后的预设模型。这样设置的好处在于,利用根据样本回复信息和预设回答样本确定的损失函数训练预设初始模型,可以使预设初始模型的输出结果与标准化的预设回答样本越来越接近,从而得到高精度的预设模型。
如图2所示,本发明实施例二提供的一种模型训练方法,具体包括如下步骤:
S201、确定预设问答样本对以及获取自然提问语句。
S202、将所述自然提问语句输入至预设初始模型中的初始预处理子模型中,得到语义特征编码。
具体的,预设初始模型可以为BERT(Bidirectional Encoder Representationsfrom Transformers,基于转换器的双向编码表征)等可以提取语义特征的模型,在此不作限制。
S203、确定所述预设提问样本的关键字的文本编码序列。
具体的,可以预先利用seq2seq(Sequence2sequence,序列到序列)模型来提取预设提问样本中的关键字,并将该关键字转化为文本编码序列的表现形式,该模型中通常包含一个编码器和一个解码器,该模型的输入可以是一个序列,输出也可以是一个序列。其中,预设初始模型可以不包含确定文本编码序列的模型,关键字可以根据预设提问样本涉及的领域和应用场景确定,如若预设提问样本涉及的领域为金融领域,应用场景为银行业务,则可将关键字确定为金融词汇和业务名称等。
S204、根据所述语义特征编码和所述文本编码序列,确定提问样本。
示例性的,可以将语义特征编码和文本编码序列进行拼接,即可得到提问样本。
可选的,所述根据所述语义特征编码和所述文本编码序列,确定提问样本,包括:从所述语义特征编码中提取第一预设比例的编码内容,得到第一提问编码,以及从所述文本编码序列中提取第二预设比例的编码内容,得到第二提问编码;将所述第一提问编码和所述第二提问编码进行拼接,得到提问样本,其中,在对所述预设初始模型进行训练的前预设轮次中,所述第一提问编码占所述提问样本的比例,小于所述第二提问编码占所述提问样本的比例。这样设置的好处在于,由于预设提问样本不包含无关信息,故通过在训练前期保证第二提问编码在提问样本的高占比,可以帮助预设初始模型快速收敛,以得到准确的回复信息,缩短了模型的训练周期。
示例性的,若前预设轮次为前5轮次,第一预设比例为40%,第二预设比例为70%,则可以在对预设初始模型进行训练的前5轮次的过程中,从语义特征编码中提取40%的编码内容,从文本编码序列中提取70%的编码内容,再将得到的这两个编码内容进行拼接,即可得到提问样本。其中,由于语义特征编码和文本编码序列的编码长度通常不相同,故第一预设比例和第二预设比例的大小关系在此不作限制,但在训练的初期,为了保证训练效率,第一提问编码占提问样本的比例,需要大于第二提问编码占提问样本的比例。
S205、将所述提问样本输入所述预设初始模型中的初始机器学习子模型中,得到样本回复信息。
S206、根据所述样本回复信息和所述预设回答样本,确定损失函数,并利用所述损失函数训练所述预设初始模型,得到训练完成后的预设模型。
具体的,可以根据样本回复信息和预设回答样本之间的差距,确定损失函数及其对应的取值,并根据该取值的大小确定对预设模型的训练是否完成。如,当该损失函数的取值足够小时,则可确定对预设模型的训练已完成。
可选的,在进行多轮训练的过程中,随着损失函数取值的减小,第一提问编码占提问样本的比例也可以逐渐减小,同时增大第二提问编码占提问样本的比例,直至第一提问编码占提问样本的比例降为零,第二提问编码占所述提问样本的比例增至百分百。
本发明实施例提供的模型训练方法,通过初始预处理子模型对自然提问语句的预处理,降低了后续初始机器学习子模型学习和处理的复杂度,然后通过将文本编码序列和语义特征编码进行拼接,可以得到同时包含规范化的提问信息和口语化的提问信息的提问样本,与传统只包含口语化的提问信息的提问样本相比,提高了训练的效率,再利用损失函数对预设初始模型进行训练,可以训练出高精度的预设模型,实现了利用较少的训练样本,即可得到满意的训练模型的效果。
实施例三
图3为本发明实施例三提供了一种回复信息的方法的流程图,本实施例可适用于回复用户的对话信息的情况,该方法可以由模型训练装置来执行,该回复信息的装置可以采用硬件和/或软件的形式实现,该回复信息的装置可配置于电子设备中,该电子设备可以是两个或多个物理实体构成,也可以是一个物理实体构成。
如图3所示,该本发明实施例三提供的一种回复信息的方法,具体包括如下步骤:
S301、确定用户输入的对话信息。
在本实施例中,可以根据用户输入的文本或语音,来确定用户输入的对话信息。如,当用户输入一段语音时,可以先根据该语音进行文字识别,识别的结果即为对话信息。其中,对话信息通常包含干扰信息。
S302、利用预设模型中的语言预处理子模型,对所述对话信息进行语义清洗处理,得到目标特征编码,其中,所述预设模型采用如上文所述的模型训练方法得到。
在本实施例中,可以利用上文所述训练完成后的预设模型中的语言预处理子模型,来对对话信息进行语义清洗处理,从而提取对话信息中的语义特征,并将对话信息中的干扰词语剔除,以得到(目标)特征编码。其中,语言预处理子模型即为训练好的初始预处理子模型。
S303、将所述目标特征编码输入至所述预设模型中的预设机器学习子模型中,得到目标回复信息。
在本实施例中,利用预设机器学习子模型处理目标特征编码,即可得到对话信息对应的目标回复信息。其中,预设机器学习子模型即为训练好的初始机器学习子模型。
本发明实施例提供的回复信息的方法,确定用户输入的对话信息,利用预设模型中的语言预处理子模型,对所述对话信息进行语义清洗处理,得到目标特征编码,其中,所述预设模型采用如上文所述的模型训练方法得到,将所述目标特征编码输入至所述预设模型中的预设机器学习子模型中,得到目标回复信息。本发明实施例技术方案,通过利用预设模型可以在识别用户输入的对话语义之前,先将干扰内容滤除,使预设模型中的预设机器学习子模型可以根据对话信息对应的目标特征编码,准确且迅速的确定出对用户的回复信息,保证了用户的体验感。
可选的,所述确定用户输入的对话信息,包括:获取用户输入的初始对话语句,从所述初始对话语句中删除与预设字符一致的字符,得到对话信息。这样设置的好处在于,通过从初始对话语句中删除与预设字符一致的字符,可以过滤掉初始对话语句中的无意义字符。
具体的,当用户输入的对话信息为键入的文本信息时,当用户打字过快是,经常会有无关字符混入的情况发生,如初始对话语句为“我要办理k、开户业务”,其中“k、”即为无挂字符,则可预先设置预设字符,从初始对话语句中删除与预设字符一致的字符,即可得到对话信息。
实施例四
图4为本发明实施例四提供的一种模型训练装置的结构示意图。如图4所示,该装置包括:样本和语句确定模块401、提问样本确定模块402、样本回复确定模块403以及训练模块404,其中:
样本和语句确定模块,用于确定预设问答样本对以及获取自然提问语句,其中,所述预设问答样本对中包括预设提问样本和预设回答样本,所述自然提问语句和所述预设提问样本的提问目的一致;
提问样本确定模块,用于利用预设初始模型中的初始预处理子模型语义清洗处理所述自然提问语句,并根据处理结果和所述预设提问样本,确定提问样本;
样本回复确定模块,用于将所述提问样本输入所述预设初始模型中的初始机器学习子模型中,得到样本回复信息;
训练模块,用于利用所述样本回复信息和所述预设回答样本训练所述预设初始模型,以得到训练完成后的预设模型。
本发明实施例提供的模型训练装置,可以根据初始预处理子模型语义清洗处理后的结果和预设提问样本,确定出较为规范的样本回复信息,再利用该样本回复信息和预设回答样本训练预设初始模型,即可得到训练完成后的预设模型,本方案的训练方式,在训练的过程中通过对自然提问语句的语义清洗处理,可将干扰内容筛除,该方式无需大量的训练样本,在保证训练效果的基础上,提高了训练的效率。
可选的,提问样本确定模块包括:
特征编码确定单元,用于将所述自然提问语句输入至预设初始模型中的初始预处理子模型中,得到语义特征编码;
编码序列确定单元,用于确定所述预设提问样本的关键字的文本编码序列;
提问样本确定单元,用于根据所述语义特征编码和所述文本编码序列,确定提问样本。
可选的,所述根据所述语义特征编码和所述文本编码序列,确定提问样本,包括:从所述语义特征编码中提取第一预设比例的编码内容,得到第一提问编码,以及从所述文本编码序列中提取第二预设比例的编码内容,得到第二提问编码;将所述第一提问编码和所述第二提问编码进行拼接,得到提问样本,其中,在对所述预设初始模型进行训练的前预设轮次中,所述第一提问编码占所述提问样本的比例,小于所述第二提问编码占所述提问样本的比例。
可选的,训练模块具体用于,根据所述样本回复信息和所述预设回答样本,确定损失函数,并利用所述损失函数训练所述预设初始模型,得到训练完成后的预设模型。
本发明实施例所提供的模型训练装置可执行本发明任意实施例所提供的模型训练方法,具备执行方法相应的功能模块和有益效果。
实施例五
图5为本发明实施例五提供的一种回复信息的装置的结构示意图。如图5所示,该装置包括:对话信息确定模块501、特征编码确定模块502以及回复信息确定模块503,其中:
对话信息确定模块,用于确定用户输入的对话信息;
特征编码确定模块,用于利用预设模型中的语言预处理子模型,对所述对话信息进行语义清洗处理,得到目标特征编码,其中,所述预设模型采用如上文所述的模型训练方法得到;
回复信息确定模块,用于将所述目标特征编码输入至所述预设模型中的预设机器学习子模型中,得到目标回复信息。
本发明实施例提供的回复信息的装置,通过利用预设模型可以在识别用户输入的对话语义之前,先将干扰内容滤除,使预设模型中的预设机器学习子模型可以根据对话信息对应的目标特征编码,准确且迅速的确定出对用户的回复信息,保证了用户的体验感。
可选的,对话信息确定模块具体用于,获取用户输入的初始对话语句,从所述初始对话语句中删除与预设字符一致的字符,得到对话信息。
本发明实施例所提供的回复信息的装置可执行本发明任意实施例所提供的模型训练方法,具备执行方法相应的功能模块和有益效果。
实施例六
图6示出了可以用来实施本发明的实施例的电子设备60的结构示意图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备(如头盔、眼镜、手表等)和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本发明的实现。
如图6所示,电子设备60包括至少一个处理器61,以及与至少一个处理器61通信连接的存储器,如只读存储器(ROM)62、随机访问存储器(RAM)63等,其中,存储器存储有可被至少一个处理器执行的计算机程序,处理器61可以根据存储在只读存储器(ROM)62中的计算机程序或者从存储单元68加载到随机访问存储器(RAM)63中的计算机程序,来执行各种适当的动作和处理。在RAM 63中,还可存储电子设备60操作所需的各种程序和数据。处理器61、ROM 62以及RAM 63通过总线64彼此相连。输入/输出(I/O)接口65也连接至总线64。
电子设备60中的多个部件连接至I/O接口65,包括:输入单元66,例如键盘、鼠标等;输出单元67,例如各种类型的显示器、扬声器等;存储单元68,例如磁盘、光盘等;以及通信单元69,例如网卡、调制解调器、无线通信收发机等。通信单元69允许电子设备60通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理器61可以是各种具有处理和计算能力的通用和/或专用处理组件。处理器61的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的处理器、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。处理器61执行上文所描述的各个方法和处理,例如模型训练方法,和/或,回复信息的方法。
在一些实施例中,模型训练方法可被实现为计算机程序,其被有形地包含于计算机可读存储介质,例如存储单元68。在一些实施例中,计算机程序的部分或者全部可以经由ROM 62和/或通信单元69而被载入和/或安装到电子设备60上。当计算机程序加载到RAM 63并由处理器61执行时,可以执行上文描述的模型训练方法的一个或多个步骤。备选地,在其他实施例中,处理器61可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行模型训练方法,和/或,回复信息的方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本发明的方法的计算机程序可以采用一个或多个编程语言的任何组合来编写。这些计算机程序可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,使得计算机程序当由处理器执行时使流程图和/或框图中所规定的功能/操作被实施。计算机程序可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
上述提供的计算机设备可用于执行上述任意实施例提供的模型训练方法,和/或,回复信息的方法,具备相应的功能和有益效果。
实施例七
在本发明的上下文中,计算机可读存储介质可以是有形的介质,所述计算机可执行指令在由计算机处理器执行时用于执行模型训练方法,该方法包括:
确定预设问答样本对以及获取自然提问语句,其中,所述预设问答样本对中包括预设提问样本和预设回答样本,所述自然提问语句和所述预设提问样本的提问目的一致;
利用预设初始模型中的初始预处理子模型语义清洗处理所述自然提问语句,并根据处理结果和所述预设提问样本,确定提问样本;
将所述提问样本输入所述预设初始模型中的初始机器学习子模型中,得到样本回复信息;
利用所述样本回复信息和所述预设回答样本训练所述预设初始模型,以得到训练完成后的预设模型。
在本发明的上下文中的计算机还可执行指令在由计算机处理器执行时用于执行回复信息的方法,该方法包括:
确定用户输入的对话信息;
利用预设模型中的语言预处理子模型,对所述对话信息进行语义清洗处理,得到目标特征编码,其中,所述预设模型采用如上文所述的模型训练方法得到;
将所述目标特征编码输入至所述预设模型中的预设机器学习子模型中,得到目标回复信息。
在本发明的上下文中,计算机可读存储介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的计算机程序。计算机可读存储介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。备选地,计算机可读存储介质可以是机器可读信号介质。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
上述提供的计算机设备可用于执行上述任意实施例提供的模型训练方法,和/或,回复信息的方法,具备相应的功能和有益效果。
值得注意的是,上述模型训练装置的实施例中,所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (10)

1.一种模型训练方法,其特征在于,包括:
确定预设问答样本对以及获取自然提问语句,其中,所述预设问答样本对中包括预设提问样本和预设回答样本,所述自然提问语句和所述预设提问样本的提问目的一致;
利用预设初始模型中的初始预处理子模型语义清洗处理所述自然提问语句,并根据处理结果和所述预设提问样本,确定提问样本;
将所述提问样本输入所述预设初始模型中的初始机器学习子模型中,得到样本回复信息;
利用所述样本回复信息和所述预设回答样本训练所述预设初始模型,以得到训练完成后的预设模型。
2.根据权利要求1所述的方法,其特征在于,所述利用预设初始模型中的初始预处理子模型语义清洗处理所述自然提问语句,并根据处理结果和所述预设提问样本,确定提问样本,包括:
将所述自然提问语句输入至预设初始模型中的初始预处理子模型中,得到语义特征编码;
确定所述预设提问样本的关键字的文本编码序列;
根据所述语义特征编码和所述文本编码序列,确定提问样本。
3.根据权利要求2所述的方法,其特征在于,所述根据所述语义特征编码和所述文本编码序列,确定提问样本,包括:
从所述语义特征编码中提取第一预设比例的编码内容,得到第一提问编码,以及从所述文本编码序列中提取第二预设比例的编码内容,得到第二提问编码;
将所述第一提问编码和所述第二提问编码进行拼接,得到提问样本,其中,在对所述预设初始模型进行训练的前预设轮次中,所述第一提问编码占所述提问样本的比例,小于所述第二提问编码占所述提问样本的比例。
4.根据权利要求1所述的方法,其特征在于,所述利用所述样本回复信息和所述预设回答样本训练所述预设初始模型,以得到训练完成后的预设模型,包括:
根据所述样本回复信息和所述预设回答样本,确定损失函数,并利用所述损失函数训练所述预设初始模型,得到训练完成后的预设模型。
5.一种回复信息的方法,其特征在于,包括:
确定用户输入的对话信息;
利用预设模型中的语言预处理子模型,对所述对话信息进行语义清洗处理,得到目标特征编码,其中,所述预设模型采用如权利要求1-4任一所述的模型训练方法得到;
将所述目标特征编码输入至所述预设模型中的预设机器学习子模型中,得到目标回复信息。
6.根据权利要求5所述的方法,其特征在于,所述确定用户输入的对话信息,包括:
获取用户输入的初始对话语句,从所述初始对话语句中删除与预设字符一致的字符,得到对话信息。
7.一种模型训练装置,其特征在于,包括:
样本和语句确定模块,用于确定预设问答样本对以及获取自然提问语句,其中,所述预设问答样本对中包括预设提问样本和预设回答样本,所述自然提问语句和所述预设提问样本的提问目的一致;
提问样本确定模块,用于利用预设初始模型中的初始预处理子模型语义清洗处理所述自然提问语句,并根据处理结果和所述预设提问样本,确定提问样本;
样本回复确定模块,用于将所述提问样本输入所述预设初始模型中的初始机器学习子模型中,得到样本回复信息;
训练模块,用于利用所述样本回复信息和所述预设回答样本训练所述预设初始模型,以得到训练完成后的预设模型。
8.一种回复信息的装置,其特征在于,包括:
对话信息确定模块,用于确定用户输入的对话信息;
特征编码确定模块,用于利用预设模型中的语言预处理子模型,对所述对话信息进行语义清洗处理,得到目标特征编码,其中,所述预设模型采用如权利要求1-4任一所述的模型训练方法得到;
回复信息确定模块,用于将所述目标特征编码输入至所述预设模型中的预设机器学习子模型中,得到目标回复信息。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-4中任一项所述的模型训练方法,和/或,实现如权利要求5-6中任一所述的回复信息的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现权利要求1-4中任一项所述的模型训练方法,和/或,实现如权利要求5-6中任一所述的回复信息的方法。
CN202310402861.1A 2023-04-14 2023-04-14 模型训练方法、回复信息的方法、装置、设备及介质 Pending CN116541494A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310402861.1A CN116541494A (zh) 2023-04-14 2023-04-14 模型训练方法、回复信息的方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310402861.1A CN116541494A (zh) 2023-04-14 2023-04-14 模型训练方法、回复信息的方法、装置、设备及介质

Publications (1)

Publication Number Publication Date
CN116541494A true CN116541494A (zh) 2023-08-04

Family

ID=87453349

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310402861.1A Pending CN116541494A (zh) 2023-04-14 2023-04-14 模型训练方法、回复信息的方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN116541494A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117592567A (zh) * 2023-11-21 2024-02-23 广州方舟信息科技有限公司 药品问答模型训练方法、装置、电子设备和存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117592567A (zh) * 2023-11-21 2024-02-23 广州方舟信息科技有限公司 药品问答模型训练方法、装置、电子设备和存储介质
CN117592567B (zh) * 2023-11-21 2024-05-28 广州方舟信息科技有限公司 药品问答模型训练方法、装置、电子设备和存储介质

Similar Documents

Publication Publication Date Title
WO2020098249A1 (zh) 电子装置、应对话术推荐方法和计算机可读存储介质
CN114399769B (zh) 文本识别模型的训练方法、文本识别方法及装置
JP2020030408A (ja) オーディオにおける重要語句を認識するための方法、装置、機器及び媒体
CN112559885B (zh) 地图兴趣点的训练模型确定方法、装置及电子设备
CN113407677B (zh) 评估咨询对话质量的方法、装置、设备和存储介质
CN112507118A (zh) 信息分类抽取方法、装置和电子设备
CN116541494A (zh) 模型训练方法、回复信息的方法、装置、设备及介质
CN115358243A (zh) 多轮对话识别模型的训练方法、装置、设备及存储介质
CN112669850A (zh) 语音质量检测方法、装置、计算机设备及存储介质
CN115658903A (zh) 文本分类方法、模型训练方法、相关装置及电子设备
CN113051381B (zh) 信息质检方法、装置、计算机系统和计算机可读存储介质
CN114758649A (zh) 一种语音识别方法、装置、设备和介质
CN114118937A (zh) 基于任务的信息推荐方法、装置、电子设备及存储介质
CN114141236A (zh) 语言模型更新方法、装置、电子设备及存储介质
CN112989797B (zh) 模型训练、文本扩展方法,装置,设备以及存储介质
CN113705206B (zh) 情感预测模型的训练方法、装置、设备及存储介质
CN113344405B (zh) 基于知识图谱生成信息的方法、装置、设备、介质和产品
CN113268577B (zh) 一种基于对话关系的训练数据处理方法、装置及可读介质
CN114492409B (zh) 文件内容的评价方法、装置、电子设备及程序产品
US20230146519A1 (en) Method for selecting annotated sample, apparatus, electronic device and storage medium
CN116050427B (zh) 信息生成方法、训练方法、装置、电子设备以及存储介质
CN111737988B (zh) 一种复述句识别的方法及装置
CN115827835A (zh) 一种公开文本的标签抽取方法、装置、设备及存储介质
CN114461771A (zh) 问答方法、装置、电子设备和可读存储介质
CN115422930A (zh) 一种情感分析方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination