CN116541506B - 基于机器学习的智能对话方法、装置、设备及存储介质 - Google Patents

基于机器学习的智能对话方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN116541506B
CN116541506B CN202310820338.0A CN202310820338A CN116541506B CN 116541506 B CN116541506 B CN 116541506B CN 202310820338 A CN202310820338 A CN 202310820338A CN 116541506 B CN116541506 B CN 116541506B
Authority
CN
China
Prior art keywords
model
dialogue
target
training
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310820338.0A
Other languages
English (en)
Other versions
CN116541506A (zh
Inventor
陈守红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Gelonghui Information Technology Co ltd
Original Assignee
Shenzhen Gelonghui Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Gelonghui Information Technology Co ltd filed Critical Shenzhen Gelonghui Information Technology Co ltd
Priority to CN202310820338.0A priority Critical patent/CN116541506B/zh
Publication of CN116541506A publication Critical patent/CN116541506A/zh
Application granted granted Critical
Publication of CN116541506B publication Critical patent/CN116541506B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/335Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/151Transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及人工智能领域,公开了一种基于机器学习的智能对话方法、装置、设备及存储介质,用于实现企业用户的智能对话并提高智能对话的准确率。方法包括:对多个第二问题数据进行实体识别及文本分类,得到多个目标问题类以及每个目标问题类对应的问题文本实体;构建每个目标问题类的第一训练模型,并获取对话文本实体;基于问题文本实体和对话文本实体,对第一训练模型进行模型训练,得到多个第二训练模型;对多个第二训练模型进行模型集成,得到第一对话模型集合;将目标问题数据输入第一对话模型集合进行智能对话,得到目标对话数据以及对话满意度;基于对话满意度,对第一对话模型集合进行模型调优,生成第二对话模型集合。

Description

基于机器学习的智能对话方法、装置、设备及存储介质
技术领域
本发明涉及人工智能领域,尤其涉及一种基于机器学习的智能对话方法、装置、设备及存储介质。
背景技术
随着大数据和人工智能技术的迅猛发展,越来越多的企业开始尝试使用智能客服系统来为客户提供高效、贴心的服务体验。传统客服系统大多采用固定的、预设的问答模板,缺乏灵活性和个性化,难以满足客户日益增长的需求。而基于机器学习的智能对话方法,则能够根据客户的语言习惯和需求进行个性化的响应,提高客户满意度和服务质量。
现有方案往往由于对话涉及到自然语言理解、生成等多个方面的问题,因此在实际应用中,对话质量往往不稳定,甚至存在语义不连贯等问题,即现有方案的准确率较低。
发明内容
本发明提供了一种基于机器学习的智能对话方法、装置、设备及存储介质,用于实现企业用户的智能对话并提高智能对话的准确率。
本发明第一方面提供了一种基于机器学习的智能对话方法,所述基于机器学习的智能对话方法包括:
创建企业用户的问题库并获取多个第一问题数据,以及对所述多个第一问题数据进行结构化转换,得到多个第二问题数据;
对所述多个第二问题数据进行实体识别及文本分类,得到多个目标问题类以及每个目标问题类对应的问题文本实体;
构建每个目标问题类的第一训练模型,并基于预置的智能客服学习资料库获取每个问题文本实体对应的对话文本实体;
基于所述问题文本实体和所述对话文本实体,对所述第一训练模型进行模型训练,得到多个第二训练模型;
对所述多个第二训练模型进行模型集成,得到第一对话模型集合;
接收目标用户输入的目标问题数据,并将所述目标问题数据输入所述第一对话模型集合进行智能对话,得到目标对话数据以及对话满意度;
基于所述对话满意度,对所述第一对话模型集合进行模型调优,生成第二对话模型集合。
结合第一方面,在本发明第一方面的第一实施方式中,所述对所述多个第二问题数据进行实体识别及文本分类,得到多个目标问题类以及每个目标问题类对应的问题文本实体,包括:
分别对所述多个第二问题数据进行文本实体识别,得到每个第二问题数据对应的第一文本实体;
对所述第一文本实体进行实体筛选,得到每个第二问题数据对应的第二文本实体;
对所述第二文本实体进行文本聚类,确定每个第二文本实体对应的聚类中心,并根据所述聚类中心构建聚类中心关系图;
对所述聚类中心进行距离计算,得到每两个聚类中心之间的距离数据,并根据每两个聚类中心之间的距离数据和所述聚类中心关系图生成聚类中心有向网络结构图;
对所述聚类中心有向网络结构图进行结构图节点提取,得到多个结构图节点,并对所述多个结构图节点进行主从关系分析,得到目标主从关系;
根据所述目标主从关系确定多个主节点以及每个主节点对应的多个从属节点,并将所述主节点以及对应的多个从属节点作为一个问题类,得到多个目标问题类;
获取每个目标问题类对应的多个第二文本实体,并将所述多个第二文本实体输出为每个目标问题类对应的问题文本实体。
结合第一方面,在本发明第一方面的第二实施方式中,所述构建每个目标问题类的第一训练模型,并基于预置的智能客服学习资料库获取每个问题文本实体对应的对话文本实体,包括:
获取每个目标问题类的问题属性特征,并对所述问题属性特征进行特征编码,得到第一特征编码集合;
获取多个候选训练模型以及每个候选训练模型的模型属性特征,并对所述模型属性特征进行特征编码,得到第二特征编码集合;
对所述第一特征编码集合和所述第二特征编码集合进行编码特征映射匹配,得到每个目标问题类与每个候选训练模型之间的匹配度;
对所述匹配度进行比较,并将匹配度最大的候选训练模型作为每个目标问题类的第一训练模型;
基于预置的智能客服学习资料库构建问题文本实体与对话文本实体之间的映射关系;
根据所述映射关系,获取每个问题文本实体对应的对话文本实体。
结合第一方面,在本发明第一方面的第三实施方式中,所述基于所述问题文本实体和所述对话文本实体,对所述第一训练模型进行模型训练,得到多个第二训练模型,包括:
将所述问题文本实体输入所述第一训练模型进行对话实体预测,得到对话实体预测结果;
对所述对话实体预测结果和所述对话文本实体进行差异度计算,得到第一差异度;
根据所述第一差异度,对所述第一训练模型进行模型参数优化,得到优化后的第一训练模型;
将所述问题文本实体输入所述优化后的第一训练模型进行训练模型验证,并计算第二差异度;
当所述第二差异度小于预设目标值时,将所述优化后的第一训练模型输出为第二训练模型,得到多个第二训练模型。
结合第一方面,在本发明第一方面的第四实施方式中,所述对所述多个第二训练模型进行模型集成,得到第一对话模型集合,包括:
构建所述多个目标问题类的目标问题分布图,并获取所述目标问题分布图中每两个目标问题类的问题向量;
根据每两个目标问题类的问题向量,确定所述多个第二训练模型之间的关联度;
根据所述关联度,设置所述多个第二训练模型的模型拓扑结构;
根据所述模型拓扑结构,对所述多个第二训练模型进行模型集成,得到第一对话模型集合。
结合第一方面,在本发明第一方面的第五实施方式中,所述接收目标用户输入的目标问题数据,并将所述目标问题数据输入所述第一对话模型集合进行智能对话,得到目标对话数据以及对话满意度,包括:
接收目标用户输入的目标问题数据;
将所述目标问题数据输入所述第一对话模型集合,并通过所述第一对话模型集合对所述目标问题数据进行问题分类和模型匹配,得到所述第一对话模型集合中的至少一个第二训练模型;
通过所述至少一个第二训练模型对所述目标问题数据进行智能对话分析,得到目标对话数据;
将所述目标对话数据反馈至所述目标用户,并获取所述目标用户的对话满意度。
结合第一方面,在本发明第一方面的第六实施方式中,所述基于所述对话满意度,对所述第一对话模型集合进行模型调优,生成第二对话模型集合,包括:
判断所述对话满意度是否超过预设满意度阈值;
若是,则将所述第一对话模型集合输出为第二对话模型集合;
若否,则对所述第一对话模型集合进行模型间关联关系优化,生成第二对话模型集合。
本发明第二方面提供了一种基于机器学习的智能对话装置,所述基于机器学习的智能对话装置包括:
获取模块,用于创建企业用户的问题库并获取多个第一问题数据,以及对所述多个第一问题数据进行结构化转换,得到多个第二问题数据;
分类模块,用于对所述多个第二问题数据进行实体识别及文本分类,得到多个目标问题类以及每个目标问题类对应的问题文本实体;
构建模块,用于构建每个目标问题类的第一训练模型,并基于预置的智能客服学习资料库获取每个问题文本实体对应的对话文本实体;
训练模块,用于基于所述问题文本实体和所述对话文本实体,对所述第一训练模型进行模型训练,得到多个第二训练模型;
集成模块,用于对所述多个第二训练模型进行模型集成,得到第一对话模型集合;
对话模块,用于接收目标用户输入的目标问题数据,并将所述目标问题数据输入所述第一对话模型集合进行智能对话,得到目标对话数据以及对话满意度;
调优模块,用于基于所述对话满意度,对所述第一对话模型集合进行模型调优,生成第二对话模型集合。
本发明第三方面提供了一种基于机器学习的智能对话设备,包括:存储器和至少一个处理器,所述存储器中存储有指令;所述至少一个处理器调用所述存储器中的所述指令,以使得所述基于机器学习的智能对话设备执行上述的基于机器学习的智能对话方法。
本发明的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述的基于机器学习的智能对话方法。
本发明提供的技术方案中,对多个第二问题数据进行实体识别及文本分类,得到多个目标问题类以及每个目标问题类对应的问题文本实体;构建每个目标问题类的第一训练模型,并获取对话文本实体;基于问题文本实体和对话文本实体,对第一训练模型进行模型训练,得到多个第二训练模型;对多个第二训练模型进行模型集成,得到第一对话模型集合;将目标问题数据输入第一对话模型集合进行智能对话,得到目标对话数据以及对话满意度;基于对话满意度,对第一对话模型集合进行模型调优,生成第二对话模型集合,本发明中的机器学习模型可以根据客户的语言习惯和需求进行个性化的响应,提高客户满意度和服务质量,并且通过对对话模型进行集成的方式,使得对话模型针对每一类问题具有特异性识别功能,进而使得智能对话系统可以自动化地处理各种问题,通过增加数据、优化模型等方法,实现对话质量和范围的扩展,进而实现了企业用户的智能对话并提高了智能对话的准确率。
附图说明
图1为本发明实施例中基于机器学习的智能对话方法的一个实施例示意图;
图2为本发明实施例中实体识别及文本分类的流程图;
图3为本发明实施例中构建第一训练模型的流程图;
图4为本发明实施例中模型训练的流程图;
图5为本发明实施例中基于机器学习的智能对话装置的一个实施例示意图;
图6为本发明实施例中基于机器学习的智能对话设备的一个实施例示意图。
具体实施方式
本发明实施例提供了一种基于机器学习的智能对话方法、装置、设备及存储介质,用于实现企业用户的智能对话并提高智能对话的准确率。本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”或“具有”及其任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为便于理解,下面对本发明实施例的具体流程进行描述,请参阅图1,本发明实施例中基于机器学习的智能对话方法的一个实施例包括:
S101、创建企业用户的问题库并获取多个第一问题数据,以及对多个第一问题数据进行结构化转换,得到多个第二问题数据;
可以理解的是,本发明的执行主体可以为基于机器学习的智能对话装置,还可以是终端或者服务器,具体此处不做限定。本发明实施例以服务器为执行主体为例进行说明。
具体的,服务器收集企业用户的问题数据。这可以通过多种渠道,如客户支持邮件、聊天记录、社交媒体互动或在线问卷等来实现。收集到的问题数据可能是杂乱无章的,可能存在冗余、不规范或错误的内容。因此,接下来服务器对问题数据进行整理和清洗。这包括去除重复的问题、纠正拼写错误、统一格式等,以确保数据的质量和一致性。当问题数据被整理和清洗,服务器对其进行标注和分类。标注是为每个问题打上相应的标签或类别,以指示问题所属的主题或领域。这可以通过人工标注或自动化的方式实现。完成标注和分类后,服务器进行结构化转换,将原始文本数据转换为适合机器学习处理的结构化形式。这可能涉及将问题文本转换为向量表示或将其转换为特定的数据格式,如JSON或CSV。经过结构化转换,服务器就得到了多个第二问题数据集。每个第二问题数据包含了转换后的结构化信息。这些数据可以用作训练模型的输入,用于建立智能对话系统。例如,假设服务器要为一家电商公司创建一个智能对话系统。服务器从客户支持邮件和聊天记录中收集了大量的问题数据,例如关于产品购买、退款、订单跟踪等方面的问题。经过整理和清洗,服务器去除了重复问题,并进行了拼写纠正和格式统一。服务器对这些问题进行了标注和分类,将它们归类为不同的主题或领域。服务器进行了结构化转换,将问题数据转换为适合机器学习处理的形式,得到了多个第二问题数据集,每个数据集包含了转换后的结构化信息。本实施例中,服务器创建了企业用户的问题库并获取了多个第一问题数据,并对这些数据进行了结构化转换,得到了多个第二问题数据集。这为服务器构建智能对话系统提供了基础。
S102、对多个第二问题数据进行实体识别及文本分类,得到多个目标问题类以及每个目标问题类对应的问题文本实体;
具体的,服务器对多个第二问题数据进行文本实体识别,得到每个第二问题数据对应的第一文本实体。通过文本实体识别,服务器能够识别出文本中具有特定意义的实体,如人名、地名、组织机构名等。对第一文本实体进行实体筛选,以提取每个第二问题数据对应的第二文本实体。这一步骤可以进一步处理和过滤第一文本实体,从中提取出更有意义和相关的实体。随后,对第二文本实体进行文本聚类,以确定每个第二文本实体对应的聚类中心。通过将相似的文本实体聚类在一起,服务器找到聚类中心,代表该类别的核心概念。这可以帮助服务器更好地理解不同问题之间的相似性和关联性。基于聚类中心,服务器构建聚类中心关系图。这个图表反映了不同聚类中心之间的关系。服务器计算每两个聚类中心之间的距离数据,并根据距离数据和聚类中心关系图生成聚类中心的有向网络结构图。服务器对聚类中心有向网络结构图进行结构图节点提取,以得到多个结构图节点。这些节点代表问题领域中的关键概念或主题。进一步地,服务器对多个结构图节点进行主从关系分析,以确定目标主从关系。这可以帮助服务器理解问题之间的层次关系和依赖关系。根据目标主从关系,服务器确定多个主节点和每个主节点对应的多个从属节点。将这些主节点及其对应的从属节点作为一个问题类,服务器得到多个目标问题类。服务器获取每个目标问题类对应的多个第二文本实体,并将这些第二文本实体输出为每个目标问题类对应的问题文本实体。
S103、构建每个目标问题类的第一训练模型,并基于预置的智能客服学习资料库获取每个问题文本实体对应的对话文本实体;
需要说明的是,服务器获取每个目标问题类的问题属性特征,并对其进行特征编码,以得到第一特征编码集合。问题属性特征可以包括问题的关键词、句法结构、上下文信息等。通过将这些问题属性特征进行编码,服务器将其表示为计算机可处理的形式。服务器获取多个候选训练模型以及每个候选训练模型的模型属性特征,并对其进行特征编码,得到第二特征编码集合。模型属性特征可以包括模型的结构、参数设置、性能指标等。通过对这些模型属性特征进行编码,服务器将其表示为机器学习算法能够理解的形式。服务器对第一特征编码集合和第二特征编码集合进行编码特征映射匹配。这意味着服务器将问题属性特征和模型属性特征进行比对和匹配,以确定每个目标问题类与每个候选训练模型之间的匹配度。匹配度可以通过计算特征之间的相似度或使用其他匹配算法来评估。服务器比较匹配度,并选择匹配度最大的候选训练模型作为每个目标问题类的第一训练模型。通过这个步骤,服务器为每个目标问题类选择最适合的训练模型,以提高模型的准确性和性能。同时,服务器基于预置的智能客服学习资料库构建问题文本实体与对话文本实体之间的映射关系。智能客服学习资料库可以包括历史对话记录、常见问题集合等。通过分析和处理这些学习资料,服务器建立问题文本实体与对话文本实体之间的对应关系。服务器根据映射关系,服务器获取每个问题文本实体对应的对话文本实体。这意味着对于给定的问题文本实体,服务器从学习资料库中检索相应的对话文本实体作为参考。这些对话文本实体可以用于训练模型、生成回答或提供相关的上下文信息。例如,假设服务器正在构建一个智能客服服务器,为一家在线购物平台提供用户支持。服务器的目标问题类之一是与订单配送相关的问题。服务器收集与订单配送相关的问题属性特征,如关键词"订单"、"配送"、"快递",以及上下文信息如"我的订单还未收到"、"配送时间延迟"等。服务器对这些问题属性特征进行编码,得到第一特征编码集合。同时,服务器获取了多个候选训练模型,每个模型都有其模型属性特征,如模型的神经网络结构、学习率、优化算法等。服务器对这些模型属性特征进行编码,得到第二特征编码集合。服务器对第一特征编码集合和第二特征编码集合进行编码特征映射匹配。例如,服务器使用相似度计算方法,如余弦相似度或欧氏距离,来衡量问题属性特征和模型属性特征之间的匹配程度。通过比较匹配度,服务器选择了匹配度最大的候选训练模型作为与订单配送相关问题类的第一训练模型。这个模型可能是一个经过训练的深度学习模型,具有较好的订单配送问题识别和解决能力。此外,服务器基于预置的智能客服学习资料库,建立了问题文本实体与对话文本实体之间的映射关系。其中,服务器可能有存储了大量用户对话历史记录的学习资料库。通过分析这些对话记录,服务器将用户的问题文本实体与对应的对话文本实体进行关联。服务器根据映射关系,服务器获取与订单配送问题文本实体对应的对话文本实体。例如,如果用户提出了一个关于订单配送延迟的问题,服务器从学习资料库中检索类似的对话记录,找到与该问题相关的对话文本实体,以便为用户提供准确和个性化的回答或解决方案。本实施例中,服务器实现构建每个目标问题类的第一训练模型,并基于预置的智能客服学习资料库获取每个问题文本实体对应的对话文本实体。这为智能对话服务器提供了针对特定问题类的训练模型和相关对话文本实体的支持,从而提高了服务器的问题理解和解决能力。
S104、基于问题文本实体和对话文本实体,对第一训练模型进行模型训练,得到多个第二训练模型;
具体的,服务器收集大量的问题数据,并将其作为训练样本。这些问题数据包括问题文本实体和对应的对话文本实体。服务器将问题文本实体输入第一训练模型进行对话实体预测。通过模型的预测,服务器得到对话实体预测结果,即模型对问题文本实体所关联的对话文本实体的预测。服务器对对话实体预测结果和对话文本实体进行差异度计算,以衡量预测结果与实际对话文本实体之间的差异。这个差异度可以使用各种度量方式,如文本相似度计算或特征向量距离计算等。基于第一差异度,服务器对第一训练模型进行模型参数优化,以提升模型的性能和准确度。通过调整模型的参数设置、优化算法或网络结构等方面,服务器改进第一训练模型,使其更好地适应问题文本实体和对话文本实体的关系。服务器将问题文本实体再次输入优化后的第一训练模型进行训练模型验证,并计算第二差异度。通过比较优化后的模型对问题文本实体的预测结果与实际对话文本实体之间的差异,服务器评估模型的性能和泛化能力。当第二差异度小于预设的目标值时,即模型的预测结果与实际对话文本实体之间的差异达到了可接受的范围,服务器将优化后的第一训练模型输出为第二训练模型。服务器得到了多个第二训练模型,它们在训练过程中经过优化和验证,能够更准确地预测问题文本实体与对话文本实体之间的关系。例如,假设服务器正在构建一个智能客服系统。服务器收集了大量的用户问题和对应的客服回答,这些问题文本实体是用户提出的问题,而对话文本实体是客服回答的内容。服务器使用第一训练模型对问题文本实体进行对话实体预测,得到了对话实体预测结果。服务器计算预测结果与实际对话文本实体的差异度,以评估模型的准确度。服务器对第一训练模型进行模型参数优化,通过调整模型的参数设置、优化算法或网络结构等方式,提升模型性能。再次将问题文本实体输入优化后的第一训练模型进行验证,计算第二差异度,以进一步评估模型的泛化能力和性能。如果第二差异度小于预设的目标值,说明模型的预测结果与实际对话文本实体的差异已经达到可接受的范围。在这种情况下,服务器将优化后的第一训练模型输出为第二训练模型。
S105、对多个第二训练模型进行模型集成,得到第一对话模型集合;
具体的,服务器构建多个目标问题类的目标问题分布图,并获取每两个目标问题类之间的问题向量。目标问题分布图是一个表示目标问题类之间关系的图形结构,其中每个节点代表一个目标问题类,边表示问题类之间的关联关系。问题向量是用于表示问题类的数值向量,可以基于问题的特征进行编码得到。通过构建目标问题分布图和计算问题向量,服务器了解不同问题类之间的相似度或关联程度。根据每两个目标问题类之间的问题向量,确定多个第二训练模型之间的关联度。关联度可以通过计算问题向量之间的相似度或距离来衡量。这可以使用各种度量方法,如余弦相似度、欧氏距离等。通过确定关联度,服务器了解每个第二训练模型与其他模型之间的相似性或相关性。根据关联度,服务器设置多个第二训练模型的模型拓扑结构。模型拓扑结构定义了模型之间的连接关系和信息流动方式。它可以是串联、并联、层次结构等形式,根据问题类之间的关联度确定模型之间的连接方式。通过设置模型拓扑结构,服务器构建一个综合了多个第二训练模型的整体模型。服务器根据模型拓扑结构,对多个第二训练模型进行模型集成,得到第一对话模型集合。模型集成可以采用不同的方法,如融合权重、投票机制、集成学习等。通过将多个第二训练模型结合在一起,服务器利用它们的共同知识和优势,提高对话服务器的性能和表现。例如,假设服务器有三个目标问题类:A、B和C。服务器构建目标问题分布图,并计算出每两个问题类之间的问题向量。假设问题向量计算结果如下:问题向量(A,B)=[0.8,0.2]、问题向量(A,C)=[0.5,0.6]、问题向量(B,C)=[0.7,0.3]。服务器计算每两个问题类之间的关联度,可以使用余弦相似度进行计算。假设关联度计算结果如下:关联度(A,B)=0.95、关联度(A,C)=0.85、关联度(B,C)=0.90。根据关联度,服务器确定模型拓扑结构。假设服务器选择将问题类A和B连接起来,并将问题类C作为一个独立的模型。模型拓扑结构可以表示为:A→B→C。服务器根据模型拓扑结构,服务器对多个第二训练模型进行模型集成。假设服务器有两个第二训练模型:Model_1和Model_2。根据模型拓扑结构,服务器将Model_1用于问题类A和B之间的对话,而Model_2用于问题类C的对话。通过将模型集成起来,服务器得到第一对话模型集合,其中包含了整个问题类A、B和C的综合模型。通过上述步骤,服务器成功实现了对多个第二训练模型的模型集成,得到了第一对话模型集合。这样的集成方法可以利用不同模型之间的关联性和相似性,提高对话服务器的整体性能和准确性。
S106、接收目标用户输入的目标问题数据,并将目标问题数据输入第一对话模型集合进行智能对话,得到目标对话数据以及对话满意度;
具体的,服务器接收目标用户输入的目标问题数据。这可以通过一个用户界面或应用程序来实现,用户可以通过文本输入或语音输入方式提出问题。目标问题数据将被传递给第一对话模型集合,这个集合包含多个第二训练模型。第一对话模型集合的目的是对目标问题进行问题分类和模型匹配,以找到最适合回答目标问题的第二训练模型。在第一对话模型集合中,目标问题数据将被输入到每个模型中,并通过模型的推理和预测过程,得到每个模型对于目标问题的回答。根据问题分类和模型匹配的结果,可以选择一个或多个最适合的第二训练模型来进一步分析目标问题。通过所选的第二训练模型,目标问题数据将被输入到该模型中进行智能对话分析。该模型会根据其训练得到的知识和模型结构,理解目标问题并生成相应的对话回复。这个回复可以是文本形式的,也可以是语音合成等其他形式的。目标对话数据是由第二训练模型生成的,它包括了模型对目标问题的回答以及可能的后续对话内容。这些对话数据可以作为服务器的输出,可以通过文本形式显示给目标用户,或者通过语音合成转换为语音播放给用户。在向目标用户反馈目标对话数据后,服务器通过用户反馈或评价来获取目标用户的对话满意度。这可以通过用户提供的评分、评论或其他形式的反馈机制来实现。服务器根据这些反馈信息了解用户对对话质量和满意度的评价,以进一步改进智能对话服务器的性能和用户体验。
S107、基于对话满意度,对第一对话模型集合进行模型调优,生成第二对话模型集合。
具体的,服务器判断对话满意度是否超过预设满意度阈值。对话满意度是根据用户的反馈和评价来确定的,可以包括用户对对话过程、服务质量和结果的满意程度。服务器将收集用户的对话满意度,并与预设的满意度阈值进行比较。例如,假设预设的满意度阈值为80%,即用户的满意度需要达到80%以上才能认为对话是满意的。服务器会根据用户的反馈和评价进行统计和分析,计算出对话满意度的百分比。如果对话满意度超过80%,则服务器会认为对话是满意的。如果对话满意度超过预设阈值,服务器将直接将第一对话模型集合输出为第二对话模型集合。这意味着第一对话模型集合中的模型已经表现出良好的对话能力和满意度,可以作为第二对话模型集合使用。这些模型经过了训练和优化,能够处理目标问题数据并生成满意的对话结果。然而,如果对话满意度未达到预设阈值,服务器对第一对话模型集合进行模型间关联关系优化,以生成第二对话模型集合。模型间关联关系优化的目标是改善模型之间的协同效应,提高对话质量和满意度。优化过程中,服务器采用各种方法,如重新训练模型、调整模型参数、改变模型拓扑结构等。通过分析第一对话模型集合中各个模型之间的差异度和相关性,可以确定优化策略。服务器选择增加或减少模型的数量,调整模型之间的关联度,甚至引入新的模型来提升对话质量。例如,假设第一对话模型集合包含了三个模型:模型A、模型B和模型C。服务器分析了它们在对话生成方面的差异度和相关性后发现,模型A在对特定领域的问题回答方面表现较好,模型B在上下文理解和流畅性方面表现较好,而模型C在处理复杂问题和生成多样性方面表现较好。基于这些分析结果,服务器选择将模型A、模型B和模型C组合成第二对话模型集合。通过这种组合,第二对话模型集合可以综合利用每个模型的优势,提供更准确、流畅和多样化的对话体验,从而提高对话满意度。通过对第一对话模型集合的优化和调整,服务器能够生成一个更强大、更高效的第二对话模型集合,以应对目标用户的问题,并根据用户的反馈进一步提升对话质量和满意度。这种优化过程可以不断迭代和改进,以逐渐提升服务器的智能对话能力和用户体验。
本发明实施例中,对多个第二问题数据进行实体识别及文本分类,得到多个目标问题类以及每个目标问题类对应的问题文本实体;构建每个目标问题类的第一训练模型,并获取对话文本实体;基于问题文本实体和对话文本实体,对第一训练模型进行模型训练,得到多个第二训练模型;对多个第二训练模型进行模型集成,得到第一对话模型集合;将目标问题数据输入第一对话模型集合进行智能对话,得到目标对话数据以及对话满意度;基于对话满意度,对第一对话模型集合进行模型调优,生成第二对话模型集合,本发明中的机器学习模型可以根据客户的语言习惯和需求进行个性化的响应,提高客户满意度和服务质量,并且通过对对话模型进行集成的方式,使得对话模型针对每一类问题具有特异性识别功能,进而使得智能对话系统可以自动化地处理各种问题,通过增加数据、优化模型等方法,实现对话质量和范围的扩展,进而实现了企业用户的智能对话并提高了智能对话的准确率。
在一具体实施例中,如图2所示,执行步骤S102的过程可以具体包括如下步骤:
S201、分别对多个第二问题数据进行文本实体识别,得到每个第二问题数据对应的第一文本实体;
S202、对第一文本实体进行实体筛选,得到每个第二问题数据对应的第二文本实体;
S203、对第二文本实体进行文本聚类,确定每个第二文本实体对应的聚类中心,并根据聚类中心构建聚类中心关系图;
S204、对聚类中心进行距离计算,得到每两个聚类中心之间的距离数据,并根据每两个聚类中心之间的距离数据和聚类中心关系图生成聚类中心有向网络结构图;
S205、对聚类中心有向网络结构图进行结构图节点提取,得到多个结构图节点,并对多个结构图节点进行主从关系分析,得到目标主从关系;
S206、根据目标主从关系确定多个主节点以及每个主节点对应的多个从属节点,并将主节点以及对应的多个从属节点作为一个问题类,得到多个目标问题类;
S207、获取每个目标问题类对应的多个第二文本实体,并将多个第二文本实体输出为每个目标问题类对应的问题文本实体。
具体的,服务器针对多个第二问题数据,服务器进行文本实体识别。这可以通过使用自然语言处理技术,如命名实体识别(NER),来提取问题文本中的实体信息。通过识别实体,服务器得到每个第二问题数据对应的第一文本实体。对第一文本实体进行实体筛选。实体筛选的目的是根据特定的条件或规则,选择与问题相关的实体。这样可以从第一文本实体中过滤出与问题更为相关的第二文本实体。服务器对第二文本实体进行文本聚类。文本聚类的目标是将具有相似特征或语义的文本实体归类到同一类别中。通过聚类分析,服务器确定每个第二文本实体对应的聚类中心。在确定聚类中心后,服务器根据聚类中心构建聚类中心关系图。该关系图表示了聚类中心之间的关联关系。服务器对聚类中心进行距离计算,以获取每两个聚类中心之间的距离数据。这可以使用适当的距离度量方法,如欧氏距离或余弦相似度,来计算聚类中心之间的相似性或距离。同时,服务器根据距离数据和聚类中心关系图生成聚类中心的有向网络结构图。该结构图展示了聚类中心之间的关系和相互影响。在这之后,服务器对聚类中心的有向网络结构图进行节点提取,以获取多个结构图节点。这些节点代表了聚类中心关系图中的重要元素。服务器对多个结构图节点进行主从关系分析,以确定目标主从关系。主从关系分析的目标是识别结构图节点之间的层次关系和依赖关系,从而找到主节点和从属节点之间的联系。根据目标主从关系,服务器确定多个主节点和每个主节点对应的多个从属节点。主节点代表了问题的核心概念或主题,而从属节点则是与主节点相关联的具体问题或子主题。服务器获取每个目标问题类对应的多个第二文本实体,并将这些文本实体输出为每个目标问题类的问题文本实体。这些问题文本实体可以作为进一步处理、分析或回答用户问题的基础。假设服务器有以下两个第二问题数据。服务器进行文本实体识别。对于第一个问题,服务器将其识别为第一文本实体A;对于第二个问题,服务器将其识别为第一文本实体B。进行实体筛选。通过筛选,服务器得到第二问题数据A对应的第二文本实体A1,以及第二问题数据B对应的第二文本实体B1。对第二文本实体进行文本聚类。服务器将A1和B1进行聚类,得到聚类中心C1和C2。基于聚类中心构建聚类中心关系图。在关系图中,C1和C2之间可能存在连接或关联。对聚类中心进行距离计算,得到C1和C2之间的距离数据,并根据距离数据和聚类中心关系图生成聚类中心的有向网络结构图。对聚类中心有向网络结构图进行节点提取,得到多个结构图节点。这些节点可能表示不同的概念或主题。对多个结构图节点进行主从关系分析,得到目标主从关系。根据目标主从关系,确定多个主节点和每个主节点对应的多个从属节点。这些主节点和从属节点可以代表问题的不同方面或子主题。服务器获取每个目标问题类对应的多个第二文本实体,并将这些文本实体输出作为每个目标问题类的问题文本实体。
在一具体实施例中,如图3所示,执行步骤S103的过程可以具体包括如下步骤:
S301、获取每个目标问题类的问题属性特征,并对问题属性特征进行特征编码,得到第一特征编码集合;
S302、获取多个候选训练模型以及每个候选训练模型的模型属性特征,并对模型属性特征进行特征编码,得到第二特征编码集合;
S303、对第一特征编码集合和第二特征编码集合进行编码特征映射匹配,得到每个目标问题类与每个候选训练模型之间的匹配度;
S304、对匹配度进行比较,并将匹配度最大的候选训练模型作为每个目标问题类的第一训练模型;
S305、基于预置的智能客服学习资料库构建问题文本实体与对话文本实体之间的映射关系;
S306、根据映射关系,获取每个问题文本实体对应的对话文本实体。
具体的,服务器收集与目标问题类相关的问题数据,并从这些问题中提取问题属性特征,如问题长度、关键词和语法结构等。将这些问题属性特征进行编码,以便计算机进行处理和分析。这可以使用各种编码技术,如独热编码、词袋模型或词嵌入。通过这些步骤,服务器得到第一特征编码集合,其中每个编码对应一个目标问题类的问题属性特征。收集多个候选训练模型,并记录每个模型的相关属性特征,如模型的类型、结构和参数设置等。对这些模型属性特征进行编码,将其转换为数值形式。这样做可以使计算机能够对这些属性特征进行比较和匹配。通过这些步骤,服务器得到第二特征编码集合,其中每个编码对应一个候选训练模型的模型属性特征。通过计算两个特征集合之间的相似度或距离来对第一特征编码集合和第二特征编码集合进行编码特征映射匹配,得到每个目标问题类与每个候选训练模型之间的匹配度。常用的方法包括余弦相似度、欧氏距离或曼哈顿距离等。通过比较编码特征之间的相似性,服务器得到每个目标问题类与每个候选训练模型之间的匹配度。服务器比较匹配度并选择匹配度最高的候选训练模型作为每个目标问题类的第一训练模型。服务器将目标问题类与最适合的训练模型关联起来,为后续的智能对话提供更准确和有效的支持。并且,服务器基于预置的智能客服学习资料库构建问题文本实体与对话文本实体之间的映射关系。通过学习资料库中的对话数据,服务器识别问题文本实体和对话文本实体,并建立它们之间的映射关系。当用户提出一个问题时,服务器通过映射关系来确定该问题所对应的对话文本实体。服务器根据映射关系,服务器获取每个问题文本实体对应的对话文本实体。例如,假设服务器收集了不同意图的查询数据,例如查找新闻、寻找电影信息或获取健康咨询等。对于每个查询,服务器提取问题属性特征,如查询长度、关键词、语法结构等。这些问题属性特征有助于了解查询的本质和意图。服务器使用特征编码技术将问题属性特征转化为数值表示。例如,服务器使用词嵌入技术将查询文本转换为向量表示,其中每个词对应于向量空间中的一个点。这样做的好处是可以利用向量之间的相似度来比较查询之间的相似性。同时,服务器收集了多个候选训练模型,每个模型针对不同的查询意图进行训练。这些模型具有各自的模型属性特征,如模型类型、结构和参数设置等。服务器对这些模型属性进行编码,以便能够比较和匹配不同模型之间的相似性。服务器通过计算问题属性特征与模型属性特征之间的匹配度来确定每个查询与每个模型之间的关联程度。这可以使用各种相似度度量方法,如余弦相似度、欧氏距离等。通过比较匹配度,服务器选择与每个查询最匹配的候选训练模型作为查询的分类模型。基于预置的智能搜索引擎学习资料库,服务器构建问题文本实体与对话文本实体之间的映射关系。学习资料库中包含了大量问题与其对应的搜索结果或回答。通过分析学习资料库中的数据,服务器识别问题文本实体和对话文本实体,并建立它们之间的映射关系。服务器根据映射关系,服务器根据用户的查询获取每个问题文本实体对应的对话文本实体。当用户进行查询时,服务器通过映射关系来确定该查询所对应的对话文本实体。
在一具体实施例中,如图4所示,执行步骤S104的过程可以具体包括如下步骤:
S401、将问题文本实体输入第一训练模型进行对话实体预测,得到对话实体预测结果;
S402、对对话实体预测结果和对话文本实体进行差异度计算,得到第一差异度;
S403、根据第一差异度,对第一训练模型进行模型参数优化,得到优化后的第一训练模型;
S404、将问题文本实体输入优化后的第一训练模型进行训练模型验证,并计算第二差异度;
S405、当第二差异度小于预设目标值时,将优化后的第一训练模型输出为第二训练模型,得到多个第二训练模型。
具体的,服务器首先服务器训练一个模型,该模型可以将输入的问题文本实体映射到对应的对话实体。通过对大量的训练数据进行学习,模型可以学会捕捉问题文本实体与对话实体之间的关联。当服务器有了训练好的第一训练模型,服务器将问题文本实体输入该模型进行预测,得到对话实体的预测结果。服务器计算对话实体预测结果与真实对话文本实体之间的差异度。这可以通过比较预测结果和实际对话文本实体来实现。差异度的计算可以使用各种度量方法,例如编辑距离或语义相似度计算。通过量化对话实体预测与实际对话文本实体之间的差异,服务器获得第一差异度的值。基于第一差异度,服务器进行模型参数的优化。通过调整第一训练模型的参数,服务器尝试减小差异度,使模型更好地预测问题文本实体对应的对话实体。优化算法可以采用梯度下降等方法,通过反复迭代更新模型参数,以最小化第一差异度。在模型参数优化之后,服务器对优化后的第一训练模型进行验证。这可以通过使用验证数据集来评估模型的性能。将问题文本实体输入优化后的第一训练模型,得到对话实体的预测结果,并与验证数据集中的实际对话文本实体进行比较,计算第二差异度。如果第二差异度小于预设的目标值,服务器将优化后的第一训练模型输出为第二训练模型。服务器就得到了多个第二训练模型,它们在对话实体预测上具有更好的性能和准确性。例如,假设服务器有一个问题文本实体A,通过第一训练模型,服务器得到了对话实体的预测结果a。通过与实际的对话文本实体进行比较,计算出第一差异度。服务器对第一训练模型进行参数优化,以减小差异度。通过验证数据集的验证,服务器计算出第二差异度,如果第二差异度小于预设目标值,那么服务器将优化后的第一训练模型输出为第二训练模型。服务器就获得了多个第二训练模型,它们经过优化后在对话实体预测方面具有更好的性能和准确性。
在一具体实施例中,执行步骤S105的过程可以具体包括如下步骤:
(1)构建多个目标问题类的目标问题分布图,并获取目标问题分布图中每两个目标问题类的问题向量;
(2)根据每两个目标问题类的问题向量,确定多个第二训练模型之间的关联度;
(3)根据关联度,设置多个第二训练模型的模型拓扑结构;
(4)根据模型拓扑结构,对多个第二训练模型进行模型集成,得到第一对话模型集合。
具体的,服务器构建多个目标问题类的目标问题分布图,该图反映了不同问题类之间的关联关系和分布情况。通过分析目标问题数据,服务器将问题进行分类,并将相似的问题归为同一问题类。服务器利用这些问题类构建目标问题分布图,其中每个问题类作为图中的一个节点。服务器获取目标问题分布图中每两个目标问题类之间的问题向量。问题向量可以用于表示问题的语义特征,常用的方法是将问题文本转换为向量表示,例如使用词嵌入模型如Word2Vec或GloVe进行向量化。通过计算两个问题向量之间的相似度或距离,服务器衡量两个问题类之间的关联度。根据每两个目标问题类的问题向量,服务器确定多个第二训练模型之间的关联度。这可以通过计算问题向量之间的相似度或距离来实现。相似度较高的问题类可能具有相似的语义和问题属性,因此它们的训练模型之间可能存在一定的关联度。根据关联度,服务器设置多个第二训练模型的模型拓扑结构。模型拓扑结构指定了训练模型之间的连接方式和关系。例如,服务器使用图结构来表示模型之间的关联关系,其中每个模型作为图中的一个节点,关联度高的模型之间具有连接边。通过设置模型的拓扑结构,服务器在模型集成中利用模型之间的关联性和信息交流。服务器根据模型拓扑结构,服务器对多个第二训练模型进行模型集成,得到第一对话模型集合。模型集成可以采用多种方法,例如集成学习方法(如投票、平均、堆叠等)或基于图模型的集成方法(如图神经网络)。通过将多个第二训练模型的预测结果进行整合和综合,服务器得到一个更强大和综合的第一对话模型集合,用于智能对话任务。例如,假设服务器有三个目标问题类:问题类A、问题类B和问题类C。通过构建目标问题分布图,服务器发现问题类A和问题类B之间有较高的关联度,问题类B和问题类C之间也有较高的关联度,而问题类A和问题类C之间的关联度较低。根据问题向量计算,服务器得到问题类A和问题类B之间的关联度为0.8,问题类B和问题类C之间的关联度为0.9,而问题类A和问题类C之间的关联度为0.5。基于这些关联度,服务器设置第二训练模型的拓扑结构。假设服务器选择使用图结构表示模型拓扑结构,服务器将问题类A、问题类B和问题类C分别作为图中的节点。根据它们之间的关联度,服务器在图中建立边连接。具体而言,服务器将问题类A和问题类B之间连接一条边,关联度为0.8;问题类B和问题类C之间连接一条边,关联度为0.9。服务器就得到了一个由三个节点和两条边组成的模型拓扑结构。服务器利用模型拓扑结构对多个第二训练模型进行集成。例如,服务器使用图神经网络来进行模型集成。在图神经网络中,每个节点表示一个训练模型,边表示模型之间的关联度。通过在图神经网络中传递和聚合信息,每个训练模型可以获得来自其他关联模型的信息和上下文。这种集成方法可以帮助提高对话模型的性能和鲁棒性。综上,通过构建目标问题分布图、计算问题向量、确定关联度、设置模型拓扑结构以及进行模型集成,服务器实现对多个目标问题类的第二训练模型的构建和优化,最终得到第一对话模型集合。这种方法能够利用问题类之间的关联关系和信息交流,提高对话模型的效果和多样性,从而更好地满足用户需求。
在一具体实施例中,执行步骤S106的过程可以具体包括如下步骤:
(1)接收目标用户输入的目标问题数据;
(2)将目标问题数据输入第一对话模型集合,并通过第一对话模型集合对目标问题数据进行问题分类和模型匹配,得到第一对话模型集合中的至少一个第二训练模型;
(3)通过至少一个第二训练模型对目标问题数据进行智能对话分析,得到目标对话数据;
(4)将目标对话数据反馈至目标用户,并获取目标用户的对话满意度。
具体的,服务器建立一个用户界面或应用程序,用于接收目标用户输入的问题数据。用户可以在界面上输入他们的问题,并提交给服务器进行处理。当服务器接收到用户的问题数据,它将把问题数据传递给第一对话模型集合。这个集合中包含多个训练模型,每个模型都有不同的问题分类和对话处理能力。服务器会使用这些模型对用户的问题进行分类和模型匹配,以确定最适合的第二训练模型。根据模型匹配的结果,服务器选择一个或多个第二训练模型,这些模型将用于对目标问题数据进行智能对话分析。服务器将用户的问题传递给选定的第二训练模型,并获取模型生成的回答或对话结果。这个过程可能涉及自然语言处理、语义理解和生成等技术,以确保服务器能够理解用户的问题并产生准确的回答。生成的目标对话数据将被服务器反馈给目标用户。这可以通过用户界面或应用程序来呈现,例如文本回复、语音播放或图形界面等形式。用户可以阅读、聆听或查看服务器生成的回答,并对其进行评估和反馈。为了获取目标用户的对话满意度,服务器会在用户界面上提供一个反馈机制,用户可以根据他们对服务器回答的满意程度给予反馈评价。这可以是一个简单的评分服务器,例如五星评级,或是一些描述性的反馈,例如满意、一般、不满意等等。收集到用户的对话满意度后,服务器根据这些反馈评估模型的性能,并进行相应的改进和优化。这可能涉及到模型参数调整、训练数据的更新或模型结构的改进等。通过以上流程,服务器能够实现接收目标用户输入的问题数据,并进行智能对话处理的功能。服务器将根据用户的问题选择适合的模型,生成回答并反馈给用户,然后获取用户的对话满意度以进一步改进服务器性能。用户可以获得满意的对话体验,并在与服务器的交互中获得有益的信息和帮助。
在一具体实施例中,执行步骤S107的过程可以具体包括如下步骤:
(1)判断对话满意度是否超过预设满意度阈值;
(2)若是,则将第一对话模型集合输出为第二对话模型集合;
(3)若否,则对第一对话模型集合进行模型间关联关系优化,生成第二对话模型集合。
具体的,服务器定义一个预设的满意度阈值,作为判断对话满意度的标准。这个阈值可以是一个数值,例如0-100的百分比,也可以是一些描述性的标签,例如"满意"、"一般"、"不满意"等。服务器会根据用户的反馈评价与该预设阈值进行比较。当服务器收集到用户的对话满意度反馈后,它会将该反馈与预设的满意度阈值进行比较。如果用户的满意度超过了预设阈值,服务器会认为对话是满意的,并将第一对话模型集合作为第二对话模型集合输出。例如,假设服务器的预设满意度阈值为80%。用户进行了一次对话,并给予了85%的满意度评价。服务器将判断用户的满意度超过了阈值,因此会直接将第一对话模型集合作为第二对话模型集合输出。然而,如果用户的对话满意度未达到预设阈值,服务器进行优化以提高对话质量。在这种情况下,服务器会对第一对话模型集合中的模型间关联关系进行优化。优化过程可以涉及多个方面,包括模型参数调整、训练数据的增加或优化、模型结构的改进等。服务器可能会通过调整模型的权重、增加特定领域的训练数据、改进语义理解或生成算法等方法来提高对话质量。优化过程可能需要进行多轮迭代和实验,以找到最佳的模型组合和参数配置。例如,假设用户进行了一次对话,并给予了60%的满意度评价。服务器判断用户的满意度未达到预设阈值,因此需要进行优化。服务器可能会分析用户的反馈和对话数据,发现一些问题,例如模型在某些领域的回答不准确或缺乏相关性。服务器可能会对这些问题进行改进,例如增加相关领域的训练数据,或是调整模型参数以提高对话的质量。通过以上优化过程,服务器逐渐提高对话质量,并在满意度达到预设阈值时将第一对话模型集合输出为第二对话模型集合。服务器确保提供高质量的智能对话服务,并不断优化和改进模型以满足用户的需求。
上面对本发明实施例中基于机器学习的智能对话方法进行了描述,下面对本发明实施例中基于机器学习的智能对话装置进行描述,请参阅图5,本发明实施例中基于机器学习的智能对话装置一个实施例包括:
获取模块501,用于创建企业用户的问题库并获取多个第一问题数据,以及对所述多个第一问题数据进行结构化转换,得到多个第二问题数据;
分类模块502,用于对所述多个第二问题数据进行实体识别及文本分类,得到多个目标问题类以及每个目标问题类对应的问题文本实体;
构建模块503,用于构建每个目标问题类的第一训练模型,并基于预置的智能客服学习资料库获取每个问题文本实体对应的对话文本实体;
训练模块504,用于基于所述问题文本实体和所述对话文本实体,对所述第一训练模型进行模型训练,得到多个第二训练模型;
集成模块505,用于对所述多个第二训练模型进行模型集成,得到第一对话模型集合;
对话模块506,用于接收目标用户输入的目标问题数据,并将所述目标问题数据输入所述第一对话模型集合进行智能对话,得到目标对话数据以及对话满意度;
调优模块507,用于基于所述对话满意度,对所述第一对话模型集合进行模型调优,生成第二对话模型集合。
通过上述各个组成部分的协同合作,对多个第二问题数据进行实体识别及文本分类,得到多个目标问题类以及每个目标问题类对应的问题文本实体;构建每个目标问题类的第一训练模型,并获取对话文本实体;基于问题文本实体和对话文本实体,对第一训练模型进行模型训练,得到多个第二训练模型;对多个第二训练模型进行模型集成,得到第一对话模型集合;将目标问题数据输入第一对话模型集合进行智能对话,得到目标对话数据以及对话满意度;基于对话满意度,对第一对话模型集合进行模型调优,生成第二对话模型集合,本发明中的机器学习模型可以根据客户的语言习惯和需求进行个性化的响应,提高客户满意度和服务质量,并且通过对对话模型进行集成的方式,使得对话模型针对每一类问题具有特异性识别功能,进而使得智能对话系统可以自动化地处理各种问题,通过增加数据、优化模型等方法,实现对话质量和范围的扩展,进而实现了企业用户的智能对话并提高了智能对话的准确率。
上面图5从模块化功能实体的角度对本发明实施例中的基于机器学习的智能对话装置进行详细描述,下面从硬件处理的角度对本发明实施例中基于机器学习的智能对话设备进行详细描述。
图6是本发明实施例提供的一种基于机器学习的智能对话设备的结构示意图,该基于机器学习的智能对话设备600可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(central processing units,CPU)610(例如,一个或一个以上处理器)和存储器620,一个或一个以上存储应用程序633或数据632的存储介质630(例如一个或一个以上海量存储设备)。其中,存储器620和存储介质630可以是短暂存储或持久存储。存储在存储介质630的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对基于机器学习的智能对话设备600中的一系列指令操作。更进一步地,处理器610可以设置为与存储介质630通信,在基于机器学习的智能对话设备600上执行存储介质630中的一系列指令操作。
基于机器学习的智能对话设备600还可以包括一个或一个以上电源640,一个或一个以上有线或无线网络接口650,一个或一个以上输入输出接口660,和/或,一个或一个以上操作系统631,例如Windows Serve,MacOS X,Unix,Linux,FreeBSD等等。本领域技术人员可以理解,图6示出的基于机器学习的智能对话设备结构并不构成对基于机器学习的智能对话设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
本发明还提供一种基于机器学习的智能对话设备,所述基于机器学习的智能对话设备包括存储器和处理器,存储器中存储有计算机可读指令,计算机可读指令被处理器执行时,使得处理器执行上述各实施例中的所述基于机器学习的智能对话方法的步骤。
本发明还提供一种计算机可读存储介质,该计算机可读存储介质可以为非易失性计算机可读存储介质,该计算机可读存储介质也可以为易失性计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在计算机上运行时,使得计算机执行所述基于机器学习的智能对话方法的步骤。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(randomacceS memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (8)

1.一种基于机器学习的智能对话方法,其特征在于,所述基于机器学习的智能对话方法包括:
创建企业用户的问题库并获取多个第一问题数据,以及对所述多个第一问题数据进行结构化转换,得到多个第二问题数据;
对所述多个第二问题数据进行实体识别及文本分类,得到多个目标问题类以及每个目标问题类对应的问题文本实体;
构建每个目标问题类的第一训练模型,并基于预置的智能客服学习资料库获取每个问题文本实体对应的对话文本实体,具体包括:获取每个目标问题类的问题属性特征,并对所述问题属性特征进行特征编码,得到第一特征编码集合;获取多个候选训练模型以及每个候选训练模型的模型属性特征,并对所述模型属性特征进行特征编码,得到第二特征编码集合;对所述第一特征编码集合和所述第二特征编码集合进行编码特征映射匹配,得到每个目标问题类与每个候选训练模型之间的匹配度;对所述匹配度进行比较,并将匹配度最大的候选训练模型作为每个目标问题类的第一训练模型;基于预置的智能客服学习资料库构建问题文本实体与对话文本实体之间的映射关系;根据所述映射关系,获取每个问题文本实体对应的对话文本实体;
基于所述问题文本实体和所述对话文本实体,对所述第一训练模型进行模型训练,得到多个第二训练模型;
对所述多个第二训练模型进行模型集成,得到第一对话模型集合,具体包括:构建所述多个目标问题类的目标问题分布图,并获取所述目标问题分布图中每两个目标问题类的问题向量;根据每两个目标问题类的问题向量,确定所述多个第二训练模型之间的关联度;根据所述关联度,设置所述多个第二训练模型的模型拓扑结构;根据所述模型拓扑结构,对所述多个第二训练模型进行模型集成,得到第一对话模型集合;
接收目标用户输入的目标问题数据,并将所述目标问题数据输入所述第一对话模型集合进行智能对话,得到目标对话数据以及对话满意度;
基于所述对话满意度,对所述第一对话模型集合进行模型调优,生成第二对话模型集合。
2.根据权利要求1所述的基于机器学习的智能对话方法,其特征在于,所述对所述多个第二问题数据进行实体识别及文本分类,得到多个目标问题类以及每个目标问题类对应的问题文本实体,包括:
分别对所述多个第二问题数据进行文本实体识别,得到每个第二问题数据对应的第一文本实体;
对所述第一文本实体进行实体筛选,得到每个第二问题数据对应的第二文本实体;
对所述第二文本实体进行文本聚类,确定每个第二文本实体对应的聚类中心,并根据所述聚类中心构建聚类中心关系图;
对所述聚类中心进行距离计算,得到每两个聚类中心之间的距离数据,并根据每两个聚类中心之间的距离数据和所述聚类中心关系图生成聚类中心有向网络结构图;
对所述聚类中心有向网络结构图进行结构图节点提取,得到多个结构图节点,并对所述多个结构图节点进行主从关系分析,得到目标主从关系;
根据所述目标主从关系确定多个主节点以及每个主节点对应的多个从属节点,并将所述主节点以及对应的多个从属节点作为一个问题类,得到多个目标问题类;
获取每个目标问题类对应的多个第二文本实体,并将所述多个第二文本实体输出为每个目标问题类对应的问题文本实体。
3.根据权利要求1所述的基于机器学习的智能对话方法,其特征在于,所述基于所述问题文本实体和所述对话文本实体,对所述第一训练模型进行模型训练,得到多个第二训练模型,包括:
将所述问题文本实体输入所述第一训练模型进行对话实体预测,得到对话实体预测结果;
对所述对话实体预测结果和所述对话文本实体进行差异度计算,得到第一差异度;
根据所述第一差异度,对所述第一训练模型进行模型参数优化,得到优化后的第一训练模型;
将所述问题文本实体输入所述优化后的第一训练模型进行训练模型验证,并计算第二差异度;
当所述第二差异度小于预设目标值时,将所述优化后的第一训练模型输出为第二训练模型,得到多个第二训练模型。
4.根据权利要求1所述的基于机器学习的智能对话方法,其特征在于,所述接收目标用户输入的目标问题数据,并将所述目标问题数据输入所述第一对话模型集合进行智能对话,得到目标对话数据以及对话满意度,包括:
接收目标用户输入的目标问题数据;
将所述目标问题数据输入所述第一对话模型集合,并通过所述第一对话模型集合对所述目标问题数据进行问题分类和模型匹配,得到所述第一对话模型集合中的至少一个第二训练模型;
通过所述至少一个第二训练模型对所述目标问题数据进行智能对话分析,得到目标对话数据;
将所述目标对话数据反馈至所述目标用户,并获取所述目标用户的对话满意度。
5.根据权利要求1所述的基于机器学习的智能对话方法,其特征在于,所述基于所述对话满意度,对所述第一对话模型集合进行模型调优,生成第二对话模型集合,包括:
判断所述对话满意度是否超过预设满意度阈值;
若是,则将所述第一对话模型集合输出为第二对话模型集合;
若否,则对所述第一对话模型集合进行模型间关联关系优化,生成第二对话模型集合。
6.一种基于机器学习的智能对话装置,其特征在于,所述基于机器学习的智能对话装置包括:
获取模块,用于创建企业用户的问题库并获取多个第一问题数据,以及对所述多个第一问题数据进行结构化转换,得到多个第二问题数据;
分类模块,用于对所述多个第二问题数据进行实体识别及文本分类,得到多个目标问题类以及每个目标问题类对应的问题文本实体;
构建模块,用于构建每个目标问题类的第一训练模型,并基于预置的智能客服学习资料库获取每个问题文本实体对应的对话文本实体,具体包括:获取每个目标问题类的问题属性特征,并对所述问题属性特征进行特征编码,得到第一特征编码集合;获取多个候选训练模型以及每个候选训练模型的模型属性特征,并对所述模型属性特征进行特征编码,得到第二特征编码集合;对所述第一特征编码集合和所述第二特征编码集合进行编码特征映射匹配,得到每个目标问题类与每个候选训练模型之间的匹配度;对所述匹配度进行比较,并将匹配度最大的候选训练模型作为每个目标问题类的第一训练模型;基于预置的智能客服学习资料库构建问题文本实体与对话文本实体之间的映射关系;根据所述映射关系,获取每个问题文本实体对应的对话文本实体;
训练模块,用于基于所述问题文本实体和所述对话文本实体,对所述第一训练模型进行模型训练,得到多个第二训练模型;
集成模块,用于对所述多个第二训练模型进行模型集成,得到第一对话模型集合,具体包括:构建所述多个目标问题类的目标问题分布图,并获取所述目标问题分布图中每两个目标问题类的问题向量;根据每两个目标问题类的问题向量,确定所述多个第二训练模型之间的关联度;根据所述关联度,设置所述多个第二训练模型的模型拓扑结构;根据所述模型拓扑结构,对所述多个第二训练模型进行模型集成,得到第一对话模型集合;
对话模块,用于接收目标用户输入的目标问题数据,并将所述目标问题数据输入所述第一对话模型集合进行智能对话,得到目标对话数据以及对话满意度;
调优模块,用于基于所述对话满意度,对所述第一对话模型集合进行模型调优,生成第二对话模型集合。
7.一种基于机器学习的智能对话设备,其特征在于,所述基于机器学习的智能对话设备包括:存储器和至少一个处理器,所述存储器中存储有指令;
所述至少一个处理器调用所述存储器中的所述指令,以使得所述基于机器学习的智能对话设备执行如权利要求1-5中任一项所述的基于机器学习的智能对话方法。
8.一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,其特征在于,所述指令被处理器执行时实现如权利要求1-5中任一项所述的基于机器学习的智能对话方法。
CN202310820338.0A 2023-07-06 2023-07-06 基于机器学习的智能对话方法、装置、设备及存储介质 Active CN116541506B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310820338.0A CN116541506B (zh) 2023-07-06 2023-07-06 基于机器学习的智能对话方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310820338.0A CN116541506B (zh) 2023-07-06 2023-07-06 基于机器学习的智能对话方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN116541506A CN116541506A (zh) 2023-08-04
CN116541506B true CN116541506B (zh) 2023-09-15

Family

ID=87445704

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310820338.0A Active CN116541506B (zh) 2023-07-06 2023-07-06 基于机器学习的智能对话方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN116541506B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111324727A (zh) * 2020-02-19 2020-06-23 百度在线网络技术(北京)有限公司 用户意图识别方法、装置、设备和可读存储介质
CN111581375A (zh) * 2020-04-01 2020-08-25 车智互联(北京)科技有限公司 对话意图类型识别方法、多轮对话方法、装置及计算设备
CN112163079A (zh) * 2020-09-30 2021-01-01 民生科技有限责任公司 一种基于阅读理解模型的智能对话方法及系统
CN112287084A (zh) * 2020-10-30 2021-01-29 国网江苏省电力有限公司营销服务中心 一种基于集成学习的问答方法及系统
WO2022105115A1 (zh) * 2020-11-17 2022-05-27 平安科技(深圳)有限公司 问答对匹配方法、装置、电子设备及存储介质
EP4060517A1 (en) * 2021-03-18 2022-09-21 HCL Technologies Limited System and method for designing artificial intelligence (ai) based hierarchical multi-conversation system
CN115292457A (zh) * 2022-06-30 2022-11-04 腾讯科技(深圳)有限公司 知识问答方法、装置、计算机可读介质及电子设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108319599B (zh) * 2017-01-17 2021-02-26 华为技术有限公司 一种人机对话的方法和装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111324727A (zh) * 2020-02-19 2020-06-23 百度在线网络技术(北京)有限公司 用户意图识别方法、装置、设备和可读存储介质
CN111581375A (zh) * 2020-04-01 2020-08-25 车智互联(北京)科技有限公司 对话意图类型识别方法、多轮对话方法、装置及计算设备
CN112163079A (zh) * 2020-09-30 2021-01-01 民生科技有限责任公司 一种基于阅读理解模型的智能对话方法及系统
CN112287084A (zh) * 2020-10-30 2021-01-29 国网江苏省电力有限公司营销服务中心 一种基于集成学习的问答方法及系统
WO2022105115A1 (zh) * 2020-11-17 2022-05-27 平安科技(深圳)有限公司 问答对匹配方法、装置、电子设备及存储介质
EP4060517A1 (en) * 2021-03-18 2022-09-21 HCL Technologies Limited System and method for designing artificial intelligence (ai) based hierarchical multi-conversation system
CN115292457A (zh) * 2022-06-30 2022-11-04 腾讯科技(深圳)有限公司 知识问答方法、装置、计算机可读介质及电子设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
GRS:一种面向电商领域智能客服的生成-检索式对话模型;郭晓哲;彭敦陆;张亚彤;彭学桂;;华东师范大学学报(自然科学版)(05);第165-175页 *
任务型对话系统研究综述;赵阳洋;王振宇;王佩;杨添;张睿;尹凯;;计算机学报(10);第74-108页 *

Also Published As

Publication number Publication date
CN116541506A (zh) 2023-08-04

Similar Documents

Publication Publication Date Title
CN109800306B (zh) 意图分析方法、装置、显示终端及计算机可读存储介质
CN110175227B (zh) 一种基于组队学习和层级推理的对话辅助系统
CN111026842B (zh) 自然语言处理方法、自然语言处理装置及智能问答系统
Ilkou et al. Symbolic vs sub-symbolic ai methods: Friends or enemies?
Idri et al. Fuzzy analogy: A new approach for software cost estimation
US8719192B2 (en) Transfer of learning for query classification
CN101901230A (zh) 信息检索方法和用户评论处理方法及其系统
CN113312468B (zh) 基于对话模式的话术推荐方法、装置、设备及介质
CN115098650B (zh) 基于历史数据模型的评论信息分析方法及相关装置
CN112115242A (zh) 一种基于朴素贝叶斯分类算法的智能客服问答系统
CN114491263A (zh) 推荐模型训练方法及装置、推荐方法及装置
CN111125316A (zh) 一种融合多损失函数及注意力机制的知识库问答方法
JP6824795B2 (ja) 修正装置、修正方法および修正プログラム
CN115170027A (zh) 数据分析方法、装置、设备及存储介质
Somogyi The Application of Artificial Intelligence
Tian et al. User intention recognition and requirement elicitation method for conversational ai services
CN117235264A (zh) 文本处理方法、装置、设备和计算机可读存储介质
CN116541506B (zh) 基于机器学习的智能对话方法、装置、设备及存储介质
CN112749530B (zh) 文本编码方法、装置、设备及计算机可读存储介质
CN114820074A (zh) 基于机器学习的目标用户群体预测模型构建方法
CN114969375A (zh) 一种基于心理学知识赋予机器人工智能学习的方法及系统
CN114282875A (zh) 流程审批确定性规则和语义自学习结合判定方法及装置
CN113571198A (zh) 转化率预测方法、装置、设备及存储介质
Shanthi et al. A satin optimized dynamic learning model (SODLM) for sentiment analysis using opinion mining
CN116991982B (zh) 基于人工智能的交互式对话方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant