CN117093697B - 实时自适应对话方法、装置、设备及存储介质 - Google Patents

实时自适应对话方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN117093697B
CN117093697B CN202311345788.5A CN202311345788A CN117093697B CN 117093697 B CN117093697 B CN 117093697B CN 202311345788 A CN202311345788 A CN 202311345788A CN 117093697 B CN117093697 B CN 117093697B
Authority
CN
China
Prior art keywords
dialogue
response
topic
node
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311345788.5A
Other languages
English (en)
Other versions
CN117093697A (zh
Inventor
罗雄兰
吴远辉
吴远新
吴天圣
吴蕊圣
吴思圣
吴心圣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen City Branch Cloud Technology Development Co ltd
Original Assignee
Shenzhen City Branch Cloud Technology Development Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen City Branch Cloud Technology Development Co ltd filed Critical Shenzhen City Branch Cloud Technology Development Co ltd
Priority to CN202311345788.5A priority Critical patent/CN117093697B/zh
Publication of CN117093697A publication Critical patent/CN117093697A/zh
Application granted granted Critical
Publication of CN117093697B publication Critical patent/CN117093697B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及人工智能技术领域,公开了一种实时自适应对话方法、装置、设备及存储介质。所述实时自适应对话方法包括:获取用户输入的对话语句;通过训练后的话题分析模型对所述对话语句进行话题拆分,得到多个主题不同的话题语句,并从所述多个主题不同的话题语句中提取出目标话题;将所述目标话题发送至智能对话联网平台的智能对话协调中心,并通过所述智能对话协调中心分发至各个子节点中心;本发明为实现快速、准确、动态的智能对话响应提供了强有力的支持,同时还具有高度的灵活性和可扩展性。

Description

实时自适应对话方法、装置、设备及存储介质
技术领域
本发明涉及人工智能技术领域,尤其涉及一种实时自适应对话方法、装置、设备及存储介质。
背景技术
当今时代,智能对话系统是人工智能领域的一个热门话题。它们被广泛应用于各种场景,如客服支持、智能助理、在线购物等。
传统的智能对话系统通常基于单一的对话模型,该模型需要处理大量的对话语句,并生成相应的回复。然而,这样的系统往往存在一些问题。首先,单一模型可能无法很好地处理复杂多样的话题,导致回复的质量不一。其次,由于需要处理大量的数据,系统的响应速度可能会较慢。最后,单一模型的自适应能力较弱,可能无法及时适应用户需求的变化。
因此,如何实现针对每个话题生成更加准确和相关的回复是有待解决的问题。
发明内容
本发明提供了一种实时自适应对话方法、装置、设备及存储介质,用于解决如何实现针对每个话题自适应的生成准确和相关的回复的技术问题。
本发明第一方面提供了一种实时自适应对话方法,所述实时自适应对话方法包括:
获取用户输入的对话语句;
通过训练后的话题分析模型对所述对话语句进行话题拆分,得到多个主题不同的话题语句,并从所述多个主题不同的话题语句中提取出目标话题;其中,所述话题分析模型经过提前训练得到;
将所述目标话题发送至智能对话联网平台的智能对话协调中心,并通过所述智能对话协调中心分发至各个子节点中心;其中,所述智能对话联网平台包括智能对话协调中心以及多个子节点中心,各个所述子节点中心上部署有对话模型,所述子节点中心包括第一参与节点以及第二参与节点;
基于各个所述子节点中心部署的对话模型计算所述目标话题的对话参数,并根据所述对话参数生成对应的响应值;
通过所述智能对话协调中心从各个子节点中心中获取所述响应值,并对所述响应值进行聚合处理,得到响应聚合值;
通过所述第一参与节点获取所述响应聚合值,并基于所述响应聚合值训练对应的对话模型,得到第一参与节点上的对话模型的中间参数;
所述第一参与节点通过所述中间参数优化所述第一参与节点上的对话模型,并根据优化后的对话模型针对目标话题生成第一响应建议;
所述第二参与节点通过接收所述第一参与节点发送的所述中间参数优化所述第二参与节点上的对话模型,并根据优化后的对话模型针对目标话题生成第二响应建议;
所述智能对话协调中心获取所述第一响应建议和所述第二响应建议,并根据第一响应建议和第二响应建议生成最终的对话回复响应建议。
可选的,在本发明第一方面的第一种实现方式中,所述生成最终的对话回复响应建议之后,包括:
创建一个主枢纽作为空节点,并在所述主枢纽上建立一个节点仓库;其中所述节点仓库用于存储和管理整个主枢纽的各个节点;
将最终的对话回复响应建议进行分组,并通过预设的散列函数将分组后的所述最终的对话回复响应建议生成对应的摘要,将生成的摘要作为叶子节点的标识输入节点仓库;
基于预设的编码模型对所述摘要进行编码处理,得到摘要字符,并将所述摘要字符的首字母保存在每个叶节点中;将每个叶节点连接到叶子节点内部;
从预设的数据库中选择一个加密散列函数,对叶子节点的标识应用加密散列函数进行加密,得到第一加密信息,对叶子节点内部的摘要字符的首字母进行连接并应用加密散列函数进行加密,得到第二加密信息;
分发第一加密信息以及第二加密信息至主枢纽中的其他叶节点,各个其它叶节点根据加密后的第一加密信息以及第二加密信息还原出相同的最终的对话回复响应建议。
可选的,在本发明第一方面的第二种实现方式中,所述话题分析模型的训练过程,包括:
获取与话题语句相关的文本数据和用户互动数据,并对话题语句相关的文本数据和用户互动数据分别进行预处理和转换处理,得到第一数据和第二数据;
通过预设的非线性转化算法分别从第一数据和第二数据中挖掘核心属性,得到话题属性集合和用户属性集合;
将话题属性集合和用户属性集合进行组合,形成初始训练属性组;其中,所述初始训练属性组用于构建话题分析模型的训练数据;
建立话题分析模型,将初始训练属性组输入话题分析模型的多层神经网络进行训练,得到话题分析组合向量;
结合与话题语句相关的上下文信息,将话题分析组合向量与用户的个人信息集合通过预设的组合算法进行合并,得到综合话题属性组;将综合话题属性组输入所述话题分析模型中的池化层进行训练,得到最终的话题分析组合向量;
将所述最终的话题分析组合向量输入至所述话题分析模型的分类层进行训练;依次迭代优化所述话题分析模型中的模型参数,直至激活函数层收敛,完成模型训练,得到训练后的话题分析模型。
可选的,在本发明第一方面的第三种实现方式中,所述响应聚合值的计算公式为:
所述响应聚合值的计算公式为:
其中,为响应聚合值;/>为对各子节点中心上的响应值的内积结果;为各子节点中心上的响应值;/>为随机噪声,是根据所述对话参数生成对应的响应值时生成的随机噪声;/>为权重系数,用于调节整个公式的权重/>为影响随机噪声的系数;/>为另一个与/>相关的向量;/>为用于调节随机噪声总和的权重系数;/>为与响应聚合值计算相关的因子;/>为目标话题上下文相关的变量;
所述得到第一参与节点上的对话模型的中间参数的计算公式为:
其中,为中间参数;/>为响应聚合值;/>为各子节点中心上的响应值;/>为调节/>的权重系数;/>为与/>相关的权重;/>为与/>相关的因子;/>为与引入的/>相关的权重;/>为与/>和/>相关的另一个因子;/>为与/>相关的权重;/>为与/>和/>相关的另一个因子;/>为与/>和/>相关的权重;/>为另一个与响应聚合值计算有关的权重;/>为时间因子。
可选的,在本发明第一方面的第五种实现方式中,所述从所述多个主题不同的话题语句中提取出目标话题,包括:
利用训练后的话题分析模型,对输入的对话语句进行主题概率评估,确定所述对话语句与预定义话题的关联程度;
根据每个话题的关联程度和预设的首要阈值,筛选出所述对话语句涉及的一个或多个话题;其中,所述涉及的每一个话题的关联程度均大于所述首要阈值;
获取所有话题的关联程度中的最大关联程度值,并判断所述最大关联程度值是否低于预设的次要阈值;其中,所述次要阈值大于首要阈值;
当所述最大关联程度值大于或等于次要阈值时,标记与所述最大关联程度值对应的话题为目标话题。
本发明第二方面提供了一种实时自适应对话装置,所述实时自适应对话装置包括:
获取模块,用于获取用户输入的对话语句;
拆分模块,用于通过训练后的话题分析模型对所述对话语句进行话题拆分,得到多个主题不同的话题语句,并从所述多个主题不同的话题语句中提取出目标话题;其中,所述话题分析模型经过提前训练得到;
分发模块,用于将所述目标话题发送至智能对话联网平台的智能对话协调中心,并通过所述智能对话协调中心分发至各个子节点中心;其中,所述智能对话联网平台包括智能对话协调中心以及多个子节点中心,各个所述子节点中心上部署有对话模型,所述子节点中心包括第一参与节点以及第二参与节点;
计算模块,用于基于各个所述子节点中心部署的对话模型计算所述目标话题的对话参数,并根据所述对话参数生成对应的响应值;
聚合处理模块,用于通过所述智能对话协调中心从各个子节点中心中获取所述响应值,并对所述响应值进行聚合处理,得到响应聚合值;
训练模块,用于通过所述第一参与节点获取所述响应聚合值,并基于所述响应聚合值训练对应的对话模型,得到第一参与节点上的对话模型的中间参数;
第一生成模块,用于所述第一参与节点通过所述中间参数优化所述第一参与节点上的对话模型,并根据优化后的对话模型针对目标话题生成第一响应建议;
第二生成模块,用于所述第二参与节点通过接收所述第一参与节点发送的所述中间参数优化所述第二参与节点上的对话模型,并根据优化后的对话模型针对目标话题生成第二响应建议;
第三生成模块,用于所述智能对话协调中心获取所述第一响应建议和所述第二响应建议,并根据第一响应建议和第二响应建议生成最终的对话回复响应建议。
本发明第三方面提供了一种实时自适应对话设备,包括:存储器和至少一个处理器,所述存储器中存储有指令;所述至少一个处理器调用所述存储器中的所述指令,以使得所述实时自适应对话设备执行上述的实时自适应对话方法。
本发明的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述的实时自适应对话方法。
本发明提供的技术方案中,有益效果:本发明提供一种实时自适应对话方法、装置、设备及存储介质,通过获取用户输入的对话语句;并通过训练后的话题分析模型对所述对话语句进行话题拆分,得到多个主题不同的话题语句,并从所述多个主题不同的话题语句中提取出目标话题;将所述目标话题发送至智能对话联网平台的智能对话协调中心,并通过所述智能对话协调中心分发至各个子节点中心;基于各个所述子节点中心部署的对话模型计算所述目标话题的对话参数,并根据所述对话参数生成对应的响应值;通过所述智能对话协调中心从各个子节点中心中获取所述响应值,并对所述响应值进行聚合处理,得到响应聚合值;通过所述第一参与节点获取所述响应聚合值,并基于所述响应聚合值训练对应的对话模型,得到第一参与节点上的对话模型的中间参数;所述第一参与节点通过所述中间参数优化所述第一参与节点上的对话模型,并根据优化后的对话模型针对目标话题生成第一响应建议;所述第二参与节点通过接收所述第一参与节点发送的所述中间参数优化所述第二参与节点上的对话模型,并根据优化后的对话模型针对目标话题生成第二响应建议;所述智能对话协调中心获取所述第一响应建议和所述第二响应建议,并根据第一响应建议和第二响应建议生成最终的对话回复响应建议。本发明通过将目标话题发送至多个子节点中心进行处理,能够并行计算和生成响应,从而加快响应时间;通过话题拆分能够针对不同的话题进行专门处理,确保更高的准确性和相关性。第一参与节点和第二参与节点都能够通过接收中间参数来优化其对话模型,能够在实时或近实时基础上不断学习和优化,提高响应的准确性。通过智能对话协调中心的聚合处理,系统可以从各个子节点中心中获取多个响应值,然后选取或组合最佳的响应,确保输出的质量。本发明为实现快速、准确、动态的智能对话响应提供了强有力的支持,同时还具有高度的灵活性和可扩展性。
附图说明
图1为本发明实施例中实时自适应对话方法的一个实施例示意图;
图2为本发明实施例中实时自适应对话装置的一个实施例示意图。
具体实施方式
本发明实施例提供了一种实时自适应对话方法、装置、设备及存储介质。本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”或“具有”及其任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为便于理解,下面对本发明实施例的具体流程进行描述,请参阅图1,本发明实施例中实时自适应对话方法的一个实施例包括:
步骤101、获取用户输入的对话语句;
可以理解的是,本发明的执行主体可以为实时自适应对话装置,还可以是终端或者服务器,具体此处不做限定。本发明实施例以服务器为执行主体为例进行说明。
具体的,本发明实施例中的对话语句可以是语音对话或文本对话,并且可以包括多轮对话。通过多种方式获取用户在本次对话中的输入信息。例如,对于语音对话,使用语音识别技术或语音转文本 API 来将用户发送的语音输入转换为文本形式。举个例子,使用Google Cloud Speech-to-Text API或利用自然语言处理库,如Speech Recognition库,在Python中实现语音转文本功能。对于文本对话,通过终端应用程序或网页上的文本框等方式直接接收用户终端发送的文本输入信息。使用编程语言中的输入函数或API来实现,举个例子,在Python中,使用input()函数获取用户输入信息,或者,在网页中使用HTML表单元素获取用户输入信息。
除了直接获取用户输入,还在其他电子设备上接收用户终端发送的用户输入信息。在这种情况下,通过与其他设备进行通信,如通过网络传输或传感器接口,来获取用户输入信息。
步骤102、通过训练后的话题分析模型对所述对话语句进行话题拆分,得到多个主题不同的话题语句,并从所述多个主题不同的话题语句中提取出目标话题;其中,所述话题分析模型经过提前训练得到;
具体的,以下是本发明实施例的实现方式的概述:
准备数据:首先,获取一组对话语句的训练数据;训练数据包含具有不同主题的对话语句,并且每个对话语句都应有其所属的目标话题进行标注。
训练话题分析模型:使用准备好的训练数据,基于规则的方法、传统机器学习方法(如朴素贝叶斯)或深度学习方法(如循环神经网络或Transformer模型)训练一个话题分析模型。
话题拆分和目标话题提取:通过经过训练的话题分析模型对对话语句进行话题拆分和目标话题提取。对于每个输入的对话语句,模型会输出多个主题不同的话题语句,并且从话题语句中提取出包含目标话题的文本片段。
步骤103、将所述目标话题发送至智能对话联网平台的智能对话协调中心,并通过所述智能对话协调中心分发至各个子节点中心;其中,所述智能对话联网平台包括智能对话协调中心以及多个子节点中心,各个所述子节点中心上部署有对话模型,所述子节点中心包括第一参与节点以及第二参与节点;
具体的,以下是本发明实施例的实现方式的概述:
配置智能对话联网平台:首先,设置智能对话联网平台,包括智能对话协调中心和多个子节点中心。在每个子节点中心上都部署对话模型。
准备目标话题数据:收集或生成包含目标话题的数据。目标话题的数据包括对话语句、对话主题或其他相关信息。
连接智能对话协调中心:通过预设的通信协议,将您的系统与智能对话协调中心进行连接。预设的通信协议包括HTTP、Web Socket或其他适用的协议。
发送目标话题至智能对话协调中心:将提取到的目标话题发送至智能对话协调中心。通过发送JSON或其他格式的消息来实现。
智能对话协调中心分发至子节点中心:智能对话协调中心会接收到目标话题后,根据预设的逻辑和规则将目标话题分发至子节点中心。
子节点中心处理目标话题:每个子节点中心上的对话模型会接收到分发的目标话题,并进行处理。
步骤104、基于各个所述子节点中心部署的对话模型计算所述目标话题的对话参数,并根据所述对话参数生成对应的响应值;
具体的,以下是本发明实施例的实现方式的概述:
获取目标话题:在智能对话协调中心将目标话题分发到适当的子节点中心之后,子节点中心会接收到目标话题。
加载对话模型:确保每个子节点中心上部署有对话模型,并在相应的子节点中心上加载模型权重和配置。通过预置的深度学习框架(如Tensorflow、PyTorch等)提供的加载模型功能或自定义的方法进行。
计算对话参数:使用目标话题和当前对话历史数据作为输入,调用加载的对话模型来计算对话参数。例如,对于基于Transformer的对话模型,将目标话题和历史对话转换为适当的输入表示形式并传递给模型。
生成响应值:根据计算得到的对话参数,对话模型会生成相应的响应值。响应值包括文本形式的回答、建议或其他形式的输出。
返回响应值:将生成的响应值发送回智能对话协调中心,用于进行下一步的处理或将响应值返回给用户。
步骤105、通过所述智能对话协调中心从各个子节点中心中获取所述响应值,并对所述响应值进行聚合处理,得到响应聚合值;
具体的,以下是本发明实施例的实现方式的概述:
从子节点中心获取响应值:智能对话协调中心发送请求至各个子节点中心,获取各自生成的响应值。
聚合处理响应值:对从各个子节点中心获取到的响应值进行聚合处理。
生成响应聚合值:根据聚合处理后的响应值,生成响应聚合值。
步骤106、通过所述第一参与节点获取所述响应聚合值,并基于所述响应聚合值训练对应的对话模型,得到第一参与节点上的对话模型的中间参数;
具体的,以下是本发明实施例的实现方式的概述:
获取响应聚合值:从智能对话协调中心获取响应聚合值,确保第一参与节点能够处理和存储响应聚合值。
准备训练数据:使用响应聚合值和相关的对话历史数据准备训练所需的数据。将响应聚合值作为目标值,并将对话历史数据作为输入,形成训练样本。
配置和训练对话模型:使用准备好的训练数据,配置对话模型并进行训练。
提取对话模型的中间参数:在训练过程中,提取对话模型的中间参数。中间参数包括神经网络层的权重、隐藏状态或其他与对话模型相关的参数。
步骤107、所述第一参与节点通过所述中间参数优化所述第一参与节点上的对话模型,并根据优化后的对话模型针对目标话题生成第一响应建议;
具体的,以下是本发明实施例的实现方式的概述:
加载对话模型和中间参数:在第一参与节点上加载原始的对话模型,并将之前训练得到的中间参数应用于对话模型。
定义优化算法:基于随机梯度下降(SGD)、自适应优化算法(如Adam)或其他算法调整超参数和学习率。
准备训练数据:选择用于优化模型的训练数据。训练数据包含目标话题和对应响应建议的对话历史数据。
定义损失函数:定义包括交叉熵损失、均方误差。确保损失函数能够量化模型生成的响应建议和实际目标之间的差异。
训练优化模型:使用准备好的训练数据、损失函数和优化算法来训练优化模型。根据训练数据的样本量和模型复杂度,适当调整训练的迭代次数和批次大小。
生成第一响应建议:在优化后的对话模型上使用目标话题作为输入,生成第一响应建议。
步骤108、所述第二参与节点通过接收所述第一参与节点发送的所述中间参数优化所述第二参与节点上的对话模型,并根据优化后的对话模型针对目标话题生成第二响应建议;
具体的,以下是本发明实施例的实现方式的概述:
连接第一参与节点和第二参与节点:确保第一参与节点和第二参与节点能够进行通信,并具备相应的消息传递功能。通过网络连接、消息队列或其他适当的通信方式实现。
接收中间参数:第二参与节点从第一参与节点接收中间参数。确保第二参与节点能够接收和解析来自第一参与节点的中间参数,并存储起来以供后续使用。
加载对话模型和中间参数:在第二参与节点上加载对话模型,并将接收到的中间参数应用于模型。
优化对话模型:使用加载的模型和中间参数,根据目标话题和相关的训练数据来优化对话模型。可以采用类似的训练步骤,如定义优化算法、准备训练数据、定义损失函数等。
生成第二响应建议:在优化后的对话模型上使用目标话题作为输入,生成第二响应建议。
步骤109、所述智能对话协调中心获取所述第一响应建议和所述第二响应建议,并根据第一响应建议和第二响应建议生成最终的对话回复响应建议。
具体的,以下是本发明实施例的实现方式的概述:
连接智能对话协调中心、第一参与节点和第二参与节点:通过网络连接、消息队列确保智能对话协调中心能够与第一参与节点和第二参与节点进行通信,并具备收发消息的功能。
获取第一响应建议和第二响应建议:智能对话协调中心从第一参与节点和第二参与节点获取对应的响应建议。
生成最终的对话回复响应建议:根据第一响应建议和第二响应建议,智能对话协调中心生成最终的对话回复响应建议。
返回对话回复响应建议:智能对话协调中心将最终的对话回复响应建议返回给相应的请求方。
本发明实施例中实时自适应对话方法的另一个实施例包括:
所述生成最终的对话回复响应建议之后,包括:
创建一个主枢纽作为空节点,并在所述主枢纽上建立一个节点仓库;其中所述节点仓库用于存储和管理整个主枢纽的各个节点;
将最终的对话回复响应建议进行分组,并通过预设的散列函数将分组后的所述最终的对话回复响应建议生成对应的摘要,将生成的摘要作为叶子节点的标识输入节点仓库;
基于预设的编码模型对所述摘要进行编码处理,得到摘要字符,并将所述摘要字符的首字母保存在每个叶节点中;将每个叶节点连接到叶子节点内部;
从预设的数据库中选择一个加密散列函数,对叶子节点的标识应用加密散列函数进行加密,得到第一加密信息,对叶子节点内部的摘要字符的首字母进行连接并应用加密散列函数进行加密,得到第二加密信息;
分发第一加密信息以及第二加密信息至主枢纽中的其他叶节点,各个其它叶节点根据加密后的第一加密信息以及第二加密信息还原出相同的最终的对话回复响应建议。
具体的,本发明实施例的具体实现方式包括以下步骤:
创建主枢纽: 建立一个主枢纽的空节点。
建立节点仓库: 在主枢纽上创建节点仓库,用于管理和存储整个主枢纽的所有节点。
对话回复分组与散列: a. 将最终的对话回复响应建议按预定的规则分组。例如,根据话题或关键词进行分组。 b. 使用预设的散列函数对每组回复进行散列,生成对应的摘要。 c. 将摘要作为叶子节点的标识,并存入节点仓库。
摘要编码: a. 使用预设的编码模型,如Base64编码,对摘要进行编码处理,得到摘要字符。 b. 保存摘要字符的首字母在叶节点中。例如,如果摘要字符是“ABCD”,则“A”将保存在叶节点中。 c. 确保每个叶节点与叶子节点内部正确连接。
选择加密散列函数: 从预定的数据库中选择一个加密散列函数,例如SHA-256。
应用加密散列: a. 对叶子节点的标识使用加密散列函数,得到第一加密信息。b. 将叶子节点内部的摘要字符首字母连接,再对其应用加密散列函数,生成第二加密信息。
分发加密信息: a. 将第一和第二加密信息发送至主枢纽的其他叶节点。 b. 其他叶节点利用接收到的加密信息反向操作,还原出相同的最终对话回复响应建议。例如,如果一个叶节点接收到的第二加密信息是基于“ABCD”的“A”,它将能够使用该信息反向推导出原始的对话回复。
本发明实施例中,有益效果:本发明实施例确保在分布式系统中,每个节点都可以访问和还原最终的对话回复,而无需存储整个回复内容。
本发明实施例中实时自适应对话方法的另一个实施例包括:
所述话题分析模型的训练过程,包括:
获取与话题语句相关的文本数据和用户互动数据,并对话题语句相关的文本数据和用户互动数据分别进行预处理和转换处理,得到第一数据和第二数据;
通过预设的非线性转化算法分别从第一数据和第二数据中挖掘核心属性,得到话题属性集合和用户属性集合;
将话题属性集合和用户属性集合进行组合,形成初始训练属性组;其中,所述初始训练属性组用于构建话题分析模型的训练数据;
建立话题分析模型,将初始训练属性组输入话题分析模型的多层神经网络进行训练,得到话题分析组合向量;
结合与话题语句相关的上下文信息,将话题分析组合向量与用户的个人信息集合通过预设的组合算法进行合并,得到综合话题属性组;将综合话题属性组输入所述话题分析模型中的池化层进行训练,得到最终的话题分析组合向量;
将所述最终的话题分析组合向量输入至所述话题分析模型的分类层进行训练;依次迭代优化所述话题分析模型中的模型参数,直至激活函数层收敛,完成模型训练,得到训练后的话题分析模型。
具体的,例如,假设话题是关于旅游,第一数据包括相关旅游文章,第二数据是用户在社交媒体上的互动。核心属性可以包括文章中的关键词,以及用户的情感分析和行为模式。通过模型训练,模型将能够从这些属性中学习,将输入的文本数据和用户信息映射到适当的话题分类,如“自然风光”或“旅游攻略”。
本发明实施例中实时自适应对话方法的另一个实施例包括:
所述响应聚合值的计算公式为:
其中,为响应聚合值;/>为对各子节点中心上的响应值的内积结果;为各子节点中心上的响应值;/>为随机噪声,是根据所述对话参数生成对应的响应值时生成的随机噪声;/>为权重系数,用于调节整个公式的权重/>为影响随机噪声的系数;/>为另一个与/>相关的向量;/>为用于调节随机噪声总和的权重系数;/>为与响应聚合值计算相关的因子;/>为目标话题上下文相关的变量;
本发明实施例中,有益效果:本发明实施例通过考虑多个子节点的响应值并考虑它们之间的相似性,可以获得一个更全面和准确的聚合响应。并且引入随机噪声可以增加模型的多样性,防止过拟合,使得模型对不同的对话参数都有合适的响应。通过整合目标话题上下文,确保最终的聚合响应与话题紧密相关,提高话题的准确性。多个权重系数使得公式具有很高的灵活性,可以根据不同的需求或场景进行调整。本发明实施例不仅考虑了各个子节点的响应值,还综合了随机噪声、目标话题的上下文等因素,为生成更精确、与话题相关并且有一定随机性的聚合响应提供了强大的工具。
本发明实施例中实时自适应对话方法的另一个实施例包括:
所述得到第一参与节点上的对话模型的中间参数的计算公式为:
其中,为中间参数;/>为响应聚合值;/>为各子节点中心上的响应值;/>为调节/>的权重系数;/>为与/>相关的权重;/>为与/>相关的因子;/>为与引入的/>相关的权重;/>为与/>和/>相关的另一个因子;/>为与/>相关的权重;/>为与/>和/>相关的另一个因子;/>为与/>和/>相关的权重;/>为另一个与响应聚合值计算有关的权重;/>为时间因子。
本发明实施例中,有益效果:本发明实施例的公式综合考虑了响应聚合值、引入因子以及与中间参数相关的多个权重,可以汇总各种信息,以更准确地计算中间参数。并且通过不同权重系数可以调节不同部分对中间参数的影响程度,使模型在不同情境下表现出适当的敏感性。本发明实施例的公式在计算中间参数时综合了多个因子及其相应的权重,使得模型可以更全面、灵活地根据不同情况生成中间参数,从而为对话模型的表现提供了更高的自适应性和准确性。
本发明实施例中实时自适应对话方法的另一个实施例包括:
所述从所述多个主题不同的话题语句中提取出目标话题,包括:
利用训练后的话题分析模型,对输入的对话语句进行主题概率评估,确定所述对话语句与预定义话题的关联程度;
根据每个话题的关联程度和预设的首要阈值,筛选出所述对话语句涉及的一个或多个话题;其中,所述涉及的每一个话题的关联程度均大于所述首要阈值;
获取所有话题的关联程度中的最大关联程度值,并判断所述最大关联程度值是否低于预设的次要阈值;其中,所述次要阈值大于首要阈值;
当所述最大关联程度值大于或等于次要阈值时,标记与所述最大关联程度值对应的话题为目标话题。
具体的,本发明实施例的具体实现方式包括以下步骤:
主题概率评估:使用训练好的话题分析模型,对输入的对话语句进行分析,得出该语句与多个预定义话题的关联程度。例如,如果输入是“我最近很喜欢跑步”,模型可能评估出与“运动”和“健康”有较高的关联程度。
话题筛选:设置一个首要阈值,比如0.6。只有那些关联程度大于此阈值的话题会被考虑。在上面的例子中,如果“运动”有0.7的关联程度,而“健康”有0.5,那么只有“运动”会被选中。
获取最大关联程度值:从筛选后的话题中找出具有最大关联程度的值。设定一个次要阈值,比如0.8,它必须大于首要阈值。
目标话题标记:如果最大关联程度值大于或等于次要阈值,则标记这个话题为目标话题。例如,如果“运动”的关联程度是0.9,超过了次要阈值0.8,那么“运动”就会被标记为目标话题。
上面对本发明实施例中实时自适应对话方法进行了描述,下面对本发明实施例中实时自适应对话装置进行描述,请参阅图2,本发明实施例中实时自适应对话装置一个实施例包括:
获取模块,用于获取用户输入的对话语句;
拆分模块,用于通过训练后的话题分析模型对所述对话语句进行话题拆分,得到多个主题不同的话题语句,并从所述多个主题不同的话题语句中提取出目标话题;其中,所述话题分析模型经过提前训练得到;
分发模块,用于将所述目标话题发送至智能对话联网平台的智能对话协调中心,并通过所述智能对话协调中心分发至各个子节点中心;其中,所述智能对话联网平台包括智能对话协调中心以及多个子节点中心,各个所述子节点中心上部署有对话模型,所述子节点中心包括第一参与节点以及第二参与节点;
计算模块,用于基于各个所述子节点中心部署的对话模型计算所述目标话题的对话参数,并根据所述对话参数生成对应的响应值;
聚合处理模块,用于通过所述智能对话协调中心从各个子节点中心中获取所述响应值,并对所述响应值进行聚合处理,得到响应聚合值;
训练模块,用于通过所述第一参与节点获取所述响应聚合值,并基于所述响应聚合值训练对应的对话模型,得到第一参与节点上的对话模型的中间参数;
第一生成模块,用于所述第一参与节点通过所述中间参数优化所述第一参与节点上的对话模型,并根据优化后的对话模型针对目标话题生成第一响应建议;
第二生成模块,用于所述第二参与节点通过接收所述第一参与节点发送的所述中间参数优化所述第二参与节点上的对话模型,并根据优化后的对话模型针对目标话题生成第二响应建议;
第三生成模块,用于所述智能对话协调中心获取所述第一响应建议和所述第二响应建议,并根据第一响应建议和第二响应建议生成最终的对话回复响应建议。
在本实施例中,上述实时自适应对话装置实施例中的各个模块的具体实现,请参照上述实时自适应对话方法实施例中所述,在此不再进行赘述。
本发明还提供一种实时自适应对话设备,所述实时自适应对话设备包括存储器和处理器,存储器中存储有计算机可读指令,计算机可读指令被处理器执行时,使得处理器执行上述各实施例中的所述实时自适应对话方法的步骤。
本发明还提供一种计算机可读存储介质,该计算机可读存储介质可以为非易失性计算机可读存储介质,该计算机可读存储介质也可以为易失性计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在计算机上运行时,使得计算机执行所述实时自适应对话方法的步骤。
有益效果:本发明提供一种实时自适应对话方法、装置、设备及存储介质,通过获取用户输入的对话语句;并通过训练后的话题分析模型对所述对话语句进行话题拆分,得到多个主题不同的话题语句,并从所述多个主题不同的话题语句中提取出目标话题;将所述目标话题发送至智能对话联网平台的智能对话协调中心,并通过所述智能对话协调中心分发至各个子节点中心;基于各个所述子节点中心部署的对话模型计算所述目标话题的对话参数,并根据所述对话参数生成对应的响应值;通过所述智能对话协调中心从各个子节点中心中获取所述响应值,并对所述响应值进行聚合处理,得到响应聚合值;通过所述第一参与节点获取所述响应聚合值,并基于所述响应聚合值训练对应的对话模型,得到第一参与节点上的对话模型的中间参数;所述第一参与节点通过所述中间参数优化所述第一参与节点上的对话模型,并根据优化后的对话模型针对目标话题生成第一响应建议;所述第二参与节点通过接收所述第一参与节点发送的所述中间参数优化所述第二参与节点上的对话模型,并根据优化后的对话模型针对目标话题生成第二响应建议;所述智能对话协调中心获取所述第一响应建议和所述第二响应建议,并根据第一响应建议和第二响应建议生成最终的对话回复响应建议。本发明通过将目标话题发送至多个子节点中心进行处理,能够并行计算和生成响应,从而加快响应时间;通过话题拆分能够针对不同的话题进行专门处理,确保更高的准确性和相关性。第一参与节点和第二参与节点都能够通过接收中间参数来优化其对话模型,能够在实时或近实时基础上不断学习和优化,提高响应的准确性。通过智能对话协调中心的聚合处理,系统可以从各个子节点中心中获取多个响应值,然后选取或组合最佳的响应,确保输出的质量。本发明为实现快速、准确、动态的智能对话响应提供了强有力的支持,同时还具有高度的灵活性和可扩展性。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (7)

1.一种实时自适应对话方法,其特征在于,包括:
获取用户输入的对话语句;
通过训练后的话题分析模型对所述对话语句进行话题拆分,得到多个主题不同的话题语句,并从所述多个主题不同的话题语句中提取出目标话题;其中,所述话题分析模型经过提前训练得到;
将所述目标话题发送至智能对话联网平台的智能对话协调中心,并通过所述智能对话协调中心分发至各个子节点中心;其中,所述智能对话联网平台包括智能对话协调中心以及多个子节点中心,各个所述子节点中心上部署有对话模型,所述子节点中心包括第一参与节点以及第二参与节点;
基于各个所述子节点中心部署的对话模型计算所述目标话题的对话参数,并根据所述对话参数生成对应的响应值;
通过所述智能对话协调中心从各个子节点中心中获取所述响应值,并对所述响应值进行聚合处理,得到响应聚合值;
通过所述第一参与节点获取所述响应聚合值,并基于所述响应聚合值训练对应的对话模型,得到第一参与节点上的对话模型的中间参数;
所述第一参与节点通过所述中间参数优化所述第一参与节点上的对话模型,并根据优化后的对话模型针对目标话题生成第一响应建议;
所述第二参与节点通过接收所述第一参与节点发送的所述中间参数优化所述第二参与节点上的对话模型,并根据优化后的对话模型针对目标话题生成第二响应建议;
所述智能对话协调中心获取所述第一响应建议和所述第二响应建议,并根据第一响应建议和第二响应建议生成最终的对话回复响应建议;
所述响应聚合值的计算公式为:
其中,为响应聚合值;/>为对各子节点中心上的响应值的内积结果;/>为各子节点中心上的响应值;/>为随机噪声,是根据所述对话参数生成对应的响应值时生成的随机噪声;/>为权重系数,用于调节整个公式的权重/>为影响随机噪声的系数;/>为另一个与 />相关的向量;/>为用于调节随机噪声总和的权重系数;/>为与响应聚合值计算相关的因子;/>为目标话题上下文相关的变量;
所述得到第一参与节点上的对话模型的中间参数的计算公式为:
其中,为中间参数;/>为响应聚合值;/>为各子节点中心上的响应值;/>为调节的权重系数;/>为与/>相关的权重;/>为与/>相关的因子;/>为与引入的 /> 相关的权重;/>为与 /> 和 />相关的另一个因子;/>为与 />相关的权重;/>为与/>和 />相关的另一个因子;/>为与 />和/>相关的权重;/>为另一个与响应聚合值计算有关的权重;/>为时间因子。
2.根据权利要求1所述的实时自适应对话方法,其特征在于,所述生成最终的对话回复响应建议之后,包括:
创建一个主枢纽作为空节点,并在所述主枢纽上建立一个节点仓库;其中所述节点仓库用于存储和管理整个主枢纽的各个节点;
将最终的对话回复响应建议进行分组,并通过预设的散列函数将分组后的所述最终的对话回复响应建议生成对应的摘要,将生成的摘要作为叶子节点的标识输入节点仓库;
基于预设的编码模型对所述摘要进行编码处理,得到摘要字符,并将所述摘要字符的首字母保存在每个叶节点中;将每个叶节点连接到叶子节点内部;
从预设的数据库中选择一个加密散列函数,对叶子节点的标识应用加密散列函数进行加密,得到第一加密信息,对叶子节点内部的摘要字符的首字母进行连接并应用加密散列函数进行加密,得到第二加密信息;
分发第一加密信息以及第二加密信息至主枢纽中的其他叶节点,各个其它叶节点根据加密后的第一加密信息以及第二加密信息还原出相同的最终的对话回复响应建议。
3.根据权利要求1所述的实时自适应对话方法,其特征在于,所述话题分析模型的训练过程,包括:
获取与话题语句相关的文本数据和用户互动数据,并对话题语句相关的文本数据和用户互动数据分别进行预处理和转换处理,得到第一数据和第二数据;
通过预设的非线性转化算法分别从第一数据和第二数据中挖掘核心属性,得到话题属性集合和用户属性集合;
将话题属性集合和用户属性集合进行组合,形成初始训练属性组;其中,所述初始训练属性组用于构建话题分析模型的训练数据;
建立话题分析模型,将初始训练属性组输入话题分析模型的多层神经网络进行训练,得到话题分析组合向量;
结合与话题语句相关的上下文信息,将话题分析组合向量与用户的个人信息集合通过预设的组合算法进行合并,得到综合话题属性组;将综合话题属性组输入所述话题分析模型中的池化层进行训练,得到最终的话题分析组合向量;
将所述最终的话题分析组合向量输入至所述话题分析模型的分类层进行训练;依次迭代优化所述话题分析模型中的模型参数,直至激活函数层收敛,完成模型训练,得到训练后的话题分析模型。
4.根据权利要求1所述的实时自适应对话方法,其特征在于,所述从所述多个主题不同的话题语句中提取出目标话题,包括:
利用训练后的话题分析模型,对输入的对话语句进行主题概率评估,确定所述对话语句与预定义话题的关联程度;
根据每个话题的关联程度和预设的首要阈值,筛选出所述对话语句涉及的一个或多个话题;其中,所述涉及的每一个话题的关联程度均大于所述首要阈值;
获取所有话题的关联程度中的最大关联程度值,并判断所述最大关联程度值是否低于预设的次要阈值;其中,所述次要阈值大于首要阈值;
当所述最大关联程度值大于或等于次要阈值时,标记与所述最大关联程度值对应的话题为目标话题。
5.一种实时自适应对话装置,其特征在于,所述实时自适应对话装置包括:
获取模块,用于获取用户输入的对话语句;
拆分模块,用于通过训练后的话题分析模型对所述对话语句进行话题拆分,得到多个主题不同的话题语句,并从所述多个主题不同的话题语句中提取出目标话题;其中,所述话题分析模型经过提前训练得到;
分发模块,用于将所述目标话题发送至智能对话联网平台的智能对话协调中心,并通过所述智能对话协调中心分发至各个子节点中心;其中,所述智能对话联网平台包括智能对话协调中心以及多个子节点中心,各个所述子节点中心上部署有对话模型,所述子节点中心包括第一参与节点以及第二参与节点;
计算模块,用于基于各个所述子节点中心部署的对话模型计算所述目标话题的对话参数,并根据所述对话参数生成对应的响应值;
聚合处理模块,用于通过所述智能对话协调中心从各个子节点中心中获取所述响应值,并对所述响应值进行聚合处理,得到响应聚合值;
训练模块,用于通过所述第一参与节点获取所述响应聚合值,并基于所述响应聚合值训练对应的对话模型,得到第一参与节点上的对话模型的中间参数;
第一生成模块,用于所述第一参与节点通过所述中间参数优化所述第一参与节点上的对话模型,并根据优化后的对话模型针对目标话题生成第一响应建议;
第二生成模块,用于所述第二参与节点通过接收所述第一参与节点发送的所述中间参数优化所述第二参与节点上的对话模型,并根据优化后的对话模型针对目标话题生成第二响应建议;
第三生成模块,用于所述智能对话协调中心获取所述第一响应建议和所述第二响应建议,并根据第一响应建议和第二响应建议生成最终的对话回复响应建议;
所述响应聚合值的计算公式为:
其中,为响应聚合值;/>为对各子节点中心上的响应值的内积结果;/>为各子节点中心上的响应值;/>为随机噪声,是根据所述对话参数生成对应的响应值时生成的随机噪声;/>为权重系数,用于调节整个公式的权重/>为影响随机噪声的系数;/>为另一个与 />相关的向量;/>为用于调节随机噪声总和的权重系数;/>为与响应聚合值计算相关的因子;/>为目标话题上下文相关的变量;
所述得到第一参与节点上的对话模型的中间参数的计算公式为:
其中,为中间参数;/>为响应聚合值;/>为各子节点中心上的响应值;/>为调节的权重系数;/>为与/>相关的权重;/>为与/>相关的因子;/>为与引入的 /> 相关的权重;/>为与 /> 和 />相关的另一个因子;/>为与 />相关的权重;/>为与/>和 />相关的另一个因子;/>为与 />和/>相关的权重;/>为另一个与响应聚合值计算有关的权重;/>为时间因子。
6.一种实时自适应对话设备,其特征在于,所述实时自适应对话设备包括:存储器和至少一个处理器,所述存储器中存储有指令;
所述至少一个处理器调用所述存储器中的所述指令,以使得所述实时自适应对话设备执行如权利要求1-4中任一项所述的实时自适应对话方法。
7.一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,其特征在于,所述指令被处理器执行时实现如权利要求1-4中任一项所述的实时自适应对话方法。
CN202311345788.5A 2023-10-18 2023-10-18 实时自适应对话方法、装置、设备及存储介质 Active CN117093697B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311345788.5A CN117093697B (zh) 2023-10-18 2023-10-18 实时自适应对话方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311345788.5A CN117093697B (zh) 2023-10-18 2023-10-18 实时自适应对话方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN117093697A CN117093697A (zh) 2023-11-21
CN117093697B true CN117093697B (zh) 2024-01-26

Family

ID=88775448

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311345788.5A Active CN117093697B (zh) 2023-10-18 2023-10-18 实时自适应对话方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN117093697B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113220851A (zh) * 2021-04-28 2021-08-06 山东师范大学 一种基于推理对话模型的人机个性化对话方法及系统
CN114328866A (zh) * 2021-12-24 2022-04-12 李长山 应答流畅准确的强拟人化智能对话机器人

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020087310A1 (en) * 2000-12-29 2002-07-04 Lee Victor Wai Leung Computer-implemented intelligent dialogue control method and system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113220851A (zh) * 2021-04-28 2021-08-06 山东师范大学 一种基于推理对话模型的人机个性化对话方法及系统
CN114328866A (zh) * 2021-12-24 2022-04-12 李长山 应答流畅准确的强拟人化智能对话机器人

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于词语相关性的对话系统话题分割;何天文;王红;刘海燕;;计算机应用研究(第04期);56-60 *

Also Published As

Publication number Publication date
CN117093697A (zh) 2023-11-21

Similar Documents

Publication Publication Date Title
KR102071582B1 (ko) 딥 뉴럴 네트워크(Deep Neural Network)를 이용하여 문장이 속하는 클래스(class)를 분류하는 방법 및 장치
CN108319599B (zh) 一种人机对话的方法和装置
CN106875940B (zh) 一种基于神经网络的机器自学习构建知识图谱训练方法
CN104615767A (zh) 搜索排序模型的训练方法、搜索处理方法及装置
CN109766418B (zh) 用于输出信息的方法和装置
CN109992781B (zh) 文本特征的处理方法、装置和存储介质
CN113379042B (zh) 保护数据隐私的业务预测模型训练方法及装置
CN113726545B (zh) 基于知识增强生成对抗网络的网络流量生成方法及装置
Menakadevi et al. Robust optimization based extreme learning machine for sentiment analysis in big data
CN111275780B (zh) 人物图像的生成方法及装置
CN113821587B (zh) 文本相关性确定方法、模型训练方法、装置及存储介质
EP3812919A1 (en) Methods, apparatuses, and systems for data mapping
Irissappane et al. Leveraging GPT-2 for classifying spam reviews with limited labeled data via adversarial training
JP2024532679A (ja) 自己回帰言語モデルニューラルネットワークを使用して出力系列を評価すること
CN113723115B (zh) 基于预训练模型的开放域问答预测方法及相关设备
CN115759001A (zh) 语言模型训练方法、文本预测方法以及装置
CN116775497A (zh) 数据库测试用例生成需求描述编码方法
CN117093697B (zh) 实时自适应对话方法、装置、设备及存储介质
EP3940567A1 (en) Conversion system, method and program
CN112307738A (zh) 用于处理文本的方法和装置
CN116431912A (zh) 用户画像推送方法及装置
CN113128235A (zh) 一种语义理解方法
CN115525743A (zh) 基于自学习白化网络的人机交互方法及电子设备
CN111459990B (zh) 对象处理方法、系统及计算机可读存储介质和计算机设备
Arora et al. Significant machine learning and statistical concepts and their applications in social computing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant