CN117591662B - 基于人工智能的数字化企业服务数据挖掘方法及系统 - Google Patents

基于人工智能的数字化企业服务数据挖掘方法及系统 Download PDF

Info

Publication number
CN117591662B
CN117591662B CN202410078421.XA CN202410078421A CN117591662B CN 117591662 B CN117591662 B CN 117591662B CN 202410078421 A CN202410078421 A CN 202410078421A CN 117591662 B CN117591662 B CN 117591662B
Authority
CN
China
Prior art keywords
text
dialogue
texts
dialog
example multi
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202410078421.XA
Other languages
English (en)
Other versions
CN117591662A (zh
Inventor
林杨
叶桄希
刘馨霖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Investment Information Industry Group Co ltd
Original Assignee
Sichuan Investment Information Industry Group Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan Investment Information Industry Group Co ltd filed Critical Sichuan Investment Information Industry Group Co ltd
Priority to CN202410078421.XA priority Critical patent/CN117591662B/zh
Publication of CN117591662A publication Critical patent/CN117591662A/zh
Application granted granted Critical
Publication of CN117591662B publication Critical patent/CN117591662B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/335Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/194Calculation of difference between files
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2216/00Indexing scheme relating to additional aspects of information retrieval not explicitly covered by G06F16/00 and subgroups
    • G06F2216/03Data mining
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请提供一种基于人工智能的数字化企业服务数据挖掘方法及系统,通过利用文本数据挖掘网络中的文本语义解析单元,从各个范例对话文本中提取出第一文本语义向量序列。同时,它将这些对话文本分类为监督学习对话文本和非监督学习对话文本,进而实现上下文和整体语义嵌入表示的生成。此外,还针对非监督学习对话文本,依据其上下文语义向量序列和整体文本语义向量序列,找出与之相关性最大的范例对话文本,更准确地识别和理解非监督学习对话文本的语义内容。此外通过筛选非监督学习对话文本,并结合相应的范例对话文本确定混合训练Loss函数值,实现了对文本数据挖掘网络进行参数学习,优化了网络性能。

Description

基于人工智能的数字化企业服务数据挖掘方法及系统
技术领域
本申请涉及人工智能技术领域,具体而言,涉及一种基于人工智能的数字化企业服务数据挖掘方法及系统。
背景技术
在现有技术中,服务对话系统常常应用于数字化企业服务中。这些服务对话系统通常通过多轮的服务对话来理解和满足用户的需求。为了提升服务对话系统的效果,需要对服务对话进行分析和理解,挖掘出用户的服务需求意图。
目前,多数方法主要依赖监督学习进行对话文本的分析。这种方法通常需要大量标注好的训练数据。然而,在实际应用中,获取足够多的标注数据是困难的,同时人工标注的过程也十分耗时和昂贵。此外,由于服务对话的内容复杂且多变,仅依靠监督学习可能无法充分理解和挖掘对话内容。
针对上述问题,一些方法尝试引入非监督学习进行对话文本的分析。然而,如何有效地利用非监督学习对话文本,以及如何结合监督学习对话文本和非监督学习对话文本,仍是一个待解决的问题。
发明内容
为了至少克服现有技术中的上述不足,本申请的目的在于提供一种基于人工智能的数字化企业服务数据挖掘方法及系统,能够在缺乏足够标注数据的情况下,利用非监督学习方法进行服务意图挖掘。同时,还考虑了多轮对话中的上下文信息,提高了服务意图挖掘的准确性。
第一方面,本申请提供一种基于人工智能的数字化企业服务数据挖掘方法,所述方法包括:
获取范例对话文本服务对话文本数据中的X个范例多轮对话文本,并依据文本数据挖掘网络中的文本语义解析单元,提取所述X个范例多轮对话文本中各个范例多轮对话文本的第一文本语义向量序列,所述范例对话文本服务对话文本数据为在本轮训练阶段中针对目标数字化企业服务的对话文本服务对话文本数据,所述X个范例多轮对话文本包括Y个监督学习对话文本和Z个非监督学习对话文本,Y和Z为大于0的整数,且X等于Y与Z的相加值,所述文本数据挖掘网络用于对多轮服务对话文本中关键对话节点的服务需求意图进行挖掘;
对所述各个范例多轮对话文本的第一文本语义向量序列分别进行上下文和整体语义嵌入表示,生成所述各个范例多轮对话文本的上下文语义向量序列和整体文本语义向量序列;
针对所述Z个非监督学习对话文本中的第x个非监督学习对话文本,依据所述上下文语义向量序列和所述整体文本语义向量序列,在所述X个范例多轮对话文本中除所述第x个非监督学习对话文本外的X-1个范例多轮对话文本中,确定与所述第x个非监督学习对话文本的上下文相关性最大的第一范例对话文本,以及与所述第x个非监督学习对话文本的整体相关性最大的第二范例对话文本,所述x为不大于Z的正整数;
从所述Z个非监督学习对话文本中筛选Q个第一非监督学习对话文本,依据所述Q个第一非监督学习对话文本的整体文本语义向量序列以及对应的第二范例对话文本的整体文本语义向量序列,确定所述文本数据挖掘网络的混合训练Loss函数值,并依据所述混合训练Loss函数值对所述文本数据挖掘网络进行参数学习,所述第一非监督学习对话文本为对应的第一范例对话文本和对应的第二范例对话文本相同的非监督学习对话文本;
依据文本数据挖掘网络中的文本语义解析单元,获取待进行服务意图挖掘的目标多轮服务对话文本的目标文本语义向量序列,依据所述目标文本语义向量序列,确定所述目标多轮服务对话文本属于M种服务需求意图的置信度评分,所述M为不小于2的正整数。
在第一方面的一种可能的实施方式中,所述依据所述上下文语义向量序列和所述整体文本语义向量序列,在所述X个范例多轮对话文本中除所述第x个非监督学习对话文本外的X-1个范例多轮对话文本中,确定与所述第x个非监督学习对话文本的上下文相关性最大的第一范例对话文本,以及与所述第x个非监督学习对话文本的整体相关性最大的第二范例对话文本,包括:
依据所述X个范例多轮对话文本中每两个范例对话文本的上下文语义向量序列,确定所述每两个范例对话文本之间的上下文相关性,以及依据所述每两个范例对话文本的整体文本语义向量序列,确定所述每两个范例对话文本之间的整体相关性;
依据所述第x个非监督学习对话文本与所述X-1个范例多轮对话文本中各个范例多轮对话文本之间的上下文相关性,在所述X-1个范例多轮对话文本中提取与所述第x个非监督学习对话文本的上下文相关性最大的第一范例对话文本;
依据所述第x个非监督学习对话文本与所述X-1个范例多轮对话文本中各个范例多轮对话文本之间的整体相关性,在所述X-1个范例多轮对话文本中提取与所述第x个非监督学习对话文本的整体相关性最大的第二范例对话文本。
在第一方面的一种可能的实施方式中,所述依据所述X个范例多轮对话文本中每两个范例对话文本的上下文语义向量序列,确定所述每两个范例对话文本之间的上下文相关性,包括:
针对所述X个范例多轮对话文本中的第y个范例多轮对话文本和第z个范例多轮对话文本,依据所述第y个范例多轮对话文本的上下文语义向量序列,确定所述第y个范例多轮对话文本的上下文关注系数,以及依据所述第z个范例多轮对话文本的上下文语义向量序列,确定所述第z个范例多轮对话文本的上下文关注系数,所述y和z均为不大于X的正整数,且y不等于X;
依据所述第y个范例多轮对话文本的上下文语义向量序列和上下文关注系数,以及所述第z个范例多轮对话文本的上下文语义向量序列和上下文关注系数,确定所述第y个范例多轮对话文本与所述第z个范例多轮对话文本之间的上下文相关性。
在第一方面的一种可能的实施方式中,所述依据所述Q个第一非监督学习对话文本的整体文本语义向量序列以及对应的第二范例对话文本的整体文本语义向量序列,确定所述文本数据挖掘网络的混合训练Loss函数值,包括:
针对所述Q个第一非监督学习对话文本中的各个第一非监督学习对话文本,依据所述第一非监督学习对话文本的整体文本语义向量序列和所述第一非监督学习对话文本对应的第二范例对话文本的整体文本语义向量序列,确定所述第一非监督学习对话文本的第一训练代价参数;
依据所述Q个第一非监督学习对话文本中各个第一非监督学习对话文本对应的第一训练代价参数,确定非监督训练代价参数;
针对所述Y个监督学习对话文本中的各个监督学习对话文本,若在所述Y个监督学习对话文本中除所述监督学习对话文本外的Y-1个监督学习对话文本中,存在与所述监督学习对话文本的标注服务意图数据相同的第三范例对话文本时,则依据所述监督学习对话文本的整体文本语义向量序列和所述第三范例对话文本的整体文本语义向量序列,确定所述监督学习对话文本的第二训练代价参数,依据至少一个监督学习对话文本的第二训练代价参数,确定监督训练代价参数;
依据所述非监督训练代价参数和所述监督训练代价参数,生成第一Loss函数值;
依据所述文本数据挖掘网络中的全连接层,对所述X个范例多轮对话文本中各个范例多轮对话文本的第一文本语义向量序列进行处理,生成所述X个范例多轮对话文本中的各个范例多轮对话文本属于M种服务需求意图的第一置信度评分,依据所述X个范例多轮对话文本中至少一个范例多轮对话文本的第一置信度评分,确定第二Loss函数值,所述M为大于1的正整数;
依据所述第一Loss函数值和所述第二Loss函数值,确定所述混合训练Loss函数值。
在第一方面的一种可能的实施方式中,所述第二Loss函数值包括第一成员Loss函数值,所述依据所述X个范例多轮对话文本中至少一个范例多轮对话文本的第一置信度评分,确定第二Loss函数值,包括:
对所述Z个非监督学习对话文本中各个非监督学习对话文本的第一置信度评分进行假设监督标记训练,生成所述Z个非监督学习对话文本中各个非监督学习对话文本的第一模糊服务意图标注数据;
依据所述Z个非监督学习对话文本中各个非监督学习对话文本的第一模糊服务意图标注数据和所述第一置信度评分,生成所述第一成员Loss函数值。
在第一方面的一种可能的实施方式中,所述依据所述Z个非监督学习对话文本中各个非监督学习对话文本的第一模糊服务意图标注数据和所述第一置信度评分,生成所述第一成员Loss函数值,包括:
确定所述第x个非监督学习对话文本的第一模糊服务意图标注数据中,置信度评分最大的第一服务需求意图;
将所述第x个非监督学习对话文本的第一置信度评分中,所述第一服务需求意图对应的置信度评分,输出为所述第x个非监督学习对话文本的训练学习指标;
将所述第x个非监督学习对话文本的第一模糊服务意图标注数据和所述第一置信度评分进行点乘,生成目标参数值,将所述目标参数值进行对数运算后与所述第x个非监督学习对话文本的训练学习指标进行乘积运算,生成所述第x个非监督学习对话文本对应的第三训练代价参数;
依据所述Z个非监督学习对话文本中各个非监督学习对话文本对应的第三训练代价参数,生成所述第一成员Loss函数值。
在第一方面的一种可能的实施方式中,所述第二Loss函数值包括第二成员Loss函数值,所述依据所述X个范例多轮对话文本中至少一个范例多轮对话文本的第一置信度评分,确定第二Loss函数值,包括:
依据所述Y个监督学习对话文本中各个监督学习对话文本的第一置信度评分和标注服务意图数据,确定所述第二成员Loss函数值。
在第一方面的一种可能的实施方式中,所述第二Loss函数值包括第三成员Loss函数值,所述依据所述X个范例多轮对话文本中至少一个范例多轮对话文本的第一置信度评分,确定第二Loss函数值,包括:
依据所述X个范例多轮对话文本中各个范例多轮对话文本的第一置信度评分,确定所述第三成员Loss函数值;
所述依据所述X个范例多轮对话文本中各个范例多轮对话文本对应的置信度评分,确定所述第三成员Loss函数值,包括:
依据所述X个范例多轮对话文本中各个范例多轮对话文本的第一置信度评分,确定所述X个范例多轮对话文本的平均置信度评分;
针对所述X个范例多轮对话文本中的各个范例多轮对话文本,确定所述范例多轮对话文本的第一置信度评分和所述平均置信度评分之间的离散程度值;
依据所述X个范例多轮对话文本中各个范例多轮对话文本对应的离散程度值,确定所述第三成员Loss函数值。
在第一方面的一种可能的实施方式中,所述依据文本数据挖掘网络中的文本语义解析单元,提取所述X个范例多轮对话文本中各个范例多轮对话文本的第一文本语义向量序列之前,所述方法还包括:
使用所述Y个监督学习对话文本,对所述文本数据挖掘网络进行初始化参数学习;
所述依据文本数据挖掘网络中的文本语义解析单元,提取所述X个范例多轮对话文本中各个范例多轮对话文本的第一文本语义向量序列,包括:
通过初始化参数学习后的所述文本数据挖掘网络中的文本语义解析单元,提取所述X个范例多轮对话文本中各个范例多轮对话文本的第一文本语义向量序列;
在所述依据所述混合训练Loss函数值对所述文本数据挖掘网络进行参数学习之后,所述方法还包括:
对所述Z个非监督学习对话文本进行聚类,生成所述Z个非监督学习对话文本中各个非监督学习对话文本的第二模糊服务意图标注数据;
依据所述Y个监督学习对话文本,以及所述Z个非监督学习对话文本和第二模糊服务意图标注数据,对依据所述混合训练Loss函数值进行参数学习后的所述文本数据挖掘网络进行进阶参数学习。
第二方面,本申请还提供一种基于人工智能的数字化企业服务数据挖掘系统,所述基于人工智能的数字化企业服务数据挖掘系统包括处理器和机器可读存储介质,所述机器可读存储介质中存储有计算机程序,所述计算机程序结合该处理器加载并执行以实现以上第一方面的基于人工智能的数字化企业服务数据挖掘方法。
采用以上任意方面的技术方案,能够有效提取和理解多轮对话文本中的语义信息,具体通过获取目标数字化企业服务的范例对话文本数据,并利用文本数据挖掘网络中的文本语义解析单元,从各个范例对话文本中提取出第一文本语义向量序列。同时,它将这些对话文本分类为监督学习对话文本和非监督学习对话文本,进而实现上下文和整体语义嵌入表示的生成。此外,还针对非监督学习对话文本,依据其上下文语义向量序列和整体文本语义向量序列,找出与之相关性最大的范例对话文本,有助于更准确地识别和理解非监督学习对话文本的语义内容。此外,通过筛选非监督学习对话文本,并结合相应的范例对话文本确定混合训练Loss函数值,实现了对文本数据挖掘网络进行参数学习,优化了网络性能。最后,根据目标多轮服务对话文本的目标文本语义向量序列,确定该对话文本属于不同服务需求意图的置信度评分,从而有效实现服务需求意图的识别和挖掘。这种方法能够提高文本数据挖掘网络对服务对话文本中服务需求意图的理解和把握,进一步提升服务质量。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要启用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以结合这些附图获得其它相关的附图。
图1为本申请实施例提供的基于人工智能的数字化企业服务数据挖掘方法的流程示意图;
图2为本申请实施例提供的图1中所述的基于人工智能的数字化企业服务数据挖掘方法的基于人工智能的数字化企业服务数据挖掘系统的功能结构示意框图。
具体实施方式
以下描述是为了使本领域的普通技术人员能够实施和结合本申请,并且该描述是在特定的应用场景及其要求的环境下提供的。对于本领域的普通技术人员来讲,显然可以对所公开的实施例作出各种改变,并且在不偏离本申请的原则和范围时,本申请中所定义的普遍原则可以适用于其它实施例和应用场景。因此,本申请并不限于所描述的实施例,而应该被给予与权利要求一致的最广泛的范围。
参见图1所示,本申请提供一种基于人工智能的数字化企业服务数据挖掘方法,包括以下步骤。
步骤S110,获取范例对话文本服务对话文本数据中的X个范例多轮对话文本,并依据文本数据挖掘网络中的文本语义解析单元,提取所述X个范例多轮对话文本中各个范例多轮对话文本的第一文本语义向量序列,所述范例对话文本服务对话文本数据为在本轮训练阶段中针对目标数字化企业服务的对话文本服务对话文本数据,所述X个范例多轮对话文本包括Y个监督学习对话文本和Z个非监督学习对话文本,Y和Z为大于0的整数,且X等于Y与Z的相加值,所述文本数据挖掘网络用于对多轮服务对话文本中关键对话节点的服务需求意图进行挖掘。
本实施例中,所述X个范例多轮对话文本包括Y个监督学习对话文本和Z个非监督学习对话文本,Y和Z为大于0的整数,且X等于Y与Z的相加值,所述文本数据挖掘网络用于对多轮服务对话文本中关键对话节点的服务需求意图进行挖掘。
例如,某服务器正在处理针对数字化企业的服务对话文本数据,其中包含50个范例多轮对话文本,其中包括30个监督学习对话文本和20个非监督学习对话文本。
首先使用文本数据挖掘网络中的文本语义解析单元,提取这50个范例多轮对话文本中各个范例多轮对话文本的第一文本语义向量序列。这些第一文本语义向量序列将用于后续的语义分析和处理。
示例性的,范例多轮对话文本可以是指在数字化企业服务中,由用户提出问题或需求,并由服务提供者提供解答或解决方案的多轮对话。例如:
“用户:我想了解如何注册的产品。
服务提供者:首先,您需要访问的网站。在网站上,您可以找到“注册”按钮,点击它并按照提示操作即可。
......”
所述文本数据挖掘网络可以是指一种用于从大量文本数据中提取有用信息的网络模型结构。在本实施例中,文本数据挖掘网络被用于从多轮服务对话文本中提取关键对话节点的服务需求意图。例如,一个文本数据挖掘网络可能包括用于文本预处理的卷积神经网络(CNN)、用于语义分析的循环神经网络(RNN)和用于意图识别的分类器等。
所述文本语义解析单元可以是指用于将文本转换为计算机可以理解的语义表示的组件。在本实施例中,文本语义解析单元被用于将多轮服务对话文本转换为第一文本语义向量序列,以便进行后续的语义分析和处理。例如,一个文本语义解析单元可能包括词嵌入层、编码器和解码器等。
所述第一文本语义向量序列可以是指通过文本语义解析单元处理后生成的语义向量序列,用于表示多轮服务对话文本的语义信息。例如,一个多轮服务对话文本经过文本语义解析单元处理后,可能生成一个包含1000个元素的向量序列,每个元素表示该文本中的一个单词或短语的重要性。
所述监督学习对话文本可以是指已经标注了服务需求意图的对话文本,用于训练文本数据挖掘网络。例如,在一个数字化企业服务中,用户提出了一个问题,服务提供者提供了相应的解答,并且已经标注了该解答所对应的服务需求意图(如“注册”、“购买”等)。
所述非监督学习对话文本可以是指没有标注服务需求意图的对话文本,用于对文本数据挖掘网络进行无监督学习。例如,在一个数字化企业服务中,用户提出了一个问题,服务提供者提供了相应的解答,但是该解答所对应的服务需求意图尚未标注。
所述关键对话节点可以是指多轮服务对话文本中与服务需求意图相关的关键句子或短语。例如,在一个数字化企业服务中,用户提出了一个问题,服务提供者提供了相应的解答,并且已经标注了该解答所对应的服务需求意图。在本实施例中,用户的问题和服务提供者的解答都是关键对话节点,因为它们与服务需求意图直接相关。
步骤S120,对所述各个范例多轮对话文本的第一文本语义向量序列分别进行上下文和整体语义嵌入表示,生成所述各个范例多轮对话文本的上下文语义向量序列和整体文本语义向量序列。
例如,接下来对提取出的第一文本语义向量序列进行上下文和整体语义嵌入表示。例如,可以使用双向LSTM模型来处理每个范例多轮对话文本,生成对应的上下文语义向量序列和整体文本语义向量序列。这些上下文语义向量序列和整体文本语义向量序列将用于后续的相似性计算和服务需求意图挖掘。
示例性的,所述上下文语义向量序列可以是指通过对多轮服务对话文本中的每个句子或短语进行上下文分析,生成的表示文本语义信息的向量序列。例如,在一个多轮服务对话文本中,用户问了一个关于产品功能的问题,服务提供者回答了这个问题,并提供了进一步的解释。在这个例子中,服务提供者的回答是关于产品功能的进一步解释,因此它的语义信息与用户的问题紧密相关。通过上下文分析,可以生成一个表示这个多轮服务对话文本的上下文语义向量序列。
所述整体文本语义向量序列可以指通过对多轮服务对话文本中的所有句子或短语进行整体分析,生成的表示文本语义信息的向量序列。例如,在一个多轮服务对话文本中,用户问了一个关于产品功能的问题,服务提供者回答了这个问题,并提供了进一步的解释。在这个例子中,可以通过整体分析,生成一个表示这个多轮服务对话文本的整体文本语义向量序列。
语义嵌入表示可以是指将文本中的单词或短语转换为计算机可以理解的数值表示。例如,可以使用词嵌入技术将文本中的每个单词或短语转换为一个固定长度的向量。这些向量可以表示单词或短语在语义空间中的位置,从而帮助理解文本的语义信息。
由此,所述上下文分析可以是指分析文本中单词或短语之间的语义关系,以理解文本的语义信息。例如,在一个多轮服务对话文本中,可以通过分析用户的问题和服务提供者的回答之间的语义关系,来理解这个对话的上下文。此外,所述整体分析可以是指分析文本中所有单词或短语之间的语义关系,以理解文本的语义信息。例如,在一个多轮服务对话文本中,可以通过分析文本中所有单词或短语之间的语义关系,来理解这个对话的整体意义。
步骤S130,针对所述Z个非监督学习对话文本中的第x个非监督学习对话文本,依据所述上下文语义向量序列和所述整体文本语义向量序列,在所述X个范例多轮对话文本中除所述第x个非监督学习对话文本外的X-1个范例多轮对话文本中,确定与所述第x个非监督学习对话文本的上下文相关性最大的第一范例对话文本,以及与所述第x个非监督学习对话文本的整体相关性最大的第二范例对话文本,所述x为不大于Z的正整数。
例如,现在需要确定20个非监督学习对话文本中的每一个非监督学习对话文本的相似文本。对于其中的第10个非监督学习对话文本,首先计算其与另外39个监督学习对话文本的上下文相关性和整体相关性。然后,选择与第10个非监督学习对话文本的上下文相关性最大的前10个监督学习对话文本,以及与第10个非监督学习对话文本的整体相关性最大的前10个监督学习对话文本。最后,将这20个监督学习对话文本作为第10个非监督学习对话文本的相似文本。
其中,所述上下文相关性可以是指两个文本之间的语义相似性。在本实施例中,使用上下文语义向量序列来计算两个非监督学习对话文本之间的上下文相关性。例如,如果两个非监督学习对话文本都涉及产品注册的问题,那么它们的上下文相关性可能会很高。
所述整体相关性可以是指两个文本之间的语义相似性。在本实施例中,使用整体文本语义向量序列来计算两个非监督学习对话文本之间的整体相关性。例如,如果两个非监督学习对话文本都涉及产品注册的问题,那么它们的整体相关性可能会很高。
所述第一范例对话文本可以是指在X个范例多轮对话文本中,与第x个非监督学习对话文本的上下文相关性最大的文本。例如,如果第x个非监督学习对话文本涉及产品注册的问题,那么第一范例对话文本可能是另一个涉及产品注册问题的对话文本。所述第二范例对话文本可以是指在X个范例多轮对话文本中,与第x个非监督学习对话文本的整体相关性最大的文本。例如,如果第x个非监督学习对话文本涉及产品注册的问题,那么第二范例对话文本可能是另一个涉及产品注册问题的对话文本。
步骤S140,从所述Z个非监督学习对话文本中筛选Q个第一非监督学习对话文本,依据所述Q个第一非监督学习对话文本的整体文本语义向量序列以及对应的第二范例对话文本的整体文本语义向量序列,确定所述文本数据挖掘网络的混合训练Loss函数值,并依据所述混合训练Loss函数值对所述文本数据挖掘网络进行参数学习,所述第一非监督学习对话文本为对应的第一范例对话文本和对应的第二范例对话文本相同的非监督学习对话文本。
例如,现在需要从20个非监督学习对话文本中选出10个第一非监督学习对话文本,以便进行混合训练。首先计算这20个非监督学习对话文本的整体文本语义向量序列,然后选择与每个非监督学习对话文本对应的第二范例对话文本的整体文本语义向量序列。接下来,依据这20个非监督学习对话文本的整体文本语义向量序列以及对应的第二范例对话文本的整体文本语义向量序列,确定文本数据挖掘网络的混合训练Loss函数值。最后,依据该Loss函数值对文本数据挖掘网络进行参数学习。
其中,所述混合训练Loss函数值可以是指在训练文本数据挖掘网络时,使用的损失函数值。在本实施例中,使用Q个第一非监督学习对话文本的整体文本语义向量序列以及对应的第二范例对话文本的整体文本语义向量序列来确定混合训练Loss函数值。这个混合训练Loss函数值可以帮助评估文本数据挖掘网络在预测非监督学习对话文本的服务需求意图方面的性能。参数学习可以是指通过调整文本数据挖掘网络的参数来优化文本数据挖掘网络的性能。在本实施例中,使用混合训练Loss函数值来对文本数据挖掘网络进行参数学习。这意味着将根据混合训练Loss函数值来调整文本数据挖掘网络的参数,以使其能够更好地预测非监督学习对话文本的服务需求意图。
Q个第一非监督学习对话文本可以是指从Z个非监督学习对话文本中筛选出的Q个文本。这些文本具有与对应的第一范例对话文本和第二范例对话文本相同的服务需求意图。例如,如果某个非监督学习对话文本涉及产品注册的问题,并且与某个范例对话文本具有相同的服务需求意图,那么这个非监督学习对话文本可能被选为Q个第一非监督学习对话文本之一。对应的第二范例对话文本可以是指与某个第一非监督学习对话文本具有相同服务需求意图的范例对话文本。例如,如果某个非监督学习对话文本涉及产品注册的问题,并且与某个范例对话文本具有相同的服务需求意图,那么这个范例对话文本可以被选为对应第二范例对话文本。
步骤S150,依据文本数据挖掘网络中的文本语义解析单元,获取待进行服务意图挖掘的目标多轮服务对话文本的目标文本语义向量序列,依据所述目标文本语义向量序列,确定所述目标多轮服务对话文本属于M种服务需求意图的置信度评分,所述M为不小于2的正整数。
例如,在完成所述文本数据挖掘网络的参数学习后,现在需要处理一个新的目标多轮服务对话文本,以确定其服务需求意图。首先使用文本数据挖掘网络中的文本语义解析单元,提取该目标多轮服务对话文本的目标文本语义向量序列。然后,依据该目标文本语义向量序列,确定该目标多轮服务对话文本属于M种服务需求意图的置信度评分。例如,如果M为3,则可以输出该目标多轮服务对话文本属于三种服务需求意图的置信度评分。
基于以上步骤,本申请实施例能够有效提取和理解多轮对话文本中的语义信息,具体通过获取目标数字化企业服务的范例对话文本数据,并利用文本数据挖掘网络中的文本语义解析单元,从各个范例对话文本中提取出第一文本语义向量序列。同时,它将这些对话文本分类为监督学习对话文本和非监督学习对话文本,进而实现上下文和整体语义嵌入表示的生成。此外,还针对非监督学习对话文本,依据其上下文语义向量序列和整体文本语义向量序列,找出与之相关性最大的范例对话文本,有助于更准确地识别和理解非监督学习对话文本的语义内容。此外,通过筛选非监督学习对话文本,并结合相应的范例对话文本确定混合训练Loss函数值,实现了对文本数据挖掘网络进行参数学习,优化了网络性能。最后,根据目标多轮服务对话文本的目标文本语义向量序列,确定该对话文本属于不同服务需求意图的置信度评分,从而有效实现服务需求意图的识别和挖掘。这种方法能够提高文本数据挖掘网络对服务对话文本中服务需求意图的理解和把握,进一步提升服务质量。
在一种可能的实施方式中,所述步骤S130可以包括:
步骤S131,依据所述X个范例多轮对话文本中每两个范例对话文本的上下文语义向量序列,确定所述每两个范例对话文本之间的上下文相关性,以及依据所述每两个范例对话文本的整体文本语义向量序列,确定所述每两个范例对话文本之间的整体相关性。
例如,假设有50个范例多轮对话文本,需要确定它们之间的上下文相关性和整体相关性。首先,可以使用上下文语义向量序列来计算每两个范例对话文本之间的上下文相关性。例如,可以计算范例对话文本1和范例对话文本2之间的上下文相关性,以及范例对话文本3和范例对话文本4之间的上下文相关性。同样,可以使用整体文本语义向量序列来计算每两个范例对话文本之间的整体相关性。例如,可以计算范例对话文本1和范例对话文本2之间的整体相关性,以及范例对话文本3和范例对话文本4之间的整体相关性。
步骤S132,依据所述第x个非监督学习对话文本与所述X-1个范例多轮对话文本中各个范例多轮对话文本之间的上下文相关性,在所述X-1个范例多轮对话文本中提取与所述第x个非监督学习对话文本的上下文相关性最大的第一范例对话文本。
步骤S133,依据所述第x个非监督学习对话文本与所述X-1个范例多轮对话文本中各个范例多轮对话文本之间的整体相关性,在所述X-1个范例多轮对话文本中提取与所述第x个非监督学习对话文本的整体相关性最大的第二范例对话文本。
示例性的,假设有N个范例对话文本,每个范例对话文本有M个句子。可以使用以下公式计算每两个范例对话文本之间的上下文相关性:
Context_similarity(d1, d2) = dot_product(u1, u2) / (||u1|| * ||u2||)
其中,d1和d2是两个范例对话文本,u1和u2分别是这两个范例对话文本的上下文语义向量序列。dot_product(u1, u2)表示向量u1和u2的点积,||u1||和||u2||分别表示向量u1和u2的模。
具体来说,可以先使用上下文语义解析单元将每个范例对话文本转换为上下文语义向量序列。然后,可以使用上述公式计算每两个范例对话文本之间的上下文相关性。
在此基础上,可以使用以下公式计算每两个范例对话文本之间的整体相关性:
Overall_similarity(d1, d2) = dot_product(v1, v2) / (||v1|| * ||v2||)
其中,d1和d2是两个范例对话文本,v1和v2分别是这两个范例对话文本的整体文本语义向量序列。dot_product(v1, v2)表示向量v1和v2的点积,||v1||和||v2||分别表示向量v1和v2的模。
具体来说,可以先使用上下文语义解析单元将每个范例对话文本转换为整体文本语义向量序列。然后,可以使用上述公式计算每两个范例对话文本之间的整体相关性。
在已经确定了第x个非监督学习对话文本与X-1个范例多轮对话文本中各个范例多轮对话文本之间的上下文相关性。可以使用以下公式提取与第x个非监督学习对话文本的上下文相关性最大的第一范例对话文本:
First_example = argmax(Context_similarity(x, d))
其中,x是第x个非监督学习对话文本,d是X-1个范例多轮对话文本中的任意一个范例对话文本,argmax()函数返回使得Context_similarity(x, d)最大的d的值。
具体来说,可以遍历X-1个范例多轮对话文本,计算每个范例对话文本与第x个非监督学习对话文本之间的上下文相关性,然后选择相关性最大的范例对话文本作为第一范例对话文本。
在已经确定了第x个非监督学习对话文本与X-1个范例多轮对话文本中各个范例多轮对话文本之间的整体相关性。可以使用以下公式提取与第x个非监督学习对话文本的整体相关性最大的第二范例对话文本:
Second_example = argmax(Overall_similarity(x, d))
其中,x是第x个非监督学习对话文本,d是X-1个范例多轮对话文本中的任意一个范例对话文本,argmax()函数返回使得Overall_similarity(x, d)最大的d的值。
具体来说,可以遍历X-1个范例多轮对话文本,计算每个范例对话文本与第x个非监督学习对话文本之间的整体相关性,然后选择相关性最大的范例对话文本作为第二范例对话文本。
在一种可能的实施方式中,所述步骤S131可以包括:
步骤S1311,针对所述X个范例多轮对话文本中的第y个范例多轮对话文本和第z个范例多轮对话文本,依据所述第y个范例多轮对话文本的上下文语义向量序列,确定所述第y个范例多轮对话文本的上下文关注系数,以及依据所述第z个范例多轮对话文本的上下文语义向量序列,确定所述第z个范例多轮对话文本的上下文关注系数,所述y和z均为不大于X的正整数,且y不等于X。
步骤S1312,依据所述第y个范例多轮对话文本的上下文语义向量序列和上下文关注系数,以及所述第z个范例多轮对话文本的上下文语义向量序列和上下文关注系数,确定所述第y个范例多轮对话文本与所述第z个范例多轮对话文本之间的上下文相关性。
例如,假设有5个范例多轮对话文本,需要确定它们之间的上下文相关性。现在,选择第y个范例多轮对话文本和第z个范例多轮对话文本。可以使用上下文语义解析单元将第y个范例多轮对话文本转换为上下文语义向量序列。然后,可以使用以下公式确定第y个范例多轮对话文本的上下文关注系数:
Context_attention(y) = softmax(u_y * T)
其中,u_y是第y个范例多轮对话文本的上下文语义向量序列,T是一个单位矩阵,softmax()函数将向量转换为概率分布。
具体来说,可以将第y个范例多轮对话文本的上下文语义向量序列乘以单位矩阵T,然后将结果输入softmax()函数,得到一个概率分布。这个概率分布表示第y个范例多轮对话文本的各个句子在上下文中的重要性。
与前述步骤类似,可以使用上下文语义解析单元将第z个范例多轮对话文本转换为上下文语义向量序列。然后,可以使用以下公式确定第z个范例多轮对话文本的上下文关注系数:
Context_attention(z) = softmax(u_z * T)
其中,u_z是第z个范例多轮对话文本的上下文语义向量序列,T是一个单位矩阵,softmax()函数将向量转换为概率分布。
具体来说,可以将第z个范例多轮对话文本的上下文语义向量序列乘以单位矩阵T,然后将结果输入softmax()函数,得到一个概率分布。这个概率分布表示第z个范例多轮对话文本的各个句子在上下文中的重要性。
现在,已经确定了第y个范例多轮对话文本和第z个范例多轮对话文本的上下文语义向量序列和上下文关注系数。可以使用以下公式确定第y个范例多轮对话文本与第z个范例多轮对话文本之间的上下文相关性:
Context_similarity(y, z) = dot_product(u_y, u_z) * Context_attention(y) * Context_attention(z)
其中,u_y是第y个范例多轮对话文本的上下文语义向量序列,u_z是第z个范例多轮对话文本的上下文语义向量序列,Context_attention(y)是第y个范例多轮对话文本的上下文关注系数,Context_attention(z)是第z个范例多轮对话文本的上下文关注系数,dot_product()函数计算两个向量的点积。
具体来说,可以将第y个范例多轮对话文本的上下文语义向量序列和第z个范例多轮对话文本的上下文语义向量序列进行点积计算,然后乘以第y个范例多轮对话文本和第z个范例多轮对话文本的上下文关注系数,得到第y个范例多轮对话文本与第z个范例多轮对话文本之间的上下文相关性。
在一种可能的实施方式中,所述步骤S140可以包括:
步骤S1411,针对所述Q个第一非监督学习对话文本中的各个第一非监督学习对话文本,依据所述第一非监督学习对话文本的整体文本语义向量序列和所述第一非监督学习对话文本对应的第二范例对话文本的整体文本语义向量序列,确定所述第一非监督学习对话文本的第一训练代价参数。
例如,假设有5个第一非监督学习对话文本,需要确定它们的第一训练代价参数。对于每个第一非监督学习对话文本,可以使用文本语义解析单元将其转换为整体文本语义向量序列。然后,可以使用以下公式确定第一非监督学习对话文本的第一训练代价参数:
Training_cost(i) = ||v_i - w_i||^2
其中,v_i是第一非监督学习对话文本的整体文本语义向量序列,w_i是第一非监督学习对话文本对应的第二范例对话文本的整体文本语义向量序列,i为不大于Q的正整数。
具体来说,可以计算第一非监督学习对话文本的整体文本语义向量序列和第二范例对话文本的整体文本语义向量序列之间的差值,然后计算差值的平方。这个平方差值就是第一非监督学习对话文本的第一训练代价参数。
步骤S1412,依据所述Q个第一非监督学习对话文本中各个第一非监督学习对话文本对应的第一训练代价参数,确定非监督训练代价参数。
例如,现在,已经确定了Q个第一非监督学习对话文本的第一训练代价参数。可以使用以下公式确定非监督训练代价参数:
Unsupervised_training_cost = sum(Training_cost(i))
其中,Training_cost(i)是第一非监督学习对话文本的第一训练代价参数,i为不大于Q的正整数。
具体来说,可以将Q个第一非监督学习对话文本的第一训练代价参数相加,得到非监督训练代价参数。
步骤S1413,针对所述Y个监督学习对话文本中的各个监督学习对话文本,若在所述Y个监督学习对话文本中除所述监督学习对话文本外的Y-1个监督学习对话文本中,存在与所述监督学习对话文本的标注服务意图数据相同的第三范例对话文本时,则依据所述监督学习对话文本的整体文本语义向量序列和所述第三范例对话文本的整体文本语义向量序列,确定所述监督学习对话文本的第二训练代价参数,依据至少一个监督学习对话文本的第二训练代价参数,确定监督训练代价参数。
例如,假设有5个监督学习对话文本,需要确定它们的第二训练代价参数。对于每个监督学习对话文本,可以使用文本语义解析单元将其转换为整体文本语义向量序列。然后,可以使用以下公式确定监督学习对话文本的第二训练代价参数:
Training_cost(j) = ||v_j - w_j||^2
其中,v_j是监督学习对话文本的整体文本语义向量序列,w_j是与监督学习对话文本的标注服务意图数据相同的第三范例对话文本的整体文本语义向量序列,j为不大于Y的正整数。
具体来说,可以计算监督学习对话文本的整体文本语义向量序列和第三范例对话文本的整体文本语义向量序列之间的差值,然后计算差值的平方。这个平方差值就是监督学习对话文本的第二训练代价参数,并作为所述监督训练代价参数。
步骤S1414,依据所述非监督训练代价参数和所述监督训练代价参数,生成第一Loss函数值。
现在,已经确定了非监督训练代价参数和监督训练代价参数。可以使用以下公式生成第一Loss函数值:
Loss(x) = a * Unsupervised_training_cost + b * Supervised_training_cost
其中,Unsupervised_training_cost是非监督训练代价参数,Supervised_training_cost是监督训练代价参数,a和b是超参数。
具体来说,可以将非监督训练代价参数和监督训练代价参数相加,得到第一Loss函数值。
步骤S1415,依据所述文本数据挖掘网络中的全连接层,对所述X个范例多轮对话文本中各个范例多轮对话文本的第一文本语义向量序列进行处理,生成所述X个范例多轮对话文本中的各个范例多轮对话文本属于M种服务需求意图的第一置信度评分,依据所述X个范例多轮对话文本中至少一个范例多轮对话文本的第一置信度评分,确定第二Loss函数值,所述M为大于1的正整数。
步骤S1416,依据所述第一Loss函数值和所述第二Loss函数值,确定所述混合训练Loss函数值。
例如,已经得到了第一Loss函数值 L1 和第二Loss函数值 L2,然后可以选择两个超参数 alpha 和 beta(它们的值可以根据实验结果或者领域知识来确定),最后计算混合训练Loss函数值如下:
Mixed_training_loss = alpha * L1 + beta * L2
这里,alpha 和 beta 是权重系数,表示在优化过程中对第一Loss函数值和第二Loss函数值的重视程度。比如,如果认为第一Loss函数值更重要,那么可以设置 alpha >beta。
这个混合训练Loss函数值反映了文本数据挖掘网络在处理有标签数据(通过第一Loss函数值)和无标签数据(通过第二Loss函数值)时的总体性能。在训练过程中,目标就是找到能够最小化这个混合训练Loss函数值的文本数据挖掘网络的相关网络参数。
在一种可能的实施方式中,所述第二Loss函数值可以包括第一成员Loss函数值,步骤S1415中,依据所述X个范例多轮对话文本中至少一个范例多轮对话文本的第一置信度评分,确定第二Loss函数值,包括:
1、对所述Z个非监督学习对话文本中各个非监督学习对话文本的第一置信度评分进行假设监督标记训练,生成所述Z个非监督学习对话文本中各个非监督学习对话文本的第一模糊服务意图标注数据。
2、依据所述Z个非监督学习对话文本中各个非监督学习对话文本的第一模糊服务意图标注数据和所述第一置信度评分,生成所述第一成员Loss函数值。
例如,在这个过程中,非监督学习对话文本的第一置信度评分被用来进行假设监督标记训练。这意味着基于文本数据挖掘网络对每个非监督学习对话文本产生的预测(即第一置信度评分)为其生成一个模糊的服务意图标签,这就是所谓的第一模糊服务意图标注数据。
例如,假设有一个非监督学习对话文本,文本数据挖掘网络给出的预测(即第一置信度评分)为:服务意图A的概率为0.7,服务意图B的概率为0.2,服务意图C的概率为0.1。那么,可以将这个预测转换为一个模糊的服务意图标签,比如:{服务A: 0.7, 服务B: 0.2,服务C: 0.1}。
接下来,根据非监督学习对话文本的第一模糊服务意图标注数据和文本数据挖掘网络给出的第一置信度评分,计算第一成员Loss函数值。这通常涉及到计算这两者之间的某种距离或差异,比如交叉熵损失。
在具体实施时,这个过程会针对Z个非监督学习对话文本中的每一个都进行一遍,然后将得到的所有第一成员Loss函数值汇总起来(比如求平均或者求和),从而得到最终的第二Loss函数值。
通过这种方式,可以在训练过程中利用无标签数据(即非监督学习对话文本)来改进文本数据挖掘网络的预测性能。
在一种可能的实施方式中,所述依据所述Z个非监督学习对话文本中各个非监督学习对话文本的第一模糊服务意图标注数据和所述第一置信度评分,生成所述第一成员Loss函数值,包括:
1、确定所述第x个非监督学习对话文本的第一模糊服务意图标注数据中,置信度评分最大的第一服务需求意图。
2、将所述第x个非监督学习对话文本的第一置信度评分中,所述第一服务需求意图对应的置信度评分,输出为所述第x个非监督学习对话文本的训练学习指标。
3、将所述第x个非监督学习对话文本的第一模糊服务意图标注数据和所述第一置信度评分进行点乘,生成目标参数值,将所述目标参数值进行对数运算后与所述第x个非监督学习对话文本的训练学习指标进行乘积运算,生成所述第x个非监督学习对话文本对应的第三训练代价参数。
4、依据所述Z个非监督学习对话文本中各个非监督学习对话文本对应的第三训练代价参数,生成所述第一成员Loss函数值。
例如,在一个客服聊天机器人系统中,每条非监督学习对话文本都会被预测出多种可能的服务需求意图,并给出相应的置信度评分。例如,一条对话文本可能被预测为"账户查询"、"余额查询"等多种意图,且每种意图都有一个置信度评分。在这个步骤中,选择置信度评分最大的那个服务需求意图,比如"余额查询"。
在选定了置信度评分最大的服务需求意图后,将该置信度评分作为该对话文本的训练学习指标。这个训练学习指标代表了模型对于该对话文本服务需求意图的预测置信度。
将对话文本的模糊服务意图标注数据(即各种可能的服务需求意图的置信度)和对应的置信度评分进行点乘,生成一个目标参数值。然后,对这个目标参数值进行对数运算,并与前一步得到的训练学习指标进行乘积运算,最终得到的结果就是第x个非监督学习对话文本对应的训练代价参数。这个训练代价参数反映了网络预测的准确性以及对不同预测结果的惩罚程度。
在处理完所有的非监督学习对话文本后,可以收集所有非监督学习对话文本的第三训练代价参数,然后根据这些第三训练代价参数生成最终的第一成员Loss函数值。这个第一成员Loss函数值是评估整个文本数据挖掘网络在预测服务需求意图上的总体表现,通常情况下,训练过程就是试图最小化这个Loss函数值,以此来提高文本数据挖掘网络的预测性能。
在一种可能的实施方式中,所述第二Loss函数值包括第二成员Loss函数值,依据所述X个范例多轮对话文本中至少一个范例多轮对话文本的第一置信度评分,确定第二Loss函数值,包括:依据所述Y个监督学习对话文本中各个监督学习对话文本的第一置信度评分和标注服务意图数据,确定所述第二成员Loss函数值。
在一种可能的实施方式中,所述第二Loss函数值包括第三成员Loss函数值,依据所述X个范例多轮对话文本中至少一个范例多轮对话文本的第一置信度评分,确定第二Loss函数值,包括:依据所述X个范例多轮对话文本中各个范例多轮对话文本的第一置信度评分,确定所述第三成员Loss函数值。
依据所述X个范例多轮对话文本中各个范例多轮对话文本对应的置信度评分,确定所述第三成员Loss函数值,包括:依据所述X个范例多轮对话文本中各个范例多轮对话文本的第一置信度评分,确定所述X个范例多轮对话文本的平均置信度评分。 针对所述X个范例多轮对话文本中的各个范例多轮对话文本,确定所述范例多轮对话文本的第一置信度评分和所述平均置信度评分之间的离散程度值。依据所述X个范例多轮对话文本中各个范例多轮对话文本对应的离散程度值,确定所述第三成员Loss函数值。
在一种可能的实施方式中,在步骤S110中依据文本数据挖掘网络中的文本语义解析单元,提取所述X个范例多轮对话文本中各个范例多轮对话文本的第一文本语义向量序列之前,可以使用所述Y个监督学习对话文本,对所述文本数据挖掘网络进行初始化参数学习。
由此,依据文本数据挖掘网络中的文本语义解析单元,提取所述X个范例多轮对话文本中各个范例多轮对话文本的第一文本语义向量序列,包括:通过初始化参数学习后的所述文本数据挖掘网络中的文本语义解析单元,提取所述X个范例多轮对话文本中各个范例多轮对话文本的第一文本语义向量序列。
在依据所述混合训练Loss函数值对所述文本数据挖掘网络进行参数学习之后,可以对所述Z个非监督学习对话文本进行聚类,生成所述Z个非监督学习对话文本中各个非监督学习对话文本的第二模糊服务意图标注数据。然后,依据所述Y个监督学习对话文本,以及所述Z个非监督学习对话文本和第二模糊服务意图标注数据,对依据所述混合训练Loss函数值进行参数学习后的所述文本数据挖掘网络进行进阶参数学习。
图2示意性地示出了可被用于实现本申请中所述的各个实施例的基于人工智能的数字化企业服务数据挖掘系统100。
对于一个实施例,图2示出了基于人工智能的数字化企业服务数据挖掘系统100,该基于人工智能的数字化企业服务数据挖掘系统100具有多个处理器102、被耦合到(多个)处理器102中的一个或多个的控制模块(芯片组)104、被耦合到控制模块104的存储器106、被耦合到控制模块104的非易失性存储器(NVM)/存储设备108、被耦合到控制模块104的多个输入/输出设备110,和被耦合到控制模块104的网络接口112。
处理器102可包括多个单核或多核处理器,处理器102可包括通用处理器或专用处理器(例如图形处理器、应用处理器、基频处理器等)的任意组合。一些可替代的实施方式中,基于人工智能的数字化企业服务数据挖掘系统100能够作为本申请实施例中所述网关等服务器设备。
一些可替代的实施方式中,基于人工智能的数字化企业服务数据挖掘系统100可包括具有指令114的多个计算机可读介质(例如,存储器106或NVM/存储设备108)和与该多个计算机可读介质相合并被配置为执行指令114以实现模块从而执行本公开中所述的动作的多个处理器102。
对于一个实施例,控制模块104可包括任意适当的接口控制器,以向(多个)处理器102中的一个或多个和/或与控制模块104通信的任意适当的设备或组件提供任意适当的接口。
控制模块104可包括存储器控制器模块,以向存储器106提供接口。存储器控制器模块可以是硬件模块、软件模块和/或固件模块。
存储器106可被用于例如为基于人工智能的数字化企业服务数据挖掘系统100加载和存储数据和/或指令114。对于一个实施例,存储器106可包括任意适当的易失性存储器,例如,适当的DRAM。一些可替代的实施方式中,存储器106可包括双倍数据速率类型四同步动态随机存取存储器。
对于一个实施例,控制模块104可包括多个输入/输出控制器,以向NVM/存储设备108及(多个)输入/输出设备110提供接口。
例如,NVM/存储设备108可被用于存储数据和/或指令114。NVM/存储设备108可包括任意适当的非易失性存储器(例如,闪存)和/或可包括任意适当的(多个)非易失性存储设备。
NVM/存储设备108可包括在物理上作为基于人工智能的数字化企业服务数据挖掘系统100被安装在其上的设备的一部分的存储资源,或者其可被该设备访问可不必作为该设备的一部分。例如,NVM/存储设备108可结合网络经由(多个)输入/输出设备110进行访问。
(多个)输入/输出设备110可为基于人工智能的数字化企业服务数据挖掘系统100提供接口以与任意其它适当的设备通信,输入/输出设备110可以包括通信组件、拼音组件、传感器组件等。网络接口112可为基于人工智能的数字化企业服务数据挖掘系统100提供接口以依据多个网络通信,基于人工智能的数字化企业服务数据挖掘系统100可依据多个无线网络标准和/或协议中的任意标准和/或协议来与无线网络的多个组件进行无线通信,例如接入依据通信标准的无线网络,如WiFi、2G、3G、4G、5G等,或它们的组合进行无线通信。
对于一个实施例,(多个)处理器102中的一个或多个可与控制模块104的多个控制器(例如,存储器控制器模块)的逻辑封装在一起。对于一个实施例,(多个)处理器102中的一个或多个可与控制模块104的多个控制器的逻辑封装在一起以形成系统级封装。对于一个实施例,(多个)处理器102中的一个或多个可与控制模块104的多个控制器的逻辑集成在同一模具上。对于一个实施例,(多个)处理器102中的一个或多个可与控制模块104的多个控制器的逻辑集成在同一模具上以形成片上系统。
在各个实施例中,基于人工智能的数字化企业服务数据挖掘系统100可以但不限于是:台式计算设备或移动计算设备(例如,膝上型计算设备、手持计算设备、平板电脑、上网本等)等终端设备。在各个实施例中,基于人工智能的数字化企业服务数据挖掘系统100可具有更多或更少的组件和/或不同的架构。例如,一些可替代的实施方式中,基于人工智能的数字化企业服务数据挖掘系统100包括多个摄像机、键盘、液晶显示器屏幕(包括触屏显示器)、非易失性存储器端口、多个天线、图形芯片、专用集成电路和扬声器。
以上对本申请进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。

Claims (10)

1.一种基于人工智能的数字化企业服务数据挖掘方法,其特征在于,所述方法包括:
获取范例对话文本服务对话文本数据中的X个范例多轮对话文本,并依据文本数据挖掘网络中的文本语义解析单元,提取所述X个范例多轮对话文本中各个范例多轮对话文本的第一文本语义向量序列,所述范例对话文本服务对话文本数据为在本轮训练阶段中针对目标数字化企业服务的对话文本服务对话文本数据,所述X个范例多轮对话文本包括Y个监督学习对话文本和Z个非监督学习对话文本,Y和Z为大于0的整数,且X等于Y与Z的相加值,所述文本数据挖掘网络用于对多轮服务对话文本中关键对话节点的服务需求意图进行挖掘;
对所述各个范例多轮对话文本的第一文本语义向量序列分别进行上下文和整体语义嵌入表示,生成所述各个范例多轮对话文本的上下文语义向量序列和整体文本语义向量序列;
针对所述Z个非监督学习对话文本中的第x个非监督学习对话文本,依据所述上下文语义向量序列和所述整体文本语义向量序列,在所述X个范例多轮对话文本中除所述第x个非监督学习对话文本外的X-1个范例多轮对话文本中,确定与所述第x个非监督学习对话文本的上下文相关性最大的第一范例对话文本,以及与所述第x个非监督学习对话文本的整体相关性最大的第二范例对话文本,所述x为不大于Z的正整数;
从所述Z个非监督学习对话文本中筛选Q个第一非监督学习对话文本,依据所述Q个第一非监督学习对话文本的整体文本语义向量序列以及对应的第二范例对话文本的整体文本语义向量序列,确定所述文本数据挖掘网络的混合训练Loss函数值,并依据所述混合训练Loss函数值对所述文本数据挖掘网络进行参数学习,所述第一非监督学习对话文本为对应的第一范例对话文本和对应的第二范例对话文本相同的非监督学习对话文本;
依据文本数据挖掘网络中的文本语义解析单元,获取待进行服务意图挖掘的目标多轮服务对话文本的目标文本语义向量序列,依据所述目标文本语义向量序列,确定所述目标多轮服务对话文本属于M种服务需求意图的置信度评分,所述M为不小于2的正整数。
2.根据权利要求1所述的基于人工智能的数字化企业服务数据挖掘方法,其特征在于,所述依据所述上下文语义向量序列和所述整体文本语义向量序列,在所述X个范例多轮对话文本中除所述第x个非监督学习对话文本外的X-1个范例多轮对话文本中,确定与所述第x个非监督学习对话文本的上下文相关性最大的第一范例对话文本,以及与所述第x个非监督学习对话文本的整体相关性最大的第二范例对话文本,包括:
依据所述X个范例多轮对话文本中每两个范例对话文本的上下文语义向量序列,确定所述每两个范例对话文本之间的上下文相关性,以及依据所述每两个范例对话文本的整体文本语义向量序列,确定所述每两个范例对话文本之间的整体相关性;
依据所述第x个非监督学习对话文本与所述X-1个范例多轮对话文本中各个范例多轮对话文本之间的上下文相关性,在所述X-1个范例多轮对话文本中提取与所述第x个非监督学习对话文本的上下文相关性最大的第一范例对话文本;
依据所述第x个非监督学习对话文本与所述X-1个范例多轮对话文本中各个范例多轮对话文本之间的整体相关性,在所述X-1个范例多轮对话文本中提取与所述第x个非监督学习对话文本的整体相关性最大的第二范例对话文本。
3.根据权利要求2所述的基于人工智能的数字化企业服务数据挖掘方法,其特征在于,所述依据所述X个范例多轮对话文本中每两个范例对话文本的上下文语义向量序列,确定所述每两个范例对话文本之间的上下文相关性,包括:
针对所述X个范例多轮对话文本中的第y个范例多轮对话文本和第z个范例多轮对话文本,依据所述第y个范例多轮对话文本的上下文语义向量序列,确定所述第y个范例多轮对话文本的上下文关注系数,以及依据所述第z个范例多轮对话文本的上下文语义向量序列,确定所述第z个范例多轮对话文本的上下文关注系数,所述y和z均为不大于X的正整数,且y不等于X;
依据所述第y个范例多轮对话文本的上下文语义向量序列和上下文关注系数,以及所述第z个范例多轮对话文本的上下文语义向量序列和上下文关注系数,确定所述第y个范例多轮对话文本与所述第z个范例多轮对话文本之间的上下文相关性。
4.根据权利要求1所述的基于人工智能的数字化企业服务数据挖掘方法,其特征在于,所述依据所述Q个第一非监督学习对话文本的整体文本语义向量序列以及对应的第二范例对话文本的整体文本语义向量序列,确定所述文本数据挖掘网络的混合训练Loss函数值,包括:
针对所述Q个第一非监督学习对话文本中的各个第一非监督学习对话文本,依据所述第一非监督学习对话文本的整体文本语义向量序列和所述第一非监督学习对话文本对应的第二范例对话文本的整体文本语义向量序列,确定所述第一非监督学习对话文本的第一训练代价参数;
依据所述Q个第一非监督学习对话文本中各个第一非监督学习对话文本对应的第一训练代价参数,确定非监督训练代价参数;
针对所述Y个监督学习对话文本中的各个监督学习对话文本,若在所述Y个监督学习对话文本中除所述监督学习对话文本外的Y-1个监督学习对话文本中,存在与所述监督学习对话文本的标注服务意图数据相同的第三范例对话文本时,则依据所述监督学习对话文本的整体文本语义向量序列和所述第三范例对话文本的整体文本语义向量序列,确定所述监督学习对话文本的第二训练代价参数,依据至少一个监督学习对话文本的第二训练代价参数,确定监督训练代价参数;
依据所述非监督训练代价参数和所述监督训练代价参数,生成第一Loss函数值;
依据所述文本数据挖掘网络中的全连接层,对所述X个范例多轮对话文本中各个范例多轮对话文本的第一文本语义向量序列进行处理,生成所述X个范例多轮对话文本中的各个范例多轮对话文本属于M种服务需求意图的第一置信度评分,依据所述X个范例多轮对话文本中至少一个范例多轮对话文本的第一置信度评分,确定第二Loss函数值,所述M为大于1的正整数;
依据所述第一Loss函数值和所述第二Loss函数值,确定所述混合训练Loss函数值。
5.根据权利要求4所述的基于人工智能的数字化企业服务数据挖掘方法,其特征在于,所述第二Loss函数值包括第一成员Loss函数值,所述依据所述X个范例多轮对话文本中至少一个范例多轮对话文本的第一置信度评分,确定第二Loss函数值,包括:
对所述Z个非监督学习对话文本中各个非监督学习对话文本的第一置信度评分进行假设监督标记训练,生成所述Z个非监督学习对话文本中各个非监督学习对话文本的第一模糊服务意图标注数据;
依据所述Z个非监督学习对话文本中各个非监督学习对话文本的第一模糊服务意图标注数据和所述第一置信度评分,生成所述第一成员Loss函数值。
6.根据权利要求5所述的基于人工智能的数字化企业服务数据挖掘方法,其特征在于,所述依据所述Z个非监督学习对话文本中各个非监督学习对话文本的第一模糊服务意图标注数据和所述第一置信度评分,生成所述第一成员Loss函数值,包括:
确定所述第x个非监督学习对话文本的第一模糊服务意图标注数据中,置信度评分最大的第一服务需求意图;
将所述第x个非监督学习对话文本的第一置信度评分中,所述第一服务需求意图对应的置信度评分,输出为所述第x个非监督学习对话文本的训练学习指标;
将所述第x个非监督学习对话文本的第一模糊服务意图标注数据和所述第一置信度评分进行点乘,生成目标参数值,将所述目标参数值进行对数运算后与所述第x个非监督学习对话文本的训练学习指标进行乘积运算,生成所述第x个非监督学习对话文本对应的第三训练代价参数;
依据所述Z个非监督学习对话文本中各个非监督学习对话文本对应的第三训练代价参数,生成所述第一成员Loss函数值。
7.根据权利要求4所述的基于人工智能的数字化企业服务数据挖掘方法,其特征在于,所述第二Loss函数值包括第二成员Loss函数值,所述依据所述X个范例多轮对话文本中至少一个范例多轮对话文本的第一置信度评分,确定第二Loss函数值,包括:
依据所述Y个监督学习对话文本中各个监督学习对话文本的第一置信度评分和标注服务意图数据,确定所述第二成员Loss函数值。
8.根据权利要求4所述的基于人工智能的数字化企业服务数据挖掘方法,其特征在于,所述第二Loss函数值包括第三成员Loss函数值,所述依据所述X个范例多轮对话文本中至少一个范例多轮对话文本的第一置信度评分,确定第二Loss函数值,包括:
依据所述X个范例多轮对话文本中各个范例多轮对话文本的第一置信度评分,确定所述第三成员Loss函数值;
所述依据所述X个范例多轮对话文本中各个范例多轮对话文本对应的置信度评分,确定所述第三成员Loss函数值,包括:
依据所述X个范例多轮对话文本中各个范例多轮对话文本的第一置信度评分,确定所述X个范例多轮对话文本的平均置信度评分;
针对所述X个范例多轮对话文本中的各个范例多轮对话文本,确定所述范例多轮对话文本的第一置信度评分和所述平均置信度评分之间的离散程度值;
依据所述X个范例多轮对话文本中各个范例多轮对话文本对应的离散程度值,确定所述第三成员Loss函数值。
9.根据权利要求1所述的基于人工智能的数字化企业服务数据挖掘方法,其特征在于,所述依据文本数据挖掘网络中的文本语义解析单元,提取所述X个范例多轮对话文本中各个范例多轮对话文本的第一文本语义向量序列之前,所述方法还包括:
使用所述Y个监督学习对话文本,对所述文本数据挖掘网络进行初始化参数学习;
所述依据文本数据挖掘网络中的文本语义解析单元,提取所述X个范例多轮对话文本中各个范例多轮对话文本的第一文本语义向量序列,包括:
通过初始化参数学习后的所述文本数据挖掘网络中的文本语义解析单元,提取所述X个范例多轮对话文本中各个范例多轮对话文本的第一文本语义向量序列;
在所述依据所述混合训练Loss函数值对所述文本数据挖掘网络进行参数学习之后,所述方法还包括:
对所述Z个非监督学习对话文本进行聚类,生成所述Z个非监督学习对话文本中各个非监督学习对话文本的第二模糊服务意图标注数据;
依据所述Y个监督学习对话文本,以及所述Z个非监督学习对话文本和第二模糊服务意图标注数据,对依据所述混合训练Loss函数值进行参数学习后的所述文本数据挖掘网络进行进阶参数学习。
10.一种基于人工智能的数字化企业服务数据挖掘系统,其特征在于,所述基于人工智能的数字化企业服务数据挖掘系统包括处理器和机器可读存储介质,该机器可读存储介质中存储有机器可执行指令,该机器可执行指令由该处理器加载并执行以实现权利要求1-9中任意一项所述的基于人工智能的数字化企业服务数据挖掘方法。
CN202410078421.XA 2024-01-19 2024-01-19 基于人工智能的数字化企业服务数据挖掘方法及系统 Active CN117591662B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410078421.XA CN117591662B (zh) 2024-01-19 2024-01-19 基于人工智能的数字化企业服务数据挖掘方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410078421.XA CN117591662B (zh) 2024-01-19 2024-01-19 基于人工智能的数字化企业服务数据挖掘方法及系统

Publications (2)

Publication Number Publication Date
CN117591662A CN117591662A (zh) 2024-02-23
CN117591662B true CN117591662B (zh) 2024-03-29

Family

ID=89913755

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410078421.XA Active CN117591662B (zh) 2024-01-19 2024-01-19 基于人工智能的数字化企业服务数据挖掘方法及系统

Country Status (1)

Country Link
CN (1) CN117591662B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118484480A (zh) * 2024-05-21 2024-08-13 云竞(上海)电子科技有限公司 基于人工智能的供应链结算反馈大数据分析方法及系统

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106202010A (zh) * 2016-07-12 2016-12-07 重庆兆光科技股份有限公司 基于深度神经网络构建法律文本语法树的方法和装置
CN108829662A (zh) * 2018-05-10 2018-11-16 浙江大学 一种基于条件随机场结构化注意力网络的对话行为识别方法及系统
CN110209793A (zh) * 2019-06-18 2019-09-06 佰聆数据股份有限公司 一种用于智能识别文本语义的方法
CN111177338A (zh) * 2019-12-03 2020-05-19 北京博瑞彤芸科技股份有限公司 一种基于上下文的多轮对话方法
CN112163428A (zh) * 2020-09-18 2021-01-01 中国人民大学 语义标签的获取方法、装置、节点设备及存储介质
CN114254653A (zh) * 2021-12-23 2022-03-29 深圳供电局有限公司 一种科技项目文本语义抽取与表示分析方法
CN114254655A (zh) * 2022-02-28 2022-03-29 南京众智维信息科技有限公司 一种基于提示自监督学习网络安全溯源语义识别方法
CN114661910A (zh) * 2022-03-25 2022-06-24 平安科技(深圳)有限公司 一种意图识别方法、装置、电子设备及存储介质
CN115510186A (zh) * 2022-09-14 2022-12-23 中国平安财产保险股份有限公司 基于意图识别的即时问答方法、装置、设备及存储介质
CN115982323A (zh) * 2023-02-21 2023-04-18 边境 应用于云端在线服务的大数据分析方法及人工智能系统
CN116186288A (zh) * 2023-02-20 2023-05-30 上海市大数据股份有限公司 一种基于地点和语义的知识图谱反馈方法
CN117151863A (zh) * 2023-09-13 2023-12-01 武汉荟炬传媒科技有限公司 基于供应链金融会话的可视化风控判别方法及大数据系统
CN117251547A (zh) * 2023-09-28 2023-12-19 广州商研网络科技有限公司 用户提问应答方法及其装置、设备、介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8873813B2 (en) * 2012-09-17 2014-10-28 Z Advanced Computing, Inc. Application of Z-webs and Z-factors to analytics, search engine, learning, recognition, natural language, and other utilities
CN114722839B (zh) * 2022-06-01 2022-10-11 阿里巴巴达摩院(杭州)科技有限公司 人机协同对话交互系统及方法

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106202010A (zh) * 2016-07-12 2016-12-07 重庆兆光科技股份有限公司 基于深度神经网络构建法律文本语法树的方法和装置
CN108829662A (zh) * 2018-05-10 2018-11-16 浙江大学 一种基于条件随机场结构化注意力网络的对话行为识别方法及系统
CN110209793A (zh) * 2019-06-18 2019-09-06 佰聆数据股份有限公司 一种用于智能识别文本语义的方法
CN111177338A (zh) * 2019-12-03 2020-05-19 北京博瑞彤芸科技股份有限公司 一种基于上下文的多轮对话方法
CN112163428A (zh) * 2020-09-18 2021-01-01 中国人民大学 语义标签的获取方法、装置、节点设备及存储介质
CN114254653A (zh) * 2021-12-23 2022-03-29 深圳供电局有限公司 一种科技项目文本语义抽取与表示分析方法
CN114254655A (zh) * 2022-02-28 2022-03-29 南京众智维信息科技有限公司 一种基于提示自监督学习网络安全溯源语义识别方法
CN114661910A (zh) * 2022-03-25 2022-06-24 平安科技(深圳)有限公司 一种意图识别方法、装置、电子设备及存储介质
CN115510186A (zh) * 2022-09-14 2022-12-23 中国平安财产保险股份有限公司 基于意图识别的即时问答方法、装置、设备及存储介质
CN116186288A (zh) * 2023-02-20 2023-05-30 上海市大数据股份有限公司 一种基于地点和语义的知识图谱反馈方法
CN115982323A (zh) * 2023-02-21 2023-04-18 边境 应用于云端在线服务的大数据分析方法及人工智能系统
CN117151863A (zh) * 2023-09-13 2023-12-01 武汉荟炬传媒科技有限公司 基于供应链金融会话的可视化风控判别方法及大数据系统
CN117251547A (zh) * 2023-09-28 2023-12-19 广州商研网络科技有限公司 用户提问应答方法及其装置、设备、介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于半监督学习的文本分类算法研究;杜芳华;《中国优秀硕士学位论文全文数据库信息科技辑》;20150315(第3期);I140-32 *

Also Published As

Publication number Publication date
CN117591662A (zh) 2024-02-23

Similar Documents

Publication Publication Date Title
US11170257B2 (en) Image captioning with weakly-supervised attention penalty
CN111460807B (zh) 序列标注方法、装置、计算机设备和存储介质
CN111581229B (zh) Sql语句的生成方法、装置、计算机设备及存储介质
CN110580292B (zh) 一种文本标签生成方法、装置和计算机可读存储介质
CN109190120B (zh) 神经网络训练方法和装置及命名实体识别方法和装置
CN109062901B (zh) 神经网络训练方法和装置及命名实体识别方法和装置
CN110580308B (zh) 信息审核方法及装置、电子设备、存储介质
CN117591662B (zh) 基于人工智能的数字化企业服务数据挖掘方法及系统
CN112084334B (zh) 语料的标签分类方法、装置、计算机设备及存储介质
CN113240510B (zh) 异常用户预测方法、装置、设备及存储介质
CN113821616B (zh) 领域自适应的槽位填充方法、装置、设备及存储介质
CN114528845A (zh) 异常日志的分析方法、装置及电子设备
CN111967253A (zh) 一种实体消歧方法、装置、计算机设备及存储介质
CN111814496B (zh) 文本处理方法、装置、设备及存储介质
CN115130591A (zh) 一种基于交叉监督的多模态数据分类方法及装置
CN116341564A (zh) 基于语义理解的问题推理方法和装置
CN116757224A (zh) 意图理解方法、装置、设备和介质
Pan et al. Quality-aware clip for blind image quality assessment
CN115374278A (zh) 文本处理模型蒸馏方法、装置、计算机设备及介质
KR102215259B1 (ko) 주제별 단어 또는 문서의 관계성 분석 방법 및 이를 구현하는 장치
CN114491030A (zh) 技能标签的抽取、候选短语分类模型的训练方法及装置
CN113536790A (zh) 基于自然语言处理的模型训练方法及装置
CN115114902B (zh) 句子成分识别方法、装置、计算机设备和存储介质
CN113297828B (zh) 一种文本生成方法、装置、计算机设备及存储介质
CN115563933B (zh) 词编码方法、装置、存储介质与电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant