CN117592472A - 一种模型训练和业务执行方法、装置、存储介质及设备 - Google Patents

一种模型训练和业务执行方法、装置、存储介质及设备 Download PDF

Info

Publication number
CN117592472A
CN117592472A CN202311559447.8A CN202311559447A CN117592472A CN 117592472 A CN117592472 A CN 117592472A CN 202311559447 A CN202311559447 A CN 202311559447A CN 117592472 A CN117592472 A CN 117592472A
Authority
CN
China
Prior art keywords
text
speech
word
determining
word segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311559447.8A
Other languages
English (en)
Inventor
张睿
赵智源
祝慧佳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN202311559447.8A priority Critical patent/CN117592472A/zh
Publication of CN117592472A publication Critical patent/CN117592472A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/268Morphological analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Machine Translation (AREA)

Abstract

本说明书公开了一种模型训练和业务执行方法、装置、存储介质及设备。在对文本处理模型进行训练的过程中,通过设置的词性嵌入层,可以使得文本处理模型在训练过程中,学习到各分词的词性与文本语义之间的潜在关系,这使得文本处理模型在实际应用中可以结合文本中各分词的词性特征,更加精准的提取出输入文本的特征信息,从而得到更加准确的文本处理结果。

Description

一种模型训练和业务执行方法、装置、存储介质及设备
技术领域
本说明书涉及计算机技术领域,尤其涉及一种模型训练和业务执行方法、装置、存储介质及设备。
背景技术
随着人工智能的快速发展,自然语言处理(Natural Language Processing,NLP)技术已经在诸如智能客服、信息推荐、隐私数据保护等诸多领域得到了长足的应用,从而有效的提升了用户在这些业务领域中的业务执行效率以及个人信息的安全性。
目前在实际应用中通常需要训练出一个用于自然语言处理的文本处理模型,将获取到的文本数据输入到该文本处理模型中,文本处理模型会从该文本数据中提取出相应的特征信息,进而基于提取出的特征信息,输出文本处理结果。
然后,目前文本处理模型提取的特征信息并不能很好的表征出文本数据的实际特征,从而导致文本处理模型最终输出的文本处理结果并不准确,进而影响了业务处理的效果。
因此,如何能够有效的提高文本处理模型的特征提取能力,则是一个亟待解决的问题。
发明内容
本说明书提供一种模型训练方法、装置、存储介质及设备。通过确定出的样本文本的词性序列信息,结合样本文本本身,对文本处理模型进行训练。
本说明书采用下述技术方案:
本说明书提供了一种模型训练方法,包括:
获取样本文本;
对所述样本文本进行划分,得到各分词,并确定每个分词的词性;
根据每个分词的词性,确定每个分词对应的词性标识;
根据每个分词对应的词性标识,确定所述样本文本的词性序列信息;
将所述样本文本中的部分文本内容进行遮盖,得到遮盖后文本,并将所述词性序列信息以及所述遮盖后文本输入到待训练的文本处理模型中,以通过所述文本处理模型中包含的文本处理层,对所述遮盖后文本进行编码,得到文本编码特征,以及通过所述文本处理模型中包含的词性嵌入层,对所述词性序列信息进行编码,得到词性编码特征,并将所述文本编码特征以及所述词性编码特征进行融合,得到融合特征,以将所述融合特征输入到所述文本处理模型中包含的预测层,并通过所述预测层,预测出所述遮盖后文本中被遮盖的文本内容,作为预测内容;
以最小化所述预测内容与所述样本文本中实际被遮盖的文本内容之间的偏差为优化目标,对所述文本处理模型进行训练。
可选地,根据每个分词对应的词性标识,确定所述样本文本的词性序列信息,具体包括:
针对每个分词,根据该分词中包含的每个单字在该分词中的位置,确定该分词中包含的每个单字对应的位置标识符,并根据该分词的词性对应的词性标识以及该分词中包含的每个单字对应的位置标识符,确定该分词中包含的每个单字所对应的词性位置标识;
根据每个分词中包含的各单字所对应的词性位置标识,确定所述样本文本的词性序列信息。
可选地,根据每个分词对应的词性标识,确定所述样本文本的词性序列信息,具体包括:
针对每个分词,确定该分词的分词结构信息,所述分词结构信息用于表示该分词属于单字分词还是多字分词;
根据该分词的分词结构信息,确定该分词对应的结构标识;
根据每个分词对应的结构标识以及每个分词的词性对应的词性标识,确定所述样本文本的词性序列信息。
可选地,根据每个分词的词性,确定每个分词对应的词性标识,具体包括:
针对每个分词,确定该分词的词性所归属的词性簇,其中,同一词性簇中包含的各词性所对应的词性标识相同;
根据所述词性簇对应的词性标识,确定该分词对应的词性标识。
本说明书提供了一种业务执行方法,包括:
接收业务请求;
根据所述业务请求,确定待处理文本;
将所述待处理文本输入到预先训练的文本处理模型中,以通过所述文本处理模型,确定所述待处理文本的文本特征信息,所述文本处理模型是通过上述的模型训练方法训练得到的;
将所述文本特征信息传输至预设的业务模型中,以通过所述业务模型,输出业务结果;
根据所述业务结果,执行针对所述业务请求的业务处理。
本说明书提供了一种模型训练装置,包括:
获取模块,获取样本文本;
划分模块,对所述样本文本进行划分,得到各分词,并确定每个分词的词性;
标识确定模块,根据每个分词的词性,确定每个分词对应的词性标识;
序列信息确定模块,根据每个分词对应的词性标识,确定所述样本文本的词性序列信息;
处理模块,将所述样本文本中的部分文本内容进行遮盖,得到遮盖后文本,并将所述词性序列信息以及所述遮盖后文本输入到待训练的文本处理模型中,以通过所述文本处理模型中包含的文本处理层,对所述遮盖后文本进行编码,得到文本编码特征,以及通过所述文本处理模型中包含的词性嵌入层,对所述词性序列信息进行编码,得到词性编码特征,并将所述文本编码特征以及所述词性编码特征进行融合,得到融合特征,以将所述融合特征输入到所述文本处理模型中包含的预测层,并通过所述预测层,预测出所述遮盖后文本中被遮盖的文本内容,作为预测内容;
训练模块,以最小化所述预测内容与所述样本文本中实际被遮盖的文本内容之间的偏差为优化目标,对所述文本处理模型进行训练。
可选地,所述序列信息确定模块具体用于,针对每个分词,根据该分词中包含的每个单字在该分词中的位置,确定该分词中包含的每个单字对应的位置标识符,并根据该分词的词性对应的词性标识以及该分词中包含的每个单字对应的位置标识符,确定该分词中包含的每个单字所对应的词性位置标识;根据每个分词中包含的各单字所对应的词性位置标识,确定所述样本文本的词性序列信息。
可选地,所述序列信息确定模块具体用于,针对每个分词,确定该分词的分词结构信息,所述分词结构信息用于表示该分词属于单字分词还是多字分词;根据该分词的分词结构信息,确定该分词对应的结构标识;根据每个分词对应的结构标识以及每个分词的词性对应的词性标识,确定所述样本文本的词性序列信息。
可选地,所述标识确定模块具体用于,针对每个分词,确定该分词的词性所归属的词性簇,其中,同一词性簇中包含的各词性所对应的词性标识相同;根据所述词性簇对应的词性标识,确定该分词对应的词性标识。
本说明书提供了一种业务执行装置,包括:
接收模块,接收业务请求;
确定模块,根据所述业务请求,确定待处理文本;
输入模块,将所述待处理文本输入到预先训练的文本处理模型中,以通过所述文本处理模型,确定所述待处理文本的文本特征信息,所述文本处理模型是通过上述的模型训练方法训练得到的;
传输模块,将所述文本特征信息传输至预设的业务模型中,以通过所述业务模型,输出业务结果;
执行模块,根据所述业务结果,执行针对所述业务请求的业务处理。
本说明书提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述模型训练和业务执行方法。
本说明书提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述模型训练和业务执行的方法。
本说明书采用的上述至少一个技术方案能够达到以下有益效果:
在本说明书提供的模型训练方法中,首先获取样本文本,然后,对样本文本进行划分,得到各分词,并确定每个分词的词性,之后,根据每个分词所对应的词性标识,生成样本文本的词性序列信息,并将对样本文本中的部分文本内容进行遮盖所得到的遮盖后文本以及得到的词性序列信息输入到文本处理模型中,以通过文本处理模型中包含的文本处理层,对遮盖后文本进行编码,得到文本编码特征,以及通过文本处理模型中包含的词性嵌入层,对词性序列信息进行编码,得到词性编码特征,并将文本编码特征以及词性编码特征进行融合,得到融合特征,以将融合特征输入到文本处理模型中包含的预测层,并通过预测层,预测出遮盖后文本中被遮盖的文本内容,作为预测内容,最后,以最小化预测内容与样本文本中实际被遮盖的文本内容之间的偏差为优化目标,对文本处理模型进行训练。
从上述方法可以看出,在对文本处理模型进行训练的过程中,通过设置的词性嵌入层,可以使得文本处理模型在训练过程中,学习到各分词的词性与文本语义之间的潜在关系,这使得文本处理模型在实际应用中可以结合文本中各分词的词性特征,更加精准的提取出输入文本的特征信息,从而得到更加准确的文本处理结果。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附
图中:
图1为本说明书中提供的一种模型训练方法的流程示意图;
图2为本说明书提供的文本处理模型的结构示意图;
图3为本说明书中提供的一种业务执行方法的流程示意图;
图4为本说明书中提供的一种模型训练装置的示意图;
图5为本说明书中提供的一种业务执行装置的示意图;
图6为本说明书中提供的一种对应于图1或图3的电子设备示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书中提供的一种模型训练方法的流程示意图,包括以下步骤:
S101:获取样本文本。
为了训练出能够精准提取出文本数据中特征信息的文本处理模型,需要预先对文本处理模型进行训练,在训练过程中,需要获取一些样本文本,其中,这些样本文本可以是从预设的样本集中获取到的,也可以通过搜集一些业务执行过程中所产生的文本数据来得到。
进一步地,在获取到各样本文本后,可以对样本文本进行预处理,以得到符合训练要求的样本文本,例如,可以执行诸如将字符数过少的一些样本文本进行去除,将重复的文本进行去重等预处理操作,对初始获取到的各样本文本进行过滤,以过滤出在后续过程中训练对文本处理模型进行训练的样本文本。
在本说明书中,用于实现一种模型训练和业务执行方法的执行主体可以是服务器等指定设备,也可以是诸如台式电脑等终端设备,抑或是专门用于进行模型训练的专用设备,为了便于描述,以下仅以服务器作为执行主体为例,对本说明书提供的一种模型训练方法进行说明。
S102:对所述样本文本进行划分,得到各分词,并确定每个分词的词性。
在获取到样本文本后,服务器可以对该样本文本进行划分,得到各分词,其中,服务器可以采用的分词方式可以有多种,例如,服务器可以通过将样本文本与预先构建的分词表中的分词进行依次匹配,从而从样本文本中划分出各分词;再例如,服务器可以将样本文本输入到预先训练的分词模型,以通过该分词模型得到最终的分词结果;再例如,服务器可以调用预设的分词工具(如ANSJ、汉语言处理包(Han Language Processing,Hanlp)等),对该样本文本进行分词操作,得到各分词。
服务器在得到各分词后,可以确定出每个分词的词性,其中,所谓的词性即用于体现一个分词在文本中的语句成分,例如,形容词、连词、状态词、副形词等即为本说明书中所提到的词性。所以,服务器确定出每个分词的词性后,实际上确定出了各个分词在样本文本中的语句成分,进而在后续过程中,便于文本处理模型能够精准的从样本文本中提取出特征信息。
在本说明书中,服务器确定各个分词的词性所采用的方式也可以有多种,例如,可以上述提到的分词模型,除了可以实现分词操作外,也可以输出每个分词的词性,所以,服务器可以基于分词模型的输出结果,来确定出每个分词的词性;再例如,上述调用的分词工具除了具有分词能力外,也可以用于判断出每个分词的词性,所以,服务器也可以通过上述提到的分词工具,来确定出各个分词的词性。
S103:根据每个分词的词性,确定每个分词对应的词性标识。
服务器在确定出每个分词的词性后,需要进一步地确定出每个分词所对应的词性标识,进而在后续过程中基于确定出的各分词的词性标识,生成用于输入到文本处理模型中的词性序列信息。
其中,若是已经预先设置了每种词性与各词性标识之间的对应关系,那么,服务器可以基于该对应关系,确定出每个分词所对应的词性标识。
另外,在实际应用中,有些词性在文本中所体现出的语句成分较为相近,例如,形容词和副形词在文本中都起到形容的作用,所以,在本说明书中,可以对一些作用较为相近的词性进行聚类,得到各聚类结果,而对于得到的任意一个词性簇来说,该词性簇中所包含的各词性即为体现出的语句成分较为接近的一些词性,该词性簇中的词性可以对应同一词性标识,如下表所示。
表1
从上述表1中可以看出,一些词性共用一个词性标识,这样一来,服务器在确定每个分词的词性标识的过程中,实际上可以先针对每个分词,确定出该分词的词性所归属的词性簇,而后,根据该词性簇所对应的词性标识,确定出该分词所对应的词性标识。
在本说明书中,服务器先前对各词性进行聚类的方式可以有多种,例如,可以通过各词性的示意,确定出示意上相近的各词性,并将示意相近的各词性进行聚类,从而得到各词性簇;再例如,可以通过预先的词性表征模型,来确定出每种词性的特征表示,进而确定每种词性的特征表示之间的特征相似度,来对各词性进行聚类,得到各词性簇。
S104:根据每个分词对应的词性标识,确定所述样本文本的词性序列信息。
服务器在确定出每个分词对应的词性标识后,可以进一步地确定出样本文本的词性序列信息,在本说明书中,服务器确定该词性序列信息的方式可以有多种,例如,服务器可以按照每个分词在样本文本出现的顺序,将各分词所对应的词性标识进行排序,进而将得到的排序结果,作为确定出的样本文本的词性序列信息。
当然,服务器也可以结合各分词中每个单字在其所属分词中出现的,来确定出上述词性序列信息。具体的,服务器可以针对每个分词,根据该分词中包含的每个单字在该分词中的位置,确定该分词中包含的每个单字对应的位置标识符,并根据该分词的词性对应的词性标识以及该分词中包含的每个单字对应的位置标识符,确定该分词中包含的每个单字所对应的词性位置标识。而后,服务器可以根据每个分词中包含的各单字所对应的词性位置标识,确定样本文本的词性序列信息。
例如,假设服务器中预先存储有各单字在其所属的位置所对应的位置标识符,其中,起始字对应的位置标识符为b,中间字对应的位置标识符为m,结尾字对应的位置标识符为e。那么,对于“麻辣烫”这一分词来说,单字“麻”由于是这一分词的起始字,所以其对应的位置标识符为b,单字“辣”是这一分词的中间字,所以其对应的位置标识符为m,单字“烫”是这一分词中的结尾字,所以其对应的位置标识符为e。
而由于“麻辣烫”这一分词的词性为名词,这一分词所对应的词性标识为n,那么,单字“麻”基于该分词的词性标识以及该单字所对应的位置标识符所确定出的组合标识符为nb,单字“辣”基于该分词的词性标识以及该单字所对应的位置标识符所确定出的组合标识符为nm,单字“烫”基于该分词的词性标识以及该单字所对应的位置标识符所确定出的组合标识符为ne。服务器进而可以确定出该分词经过组合所得到的标识符为:nbnmne。同理,服务器可以通过此种方式,来确定出“麻辣烫”这一分词所在的样本文本中其他分词所对应的组合标识符,进而确定出该样本文本的词性序列信息。
另外,在实际应用中,存在部分分词为单字的情况,而对于这种情况来说,服务器也可以结合每个分词的分词结构信息,来确定出上述词性序列信息。具体的,服务器可以针对每个分词,确定该分词的分词结构信息,其中,这里提到的分词结构信息用于表示该分词属于单字分词还是多字分词,而后,服务器可以根据该分词的分词结构信息,确定该分词对应的结构标识,最终,服务器可以根据每个分词对应的结构标识以及每个分词的词性对应的词性标识,确定样本文本的词性序列信息。
例如,对于服务器中预先存储有用于表示单字的分词结构信息所对应的结构标识为s,多字的分词结构信息所对应的结构标识为空,那么,当拆分出的各分词中存在单字形式的分词时,则可以将该单字形式的分词所对应的结构标识以及该分词的词性标识进行结合,来得到该分词的组合标识符,进而结合其他分词的组合标识符,来确定出该样本文本的词性序列信息。
S105:将所述样本文本中的部分文本内容进行遮盖,得到遮盖后文本,并将所述词性序列信息以及所述遮盖后文本输入到待训练的文本处理模型中,以通过所述文本处理模型中包含的文本处理层,对所述遮盖后文本进行编码,得到文本编码特征,以及通过所述文本处理模型中包含的词性嵌入层,对所述词性序列信息进行编码,得到词性编码特征,并将所述文本编码特征以及所述词性编码特征进行融合,得到融合特征,以将所述融合特征输入到所述文本处理模型中包含的预测层,并通过所述预测层,预测出所述遮盖后文本中被遮盖的文本内容,作为预测内容。
在本说明书中,待训练的文本处理模型与常规的文本处理模型有着显著区别,具体区别在于相比于现有的文本处理模型来说,本说明书中提到的文本处理模型多处用于进行词性编码的词性嵌入层,所以,本说明书提供的模型训练方法实际上主要体现对一个包含有词性嵌入层的文本处理模型进行训练的过程,文本处理模型的具体结构如图2所示。
图2为本说明书提供的文本处理模型的结构示意图。
在图2所示的文本处理模型中大致包含有输入层、词性嵌入层、文本处理层、融合层以及预测层,其中,图2中词性嵌入层之所以用虚线框表示,主要用于体现词性嵌入层是在原有的文本处理模型中额外添加的网络层。换句话说,图2中的输入层、文本处理层、融合层以及预测层可以理解为现有的文本处理模型原本就带有的网络层。
为了进一步地提升文本处理模型的特征表达能力,在本说明书中可以采用掩码的方式,对文本处理模型进行训练。具体的,服务器可以对样本文本中的部分文本内容进行遮盖,从而得到遮盖后文本,后续需要通过该文本处理模型来预测出被遮盖的位置所对应的实际内容,以此来让文本处理模型学习出文本中潜在的语义关系,从而提升文本处理模型的特征表达能力。
所以,在图2所示的文本处理模型中,输入层用于接收输入到文本处理模型中的数据,具体包括样本文本的词性序列信息以及遮盖后文本。而后,可以将遮盖后文本输入到图2中的文本处理层中,以通过文本处理层,对遮盖后文本进行编码,得到文本编码特征,与此同时,可以将词性序列信息输入到图2中的词性嵌入层中,以得到词性编码特征。之后,即将得到的词性编码特征以及文本编码特征再统一输入到图2中的融合层中,以在融合层中将词性编码特征以及文本编码特征进行融合,得到融合特征。最后,融合层输出的融合特征再输入到图2中的预测层中,以通过该预测层,预测出遮盖后文本中被遮盖的文本内容,作为预测内容。
本说明书中提到的文本处理模型可以是指诸如来自变压器的双向编码器表示(Bidirectional Encoder Representations from Transformers,Bert)等模型,所以,文本处理模型中诸如文本处理层所执行的文本编码操作,可以理解为是Bert所使用的文本编码操作,而需要再次强调的是,本说明书中的文本处理层相比于现有的模型来说,额外增加了词性嵌入层,通过该词性嵌入层,可以实现对文本数据中各分词的词性进行编码,从而使得文本处理模型能够得到更加准确的输出结果。
S106:以最小化所述预测内容与所述样本文本中实际被遮盖的文本内容之间的偏差为优化目标,对所述文本处理模型进行训练。
服务器通过上述文本处理模型得到上述预测内容后,可以确定出预测内容与样本文本中实际被遮盖的文本内容之间的偏差,进而以最小化该偏差为优化目标,来对文本处理模型进行训练。即,通过该偏差以及预设的损失函数,可以确定出损失值,进而以最小化损失值为目标,对文本处理模型中各网络层的网络参数进行调整,以实现对文本处理模型的预训练过程。
从上述内容可以看出,在对文本处理模型进行训练的过程中,通过设置的词性嵌入层,可以使得文本处理模型在训练过程中,学习到各分词的词性与文本语义之间的潜在关系,这使得文本处理模型在实际应用中可以结合文本中各分词的词性特征,更加精准的提取出输入文本的特征信息,从而得到更加准确的文本处理结果。
服务器通过上述方式完成对文本处理模型的预训练过程中,可以将其应用于实际业务中,下面将在实际业务应用角度上,对本说明书提供的业务执行方法进行说明,如图3所示。
图3为本说明书中提供的一种业务执行方法的流程示意图,包括以下步骤:
S301:接收业务请求。
S302:根据所述业务请求,确定待处理文本。
用户在执行业务的过程中,可以通过对其所使用的终端设备进行操作,由终端设备生成业务请求,而服务器则可以在接收到该业务请求后,通过上述训练所得到的文本处理模型,来执行业务处理,其中,该业务请求包含有待处理文本。
本说明书提供的业务执行方法可以应用于诸多的业务场景中,例如,在智能客服领域中,服务器接收到的业务请求中可以包含有用户的问答语句,而服务器需要通过上述训练所得到的文本处理模型,确定出该问答语句的文本特征信息,进而基于文本特征信息,确定出应答语句,以向用户进行应答。
再例如,在业务风控领域中,服务器接收到业务请求中可以携带有待识别的文本数据,而服务器需要通过上述训练所得到的文本处理模型,确定出该文本数据的文本特征信息,进而基于文本特征信息,来判断用户所执行的业务是否存在业务风险,以对用户进行业务风控。
再例如,对于商户名称是否规范的识别领域中,服务器接收到业务请求中包含有待识别的商家的商户名称,服务器需要通过上述训练所得到的文本处理模型,确定出该商户名称的文本特征信息,进而基于文本特征信息,判断出该商户名称是否合规,并在确定出该商户名称不合规时,向该商户名称所对应的商家发送提示消息,使得商家基于该提示消息,对该商户名称进行调整。
S303:将所述待处理文本输入到预先训练的文本处理模型中,以通过所述文本处理模型,确定所述待处理文本的文本特征信息。
服务器在确定出上述待处理文本后,可以先对待处理文本进行划分,得到各分词,并确定出各分词对应的词性,进而确定出每个分词所对应的词性标识,而后,根据每个分词的词性标识,来确定出待处理文本的词性序列信息,大致过程中与上述模型训练过程中确定词性序列信息的方式类似,在此就不详细赘述了。
所以,服务器可以将待处理文本以及待处理文本对应的词性序列信息输入到上述文本处理模型中,该文本处理模型同样会通过设置的词性嵌入层,确定出词性序列信息所对应的词性编码特征,以及通过文本处理层,确定出待处理文本的文本编码特征,而后,通过融合层,将词性编码特征以及文本编码特征进行融合,得到融合特征,该融合特征即为确定出的待处理文本的文本特征信息。
S304:将所述文本特征信息传输至预设的业务模型中,以通过所述业务模型,输出业务结果。
S305:根据所述业务结果,执行针对所述业务请求的业务处理。
在确定出上述文本特征信息后,服务器可以将其传输至预设的业务模型,以通过业务模型所输出的业务结果,来执行业务请求对应的业务。其中,该业务模型与服务器接收到的业务请求所对应的业务相对应,例如,在智能客服的业务场景中,该业务模型即为问答模型,所以,服务器传输给问答模型文本特征信息后,该问答模型将通过该文本特征信息,输出相应的应答语句并返回给服务器,服务器则机遇该应答语句,对用户进行应答。
需要说明的是,在上述模型训练方法过程中,也可以结合实际的业务场景来引入额外的优化目标,以对文本处理模型进行训练。具体的,若是文本处理模型中还设有用于输出业务结果的输出层,则服务器将上述词性序列信息以及遮盖后文本输入到文本处理模型中后,文本处理模型将输出预测出的遮盖后文本中被遮盖的文本内容,以及样本文本所对应的业务结果。而后,服务器可以最小化预测内容与遮盖后文本中实际被遮盖的文本内容之间的偏差,以及最小化样本文本对应的业务结果以及样本文本对应的实际业务结果之间的偏差为优化目标,对上述文本处理模型进行训练。
例如,若是样本文本出自业务风控领域中,那么,该样本文本所对应的历史业务也应对应有实际的风险识别结果。所以,服务器再将词性序列信息以及遮盖后文本输入到文本处理模型中后,文本处理模型不仅会预测出遮盖后文本中被遮盖的文本内容,也将输出针对样本文本的风险识别结果。所以,服务器可以最小化预测内容与遮盖后文本中实际被遮盖的文本内容之间的偏差,以及最小化样本文本对应的风险识别结果以及样本文本对应的实际风险识别结果之间的偏差为优化目标,对文本处理模型进行训练。
通过这种方式训练出的文本处理模型不仅能够学习到文本内容之间的一些潜在语义关系,而且还能够学习的文本内容与业务特征之间的一些潜在关联,从而可以进一步地提升文本处理模型的特征表达能力。
以上为本说明书的一个或多个实施模型训练或业务执行的方法,基于同样的思路,本说明书还提供了相应的模型训练或业务执行装置,如图4或图5所示。
图4为本说明书提供的一种模型训练装置的示意图,包括:
获取模块401,用于获取样本文本;
划分模块402,用于对所述样本文本进行划分,得到各分词,并确定每个分词的词性;
标识确定模块403,用于根据每个分词的词性,确定每个分词对应的词性标识;
序列信息确定模块404,用于根据每个分词对应的词性标识,确定所述样本文本的词性序列信息;
处理模块405,用于将所述样本文本中的部分文本内容进行遮盖,得到遮盖后文本,并将所述词性序列信息以及所述遮盖后文本输入到待训练的文本处理模型中,以通过所述文本处理模型中包含的文本处理层,对所述遮盖后文本进行编码,得到文本编码特征,以及通过所述文本处理模型中包含的词性嵌入层,对所述词性序列信息进行编码,得到词性编码特征,并将所述文本编码特征以及所述词性编码特征进行融合,得到融合特征,以将所述融合特征输入到所述文本处理模型中包含的预测层,并通过所述预测层,预测出所述遮盖后文本中被遮盖的文本内容,作为预测内容;
训练模块406,用于以最小化所述预测内容与所述样本文本中实际被遮盖的文本内容之间的偏差为优化目标,对所述文本处理模型进行训练。
可选地,所述序列信息确定模块404具体用于,针对每个分词,根据该分词中包含的每个单字在该分词中的位置,确定该分词中包含的每个单字对应的位置标识符,并根据该分词的词性对应的词性标识以及该分词中包含的每个单字对应的位置标识符,确定该分词中包含的每个单字所对应的词性位置标识;根据每个分词中包含的各单字所对应的词性位置标识,确定所述样本文本的词性序列信息。
可选地,所述序列信息确定模块404具体用于,针对每个分词,确定该分词的分词结构信息,所述分词结构信息用于表示该分词属于单字分词还是多字分词;根据该分词的分词结构信息,确定该分词对应的结构标识;根据每个分词对应的结构标识以及每个分词的词性对应的词性标识,确定所述样本文本的词性序列信息。
可选地,所述标识确定模块403具体用于,针对每个分词,确定该分词的词性所归属的词性簇,其中,同一词性簇中包含的各词性所对应的词性标识相同;根据所述词性簇对应的词性标识,确定该分词对应的词性标识。
图5为本说明书提供的一种业务执行装置的示意图,包括:
接收模块501,用于接收业务请求;
确定模块502,用于根据所述业务请求,确定待处理文本;
输入模块503,用于将所述待处理文本输入到预先训练的文本处理模型中,以通过所述文本处理模型,确定该待处理文本的文本特征信息;
传输模块504,用于将所述文本特征信息传输至预设的业务模型中,以通过所述业务模型,输出业务结果;
执行模块505,用于根据所述业务结果,执行针对所述业务请求的业务处理。
本说明书还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1或图3提供的一种模型训练和业务执行方法。
本说明书还提供了图6所示的一种对应于图1或图3的电子设备的示意结构图。如图6所述,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1或图3所述的模型训练和业务执行方法。当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、系统、或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。

Claims (12)

1.一种模型训练方法,包括:
获取样本文本;
对所述样本文本进行划分,得到各分词,并确定每个分词的词性;
根据每个分词的词性,确定每个分词对应的词性标识;
根据每个分词对应的词性标识,确定所述样本文本的词性序列信息;
将所述样本文本中的部分文本内容进行遮盖,得到遮盖后文本,并将所述词性序列信息以及所述遮盖后文本输入到待训练的文本处理模型中,以通过所述文本处理模型中包含的文本处理层,对所述遮盖后文本进行编码,得到文本编码特征,以及通过所述文本处理模型中包含的词性嵌入层,对所述词性序列信息进行编码,得到词性编码特征,并将所述文本编码特征以及所述词性编码特征进行融合,得到融合特征,以将所述融合特征输入到所述文本处理模型中包含的预测层,并通过所述预测层,预测出所述遮盖后文本中被遮盖的文本内容,作为预测内容;
以最小化所述预测内容与所述样本文本中实际被遮盖的文本内容之间的偏差为优化目标,对所述文本处理模型进行训练。
2.如权利要求1所述的方法,根据每个分词对应的词性标识,确定所述样本文本的词性序列信息,具体包括:
针对每个分词,根据该分词中包含的每个单字在该分词中的位置,确定该分词中包含的每个单字对应的位置标识符,并根据该分词的词性对应的词性标识以及该分词中包含的每个单字对应的位置标识符,确定该分词中包含的每个单字所对应的词性位置标识;
根据每个分词中包含的各单字所对应的词性位置标识,确定所述样本文本的词性序列信息。
3.如权利要求1所述的方法,根据每个分词对应的词性标识,确定所述样本文本的词性序列信息,具体包括:
针对每个分词,确定该分词的分词结构信息,所述分词结构信息用于表示该分词属于单字分词还是多字分词;
根据该分词的分词结构信息,确定该分词对应的结构标识;
根据每个分词对应的结构标识以及每个分词的词性对应的词性标识,确定所述样本文本的词性序列信息。
4.如权利要求1所述的方法,根据每个分词的词性,确定每个分词对应的词性标识,具体包括:
针对每个分词,确定该分词的词性所归属的词性簇,其中,同一词性簇中包含的各词性所对应的词性标识相同;
根据所述词性簇对应的词性标识,确定该分词对应的词性标识。
5.一种业务执行的方法,包括:
接收业务请求;
根据所述业务请求,确定待处理文本;
将所述待处理文本输入到预先训练的文本处理模型中,以通过所述文本处理模型,确定该待处理文本的文本特征信息,所述文本处理模型是通过上述权利要求1~4任一项所述的方法训练得到的;
将所述文本特征信息传输至预设的业务模型中,以通过所述业务模型,输出业务结果;
根据所述业务结果,执行针对所述业务请求的业务处理。
6.一种模型训练装置,包括:
获取模块,获取样本文本;
划分模块,对所述样本文本进行划分,得到各分词,并确定每个分词的词性;
标识确定模块,根据每个分词的词性,确定每个分词对应的词性标识;
序列信息确定模块,根据每个分词对应的词性标识,确定所述样本文本的词性序列信息;
处理模块,将所述样本文本中的部分文本内容进行遮盖,得到遮盖后文本,并将所述词性序列信息以及所述遮盖后文本输入到待训练的文本处理模型中,以通过所述文本处理模型中包含的文本处理层,对所述遮盖后文本进行编码,得到文本编码特征,以及通过所述文本处理模型中包含的词性嵌入层,对所述词性序列信息进行编码,得到词性编码特征,并将所述文本编码特征以及所述词性编码特征进行融合,得到融合特征,以将所述融合特征输入到所述文本处理模型中包含的预测层,并通过所述预测层,预测出所述遮盖后文本中被遮盖的文本内容,作为预测内容;
训练模块,以最小化所述预测内容与所述样本文本中实际被遮盖的文本内容之间的偏差为优化目标,对所述文本处理模型进行训练。
7.如权利要求6所述的装置,所述序列信息确定模块具体用于,针对每个分词,根据该分词中包含的每个单字在该分词中的位置,确定该分词中包含的每个单字对应的位置标识符,并根据该分词的词性对应的词性标识以及该分词中包含的每个单字对应的位置标识符,确定该分词中包含的每个单字所对应的词性位置标识;根据每个分词中包含的各单字所对应的词性位置标识,确定所述样本文本的词性序列信息。
8.如权利要求6所述的装置,所述序列信息确定模块具体用于,针对每个分词,确定该分词的分词结构信息,所述分词结构信息用于表示该分词属于单字分词还是多字分词;根据该分词的分词结构信息,确定该分词对应的结构标识;根据每个分词对应的结构标识以及每个分词的词性对应的词性标识,确定所述样本文本的词性序列信息。
9.如权利要求6所述的装置,所述标识确定模块具体用于,针对每个分词,确定该分词的词性所归属的词性簇,其中,同一词性簇中包含的各词性所对应的词性标识相同;根据所述词性簇对应的词性标识,确定该分词对应的词性标识。
10.一种业务执行装置,包括:
接收模块,接收业务请求;
确定模块,根据所述业务请求,确定待处理文本;
输入模块,将所述待处理文本输入到预先训练的文本处理模型中,以通过所述文本处理模型,确定所述待处理文本的文本特征信息,所述文本处理模型是通过上述权利要求1~4任一项所述的方法训练得到的;
传输模块,将所述文本特征信息传输至预设的业务模型中,以通过所述业务模型,输出业务结果;
执行模块,根据所述业务结果,执行针对所述业务请求的业务处理。
11.一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1~5任一项所述的方法。
12.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述权利要求1~5任一项所述的方法。
CN202311559447.8A 2023-11-21 2023-11-21 一种模型训练和业务执行方法、装置、存储介质及设备 Pending CN117592472A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311559447.8A CN117592472A (zh) 2023-11-21 2023-11-21 一种模型训练和业务执行方法、装置、存储介质及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311559447.8A CN117592472A (zh) 2023-11-21 2023-11-21 一种模型训练和业务执行方法、装置、存储介质及设备

Publications (1)

Publication Number Publication Date
CN117592472A true CN117592472A (zh) 2024-02-23

Family

ID=89910938

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311559447.8A Pending CN117592472A (zh) 2023-11-21 2023-11-21 一种模型训练和业务执行方法、装置、存储介质及设备

Country Status (1)

Country Link
CN (1) CN117592472A (zh)

Similar Documents

Publication Publication Date Title
CN116227474B (zh) 一种对抗文本的生成方法、装置、存储介质及电子设备
CN113221555B (zh) 一种基于多任务模型的关键词识别方法、装置及设备
CN112417093B (zh) 一种模型训练的方法及装置
CN112487197A (zh) 基于会议记录构建知识图谱的方法、装置及处理器
CN116303989A (zh) 一种面向多种检索场景的专利检索方法、装置、设备
CN113887206B (zh) 一种模型训练及关键词提取方法及装置
CN116186330B (zh) 一种基于多模态学习的视频去重方法及装置
CN116863484A (zh) 一种字符识别的方法、装置、存储介质及电子设备
CN117592472A (zh) 一种模型训练和业务执行方法、装置、存储介质及设备
CN113641766B (zh) 一种关系识别方法、装置、存储介质及电子设备
CN114676257A (zh) 一种对话主题确定方法及装置
CN117076650B (zh) 一种基于大语言模型的智能对话方法、装置、介质及设备
CN115017915B (zh) 一种模型训练、任务执行的方法及装置
CN117369783B (zh) 一种安全代码生成模型的训练方法及装置
CN117591661B (zh) 一种基于大语言模型的问答数据构建方法及装置
CN116795972B (zh) 一种模型训练的方法、装置、存储介质及电子设备
CN117874706B (zh) 一种多模态知识蒸馏学习方法及装置
CN117875413B (zh) 一种知识图谱本体中概念构建方法、装置、介质及设备
CN115658891B (zh) 一种意图识别的方法、装置、存储介质及电子设备
CN118069824A (zh) 一种风险识别的方法、装置、存储介质及电子设备
CN117079646B (zh) 一种语音识别模型的训练方法、装置、设备及存储介质
CN117252183B (zh) 一种基于语义的多源表格自动匹配方法、装置及存储介质
CN117196323B (zh) 一种基于高维图网络的复杂社会事件的预警方法
CN117573849B (zh) 一种知识图谱多跳问答方法、装置、设备及存储介质
CN116340469B (zh) 一种同义词挖掘方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination