CN115545002B - 一种模型训练和业务处理的方法、装置、存储介质及设备 - Google Patents

一种模型训练和业务处理的方法、装置、存储介质及设备 Download PDF

Info

Publication number
CN115545002B
CN115545002B CN202211509841.6A CN202211509841A CN115545002B CN 115545002 B CN115545002 B CN 115545002B CN 202211509841 A CN202211509841 A CN 202211509841A CN 115545002 B CN115545002 B CN 115545002B
Authority
CN
China
Prior art keywords
sentence
feature
target
extraction model
feature extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211509841.6A
Other languages
English (en)
Other versions
CN115545002A (zh
Inventor
王维强
林金镇
应缜哲
薛兰青
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN202211509841.6A priority Critical patent/CN115545002B/zh
Publication of CN115545002A publication Critical patent/CN115545002A/zh
Application granted granted Critical
Publication of CN115545002B publication Critical patent/CN115545002B/zh
Priority to US18/522,028 priority patent/US20240177510A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19127Extracting features by transforming the feature space, e.g. multidimensional scaling; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/194Calculation of difference between files
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/19007Matching; Proximity measures
    • G06V30/19093Proximity measures, i.e. similarity or distance measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/1912Selecting the most significant subset of features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本说明书公开了一种模型训练和业务处理的方法、装置、存储介质及设备。该模型训练的方法包括,获取历史对话,从历史对话中确定目标语句,将历史对话输入待训练的特征提取模型中,以使特征提取模型根据历史对话中除目标语句外的其他语句,确定目标语句对应的语句特征,作为第一特征,以及,根据目标语句,确定目标语句对应的语句特征,作为第二特征,以最小化第一特征与第二特征之间的偏差为优化目标,对特征提取模型进行训练,其中,训练后的特征提取模型用于确定输入的每个对话语句对应的语句特征,并将输出的语句特征进行发送,以使接收端根据接收到的语句特征进行业务处理。

Description

一种模型训练和业务处理的方法、装置、存储介质及设备
技术领域
本说明书涉及计算机技术领域,尤其涉及一种模型训练和业务处理的方法、装置、存储介质及设备。
背景技术
在诸如隐私保护、风险控制、智能对话等业务场景下,通常需要对用户的对话语句进行分析,从而根据分析结果来执行相应的业务处理。这就需要通过相应的模型算法,来对用户的对话语句进行特征提取,以根据提取到的特征执行相应的业务处理。而提取到的特征质量往往会影响到最终的业务处理结果。
然而,目前采用的特征提取方法所得到的特征质量较差,并不能准确的对整个语句的语意信息进行表达,这就会导致通过这些质量较差的特征进行相应的业务处理时,无法得到准确的业务处理结果。
发明内容
本说明书提供一种模型训练和业务处理的方法、装置、存储介质及设备。以使训练完成后的模型提取到的特征能够准确的表达出对话语句的语意信息,从而得到准确的业务处理结果。
本说明书提供了一种模型训练的方法,包括:
获取历史对话;
从所述历史对话中确定目标语句;
将所述历史对话输入待训练的特征提取模型中,以使所述特征提取模型根据所述历史对话中除所述目标语句外的其他语句,确定所述目标语句对应的语句特征,作为第一特征,以及,根据所述目标语句,确定所述目标语句对应的语句特征,作为第二特征;
以最小化所述第一特征与所述第二特征之间的偏差为优化目标,对所述特征提取模型进行训练,其中,训练后的所述特征提取模型用于确定输入的每个对话语句对应的语句特征,并将输出的语句特征进行发送,以使接收端根据接收到的语句特征进行业务处理。
可选地,将所述历史对话输入所述特征提取模型之前,所述方法还包括:
将所述历史对话中的目标语句替换为指定字符,得到替换后对话;
将所述历史对话输入待训练的特征提取模型中,以使所述特征提取模型根据所述历史对话中除所述目标语句外的其他语句,确定所述目标语句对应的语句特征,作为第一特征,具体包括:
将所述替换后对话输入所述特征提取模型中,以使所述特征提取模型根据所述替换后对话中所述指定字符对应位置以外的其他语句,确定所述指定字符对应位置处的语句特征,作为所述第一特征。
可选地,从所述历史对话中确定目标语句,具体包括:
根据所述历史对话中包含的每个语句对应的被选取的概率,在所述历史对话中选取出所述目标语句。
可选地,从所述历史对话中确定目标语句,具体包括:
若确定需要从所述历史对话中确定出至少两个目标语句,则从在语序上互不相邻的各语句中确定所述目标语句。
可选地,以最小化所述第一特征与所述第二特征之间的偏差为优化目标,对所述特征提取模型进行训练,具体包括:
确定所述第一特征与所述第二特征之间的相似度;
以最大化所述相似度为优化目标,对所述特征提取模型进行训练。
可选地,以最小化所述第一特征与所述第二特征之间的偏差为优化目标,对所述特征提取模型进行训练之前,所述方法还包括:
将所述替换后对话输入所述特征提取模型中,根据所述替换后对话中所述指定字符对应位置以外的其他语句,还原所述语句标记对应位置处的语句,作为预测语句;
以最小化所述第一特征与所述第二特征之间的偏差为优化目标,对所述特征提取模型进行训练,具体包括:
以最小化所述第一特征与所述第二特征之间的偏差,以及,最小化所述预测语句与所述目标语句之间的偏差为优化目标,对所述特征提取模型进行训练。
本说明书提供了一种业务处理的方法,包括:
获取业务对话;
将所述业务对话输入到预先训练的特征提取模型中,以使所述特征提取模型针对所述业务对话中包含的每个对话语句,根据所述业务对话中除该对话语句外的其他语句,确定该对话语句对应的语句特征,其中,所述特征提取模型是通过上述模型训练方法训练得到的;
根据所述业务对话中包含的每个对话语句对应的语句特征,进行业务处理。
本说明书提供了一种模型训练的装置,包括:
获取模块,获取历史对话;
确定模块,从所述历史对话中确定目标语句;
输入模块,将所述历史对话输入待训练的特征提取模型中,以使所述特征提取模型根据所述历史对话中除所述目标语句外的其他语句,确定所述目标语句对应的语句特征,作为第一特征,以及,根据所述目标语句,确定所述目标语句对应的语句特征,作为第二特征;
训练模块,以最小化所述第一特征与所述第二特征之间的偏差为优化目标,对所述特征提取模型进行训练,其中,训练后的所述特征提取模型用于确定输入的每个对话语句对应的语句特征,并将输出的语句特征进行发送,以使接收端根据接收到的语句特征进行业务处理。
本说明书提供了一种业务处理的装置,包括:
获取模块,获取业务对话;
输入模块,将所述业务对话输入到预先训练的特征提取模型中,以使所述特征提取模型针对所述业务对话中包含的每个对话语句,根据所述业务对话中除该对话语句外的其他语句,确定该对话语句对应的语句特征,其中,所述特征提取模型是通过上述模型训练方法训练得到的;
处理模块,根据所述业务对话中包含的每个对话语句对应的语句特征,进行业务处理。
本说明书提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述模型训练的方法。
本说明书提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述模型训练的方法。
本说明书采用的上述至少一个技术方案能够达到以下有益效果:
在本说明书提供的模型训练的方法中,能够从获取到的历史对话中确定目标语句,并将该历史对话输入待训练的特征提取模型中,以使特征提取模型根据历史对话中除了目标语句外的其他语句,确定目标语句对应的第一特征,以及,根据目标语句,确定目标语句对应的第二特征,进而以最小化第一特征与第二特征之间的偏差为优化目标,对特征提取模型进行训练,其中,训练后的特征提取模型用于确定输入的每个对话语句对应的语句特征,并将输出的语句特征进行发送,以使接收端根据接收到的语句特征进行业务处理。
从上述方法可以看出,本方案在确定对话语句对应的语句特征时,能够根据历史对话中除了该对话语句的其他语句,对该对话语句对应的第一特征进行确定,进而以最小化第一特征与确定出的目标语句对应的第二特征之间的偏差为优化目标,对特征提取模型进行训练。这样一来,确定出的每个对话语句的语句特征都是根据该语句的上下文信息确定出来的,从而能够准确的表达出每个语句的语意信息,并且即使是文本不同的两个对话语句,只要其上下文类似或者语意相接近,其对应的语句特征也是相同或者相近的,进而使得根据上述方法得到的语句特征进行业务处理后,能够得到更加准确的业务处理结果。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书中提供的一种模型训练的方法的流程示意图;
图2为本说明书中提供的一种模型训练的过程示意图;
图3为本说明书中提供的一种业务处理的方法示意图;
图4为本说明书中提供的一种模型训练的装置的示意图;
图5为本说明书中提供的一种业务处理的装置示意图;
图6为本说明书中提供的一种对应于图1的电子设备示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
目前在对对话语句进行特征提取时,通常会将对话语句中的字或词进行拆分,从而确定出每个字或词对应的特征,而后对这些字或词的特征求平均值,并将该平均值作为整个对话语句的特征。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书中提供的一种模型训练的方法的流程示意图,包括以下步骤:
S100:获取历史对话。
在诸如隐私保护、风险控制、智能对话等业务场景下,通常需要将用户产生的对话数据输入到相应的模型中,以对该对话数据中的各对话语句进行特征提取,从而根据提取到的语句特征对用户的对话数据进行数据分析,进而执行相应的业务处理。
例如,在风险控制业务场景中,通常会对多个用户的对话进行监测,此时会将这些用户的对话语句输入到相应的特征提取模型中,以提取这些对话语句对应的语句特征,进而根据提取到的语句特征进行数据分析,一旦这些对话语句中出现了一些敏感对话,那么就可以根据这些敏感对话对应的语句特征判断出这些用户可能在执行一些异常业务,则此时可以将这些用户的账号进行冻结,或者进行报警等业务处理。
再例如,在诸如智能客服、对话机器人等智能对话的场景下,往往需要对用户的语句进行特征提取,从而根据提取到的语句特征进行分析,以确定用户的对话意图,进而根据该用户的对话意图来对用户进行回答。
在上述业务场景中,通过特征提取模型提取到的语句特征是否能够准确的表达语句的语意信息,决定了根据该语句特征进行业务处理后,得到的处理结果是否准确,而特征提取模型的训练方法对提取到的语句特征的质量发挥着至关重要的作用。
基于此,本说明书提供了一种模型训练的方法,以对上述业务场景中的特征提取模型进行训练,使得训练后得到的模型能够准确的表达出语句的语意信息,并使语意相近的不同语句对应的语句特征也较为相近。其中,需要获取训练样本,该训练样本中可以为历史对话,并且这些历史对话可以为不同用户之间的历史对话,当然,也可以为用户与服务器之间的历史对话。该历史对话的形式可以为语音对话、文本对话等,本说明书对此不做具体限定。
另外,在本说明书中,用于模型训练的方法的执行主体,可以指服务器等设置于业务平台的指定设备,为了便于描述,本说明书仅以服务器是执行主体为例,对本说明书提供的一种模型训练的方法进行说明。
S102:从所述历史对话中确定目标语句。
获取历史对话后,服务器可以在各历史对话中选取出目标语句,具体的,由于本说明书在对特征提取模型进行训练的过程中需要根据目标语句的上下文信息,来对该目标语句对应的第一特征进行预测,如果选择出较多的目标语句,并且这些目标语句之间的位置相邻,那么就很难根据目标语句的上下文信息来对目标语句对应的第一特征进行预测。目标语句对应的第一特征将在下文进行详细的描述,在此处不做过多赘述。
因此,服务器可以根据历史对话中包含的每个语句对应的被选取的概率,在历史对话中选取出目标语句。此外,当确定需要从历史对话中确定出至少两个目标语句,则从在语序上互不相邻的语句中确定出目标语句,以使确定出的每个目标语句都互不相邻。
例如,服务器可以在历史对话中,选取出互不相邻的,且数量为历史对话中包含对话语句总数量15%的语句,作为目标语句,当然,服务器也可以将每个历史对话中包含的每个语句都设置15%的被选取概率,并且当其中一个语句被选取为目标语句后,与该目标语句相邻的其他语句不会被选取为目标语句。
在本说明书中,该特征提取模型可以为BERT模型,当然,也可以为其他模型,本说明书对此不做具体限定。
另外,服务器还可以根据历史对话中包含的每个语句对应时间的先后顺序,确定出相应的对话语句序列,换句话说,服务器可以将这些对话语句按照对话的先后顺序进行拼接,从而确定出相应的对话语句序列。
例如,当上述历史对话是两个用户之间以问答的形式产生的对话语句,则服务器可以按照这两个用户对话问答的先后顺序,构建这些历史对话对应的对话语句序列。
在构建语句序列的过程中,服务器可以确定出每个用户对应的用户标记,并在上述对话语句序列中的每个历史对话之前,添加该历史对话对应用户的用户标记,从而区分出每个历史对话所对应的用户。需要说明的是,不同的用户会对应有不同的用户标记。
在本说明书中,服务器可以先确定出历史对话对应的对话语句序列,进而在该对话语句序列中选取出需要提取的对话语句,作为目标对话语句,当然,服务器也可以先在历史对话中选取出需要提取的目标对话语句,而后再根据各历史对话构建对话语句序列。
S104:将所述历史对话输入待训练的特征提取模型中,以使所述特征提取模型根据所述历史对话中除所述目标语句外的其他语句,确定所述目标语句对应的语句特征,作为第一特征,以及,根据所述目标语句,确定所述目标语句对应的语句特征,作为第二特征。
确定出历史对话中的目标语句以及对话语句序列后,服务器可以该对话语句序列输入待训练的特征提取模型中,以使特征提取模型根据对话语句序列中除目标语句外的其他语句,确定目标语句对应的语句特征,作为第一特征。
当然,服务器也可以直接将该历史对话输入待训练的特征提取模型中,以使特征提取模型根据历史对话中除目标语句外的其他语句,确定出目标语句对应的第一特征。
具体的,服务器可以在上述历史对话中,将目标语句替换为指定符号,以表征该位置存在有相应的语句。需要说明的是,该指定符号仅用来表征该指定符号在历史对话中对应的位置处存在有语句,但并不用来表征语句的具体内容,也就是说,针对完全不同的两个语句序列,如果每个语句序列中都只存在有一个目标语句,那么这两个目标语句对应的指定符号可以是相同的,而对于一个语句序列中对应的多个目标语句,为了对这些目标语句进行区分,则这些目标语句对应的标记可以是不同的。
这样一来,服务器就可以得到将目标语句替换为指定符号的替换后对话,而后服务器可以将该替换后对话输入到待训练的特征提取模型中,以通过该特征提取模型,对该指定符号所在位置处的特征进行预测,其中,经过预测后得到的特征对应的维度可以为1*768,服务器可以将该1*768维度的特征输入到相应的线性层进行线性处理,从而得到该线性层输出的1*768的特征,作为第一特征。
与此同时,服务器还可以将被替换的目标语句单独输入到特征提取模型中,从而确定该目标语句对应的1*768维度的特征,而后将该1*768维度的特征输入到另一线性层中进行线性处理,从而确定出该目标语句对应的语句特征,作为第二特征。
当然,上述第一特征以及第二特征也可以为其他特征维度下的特征,本说明书对此不做具体限定。
另外,在将目标语句输入到特征提取模型之前,服务器可以在该目标语句之前设置相应的第二指定符号(如[CLS]符号),从而将该第二指定符号对应位置处的特征,作为目标语句对应的第二特征,从而通过该指定标记更“公平”地融合语句中各个字或词的语义信息。
另外,在将上述历史对话以对话语句序列的形式输入到待训练的特征提取模型时,特征提取模型可以先将该序列中的目标语句设置为指定符号,从而将包含有该指定符号的替换后序列输入到特征提取模型中,从而通过该对话语句序列中指定符号对应位置外的其他语句,预测出该目标语句对应的第一特征。
需要说明的是,在本说明书中,服务器可以将替换后对话与目标语句分别输入到上述特征提取模型中,从而分别确定出第一特征以及第二特征,例如,服务器可以先将替换后的对话进行输入,以确定出第一特征,再将目标语句进行输入以确定出第二特征,当然,也可以先将目标语句输入后,再将替换后对话进行输入。
服务器也可以只将历史对话输入到特征提取模型中,从而直接通过该特征提取模型,根据出目标语句外的其他语句确定出目标语句对应的第一特征,以及根据目标语句确定该目标语句对应的第二特征。
S106:以最小化所述第一特征与所述第二特征之间的偏差为优化目标,对所述特征提取模型进行训练,其中,训练后的所述特征提取模型用于确定输入的每个对话语句对应的语句特征,并将输出的语句特征进行发送,以使接收端根据接收到的语句特征进行业务处理。
确定第一特征以及第二特征后,服务器可以以最小化上述第二特征与第一特征之间的偏差为优化目标,对特征提取模型进行训练,从而使每个语句对应的语句特征能够更加接近于根据其上下文信息确定出的语句特征,这样一来,即使是两个内容不相同的语句,但只要这两个语句所表达的语意信息相同,或者这两个语句的上下文信息类似,那么这两个语句所对应的语句特征也会较为接近。
例如,当对话语句为用户A:“你吃了吗”用户B:没有。用户A:我也没有。其中,对于用户B所对应的语句“没有”,其表达的语意信息是否定的,并且模型也能够根据用户A的对话语句预测出用户B所要回应的语句对应的语句特征。而对于“没吃呢”“还没”“没吃饭”等语句所表达的语意信息与“没有”接近甚至相同,所以这些语句对应的语句特征也会与“没有”相接近。
具体的,服务器可以确定第二特征与第一特征之间的相似度,并以该相似度最大化为优化目标,对模型进行训练。
例如,服务器可以将上述第二特征与第一特征进行内积运算,从而得到第二特征与第一特征之间的内积,而后将该内积除以特征维度的开方,从而获得单位维度下第二特征与第一特征之间的内积,并用该内积对第二特征与第一特征之间的相似度进行表示。
此外,服务器还可以在预设的语句库中,选取指定数量的除所述目标语句外的语句,作为对照语句,并针对每个对照语句,确定该对照语句对应的语句特征与第一特征之间的相似度,作为对照相似度,进而根据各对照语句对应的语句特征与上述第一特征之间的对照相似度,确定第二特征与第一特征之间的相似度对应的概率,作为目标概率,例如,将上述各对照语句对应的语句特征与上述第一特征之间的对照相似度以及第二特征与第一特征之间的相似度输入相应的softmax网络,以确定出相应的概率,进而以最大化该目标概率为优化目标,对所述特征提取模型进行训练。从而进一步使该模型每个语句对应的语句特征能够更加接近于根据其上下文信息确定出的语句特征。
除此之外,为了使特征提取模型每次预测出的第一特征尽可能的准确,服务器可以将替换后对话输入所述特征提取模型中,根据所述替换后对话中所述指定字符对应位置以外的其他语句,还原语句标记对应位置处的语句,作为预测语句,进而以最小化所述第一特征与所述第二特征之间的偏差,以及,最小化上述预测语句与目标语句之间的偏差为优化目标,对特征提取模型进行训练。
为了便于理解,本说明书还提供了一种模型训练的过程示意图,如图2所示。
图2为本说明书中提供的一种模型训练的过程示意图。
其中,样本数据对应的对话语句为用户1:你吃饭了吗,用户2:没吃,用户1:我也没有,这是服务器可以将上述各对话语句与相应的用户标记,按照对话的先后顺序进行连接,从而得到对话语句序列,并将该语句序列中,用户2的对话语句“没吃”替换为指定符号,表示此处存在一个语句,从而得到替换后语句序列,而后服务器可以将该替换后语句序列输入到相应的特征提取模型中,提取到特征向量后,将其输入线性层1进行相应的线性处理,从而得到确定出的第一特征。
与此同时,服务器还可以将用户2的对话语句“没吃”输入到特征提取模型中,在输入之前,服务器可以在目标语句“没吃”之前添加相应的[CLS]标记,在目标语句之后添加相应的[SEP]标记,用于将该目标语句与其他语句进行分割。将目标语句输入模型后,服务器可以提取[CLS]标记对应位置处的特征,并将该特征输入到线性层2中,以对该特征进行线性处理,并将处理后的特征作为第二特征。
确定第一特征以及第二特征后,服务器可以对该第一特征和第二特征进行内积运算,从而确定该第一特征与第二特征之间的内积,进而根据该内积确定出相应的损失函数的损失值,并以第一特征和第二特征之间的偏差最小化为优化目标,对该特征提取模型进行训练。
在本说明书中,特征提取模型的训练目标可以为:特征提取模型收敛至预设阈值范围内,或者,达到预设训练次数,以保证特征提取模型提取到的语句特征能够准确的表达出语句的语意信息,并使语意信息相接近的语句对应的语句特征也较为接近,从而能够根据提取到的语句特征进行业务处理。预设阈值和预设训练次数可以根据实际需求而进行设定,本说明书不作具体限定。
在本说明书中,训练后的特征提取模型用于确定输入的每个对话语句对应的语句特征,并将输出的语句特征进行发送,以使接收端根据接收到的语句特征进行业务处理。
其中,上述接收端可以为该特征提取模型的下层程序、模型等,当然,也可以为相应的设备,本说明书对此不做具体限定。
以上为在对特征提取模型进行训练时的训练方法,以下将从实际应用的角度,对通过该特征提取模型进行业务处理的业务处理方法进行说明,如图3所示。
图3为本说明书中提供的一种业务处理的方法示意图。
S300:获取业务对话。
在实际应用中,服务器可以先获取用户的业务对话,该业务对话可以是不同用户之间的业务对话,当然,也可以是用户输入到相应的设备或者客户端中的业务对话。
另外,在本说明书中,实现该业务处理的方法可以为设置在指定业务平台中的服务器,当然,也可以是设置在诸如手机、平板电脑、笔记本电脑、台式电脑等指定设备中的业务客户端,为了便于描述,一下仅以该执行主体是服务器为例,对本说明书提供的一种业务处理的方法进行说明。
S302:将所述业务对话输入到预先训练的特征提取模型中,以使所述特征提取模型针对所述业务对话中包含的每个对话语句,根据所述业务对话中除该对话语句外的其他语句,确定该对话语句对应的语句特征,其中,所述特征提取模型是通过上述模型训练方法训练得到的。
获取到业务对话后,服务器可以将该业务对话输入到预先训练的特征提取模型中,从而使该特征提取模型针对业务对话中包含的每个对话语句,根据该业务对话中除该对话语句外的其他语句,确定该对话语句对应的语句特征,以使确定出的语句特征明确的对该对话的语意信息进行表达。
当然,针对每个对话语句,服务器也可以将根据通过业务对话中除该对话语句外的其他语句确定的该对话语句对应的语句特征,以及仅根据该对话语句确定出的语句特征进行结合,从而将结合后的特征作为该对话语句的最终特征。
S304:根据所述业务对话中包含的每个对话语句对应的语句特征,进行业务处理。
而后服务器可以根据业务对话中包含的每个对话语句对应的语句特征,进行业务处理。在不同的业务场景下,所得到的业务处理结果也可以是不同的,例如,在智能对话场景下,该业务处理可以为根据用户输入的对话语句进行相应的回复,而在风险控制等业务场景下,该业务处理可以为当监测到用户之间对话异常时执行诸如账号冻结、报警等处理。
从上述方法可以看出,本方案在确定对话语句对应的语句特征时,能够根据历史对话中除了该对话语句的其他语句,对该对话语句对应的第一特征进行确定,进而以最小化第一特征与确定出的目标语句对应的第二特征之间的偏差为优化目标,对特征提取模型进行训练。这样一来,确定出的每个对话语句的语句特征都是根据该语句的上下文信息确定出来的,从而能够准确的表达出每个语句的语意信息,并且即使是文本不同的两个对话语句,只要其上下文类似或者语意相接近,其对应的语句特征也是相同或者相近的,进而使得根据上述方法得到的语句特征进行业务处理后,能够得到更加准确的业务处理结果。
需要进一步地说明的是,由于在风险识别领域中往往需要精确的识别出用户的语音中潜在的语意信息,以做到有效地主动风险防控,所以,本说明书提供的模型训练的方法尤其适用于对风险识别领域中所涉及的特征提取模型进行训练,可以保证训练后的特征提取模型能够提取出更加准确的语音特征,从而实现更加准确的风控,保证用户的数据以及财产安全。
所以,在本说明书提供的模型训练方法中,获取到的历史对话可以是指在执行风控业务时智能客服与用户之间的对话,或是用户在遇到业务风险时,与智能客服之间的对话。相应的,将上述特征提取模型应用到风险识别场景中后,可以将特征提取模型提取出的语句特征发送给后端的风险识别模型,风险识别模型可以根据接收到的语句特征,来确定用户遇到的风险的风险类型,从而在后续过程中,根据该风险类型对应的防控策略进行主动风险防控。
具体的,用户在与智能客服进行对话时,服务器可以采集对话内容并保存。而在启动模型训练任务时,服务器可以获取这些对话内容,作为历史对话,并通过上述提供的方式从历史对话中确定出目标语句。
进一步地,服务器可以将历史对话输入到特征提取模型中,以得到上述第一特征以及第二特征,进而根据第一特征与第二特征之间的偏差,对特征提取模型进行训练。
在后续的实际应用中,服务器可以获取用户在执行业务过程中与智能客服之间的对话语句,并将这些对话语句输入到训练后的特征提取模型中,以通过该特征提取模型,得到每个对话语句对应的语句特征。服务器可以将这些对话语句的语句特征发送给接收端,以使得接收端根据这些语句特征,对用户进行风险识别。
以上为本说明书的一个或多个实施模型训练以及业务处理的方法,基于同样的思路,本说明书还提供了相应的模型训练的装置以及业务处理的装置,如图4和图5所示。
图4为本说明书提供的一种模型训练的装置的示意图,包括:
获取模块400,用于获取历史对话;
确定模块402,用于从所述历史对话中确定目标语句;
输入模块404,用于将所述历史对话输入待训练的特征提取模型中,以使所述特征提取模型根据所述历史对话中除所述目标语句外的其他语句,确定所述目标语句对应的语句特征,作为第一特征,以及,根据所述目标语句,确定所述目标语句对应的语句特征,作为第二特征;
训练模块406,用于以最小化所述第一特征与所述第二特征之间的偏差为优化目标,对所述特征提取模型进行训练,其中,训练后的所述特征提取模型用于确定输入的每个对话语句对应的语句特征,并将输出的语句特征进行发送,以使接收端根据接收到的语句特征进行业务处理。
可选地,将所述历史对话输入所述特征提取模型之前,输入模块404还用于,将所述历史对话中的目标语句替换为指定字符,得到替换后对话;
所述输入模块404具体用于,将所述替换后对话输入所述特征提取模型中,以使所述特征提取模型根据所述替换后对话中所述指定字符对应位置以外的其他语句,确定所述指定字符对应位置处的语句特征,作为所述第一特征。
可选地,所述确定模块402具体用于,根据所述历史对话中包含的每个语句对应的被选取的概率,在所述历史对话中选取出所述目标语句。
可选地,所述确定模块402具体用于,若确定需要从所述历史对话中确定出至少两个目标语句,则从在语序上互不相邻的各语句中确定所述目标语句。
可选地,所述训练模块406具体用于,确定所述第一特征与所述第二特征之间的相似度;以最大化所述相似度为优化目标,对所述特征提取模型进行训练。
可选地,以最小化所述第一特征与所述第二特征之间的偏差为优化目标,对所述特征提取模型进行训练之前,所述训练模块406还用于,将所述替换后对话输入所述特征提取模型中,根据所述替换后对话中所述指定字符对应位置以外的其他语句,还原所述语句标记对应位置处的语句,作为预测语句;
所述训练模块406具体用于,以最小化所述第一特征与所述第二特征之间的偏差,以及,最小化所述预测语句与所述目标语句之间的偏差为优化目标,对所述特征提取模型进行训练。
图5为本说明书提供的一种业务处理的装置的示意图,包括:
获取模块500,获取业务对话;
输入模块502,将所述业务对话输入到预先训练的特征提取模型中,以使所述特征提取模型针对所述业务对话中包含的每个对话语句,根据所述业务对话中除该对话语句外的其他语句,确定该对话语句对应的语句特征,其中,所述特征提取模型是通过上述模型训练的装置训练得到的;
处理模块504,根据所述业务对话中包含的每个对话语句对应的语句特征,进行业务处理。
本说明书还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1或图3提供的一种模型训练的方法。
本说明书还提供了图6所示的一种对应于图1或图3的电子设备的示意结构图。如图6所述,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1或图3所述的模型训练的方法。当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device, PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20 以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、系统、或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。

Claims (11)

1.一种模型训练的方法,包括:
获取历史对话;
从所述历史对话中确定目标语句;
将所述历史对话输入待训练的特征提取模型中,以使所述特征提取模型根据所述历史对话中除所述目标语句外的其他语句,确定所述目标语句对应的语句特征,作为第一特征,以及,根据所述目标语句,确定所述目标语句对应的语句特征,作为第二特征;
以最小化所述第一特征与所述第二特征之间的偏差为优化目标,对所述特征提取模型进行训练,其中,在预设的语句库中,选取指定数量的除所述目标语句外的语句,作为对照语句,并针对每个对照语句,确定该对照语句对应的语句特征与第一特征之间的相似度,作为对照相似度,根据各对照语句对应的语句特征与所述第一特征之间的对照相似度,确定所述第二特征与所述第一特征之间的相似度对应的概率,作为目标概率,并以最大化所述目标概率为优化目标,对所述特征提取模型进行训练,训练后的所述特征提取模型用于确定输入的每个对话语句对应的语句特征,并将输出的语句特征进行发送,以使接收端根据接收到的语句特征进行业务处理。
2.如权利要求1所述的方法,将所述历史对话输入所述特征提取模型之前,所述方法还包括:
将所述历史对话中的目标语句替换为指定字符,得到替换后对话;
将所述历史对话输入待训练的特征提取模型中,以使所述特征提取模型根据所述历史对话中除所述目标语句外的其他语句,确定所述目标语句对应的语句特征,作为第一特征,具体包括:
将所述替换后对话输入所述特征提取模型中,以使所述特征提取模型根据所述替换后对话中所述指定字符对应位置以外的其他语句,确定所述指定字符对应位置处的语句特征,作为所述第一特征。
3.如权利要求1所述的方法,从所述历史对话中确定目标语句,具体包括:
根据所述历史对话中包含的每个语句对应的被选取的概率,在所述历史对话中选取出所述目标语句。
4.如权利要求1所述的方法,从所述历史对话中确定目标语句,具体包括:
若确定需要从所述历史对话中确定出至少两个目标语句,则从在语序上互不相邻的各语句中确定所述目标语句。
5.如权利要求1所述的方法,以最小化所述第一特征与所述第二特征之间的偏差为优化目标,对所述特征提取模型进行训练,具体包括:
确定所述第一特征与所述第二特征之间的相似度;
以最大化所述相似度为优化目标,对所述特征提取模型进行训练。
6.如权利要求2所述的方法,以最小化所述第一特征与所述第二特征之间的偏差为优化目标,对所述特征提取模型进行训练之前,所述方法还包括:
将所述替换后对话输入所述特征提取模型中,根据所述替换后对话中所述指定字符对应位置以外的其他语句,还原所述语句标记对应位置处的语句,作为预测语句;
以最小化所述第一特征与所述第二特征之间的偏差为优化目标,对所述特征提取模型进行训练,具体包括:
以最小化所述第一特征与所述第二特征之间的偏差,以及,最小化所述预测语句与所述目标语句之间的偏差为优化目标,对所述特征提取模型进行训练。
7.一种业务处理的方法,包括:
获取业务对话;
将所述业务对话输入到预先训练的特征提取模型中,以使所述特征提取模型针对所述业务对话中包含的每个对话语句,根据所述业务对话中除该对话语句外的其他语句,确定该对话语句对应的语句特征,其中,所述特征提取模型是通过上述权利要求1~6任一项所述的模型训练的方法训练得到的;
根据所述业务对话中包含的每个对话语句对应的语句特征,进行业务处理。
8.一种模型训练的装置,包括:
获取模块,获取历史对话;
确定模块,从所述历史对话中确定目标语句;
输入模块,将所述历史对话输入待训练的特征提取模型中,以使所述特征提取模型根据所述历史对话中除所述目标语句外的其他语句,确定所述目标语句对应的语句特征,作为第一特征,以及,根据所述目标语句,确定所述目标语句对应的语句特征,作为第二特征;
训练模块,以最小化所述第一特征与所述第二特征之间的偏差为优化目标,对所述特征提取模型进行训练,其中,在预设的语句库中,选取指定数量的除所述目标语句外的语句,作为对照语句,并针对每个对照语句,确定该对照语句对应的语句特征与第一特征之间的相似度,作为对照相似度,根据各对照语句对应的语句特征与所述第一特征之间的对照相似度,确定所述第二特征与所述第一特征之间的相似度对应的概率,作为目标概率,并以最大化所述目标概率为优化目标,对所述特征提取模型进行训练,训练后的所述特征提取模型用于确定输入的每个对话语句对应的语句特征,并将输出的语句特征进行发送,以使接收端根据接收到的语句特征进行业务处理。
9.一种业务处理的装置,包括:
获取模块,获取业务对话;
输入模块,将所述业务对话输入到预先训练的特征提取模型中,以使所述特征提取模型针对所述业务对话中包含的每个对话语句,根据所述业务对话中除该对话语句外的其他语句,确定该对话语句对应的语句特征,其中,所述特征提取模型是通过上述权利要求1~6任一项所述的模型训练的方法训练得到的;
处理模块,根据所述业务对话中包含的每个对话语句对应的语句特征,进行业务处理。
10.一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1~7任一项所述的方法。
11.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述权利要求1~7任一项所述的方法。
CN202211509841.6A 2022-11-29 2022-11-29 一种模型训练和业务处理的方法、装置、存储介质及设备 Active CN115545002B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202211509841.6A CN115545002B (zh) 2022-11-29 2022-11-29 一种模型训练和业务处理的方法、装置、存储介质及设备
US18/522,028 US20240177510A1 (en) 2022-11-29 2023-11-28 Model training method and apparatus, service processing method and apparatus, storage medium, and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211509841.6A CN115545002B (zh) 2022-11-29 2022-11-29 一种模型训练和业务处理的方法、装置、存储介质及设备

Publications (2)

Publication Number Publication Date
CN115545002A CN115545002A (zh) 2022-12-30
CN115545002B true CN115545002B (zh) 2023-03-31

Family

ID=84721836

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211509841.6A Active CN115545002B (zh) 2022-11-29 2022-11-29 一种模型训练和业务处理的方法、装置、存储介质及设备

Country Status (2)

Country Link
US (1) US20240177510A1 (zh)
CN (1) CN115545002B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116151355B (zh) * 2023-04-19 2023-07-11 之江实验室 一种模型训练和业务执行的方法、装置、介质及设备
CN116501852B (zh) * 2023-06-29 2023-09-01 之江实验室 一种可控对话模型训练方法、装置、存储介质及电子设备
CN117786417B (zh) * 2024-02-28 2024-05-10 之江实验室 一种模型训练方法、瞬变源的识别方法、装置及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017208054A (ja) * 2016-05-18 2017-11-24 洋彰 宮崎 概念を組合せて情報および手順を検索し自律的に問題を処理する人工知能装置
CN109299276A (zh) * 2018-11-15 2019-02-01 阿里巴巴集团控股有限公司 一种将文本转化为词嵌入、文本分类方法和装置
CN113010640A (zh) * 2021-03-04 2021-06-22 北京三快在线科技有限公司 一种业务执行的方法及装置
WO2021196981A1 (zh) * 2020-03-31 2021-10-07 华为技术有限公司 语音交互方法、装置和终端设备
CN115309877A (zh) * 2022-08-03 2022-11-08 北京百度网讯科技有限公司 对话生成方法、对话模型训练方法及装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5880152B2 (ja) * 2012-03-08 2016-03-08 富士ゼロックス株式会社 文書作成支援プログラム及び文書作成支援装置
CN113011483B (zh) * 2021-03-11 2022-08-05 北京三快在线科技有限公司 一种模型训练和业务处理的方法及装置
CN114860967A (zh) * 2022-04-29 2022-08-05 北京三快在线科技有限公司 一种模型训练的方法、信息推荐的方法以及装置
CN115203394A (zh) * 2022-07-20 2022-10-18 北京三快在线科技有限公司 一种模型训练的方法、业务执行的方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017208054A (ja) * 2016-05-18 2017-11-24 洋彰 宮崎 概念を組合せて情報および手順を検索し自律的に問題を処理する人工知能装置
CN109299276A (zh) * 2018-11-15 2019-02-01 阿里巴巴集团控股有限公司 一种将文本转化为词嵌入、文本分类方法和装置
WO2021196981A1 (zh) * 2020-03-31 2021-10-07 华为技术有限公司 语音交互方法、装置和终端设备
CN113010640A (zh) * 2021-03-04 2021-06-22 北京三快在线科技有限公司 一种业务执行的方法及装置
CN115309877A (zh) * 2022-08-03 2022-11-08 北京百度网讯科技有限公司 对话生成方法、对话模型训练方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Zhang Xiaoyu等. M-SQL: Multi-Task Representation Learning for Single-Table Text2sql Generation.《IEEE Access》.2020,全文. *
廖胜兰.面向服务机器人自然语言交互的语义解析方法研究.《中国优秀硕士学位论文全文数据库》.2021,全文. *

Also Published As

Publication number Publication date
CN115545002A (zh) 2022-12-30
US20240177510A1 (en) 2024-05-30

Similar Documents

Publication Publication Date Title
CN115545002B (zh) 一种模型训练和业务处理的方法、装置、存储介质及设备
CN115033676B (zh) 一种意图识别模型训练及用户意图识别方法及装置
CN111984779A (zh) 一种对话文本分析方法、装置、设备和可读介质
CN115203394A (zh) 一种模型训练的方法、业务执行的方法及装置
US11875125B2 (en) System and method for designing artificial intelligence (AI) based hierarchical multi-conversation system
CN112417093B (zh) 一种模型训练的方法及装置
CN117076650B (zh) 一种基于大语言模型的智能对话方法、装置、介质及设备
CN115759122A (zh) 一种意图识别方法、装置、设备及可读存储介质
CN114969293A (zh) 数据处理方法、装置及设备
CN114880472A (zh) 数据处理方法、装置及设备
CN112597301A (zh) 一种语音意图识别方法及装置
CN113887206B (zh) 一种模型训练及关键词提取方法及装置
CN112735407A (zh) 一种对话处理方法及装置
CN116049761A (zh) 数据处理方法、装置及设备
CN115620706B (zh) 一种模型训练方法、装置、设备及存储介质
CN112908315A (zh) 一种基于声音特征和语音识别的问答意图判断方法
CN116186231A (zh) 一种回复文本的生成方法、装置、存储介质及电子设备
CN116150333A (zh) 文本匹配方法、装置、电子设备及可读存储介质
CN115204395A (zh) 数据的处理方法、装置及设备
CN115019781A (zh) 一种对话业务执行方法、装置、存储介质及电子设备
CN115423485B (zh) 数据处理方法、装置及设备
CN111539520A (zh) 增强深度学习模型鲁棒性的方法及装置
CN115658891B (zh) 一种意图识别的方法、装置、存储介质及电子设备
CN116501852B (zh) 一种可控对话模型训练方法、装置、存储介质及电子设备
NZ785406A (en) System and method for designing artificial intelligence (ai) based hierarchical multi-conversation system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant