CN116975224A - 信息处理的方法、应答信息匹配模型的训练方法、装置 - Google Patents
信息处理的方法、应答信息匹配模型的训练方法、装置 Download PDFInfo
- Publication number
- CN116975224A CN116975224A CN202310736614.5A CN202310736614A CN116975224A CN 116975224 A CN116975224 A CN 116975224A CN 202310736614 A CN202310736614 A CN 202310736614A CN 116975224 A CN116975224 A CN 116975224A
- Authority
- CN
- China
- Prior art keywords
- response information
- user requests
- historical user
- historical
- matching model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004044 response Effects 0.000 title claims abstract description 328
- 238000000034 method Methods 0.000 title claims abstract description 83
- 238000012549 training Methods 0.000 title claims abstract description 56
- 230000010365 information processing Effects 0.000 title claims abstract description 21
- 238000003672 processing method Methods 0.000 title abstract description 9
- 238000012795 verification Methods 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 12
- 230000003993 interaction Effects 0.000 claims description 11
- 238000004458 analytical method Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 8
- 230000002452 interceptive effect Effects 0.000 claims description 7
- 239000004973 liquid crystal related substance Substances 0.000 claims description 5
- 238000012163 sequencing technique Methods 0.000 claims 2
- 238000012545 processing Methods 0.000 abstract description 12
- 238000004891 communication Methods 0.000 description 8
- 230000001960 triggered effect Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 239000002699 waste material Substances 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/10—File systems; File servers
- G06F16/17—Details of further file system functions
- G06F16/172—Caching, prefetching or hoarding of files
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Abstract
本公开提供了一种信息处理的方法,涉及数据处理技术领域,尤其涉及应答信息匹配模型的训练方法、装置。具体实现方案为:响应于用户端发送的用户请求,根据预训练的应答信息匹配模型确定与用户请求匹配的应答信息,其中,应答信息匹配模型匹配的应答信息预先存储在文件存储系统;响应于匹配的应答信息非空,从文件存储系统中调用匹配的应答信息并发送给用户端;其中,应答信息匹配模型根据多个历史用户请求和多个历史用户请求对应的应答信息预训练获得。本公开能够根据应答信息匹配模型快速匹配用户请求对应的应答信息,并将预先存储的应答信息提供给用户端,有效提升了用户请求的应答效率。
Description
技术领域
本公开涉及数据处理技术领域,尤其涉及信息处理的方法、应答信息匹配模型的训练方法、装置。
背景技术
在众多智能业务场景中(例如:基于车联网的车载场景),用户会通过用户端输入用户请求,当主机系统接收到用户请求,则通过大语言模型提供的接口(API)向大语言模型进行请求,大语言模型通过对用户请求进行语义分析、在线检索等过程,匹配出与用户请求对应的应答信息,再将应答信息转发给主机系统,主机系统将应答信息提供给用户端。
但是,大语言模型处理用户请求并进行结果返回的过程通常耗时很长,且大语言模型服务器接收到大量用户请求,导致业务拥堵。
发明内容
本公开提供了一种用于解决上述技术问题中的至少一项的信息处理的方法、应答信息匹配模型的训练方法、装置。
根据本公开的一方面,提供了一种信息处理的方法,所述方法包括:
响应于用户端发送的用户请求,根据预训练的应答信息匹配模型确定与所述用户请求匹配的应答信息,其中,所述应答信息匹配模型匹配的应答信息预先存储在文件存储系统;
响应于所述匹配的应答信息非空,从所述文件存储系统中调用所述匹配的应答信息并发送给所述用户端;
其中,所述应答信息匹配模型根据多个历史用户请求和多个所述历史用户请求对应的应答信息预训练获得。
根据本公开的另一方面,提供了一种应答信息匹配模型的训练方法,所述方法包括:
获取多个历史用户请求和多个所述历史用户请求对应的应答信息;
将所述多个历史用户请求输入初始应答信息匹配模型,得到第一预测应答信息;
基于所述第一预测应答信息和多个所述历史用户请求对应的应答信息确定所述初始应答信息匹配模型的损失函数的第一损失值;
基于所述第一损失值进行反向传播,对所述初始应答信息匹配模型的参数进行修改,获得所述应答信息匹配模型。
根据本公开的另一方面,提供了一种信息处理的装置,所述装置包括:
匹配模块,用于响应于用户端发送的用户请求,根据预训练的应答信息匹配模型确定与所述用户请求匹配的应答信息,其中,所述应答信息匹配模型匹配的应答信息预先存储在文件存储系统;
信息确定模块,用于响应于所述匹配的应答信息非空,从所述文件存储系统中调用所述匹配的应答信息并发送给所述用户端;
其中,所述应答信息匹配模型根据多个历史用户请求和多个所述历史用户请求对应的应答信息预训练获得。
根据本公开的另一方面,提供了一种应答信息匹配模型的训练装置,所述装置包括:
获取模块,用于获取多个历史用户请求和多个所述历史用户请求对应的应答信息;
输入模块,用于将所述多个历史用户请求输入初始应答信息匹配模型,得到第一预测应答信息;
损失确定模块,用于基于所述第一预测应答信息和多个所述历史用户请求对应的应答信息确定所述初始应答信息匹配模型的损失函数的第一损失值;
训练模块,用于基于所述第一损失值进行反向传播,对所述初始应答信息匹配模型的参数进行修改,获得所述应答信息匹配模型。
根据本公开的另一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执上述方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据上述方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据上述方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是本公开第一实施例提供的一种信息处理的方法的流程示意图;
图2是本公开第二实施例提供的一种信息处理的方法的流程示意图;
图3本公开第三实施例提供的一种应答信息匹配模型的训练方法的流程示意图;
图4是本公开第三实施例提供的一种应答信息匹配模型的训练方法中确定第二损失值的步骤的流程示意图;
图5是本公开第四实施例提供的一种信息处理的装置的结构示意图;
图6是本公开第五实施例提供的一种应答信息匹配模型的训练装置的结构示意图;
图7是用来实现本公开实施例的方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
在不冲突的情况下,本公开各实施例及实施例中的各特征可相互组合。
如本文所使用的,术语“和/或”包括一个或多个相关列举条目的任何和所有组合。
本文所使用的术语仅用于描述特定实施例,且不意欲限制本公开。如本文所使用的,单数形式“一个”和“该”也意欲包括复数形式,除非上下文另外清楚指出。
除非另外限定,否则本文所用的所有术语(包括技术和科学术语)的含义与本领域普通技术人员通常理解的含义相同。还将理解,诸如那些在常用字典中限定的那些术语应当被解释为具有与其在相关技术以及本公开的背景下的含义一致的含义,且将不解释为具有理想化或过度形式上的含义,除非本文明确如此限定。
根据本公开的信息处理的方法可以由终端设备或服务器等电子设备执行,终端设备可以为车载设备、用户设备(UserEquipment,UE)、移动设备、用户终端、终端、蜂窝电话、无绳电话、个人数字助理(Personal DigitalAssistant,PDA)、手持设备、计算设备、车载设备、可穿戴设备等,方法可以通过处理器调用存储器中存储的计算机可读程序指令的方式来实现。或者,可通过服务器执行本公开提供的信息处理的方法。
在公开第一实施例中,参见图1,图1示出本公开第一实施例提供的一种信息处理的方法的流程图。该方法包括:
S101、响应于用户端发送的用户请求,根据预训练的应答信息匹配模型确定与用户请求匹配的应答信息。
其中,应答信息匹配模型匹配的应答信息(即多个历史用户请求对应的应答信息)预先存储在文件存储系统。
其中,文件存储系统可为分布式文件系统(HadoopDistributedFile System,HDFS)、数据仓库存储系统(Hive)等,具体地,可以是任意能满足大数据量存储到文件存储系统。
S102、响应于匹配的应答信息非空,从文件存储系统中调用匹配的应答信息并发送给用户端。
其中,应答信息匹配模型根据多个历史用户请求和多个历史用户请求对应的应答信息预训练获得,后续详述训练过程。
需要说明的是,本公开提供的信息处理的方法能够应用在多种智能业务场景下,例如:基于车联网的车载场景、智能家居场景、智能客服场景等,在此不做限定。根据业务场景的不同,S101中,用户请求和与用户请求对应的应答信息的具体内容可以相应设置,例如,在基于车联网的车载场景,用户请求为车载语音互动请求;应答信息为车载互动文本到语音(TextToSpeech,TTS)信息;应答信息匹配模型用于根据车载语音互动请求匹配与车载语音互动请求对应的车载互动TTS消息。本公开中的实施例不对应用场景构成限制。
在S101中,处理用户请求的服务端接收到用户请求后,通过应答信息匹配模型进行应答信息匹配,确定与用户请求(例如车载语音互动请求)匹配的应答信息(例如车载互动TTS信息)。
在S102中,在S101中通过应答信息匹配模型确定的、与用户请求匹配的应答信息非空的情况下,换言之,成功匹配到与用户请求匹配的应答信息,则从文件存储系统中调用匹配的应答信息,并将匹配的应答信息发送给用户端,使用户端将应答信息提供给发送用户请求的用户。
在另一些示例中,在S101中通过应答信息匹配模型确定的、与用户请求匹配的应答信息为空的情况下,换言之,未匹配到与用户请求匹配的应答信息,则可以通过多种方式进行二次匹配,再根据二次匹配确定最终的应答信息,并将最终的应答信息发送给用户端,使用户端将应答信息提供给发送用户请求的用户。
采用这种方式,能够根据应答信息匹配模型快速匹配用户请求对应的应答信息,并将应答信息提供给用户端,有效提升了用户请求的应答效率;且采用史用户请求和历史用户请求对应的应答信息训练应答信息匹配模型,能够从多个维度提高匹配到准确性;并且,预先将与多个历史用户请求对应的应答信息存储在文件存储系统中,通过模型匹配到应答信息后,能够直接从文件存储系统离线调用预先存储的应答信息,而不用通过外部大语言模型进行匹配后再在线获取应答信息,从而有效提高了匹配效率;通过模型进行应答信息匹配,而不采用调用外部大语言模型进行匹配,从而能够减少网络资源的浪费。
在一种实现方式中,在S101之前,该方法还包括:
步骤一:根据用于训练应答信息匹配模型的多个历史用户请求,获取与多个历史用户请求对应的应答信息。
步骤二:将获取到的多个历史用户请求对应的应答信息存储在文件存储系统中。
其中,文件存储系统可为分布式文件系统(HadoopDistributedFile System,HDFS)、数据仓库存储系统(Hive)等,具体地,可以是任意能满足大数据量存储到文件存储系统。
也就是说,预先根据应答信息匹配模型的训练集(即多个历史用户请求),获取训练集包含的多个历史用户请求对应的应答信息,并将应答信存储在文件存储系统中,在后续线上应用阶段,当接收到用户请求并经应答信息匹配模型确定与用户信息匹配的应答消息后,可以直接从文件存储系统中调用匹配到的应答信息,并将应答信息发送给用户端,而不用通过大语言模型系统提供的API将用户请求发送给大语言模型系统,再通过大语言模型系统在线对应答信息匹配后才能获得应答信息,采用这种方式,有效缩短了获取应答信息所需的时间,从而能够进一步提高匹配效率,并且能够提供适用于离线匹配。
在一些示例中,步骤一具体包括:
将多个历史用户请求发送至外部大语言模型服务器,其中,大语言模型服务器用于响应于多个历史用户请求,分别对多个历史用户请求进行应答信息的匹配,并返回匹配到的应答信息。
在步骤二中,再将大语言模型服务器返回的多个匹配到的应答信息存储在文件存储系统中。
其中,大语言模型服务器为存储有大语言模型的服务器,其中,大语言模型(LLM)为使用大量文本数据训练的深度学习模型,大语言模型可以是任意能够生成自然语言文本或理解语言文本含义的深度学习模型。
也就是说,根据多个历史用户请求,预先通过大预言模型系统进行匹配并获取匹配到的与历史用户请求相对应的应答信息,并将应答信息存储在文件存储系统中,一方面,采用大语言模型匹配的应答信息保证了匹配的精确度,另一方面,通过将应答信息提前存储,从而在后续线上应用中,不用再实时通过大语言模型进行匹配,能够直接从文件存储系统中调用应答信息,有效缩短了获取应答信息所需的时间。
进一步地,上述步骤一和步骤二中,用于获取应答信息并进行存储的多个历史用户请求为训练应答信息匹配模型的训练集中包含的历史用户请求信息,在本公开提供的方法中,能够通过以下方式确定用于训练应答信息匹配模型的多个历史用户请求:
子步骤一:获取预设的第一历史时段内的多个初始历史用户请求,并统计多个初始历史用户请求的触发频率。
其中,第一历史时段可以根据需要设置,例如:一年、一个月等,第一历史时段的覆盖时间越长,确定出的多个历史用户请求的高频准确率越好。
子步骤二:根据触发频率从高到低的规则对多个初始历史用户请求进行排序,并将排序前N个初始历史用户请求确定为N个历史用户请求。
其中,N为大于1的整数。
也就是说,可以根据处理用户请求的服务器在历史时段(第一历史时段)内接收到的、各个用户触发的初始历史用户请求,确定出其中被触发的频率较高的的初始历史用户请求作为目标历史用户请求,再根据被触发的频率较高的历史用户请求获取应答信息并存储在文件存储系统中,从而保证存储到应答信息为高利用率的应答信息,一方面能够更好地满足匹配需求,另一方面避免浪费存储资源。
在一些示例中,在子步骤二之后,子步骤三之前,还包括:
分别对N个历史用户请求进行语义分析;
根据语义分析结果确定与N个历史用户请求对应的相似用户请求,并将相似用户请求新增为历史用户请求。
子步骤三:获取N个历史用户请求对应的应答信息。
其中,N为大于1的整数。
在一些示例中,还可以对筛选出的高频的历史用户请求进行泛化,得到与高频的历史用户请求语义相似度高的相似用户请求,再将相似用户请求对应的应答信息也存储到文件存储系统,从而进一步增加应答信息的利用率和覆盖范围广度。
在公开第二实施例中,参见图2,图2示出本公开第二实施例提供的一种信息处理的方法的流程图。该方法包括:
S201、响应于用户端发送的用户请求,根据预训练的应答信息匹配模型匹配用户请求对应的应答信息。
S202A、响应于匹配的应答信息非空,从文件存储系统中调用匹配的应答信息并发送给用户端。
其中,匹配的应答信息非空即表示:根据预训练的应答信息匹配模型成功匹配到用户请求对应的应答信息,在匹配成功的情况下,从文件存储系统中调用匹配到的用户请求对应的应答信息,并将匹配到的用户请求对应的应答信息发送给用户端。
S202B、响应于匹配的应答信息为空,对用户请求进行应答信息的二次匹配,并根据二次匹配结果确定最终的与用户请求匹配的应答信息,并将最终的与用户请求匹配的应答信息发送给用户端。
其中,响应于匹配的应答信息为空即表示:根据预训练的应答信息匹配模型未匹配到用户请求对应的应答信息,在匹配失败的情况下,可以对用户请求进行应答信息的二次匹配,具体地,可以采用多种方式进行二次匹配,采用这种方式,保证了匹配的成功率。
在一些实现方式中,S202B包括:
根据用户请求的类型二次匹配与之对应的预设的默认应答信息,将二次匹配到的默认应答信息确定为最终的应答信息,并将最终的应答信息发送给用户端。
在匹配失败的情况下,从文件存储系统中调用用户请求的类型对应的默认应答信息,并将匹配到的默认应答信息发送给用户端。默认应答信息可以存储在文件存储系统中,并且设置为不同类型的用户请求设置对应的默认应答信息,从而在二次匹配过程中,通过确定用户请求的类型,再确定用户请求的类型对应的默认应答信息。采用这种方式,能够保证在匹配失败下也能够调用作为兜底的默认应答信息作为回复,在一些示例中,适用于离线模式下给用户提供的匹配应答信息匹配能力。
在另一些实现方式中,S202B包括:
子步骤一、将用户请求发送至外部大语言模型服务器,其中,大语言模型服务器用于响应于用户请求,对用户请求进行应答信息的二次匹配,并返回二次匹配到的应答信息。
子步骤二、将二次匹配到的用户请求对应的应答信息确定为最终的应答信息,并将最终的应答信息发送给用户端。
采用这种方式,在用应答信息匹配模型匹配失败后,通过大语言模型提供的API将用户请求发送给大语言模型进行匹配,并将大语言模型匹配到的应答信息提供给用户,以保证匹配的成功率。
需要说明的是,上述S202A和S202B为S102的一种实现方式,S102还具有其他实现方式,在此不做限定。
基于S202A的情况下,本公开提供的方法还包括:
S203A、确定当前接收的用户请求的触发频率。
S204A、在触发频率高于第一阈值的情况下,将当前接收的用户请求标记为待更新用户请求。
其中,待更新用户请求用于训练应答信息匹配模型。
其中,第一阈值用于指示触发频率的高低,将触发频率高于第一阈值的用户请求视为高频用户请求,第一阈值的具体数值可以根据需要设置,例如为30次。
在本次接收的用户请求超出应答信息匹配模型的匹配范围的情况下(即匹配失败),确定本次接收到用户请求的触发频率,换言之,确定本次接收到用户请求是否为高频用户请求,若用户请求为高频用户请求(即若触发频率高于第一阈值的情况下),则将当前接收到用户请求标记为待更新用户请求,后续将一定时段内的待更新用户请求汇总为待更新用户请求集合,再用待更新用户请求集合去训练应答信息匹配模型,以完成模型的更新迭代,进一步增强模型的匹配能力;若用户请求不是高频用户请求(即若触发频率低于或等于第一阈值的情况下),则不进行标记,以筛选出有效的训练数据,并且,在上述步骤二的情况下,需要将待更新用户请求对应的应答信息存储在文件存储系统中,采用这种方式,能够根据新接收到的匹配范围外的用户请求更新应答信息匹配模型,从而保证模型的时效性,提升模型的匹配能力和匹配精度,并且,能够仅存储被高频触发的待更新用户请求对应的应答信息,避免造成存储资源浪费。
在公开第三实施例中,参见图3,图3示出本公开第三实施例提供的一种应答信息匹配模型的训练方法的流程图。该方法包括:
S301、获取多个历史用户请求和多个历史用户请求对应的应答信息。
其中,多个历史用户请求组成初始应答信息匹配模型的训练集,多个历史用户请求对应的应答信息即为与训练集对应的标注数据。
S302、将多个历史用户请求输入初始应答信息匹配模型,得到第一预测应答信息。
其中,可以采用多种算法对初始应答信息匹配模型进行训练,例如:梯度提升树(GradientBoostingDecisionTree,GBDT)算法、极度梯度提升树(eXtremeGradientBoosting,XGBoost)、轻量梯度提升树(LightGradientBoostingMachine,LightGBM)等。
S303、基于第一预测应答信息和多个历史用户请求对应的应答信息确定初始应答信息匹配模型的损失函数的第一损失值。
基于第一预测应答信息和作为标注数据的应答信息代入预构建的损失函数,得到第一损失值,第一损失值可以表示第一预测应答信息和标注数据的应答信息的相似度。损失函数的构建方式具有多种实现方式,例如:均方根损失函数、交叉熵损失函数、对数损失函数等,在此不做限定。
S304、基于第一损失值进行反向传播,对初始应答信息匹配模型的参数进行修改,获得应答信息匹配模型。
基于第一损失值进行反向传播,依次修改初始应答信息匹配模型每一层的参数,对参数进行优化,得到训练好的应答信息匹配模型。模型的优化目标为:使第一损失值尽可能小,即表示输出的第一预测应答信息与标签数据越接近。
在一些示例中,S301的目的即为确定应答信息匹配模型的训练集,具体地可以采用多种方式确定,S301包括:
步骤一、获取预设的第一历史时段内的多个初始历史用户请求,并统计多个初始历史用户请求的触发频率。
步骤二、根据触发频率从高到低的规则对多个初始历史用户请求进行排序,并将排序前N个初始历史用户请求确定为N个历史用户请求;
步骤三、获取N个历史用户请求对应的应答信息;
其中,N为大于1的整数。
也就是说,可以根据处理用户请求的服务器在历史时段(第一历史时段)内接收到的、各个用户触发的初始历史用户请求,确定出其中被触发的频率较高的的初始历史用户请求作为目标历史用户请求,再根据被触发的频率较高的历史用户请求获取应答信息并存储在文件存储系统中,从而保证存储到应答信息为高利用率的应答信息,一方面能够更好地满足匹配需求,另一方面避免浪费存储资源。
在一些示例中,S301的步骤二之后、步骤三之前,还包括:
分别对N个历史用户请求进行语义分析;
根据语义分析结果确定与N个历史用户请求对应的相似用户请求,并将相似用户请求新增为历史用户请求。
在一些示例中,还可以对筛选出的高频的历史用户请求进行泛化,得到与高频的历史用户请求语义相似度高的相似用户请求,再将相似用户请求对应的应答信息也存储到文件存储系统,从而进一步增加应答信息的利用率和覆盖范围广度。
在一些示例中,S301包括:
步骤一、获取多个历史用户请求,并根据多个验证历史用户请求,对多个历史用户请求进行验证。
步骤二、在验证通过的情况下,获取多个历史用户请求对应的应答信息。
在确定出训练集包括的多个历史用户请求后,通过验证历史用户请求对训练集(即多个历史用户请求)的高频准确率进行验证,在验证通过后再获取多个历史用户请求对应的应答信息进行存储,从而保证了训练集的准确性,以及避免存储资源浪费。
其中,多个验证历史用户请求根据预设的第二历史时段内的多个初始历史用户请求确定;第二历史时段的时长小于第一历史时段。
第二历史时段可以根据需要设置,例如:一天、一周等,其中,第一历史时段为距当前较为长的历史时间至当前的时段;第二历史时段为距当前较为短的历史时间至当前的时段。在根据第一历史时段内获得的历史用户请求对应答信息匹配模型进行训练后,再根据较新的第二历史时段内获得的验证历史用户请求对应答信息匹配模型进行验证,从而保证了模型的实时有效性和匹配准确度。
在一些示例中,步骤一包括以下子步骤。
子步骤一、确定多个历史用户请求中与多个验证历史用户请求相同的历史用户请求的数量。
子步骤二、根据数量和多个历史用户请求的比例确定命中率,根据命中率对多个历史用户请求进行验证。
具体的,多个验证历史用户为第二历史时段内被触发频率较高的初始历史用户请求,确定多个历史用户请求中与多个验证历史用户请求相同的历史用户请求的数量,即确定第一历史时段内筛选出的高频的历史用户请求和第二历史时段内筛选出的高频的历史用户请求的相似度,具体的相似度(也即命中率)表征为数量和多个历史用户请求的比例,若二者相似度高,即能够确定训练集包含的多个历史用户请求为会被高频触发的用户请求,进而能够确定根据训练集中包含的多个历史用户请求训练完成的应答信息匹配模型的精度高。
在一些示例中,多个验证历史用户请求按照以下方式确定:
获取预设的第二历史时段内的多个初始历史用户请求,并统计多个初始历史用户请求的触发频率;
根据触发频率从高到低的规则对多个初始历史用户请求进行排序,并将排序前M个初始历史用户请求确定为验证历史用户请求,其中,M为大于1的整数。
也就是说,通过上述方式,确定出第二历史时段接收到的多个初始历史用户请求中被高频触发的多个初始历史用户请求,并将被高频触发的多个初始历史用户请求确定为验证历史用户请求。
当然,在本公开中,还可以通过其他方式确定验证历史用户请求,在此不做限定。
在一些示例中,参见图4,图4示出本公开第三实施例提供的一种应答信息匹配模型的训练方法中确定第二损失值的步骤的流程图。S304之后,该方法还包括:
S3041、获取待更新用户请求对应的待更新应答信息。
S3042、将待更新用户请求输入应答信息匹配模型,得到第二预测应答信息。
S3043、基于第二预测应答信息和待更新应答信息确定应答信息匹配模型的损失函数的第二损失值。
S3044、基于第二损失值进行反向传播,对应答信息匹配模型的参数进行更新,得到更新后的应答信息匹配模型。
其中,待更新应答信息根据上述S203A、S204A的方法获得。
在S203A和S204中,在匹配失败的情况下,确定本次接收到用户请求的触发频率,换言之,确定本次接收到用户请求是否为高频用户请求,若用户请求为高频用户请求,则将当前接收到用户请求标记为待更新用户请求。后续可以给应答信息匹配模型设定定时更新时间或不定时更新模型,在模型更新时,将一定时段内的待更新用户请求汇总为待更新用户请求集合,再用待更新用户请求集合去训练应答信息匹配模型,以完成模型的更新迭代,进一步增强模型的匹配能力。并且,需要将待更新用户请求对应的应答信息存储在文件存储系统中,采用这种方式,能够根据新接收到的匹配范围外的用户请求更新应答信息匹配模型,保证模型的时效性,进而提升模型的匹配能力和匹配精度,并且,能够仅存储被高频触发的待更新用户请求对应的应答信息,避免造成存储资源浪费。
具体地,S3041-S2044的更新方式与S301-S304原理相同。
在公开第四实施例中,基于与图1相同的原理,图5示出本公开第四实施例提供的一种信息处理的装置50,该装置包括:
匹配模块501,用于用于响应于用户端发送的用户请求,根据预训练的应答信息匹配模型确定与用户请求匹配的应答信息,其中,应答信息匹配模型匹配的应答信息预先存储在文件存储系统;
信息确定模块502,用于响应于匹配的应答信息非空,从文件存储系统中调用匹配的应答信息并发送给用户端。
其中,应答信息匹配模型根据多个历史用户请求和多个历史用户请求对应的应答信息预训练获得。
一些示例中,该装置还包括:
匹配失败模块,用于响应于匹配的应答信息为空,对用户请求进行应答信息的二次匹配,并根据二次匹配结果确定最终的应答信息,并将最终的应答信息发送给用户端。
一些示例中,匹配失败模块具体用于:
根据用户请求的类型二次匹配与之对应的预设的默认应答信息,将二次匹配到的默认应答信息确定为最终的应答信息,并将最终的应答信息发送给用户端;
或者,
将用户请求发送至外部大语言模型服务器,其中,大语言模型服务器用于响应于用户请求,对用户请求进行应答信息的二次匹配,并返回二次匹配到的应答信息;
将二次匹配到的用户请求对应的应答信息确定为最终的应答信息,并将最终的应答信息发送给用户端。
在一些示例中,该装置还包括:
历史获取子模块,用于根据用于训练应答信息匹配模型的多个历史用户请求,获取与多个历史用户请求对应的应答信息;
存储子模块,用于将获取到的多个历史用户请求对应的应答信息存储在文件存储系统中
在一些示例中,历史获取子模块具体用于:
将多个历史用户请求发送至外部大语言模型服务器,其中,大语言模型服务器用于响应于多个历史用户请求,分别对多个历史用户请求进行应答信息的匹配,并返回匹配到的应答信息。
在一些示例中,该装置还包括:
触发频率确定子模块,用于确定当前接收的用户请求的触发频率;
更新标记子模块,用于在触发频率高于第一阈值的情况下,将当前接收的用户请求标记为待更新用户请求;
其中,待更新用户请求用于训练应答信息匹配模型。
在一些示例中,装置应用在车载场景;用户请求为车载语音互动请求;应答信息为车载互动文本到语音信息;应答信息匹配模型用于根据车载语音互动请求匹配与之对应的车载互动文本到语音消息。
在公开第五实施例中,基于与图3相同的原理,图6示出本公开第五实施例提供的一种应答信息匹配模型的训练装置60,该装置包括:
获取模块601,用于获取多个历史用户请求和多个历史用户请求对应的应答信息;
输入模块602,用于将多个历史用户请求输入初始应答信息匹配模型,得到第一预测应答信息;
损失确定模块603,用于基于第一预测应答信息和多个历史用户请求对应的应答信息确定初始应答信息匹配模型的损失函数的第一损失值;
训练模块604,用于基于第一损失值进行反向传播,对初始应答信息匹配模型的参数进行修改,获得应答信息匹配模型。
在一些示例中,获取模块601包括:
统计子模块,用于获取预设的第一历史时段内的多个初始历史用户请求,并统计多个初始历史用户请求的触发频率;
排序子模块,用于根据触发频率从高到低的规则对多个初始历史用户请求进行排序,并将排序前N个初始历史用户请求确定为N个历史用户请求;
获取子模块,用于获取N个历史用户请求对应的应答信息;
其中,N为大于1的整数。
在一些示例中,获取模块601还包括:
语义分析子模块,用于分别对N个历史用户请求进行语义分析;
相似子模块,用于根据语义分析结果确定与N个历史用户请求对应的相似用户请求,并将相似用户请求新增为历史用户请求。
在一些示例中,获取模块601包括:
验证子模块,用于获取多个历史用户请求,并根据多个验证历史用户请求,对多个历史用户请求进行验证;
获取子模块,用于在验证通过的情况下,获取多个历史用户请求对应的应答信息;
其中,多个验证历史用户请求根据预设的第二历史时段内的多个初始历史用户请求确定;第二历史时段的时长小于第一历史时段。
在一些示例中,验证子模块具体用于:
确定多个历史用户请求中与多个验证历史用户请求相同的历史用户请求的数量;
根据数量和多个历史用户请求的比例确定命中率,根据命中率对多个历史用户请求进行验证。
在一些示例中,多个验证历史用户请求按照以下方式确定:
获取预设的第二历史时段内的多个初始历史用户请求,并统计多个初始历史用户请求的触发频率;
根据触发频率从高到低的规则对多个初始历史用户请求进行排序,并将排序前M个初始历史用户请求确定为验证历史用户请求,其中,M为大于1的整数。
在一些示例中,该装置还包括:
待更新获取子模块,用于获取待更新用户请求对应的待更新应答信息;
输入子模块,用于将待更新用户请求输入应答信息匹配模型,得到第二预测应答信息;
第二损失子模块,用于基于第二预测应答信息和待更新应答信息确定应答信息匹配模型的损失函数的第二损失值;
更新子模块,用于基于第二损失值进行反向传播,对应答信息匹配模型的参数进行更新,得到更新后的应答信息匹配模型;
其中,待更新应答信息根据S203-S204的方法获得。
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图7示出了可以用来实施本公开的实施例的示例电子设备700的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图7所示,设备700包括计算单元701,其可以根据存储在只读存储器(ROM)702中的计算机程序或者从存储单元708加载到随机访问存储器(RAM)703中的计算机程序,来执行各种适当的动作和处理。在RAM703中,还可存储设备700操作所需的各种程序和数据。计算单元701、ROM702以及RAM703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
设备700中的多个部件连接至I/O接口705,包括:输入单元506,例如键盘、鼠标等;输出单元707,例如各种类型的显示器、扬声器等;存储单元708,例如磁盘、光盘等;以及通信单元709,例如网卡、调制解调器、无线通信收发机等。通信单元709允许设备700通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元701可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元701的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元701执行上文所描述的各个方法和处理,例如信息处理方法或应答信息匹配模型的训练方法。例如,在一些实施例中,信息处理方法或应答信息匹配模型的训练方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元708。在一些实施例中,计算机程序的部分或者全部可以经由ROM702和/或通信单元709而被载入和/或安装到设备700上。当计算机程序加载到RAM703并由计算单元701执行时,可以执行上文描述的信息处理方法或应答信息匹配模型的训练方法的一个或多个步骤。备选地,在其他实施例中,计算单元701可以通过其他任何适当的方式(例如,借助于固件)而被配置为信息处理方法或应答信息匹配模型的训练方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (19)
1.一种信息处理的方法,所述方法包括:
响应于用户端发送的用户请求,根据预训练的应答信息匹配模型确定与所述用户请求匹配的应答信息,其中,所述应答信息匹配模型匹配的应答信息预先存储在文件存储系统;
响应于所述匹配的应答信息非空,从所述文件存储系统中调用所述匹配的应答信息并发送给所述用户端;
其中,所述应答信息匹配模型根据多个历史用户请求和多个所述历史用户请求对应的应答信息预训练获得。
2.根据权利要求1所述的方法,其中,所述响应于用户端发送的用户请求,根据预训练的应答信息匹配模型确定与所述用户请求匹配的应答信息之后,所述方法还包括:
响应于所述匹配的应答信息为空,对所述用户请求进行应答信息的二次匹配,并根据二次匹配结果确定最终的与所述用户请求匹配的应答信息,并将所述最终的与所述用户请求匹配的应答信息发送给所述用户端。
3.根据权利要求2所述的方法,其中,所述响应于所述匹配的应答信息为空,对所述用户请求进行应答信息的二次匹配,并根据二次匹配结果确定最终的应答信息,并将所述最终的应答信息发送给所述用户端,包括:
根据所述用户请求的类型二次匹配与之对应的预设的默认应答信息,将二次匹配到的所述默认应答信息确定为所述最终的应答信息,并将所述最终的应答信息发送给所述用户端;
或者,
将所述用户请求发送至外部大语言模型服务器,其中,所述大语言模型服务器用于响应于所述用户请求,对所述用户请求进行应答信息的二次匹配,并返回二次匹配到的所述应答信息;
将所述二次匹配到的所述用户请求对应的应答信息确定为所述最终的应答信息,并将所述最终的应答信息发送给所述用户端。
4.根据权利要求1-3任一所述的方法,其中,所述响应于用户端发送的用户请求,根据预训练的应答信息匹配模型确定与所述用户请求匹配的应答信息之前,所述方法还包括:
根据用于训练所述应答信息匹配模型的所述多个历史用户请求,获取与所述多个历史用户请求对应的应答信息;
将获取到的所述多个历史用户请求对应的应答信息存储在文件存储系统中。
5.根据权利要求4所述的方法,其中,所述根据用于训练所述应答信息匹配模型的所述多个历史用户请求,获取与所述多个历史用户请求对应的应答信息,包括:
将多个所述历史用户请求发送至外部大语言模型服务器,其中,所述大语言模型服务器用于响应于多个所述历史用户请求,分别对多个所述历史用户请求进行应答信息的匹配,并返回匹配到的所述应答信息。
6.根据权利要求2或3所述的方法,其中,所述响应于所述匹配的应答信息为空,对所述用户请求进行应答信息的二次匹配,并根据二次匹配结果确定最终的应答信息,并将所述最终的应答信息发送给所述用户端之后,所述方法还包括:
确定当前接收的所述用户请求的触发频率;
在触发频率高于第一阈值的情况下,将当前接收的所述用户请求标记为待更新用户请求;
其中,所述待更新用户请求用于训练所述应答信息匹配模型。
7.根据权利要求1-6任一所述的方法,所述方法应用在车载场景;所述用户请求为车载语音互动请求;所述应答信息为车载互动文本到语音信息;所述应答信息匹配模型用于根据所述车载语音互动请求匹配与之对应的所述车载互动文本到语音消息。
8.一种应答信息匹配模型的训练方法,所述方法包括:
获取多个历史用户请求和多个所述历史用户请求对应的应答信息;
将所述多个历史用户请求输入初始应答信息匹配模型,得到第一预测应答信息;
基于所述第一预测应答信息和多个所述历史用户请求对应的应答信息确定所述初始应答信息匹配模型的损失函数的第一损失值;
基于所述第一损失值进行反向传播,对所述初始应答信息匹配模型的参数进行修改,获得所述应答信息匹配模型。
9.根据权利要求8所述的方法,其中,所述获取多个历史用户请求和多个所述历史用户请求对应的应答信息,包括:
获取预设的第一历史时段内的多个初始历史用户请求,并统计所述多个初始历史用户请求的触发频率;
根据所述触发频率从高到低的规则对所述多个初始历史用户请求进行排序,并将排序前N个所述初始历史用户请求确定为N个所述历史用户请求;
获取N个所述历史用户请求对应的应答信息;
其中,N为大于1的整数。
10.根据权利要求9所述的方法,其中,所述根据所述触发频率从高到低的规则对所述多个初始历史用户请求进行排序,并将排序前N个所述初始历史用户请求确定为N个所述历史用户请求之后,所述获取N个所述历史用户请求对应的应答信息之前,所述获取多个历史用户请求和多个所述历史用户请求对应的应答信息,还包括:
分别对N个所述历史用户请求进行语义分析;
根据语义分析结果确定与N个所述历史用户请求对应的相似用户请求,并将所述相似用户请求新增为所述历史用户请求。
11.根据权利要求9或10所述的方法,其中,所述获取多个历史用户请求和多个所述历史用户请求对应的应答信息,包括:
获取多个历史用户请求,并根据多个验证历史用户请求,对所述多个历史用户请求进行验证;
在验证通过的情况下,获取所述多个历史用户请求对应的应答信息;
其中,所述多个验证历史用户请求根据预设的第二历史时段内的多个初始历史用户请求确定;所述第二历史时段的时长小于所述第一历史时段。
12.根据权利要求11所述的方法,其中,所述根据多个验证历史用户请求,对所述多个历史用户请求进行验证,包括:
确定所述多个历史用户请求中与所述多个验证历史用户请求相同的历史用户请求的数量;
根据所述数量和所述多个历史用户请求的比例确定命中率,根据所述命中率对所述多个历史用户请求进行验证。
13.根据权利要求11或12所述的方法,其中,所述多个验证历史用户请求按照以下方式确定:
获取所述预设的第二历史时段内的多个初始历史用户请求,并统计所述多个初始历史用户请求的触发频率;
根据所述触发频率从高到低的规则对所述多个初始历史用户请求进行排序,并将排序前M个所述初始历史用户请求确定为所述验证历史用户请求,其中,M为大于1的整数。
14.根据权利要求8-13任一所述的方法,其中,所述基于所述第一损失值进行反向传播,对所述初始应答信息匹配模型的参数进行修改,获得所述应答信息匹配模型之后,所述方法还包括:
获取待更新用户请求对应的待更新应答信息;
将所述待更新用户请求输入所述应答信息匹配模型,得到第二预测应答信息;
基于所述第二预测应答信息和所述待更新应答信息确定所述应答信息匹配模型的损失函数的第二损失值;
基于所述第二损失值进行反向传播,对所述应答信息匹配模型的参数进行更新,得到更新后的应答信息匹配模型;
其中,所述待更新应答信息根据权利要求6所述的方法获得。
15.一种信息处理的装置,所述装置包括:
匹配模块,用于响应于用户端发送的用户请求,根据预训练的应答信息匹配模型确定与所述用户请求匹配的应答信息,其中,所述应答信息匹配模型匹配的应答信息预先存储在文件存储系统;
信息确定模块,用于响应于所述匹配的应答信息非空,从所述文件存储系统中调用所述匹配的应答信息并发送给所述用户端;
其中,所述应答信息匹配模型根据多个历史用户请求和多个所述历史用户请求对应的应答信息预训练获得。
16.一种应答信息匹配模型的训练装置,所述装置包括:
获取模块,用于获取多个历史用户请求和多个所述历史用户请求对应的应答信息;
输入模块,用于将所述多个历史用户请求输入初始应答信息匹配模型,得到第一预测应答信息;
损失确定模块,用于基于所述第一预测应答信息和多个所述历史用户请求对应的应答信息确定所述初始应答信息匹配模型的损失函数的第一损失值;
训练模块,用于基于所述第一损失值进行反向传播,对所述初始应答信息匹配模型的参数进行修改,获得所述应答信息匹配模型。
17.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法,或,执行权利要求8-14中任一项所述的方法。
18.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-7中任一项所述的方法,或,根据权利要求8-14中任一项所述的方法。
19.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-7中任一项所述的方法,或,根据权利要求8-14中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310736614.5A CN116975224A (zh) | 2023-06-20 | 2023-06-20 | 信息处理的方法、应答信息匹配模型的训练方法、装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310736614.5A CN116975224A (zh) | 2023-06-20 | 2023-06-20 | 信息处理的方法、应答信息匹配模型的训练方法、装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116975224A true CN116975224A (zh) | 2023-10-31 |
Family
ID=88484024
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310736614.5A Pending CN116975224A (zh) | 2023-06-20 | 2023-06-20 | 信息处理的方法、应答信息匹配模型的训练方法、装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116975224A (zh) |
-
2023
- 2023-06-20 CN CN202310736614.5A patent/CN116975224A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP4020326A1 (en) | Method and apparatus of training model, device, storage medium, and program product | |
EP3816797A1 (en) | Man-machine interaction system and multi-task processing method in man-machine interaction system | |
CN113656179B (zh) | 云计算资源的调度方法及装置、电子设备和存储介质 | |
EP3910528A2 (en) | Method, apparatus, device, and storage medium for generating response | |
CN113791909A (zh) | 服务器容量调整方法、装置、计算机设备及存储介质 | |
CN114119123A (zh) | 信息推送的方法和装置 | |
JP7412489B2 (ja) | 連合学習方法及び装置、電子機器、記憶媒体ならびにコンピュータプログラム | |
CN114051057B (zh) | 云设备排队时长的确定方法、装置、电子设备和介质 | |
CN114399998B (zh) | 语音处理方法、装置、设备、存储介质及程序产品 | |
CN116975224A (zh) | 信息处理的方法、应答信息匹配模型的训练方法、装置 | |
CN113742457B (zh) | 应答处理方法、装置、电子设备及存储介质 | |
CN115222444A (zh) | 用于输出模型信息的方法、装置、设备、介质和产品 | |
CN114707638A (zh) | 模型训练、对象识别方法及装置、设备、介质和产品 | |
CN113361621A (zh) | 用于训练模型的方法和装置 | |
CN113360590A (zh) | 兴趣点信息的更新方法、装置、电子设备及存储介质 | |
CN113900731A (zh) | 请求处理方法、装置、设备和存储介质 | |
CN113239054A (zh) | 信息生成方法、相关装置及计算机程序产品 | |
CN111813529A (zh) | 数据处理方法、装置、电子设备及存储介质 | |
CN113055523A (zh) | 一种骚扰电话拦截方法、装置、电子设备和存储介质 | |
CN113114851B (zh) | 来电智能语音回复方法、装置、电子设备和存储介质 | |
CN114286343B (zh) | 多路外呼系统、风险识别方法、设备、介质及产品 | |
CN113344405B (zh) | 基于知识图谱生成信息的方法、装置、设备、介质和产品 | |
CN118037437A (zh) | 行为评分方法、装置、存储介质及电子设备 | |
CN118035557A (zh) | 资源推送方法、装置、电子设备、存储介质及程序产品 | |
CN118051670A (zh) | 业务推荐方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |