CN115293132A - 虚拟场景的对话处理方法、装置、电子设备及存储介质 - Google Patents
虚拟场景的对话处理方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN115293132A CN115293132A CN202211207306.5A CN202211207306A CN115293132A CN 115293132 A CN115293132 A CN 115293132A CN 202211207306 A CN202211207306 A CN 202211207306A CN 115293132 A CN115293132 A CN 115293132A
- Authority
- CN
- China
- Prior art keywords
- output
- sample
- dialogue
- statement
- sentences
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/85—Providing additional services to players
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/50—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
- A63F2300/57—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of game services offered to the player
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
Abstract
本申请提供了一种虚拟场景的对话处理方法、装置、电子设备及存储介质;方法包括:基于至少一个输入语句,调用当前轮次的至少一个参与对象分别对应的领域对话模型进行对话生成处理,得到每个参与对象的多个输出语句;基于每个输出语句调用通用对话模型进行质量预测处理,得到每个输出语句的质量参数,通用对话模型是基于通用领域的对话样本训练得到的;基于每个输出语句的质量参数,从多个输出语句中选取当前轮次的对话语句。通过本申请,能够提升生成特定领域的虚拟对象的对话的质量。
Description
技术领域
本申请涉及计算机技术,尤其涉及一种虚拟场景的对话处理方法、装置、电子设备及存储介质。
背景技术
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。自然语言处理(Nature Language processing,NLP)是计算机科学领域与人工智能领域中的一个重要方向。
以游戏虚拟场景为例,为支持游戏剧情,游戏中需要有大量的虚拟对象之间的对话内容,人工编辑对话内容成本较高且效率较低,而借助人工智能进行生成的对话内容,存在对话内容的质量偏低的情况。相关技术暂无较好的方案生成多个虚拟对象之间的高质量对话内容。
发明内容
本申请实施例提供一种虚拟场景的对话处理方法、装置、电子设备及计算机可读存储介质、计算机程序产品,能够提升生成特定领域的虚拟对象的对话的质量。
本申请实施例的技术方案是这样实现的:
本申请实施例提供一种虚拟场景的对话处理方法,所述虚拟场景包括参与当前一场对话的多个虚拟对象,每个所述虚拟对象对应一个领域对话模型,所述领域对话模型是基于特定领域的对话样本训练得到的;所述方法包括:
基于至少一个输入语句,调用当前轮次的至少一个参与对象分别对应的所述领域对话模型进行对话生成处理,得到每个所述参与对象的多个输出语句,其中,所述至少一个参与对象是所述多个虚拟对象中除上一轮次的发言对象以外的所述虚拟对象;
基于每个所述输出语句调用通用对话模型进行质量预测处理,得到每个所述输出语句的质量参数,其中,所述通用对话模型是基于通用领域的对话样本训练得到的;
基于每个所述输出语句的质量参数,从所述多个输出语句中选取当前轮次的对话语句。
本申请实施例提供一种虚拟场景的对话处理装置,所述虚拟场景包括参与当前一场对话的多个虚拟对象,每个所述虚拟对象对应一个领域对话模型,所述领域对话模型是基于特定领域的对话样本训练得到的;所述装置包括:
对话生成模块,用于基于至少一个输入语句,调用当前轮次的至少一个参与对象分别对应的所述领域对话模型进行对话生成处理,得到每个所述参与对象的多个输出语句,其中,所述至少一个参与对象是所述多个虚拟对象中除上一轮次的发言对象以外的所述虚拟对象;
质量检测模块,用于基于每个所述输出语句调用通用对话模型进行质量预测处理,得到每个所述输出语句的质量参数,其中,所述通用对话模型是基于通用领域的对话样本训练得到的;
所述质量检测模块,用于基于每个所述输出语句的质量参数,从所述多个输出语句中选取当前轮次的对话语句。
本申请实施例提供一种电子设备,包括:
存储器,用于存储计算机可执行指令;
处理器,用于执行所述存储器中存储的计算机可执行指令时,实现本申请实施例提供的虚拟场景的对话处理方法。
本申请实施例提供一种计算机可读存储介质,存储有计算机可执行指令,用于引起处理器执行时,实现本申请实施例提供的虚拟场景的对话处理方法。
本申请实施例提供一种计算机程序产品,包括计算机程序或计算机可执行指令,所述计算机程序或计算机可执行指令被处理器执行时实现本申请实施例提供的虚拟场景的对话处理方法。
本申请实施例具有以下有益效果:
在一场对话的每个轮次中,对于调用特定领域的领域对话模型生成的多个输出语句,通过通用对话模型来进行质量评估,一方面,确保筛选出高质量的输出对话作为相应轮次的对话语句,另一方面,将当前轮次的对话数据又作为下一个轮次的输入语句,即用于引导下一轮次的对话生成处理,从一场对话的不同轮次的层面提升了整体的对话内容的质量。
附图说明
图1是本申请实施例提供的虚拟场景的对话处理方法的应用模式示意图;
图2是本申请实施例提供的服务器200的结构示意图;
图3A是本申请实施例提供的虚拟场景的对话处理方法的步骤301至步骤303的流程示意图;
图3B是本申请实施例提供的虚拟场景的对话处理方法的步骤3011B至步骤3012B的流程示意图;
图3C是本申请实施例提供的虚拟场景的对话处理方法的步骤3011C至步骤3012C的流程示意图;
图3D是本申请实施例提供的虚拟场景的对话处理方法的步骤30111至步骤30114的流程示意图;
图3E是本申请实施例提供的虚拟场景的对话处理方法的步骤3021至步骤3022的流程示意图;
图3F是本申请实施例提供的虚拟场景的对话处理方法的步骤30211至步骤30214的流程示意图;
图3G是本申请实施例提供的虚拟场景的对话处理方法的步骤3031至步骤3032的流程示意图;
图3H是本申请实施例提供的虚拟场景的对话处理方法的步骤301至步骤304的流程示意图;
图4A是本申请实施例提供的虚拟场景的对话处理方法的步骤401A至步骤403A的流程示意图;
图4B是本申请实施例提供的虚拟场景的对话处理方法的步骤4011B至步骤4015B的流程示意图;
图4C是本申请实施例提供的虚拟场景的对话处理方法的步骤40121至步骤40125的流程示意图;
图4D是本申请实施例提供的虚拟场景的对话处理方法的步骤40131至步骤40132的流程示意图;
图4E是本申请实施例提供的虚拟场景的对话处理方法的步骤4031E至步骤4034E的流程示意图;
图4F是本申请实施例提供的虚拟场景的对话处理方法的步骤40321至步骤40325的流程示意图;
图4G是本申请实施例提供的虚拟场景的对话处理方法的步骤401G至步骤402G的流程示意图;
图4H是本申请实施例提供的虚拟场景的对话处理方法的步骤4021H至步骤4024H的流程示意图;
图5A是本申请实施例提供的虚拟场景的对话处理方法的应用场景的示意图;
图5B是本申请实施例提供的虚拟场景的对话处理方法的步骤501B至步骤508B的流程示意图;
图5C是本申请实施例提供的虚拟场景的对话处理方法的步骤501C至步骤505C的流程示意图;
图6A是本申请实施例提供的虚拟场景的对话处理方法的步骤601A至步骤607A的流程示意图;
图6B是本申请实施例提供的虚拟场景的对话处理方法的步骤601B至步骤607B的流程示意图;
图6C是本申请实施例提供的虚拟场景的对话处理方法的步骤601C至步骤606C的流程示意图;
图7A是本申请实施例提供的文本示意图;
图7B是本申请实施例提供的待训练模型的第一结构示意图;
图7C是本申请实施例提供的待训练模型的第二结构示意图。
具体实施方式
为了使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请作进一步地详细描述,所描述的实施例不应视为对本申请的限制,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
在以下的描述中,所涉及的术语“第一\第二\第三”仅仅是区别类似的对象,不代表针对对象的特定排序,可以理解地,“第一\第二\第三”在允许的情况下可以互换特定的顺序或先后次序,以使这里描述的本申请实施例能够以除了在这里图示或描述的以外的顺序实施。
需要指出,在本申请实施例中,涉及到用户信息、用户反馈数据等相关的数据,当本申请实施例运用到具体产品或技术中时,需要获得用户许可或者同意,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
对本申请实施例进行进一步详细说明之前,对本申请实施例中涉及的名词和术语进行说明,本申请实施例中涉及的名词和术语适用于如下的解释。
1)虚拟场景,利用设备输出的区别于现实世界的场景,通过裸眼或设备的辅助能够形成对虚拟场景的视觉感知,例如通过显示屏幕输出的二维影像,通过立体投影、虚拟现实和增强现实技术等立体显示技术来输出的三维影像;此外,还可以通过各种可能的硬件形成听觉感知、触觉感知、嗅觉感知和运动感知等各种模拟现实世界的感知。虚拟场景例如:游戏虚拟场景。
2)响应于,用于表示所执行的操作所依赖的条件或者状态,当满足所依赖的条件或状态时,所执行的一个或多个操作可以是实时的,也可以具有设定的延迟;在没有特别说明的情况下,所执行的多个操作不存在执行先后顺序的限制。
3)虚拟对象,虚拟场景中进行交互的对象,受到用户或机器人程序(例如,基于人工智能的机器人程序)的控制,能够在虚拟场景中静止、移动以及进行各种行为的对象,例如游戏中的各种角色等。
4)一场对话,包括多个轮次的对话语句,其中,一场对话中至少有两个虚拟对象进行发言。以下举例一场对话:角色A说“今天的天气真好。”,角色B说:“适合去海边。”。其中,角色A、角色B是发言的虚拟对象。
5)一轮对话语句,也称为一个轮次的(或一条)对话语句,每个轮次的对话语句是一个角色(虚拟对象)对上一个轮次的对话语句进行回复的语句,或者是发起话题所说的话,比如:以下起始语句(即作为开场白的语句):“今天星期几”,发起话题所说的话;“今天星期一”,对前人对话语句进行回复。
7)通用对话数据集(Wudao Corpus-Dialog),大规模的语料数据集,约为2TB文本,7250亿汉字。在数据层面上着重去除了数据中包含的隐私信息,防止了隐私泄露,能够适用于不同种类的自然语言处理任务(例如:语言识别、对话预测等),训练出的模型泛化性更强。
8)特定领域,具有特定的风格的语言领域,例如:古风风格领域、网络语言风格领域等。
9)通用领域,普遍使用的语言的领域。
10)角色信息,在文本内容中“说”出对话语句的虚拟对象对应的信息。角色信息可以是角色的名称、代称(例如:你、你们等指代对象的词)。
本申请实施例提供一种虚拟场景的对话处理方法、虚拟场景的对话处理装置、电子设备和计算机可读存储介质及计算机程序产品,能够提升生成特定领域的虚拟对象的对话的质量。
本申请实施例提供一种虚拟场景的对话处理方法、虚拟场景的对话处理装置、电子设备和计算机可读存储介质及计算机程序产品,能够提升接入游戏的速度。
下面说明本申请实施例提供的电子设备的示例性应用,本申请实施例提供的电子设备可以实施为笔记本电脑,平板电脑,台式计算机,机顶盒,移动设备(例如,移动电话,便携式音乐播放器,个人数字助理,专用消息设备,便携式游戏设备)、车载终端等各种类型的用户终端,也可以实施为服务器。下面,将说明电子设备实施为服务器时的示例性应用。
在对图1进行说明之前,首先对终端设备和服务器协同实施的方案涉及的游戏模式进行介绍。针对终端设备和服务器协同实施的方案,主要涉及两种游戏模式,分别为本地游戏模式和云游戏模式,其中,本地游戏模式是指终端设备和服务器协同运行游戏处理逻辑,玩家在终端设备中输入的操作指令,部分由终端设备运行游戏逻辑处理,另一部分由服务器运行游戏逻辑处理,并且,服务器运行的游戏逻辑处理往往更复杂,需要消耗更多的算力;云游戏模式是指完全由服务器运行游戏逻辑处理,并由云端服务器将游戏场景数据渲染为音视频流,并通过网络传输至终端设备显示。终端设备只需要拥有基本的流媒体播放能力与获取玩家的操作指令并发送给服务器的能力。
参考图1,图1是本申请实施例提供的虚拟场景的对话处理方法的应用模式示意图。应用于终端设备400和服务器200,服务器200终端设备400之间通过网络300进行通信。
示例的,虚拟场景是游戏的虚拟场景,数据库500是游戏数据库,用户是游戏的剧情编辑人员,以下结合上述举例进行说明。
游戏的剧情编辑人员将起始的输入语句输入到终端设备400中,终端设备400通过网络300将起始的输入语句发送给服务器200。服务器200基于输入语句调用多个虚拟对象对应的领域对话模型生成大量的输出语句,并调用通用对话模型获取每个输出语句的质量参数,基于质量参数从输出语句中选取对话语句,迭代进行上述处理,得到包括多个轮次的对话语句的一场对话。将一场对话发送至数据库500存储,数据库500中的对话可以用于作为游戏的剧情。或者,将生成的一场对话发送给终端设备400,供剧情编辑人员筛选,将筛选后的对话发送到数据库500中存储,提升了生成虚拟场景的对话的效率,节约了续写虚拟场景剧情的成本。
在一些实施例中,服务器200可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统。也即,服务器200可以实施为多个服务器。例如:服务器200可以实施为训练服务器(用于训练领域对话模型以及通用多行模型)、对话生成服务器(存储有领域对话模型,用于生成不同虚拟对象对应的输出语句)以及质量检测服务器(存储有通用对话模型,用于检测输出语句的质量)等多个服务器。
本申请实施例可以通过区块链技术实现,可以将本申请实施例的排队信息作为检测结果,将检测结果上传到区块链中存储,通过共识算法保证检测结果的可靠性。区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层。
示例的,本申请实施例的服务器还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。终端设备可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,但并不局限于此。终端设备以及服务器可以通过有线或无线通信方式进行直接或间接地连接,本申请实施例中不做限制。
参考图2,图2是本申请实施例提供的服务器200的结构示意图,图2所示的服务器200包括:至少一个处理器410、存储器450、至少一个网络接口420。终端设备400中的各个组件通过总线系统440耦合在一起。可理解,总线系统440用于实现这些组件之间的连接通信。总线系统440除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图2中将各种总线都标为总线系统440。
处理器410可以是一种集成电路芯片,具有信号的处理能力,例如通用处理器、数字信号处理器(DSP,Digital Signal Processor),或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,其中,通用处理器可以是微处理器或者任何常规的处理器等。
存储器450可以是可移除的,不可移除的或其组合。示例性的硬件设备包括固态存储器,硬盘驱动器,光盘驱动器等。存储器450可选地包括在物理位置上远离处理器410的一个或多个存储设备。
存储器450包括易失性存储器或非易失性存储器,也可包括易失性和非易失性存储器两者。非易失性存储器可以是只读存储器(ROM,Read Only Memory),易失性存储器可以是随机存取存储器(RAM,Random Access Memory)。本申请实施例描述的存储器450旨在包括任意适合类型的存储器。
在一些实施例中,存储器450能够存储数据以支持各种操作,这些数据的示例包括程序、模块和数据结构或者其子集或超集,下面示例性说明。
操作系统451,包括用于处理各种基本系统服务和执行硬件相关任务的系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务;
网络通信模块452,用于经由一个或多个(有线或无线)网络接口到达其他电子设备,示例性的网络接口包括:蓝牙、无线相容性认证(WiFi)、和通用串行总线(USB,Universal Serial Bus)等;
在一些实施例中,本申请实施例提供的虚拟场景的对话处理装置可以采用软件方式实现,图2示出了存储在存储器450中的虚拟场景的对话处理装置455,其可以是程序和插件等形式的软件,包括以下软件模块:对话生成模块4551和质量检测模块4552,这些模块是逻辑上的,因此根据所实现的功能可以进行任意的组合或进一步拆分。将在下文中说明各个模块的功能。
将结合本申请实施例提供的终端设备的示例性应用和实施,说明本申请实施例提供的虚拟场景的对话处理方法。
参见图3A,图3A是本申请实施例提供的虚拟场景的对话处理方法的步骤301至步骤303的流程示意图,以服务器为执行主体,将结合图3A示出的步骤进行说明。
虚拟场景包括参与当前一场对话的多个虚拟对象,每个虚拟对象对应一个领域对话模型,领域对话模型是基于特定领域的对话样本训练得到的,当前一场对话包括待生成的多个轮次的对话语句。
示例的,特定领域是指具有某种语言风格的领域,例如:网络用语、古风(例如:武侠小说风格)用语等。一场对话包括多个轮次的对话语句,且一场对话中至少有两个发言的虚拟对象。例如:有虚拟对象A与虚拟对象B,依次进行发言,虚拟对象A与虚拟对象B分别对应的对话语句组成一场对话。
示例的,领域对话模型以及下文的通用对话模型基于相同的待训练模型训练得到,待训练模型可以是各种形式的神经网络模型,例如,可以是生成式预训练模型(GPT,General Pre-Training),是基于信息转换器(Transformer)的生成模型,通常用于生成文本内容。训练通用对话模型的数据集可以是通用对话数据集(例如:Wudao Corpus-Dialog)。参考图7B,图7B是本申请实施例提供的待训练模型的第一结构示意图。待训练模型702B包括12个转换器层701B,每个转换器层701B包括编码器703B以及解码器704B。编码器703B以及解码器704B均能用于对词进行编码,得到对应的词向量。转换器层701B还用于调用归一化函数,能够用于对词向量进行转换处理得到相应的特征。
在步骤301中,基于至少一个输入语句,调用当前轮次的至少一个参与对象分别对应的领域对话模型进行对话生成处理,得到每个参与对象的多个输出语句。
示例的,至少一个参与对象是多个虚拟对象中除上一轮次的发言对象以外的虚拟对象。排除上一轮次的发言对象是为了避免虚拟对象自身与自身进行多个轮次的对话。例如:目前有虚拟对象1、虚拟对象2、虚拟对象3,虚拟对象1在上一轮次发言,则当前轮次的参与对象是虚拟对象2和3。
在一些实施例中,参考图3B,图3B是本申请实施例提供的虚拟场景的对话处理方法的步骤3011B至步骤3012B的流程示意图,在步骤301之前,可以通过以下步骤3011B以及步骤3012B确定输入语句。
在步骤3011B,若当前轮次为第一轮次,获取针对当前一场对话预设的起始语句,将起始语句作为第一轮次的输入语句。
示例的,起始语句可以是游戏制作人员或者玩家输入的语句,且起始语句以任意一个虚拟对象的身份输入,或者是从语料库中提取的任意一个虚拟对象对应的预设对话内容。
在步骤3012B,若当前轮次为第一轮次之后的后续轮次,从以下语句中选取至少一个语句作为后续轮次的至少一个输入语句:起始语句,当前轮次之前的任意轮次的对话语句。
示例的,一场对话包括多个轮次,假设:当前轮次为第X次,X为大于1的正整数,上一轮次为X-1,当前存在X-1个已经生成的对话语句,以及起始语句。从X-1个已经生成的对话语句以及起始语句中选取至少一个语句作为第X次的输入语句。
示例的,步骤3012B可以通过以下方式实现:
方式1、响应于上一轮次的对话语句的类型是疑问句,确定当前的对话场景为问答场景,至少将上一轮次的对话语句作为输入语句。
示例的,基于对话语句所包括的符号(例如:感叹号、句号以及问号)或者内容,确定语句的类型。例如:当对话语句以问号结尾,则对话语句的类型为疑问句;或者,当对话语句中包括“吗”、“是否”等表征不确定的词汇,确定对话语句的类型为疑问句。
例如:目前有起始语句、语句1、语句2、语句3,当前轮次为第4轮次,上一轮次的语句3是疑问句,至少将语句3作为第4轮次的输入语句。
方式2、响应于上一轮次的对话语句的类型不是疑问句,确定当前的对话场景为聊天场景,从当前轮次之前的任意轮次的对话语句以及起始语句中,选取至少一个语句作为输入语句。
例如:目前有起始语句、语句1、语句2、语句3,当前轮次为第4轮次,语句3不是疑问句,选取起始语句、语句1至3中至少一个作为输入语句。
本申请实施例中,通过多种不同的方式确定当前轮次的输入语句,使得生成的对话内容与之前的对话内容关联性更强,使得对话内容更接近于真实对话,提升了虚拟对象之间的对话内容的质量、逼真感。
在一些实施例中,在步骤301之前,通过以下至少一种方式,确定当前轮次的至少一个参与对象:
方式1、在当前对话场景为问答场景,且上一轮次的对话语句为疑问句时,获取上一轮次的对话语句所包括的至少一个角色信息(例如:名字、表征对象的词汇),将至少一个角色信息对应的至少一个虚拟对象,作为当前轮次的至少一个参与对象。
例如:一场对话中包括虚拟对象A、虚拟对象B以及虚拟对象C。上一轮次的对话语句是虚拟对象A说出的,且对话语句为疑问句,从疑问句中提取得到被提问的虚拟对象B的名字,将虚拟对象B作为参与对象。或者,从疑问句中提取得到“你”、“你们”等表征对象的词汇,将词汇“你们”表征的虚拟对象B以及虚拟对象C作为参与对象。
方式2、在当前对话场景为聊天场景时,将多个虚拟对象中除上一轮次的发言对象以外的至少一个虚拟对象,作为当前轮次的至少一个参与对象。
例如:虚拟场景对应的一场对话中有5个虚拟对象,其中虚拟对象3在上一轮中发言,则将5个虚拟对象中除了虚拟对象3以外的每个虚拟对象作为参与对象。
方式3、从对话轮次表中查询针对当前轮次预先设置的至少一个参与对象。
示例的,对话轮次表包括针对每个对话轮次预先设置的至少一个参与对象,且对话轮次表中相邻轮次的参与对象不同。例如:一场对话中包括3个虚拟对象,对话轮次表中根据虚拟对象的序号(1至3)从小到大顺序,循环地对虚拟对象进行排序,并将排序的顺序作为发言顺序。也即,虚拟对象1、虚拟对象2以及虚拟对象3循环地依次发言。或者,对话轮次表中虚拟对象的序号随机排列,相邻的序号不同。
方式4、从虚拟对象对应的第二平均值的降序排序结果中,将从首位开始的至少一个第二平均值对应的至少一个虚拟对象,作为当前轮次的至少一个参与对象。虚拟对象对应的第二平均值是虚拟对象对应的每个输出语句的质量参数的平均值。
示例的,在排除上一轮次的参与对象的情况下,将生成的输出语句的质量最高的领域对话模型对应的虚拟对象作为当前轮次的参与对象。例如:排除上一轮次的参与对象,针对剩余的每个虚拟对象,获取虚拟对象对应的每个输出语句的质量参数,获取每个质量参数的第二平均值,将最高的第二平均值对应的虚拟对象作为当前轮次的参与对象。
本申请实施例中,通过多种不同的方式确定当前轮次发言的虚拟对象,避免了相邻轮次的发言对象重复、形成虚拟对象“自言自语”的情况影响对话的质量。通过调用不同的虚拟对象的领域对话模型进行对话生成处理,使得生成的对话内容更加丰富,提升了生成对话的效率以及质量,提升了虚拟对象之间的对话内容的真实感。
在一些实施例中,参考图3C,图3C是本申请实施例提供的虚拟场景的对话处理方法的步骤3011C至步骤3012C的流程示意图。步骤301可以通过以下步骤3011C至步骤3012C实现,以下具体说明。
在步骤3011C中,基于至少一个输入语句,调用当前轮次的参与对象的领域对话模型进行语句内容预测处理,得到多个输出词。
语句内容预测处理是以预测输出语句中每个词的粒度进行的,参考图3D,图3D是本申请实施例提供的虚拟场景的对话处理方法的步骤30111至步骤30114的流程示意图;步骤3011C可以通过以下步骤30111至步骤30114实现,以下具体说明。
在步骤30111中,获取词表以及输出语句的最大词数量N。
示例的,N为正整数,例如:128个词。词表包括多个候选词、以及每个候选词对应的词编码向量。词表是预先获取的对话内容中能够使用的候选词组成的列表,候选词的数量可以是海量的(例如:三万个),在训练阶段中,可以从用于训练领域对话模型的文本数据中提取得到候选词。
在步骤30112中,对至少一个输入语句进行编码处理,得到至少一个输入语句对应的输入语句向量。
示例的,编码处理也即将输入语句由文字转换为计算机可以直接读取的数据,转换后的输入语句的每个字符通过向量中的每个维度的数据表示。
在步骤30113中,基于输入语句向量,调用当前轮次的参与对象的领域对话模型进行语句内容预测处理,得到每个候选词的第一预测概率,将与最大的第一预测概率对应的候选词作为第1个输出词。
示例的,语句内容预测处理包括:基于输入语句向量,调用当前轮次的参与对象的领域对话模型对词表中的每个候选词的第一预测概率进行预测,第一预测概率表征候选词出现在输出语句中的概率。第一预测概率最大,表征候选词出现在输出语句中的可能性最高,将该候选词作为输出语句中的第一个输出词。
示例的,第一轮次的语句内容预测处理可以通过以下公式(1)实现:
其中,在第一轮次中,x是输入语句,=0,表征当前还未生成输出词。表征第一轮次预测得到的输出词。表征领域对话模型对输入语句进行编码,得到输入语句向量,并基于输入语句向量预测得到概率特征;softmax归一化函数对概率特征进行归一化处理得到第一预测概率(取值范围为[0,1]);argmax函数,用于获取最大的第一预测概率在词表中对应的索引数值,函数用于基于最大的第一预测概率的索引数值,获取词表中对应的候选词的文字,得到最大的第一预测概率对应的候选词。
在步骤30114中,令n的取值逐渐递增且满足n,迭代n执行以下处理:基于输入语句向量与n个输出词的词编码向量,调用当前轮次的参与对象的领域对话模型进行语句内容预测处理,得到每个候选词的第一预测概率,将与最大的第一预测概率对应的候选词作为第n+1个输出词。
示例的,在后续轮次中,上文公式(1)中的用于表征当前已经预测得到的输出词。例如:当前轮次为第3轮次,在此之前,已经预测得到了2个输出词,则公式(1)中的表征已经预测得到的2个输出词,基于2个输出词以及输入语句预测得到第3轮次的输出词。
继续参考图3C,在步骤3012C中,按照先后时间顺序依次对多个输出词进行多次选取处理,将每次选取处理得到的输出词按照先后时间顺序组合为一个输出语句。
这里,第一次的选取处理的选取数量为一,且多次选取处理的选取数量依次递增。
例如:第一次选取处理得到1个输出词,可以将该输出词作为一个输出语句,第二次选取得到第一个输出词以及第二个输出词,将二者组合为一个输出语句。依次类推,每次选取得到的输出词均可以组合为一个输出语句,从而得到多个输出语句。
继续参考图3A,在步骤302中,基于每个输出语句调用通用对话模型进行质量预测处理,得到每个输出语句的质量参数。
通用对话模型是基于通用领域的对话样本训练得到的。示例的,质量参数用于表征输出语句的流畅程度,质量参数越高,输出语句的流畅程度越高越接近于真实语言表达。通用对话模型的结构与领域对话模型的结构是相同的,二者使用不同的样本训练得到。基于通用领域的对话样本训练模型,可以使模型具有生成通用对话内容的功能,进而可以通过通用对话模型评估输出语句的流畅程度的质量参数。
参考图3E,图3E是本申请实施例提供的虚拟场景的对话处理方法的步骤3021至步骤3022的流程示意图;步骤302可以通过以下步骤3021至步骤3022实现,以下具体说明。
在步骤3021中,针对每个输出语句执行以下处理:基于输出语句以及与输出语句对应的至少一个输入语句,调用通用对话模型进行质量预测处理,得到输出语句中每个输出词对应的第二预测概率。
示例的,确定输出语句的方式已在上文说明,此处不再赘述。通用对话模型预测输出词对应的第二预测概率的处理,也即,基于通用对话模型预测输出词在语句中出现的概率。输出词在语句中出现的概率越高,那么输出词越符合真实语言的表达,输出语句的流畅程度越高。
参考图3F,图3F是本申请实施例提供的虚拟场景的对话处理方法的步骤30211至步骤30214的流程示意图,步骤3021可以通过以下步骤30211至步骤30214实现,以下具体说明。
在步骤30211中,获取输出语句的词总数量M、以及输出语句中每个输出词的词编码向量。
示例的,M是正整数,输出语句中每个输出词的词编码向量可以从词表中直接获取,此处不再赘述。
在步骤30212中,获取与输出语句对应的至少一个输入语句的输入语句向量。
示例的,步骤30212的执行可以参考上文中步骤30112,此处不再赘述。
在步骤30213中,基于至少一个输入语句的输入语句向量,调用通用对话模型进行语句内容预测处理,得到输出语句中的第1个输出词对应的第二预测概率。
示例的,调用通用对话模型进行语句内容预测处理可以通过以下方式实现:基于至少一个输入语句调用通用对话模型,针对第1个输出词进行概率预测,得到第1个输出词对应的第二预测概率。
在步骤30214中,令m的取值逐渐递增且满足,迭代m执行以下处理:基于至少一个输入语句的输入语句向量与m个第二预测概率的对应的输出词的词编码向量,调用通用对话模型进行语句内容预测处理,得到输出语句中的第m+1个输出词对应的第二预测概率。
示例的,步骤30214的原理与步骤30114的原理相同,此处不再赘述。
继续参考图3E,在步骤3022中,获取每个第二预测概率的第一平均值,将第一平均值作为输出语句的质量参数。
示例的,假设输出语句中存在10个词,获取每个词的第二预测概率的加和,将加和除以10的结果作为输出语句的质量参数。
本申请实施例中,通过评估输出语句的质量参数,将输出语句的流畅程度量化,能够提升对话内容的质量,使得对话内容符合虚拟场景对应的特定领域,使得对话内容更加逼真,提升虚拟场景的真实感,节约了编辑虚拟场景剧情的人工成本。
继续参考图3A,在步骤303中,基于每个输出语句的质量参数,从多个输出语句中选取当前轮次的对话语句。
参考图3G,图3G是本申请实施例提供的虚拟场景的对话处理方法的步骤3031至步骤3032的流程示意图,步骤303可以通过以下步骤3031至步骤3032实现,以下具体说明。
在步骤3031中,基于每个输出语句的质量参数,对每个输出语句进行降序排序,得到降序排序列表。
示例的,质量参数表征输出语句的流畅程度,质量参数越高则说明输出语句的流畅程度越高,根据质量参数对输出语句进行降序排序,则降序排列列表中排序越前的输出语句的质量参数越高,那么流畅程度也越高。
在步骤3032中,从降序排序列表的头部的预设数量的输出语句中,选取任意一个输出语句作为当前轮次的对话语句。
示例的,降序排序列表中次序越高,则质量参数越高。例如:预设数量可以是3,从降序排序列表的头部(Top)的前3个输出语句中,选取任意一个作为当前轮次的对话语句。
参考图3H,图3H是本申请实施例提供的虚拟场景的对话处理方法的步骤301至步骤304的流程示意图,在步骤303之后,执行步骤304,响应于满足对话结束条件,按照选取的先后时间顺序将每个轮次的对话语句组合为对话序列。
示例的,对话序列可以作为一场对话,包括多个轮次的对话语句、以及每个轮次的对话语句对应的发言的虚拟对象;或者,将起始语句与对话序列组合在一起,作为一场对话的完整内容。获取多场对话,对话内容可以用于作为游戏剧情。
示例的,对话序列也即一场对话,包括每个轮次的对话语句,以及每个对话语句对应的虚拟对象。对话结束条件包括以下至少一项:
1、已经生成的对话语句的数量达到语句数量阈值;例如:假设语句数量阈值为10个,若已经生成的对话语句的数量为10个,则满足对话结束条件。
2、对话内容总字数大于对话字数阈值,其中,对话内容总字数是以下参数的加和:已经生成的对话语句的字数、第一轮次的输入语句的字数。
例如:对话字数阈值可以是1000字,当起始语句(第一轮次的输入语句)以及已经生成的对话语句的总字数大于等于1000,满足对话结束条件。
3、每个参与对象对应的领域对话模型分别输出了至少一个对话语句。例如:一场对话对应于5个虚拟对象,在当前生成的对话语句中,每个虚拟对象分别对应至少一个对话语句,那么每个虚拟对象均已经进行发言,满足对话结束条件。
本申请实施例通过不同虚拟对象分别对应的领域对话模型生成不同虚拟对象对应的输出语句,提升了虚拟对象之间对话的真实感,基于起始语句能够续写特定领域的对话,生成的对话能够用于作为游戏虚拟场景的剧情内容,节约了编辑游戏剧情所需的时间与成本。基于通用对话模型评估输出语句的质量参数,基于质量参数选取输出语句,提升了对话内容的质量。
在一些实施例中,参考图4A,图4A是本申请实施例提供的虚拟场景的对话处理方法的步骤401A至步骤403A的流程示意图;在步骤301之前,可以通过步骤401A至步骤403A训练领域对话模型,以下具体说明。
在步骤401A中,获取特定领域的对话样本的第一样本集合。
这里,每个对话样本包括至少一个样本输入语句、用于回复至少一个样本输入语句的一个样本输出语句、以及样本输出语句关联的虚拟对象的角色信息。
示例的,样本输出语句关联的虚拟对象的角色信息,是说出样本输出语句的虚拟对象的角色信息。例如:对话样本是一场对话,一场对话包括语句1、语句2以及语句3。语句1以及语句2是样本输入语句,语句3是样本输出语句。语句1与角色A关联,语句2与角色B关联,语句3与角色A关联,则样本输出语句由角色A说出。
在一些实施例中,参考图4B,图4B是本申请实施例提供的虚拟场景的对话处理方法的步骤4011B至步骤4015B的流程示意图;步骤401A可以通过以下步骤4011B至步骤4015B实现,以下具体说明。
在步骤4011B中,获取特定领域的文本数据。
示例的,文本数据可以从网络中通过爬虫抓取得到,特定领域可以是武侠小说领域,下文结合举例进行解释说明。例如:从网络中抓取大量的武侠小说文本数据。
在步骤4012B中,从文本数据中提取多场样本对话。
示例的,每场样本对话包括多个轮次的样本对话语句。在一些实施例中,参考图4C,图4C是本申请实施例提供的虚拟场景的对话处理方法的步骤40121至步骤40125的流程示意图;步骤4012B可以通过以下步骤40121至步骤40125实现,以下具体说明。
在步骤40121中,从文本数据中提取对话符号所对应的文本内容。
示例的,对话符号包括以下至少一种:双引号、单引号、冒号。
例如:下文以省略号表征文本内容,文本内容是剧本,为以下格式:
角色A:……
角色B:……
冒号所对应的文本内容是冒号之后的语句。
再例如:文本内容是小说,为以下格式:角色C说:“……角色B提起‘……’”。引号中的内容是引号所对应的文本内容。
在步骤40122中,将文本内容中满足筛选条件的语句作为样本对话语句。
这里,筛选条件包括以下至少之一:文本内容的出现次数小于次数阈值,且文本内容的字数大于字数阈值。
示例的,文本中引号所包括的内容除了角色所发言的语句以外,还包括拟声词,字数阈值可以是1或者2,次数阈值可以是20次,将长度小于等于2个字且出现次数大于等于20的文本内容删除,保留剩余的文本内容作为样本对话语句。
在步骤40123中,在文本数据中,获取处于相邻的两个样本对话语句之间的文本内容的文本数据量。
示例的,文本数据量通过以下至少一种方式表征:文本字数、文本对应的行数、文本对应的句子数量。
在步骤40124中,响应于文本数据量大于数据量阈值,确定相邻的两个样本对话语句之间存在剧情间隔。
示例的,数据量阈值可以根据文本数据量的表征方式进行设置,例如:文本数据量通过文本字数表征,则数据量阈值可以为字数阈值,例如:1000字。通过行数表征,则数据量阈值可以为行数阈值,例如:10行。通过文本对应的句子数量表征,数据量阈值可以是句子数量阈值,例如:10句。
在步骤40125中,基于每个剧情间隔对每个样本对话语句进行分组处理,得到多场样本对话。
示例的,每场样本对话包括至少两个样本对话语句。基于剧情间隔对多个样本对话语句进行分组处理。参考图7A,图7A是本申请实施例提供的文本示意图。图7A中每个方框表征一个语句,多个语句构成一段文本,假设通过文本对应的句子数量表征数据量,数据量阈值可以是句子数量阈值,例如:10句。其中对话语句701A表征为空白方框,非对话语句702A表征为阴影方框,剧情间隔704A中有10句非对话语句702A,基于剧情间隔704A对文本进行分组,得到第一场对话703A与第二场对话705A。第二场对话705A中部分对话语句之间存在非对话语句,非对话语句对应的数据量小于数据量阈值。
本申请实施例中,通过筛选文本内容,从特定领域的文本数据中提取了多场对话,通过筛选删除无效内容,能够提升训练对话模型的效果,提升对话模型预测输出语句的准确性,使得输出语句更加接近于真实对话。
继续参考图4B,在步骤4013B中,从文本数据中提取与多场样本对话分别关联的角色信息。
示例的,相邻轮次的样本对话语句分别对应不同的虚拟对象的角色信息,样本对话中相邻轮次的样本对话语句分别对应不同的虚拟对象,能够避免对话模型预测得到的一场对话中虚拟对象在相邻的轮次进行连续性的发言,提升对话内容的真实感。
在一些实施例中,参考图4D,图4D是本申请实施例提供的虚拟场景的对话处理方法的步骤40131至步骤40132的流程示意图,步骤4013B可以通过以下步骤40131至步骤40132实现,以下具体说明。
在步骤40131中,针对每场样本对话中的每个轮次的样本对话语句执行以下处理:从文本数据中提取以下两者之间的文本内容:样本对话语句,上一轮次的样本对话语句。
示例的,样本对话语句与上一轮次的样本对话语句之间的文本内容中包括样本对话语句对应的虚拟对象的信息。例如:文本内容如下所示:
在步骤40132中,从文本内容中提取类型为对象名称的目标实体词,将目标实体词作为样本对话语句关联的虚拟对象的角色信息。
继续参考图4B,在步骤4014B中,针对每场样本对话执行以下处理:按照先后时间顺序,依次对样本对话中的多个样本对话语句进行多次选取处理,将每次选取处理得到的样本对话语句组合为特定领域的一场对话样本。
其中,第一次的选取处理的选取数量为二,且多次选取处理的选取数量依次递增;例如:对样本对话中有多个样本对话语句,第一次选取2个,第二次选取3个,以此类推。
在每一场对话样本中,最后一个样本对话语句为样本输出语句,除最后一个样本对话之外的样本对话语句为样本输入语句。例如,针对第1次选取的语句1和语句2,将语句1作为样本输入语句,将语句2作为样本输出语句;针对第2次选取的语句1至语句3,将语句1和语句2作为样本输入语句,将语句3作为样本输出语句,以此类推。
示例的,假设一场对话中包括Y个对话语句,Y是正整数,按照先后时间顺序分别为语句1至语句Y。第一次选取处理,选择语句1与语句2组合为一个对话样本,其中,语句1是样本输入语句,语句2是样本输出语句。第i次选取处理,选择语句1至语句i(小于等于Y-1),将语句1至语句i-1作为样本输入语句,将语句i作为样本输出语句。
在步骤4015B中,将每个对话样本组合为第一样本集合。
示例的,继续基于上述举例说明,基于一场对话可以得到Y-1个对话样本,将Y-1个对话样本添加到第一样本集合中。针对每场对话执行上文的处理,得到不同场对话对应的对话样本,组合为第一样本集合。
本申请实施例中,复用包括多个轮次的对话语句的对话,生成多个样本对话,提升了获取样本的效率,降低了获取样本所需的计算量。
继续参考图4A,在步骤402A中,根据每个样本输出语句关联的虚拟对象的角色信息,对第一样本集合中的每个对话样本进行分类处理,得到每个虚拟对象对应的第一样本子集合。
示例的,第一样本子集合中的每个样本输出语句对应于同一个虚拟对象。通过对对话样本进行分类处理,可以针对不同的虚拟对象的语言风格训练不同的虚拟对象对应的领域对话模型,使得最终生成的对话内容更生动。
在步骤403A中,针对每个虚拟对象关联的待训练模型执行以下处理:基于虚拟对象对应的第一样本子集合,对待训练模型进行迭代训练处理,将训练后的待训练模型作为虚拟对象对应的领域对话模型。
示例的,迭代训练处理的次数可以是训练次数阈值(例如:10次)。
或者,根据训练效果确定是否停止训练,当待训练模型输出的输出语句与样本对话中的样本输出语句的相似度大于等于相似度阈值,则停止训练。例如:对待训练模型输出的输出语句进行特征提取,得到预测语句特征,对样本对话中的样本输出语句进行特征提取,得到样本语句特征,通过向量表征语句特征,获取预测语句特征与样本语句特征之间的余弦相似度。
在一些实施例中,参考图4E,图4E是本申请实施例提供的虚拟场景的对话处理方法的步骤4031E至步骤4034E的流程示意图,步骤403A可以通过以下步骤4031E至步骤4034E实现,以下具体说明。
在步骤4031E中,针对第一样本子集合中的每个对话样本执行以下处理:基于对话样本中的至少一个样本输入语句,调用待训练模型进行对话生成处理,得到预测输出语句。
示例的,对话生成处理的具体原理参考上文中步骤301,此处不再赘述。
在步骤4032E中,获取预测输出语句与对话样本中的样本输出语句之间的差异,将差异作为预测损失。
在一些实施例中,参考图4F,图4F是本申请实施例提供的虚拟场景的对话处理方法的步骤40321至步骤40325的流程示意图,步骤4032E可以通过以下步骤40321至步骤40325实现,以下具体说明。
在步骤40321中,对至少一个样本输入语句进行编码处理,得到样本输入向量。
在步骤40322中,对预测输出语句与样本输出语句分别进行编码处理,得到预测向量以及样本输出向量。
示例的,步骤40321以及步骤40322中编码处理的原理参考上文中步骤30112,此处不再赘述。
在步骤40323中,对样本输入向量与样本输出向量进行拼接处理,得到第一拼接向量,对第一拼接向量进行转换处理,得到样本输出语句的第一文本特征。
示例的,拼接处理的过程如下:样本输入向量在前、样本输出向量在后,将二者作为一个完整的向量,得到第一拼接向量。例如:样本输入向量是一个20维度的向量S1,样本输出向量是一个10维度的向量S2,对样本输入向量与样本输出向量进行拼接处理,得到第一拼接向量P1,P1=(S1,S2),其中,第一拼接向量P1的维度为30,前20个维度由向量S1构成,后10个维度由向量S2构成。
示例的,转换处理通过以下方式实现:调用待训练模型中的转换器层,对第一拼接向量进行多个层次的转换处理,预测得到第一文本特征。继续参考图7B,调用待训练模型702B中的每个转换器层701B对第一拼接向量进行多个层次的转换处理,将上一层次的转换器层701B的输出作为下一层次的转换器层701B输入,预测得到第一文本特征。
在步骤40324中,对样本输入向量与预测向量进行拼接处理,得到第二拼接向量,对第二拼接向量转换处理,得到预测输出语句对应的第二文本特征。
示例的,拼接处理和转换处理的原理如步骤40323所示,此处不再赘述。
在步骤40325中,获取第一文本特征与第二文本特征之间的差异,并将差异作为预测损失。
示例的,第一文本特征与第二文本特征可以表征为概率分布,将二者分别对应的概率分布之间进行相减,得到第一文本特征与第二文本特征之间的差异,将差异作为预测损失。预测损失表征预测得到的预设输出语句,与样本输入语句实际上对应的样本输出语句之间的差异。
继续参考图4E,在步骤4033E中,基于预测损失对待训练模型进行反向传播处理,得到参数更新后的待训练模型。
示例的,反向传播处理可以通过以下方式实现:将预测损失逐层地对待训练模型进行反向传播计算参数的梯度(可以采用梯度下降法获取参数,梯度下降法包括:沿损失函数梯度下降的方向,寻找损失函数的最小值,得到最优参数),基于梯度计算待训练模型每层的更新参数。以更新参数替换待训练模型中对应的参数,则可以得到更新后的待训练模型。
在步骤4034E中,响应于反向传播处理的次数达到训练次数阈值,将参数更新后的待训练模型作为参与对象对应的领域对话模型。
在一些实施例中,训练次数阈值例如50次,或者,当预测输出语句与样本输出语句之间的差异小于设定值时,停止进行训练,将参数更新后的待训练模型作为参与对象对应的领域对话模型。
在一些实施例中,参考图4G,图4G是本申请实施例提供的虚拟场景的对话处理方法的步骤401G至步骤402G的流程示意图,在步骤301之前,可以通过步骤401G至步骤403G训练通用对话模型,以下具体说明。
在步骤401G中,获取通用领域的对话样本的第二样本集合。
这里,每个对话样本包括至少一个样本输入语句、以及用于回复至少一个样本输入语句的一个样本输出语句。
在步骤402G中,基于第二样本集合对待训练模型进行迭代训练处理,将训练后的待训练模型作为通用对话模型。
在一些实施例中,参考图4H,图4H是本申请实施例提供的虚拟场景的对话处理方法的步骤4021H至步骤4024H的流程示意图,步骤402G可以通过步骤4021H至步骤4024H实现,以下具体说明。
在步骤4021H中,针对第二样本集合中的每个对话样本执行以下处理:基于对话样本中的至少一个样本输入语句,调用待训练模型进行对话生成处理,得到预测输出语句。
在步骤4022H中,获取预测输出语句与对话样本中的样本输出语句之间的差异,将差异作为预测损失。
在步骤4023H中,基于预测损失对待训练模型进行反向传播处理,得到参数更新后的待训练模型。
在步骤4024H中,响应于反向传播处理的次数达到训练次数阈值,将参数更新后的待训练模型作为通用对话模型。
示例的,步骤4021H至步骤4024H的原理可以参考步骤4031E至步骤4034E,此处不再赘述。
本申请实施例通过基于相同的待训练模型训练通用对话模型、领域对话模型,提升了评估输出语句的质量参数的准确性,进而能够获得流畅程度更高的对话语句,提升了生成虚拟对象的对话的效率以及质量。
本申请实施例通过基于输入语句调用特定领域的领域对话模型生成输出对话,提升了生成虚拟对象的对话的效率,通过调用通用对话模型对输出对话的质量进行评估,提升了生成的对话内容的质量,能够基于起始语句生成包括多个轮次的对话语句的对话,提升了生成虚拟对象的对话的效率以及质量,能够根据游戏相关的逻辑生成符合游戏流程的对话剧情,辅助游戏剧情创作,满足越来越丰富的游戏种类的创作需求。
下面,将说明本申请实施例提供的虚拟场景的对话处理方法在一个实际的应用场景中的示例性应用。
在剧情为主的游戏虚拟场景中,常常需要大量的各个人物(虚拟对象)的对话信息来丰富玩家的游戏体验,剧情内容的生成需要大量的人力、时间。通过本申请实施例提供的虚拟场景的对话处理方法,可以通过接收起始语句,根据游戏剧情生成不同游戏角色(虚拟对象)之间的剧情对话。剧情编辑人员可以采用生成的剧情对话进行内容筛选作为游戏角色的对话内容,通过本申请实施例提供的虚拟场景的对话处理方法可以快速生成大量的、符合游戏场景的剧情对话内容。
参考图5A,图5A是本申请实施例提供的虚拟场景的对话处理方法的应用场景的示意图,将结合图5A对本申请实施例的虚拟场景的对话处理方法的应用进行解释说明,假设对话场景中包括角色A与角色B,编辑人员输入起始语句,起始语句是具有武侠风格的内容,并且起始语句基于角色A或者角色B的身份输入到剧情生成系统502A,剧情生成系统502A是运行本申请实施例虚拟场景的对话处理方法的系统,例如:以角色B的身份输入起始语句501A“兄台也是来送朋友的么”到剧情生成系统502A,得到以下生成内容503A:
“角色A:非也,在下是来等人的!
角色A:便是此人!
角色B:兄台认识他么!
角色B:当然认识。
角色A:别说,我们已经是好朋友了。
角色B:前方有个酒楼,去喝一杯如何。”
生成内容503A以及起始语句501A组成一场对话,将生成内容503A以及起始语句501A存储到数据库504A。数据库504A可以是游戏数据库,游戏数据库中存储有大量的对话内容,可以用于制作游戏剧情。编辑人员只需要以对话中任意一个角色的身份输入起始语句,执行本申请实施例提供的虚拟场景的对话处理方法,可以生成起始语句之后的剧情对话内容,富含武侠情结,编辑人员可以直接采纳,或者对剧情对话内容调整之后存入游戏数据库。
在一些实施例中,特定领域可以是网络语言、古风小说、英语翻译风格、科普文献等语言风格领域。本申请实施例中,以特定领域为古风小说领域为例进行解释说明。参考图5B,图5B是本申请实施例提供的虚拟场景的对话处理方法的步骤501B至步骤508B的流程示意图,以服务器为执行主体,将结合图5B示出的步骤进行说明。
在步骤501B中,获取古风领域对话数据。
示例的,古风领域对话数据可以从互联网中抓取的武侠小说文本、历史小说文本、文言文的文献等文本中提取。
在一些实施例中,步骤501B可以通过以下步骤5011B至步骤5014B实现。
在步骤5011B中,获取古风文本集合。
在步骤5012B中,提取古风对话数据。
参考图5C,图5C是本申请实施例提供的虚拟场景的对话处理方法的步骤501C至步骤505C的流程示意图;可以通过步骤501C至步骤505C实现步骤5011B至5012B。
在步骤501C中,从互联网获取古风文本集合。
示例的,古风文本集合可以是从小说网站中提取的,例如武侠小说网站。
在步骤502C中,提取双引号内部对话内容,删除无效对话语句,得到多轮对话语句。
示例的,角色对话通常通过双引号、单引号、冒号等符号标注,可以通过确定上述与对话内容相关的符号在文本中的位置,并获取符号关联的语句内容作为对话内容。无效对话语句是字数小于字数阈值(例如:2个字)且出现频率高于频率阈值(例如:每10000字中出现20次)的语句。例如:“嗖”、“咣当”等拟声词,这类对话语句内容往往较短,对字数小于等于2的短句进行频率统计,当任意一个短句出现频率大于20次时,且短句的内容为拟声词,该短句为无效对话语句,从文本数据中将无效对话语句剔除掉。
在步骤503C中,提取每2轮对话语句之间的剧情数据,确定对话场景。
示例的,当2个对话语句之间的文本数据量超过预设数据量(例如:预设行数(例如:10行)、预设字数(例如:100字)、预设句子数量(例如:10个句子)),两个对话语句分别属于不同场的对话。据此对文本进行分段(也即,上文中分组处理),得到多场对话,每场对话由多个语句构成。
在步骤504C中,提取双引号前置内容,得到对话角色。
示例的,对话角色是上文的虚拟对象,以下举例一段文本内容,对获取对话角色进行解释说明:
某角色说:“你几时知道的!”
其中,双引号中的内容是对话语句的内容,“某角色说”是前置内容,从前置内置中提取表征名称的实体词作为对话角色,则“某角色”是对话角色。在获取对话角色之后,还可以通过人工方式矫正补充对话角色的角色信息。
在步骤505C中,分段切分采样,得到训练数据。
示例的,以下举例一场对话,对分段切分采样进行解释说明。
(语句2)角色D:在下本就是个生意人。
(语句4)角色D:当然是为了赚钱。
从上述对话中的最后一个语句开始依次进行切分,第一次切分得到前三个语句以及语句4,将语句4作为输出语句,将前三个语句作为输出语句,组成为一个样本对话。第二次切分,针对前三个语句进行,切分得到语句3,将语句3作为输出语句,将语句1和语句2作为输入语句。依次类推,基于一场对话获取了多个样本。
继续参考图5B,在步骤5013B中,提取角色数据。
示例的,步骤5013B的原理与上文中步骤504C相同,此处不再赘述。
在步骤5014B中,对角色数据与对话数据进行关联处理。
示例的,将角色数据与对应的对话数据进行关联处理,每个对话语句与说出该对话语句的虚拟对象一一对应。
在步骤502B中,训练模型。
示例的,基于步骤501B得到的古风领域对话数据训练剧情生成模型(上文的领域对话模型)。
参考图7C,图7C是本申请实施例提供的待训练模型的第二结构示意图;待训练模型包括多个预训练模型转换层701C(GPT Transformer Layer,General Pre-TrainingTransformer Layer),本申请实施例中以转换层为12个为例进行解释说明。每个预训练模型转换层701C包括编码器704C以及解码器705C,编码器704C用于对样本输入语句(例如:你几时知道)进行编码,得到键Key和值Value。解码器705C用于对样本输出语句(例如:知道什么)进行编码,得到Query查询向量。将Query查询向量、键Key、值Value拼接,在待训练模型中进行多个层次的转换,预测得到每个样本输出语句的预测文本特征,对预测文本特征进行归一化(Softmax)处理,得到每个语句对应的概率。
训练模型可以通过以下方式实现:
设置样本输入对话的最大字数为256,预测输出语句的最大字数为128,可以表征为batch size=128,训练次数(epoch)设置为10。加载待训练模型的参数,可以采用实体属性值模型(EVA2.0-large,Entity Attribute Value)作为待训练模型,得到初始化参数。每次选取batch size的文本进行推理,得到batch size组概率特征y,维度为batchsize*vocab_num,其中vocab_num代表预测词汇的总数量,例如:vocab_num=30000。待训练模型预测得到预测概率特征y(上文中第二文本特征)与样本输出语句的实际概率特征(上文中第一文本特征)之间的差异,将差异作为预测损失(loss),基于预测损失进行反向传播,更新待训练模型的参数,使得在每条训练数据中,利用样本输入语句的内容来生成最后一轮对话语句,并不断逼近训练数据中的样本输出语句。
重复进行训练,直至收敛,或者当前训练次数达到设定的训练次数(epoch)10次。在整个训练微调过程中,使得剧情生成模型即保留了通用对话模型的流畅度和常识逻辑,同时能够学习到古风领域中对话的风格和特色,得到合适的剧情对话模型。
示例的,基于海量开源数据集训练通用对话模型。利用大规模通用对话语料训练的通用对话模型,不仅可以提高对话生成的流畅度和合理性,同时可以使得通用对话模型可以学习到中文常识习惯,通用对话模型的作用是评估特定风格的剧情生成模型输出的对话的流畅度和质量。训练通用对话模型的原理与训练剧情生成模型的原理是相同的,此处不再赘述。
在步骤503B中,获取起始语句、对话轮次阈值、语句的最小字数。
示例的,起始语句是可以是剧情编辑人员手动输入的;或者,本申请实施例提供的方法应用在游戏中时,由玩家手动输入的起始语句;或者,从数据库中随机抽取对话角色以及对应的对话语句作为起始语句。对话轮次阈值是一次对话中轮次的最大值,可以设置为30句。语句的最小字数可以设置为3个字,从而避免出现内容极少的无效语句。
在步骤504B中,调用剧情生成模型生成多个角色对应的多个语句。
示例的,参考图6A,图6A是本申请实施例提供的虚拟场景的对话处理方法的步骤601A至步骤607A的流程示意图。
在步骤601A中,输入起始语句。
示例的,步骤601A的执行可以参考步骤503B此处不再赘述。
在步骤602A中,从N个剧情生成模型中,排除上一个对话角色。
示例的,上一个对话角色也即上文的参与对象,每次对话生成需要去掉上一轮次发言的参与对象,用户可以输入指定参与对象,当用户指定参与对象时,得到指定角色对应的输出语句,获取下一轮次的输出语句时需要排除指定参与对象,避免相邻轮次的对话语句由相同的虚拟对象的剧情生成模型输出,造成虚拟对象“自言自语”影响生成的对话的质量。
在步骤603A中,生成多个输出语句,以及对应的质量评分。
示例的,获取词表,词表中可以包括大量的候选词,例如:30000个。剧情生成模型基于输入语句预测词表中的每个候选词是输出语句中的第一个词的概率。预测公式(1)如下所示:
其中,在第一轮次中,x是输入语句,=0,表征当前还未生成输出词。表征第一轮次预测得到的输出词。表征领域对话模型对输入语句进行编码,得到输入语句向量,并基于输入语句向量预测得到概率特征;softmax归一化函数对概率特征进行归一化处理得到第一预测概率(取值范围为[0,1]);argmax函数,用于获取最大的第一预测概率在词表中对应的索引数值,函数用于基于最大的第一预测概率的索引数值,获取词表中对应的候选词的文字,得到最大的第一预测概率对应的候选词。
参考图6B,图6B是本申请实施例提供的虚拟场景的对话处理方法的步骤601B至步骤607B的流程示意图。剧情生成模型602B执行步骤603B、步骤607B。剧情生成模型602B中包括多种函数,包括:Softmax函数(604B)、Argmax函数(605B)。剧情生成模型602B还包括解码器606B。
在步骤603B中,判断已经生成的对话语句的长度是否小于对话最小字数。
当步骤603B的判断结果为是时,执行步骤607B,结束符设置最小值:A[4]=min(A)。判断结果为否时,将输入数据依次输入Softmax函数、Argmax函数以及解码器。其中,在当前轮次生成的对话内容长度小于设置的对话最小字数,将结束符对应的序号的数值设置为当前总列表的最小值,如果对话语句的数据量(行数、字数或者句子数量)已经达到设置的最小数据量需求,不进行结束符数值操作。最终采用通过归一化函数(Softmax)处理的方法进行概率计算,挑选出概率最大的位置id所对应的词汇作为下一个词汇的续写。
基于上述举例进行解释说明,Softmax函数基于输入数据得到N*30000维度概率数据,Argmax函数用于获取N*30000维度概率数据中概率最大的候选词对应的位置id,本申请实施例中为92,解码器用于对位置id对应的数据进行解码,得到位置id对应的字符“道”。
为便于对通用对话模型与剧情生成模型的关系进行解释说明,参考图6C,图6C是本申请实施例提供的虚拟场景的对话处理方法的步骤601C至步骤606C的流程示意图。剧情生成模型602B执行步骤601C至步骤603C,通用对话模型603B执行步骤604C至步骤606C。上文中已经对输入数据601B进行解释,此处不再赘述。
在步骤601C中,预测每个候选词的第一概率。
步骤601C的原理可以参考上文图6B中的各步骤。第一概率也即上文的第一预测概率。
步骤604C的执行与步骤601C可以是并行的。在步骤604C中,预测每个候选词的第二概率。第二概率也即上文的第二预测概率。
在步骤601C之后执行步骤602C,在步骤602C中,获取与最大第一概率对应的词的位置id。
示例的,词表中包括30000个词,每个词对应不同的序号(位置id),剧情生成模型对词表中每个词出现的概率进行预测,可以得到30000维度的第一个概率特征,概率特征中每个维度的数据表征一个词的第一概率,获取最大第一概率在第一个概率特征中的对应的位置id。
在步骤602C之后,执行步骤603C以及步骤605C。在步骤603C中,将与最大第一概率对应的词作为输出词。在步骤605C中,获取位置id对应的词的第二概率。
在步骤606C中,将第二概率作为输出词的质量评分。
例如:文字“道”在概率特征1中的位置id是92,然后查找概率特征2中位置id92对应的概率,得到0.69的数值,将位置id92对应的概率0.69作为文字“道”的质量评分。
示例的,对输出语句中的每个输出词均进行评分,汇总每个输出词对应的第二概率,得到一个分数列表,计算每个输出词对应的分数的均值,将均值作为输出语句的质量评分。
继续参考图6A,在步骤604A中,根据质量评分,选取一个输出语句作为对话语句。
示例的,将质量评分大小作为随机选取的概率大小,根据质量评分对输出语句进行降序排序,从topN(例如:N为3)的输出语句中,选择一个输出语句作为生成的对话语句。
在步骤605A中,判断续写是否结束。当605A的判断结果为是时,执行步骤606A,输出剧情对话序列;当605A的判断结果为否时,执行步骤607A,输入已经生成的对话语句。并在步骤607A之后执行步骤602A。
示例的,续写结束的判断条件可以是生成的对话语句的数量是否达到预设的数量,或者对话的总字数是否达到预设的字数。
继续参考图5B,在步骤505B中,调用通用对话模型对每个语句进行评分。
在步骤506B中,根据每个语句的评分获取当前轮次的对话语句、发言的虚拟对象。
在步骤507B中,判断是否续写结束。当步骤507B的判断结果为是时,执行步骤508B,结束续写,输出对话内容和每个对话语句的评分。当步骤507B的判断结果为否时,执行步骤504B。
示例的,步骤505B至步骤508B的执行可以参考上文中步骤602A至607A,此处不再赘述。
本申请实施例提供的虚拟场景的对话处理方法可以应用在游戏中,例如:剧情游戏中,多个玩家扮演不同的角色,多个虚拟对象对某一话题进行讨论,对话过程中提供每个用户对应的发言位置,为每个用户提供多个选项进行选择,每个选项对应不同的子任务,根据用户选择的选项生成后续对话,并向用户发放对话选项对应的子任务。或者,手动输入对应的对话内容,根据用户输入的对话内容生成后续对话,并根据后续对话向用户的角色发放子任务。
本申请实施例实现了以下技术效果:
1、利用和特定游戏背景相似的武侠小说进行训练,学习到符合游戏风格的对话生成模型,提高了对话生成模型在游戏中的适配性;
2、结合游戏中本身的内容、剧情设置等因素,通过学习游戏中的剧情,生成更加符合游戏逻辑的对话剧情;
3、通过对话生成的方式,提高剧情生成的多样性;
4、采用多角色对话生成,设计严谨的对话评估方案,可以生成场景和故事丰富的剧情对话内容。
下面继续说明本申请实施例提供的虚拟场景的对话处理装置455的实施为软件模块的示例性结构,在一些实施例中,如图2所示,存储在存储器450的虚拟场景的对话处理装置455中的软件模块可以包括:对话生成模块4551,用于基于至少一个输入语句,调用当前轮次的至少一个参与对象分别对应的领域对话模型进行对话生成处理,得到每个参与对象的多个输出语句,其中,至少一个参与对象是多个虚拟对象中除上一轮次的发言对象以外的虚拟对象;质量检测模块4552,用于基于每个输出语句调用通用对话模型进行质量预测处理,得到每个输出语句的质量参数,其中,通用对话模型是基于通用领域的对话样本训练得到的;质量检测模块4552,用于基于每个输出语句的质量参数,从多个输出语句中选取当前轮次的对话语句。
在一些实施例中,对话生成模块4551,用于基于至少一个输入语句,调用当前轮次的至少一个参与对象分别对应的领域对话模型进行对话生成处理,得到每个参与对象的多个输出语句之前,若当前轮次为第一轮次,获取针对当前一场对话预设的起始语句,将起始语句作为第一轮次的输入语句;若当前轮次为第一轮次之后的后续轮次,从以下语句中选取至少一个语句作为后续轮次的至少一个输入语句:起始语句,当前轮次之前的任意轮次的对话语句。
在一些实施例中,对话生成模块4551,用于响应于上一轮次的对话语句的类型是疑问句,确定当前的对话场景为问答场景,至少将上一轮次的对话语句作为输入语句;响应于上一轮次的对话语句的类型不是疑问句,确定当前的对话场景为聊天场景,从当前轮次之前的任意轮次的对话语句以及起始语句中,选取至少一个语句作为输入语句。
在一些实施例中,对话生成模块4551,用于基于至少一个输入语句,调用当前轮次的参与对象的领域对话模型进行语句内容预测处理,得到多个输出词;
按照先后时间顺序依次对多个输出词进行多次选取处理,将每次选取处理得到的输出词按照先后时间顺序组合为一个输出语句,其中,第一次的选取处理的选取数量为一,且多次选取处理的选取数量依次递增。
在一些实施例中,对话生成模块4551,用于获取词表以及输出语句的最大词数量N,其中,N为正整数,词表包括多个候选词、以及每个候选词对应的词编码向量;对至少一个输入语句进行编码处理,得到至少一个输入语句对应的输入语句向量;基于输入语句向量,调用当前轮次的参与对象的领域对话模型进行语句内容预测处理,得到每个候选词的第一预测概率,将与最大的第一预测概率对应的候选词作为第1个输出词;令n的取值逐渐递增且满足n,迭代n执行以下处理:基于输入语句向量与n个输出词的词编码向量,调用当前轮次的参与对象的领域对话模型进行语句内容预测处理,得到每个候选词的第一预测概率,将与最大的第一预测概率对应的候选词作为第n+1个输出词。
在一些实施例中,质量检测模块4552,用于针对每个输出语句执行以下处理:基于输出语句以及与输出语句对应的至少一个输入语句,调用通用对话模型进行质量预测处理,得到输出语句中每个输出词对应的第二预测概率;获取每个第二预测概率的第一平均值,将第一平均值作为输出语句的质量参数。
在一些实施例中,质量检测模块4552,用于获取输出语句的词总数量M、以及输出语句中每个输出词的词编码向量,其中,M是正整数;获取与输出语句对应的至少一个输入语句的输入语句向量;基于至少一个输入语句的输入语句向量,调用通用对话模型进行语句内容预测处理,得到输出语句中的第1个输出词对应的第二预测概率;令m的取值逐渐递增且满足m,迭代m执行以下处理:基于至少一个输入语句的输入语句向量与m个第二预测概率的对应的输出词的词编码向量,调用通用对话模型进行语句内容预测处理,得到输出语句中的第m+1个输出词对应的第二预测概率。
在一些实施例中,对话生成模块4551,用于在基于至少一个输入语句,调用当前轮次的至少一个参与对象分别对应的领域对话模型进行对话生成处理之前,通过以下至少一种方式,确定当前轮次的至少一个参与对象:在当前对话场景为问答场景,且上一轮次的对话语句为疑问句时,获取上一轮次的对话语句所包括的至少一个角色信息,将至少一个角色信息对应的至少一个虚拟对象,作为当前轮次的至少一个参与对象;在当前对话场景为聊天场景时,将多个虚拟对象中除上一轮次的发言对象以外的至少一个虚拟对象,作为当前轮次的至少一个参与对象;从对话轮次表中查询针对当前轮次预先设置的至少一个参与对象,其中,对话轮次表包括针对每个对话轮次预先设置的至少一个参与对象,且对话轮次表中相邻轮次的参与对象不同;从虚拟对象对应的第二平均值的降序排序结果中,将从首位开始的至少一个第二平均值对应的至少一个虚拟对象,作为当前轮次的至少一个参与对象,其中,虚拟对象对应的第二平均值是虚拟对象对应的每个输出语句的质量参数的平均值。
在一些实施例中,质量检测模块4552,用于基于每个输出语句的质量参数,对每个输出语句进行降序排序,得到降序排序列表;从降序排序列表的头部的预设数量的输出语句中,选取任意一个输出语句作为当前轮次的对话语句。
在一些实施例中,对话生成模块4551,用于在基于每个输出语句的质量参数,从多个输出语句中选取当前轮次的对话语句之后,响应于满足对话结束条件,按照选取的先后时间顺序将每个轮次的对话语句组合为对话序列,其中,对话结束条件包括以下至少一项:已经生成的对话语句的数量达到语句数量阈值;对话内容总字数大于对话字数阈值,其中,对话内容总字数是以下参数的加和:已经生成的对话语句的字数、第一轮次的输入语句的字数;每个参与对象对应的领域对话模型分别输出了至少一个对话语句。
在一些实施例中,对话生成模块4551,用于在基于至少一个输入语句,调用当前轮次的至少一个参与对象分别对应的领域对话模型进行对话生成处理,得到每个参与对象的多个输出语句之前,获取特定领域的对话样本的第一样本集合,其中,每个对话样本包括至少一个样本输入语句、用于回复至少一个样本输入语句的一个样本输出语句、以及样本输出语句关联的虚拟对象的角色信息;根据每个样本输出语句关联的虚拟对象的角色信息,对第一样本集合中的每个对话样本进行分类处理,得到每个虚拟对象对应的第一样本子集合,其中,第一样本子集合中的每个样本输出语句对应于同一个虚拟对象;针对每个虚拟对象关联的待训练模型执行以下处理:基于虚拟对象对应的第一样本子集合,对待训练模型进行迭代训练处理,将训练后的待训练模型作为虚拟对象对应的领域对话模型。
在一些实施例中,对话生成模块4551,用于获取特定领域的文本数据;从文本数据中提取多场样本对话,其中,每场样本对话包括多个轮次的样本对话语句;从文本数据中提取与多场样本对话分别关联的角色信息,其中,相邻轮次的样本对话语句分别对应不同的虚拟对象的角色信息;针对每场样本对话执行以下处理:按照先后时间顺序,依次对样本对话中的多个样本对话语句进行多次选取处理,将每次选取处理得到的样本对话语句组合为特定领域的一场对话样本;其中,第一次选取处理的选取数量为二,且多次选取处理的选取数量依次递增;在每一场对话样本中,最后一个样本对话语句为样本输出语句,除最后一个样本对话之外的样本对话语句为样本输入语句;将每个对话样本组合为第一样本集合。
在一些实施例中,对话生成模块4551,用于从文本数据中提取对话符号所对应的文本内容,其中,对话符号包括以下至少一种:双引号、单引号、冒号;将文本内容中满足筛选条件的语句作为样本对话语句,其中,筛选条件包括以下至少之一:文本内容的出现次数小于次数阈值,且文本内容的字数大于字数阈值;在文本数据中,获取处于相邻的两个样本对话语句之间的文本内容的文本数据量,其中,文本数据量通过以下至少一种方式表征:文本字数、文本对应的行数、文本对应的句子数量;响应于文本数据量大于数据量阈值,确定相邻的两个样本对话语句之间存在剧情间隔;基于每个剧情间隔对每个样本对话语句进行分组处理,得到多场样本对话,其中,每场样本对话包括至少两个样本对话语句。
在一些实施例中,对话生成模块4551,用于针对每场样本对话中的每个轮次的样本对话语句执行以下处理:从文本数据中提取以下两者之间的文本内容:样本对话语句,上一轮次的样本对话语句;从文本内容中提取类型为对象名称的目标实体词,将目标实体词作为样本对话语句关联的虚拟对象的角色信息。
在一些实施例中,对话生成模块4551,用于针对第一样本子集合中的每个对话样本执行以下处理:基于对话样本中的至少一个样本输入语句,调用待训练模型进行对话生成处理,得到预测输出语句;获取预测输出语句与对话样本中的样本输出语句之间的差异,将差异作为预测损失;基于预测损失对待训练模型进行反向传播处理,得到参数更新后的待训练模型;响应于反向传播处理的次数达到训练次数阈值,将参数更新后的待训练模型作为参与对象对应的领域对话模型。
在一些实施例中,对话生成模块4551,用于对至少一个样本输入语句进行编码处理,得到样本输入向量;对预测输出语句与样本输出语句分别进行编码处理,得到预测向量以及样本输出向量;对样本输入向量与样本输出向量进行拼接处理,得到第一拼接向量,对第一拼接向量进行转换处理,得到样本输出语句的第一文本特征;对样本输入向量与预测向量进行拼接处理,得到第二拼接向量,对第二拼接向量转换处理,得到预测输出语句对应的第二文本特征;获取第一文本特征与第二文本特征之间的差异,并将差异作为预测损失。
在一些实施例中,质量检测模块4552,用于在基于至少一个输入语句,调用当前轮次的至少一个参与对象分别对应的领域对话模型进行对话生成处理,得到每个参与对象的多个输出语句之前,获取通用领域的对话样本的第二样本集合,其中,每个对话样本包括至少一个样本输入语句、以及用于回复至少一个样本输入语句的一个样本输出语句;基于第二样本集合对待训练模型进行迭代训练处理,将训练后的待训练模型作为通用对话模型。
在一些实施例中,质量检测模块4552,用于针对第二样本集合中的每个对话样本执行以下处理:基于对话样本中的至少一个样本输入语句,调用待训练模型进行对话生成处理,得到预测输出语句;获取预测输出语句与对话样本中的样本输出语句之间的差异,将差异作为预测损失;基于预测损失对待训练模型进行反向传播处理,得到参数更新后的待训练模型;响应于反向传播处理的次数达到训练次数阈值,将参数更新后的待训练模型作为通用对话模型。
本申请实施例提供了一种计算机程序产品,该计算机程序产品包括计算机程序或计算机可执行指令,该计算机程序或计算机可执行指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机可执行指令,处理器执行该计算机可执行指令,使得该计算机设备执行本申请实施例上述的虚拟场景的对话处理方法。
本申请实施例提供一种存储有计算机可执行指令的计算机可读存储介质,其中存储有计算机可执行指令,当计算机可执行指令被处理器执行时,将引起处理器执行本申请实施例提供的虚拟场景的对话处理方法,例如,如图3A示出的虚拟场景的对话处理方法。
在一些实施例中,计算机可读存储介质可以是FRAM、ROM、PROM、EPROM、EEPROM、闪存、磁表面存储器、光盘、或CD-ROM等存储器;也可以是包括上述存储器之一或任意组合的各种设备。
在一些实施例中,计算机可执行指令可以采用程序、软件、软件模块、脚本或代码的形式,按任意形式的编程语言(包括编译或解释语言,或者声明性或过程性语言)来编写,并且其可按任意形式部署,包括被部署为独立的程序或者被部署为模块、组件、子例程或者适合在计算环境中使用的其它单元。
作为示例,计算机可执行指令可以但不一定对应于文件系统中的文件,可以可被存储在保存其它程序或数据的文件的一部分,例如,存储在超文本标记语言(HTML,HyperText Markup Language)文档中的一个或多个脚本中,存储在专用于所讨论的程序的单个文件中,或者,存储在多个协同文件(例如,存储一个或多个模块、子程序或代码部分的文件)中。
作为示例,计算机可执行指令可被部署为在一个电子设备上执行,或者在位于一个地点的多个电子设备上执行,又或者,在分布在多个地点且通过通信网络互连的多个电子设备上执行。
综上所述,通过本申请实施例通过在一场对话的每个轮次中,对于调用特定领域的领域对话模型生成的多个输出语句,通过通用对话模型来进行质量评估,一方面,确保筛选出高质量的输出对话作为相应轮次的对话语句,另一方面,将当前轮次的对话数据又作为下一个轮次的输入语句,即用于引导下一轮次的对话生成处理,从一场对话的不同轮次的层面提升了整体的对话内容的质量。
以上所述,仅为本申请的实施例而已,并非用于限定本申请的保护范围。凡在本申请的精神和范围之内所作的任何修改、等同替换和改进等,均包含在本申请的保护范围之内。
Claims (20)
1.一种虚拟场景的对话处理方法,其特征在于,
所述虚拟场景包括参与当前一场对话的多个虚拟对象,每个所述虚拟对象对应一个领域对话模型,所述领域对话模型是基于特定领域的对话样本训练得到的;
所述方法包括:
基于至少一个输入语句,调用当前轮次的至少一个参与对象分别对应的所述领域对话模型进行对话生成处理,得到每个所述参与对象的多个输出语句,其中,所述至少一个参与对象是所述多个虚拟对象中除上一轮次的发言对象以外的所述虚拟对象;
基于每个所述输出语句调用通用对话模型进行质量预测处理,得到每个所述输出语句的质量参数,其中,所述通用对话模型是基于通用领域的对话样本训练得到的;
基于每个所述输出语句的质量参数,从所述多个输出语句中选取当前轮次的对话语句。
2.根据权利要求1所述的方法,其特征在于,所述基于至少一个输入语句,调用当前轮次的至少一个参与对象分别对应的所述领域对话模型进行对话生成处理,得到每个所述参与对象的多个输出语句之前,所述方法还包括:
若当前轮次为第一轮次,获取针对所述当前一场对话预设的起始语句,将所述起始语句作为所述第一轮次的输入语句;
若当前轮次为第一轮次之后的后续轮次,从以下语句中选取至少一个语句作为所述后续轮次的至少一个输入语句:所述起始语句,所述当前轮次之前的任意轮次的对话语句。
3.根据权利要求2所述的方法,其特征在于,所述从以下语句中选取至少一个语句作为所述后续轮次的至少一个输入语句,包括:
响应于上一轮次的对话语句的类型是疑问句,确定当前的对话场景为问答场景,至少将上一轮次的对话语句作为输入语句;
响应于上一轮次的对话语句的类型不是疑问句,确定当前的对话场景为聊天场景,从所述当前轮次之前的任意轮次的对话语句以及所述起始语句中,选取至少一个语句作为输入语句。
4.根据权利要求1至3任一项所述的方法,其特征在于,所述基于至少一个输入语句,调用当前轮次的至少一个参与对象分别对应的所述领域对话模型进行对话生成处理,得到每个所述参与对象的多个输出语句,包括:
基于所述至少一个输入语句,调用当前轮次的所述参与对象的所述领域对话模型进行语句内容预测处理,得到多个输出词;
按照先后时间顺序依次对多个所述输出词进行多次选取处理,将每次所述选取处理得到的输出词按照先后时间顺序组合为一个输出语句,其中,第一次的所述选取处理的选取数量为一,且所述多次选取处理的选取数量依次递增。
5.根据权利要求4所述的方法,其特征在于,所述基于所述至少一个输入语句,调用当前轮次的所述参与对象的所述领域对话模型进行语句内容预测处理,得到多个输出词,包括:
获取词表以及输出语句的最大词数量N,其中,N为正整数,所述词表包括多个候选词、以及每个所述候选词对应的词编码向量;
对所述至少一个输入语句进行编码处理,得到所述至少一个输入语句对应的输入语句向量;
基于所述输入语句向量,调用当前轮次的所述参与对象的所述领域对话模型进行语句内容预测处理,得到每个所述候选词的第一预测概率,将与最大的所述第一预测概率对应的所述候选词作为第1个输出词;
6.根据权利要求1所述的方法,其特征在于,所述基于每个所述输出语句调用通用对话模型进行质量预测处理,得到每个所述输出语句的质量参数,包括:
针对每个所述输出语句执行以下处理:
基于所述输出语句以及与所述输出语句对应的至少一个输入语句,调用所述通用对话模型进行质量预测处理,得到所述输出语句中每个所述输出词对应的第二预测概率;
获取每个所述第二预测概率的第一平均值,将所述第一平均值作为所述输出语句的质量参数。
7.根据权利要求6所述的方法,其特征在于,所述基于所述输出语句以及与所述输出语句对应的至少一个输入语句,调用所述通用对话模型进行质量预测处理,得到所述输出语句中每个所述输出词对应的第二预测概率,包括:
获取所述输出语句的词总数量M、以及所述输出语句中每个所述输出词的词编码向量,其中,M是正整数;
获取与所述输出语句对应的至少一个输入语句的输入语句向量;
基于所述至少一个输入语句的输入语句向量,调用所述通用对话模型进行语句内容预测处理,得到所述输出语句中的第1个所述输出词对应的第二预测概率;
8.根据权利要求1所述的方法,其特征在于,在所述基于至少一个输入语句,调用当前轮次的至少一个参与对象分别对应的所述领域对话模型进行对话生成处理之前,所述方法还包括:
通过以下至少一种方式,确定当前轮次的至少一个参与对象:
在当前对话场景为问答场景,且上一轮次的对话语句为疑问句时,获取所述上一轮次的对话语句所包括的至少一个角色信息,将所述至少一个角色信息对应的至少一个虚拟对象,作为当前轮次的至少一个参与对象;
在当前对话场景为聊天场景时,将所述多个虚拟对象中除上一轮次的发言对象以外的至少一个所述虚拟对象,作为当前轮次的至少一个参与对象;
从对话轮次表中查询针对当前轮次预先设置的至少一个参与对象,其中,所述对话轮次表包括针对每个所述对话轮次预先设置的至少一个参与对象,且所述对话轮次表中相邻轮次的参与对象不同;
从所述虚拟对象对应的第二平均值的降序排序结果中,将从首位开始的至少一个所述第二平均值对应的至少一个虚拟对象,作为当前轮次的至少一个参与对象,其中,所述虚拟对象对应的第二平均值是所述虚拟对象对应的每个所述输出语句的质量参数的平均值。
9.根据权利要求1所述的方法,其特征在于,所述基于每个所述输出语句的质量参数,从所述多个输出语句中选取当前轮次的对话语句,包括:
基于每个所述输出语句的质量参数,对每个所述输出语句进行降序排序,得到降序排序列表;
从所述降序排序列表的头部的预设数量的输出语句中,选取任意一个所述输出语句作为当前轮次的对话语句。
10.根据权利要求1所述的方法,其特征在于,在所述基于每个所述输出语句的质量参数,从所述多个输出语句中选取当前轮次的对话语句之后,所述方法还包括:
响应于满足对话结束条件,按照选取的先后时间顺序将每个所述轮次的对话语句组合为对话序列,其中,所述对话结束条件包括以下至少一项:
已经生成的所述对话语句的数量达到语句数量阈值;
对话内容总字数大于对话字数阈值,其中,所述对话内容总字数是以下参数的加和:已经生成的所述对话语句的字数、第一轮次的输入语句的字数;
每个所述参与对象对应的所述领域对话模型分别输出了至少一个对话语句。
11.根据权利要求1所述的方法,其特征在于,在所述基于至少一个输入语句,调用当前轮次的至少一个参与对象分别对应的所述领域对话模型进行对话生成处理,得到每个所述参与对象的多个输出语句之前,所述方法还包括:
获取特定领域的对话样本的第一样本集合,其中,每个所述对话样本包括至少一个样本输入语句、用于回复所述至少一个样本输入语句的一个样本输出语句、以及所述样本输出语句关联的虚拟对象的角色信息;
根据每个所述样本输出语句关联的虚拟对象的角色信息,对所述第一样本集合中的每个所述对话样本进行分类处理,得到每个虚拟对象对应的第一样本子集合,其中,所述第一样本子集合中的每个所述样本输出语句对应于同一个所述虚拟对象;
针对每个所述虚拟对象关联的待训练模型执行以下处理:基于所述虚拟对象对应的第一样本子集合,对所述待训练模型进行迭代训练处理,将训练后的所述待训练模型作为所述虚拟对象对应的领域对话模型。
12.根据权利要求11所述的方法,其特征在于,所述获取特定领域的对话样本的第一样本集合,包括:
获取特定领域的文本数据;
从所述文本数据中提取多场样本对话,其中,每场所述样本对话包括多个轮次的样本对话语句;
从所述文本数据中提取与所述多场样本对话分别关联的角色信息,其中,相邻轮次的样本对话语句分别与不同的虚拟对象的角色信息关联;
针对每场所述样本对话执行以下处理:
按照先后时间顺序,依次对所述样本对话中的多个所述样本对话语句进行多次选取处理,将每次所述选取处理得到的样本对话语句组合为特定领域的一场对话样本;
其中,第一次的所述选取处理的选取数量为二,且所述多次选取处理的选取数量依次递增;在每一场所述对话样本中,最后一个所述样本对话语句为样本输出语句,除最后一个所述样本对话之外的所述样本对话语句为样本输入语句;
将每个所述对话样本组合为所述第一样本集合。
13.根据权利要求12所述的方法,其特征在于,所述从所述文本数据中提取多场样本对话,包括:
从所述文本数据中提取对话符号所对应的文本内容,其中,所述对话符号包括以下至少一种:双引号、单引号、冒号;
将所述文本内容中满足筛选条件的语句作为样本对话语句,其中,所述筛选条件包括以下至少之一:所述文本内容的出现次数小于次数阈值,且所述文本内容的字数大于字数阈值;
在所述文本数据中,获取处于相邻的两个样本对话语句之间的文本内容的文本数据量,其中,所述文本数据量通过以下至少一种方式表征:文本字数、文本对应的行数、文本对应的句子数量;
响应于所述文本数据量大于数据量阈值,确定所述相邻的两个样本对话语句之间存在剧情间隔;
基于每个所述剧情间隔对多个所述样本对话语句进行分组处理,得到多场样本对话,其中,每场所述样本对话包括至少两个样本对话语句。
14.根据权利要求12所述的方法,其特征在于,所述从所述文本数据中提取与所述多场样本对话分别关联的角色信息,包括:
针对每场所述样本对话中每个轮次的样本对话语句执行以下处理:
从所述文本数据中提取以下两者之间的文本内容:所述样本对话语句,上一轮次的所述样本对话语句;
从所述文本内容中提取类型为对象名称的目标实体词,将所述目标实体词作为与所述样本对话语句关联的虚拟对象的角色信息。
15.根据权利要求11所述的方法,其特征在于,所述基于所述虚拟对象对应的第一样本子集合,对所述待训练模型进行迭代训练处理,将训练后的所述待训练模型作为所述虚拟对象对应的领域对话模型,包括:
针对所述第一样本子集合中的每个所述对话样本执行以下处理:
基于所述对话样本中的所述至少一个样本输入语句,调用所述待训练模型进行对话生成处理,得到预测输出语句;
获取所述预测输出语句与所述对话样本中的所述样本输出语句之间的差异,将所述差异作为预测损失;
基于所述预测损失对所述待训练模型进行反向传播处理,得到参数更新后的所述待训练模型;
响应于所述反向传播处理的次数达到训练次数阈值,将参数更新后的所述待训练模型作为所述参与对象对应的领域对话模型。
16.根据权利要求15所述的方法,其特征在于,所述获取所述预测输出语句与所述对话样本中的所述样本输出语句之间的差异,将所述差异作为预测损失,包括:
对所述至少一个样本输入语句进行编码处理,得到样本输入向量;
对所述预测输出语句与所述样本输出语句分别进行编码处理,得到预测向量以及样本输出向量;
对所述样本输入向量与所述样本输出向量进行拼接处理,得到第一拼接向量,对所述第一拼接向量进行转换处理,得到所述样本输出语句的第一文本特征;
对所述样本输入向量与所述预测向量进行拼接处理,得到第二拼接向量,对所述第二拼接向量转换处理,得到预测输出语句对应的第二文本特征;
获取所述第一文本特征与所述第二文本特征之间的差异,并将所述差异作为预测损失。
17.一种虚拟场景的对话处理装置,其特征在于,
所述虚拟场景包括参与当前一场对话的多个虚拟对象,每个所述虚拟对象对应一个领域对话模型,所述领域对话模型是基于特定领域的对话样本训练得到的;
所述装置包括:
对话生成模块,用于基于至少一个输入语句,调用当前轮次的至少一个参与对象分别对应的所述领域对话模型进行对话生成处理,得到每个所述参与对象的多个输出语句,其中,所述至少一个参与对象是所述多个虚拟对象中除上一轮次的发言对象以外的所述虚拟对象;
质量检测模块,用于基于每个所述输出语句调用通用对话模型进行质量预测处理,得到每个所述输出语句的质量参数,其中,所述通用对话模型是基于通用领域的对话样本训练得到的;
所述质量检测模块,用于基于每个所述输出语句的质量参数,从所述多个输出语句中选取当前轮次的对话语句。
18.一种电子设备,其特征在于,所述电子设备包括:
存储器,用于存储计算机可执行指令;
处理器,用于执行所述存储器中存储的计算机可执行指令时,实现权利要求1至16任一项所述的虚拟场景的对话处理方法。
19.一种计算机可读存储介质,存储有计算机可执行指令,其特征在于,所述计算机可执行指令被处理器执行时实现权利要求1至16任一项所述的虚拟场景的对话处理方法。
20.一种计算机程序产品,包括计算机程序或计算机可执行指令,其特征在于,所述计算机程序或计算机可执行指令被处理器执行时实现权利要求1至16任一项所述的虚拟场景的对话处理方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211207306.5A CN115293132B (zh) | 2022-09-30 | 2022-09-30 | 虚拟场景的对话处理方法、装置、电子设备及存储介质 |
PCT/CN2023/116503 WO2024066920A1 (zh) | 2022-09-30 | 2023-09-01 | 虚拟场景的对话方法、装置、电子设备、计算机程序产品及计算机存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211207306.5A CN115293132B (zh) | 2022-09-30 | 2022-09-30 | 虚拟场景的对话处理方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115293132A true CN115293132A (zh) | 2022-11-04 |
CN115293132B CN115293132B (zh) | 2022-12-30 |
Family
ID=83833857
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211207306.5A Active CN115293132B (zh) | 2022-09-30 | 2022-09-30 | 虚拟场景的对话处理方法、装置、电子设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN115293132B (zh) |
WO (1) | WO2024066920A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116059646A (zh) * | 2023-04-06 | 2023-05-05 | 深圳尚米网络技术有限公司 | 一种交互式专家指导系统 |
WO2024066920A1 (zh) * | 2022-09-30 | 2024-04-04 | 腾讯科技(深圳)有限公司 | 虚拟场景的对话方法、装置、电子设备、计算机程序产品及计算机存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118014039A (zh) * | 2024-04-08 | 2024-05-10 | 亚信科技(中国)有限公司 | 模型训练方法、装置、存储介质及电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107193978A (zh) * | 2017-05-26 | 2017-09-22 | 武汉泰迪智慧科技有限公司 | 一种基于深度学习的多轮自动聊天对话方法及系统 |
US20180285348A1 (en) * | 2016-07-19 | 2018-10-04 | Tencent Technology (Shenzhen) Company Limited | Dialog generation method, apparatus, and device, and storage medium |
CN112131367A (zh) * | 2020-09-24 | 2020-12-25 | 民生科技有限责任公司 | 自审核的人机对话方法、系统及可读存储介质 |
CN114822812A (zh) * | 2022-04-11 | 2022-07-29 | 平安科技(深圳)有限公司 | 角色对话模拟方法、装置、设备及存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103078867A (zh) * | 2013-01-15 | 2013-05-01 | 深圳市紫光杰思谷科技有限公司 | 机器人间自动聊天方法及聊天系统 |
CN105975622B (zh) * | 2016-05-28 | 2020-12-29 | 福州云之智网络科技有限公司 | 多角色智能聊天的方法及系统 |
JP7418106B2 (ja) * | 2019-09-11 | 2024-01-19 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
CN111368042A (zh) * | 2020-02-13 | 2020-07-03 | 平安科技(深圳)有限公司 | 智能问答方法、装置、计算机设备及计算机存储介质 |
CN113378583A (zh) * | 2021-07-15 | 2021-09-10 | 北京小米移动软件有限公司 | 对话回复方法及装置、对话模型训练方法及装置、存储介质 |
CN115293132B (zh) * | 2022-09-30 | 2022-12-30 | 腾讯科技(深圳)有限公司 | 虚拟场景的对话处理方法、装置、电子设备及存储介质 |
-
2022
- 2022-09-30 CN CN202211207306.5A patent/CN115293132B/zh active Active
-
2023
- 2023-09-01 WO PCT/CN2023/116503 patent/WO2024066920A1/zh unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180285348A1 (en) * | 2016-07-19 | 2018-10-04 | Tencent Technology (Shenzhen) Company Limited | Dialog generation method, apparatus, and device, and storage medium |
CN107193978A (zh) * | 2017-05-26 | 2017-09-22 | 武汉泰迪智慧科技有限公司 | 一种基于深度学习的多轮自动聊天对话方法及系统 |
CN112131367A (zh) * | 2020-09-24 | 2020-12-25 | 民生科技有限责任公司 | 自审核的人机对话方法、系统及可读存储介质 |
CN114822812A (zh) * | 2022-04-11 | 2022-07-29 | 平安科技(深圳)有限公司 | 角色对话模拟方法、装置、设备及存储介质 |
Non-Patent Citations (2)
Title |
---|
YANMENG WANG ET AL.: "Knowledge Grounded Pre-Trained Model For Dialogue Response Generation", 《2020 INTERNATIONAL JOINT CONFERENCE ON NEURAL NETWORKS (IJCNN)》 * |
黄健 等: "融合角色、结构和语义的口语对话预训练语言模型", 《计算机应用研究》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024066920A1 (zh) * | 2022-09-30 | 2024-04-04 | 腾讯科技(深圳)有限公司 | 虚拟场景的对话方法、装置、电子设备、计算机程序产品及计算机存储介质 |
CN116059646A (zh) * | 2023-04-06 | 2023-05-05 | 深圳尚米网络技术有限公司 | 一种交互式专家指导系统 |
CN116059646B (zh) * | 2023-04-06 | 2023-07-11 | 深圳尚米网络技术有限公司 | 一种交互式专家指导系统 |
Also Published As
Publication number | Publication date |
---|---|
CN115293132B (zh) | 2022-12-30 |
WO2024066920A1 (zh) | 2024-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115293132B (zh) | 虚拟场景的对话处理方法、装置、电子设备及存储介质 | |
CN109785824B (zh) | 一种语音翻译模型的训练方法及装置 | |
CN111966800B (zh) | 情感对话生成方法、装置及情感对话模型训练方法、装置 | |
JP2022531855A (ja) | テキストに基づくアバターの行動制御方法、デバイス及びコンピュータプログラム | |
CN110263324A (zh) | 文本处理方法、模型训练方法和装置 | |
CN110990543A (zh) | 智能对话的生成方法、装置、计算机设备及计算机存储介质 | |
CN112465935A (zh) | 虚拟形象合成方法、装置、电子设备和存储介质 | |
CN112487139A (zh) | 基于文本的自动出题方法、装置及计算机设备 | |
CN108470188B (zh) | 基于图像分析的交互方法及电子设备 | |
CN111862934A (zh) | 语音合成模型的改进方法和语音合成方法及装置 | |
CN112949684B (zh) | 一种基于强化学习框架的多模态检测对话情感信息的方法 | |
CN112131359A (zh) | 一种基于图形化编排智能策略的意图识别方法及电子设备 | |
CN114911932A (zh) | 基于主题语义增强的异构图结构多会话者情感分析方法 | |
CN114821744A (zh) | 基于表情识别的虚拟人物驱动方法、装置及设备 | |
CN112966568A (zh) | 一种视频客服服务质量分析方法及装置 | |
CN115171731A (zh) | 一种情绪类别确定方法、装置、设备及可读存储介质 | |
CN117216234A (zh) | 基于人工智能的话术改写方法、装置、设备及存储介质 | |
CN111400489B (zh) | 对话文本摘要生成方法、装置、电子设备和存储介质 | |
CN117238321A (zh) | 语音综合评估方法、装置、设备及存储介质 | |
KR20210123545A (ko) | 사용자 피드백 기반 대화 서비스 제공 방법 및 장치 | |
CN109961152B (zh) | 虚拟偶像的个性化互动方法、系统、终端设备及存储介质 | |
CN117150338A (zh) | 任务处理、自动问答以及多媒体数据识别模型训练方法 | |
CN111414748A (zh) | 话务数据处理方法及装置 | |
CN116975214A (zh) | 文本生成方法、装置、存储介质及计算机设备 | |
CN115547345A (zh) | 声纹识别模型训练及相关识别方法、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40075368 Country of ref document: HK |