CN117216234A - 基于人工智能的话术改写方法、装置、设备及存储介质 - Google Patents

基于人工智能的话术改写方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN117216234A
CN117216234A CN202311050423.XA CN202311050423A CN117216234A CN 117216234 A CN117216234 A CN 117216234A CN 202311050423 A CN202311050423 A CN 202311050423A CN 117216234 A CN117216234 A CN 117216234A
Authority
CN
China
Prior art keywords
data
language model
task
instruction
rewriting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311050423.XA
Other languages
English (en)
Inventor
李鸣霄
唐然
李峰
冯尧
安东岳
陈祺
陈梓阳
杜楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202311050423.XA priority Critical patent/CN117216234A/zh
Publication of CN117216234A publication Critical patent/CN117216234A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)

Abstract

一种基于人工智能的话术改写方法、装置、设备及存储介质,涉及人工智能技术领域。该方法包括:获取指定领域的语料数据;采用语料数据对第一语言模型进行预训练,得到预训练后的第一语言模型;基于语料数据,生成适用于指定领域的话术改写任务的至少一条指令数据,指令数据用于对指定领域的输入文本进行话术风格改写,生成输入文本对应的输出文本;采用指令数据对预训练后的第一语言模型进行调整,得到调整后的第一语言模型,调整后的第一语言模型用于执行指定领域的话术改写任务。实现了自动化的话术改写,降低了人力和时间成本,并且使用指令增强的方法来提高模型在话术改写任务上的效果,使得最终训练得到的模型能够在达到高质量的改写效果。

Description

基于人工智能的话术改写方法、装置、设备及存储介质
技术领域
本申请实施例涉及人工智能技术领域,特别涉及一种基于人工智能的话术改写方法、装置、设备及存储介质。
背景技术
随着科技的不断发展,自然语言处理(Nature Language processing,简称NLP)的研究受到了人们的重视。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。
在电子竞技领域,基于人工智能的游戏解说正崭露头角。在智能解说中,目前的话术改写技术是人工对每个事件进行不同的描述而形成话术池,之后根据事件随机从话术池中选择需要讲解的话术。
然而,上述方法在对事件进行不同描述时,需要消耗大量的人力和时间,而且需要不断更新话术池以适应不断变化的个性化需求。
发明内容
本申请实施例提供了一种基于人工智能的话术改写方法、装置、设备及存储介质。本申请实施例提供的技术方案如下:
根据本申请实施例的一个方面,提供了一种基于人工智能的话术改写方法,所述方法包括:
获取指定领域的语料数据;
采用所述语料数据对第一语言模型进行预训练,得到预训练后的第一语言模型,所述预训练后的第一语言模型具有理解和处理所述指定领域的信息的能力;
基于所述语料数据,生成适用于所述指定领域的话术改写任务的至少一条指令数据,所述指令数据用于对所述指定领域的输入文本进行话术风格改写,生成所述输入文本对应的输出文本;
采用所述指令数据对所述预训练后的第一语言模型进行调整,得到调整后的第一语言模型,所述调整后的第一语言模型用于执行所述指定领域的话术改写任务。
根据本申请实施例的一个方面,提供了一种基于人工智能的话术改写装置,所述装置包括:
获取模块,用于获取指定领域的语料数据;
预训练模块,用于采用所述语料数据对第一语言模型进行预训练,得到预训练后的第一语言模型,所述预训练后的第一语言模型具有理解和处理所述指定领域的信息的能力;
生成模块,用于基于所述语料数据,生成适用于所述指定领域的话术改写任务的至少一条指令数据,所述指令数据用于对所述指定领域的输入文本进行话术风格改写,生成所述输入文本对应的输出文本;
调整模块,用于采用所述指令数据对所述预训练后的第一语言模型进行调整,得到调整后的第一语言模型,所述调整后的第一语言模型用于执行所述指定领域的话术改写任务。
根据本申请实施例的一个方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有计算机程序,所述处理器执行所述计算机程序以实现上述基于人工智能的话术改写方法。
根据本申请实施例的一个方面,提供了一种计算机可读存储介质,所述存储介质中存储有计算机程序,所述计算机程序用于被处理器执行,以实现上述基于人工智能的话术改写方法。
根据本申请实施例的一个方面,提供了一种计算机程序产品,所述计算机程序产品包括计算机程序,所述计算机程序存储在计算机可读存储介质中,处理器从所述计算机可读存储介质读取并执行所述计算机程序,以实现上述基于人工智能的话术改写方法。
本申请实施例提供的技术方案至少包括如下有益效果:
通过采用指定领域的语料数据对第一语言模型进行预训练,使预训练后的第一语言模型具备指定领域相关知识,然后从上述指定领域的语料数据中挖掘生成适用于指定领域的话术改写任务的指令数据,采用该指令数据对预训练后的第一语言模型进行调整,最终得到的调整后的第一语言模型能够用于执行指定领域的话术改写任务;本申请通过训练第一语言模型得到话术改写模型,利用该话术改写模型可以实现自动化的话术改写任务,充分降低了人力和时间成本;并且,使用指令增强的方法来提高第一语言模型在话术改写任务上的效果,使得最终训练得到的话术改写模型能够在指定领域的话术改写任务上达到高质量的改写效果。
附图说明
图1是本申请一个实施例提供的方案实施环境的示意图;
图2是本申请一个实施例提供的基于人工智能的话术改写方法的流程图;
图3是本申请一个实施例提供的指令数据的生成过程的流程图;
图4是本申请一个实施例提供的话术改写任务的任务树的示意图;
图5是本申请一个实施例提供的指定领域的领域树的示意图;
图6是本申请一个实施例提供的游戏解说领域的话术改写模型训练的流程图;
图7是本申请一个实施例提供的基于人工智能的话术改写装置的框图;
图8是本申请一个实施例提供的计算机设备的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
人工智能(Artificial Intelligence,简称AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、预训练模型技术、操作/交互系统、机电一体化等技术。其中,预训练模型又称大模型、基础模型,经过微调后可以广泛应用于人工智能各大方向下游任务。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
自然语言处理(Nature Language processing,简称NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理涉及自然语言,即人们日常使用的语言,与语言学研究密切;同时涉及计算机科学和数学等。人工智能领域模型训练的重要技术,预训练模型,即是从NLP领域的大语言模型(Large Language Model)发展而来。经过微调,大语言模型可以广泛应用于下游任务。自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答、知识图谱等技术。
机器学习(Machine Learning,简称ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。预训练模型是深度学习的最新发展成果,融合了以上技术。
游戏解说(Game Commentary)是指在电子游戏直播或录播过程中,通过实时评论、解说和讲解,对当前发生的游戏事件进行解释、评论、预测等,向观众传达游戏内容、战术、策略、技巧等信息。游戏解说包括人工解说,以及AI解说。
大语言模型(Large Language Model,简称LLM)是一种基于深度学习技术的人工智能算法,其目标是让计算机能够理解和生成自然语言。它通过分析大量的语言数据,如文本、语音或图像,来学习语言的结构和规律,并使用这些知识来完成各种自然语言处理任务,如机器翻译、语音识别、文本分类、问答系统等。大语言模型通常使用深度学习中Transformer架构来建模文本序列,以便理解上下文和语义。其训练过程通常涉及大量的数据和计算资源,例如大规模语料库和高性能计算平台。在训练过程中,大语言模型逐渐学习到了语言的特征和规律,形成了对语言的理解和表达能力。
Transformer架构是一种采用自注意力机制的深度学习模型,这一机制可以按输入数据各部分重要性的不同而分配不同的权重。该架构主要用于自然语言处理与计算机视觉(Computer Vision,简称CV)领域。该架构通常包括自注意力机制(Self-Attention)、多头注意力(Multi-Head Attention)、位置编码(Positional Encoding)、残差连接和归一化(Add&Norm)、前馈神经网络(Feed-Forward Network)、逐位置前馈神经网络(Position-wise Feed-Forward Network)等组件,这些组件组成编码器和解码器。
预训练模型(Pre-training model,简称PTM),也称基石模型、大模型,指具有大参量的深度神经网络(Deep Neural Network,简称DNN),在海量未标记的数据上对其进行训练,利用大参量DNN的函数近似能力使PTM在数据上提取共性特征,经微调(fine tune)、参数高效微调(Parameter-Efficient Fine-Tuning,简称PEFT)、提示微调(prompt-tuning)等技术,适用于下游任务。因此,预训练模型可以在小样本(Few-shot)或零样本(Zero-shot)场景下达到理想效果。PTM按照处理的数据模态可以分为语言模型(ELMO,BERT,GPT)、视觉模型(swin-transformer,ViT,V-MOE)、语音模型(VALL-E)、多模态模型(ViBERT,CLIP,Flamingo,Gato)等,其中多模态模型指建立两种或以上数据模态特征表示的模型。预训练模型是输出人工智能生成内容(Artificial Intelligence Generated Content,简称AIGC)重要工具,也可以作为连接多个具体任务模型的通用接口。
数据增强(Data Augmentation)是一种常用的机器学习技术,旨在通过对原始数据进行各种变换来扩增数据集,以提高模型的泛化能力和鲁棒性。数据增强技术通常包括图像旋转、裁剪、缩放、翻转等操作,以及语音加噪、变速、变调等处理。通过数据增强,可以有效地降低过拟合风险,提高模型的泛化能力和鲁棒性。同时,数据增强也可以增加数据的多样性,提高模型的鲁棒性和可靠性。
话术改写是指将原始文本或口语表达中的语言形式、结构和词汇进行修改和调整,以达到更加精准、准确和适合目标受众的表达方式。在广告、宣传、市场营销等领域中,话术改写常被用于设计吸引人的广告语、产品宣传语、销售口号等,以提高信息传递效果和吸引力。在文学、文化、教育等领域中,话术改写也被用于翻译、修辞、作文等方面,以提高表达的准确性、流畅性和美感。
随着人工智能技术研究和进步,人工智能技术在多个领域展开研究和应用,例如常见的智能家居、智能穿戴设备、虚拟助理、智能音箱、智能营销、无人驾驶、自动驾驶、无人机、数字孪生、虚拟人、机器人、人工智能生成内容(AIGC)、对话式交互、智能医疗、智能客服、游戏AI等,相信随着技术的发展,人工智能技术将在更多的领域得到应用,并发挥越来越重要的价值。
在电子竞技领域,基于人工智能的游戏解说正崭露头角,成为一种新的解说形式。相比于传统的真人解说,基于人工智能的游戏解说具有许多优势。
首先,基于人工智能的游戏解说可以大大降低成本。传统的真人解说需要大量的人力资源,包括主持人、解说员、技术工程师等等,这些成本不可避免地会反映在比赛的门票和广告费用上。而基于人工智能的游戏解说可以完全消除这些成本,只需要一台计算机和一个声音合成器就可以实现自动的游戏解说。其次,基于人工智能的游戏解说可以适用于各种游戏比赛场景。传统的真人解说通常需要解说员对游戏本身有一定的了解,才能够准确地解说比赛过程和策略。而基于人工智能的游戏解说可以通过机器学习算法自动学习游戏规则和策略,从而能够适用于各种不同类型的游戏比赛场景。最后,基于人工智能的游戏解说可以提供更加精准和客观的解说服务。传统的真人解说员可能会受到个人偏见、情绪和主观因素的影响,导致解说内容不够客观、准确。而基于人工智能的游戏解说可以通过算法和数据分析,提供更加客观、准确的解说内容,从而提高比赛的观赏性和可信度。当然,基于人工智能的游戏解说也存在一些挑战和限制。例如,人工智能目前还难以完全模拟人类语音和情感,可能会导致解说内容的单调和缺乏变化。此外,人工智能也难以适应突发状况和特殊场景,需要不断的改进和调整。总的来说,基于人工智能的游戏解说是一种有前景的新兴解说形式,可以为游戏比赛提供更加有趣、精准和客观的解说服务,同时也可以大大降低比赛的成本。
而游戏话术改写就是AI游戏解说中非常重要的一个环节,游戏话术改写是指利用自然语言处理技术,对游戏解说中的原始文本进行处理,使其更加流畅、自然、准确地表达游戏场景和玩法。在AI游戏解说中,游戏话术改写是非常重要的一个环节,因为它直接影响到游戏解说的质量和用户体验。在游戏话术改写的过程中,首先需要对原始文本进行语言分析,确定每个词汇的词性、语义和上下文关系,以便更好地理解游戏场景和玩法。然后,根据语法规则和语言习惯,对文本进行修改、调整和补充,以便更加自然地表达游戏内容。最后,还需要对修改后的文本进行语言生成,生成符合用户习惯和取向的语言,从而提高用户体验和满意度。除了技术层面的要求,游戏话术改写还需要考虑用户的文化背景、语言习惯和心理需求。不同的用户群体对游戏解说的要求和期望也有所不同,因此在游戏话术改写的过程中,需要灵活应对不同用户的需求和喜好,以便提供更加个性化和精准的游戏解说服务。总之,游戏话术改写在AI游戏解说中扮演着非常重要的角色,它不仅直接影响到用户体验和满意度,也是技术创新和语言文化交流的重要领域。随着技术的不断进步和人工智能的不断发展,对游戏话术改写的质量和效果也会越来越高,为用户提供更加优质的游戏解说服务。
本申请实施例提供的技术方案,主要涉及基于人工智能的话术改写,如游戏话术改写,具体通过如下实施例进行介绍说明。
请参考图1,其示出了本申请一个实施例提供的方案实施环境的示意图。该方案实施环境可以实现成为话术改写模型的训练和使用系统。该方案实施环境可以包括:模型训练设备10和模型使用设备20。
模型训练设备10可以是诸如手机、平板电脑、笔记本电脑、台式电脑、智能电视、多媒体播放设备、车载终端、服务器、智能机器人等电子设备,或者是其他一些具有较强计算能力的电子设备。模型训练设备10用于对话术改写模型进行训练。
在本申请实施例中,话术改写模型是基于人工智能的话术改写方法训练得到的机器学习模型,用于执行指定领域的话术改写任务。例如,根据指令和输入文本,按照指令对输入文本进行话术改写,生成经过话术改写后的输出文本。模型训练设备10可以采用机器学习的方式对该话术改写模型进行训练,以使其具备将输入文本改写为指定领域风格的输出文本的能力,具体的模型训练方法可以参考下述实施例。
训练得到的话术改写模型可部署在模型使用设备20中使用。模型使用设备20可以是诸如手机、平板电脑、笔记本电脑、台式电脑、智能电视、多媒体播放设备、车载终端、智能机器人等终端设备,也可以是服务器。在需要执行话术改写任务时,模型使用设备20可以通过训练得到的话术改写模型,实现上述话术改写功能。
模型训练设备10和模型使用设备20可以是两个独立存在的设备,也可以是同一个设备。
本申请实施例提供的方法,各步骤的执行主体可以是计算机设备,该计算机设备是指具备数据计算、处理和存储功能的电子设备。该计算机设备可以是诸如手机、平板电脑、笔记本电脑、台式电脑、智能电视、多媒体播放设备、车载终端、智能机器人等终端设备,也可以是服务器。其中,服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云计算服务的云服务器。例如,计算机设备可以是如图1中的模型训练设备10。
请参考图2,其示出了本申请一个实施例提供的基于人工智能的话术改写方法的流程图,该方法可以包括如下步骤210~240中的至少一个步骤:
步骤210,获取指定领域的语料数据。
指定领域是指某一特定领域,如包括但不限于游戏领域、体育领域、电商领域等。指定领域可以是以上任意一种领域。示例性地,指定领域为游戏领域,基于游戏领域的语料数据,能够训练得到一个用于执行游戏领域的话术改写任务的话术改写模型。示例性地,指定领域为体育领域,基于体育领域的语料数据,能够训练得到一个用于执行体育领域的话术改写任务的话术改写模型。
语料数据是指上述指定领域相关的文本数据,其记录了与指定领域相关的各种信息。例如,游戏领域的语料数据可以包括游戏攻略、游戏新闻、游戏中涉及的相关游戏角色、相关技能的介绍信息等。语料数据的采集方式可以很多,例如可以从新闻、博客、论文、视频平台中视频的弹幕、评论等中获取,也可以从视频、音频中自动语音识别提取,具体包含的数据种类和来源,本申请不做限定。
在本申请实施例中,通过基于某一指定领域的语料数据,训练得到一个用于执行该指定领域的话术改写任务的话术改写模型,能够使得该最终训练得到的话术改写模型在该指定领域下具有较好的话术改写效果。针对不同的领域,可以分别采用不同领域的语料数据,有针对性地训练不同领域下的话术改写模型。
另外,上述指定领域也可以是某一大领域下的细分领域。例如,针对游戏领域,可以按照游戏类型划分为不同的细分领域,如射击类游戏领域、MOBA(Multiplayer OnlineBattle Arena,多人在线战术竞技)类游戏领域、自走棋类游戏领域等。这样,针对不同游戏类型,可以训练得到不同游戏类型分别对应的话术改写模型。进一步地,也可以将某一种游戏作为一个指定领域,从而训练得到该种游戏对应的话术改写模型。
步骤220,采用语料数据对第一语言模型进行预训练,得到预训练后的第一语言模型,预训练后的第一语言模型具有理解和处理指定领域的信息的能力。
在本步骤中,通过采用指定领域的语料数据对第一语言模型进行预训练,以增加第一语言模型对该指定领域相关知识的认知。第一语言模型可以是一个预训练模型,其已经具备了自然语言处理的相关能力,通过本步骤的预训练,进一步让该第一语言模型具有指定领域的知识,也即是具有理解和处理指定领域的信息的能力。指定领域的信息与该指定领域有关的任何信息,如包括但不限于该指定领域的概念、术语、常用语等信息。
在本申请实施例中,对第一语言模型的模型架构不作限定,例如其可以采用Transformer架构,或者也可以是Decoder-only(仅解码器)架构。Decoder-only架构是一种神经网络模型,它主要用于自然语言处理任务中的解码阶段,例如生成式语言建模、机器翻译等任务。这种架构通常是基于Transformer架构的,只有解码器部分,没有编码器部分。在Decoder-only架构中,输入序列被编码成一个固定长度的向量,然后解码器部分根据该向量生成目标序列。解码器部分通常由多层的自注意力机制和前馈神经网络组成,这些层可以帮助模型更好地理解输入序列和生成目标序列。相比于Encoder-Decoder架构,Decoder-only架构更加简单,训练和推理速度更快,同时也更容易应用于一些特殊场景,例如零样本学习或迁移学习等。但是,Decoder-only架构也存在一些缺点,例如可能存在梯度消失或梯度爆炸的问题,同时也可能存在信息丢失的风险。总之,Decoder-only架构是一种常用的神经网络模型,它主要用于自然语言处理任务中的解码阶段。该架构相比于Encoder-Decoder架构更加简单,但也存在一些缺点和风险。
步骤230,基于上述语料数据,生成适用于指定领域的话术改写任务的至少一条指令数据,指令数据用于对指定领域的输入文本进行话术风格改写,生成该输入文本对应的输出文本。
在本申请实施例中,通过从上述指定领域的语料数据中,挖掘得到至少一条指令数据,后续采用上述指令数据对预训练后的第一语言模型进行调整,得到调整后的第一语言模型,该调整后的第一语言模型即可作为指定领域的话术改写模型,用于执行指定领域的话术改写任务。
每一条指令数据可以包括指令、输入文本和输出文本。其中,指令用于指示话术改写的要求。例如,指令可以是:请将下列的话改写成xx游戏中xx角色的语气。输入文本是指待改写的文本,输出文本是指按照指令对输入文本进行话术改写后所期望得到的文本。例如,输入文本为“你好”,按照上述指令对输入文本进行话术改写后所期望得到的输出文本为“我乃战神xx,尔等何人”。
需要说明的是,指令数据中的输出文本并非是通过第一语言模型根据指令和输入文本生成的,而是通过其他手段得到的,具体可参见下文实施例中的介绍说明。为了便于说明,本申请将指令数据中的输出文本称为输入文本对应的期望输出文本,将通过第一语言模型根据指令和输入文本生成的输出文本称为模型输出文本。
在一些实施例中,每一条指令数据还可以包括提示模板。这里为了和下文其他地方提及的提示模板进行区分,我们将指令数据中的提示模板称为目标提示模板。目标提示模板为一种结构化的格式或模式,其可以由人工定义或构建,可以是对指令的补充描述、额外要求、对输出文本的格式要求等的描述性文本,以获得更准确的输出文本。
步骤240,采用上述指令数据对预训练后的第一语言模型进行调整,得到调整后的第一语言模型,调整后的第一语言模型用于执行指定领域的话术改写任务。
采用上述指令数据对预训练后的第一语言模型进行调整的过程,可以称为指令微调过程。所谓指令微调是指在一个训练好的模型(即预训练后的第一语言模型)的基础上,进一步在特定任务上进行训练,从而使模型适应该特定任务的数据和要求,在本申请中“特定任务”即为话术改写任务,或者说文本改写任务。上述这种模型训练方式也可以称为指令增强的方法。
在一些实施例中,对于任意一条指令数据,将该指令数据包括的指令和输入文本作为预训练后的第一语言模型的输入,通过预训练后的第一语言模型根据上述指令和输入文本,生成经过话术改写后的模型输出文本。然后,根据输入文本对应的模型输出文本和期望输出文本,计算损失函数值,根据损失函数值对预训练后的第一语言模型的参数进行调整,得到调整后的第一语言模型,该调整后的第一语言模型即可作为指定领域的话术改写模型,用于执行指定领域的话术改写任务。
在本申请实施例中,对损失函数值的计算方式不作限定,例如可以采用交叉熵损失函数、平均池化损失函数或者其他合适的损失函数。损失函数值可用于衡量模型输出文本和期望输出文本之间的差异。示例性地,采用梯度下降法,以最小化损失函数值为目标,对预训练后的第一语言模型的参数进行调整,得到调整后的第一语言模型。另外,本申请对预训练后的第一语言模型的参数进行调整的停止条件不作限定,例如可以是损失函数值最小化时停止,或者损失函数值小于某一设定的阈值时停止,或者其他预先设定的停止条件。
需要说明的是,上述步骤220和230可以先后执行,也可以同时执行,本申请对此不作限定。
本申请实施例提供的技术方案,通过采用指定领域的语料数据对第一语言模型进行预训练,使预训练后的第一语言模型具备指定领域相关知识,然后从上述指定领域的语料数据中挖掘生成适用于指定领域的话术改写任务的指令数据,采用该指令数据对预训练后的第一语言模型进行调整,最终得到的调整后的第一语言模型能够用于执行指定领域的话术改写任务;本申请通过训练第一语言模型得到话术改写模型,利用该话术改写模型可以实现自动化的话术改写任务,充分降低了人力和时间成本;并且,使用指令增强的方法来提高第一语言模型在话术改写任务上的效果,使得最终训练得到的话术改写模型能够在指定领域的话术改写任务上达到高质量的改写效果。
下面,对指令数据的生成过程进行介绍说明。在一些实施例中,如图3所示,该过程可以包括如下步骤232~238中的至少一个步骤。
步骤232,获取至少一条种子指令数据,种子指令数据是由人工构建的用于执行话术改写任务的指令数据。
在一些实施例中,每一条种子指令数据可以包括指令、输入文本和输出文本,种子指令数据作为泛化的基础种子指令,可以为生成泛化任务指令数据提供指令数据模板。例如,一条种子指令数据为{指令:请将下列的话改写成xx人物的语气;输入文本:你好;输出文本:我乃xx,你是何人}。需要说明的是,种子指令数据并不一定是针对指定领域的话术改写任务,其可以是任何领域下的话术改写任务。种子指令数据可以采用人工构建的方式,构建少量的、高质量的用于执行话术改写任务的种子指令数据即可。
步骤234,根据种子指令数据,生成至少一条泛化任务指令数据,泛化任务指令数据是用于执行话术改写任务的各项子任务的指令数据。
话术改写任务可以进一步划分为多项不同的子任务。在一些实施例中,可以从多个不同层级,对话术改写任务进行逐层细分,得到多项不同的子任务。例如,话术改写任务可以分为人物风格改写和描述风格改写等,人物风格改写又可以进一步分为使用人物A的风格改写、使用人物B的风格改写、使用人物C的风格改写等,描述风格改写又可以进一步分为使用搞笑语气改写、使用尊敬语气改写等。
在一些实施例中,可以构建话术改写任务的任务树。话术改写任务的任务树是指基于树形结构构建的话术改写任务的各项子任务,用于将一个大型任务分解成更小、更具体的子任务,其中根节点代表话术改写任务,而分支节点表示不同的子任务,叶子节点则代表最细粒度划分得到的子任务。示例性地,话术改写任务的任务树如图4所示,根节点代表话术改写任务,根节点可以包括人物风格改写和描述风格改写等子节点,人物风格改写又可以进一步分为使用人物A的风格改写、使用人物B的风格改写、使用人物C的风格改写等子节点,描述风格改写又可以进一步分为使用搞笑语气改写、使用尊敬语气改写等子节点。
上述话术改写任务的任务树可以人工构建得到,也可以通过大语言模型自动化构建得到。示例性地,任务树可以通过ChatGPT模型生成,例如向ChatGPT模型中输入用于构建任务树的命令,由ChatGPT模型生成相应的任务树。例如,上述命令可以是“请为话术改写任务生成一个细分的任务树,一直到叶子节点,且需满足如下要求:1.叶子节点的数量不能超过100;2.任务树中必须包含父节点和子节点;3.任务树的目的是分解任务,以便更仔细地执行任务”,ChatGPT模型根据上述命令,可以生成如图4所示的话术改写任务的任务树。
在一些实施例中,通过大语言模型根据种子指令数据、话术改写任务的任务树以及第三提示模板,生成至少一条泛化任务指令数据。其中,第三提示模板用于指导大语言模型生成泛化任务指令数据。示例性地,此处的大语言模型可以是ChatGPT模型或GPT-4模型等,通过给大语言模型提供命令,让大语言模型根据种子指令数据、话术改写任务的任务树以及第三提示模板,生成至少一条泛化任务指令数据。泛化任务指令数据是依据种子指令数据的格式和规范生成的,涵盖了话术改写任务的各项子任务的指令数据。
通过上述方式,充分利用大语言模型的能力,通过大语言模型自动化地生成涵盖了话术改写任务的各项子任务的泛化任务指令数据。
步骤236,根据泛化任务指令数据和指定领域的领域树,生成至少一条迁移指令,迁移指令用于执行指定领域的话术改写任务的各项子任务;其中,指定领域的领域树是指基于树形结构构建的指定领域的各项概念。
领域树是一种层次结构,用于展示某个领域内的概念、子领域、关系以及其它相关信息。它通常采用树状结构,将一个领域分解为更小、更具体的子领域,从而帮助人们更清晰地理解该领域的结构和组成。在本申请中领域树的叶子节点为指定领域相关的不可再分的概念节点。示例性地,以指定领域是某一MOBA游戏为例,图5示例性示出了该指定领域的一棵领域树,该领域树以该MOBA游戏为根节点,根节点可以包括游戏角色、游戏模式等子节点,游戏角色又可以进一步分为法师、射手等子节点,游戏模式又可以进一步分为经典模式、排位赛模式等子节点,最终划分出该指定领域下的一些最小概念。
另外,领域树的生成方式与任务树的生成方式类似,如可以人工构建得到,也可以通过大语言模型自动化构建得到,本申请对此不作限定。
在一些实施例中,抽取指定领域的领域树中的至少一个叶子节点,每一个叶子节点对应于指定领域的一项概念;通过大语言模型根据叶子节点对应的概念、泛化任务指令数据和第一提示模板,生成至少一条迁移指令;其中,第一提示模板用于指导大语言模型将泛化任务指令数据向叶子节点对应的概念迁移。
这里用到的大语言模型同样可以是ChatGPT模型或GPT-4模型等,本申请对此不作限定,通过给大语言模型提供命令,让大语言模型根据叶子节点对应的概念、泛化任务指令数据和第一提示模板,生成至少一条迁移指令。迁移指令仅包括指令,不包括输入文本和输出文本,后续通过步骤238构造生成指令数据。
示例性地,抽取领域树的叶子节点为“王者”,泛化任务指令数据中的指令为“请将下列的话改写更像侠士风格”,该泛化任务指令数据中的指令向该叶子节点对应的概念迁移,得到的迁移指令为“请将下列的话改写更像在排位赛中拿到王者的风格”。
通过上述方式,充分利用大语言模型的能力,通过大语言模型将泛化任务指令数据向指定领域的各项概念迁移,自动化地生成用于执行指定领域的话术改写任务的各项子任务的迁移指令。
步骤238,根据迁移指令和指定领域的数据池,生成适用于指定领域的话术改写任务的至少一条指令数据。
指定领域的数据池中存储有该指定领域相关的一些文本内容。可选地,指定领域的数据池可以基于指定领域的语料数据构建得到,例如将指定领域的语料数据中的全部或部分语料数据,构建生成该指定领域的数据池。
在一些实施例中,从指定领域的数据池中,获取与迁移指令相匹配的至少一条源数据;通过大语言模型根据迁移指令和第二提示模板,从与迁移指令相匹配的至少一条源数据中,提取迁移指令对应的至少一条示例数据,每一条示例数据包括迁移指令对应的输入文本和输出文本;其中,第二提示模板用于指导大语言模型提取示例数据;根据迁移指令以及迁移指令对应的至少一条示例数据,生成至少一条指令数据。
指定领域的数据池中可以包括多条源数据,每一条源数据可以理解为与指定领域相关的一段文本内容。可选地,每一条源数据可以是一个句子,也可以是多个句子。在一些实施例中,与迁移指令相匹配的源数据,是指语义上与迁移指令相关的源数据。例如,可以采用关键词匹配的方式,首先确定迁移指令中的关键词,将包含上述关键词的源数据确定为与该迁移指令相匹配的源数据。又例如,通过语义匹配模型计算迁移指令与源数据之间的语义相似度,将语义相似度大于或等于阈值的源数据确定为与该迁移指令相匹配的源数据;其中,语义匹配模型可以是采用机器学习方式预先训练得到的神经网络模型,该语义匹配模型可以分别提取迁移指令和源数据的语义特征向量,然后计算两者的语义特征向量之间的相似度,作为语义相似度。
在获取与迁移指令相匹配的至少一条源数据之后,可以将迁移指令、与该迁移指令相匹配的至少一条源数据,以及第二提示模板提供给大语言模型,这里用到的大语言模型同样可以是ChatGPT模型或GPT-4模型等,本申请对此不作限定,通过大语言模型根据迁移指令和第二提示模板,从与迁移指令相匹配的至少一条源数据中,提取迁移指令对应的至少一条示例数据。每一条示例数据包括迁移指令对应的输入文本和输出文本,这样,基于迁移指令、该迁移指令对应的输入文本,以及该迁移指令对应的输出文本这3样信息,便可构造得到一条指令数据。
通过上述方式,充分利用大语言模型的能力,通过从与迁移指令相匹配的至少一条源数据中,提取迁移指令对应的至少一条示例数据,以此构造生成指令数据,实现了自动化地生成用于微调第一语言模型的指令数据,为第一语言模型的微调提供了充足而又有效的样本数据。
本申请实施例提供的技术方案,通过生成文本改写任务的任务树和指定领域的领域树,使用大语言模型先生成用于执行话术改写任务的各项子任务的泛化任务指令数据,然后再将泛化任务指令数据向指定领域的各项概念迁移,生成用于执行指定领域的话术改写任务的各项子任务的迁移指令,最终基于迁移指令构造生成指令数据,充分利用了大语言模型的能力,整个指令数据的生成过程由机器自动化完成,无需人工构造大量的指令数据,充分降低了人力和时间成本。并且,这种方式能够生成多样化的指令数据,使得最终训练得到的话术改写模型能够提供更加多样化的输出文本。而且,这种方式支持对任务树、领域树以及数据池进行更新,持续性地生成新的指令数据,从而能够利用新的指令数据对第一语言模型进行更新,不断提高第一语言模型的话术改写性能。
下面,对指定领域的语料数据的获取方式进行介绍说明。
在一些实施例中,获取指定领域的原始语料数据,对原始语料数据进行数据清洗,得到该指定领域的语料数据。
指定领域的原始语料数据是指与指定领域相关的未经处理的语料数据,例如直接从网页、文档、视频或音频等信息中提取的与指定领域相关的文本数据。数据清洗是数据处理和加工的过程,包括精简信息过度冗余的数据、补全缺失的语料数据、错别字修改、过滤敏感信息、纠正同音字等。通过对原始语料数据进行数据清洗,有助于提升语料数据的质量,为后续处理流程提供高质量的数据支持,有助于提高话术改写模型的训练效果。
在一些实施例中,将指定领域的原始预料数据和第四提示模板输入至第二语言模型;通过第二语言模型根据第四提示模板对原始语料数据进行数据清洗,输出该指定领域的语料数据。其中,第四提示模板用于指示数据清洗的方式以及生成的语料数据的格式。其中,数据清洗的方式包括但不限于以下至少之一:精简信息过度冗余的数据、补全缺失的语料数据、错别字修改、过滤敏感信息、纠正同音字等。第二语言模型可以是开源的语言模型,例如使用ChatGPT模型进行数据清洗,基于第四提示模板,以数据清洗为任务编写适用于ChatGPT模型的命令,指导ChatGPT模型执行数据清洗的任务,按要求输出清洗后的语料数据。
上述第二语言模型也可以是单独训练的用于数据清洗的语言模型,例如基于循环神经网络、Transformer等模型架构,通过数据标注等方式构建训练集、测试集和验证集,使用该数据集进行训练、调优后得到一个用于数据清洗的语言模型。
通过上述方式,实现了通过第二语言模型对语料数据进行自动化的数据清洗过程。
在一些实施例中,获取指定领域的语料数据之后还对语料数据进行预处理,得到预处理后的语料数据。其中,预处理包括但不限于以下至少之一:分词、去掉停用词、替换指定内容等。预处理后的语料数据用于对第一语言模型进行预训练。
通过对语料数据进行预处理,有助于提高后续针对第一语言模型的训练过程中,该第一语言模型对语料数据的理解能力和表达能力,提升训练效果。
下面,对第一语言模型的预训练过程进行介绍说明。
在一些实施例中,基于上述语料数据生成第一样本集,第一样本集中包括用于对第一语言模型进行预训练的至少一个训练样本;通过自监督训练方式采用第一样本集对第一语言模型进行预训练,得到预训练后的第一语言模型。
对第一语言模型进行预训练,可以采用MLM(Masked Language Modeling,屏蔽语言建模)或Seq2Seq(序列到序列)预测的方式,构造训练样本。在MLM任务中,输入序列中的某些字词被随机替换为特殊的[MASK]标记,模型的目标是预测这些[MASK]标记的原始值。在Seq2Seq预测任务中,模型的目标是预测给定输入序列的下一个标记。
在对第一语言模型的训练过程中,可以使用交叉熵作为损失函数,也可以使用平均池化函数作为损失函数,使用自适应优化算法进行模型优化,其中优化的算法还可以是梯度下降法或其他方法,本申请对此不作限定。
交叉熵损失函数是常用的损失函数之一。平均池化损失函数是一种针对自然语言生成任务的损失函数,它通过将生成的文本序列表示为一个向量,再通过平均池化的方式计算向量之间的距离来衡量生成文本的质量。相比于交叉熵损失函数,平均池化损失函数可以更好地处理生成文本的连贯性和一致性。不同的损失函数适用于不同的任务,需要根据具体的任务来选择适合的损失函数。交叉熵损失函数是深度学习中常用的损失函数之一,通常用于分类任务。对于仅解码器架构中的序列生成任务,常用的损失函数是基于交叉熵损失函数的负对数似然损失函数(Negative Log-Likelihood Loss)。在仅解码器架构中,该损失函数的计算方式为:每个输入序列输入到模型中,生成目标序列,并计算目标序列中每个标记的概率,然后将其代入到负对数似然损失函数中计算损失。模型的目标是最小化损失,以提高生成目标序列的准确率。
本申请实施例提供的技术方案,通过采用指定领域的语料数据对第一语言模型进行预训练,为第一语言模型增加指定领域相关知识的认识,有助于提高第一模型对指定领域的理解能力和语言表达能力。
下面,对采用指令数据对预训练后的第一语言模型进行调整的过程进行介绍说明。
在一些实施例中,基于可学习的推理适配器和预训练后的第一语言模型,构建新的第一语言模型;采用上述指令数据对新的第一语言模型中推理适配器的参数进行调整,得到调整后的第一语言模型;其中,新的第一语言模型中预训练后的第一语言模型的参数保持不变。
其中,使用可学习的推理适配器调整预训练的第一语言模型这个过程叫做大语言模型的低阶适应(Low-Rank Adaptation,简称LoRA)方法,是一种参高效性微调方法。可学习的推理适配器(Learnable Reasoning Adapter)是指一种神经网络模块,旨在增强模型在推理、逻辑推断等任务上的能力,可以被集成到现有的神经网络架构中,通过训练来学习特定的推理规则、逻辑关系和模式,从而提高模型在需要推理能力的任务上的性能。
示例性地,使用LoRA方法对预训练后的第一语言模型进行调整,在该第一语言模型上添加可学习的推理适配器,其中可学习的推理适配器可以通过参数拼接、参数融合、并行结构、串行结构、融合策略等方式添加到该预训练后的第一语言模型上,构建新的第一语言模型。对于任意一条指令数据,将该指令数据包括的指令和输入文本作为新的第一语言模型的输入,通过新的第一语言模型根据上述指令和输入文本,生成经过话术改写后的模型输出文本。然后,根据输入文本对应的模型输出文本和期望输出文本,计算损失函数值,根据损失函数值对可学习的推理适配器的参数进行调整,且预训练后的第一语言模型的参数保持不变,最终得到调整后的第一语言模型,该调整后的第一语言模型即可作为指定领域的话术改写模型,用于执行指定领域的话术改写任务。
本申请实施例提供的技术方案,通过使用LoRA方法将可学习的推理适配器集成到预训练后的第一语言模型上,调整该适配器的参数,使模型在话术改写任务上的表现得到提升。利用该方法,无需对参数量较大的第一语言模型进行调整,有助于加快模型训练的收敛速度,提升效率。
请参考图6,其示出了本申请一个实施例提供的游戏解说领域的话术改写模型训练的流程图。
收集游戏解说相关的语料数据,可以是游戏新闻、游戏攻略、游戏英雄相关的讲解信息、游戏解说或直播视频的弹幕和评论等纯文本数据,也可以是游戏解说视频、游戏直播视频中音频通过自动语音识别提取出的文本数据。使用ChatGPT模型对收集到的游戏解说语料数据进行清洗,将语料数据中冗余信息进行精简、纠正错别字、同音字、补全缺失的信息以及过滤不良信息等。
对上述清洗后的语料数据进行预处理,将预处理后的语料数据输入至仅解码器架构的第一语言模型中,基于交叉熵损失函数,对该第一语言模型进行预训练,得到预训练后的第一语言模型,此时预训练后的第一语言模型具有丰富的游戏解说领域的相关知识。
利用ChatGPT模型生成话术改写任务的任务树以及游戏解说领域的领域树。人工构建用于执行话术改写任务的至少一条种子指令数据,如{指令,输入文本,输出文本}的格式。之后,通过诸如ChatGPT的大语言模型根据种子指令数据和话术改写任务的任务树,生成用于执行话术改写任务的各项子任务的泛化任务指令数据。基于泛化任务指令数据和游戏解说领域的领域树,通过诸如ChatGPT的大语言模型生成用于执行游戏解说领域的话术改写任务的各项子任务的迁移指令。根据迁移指令匹配语料数据池中的数据,利用诸如ChatGPT的大语言模型基于迁移指令以及从数据池中抽取的至少一条源数据,生成其对应的示例数据,示例数据为{输入文本,输出文本}的格式。基于迁移指令和示例数据就可以构建出指令数据集,指令数据集中包括多条指令数据。
利用LoRA法对预训练后的第一语言模型进行调整,LoRA通过在预训练后的第一语言模型的基础上添加可学习的推理适配器来实现调整,将指令数据集输入至该模型中,基于交叉熵损失函数进行训练,在训练过程中,保持预训练的第一语言模型的参数不变,只调整可学习的推理适配器上的参数,得到最终的游戏解说领域的话术改写模型。
本申请技术方案还可以应用于体育解说领域、电商直播领域等场景,具体实现方式可参考上文实施例,不再一一赘述。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
请参考图7,其示出了本申请一个实施例提供的基于人工智能的话术改写装置的框图。该装置具有实现上述基于人工智能的话术改写方法的功能,所述功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。该装置可以是上文介绍的计算机设备,也可以设置在计算机设备中。如图7所示,该装置700可以包括:获取模块710、预训练模块720、生成模块730和调整模块740。
获取模块710,用于获取指定领域的语料数据。
预训练模块720,用于采用语料数据对第一语言模型进行预训练,得到预训练后的第一语言模型,预训练后的第一语言模型具有理解和处理指定领域的概念和术语的能力。
生成模块730,用于基于语料数据,生成适用于指定领域的话术改写任务的至少一条指令数据,指令数据用于对指定领域的输入文本进行话术风格改写,生成输入文本对应的输出文本。
调整模块740,用于采用指令数据对预训练后的第一语言模型进行调整,得到调整后的第一语言模型,调整后的第一语言模型用于执行指定领域的话术改写任务。
在一些实施例中,如图7所示,所述获取模块710包括:数据获取单元711和数据清洗单元712。
数据获取单元711,用于获取指定领域的原始语料数据。
数据清洗单元712,用于对原始语料数据进行数据清洗,得到语料数据。
在一些实施例中,数据清洗单元712用于:将原始语料数据和第四提示模板输入至第二语言模型,第四提示模板用于指示对原始语料数据进行数据清洗的方式以及生成语料数据的格式;通过第二语言模型根据第四提示模板对原始语料数据进行数据清洗,输出语料数据。
在一些实施例中,预训练模块720用于:基于语料数据生成第一样本集,第一样本集中包括用于对第一语言模型进行预训练的至少一个训练样本;通过自监督训练方式采用第一样本集对第一语言模型进行预训练,得到预训练后的第一语言模型。
在一些实施例中,预训练模块720还用于:对语料数据进行预处理,得到预处理后的语料数据;其中,预处理包括以下至少之一:分词、去掉停用词、替换指定内容,预处理后的语料数据用于对第一语言模型进行预训练。
在一些实施例中,所述生成模块730包括:获取单元731、泛化单元732、迁移单元733和生成单元734。
获取单元731,用于获取至少一条种子指令数据,种子指令数据是由人工构建的用于执行话术改写任务的指令数据。
泛化单元732,用于根据种子指令数据,生成至少一条泛化任务指令数据,泛化任务指令数据是用于执行话术改写任务的各项子任务的指令数据。
迁移单元733,用于根据泛化任务指令数据和指定领域的领域树,生成至少一条迁移指令,迁移指令用于执行指定领域的话术改写任务的各项子任务;其中,指定领域的领域树是指基于树形结构构建的指定领域的各项概念。
生成单元734,用于根据迁移指令和指定领域的数据池,生成适用于指定领域的话术改写任务的至少一条指令数据。
在一些实施例中,所述泛化单元732用于:通过大语言模型根据种子指令数据、话术改写任务的任务树以及第三提示模板,生成至少一条泛化任务指令数据;其中,话术改写任务的任务树是指基于树形结构构建的话术改写任务的各项子任务,第三提示模板用于指导大语言模型生成泛化任务指令数据。
在一些实施例中,所述迁移单元733用于:抽取指定领域的领域树中的至少一个叶子节点,叶子节点对应于指定领域的一项概念;通过大语言模型根据叶子节点对应的概念、泛化任务指令数据和第一提示模板,生成至少一条迁移指令;其中,第一提示模板用于指导大语言模型将泛化任务指令数据向叶子节点对应的概念迁移。
在一些实施例中,所述生成单元734用于:从指定领域的数据池中,获取与迁移指令相匹配的至少一条源数据;通过大语言模型根据迁移指令和第二提示模板,从与迁移指令相匹配的至少一条源数据中,提取迁移指令对应的至少一条示例数据,每一条示例数据包括迁移指令对应的输入文本和输出文本;其中,第二提示模板用于指导大语言模型提取示例数据;根据迁移指令以及迁移指令对应的至少一条示例数据,生成至少一条指令数据。
在一些实施例中,所述调整模块740,用于基于可学习的推理适配器和所述预训练后的第一语言模型,构建新的第一语言模型;采用所述指令数据对所述新的第一语言模型中所述推理适配器的参数进行调整,得到所述调整后的第一语言模型;其中,所述新的第一语言模型中所述预训练后的第一语言模型的参数保持不变。
本申请实施例提供的技术方案,通过采用指定领域的语料数据对第一语言模型进行预训练,使预训练后的第一语言模型具备指定领域相关知识,然后从上述指定领域的语料数据中挖掘生成适用于指定领域的话术改写任务的指令数据,采用该指令数据对预训练后的第一语言模型进行调整,最终得到的调整后的第一语言模型能够用于执行指定领域的话术改写任务;本申请通过训练第一语言模型得到话术改写模型,利用该话术改写模型可以实现自动化的话术改写任务,充分降低了人力和时间成本;并且,使用指令增强的方法来提高第一语言模型在话术改写任务上的效果,使得最终训练得到的话术改写模型能够在指定领域的话术改写任务上达到高质量的改写效果。
需要说明的一点是,上述实施例提供的装置在实现其功能时,仅以上述各个功能模块的划分进行举例说明,实际应用中,可以根据实际需要而将上述功能分配由不同的功能模块完成,即将设备的内容结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
请参考图8,其示出了本申请一个实施例提供的计算机设备800的结构框图。该计算机设备800可以是任何具备数据计算、处理和存储功能的电子设备。该计算机设备800可用于实现上述实施例提供的基于人工智能的话术改写方法。
通常,计算机设备800包括有:处理器810和存储器820。
处理器810可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器810可以采用数字信号处理(Digital Signal Processing,简称DSP)、现场可编程门阵列(Field Programmable Gate Array,简称FPGA)、可编程逻辑阵列(Programmable LogicArray,简称PLA)中的至少一种硬件形式来实现。处理器810也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称中央处理器(CentralProcessing Unit,简称CPU);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器810可以在集成有图像处理器(Graphics Processing Unit,简称GPU),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器810还可以包括AI处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器820可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器820还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器820中的非暂态的计算机可读存储介质用于存储计算机程序,所述计算机程序经配置以由一个或者一个以上处理器执行,以实现上述基于人工智能的话术改写方法。
本领域技术人员可以理解,图8中示出的结构并不构成对计算机设备800的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
在示意性实施例中,还提供了一种计算机可读存储介质,所述存储介质中存储有计算机程序,所述计算机程序在被计算机设备的处理器执行时实现上述基于人工智能的话术改写方法。可选地,上述计算机可读存储介质可以是只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、只读光盘(Compact DiscRead-Only Memory,简称CD-ROM)、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种计算机程序产品,该计算机程序产品包括计算机程序,该计算机程序存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机程序,处理器执行该计算机程序,使得该计算机设备执行上述基于人工智能的话术改写方法。
需要说明的是,本申请收集的语料数据可以是公开的语料数据。可选地,当语料数据包括与用户的相关数据时,在收集用户的相关数据之前以及在收集用户的相关数据的过程中,都可以显示提示界面、弹窗或输出语音提示信息,该提示界面、弹窗或语音提示信息用于提示用户当前正在搜集其相关数据,使得本申请仅仅在获取到用户对该提示界面或者弹窗发出的确认操作后,才开始执行获取用户相关数据的相关步骤,否则(即未获取到用户对该提示界面或者弹窗发出的确认操作时),结束获取用户相关数据的相关步骤,即不获取用户的相关数据。换句话说,本申请所采集的所有用户数据,处理严格根据相关国家法律法规的要求,获取个人信息主体的知情同意或单独同意都是在用户同意并授权的情况下进行采集的,并在法律法规及个人信息主体的授权范围内,开展后续数据使用及处理行为且相关用户数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
在本文中提及的“大于或等于”可表示大于等于或大于,“小于或等于”可表示小于等于或小于。
另外,本文中描述的步骤编号,仅示例性示出了步骤间的一种可能的执行先后顺序,在一些其它实施例中,上述步骤也可以不按照编号顺序来执行,如两个不同编号的步骤同时执行,或者两个不同编号的步骤按照与图示相反的顺序执行,本申请实施例对此不作限定。
以上所述仅为本申请的示例性实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (14)

1.一种基于人工智能的话术改写方法,其特征在于,所述方法包括:
获取指定领域的语料数据;
采用所述语料数据对第一语言模型进行预训练,得到预训练后的第一语言模型,所述预训练后的第一语言模型具有理解和处理所述指定领域的信息的能力;
基于所述语料数据,生成适用于所述指定领域的话术改写任务的至少一条指令数据,所述指令数据用于对所述指定领域的输入文本进行话术风格改写,生成所述输入文本对应的输出文本;
采用所述指令数据对所述预训练后的第一语言模型进行调整,得到调整后的第一语言模型,所述调整后的第一语言模型用于执行所述指定领域的话术改写任务。
2.根据权利要求1所述的方法,其特征在于,所述基于所述语料数据,生成适用于所述指定领域的话术改写任务的至少一条指令数据,包括:
获取至少一条种子指令数据,所述种子指令数据是由人工构建的用于执行话术改写任务的指令数据;
根据所述种子指令数据,生成至少一条泛化任务指令数据,所述泛化任务指令数据是用于执行所述话术改写任务的各项子任务的指令数据;
根据所述泛化任务指令数据和所述指定领域的领域树,生成至少一条迁移指令,所述迁移指令用于执行所述指定领域的话术改写任务的各项子任务;其中,所述指定领域的领域树是指基于树形结构构建的所述指定领域的各项概念;
根据所述迁移指令和所述指定领域的数据池,生成适用于所述指定领域的话术改写任务的至少一条指令数据。
3.根据权利要求2所述的方法,其特征在于,所述根据所述泛化任务指令数据和所述指定领域的领域树,生成至少一条迁移指令,包括:
抽取所述指定领域的领域树中的至少一个叶子节点,所述叶子节点对应于所述指定领域的一项概念;
通过大语言模型根据所述叶子节点对应的概念、所述泛化任务指令数据和第一提示模板,生成至少一条所述迁移指令;其中,所述第一提示模板用于指导所述大语言模型将所述泛化任务指令数据向所述叶子节点对应的概念迁移。
4.根据权利要求2所述的方法,其特征在于,所述根据所述迁移指令和所述指定领域的数据池,生成适用于所述指定领域的话术改写任务的至少一条指令数据,包括:
从所述指定领域的数据池中,获取与所述迁移指令相匹配的至少一条源数据;
通过大语言模型根据所述迁移指令和第二提示模板,从与所述迁移指令相匹配的至少一条源数据中,提取所述迁移指令对应的至少一条示例数据,每一条所述示例数据包括所述迁移指令对应的输入文本和输出文本;其中,所述第二提示模板用于指导所述大语言模型提取所述示例数据;
根据所述迁移指令以及所述迁移指令对应的至少一条示例数据,生成至少一条所述指令数据。
5.根据权利要求2所述的方法,其特征在于,所述根据所述种子指令数据,生成至少一条泛化任务指令数据,包括:
通过大语言模型根据所述种子指令数据、所述话术改写任务的任务树以及第三提示模板,生成所述至少一条泛化任务指令数据;其中,所述话术改写任务的任务树是指基于树形结构构建的所述话术改写任务的各项子任务,所述第三提示模板用于指导所述大语言模型生成所述泛化任务指令数据。
6.根据权利要求1所述的方法,其特征在于,所述采用所述指令数据对所述预训练后的第一语言模型进行调整,得到调整后的第一语言模型,包括:
基于可学习的推理适配器和所述预训练后的第一语言模型,构建新的第一语言模型;
采用所述指令数据对所述新的第一语言模型中所述推理适配器的参数进行调整,得到所述调整后的第一语言模型;其中,所述新的第一语言模型中所述预训练后的第一语言模型的参数保持不变。
7.根据权利要求1所述的方法,其特征在于,所述获取指定领域的语料数据,包括:
获取所述指定领域的原始语料数据;
对所述原始语料数据进行数据清洗,得到所述语料数据。
8.根据权利要求7所述的方法,其特征在于,所述对所述原始语料数据进行数据清洗,得到所述语料数据,包括:
将所述原始语料数据和第四提示模板输入至第二语言模型,所述第四提示模板用于指示对所述原始语料数据进行数据清洗的方式以及生成所述语料数据的格式;
通过所述第二语言模型根据所述第四提示模板对所述原始语料数据进行数据清洗,输出所述语料数据。
9.根据权利要求1所述的方法,其特征在于,所述采用所述语料数据对第一语言模型进行预训练,得到预训练后的第一语言模型,包括:
基于所述语料数据生成第一样本集,所述第一样本集中包括用于对所述第一语言模型进行预训练的至少一个训练样本;
通过自监督训练方式采用所述第一样本集对所述第一语言模型进行预训练,得到所述预训练后的第一语言模型。
10.根据权利要求1所述的方法,其特征在于,所述获取指定领域的语料数据之后,还包括:
对所述语料数据进行预处理,得到预处理后的语料数据;
其中,所述预处理包括以下至少之一:分词、去掉停用词、替换指定内容,所述预处理后的语料数据用于对所述第一语言模型进行预训练。
11.一种基于人工智能的话术改写装置,其特征在于,所述装置包括:
获取模块,用于获取指定领域的语料数据;
预训练模块,用于采用所述语料数据对第一语言模型进行预训练,得到预训练后的第一语言模型,所述预训练后的第一语言模型具有理解和处理所述指定领域的信息的能力;
生成模块,用于基于所述语料数据,生成适用于所述指定领域的话术改写任务的至少一条指令数据,所述指令数据用于对所述指定领域的输入文本进行话术风格改写,生成所述输入文本对应的输出文本;
调整模块,用于采用所述指令数据对所述预训练后的第一语言模型进行调整,得到调整后的第一语言模型,所述调整后的第一语言模型用于执行所述指定领域的话术改写任务。
12.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有计算机程序,所述处理器执行所述计算机程序以实现如权利要求1至10任一项所述的方法。
13.一种计算机可读存储介质,其特征在于,所述存储介质中存储有计算机程序,所述计算机程序用于被处理器执行,以实现如权利要求1至10任一项所述的方法。
14.一种计算机程序产品,其特征在于,所述计算机程序产品包括计算机程序,所述计算机程序由处理器加载并执行以实现如权利要求1至10任一项所述的方法。
CN202311050423.XA 2023-08-18 2023-08-18 基于人工智能的话术改写方法、装置、设备及存储介质 Pending CN117216234A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311050423.XA CN117216234A (zh) 2023-08-18 2023-08-18 基于人工智能的话术改写方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311050423.XA CN117216234A (zh) 2023-08-18 2023-08-18 基于人工智能的话术改写方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN117216234A true CN117216234A (zh) 2023-12-12

Family

ID=89050219

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311050423.XA Pending CN117216234A (zh) 2023-08-18 2023-08-18 基于人工智能的话术改写方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN117216234A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117669737A (zh) * 2023-12-20 2024-03-08 中科星图数字地球合肥有限公司 一种端到端地理行业大语言模型构建及使用方法
CN117708307A (zh) * 2024-02-06 2024-03-15 西北工业大学 一种大语言模型微调和Adapter融合方法及装置
CN118194240A (zh) * 2024-05-17 2024-06-14 天津云圣智能科技有限责任公司 目标检测大模型微调方法、装置、电子设备及存储介质

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117669737A (zh) * 2023-12-20 2024-03-08 中科星图数字地球合肥有限公司 一种端到端地理行业大语言模型构建及使用方法
CN117669737B (zh) * 2023-12-20 2024-04-26 中科星图数字地球合肥有限公司 一种端到端地理行业大语言模型构建及使用方法
CN117708307A (zh) * 2024-02-06 2024-03-15 西北工业大学 一种大语言模型微调和Adapter融合方法及装置
CN117708307B (zh) * 2024-02-06 2024-05-14 西北工业大学 一种大语言模型微调和Adapter融合方法及装置
CN118194240A (zh) * 2024-05-17 2024-06-14 天津云圣智能科技有限责任公司 目标检测大模型微调方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN110717017B (zh) 一种处理语料的方法
Chen et al. Gunrock: Building a human-like social bot by leveraging large scale real user data
CN110210032B (zh) 文本处理方法及装置
Zhou et al. Speech synthesis with mixed emotions
CN117216234A (zh) 基于人工智能的话术改写方法、装置、设备及存储介质
Wang et al. Comic-guided speech synthesis
CN114091466B (zh) 一种基于Transformer和多任务学习的多模态情感分析方法及系统
Picca et al. Natural Language Processing in Serious Games: A state of the art.
CN117216185A (zh) 分发内容的评论生成方法、装置、设备及存储介质
CN116258147A (zh) 一种基于异构图卷积的多模态评论情感分析方法及系统
CN115348458A (zh) 虚拟直播控制方法以及系统
Chen et al. Robotic musicianship based on least squares and sequence generative adversarial networks
He et al. LLMs Meet Multimodal Generation and Editing: A Survey
Lee et al. Robust sound-guided image manipulation
CN114298031A (zh) 文本处理方法、计算机设备及存储介质
Park et al. Visual language integration: A survey and open challenges
CN116757195B (zh) 一种基于提示学习的隐性情感识别方法
CN116956019A (zh) 文本生成方法、装置、电子设备及计算机可读存储介质
CN114547435B (zh) 内容质量的识别方法、装置、设备及可读存储介质
Deep et al. Textual Alchemy: Unleashing the Power of Generative Models for Advanced Text Generation
Shi et al. The design and implementation of intelligent english learning chabot based on transfer learning technology
Yang et al. Topic-Oriented Controlled Text Generation for Social Networks
CN114783403B (zh) 有声读物的生成方法、装置、设备、存储介质及程序产品
CN115081459B (zh) 口语文本生成方法、装置、设备及存储介质
Pak et al. Classification of Behavioral Lexicon and Definition of Upper, Lower Body Structures in Animation Character

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication