CN116244416A - 生成式大语言模型训练方法、基于模型的人机语音交互方法 - Google Patents
生成式大语言模型训练方法、基于模型的人机语音交互方法 Download PDFInfo
- Publication number
- CN116244416A CN116244416A CN202310233922.6A CN202310233922A CN116244416A CN 116244416 A CN116244416 A CN 116244416A CN 202310233922 A CN202310233922 A CN 202310233922A CN 116244416 A CN116244416 A CN 116244416A
- Authority
- CN
- China
- Prior art keywords
- language model
- training
- large language
- user input
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 231
- 238000000034 method Methods 0.000 title claims abstract description 97
- 230000003993 interaction Effects 0.000 title claims abstract description 63
- 230000002787 reinforcement Effects 0.000 claims abstract description 20
- 230000006870 function Effects 0.000 claims description 84
- 230000014509 gene expression Effects 0.000 claims description 35
- 238000010276 construction Methods 0.000 claims description 22
- 238000012163 sequencing technique Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 14
- 239000004973 liquid crystal related substance Substances 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 238000011084 recovery Methods 0.000 abstract 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 24
- 238000004891 communication Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 11
- 230000004044 response Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000004821 distillation Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000011423 initialization method Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3343—Query execution using phonetics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本公开提供了生成式大语言模型训练方法、基于模型的人机语音交互方法,涉及生成式模型、智能语音、人机交互等人工智能技术领域。该方法包括:基于用户输入文本与匹配的服务接口调用序列,构建第一训练集;利用第一训练集对预训练好的第一生成式大语言模型进行有监督微调训练,得到第二生成式大语言模型;基于相同用户输入文本与不同候选输出之间的用户偏好排序和预设模板集合,构建第二训练集;利用第二训练集对预训练好的第三生成式大语言模型进行有监督训练,得到奖励模型;将第二生成式大语言模型,基于奖励模型返回的得分,以强化学习方式进行训练。利用据此训练得到的生成式大语言模型可显著提升人机语音交互场景下的回复准确率和用户体验。
Description
技术领域
本公开涉及数据处理领域,具体涉及生成式模型、智能语音、人机交互等人工智能技术领域,尤其涉及一种生成式大语言模型训练和基于生成式大语言模型的人机语音交互方法,以及以对应的装置、电子设备、计算机可读存储介质及计算机程序产品。
背景技术
大型语言模型(LLM,Large Language Model,其本质是生成式模型),如ChatGPT(Chat Generative Pre-trained Transformer,是OpenAI机构研发的聊天机器人程序),能够为许多下游任务(例如面向任务的对话和问题解答)生成类似人类的流畅响应。
然而,将LLM应用于现实世界中的任务解决型应用仍然具有挑战性,主要原因是它们可能会产生与实际不符的回复,以及无法使用外部知识作为参考进行回复的生成。
例如,对于“A市现在天气如何”、“B货币兑C货币汇率”以及“从C位置到D位置需要多久”等问题,在回答时都需要实时的信息,而这些实时信息(例如实时时间、实时汇率、实时路况和实时交通信息等)根本无法单纯依靠LLM参数中蕴含的知识来生成,均需要依赖于外部的知识才能生成出准确的结果。
发明内容
本公开实施例提出了一种生成式大语言模型训练方法和基于生成式大语言模型的人机语音交互方法,以及与方法配套的装置、电子设备、计算机可读存储介质及计算机程序产品。
第一方面,本公开实施例提出了一种生成式大语言模型训练方法,包括:基于用户输入文本与匹配的服务接口调用序列,构建第一训练集;其中,用户输入文本由用户输入语音转换得到,构成服务接口调用序列的服务接口对应于用户输入文本表达出的功能使用意图;利用第一训练集对预训练好的第一生成式大语言模型进行有监督微调训练,得到第二生成式大语言模型;基于相同用户输入文本与不同候选输出之间的用户偏好排序和预设模板集合,构建第二训练集;利用第二训练集对预训练好的第三生成式大语言模型进行有监督训练,得到奖励模型;将第二生成式大语言模型,基于奖励模型返回的得分,以强化学习方式进行训练,得到目标生成式大语言模型。
第二方面,本公开实施例提出了一种生成式大语言模型训练装置,包括:第一训练集构建单元,被配置成基于用户输入文本与匹配的服务接口调用序列,构建第一训练集;其中,用户输入文本由用户输入语音转换得到,构成服务接口调用序列的服务接口对应于用户输入文本表达出的功能使用意图;有监督微调训练单元,被配置成利用第一训练集对预训练好的第一生成式大语言模型进行有监督微调训练,得到第二生成式大语言模型;第二训练集构建单元,被配置成基于相同用户输入文本与不同候选输出之间的用户偏好排序和预设模板集合,构建第二训练集;奖励模型训练单元,被配置成利用第二训练集对预训练好的第三生成式大语言模型进行有监督训练,得到奖励模型;强化学习训练单元,被配置成将第二生成式大语言模型,基于奖励模型返回的得分,以强化学习方式进行训练,得到目标生成式大语言模型。
第三方面,本公开实施例提出了一种基于生成式大语言模型的人机语音交互方法,包括:获取用户以语音形式发出的用户输入语音;将用户输入语音对应的用户输入文本作为输入数据输入目标生成式大语言模型;其中,目标生成式大语言模型根据如上述第一方面描述的生成式大语言模型训练方法得到;执行目标生成式大语言模型输出的接口调用序列,得到输出文本;将输出文本转换为语音形式的机器答复语音。
第四方面,本公开实施例提出了一种基于生成式大语言模型的人机语音交互装置,包括:用户输入语音获取单元,被配置成获取用户以语音形式发出的用户输入语音;模型调用单元,被配置成将用户输入语音对应的用户输入文本作为输入数据输入预设的目标生成式大语言模型;其中,目标生成式大语言模型根据如第二方面描述的生成式大语言模型训练装置得到;接口调用序列执行单元,被配置成执行目标生成式大语言模型输出的接口调用序列,得到输出文本;机器答复语音生成单元,被配置成将输出文本转换为语音形式的机器答复语音。
第五方面,本公开实施例提供了一种电子设备,该电子设备包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,该指令被至少一个处理器执行,以使至少一个处理器执行时能够实现如第一方面描述的生成式大语言模型训练方法或如第三方面描述的基于生成式大语言模型的人机语音交互方法。
第六方面,本公开实施例提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使计算机执行时能够实现如第一方面描述的生成式大语言模型训练方法或如第三方面描述的基于生成式大语言模型的人机语音交互方法。
第七方面,本公开实施例提供了一种包括计算机程序的计算机程序产品,该计算机程序在被处理器执行时能够实现如第一方面描述的生成式大语言模型训练方法的步骤或如第三方面描述的基于生成式大语言模型的人机语音交互方法的步骤。
本公开实施例提供的生成式大语言模型训练方案,由于第一训练集是由(用户输入语音转换得到的)用户输入文本与表达相应功能使用意图的服务接口调用序列构建得到,使得通过第一训练集对预训练好的第一生成式大语言模型进行有监督微调训练,进而使得训练得到的第二生成式大语言模型具有将用户输入文本改写为匹配的服务接口调用序列的能力,而在由相同用户输入文本与不同候选输出之间的用户偏好排序和预设模板集合所构建的第二训练集对预训练好的第三生成式大语言模型进行有监督训练,进而使得训练得到的奖励模型拥有为生成式大语言模型针对用户输入文本所生成的不同候选进行质量评分的能力,进而使得在强化学习方式的训练下,所最终得到的目标生成式大语言模型不仅具有将用户输入文本改写为匹配的服务接口调用序列的能力,还具有输出更符合用户需求的结果的能力。即通过上述训练方案使得经训练得到的目标生成式大语言模型具有了深度理解用户需求并自行构建相应接口调用指令进行查询得到返回的准确答案的能力,能够不单单依据自然语言输入和大模型参数中蕴含的知识生成自然语言输出,而是借助提供专业能力的应用程序接口调用相应的功能,以更切实的解决用户需求,且在奖励模型的作用下还将使得返回的结果更加符合用户的实际需求和预期。
在上述实施例提供的生成式大语言模型训练方案的有益效果基础上,本公开实施例提供的基于生成式大语言模型的人机语音交互方案,则是具体针对由语音助手充当执行主体的场景下,将按上述训练方案训练得到的目标生成式大语言模型应用于人机语音交互场景,使得语音助手借助该目标生成式大语言模型将用户输入语音对应的用户输入文本转换为匹配的服务接口调用序列,进而通过按序执行该服务接口调用序列得到输出文本,最终将输出文本转换为机器答复语音返回用户完成人机语音交互,提升了人机语音交互体验。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显:
图1是本公开可以应用于其中的示例性系统架构;
图2为本公开实施例提供的一种生成式大语言模型训练方法的流程图;
图3为本公开实施例提供的一种构建第一训练集的方法的流程图;
图4为本公开实施例提供的一种确定服务接口调用序列的方法的流程图;
图5为本公开实施例提供的一种构建第二训练集的方法的流程图;
图6为本公开实施例提供的一种基于生成式大语言模型的人机语音交互方法的流程图;
图7为本公开实施例提供的一种针对具体例子的人机语音交互流程示意图;
图8为本公开实施例提供的一种生成式大语言模型训练装置的结构框图;
图9为本公开实施例提供的一种基于生成式大语言模型的人机语音交互装置的结构框图;
图10为本公开实施例提供的一种适用于执行生成式大语言模型训练方法和/或基于生成式大语言模型的人机语音交互方法的电子设备的结构示意图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
图1示出了可以应用本申请的生成式大语言模型训练方法、基于生成式大语言模型的人机语音交互方法,以及配套的装置、电子设备及计算机可读存储介质的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103和服务器105上可以安装有各种用于实现两者之间进行信息通讯的应用,例如人机语音交互类应用(例如导航语音助手应用、智能终端语音助手应用等)、模型训练类应用等。
终端设备101、102、103和服务器105可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等;当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中,其可以实现成多个软件或软件模块,也可以实现成单个软件或软件模块,在此不做具体限定。当服务器105为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器;服务器为软件时,可以实现成多个软件或软件模块,也可以实现成单个软件或软件模块,在此不做具体限定。
服务器105通过内置的各种应用可以提供各种服务,以可以为用户提供人机语音交互服务的人机语音交互类应用为例,服务器105在运行该人机语音交互类应用时可实现如下效果:首先,通过网络104传入的终端设备101、102、103记录下的用户以语音形式发出的用户输入语音;然后,将该用户输入语音对应的用户输入文本作为输入数据输入预先训练好的目标生成式大语言模型;下一步,执行目标生成式大语言模型输出的接口调用序列,得到输出文本;最后,将输出文本转换为语音形式的机器答复语音。进一步的,还可以将该机器答复语音通过网络104重新传回终端设备101、102、103,以便于由终端设备101、102、103通过播放该机器答复语音向相应用户做出回复。
其中,该目标生成式大语言模型可由服务器105上内置的模型训练类应用按如下步骤训练得到:首先,基于用户输入文本与匹配的服务接口调用序列,构建第一训练集,用户输入文本由用户输入语音转换得到,构成服务接口调用序列的服务接口对应于用户输入文本表达出的功能使用意图;然后,利用第一训练集对预训练好的第一生成式大语言模型进行有监督微调训练,得到第二生成式大语言模型;接着,基于相同用户输入文本与不同候选输出之间的用户偏好排序和预设模板集合,构建第二训练集;下一步,利用第二训练集对预训练好的第三生成式大语言模型进行有监督训练,得到奖励模型;最后,将第二生成式大语言模型和奖励模型,以强化学习方式进行训练,得到目标生成式大语言模型。
由于为训练得到目标生成式大语言模型需要占用较多的运算资源和较强的运算能力,因此本申请后续各实施例所提供的生成式大语言模型训练方法一般由拥有较强运算能力、较多运算资源的服务器105来执行,相应地,生成式大语言模型训练装置一般也设置于服务器105中。但同时也需要指出的是,在终端设备101、102、103也具有满足要求的运算能力和运算资源时,终端设备101、102、103也可以通过其上安装的模型训练类应用完成上述本交由服务器105做的各项运算,进而输出与服务器105同样的结果。相应的,生成式大语言模型训练装置也可以设置于终端设备101、102、103中。在此种情况下,示例性系统架构100也可以不包括服务器105和网络104。
当然,用于训练得到目标生成式大语言模型的服务器可以不同于调用训练好的目标生成式大语言模型来使用的服务器。特殊的,经由服务器105训练得到的目标生成式大语言模型也可以通过模型蒸馏的方式得到适合置入终端设备101、102、103的轻量级的目标生成式大语言模型,即可以根据实际需求的识别准确度灵活选择使用终端设备101、102、103中的轻量级的目标生成式大语言模型,还是选择使用服务器105中的较复杂的目标生成式大语言模型。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
请参考图2,图2为本公开实施例提供的一种生成式大语言模型训练方法的流程图,其中流程200包括以下步骤:
步骤201:基于用户输入文本与匹配的服务接口调用序列,构建第一训练集;
本步骤旨在由生成式大语言模型训练方法的执行主体(例如图1所示的服务器105)基于由(经用户以语音形式发出的用户输入语音转换得到的)用户输入文本与匹配的服务接口调用序列所构成的大量的“用户输入文本—服务接口调用序列”的样本对,来构建第一训练集。其中,该用户输入语音可获取自各种渠道,可以来自于对大量已授权用户在过去较长时间段内收集记录得到的用户语音数据集,也可以来自于历史的人机交互序列集;而为实现用户输入语音转为用户输入文本,可借助自动语音识别(Automatic SpeechRecognition,ASR)技术来实现,而为提升转换结果准确性,还可以借助基于深度学习的语音转文本模型来进行。
其中,构成服务接口调用序列的服务接口对应于用户输入文本表达出的功能使用意图,即服务接口调用序列能够满足用户输入文本所想要表达的预期需求,以期通过执行该服务接口调用序列得到响应的方式实现用户需求或得到满足用户功能使用意图的回复。
其中,本公开所描述的“服务接口”是指用于提供服务的应用程序编程接口(Application Programming Interface,API),不同的API可由安装在操作系统上的相关应用(包括支持操作系统正常运行的系统相关应用和建立在操作系统正常运行上的其它应用)提供,也可直接由操作系统或运行在操作系统上的一些系统组件提供,例如可用于实现导航功能的Navi API(通常由地图类应用提供)、用于实现兴趣点定位功能的FindPOI API(通常由地图类应用提供,英文缩写POI的全称为:Point of Interest)、用于实现选择功能的Option API(通常由提供多项备选方案的具体应用提供,例如可寻求通往相同目的地的多条备选路线中进行偏好选择时,由地图类应用提供)、用于实现具体日期获取功能的DateAPI(通常由时钟类应用或时间组件提供)、用于实现歌曲查找功能的FindSong API(通常由歌曲类应用或检索类应用提供),除此之外,还包括且不限于用于实现下述功能的对应API:
时间查询、日期查询、注册车牌号查询、用户查找、好友查询、听歌识曲、图片查找、出行路线规划、天气查询、任务编排、位置查询、限行尾号查询、汇率换算、进制转换、翻译、周边环境查询、加解密、数据下载、数据传输、问题查询、图片编辑等。
其中,服务接口调用序列最少可仅由一个服务接口对应的服务接口调用指令构成,而通常情况下则一般由多个(至少两个)存在执行顺序的不同服务接口调用指令构成。每个服务接口调用指令一般均包含目标服务接口的接口名和具体的接口调用参数,两者以要求的格式进行组合。但对于某些特殊的API,其接口调用参数可为空;另外一些某些特殊的API,其接口调用参数也可以是另一个服务接口调用指令。另外,具体的接口调用参数可以直接由用户输入文本中的某个文本片段直接充当,也可以由表达与相应文本片段相同含义的其它形式内容充当。
为便于理解本步骤所描述的方案,下述将通过一个具体例子进行展开说明:
假设对用户输入语音进行语音转文本操作后,得到的用户输入文本为:“导航去X地Y街的Z,走最快的路线”,那么与该用户输入文本匹配的服务接口调用序列可表现为:Navi(FindPOI(X地Y街的Z),Option(最快的路线))。之所以对应该服务接口调用序列,是因为可根据该用户输入文本确定出用户所想要表达的最终功能调用意图为导航,但为实现该最终功能调用意图,还需要对“X地Y街的Z”这一对充当目的地的兴趣点不准确描述进行准确确定,以及在准确确定目的地的情况下选择耗时最短的路线,因此实际上存在三个功能意图调用:兴趣点确定功能(对应FindPOI API)、路线选择功能(对应Option API)以及导航功能(对应Navi API),其中,调用兴趣点确定功能所确定出的准确兴趣点和调用路线选择功能所确定的路线选择偏好应共同作为导航功能的输入信息(即FindPOI(X地Y街的Z)和Option(最快的路线)此时均作为Navi API的接口调用参数),即存在这一执行顺序。也就是说,如果服务接口调用序列由多个服务接口调用指令构成时,具体还需要根据执行顺序来组织这些服务接口调用指令,从而能够正确执行该服务接口调用序列中包含的每个服务接口调用指令。
需要说明的是,上述与用户输入文本匹配的服务接口调用序列可由人工基于自身对用户输入文本的理解和对服务接口相关使用知识进行手动标注得到,也可以由非人工对象基于对隐含有上述两者之间对应关系的数据样本集中抽取得到,以实现高效率的构建“用户输入文本—服务接口调用序列”的样本对。
在某些理解方式下,若将用户输入文本理解为query、服务接口调用序列实际上为能够满足相应需求的由API和API参数构成的接口调用指令所构成的query’。
步骤202:利用第一训练集对预训练好的第一生成式大语言模型进行有监督微调训练,得到第二生成式大语言模型;
在步骤201的基础上,本步骤旨在由上述执行主体将第一训练集作为微调训练集,对之前已经预训练好的第一生成式大语言模型进行有监督微调训练(Supervised Fine-Tuning,SFT),以进一步得到第二生成式大语言模型。
本步骤所采用的SFT技术,是指训练对象并非是未经过任何训练的初始模型,而是对经基础训练样本训练得到的通用生成式大语言模型,即经过基础训练样本训练得到的通用生成式大语言模型通常仅是根据文本输入和大模型参数中蕴含的知识,基于语言单元(token)的预测概率生成一个文本序列作为结果,并不会具有将其改写为包括目标API和API参数的服务接口调用序列的能力。借助该SFT技术得以避免从头开始训练模型所需要付出的庞大耗时,只需要构造包含少量(此处的少量是相对于基础训练样本的数量级)训练样本的第一训练集,即可通过对通用生成式大语言模型进行二次训练,使其具有将用户输入文本改写为包含目标API和API参数的服务接口调用序列。
当然,可能在某些应用场景下,经基础训练样本训练得到的通用生成式大语言模型可能并不适合作为使用SFT技术的基础模型(例如通用生成式大语言模型所学习到的知识与新构造的训练样本中隐含的知识存在冲突),也可以基于新构造的训练样本对初始的生成式语言模型进行训练,以期使得训练得到的目标生成式大语言模型具有所期望拥有的能力。
步骤203:基于相同用户输入文本与不同候选输出之间的用户偏好排序和预设模板集合,构建第二训练集;
在步骤202的基础上,本步骤旨在由上述执行主体基于相同用户输入文本与不同候选输出之间的用户偏好排序和记录有输入文本与相应的接口调用指令之间对应关系的各预设模板,共同构建第二训练集。该预设模板可以具体表现为:“我要找[String]—FindPOI(POIName)”、“导航去[String]—Navi(POIName)”,即该预设模板用于指示何种样式的文本片段对应何种接口调用指令,其中的“String”用于指代相应部分可使用任意字符串填充。具体的,该预设模板可以抽取自用于构成第一训练集的各“用户输入文本—服务接口调用序列”样本对,也可以抽取自其它包含上述对应关系的数据集。
即首先对于每个用户输入文本,构建该用户输入文本分别与每个候选输出所形成的样本对,并根据每个样本对中该候选输出的用户偏好排序,对这些样本对进行排序;然后结合记录有输入文本与相应的接口调用指令之间对应关系的各预设模板(该预设模板集合中包含有多个该预设模板),共同构建该第二训练集,以期通过使用据此构建得到的第二训练集能够让模型学习到哪些结果更符合用户的实际需求。
需要说明的是,上述描述的用于构建第二训练集的训练样本可由人工基于自身主观理解进行手动标注、生成得到,也可以由非人工对象基于对隐含有上述两者之间对应关系的数据样本集中(例如体现用户检索操作中检索词和检索结果的检索日志)抽取得到,以实现相应样本对的高效构建。
当由检索日志作为该数据样本集时,该用户偏好排序可以具体表现为检索日志记录的对相同用户输入文本返回的备选输出列表中各备选输出在一段时间内的累计点击次数,即累计点击次数越多,就意味着该候选输出越符合用户的实际需求,该时间段的长度可以自行设置,例如一周、半个月或一整月。在该数据样本集由其它数据库充当时,该用户偏好排序还可以表现为其它类似的、能表现出用户偏好的参数,例如收藏量、评论量等等,此处不再一一列举。
步骤204:利用第二训练集对预训练好的第三生成式大语言模型进行有监督训练,得到奖励模型。
在步骤203的基础上,本步骤旨在由上述执行主体利用第二训练集对预训练好的第三生成式大语言模型进行有监督训练,得到奖励模型(Reward Model,RM)。此处所描述的奖励模型,是指通过学习第二训练集中每个训练样本下不同样本对之间的用户偏好排序,得以学习到如何对相同输入下不同备选输出赋予不同的奖励(一般以得分高低的方式进行返回),以使模型朝着获取更高奖励的方向进行学习,从而能够输出更符合用户实际需求的结果。
步骤205:将第二生成式大语言模型,基于奖励模型返回的得分,以强化学习方式进行训练,得到目标生成式大语言模型。
在步骤202和步骤204的基础上,本步骤旨在由上述执行主体将第二生成式大语言模型,基于奖励模型返回的得分,以强化学习方式(Reinforcement Learning,RL)进行训练,得到目标生成式大语言模型。
基于RL方式训练得到目标生成式大语言模型的简要过程可以参考下述描述:
1)基于第二生成式大语言模型的参数初始化一个新的生成式大语言模型M;
2)基于新的prompt(提示词,一般为用户的自然语言输入),让M针对每个prompt生成回复,再把回复输入给奖励模型(RM);
3)RM会为每个回复计算出得分作为标量奖励,其得分高低表示回复质量的高低;
4)采用RL(强化学习)的方式,基于模型M获得的总奖励得分不断更新其生成策略(对应英文:policy),直到收敛,训练至此时的M即为满足要求的目标生成式大语言模型。
为便于理解本公开所描述和使用的“生成式大语言模型”,此处还对“生成式”这一前缀对应的生成式模型的工作原理进行简要介绍:
之所以被称为生成式模型,是因为此类模型的工作过程类似于“文字接龙”,即基于用户输入和模型的前序输出,不断预测下一个token(语言单元),进而最终生成出一个文本序列,可参见下例:
假定目标生成式大语言模型根据上述方案学习到了将用户输入文本输出为服务接口调用序列的能力,那么仍以“导航去X地Y街的Z,走最快的路线”(为便于下述举例,使用“query”进行指代)为例,该目标生成式模型输出对应的服务接口调用序列的过程是按照下述步骤依次进行的:
query-->Navi;
query+Navi-->(;
query+Navi+(-->FindPOI;
query+Navi+(+FindPOI-->(;
query+Navi+(+FindPOI+(-->X;
query+Navi+(+FindPOI+(+X-->地;
query+Navi+(+FindPOI+(+X+地-->Y;
query+Navi+(+FindPOI+(+X+地+Y-->街;
query+Navi+(+FindPOI+(+X+地+Y+街-->的;
query+Navi+(+FindPOI+(+X+地+Y+街+的-->Z;
query+Navi+(+FindPOI+(+X+地+Y+街+的+Z-->);
query+Navi+(+FindPOI+(+X+地+Y+街+的+Z+)-->,;
query+Navi+(+FindPOI+(+X+地+Y+街+的+Z+)+,-->Option;
query+Navi+(+FindPOI+(+X+地+Y+街+的+Z+)+,+Option-->(;
query+Navi+(+FindPOI+(+X+地+Y+街+的+Z+)+,+Option+(-->走;
query+Navi+(+FindPOI+(+X+地+Y+街+的+Z+)+,+Option+(+走-->最;
query+Navi+(+FindPOI+(+X+地+Y+街+的+Z+)+,+Option+(+走+最-->快;
query+Navi+(+FindPOI+(+X+地+Y+街+的+Z+)+,+Option+(+走+最+快-->的;
query+Navi+(+FindPOI+(+X+地+Y+街+的+Z+)+,+Option+(+走+最+快+的-->路;
query+Navi+(+FindPOI+(+X+地+Y+街+的+Z+)+,+Option+(+走+最+快+的+路-->线;
query+Navi+(+FindPOI+(+X+地+Y+街+的+Z+)+,+Option+(+走+最+快+的+路+线-->);
query+Navi+(+FindPOI+(+X+地+Y+街+的+Z+)+,+Option+(+走+最+快+的+路+线+);
query+Navi+(+FindPOI+(+X+地+Y+街+的+Z+)+,+Option+(+走+最+快+的+路+线+)-->);
query+Navi+(+FindPOI+(+X+地+Y+街+的+Z+)+,+Option+(+走+最+快+的+路+线+)+)-->END。
即最终可以获得:Navi(FindPOI(X地Y街的Z),Option(走最快的路线))的这样一条服务接口调用序列。
在中文情形下,一个token通常就是一个汉字;而在英文情形下,一个token则通常指一个sub-word(中文可直译为子词),而不是一个单词,其对应的子词粒度,是介于单词粒度和字符粒度中间的一种形态,子词在能够保留语言意义的同时,还能有效减少词表的大小(即词表中词的数量),也能有效解决词表外词(out-of-vocabulary words)的情况。以“loved”、“loving”和“loves”这三个英文单词为例,可具体得到下述4个sub-word:“lov”、“ed”、“ing”和“es”,即通过此种方式可以把词本身的意思和时态分开,得到粒度更小的子词。而在上例中,代表API名的“FindPOI、Option和Navi”将作为一个不可分割的整体作为一个token。
本公开实施例提供的生成式大语言模型训练方法,由于第一训练集是由(用户输入语音转换得到的)用户输入文本与表达相应功能使用意图的服务接口调用序列构建得到,使得通过第一训练集对预训练好的第一生成式大语言模型进行有监督微调训练,进而使得训练得到的第二生成式大语言模型具有将用户输入文本改写为匹配的服务接口调用序列的能力,而在由相同用户输入文本与不同候选输出之间的用户偏好排序所构建的第二训练集对预训练好的第三生成式大语言模型进行有监督训练,进而使得训练得到的奖励模型拥有为生成式大语言模型针对用户输入文本所生成的不同候选进行质量评分的能力,进而使得在强化学习方式的训练下,所最终得到的目标生成式大语言模型不仅具有将用户输入文本改写为匹配的服务接口调用序列的能力,还具有输出更符合用户需求的结果的能力。即通过上述训练方案使得经训练得到的目标生成式大语言模型具有了深度理解用户需求并自行构建相应接口调用指令进行查询得到返回的准确答案的能力,能够不单单依据自然语言输入和大模型参数中蕴含的知识生成自然语言输出,而是借助提供专业能力的应用程序接口调用相应的功能,以更切实的解决用户需求,且在奖励模型的作用下还将使得返回的结果更加符合用户的实际需求和预期。
在上述实施例的基础上,对于采用SFT技术进行的有监督微调训练过程中,对于该第一生成式大语言模型中未出现的与API相关的特殊符号,还需要进行语言单元(即token)的扩充,可将其称为新token,而对于新token的特征的初始化,则可以按照已有语言单元的特征的多元正态分布参数采样的方式进行。
具体的,由于插入的API和API格式相关特殊符号不存在于第一生成式大语言模型的词表,因此还需要对第一生成式大语言模型的词表进行扩充。针对词表扩充后新token对应的embedding(通常可译为词向量或词嵌入)的初始化问题,还可以采用参数采样初始化方法进行:即对于新增token对应的embedding,如果按随机初始化或用0初始化,通常会使增加模型对新token的预测难度。这是因为新token的初始化embedding与通用生成式大语言模型经过大量预训练而得到的已有token的embedding分布差异过大而导致的。为了减少这种差异,可按已有token的embedding的多元正态分布(也称多变量正态分布或多变量高斯分布)对每个新token的embedding进行采样。形式化的,对于每个新token对应的embedding—en+i,可按如下的方式进行采样:
其中,E∈Rn×d是由通用生成式大语言模型原词表中所有token的embedding[e1;…;en]所组成的矩阵。
请参考图3,图3为本公开实施例提供的一种构建第一训练集的方法的流程图,即针对图2所示的流程200中的步骤201提供了一种具体的实现方式,流程200中的其它步骤并不做调整,也将本实施例所提供的具体实现方式以替换步骤201的方式得到一个新的完整实施例。其中流程300包括以下步骤:
步骤301:获取用户以语音形式发出的用户输入语音,并将用户输入语音转换为用户输入文本,且确定用户输入文本所表达的功能使用意图;
本步骤旨在由上述执行主体先获取用户输入语音,并通过语音识别技术转换为便于理解的用户输入文本,再进一步通过理解用户输入文本的含义确定其所想要表达的功能使用意图。具体的,在根据用户输入文本确定其所想要表达的功能使用意图时,可通过对构成用户输入文本中直接指代某些功能的文本片段来确定,也可以通过对间接指代某些功能的文本片段的含义进行理解来进一步确定,此处不做具体限定。
步骤302:根据功能使用意图确定用于实现相应意图的目标服务接口和具体接口参数。
在步骤301的基础上,本步骤旨在由上述执行主体根据功能使用意图确定用于实现相应意图的目标服务接口和具体接口参数。
以“导航去人民公园”这一简单的用户输入文本为例,其仅有导航去预设目的地这一个功能使用意图,而对应该功能使用意图的目标服务接口可为指代导航功能的NaviAPI,其具体接口参数就应为由“人民公园”充当的目的地。
步骤303:根据目标服务接口和具体接口参数,构建得到服务接口调用序列;
在步骤302的基础上,本步骤旨在根据目标服务接口和具体接口参数,构建得到服务接口调用序列。仍接上例,可生成出:Navi(人民公园)的接口调用指令,由于此例仅包含一个功能使用意图,即唯一的接口调用指令此时将作为服务接口调用序列存在。
步骤304:基于由用户输入文本与匹配的服务接口调用序列构成的样本对,构建第一训练集。
在步骤303的基础上,本步骤旨在由上述执行主体将多个“用户输入文本—服务接口调用序列”的样本对,来构建该第一训练集。
请参考图4,图4为本公开实施例提供的一种生成服务接口调用序列的方法的流程图,即针对图3所示的流程300中的步骤302-步骤303提供了一种具体的实现方式,主要针对用户输入文本的表达中包含有至少两个功能使用意图的情况,对流程300中的其它步骤并不做调整,也将本实施例所提供的具体实现方式以替换步骤302和步骤303的方式得到一个新的完整实施例。其中流程400包括以下步骤:
步骤401:分别确定与每个功能使用意图对应的目标服务接口和具体接口参数;
以“导航去X地Y街的Z,走最快的路线”这一复杂的用户输入文本为例,就包含兴趣点确定功能、路线选择功能以及导航功能三个功能使用意图,且不同功能使用意图之间还存在嵌套和依赖关系,此时就需要首先分别确定与每个功能使用意图对应的目标服务接口和具体接口参数:
对于兴趣点确定功能,其对应的目标服务接口即为:FindPOI API,其具体接口参数即为:X地Y街的Z;
对于路线选择功能,其对应的目标服务接口即为:Option API,其具体接口参数即为:走最快的路线;
而对于导航功能,其对应的目标服务接口即为:Navi API,其具体接口参数即为:FindPOI(X地Y街的Z)和Option(走最快的路线),或者是两者的值。
步骤402:根据与每个功能使用意图对应的目标服务接口和具体接口参数,生成相应的接口调用指令;
在步骤401所举例子的基础上,本步骤旨在根据与每个功能使用意图对应的目标服务接口和具体接口参数,生成相应的接口调用指令。可得到下述三个接口调用指令:
1)FindPOI(X地Y街的Z);
2)Option(走最快的路线);
3)Navi(Z1,最快的路线),此时假定Z1为FindPOI(X地Y街的Z)的调用结果,最快的路线为Option(最快的路线)的调用结果。
步骤403:根据不同的功能使用意图之间的执行依赖关系,确定不同的接口调用指令的执行顺序;
仍承接上例,可以看出兴趣点确定功能、路线选择功能和导航功能之间存在明显的执行依赖关系,即调用兴趣点确定功能所确定出的准确兴趣点和调用路线选择功能所确定的路线选择偏好应共同作为导航功能的输入信息,因此上述三个接口调用指令的执行顺序应为:先执行FindPOI(X地Y街的Z)和Option(走最快的路线)(由于两者之间不存在执行依赖,在仅支持串行的情况下,可以任选一个先执行、后执行另一个;在支持并行的情况下,两指令可以并发执行),然后在得到这两个指令结果的情况下,再基于两个指令结果执行Navi(Z1,最快的路线)这个指令。
步骤404:按执行顺序组织不同的接口调用指令,得到服务接口调用序列。
在步骤403的基础上,本步骤旨在由上述执行主体按执行顺序组织不同的接口调用指令,得到服务接口调用序列。
仍承接上例,按执行顺序组织不同的接口调用指令所得到的服务接口调用序列可以表现为:
Navi(FindPOI(X地Y街的Z),Option(最快的路线));
或者表现为:
FindPOI(X地Y街的Z)-->Z1;Option(走最快的路线)-->最快的路线;Navi(Z1,最快的路线)。
即执行顺序可以以多层嵌套的方式表示出来,也可以通过时序链条表示出来,或者还可以通过其它可实现类似效果的方式予以表示,此处不做具体限定。
请参考图5,图5为本公开实施例提供的一种构建第二训练集的方法的流程图,即针对图2所示的流程200中的步骤203提供了一种具体的实现方式,流程200中的其它步骤并不做调整,也将本实施例所提供的具体实现方式以替换步骤203的方式得到一个新的完整实施例。其中流程500包括以下步骤:
步骤501:从检索日志中获取检索词;
步骤502:从检索日志中确认对相同检索词返回过的所有检索结果,并确定每个检索结果在一个时间窗口内的累计点击次数;
步骤503:将相同检索词分别与各检索结果生成多个样本对,并根据不同检索结果分别对应的累计点击次数的大小,确定相应的不同样本对之间的排序信息;
步骤504:基于按排序信息进行用户偏好排序的各样本对和记录有输入文本与相应的接口调用指令之间对应关系的各预设模板,共同构建第二训练集。
为便于理解本实施例所提供方案,下述将通过另一示例进行展开描述:
假设有个query(即上述的检索词)为“XX大”,把这个query一段时间内(例如30天)的不同结果点击次数聚合起来,假设得到以下表1呈现的结果:
表1 累计点击次数统计表
结果编号 | 结果 | 累计点击次数 |
r1 | XX大学 | 100 |
r2 | XX大学东门 | 10 |
r3 | XX大学西门 | 9 |
r4 | XX大学教师楼 | 8 |
r5 | XX大学图书馆 | 0 |
那么据上表内容所能够构建得到的成对的样本就可以是:
rel(q,r1)>rel(q,r2);
rel(q,r1)>rel(q,r3);
rel(q,r1)>rel(q,r4);
rel(q,r1)>rel(q,r5);
rel(q,r2)>rel(q,r3);
rel(q,r2)>rel(q,r4);
rel(q,r2)>rel(q,r5);
rel(q,r3)>rel(q,r4);
rel(q,r3)>rel(q,r5);
rel(q,r4)>rel(q,r5),rel是一个函数,用于表示两者之间的用户偏好。
在上述信息的基础上,将结合用户输入文本及匹配的服务接口调用序列构成的query-query’的模板(例如:我要找[String]—FindPOI(POIName)以及导航去[String]—Navi(POIName),以及上述给出的pairwise(成对的)关系,自动构建出第二训练集:
rel(我要找XX大,FindPOI(XX大学))>rel(我要找XX大,FindPOI(XX大学东门));
rel(我要找XX大,FindPOI(XX大学))>rel(我要找XX大,FindPOI(XX大学西门));
rel(我要找XX大,FindPOI(XX大学))>rel(我要找XX大,FindPOI(XX大教师楼));
rel(我要找XX大,FindPOI(XX大学))>rel(我要找XX大,FindPOI(XX大学图书馆));
rel(我要找XX大,FindPOI(XX大学东门))>rel(我要找XX大,FindPOI(XX大学西门));
rel(我要找XX大,FindPOI(XX大学东门))>rel(我要找XX大,FindPOI(XX大学教师楼));
rel(我要找XX大,FindPOI(XX大学东门))>rel(我要找XX大,FindPOI(XX大图书馆));
rel(我要找XX大,FindPOI(XX大学西门))>rel(我要找XX大,FindPOI(XX大学教师楼));
rel(我要找XX大,FindPOI(XX大学西门))>rel(我要找XX大,FindPOI(XX大学图书馆));
rel(我要找XX大,FindPOI(XX大学教师楼))>rel(我要找XX大,FindPOI(XX大学图书馆))。
对于类似的导航去XX大的情况,也与上述类似,此处不再一一列举。
通过选用检索日志中记载的数据自动生成第二训练集,不仅节省了大量的人工标注成本,同时检索日志中的海量点击与跳过(未点击)数据,是完全真实用户需求的体现,完全真实地反应了用户对不同结果的偏好分布情况,从而使得所构建出的第二训练集更符合用户的实际需求。
上述各实施例从各个方面阐述了如何训练得到目标生成式大语言模型,为了尽可能的从实际使用场景突出训练出的目标生成式大语言模型所起到的效果,本公开还具体提供了一种使用训练好的目标生成式大语言模型来解决实际问题的方案,如图6所示的一种基于生成式大语言模型的人机语音交互方法包括如下步骤:
步骤601:获取用户以语音形式发出的用户输入语音;
本步骤旨在由基于生成式大语言模型的人机语音交互方法的执行主体(例如安装在图1所示的终端设备101、102、103上的语音助手应用)获取用户以语音形式发出的用户输入语音。
步骤602:将用户输入语音对应的用户输入文本作为输入数据输入预设的目标生成式大语言模型;
在步骤601的基础上,本步骤旨在由上述执行主体将用户输入语音对应的用户输入文本作为输入数据输入预设的目标生成式大语言模型,以调用该目标生成式大语言模型对该用户输入文本进行处理得到改写后的接口调用序列。
步骤603:执行目标生成式大语言模型输出的接口调用序列,得到输出文本;
在步骤602的基础上,本步骤旨在由上述执行主体执行目标生成式大语言模型输出的接口调用序列,得到输出文本。
以接口调用序列—“Navi(FindPOI(X地Y街的Z),Option(最快的路线))”为例,在执行该接口调用序列后,可得到诸如“为您找到前往Z1的最快路线为:1)先通过道路1……;2)再通过道路2……;3)到达Z1”的输出文本,需要说明的是,该输出文本是接口调用模块在调用地图应用所提供的导航API后所返回的导航结果信息,进一步的,若该导航结果信息除包含文本信息外,还包含有其它格式(例如图像、包含链接的超文本等)的出行导航信息,也可以对所支持的输出结果的格式集进行拓展,使得能够返回包含文本格式在内的多格式输出信息。
步骤604:将输出文本转换为语音形式的机器答复语音。
在步骤603的基础上,本步骤旨在由上述执行主体将输出文本转换为语音形式的机器答复语音,以便于通过语音助手向用户发起的用户输入语音做出语音回应。
具体的,作为本实施例的执行主体的、对用户输入语音返回机器答复语音的语音助手可以具体包括:来自地图应用的地图语音助手、来自移动应用程序的语音助手、来自智能终端设备(例如智能音箱、智能冰箱、智能可穿戴设备等)的家居语音助手,以全场景的满足用户的人机交互需求。
本实施例所提供的基于生成式大语言模型的人机语音交互方法,则具体针对由语音助手充当执行主体的场景下,将按上述训练方案训练得到的目标生成式大语言模型应用于人机语音交互场景,使得语音助手借助该目标生成式大语言模型将用户输入语音对应的用户输入文本转换为匹配的服务接口调用序列,进而通过按序执行该服务接口调用序列得到输出文本,最终将输出文本转换为机器答复语音返回用户完成人机语音交互,提升了人机语音交互体验。
为了避免目标生成式大语言模型对不同表述的用户输入文本均输出相同格式的输出结果,还可以将生成的输出文本调整为表达相同含义的不同表述方式。
一种表述方式可以为:将生成的输出文本调整为表达相同含义的随机一种表述方式,即每次输出时随机在表述库中选择一种表述方式进行表述调整。其中,表述方式可以划分为:活泼型、普通型、简练型、全面型等;
另一种表述方式可以为:将生成的输出文本调整为表达相同含义的、与用户输入文本所具有的相同表述方式,即使得输出文本沿用与用户输入文本相同的表述方式,以提升用户对输出文本的感受。
为进一步加深对本公开所提供方案的理解,下述还将通过图7示出一种针对具体例子的人机语音交互流程示意图:
1)语音助手接收到用户输入语音:“导航去X地Y街的Z,走最快的路线”;
2)语音助手通过语音转文本技术,将其转换得到用户输入文本:“导航去X地Y街的Z,走最快的路线”;
3)语音助手将用户输入文本“导航去X地Y街的Z,走最快的路线”输入预先训练好的目标生成式语言模型;
4)目标生成式语言模型输出“Navi(FindPOI(X地Y街的Z),Option(最快的路线))”的服务接口调用序列;
5)语音助手执行该服务接口调用序列,通过先执行FindPOI(String)来寻找POI、执行Option(Type)来获取导航模式,最终执行Navi(POI,Opt)实现导航;
5)语音助手获取执行结果的输出文本:获得路线:道路1,道路2,道路3,…;
6)语音助手将其转换为语音发出相应的语音输出:“为您找到以下路线:…”。
进一步参考图8和图9,作为对上述各图所示方法的实现,本公开分别提供了一种生成式大语言模型训练装置实施例和一种基于生成式大语言模型的人机语音交互装置的实施例,生成式大语言模型训练装置实施例与图2所示的生成式大语言模型训练方法实施例相对应,基于生成式大语言模型的人机语音交互装置实施例与图6所示的基于生成式大语言模型的人机语音交互方法实施例相对应。上述装置具体可以应用于各种电子设备中。
如图8所示,本实施例的生成式大语言模型训练装置800可以包括:第一训练集构建单元801、有监督微调训练单元802、第二训练集构建单元803、奖励模型训练单元804、强化学习训练单元805。其中,第一训练集构建单元801,被配置成基于用户输入文本与匹配的服务接口调用序列,构建第一训练集;其中,用户输入文本由用户输入语音转换得到,构成服务接口调用序列的服务接口对应于用户输入文本表达出的功能使用意图;有监督微调训练单元802,被配置成利用第一训练集对预训练好的第一生成式大语言模型进行有监督微调训练,得到第二生成式大语言模型;第二训练集构建单元803,被配置成基于相同用户输入文本与不同候选输出之间的用户偏好排序和预设模板集合,构建第二训练集;奖励模型训练单元804,被配置成利用第二训练集对预训练好的第三生成式大语言模型进行有监督训练,得到奖励模型;强化学习训练单元805,被配置成将第二生成式大语言模型,基于奖励模型返回的得分,以强化学习方式进行训练,得到目标生成式大语言模型。
在本实施例中,生成式大语言模型训练装置800中:第一训练集构建单元801、有监督微调训练单元802、第二训练集构建单元803、奖励模型训练单元804、强化学习训练单元805的具体处理及其所带来的技术效果可分别参考图2对应实施例中的步骤201-205的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,第一训练集构建单元801可以包括:
功能使用意图确定子单元,被配置成获取用户以语音形式发出的用户输入语音,并将用户输入语音转换为用户输入文本,且确定用户输入文本所表达的功能使用意图;
目标接口及接口参数确定子单元,被配置成根据功能使用意图确定用于实现相应意图的目标服务接口和具体接口参数;
服务接口调用序列构建子单元,被配置成根据目标服务接口和具体接口参数,构建得到服务接口调用序列;
第一训练集构建子单元,被配置成基于由用户输入文本与匹配的服务接口调用序列构成的样本对,构建第一训练集。
在本实施例的一些可选的实现方式中,目标接口及接口参数确定子单元可以被进一步配置成:
响应于用户输入文本的表达中包含有至少两个功能使用意图,分别确定与每个功能使用意图对应的目标服务接口和具体接口参数;
对应的,服务接口调用序列构建子单元可以被进一步配置成:
根据与每个功能使用意图对应的目标服务接口和具体接口参数,生成相应的接口调用指令;
根据不同的功能使用意图之间的执行依赖关系,确定不同的接口调用指令的执行顺序;
按执行顺序组织不同的接口调用指令,得到服务接口调用序列。
在本实施例的一些可选的实现方式中,在有监督微调的训练方式下,对第一生成式大语言模型中未出现的代表服务接口的新语言单元,按照已有语言单元的特征的多元正态分布对新语言单元的特征进行参数采样的初始化。
在本实施例的一些可选的实现方式中,第二训练集构建单元803可以被进一步配置成:
从检索日志中获取检索词;
从检索日志中确认对相同检索词返回过的所有检索结果,并确定每个检索结果在一个时间窗口内的累计点击次数;
将相同检索词分别与各检索结果生成多个样本对,并根据不同检索结果分别对应的累计点击次数的大小,确定相应的不同样本对之间的排序信息;
基于按排序信息进行用户偏好排序的各样本对和记录有输入文本与相应的接口调用指令之间对应关系的各预设模板,共同构建第二训练集。
本实施例作为对应于上述方法实施例的装置实施例存在,本实施例提供的生成式大语言模型训练装置,由于第一训练集是由(用户输入语音转换得到的)用户输入文本与表达相应功能使用意图的服务接口调用序列构建得到,使得通过第一训练集对预训练好的第一生成式大语言模型进行有监督微调训练,进而使得训练得到的第二生成式大语言模型具有将用户输入文本改写为匹配的服务接口调用序列的能力,而在由相同用户输入文本与不同候选输出之间的用户偏好排序所构建的第二训练集对预训练好的第三生成式大语言模型进行有监督训练,进而使得训练得到的奖励模型拥有为生成式大语言模型针对用户输入文本所生成的不同候选进行质量评分的能力,进而使得在强化学习方式的训练下,所最终得到的目标生成式大语言模型不仅具有将用户输入文本改写为匹配的服务接口调用序列的能力,还具有输出更符合用户需求的结果的能力。即通过上述训练方案使得经训练得到的目标生成式大语言模型具有了深度理解用户需求并自行构建相应接口调用指令进行查询得到返回的准确答案的能力,能够不单单依据自然语言输入和大模型参数中蕴含的知识生成自然语言输出,而是借助提供专业能力的应用程序接口调用相应的功能,以更切实的解决用户需求,且在奖励模型的作用下还将使得返回的结果更加符合用户的实际需求和预期。
如图9所示,本实施例的基于生成式大语言模型的人机语音交互装置900可以包括:用户输入语音获取单元901、模型调用单元902、接口调用序列执行单元903、机器答复语音生成单元904。其中,用户输入语音获取单元901,被配置成获取用户以语音形式发出的用户输入语音;模型调用单元902,被配置成将用户输入语音对应的用户输入文本作为输入数据输入预设的目标生成式大语言模型;接口调用序列执行单元903,被配置成执行目标生成式大语言模型输出的接口调用序列,得到输出文本;机器答复语音生成单元904,被配置成将输出文本转换为语音形式的机器答复语音。
在本实施例中,基于生成式大语言模型的人机语音交互装置900中:用户输入语音获取单元901、模型调用单元902、接口调用序列执行单元903、机器答复语音生成单元904的具体处理及其所带来的技术效果可分别对应图6所示方法实施例中的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,接口调用序列执行单元903可以被进一步配置成:
确定目标生成式大语言模型输出的服务接口调用序列中包含的各接口调用指令和不同接口调用指令之间的执行顺序;
按执行顺序依次执行相应的接口调用指令。
在本实施例的一些可选的实现方式中,基于生成式大语言模型的人机语音交互装置900还可以包括:
表述调整单元,被配置成将输出文本调整为表达相同含义的不同表述方式。
在本实施例的一些可选的实现方式中,表述调整单元可以被进一步配置成:
将输出文本调整为表达相同含义的随机一种表述方式。
在本实施例的一些可选的实现方式中,表述调整单元可以被进一步配置成:
将输出文本调整为表达相同含义的、与用户输入文本所具有的相同表述方式。
在本实施例的一些可选的实现方式中,对用户输入语音返回机器答复语音的语音助手包括:来自地图应用的地图语音助手、来自移动应用程序的语音助手、来自智能终端设备的家居语音助手。
本实施例作为对应于上述方法实施例的装置实施例存在,本实施例提供的基于生成式大语言模型的人机语音交互方案,则是具体针对由语音助手充当执行主体的场景下,将按上述训练方案训练得到的目标生成式大语言模型应用于人机语音交互场景,使得语音助手借助该目标生成式大语言模型将用户输入语音对应的用户输入文本转换为匹配的服务接口调用序列,进而通过按序执行该服务接口调用序列得到输出文本,最终将输出文本转换为机器答复语音返回用户完成人机语音交互,提升了人机语音交互体验。
根据本公开的实施例,本公开还提供了一种电子设备,该电子设备包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,该指令被至少一个处理器执行,以使至少一个处理器执行时能够实现上述任一实施例描述的生成式大语言模型训练方法和/或基于生成式大语言模型的人机语音交互方法。
根据本公开的实施例,本公开还提供了一种可读存储介质,该可读存储介质存储有计算机指令,该计算机指令用于使计算机执行时能够实现上述任一实施例描述的生成式大语言模型训练方法和/或基于生成式大语言模型的人机语音交互方法。
本公开实施例提供了一种计算机程序产品,该计算机程序在被处理器执行时能够实现上述任一实施例描述的生成式大语言模型训练方法和/或基于生成式大语言模型的人机语音交互方法。
图10示出了可以用来实施本公开的实施例的示例电子设备1000的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图10所示,设备1000包括计算单元1001,其可以根据存储在只读存储器(ROM)1002中的计算机程序或者从存储单元1008加载到随机访问存储器(RAM)1003中的计算机程序,来执行各种适当的动作和处理。在RAM 1003中,还可存储设备1000操作所需的各种程序和数据。计算单元1001、ROM 1002以及RAM 1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
设备1000中的多个部件连接至I/O接口1005,包括:输入单元1006,例如键盘、鼠标等;输出单元1007,例如各种类型的显示器、扬声器等;存储单元1008,例如磁盘、光盘等;以及通信单元1009,例如网卡、调制解调器、无线通信收发机等。通信单元1009允许设备1000通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1001可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1001的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1001执行上文所描述的各个方法和处理,例如生成式大语言模型训练方法和/或基于生成式大语言模型的人机语音交互方法。例如,在一些实施例中,生成式大语言模型训练方法和/或基于生成式大语言模型的人机语音交互方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1008。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1002和/或通信单元1009而被载入和/或安装到设备1000上。当计算机程序加载到RAM 1003并由计算单元1001执行时,可以执行上文描述的生成式大语言模型训练方法和/或基于生成式大语言模型的人机语音交互方法的一个或多个步骤。备选地,在其他实施例中,计算单元1001可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行生成式大语言模型训练方法和/或基于生成式大语言模型的人机语音交互方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决传统物理主机与虚拟专用服务器(VPS,Virtual Private Server)服务中存在的管理难度大,业务扩展性弱的缺陷。
本公开实施例提供的生成式大语言模型训练方案,由于第一训练集是由(用户输入语音转换得到的)用户输入文本与表达相应功能使用意图的服务接口调用序列构建得到,使得通过第一训练集对预训练好的第一生成式大语言模型进行有监督微调训练,进而使得训练得到的第二生成式大语言模型具有将用户输入文本改写为匹配的服务接口调用序列的能力,而在由相同用户输入文本与不同候选输出之间的用户偏好排序和预设模板集合所构建的第二训练集对预训练好的第三生成式大语言模型进行有监督训练,进而使得训练得到的奖励模型拥有为生成式大语言模型针对用户输入文本所生成的不同候选进行质量评分的能力,进而使得在强化学习方式的训练下,所最终得到的目标生成式大语言模型不仅具有将用户输入文本改写为匹配的服务接口调用序列的能力,还具有输出更符合用户需求的结果的能力。即通过上述训练方案使得经训练得到的目标生成式大语言模型具有了深度理解用户需求并自行构建相应接口调用指令进行查询得到返回的准确答案的能力,能够不单单依据自然语言输入和大模型参数中蕴含的知识生成自然语言输出,而是借助提供专业能力的应用程序接口调用相应的功能,以更切实的解决用户需求,且在奖励模型的作用下还将使得返回的结果更加符合用户的实际需求和预期。
在上述实施例提供的生成式大语言模型训练方案的有益效果基础上,本公开实施例提供的基于生成式大语言模型的人机语音交互方案,则是具体针对由语音助手充当执行主体的场景下,将按上述训练方案训练得到的目标生成式大语言模型应用于人机语音交互场景,使得语音助手借助该目标生成式大语言模型将用户输入语音对应的用户输入文本转换为匹配的服务接口调用序列,进而通过按序执行该服务接口调用序列得到输出文本,最终将输出文本转换为机器答复语音返回用户完成人机语音交互,提升了人机语音交互体验。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (25)
1.一种生成式大语言模型训练方法,包括:
基于用户输入文本与匹配的服务接口调用序列,构建第一训练集;其中,所述用户输入文本由用户输入语音转换得到,构成所述服务接口调用序列的服务接口对应于所述用户输入文本表达出的功能使用意图;
利用所述第一训练集对预训练好的第一生成式大语言模型进行有监督微调训练,得到第二生成式大语言模型;
基于相同用户输入文本与不同候选输出之间的用户偏好排序和预设模板集合,构建第二训练集;
利用第二训练集对预训练好的第三生成式大语言模型进行有监督训练,得到奖励模型;
将所述第二生成式大语言模型,基于所述奖励模型返回的得分,以强化学习方式进行训练,得到目标生成式大语言模型。
2.根据权利要求1所述的方法,其中,所述基于用户输入文本与匹配的服务接口调用序列,构建第一训练集,包括:
获取用户以语音形式发出的用户输入语音,并将所述用户输入语音转换为所述用户输入文本,且确定所述用户输入文本所表达的功能使用意图;
根据所述功能使用意图确定用于实现相应意图的目标服务接口和具体接口参数;
根据所述目标服务接口和所述具体接口参数,构建得到所述服务接口调用序列;
基于由所述用户输入文本与匹配的服务接口调用序列构成的样本对,构建所述第一训练集。
3.根据权利要求2所述的方法,其中,所述根据所述功能使用意图确定用于实现相应意图的目标服务接口和具体接口参数,包括:
响应于所述用户输入文本的表达中包含有至少两个所述功能使用意图,分别确定与每个所述功能使用意图对应的目标服务接口和具体接口参数;
所述根据所述目标服务接口和所述具体接口参数,构建得到所述服务接口调用序列,包括:
根据与每个所述功能使用意图对应的目标服务接口和具体接口参数,生成相应的接口调用指令;
根据不同的功能使用意图之间的执行依赖关系,确定不同的接口调用指令的执行顺序;
按所述执行顺序组织不同的接口调用指令,得到所述服务接口调用序列。
4.根据权利要求1所述的方法,其中,在有监督微调的训练方式下,对所述第一生成式大语言模型中未出现的代表服务接口的新语言单元,按照已有语言单元的特征的多元正态分布对所述新语言单元的特征进行参数采样的初始化。
5.根据权利要求1-4任一项所述的方法,其中,所述基于相同用户输入文本与不同候选输出之间的用户偏好排序和预设模板集合,构建第二训练集,包括:
从检索日志中获取检索词;
从检索日志中确认对相同所述检索词返回过的所有检索结果,并确定每个所述检索结果在一个时间窗口内的累计点击次数;
将相同检索词分别与各检索结果生成多个样本对,并根据不同检索结果分别对应的累计点击次数的大小,确定相应的不同样本对之间的排序信息;
基于按所述排序信息进行用户偏好排序的各样本对和记录有输入文本与相应的接口调用指令之间对应关系的各预设模板,共同构建第二训练集;其中,所述预设模板集合由各所述预设模板构成。
6.一种基于生成式大语言模型的人机语音交互方法,包括:
获取用户以语音形式发出的用户输入语音;
将所述用户输入语音对应的用户输入文本作为输入数据输入目标生成式大语言模型;其中,所述目标生成式大语言模型基于权利要求1-5任一项所述的生成式大语言模型训练方法得到;
执行所述目标生成式大语言模型输出的接口调用序列,得到输出文本;
将所述输出文本转换为语音形式的机器答复语音。
7.根据权利要求6所述的方法,其中,所述执行所述目标生成式大语言模型输出的接口调用序列,包括:
确定所述目标生成式大语言模型输出的服务接口调用序列中包含的各接口调用指令和不同接口调用指令之间的执行顺序;
按所述执行顺序依次执行相应的接口调用指令。
8.根据权利要求6所述的方法,还包括:
将所述输出文本调整为表达相同含义的不同表述方式。
9.根据权利要求8所述的方法,其中,所述将所述输出文本调整为表达相同含义的不同表述方式,包括:
将所述输出文本调整为表达相同含义的随机一种表述方式。
10.根据权利要求8所述的方法,其中,所述将所述输出文本调整为表达相同含义的不同表述方式,包括:
将所述输出文本调整为表达相同含义的、与所述用户输入文本所具有的相同表述方式。
11.根据权利要求6-10任一项所述的方法,其中,对所述用户输入语音返回所述机器答复语音的语音助手包括:来自地图应用的地图语音助手、来自移动应用程序的语音助手、来自智能终端设备的家居语音助手。
12.一种生成式大语言模型训练装置,包括:
第一训练集构建单元,被配置成基于用户输入文本与匹配的服务接口调用序列,构建第一训练集;其中,所述用户输入文本由用户输入语音转换得到,构成所述服务接口调用序列的服务接口对应于所述用户输入文本表达出的功能使用意图;
有监督微调训练单元,被配置成利用所述第一训练集对预训练好的第一生成式大语言模型进行有监督微调训练,得到第二生成式大语言模型;
第二训练集构建单元,被配置成基于相同用户输入文本与不同候选输出之间的用户偏好排序和预设模板集合,构建第二训练集;
奖励模型训练单元,被配置成利用第二训练集对预训练好的第三生成式大语言模型进行有监督训练,得到奖励模型;
强化学习训练单元,被配置成将将所述第二生成式大语言模型,基于所述奖励模型返回的得分,以强化学习方式进行训练,得到目标生成式大语言模型。
13.根据权利要求12所述的装置,其中,所述第一训练集构建单元包括:
功能使用意图确定子单元,被配置成获取用户以语音形式发出的用户输入语音,并将所述用户输入语音转换为所述用户输入文本,且确定所述用户输入文本所表达的功能使用意图;
目标接口及接口参数确定子单元,被配置成根据所述功能使用意图确定用于实现相应意图的目标服务接口和具体接口参数;
服务接口调用序列构建子单元,被配置成根据所述目标服务接口和所述具体接口参数,构建得到所述服务接口调用序列;
第一训练集构建子单元,被配置成基于由所述用户输入文本与匹配的服务接口调用序列构成的样本对,构建所述第一训练集。
14.根据权利要求13所述的装置,其中,所述目标接口及接口参数确定子单元被进一步配置成:
响应于所述用户输入文本的表达中包含有至少两个所述功能使用意图,分别确定与每个所述功能使用意图对应的目标服务接口和具体接口参数;
所述服务接口调用序列构建子单元被进一步配置成:
根据与每个所述功能使用意图对应的目标服务接口和具体接口参数,生成相应的接口调用指令;
根据不同的功能使用意图之间的执行依赖关系,确定不同的接口调用指令的执行顺序;
按所述执行顺序组织不同的接口调用指令,得到所述服务接口调用序列。
15.根据权利要求12所述的装置,其中,在有监督微调的训练方式下,对所述第一生成式大语言模型中未出现的代表服务接口的新语言单元,按照已有语言单元的特征的多元正态分布对所述新语言单元的特征进行参数采样的初始化。
16.根据权利要求12-15任一项所述的装置,其中,所述第二训练集构建单元被进一步配置成:
从检索日志中获取检索词;
从检索日志中确认对相同所述检索词返回过的所有检索结果,并确定每个所述检索结果在一个时间窗口内的累计点击次数;
将相同检索词分别与各检索结果生成多个样本对,并根据不同检索结果分别对应的累计点击次数的大小,确定相应的不同样本对之间的排序信息;
基于按所述排序信息进行用户偏好排序的各样本对和记录有输入文本与相应的接口调用指令之间对应关系的各预设模板,共同构建第二训练集;其中,所述预设模板集合由各所述预设模板构成。
17.一种基于生成式大语言模型的人机语音交互装置,包括:
用户输入语音获取单元,被配置成获取用户以语音形式发出的用户输入语音;
模型调用单元,被配置成将所述用户输入语音对应的用户输入文本作为输入数据输入预设的目标生成式大语言模型;其中,所述目标生成式大语言模型基于权利要求12-16任一项所述的生成式大语言模型训练装置得到;
接口调用序列执行单元,被配置成执行所述目标生成式大语言模型输出的接口调用序列,得到输出文本;
机器答复语音生成单元,被配置成将所述输出文本转换为语音形式的机器答复语音。
18.根据权利要求17所述的装置,其中,所述接口调用序列执行单元被进一步配置成:
确定所述目标生成式大语言模型输出的服务接口调用序列中包含的各接口调用指令和不同接口调用指令之间的执行顺序;
按所述执行顺序依次执行相应的接口调用指令。
19.根据权利要求17所述的装置,还包括:
表述调整单元,被配置成将所述输出文本调整为表达相同含义的不同表述方式。
20.根据权利要求19所述的装置,其中,所述表述调整单元被进一步配置成:
将所述输出文本调整为表达相同含义的随机一种表述方式。
21.根据权利要求19所述的方法,其中,所述表述调整单元被进一步配置成:
将所述输出文本调整为表达相同含义的、与所述用户输入文本所具有的相同表述方式。
22.根据权利要求17-21任一项所述的装置,其中,对所述用户输入语音返回所述机器答复语音的语音助手包括:来自地图应用的地图语音助手、来自移动应用程序的语音助手、来自智能终端设备的家居语音助手。
23.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-5中任一项所述的生成式大语言模型训练方法和/或权利要求6-11任一项所述的基于生成式大语言模型的人机语音交互方法。
24.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1-5中任一项所述的生成式大语言模型训练方法和/或权利要求6-11任一项所述的基于生成式大语言模型的人机语音交互方法。
25.一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现根据权利要求1-5中任一项所述的生成式大语言模型训练方法的步骤和/或权利要求6-11任一项所述的基于生成式大语言模型的人机语音交互方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310233922.6A CN116244416A (zh) | 2023-03-03 | 2023-03-03 | 生成式大语言模型训练方法、基于模型的人机语音交互方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310233922.6A CN116244416A (zh) | 2023-03-03 | 2023-03-03 | 生成式大语言模型训练方法、基于模型的人机语音交互方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116244416A true CN116244416A (zh) | 2023-06-09 |
Family
ID=86629403
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310233922.6A Pending CN116244416A (zh) | 2023-03-03 | 2023-03-03 | 生成式大语言模型训练方法、基于模型的人机语音交互方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116244416A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116992006A (zh) * | 2023-09-26 | 2023-11-03 | 武汉益模科技股份有限公司 | 一种大语言模型驱动的链式自然语言交互方法与系统 |
CN117217238A (zh) * | 2023-11-09 | 2023-12-12 | 成都理工大学 | 一种基于大型语言模型的智能交互系统及方法 |
CN117236410A (zh) * | 2023-11-13 | 2023-12-15 | 北京微点科学技术有限公司 | 一种可信的电子文件大语言模型训练、推理方法和装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160350280A1 (en) * | 2015-06-01 | 2016-12-01 | Nuance Communications, Inc. | Processing natural language text with context-specific linguistic model |
CN111783455A (zh) * | 2020-07-13 | 2020-10-16 | 网易(杭州)网络有限公司 | 文本生成模型的训练方法及装置、文本生成方法及装置 |
US20210174162A1 (en) * | 2019-12-09 | 2021-06-10 | Salesforce.Com, Inc. | Spatial-Temporal Reasoning Through Pretrained Language Models for Video-Grounded Dialogues |
US20210271823A1 (en) * | 2018-03-01 | 2021-09-02 | Ink Content, Inc. | Content generation using target content derived modeling and unsupervised language modeling |
WO2021204014A1 (zh) * | 2020-11-12 | 2021-10-14 | 平安科技(深圳)有限公司 | 一种模型训练的方法及相关装置 |
CN113850386A (zh) * | 2021-10-28 | 2021-12-28 | 北京百度网讯科技有限公司 | 模型预训练方法、装置、设备、存储介质以及程序产品 |
CN114841274A (zh) * | 2022-05-12 | 2022-08-02 | 百度在线网络技术(北京)有限公司 | 语言模型的训练方法、装置、电子设备和存储介质 |
CN114970522A (zh) * | 2022-05-20 | 2022-08-30 | 北京百度网讯科技有限公司 | 语言模型的预训练方法、装置、设备、存储介质 |
CN115423118A (zh) * | 2022-09-06 | 2022-12-02 | 中国人民解放军军事科学院系统工程研究院 | 一种预训练语言模型微调方法、系统及装置 |
-
2023
- 2023-03-03 CN CN202310233922.6A patent/CN116244416A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160350280A1 (en) * | 2015-06-01 | 2016-12-01 | Nuance Communications, Inc. | Processing natural language text with context-specific linguistic model |
US20210271823A1 (en) * | 2018-03-01 | 2021-09-02 | Ink Content, Inc. | Content generation using target content derived modeling and unsupervised language modeling |
US20210174162A1 (en) * | 2019-12-09 | 2021-06-10 | Salesforce.Com, Inc. | Spatial-Temporal Reasoning Through Pretrained Language Models for Video-Grounded Dialogues |
CN111783455A (zh) * | 2020-07-13 | 2020-10-16 | 网易(杭州)网络有限公司 | 文本生成模型的训练方法及装置、文本生成方法及装置 |
WO2021204014A1 (zh) * | 2020-11-12 | 2021-10-14 | 平安科技(深圳)有限公司 | 一种模型训练的方法及相关装置 |
CN113850386A (zh) * | 2021-10-28 | 2021-12-28 | 北京百度网讯科技有限公司 | 模型预训练方法、装置、设备、存储介质以及程序产品 |
CN114841274A (zh) * | 2022-05-12 | 2022-08-02 | 百度在线网络技术(北京)有限公司 | 语言模型的训练方法、装置、电子设备和存储介质 |
CN114970522A (zh) * | 2022-05-20 | 2022-08-30 | 北京百度网讯科技有限公司 | 语言模型的预训练方法、装置、设备、存储介质 |
CN115423118A (zh) * | 2022-09-06 | 2022-12-02 | 中国人民解放军军事科学院系统工程研究院 | 一种预训练语言模型微调方法、系统及装置 |
Non-Patent Citations (1)
Title |
---|
姚亮;洪宇;刘昊;刘乐;姚建民;: "基于翻译模型和语言模型相融合的双语句对选择方法", 中文信息学报, no. 05, 15 September 2016 (2016-09-15) * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116992006A (zh) * | 2023-09-26 | 2023-11-03 | 武汉益模科技股份有限公司 | 一种大语言模型驱动的链式自然语言交互方法与系统 |
CN116992006B (zh) * | 2023-09-26 | 2024-01-12 | 武汉益模科技股份有限公司 | 一种大语言模型驱动的链式自然语言交互方法与系统 |
CN117217238A (zh) * | 2023-11-09 | 2023-12-12 | 成都理工大学 | 一种基于大型语言模型的智能交互系统及方法 |
CN117217238B (zh) * | 2023-11-09 | 2024-01-30 | 成都理工大学 | 一种基于大型语言模型的智能交互系统及方法 |
CN117236410A (zh) * | 2023-11-13 | 2023-12-15 | 北京微点科学技术有限公司 | 一种可信的电子文件大语言模型训练、推理方法和装置 |
CN117236410B (zh) * | 2023-11-13 | 2024-01-23 | 北京微点科学技术有限公司 | 一种可信的电子文件大语言模型训练、推理方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7127106B2 (ja) | 質問応答処理、言語モデルの訓練方法、装置、機器および記憶媒体 | |
CN116127045A (zh) | 生成式大语言模型训练方法、基于模型的人机语音交互方法 | |
CN116127020A (zh) | 生成式大语言模型训练方法以及基于模型的搜索方法 | |
CN116127046A (zh) | 生成式大语言模型训练方法、基于模型的人机语音交互方法 | |
CN116244416A (zh) | 生成式大语言模型训练方法、基于模型的人机语音交互方法 | |
RU2708941C1 (ru) | Способ и устройство распознавания сегментированных предложений для человеко-машинной интеллектуальной вопросно-ответной системы | |
US10140977B1 (en) | Generating additional training data for a natural language understanding engine | |
CN116226334A (zh) | 生成式大语言模型训练方法以及基于模型的搜索方法 | |
US11699074B2 (en) | Training sequence generation neural networks using quality scores | |
JP2023535709A (ja) | 言語表現モデルシステム、事前訓練方法、装置、機器及び媒体 | |
CN116343766A (zh) | 生成式大模型训练方法、基于模型的人机语音交互方法 | |
CN103995870A (zh) | 交互式搜索方法和装置 | |
EP4113357A1 (en) | Method and apparatus for recognizing entity, electronic device and storage medium | |
WO2023155678A1 (zh) | 用于确定信息的方法和装置 | |
CN111951782A (zh) | 语音问答方法及装置、计算机可读存储介质和电子设备 | |
CN113836925A (zh) | 预训练语言模型的训练方法、装置、电子设备及存储介质 | |
CN115309877A (zh) | 对话生成方法、对话模型训练方法及装置 | |
CN117216212A (zh) | 对话处理方法、对话模型训练方法、装置、设备及介质 | |
CN112507103A (zh) | 任务型对话及模型训练方法、装置、设备和存储介质 | |
CN117290477A (zh) | 一种基于二次检索增强的生成式建筑知识问答方法 | |
CN113326367B (zh) | 基于端到端文本生成的任务型对话方法和系统 | |
EP4254256A1 (en) | Spoken language processing method and apparatus, electronic device, and storage medium | |
CN109002498B (zh) | 人机对话方法、装置、设备及存储介质 | |
CN116541536A (zh) | 知识增强的内容生成系统、数据生成方法、设备和介质 | |
CN114416941B (zh) | 融合知识图谱的对话知识点确定模型的生成方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |