CN116595152A - 基于大语言模型叠加适配器的儿童语言能力测试方法 - Google Patents

基于大语言模型叠加适配器的儿童语言能力测试方法 Download PDF

Info

Publication number
CN116595152A
CN116595152A CN202310788163.XA CN202310788163A CN116595152A CN 116595152 A CN116595152 A CN 116595152A CN 202310788163 A CN202310788163 A CN 202310788163A CN 116595152 A CN116595152 A CN 116595152A
Authority
CN
China
Prior art keywords
language
model
child
trained
dialogue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310788163.XA
Other languages
English (en)
Inventor
凌旭峰
凌熠钧
祝毓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SHANGHAI NORMAL UNIVERSITY TIANHUA COLLEGE
Original Assignee
SHANGHAI NORMAL UNIVERSITY TIANHUA COLLEGE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SHANGHAI NORMAL UNIVERSITY TIANHUA COLLEGE filed Critical SHANGHAI NORMAL UNIVERSITY TIANHUA COLLEGE
Priority to CN202310788163.XA priority Critical patent/CN116595152A/zh
Publication of CN116595152A publication Critical patent/CN116595152A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)

Abstract

本公开提供一种基于大语言模型叠加适配器的儿童语言能力测试方法、装置、介质、系统及终端。基于大语言模型叠加适配器的儿童语言能力测试方法,包括:获取预训练的大语言基础模型、至少一个儿童语料库;将至少一个儿童语料库进行预处理,确定儿童语言训练集;在大语言基础模型中插入大语言模型适配器,确定待训练的儿童语言对话模型;将儿童语言训练集输入待训练的童语言模型中进行模型处理,确定儿童语言对话模型;将待测儿童的语音输入训练完成的儿童语言对话模型中,确定儿童语言对话模型预测的语音对话;根据待测儿童的语音与预测的语音对话,确定待测儿童的语言能力检测结果。通过本公开实现儿童语言训练和儿童语言能力评估。

Description

基于大语言模型叠加适配器的儿童语言能力测试方法
技术领域
本发明涉及自然语言处理技术领域,具体地,涉及一种基于大语言模型叠加适配器的儿童语言能力测试方法、装置、介质、系统及终端。
背景技术
聊天机器人在儿童语言训练过程中,辅助儿童扩大词汇量、提高语言交流能力,同时,提供情景化学习和个性化学习帮助儿童理解和运用语言,提高儿童对语言的学习兴趣。
传统的聊天机器人基于规则、模板或者统计模型的技术,但基于规则的聊天机器人适用于特征的领域或者特定的任务,基于规则、模板的传统的聊天机器人的需要手动编写规则或者模板,对于新的领域或者新的任务需要重新设计和编写规则或模板,可扩展性差,并且依赖于写好的规则或者模版,对话质量容易不稳定;传统的聊天机器人语言理解能力较弱,难以准确理解用户的意图和问题;基于统计模型的传统的聊天机器人需要大量的训练数据提高模型的准确度和泛化能力,其模型泛化能力差;传统的聊天机器人缺乏人性化特点,回答较为僵硬、不自然,影响用户体验。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种基于大语言模型叠加适配器的儿童语言能力测试方法、装置、介质、系统及终端。
根据本公开的第一方面,提供一种基于大语言模型叠加适配器的儿童语言能力测试方法,包括:
获取预训练的大语言基础模型、至少一个儿童语料库;
将所述至少一个儿童语料库进行预处理,确定儿童语言训练集;
在所述预训练的大语言基础模型中插入待训练的大语言模型适配器,确定待训练的儿童语言对话模型,所述大语言模型适配器用于提高所述大语言基础模型在儿童语言领域的垂直深度;
将所述儿童语言训练集输入所述待训练的童语言模型中进行模型处理,确定训练完成的儿童语言对话模型;
将待测儿童的语音输入所述训练完成的儿童语言对话模型中,确定所述训练完成的儿童语言对话模型预测的语音对话;
根据所述待测儿童的语音与所述训练完成的儿童语言对话模型预测的语音对话,确定待测儿童的语言能力检测结果。
可选地,在所述预训练的大语言基础模型中插入待训练的大语言模型适配器,确定待训练的儿童语言对话模型,包括:
确定所述预训练的大语言基础模型的副本;
根据预设场景,将具有预设参数的待训练的大语言模型适配器通过堆叠处理的方式插入所述预训练的大语言基础模型的副本的顶部,确定待训练的儿童语言对话模型。
可选地,所述将所述儿童语言训练集输入所述待训练的童语言模型中进行模型处理,确定训练完成的儿童语言对话模型,包括:
冻结所述大语言基础模型的参数;
根据所述儿童语言训练集中的适配提示,对所述大语言模型适配器的参数进行训练,确定与所述预设场景对应的大语言模型适配器的参数,确定训练完成的儿童语言对话模型。
可选地,所述适配提示包括文本指令和图像指令。
根据本公开的第二方面,提供一种基于大语言模型叠加适配器的儿童语言能力测试装置,包括:
获取模块,用于获取预训练的大语言基础模型、至少一个儿童语料库;
第一确定模块,用于将所述至少一个儿童语料库进行预处理,确定儿童语言训练集;
第二确定模块,用于在所述预训练的大语言基础模型中插入待训练的大语言模型适配器,确定待训练的儿童语言对话模型,所述大语言模型适配器用于提高所述大语言基础模型在儿童语言领域的垂直深度;
第三确定模块,用于将所述儿童语言训练集输入所述待训练的童语言模型中进行模型处理,确定训练完成的儿童语言对话模型;
第四确定模块,将待测儿童的语音输入所述儿童语言对话模型中,确定所述训练完成的儿童语言对话模型预测的语音对话;
第五确定模块,用于根据所述待测儿童的语音与所述训练完成的儿童语言对话模型预测的语音对话,确定待测儿童的语言能力检测结果。
可选地,所述第二确定模块包括:
第一确定子模块,用于确定所述预训练的大语言基础模型的副本;
第二确定子模块,用于根据预设场景,将具有预设参数的待训练的大语言模型适配器通过堆叠处理的方式插入所述预训练的大语言基础模型的副本的顶部,确定待训练的儿童语言对话模型。
根据本公开的第三方面,提供一种基于大语言模型叠加适配器的儿童语言能力测试装置,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:执行本公开第一方面提供的基于大语言模型叠加适配器的儿童语言能力测试方法的步骤。
根据本公开的第四方面,提供一种非临时性计算机可读存储介质,其上存储有计算机程序指令,该程序指令被处理器执行时实现本公开的第一方面提供的基于大语言模型叠加适配器的儿童语言能力测试方法的步骤。
根据本公开的第五方面,提供一种基于大语言模型叠加适配器的儿童语言能力测试系统,包括:
语音识别模块,所述语音识别模块用于获取待测儿童的语音,通过所述语音识别模块将所述待测儿童的语音转化为文字信息;
儿童语言对话模型,所述儿童语言对话模型与所述语音识别模块连接,所述文字信息输入所述儿童语言对话模型,所述儿童语言对话模型输出文字对答信息;
语音播报模块,所述语音播报模块与所述儿童语言对话模型连接,所述文字对答信息输入所述语音播报模块,所述语音播报模块通过语音播放所述文字对答信息。
根据本公开的第六方面,提供一种终端,包括本公开的第五方面提供的基于大语言模型叠加适配器的儿童语言能力测试系统。
与现有技术相比,本发明实施例具有如下至少一种有益效果:
通过将至少一个儿童语料库进行预处理,确定儿童语言训练集,在预训练的大语言基础模型中插入待训练的大语言模型适配器,确定儿童语言对话模型,采用大语言模型适配器将大语言基础模型调整为遵循指令的模型,并且,提高大语言基础模型在儿童语料领域的垂直程度;将所述儿童语言训练集输入所述待训练的童语言模型中进行模型处理,确定儿童语言对话模型,通过插入的大语言模型适配器,减少参数训练量,提高模型处理的效率;将待测儿童的语音输入儿童语言对话模型中,确定儿童语言对话模型预测的语音对话,其中,儿童语言对话模型能够根据待测儿童的语音预测语音对话,提高儿童语言对话模型与待测儿童对话之间的灵活性;根据待测儿童的语音与儿童语言对话模型预测的语音对话,确定待测儿童的语言能力检测结果,实现对儿童的语言能力的诊断检测,促进儿童语言发展。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1是根据一示例性实施例示出的一种基于大语言模型叠加适配器的儿童语言能力测试方法的流程图。
图2是根据一示例性实施例示出的一种确定待训练的儿童语言模型的方法的流程图。
图3是根据一示例性实施例示出的一种确定训练完成的儿童语言对话模型的方法的流程图。
图4是根据一示例性实施例示出的一种基于大语言模型叠加适配器的儿童语言能力测试装置的框图。
图5是根据另一示例性实施例示出的一种基于大语言模型叠加适配器的儿童语言能力测试装置的框图。
图6是根据一示例性实施例示出的一种基于大语言模型叠加适配器的儿童语言能力测试系统的框图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进。这些都属于本发明的保护范围。
图1是根据一示例性实施例示出的一种基于大语言模型叠加适配器的儿童语言能力测试方法的流程图。如图1所示,一种基于大语言模型叠加适配器的儿童语言能力测试方法,包括S11至S16。
S11,获取预训练的大语言基础模型、至少一个儿童语料库。
在一种可能的实施例中,可以在开源社区获取大语言模型(Large FoundationModel)作为预训练的大语言基础模型,大语言模型可以处理大规模的自然语言数据,具有良好的语言理解能力。
作为一种示例,可以采用ChatGPT大语言模型、BLOOM大语言模型等模型中的一种或者多种的组合形式作为预训练的大语言基础模型。
本公开采用基于GPT-3.5架构的大语言模型作为预训练的大语言基础模型。
在另一种可能的实施例中,预训练的大语言基础模型还可以为采用预设的中文语料所训练的模型。
在一种可能的实施例中,至少一个儿童语料库可以采用中文儿童语料库和/或中文儿童语料库。
本领域技术人员应当理解,儿童语料库可以综合多种数据源形成,并不局限于中文儿童语料库、英文儿童语料库,还可以采用其他种类的儿童语料库,均落入本公开的保护范围。
S12,将所述至少一个儿童语料库进行预处理,确定儿童语言训练集。
其中,预处理可以采用关键字筛选的自动化方法、专业教育工作者进行人工审核的方法。
经过预处理的儿童语料库形成儿童语言训练集,儿童语言训练集作为指导型训练数据集,用于对预训练的大语言基础模型进行优化处理以及对待训练的大语言模型适配器进行模型训练。
S13,在预训练的大语言基础模型中插入待训练的大语言模型适配器,确定待训练的儿童语言对话模型,大语言模型适配器用于提高大语言基础模型在儿童语言领域的垂直深度。
其中,可以根据预设场景,在大语言基础模型中插入与预设场景对应的大语言模型适配器,经过模型训练的大语言模型适配器可以提高大语言基础模型在预设场景的专业知识领域的垂直深度。
在本公开中,将大语言模型适配器与大语言基础模型的顶部神经网络层进行级联,形成待训练的儿童语言对话模型,大语言模型适配器可以将大语言基础模型适配器调整为遵循指令的模型。
示例地,待训练的大语言模型适配器可以为具有120万参数的适配器。
S14,将儿童语言训练集输入待训练的童语言模型中进行模型处理,确定训练完成的儿童语言对话模型。
其中,通过儿童语言训练集对待训练的大语言模型适配器进行模型训练,大语言模型适配器学习儿童语言领域的专业知识,通过儿童语言训练集对预训练的大语言基础模型进行优化处理,确定训练完成的儿童语言对话模型,示例地,优化处理可以采用反向传播算法,以提高大语言基础模型的模型性能。
在一种可能的实施例中,经过模型训练后的大语言模型适配器可以作为儿童语言领域的场景前置模型。
S15,将待测儿童的语音输入训练完成的儿童语言对话模型中,确定训练完成的儿童语言对话模型预测的语音对话。
在本公开中,训练完成的儿童语言对话模型能够接收待测儿童的语音,与待测儿童进行交互式语音对话,以训练待测儿童的语言能力,。
其中,儿童语言对话模型能够根据待测儿童的语音,预测并生成对话语音。
S16,根据待测儿童的语音与训练完成的儿童语言对话模型预测的语音对话,确定待测儿童的语言能力检测结果。
接上述示例,儿童语言对话模型还可以记录交互式语音对话的内容,并根据语音对话内容对待测儿童的语言能力作出评价。
通过上述技术方案,将至少一个儿童语料库进行预处理,确定儿童语言训练集,在预训练的大语言基础模型中插入待训练的大语言模型适配器,确定儿童语言对话模型,采用大语言模型适配器将大语言基础模型调整为遵循指令的模型,并且,提高大语言基础模型在儿童语料领域的垂直程度;将所述儿童语言训练集输入所述待训练的童语言模型中进行模型处理,确定儿童语言对话模型,通过插入的大语言模型适配器,减少参数训练量,提高模型处理的效率;将待测儿童的语音输入儿童语言对话模型中,确定儿童语言对话模型预测的语音对话,其中,儿童语言对话模型能够根据待测儿童的语音预测语音对话,提高儿童语言对话模型与待测儿童对话之间的灵活性;根据待测儿童的语音与儿童语言对话模型预测的语音对话,确定待测儿童的语言能力检测结果,实现对儿童的语言能力的诊断检测,促进儿童语言发展。
图2是根据一示例性实施例示出的一种确定待训练的儿童语言模型的方法的流程图。
图2是根据一示例性实施例示出的一种确定待训练的儿童语言模型的方法的流程图。如图2所示,在一些可能的实施例中,在所述预训练的大语言基础模型中插入待训练的大语言模型适配器,确定待训练的儿童语言对话模型,包括S21至S22。
S21,确定预训练的大语言基础模型的副本。
复制预训练的大语言基础模型的副本,以在大语言基础模型的副本上插入大语言模型适配器,在多种预设场景的情况下,通过在大语言基础模型的副本上插入大语言模型适配器,形成场景专用的模型,在进行场景切换时,切换场景对应的大语言模型适配器,重置大语言基础模型副本,无需影响大语言基础模型。
S22,根据预设场景,将具有预设参数的待训练的大语言模型适配器通过堆叠处理的方式插入预训练的大语言基础模型的副本的顶部,确定待训练的儿童语言对话模型。
其中,所插入的大语言模型适配器可以为具有120万参数的适配器。
在本公开中,采用堆叠处理的方式插入适配器,以将多个适配器组合起来,形成大语言模型适配器,大语言模型适配器可以根据待测儿童的年龄、性别、语言环境等因素进行调整,以提供精准的语言训练和语言评估。
在一种可能的实施例中,将待训练的大语言模型适配器插入预训练的大语言基础模型中,待训练的大语言模型适配器与预训练的大语言基础模型的副本进行堆叠处理,形成儿童语言领域场景的专用模型,即待训练的儿童语言对话模型。
图3是根据一示例性实施例示出的一种确定训练完成的儿童语言对话模型的方法的流程图。如图3所示,在一些可能的实施例中,所述将所述儿童语言训练集输入所述待训练的儿童语言模型中进行模型处理,确定训练完成的儿童语言对话模型,包括S31至S32。
S31,冻结大语言基础模型的参数。
接上述示例,在对待训练的儿童语言模型中的大语言基础模型进行优化处理时,对大语言基础模型顶部的Transformer层的120万参数进行优化处理,冻结大语言基础模型的其他参数,以减少训练工作量。
S32,根据儿童语言训练集中的适配提示,对大语言模型适配器的参数进行训练,确定与预设场景对应的大语言模型适配器的参数,确定训练完成的儿童语言对话模型。
示例地,在冻结大语言基础模型的参数之后,对大语言模型适配器进行模型训练,针对儿童语言训练集中的可学习领域知识,将其转化为自适应提示,并将自适应提示前置于更高转换层的输入文本标记,引入具有零门控的零初始注意力机制,自适应地将教学线索注入大语言基础模型中,并保留大语言基础模型的预训练知识。
在另一种可能的实施例中,适配提示包括文本指令和图像指令。
还可以将图像标记添加至自适应提示中,从而将儿童语言对话模型的输入扩展至图像输入,以进行多模态推理。
通过上述技术方案,冻结大语言基础模型的参数,对大语言模型适配器的参数进行模型训练,可以微调具有70亿或者130亿参数的大语言基础模型,提高训练效率;采用高质量的指导型儿童语言训练集,有效提高儿童语言对话模型的模型性能和泛化能力,可以适应儿童语言发展测评的需求;本公开还可以拓展至多模态输入,赋予儿童语言对话模型图像推理能力。
在一些可能的实施例中,将图像标记添加至自适应提示中,以将儿童语言对话模型扩展至图像输入,进行多模态推理。
其中,将图像输入儿童语言对话模型中,实现待测儿童识图生成文字功能;在儿童语言对话模型中添加图像生成模块,将待测儿童的语音输入儿童语言对话模型中,实现输出图像的功能。
在一些可能的实施例中,儿童语言对话模型可以作为语言测试工具,评估待测儿童的语言发展水平。
其中,儿童语言对话模型通过询问待测儿童预设的问题,测试待测儿童的词汇量、应用语法能力以及待测儿童对语句的理解能力。
在一些可能的实施例中,还可以根据待测儿童的学习进度、学习兴趣以及语言水平,确定不同难度等级的语言练习,提供针对性方案,以扩大儿童的词汇量、提高待测儿童的语言表达能力、以及提高儿童的语言理解能力。
通过上述技术方案,根据场景训练待测儿童的语言能力,激发待测儿童对语言的兴趣,通过对对话内容的记录,对儿童语言能力进行评估,并给出针对性的解决方案。
在一种可能的实施例中,本公开的实施例所采用的实验平台为Ubuntu 20.04,Python 3.8,采用4块NVIDIA GEFORCE 3090GPU训练和调优深度学习网络,以及pytorch1.12.1深度学习框架,并采用miniconda3创建独立的虚拟环境。
基于同一构思,本公开还提供一种基于大语言模型叠加适配器的儿童语言能力测试装置,图4是根据一示例性实施例示出的一种基于大语言模型叠加适配器的儿童语言能力测试装置的框图,参照图4,该基于大语言模型叠加适配器的儿童语言能力测试装置100包括获取模块110、第一确定模块120、第二确定模块130、第三确定模块140、第四确定模块150、第五确定模块160。
获取模块110,用于获取预训练的大语言基础模型、至少一个儿童语料库;
第一确定模块120,用于将所述至少一个儿童语料库进行预处理,确定儿童语言训练集;
第二确定模块130,用于在所述预训练的大语言基础模型中插入待训练的大语言模型适配器,确定待训练的儿童语言对话模型,所述大语言模型适配器用于提高所述大语言基础模型在儿童语言领域的垂直深度;
第三确定模块140,用于将所述儿童语言训练集输入所述待训练的童语言模型中进行模型处理,确定训练完成的儿童语言对话模型;
第四确定模块150,将待测儿童的语音输入所述儿童语言对话模型中,确定所述训练完成的儿童语言对话模型预测的语音对话;
第五确定模块160,用于根据所述待测儿童的语音与所述训练完成的儿童语言对话模型预测的语音对话,确定待测儿童的语言能力检测结果。
通过上述技术方案,将至少一个儿童语料库进行预处理,确定儿童语言训练集,在预训练的大语言基础模型中插入待训练的大语言模型适配器,确定儿童语言对话模型,采用大语言模型适配器将大语言基础模型调整为遵循指令的模型,并且,提高大语言基础模型在儿童语料领域的垂直程度;将所述儿童语言训练集输入所述待训练的童语言模型中进行模型处理,确定儿童语言对话模型,通过插入的大语言模型适配器,减少参数训练量,提高模型处理的效率;将待测儿童的语音输入儿童语言对话模型中,确定儿童语言对话模型预测的语音对话,其中,儿童语言对话模型能够根据待测儿童的语音预测语音对话,提高儿童语言对话模型与待测儿童对话之间的灵活性;根据待测儿童的语音与儿童语言对话模型预测的语音对话,确定待测儿童的语言能力检测结果,实现对儿童的语言能力的诊断检测,促进儿童语言发展。
可选地,所述第二确定模块130包括:
第一确定子模块,用于确定所述预训练的大语言基础模型的副本;
第二确定子模块,用于根据预设场景,将具有预设参数的待训练的大语言模型适配器通过堆叠处理的方式插入所述预训练的大语言基础模型的副本的顶部,确定待训练的儿童语言对话模型。
可选地,所述第三确定模块140包括:
冻结子模块,用于冻结所述大语言基础模型的参数;
第三确定子模块,用于根据所述儿童语言训练集中的适配提示,对所述大语言模型适配器的参数进行训练,确定与所述预设场景对应的大语言模型适配器的参数,确定训练完成的儿童语言对话模型。
可选地,所述适配提示包括文本指令和图像指令。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图5是根据另一示例性实施例示出的一种基于大语言模型叠加适配器的儿童语言能力测试装置的框图。如图5所示,该基于大语言模型叠加适配器的儿童语言能力测试装置500可以包括:处理器501,存储器502。该基于大语言模型叠加适配器的儿童语言能力测试装置500还可以包括多媒体组件503,输入/输出接口504,以及通信组件505中的一者或多者。
其中,处理器501用于控制该基于大语言模型叠加适配器的儿童语言能力测试装置500的整体操作,以完成上述第一方面的基于基于大语言模型叠加适配器的儿童语言能力测试方法中的全部或者部分步骤。存储器502用于存储各种类型的数据以支持在该基于大语言模型叠加适配器的儿童语言能力测试装置500的操作,这些数据例如可以包括用于在该基于大语言模型叠加适配器的儿童语言能力测试装置500上操作的任何应用程序或方法的指令,以及应用程序相关的数据,例如联系人数据、收发的消息、图片、音频、视频等等。该存储器502可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,例如静态随机存取存储器(Static Random Access Memory,简称SRAM),电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,简称EEPROM),可擦除可编程只读存储器(Erasable Programmable Read-Only Memory,简称EPROM),可编程只读存储器(Programmable Read-Only Memory,简称PROM),只读存储器(Read-Only Memory,简称ROM),磁存储器,快闪存储器,磁盘或光盘。多媒体组件503可以包括屏幕和音频组件。其中屏幕例如可以是触摸屏,音频组件用于输出和/或输入音频信号。例如,音频组件可以包括一个麦克风,麦克风用于接收外部音频信号。所接收的音频信号可以被进一步存储在存储器502或通过通信组件505发送。音频组件还包括至少一个扬声器,用于输出音频信号。输入/输出接口504为处理器501和其他接口模块之间提供接口,上述其他接口模块可以是键盘,鼠标,按钮等。这些按钮可以是虚拟按钮或者实体按钮。通信组件505用于该基于大语言模型叠加适配器的儿童语言能力测试装置500与其他设备之间进行有线或无线通信。无线通信,例如Wi-Fi,蓝牙,近场通信(Near Field Communication,简称NFC),2G、3G、4G、NB-IOT、eMTC、或其他5G等等,或它们中的一种或几种的组合,在此不做限定。因此相应的该通信组件305可以包括:Wi-Fi模块,蓝牙模块,NFC模块等等。
在另一示例性实施例中,还提供了一种包括程序指令的非临时性计算机可读存储介质,该程序指令被处理器执行时实现上述的第一方面的基于大语言模型叠加适配器的儿童语言能力测试方法的步骤。例如,该计算机可读存储介质可以为上述包括程序指令的存储器,上述程序指令可由基于大语言模型叠加适配器的儿童语言能力测试装置的处理器执行以完成上述基于大语言模型叠加适配器的儿童语言能力测试方法。
在另一示例性实施例中,还提供一种计算机程序产品,该计算机程序产品包含能够由可编程的装置执行的计算机程序,该计算机程序具有当由该可编程的装置执行时用于执行上述的基于大语言模型叠加适配器的儿童语言能力测试方法的代码部分。
图6是根据一示例性实施例示出的一种基于大语言模型叠加适配器的儿童语言能力测试系统的框图。如图6所示,在另一示例性实施例中,还提供一种基于大语言模型叠加适配器的儿童语言能力测试系统,包括:
语音识别模块,所述语音识别模块用于获取待测儿童的语音,通过所述语音识别模块将所述待测儿童的语音转化为文字信息;
儿童语言对话模型,所述儿童语言对话模型与所述语音识别模块连接,所述文字信息输入所述儿童语言对话模型,所述儿童语言对话模型输出文字对答信息;
语音播报模块,所述语音播报模块与所述儿童语言对话模型连接,所述文字对答信息输入所述语音播报模块,所述语音播报模块通过语音播放所述文字对答信息。
在另一示例性实施例中,还提供一种终端,包括基于基于大语言模型叠加适配器的儿童语言能力测试系统。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。上述各优选特征在互不冲突的情况下,可以任意组合使用。

Claims (10)

1.一种基于大语言模型叠加适配器的儿童语言能力测试方法,其特征在于,包括:
获取预训练的大语言基础模型、至少一个儿童语料库;
将所述至少一个儿童语料库进行预处理,确定儿童语言训练集;
在所述预训练的大语言基础模型中插入待训练的大语言模型适配器,确定待训练的儿童语言对话模型,所述大语言模型适配器用于提高所述大语言基础模型在儿童语言领域的垂直深度;
将所述儿童语言训练集输入所述待训练的童语言模型中进行模型处理,确定训练完成的儿童语言对话模型;
将待测儿童的语音输入所述训练完成的儿童语言对话模型中,确定所述训练完成的儿童语言对话模型预测的语音对话;
根据所述待测儿童的语音与所述训练完成的儿童语言对话模型预测的语音对话,确定待测儿童的语言能力检测结果。
2.根据权利要求1所述的方法,其特征在于,在所述预训练的大语言基础模型中插入待训练的大语言模型适配器,确定待训练的儿童语言对话模型,包括:
确定所述预训练的大语言基础模型的副本;
根据预设场景,将具有预设参数的待训练的大语言模型适配器通过堆叠处理的方式插入所述预训练的大语言基础模型的副本的顶部,确定待训练的儿童语言对话模型。
3.根据权利要求2所述的方法,其特征在于,所述将所述儿童语言训练集输入所述待训练的童语言模型中进行模型处理,确定训练完成的儿童语言对话模型,包括:
冻结所述大语言基础模型的参数;
根据所述儿童语言训练集中的适配提示,对所述大语言模型适配器的参数进行训练,确定与所述预设场景对应的大语言模型适配器的参数,确定训练完成的儿童语言对话模型。
4.根据权利要求3所述的方法,其特征在于,所述适配提示包括文本指令和图像指令。
5.一种基于大语言模型的儿童语言测评系统的装置,其特征在于,包括
获取模块,用于获取预训练的大语言基础模型、至少一个儿童语料库;
第一确定模块,用于将所述至少一个儿童语料库进行预处理,确定儿童语言训练集;
第二确定模块,用于在所述预训练的大语言基础模型中插入待训练的大语言模型适配器,确定待训练的儿童语言对话模型,所述大语言模型适配器用于提高所述大语言基础模型在儿童语言领域的垂直深度;
第三确定模块,用于将所述儿童语言训练集输入所述待训练的童语言模型中进行模型处理,确定训练完成的儿童语言对话模型;
第四确定模块,将待测儿童的语音输入所述儿童语言对话模型中,确定所述训练完成的儿童语言对话模型预测的语音对话;
第五确定模块,用于根据所述待测儿童的语音与所述训练完成的儿童语言对话模型预测的语音对话,确定待测儿童的语言能力检测结果。
6.根据权利要求5所述的基于大语言模型的儿童语言测评系统的装置,其特征在于,所述第二确定模块包括:
第一确定子模块,用于确定所述预训练的大语言基础模型的副本;
第二确定子模块,用于根据预设场景,将具有预设参数的待训练的大语言模型适配器通过堆叠处理的方式插入所述预训练的大语言基础模型的副本的顶部,确定待训练的儿童语言对话模型。
7.一种基于大语言模型叠加适配器的儿童语言能力测试装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:执行权利要求1~4中任意一项所述的基于大语言模型叠加适配器的儿童语言能力测试方法的步骤。
8.一种非临时性计算机可读存储介质,其上存储有计算机程序指令,其特征在于,该程序指令被处理器执行时实现权利要求1~4中任意一项所述的基于大语言模型叠加适配器的儿童语言能力测试方法的步骤。
9.一种基于大语言模型叠加适配器的儿童语言能力测试系统,其特征在于,包括:
语音识别模块,所述语音识别模块用于获取待测儿童的语音,通过所述语音识别模块将所述待测儿童的语音转化为文字信息;
儿童语言对话模型,所述儿童语言对话模型与所述语音识别模块连接,所述文字信息输入所述儿童语言对话模型,所述儿童语言对话模型输出文字对答信息;
语音播报模块,所述语音播报模块与所述儿童语言对话模型连接,所述文字对答信息输入所述语音播报模块,所述语音播报模块通过语音播放所述文字对答信息。
10.一种终端,其特征在于,包括权利要求9所述的基于大语言模型叠加适配器的儿童语言能力测试系统。
CN202310788163.XA 2023-06-30 2023-06-30 基于大语言模型叠加适配器的儿童语言能力测试方法 Pending CN116595152A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310788163.XA CN116595152A (zh) 2023-06-30 2023-06-30 基于大语言模型叠加适配器的儿童语言能力测试方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310788163.XA CN116595152A (zh) 2023-06-30 2023-06-30 基于大语言模型叠加适配器的儿童语言能力测试方法

Publications (1)

Publication Number Publication Date
CN116595152A true CN116595152A (zh) 2023-08-15

Family

ID=87595883

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310788163.XA Pending CN116595152A (zh) 2023-06-30 2023-06-30 基于大语言模型叠加适配器的儿童语言能力测试方法

Country Status (1)

Country Link
CN (1) CN116595152A (zh)

Similar Documents

Publication Publication Date Title
KR102302137B1 (ko) 외국어 학습장치 및 이를 이용하는 외국어 학습서비스 제공방법
CN110489756B (zh) 会话式人机交互口语测评系统
CN112487139B (zh) 基于文本的自动出题方法、装置及计算机设备
CN110797010A (zh) 基于人工智能的问答评分方法、装置、设备及存储介质
KR102418558B1 (ko) 대화형 인공지능 아바타를 이용한 영어 말하기 교육 방법, 장치 및 이에 대한 시스템
RU2692051C1 (ru) Способ и система для синтеза речи из текста
KR20160008949A (ko) 음성 대화 기반의 외국어 학습 방법 및 이를 위한 장치
CN112542158A (zh) 语音分析方法、系统、电子设备及存储介质
CN110148413B (zh) 语音评测方法及相关装置
CN113486970B (zh) 阅读能力评测方法及装置
JP6656529B2 (ja) 外国語の会話訓練システム
CN114333787A (zh) 口语考试的评分方法、装置、设备、存储介质及程序产品
CN115206342A (zh) 一种数据处理方法、装置、计算机设备及可读存储介质
KR102395702B1 (ko) 문장을 이루는 단위를 단계별 확장하여 스텝화한 영어 교육 서비스 제공 방법
CN111949870A (zh) 一种基于记忆曲线的智能语言学习方法和存储介质
CN114170856B (zh) 用机器实施的听力训练方法、设备及可读存储介质
CN116595152A (zh) 基于大语言模型叠加适配器的儿童语言能力测试方法
CN111128181B (zh) 背诵题评测方法、装置以及设备
CN114255759A (zh) 用机器实施的口语训练方法、设备及可读存储介质
Kasrani et al. A Mobile Cloud Computing Based Independent Language Learning System with Automatic Intelligibility Assessment and Instant Feedback.
CN112560431A (zh) 用于生成试题辅导信息的方法、装置、设备、存储介质以及计算机程序产品
CN114446304A (zh) 语音交互方法、数据处理方法、装置和电子设备
CN111968434A (zh) 一种线上无纸化语言训练与评测的方法和存储介质
Shukla Development of a human-AI teaming based mobile language learning solution for dual language learners in early and special educations
KR102689260B1 (ko) 실시간 음성 인식 기반 강의 통역 플랫폼 운영 서버 및 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination