CN116610218A - Ai数字人的交互方法、装置及系统 - Google Patents
Ai数字人的交互方法、装置及系统 Download PDFInfo
- Publication number
- CN116610218A CN116610218A CN202310694123.9A CN202310694123A CN116610218A CN 116610218 A CN116610218 A CN 116610218A CN 202310694123 A CN202310694123 A CN 202310694123A CN 116610218 A CN116610218 A CN 116610218A
- Authority
- CN
- China
- Prior art keywords
- data
- neural network
- network model
- data set
- digital person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Abstract
本申请提供了一种AI数字人的交互方法、装置及系统,其中,该方法包括:响应于接收到用户的问询请求,调用基于深度学习的第二神经网络模型,生成用于响应问询请求的问询响应;基于问询响应,来驱动AI数字人,以实现AI数字人与用户的交互;其中,第二神经网络模型是通过以下得到的:使用第一神经网络模型的网络参数作为初始参数,并将初始参数应用到第二神经网络模型;基于业务场景确定与业务数据相关的第二数据集,将第二数据集输入到第二神经网络模型中,来训练第二神经网络模型,其中,第一数据集的数据量大于第二数据集的数据量。本申请解决了现有的AI数字人的个性化回应能力不佳的技术问题。
Description
技术领域
本申请涉及数据交互技术领域,具体而言,涉及一种AI数字人的交互方法、装置及系统。
背景技术
AI数字人是利用人工智能技术创建的虚拟人物,其外貌、动作和语音能力具有高度逼真的特点。通过AI算法和技术,AI数字人能够模拟人类的外观、行为和交流方式,使其在视觉和听觉上与真实人类无异。
AI数字人的核心是通过计算机图形学技术进行3D建模和动画。这包括创建虚拟人物的外观特征,如面部结构、身体比例和肌肉定义,以及细节如头发、眼睛、嘴唇等。同时,计算机图形学还能够为虚拟人物添加逼真的动画效果,包括身体动作、表情和姿态。
除了外貌和动作,AI数字人还需要语音合成技术来实现语音表达。通过语音合成技术,AI数字人能够将输入的文本或语音转化为逼真的语音输出。这使得虚拟人物能够与用户进行对话和互动,传递信息和情感。
然而,现有的AI数字人的交互技术,虽然使用了机器学习算法和自然语言处理技术,使AI数字人能够理解和回应用户的提问或互动,但其互动能力通常基于预设的脚本或程序设计,限制了对用户个性化回应的能力。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种AI数字人的交互方法、装置及系统,以至少解决现有的AI数字人的个性化回应能力不佳的技术问题。
根据本发明实施例的一个方面,提供了一种AI数字人的交互方法,包括:响应于接收到用户的问询请求,调用基于深度学习的第二神经网络模型,生成用于响应所述问询请求的问询响应;基于所述问询响应,来驱动AI数字人,以实现所述AI数字人与所述用户的交互;其中,所述第二神经网络模型是通过以下训练得到的:使用第一神经网络模型的网络参数作为初始参数,并将所述初始参数应用到所述第二神经网络模型,其中,所述第一神经网络模型是通过第一数据集训练好的模型,所述第二神经网络模型的网络参数少于所述第一神经网络模型的网络参数;基于业务场景确定与业务数据相关的第二数据集,将所述第二数据集输入到所述第二神经网络模型中,来训练所述第二神经网络模型,其中,所述第一数据集的数据量大于所述第二数据集的数据量。
根据本发明实施例的另一方面,还提供了一种AI数字人的交互装置,包括:生成模块,被配置为响应于接收到用户的问询请求,调用基于深度学习的第二神经网络模型,生成用于响应所述问询请求的问询响应;驱动模块,被配置为基于所述问询响应,来驱动AI数字人,以实现所述AI数字人与所述用户的交互;其中,所述第二神经网络模型是通过以下训练得到的:使用第一神经网络模型的网络参数作为初始参数,并将所述初始参数应用到所述第二神经网络模型,其中,所述第一神经网络模型是通过第一数据集训练好的模型,所述第二神经网络模型的网络参数少于所述第一神经网络模型的网络参数;基于业务场景确定与业务数据相关的第二数据集,将所述第二数据集输入到所述第二神经网络模型中,来训练所述第二神经网络模型,其中,所述第一数据集的数据量大于所述第二数据集的数据量。
根据本发明实施例的又一方面,还提供了一种AI数字人的交互系统,包括:AI数字人生成设备,被配置为渲染所述AI数字人;AI数字人呈现设备,包括如上所述的AI数字人的交互装置,用于呈现所述AI数字人。
在本发明实施例中,使用第一神经网络模型的网络参数作为初始参数,并将所述初始参数应用到所述第二神经网络模型,其中,所述第一神经网络模型是通过第一数据集训练好的模型,所述第二神经网络模型的网络参数少于所述第一神经网络模型的网络参数;基于业务场景确定与业务数据相关的第二数据集,将所述第二数据集输入到所述第二神经网络模型中,来训练所述第二神经网络模型,其中,所述第一数据集的数据量大于所述第二数据集的数据量,从而解决了现有的AI数字人的个性化回应能力不佳的技术问题。
附图说明
构成本申请的一部分的说明书附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例的一种AI数字人的交互方法的流程图;
图2是根据本申请实施例的一种生成用于响应所述问询请求的问询响应方法的流程图;
图3是根据本申请实施例的另一种AI数字人的交互方法的流程图;
图4是根据本申请实施例的一种第二神经网络模型的训练方法的流程图;
图5是根据本申请实施例的一种数据预处理方法的流程图;
图6是根据本申请实施例的一种AI数字人的交互装置的结构示意图;
图7是根据本申请实施例的一种AI数字人的交互系统的架构示意图;
图8示出了适于用来实现本公开实施例的电子设备的结构示意图。
其中,上述附图包括以下附图标记:
1001、CPU;1002、ROM;1003、RAM;1004、总线;1005、I/O接口;1006、输入部分;1007、输出部分;1008、存储部分;1009、通信部分;1010、驱动器;1011、可拆卸介质;100、AI数字人的交互系统;101、第一终端设备;102、第二终端设备;103、第三终端设备;104、网络;105、服务器;62、生成模块;64、驱动模块。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本申请的范围。同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为授权说明书的一部分。在这里示出和讨论的所有示例中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它示例可以具有不同的值。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
实施例1
本申请实施例提供了一种AI数字人的交互方法,如图1所示,该方法包括以下步骤:
步骤S102,响应于接收到用户的问询请求,调用基于深度学习的第二神经网络模型,生成用于响应所述问询请求的问询响应。
本申请实施例中,所述第二神经网络模型是通过以下训练得到的:使用第一神经网络模型的网络参数作为初始参数,并将所述初始参数应用到所述第二神经网络模型,其中,所述第一神经网络模型是通过第一数据集训练好的模型,所述第二神经网络模型的网络参数少于所述第一神经网络模型的网络参数;基于业务场景确定与业务数据相关的第二数据集,将所述第二数据集输入到所述第二神经网络模型中,来训练所述第二神经网络模型,其中,所述第一数据集的数据量大于所述第二数据集的数据量。
本申请实施例中,通过使用第一神经网络模型的网络参数作为初始参数,可以将第一神经网络模型在第一数据集上学习到的知识和特征迁移到第二神经网络模型中。这样,第二神经网络模型可以从第一神经网络模型中受益,并且在开始训练阶段就具有一定的学习能力和表达能力,加速了第二神经网络模型的收敛过程。此外,第二神经网络模型的网络参数少于第一神经网络模型的网络参数,这样,有助于减少模型的复杂性和计算负担,使得第二神经网络模型更轻量化、更高效,并且,还可以减少过拟合的风险,提高模型的泛化能力。最后,通过使用与业务相关的数据集进行训练,可以使第二神经网络模型更好地适应实际业务需求,提高模型在实际场景中的表现能力。
具体地,如图2所示,步骤S102包括以下子步骤:
步骤S1022,基于业务场景确定业务数据。
首先,对于特定的业务场景,确定业务需求和目标。了解业务的核心任务、用户的需求以及期望的AI数字人的功能和表现是关键。然后,根据业务需求,收集与业务场景相关的业务数据。这些数据可以包括用户的问询请求、对应的回答或解决方案、用户的反馈等。还可以考虑收集与业务场景相关的对话数据、问题与答案的匹配数据、用户行为数据等。
步骤S1024,对业务数据进行预处理。
1)数据验证。
例如,基于所述数据格式,检查所述业务数据是否符合预定义的格式要求;基于所述数据类型,验证所述业务数据中的每个字段是否具有所期望的值范围和数据类型;基于数据逻辑,识别并剔除所述业务数据中的异常值。通过验证数据的格式、数据类型和数据逻辑这样的预处理,可以提高数据质量,减少后续处理中的错误和问题,从而增加数据分析和决策的准确性和可靠性。
2)数据清洗。
例如,基于关键字段,去除所述业务数据中的重复记录,以确保所述第二数据集中每条记录的唯一性;识别所述业务数据中的缺失数据,并基于所述缺失数据的相关数据进行插补;将所述业务数据转换为预设的统一的格式,以确保所述第二数据集中每条记录的格式一致性。
本实施例,通过去除重复记录,可以确保第二数据集中每条记录的唯一性,避免重复数据对分析和决策造成的干扰。识别缺失数据并进行插补可以填充数据的空白部分,保证数据的完整性和可用性。将业务数据转换为预设的统一格式可以确保第二数据集中每条记录具有一致的格式,使数据在后续处理和分析过程中更易于处理和比较。通过数据清洗,可以提高数据的准确性、完整性和一致性,为后续的数据分析和决策提供可靠的基础。
3)数据一致性处理。
例如,应用强制约束条件,来保持所述业务数据的内容一致性;对应用了所述强制约束条件的所述业务数据,通过判断所述业务数据的关联关系是否一致和有效,来进一步验证所述业务数据的一致性。
通过应用强制约束条件,可以确保业务数据的内容一致性,例如要求特定字段满足特定的取值范围或条件。这样可以防止数据中出现不符合预期的值或逻辑错误。同时,通过验证业务数据的关联关系是否一致和有效,可以进一步确认数据之间的关联性,例如判断外键关联的数据是否存在、是否符合预期的关系。通过数据一致性处理,可以提高数据的质量和可靠性,确保业务数据在各个层面上保持一致,为后续的数据分析、决策和应用提供准确可信的基础。
步骤S1026,将预处理后的第二数据集输入到第二神经网络模型中,训练第二神经网络模型。
在一些实施例中,可以将所述第二数据集输入到所述第二神经网络模型中,基于预设的损失函数和所述第二数据集来计算所述第二神经网络模型的损失值;然后,通过链式法则计算所述第二神经网络模型的每个网络参数对所述损失值的梯度信息;最后,基于所述梯度信息,利用预设的优化器函数来对所述第二神经网络模型的每个网络参数进行更新,以训练所述第二神经网络模型。例如,根据学习率和所述梯度信息中的梯度大小来计算所述每个网络参数的更新量;将所述每个网络参数的更新量应用到相应的网络参数上,更新第二神经网络模型的每个网络参数。
本实施例通过计算损失值和利用梯度信息,可以优化第二神经网络模型的性能和准确度。通过更新网络参数,可以逐步优化并提高模型的泛化能力。同时,还可以加速训练过程,节省时间和计算资源。通过自适应学习,可以适应不同的业务数据集,提高其适应性和可靠性。综上,本实施例通过上述训练方法有助于改进模型性能、优化参数、加速训练,并实现自适应学习,从而提高模型的准确性和适应性。
步骤S1028,将接收到的用户的问询请求输入到训练好的第二神经网络模型中,得到用于响应所述问询请求的问询响应。
首先,用户的问询请求将被预处理和转换成适当的格式,以满足第二神经网络模型输入的要求。接下来,经过预处理后的问询请求将被馈送到第二神经网络模型中进行推理。第二神经网络模型会对输入的问询请求进行处理,通过深度学习的算法和模型内部的权重参数,将输入的文本转化为潜在的语义表示。最后,第二神经网络模型将根据其内部的计算和推理过程生成用于响应问询请求的问询响应。这个响应可以是一个文本回答、建议、解释或其他形式的交互性反馈,以满足用户的需求和期望。
步骤S104,基于所述问询响应,来驱动AI数字人,以实现所述AI数字人与所述用户的交互。
根据用户的问询响应,可以驱动AI数字人指导用户进行特定的操作或流程。例如,AI数字人可以引导用户完成在线购物流程,填写表单或提交申请。或者,AI数字人基于问询响应,驱动自身执行特定任务。例如,AI数字人可以代表用户发送电子邮件、预订会议室或执行网上支付等操作。或者,AI数字人根据问询响应的内容,能够根据用户的偏好和需求,提供个性化的服务。例如,AI数字人可以根据用户的喜好为其推荐适合的电影、音乐或旅游目的地。或者,AI数字人通过问询响应,能够与用户进行实时的反馈和互动。例如,AI数字人可以回答用户的疑问、解决问题,并根据用户的反馈做出相应调整和改进。
综上所述,本实施例可以充分利用第一神经网络模型的网络参数和第一数据集的先验经验,加速第二神经网络模型的收敛过程,并且通过业务数据集的训练,使第二神经网络模型更好地适应业务场景,提高模型的泛化能力和实际应用效果。
实施例2
本申请实施例提供了另一种AI数字人的交互方法,如图3所示,该方法包括以下步骤:
步骤S302,构建并训练第二神经网络模型。
为了构建并训练第二神经网络模型,将使用第一神经网络模型的网络参数作为初始参数。第一神经网络模型是通过一个大型数据集进行训练得到的,其中包含了大量的问询请求和相应的响应,例如chatGPT模型。第二神经网络模型的网络参数少于第一神经网络模型,并使用一个与业务数据相关的第二数据集来训练第二神经网络模型。第二数据集是根据具体业务场景确定的,相对于第一数据集,它的数据量较小,并且具有企业私有属性。
将把第一神经网络模型的网络参数应用到第二神经网络模型中,作为初始参数。然后,将使用第二数据集作为输入,来训练第二神经网络模型。通过这样的训练过程,第二神经网络模型将学习到业务场景相关的模式和信息。
构建并训练第二神经网络模型的方法将在下文详细描述,此处不再赘述。
步骤S304,接收到用户的问询请求,第二神经网络模型输出问询响应。
当接收到用户的问询请求时,使用已经构建并训练好的第二神经网络模型来生成相应的问询响应。首先,将接收到的用户问询请求作为输入提供给第二神经网络模型。该模型会经过一系列的计算和处理,基于其学习到的模式和信息,产生一个针对该问询请求的响应。
第二神经网络模型经过训练,能够根据问题的上下文、语义和先前的对话历史来生成合理且相关的问询响应。模型在处理用户的问询请求时,可以利用深度学习的技术进行语义理解、语言生成和上下文理解。这样,模型能够生成与用户问询请求匹配的响应,以满足用户的需求。
步骤S306,AI数字人向用户反馈问询响应。
当第二神经网络模型生成了问询响应后,AI数字人将把该响应反馈给用户。AI数字人可以将问询响应传递给用户。
通过AI数字人的反馈,用户可以获得对其问询请求的实时响应,并与AI数字人进行进一步的交互。这样的交互可以涉及进一步的问题澄清、解释、建议或指导等。AI数字人的目标是与用户建立一个自然流畅的对话,以满足用户的需求并提供有价值的信息和帮助。
图4是根据本申请实施例的一种第二神经网络模型的训练方法的流程图,如图4所示,该方法包括以下步骤:
步骤S402,数据收集。
首先,要全面理解企业特定的业务场景和目标。即,了解业务的核心任务、用户需求以及期望的AI数字人的功能和表现。这样可以明确要解决的问题,并确定需要的数据类型和质量标准。然后,根据对业务场景的理解,确定需要哪些类型的数据。可以包括用户的问询请求、对应的回答或解决方案、用户的反馈等。还可以考虑收集与业务场景相关的对话数据、问题与答案的匹配数据、用户行为数据等。确保明确数据的格式、内容和结构。根据确定的数据需求,寻找可用的数据源。这可以包括已有的数据集、公开可用的数据集、用户反馈渠道、日志文件等。
根据数据需求和可用数据源,采取适当的方法来收集业务数据。例如,可以记录用户的问询和回答,收集对话数据,使用爬虫程序从互联网上收集数据,或者设置数据收集工具来捕获用户行为数据等。并且,尽可能收集足够的数据量和多样性,以涵盖不同情况和用例。这有助于提高训练模型的泛化能力,并在不同场景下获得良好的性能。
步骤S404,数据预处理。
数据预处理的方法如图5所示,包括以下步骤:
步骤S4042,基于所述业务数据的数据格式、数据类型和数据逻辑对所述业务数据进行数据验证。
首先,需要定义业务数据的预期格式。例如,可以是一个结构化的表格,包含特定列和行的信息,或者是一种特定的数据文件格式。基于这个格式要求,可以编写验证规则来检查业务数据是否符合这些要求。然后,使用编写的验证规则,对业务数据进行格式验证。例如,可以检查数据文件的结构、列的命名规则、数据字段的顺序等。如果数据不符合预定义的格式要求,将被标记为格式错误,并进行相应的处理或通知。
接下来,针对每个数据字段,确定其期望的数据类型和值范围。例如,某个字段可以是整数类型,且值应在特定范围内。对于每个字段,可以定义相应的验证规则,以确保业务数据中的字段类型和值范围符合预期。使用验证规则,对业务数据中的每个字段进行数据类型和值范围验证。如果某个字段的值不在预期的类型或值范围内,将被标记为数据错误,并采取相应的措施进行处理或通知。
最后,基于业务的逻辑规则,进一步验证业务数据的准确性。例如,可以检查字段之间的关系、依赖关系以及其他特定的业务逻辑。如果存在必需的关联字段,可以验证这些字段是否都存在且符合预期的关联逻辑。
步骤S4044,对所述数据验证后的所述业务数据进行数据清洗。
首先,基于关键字段,对业务数据进行去重操作。关键字段是能够唯一标识每条记录的字段,如ID、唯一标识符或组合字段。通过比较关键字段的值,识别并删除重复的记录,以确保第二数据集中每条记录的唯一性。
然后,对业务数据进行缺失数据的识别。检查每个字段是否存在缺失值,即空值或未填充的字段。一旦识别到缺失数据,可以根据相关数据的规律或算法,进行插补操作来填充缺失值。常用的插补方法包括均值、中位数、最近邻等。这样可以确保数据的完整性,并减少缺失数据对后续分析和决策的影响。
最后,将业务数据转换为预设的统一格式。将数据转换为一致的数据结构和标准化的数据格式,以确保第二数据集中每条记录具有相同的格式和字段顺序。例如,可以将所有日期字段统一为特定的日期格式,将文本字段进行标准化或去除不必要的特殊字符。这样可以简化数据处理和比较,并确保数据的一致性和可比性。
步骤S4046,对所述数据清洗后的所述业务数据进行数据一致性处理。
通过应用强制约束条件,可以确保业务数据的内容一致性。这些约束条件可以包括数据类型、取值范围、唯一性要求、非空要求等。例如,对于某个字段,可以定义其取值范围为1到100,或要求该字段不能为空。这样的约束条件可以防止不符合预期的值或逻辑错误的数据被插入或更新到数据库中。
对应用了强制约束条件的业务数据,需要进一步验证其关联关系是否一致和有效。这包括验证数据之间的关联关系是否符合预期的逻辑和约束。例如,如果两个表通过外键关联,验证外键关联的数据是否存在,以及是否符合预期的关系。这可以确保数据之间的关联性正确,避免数据关系的混乱或错误。
在数据一致性处理中,还需要关注数据的类型和格式的一致性。这包括确保日期、时间、货币等数据类型的一致性,以及数据的格式规范化,例如统一使用特定的日期格式或货币符号。通过统一数据类型和格式的定义,可以提高数据的可比性和可解释性,避免由于数据类型和格式差异引起的数据不一致性。
在对业务数据进行更新或删除操作时,需要保证数据的一致性。这包括在进行数据更新或删除之前,验证相关的约束条件和关联关系是否满足,以及在数据更新或删除操作完成后,再次验证数据的一致性。这样可以确保数据的更新和删除操作不会破坏数据的一致性,避免不正确或不完整的数据操作对系统产生负面影响。
本实施例,通过应用强制约束条件、验证关联关系、确保数据类型和格式一致性,以及保证数据更新和删除的一致性,可以提高业务数据的质量和可靠性,确保数据在各个层面上保持一致。这为后续的数据分析、决策和应用提供准确可信的基础,增强系统的稳定性和可用性。数据一致性处理是建立健壮的数据管理和处理流程的重要组成部分,对于任何依赖于数据的业务和应用都至关重要。
步骤S406,构建并训练第二神经网络模型。
首先,可以通过仿照第一神经网络模型的网络结构来创建第二神经网络模型。本实施例中,第一神经网络模型可以是卷积神经网络(CNN)、循环神经网络(RNN)、长短期记忆网络(LSTM)、变压器模型(Transformer)或其他类型的神经网络模型。例如,可以是chatGPT的网络结构。
本实施例中,采用CNN卷积神经网络与LSTM长短时记忆神经网络组合的方式来构建结构与第一神经网络模型的网络结构类似的第二神经网络模型。例如,在前端添加CNN神经网络层、然后在其输出上添加LSTM神经网络层。利用CNN神经网络的卷积层和池化层从业务数据中提取数据特征,并得到特征矩阵,之后,将特征矩阵输入到LSTM神经网络中,利用LSTM神经网络来进行序列预测。
下面将详细描述第二神经网络模型的构建及训练过程。
1)搭建CNN卷积神经网络。
为了搭建CNN卷积神经网络,首先需要将经过预处理的业务数据作为输入层。预处理的过程有助于减少训练时间,并加快网络的收敛速度。
卷积层是CNN卷积神经网络的核心组成部分。在本实施例中,选择了64个卷积核,每个卷积核的大小为4x4,并使用2x2的池化层。卷积层对业务数据进行卷积操作,从中提取特征并生成特征矩阵。卷积层的主要作用是通过神经网络对业务数据进行深度分析,从而获得更抽象的数据特征。
池化层位于连续的卷积层之间,它能够进一步减少节点参数和数据压缩,降低过拟合的风险,但不改变原有特征。池化层通过下采样来降低空间维度,使第二神经网络模型能够提取更广泛的特征,同时减小下一层的输入大小,从而减少计算量和参数数量。
此外,池化层还具有平移不变性、旋转不变性和尺度不变性的特点,并且在一定程度上有助于防止过拟合,更便于优化。它对经过卷积层处理后的数据特征进行最大池化操作,并改变数据特征的维度,然后将经过最大池化的数据输入到LSTM神经网络中。
2)搭建LSTM神经网络。
LSTM神经网络是循环神经网络(RNN)的一种扩展形式,用于有效处理时间序列上的问题。RNN网络考虑先前的输出,并将其存储在存储器中一段时间,然后基于短期记忆处理当前输入。然而,RNN存在无法长时间存储信息和无法有效控制保留或遗忘哪些部分的问题。而LSTM神经网络通过引入一些机制来弥补这些问题。
在基于业务数据渲染三维模型时,仅依靠CNN网络来感测业务数据会导致生成的问询响应存在响应不准确的技术问题。在本实施例中,采用LSTM神经网络,不仅考虑到前后时序的语义,而且长期储存记忆,从而有效地弥补了业务数据的问询响应的不准确性。此外,LSTM神经网络还提供了丰富的参数,如学习率、输入和输出偏差,将权重更新的复杂度降至最低。
LSTM神经网络的单元结构包括输入门、遗忘门和输出门,其中遗忘门起着关键作用。输入门控制新信息的流入,输出门用于控制输出值并确定下一个隐藏状态,而遗忘门则决定保留或丢弃哪些信息。
在本实施例中,LSTM神经网络的存储器体系结构由具有自连接的线性单元组成,这些单元不断学习和更新权重。这种结构允许保留流入该自连接单元的值(正向传递)或梯度(反向传递),并在需要的时间步长内进行检索。在本实施例中,通过使用单位乘法,将上一个时间步长的输出设置为与下一个时间步长的输出相等。这种自连接单元,能够存储过去几十个时间步长的信息。例如,在处理业务数据时,LSTM存储单元可以储存前一句话所包含的信息,并将其应用于当前语义分析中。
在本实施例中,LSTM神经网络中的存储单元具有连续的梯度流,从而消除了梯度消失的问题,并能够从数百个时间步长的序列中学习。通过相应地调整权重以减少相对于特定权重集的损失,LSTM神经网络中的存储单元具有连续的梯度流,这消除了梯度消失的问题,并且使其能够从数百个时间步长的序列中学习。
通过计算梯度与学习率的乘积,其中学习率通常为介于0.1至0.001之间的较小值,得到一个相对较小的值。这样,权重的变化非常微小,产生的结果与之前几乎相同,从而消除了梯度消失的问题。同样地,如果梯度值因权重值而变得非常大,权重将被更新到超出最优值的范围。这解决了在相关技术中梯度随着每一层变小,最终变得太小以影响最深层的问题。
当业务数据在上一个时间序列和下一个时间序列之间存在不连贯性或误差时,希望丢弃存储单元中的信息,并用更新后的相关信息替换它们。在本实施例中,利用LSTM神经网络的遗忘门来删除存储单元中的信息。例如,遗忘门通过将存储单元的值乘以介于0和1之间的数字来删除或保留相关内容。这样,不会将存在误差的信息传递到LSTM神经网络中,从而避免了潜在的混淆。
此外,在本实施例中,LSTM神经网络采用了双向输入的方式,即一个输入正常训练数据,另一个输入反向训练数据。这样,通过允许未来数据为时间序列中的过去数据提供上下文,可以改善LSTM神经网络的性能。当然,在其他实施例中,也可以采用单向训练数据的方式。总的来说,本实施例中通过引入存储单元、遗忘门和双向输入等机制,克服了传统RNN的限制。它能够处理时间序列上的长期依赖关系和信息保留问题,提供更连贯和准确的预测结果。
3)将第一神经网络模型的参数复制到第二神经网络模型中。
在使用第一神经网络模型的网络参数作为初始参数、并将其应用到第二神经网络模型时,需要考虑到两个关键方面。首先,第一神经网络模型是通过第一数据集进行训练得到的,而第二神经网络模型的网络参数较少。其次,需要确保在应用初始参数时,第二神经网络能够有效地学习和适应第二数据集的特征。
当使用第一神经网络模型的网络参数作为初始参数时,本实施例采用“迁移学习”的方法。迁移学习是一种利用一个任务上学习到的知识来帮助另一个相关任务的方法。在这种情况下,第一神经网络模型已经在第一数据集上训练得到了一些有用的特征表示和权重分布。
可以选择性地冻结第一神经网络模型的部分参数,以防止其过度干扰第二神经网络模型的训练过程。本实施例中,冻结第一神经网络模型的前三层的参数,因为这些层更加通用且包含了较为普遍的特征表示。通过冻结这些参数,第二神经网络模型可以专注于学习适应第二数据集的更加特定和细粒度的特征。
4)训练CNN卷积神经网络和LSTM神经网络组合构成的第二神经网络模型。
在训练过程中,主要目标是最小化在观察到的损失后,将训练数据输入到第二神经网络模型中。
首先,将训练数据划分为适用于CNN神经网络处理的子序列。例如,对于单变量时间序列数据,可以将其拆分为输入/输出样本,其中每个输入样本包含四个时间步长,而输出样本则包含一个时间步长。然后,每个样本可以被进一步划分为两个子样本,每个子样本包含两个时间步长。CNN神经网络可以对这两个时间步长的子序列进行特征提取,并将子序列的时间序列作为输入传递给LSTM神经网络进行处理。
接下来,计算LSTM神经网络中每个神经元的参数。这包括计算正向传播参数和反向传播参数,并计算输出层的误差项。在正向传播方向上,利用正向传播参数从当前的训练步数开始计算输出层中相邻两个神经元之间的误差项。而在反向传播方向上,利用反向传播参数从当前的训练步数开始计算输出层中相邻两个神经元之间的误差项。通过计算这些误差项,可以为网络的超参数更新权重提供依据。
最终目标是通过反复迭代上述步骤来优化CNN卷积神经网络和LSTM神经网络的参数,以最小化在这两个网络中观察到的损失。这样,这两个网络将能够更好地学习和理解输入数据,并提高其性能和预测能力。通过合理调整网络的超参数和权重,可以使CNN和LSTM神经网络更好地适应训练数据,并在处理新的输入时表现出更好的泛化能力。
在训练完第二神经网络模型后,需要对其进行优化。通常情况下,随机梯度下降采用统一的学习率来更新所有权重,并且学习率在训练过程中保持不变。然而,每个网络权重可以具有不同的学习率,并且可以根据训练进行独立调整。
5)优化第二神经网络模型。
本实施采用自适应学习率的方法,根据历史梯度信息来计算不同参数的学习率。这样,使得学习率是一个自适应变化的参数,而不是固定不变的。
在优化过程中,可以根据当前梯度的一阶矩估计和二阶矩估计来计算学习率。一阶矩估计表示梯度的平均值,反映了参数更新的方向和幅度,而二阶矩估计表示梯度的方差或变化程度,用于调整参数在搜索方向上的移动强度。通过控制二阶矩估计的大小,可以影响参数更新的速度和幅度。较大的二阶矩估计表示梯度变化较大,参数更新会更激进。较小的二阶矩估计表示梯度变化较小,参数更新会更稳定。一阶矩估计和二阶矩估计在优化过程中平衡了参数更新的幅度,使得参数可以根据梯度的变化情况自适应地进行调整。这有助于加速模型的收敛并提高优化效果。
具体的优化方法包括以下步骤:
5.1)计算一阶矩估计和二阶矩估计。
本实施例中,一阶矩估计是根据各个梯度对应的时间来计算的,越接近当前梯度权重越大,例如,计算一阶矩估计的公式可以如下:
其中,gi表示第i个梯度,wi表示第i个梯度的权重,n表示梯度的个数,其中,n越大的梯度越接近当前梯度。
上述计算一阶矩估计的方法,考虑了梯度的对应时间,将权重与梯度的对应时间相关联。例如,对于梯度的对应时间距离当前梯度的时间较远的情况,可以将其权重调整为较小的值,从而在计算一阶矩估计时减小其对结果的影响。这样可以更加准确地反映出一阶矩估计的值。
本实施例中的二阶矩估计是使用概率密度估计方法将复杂的概率密度函数建模为多个高斯分布的加权和,每个高斯分布表示一个成分,加权系数表示每个成分在总体中的比例。使用K个高斯分布对数据进行建模。对于第k个高斯分布,它的权重为wk,均值为μ,协方差矩阵为Σ。对于梯度gi,它对高斯分布k的贡献可以表示为:
其中,θk为第k个高斯分布对应的参数向量,gi为第i个梯度,μk为第k个高斯分布的均值,K为高斯分布的数量,D为特征向量的维度,Σk为第k个高斯分布的协方差矩阵。将协方差矩阵展平为一个向量,这样每个高斯分布k的向量可以表示为:
最后,二阶矩估计可以通过计算每个高斯分布k对应的向量和高斯分布k的贡献的方差得到。
本实施例通过计算每个高斯分布的向量和贡献的方差得到用来描述梯度变化的方差或变化程度的二阶矩估计,这对于优化算法中的学习率调整和参数更新具有重要意义,可以帮助控制参数更新的速度和幅度,提高优化效果。
5.2)计算学习率。
例如,在计算学习率时,可以使用下述公式:
其中,β1和β2是当前的训练步数的第一矩估计衰减率和第二矩估计衰减率,t表示当前的训练步数,αt-1是上一训练步数的学习率,αt是当前训练步数的学习率,∈是一个小常数,m是当前梯度的一阶矩估计,v是二阶矩估计。
本实施例通过引入第一矩估计衰减率和第二矩估计衰减率,可以控制这两个矩估计的衰减速度。较大的衰减率会使估计值更快地衰减,从而更加重视最近的梯度信息;而较小的衰减率会使估计值衰减得更慢,保留更多的历史梯度信息。
5.3)优化权重。
在计算得到自适应的学习率之后,每一个网络参数的权重更新公式可以优化如下:
其中,wt表示当前的训练步数的权重,wt-1表示上一训练步数的权重。
本实施例引入了学习率的自适应变化,根据先前梯度的一阶矩和二阶矩估计来动态调整学习率。这样可以使得学习率在训练过程中适应数据的变化情况,更有效地指导参数的更新。此外,每个网络权重可以具有不同的学习率,独立地进行调整。这使得不同的权重可以根据其梯度情况进行个别的更新,从而更好地适应不同权重的特征和重要性。并且,通过计算梯度的一阶矩和二阶矩的偏差修正项(即矩估计衰减率调整后的一阶矩和二阶矩),可以在训练初期对估计的一阶矩和二阶矩进行校正。这样可以改善优化过程的稳定性和收敛性能。最后,通过二阶矩估计调整在搜索方向上的移动强度,可以控制参数更新的速度和幅度。较大的二阶矩估计意味着梯度的变化较大,参数更新会更加激进。而较小的二阶矩估计则意味着梯度的变化较小,参数更新会更加稳定。这样可以平衡参数更新的幅度,使其根据梯度的变化情况自适应地进行调整,有助于加速模型的收敛。总之,通过使用上述方法,可以更有效地优化神经网络模型,提高收敛速度,增强模型的泛化能力,并达到更好的优化效果。
在本实施例中,为了减少CNN卷积神经网络和LSTM神经网络的误差,并避免陷入局部最优解,对时间序列进行了反向传播和归一化处理。然后,对LSTM神经网络的各层权重和学习率进行学习,以得到经过训练的第二神经网络模型。通过优化第二神经网络模型,可以对误差进行补偿,提高问询响应的准确度。
本实施例中,为了减少CNN卷积神经网络和LSTM神经网络的误差,避免陷入局部最优解,对时间序列进行反向传播和归一化处理,然后对LSTM神经网络的各层权值和学习率进行学习,以得到训练后的第二神经网络模型,从而可以基于准确的第二神经网络模型对惯性传感器的误差进行补偿。并且,通过优化第二神经网络模型,将误差收敛于0.001,从而提高了问询响应的准确度。
实施例3
本申请实施例提供了一种AI数字人的交互装置,如图6所示,包括:生成模块62和驱动模块64。
生成模块62被配置为响应于接收到用户的问询请求,调用基于深度学习的第二神经网络模型,生成用于响应所述问询请求的问询响应;驱动模块64被配置为基于所述问询响应,来驱动AI数字人,以实现所述AI数字人与所述用户的交互;其中,所述第二神经网络模型是通过以下训练得到的:使用第一神经网络模型的网络参数作为初始参数,并将所述初始参数应用到所述第二神经网络模型,其中,所述第一神经网络模型是通过第一数据集训练好的模型,所述第二神经网络模型的网络参数少于所述第一神经网络模型的网络参数;基于业务场景确定与业务数据相关的第二数据集,将所述第二数据集输入到所述第二神经网络模型中,来训练所述第二神经网络模型,其中,所述第一数据集的数据量大于所述第二数据集的数据量。
需要说明的是:上述实施例提供的AI数字人的交互装置,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的AI数字人的交互装置与AI数字人的交互方法实施例属于同一构思,其具体实现过程详见方法实施例,此处不再赘述。
实施例4
本申请实施例提供了一种AI数字人的交互系统,如图7所示,AI数字人的交互系统可以包括终端设备例如第一终端设备101、第二终端设备102、第三终端设备103中的一个或多个、网络104和服务器105。其中,终端设备相当于AI数字人的显示设备,服务器相当于AI数字人的生成设备。当然在另外一些实施例中,终端设备既可以相当于AI数字人的显示设备,又可以相当于AI数字人的生成设备。
网络104用以在第一终端设备101、第二终端设备102、第三终端设备103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。第一终端设备101、第二终端设备102、第三终端设备103可以是具有显示屏的各种电子设备,包括但不限于台式计算机、便携式计算机、智能手机和平板电脑等等。应该理解,图7中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器105可以是多个服务器组成的服务器集群等。
服务器105接收到问询请求之后,执行本公开实施例所提供的AI数字人的交互方法,生成问询响应,并推送给第一终端设备101、第二终端设备102、第三终端设备103。
本公开实施例所提供的AI数字人的交互方法一般由服务器105执行,相应地,AI数字人的交互装置一般设置于服务器105中。但本领域技术人员容易理解的是,本公开实施例所提供的AI数字人的交互方法也可以由第一终端设备101、第二终端设备102、第三终端设备103执行,相应的,AI数字人的交互装置也可以设置于第一终端设备101、第二终端设备102、第三终端设备103中,本示例性实施例中对此不做特殊限定。
在一些示例性实施例中,可以是用户通过第一终端设备101、第二终端设备102、第三终端设备103上的应用程序与AI数字人交互,服务器105通过本公开实施例所提供的AI数字人的交互系统,生成问询响应,并将问询响应发送给第一终端设备101、第二终端设备102、第三终端设备103等。第一终端设备101、第二终端设备102、第三终端设备103也可以基于问询请求,直接生成问询响应,并通过本地的AI数字人将问询响应反馈给用户。
实施例5
图8示出了适于用来实现本公开实施例的电子设备的结构示意图。需要说明的是,图8示出的电子设备仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图8所示,该电子设备包括中央处理单元(CPU)1001,其可以根据存储在只读存储器(ROM)1002中的程序或者从存储部分1008加载到随机访问存储器(RAM)1003中的程序而执行各种适当的动作和处理。在RAM1003中,还存储有系统操作所需的各种程序和数据。CPU1001、ROM1002以及RAM1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
以下部件连接至I/O接口1005:包括键盘、鼠标等的输入部分1006;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分1007;包括硬盘等的存储部分1008;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分1009。通信部分1009经由诸如因特网的网络执行通信处理。驱动器1010也根据需要连接至I/O接口1005。可拆卸介质1011,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1010上,以便于从其上读出的计算机程序根据需要被安装入存储部分1008。
特别地,根据本公开的实施例,下文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分1009从网络上被下载和安装,和/或从可拆卸介质1011被安装。在该计算机程序被中央处理单元(CPU)1001执行时,执行本申请的方法和装置中限定的各种功能。在一些实施例中,电子设备还可以包括AI(ArtificialIntelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
需要说明的是,本公开所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现如下述实施例中所述的方法。例如,所述的电子设备可以实现上述方法实施例的各个步骤等。
上述实施例中的集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在上述计算机可读取的存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在存储介质中,包括若干指令用以使得一台或多台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。
在本申请的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的终端设备,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。
Claims (10)
1.一种AI数字人的交互方法,其特征在于,包括:
响应于接收到用户的问询请求,调用基于深度学习的第二神经网络模型,生成用于响应所述问询请求的问询响应;
基于所述问询响应,来驱动AI数字人,以实现所述AI数字人与所述用户的交互;
其中,所述第二神经网络模型是通过以下训练得到的:
使用第一神经网络模型的网络参数作为初始参数,并将所述初始参数应用到所述第二神经网络模型,其中,所述第一神经网络模型是通过第一数据集训练好的模型,
所述第二神经网络模型的网络参数少于所述第一神经网络模型的网络参数;
基于业务场景确定与业务数据相关的第二数据集,将所述第二数据集输入到所述第二神经网络模型中,来训练所述第二神经网络模型,其中,所述第一数据集的数据量大于所述第二数据集的数据量。
2.根据权利要求1所述的方法,其特征在于,将所述第二数据集输入到所述第二神经网络模型中,来训练所述第二神经网络模型,包括:
将所述第二数据集输入到所述第二神经网络模型中,基于预设的损失函数和所述第二数据集来计算所述第二神经网络模型的损失值;
通过链式法则计算所述第二神经网络模型的每个网络参数对所述损失值的梯度信息;
基于所述梯度信息,利用预设的优化器函数来对所述第二神经网络模型的每个网络参数进行更新,以训练所述第二神经网络模型。
3.根据权利要求2所述的方法,其特征在于,利用预设的优化器函数来对所述第二神经网络模型的每个网络参数进行更新,包括:
计算所述梯度信息中的所述每个网络参数的当前梯度的一阶矩估计和二阶矩估计,并对所述一阶矩估计和所述二阶矩估计进行偏差修正,其中,所述一阶矩估计用于指示所述每个网络参数更新的方向和幅度,所述二阶矩估计用于调整所述每个网络参数在搜索方向上的移动强度;
利用偏差修正后的所述一阶矩估计和所述二阶矩估计来计算所述每个网络参数的学习率,并基于所述学习率来对所述每个网络参数进行更新。
4.根据权利要求3所述的方法,其特征在于,对所述一阶矩估计和所述二阶矩估计进行偏差修正,包括:
确定所述一阶矩估计的第一矩估计衰减率和所述二阶矩估计的第二矩估计衰减率;
分别基于所述第一矩估计衰减率和所述第二矩估计衰减率来对所述一阶矩估计和所述二阶矩估计进行偏差修正。
5.根据权利要求1所述的方法,其特征在于,在基于业务场景确定与业务数据相关的第二数据集之前,所述方法还包括:
基于所述业务数据的数据格式、数据类型和数据逻辑对所述业务数据进行数据验证;
对所述数据验证后的所述业务数据进行数据清洗,并对所述数据清洗后的所述业务数据进行数据一致性处理。
6.根据权利要求5所述的方法,其特征在于,基于所述业务数据的数据格式、数据类型和数据逻辑对所述业务数据进行数据验证,包括:
基于所述数据格式,检查所述业务数据是否符合预定义的格式要求;
基于所述数据类型,验证所述业务数据中的每个字段是否具有所期望的值的范围和数据类型;
基于所述数据逻辑,识别并剔除所述业务数据中的异常值。
7.根据权利要求5所述的方法,其特征在于,对所述数据验证后的所述业务数据进行数据清洗,包括:
基于关键字段,去除所述业务数据中的重复记录,以确保所述第二数据集中每条记录的唯一性;
识别所述业务数据中的缺失数据,并基于所述缺失数据的相关数据进行插补;
将所述业务数据转换为预设的统一的格式,以确保所述第二数据集中每条记录的格式一致性。
8.根据权利要求5所述的方法,其特征在于,对所述数据清洗后的所述业务数据进行数据一致性处理,包括:
应用强制约束条件,来保持所述业务数据的内容一致性;
对应用了所述强制约束条件的所述业务数据,通过判断所述业务数据的关联关系是否一致和有效,来进一步验证所述业务数据的一致性。
9.一种AI数字人的交互装置,其特征在于,包括:
生成模块,被配置为响应于接收到用户的问询请求,调用基于深度学习的第二神经网络模型,生成用于响应所述问询请求的问询响应;
驱动模块,被配置为基于所述问询响应,来驱动AI数字人,以实现所述AI数字人与所述用户的交互;
其中,所述第二神经网络模型是通过以下训练得到的:
使用第一神经网络模型的网络参数作为初始参数,并将所述初始参数应用到所述第二神经网络模型,其中,所述第一神经网络模型是通过第一数据集训练好的模型,
所述第二神经网络模型的网络参数少于所述第一神经网络模型的网络参数;
基于业务场景确定与业务数据相关的第二数据集,将所述第二数据集输入到所述第二神经网络模型中,来训练所述第二神经网络模型,其中,所述第一数据集的数据量大于所述第二数据集的数据量。
10.一种AI数字人的交互系统,其特征在于,包括:
AI数字人生成设备,被配置为渲染所述AI数字人;
AI数字人呈现设备,包括如权利要求8所述的AI数字人的交互装置,用于呈现所述
AI数字人。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310694123.9A CN116610218A (zh) | 2023-06-12 | 2023-06-12 | Ai数字人的交互方法、装置及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310694123.9A CN116610218A (zh) | 2023-06-12 | 2023-06-12 | Ai数字人的交互方法、装置及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116610218A true CN116610218A (zh) | 2023-08-18 |
Family
ID=87678127
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310694123.9A Pending CN116610218A (zh) | 2023-06-12 | 2023-06-12 | Ai数字人的交互方法、装置及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116610218A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117668002A (zh) * | 2024-02-01 | 2024-03-08 | 江西合一云数据科技股份有限公司 | 应用于公共信息平台的大数据决策方法、装置及设备 |
CN117668002B (zh) * | 2024-02-01 | 2024-05-17 | 江西合一云数据科技股份有限公司 | 应用于公共信息平台的大数据决策方法、装置及设备 |
-
2023
- 2023-06-12 CN CN202310694123.9A patent/CN116610218A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117668002A (zh) * | 2024-02-01 | 2024-03-08 | 江西合一云数据科技股份有限公司 | 应用于公共信息平台的大数据决策方法、装置及设备 |
CN117668002B (zh) * | 2024-02-01 | 2024-05-17 | 江西合一云数据科技股份有限公司 | 应用于公共信息平台的大数据决策方法、装置及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110209817B (zh) | 文本处理模型的训练方法、装置和文本处理方法 | |
US10540967B2 (en) | Machine reading method for dialog state tracking | |
US20230252241A1 (en) | Multi-turn dialogue response generation with persona modeling | |
CN112069302B (zh) | 会话意图识别模型的训练方法、会话意图识别方法及装置 | |
CN110210032B (zh) | 文本处理方法及装置 | |
CN111104595A (zh) | 一种基于文本信息的深度强化学习交互式推荐方法及系统 | |
CN114514540A (zh) | 语言任务的对比预训练 | |
EP3371747A1 (en) | Augmenting neural networks with external memory | |
CN112527966B (zh) | 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法 | |
CN111966800A (zh) | 情感对话生成方法、装置及情感对话模型训练方法、装置 | |
CN112733043B (zh) | 评论推荐方法及装置 | |
WO2019154411A1 (zh) | 词向量更新方法和装置 | |
CN112115687A (zh) | 一种结合知识库中的三元组和实体类型的生成问题方法 | |
CN111708871A (zh) | 对话状态跟踪方法、装置及对话状态跟踪模型训练方法 | |
CN111178986B (zh) | 用户-商品偏好的预测方法及系统 | |
CN114648032B (zh) | 语义理解模型的训练方法、装置和计算机设备 | |
Yuan et al. | Deep learning from a statistical perspective | |
CN110489730A (zh) | 文本处理方法、装置、终端及存储介质 | |
CN108475346A (zh) | 神经随机访问机器 | |
Li et al. | Temporal supervised learning for inferring a dialog policy from example conversations | |
CN112036546B (zh) | 序列处理方法及相关设备 | |
CN116610218A (zh) | Ai数字人的交互方法、装置及系统 | |
CN114861671A (zh) | 模型训练方法、装置、计算机设备及存储介质 | |
CN114564568A (zh) | 基于知识增强与上下文感知的对话状态追踪方法及系统 | |
Nishimoto et al. | Dialogue management with deep reinforcement learning: Balancing exploration and exploitation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |