CN116841523B - 一种基于人工智能的在线编程方法及系统 - Google Patents
一种基于人工智能的在线编程方法及系统 Download PDFInfo
- Publication number
- CN116841523B CN116841523B CN202310891113.4A CN202310891113A CN116841523B CN 116841523 B CN116841523 B CN 116841523B CN 202310891113 A CN202310891113 A CN 202310891113A CN 116841523 B CN116841523 B CN 116841523B
- Authority
- CN
- China
- Prior art keywords
- data
- model
- user
- personalized
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 80
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 33
- 238000012549 training Methods 0.000 claims abstract description 126
- 238000005457 optimization Methods 0.000 claims description 27
- 238000007781 pre-processing Methods 0.000 claims description 24
- 238000012360 testing method Methods 0.000 claims description 24
- 238000010276 construction Methods 0.000 claims description 21
- 238000004364 calculation method Methods 0.000 claims description 17
- 238000011156 evaluation Methods 0.000 claims description 17
- 230000009467 reduction Effects 0.000 claims description 17
- 238000012795 verification Methods 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 10
- 238000013075 data extraction Methods 0.000 claims description 3
- 230000006399 behavior Effects 0.000 description 78
- 230000008569 process Effects 0.000 description 26
- 230000006870 function Effects 0.000 description 20
- 230000003993 interaction Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 230000010354 integration Effects 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000004913 activation Effects 0.000 description 4
- 238000002790 cross-validation Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000010200 validation analysis Methods 0.000 description 4
- 238000010606 normalization Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000007786 learning performance Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 230000008439 repair process Effects 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000011900 installation process Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/30—Creation or generation of source code
- G06F8/31—Programming languages or programming paradigms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明涉及人工智能技术领域,尤其涉及一种基于人工智能的在线编程方法及系统。该方法包括以下步骤:获取用户语音请求数据,并根据用户语音请求数据进行语言模型训练,从而获取用户语音指令识别模型;获取用户行为数据以及用户语音指令数据,并利用用户行为数据以及用户语音指令数据对用户语音指令识别模型进行个性化训练,获取个性化AI指令识别模型;利用个性化AI指令识别模型对预设的目标设备进行接口生成,获取设备接口程序数据;将个性化AI指令识别模型以及设备接口程序数据进行集成,获取集成AI程序数据;对集成AI程序数据进行云端同步,获取云端同步AI程序数据。本发明更好地满足用户的个性化需求,提高用户体验。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于人工智能的在线编程方法及系统。
背景技术
人工智能(Artificial Intelligence,AI)是指由人制造出来的系统所表现出的,被认为是人类智能的一种行为。这是通过理解、学习和应用人类智能的方式来模仿人类的决策过程,包括学习(理解信息)、推理(用提供的信息处理问题或进行决策)和自我修正。特别是在机器学习和深度学习的领域,大量的数据可以用来“训练”AI系统,使其能够自动地学习和提升。基于人工智能的在线编程方法是指利用人工智能技术,如自然语言处理(NLP)、机器学习和深度学习等,来自动化编程过程的一种方法。这包括解析和理解用户的需求,自动生成代码,自动测试和优化代码的环节。用户可以直接用自然语言提出需求,系统就可以自动地编写出满足需求的代码。现阶段的在线编程方法往往智能基于自然语言进行简单地编写出最基本互动的代码,实用性低,用户体验不足。
发明内容
本发明为解决上述技术问题,提出了一种基于人工智能的在线编程方法及系统,以解决至少一个上述技术问题。
本申请提供了一种基于人工智能的在线编程方法,包括以下步骤:
步骤S1:获取用户语音请求数据,并根据用户语音请求数据进行语言模型训练,从而获取用户语音指令识别模型;
步骤S2:获取用户行为数据以及用户语音指令数据,并利用用户行为数据以及用户语音指令数据对用户语音指令识别模型进行个性化训练,从而获取个性化AI指令识别模型;
步骤S3:利用个性化AI指令识别模型对预设的目标设备进行接口生成,从而获取设备接口程序数据;
步骤S4:将个性化AI指令识别模型以及设备接口程序数据进行集成,从而获取集成AI程序数据;
步骤S5:对集成AI程序数据进行云端同步,从而获取云端同步AI程序数据,以执行在线编程作业。
本发明中基于人工智能技术,可以自动根据用户的语音请求数据训练出用户语音指令识别模型,并能根据用户的行为数据对模型进行个性化训练,从而实现对目标设备的智能接口生成和在线编程,大大提高了编程效率和质量。由于本发明能够根据用户的行为数据进行模型的个性化训练,因此可以更好地满足用户的个性化需求,提高用户体验。本发明能够将集成的AI程序数据进行云端同步,用户可以在任何有网络连接的设备上进行在线编程,增强了编程的灵活性和便捷性。本发明的在线编程方法可以应用于各种目标设备,只要预设相应的设备接口程序数据,就可以进行在线编程,具有广泛的应用前景。由于本发明使用人工智能技术,可以避免人为错误,进一步提高编程的准确性和稳定性。将人工智能和云计算结合起来,可以大大提高编程的效率和质量,提供个性化的用户体验,具有广泛的应用前景。
优选地,步骤S1具体为:
步骤S11:获取原始用户语音请求数据;
步骤S12:利用原始用户语音请求数据中的应用场景数据对原始用户语音请求数据进行语音预处理,从而获取预处理用户语音请求数据;
步骤S13:对预处理用户语音请求数据进行语音特征提取,从而获取语音特征数据;
步骤S14:对语音特征数据进行模型构建,从而获取初始语音模型;
步骤S15:对初始语音模型进行反向传播参数优化,从而获取初步训练语音模型;
步骤S16:对初步训练语音模型进行模型评估并优化,从而获取用户语音指令识别模型。
本发明中步骤S12中的语音预处理可以去除原始用户语音请求数据中的噪声和非相关信息,提高语音识别的准确性。步骤S13的语音特征提取有助于从复杂的语音信号中提取有用的信息,如音调、节奏,这对于语音识别和理解是至关重要的。步骤S15和步骤S16通过反向传播参数优化和模型评估及优化,不断改进语音模型的性能,使得语音模型更准确地识别用户的语音指令。步骤S14至步骤S16的模型构建、反向传播参数优化和模型评估优化,可以根据具体应用场景定制模型,提升模型对特定应用的适应性和性能。整个步骤S1的设计能够有效提升用户语音指令识别模型的识别精度,进一步提高用户体验。通过对原始用户语音请求数据的深度处理和模型优化,可以提高语音识别的精度和稳定性,满足不同场景下用户的语音请求识别需求,从而提高用户在使用过程中的体验。
优选地,步骤S12中语音预处理通过语音预处理降噪计算公式进行降噪处理,其中语音预处理降噪计算公式具体为:
n(t)为用户语音请求降噪数据,t为时间数据,σ为原始用户语音请求数据的标准差数据,x(τ)为第τ个时刻的原始用户语音请求数据,e为自然指数项,β为根据应用场景数据生成的正则化参数,f(τ)为非线性应用场景噪音调整项。
本发明构造了一种语音预处理降噪计算公式,该计算公式可以有效地降低原始语音请求数据中的噪声,提高语音识别的准确性。正则化参数β和非线性应用场景噪音调整项f(τ)使得这个公式有很好的适应性,能根据不同的应用场景进行有效的噪声调整。通过对所有时间段的数据进行积分,可以保证语音信号的完整性,避免因为局部的噪声而影响整体的语音识别。参数相互之间的作用主要通过数学运算进行,例如x(τ)和exp(-(t-τ)2/2σ2)相乘表示考虑了噪声对原始语音请求数据的影响;βf(τ)控制了非线性应用场景噪音调整项的影响;最后通过积分操作,将所有时刻的数据进行整合,得到了一个完整的、降噪处理过的语音请求数据。n(t)表示在时间t下,用户的语音请求降噪数据。它是该公式的主要输出,其目标是最大程度地减少噪声影响,保留原始语音请求的有效信息。原始用户语音请求数据的标准差σ反映了原始用户语音请求数据的变化幅度,也可以理解为噪声的强度。第τ个时刻的原始用户语音请求数据x(τ)直接反映了用户语音请求的原始信息。一个正则化参数,根据应用场景数据生成。正则化参数β控制了非线性应用场景噪音调整项的影响力度,可以看作是一种权重因子。公式中的对所有时间段的数据进行积分,也就是对所有的τ进行累加,这样可以考虑到语音信号的连续性和完整性。
优选地,步骤S2具体为:
步骤S21:获取用户行为数据;
步骤S22:对用户行为数据进行特征构造,从而获取行为特征数据;
步骤S23:获取程序运行逻辑指令数据,并将行为特征数据、用户语音指令数据程序运行逻辑指令数据进行数据整合,从而获取训练样本数据;
步骤S24:利用训练样本数据对用户语音指令识别模型进行个性化训练,从而获取个性化训练模型;
步骤S25:对个性化训练模型进行模型性能验证,从而获取模型验证报告数据;
步骤S26:利用模型验证报告数据对个性化训练模型进行模型调整,从而获取个性化AI指令识别模型。
本发明中在步骤S21和步骤S22中,本发明首先获取用户行为数据,并对其进行特征构造。这种方法可以确保AI指令识别模型更加贴近每个特定用户的行为模式,从而提高了语音指令识别的精度和效率。在步骤S23中,本发明将用户行为特征数据、用户语音指令数据和程序运行逻辑指令数据进行了综合,这种方式能更好地利用多元信息进行模型训练,从而提升模型的性能。在步骤S24、步骤S25和步骤S26中,本发明利用获取到的训练样本数据对用户语音指令识别模型进行个性化训练和调整,这一过程可以确保AI模型的最终输出能够满足特定用户的需求,增强了模型的实用性。在步骤S25中,本发明对个性化训练模型进行模型性能验证,这种方法能在早期发现并纠正模型的问题,提高模型的鲁棒性。使得最终构建出的AI指令识别模型具有更高的精度、效率和实用性。
优选地,步骤S22具体为:
步骤S221:对用户行为数据进行用户意向特征提取,从而获取用户意向特征数据;
步骤S222:对用户行为数据进行用户行为特征提取,从而获取用户行为特征数据;
步骤S223:对用户意向特征数据以及用户行为特征数据进行特征选择,从而获取用户行为特征选择数据;
步骤S224:对用户行为特征选择数据特征构造并规划化,从而获取行为特征数据。
本发明中通过分别提取用户意向特征和用户行为特征,该步骤将用户的主观意向和客观行为两方面的信息都考虑在内,使得提取出的特征能更全面地反映用户行为,从而提高识别模型的精准度。在进行特征提取后,该步骤还会对用户意向特征和用户行为特征进行特征选择。这一步将根据特征的重要性进行筛选,保留对识别模型有重要影响的特征,从而提高模型的可解释性。在完成特征选择后,本步骤会对所选择的特征进行构造和规划化,使其能适应接下来的机器学习或深度学习模型的输入需求,从而优化模型的学习性能和最终的预测性能。通过这种方法提取和构造的特征数据,可以帮助AI模型更好地理解和预测用户的行为和意向,从而提高用户体验。
优选地,步骤S24具体为:
步骤S241:对训练样本数据进行数据抽取,从而获取针对特定用户语音指令的训练样本数据;
步骤S242:对针对特定用户语音指令的训练样本数据进行样本数据预处理,从而获取训练样本预处理数据;
步骤S243:利用训练样本预处理数据对对用户语音指令识别模型进行个性化模型训练并参数调优,从而获取个性化训练模型。
本发明中通过对训练样本数据进行数据抽取,能够针对特定用户语音指令进行训练,这使得训练模型更加具有针对性,从而能够更准确地识别出用户的语音指令。在进行样本数据预处理时,可以通过清洗、标准化等手段来去除数据中的噪声和异常值,从而提高数据质量,使得训练出的模型更具稳定性和准确性。在个性化模型训练和参数调优的过程中,可以根据训练样本预处理数据的特点,选择合适的训练算法和参数,从而使模型更好地适应数据特性,提高模型的预测性能。通过这种方法训练出的个性化模型,可以更好地理解和响应用户的语音指令,从而提高用户的使用体验。通过对训练样本数据的精细处理和针对性训练,使得最后得到的个性化训练模型能够更精确地理解和响应用户的语音指令,从而极大地提高了用户体验。
优选地,步骤S25中模型性能验证通过模型性能参数计算公式进行验证,其中模型性能参数计算公式具体为:
C为模型性能参数数据,n为迭代次数数据,i为迭代序次数据,o为模型性能底数常数项,F(θi)为第i次模型性能数据,F(θ)为模型性能数据,r为响应数据,θ为模型参数数据,为识别准确率权重项,ρ为模型性能参数相关性系数,σ为模型性能参数标准偏差项,P(r│θ)为识别准确率数据,/>为召回率数据权重项,R(r│θ)为召回率数据,/>为误识别率数据权重项,E(r│θ)为误识别率数据。
本发明构造了一种模型性能参数计算公式,该计算公式对模型的性能进行了全面的评估,并且通过将识别准确率、召回率和误识别率结合起来,更加准确地反映了模型的性能。这个公式考虑了多种性能指标,包括识别准确率、召回率和误识别率,使得性能评估更全面,避免因为单一指标的优化而忽视其他指标,导致模型性能的偏颇。通过为每个性能指标设置权重项,可以根据实际需求调整各个指标在性能评估中的重要性,提高了公式的灵活性。公式中的第一个部分利用大数定律,随着迭代次数的增加,算术平均值趋向于期望值,保证了模型性能参数数据的稳定性。P(r│θ)、R(r│θ)和E(r│θ)分别表示在给定模型参数θ下的识别准确率、召回率和误识别率;和/>是这些指标的权重项,它们决定了每个指标在总体性能评估中的影响力;而θ是模型参数,它影响着所有的性能指标。所有这些参数的互动,共同影响着模型的总体性能。
优选地,步骤S3具体为:
步骤S31:获取设备接口定义数据;
步骤S32:利用个性化AI指令识别模型对设备接口定义数据进行接口编程生成,从而获取接口程序源码数据;
步骤S33:对接口程序源码数据进行接口测试,从而获取接口测试报告数据;
步骤S34:利用接口测试报告数据对接口程序源码数据进行优化,从而获取接口程序优化源码数据;
步骤S35:对接口程序优化源码数据进行接口部署,从而获取设备接口程序数据。
本发明中通过自动化生成设备接口程序,大大减少了手动编程的工作量,加快了程序开发的速度。对于不同的设备和不同的用户,都能生成相应的个性化接口程序,因此具有很好的普适性。通过接口测试和优化,确保生成的接口程序具有良好的性能和稳定性,降低了程序运行中的故障率。用户通过语音指令控制设备,从而使得用户与设备的交互更加便捷和自然,提高了用户体验。本发明根据用户的实际需求,生成与具体任务相对应的设备接口程序,以使设备的功能得到更好的利用和发展。
优选地,步骤S4具体为:
步骤S41:于目标设备上进行环境搭建,从而获取运行环境配置数据;
步骤S42:利用运行环境配置数据对设备接口程序数据进行安装处理,从而获取设备接口程序安装数据;
步骤S43:将个性化AI指令识别模加载至目标设备上并与设备接口程序安装数据进行集成,从而获取集成AI程序数据。
本发明中实现了AI模型和设备接口程序的集成,提高了硬件和软件的匹配性,使得设备更加智能化,提高了工作效率。通过专门的环境搭建和程序安装,可以更好地优化设备的运行性能和响应速度,提升用户体验。AI模型的加载和集成实现了设备的个性化服务,可以更好地满足用户的需求。用户可以通过简单的语音指令控制设备,操作更加便捷。集成AI程序数据在设备本地运行,有效降低数据传输的风险,保证了用户的数据安全。通过将AI模型和设备接口程序的集成,实现了智能设备的自主操作和个性化服务,提高了设备的运行效率和用户的使用体验。
优选地,本申请还提供了一种基于人工智能的在线编程系统,包括:
语言模型训练模型,用于获取用户语音请求数据,并根据用户语音请求数据进行语言模型训练,从而获取用户语音指令识别模型;
个性化训练模型,用于获取用户行为数据以及用户语音指令数据,并利用用户行为数据以及用户语音指令数据对用户语音指令识别模型进行个性化训练,从而获取个性化AI指令识别模型;
接口生成模块,用于利用个性化AI指令识别模型对预设的目标设备进行接口生成,从而获取设备接口程序数据;
集成AI程序数据模块,用于将个性化AI指令识别模型以及设备接口程序数据进行集成,从而获取集成AI程序数据;
云端同步模块,用于对集成AI程序数据进行云端同步,从而获取云端同步AI程序数据,以执行在线编程作业。
本发明的有益效果在于:通过语音交互的方式获取用户的编程请求,大大降低了用户的学习门槛和操作难度。对于那些没有专业编程经验的用户,语音编程提供了一种新的、更直观的交互方式,实现了人机交互的自然化。通过对用户行为和语音指令的分析,进行个性化训练,生成的AI模型能更好地理解和响应用户的需求。利用预设的目标设备生成设备接口程序数据,使得该方法可以应用于各种不同的设备,增强了其广泛性和适应性,提升了设备的使用效率。将AI指令识别模型与设备接口程序数据进行集成,避免了繁琐的配置和接口适配问题,简化了整个系统的架构,提升了系统运行的效率和稳定性。个性化的模式让机器更好地适应每一个特定的用户,而不仅仅是泛泛地服务所有人,提供了更精细化、个性化的服务。
附图说明
通过阅读参照以下附图所作的对非限制性实施所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1示出了一实施例的基于人工智能的在线编程方法的步骤流程图;
图2示出了一实施例的步骤S1的步骤流程图;
图3示出了一实施例的步骤S2的步骤流程图;
图4示出了一实施例的步骤S22的步骤流程图;
图5示出了一实施例的步骤S24的步骤流程图;
图6示出了一实施例的步骤S3的步骤流程图;
图7示出了一实施例的步骤S4的步骤流程图。
具体实施方式
下面结合附图对本发明专利的技术方法进行清楚、完整的描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域所属的技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
此外,附图仅为本发明的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器方法和/或微控制器方法中实现这些功能实体。
应当理解的是,虽然在这里可能使用了术语“第一”、“第二”等等来描述各个单元,但是这些单元不应当受这些术语限制。使用这些术语仅仅是为了将一个单元与另一个单元进行区分。举例来说,在不背离示例性实施例的范围的情况下,第一单元可以被称为第二单元,并且类似地第二单元可以被称为第一单元。这里所使用的术语“和/或”包括其中一个或更多所列出的相关联项目的任意和所有组合。
请参阅图1至图7,本申请提供了一种基于人工智能的在线编程方法,包括以下步骤:
步骤S1:获取用户语音请求数据,并根据用户语音请求数据进行语言模型训练,从而获取用户语音指令识别模型;
具体地,例如收集大量用户语音请求数据,包括各种不同类型、场景、方言和口音的语音请求。将这些语音请求数据转化为文本形式,形成文本-音频对。采用深度学习的序列到序列模型进行训练,输入为语音数据,输出为对应的文本,从而得到用户语音指令识别模型。
步骤S2:获取用户行为数据以及用户语音指令数据,并利用用户行为数据以及用户语音指令数据对用户语音指令识别模型进行个性化训练,从而获取个性化AI指令识别模型;
具体地,例如收集用户行为数据和用户语音指令数据,包括用户在各种环境下发出的语音指令,以及用户在发出语音指令后的行为数据。将这些数据进行预处理和特征提取,得到处理后的数据集。使用处理后的数据集,将用户语音指令识别模型进行进一步的训练,训练的目标是根据用户的行为数据,优化语音识别模型,使之更加适应特定用户的语音习惯和行为模式,从而得到个性化AI指令识别模型。
步骤S3:利用个性化AI指令识别模型对预设的目标设备进行接口生成,从而获取设备接口程序数据;
具体地,例如获取目标设备的接口定义数据,这些数据包括设备的各种功能和操作的具体实现方式。使用个性化AI指令识别模型,将接口定义数据转化为具体的接口程序代码,使用特定的编程语言进行编写。进行代码测试和优化,生成高效、可靠的设备接口程序数据。
步骤S4:将个性化AI指令识别模型以及设备接口程序数据进行集成,从而获取集成AI程序数据;
具体地,例如在目标设备上进行环境搭建,创建适用于运行AI指令识别模型和设备接口程序的环境。将个性化AI指令识别模型和设备接口程序数据安装到目标设备上,将两者进行集成,生成可以在目标设备上运行的集成AI程序。
步骤S5:对集成AI程序数据进行云端同步,从而获取云端同步AI程序数据,以执行在线编程作业。
具体地,例如将集成AI程序数据上传到云端服务器,进行云端同步。云端服务器将同步的AI程序数据分发给需要在线编程服务的客户端设备。客户端设备接收到云端同步的AI程序数据后,可以根据用户的请求,调用云端的AI程序进行在线编程作业。
本发明中基于人工智能技术,可以自动根据用户的语音请求数据训练出用户语音指令识别模型,并能根据用户的行为数据对模型进行个性化训练,从而实现对目标设备的智能接口生成和在线编程,大大提高了编程效率和质量。由于本发明能够根据用户的行为数据进行模型的个性化训练,因此可以更好地满足用户的个性化需求,提高用户体验。本发明能够将集成的AI程序数据进行云端同步,用户可以在任何有网络连接的设备上进行在线编程,增强了编程的灵活性和便捷性。本发明的在线编程方法可以应用于各种目标设备,只要预设相应的设备接口程序数据,就可以进行在线编程,具有广泛的应用前景。由于本发明使用人工智能技术,可以避免人为错误,进一步提高编程的准确性和稳定性。将人工智能和云计算结合起来,可以大大提高编程的效率和质量,提供个性化的用户体验,具有广泛的应用前景。
优选地,步骤S1具体为:
步骤S11:获取原始用户语音请求数据;
具体地,例如直接从用户接口端收集原始用户语音请求数据,这些数据包含了用户的原始语音请求和相关的环境噪声。
步骤S12:利用原始用户语音请求数据中的应用场景数据对原始用户语音请求数据进行语音预处理,从而获取预处理用户语音请求数据;
具体地,例如根据原始用户语音请求数据中的应用场景数据,例如环境噪声、语言特性,采用数字信号处理技术,如滤波、降噪,对原始用户语音请求数据进行语音预处理,得到预处理用户语音请求数据。
步骤S13:对预处理用户语音请求数据进行语音特征提取,从而获取语音特征数据;
具体地,例如对预处理后的用户语音请求数据,通过傅里叶变换或者梅尔频率倒谱系数(MFCC)的技术方法,提取出语音特征数据。
步骤S14:对语音特征数据进行模型构建,从而获取初始语音模型;
具体地,例如使用提取出的语音特征数据,利用深度学习网络,如循环神经网络(RNN)或长短期记忆网络(LSTM),进行模型构建,得到初始语音模型。
步骤S15:对初始语音模型进行反向传播参数优化,从而获取初步训练语音模型;
具体地,例如对初始语音模型进行反向传播参数优化,主要通过损失函数的梯度反向传播,调整模型参数以最小化损失函数,从而得到初步训练语音模型。
步骤S16:对初步训练语音模型进行模型评估并优化,从而获取用户语音指令识别模型。
具体地,例如对初步训练语音模型进行模型评估和优化,评估主要是通过准确率、召回率、F1值的指标,对模型进行性能评估。根据评估结果,再进一步对模型参数进行优化调整,得到最终的用户语音指令识别模型。
本发明中步骤S12中的语音预处理可以去除原始用户语音请求数据中的噪声和非相关信息,提高语音识别的准确性。步骤S13的语音特征提取有助于从复杂的语音信号中提取有用的信息,如音调、节奏,这对于语音识别和理解是至关重要的。步骤S15和步骤S16通过反向传播参数优化和模型评估及优化,不断改进语音模型的性能,使得语音模型更准确地识别用户的语音指令。步骤S14至步骤S16的模型构建、反向传播参数优化和模型评估优化,可以根据具体应用场景定制模型,提升模型对特定应用的适应性和性能。整个步骤S1的设计能够有效提升用户语音指令识别模型的识别精度,进一步提高用户体验。通过对原始用户语音请求数据的深度处理和模型优化,可以提高语音识别的精度和稳定性,满足不同场景下用户的语音请求识别需求,从而提高用户在使用过程中的体验。
优选地,步骤S12中语音预处理通过语音预处理降噪计算公式进行降噪处理,其中语音预处理降噪计算公式具体为:
n(t)为用户语音请求降噪数据,t为时间数据,σ为原始用户语音请求数据的标准差数据,x(τ)为第τ个时刻的原始用户语音请求数据,e为自然指数项,β为根据应用场景数据生成的正则化参数,f(τ)为非线性应用场景噪音调整项。
本发明构造了一种语音预处理降噪计算公式,该计算公式可以有效地降低原始语音请求数据中的噪声,提高语音识别的准确性。正则化参数β和非线性应用场景噪音调整项f(τ)使得这个公式有很好的适应性,能根据不同的应用场景进行有效的噪声调整。通过对所有时间段的数据进行积分,可以保证语音信号的完整性,避免因为局部的噪声而影响整体的语音识别。参数相互之间的作用主要通过数学运算进行,例如x(τ)和exp(-(t-τ)2/2σ2)相乘表示考虑了噪声对原始语音请求数据的影响;βf(τ)控制了非线性应用场景噪音调整项的影响;最后通过积分操作,将所有时刻的数据进行整合,得到了一个完整的、降噪处理过的语音请求数据。n(t)表示在时间t下,用户的语音请求降噪数据。它是该公式的主要输出,其目标是最大程度地减少噪声影响,保留原始语音请求的有效信息。原始用户语音请求数据的标准差σ反映了原始用户语音请求数据的变化幅度,也可以理解为噪声的强度。第τ个时刻的原始用户语音请求数据x(τ)直接反映了用户语音请求的原始信息。一个正则化参数,根据应用场景数据生成。正则化参数β控制了非线性应用场景噪音调整项的影响力度,可以看作是一种权重因子。公式中的对所有时间段的数据进行积分,也就是对所有的τ进行累加,这样可以考虑到语音信号的连续性和完整性。
优选地,步骤S2具体为:
步骤S21:获取用户行为数据;
具体地,例如从用户设备上获取用户的行为数据,这包括用户的使用习惯,软件使用频率,特定功能的使用模式的信息。
步骤S22:对用户行为数据进行特征构造,从而获取行为特征数据;
具体地,例如采用特征工程技术,例如标准化、归一化、主成分分析(PCA),对用户行为数据进行特征构造,得到行为特征数据。
步骤S23:获取程序运行逻辑指令数据,并将行为特征数据、用户语音指令数据程序运行逻辑指令数据进行数据整合,从而获取训练样本数据;
具体地,例如从已有的程序库中获取程序运行逻辑指令数据,将获取的行为特征数据、用户语音指令数据和程序运行逻辑指令数据进行数据整合,得到训练样本数据。
步骤S24:利用训练样本数据对用户语音指令识别模型进行个性化训练,从而获取个性化训练模型;
具体地,例如使用获取到的训练样本数据,对用户语音指令识别模型进行个性化训练,采用优化算法,如梯度下降、随机梯度下降,得到个性化训练模型。
具体地,例如使用训练样本数据对用户语音指令识别模型进行个性化训练。个性化训练过程包括基本的功能训练和特殊的需求训练。在功能训练阶段,主要训练模型对各种常用指令的识别能力,使模型能够准确、快速地处理用户的语音指令。在特殊的需求训练阶段,针对某些特定的用户需求或特殊场景,进行针对性的训练,以满足这些特殊的需求。完成个性化训练后,会得到一个能够理解和响应用户个性化需求的AI指令识别模型。
步骤S25:对个性化训练模型进行模型性能验证,从而获取模型验证报告数据;
具体地,例如采用交叉验证或者留一验证的模型验证技术,对个性化训练模型进行模型性能验证,根据验证结果生成模型验证报告数据。交叉验证:在交叉验证中,首先将数据集随机分成K个大小相等的子集。K-1个子集被用作训练数据,剩余的一个子集被用作测试数据。这个过程被重复K次,每次选择一个不同的子集作为测试数据,其他的作为训练数据。这K次测试结果被平均,以得到一个最终的模型性能评估。留一验证:留一验证是交叉验证的一种特殊情况,其中K等于数据集的大小。对于N个数据点的数据集,每次都会保留一个数据点作为测试数据,剩下的N-1个数据点作为训练数据。这个过程被重复N次,每次选择一个不同的数据点作为测试数据。这N次测试结果被平均,以得到一个最终的模型性能评估。
步骤S26:利用模型验证报告数据对个性化训练模型进行模型调整,从而获取个性化AI指令识别模型。
具体地,例如根据模型验证报告数据,采用参数调整技术,如学习率调整、正则化项调整,对个性化训练模型进行模型调整,最后得到个性化AI指令识别模型。
本发明中在步骤S21和S22中,本发明首先获取用户行为数据,并对其进行特征构造。这种方法可以确保AI指令识别模型更加贴近每个特定用户的行为模式,从而提高了语音指令识别的精度和效率。在步骤S23中,本发明将用户行为特征数据、用户语音指令数据和程序运行逻辑指令数据进行了综合,这种方式能更好地利用多元信息进行模型训练,从而提升模型的性能。在步骤S24、步骤S25和步骤S26中,本发明利用获取到的训练样本数据对用户语音指令识别模型进行个性化训练和调整,这一过程可以确保AI模型的最终输出能够满足特定用户的需求,增强了模型的实用性。在步骤S25中,本发明对个性化训练模型进行模型性能验证,这种方法能在早期发现并纠正模型的问题,提高模型的鲁棒性。使得最终构建出的AI指令识别模型具有更高的精度、效率和实用性。
优选地,步骤S22具体为:
步骤S221:对用户行为数据进行用户意向特征提取,从而获取用户意向特征数据;
具体地,例如通过统计用户操作行为中的某些特征,例如,查看哪些菜单、使用哪些功能、进行哪些操作,来获取用户意向特征数据。
具体地,例如从用户行为数据中提取出能表达用户意向的特征,例如,用户的查询词,点击行为,页面停留时间。这些特征可以表达用户的兴趣和需求。具体来说,把用户行为数据转化为结构化数据,通过计算和统计的方式,提取出能表示用户意向的特征值。
步骤S222:对用户行为数据进行用户行为特征提取,从而获取用户行为特征数据;
具体地,例如对用户的实际行为数据进行分析,例如,用户在什么时间、在什么情况下、如何操作设备,提取这些用户行为特征,生成用户行为特征数据。
具体地,例如从用户行为数据中提取出与用户行为有关的特征,例如,用户的浏览路径,点击频率,活跃时间。
步骤S223:对用户意向特征数据以及用户行为特征数据进行特征选择,从而获取用户行为特征选择数据;
具体地,例如利用特征选择算法,例如卡方检验、互信息,对用户意向特征数据和用户行为特征数据进行特征选择,将与目标任务最相关的特征选取出来,形成用户行为特征选择数据。
步骤S224:对用户行为特征选择数据特征构造并规划化,从而获取行为特征数据。
具体地,例如对用户行为特征选择数据进行特征构造,例如,根据业务逻辑进行特征组合,利用统计方法生成新的特征,然后进行规范化处理,比如,将所有数据映射到0-1之间,获取到最终的行为特征数据。
本发明中通过分别提取用户意向特征和用户行为特征,该步骤将用户的主观意向和客观行为两方面的信息都考虑在内,使得提取出的特征能更全面地反映用户行为,从而提高识别模型的精准度。在进行特征提取后,该步骤还会对用户意向特征和用户行为特征进行特征选择。这一步将根据特征的重要性进行筛选,保留对识别模型有重要影响的特征,从而提高模型的可解释性。在完成特征选择后,本步骤会对所选择的特征进行构造和规划化,使其能适应接下来的机器学习或深度学习模型的输入需求,从而优化模型的学习性能和最终的预测性能。通过这种方法提取和构造的特征数据,可以帮助AI模型更好地理解和预测用户的行为和意向,从而提高用户体验。
优选地,步骤S24具体为:
步骤S241:对训练样本数据进行数据抽取,从而获取针对特定用户语音指令的训练样本数据;
具体地,例如从大量的训练样本数据中,抽取出与特定用户语音指令相关的样本。例如,如果用户的语音指令是"打开灯光",则需要从训练样本数据中抽取出所有包含"打开灯光"指令的样本数据。
步骤S242:对针对特定用户语音指令的训练样本数据进行样本数据预处理,从而获取训练样本预处理数据;
具体地,例如对抽取出的样本数据进行预处理。预处理通常包括去噪声,标准化,归一化等操作。例如,可以对语音指令的音频数据进行去噪声处理,使得语音更清晰;也可以对语音指令的音频数据进行标准化和归一化处理,使得数据在同一尺度上,便于模型的训练。预处理完成后,将得到处理过的训练样本数据,也就是训练样本预处理数据。
步骤S243:利用训练样本预处理数据对对用户语音指令识别模型进行个性化模型训练并参数调优,从而获取个性化训练模型。
具体地,例如将使用训练样本预处理数据对用户语音指令识别模型进行训练。模型训练的过程通常包括前向传播和反向传播两个步骤,前向传播是用来计算模型的预测值,反向传播是用来更新模型的参数。训练过程中,为了得到更好的模型效果,可能需要对模型的参数进行调优,例如调整学习率,优化算法,正则化参数。经过训练和调优后,将得到个性化训练模型,这个模型能够更准确地识别和理解用户的特定语音指令。如前向传播是神经网络用于计算预测值的过程。在这个过程中,数据会从输入层开始,经过隐藏层,最终到达输出层。在每一层中,数据都会与权重(weights)相乘,再加上偏置(bias),然后经过一个激活函数(activation function),生成下一层的输入。重复这个过程,直到数据到达输出层。在输出层,会得到网络的预测值。举例来说,假设有一个简单的神经网络,包含输入层、一个隐藏层和输出层。在前向传播过程中,输入数据首先与输入层到隐藏层的权重相乘,然后加上偏置,再通过激活函数,得到隐藏层的值。隐藏层的值又与隐藏层到输出层的权重相乘,加上偏置,通过激活函数,得到输出层,即神经网络的预测值。反向传播是神经网络用于学习参数(即权重和偏置)的过程。在前向传播过程完成后,会根据预测值和实际值计算出损失函数(loss function)。反向传播的目标就是最小化这个损失函数。这个过程是通过计算损失函数关于每个参数的梯度(gradient),然后更新参数来实现的。这个过程从输出层开始,然后向后逐层进行,直到输入层。这也是为什么这个过程被称为"反向"传播。举例来说,假设神经网络的损失函数为平均平方误差。在反向传播过程中,计算输出层的误差,计算这个误差关于隐藏层到输出层的权重和偏置的梯度,然后更新这些参数。接着,再计算隐藏层的误差,然后计算这个误差关于输入层到隐藏层的权重和偏置的梯度,然后更新这些参数。重复这个过程,直到所有的参数都更新完毕。
本发明中通过对训练样本数据进行数据抽取,能够针对特定用户语音指令进行训练,这使得训练模型更加具有针对性,从而能够更准确地识别出用户的语音指令。在进行样本数据预处理时,可以通过清洗、标准化等手段来去除数据中的噪声和异常值,从而提高数据质量,使得训练出的模型更具稳定性和准确性。在个性化模型训练和参数调优的过程中,可以根据训练样本预处理数据的特点,选择合适的训练算法和参数,从而使模型更好地适应数据特性,提高模型的预测性能。通过这种方法训练出的个性化模型,可以更好地理解和响应用户的语音指令,从而提高用户的使用体验。通过对训练样本数据的精细处理和针对性训练,使得最后得到的个性化训练模型能够更精确地理解和响应用户的语音指令,从而极大地提高了用户体验。
优选地,步骤S25中模型性能验证通过模型性能参数计算公式进行验证,其中模型性能参数计算公式具体为:
C为模型性能参数数据,n为迭代次数数据,i为迭代序次数据,o为模型性能底数常数项,F(θi)为第i次模型性能数据,F(θ)为模型性能数据,r为响应数据,θ为模型参数数据,为识别准确率权重项,ρ为模型性能参数相关性系数,σ为模型性能参数标准偏差项,P(r│θ)为识别准确率数据,/>为召回率数据权重项,R(r│θ)为召回率数据,/>为误识别率数据权重项,E(r│θ)为误识别率数据。
本发明构造了一种模型性能参数计算公式,该计算公式对模型的性能进行了全面的评估,并且通过将识别准确率、召回率和误识别率结合起来,更加准确地反映了模型的性能。这个公式考虑了多种性能指标,包括识别准确率、召回率和误识别率,使得性能评估更全面,避免因为单一指标的优化而忽视其他指标,导致模型性能的偏颇。通过为每个性能指标设置权重项,可以根据实际需求调整各个指标在性能评估中的重要性,提高了公式的灵活性。公式中的第一个部分利用大数定律,随着迭代次数的增加,算术平均值趋向于期望值,保证了模型性能参数数据的稳定性。P(r│θ)、R(r│θ)和E(r│θ)分别表示在给定模型参数θ下的识别准确率、召回率和误识别率;和/>是这些指标的权重项,它们决定了每个指标在总体性能评估中的影响力;而θ是模型参数,它影响着所有的性能指标。所有这些参数的互动,共同影响着模型的总体性能。
优选地,步骤S3具体为:
步骤S31:获取设备接口定义数据;
具体地,例如获取设备的接口定义数据,这些数据包括了设备接口的函数签名、函数参数类型、返回值类型的必要信息。
步骤S32:利用个性化AI指令识别模型对设备接口定义数据进行接口编程生成,从而获取接口程序源码数据;
具体地,例如将个性化AI指令识别模型应用于设备接口定义数据,以便将高级的、易于理解的语言转化为能够执行具体功能的低级代码,生成接口程序源码数据。
步骤S33:对接口程序源码数据进行接口测试,从而获取接口测试报告数据;
具体地,例如对生成的接口程序源码数据进行测试,这个过程包括单元测试、集成测试等,以便发现和修复可能存在的问题。这一步骤产生的接口测试报告数据包括了测试结果、发现的问题及其可能的解决方案。
步骤S34:利用接口测试报告数据对接口程序源码数据进行优化,从而获取接口程序优化源码数据;
具体地,例如根据接口测试报告数据,针对发现的问题进行相应的修复和优化,优化的方法可能包括改进算法效率、修改错误的代码,生成优化后的接口程序源码数据。
步骤S35:对接口程序优化源码数据进行接口部署,从而获取设备接口程序数据。
具体地,例如将优化后的接口程序源码数据部署到设备上,具体的部署方式可能包括直接编译和运行,或者是通过一些自动化的部署工具进行部署。完成部署后,得到的设备接口程序数据就可以在设备上运行,执行预定的功能。
本发明中通过自动化生成设备接口程序,大大减少了手动编程的工作量,加快了程序开发的速度。对于不同的设备和不同的用户,都能生成相应的个性化接口程序,因此具有很好的普适性。通过接口测试和优化,确保生成的接口程序具有良好的性能和稳定性,降低了程序运行中的故障率。用户通过语音指令控制设备,从而使得用户与设备的交互更加便捷和自然,提高了用户体验。本发明根据用户的实际需求,生成与具体任务相对应的设备接口程序,以使设备的功能得到更好的利用和发展。
优选地,步骤S4具体为:
步骤S41:于目标设备上进行环境搭建,从而获取运行环境配置数据;
具体地,例如在目标设备上进行必要的环境搭建,这包括安装操作系统、配置网络环境、安装必要的软件和工具库等,以确保接下来的操作可以在该设备上顺利进行。完成这个步骤后,会得到一份详细的运行环境配置数据,它记录了目标设备的环境信息。
步骤S42:利用运行环境配置数据对设备接口程序数据进行安装处理,从而获取设备接口程序安装数据;
具体地,例如根据运行环境配置数据,对设备接口程序数据进行必要的安装处理。具体来说,这可能包括编译源代码、设置必要的运行参数、创建和配置相关的数据库的操作。完成这个步骤后,会得到设备接口程序的安装数据,其中记录了接口程序的运行状态和配置信息。
步骤S43:将个性化AI指令识别模加载至目标设备上并与设备接口程序安装数据进行集成,从而获取集成AI程序数据。
具体地,例如将个性化AI指令识别模型加载到目标设备上,然后将它与设备接口程序安装数据进行集成。集成的方式可能包括配置文件的合并、数据库的链接、API的调用的方式,以实现AI模型和设备接口程序的协同工作。完成这个步骤后,会得到集成AI程序数据,它包含了AI模型和设备接口程序的所有运行信息和配置信息。
本发明中实现了AI模型和设备接口程序的集成,提高了硬件和软件的匹配性,使得设备更加智能化,提高了工作效率。通过专门的环境搭建和程序安装,可以更好地优化设备的运行性能和响应速度,提升用户体验。AI模型的加载和集成实现了设备的个性化服务,可以更好地满足用户的需求。用户可以通过简单的语音指令控制设备,操作更加便捷。集成AI程序数据在设备本地运行,有效降低数据传输的风险,保证了用户的数据安全。通过将AI模型和设备接口程序的集成,实现了智能设备的自主操作和个性化服务,提高了设备的运行效率和用户的使用体验。
优选地,本申请还提供了一种基于人工智能的在线编程系统,包括:
语言模型训练模型,用于获取用户语音请求数据,并根据用户语音请求数据进行语言模型训练,从而获取用户语音指令识别模型;
个性化训练模型,用于获取用户行为数据以及用户语音指令数据,并利用用户行为数据以及用户语音指令数据对用户语音指令识别模型进行个性化训练,从而获取个性化AI指令识别模型;
接口生成模块,用于利用个性化AI指令识别模型对预设的目标设备进行接口生成,从而获取设备接口程序数据;
集成AI程序数据模块,用于将个性化AI指令识别模型以及设备接口程序数据进行集成,从而获取集成AI程序数据;
云端同步模块,用于对集成AI程序数据进行云端同步,从而获取云端同步AI程序数据,以执行在线编程作业。
本发明的有益效果在于:通过语音交互的方式获取用户的编程请求,大大降低了用户的学习门槛和操作难度。对于那些没有专业编程经验的用户,语音编程提供了一种新的、更直观的交互方式,实现了人机交互的自然化。通过对用户行为和语音指令的分析,进行个性化训练,生成的AI模型能更好地理解和响应用户的需求。利用预设的目标设备生成设备接口程序数据,使得该方法可以应用于各种不同的设备,增强了其广泛性和适应性,提升了设备的使用效率。将AI指令识别模型与设备接口程序数据进行集成,避免了繁琐的配置和接口适配问题,简化了整个系统的架构,提升了系统运行的效率和稳定性。个性化的模式让机器更好地适应每一个特定的用户,而不仅仅是泛泛地服务所有人,提供了更精细化、个性化的服务。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附申请文件而不是上述说明限定,因此旨在将落在申请文件的等同要件的含义和范围内的所有变化涵括在本发明内。
以上所述仅是本发明的具体实施方式,使本领域技术人员能够理解或实现本发明。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所发明的原理和新颖特点相一致的最宽的范围。
Claims (9)
1.一种基于人工智能的在线编程方法,其特征在于,包括以下步骤:
步骤S1:获取用户语音请求数据,并根据用户语音请求数据进行语言模型训练,从而获取用户语音指令识别模型;
步骤S2:获取用户行为数据以及用户语音指令数据,并利用用户行为数据以及用户语音指令数据对用户语音指令识别模型进行个性化训练,从而获取个性化AI指令识别模型;
步骤S3,包括:
步骤S31:获取设备接口定义数据;
步骤S32:利用个性化AI指令识别模型对设备接口定义数据进行接口编程生成,从而获取接口程序源码数据;
步骤S33:对接口程序源码数据进行接口测试,从而获取接口测试报告数据;
步骤S34:利用接口测试报告数据对接口程序源码数据进行优化,从而获取接口程序优化源码数据;
步骤S35:对接口程序优化源码数据进行接口部署,从而获取设备接口程序数据;
步骤S4:将个性化AI指令识别模型以及设备接口程序数据进行集成,从而获取集成AI程序数据;
步骤S5:对集成AI程序数据进行云端同步,从而获取云端同步AI程序数据,以执行在线编程作业。
2.根据权利要求1所述的基于人工智能的在线编程方法,其特征在于,步骤S1具体为:
步骤S11:获取原始用户语音请求数据;
步骤S12:利用原始用户语音请求数据中的应用场景数据对原始用户语音请求数据进行语音预处理,从而获取预处理用户语音请求数据;
步骤S13:对预处理用户语音请求数据进行语音特征提取,从而获取语音特征数据;
步骤S14:对语音特征数据进行模型构建,从而获取初始语音模型;
步骤S15:对初始语音模型进行反向传播参数优化,从而获取初步训练语音模型;
步骤S16:对初步训练语音模型进行模型评估并优化,从而获取用户语音指令识别模型。
3.根据权利要求2所述的基于人工智能的在线编程方法,其特征在于,步骤S12中语音预处理通过语音预处理降噪计算公式进行降噪处理,其中语音预处理降噪计算公式具体为:
;
为用户语音请求降噪数据,/>为时间数据,/>为原始用户语音请求数据的标准差数据,/>为第/>个时刻的原始用户语音请求数据,/>为自然指数项,/>为根据应用场景数据生成的正则化参数,/>为非线性应用场景噪音调整项。
4.根据权利要求1所述的基于人工智能的在线编程方法,其特征在于,步骤S2具体为:
步骤S21:获取用户行为数据;
步骤S22:对用户行为数据进行特征构造,从而获取行为特征数据;
步骤S23:获取程序运行逻辑指令数据,并将行为特征数据、用户语音指令数据程序运行逻辑指令数据进行数据整合,从而获取训练样本数据;
步骤S24:利用训练样本数据对用户语音指令识别模型进行个性化训练,从而获取个性化训练模型;
步骤S25:对个性化训练模型进行模型性能验证,从而获取模型验证报告数据;
步骤S26:利用模型验证报告数据对个性化训练模型进行模型调整,从而获取个性化AI指令识别模型。
5.根据权利要求4所述的基于人工智能的在线编程方法,其特征在于,步骤S22具体为:
步骤S221:对用户行为数据进行用户意向特征提取,从而获取用户意向特征数据;
步骤S222:对用户行为数据进行用户行为特征提取,从而获取用户行为特征数据;
步骤S223:对用户意向特征数据以及用户行为特征数据进行特征选择,从而获取用户行为特征选择数据;
步骤S224:对用户行为特征选择数据特征构造并规划化,从而获取行为特征数据。
6.根据权利要求4所述的基于人工智能的在线编程方法,其特征在于,步骤S24具体为:
步骤S241:对训练样本数据进行数据抽取,从而获取用户语音指令的训练样本数据;
步骤S242:对用户语音指令的训练样本数据进行样本数据预处理,从而获取训练样本预处理数据;
步骤S243:利用训练样本预处理数据对用户语音指令识别模型进行个性化模型训练并参数调优,从而获取个性化训练模型。
7.根据权利要求4所述的基于人工智能的在线编程方法,其特征在于,步骤S25中模型性能验证通过模型性能参数计算公式进行验证,其中模型性能参数计算公式具体为:
;
;
为模型性能参数数据,/>为迭代次数数据,/>为迭代序次数据,/>为模型性能底数常数项,/>为第/>次模型性能数据,/>为模型性能数据,/>为响应数据,/>为模型参数数据,/>为识别准确率权重项,/>为模型性能参数相关性系数,/>为模型性能参数标准偏差项,为识别准确率数据,/>为召回率数据权重项,/>为召回率数据,/>为误识别率数据权重项,/>为误识别率数据。
8.根据权利要求1所述的基于人工智能的在线编程方法,其特征在于,步骤S4具体为:
步骤S41:于目标设备上进行环境搭建,从而获取运行环境配置数据;
步骤S42:利用运行环境配置数据对设备接口程序数据进行安装处理,从而获取设备接口程序安装数据;
步骤S43:将个性化AI指令识别模加载至目标设备上并与设备接口程序安装数据进行集成,从而获取集成AI程序数据。
9.一种基于人工智能的在线编程系统,其特征在于,用于执行如权利要求1所述的基于人工智能的在线编程方法,该基于人工智能的在线编程系统包括:
语言模型训练模型,用于获取用户语音请求数据,并根据用户语音请求数据进行语言模型训练,从而获取用户语音指令识别模型;
个性化训练模型,用于获取用户行为数据以及用户语音指令数据,并利用用户行为数据以及用户语音指令数据对用户语音指令识别模型进行个性化训练,从而获取个性化AI指令识别模型;
接口生成模块,用于利用个性化AI指令识别模型对预设的目标设备进行接口生成,从而获取设备接口程序数据;
集成AI程序数据模块,用于将个性化AI指令识别模型以及设备接口程序数据进行集成,从而获取集成AI程序数据;
云端同步模块,用于对集成AI程序数据进行云端同步,从而获取云端同步AI程序数据,以执行在线编程作业。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310891113.4A CN116841523B (zh) | 2023-07-19 | 2023-07-19 | 一种基于人工智能的在线编程方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310891113.4A CN116841523B (zh) | 2023-07-19 | 2023-07-19 | 一种基于人工智能的在线编程方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116841523A CN116841523A (zh) | 2023-10-03 |
CN116841523B true CN116841523B (zh) | 2023-12-22 |
Family
ID=88172468
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310891113.4A Active CN116841523B (zh) | 2023-07-19 | 2023-07-19 | 一种基于人工智能的在线编程方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116841523B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109564505A (zh) * | 2016-01-27 | 2019-04-02 | 伯尼塞艾公司 | 被配置为使用教学编程语言进行工作以训练经训练的人工智能模型的人工智能引擎 |
CN109992261A (zh) * | 2019-04-30 | 2019-07-09 | 武汉亚为电子科技有限公司 | 一种基于人工智能的语音在线编程方法及装置 |
CN110929875A (zh) * | 2019-10-12 | 2020-03-27 | 平安国际智慧城市科技股份有限公司 | 基于机器学习的智能语言学习方法、系统、装置及介质 |
EP3739477A1 (en) * | 2018-01-11 | 2020-11-18 | Neosapience, Inc. | Speech translation method and system using multilingual text-to-speech synthesis model |
CN113241057A (zh) * | 2021-04-26 | 2021-08-10 | 标贝(北京)科技有限公司 | 用于语音合成模型训练的交互方法、装置、系统及介质 |
CN114756211A (zh) * | 2022-05-13 | 2022-07-15 | 北京百度网讯科技有限公司 | 模型训练方法、装置、电子设备和存储介质 |
CN115268868A (zh) * | 2022-07-26 | 2022-11-01 | 中国海洋大学 | 一种基于有监督学习的智能源码转换方法 |
CN116028031A (zh) * | 2023-03-29 | 2023-04-28 | 中科航迈数控软件(深圳)有限公司 | 代码自动生成模型训练方法、系统及存储介质 |
CN116127020A (zh) * | 2023-03-03 | 2023-05-16 | 北京百度网讯科技有限公司 | 生成式大语言模型训练方法以及基于模型的搜索方法 |
WO2023102889A1 (zh) * | 2021-12-10 | 2023-06-15 | 华为技术有限公司 | 语音交互的方法和装置 |
-
2023
- 2023-07-19 CN CN202310891113.4A patent/CN116841523B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109564505A (zh) * | 2016-01-27 | 2019-04-02 | 伯尼塞艾公司 | 被配置为使用教学编程语言进行工作以训练经训练的人工智能模型的人工智能引擎 |
EP3739477A1 (en) * | 2018-01-11 | 2020-11-18 | Neosapience, Inc. | Speech translation method and system using multilingual text-to-speech synthesis model |
CN109992261A (zh) * | 2019-04-30 | 2019-07-09 | 武汉亚为电子科技有限公司 | 一种基于人工智能的语音在线编程方法及装置 |
CN110929875A (zh) * | 2019-10-12 | 2020-03-27 | 平安国际智慧城市科技股份有限公司 | 基于机器学习的智能语言学习方法、系统、装置及介质 |
CN113241057A (zh) * | 2021-04-26 | 2021-08-10 | 标贝(北京)科技有限公司 | 用于语音合成模型训练的交互方法、装置、系统及介质 |
WO2023102889A1 (zh) * | 2021-12-10 | 2023-06-15 | 华为技术有限公司 | 语音交互的方法和装置 |
CN114756211A (zh) * | 2022-05-13 | 2022-07-15 | 北京百度网讯科技有限公司 | 模型训练方法、装置、电子设备和存储介质 |
CN115268868A (zh) * | 2022-07-26 | 2022-11-01 | 中国海洋大学 | 一种基于有监督学习的智能源码转换方法 |
CN116127020A (zh) * | 2023-03-03 | 2023-05-16 | 北京百度网讯科技有限公司 | 生成式大语言模型训练方法以及基于模型的搜索方法 |
CN116028031A (zh) * | 2023-03-29 | 2023-04-28 | 中科航迈数控软件(深圳)有限公司 | 代码自动生成模型训练方法、系统及存储介质 |
Non-Patent Citations (2)
Title |
---|
CONVO: What does conversational programming need?;Jessica Van Brummelen等;《2020 IEEE Symposium on Visual Languages and Human-Centric Computing (VL/HCC)》;1-5 * |
基于GRU的神经程序解释器重构及自动编程加法模型中的应用;汪权;《中国优秀硕士学位论文全文数据库 信息科技辑》;I138-676 * |
Also Published As
Publication number | Publication date |
---|---|
CN116841523A (zh) | 2023-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20180268318A1 (en) | Training classification algorithms to predict end-user behavior based on historical conversation data | |
US7653605B1 (en) | Method of and apparatus for automated behavior prediction | |
Jermsittiparsert et al. | Pattern recognition and features selection for speech emotion recognition model using deep learning | |
WO2019028279A1 (en) | METHODS AND SYSTEMS FOR OPTIMIZING SELECTION OF MOTORS USING MACHINE LEARNING MODELING | |
US20190005421A1 (en) | Utilizing voice and metadata analytics for enhancing performance in a call center | |
Heittola et al. | The machine learning approach for analysis of sound scenes and events | |
CN110659742B (zh) | 获取用户行为序列的序列表示向量的方法和装置 | |
KR102198273B1 (ko) | 머신러닝 기반의 음성데이터 분석 방법, 장치 및 프로그램 | |
Greaves-Tunnell et al. | A statistical investigation of long memory in language and music | |
US11790183B2 (en) | Systems and methods for generating dynamic conversational responses based on historical and dynamically updated information | |
US11854536B2 (en) | Keyword spotting apparatus, method, and computer-readable recording medium thereof | |
CN114386580A (zh) | 决策模型训练、决策方法、装置、电子设备及存储介质 | |
CN113344647A (zh) | 一种信息推荐的方法及装置 | |
US11593633B2 (en) | Systems, methods, and computer-readable media for improved real-time audio processing | |
US20240086734A1 (en) | Machine learning prediction of repair or total loss actions | |
CN116841523B (zh) | 一种基于人工智能的在线编程方法及系统 | |
CN117743848A (zh) | 一种用户画像生成方法、装置、电子设备及存储介质 | |
US11176502B2 (en) | Analytical model training method for customer experience estimation | |
US20210149793A1 (en) | Weighted code coverage | |
CN113835739B (zh) | 一种软件缺陷修复时间的智能化预测方法 | |
JP2023516035A (ja) | ランダムフォレスト分類器を用いて、さまざまな時間特性を有するデータを処理してマネジメントアレンジメントに関する予測を生成する方法およびシステム | |
Polyn | Assessing neurocognitive hypotheses in a likelihood-based model of the free-recall task | |
Vogler et al. | Music genre recognition | |
US11443758B2 (en) | Anomalous sound detection with timbre separation | |
US20240104429A1 (en) | Model-Agnostic System for Automatic Investigation of the Impact of New Features on Performance of Machine Learning Models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |