CN116737904A - 数据信息的处理方法及装置、存储介质和电子设备 - Google Patents
数据信息的处理方法及装置、存储介质和电子设备 Download PDFInfo
- Publication number
- CN116737904A CN116737904A CN202310746137.0A CN202310746137A CN116737904A CN 116737904 A CN116737904 A CN 116737904A CN 202310746137 A CN202310746137 A CN 202310746137A CN 116737904 A CN116737904 A CN 116737904A
- Authority
- CN
- China
- Prior art keywords
- neural network
- network model
- target
- text
- consultation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003860 storage Methods 0.000 title claims abstract description 22
- 230000010365 information processing Effects 0.000 title claims abstract description 21
- 238000003672 processing method Methods 0.000 title abstract description 10
- 238000003062 neural network model Methods 0.000 claims abstract description 422
- 238000012549 training Methods 0.000 claims abstract description 209
- 238000000034 method Methods 0.000 claims abstract description 85
- 230000008569 process Effects 0.000 claims abstract description 19
- 230000009469 supplementation Effects 0.000 claims abstract description 16
- 238000012217 deletion Methods 0.000 claims abstract description 13
- 230000037430 deletion Effects 0.000 claims abstract description 13
- 238000012360 testing method Methods 0.000 claims description 50
- 238000012545 processing Methods 0.000 claims description 45
- 230000006870 function Effects 0.000 claims description 22
- 238000005516 engineering process Methods 0.000 abstract description 6
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000005457 optimization Methods 0.000 description 15
- 238000013528 artificial neural network Methods 0.000 description 11
- 238000004590 computer program Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000007812 deficiency Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000630 rising effect Effects 0.000 description 2
- 238000007711 solidification Methods 0.000 description 2
- 230000008023 solidification Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/3332—Query translation
- G06F16/3338—Query expansion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0895—Weakly supervised learning, e.g. semi-supervised or self-supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0985—Hyperparameter optimisation; Meta-learning; Learning-to-learn
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Machine Translation (AREA)
Abstract
本申请公开了一种数据信息的处理方法及装置、存储介质和电子设备,涉及人工智能技术领域,该方法包括:获取咨询语句,其中,咨询语句是咨询业务过程中采集的存在语义缺失的语句;在咨询语句的领域为金融业务领域时,确定咨询语句的目标金融业务场景;获取目标神经网络模型,将咨询语句输入目标神经网络模型,输出预测文本信息,其中,目标神经网络模型是采用第一训练样本对通用神经网络模型优化得到的;依据预测文本信息对咨询语句进行语义补充,并依据补充后的咨询语句,返回针对咨询语句的回复内容。通过本申请,解决了相关技术中采用通用神经网络模型对金融业务咨询语句中缺失的文字进行预测,导致对文字预测的准确度比较低的问题。
Description
技术领域
本申请涉及人工智能技术领域,具体而言,涉及一种数据信息的处理方法及装置、存储介质和电子设备。
背景技术
在现有技术中用户对金融业务进行咨询时,由于用户对金融业务的了解不充分,可能对想要咨询的金融业务描述不清楚,因此在用户对金融业务进行咨询时采集到的咨询语句可能因为缺失部分金融业务描述文字,从而导致采集到的金融业务咨询语句中存在语义缺失,为了解决语义缺失的问题,通常采用通用神经网络模型对金融业务咨询语句中缺失的文字进行预测,但是由于通用神经网络模型中针对特定金融业务场景相关的知识较少,不能对特定金融业务场景的咨询语句进行精准预测,进而导致不能对用户所咨询的业务进行准确答复。
针对相关技术中采用通用神经网络模型对金融业务咨询语句中缺失的文字进行预测,导致对文字预测的准确度比较低的问题,目前尚未提出有效的解决方案。
发明内容
本申请的主要目的在于提供一种数据信息的处理方法及装置、存储介质和电子设备,以解决相关技术中采用通用神经网络模型对金融业务咨询语句中缺失的文字进行预测,导致对文字预测的准确度比较低的问题。
为了实现上述目的,根据本申请的一个方面,提供了一种数据信息的处理方法。该方法包括:获取咨询语句,其中,所述咨询语句是咨询业务过程中采集的语句,且所述咨询语句存在语义缺失;在所述咨询语句的咨询业务领域为金融业务领域时,确定所述咨询语句所属的目标金融业务场景;获取所述目标金融业务场景对应的目标神经网络模型,并将所述咨询语句输入所述目标神经网络模型,输出预测文本信息,其中,所述目标神经网络模型是采用所述目标金融业务场景对应的第一训练样本对通用神经网络模型优化得到的;依据所述预测文本信息对所述咨询语句进行语义补充,得到目标咨询语句,并依据所述目标咨询语句,返回针对所述咨询语句的回复内容。
进一步地,获取所述目标金融业务场景对应的目标神经网络模型包括:获取所述通用神经网络模型和所述目标金融业务场景对应的第一训练样本,其中,所述第一训练样本由目标金融业务场景对应的多个第一文本语句及每个第一文本语句对应的第一真实文本信息组成,所述多个第一文本语句中的部分文字被遮挡,所述第一真实文本信息为所述第一文本语句中被遮挡的文字信息;依据所述第一训练样本对所述通用神经网络模型进行优化,得到所述目标神经网络模型。
进一步地,依据所述第一训练样本对所述通用神经网络模型进行优化,得到所述目标神经网络模型包括:获取第二训练样本,其中,所述第二训练样本由所述金融业务领域中的N个金融业务场景对应的多个第二文本语句及每个第二文本语句对应的第二真实文本信息组成,N为大于1的整数;依据所述第二训练样本对所述通用神经网络模型进行训练,得到第一神经网络模型;依据所述第一训练样本对所述第一神经网络模型进行优化,得到第一目标场景神经网络模型;对所述第一训练样本中的每个第一文本语句中的目标文字进行遮挡处理,得到多个第三文本语句;依据测试样本和所述多个第三文本语句对所述第一目标场景神经网络模型进行优化,得到所述目标神经网络模型,其中,所述测试样本由所述目标金融业务场景对应的多个第四文本语句及每个第四文本语句对应的第三真实文本信息组成。
进一步地,获取所述通用神经网络模型包括:获取第三训练样本,其中,所述第三训练样本由多个领域中的多个第五文本语句及每个第五文本语句对应的第四真实文本信息组成;依据所述第三训练样本对初始神经网络模型进行训练,得到所述通用神经网络模型,其中,所述初始神经网络模型至少包括输入层、隐藏层和输出层。
进一步地,依据所述第一训练样本对所述第一神经网络模型进行优化,得到第一目标场景神经网络模型包括:计算每个第一文本语句与所述第二文本语句之间的相似度,得到多个相似度值,并对所述多个相似度值进行计算,得到第一分数;若所述第一分数大于第一预设数值,则对所述第一神经网络模型的目标权重参数进行参数固化,得到第二神经网络模型,其中,所述目标权重参数包括所述第一神经网络模型中的输入层和所述第一神经网络模型中的隐藏层的权重参数;依据所述第一训练样本对所述第二神经网络模型进行优化,得到所述第一目标场景神经网络模型。
进一步地,在对所述多个相似度值进行计算,得到第一分数之后,所述方法还包括:若所述第一分数小于等于所述第一预设数值,则重置所述第一神经网络模型的超参数,得到第三神经网络模型;依据所述第一训练样本对所述第三神经网络模型进行优化,得到所述第一目标场景神经网络模型。
进一步地,依据所述第一训练样本对所述第一神经网络模型进行优化,得到第一目标场景神经网络模型包括:将所述第一训练样本输入到所述第二神经网络模型中,得到每个第一文本语句对应的预测文本信息;对所述预测文本信息与所述第一真实文本信息之间的损失进行计算,得到目标损失函数;依据所述目标损失函数对所述第二神经网络模型进行优化,得到所述第一目标场景神经网络模型。
进一步地,依据测试样本和所述多个第三文本语句对所述第一目标场景神经网络模型进行优化,得到所述目标神经网络模型包括:依据所述多个第三文本语句对所述第一目标场景神经网络模型进行优化,得到第二目标场景神经网络模型;通过所述第二目标场景神经网络模型输出所述测试样本对应的预测文本信息;依据所述第三真实文本信息,对所述测试样本对应的预测文本信息进行评估,得到第二分数;若所述第二分数高于第二预设数值,则将所述第二目标场景神经网络模型确定为所述目标神经网络模型。
进一步地,在对所述测试样本对应的预测文本信息进行评估,得到第二分数之后,所述方法还包括:若所述第二分数低于所述第二预设数值,则重复执行依据所述第一训练样本对所述第一神经网络模型进行优化的步骤,直至所述第二分数高于所述第二预设数值,并将当前的第二目标场景神经网络模型确定为所述目标神经网络模型。
为了实现上述目的,根据本申请的另一方面,提供了一种数据信息的处理装置。该装置包括:获取单元,用于获取咨询语句,其中,所述咨询语句是咨询业务过程中采集的语句,且所述咨询语句存在语义缺失;确定单元,用于在所述咨询语句的咨询业务领域为金融业务领域时,确定所述咨询语句所属的目标金融业务场景;预测单元,用于获取所述目标金融业务场景对应的目标神经网络模型,并将所述咨询语句输入所述目标神经网络模型,输出预测文本信息,其中,所述目标神经网络模型是采用所述目标金融业务场景对应的第一训练样本对通用神经网络模型优化得到的;回复单元,用于依据所述预测文本信息对所述咨询语句进行语义补充,得到目标咨询语句,并依据所述目标咨询语句,返回针对所述咨询语句的回复内容。
进一步地,预测单元包括:获取子单元,用于获取所述通用神经网络模型和所述目标金融业务场景对应的第一训练样本,其中,所述第一训练样本由目标金融业务场景对应的多个第一文本语句及每个第一文本语句对应的第一真实文本信息组成,所述多个第一文本语句中的部分文字被遮挡,所述第一真实文本信息为所述第一文本语句中被遮挡的文字信息;第一优化子单元,用于依据所述第一训练样本对所述通用神经网络模型进行优化,得到所述目标神经网络模型。
进一步地,第一优化子单元包括:第一获取模块,用于获取第二训练样本,其中,所述第二训练样本由所述金融业务领域中的N个金融业务场景对应的多个第二文本语句及每个第二文本语句对应的第二真实文本信息组成,N为大于1的整数;第一训练模块,用于依据所述第二训练样本对所述通用神经网络模型进行训练,得到第一神经网络模型;第一优化模块,用于依据所述第一训练样本对所述第一神经网络模型进行优化,得到第一目标场景神经网络模型;处理模块,用于对所述第一训练样本中的每个第一文本语句中的目标文字进行遮挡处理,得到多个第三文本语句;第二优化模块,用于依据测试样本和所述多个第三文本语句对所述第一目标场景神经网络模型进行优化,得到所述目标神经网络模型,其中,所述测试样本由所述目标金融业务场景对应的多个第四文本语句及每个第四文本语句对应的第三真实文本信息组成。
进一步地,获取子单元包括:第二获取模块,用于获取第三训练样本,其中,所述第三训练样本由多个领域中的多个第五文本语句及每个第五文本语句对应的第四真实文本信息组成;第二训练模块,用于依据所述第三训练样本对初始神经网络模型进行训练,得到所述通用神经网络模型,其中,所述初始神经网络模型至少包括输入层、隐藏层和输出层。
进一步地,第一优化模块包括:计算子模块,用于计算每个第一文本语句与所述第二文本语句之间的相似度,得到多个相似度值,并对所述多个相似度值进行计算,得到第一分数;固化子模块,用于在所述第一分数大于第一预设数值时,对所述第一神经网络模型的目标权重参数进行参数固化,得到第二神经网络模型,其中,所述目标权重参数包括所述第一神经网络模型中的输入层和所述第一神经网络模型中的隐藏层的权重参数;第一优化子模块,用于依据所述第一训练样本对所述第二神经网络模型进行优化,得到所述第一目标场景神经网络模型。
进一步地,所述装置还包括:重置单元,用于在所述第一分数小于等于所述第一预设数值时,重置所述第一神经网络模型的超参数,得到第三神经网络模型;优化单元,用于依据所述第一训练样本对所述第三神经网络模型进行优化,得到所述第一目标场景神经网络模型。
进一步地,优化单元包括:预测子单元,用于将所述第一训练样本输入到所述第二神经网络模型中,得到每个第一文本语句对应的预测文本信息;计算子单元,用于对所述预测文本信息与所述第一真实文本信息之间的损失进行计算,得到目标损失函数;第二优化子单元,用于依据所述目标损失函数对所述第二神经网络模型进行优化,得到所述第一目标场景神经网络模型。
进一步地,第二优化模块包括:第二优化子模块,用于依据所述多个第三文本语句对所述第一目标场景神经网络模型进行优化,得到第二目标场景神经网络模型;预测子模块,用于通过所述第二目标场景神经网络模型输出所述测试样本对应的预测文本信息;评估子模块,用于依据所述第三真实文本信息,对所述测试样本对应的预测文本信息进行评估,得到第二分数;确定子模块,用于在所述第二分数高于第二预设数值时,将所述第二目标场景神经网络模型确定为所述目标神经网络模型。
进一步地,所述装置还包括:执行单元,用于在所述第二分数低于所述第二预设数值时,重复执行依据所述第一训练样本对所述第一神经网络模型进行优化的步骤,直至所述第二分数高于所述第二预设数值,并将当前的第二目标场景神经网络模型确定为所述目标神经网络模型。
为了实现上述目的,根据本申请的一方面,提供了一种计算机可读存储介质,所述存储介质存储程序,其中,在所述程序运行时控制所述存储介质所在设备执行上述任意一项所述的数据信息的处理方法。
为了实现上述目的,根据本申请的另一个方面,还提供了一种电子设备,电子设备包括一个或多个处理器和存储器,存储器用于存储一个或多个处理器实现上述任意一项所述的数据信息的处理方法。
通过本申请,采用以下步骤:获取咨询语句,其中,咨询语句是咨询业务过程中采集的语句,且咨询语句存在语义缺失;在咨询语句的咨询业务领域为金融业务领域时,确定咨询语句所属的目标金融业务场景;获取目标金融业务场景对应的目标神经网络模型,并将咨询语句输入目标神经网络模型,输出预测文本信息,其中,目标神经网络模型是采用目标金融业务场景对应的第一训练样本对通用神经网络模型优化得到的;依据预测文本信息对咨询语句进行语义补充,得到目标咨询语句,并依据目标咨询语句,返回针对咨询语句的回复内容,解决了相关技术中采用通用神经网络模型对金融业务咨询语句中缺失的文字进行预测,导致对文字预测的准确度比较低的问题。在本申请中,首先通过目标金融业务场景对应的第一训练样本对通用神经网络模型优化得到目标神经网络模型,然后通过目标神经网络模型对咨询语句缺失的语义进行文本预测,提高了对金融业务场景的咨询语句缺失文字的预测准确度,从而提高了对咨询语句进行语义补充的准确度,进而达到了提高针对咨询语句的回复内容的准确度的效果。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例提供的数据信息的处理方法的流程图;
图2是根据本申请实施例提供的目标神经网络模型的训练方法的流程图;
图3是根据本申请实施例提供的数据信息的处理装置的示意图;
图4是根据本申请实施例提供电子设备的示意图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
需要说明的是,本公开所涉及的相关信息(包括但不限于咨询语句信息等)和数据(包括但不限于用于展示的数据、分析的数据等),均为经用户授权或者经过各方充分授权的信息和数据。例如,本系统和相关用户或机构间设置有接口,在获取相关信息之前,需要通过接口向前述的用户或机构发送获取请求,并在接收到前述的用户或机构反馈的同意信息后,获取相关信息。
下面结合优选的实施步骤对本发明进行说明,图1是根据本申请实施例提供的数据信息的处理方法的流程图,如图1所示,该方法包括如下步骤:
步骤S101,获取咨询语句,其中,咨询语句是咨询业务过程中采集的语句,且咨询语句存在语义缺失。
例如,获取用户在对咨询业务过程中的咨询语句,例如,“信贷业务的材料有哪些”中缺失“办理”导致咨询语句的语义缺失(完整咨询语句为“信贷业务的办理材料有哪些”)。
步骤S102,在咨询语句的咨询业务领域为金融业务领域时,确定咨询语句所属的目标金融业务场景。
例如,确定采集到的咨询语句涉及的业务领域,在确定咨询语句为金融业务领域时,根据咨询语句内容确定咨询语句对应的金融业务场景(例如,保险业务、贷款业务、存款业务和基金业务等)。
步骤S103,获取目标金融业务场景对应的目标神经网络模型,并将咨询语句输入目标神经网络模型,输出预测文本信息,其中,目标神经网络模型是采用目标金融业务场景对应的第一训练样本对通用神经网络模型优化得到的。
例如,在确定咨询语句的目标金融业务场景后,获取由目标金融业务场景对应的第一训练样本对通用神经网络模型优化得到的目标神经网络模型,通过目标神经网络模型预测咨询语句缺失的语义信息,例如,将“信贷业务的材料有哪些”输入至目标神经网络模型,得到模型输出结果为“办理”。
步骤S104,依据预测文本信息对咨询语句进行语义补充,得到目标咨询语句,并依据目标咨询语句,返回针对咨询语句的回复内容。
例如,根据目标神经网络模型输出的预测文本信息对咨询语句的语义进行补充,得到完整的咨询语句语义信息,例如,信贷业务的办理资料有哪些(即上述的目标咨询语句),然后根据完整的语义信息,返回针对咨询语句的回复内容。
综上,在本申请中,首先通过目标金融业务场景对应的第一训练样本对通用神经网络模型优化得到目标神经网络模型,然后通过目标神经网络模型对咨询语句缺失的语义进行文本预测,提高了对金融业务场景的咨询语句缺失文字的预测准确度,从而提高了对咨询语句进行语义补充的准确度,进而达到了提高针对咨询语句的回复内容的准确度的效果。
可选地,在本申请实施例提供的数据信息的处理方法中,获取目标金融业务场景对应的目标神经网络模型包括:获取通用神经网络模型和目标金融业务场景对应的第一训练样本,其中,第一训练样本由目标金融业务场景对应的多个第一文本语句及每个第一文本语句对应的第一真实文本信息组成,多个第一文本语句中的部分文字被遮挡,第一真实文本信息为第一文本语句中被遮挡的文字信息;依据第一训练样本对通用神经网络模型进行优化,得到目标神经网络模型。
例如,先获取多个业务领域的通用神经网络模型和目标金融业务场景(例如,信贷业务这一目标金融业务场景)对应的第一训练样本,第一训练样本中包括目标金融业务场景对应的多个第一文本语句(例如,基金的涨跌是什么**导致的)和每个第一文本语句对应的第一真实文本信息(例如,原因),由第一文本语句和第一文本语句对应的第一真实文本信息组成完整的目标金融业务场景的咨询语句(例如,基金的涨跌是什么原因导致的),然后根据第一训练样本对多个领域的通用神经网络模型进行优化,得到目标神经网络模型。
通过第一训练样本对通用神经网络模型进行优化,使通用神经网络模型在目标金融场景具有更加准确的结果预测和生成能力,提高了对目标金融业务场景的文本语句预测的准确度。
可选地,在本申请实施例提供的数据信息的处理方法中,依据第一训练样本对通用神经网络模型进行优化,得到目标神经网络模型包括:获取第二训练样本,其中,第二训练样本由金融业务领域中的N个金融业务场景对应的多个第二文本语句及每个第二文本语句对应的第二真实文本信息组成,N为大于1的整数;依据第二训练样本对通用神经网络模型进行训练,得到第一神经网络模型;依据第一训练样本对第一神经网络模型进行优化,得到第一目标场景神经网络模型;对第一训练样本中的每个第一文本语句中的目标文字进行遮挡处理,得到多个第三文本语句;依据测试样本和多个第三文本语句对第一目标场景神经网络模型进行优化,得到目标神经网络模型,其中,测试样本由目标金融业务场景对应的多个第四文本语句及每个第四文本语句对应的第三真实文本信息组成。
例如,首先获取金融业务领域中的多个通用金融知识样本(即上述的第二训练样本),例如,某一通用金融知识完整语句为“货币供应量是指一个经济体在某一时间点流通中的货币总量”,那么第二文本语句可以是“货币供应量是指一个经济体在某一时间点流通中的货币**”,对应的第二真实文本信息为“总量”,再根据多个通用金融知识样本对多个业务领域的通用神经网络模型进行训练,得到金融业务领域的神经网络模型(即上述的第一神经网络模型),然后根据第一训练样本对金融业务领域的神经网络模型进行优化,得到第一目标场景神经网络模型。
然后,在得到第一目标场景神经网络模型之后,为了进一步地提升模型的预测性能,对第一训练样本中的第一文本语句中的区别于第一真实文本信息的文字(即上述的目标文字)进行遮挡处理,例如,对“基金的涨跌是什么原因导致的”中的“金”字进行遮挡,得到“基*的涨跌是什么原因导致的”(即上述的第三文本语句),最后根据多个第三文本语句对第一目标场景神经网络模型进行优化,再根据测试样本对优化后的第一目标场景神经网络模型进行测试,将通过测试的第一目标神经网络模型确定为最终的目标神经网络模型。
根据第二训练样本对通用神经网络模型进行训练,得到金融业务领域的神经网络模型,然后再通过目标金融业务场景对应的第一训练样本对金融业务领域的神经网络模型进行优化,最后根据测试样本和多个第三文本语句对优化后的金融业务领域的神经网络模型进一步优化,得到目标神经网络模型,通过目标神经网络模型对目标金融业务场景的咨询语句的文字进行预测,提高了对目标金融业务场景的咨询语句中缺失的文字的预测准确度,从而提高了对咨询语句进行语义补充的准确度。
可选地,在本申请实施例提供的数据信息的处理方法中,获取通用神经网络模型包括:获取第三训练样本,其中,第三训练样本由多个领域中的多个第五文本语句及每个第五文本语句对应的第四真实文本信息组成;依据第三训练样本对初始神经网络模型进行训练,得到通用神经网络模型,其中,初始神经网络模型至少包括输入层、隐藏层和输出层。
例如,获取资源公开的语料库,然后对语料库中语句的部分文字进行遮挡,得到第三训练样本,例如,语料库中语句为“人类分为男人和女人”,对“男人”进行遮挡,得到“人类分为**和女人”(即上述的第五文本语句)和“男人”(即上述的第四真实文本信息)。根据第三训练样本对初始神经网络模型进行训练,得到具有多个专业领域的通用知识的通用神经网络。
通过大量的通用知识对初始神经网络模型进行预训练,使通用神经网络模型能够学习到多个领域的知识结构,提高了通用神经网络模型预测缺失的文字的能力。
可选地,在本申请实施例提供的数据信息的处理方法中,依据第一训练样本对第一神经网络模型进行优化,得到第一目标场景神经网络模型包括:计算每个第一文本语句与第二文本语句之间的相似度,得到多个相似度值,并对多个相似度值进行计算,得到第一分数;若第一分数大于第一预设数值,则对第一神经网络模型的目标权重参数进行参数固化,得到第二神经网络模型,其中,目标权重参数包括第一神经网络模型中的输入层和第一神经网络模型中的隐藏层的权重参数;依据第一训练样本对第二神经网络模型进行优化,得到第一目标场景神经网络模型。
例如,Siamese神经网络又称孪生神经网络,是基于两个人工神经网络建立的耦合架构,Siamese神经网络以两个样本作为输入,输出其嵌入高维度空间的表征,以比较两个样本的相似程度,在本申请中,先通过Siamese神经网络中的一个子网络接收第一文本语句,另一个子网络接收第二文本语句,然后将第一文本语句和第二文本语句的特征映射到Siamese神经网络的比较层中,计算得到每个第一文本语句和每个第二文本语句之间的余弦相似度,得到多个相似度值,然后计算多个相似度值中大于相似度阈值(例如,0.9)的数量,得到相似度值大于相似度阈值的第一文本语句在第一训练样本中所占比例(即上述的第一分数),当大于相似度阈值的第一文本语句在第一训练样本中所占比例高于第一预设数值(例如,70%)时,则将第一神经网络模型中的输入层和隐藏层的权重参数进行参数固化,使第一神经网络模型中的输入层和隐藏层的权重参数在后续训练过程中不再发生变化,在参数固化后,得到第二神经网络模型,最后通过第一训练样本对第二神经网络模型中输出层的权重参数进行优化,得到第一目标场景神经网络模型。
通过计算第一文本语句和第二文本语句之间的相似度,判断第一训练样本和第二训练样本的相似程度,如果第一训练样本和第二训练样本的相似程度比较高,那么可以不再对第一神经网络模型中输入层和隐藏层的权重参数进行更新,只需要通过第一训练样本对第一神经网络模型中输出层的权重参数进行训练,提高了模型训练的效率。
可选地,在本申请实施例提供的数据信息的处理方法中,在对多个相似度值进行计算,得到第一分数之后,该方法还包括:若第一分数小于等于第一预设数值,则重置第一神经网络模型的超参数,得到第三神经网络模型;依据第一训练样本对第三神经网络模型进行优化,得到第一目标场景神经网络模型。
例如,如果大于相似度阈值的第一文本语句所占比例小于第一预设数值,那么则重置第一神经网络模型的超参数(超参数至少包括输入层、隐藏层和输出层的初始权重、学习率、正则化系数和隐藏层层数),得到第三神经网络模型(第三神经网络模型中保留了之前通过第二训练样本和第三训练训练样本训练得到的模型参数),然后通过第一训练样本对第三神经网络模型进行训练,得到第一目标场景神经网络模型。需要说明的是,上述的超参数为神经网络模型外部的配置是通过人为设置的,模型参数为神经网络模型在训练样本中提取学习到的。
如果第一训练样本和第二训练样本的相似程度比较低,那么对第一神经网络模型中的超参数进行重置,得到第三神经网络模型,再通过第一训练样本对第三神经网络模型进行训练,在第一训练样本对第三神经网络模型训练的过程中,保留了之前对初始神经网络模型在训练样本中学习到的模型参数,避免了由第一训练样本对初始神经网络模型的模型参数进行训练,提高了对神经网络模型进行训练的效率。
可选地,在本申请实施例提供的数据信息的处理方法中,依据第一训练样本对第一神经网络模型进行优化,得到第一目标场景神经网络模型包括:将第一训练样本输入到第二神经网络模型中,得到每个第一文本语句对应的预测文本信息;对预测文本信息与第一真实文本信息之间的损失进行计算,得到目标损失函数;依据目标损失函数对第二神经网络模型进行优化,得到第一目标场景神经网络模型。
例如,将第一训练样本中的多个第一文本语句输入到第二神经网络模型中,得到每个第一文本语句对应的预测文本信息(例如,第一文本语句为“基金的涨跌是什么**导致的”,对应的预测文本信息为“原因”),然后计算预测文本信息和真实文本信息之间的目标损失函数,基于目标损失函数采用梯度下降法对第二神经网络模型进行优化,得到第一目标场景神经网络模型。
通过最小化预测文本信息和真实文本信息之间的损失函数,实现了对第二神经网络模型的优化,提高了第二神经网络模型对第一文本语句的预测准确度。
可选地,在本申请实施例提供的数据信息的处理方法中,依据测试样本和多个第三文本语句对第一目标场景神经网络模型进行优化,得到目标神经网络模型包括:依据多个第三文本语句对第一目标场景神经网络模型进行优化,得到第二目标场景神经网络模型;通过第二目标场景神经网络模型输出测试样本对应的预测文本信息;依据第三真实文本信息,对测试样本对应的预测文本信息进行评估,得到第二分数;若第二分数高于第二预设数值,则将第二目标场景神经网络模型确定为目标神经网络模型。
例如,首先将多个第三文本语句输入至第一目标场景神经网络模型进行自监督学习,通过自监督学习可以使第一目标神经网络模型学习到多个第三文本语句中的每一个文本信息,例如,将“基金的涨跌是什么原因导致的”中的文字依次进行遮挡和预测,在第一目标场景神经网络模型完成自监督学习后,得到第二目标场景神经网络模型,再通过第二目标场景神经网络对测试样本中的多个第四文本语句中被遮挡的文字信息进行预测,得到每个第四文本语句对应的预测文本信息,然后根据每个第四文本语句对应的第三真实文本判断每个第四文本语句对应的预测文本信息是否准确,并得到第二目标场景对测试样本的预测准确度(即上述的第二分数),当预测准确度高于第二预设数值(例如,95%)时,将当前的第二目标场景神经网络模型确定为目标神经网络模型。
通过第三文本语句对第一目标场景神经网络模型进行优化,使第一目标场景神经网络模型可以更加准确地预测出第三文本语句中被遮挡的文字信息,然后再通过测试样本对第二目标场景神经网络模型进行测试,保证第二目标场景神经网络模型预测的准确度。
可选地,在本申请实施例提供的数据信息的处理方法中,在对测试样本对应的预测文本信息进行评估,得到第二分数之后,该方法还包括:若第二分数低于第二预设数值,则重复执行依据第一训练样本对第一神经网络模型进行优化的步骤,直至第二分数高于第二预设数值,并将当前的第二目标场景神经网络模型确定为目标神经网络模型。
例如,如果第二目标场景神经网络模型对测试样本的预测准确度低于第二预设数值,则重复执行根据第一训练样本对第一神经网络模型进行优化及后续步骤,直到第二目标场景神经网络模型对测试样本的预测准确度高于第二预设数值,在第二目标场景神经网络模型对测试样本的预测准确度高于第二预设数值时,将当前的第二目标场景神经网络模型确定为目标神经网络模型。
在第二目标场景神经网络模型的预测准确度不满足要求时,通过第一训练样本对第一神经网络模型进行重复训练,直到第二目标场景神经网络模型的预测准确度满足要求时停止训练,保证了目标神经网络模型的预测准确度。
在一可选的实施例中,目标神经网络模型的训练方法可以通过如图2所示的流程实现,具体步骤如下:步骤201,获取通用的语料库,根据通用的语料库对初始神经网络模型进行训练,得到通用基础模型;步骤202,获取特定领域的原始训练样本,根据特定领域的原始训练样本对通用基础模型进行训练,得到特定领域模型;步骤203,获取目标训练样本,通过Siamese神经网络计算目标训练样本和特定领域的原始训练样本之间的余弦相似度,如果两个样本之间的相似度高于预设阈值,采用目标训练样本训练特定领域模型输出层的权重参数,得到目标模型;如果两个样本之间的相似度低于预设阈值,则重置特定领域模型的超参数,然后再通过目标训练样本对重置超参数后的特定领域模型进行训练,得到目标模型;步骤204,将目标训练样本输入到目标模型进行自监督学习,得到优化后的目标模型;步骤205,获取测试样本,将测试样本输入优化后的目标模型,得到优化后的目标模型的输出结果,判断输出结果的正确率,如果输出结果的正确率高于预设分数值,则结束训练,得到目标神经网络模型;如果输出结果的正确率低于预设分数值,则重复步骤203、步骤204和步骤205,直到输出结果的正确率高于预设分数值,得到目标神经网络模型。
本申请实施例提供的数据信息的处理方法,通过获取咨询语句,其中,咨询语句是咨询业务过程中采集的语句,且咨询语句存在语义缺失;在咨询语句的咨询业务领域为金融业务领域时,确定咨询语句所属的目标金融业务场景;获取目标金融业务场景对应的目标神经网络模型,并将咨询语句输入目标神经网络模型,输出预测文本信息,其中,目标神经网络模型是采用目标金融业务场景对应的第一训练样本对通用神经网络模型优化得到的;依据预测文本信息对咨询语句进行语义补充,得到目标咨询语句,并依据目标咨询语句,返回针对咨询语句的回复内容,解决了相关技术中采用通用神经网络模型对金融业务咨询语句中缺失的文字进行预测,导致对文字预测的准确度比较低的问题。在本申请中,首先通过目标金融业务场景对应的第一训练样本对通用神经网络模型优化得到目标神经网络模型,然后通过目标神经网络模型对咨询语句缺失的语义进行文本预测,提高了对金融业务场景的咨询语句缺失文字的预测准确度,从而提高了对咨询语句进行语义补充的准确度,进而达到了提高针对咨询语句的回复内容的准确度的效果。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
本申请实施例还提供了一种数据信息的处理装置,需要说明的是,本申请实施例的数据信息的处理装置可以用于执行本申请实施例所提供的用于数据信息的处理方法。以下对本申请实施例提供的数据信息的处理装置进行介绍。
图3是根据本申请实施例的数据信息的处理装置的示意图。如图3所示,该装置包括:获取单元301、确定单元302、预测单元303和回复单元304。
获取单元301,用于获取咨询语句,其中,咨询语句是咨询业务过程中采集的语句,且咨询语句存在语义缺失;
确定单元302,用于在咨询语句的咨询业务领域为金融业务领域时,确定咨询语句所属的目标金融业务场景;
预测单元303,用于获取目标金融业务场景对应的目标神经网络模型,并将咨询语句输入目标神经网络模型,输出预测文本信息,其中,目标神经网络模型是采用目标金融业务场景对应的第一训练样本对通用神经网络模型优化得到的;
回复单元304,用于依据预测文本信息对咨询语句进行语义补充,得到目标咨询语句,并依据目标咨询语句,返回针对咨询语句的回复内容。
本申请实施例提供的数据信息的处理装置,通过获取单元301获取咨询语句,其中,咨询语句是咨询业务过程中采集的语句,且咨询语句存在语义缺失;确定单元302在咨询语句的咨询业务领域为金融业务领域时,确定咨询语句所属的目标金融业务场景;预测单元303获取目标金融业务场景对应的目标神经网络模型,并将咨询语句输入目标神经网络模型,输出预测文本信息,其中,目标神经网络模型是采用目标金融业务场景对应的第一训练样本对通用神经网络模型优化得到的;回复单元304依据预测文本信息对咨询语句进行语义补充,得到目标咨询语句,并依据目标咨询语句,返回针对咨询语句的回复内容,解决了相关技术中采用通用神经网络模型对金融业务咨询语句中缺失的文字进行预测,导致对文字预测的准确度比较低的问题。在本申请中,首先通过目标金融业务场景对应的第一训练样本对通用神经网络模型优化得到目标神经网络模型,然后通过目标神经网络模型对咨询语句缺失的语义进行文本预测,提高了对金融业务场景的咨询语句缺失文字的预测准确度,从而提高了对咨询语句进行语义补充的准确度,进而达到了提高针对咨询语句的回复内容的准确度的效果。
可选地,在本申请实施例提供的数据信息的处理装置中,预测单元包括:获取子单元,用于获取通用神经网络模型和目标金融业务场景对应的第一训练样本,其中,第一训练样本由目标金融业务场景对应的多个第一文本语句及每个第一文本语句对应的第一真实文本信息组成,多个第一文本语句中的部分文字被遮挡,第一真实文本信息为第一文本语句中被遮挡的文字信息;第一优化子单元,用于依据第一训练样本对通用神经网络模型进行优化,得到目标神经网络模型。
可选地,在本申请实施例提供的数据信息的处理装置中,第一优化子单元包括:第一获取模块,用于获取第二训练样本,其中,第二训练样本由金融业务领域中的N个金融业务场景对应的多个第二文本语句及每个第二文本语句对应的第二真实文本信息组成,N为大于1的整数;第一训练模块,用于依据第二训练样本对通用神经网络模型进行训练,得到第一神经网络模型;第一优化模块,用于依据第一训练样本对第一神经网络模型进行优化,得到第一目标场景神经网络模型;处理模块,用于对第一训练样本中的每个第一文本语句中的目标文字进行遮挡处理,得到多个第三文本语句;第二优化模块,用于依据测试样本和多个第三文本语句对第一目标场景神经网络模型进行优化,得到目标神经网络模型,其中,测试样本由目标金融业务场景对应的多个第四文本语句及每个第四文本语句对应的第三真实文本信息组成。
可选地,在本申请实施例提供的数据信息的处理装置中,获取子单元包括:第二获取模块,用于获取第三训练样本,其中,第三训练样本由多个领域中的多个第五文本语句及每个第五文本语句对应的第四真实文本信息组成;第二训练模块,用于依据第三训练样本对初始神经网络模型进行训练,得到通用神经网络模型,其中,初始神经网络模型至少包括输入层、隐藏层和输出层。
可选地,在本申请实施例提供的数据信息的处理装置中,第一优化模块包括:计算子模块,用于计算每个第一文本语句与第二文本语句之间的相似度,得到多个相似度值,并对多个相似度值进行计算,得到第一分数;固化子模块,用于在第一分数大于第一预设数值时,对第一神经网络模型的目标权重参数进行参数固化,得到第二神经网络模型,其中,目标权重参数包括第一神经网络模型中的输入层和第一神经网络模型中的隐藏层的权重参数;第一优化子模块,用于依据第一训练样本对第二神经网络模型进行优化,得到第一目标场景神经网络模型。
可选地,在本申请实施例提供的数据信息的处理装置中,该装置还包括:重置单元,用于在第一分数小于等于第一预设数值时,重置第一神经网络模型的超参数,得到第三神经网络模型;优化单元,用于依据第一训练样本对第三神经网络模型进行优化,得到第一目标场景神经网络模型。
可选地,在本申请实施例提供的数据信息的处理装置中,优化单元包括:预测子单元,用于将第一训练样本输入到第二神经网络模型中,得到每个第一文本语句对应的预测文本信息;计算子单元,用于对预测文本信息与第一真实文本信息之间的损失进行计算,得到目标损失函数;第二优化子单元,用于依据目标损失函数对第二神经网络模型进行优化,得到第一目标场景神经网络模型。
可选地,在本申请实施例提供的数据信息的处理装置中,第二优化模块包括:第二优化子模块,用于依据多个第三文本语句对第一目标场景神经网络模型进行优化,得到第二目标场景神经网络模型;预测子模块,用于通过第二目标场景神经网络模型输出测试样本对应的预测文本信息;评估子模块,用于依据第三真实文本信息,对测试样本对应的预测文本信息进行评估,得到第二分数;确定子模块,用于在第二分数高于第二预设数值时,将第二目标场景神经网络模型确定为目标神经网络模型。
可选地,在本申请实施例提供的数据信息的处理装置中,该装置还包括:执行单元,用于在第二分数低于第二预设数值时,重复执行依据第一训练样本对第一神经网络模型进行优化的步骤,直至第二分数高于第二预设数值,并将当前的第二目标场景神经网络模型确定为目标神经网络模型。
数据信息的处理装置包括处理器和存储器,上述的获取单元301、确定单元302、预测单元303和回复单元304单元等均作为程序单元存储在存储器中,由处理器执行存储在存储器中的上述程序单元来实现相应的功能。
处理器中包含内核,由内核去存储器中调取相应的程序单元。内核可以设置一个或以上,通过调整内核参数来解决相关技术中采用通用神经网络模型对金融业务咨询语句中缺失的文字进行预测,导致对文字预测的准确度比较低的问题。
存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM),存储器包括至少一个存储芯片。
本发明实施例提供了一种计算机可读存储介质,其上存储有程序,该程序被处理器执行时实现数据信息的处理方法。
本发明实施例提供了一种处理器,处理器用于运行程序,其中,程序运行时执行数据信息的处理方法。
如图4所示,本发明实施例提供了一种电子设备,设备包括处理器、存储器及存储在存储器上并可在处理器上运行的程序,处理器执行程序时实现以下步骤:获取咨询语句,其中,咨询语句是咨询业务过程中采集的语句,且咨询语句存在语义缺失;在咨询语句的咨询业务领域为金融业务领域时,确定咨询语句所属的目标金融业务场景;获取目标金融业务场景对应的目标神经网络模型,并将咨询语句输入目标神经网络模型,输出预测文本信息;依据预测文本信息对咨询语句进行语义补充,得到目标咨询语句,并依据目标咨询语句,返回针对咨询语句的回复内容。
可选地,在本申请实施例提供的数据信息的处理方法中,获取目标金融业务场景对应的目标神经网络模型包括:获取通用神经网络模型和目标金融业务场景对应的第一训练样本,其中,第一训练样本由目标金融业务场景对应的多个第一文本语句及每个第一文本语句对应的第一真实文本信息组成,多个第一文本语句中的部分文字被遮挡,第一真实文本信息为第一文本语句中被遮挡的文字信息;依据第一训练样本对通用神经网络模型进行优化,得到目标神经网络模型。
可选地,在本申请实施例提供的数据信息的处理方法中,依据第一训练样本对通用神经网络模型进行优化,得到目标神经网络模型包括:获取第二训练样本,其中,第二训练样本由金融业务领域中的N个金融业务场景对应的多个第二文本语句及每个第二文本语句对应的第二真实文本信息组成,N为大于1的整数;依据第二训练样本对通用神经网络模型进行训练,得到第一神经网络模型;依据第一训练样本对第一神经网络模型进行优化,得到第一目标场景神经网络模型;对第一训练样本中的每个第一文本语句中的目标文字进行遮挡处理,得到多个第三文本语句;依据测试样本和多个第三文本语句对第一目标场景神经网络模型进行优化,得到目标神经网络模型,其中,测试样本由目标金融业务场景对应的多个第四文本语句及每个第四文本语句对应的第三真实文本信息组成。
可选地,在本申请实施例提供的数据信息的处理方法中,获取通用神经网络模型包括:获取第三训练样本,其中,第三训练样本由多个领域中的多个第五文本语句及每个第五文本语句对应的第四真实文本信息组成;依据第三训练样本对初始神经网络模型进行训练,得到通用神经网络模型,其中,初始神经网络模型至少包括输入层、隐藏层和输出层。
可选地,在本申请实施例提供的数据信息的处理方法中,依据第一训练样本对第一神经网络模型进行优化,得到第一目标场景神经网络模型包括:计算每个第一文本语句与第二文本语句之间的相似度,得到多个相似度值,并对多个相似度值进行计算,得到第一分数;若第一分数大于第一预设数值,则对第一神经网络模型的目标权重参数进行参数固化,得到第二神经网络模型,其中,目标权重参数包括第一神经网络模型中的输入层和第一神经网络模型中的隐藏层的权重参数;依据第一训练样本对第二神经网络模型进行优化,得到第一目标场景神经网络模型。
可选地,在本申请实施例提供的数据信息的处理方法中,在对多个相似度值进行计算,得到第一分数之后,该方法还包括:若第一分数小于等于第一预设数值,则重置第一神经网络模型的超参数,得到第三神经网络模型;依据第一训练样本对第三神经网络模型进行优化,得到第一目标场景神经网络模型。
可选地,在本申请实施例提供的数据信息的处理方法中,依据第一训练样本对第一神经网络模型进行优化,得到第一目标场景神经网络模型包括:将第一训练样本输入到第二神经网络模型中,得到每个第一文本语句对应的预测文本信息;对预测文本信息与第一真实文本信息之间的损失进行计算,得到目标损失函数;依据目标损失函数对第二神经网络模型进行优化,得到第一目标场景神经网络模型。
可选地,在本申请实施例提供的数据信息的处理方法中,依据测试样本和多个第三文本语句对第一目标场景神经网络模型进行优化,得到目标神经网络模型包括:依据多个第三文本语句对第一目标场景神经网络模型进行优化,得到第二目标场景神经网络模型;通过第二目标场景神经网络模型输出测试样本对应的预测文本信息;依据第三真实文本信息,对测试样本对应的预测文本信息进行评估,得到第二分数;若第二分数高于第二预设数值,则将第二目标场景神经网络模型确定为目标神经网络模型。
可选地,在本申请实施例提供的数据信息的处理方法中,在对测试样本对应的预测文本信息进行评估,得到第二分数之后,该方法还包括:若第二分数低于第二预设数值,则重复执行依据第一训练样本对第一神经网络模型进行优化的步骤,直至第二分数高于第二预设数值,并将当前的第二目标场景神经网络模型确定为目标神经网络模型。本文中的设备可以是服务器、PC、PAD、手机等。
本申请还提供了一种计算机程序产品,当在数据处理设备上执行时,适于执行初始化有如下方法步骤的程序:获取咨询语句,其中,咨询语句是咨询业务过程中采集的语句,且咨询语句存在语义缺失;在咨询语句的咨询业务领域为金融业务领域时,确定咨询语句所属的目标金融业务场景;获取目标金融业务场景对应的目标神经网络模型,并将咨询语句输入目标神经网络模型,输出预测文本信息;依据预测文本信息对咨询语句进行语义补充,得到目标咨询语句,并依据目标咨询语句,返回针对咨询语句的回复内容。
可选地,在本申请实施例提供的数据信息的处理方法中,获取目标金融业务场景对应的目标神经网络模型包括:获取通用神经网络模型和目标金融业务场景对应的第一训练样本,其中,第一训练样本由目标金融业务场景对应的多个第一文本语句及每个第一文本语句对应的第一真实文本信息组成,多个第一文本语句中的部分文字被遮挡,第一真实文本信息为第一文本语句中被遮挡的文字信息;依据第一训练样本对通用神经网络模型进行优化,得到目标神经网络模型。
可选地,在本申请实施例提供的数据信息的处理方法中,依据第一训练样本对通用神经网络模型进行优化,得到目标神经网络模型包括:获取第二训练样本,其中,第二训练样本由金融业务领域中的N个金融业务场景对应的多个第二文本语句及每个第二文本语句对应的第二真实文本信息组成,N为大于1的整数;依据第二训练样本对通用神经网络模型进行训练,得到第一神经网络模型;依据第一训练样本对第一神经网络模型进行优化,得到第一目标场景神经网络模型;对第一训练样本中的每个第一文本语句中的目标文字进行遮挡处理,得到多个第三文本语句;依据测试样本和多个第三文本语句对第一目标场景神经网络模型进行优化,得到目标神经网络模型,其中,测试样本由目标金融业务场景对应的多个第四文本语句及每个第四文本语句对应的第三真实文本信息组成。
可选地,在本申请实施例提供的数据信息的处理方法中,获取通用神经网络模型包括:获取第三训练样本,其中,第三训练样本由多个领域中的多个第五文本语句及每个第五文本语句对应的第四真实文本信息组成;依据第三训练样本对初始神经网络模型进行训练,得到通用神经网络模型,其中,初始神经网络模型至少包括输入层、隐藏层和输出层。
可选地,在本申请实施例提供的数据信息的处理方法中,依据第一训练样本对第一神经网络模型进行优化,得到第一目标场景神经网络模型包括:计算每个第一文本语句与第二文本语句之间的相似度,得到多个相似度值,并对多个相似度值进行计算,得到第一分数;若第一分数大于第一预设数值,则对第一神经网络模型的目标权重参数进行参数固化,得到第二神经网络模型,其中,目标权重参数包括第一神经网络模型中的输入层和第一神经网络模型中的隐藏层的权重参数;依据第一训练样本对第二神经网络模型进行优化,得到第一目标场景神经网络模型。
可选地,在本申请实施例提供的数据信息的处理方法中,在对多个相似度值进行计算,得到第一分数之后,该方法还包括:若第一分数小于等于第一预设数值,则重置第一神经网络模型的超参数,得到第三神经网络模型;依据第一训练样本对第三神经网络模型进行优化,得到第一目标场景神经网络模型。
可选地,在本申请实施例提供的数据信息的处理方法中,依据第一训练样本对第一神经网络模型进行优化,得到第一目标场景神经网络模型包括:将第一训练样本输入到第二神经网络模型中,得到每个第一文本语句对应的预测文本信息;对预测文本信息与第一真实文本信息之间的损失进行计算,得到目标损失函数;依据目标损失函数对第二神经网络模型进行优化,得到第一目标场景神经网络模型。
可选地,在本申请实施例提供的数据信息的处理方法中,依据测试样本和多个第三文本语句对第一目标场景神经网络模型进行优化,得到目标神经网络模型包括:依据多个第三文本语句对第一目标场景神经网络模型进行优化,得到第二目标场景神经网络模型;通过第二目标场景神经网络模型输出测试样本对应的预测文本信息;依据第三真实文本信息,对测试样本对应的预测文本信息进行评估,得到第二分数;若第二分数高于第二预设数值,则将第二目标场景神经网络模型确定为目标神经网络模型。
可选地,在本申请实施例提供的数据信息的处理方法中,在对测试样本对应的预测文本信息进行评估,得到第二分数之后,该方法还包括:若第二分数低于第二预设数值,则重复执行依据第一训练样本对第一神经网络模型进行优化的步骤,直至第二分数高于第二预设数值,并将当前的第二目标场景神经网络模型确定为目标神经网络模型。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。存储器是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
以上仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (12)
1.一种数据信息的处理方法,其特征在于,包括:
获取咨询语句,其中,所述咨询语句是咨询业务过程中采集的语句,且所述咨询语句存在语义缺失;
在所述咨询语句的咨询业务领域为金融业务领域时,确定所述咨询语句所属的目标金融业务场景;
获取所述目标金融业务场景对应的目标神经网络模型,并将所述咨询语句输入所述目标神经网络模型,输出预测文本信息,其中,所述目标神经网络模型是采用所述目标金融业务场景对应的第一训练样本对通用神经网络模型优化得到的;
依据所述预测文本信息对所述咨询语句进行语义补充,得到目标咨询语句,并依据所述目标咨询语句,返回针对所述咨询语句的回复内容。
2.根据权利要求1所述的方法,其特征在于,获取所述目标金融业务场景对应的目标神经网络模型包括:
获取所述通用神经网络模型和所述目标金融业务场景对应的第一训练样本,其中,所述第一训练样本由目标金融业务场景对应的多个第一文本语句及每个第一文本语句对应的第一真实文本信息组成,所述多个第一文本语句中的部分文字被遮挡,所述第一真实文本信息为所述第一文本语句中被遮挡的文字信息;
依据所述第一训练样本对所述通用神经网络模型进行优化,得到所述目标神经网络模型。
3.根据权利要求2所述的方法,其特征在于,依据所述第一训练样本对所述通用神经网络模型进行优化,得到所述目标神经网络模型包括:
获取第二训练样本,其中,所述第二训练样本由所述金融业务领域中的N个金融业务场景对应的多个第二文本语句及每个第二文本语句对应的第二真实文本信息组成,N为大于1的整数;
依据所述第二训练样本对所述通用神经网络模型进行训练,得到第一神经网络模型;
依据所述第一训练样本对所述第一神经网络模型进行优化,得到第一目标场景神经网络模型;
对所述第一训练样本中的每个第一文本语句中的目标文字进行遮挡处理,得到多个第三文本语句;
依据测试样本和所述多个第三文本语句对所述第一目标场景神经网络模型进行优化,得到所述目标神经网络模型,其中,所述测试样本由所述目标金融业务场景对应的多个第四文本语句及每个第四文本语句对应的第三真实文本信息组成。
4.根据权利要求2所述的方法,其特征在于,获取所述通用神经网络模型包括:
获取第三训练样本,其中,所述第三训练样本由多个领域中的多个第五文本语句及每个第五文本语句对应的第四真实文本信息组成;
依据所述第三训练样本对初始神经网络模型进行训练,得到所述通用神经网络模型,其中,所述初始神经网络模型至少包括输入层、隐藏层和输出层。
5.根据权利要求3所述的方法,其特征在于,依据所述第一训练样本对所述第一神经网络模型进行优化,得到第一目标场景神经网络模型包括:
计算每个第一文本语句与所述第二文本语句之间的相似度,得到多个相似度值,并对所述多个相似度值进行计算,得到第一分数;
若所述第一分数大于第一预设数值,则对所述第一神经网络模型的目标权重参数进行参数固化,得到第二神经网络模型,其中,所述目标权重参数包括所述第一神经网络模型中的输入层和所述第一神经网络模型中的隐藏层的权重参数;
依据所述第一训练样本对所述第二神经网络模型进行优化,得到所述第一目标场景神经网络模型。
6.根据权利要求5所述的方法,其特征在于,在对所述多个相似度值进行计算,得到第一分数之后,所述方法还包括:
若所述第一分数小于等于所述第一预设数值,则重置所述第一神经网络模型的超参数,得到第三神经网络模型;
依据所述第一训练样本对所述第三神经网络模型进行优化,得到所述第一目标场景神经网络模型。
7.根据权利要求5所述的方法,其特征在于,依据所述第一训练样本对所述第一神经网络模型进行优化,得到第一目标场景神经网络模型包括:
将所述第一训练样本输入到所述第二神经网络模型中,得到每个第一文本语句对应的预测文本信息;
对所述预测文本信息与所述第一真实文本信息之间的损失进行计算,得到目标损失函数;
依据所述目标损失函数对所述第二神经网络模型进行优化,得到所述第一目标场景神经网络模型。
8.根据权利要求3所述的方法,其特征在于,依据测试样本和所述多个第三文本语句对所述第一目标场景神经网络模型进行优化,得到所述目标神经网络模型包括:
依据所述多个第三文本语句对所述第一目标场景神经网络模型进行优化,得到第二目标场景神经网络模型;
通过所述第二目标场景神经网络模型输出所述测试样本对应的预测文本信息;
依据所述第三真实文本信息,对所述测试样本对应的预测文本信息进行评估,得到第二分数;
若所述第二分数高于第二预设数值,则将所述第二目标场景神经网络模型确定为所述目标神经网络模型。
9.根据权利要求8所述的方法,其特征在于,在对所述测试样本对应的预测文本信息进行评估,得到第二分数之后,所述方法还包括:
若所述第二分数低于所述第二预设数值,则重复执行依据所述第一训练样本对所述第一神经网络模型进行优化的步骤,直至所述第二分数高于所述第二预设数值,并将当前的第二目标场景神经网络模型确定为所述目标神经网络模型。
10.一种数据信息的处理装置,其特征在于,包括:
获取单元,用于获取咨询语句,其中,所述咨询语句是咨询业务过程中采集的语句,且所述咨询语句存在语义缺失;
确定单元,用于在所述咨询语句的咨询业务领域为金融业务领域时,确定所述咨询语句所属的目标金融业务场景;
预测单元,用于获取所述目标金融业务场景对应的目标神经网络模型,并将所述咨询语句输入所述目标神经网络模型,输出预测文本信息,其中,所述目标神经网络模型是采用所述目标金融业务场景对应的第一训练样本对通用神经网络模型优化得到的;
回复单元,用于依据所述预测文本信息对所述咨询语句进行语义补充,得到目标咨询语句,并依据所述目标咨询语句,返回针对所述咨询语句的回复内容。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括存储的程序,其中,在所述程序运行时控制所述存储介质在设备执行权利要求1至9中任意一项所述的数据信息的处理方法。
12.一种电子设备,其特征在于,包括一个或多个处理器和存储器,所述存储器用于存储一个或多个程序,其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现权利要求1至9中任意一项所述的数据信息的处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310746137.0A CN116737904A (zh) | 2023-06-21 | 2023-06-21 | 数据信息的处理方法及装置、存储介质和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310746137.0A CN116737904A (zh) | 2023-06-21 | 2023-06-21 | 数据信息的处理方法及装置、存储介质和电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116737904A true CN116737904A (zh) | 2023-09-12 |
Family
ID=87907834
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310746137.0A Pending CN116737904A (zh) | 2023-06-21 | 2023-06-21 | 数据信息的处理方法及装置、存储介质和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116737904A (zh) |
-
2023
- 2023-06-21 CN CN202310746137.0A patent/CN116737904A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111275491A (zh) | 一种数据处理方法及装置 | |
CN112214652B (zh) | 一种报文生成方法、装置及设备 | |
CN111176565B (zh) | 确定应用的存储负载的方法和设备 | |
CN112132690B (zh) | 外汇产品信息的推送方法、装置、计算机设备及存储介质 | |
CN117132329A (zh) | 产品推荐方法、装置、存储介质及电子设备 | |
CN111461932B (zh) | 基于大数据的行政处罚自由裁量权合理性评估方法及装置 | |
CN116596657A (zh) | 贷款风险评估方法、装置、存储介质及电子设备 | |
CN116883179A (zh) | 金融产品投资策略的确定方法、装置、处理器及电子设备 | |
CN116738293A (zh) | 一种业务评价处理方法、装置及电子设备 | |
CN116225958A (zh) | 故障预测方法、装置、存储介质及电子设备 | |
CN116737904A (zh) | 数据信息的处理方法及装置、存储介质和电子设备 | |
CN111353688B (zh) | 一种用户资源分配方法以及装置 | |
CN113553063A (zh) | 代码开源贡献度的确定方法、装置、计算机设备及介质 | |
CN111783453A (zh) | 文本的情感信息处理方法及装置 | |
CN111428994B (zh) | 业务处理方法、装置及电子设备 | |
CN118504540A (zh) | 业务文件的生成方法、装置、存储介质以及电子设备 | |
CN117768850A (zh) | 金融消息的推送方法及装置、存储介质和电子设备 | |
CN115730823A (zh) | 风险概率识别方法、装置、处理器和电子设备 | |
CN116523648A (zh) | 风险对象的识别方法和装置、存储介质及电子设备 | |
CN116956873A (zh) | 链上资产发放方法及装置 | |
CN117670535A (zh) | 交易风险信息的预测方法、装置及电子设备 | |
CN118396033A (zh) | 大语言模型微调方法、装置、电子设备及可读存储介质 | |
CN116167061A (zh) | 数据脱敏方法、装置、处理器及电子设备 | |
CN117494858A (zh) | 事件预测方法、装置、电子设备及存储介质 | |
CN118170546A (zh) | 请求的处理方法、装置、计算机存储介质以及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |