CN116663568B - 基于优先级的关键任务识别系统及其方法 - Google Patents
基于优先级的关键任务识别系统及其方法 Download PDFInfo
- Publication number
- CN116663568B CN116663568B CN202310943435.9A CN202310943435A CN116663568B CN 116663568 B CN116663568 B CN 116663568B CN 202310943435 A CN202310943435 A CN 202310943435A CN 116663568 B CN116663568 B CN 116663568B
- Authority
- CN
- China
- Prior art keywords
- task
- semantic
- coding feature
- tasks
- feature vectors
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000004458 analytical method Methods 0.000 claims abstract description 15
- 238000012098 association analyses Methods 0.000 claims abstract description 11
- 239000013598 vector Substances 0.000 claims description 191
- 238000005457 optimization Methods 0.000 claims description 52
- 238000009826 distribution Methods 0.000 claims description 25
- 238000012546 transfer Methods 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000013507 mapping Methods 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 8
- 238000010219 correlation analysis Methods 0.000 claims description 5
- 230000007704 transition Effects 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims 2
- 238000010276 construction Methods 0.000 claims 1
- 230000008569 process Effects 0.000 abstract description 11
- 230000003993 interaction Effects 0.000 abstract description 6
- 230000006870 function Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000003058 natural language processing Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 210000002569 neuron Anatomy 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000013468 resource allocation Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000011524 similarity measure Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 240000004760 Pimpinella anisum Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- 238000007794 visualization technique Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Abstract
本申请公开了一种基于优先级的关键任务识别系统及其方法,其在关键任务识别过程中,通过对于第一至第n任务的文本描述进行语义分析和全局语义交互关联分析来进行关键任务的识别确定,以此来提高对任务优先级判断的准确性,从而提高系统的灵活性、准确性和自适应性,确保系统的稳定安全运行。
Description
技术领域
本申请涉及智能识别领域,且更为具体地,涉及一种基于优先级的关键任务识别系统及其方法。
背景技术
实时操作系统(RTOS)是一种专门设计用于实时应用程序的操作系统,其具有严格的时间限制和可靠性要求,能够确保任务在预定的时间范围内完成,并提供可预测的响应时间。在实时应用中,关键任务的准时执行对于系统的正常运行至关重要。
然而,传统的关键任务识别系统通常是通过预先定义的静态优先级来进行识别和管理,这些优先级在系统设计或配置阶段确定,并且很难在运行时进行动态调整,从而无法适应任务执行过程中的实际情况变化,导致无法灵活地应对不同任务的紧急程度和重要性。当多个关键任务同时竞争系统资源时,传统系统可能面临优先级冲突的问题。在静态优先级设置下,无法有效解决这种冲突,可能导致资源分配不均衡或关键任务无法按时完成。
此外,传统系统通常只根据各个任务的语义进行优先级判断,而缺乏对任务之间全局的考虑。例如,一个任务在当前时刻可能并不紧急,但如果它是后续任务的先决条件,那么它的优先级应该提高。然而,传统的关键任务识别系统无法捕捉和利用这种任务间的全局关联关系,导致优先级的判断可能不准确或不完整,从而影响系统的稳定安全运行。
因此,期望一种优化的基于优先级的关键任务识别系统。
发明内容
为了解决上述技术问题,提出了本申请。本申请的实施例提供了一种基于优先级的关键任务识别系统及其方法,其在关键任务识别过程中,通过对于第一至第n任务的文本描述进行语义分析和全局语义交互关联分析来进行关键任务的识别确定,以此来提高对任务优先级判断的准确性,从而提高系统的灵活性、准确性和自适应性,确保系统的稳定安全运行。
根据本申请的一个方面,提供了一种基于优先级的关键任务识别系统,其包括:任务文本描述数据获取模块,用于获取第一至第n任务的文本描述;文本语义分析模块,用于对所述第一至第n任务的文本描述进行语义关联分析以得到任务语义关联特征;关键任务确定模块,用于基于所述任务语义关联特征,确定关键任务。
根据本申请的另一个方面,提供了一种基于优先级的关键任务识别方法,其包括:获取第一至第n任务的文本描述;对所述第一至第n任务的文本描述进行语义关联分析以得到任务语义关联特征;基于所述任务语义关联特征,确定关键任务。
与现有技术相比,本申请提供的一种基于优先级的关键任务识别系统及其方法,其在关键任务识别过程中,通过对于第一至第n任务的文本描述进行语义分析和全局语义交互关联分析来进行关键任务的识别确定,以此来提高对任务优先级判断的准确性,从而提高系统的灵活性、准确性和自适应性,确保系统的稳定安全运行。
附图说明
通过结合附图对本申请实施例进行更详细的描述,本申请的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本申请实施例的进一步理解,并且构成说明书的一部分,与本申请实施例一起用于解释本申请,并不构成对本申请的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1为根据本申请实施例的基于优先级的关键任务识别系统的框图。
图2为根据本申请实施例的基于优先级的关键任务识别系统的系统架构图。
图3为根据本申请实施例的基于优先级的关键任务识别系统中文本语义分析模块的框图。
图4为根据本申请实施例的基于优先级的关键任务识别系统中关键任务确定模块的框图。
图5为根据本申请实施例的基于优先级的关键任务识别系统中特征分布优化单元的框图。
图6为根据本申请实施例的基于优先级的关键任务识别方法的流程图。
具体实施方式
下面,将参考附图详细地描述根据本申请的示例实施例。显然,所描述的实施例仅仅是本申请的一部分实施例,而不是本申请的全部实施例,应理解,本申请不受这里描述的示例实施例的限制。
如本申请和权利要求书中所示,除非上下文明确提示例外情形,“一”、“一个”、“一种”和/或“该”等词并非特指单数,也可包括复数。一般说来,术语“包括”与“包含”仅提示包括已明确标识的步骤和元素,而这些步骤和元素不构成一个排它性的罗列,方法或者设备也可能包含其他的步骤或元素。
虽然本申请对根据本申请的实施例的系统中的某些模块做出了各种引用,然而,任何数量的不同模块可以被使用并运行在用户终端和/或服务器上。所述模块仅是说明性的,并且所述系统和方法的不同方面可以使用不同模块。
本申请中使用了流程图用来说明根据本申请的实施例的系统所执行的操作。应当理解的是,前面或下面操作不一定按照顺序来精确地执行。相反,根据需要,可以按照倒序或同时处理各种步骤。同时,也可以将其他操作添加到这些过程中,或从这些过程移除某一步或数步操作。
下面,将参考附图详细地描述根据本申请的示例实施例。显然,所描述的实施例仅仅是本申请的一部分实施例,而不是本申请的全部实施例,应理解,本申请不受这里描述的示例实施例的限制。
传统的关键任务识别系统通常是通过预先定义的静态优先级来进行识别和管理,这些优先级在系统设计或配置阶段确定,并且很难在运行时进行动态调整,从而无法适应任务执行过程中的实际情况变化,导致无法灵活地应对不同任务的紧急程度和重要性。当多个关键任务同时竞争系统资源时,传统系统可能面临优先级冲突的问题。在静态优先级设置下,无法有效解决这种冲突,可能导致资源分配不均衡或关键任务无法按时完成。此外,传统系统通常只根据各个任务的语义进行优先级判断,而缺乏对任务之间全局的考虑。例如,一个任务在当前时刻可能并不紧急,但如果它是后续任务的先决条件,那么它的优先级应该提高。然而,传统的关键任务识别系统无法捕捉和利用这种任务间的全局关联关系,导致优先级的判断可能不准确或不完整,从而影响系统的稳定安全运行。因此,期望一种优化的基于优先级的关键任务识别系统。
在本申请的技术方案中,提出了一种基于优先级的关键任务识别系统。图1为根据本申请实施例的基于优先级的关键任务识别系统的框图.图2为根据本申请实施例的基于优先级的关键任务识别系统的系统架构图。如图1和图2所示,根据本申请的实施例的基于优先级的关键任务识别系统300,包括:任务文本描述数据获取模块310,用于获取第一至第n任务的文本描述;文本语义分析模块320,用于对所述第一至第n任务的文本描述进行语义关联分析以得到任务语义关联特征;关键任务确定模块330,用于基于所述任务语义关联特征,确定关键任务。
特别地,在本申请的实施例的基于优先级的关键任务识别系统300的运行过程中,所述任务文本描述数据获取模块310,用于获取第一至第n任务的文本描述。值得注意的是,所述第一至第n任务的文本描述是指一系列任务,其中每个任务都有一个相应的文本描述。可以按照以下步骤来理解这些文本描述:首先,仔细阅读每个任务的文本描述。了解任务要求、目标和条件是理解任务的关键;在每个任务描述中,寻找关键信息,例如任务的主题、所需的输入和预期的输出。这些信息可以帮助了解任务的本质和要求;仔细分析任务描述中的要求,确定需要完成哪些具体任务。任务描述可能包含多个要求或子任务,需要将其分解为可执行的步骤;确定每个任务的输入和输出是什么。输入可能是一些数据、文本或问题,而输出可能是一个答案、一个预测或一个解决方案;任务描述中可能包含条件和限制,这些条件和限制可能会影响解决任务的方法和策略。确保理解这些条件,并在解决任务时加以考虑;根据任务描述和对任务要求的理解,制定解决任务的计划或策略。考虑所需的步骤、方法和工具,并确定如何处理可能的挑战或困难;根据计划或策略,开始执行解决方案。根据任务描述中的要求,处理输入数据并生成相应的输出;完成任务后,仔细检查输出是否符合任务描述中的要求。确保输出满足所需的格式、准确性和完整性。
特别地,在本申请的实施例的基于优先级的关键任务识别系统300的运行过程中,所述文本语义分析模块320,用于对所述第一至第n任务的文本描述进行语义关联分析以得到任务语义关联特征。特别地,在本申请的一个具体示例中,如图3所示,所述文本语义分析模块320,包括:文本描述语义编码单元321,用于将所述第一至第n任务的文本描述分别通过包含词嵌入层的上下文编码器以得到第一至第n任务的语义编码特征向量;关键任务间语义关联编码单元322,用于对所述第一至第n任务的语义编码特征向量进行语义关联编码以得到任务间全局上下文关联编码特征向量作为所述任务语义关联特征。
具体地,所述文本描述语义编码单元321,用于将所述第一至第n任务的文本描述分别通过包含词嵌入层的上下文编码器以得到第一至第n任务的语义编码特征向量。虑到由于所述各个任务的文本描述中包含了有关于各个任务的语义信息,并且各个任务的文本描述是由多个词组成的,各个词之间具有着上下文的语义关联关系。因此,为了能够更好地捕捉所述各个任务的语义信息,使得系统能够更准确地理解任务的内容和要求,在本申请的技术方案中,进一步将所述第一至第n任务的文本描述分别通过包含词嵌入层的上下文编码器中进行编码,以提取出所述第一至第n任务的文本描述中有关于各个任务的上下文语义理解特征信息,从而得到第一至第n任务的语义编码特征向量。具体地,对所述第一至第n任务的文本描述进行分词处理以将所述第一至第n任务的文本描述转化为由多个词组成的词序列;使用所述包含词嵌入层的上下文编码器的嵌入层分别将所述词序列中各个词映射为词嵌入向量以得到词嵌入向量的序列;使用所述包含词嵌入层的上下文编码器的转换器对所述词嵌入向量的序列进行基于转换器思想的全局上下文语义编码以得到多个全局上下文语义编码特征向量;以及,将所述多个全局上下文语义编码特征向量进行级联以得到所述第一至第n任务的语义编码特征向量。
值得注意的是,词嵌入层(Word Embedding Layer)是深度学习模型中的一层,用于将离散的词语表示转换为连续的向量表示。它是自然语言处理(NLP)中的重要组件,可以将文本数据转换为机器可以理解和处理的形式。在传统的文本处理方法中,词语通常被表示为独热编码(One-Hot Encoding),其中每个词语都被表示为一个高维稀疏向量,只有一个元素为1,其余元素为0。然而,这种表示方式存在维度灾难和无法捕捉词语之间的语义关系等问题。词嵌入层通过将词语映射到一个低维连续向量空间中的实数向量来解决上述问题。在词嵌入空间中,语义相似的词语在向量空间中的距离更近,可以通过向量之间的距离或相似度度量来衡量词语之间的语义关联程度。常见的词嵌入模型包括Word2Vec、GloVe和FastText等,它们通过训练大规模的语料库来学习词嵌入向量。这些模型可以捕捉到词语之间的语义和语法关系,使得词嵌入向量能够更好地表示文本数据的语义信息。
值得注意的是,上下文编码器(Context Encoder)是一种在自然语言处理(NLP)中常用的模型组件,用于将输入的文本序列编码为一个表示整体语义信息的向量。在NLP任务中,文本通常是由一个或多个词语组成的序列。为了捕捉词语之间的上下文信息和语义关联,上下文编码器会对整个文本序列进行建模,并生成一个固定长度的向量表示作为输入的语境信息。上下文编码器可以使用多种模型来实现,其中一种常见的模型是循环神经网络(Recurrent Neural Network,RNN)。RNN通过逐步处理序列中的每个词语,并在每个时间步骤中维护一个隐藏状态(hidden state),用于捕捉上下文信息。隐藏状态会在每个时间步骤中更新,并将前一个时间步骤的隐藏状态与当前输入的词语进行结合,从而传递上下文信息。最后,RNN会将整个序列处理完毕后得到的最终隐藏状态作为文本的向量表示。除了RNN,还有其他的上下文编码器模型,例如长短时记忆网络(Long Short-Term Memory,LSTM)和门控循环单元(Gated Recurrent Unit,GRU)。这些模型在处理文本序列时能够更好地捕捉长距离依赖关系和语义信息。
具体地,所述关键任务间语义关联编码单元322,用于对所述第一至第n任务的语义编码特征向量进行语义关联编码以得到任务间全局上下文关联编码特征向量作为所述任务语义关联特征。应可以理解,由于所述第一至第n任务之间具有着相互的影响和关联关系,例如任务的先决条件、任务的依赖关系等。因此,为了能够充分地捕捉到这些任务之间的相互关联特征信息,在本申请的技术方案中,需要将所述第一至第n任务的语义编码特征向量通过基于转换器的上下文编码器中进行编码,以提取出所述第一至第n任务中有关于各个任务描述的语义特征之间的基于全局的上下文语义关联特征信息,从而得到任务间全局上下文关联编码特征向量。这样,可以捕捉所述各个任务间的上下文语义关联特征信息,并将这些信息编码到所述全局上下文关联编码特征向量中,从而能够更全面地考虑任务间的相互依赖关联关系和相互作用,提高关键任务识别的准确性和效果。在本申请的一个具体示例中,所述关键任务间语义关联编码单元322,用于:将所述第一至第n任务的语义编码特征向量通过基于转换器的上下文编码器以得到所述任务间全局上下文关联编码特征向量。具体地,将所述第一至第n任务的语义编码特征向量进行一维排列以得到全局语义编码特征向量;计算所述全局语义编码特征向量与所述第一至第n任务的语义编码特征向量中各个语义编码特征向量的转置向量之间的乘积以得到多个自注意力关联矩阵;分别对所述多个自注意力关联矩阵中各个自注意力关联矩阵进行标准化处理以得到多个标准化后自注意力关联矩阵;将所述多个标准化后自注意力关联矩阵中各个标准化后自注意力关联矩阵通过Softmax分类函数以得到多个概率值;分别以所述多个概率值中各个概率值作为权重对所述第一至第n任务的语义编码特征向量中各个语义编码特征向量进行加权以得到所述多个上下文语义编码特征向量;以及,将所述多个上下文语义编码特征向量进行级联以得到所述任务间全局上下文关联编码特征向量。
值得一提的是,在本申请的其他具体示例中,还可以通过其他方式对所述第一至第n任务的文本描述进行语义关联分析以得到任务语义关联特征,例如:将第一至第n个任务的文本描述收集起来,确保每个任务都有相应的描述;对任务文本描述进行预处理以去除噪声和标点符号,并将文本转换为标准格式。可以使用文本处理库(如NLTK或SpaCy)进行分词、去除停用词和词形还原等操作;使用预训练的词向量模型(如Word2Vec、GloVe或FastText)将任务文本描述中的单词转换为向量表示。这些词向量模型将单词映射到一个高维向量空间,使得语义相似的单词在向量空间中距离较近;对每个任务的文本描述,将其中的词向量取平均得到一个任务语义向量。这样每个任务都会表示为一个固定长度的向量,该向量捕捉了任务文本描述的语义信息;使用任务语义向量之间的相似度度量方法(如余弦相似度)计算任务之间的语义关联度。对于每对任务,计算它们的语义相似度分数,该分数表示它们在语义上的相似程度;将任务之间的语义关联度分数组织为一个矩阵,其中行和列分别表示任务的索引,矩阵中的每个元素表示对应任务之间的语义关联度分数;对任务语义关联特征矩阵进行可视化和分析,以便更好地理解任务之间的语义关联。可以使用热图、散点图或网络图等可视化工具来展示任务之间的关联程度。
特别地,在本申请的实施例的基于优先级的关键任务识别系统300的运行过程中,所述关键任务确定模块330,用于基于所述任务语义关联特征,确定关键任务。特别地,在本申请的一个具体示例中,如图4所示,所述关键任务确定模块330,包括:特征分布优化单元331,用于对所述任务间全局上下文关联编码特征向量进行特征分布优化以得到优化任务间全局上下文关联编码特征向量;语义转移分析单元332,用于分别将所述第一至第n任务的语义编码特征向量映射到所述优化任务间全局上下文关联编码特征向量的高维空间中以进行任务语义间转移关联分析以得到多个转移矩阵;概率计算单元333,用于将所述多个转移矩阵通过分类器以得到多个概率值;关键任务判断单元334,用于将所述多个概率值中最大者对应的任务,确定为关键任务。
具体地,所述特征分布优化单元331,用于对所述任务间全局上下文关联编码特征向量进行特征分布优化以得到优化任务间全局上下文关联编码特征向量。特别地,在本申请的一个具体示例中,如图5所示,所述特征分布优化单元331,包括:优化因数计算子单元3311,用于基于所述任务间全局上下文关联编码特征向量,分别计算所述第一至第n任务的上下文语义编码特征向量的可转移特征的量化的可转移性感知因数以得到第一至第n加权因数;加权优化子单元3312,用于将所述第一至第n加权因数作为加权系数,对所述第一至第n任务的上下文语义编码特征向量进行加权优化以得到所述优化第一至第n任务的上下文语义编码特征向量;级联子单元3313,用于将所述优化第一至第n任务的上下文语义编码特征向量进行级联以得到所述优化任务间全局上下文关联编码特征向量。
更具体地,所述优化因数计算子单元3311,用于基于所述任务间全局上下文关联编码特征向量,分别计算所述第一至第n任务的上下文语义编码特征向量的可转移特征的量化的可转移性感知因数以得到第一至第n加权因数。特别地,在本申请的技术方案中,将所述第一至第n任务的语义编码特征向量通过基于转换器的上下文编码器得到所述任务间全局上下文关联编码特征向量时,可以对所述第一至第n任务的语义编码特征向量的文本语义表示进行跨任务上下文关联编码,从而提升所述第一至第n任务的语义编码特征向量中的各个特征向量之间的内在特征分布一致性。但是,考虑到第一至第n任务的文本描述的本质文本语义差异,将所述第一至第n任务的语义编码特征向量通过基于转换器的上下文编码器得到的所述第一至第n任务对应的上下文语义编码特征向量仍然会具有一定的显式差异,从而在级联得到所述任务间全局上下文关联编码特征向量时,具有到融合特征域的域转移差异,影响了所述任务间全局上下文关联编码特征向量的表达效果。基于此,本申请的申请人对于所述第一至第n任务对应的上下文语义编码特征向量中的每个上下文语义编码特征向量,例如记为,其中/>,以及级联得到的所述任务间全局上下文关联编码特征向量,例如记为/>,计算其可转移特征的量化的可转移性感知因数:其中/>是所述第一至第n任务的上下文语义编码特征向量中的第/>个上下文语义编码特征向量,/>是所述任务间全局上下文关联编码特征向量,/>是所述第一至第n任务的上下文语义编码特征向量中的第/>个上下文语义编码特征向量的第/>个位置的特征值,/>是所述任务间全局上下文关联编码特征向量的第/>个位置的特征值,/>表示以2为底的对数函数值,且是加权超参数,/>是所述第一至第n加权因数中的第/>个加权因数。这里,所述可转移特征的量化的可转移性感知因数通过域转移下的不确定性度量来估计特征空间域到类目标域的域不确定性,且由于该域不确定性估计可以用于标识已经在域间转移的特征表示,因此通过以该因数来作为权重分别对所述上下文语义编码特征向量中的每个特征向量进行加权,就可以通过特征空间域到类目标域的跨域对齐来鉴别特征映射是否在域间有效转移,从而量化地感知不同特征向量中的可转移特征的可转移性,以实现域间自适应的特征融合,以提升所述任务间全局上下文关联编码特征向量的表达效果,从而提升基于所述任务间全局上下文关联编码特征向量的转移矩阵通过分类器得到的概率值的准确性。这样,能够对于任务优先级较高的关键任务进行识别判断,以此来提高系统的灵活性、准确性和自适应性,确保系统的稳定安全运行。
更具体地,所述加权优化子单元3312,用于将所述第一至第n加权因数作为加权系数,对所述第一至第n任务的上下文语义编码特征向量进行加权优化以得到所述优化第一至第n任务的上下文语义编码特征向量。应可以理解,加权优化可以通过调整特征向量的分布,使得不同任务的特征向量在特征空间中更好地分布。通过加权优化,可以改变特征向量之间的相对位置和距离,以更好地反映任务之间的语义关联或差异。
相应的,在一种可能的实现方式中,可通过以下步骤将所述第一至第n加权因数作为加权系数,对所述第一至第n任务的上下文语义编码特征向量进行加权优化以得到所述优化第一至第n任务的上下文语义编码特征向量,例如:对第一至第n个任务进行上下文语义编码,得到对应的特征向量;特征向量可以是通过词嵌入层和上下文编码器生成的连续向量表示,或者是其他特征提取方法得到的向量表示;进行加权优化:将第一至第n个任务的上下文语义编码特征向量与对应的加权因子进行加权计算;可以使用加权求和的方式,将每个任务的特征向量乘以对应的加权因子,并将结果相加得到加权优化后的特征向量;评估优化结果:对优化后的第一至第n个任务的上下文语义编码特征向量进行评估,以验证优化效果;可以使用相似度度量、聚类性能评估指标等方法来评估优化后的特征向量的质量和效果;迭代优化过程:根据评估结果,如果优化效果不理想,可以调整加权因子的设置,或尝试其他加权优化方法;反复迭代直到达到满意的优化结果。
更具体地,所述级联子单元3313,用于将所述优化第一至第n任务的上下文语义编码特征向量进行级联以得到所述优化任务间全局上下文关联编码特征向量。根据本申请的实施例,所述级联子单元3313,包括:以如下级联公式将所述优化第一至第n任务的上下文语义编码特征向量进行级联以得到所述优化任务间全局上下文关联编码特征向量;其中,所述公式为:其中,/>表示所述所述优化第一至第n任务的上下文语义编码特征向量,/>表示级联函数,/>表示所述优化任务间全局上下文关联编码特征向量。
值得一提的是,在本申请的其他具体示例中,还可以通过其他方式对所述任务间全局上下文关联编码特征向量进行特征分布优化以得到优化任务间全局上下文关联编码特征向量,例如:理解任务间全局上下文关联编码特征向量的当前分布:分析当前任务间全局上下文关联编码特征向量的分布情况,了解其在特征空间中的分布特点;可以使用可视化方法或统计分析方法来观察特征向量的分布,例如绘制散点图、直方图或使用聚类算法等;确定特征分布优化目标:根据具体需求和应用场景,确定任务间全局上下文关联编码特征向量的优化目标;优化目标可以包括增加任务间的差异性、减小特征向量之间的距离、提高特征向量的聚类性等;进行特征分布优化:使用特征变换或特征映射方法对任务间全局上下文关联编码特征向量进行优化;可以使用线性变换、非线性映射或深度学习模型等方法进行特征优化;优化的目标是调整特征向量的分布,使其更符合预定的优化目标;评估优化结果:对优化后的任务间全局上下文关联编码特征向量进行评估,以验证优化效果;可以使用相似度度量、聚类性能评估指标等方法来评估优化后的特征向量的质量和效果;迭代优化过程:根据评估结果,如果优化效果不理想,可以进行迭代优化过程,尝试不同的特征分布优化方法或调整优化参数;反复迭代直到达到满意的优化结果。
具体地,所述语义转移分析单元332,用于分别将所述第一至第n任务的语义编码特征向量映射到所述优化任务间全局上下文关联编码特征向量的高维空间中以进行任务语义间转移关联分析以得到多个转移矩阵。也就是,在得到所述第一至第n任务的全局语义关联特征信息后,为了能够基于各个任务的语义特征信息来进行关键任务的识别确定,在本申请的技术方案中,进一步分别计算所述第一至第n任务的语义编码特征向量中各个语义编码特征向量与所述任务间全局上下文关联编码特征向量之间的转移矩阵以得到多个转移矩阵,以此来将所述第一至第n任务的语义理解特征信息映射到所述第一至第n任务的全局语义关联特征信息的高维空间中,从而刻画出以所述各个任务的全局语义关联特征信息为背景下的有关于所述各个任务的语义特征。通过这样的方式,能够充分利用不同任务之间的关联程度和相互影响程度,并通过任务间的转移规律和关联规律来进一步提高对于所述各个任务的优先级判断精准度,从而提高对于关键任务识别的精准度。
具体地,所述概率计算单元333,用于将所述多个转移矩阵通过分类器以得到多个概率值。也就是,在得到所述多个转移矩阵后,进一步将其通过分类器以获取多个概率值。也就是,利用在所述各个任务的全局语义关联特征信息为基础背景下的有关于所述第一至第n任务的语义理解特征信息来进行分类,以此来得到每个任务的优先级概率值,进而,可以将所述多个概率值中最大者对应的任务,确定为关键任务,以此来提高系统的灵活性、准确性和自适应性,确保系统的稳定安全运行。具体地,将所述转移矩阵基于行向量或列向量展开为分类特征向量;使用所述分类器的多个全连接层对所述分类特征向量进行全连接编码以得到编码分类特征向量;以及,将所述编码分类特征向量通过所述分类器的Softmax分类函数以得到所述分类结果。
分类器(Classifier)是指一种机器学习模型或算法,用于将输入数据分为不同的类别或标签。分类器是监督学习的一部分,它通过学习从输入数据到输出类别的映射关系来进行分类任务。
全连接层(Fully Connected Layer)是神经网络中常见的一种层类型。在全连接层中,每个神经元都与上一层的所有神经元相连接,每个连接都有一个权重。这意味着全连接层中的每个神经元都接收来自上一层所有神经元的输入,并通过权重对这些输入进行加权求和,然后将结果传递给下一层。
Softmax分类函数是一种常用的激活函数,用于多分类问题。它将输入向量的每个元素转化为一个介于0和1之间的概率值,并且这些概率值的和等于1。Softmax函数常用于神经网络的输出层,特别适用于多分类问题,因为它能够将网络输出映射为各个类别的概率分布。在训练过程中,Softmax函数的输出可以用于计算损失函数,并通过反向传播算法来更新网络参数。值得注意的是,Softmax函数的输出并不会改变元素之间的相对大小关系,只是对其进行了归一化处理。因此,Softmax函数并不改变输入向量的特性,只是将其转化为概率分布形式。
具体地,所述关键任务判断单元334,用于将所述多个概率值中最大者对应的任务,确定为关键任务。
相应的,在一种可能的实现方式中,可通过以下步骤将所述多个概率值中最大者对应的任务,确定为关键任务,例如:确定最大概率值:从所有的概率值中找出最大的概率值确定关键任务:找到最大概率值所对应的任务,将其确定为关键任务;这意味着具有最大概率值的任务被认为是最重要的或优先级最高的任务;处理概率值相等的情况:如果存在多个任务具有相同的最大概率值,可以根据具体需求采取不同的策略来确定关键任务;一种常见的策略是选择其中一个任务作为关键任务,可以根据任务的其他特征、先前的优先级等进行选择。
值得一提的是,在本申请的其他具体示例中,还可以通过其他方式基于所述任务语义关联特征,确定关键任务,例如:使用任务语义关联特征:利用前面步骤中得到的任务语义关联特征向量,作为任务之间的语义关联度量;这些特征向量可以表示任务之间的相似性或相关性,反映了它们在语义空间中的关系;确定关键任务的方法:使用聚类算法:将任务语义关联特征向量输入到聚类算法中,例如K-means、层次聚类等,来将任务分组为不同的簇;聚类的结果可以帮助确定哪些任务在语义上更相关或更相似,从而识别出关键任务;考虑任务相关度和重要性:在确定关键任务时,除了任务之间的语义关联特征,还应考虑任务的相关度和重要性;可以使用相关度度量(如相关系数)来衡量任务之间的相关性,以及任务的重要性度量(如任务的目标、影响范围等)来衡量任务的重要性;综合考虑确定关键任务:结合任务语义关联特征、任务相关度和重要性的信息,综合考虑确定关键任务;可以根据具体需求和应用场景,制定适当的权重或阈值来决定哪些任务被认为是关键任务。
如上所述,根据本申请实施例的基于优先级的关键任务识别系统300可以实现在各种无线终端中,例如具有基于优先级的关键任务识别算法的服务器等。在一种可能的实现方式中,根据本申请实施例的基于优先级的关键任务识别系统300可以作为一个软件模块和/或硬件模块而集成到无线终端中。例如,该基于优先级的关键任务识别系统300可以是该无线终端的操作系统中的一个软件模块,或者可以是针对于该无线终端所开发的一个应用程序;当然,该基于优先级的关键任务识别系统300同样可以是该无线终端的众多硬件模块之一。
替换地,在另一示例中,该基于优先级的关键任务识别系统300与该无线终端也可以是分立的设备,并且该基于优先级的关键任务识别系统300可以通过有线和/或无线网络连接到该无线终端,并且按照约定的数据格式来传输交互信息。
进一步地,还提供一种基于优先级的关键任务识别方法。
图6为根据本申请实施例的基于优先级的关键任务识别方法的流程图。如图6所示,根据本申请实施例的基于优先级的关键任务识别方法,包括:S1,获取第一至第n任务的文本描述;S2,对所述第一至第n任务的文本描述进行语义关联分析以得到任务语义关联特征;S3,基于所述任务语义关联特征,确定关键任务。
综上,根据本申请实施例的基于优先级的关键任务识别方法被阐明,其其在关键任务识别过程中,通过对于第一至第n任务的文本描述进行语义分析和全局语义交互关联分析来进行关键任务的识别确定,以此来提高对任务优先级判断的准确性,从而提高系统的灵活性、准确性和自适应性,确保系统的稳定安全运行。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (6)
1.一种基于优先级的关键任务识别系统,其特征在于,包括:
任务文本描述数据获取模块,用于获取第一至第n任务的文本描述;
文本语义分析模块,用于对所述第一至第n任务的文本描述进行语义关联分析以得到任务语义关联特征;
关键任务确定模块,用于基于所述任务语义关联特征,确定关键任务;
其中,所述关键任务确定模块,包括:
特征分布优化单元,用于对任务间全局上下文关联编码特征向量进行特征分布优化以得到优化任务间全局上下文关联编码特征向量;
语义转移分析单元,用于分别将所述第一至第n任务的语义编码特征向量映射到所述优化任务间全局上下文关联编码特征向量的高维空间中以进行任务语义间转移关联分析以得到多个转移矩阵;
概率计算单元,用于将所述多个转移矩阵通过分类器以得到多个概率值;
关键任务判断单元,用于将所述多个概率值中最大者对应的任务,确定为关键任务;
其中,所述特征分布优化单元,包括:
优化因数计算子单元,用于基于所述任务间全局上下文关联编码特征向量,分别计算所述第一至第n任务的上下文语义编码特征向量的可转移特征的量化的可转移性感知因数以得到第一至第n加权因数;
加权优化子单元,用于将所述第一至第n加权因数作为加权系数,对所述第一至第n任务的上下文语义编码特征向量进行加权优化以得到优化第一至第n任务的上下文语义编码特征向量;
级联子单元,用于将所述优化第一至第n任务的上下文语义编码特征向量进行级联以得到所述优化任务间全局上下文关联编码特征向量;
其中,所述优化因数计算子单元,用于:基于所述任务间全局上下文关联编码特征向量,以如下优化公式分别计算所述第一至第n任务的上下文语义编码特征向量的可转移特征的量化的可转移性感知因数以得到所述第一至第n加权因数;
其中,所述优化公式为:
,
其中是所述第一至第n任务的上下文语义编码特征向量中的第/>个上下文语义编码特征向量,/>是所述任务间全局上下文关联编码特征向量,/>是所述第一至第n任务的上下文语义编码特征向量中的第/>个上下文语义编码特征向量的第/>个位置的特征值,/>是所述任务间全局上下文关联编码特征向量的第/>个位置的特征值,/>表示以2为底的对数函数值,且/>是加权超参数,/>是所述第一至第n加权因数中的第/>个加权因数。
2.根据权利要求1所述的基于优先级的关键任务识别系统,其特征在于,所述文本语义分析模块,包括:
文本描述语义编码单元,用于将所述第一至第n任务的文本描述分别通过包含词嵌入层的上下文编码器以得到第一至第n任务的语义编码特征向量;
关键任务间语义关联编码单元,用于对所述第一至第n任务的语义编码特征向量进行语义关联编码以得到任务间全局上下文关联编码特征向量作为所述任务语义关联特征。
3.根据权利要求2所述的基于优先级的关键任务识别系统,其特征在于,所述关键任务间语义关联编码单元,用于:将所述第一至第n任务的语义编码特征向量通过基于转换器的上下文编码器以得到所述任务间全局上下文关联编码特征向量。
4.根据权利要求3所述的基于优先级的关键任务识别系统,其特征在于,所述关键任务间语义关联编码单元,包括:
查询向量构造子单元,用于将所述第一至第n任务的语义编码特征向量进行一维排列以得到全局语义编码特征向量;
自注意子单元,用于计算所述全局语义编码特征向量与所述第一至第n任务的语义编码特征向量中各个语义编码特征向量的转置向量之间的乘积以得到多个自注意力关联矩阵;
标准化子单元,用于分别对所述多个自注意力关联矩阵中各个自注意力关联矩阵进行标准化处理以得到多个标准化后自注意力关联矩阵;
关注度计算子单元,用于将所述多个标准化后自注意力关联矩阵中各个标准化后自注意力关联矩阵通过Softmax分类函数以得到多个概率值;
注意力施加子单元,用于分别以所述多个概率值中各个概率值作为权重对所述第一至第n任务的语义编码特征向量中各个语义编码特征向量进行加权以得到多个上下文语义编码特征向量;以及
级联子单元,用于将所述多个上下文语义编码特征向量进行级联以得到所述任务间全局上下文关联编码特征向量。
5.根据权利要求4所述的基于优先级的关键任务识别系统,其特征在于,所述语义转移分析单元,用于:分别计算所述第一至第n任务的语义编码特征向量中各个语义编码特征向量与所述任务间全局上下文关联编码特征向量之间的转移矩阵以得到所述多个转移矩阵。
6.一种基于优先级的关键任务识别方法,其特征在于,包括:
获取第一至第n任务的文本描述;
对所述第一至第n任务的文本描述进行语义关联分析以得到任务语义关联特征;
基于所述任务语义关联特征,确定关键任务;
其中,基于所述任务语义关联特征,确定关键任务,包括:
对任务间全局上下文关联编码特征向量进行特征分布优化以得到优化任务间全局上下文关联编码特征向量;
分别将所述第一至第n任务的语义编码特征向量映射到所述优化任务间全局上下文关联编码特征向量的高维空间中以进行任务语义间转移关联分析以得到多个转移矩阵;
概率计算单元,用于将所述多个转移矩阵通过分类器以得到多个概率值;
关键任务判断单元,用于将所述多个概率值中最大者对应的任务,确定为关键任务;
其中,对任务间全局上下文关联编码特征向量进行特征分布优化以得到优化任务间全局上下文关联编码特征向量,包括:
基于所述任务间全局上下文关联编码特征向量,分别计算所述第一至第n任务的上下文语义编码特征向量的可转移特征的量化的可转移性感知因数以得到第一至第n加权因数;
将所述第一至第n加权因数作为加权系数,对所述第一至第n任务的上下文语义编码特征向量进行加权优化以得到优化第一至第n任务的上下文语义编码特征向量;
将所述优化第一至第n任务的上下文语义编码特征向量进行级联以得到所述优化任务间全局上下文关联编码特征向量;
其中,基于所述任务间全局上下文关联编码特征向量,分别计算所述第一至第n任务的上下文语义编码特征向量的可转移特征的量化的可转移性感知因数以得到第一至第n加权因数,包括:基于所述任务间全局上下文关联编码特征向量,以如下优化公式分别计算所述第一至第n任务的上下文语义编码特征向量的可转移特征的量化的可转移性感知因数以得到所述第一至第n加权因数;
其中,所述优化公式为:
,
其中是所述第一至第n任务的上下文语义编码特征向量中的第/>个上下文语义编码特征向量,/>是所述任务间全局上下文关联编码特征向量,/>是所述第一至第n任务的上下文语义编码特征向量中的第/>个上下文语义编码特征向量的第/>个位置的特征值,/>是所述任务间全局上下文关联编码特征向量的第/>个位置的特征值,/>表示以2为底的对数函数值,且/>是加权超参数,/>是所述第一至第n加权因数中的第/>个加权因数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310943435.9A CN116663568B (zh) | 2023-07-31 | 2023-07-31 | 基于优先级的关键任务识别系统及其方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310943435.9A CN116663568B (zh) | 2023-07-31 | 2023-07-31 | 基于优先级的关键任务识别系统及其方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116663568A CN116663568A (zh) | 2023-08-29 |
CN116663568B true CN116663568B (zh) | 2023-11-17 |
Family
ID=87712192
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310943435.9A Active CN116663568B (zh) | 2023-07-31 | 2023-07-31 | 基于优先级的关键任务识别系统及其方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116663568B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117113378A (zh) * | 2023-09-12 | 2023-11-24 | 腾云创威信息科技(威海)有限公司 | 基于权能的负载空间隔离方法及其系统 |
CN117252926B (zh) * | 2023-11-20 | 2024-02-02 | 南昌工控机器人有限公司 | 基于视觉定位的手机壳辅料智能装配控制系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111930952A (zh) * | 2020-09-21 | 2020-11-13 | 杭州识度科技有限公司 | 一种长文本级联分类方法、系统、设备及存储介质 |
CN114757659A (zh) * | 2022-05-19 | 2022-07-15 | 浙江大学 | 研发项目智能管理系统及其管理方法 |
CN115409038A (zh) * | 2022-08-26 | 2022-11-29 | 湖北星纪时代科技有限公司 | 自然语言处理方法及装置、电子设备和存储介质 |
CN115796173A (zh) * | 2023-02-20 | 2023-03-14 | 杭银消费金融股份有限公司 | 针对监管报送需求的数据处理方法和系统 |
CN115878330A (zh) * | 2023-02-08 | 2023-03-31 | 腾云创威信息科技(威海)有限公司 | 线程的运行控制方法及其系统 |
CN115951883A (zh) * | 2023-03-15 | 2023-04-11 | 日照市德衡信息技术有限公司 | 分布式微服务架构的服务组件管理系统及其方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110019793A (zh) * | 2017-10-27 | 2019-07-16 | 阿里巴巴集团控股有限公司 | 一种文本语义编码方法及装置 |
US20220129637A1 (en) * | 2020-10-23 | 2022-04-28 | International Business Machines Corporation | Computerized selection of semantic frame elements from textual task descriptions |
-
2023
- 2023-07-31 CN CN202310943435.9A patent/CN116663568B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111930952A (zh) * | 2020-09-21 | 2020-11-13 | 杭州识度科技有限公司 | 一种长文本级联分类方法、系统、设备及存储介质 |
CN114757659A (zh) * | 2022-05-19 | 2022-07-15 | 浙江大学 | 研发项目智能管理系统及其管理方法 |
CN115409038A (zh) * | 2022-08-26 | 2022-11-29 | 湖北星纪时代科技有限公司 | 自然语言处理方法及装置、电子设备和存储介质 |
CN115878330A (zh) * | 2023-02-08 | 2023-03-31 | 腾云创威信息科技(威海)有限公司 | 线程的运行控制方法及其系统 |
CN115796173A (zh) * | 2023-02-20 | 2023-03-14 | 杭银消费金融股份有限公司 | 针对监管报送需求的数据处理方法和系统 |
CN115951883A (zh) * | 2023-03-15 | 2023-04-11 | 日照市德衡信息技术有限公司 | 分布式微服务架构的服务组件管理系统及其方法 |
Non-Patent Citations (1)
Title |
---|
面向关键任务嵌入式实时操作系统设计技术;朱一凡, 刘云生;计算机与数字工程(第02期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN116663568A (zh) | 2023-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111259142B (zh) | 基于注意力编码和图卷积网络的特定目标情感分类方法 | |
CN111897908B (zh) | 融合依存信息和预训练语言模型的事件抽取方法及系统 | |
CN116663568B (zh) | 基于优先级的关键任务识别系统及其方法 | |
CN109034368B (zh) | 一种基于dnn的复杂设备多重故障诊断方法 | |
US20200364307A1 (en) | Cross-lingual information retrieval and information extraction | |
US10796104B1 (en) | Systems and methods for constructing an artificially diverse corpus of training data samples for training a contextually-biased model for a machine learning-based dialogue system | |
CN112052684A (zh) | 电力计量的命名实体识别方法、装置、设备和存储介质 | |
CN110659742A (zh) | 获取用户行为序列的序列表示向量的方法和装置 | |
CN116610803B (zh) | 基于大数据的产业链优企信息管理方法及系统 | |
CN113239702A (zh) | 意图识别方法、装置、电子设备 | |
CN113849648A (zh) | 分类模型训练方法、装置、计算机设备和存储介质 | |
CN114528835A (zh) | 基于区间判别的半监督专业术语抽取方法、介质及设备 | |
CN116304748A (zh) | 一种文本相似度计算方法、系统、设备及介质 | |
CN117041017B (zh) | 数据中心的智能运维管理方法及系统 | |
Banerjee et al. | Relation extraction using multi-encoder lstm network on a distant supervised dataset | |
CN111290953B (zh) | 分析测试日志的方法与装置 | |
CN113536784A (zh) | 文本处理方法、装置、计算机设备和存储介质 | |
CN117078007A (zh) | 一种融合尺度标签的多尺度风控系统及其方法 | |
JP2010272004A (ja) | 判別装置及び判別方法、並びにコンピューター・プログラム | |
CN111611395A (zh) | 一种实体关系的识别方法及装置 | |
CN116089605A (zh) | 基于迁移学习和改进词袋模型的文本情感分析方法 | |
US20210241147A1 (en) | Method and device for predicting pair of similar questions and electronic equipment | |
CN114881173A (zh) | 基于自注意力机制的简历分类方法和装置 | |
CN114822562A (zh) | 声纹识别模型的训练方法、声纹识别方法及相关设备 | |
CN114595324A (zh) | 电网业务数据分域的方法、装置、终端和非暂时性存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |