CN110941698A - 一种基于bert下卷积神经网络的服务发现方法 - Google Patents

一种基于bert下卷积神经网络的服务发现方法 Download PDF

Info

Publication number
CN110941698A
CN110941698A CN201911129378.0A CN201911129378A CN110941698A CN 110941698 A CN110941698 A CN 110941698A CN 201911129378 A CN201911129378 A CN 201911129378A CN 110941698 A CN110941698 A CN 110941698A
Authority
CN
China
Prior art keywords
service
bert
similarity
neural network
query request
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911129378.0A
Other languages
English (en)
Other versions
CN110941698B (zh
Inventor
黄昭
赵薇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shaanxi Normal University
Original Assignee
Shaanxi Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shaanxi Normal University filed Critical Shaanxi Normal University
Priority to CN201911129378.0A priority Critical patent/CN110941698B/zh
Publication of CN110941698A publication Critical patent/CN110941698A/zh
Application granted granted Critical
Publication of CN110941698B publication Critical patent/CN110941698B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3335Syntactic pre-processing, e.g. stopword elimination, stemming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提出了一种基于BERT下卷积神经网络的服务发现方法,首先,通过bert‑as‑service服务调用预训练BERT模型,生成服务与查询请求的关键词向量;其次,基于BERT词向量,构建服务与查询请求在单词粒度上的相似度矩阵,并应用卷积神经网络得到最终的相似度匹配得分;然后,对于给定的用户查询请求,逐一与候选服务进行相似度匹配;最后,根据服务的相似度匹配得分进行排序,从而找到合适的目标服务;结合BERT词向量和卷积神经网络的优势特点,基于BERT模型的结构特征以及应用范围,并结合本发明所处理的数据形式,生成包含丰富上下文语义信息的词向量,有效地支持服务相似度计算,以找到最准确的目标服务,实现了对目标服务的精准检索。

Description

一种基于BERT下卷积神经网络的服务发现方法
技术领域
本发明属于计算机科学与技术领域,具体涉及一种基于BERT下卷积神经网络的服务发现方法。
背景技术
服务发现的主要任务是匹配查询请求与候选服务之间的功能描述信息。这些信息通常以自然文本的形式表示,在相似度计算过程中,首先需要对其进行向量化处理。传统的词嵌入方法,如Word2Vec模型,其生成的词向量是静态的,每个单词都有一个固定的表示,而与单词出现的上下文无关。随着互联网的快速发展,服务资源的类型功能也日趋多样化,这种静态词嵌入方法在挖掘文本语义信息方面存在一定缺陷,生成的词向量不能充分反映单词在特定语境下的语义。此外,常用的基于空间向量的相似度计算方法虽简单易行,但缺乏从多角度全面的对比匹配,从而影响对目标服务的精准检索。由此,需要针对存在的不同的问题设计出对应的解决方案。
发明内容
为了克服现有服务发现技术中所存在的不足,本发明提供一种基于BERT下卷积神经网络的服务发现方法,结合BERT词向量与卷积神经网络功能特性,在文本相似度计算的基础上能够为用户提供最优目标服务的发现方法。
本发明实现上述目的所采用的技术方案为:一种基于BERT下卷积神经网络的服务发现方法,包括以下步骤:
步骤1,从客户端获取OWLS-TC4数据集查询请求及服务,并基于预训练BERT模型生成词向量表示;
步骤2,基于步骤1所得的词向量,通过计算查询请求与服务关键词向量之间的余弦相似度来构建查询请求与服务的关键词相似度矩阵;并以此作为卷积神经网络的输入矩阵;
步骤3,对步骤2所得的相似度矩阵进行卷积池化操作,得到查询请求与服务的相似度匹配得分;
步骤4,对于每一条查询请求,逐一与服务集中的候选服务进行步骤2和3操作,并根据步骤3所得相似度匹配得分对候选服务进行排序,从而找到合适的目标服务,即最高相似度匹配得分所对应的服务即为所要检索的目标结果。
步骤1中,采用bert-as-service的客户端与服务端,将预训练BERT模型作为一个服务独立运行,在客户端以调用服务的方式使用BERT模型。
步骤1通过以下具体步骤实现:
步骤11,从查询请求与服务的owls文件中提取对应的自然语言功能描述信息;
步骤12,对查询请求与服务的功能描述信息进行预处理,包括去除停用词、词干提取及分词,获取相应的关键词,完成对文本的特征提取;
步骤13,从客户端调用BERT模型,生成每条查询请求与服务的词向量表示。
步骤2中所述相似度矩阵中,其组成元素是查询请求与服务在词粒度上基于词向量的余弦相似度。
步骤3中所使用的卷积神经网络由输入层、卷积层、池化层及输出层四部分构成,输入矩阵为步骤2所得查询请求与服务的相似度矩阵。
步骤3中,在卷积层采用一个大小为2*2的卷积核单步长对输入矩阵进行卷积扫描,通过将卷积核与输入矩阵感受野中对应位置的元素相乘求和实现特征的初步提取,并生成相应的特征矩阵。
步骤3中,池化层中采用Max-Pooling方式,将卷积层特征矩阵感受野中最大的相似度元素作为池化的输出特征,对整个输入特征矩阵进行池化操作,从而构成池化输出矩阵,完成对相似度特征的深度过滤与提取。
步骤3中,卷积和池化操作交替进行,直至相似度矩阵降为一维向量,最终所得的相似度匹配得分为所述一维向量中元素的均值。
步骤4中,对服务集中的每条候选服务与给出的查询请求进行步骤2和步骤3操作,并根据所得的相似度匹配得分对候选服务排序,得分最高的服务即为所要检索的目标结果。
与现有的服务发现方法相比,本发明具有如下优点:本发明应用迁移学习思想,调用预训练BERT模型简化操作流程及复杂度,并保证生成的词向量具有良好的可靠性;基于BERT模型的结构特征以及应用范围,并结合本发明所处理的数据形式,生成包含丰富上下文语义信息的词向量,可以有效地支持服务相似度计算;利用卷积神经网络的功能特点,基于查询请求与服务在词粒度上的相似度矩阵,做进一步特征提取,从而获得更精准的相似度匹配得分,以找到最准确的目标服务,实现了对目标服务的精准检索。
附图说明
图1为基于BERT下卷积神经网络的服务发现方法结构图。
图2为服务示例图。
图3为BERT的预训练模型图。
图4为卷积神经网络计算相似度的实现流程图。
具体实施方式
图1是本发明的整体结构图,现结合附图对本发明的技术方案作进一步说明。
BERT是一种预训练语言表示方法,通过联合调节所有层中的上下文,预先训练深度双向表示。用户可以使用预训练好的BERT模型,从文本中提取高质量的语言特征来完成特定的任务。与传统的词嵌入模型相比,BERT模型根据单词所处的上下文来动态生成词向量表示。除了能够捕获一词多义之类的明显差异外,还能获取丰富的上下文相关信息,从而提高生成的词向量质量。此外,卷积神经网络作为一种高效的识别算法,在计算机视觉等领域取得了一系列突破性研究成果,同时也被广泛应用于自然语言处理领域。通过局部接收、权值共享以及降采样从输入数据中抽象出更本质的表达,其强大的特征学习和表示能力为许多自然语言处理问题的研究提供了有效的方法和思路。
基于这两种方法的优势特点,本发明考虑将其结合起来,用于服务发现过程中,快速准确地找出符合用户请求的目标服务。
本发明提出的基于BERT下卷积神经网络的服务发现方法,包括生成BERT词向量及应用卷积神经网络计算相似度两大过程,具体步骤如下:
步骤1:安装bert-as-service的客户端与服务端
本发明中所采用的bert-as-service库是一个已开源的BERT服务,分为客户端和服务端。在模型调用之前需通过命令,将其安装在不同的机器上,以便用户以调用服务的方式来使用BERT模型。
步骤2:下载预训练BERT模型并启动BERT服务
对BERT模型的训练需要一定的设备和数据支持,耗时费力,根据自然语言处理任务的类型和规模,现有多种预训练BERT模型,可供训练选择,用户通过在客户端开启BERT服务向服务端发出请求,可直接调用所选择的预训练模型,而无需进行大规模训练。
步骤3:生成BERT词向量
本发明采用OWLS-TC4数据集,包含涉及教育、医疗、食品、通讯、经济、地理、旅游、武器、仿真这九个领域的1083条语义web服务和42条用户查询请求,且均以owls文件形式存储;这些原始数据不能直接参与运算,首先需要对其进行向量化处理,得到基础的BERT词向量,具体步骤如下:
步骤3.1:图2给出了一个示例服务的owls文件信息,其中服务配置文件(profile)将服务描述为一个具有三种类型信息的功能:哪个组织提供了该服务、该服务提供了什么功能以及一组服务特征的属性,用于公布和发现服务;进程模型(process)详细描述了服务的具体工作过程;服务基础(grounding)则提供了如何通过消息来访问服务的细节。本发明基于查询请求与服务的功能匹配来发现目标服务,需要从服务各自owls文件中的配置文件模块提取对应的功能描述信息来进行相似度匹配,如图2框线中所示。
步骤3.2:将描述语句分词为单词组,获取查询请求和服务相应的关键词,完成对文本特征提取。服务及查询请求的功能描述信息以自然文本形式呈现,在文本处理过程中首先需要去除停用词并提取单词词干,减少运算复杂度。此外,本发明是基于查询请求与服务在词粒度上的相似度矩阵来应用卷积神经网络。因此,还需将描述语句分词为单词组,获取相应的关键词,完成对文本的特征提取。
步骤3.3:采用bert-as-service将BERT模型作为一个独立的编码服务,调用所选的预训练BERT模型得到每个词在各个文本中的词向量表示。与传统数值计算不同,对于文本信息处理的关键步骤是进行向量化操作,以此来得到每个词在各个文本中的词向量表示。本发明采用bert-as-service将BERT模型作为一个独立的编码服务,用户在客户端通过API接口即可调用所选的预训练BERT模型来获取词向量表示。BERT模型如图3所示,其中E和T分别表示输入及输出词向量,中间层采用双向预测的Transformer模型。对于一个包含n个关键词的服务或查询请求描述,通过BERT模型可得一个大小为n×768的二维数组,所述二维数组的每一行表示对应关键词的词向量,二维数组包含768个特征值,BERT词向量由此生成。
步骤4,通过相似度的对比匹配,找出符合用户请求的目标服务;通过计算查询请求与服务关键词向量之间的余弦相似度来构建查询请求与服务的关键词相似度矩阵;
服务发现过程中的主要任务是计算查询请求与候选服务之间的相似度,通过相似度的对比匹配,找出符合用户请求的目标服务。本发明所采用的卷积神经网络是基于查询请求与服务在词粒度上的相似度来挖掘深层的匹配信息,从而得到精准的相似度匹配得分。假设用户查询请求描述中包含n个关键词,即Q=(q1,q2,…,qn);服务描述中包含m个关键词,即S=(s1,s2,…,sm),且步骤3中已得到每个关键词在具体上下文中的BERT词向量表示。本发明通过计算查询请求与服务关键词向量之间的余弦相似度来构建大小为n×m的相似度矩阵An×m,(对于An×m中的任意元素aij,其大小为查询请求描述中的第i个关键词与服务描述中第j个关键词基于BERT词向量的余弦相似度值),并以此作为卷积神经网络的输入矩阵。
其中,余弦相似度用向量空间中两个向量夹角的余弦值来衡量两个个体间差异的大小;计算公式为:
Figure BDA0002277856990000061
上述余弦相似度计算方法中的
Figure BDA0002277856990000062
Figure BDA0002277856990000063
表示两个向量,
Figure BDA0002277856990000064
Figure BDA0002277856990000065
分别表示
Figure BDA0002277856990000066
Figure BDA0002277856990000067
的模,Ai与Bi分别表示向量
Figure BDA0002277856990000068
Figure BDA0002277856990000069
的第i个分量,n则表示向量中所含分量的总个数。
步骤5,应用卷积神经网络得到相似度匹配得分。图4为应用卷积神经网络模型获取查询请求与服务最终相似度匹配得分的具体实现流程图。本发明所选用的卷积神经网络模型包含输入层、卷积层、池化层及输出层四部分。输入层由步骤4所得查询请求与服务的关键词相似度矩阵构成,并在卷积层采用一个大小为2*2的卷积核单步长对输入矩阵进行卷积扫描,通过将卷积核与输入矩阵感受野中对应位置的元素相乘求和实现特征的初步提取,并生成相应的特征矩阵。
同样,卷积层中所得的特征矩阵将作为下一池化层的输入,对特征进行深度过滤。为了保留相似度高的特征元素以符合服务发现的方法要求,本发明在池化层中采用Max-Pooling方式,将卷积层特征矩阵感受野中最大的相似度元素作为池化的输出特征,对整个输入特征矩阵进行池化操作,从而构成池化输出矩阵,完成对相似度特征的深度过滤与提取。
本发明在应用卷积神经网络时卷积和池化操作交替循环进行,即卷积的输出特征矩阵用于池化的输入,同时池化输出矩阵也将作为卷积层的输入用于二次卷积。由于每进行一次卷积或池化操作,矩阵的维度会相应地缩减,因此,在进行迭代循环过程中需要确定当前的相似度特征矩阵大小以判断当前状态是否满足操作的终止条件。若经过卷积池化操作后矩阵降为一维(行或列)向量,则停止循环,并将所述一维向量中所有元素的均值作为查询请求与服务最终的相似度匹配得分,用于对服务排序;否则,继续迭代循环,直至当前状态满足终止条件,相似度计算过程结束。
步骤6,最后基于卷积神经网络所得的相似度匹配得分对服务集中的候选服务进行排序,从而发现最满足用户查询需求的目标服务,上述步骤中所得的相似度匹配得分用于衡量查询请求与的单一具体服务的匹配程度。而在服务发现过程中,对于用户的查询请求,需要逐一与候选服务进行相似度匹配,因此,本发明将对服务集中的每条候选服务与给出的查询请求进行步骤4和步骤5操作,并根据升序排序的相似度匹配得分对服务列表顺序进行调整,则最高相似度匹配得分所对应的服务即为所要检索的目标结果。

Claims (9)

1.一种基于BERT下卷积神经网络的服务发现方法,其特征在于,包括以下步骤:
步骤1,从客户端获取OWLS-TC4数据集查询请求及服务,并基于预训练BERT模型生成词向量表示;
步骤2,基于步骤1所得的词向量,通过计算查询请求与服务关键词向量之间的余弦相似度来构建查询请求与服务的关键词相似度矩阵;并以此作为卷积神经网络的输入矩阵;
步骤3,对步骤2所得的相似度矩阵进行卷积池化操作,得到查询请求与服务的相似度匹配得分;
步骤4,对于每一条查询请求,逐一与服务集中的候选服务进行步骤2和3操作,并根据步骤3所得相似度匹配得分对候选服务进行排序,从而找到最高相似度匹配得分所对应的服务为所要查询的目标结果。
2.根据权利要求1所述的基于BERT下卷积神经网络的服务发现方法,其特征在于,步骤1中,采用bert-as-service的客户端与服务端,将预训练BERT模型作为一个服务独立运行,在客户端以调用服务的方式使用BERT模型。
3.根据权利要求1所述的基于BERT下卷积神经网络的服务发现方法,其特征在于,步骤1通过以下具体步骤实现:
步骤11,从查询请求与服务的owls文件中提取对应的自然语言功能描述信息;
步骤12,对查询请求与服务的功能描述信息进行预处理,包括去除停用词、词干提取及分词,获取相应的关键词,完成对文本的特征提取;
步骤13,从客户端调用BERT模型,生成每条查询请求与服务的词向量表示。
4.根据权利要求1所述的基于BERT下卷积神经网络的服务发现方法,其特征在于,步骤2中所述相似度矩阵中,其组成元素是查询请求与服务在词粒度上基于词向量的余弦相似度。
5.根据权利要求1所述的基于BERT下卷积神经网络的服务发现方法,其特征在于,步骤3中所使用的卷积神经网络由输入层、卷积层、池化层及输出层四部分构成,输入矩阵为步骤4所得查询请求与服务的相似度矩阵。
6.根据权利要求5所述的基于BERT下卷积神经网络的服务发现方法,其特征在于,步骤3中,在卷积层采用一个大小为2*2的卷积核单步长对输入矩阵进行卷积扫描,通过将卷积核与输入矩阵感受野中对应位置的元素相乘求和实现特征的初步提取,并生成相应的特征矩阵。
7.根据权利要求5所述的基于BERT下卷积神经网络的服务发现方法,其特征在于,步骤3中,池化层中采用Max-Pooling方式,将卷积层特征矩阵感受野中最大的相似度元素作为池化的输出特征,对整个输入特征矩阵进行池化操作,从而构成池化输出矩阵,完成对相似度特征的深度过滤与提取。
8.根据权利要求1所述的基于BERT下卷积神经网络的服务发现方法,其特征在于,步骤3中,卷积和池化操作交替进行,直至相似度矩阵降为一维向量,最终所得的相似度匹配得分为所述一维向量中元素的均值。
9.根据权利要求1所述的基于BERT下卷积神经网络的服务发现方法,其特征在于,步骤4中,对服务集中的每条候选服务与给出的查询请求进行步骤2和步骤3操作,并根据所得的相似度匹配得分对候选服务排序,得分最高的服务即为所要检索的目标结果。
CN201911129378.0A 2019-11-18 2019-11-18 一种基于bert下卷积神经网络的服务发现方法 Active CN110941698B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911129378.0A CN110941698B (zh) 2019-11-18 2019-11-18 一种基于bert下卷积神经网络的服务发现方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911129378.0A CN110941698B (zh) 2019-11-18 2019-11-18 一种基于bert下卷积神经网络的服务发现方法

Publications (2)

Publication Number Publication Date
CN110941698A true CN110941698A (zh) 2020-03-31
CN110941698B CN110941698B (zh) 2022-09-27

Family

ID=69906897

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911129378.0A Active CN110941698B (zh) 2019-11-18 2019-11-18 一种基于bert下卷积神经网络的服务发现方法

Country Status (1)

Country Link
CN (1) CN110941698B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112115716A (zh) * 2020-09-17 2020-12-22 陕西师范大学 一种基于多维词向量下文本匹配的服务发现方法、系统及设备
CN112214335A (zh) * 2020-10-13 2021-01-12 重庆工业大数据创新中心有限公司 基于知识图谱和相似度网络的Web服务发现方法
CN112330379A (zh) * 2020-11-25 2021-02-05 税友软件集团股份有限公司 一种发票内容生成方法、系统、电子设备及存储介质
CN113535928A (zh) * 2021-08-05 2021-10-22 陕西师范大学 基于注意力机制下长短期记忆网络的服务发现方法及系统
CN113569016A (zh) * 2021-09-27 2021-10-29 北京语言大学 一种基于Bert模型的专业术语提取方法及装置
CN113591475A (zh) * 2021-08-03 2021-11-02 美的集团(上海)有限公司 无监督可解释分词的方法、装置和电子设备
CN116112320A (zh) * 2023-04-12 2023-05-12 广东致盛技术有限公司 一种基于物模型的边缘计算智能网关构建方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050063405A (ko) * 2003-12-22 2005-06-28 한국전자통신연구원 온톨로지 기반의 애드혹 서비스 검색 시스템 및 방법
CN107315772A (zh) * 2017-05-24 2017-11-03 北京邮电大学 基于深度学习的问题匹配方法以及装置
US20190019080A1 (en) * 2015-12-31 2019-01-17 Vito Nv Methods, controllers and systems for the control of distribution systems using a neural network architecture
CN109271497A (zh) * 2018-08-31 2019-01-25 华南理工大学 一种基于词向量的事件驱动服务匹配方法
CN110309503A (zh) * 2019-05-21 2019-10-08 昆明理工大学 一种基于深度学习bert--cnn的主观题评分模型及评分方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050063405A (ko) * 2003-12-22 2005-06-28 한국전자통신연구원 온톨로지 기반의 애드혹 서비스 검색 시스템 및 방법
US20190019080A1 (en) * 2015-12-31 2019-01-17 Vito Nv Methods, controllers and systems for the control of distribution systems using a neural network architecture
CN107315772A (zh) * 2017-05-24 2017-11-03 北京邮电大学 基于深度学习的问题匹配方法以及装置
CN109271497A (zh) * 2018-08-31 2019-01-25 华南理工大学 一种基于词向量的事件驱动服务匹配方法
CN110309503A (zh) * 2019-05-21 2019-10-08 昆明理工大学 一种基于深度学习bert--cnn的主观题评分模型及评分方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
PO-SEN HUANG等: "Learning deep structured semantic models for web search using clickthrough data", 《PRCOCEEDINGDS OF THE 22ND ACM INTERNATIONAL CONFERENCE ON INFORMATION & KNOWLEDGE & KNOWLEDGE MANAGEMENT》 *
郭浩等: "基于CNN和BiLSTM的短文本相似度计算方法", 《信息技术与网络安全》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112115716A (zh) * 2020-09-17 2020-12-22 陕西师范大学 一种基于多维词向量下文本匹配的服务发现方法、系统及设备
CN112214335A (zh) * 2020-10-13 2021-01-12 重庆工业大数据创新中心有限公司 基于知识图谱和相似度网络的Web服务发现方法
CN112214335B (zh) * 2020-10-13 2023-12-01 重庆工业大数据创新中心有限公司 基于知识图谱和相似度网络的Web服务发现方法
CN112330379A (zh) * 2020-11-25 2021-02-05 税友软件集团股份有限公司 一种发票内容生成方法、系统、电子设备及存储介质
CN112330379B (zh) * 2020-11-25 2023-10-31 税友软件集团股份有限公司 一种发票内容生成方法、系统、电子设备及存储介质
CN113591475A (zh) * 2021-08-03 2021-11-02 美的集团(上海)有限公司 无监督可解释分词的方法、装置和电子设备
CN113535928A (zh) * 2021-08-05 2021-10-22 陕西师范大学 基于注意力机制下长短期记忆网络的服务发现方法及系统
CN113569016A (zh) * 2021-09-27 2021-10-29 北京语言大学 一种基于Bert模型的专业术语提取方法及装置
CN116112320A (zh) * 2023-04-12 2023-05-12 广东致盛技术有限公司 一种基于物模型的边缘计算智能网关构建方法及装置
CN116112320B (zh) * 2023-04-12 2023-08-01 广东致盛技术有限公司 一种基于物模型的边缘计算智能网关构建方法及装置

Also Published As

Publication number Publication date
CN110941698B (zh) 2022-09-27

Similar Documents

Publication Publication Date Title
CN110941698B (zh) 一种基于bert下卷积神经网络的服务发现方法
CN110837550B (zh) 基于知识图谱的问答方法、装置、电子设备及存储介质
CN109086303B (zh) 基于机器阅读理解的智能对话方法、装置、终端
CN108804641B (zh) 一种文本相似度的计算方法、装置、设备和存储介质
CN110795527B (zh) 候选实体排序方法、训练方法及相关装置
CN110321437B (zh) 一种语料数据处理方法、装置、电子设备及介质
US20210018332A1 (en) Poi name matching method, apparatus, device and storage medium
CN112115716A (zh) 一种基于多维词向量下文本匹配的服务发现方法、系统及设备
CN114329029B (zh) 对象检索方法、装置、设备及计算机存储介质
CN111078847A (zh) 电力用户意图识别方法、装置、计算机设备和存储介质
CN112035599A (zh) 基于垂直搜索的查询方法、装置、计算机设备及存储介质
CN112084789A (zh) 文本处理方法、装置、设备及存储介质
CN116910221A (zh) 一种基于相似度检索提升大规模语言模型响应速度的方法
CN114741581A (zh) 一种图像分类方法、装置、计算机设备及介质
CN112632261A (zh) 智能问答方法、装置、设备及存储介质
CN109885651A (zh) 一种问题推送方法和装置
CN117493505A (zh) 智能问答方法、装置、设备和存储介质
CN116796038A (zh) 遥感数据检索方法、装置、边缘处理设备及存储介质
CN113342944B (zh) 一种语料泛化方法、装置、设备及存储介质
JP2022541832A (ja) 画像を検索するための方法及び装置
CN114490923A (zh) 相似文本匹配模型的训练方法、装置、设备及存储介质
CN117312518A (zh) 一种智能问答方法、装置、计算机设备及存储介质
CN116956183A (zh) 多媒体资源推荐方法、模型训练方法、装置及存储介质
KR102590388B1 (ko) 영상 컨텐츠 추천 장치 및 방법
CN112650869B (zh) 图像检索重排序方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant