CN113722438B - 基于句向量模型的句向量生成方法、装置及计算机设备 - Google Patents
基于句向量模型的句向量生成方法、装置及计算机设备 Download PDFInfo
- Publication number
- CN113722438B CN113722438B CN202111013003.5A CN202111013003A CN113722438B CN 113722438 B CN113722438 B CN 113722438B CN 202111013003 A CN202111013003 A CN 202111013003A CN 113722438 B CN113722438 B CN 113722438B
- Authority
- CN
- China
- Prior art keywords
- initial
- sentence vector
- text
- model
- similar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请实施例属于人工智能领域,涉及一种基于句向量模型的句向量生成方法、装置、计算机设备及存储介质,方法包括:获取初始文本集中各初始文本的TF‑IDF信息以确定目标调整词,并基于目标调整词调整初始文本生成相似文本;将初始文本输入初始句向量模型得到初始句向量,并将相似文本输入初始句向量模型得到相似句向量;将相似句向量作为当前初始句向量的正样本,将其他的初始句向量以及相似句向量作为当前初始句向量的负样本,以对初始句向量模型进行对比学习,得到句向量模型;将待处理文本输入句向量模型,得到待处理文本的句向量。此外,本申请还涉及区块链技术,初始文本集可存储于区块链中。本申请能够高效地生成准确可用的句向量。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及一种基于句向量模型的句向量生成方法、装置、计算机设备及存储介质。
背景技术
句向量(sentence embedding)是自然语言处理近年来的热门研究领域之一。将句子中的字、词(token)以及词之间的语义信息映射到可量化的空间,即可得到句向量。生成的句向量通常会提供给下游任务做进一步的处理,例如,基于句向量进行相似性计算、分类和聚类等任务。
现有的句向量生成技术,有的是简单地将句子中的词进行单独分割,将词转化为词向量后再求平均值得到句向量,然而这样会损失句子中的语义信息,影响句向量的准确性;有的是通过有监督学习的方式生成句向量,但现实中难以获取到大量带有标注的文本语料进行有监督学习。
发明内容
本申请实施例的目的在于提出一种基于句向量模型的句向量生成方法、装置、计算机设备及存储介质,以快速生成准确可用的句向量。
为了解决上述技术问题,本申请实施例提供一种基于句向量模型的句向量生成方法,采用了如下所述的技术方案:
获取初始文本集;
对于所述初始文本集中的各初始文本,获取初始文本的TF-IDF信息;
根据所述TF-IDF信息在所述初始文本中确定目标调整词,以基于所述目标调整词对所述初始文本进行调整,生成所述初始文本的相似文本;
将所述初始文本输入初始句向量模型得到初始句向量,并将所述相似文本输入所述初始句向量模型得到相似句向量;
将所述相似句向量设置为当前的初始句向量的正样本,并将所述初始文本集中其他初始文本的初始句向量以及所述其他初始文本的相似文本所对应的相似句向量设置为所述当前的初始句向量的负样本;
指示所述初始句向量模型根据所述当前的初始句向量、所述正样本和所述负样本进行对比学习,得到句向量模型;
将获取到的待处理文本输入所述句向量模型,得到所述待处理文本的句向量。
为了解决上述技术问题,本申请实施例还提供一种基于句向量模型的句向量生成装置,采用了如下所述的技术方案:
文本集获取模块,用于获取初始文本集;
信息获取模块,用于对于所述初始文本集中的各初始文本,获取初始文本的TF-IDF信息;
文本调整模块,用于根据所述TF-IDF信息在所述初始文本中确定目标调整词,以基于所述目标调整词对所述初始文本进行调整,生成所述初始文本的相似文本;
文本输入模块,用于将所述初始文本输入初始句向量模型得到初始句向量,并将所述相似文本输入所述初始句向量模型得到相似句向量;
向量设置模块,用于将所述相似句向量设置为当前的初始句向量的正样本,并将所述初始文本集中其他初始文本的初始句向量以及所述其他初始文本的相似文本所对应的相似句向量设置为所述当前的初始句向量的负样本;
对比学习模块,用于指示所述初始句向量模型根据所述当前的初始句向量、所述正样本和所述负样本进行对比学习,得到句向量模型;
待处理输入模块,用于将获取到的待处理文本输入所述句向量模型,得到所述待处理文本的句向量。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:
获取初始文本集;
对于所述初始文本集中的各初始文本,获取初始文本的TF-IDF信息;
根据所述TF-IDF信息在所述初始文本中确定目标调整词,以基于所述目标调整词对所述初始文本进行调整,生成所述初始文本的相似文本;
将所述初始文本输入初始句向量模型得到初始句向量,并将所述相似文本输入所述初始句向量模型得到相似句向量;
将所述相似句向量设置为当前的初始句向量的正样本,并将所述初始文本集中其他初始文本的初始句向量以及所述其他初始文本的相似文本所对应的相似句向量设置为所述当前的初始句向量的负样本;
指示所述初始句向量模型根据所述当前的初始句向量、所述正样本和所述负样本进行对比学习,得到句向量模型;
将获取到的待处理文本输入所述句向量模型,得到所述待处理文本的句向量。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:
获取初始文本集;
对于所述初始文本集中的各初始文本,获取初始文本的TF-IDF信息;
根据所述TF-IDF信息在所述初始文本中确定目标调整词,以基于所述目标调整词对所述初始文本进行调整,生成所述初始文本的相似文本;
将所述初始文本输入初始句向量模型得到初始句向量,并将所述相似文本输入所述初始句向量模型得到相似句向量;
将所述相似句向量设置为当前的初始句向量的正样本,并将所述初始文本集中其他初始文本的初始句向量以及所述其他初始文本的相似文本所对应的相似句向量设置为所述当前的初始句向量的负样本;
指示所述初始句向量模型根据所述当前的初始句向量、所述正样本和所述负样本进行对比学习,得到句向量模型;
将获取到的待处理文本输入所述句向量模型,得到所述待处理文本的句向量。
与现有技术相比,本申请实施例主要有以下有益效果:获取初始文本集中各初始文本的TF-IDF信息,TF-IDF信息反应了初始文本中各词的重要性,根据TF-IDF信息确定目标调整词,并调整目标调整词,可以在保持文本语义相近的条件下生成相似文本;利用初始句向量模型生成初始文本的初始句向量和相似文本的相似句向量,避免了对文本中的词进行单独分割造成的语义损失;采用无监督的对比学习,仅将相似文本的相似句向量作为正样本,其余向量均作为负样本,使模型在训练中可以将初始句向量与负样本进行充分区分,从而得到能够生成句向量的句向量模型;本申请在生成句向量模型时减少了语义损失,且进行无监督的训练,从而能够高效地生成准确可用的句向量。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的基于句向量模型的句向量生成方法的一个实施例的流程图;
图3是根据本申请的基于句向量模型的句向量生成装置的一个实施例的结构示意图;
图4是根据本申请的计算机设备的一个实施例的结构示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving PictureExpertsGroup AudioLayer III,动态影像专家压缩标准音频层面3)、MP4(MovingPictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的基于句向量模型的句向量生成方法一般由服务器执行,相应地,基于句向量模型的句向量生成装置一般设置于服务器中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的基于句向量模型的句向量生成方法的一个实施例的流程图。所述的基于句向量模型的句向量生成方法,包括以下步骤:
步骤S201,获取初始文本集。
在本实施例中,基于句向量模型的句向量生成方法运行于其上的电子设备(例如图1所示的服务器)可以通过有线连接方式或者无线连接方式与终端进行通信。需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
具体地,服务器首先需要获取初始文本集,初始文本集中有若干个初始文本。初始文本集可以由句向量模型的使用场景确定,例如,在图书推荐场景中,需要通过句向量模型生成句向量,依据句向量推荐相似图书,初始文本集可以是若干本图书的简介。
需要强调的是,为进一步保证上述初始文本集的私密和安全性,上述初始文本集还可以存储于一区块链的节点中。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
步骤S202,对于初始文本集中的各初始文本,获取初始文本的TF-IDF信息。
具体地,对于初始文本集中的每一个初始文本,对初始文本进行计算,以获取初始文本的TF-IDF信息。其中,TF-IDF(term frequency–inverse document frequency)是一种用于信息检索与数据挖掘的常用加权技术。TF是词频(TermFrequency),是指某一个给定的词在文件中出现的频率。IDF是逆文本频率指数(Inverse Document Frequency),可以由总文件数目除以包含某词语之文件的数目,再求对数得到。
进一步的,上述步骤S202可以包括:对于初始文本集中的各初始文本,对初始文本进行分词处理,得到若干个拆分词;基于初始文本集计算各拆分词的TF-IDF值,得到初始文本的TF-IDF信息。
具体地,对于初始文本集中的各初始文本,对初始文本进行分词,分词操作可以调用分词工具实现,得到若干个拆分词。然后计算每个拆分词的TF-IDF值。在计算TF-IDF值时,IDF(逆文本频率指数)是文本总数除以包含某个拆分词的初始文本的数量,再求对数得到,可以将初始文本集作为总体,基于初始文本集计算拆分词的逆文本频率指数。各拆分词的TF-IDF值组成了初始文本的TF-IDF信息。
本实施例中,先对初始文本进行分词得到拆分词,以初始文本集为基准,即可快速计算出各拆分词的TF-IDF值。
步骤S203,根据TF-IDF信息在初始文本中确定目标调整词,以基于目标调整词对初始文本进行调整,生成初始文本的相似文本。
具体地,根据TF-IDF值对各拆分词进行降序排序,按照拆分词的数量和预设的调整比例,计算目标调整词的数量,然后根据该数量筛选TF-IDF值排序靠前的若干个拆分词作为目标调整词。
在对初始文本进行调整时,可以获取目标调整词的近义词或者同义词,然后令近义词或同义词替换初始文本中的目标调整词,得到初始文本的相似文本。TF-IDF是一种统计方法,用以评估拆分词对初始文本的重要程度。筛选TF-IDF值较大的拆分词并进行替换,在初始文本语义变化较小的情况下,得到相似文本。
步骤S204,将初始文本输入初始句向量模型得到初始句向量,并将相似文本输入初始句向量模型得到相似句向量。
其中,初始句向量模型可以是尚未训练完毕的句向量模型,句向量模型用于输入文本,输出文本所对应的句向量(sentence embedding)。本申请中的句向量模型可以将文本作为一个整体序列进行处理,能够学习到文本中所蕴含的语义信息。
具体地,服务器将初始文本输入初始句向量模型,初始句向量模型对初始文本进行转化,输出初始文本所对应的初始句向量;将初始文本的相似文本输入初始句向量模型,得到该相似文本的相似句向量。
可以理解,对于初始文本集中的每个初始文本,均生成对应的相似文本。每个初始文本及其对应的相似文本,都将输入初始句向量模型,得到相应的初始句向量和相似句向量。
步骤S205,将相似句向量设置为当前的初始句向量的正样本,并将初始文本集中其他初始文本的初始句向量以及其他初始文本的相似文本所对应的相似句向量设置为当前的初始句向量的负样本。
在当前的初始文本为S1时,当前的初始句向量为E1,初始文本S1的相似文本为将当前的初始文本S1所对应相似文本/>的相似句向量/>设置为正样本,将其他的初始句向量E2、E3,以及其他的相似句向量/>设置为负样本。
步骤S206,指示初始句向量模型根据当前的初始句向量、正样本和负样本进行对比学习,得到句向量模型。
具体地,服务器按照无监督的对比学习(Contrastive Learning)对初始句向量模型进行训练。在对比学习中,模型并不一定要关注到样本的每一个细节,只要学到的特征能够使当前的样本和其他样本区别开即可。因此,在模型训练中,服务器调整初始句向量模型,使得模型输出的初始句向量和正样本不断接近,并且尽可能拉大输出的初始句向量和负样本之间的差异。模型训练结束后,得到句向量模型。
步骤S207,将获取到的待处理文本输入句向量模型,得到待处理文本的句向量。
具体地,在模型应用时,服务器获取待处理文本,将待处理文本输入训练完毕的句向量模型,由句向量模型将待处理文本转化为句向量。
生成的句向量可以提供给下游任务做进一步的处理。例如,在图书推荐的场景中,要推荐目标图书的相似图书;可以获取各图书的简介,通过句向量模型生成全部图书简介的句向量。计算目标图书简介的句向量与其他图书简介的句向量之间的余弦相似度,将余弦相似度作为图书之间的相似度,向用户推荐目标图书的相似图书。
本实施例中,获取初始文本集中各初始文本的TF-IDF信息,TF-IDF信息反应了初始文本中各词的重要性,根据TF-IDF信息确定目标调整词,并调整目标调整词,可以在保持文本语义相近的条件下生成相似文本;利用初始句向量模型生成初始文本的初始句向量和相似文本的相似句向量,避免了对文本中的词进行单独分割造成的语义损失;采用无监督的对比学习,仅将相似文本的相似句向量作为正样本,其余向量均作为负样本,使模型在训练中可以将初始句向量与负样本进行充分区分,从而得到能够生成句向量的句向量模型;本申请在生成句向量模型时减少了语义损失,且进行无监督的训练,从而能够高效地生成准确可用的句向量。
进一步的,上述步骤S203可以包括:基于TF-IDF信息,将初始文本中TF-IDF值大于预设的第一阈值的拆分词确定为目标调整词;通过词林获取目标调整词的若干个相似词;从初始文本中获取目标调整词的前排序词和后排序词;对于每个相似词,将前排序词、相似词和后排序词进行顺序组合,得到候选词序列;根据预设的语料库获取候选词序列的序列频率;将初始文本中的目标调整词替换为序列频率最高的候选词序列中的相似词,得到初始文本的相似文本。
其中,词林是一种词典,基于词林可以查询一个词的相似词,并获取到词之间的相似度。前排序词可以是初始文本中,排在目标调整词前边的词;后排序词可以是初始文本中,排在目标调整词后边的词。
具体地,TF-IDF信息记录了各拆分词的TF-IDF值,服务器可以获取预设的第一阈值,第一阈值可以是一个较大的数值,将TF-IDF值大于第一阈值的拆分词确定为目标调整词。
对于每个目标调整词,服务器通过词林获取目标调整词的相似词,以及目标调整词与相似词之间的相似度,可以选取相似度最高的若干个相似词。在一个实施例中,词林可以是同义词词林Net,它是由哈尔滨工业大学发布的一款词林。
再从初始文本中获取目标调整词的前排序词和后排序词。其中,前排序词可以由预设数量的拆分词组成,后排序词可以由预设数量的拆分词组成。对于每个相似词,按照“前排序词、相似词、后排序词”的顺序组合成候选词序列。
服务器通过预设的语料库获取候选词序列的序列频率。语料库中包含多个文本,序列频率是统计候选词序列在语料库全部文本中的出现次数,除以语料库中词序列(所包含的词数量与候选词序列中词数量一致)总数的比值得到的。语料库与初始文本集可以相同,也可以不同。
序列频率越高,代表候选词序列出现频率越高,应用越多,语义越优。服务器选取序列频率最高的候选词序列,令其中的相似词替换初始文本中的候选词序列,得到相似文本。
本实施例中,根据第一阈值将重要的拆分词确定为目标调整词,获取目标调整词的相似词,并生成相似词的候选词序列,根据语料库获取候选词序列的序列频率,选取序列频率最高的候选词序列中的相似词去替换目标调整词,从而自动生成与初始文本语义最为相似的相似文本。
进一步的,上述将初始文本中的目标调整词替换为序列频率最高的候选词序列中的相似词,得到初始文本的相似文本的步骤之后,还可以包括:基于TF-IDF信息,在相似文本中筛选TF-IDF值小于预设的第二阈值的拆分词;将筛选到的拆分词从相似文本中删除。
具体地,服务器还可以获取预设的第二阈值,第二阈值可以是一个较小的数值,筛选TF-IDF值小于第二阈值的拆分词,这些拆分词重要性较低,可以将其从相似文本中删除,以对文本进行进一步的调整。
本实施例中,将TF-IDF值小于第二阈值的拆分词进行删除,对文本进行进一步的调整,在保持语义相近的情况下,扩大相似文本与初始文本的不同。
进一步的,上述将初始文本输入初始句向量模型得到初始句向量的步骤可以包括:将初始文本输入初始句向量模型中的向量生成模型,得到原始向量;将原始向量输入初始句向量模型中的标准处理网络,得到标准化的原始向量;将标准化的原始向量输入初始句向量模型中的全连接网络进行降维处理,得到初始句向量。
具体地,初始句向量模型可以由向量生成模型、标准处理网络和全连接网络构成。初始文本首先输入向量生成模型,由向量生成模型将初始文本转化为原始向量。
原始向量中信息分布不均,较为凌乱,且维度较高,不便于向量的存储以及后续的计算。因此,可以先将原始向量输入标准处理网络,以对原始向量进行标准化,标准化可以将原始向量映射到更光滑的向量空间,使得信息在向量中的分布更为均匀。在一个实施例中,可以将原始向量输入Layer Normalization层进行标准化处理。
然后将标准化的原始向量输入全连接网络,向量在全连接网络中与矩阵实现相乘运算,可以对向量实现降维处理,得到初始句向量。
本实施例中,在得到向量生成模型输出的原始向量后,对原始向量进行标准化处理以及降维处理,实现对原始向量的优化,得到初始句向量。
进一步的,上述将初始文本输入初始句向量模型中的向量生成模型,得到原始向量的步骤可以包括:将初始文本输入初始句向量中的向量生成模型,得到模型输出信息,向量生成模型为Bert模型;根据预设的标识符,从模型输出信息中提取出原始向量。
具体地,将初始文本输入初始句向量模型中的向量生成模型,以便将文本转化为向量,得到模型输出信息,向量生成模型可以是Bert模型。Bert模型是一种预训练语言模型,它将文本作为一个整体序列进行输入,在词向量的基础上,可以学习到文本中蕴含的语义信息。在一个实施例中,还可以使用基于Bert的其他模型,例如Bert-wwt模型,Bert-wwt-ext模型等。
模型输出信息可以包括多种信息,各种信息可以带有标识符以对信息进行说明。服务器根据标识符从模型输出信息中提取所需的信息,得到原始向量。在一个实施例中,服务器提取Bert模型最后一层[CLS]所对应的向量作为原始向量。
可以理解,初始句向量模型或者句向量模型对于输入的文本,处理方式都是相同的。将初始文本的相似文本输入模型时,相似文本也会进行与上文相同的处理过程。
本实施例中,将Bert模型作为向量生成模型,保证了得到的原始向量可以蕴含文本中的语义信息,提高了原始向量的准确性。
进一步的,上述步骤S206可以包括:分别计算初始句向量与正样本以及负样本的相似度;根据得到的相似度计算模型损失;根据模型损失调整初始句向量模型的模型参数,直至模型损失收敛,得到句向量模型。
具体地,在对比学习中,模型的损失函数如下:
其中,sim为余弦相似性函数,B为一个batch中的向量数量,Ei为当前的初始句向量,为Ei的正样本,Ek、/>分别为一个batch中的各初始句向量、关联于初始句向量的相似句向量;Li是针对一个初始句向量计算得到的模型损失,L是一个batch中总的模型损失。
服务器需要计算当前的初始句向量与正样本以及各负样本的相似度,具体可以是通过余弦相似性函数计算相似度,然后将相似度代入公式(2)计算模型损失。
在得到模型损失后,根据模型损失调整初始句向量模型的模型参数,具体可以是以最大化模型损失为目标调整初始句向量模型的模型参数;并在参数调整后将初始文本重新输入模型,以对模型进行迭代训练,直至模型损失不再变化,达到收敛,从而得到最后的句向量模型。
本实施例中,为了最大化初始句向量和各负样本的差异,基于向量之间的相似度计算模型损失,并根据模型损失调整模型参数,保证了生成的句向量模型的准确性。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该计算机程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
进一步参考图3,作为对上述图2所示方法的实现,本申请提供了一种基于句向量模型的句向量生成装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图3所示,本实施例所述的基于句向量模型的句向量生成装置300包括:文本集获取模块301、信息获取模块302、文本调整模块303、文本输入模块304、向量设置模块305、对比学习模块306以及待处理输入模块307,其中:
文本集获取模块301,用于获取初始文本集。
信息获取模块302,用于对于初始文本集中的各初始文本,获取初始文本的TF-IDF信息。
文本调整模块303,用于根据TF-IDF信息在初始文本中确定目标调整词,以基于目标调整词对初始文本进行调整,生成初始文本的相似文本。
文本输入模块304,用于将初始文本输入初始句向量模型得到初始句向量,并将相似文本输入初始句向量模型得到相似句向量。
向量设置模块305,用于将相似句向量设置为当前的初始句向量的正样本,并将初始文本集中其他初始文本的初始句向量以及其他初始文本的相似文本所对应的相似句向量设置为当前的初始句向量的负样本。
对比学习模块306,用于指示初始句向量模型根据当前的初始句向量、正样本和负样本进行对比学习,得到句向量模型。
待处理输入模块307,用于将获取到的待处理文本输入句向量模型,得到待处理文本的句向量。
本实施例中,获取初始文本集中各初始文本的TF-IDF信息,TF-IDF信息反应了初始文本中各词的重要性,根据TF-IDF信息确定目标调整词,并调整目标调整词,可以在保持文本语义相近的条件下生成相似文本;利用初始句向量模型生成初始文本的初始句向量和相似文本的相似句向量,避免了对文本中的词进行单独分割造成的语义损失;采用无监督的对比学习,仅将相似文本的相似句向量作为正样本,其余向量均作为负样本,使模型在训练中可以将初始句向量与负样本进行充分区分,从而得到能够生成句向量的句向量模型;本申请在生成句向量模型时减少了语义损失,且进行无监督的训练,从而能够高效地生成准确可用的句向量。
在本实施例的一些可选的实现方式中,信息获取模块302可以包括:分词处理子模块以及计算子模块,其中:
分词处理子模块,用于对于初始文本集中的各初始文本,对初始文本进行分词处理,得到若干个拆分词。
计算子模块,用于基于初始文本集计算各拆分词的TF-IDF值,得到初始文本的TF-IDF信息。
本实施例中,先对初始文本进行分词得到拆分词,以初始文本集为基准,即可快速计算出各拆分词的TF-IDF值。
在本实施例的一些可选的实现方式中,文本调整模块303可以包括:目标确定子模块、相似获取子模块、获取子模块、组合子模块、频率获取子模块以及目标替换子模块,其中:
目标确定子模块,用于基于TF-IDF信息,将初始文本中TF-IDF值大于预设的第一阈值的拆分词确定为目标调整词。
相似获取子模块,用于通过词林获取目标调整词的若干个相似词。
获取子模块,用于从初始文本中获取目标调整词的前排序词和后排序词。
组合子模块,用于对于每个相似词,将前排序词、相似词和后排序词进行顺序组合,得到候选词序列。
频率获取子模块,用于根据预设的语料库获取候选词序列的序列频率。
目标替换子模块,用于将初始文本中的目标调整词替换为序列频率最高的候选词序列中的相似词,得到初始文本的相似文本。
本实施例中,根据第一阈值将重要的拆分词确定为目标调整词,获取目标调整词的相似词,并生成相似词的候选词序列,根据语料库获取候选词序列的序列频率,选取序列频率最高的候选词序列中的相似词去替换目标调整词,从而自动生成与初始文本语义最为相似的相似文本。
在本实施例的一些可选的实现方式中,文本调整模块303还可以包括:确定子模块以及删除子模块,其中:
确定子模块,用于基于TF-IDF信息,在相似文本中筛选TF-IDF值小于预设的第二阈值的拆分词。
删除子模块,用于将筛选到的拆分词从相似文本中删除。
本实施例中,将TF-IDF值小于第二阈值的拆分词进行删除,对文本进行进一步的调整,在保持语义相近的情况下,扩大相似文本与初始文本的不同。
在本实施例的一些可选的实现方式中,文本输入模块304可以包括:文本输入子模块、原始输入子模块以及降维处理子模块,其中:
文本输入子模块,用于将初始文本输入初始句向量模型中的向量生成模型,得到原始向量。
原始输入子模块,用于将原始向量输入初始句向量模型中的标准处理网络,得到标准化的原始向量。
降维处理子模块,用于将标准化的原始向量输入初始句向量模型中的全连接网络进行降维处理,得到初始句向量。
本实施例中,在得到向量生成模型输出的原始向量后,对原始向量进行标准化处理以及降维处理,实现对原始向量的优化,得到初始句向量。
在本实施例的一些可选的实现方式中,文本输入子模块可以包括:文本输入单元以及向量提取单元,其中:
文本输入单元,用于将初始文本输入初始句向量中的向量生成模型,得到模型输出信息,向量生成模型为Bert模型。
向量提取单元,用于根据预设的标识符,从模型输出信息中提取出原始向量。
本实施例中,将Bert模型作为向量生成模型,保证了得到的原始向量可以蕴含文本中的语义信息,提高了原始向量的准确性。
在本实施例的一些可选的实现方式中,对比学习模块306可以包括:相似计算子模块、损失计算子模块以及模型调整子模块,其中:
相似计算子模块,用于分别计算初始句向量与正样本以及负样本的相似度。
损失计算子模块,用于根据得到的相似度计算模型损失。
模型调整子模块,用于根据模型损失调整初始句向量模型的模型参数,直至模型损失收敛,得到句向量模型。
本实施例中,为了最大化初始句向量和各负样本的差异,基于向量之间的相似度计算模型损失,并根据模型损失调整模型参数,保证了生成的句向量模型的准确性。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图4,图4为本实施例计算机设备基本结构框图。
所述计算机设备4包括通过系统总线相互通信连接存储器41、处理器42、网络接口43。需要指出的是,图中仅示出了具有组件41-43的计算机设备4,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器41至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器41可以是所述计算机设备4的内部存储单元,例如该计算机设备4的硬盘或内存。在另一些实施例中,所述存储器41也可以是所述计算机设备4的外部存储设备,例如该计算机设备4上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。当然,所述存储器41还可以既包括所述计算机设备4的内部存储单元也包括其外部存储设备。本实施例中,所述存储器41通常用于存储安装于所述计算机设备4的操作系统和各类应用软件,例如基于句向量模型的句向量生成方法的计算机可读指令等。此外,所述存储器41还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器42在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器42通常用于控制所述计算机设备4的总体操作。本实施例中,所述处理器42用于运行所述存储器41中存储的计算机可读指令或者处理数据,例如运行所述基于句向量模型的句向量生成方法的计算机可读指令。
所述网络接口43可包括无线网络接口或有线网络接口,该网络接口43通常用于在所述计算机设备4与其他电子设备之间建立通信连接。
本实施例中提供的计算机设备可以执行上述基于句向量模型的句向量生成方法。此处基于句向量模型的句向量生成方法可以是上述各个实施例的基于句向量模型的句向量生成方法。
本实施例中,获取初始文本集中各初始文本的TF-IDF信息,TF-IDF信息反应了初始文本中各词的重要性,根据TF-IDF信息确定目标调整词,并调整目标调整词,可以在保持文本语义相近的条件下生成相似文本;利用初始句向量模型生成初始文本的初始句向量和相似文本的相似句向量,避免了对文本中的词进行单独分割造成的语义损失;采用无监督的对比学习,仅将相似文本的相似句向量作为正样本,其余向量均作为负样本,使模型在训练中可以将初始句向量与负样本进行充分区分,从而得到能够生成句向量的句向量模型;本申请在生成句向量模型时减少了语义损失,且进行无监督的训练,从而能够高效地生成准确可用的句向量。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被至少一个处理器执行,以使所述至少一个处理器执行如上述的基于句向量模型的句向量生成方法的步骤。
本实施例中,获取初始文本集中各初始文本的TF-IDF信息,TF-IDF信息反应了初始文本中各词的重要性,根据TF-IDF信息确定目标调整词,并调整目标调整词,可以在保持文本语义相近的条件下生成相似文本;利用初始句向量模型生成初始文本的初始句向量和相似文本的相似句向量,避免了对文本中的词进行单独分割造成的语义损失;采用无监督的对比学习,仅将相似文本的相似句向量作为正样本,其余向量均作为负样本,使模型在训练中可以将初始句向量与负样本进行充分区分,从而得到能够生成句向量的句向量模型;本申请在生成句向量模型时减少了语义损失,且进行无监督的训练,从而能够高效地生成准确可用的句向量。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。
Claims (10)
1.一种基于句向量模型的句向量生成方法,其特征在于,包括下述步骤:
获取初始文本集;
对于所述初始文本集中的各初始文本,获取初始文本的TF-IDF信息;
根据所述TF-IDF信息在所述初始文本中确定目标调整词,以基于所述目标调整词对所述初始文本进行调整,生成所述初始文本的相似文本;
将所述初始文本输入初始句向量模型得到初始句向量,并将所述相似文本输入所述初始句向量模型得到相似句向量;
将所述相似句向量设置为当前的初始句向量的正样本,并将所述初始文本集中其他初始文本的初始句向量以及所述其他初始文本的相似文本所对应的相似句向量设置为所述当前的初始句向量的负样本;
指示所述初始句向量模型根据所述当前的初始句向量、所述正样本和所述负样本进行对比学习,得到句向量模型;
将获取到的待处理文本输入所述句向量模型,得到所述待处理文本的句向量。
2.根据权利要求1所述的基于句向量模型的句向量生成方法,其特征在于,所述对于所述初始文本集中的各初始文本,获取初始文本的TF-IDF信息的步骤包括:
对于所述初始文本集中的各初始文本,对初始文本进行分词处理,得到若干个拆分词;
基于所述初始文本集计算各拆分词的TF-IDF值,得到所述初始文本的TF-IDF信息。
3.根据权利要求2所述的基于句向量模型的句向量生成方法,其特征在于,所述根据所述TF-IDF信息在所述初始文本中确定目标调整词,以基于所述目标调整词对所述初始文本进行调整,生成所述初始文本的相似文本的步骤包括:
基于所述TF-IDF信息,将所述初始文本中TF-IDF值大于预设的第一阈值的拆分词确定为目标调整词;
通过词林获取所述目标调整词的若干个相似词;
从所述初始文本中获取所述目标调整词的前排序词和后排序词;
对于每个相似词,将所述前排序词、相似词和所述后排序词进行顺序组合,得到候选词序列;
根据预设的语料库获取所述候选词序列的序列频率;
将所述初始文本中的目标调整词替换为序列频率最高的候选词序列中的相似词,得到所述初始文本的相似文本。
4.根据权利要求3所述的基于句向量模型的句向量生成方法,其特征在于,所述将所述初始文本中的目标调整词替换为序列频率最高的候选词序列中的相似词,得到所述初始文本的相似文本的步骤之后,还包括:
基于所述TF-IDF信息,在所述相似文本中筛选TF-IDF值小于预设的第二阈值的拆分词;
将筛选到的拆分词从所述相似文本中删除。
5.根据权利要求1所述的基于句向量模型的句向量生成方法,其特征在于,所述将所述初始文本输入初始句向量模型得到初始句向量的步骤包括:
将所述初始文本输入初始句向量模型中的向量生成模型,得到原始向量;
将所述原始向量输入所述初始句向量模型中的标准处理网络,得到标准化的原始向量;
将所述标准化的原始向量输入所述初始句向量模型中的全连接网络进行降维处理,得到初始句向量。
6.根据权利要求5所述的基于句向量模型的句向量生成方法,其特征在于,所述将所述初始文本输入初始句向量模型中的向量生成模型,得到原始向量的步骤包括:
将所述初始文本输入初始句向量中的向量生成模型,得到模型输出信息,所述向量生成模型为Bert模型;
根据预设的标识符,从所述模型输出信息中提取出原始向量。
7.根据权利要求1所述的基于句向量模型的句向量生成方法,其特征在于,所述指示所述初始句向量模型根据所述当前的初始句向量、所述正样本和所述负样本进行对比学习,得到句向量模型的步骤包括:
分别计算所述初始句向量与所述正样本以及所述负样本的相似度;
根据得到的相似度计算模型损失;
根据所述模型损失调整所述初始句向量模型的模型参数,直至所述模型损失收敛,得到句向量模型。
8.一种基于句向量模型的句向量生成装置,其特征在于,包括:
文本集获取模块,用于获取初始文本集;
信息获取模块,用于对于所述初始文本集中的各初始文本,获取初始文本的TF-IDF信息;
文本调整模块,用于根据所述TF-IDF信息在所述初始文本中确定目标调整词,以基于所述目标调整词对所述初始文本进行调整,生成所述初始文本的相似文本;
文本输入模块,用于将所述初始文本输入初始句向量模型得到初始句向量,并将所述相似文本输入所述初始句向量模型得到相似句向量;
向量设置模块,用于将所述相似句向量设置为当前的初始句向量的正样本,并将所述初始文本集中其他初始文本的初始句向量以及所述其他初始文本的相似文本所对应的相似句向量设置为所述当前的初始句向量的负样本;
对比学习模块,用于指示所述初始句向量模型根据所述当前的初始句向量、所述正样本和所述负样本进行对比学习,得到句向量模型;
待处理输入模块,用于将获取到的待处理文本输入所述句向量模型,得到所述待处理文本的句向量。
9.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至7中任一项所述的基于句向量模型的句向量生成方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至7中任一项所述的基于句向量模型的句向量生成方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111013003.5A CN113722438B (zh) | 2021-08-31 | 2021-08-31 | 基于句向量模型的句向量生成方法、装置及计算机设备 |
PCT/CN2022/071882 WO2023029356A1 (zh) | 2021-08-31 | 2022-01-13 | 基于句向量模型的句向量生成方法、装置及计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111013003.5A CN113722438B (zh) | 2021-08-31 | 2021-08-31 | 基于句向量模型的句向量生成方法、装置及计算机设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113722438A CN113722438A (zh) | 2021-11-30 |
CN113722438B true CN113722438B (zh) | 2023-06-23 |
Family
ID=78679828
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111013003.5A Active CN113722438B (zh) | 2021-08-31 | 2021-08-31 | 基于句向量模型的句向量生成方法、装置及计算机设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN113722438B (zh) |
WO (1) | WO2023029356A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113722438B (zh) * | 2021-08-31 | 2023-06-23 | 平安科技(深圳)有限公司 | 基于句向量模型的句向量生成方法、装置及计算机设备 |
CN114186548B (zh) * | 2021-12-15 | 2023-08-15 | 平安科技(深圳)有限公司 | 基于人工智能的句子向量生成方法、装置、设备及介质 |
CN116579320B (zh) * | 2023-07-07 | 2023-09-15 | 航天宏康智能科技(北京)有限公司 | 句向量模型的训练方法、文本语义增强的方法及装置 |
CN116631550B (zh) * | 2023-07-26 | 2023-11-28 | 深圳爱递医药科技有限公司 | 一种临床试验的数据管理及逻辑核查方法及其医疗系统 |
CN116821966B (zh) * | 2023-08-25 | 2023-12-19 | 杭州海康威视数字技术股份有限公司 | 机器学习模型训练数据集隐私保护方法、装置及设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108628825A (zh) * | 2018-04-10 | 2018-10-09 | 平安科技(深圳)有限公司 | 文本信息相似度匹配方法、装置、计算机设备及存储介质 |
WO2019029723A1 (zh) * | 2017-08-11 | 2019-02-14 | 腾讯科技(深圳)有限公司 | 文本问题的数学化处理方法、装置、设备和存储介质 |
CN110472241A (zh) * | 2019-07-29 | 2019-11-19 | 平安科技(深圳)有限公司 | 生成去冗余信息句向量的方法及相关设备 |
CN111709223A (zh) * | 2020-06-02 | 2020-09-25 | 上海硬通网络科技有限公司 | 基于bert的句子向量生成方法、装置及电子设备 |
CN112052395A (zh) * | 2020-09-16 | 2020-12-08 | 北京搜狗科技发展有限公司 | 一种数据处理方法及装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10394959B2 (en) * | 2017-12-21 | 2019-08-27 | International Business Machines Corporation | Unsupervised neural based hybrid model for sentiment analysis of web/mobile application using public data sources |
CN111178082A (zh) * | 2019-12-05 | 2020-05-19 | 北京葡萄智学科技有限公司 | 一种句向量生成方法、装置及电子设备 |
CN113722438B (zh) * | 2021-08-31 | 2023-06-23 | 平安科技(深圳)有限公司 | 基于句向量模型的句向量生成方法、装置及计算机设备 |
-
2021
- 2021-08-31 CN CN202111013003.5A patent/CN113722438B/zh active Active
-
2022
- 2022-01-13 WO PCT/CN2022/071882 patent/WO2023029356A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019029723A1 (zh) * | 2017-08-11 | 2019-02-14 | 腾讯科技(深圳)有限公司 | 文本问题的数学化处理方法、装置、设备和存储介质 |
CN108628825A (zh) * | 2018-04-10 | 2018-10-09 | 平安科技(深圳)有限公司 | 文本信息相似度匹配方法、装置、计算机设备及存储介质 |
CN110472241A (zh) * | 2019-07-29 | 2019-11-19 | 平安科技(深圳)有限公司 | 生成去冗余信息句向量的方法及相关设备 |
CN111709223A (zh) * | 2020-06-02 | 2020-09-25 | 上海硬通网络科技有限公司 | 基于bert的句子向量生成方法、装置及电子设备 |
CN112052395A (zh) * | 2020-09-16 | 2020-12-08 | 北京搜狗科技发展有限公司 | 一种数据处理方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113722438A (zh) | 2021-11-30 |
WO2023029356A1 (zh) | 2023-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113722438B (zh) | 基于句向量模型的句向量生成方法、装置及计算机设备 | |
CN112632385B (zh) | 课程推荐方法、装置、计算机设备及介质 | |
CN113434636B (zh) | 基于语义的近似文本搜索方法、装置、计算机设备及介质 | |
CN109783787A (zh) | 一种结构化文档的生成方法、装置及存储介质 | |
WO2020147409A1 (zh) | 一种文本分类方法、装置、计算机设备及存储介质 | |
CN112863683A (zh) | 基于人工智能的病历质控方法、装置、计算机设备及存储介质 | |
CN112199954B (zh) | 基于语音语义的疾病实体匹配方法、装置及计算机设备 | |
CN111984792A (zh) | 网站分类方法、装置、计算机设备及存储介质 | |
CN110427453B (zh) | 数据的相似度计算方法、装置、计算机设备及存储介质 | |
CN114357117A (zh) | 事务信息查询方法、装置、计算机设备及存储介质 | |
CN112287069A (zh) | 基于语音语义的信息检索方法、装置及计算机设备 | |
CN113723077B (zh) | 基于双向表征模型的句向量生成方法、装置及计算机设备 | |
CN116796730A (zh) | 基于人工智能的文本纠错方法、装置、设备及存储介质 | |
CN113220828B (zh) | 意图识别模型处理方法、装置、计算机设备及存储介质 | |
CN111950265A (zh) | 一种领域词库构建方法和装置 | |
CN113609833B (zh) | 文件的动态生成方法、装置、计算机设备及存储介质 | |
CN115238077A (zh) | 基于人工智能的文本分析方法、装置、设备及存储介质 | |
CN114091431B (zh) | 事项信息提取方法、装置、计算机设备及存储介质 | |
CN112732913B (zh) | 一种非均衡样本的分类方法、装置、设备及存储介质 | |
CN113688268B (zh) | 图片信息抽取方法、装置、计算机设备及存储介质 | |
CN116364223B (zh) | 特征处理方法、装置、计算机设备及存储介质 | |
CN117076775A (zh) | 资讯数据的处理方法、装置、计算机设备及存储介质 | |
CN117875321A (zh) | 信息录入方法、装置、计算机设备及存储介质 | |
CN117493563A (zh) | 一种会话意图分析方法、装置、设备及其存储介质 | |
CN117389607A (zh) | 看板配置方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |