CN112948592A - 基于人工智能的订单分级方法、装置、设备及存储介质 - Google Patents

基于人工智能的订单分级方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN112948592A
CN112948592A CN202110219481.5A CN202110219481A CN112948592A CN 112948592 A CN112948592 A CN 112948592A CN 202110219481 A CN202110219481 A CN 202110219481A CN 112948592 A CN112948592 A CN 112948592A
Authority
CN
China
Prior art keywords
node
order data
data
tested
nodes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110219481.5A
Other languages
English (en)
Inventor
王勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202110219481.5A priority Critical patent/CN112948592A/zh
Publication of CN112948592A publication Critical patent/CN112948592A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0633Lists, e.g. purchase orders, compilation or processing
    • G06Q30/0635Processing of requisition or of purchase orders

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Accounting & Taxation (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Biology (AREA)
  • Biomedical Technology (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于人工智能的订单分级方法、装置、设备及存储介质,涉及人工智能领域。该方法包括:根据样本数据集构建知识图谱;获取知识图谱的各节点的节点向量,并添加到训练样本集中;通过训练样本集对文本分类模型进行训练;将待测订单数据添加到知识图谱中;获取待测订单数据的节点向量;将待测订单数据的节点向量输入到训练后的文本分类模型中,以由文本分类模型输出待测订单数据的标签;将待测订单数据添加到待测订单数据的标签对应的数据队列中,从而实现根据处理难度来对待测订单数据进行分类,对于标签为疑难订单的数据队列可设定其最高的优先级等级,并向其分配更多处理资源,从而实现处理资源的合理配置,提高订单的处理效率。

Description

基于人工智能的订单分级方法、装置、设备及存储介质
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于人工智能的订单分级方法、装置、设备及存储介质。
背景技术
随着电子商务的兴起,企业的订单正变得越来越多。企业每天都需要耗费大量的人力物力去处理订单。
现有技术中,企业对所有的订单都是一视同仁的。然而订单的个体差异性十分巨大,各订单发生异常的概率各不相同,倘若对所有订单均采用相同的处理方式,将会导致处理资源的浪费,从而导致订单的处理效率低下。
发明内容
本发明实施例提供了一种基于人工智能的订单分级方法、装置、设备及存储介质,旨在解决订单处理效率低下的问题。
第一方面,本发明实施例提供了一种基于人工智能的订单分级方法,其包括:
获取历史订单数据集,所述历史订单数据集包括多个标注了标签的订单数据;
对所述历史订单数据集进行数据清洗处理以得到样本数据集,所述样本数据集包括多个样本数据,所述样本数据由订单数据经过数据清洗处理后得到;
根据所述样本数据集构建知识图谱,所述知识图谱的节点为所述样本数据集中的样本数据;
获取所述知识图谱的各节点的节点向量,并将各节点的节点向量添加到预设的训练样本集中;
通过所述训练样本集对预设的文本分类模型进行训练;
若接收到业务服务器发送的初始订单数据,对所述初始订单数据进行数据清洗处理以得到待测订单数据;
将所述待测订单数据添加到所述知识图谱中;
获取所述待测订单数据的节点向量;
将所述待测订单数据的节点向量输入到训练后的文本分类模型中,以由所述文本分类模型输出所述待测订单数据的标签;
将所述待测订单数据添加到所述待测订单数据的标签对应的数据队列中。第二方面,本发明实施例还提供了一种基于人工智能的订单分级装置,其包括:
第一获取单元,用于获取历史订单数据集,所述历史订单数据集包括多个标注了标签的订单数据;
第一清洗单元,用于对所述历史订单数据集进行数据清洗处理以得到样本数据集,所述样本数据集包括多个样本数据,所述样本数据由订单数据经过数据清洗处理后得到;
构建单元,用于根据所述样本数据集构建知识图谱,所述知识图谱的节点为所述样本数据集中的样本数据;
第二获取单元,用于获取所述知识图谱的各节点的节点向量,并将各节点的节点向量添加到预设的训练样本集中;
训练单元,用于通过所述训练样本集对预设的文本分类模型进行训练;
第二清洗单元,用于若接收到业务服务器发送的初始订单数据,对所述初始订单数据进行数据清洗处理以得到待测订单数据;
第一添加单元,用于将所述待测订单数据添加到所述知识图谱中;
第三获取单元,用于获取所述待测订单数据的节点向量;
输入单元,用于将所述待测订单数据的节点向量输入到训练后的文本分类模型中,以由所述文本分类模型输出所述待测订单数据的标签;
第二添加单元,用于将所述待测订单数据添加到所述待测订单数据的标签对应的数据队列中。
第三方面,本发明实施例还提供了一种计算机设备,其包括存储器及处理器,所述存储器上存储有计算机程序,所述处理器执行所述计算机程序时实现上述方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序当被处理器执行时可实现上述方法。
本发明实施例提供了一种基于人工智能的订单分级方法、装置、设备及存储介质。其中,所述方法包括:获取历史订单数据集,所述历史订单数据集包括多个标注了标签的订单数据;对所述历史订单数据集进行数据清洗处理以得到样本数据集,所述样本数据集包括多个样本数据,所述样本数据由订单数据经过数据清洗处理后得到;根据所述样本数据集构建知识图谱,所述知识图谱的节点为所述样本数据集中的样本数据;获取所述知识图谱的各节点的节点向量,并将各节点的节点向量添加到预设的训练样本集中;通过所述训练样本集对预设的文本分类模型进行训练;若接收到业务服务器发送的初始订单数据,对所述初始订单数据进行数据清洗处理以得到待测订单数据;将所述待测订单数据添加到所述知识图谱中;获取所述待测订单数据的节点向量;将所述待测订单数据的节点向量输入到训练后的文本分类模型中,以由所述文本分类模型输出所述待测订单数据的标签;将所述待测订单数据添加到所述待测订单数据的标签对应的数据队列中。从而实现根据处理难度来对待测订单数据进行分类,对于标签为疑难订单的数据队列可设定其最高的优先级等级,并向其分配更多处理资源,从而实现处理资源的合理配置,提高订单的处理效率。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种基于人工智能的订单分级方法的流程示意图;
图2为本发明实施例提供的一种基于人工智能的订单分级方法的子流程示意图;
图3为本发明实施例提供的一种基于人工智能的订单分级方法的子流程示意图;
图4为本发明实施例提供的一种基于人工智能的订单分级方法的子流程示意图;
图5为本发明实施例提供的一种基于人工智能的订单分级方法的子流程示意图;
图6为本发明实施例提供的一种基于人工智能的订单分级方法的子流程示意图;
图7为本发明实施例提供的一种基于人工智能的订单分级方法的子流程示意图;
图8为本发明实施例提供的一种基于人工智能的订单分级装置的示意性框图;
图9为本发明实施例提供的一种计算机设备的示意性框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
请参阅图1,图1是本发明实施例提供的基于人工智能的订单分级方法的流程示意图。本发明可应用于智慧政务/智慧城管/智慧社区/智慧安防/智慧物流/智慧医疗/智慧教育/智慧环保/智慧交通场景中,从而推动智慧城市的建设。如图所示,该方法包括以下步骤S1-S10。
S1,获取历史订单数据集,所述历史订单数据集包括多个标注了标签的订单数据。
具体实施中,历史订单数据集是企业历年获取到的订单数据组成的集合。例如,历史订单数据集可具体为企业近两年的订单数据组成的集合。
订单数据包括订单来源、订单的处理机构、订单的产品、订单的用户的信用评分、订单金额以及消费群体等订单数据。
订单数据的标签,由企业员工根据订单的异常状况、处理时长以及处理难度来确定。例如,在一实施例中,可将订单的标签包括疑难订单、一般订单以及简单订单。其中,疑难订单最难处理,简单订单最易处理。
S2,对所述历史订单数据集进行数据清洗处理以得到样本数据集,所述样本数据集包括多个样本数据,所述样本数据由订单数据经过数据清洗处理后得到。
具体实施中,数据清洗处理(Data cleaning)是指对数据进行重新审查和校验的过程,目的在于删除重复信息、纠正存在的错误,并提供数据一致性。通过数据清洗能够提高后续模型计算的准确性。
具体地,逐一对历史订单数据集包含的订单数据进行数据清洗处理。每个订单数据进行数据清洗后得到样本数据。样本数据组成了样本数据集。
S3,根据所述样本数据集构建知识图谱,所述知识图谱的节点为所述样本数据集中的样本数据。
具体实施中,以样本数据集中的样本数据为节点构建知识图谱。
知识图谱是图的一种。图(Graph)是由节点的有穷非空集合和节点之间边的集合组成,通常表示为:G(V,E),其中,G表示一个图,V是图G中节点的集合,E是图G中边的集合。
图是一种比线性表和树更复杂的数据结构。在图中,节点之间的关系是任意的,任意两个节点之间都可能相关。
图是一种多对多的数据结构。它包含节点集合和边集合两部分,边反映了节点之间的关系。若图的两个节点之间存在关联,则该两个节点之间存在边;若图的两个节点之间不存在关联,则该两个节点之间不存在边。
参见图2,在一实施例中,以上步骤S3具体包括如下步骤:
S31,将所述样本数据集中的样本数据作为节点添加到预设的节点集合中。
S32,分别计算所述节点集合中任意两个节点之间的余弦相似度。
具体地,首先通过预设的TF-IDF算法计算各节点的词频向量,然后计算两节点的词频向量的夹角的余弦值作为两个节点之间的余弦相似度。
需要说明的是,余弦相似度,又称为余弦相似性,是通过计算两个向量的夹角余弦值来评估他们的相似度。余弦相似性的范围在[-1,1]之间,值越趋近于1,代表两个向量的方向越接近,即二者越接近。值越趋近于-1,他们的方向越相反;即二者差别越大。
S33,判断两个节点之间的余弦相似度是否大于预设的余弦相似度阈值。
S34,若两个节点之间的余弦相似度大于预设的余弦相似度阈值,则在该两个节点之间建立边。
需要说明的是,如果两个节点之间的余弦相似度小于预设的余弦相似度阈值,则表明二者差别较大,因此该两个节点之间没有边。
S4,获取所述知识图谱的各节点的节点向量,并将各节点的节点向量添加到预设的训练样本集中。
具体实施中,将所述知识图谱中的各节点表示为向量的形式(即计算知识图谱的各节点的节点向量)。得到的节点向量可以在向量空间中具有表示以及推理的能力。同时,节点向量可轻松方便的作为机器学习模型的输入。本发明实施例中,将节点向量作为文本分类模型的训练数据。
具体地,本发明实施例中,将各节点的节点向量作为样本数据添加到预设的训练样本集中,用以训练文本分类模型。节点向量的标签为节点向量对应的订单数据的标签。
参见图3,在一实施例中,以上步骤S4具体包括如下步骤:
S41,从所述知识图谱的一节点出发,根据该节点与其它节点之间的边进行随机游走,得到预设长度的第一节点序列。
具体实施中,从知识图谱中的一节点出发,根据节点之间的边进行随机游走,得到预设的固定长度的第一节点序列。
例如,随机游走5次,得到长度为5个节点的第一节点序列。
S42,将所述第一节点序列输入到预设的词向量训练模型中以得到该节点的节点向量。
具体实施中,将得到第一节点序列类比为自然语言中的句子(第一节点序列=句子,序列中的节点=句子中的单词),并将其输入到词向量训练模型(例如,skip-gram模型)中以得到该节点的节点向量。
参见图4,在一实施例中,以上步骤S4具体包括如下步骤:
S410,从所述知识图谱的一节点出发,根据该节点与其它节点之间的边进行游走,得到预设长度的第二节点序列,其中,在游走过程中,返回到原来节点的概率为预设的返回概率参数,不返回到原来节点的概率为预设的离开概率参数。
具体实施中,具体地,预先定义返回概率参数(Return parameter)p(即回到原来节点的概率);以及定义离开概率参数(In outparameter)q,(即不回到原来节点的概率)。根据以上返回概率参数p和离开概率参数q,从知识图谱中的一节点出发,根据节点之间的边进行游走(在游走时返回上一节点的概率为p,不返回上一节点的概率为q),得到预设的固定长度的第二节点序列。
例如,游走5次,得到长度为5个节点的第二节点序列。
S420,将所述第二节点序列输入到预设的词向量训练模型中以得到该节点的节点向量。
具体实施中,将得到第二节点序列类比为自然语言中的句子(第二节点序列=句子,序列中的节点=句子中的单词),并将其输入到词向量训练模型(例如,skip-gram模型)中以得到该节点的节点向量。
或者在其它实施例中,还可采用其它网络表示学习算法来获取知识图谱的各节点的节点向量,本方案不作具体限定。
S5,通过所述训练样本集对预设的文本分类模型进行训练。
具体实施中,将样本数据集中的样本数据的特征向量输入到所述文本分类模型中,并根据预设的反向传播算法对所述文本分类模型进行训练。
反向传播算法(Backpropagation algorithm,简称:BP算法)是一种监督学习算法,常被用来训练文本分类模型。通过反向传播算法训练能够使得文本分类模型的准确性更高。
具体地,将样本数据集中的样本数据的特征向量输入到所述文本分类模型中,判断所述文本分类模型输出的标签是否与样本数据的标签一致,若不一致则计算损失函数,并根据反向传播算法调整模型的参数,再次将样本数据的特征向量输入到所述文本分类模型中,如此重复,直到文本分类模型输出的标签与样本数据的标签一致为止。样本数据的标签即为其对应的订单数据的标签。
需要说明的是,文本分类模型可具体为CNN或者BERT等模型,对此本发明不做具体限定。
S6,若接收到业务服务器发送的初始订单数据,对所述初始订单数据进行数据清洗处理以得到待测订单数据。
具体实施中,数据清洗处理(Data cleaning)是指对数据进行重新审查和校验的过程,目的在于删除重复信息、纠正存在的错误,并提供数据一致性。通过数据清洗能够提高后续聚类模型计算的准确性。
初始订单数据是指新采集到的订单数据,业务服务器将初始订单数据发送给分类服务器,以由分类服务器对所述初始订单数据进行数据清洗处理以得到待测订单数据。
S7,将所述待测订单数据添加到所述知识图谱中。
具体实施中,将所述待测订单数据添加到所述知识图谱中,已通过所述知识图谱挖掘所述待测订单数据的特征。
参见图5,在一实施例中,以上步骤S7具体包括如下步骤:
S71,将所述待测订单数据作为节点添加到所述节点集合中。
S72,分别计算所述待测订单数据与其它节点之间的余弦相似度。
S73,判断所述待测订单数据与其它节点之间的余弦相似度是否大于预设的余弦相似度阈值。
S74,若所述待测订单数据与其它节点之间的余弦相似度大于预设的余弦相似度阈值,则在待测订单数据与该节点之间建立边。
需要说明的是,如果待测订单数据与其它节点之间的余弦相似度小于预设的余弦相似度阈值,则表明二者差别较大,因此该两个节点之间没有边。
S8,获取所述待测订单数据的节点向量。
具体实施中,获取所述待测订单数据的节点向量。并进一步根据所述待测订单数据的节点向量确定所述待测订单数据的标签。
参见图6,在一实施例中,以上步骤S8具体包括如下步骤:
S81,从所述待测订单数据出发,根据所述待测订单数据与其它节点之间的边进行随机游走,得到预设长度的第三节点序列。
具体实施中,在知识图谱中,从待测订单数据出发,根据待测订单数据与其它节点之间的边进行随机游走,得到预设的固定长度的第三节点序列。
例如,随机游走5次,得到长度为5个节点的第三节点序列。
S82,将所述第三节点序列输入到预设的词向量训练模型中以得到所述待测订单数据的节点向量。
具体实施中,将得到第三节点序列类比为自然语言中的句子(第三节点序列=句子,序列中的节点=句子中的单词),并将其输入到词向量训练模型(例如,skip-gram模型)中以得到该节点的节点向量。
参见图7,在一实施例中,以上步骤S8具体包括如下步骤:
S810,从所述待测订单数据出发,根据所述待测订单数据与其它节点之间的边进行游走,得到预设长度的第四节点序列,其中,在游走过程中,返回到原来节点的概率为预设的返回概率参数,不返回到原来节点的概率为预设的离开概率参数。
具体实施中,具体地,预先定义返回概率参数(Return parameter)p(即回到原来节点的概率);以及定义离开概率参数(In outparameter)q,(即不回到原来节点的概率)。根据以上返回概率参数p和离开概率参数q,从知识图谱中的待测订单数据出发,根据待测订单数据与其它节点之间的边进行游走(在游走时返回上一节点的概率为p,不返回上一节点的概率为q),得到预设的固定长度的第四节点序列。
S820,将所述第四节点序列输入到预设的词向量训练模型中以得到所述待测订单数据的节点向量。
具体实施中,将得到第四节点序列类比为自然语言中的句子(第四节点序列=句子,序列中的节点=句子中的单词),并将其输入到词向量训练模型(例如,skip-gram模型)中以得到该节点的节点向量。
或者在其它实施例中,还可采用其它网络表示学习算法来获取待测订单数据的节点向量,本方案不作具体限定。
S9,将所述待测订单数据的节点向量输入到训练后的文本分类模型中,以由所述文本分类模型输出所述待测订单数据的标签。
具体实施中,将所述待测订单数据的节点向量输入到训练后的文本分类模型中,以由所述文本分类模型输出所述待测订单数据的标签。
在本发明实施例中,标签包括疑难订单、一般订单以及简单订单。其中,疑难订单最难处理,简单订单最易处理。由此,能够实现根据处理难度来对待测订单数据进行标记标签。
S10,将所述待测订单数据添加到所述待测订单数据的标签对应的数据队列中。
具体实施中,预先为每一标签建立数据队列,在确定了待测订单数据的标签后,将所述待测订单数据添加到所述待测订单数据的标签对应的数据队列中,从而实现根据处理难度来对待测订单数据进行分类。
同时可设定不同标签的数据队列的处理优先级,对于标签为疑难订单的数据队列可设定其最高的优先级等级,并向其分配更多处理资源,实现处理资源的合理配置,从而提高订单的处理效率。
本方案能带来的有益效果包括:
通过应用本发明的技术方案,获取历史订单数据集,所述历史订单数据集包括多个标注了标签的订单数据;对所述历史订单数据集进行数据清洗处理以得到样本数据集,所述样本数据集包括多个样本数据,所述样本数据由订单数据经过数据清洗处理后得到;根据所述样本数据集构建知识图谱,所述知识图谱的节点为所述样本数据集中的样本数据;获取所述知识图谱的各节点的节点向量,并将各节点的节点向量添加到预设的训练样本集中;通过所述训练样本集对预设的文本分类模型进行训练;若接收到业务服务器发送的初始订单数据,对所述初始订单数据进行数据清洗处理以得到待测订单数据;将所述待测订单数据添加到所述知识图谱中;获取所述待测订单数据的节点向量;将所述待测订单数据的节点向量输入到训练后的文本分类模型中,以由所述文本分类模型输出所述待测订单数据的标签;将所述待测订单数据添加到所述待测订单数据的标签对应的数据队列中。从而实现根据处理难度来对待测订单数据进行分类,对于标签为疑难订单的数据队列可设定其最高的优先级等级,并向其分配更多处理资源,从而实现处理资源的合理配置,提高订单的处理效率。
参见图8,图8是本发明实施例提供的一种基于人工智能的订单分级装置的示意性框图。对应于以上基于人工智能的订单分级方法,本发明还提供一种基于人工智能的订单分级装置。该基于人工智能的订单分级装置包括用于执行上述基于人工智能的订单分级方法的单元,该基于人工智能的订单分级装置可以被配置于服务器中。具体地,该基于人工智能的订单分级装置包括第一获取单元、第一清洗单元、构建单元、第二获取单元、训练单元、第二清洗单元、第一添加单元、第三获取单元、输入单元以及第二添加单元。
第一获取单元,用于获取历史订单数据集,所述历史订单数据集包括多个标注了标签的订单数据;
第一清洗单元,用于对所述历史订单数据集进行数据清洗处理以得到样本数据集,所述样本数据集包括多个样本数据,所述样本数据由订单数据经过数据清洗处理后得到;
构建单元,用于根据所述样本数据集构建知识图谱,所述知识图谱的节点为所述样本数据集中的样本数据;
第二获取单元,用于获取所述知识图谱的各节点的节点向量,并将各节点的节点向量添加到预设的训练样本集中;
训练单元,用于通过所述训练样本集对预设的文本分类模型进行训练;
第二清洗单元,用于若接收到业务服务器发送的初始订单数据,对所述初始订单数据进行数据清洗处理以得到待测订单数据;
第一添加单元,用于将所述待测订单数据添加到所述知识图谱中;
第三获取单元,用于获取所述待测订单数据的节点向量;
输入单元,用于将所述待测订单数据的节点向量输入到训练后的文本分类模型中,以由所述文本分类模型输出所述待测订单数据的标签;
第二添加单元,用于将所述待测订单数据添加到所述待测订单数据的标签对应的数据队列中。
在一实施例中,所述根据所述样本数据集构建知识图谱,包括:
将所述样本数据集中的样本数据作为节点添加到预设的节点集合中;
分别计算所述节点集合中任意两个节点之间的余弦相似度;
判断两个节点之间的余弦相似度是否大于预设的余弦相似度阈值;
若两个节点之间的余弦相似度大于预设的余弦相似度阈值,则在该两个节点之间建立边。
在一实施例中,所述获取所述知识图谱的各节点的节点向量,包括:
从所述知识图谱的一节点出发,根据该节点与其它节点之间的边进行随机游走,得到预设长度的第一节点序列;
将所述第一节点序列输入到预设的词向量训练模型中以得到该节点的节点向量。
在一实施例中,所述获取所述知识图谱的各节点的节点向量,包括:
从所述知识图谱的一节点出发,根据该节点与其它节点之间的边进行游走,得到预设长度的第二节点序列,其中,在游走过程中,返回到原来节点的概率为预设的返回概率参数,不返回到原来节点的概率为预设的离开概率参数;
将所述第二节点序列输入到预设的词向量训练模型中以得到该节点的节点向量。
在一实施例中,所述将所述待测订单数据添加到所述知识图谱中,包括:
将所述待测订单数据作为节点添加到所述节点集合中;
分别计算所述待测订单数据与其它节点之间的余弦相似度;
判断所述待测订单数据与其它节点之间的余弦相似度是否大于预设的余弦相似度阈值;
若所述待测订单数据与其它节点之间的余弦相似度大于预设的余弦相似度阈值,则在待测订单数据与该节点之间建立边。
在一实施例中,所述获取所述待测订单数据的节点向量,包括:
从所述待测订单数据出发,根据所述待测订单数据与其它节点之间的边进行随机游走,得到预设长度的第三节点序列;
将所述第三节点序列输入到预设的词向量训练模型中以得到所述待测订单数据的节点向量。
在一实施例中,所述获取所述待测订单数据的节点向量,包括:
从所述待测订单数据出发,根据所述待测订单数据与其它节点之间的边进行游走,得到预设长度的第四节点序列,其中,在游走过程中,返回到原来节点的概率为预设的返回概率参数,不返回到原来节点的概率为预设的离开概率参数;
将所述第四节点序列输入到预设的词向量训练模型中以得到所述待测订单数据的节点向量。
需要说明的是,所属领域的技术人员可以清楚地了解到,上述基于人工智能的订单分级装置和各单元的具体实现过程,可以参考前述方法实施例中的相应描述,为了描述的方便和简洁,在此不再赘述。
上述基于人工智能的订单分级装置可以实现为一种计算机程序的形式,该计算机程序可以在如图9所示的计算机设备上运行。
请参阅图9,图9是本申请实施例提供的一种计算机设备的示意性框图。该计算机设备500是服务器,服务器可以是独立的服务器,也可以是多个服务器组成的服务器集群。
该计算机设备500包括通过系统总线501连接的处理器502、存储器和网络接口505,其中,存储器可以包括非易失性存储介质503和内存储器504。
该非易失性存储介质503可存储操作系统5031和计算机程序5032。该计算机程序5032被执行时,可使得处理器502执行一种基于人工智能的订单分级方法。
该处理器502用于提供计算和控制能力,以支撑整个计算机设备500的运行。
该内存储器504为非易失性存储介质503中的计算机程序5032的运行提供环境,该计算机程序5032被处理器502执行时,可使得处理器502执行一种基于人工智能的订单分级方法。
该网络接口505用于与其它设备进行网络通信。本领域技术人员可以理解,上述结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备500的限定,具体的计算机设备500可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
其中,所述处理器502用于运行存储在存储器中的计算机程序5032,以实现如下步骤:
获取历史订单数据集,所述历史订单数据集包括多个标注了标签的订单数据;
对所述历史订单数据集进行数据清洗处理以得到样本数据集,所述样本数据集包括多个样本数据,所述样本数据由订单数据经过数据清洗处理后得到;
根据所述样本数据集构建知识图谱,所述知识图谱的节点为所述样本数据集中的样本数据;
获取所述知识图谱的各节点的节点向量,并将各节点的节点向量添加到预设的训练样本集中;
通过所述训练样本集对预设的文本分类模型进行训练;
若接收到业务服务器发送的初始订单数据,对所述初始订单数据进行数据清洗处理以得到待测订单数据;
将所述待测订单数据添加到所述知识图谱中;
获取所述待测订单数据的节点向量;
将所述待测订单数据的节点向量输入到训练后的文本分类模型中,以由所述文本分类模型输出所述待测订单数据的标签;
将所述待测订单数据添加到所述待测订单数据的标签对应的数据队列中。
在一实施例中,所述根据所述样本数据集构建知识图谱,包括:
将所述样本数据集中的样本数据作为节点添加到预设的节点集合中;
分别计算所述节点集合中任意两个节点之间的余弦相似度;
判断两个节点之间的余弦相似度是否大于预设的余弦相似度阈值;
若两个节点之间的余弦相似度大于预设的余弦相似度阈值,则在该两个节点之间建立边。
在一实施例中,所述获取所述知识图谱的各节点的节点向量,包括:
从所述知识图谱的一节点出发,根据该节点与其它节点之间的边进行随机游走,得到预设长度的第一节点序列;
将所述第一节点序列输入到预设的词向量训练模型中以得到该节点的节点向量。
在一实施例中,所述获取所述知识图谱的各节点的节点向量,包括:
从所述知识图谱的一节点出发,根据该节点与其它节点之间的边进行游走,得到预设长度的第二节点序列,其中,在游走过程中,返回到原来节点的概率为预设的返回概率参数,不返回到原来节点的概率为预设的离开概率参数;
将所述第二节点序列输入到预设的词向量训练模型中以得到该节点的节点向量。
在一实施例中,所述将所述待测订单数据添加到所述知识图谱中,包括:
将所述待测订单数据作为节点添加到所述节点集合中;
分别计算所述待测订单数据与其它节点之间的余弦相似度;
判断所述待测订单数据与其它节点之间的余弦相似度是否大于预设的余弦相似度阈值;
若所述待测订单数据与其它节点之间的余弦相似度大于预设的余弦相似度阈值,则在待测订单数据与该节点之间建立边。
在一实施例中,所述获取所述待测订单数据的节点向量,包括:
从所述待测订单数据出发,根据所述待测订单数据与其它节点之间的边进行随机游走,得到预设长度的第三节点序列;
将所述第三节点序列输入到预设的词向量训练模型中以得到所述待测订单数据的节点向量。
在一实施例中,所述获取所述待测订单数据的节点向量,包括:
从所述待测订单数据出发,根据所述待测订单数据与其它节点之间的边进行游走,得到预设长度的第四节点序列,其中,在游走过程中,返回到原来节点的概率为预设的返回概率参数,不返回到原来节点的概率为预设的离开概率参数;
将所述第四节点序列输入到预设的词向量训练模型中以得到所述待测订单数据的节点向量。
应当理解,在本申请实施例中,处理器502可以是中央处理单元(CentralProcessing Unit,CPU),该处理器502还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
本领域普通技术人员可以理解的是实现上述实施例的方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成。该计算机程序可存储于一存储介质中,该存储介质为计算机可读存储介质。该计算机程序被该计算机系统中的至少一个处理器执行,以实现上述方法的实施例的流程步骤。
因此,本发明还提供一种存储介质。该存储介质可以为计算机可读存储介质。该存储介质存储有计算机程序。该计算机程序被处理器执行时使处理器执行如下步骤:
获取历史订单数据集,所述历史订单数据集包括多个标注了标签的订单数据;
对所述历史订单数据集进行数据清洗处理以得到样本数据集,所述样本数据集包括多个样本数据,所述样本数据由订单数据经过数据清洗处理后得到;
根据所述样本数据集构建知识图谱,所述知识图谱的节点为所述样本数据集中的样本数据;
获取所述知识图谱的各节点的节点向量,并将各节点的节点向量添加到预设的训练样本集中;
通过所述训练样本集对预设的文本分类模型进行训练;
若接收到业务服务器发送的初始订单数据,对所述初始订单数据进行数据清洗处理以得到待测订单数据;
将所述待测订单数据添加到所述知识图谱中;
获取所述待测订单数据的节点向量;
将所述待测订单数据的节点向量输入到训练后的文本分类模型中,以由所述文本分类模型输出所述待测订单数据的标签;
将所述待测订单数据添加到所述待测订单数据的标签对应的数据队列中。
在一实施例中,所述根据所述样本数据集构建知识图谱,包括:
将所述样本数据集中的样本数据作为节点添加到预设的节点集合中;
分别计算所述节点集合中任意两个节点之间的余弦相似度;
判断两个节点之间的余弦相似度是否大于预设的余弦相似度阈值;
若两个节点之间的余弦相似度大于预设的余弦相似度阈值,则在该两个节点之间建立边。
在一实施例中,所述获取所述知识图谱的各节点的节点向量,包括:
从所述知识图谱的一节点出发,根据该节点与其它节点之间的边进行随机游走,得到预设长度的第一节点序列;
将所述第一节点序列输入到预设的词向量训练模型中以得到该节点的节点向量。
在一实施例中,所述获取所述知识图谱的各节点的节点向量,包括:
从所述知识图谱的一节点出发,根据该节点与其它节点之间的边进行游走,得到预设长度的第二节点序列,其中,在游走过程中,返回到原来节点的概率为预设的返回概率参数,不返回到原来节点的概率为预设的离开概率参数;
将所述第二节点序列输入到预设的词向量训练模型中以得到该节点的节点向量。
在一实施例中,所述将所述待测订单数据添加到所述知识图谱中,包括:
将所述待测订单数据作为节点添加到所述节点集合中;
分别计算所述待测订单数据与其它节点之间的余弦相似度;
判断所述待测订单数据与其它节点之间的余弦相似度是否大于预设的余弦相似度阈值;
若所述待测订单数据与其它节点之间的余弦相似度大于预设的余弦相似度阈值,则在待测订单数据与该节点之间建立边。
在一实施例中,所述获取所述待测订单数据的节点向量,包括:
从所述待测订单数据出发,根据所述待测订单数据与其它节点之间的边进行随机游走,得到预设长度的第三节点序列;
将所述第三节点序列输入到预设的词向量训练模型中以得到所述待测订单数据的节点向量。
在一实施例中,所述获取所述待测订单数据的节点向量,包括:
从所述待测订单数据出发,根据所述待测订单数据与其它节点之间的边进行游走,得到预设长度的第四节点序列,其中,在游走过程中,返回到原来节点的概率为预设的返回概率参数,不返回到原来节点的概率为预设的离开概率参数;
将所述第四节点序列输入到预设的词向量训练模型中以得到所述待测订单数据的节点向量。
所述存储介质为实体的、非瞬时性的存储介质,例如可以是U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、磁碟或者光盘等各种可以存储程序代码的实体存储介质。所述计算机可读存储介质可以是非易失性,也可以是易失性。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的。例如,各个单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。
本发明实施例方法中的步骤可以根据实际需要进行顺序调整、合并和删减。本发明实施例装置中的单元可以根据实际需要进行合并、划分和删减。另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。
该集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,终端,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详细描述的部分,可以参见其他实施例的相关描述。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,尚且本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种基于人工智能的订单分级方法,其特征在于,包括:
获取历史订单数据集,所述历史订单数据集包括多个标注了标签的订单数据;
对所述历史订单数据集进行数据清洗处理以得到样本数据集,所述样本数据集包括多个样本数据,所述样本数据由订单数据经过数据清洗处理后得到;
根据所述样本数据集构建知识图谱,所述知识图谱的节点为所述样本数据集中的样本数据;
获取所述知识图谱的各节点的节点向量,并将各节点的节点向量添加到预设的训练样本集中;
通过所述训练样本集对预设的文本分类模型进行训练;
若接收到业务服务器发送的初始订单数据,对所述初始订单数据进行数据清洗处理以得到待测订单数据;
将所述待测订单数据添加到所述知识图谱中;
获取所述待测订单数据的节点向量;
将所述待测订单数据的节点向量输入到训练后的文本分类模型中,以由所述文本分类模型输出所述待测订单数据的标签;
将所述待测订单数据添加到所述待测订单数据的标签对应的数据队列中。
2.根据权利要求1所述的基于人工智能的订单分级方法,其特征在于,所述根据所述样本数据集构建知识图谱,包括:
将所述样本数据集中的样本数据作为节点添加到预设的节点集合中;
分别计算所述节点集合中任意两个节点之间的余弦相似度;
判断两个节点之间的余弦相似度是否大于预设的余弦相似度阈值;
若两个节点之间的余弦相似度大于预设的余弦相似度阈值,则在该两个节点之间建立边。
3.根据权利要求1所述的基于人工智能的订单分级方法,其特征在于,所述获取所述知识图谱的各节点的节点向量,包括:
从所述知识图谱的一节点出发,根据该节点与其它节点之间的边进行随机游走,得到预设长度的第一节点序列;
将所述第一节点序列输入到预设的词向量训练模型中以得到该节点的节点向量。
4.根据权利要求1所述的基于人工智能的订单分级方法,其特征在于,所述获取所述知识图谱的各节点的节点向量,包括:
从所述知识图谱的一节点出发,根据该节点与其它节点之间的边进行游走,得到预设长度的第二节点序列,其中,在游走过程中,返回到原来节点的概率为预设的返回概率参数,不返回到原来节点的概率为预设的离开概率参数;
将所述第二节点序列输入到预设的词向量训练模型中以得到该节点的节点向量。
5.根据权利要求2所述的基于人工智能的订单分级方法,其特征在于,所述将所述待测订单数据添加到所述知识图谱中,包括:
将所述待测订单数据作为节点添加到所述节点集合中;
分别计算所述待测订单数据与其它节点之间的余弦相似度;
判断所述待测订单数据与其它节点之间的余弦相似度是否大于预设的余弦相似度阈值;
若所述待测订单数据与其它节点之间的余弦相似度大于预设的余弦相似度阈值,则在待测订单数据与该节点之间建立边。
6.根据权利要求1所述的基于人工智能的订单分级方法,其特征在于,所述获取所述待测订单数据的节点向量,包括:
从所述待测订单数据出发,根据所述待测订单数据与其它节点之间的边进行随机游走,得到预设长度的第三节点序列;
将所述第三节点序列输入到预设的词向量训练模型中以得到所述待测订单数据的节点向量。
7.根据权利要求1所述的基于人工智能的订单分级方法,其特征在于,所述获取所述待测订单数据的节点向量,包括:
从所述待测订单数据出发,根据所述待测订单数据与其它节点之间的边进行游走,得到预设长度的第四节点序列,其中,在游走过程中,返回到原来节点的概率为预设的返回概率参数,不返回到原来节点的概率为预设的离开概率参数;
将所述第四节点序列输入到预设的词向量训练模型中以得到所述待测订单数据的节点向量。
8.一种基于人工智能的订单分级装置,其特征在于,包括:
第一获取单元,用于获取历史订单数据集,所述历史订单数据集包括多个标注了标签的订单数据;
第一清洗单元,用于对所述历史订单数据集进行数据清洗处理以得到样本数据集,所述样本数据集包括多个样本数据,所述样本数据由订单数据经过数据清洗处理后得到;
构建单元,用于根据所述样本数据集构建知识图谱,所述知识图谱的节点为所述样本数据集中的样本数据;
第二获取单元,用于获取所述知识图谱的各节点的节点向量,并将各节点的节点向量添加到预设的训练样本集中;
训练单元,用于通过所述训练样本集对预设的文本分类模型进行训练;
第二清洗单元,用于若接收到业务服务器发送的初始订单数据,对所述初始订单数据进行数据清洗处理以得到待测订单数据;
第一添加单元,用于将所述待测订单数据添加到所述知识图谱中;
第三获取单元,用于获取所述待测订单数据的节点向量;
输入单元,用于将所述待测订单数据的节点向量输入到训练后的文本分类模型中,以由所述文本分类模型输出所述待测订单数据的标签;
第二添加单元,用于将所述待测订单数据添加到所述待测订单数据的标签对应的数据队列中。
9.一种计算机设备,其特征在于,所述计算机设备包括存储器及处理器,所述存储器上存储有计算机程序,所述处理器执行所述计算机程序时实现如权利要求1-7中任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序当被处理器执行时可实现如权利要求1-7中任一项所述的方法。
CN202110219481.5A 2021-02-26 2021-02-26 基于人工智能的订单分级方法、装置、设备及存储介质 Pending CN112948592A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110219481.5A CN112948592A (zh) 2021-02-26 2021-02-26 基于人工智能的订单分级方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110219481.5A CN112948592A (zh) 2021-02-26 2021-02-26 基于人工智能的订单分级方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN112948592A true CN112948592A (zh) 2021-06-11

Family

ID=76246623

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110219481.5A Pending CN112948592A (zh) 2021-02-26 2021-02-26 基于人工智能的订单分级方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN112948592A (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200050632A1 (en) * 2018-08-08 2020-02-13 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and apparatus for generating knowledge graph, device and computer readable storage medium
CN110795569A (zh) * 2019-10-08 2020-02-14 北京百度网讯科技有限公司 知识图谱的向量表示生成方法、装置及设备
CN110807103A (zh) * 2019-10-18 2020-02-18 中国银联股份有限公司 知识图谱构建方法、装置、电子设备及存储介质
US20200286019A1 (en) * 2017-12-14 2020-09-10 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for optimizing order allocation
CN111833119A (zh) * 2019-04-15 2020-10-27 北京嘀嘀无限科技发展有限公司 一种订单分配的方法、装置、电子设备及存储介质
CN112182230A (zh) * 2020-11-27 2021-01-05 北京健康有益科技有限公司 一种基于深度学习的文本数据分类方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200286019A1 (en) * 2017-12-14 2020-09-10 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for optimizing order allocation
US20200050632A1 (en) * 2018-08-08 2020-02-13 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and apparatus for generating knowledge graph, device and computer readable storage medium
CN111833119A (zh) * 2019-04-15 2020-10-27 北京嘀嘀无限科技发展有限公司 一种订单分配的方法、装置、电子设备及存储介质
CN110795569A (zh) * 2019-10-08 2020-02-14 北京百度网讯科技有限公司 知识图谱的向量表示生成方法、装置及设备
CN110807103A (zh) * 2019-10-18 2020-02-18 中国银联股份有限公司 知识图谱构建方法、装置、电子设备及存储介质
CN112182230A (zh) * 2020-11-27 2021-01-05 北京健康有益科技有限公司 一种基于深度学习的文本数据分类方法和装置

Similar Documents

Publication Publication Date Title
US11868733B2 (en) Creating a knowledge graph based on text-based knowledge corpora
US9817893B2 (en) Tracking changes in user-generated textual content on social media computing platforms
CN104714931A (zh) 用于选择用以代表表格式信息的方法和系统
CN109858528B (zh) 推荐系统训练方法、装置、计算机设备及存储介质
CN110009430B (zh) 作弊用户检测方法、电子设备及计算机可读存储介质
US11853908B2 (en) Data-analysis-based, noisy labeled and unlabeled datapoint detection and rectification for machine-learning
CN112685396A (zh) 财务数据违规检测方法、装置、计算机设备及存储介质
US20130179449A1 (en) Detecting overlapping clusters
EP3839764A1 (en) Method and system for detecting duplicate document using vector quantization
US11556871B2 (en) Systems and methods for escalation policy activation
CN110377733A (zh) 一种基于文本的情绪识别方法、终端设备及介质
CN114943279A (zh) 招投标合作关系的预测方法、设备及系统
CN109344255B (zh) 标签的填充方法及终端设备
CN116628346B (zh) 搜索词推荐模型的训练方法及装置
US20220051126A1 (en) Classification of erroneous cell data
CN112163098A (zh) 一种知识图谱的创建方法、装置、存储介质和服务器
CN113987186B (zh) 一种基于知识图谱生成营销方案的方法和装置
US9336249B2 (en) Decision tree with just-in-time nodal computations
CN112948592A (zh) 基于人工智能的订单分级方法、装置、设备及存储介质
CN113792132B (zh) 一种目标答案确定方法、装置、设备及介质
CN115114073A (zh) 告警信息的处理方法及装置、存储介质、电子设备
CN112508654A (zh) 产品信息推荐方法、装置、计算机设备及存储介质
CN111967253A (zh) 一种实体消歧方法、装置、计算机设备及存储介质
US20230186190A1 (en) Ticket embedding based on multi-dimensional it data
CN112445910B (zh) 一种信息分类方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210611