CN111767359B - 兴趣点分类方法、装置、设备以及存储介质 - Google Patents
兴趣点分类方法、装置、设备以及存储介质 Download PDFInfo
- Publication number
- CN111767359B CN111767359B CN202010614367.8A CN202010614367A CN111767359B CN 111767359 B CN111767359 B CN 111767359B CN 202010614367 A CN202010614367 A CN 202010614367A CN 111767359 B CN111767359 B CN 111767359B
- Authority
- CN
- China
- Prior art keywords
- interest
- classification
- interest point
- point
- name
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 72
- 238000012549 training Methods 0.000 claims abstract description 83
- 238000013145 classification model Methods 0.000 claims abstract description 66
- 230000007246 mechanism Effects 0.000 claims abstract description 59
- 238000013528 artificial neural network Methods 0.000 claims abstract description 35
- 239000013598 vector Substances 0.000 claims description 56
- 230000015654 memory Effects 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 15
- 230000004044 response Effects 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 abstract description 15
- 238000003058 natural language processing Methods 0.000 abstract description 3
- 230000011218 segmentation Effects 0.000 description 13
- 230000008569 process Effects 0.000 description 11
- 238000004590 computer program Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 238000003062 neural network model Methods 0.000 description 8
- 239000012634 fragment Substances 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000013179 statistical model Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9537—Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Remote Sensing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了兴趣点分类方法、装置、设备以及存储介质,涉及自然语言处理领域。具体实现方案为:确定兴趣点的名称,采用预先训练得到的第一兴趣点分类模型,根据兴趣点的名称得到兴趣点的分类信息,分类信息包括至少一个分类标签和每个分类标签对应的概率,第一兴趣点分类模型根据基于注意力机制的深度神经网络训练得到,根据兴趣点的分类信息确定兴趣点的分类标签。从而,可提高兴趣点的分类标签的计算准确率。
Description
技术领域
本申请实施例涉及人工智能技术领域中的自然语言处理技术,尤其涉及一种兴趣点分类方法、装置、设备以及存储介质。
背景技术
地图是现实世界的缩影,与人们的日常生活息息相关。电子地图是利用计算机技术,以数字方式存储和查阅的地图。其中,电子地图中所展示的图形基本是由点线面组成,兴趣点(point of interest,POI)是点数据的重要组成部分,理论上任何可以命名的建筑、区域以及特定意义点都可以作为兴趣点数据进行展示,例如一个酒店、一个火车站、一个小区、一个商铺、一个公交站等。
每个兴趣点包含名称、类别、坐标和分类标签等信息,全面的兴趣点信息是丰富电子地图的必备资讯。其中,兴趣点的分类标签代表兴趣点的所属行业,行业例如为购物、美食和酒店等,该分类标签会应用于用户的泛检索场景,以及用于地图信息的展示策略等。计算一个兴趣点的分类标签,主要依赖的是兴趣点的名称,兴趣点的名称包括中文名称和/或外文名称。
发明内容
本申请提供了一种兴趣点分类方法、装置、设备以及存储介质。
根据本申请的一方面,提供了一种兴趣点分类方法,包括:确定兴趣点的名称;
采用预先训练得到的第一兴趣点分类模型,根据所述兴趣点的名称得到所述兴趣点的分类信息,所述分类信息包括至少一个分类标签和每个分类标签对应的概率,所述第一兴趣点分类模型根据基于注意力机制的深度神经网络训练得到;
根据所述兴趣点的分类信息确定所述兴趣点的分类标签。
根据本申请的另一方面,提供了一种兴趣点分类装置,包括:
第一确定模块,用于确定兴趣点的名称;
处理模块,用于采用预先训练得到的第一兴趣点分类模型,根据所述兴趣点的名称得到所述兴趣点的分类信息,所述分类信息包括至少一个分类标签和每个分类标签对应的概率,所述第一兴趣点分类模型根据基于注意力机制的深度神经网络训练得到;
第二确定模块,用于根据所述兴趣点的分类信息确定所述兴趣点的分类标签。
根据本申请的另一方面,提供了一种计算机程序产品,所述程序产品包括:计算机程序,所述计算机程序存储在可读存储介质中,电子设备的至少一个处理器可以从所述可读存储介质读取所述计算机程序,所述至少一个处理器执行所述计算机程序使得电子设备执行第一方面所述的方法。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1为本申请的一种应用场景示意图;
图2为本申请提供的兴趣点分类方法实施例一的流程图;
图3为本申请提供的兴趣点分类方法实施例二的流程图;
图4为基于注意力机制的深度神经网络的结构示意图;
图5为本申请提供的兴趣点分类方法中注意力机制深度神经网络模型训练过程示意图;
图6为本申请提供的兴趣点分类方法实施例三的流程图;
图7为本申请提供的兴趣点分类方法实施例四的流程图;
图8为为本申请提供的一种兴趣点的分类装置的结构示意图;
图9为本申请提供的一种兴趣点的分类装置的结构示意图;
图10为可实现本申请实施例的兴趣点的分类方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本申请实施例中,“示例性的”或者“例如”等词用于表示作例子、例证或说明,本申请实施例中被描述为“示例性的”或者“例如”的任何实施例或方案不应被解释为比其它实施例或方案更优选或更具优势。确切而言,使用“示例性的”或者“例如”等词旨在以具体方式呈现相关概念。
相关技术中,兴趣点的名称为中文名称时,计算兴趣点的分类标签的过程为:对兴趣点的名称进行切词处理,得到切分出的多个词语片段,对切分出的名称片段采用朴素贝叶斯统计模型,可以计算得到该兴趣点属于每个分类标签的概率,将其中概率最大的分类标签作为兴趣点的最终分类标签。但是,切词处理时如果切分错误,则会导致分类标签计算错误,如:“五彩城购物中心”正确的切分得到的词语片段应为:五彩城|购物中心,若切分为五彩|城购|物中心,通过这些词语片段不易得到正确的分类标签,因此准确性不高。另一方面,朴素贝叶斯统计模型的训练样本使用的是兴趣点名称切分出的词语片段的字符串文本,没有使用到词语的语义信息,例如:“服装”与“服饰”为近义词,但是在朴素贝叶斯统计模型中,这两个词没有任何关系,因此分类标签的覆盖率不高。为解决这一问题,本申请提供一种兴趣点分类方法、装置、设备以及存储介质,通过采用预先训练的注意力机制深度神经网络模型得到兴趣点的分类信息,分类信息包括至少一个分类标签和每个分类标签对应的概率,从兴趣点的分类信息中可以确定出兴趣点的分类标签,由于本申请中注意力机制深度神经网络模型可以利用注意力机制学习到兴趣点的名称中的语义信息,因此不需要对兴趣点的名称进行切分,因为切分错误会导致分类标签计算错误,因此解决了切分有可能发生分类标签计算错误的问题,另外,由于本申请中的注意力机制深度神经网络模型可以利用注意力机制学习到兴趣点名称中的语义信息,因此可以解决近义词的分类问题,因此分类标签的覆盖率提高。从而,可以提高兴趣点的分类标签的计算准确率。下面结合附图通过具体实施例,对本申请实施例的兴趣点分类方法的具体实现过程进行详细说明。
首先,下面对本申请实施例中的部分用语进行解释说明,以便于本领域技术人员理解。
1、兴趣点,是点数据的重要组成部分,理论上任何可以命名的建筑、区域以及特定意义点都可以作为兴趣点数据进行展示,例如一个酒店、一个火车站、一个小区、一个商铺、一个公交站等。
2、分类标签,代表兴趣点的所属行业,行业例如为购物、美食和酒店等,该分类标签会应用于用户的泛检索场景,以及用于地图信息的展示策略等。
3、基于注意力机制的深度神经网络,包括位置编码层、注意力机制语义表示层和全连接分类层,位置编码层用于对兴趣点的名称进行预处理,预处理为一个词向量,词向量例如为(10,50,40,……100,97),例如词向量一共包括50个数,然后对词向量进行位置编码,得到词向量的每一个数字的先后顺序,即得到词向量的每一个数字如“10,、50、40……100,97”的先后顺序。注意力机制语义表示层用于将位置编码后的词向量转换为语义向量。全连接分类层用于将语义向量通过全连接分类层映射到样本兴趣点的分类标签。
本申请提供一种兴趣点分类方法、装置、设备以及存储介质,应用于人工智能技术领域中的自然语言处理技术,以实现如何获取兴趣点的分类标签。
图1为本申请的一种应用场景示意图,如图1所示,在电子地图中新增一个兴趣点或者原有的兴趣点发生了名称字段的变更时,需要获取兴趣点的分类标签。本申请提供的兴趣点分类装置用于确定兴趣点的名称的类别,兴趣点的名称有三种类别,兴趣点的名称可以为中文名称,可以为外文名称,例如为英文名称,还可以为包括中文名称和外文名称,兴趣点分类装置根据兴趣点的名称执行本申请提供的兴趣点分类方法,得到兴趣点的分类标签,并输出兴趣点的分类标签。下面结合附图详细说明兴趣点的分类标签的获取过程。
图2为本申请提供的兴趣点分类方法实施例一的流程图,本实施例中的执行主体可以为图1所示的兴趣点分类装置,该兴趣点分类装置可以为硬件装置或软件模块,如图2所示,本实施例的方法可以包括:
S101、确定兴趣点的名称。
具体地,对于一个兴趣点而言,兴趣点可以包括名称、地址、电话、商户描述以及实地照片等信息,由于兴趣点的名称可以是中文名称,可以是外文名称,还可以包括中文名称和外文名称,确定兴趣点的名称即就是确定兴趣点的名称的类别,若确定兴趣点的名称是中文名称或外文名称,则接着执行S102。
S102、采用预先训练得到的第一兴趣点分类模型,根据兴趣点的名称得到兴趣点的分类信息,分类信息包括至少一个分类标签和每个分类标签对应的概率,第一兴趣点分类模型根据基于注意力机制的深度神经网络训练得到。
其中,第一兴趣点分类模型根据基于注意力机制的深度神经网络训练得到,训练样本为中文训练样本或外文训练样本,训练样本包括本兴趣点的名称和样本兴趣点的分类标签,可以理解的是,若兴趣点的名称是中文名称,样本兴趣点的分类标签也为中文,则训练得到的第一兴趣点分类模型为中文兴趣点分类模型;若兴趣点的名称是外文名称,样本兴趣点的分类标签也为外文,则训练得到的第一兴趣点分类模型为外文兴趣点分类模型。
本申请实施例中的第一兴趣点分类模型即为注意力机制深度神经网络模型,基于注意力机制的深度神经网络包括位置编码层、注意力机制语义表示层和全连接分类层,位置编码层用于对兴趣点的名称进行预处理,预处理为一个词向量,词向量例如为(10,50,40,……100,97),例如词向量一共包括50个数,然后对词向量进行位置编码,得到词向量的每一个数字的先后顺序,即得到词向量的每一个数字如“10,、50、40……100,97”的先后顺序。注意力机制语义表示层用于将位置编码后的词向量转换为语义向量。全连接分类层用于将语义向量通过全连接分类层映射到样本兴趣点的分类标签,其中,映射到样本兴趣点的分类标签得到的是映射到每个分类标签的概率,例如分类标签包括购物、美食和酒店,得到的是兴趣点属于购物的概率、兴趣点属于美食的概率以及兴趣点属于酒店的概率。
本实施例中,根据基于注意力机制的深度神经网络的结构可以看出,其中的语义向量即为兴趣点的名称对应的语义信息,由于注意力机制深度神经网络模型可以利用注意力机制学习到兴趣点的名称中的语义信息,因此不需要对兴趣点的名称进行切分,因为切分错误会导致分类标签计算错误,因此解决了切分有可能发生分类标签计算错误的问题,另外,由于本申请中的注意力机制深度神经网络模型可以利用注意力机制学习到兴趣点名称中的语义信息,因此可以解决近义词的分类问题,因此分类标签的覆盖率提高。从而,可以提高兴趣点的分类标签的计算准确率。
S103、根据兴趣点的分类信息确定兴趣点的分类标签。
具体地,兴趣点的分类信息可以包括至少一个分类标签和每个分类标签对应的概率,在得到兴趣点的分类信息后,可以根据兴趣点的分类信息确定兴趣点的分类标签,可以理解的是,例如可以将分类信息中概率最大的分类标签确定为兴趣点的分类标签,概率越大,成为分类标签的可能性越大。
本实施例提供的兴趣点分类方法,通过在确定出兴趣点的名称后,采用预先训练得到的第一兴趣点分类模型,根据兴趣点的名称得到兴趣点的分类信息,分类信息包括至少一个分类标签和每个分类标签对应的概率,从兴趣点的分类信息中可以确定出兴趣点的分类标签,由于本申请中注意力机制深度神经网络模型可以利用注意力机制学习到兴趣点的名称中的语义信息,因此不需要对兴趣点的名称进行切分,因为切分错误会导致分类标签计算错误,因此解决了切分有可能发生分类标签计算错误的问题,另外,由于本申请中的注意力机制深度神经网络模型可以利用注意力机制学习到兴趣点名称中的语义信息,因此可以解决近义词的分类问题,因此分类标签的覆盖率提高。从而,可以提高兴趣点的分类标签的计算准确率。
图3为本申请提供的兴趣点分类方法实施例二的流程图,本实施例中的执行主体可以为图1所示的兴趣点分类装置,该兴趣点分类装置可以为硬件装置或软件模块,如图3所示,本实施例的方法在图2所示方法的基础上,进一步地,还可以包括:
S201、根据训练样本和基于注意力机制的深度神经网络训练第一兴趣点分类模型,训练样本包括样本兴趣点的名称和样本兴趣点的分类标签。
具体地,训练样本可以包括样本兴趣点的名称和样本兴趣点的分类标签,在根据训练样本和基于注意力机制的深度神经网络训练第一兴趣点分类模型时,可以是对于每一个训练样本,将样本兴趣点的名称作为输入,将样本兴趣点的分类标签作为输出,通过基于注意力机制的深度神经网络训练得到的模型即为第一兴趣点分类模型。
需要说明的是,训练样本可以为中文训练样本或外文训练样本,训练样本包括本兴趣点的名称和样本兴趣点的分类标签,可以理解的是,若兴趣点的名称是中文名称,样本兴趣点的分类标签也为中文,则训练得到的第一兴趣点分类模型为第一中文兴趣点分类模型;若兴趣点的名称是外文名称,样本兴趣点的分类标签也为外文,则训练得到的第一兴趣点分类模型为第一外文兴趣点分类模型。
通过根据训练样本和基于注意力机制的深度神经网络训练第一兴趣点分类模型,可以利用注意力机制学习到兴趣点的名称中的语义信息,因此不需要对兴趣点的名称进行切分,因为切分错误会导致分类标签计算错误,因此解决了切分有可能发生分类标签计算错误的问题,另外,还可以解决近义词的分类问题。
S202、确定兴趣点的名称。
具体地,由于兴趣点的名称可以是中文名称,可以是外文名称,还可以包括中文名称和外文名称,若确定兴趣点的名称是中文名称,则可以接着执行S203;若确定兴趣点的名称是外文名称,则接着执行S204。
S203、采用第一中文兴趣点分类模型,根据兴趣点的名称得到兴趣点的分类信息,分类信息包括至少一个分类标签和每个分类标签对应的概率。
具体地,可以是将兴趣点的名称作为第一中文兴趣点分类模型的输入,得到兴趣点的分类信息。以兴趣点的名称作为模型的输入,输出即为兴趣点的分类信息,从而,根据预先训练的模型可以快速得到兴趣点的分类标签。
S204、采用第一外文兴趣点分类模型,根据兴趣点的名称得到兴趣点的分类信息,分类信息包括至少一个分类标签和每个分类标签对应的概率。
具体地,可以是将兴趣点的名称作为第一外文兴趣点分类模型的输入,得到兴趣点的分类信息。以兴趣点的名称作为模型的输入,输出即为兴趣点的分类信息,从而,根据预先训练的模型可以快速得到兴趣点的分类标签。
S205、根据兴趣点的分类信息确定兴趣点的分类标签。
具体地,可以是将分类信息中概率最大的分类标签确定为兴趣点的分类标签,概率越大,成为分类标签的可能性越大,分类标签的计算也较为准确。
相关技术中,若兴趣点的名称为英文名称,计算兴趣点的分类标签的过程为:从预设的规则配置表中查找到与兴趣点的名称对应的规则,具体是使用查看兴趣点的英文名称中的单词或词组是否命中了规则配置表中的某条规则,若查找到与兴趣点的名称对应的规则,则从预设的规则配置表确定与该规则对应的分类标签及对应的概率。可见,相关技术中,完全依赖于规则配置表,且是用不确定的兴趣点的名称中的单词或词组去匹配,而预存的规则配置表无法覆盖全部的单词或词组,所以规则配置表无法覆盖到的兴趣点名称,就无法计算出英文名称对应的分类标签,本申请中通过采用预先训练的注意力机制深度神经网络模型,训练样本中的单词或词组与样本分类标签对应,只要训练样本在预设的范围内足够多,就可以提高英文名称的覆盖率。
下面结合图4和图5详细说明注意力机制深度神经网络模型的训练过程,图4为基于注意力机制的深度神经网络的结构示意图,如图4所示,基于注意力机制的深度神经网络包括位置编码层、注意力机制语义表示层和全连接分类层,位置编码层包括文字嵌入单元和位置编码单元,注意力机制语义表示层也称为中间层,注意力机制语义表示层为一个循环4次的块(block),每个块包括4个子网络(sublayers),每个子网络都跟了一个残差连接和归一化(Add&Norm)网络。4个子网络分别为门控时间卷积网络(Gate Linear Unit,GLU)、分离卷积网络(Separable Convolution)、多头自注意力网络(Multihead Attention)和前馈神经网络(Feed Forward)。
其中,残差连接(Residual Connection),是为了解决多层神经网络训练困难的问题,通过将前一层的信息无差的传递到下一层,可以有效的仅关注差异部分;归一化(LayerNormalization),通过归一化加速模型的训练过程,使其更快的收敛。门控时间卷积网络,用门控时间卷积代替递归网络中常用的递归连接来减轻梯度传播。分离卷积网络,即分离卷积用于缩减网络参数,加速收敛。多头自注意力网络,为多个自注意力(Self-Attention)结构的结合,每个head学习到在不同表示空间中的特征,彼此侧重点可能略有不同,这样给了模型更大的容量,可以学习到更多知识。前馈神经网络,即简单的前馈神经网络,这里用前馈神经网络是为了加速模型收敛。全连接分类层包括全连接层和softmax函数。
在一个实施例中,位置编码层用于对兴趣点的名称进行预处理,预处理为一个词向量,然后对词向量进行位置编码,得到词向量的每一个数字的先后顺序。注意力机制语义表示层用于将位置编码后的词向量转换为语义向量。全连接分类层用于将语义向量通过全连接分类层映射到样本兴趣点的分类标签,其中,映射到样本兴趣点的分类标签得到的是映射到每个分类标签的概率,例如分类标签包括购物、美食和酒店,得到的是兴趣点属于购物的概率、兴趣点属于美食的概率以及兴趣点属于酒店的概率。
图5为本申请提供的兴趣点分类方法中注意力机制深度神经网络模型训练过程示意图,如图5所示,本实施的方法可以包括:
S301、对每一个训练样本,将样本兴趣点的名称预处理为一个词向量。
具体来说,训练样本的数量级可以为万、千万等级别。
S302、对词向量进行位置编码,得到词向量的每一个数字的先后顺序。
S303、将位置编码后的词向量通过注意力机制语义表示层转换为语义向量,基于注意力机制的深度神经网络包括注意力机制语义表示层和全连接分类层。
S304、将语义向量通过全连接分类层映射到样本兴趣点的分类标签。
本实施例中,通过对于每一个训练样本,先将样本兴趣点的名称预处理为一个词向量,接着对词向量进行位置编码,得到词向量的每一个数字的先后顺序,然后将位置编码后的词向量通过注意力机制语义表示层转换为语义向量,最后将语义向量通过全连接分类层映射到样本兴趣点的分类标签,在所有的训练样本训练完成后,得到注意力机制深度神经网络模型,在模型训练的过程中,语义向量即为兴趣点的名称中的语义信息,从而可以利用注意力机制学习到兴趣点的名称中的语义信息,因此不需要对兴趣点的名称进行切分,因为切分错误会导致分类标签计算错误,因此解决了切分有可能发生分类标签计算错误的问题,另外,还可以解决近义词的分类问题。
图6为本申请提供的兴趣点分类方法实施例三的流程图,本实施例中的执行主体可以为图1所示的兴趣点分类装置,该兴趣点分类装置可以为硬件装置或软件模块,本实施例以兴趣点名称为外文名称为例进行说明,如图6所示,本实施例的方法可以包括:
S401、确定兴趣点的名称。
若确定兴趣点的名称为外文名称,例如为英文名称,则接着执行S402。
S402、判断从预设的规则配置表中是否查找到与兴趣点的名称对应的规则。
在一个实施例中,预设的规则配置表存储与英文名称对应的规则、分类标签和概率,先判断从预设的规则配置表中是否查找到与兴趣点的名称对应的规则,若未找到,则执行S403。若查找到与兴趣点的名称对应的第一规则,根据预设的规则配置表查找与第一规则对应的分类标签和概率,将查找到的与第一规则对应的分类标签和概率确定为兴趣点的外文名称对应的分类信息。
S403、响应于从预设的规则配置表中未查找到与兴趣点的名称对应的规则,采用第一兴趣点分类模型,根据兴趣点的名称确定兴趣点的分类信息。
需要说明的是,本实施例中的第一兴趣点分类模型可以为注意力机制深度神经网络外文模型。
S404、将分类信息中概率最大的分类标签确定为兴趣点的分类标签。
本实施例中,通过在确定出兴趣点的名称为外文名称时,先从预设的规则配置表中查找是否存在与兴趣点的名称对应的规则,若不存在,则采用第一兴趣点分类模型,根据兴趣点的名称确定兴趣点的分类信息,最后将分类信息中概率最大的分类标签确定为兴趣点的分类标签。从而,对于规则配置表所覆盖不到的英文名称,采用注意力机制深度神经网络外文模型得到兴趣点的分类标签,解决了规则配置表无法覆盖到的兴趣点名称,可以计算出其对应的分类标签,提高了兴趣点分类标签的覆盖率。
图7为本申请提供的兴趣点分类方法实施例四的流程图,本实施例中的执行主体可以为图1所示的兴趣点分类装置,该兴趣点分类装置可以为硬件装置或软件模块,本实施例以兴趣点名称包括中文名称和外文名称为例进行说明,如图7所示,本实施例的方法可以包括:
S501、确定兴趣点的名称。
若确定兴趣点的名称包括中文名称和外文名称,外文名称例如为英文名称,则接着执行S502。
S502、采用预先训练得到的第一兴趣点分类模型,根据兴趣点的中文名称得到兴趣点的中文名称对应的分类信息。
其中,第一兴趣点分类模型可以为注意力机制深度神经网络中文模型。
S503、从预设的规则配置表中查找是否存在与兴趣点的名称对应的规则。
S504、响应于查找到与兴趣点的名称对应的第一规则,根据预设的规则配置表查找与第一规则对应的分类标签和概率,将查找到的与第一规则对应的分类标签和概率确定为兴趣点的外文名称对应的分类信息。
S505、响应于未查找到与兴趣点的名称对应的第一规则,采用预先训练得到的第二兴趣点分类模型,根据兴趣点的外文名称得到兴趣点的外文名称对应的分类信息。
其中,第二兴趣点分类模型可以为注意力机制深度神经网络外文模型。
S506、根据兴趣点的分类信息确定兴趣点的分类标签,兴趣点的分类信息包括兴趣点的中文名称对应的分类信息和兴趣点的外文名称对应的分类信息。
作为一种可实施的方式,S506可以为:
S5061、将兴趣点的中文名称对应的分类信息中概率最大的分类标签确定为兴趣点的中文名称对应的分类标签。
S5062、将兴趣点的外文名称对应的分类信息中概率最大的分类标签确定为兴趣点的外文名称对应的分类标签;
S5063、将兴趣点的中文名称对应的分类标签和兴趣点的外文名称对应的分类标签中概率最大的分类标签确定为兴趣点的分类标签。
作为另一种可实施的方式,S506可以为:
将兴趣点的中文名称对应的分类信息和兴趣点的外文名称对应的分类信息中概率最大的分类标签确定为兴趣点的分类标签。
上述方式中,通过将兴趣点的中文名称对应的分类信息和兴趣点的外文名称对应的分类信息中概率最大的分类标签确定为兴趣点的分类标签,概率越大,成为分类标签的可能性越大,分类标签的计算也较为准确。
本实施例中,确定兴趣点的名称包括中文名称和外文名称时,对于兴趣点的中文名称,采用预先训练得到的第一兴趣点分类模型,根据兴趣点的中文名称得到兴趣点的中文名称对应的分类信息,对于兴趣点的外文名称,先从预设的规则配置表中查找是否存在与兴趣点的名称对应的规则,若存在,根据预设的规则配置表查找与第一规则对应的分类标签和概率,将查找到的与第一规则对应的分类标签和概率确定为兴趣点的外文名称对应的分类信息,若不存在,采用预先训练得到的第二兴趣点分类模型,根据兴趣点的外文名称得到兴趣点的外文名称对应的分类信息,最后根据兴趣点的中文名称对应的分类信息和兴趣点的外文名称对应的分类信息确定兴趣点的分类标签。从而,对于中文名称,解决了切分有可能发生分类标签计算错误的问题,以及近义词的分类问题。对于外文名称,提高了分类标签的覆盖率。
图8为为本申请提供的一种兴趣点的分类装置的结构示意图,如图8所示,本实施例的兴趣点的分类装置100可以包括:第一确定模块11、处理模块12和第二确定模块13,其中,
第一确定模块11用于确定兴趣点的名称;
处理模块12用于采用预先训练得到的第一兴趣点分类模型,根据兴趣点的名称得到兴趣点的分类信息,分类信息包括至少一个分类标签和每个分类标签对应的概率,第一兴趣点分类模型根据基于注意力机制的深度神经网络训练得到;
第二确定模块13用于根据兴趣点的分类信息确定兴趣点的分类标签。
进一步地,处理模块12用于:
将兴趣点的名称作为第一兴趣点分类模型的输入,得到兴趣点的分类信息。
本实施例的装置,可以用于执行上述方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
图9为本申请提供的一种兴趣点的分类装置的结构示意图,如图9所示,本实施例的兴趣点的分类装置200在图8所示装置的基础上,进一步地,还可以包括:模型训练模块14,该模型训练模块14用于根据训练样本和基于注意力机制的深度神经网络训练第一兴趣点分类模型,训练样本包括样本兴趣点的名称和样本兴趣点的分类标签。
进一步地,模型训练模块14用于:
对每一个训练样本,将样本兴趣点的名称预处理为一个词向量;
对词向量进行位置编码,得到词向量的每一个数字的先后顺序;
将位置编码后的词向量通过注意力机制语义表示层转换为语义向量,基于注意力机制的深度神经网络包括注意力机制语义表示层和全连接分类层;
将语义向量通过全连接分类层映射到样本兴趣点的分类标签。
进一步地,兴趣点的名称为外文名称,处理模块12用于:
判断从预设的规则配置表中是否查找到与兴趣点的名称对应的规则;
响应于从预设的规则配置表中未查找到与兴趣点的名称对应的规则,采用第一兴趣点分类模型,根据兴趣点的名称确定兴趣点的分类信息。
进一步地,第二确定模块13用于:
将分类信息中概率最大的分类标签确定为兴趣点的分类标签。
进一步地,兴趣点的名称包括中文名称和外文名称,兴趣点的分类信息包括兴趣点的中文名称对应的分类信息和兴趣点的外文名称对应的分类信息,处理模块12用于:
采用预先训练得到的第一兴趣点分类模型,根据兴趣点的中文名称得到兴趣点的中文名称对应的分类信息;
处理模块12还用于:
从预设的规则配置表中查找是否存在与兴趣点的名称对应的规则;
响应于查找到与兴趣点的名称对应的第一规则,根据预设的规则配置表查找与第一规则对应的分类标签和概率,将查找到的与第一规则对应的分类标签和概率确定为兴趣点的外文名称对应的分类信息;
响应于未查找到与兴趣点的名称对应的第一规则,采用预先训练得到的第二兴趣点分类模型,根据兴趣点的外文名称得到兴趣点的外文名称对应的分类信息。
进一步地,第二确定模块13用于:将兴趣点的中文名称对应的分类信息中概率最大的分类标签确定为兴趣点的中文名称对应的分类标签,将兴趣点的外文名称对应的分类信息中概率最大的分类标签确定为兴趣点的外文名称对应的分类标签,将兴趣点的中文名称对应的分类标签和兴趣点的外文名称对应的分类标签中概率最大的分类标签确定为兴趣点的分类标签。或者,将兴趣点的中文名称对应的分类信息和兴趣点的外文名称对应的分类信息中概率最大的分类标签确定为兴趣点的分类标签。
本实施例的装置,可以用于执行上述方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
根据本申请的实施例,本申请还提供了一种计算机程序产品,程序产品包括:计算机程序,计算机程序存储在可读存储介质中,电子设备的至少一个处理器可以从可读存储介质读取计算机程序,至少一个处理器执行计算机程序使得电子设备执行上述任一实施例提供的方案。
如图10所示,图10为可实现本申请实施例的兴趣点的分类方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图10所示,该电子设备包括:一个或多个处理器1001、存储器1002,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图10中以一个处理器1001为例。
存储器1002即为本申请所提供的非瞬时计算机可读存储介质。其中,存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的兴趣点的分类方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的兴趣点的分类方法。
存储器1002作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的兴趣点的分类方法对应的程序指令/模块(例如,附图8所示的第一确定模块11、处理模块12和第二确定模块13)。处理器1001通过运行存储在存储器1002中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的兴趣点的分类方法。
存储器1002可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据执行兴趣点的分类方法的电子设备的使用所创建的数据等。此外,存储器1002可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器1002可选包括相对于处理器1001远程设置的存储器,这些远程存储器可以通过网络连接至执行兴趣点的分类方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
兴趣点的分类方法的电子设备还可以包括:输入装置1003和输出装置1004。处理器1001、存储器1002、输入装置1003和输出装置1004可以通过总线或者其他方式连接,图10中以通过总线连接为例。
输入装置1003可接收输入的数字或字符信息,以及产生与执行兴趣点的分类方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置1004可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,可以提高兴趣点的分类标签的计算准确率和覆盖率。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (19)
1.一种兴趣点分类方法,包括:
确定兴趣点的名称;
采用预先训练得到的第一兴趣点分类模型,根据所述兴趣点的名称得到所述兴趣点的分类信息,所述分类信息包括至少一个分类标签和每个分类标签对应的概率,所述第一兴趣点分类模型根据基于注意力机制的深度神经网络训练得到;
根据所述兴趣点的分类信息确定所述兴趣点的分类标签;
所述兴趣点的名称包括中文名称和外文名称,所述采用预先训练得到的第一兴趣点分类模型,根据所述兴趣点的名称得到所述兴趣点的分类信息,包括:
从预设的规则配置表中查找是否存在与所述兴趣点的外文名称对应的规则;
响应于查找到与所述兴趣点的外文名称对应的第一规则,根据所述预设的规则配置表查找与所述第一规则对应的分类标签和概率,将查找到的与所述第一规则对应的分类标签和概率确定为所述兴趣点的外文名称对应的分类信息;
响应于未查找到与所述兴趣点的外文名称对应的第一规则,采用预先训练得到的第二兴趣点分类模型,根据所述兴趣点的外文名称得到所述兴趣点的外文名称对应的分类信息。
2.根据权利要求1所述的方法,其中,所述采用预先训练得到的第一兴趣点分类模型,根据所述兴趣点的名称得到所述兴趣点的分类信息,包括:
将所述兴趣点的名称作为所述第一兴趣点分类模型的输入,得到所述兴趣点的分类信息。
3.根据权利要求1或2所述的方法,所述方法还包括:
根据训练样本和所述基于注意力机制的深度神经网络训练所述第一兴趣点分类模型,所述训练样本包括样本兴趣点的名称和所述样本兴趣点的分类标签。
4.根据权利要求3所述的方法,其中,所述根据训练样本和所述基于注意力机制的深度神经网络训练所述第一兴趣点分类模型,包括:
对每一个训练样本,将所述样本兴趣点的名称预处理为一个词向量;
对所述词向量进行位置编码,得到所述词向量的每一个数字的先后顺序;
将位置编码后的词向量通过注意力机制语义表示层转换为语义向量,所述基于注意力机制的深度神经网络包括所述注意力机制语义表示层和全连接分类层;
将所述语义向量通过所述全连接分类层映射到所述样本兴趣点的分类标签。
5.根据权利要求1、2、4中任一项所述的方法,其中,所述兴趣点的名称为外文名称,所述采用预先训练得到的第一兴趣点分类模型,根据所述兴趣点的名称得到所述兴趣点的分类信息,包括:
判断从预设的规则配置表中是否查找到与所述兴趣点的名称对应的规则;
响应于从预设的规则配置表中未查找到与所述兴趣点的名称对应的规则,采用所述第一兴趣点分类模型,根据所述兴趣点的名称确定所述兴趣点的分类信息。
6.根据权利要求1所述的方法,其中,所述根据所述兴趣点的分类信息确定所述兴趣点的分类标签,包括:
将所述分类信息中概率最大的分类标签确定为所述兴趣点的分类标签。
7.根据权利要求1所述的方法,其中,所述兴趣点的分类信息包括所述兴趣点的中文名称对应的分类信息和所述兴趣点的外文名称对应的分类信息,所述采用预先训练得到的第一兴趣点分类模型,根据所述兴趣点的名称得到所述兴趣点的分类信息,还包括:
采用预先训练得到的所述第一兴趣点分类模型,根据所述兴趣点的中文名称得到所述兴趣点的中文名称对应的分类信息。
8.根据权利要求7所述的方法,其中,所述根据所述兴趣点的分类信息确定所述兴趣点的分类标签,包括:
将所述兴趣点的中文名称对应的分类信息中概率最大的分类标签确定为所述兴趣点的中文名称对应的分类标签;
将所述兴趣点的外文名称对应的分类信息中概率最大的分类标签确定为所述兴趣点的外文名称对应的分类标签;
将所述兴趣点的中文名称对应的分类标签和所述兴趣点的外文名称对应的分类标签中概率最大的分类标签确定为所述兴趣点的分类标签;
或者;
将所述兴趣点的中文名称对应的分类信息和所述兴趣点的外文名称对应的分类信息中概率最大的分类标签确定为兴趣点的分类标签。
9.一种兴趣点分类装置,包括:
第一确定模块,用于确定兴趣点的名称;
处理模块,用于采用预先训练得到的第一兴趣点分类模型,根据所述兴趣点的名称得到所述兴趣点的分类信息,所述分类信息包括至少一个分类标签和每个分类标签对应的概率,所述第一兴趣点分类模型根据基于注意力机制的深度神经网络训练得到;
第二确定模块,用于根据所述兴趣点的分类信息确定所述兴趣点的分类标签;
所述兴趣点的名称包括中文名称和外文名称,所述处理模块用于:从预设的规则配置表中查找是否存在与所述兴趣点的外文名称对应的规则;
响应于查找到与所述兴趣点的外文名称对应的第一规则,根据所述预设的规则配置表查找与所述第一规则对应的分类标签和概率,将查找到的与所述第一规则对应的分类标签和概率确定为所述兴趣点的外文名称对应的分类信息;
响应于未查找到与所述兴趣点的外文名称对应的第一规则,采用预先训练得到的第二兴趣点分类模型,根据所述兴趣点的外文名称得到所述兴趣点的外文名称对应的分类信息。
10.根据权利要求9所述的装置,其中,所述处理模块用于:
将所述兴趣点的名称作为所述第一兴趣点分类模型的输入,得到所述兴趣点的分类信息。
11.根据权利要求9或10所述的装置,还包括:
模型训练模块,用于根据训练样本和所述基于注意力机制的深度神经网络训练所述第一兴趣点分类模型,所述训练样本包括样本兴趣点的名称和所述样本兴趣点的分类标签。
12.根据权利要求11所述的装置,其中,所述模型训练模块用于:
对每一个训练样本,将所述样本兴趣点的名称预处理为一个词向量;
对所述词向量进行位置编码,得到所述词向量的每一个数字的先后顺序;
将位置编码后的词向量通过注意力机制语义表示层转换为语义向量,所述基于注意力机制的深度神经网络包括所述注意力机制语义表示层和全连接分类层;
将所述语义向量通过所述全连接分类层映射到所述样本兴趣点的分类标签。
13.根据权利要求9、10、12中任一项所述的装置,其中,所述兴趣点的名称为外文名称,所述处理模块用于:
判断从预设的规则配置表中是否查找到与所述兴趣点的名称对应的规则;
响应于从预设的规则配置表中未查找到与所述兴趣点的名称对应的规则,采用所述第一兴趣点分类模型,根据所述兴趣点的名称确定所述兴趣点的分类信息。
14.根据权利要求9所述的装置,其中,所述第二确定模块用于:
将所述分类信息中概率最大的分类标签确定为所述兴趣点的分类标签。
15.根据权利要求9所述的装置,其中,所述兴趣点的分类信息包括所述兴趣点的中文名称对应的分类信息和所述兴趣点的外文名称对应的分类信息,所述处理模块还用于:
采用预先训练得到的所述第一兴趣点分类模型,根据所述兴趣点的中文名称得到所述兴趣点的中文名称对应的分类信息。
16.根据权利要求15所述的装置,其中,所述第二确定模块用于:
将所述兴趣点的中文名称对应的分类信息中概率最大的分类标签确定为所述兴趣点的中文名称对应的分类标签;
将所述兴趣点的外文名称对应的分类信息中概率最大的分类标签确定为所述兴趣点的外文名称对应的分类标签;
将所述兴趣点的中文名称对应的分类标签和所述兴趣点的外文名称对应的分类标签中概率最大的分类标签确定为所述兴趣点的分类标签;
或者;
将所述兴趣点的中文名称对应的分类信息和所述兴趣点的外文名称对应的分类信息中概率最大的分类标签确定为兴趣点的分类标签。
17. 一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8中任一项所述的方法。
18.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1-8中任一项所述的方法。
19.一种兴趣点分类方法,包括:
获取到兴趣点的名称后,采用预先训练得到的第一兴趣点分类模型,根据所述兴趣点的名称得到所述兴趣点的分类信息,所述分类信息包括至少一个分类标签和每个分类标签对应的概率,所述第一兴趣点分类模型根据基于注意力机制的深度神经网络训练得到;
根据所述兴趣点的分类信息确定所述兴趣点的分类标签;
所述兴趣点的名称包括中文名称和外文名称,所述采用预先训练得到的第一兴趣点分类模型,根据所述兴趣点的名称得到所述兴趣点的分类信息,包括:
从预设的规则配置表中查找是否存在与所述兴趣点的外文名称对应的规则;
响应于查找到与所述兴趣点的外文名称对应的第一规则,根据所述预设的规则配置表查找与所述第一规则对应的分类标签和概率,将查找到的与所述第一规则对应的分类标签和概率确定为所述兴趣点的外文名称对应的分类信息;
响应于未查找到与所述兴趣点的外文名称对应的第一规则,采用预先训练得到的第二兴趣点分类模型,根据所述兴趣点的外文名称得到所述兴趣点的外文名称对应的分类信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010614367.8A CN111767359B (zh) | 2020-06-30 | 2020-06-30 | 兴趣点分类方法、装置、设备以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010614367.8A CN111767359B (zh) | 2020-06-30 | 2020-06-30 | 兴趣点分类方法、装置、设备以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111767359A CN111767359A (zh) | 2020-10-13 |
CN111767359B true CN111767359B (zh) | 2023-09-01 |
Family
ID=72723041
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010614367.8A Active CN111767359B (zh) | 2020-06-30 | 2020-06-30 | 兴趣点分类方法、装置、设备以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111767359B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112100384B (zh) * | 2020-11-10 | 2021-02-02 | 北京智慧星光信息技术有限公司 | 一种数据观点抽取方法、装置、设备及存储介质 |
CN112380847B (zh) * | 2020-11-18 | 2024-03-29 | 北京百度网讯科技有限公司 | 兴趣点处理方法、装置、电子设备及存储介质 |
CN112380849B (zh) * | 2020-11-20 | 2024-05-28 | 北京百度网讯科技有限公司 | 生成兴趣点提取模型和提取兴趣点的方法和装置 |
CN112328896B (zh) * | 2020-11-26 | 2024-03-15 | 北京百度网讯科技有限公司 | 用于输出信息的方法、装置、电子设备和介质 |
CN112417322B (zh) * | 2020-12-10 | 2024-03-22 | 长春理工大学 | 一种面向兴趣点名称文本的类型判别方法及系统 |
CN112966192B (zh) * | 2021-02-09 | 2023-10-27 | 北京百度网讯科技有限公司 | 区域地址命名方法、装置、电子设备及可读存储介质 |
CN113806627A (zh) * | 2021-03-12 | 2021-12-17 | 京东科技控股股份有限公司 | 兴趣点的类型识别方法、装置、计算机设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109033219A (zh) * | 2018-06-29 | 2018-12-18 | 北京奇虎科技有限公司 | 兴趣点poi分类方法和装置 |
CN110727816A (zh) * | 2018-06-29 | 2020-01-24 | 百度在线网络技术(北京)有限公司 | 兴趣点类别确定方法和装置 |
CN111125550A (zh) * | 2018-11-01 | 2020-05-08 | 百度在线网络技术(北京)有限公司 | 兴趣点分类方法、装置、设备及存储介质 |
CN111242146A (zh) * | 2018-11-09 | 2020-06-05 | 蔚来汽车有限公司 | 基于卷积神经网络的poi信息分类 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9542479B2 (en) * | 2011-02-15 | 2017-01-10 | Telenav, Inc. | Navigation system with rule based point of interest classification mechanism and method of operation thereof |
US11047696B2 (en) * | 2018-10-20 | 2021-06-29 | Verizon Patent And Licensing Inc. | Methods and systems for determining and assigning a primary point-of-interest type for a point-of-interest |
-
2020
- 2020-06-30 CN CN202010614367.8A patent/CN111767359B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109033219A (zh) * | 2018-06-29 | 2018-12-18 | 北京奇虎科技有限公司 | 兴趣点poi分类方法和装置 |
CN110727816A (zh) * | 2018-06-29 | 2020-01-24 | 百度在线网络技术(北京)有限公司 | 兴趣点类别确定方法和装置 |
CN111125550A (zh) * | 2018-11-01 | 2020-05-08 | 百度在线网络技术(北京)有限公司 | 兴趣点分类方法、装置、设备及存储介质 |
CN111242146A (zh) * | 2018-11-09 | 2020-06-05 | 蔚来汽车有限公司 | 基于卷积神经网络的poi信息分类 |
Also Published As
Publication number | Publication date |
---|---|
CN111767359A (zh) | 2020-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111767359B (zh) | 兴趣点分类方法、装置、设备以及存储介质 | |
CN111259671B (zh) | 文本实体的语义描述处理方法、装置及设备 | |
CN111737383B (zh) | 提取地理位置点空间关系的方法、训练提取模型的方法及装置 | |
CN111831813B (zh) | 对话生成方法、装置、电子设备及介质 | |
CN113094550A (zh) | 视频检索方法、装置、设备和介质 | |
US11854237B2 (en) | Human body identification method, electronic device and storage medium | |
CN111667056B (zh) | 用于搜索模型结构的方法和装置 | |
CN110705460A (zh) | 图像类别识别方法及装置 | |
JP7133002B2 (ja) | 句読点予測方法および装置 | |
CN111079945B (zh) | 端到端模型的训练方法及装置 | |
WO2023065731A1 (zh) | 目标地图模型的训练方法、定位方法及相关装置 | |
CN111931067A (zh) | 兴趣点推荐方法、装置、设备和介质 | |
CN111507355A (zh) | 一种字符识别方法、装置、设备和存储介质 | |
US20220036085A1 (en) | Video event recognition method, electronic device and storage medium | |
CN111241838B (zh) | 文本实体的语义关系处理方法、装置及设备 | |
WO2023155678A1 (zh) | 用于确定信息的方法和装置 | |
CN110543558A (zh) | 问题匹配方法、装置、设备和介质 | |
CN111143564B (zh) | 无监督的多目标篇章级情感分类模型训练方法和装置 | |
CN112529180A (zh) | 模型蒸馏的方法和装置 | |
CN111738015A (zh) | 文章情感极性分析方法、装置、电子设备及存储介质 | |
CN112328896B (zh) | 用于输出信息的方法、装置、电子设备和介质 | |
CN112559715B (zh) | 态度的识别方法、装置、设备及存储介质 | |
CN111708477B (zh) | 按键识别方法、装置、设备以及存储介质 | |
CN111125550A (zh) | 兴趣点分类方法、装置、设备及存储介质 | |
CN112650844A (zh) | 对话状态的追踪方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |