CN108920457B - 地址识别方法和装置及存储介质 - Google Patents
地址识别方法和装置及存储介质 Download PDFInfo
- Publication number
- CN108920457B CN108920457B CN201810627403.7A CN201810627403A CN108920457B CN 108920457 B CN108920457 B CN 108920457B CN 201810627403 A CN201810627403 A CN 201810627403A CN 108920457 B CN108920457 B CN 108920457B
- Authority
- CN
- China
- Prior art keywords
- address
- sample
- prior knowledge
- vector
- feature vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Character Discrimination (AREA)
Abstract
本发明公开了一种地址识别方法和装置及存储介质。其中,该方法包括:获取对待识别的地址文本进行切分后所得到的地址片段序列;获取与地址片段序列相匹配的拼接特征向量;将拼接特征向量输入地址识别网络模型,得到地址识别网络模型所输出的输出结果,其中,地址识别网络模型为对多个训练样本进行深度学习后得到;根据输出结果识别出与地址片段序列相匹配的地址角色标签序列,其中,地址角色标签序列中包括与地址片段序列中所包含的每一个地址片段分别匹配的地址角色标签。本发明解决了相关技术中存在的地址识别结果准确性低的技术问题。
Description
技术领域
本发明涉及计算机领域,具体而言,涉及一种地址识别方法和装置及存储介质。
背景技术
在地理信息系统中,常常需要对用户手动输入的各种地址文本进行识别分析处理,从而辅助用户实现地址定位或地图导航。其中,上述对地址文本的识别分析处理包括:地址分词处理、地址识别处理。也就是说,通常在获取到用户输入的较长的地址文本后,需要先对其进行切分,得到多个地址片段,再为地址片段匹配对应的地址角色,其中,该地址角色用于标识各个地址片段所在的地址级别。最后,将匹配有地址角色的地址应用于地址定位或地图导航过程中,以保证地址应用的准确性及规范性。
目前针对上述地址识别处理,往往是利用条件随机场模型(Conditional RandomField,简称为CRF)统一计算用于匹配地址片段的地址角色。然而,上述CRF模型存在长距离依赖,且学习不够充分等问题,从而导致所得到的地址识别结果准确性较低的问题。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种地址识别方法和装置及存储介质,以至少解决相关技术中存在的地址识别结果准确性低的技术问题。
根据本发明实施例的一个方面,提供了一种地址识别方法,包括:获取对待识别的地址文本进行切分后所得到的地址片段序列;获取与上述地址片段序列相匹配的拼接特征向量,其中,上述拼接特征向量中包括N种样本特征向量,上述N种样本特征向量中所包含的第i种样本特征向量是利用与地址样本对象对应的第i类先验知识,通过机器训练而得到的特征向量,其中,i和N为正整数,且1≤i≤N;将上述拼接特征向量输入地址识别网络模型,得到上述地址识别网络模型的输出结果,其中,上述地址识别网络模型为对多个训练样本进行深度学习后得到;根据上述输出结果识别出与上述地址片段序列相匹配的地址角色标签序列,其中,上述地址角色标签序列中包括与上述地址片段序列中所包含的每一个地址片段分别匹配的地址角色标签。
根据本发明实施例的另一方面,还提供了一种地址识别装置,包括:第一获取单元,用于获取对待识别的地址文本进行切分后所得到的地址片段序列;第二获取单元,用于获取与上述地址片段序列相匹配的拼接特征向量,其中,上述拼接特征向量中包括N种样本特征向量,上述N种样本特征向量中所包含的第i种样本特征向量是利用与地址样本对象对应的第i类先验知识,通过机器训练而得到的特征向量,其中,i和N为正整数,且1≤i≤N;第一输入单元,用于将上述拼接特征向量输入地址识别网络模型,得到上述地址识别网络模型的输出结果,其中,上述地址识别网络模型为对多个训练样本进行深度学习后得到;识别单元,用于根据上述输出结果识别出与上述地址片段序列相匹配的地址角色标签序列,其中,上述地址角色标签序列中包括与上述地址片段序列中所包含的每一个地址片段分别匹配的地址角色标签。
根据本发明实施例的又一方面,还提供了一种存储介质,该存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述地址识别方法。
根据本发明实施例的又一方面,还提供了一种电子装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,上述处理器通过计算机程序执行上述的地址识别方法。
在本发明实施例中,采用了获取对待识别的地址文本进行切分后所得到的地址片段序列;获取与所述地址片段序列相匹配的拼接特征向量;将所述拼接特征向量输入地址识别网络模型,得到所述地址识别网络模型所输出的输出结果;根据所述输出结果识别出与所述地址片段序列相匹配的地址角色标签序列的方法,在上述方法中,在获取到待识别的地址文本的地址片段序列后,获取与上述地址片段序列匹配的拼接特征向量,并将上述拼接特征向量输入到地址识别网络模型中,得到地址角色标签序列,也就是说,上述方法中在获取到地址文本的地址片段序列后,是先根据地址片段序列获取到拼接特征向量,并将拼接特征向量输入到地址识别网络模型中,从而可以通过对拼接特征向量的识别得到地址角色标签序列,达到了提高获取的地址角色标签序列的准确性的效果。解决了相关技术中存在的地址识别结果准确性低的技术问题。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的一种地址识别方法的应用环境的示意图;
图2是根据本发明实施例的一种可选的地址识别方法的流程示意图;
图3是根据本发明实施例的一种可选的地址识别方法的示意图;
图4是根据本发明实施例的另一种可选的地址识别方法的示意图;
图5是根据本发明实施例的又一种可选的地址识别方法的示意图;
图6是根据本发明实施例的又一种可选的地址识别方法的示意图;
图7是根据本发明实施例的又一种可选的地址识别方法的示意图;
图8是根据本发明实施例的又一种可选的地址识别方法的示意图;
图9是根据本发明实施例的又一种可选的地址识别方法的示意图;
图10是根据本发明实施例的一种可选的地址识别装置的结构示意图;
图11是根据本发明实施例的一种可选的电子装置的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
根据本发明实施例的一个方面,提供了一种地址识别方法,可选地,作为一种可选的实施方式,上述地址识别方法可以但不限于应用于如图1所示的环境中。用户设备104中包含有存储器106与处理器108。用户102可以与用户设备104之间进行人机交互。在用户设备104获取到待识别的地址文本后,将获取到的上述地址文本拆分成地址片段序列,并将上述地址片段序列通过步骤S102,通过网络110发送给服务器112。服务器112在获取到上述地址片段序列后,将上述地址片段序列输入到地址识别网络模型114中,并由地址识别网络模型114对地址片段序列进行识别,得到地址角色标签序列,并通过步骤S104,通过网络110,将识别得到的地址角色标签序列返回给用户设备104,用户设备104可以在接收到上述地址角色标签序列后,显示上述地址角色标签序列。
需要说明的是,相关技术中,针对地址识别处理,通常使用的方法是利用条件随机场模型统一计算用于匹配地址片段的地址角色,而上述方法造成地址识别结果准确性较低。而本实施例中,在获取到待识别的地址文本的地址片段序列后,获取与上述地址片段序列匹配的拼接特征向量,并将上述拼接特征向量输入到地址识别网络模型中,得到地址角色标签序列,也就是说,上述方法中在获取到地址文本的地址片段序列后,是先根据地址片段序列获取到拼接特征向量,并将拼接特征向量输入到地址识别网络模型中,从而可以通过对拼接特征向量的识别得到地址角色标签序列,达到了提高获取的地址角色标签序列的准确性的效果。
可选地,上述地址识别方法可以但不限于应用于可以获取地址文本的终端上,例如手机、平板电脑、笔记本电脑、PC机等终端上,上述网络可以包括但不限于无线网络或有线网络。其中,该无线网络包括:蓝牙、WIFI及其他实现无线通信的网络。上述有线网络可以包括但不限于:广域网、城域网、局域网。上述服务器可以包括但不限于任何可以进行计算的硬件设备。
可选地,作为一种可选的实施方式,如图2所示,上述地址识别方法包括:
S202,获取对待识别的地址文本进行切分后所得到的地址片段序列;
S204,获取与地址片段序列相匹配的拼接特征向量,其中,拼接特征向量中包括N种样本特征向量,N种样本特征向量中所包含的第i种样本特征向量是利用与地址样本对象对应的第i类先验知识,通过机器训练而得到的特征向量,其中,i和N为正整数,且1≤i≤N;
S206,将拼接特征向量输入地址识别网络模型,得到地址识别网络模型的输出结果,其中,地址识别网络模型为对多个训练样本进行深度学习后得到;
S208,根据输出结果识别出与地址片段序列相匹配的地址角色标签序列,其中,地址角色标签序列中包括与地址片段序列中所包含的每一个地址片段分别匹配的地址角色标签。
上述深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。深度学习是机器学习中一种基于对数据进行表征学习的算法。
可选地,作为一种可选的实施方式,上述地址识别方法可以但不限于应用于任何识别地址文本的过程中,例如地址搜索的过程中,地址定位的过程中,导航的过程中,物流分拣的过程中等。
以下结合物流分拣的过程进行说明。上述地址角色标签可以为地址片段序列的分类信息,例如为国家、地区、省、市、县、乡、村、路、街、门牌号、商圈、兴趣点(Point ofInterest,简称POS)、楼栋号、楼层号等。在物流分拣的过程中,在获取到物流需要送到的位置时,例如为北京市海淀区知春路1号院1号楼1层。在获取到上述信息后,将上述信息进行分词,得到地址片段序列,例如,可以得到北京市、海淀区、知春路、1号院、1号楼、1层等分词信息,或者也可能为北京、市海淀、区知、春路1、号院1、号楼1、层等不同的分词结果。当获取到上述地址片段序列后,根据上述地址片段序列的不同的先验知识,获取到不同的特征向量,并将不同的特征向量的拼接特征向量与地址片段序列输入到地址识别网络模型中,并由地址识别网络模型对上述地址片段序列进行识别,得到各个地址片段序列的属性信息。如图3所示,经过地址识别网络模型后,可以得到北京市海淀区知春路1号院1号楼1层所属的城市、区划、道路、住宅区、楼栋号与楼层号,从而在物流分拣时,可以根据上述得到的地址片段序列的地址角色标签对物品进行分拣。
需要说明的是,相关技术中,针对地址识别处理,通常使用的方法是利用条件随机场模型统一计算用于匹配地址片段的地址角色,而上述方法造成地址识别结果准确性较低。而本实施例中,在获取到待识别的地址文本的地址片段序列后,获取与上述地址片段序列匹配的拼接特征向量,并将上述拼接特征向量输入到地址识别网络模型中,得到地址角色标签序列,也就是说,上述方法中在获取到地址文本的地址片段序列后,是先根据地址片段序列获取到拼接特征向量,并将拼接特征向量输入到地址识别网络模型中,从而可以通过对拼接特征向量的识别得到地址角色标签序列,达到了提高获取的地址角色标签序列的准确性的效果。
可选地,在将N种样本特征向量输入到地址识别网络模型之前,还需要获取N种样本特征向量,具体可以通过以下方法:根据获取到的地址样本对象的先验知识,确定N种样本特征向量;将确定出的N种样本特征向量进行拼接,得到拼接特征向量。
可选地,上述先验知识可以为地址样本对象的领域信息、属性信息(属性信息包含地址片段的词性、字词数、句中位置等)、含义信息与形状信息(形状信息包含偏旁部首、笔画数等)等。在获取到上述的地址样本对象后,根据地址样本对象的各项信息,获取到多种样本特征向量,以及将获取到的多种样本进行拼接,得到拼接特征向量。在获取到拼接特征向量之后,将上述拼接特征向量输入到地址识别网络模型中,即可获取到每一个地址片段的地址角色标签。
如图4所示,在获取到地址样本对象后,获取地址样本对象的领域信息、属性信息与结构信息,在获取到上述信息后,将上述信息输入到各自对应的训练模型中,并进行训练,得到样本特征向量,并将样本特征向量进行拼接,得到拼接样本特征向量,并将获取到的拼接样本特征向量输入到地址识别网络模型中。
可选地,由于先验知识存在不同的类型,因此,在确定N中样本特征向量的过程中,可以使用如下策略来对不同的先验知识进行处理。
(1)根据获取到的地址样本对象的先验知识,确定N种样本特征向量包括:获取地址样本对象的第一类先验知识,其中,第一类先验知识包括地址样本对象所在领域的领域信息;将第一类先验知识输入第一训练模型,得到第一样本特征向量,其中,N种样本特征向量中包括第一样本特征向量。
可选地,上述第一训练模型可以为领域词典模型,上述领域词典模型中包含了POI实体词典、村名词典、道路词典、以及省、市、县、乡、兴趣点等各个词典。
例如,继续结合物流分拣的过程进行说明。在获取到的先验知识为用于表示地址样本对象所在的领域的信息时,将获取到的上述用于表示领域的信息输入到领域词典模型中,由于领域词典模型中包含了POI实体词典、村名词典、道路词典、以及省、市、县、乡、兴趣点等各个词典等多个词典,从而可以对上述用于表示领域的信息进行转化,得到知识向量,并保存上述知识向量。
(2)根据获取到的地址样本对象的先验知识,确定N种样本特征向量包括:获取地址样本对象的第二类先验知识,其中,第二类先验知识包括与地址样本对象匹配的属性信息,属性信息包括:地址样本对象中所包含的地址片段的词性,及地址样本对象中所包含的地址片段在地址样本对象中所在的序列位置;将第二类先验知识输入第二训练模型,得到第二样本特征向量,其中,N种样本特征向量中包括第二样本特征向量。
可选地,在本实施例中,上述第二训练模型可以为词向量训练模型,例如为连续词袋模型(Continuous Bag of Words Model,简称为CBOW)、连续跳跃式模型(ContinuousSkip-gram Model,简称为Skip-gram)和基于共现矩阵的词向量(Global Vectors forWord Representation,简称为Glove)等。
例如,继续结合物流分拣的过程进行说明。在获取到先验知识为属性信息例如为词性、字词数、句中位置等信息时,将获取到的先验知识输入到词向量训练模型中,例如输入到CBOW模型中,并使用CBOW模型对上述先验知识进行转化,获取到经CBOW转换后得到的融合词向量,并保存上述融合词向量。
(3)根据获取到的地址样本对象的先验知识,确定N种样本特征向量包括:获取地址样本对象的第三类先验知识,其中,第三类先验知识包括地址样本对象中所包含的每个文字的字结构信息,字结构信息包括:与文字对应的上下文信息,及文字的内部结构信息;将第三类先验知识输入第三训练模型,得到第三样本特征向量,其中,N种样本特征向量中包括第三样本特征向量。
可选地,在本实施例中,上述第三训练模型可以但不限于为JWE模型
例如,继续结合物流分拣的过程进行说明。在获取到先验知识为含义信息与形状信息(形状信息可以为偏旁部首、笔画数等)时,将获取到的上述先验知识输入到IWE模型中,经上述IWE模型转换后得到形态字向量,并保存上述形态字向量。
可选地,在获取到第一样本特征向量、第二样本特征向量、第三样本特征向量之后,将上述第一样本特征向量、第二样本特征向量、第三样本特征向量进行拼接,得到拼接特征向量,并将拼接特征向量输入到地址识别网络模型中。上述拼接方法可以为将上述第一样本特征向量、第二样本特征向量、第三样本特征向量按顺序首尾相连,得到拼接特征向量。
例如,继续结合上述物流分拣的过程进行说明。在得到上述第一样本特征向量、融合词向量、形态字向量之后,将第一样本特征向量、融合词向量、形态字向量首尾相连,得到拼接特征向量。拼接特征向量可以表现为:第一样本特征向量-融合次向量-形态字向量。
可选地,将拼接特征向量输入初始地址识别网络模型进行深度学习包括:将拼接特征向量通过嵌入层输入初始地址识别网络模型,其中,初始地址识别网络模型中包括双层双向长短期记忆网络(Long Short-Term Memory,简称为BiLSTM)结构。
例如,继续结合上述物流分拣的过程进行说明。在获取到上述知识向量、融合词向量、形态字向量之后,需要将上述知识向量、融合词向量、形态字向量进行拼接,得到拼接特征向量,并将拼接特征向量输入到地址识别网络模型中。如图5所示,将地址片段序列与地址片段序列的拼接特征向量输入到地址网络识别模型中进行识别,可以识别得到各个地址片段序列的地址角色标签。
可选地,在将拼接特征向量输入初始地址识别网络模型进行深度学习之前,还包括:构建初始地址识别网络模型,其中,在双层双向长短期记忆网络结构之间配置有跨层跳跃连接,跨层跳跃连接中设置有用于控制在双层双向长短期记忆网络结构之间进行数据传递的门限函数。
例如,继续结合上述物流分拣的过程进行说明。上述跨层跳跃连接可以为skip连接。如图5所示,由于地址识别网络模型具有双层BiLSTM结构,因此存在梯度消失的风险。为了避免BiLSTM层数的加深而造成梯度消失,因此,在跨层间添加一个skip连接,来防止梯度消失。
通过本实施例,通过与地址样本对象对应的先验知识来训练特征向量,根据特征向量得到多个拼接特征向量,并对拼接特征向量进行深度学习,得到网络模型,并将上述地址片段序列输入到上述网络模型中,得到地址角色标签序列,从而可以根据地址样本对象所生成的特征向量对网络模型进行训练,达到了提高获取的地址角色标签序列的准确性的效果。
作为一种可选的实施方案,在获取对待识别的地址文本进行切分后所得到的地址片段序列之前,还包括:
S1,根据获取到的地址样本对象的先验知识,确定N种样本特征向量;
S2,将确定出的N种样本特征向量进行拼接,得到拼接特征向量。
可选地,上述先验知识可以为地址样本对象的领域信息、属性信息(属性信息包含地址片段的词性、字词数、句中位置等)、含义信息与形状信息(形状信息包含偏旁部首、笔画数等)等。在获取到上述的地址样本对象后,根据地址样本对象的各项信息,获取到多种样本特征向量,以及将获取到的多种样本进行拼接,得到拼接特征向量。在获取到拼接特征向量之后,将上述拼接特征向量输入到地址识别网络模型中,即可获取到每一个地址片段的地址角色标签。
如图4所示,在获取到地址样本对象后,获取地址样本对象的领域信息、属性信息与结构信息,在获取到上述信息后,将上述信息输入到各自对应的训练模型中,并进行训练,得到样本特征向量,并将样本特征向量进行拼接,得到拼接样本特征向量,并将获取到的拼接样本特征向量输入到地址识别网络模型中。
通过本实施例,通过在获取地址分段序列之前,根据地址样本对象的先验知识,得到拼接特征向量,以及根据拼接特征向量对地址识别网络模型进行深度学习,从而达到了提高地址识别准确度的效果。
作为一种可选的实施方案,根据获取到的地址样本对象的先验知识,确定N种样本特征向量包括:
S1,获取地址样本对象的第一类先验知识,其中,第一类先验知识包括地址样本对象所在领域的领域信息;
S2,将第一类先验知识输入第一训练模型,得到第一样本特征向量,其中,N种样本特征向量包括第一样本特征向量。
可选地,上述第一训练模型可以为领域词典模型,上述领域词典模型中包含了POI实体词典、村名词典、道路词典、以及省、市、县、乡、兴趣点等各个词典。
例如,继续结合物流分拣的过程进行说明。在获取到的先验知识为用于表示地址样本对象所在的领域的信息时,将获取到的上述用于表示领域的信息输入到领域词典模型中,由于领域词典模型中包含了POI实体词典、村名词典、道路词典、以及省、市、县、乡、兴趣点等各个词典等多个词典,从而可以对上述用于表示领域的信息进行转化,得到知识向量,并保存上述知识向量。如图6所示,领域此案中包括POI实体词典、村词典、道路词典、乡镇词典、商圈词典、行政区划词典等。每一个词典中都记录着多条信息。在获取到地址样本对象的领域信息后,从领域词典中搜索上述地址样本对象的领域信息,若搜索到上述地址样本对象的领域信息,则根据领域词典中记录的转化方式,将上述地址样本对象的领域信息转化成知识向量。
通过本实施例,通过获取地址样本对象的领域信息,并将上述领域信息输入到第一训练模型中,并得到第一样本特征向量,从而可以根据得到的第一样本特征向量对地址识别网络模型进行训练,从而提高了网络地址识别模型的准确率。
作为一种可选的实施方案,根据获取到的地址样本对象的先验知识,确定N种样本特征向量包括:
S1,获取地址样本对象的第二类先验知识,其中,第二类先验知识包括与地址样本对象匹配的属性信息,属性信息包括:地址样本对象中所包含的地址片段的词性,及地址样本对象中所包含的地址片段在地址样本对象中所在的序列位置;
S2,将第二类先验知识输入第二训练模型,得到第二样本特征向量,其中,N种样本特征向量包括第二样本特征向量。
可选地,在本实施例中,上述第二训练模型可以为词向量训练模型,例如为连续词袋模型(Continuous Bag of Words Model,简称为CBOW)、连续跳跃式模型(ContinuousSkip-gram Model,简称为Skip-gram)和基于共现矩阵的词向量(Global Vectors forWord Representation,简称为Glove)等。
例如,继续结合物流分拣的过程进行说明。在获取到先验知识为属性信息例如为词性、字词数、句中位置等信息时,将获取到的先验知识输入到词向量训练模型中,使用词向量训练模型对上述先验知识进行转化,获取到经词向量训练模型转换后得到的融合词向量,并保存上述融合词向量。
通过本实施例,通过在获取到地址样本对象的先验知识以后,获取先验知识中地址片段的词性及地址片段所在地址样本对象中的序列位置等信息,并将上述获取到的信息输入到第二训练模型中进行训练,从而达到了提高地址识别网络模型的识别准确度的效果。
作为一种可选的实施方案,根据获取到的地址样本对象的先验知识,确定N种样本特征向量包括:
S1,获取地址样本对象的第三类先验知识,其中,第三类先验知识包括地址样本对象中所包含的每个文字的字结构信息,字结构信息包括:与文字对应的上下文信息,及文字的内部结构信息;
S2,将第三类先验知识输入第三训练模型,得到第三样本特征向量,其中,N种样本特征向量包括第三样本特征向量。
可选地,上述第三训练模型可以为JWE模型,上述上下文信息可以为地址样本对象中字的含义。
例如,继续结合物流分拣的过程进行说明。在获取到先验知识为含义信息与形状信息(形状信息可以为偏旁部首、笔画数等)时,将获取到的上述先验知识输入到IWE模型中,经上述IWE模型转换后得到形态字向量,并保存上述形态字向量。
通过本实施例,通过获取到地址样本对象的文字结构信息与上下文信息之后,将上述信息输入到第三训练模型中,并经第三训练模型进行转换,得到第三样本特征,从而可以使用第三样本特征对地址识别网络模型进行训练,提高了地址识别网络模型的识别准确率。
作为一种可选的实施方案,将拼接特征向量输入地址识别网络模型包括:
S1,将拼接特征向量通过嵌入层输入初始地址识别网络模型,其中,初始地址识别网络模型中包括双层双向长短期记忆网络结构。
例如,继续结合上述物流分拣的过程进行说明。在获取到上述知识向量、融合词向量、形态字向量之后,需要将上述知识向量、融合词向量、形态字向量进行拼接,得到拼接特征向量,并将拼接特征向量输入到地址识别网络模型中。如图5所示,将地址片段序列与地址片段序列的拼接特征向量输入到双层BiLSTM结构的地址网络识别模型中进行识别,可以识别得到各个地址片段序列的地址角色标签。可选地,可以将上述知识向量、融合词向量、形态字向量拼接成embedding层,然后输入到双层BiLSTM结构的地址网络识别模型中进行识别。
通过本实施例,通过将拼接得到的拼接特征向量输入到双层BiLSTM结构的地址识别网络模型中,并对地址识别网络模型进行训练,从而提高了地址识别网络模型的识别准确率。
作为一种可选的实施方案,在将拼接特征向量通过嵌入层输入地址识别网络模型之前,还包括:
S1,构建初始地址识别网络模型,其中,在双层双向长短期记忆网络结构之间配置有跨层跳跃连接,跨层跳跃连接中设置有用于控制在双层双向长短期记忆网络结构之间进行数据传递的门限函数。
例如,继续结合上述物流分拣的过程进行说明。上述跨层跳跃连接可以为skip连接。如图5所示,由于地址识别网络模型具有双层BiLSTM结构,因此存在梯度消失的风险。为了避免BiLSTM层数的加深而造成梯度消失,因此,在跨层间添加一个skip连接,来防止梯度消失。
通过本实施例,通过在双层BiLSTM结构之间配置跨层跳跃连接,从而可以避免双层BiLSTM结构可能产生的梯度消失的问题,进一步提高地址识别网络模型的准确度。
作为一种可选的实施方案,在根据输出结果识别出与地址片段序列相匹配的地址角色标签序列之后,还包括以下至少之一:
(1)根据地址角色标签序列对携带地址文本的物品进行分拣;
(2)根据地址角色标签序列对输入地址文本的终端进行定位;
(3)根据地址角色标签序列对输入地址文本的终端进行导航。
例如,继续以物流分拣的过程进行说明。在获取到一个待分拣的物流物品时,识别物流物品上的地址信息,例如为北京市海淀区知春路1号院1楼1层,则将上述地址信息进行分词,分词后将拆分得到的词输入到地址识别网络模型中,并使用地址识别网络模型对上述分词进行识别,得到上述分词的地址角色标签,并根据地址角色标签,可以对上述物流物品进行分类,将需要物流到同一个地区的物品分为一类,以便提高物流效率。图7为地址识别网络模型所在的终端,终端可以输入需要识别的地址信息,并输出相关的地址角色标签信息。
或者,以定位的过程进行说明,如图8所示,在输入地址信息后,对输入的地址信息进行识别,并根据识别得到的结果定位到地图中的位置,定位结果可以如图8所示,根据输入的地址信息在地图中定位到地址信息对应的位置。
或者,以导航的过程进行说明,如图9所示,三角表示当前位置,圆圈表示目标位置,在输入地址信息后,可以将地址作为目的地址,并从地图上显示由当前地址到达目标地址的导航信息。
通过本实施例,通过根据上述地址角色标签序列执行上述各个方法,从而提高了使用上述地址角色标签序列的灵活性。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例的方法。
根据本发明实施例的另一个方面,还提供了一种用于实施上述地址识别方法的地址识别装置,如图10所示,该装置包括:
(1)第一获取单元1002,用于获取对待识别的地址文本进行切分后所得到的地址片段序列;
(2)第二获取单元1004,用于获取与地址片段序列相匹配的拼接特征向量,其中,拼接特征向量中包括N种样本特征向量,N种样本特征向量中所包含的第i种样本特征向量是利用与地址样本对象对应的第i类先验知识,通过机器训练而得到的特征向量,其中,i和N为正整数,且1≤i≤N;
(3)输入单元1006,用于将拼接特征向量输入地址识别网络模型,得到地址识别网络模型的输出结果,其中,地址识别网络模型为对多个训练样本进行深度学习后得到;
(4)识别单元1008,用于根据输出结果识别出与地址片段序列相匹配的地址角色标签序列,其中,地址角色标签序列中包括与地址片段序列中所包含的每一个地址片段分别匹配的地址角色标签。
上述深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。深度学习是机器学习中一种基于对数据进行表征学习的算法。
可选地,作为一种可选的实施方式,上述地址识别装置可以但不限于应用于任何识别地址文本的过程中,例如地址搜索的过程中,地址定位的过程中,导航的过程中,物流分拣的过程中等。
以下结合物流分拣的过程进行说明。上述地址角色标签可以为地址片段序列的分类信息,例如为国家、地区、省、市、县、乡、村、路、街、门牌号、商圈、兴趣点(Point ofInterest,简称POS)、楼栋号、楼层号等。在物流分拣的过程中,在获取到物流需要送到的位置时,例如为北京市海淀区知春路1号院1号楼1层。在获取到上述信息后,将上述信息进行分词,得到地址片段序列,例如,可以得到北京市、海淀区、知春路、1号院、1号楼、1层等分词信息,或者也可能为北京、市海淀、区知、春路1、号院1、号楼1、层等不同的分词结果。当获取到上述地址片段序列后,根据上述地址片段序列的不同的先验知识,获取到不同的特征向量,并将不同的特征向量的拼接特征向量与地址片段序列输入到地址识别网络模型中,并由地址识别网络模型对上述地址片段序列进行识别,得到各个地址片段序列的属性信息。如图3所示,经过地址识别网络模型后,可以得到北京市海淀区知春路1号院1号楼1层所属的城市、区划、道路、住宅区、楼栋号与楼层号,从而在物流分拣时,可以根据上述得到的地址片段序列的地址角色标签对物品进行分拣。
需要说明的是,相关技术中,针对地址识别处理,通常使用的方法是利用条件随机场模型统一计算用于匹配地址片段的地址角色,而上述方法造成地址识别结果准确性较低。而本实施例中,在获取到待识别的地址文本的地址片段序列后,获取与上述地址片段序列匹配的拼接特征向量,并将上述拼接特征向量输入到地址识别网络模型中,得到地址角色标签序列,也就是说,上述方法中在获取到地址文本的地址片段序列后,是先根据地址片段序列获取到拼接特征向量,并将拼接特征向量输入到地址识别网络模型中,从而可以通过对拼接特征向量的识别得到地址角色标签序列,达到了提高获取的地址角色标签序列的准确性的效果。
可选地,在将N种样本特征向量输入到地址识别网络模型之前,还需要获取N种样本特征向量,具体可以通过以下方法:根据获取到的地址样本对象的先验知识,确定N种样本特征向量;将确定出的N种样本特征向量进行拼接,得到拼接特征向量。
可选地,上述先验知识可以为地址样本对象的领域信息、属性信息(属性信息包含地址片段的词性、字词数、句中位置等)、含义信息与形状信息(形状信息包含偏旁部首、笔画数等)等。在获取到上述的地址样本对象后,根据地址样本对象的各项信息,获取到多种样本特征向量,以及将获取到的多种样本进行拼接,得到拼接特征向量。在获取到拼接特征向量之后,将上述拼接特征向量输入到地址识别网络模型中,即可获取到每一个地址片段的地址角色标签。
如图4所示,在获取到地址样本对象后,获取地址样本对象的领域信息、属性信息与结构信息,在获取到上述信息后,将上述信息输入到各自对应的训练模型中,并进行训练,得到样本特征向量,并将样本特征向量进行拼接,得到拼接样本特征向量,并将获取到的拼接样本特征向量输入到地址识别网络模型中。
可选地,由于先验知识存在不同的类型,因此,在确定N中样本特征向量的过程中,可以使用如下策略来对不同的先验知识进行处理。
(1)根据获取到的地址样本对象的先验知识,确定N种样本特征向量包括:获取地址样本对象的第一类先验知识,其中,第一类先验知识包括地址样本对象所在领域的领域信息;将第一类先验知识输入第一训练模型,得到第一样本特征向量,其中,N种样本特征向量中包括第一样本特征向量。
可选地,上述第一训练模型可以为领域词典模型,上述领域词典模型中包含了POI实体词典、村名词典、道路词典、以及省、市、县、乡、兴趣点等各个词典。
例如,继续结合物流分拣的过程进行说明。在获取到的先验知识为用于表示地址样本对象所在的领域的信息时,将获取到的上述用于表示领域的信息输入到领域词典模型中,由于领域词典模型中包含了POI实体词典、村名词典、道路词典、以及省、市、县、乡、兴趣点等各个词典等多个词典,从而可以对上述用于表示领域的信息进行转化,得到知识向量,并保存上述知识向量。
(2)根据获取到的地址样本对象的先验知识,确定N种样本特征向量包括:获取地址样本对象的第二类先验知识,其中,第二类先验知识包括与地址样本对象匹配的属性信息,属性信息包括:地址样本对象中所包含的地址片段的词性,及地址样本对象中所包含的地址片段在地址样本对象中所在的序列位置;将第二类先验知识输入第二训练模型,得到第二样本特征向量,其中,N种样本特征向量中包括第二样本特征向量。
可选地,在本实施例中,上述第二训练模型可以为词向量训练模型,例如为连续词袋模型(Continuous Bag of Words Model,简称为CBOW)、连续跳跃式模型(ContinuousSkip-gram Model,简称为Skip-gram)和基于共现矩阵的词向量(Global Vectors forWord Representation,简称为Glove)等。
例如,继续结合物流分拣的过程进行说明。在获取到先验知识为属性信息例如为词性、字词数、句中位置等信息时,将获取到的先验知识输入到词向量训练模型中,例如输入到CBOW模型中,并使用CBOW模型对上述先验知识进行转化,获取到经CBOW转换后得到的融合词向量,并保存上述融合词向量。
(3)根据获取到的地址样本对象的先验知识,确定N种样本特征向量包括:获取地址样本对象的第三类先验知识,其中,第三类先验知识包括地址样本对象中所包含的每个文字的字结构信息,字结构信息包括:与文字对应的上下文信息,及文字的内部结构信息;将第三类先验知识输入第三训练模型,得到第三样本特征向量,其中,N种样本特征向量中包括第三样本特征向量。
可选地,在本实施例中,上述第三训练模型可以但不限于为JWE模型
例如,继续结合物流分拣的过程进行说明。在获取到先验知识为含义信息与形状信息(形状信息可以为偏旁部首、笔画数等)时,将获取到的上述先验知识输入到IWE模型中,经上述IWE模型转换后得到形态字向量,并保存上述形态字向量。
可选地,在获取到第一样本特征向量、第二样本特征向量、第三样本特征向量之后,将上述第一样本特征向量、第二样本特征向量、第三样本特征向量进行拼接,得到拼接特征向量,并将拼接特征向量输入到地址识别网络模型中。上述拼接方法可以为将上述第一样本特征向量、第二样本特征向量、第三样本特征向量按顺序首尾相连,得到拼接特征向量。
例如,继续结合上述物流分拣的过程进行说明。在得到上述第一样本特征向量、融合词向量、形态字向量之后,将第一样本特征向量、融合词向量、形态字向量首尾相连,得到拼接特征向量。拼接特征向量可以表现为:第一样本特征向量-融合次向量-形态字向量。
可选地,将拼接特征向量输入初始地址识别网络模型进行深度学习包括:将拼接特征向量通过嵌入层输入初始地址识别网络模型,其中,初始地址识别网络模型中包括双层双向长短期记忆网络(Long Short-Term Memory,简称为BiLSTM)结构。
例如,继续结合上述物流分拣的过程进行说明。在获取到上述知识向量、融合词向量、形态字向量之后,需要将上述知识向量、融合词向量、形态字向量进行拼接,得到拼接特征向量,并将拼接特征向量输入到地址识别网络模型中。如图5所示,将地址片段序列与地址片段序列的拼接特征向量输入到地址网络识别模型中进行识别,可以识别得到各个地址片段序列的地址角色标签。
可选地,在将拼接特征向量输入初始地址识别网络模型进行深度学习之前,还包括:构建初始地址识别网络模型,其中,在双层双向长短期记忆网络结构之间配置有跨层跳跃连接,跨层跳跃连接中设置有用于控制在双层双向长短期记忆网络结构之间进行数据传递的门限函数。
例如,继续结合上述物流分拣的过程进行说明。上述跨层跳跃连接可以为skip连接。如图5所示,由于地址识别网络模型具有双层BiLSTM结构,因此存在梯度消失的风险。为了避免BiLSTM层数的加深而造成梯度消失,因此,在跨层间添加一个skip连接,来防止梯度消失。
通过本实施例,通过与地址样本对象对应的先验知识来训练特征向量,根据特征向量得到多个拼接特征向量,并对拼接特征向量进行深度学习,得到网络模型,并将上述地址片段序列输入到上述网络模型中,得到地址角色标签序列,从而可以根据地址样本对象所生成的特征向量对网络模型进行训练,达到了提高获取的地址角色标签序列的准确性的效果。
作为一种可选的实施方案,上述装置还包括:
(1)确定单元,用于在获取对待识别的地址文本进行切分后所得到的地址片段序列之前,根据获取到的地址样本对象的先验知识,确定N种样本特征向量;
(2)第三获取单元,用于将确定出的N种样本特征向量进行拼接,得到拼接特征向量;
可选地,上述先验知识可以为地址样本对象的领域信息、属性信息(属性信息包含地址片段的词性、字词数、句中位置等)、含义信息与形状信息(形状信息包含偏旁部首、笔画数等)等。在获取到上述的地址样本对象后,根据地址样本对象的各项信息,获取到多种样本特征向量,以及将获取到的多种样本进行拼接,得到拼接特征向量。在获取到拼接特征向量之后,将上述拼接特征向量输入到地址识别网络模型中,即可获取到每一个地址片段的地址角色标签。
如图4所示,在获取到地址样本对象后,获取地址样本对象的领域信息、属性信息与结构信息,在获取到上述信息后,将上述信息输入到各自对应的训练模型中,并进行训练,得到样本特征向量,并将样本特征向量进行拼接,得到拼接样本特征向量,并将获取到的拼接样本特征向量输入到地址识别网络模型中。
通过本实施例,通过在获取地址分段序列之前,根据地址样本对象的先验知识,得到拼接特征向量,以及根据拼接特征向量对地址识别网络模型进行深度学习,从而达到了提高地址识别准确度的效果。
作为一种可选的实施方案,上述确定单元包括:
(1)第一获取模块,用于获取地址样本对象的第一类先验知识,其中,第一类先验知识包括地址样本对象所在领域的领域信息;
(2)第一输入模块,用于将第一类先验知识输入第一训练模型,得到第一样本特征向量,其中,N种样本特征向量包括第一样本特征向量。
可选地,上述第一训练模型可以为领域词典模型,上述领域词典模型中包含了POI实体词典、村名词典、道路词典、以及省、市、县、乡、兴趣点等各个词典。
例如,继续结合物流分拣的过程进行说明。在获取到的先验知识为用于表示地址样本对象所在的领域的信息时,将获取到的上述用于表示领域的信息输入到领域词典模型中,由于领域词典模型中包含了POI实体词典、村名词典、道路词典、以及省、市、县、乡、兴趣点等各个词典等多个词典,从而可以对上述用于表示领域的信息进行转化,得到知识向量,并保存上述知识向量。如图6所示,领域此案中包括POI实体词典、村词典、道路词典、乡镇词典、商圈词典、行政区划词典等。每一个词典中都记录着多条信息。在获取到地址样本对象的领域信息后,从领域词典中搜索上述地址样本对象的领域信息,若搜索到上述地址样本对象的领域信息,则根据领域词典中记录的转化方式,将上述地址样本对象的领域信息转化成知识向量。
通过本实施例,通过获取地址样本对象的领域信息,并将上述领域信息输入到第一训练模型中,并得到第一样本特征向量,从而可以根据得到的第一样本特征向量对地址识别网络模型进行训练,从而提高了网络地址识别模型的准确率。
作为一种可选的实施方案,上述确定单元包括:
(1)第二获取模块,用于获取地址样本对象的第二类先验知识,其中,第二类先验知识包括与地址样本对象匹配的属性信息,属性信息包括:地址样本对象中所包含的地址片段的词性,及地址样本对象中所包含的地址片段在地址样本对象中所在的序列位置;
(2)第二输入模块,用于将第二类先验知识输入第二训练模型,得到第二样本特征向量,其中,N种样本特征向量包括第二样本特征向量。
可选地,在本实施例中,上述第二训练模型可以为词向量训练模型,例如为连续词袋模型(Continuous Bag of Words Model,简称为CBOW)、连续跳跃式模型(ContinuousSkip-gram Model,简称为Skip-gram)和基于共现矩阵的词向量(Global Vectors forWord Representation,简称为Glove)等。
例如,继续结合物流分拣的过程进行说明。在获取到先验知识为属性信息例如为词性、字词数、句中位置等信息时,将获取到的先验知识输入到词向量训练模型中,使用词向量训练模型对上述先验知识进行转化,获取到经词向量训练模型转换后得到的融合词向量,并保存上述融合词向量。
通过本实施例,通过在获取到地址样本对象的先验知识以后,获取先验知识中地址片段的词性及地址片段所在地址样本对象中的序列位置等信息,并将上述获取到的信息输入到第二训练模型中进行训练,从而达到了提高地址识别网络模型的识别准确度的效果。
作为一种可选的实施方案,上述确定单元包括:
(1)第三获取模块,用于获取地址样本对象的第三类先验知识,其中,第三类先验知识包括地址样本对象中所包含的每个文字的字结构信息,字结构信息包括:与文字对应的上下文信息,及文字的内部结构信息;
(2)第三输入模块,用于将第三类先验知识输入第三训练模型,得到第三样本特征向量,其中,N种样本特征向量包括第三样本特征向量。
可选地,上述第三训练模型可以为JWE模型,上述上下文信息可以为地址样本对象中字的含义。
例如,继续结合物流分拣的过程进行说明。在获取到先验知识为含义信息与形状信息(形状信息可以为偏旁部首、笔画数等)时,将获取到的上述先验知识输入到IWE模型中,经上述IWE模型转换后得到形态字向量,并保存上述形态字向量。
通过本实施例,通过获取到地址样本对象的文字结构信息与上下文信息之后,将上述信息输入到第三训练模型中,并经第三训练模型进行转换,得到第三样本特征,从而可以使用第三样本特征对地址识别网络模型进行训练,提高了地址识别网络模型的识别准确率。
作为一种可选的实施方案,上述输入单元包括:
(1)第四输入模块,用于将拼接特征向量通过嵌入层输入初始地址识别网络模型,其中,初始地址识别网络模型中包括双层双向长短期记忆网络结构。
例如,继续结合上述物流分拣的过程进行说明。在获取到上述知识向量、融合词向量、形态字向量之后,需要将上述知识向量、融合词向量、形态字向量进行拼接,得到拼接特征向量,并将拼接特征向量输入到地址识别网络模型中。如图5所示,将地址片段序列与地址片段序列的拼接特征向量输入到双层BiLSTM结构的地址网络识别模型中进行识别,可以识别得到各个地址片段序列的地址角色标签。可选地,可以将上述知识向量、融合词向量、形态字向量拼接成embedding层,然后输入到双层BiLSTM结构的地址网络识别模型中进行识别。
通过本实施例,通过将拼接得到的拼接特征向量输入到双层BiLSTM结构的地址识别网络模型中,并对地址识别网络模型进行训练,从而提高了地址识别网络模型的识别准确率。
作为一种可选的实施方案,上述输入单元还包括:
(1)构建模块,用于在将拼接特征向量通过嵌入层输入地址识别网络模型之前,构建初始地址识别网络模型,其中,在双层双向长短期记忆网络结构之间配置有跨层跳跃连接,跨层跳跃连接中设置有用于控制在双层双向长短期记忆网络结构之间进行数据传递的门限函数。
例如,继续结合上述物流分拣的过程进行说明。上述跨层跳跃连接可以为skip连接。如图5所示,由于地址识别网络模型具有双层BiLSTM结构,因此存在梯度消失的风险。为了避免BiLSTM层数的加深而造成梯度消失,因此,在跨层间添加一个skip连接,来防止梯度消失。
通过本实施例,通过在双层BiLSTM结构之间配置跨层跳跃连接,从而可以避免双层BiLSTM结构可能产生的梯度消失的问题,进一步提高地址识别网络模型的准确度。
作为一种可选的实施方案,上述装置还包括以下至少之一:
(1)分拣单元,用于在根据输出结果识别出与地址片段序列相匹配的地址角色标签序列之后,根据地址角色标签序列对携带地址文本的物品进行分拣;
(2)定位单元,用于在根据输出结果识别出与地址片段序列相匹配的地址角色标签序列之后,根据地址角色标签序列对输入地址文本的终端进行定位;
(3)导航单元,用于在根据输出结果识别出与地址片段序列相匹配的地址角色标签序列之后,根据地址角色标签序列对输入地址文本的终端进行导航。
例如,继续以物流分拣的过程进行说明。在获取到一个待分拣的物流物品时,识别物流物品上的地址信息,例如为北京市海淀区知春路1号院1楼1层,则将上述地址信息进行分词,分词后将拆分得到的词输入到地址识别网络模型中,并使用地址识别网络模型对上述分词进行识别,得到上述分词的地址角色标签,并根据地址角色标签,可以对上述物流物品进行分类,将需要物流到同一个地区的物品分为一类,以便提高物流效率。图7为地址识别网络模型所在的终端,终端可以输入需要识别的地址信息,并输出相关的地址角色标签信息。
或者,以定位的过程进行说明,如图8所示,在输入地址信息后,对输入的地址信息进行识别,并根据识别得到的结果定位到地图中的位置,定位结果可以如图8所示,根据输入的地址信息在地图中定位到地址信息对应的位置。
或者,以导航的过程进行说明,如图9所示,三角表示当前位置,圆圈表示目标位置,在输入地址信息后,可以将地址作为目的地址,并从地图上显示由当前地址到达目标地址的导航信息。
通过本实施例,通过根据上述地址角色标签序列执行上述各个方法,从而提高了使用上述地址角色标签序列的灵活性。
根据本发明实施例的又一个方面,还提供了一种用于实施上述地址识别方法的电子装置,如图11所示,该电子装置包括存储器1102和处理器1104,该存储器1102中存储有计算机程序,该处理器1104被设置为通过计算机程序执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述电子装置可以位于计算机网络的多个网络设备中的至少一个网络设备。
可选地,在本实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:
S1,获取对待识别的地址文本进行切分后所得到的地址片段序列;
S2,获取与地址片段序列相匹配的拼接特征向量,其中,拼接特征向量中包括N种样本特征向量,N种样本特征向量中所包含的第i种样本特征向量是利用与地址样本对象对应的第i类先验知识,通过机器训练而得到的特征向量,其中,i和N为正整数,且1≤i≤N;
S3,将拼接特征向量输入地址识别网络模型,得到地址识别网络模型所输出的输出结果,其中,地址识别网络模型为对多个训练样本进行深度学习后得到;
S4,根据输出结果识别出与地址片段序列相匹配的地址角色标签序列,其中,地址角色标签序列中包括与地址片段序列中所包含的每一个地址片段分别匹配的地址角色标签。
可选地,本领域普通技术人员可以理解,图11所示的结构仅为示意,电子装置也可以是智能手机(如Android手机、iOS手机等)、平板电脑、掌上电脑以及移动互联网设备(Mobile Internet Devices,MID)、PAD等终端设备。图11其并不对上述电子装置的结构造成限定。例如,电子装置还可包括比图11中所示更多或者更少的组件(如网络接口、显示装置等),或者具有与图11所示不同的配置。
其中,存储器1102可用于存储软件程序以及模块,如本发明实施例中的地址识别方法和装置对应的程序指令/模块,处理器1104通过运行存储在存储器1102内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的地址识别方法。存储器1102可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器1102可进一步包括相对于处理器1104远程设置的存储器,这些远程存储器可以通过网络连接至终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
其中,具体地,存储器1102用于存储地址文本、地址片段序列、地址识别网络模型等。作为一种示例,如图11所示,上述存储器1202中可以但不限于包括上述地址识别装置中的第一获取单元1002、第二获取单元1004、输入单元1006及识别单元1008。此外,还可以包括但不限于上述地址识别装置中的其他模块单元,本示例中不再赘述。
可选地,上述的传输装置1106用于经由一个网络接收或者发送数据。上述的网络具体实例可包括有线网络及无线网络。在一个实例中,传输装置1106包括一个网络适配器(Network Interface Controller,简称为NIC),其可通过网线与其他网络设备与路由器相连从而可与互联网或局域网进行通讯。在一个实例中,传输装置1106为射频(RadioFrequency,简称为RF)模块,其用于通过无线方式与互联网进行通讯。此外,上述电子装置还包括:显示器1108,用于显示与地址片段序列相匹配的地址角色标签序列;和连接总线1110,用于连接上述电子装置中的各个模块部件。
本发明的实施例还提供了一种存储介质,该存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,获取对待识别的地址文本进行切分后所得到的地址片段序列;
S2,获取与地址片段序列相匹配的拼接特征向量,其中,拼接特征向量中包括N种样本特征向量,N种样本特征向量中所包含的第i种样本特征向量是利用与地址样本对象对应的第i类先验知识,通过机器训练而得到的特征向量,其中,i和N为正整数,且1≤i≤N;
S3,将拼接特征向量输入地址识别网络模型,得到地址识别网络模型的输出结果,其中,地址识别网络模型为对多个训练样本进行深度学习后得到;
S4,根据输出结果识别出与地址片段序列相匹配的地址角色标签序列,其中,地址角色标签序列中包括与地址片段序列中所包含的每一个地址片段分别匹配的地址角色标签。
可选地,在本实施例中,上述存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,根据获取到的地址样本对象的先验知识,确定N种样本特征向量;
S2,将确定出的N种样本特征向量进行拼接,得到拼接特征向量。
可选地,在本实施例中,上述存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,获取地址样本对象的第一类先验知识,其中,第一类先验知识包括地址样本对象所在领域的领域信息;
S2,将第一类先验知识输入第一训练模型,得到第一样本特征向量,其中,N种样本特征向量包括第一样本特征向量。
可选地,在本实施例中,上述存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,获取地址样本对象的第二类先验知识,其中,第二类先验知识包括与地址样本对象匹配的属性信息,属性信息包括:地址样本对象中所包含的地址片段的词性,及地址样本对象中所包含的地址片段在地址样本对象中所在的序列位置;
S2,将第二类先验知识输入第二训练模型,得到第二样本特征向量,其中,N种样本特征向量包括第二样本特征向量。
可选地,在本实施例中,上述存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,获取地址样本对象的第三类先验知识,其中,第三类先验知识包括地址样本对象中所包含的每个文字的字结构信息,字结构信息包括:与文字对应的上下文信息,及文字的内部结构信息;
S2,将第三类先验知识输入第三训练模型,得到第三样本特征向量,其中,N种样本特征向量包括第三样本特征向量。
可选地,在本实施例中,上述存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,将拼接特征向量通过嵌入层输入初始地址识别网络模型,其中,初始地址识别网络模型中包括双层双向长短期记忆网络结构。
可选地,在本实施例中,上述存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,构建初始地址识别网络模型,其中,在双层双向长短期记忆网络结构之间配置有跨层跳跃连接,跨层跳跃连接中设置有用于控制在双层双向长短期记忆网络结构之间进行数据传递的门限函数。
可选地,在本实施例中,上述存储介质可以被设置为存储用于执行以下步骤的计算机程序:
(1)根据地址角色标签序列对携带地址文本的物品进行分拣;
(2)根据地址角色标签序列对输入地址文本的终端进行定位;
(3)根据地址角色标签序列对输入地址文本的终端进行导航。
可选地,在本实施例中,本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(Read-Only Memory,简称为ROM)、随机存取器(Random Access Memory,简称为RAM)、磁盘或光盘等。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
上述实施例中的集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在上述计算机可读取的存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在存储介质中,包括若干指令用以使得一台或多台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的客户端,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (11)
1.一种地址识别方法,其特征在于,包括:
获取对待识别的地址文本进行切分后所得到的地址片段序列;
获取与所述地址片段序列相匹配的拼接特征向量,其中,所述拼接特征向量中包括N种样本特征向量,所述N种样本特征向量中所包含的第i种样本特征向量是利用与地址样本对象对应的第i类先验知识,通过机器训练而得到的特征向量,其中,i和N为正整数,且1≤i≤N;
将所述拼接特征向量输入地址识别网络模型,得到所述地址识别网络模型的输出结果,其中,所述地址识别网络模型为对多个训练样本进行深度学习后得到;
根据所述输出结果识别出与所述地址片段序列相匹配的地址角色标签序列,其中,所述地址角色标签序列中包括与所述地址片段序列中所包含的每一个地址片段分别匹配的地址角色标签;
在所述获取对待识别的地址文本进行切分后所得到的地址片段序列之前,还包括:
获取地址样本对象的第一类先验知识,其中,所述第一类先验知识包括所述地址样本对象所在领域的领域信息;将所述第一类先验知识输入领域词典模型,得到第一样本特征向量,其中,所述领域词典模型用于将用于表示领域的信息进行转化,以得到知识向量;
根据获取到的所述地址样本对象的先验知识,确定所述N种样本特征向量;将确定出的所述N种样本特征向量进行拼接,得到所述拼接特征向量。
2.根据权利要求1所述的方法,其特征在于,所述根据获取到的所述地址样本对象的先验知识,确定所述N种样本特征向量包括:
获取所述地址样本对象的第二类先验知识,其中,所述第二类先验知识包括与所述地址样本对象匹配的属性信息,所述属性信息包括:所述地址样本对象中所包含的地址片段的词性,及所述地址样本对象中所包含的地址片段在所述地址样本对象中所在的序列位置;
将所述第二类先验知识输入第二训练模型,得到第二样本特征向量,其中,所述N种样本特征向量包括所述第二样本特征向量。
3.根据权利要求1所述的方法,其特征在于,所述根据获取到的所述地址样本对象的先验知识,确定所述N种样本特征向量包括:
获取所述地址样本对象的第三类先验知识,其中,所述第三类先验知识包括所述地址样本对象中所包含的每个文字的字结构信息,所述字结构信息包括:与所述文字对应的上下文信息,及所述文字的内部结构信息;
将所述第三类先验知识输入第三训练模型,得到第三样本特征向量,其中,所述N种样本特征向量包括所述第三样本特征向量。
4.根据权利要求1所述的方法,其特征在于,所述将所述拼接特征向量输入地址识别网络模型包括:
将所述拼接特征向量通过嵌入层输入所述地址识别网络模型,其中,所述地址识别网络模型中包括双层双向长短期记忆网络结构。
5.根据权利要求4所述的方法,其特征在于,在所述将所述拼接特征向量通过嵌入层输入所述地址识别网络模型之前,还包括:
构建所述地址识别网络模型,其中,在所述双层双向长短期记忆网络结构之间配置有跨层跳跃连接,所述跨层跳跃连接中设置有用于控制在所述双层双向长短期记忆网络结构之间进行数据传递的门限函数。
6.一种地址识别装置,其特征在于,包括:
第一获取单元,用于获取对待识别的地址文本进行切分后所得到的地址片段序列;
第二获取单元,用于获取与所述地址片段序列相匹配的拼接特征向量,其中,所述拼接特征向量中包括N种样本特征向量,所述N种样本特征向量中所包含的第i种样本特征向量是利用与地址样本对象对应的第i类先验知识,通过机器训练而得到的特征向量,其中,i和N为正整数,且1≤i≤N;
输入单元,用于将所述拼接特征向量输入地址识别网络模型,得到所述地址识别网络模型的输出结果,其中,所述地址识别网络模型为对多个训练样本进行深度学习后得到;
识别单元,用于根据所述输出结果识别出与所述地址片段序列相匹配的地址角色标签序列,其中,所述地址角色标签序列中包括与所述地址片段序列中所包含的每一个地址片段分别匹配的地址角色标签;
其中,所述第一获取单元还用于在所述获取对待识别的地址文本进行切分后所得到的地址片段序列之前,获取地址样本对象的第一类先验知识,其中,所述第一类先验知识包括所述地址样本对象所在领域的领域信息;将所述第一类先验知识输入领域词典模型,得到第一样本特征向量,其中,所述领域词典模型用于将用于表示领域的信息进行转化,以得到知识向量;根据获取到的所述地址样本对象的先验知识,确定所述N种样本特征向量;将确定出的所述N种样本特征向量进行拼接,得到所述拼接特征向量。
7.根据权利要求6所述的装置,其特征在于,所述地址识别装置包括:
第二获取模块,用于获取所述地址样本对象的第二类先验知识,其中,所述第二类先验知识包括与所述地址样本对象匹配的属性信息,所述属性信息包括:所述地址样本对象中所包含的地址片段的词性,及所述地址样本对象中所包含的地址片段在所述地址样本对象中所在的序列位置;
第二输入模块,用于将所述第二类先验知识输入第二训练模型,得到第二样本特征向量,其中,所述N种样本特征向量包括所述第二样本特征向量。
8.根据权利要求6所述的装置,其特征在于,所述地址识别装置包括:
第三获取模块,用于获取所述地址样本对象的第三类先验知识,其中,所述第三类先验知识包括所述地址样本对象中所包含的每个文字的字结构信息,所述字结构信息包括:与所述文字对应的上下文信息,及所述文字的内部结构信息;
第三输入模块,用于将所述第三类先验知识输入第三训练模型,得到第三样本特征向量,其中,所述N种样本特征向量包括所述第三样本特征向量。
9.根据权利要求6所述的装置,其特征在于,所述输入单元包括:
第四输入模块,用于将所述拼接特征向量通过嵌入层输入所述地址识别网络模型,其中,所述地址识别网络模型中包括双层双向长短期记忆网络结构。
10.根据权利要求9所述的装置,其特征在于,所述输入单元还包括:
构建模块,用于在所述将所述拼接特征向量输入地址识别网络模型之前,构建所述地址识别网络模型,其中,在所述双层双向长短期记忆网络结构之间配置有跨层跳跃连接,所述跨层跳跃连接中设置有用于控制在所述双层双向长短期记忆网络结构之间进行数据传递的门限函数。
11.一种存储介质,其特征在于,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行所述权利要求1至5任一项中所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810627403.7A CN108920457B (zh) | 2018-06-15 | 2018-06-15 | 地址识别方法和装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810627403.7A CN108920457B (zh) | 2018-06-15 | 2018-06-15 | 地址识别方法和装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108920457A CN108920457A (zh) | 2018-11-30 |
CN108920457B true CN108920457B (zh) | 2022-01-04 |
Family
ID=64421169
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810627403.7A Active CN108920457B (zh) | 2018-06-15 | 2018-06-15 | 地址识别方法和装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108920457B (zh) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111382554A (zh) * | 2018-12-11 | 2020-07-07 | 顺丰科技有限公司 | 一种楼层信息提取方法及系统 |
CN111723164B (zh) * | 2019-03-18 | 2023-12-12 | 阿里巴巴集团控股有限公司 | 地址信息的处理方法和装置 |
CN110197284B (zh) * | 2019-04-30 | 2024-05-14 | 腾讯科技(深圳)有限公司 | 一种虚假地址识别方法、装置及设备 |
CN113076746B (zh) * | 2020-01-06 | 2024-05-31 | 阿里巴巴集团控股有限公司 | 数据处理方法和系统、存储介质及计算设备 |
CN113111164A (zh) * | 2020-02-13 | 2021-07-13 | 北京明亿科技有限公司 | 基于深度学习模型接处警文本居住地信息提取方法和装置 |
CN113111170A (zh) * | 2020-02-13 | 2021-07-13 | 北京明亿科技有限公司 | 基于深度学习模型接处警文本轨迹地信息提取方法和装置 |
CN111522901B (zh) * | 2020-03-18 | 2023-10-20 | 大箴(杭州)科技有限公司 | 文本中地址信息的处理方法及装置 |
CN111737383B (zh) * | 2020-05-21 | 2021-11-23 | 百度在线网络技术(北京)有限公司 | 提取地理位置点空间关系的方法、训练提取模型的方法及装置 |
CN111611801B (zh) * | 2020-06-02 | 2021-09-14 | 腾讯科技(深圳)有限公司 | 一种识别文本地域属性的方法、装置、服务器及存储介质 |
CN111783419B (zh) * | 2020-06-12 | 2024-02-27 | 上海东普信息科技有限公司 | 地址相似度计算方法、装置、设备和存储介质 |
CN112329467B (zh) * | 2020-11-03 | 2022-09-30 | 腾讯科技(深圳)有限公司 | 地址识别方法、装置、电子设备以及存储介质 |
CN112488103B (zh) * | 2020-11-30 | 2024-10-15 | 上海寻梦信息技术有限公司 | 地址信息抽取方法、模型训练方法及相关设备 |
CN112488194B (zh) * | 2020-11-30 | 2024-07-26 | 上海寻梦信息技术有限公司 | 地址缩略语生成方法、模型训练方法及相关设备 |
CN113033633B (zh) * | 2021-03-12 | 2022-12-09 | 贵州电网有限责任公司 | 一种结合电力指纹知识和神经网络的设备类型识别方法 |
CN113192534A (zh) * | 2021-03-23 | 2021-07-30 | 汉海信息技术(上海)有限公司 | 地址搜索方法、装置、电子设备及存储介质 |
CN113254639A (zh) * | 2021-05-24 | 2021-08-13 | 珠海大横琴科技发展有限公司 | 一种监控报警定位跟踪方法、装置及电子设备 |
CN113569045A (zh) * | 2021-07-13 | 2021-10-29 | 网易传媒科技(北京)有限公司 | 对象文本中地点识别方法、装置、电子设备及存储介质 |
CN113535880B (zh) * | 2021-09-16 | 2022-02-25 | 阿里巴巴达摩院(杭州)科技有限公司 | 地理信息确定方法、装置、电子设备及计算机存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105468742A (zh) * | 2015-11-25 | 2016-04-06 | 小米科技有限责任公司 | 恶意订单识别方法及装置 |
CN106557462A (zh) * | 2016-11-02 | 2017-04-05 | 数库(上海)科技有限公司 | 命名实体识别方法和系统 |
CN106844632A (zh) * | 2017-01-20 | 2017-06-13 | 清华大学 | 基于改进支持向量机的产品评论情感分类方法及装置 |
CN107506414A (zh) * | 2017-08-11 | 2017-12-22 | 武汉大学 | 一种基于长短期记忆网络的代码推荐方法 |
CN107526967A (zh) * | 2017-07-05 | 2017-12-29 | 阿里巴巴集团控股有限公司 | 一种风险地址识别方法、装置以及电子设备 |
CN108090044A (zh) * | 2017-12-05 | 2018-05-29 | 五八有限公司 | 联系方式的识别方法和装置 |
CN108133436A (zh) * | 2017-11-23 | 2018-06-08 | 科大讯飞股份有限公司 | 自动判案方法及系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103440311A (zh) * | 2013-08-27 | 2013-12-11 | 深圳市华傲数据技术有限公司 | 一种地名实体识别的方法及系统 |
CN104899304B (zh) * | 2015-06-12 | 2018-02-16 | 北京京东尚科信息技术有限公司 | 命名实体识别方法及装置 |
CN105630765A (zh) * | 2015-12-21 | 2016-06-01 | 浙江万里学院 | 地名地址识别方法 |
-
2018
- 2018-06-15 CN CN201810627403.7A patent/CN108920457B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105468742A (zh) * | 2015-11-25 | 2016-04-06 | 小米科技有限责任公司 | 恶意订单识别方法及装置 |
CN106557462A (zh) * | 2016-11-02 | 2017-04-05 | 数库(上海)科技有限公司 | 命名实体识别方法和系统 |
CN106844632A (zh) * | 2017-01-20 | 2017-06-13 | 清华大学 | 基于改进支持向量机的产品评论情感分类方法及装置 |
CN107526967A (zh) * | 2017-07-05 | 2017-12-29 | 阿里巴巴集团控股有限公司 | 一种风险地址识别方法、装置以及电子设备 |
CN107506414A (zh) * | 2017-08-11 | 2017-12-22 | 武汉大学 | 一种基于长短期记忆网络的代码推荐方法 |
CN108133436A (zh) * | 2017-11-23 | 2018-06-08 | 科大讯飞股份有限公司 | 自动判案方法及系统 |
CN108090044A (zh) * | 2017-12-05 | 2018-05-29 | 五八有限公司 | 联系方式的识别方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN108920457A (zh) | 2018-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108920457B (zh) | 地址识别方法和装置及存储介质 | |
JP6894534B2 (ja) | 情報処理方法及び端末、コンピュータ記憶媒体 | |
CN111832447B (zh) | 建筑图纸构件识别方法、电子设备及相关产品 | |
CN103995889A (zh) | 图片分类方法及装置 | |
CN111428493A (zh) | 实体关系获取方法、装置、设备及存储介质 | |
CN111522901B (zh) | 文本中地址信息的处理方法及装置 | |
CN102831200A (zh) | 一种基于图像文字识别的商品推送方法和装置 | |
CN111125491A (zh) | 商品信息的搜索方法和装置、存储介质及电子装置 | |
CN107729453B (zh) | 一种提取中心产品词的方法和装置 | |
CN110110213B (zh) | 挖掘用户职业的方法、装置、计算机可读存储介质和终端设备 | |
CN110580489B (zh) | 一种数据对象的分类系统、方法以及设备 | |
CN112508078B (zh) | 图像多任务多标签识别方法、系统、设备及介质 | |
CN106250916B (zh) | 一种筛选图片的方法、装置及终端设备 | |
CN111931002A (zh) | 一种匹配方法以及相关设备 | |
CN112070093B (zh) | 生成图像分类模型的方法、图像分类方法、装置和设备 | |
CN110781204A (zh) | 目标对象的标识信息确定方法、装置、设备及存储介质 | |
CN110232131A (zh) | 基于创意标签的创意素材搜索方法及装置 | |
CN110717312B (zh) | 一种文本标注方法及装置 | |
Risnumawan et al. | Text detection in low resolution scene images using convolutional neural network | |
CN114626380A (zh) | 实体识别的方法和装置、电子设备和存储介质 | |
CN109871891A (zh) | 一种物体识别方法、装置和存储介质 | |
CN112417996A (zh) | 工业图纸的信息处理方法、装置、电子设备和存储介质 | |
CN114972910A (zh) | 图文识别模型的训练方法、装置、电子设备及存储介质 | |
CN114049174A (zh) | 用于商品推荐的方法及装置、电子设备、存储介质 | |
CN110489563B (zh) | 图结构的表示方法、装置、设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |