CN110781195A - 一种兴趣点信息更新的系统、方法和装置 - Google Patents
一种兴趣点信息更新的系统、方法和装置 Download PDFInfo
- Publication number
- CN110781195A CN110781195A CN201910764752.8A CN201910764752A CN110781195A CN 110781195 A CN110781195 A CN 110781195A CN 201910764752 A CN201910764752 A CN 201910764752A CN 110781195 A CN110781195 A CN 110781195A
- Authority
- CN
- China
- Prior art keywords
- picture
- pictures
- group
- interest
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/23—Updating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Remote Sensing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请属于数据处理技术领域,公开了一种兴趣点信息更新的系统、方法和装置,本申请公开的一种兴趣点信息更新的方法包括,获取在指定区域内拍摄的图片集合,并分别对每一图片进行分析识别,获得相应的目标文本区域以及目标文本;根据各图片的目标文本区域的相似度和图片拍摄顺序,将各图片进行分组,并分别确定每组图片对应的兴趣点,进而根据各组图片的兴趣点,对地图数据库中指定区域的兴趣点信息进行更新。这样,减少了兴趣点更新时的编辑操作,提高了兴趣点更新的效率。
Description
技术领域
本申请涉及数据处理技术领域,尤其涉及一种兴趣点信息更新的系统、方法和装置。
背景技术
兴趣点(Point of Interest,POI)即电子地图上的某个地标或景点等,用以标示出该地所代表的政府部门、商业机构、旅游景点、古迹名胜以及交通设施等。在地理信息系统中,一个POI可以是一栋房子、一个商铺、一个邮筒以及一个公交站等。
现有技术下,通常采用众包采集兴趣点的图片和相关信息的方式更新兴趣点信息。具体的,用户领取采集任务后,将拍摄的图片以及编辑的相关信息提交至服务器。服务器确定拍摄的图片和相关信息审核通过后,根据拍摄的图片和相关信息,对地图数据库中存储的兴趣点信息进行更新。其中,众包是一种特定的获取资源的模式,在该模式下,个人或组织可以通过网络用户获取需要的服务或想法。
但是,人工编辑信息使得兴趣点信息更新的操作步骤复杂,采集效率较低,并存在漏编率较高的问题,这会耗费大量的时间和成本。
由此,如何简化兴趣点信息更新的操作步骤,提高信息采集效率,降低漏编率,是一个亟待解决的问题。
发明内容
本申请实施例提供一种兴趣点信息更新的系统、方法和装置,用以在更新兴趣点信息时,简化了兴趣点更新的操作步骤,提高兴趣点更新的效率,降低漏编率。
一方面,一种兴趣点更新的系统,包括终端和控制设备,其中,
终端,用于响应于针对领取任务页面的触发操作,跳转至任务拍摄页面,并响应于针对任务拍摄页面的拍摄操作,获得在指定区域内拍摄的图片的图片集合,以及将图片集合提交至控制设备;当接收到控制设备返回的一组图片时,根据用户的编辑操作将该组图片的兴趣点信息提交至控制设备;
控制设备,用于对图片集合中的各图片进行分析识别,分别确定每一图片包含的目标文本区域以及目标文本;根据提取的各图片的特征信息,分别确定每一图片的目标文本区域与关联图片的目标文本区域之间的相似度;按照获取的各图片的拍摄顺序和目标文本区域的相似度,将各图片进行分组,;分别根据每一组图片的各目标文本,确定相应的兴趣点,并当地图数据库的指定区域中包含该组图片的兴趣点时,根据当前时间,更新该组图片的兴趣点对应的兴趣点信息;当地图数据库的指定区域中不包含该组图片的兴趣点时,将该组图片返回至终端;
其中,一组图片中任意相邻的两张图片的目标文本区域的相似度高于预设相似度门限值。
一方面,提供一种兴趣点信息更新的方法,包括:
对获取的图片集合中的各图片进行分析识别,分别确定每一图片包含的目标文本区域以及目标文本,图片集合为终端响应于针对领取任务页面的触发操作,跳转至任务拍摄页面,并响应于针对任务拍摄页面的拍摄操作,获得并提交的在指定区域内拍摄的图片的集合;
根据提取的各图片的特征信息,分别确定每一图片的目标文本区域与关联图片的目标文本区域之间的相似度;
按照获取的各图片的拍摄顺序和目标文本区域的相似度,将各图片进行分组,其中,一组图片中任意相邻的两张图片的目标文本区域的相似度高于预设相似度门限值;
分别根据每一组图片的各目标文本,确定相应的兴趣点;
当地图数据库的指定区域中包含该组图片的兴趣点时,根据当前时间,更新该组图片的兴趣点对应的兴趣点信息;当地图数据库的指定区域中不包含该组图片的兴趣点时,将该组图片返回至终端,使得终端根据用户的编辑操作提交该组图片的兴趣点信息。
一方面,提供一种兴趣点信息更新的装置,包括:
识别单元,用于对获取的图片集合中的各图片进行分析识别,分别确定每一图片包含的目标文本区域以及目标文本,图片集合为终端响应于针对领取任务页面的触发操作,跳转至任务拍摄页面,并响应于针对任务拍摄页面的拍摄操作,获得并提交的在指定区域内拍摄的图片的集合;
第一确定单元,用于根据提取的各图片的特征信息,分别确定每一图片的目标文本区域与关联图片的目标文本区域之间的相似度;
划分单元,用于按照获取的各图片的拍摄顺序和目标文本区域的相似度,将各图片进行分组,其中,一组图片中任意相邻的两张图片的目标文本区域的相似度高于预设相似度门限值;
第二确定单元,用于分别根据每一组图片的各目标文本,确定相应的兴趣点;
更新单元,用于当地图数据库的指定区域中包含该组图片的兴趣点时,根据当前时间,更新该组图片的兴趣点对应的兴趣点信息;当地图数据库的指定区域中不包含该组图片的兴趣点时,将该组图片返回至终端,使得终端根据用户的编辑操作提交该组图片的兴趣点信息。
较佳的,识别单元用于:
分别针对每一图片,执行以下步骤:
对该图片进行文字识别,获得该图片中包含的文本区域,以及每一文本区域中包含的文字;
将该图片中符合预设合并条件的文本区域进行合并,预设合并条件是根据文本区域之间的重叠区域确定的;
按照预设筛选条件,对各文本区域进行筛选,预设筛选条件是根据文本区域的像素确定的;
根据预设拆分规则,对各文本区域进行拆分,获得该图片的目标文本区域以及目标文本,预设拆分规则是根据文本区域的颜色直方图确定的。
较佳的,识别单元用于:
在该图片的各文本区域中,筛选出该图片的指定核心区域中不低于第一预设像素门限值的文本区域;
在该图片的各文本区域中,筛选出该图片的非指定核心区域中不低于第二预设像素门限值的文本区域。
较佳的,识别单元用于:
分别针对每一文本区域,执行以下步骤:
检测该文本区域中包含的边缘直线,边缘直线为两侧的颜色不同的直线;
根据获取的边缘直线,将该文本区域进行划分,获得划分后的各子区域;
分别确定每一子区域的颜色直方图,并计算相邻子区域的颜色直方图距离;
根据颜色直方图距离,将该文本区域进行拆分,获得拆分后的文本区域。
较佳的,每个图片的关联图片包括图片集合中,与该图片拍摄时间邻近的指定数量的图片。
较佳的,第一确定单元用于:
分别提取每一图片的特征信息,特征信息包括特征点以及特征点的特征向量;
根据各图片中各特征点的特征向量,分别获得每一对图片之间匹配的特征点,一对图片包括一个图片和一个关联图片;
分别剔除每一对图片中的万能匹配点,万能匹配点为图片中与关联图片中指定数量的关联特征点的各距离之间的距离比值均位于预设距离比值范围的特征点,关联特征点为与万能匹配点距离最近的指定数量的特征点;
分别对每一对图片的匹配的特征点进行分类去噪处理,确定该对图片中目标文本区域中分类去噪后的特征点的匹配特征点对数量;
分别根据每一对图片筛选后的匹配特征点对数量,确定相应的相似度。
较佳的,划分单元用于:
分别针对每一组图片,执行以下步骤:将该组图片对应的各目标文本合并,并将合并后的目标文本确定为该组图片指示的兴趣点。
一方面,提供一种控制设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行程序时执行上述任一种兴趣点信息更新的方法的步骤。
一方面,提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述任一种兴趣点信息更新的方法的步骤。
本申请实施例提供的一种兴趣点信息更新的系统、方法和装置中,获取在指定区域内拍摄的图片集合,并分别对每一图片进行分析识别,获得相应的目标文本区域以及目标文本;根据各图片的目标文本区域的相似度和图片拍摄顺序,将各图片进行分组,并分别确定每组图片对应的兴趣点,进而根据各组图片的兴趣点,对地图数据库中指定区域的兴趣点信息进行更新。这样,减少了兴趣点更新时的编辑操作,提高了兴趣点更新的效率,降低了漏编率。
本申请的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本申请而了解。本申请的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本申请实施方式中一种兴趣点信息更新的系统架构示意图;
图2为本申请实施方式中一种兴趣点信息更新的方法的实施流程图;
图3a为本申请实施方式中一种领取任务业务页面的示例图;
图3b为本申请实施方式中一种任务拍摄界面示例图;
图3c为本申请实施方式中一种文本区域合并的示例图;
图3d为本申请实施方式中一种文本区域筛选的示例图;
图3e为本申请实施方式中一种文本区域拆分的示例图;
图4为本申请实施方式中一种兴趣点信息更新的方法的详细实施流程图;
图5为本申请实施方式中一种兴趣点信息更新的装置的结构示意图;
图6为本申请实施方式中一种控制设备的结构示意图。
具体实施方式
为了使本申请的目的、技术方案及有益效果更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
首先,对本申请实施例中涉及的部分用语进行说明,以便于本领域技术人员理解。
终端:可以安装各类应用,并且能够将已安装的应用中提供的对象进行显示的设备,可以是移动的,也可以是固定的。例如,手机、平板电脑、各类可穿戴设备、车载设备、个人数字助理(personal digital assistant,PDA)、销售终端(point of sales,POS)或其它能够实现上述功能的电子设备等。
POI:电子地图上的某个地标或景点等,用以标示出该地所代表的政府部门、商业机构、旅游景点、古迹名胜以及交通设施等。在地理信息系统中,一个POI可以是一栋房子、一个商铺、一个邮筒以及一个公交站等。
光学字符识别(Optical Character Recognition,OCR):是指电子设备(例如扫描仪或数码相机)检查纸上打印的字符,通过检测暗、亮的模式确定其形状,然后用字符识别方法将形状翻译成计算机文字的过程。
颜色直方图:是在许多图像检索系统中被广泛采用的颜色特征。它所描述的是不同色彩在整幅图像中所占的比例,而并不关心每种色彩所处的空间位置,即无法描述图像中的对象或物体。颜色直方图特别适于描述那些难以进行自动分割的图像。
灰度直方图:是关于灰度级分布的函数,是对图像中灰度级分布的统计。灰度直方图是将数字图像中的所有像素,按照灰度值的大小,统计其出现的频率。灰度直方图是灰度级的函数,它表示图像中具有某种灰度级的像素的个数,反映了图像中某种灰度出现的频率。
尺度不变特征转换即(Scale-invariant feature transform,SIFT):用来侦测与描述影像中的局部性特征,在空间尺度中寻找极值点,并提取出其位置、尺度、旋转不变量。
仿射尺度不变特征转换(Affine Scale-invariant feature transform,ASIFT)算法:为了解决SIFT等特征描述算子倾斜匹配的问题,对图像进行模拟,模拟所有可能的仿射扭曲,然后对模拟图像进行SIFT特征点匹配。
图片的关联图片:每个图片的关联图片为图片集合中与该图片拍摄时间邻近的指定数量的图片。
下面介绍本申请实施例的设计思想。
随着互联网技术和智能终端技术的发展,地图服务已经越来越普及。为了更好的为用户提供地图服务,需要对地图数据库中的兴趣点信息不断进行更新维护。其中,兴趣点信息为兴趣点的名称、地理位置信息以及更新时间等。
传统技术下,通常采用众包采集兴趣点的图片和相关信息的方式更新兴趣点信息。
具体的,地图服务器下发采集任务后,用户通过地图应用领取采集任务。用户在采集任务指示的地理区域内拍摄图片,并将拍摄的图片以及编辑的相关信息提交至地图服务器。审核人员对接收的图片和相关信息进行审核,若审核通过,则更新兴趣点信息。
但是,采用这种方式,用户需要区分哪些是兴趣点信息和地图业务需要的信息,用户采集任务的门槛较高,违背了发动广大群众帮助采集信息的意愿。再者,用户需要分别针对每一图片进行编辑,操作步骤复杂,这会耗费用户大量的时间,用户的编辑效率较低,并且出错率较高。
鉴于此,考虑到可以通过图片的分析识别,获取图片中包含的疑似兴趣点的目标文字和目标文本区域,以及将相似图片分组后,根据各组图片的目标文本确定相应的兴趣点,从而减少人工编辑的操作,提高兴趣点更新效率,降低漏编率。
鉴于以上分析和考虑,本申请实施例中提供了一种兴趣点信息更新的方案,该方案中,用户通过终端将在指定区域内拍摄的图片集合提交至地图服务器。地图服务器分别识别出每一图片的目标文本区域和目标文本,并根据各图片的目标文本区域之间的相似度将各图片分组,以及分别根据每一组图片的目标文本,确定相应兴趣点,进而更新兴趣点信息。
为进一步说明本申请实施例提供的技术方案,下面结合附图以及具体实施方式对此进行详细的说明。虽然本申请实施例提供了如下述实施例或附图所示的方法操作步骤,但基于常规或者无需创造性的劳动在方法中可以包括更多或者更少的操作步骤。在逻辑上不存在必要因果关系的步骤中,这些步骤的执行顺序不限于本申请实施例提供的执行顺序。方法在实际的处理过程中或者装置执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行。
参阅图1所示,为一种兴趣点信息更新的系统的架构示意图。系统包括终端101和控制设备102。
终端101:可以安装各类应用并且能够将已安装的应用中提供的对象进行显示的设备。例如,手机、平板电脑以及各类可穿戴设备等。
本申请实施例中,终端101中安装有地图应用,用户根据通过地图应用领取采集任务。终端101中的地图应用响应于针对领取任务页面的触发操作,跳转至任务拍摄页面,并响应于针对任务拍摄页面的拍摄操作,获得在指定区域内拍摄的图片的图片集合,以及将图片集合提交至控制设备102。以及终端101确定接收到审核不通过的一组图片时,编辑上传该组图片对应的兴趣点信息。
控制设备102,可以为一个或一组服务器。本申请实施例中,控制设备102以地图服务器为例进行说明,用于对图片进行文本识别、图片分组以及兴趣点确定和更新。
本申请实施例中,控制设备102接收终端101发送的在指定区域内拍摄的图片集合,并对图片集合中的每一图片进行文字识别处理,识别出图片中疑似兴趣点的目标文本和目标文本区域,以及根据目标文本区域之间的匹配度,将图片进行分组,并根据每组图片的目标文本,确定相应的兴趣点,进而对地图数据库中指定区域的兴趣点信息进行更新。
本申请实施例主要应用于对地图数据库中兴趣点信息的采集,还可以应用于其它对图片进行文字分析处理的应用场景,在此不做限制。
进一步地,还可以仅通过终端101进行图片采集、图片分析识别、图片分组以及兴趣点信息更新,在此不再赘述。
参阅图2所示,为本申请提供的一种兴趣点信息更新的方法的实施流程图。该方法的具体流程如下:
步骤200:终端将在指定区域内拍摄的图片集合上传至控制设备。
具体的,执行步骤200时,可以采用以下步骤:
S2001:响应于针对领取任务页面的触发操作,跳转至任务拍摄页面。
S2002:响应于针对任务拍摄页面的拍摄操作,获得在指定区域内拍摄的图片的图片集合。
S2003:将图片集合提交至控制设备。
其中,图片集合为在指定区域内拍摄的图片的集合。
进一步地,终端在上传图片集合时,还将拍摄图片的地理位置信息发送至控制设备。
一种实施方式中,终端将各图片和相应的地理位置信息提交至地图服务器。其中,地理位置信息是终端内的定位装置获取的。
参阅图3a所示,为一种领取任务业务页面的示例图。参阅图3b所示,为一种任务拍摄界面示例图。用户点击领取任务业务页面中的领取任务按键,领取业务页面中通过黑线指示拍摄图片的指定区域。终端响应于针对领取任务页面的触发操作,跳转至任务拍摄页面。任务拍摄界面中通过五星图形在地图中的位置,显示用户当前所在的地理位置。用户在指定区域内通过拍摄按键拍摄图片,以及通过拍摄完成按键将拍摄的图片以及图片拍摄时的地理位置信息上传至服务器。
步骤201:控制设备接收终端发送的图片集合。
步骤202:控制设备分别对图片集合中每一图片进行分析识别,获得每一图片中包含的文本区域以及每一文本区域中包含的文字。
具体的,控制设备采用文字识别算法分别对图片进行分析识别,获得该图片中包含的文本区域和文本区域中包含的文字。
其中,文字识别算法可以采用OCR算法,也可以采用其它文字识别算法,在此不作限制。
本申请实施例中,以识别店招类型的兴趣点为例进行说明,所谓店招,即为店铺招牌。
一种实施方式中,控制设备通过街景以及店招等图片对文字识别算法进行训练,使得可以识别出图片中疑似店招的文本区域和文字。
这样,通过文字识别获取图片的相关信息,不需要用户的编辑操作,简化了操作步骤,简化了图片编辑的复杂操作,提高了处理效率。
步骤203:控制设备分别将每一图片中符合预设合并条件的文本区域合并。
具体的,以一张图片的文本区域合并为例进行说明,判断该图片中是否存在重叠的文本区域,若是,则针对存在重叠的每一对文本区域执行以下步骤:
获取重叠部分的重叠面积,以及该对文本区域合并后的合并面积,并确定该重叠面积与该合并面积之间的重叠占比,若该重叠占比高于预设重叠面积门限值,则将该对文本区域合并。
例如,参阅图3c所示,为一种文本区域合并的示例图。图片中包含文本区域A和文本区域B。文本区域A和文本区域B的重叠部分为重叠区域。控制设备获取重叠区域的重叠面积以及文本区域A和文本区域B合并后的合并面积,并根据重叠面积和合并面积的比值,确定重叠占比为0.3高于预设重叠面积门限值0.1。则控制设备将文本区域A和文本区域B合并为一个文本区域。
其中,预设合并条件是根据文本区域之间的重叠区域确定的,本申请实施例中,仅以一张图片的文本区域合并为例进行说明,采用相似的原理,可以将其它图片的文本区域进行合并,在此不再赘述。
这样,就可以将同一兴趣点如店招的文本区域合并。
步骤204:控制设备根据预设筛选条件,分别对每一图片的各文本区域进行筛选。
具体的,以一张图片的文本区域筛选为例进行说明,在该图片的各文本区域中,筛选出该图片中指定核心区域中不低于第一预设像素门限值的文本区域,以及在该图片的各文本区域中,筛选出该图片的非指定核心区域中不低于第二预设像素门限值的文本区域。
其中,指定核心区域、第一预设像素门限值和第二预设像素门限值均可以根据实际应用场景进行设置,在此不作限制。预设筛选条件是根据文本区域的像素确定的。
例如,由于店招通常位于图片的中上方,则将图片的中上方区域设置为指定核心区域。
也就是说,将图片划分为指定核心区域,以及剩余的非指定核心区域。将位于指定核心区域的文本区域按照第一预设像素门限值进行筛选,并将位于非指定核心区域的文本区域按照第二预设像素门限值进行筛选。
例如,参阅图3d所示,为一种文本区域筛选的示例图。控制设备确定文本区域A被指定核心区域中包含的部分的像素为5000>第一预设像素门限值2500,被非指定核心区域包含的部分的像素9000>第二预设像素门限值8500。控制设备确定文本区域B的像素为1000<第一预设像素门限值2500,文本区域C的像素为5000<第二预设像素门限值8500。则控制设备删除文本区域B和文本区域C,获得筛选后的文本区域A。
本申请实施例中,仅以一张图片的文本区域筛选为例进行说明,采用相似的原理,可以将其它图片的文本区域进行筛选,在此不再赘述。
这样,提高了兴趣点确定的精确性。
步骤205:控制设备根据预设拆分规则,分别对每一图片中的文本区域进行拆分,获得目标文本区域以及目标文本。
具体的,分别针对每一图片中的每一文本区域,执行以下步骤:
S2051:检测该文本区域中包含的边缘直线。
具体的,通过图片中颜色的不同,可以识别出图中的各图形的边缘,例如,文字的边缘,以及店招的边缘。进一步地,由于店招通常为矩形,因此,根据检测出的边缘,筛选出直线形状的边缘,即边缘直线。其中,边缘直线为两侧的颜色不同的直线。
S2052:根据获取的边缘直线,将该文本区域进行划分,获得划分后的各子区域。
具体的,根据文本区域中包含的边缘直线,将文本区域划分为多个子区域。
S2053:分别确定每一子区域的颜色直方图,并计算相邻子区域的颜色直方图距离。
具体的,分别计算每一边缘直线两侧的子区域的颜色直方图距离。其中,颜色直方图距离用于表示图像之间的相似度。
S2054:根据颜色直方图距离,将该文本区域进行拆分,获得拆分后的文本区域。
具体的,当边缘直线两侧的子区域的颜色直方图距离高于预设距离门限值时,按照该边缘直线将该文本区域进行拆分,获得拆分后的文本区域。
其中,预设距离门限值可以根据实际应用场景进行相应设置,如,0.3,在此不再赘述。
进一步地,还可以采用灰度直方图对文本区域进行拆分,在此不再赘述。
这是由于店招通常为矩形,店招的边缘通常为直线,因此,可以通过检测到的边缘直线将文本区域中包含的不同店招进行拆分。
例如,参阅图3e所示,为一种文本区域拆分的示例图。控制设备根据检测的边缘直线将文本区域H划分为子区域A和子区域B,分别确定子区域A的颜色直方图和子区域B的颜色直方图,并确定子区域A和子区域B之间的颜色直方图距离0.9高于预设距离门限值0.3,则将文本区域H拆分为两个文本区域,分别为子区域A和子区域B。
这样,就可以将不同兴趣点的文本区域进行拆分。
步骤206:控制设备根据提取的各图片的特征信息,分别确定每一图片的目标文本区域与关联图片的目标文本区域之间的相似度。
具体的,执行步骤206时,可以采用以下步骤:
S2061:控制设备分别提取每一图片的特征信息。
具体的,控制设备采用预设的特征提取算法,分别提取每一图片的特征信息。
其中,特征信息包括特征点以及特征点的特征向量。
一种实施方式中,特征提取算法采用ASIFT算法。
这是由于相机正面拍摄物体时,相机的光轴方向可能发生变化,使得拍摄的图片扭曲。SIFT算法具有完全的尺度不变性,但不具有完全的仿射不变性,当提取拍摄角度发生大角度空间变化的图像特征时,具有一定的局限性,因此,本申请实施例中采用具有仿射不变性的ASIFT算法提取特征信息。实际应用中,特征提取算法根据实际应用场景还可以采用其它算法,在此不作限制。
S2062:根据各图片中各特征点的特征向量,分别获得每一对图片之间匹配的特征点。
具体的,一对图片包括一个图片和一个关联图片。每个图片的关联图片包括图片集合中与该图片拍摄时间邻近的指定数量的图片。例如,指定数量为2。控制设备分别针对每一对图片执行以下步骤:
分别将一张图片中的每一特征点与关联图片中每一特征点进行匹配,获得匹配的特征点。
例如,控制设备采用ASIFT算法,分别提取图片A和图片B的特征点和相应的特征向量,获得图片A和图片B的特征点的数量均为33024,分别将图片A中的每一特征点你和图片B中的每一特征点进行匹配,获得33024对特征点。
S2063:分别对每一对图片的匹配的特征点进行筛选,确定该对图片中的目标文本区域中筛选后的特征点的匹配特征点对数量。
具体的,分别剔除每一对图片中的万能匹配点,并分别对每一对图片的匹配的特征点进行分类去噪处理,确定该对图片中目标文本区域中分类去噪后的特征点的匹配特征点对数量。
一种实施方式中,采用邻近(k-NearestNeighbor,kNN)算法剔除每一对图片中的万能匹配点,并采用随机抽样一致算法(random sample conse nsus,RANSAC)算法,分别对每一对图片的匹配的特征点进行分类去噪处理,获得该对图片中处理后的特征点,进而确定该对图片中的目标文本区域中包含的特征点的匹配特征点对数量。
其中,匹配特征点对数量为匹配的特征点的对数。万能匹配点为图片中与关联图片中指定数量的关联特征点的各距离之间的距离比值均位于预设距离比值范围的特征点。关联特征点为关联图片中与万能匹配点距离最近的特征点。也就是说,万能匹配点即一张图片中与关联图片中的距离最近的K个特征点的距离比值均位于预设距离比值范围的特征点。K为整数,K大于指定数值。可选的,指定数值可以为2。预设距离比值范围可以根据实际应用场景进行设置,在此不作限制。万能匹配点为图片中与关联图片中指定数据量的关联特征点的距离相近的特征点。
例如,假设指定数量k为2,图片A的特征点a与图片B中距离最近的特征点为关联特征点b和关联特征点c。特征点a与关联特征点b的距离为11,特征点a与关联特征点c的距离为10,两者的距离比值为1.1,可见,图片A中的特征点a与关联图片B中的关联特征点b和关联特征点c的距离是相近的,因此,判定特征点a为万能匹配点。则去除包含特征点a的匹配特征点对。
RANSAC算法用于通过单应性矩阵将一对图片中的一张图片旋转,直至旋转后的图片与关联图片重合度最高,并将未重合部分的特征点剔除,以实现去噪。
S2064:分别根据每一对图片筛选后的匹配特征点对数量,确定相应的相似度。
一种实施方式中,分别将每一对图片筛选后的匹配特征点对数量,确定为相应的相似度。匹配特征点对数量越高,相似度越高。
一种实施方式中,分别将每一对图片筛选后的匹配特征点对数量与特征点总数量的比值,确定为相应的相似度。
例如,控制设备采用ASIFT算法,分别提取图片A和图片B的特征点和相应的特征向量,获得图片A和图片B的特征点的数量均为33024,将图片A和图片B进行特征点匹配,获得33024对特征点,采用kNN算法剔除图片A和图片B中的万能匹配点,获得剔除后的特征点对的数量为1098对,以及采用RANSAC算法对图片A和图片B进行分类去噪,筛选获得的特征点对的数量为405对,最后获得图片A和图片B中的目标文本区域中包含的筛选后的特征点对的数量为30。
步骤207:控制设备按照获取的各图片的拍摄顺序和目标文本区域的相似度,将各图片进行分组,获得各组图片。
具体的,一组图片中任意相邻的两张图片的目标文本区域的相似度高于预设相似度门限值。
其中,预设相似度门限值可以根据实际应用场景进行设置,例如,预设相似度门限值可以为12,在此不作限制。
一种实施方式中,将目标文本区域的特征点的匹配特征点对数量高于预设相似度门限值的图片划分为一组。
这样,通过对图片进行文字识别,识别出图片中疑似兴趣点的目标文本区域,并根据图片的目标文本区域的相似度,将图片进行分组,使得包含兴趣点的部分文字的图片也可以被识别,从而提高了对图片的识别率,减少了需要退回编辑的图片数量,进一步减少了用户的编辑操作。
步骤208:控制设备分别根据每一组图片的各目标文本,确定相应的兴趣点。
具体的,控制设备分别针对每一组图片,执行以下步骤:
将该组图片中各图片的目标文本区域的目标文本合并,并将合并后的目标文本确定为兴趣点。
例如,一组图片包括图片A、图片B和图片C。图片A中的目标文本为华源,图片B中的目标文本为华源农,图片C中的目标文本为农家。则控制设备将图片A、图片B和图片C的目标文本合并,获得合并后的目标文本为华源农家,并将华源农家确定为该组图片的兴趣点。
步骤209:控制设备根据各组图片的兴趣点,对地图数据库的指定区域中的兴趣点信息进行更新。
具体的,控制设备分别针对每一组图片,可以采用以下几种方式:
第一种方式为:当地图数据库的指定区域中包含该组图片的兴趣点时,根据当前时间,更新该组图片的兴趣点对应的兴趣点信息。
一种实施方式中,确定地图数据库中的指定范围内包含该组图片的兴趣点时,将当前时间添加到兴趣点信息中,以确认该兴趣点是有效的。可选的,还可以将该组图片添加到兴趣点信息中。
第二种方式为:当地图数据库的指定区域中不包含该组图片的兴趣点时,将该组图片返回至终端,触发终端根据用户的编辑操作提交该组图片的兴趣点信息。
具体的,可以采用以下步骤:
S2091:当确定地图数据库的指定区域中不包含该组图片的兴趣点时,将该组图片返回至终端。
S2092:终端根据用户对该组图片的编辑操作,获取用户编辑的该组图片的兴趣点信息。
S2093:控制设备根据接收的终端发送该组图片的兴趣点信息,对地图数据库中的兴趣点进行更新。
具体的,控制设备将该图片的兴趣点信息,添加到地图数据库。
本申请实施例中,用户不需要针对图片进行编辑操作,而是直接将图片集合提交至控制设备,简化了图片编辑的复杂操作,提高了处理效率;再者,通过对图片进行文字识别,识别出图片中疑似兴趣点的目标文本区域,并根据图片的目标文本区域的相似度,将图片进行分组,使得包含兴趣点的部分文字的图片也可以被识别,从而提高了对图片的识别率,减少了需要退回编辑的图片数量,进一步减少了用户的编辑操作;进一步地,当地图数据库中不存在分组后的图片对应的兴趣点时,将该组图片返回至用户编辑,用户只需要针对一组图片进行编辑就好,使得用户不需要分别针对每一返回的图片编辑,也减少了用户的编辑操作,降低了编辑出错率,进而提高了兴趣点信息更新的效率和准确率。
下面采用一个具体的应用场景,对上述实施例进行进一步说明。参阅图4所示,为本申请提供的一种兴趣点信息更新的方法的详细实施流程图。该方法的具体流程如下:
步骤400:终端将指定区域内拍摄的图片集合上传至控制设备。
步骤401:控制设备接收了终端发送的图片集合。
步骤402:控制设备分别对图片集合中每一图片进行分析识别,获得每一图片中包含的文本区域以及每一文本区域中包含的文字。
步骤403:控制设备筛选出疑似包含兴趣点的图片。
具体的,控制设备分别针对每一图片执行以下步骤:
判断该图片中是否疑似包含兴趣点,若是,则筛选出该图片,否则,判定该图片中不包含兴趣点,并向终端返回图片无效消息。
一种实施方式中,判断该图片中是否疑似包含兴趣点时,可以采用以下方式:若该图片中包含的所有文字中包含除指定文字的文字,则确定该图片中疑似包含兴趣点,否则,确定该图片中不包含兴趣点。
可选的,指定文字可以“口”。这是由于窗户等设施容易识别为文字“口”。
步骤404:控制设备根据提取的各图片的特征信息,分别确定每一图片的目标文本区域与关联图片的目标文本区域之间的相似度。
步骤405:控制设备按照获取的各图片的拍摄顺序和目标文本区域的相似度,将各图片进行分组,并分别根据每一组图片的各目标文本,确定相应的兴趣点。
步骤406:控制设备分别针对每一组图片,判断地图数据库中是否包含该组图片对应的兴趣点,若是,则执行步骤407,否则,执行步骤408。
步骤407:控制设备根据该组图片对应的兴趣点,对数据库中的兴趣点信息进行更新。
具体的,控制设备根据当前时间,更新该组图片的兴趣点对应的兴趣点信息。
进一步地,控制设备向终端发送任务支付消息,终端完成采集任务。
步骤408:控制设备判断该组图片中是否包含兴趣点,若是,则执行步骤409,否则,执行步骤411。
具体的,控制设备根据人工审核,判断该组图片中是否包含兴趣点。
步骤409:控制设备将该组图片返回至终端,并接收终端返回的用户编辑的该组图片的兴趣点信息。
步骤410:控制设备根据该组图片的兴趣点信息,将该组图片对应的兴趣点和兴趣点信息添加到地图数据库中。
进一步地,控制设备向终端发送任务支付消息,终端完成采集任务。
步骤411:控制设备向终端返回图片无效消息。
基于同一发明构思,本申请实施例中还提供了一种兴趣点信息更新的装置,由于上述装置及设备解决问题的原理与一种兴趣点信息更新的方法相似,因此,上述装置的实施可以参见方法的实施,重复之处不再赘述。
如图5示,其为本申请实施例提供的一种兴趣点信息更新的装置的结构示意图。一种兴趣点信息更新的装置包括:
识别单元501,用于对获取的图片集合中的各图片进行分析识别,分别确定每一图片包含的目标文本区域以及目标文本,图片集合为终端响应于针对领取任务页面的触发操作,跳转至任务拍摄页面,并响应于针对任务拍摄页面的拍摄操作,获得并提交的在指定区域内拍摄的图片的集合;
第一确定单元502,用于根据提取的各图片的特征信息,分别确定每一图片的目标文本区域与关联图片的目标文本区域之间的相似度;
划分单元503,用于按照获取的各图片的拍摄顺序和目标文本区域的相似度,将各图片进行分组,其中,一组图片中任意相邻的两张图片的目标文本区域的相似度高于预设相似度门限值;
第二确定单元504,用于分别根据每一组图片的各目标文本,确定相应的兴趣点;
更新单元505,用于当地图数据库的指定区域中包含该组图片的兴趣点时,根据当前时间,更新该组图片的兴趣点对应的兴趣点信息;当地图数据库的指定区域中不包含该组图片的兴趣点时,将该组图片返回至终端,使得终端根据用户的编辑操作提交该组图片的兴趣点信息。
较佳的,识别单元501用于:
分别针对每一图片,执行以下步骤:
对该图片进行文字识别,获得该图片中包含的文本区域,以及每一文本区域中包含的文字;
将该图片中符合预设合并条件的文本区域进行合并,预设合并条件是根据文本区域之间的重叠区域确定的;
按照预设筛选条件,对各文本区域进行筛选,预设筛选条件是根据文本区域的像素确定的;
根据预设拆分规则,对各文本区域进行拆分,获得该图片的目标文本区域以及目标文本,预设拆分规则是根据文本区域的颜色直方图确定的。
较佳的,识别单元501用于:
在该图片的各文本区域中,筛选出该图片的指定核心区域中不低于第一预设像素门限值的文本区域;
在该图片的各文本区域中,筛选出该图片的非指定核心区域中不低于第二预设像素门限值的文本区域。
较佳的,识别单元501用于:
分别针对每一文本区域,执行以下步骤:
检测该文本区域中包含的边缘直线,边缘直线为两侧的颜色不同的直线;
根据获取的边缘直线,将该文本区域进行划分,获得划分后的各子区域;
分别确定每一子区域的颜色直方图,并计算相邻子区域的颜色直方图距离;
根据颜色直方图距离,将该文本区域进行拆分,获得拆分后的文本区域。
较佳的,每个图片的关联图片包括图片集合中,与该图片拍摄时间邻近的指定数量的图片。
较佳的,第一确定单元502用于:
分别提取每一图片的特征信息,特征信息包括特征点以及特征点的特征向量;
根据各图片中各特征点的特征向量,分别获得每一对图片之间匹配的特征点,一对图片包括一个图片和一个关联图片;
分别剔除每一对图片中的万能匹配点,万能匹配点为图片中与关联图片中指定数量的关联特征点的各距离之间的距离比值均位于预设距离比值范围的特征点,关联特征点为与万能匹配点距离最近的指定数量的特征点;
分别对每一对图片的匹配的特征点进行分类去噪处理,确定该对图片中目标文本区域中分类去噪后的特征点的匹配特征点对数量;
分别根据每一对图片筛选后的匹配特征点对数量,确定相应的相似度。
较佳的,划分单元503用于:
分别针对每一组图片,执行以下步骤:将该组图片对应的各目标文本合并,并将合并后的目标文本确定为该组图片指示的兴趣点。
本申请实施例提供的一种兴趣点信息更新的系统、方法和装置中,获取在指定区域内拍摄的图片集合,并分别对每一图片进行分析识别,获得相应的目标文本区域以及目标文本;根据各图片的目标文本区域的相似度和图片拍摄顺序,将各图片进行分组,并分别确定每组图片对应的兴趣点,进而根据各组图片的兴趣点,对地图数据库中指定区域的兴趣点信息进行更新。这样,减少了兴趣点更新时的编辑操作,提高了兴趣点更新的效率。
参阅图6所示,为一种控制设备的结构示意图。基于同一技术构思,本申请实施例还提供了一种控制设备,可以包括存储器601和处理器602。
存储器601,用于存储处理器602执行的计算机程序。存储器601可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。处理器602,可以是一个中央处理单元(central processing unit,CPU),或者为数字处理单元等。本申请实施例中不限定上述存储器601和处理器602之间的具体连接介质。本申请实施例在图6中以存储器601和处理器602之间通过总线603连接,总线603在图6中以粗线表示,其它部件之间的连接方式,仅是进行示意性说明,并不引以为限。总线603可以分为地址总线、数据总线、控制总线等。为便于表示,图6中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
存储器601可以是易失性存储器(volatile memory),例如随机存取存储器(random-access memory,RAM);存储器601也可以是非易失性存储器(non-volatilememory),例如只读存储器,快闪存储器(flash memory),硬盘(hard disk drive,HDD)或固态硬盘(solid-state drive,SSD)、或者存储器601是能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。存储器601可以是上述存储器的组合。
处理器602,用于调用存储器601中计算机程序时执行如图2中所示的实施例提供的兴趣点信息更新的方法。
本申请实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述任意方法实施例中的兴趣点信息更新的方法。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对相关技术做出贡献的部分可以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台控制设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分的方法。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (10)
1.一种兴趣点更新的系统,其特征在于,包括终端和控制设备,其中,
所述终端,用于响应于针对领取任务页面的触发操作,跳转至任务拍摄页面,并响应于针对所述任务拍摄页面的拍摄操作,获得在指定区域内拍摄的图片的图片集合,以及将所述图片集合提交至所述控制设备;当接收到所述控制设备返回的一组图片时,根据用户的编辑操作将该组图片的兴趣点信息提交至所述控制设备;
所述控制设备,用于对所述图片集合中的各图片进行分析识别,分别确定每一图片包含的目标文本区域以及目标文本;根据提取的各图片的特征信息,分别确定每一图片的目标文本区域与关联图片的目标文本区域之间的相似度;按照获取的各图片的拍摄顺序和目标文本区域的相似度,将各图片进行分组,;分别根据每一组图片的各目标文本,确定相应的兴趣点,并当所述地图数据库的指定区域中包含该组图片的兴趣点时,根据当前时间,更新该组图片的兴趣点对应的兴趣点信息;当所述地图数据库的指定区域中不包含该组图片的兴趣点时,将该组图片返回至所述终端;
其中,一组图片中任意相邻的两张图片的目标文本区域的相似度高于预设相似度门限值。
2.一种兴趣点信息更新的方法,其特征在于,包括:
对获取的图片集合中的各图片进行分析识别,分别确定每一图片包含的目标文本区域以及目标文本,所述图片集合为终端响应于针对领取任务页面的触发操作,跳转至任务拍摄页面,并响应于针对所述任务拍摄页面的拍摄操作,获得并提交的在指定区域内拍摄的图片的集合;
根据提取的各图片的特征信息,分别确定每一图片的目标文本区域与关联图片的目标文本区域之间的相似度;
按照获取的各图片的拍摄顺序和目标文本区域的相似度,将各图片进行分组,其中,一组图片中任意相邻的两张图片的目标文本区域的相似度高于预设相似度门限值;
分别根据每一组图片的各目标文本,确定相应的兴趣点;
当所述地图数据库的指定区域中包含该组图片的兴趣点时,根据当前时间,更新该组图片的兴趣点对应的兴趣点信息;当所述地图数据库的指定区域中不包含该组图片的兴趣点时,将该组图片返回至所述终端,使得所述终端根据用户的编辑操作提交该组图片的兴趣点信息。
3.如权利要求2所述的方法,其特征在于,对获取的图片集合中的各图片进行分析识别,分别确定每一图片包含的目标文本区域以及目标文本,包括:
分别针对每一图片,执行以下步骤:
对该图片进行文字识别,获得该图片中包含的文本区域,以及每一文本区域中包含的文字;
将该图片中符合预设合并条件的文本区域进行合并,所述预设合并条件是根据文本区域之间的重叠区域确定的;
按照预设筛选条件,对各文本区域进行筛选,所述预设筛选条件是根据文本区域的像素确定的;
根据预设拆分规则,对各文本区域进行拆分,获得该图片的目标文本区域以及目标文本,所述预设拆分规则是根据文本区域的颜色直方图确定的。
4.如权利要求3所述的方法,其特征在于,按照预设筛选条件,对该图片合并后的各文本区域进行筛选,包括:
在该图片的各文本区域中,筛选出该图片的指定核心区域中不低于第一预设像素门限值的文本区域;
在该图片的各文本区域中,筛选出该图片的非指定核心区域中不低于第二预设像素门限值的文本区域。
5.如权利要求4所述的方法,其特征在于,根据预设拆分规则,对筛选后的各文本区域进行拆分,获得给图片的目标文本区域以及目标文本,包括:
分别针对每一文本区域,执行以下步骤:
检测该文本区域中包含的边缘直线,所述边缘直线为两侧的颜色不同的直线;
根据获取的边缘直线,将该文本区域进行划分,获得划分后的各子区域;
分别确定每一子区域的颜色直方图,并计算相邻子区域的颜色直方图距离;
根据颜色直方图距离,将该文本区域进行拆分,获得拆分后的文本区域。
6.如权利要求2-5任一项所述的方法,其特征在于,每个图片的关联图片包括所述图片集合中,与该图片拍摄时间邻近的指定数量的图片。
7.如权利要求6所述的方法,其特征在于,根据提取的各图片的特征信息,分别确定每一图片的目标文本区域与关联图片的目标文本区域之间的相似度,包括:
分别提取每一图片的特征信息,所述特征信息包括特征点以及特征点的特征向量;
根据各图片中各特征点的特征向量,分别获得每一对图片之间匹配的特征点,一对图片包括一个图片和一个关联图片;
分别剔除每一对图片中的万能匹配点,所述万能匹配点为图片中与关联图片中指定数量的关联特征点的各距离之间的距离比值均位于预设距离比值范围的特征点,所述关联特征点为与所述万能匹配点距离最近的指定数量的特征点;
分别对每一对图片的匹配的特征点进行分类去噪处理,确定该对图片中目标文本区域中分类去噪后的特征点的匹配特征点对数量;
分别根据每一对图片筛选后的匹配特征点对数量,确定相应的相似度。
8.如权利要求2-5任一项所述的方法,其特征在于,分别根据每一组图片的各目标文本,确定相应的兴趣点,包括:
分别针对每一组图片,执行以下步骤:将该组图片对应的各目标文本合并,并将合并后的目标文本确定为该组图片指示的兴趣点。
9.一种兴趣点信息更新的装置,其特征在于,包括:
识别单元,用于对获取的图片集合中的各图片进行分析识别,分别确定每一图片包含的目标文本区域以及目标文本,所述图片集合为终端响应于针对领取任务页面的触发操作,跳转至任务拍摄页面,并响应于针对所述任务拍摄页面的拍摄操作,获得并提交的在指定区域内拍摄的图片的集合;
第一确定单元,用于根据提取的各图片的特征信息,分别确定每一图片的目标文本区域与关联图片的目标文本区域之间的相似度;
划分单元,用于按照获取的各图片的拍摄顺序和目标文本区域的相似度,将各图片进行分组,其中,一组图片中任意相邻的两张图片的目标文本区域的相似度高于预设相似度门限值;
第二确定单元,用于分别根据每一组图片的各目标文本,确定相应的兴趣点;
更新单元,用于当所述地图数据库的指定区域中包含该组图片的兴趣点时,根据当前时间,更新该组图片的兴趣点对应的兴趣点信息;当所述地图数据库的指定区域中不包含该组图片的兴趣点时,将该组图片返回至所述终端,使得所述终端根据用户的编辑操作提交该组图片的兴趣点信息。
10.如权利要求9所述的装置,其特征在于,所述识别单元用于:
分别针对每一图片,执行以下步骤:
对该图片进行文字识别,获得该图片中包含的文本区域,以及每一文本区域中包含的文字;
将该图片中符合预设合并条件的文本区域进行合并,所述预设合并条件是根据文本区域之间的重叠区域确定的;
按照预设筛选条件,对各文本区域进行筛选,所述预设筛选条件是根据文本区域的像素确定的;根据预设拆分规则,对各文本区域进行拆分,获得该图片的目标文本区域以及目标文本,所述预设拆分规则是根据文本区域的颜色直方图确定的。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910764752.8A CN110781195B (zh) | 2019-08-19 | 2019-08-19 | 一种兴趣点信息更新的系统、方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910764752.8A CN110781195B (zh) | 2019-08-19 | 2019-08-19 | 一种兴趣点信息更新的系统、方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110781195A true CN110781195A (zh) | 2020-02-11 |
CN110781195B CN110781195B (zh) | 2021-03-12 |
Family
ID=69383309
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910764752.8A Active CN110781195B (zh) | 2019-08-19 | 2019-08-19 | 一种兴趣点信息更新的系统、方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110781195B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111782977A (zh) * | 2020-06-29 | 2020-10-16 | 北京百度网讯科技有限公司 | 兴趣点处理方法、装置、设备及计算机可读存储介质 |
CN111859002A (zh) * | 2020-07-20 | 2020-10-30 | 北京百度网讯科技有限公司 | 兴趣点名称生成方法及装置、电子设备和介质 |
CN111984876A (zh) * | 2020-06-29 | 2020-11-24 | 北京百度网讯科技有限公司 | 兴趣点处理方法、装置、设备及计算机可读存储介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010102104A (ja) * | 2008-10-23 | 2010-05-06 | Denso It Laboratory Inc | 地図表示システム、地図表示方法およびプログラム |
CN101944109A (zh) * | 2010-09-06 | 2011-01-12 | 华南理工大学 | 一种基于页面分块的图片摘要提取系统及方法 |
CN102542268A (zh) * | 2011-12-29 | 2012-07-04 | 中国科学院自动化研究所 | 用于视频中文本区域检测与定位的方法 |
CN102799879A (zh) * | 2012-07-12 | 2012-11-28 | 中国科学技术大学 | 从自然场景图像中识别多言语、多字体文字的方法 |
CN105718470A (zh) * | 2014-12-03 | 2016-06-29 | 高德软件有限公司 | 一种poi数据处理方法和装置 |
CN106021292A (zh) * | 2016-04-29 | 2016-10-12 | 努比亚技术有限公司 | 一种查找图片的装置和方法 |
CN106202256A (zh) * | 2016-06-29 | 2016-12-07 | 西安电子科技大学 | 基于语义传播及混合多示例学习的Web图像检索方法 |
CN107018486A (zh) * | 2009-12-03 | 2017-08-04 | 谷歌公司 | 处理视觉查询的方法和系统 |
CN108255980A (zh) * | 2017-12-28 | 2018-07-06 | 百度在线网络技术(北京)有限公司 | 兴趣点采全率评估方法、装置、计算机设备及存储介质 |
CN108513288A (zh) * | 2017-02-24 | 2018-09-07 | 大唐移动通信设备有限公司 | 一种系统信息更新方法及装置 |
CN109974729A (zh) * | 2019-03-07 | 2019-07-05 | 百度在线网络技术(北京)有限公司 | 街景图像的更新方法、装置和系统 |
-
2019
- 2019-08-19 CN CN201910764752.8A patent/CN110781195B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010102104A (ja) * | 2008-10-23 | 2010-05-06 | Denso It Laboratory Inc | 地図表示システム、地図表示方法およびプログラム |
CN107018486A (zh) * | 2009-12-03 | 2017-08-04 | 谷歌公司 | 处理视觉查询的方法和系统 |
CN101944109A (zh) * | 2010-09-06 | 2011-01-12 | 华南理工大学 | 一种基于页面分块的图片摘要提取系统及方法 |
CN102542268A (zh) * | 2011-12-29 | 2012-07-04 | 中国科学院自动化研究所 | 用于视频中文本区域检测与定位的方法 |
CN102799879A (zh) * | 2012-07-12 | 2012-11-28 | 中国科学技术大学 | 从自然场景图像中识别多言语、多字体文字的方法 |
CN105718470A (zh) * | 2014-12-03 | 2016-06-29 | 高德软件有限公司 | 一种poi数据处理方法和装置 |
CN106021292A (zh) * | 2016-04-29 | 2016-10-12 | 努比亚技术有限公司 | 一种查找图片的装置和方法 |
CN106202256A (zh) * | 2016-06-29 | 2016-12-07 | 西安电子科技大学 | 基于语义传播及混合多示例学习的Web图像检索方法 |
CN108513288A (zh) * | 2017-02-24 | 2018-09-07 | 大唐移动通信设备有限公司 | 一种系统信息更新方法及装置 |
CN108255980A (zh) * | 2017-12-28 | 2018-07-06 | 百度在线网络技术(北京)有限公司 | 兴趣点采全率评估方法、装置、计算机设备及存储介质 |
CN109974729A (zh) * | 2019-03-07 | 2019-07-05 | 百度在线网络技术(北京)有限公司 | 街景图像的更新方法、装置和系统 |
Non-Patent Citations (2)
Title |
---|
WEICHAO CHEN 等: "Visual Summaries of Popular Landmarks from Community Photo Collections", 《2009 CONFERENCE RECORD OF THE FORTY-THIRD ASILOMAR CONFERENCE ON SIGNALS, SYSTEM AND COMPUTERS》 * |
刘丹枫: "基于Android平台的地图SDK的设计与实现", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111782977A (zh) * | 2020-06-29 | 2020-10-16 | 北京百度网讯科技有限公司 | 兴趣点处理方法、装置、设备及计算机可读存储介质 |
CN111984876A (zh) * | 2020-06-29 | 2020-11-24 | 北京百度网讯科技有限公司 | 兴趣点处理方法、装置、设备及计算机可读存储介质 |
CN111782977B (zh) * | 2020-06-29 | 2023-08-11 | 北京百度网讯科技有限公司 | 兴趣点处理方法、装置、设备及计算机可读存储介质 |
CN111859002A (zh) * | 2020-07-20 | 2020-10-30 | 北京百度网讯科技有限公司 | 兴趣点名称生成方法及装置、电子设备和介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110781195B (zh) | 2021-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110135411B (zh) | 名片识别方法和装置 | |
US20210397838A1 (en) | Systems and methods for image-feature-based recognition | |
US9760781B2 (en) | Using extracted image text | |
US8031940B2 (en) | Recognizing text in images using ranging data | |
CN110008956B (zh) | 发票关键信息定位方法、装置、计算机设备及存储介质 | |
CN110705405B (zh) | 目标标注的方法及装置 | |
US8180146B2 (en) | Method and apparatus for recognizing and localizing landmarks from an image onto a map | |
CN101667251B (zh) | 具备辅助定位功能的ocr识别方法和装置 | |
WO2008003095A2 (en) | Recognizing text in images | |
CN110781195B (zh) | 一种兴趣点信息更新的系统、方法和装置 | |
JP2011008752A (ja) | ドキュメント操作システム、ドキュメント操作方法およびそのためのプログラム | |
JP2010518507A (ja) | 特徴マッチング方法 | |
CN110348463B (zh) | 用于识别车辆的方法和装置 | |
CN111191649A (zh) | 一种识别弯曲多行文本图像的方法与设备 | |
CN109389115B (zh) | 文本识别方法、装置、存储介质和计算机设备 | |
KR102468309B1 (ko) | 영상 기반 건물 검색 방법 및 장치 | |
CN113065559B (zh) | 图像比对方法、装置、电子设备及存储介质 | |
CN112084812A (zh) | 图像处理方法、装置、计算机设备及存储介质 | |
CN111507332A (zh) | 车辆vin码检测方法与设备 | |
US11461578B2 (en) | Methods and systems for generating composite image descriptors | |
JP5004082B2 (ja) | 文書画像検索方法、文書画像登録方法、そのプログラムおよび装置 | |
CN117201708B (zh) | 带有位置信息的无人机视频拼接方法、装置、设备及介质 | |
CN113780116B (zh) | 发票分类方法、装置、计算机设备和存储介质 | |
Arsirii et al. | Architectural objects recognition technique in augmented reality technologies based on creating a specialized markers base | |
Vo et al. | WhereAmI: Energy efficient positioning using partial textual signatures |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |