CN109919157A - 一种视觉定位方法及装置 - Google Patents
一种视觉定位方法及装置 Download PDFInfo
- Publication number
- CN109919157A CN109919157A CN201910242317.9A CN201910242317A CN109919157A CN 109919157 A CN109919157 A CN 109919157A CN 201910242317 A CN201910242317 A CN 201910242317A CN 109919157 A CN109919157 A CN 109919157A
- Authority
- CN
- China
- Prior art keywords
- information
- image
- word content
- obtains
- trained
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明实施例提供一种视觉定位方法及装置,包括:获取待定位的目标场景图像;基于训练好的文字区域检测模型,对目标场景图进行检测,得到目标场景图像的文字区域;基于训练好的文字内容识别模型,对文字区域的内容进行识别,得到文字区域对应的文字内容信息;根据文字内容信息和数据库图像信息进行匹配,得到文字内容信息对应的定位信息。本发明实施例通过将目标场景图像中包含的文字信息进行检测和识别,得到对应的文字内容信息,再将文字内容信息和图像数据库中的图像信息进行匹配,从而得到该目标场景图像对应的定位信息,降低了视觉定位的难度,提高了定位的准确率和鲁棒性。
Description
技术领域
本发明实施例涉及视觉定位技术领域,尤其涉及一种视觉定位方法及装置。
背景技术
视觉定位技术通过获取周围景物的图像,利用景物中的一些自然的或者人造特征,通过图像处理方法得到周围环境模型来实现位置确定,这种定位方法累计误差较小,但是对外界条件和路标具有一定的要求。
传统的视觉定位,利用双目摄像头采集图像,将获得的图像与路标图像进行匹配定位,建立了GIST全局特征和SURF局部特征相结合的图像快速匹配框架,并以图像间匹配的特征点数目结合其尺度信息作为其相似性判定准则。然而,这类传统的方法很依赖相机的标定准确度,对光照比较敏感,很容易在随机初始化的时候,就拟合出错误的匹配点,从而导致匹配失败,造成视觉定位的难度较大,定位的准确率较低的问题。
因此,现在亟需一种视觉定位方法及装置来解决上述问题。
发明内容
针对现有技术存在的问题,本发明实施例提供一种视觉定位方法及装置。
第一方面,本发明实施例提供了一种视觉定位方法,包括:
获取待定位的目标场景图像;
基于训练好的文字区域检测模型,对所述目标场景图进行检测,得到所述目标场景图像的文字区域,所述训练好的文字区域检测模型是由标注有文字区域的样本场景图像训练得到;
基于训练好的文字内容识别模型,对所述文字区域的内容进行识别,得到所述文字区域对应的文字内容信息,所述训练好的文字内容识别模型是由标注有文字内容信息的样本场景图像训练得到;
根据所述文字内容信息和数据库图像信息进行匹配,得到所述文字内容信息对应的定位信息。
第二方面,本发明实施例提供了一种视觉定位装置,包括:
获取模块,用于获取待定位的目标场景图像;
文字区域检测模块,用于基于训练好的文字区域检测模型,对所述目标场景图进行检测,得到所述目标场景图像的文字区域,所述训练好的文字区域检测模型是由标注有文字区域的样本场景图像训练得到;
文字内容识别模块,用于基于训练好的文字内容识别模型,对所述文字区域的内容进行识别,得到所述文字区域对应的文字内容信息,所述训练好的文字内容识别模型是由标注有文字内容信息的样本场景图像训练得到;
坐标匹配模块,用于根据所述文字内容信息和数据库图像信息进行匹配,得到所述文字内容信息对应的定位信息。
第三方面,本发明实施例提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如第一方面所提供的方法的步骤。
第四方面,本发明实施例提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面所提供的方法的步骤。
本发明实施例提供的一种视觉定位方法及装置,通过将目标场景图像中包含的文字信息进行检测,再将图像中检测到的文字区域进行识别,得到对应的文字内容信息,将文字内容信息和图像数据库中的图像信息进行匹配,从而得到该目标场景图像对应的定位信息,降低了视觉定位的难度,提高了定位的准确率和鲁棒性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的视觉定位方法的流程示意图;
图2为本发明实施例提供的视觉定位装置的结构示意图;
图3为本发明实施例提供的电子设备结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明实施例提供的视觉定位方法的流程示意图,如图1所示,本发明实施例提供了一种视觉定位方法,包括:
步骤101,获取待定位的目标场景图像。
在本发明实施例中,待定位的目标场景图像通过拍照、摄像或激光扫描等方式获取,也可以将现有的图像文件作为待定位的目标场景图像,例如,街景图像、工厂车间图像或景点图像等。
步骤102,基于训练好的文字区域检测模型,对所述目标场景图进行检测,得到所述目标场景图像的文字区域,所述训练好的文字区域检测模型是由标注有文字区域的样本场景图像训练得到。
在本发明实施例中,将待定位的目标场景图像输入到训练好的文字区域检测模型中,训练好的文字区域检测模型对目标场景图像中每一个像素进行实例分割,得到掩码图像,然后根据掩码图像计算最小外接矩形,从而得到目标场景图像的文字区域,并且将该文字区域进行标注。
步骤103,基于训练好的文字内容识别模型,对所述文字区域的内容进行识别,得到所述文字区域对应的文字内容信息,所述训练好的文字内容识别模型是由标注有文字内容信息的样本场景图像训练得到。
在本发明实施例中,将已完成文字区域标注的目标场景图像输入到训练好的文字内容识别模型中,训练好的文字内容识别模型对文字区域的文字内容进行识别,从而识别得到该文字区域的文字内容。例如,在一张关于街道的目标场景图像中,拍摄到该街道的路牌,因此在文字区域中记载有该街道的名称,通过训练好的文字内容识别模型对该目标场景图像进行识别,可以提取出路牌上的文字内容,从而得到该目标场景图像中携带的文字内容信息。
步骤104,根据所述文字内容信息和数据库图像信息进行匹配,得到所述文字内容信息对应的定位信息。
在本发明实施例中,将存储在数据库中的数据库图像信息和目标场景图像的文字内容信息进行匹配,其中,存储在数据库的数据库图像信息是前期通过激光扫描、拍摄或网络等方式进行采集。在本发明实施例中,利用激光扫描场景的三维点云信息进行说明,将从场景中扫描得到的图像信息存储在数据库中,例如,通过激光扫描,得到街道、建筑物或建筑内部空间等位置的标识牌,将该这些标识牌对应的坐标信息和文字内容等信息存储到数据库中,需要说明的是,在本发明实施例中,标识牌可以是街道的路牌,或某工厂内的车间名称,也可以是某建筑物的名称,根据采集到的场景图像,将场景图像内的文字均作为待提取的标识牌信息。
进一步地,对目标场景图像进行定位,在识别出目标场景图像中携带的文字内容信息之后,将目标场景图像的文字内容信息和数据库图像信息中的标识牌文字信息进行匹配,若匹配成功,则将该标识牌文字信息对应的坐标信息作为目标场景图像的坐标信息。需要说明的是,在本发明实施例中,通过将一张目标场景图像和数据库中多组数据库图像信息进行匹配,其中,每组数据库图像信息包括在一定扫描或拍摄范围内,从不同扫描坐标或拍摄角度得到多张数据库图像信息,例如,从不同扫描坐标对同一个坐标位置的场景进行扫描,从而得到该场景下的数据库图像信息的多张三维点云信息,从而提高了匹配准确度。
本发明实施例提供一种视觉定位方法,将目标场景图像中包含的文字信息进行检测,再将图像中检测到的文字区域进行识别,得到对应的文字内容信息,将文字内容信息和图像数据库中的图像信息进行匹配,从而得到该目标场景图像对应的定位信息,降低了视觉定位的难度,提高了定位的准确率和鲁棒性。
在上述实施例的基础上,所述训练好的文字区域检测模型通过以下步骤训练得到:
对样本场景图像的文字区域进行标注,得到第一样本图像;
根据所述第一样本图像,对文字区域检测模型进行训练,得到训练好的文字区域检测模型。
在本发明实施例中,首先,获取样本场景图像,然后,对样本场景图像中的文字区域进行标注。可选地,在本发明实施例中,在对样本场景图像进行文字区域标注之前,对样本场景图像进行预处理,包括对比度、亮度或色调的处理;另外,将预处理之后的样本场景图像的文字区域进行随机水平翻转或缩放处理,然后对随机翻转或缩放处理的文字区域进行标注,得到第一样本图像,以供文字区域检测模型进行训练。
在上述实施例的基础上,所述训练好的文字内容识别模型通过以下步骤训练得到:
对所述第一样本图像的文字内容信息进行标注,得到第二样本图像;
根据所述第二样本图像,对文字内容识别模型进行训练,得到训练好的文字内容识别模型。
在本发明实施例中,对第一样本图像中的文字区域的文字内容信息标注,例如,在文字区域中记载某街道名称,将该街道名称以标签的方式标注在该文字区域处,直到将第一样本图像中所有的文字区域的文字内容信息全部标注,得到第二样本图像,并将第二样本图像输入到文字识别模型进行训练,从而得到训练好的模型。需要说明的是,第二样本图像也可以通过人工标注文字区域的方式得到,将激光扫描、拍摄或网络得到的样本样本场景图像中的文字区域进行人工标注得到的样本图像,也可以作为训练文字内容识别模型的样本训练集。
在上述实施例的基础上,在所述获取待定位的目标场景图像之前,所述方法还包括:
获取场景的三维点云信息,所述三维点云信息包括标识牌文字信息和标识牌坐标信息;
将所述三维点云信息作为数据库图像信息,存储到数据库。
在本发明实施例中,首先,在场景中选取坐标原点,通过激光扫描场景,得到场景的三维点云信息,并将三维点云信息中的标识牌文字信息和标识牌坐标信息存储到数据库中,作为目标场景图像的匹配对象,从而得到目标场景图像的定位信息。
在上述实施例的基础上,所述对样本场景图像的文字区域进行标注,得到第一样本图像,包括:
通过labelme对样本场景图像的文字区域进行标注,得到第一样本图像,以供所述文字区域检测模型进行训练。
在本发明实施例中,将labelme作为标注工具,用于对样本场景图像进行标注任务,通过labelme标注样本场景图像中的文字区域,从而得到文字区域特征集,根据这些文字区域特征集,对深度神经网络进行训练,得到训练结果。
在上述实施例的基础上,所述训练好的文字区域检测模型通过VGG16模型构建得到。
在本发明实施例中,通过VGG16模型构建文字区域检测模型,该模型是由12个卷积层、5个池化层、3个上采样层和2个全连接层组成。通过VGG16模型对文字区域进行特征提取,不再回归坐标框,而是将目标场景图像的每一个像素进行实例分割,得到文字区域的掩膜图像,然后再计算掩膜图像的最小外接矩形,从而得到该目标场景图像的文字区域。进一步地,在对文字区域检测模型进行训练时,若损失函数loss不再下降,则得到训练好的文字区域检测模型。
在上述实施例的基础上,所述训练好的文字内容识别模型通过双向长短期记忆网络构建得到。
在本发明实施例中,首先将第一样本图像中的文字内容信息进行标注,例如,在第一样本图像的文字区域中写有某商店名称和街道标识牌名称,则将在对应文字区域将两个文字内容信息进行标注,得到第二样本图像。然后,将标注了文字内容信息的第二样本图像输入到文字内容识别模型中进行训练,若损失函数不再下降,则得到训练好的文字内容识别模型。在本发明实施例中,损失函数选取CTC(Connectionist temporalclassification,简称CTC)算法,CTC算法是一种端到端的语音识别方法,避免了需要字或者音素级别的标注,只需要句子级别的标注就可以进行训练,从而实现端到端的文字内容识别。
图2为本发明实施例提供的视觉定位装置的结构示意图,如图2所示,本发明实施例提供了一种视觉定位装置,包括:获取模块201、文字区域检测模块202、文字内容识别模块203和坐标匹配模块204,其中,获取模块201用于获取待定位的目标场景图像;文字区域检测模块202用于基于训练好的文字区域检测模型,对所述目标场景图进行检测,得到所述目标场景图像的文字区域,所述训练好的文字区域检测模型是由标注有文字区域的样本场景图像训练得到;文字内容识别模块203用于基于训练好的文字内容识别模型,对所述文字区域的内容进行识别,得到所述文字区域对应的文字内容信息,所述训练好的文字内容识别模型是由标注有文字内容信息的样本场景图像训练得到;坐标匹配模块204用于根据所述文字内容信息和数据库图像信息进行匹配,得到所述文字内容信息对应的定位信息。
在本发明实施例中,所述视觉定位装置可设置在无人机上,通过获取模块201对街景进行采集,然后通过文字区域检测模块202和文字内容识别模块203对采集到的街景图像依次进行检测和识别,并将得到的文字内容信息和坐标匹配模块204进行匹配,从而得到该街景图像的定位信息,最后通过无线发送模块,将该定位信息发送到远程控制中心,实现对无人机的实时定位。需要说明的是,在本发明实施例中,视觉定位装置可以运用在多个实时场景,例如,头戴式摄像头,用于远程对施工人员当前所在位置进行定位,或车载视觉定位等,在此不作具体限定。
本发明实施例提供的一种视觉定位装置,通过将目标场景图像中包含的文字信息进行检测,再将图像中检测到的文字区域进行识别,得到对应的文字内容信息,将文字内容信息和图像数据库中的图像信息进行匹配,从而得到该目标场景图像对应的定位信息,降低了视觉定位的难度,提高了定位的准确率和鲁棒性。
在上述实施例的基础上,所述装置还包括:文字区域标注模块和第一训练模块,其中,文字区域标注模块用于对样本场景图像的文字区域进行标注,得到第一样本图像;第一训练模块用于根据所述第一样本图像,对文字区域检测模型进行训练,得到训练好的文字区域检测模型。
在上述实施例的基础上,所述装置还包括:文字内容标注模块和第二训练模块,其中,文字内容标注模块用于对所述第一样本图像的文字内容信息进行标注,得到第二样本图像;第二训练模块用于根据所述第二样本图像,对文字内容识别模型进行训练,得到训练好的文字内容识别模型。
在上述实施例的基础上,所述装置还包括:数据库图像获取模块和存储模块,其中,数据库图像获取模块用于获取场景的三维点云信息,所述三维点云信息包括标识牌文字信息和标识牌坐标信息;存储模块用于将所述三维点云信息作为数据库图像信息,存储到数据库。
本发明实施例将定位问题转化成视觉识别问题,能够广泛地应用于各种具有文字标牌的场景下,对于图像中的颜色、大小、倾斜,光照和模糊具有较强的鲁棒性。
本发明实施例提供的装置是用于执行上述各方法实施例的,具体流程和详细内容请参照上述实施例,此处不再赘述。
图3为本发明实施例提供的电子设备结构示意图,如图3所示,该电子设备可以包括:处理器(Processor)301、通信接口(Communications Interface)302、存储器(Memory)303和通信总线304,其中,处理器301,通信接口302,存储器303通过通信总线304完成相互间的通信。处理器301可以调用存储器303中的逻辑指令,以执行如下方法:获取待定位的目标场景图像;基于训练好的文字区域检测模型,对所述目标场景图进行检测,得到所述目标场景图像的文字区域,所述训练好的文字区域检测模型是由标注有文字区域的样本场景图像训练得到;基于训练好的文字内容识别模型,对所述文字区域的内容进行识别,得到所述文字区域对应的文字内容信息,所述训练好的文字内容识别模型是由标注有文字内容信息的样本场景图像训练得到;根据所述文字内容信息和数据库图像信息进行匹配,得到所述文字内容信息对应的定位信息。
此外,上述的存储器303中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本发明实施例公开一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法实施例所提供的方法,例如包括:获取待定位的目标场景图像;基于训练好的文字区域检测模型,对所述目标场景图进行检测,得到所述目标场景图像的文字区域,所述训练好的文字区域检测模型是由标注有文字区域的样本场景图像训练得到;基于训练好的文字内容识别模型,对所述文字区域的内容进行识别,得到所述文字区域对应的文字内容信息,所述训练好的文字内容识别模型是由标注有文字内容信息的样本场景图像训练得到;根据所述文字内容信息和数据库图像信息进行匹配,得到所述文字内容信息对应的定位信息。
本发明实施例提供一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质存储服务器指令,该计算机指令使计算机执行上述实施例所提供的视觉定位方法,例如包括:获取待定位的目标场景图像;基于训练好的文字区域检测模型,对所述目标场景图进行检测,得到所述目标场景图像的文字区域,所述训练好的文字区域检测模型是由标注有文字区域的样本场景图像训练得到;基于训练好的文字内容识别模型,对所述文字区域的内容进行识别,得到所述文字区域对应的文字内容信息,所述训练好的文字内容识别模型是由标注有文字内容信息的样本场景图像训练得到;根据所述文字内容信息和数据库图像信息进行匹配,得到所述文字内容信息对应的定位信息。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种视觉定位方法,其特征在于,包括:
获取待定位的目标场景图像;
基于训练好的文字区域检测模型,对所述目标场景图进行检测,得到所述目标场景图像的文字区域,所述训练好的文字区域检测模型是由标注有文字区域的样本场景图像训练得到;
基于训练好的文字内容识别模型,对所述文字区域的内容进行识别,得到所述文字区域对应的文字内容信息,所述训练好的文字内容识别模型是由标注有文字内容信息的样本场景图像训练得到;
根据所述文字内容信息和数据库图像信息进行匹配,得到所述文字内容信息对应的定位信息。
2.根据权利要求1所述的方法,其特征在于,所述训练好的文字区域检测模型通过以下步骤训练得到:
对样本场景图像的文字区域进行标注,得到第一样本图像;
根据所述第一样本图像,对文字区域检测模型进行训练,得到训练好的文字区域检测模型。
3.根据权利要求2所述的方法,其特征在于,所述训练好的文字内容识别模型通过以下步骤训练得到:
对所述第一样本图像的文字内容信息进行标注,得到第二样本图像;
根据所述第二样本图像,对文字内容识别模型进行训练,得到训练好的文字内容识别模型。
4.根据权利要求1所述的方法,其特征在于,在所述获取待定位的目标场景图像之前,所述方法还包括:
获取场景的三维点云信息,所述三维点云信息包括标识牌文字信息和标识牌坐标信息;
将所述三维点云信息作为数据库图像信息,存储到数据库。
5.根据权利要求2所述的方法,其特征在于,所述对样本场景图像的文字区域进行标注,得到第一样本图像,包括:
通过labelme对样本场景图像的文字区域进行标注,得到第一样本图像,以供所述文字区域检测模型进行训练。
6.根据权利要求2所述的方法,其特征在于,所述训练好的文字区域检测模型通过VGG16模型构建得到。
7.根据权利要求3所述的方法,其特征在于,所述训练好的文字内容识别模型通过双向长短期记忆网络构建得到。
8.一种视觉定位装置,其特征在于,包括:
获取模块,用于获取待定位的目标场景图像;
文字区域检测模块,用于基于训练好的文字区域检测模型,对所述目标场景图进行检测,得到所述目标场景图像的文字区域,所述训练好的文字区域检测模型是由标注有文字区域的样本场景图像训练得到;
文字内容识别模块,用于基于训练好的文字内容识别模型,对所述文字区域的内容进行识别,得到所述文字区域对应的文字内容信息,所述训练好的文字内容识别模型是由标注有文字内容信息的样本场景图像训练得到;
坐标匹配模块,用于根据所述文字内容信息和数据库图像信息进行匹配,得到所述文字内容信息对应的定位信息。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至7任一项所述方法的步骤。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至7任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910242317.9A CN109919157A (zh) | 2019-03-28 | 2019-03-28 | 一种视觉定位方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910242317.9A CN109919157A (zh) | 2019-03-28 | 2019-03-28 | 一种视觉定位方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109919157A true CN109919157A (zh) | 2019-06-21 |
Family
ID=66967366
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910242317.9A Pending CN109919157A (zh) | 2019-03-28 | 2019-03-28 | 一种视觉定位方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109919157A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110544222A (zh) * | 2019-09-05 | 2019-12-06 | 重庆瑞信展览有限公司 | 一种视觉传达图像清晰化处理方法和系统 |
CN110826568A (zh) * | 2019-11-08 | 2020-02-21 | 青岛合启立智能科技有限公司 | 基于路标的室内定位方法、装置和电子设备 |
CN111027613A (zh) * | 2019-12-04 | 2020-04-17 | 浙江省北大信息技术高等研究院 | 一种场景文字识别方法、装置、存储介质及终端 |
CN111291649A (zh) * | 2020-01-20 | 2020-06-16 | 广东三维家信息科技有限公司 | 图像识别方法、装置及电子设备 |
CN111325249A (zh) * | 2020-02-10 | 2020-06-23 | 上海携旅信息技术有限公司 | 图像应季判别方法、系统、电子设备和介质 |
CN111652204A (zh) * | 2020-06-03 | 2020-09-11 | 广东小天才科技有限公司 | 目标文本区域选择的方法、装置、电子设备和存储介质 |
CN111898544A (zh) * | 2020-07-31 | 2020-11-06 | 腾讯科技(深圳)有限公司 | 文字图像匹配方法、装置和设备及计算机存储介质 |
CN112784174A (zh) * | 2019-11-08 | 2021-05-11 | 华为技术有限公司 | 确定位姿的方法、装置和系统 |
CN112905798A (zh) * | 2021-03-26 | 2021-06-04 | 深圳市阿丹能量信息技术有限公司 | 一种基于文字标识的室内视觉定位方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140006407A (ko) * | 2012-07-05 | 2014-01-16 | 성신여자대학교 산학협력단 | 문자 인식 기반의 식물정보 제공 방법 및 장치 |
CN104748738A (zh) * | 2013-12-31 | 2015-07-01 | 深圳先进技术研究院 | 室内定位导航方法和系统 |
CN105868758A (zh) * | 2015-01-21 | 2016-08-17 | 阿里巴巴集团控股有限公司 | 图像中文本区域检测方法、装置及电子设备 |
CN106203335A (zh) * | 2016-07-11 | 2016-12-07 | 厦门大学 | 基于三维点云的标志牌可视度评价方法 |
CN106778757A (zh) * | 2016-12-12 | 2017-05-31 | 哈尔滨工业大学 | 基于文本显著性的场景文本检测方法 |
CN107977652A (zh) * | 2017-12-21 | 2018-05-01 | 维沃移动通信有限公司 | 一种屏幕显示内容的提取方法及移动终端 |
CN109522900A (zh) * | 2018-10-30 | 2019-03-26 | 北京陌上花科技有限公司 | 自然场景文字识别方法及装置 |
-
2019
- 2019-03-28 CN CN201910242317.9A patent/CN109919157A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140006407A (ko) * | 2012-07-05 | 2014-01-16 | 성신여자대학교 산학협력단 | 문자 인식 기반의 식물정보 제공 방법 및 장치 |
CN104748738A (zh) * | 2013-12-31 | 2015-07-01 | 深圳先进技术研究院 | 室内定位导航方法和系统 |
CN105868758A (zh) * | 2015-01-21 | 2016-08-17 | 阿里巴巴集团控股有限公司 | 图像中文本区域检测方法、装置及电子设备 |
CN106203335A (zh) * | 2016-07-11 | 2016-12-07 | 厦门大学 | 基于三维点云的标志牌可视度评价方法 |
CN106778757A (zh) * | 2016-12-12 | 2017-05-31 | 哈尔滨工业大学 | 基于文本显著性的场景文本检测方法 |
CN107977652A (zh) * | 2017-12-21 | 2018-05-01 | 维沃移动通信有限公司 | 一种屏幕显示内容的提取方法及移动终端 |
CN109522900A (zh) * | 2018-10-30 | 2019-03-26 | 北京陌上花科技有限公司 | 自然场景文字识别方法及装置 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110544222A (zh) * | 2019-09-05 | 2019-12-06 | 重庆瑞信展览有限公司 | 一种视觉传达图像清晰化处理方法和系统 |
CN110544222B (zh) * | 2019-09-05 | 2023-01-03 | 重庆瑞信展览有限公司 | 一种视觉传达图像清晰化处理方法和系统 |
CN112784174A (zh) * | 2019-11-08 | 2021-05-11 | 华为技术有限公司 | 确定位姿的方法、装置和系统 |
CN110826568A (zh) * | 2019-11-08 | 2020-02-21 | 青岛合启立智能科技有限公司 | 基于路标的室内定位方法、装置和电子设备 |
CN111027613A (zh) * | 2019-12-04 | 2020-04-17 | 浙江省北大信息技术高等研究院 | 一种场景文字识别方法、装置、存储介质及终端 |
CN111291649A (zh) * | 2020-01-20 | 2020-06-16 | 广东三维家信息科技有限公司 | 图像识别方法、装置及电子设备 |
CN111291649B (zh) * | 2020-01-20 | 2023-08-25 | 广东三维家信息科技有限公司 | 图像识别方法、装置及电子设备 |
CN111325249A (zh) * | 2020-02-10 | 2020-06-23 | 上海携旅信息技术有限公司 | 图像应季判别方法、系统、电子设备和介质 |
CN111652204A (zh) * | 2020-06-03 | 2020-09-11 | 广东小天才科技有限公司 | 目标文本区域选择的方法、装置、电子设备和存储介质 |
CN111898544A (zh) * | 2020-07-31 | 2020-11-06 | 腾讯科技(深圳)有限公司 | 文字图像匹配方法、装置和设备及计算机存储介质 |
CN111898544B (zh) * | 2020-07-31 | 2023-08-08 | 腾讯科技(深圳)有限公司 | 文字图像匹配方法、装置和设备及计算机存储介质 |
CN112905798A (zh) * | 2021-03-26 | 2021-06-04 | 深圳市阿丹能量信息技术有限公司 | 一种基于文字标识的室内视觉定位方法 |
CN112905798B (zh) * | 2021-03-26 | 2023-03-10 | 深圳市阿丹能量信息技术有限公司 | 一种基于文字标识的室内视觉定位方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109919157A (zh) | 一种视觉定位方法及装置 | |
Zhang et al. | CAD-Net: A context-aware detection network for objects in remote sensing imagery | |
US10607362B2 (en) | Remote determination of containers in geographical region | |
US10319107B2 (en) | Remote determination of quantity stored in containers in geographical region | |
US20180012411A1 (en) | Augmented Reality Methods and Devices | |
CN104748738B (zh) | 室内定位导航方法和系统 | |
KR101469398B1 (ko) | 텍스트 기반 3d 증강 현실 | |
CN109815843B (zh) | 图像处理方法及相关产品 | |
CN111259889A (zh) | 图像文本识别方法、装置、计算机设备及计算机存储介质 | |
CN108304835A (zh) | 文字检测方法和装置 | |
US20140217178A1 (en) | Information processing method and system | |
CN108564120B (zh) | 基于深度神经网络的特征点提取方法 | |
JP2008176791A (ja) | グラウンドトルース・データからの合成画像及びビデオの生成 | |
CN110390228A (zh) | 基于神经网络的交通标志图片识别方法、装置及存储介质 | |
CN106682652B (zh) | 基于增强现实的结构表面病害巡检和分析方法 | |
CN115170792B (zh) | 红外图像处理方法、装置及设备、存储介质 | |
CN115035581A (zh) | 面部表情识别方法、终端设备及存储介质 | |
CN113065559B (zh) | 图像比对方法、装置、电子设备及存储介质 | |
CN110766645A (zh) | 基于人物识别与分割的目标人物复现图生成方法 | |
CN110781195A (zh) | 一种兴趣点信息更新的系统、方法和装置 | |
CN116563840A (zh) | 基于弱监督跨模态对比学习的场景文本检测与识别方法 | |
JP4550768B2 (ja) | 画像検出方法および画像検出装置 | |
CN115187497A (zh) | 吸烟检测方法、系统、设备及介质 | |
CN109741243B (zh) | 彩色素描图像生成方法及相关产品 | |
CN116862920A (zh) | 一种人像分割方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190621 |