CN110470296A - 一种定位方法、定位机器人及计算机存储介质 - Google Patents
一种定位方法、定位机器人及计算机存储介质 Download PDFInfo
- Publication number
- CN110470296A CN110470296A CN201810447925.9A CN201810447925A CN110470296A CN 110470296 A CN110470296 A CN 110470296A CN 201810447925 A CN201810447925 A CN 201810447925A CN 110470296 A CN110470296 A CN 110470296A
- Authority
- CN
- China
- Prior art keywords
- scene image
- instant scene
- position coordinates
- actual object
- actual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
Abstract
本发明公开了一种定位方法、定位机器人及计算机存储介质,用于节约存储空间,提高系统性能。该定位方法包括:获取机器人所处位置的即时场景图像;对所述即时场景图像进行识别,以确定所述即时场景图像对应的实际物体;判断历史物体中是否有所述实际物体匹配的第一物体,其中,所述历史物体为预先存储的物体;若有所述第一物体匹配,则根据历史物体与位置坐标的对应关系,将所述机器人的当前位置坐标更新为所述第一物体对应的位置坐标。
Description
技术领域
本发明涉及导航定位技术领域,特别涉及一种定位方法、定位机器人及计算机存储介质。
背景技术
自主定位是指在无人操控的情况下,机器人以一定速度自动运行,可以在规划的路线中执行各种任务。
目前的定位一般是基于摄像头及惯性传感器(inertial measurement uint,IMU)进行的视觉导航定位。而在定位过程中,目前一般采用回环检测的方式,即不断地存储图像关键帧,在运动过程中,设备将采集的图像当前帧与存储的图像关键帧进行比较,如果匹配成功,则使用图像关键帧对图像当前帧的位置信息进行修正。而随着时间、运动范围的增加,图像关键帧的存储会占用大量的存储空间,匹配工作任务会越来越繁重耗费CPU大量的运算能力。
可见,目前的定位方法占用的存储空间较大,浪费资源,且耗费CPU较多的运算量,系统性能较低。
发明内容
本发明实施例提供一种定位方法、定位机器人及计算机存储介质,用于节约存储空间,提高系统性能。
第一方面,提供了一种定位方法,该定位方法包括:
获取机器人所处位置的即时场景图像;
对所述即时场景图像进行识别,以确定所述即时场景图像对应的实际物体;
判断历史物体中是否有与所述实际物体匹配的第一物体,其中,所述历史物体为预先存储的物体;
若有所述第一物体匹配,则根据历史物体与位置坐标的对应关系,将所述机器人的当前位置坐标更新为所述第一物体对应的位置坐标。
采用本发明实施例的定位机器人可以直接利用定位区域内布置的实际物体进行重定位,这样当定位机器人的实际位置与导航位置发生偏差可以通过实际物体的位置坐标对定位机器人的位置坐标进行纠正。相较于现有技术采用回环检测的方式纠正定位机器人的坐标,不需要不断地存储图像关键帧,从而节约了存储空间。也不需要CPU不断地匹配,减小了CPU的运算量,从而提高了系统的性能。
可选的,在对所述即时场景图像进行识别,以确定所述即时场景图像对应的实际物体之前,还包括:
获取训练数据集,其中,所述训练数据集包括多张图像与物体的关系对,每个关系对中一个物体对应多张图像;
建立每个关系对中物体与对应的多张图像的函数模型,其中,所述函数模型的输入为多张即时场景图像,输出为至少一个实际物体对应的概率;
利用所述训练数据集对所述函数模型进行训练,直到所述函数模型输出的取值达到设定标准,以获得物体识别模型;
对所述即时场景图像进行识别,以确定所述即时场景图像对应的实际物体,包括:
将所述即时场景图像输入所述物体识别模型;
根据所述物体识别模型输出的概率确定所述即时场景图像对应的实际物体。
这种可选的方式描述了如何根据即时场景图像确定实际物体,本发明实施例通过深度学习的方式对多张即时场景图像进行学习,获得物体识别模型,其中,物体识别模型输入为多张即时场景图像,输出为至少一个实际物体对应的概率,从而可以将获取的即时场景图像输入物体识别模型以确定与即时场景图像对应的实际物体。
可选的,根据所述物体识别模型输出的概率确定所述即时场景图像对应的实际物体,包括:
若确定所述即时场景图像对应的实际物体的数量不止一个,则获取所述即时场景图像中的辅助信息,其中,所述辅助信息用于指示包括所述实际物体的预设范围内的其他物体;
确定所述辅助信息对应的其他物体;
根据所述物体识别模型输出的概率和所述其他物体确定所述即时场景图像对应的实际物体。
这种可选的方式描述了如果通过物体识别模型识别出的实际物体的结果不止一个,例如识别出的实际物体可能是盆栽,而定位区域内可能不止一个盆栽,那么就可以通过即时场景图像中的辅助信息,即指示盆栽周围的其他物体进一步确定是哪个盆栽,从而减小误判的概率。
可选的,
若不存在与所述实际物体匹配的历史物体,则向服务器发送第一请求消息,其中,所述第一请求消息携带指示所述实际物体的信息,用于请求获取所述实际物体的位置坐标;
接收所述服务器发送的所述实际物体的位置坐标;
将所述实际物体,及接收的位置坐标更新至所述历史物体与位置坐标的对应关系。
这种可选的方式描述了如果定位机器人获取的即时场景图像对应的实际物体不在历史物体中,那么该实际物体有可能是后面添置在定位区域内的,此时定位机器人可以将实际物体的信息发送给服务器,以请求从服务器获取该实际物体的位置坐标,并更新保存的历史物体与位置坐标的对应关系。这样就可以不断更新对应关系,增强定位机器人的实用性。
第二方面,提供了一种定位机器人,该定位机器人包括:
获取单元,用于获取机器人所处位置的即时场景图像;
确定单元,用于对所述即时场景图像进行识别,以确定所述即时场景图像对应的实际物体;
判断单元,用于判断历史物体中是否有与所述实际物体匹配的第一物体,其中,所述历史物体为预先存储的物体;
更新单元,用于若有所述第一物体匹配,则根据历史物体与位置坐标的对应关系,将所述机器人的当前位置坐标更新为所述第一物体对应的位置坐标。
可选的,还包括:
训练单元用于在对所述即时场景图像进行识别,以确定所述即时场景图像对应的实际物体之前,获取训练数据集,建立每个关系对中物体与对应的多张图像的函数模型,利用所述训练数据集对所述函数模型进行训练,直到所述函数模型输出的取值达到设定标准,以获得物体识别模型,其中,所述训练数据集包括多张图像与物体的关系对,每个关系对中一个物体对应多张图像,所述函数模型的输入为多张即时场景图像,输出为至少一个实际物体对应的概率;
所述确定单元具体用于:将所述即时场景图像输入所述物体识别模型,根据所述物体识别模型输出的概率确定所述即时场景图像对应的实际物体。
可选的,所述确定单元具体用于:
若确定所述即时场景图像对应的实际物体的数量不止一个,则获取所述即时场景图像中的辅助信息,其中,所述辅助信息用于指示包括所述实际物体的预设范围内的其他物体;
确定所述辅助信息对应的其他物体;
根据所述物体识别模型输出的概率和所述其他物体确定所述即时场景图像对应的实际物体。
可选的,所述更新单元还用于:
若不存在与所述实际物体匹配的历史物体,则向服务器发送第一请求消息,其中,所述第一请求消息携带指示所述实际物体的信息,用于请求获取所述实际物体的位置坐标;
接收所述服务器发送的所述实际物体的位置坐标;
将所述实际物体,及接收的位置坐标更新至所述历史物体与位置坐标的对应关系。
本发明实施例提供的定位机器人的技术效果可以参见上述第一方面的各个实现方式的技术效果,此处不再赘述。
第三方面,提供了一种定位机器人,该定位机器人包括:
至少一个处理器,以及
与所述至少一个处理器连接的存储器;
其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述至少一个处理器通过执行所述存储器存储的指令实现如第一方面任一项所述的方法。
本发明实施例提供的定位机器人的技术效果可以参见上述第一方面的各个实现方式的技术效果,此处不再赘述。
第四方面,提供一种计算机存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面任一项所述的方法。
本发明实施例的定位机器人可以直接利用定位区域内布置的实际物体进行重定位,这样当定位机器人的实际位置与导航位置发生偏差可以通过实际物体的位置坐标对定位机器人的位置坐标进行纠正。相较于现有技术采用回环检测的方式纠正定位机器人的坐标,不需要不断地存储图像关键帧,从而节约了存储空间。也不需要CPU不断地匹配,减小了CPU的运算量,从而提高了系统的性能。
附图说明
图1是本发明实施例提供的定位场景的示意图;
图2为本发明实施例提供的定位方法的流程示意图;
图3为本发明实施例提供的定位机器人的一种结构示意图;
图4为本发明实施例提供的定位机器人的一种结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
通常定位机器人自身设置了陀螺仪、加速度计等惯性传感器进行角度、速度、距离等参数的测量,建立地图,确定自身在地图中的位置、坐标等信息进行导航、路径规划。但是惯性传感器大都存在累积误差及不能自我矫正等问题,因此,定位机器人在长时间运行后,会出现角度或坐标等偏差不断增大的问题。
为此,目前一般采用回环检测的方式,即不断地存储图像关键帧,在运动过程中,定位机器人将采集的图像当前帧与存储的图像关键帧进行比较,这样随着时间、运动范围的增加,图像关键帧的存储会占用大量的存储空间,匹配工作任务会越来越繁重耗费CPU大量的运算能力。
鉴于此,本发明实施例提供了一种定位方法,可以直接利用定位区域内布置的实际物体进行重定位,这样当定位机器人的实际位置与导航位置发生偏差可以通过实际物体的位置坐标对定位机器人的位置坐标进行纠正。相较于现有技术采用回环检测的方式纠正定位机器人的坐标,不需要不断地存储图像关键帧,从而节约了存储空间。也不需要CPU不断地匹配,减小了CPU的运算量,从而提高了系统的性能。
请参见图1,首先介绍本发明实施例的应用场景,本发明实施例提供的定位方法可以应用于室内定位,例如用户的居住场所、商场或超市等。定位区域内放置了多个标识物体,例如,如果定位区域是用户的居住场所,那么标识物体可以有电视、茶几、餐桌和沙发等。如果定位区域是商场,那么标识物体可以有商店的logo、扶梯和电梯等。图1以定位区域是用户的居住场所为例。对于固定的定位区域,每个标识物体一般是处于固定的位置,当定位机器人在定位区域内行走,可以参考机器人到标识物体的距离等确定定位机器人的实际位置。例如,如果定位机器人行走到靠近电视机处,而定位机器人自身计算的坐标与电视机所在位置的坐标相差较大,那么可以认为定位机器人此时的误差较大,可以将电视机所在位置的坐标作为定位机器人的位置坐标,重新开始对定位机器人进行定位,以尽量减少误差。
本发明实施例提供的定位方法,可以预先建立标识物体与对应的位置坐标的对应关系,标识物体可以认为是事先设置在定位区域的物体,为了便于区分,本发明实施例将获取位置坐标的标识物体称为历史物体。其中,历史物体与位置坐标的对应关系可以是预先保存在定位机器人中,可以是存储在其他可能的设备,例如服务器。如果存储在服务器,则定位机器人可以从服务器中获得历史物体与位置坐标的对应关系。
下面结合说明书附图介绍本发明实施例提供的技术方案。
下面结合图2对本发明实施例提供的定位方法进行详细说明,该方法可以适用于图1所示的场景。具体的流程描述如下:
S201:获取机器人所处位置的即时场景图像;
S202:对即时场景图像进行识别,以确定即时场景图像对应的实际物体;
S203:判断历史物体中是否有与实际物体匹配的第一物体,其中,历史物体为预先存储的物体;
S204:若有第一物体匹配,则根据历史物体与位置坐标的对应关系,将机器人的当前位置坐标更新为第一物体对应的位置坐标。
本发明实施例中的定位机器人可以设置摄像头,当定位机器人在定位区域内行走时,通过摄像头可以采集定位机器人所处位置的即时场景图像,识别即时场景图像,确定即时场景图像对应的实际物体,从而根据实际物体的位置坐标判断出定位机器人位置坐标。可能的实施方式中,摄像头可以是广角摄像头,这样采集的即时场景图像就可以包括更多的信息,除了包括实际物体的信息,还可以包括实际物体周围的其它物体的信息。在识别即时场景图像时可以尽量提高识别的正确率。
本发明实施例在识别即时场景图像之前,还可以确定物体识别模型,其中,物体识别模型是通过深度学习网络对至少一张图像进行逐层训练获得的图像与实际物体的概率的关系模型,从而可以通过物体识别模型对即时场景图像进行分析,确定与即时场景图像对应的实际物体。
具体地,本发明实施例可以获取训练数据集,其中,训练数据集包括多张图像与物体的关系对,每个关系对中一个物体对应多张图像。本发明实施例建立每个关系对中物体与对应的多张图像的函数模型,其中,函数模型的输入为多张即时场景图像,输出为至少一个实际物体对应的概率。这样本发明实施例获取训练数据集后,可以利用训练数据集对函数模型进行有监督地训练,直到函数模型输出的取值达到设定标准,即训练后的函数模型为较优的预测模型,以获得物体识别模型。设定标准可以用于指示接近实际物体真实的概率,训练后的函数模型输出的取值达到设定标准,即训练函数模型时训练到函数模型输出的取值指示实际物体的误差较小,此时可以认为通过训练后的函数模型对即时场景图像进行分析的准确度较高。
本发明实施例训练数据集获得物体识别模型这个过程可以在定位机器人实现,也可以通过其他可能的电子设备实现,如果是其他电子设备实现,那么其他电子设备获得物体识别模型后可以将获得的物体识别模型发送给定位机器人,例如,通过无线网络等发送给定位机器人,这样就减轻了定位机器人的负担。或者,训练数据集由其他电子设备实现,优化物体识别模型可以通过定位机器人自身实现,具体地部署可以根据成本和/或计算资源进行确定。本发明实施例可以对应使用不同的深度学习网络,例如循环神经网络或卷积神经网络等训练数据集。
物体识别模型可以对即时场景图像进行分析以确定与即时场景图像对应的实际物体。其中,在向物体识别模型输入即时场景图像时,物体识别模型输出多个实际物体的概率,该概率可以理解为即时场景图像中包括的物体与实际物体的关联度,或者即时场景图像中包括的物体为某一实际物体的概率,从而可以根据多个实际物体的概率确定与即时场景图像对应的实际物体。
一个实际物体的概率大,那么与即时场景图像对应的实际物体就是该实际物体的可能性就较大。因此,如果物体识别模型输出的较大的概率对应的实际物体就可以认为是与即时场景图像对应的实际物体。
而有可能确定的即时场景图像对应的实际物体的数量不止一个。例如,图1所示,A点、B点、C点和D点位置处均是相同的盆栽,那么即使定位机器人通过物体识别模型识别出即时场景图像对应的实际物体是盆栽,也还是不能确定该盆栽是A点、B点或C点,还是D点处的盆栽。这样如果定位机器人选择A点、B点、C点或D点作为最终的实际物体,显然存在误判的可能性较大。
鉴于此,本发明实施例中的定位机器人在确定的即时场景图像对应的实际物体的数量不止一个时,可以获取即时场景图像中的辅助信息,该辅助信息可以用于指示包括实际物体的预设范围内的其他物体。例如,图1所示的A点处盆栽附近的三面墙,又例如B点处盆栽附近的两面墙,C点处盆栽附近的其他盆栽。定位机器人获取辅助信息后,可以确定辅助信息对应的其他物体,从而在根据物体识别模型输出的概率确定的实际物体的基础上,进一步结合其他物体确定即时场景图像对应的实际物体,也就是最终实际物体。这样可以尽量减少对物体误判的可能性。
本发明实施例中的定位机器人在确定了即时场景图像对应的实际物体后,可以判断历史物体中是否有与实际物体匹配的第一物体,其中,历史物体为预先存储的物体信息,可以认为是预先处于定位区域内的物体,例如,图1所示,历史物体包括沙发、电视、餐桌和几个盆栽等。如果有第一物体与实际物体匹配,则可以认为定位机器人移动过程中,遇到的物体是预先处于定位区域内的物体,从而可以根据历史物体与位置坐标的对应关系,可以获得第一物体的位置坐标。而第一物体位置坐标可以认为是即时场景图像对应的实际物体的位置坐标。此时如果定位机器人出现角度或坐标等较大的偏差,则可以将定位机器人的当前位置坐标更新为第一物体对应的位置坐标,从而实现了对定位机器人的位置坐标的矫正。而如果定位机器人出现角度或坐标等较小的偏差,那么本发明实施例可以认为该偏差可以忽略不计,此时不对定位机器人的位置坐标进行矫正。
可能的实施方式中,如果不存在与实际物体匹配的历史物体,那么即时场景图像对应的实际物体可能是后期设置在定位区域内的。此时定位机器人可以向服务器发送第一请求消息,该第一请求消息携带指示实际物体的信息,用于请求获取实际物体的位置坐标。服务器接收第一请求消息后,可以将该实际物体的位置坐标发送给定位机器人,从而使得定位机器人可以将实际物体,及接收的位置坐标更新至历史物体与位置坐标的对应关系。或者服务器可以将实际物体,及接收的位置坐标更新至历史物体与位置坐标的对应关系,并将该实际物体的位置坐标发送给定位机器人。
综上所述,本发明实施例提供了一种定位方法,可以直接利用定位区域内布置的实际物体进行重定位,这样当定位机器人的实际位置与导航位置发生偏差可以通过实际物体的位置坐标对定位机器人的位置坐标进行纠正。相较于现有技术采用回环检测的方式纠正定位机器人的坐标,不需要不断地存储图像关键帧,从而节约了存储空间。也不需要CPU不断地匹配,减小了CPU的运算量,从而提高了系统的性能。
下面结合说明书附图介绍本发明实施例提供的设备。
请参见图3,基于同一发明构思,本发明一实施例提供一种定位机器人,该定位机器人可以包括获取单元301、确定单元302、判断单元303和更新单元304。获取单元301用于支持定位机器人执行图2中的步骤S201。第二确定单元302用于支持定位机器人执行图2中的步骤S202。判断单元303用于支持定位机器人执行图2中的步骤S203。更新单元304用于支持定位机器人执行图2中的步骤S204。其中,上述方法实施例涉及的各步骤的所有相关内容均可以援引到对应功能模块的功能描述,在此不再赘述。
可选的,机器人还包括训练单元,用于:在对即时场景图像进行识别,以确定即时场景图像对应的实际物体之前,获取训练数据集,建立每个关系对中物体与对应的多张图像的函数模型,利用训练数据集对函数模型进行训练,直到函数模型输出的取值达到设定标准,以获得物体识别模型,其中,训练数据集包括多张图像与物体的关系对,每个关系对中一个物体对应多张图像,函数模型的输入为多张即时场景图像,输出为至少一个实际物体对应的概率;
确定单元302具体用于:将即时场景图像输入物体识别模型,根据物体识别模型输出的概率确定即时场景图像对应的实际物体。
可选的,确定单元302具体用于:
若确定即时场景图像对应的实际物体的数量不止一个,则获取即时场景图像中的辅助信息,其中,辅助信息用于指示包括实际物体的预设范围内的其他物体;
确定辅助信息对应的其他物体;
根据物体识别模型输出的概率和其他物体确定即时场景图像对应的实际物体。
可选的,更新单元304还用于:
若不存在与实际物体匹配的历史物体,则向服务器发送第一请求消息,其中,第一请求消息携带指示实际物体的信息,用于请求获取实际物体的位置坐标;
接收服务器发送的实际物体的位置坐标;
将实际物体,及接收的位置坐标更新至历史物体与位置坐标的对应关系。
请参见图4,基于同一发明构思,本发明一实施例提供一种定位机器人,该定位机器人可以包括:至少一个处理器401,处理器401用于执行存储器中存储的计算机程序时实现本发明实施例提供的定位方法的步骤。
可选的,处理器401具体可以是中央处理器、特定应用集成电路(英文:Application Specific Integrated Circuit,简称:ASIC),可以是一个或多个用于控制程序执行的集成电路。
可选的,该定位机器人还包括与至少一个处理器连接的存储器402,存储器402可以包括只读存储器(英文:Read Only Memory,简称:ROM)、随机存取存储器(英文:RandomAccess Memory,简称:RAM)和磁盘存储器。存储器402用于存储处理器401运行时所需的数据,即存储有可被至少一个处理器401执行的指令,至少一个处理器401通过执行存储器402存储的指令,执行如图2所示的方法。其中,存储器402的数量为一个或多个。其中,存储器402在图4中一并示出,但需要知道的是存储器402不是必选的功能模块,因此在图4中以虚线示出。
其中,获取单元301、确定单元302、判断单元303和更新单元304所对应的实体设备均可以是前述的处理器401。该密文检索设备可以用于执行图2所示的实施例所提供的方法。因此关于该设备中各功能模块所能够实现的功能,可参考图2所示的实施例中的相应描述,不多赘述。
本发明实施例还提供一种计算机存储介质,其中,计算机存储介质存储有计算机指令,当计算机指令在计算机上运行时,使得计算机执行如图2所述的方法。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:通用串行总线闪存盘(Universal Serial Bus flash disk)、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (10)
1.一种定位方法,其特征在于,包括:
获取机器人所处位置的即时场景图像;
对所述即时场景图像进行识别,以确定所述即时场景图像对应的实际物体;
判断历史物体中是否有与所述实际物体匹配的第一物体,其中,所述历史物体为预先存储的物体;
若有所述第一物体匹配,则根据历史物体与位置坐标的对应关系,将所述机器人的当前位置坐标更新为所述第一物体对应的位置坐标。
2.如权利要求1所述的方法,其特征在于,在对所述即时场景图像进行识别,以确定所述即时场景图像对应的实际物体之前,还包括:
获取训练数据集,其中,所述训练数据集包括多张图像与物体的关系对,每个关系对中一个物体对应多张图像;
建立每个关系对中物体与对应的多张图像的函数模型,其中,所述函数模型的输入为多张即时场景图像,输出为至少一个实际物体对应的概率;
利用所述训练数据集对所述函数模型进行训练,直到所述函数模型输出的取值达到设定标准,以获得物体识别模型;
对所述即时场景图像进行识别,以确定所述即时场景图像对应的实际物体,包括:
将所述即时场景图像输入所述物体识别模型;
根据所述物体识别模型输出的概率确定所述即时场景图像对应的实际物体。
3.如权利要求2所述的方法,其特征在于,根据所述物体识别模型输出的概率确定所述即时场景图像对应的实际物体,包括:
若确定所述即时场景图像对应的实际物体的数量不止一个,则获取所述即时场景图像中的辅助信息,其中,所述辅助信息用于指示包括所述实际物体的预设范围内的其他物体;
确定所述辅助信息对应的其他物体;
根据所述物体识别模型输出的概率和所述其他物体确定所述即时场景图像对应的实际物体。
4.如权利要求1-3任一所述的方法,其特征在于,
若不存在与所述实际物体匹配的历史物体,则向服务器发送第一请求消息,其中,所述第一请求消息携带指示所述实际物体的信息,用于请求获取所述实际物体的位置坐标;
接收所述服务器发送的所述实际物体的位置坐标;
将所述实际物体,及接收的位置坐标更新至所述历史物体与位置坐标的对应关系。
5.一种定位机器人,其特征在于,包括:
获取单元,用于获取机器人所处位置的即时场景图像;
确定单元,用于对所述即时场景图像进行识别,以确定所述即时场景图像对应的实际物体;
判断单元,用于判断历史物体中是否有所述实际物体匹配的第一物体,其中,所述历史物体为预先存储的物体;
更新单元,用于若有所述第一物体匹配,则根据历史物体与位置坐标的对应关系,将所述机器人的当前位置坐标更新为所述第一物体对应的位置坐标。
6.如权利要求5所述的机器人,其特征在于,还包括:
训练单元,用于在对所述即时场景图像进行识别,以确定所述即时场景图像对应的实际物体之前,获取训练数据集,建立每个关系对中物体与对应的多张图像的函数模型,利用所述训练数据集对所述函数模型进行训练,直到所述函数模型输出的取值达到设定标准,以获得物体识别模型,其中,所述训练数据集包括多张图像与物体的关系对,每个关系对中一个物体对应多张图像,所述函数模型的输入为多张即时场景图像,输出为至少一个实际物体对应的概率;
所述确定单元具体用于:将所述即时场景图像输入所述物体识别模型,根据所述物体识别模型输出的概率确定所述即时场景图像对应的实际物体。
7.如权利要求6所述的机器人,其特征在于,所述确定单元具体用于:
若确定所述即时场景图像对应的实际物体的数量不止一个,则获取所述即时场景图像中的辅助信息,其中,所述辅助信息用于指示包括所述实际物体的预设范围内的其他物体;
确定所述辅助信息对应的其他物体;
根据所述物体识别模型输出的概率和所述其他物体确定所述即时场景图像对应的实际物体。
8.如权利要求5-7任一所述的机器人,其特征在于,所述更新单元还用于:
若不存在与所述实际物体匹配的历史物体,则向服务器发送第一请求消息,其中,所述第一请求消息携带指示所述实际物体的信息,用于请求获取所述实际物体的位置坐标;
接收所述服务器发送的所述实际物体的位置坐标;
将所述实际物体,及接收的位置坐标更新至所述历史物体与位置坐标的对应关系。
9.一种定位机器人,其特征在于,包括:
至少一个处理器,以及
与所述至少一个处理器连接的存储器;
其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述至少一个处理器通过执行所述存储器存储的指令实现如权利要求1-4任一项所述的方法。
10.一种计算机存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-4任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810447925.9A CN110470296A (zh) | 2018-05-11 | 2018-05-11 | 一种定位方法、定位机器人及计算机存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810447925.9A CN110470296A (zh) | 2018-05-11 | 2018-05-11 | 一种定位方法、定位机器人及计算机存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110470296A true CN110470296A (zh) | 2019-11-19 |
Family
ID=68504193
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810447925.9A Pending CN110470296A (zh) | 2018-05-11 | 2018-05-11 | 一种定位方法、定位机器人及计算机存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110470296A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111179377A (zh) * | 2019-12-31 | 2020-05-19 | 深圳市优必选科技股份有限公司 | 机器人建图方法、相应的机器人及存储介质 |
CN112902987A (zh) * | 2021-02-02 | 2021-06-04 | 北京三快在线科技有限公司 | 一种位姿修正的方法及装置 |
CN112978551A (zh) * | 2021-02-27 | 2021-06-18 | 浙江城际特种设备检测有限公司 | 一种自动扶梯安全检验方法、系统、存储介质及智能终端 |
CN111179377B (zh) * | 2019-12-31 | 2024-04-26 | 深圳市优必选科技股份有限公司 | 机器人建图方法、相应的机器人及存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110064269A1 (en) * | 2009-09-14 | 2011-03-17 | Manipal Institute Of Technology | Object position tracking system and method |
CN104063423A (zh) * | 2014-05-30 | 2014-09-24 | 小米科技有限责任公司 | 一种确定位置的方法及装置 |
CN104897165A (zh) * | 2014-03-06 | 2015-09-09 | 苏州工业园区新国大研究院 | 基于拍摄景物的导航方法及其系统 |
CN105865451A (zh) * | 2016-04-19 | 2016-08-17 | 深圳市神州云海智能科技有限公司 | 用于移动机器人室内定位的方法和设备 |
CN106529427A (zh) * | 2016-10-24 | 2017-03-22 | 合肥华凌股份有限公司 | 图像中目标物体识别方法、冰箱内食品识别方法及系统 |
CN106709462A (zh) * | 2016-12-29 | 2017-05-24 | 天津中科智能识别产业技术研究院有限公司 | 一种室内定位方法及其装置 |
CN107131883A (zh) * | 2017-04-26 | 2017-09-05 | 中山大学 | 基于视觉的全自动移动终端室内定位系统 |
CN107167144A (zh) * | 2017-07-07 | 2017-09-15 | 武汉科技大学 | 一种基于视觉的移动机器人室内环境识别定位方法 |
CN107403151A (zh) * | 2017-07-18 | 2017-11-28 | 广州贰拾肆机器人科技有限公司 | 通过室内天花定位的方法、装置、设备及可读介质 |
WO2018038551A1 (ko) * | 2016-08-25 | 2018-03-01 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
-
2018
- 2018-05-11 CN CN201810447925.9A patent/CN110470296A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110064269A1 (en) * | 2009-09-14 | 2011-03-17 | Manipal Institute Of Technology | Object position tracking system and method |
CN104897165A (zh) * | 2014-03-06 | 2015-09-09 | 苏州工业园区新国大研究院 | 基于拍摄景物的导航方法及其系统 |
CN104063423A (zh) * | 2014-05-30 | 2014-09-24 | 小米科技有限责任公司 | 一种确定位置的方法及装置 |
CN105865451A (zh) * | 2016-04-19 | 2016-08-17 | 深圳市神州云海智能科技有限公司 | 用于移动机器人室内定位的方法和设备 |
WO2018038551A1 (ko) * | 2016-08-25 | 2018-03-01 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
CN106529427A (zh) * | 2016-10-24 | 2017-03-22 | 合肥华凌股份有限公司 | 图像中目标物体识别方法、冰箱内食品识别方法及系统 |
CN106709462A (zh) * | 2016-12-29 | 2017-05-24 | 天津中科智能识别产业技术研究院有限公司 | 一种室内定位方法及其装置 |
CN107131883A (zh) * | 2017-04-26 | 2017-09-05 | 中山大学 | 基于视觉的全自动移动终端室内定位系统 |
CN107167144A (zh) * | 2017-07-07 | 2017-09-15 | 武汉科技大学 | 一种基于视觉的移动机器人室内环境识别定位方法 |
CN107403151A (zh) * | 2017-07-18 | 2017-11-28 | 广州贰拾肆机器人科技有限公司 | 通过室内天花定位的方法、装置、设备及可读介质 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111179377A (zh) * | 2019-12-31 | 2020-05-19 | 深圳市优必选科技股份有限公司 | 机器人建图方法、相应的机器人及存储介质 |
CN111179377B (zh) * | 2019-12-31 | 2024-04-26 | 深圳市优必选科技股份有限公司 | 机器人建图方法、相应的机器人及存储介质 |
CN112902987A (zh) * | 2021-02-02 | 2021-06-04 | 北京三快在线科技有限公司 | 一种位姿修正的方法及装置 |
CN112978551A (zh) * | 2021-02-27 | 2021-06-18 | 浙江城际特种设备检测有限公司 | 一种自动扶梯安全检验方法、系统、存储介质及智能终端 |
CN112978551B (zh) * | 2021-02-27 | 2023-01-31 | 浙江城际特种设备检测有限公司 | 一种自动扶梯安全检验方法、系统、存储介质及智能终端 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107990899B (zh) | 一种基于slam的定位方法和系统 | |
CN108225348B (zh) | 地图创建以及运动实体定位的方法和装置 | |
CN109074085B (zh) | 一种自主定位和地图建立方法、装置和机器人 | |
CN112734852B (zh) | 一种机器人建图方法、装置及计算设备 | |
CN107025662A (zh) | 一种实现增强现实的方法、服务器、终端及系统 | |
JP2018128314A (ja) | 移動体位置推定システム、移動体位置推定端末装置、情報格納装置、及び移動体位置推定方法 | |
US20210097103A1 (en) | Method and system for automatically collecting and updating information about point of interest in real space | |
CN110914837B (zh) | 确定车头朝向的方法和系统 | |
US11315430B2 (en) | System, program, and method for detecting information on a person from a video of an on-vehicle camera | |
US10593065B2 (en) | Method and device for camera pose estimation | |
CN109903330A (zh) | 一种处理数据的方法和装置 | |
Caldini et al. | Smartphone-based obstacle detection for the visually impaired | |
US20210192781A1 (en) | Position estimation apparatus, tracker, position estimation method, and program | |
CN111521971B (zh) | 一种机器人的定位方法及系统 | |
CN110470296A (zh) | 一种定位方法、定位机器人及计算机存储介质 | |
CN110619497B (zh) | 地址检验方法、装置、电子设备及存储介质 | |
US11023775B2 (en) | Information processing method and information processing system | |
WO2013140133A1 (en) | Generating navigation data | |
US20200271468A1 (en) | Vehicle allocation supporting apparatus, program, and control method | |
US11692829B2 (en) | System and method for determining a trajectory of a subject using motion data | |
CN111325088B (zh) | 信息处理系统、记录介质以及信息处理方法 | |
Wietrzykowski et al. | Adopting the FAB-MAP algorithm for indoor localization with WiFi fingerprints | |
CN110796706A (zh) | 视觉定位方法及系统 | |
WO2022152081A1 (zh) | 导航方法和装置 | |
CN115014324A (zh) | 定位方法、装置、介质、设备及车辆 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191119 |
|
RJ01 | Rejection of invention patent application after publication |