CN110160532A - 定位方法及装置、以及终端设备 - Google Patents
定位方法及装置、以及终端设备 Download PDFInfo
- Publication number
- CN110160532A CN110160532A CN201910583494.3A CN201910583494A CN110160532A CN 110160532 A CN110160532 A CN 110160532A CN 201910583494 A CN201910583494 A CN 201910583494A CN 110160532 A CN110160532 A CN 110160532A
- Authority
- CN
- China
- Prior art keywords
- image
- map
- location
- space
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了一种定位方法,应用于终端设备。所述方法包括首先采集空间区域的至少一个第一图像,然后利用定位模型处理所述至少一个第一图像,以获得与所述至少一个第一图像对应的在所述空间区域中的至少一个位置信息,其中所述定位模型为通过构建所述空间区域的地图时所使用的图像数据训练获得的神经网络模型,接着输出所述至少一个位置信息。本公开还提供了一种定位装置、一种终端设备。此外,本公开还提供了一种训练定位模型的方法、装置及系统。
Description
技术领域
本公开涉及一种定位方法及装置、以及终端设备。
背景技术
现有的室内空间定位可以分为非视觉定位系统或视觉定位系统两大类。非视觉定位系统包括由无线通讯、基站定位、惯导定位等多种技术集成形成的定位系统。其中,非视觉定位系统随着室内空间的增大及接入用户的增多,非视觉定位系统的负荷会增大,这可能会导致较长的响应时间和较差的定位精度。另外,视觉定位系统则需要将大量图像数据传输到云端处理,并等待云端反馈定位信息,这对数据带宽及云端的计算速度要求都较高。
发明内容
本公开的一个方面提供了一种定位方法,应用于终端设备。所述定位方法包括采集空间区域的至少一个第一图像,利用定位模型处理所述至少一个第一图像,以获得与所述至少一个第一图像对应的在所述空间区域中的至少一个位置信息,其中所述定位模型为通过构建所述空间区域的地图时所使用的图像数据训练获得的神经网络模型,以及输出所述至少一个位置信息。
可选地,所述定位方法还包括训练所述定位模型。所述训练所述定位模型包括按照预定路径连续采集所述空间区域的多个第二图像,通过所述多个第二图像构建所述地图,确定所述多个第二图像中每个第二图像在所述地图中的位置信息,以及基于所述地图、所述多个第二图像以及所述多个第二图像中每个第二地图在所述地图中的位置信息,训练所述定位模型。
可选地,所述定位模型包括姿态检测Posenet模型。
可选地,在所述采集空间区域的至少一个第一图像之前,所述方法还包括从云端下载并安装所述定位模型。
本公开的另一方面提供了一种训练定位模型的方法。所述训练定位模型的方法包括获取用于训练所述定位模型的样本数据,所述样本数据为构建空间区域的地图时所使用的图像数据,其中所述定位模型用于对所述空间区域内的位置进行定位,以及基于所述图像样本数据,训练所述定位模型。
可选地,所述获取用于训练所述定位模型的样本数据,包括按照预定路径连续采集所述空间区域的多个第二图像,通过所述多个第二图像构建所述地图,确定所述多个第二图像中每个第二图像在所述地图中的位置信息,以及以所述第二图像以及所述第二图像中每个第二图像在所述地图中的位置信息作为所述样本数据。
本公开的另一方面提供了一种定位装置。所述定位装置设置于终端设备。所述定位装置包括采集模块、处理模块以及输出模块。所述采集模块用于采集空间区域的至少一个第一图像。所述处理模块用于利用定位模型处理所述至少一个第一图像,以获得与所述至少一个第一图像对应的在所述空间区域中的至少一个位置信息,其中所述定位模型为通过构建所述空间区域的地图时所使用的图像数据训练获得的神经网络模型。所述输出模块用于输出所述至少一个位置信息。
本公开的另一方面提供了一种训练定位模型的装置,包括获取模块以及训练模块。所述获取模块用于获取用于训练所述定位模型的样本数据,所述样本数据为构建空间区域的地图时所使用的图像数据,其中所述定位模型用于对所述空间区域内的位置进行定位。所述训练模块用于基于所述图像样本数据,训练所述定位模型。
本公开的另一方面提供了一种用于定位的终端设备。所述终端设备包括图像采集单元、输出单元、处理器和存储器。图像采集单元用于采集图像。输出单元用于输出基于所述图像采集单元采集的图像而获得的位置信息。存储器上存储有可执行指令。所述指令被所述处理器执行时使所述处理器执行如上所述的定位方法。
本公开的另一方面提供了一种训练定位模型的系统。该系统包括处理器和存储器。存储器上存储有可执行指令,所述指令被所述处理器执行时使所述处理器执行如上所述的训练定位模型的方法。
本公开的另一方面提供了一种计算机可读存储介质,存储有计算机可执行指令,所述指令在被执行时用于实现如上所述的定位方法或训练定位模型的方法。
本公开的另一方面提供了一种计算机程序,所述计算机程序包括计算机可执行指令,所述指令在被执行时用于实现如上所述的定位方法或训练定位模型的方法。
附图说明
为了更完整地理解本公开及其优势,现在将参考结合附图的以下描述,其中:
图1示意性示出了根据本公开实施例的定位方法和终端设备的一个应用情景实例;
图2示意性示出了根据本公开一实施例的定位方法的流程图;
图3示意性示出了根据本公开另一实施例的定位方法的流程图;
图4A示意性示出了根据本公开又一实施例的定位方法的流程图;
图4B示意性示出了应用图4A中的定位方法的系统架构;
图5示意性示出了根据本公开一实施例的训练定位模型的方法的流程图;
图6示意性示出了根据本公开另一实施例的训练定位模型的方法流程图;
图7示意性示出了根据本公开实施例的定位方法和训练定位模型的方法的构思示意;
图8示意性示出了根据本公开实施例的定位装置的框图;
图9示意性示出了根据本公开实施例的训练定位模型的装置的框图;以及
图10示意性示出了适于实现根据本公开实施例的方法的计算机系统的框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。在使用类似于“A、B或C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B或C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
附图中示出了一些方框图和/或流程图。应理解,方框图和/或流程图中的一些方框或其组合可以由计算机程序指令来实现。这些计算机程序指令可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,从而这些指令在由该处理器执行时可以创建用于实现这些方框图和/或流程图中所说明的功能/操作的装置。本公开的技术可以硬件和/或软件(包括固件、微代码等)的形式来实现。另外,本公开的技术可以采取存储有指令的计算机可读存储介质上的计算机程序产品的形式,该计算机程序产品可供指令执行系统使用或者结合指令执行系统使用。
现有的定位技术通常都需要本地设备与远端设备的交互,这样一方面影响定位的实时性,另一方面也会对数据传输速率有要求。本公开实施例提供的定位方法和装置可以在本地采集当前场景图像,并利用本地的定位模型实时获取到当前的位置信息,这样既能提高定位的实时性,也能够减少对数据传输的依赖。
具体地,本公开的各个实施例提供了一种应用于终端设备定位方法、定位装置以及相应的终端设备。该定位方法包括首先采集空间区域的至少一个第一图像,然后利用定位模型处理该至少一个第一图像,以获得与该至少一个第一图像对应的在该空间区域中的至少一个位置信息,其中该定位模型为通过构建该空间区域的地图时所使用的图像数据训练获得的神经网络模型,之后输出该至少一个位置信息。
另外,本公开的各个实施例还提供了一种训练定位模型的方法、装置及系统。该训练定位模型的方法包括获取用于训练该定位模型的样本数据,该样本数据为构建空间区域的地图时所使用的图像数据,其中该定位模型用于对该空间区域内的位置进行定位,以及基于该图像样本数据,训练该定位模型。
根据本公开的一些实施例,对定位模型的训练可以是在该终端设备中进行。例如,在将该终端设备用于定位之前,可以对终端设备中的定位模型进行训练。根据本公开的另一些实施例,对定位模型的训练可以是由不同于该终端设备的其他电子设备进行(例如,在云端训练该定位模型)。然后,将训练完成的定位模型导入到该终端设备中。
图1示意性示出了根据本公开实施例的定位方法和终端设备的一个应用情景实例。
如图1所示,该应用情景中需要进行定位的空间区域可以是商场1。在该应用情景中,可以将终端设备100安装在购物车或者购物篮上,这样当顾客2推动购物车或购物篮在商场1中移动时,终端设备100也会随之移动。
终端设备100可以包括图像采集单元,例如摄像头、或者光敏传感器等。终端设备100还可以包括输出单元,例如显示器或者扬声器等。根据本公开的实施例,终端设备100例如还可以包括具有一定计算能力的芯片(例如,GPU),GPU上可以运行定位模型,其中该定位模型是通过构建商场1的内部空间的地图时所使用的图像数据训练获得的神经网络模型。
当顾客2推动购物车或购物篮在商场1中移动时,该终端设备100可以通过图像采集单元来采集周围环境的图像,然后执行本公开实施例的定位方法以实时地输出顾客当前在商场1中的位置。其中,在通过终端设备100进行定位的过程中,终端设备100可以通过本地的运算来实现,从而在定位过程中可以减少与源端设备(例如,云端或基站等)进行数据交互,减少对数据传输的依赖。
需要注意的是,图1所示仅为可以应用本公开实施例的终端设备100的一个应用情景的示例,以帮助本领域技术人员理解本公开的技术内容,并不对本公开实施例构成任何限定。
图2示意性示出了根据本公开一实施例的定位方法的流程图。
如图2所示,根据本公开一实施例的定位方法可以应用于终端设备100。该定位方法可以包括操作S201和操作S202。
在操作S201,采集空间区域的至少一个第一图像。例如,当终端设备100包括摄像头时,可以通过摄像头采集该至少一个第一图像。在一些实施例中,可以是通过摄像头连续采集多个第一图像。例如,可以是在终端设备100中预先设置每隔一定时间(例如,2s)采集一次图像。这样,根据本公开的实施例,当顾客2推着购物车在商场1里移动时,终端设备100就可以连续采集到顾客2移动所经过的场景的图像,从而可以对顾客2的移动进行全程定位。
在操作S202,利用定位模型处理该至少一个第一图像,以获得与该至少一个第一图像对应的在该空间区域(例如,商场1)中的至少一个位置信息,其中该定位模型为通过构建该空间区域的地图时所使用的图像数据训练获得的神经网络模型。
根据本公开的实施例,构建该空间区域的地图时所使用的图像数据可以包括构建该地图时所使用的第二图像以及每个第二图像在该地图中的位置信息。例如,可以通过SLAM(Simultaneous localization and mapping,即时定位与地图构建)算法进行构建空间区域的地图。相应地,可以通过SLAM算法计算得到每个第二图像在该地图中的位置信息。
根据本公开的实施例,构建地图时所使用的第二图像的位置信息可以根据构建地图的过程精确计算出来。这样,使用构建该空间区域的地图时所使用的图像数据训练神经网络,可以得到准确有效的定位模型。
根据本公开的实施例,该定位模型可以是姿态检测Posenet模型。利用Posenet模型处理该第一图像,可以对应得到拍摄该第一图像时摄像头的姿态信息,该姿态信息可以包括摄像头的在地图中的坐标位置以及朝向等信息。进而,可以基于该姿态信息可以获取到该第一图像在该空间区域中对应的位置信息。
之后在操作S203,输出该至少一个位置信息。
例如,若终端设备100包括显示器,可以通过显示器来显示该至少一个位置信息。例如,可以以图像画面的方式显示该至少一个位置信息。在一个实施例中,例如可以将在图像画面中显示出该商场1的整体三维模型,并在该三维模型中标出顾客2当前所在的位置。在一个实施例中,例如可以以二维或三维图像的方式显示出顾客2在商场1中当前楼层的位置信息。
或者再例如,若终端设备包括扬声器,可以通过扬声器以语音的方式播报顾客2当前的位置。
根据本公开实施例的定位方法,可以在本地采集当前场景图像,并利用本地的定位模型实时获取到当前的位置信息,减少了对数据传输的依赖,提高了定位的实时性。
图3示意性示出了根据本公开另一实施例的定位方法的流程图。
如图3所示,根据本公开另一实施例,应用于终端设备100的定位方法除了操作S201~操作S203以外,还可以包括操作S301。
在操作S301训练该定位模型。根据本公开实施例,可以在终端设备1中训练该定位模型。其中,关于操作S301中训练定位模型的具体实现可以参考下文关于图5和图6的描述。
图4A示意性示出了根据本公开又一实施例的定位方法的流程图。
如图4A所示,根据本公开又一实施例,应用于终端设备1的定位方法除了操作S201~操作S203以外,还可以包括操作S401。
在操作S401,从云端或商场服务器下载并安装该定位模型,所述定位模型已经完成训练。根据本公开的实施例,可以在云端和商场服务器训练该定位模型,该终端设备100是可拆卸的终端,能够实现远端的边缘计算。在终端设备100下载该定位模型以及将该定位模型安装到终端设备100中,该下载或训练的过程可以是固定时间的、周期性的过程,也可以是按需求进行。
图4B示意性示出了应用图4A中的定位方法的系统架构400。
如图4B所示,该系统架构400可以包括终端设备100、网络401和云端服务器402。其中,网络401是用以在终端设备100和云端服务器402之间提供网络传输的链路或介质。在图4A所示的定位方法中,可以在云端服务器402中训练定位模型,然后将训练好的定位模型通过网络401传输给终端设备100。进而可以在终端设备100本地安装该定位模型。然后终端设备100可以在本地根据采集的图像进行实时定位。
通常而言云端服务器402的计算能力更为强大,可以满足训练定位模型的大量运算。终端设备100从云端下载并安装该定位模型,从而终端设备100的主要运算集中于计算当前的位置信息,可以降低对终端设备运算性能的要求,也有利于提高终端设备100定位的实时性。
在系统架构400中,云端服务器402也可以通过网络401获取终端设备100中的数据。例如,在一个实施例中,例如终端设备100根据用户设置持续不断地采集周围环境的图像,同时云端服务器402也可以根据设置要求(例如,根据后台技术人员的触发操作)获取终端设备100在预定时间段内利用该定位模型得到的至少一个位置信息,然后云端服务器402可以基于该至少一个位置信息,获得在该预定时间内该终端设备100的移动路径。例如该预定时间段可以是顾客2推动购物车在商场1中移动的时间段。例如,可以基于顾客2对终端设备100的授权操作,允许终端设备100将定位模型得到的顾客2在商场1中移动的过程的一系列位置信息上传给云端服务器402。在这种情况下,云端服务器402可以基于该一系列位置信息得到终端设备100的移动路径,也即得到顾客2在商场1的移动路径等信息,从而可以为商场1的布局优化提供参考。
图5示意性示出了根据本公开一实施例的训练定位模型的方法的流程图。
如图5所示,根据本公开实施例的训练定位模型的方法可以包括操作S501和操作S502。
首先在操作S501,获取用于训练该定位模型的样本数据,该样本数据为构建空间区域的地图时所使用的图像数据,其中该定位模型用于对该空间区域内的位置进行定位。
然后在操作S502,基于该图像样本数据,训练该定位模型。
图6示意性示出了根据本公开另一实施例的训练定位模型的方法流程图。
如图6所示,该训练定位模型的方法中,操作S501可以实现为操作S611~操作S631,操作S502可以实现为操作S612。
首先在操作S611,按照预定路径连续采集该空间区域的多个第二图像。
然后在操作S621,通过该多个第二图像构建该地图。
接着在操作S631,确定该多个第二图像中每个第二图像在该地图中的位置信息。例如在操作S621中通过SLAM算法构建地图时,在操作S631中可以通过SLAM算法计算出每个第二图像在该地图中的位置信息。
之后在操作S612,基于该地图、该多个第二图像以及该多个第二图像中每个第二地图在该地图中的位置信息,训练该定位模型。
根据本公开的实施例,第二图像是用于构建地图时所采用的图像,其在地图中的位置信息能够精确地反算出。这样,使用第二地图以及第二地图对应的位置信息来训练定位模型,能够得到精确有效的定位模型。
图7示意性示出了根据本公开实施例的定位方法和训练定位模型的方法的构思示意。在图7的示意中,该训练方法在终端设备100以外的其他设备中执行。
如图7所示,根据本公开的实施例,在定位模型的训练阶段可以根据SLAM算法利用多个第二图像来构建空间区域的地图,进而通过SLAM算法可以反算出每个第二图像在地图中的位置信息。该地图、第二图像以及每个第二图像在地图中的位置信息组成了训练定位模型的样本数据。然后利用Posenet生成用于定位的神经网络模型,并通过该样本数据训练该神经网络模型,得到定位模型。
在定位应用阶段,可以将定位模型、以及在构建地图时获得的图像数据(包括地图、多个第二图像以及每个第二图像在地图中的位置信息)导入到终端设备100中。然后可以将终端设备100部署于如图1所示在购物车或者购物篮上。当顾客2需要获得当前位置时,终端设备100可以通过获取当前所处环境的图像(即,第一图像),利用Posenet定位模型实施计算得到的定位结果。
图8示意性示出了根据本公开实施例的定位装置800的框图。其中,该定位装置800可以设置于终端设备100中。
如图8所示,该定位装置800可以包括采集模块810、处理模块820以及输出模块830。根据本公开的另一些实施例定位装置800还可以包括通信模块840。
采集模块810例如可以执行操作S201,用于采集空间区域的至少一个第一图像。
处理模块820例如可以执行操作S202,用于利用定位模型处理该至少一个第一图像,以获得与该至少一个第一图像对应的在该空间区域中的至少一个位置信息,其中该定位模型为通过构建该空间区域的地图时所使用的图像数据训练获得的神经网络模型。
输出模块830例如可以执行操作S203,用于输出该至少一个位置信息。
通信模块840可以用于与云端通信,例如执行操作S401,用于从云端下载该定位模型。
根据本公开的实施例,定位装置800可以用于执行参考图2~图4A所描述的定位方法,实现在本地采集当前场景的图像,并在本地处理该图像以进行实时定位。
图9示意性示出了根据本公开实施例的训练定位模型的装置900的框图。该训练定位模型的装置900可以设置于终端设备100,或者也可以设置于云端服务器402,或者也可以设置于与终端设备100通信的其他电子设备中。
如图9所示,该训练定位模型的装置900可以包括获取模块910以及训练模块920。获取模块910例如可以执行操作S501,用于获取用于训练该定位模型的样本数据,该样本数据为构建空间区域的地图时所使用的图像数据,其中该定位模型用于对该空间区域内的位置进行定位。训练模块920例如可以执行操作S502,用于基于该图像样本数据,训练该定位模型。
根据本公开的实施例,该训练定位模型的装置900可以用于执行参考图5~图6所描述的训练定位模型的方法,利用构建空间区域的地图时所使用的图像数据来训练定位模型,能够得到精确有效的定位模型。
根据本公开的实施例的模块、子模块、单元、子单元中的任意多个、或其中任意多个的至少部分功能可以在一个模块中实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以被拆分成多个模块来实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式的硬件或固件来实现,或以软件、硬件以及同件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,根据本公开实施例的模块、子模块、单元、子单元中的一个或多个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
例如,采集模块810、处理模块820、输出模块830、通信模块840、获取模块910、以及训练模块920中的任意多个可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本公开的实施例,采集模块810、处理模块820、输出模块830、通信模块840、获取模块910、以及训练模块920中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,采集模块810、处理模块820、输出模块830、通信模块840、获取模块910、以及训练模块920中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
图10示意性示出了根据本公开实施例的适于实现上文描述的方法的计算机系统1000的方框图。图10示出的计算机系统1000仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图10所示,机器人1000包括处理器1010、计算机可读存储介质1020、信号采集单元1030、以及输出单元1040。该机器人1000可以执行根据本公开实施例的定位方法或训练定位模型的方法。
具体地,处理器1010例如可以包括通用微处理器、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC)),等等。处理器1010还可以包括用于缓存用途的板载存储器。处理器1010可以是用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
计算机可读存储介质1020,例如可以是非易失性的计算机可读存储介质,具体示例包括但不限于:磁存储装置,如磁带或硬盘(HDD);光存储装置,如光盘(CD-ROM);存储器,如随机存取存储器(RAM)或闪存;等等。
计算机可读存储介质1020可以包括计算机程序1021,该计算机程序1021可以包括代码/计算机可执行指令,其在由处理器1010执行时使得处理器1010执行根据本公开实施例的方法或其任何变形。
计算机程序1021可被配置为具有例如包括计算机程序模块的计算机程序代码。例如,在示例实施例中,计算机程序1021中的代码可以包括一个或多个程序模块,例如包括1021A、模块1021B、……。应当注意,模块的划分方式和个数并不是固定的,本领域技术人员可以根据实际情况使用合适的程序模块或程序模块组合,当这些程序模块组合被处理器1010执行时,使得处理器1010可以执行根据本公开实施例的方法或其任何变形。
根据本公开的实施例,信号采集单元1030例如可以是摄像头、或者传感器等。输出单元1040例如可以是显示器、或者扬声器等。处理器1010可以与信号采集单元1030和输出单元1040进行交互,来执行根据本公开实施例的方法或其任何变形。
根据本发明的实施例,采集模块810、处理模块820、输出模块830、通信模块840、获取模块910、以及训练模块920中的至少一个可以实现为参考图10描述的计算机程序模块,其在被处理器1010执行时,可以实现上面描述的相应操作。
本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的定位方法或训练定位模型的方法。
根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质,例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征在不冲突的情况下可以进行多种组合和/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
尽管已经参照本公开的特定示例性实施例示出并描述了本公开,但是本领域技术人员应该理解,在不背离所附权利要求及其等同物限定的本公开的精神和范围的情况下,可以对本公开进行形式和细节上的多种改变。因此,本公开的范围不应该限于上述实施例,而是应该不仅由所附权利要求来进行确定,还由所附权利要求的等同物来进行限定。
Claims (10)
1.一种定位方法,应用于终端设备,所述方法包括:
采集空间区域的至少一个第一图像;
利用定位模型处理所述至少一个第一图像,以获得与所述至少一个第一图像对应的在所述空间区域中的至少一个位置信息,其中所述定位模型为通过构建所述空间区域的地图时所使用的图像数据训练获得的神经网络模型;以及
输出所述至少一个位置信息。
2.根据权利要求1所述的方法,所述方法还包括训练所述定位模型,包括:
按照预定路径连续采集所述空间区域的多个第二图像;
通过所述多个第二图像构建所述地图;
确定所述多个第二图像中每个第二图像在所述地图中的位置信息;以及
基于所述地图、所述多个第二图像以及所述多个第二图像中每个第二地图在所述地图中的位置信息,训练所述定位模型。
3.根据权利要求1所述的方法,其中:
所述定位模型包括姿态检测Posenet模型。
4.根据权利要求1所述的方法,其中,在所述采集空间区域的至少一个第一图像之前,所述方法还包括:
从云端下载并安装所述定位模型。
5.一种训练定位模型的方法,包括:
获取用于训练所述定位模型的样本数据,所述样本数据为构建空间区域的地图时所使用的图像数据,其中所述定位模型用于对所述空间区域内的位置进行定位;以及
基于所述图像样本数据,训练所述定位模型。
6.根据权利要求5所述的方法,其中,所述获取用于训练所述定位模型的样本数据包括:
按照预定路径连续采集所述空间区域的多个第二图像;
通过所述多个第二图像构建所述地图;
确定所述多个第二图像中每个第二图像在所述地图中的位置信息;以及
以所述第二图像以及所述第二图像中每个第二图像在所述地图中的位置信息作为所述样本数据。
7.一种定位装置,设置于终端设备,所述装置包括:
采集模块,用于采集空间区域的至少一个第一图像;
处理模块,用于利用定位模型处理所述至少一个第一图像,以获得与所述至少一个第一图像对应的在所述空间区域中的至少一个位置信息,其中所述定位模型为通过构建所述空间区域的地图时所使用的图像数据训练获得的神经网络模型;以及
输出模块,用于输出所述至少一个位置信息。
8.一种训练定位模型的装置,包括:
获取模块,用于获取用于训练所述定位模型的样本数据,所述样本数据为构建空间区域的地图时所使用的图像数据,其中所述定位模型用于对所述空间区域内的位置进行定位;
训练模块,用于基于所述图像样本数据,训练所述定位模型。
9.一种用于定位的终端设备,包括:
图像采集单元,用于采集图像;
输出单元,用于输出基于所述图像采集单元采集的图像而获得的位置信息;
处理器;以及
存储器,其上存储有可执行指令,所述指令被所述处理器执行时使所述处理器执行根据权利要求1~4任意一项所述的方法。
10.一种训练定位模型的系统,包括:
处理器;以及
存储器,其上存储有可执行指令,所述指令被所述处理器执行时使所述处理器执行根据权利要求5或6任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910583494.3A CN110160532A (zh) | 2019-06-28 | 2019-06-28 | 定位方法及装置、以及终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910583494.3A CN110160532A (zh) | 2019-06-28 | 2019-06-28 | 定位方法及装置、以及终端设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110160532A true CN110160532A (zh) | 2019-08-23 |
Family
ID=67637495
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910583494.3A Pending CN110160532A (zh) | 2019-06-28 | 2019-06-28 | 定位方法及装置、以及终端设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110160532A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107992906A (zh) * | 2018-01-02 | 2018-05-04 | 联想(北京)有限公司 | 一种模型处理方法、系统、终端设备及服务器 |
CN108665496A (zh) * | 2018-03-21 | 2018-10-16 | 浙江大学 | 一种基于深度学习的端到端的语义即时定位与建图方法 |
CN108898669A (zh) * | 2018-07-17 | 2018-11-27 | 网易(杭州)网络有限公司 | 数据处理方法、装置、介质和计算设备 |
CN109341694A (zh) * | 2018-11-12 | 2019-02-15 | 哈尔滨理工大学 | 一种移动探测机器人的自主定位导航方法 |
CN109556607A (zh) * | 2018-10-24 | 2019-04-02 | 上海大学 | 一种快速处理移动机器人定位“绑架”问题的方法 |
-
2019
- 2019-06-28 CN CN201910583494.3A patent/CN110160532A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107992906A (zh) * | 2018-01-02 | 2018-05-04 | 联想(北京)有限公司 | 一种模型处理方法、系统、终端设备及服务器 |
CN108665496A (zh) * | 2018-03-21 | 2018-10-16 | 浙江大学 | 一种基于深度学习的端到端的语义即时定位与建图方法 |
CN108898669A (zh) * | 2018-07-17 | 2018-11-27 | 网易(杭州)网络有限公司 | 数据处理方法、装置、介质和计算设备 |
CN109556607A (zh) * | 2018-10-24 | 2019-04-02 | 上海大学 | 一种快速处理移动机器人定位“绑架”问题的方法 |
CN109341694A (zh) * | 2018-11-12 | 2019-02-15 | 哈尔滨理工大学 | 一种移动探测机器人的自主定位导航方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6944970B2 (ja) | 位置更新方法、位置及びナビゲーション経路の表示方法、車両並びにシステム | |
US9558559B2 (en) | Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system | |
CN207117844U (zh) | 多vr/ar设备协同系统 | |
US10289940B2 (en) | Method and apparatus for providing classification of quality characteristics of images | |
CN110345955A (zh) | 用于自动驾驶的感知与规划协作框架 | |
US9699375B2 (en) | Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system | |
CN110386142A (zh) | 用于自动驾驶车辆的俯仰角校准方法 | |
CN107888828A (zh) | 空间定位方法及装置、电子设备、以及存储介质 | |
CN108732589A (zh) | 利用3d lidar和定位自动采集用于对象识别的训练数据 | |
CN107208836B (zh) | 用于支持具有不同效果的摄影术的系统和方法 | |
CN109214987A (zh) | 从上采样的低分辨率lidar 3-d点云和摄像机图像生成高分辨率3-d点云 | |
CN109214986A (zh) | 从下采样的低分辨率lidar 3-d点云和摄像机图像生成高分辨率3-d点云 | |
CN108351649A (zh) | 用于uav交互指令和控制的系统和方法 | |
US11391649B2 (en) | Driving emulation system for an autonomous vehicle | |
CN112307642B (zh) | 数据处理方法、装置、系统、计算机设备及存储介质 | |
TW201429242A (zh) | 擴增實境場景中決定個體化深度資訊的系統和方法 | |
CN109459029A (zh) | 一种用于确定目标对象的导航路线信息的方法与设备 | |
CN109213144A (zh) | 人机接口(hmi)架构 | |
CN109561282A (zh) | 一种用于呈现地面行动辅助信息的方法与设备 | |
CN109656319A (zh) | 一种用于呈现地面行动辅助信息方法与设备 | |
CN113205515A (zh) | 目标检测方法、装置、及计算机存储介质 | |
US9030501B2 (en) | Methods and systems for modifying a display of a field of view of a robotic device to include zoomed-in and zoomed-out views | |
CN109618131A (zh) | 一种用于呈现决策辅助信息的方法与设备 | |
CN108124479A (zh) | 地图标注的方法、装置、云端服务器、终端及应用程序 | |
CN110160532A (zh) | 定位方法及装置、以及终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190823 |
|
RJ01 | Rejection of invention patent application after publication |