CN110892760A - 基于深度学习定位终端设备 - Google Patents
基于深度学习定位终端设备 Download PDFInfo
- Publication number
- CN110892760A CN110892760A CN201780093194.6A CN201780093194A CN110892760A CN 110892760 A CN110892760 A CN 110892760A CN 201780093194 A CN201780093194 A CN 201780093194A CN 110892760 A CN110892760 A CN 110892760A
- Authority
- CN
- China
- Prior art keywords
- training
- location
- terminal device
- neural network
- initial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/02—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
- G01S5/0278—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves involving statistical or probabilistic considerations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/48—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W64/00—Locating users or terminals or network equipment for network management purposes, e.g. mobility management
- H04W64/006—Locating users or terminals or network equipment for network management purposes, e.g. mobility management with additional information processing, e.g. for direction or speed determination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W84/00—Network topologies
- H04W84/02—Hierarchically pre-organised networks, e.g. paging networks, cellular networks, WLAN [Wireless Local Area Network] or WLL [Wireless Local Loop]
- H04W84/10—Small scale networks; Flat hierarchical networks
- H04W84/12—WLAN [Wireless Local Area Networks]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W88/00—Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
- H04W88/08—Access point devices
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Automation & Control Theory (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Engineering & Computer Science (AREA)
- Probability & Statistics with Applications (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Navigation (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
Abstract
公开了基于深度学习定位终端设备的系统和方法。该方法可以包括通过定位设备获取与终端设备相关的一组初始位置,通过该定位设备获取与初始设置对应的基础地图,以及基于初始位置和基础地图通过该定位设备使用神经网络模型确定终端设备的位置。
Description
技术领域
本申请涉及定位终端设备,更具体地,涉及基于深度学习定位终端设备的系统和方法。
背景技术
终端设备可以通过全球定位系统(GPS)、基站、无线保真(WiFi)接入点等来定位。GPS定位精度可达3至5米,基站定位精度可达100-300米,WiFi接入点定位精度可达20-50米。然而,GPS信号可能被城市中的建筑物屏蔽,因此终端设备可能不能被GPS信号准确定位。此外,初始化GPS定位模块通常需要很长时间(例如,超过45秒)。
因此,即使在室外环境中,也可以基于基站、WiFi接入点等定位终端设备。然而,如上所述,定位结果的准确性不令人满意。
本申请的实施例提供了用于在没有GPS信号的情况下精确定位终端设备的改进的系统和方法。
发明内容
本发明的一个方面提供了一种用于定位终端设备的计算机实现的方法,包括:由定位设备获取与终端设备相关的一组初始位置;通过定位设备获取与初始位置对应的基础地图;以及,通过定位设备,基于初始位置和基础地图,使用神经网络模型确定终端设备的位置。
本发明的另一方面提供一种用于定位终端设备的系统,包括:内存,被配置为存储神经网络模型;与终端设备和定位服务器通信的通信接口,所述通信接口被配置为:获取与终端设备相关的一组初始位置,获取与初始位置对应的基础地图;以及处理器,被配置为基于初始位置和基础地图,使用神经网络模型确定终端设备的位置。
本申请的又一方面提供了一种存储一组指令的非暂时性计算机可读介质,当由定位系统的至少一个处理器执行时,使定位系统执行用于定位终端设备的方法,该方法包括:获取与终端设备相关的一组初始位置;获取与初始位置对应的基础地图;以及基于初始位置和基础地图,使用神经网络模型确定终端设备的位置,其中所述神经网络模型使用至少一组训练参数训练。
应当理解,前面的一般性描述和下面的详细描述都只是示例性和说明性的,并不是对要求保护的本发明的限制。
附图说明
图1是根据本申请的一些实施例所示的用于定位终端设备的示例性系统的示意图。
图2是根据本申请的一些实施例所示的用于定位终端设备的示例性系统的框图。
图3示出了根据本申请的一些实施例的现有设备的示例性基准位置和与现有设备相关的对应假定位置。
图4示出了根据本申请的一些实施例的示例性训练基础地图。
图5示出了根据本申请的一些实施例的示例性训练图像。
图6示出了根据本申请的一些实施例的示例性卷积神经网络。
图7是根据本申请的一些实施例所示的用于定位终端设备的示例性过程的流程图。
图8是根据本申请的一些实施例所示的使用神经网络模型定位终端设备的示例性过程的流程图。
具体实施方式
现在将详细参考示例性实施例,其示例在附图中示出。尽可能地,在整个附图中将使用相同的附图标记来表示相同或相似的部分。
图1是根据本申请的一些实施例所示的用于定位终端设备的示例性系统的示意图。系统100可以是通用服务器或专用定位设备。终端设备102可以包括可以扫描接入点(AP)104并与系统100通信的任何电子设备。例如,终端设备102可以包括智能电话、膝上型电脑、平板电脑、可穿戴设备、无人机等。
如图1所示,终端设备102可以扫描附近的AP 104。AP 104可以包括发送用于与终端设备通信的信号的设备。例如,AP 104可以包括WiFi接入点、基站、蓝牙接入点等。过扫描附近的AP 104,每个终端设备102可以生成AP指纹。AP指纹包括与扫描到的AP相关的特征信息,例如AP 104的标识(例如,名称、MAC地址等)、接收信号强度指示(Received SignalStrength Indication,RSSI)、往返时延(Round Trip Time,RTT)等。
AP指纹可以被发送到系统100并用于从定位服务器106获取AP 104的初始位置。定位服务器106可以是系统100的内部服务器或外部服务器。定位服务器106可以包括存储AP104的初始位置的位置数据库。可以根据终端设备的GPS位置来确定AP的初始位置。例如,当终端设备经过AP时,终端设备的GPS位置可以上传到定位服务器106并被指定为AP的初始位置。因此,每个AP104可以包括至少一个初始位置,因为不止一个终端设备可以分别通过AP并上传GPS位置。如所解释的,AP的初始位置是假定的,并且可以被称为假定位置。可以设想,AP的初始位置可以包括其他位置,例如WiFi确定的位置、蓝牙确定的位置等。
因为AP指纹仅包括与终端设备102可以扫描到的AP所相关的特征信息,所以获取的AP 104的假定位置与终端设备102的位置相关。因此,AP 104的初始位置与终端设备102的位置之间的关联可以用于定位终端设备。
与本申请的实施例一致,系统100可以在训练阶段基于与现有设备相关的AP的初始位置来训练神经网络模型,并且在定位阶段基于与终端设备相关的初始位置使用神经网络模型来定位终端设备。
在一些实施例中,神经网络模型是卷积神经网络(Convolutional NeuralNetwork,CNN)模型。CNN是一种可以通过监督学习进行训练的机器学习算法。CNN模型的架构包括将输入转换为输出的一堆不同的层。上述不同层的实例可包括一个或以上卷积层、池化或降采样层、全连接层,和/或最终损失层。每层可以与至少一个上游层和至少一个下游层连接。可以将输入视为输入层,并且可以将输出视为最终输出层。
为了提高CNN模型的性能和学习能力,可以选择性地增加上述不同层的数量。从输入层到输出层的中间不同层的数量可能变得非常大,从而增加了CNN模型架构的复杂性。具有大量中间层的CNN模型被称为深度卷积神经网络(DCNN)模型。例如,一些DCNN模型可以包括多于20到30层,而其他DCNN模型甚至可以包括多于几百层。DCNN模型的示例包括AlexNet、VGGNet、GoogLeNet、ResNet等。
本申请的实施例采用CNN模型尤其是DCNN模型的强大学习能力,来基于终端设备扫描的AP的初始位置定位终端设备。
如本文所使用的,本申请实施例所使用的CNN模型可以指基于卷积神经网络的框架配制、改编或修改的任何神经网络模型。例如,根据本申请的实施例的CNN模型可以选择性地包括输入层和输出层之间的中间层,例如一个或以上反卷积层,和/或上采样或上池化层。
如本文所使用的,“训练”CNN模型是指确定CNN模型中的至少一个层的一个或以上参数。例如,CNN模型的卷积层可包括至少一个滤波器或核。可以通过例如基于反向传播的训练过程来确定一个或以上参数,例如上述至少一个滤波器的核的权重、尺寸、形状和结构。
与所公开的实施例一致,为了训练CNN模型,训练过程使用至少一组训练参数。每组训练参数可包括一组特征信号和监督信号。作为非限制性示例,特征信号可以包括由现有设备扫描到的AP的假定位置,而监督信号可以包括现有设备的GPS位置。并且终端设备可以由训练后的CNN模型基于终端设备扫描到的AP的初始位置准确定位。
图2是根据本申请的一些实施例所示的用于定位终端设备的示例性系统的框图。
如图2所示,系统100可以包括通信接口202、处理器200、以及存储器212。处理器200包括基础地图生成单元204、训练图像生成单元206、模型生成单元208、和位置判断单元210。系统100可以包括上述组件以执行训练阶段。在一些实施例中,系统100可以包括图2中所示的更多或更少的组件。例如,当用于定位的神经网络模型被预先训练并提供时,系统100可能不包括训练图像生成单元206和模型生成单元208。可以预期,上述组件(以及任何相应的子模块或子单元)可以是设计用于与其他组件一起使用的功能硬件单元(例如,集成电路的一部分)或者执行特定功能的程序(存储在计算机可读介质中)的一部分。
通信接口202与终端设备102和定位服务器106通信,并且可以被配置为获取由至少两个终端设备中的每一个终端设备生成的AP指纹。例如,每个终端设备102可以通过扫描AP 104来生成AP指纹,并且通过通信接口202将AP指纹发送到系统100。在由至少两个终端设备生成的AP指纹被发送到系统100之后,通信接口202可以将AP指纹发送到定位服务器106,并且从定位服务器106接收扫描到的AP的初始位置。为了清楚起见,在训练阶段,扫描的AP的初始位置可以被称为假定位置。
此外,在训练阶段,通信接口202还可以接收每个终端设备102的基准位置。可以设想,为了清楚起见,训练阶段中的终端设备可以被称为现有设备。可以通过嵌入在现有设备内的GPS定位单元(未示出)来确定现有设备的基准位置。
如所解释的,终端设备的初始位置可以被称为假定位置。因此,在训练阶段,通信接口202可以接收与现有设备相关的基准位置和相应的假定位置,用于训练神经网络模型。图3示出了根据本申请的一些实施例的现有设备的示例性基准位置和与现有设备相关的对应假定位置。
如图3所示,基准位置302和对应的假定位置(例如,第一假定位置304)分布在区域300中。
基础地图生成单元204可以根据扫描到的AP的假定位置获取基础地图。通常,在室外环境中,用户携带的终端设备的位置呈现为已知模式。例如,出租车司机的终端设备经常出现在道路上,以及请求出租车服务的乘客的终端设备通常靠近办公楼。因此,关于道路、建筑物等的地图信息可以有助于训练和定位阶段。可以从地图服务器(未示出)获取包括地图信息的基础地图。在一个实施例中,基础地图生成单元204可以确定覆盖扫描到的AP的所有假定位置的区域,并进一步确定该区域的一对对角的坐标,并且基于该一对对角的坐标从地图服务器获取基础地图。在另一实施例中,基础地图生成单元204可以将初始位置聚合成簇,确定簇的中心,并且基于该中心从地图服务器获取具有预定长度和预定宽度的基础地图。例如,所获取的基础地图可以对应1,000米长和1,000米宽的区域。为了清楚起见,在训练阶段,基础地图可以被称为训练基础地图,并且可以被包括在训练参数中。图4示出了根据本申请的一些实施例的示例性训练基础地图。
如图4所示,训练基础地图400包括一个或以上街道402和建筑物404。与街道402和建筑物404相关的地图信息可以进一步用于训练神经网络模型。
如上所述,每个现有设备可以提供在基准位置扫描到的AP的一组假定位置,因为每个AP可以具有多于一个假定位置并且若干AP可以被扫描到。因此,可能的是,与基准位置相关的一些假定位置可能重叠。因此,可以为每个假定位置分配位置值,并且当假定位置重叠时可以增加该位置值。例如,当第一AP的第一假定位置与第二AP的第二假定位置重叠时,位置值可以增加1。对应假定位置的位置值也可以包括在训练参数中。
由于神经网络模型在图像中的广泛应用,系统100可以以图像的形式组织训练参数。因此,训练图像生成单元206可以基于假定位置的坐标和相应的位置值来生成训练图像。可以将假定位置映射到训练图像的像素上,并且可以将假定位置的位置值转换为像素的像素值。
在一些实施例中,训练图像具有100像素×100像素的大小。每个像素点对应0.0001纬度×0.0001经度的区域(即,10米×10米的正方形区域),因此训练图像覆盖1000米×1,000米的总面积。换句话说,可以将由纬度和经度表示的地球上的位置转换为训练图像上的位置。此外,每个像素值可以在0到255的范围之间。例如,当在对应像素点的区域内不存在假定位置时,该像素点的像素值被赋予“0”,并且当多个假定位置存在于同一区域内时,该像素点的像素值相应地增加。
图5示出了根据本申请的一些实施例的示例性训练图像。如图5所示,训练图像500可以包括多个像素,包括像素502a-502d。例如,第一像素点502a的像素值为“1”,第二像素点502b的像素值为“2”,第三像素点502c的像素值为“3”,第四像素点502d的像素值为“4”,其他像素被初始化为像素值“0”。因此,第四像素点502d具有四个重叠在其上的AP的假定位置。通常,具有较高像素值的像素更紧密地分布在基准位置周围。例如,如图5所示,像素值为“4”的像素比其他像素更紧密地分布在基准位置504周围。因此,像素值还可以帮助系统100训练神经网络模型。
除了现有设备的基准位置、与现有设备相关的假定位置、假定位置的位置值(即训练图像中的像素值)、以及训练基础地图,训练参数还可以包括现有设备的识别信息。识别信息可以识别现有设备是乘客设备或司机设备。一般来说,当乘客在等待出租车时乘客设备更有可能出现在办公楼附近,或者在出租车司机接载他/她之后出现在道路上;司机设备更可能出现在道路上。因此,识别信息还可以帮助系统100训练神经网络模型,并且可以被包括在训练参数中。
返回参考图2,模型生成单元208可以基于至少一组训练参数生成神经网络模型。每组训练参数可以与一个现有设备相关。模型生成单元208可以包括卷积神经网络(CNN)以基于训练参数训练神经网络模型。
在一些实施例中,训练参数可以至少包括现有设备的基准位置、与现有设备相关的假定位置、假定位置的位置值、训练基础地图、以及现有设备的识别信息。假定位置和假定位置的位置值可以作为训练图像的一部分输入到模型生成单元208的CNN。如上所述,训练图像可具有100像素×100像素的大小。训练基础地图可以作为尺寸为100像素×100像素的图像类似地提供给CNN。基准位置可以用作训练CNN的监督信号。
图6示出了根据本申请的一些实施例的示例性卷积神经网络。
在一些实施例中,模型生成单元208的CNN 600包括一个或以上卷积层602(例如,图6中的卷积层602a和602b)。每个卷积层602可具有至少两个参数,例如由上输入层确定的宽度(“W”)和高度(“H”)(例如,卷积层602a的输入的尺寸)、以及层中的滤波器或核的数量(“N”)及其尺寸。例如,卷积层602a的滤波器的尺寸是2×4,并且卷积层602b的滤波器的尺寸是4×2。滤波器的尺寸可以称为卷积层的深度。对每个卷积层602的输入通过一个滤波器沿其宽度和高度进行卷积处理,并产生对应于该滤波器的新特征图像。用每个卷积层的所有滤波器执行卷积,并且将所得到的特征图像沿着深度维度进行堆叠。前一卷积层的输出可以用作下一卷积层的输入。
在一些实施例中,模型生成单元208的卷积神经网络600还可包括一个或以上池化层604(例如,图6中的池化层604a和604b)。可以在CNN 600中的两个连续的卷积层602之间添加池化层604。池化层在输入的每个深度切片上独立地操作(例如,来自先前卷积层的特征图像),并且通过执行非线性降采样的形式来减小其空间尺寸。如图6所示,池化层的功能是逐渐减小所提取的特征图像的空间尺寸,以减少网络中的参数和计算量,并进而控制过拟合。例如,由卷积层602a生成的特征图像的尺寸是100×100,而由池化层604a处理得到的特征图像的尺寸是50×50。池化层的数量和布置可以基于各种因素来确定,例如卷积网络架构的设计、输入的尺寸、卷积层602的尺寸、和/或CNN600的应用。
各种非线性函数可用于实现池化层。例如,可以使用最大池化法。最大池化法可以以预定步幅将输入的特征图像划分为一组重叠或非重叠的子区域。对于每个子区域,最大池化法输出最大值。该方法对输入的每个特征图像沿其宽度和高度进行降采样,而维持其深度维度不变。可以使用其他合适的函数来实现池化层,例如平均池化或甚至L2范数池化。
如图6所示,CNN还可包括另一组卷积层602b和池化层604b。可预期地,可以提供更多组的卷积层和池化层。
作为另一个非限制性示例,可以在卷积层和/或池化层之后添加一个或以上全连接层606(例如,图6中的全连接层606a和606b)。全连接层具有与上一层的所有特征图像的全连接。例如,全连接层可以将最后的卷积层或最后的池化层的输出作为向量形式的输入。
例如,如图6所示,可以将先前生成的两个25×25的特征图像和识别信息提供给全连接层606a,1×200的特征向量可以被生成并且被进一步提供给全连接层606b。在一些实施例中,识别信息可以不是必需的。
全连接层606b的输出向量是1×2的向量,表示现有设备的估计坐标(X,Y)。训练过程的目标是输出向量(X,Y)符合监督信号(即,现有设备的基准位置)。监督信号被用作约束以提高CNN 600的准确度。
作为进一步的非限制性示例,损失层(未示出)可以包括在CNN 600中。损失层可以是CNN 600中的最后一层。在CNN 600的训练期间,损失层可以确定网络训练如何惩罚预测位置与基准位置(即,GPS位置)之间的偏差。损失层可以通过各种合适的损失函数来实现。例如,Softmax函数可以用作最终损失层。
返回参考图2,基于至少一组训练参数,模型生成单元208可以生成用于定位终端设备的神经网络模型。生成的神经网络模型可以存储到存储器212中。存储器212可以实现为任何类型的易失性或非易失性存储器设备或其组合,例如静态随机存取存储器(SRAM)、电可擦除可编程只读存储器(EEPROM)、可擦除可编程只读存储器(EPROM)、可编程只读存储器(PROM)、只读存储器(ROM)、磁存储器、闪存、或磁盘或光盘。
在定位阶段,通信接口202可以获取与终端设备相关的一组初始位置。初始位置表示终端设备扫描的接入点的可能位置。通信接口202还可以获取与初始位置对应的基础地图。基础地图包括与初始位置对应的区域的地图信息。
位置判断单元210可以基于初始位置和基础地图使用所生成的神经网络模型来确定终端设备的位置。
在一些实施例中,通信接口202还可以获取终端设备的识别信息,以帮助定位终端设备。识别信息识别终端设备是乘客设备或司机设备。乘客设备和司机设备的位置可以与不同的已知特征相关。例如,司机设备必须在可行驶的道路上,而乘客设备通常在室内或在路边。因此,终端设备的识别信息提供额外的先验信息,并且神经网络模型可以基于识别信息进一步细化定位结果。
因此,根据本申请的实施例的系统100可以使用深度学习神经网络模型基于与终端设备相关的初始位置来定位终端设备。
在上述实施例中,与终端设备相关的初始位置被视为扫描的AP的可能位置。假设终端设备能够检测和扫描AP,AP必须位于足够靠近终端设备的位置。在一些实施例中,初始位置可以包括与终端设备相关的其他种类的位置。例如,当终端设备从定位服务器接收基于AP指纹生成的终端设备的一组初步定位结果时,该初步定位结果也可用于在训练阶段训练神经网络模型或在定位阶段定位终端设备。可以设想,与终端设备相关的初始位置可以包括与终端设备的位置相关的任何位置。
图7是根据本申请的一些实施例的所示用于定位终端设备的示例性过程的流程图。流程700可以包括如下步骤S702-S710。
流程700可以包括训练阶段和定位阶段。在训练阶段,现有设备向定位设备提供训练参数以训练神经网络模型。在定位阶段,神经网络模型可用于定位终端设备。流程700可以由单个定位设备(例如,系统100)执行,或者由多个设备(例如,系统100、终端设备102或定位服务器106的组合)执行。例如,训练阶段可以由系统100执行,而定位阶段可以由终端设备102执行。
在步骤S702中,定位设备可以接收现有设备的AP指纹。AP指纹可以由现有设备扫描附近的AP生成。每个终端设备102可以生成AP指纹。AP指纹包括与扫描到的AP相关的特征信息,例如AP 104的标识(例如,名称、MAC地址等)、接收信号强度指示(RSSI)、往返时延(RTT)等。
在步骤S704中,定位设备可以获取与现有设备相关的一组训练位置。训练位置可以包括由现有设备扫描到的每个AP的假定位置。假定位置可以存储在定位服务器中,并由定位设备根据AP指纹进行检索。每个AP可以包括多于一个假定位置。
在步骤S706中,定位设备可以获取现有设备的基准位置。基准位置是现有设备的已知位置。可以预先验证基准位置符合现有设备的真实位置。在一些实施例中,基准位置可以由现有设备接收的GPS信号确定。基准位置也可以通过其他定位方法确定,只要定位结果的准确度满足预定要求即可。例如,基准位置可以是由现有设备的用户提供的当前地址。
在步骤S708中,定位设备可以使用与现有设备相关的至少一组训练参数来训练神经网络模型。神经网络模型可以是卷积神经网络模型。与本申请的实施例相符,每组训练参数可以包括现有设备的基准位置和与现有设备相关的至少两个训练位置。训练位置可以包括例如扫描到的AP的假定位置。如上所述,训练位置可包括与现有设备的基准位置相关的其他位置。例如,训练位置可以包括从定位服务器返回的现有设备的可能位置。
每组训练参数还可以包括根据训练位置确定的训练基础地图,以及现有设备的识别信息。可以根据扫描的AP的假定位置从例如地图服务器获取训练基础地图。训练基础地图可以包括关于包含训练位置的区域中的道路、建筑物等的地图信息。地图信息可以帮助定位设备训练神经网络模型。识别信息可以识别现有设备是乘客设备或司机设备。
每组训练参数还可包括对应于每个训练位置的位置值。在一些实施例中,如上所述,每个AP可以包括多于一个假定位置,因此AP的假定位置可以彼此重叠。因此,可以为每个假定位置分配位置值,并且当假定位置重叠时可以增加位置值。例如,当第一AP的第一假定位置与第二AP的第二假定位置重叠时,位置值可以增加1。
与本申请的实施例相符,可以基于假定位置的坐标和相应的位置值来生成训练图像。假定位置可以映射到训练图像的像素上,并且假定位置的位置值可以被转换为像素的像素值。
因此,训练参数可以包括现有设备的基准位置、与现有设备相关的假定位置、假定位置的位置值、训练基础地图、以及现有设备的识别信息。基准位置可以用作监督信号。训练神经网络模型的细节已经参考图6进行了描述。
在定位设备训练神经网络模型后,在步骤S710中,可以应用该神经网络模型来定位终端设备。
图8是根据本申请的一些实施例所示的使用神经网络模型定位终端设备的示例性过程的流程图。流程800可以由实现流程700的相同定位设备或不同定位设备实现,并且可以包括步骤S802-S806。
在步骤S802中,定位设备可以获取与终端设备相关的一组初始位置。定位阶段的初始位置可以与在训练阶段中获取假定位置相似的方式获取。
在步骤S804中,定位设备可以获取与初始位置对应的基础地图。定位阶段的基础地图可以与在训练阶段中获取训练基础地图相似的方式获取。基础地图也包括关于道路、建筑物等的地图信息。除了基础地图之外,定位设备还可以获取终端设备的识别信息。
在步骤S806中,定位设备可以基于初始位置和基础地图使用神经网络模型确定终端设备的位置。在一些实施例中,定位设备可以基于初始位置、基础地图和与终端设备相关的识别信息使用神经网络模型来定位终端设备。在一些实施例中,神经网络模型可以输出终端设备的估计坐标。在其他的一些实施例中,定位设备还可以基于估计坐标生成图像,并指示终端设备在图像上的位置。例如,可以在结果图像中标记终端设备的位置,例如通过指示其纬度和经度。
本申请的另一方面涉及一种存储指令的非暂时性计算机可读介质,所述指令在被执行时使一个或以上处理器执行如上所述的方法。所述计算机可读介质包括易失性或非易失性、磁性、半导体、磁带、光学、可卸除、不可卸除、或其他类型的计算机可读介质或计算机可读存储设备。例如,如所公开的,计算机可读介质可以是存储设备或其上存储有计算机指令的存储器模块。在一些实施例中,计算机可读介质可以是其上存储有计算机指令的盘或闪存驱动器。
显而易见地,本领域技术人员可以对所公开的系统和相关方法进行各种修改和变化。考虑到所公开的定位系统和相关方法的说明书和实践,其他实施例对于本领域技术人员是显而易见的。尽管实施例描述了基于包含训练参数的图像训练神经网络模型,但是可以预期地,图像仅仅是训练参数的示例性数据结构,任何适当的数据结构也同样可以使用。
本申请中的说明书和示例仅被认为是示例性的,其真实保护范围由以下权利要求及其等同物限定。
Claims (20)
1.一种用于定位终端设备的计算机实现的方法,包括:
通过定位设备获取与所述终端设备相关的一组初始位置;
通过所述定位设备获取与所述初始位置对应的基础地图;以及
基于所述初始位置和所述基础地图,通过所述定位设备,使用神经网络模型确定所述终端设备的位置。
2.如权利要求1所述的方法,还包括使用至少一组训练参数训练所述神经网络模型。
3.如权利要求2所述的方法,其特征在于,每组训练参数包括:
现有设备的基准位置;
与所述现有设备相关的至少两个训练位置。
4.如权利要求3所述的方法,其特征在于,每组训练参数还包括:
根据所述训练位置确定的训练基础地图;以及
所述现有设备的识别信息,其中
所述训练基础地图包括建筑物和道路的信息。
5.如权利要求3所述的方法,其特征在于,所述训练位置包括由所述现有设备扫描到的每个接入点的假定位置。
6.如权利要求5所述的方法,其特征在于,每组训练参数还包括与每个训练位置对应的位置值,其中,
当第一接入点的第一假定位置与第二接入点的第二假定位置重叠时,所述位置值增加。
7.如权利要求6所述的方法,还包括基于所述训练位置的坐标和相应位置值生成图像。
8.如权利要求7所述的方法,其特征在于,所述训练位置被映射到所述图像的像素上,以及所述位置值被转换为所述像素的像素值。
9.如权利要求4所述的方法,其特征在于,所述识别信息识别所述现有设备是乘客设备或司机设备。
10.如权利要求3所述的方法,其特征在于,所述基准位置根据由所述现有设备接收的全球定位系统信号确定。
11.一种用于定位终端设备的系统,包括:
内存,被配置为存储神经网络模型;
与所述终端设备和定位服务器通信的通信接口,所述通信接口被配置为:
获取与所述终端设备相关的一组初始位置,
获取与所述初始位置对应的基础地图;以及
处理器,被配置为基于所述初始位置和所述基础地图,使用所述神经网络模型确定所述终端设备的位置。
12.如权利要求11所述的系统,其特征在于,所述处理器还被配置为使用至少一组特征参数训练所述神经网络模型。
13.如权利要求12所述的系统,其特征在于,每组训练参数包括:
现有设备的基准位置;以及
与所述现有设备相关的至少两个训练位置。
14.如权利要求13所述的系统,其特征在于,每组训练参数还包括:
根据所述训练位置确定的训练基础地图;以及
所述现有设备的识别信息,其中,
所述训练基础地图包括建筑物和道路的信息。
15.如权利要求13所述的系统,其特征在于,所述训练位置包括由所述现有设备扫描到的每个接入点的假定位置。
16.如权利要求15所述的系统,其特征在于,每组训练参数还包括与每个训练位置对应的位置值,其中,
当第一接入点的第一假定位置与第二接入点的第二假定位置重叠时,所述位置值增加。
17.如权利要求16所述的系统,其特征在于,所述处理器还被配置为基于所述训练位置的坐标和相应位置值生成图像。
18.如权利要求17所述的系统,其特征在于,所述训练位置被映射到所述图像的像素上,以及所述位置值被转换为所述像素的像素值。
19.如权利要求14所述的系统,其特征在于,所述识别信息识别所述现有设备是乘客设备或司机设备。
20.一种存储一组指令的非暂时性计算机可读介质,当由定位系统的至少一个处理器执行时,使所述定位系统执行用于定位终端设备的方法,所述方法包括:
获取与所述终端设备相关的一组初始位置;
获取与所述初始位置对应的基础地图;以及
基于所述初始位置和所述基础地图,使用神经网络模型确定所述终端设备的位置,其中,
所述神经网络模型使用至少一组训练参数进行训练。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2017/098347 WO2019036860A1 (en) | 2017-08-21 | 2017-08-21 | POSITIONING A TERMINAL DEVICE BASED ON DEEP LEARNING |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110892760A true CN110892760A (zh) | 2020-03-17 |
CN110892760B CN110892760B (zh) | 2021-11-23 |
Family
ID=65438271
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780093194.6A Active CN110892760B (zh) | 2017-08-21 | 2017-08-21 | 基于深度学习定位终端设备 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20190353487A1 (zh) |
CN (1) | CN110892760B (zh) |
TW (1) | TWI695641B (zh) |
WO (1) | WO2019036860A1 (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI726412B (zh) * | 2019-09-06 | 2021-05-01 | 國立成功大學 | 識別室內位置的建模系統、可攜式電子裝置、室內定位方法、電腦程式產品及電腦可讀取紀錄媒體 |
WO2021061176A1 (en) | 2019-09-27 | 2021-04-01 | Nokia Technologies Oy | Method, apparatus and computer program for user equipment localization |
WO2021103027A1 (en) * | 2019-11-30 | 2021-06-03 | Beijing Didi Infinity Technology And Development Co., Ltd. | Base station positioning based on convolutional neural networks |
CN111836358B (zh) * | 2019-12-24 | 2021-09-14 | 北京嘀嘀无限科技发展有限公司 | 定位方法、电子设备和计算机可读存储介质 |
CN111624634B (zh) * | 2020-05-11 | 2022-10-21 | 中国科学院深圳先进技术研究院 | 基于深度卷积神经网络的卫星定位误差评估方法和系统 |
CN112104979B (zh) * | 2020-08-24 | 2022-05-03 | 浙江云合数据科技有限责任公司 | 一种基于WiFi扫描记录的用户轨迹提取方法 |
US20220095120A1 (en) * | 2020-09-21 | 2022-03-24 | Arris Enterprises Llc | Using machine learning to develop client device test point identify a new position for an access point (ap) |
WO2023015428A1 (en) * | 2021-08-10 | 2023-02-16 | Qualcomm Incorporated | Ml model category grouping configuration |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101267374A (zh) * | 2008-04-18 | 2008-09-17 | 清华大学 | 基于神经网络和无线局域网基础架构的2.5d定位方法 |
CN102395194A (zh) * | 2011-08-25 | 2012-03-28 | 哈尔滨工业大学 | Wlan环境下改进ga优化的anfis室内定位方法 |
CN103874118A (zh) * | 2014-02-25 | 2014-06-18 | 南京信息工程大学 | WiFi室内定位中基于贝叶斯回归的Radio Map校正方法 |
CN104266658A (zh) * | 2014-09-15 | 2015-01-07 | 上海酷远物联网科技有限公司 | 一种基于精准定位导播导览系统、方法及其数据采集方法 |
CN105210087A (zh) * | 2013-05-07 | 2015-12-30 | 智坤科技有限公司 | 一种实现神经网络的新架构 |
CN105589064A (zh) * | 2016-01-08 | 2016-05-18 | 重庆邮电大学 | Wlan位置指纹数据库快速建立和动态更新系统及方法 |
CN106793070A (zh) * | 2016-11-28 | 2017-05-31 | 上海斐讯数据通信技术有限公司 | 一种基于加强深度神经网络的WiFi定位方法及服务器 |
CN106970379A (zh) * | 2017-03-16 | 2017-07-21 | 西安电子科技大学 | 基于泰勒级数展开对室内目标的测距定位方法 |
CN107037399A (zh) * | 2017-05-10 | 2017-08-11 | 重庆大学 | 一种基于深度学习的Wi‑Fi室内定位方法 |
CN107046711A (zh) * | 2017-02-21 | 2017-08-15 | 沈晓龙 | 一种室内定位的数据库建立方法和室内定位方法及装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6807483B1 (en) * | 2002-10-11 | 2004-10-19 | Televigation, Inc. | Method and system for prediction-based distributed navigation |
US20040075606A1 (en) * | 2002-10-22 | 2004-04-22 | Jaawa Laiho | Method and system for location estimation analysis within a communication network |
US7312752B2 (en) * | 2003-10-22 | 2007-12-25 | Awarepoint Corporation | Wireless position location and tracking system |
CA2915916C (en) * | 2014-03-03 | 2016-08-09 | Consortium P, Inc. | Real-time location detection using exclusion zones |
CN105228102A (zh) * | 2015-09-25 | 2016-01-06 | 宇龙计算机通信科技(深圳)有限公司 | Wi-Fi定位方法、系统以及移动终端 |
-
2017
- 2017-08-21 WO PCT/CN2017/098347 patent/WO2019036860A1/en active Application Filing
- 2017-08-21 CN CN201780093194.6A patent/CN110892760B/zh active Active
-
2018
- 2018-08-20 TW TW107128910A patent/TWI695641B/zh active
-
2019
- 2019-08-01 US US16/529,747 patent/US20190353487A1/en not_active Abandoned
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101267374A (zh) * | 2008-04-18 | 2008-09-17 | 清华大学 | 基于神经网络和无线局域网基础架构的2.5d定位方法 |
CN102395194A (zh) * | 2011-08-25 | 2012-03-28 | 哈尔滨工业大学 | Wlan环境下改进ga优化的anfis室内定位方法 |
CN105210087A (zh) * | 2013-05-07 | 2015-12-30 | 智坤科技有限公司 | 一种实现神经网络的新架构 |
CN103874118A (zh) * | 2014-02-25 | 2014-06-18 | 南京信息工程大学 | WiFi室内定位中基于贝叶斯回归的Radio Map校正方法 |
CN104266658A (zh) * | 2014-09-15 | 2015-01-07 | 上海酷远物联网科技有限公司 | 一种基于精准定位导播导览系统、方法及其数据采集方法 |
CN105589064A (zh) * | 2016-01-08 | 2016-05-18 | 重庆邮电大学 | Wlan位置指纹数据库快速建立和动态更新系统及方法 |
CN106793070A (zh) * | 2016-11-28 | 2017-05-31 | 上海斐讯数据通信技术有限公司 | 一种基于加强深度神经网络的WiFi定位方法及服务器 |
CN107046711A (zh) * | 2017-02-21 | 2017-08-15 | 沈晓龙 | 一种室内定位的数据库建立方法和室内定位方法及装置 |
CN106970379A (zh) * | 2017-03-16 | 2017-07-21 | 西安电子科技大学 | 基于泰勒级数展开对室内目标的测距定位方法 |
CN107037399A (zh) * | 2017-05-10 | 2017-08-11 | 重庆大学 | 一种基于深度学习的Wi‑Fi室内定位方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2019036860A1 (en) | 2019-02-28 |
US20190353487A1 (en) | 2019-11-21 |
TW201922004A (zh) | 2019-06-01 |
TWI695641B (zh) | 2020-06-01 |
CN110892760B (zh) | 2021-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110892760B (zh) | 基于深度学习定位终端设备 | |
US10496901B2 (en) | Image recognition method | |
US20210390329A1 (en) | Image processing method, device, movable platform, unmanned aerial vehicle, and storage medium | |
KR102661954B1 (ko) | 이미지 처리 방법 및 이를 수행하는 장치들 | |
KR20190043468A (ko) | 풀링 타입에 대한 정보를 포함하는 테이블을 작성하기 위한 방법, 장치 및 이를 이용한 테스팅 방법, 테스팅 장치 | |
JP6846069B2 (ja) | 遠距離検出または軍事目的のために、イメージコンカチネーションを利用したcnn基盤のハードウェア最適化が可能な物体検出器を学習する方法及び学習装置、それを利用したテスト方法及びテスト装置{learning method and learning device for object detector with hardware optimization based on cnn for detection at distance or military purpose using image concatenation, and testing method and testing device using the same} | |
CN110414526A (zh) | 语义分割网络的训练方法、训练装置、服务器和存储介质 | |
CN108170751B (zh) | 用于处理图像的方法和装置 | |
US20230129175A1 (en) | Traffic marker detection method and training method for traffic marker detection model | |
CN114663397A (zh) | 可行驶区域的检测方法、装置、设备及存储介质 | |
WO2021103027A1 (en) | Base station positioning based on convolutional neural networks | |
CN112767211A (zh) | 救援资源推荐方法、装置、电子设备和存储介质 | |
KR20210087496A (ko) | 객체 속성 검출, 신경망 훈련 및 지능형 주행 방법, 장치 | |
CN110674834A (zh) | 地理围栏识别方法、装置、设备和计算机可读存储介质 | |
CN116052097A (zh) | 一种地图要素检测方法、装置、电子设备和存储介质 | |
US20240249503A1 (en) | Image processing method and related apparatus | |
CN111460866B (zh) | 车道线检测及驾驶控制方法、装置和电子设备 | |
CN113657280B (zh) | 一种输电线路目标缺陷检测示警方法及系统 | |
CN114998610A (zh) | 一种目标检测方法、装置、设备及存储介质 | |
CN114419490A (zh) | 一种基于注意力金字塔的sar船只目标检测方法 | |
CN116310899A (zh) | 基于YOLOv5改进的目标检测方法及装置、训练方法 | |
CN116363185A (zh) | 地理配准方法、装置、电子设备和可读存储介质 | |
CN115457202B (zh) | 一种三维模型更新的方法、装置及存储介质 | |
CN114882115B (zh) | 车辆位姿的预测方法和装置、电子设备和存储介质 | |
CN112329852B (zh) | 地表覆盖影像的分类方法、装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |