CN108692720B - 定位方法、定位服务器及定位系统 - Google Patents
定位方法、定位服务器及定位系统 Download PDFInfo
- Publication number
- CN108692720B CN108692720B CN201810309986.9A CN201810309986A CN108692720B CN 108692720 B CN108692720 B CN 108692720B CN 201810309986 A CN201810309986 A CN 201810309986A CN 108692720 B CN108692720 B CN 108692720B
- Authority
- CN
- China
- Prior art keywords
- visual
- positioning
- map
- sub
- wireless
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 76
- 230000000007 visual effect Effects 0.000 claims abstract description 293
- 230000003993 interaction Effects 0.000 claims description 9
- 230000001186 cumulative effect Effects 0.000 claims description 6
- 238000004891 communication Methods 0.000 claims description 5
- DMSMPAJRVJJAGA-UHFFFAOYSA-N benzo[d]isothiazol-3-one Chemical compound C1=CC=C2C(=O)NSC2=C1 DMSMPAJRVJJAGA-UHFFFAOYSA-N 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 18
- 230000004807 localization Effects 0.000 description 17
- 238000005516 engineering process Methods 0.000 description 15
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000009897 systematic effect Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012897 Levenberg–Marquardt algorithm Methods 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- CLOMYZFHNHFSIQ-UHFFFAOYSA-N clonixin Chemical compound CC1=C(Cl)C=CC=C1NC1=NC=CC=C1C(O)=O CLOMYZFHNHFSIQ-UHFFFAOYSA-N 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62B—HAND-PROPELLED VEHICLES, e.g. HAND CARTS OR PERAMBULATORS; SLEDGES
- B62B3/00—Hand carts having more than one axis carrying transport wheels; Steering devices therefor; Equipment therefor
- B62B3/14—Hand carts having more than one axis carrying transport wheels; Steering devices therefor; Equipment therefor characterised by provisions for nesting or stacking, e.g. shopping trolleys
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62B—HAND-PROPELLED VEHICLES, e.g. HAND CARTS OR PERAMBULATORS; SLEDGES
- B62B5/00—Accessories or details specially adapted for hand carts
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/587—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0639—Item locations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Automation & Control Theory (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- Databases & Information Systems (AREA)
- Transportation (AREA)
- Data Mining & Analysis (AREA)
- Combustion & Propulsion (AREA)
- Chemical & Material Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Development Economics (AREA)
- General Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Marketing (AREA)
- Economics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Library & Information Science (AREA)
- Electromagnetism (AREA)
- Navigation (AREA)
Abstract
本公开涉及一种定位方法、定位服务器及定位系统,定位方法包括:接收移动物体的无线定位坐标;根据所述无线定位坐标在视觉地图数据库中确定待匹配的视觉子地图;根据确定的所述待匹配的视觉子地图,获取所述移动物体在无线定位时拍摄的当前图像对应的视觉定位坐标作为定位结果。基于无线定位坐标选择待匹配的视觉子地图,并在选定的待匹配的视觉子地图中确定视觉定位坐标作为定位结果。通过无线定位坐标来缩小视觉定位过程涉及的地图数据量,从而提高视觉定位过程的精度和效率,进而满足较大场地的定位需求。
Description
技术领域
本公开涉及一种定位方法、定位服务器及定位系统。
背景技术
在人们的日常生活中,在商场、超市购物是人们的主要购物方式。这种购物方式非常直观和方便,但仍存在一些缺点。例如,因商场和超市规模不断扩大,消费者在逛商场或超市时不容易找到希望选购的商品。
在相关技术中已出现了多种应用于室内场景的定位技术,例如无线定位技术或视觉定位技术等。
发明内容
有鉴于此,本公开实施例提供一种定位方法、定位服务器及定位系统,能够满足较大场地的定位需求。
在本公开的一个方面,提供一种定位方法,包括:接收移动物体的无线定位坐标;根据所述无线定位坐标在视觉地图数据库中确定待匹配的视觉子地图;根据确定的所述待匹配的视觉子地图,获取所述移动物体在无线定位时拍摄的当前图像对应的视觉定位坐标作为定位结果。
在一些实施例中,选择所述待匹配的视觉子地图的操作包括:选择所述无线定位坐标所在的视觉子地图和邻接视觉子地图中的至少一个,作为所述待匹配的视觉子地图。
在一些实施例中,选择所述待匹配的视觉子地图的操作包括:以所述无线定位坐标为参考点,根据所述无线定位坐标的系统误差绘制几何图形,并将所述视觉地图数据库中预存的多个视觉子地图中被所述几何图形全部或部分覆盖的视觉子地图选出,作为所述待匹配的视觉子地图。
在一些实施例中,获取所述视觉定位坐标的操作包括:确定所述待匹配的视觉子地图中与所述当前图像相匹配的匹配关键帧;对所述当前图像和所述匹配关键帧进行姿态迭代估计,以获取所述当前图像对应的视觉定位坐标。
在一些实施例中,确定匹配关键帧的操作包括:对所述当前图像进行特征提取,并获得对应的视觉单词;在所述待匹配的视觉子地图的关键帧中查找候选匹配帧,所述候选匹配帧的至少一个视觉单词与所述当前图像的视觉单词的匹配度得分大于第一阈值;统计各候选匹配帧的视觉单词与所述当前图像的视觉单词匹配度得分大于第二阈值的数量,并选择数量大于第三阈值的候选匹配帧作为共视帧;将每个共视帧和所述共视帧之前或之后的预设数量的关键帧归为一组,并计算各组中所有关键帧的视觉单词与所述当前图像的视觉单词的匹配度累计得分;将所述匹配度累计得分大于第四阈值的组中匹配度得分最高的关键帧作为所述匹配关键帧。
在一些实施例中,还包括构建视觉地图数据库的方法,包括:对无线定位过程的坐标系和视觉定位过程的坐标系进行配准;将定位覆盖区域划分为多个视觉子地图,并在每个视觉子地图的范围内采集多个关键帧的稀疏三维地图特征点和视觉单词;将所述各个视觉子地图对应的所述多个关键帧、所述稀疏三维地图特征点和所述视觉单词保存到所述视觉地图数据库。
在一些实施例中,还包括:当根据所述视觉定位坐标判定所述移动物体处于当前时刻的视觉子地图的边界区域时,根据所述视觉定位坐标和所述移动物体的方向预测所述移动物体将要进入的视觉子地图;将预测到的视觉子地图确定为所述待匹配的视觉子地图,并执行获取下一图像对应的视觉定位坐标的操作。
在一些实施例中,预测视觉子地图的操作包括:根据所述视觉定位坐标和所述移动物体的方向确定通过所述视觉定位坐标且与所述移动物体的方向相同的直线;在所述直线与所述当前时刻的视觉子地图的邻接视觉子地图的边界存在交点,且所述视觉定位坐标与所述边界的距离相比于所述当前时刻的视觉子地图的其他边界的距离更短时,预测所述邻接视觉子地图为所述移动物体将要进入的视觉子地图。
在一些实施例中,还包括:基于定位覆盖区域的平面环境地图,确定所述无线定位坐标在预设路径上的投影点作为定位结果。
在一些实施例中,确定投影点的操作包括:判断是否已在所述平面环境地图内生成导航路径,是则将所述无线定位坐标投影到所述导航路径上,否则将所述无线定位坐标投影到所述平面环境地图中的可通行路径上。
在一些实施例中,在将所述无线定位坐标投影到所述导航路径上时,还包括:判断所述无线定位坐标投影到所述导航路径上的最短距离是否大于所述无线定位坐标的系统误差的绝对值,是则将所述无线定位坐标投影到所述可通行路径上,否则将对应于所述最短距离的投影点作为定位结果。
在一些实施例中,将所述无线定位坐标投影到所述可通行路径上的操作包括:确定所述平面环境地图中与所述移动物体的方向夹角最小,且距离所述无线定位坐标最近的可通行路径;将所述无线定位坐标投影到已确定的可通行路径的投影点作为定位结果。
在本公开的另一个方面,提供一种定位服务器,包括:存储器;和耦接至所述存储器的处理器,所述处理器被配置为基于存储在所述存储器中的指令,执行前述的定位方法。
在本公开的再一个方面,提供一种定位系统,包括:移动物体,在定位覆盖区域中移动;和前述的定位服务器。
在一些实施例中,还包括用户交互单元,与所述定位服务器进行通信,用于收发定位消息。
因此,根据本公开实施例,基于无线定位坐标选择待匹配的视觉子地图,并在选定的待匹配的视觉子地图中确定视觉定位坐标作为定位结果。通过无线定位坐标来缩小视觉定位过程涉及的地图数据量,从而提高视觉定位过程的效率和精度,进而满足较大场地的定位需求。
附图说明
构成说明书的一部分的附图描述了本公开的实施例,并且连同说明书一起用于解释本公开的原理。
参照附图,根据下面的详细描述,可以更加清楚地理解本公开,其中:
图1是根据本公开定位方法的一些实施例的流程示意图;
图2是根据本公开定位方法的一些实施例中选择待匹配的视觉子地图的示意图;
图3是根据本公开定位方法的另一些实施例中选择待匹配的视觉子地图的示意图;
图4是根据本公开定位方法的又一些实施例中选择待匹配的视觉子地图的示意图;
图5是根据本公开定位方法的一些实施例中获取视觉定位坐标的流程示意图;
图6是根据本公开定位方法的一些实施例中确定匹配关键帧的流程示意图;
图7是根据本公开定位方法的一些实施例中构建视觉地图数据库的流程示意图;
图8是根据本公开定位方法的一些实施例中在边界区域预测将要进入的视觉子地图的流程示意图;
图9是根据本公开定位方法的一些实施例中预测视觉子地图的示意图;
图10是根据本公开定位方法的一些实施例中确定投影点的示意图;
图11是根据本公开定位方法的另一些实施例中确定投影点的示意图;
图12是根据本公开定位服务器的一些实施例的方框示意图;
图13是根据本公开定位系统的一些实施例的方框示意图;
图14是根据本公开定位系统的另一些实施例的方框示意图。
应当明白,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。此外,相同或类似的参考标号表示相同或类似的构件。
具体实施方式
现在将参照附图来详细描述本公开的各种示例性实施例。对示例性实施例的描述仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。本公开可以以许多不同的形式实现,不限于这里所述的实施例。提供这些实施例是为了使本公开透彻且完整,并且向本领域技术人员充分表达本公开的范围。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值应被解释为仅仅是示例性的,而不是作为限制。
本公开中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的部分。“包括”或者“包含”等类似的词语意指在该词前的要素涵盖在该词后列举的要素,并不排除也涵盖其他要素的可能。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
在本公开中,当描述到特定器件位于第一器件和第二器件之间时,在该特定器件与第一器件或第二器件之间可以存在居间器件,也可以不存在居间器件。当描述到特定器件连接其它器件时,该特定器件可以与所述其它器件直接连接而不具有居间器件,也可以不与所述其它器件直接连接而具有居间器件。
本公开使用的所有术语(包括技术术语或者科学术语)与本公开所属领域的普通技术人员理解的含义相同,除非另外特别定义。还应当理解,在诸如通用字典中定义的术语应当被解释为具有与它们在相关技术的上下文中的含义相一致的含义,而不应用理想化或极度形式化的意义来解释,除非这里明确地这样定义。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在有些相关技术中,已出现了多种应用于室内场景的定位技术,例如无线定位技术或视觉定位技术等。对于无线定位技术来说,其处理数据量相对较少,对计算能力要求相对较低。但其定位精度相对较差,难以满足一些室内环境(例如商店或超市)下的定位需求。
对于视觉定位技术来说,其定位精度相对较高,但需要处理的数据量相对较大,对计算能力要求相对较高。因此当进行较大场地(例如大型超市)的视觉定位时,用于视觉定位的离线视觉地图的数据往往高达至少几个千兆字节,这使得执行视觉定位的计算平台需要具备很高的计算能力。即便如此,也不容易达到实时定位的效果。另外,在构建较大场地的离线视觉地图时,容易产生较大的累积视觉误差,从而严重影响在线定位的精度。
有鉴于此,本公开提供一种定位方法、定位服务器及定位系统,通过对无线定位技术和视觉定位技术的有机融合来克服这两种技术的缺陷,并提高定位的精度和效率,以满足较大场地的定位需求。
图1是根据本公开定位方法的一些实施例的流程示意图。
在图1中,定位方法包括:
步骤100、接收移动物体的无线定位坐标;
步骤200、根据所述无线定位坐标在视觉地图数据库中确定待匹配的视觉子地图;
步骤300、根据确定的所述待匹配的视觉子地图,获取所述移动物体在无线定位时拍摄的当前图像对应的视觉定位坐标作为定位结果。
在本实施例中,移动物体可以在预先设定的定位覆盖区域内运动。这里的移动物体既可以包括由人力驱动或随人的移动而移动的物体,例如手推车、脚踏车、滑板、手提篮或增强现实头盔等,也可以包括能够自行移动的物体,例如行走机器人、无人车或无人机等。
定位覆盖区域是指本公开定位方法实现的定位范围所覆盖的区域,也即是移动物体的移动区域。定位覆盖区域包括室内场地或露天场地,例如商店、超市、写字楼、封闭式体育馆或露天运动场等。
在步骤100中,可由服务器端接收移动物体的无线定位坐标。该无线定位坐标的获得可由移动物体上设置的无线定位单元执行,也可以由服务器端或者第三方设备执行。无线定位方法可采用基于WiFi、红外、蓝牙、Zigbee的各种已知的无线定位算法。
在一些实施例中,先在需要进行定位的定位覆盖区域中按照预设的间隔(例如3-5米)部署多个蓝牙信标节点。移动物体上设置的定位单元可接收周围蓝牙信标节点发出的蓝牙信号,并对信号强度进行排序。然后,筛选出强度最强的前三个蓝牙信标节点。这三个蓝牙信标节点的坐标分别为(x1,y1),(x2,y2)和(x3,y3),对应于移动物体的距离值分别为d1,d2和d3。接下来,基于以下三点加权质心算法的计算公式实例,可计算出无线定位坐标(xb,yb):
前面已经提到无线定位技术需要处理的数据量较小,因此无线定位单元可以在很短的时间内获得无线定位坐标,并发送给服务器端。而服务器端在接收到无线定位坐标后,则可根据无线定位坐标在视觉地图数据库中选择待匹配的视觉子地图。
在相关技术中,视觉定位技术需要按照定位覆盖区域构建整体的视觉地图数据库。而在本实施例中,视觉地图数据库中存储的是多个视觉子地图。这些视觉子地图是通过对定位覆盖区域划分后得到的。每个视觉子地图对应的数据量相对较少。
服务器端所接收的无线定位坐标可以作为确定哪些视觉子地图作为待匹配的视觉子地图参与到视觉定位过程的依据。也就是说,利用已确定的无线定位坐标来缩小视觉定位所需要的地图数据量。以下通过图2-图4分别示出了三类可行的选择待匹配的视觉子地图的实例。
图2是根据本公开定位方法的一些实施例中选择待匹配的视觉子地图的示意图。
参考图2,在一些实施例中,视觉地图数据库中预存的多个视觉子地图,且这些视觉子地图被按照正方形进行分割,且被顺序编号。图2中示出的36个视觉子地图可以是视觉地图数据库中的一个局部,也可以是整个定位覆盖区域所对应的所有视觉子地图。当确定了无线定位坐标(xb,yb)时,可相应的确定出该无线定位坐标所在的视觉子地图的编号14,而基于该编号14可以确定出该视觉子地图邻接的视觉子地图的编号7、8、9、13、15、19、20、21。
根据视觉定位的精度要求或无线定位的系统误差程度等因素,可只选择该无线定位坐标所在的视觉子地图作为待匹配的视觉子地图,也可选择其邻接的其他视觉子地图中的任意一个或全部作为待匹配的视觉子地图。显然,被选出的待匹配的视觉子地图的数据量大大少于所有视觉子地图的数据量,因此降低了对计算能力的要求,使得视觉定位的效率提高,增强视觉定位的实时性。
除了选择邻接视觉子地图的方式之外,在另一些实施例中还可以以该无线定位坐标为参考点,根据无线定位坐标的系统误差绘制几何图形。然后,将所述视觉地图数据库中预存的多个视觉子地图中被所述几何图形全部或部分覆盖的视觉子地图选出,作为所述待匹配的视觉子地图。
图3是根据本公开定位方法的另一些实施例中选择待匹配的视觉子地图的示意图。
参考图3,在一些实施例中,在接收无线定位坐标(xb,yb)之后,可以该无线定位坐标为圆心,根据无线定位坐标的系统误差的绝对值作为半径Δr绘制圆形。可以看到,该圆形覆盖了编号为1、2、4、5的视觉子地图的部分,因此将这四个视觉子地图作为待匹配的视觉子地图。除了选择圆形作为绘制的几何图形外,还可以选择矩形、三角形、椭圆形或非规则形状作为基于无线定位坐标的几何图形。几何图形的尺寸可参考无线定位坐标的系统误差或其他因素。
图4是根据本公开定位方法的又一些实施例中选择待匹配的视觉子地图的示意图。
参考图4,定位覆盖区域被划分成多个相互邻接的正六边形,分别对应了不同编号的视觉子地图。在确定了无线定位坐标(xb,yb)之后,按照无线定位坐标的系统误差绘制正方形。该正方形覆盖了编号为8、12、14、17、18、19的视觉子地图的部分,以及编号为13的视觉子地图的整体。由此进一步确定这些视觉子地图作为待匹配的视觉子地图。
图5是根据本公开定位方法的一些实施例中获取视觉定位坐标的流程示意图。
参考图5,在一些实施例中,步骤300可具体包括:
步骤310、确定所述待匹配的视觉子地图中与所述当前图像相匹配的匹配关键帧;
步骤320、对所述当前图像和所述匹配关键帧进行姿态迭代估计,以获取所述当前图像对应的视觉定位坐标。
在步骤310中,匹配关键帧是待匹配的视觉子地图的地图数据中的某个关键帧,当前图像与该关键帧的关联程度较其他关键帧的关联程度更为密切。由于待匹配的视觉子地图的地图数据量相对较少,因此确定匹配关键帧所耗费的计算能力较少,相应地处理效率得以提高。
这里的当前图像是指在获取移动物体的无线定位坐标的当前时刻下,在移动物体附近拍摄的图像。例如在移动物体的前侧设置摄像单元,并对移动物体前方的场景进行拍摄。为了提高视觉定位的精度,可使某个时刻拍摄到的图像与该时刻获取的无线定位坐标相对应。
为了实现当前图像和各个待匹配的视觉子地图中的关键帧之间的匹配,可采用从图像提取视觉单词,并计算当前图像的视觉单词与关键帧的视觉单词之间的匹配度得分的方式。在一些实施例中,可直接将包含匹配度得分达到一定程度的视觉单词的数量最多的关键帧作为匹配关键帧。而考虑到系统误差和噪音等因素,为了提高视觉定位的鲁棒性,还可采取图6中确定匹配关键帧的实现步骤。
图6是根据本公开定位方法的一些实施例中确定匹配关键帧的流程示意图。
在图6中,步骤310可具体包括步骤311-315。在步骤311中,对所述当前图像进行特征提取,并获得对应的视觉单词。在本实施例中,当前图像的视觉单词是通过对当前图像中的图形特征进行提取后形成的多维向量。
为了确定匹配关键帧,可执行步骤312,即在所述待匹配的视觉子地图的关键帧中查找候选匹配帧,所述候选匹配帧的至少一个视觉单词与所述当前图像的视觉单词的匹配度得分大于第一阈值。通过设定的第一阈值,可从待匹配的视觉子地图中选出一些关键帧作为候选匹配帧。而被选出的这些关键帧包含了与当前图像的视觉单词比较相近的视觉单词。
在确定了候选匹配帧之后,可通过确定各个候选匹配帧中所含有的相近的视觉单词的数量来进一步确定共视帧。具体参见步骤313,即统计各候选匹配帧的视觉单词与所述当前图像的视觉单词匹配度得分大于第二阈值的数量,并选择数量大于第三阈值的候选匹配帧作为共视帧。也就是说,如果某些候选匹配帧含有的视觉单词与当前图像中的视觉单词比较相近,且候选匹配帧中相近视觉单词的数量超过设定阈值,则将这些候选匹配帧作为共视帧。
第二阈值的取值可与第一阈值的取值相同,或者高于第一阈值的取值,以便提高视觉单词匹配程度的标准,减少符合共视帧条件的关键帧数量,从而降低计算量。
在一些实施例中,可直接使用候选匹配帧中相近的视觉单词的数量最多的共视帧作为匹配关键帧。而在另一些实施例中,如果因系统误差或图像噪声等因素的干扰,造成出现单一的共视帧中的相近视觉单词的数量与相邻的关键帧中的相近视觉单词的数量差距过大的情况,则表明该匹配关键帧确定的并不合适。
为了克服干扰的影响,可采取以下步骤:
步骤314、将每个共视帧和所述共视帧之前或之后的预设数量的关键帧归为一组,并计算各组中所有关键帧的视觉单词与所述当前图像的视觉单词的匹配度累计得分。
步骤315、将所述匹配度累计得分大于第四阈值的组中匹配度得分最高的关键帧作为所述匹配关键帧。
通过将共视帧及相邻关键帧归组后计算匹配度累计得分,再根据匹配度累积得分确定匹配关键帧的方式,可以消除因干扰带来的不利影响,提高视觉定位的鲁棒性和准确性。
仍参考图5,在一些实施例中,当确定了匹配关键帧之后,可以执行步骤320中对所述当前图像和所述匹配关键帧进行姿态迭代估计的操作,以获取所述当前图像对应的视觉定位坐标(xc,yc)。
这里的姿态迭代估计可采用已有算法,例如EPnP算法、序列正交迭代算法或Levenberg-Marquardt算法等,这里就不对算法的具体内容进行赘述了。通过姿态迭代估计可求出当前图像相对于世界坐标系的坐标转换矩阵,进而确定出当前图像的位置坐标作为视觉定位坐标。
在选择匹配的视觉子地图时,使用了离线或可在线更新的视觉地图数据库中的数据。该视觉地图数据库可存储在服务器端,其构建过程可参考图7所示的实施例。
图7是根据本公开定位方法的一些实施例中构建视觉地图数据库的流程示意图。
在图7中,构建视觉地图数据库的方法包括步骤410-430。在步骤410中,对无线定位过程的坐标系和视觉定位过程的坐标系进行配准。也就是说,通过配准操作使得无线定位过程所基于的坐标系与视觉定位过程所基于的坐标系统一为同一世界坐标系,以消除坐标系不统一带来的定位误差。
接下来,在步骤420中将定位覆盖区域划分为多个视觉子地图,并在每个视觉子地图的范围内采集多个关键帧的稀疏三维地图特征点和视觉单词。例如,参考图2,以10米×10米的面积范围作为一个视觉子地图,然后将整个定位覆盖区域划分成多个邻接的视觉子地图。或者,参考图4,按照设定尺寸的正六边形作为一个视觉子地图来对整个定位覆盖区域进行划分。
例如,在各个视觉子地图内,分别基于稀疏特征匹配的VSLAM算法进行视觉子地图所对应的数据的构建。具体包括:通过摄像头可在每个子区域的不同位置及不同角度拍摄多个关键帧;通过VSLAM算法在关键帧中提取出稀疏三维地图特征点;通过对关键帧的特征提取获得视觉单词。然后,在步骤430中将各个视觉子地图对应的所述多个关键帧、所述稀疏三维地图特征点和所述视觉单词保存到所述视觉地图数据库。
在根据当前的无线定位坐标确定当前的视觉定位坐标后,下一时刻的视觉定位坐标可直接基于当前的视觉定位坐标对应的视觉子地图进行下一时刻的视觉定位。而如果移动物体很快要移动到另一个视觉子地图时,则为了提高实时性,可在进入另一个视觉子地图之前对该视觉子地图进行预测。
图8是根据本公开定位方法的一些实施例中在边界区域预测将要进入的视觉子地图的流程示意图。
参考图8,在一些实施例中,定位方法还包括:
步骤510、当根据所述视觉定位坐标判定所述移动物体处于当前时刻的视觉子地图的边界区域时,根据所述视觉定位坐标和所述移动物体的方向预测所述移动物体将要进入的视觉子地图;
步骤520、将预测到的视觉子地图确定为所述待匹配的视觉子地图,并执行获取下一图像对应的视觉定位坐标的操作。
本实施例通过预测移动物体将要进入的视觉子地图,并作为待匹配的视觉子地图进行数据载入,不仅能够减少视觉定位所需的数据量,还能够提高视觉定位的实时性。
在步骤510中,边界区域可预先进行设定,例如将其设定为视觉子地图内靠近边界预定距离(例如1~2米)的区域。由于视觉子地图的边界已预先确定,因此当确定出当前的视觉定位坐标时,就可以计算出当前的视觉定位坐标是否处于边界区域。
在进行预测视觉子地图时,可先根据所述视觉定位坐标和所述移动物体的方向(即箭头方向)确定通过所述视觉定位坐标且与所述移动物体的方向相同的直线。如果该直线与当前时刻的视觉子地图的邻接视觉子地图的边界存在交点,且所述视觉定位坐标与所述边界的距离相比于所述当前时刻的视觉子地图的其他边界的距离更短,则预测所述邻接视觉子地图为所述移动物体将要进入的视觉子地图。
移动物体的方向可通过设置在移动物体上的测向单元测量得到。根据移动物体的运动方式,该方向可以包括移动物体本身的方向,例如手推车的车头方向;也可以包括移动物体的移动方向,例如机器人的运动方向等。相应的,根据方向的类型选择适合的测向单元,例如磁力计、方向传感器等。
图9是根据本公开定位方法的一些实施例中预测视觉子地图的示意图。
在图9中,P(xc,yc)点位于编号为1的视觉子地图。从P(xc,yc)点沿移动物体的方向(即箭头方向)可绘制出直线。该直线分别与编号为4的邻接视觉子地图的边界C1D1和D1D4相交,交点分别为P1和P2。由于P(xc,yc)到编号为4的邻接视觉子地图的边界C1D1的距离最短,因此预测该邻接视觉子地图为移动物体将要进入的视觉子地图。
当移动物体所在位置的周围环境比较影响视觉定位过程时,例如存在遮挡摄像单元的干扰物体,或者周围环境突然发生大的变化等,可能导致无法获得视觉定位坐标。为了保持定位服务的持续性,在一些实施例中,将无线定位技术与已知的平面环境地图结合来进行定位。即定位方法还可以包括:基于定位覆盖区域的平面环境地图,确定所述无线定位坐标在预设路径上的投影点作为定位结果。该定位过程可以在视觉定位失败时执行,也可在其他情形下执行,例如在接收到用户发出的地图定位指令时执行等。
定位覆盖区域的平面环境地图可预先进行绘制,并预先制定平面环境地图内的可通行路径,以便得到较为准确的定位结果。在进行投影点的确定时,可根据是否已在所述平面环境地图内生成导航路径进行判断。如果导航路径已生成,则可将所述无线定位坐标投影到所述导航路径上。如果没有导航路径生成,则将所述无线定位坐标投影到所述平面环境地图中可通行路径上。
图10是根据本公开定位方法的一些实施例中确定投影点的示意图。
在图10中,从t-1时刻之前已生成从经由Pt-1到目标点T的导航路径。此时,由于导航路径已生成,因此可从步骤100中接收的无线定位坐标P向该导航路径进行投影,得到投影点Pt。该投影点Pt可作为定位结果。
考虑到无线定位过程往往存在一定的系统误差,因此在另一些实施例中,在将所述无线定位坐标投影到所述导航路径上时,还可以包括对无线定位坐标投影到所述导航路径上的最短距离dt是否大于所述无线定位坐标的系统误差的绝对值Δr的判断步骤。如果最短距离dt大于绝对值Δr,则将所述无线定位坐标投影到所述平面环境地图中的可通行路径上。如果最短距离dt小于等于绝对值Δr,则将对应于所述最短距离的投影点Pt作为定位结果。
在一些实施例中,将所述无线定位坐标投影到所述平面环境地图中的可通行路径上的操作可具体包括:确定所述平面环境地图中与所述移动物体的方向夹角最小,且距离所述无线定位坐标最近的可通行路径,并将所述无线定位坐标投影到已确定的可通行路径的投影点作为定位结果。
图11是根据本公开定位方法的另一些实施例中确定投影点的示意图。
参考图11,已在平面环境地图中绘制出了沿x轴方向和y轴方向的可通行路径。在另一些实施例中,可通行路径不限于沿正交的坐标轴延伸的直线段,也可以是呈钝角或锐角的折线或曲线。
在从步骤100中接收的无线定位坐标P之后,根据移动物体的方向可确定出该方向与沿x轴方向和y轴方向的可通行路径的夹角分别为和且并且,P点到下方最近的一条沿x轴方向的可通行路径的距离最短。因此将P点向该可通行路径进行投影,得到投影点Pt作为定位结果。
图12是根据本公开定位服务器的一些实施例的方框示意图。
参考图12,在一些实施例中,定位服务器3可包括存储器和耦接至所述存储器的处理器,所述处理器被配置为基于存储在所述存储器中的指令,执行前述任一种的定位方法实施例。
图13是根据本公开定位系统的一些实施例的方框示意图。
在图13示出的一些实施例中,定位系统包括移动物体1和前述的定位服务器3。移动物体1能够在定位覆盖区域中移动。参考图13,在一些实施例中,定位系统还可以包括用户交互单元2。该用户交互单元2与所述定位服务器进行通信,用于收发定位消息。该用户交互单元2可包括用户自己的移动终端或者设置在移动物体上的固定终端。该单元可根据预设的程序或者根据用户指令与定位服务器3进行通信,以便发送定位请求,以及接收定位服务器返回的定位结果。该用户交互单元2可搭载在移动物体上,或者由用户携带。在另一实施例中,该用户交互单元2还可以相对固定的设置在特定位置,例如机房、监控室等。
图14是根据本公开定位系统的另一些实施例的方框示意图。
在图14中示出了用户在大型商店或超市进行购物的业务场景实例。用户的手机21作为用户交互单元2与定位服务器3进行无线通信。购物车11作为移动物体1也与定位服务器3进行无线通信。手机21通过自身的WiFi模块22和购物车11上设置的WiFi模块15均与定位服务器3中设置的WiFi模块31实现无线通信连接。
为了减轻手机21的计算与通信负担,手机21仅需要进行界面交互。例如,通过WiFi模块22发送需要寻找的商品名称,以触发定位及导航请求。并且还可通过WiFi模块22接收与显示定位与导航数据。
在购物车11上可以搭载无线定位单元12、摄像单元13和测向单元14等。此外,在购物车11上还可设置控制各功能单元的处理器。无线定位单元12可采用蓝牙定位单元或Zigbee定位单元,以接收环境中部署的无线信标节点的信号。摄像单元13可选用双目或者深度摄像头,并且可选以斜向上30°至45°固定于购物车11的前端,以便主要拍摄场景中的货架上部及天花板,尽量避免采集周围的动态环境数据。测向单元14可选用磁力计等,用来较准确地判断出购物车11的车头方向。
在一些应用实例中,当用户使用手机21进行商品导航或者对自己当前所在位置进行定位时,通过与定位服务器3进行通信来启动定位流程。在定位流程的初始阶段,定位服务器3可向购物车11的处理器发出请求获得无线定位坐标的消息。购物车11的处理器可控制无线定位单元12来获取当前购物车11的无线定位坐标,并将摄像单元13拍摄的当前图像以及测向单元14测得的方向数据一并发送给定位服务器3。
定位服务器3根据购物车11一侧发送的数据进行视觉定位操作,如果能够成功获得视觉定位坐标,则将该视觉定位坐标作为定位结果返回给手机21。如果因各种原因导致无法获得视觉定位坐标,则通过平面环境地图的路径投影的方式来获得投影点的坐标,以该坐标作为定位结果返回给手机21。
如果手机21需要定位服务器3持续提供定位结果,以便进行实时定位或导航功能,则定位服务器3在获得当前图像的视觉定位坐标后,会判断该视觉定位坐标是否在视觉子地图的边界范围。如果不在边界范围,这意味着下一时刻有较大可能不会进入到其他视觉子地图。相应的,则可基于当前的视觉子地图进行下一时刻的图像的视觉定位操作。
如果该视觉定位坐标已处于视觉子地图的边界范围,则表示有较大可能进入到其他视觉子地图,此时则进行下一时刻的视觉子地图的预测,并基于下一时刻的视觉子地图进行下一时刻的图像的视觉定位操作。
至此,已经详细描述了本公开的各实施例。为了避免遮蔽本公开的构思,没有描述本领域所公知的一些细节。本领域技术人员根据上面的描述,完全可以明白如何实施这里公开的技术方案。
虽然已经通过示例对本公开的一些特定实施例进行了详细说明,但是本领域的技术人员应该理解,以上示例仅是为了进行说明,而不是为了限制本公开的范围。本领域的技术人员应该理解,可在不脱离本公开的范围和精神的情况下,对以上实施例进行修改或者对部分技术特征进行等同替换。本公开的范围由所附权利要求来限定。
Claims (14)
1.一种定位方法,包括:
接收移动物体的无线定位坐标;
根据所述无线定位坐标在视觉地图数据库中确定待匹配的视觉子地图;
根据确定的所述待匹配的视觉子地图,获取所述移动物体在无线定位时拍摄的当前图像对应的视觉定位坐标作为定位结果;
其中,所述定位方法还包括:
当根据所述视觉定位坐标判定所述移动物体处于当前时刻的视觉子地图的边界区域时,根据所述视觉定位坐标和所述移动物体的方向预测所述移动物体将要进入的视觉子地图;
将预测到的视觉子地图确定为所述待匹配的视觉子地图,并执行获取下一图像对应的视觉定位坐标的操作。
2.根据权利要求1所述的定位方法,其中,选择所述待匹配的视觉子地图的操作包括:
选择所述无线定位坐标所在的视觉子地图和邻接视觉子地图中的至少一个,作为所述待匹配的视觉子地图。
3.根据权利要求1所述的定位方法,其中选择所述待匹配的视觉子地图的操作包括:
以所述无线定位坐标为参考点,根据所述无线定位坐标的系统误差绘制几何图形,并将所述视觉地图数据库中预存的多个视觉子地图中被所述几何图形全部或部分覆盖的视觉子地图选出,作为所述待匹配的视觉子地图。
4.根据权利要求1所述的定位方法,其中获取所述视觉定位坐标的操作包括:
确定所述待匹配的视觉子地图中与所述当前图像相匹配的匹配关键帧;
对所述当前图像和所述匹配关键帧进行姿态迭代估计,以获取所述当前图像对应的视觉定位坐标。
5.根据权利要求4所述的定位方法,其中,确定匹配关键帧的操作包括:
对所述当前图像进行特征提取,并获得对应的视觉单词;
在所述待匹配的视觉子地图的关键帧中查找候选匹配帧,所述候选匹配帧的至少一个视觉单词与所述当前图像的视觉单词的匹配度得分大于第一阈值;
统计各候选匹配帧的视觉单词与所述当前图像的视觉单词匹配度得分大于第二阈值的数量,并选择数量大于第三阈值的候选匹配帧作为共视帧;
将每个共视帧和所述共视帧之前或之后的预设数量的关键帧归为一组,并计算各组中所有关键帧的视觉单词与所述当前图像的视觉单词的匹配度累计得分;
将所述匹配度累计得分大于第四阈值的组中匹配度得分最高的关键帧作为所述匹配关键帧。
6.根据权利要求1所述的定位方法,还包括构建视觉地图数据库的方法,包括:
对无线定位过程和视觉定位过程的坐标系进行配准;
将定位覆盖区域划分为多个视觉子地图,并在每个视觉子地图的范围内采集多个关键帧的稀疏三维地图特征点和视觉单词;
将所述各个视觉子地图对应的所述多个关键帧、所述稀疏三维地图特征点和所述视觉单词保存到所述视觉地图数据库。
7.根据权利要求1所述的定位方法,其中,预测视觉子地图的操作包括:
根据所述视觉定位坐标和所述移动物体的方向确定通过所述视觉定位坐标且与所述移动物体的方向相同的直线;
在所述直线与所述当前时刻的视觉子地图的邻接视觉子地图的边界存在交点,且所述视觉定位坐标与所述边界的距离相比于所述当前时刻的视觉子地图的其他边界的距离更短时,预测所述邻接视觉子地图为所述移动物体将要进入的视觉子地图。
8.根据权利要求1所述的定位方法,还包括:
基于定位覆盖区域的平面环境地图,确定所述无线定位坐标在预设路径上的投影点作为定位结果。
9.根据权利要求8所述的定位方法,其中,确定投影点的操作包括:
判断是否已在所述平面环境地图内生成导航路径,是则将所述无线定位坐标投影到所述导航路径上,否则将所述无线定位坐标投影到所述平面环境地图中的可通行路径上。
10.根据权利要求9所述的定位方法,其中,在将所述无线定位坐标投影到所述导航路径上时,还包括:
判断所述无线定位坐标投影到所述导航路径上的最短距离是否大于所述无线定位坐标的系统误差的绝对值,是则将所述无线定位坐标投影到所述可通行路径上,否则将对应于所述最短距离的投影点作为定位结果。
11.根据权利要求9或10所述的定位方法,其中,将所述无线定位坐标投影到所述可通行路径上的操作包括:
确定所述平面环境地图中与所述移动物体的方向夹角最小,且距离所述无线定位坐标最近的可通行路径;
将所述无线定位坐标投影到已确定的可通行路径的投影点作为定位结果。
12.一种定位服务器,包括:
存储器;和
耦接至所述存储器的处理器,所述处理器被配置为基于存储在所述存储器中的指令,执行权利要求1~11任一所述的定位方法。
13.一种定位系统,包括:
移动物体,在定位覆盖区域中移动;和
权利要求12所述的定位服务器。
14.根据权利要求13所述的定位系统,其中,还包括用户交互单元,与所述定位服务器进行通信,用于收发定位消息。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810309986.9A CN108692720B (zh) | 2018-04-09 | 2018-04-09 | 定位方法、定位服务器及定位系统 |
US16/961,719 US11933614B2 (en) | 2018-04-09 | 2018-11-12 | Positioning method, positioning server and positioning system |
PCT/CN2018/115029 WO2019196403A1 (zh) | 2018-04-09 | 2018-11-12 | 定位方法、定位服务器及定位系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810309986.9A CN108692720B (zh) | 2018-04-09 | 2018-04-09 | 定位方法、定位服务器及定位系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108692720A CN108692720A (zh) | 2018-10-23 |
CN108692720B true CN108692720B (zh) | 2021-01-22 |
Family
ID=63845439
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810309986.9A Active CN108692720B (zh) | 2018-04-09 | 2018-04-09 | 定位方法、定位服务器及定位系统 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11933614B2 (zh) |
CN (1) | CN108692720B (zh) |
WO (1) | WO2019196403A1 (zh) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108692720B (zh) | 2018-04-09 | 2021-01-22 | 京东方科技集团股份有限公司 | 定位方法、定位服务器及定位系统 |
CN108845289B (zh) * | 2018-07-03 | 2021-08-03 | 京东方科技集团股份有限公司 | 一种商超购物车定位方法、系统及商超购物车 |
CN111238490B (zh) * | 2018-11-29 | 2022-03-08 | 北京地平线机器人技术研发有限公司 | 视觉定位方法、装置以及电子设备 |
CN109655075B (zh) * | 2019-01-16 | 2021-09-14 | 北京百度网讯科技有限公司 | 无人车定位方法及设备 |
CN110866953B (zh) * | 2019-10-31 | 2023-12-29 | Oppo广东移动通信有限公司 | 地图构建方法及装置、定位方法及装置 |
CN111511017B (zh) * | 2020-04-09 | 2022-08-16 | Oppo广东移动通信有限公司 | 定位方法及装置、设备、存储介质 |
CN111623783A (zh) * | 2020-06-30 | 2020-09-04 | 杭州海康机器人技术有限公司 | 一种初始定位方法、视觉导航设备、仓储系统 |
CN112004196B (zh) * | 2020-08-24 | 2021-10-29 | 唯羲科技有限公司 | 定位方法、装置、终端及计算机存储介质 |
CN112683262A (zh) * | 2020-11-30 | 2021-04-20 | 浙江商汤科技开发有限公司 | 定位方法及装置、电子设备和存储介质 |
CN115119135A (zh) * | 2021-03-08 | 2022-09-27 | 花瓣云科技有限公司 | 一种数据发送方法、接收方法和装置 |
CN113077475B (zh) * | 2021-03-17 | 2023-09-08 | 杭州海康机器人股份有限公司 | 视觉定位方法、装置、系统、移动机器人及存储介质 |
CN113591847B (zh) * | 2021-07-28 | 2022-12-20 | 北京百度网讯科技有限公司 | 一种车辆定位方法、装置、电子设备及存储介质 |
CN113610001B (zh) * | 2021-08-09 | 2024-02-09 | 西安电子科技大学 | 基于深度相机和imu组合的室内移动终端定位方法 |
CN113820697B (zh) * | 2021-09-09 | 2024-03-26 | 中国电子科技集团公司第五十四研究所 | 一种基于城市建筑特征与三维地图的视觉定位方法 |
CN114279456B (zh) * | 2021-12-06 | 2024-04-30 | 纵目科技(上海)股份有限公司 | 图片构建/车辆定位方法、系统、终端及计算机存储介质 |
KR102431122B1 (ko) * | 2021-12-30 | 2022-08-10 | 주식회사 버넥트 | 맵 타겟 추적 방법 및 그 시스템 |
CN114332232B (zh) * | 2022-03-11 | 2022-05-31 | 中国人民解放军国防科技大学 | 基于空间点线面特征混合建模的智能手机室内定位方法 |
CN114385934A (zh) * | 2022-03-23 | 2022-04-22 | 北京悉见科技有限公司 | 一种对多个ar地图进行联合查询的系统 |
CN115439536B (zh) * | 2022-08-18 | 2023-09-26 | 北京百度网讯科技有限公司 | 视觉地图更新方法、装置及电子设备 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009014332A3 (en) * | 2007-07-23 | 2009-03-19 | Korea Electronics Telecomm | Method and system for creating indoor environment map |
CN102147260A (zh) * | 2010-02-09 | 2011-08-10 | 日电(中国)有限公司 | 电子地图匹配方法和装置 |
WO2012024516A2 (en) * | 2010-08-18 | 2012-02-23 | Nearbuy Systems, Inc. | Target localization utilizing wireless and camera sensor fusion |
CN103249142A (zh) * | 2013-04-26 | 2013-08-14 | 东莞宇龙通信科技有限公司 | 一种定位方法、系统及移动终端 |
CN103596263A (zh) * | 2013-09-27 | 2014-02-19 | 北京邮电大学 | 一种室内定位中获取位置的方法及装置 |
CN104936283A (zh) * | 2014-03-21 | 2015-09-23 | 中国电信股份有限公司 | 室内定位方法、服务器和系统 |
CN106291517A (zh) * | 2016-08-12 | 2017-01-04 | 苏州大学 | 基于位置与视觉信息优化的室内云机器人角度定位方法 |
CN107392964A (zh) * | 2017-07-07 | 2017-11-24 | 武汉大学 | 基于室内特征点和结构线结合的室内slam方法 |
CN107677279A (zh) * | 2017-09-26 | 2018-02-09 | 上海思岚科技有限公司 | 一种定位建图的方法及系统 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080268876A1 (en) * | 2007-04-24 | 2008-10-30 | Natasha Gelfand | Method, Device, Mobile Terminal, and Computer Program Product for a Point of Interest Based Scheme for Improving Mobile Visual Searching Functionalities |
US9151621B2 (en) * | 2012-01-11 | 2015-10-06 | Indooratlas Oy | Indoor magnetic field based location discovery |
US9589355B2 (en) * | 2015-03-16 | 2017-03-07 | Here Global B.V. | Guided geometry extraction for localization of a device |
US10486313B2 (en) * | 2016-02-09 | 2019-11-26 | Cobalt Robotics Inc. | Mobile robot map generation |
US20180025500A1 (en) * | 2016-07-22 | 2018-01-25 | Appropolis Inc. | Method of tracking one or more mobile objects in a site and a system employing same |
US10739142B2 (en) * | 2016-09-02 | 2020-08-11 | Apple Inc. | System for determining position both indoor and outdoor |
CN106793086B (zh) * | 2017-03-15 | 2020-01-14 | 河北工业大学 | 一种室内定位方法 |
US20180283882A1 (en) * | 2017-04-04 | 2018-10-04 | Appropolis Inc. | Location-based services system and method therefor |
CN107167130A (zh) * | 2017-05-18 | 2017-09-15 | 上海谦尊升网络科技有限公司 | 地图匹配定位方法及系统 |
US10818031B2 (en) * | 2017-11-22 | 2020-10-27 | Blynk Technology | Systems and methods of determining a location of a mobile container |
CN108692720B (zh) * | 2018-04-09 | 2021-01-22 | 京东方科技集团股份有限公司 | 定位方法、定位服务器及定位系统 |
-
2018
- 2018-04-09 CN CN201810309986.9A patent/CN108692720B/zh active Active
- 2018-11-12 US US16/961,719 patent/US11933614B2/en active Active
- 2018-11-12 WO PCT/CN2018/115029 patent/WO2019196403A1/zh active Application Filing
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009014332A3 (en) * | 2007-07-23 | 2009-03-19 | Korea Electronics Telecomm | Method and system for creating indoor environment map |
CN102147260A (zh) * | 2010-02-09 | 2011-08-10 | 日电(中国)有限公司 | 电子地图匹配方法和装置 |
WO2012024516A2 (en) * | 2010-08-18 | 2012-02-23 | Nearbuy Systems, Inc. | Target localization utilizing wireless and camera sensor fusion |
CN103249142A (zh) * | 2013-04-26 | 2013-08-14 | 东莞宇龙通信科技有限公司 | 一种定位方法、系统及移动终端 |
CN103596263A (zh) * | 2013-09-27 | 2014-02-19 | 北京邮电大学 | 一种室内定位中获取位置的方法及装置 |
CN104936283A (zh) * | 2014-03-21 | 2015-09-23 | 中国电信股份有限公司 | 室内定位方法、服务器和系统 |
CN106291517A (zh) * | 2016-08-12 | 2017-01-04 | 苏州大学 | 基于位置与视觉信息优化的室内云机器人角度定位方法 |
CN107392964A (zh) * | 2017-07-07 | 2017-11-24 | 武汉大学 | 基于室内特征点和结构线结合的室内slam方法 |
CN107677279A (zh) * | 2017-09-26 | 2018-02-09 | 上海思岚科技有限公司 | 一种定位建图的方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
US11933614B2 (en) | 2024-03-19 |
US20210063159A1 (en) | 2021-03-04 |
WO2019196403A1 (zh) | 2019-10-17 |
CN108692720A (zh) | 2018-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108692720B (zh) | 定位方法、定位服务器及定位系统 | |
US10415978B2 (en) | Landmark location determination | |
Huang et al. | WiFi and vision-integrated fingerprint for smartphone-based self-localization in public indoor scenes | |
CN109141442B (zh) | 基于uwb定位与图像特征匹配的导航方法和移动终端 | |
CN105940429B (zh) | 用于确定设备运动的估计的方法和系统 | |
US9476717B2 (en) | Simultaneous localization and mapping by using Earth's magnetic fields | |
US10057725B2 (en) | Sensor-based geolocation of a user device | |
CN106767810B (zh) | 一种基于移动终端的wifi和视觉信息的室内定位方法及系统 | |
CN112050810B (zh) | 一种基于计算机视觉的室内定位导航方法及系统 | |
CN104936283A (zh) | 室内定位方法、服务器和系统 | |
KR20110080098A (ko) | 위치 기반 정보를 이용한 증강 현실 서비스 장치 및 그 방법 | |
CN111083633B (zh) | 移动终端定位系统及其建立方法、移动终端的定位方法 | |
CN106470478B (zh) | 一种定位数据处理方法、装置和系统 | |
KR20190032791A (ko) | 실시간 위치 측위 시스템 및 이를 이용한 콘텐츠 제공 서비스 시스템 | |
Teng et al. | CloudNavi: Toward ubiquitous indoor navigation service with 3D point clouds | |
CN110290455A (zh) | 基于场景识别的目标场景确定方法及系统 | |
CN105898711B (zh) | 一种基于地磁基准线的定位方法及装置 | |
Cervenak et al. | ARKit as indoor positioning system | |
CN112422653A (zh) | 基于位置服务的场景信息推送方法、系统、存储介质及设备 | |
EP3234505B1 (en) | Providing constraint to a position | |
Liu et al. | Eyeloc: Smartphone vision-enabled plug-n-play indoor localization in large shopping malls | |
CN108932478A (zh) | 基于图像的物体定位方法、装置及购物车 | |
KR101601726B1 (ko) | 복수의 영상 획득 장치를 포함하는 모바일 단말기의 위치 및 자세 결정 방법 및 시스템 | |
Ghantous et al. | Augmented reality indoor navigation based on Wi-Fi trilateration | |
US20220122738A1 (en) | Method and system for contact tracing using positioning in a venue |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |