CN115175749A - 使用3d线交汇点进行位置确定和映射 - Google Patents
使用3d线交汇点进行位置确定和映射 Download PDFInfo
- Publication number
- CN115175749A CN115175749A CN202080097259.6A CN202080097259A CN115175749A CN 115175749 A CN115175749 A CN 115175749A CN 202080097259 A CN202080097259 A CN 202080097259A CN 115175749 A CN115175749 A CN 115175749A
- Authority
- CN
- China
- Prior art keywords
- map
- line
- client device
- location
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013507 mapping Methods 0.000 title description 57
- 238000000034 method Methods 0.000 claims abstract description 42
- 239000013598 vector Substances 0.000 claims description 29
- 230000001131 transforming effect Effects 0.000 claims 1
- 238000012800 visualization Methods 0.000 abstract description 4
- 230000008569 process Effects 0.000 description 14
- 230000004807 localization Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 238000013135 deep learning Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000003190 augmentative effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000009795 derivation Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000001404 mediated effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000012821 model calculation Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/216—Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3602—Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3635—Guidance using 3D or perspective road maps
- G01C21/3638—Guidance using 3D or perspective road maps including 3D objects and buildings
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3863—Structures of map data
- G01C21/3867—Geometry of map features, e.g. shape points, polygons or for simplified maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Multimedia (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Geometry (AREA)
- Environmental & Geological Engineering (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
- Image Processing (AREA)
Abstract
本文中描述了一种用于确定客户端设备的位置的系统和方法。特别地,客户端设备接收由客户端设备处的相机捕获的图像。客户端设备标识图像中的特征。这些特征可以是线交汇点、直线、曲线或在图像中发现的任何其他特征。客户端设备从地图数据库中取回环境的3D地图,并且将所标识的特征与环境的3D地图进行比较,3D地图包括地图特征,诸如地图线交汇点、地图线、地图曲线等。客户端设备标识从图像中标识的特征与地图特征之间的对应关系,并且基于该对应关系来确定客户端设备在真实世界中的位置。客户端设备可以显示表示与真实世界中的位置相对应的虚拟世界中的位置的可视化数据。
Description
相关申请的交叉引用
本申请要求于2019年12月20日提交的美国临时申请号62/952,016的权益,该申请通过引用整体并入本文。
技术领域
本公开总体上涉及3D映射,并且具体地涉及使用3D线交汇点来确定设备的位置。
背景技术
平行现实游戏可以提供共享虚拟世界,该共享虚拟世界与真实世界的至少部分平行,可以托管可以吸引玩家社区的各种交互。提供具有与真实世界的至少部分平行的地理环境的虚拟世界允许玩家通过在真实世界中导航来在虚拟世界中导航。在游戏过程中,玩家可以通过手持或可穿戴设备来查看虚拟世界,该设备使用计算机介导的现实技术来添加、减去或以其他方式改变玩家对其环境的视觉或听觉感知。
然而,准确地改变玩家对环境的视觉感知通常涉及准确地了解玩家在真实世界中的位置。这可能很难确定,因为传统的定位设备不足以准确地确定玩家的位置而没有相当大的误差范围。因此,需要改进的方法来确定玩家在真实世界中的位置。
发明内容
在基于位置的平行现实游戏中,玩家通过利用诸如智能电话等位置感知客户端设备在真实世界中移动来在虚拟世界中导航。平行现实游戏中的玩家使用的很多客户端设备可以包括定位设备,当玩家在玩平行现实游戏的同时在真实世界中移动时,该定位设备跟踪玩家位置信息。在各种实施例中,客户端设备使用由(多个)设备上相机捕获的图像数据来确定玩家的位置,该位置可以用来代替或补充从定位设备收集的玩家位置信息。客户端设备可以基于所确定的玩家位置来产生增强现实(AR)图像以覆盖在图像数据上。
根据一个实施例,AR平台确定用于平行现实游戏的环境中的相机的位置。使用由相机捕获的一个或多个图像,AR平台标识一个或多个图像中的线交汇点(junction),即,线在空间中相交的点。AR平台将这些线交汇点与环境的三维(3D)地图进行比较,以确定线交汇点是否对应于3D地图中的地图线交汇点。基于由AR平台标识的一个或多个对应关系,AR平台确定环境中的相机的位置。AR平台可以生成计算机介导的现实图像,用于显示在与相机相关联的客户端设备上,以反映与真实世界中的确定的位置相对应的虚拟世界中的位置。
在附加或备选实施例中,AR平台可以从集成在客户端设备中的地理定位/全球定位系统来接收表示由相机看到的环境的近实时视图和地理定位位置的一个或多个图像。AR平台估计特定时间点的相机位置处与一个或多个图像中的一个或多个映射点之间的距离。基于所估计的距离,AR平台将一个或多个图像与位于3D地图中特定位置的计算机生成的图像叠加。当玩家将相机移动到空间中的不同位置时,计算机生成的图像会保持定位在特定位置。
这些和其他特征、方面和优点参考以下描述和所附权利要求可以更好地理解。附图示出了具体实施例,并且与说明书一起用于解释各种原理。然而,附图不应当被认为是限制性的。相反,保护范围应当根据权利要求来确定。
附图说明
图1是根据一个实施例的AR计算系统100的框图。
图2A描绘了根据一个实施例的线交汇点。
图2B描绘了根据一个实施例的线交汇点处的相交线。
图2C描绘了根据一个实施例的2D和3D中的线交汇点的表示。
图3是示出根据一个实施例的由图1的计算系统可执行以用于生成和显示增强现实数据的过程的流程图。
图4描绘了根据一个实施例的与真实世界平行的虚拟世界的概念图,该虚拟世界可以充当基于位置的平行现实游戏的玩家的游戏板。
图5是示出根据一个实施例的用于确定环境中的相机的位置的过程的流程图。
图6是示出根据一个实施例的适合在图1的网络计算环境中使用的示例计算机系统的框图。
具体实施方式
一种系统和方法确定环境中的客户端设备的位置,并且基于该位置来启用用户经由客户端设备与真实世界的交互。此外,系统可以创建环境的三维(3D)地图(例如,分辨率为1厘米),以用于确定客户端设备的位置。在各种实施例中,映射在客户端(例如,电话或耳机)上完成并且与后端服务器配对,该后端服务器提供先前编译的图像并且将映射回客户端设备。
在一个实施例中,系统使用一个或多个模型来基于由相机捕获的一个或多个图像来评估相机的位置(例如,在客户端设备上)。使用一个或多个模型涉及系统检测一个或多个图像内的线交汇点并且在3D空间与2D空间之间投影线交汇点,以确定它们是否对应于来自相机周围的环境的3D地图的地图线交汇点。基于线交汇点与地图线交汇点之间的对应关系,系统可以对相机在空间中的位置进行三角测量(triangulate)。使用该位置,系统可以增强针对平行现实游戏的一个或多个图像,使得使用客户端设备的游戏的玩家可以在虚拟世界中看到与其在真实世界中的位置相对应的虚拟元素或其他虚拟信息。
示例系统
图1是根据一个实施例的AR计算系统100的框图。AR计算系统100包括与经由网络104访问的元素协作的客户端设备102。例如,该元素可以是被配置为产生AR数据的服务器设备的组件。在所示实施例中,客户端设备102包括游戏引擎106和AR平台108。游戏引擎106绘制平行现实游戏以供客户端设备102的用户玩。游戏引擎可以是游戏引擎或其他物理/渲染引擎。AR平台108可以对由客户端设备102的相机捕获的图像数据执行分割和对象识别。
图1所示的AR平台108包括复杂可视化模块110、定位和映射模块112、地图取回模块114和深度学习模块116。在其他实施例中,AR平台可以包括备选或附加模块,诸如训练模块或对象识别模块。此外,在一些实施例中,AR平台可以位于具有元素的服务器设备处并且经由网络104来访问,或者元素可以位于AR平台108处。
复杂计算机可视化模块110执行客户端图像处理。这样的图像处理可以包括图像分割、局部3D估计等。在一些实施例中,复杂计算机可视化模块110可以将图像转换为点云或处理图像以将图像中描述的特征添加到客户端设备102周围的环境的3D地图中。
定位和映射模块112映射客户端设备102周围的环境并且确定环境中的客户端设备102的位置。定位和映射模块112可以使用多种方法中的一种或多种方法用于映射环境并且确定客户端设备102的位置。
定位和映射模块112从客户端设备102的相机接收一个或多个图像(或其他图像数据,诸如视频)。在一些实施例中,定位和映射模块112接收由客户端设备102捕获的其他传感器数据(例如,照明数据、图像数据和/或GPS坐标),定位和映射模块112可以使用该数据来确定客户端设备102的位置。定位和映射模块112可以在客户端设备102在环境中移动时实时接收图像(和传感器数据)。
定位和映射模块112基于接收的图像来确定环境中的客户端设备102的位置。在一些实施例中,定位和映射模块112从位于客户端设备102处的全球定位系统接收客户端设备102在真实世界中的GPS坐标。定位和映射模块112可以使用这些GPS坐标来表示客户端设备102的位置,或者可以使用这些GPS坐标作为针对客户端设备102的一般位置的参考,并且使用一个或多个其他模型或系统来确定客户端设备102的更准确位置。
在一些实施例中,定位和映射模块112使用同时定位和映射(SLAM)软件开发工具包(SDK)功能来生成环境的地图。特别地,SLAM SDK功能可以包括映射系统,该映射系统基于图像或其他图像数据来构建点云,该点云用于形成环境地图。定位和映射模块112可以将地图存储在本地,或者可以将地图存储在地图数据库124中。基于地图,定位和映射模块112可以使用跟踪来查找客户端设备102在空间中的位置。定位和映射模块112进一步使用SLAM过程将一个或多个动画或增强的值重新投影到图像上用于显示给客户端设备的用户。例如,基于客户端设备的位置,定位和映射模块112可以将一个或多个虚拟元素或来自虚拟世界的其他信息添加到用户的图像以供查看。虚拟元素等关于图4进行描述。
在其他实施例中,定位和映射模块112具有可用于确定客户端设备102的位置的多个模型。这些模型可以包括基于点云的模型(例如,由SLAM提供的)、平面匹配模型、线匹配模型、地理信息系统(GIS)模型、建筑物识别模型和景观识别模型。定位和映射模块112可以基于由客户端设备102捕获的传感器数据来选择一个或多个模型用于定位。例如,平面和线匹配模型在室内可能是最准确的,而景观和建筑模型在室外可能是最准确的。因此,客户端设备102可以基于传感器数据来确定客户端设备102是在室内还是在室外,并且选择更有效的模型用于定位。
在一个示例性实施例中,定位和映射模块112将线交汇点模型应用于图像,以定位客户端设备102。具体地,线交汇点模型标识一个或多个图像中的一个或多个线交汇点。线交汇点是空间中两条或更多个条线相交的点,如图所示。例如,一张桌子前面的图像可能会在桌子上的每个边(例如,线)相交的地方示出线交汇点。在一些实施例中,线交汇点模型可以标识图像中的其他特征,诸如曲线。
线交汇点模型访问环境的3D地图。3D地图可以被本地存储在客户端设备处或者存储在经由网络104访问的地图数据库124处。3D地图可以包含地图线交汇点,地图线交汇点是已经在3D地图中标识的线交汇点,或者可以包含其他特征,诸如线和曲线。备选地,地图取回模块114可以访问用于线交汇点模型的3D地图并且将3D地图输入线交汇点模型。
线交汇点模型将所标识的线交汇点(或者在某些情况下将特征)与3D地图进行比较,以查找对应线交汇点(或特征)。基于由线交汇点模型找到的对应关系,线交汇点模型确定环境中的客户端设备102的位置。由线交汇点模型用来确定客户端设备102的位置的过程将结合图2A至图2C进一步描述。
在一个实施例中,为了选择一个或多个模型,定位和映射模块112为每个模型分配得分,该得分指示该模型将生成针对客户端设备102的准确位置的可能性。得分可以基于由传感器数据指示的客户端设备102的当前情况而被确定。定位和映射模块112基于得分和选择标准集来选择一个或多个模型用于定位。例如,客户端设备102可以选择具有得分最高的模型、得分最高的三个模型或得分高于阈值的所有模型。
附加地或备选地,定位和映射模块112可以基于先前在相似位置中选择了哪些模型来选择一个或多个模型。例如,如果针对客户端设备102的GPS坐标在先前成功使用平面匹配模型的GPS坐标的阈值内,则定位和映射模块112可以提高平面匹配模型的得分或者选择平面匹配模块,除非另一模型的得分超过针对平面匹配模型的得分达阈值量。类似地,如果特定模型先前被选择并且未能提供准确位置,则定位和映射模块112可以降低该模型的得分。因此,相似GPS坐标处的模型的成功和失败可以用于告知定位和映射模块112选择哪个或哪些模型来确定比由GPS坐标提供的更精确的位置(例如,在一厘米内)。
以类似的方式,定位和映射模块112可以考虑模型在传感器数据指示的、与客户端设备102的当前位置相似的位置处的成功和失败。例如,定位和映射模块112可以基于传感器数据指示客户端设备102当前在室内还是室外来将位置分类为室内和室外并且排除或选择某些模型(或增加或减少其对应得分)。类似地,定位和映射模块112可以基于照明等级来选择一个或多个模型(例如,一个模型在低照明条件下相对于其他模型可能特别有效,并且因此如果客户端设备102检测到的照明等级低于阈值,则优先选择该模型)。本领域技术人员将认识到可以使用所收集的数据来影响选择哪个或哪些模型以有利于在当前条件下最有可能产生准确结果的那些模型的选择的其他方法。
定位和映射模块112可以应用所选择的一个或多个模型来生成针对客户端设备102的潜在位置。在仅选择单个模型的情况下,定位和映射模块112可以使用所生成的位置、客户端设备102的实际位置。然而,在GPS坐标可用的情况下,如果使用模型确定的位置与GPS坐标的差异超过阈值量,则定位和映射模块112可以应用附加模型或以其他方式以寻求验证当前位置。
在多于一个模型被选择的情况下,每个模型可以产生客户端设备102的潜在位置。定位和映射模块112基于潜在位置来确定针对客户端设备102的当前位置。在一个实施例中,定位和映射模块112计算当前位置作为由模型生成的位置的均值。在另一实施例中,定位和映射模块112使用潜在位置的加权平均。例如,定位和映射模块112可以用来自模型选择阶段的模型的得分来对每个模型的贡献进行加权。备选地,定位和映射模块112可以预设权重以使某些模型优于其他模型。在另外的实施例中,定位和映射模块112可以以其他方式组合潜在位置,诸如以采用与设备的GPS坐标最接近匹配的位置。
在一些实施例中,一旦定位和映射模块112已经确定了客户端设备102的位置,定位和映射模块112就将描述虚拟世界的AR数据取回到要在客户端设备102处呈现的一个或多个图像。例如,定位和映射模块112可以访问地图数据库124(存储在本地或在经由网络104访问的服务器设备处)以从虚拟世界中取回一个或多个虚拟元素或其他信息以添加到图像。虚拟元素等关于图4进行描述。
地图取回模块114取回先前生成的地图。例如,地图取回模块114可以经由网络104来访问地图数据库124,并且将从地图数据库中取回到的信息发送给客户端设备102的一个或多个其他模块,诸如定位和映射模块112。在一些实施例中,地图取回模块114可以在本地存储一些地图(例如,用于用户家庭位置的地图)。深度学习模块116将机器学习算法应用于对象识别。深度学习模块116可以在经由网络104进行训练之后来获取机器学习算法。在一些实施例中,深度学习模块116还可以提供对象识别和/或用户反馈的结果以启用另外的模型训练。
在所示实施例中,经由网络104(例如,在服务器计算设备处)而被访问的组件包括AR后端引擎118,AR后端引擎118与一个世界映射模块120、对象识别模块122、地图数据库124、对象数据库126和深度学习训练模块128通信。在其他实施例中,可以包括附加或不同组件。此外,该功能可以以不同于本文中描述的方式分布。例如,对象识别功能中的一些或所有功能可以在客户端设备102处执行。
一个世界映射模块120将不同局部地图融合在一起以创建合成真实世界地图。如前所述,来自最初生成地图的客户端设备102的GPS位置数据可以用于标识可能相邻或重叠的局部地图。然后可以使用模式匹配来标识地图的重叠部分或彼此相邻的两个局部地图(例如,因为它们包括同一对象的相对侧的表示)。如果确定两个局部地图重叠或相邻,则可以存储(例如,在地图数据库中)指示这两个地图如何彼此关联的映射。
对象识别模块122使用图像/对象信息和所收集的3D数据来标识在数据中表示的真实世界中的特征。以这种方式,服务器104确定例如椅子在3D位置处并且访问与该位置相关联的对象数据库126。深度学习模块128可以用于将地图信息与对象信息融合。以这种方式,系统100可以将用于对象识别和用于融合的3D信息连接回地图中。
地图数据库124包括一种或多种计算机可读介质,该介质被配置为存储由客户端设备102生成的地图数据。地图数据可以包括与图像相关联地存储的3D点云的局部地图以及由客户端设备102在位置处收集的其他传感器数据。地图数据还可以包括指示不同局部地图之间的地理关系的地图信息。类似地,对象数据库126包括被配置为存储关于识别的对象的信息的一个或多个计算机可读介质。例如,对象数据库126可以包括具有对应位置的已知对象(例如,椅子、桌子、树木、建筑物等)以及这些对象的属性的列表。属性可以是对象类型的通用属性,也可以是为对象的每个实例而专门定义的(例如,所有椅子都可能被视为家具,但每个的位置是被个体定义的)。尽管地图数据库124和对象数据库126被示出为单个实体,但它们可以跨多个设备处的多个存储介质而被分布(例如,作为分布式数据库)。
示例线交汇点模型
定位和映射模块112可以采用线交汇点模型,该线交汇点模型使用3D地图基于其捕获的一个或多个图像来定位客户端设备102。以下段落解释了模型的一个实施例如何在数学上定义和应用。
1.参数化3D交汇点
如图2A描绘了根据一个实施例的3D线交汇点的示例。线交汇点包括点Q和方向向量(或者,在一些实施例中的线或线段)D1和D2。每个方向向量是单位向量,其长度为1。每个3D线交汇点具有七个自由度:三个自由度用于点Q,表示其在3D空间中的位置,两个自由度用于每个方向向量(D1和D2),因为它们是单位向量。
为了避免有约束优化,线交汇点模型对两个方向向量进行如下参数化,其中X、Y和Z表示方向向量在3D空间中的坐标,θ表示与+Z轴的夹角增加的方向,α表示在X-Y平面中从+Z轴逆时针方向的角度增加的方向:
由于单位向量的范数为1,因此
(cosθcosα)2+(cosθsinα)2+(sinθ)2
=cos2θ(cos2α+sin2α)+sin2θ
=ωs2θ+sin2θ
=1 (1)
2.将3D交汇点投影到2D空间
线交汇点模型将3D线交汇点投影到2D空间中,以得到两条相交线(L1和L2),如图2B所示。特别地,使用点Q、一个方向向量D1和相机姿势(R,T),2D线函数被定义为线上两个不同点(P1和P2)的交叉积,得到以下等式:
P1∧P2
~(RQ+T)∧(R(Q+D1)T)
~(RQ+T)∧(RQ+T+RD1)
~(RQ+T)∧(RQ+T)+(RQ+T)∧(RD1)
~(RQ+T)∧(RD1)
~R(Q∧D1)+T∧RD1
~(RQx+TxR)D1 (2)其中P1、P2是线上的两个点,∧是交叉积,Qx、Tx是向量Q和T的斜对称矩阵。
因此,对于方向向量D1,2D投影为(RQx+TxR)D1。线交汇点模型可以使用相同的过程来导出方向向量D2的2D投影。
3.重新投影误差
线交汇点模型确定一个或多个图像中的关键线,以确定从3D线交汇点中创建2D投影的误差。关键线是分隔图像中不同颜色区域的边界线。由于2D投影是线函数,因此线交汇点模型可以将该点与距检测到的关键线的两个端点的线距离进行比较。如果四个端点分别在两条关键线上表示为u、v、x和y,则线交汇点模型可以确定针对每个端点的距离。以u为例,距离为其中L=(A,B,C)是2D线投影的2D线等式,并且d2=A2+B2。
L=(RQx+TxR)D (3)
如果L1和L2分别是两条3D线的2D投影,则实际残差是4向量,如下所示:
*这里,u、v、x、y是常数,并且L1、L2、d1、d2是(Q,D1,D2,R,T)的变量。
4.优化设置
为了优化2D投影的设置,线交汇点模型必须解决无约束最小化问题,以确定环境中的客户端设备102(例如,相机)的位置。由于非线性,在一个实施例中,线交汇点模型使用列文伯格-马夸尔特法(Levenberg-Marquardt)(或“LM”)求解器。一般更新步骤如下:
ΔP=-(JTJ+λI)-1Jtr
其中J是重新投影误差的雅可比(Jacobian),r是残差,λ是req项。
一个或多个图像包括多个地标(例如,线交汇点、点云、线等),并且由于典型图像中有大量地标,线交汇点模型可以使用交替方向方法来优化设置。这使得线交汇点模型能够在固定所有其他变量的同时一次计算图像的一个地标或帧的步长。这种方法的一个优点是雅可比矩阵的大小相对较小,这使针对线交汇点模型的计算速度更快。
在一个实施例中,用于优化的线交汇点模型所遵循的流水线可以总结如下:
在没有收敛时:
对于每个地标:
计算LM步长
更新地标
对于每个帧:
计算LM步长
更新帧。
线交汇点模型使用该过程来优化和计算每个变量的雅可比,如下所述。这些推导是关于线交汇点模型描述的,但在一些实施例中,线交汇点模型可能不会在每次应用时都完成这些推导,或者线交汇点模型可能仅使用所得到的等式来确定客户端设备102的位置而不是自己完成推导。
5.雅可比——3D交汇点——交汇点Q
要计算针对Q、JQ的雅可比,雅可比的大小应当为4k×3,其中k是一个或多个图像中的帧数。对于每个帧k,残差rk如下:
其中
Lk1=(RkQk+TkRk)D1
Lk2=(RkQk+TkRk)D2
并且
根据残差rk,线交汇点模型可以导出针对每个帧k的雅可比JQ:
以第一行为例,其他行类似地分析:
令
令A=-RDxQ,B=TxRD (9)
现在,根据(8)和(9):
现在,
因此,使用这些等式,线交汇点模型可以求解雅可比Jk的第一行,并且类似地求解其他行。
6.雅可比——3D交汇点——交汇点方向D1、D2
线交汇点模型计算针对D1和D2的雅可比。以D1为例,由于D2的推导本质上是相同的,因此线交汇点模型从残差和雅可比维度开始,如上面第5节所述。残差与等式(6)相同,而雅可比为:
此外,线交汇点模型在导数链中又添加了一步:
6.雅可比——R、T
定义从欧拉角到旋转矩阵的转换会得到:
a11=cosθcosφ
a21=cosθsinφ
a31=-sinφ
a33=cosφcosθ (16)
交汇点三角测量
使用上面导出的等式,线交汇点模型可以确定给定一个或多个图像的环境中相机(例如,客户端设备102)的姿势(位置和定向)。在一个实施例中,线交汇点模型使用3D地图来确定3D地图内的端点,这些端点被用作针对3D线交汇点的顶点。线交汇点模型使用预测的姿势将端点从3D投影到2D,以确定端点是否被反映在一个或多个图像中。由于投影中存在误差,因此线交汇点模型计算重新投影误差,并且更新针对一个或多个图像的相机的一个或多个预测姿势,以减少重新投影误差。通过针对多次迭代改变相机姿势,线交汇点模型可以收敛其对相机姿势的估计,直到计算的误差低于阈值。线交汇点模型使用这个确定的位置作为相机在环境中的位置。
线交汇点模型使用上述等式确定环境中的相机的位置。特别地,给定K个帧以及相机的内在和外在参数,表示为:
在每个帧上,存在由两个2D线等式和一个交点(类似于图2A的Q或图2B的P)组成的2D线交点Ji=(li1,li2,Pi),两条线在此相交。
注意,2D线的等式是2D线在3D空间中的法线向量,其通过连接相机的中心和线的两个端点而被跨越。通过假定所有相机都带有校准,线交汇点模型可以与相机坐标一起工作。例如,Ji=(li1,li2,Pi)都在相机坐标系中。
给定线交汇点的K个对应关系,线交汇点模型的目标是将对应关系三角测量到3D空间以获取3D线交汇点。线交汇点模型可以使用任何适当的3D点三角测量方法(例如,使用2D和3D交汇点)。在一个实施例中,可以将3D线交汇点定义为J-(L1,L2,P),其中L1、L2是指示两个方向的两个单位向量,并且P是两条3D线在3D空间中相交的交汇点。
与两条2D线不同,两条3D线可能不会相交,无论它们是否不平行。然而,在一个实施例中,线交汇点模型强制关于这两条3D线相交的约束,以使得线交汇点模型能够使用两个方向向量和一个点来表示3D线交汇点。由于两个方向向量是如前所述的单位向量,因此该表示具有7个自由度。这由图2C表示,图2C描绘了与在世界空间220中具有点P以及线L1和L2的3D线交汇点相关的在相机空间210中具有点Pi以及线li1和li2的2D线交汇点。线交汇点模型或定位和映射模块112可以通过将一个或多个图像投影到顶点(点)和边(线)的图形中来创建类似于图2C的环境表示,并且使用该表示来标识线交汇点。
从3D到2D
图2C描绘了3D线交汇点与2D线交汇点的关系。相机中心Oi、图像帧上的2D线交汇点Pi和线上的任何点l为客户端设备102的相机提供相机空间210中的平面200。平面200的法线向量是第1行li1的等式。
为了在第i帧的第1行找到任意点qi,在第2行找到si:
由{Oi,Pi,qi}跨越的平面上的任何点(记为xi)满足:
li1 Txi=0
类似地,对于由{Oi,Pi,Si}跨越的平面上的任何点yi
Pi2 Tyi=0 (2)
注意,方向向量也表示该平面上的点,但它位于世界空间220中,而不是相机空间210中。为了在帧i上将L1带到相机210空间,线交汇点模型使用以下变换。
qi=RiL1+ti
但是,由于L1是方向向量,因此可以忽略平移,得到:
结合等式(2)和(3)可以得出3D线交汇点方向向量与2D线之间的直接关系,如下所示:
这适用于所有帧i=1,...,K。
可以使用下式将点P从世界220空间转移到相机220空间:
Pi=RiP+ti (5)
由于它在帧上的图像应当同时与两条2D线相交,结合等式(2)和(5)给出:
从2D到3D
(4)和(6)给出了用于从2D交汇点对应关系求解3D交汇点的等式。
根据等式(4),这是
因为L1和L2两者都是单位向量。||L1||=||L2||=1,线交汇点模型可以对N1和N2应用奇异值分解(SVD):
其中令L1为与最小奇异值相关联的奇异向量,并且对L2进行相同操作。
当相机(例如,客户端设备102)在环境中移动并且捕获更多图像时,线交汇点模型可以使用上述过程来多次计算相机的位置。
示例数据流
图3是示出根据一个实施例的由客户端设备102和服务器设备执行以生成和显示AR数据的过程的流程图。客户端设备102和服务器设备(统称为“设备”)可以类似于图1所示的那些,其中服务器设备由通过网络104连接到客户端设备102的元件表示。虚线表示客户端设备102与服务器设备之间的数据通信,而实线表示设备中的一个设备内的数据通信。在其他实施例中,功能可以在设备之间不同地分布,和/或不同设备可以被使用。
在302处,通过客户端设备102上的一个或多个传感器在客户端设备102处收集传感器数据。在一个实施例中,传感器数据包括图像和惯性测量信息。图像由一个或多个相机捕获。惯性测量信息可以使用客户端设备102上的全球定位系统(例如,GPS)和陀螺仪/加速度计模块来收集。可以收集附加传感器数据,诸如压力等级、照明等级、声音等级、音频数据等。
在304处,客户端设备102可以维护局部地图存储库。局部地图存储库可以被包含在图1所示的定位和映射模块112中或者在客户端设备102处的另一位置。局部地图存储库包括局部点云数据。点云数据包括形成网格表面的空间位置,该网格表面可以被构建成一个或多个环境的3D地图,该3D地图也可以存储在局部地图存储库中。
如果地图在306处被初始化,则客户端设备102可以在308处发起定位和映射模块112处的SLAM功能。SLAM功能包括映射系统,该映射系统构建点云并且使用跟踪来查找相机在空间中的位置(例如,在客户端设备102上)。该示例的SLAM过程进一步将动画或增强值重新投影回真实词中。如果在310处没有定位出地图,其可以在304处存储在局部地图存储库中,则客户端设备102在312处使用初始化模块来创建地图。
如果在314检测到环境中的新的视点(例如,如果将拐角变成尚未映射/成像的区域,或者存在重叠并且并非真实世界的所有当前可见部分都已经映射/成像),则客户端设备102可以在316处记录由客户端设备102处的局部环境推断收集的数据。例如,在确定客户端设备102当前具有新的视点时,由具有该视点的相机捕获的图像可以被发送给服务器设备。局部环境推断可以用于确定何时以及如何在客户端设备102与服务器设备之间传输具有3D数据的图像。局部环境推断可以包括用于局部映射系统(例如,定位和映射模块112)的更新后的关键帧、以及序列化的图像和/或地图数据。
在由服务器设备执行动作的服务器端侧,新的视点数据(例如,包括顶部具有网格数据的点云信息)可以在318存储在云地图存储库中。服务器设备可以添加来自所存储的云地图存储库320和对象数据库322的真实世界地图的不同部分。云环境推断324(包括由客户端设备102捕获并且由服务器设备处理的添加的数据)可以被发送回客户端设备102。添加的数据可以包括点和网格以及要在304存储在局部地图存储库中的具有语义标签的对象数据(例如,墙壁或床)。
虚拟世界的概念图
图4描绘了根据一个实施例的平行于真实世界400的虚拟世界410的概念图,该虚拟世界410可以充当基于位置的平行现实游戏的玩家的游戏板。图1的客户端设备102可以托管平行现实游戏(或其他基于位置的游戏),虚拟世界410对应于图4所示的真实世界400。
如图所示,虚拟世界410可以包括与真实世界400的地理平行的地理。具体地,定义真实世界400中的地理区域或空间的坐标范围被映射到定义虚拟世界410中的虚拟空间的对应坐标范围。真实世界400中的坐标范围可以与城镇、小区、城市、校园、场所、国家、大陆、全球或其他地理区域相关联。地理坐标范围内的每个地理坐标都被映射到虚拟世界中的虚拟空间中的对应坐标。
玩家在虚拟世界410中的位置对应于玩家在真实世界400中的位置。例如,位于真实世界400中的位置412处的玩家A在虚拟世界410中具有对应位置422。类似地,位于真实世界中的位置414的玩家B在虚拟世界中具有对应位置424。当玩家在真实世界400中的地理坐标范围内四处移动时,玩家也在定义虚拟世界410中的虚拟空间的坐标范围内四处移动。具体地,当玩家在真实世界中的地理坐标范围内导航时,与由玩家携带的客户端设备102相关联的定位系统(例如,由定位和映射模块112使用的GPS系统或其他系统)可以用于跟踪玩家的位置。与玩家在真实世界400中的位置相关联的数据被用于更新玩家在定义虚拟世界410中的虚拟空间的对应坐标范围内的位置。以这种方式,通过简单地在真实世界400中的对应地理坐标范围之间行进,玩家可以在定义虚拟世界410中的虚拟空间的坐标范围内导航连续轨迹,而不必在真实世界400中的特定离散位置处登记或周期性地更新位置信息。
平行现实游戏可以包括多个游戏目标,该游戏目标要求玩家前往散布在虚拟世界410中的各个虚拟位置的各种虚拟元素和/或虚拟对象和/或与之进行交互。玩家可以通过前往真实世界400中的虚拟元素或对象的对应位置来前往这些虚拟位置。例如,客户端设备102的定位系统可以连续跟踪玩家的位置,使得当玩家在真实世界400中连续导航时,玩家还在平行虚拟世界410中连续导航。然后玩家可以在特定位置处与各种虚拟元素和/或对象交互以实现或执行一个或多个游戏目标。
例如,参考图4,游戏目标可以要求玩家捕获或声明位于虚拟世界410中的各个虚拟位置处的虚拟元素430的所有权。这些虚拟元素430可以链接到真实世界400中的地标、地理位置或对象440。真实世界地标或对象440可以是艺术品、纪念碑、建筑物、企业、图书馆、博物馆或其他合适的真实世界地标或对象。为了捕获这些虚拟元素430,玩家必须前往与真实世界中的虚拟元素430链接的地标、地理位置或对象440,并且必须与虚拟世界410中的虚拟元素430执行任何必要的交互。例如,为了经由客户端设备102同与该特定地标240链接的虚拟元素430交互或捕获该虚拟元素430,图4的玩家A将不得不前往真实世界400中的地标440。与虚拟元素430的交互可能需要在真实世界400中的动作,诸如拍摄照片和/或验证、获取或捕获关于与虚拟元素430相关联的地标或对象440的其他信息。
游戏目标可以要求玩家使用由玩家在平行现实游戏中收集的一个或多个虚拟项。例如,玩家可能必须在虚拟世界410中行进,以寻找对完成游戏目标有用的虚拟项(例如,武器或其他项)。这些虚拟项可以通过前往真实世界400中的不同位置或通过在虚拟世界410或真实世界400中完成各种动作来寻找或收集。在图4所示的示例中,玩家使用虚拟项432来捕获一个或多个虚拟元素430。具体地,玩家可以在虚拟世界410中靠近虚拟元素430的位置处部署虚拟项432。靠近虚拟元素430部署一个或多个虚拟项432可以导致为特定玩家或为特定玩家的团队和/或派系捕获虚拟元素430。
在一个特定实现中,作为平行现实游戏的部分,玩家可能必须收集虚拟能量。如图4所示,虚拟能量450可以分散在虚拟世界210中的不同位置。玩家可以通过前往真实世界400中虚拟能量450的对应位置来收集虚拟能量450。虚拟能量450可以用于为虚拟项提供动力和/或在平行现实游戏中执行各种游戏目标。失去所有虚拟能量450的玩家可以与平行现实游戏断开连接。
根据本公开的方面,平行现实游戏可以是大型多人的基于位置的游戏,其中平行现实游戏中的每个参与者共享相同虚拟世界。玩家可以分成不同团队或派系,并且可以一起工作以实现一个或多个游戏目标,诸如捕获或声称虚拟元素430的所有权。以这种方式,平行现实游戏本质上可以是社交游戏,其鼓励玩家之间在平行现实游戏中的合作。来自相对的队伍的玩家可以在平行现实游戏中彼此对抗。玩家可以使用虚拟项432来攻击或阻碍对方队伍的玩家前进。
平行现实游戏可以具有各种特征以增强和鼓励在平行现实游戏中玩游戏。例如,玩家可以积累虚拟货币或可以在整个平行现实游戏中使用的其他虚拟奖励。当玩家完成一个或多个游戏目标并且在平行现实游戏中获取经验时,玩家可以前进通过各种等级。玩家可以通过平行现实游戏中提供的一种或多种通信接口来彼此交流。玩家还可以获取增强的“权力”或虚拟项432,这些可以用于完成平行现实游戏中的游戏目标。使用本文中提供的公开内容,本领域普通技术人员应当理解,在不偏离本公开内容的范围的情况下,可以将各种其他游戏特征包括在平行现实游戏中。
示例方法
图5是示出根据一个实施例的用于确定环境中的相机的位置的过程(或“方法”)的流程图的步骤。图5是从客户端设备102执行过程500的角度示出的。然而,一些或所有步骤可以由其他实体或组件执行,诸如由服务器设备执行。此外,一些实施例可以并行地执行这些步骤、以不同顺序执行这些步骤、或者执行不同步骤。
在图5所示的实施例中,过程500开始于客户端设备102接收510由客户端设备102的相机捕获的图像。在一些实施例中,客户端设备102可以从传感器接收附加传感器数据,包括视频、音频、光等级、声级、惯性数据、定向、压力和/或任何其他可用数据。客户端设备102标识520图像中的特征。特征可以是线交汇点、直线、曲线、或在图像中发现的任何其他特征。
客户端设备102从地图数据库124中取回环境的3D地图。3D地图可能已经由客户端设备102或服务器设备使用由一个或多个相机捕获的环境的图像数据以及在图像数据被捕获时一个或多个相机的相对位置来创建。客户端设备102将所标识的特征与环境的3D地图进行比较530,3D地图包括地图特征,诸如地图线交汇点、地图线、地图曲线等。客户端设备102标识540从图像中标识520的特征与地图特征之间的对应关系。在一些实施例中,客户端设备102可以将模式匹配应用于所标识520的特征和3D地图以确定所标识520的特征和3D地图是否重叠或相邻(例如,对应)。客户端设备102基于(多个)对应关系来确定550客户端设备102的位置。该位置可以是与针对平行现实游戏的虚拟世界中的位置相对应的真实世界位置。如果该位置在服务器设备处被确定,则服务器设备可以将虚拟世界中的位置视图发送给客户端设备102以供玩家经由显示器查看。
在一些实施例中,客户端设备102可以选择并且应用其他定位模型来生成针对客户端设备102的潜在位置。例如,每个模型可以输出潜在位置。潜在位置可以基于局部地图内的坐标系来定(例如,如基于客户端设备102的GPS坐标而选择的)。例如,GPS坐标可以指示客户端设备102可能在建筑物内的某处,因此使用该建筑物的局部地图。客户端设备102可以将所确定550的位置与潜在位置进行比较以确定客户端设备102在建筑物内的更准确的位置(例如,瞄准一厘米的精度)。在一些实施例中,客户端设备102可以基于潜在位置来改变所确定550的位置,或者可以将所确定550的位置与潜在位置组合以生成客户端设备102的新位置。此外,平均加权组合或其他合适的技术可以用于从所确定550的位置和潜在位置中生成新位置。
此外,客户端设备102可以基于传感器数据来检查所确定550的位置的可行性。例如,客户端设备102可以确定所确定550的位置是否在由GPS坐标指示的位置的阈值距离内,图像中检测到的照明等级是否与针对所确定550的位置的预期一致,由客户端设备102捕获的图像是否与在类似位置处捕获的其他图像一致,等等。
在一些实施例中,客户端设备102可以在平行现实游戏中从连接到客户端设备102的附加客户端设备接收一个或多个附加图像。附加图像可以示出环境中的客户端设备102,并且客户端设备102可以使用这些附加图像来确定客户端设备的位置。
计算机器架构
图6是示出适合用作客户端设备102或服务器的示例计算机600的高级框图。示例计算机600包括耦合到芯片组604的至少一个处理器602。芯片组604包括存储器控制器集线器620和输入/输出(I/O)控制器集线器622。存储器606和图形适配器612耦合到存储器控制器集线器620,并且显示器618耦合到图形适配器612。存储设备608、键盘610、指向设备614和网络适配器616耦合到I/O控制器集线器622。计算机600的其他实施例具有不同架构。
在图6所示的实施例中,存储设备608是非暂态计算机可读存储介质,诸如硬盘驱动器、光盘只读存储器(CD-ROM)、DVD或固态存储设备。存储器606保存处理器602使用的指令和数据。指向设备614是鼠标、轨迹球、触摸屏或其他类型的指向设备,并且与键盘610(可以是屏幕上键盘)结合使用以将数据输入计算机系统600中。图形适配器612在显示器618上显示图像和其他信息。网络适配器616将计算机系统600耦合到一个或多个计算机网络。
由图1的实体使用的计算机类型可以根据实施例和实体所需要的处理能力而可以有所不同。例如,服务器可能包括分布式数据库系统,该系统包括一起工作以提供所描述的功能的多个刀片服务器。此外,计算机可能缺少一些上述组件,诸如键盘610、图形适配器612和显示器618。
本领域技术人员可以对本文中公开的装置和技术进行多种使用和修改以及背离,而没有背离所描述的概念。例如,本公开中图示或描述的组件或特征不限于图示或描述的位置、设置或上下文。根据本公开的装置的示例可以包括与参考一个或多个前述附图所描述的那些组件相比的全部、更少或不同的组件。因此,本公开不限于本文中描述的具体实现,而是应当被赋予与可能发布的任何权利要求及其等价一致的可能的最广泛范围。
Claims (20)
1.一种用于从由相机捕获的一个或多个图像定位环境中的所述相机的方法,所述方法包括:
接收由客户端设备的所述相机捕获的一个或多个图像;
标识所述一个或多个图像中的线交汇点;
将标识的线交汇点与所述环境的3D地图进行比较,所述3D地图包括地图线交汇点;
标识所述标识的线交汇点与地图线交汇点之间的对应关系;以及
使用所述对应关系来确定所述相机在所述环境内的姿势。
2.根据权利要求1所述的方法,还包括:
通过将所述一个或多个图像投影到顶点和边的图形中来创建所述相机周围的所述环境的表示;并且
其中所述标识的线交汇点从所述表示中被标识,所述标识的线交汇点包括所述表示中的重叠边。
3.根据权利要求1所述的方法,还包括:
从被连接到所述客户端设备的附加客户端设备接收针对虚拟游戏的图像数据。
4.根据权利要求1所述的方法,其中将所述标识的线交汇点与所述环境的3D地图进行比较包括:
将模式匹配应用于所述标识的线交汇点和所述3D地图,以确定所述标识的线交汇点和所述3D地图是否重叠或相邻。
5.根据权利要求1所述的方法,其中所述3D地图使用由一个或多个相机捕获的所述环境的图像数据以及在所述图像数据被捕获时所述一个或多个相机的相对位置而被创建。
6.根据权利要求1所述的方法,其中所确定的所述位置对应于虚拟世界中的位置。
7.根据权利要求6所述的方法,还包括:
向所述客户端设备发送与所确定的所述位置相对应的所述虚拟世界中的所述位置的视图。
8.根据权利要求1所述的方法,其中所述标识的线交汇点中的每个线交汇点具有七个自由度,其中三个自由度用于交汇点,两个自由度用于两个方向向量中的每个方向向量。
9.根据权利要求1所述的方法,其中通过利用列文伯格-马夸尔特法求解器来计算针对所述线交汇点的更新,所述一个或多个图像各自被逐帧优化。
10.根据权利要求1所述的方法,其中标识所述一个或多个图像中的所述线交汇点包括:
确定所述一个或多个图像中的线的2D线等式,其中每个2D线等式描述3D空间中的法线向量;
确定所述一个或多个图像中的每个图像中的2D线交汇点,其中每个2D线交汇点包括两个2D线等式和交点;
将所述2D线交汇点三角测量到3D空间中以获取3D线交汇点。
11.根据权利要求10所述的方法,其中对所述2D线交汇点进行三角测量包括:
将来自所述一个或多个图像中的每个图像的所述2D线交汇点的坐标转换到一个相机坐标空间;以及
将转换后的所述2D线交汇点变换为3D线交汇点。
12.一种非暂态计算机可读存储介质,包括用于从由相机捕获的一个或多个图像定位环境中的所述相机的指令,所述指令包括:
用于接收由客户端设备的所述相机捕获的一个或多个图像的指令;
用于标识所述一个或多个图像中的线交汇点的指令;
用于将标识的线交汇点与所述环境的3D地图进行比较的指令,所述3D地图包括地图线交汇点;
用于标识所述标识的线交汇点与地图线交汇点之间的对应关系的指令;以及
用于使用所述对应关系来确定所述相机在所述环境内的位置的指令。
13.根据权利要求1所述的非暂态计算机可读存储介质,所述指令还包括:
用于通过将所述一个或多个图像投影到顶点和边的图形中来创建所述相机周围的所述环境的表示的指令;并且
其中所述标识的线交汇点从所述表示中被标识,所述标识的线交汇点包括所述表示中的重叠边。
14.根据权利要求1所述的非暂态计算机可读存储介质,所述指令还包括:
用于从被连接到所述客户端设备的附加客户端设备接收针对虚拟游戏的图像数据的指令。
15.根据权利要求1所述的非暂态计算机可读存储介质,其中用于将所述标识的线交汇点与所述环境的3D地图进行比较的指令还包括:
用于将模式匹配应用于所述标识的线交汇点和所述3D地图,以确定所述标识的线交汇点和所述3D地图是否重叠或相邻的指令。
16.根据权利要求1所述的方法,其中所述3D地图使用由一个或多个相机捕获的所述环境的图像数据以及在所述图像数据被捕获时所述一个或多个相机的相对位置而被创建。
17.根据权利要求1所述的方法,其中所确定的所述位置对应于虚拟世界中的位置。
18.根据权利要求17所述的方法,所述指令还包括:
用于向所述客户端设备发送与所确定的所述位置相对应的所述虚拟世界中的所述位置的视图的指令。
19.根据权利要求1所述的方法,其中所述标识的线交汇点中的每个线交汇点具有七个自由度,其中三个自由度用于交汇点,两个自由度用于两个方向向量中的每个方向向量。
20.一种计算机系统,包括:
计算机处理器;以及
非暂态计算机可读存储介质,存储用于从由相机捕获的一个或多个图像定位环境中的所述相机的指令,所述指令在由所述计算机处理器执行时执行动作,所述动作包括:
接收由客户端设备的所述相机捕获的一个或多个图像;
标识所述一个或多个图像中的线交汇点;
将标识的线交汇点与所述环境的3D地图进行比较,所述3D地图包括地图线交汇点;
标识所述标识的线交汇点与地图线交汇点之间的对应关系;以及
使用所述对应关系来确定所述相机在所述环境内的位置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962952016P | 2019-12-20 | 2019-12-20 | |
US62/952,016 | 2019-12-20 | ||
PCT/IB2020/062238 WO2021124286A1 (en) | 2019-12-20 | 2020-12-18 | Location determination and mapping with 3d line junctions |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115175749A true CN115175749A (zh) | 2022-10-11 |
Family
ID=76437965
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080097259.6A Pending CN115175749A (zh) | 2019-12-20 | 2020-12-18 | 使用3d线交汇点进行位置确定和映射 |
Country Status (9)
Country | Link |
---|---|
US (2) | US11847792B2 (zh) |
EP (1) | EP4076693A4 (zh) |
JP (1) | JP7453383B2 (zh) |
KR (1) | KR20220119664A (zh) |
CN (1) | CN115175749A (zh) |
AU (1) | AU2020404610A1 (zh) |
CA (1) | CA3165417A1 (zh) |
TW (1) | TWI760978B (zh) |
WO (1) | WO2021124286A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12039665B2 (en) * | 2022-08-02 | 2024-07-16 | Niantic, Inc. | Simulated consistency check for points of interest on three-dimensional maps |
CN117170501B (zh) * | 2023-08-24 | 2024-05-03 | 北京自动化控制设备研究所 | 基于点线融合特征的视觉跟踪方法 |
KR102711526B1 (ko) * | 2024-02-28 | 2024-09-30 | 고려대학교 산학협력단 | 실내 환경에서의 bim 기반 카메라 트래킹 방법 및 장치 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5109294B2 (ja) | 2006-06-19 | 2012-12-26 | 三菱電機株式会社 | 3次元位置補正装置 |
US8506404B2 (en) | 2007-05-07 | 2013-08-13 | Samsung Electronics Co., Ltd. | Wireless gaming method and wireless gaming-enabled mobile terminal |
US8049750B2 (en) * | 2007-11-16 | 2011-11-01 | Sportvision, Inc. | Fading techniques for virtual viewpoint animations |
US20150213590A1 (en) * | 2011-07-29 | 2015-07-30 | Google Inc. | Automatic Pose Setting Using Computer Vision Techniques |
GB201208088D0 (en) * | 2012-05-09 | 2012-06-20 | Ncam Sollutions Ltd | Ncam |
KR101415016B1 (ko) | 2012-11-07 | 2014-07-08 | 한국과학기술연구원 | 영상기반 실내 위치 검출방법 및 이를 이용한 휴대용 단말기 |
JP6278790B2 (ja) * | 2014-03-31 | 2018-02-14 | 株式会社デンソーアイティーラボラトリ | 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラムならびに車両位置検出システム |
EP3699736B1 (en) | 2014-06-14 | 2023-03-29 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
JP6716996B2 (ja) | 2016-03-29 | 2020-07-01 | 富士通株式会社 | 画像処理プログラム、画像処理装置、及び画像処理方法 |
US10885714B2 (en) * | 2017-07-07 | 2021-01-05 | Niantic, Inc. | Cloud enabled augmented reality |
US10841486B2 (en) * | 2017-07-20 | 2020-11-17 | Eclo, Inc. | Augmented reality for three-dimensional model reconstruction |
JP6828668B2 (ja) * | 2017-12-04 | 2021-02-10 | 株式会社デンソー | 車線ネットワークデータ生成装置、車線ネットワークデータ生成プログラム及び記憶媒体 |
TWI648556B (zh) | 2018-03-06 | 2019-01-21 | 仁寶電腦工業股份有限公司 | 同步定位與地圖建構及手勢辨識方法 |
CA3104532C (en) * | 2018-06-27 | 2023-10-17 | Niantic, Inc. | Multi-sync ensemble model for device localization |
-
2020
- 2020-12-18 KR KR1020227025053A patent/KR20220119664A/ko active Search and Examination
- 2020-12-18 EP EP20902667.3A patent/EP4076693A4/en active Pending
- 2020-12-18 US US17/127,136 patent/US11847792B2/en active Active
- 2020-12-18 TW TW109145174A patent/TWI760978B/zh active
- 2020-12-18 AU AU2020404610A patent/AU2020404610A1/en active Pending
- 2020-12-18 CA CA3165417A patent/CA3165417A1/en active Pending
- 2020-12-18 CN CN202080097259.6A patent/CN115175749A/zh active Pending
- 2020-12-18 WO PCT/IB2020/062238 patent/WO2021124286A1/en unknown
- 2020-12-18 JP JP2022538066A patent/JP7453383B2/ja active Active
-
2023
- 2023-11-08 US US18/504,943 patent/US20240078701A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
EP4076693A1 (en) | 2022-10-26 |
JP7453383B2 (ja) | 2024-03-19 |
TWI760978B (zh) | 2022-04-11 |
KR20220119664A (ko) | 2022-08-30 |
TW202135009A (zh) | 2021-09-16 |
JP2023507498A (ja) | 2023-02-22 |
AU2020404610A1 (en) | 2022-08-18 |
WO2021124286A1 (en) | 2021-06-24 |
US20240078701A1 (en) | 2024-03-07 |
CA3165417A1 (en) | 2021-06-24 |
EP4076693A4 (en) | 2022-10-26 |
US11847792B2 (en) | 2023-12-19 |
US20210190538A1 (en) | 2021-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3815398B1 (en) | Multi-sync ensemble model for device localization | |
KR102493185B1 (ko) | 깊이 힌트를 사용하는 깊이 추정 모델의 자가 감독 훈련 | |
JP7453383B2 (ja) | 3dライン接合部を用いた位置決定およびマッピング | |
TWI797715B (zh) | 用於使用從透視校正影像中所提取之特徵的特徵匹配之電腦實施方法、電腦系統及非暫時性電腦可讀記憶體 | |
TWI797571B (zh) | 用於自單一影像判定可遍歷空間之電腦實施方法及電腦可讀儲存媒體 | |
US20240046610A1 (en) | Determining visual overlap of images by using box embeddings | |
JP2024503135A (ja) | 3d拡張シーンの構造フロアプランへの位置合わせ | |
WO2024095744A1 (ja) | 情報処理装置、情報処理方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |