CN112334953A - 用于设备定位的多重集成模型 - Google Patents
用于设备定位的多重集成模型 Download PDFInfo
- Publication number
- CN112334953A CN112334953A CN201980043077.8A CN201980043077A CN112334953A CN 112334953 A CN112334953 A CN 112334953A CN 201980043077 A CN201980043077 A CN 201980043077A CN 112334953 A CN112334953 A CN 112334953A
- Authority
- CN
- China
- Prior art keywords
- models
- positioning
- location
- matching
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/48—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
- G01S19/485—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/131—Protocols for games, networked simulations or virtual reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/025—Services making use of location information using location based information parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/029—Location-based management or tracking services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/38—Services specially adapted for particular environments, situations or purposes for collecting sensor information
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8082—Virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Networks & Wireless Communication (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Architecture (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Automation & Control Theory (AREA)
- Processing Or Creating Images (AREA)
- Navigation (AREA)
- Image Analysis (AREA)
Abstract
一种系统和方法确定设备的位置。设备使用一个或多个传感器收集传感器数据。基于传感器数据,一个或多个定位模型从多个定位模型被选择。所选择的模型被应用以生成一个或多个潜在位置。设备的当前位置基于该一个或多个潜在位置而被确定。
Description
技术领域
本公开一般涉及位置(location)确定,并且更具体地,涉及使用传感器数据来确定设备位置。
背景技术
计算机中介现实(computer-mediated reality)技术允许具有手持式或可穿戴设备的用户改变他们对其环境的可视的感知或者可听的感知,如通过设备所体验的。增强现实(AR)是一种类型的计算机中介现实,其使用在计算设备处生成的感觉数据来特定地改变对物理真实世界环境的感知。AR技术可以提供计算机中介现实,其包括用户的真实世界环境的可视化,该可视化包括一个或多个增强,诸如真实世界环境的可视化内的特定位置处的虚拟对象,以使得该虚拟对象似乎是真实世界的沉浸式方面。
发明内容
根据特定的实施例,一种方法包括生成计算机中介现实数据,该方法包括:生成三维(3-D)地图数据和客户端设备处的相机位置数据;向移动服务器传输3-D地图数据和客户端数据;在客户端设备处从远程服务器接收世界地图数据,其中世界地图数据使用3-D地图数据而被生成;以及在客户端设备处生成计算机中介现实图像。
根据另一特定的实施例,增强现实引擎包括在便携式计算机上运行的在本地存储的动画引擎,该动画引擎包括:第一输入,该第一输入接收由被集成在便携式计算机中的相机产生的数字图像的流,该数字图像表示由相机所见的环境的近实时视图;第二输入,该第二输入从被集成在便携式计算机中的地理位置定位系统接收地理位置定位(position);3D地图构建(mapping)引擎,该3D地图构建引擎接收第一输入和第二输入,并且估计在特定时间点的相机定位和一个或多个地图构建点之间的距离;输出,该输出包括利用计算机生成的图像重叠的由相机产生的数字图像的流,其中计算机生成的图像位于3D地图中的特定定位,并且随着用户将相机移动到空间中的不同定位,计算机生成的图像保持位于该特定定位;以及非本地存储的对象检测引擎,该非本地存储的对象检测引擎与本地存储的动画引擎联网通信;第一输入从在本地存储的动画引擎被接收,该第一输入包括数字图像,该数字图像来自由相机产生的数字图像的流;第二输入从在本地存储的动画引擎被接收,该第二输入包括地理位置定位,该地理位置定位与从在本地存储的动画引擎所接收的数字图像相关联。
在各种实施例中,设备收集传感器数据(例如,图像、音频)、全球定位系统(GPS)数据、Wi-Fi可用性数据、定向和运动数据(例如,经由陀螺仪、加速度计、惯性测量单元(IMU)等)、光级、声级、压力数据等。基于传感器数据,设备选择一个或多个定位(localization)模型用于确定设备的位置。所选择的一个或多个模型被应用到传感器数据,以确定针对设备的一个或多个潜在位置,并且设备的当前位置从该一个或多个潜在位置被确定。在存在多于一个潜在位置的情况下,通过选择潜在位置中的一个或者通过其他适当的技术,当前位置可以被确定为潜在位置的平均或加权平均。在一些实施例中,对一个或多个模型和/或一个或多个潜在位置的选择可以基于哪些一个或多个模型先前在相似的位置中被使用。基于一个或多个传感器数据中的一般地理邻近性和/或相似性、或者基于传感器数据的确定(例如,在室内与在室外,低照明与高照明等),两个或更多个位置可以被认为是相似的。
本文中描述了本公开的其他优点。
附图说明
图1图示了用于生成和显示增强现实数据的联网的计算环境的实施例。
图2图示了根据一个实施例的由图1的计算系统可执行的过程,该过程用于生成和显示增强现实数据。
图3图示了根据一个实施例的示例计算机系统的框图,该示例计算机系统适合于在图1的联网的计算环境中使用。
图4是图示了根据一个实施例的用于确定设备的位置的方法的流程图。
具体实施方式
一种系统和方法创建三维(3-D)地图并且使用3-D地图来启用增强现实(AR)。在一个实施例中,3-D地图具有一厘米的分辨率,但是具有其他分辨率的地图可以被使用,包括具有可变化的分辨率的地图。在各种实施例中,地图创建在客户端上被达成(例如,通过移动电话或头戴式耳机),其被与后端服务器配对,该后端服务器向客户端设备提供先前编译的成像和地图构建信息。
在一个实施例中,系统在客户端(例如,在手持式或穿戴的电子计算设备上)选择图像和全球定位系统(GPS)坐标,并且将所选择的数据与3-D地图配对。3-D地图从相机记录模块和惯性测量单元(IMU)被构建,惯性测量单元可以包括加速度计和/或陀螺仪。所选择的数据被发送到服务器。服务器和客户端计算设备协作地处理所选择的数据,以建立AR的对象和几何形状,以及确定AR中的虚拟的或非虚拟的对象间的潜在交互。例如,增强现实可以是真实世界房间的增强现实,并且可以包括可以彼此交互(例如,为了玩游戏)的一个或多个动画的虚拟对象。
通过使用所选择的数据和3-D地图,系统可以使用神经网络达成对象检测和几何形状估计,由此提供AR。神经网络的示例是用于机器学习的计算模型,该计算模型使用连接的单元(人工神经元)的大型集合。这些单元在软件中连接,并且如果到一个单元的组合输入信号足够大,则该单元发射(fire)其自身的输出信号。这样,人工神经网络模仿生物神经网络学习以执行任务。系统使用深度学习(例如,多层神经网络)通过上下文理解AR数据(例如,针对前文提到的对象检测和几何形状估计任务)。
在一些实施例中,系统聚合局部3D地图以创建一个或多个全局3-D地图(例如,通过将多个局部3D地图链接到一起)。聚合的3-D地图被组合到服务器上的全局3-D地图中,以生成环境的单一数字3D地图,或者“世界”。例如,由一个或多个设备针对相似的GPS坐标生成的多个局部3-D地图可以被确定重叠,该相似的GPS坐标包括在预先确定的阈值内匹配的各部分。这样,重叠的部分可以被用于将两个局部3-D地图缝合到一起。全局3-D地图被用于存储在特定的GPS坐标处的虚拟对象的位置,该特定的GPS坐标进一步地通过3-D点以及可视图像被向下索引到特定的3D位置(例如,在具有一英尺的误差范围之内)。例如,如果“世界”是房屋,则各种房间的各种局部3-D地图可以被组合到将房屋的内部作为整体表示的单一全局3-D地图中。
说明性的过程向服务器和从服务器发送地图数据。如本文中所描述的,3-D地图是空间中的3-D点的集合,这些3-D点以类似于3-D像素(或“体元”)的方式表示世界或者世界的部分。当图像数据可用并且有用时,例如,当其被确定为针对尚未合并到3-D地图中的位置的图像数据时,该图像数据可以与3-D地图一起被发送。某些实施例在没有图像数据的情况下发送3-D地图。
在各种实施例中,客户端设备使用由处理器执行的3-D算法来生成3-D地图。客户端设备以有效率的方式发送图像、3-D地图、以及GPS数据。例如,图像可以选择性地被发送,以便不会使传输或处理停顿。在一个示例中,当客户端设备的相机具有新颖的视点(例如,由图像捕获的空间还未被包括在服务器处的一个或多个图像中,或者在服务器处的这样的图像旧得超过阈值时间)时,图像可以选择性地被发送,但是当针对当前视点的一个或多个图像已经被提供时,图像不会被发送。例如,当相机的视野具有与以过去或最近的相机姿势的先前图像的最小(例如,比阈值更少)的重叠时,或者当视点已有取决于对象的预期移动的一定量的时间未被观察到时,图像被指定用于由算法发送。作为另一示例,如果自从以当前(或者大致重叠的)视点的先前的图像被提供以来,超过阈值量的时间已经流失,则图像可以被提供。这可以使得所存储的与地图相关联的图像能够被更新,以反映真实世界位置的当前(或者至少最近的)状态。
在各种实施例中,服务器设备包括基于3-D数据和图像来检测对象的实时检测系统,并且估计真实世界环境的几何形状。例如,非真实感的房间的3-D地图(例如,半密集和/或密集3-D重建)可以是用由客户端设备捕获的图像可确定的,使得房间以特定的分辨率或细节级别完全地被表示在3-D地图内。
服务器使用实时检测系统融合图像、3-D数据、和/或GPS数据,以构建世界的一致的且容易被索引的3-D地图,合成的真实世界地图。一旦被存储,真实世界地图就可以被搜索,以将先前所存储的真实对象和/或虚拟对象定位在世界的3-D地图中的特定位置处。
在各种实施例中,地图构建(新的3-D地图数据的创建)和跟踪(对象的定位,包括客户端设备)在客户端上完成。真实世界的稀疏数字重建与相机相对于真实世界的位置一起被采集。地图构建包括创建点云,或者3-D点的集合。通过序列化并传输点云信息,系统将稀疏表示与GPS数据一起传送回到服务器。云处理启用具有(存储未被在本地存储在设备上的用于未来AR体验的地图和虚拟对象数据的)工作物理存储器的两个或更多个客户端设备间的多玩家能力(在独立的客户端设备之间实时或接近实时地分享地图数据)以及对象检测。例如,
服务器包括3-D地图和图像的数据库。服务器使用GPS数据来确定针对该坐标的3-D地图先前是否已经被存储。如果被定位,则所存储的3-D数据被传输回到客户端设备。例如,在家庭位置处的用户可以接受先前存储的与家庭位置相关联的数据,另外,3-D地图和图像数据可以被添加到所存储的合成世界3-D地图。
图1是根据一个实施例的AR计算系统的框图,该AR计算系统包括与经由网络104被访问的云端服务器元件合作的客户端设备102。例如,云端服务器元件可以是被配置为产生AR数据的服务器设备的组件。在所示出的实施例中,客户端设备102包括游戏引擎106(例如,Unity游戏引擎或另一物理/渲染引擎)以及AR平台108。AR平台108可以执行分割和对象识别。图1中所示出的AR平台108包括复杂计算机视觉模块110,该复杂计算机视觉模块110执行客户端图像处理(包括图像分割以及局部3-D估计等)。
复杂计算机视觉模块110摄取来自客户端设备的相机的像素数据以及来自客户端设备的其他传感器(诸如惯性测量单元)的传感器数据。复杂计算机视觉模块110通过在像素数据上执行特征提取、基于传感器数据和/或像素数据对相机的位置和视点进行三角剖分、以及在所提取的特征上执行特征匹配来生成特征向量,由此提供对相机视点、以及视点中有何种对象的N点透视(PnP)估计。如下面所描述的,取决于上下文,不同的模型可以被采用以执行同时的定位和地图构建。
AR平台108也包括定位和地图构建模块112。在一个实施例中,定位和地图构建模块112使用来自同时定位与地图构建(SLAM)软件开发工具包(SDK)的功能。SLAM SDK功能包括地图构建系统,该地图构建系统构建点云、线云、平面云、或者任何其他几何形状的云用于近似真实世界几何形状,并且提供跟踪功能以发现相机在三维空间中的当前位置。SLAM过程进一步将动画或增强的值(例如,虚拟对象)投影到AR中,以使得它们似乎是在真实世界中。在其他的实施例中,定位和地图构建模块112可以使用不同的或附加的方法以对客户端设备102周围的环境进行地图构建和/或确定在那个环境中客户端设备的位置。
定位和地图构建模块112可以具有多个模型,该多个模型可用于确定客户端设备102的当前位置。在一个实施例中,模型包括基于点云的模型(例如,如由SLAM提供的模型)、平面匹配模型、线匹配模型、地理信息系统(GIS)模型、建筑识别模型、景观识别模型、立方体匹配模型、圆柱体匹配模型、地平线匹配模型、光源匹配模型等,以及对象和/或语义匹配模型,诸如出口匹配模型、路灯匹配模型、树木匹配模型,文本匹配模型(例如,用于广告牌或路标)或者用于将真实世界的对象匹配到虚拟近似的其他模型。在其他实施例中,不同的或附加的模型可以对定位和地图构建模块112可用。
点云模型表示将物理空间表示为位于虚拟世界中的定位的点的集合,这些虚拟世界中的定位对应于真实世界中的对象表面的定位。例如,墙可以由分布在墙之上的点的集合表示。给定的点云模型可以包括固定数目的点,这些点动态地被分配以表示物理空间,诸如通过包括大型平坦表面(例如,墙)上的相对较小数目的点,同时包括在更复杂的对象(例如,植物、家具等)周围的点的更密集的集群。在一些实施例中,定位和地图构建模块112具有对其可用的多个点云模型,这些点云模型具有变化的分辨率和比例。因此,例如,比起那些更远的对象,在用户的位置附近的对象可以由更高分辨率的点云表示。点云模型通过将由设备生成的传感器数据(例如,相机图像)匹配到基于点云而被生成的针对不同位置的预期传感器读数,而确定传感器的位置。
平面匹配模型将物理空间表示为虚拟中的平面的集合,这些平面在对应于真实世界中大型、相对平坦的表面的位置处。例如,地板、墙以及房间中的桌面中的每个可以由平面匹配模型中的平面表示。平面匹配模型通过将由设备生成的传感器数据(例如,相机图像)中所标识的平面匹配到模型中的平面,而确定设备的位置。
线匹配模型与平面匹配模型相似,除了其在对应于真实世界中的线的位置处定义虚拟世界中的线以外。例如,线可以是一件家具的边缘、两面墙之间的接合处等。线匹配模型通过将由设备生成的传感器数据(例如,相机图像)中所标识的线匹配到模型中的线,而确定设备的位置。
地理信息系统(GIS)模型将像素数据匹配到卫星成像数据。GIS基于在视点的地平线处检测的对象来估计视点。对象在地平线处的尺寸和比例由GIS模型基于像素数据(例如,多个像素宽和/或高)估计。GIS模型然后将所估计的对象匹配到被包括在卫星成像数据中的对象,该GIS模型将被包括在卫星成像数据中的对象投影到视点的地平线处。这可以通过将一个或多个数学变换和/或机器学习的模型(例如,深度神经网络)应用到卫星成像数据和/或像素数据而被执行。基于所匹配的对象,GIS模型标识生成了像素数据的相机(以及,扩展到客户端设备102)的可能的视点。
建筑识别模型以及其他对象和/或语义匹配模型(如树木匹配模型)将像素数据匹配到其被训练以识别的对象或者语义。例如,建筑识别模型可以是机器学习的模型,该机器学习的模型基于训练数据集被训练以识别建筑,该训练数据集具有被标记为正案例的建筑的图像以及被标记为负案例的其他对象的图像。在训练后,建筑识别模型可以预测像素数据(例如,图像)是否包括建筑。相似地,模型可以被训练以识别可以被呈现在图像中的各种对象,诸如路标、树木、长凳等。
无论可用的模型的集合,客户端设备102选择这些模型中的一个或多个模型来基于所收集的原始数据进行定位。例如,平面和线匹配模型可能在室内是最准确的,而景观和建筑模型可能在室外是最准确的。因此,所收集的数据(例如,照明水平和图像)可以由定位和地图构建模块112分析,以确定客户端设备102当前是在室内还是在室外,并且然后选择更有效的模型。
在一个实施例中,每个模型被指派得分,该得分指示基于当前情况(例如,如所收集的数据所指示的)模型将为客户端设备生成准确位置的可能性。该得分可以基于决策树,其中决策树的参数是被手动设置的。备选地,得分可以基于用强化学习训练的机器学习模型,该强化学习使用来自不同AR地图类型的不同模型的输入和参数,其中强化“奖励”与模型性能(例如,位置估计准确性)成比例。
模型或多个模型基于得分而被选择。例如,客户端设备102可能选择具有最高得分的模型、三个最高评分模型、或者具有高于阈值的所有模型。附加地或备选地,选择可以基于哪些模型先前在相似的位置被选择。例如,如果针对客户端设备102的GPS坐标在平面匹配模型先前被成功使用的GPS坐标的阈值内,则平面匹配模型的得分可以被提升,或者平面匹配模型可以被选择,除非另一模型的得分超过针对平面匹配模型的得分一个阈值量。相似地,如果特定的模型先前被选择但无法提供准确的位置,则针对那个模型的得分可以被降低。因此,在相似的GPS坐标处的模型的成功和失败可以被用于通知客户端设备102选择哪个模型或者哪些模型,以确定比由GPS坐标提供的更精确的位置(例如,到一厘米内)。
以相似的方式,客户端设备102可以把在所收集的数据指示其与当前位置相似的位置处的模型的成功和失败作为因素。例如,位置可以被分类为在室内或在室外,并且基于所收集的数据指示客户端设备102是在室内还是在室外,某些模型可以被排除或者被选择(或者对应的得分被提高或者降低)。通过对针对典型地在室内或在室外的对象的模型的采用,所收集的数据可以由一个或多个模型(例如,对象识别模型)分析,以确定其是在室内被收集还是在室外被收集。例如,使用针对树木、天空以及草地的模型确定数据是在外部被收集的,以及针对墙、沙发以及桌子的模型以确定数据是在内部被收集的。
相似地,所选择的模型或多个模型可以基于照明水平。例如,相对于其他模型,一个模型(例如,线云)可以在低光条件下尤其有效,并且因此如果由客户端设备102检测到的照明水平低于阈值,则其优先被选择。相似地,其他模型(例如,点地图)可以在低光条件下不太有效,并且因此被避免(假设另一个模型可用)。取决于该实施例,用于所选择的数据的其他技术可以被采用,这些技术用以影响哪个模型或者哪些模型被选择以偏好对在当前条件下最可能产生准确的结果的那些模型的选择。
定位和地图构建模块112可以应用所选择的一个或多个模型以生成针对客户端设备102的潜在位置。在仅有单个模型被选择的情况下,所生成的位置可以被使用为客户端设备102的实际位置。然而,在GPS坐标可用的情况下,如果使用模型所确定的位置与GPS坐标相差多于阈值量,则客户端设备102可以应用附加的模型,或者寻求核实当前位置,诸如通过显示消息请求用户确认位置估计是否准确,并且基于所接收的响应更新位置估计。
在多于一个模型被选择的情况下,每个所选择的模型可以产生客户端设备102的潜在位置。定位和地图构建模块112基于所选择的该多于一个模型的累积潜在位置,为客户端设备102确定当前位置。在一个实施例中,当前位置被计算为由所选择的模型生成的潜在位置的均值。在另一实施例中,潜在位置的加权平均被使用。例如,每个模型的贡献可以通过来自模型选择阶段的该模型的得分而被加权。备选地,加权可以被预设置为偏好特定模型超过其他模型,例如,基于历史准确性。在进一步的实施例中,潜在位置可以以其他方式被组合,诸如采取最接近地匹配设备的GPS坐标的一个潜在位置。
在图1中所示出的实施例中,客户端计算设备102还包括地图取回模块114和深度学习模块116。地图取回模块114取回先前生成的3-D地图(例如,经由网络104)。在一些实施例中,地图取回模块114可以在本地存储一些3-D地图(例如,针对用户的家庭位置的3-D地图)。深度学习模块116将机器学习的算法用于对象识别。深度学习模块116可以经由网络104获取已训练的机器学习的算法。在一些实施例中,深度学习模块116还可以提供对象识别的结果和/或用户反馈,以实现进一步的模型训练。
在所示出的实施例中,经由网络104被访问的云端服务器元件(例如,在服务器计算设备处)包括与一个世界地图构建模块120通信的AR后端引擎118、对象识别和语义分割模块122、地图数据库124、对象数据库126以及深度学习训练模块128。在其他实施例中,附加的或者不同的组件可以被包括。此外,功能性可以与本文中所描述的功能性不同地被分发。例如,对象识别功能性中的一些或所有对象识别功能性可以在客户端设备102处被执行。
AR后端引擎从客户端设备102接收数据,并且将3-D地图和/或其他数据发送到客户端设备102。AR后端引擎基于所接收的数据的类型,将所接收的数据发送到一个世界地图构建模块120和/或对象识别和语义分割模块122,使得其可以进一步被处理。
一个世界地图构建模块120将不同的局部3-D地图融合到一起以创建合成的真实世界地图。如先前所指出的,初始地生成了地图的、来自客户端设备102的GPS定位数据可以被使用,以标识可能毗邻或重叠的局部地图。模式匹配然后可以被使用,以标识地图的重叠部分或者两幅局部地图彼此毗邻(例如,因为它们包括相同对象的相对侧)。如果两幅被确定是重叠或者毗邻的,则指示这两幅地图如何彼此相关的地图构建可以被存储,或者它们可以被组合到一幅3-D地图中。
对象识别和语义分割模块122使用图像和/或对象信息以及所收集的3-D数据来标识真实世界中的特征。以这种方式,例如,服务器104确定椅子在一个3-D位置处,并且访问与该位置相关联的对象数据库126。深度学习训练模块128可以被用于将地图信息与对象信息融合,例如,以将对象的表示在如3-D地图中所表示的位置处添加到3-D地图。以这种方式,系统100可以连接3-D信息以用于对象识别和融合回到3-D地图中。备选地或附加地,深度学习模块128可以被用于训练或更新用于对象识别的机器学习的模型。例如,将对象识别和语义分割模块122应用到3-D数据的结果可以被核实(例如,通过人类),使得深度学习训练模块128可以扩展训练数据集或者基于该核实来更新模型。
地图数据库124包括一个或多个计算机可读介质,其被配置为存储由客户端设备102生成的地图数据。地图数据可以包括3-D点云的局部地图,该局部地图与由客户端设备102在一个位置处收集的图像和其他传感器数据相关联地被存储。地图数据还可以包括指示不同局部地图之间的地理关系的地图构建信息。相似地,对象数据库126包括被配置为存储关于被识别的对象的信息的一个或多计算机可读介质。例如,对象数据库126可能包括已知对象(例如,椅子、写字桌、树木、建筑等)的列表,这些已知对象具有对应的位置以及那些对象的属性。这些属性可以对对象类型通用或者针对对象的每个实例特定地被定义(例如,所有的椅子可以被认为是家具,但是每个椅子的位置被个体地定义)。尽管地图数据库124以及对象数据库126被示出为单个实体,但是它们可以跨多个设备处的多个存储介质分布(例如,作为分布式数据库),或者可以是一个组合的数据库。
图2是根据一个实施例的流程图,其示出由客户端设备102和服务器设备执行的、用以生成并显示AR数据的过程。客户端102和服务器计算设备可以与图1中所示出的那些相似。虚线表示客户端102和服务器之间的数据的通信,而实线指示设备中的一个设备内的数据的通信。在其他实施例中,功能性可以在设备之间不同地被分发和/或不同的设备可以被使用。
在202处,原始数据在客户端设备处由一个或多个传感器收集。在一个实施例中,原始数据包括图像和惯性测量信息。图像由一个或多个相机捕获。惯性测量信息可以使用客户端设备上的或者通信地被连接到客户端设备的另一设备上的GPS和陀螺仪和/或加速度计组件来收集。在备选的实施例中,附加的原始数据可以被收集,诸如压力水平、照明水平、声级、音频数据等。
客户端设备102可以在204处维护本地地图存储装置。本地地图存储装置包括本地点云数据。点云数据包括形成网格表面的空间中的定位,该网格表面可以被构建为使得点云数据表示位置中的一个或多个对象。
如果3-D地图在206处被初始化,则客户端设备102可以在208处发起SLAM功能。SLAM功能包括构建点云的地图构建系统以及用以在空间中发现相机的位置和/或定向相机的跟踪功能性。SLAM过程投影虚拟对象,使得它们在AR体验中似乎是在真实世界中。如果在206处没有3-D地图被初始化,则客户端设备102可以在本地地图存储装置204中标识已存储的3-D地图,或者通过对云端地图存储装置220的查询来标识已存储的3-D地图,并且加载已存储的3-D地图以供使用。如果在210处没有地图被定位,则在212处,系统使用初始化模块来创建地图。
在214处,在新颖的视点被检测到的情况下(例如,如果将角落转向到尚未被建图/被成像的区域,或者在存在重叠并且不是所有真实世界的当前可见部分已被建图/成像的情况下),系统可以在216处记录关于本地环境而被采集的或(例如,使用对象识别)被推理的数据。例如,响应于确定客户端设备102当前具有新颖的视点,由相机以那个视点捕获的图像可以由客户端设备102发送到服务器。客户端设备102可以使用新颖视点检测器来确定何时以及如何传输具有3-D数据的图像。本地环境推理可以包括用于本地地图构建系统的更新的关键帧、以及序列化的图像和/或地图数据。
在服务器端,新颖视点数据(例如,包括具有网格数据的点云信息)可以在218处被存储在云端地图存储装置中。服务器可以将来自所存储的云端地图存储装置220以及对象数据库222的真实世界地图的不同部分添加到新颖视点数据,诸如,如上文所描述的使用机器学习被识别的对象的标签。云端环境推理224(包括添加的数据,诸如,用于所识别的对象的语义标签)可以被发送回到客户端设备102。所添加的数据可以包括点和网格以及对象数据,并且可以被存储在本地地图存储装置204。
图3是图示适合作为客户端设备102或服务器使用的示例计算机300的高级框图。示例计算机300包括被耦合到芯片组304的至少一个处理器302。芯片组304包括存储器控制器集线器320和输入/输出(I/O)控制器集线器322。存储器306和图形适配器312被耦合到存储器控制器集线器320,以及显示器318被耦合到图形适配器312。存储设备308、键盘310、指向设备314、以及网络适配器316被耦合到I/O控制器集线器322。计算机300的其他实施例具有不同的架构。
在图3所示出的实施例中,存储设备308是非瞬态计算机可读存储介质,诸如硬盘驱动器、压缩盘只读存储器(CD-ROM)、DVD、或固态存储器设备。存储器306保存由处理器302使用的指令和数据。指向设备314是鼠标、跟踪球、触摸屏、或者其他类型的指向设备,并且其被与键盘310(其可以是屏幕上键盘)组合使用以将数据输入到计算机系统300中。图形适配器312在显示器318上显示图像和其他信息。网络适配器316将计算机系统300耦合到一个或多个计算机网络。
由图1的实体使用的计算机的类型可以根据实施例、以及实体所要求的处理功率而变化。例如,服务器可以包括分布式数据库系统,该分布式数据库系统包括一起工作以提供所描述的功能性的多个刀片服务器。此外,计算机可以缺少上面所描述的组件中的一些组件,诸如键盘310、图形适配器312以及显示器318。
图4图示了用于确定设备的位置的方法400的一个实施例。图4的步骤从客户端设备102执行方法400的角度而被图示。然而,这些步骤中的一些或所有步骤可以由其他实体或组件执行。另外,一些实施例可以并行地执行步骤、以不同的顺序执行这些步骤、或执行不同的步骤。
在图4中所示出的实施例中,方法400以客户端设备102使用一个或多个传感器收集(410)传感器数据开始。传感器数据可以包括图像、视频、音频、光级、声级、惯性数据、定向、压力和/或来自传感器的任何其他可用的数据。基于传感器数据,客户端设备102选择(420)一个或多个定位模型。如先前所描述的,所选择的模型或多个模型可以基于被指派给模型的得分,其中得分基于传感器数据和/或其他因素(诸如在特定位置或环境处的历史性能)。
客户端设备102应用(430)所选择的定位模型以生成针对客户端设备的潜在位置。在一个实施例中,每个模型输出潜在位置。潜在位置可以基于局部地图内的坐标系而被定义(例如,基于客户端设备102的GPS坐标来选择)。例如,GPS坐标可以指示客户端设备102可能在建筑内的某处,因此针对该建筑的局部地图被使用。所选择的模型然后被应用以确定客户端设备102在建筑内的更准确的位置(例如,以一厘米的精度为目标)。
客户端设备102基于潜在位置来确定(440)当前位置。在仅有一个模型被选择的情况下,可以假定它生成的潜在位置是正确的。备选地,针对可行性,潜在位置可以基于可用的传感器数据而被检查(例如,在离由GPS坐标指示的位置的阈值距离之内,所检测的照明水平与针对潜在位置的期望相一致,由客户端设备102捕获的图像与在相似的位置处被捕获的其他图像一致等)。当多于一个模型被选择时,潜在位置可以被组合以产生当前位置。如先前所描述的,平均、加权组合或其他合适的技术可以被用于从潜在位置生成当前位置。
本领域技术人员可以对本文所公开的装置和技术进行多种使用和修改、以及背离这些设备和技术,而不背离所描述的概念。例如,本公开中所图示或描述的组件或特征不限于所图示或描述的位置、设置或上下文。根据本公开的装置的示例可以包括比参考前述附图中的一个或多个附图所描述的组件中的所有、更少或者不同的组件。因此,本公开不限于本文中所描述的特定实现,而是应被给予与所附权利要求以及其等效物一致的可能的最宽的范围。
Claims (20)
1.一种用于确定设备的位置的方法,所述方法包括:
使用一个或多个传感器收集传感器数据;
基于所述传感器数据,从多个定位模型选择一个或多个定位模型;
应用所选择的所述一个或多个定位模型,以生成所述设备的一个或多个潜在位置;以及
基于所述一个或多个潜在位置,确定所述设备的所述位置。
2.根据权利要求1所述的方法,其中所述传感器数据包括由相机捕获的图像。
3.根据权利要求1所述的方法,其中所述多个定位模型包括以下至少一项:基于点云的模型、平面匹配模型、线匹配模型、地理信息系统(GIS)模型、建筑识别模型、对象识别模型、语义匹配模型、立方体匹配模型、圆柱体匹配模型、地平线匹配模型、光源匹配模型、以及景观识别模型。
4.根据权利要求1所述的方法,其中应用所选择的所述一个或多个定位模型包括:应用多个定位模型以生成多个潜在位置,其中每个被应用的定位模型生成所述多个潜在位置中的一个潜在位置。
5.根据权利要求4所述的方法,其中确定所述设备的所述位置包括:计算所述多个潜在位置的平均位置。
6.根据权利要求5所述的方法,其中所述平均是加权平均。
7.根据权利要求1所述的方法,其中选择一个或多个定位模型包括:
确定所述设备当前是在室内还是在室外;以及
基于所述设备当前是在室内还是在室外,选择所述定位模型的子集。
8.根据权利要求1所述的方法,其中选择一个或多个定位模型包括:
向每个定位模型指派得分,针对定位模型的所述得分指示该定位模型生成精确位置的可能性;以及
基于所述得分,选择所述一个或多个定位模型。
9.根据权利要求8所述的方法,其中所述得分基于所述模型的用于相似环境的历史性能。
10.根据权利要求8所述的方法,其中所述得分基于所述传感器数据。
11.一种设备,包括:
一个或多个处理器;以及
一个或多个计算机可读介质,所述一个或多个计算机可读介质存储指令,所述指令在由所述一个或多个处理器执行时使所述设备执行操作,所述操作包括:
使用一个或多个传感器收集传感器数据;
基于所述传感器数据,从多个定位模型选择一个或多个定位模型;
应用所选择的所述一个或多个定位模型,以生成所述设备的一个或多个潜在位置;以及
基于所述一个或多个潜在位置,确定所述设备的所述位置。
12.根据权利要求11所述的设备,其中所述传感器数据包括由相机捕获的图像。
13.根据权利要求11所述的设备,其中所述多个定位模型包括以下至少一项:基于点云的模型、平面匹配模型、线匹配模型、地理信息系统(GIS)模型、建筑识别模型、对象识别模型、语义匹配模型、立方体匹配模型、圆柱体匹配模型、地平线匹配模型、光源匹配模型、以及景观识别模型。
14.根据权利要求11所述的设备,其中应用所选择的所述一个或多个定位模型包括:应用多个定位模型以生成多个潜在位置,其中每个被应用的定位模型生成所述多个潜在位置中的一个潜在位置。
15.根据权利要求14所述的设备,其中确定所述设备的位置包括:计算所述多个潜在位置的平均位置。
16.根据权利要求15所述的设备,其中所述平均是加权平均。
17.根据权利要求11所述的设备,其中选择一个或多个定位模型包括:
确定所述设备当前是在室内还是在室外;以及
基于所述设备当前是在室内还是在室外,选择所述定位模型的子集。
18.根据权利要求11所述的设备,其中选择一个或多个定位模型包括:
向每个定位模型指派得分,针对定位模型的所述得分指示该定位模型生成精确位置的可能性;以及
基于所述得分,选择所述一个或多个定位模型。
19.根据权利要求18所述的设备,其中所述得分基于所述模型的用于相似环境的历史性能。
20.根据权利要求18所述的设备,其中所述得分基于所述传感器数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210876063.8A CN115311422A (zh) | 2018-06-27 | 2019-06-27 | 用于设备定位的多重集成模型 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862690566P | 2018-06-27 | 2018-06-27 | |
US62/690,566 | 2018-06-27 | ||
PCT/US2019/039606 WO2020006299A1 (en) | 2018-06-27 | 2019-06-27 | Multi-sync ensemble model for device localization |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210876063.8A Division CN115311422A (zh) | 2018-06-27 | 2019-06-27 | 用于设备定位的多重集成模型 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112334953A true CN112334953A (zh) | 2021-02-05 |
CN112334953B CN112334953B (zh) | 2022-08-02 |
Family
ID=68987514
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980043077.8A Active CN112334953B (zh) | 2018-06-27 | 2019-06-27 | 用于设备定位的多重集成模型 |
CN202210876063.8A Pending CN115311422A (zh) | 2018-06-27 | 2019-06-27 | 用于设备定位的多重集成模型 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210876063.8A Pending CN115311422A (zh) | 2018-06-27 | 2019-06-27 | 用于设备定位的多重集成模型 |
Country Status (8)
Country | Link |
---|---|
US (3) | US10820172B2 (zh) |
EP (1) | EP3815398B1 (zh) |
JP (2) | JP6931138B1 (zh) |
KR (2) | KR102338560B1 (zh) |
CN (2) | CN112334953B (zh) |
AU (3) | AU2019291869B2 (zh) |
CA (1) | CA3104532C (zh) |
WO (1) | WO2020006299A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114486321A (zh) * | 2022-04-18 | 2022-05-13 | 中国飞机强度研究所 | 飞机测试内场与外场高温环境试验相似性表征方法 |
WO2023179617A1 (zh) * | 2022-03-25 | 2023-09-28 | 维沃移动通信有限公司 | 定位方法、装置、终端及网络侧设备 |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3607353B1 (en) * | 2017-04-05 | 2023-03-01 | Telefonaktiebolaget LM Ericsson (PUBL) | Illuminating an environment for localisation |
US11651555B2 (en) * | 2018-05-31 | 2023-05-16 | Microsoft Technology Licensing, Llc | Re-creation of virtual environment through a video call |
CA3104532C (en) | 2018-06-27 | 2023-10-17 | Niantic, Inc. | Multi-sync ensemble model for device localization |
US11288842B2 (en) | 2019-02-15 | 2022-03-29 | Interaptix Inc. | Method and system for re-projecting and combining sensor data for visualization |
KR20220119664A (ko) * | 2019-12-20 | 2022-08-30 | 나이앤틱, 인크. | 3d 라인 정션을 통한 위치 판정 및 매핑 |
US11481930B2 (en) * | 2020-01-21 | 2022-10-25 | Trimble Inc. | Accurately positioning augmented reality models within images |
US11391596B2 (en) * | 2020-04-28 | 2022-07-19 | Vgis Inc. | System and method for converging mediated reality positioning data and geographic positioning data |
US11770506B2 (en) * | 2020-06-25 | 2023-09-26 | Innovative Signal Analysis, Inc. | Multi-source 3-dimensional detection and tracking |
US11602132B2 (en) | 2020-10-06 | 2023-03-14 | Sixgill, LLC | System and method of counting livestock |
WO2022081717A1 (en) * | 2020-10-13 | 2022-04-21 | Flyreel, Inc. | Generating measurements of physical structures and environments through automated analysis of sensor data |
US20220114477A1 (en) * | 2020-10-14 | 2022-04-14 | Baidu Usa Llc | Event driven configurable artificial intelligence workflow |
US11417069B1 (en) * | 2021-10-05 | 2022-08-16 | Awe Company Limited | Object and camera localization system and localization method for mapping of the real world |
KR102664706B1 (ko) * | 2021-11-30 | 2024-05-09 | 한국과학기술원 | 고차원 특징 구성을 위한 네트워크 기반 모바일 슬램 시스템 및 그 동작 방법 |
US20230345199A1 (en) * | 2022-04-22 | 2023-10-26 | Mapsted Corp | Method and system for criterion-based localization of mobile devices |
WO2024121143A1 (en) * | 2022-12-07 | 2024-06-13 | Sony Semiconductor Solutions Corporation | Image synthesis apparatus and method |
US11776206B1 (en) | 2022-12-23 | 2023-10-03 | Awe Company Limited | Extended reality system and extended reality method with two-way digital interactive digital twins |
US20240323745A1 (en) * | 2023-03-21 | 2024-09-26 | Qualcomm Incorporated | Positioning model validity condition signaling and indication |
US20240331310A1 (en) * | 2023-03-28 | 2024-10-03 | Qualcomm Incorporated | Augmented reality guidance in a physical location |
CN116433837B (zh) * | 2023-03-31 | 2023-09-12 | 浙江大学 | 一种基于关键点匹配的三维cad模型差异分析方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150285638A1 (en) * | 2012-06-12 | 2015-10-08 | Trx Systems, Inc. | System and method for localizing a trackee at a location and mapping the location using signal-based features |
CN105074691A (zh) * | 2013-03-15 | 2015-11-18 | 高通股份有限公司 | 上下文感知定位、映射和跟踪 |
Family Cites Families (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5737431A (en) * | 1995-03-07 | 1998-04-07 | Brown University Research Foundation | Methods and apparatus for source location estimation from microphone-array time-delay estimates |
WO2006017266A2 (en) | 2004-07-12 | 2006-02-16 | William Marsh Rice University | System and method for localization over a wireless network |
JP4727999B2 (ja) * | 2005-01-13 | 2011-07-20 | クラリオン株式会社 | 現在位置表示方法、およびナビゲーション装置 |
TW201022700A (en) | 2008-12-15 | 2010-06-16 | Ind Tech Res Inst | Localization and detecting system applying sensors, and method thereof |
US8189964B2 (en) * | 2009-12-07 | 2012-05-29 | Google Inc. | Matching an approximately located query image against a reference image set |
US8077090B1 (en) | 2010-06-15 | 2011-12-13 | Microsoft Corp. | Simultaneous localization and RF modeling |
US8933841B2 (en) * | 2010-12-13 | 2015-01-13 | The Governing Council Of The University Of Toronto | System and method for localization |
US9239990B2 (en) * | 2011-06-24 | 2016-01-19 | Zos Communications, Llc | Hybrid location using pattern recognition of location readings and signal strengths of wireless access points |
JP5819686B2 (ja) * | 2011-09-14 | 2015-11-24 | 株式会社バンダイナムコエンターテインメント | プログラム及び電子機器 |
WO2014001947A1 (en) * | 2012-06-28 | 2014-01-03 | Koninklijke Philips N.V. | A method of estimating the position of a device and an apparatus implementing the same |
US8849308B2 (en) * | 2012-11-21 | 2014-09-30 | Apple Inc. | Tiling of map data |
US9613461B2 (en) * | 2012-12-10 | 2017-04-04 | Sony Corporation | Display control apparatus, display control method, and program |
US9292936B2 (en) * | 2013-01-09 | 2016-03-22 | Omiimii Ltd. | Method and apparatus for determining location |
US8990011B2 (en) * | 2013-02-28 | 2015-03-24 | Microsoft Technology Licensing, Llc | Determining user device's starting location |
ITBA20130065A1 (it) | 2013-10-02 | 2015-04-03 | Domenico Colucci | Sistema di localizzazione "indoor" ad alta affidabilita' e relative metodologie di utilizzo |
US10360907B2 (en) * | 2014-01-14 | 2019-07-23 | Toyota Motor Engineering & Manufacturing North America, Inc. | Smart necklace with stereo vision and onboard processing |
US9674656B2 (en) * | 2014-02-20 | 2017-06-06 | Microsoft Technology Licensing, Llc | Wireless-based localization using a zonal framework |
KR101729008B1 (ko) * | 2014-04-04 | 2017-04-21 | 엘지전자 주식회사 | 조명 시스템 및 그 동작방법 |
KR102280610B1 (ko) * | 2014-04-24 | 2021-07-23 | 삼성전자주식회사 | 전자 장치의 위치 추정 방법 및 장치 |
CN112651288B (zh) * | 2014-06-14 | 2022-09-20 | 奇跃公司 | 用于产生虚拟和增强现实的方法和系统 |
US20160029224A1 (en) | 2014-07-23 | 2016-01-28 | Qualcomm Incorporated | Determination of environment characteristics from mobile device-based sensor measurements |
US10139471B2 (en) | 2014-12-04 | 2018-11-27 | Here Global B.V. | Supporting a collaborative collection of data |
US9264861B1 (en) * | 2015-01-29 | 2016-02-16 | Ringcentral, Inc. | Generating spatial models using crowdsourcing |
EP3093683B1 (en) | 2015-05-13 | 2018-01-03 | Combain Mobile AB | Generating a model for positioning |
US9743253B2 (en) * | 2015-08-27 | 2017-08-22 | Glopos Fzc | Method and arrangement for locating a mobile device |
KR101730269B1 (ko) * | 2015-12-09 | 2017-04-27 | 성균관대학교산학협력단 | 실내 디바이스 위치를 추정하는 방법 |
EP3397982B1 (en) | 2015-12-31 | 2023-10-18 | Robert Bosch GmbH | Indoor room-localization system |
WO2017145711A1 (ja) * | 2016-02-24 | 2017-08-31 | Soinnホールディングス合同会社 | 特徴量抽出方法及び特徴量抽出装置 |
US9996936B2 (en) * | 2016-05-20 | 2018-06-12 | Qualcomm Incorporated | Predictor-corrector based pose detection |
US9766349B1 (en) | 2016-09-14 | 2017-09-19 | Uber Technologies, Inc. | Localization and tracking using location, signal strength, and pseudorange data |
US10256906B2 (en) | 2016-12-13 | 2019-04-09 | University Of Virginia Patent Foundation | Position localization using visible light communication |
US10659768B2 (en) | 2017-02-28 | 2020-05-19 | Mitsubishi Electric Research Laboratories, Inc. | System and method for virtually-augmented visual simultaneous localization and mapping |
JP7190842B2 (ja) | 2017-11-02 | 2022-12-16 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法及びプログラム |
US20180093671A1 (en) * | 2017-11-21 | 2018-04-05 | GM Global Technology Operations LLC | Systems and methods for adjusting speed for an upcoming lane change in autonomous vehicles |
US20190204092A1 (en) * | 2017-12-01 | 2019-07-04 | DeepMap Inc. | High definition map based localization optimization |
WO2019109268A1 (zh) * | 2017-12-06 | 2019-06-13 | 中国科学院自动化研究所 | 基于强化学习的图片自动裁剪的方法及装置 |
US10145689B1 (en) | 2018-03-02 | 2018-12-04 | Mapsted Corp. | Method and system of pedestrian localization |
CA3104532C (en) | 2018-06-27 | 2023-10-17 | Niantic, Inc. | Multi-sync ensemble model for device localization |
-
2019
- 2019-06-27 CA CA3104532A patent/CA3104532C/en active Active
- 2019-06-27 KR KR1020217002633A patent/KR102338560B1/ko active IP Right Grant
- 2019-06-27 US US16/455,630 patent/US10820172B2/en active Active
- 2019-06-27 WO PCT/US2019/039606 patent/WO2020006299A1/en unknown
- 2019-06-27 CN CN201980043077.8A patent/CN112334953B/zh active Active
- 2019-06-27 CN CN202210876063.8A patent/CN115311422A/zh active Pending
- 2019-06-27 AU AU2019291869A patent/AU2019291869B2/en active Active
- 2019-06-27 JP JP2020572886A patent/JP6931138B1/ja active Active
- 2019-06-27 EP EP19824944.3A patent/EP3815398B1/en active Active
- 2019-06-27 KR KR1020217040226A patent/KR102612347B1/ko active IP Right Grant
-
2020
- 2020-08-05 US US16/985,960 patent/US10904723B2/en active Active
- 2020-12-18 US US17/127,392 patent/US11540096B2/en active Active
-
2021
- 2021-05-25 AU AU2021203410A patent/AU2021203410B2/en active Active
- 2021-08-12 JP JP2021131580A patent/JP7361075B2/ja active Active
-
2022
- 2022-10-21 AU AU2022256192A patent/AU2022256192B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150285638A1 (en) * | 2012-06-12 | 2015-10-08 | Trx Systems, Inc. | System and method for localizing a trackee at a location and mapping the location using signal-based features |
CN105074691A (zh) * | 2013-03-15 | 2015-11-18 | 高通股份有限公司 | 上下文感知定位、映射和跟踪 |
Non-Patent Citations (1)
Title |
---|
ÖZDEN,KEMAL EGEMEN 等: "A Hybrid Localization Framework for Mobile Devices", 《4 EIGHTH INTERNATIONAL CONFERENCE ON NEXT GENERATION MOBILE APPLICATIONS, SERVICES AND TECHNOLOGIES》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023179617A1 (zh) * | 2022-03-25 | 2023-09-28 | 维沃移动通信有限公司 | 定位方法、装置、终端及网络侧设备 |
CN114486321A (zh) * | 2022-04-18 | 2022-05-13 | 中国飞机强度研究所 | 飞机测试内场与外场高温环境试验相似性表征方法 |
CN114486321B (zh) * | 2022-04-18 | 2022-06-24 | 中国飞机强度研究所 | 飞机测试内场与外场高温环境试验相似性表征方法 |
Also Published As
Publication number | Publication date |
---|---|
AU2021203410A1 (en) | 2021-06-24 |
KR20210154861A (ko) | 2021-12-21 |
AU2022256192B2 (en) | 2024-02-01 |
WO2020006299A1 (en) | 2020-01-02 |
US10820172B2 (en) | 2020-10-27 |
CN115311422A (zh) | 2022-11-08 |
US20210105593A1 (en) | 2021-04-08 |
AU2021203410B2 (en) | 2022-07-21 |
US10904723B2 (en) | 2021-01-26 |
EP3815398A1 (en) | 2021-05-05 |
US20200367034A1 (en) | 2020-11-19 |
JP2021524636A (ja) | 2021-09-13 |
CA3104532A1 (en) | 2020-01-02 |
AU2022256192A1 (en) | 2022-11-24 |
KR102612347B1 (ko) | 2023-12-11 |
AU2019291869A1 (en) | 2021-02-18 |
US11540096B2 (en) | 2022-12-27 |
EP3815398A4 (en) | 2021-05-05 |
AU2019291869B2 (en) | 2021-02-25 |
JP2022000761A (ja) | 2022-01-04 |
JP6931138B1 (ja) | 2021-09-01 |
CA3104532C (en) | 2023-10-17 |
EP3815398B1 (en) | 2023-09-06 |
JP7361075B2 (ja) | 2023-10-13 |
US20200008024A1 (en) | 2020-01-02 |
KR20210013655A (ko) | 2021-02-04 |
KR102338560B1 (ko) | 2021-12-15 |
CN112334953B (zh) | 2022-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112334953B (zh) | 用于设备定位的多重集成模型 | |
JP7486565B2 (ja) | クラウド支援型の新しい視点を利用したローカルマップデータの生成 | |
KR20220119123A (ko) | 매핑 장치로부터의 로컬 지도 병합 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |