CN108801243A - 追踪系统及方法 - Google Patents

追踪系统及方法 Download PDF

Info

Publication number
CN108801243A
CN108801243A CN201810410660.5A CN201810410660A CN108801243A CN 108801243 A CN108801243 A CN 108801243A CN 201810410660 A CN201810410660 A CN 201810410660A CN 108801243 A CN108801243 A CN 108801243A
Authority
CN
China
Prior art keywords
electronic device
point
map
posture
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810410660.5A
Other languages
English (en)
Other versions
CN108801243B (zh
Inventor
陈远东
叶星巧
吴柏逸
丁珩
蔡昆均
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HTC Corp
Original Assignee
High Tech Computer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by High Tech Computer Corp filed Critical High Tech Computer Corp
Publication of CN108801243A publication Critical patent/CN108801243A/zh
Application granted granted Critical
Publication of CN108801243B publication Critical patent/CN108801243B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/0009Transmission of position information to remote stations
    • G01S5/0072Transmission between mobile stations, e.g. anti-collision systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/0009Transmission of position information to remote stations
    • G01S5/009Transmission of differential positioning data to mobile
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

一种追踪系统及其方法,追踪方法包含:利用第一电子装置获取物理环境的多个第一影像;从第一影像中提取多个第一特征点;根据提取出的第一特征点产生多个地图点;计算超声波感测器与第二电子装置上的第一超声波发射器之间的多个第一相对距离;利用第一电子装置根据地图点建立物理环境的地图;利用第二电子装置获取物理环境的第二影像;从第二影像中提取多个第二特征点,并传送第二特征点至第一电子装置;以及利用第一电子装置根据地图以及接收到的第二特征点评估第二电子装置的姿势。借此,达到允许具有较差运算能力的装置利用SLAM技术定位的技术效果。

Description

追踪系统及方法
技术领域
本公开涉及一种追踪系统及方法,且特别涉及一种通过具有地图的另一装置定位一装置以及改善地图的追踪系统。
背景技术
同步定位与地图构建(simultaneous localization and mapping,SLAM)技术被用来建立未知环境(例如:物理环境)的地图,同时通过在未知环境内建立的地图追踪自己的位置。然而,电子装置需要大量运算效能来实现SLAM技术。因此,如果电子装置不具有足够的计算效能,将无法利用SLAM技术追踪自己的位置。
发明内容
依据本公开文件的第一实施方式,其公开一种追踪系统,追踪系统包含第一电子装置以及第二电子装置。第一电子装置位于物理环境,其包含第一相机单元、第一处理器以及第一通信单元。第一处理器与第一相机单元以及第一通信单元电性耦接。第一相机单元用以获取物理环境的多个第一影像。第一处理器用以从第一影像中提取多个第一特征点,根据提取出的第一特征点产生多个地图点,并根据地图点建立物理环境的地图。第二电子装置位于物理环境,其包含第二相机单元、第二处理器以及第二通信单元。第二处理器与第二相机单元以及第二通信单元电性耦接。第二相机单元用以获取物理环境的第二影像。第二处理器用以从第二影像中提取多个第二特征点。第二通信单元用以传送第二特征点至第一电子装置。其中,第一通信单元用以接收第二特征点,第一处理器更用以根据地图以及接收到的第二特征点评估第二电子装置的姿势。第二电子装置的姿势包含第二电子装置的至少一位置,以及第二电子装置的方向。
根据本公开一实施例,该第一通信单元用以传送评估后的该第二电子装置的该姿势至该第二电子装置。
根据本公开一实施例,当所述多个第二特征点匹配到所述多个地图点的数量大于一门槛值时,该第一处理器用以评估该第二电子装置的该姿势。
根据本公开一实施例,该第一处理器用以根据匹配到所述多个第二特征点的所述多个地图点评估该第二电子装置的该姿势。
根据本公开一实施例,每一所述多个地图点包含一第一描述符,该第一描述符指示出对应的地图点的至少一个特征,以及每一所述多个第二特征点包含一第二描述符,该第二描述符指示出对应的第二特征点的至少一个特征,其中该第一处理器用以根据该第一描述符及该第二描述符决定所述多个第二特征点与所述多个地图点之间是否具有一匹配点。
根据本公开一实施例,所述多个第二特征点进一步包含关于该第二描述符的一时间标记,该第一处理器通过加入所述多个地图点的一第一地图点、该第二描述符以及该时间标记更新该地图。
根据本公开一实施例,当所述多个第二特征点匹配到所述多个地图点的数量不大于一门槛值时,该第一电子装置用以传送指示未能估计该第二电子装置的该姿势的一指示符至该第二电子装置。
根据本公开一实施例,该第二电子装置还包含一贯性测量单元,该贯性测量单元用以产生贯性测量的数据,并且该第二处理器用以响应接收到的该指示符而根据贯性测量的数据来评估该第二电子装置的该姿势。
根据本公开一实施例,该第二电子装置传送该第二电子装置的一评估姿势至该第一电子装置。
根据本公开一实施例,该第一处理器通过加入接收到的该第二电子装置的该评估姿势,以及没有匹配到任一所述多个地图点的所述多个第二特征点,来更新该地图。
依据本公开文件的第二实施方式,其公开一种追踪方法,追踪方法包含:利用第一电子装置获取物理环境的多个第一影像;利用第一电子装置从第一影像中提取多个第一特征点,根据提取出的第一特征点产生多个地图点,并根据地图点建立物理环境的地图;利用第二电子装置获取物理环境的第二影像;利用第二电子装置从第二影像中提取多个第二特征点,并传送第二特征点至第一电子装置;利用第一电子装置接收第二特征点,并根据地图以及接收到的第二特征点评估第二电子装置的姿势;其中第二电子装置的姿势包含第二电子装置的至少一位置,以及第二电子装置的方向。
根据本公开一实施例,还包含:利用该第一电子装置传送评估后的该第二电子装置的该姿势至该第二电子装置。
根据本公开一实施例,还包含:当所述多个第二特征点匹配到所述多个地图点的数量大于一门槛值时,利用该第一电子装置评估该第二电子装置的该姿势。
根据本公开一实施例,根据匹配到所述多个第二特征点的所述多个地图点评估该第二电子装置的该姿势。
根据本公开一实施例,还包含:当所述多个第二特征点匹配到所述多个地图点的数量不大于一门槛值时,利用该第一电子装置传送一指示符至该第二电子装置;其中,该指示符指示未能估计该第二电子装置的该姿势。
根据本公开一实施例,该第二电子装置还包含一贯性测量单元,该贯性测量单元用以产生贯性测量的数据,其中该追踪方法还包含:利用该第二电子装置响应接收到的该指示符而根据贯性测量的数据来评估该第二电子装置的该姿势。
根据本公开一实施例,还包含:利用该第二电子装置传送该第二电子装置的一评估姿势至该第一电子装置。
依据本公开文件的第三实施方式,其公开一种追踪系统,追踪系统包含第一电子装置以及第二电子装置。第一电子装置位于物理环境,其包含第一相机单元、第一处理器以及第一通信单元。第一处理器与第一相机单元以及第一通信单元电性耦接。第一相机单元用以获取物理环境的多个第一影像。第一处理器用以从第一影像中提取多个第一特征点,根据提取出的第一特征点产生多个地图点,并根据地图点建立物理环境的地图。第二电子装置位于物理环境,其包含第二相机单元、第二处理器以及第二通信单元。第二处理器与第二相机单元以及第二通信单元电性耦接。第二相机单元用以获取物理环境的第二影像。第二处理器用以从第二影像中提取多个第二特征点。第二通信单元用以传送第二特征点至第一电子装置。其中,第一处理器更用以比较第二特征点与地图点,以判断第二特征点与地图点之中是否存在匹配点,并根据比较结果更新地图。
根据本公开一实施例,每一所述多个地图点包含一第一描述符,该第一描述符指示出对应的地图点的至少一个特征,以及每一所述多个第二特征点包含一第二描述符,该第二描述符指示出对应的第二特征点的至少一个特征,其中该第一处理器用以根据该第一描述符及该第二描述符决定所述多个第二特征点与所述多个地图点之间是否具有该匹配点。
根据本公开一实施例,所述多个第二特征点进一步包含关于该第二描述符的一时间标记,该第一处理器通过加入所述多个地图点的一第一地图点、该第二描述符以及该时间标记更新该地图。
根据本公开一实施例,该第一处理器用以根据匹配到所述多个第二特征点的所述多个地图点评估该第二电子装置的一姿势,以及该第一处理器用以通过加入该第二电子装置评估过的该姿势,以及没有匹配到任一所述多个地图点的所述多个第二特征点,来更新该地图。
根据上述实施方式,追踪系统中的第一电子装置能够计算第二电子装置的位置,以及根据第一电子装置收集的第一特征点和第二电子装置收集的第二特征点建立地图。在上述实施方式中,第二电子装置用以收集物理环境中的第二特征点,并且第二电子装置能够提供第二特征点以改善由第一电子装置建立的地图。因此,第二电子装置不需要具有强大的运算能力来建立地图,本发明允许具有较差运算能力的装置利用SLAM技术定位。
附图说明
为让本发明的上述和其他目的、特征、优点与实施例能更明显易懂,说明书附图的说明如下:
图1是根据本公开的一些实施例所示出的一种追踪系统的方框图;
图2是根据本公开的一些实施例所示出的追踪方法的流程图;
图3是根据本公开的一些实施例所示出的电子装置在物理环境中的视野的示意图;
图4A是根据本公开的一些实施例所示出的影像特征点的示意图;
图4B是根据本公开的一些实施例所示出的地图中的地图点的示意图;
图5A是根据本公开的一些实施例所示出的影像特征点的示意图;
图5B是根据本公开的一些实施例所示出的特征点及地图点间的映射关系的示意图;
图5C是根据本公开的一些实施例所示出的地图中的地图点的示意图;
图6A是根据本公开的一些实施例所示出的追踪方法的流程图;
图6B是根据本公开的另一实施例所示出的图6A的部分流程图;
图7A是根据本公开的一些实施例所示出的影像特征点的示意图;
图7B是根据本公开的一些实施例所示出的特征点及地图点间的映射关系的示意图;以及
图7C是根据本公开的一些实施例所示出的地图中的地图点的示意图。
附图标记说明:
100:定位系统
110、120:电子装置
111、121:相机单元
112、122:处理器
113、123:通信单元
124:贯性测量单元
200:追踪方法
F1、F2、F3:影像
OBJ1、OBJ2、OBJ3:物体
F1P1、F1P2、F1P3、F1P4、F1P5、F2P1、F2P2、F2P3、F2P4、F2P5、F2P6、F3P1、F3P2、F3P3、F3P4、F3P5、F3P6、F3P7:特征点
GM:地图
MP1、MP2、MP3、MP4、MP5、MP6、MP7、MP8、MP9、MP10、MP11、MP12、MP13、MP14:地图点
d1、d2、d3、d4、d5:距离
P1(x,y,z)、MP1(x1,y1,z1)、MP2(x2,y2,z2)、MP3(x3,y3,z3)、MP4(x4,y4,z4)、MP5(x5,y5,z5):坐标
S210~S260、S610~S660、S651、S652A、S653A、S654:步骤
具体实施方式
以下公开提供许多不同实施例或例证用以实施本发明的不同特征。特殊例证中的元件及配置在以下讨论中被用来简化本公开。所讨论的任何例证只用来作解说的用途,并不会以任何方式限制本发明或其例证的范围和意义。此外,本公开在不同例证中可能重复引用数字符号且/或字母,这些重复皆为了简化及阐述,其本身并未指定以下讨论中不同实施例且/或配置之间的关系。
在全篇说明书与权利要求所使用的用词(terms),除有特别注明外,通常具有每个用词使用在此领域中、在此公开的内容中与特殊内容中的平常意义。某些用以描述本公开的用词将于下或在此说明书的别处讨论,以提供本领域技术人员在有关本公开的描述上额外的引导。
关于本文中所使用的“耦接”或“连接”,均可指二或多个元件相互直接作实体或电性接触,或是相互间接作实体或电性接触,而“耦接”或“连接”还可指二或多个元件相互操作或动作。
在本文中,使用第一、第二与第三等等的词汇,是用于描述各种元件、组件、区域、层与/或区块是可以被理解的。但是这些元件、组件、区域、层与/或区块不应该被这些术语所限制。这些词汇只限于用来辨别单一元件、组件、区域、层与/或区块。因此,在下文中的一第一元件、组件、区域、层与/或区块也可被称为第二元件、组件、区域、层与/或区块,而不脱离本发明的本意。如本文所用,词汇“与/或”包含了列出的关联项目中的一个或多个的任何组合。本公开文件中提到的“及/或”是指表列元件的任一者、全部或至少一者的任意组合。
请参阅图1。图1是根据本公开的一些实施例所示出的一种追踪系统100的方框图。如图1所示出,追踪系统100包含电子装置110及120。电子装置110及120位于物理环境,于一实施例中,电子装置110可以实施为头戴式装置(head-mounted device,HMD),电子装置120可以实施为控制装置、智能手机、或与头戴式装置通信连接的电子装置。于一实施例中,电子装置120可被配置为相较于电子装置110具有较少的运算资源(例如,具有较低操作频率限制存储器的处理单元)。
电子装置110包含相机单元111、处理器112以及通信单元113。处理器112电性连接至相机单元111以及通信单元113。电子装置120包含相机单元121、处理器122、通信单元123以及贯性测量单元(Inertial measurementunit,IMU)124。处理器122电性连接至相机单元121、通信单元123以及贯性测量单元124。处理器112及122可以实施为图形处理器、中央处理单元(CPU)、控制电路或图形处理单元。于一些实施例中,相机单元111可包含位于头戴式装置前侧的一相机元件,以及相机单元121可包含位于控制装置、智能手机或头戴式装置上的一相机元件。于一些实施例中,相机单元111及121可包含一双摄相机模块及/或一深度相机。于一些实施例中,通信单元113及123可包含一WiFi收发信机、WiFi-Direct收发信机、蓝牙收发信机、BLE收发信机、Zigbee收发信机、及/或任何适用无线通信的收发信机。
请继续参阅图2。图2是根据本公开的一些实施例所示出的追踪方法200的流程图。于此实施例中,追踪方法200可用以建立物理环境的三维地图,以及计算或评估电子装置110及120的姿势。在本发明中,电子装置110及120的姿势包含电子装置110及120的位置,或电子装置110及120的方向,或电子装置110及120的位置及方向两者皆有包含。
请一并参阅图1、图2。如图2的实施例所示,追踪方法200首先执行步骤S210,利用电子装置110随时间获取物理环境的多个影像F1。请再参考图3,图3是根据本公开的一些实施例所示出的电子装置110及120在物理环境中的视野的示意图。如图3所示的实施例,电子装置110的相机单元用以随时间获取物理环境中的影像F1,影像F1可以被不同的相机姿态获取,为了简单说明图3仅示出一张影像。
接着,追踪方法200执行步骤S220利用电子装置110建立物理环境的地图。在建立地图之前,处理器112更用以从影像F1提取多个特征点。请再参考图4A,图4A是根据本公开的一些实施例所示出的影像F1特征点的示意图,为了方便说明在此仅以一张影像作为示例。于前述的实施例中,处理器112用以根据相机单元111获取的影像F1提取物体OBJ1的特征点F1P1、F1P2、F1P3、F1P4及F1P5。特征点F1P1、F1P2、F1P3、F1P4及F1P5皆包含描述符及特征点F1P1、F1P2、F1P3、F1P4及F1P5在影像F1中的二维(2D)坐标。一般而言,特征点的描述符可以表示为例如角落、斑点、边缘、直线、纹理、颜色等特征,于此实施例中,如果物体OBJ1外表具有绿色的网状纹理,由影像F1提取的特征点F1P1、F1P2、F1P3、F1P4及F1P5也会具有绿色的网状纹理的描述符。在其他实施例中,特征点也可以称作地标(Landmark)。
请参考图4B,图4B是根据本公开的一些实施例所示出的地图GM中的地图点的示意图。于前述实施例中,处理器112提取出特征点F1P1、F1P2、F1P3、F1P4及F1P5,并根据特征点F1P1、F1P2、F1P3、F1P4及F1P5创造地图点MP1、MP2、MP3、MP4及MP5,接着将地图点MP1、MP2、MP3、MP4及MP5加入至地图GM。于一些实施例中,地图点MP1、MP2、MP3、MP4及MP5具有特征点F1P1、F1P2、F1P3、F1P4及F1P5的数据(描述符以及二维坐标)以及三维(3D)坐标。此处特征点的描述符也是相应于地图点的描述符。如图4B所示,电子装置110的三维坐标表示为P1(x,y,z),电子装置110的坐标在某一时点(例如,当电子装置110启动时)可被设为地图GM的坐标系统的原点(0,0,0),意即x=y=z=0。相对于原点,地图点MP1的坐标为(x1,y1,z1),地图点MP2的坐标为(x2,y2,z2),地图点MP3的坐标为(x3,y3,z3),地图点MP4的坐标为(x4,y4,z4)以及地图点MP5的坐标为(x5,y5,z5)。以地图点MP1为例描述如何决定地图点MP1的坐标(x1,y1,z1),假设电子装置110于原点时获取到影像F1,x1及y1的值可以根据特征点F1P1的二维坐标得知,详细的计算方法是现有技术,在此不多作赘述。再者,z1的值可以由地图点MP1与电子装置110间的距离d1得知,也就是说z1等于距离d1,因此经由上述的方法就可以得出x1、y1及z1的值。以类似的方式,地图点MP2、MP3、MP4及MP5的三维坐标也可以被得知,于一实施例中,距离d1、d2、d3、d4及d5可经由相机单元111中包含的深度相机(图中未示出)得知,举例来说,当相机单元获取到影像F1时,深度相机可以同时获取影像以提供特征点F1P1-F1P5的深度信息,其可被用来估计距离d1-d5。于另一实施例中,距离d1-d5可根据视差得知,在此情况中,可根据相机单元111在不同时点的位移(例如,水平位移)来计算出视差,举例而言,于一时点相机单元111获取X物体及Y物体的影像,于另一时点相机单元111移动至另一位置(例如,水平移动)并获取X物体及Y物体的另一张影像,因此两张影像的X物体具有第一移动差距,两张影像的Y物体具有第二移动差距,并且如果X物体相较于Y物体较靠近相机单元111,第一移动差距就会大于第二移动差距,因此,相机单元111与X物体的距离以及相机单元111与Y物体的距离就可被计算得出。因此如果X物体包含特征点F1P1以及Y物体包含特征点F1P2,距离d1及d2即可得知,距离d3-d5也可以利用类似方式计算得知。于一些实施例中,如果当电子设备110处于另一姿势(例如,另一位置和/或方向)而非于原点时获取影像F1,则上述决定三维坐标的方式(例如,深度相机或视差)应当被转换,使得它们仍可以被用来作为地图点的三座坐标。这种转换是反映出从原点到另一姿势的移动,是属于现有技术在此不再赘述。
接着,追踪方法200执行步骤S230及步骤S240利用电子装置120获取物理环境的影像F2,接着利用电子装置120中提取影像F2的多个特征点,并传送特征点至电子装置110。接着请参考图5A,图5A是根据本公开的一些实施例所示出的影像F2特征点的示意图。如图5A所示,处理器122用以从相机单元121获取的影像F2中提取物体OBJ1的特征点F2P1、F2P2以及物体OBJ2的特征点F2P3、F2P4、F2P5、F2P6。通信单元123用以传送特征点F2P1、F2P2、F2P3、F2P4、F2P5及F2P6至通信单元113。
接着,追踪方法200执行步骤S250及步骤S260利用通信单元113接收影像F2的特征点,接着利用电子装置110根据地图GM以及影像F2的特征点评估电子装置120的姿势(位置及/或方向)。请参考图5B,图5B是根据本公开的一些实施例所示出的特征点及地图点间的映射关系的示意图。于一实施例中,当评估电子装置120的姿势时,处理器112首先比较接收到的影像F2的特征点F2P1、F2P2、F2P3、F2P4、F2P5及F2P6与地图GM中的地图点MP1-MP5,以决定是否有匹配点,接着根据比较结果,处理器112执行追踪演算法以评估电子装置120的姿势,在此提及的追踪演算法是任何可应用的追踪演算法,其通过使用类似于下面提到的匹配的地图点来追踪物体的姿态。如图5B所示,特征点F2P1及F2P2的描述符具有绿色的网状纹理以及角落,特征点F2P3及F2P4的描述符具有棕色的点状纹理以及角落,特征点F2P5及F2P6的描述符具有棕色的点状纹理以及直线,特征点F2P1与地图点MP1具有相似的描述符(例如,网状纹理以及角落),因此,处理器112判定特征点F2P1匹配至地图点MP1。基于类似的理由,由于特征点F2P2和地图点MP5具有相似的描述符,处理器112判定特征点F2P2匹配至地图点MP5。
于一实施例中,当处理器112将特征点F2P1及F2P2匹配至地图点MP1及MP5时,将特征点F2P1及F2P2加入至地图点MP1及MP5以更新或改善地图GM。一般而言,地图GM通过匹配到的特征点被不断地更新,特征点是从相机单元111及121获取影像中提取。
于一实施例中,地图点MP1包含两个描述符以及两个时间标记,其中一个描述符从与影像F1有关的第一时间标记(例如,2018041903040018)的特征点F1P1获得,另一个描述符从与影像F2有关的第二时间标记(例如,2018041903040023)的特征点F2P1获得。第一时间标记及第二时间标记是分别根据特征点F1P1及F1P2被获取的影像的时点所产生,当来自不同图像的特征点匹配到相同的地图点时,地图中地图点的描述符将更精确并且更接近物理环境的当前状态。举例而言,特征点F2P1的描述符可包含不同特征或甚至是比特征点F1P1更多的特征,这也反映了在不同时间标记对应地图点的不同状态。
于另一实施例中,地图点MP1包含特定数量的描述符(例如,N个描述符)以及与最新N个时间标记,在此状况中,当有多于N个描述符匹配到相同的地图点时,最新的描述符将替换同一地图点中较早的描述符。
于一实施例中,尽管特征点F2P3、F2P4、F2P5及F2P6与任何地图点MP1-MP5都不匹配,但他们仍然可以转换成如图5C所示的地图点MP6、MP7、MP8及MP9。转换的方法类似于前述图4B所示的实施例,举例而言,如果电子装置120的相机单元121包含深度相机,于是电子装置120可以将影像F2的特征点F2P3-F2P6连同它们的深度信息一起传送给电子装置110,深度信息可以用来决定特征点F2P3-F2P6与电子装置120之间的距离。接着特征点F2P3-F2P6可根据计算出的距离、特征点F2P3-F2P6的二维坐标以及步骤S260中估计的电子装置120的相应姿势转换成地图点MP6-MP9。于另一实施例中,特征点F2P3-F2P6(包含描述符、二维坐标、时间标记等)可以与在步骤S260中估计出的电子装置120的相应的姿势一起存储至地图GM中,并在之后等待被转换成地图点MP6-MP9。进一步来说,如果之后在电子装置110上获得影像F4的特征点F4P1(图中未示出),其匹配到特征点F2P3-F2P6的其中之一(例如,F2P3)以及对应于电子装置110或120的姿势(取决于获取到影像F4的装置是电子装置110或120),接着特征点F2P3可以根据特征点F2P3及F4P1及其相对应的姿势转换成地图点MP6,此转换方式是现有技术在此不再赘述。
请再继续参考图6A及图6B,图6A是根据本公开的一些实施例所示出的追踪方法的流程图,以及图6B是根据本公开的另一实施例所示出的图6A的部分流程图。如图6A所示,步骤S610至步骤S650与步骤S210至步骤S250相似。两者的差异在于相机单元121获取的影像不同。请再参考图7A至图7C,图7A是根据本公开的一些实施例所示出的影像F3特征点的示意图,图7B是根据本公开的一些实施例所示出的特征点及地图点间的映射关系的示意图,以及图7C是根据本公开的一些实施例所示出的地图GM中的地图点的示意图。
当相机单元121获取影像F3并传送至处理器122,处理器122用以根据影像F3提取物体OBJ2的特征点F3P1、F3P2、F3P3,以及物体OBJ3的特征点F3P4、F3P5、F3P6、F3P7。通信单元123用以传送特征点F3P1、F3P2、F3P3、F3P4、F3P5、F3P6及F3P7至通信单元113。
根据前述的实施例,处理器112用以决定特征点F3P1-F3P7是否匹配至任一地图点MP1-MP9,如图7B所示,特征点F3P1及F3P2的描述符具有棕色的点状纹理以及直线,特征点F3P3的描述符具有棕色的点状纹理以及角落,特征点F3P4、F3P5的描述符具有蓝色的加号状纹理(例如“+”)以及角落,特征点F3P6、F3P7的描述符具有蓝色的加号状纹理(例如“+”)以及边缘。因此,特征点F3P1被决定与地图点MP8匹配,特征点F3P2被决定与地图点MP9匹配。
接着,追踪方法600进一步执行步骤S651判断影像F3的特征点匹配到地图点的数量是否大于门槛值。于一实施例中,如图7B所示,当处理器112将特征点F3P1及F3P2与地图点MP8及MP9匹配时,将特征点F3P1及F3P2加入至地图点MP8及MP9用以改善地图GM(例如,加入关于地图点MP8及MP9的新描述符以及时间标记)。于步骤S651中,处理器112计算影像F3的特征点匹配到地图点的数量。于图7B中,影像F3的特征点F3P1及F3P2匹配到地图点的数量为2(意即特征点F3P1及F3P2),如果门槛值设定为1(例如,小于匹配到的特征点的数量),接着处理器112进一步执行步骤S660,根据匹配到的地图点(例如,MP8及MP9)评估电子装置120的姿势。门槛值取决于所使用的追踪演算法,并且本发明不限于任何特定的追踪演算法。因此,在此的门槛值仅只是示例性的,本发明的范围不限于此。
接着,如果门槛值(与地图点匹配的图像的特征点数量)为4,影像F3的特征点匹配到地图点的数量不大于门槛值时,因此电子装置110更用以执行步骤S652A传送指示符至电子装置120,接着处理器122执行步骤S653A用以响应从电子装置110接收到的指示符而根据贯性测量的数据来评估自己的姿势。当影像F3的特征点匹配到地图点的数量不大于门槛值时,指示符指示未能估计电子装置120的姿势。指示符是用以告诉电子装置120自行评估自身的姿势,因此,处理器122用以根据贯性测量的数据来评估电子装置120的姿势,贯性测量的数据是由贯性测量单元124所产生,贯性测量单元124可以进一步提供手势或电装置120的动作数据,并且处理器122可以根据贯性测量单元124的数据来评估姿势。因此,即使没有据有更强大计算能力的电子装置的帮助,电子装置120仍然可以追踪自己的姿势。
接着,追踪方法600更用以执行步骤S654利用通信单元123传送电子装置120的评估姿势置电子装置110。因此,当电子装置110未能通过从电子装置120发送的特征点进行跟踪时,电子装置110仍然可以追踪电子装置120的姿势。当影像F3的品质不够好时,可能会发生匹配到的特征点不足的情况(例如,电子装置120的快速移动),尽管仅利用贯性测量的数据估计姿势的准确度可能有限,但其可以避免电子装置120失去追踪,特别是影像品质的问题可能是暂时的。
于一实施例中,如图7B所示,尽管特征点F3P3、F3P4、F3P5及F3P9并未匹配到任何地图点MP1-MP9,但他们仍然可以被转换成如图7C所示的地图点MP10、MP11、MP12、MP13及MP14,从特征点转换成地图点的转换方法已如前述实施例所述(如图4B所示),举例而言,如果电子装置120的相机单元121包含深度相机,接的电子装置120可以将影像F3的特征点F3P3-F3P7及他们的深度信息一起传送至电子装置110,深度信息可以用来决定特征点F3P3-F3P7与电子装置120之间的距离。接着,特征点F3P3-F3P7可根据计算出的距离、特征点F3P3-F3P7的二维坐标以及在步骤S660中估计出或在步骤S654中从电子装置120接收到的电子装置120的相应姿势转换成地图点MP10-MP14。于另一实施例中,特征点F3P3-F3P7(包含描述符、二维坐标、时间标记等)可以与在步骤S660中估计出或在步骤S654中从电子装置120接收到的电子装置120的相应的姿势一起存储至地图GM中,并在之后等待被转换成地图点MP6-MP9。进一步来说,如果之后在电子装置110上获得影像F5的特征点F5P1(图中未示出),其匹配到特征点F3P3-F3P7的其中之一(例如,F3P3)以及对应于电子装置110或120的姿势(取决于获取到影像F5的装置是电子装置110或120),接着特征点F3P3可以根据特征点F3P3及F5P1及其相对应的姿势转换成地图点MP10,此转换方式是现有技术在此不再赘述。
于一些实施例中,在追踪方法200及600中,电子装置120不会从影像F2及F3中提取特征点,并且传送特征点至电子中置110。相反的,电子装置120传送完整的或压缩过的影像F2及F3至电子装至110,电子装至110可以从接收到的完整或压缩过的影像中提取特征点,追踪方法200及600的其他步骤则保持不变。
另外,上述例示包含依序的示范步骤,但所述多个步骤不必依所显示的顺序被执行。以不同顺序执行所述多个步骤皆在本公开内容的考量范围内。在本公开内容的实施例的构思与范围内,可视情况增加、取代、变更顺序及/或省略所述多个步骤。
虽然本公开已以实施方式公开如上,然其并非用以限定本公开,任何本领域技术人员,在不脱离本公开的构思和范围内,当可作各种的变动与润饰,因此本公开的保护范围当视后附的权利要求所界定者为准。

Claims (21)

1.一种追踪系统,其特征在于,包含:
一第一电子装置,位于一物理环境,该第一电子装置包含:
一第一相机单元,用以获取该物理环境的多个第一影像;
一第一处理器,与该第一相机单元耦接,并用以从所述多个第一影像中提取多个第一特征点,根据提取出的所述多个第一特征点产生多个地图点,并根据所述多个地图点建立该物理环境的一地图;以及
一第一通信单元,与该第一处理器耦接;以及
一第二电子装置,位于该物理环境,该第二电子装置包含:
一第二相机单元,用以获取该物理环境的一第二影像;
一第二处理器,与该第二相机单元耦接,用以从该第二影像中提取多个第二特征点;以及
一第二通信单元,与该第二处理器耦接,用以传送所述多个第二特征点至该第一电子装置;
其中,该第一通信单元用以接收所述多个第二特征点,该第一处理器更用以根据该地图以及接收到的所述多个第二特征点评估该第二电子装置的一姿势;
其中,该第二电子装置的该姿势包含该第二电子装置的至少一位置,以及该第二电子装置的一方向。
2.如权利要求1所述的追踪系统,其特征在于,该第一通信单元用以传送评估后的该第二电子装置的该姿势至该第二电子装置。
3.如权利要求1所述的追踪系统,其特征在于,当所述多个第二特征点匹配到所述多个地图点的数量大于一门槛值时,该第一处理器用以评估该第二电子装置的该姿势。
4.如权利要求3所述的追踪系统,其特征在于,该第一处理器用以根据匹配到所述多个第二特征点的所述多个地图点评估该第二电子装置的该姿势。
5.如权利要求3所述的追踪系统,其特征在于,每一所述多个地图点包含一第一描述符,该第一描述符指示出对应的地图点的至少一个特征,以及每一所述多个第二特征点包含一第二描述符,该第二描述符指示出对应的第二特征点的至少一个特征,其中该第一处理器用以根据该第一描述符及该第二描述符决定所述多个第二特征点与所述多个地图点之间是否具有一匹配点。
6.如权利要求5所述的追踪系统,其特征在于,所述多个第二特征点进一步包含关于该第二描述符的一时间标记,该第一处理器通过加入所述多个地图点的一第一地图点、该第二描述符以及该时间标记更新该地图。
7.如权利要求1所述的追踪系统,其特征在于,当所述多个第二特征点匹配到所述多个地图点的数量不大于一门槛值时,该第一电子装置用以传送指示未能估计该第二电子装置的该姿势的一指示符至该第二电子装置。
8.如权利要求7所述的追踪系统,其特征在于,该第二电子装置还包含一贯性测量单元,该贯性测量单元用以产生贯性测量的数据,并且该第二处理器用以响应接收到的该指示符而根据贯性测量的数据来评估该第二电子装置的该姿势。
9.如权利要求8所述的追踪系统,其特征在于,该第二电子装置传送该第二电子装置的一评估姿势至该第一电子装置。
10.如权利要求9所述的追踪系统,其特征在于,该第一处理器通过加入接收到的该第二电子装置的该评估姿势,以及没有匹配到任一所述多个地图点的所述多个第二特征点,来更新该地图。
11.一种追踪方法,其特征在于,包含:
利用一第一电子装置获取一物理环境的多个第一影像;
利用该第一电子装置从所述多个第一影像中提取多个第一特征点,根据提取出的所述多个第一特征点产生多个地图点,并根据所述多个地图点建立该物理环境的一地图;
利用一第二电子装置获取该物理环境的一第二影像;
利用该第二电子装置从该第二影像中提取多个第二特征点,并传送所述多个第二特征点至该第一电子装置;以及
利用该第一电子装置接收所述多个第二特征点,并根据该地图以及接收到的所述多个第二特征点评估该第二电子装置的一姿势;
其中,该第二电子装置的该姿势包含该第二电子装置的至少一位置,以及该第二电子装置的一方向。
12.如权利要求11所述的追踪方法,其特征在于,还包含:
利用该第一电子装置传送评估后的该第二电子装置的该姿势至该第二电子装置。
13.如权利要求11所述的追踪方法,其特征在于,还包含:
当所述多个第二特征点匹配到所述多个地图点的数量大于一门槛值时,利用该第一电子装置评估该第二电子装置的该姿势。
14.如权利要求13所述的追踪方法,其特征在于,根据匹配到所述多个第二特征点的所述多个地图点评估该第二电子装置的该姿势。
15.如权利要求11所述的追踪方法,其特征在于,还包含:
当所述多个第二特征点匹配到所述多个地图点的数量不大于一门槛值时,利用该第一电子装置传送一指示符至该第二电子装置;
其中,该指示符指示未能估计该第二电子装置的该姿势。
16.如权利要求15所述的追踪方法,其特征在于,该第二电子装置还包含一贯性测量单元,该贯性测量单元用以产生贯性测量的数据,其中该追踪方法还包含:
利用该第二电子装置响应接收到的该指示符而根据贯性测量的数据来评估该第二电子装置的该姿势。
17.如权利要求16所述的追踪方法,其特征在于,还包含:
利用该第二电子装置传送该第二电子装置的一评估姿势至该第一电子装置。
18.一种追踪系统,其特征在于,包含:
一第一电子装置,位于一物理环境,该第一电子装置包含:
一第一相机单元,用以获取该物理环境的多个第一影像;
一第一处理器,与该第一相机单元耦接,并用以从所述多个第一影像中提取多个第一特征点,根据提取出的所述多个第一特征点产生多个地图点,并根据所述多个地图点建立该物理环境的一地图;以及
一第一通信单元,与该第一处理器耦接;以及
一第二电子装置,位于该物理环境,该第二电子装置包含:
一第二相机单元,用以获取该物理环境的一第二影像;
一第二处理器,与该第二相机单元耦接,用以从该第二影像中提取多个第二特征点;以及
一第二通信单元,与该第二处理器耦接,用以传送所述多个第二特征点至该第一电子装置;
其中,该第一通信单元用以接收所述多个第二特征点,该第一处理器更用以比较所述多个第二特征点与所述多个地图点,以判断所述多个第二特征点与所述多个地图点之中是否存在一匹配点,并根据一比较结果更新该地图。
19.如权利要求18所述的追踪系统,其特征在于,每一所述多个地图点包含一第一描述符,该第一描述符指示出对应的地图点的至少一个特征,以及每一所述多个第二特征点包含一第二描述符,该第二描述符指示出对应的第二特征点的至少一个特征,其中该第一处理器用以根据该第一描述符及该第二描述符决定所述多个第二特征点与所述多个地图点之间是否具有该匹配点。
20.如权利要求19所述的追踪系统,其特征在于,所述多个第二特征点进一步包含关于该第二描述符的一时间标记,该第一处理器通过加入所述多个地图点的一第一地图点、该第二描述符以及该时间标记更新该地图。
21.如权利要求18所述的追踪系统,其特征在于,该第一处理器用以根据匹配到所述多个第二特征点的所述多个地图点评估该第二电子装置的一姿势,以及该第一处理器用以通过加入该第二电子装置评估过的该姿势,以及没有匹配到任一所述多个地图点的所述多个第二特征点,来更新该地图。
CN201810410660.5A 2017-04-28 2018-05-02 追踪系统及方法 Active CN108801243B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201762491269P 2017-04-28 2017-04-28
US201762491268P 2017-04-28 2017-04-28
US62/491,268 2017-04-28
US62/491,269 2017-04-28

Publications (2)

Publication Number Publication Date
CN108801243A true CN108801243A (zh) 2018-11-13
CN108801243B CN108801243B (zh) 2021-05-25

Family

ID=63916258

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810410660.5A Active CN108801243B (zh) 2017-04-28 2018-05-02 追踪系统及方法

Country Status (3)

Country Link
US (1) US10600206B2 (zh)
CN (1) CN108801243B (zh)
TW (1) TWI660156B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022036980A1 (zh) * 2020-08-17 2022-02-24 浙江商汤科技开发有限公司 位姿确定方法、装置、电子设备、存储介质及程序
WO2023221878A1 (zh) * 2022-05-20 2023-11-23 华为技术有限公司 一种地磁信号采集方法及其相关装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111209353B (zh) * 2018-11-21 2024-06-14 驭势科技(北京)有限公司 一种视觉定位地图加载方法、装置、系统和存储介质
US11178531B2 (en) 2019-03-26 2021-11-16 International Business Machines Corporation Link devices using their relative positions
US11182647B2 (en) * 2019-10-16 2021-11-23 Facebook Technologies, Llc. Distributed sensor module for tracking
CN111798489B (zh) * 2020-06-29 2024-03-08 北京三快在线科技有限公司 一种特征点跟踪方法、设备、介质及无人设备
TWI826118B (zh) * 2022-11-15 2023-12-11 宏碁股份有限公司 提供裸視3d內容的系統及方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101965576A (zh) * 2008-03-03 2011-02-02 视频监控公司 用于追踪、索引及搜寻的物件匹配
US8531519B1 (en) * 2012-09-06 2013-09-10 Google Inc. Automatic multi-device localization and collaboration using cameras
CN104221031A (zh) * 2011-11-18 2014-12-17 美塔欧有限公司 将影像特征与参考特征相匹配之方法及其所用集成电路
CN105869136A (zh) * 2015-01-22 2016-08-17 北京雷动云合智能技术有限公司 一种基于多摄像机的协作式视觉slam方法
CN105953798A (zh) * 2016-04-19 2016-09-21 深圳市神州云海智能科技有限公司 移动机器人的位姿确定方法和设备
CN106161934A (zh) * 2016-07-14 2016-11-23 小绿草股份有限公司 影像追踪装置及方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6567116B1 (en) * 1998-11-20 2003-05-20 James A. Aman Multiple object tracking system
TWI492188B (zh) * 2008-12-25 2015-07-11 Univ Nat Chiao Tung 利用多攝影機自動偵測與追蹤多目標的方法及系統
US9497443B1 (en) * 2011-08-30 2016-11-15 The United States Of America As Represented By The Secretary Of The Navy 3-D environment mapping systems and methods of dynamically mapping a 3-D environment
TWI496114B (zh) * 2012-11-23 2015-08-11 Univ Nat Taiwan 影像追蹤裝置及其影像追蹤方法
US9269003B2 (en) * 2013-04-30 2016-02-23 Qualcomm Incorporated Diminished and mediated reality effects from reconstruction
US20150103183A1 (en) * 2013-10-10 2015-04-16 Nvidia Corporation Method and apparatus for device orientation tracking using a visual gyroscope
EP3259341B1 (en) * 2015-02-18 2021-01-27 Siemens Healthcare Diagnostics Inc. Image-based tube slot circle detection for a vision system
US20160260250A1 (en) * 2015-03-05 2016-09-08 Dejan Jovanovic Method and system for 3d capture based on structure from motion with pose detection tool
JP6464934B2 (ja) * 2015-06-11 2019-02-06 富士通株式会社 カメラ姿勢推定装置、カメラ姿勢推定方法およびカメラ姿勢推定プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101965576A (zh) * 2008-03-03 2011-02-02 视频监控公司 用于追踪、索引及搜寻的物件匹配
CN104221031A (zh) * 2011-11-18 2014-12-17 美塔欧有限公司 将影像特征与参考特征相匹配之方法及其所用集成电路
US8531519B1 (en) * 2012-09-06 2013-09-10 Google Inc. Automatic multi-device localization and collaboration using cameras
CN105869136A (zh) * 2015-01-22 2016-08-17 北京雷动云合智能技术有限公司 一种基于多摄像机的协作式视觉slam方法
CN105953798A (zh) * 2016-04-19 2016-09-21 深圳市神州云海智能科技有限公司 移动机器人的位姿确定方法和设备
CN106161934A (zh) * 2016-07-14 2016-11-23 小绿草股份有限公司 影像追踪装置及方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022036980A1 (zh) * 2020-08-17 2022-02-24 浙江商汤科技开发有限公司 位姿确定方法、装置、电子设备、存储介质及程序
WO2023221878A1 (zh) * 2022-05-20 2023-11-23 华为技术有限公司 一种地磁信号采集方法及其相关装置

Also Published As

Publication number Publication date
TWI660156B (zh) 2019-05-21
TW201839356A (zh) 2018-11-01
US20180315211A1 (en) 2018-11-01
US10600206B2 (en) 2020-03-24
CN108801243B (zh) 2021-05-25

Similar Documents

Publication Publication Date Title
CN108801243A (zh) 追踪系统及方法
US11762887B2 (en) Information processing device, map update method, program, and information processing system
US11450102B2 (en) System and method for spatially mapping smart objects within augmented reality scenes
US20150154447A1 (en) Fusing device and image motion for user identification, tracking and device association
CN105143907A (zh) 定位系统和方法
KR20180101746A (ko) 증강 현실 컨텐츠를 제공하기 위한 방법, 전자 기기 및 시스템
CN102692236A (zh) 基于rgb-d相机的视觉里程计方法
CN104090263B (zh) 基于rfid技术的定位方法、系统
CN111459269B (zh) 一种增强现实显示方法、系统及计算机可读存储介质
TW202115366A (zh) 機率性多機器人slam的系統及方法
JP7166446B2 (ja) ロボットの姿勢を推定するシステムおよび方法、ロボット、並びに記憶媒体
US11012841B2 (en) Match bluetooth low energy (BLE) moving patterns
CN104331078B (zh) 一种基于位置映射算法的多机器人协作定位方法
US10841895B2 (en) Terminal device for position measurement, computer program, and system
Caldini et al. Smartphone-based obstacle detection for the visually impaired
US20180342109A1 (en) Determining full-body pose for a virtual reality environment
EP3396594B1 (en) Tracking system and method thereof
Adhivarahan et al. WISDOM: WIreless sensing-assisted distributed online mapping
CN112633143B (zh) 图像处理系统、方法、头戴设备、处理设备及存储介质
CN114187509B (zh) 对象定位方法、装置、电子设备以及存储介质
JP7140710B2 (ja) 情報端末装置及びプログラム
CN101777182B (zh) 坐标循环逼进式正交摄像机系统视频定位方法及系统
Koc et al. Indoor mapping and positioning using augmented reality
Zhang et al. Passive 3D reconstruction based on binocular vision
EP4258766A1 (en) Data processing method and apparatus

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant