CN113906270A - 基于路径的绘图与路由的方法和系统 - Google Patents

基于路径的绘图与路由的方法和系统 Download PDF

Info

Publication number
CN113906270A
CN113906270A CN202080041139.4A CN202080041139A CN113906270A CN 113906270 A CN113906270 A CN 113906270A CN 202080041139 A CN202080041139 A CN 202080041139A CN 113906270 A CN113906270 A CN 113906270A
Authority
CN
China
Prior art keywords
moving object
radar
imu
processor
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202080041139.4A
Other languages
English (en)
Inventor
高塔姆·辛格
约翰·M·克鲁斯
罗纳德·D·耶西
小威廉·J·凯利赫
雅各布·E·奥多姆
亚当·C·尼兰
尼古拉斯·T·加夫列尔
杰森·L·艾尔德森
海伦·哈格-希娜斯
弗兰克·T·赫福特
迈克尔·L·耶勒
拉赫尼特·考尔
伊莱亚斯·威尔肯-雷斯曼
李在容
道格拉斯·A·阿德尔曼
格伦·E·卡斯纳
詹姆斯·D·卡尔森
贾斯廷·通容阿塔姆
卡尔·巴特莱
史蒂文·G·卢赫特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
3M Innovative Properties Co
Original Assignee
3M Innovative Properties Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 3M Innovative Properties Co filed Critical 3M Innovative Properties Co
Publication of CN113906270A publication Critical patent/CN113906270A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1652Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • G01S13/426Scanning radar, e.g. 3D radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • G01S13/876Combination of several spaced transponders or reflectors of known location for determining the position of a receiver
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging

Abstract

本发明提供了基于路径的绘图与路由的系统和方法。基于得自雷达以及包括陀螺仪和加速度计的惯性测量单元(IMU)的感测数据的融合,确定环境中移动物体的平移信息和绝对取向信息,由此可生成基于路径的地图和最佳路线。

Description

基于路径的绘图与路由的方法和系统
背景技术
在许多危险情形下,具有跟踪移动物体(例如,人、车辆等)位置的能力很有用。在户外环境中,基于卫星的无线电导航系统诸如全球定位系统(GPS)广泛用于提供地理定位和时间信息。然而,在许多危险情形下,诸如室内环境,GPS信号可能不可用。此外,这些危险环境中的许多可能无法用上电力或WiFi。这些类型的危险环境的示例可以是着火的建筑物、矿山等。
发明内容
希望提供绘图与路由系统和方法,用以有效地跟踪移动物体,特别是在缺乏可见度、GPS信号、无线网络、无线电信标和/或其它可用于定位移动物体的基础结构的环境中。本公开提供了系统和方法,用以构建基于路径的环境地图,跟踪地图上的移动物体,以及提供从地图上一个地点到地图上另一地点的路线。
在一个方面,本公开描述了一种绘图与路由的方法。该方法包括:提供安装在待由移动物体穿戴的可穿戴包上的传感器组件,该传感器组件包括惯性测量单元(IMU)和射频(RF)雷达单元;经由传感器组件收集感测数据,感测数据包括(i)得自RF雷达单元的一个或多个雷达速度、(ii)得自IMU的移动物体的一个或多个角速度、以及(iii)得自IMU的一个或多个线性加速度;基于感测数据,经由处理器来确定移动物体的平移信息和绝对取向信息;基于所确定的平移信息和所确定的绝对取向信息的组合,经由处理器来确定移动物体的姿势时间序列;以及经由处理器将姿势时间序列组合成移动物体的路径。
在另一方面,本公开描述了一种绘图与路由系统。该系统包括:可穿戴包;安装在待由移动物体穿戴的可穿戴包上的传感器组件,该传感器组件包括惯性测量单元(IMU)和射频(RF)雷达单元,该传感器组件被配置为感测数据,感测数据包括(i)得自RF雷达单元的一个或多个雷达速度、(ii)得自IMU的移动物体的一个或多个角速度、以及(iii)得自IMU的一个或多个线性加速度;以及处理器,该处理器被配置为:基于得自传感器组件的感测数据来确定移动物体的平移信息和绝对取向信息;基于所确定的平移信息和绝对取向信息的组合来确定移动物体的姿势时间序列;以及将姿势时间序列组合成移动物体的路径。
在本公开的示例性实施方案中获取各种意料不到的结果和优点。本公开的示例性实施方案的优点包括例如通过得自惯性测量单元(IMU)、雷达和/或成像相机的传感器数据的融合生成基于路径的地图,该地图可用于生成环境内的建议路线。本文所述的方法和系统对于以下危险环境可能特别有利:GPS或其它定位系统不可用,以及/或者对可见光谱或热源敏感的相机可能无法提供良好的成像信号。
已总结本公开的示例性实施方案的各种方面和优点。上面的发明内容并非旨在描述本公开的当前某些示例性实施方案的每个例示的实施方案或每种实施方式。下面的附图和具体实施方式更具体地举例说明了使用本文所公开的原理的某些优选实施方案。
附图说明
结合附图考虑到以下对本公开的各种实施方案的详细说明可以更全面地理解本公开,其中:
图1是根据一个实施方案的示例性绘图与路由系统的框图。
图2A是根据一个实施方案的多普勒信号的强度的时间序列。
图2B是根据一个实施方案的由扫描“地板体素”估计的移动速度的时间序列。
图3A是根据一个实施方案的传感器组件的侧面透视图。
图3B是根据一个实施方案的附接到安装机构的图3A的传感器组件的示意性侧视图。
图3C是根据一个实施方案的其上安装有图3B的传感器组件的可穿戴包的图解说明。
图4是根据一个实施方案的绘图与路由的方法的流程图。
图5是示出根据一个实施方案的绘图与路由的方法的框图。
图6是根据一个实施方案的通过使用带陀螺仪的加速度计来进行旋转和取向的示意图。
图7是根据一个实施方案的由路径以及该路径上确定的路线生成的2D地图。
图8是根据一个实施方案的绘图与路由系统的用户界面的屏幕截图。
图9是根据另一个实施方案的绘图与路由系统的用户界面的屏幕截图。
图10是根据另一个实施方案的绘图与路由系统的用户界面的屏幕截图。
在附图中,相似的附图标号指示相似的元件。虽然可能未按比例绘制的上述附图示出了本公开的各种实施方案,但还可以设想其它实施方案,如在具体实施方式中所指出。在所有情况下,本公开以示例性实施方案的表示的方式而非通过表述限制来描述当前所公开的公开内容。应当理解,本领域的技术人员可想出许多其它修改和实施方案,这些修改和实施方案落在本公开的范围和实质内。
具体实施方式
本公开提供了系统和方法,用以构建基于路径的环境地图,跟踪地图上的移动物体,以及提供从地图上一个地点到地图上另一地点的路线。本文所述的绘图与路由系统和方法可有效地跟踪移动物体,特别是在缺乏可见度、GPS信号、无线网络、无线电信标和/或其它可用于定位移动物体的基础结构的环境中。
图1是根据一个实施方案的示例性绘图与路由系统100的框图。系统100包括可安装在待由移动物体(例如,人、车辆等)穿戴的可穿戴包上(图1中未示出)的传感器组件10。传感器组件100包括射频(RF)雷达单元12和惯性测量单元(IMU)14,其被配置为收集感测数据,感测数据包括(i)得自RF雷达单元12的一个或多个雷达速度、(ii)得自IMU 14的移动物体的一个或多个角速度、以及(iii)得自IMU 14的移动物体的一个或多个线性加速度。
在图1所描绘的实施方案中,惯性测量单元(IMU)14包括陀螺仪142和加速度计144。通过测量围绕三个轴诸如x轴、y轴和z轴的角速度(例如,弧度/秒),陀螺仪142可感测移动物体的旋转数据。加速度计144可沿x轴、y轴和z轴测量移动物体的线性加速度(例如,米/平方秒)。在一些实施方案中,加速度计144可测量由地球重力引起的加速度,并且提供针对陀螺仪142所测得的旋转数据的重力基准。例如,当所测得的加速度由重力引起时,重力矢量可分解为3个加速度计轴以提供重力基准。
在一些实施方案中,通过测量一个或多个识别物体的一个或多个速度,RF雷达单元12可感测移动物体的平移数据。RF雷达单元12可在例如约76GHz至81GHz的典型频率下工作,该频率比在声速下工作的典型超声传感器的约50kHz高得多。RF雷达单元12可包括例如一个或多个多普勒雷达或任何其它合适的RF雷达。基于多普勒效应,多普勒雷达可测量移动物体在移动时的速度。多普勒效应是基于两个物体之间的相对速度而发生的频率漂移。可对所导出的速率进行积分,以得到移动物体从一个时间到另一时间的相对位置。应当理解,可使用除多普勒雷达之外的合适RF雷达。例如,可使用一个或多个距离测量雷达来测量到可导出速度信息的物体的距离。
在一些实施方案中,RF雷达可安装在移动物体穿戴的可穿戴包上,其中RF雷达以一定角度(即,γ)部分地指向地板。当RF雷达与移动物体一起围绕地板移动时,RF雷达可朝地板或其它周围物体发射RF信号并接收反射信号。反射信号可通过移动物体的运动进行调制。可将所感应的多普勒漂移用于计算移动物体的平移速度或多普勒速度。
图2A示出了当移动物体穿戴RF雷达并在地板上移动约25秒且中间停止一次时多普勒信号强度的时间序列(即,多普勒速度)。在一些实施方案中,可使用滤波方法诸如例如卡尔曼滤波法来去除检测到的多普勒信号中的背景噪声。
在一些实施方案中,通过扫描一个或多个识别物体的雷达图像的时间序列,RF雷达单元12可收集移动物体的平移数据。每次雷达扫描可返回若干反射点,每个反射点具有对应于扫描物体的唯一范围和方位角以及强度。可应用滤波器来返回高强度反射,该高强度反射可相对于前一个雷达帧(例如,按时间计的雷达图像)进行群集和跟踪。使用迭代最近点算法,可匹配按时间计的连续图像,并且检测到的物体或特征之间相对于时间的平移可提供平移数据,例如移动物体的移动速度。
图2B示出了由一系列雷达图像中的扫描“地板体素”估计的移动速度的时间序列。“地板体素”可以是跨越多个距离和方位角的扫描场景/图像的一个体积元素。得自雷达图像的雷达数据集也可包括在范围(距离)和方位角的每次组合时,得自其许多其它体素中的每个体素的类似数据。可由在场景/图像中观察到的除地板之外的其它物体进行类似分析以确定移动速度,并且可将多个此类估计值进行组合以形成平移信息和旋转信息的单次估计。
在一些实施方案中,基于一系列雷达图像的附加平移信息和旋转信息可与得自雷达速度的平移估计值进行组合以得到移动物体的更准确的平移估计值,并且可与得自IMU的旋转信息进行组合以得到移动物体的更准确的取向估计值。
在一些实施方案中,移动物体携带的RF雷达可感测以不同速度移动的周围物体(例如,地板体素、墙壁体素或其它周围物体)。通过跟踪多个雷达图像上的物体,可确定那些跟踪物体的变换(即,平移和旋转两者)。环境中的跟踪物体可以是静态物体,并且跟踪物体的相对运动反映移动物体的运动。此附加变换信息与原始变换信息的融合可用算法如卡尔曼滤波法来进行。
在一些实施方案中,卡尔曼滤波法的应用可能有助于融合多个测量结果以改进预测。例如,除原始变换(例如,得自RF雷达或IMU)之外,环境物体诸如墙壁及其变换可作为附加信息源进行跟踪。在单个时间戳,原始变换的计算过程存在错误时,跟踪环境物体如墙壁可提供另一条信息。
当移动物体从第一位置P1(x1,y1,z1)移动到第二相邻位置P2(x2,y2,z2)时,可由RF雷达单元测量雷达速度的时间序列。基于移动物体的取向信息,可将移动物体的每个所测得的雷达速度分解为x轴、y轴和z轴,如vx、vy和vz。可由下文进一步讨论的惯性测量单元(IMU)14来确定实时取向信息。应当理解,环境中除地板之外的任何其它识别物体也可用于测量移动物体的雷达速度。
在一些实施方案中,传感器组件10可包括一个或多个任选的传感器15,以提供辅助感测数据。任选的传感器包括例如一个或多个成像传感器(例如,热成像传感器、可见光成像传感器等)、一个或多个磁力计等。在一些实施方案中,一个或多个热成像传感器、一个或多个可见光成像传感器或它们的组合可用于捕获环境中周围物体的成像数据。在一些实施方案中,一个或多个磁力计可用于由地球磁场导出信息。由磁力计导出的信息可有助于稳定由IMU提供的绝对取向信息。
传感器组件10收集的感测数据可由处理器20处理。在图1所描绘的实施方案中,处理器20可实现融合部件22,以基于得自传感器组件的感测数据来确定移动物体的平移信息和绝对取向信息,以及基于所确定的平移信息和所确定的绝对取向信息的组合来确定移动物体的姿势时间序列。本文所述的平移信息是指移动物体在3D坐标空间即(x,y,z)坐标中的地点。绝对取向描述了如何相对于3D轴线放置移动物体。
处理器20还可实现路线规划器部件24,以将姿势时间序列组合成移动物体的路径。在一些实施方案中,路线规划器部件24可将路径投影到与周围环境的平面相关联的2维(2D)平面上以生成其2D地图。在一些实施方案中,2D地图可与建筑物中多个层或楼层中的每一者相关联。在一些实施方案中,路线规划器部件24可将路径与周围环境的3维(3D)空间相关联以生成其3D地图。在一些实施方案中,路线规划器部件24可确定由路径导出的最佳或接近最佳的路线。处理器20可输出处理信息以在用户界面(UI)30处显示。
图3A是根据一个实施方案的示例性传感器组件10的侧视图。传感器组件10包括安装在第一板12a上的RF雷达单元12和安装在第二板14a上的IMU 14。RF雷达单元12和IMU 14按已知空间关系进行机械联接。在图3A所描绘的实施方案中,RF雷达单元12和IMU 14分别固定到板12a和板14a上,这两个板被定位成使得RF单元12和IMU 14的取向可始终相对于彼此进行跟踪。RF雷达单元12被定位成以倾斜角度(例如,约45°)指向地板。
图3B是根据一个实施方案的附接到安装机构21的示例性传感器组件10的示意性侧视图。RF雷达单元相对于俯仰平面2倾斜一定角度(例如,约45度),以在移动物体(例如,消防员)竖直行走时或在地板上侧向跨步期间提供相对于地板的非零多普勒漂移。应当理解,安装机构21可具有任何合适的机械构型以将传感器组件安装到移动物体,而不妨碍传感器组件10的感测功能。
图3C是根据一个实施方案的穿戴了其上安装有示例性传感器组件10的可穿戴包200的用户的图解说明。传感器组件10经由安装机构21附接到可穿戴包200。在图3C所描绘的实施方案中,可穿戴包200还包括个人防护装备(PPE)210。典型的PPE可包括例如自备式呼吸器、空气净化装置、背包等。PPE 210还可包括任选的头部件252,该头部件可具有面具内显示器以向穿戴者呈现用户界面。应当理解,可穿戴包200可包括其它类型的PPE或其它功能部件。在一些实施方案中,可穿戴包200可以是被构造成将传感器组件10安装到移动物体(例如,消防员)的可穿戴安装设备。传感器组件10可优选地安装在穿戴者的身体上,而非安装在头上,以便提取平移运动并且使物体不会因头部转动而旋转。
图4是使用本文所述的绘图与路由系统的方法400的流程图。在410处,向移动物体提供传感器组件。一个示例性传感器组件是图1的传感器组件10,其包括惯性测量单元(IMU)、RF雷达单元和其它任选的传感器。在一些实施方案中,传感器组件可安装在待由移动物体穿戴的可穿戴包上。一个示例性可穿戴包200示于图3C中。然后,方法400前进至420。
在420处,传感器组件收集感测数据,包括例如得自RF雷达单元的一个或多个雷达速度、得自IMU的移动物体的一个或多个角速度、得自IMU的一个或多个线性加速度等。在一些实施方案中,基于RF雷达信号的多普勒漂移,可确定雷达速度的时间序列。在一些实施方案中,RF雷达可扫描一个或多个周围物体以获得雷达图像的时间序列。在一些实施方案中,可提供一个或多个6轴IMU,其中每个IMU可感测沿3个加速度计轴的加速度以及围绕3个陀螺仪轴的角速度。然后,方法400前进至430。
在430处,基于得自传感器组件的感测数据,处理器确定移动物体的平移信息和绝对取向信息。在一些实施方案中,基于得自RF雷达的感测数据,可确定移动物体的雷达速度的时间序列。在一些实施方案中,通过对所感测的围绕相应3个陀螺仪轴的角速度进行积分,可确定实时旋转信息。通过将实时旋转信息与沿3个加速度计轴的加速度信息组合,可确定实时绝对取向信息。基于所确定的绝对取向信息,可构建全局坐标系(x,y,z)。所测得的雷达速度中的每个雷达速度可沿全局坐标系的相应x轴、y轴和z轴进行分解。对所分解的雷达速度进行积分可在全局坐标系中获得沿x轴、y轴和z轴的平移信息。然后,方法400前进至440。
在440处,基于所确定的平移信息和绝对取向信息的组合,处理器确定移动物体的姿势时间序列。例如,当移动物体从第一位置P1(x1,y1,z1)移动到第二相邻位置P2(x2,y2,z2)时,可测量雷达速度的时间序列。基于移动物体的对应绝对取向信息,可将移动物体每个所测得的雷达速度分解为x轴、y轴和z轴,如vx、vy和vz。随时间推移对速度vx、vy和vz进行积分可获得位置信息,例如移动物体的坐标(x,y,z)的时间序列。位置信息和绝对取向信息的配对形成了移动物体的姿势信息。然后,方法400前进至450。
在450处,处理器将姿势序列组合成移动物体的路径。例如,当移动物体在环境中从第一位置P1(x1,y1,z1)移动到第二相邻位置P2(x2,y2,z2)时,姿势信息的时间序列可构建从第一位置P1(x1,y1,z1)到第二相邻位置P2(x2,y2,z2)的路径。
基于得自450的路径,可生成环境的各种地图。在一些实施方案中,基于得自环境中一个或多个移动物体的跟踪路径,可构建地图。在一些实施方案中,可将一条或多条路径投影到与周围环境的平面相关联的2维(2D)平面上以生成其2D地图。在一些实施方案中,可将一条或多条路径与周围环境的3维(3D)空间相关联以生成其3D地图。可确定这些地图中任一地图上的两个地点之间的最佳路线。由路径导出的绘图与路由信息可经由用户界面显示给用户。例如,图7示出了当前地点714与目标地点712之间的路线716。路线716基于2D地图700来确定,该地图基于通过跟踪一个或多个在环境中行进的移动物体得到的路径710而构建。
本文所述的绘图与路由的方法可依赖于传感器组件收集的感测数据的融合。图5是示出根据一个实施方案的多传感器数据融合的方法的框图。陀螺仪传感器510在512处提供移动物体的角速度(ωx,ωy,ωz)。雷达传感器520提供移动物体(例如,人)相对于一个或多个周围物体(例如,地板)的一个或多个雷达速度。加速度计传感器530提供移动物体的加速度(ax,ay,az)。将得自传感器510、520和530的感测数据512、522和532提供给处理器的融合部件540,以基于合适的数据融合算法来确定移动物体的实时平移和绝对取向信息。
在一些实施方案中,通过将512处得自陀螺仪传感器510的角速度(ωx,ωy,ωz)与532处得自加速度计传感器530的移动物体的加速度(ax,ay,az)组合,可确定移动物体的绝对取向信息,例如,在550处由四元数(q0,q1,q2,q3)表示的绝对取向信息。在图6所描绘的实施方案中,所测得的得自加速度计传感器的加速度提供重力基准,其中可确定陀螺仪传感器的3个轴(x,y,z)与重力基准之间的角度。对相对于重力基准的角速度(ωx,ωy,ωz)进行积分可提供移动物体的绝对取向信息(q0,q1,q2,q3)。在没有重力基准的情况下,陀螺仪传感器可提供相对取向,例如,可检测到移动物体取向的实时变化。此方法的一个缺点是,由于积分误差和陀螺仪的有限精度,结果可能随时间而变化。通过建立全局坐标系并确定绝对或明确的取向信息,本文所述的陀螺仪和加速度计组合可克服此类技术缺点。
可将550处的绝对取向信息(q0,q1,q2,q3)应用于雷达传感器520在522处测得的一个或多个雷达速度,以确定移动物体的姿势信息的时间序列,即,确定移动物体的实时位置和绝对取向两者。在560处,基于移动物体的对应绝对取向信息,可将移动物体每个所测得的雷达速度分解为x轴、y轴和z轴,如vx、vy和vz。随时间推移对速度vx、vy和vz进行积分可获得移动物体在环境中的路径570,例如移动物体在全局坐标系中的坐标(x,y,z)的时间序列。
例如,在一个实施方案中,雷达传感器可安装在移动物体所穿戴的可穿戴包上,从而以一个指向角指向地板。雷达传感器相对于地板平面的指向角(例如,γ)可由IMU基于绝对取向信息(q0,q1,q2,q3)动态地确定。当移动物体移动通过空间时,例如通过使用余弦函数(余弦(γ))来计算移动物体平行于地板的前向速率,可动态地确定移动物体沿路径的前向速率(即,平行于地板平面的平移速率)。随时间推移对移动物体的前向速率进行积分可获得移动物体在地板上的路径,例如移动物体在地板上的坐标(x,y)的时间序列。
所获得的路径可用于创建一个或多个2维(2D)或3维(3D)地图。这些地图可提供处于移动物体可导航的环境(例如,建筑物)之内的区域。图7示出了楼层702上的2D地图700,该地图基于当移动物体在楼层702上移动时所获得的路径。2D地图700提供了楼层702上的各种路径,移动物体可导航这些路径,并且这些路径可用于创建从楼层702上的一个地点到另一地点的路线。
在一些实施方案中,可采用合适的搜索算法来从地图最佳地确定路线。在一些实施方案中,可使用A*算法自动地确定并呈现具有给定起始地点和目标地点的路线。A*算法是已知的搜索算法,其可通过将环境表示为节点图线来制定路径规划,在节点图线中,节点之间的边是可遍历的路径。应当理解,除A*算法之外的任何合适的搜索算法可用于从一个或多个在环境中行进的移动物体的路径/地图确定路线。
在一些实施方案中,自动确定的路线就基于地图行进的距离而言可具有尽可能最少的成本,或者其可以基于成本因素的不同组合。所生成的“最短出口路线”的一个示例可见于图7,其中确定了2D地图700的当前地点714与目标地点712之间的路线716,该地图基于通过跟踪一个或多个在环境中行进的移动物体得到的路径710而构建。
在一些实施方案中,经由用户界面,可向用户显示自动确定的路径/路线/地图。基于对系统收集的绘图信息进行的一些可视化,用户可修正系统推荐的路径/路线。
在一些实施方案中,可创建3D地图以正确地表示移动物体所处的3D环境,包括路径的一个或多个垂直高度,例如多层建筑物不同楼层之间的楼梯上升/下降。对垂直高度的此类跟踪可通过如下方式实现:随时间推移对速度vx、vy和vz进行积分,以获得移动物体沿路径垂直高度(例如,沿z轴)的3D路径。
通过由在移动物体周围环境中观察到的特征(例如,建筑物内部的墙壁、地板、天花板等)导出的一些基于结构的地图信息,可扩充所获得的路径/路线/地图。在一些实施方案中,一个或多个成像传感器诸如例如热成像传感器、可见光成像传感器等可用于捕获环境中周围物体的成像数据。所捕获的图像/数据可用于构建环境的3D点位图。例如,在一些实施方案中,3D地图可基于超过移动物体行进之处的热成像数据、可见光成像数据、雷达检测到的物体数据或它们的任意组合来构建,并且可包括周围环境诸如例如房间、过道等的地图。
在一些实施方案中,运动恢复结构法可利用传感器图像(例如,热成像数据、可见光成像数据等)中的视觉特征来跟踪环境中的周围物体在图像帧上的2D位置。当成像传感器与移动物体一起移动以捕获图像时,运动恢复结构法可从图像帧的时间序列跟踪目标特征的位置。使用得自帧的2D跟踪位置,系统可对目标特征的3D相对位置进行三角测量以构建环境(例如,墙壁、地板、天花板、房间、过道等)的点云。
在一些实施方案中,可提供智能环境监视器来监视环境的相关方面,例如,以确定环境是否具有低可见度。可应用合适的计算机视觉技术来检测环境的相关方面,诸如例如环境中的浓烟。基于监视器对环境的感知,系统可确定得自传感器组件的各种传感器的感测数据的相对权重。例如,系统可确定将什么成像模式(例如,热或可见光)与IMU和/或RF雷达单元一起用作辅助传感器。
在一些实施方案中,智能环境监视器可用于更好地瞄准环境中待跟踪的正确类型的特征。例如,当智能环境监视器确定环境具有低可见对比度时,例如,在墙壁和天花板涂有统一颜色并且地板上没有纹理的过道中,智能环境监视器可调用热成像传感器来捕获热成像数据,而不使用可见光成像传感器。当智能环境监视器确定环境中的目标特征的热对比度低时,智能环境监视器可调用可见光成像传感器来捕获可见光成像数据,而不使用热成像传感器。这样,系统可智能地监视环境并选择合适的成像传感器(例如,热感相机、可见光相机或它们的组合),以更好地跟踪环境中正确类型的特征。
在一些实施方案中,环境中周围物体的成像数据(例如,热成像数据或可见光成像数据)可与得自IMU和RF雷达的感测数据组合,以在成像数据可用时向用户提供附加信息。在一些实施方案中,可利用成像数据来去除IMU和雷达感测数据中的信号噪声。
可提供用户界面,以将由路径/地图导出的绘图与路由信息传送给用户。在一些实施方案中,用户界面可提供为可穿戴的抬头可视型用户界面。用户界面可为移动物体提供持续更新的导航信息,例如指明目的地处的路径的动态箭头或去往目的地的路标点。图8是根据一个实施方案的绘图与路由系统的用户界面800的屏幕截图。示例性用户界面800向环境中的移动物体(例如,消防员)提供绘图与路由信息。用户界面800可经由功能性地连接到图1的处理器20的可穿戴设备(例如,面具内显示器)显示给用户(例如,消防员)。在图8所描绘的实施方案中,用户界面800包括指明在环境中应走哪条路的动态箭头810。经由用户界面800呈现给用户的绘图与路由信息可与周围环境特征820的实际用户可见场景叠加。在一些实施方案中,可通过合适的增强现实技术捕获和显示周围环境特征820。
在一些实施方案中,用户界面可提供由合适的搜索算法导出的频繁更新的智能引导,以从地图最佳地确定路线。例如,可使用A*算法自动地确定并呈现地图中具有给定起始地点和目标地点的路线,诸如从地图700确定的示例性路线716,如图7所示。图9是根据一个实施方案的绘图与路由系统的用户界面900的屏幕截图。示例性用户界面900显示由一个或多个移动物体或用户(包括用户“F”)生成的路径的“鸟瞰”视图。可经由用户界面诸如例如图8所描绘的用户界面800来传达针对一个用户的实际转弯路线引导。另选地,可由另一非移动用户借助于动态路径的“鸟瞰”视图诸如图9的示例性用户界面900通过语言(例如无线电)通信以语言方式传达路线引导。例如,在图9所示的实施方案中,用户“F”响应于基于A*算法的智能引导而遍历路径920,以提供指导用户“F”返回已知路径910的新路径940。此类智能引导可通过任何合适的方式(例如,可视方式或语言方式)动态地传达给用户“F”。
在一些实施方案中,用户界面可提供为仪表板型用户界面。用户界面可提供环境中(例如,建筑物内)多个移动物体的持续或频繁更新的动态跟踪路径。在一些实施方案中,通过将从环境内的多个移动物体的运动捕获的路径段组合,用户界面可为用户(例如,非移动事故指挥员)提供智能引导。图10是根据一个实施方案的绘图与路由系统的用户界面1000的屏幕截图。用户界面1000包括用于显示动态地图的窗口1100,该动态地图具有环境内(例如,建筑物内)多个移动物体(例如,消防员A、B、C、D、E和F)的踪迹。用户界面1000还包括仪表板1200,用以显示多个移动物体的状态数据。
除非另外指明,否则本说明书和实施方案中所使用的表达量或成分、特性测量等的所有数字在所有情况下均应理解成由术语“约”来修饰。因此,除非有相反的说明,否则在上述说明书和所附实施方案列表中示出的数值参数可根据本领域的技术人员利用本公开的教导内容寻求获得的期望特性而变化。最低程度上说,并且在不试图将等同原则的应用限制到受权利要求书保护的实施方案的范围内的情况下,每个数值参数应至少根据所报告的有效位数并通过应用惯常的四舍五入法来解释。
在不脱离本公开实质和范围的情况下,可对本公开的示例性实施方案进行各种修改和更改。因此,应当理解,本公开的实施方案并不限于以下描述的示例性实施方案,而应受权利要求书及其任何等同物中示出的限制因素控制。
示例性实施方案列表
以下列出示例性实施方案。应当理解,实施方案1至17以及实施方案18至21中的任一项可组合。
实施方案1是一种绘图与路由的方法,该方法包括:
提供安装在待由移动物体穿戴的可穿戴包上的传感器组件,该传感器组件包括惯性测量单元(IMU)和一个或多个射频(RF)雷达单元:
经由传感器组件收集感测数据,感测数据包括(i)得自RF雷达单元的一个或多个雷达速度、(ii)得自IMU的移动物体的一个或多个角速度、以及(iii)得自IMU的一个或多个线性加速度;
基于感测数据,经由处理器来确定移动物体的平移信息和绝对取向信息;
基于所确定的平移信息和所确定的绝对取向信息的组合,经由处理器来确定移动物体的姿势时间序列;以及
经由处理器将姿势时间序列组合成移动物体的路径。
实施方案2是根据实施方案1所述的方法,其中基于得自包括陀螺仪和加速度计的IMU的感测数据来确定移动物体的绝对取向信息。
实施方案3是根据实施方案2所述的方法,其中得自陀螺仪的一个或多个角速度与得自加速度计的重力基准组合,以提供绝对取向信息。
实施方案4是根据实施方案1至3中任一项所述的方法,其中收集感测数据还包括经由一个或多个RF雷达单元来扫描一个或多个周围物体以获得雷达图像时间序列。
实施方案5是根据实施方案4所述的方法,该方法还包括经由处理器来跟踪一个或多个识别物体在雷达图像时间序列中的位置。
实施方案6是根据实施方案5所述的方法,该方法还包括基于雷达图像时间序列中的所跟踪位置,经由处理器生成附加平移信息。
实施方案7是根据实施方案5所述的方法,该方法还包括基于雷达图像时间序列中的跟踪位置,经由处理器生成移动物体的附加取向信息。
实施方案8是根据实施方案1至7中任一项所述的方法,该方法还包括经由处理器将路径投影到与周围环境的平面相关联的2维(2D)平面上以生成其2D地图。
实施方案9是根据实施方案8所述的方法,该方法还包括经由处理器将地图与建筑物中多个层或楼层中的一者相关联。
实施方案10是根据实施方案1至9中任一项所述的方法,该方法还包括经由处理器将路径与周围环境的3维(3D)空间相关联以生成其3D地图。
实施方案11是根据实施方案8或10所述的方法,该方法还包括基于2D地图或3D地图,经由处理器来确定两个地点之间的最佳或接近最佳的路线。
实施方案12是根据实施方案1至11中任一项所述的方法,该方法还包括经由用户界面向用户显示由路径导出的绘图与路由信息。
实施方案13是根据实施方案12所述的方法,其中用户界面显示得自一个或多个移动物体的绘图与路由信息的“鸟瞰”视图。
实施方案14是根据实施方案1至13中任一项所述的方法,该方法还包括提供一个或多个热成像传感器以捕获一个或多个热图像。
实施方案15是根据实施方案1至14中任一项所述的方法,该方法还包括提供一个或多个相机以捕获一个或多个周围物体的一个或多个可见图像。
实施方案16是根据实施方案14或15所述的方法,该方法还包括基于热图像或可见图像来构建周围环境的点云。
实施方案17是根据实施方案1至16中任一项所述的方法,该方法还包括提供智能环境监视器,该智能环境监视器被配置为监视周围环境并自适应地确定得自传感器组件的感测数据的相对权重。
实施方案18是一种绘图与路由系统,该绘图与路由系统包括:
可穿戴包;
安装在待由移动物体穿戴的可穿戴包上的传感器组件,该传感器组件包括惯性测量单元(IMU)和一个或多个射频(RF)雷达单元,该传感器组件被配置为感测数据,感测数据包括(i)得自一个或多个RF雷达单元的一个或多个雷达速度、(ii)得自IMU的移动物体的一个或多个角速度、以及(iii)得自IMU的一个或多个线性加速度;和
处理器,该处理器被配置为:
基于得自传感器组件的感测数据来确定移动物体的平移信息和绝对取向信息;
基于所确定的平移信息和取向信息的组合来确定移动物体的姿势时间序列;以及
将姿势时间序列组合成移动物体的路径。
实施方案19是根据实施方案18所述的系统,其中IMU包括陀螺仪和加速度计,并且基于得自陀螺仪和加速度计的感测数据来确定移动物体的绝对取向信息。
实施方案20是根据实施方案19所述的系统,其中陀螺仪被配置为感测一个或多个角速度,并且加速度计被配置为提供重力基准。
实施方案21是根据实施方案18至20中任一项所述的系统,其中IMU和一个或多个RF雷达单元按已知空间关系进行机械联接。
整个本说明书中提及的“一个实施方案”、“某些实施方案”、“一个或多个实施方案”或“实施方案”,无论在术语“实施方案”前是否包括术语“示例性的”都意指结合该实施方案描述的特定特征、结构、材料或特性包括在本公开的某些示例性实施方案中的至少一个实施方案中。因此,在整个本说明书的各处出现的表述诸如“在一个或多个实施方案中”、“在某些实施方案中”、“在一个实施方案中”或“在实施方案中”不一定是指本公开的某些示例性实施方案中的同一实施方案。虽然本说明书已经详细地描述了某些示例性实施方案,但是应当理解,本领域的技术人员在理解上述内容后,可很容易地想到这些实施方案的更改、变型和等同物。

Claims (20)

1.一种绘图与路由的方法,所述方法包括:
提供安装在待由移动物体穿戴的可穿戴包上的传感器组件,所述传感器组件包括惯性测量单元(IMU)和一个或多个射频(RF)雷达单元;
经由所述传感器组件收集感测数据,所述感测数据包括(i)得自所述一个或多个RF雷达单元的一个或多个雷达速度、(ii)得自所述IMU的所述移动物体的一个或多个角速度、以及(iii)得自所述IMU的一个或多个线性加速度;
基于所述感测数据,经由处理器来确定所述移动物体的平移信息和绝对取向信息;
基于所确定的平移信息和所确定的绝对取向信息的组合,经由所述处理器来确定所述移动物体的姿势时间序列;以及
经由所述处理器将所述姿势时间序列组合成所述移动物体的路径。
2.根据权利要求1所述的方法,其中基于所述得自包括陀螺仪和加速度计的所述IMU的所述感测数据来确定所述移动物体的所述绝对取向信息。
3.根据权利要求2所述的方法,其中得自所述陀螺仪的所述一个或多个角速度与得自所述加速度计的重力基准组合,以提供所述绝对取向信息。
4.根据权利要求1所述的方法,其中收集所述感测数据还包括经由所述一个或多个RF雷达单元来扫描一个或多个周围物体以获得雷达图像时间序列。
5.根据权利要求4所述的方法,所述方法还包括经由所述处理器来跟踪一个或多个识别物体在所述雷达图像时间序列中的位置。
6.根据权利要求5所述的方法,所述方法还包括基于所述雷达图像时间序列中的所跟踪位置,经由所述处理器生成附加平移信息。
7.根据权利要求5所述的方法,所述方法还包括基于所述雷达图像时间序列中的所述跟踪位置,经由所述处理器生成所述移动物体的附加取向信息。
8.根据权利要求1所述的方法,所述方法还包括经由所述处理器将所述路径投影到与周围环境的平面相关联的2维(2D)平面上以生成其2D地图。
9.根据权利要求8所述的方法,所述方法还包括经由所述处理器将所述地图与建筑物中多个层或楼层中的一者相关联。
10.根据权利要求1所述的方法,所述方法还包括经由所述处理器将所述路径与周围环境的3维(3D)空间相关联以生成其3D地图。
11.根据权利要求8或10所述的方法,所述方法还包括基于所述2D地图或3D地图,经由所述处理器来确定两个地点之间的最佳或接近最佳的路线。
12.根据权利要求1所述的方法,所述方法还包括经由用户界面向用户显示由所述路径导出的绘图与路由信息。
13.根据权利要求12所述的方法,其中所述用户界面显示得自一个或多个移动物体的绘图与路由信息的“鸟瞰”视图。
14.根据权利要求1所述的方法,所述方法还包括提供一个或多个热成像传感器以捕获一个或多个热图像。
15.根据权利要求1所述的方法,所述方法还包括提供一个或多个相机以捕获一个或多个周围物体的一个或多个可见图像。
16.根据权利要求1所述的方法,所述方法还包括提供智能环境监视器,所述智能环境监视器被配置为监视周围环境并自适应地确定得自所述传感器组件的所述感测数据的相对权重。
17.一种绘图与路由系统,所述绘图与路由系统包括:
可穿戴包;
传感器组件,所述传感器组件安装在待由移动物体穿戴的所述可穿戴包上,所述传感器组件包括惯性测量单元(IMU)和一个或多个射频(RF)雷达单元,所述传感器组件被配置为感测数据,所述感测数据包括(i)得自所述一个或多个RF雷达单元的一个或多个雷达速度、(ii)得自所述IMU的所述移动物体的一个或多个角速度、以及(iii)得自所述IMU的一个或多个线性加速度;和
处理器,所述处理器被配置为:
基于得自所述传感器组件的所述感测数据来确定所述移动物体的平移信息和绝对取向信息;
基于所确定的平移信息和取向信息的组合来确定所述移动物体的姿势时间序列;以及
将所述姿势时间序列组合成所述移动物体的路径。
18.根据权利要求17所述的系统,其中所述IMU包括陀螺仪和加速度计,并且基于得自所述陀螺仪和所述加速度计的所述感测数据来确定所述移动物体的所述绝对取向信息。
19.根据权利要求18所述的系统,其中所述陀螺仪被配置为感测所述一个或多个角速度,并且所述加速度计被配置为提供重力基准。
20.根据权利要求17所述的系统,其中所述IMU和所述一个或多个RF雷达单元按已知空间关系进行机械联接。
CN202080041139.4A 2019-06-04 2020-05-28 基于路径的绘图与路由的方法和系统 Withdrawn CN113906270A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962857045P 2019-06-04 2019-06-04
US62/857,045 2019-06-04
PCT/IB2020/055092 WO2020245710A1 (en) 2019-06-04 2020-05-28 Methods and systems of path-based mapping and routing

Publications (1)

Publication Number Publication Date
CN113906270A true CN113906270A (zh) 2022-01-07

Family

ID=71016597

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080041139.4A Withdrawn CN113906270A (zh) 2019-06-04 2020-05-28 基于路径的绘图与路由的方法和系统

Country Status (5)

Country Link
US (1) US20220228868A1 (zh)
EP (1) EP3980721A1 (zh)
JP (1) JP2022535253A (zh)
CN (1) CN113906270A (zh)
WO (1) WO2020245710A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11812197B2 (en) * 2018-08-09 2023-11-07 Sony Corporation Information processing device, information processing method, and moving body

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6876945B2 (en) * 2002-03-25 2005-04-05 Nicholas Jon Emord Seamless sensory system
US8296063B1 (en) * 2009-05-04 2012-10-23 Exelis Inc. Emergency rescue system and method having video and IMU data synchronization
WO2018026544A1 (en) * 2016-07-22 2018-02-08 Regents Of The University Of Minnesota Square-root multi-state constraint kalman filter for vision-aided inertial navigation system

Also Published As

Publication number Publication date
JP2022535253A (ja) 2022-08-05
US20220228868A1 (en) 2022-07-21
WO2020245710A1 (en) 2020-12-10
EP3980721A1 (en) 2022-04-13

Similar Documents

Publication Publication Date Title
US7302359B2 (en) Mapping systems and methods
CN106066645B (zh) 操作推土机时生成缩放地形信息的方法和推土机的控制系统
US6975959B2 (en) Orientation and navigation for a mobile device using inertial sensors
CA2695841C (en) Locating, tracking, and/or monitoring personnel and/or assets both indoors and outdoors
Foxlin et al. Constellation: A wide-range wireless motion-tracking system for augmented reality and virtual set applications
US8773946B2 (en) Portable housings for generation of building maps
US8744765B2 (en) Personal navigation system and associated methods
US20090262974A1 (en) System and method for obtaining georeferenced mapping data
US7792330B1 (en) System and method for determining range in response to image data
US20120173204A1 (en) Building map generation using location and tracking data
US8467612B2 (en) System and methods for navigation using corresponding line features
CN110392908A (zh) 用于生成地图数据的电子设备及其操作方法
AU2014277724A1 (en) Locating, tracking, and/or monitoring personnel and/or assets both indoors and outdoors
Willemsen et al. Concept for building a MEMS based indoor localization system
Karam et al. Integrating a low-cost mems imu into a laser-based slam for indoor mobile mapping
KR101523147B1 (ko) 실내 측위 장치 및 방법
Sternberg et al. Precise indoor mapping as a basis for coarse indoor navigation
US20220228868A1 (en) Methods and systems for path-based mapping and routing
Maximov et al. Survey of accuracy improvement approaches for tightly coupled TOA/IMU personal indoor navigation system
McCroskey et al. GLANSER–An Emergency Responder Locator System for Indoor and GPS-Denied Applications
CN109032330A (zh) 无缝桥接ar装置和ar系统
Kourogi et al. Pedestrian dead reckoning and its applications
CN208314856U (zh) 一种用于单目机载目标检测的系统
Emilsson et al. Sensor fusion for improved indoor navigation
Fischer et al. SLAM for pedestrians and ultrasonic landmarks in emergency response scenarios

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20220107