CN116075695A - 移动辅助设备和提供移动辅助的方法 - Google Patents

移动辅助设备和提供移动辅助的方法 Download PDF

Info

Publication number
CN116075695A
CN116075695A CN202180053346.6A CN202180053346A CN116075695A CN 116075695 A CN116075695 A CN 116075695A CN 202180053346 A CN202180053346 A CN 202180053346A CN 116075695 A CN116075695 A CN 116075695A
Authority
CN
China
Prior art keywords
user
environment
optimal route
commands
navigation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180053346.6A
Other languages
English (en)
Inventor
安东尼·多米尼克·卡米
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tia Guidance System Co ltd
Original Assignee
Tia Guidance System Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tia Guidance System Co ltd filed Critical Tia Guidance System Co ltd
Publication of CN116075695A publication Critical patent/CN116075695A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3652Guidance using non-audiovisual output, e.g. tactile, haptic or electric stimuli
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/265Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network constructional aspects of navigation devices, e.g. housings, mountings, displays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3446Details of route searching algorithms, e.g. Dijkstra, A*, arc-flags, using precalculated routes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3629Guidance using speech or audio output, e.g. text-to-speech
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3632Guidance using simplified or iconic instructions, e.g. using arrows
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Acoustics & Sound (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Rehabilitation Tools (AREA)

Abstract

公开了一种移动辅助设备和向用户提供移动辅助的方法。该设备包括:壳体;传感器装置;跟踪构件,用于跟踪设备的位置和取向;处理装置,被配置为:接收与设备的用户的目的地相关的输入;从传感器装置接收与环境相关的信息;基于来自传感器装置的与环境相关的信息计算环境的三维模型;从跟踪构件接收设备的当前位置和当前取向;确定用于从设备的当前位置开始到达目的地的最佳路线;以及计算最佳路线的导航命令序列;以及力反馈构件,其被配置为执行一个或多个动作以将导航命令传送给用户,其中,一个或多个动作辅助用户穿越最佳路线。具体地,最佳路线由导航命令序列确定,其中,导航命令被确定为与最佳路线相关的定向命令和特定于设备的当前环境的命令的组合,并且其中,定向命令是使用常规卫星导航系统确定的,并且其中,移动辅助设备是手持设备。

Description

移动辅助设备和提供移动辅助的方法
技术领域
本公开总体上涉及取向和移动设备;并且更具体地,涉及移动辅助设备和向用户提供移动辅助(例如向用户提供导航辅助)的方法。
背景技术
据估计,全世界有超过2.53亿人视力受损或失明,其中的3600万人是盲人,2.17亿人患有中度至重度视力障碍(MSVI)。联合国的数据预测,到2050年,全球人口将增加到97亿,预计80岁以上人口的相对增幅会更大。总体而言,到2050年,可能有大约7.03亿盲人或MSVI患者。传统上,视力受损者依靠导盲犬、拐杖、可听交通信号和盲文标志导航。然而,如果没有定向和移动训练(O&M),盲人很难导航通过并理解他们的周围环境。即使经过训练,视力受损者也只能局限于他们熟悉的路线和地方并必须时刻警惕感官线索,建立空间认知模型,并极其详细地了解他们的路线。
无论是完全失明还是视力受损,视力受损者在四处走动和与周围环境互动时都面临着巨大的挑战。值得注意的是,寻路是一个特殊的问题,它阻止盲人或视力受损者参与典型的活动,如社交或购物。目前,导盲犬是盲人和视力受损者最有效的辅助工具,因为它们允许个人比传统的白色拐杖更快地穿越路线。然而,由于诸如等候名单长、生活繁忙、过敏、房子大小和/或费用等问题,绝大多数盲人和视力受损群体无法收容动物。结果,数百万盲人和视力受损用户依赖于移动设备,其效用远不及导盲犬。由于视力下降的范围很广,并且每种情况对用户来说都是个别的,因此视力受损群体的不同能力范围使得这个问题进一步扩大。
近年来,已经有许多解决方案试图改善视力受损者的寻路体验,尽管其中的大多数因为没有考虑不同身体和精神能力的人之间的差异而没有被盲人群体采用。此外,拄着拐杖行走是一项非常专注的任务,用户必须考虑从一个人的夹克的沙沙声到路面的纹理的每一点有用的细节。用于视力受损者的辅助设备的最广泛使用的传感器技术是超声传感器。例如,许多智能拐杖通常配有超声波传感器,当对象(如低垂的树木、交通标志和物体)靠近时,超声波传感器会振动。然而,这些包括反馈系统,该系统通常缺乏直观,并且没有得到很好的考虑。传统的解决方案旨在扩展用户的感官,为他们提供更好的环境概念。然而,这会进一步使用户迷失方向并感到困惑。相应地,很难通过触觉信号来传达3D环境,触觉信号通常通过皮肤上的平坦/平面区域或通过衣服来传输。此外,以这种方式提供的提示仍然需要用户可视化周围环境的认知模型,这使得视力受损者在试图穿过环境行走时减慢速度。值得注意的是,行走过程中的决定必须在几分之一秒之内做出,对于视力正常的人来说,这通常是自动的。
因此,根据前面的讨论,需要克服与用于向视力受损者提供辅助的传统方法相关联的上述缺点。
发明内容
本公开旨在提供一种移动辅助设备。本公开还旨在提供一种向设备的用户提供移动辅助的方法。本公开旨在提供一种解决现有的传统辅助设备的复杂操作和不足的问题的方法。本公开的一个目的是提供一种解决方案,该解决方案至少部分地克服了现有技术中遇到的问题,并且提供了一种适用于所有类型的视觉残疾的人使用的智能、直观的辅助设备。
在一个方面,本公开提供了一种移动辅助设备,包括:
-壳体;
-传感器装置;
-跟踪构件,用于跟踪设备的位置和取向;
-处理装置,其被配置为:
-接收与设备的用户的目的地相关的输入,
-从传感器装置接收与环境相关的信息,
-基于来自传感器装置的与环境相关的信息计算环境的三维模型,
-从跟踪构件接收设备的当前位置和当前取向,
-确定从设备的当前位置开始到达目的地的最佳路线,以及
-计算最佳路线的导航命令序列;以及
-力反馈构件,其被配置为执行一个或多个动作以将导航命令传送给用户,其中,一个或多个动作辅助用户穿越最佳路线,
其中,最佳路线由导航命令序列确定,其中,导航命令被确定为与最佳路线相关的定向命令和特定于设备的当前环境的命令的组合,并且其中,定向命令是使用常规卫星导航系统确定的,并且其中,移动辅助设备是手持设备。
在另一方面,本公开提供了一种使用前述权利要求中任一项的设备向用户提供移动辅助的方法,该方法包括:
-接收与用户的目的地相关的输入;
-接收与其中正在使用设备的环境相关的信息;
-基于与环境相关的信息计算环境的三维模型;
-接收设备的当前位置和当前取向;
-确定从设备的当前位置开始到达目的地的最佳路线;
-计算最佳路线的导航命令序列;以及
-经由设备执行一个或多个动作以将导航命令传送给用户,其中,一个或多个动作辅助用户穿越最佳路线,其中,最佳路线由导航命令序列确定,其中,导航命令被确定为与最佳路线相关的定向命令和特定于设备的当前环境的命令的组合,并且其中,定向命令是使用常规卫星导航系统确定的。
本公开的实施例基本上消除或至少部分解决了现有技术中的上述问题,并且能够实现导航辅助,该导航辅助具有先前仅由导盲犬提供的类似水平的定向和移动性。
从附图和结合后面所附权利要求解释的说明性实施例的详细描述中,本公开的附加方面、优点、特征和目的将变得显而易见。
应当理解,在不脱离由所附权利要求限定的本公开的范围的情况下,本公开的特征可以以各种组合方式组合。
附图说明
当结合附图阅读时,当结合附图阅读时,以上概述以及以下说明性实施例的详细描述将得到更好的理解。为了说明本公开,在附图中示出了本公开的示例性结构。然而,本公开不限于本文公开的特定方法和工具。此外,本领域技术人员将理解,附图不是按比例绘制的。在可能的情况下,相同的元件已用相同的数字表示。
现在将参考以下附图仅借助于示例来描述本公开的实施例,其中:
图1是根据本公开的实施例的移动辅助设备的框图;
图2是根据本公开的实施例的移动辅助设备的透视图;
图3是根据本公开的实施例的移动辅助设备的横截面侧视图;
图4是根据本公开的实施例的陀螺仪组件的分解图;以及
图5是根据本公开的实施例的向用户提供移动辅助的方法的步骤的流程图。
在附图中,采用带下划线的数字来表示被置于该下划线数字之上的项目或与该下划线数字相邻的项目。不带下划线数字与由将不带下划线数字链接到项目的线所标识的项目有关。当一个数字不带下划线并伴随着相关的箭头时,该不带下划线的数字用于标识箭头所指向的一般项目。
具体实施方式
下面的详细描述示出了本公开的实施例以及可以实施这些实施例的方式。尽管已经公开了执行本公开的一些模式,但本领域技术人员将认识到用于执行或实践本公开的其他实施例也是可能的。
在一个方面,本公开提供了一种移动辅助设备,包括:
-壳体;
-传感器装置;
-跟踪构件,用于跟踪设备的位置和取向;
-处理装置,被配置为:
-接收与设备的用户的目的地相关的输入,
-从传感器装置接收与环境相关的信息,
-基于来自传感器装置的与环境相关的信息来计算环境的三维模型,
-从跟踪构件接收设备的当前位置和当前取向,
-确定从设备的当前位置开始到达目的地的最佳路线,以及
-计算最佳路线的导航命令序列;以及
-力反馈构件,其被配置为执行一个或多个动作以将导航命令传送给用户,其中,该一个或多个动作辅助用户穿越最佳路线,
其中,最佳路线由导航命令序列确定,其中,导航命令被确定为与最佳路线相关的定向命令和特定于设备的当前环境的命令的组合,并且其中,定向命令是使用常规卫星导航系统确定的,并且其中,移动辅助设备是手持设备。
在另一方面,本公开提供了一种使用前述权利要求中任一项的设备向用户提供移动辅助的方法,该方法包括:
-接收与用户的目的地相关的输入;
-接收与其中正在使用设备的环境相关的信息;
-基于与环境相关的信息计算环境的三维模型;
-接收设备的当前位置和当前取向;
-确定从设备的当前位置开始到达目的地的最佳路线;
-计算最佳路线的导航命令序列;以及
-经由该设备执行一个或多个动作以将导航命令传送给用户,其中,该一个或多个动作辅助用户穿越最佳路线,其中,最佳路线由导航命令序列确定,其中,导航命令被确定为与最佳路线相关的定向命令和特定于设备的当前环境的命令的组合,并且其中,定向命令是使用常规卫星导航系统确定的。
本公开的设备和方法旨在提供一种导航辅助,该导航辅助具有先前仅由导盲犬提供的类似水平的定向和移动性。通过自动化人类视觉系统的任务和与行走相关联的精神任务,移动辅助设备显著地减少了移动辅助设备通常所需的精神和体力。本公开实现了高保真物理反馈系统,该系统主要向用户提供引导辅助,而不是向用户提供提示或警报。值得注意的是,当用户沿着路线行走时,该设备确定适当的轨迹和速度以避免迎面而来的障碍物或危险,坚持预定的路线并通过引导定向力来传达这一点。本公开的力反馈构件可以适应各种不同的定向和移动性场景,否则这些场景将花费更多的时间来导航。值得注意的是,处理装置不仅将环境信息转换成触觉信号,而且管理传统上由用户做出的几个行走决定,以向用户提供舒适和直观的行走体验。此外,该设备仅需要用户使用一只手,因此该设备可以在站立位置或坐在轮椅上(例如在电子轮椅上)时使用。移动辅助设备可以进一步辅助处理不同类型地形(例如电梯、楼梯、门口、人行横道等)的特定交互。移动辅助设备可以用于本地或长距离导航,并利用与天气、交通等相关的实时数据来安全有效地引导用户。此外,该设备紧凑、便携、重量轻,长时间使用舒适。此外,本公开中公开的设备根据情况提供不同的功能模式,以确保当用户周围环境的风险因素增加时,用户具有意识和控制。
有利地,根据本公开的实施例的设备在存在可跟踪和/或映射的最佳路线可用时以“自主模式”工作。在路线不可用的情况下,该设备以通过力反馈传达环境信息的形式提供更“手动”的体验(“3D拐杖模式”)。
在示例性实施例中,随着用户接近障碍物,该设备在由人和障碍物之间的空间偏差确定的向量处向用户的手/前臂感应出更强的力。在另一种模式下,用户可以像标准的长拐杖一样左右扫描设备以熟悉环境,并感受借助于例如与障碍物/地形(例如,灯柱、台阶)和/或最佳路线的位置相关的力反馈脉冲传达的空间中的节点,这类似于增强现实(AR)。此外,如果路径变得可用,则用户可以被强制回到自主模式以遵循最佳路线,或者可以通过例如保持设备在空间节点内的空间取向来进入该模式,从而感觉到“力袋”。
根据本公开的实施例,移动辅助设备旨在由残疾人(特别是具有中度至重度视觉障碍的人)使用。值得注意的是,移动辅助设备被设计成替代传统的辅助方法,例如白拐杖或导盲犬。通过由此执行的一个或多个动作,移动辅助设备引导设备的用户沿着路线,同时避开障碍物,确保用户在必要时沿直线行走,以帮助进行取向参考并确保路线遵循。为了简洁起见,在下文中,术语“移动辅助设备”与术语“设备”可互换地使用。
尽管主要是为了由视力受损者使用,但本公开中提供的设备和方法不应被认为限于此。值得注意的是,在虚拟现实应用或游戏中,该设备可以模拟作用在玩家上的力。此外,该设备可以用于帮助普通人在黑暗中导航,或向远处的另一个用户提供导航帮助。例如,持有该设备的用户将能够实时解释远程操作该设备的人员发出的定向命令(例如,建议的行走动作)。此外,在艺术展览、博物馆,徒步旅行,盲人跑步或滑雪期间,该设备可以用作传达导航命令(例如方向和行走速度)的工具,或者可选地,可以用于运动康复。
该设备包括壳体。这里,术语“壳体”是指包裹移动辅助设备的部件(即,传感器装置、跟踪构件、处理装置、力反馈构件)的保护性覆盖物。值得注意的是,壳体被制造成保护设备的部件免受由于跌落、碰撞或对设备的任何此类冲击而导致的损坏。用于制造壳体的材料的示例包括但不限于聚合物(例如聚氯乙烯、高密度聚乙烯、聚丙烯、聚碳酸酯)、金属及其合金(例如铝、钢、铜)、非金属(例如碳纤维、钢化玻璃)或其任意组合。应当理解,壳体符合人体工程学设计,允许用户长时间舒适地抓握,允许旋后抓握和旋前抓握之间的最大运动范围。
该设备包括传感器装置,传感器装置用于确定与其中正在使用该设备的环境相关的信息。应当理解,由于该设备由用户手持,因此使用该设备的环境与该设备的用户周围的环境相同。因此,与环境相关的信息提供了对在向用户提供导航命令之前必须考虑的各种因素的洞察。具体地,与环境相关的信息提供了必须使用由设备提供的导航命令来导航的用户周围区域的地形的估计。与环境相关的信息包括但不限于环境中的物理对象与设备之间的距离、环境的一个或多个图像、环境中的运动程度、环境中的音频捕获和噪声信息。
在整个本公开中,术语“传感器装置”是指一个或多个传感器的装置,以及传感器的操作和传感器捕获的数据的传输或通信所需的外围部件。这里,传感器是检测给定环境的定量和/或定性特征的信号、刺激或变化并提供相应输出的设备。
可选地,传感器装置包括下列中的至少一项:飞行时间相机、RGB相机、超声波传感器、红外传感器、麦克风阵列、霍尔效应传感器。飞行时间相机是一种距离成像相机系统,其采用飞行时间技术,通过测量由激光器或LED提供的人造光信号的往返时间,来解析相机(即设备)与图像的每个点的对象之间的距离。这里,飞行时间相机用于计算环境中的物理对象与设备之间的距离。飞行时间相机采用深度传感和成像原理来计算这种距离。RGB相机或红绿蓝(RGB)相机是指具有标准CMOS传感器的传统相机,使用该传感器可以捕获环境的彩色图像。值得注意的是,捕获的环境的彩色图像提供了对环境参数的洞察,例如地形、环境中的障碍物或屏障的数量、环境的类型(例如室内、室外、街道、停车位等)等等。
与飞行时间相机类似,超声波传感器提供与环境中的物理对象与设备之间的距离相关的信息。红外传感器,或广义的热成像相机,使用红外辐射来生成环境图像。值得注意的是,这种图像提供了与对象的距离相关的信息,并提供了对环境中运动程度的估计。麦克风阵列指的是同时操作以捕获环境中的声音的多个麦克风的配置。值得注意的是,麦克风阵列可以捕获环境中的远场语音,并且可选地,捕获来自设备的用户的语音输入。
该设备包括用于跟踪设备的位置和取向的跟踪构件。应当理解,为了经由设备准确地向用户提供导航命令,设备的位置和取向应始终已知,以便基于设备的当前位置和当前取向执行一个或多个动作。这里,术语“位置”是指设备所处的地理位置。值得注意的是,由于设备由用户手持,因此该设备的位置与用户的位置相同。此外,该位置还可以包括设备相对于地面的海拔或高度,例如当设备和人在建筑物的较高楼层时。这里,术语“取向”指的是设备的三维定位。具体地,取向提供了与设备在三维空间中相对于x、y和z轴的定位相关的信息。换句话说,当由用户手持时,设备的取向可以被描述为类似于飞机的主轴,其中设备能够在三个维度中旋转,即偏航(左或右)、俯仰(上或下)和滚动(顺时针或逆时针)。应当理解,如上所述,设备沿着任何一个轴的移动指示特定的导航命令。例如,设备沿着偏航轴线的移动可以指示用户左转或右转;设备沿着俯仰轴线的移动可以指示用户增加或降低行走速度;并且设备沿着滚动轴线的移动可指示用户顺时针或逆时针转动。这里,跟踪构件跟踪(即,确定)设备的位置和取向。
在一个实施例中,跟踪构件包括下列中的至少一项:卫星导航设备、惯性测量单元、航位推算单元。诸如全球定位系统(GPS)接收器的卫星导航设备是被配置为从全球导航卫星系统(GNSS)接收信息以确定设备的地理位置的设备。这种导航设备在本领域中是众所周知的。惯性测量单元是一种电子设备,其采用加速度计、陀螺仪和可选的磁强计的组合,以用于确定设备在三维空间中的取向。此外,惯性测量单元在卫星信号不可用或微弱的情况下辅助确定地理位置。惯性测量单元使用原始IMU数据来计算设备相对于全球参考系的姿态、线速度和位置。此外,在到卫星导航设备的卫星信号不可用的情况下,采用航位推算单元。航位推算单元基于设备的最后已知位置、设备的用户的历史移动数据和估计的用户的预测移动轨迹来确定设备的当前位置。通常,航位推算单元包括被配置为执行这种计算的处理器,该处理器与卫星导航设备和惯性测量单元通信。
在特定实施例中,移动辅助设备使用其GPS接收器从GPS卫星接收信息并计算设备的地理位置。此外,RTK GNN、相机、深度传感器和IMU可用于实现厘米级精度。使用合适的软件,该设备通信地耦合到外部设备,例如用户的设备(例如,移动电话),该外部设备可以在数字地图上显示设备的位置,并且用户的设备和/或处理装置和/或远程计算机可以计算用户的起点和他们期望的目的地之间的初始最佳路线。可选地,用户相关数据可以经由无线网络连接(例如,通过诸如4G长期演进、LIE、网络的网络连接)传递到服务器,用户相关数据包括诸如纬度、经度、海拔、地理代码、路线、方向、航向、速度、世界时(UTC)、日期、图像/深度数据和/或各种其他信息/数据的数据。可选地,该设备被配置为与配备有Al能力的远程服务器/外部处理单元(例如,基于云的服务器或位于远程设施中的服务器)通信,该Al能力包括例如神经网络和/或机器学习,其可以优化例如数字地图内的路线,以实现例如静态和/或动态避障、更快的行程时间和用户特定偏好。
此外,可以基于用户收集的数据用各种信息(例如静态/动态障碍物的位置)连续更新数字地图,使得可以基于用户收集的数据生成包括相关联数据的位置地图。此外,例如,设备的存储器可以存储地图信息或数据,以帮助定位并向用户提供导航命令。可以通过跟踪构件预加载和/或无线下载可包括最佳路线网络的地图数据。可选地,地图数据可以是抽象的,例如具有边缘的网络图,或者具有特征的一系列坐标。可选地,地图数据可以包含用户感兴趣的点,并且当用户行走时,相机可以被动地识别附加的感兴趣的点(例如,商店、餐馆)并更新地图数据。可选地,当用户到达特定位置时,用户可以输入例如兴趣点或导航特定数据(例如在十字路口停车),和/或用户采取的设备取向。此外,可以通过采用机器学习来优化用户的路线。
应当理解,该设备和系统可以采用交互式人类/机器人防碰撞系统,通过该系统,导航命令和与环境相关的信息(例如,大小和与障碍物的距离)通过相同的反馈通道同时传送:例如,如果用户接近墙壁,传感器装置将检测墙壁的接近程度,然后处理装置将使用例如3D感知算法生成适当的命令,并且处理装置将借助于力反馈来传送这样的命令,这将导致根据用户和障碍物之间的距离/角度之间的偏差直接向用户手中生成定向力/扭矩,同时仍然沿着最佳路径引导用户。至关重要的是,这确保用户能够实时评论设备的导航,而无需使用额外的移动辅助设备,例如导盲犬或长拐杖,特别是在安全性和可用性方面提供了优于现有技术的优势。
应当理解,GPS和惯性里程计导航的使用将提供具有态势感知的实时引导。具有态势感知的实时引导促进针对沿着预定路线的用户的容易引导,同时了解用户正在穿过的环境。此外,通过使用LiDAR、相机、IMU和地图导航的深度传感器融合,通过实时里程计估计来跟踪和中继用户的路线是故障安全的,因此该设备确保用户不会在空间中迷路,并且可以自主避开静态障碍物,而用户此时主要负责避开动态障碍物。
该设备包括处理装置。如本文所使用的,处理装置可以包括但不限于微处理器、微控制器、复杂指令集计算(CISC)微处理器、精简指令集(RISC)微处理器、超长指令字(VLIW)微处理器或任何其他类型的处理电路。此外,处理装置可以指一个或多个单独的处理器、处理设备和与可以由其他处理设备共享的处理设备相关联的各种元件。处理装置布置在设备的壳体内。处理装置包括存储器。此外,该设备包括可通信地耦合到处理装置的收发器,其中,收发器被配置为使用一个或多个数据通信网络使处理装置能够与一个或多个外部设备进行数据通信。这种数据通信网络包括但不限于局域网(LAN)、广域网(WAN)、城域网(MAN)、互联网、无线电网络(例如
Figure BDA0004098481320000101
)、电信网络。
可选地,处理装置经由数据通信网络通信地耦合到外部基于云的处理单元。值得注意的是,外部基于云的处理单元可以在从处理装置接收指令之后执行计算密集型任务,并将输出传送到处理装置。应当理解,将涉及密集计算负载的任务卸载到外部基于云的处理单元使得能够在设备中使用更简单的处理装置,从而减小设备的尺寸。这种紧凑的处理装置不会显著地增加设备的重量,从而确保设备是轻量的。
处理装置被配置为接收与设备的用户的目的地相关的输入。这里,术语“目的地”是指将向设备的用户提供其导航命令的地理位置。应当理解,目的地可以作为来自用户的输入实时接收,或者可以在处理装置中预编程,或者可以由处理装置从远程位置等接收。可选地,设备配备有麦克风,以从设备的用户接收与目的地相关的语音输入。
在一个实施例中,移动辅助设备包括显示器和键盘。可替代地或附加地,设备包括触摸板。值得注意的是,显示器和小键盘和/或触摸板提供接口,该接口使得设备的用户能够向处理装置提供与目的地相关的输入。
在另一实施例中,移动辅助设备可通信地耦合到便携式电子设备,其中,便携式电子设备被实施为输入设备,以向移动辅助设备,特别是向处理装置提供输入。这里,术语“便携式电子设备”是指与用户相关联(或由用户使用)的电子设备,其能够使用户(或另一个人)执行与前述移动辅助设备相关联的特定任务。便携式电子设备的示例包括但不限于蜂窝电话、个人数字助理(PDA)、手持设备、膝上型计算机、个人计算机等。便携式电子设备旨在被广义地解释为包括可用于通过有线或无线通信网络与设备进行数据通信的任何电子设备。有利地,便携式电子设备向用户提供用于提供输入的复杂用户界面,从而确保无麻烦的体验。应当理解,由用户授权的另一个人可以使用便携式电子设备向移动辅助设备提供输入。可选地,移动辅助设备可以被配置为接收来自多个便携式电子设备的输入,从而实现设备的自我操作以及其辅助操作。
处理装置被配置为从传感器装置接收与环境相关的信息。此外,处理装置被配置为从跟踪构件接收设备的当前位置和当前取向。值得注意的是,处理装置可通信地耦合到传感器装置和跟踪构件。应当理解,传感器装置和跟踪构件被配置为分别实时或接近实时地连续提供与环境相关的信息以及设备的位置和取向。这种与设备相关的连续和更新的细节使得处理装置能够实时控制和监测设备的操作,并确保设备向用户提供准确的导航命令。此外,在用户不遵守所提供的导航命令的情况下,与设备的操作及其周围环境相关的实时信息允许处理装置校正航向、更新导航命令的序列,并经由力反馈构件提供更新的导航命令。
处理装置被配置为确定用于从设备的当前位置开始到达目的地的最佳路线。具体地,基于设备的当前位置来确定这种最佳路线。在下文中,确定从设备的当前位置开始到目的地的最佳路线的设备的该当前位置被称为“起点”。这里,术语“最佳路线”是指起点和目的地之间的路线,基于用户的偏好,其具有下列中的至少一种属性:最短的距离、最少的转弯次数、最少的障碍物数量、最少行人和/或车辆流量、高密度的人行道或人行通道。在一个实例中,当该设备用于视觉受损者的移动辅助时,最佳路线对于残疾人来说可以是高度可用的,例如具有大量触觉铺砌人行道、听觉交通信号等的路线。值得注意的是,处理装置可以使用传统的路线映射技术来识别起点和目的地之间的多条路线。因此,处理装置可以为每一个属性分配权重,并评估多条可用路线中的每一条,以基于它们的属性为每条路线分配加权分数,并确定起点和目的地之间的最佳路线。
该处理装置被配置为计算最佳路线的导航命令序列。值得注意的是,导航命令涉及将被提供给用户以辅助用户穿越给定路线的定向命令(即指令)。例如,导航命令可以包括与行走速度、定向信息(例如与沿着路线转弯、在道路交叉口停止有关)、即将到来的障碍物(例如其他行人、交通信号、交叉口、人行横道、汽车)、变化地形(例如海拔、减速带、上坡或下坡地形、楼梯)等相关的指令。应当理解,处理装置考虑了在沿着给定路线行走时要考虑的多个元素,并计算与这些元素中的每一个相关的导航命令。
应当理解,用于最佳路线的导航命令序列被确定为与最佳路线相关的定向命令和特定于用户当前环境的命令的组合。具体地,定向命令包括用于行进最佳路线的一般指令,例如与路径、转弯、人行横道、变化地形等相关的指令。定向命令涉及提供导航通过短时间内不变的静止对象的指令。值得注意的是,使用传统的卫星导航系统来确定定向命令。特定于用户当前环境的命令涉及用于导航通过诸如移动障碍物(如行人、汽车、改变交通信号等)的动态对象的指令。特定于当前环境的命令进一步满足了提供与卫星导航系统未考虑的障碍物(例如路障、屏障、树等)相关的指令。应当理解,由于这种命令是基于用户的当前环境的,所以它们必须被实时或接近实时地计算并提供给用户。如前所述,传感器装置连续并且实时地提供与环境相关的信息。因此,基于用户的当前环境,处理装置实时或接近实时地计算与用户的当前环境相关的导航命令,并经由力反馈构件与用户通信。
可选地,处理装置被配置为基于来自传感器装置的与环境相关的信息计算环境的三维模型。值得注意的是,处理装置采用从传感器装置接收的与环境相关的信息来构建环境的三维模型。处理装置分析来自以下至少一项的数据:RGB相机、飞行时间相机、红外传感器、超声波传感器,以识别设备使用环境的各种属性。例如,处理装置可以采用计算机视觉对从RGB相机获得的图像执行边缘检测,以识别用户的预测路径中的一个或多个障碍物。因此,可以使用来自飞行时间相机的深度感测来确定每个障碍物与设备的距离。此外,使用计算机视觉,可以识别地面的任何变化。在计算环境的三维模型时,处理装置可以计算一个或多个导航命令,以通知用户任何即将到来的障碍物或地形的变化。
可选地,处理装置采用机器学习算法。在一个实例中,处理装置采用机器学习算法,或具体地是人工智能和神经网络,来确定到达目的地的最佳路线。此外,处理装置采用机器学习算法来计算导航命令的序列。机器学习算法使得处理装置能够在预测结果和/或执行任务方面变得更加准确,而无需明确编程。具体地,采用机器学习算法来人工训练处理装置,以便使它们能够从经验中自动学习和提高性能,而无需明确编程。可选地,处理装置可以提示用户提供与经由力反馈构件的一个或多个动作提供的导航命令相关的反馈,并且可以基于从用户接收的反馈进行改进。
可选地,使用训练数据集来训练采用机器学习算法的处理装置。典型地,取决于用于训练软件应用的训练数据集,不同类型的机器学习算法的示例包括但不限于:有监督机器学习算法、无监督机器学习算法、半监督学习算法和强化机器学习算法。此外,通过解释训练数据集中的模式并相应地调整机器学习算法来训练处理装置,以获得期望的输出。处理装置采用的机器学习算法的示例可以包括但不限于:k-means聚类、k-NN、降维、奇异值分解、分布模型、层次聚类、混合模型、主成分分析和自动编码器。
可选地,处理装置可以采用诸如GNNS、RTK-GNNS等的定位技术来提高GPS的精度。通常,支持GNNS的设备(如智能手机)的精度为几米。在一个实施例中,两个双频带接收器使用来自所有四个全球导航卫星系统(GNSS)(即GPS、GLONASS、北斗和伽利略)的导航信号。具体地,通过使用两个空间上分离的天线,处理装置可以确定设备的绝对位置并获得取向的测量。可选地,一个双频带接收器可以用于获得来自所有四个全球导航卫星系统(GNSS)(即GPS、GLONASS、北斗和伽利略)的导航信号。此外,GNNS的精度可以通过使用实时运动学(RTK)技术来提高(允许厘米级的精确定位)。具体地,RTK-GNNS传感器使用标准的RTCM10403版本3差分GNSS服务校正数据,并且RTCM数据的网络传输(NTRIP)用于向传感器提供数据。此外,可以从虚拟参考站(VRS)网络或本地物理基站获得传感器数据。此外,云服务可以用于辅助数据分发。
应当理解,尽管RTK-GNNS的精度很高,但是由于例如电离层活动、对流层活动、信号障碍、多径和无线电干扰,基于GNNS的定位方法容易受到环境条件的影响(例如,GNNS在建筑物之间退化,并且GNNS在桥下或室内失效)。
此外,可以融合各种里程计算法/方法以减少系统漂移,从而减少/消除基于GNNS的导航的缺点。可选地,处理装置可以连续地监测GNSS操作和RTK校正数据流。此外,处理装置可以使用评估两者的质量和可靠性的算法,以便在大多数情况下获得最佳性能。
应当理解,包括雷达、惯性、视觉、激光等的各种里程计算法/方法可以用于GPS拒绝定位。通常,融合里程计方法以提高精度和稳健性(例如雷达惯性、视觉雷达、视觉惯性、视觉激光)。
可选地,里程计算法/方法可以包括视觉里程计、惯性里程计和/或视觉-惯性里程计(VIO)。
可选地,视觉里程计可以用于通过分析由相机在图像序列上的运动引起的变化来估计设备的位置和取向。VO技术可以基于关键信息、相机的位置和相机的类型/数量进行分类。在其上执行里程计的关键信息可以是直接的原始测量值,即像素,或者间接的图像特征,如角和边或它们的组合,即混合信息。相机类型/数量可以是单目、立体、RGB-D、全向、鱼眼或基于事件的。反过来,相机姿势可以是向前的、向下的或混合的。
可选地,可以使用惯性里程计(IO)或惯性导航系统(INS)。惯性里程计是一种定位方法,它使用IMU传感器的测量值来确定设备相对于给定起点的位置、取向、高度和线速度。IMU传感器是微机电系统(MEMS)设备,其主要由三轴加速度计和三轴陀螺仪组成。加速度计测量非重力加速度,而陀螺仪基于重力和磁力的测量来测量取向。此外,基于IMU的导航系统不需要外部参考来精确估计平台的位置。然而,由于来自不同来源的误差,例如,陀螺仪测量和加速度计中的恒定误差,这些系统存在漂移问题。随后,这些误差导致估计的速度和位置中的误差增加。可以使用不同的解决方案来帮助减少这个问题。例如,可以采用基于使用扩展卡尔曼滤波器框架(EKF)的双积分旋转加速度的概率方法。即使有这样的改进,惯性里程计也不足以用作主要的导航方法,以允许在GPS拒绝的环境中进行自主导航。
可选地,视觉惯性里程计(VIO)用于消除基于环境条件的限制,例如照明、阴影、模糊图像和丢帧。此外,VIO可以与RTK-GNNS融合,以提高系统精度。可选地,可以考虑松耦合的组合。此外,基于视觉和惯性数据的融合方式,VIO可以分为两种方式:基于滤波器和基于优化。此外,基于测量所融合的时间,它可以分为松耦合和紧耦合。此外,存在各种相机设置,例如单目、立体、RGB-D和全向相机;以及从捕获的图像中提取关键信息的不同方法,例如基于特征的方法、直接方法和混合方法。此外,在处理装置中融合原始传感器输出以导出最佳位置和姿态估计。在替代实施例中,GNSS观测、相机图像和IMU测量全部可以合并到一个优化问题中,以找到最可能的姿态。
应当理解,紧耦合融合方法相对于单个传感器的松耦合组合或加权的主要优点是不同感测技术的优点,并且被组合以减轻单个传感器的弱点。传感器测量的准确度和精确度被结合到优化中,并且由于传感器间预测(例如IMU测量)而提高了稳定性和稳健性。这可以用于预测视觉特征,并且相机观测有助于形成GNSS估计问题的先验。
移动辅助设备包括力反馈构件,其被配置为执行一个或多个动作以将导航命令传送给用户,其中,该一个或多个动作辅助用户穿越最佳路线。这里,术语“力反馈构件”是指一个或多个机械致动元件(例如,控制力矩陀螺仪)和发声设备(例如,扬声器)的布置,其使得能够在移动辅助设备中生成反馈。此外,力反馈构件操纵设备的取向以执行一个或多个动作中的至少一个。值得注意的是,由力反馈构件生成的反馈是在用户的手上施加引导力以向用户提供导航辅助的力反馈。这种力反馈进一步通过模拟触摸和运动的体验(类似于使用导盲犬进行导航时的体验)向用户提供导航辅助。可选地,除了力反馈之外,力反馈构件还生成触觉反馈。应当理解,由力反馈构件执行的一个或多个动作中的每一个都与特定的导航命令相关联。具体地,当力反馈构件执行给定动作时,用户解释并识别与该给定动作相关联的导航命令。此外,一个或多个动作以如下方式与导航命令相关联,即当由力反馈构件执行与导航命令相关联的动作时,用户可以直观地识别导航命令。可替代地,可以在使用设备之前向用户提供教程,其中,教程使用户能够学习与一个或多个动作中的每一个相关联的导航命令。
在一个实施例中,一个或多个动作包括下列中的至少一项:定向力、音频信号、触觉振动。这里,定向力由力反馈构件提供为一个或多个动作中的一个,以通过操纵用户的手的运动和/或以特定方式在其上感应力来向用户传达行走动作。可以沿着移动辅助设备的一个或多个轴提供定向力。如前所述,沿着偏航轴线和滚动轴线提供的定向力可以向用户指示与定向运动相关的导航命令,而沿着俯仰轴线的定向力可以指示与用户的行走速度相关的导航命令。此外,可以提供触觉振动作为一个或多个动作中的一个,以传达各种导航命令,如“开始行走”、“停止行走”等。此外,触觉振动可以与定向力结合使用以提供导航命令。此外,触觉振动的性质,例如振动的长度、脉冲振动等,可以被改变以传达不同的导航命令。在一个实例中,当要向用户传达复杂的导航命令时,力反馈构件可以提供语音输出作为音频信号。此外,音频信号可以是可以与导航命令相关联的特定声音。复杂的行走动作,如闪避或侧身、向后或转身,可以经由360度运动范围内任何方向的三维力反馈传达给用户。值得注意的是,可以使用设备中提供的扬声器,或者经由可通信地耦合到设备的耳机来提供音频信号。在一个示例中,耳机可以是骨传导耳机。
应当理解,该设备适用于环境中可能出现的不同情况,并且可以基于环境的复杂性和风险因素进入不同的功能模式。例如,处理装置可以识别繁忙的环境,例如十字路口、交通交叉口、交通信号,并且可以进入功能水平降低的模式。在这种功能水平降低的模式下,该设备可以类似于拐杖,并且可以不强迫用户遵循由此确定的行走决策,而是可以仅仅提示用户与即将到来的障碍物相关的信息,并辅助他们理解环境。在另一示例中,处理装置可以识别接近的楼梯,并且可以在用户的手上感应力以指示他们停止,并且随后可以将用户的手朝向楼梯的扶手引导。在另一示例中,处理装置可以识别出用户可能需要使用按钮阵列(例如,电梯的按钮阵列),并且随后,可以将用户的手朝向按钮阵列上的正确区域引导。类似地,处理装置可以将用户的手朝向门把手引导。
在一个实施例中,力反馈构件包括陀螺仪组件,该陀螺仪组件被配置为生成角动量以在设备中引起定向力。这里,陀螺仪组件实际上被实现为惯性轮组件。这种组件由三个圆形转子组成,例如轮子或圆盘,正交放置在x、y和z平面上,当旋转时,它们对每个轴产生单独的扭矩。因此,通过控制组件的单个旋转转子来控制组件的净转动惯量,以提供定向力。值得注意的是,三个圆形转子基本上共享一个共同的重心。三个圆形转子的功能实际上就像扭矩马达,其被设计成当以相同的角速度旋转时产生相同数量的角动量和动能。三个圆形转子之间的这种协作是通过基于它们的密度仔细选择材料来实现的。值得注意的是,通过控制由单个圆形转子的加速或减速生成的角动量和/或通过沿顺时针或逆时针方向旋转圆形转子来调节由陀螺仪组件提供的设备的定向运动。因此,通过操纵沿三个轴的角动量水平,可以将与方向和行走速度相关的导航命令传送给用户。值得注意的是,陀螺仪组件被容纳在壳体的前部内,并由肋和凸台支撑,壳体使用注射模制制造。应当理解,圆形转子的旋转是使用无刷电动机(例如BLDC内转轮电机)设计来实现的。
应当理解,尽管快速旋转的圆形转子需要精确的制造公差,但可能会发生不希望的振动。因此,为了防止振动,阻尼弹簧可以将陀螺仪组件保持在壳体内。有利地,陀螺仪组件提供了显著的优点,因为改变由旋转质量产生的角动量的方向需要较少的机构,并且可以在任何可能的方向上提供扭矩。关于在本公开的设备中采用的陀螺仪组件,每个转子采用电磁制动系统以最大化圆形转子表现出的惯性矩。值得注意的是,制动三个单独的转子中的每一个允许角动量的快速交换。角动量中的这种变化会在相对较小的空间内生成相当大的力。值得注意的是,在需要时,例如当障碍物非常快速地出现在用户面前时,可以采用电磁制动系统将用户的手猛拉到正确的位置。三个圆形转子可以快速连续或同时制动,以使用户的手相对于x、y和z轴在正确的方向上移动。
可选地,陀螺仪组件包括包围三个圆形转子中的每一个的圆形轨道外壳。值得注意的是,三个圆形转子中的每一个都采用多个高速轴承,这些轴承在圆形轨道外壳内移动,圆形轨道外壳由轻质材料(例如聚四氟乙烯(PTFE)或聚醚醚酮(PEEK))制成,其具有低摩擦系数和高熔点,从而允许圆形转子在高温下操作。此外,陀螺仪组件进一步包括固定在每个圆形轨道外壳上的四个电磁体或驱动线圈,它们围绕圆形轨道外壳的内部驱动转子,允许它们以非常高的角速度旋转。圆形轨道外壳用于容纳和控制圆形转子的机械旋转,也是用于无刷电动机设计的电磁体或驱动线圈的壳体。值得注意的是,三个圆形转子中的每一个包括嵌入其圆周中的多个磁体(例如,六个磁体),其中,磁体使用钕制造。这里,圆形轨道外壳包括驱动线圈或电磁体,其被充电并用于使用嵌入转子中的磁体来旋转三个圆形转子。优选地,每个圆形轨道外壳具有间隔90°的四个电磁体或驱动线圈,其中,驱动线圈或电磁体与转子磁体合作,以与无刷电动机设计的典型操作一致的方式为圆形轨道外壳内的圆形转子提供推进。此外,采用控制电路来切换驱动线圈或电磁体的极性,以吸引或排斥嵌入圆形转子中的磁体,从而控制单个转子的旋转速度和方向。应当理解,壳体包括盲文压花按钮,其可用于从壳体移除陀螺仪组件。随后,可以通过松开一系列螺母和螺栓来拆卸包含转子的圆形轨道外壳。
此外,缠绕在圆形轨道外壳上的铜驱动线圈可替代地用于驱动转子。
可选地,传感器装置进一步被配置为测量陀螺仪组件中的一个或多个转子的角速度。如前所述,传感器装置在其中包括霍尔传感器。因此,使用霍尔传感器来测量陀螺仪组件中三个圆形转子的角速度。如上所述,驱动线圈或电磁体通电以吸引或排斥转子中嵌入的磁体。值得注意的是,使用霍尔传感器来确定转子的位置,并且基于所确定的位置,给驱动线圈或电磁体通电的电子控制器能够确定要给哪个驱动线圈或电磁体通电。应当理解,处理装置被配置为向力反馈构件提供指令并控制其操作。具体地,处理装置控制由陀螺仪组件提供的角动量,以控制由设备提供的定向力。因此,为了控制角动量,要知道每个转子的角速度。值得注意的是,霍尔传感器用于测量磁场的大小,并且可以检测其中的任何变化。传感器装置中的霍尔传感器测量转子的角速度,并将其传送给处理装置。有利地,传感器装置允许处理装置确保设备处于适当的操作状态,并且准确地提供导航命令。
可选地,移动辅助设备使用电池来为处理装置、力反馈构件及其其他部件供电。值得注意的是,电池可以是可再充电的。壳体可以包括其上的机械按钮,以将电池从设备移除。
可选地,移动辅助设备进一步包括信令构件,该信令构件被配置为指示用户的移动方向。这里,信令构件向即将到来的行人或汽车指示用户的移动方向。信令构件可以包括安装在壳体的前部的一个或多个LED(发光二极管),其中,LED可以基于用户的投影轨迹而被点亮,以通知即将到来的行人。在一个实例中,信令构件可以包括被实现为显示板的LED阵列,该显示板可以显示指示用户移动方向的箭头或信号。
可选地,移动辅助设备集成在可穿戴设备(例如手套、智能手表等)内。值得注意的是,这种集成增强了设备的易用性,并且消除了携带用于导航的附加工具的需要。可选地,设备是模块化的,其中,设备可以附接到可穿戴设备。
本公开还涉及如上所描述的方法。上面公开的各种实施例和变体在必要的修改后适用于该方法。
在另一方面,本公开的实施例提供了一种移动辅助设备,包括:
-壳体;
-传感器装置,用于获取与其中正在使用设备的环境相关的信息;
-跟踪构件,用于跟踪设备的位置和取向;
-处理装置,其被配置为:
-接收与设备的目标位置相关的输入,
-从传感器装置接收与环境相关的信息,
-从跟踪构件接收设备的当前位置和当前取向,
-计算用于将设备定位在目标位置的导航命令序列;以及
-力反馈构件,其被配置为执行用于将设备定位在目标位置的一个或多个动作。
在示例性实施例中,包括但不限于触摸传感器和/或一个或多个按钮的输入设备-指纹识别以及显示器,可以集成到设备中或无线连接到设备,并且可以能够显示来自立体相机和/或相机的视觉数据。此外,设备可以包括输入/输出端口(I/O端口)I/O端口和一个或多个用于连接附加外围组件的端口。例如,I/O端口可以是耳机插孔,也可以是数据端口。此外,设备可以连接到另一个设备或网络以进行数据下载(例如对设备的更新、地图信息或特定应用的其他相关信息),以及数据上传(例如使用收发器和/或I/O端口的状态更新和更新的地图信息),以允许设备与其他智能设备通信以进行分布式计算或共享资源。
在附加实施例中,例如,设备的存储器可以存储地图信息或数据,以帮助定位并向用户提供导航命令。地图数据可以被预加载、通过收发器无线下载,或者可以被可视地确定,例如通过捕获张贴在建筑物入口附近的建筑物地图,或者根据先前的遭遇和记录构建的建筑物地图。此外,处理器可以搜索存储器以确定存储器内是否有可用的地图。如果在存储器中地图不可用,则处理器可以经由收发器在远程连接的设备和/或云中搜索新位置的地图。地图可以包括任何类型的位置信息,例如对应于位置的图像数据、GPS坐标等。可替代地,处理器可以在存储器、云和/或远程设备内创建地图。当检测到新数据时,可以连续更新新地图,使得可以基于检测到的数据生成包括相关联数据的位置地图。
在另一实施例中,设备可以包括用于检测设备周围的环境光的光传感器。处理器可以从光传感器接收检测到的环境光,并基于检测到的光(例如通过调整相机的测光)来调整立体相机和/或相机。有利地,这允许相机在大多数照明情况下检测图像数据。
在各种实施例中,处理器可以适于确定电源的状态。例如,处理器能够基于当前电池状态来确定设备的剩余操作时间。
处理装置可以接收图像数据并确定是否选择了单个对象或人。可以基于从传感器装置收集的图像数据来进行该确定。例如,如果用户指向一个人或持有一对象,则处理装置可以确定该对象或人被选择用于标记。类似地,如果单个对象或人在立体相机和/或相机的视场中,则处理装置可以确定该对象或人已经被选择用于标记。在一些实施例中,处理装置可以基于用户的口头命令来确定要标记什么。例如,如果口头命令包括处理装置已经识别的对象的名称,则处理装置可以知道标签是针对该对象的。如果标签包括人名,则处理装置可以确定人要被标记。否则,处理装置可以确定当前位置要被标记。此外,如果用户陈述位置的名称,例如“我的工作场所”,则处理装置可以确定该位置被选择用于标记。
此外,处理器可以确定对象或人的标签。用户可以通过输入设备或通过说出标签来输入标签,使得设备经由麦克风检测标签。此外,处理器可以存储与对象或人以及存储器相关联的图像数据。处理器还可以将标签存储在存储器中,并将标签与图像数据相关联。以这种方式,与对象或人相关联的图像数据可以容易地从存储器中调用,因为它与标签相关联。此外,处理装置可以将当前位置和标签存储在存储器中。处理装置还可以将位置与标签相关联,使得可以使用标签从存储器中检索位置信息。在一些实施例中,位置可以存储在数字地图上。此外,可以从用户接收包括期望的对象、地点或人的请求。这个请求可以是口头命令,例如“导航到朱利安处”、“弗雷德在哪里”、“带我到出口”等。
在另一实施例中,除了由一个或多个用户(例如,经由设备)提供的静态和动态障碍物数据之外,还可以使用由一个或多个车辆(例如,自动驾驶车辆)提供的数据来生成并周期性地更新地图(例如,HD地图)。
在各种实施例中,GPS接收器可以被配置为使用LS频带(例如,以大约1176.45MHz为中心)来进行更高精度的位置确定(例如,将设备精确定位到30厘米或大约1英尺内)。
在又一实施例中,设备可以包括路由模块。路由模块可以包括计算机可执行指令、代码等,其响应于一个或多个处理器的执行可以执行本文描述的处理流程的一个或多个块和/或功能,包括但不限于确定兴趣点、确定历史用户选择或偏好、确定最佳路由、确定实时交通数据、确定建议的路由选项、发送和接收数据、控制设备特征等。此外,路由模块可以与设备、第三方服务器、用户设备和/或其他部件通信。例如,路由模块可以向设备发送路线数据,从第三方服务器接收交通和障碍物信息,接收用户偏好等。
在一个实施例中,设备可以采用人工智能来促进自动化本文描述的一个或多个特征,例如,执行对象检测和/或识别、确定最佳路线、基于用户偏好提供指令等)。部件可以采用各种基于AI的方案来实施本文公开的各种实施例/实例。为了提供或帮助本文描述的众多确定(例如,确定、确定、推断、计算、预测、预测、估计、导出、预测、检测、计算),本文描述的部件可以检查其被授权访问的数据的整体或子集,并且可以提供关于系统、环境等的状态的推理或从经由事件和/或数据捕获的一组观察中确定系统、环境等的状态。例如,可以采用确定来识别特定的上下文或动作,或者可以生成状态上的概率分布。确定可以是概率性的-也就是说,基于对数据和事件的考虑,计算感兴趣状态的概率分布。确定还可以指用于从一组事件和/或数据组成更高级别的事件的技术。
这种确定可以导致从一组观察到的事件和/或存储的事件数据构建新的事件或动作,无论这些事件在时间上是紧密相关的,也无论这些事件和数据是来自一个还是多个事件和数据源。本文公开的部件可以采用各种分类(显式训练(例如,经由训练数据)以及隐式训练(例如,经由观察行为、偏好、历史信息、接收外部信息等))方案和/或系统(例如,支持向量机、神经网络、专家系统、贝叶斯信念网络、模糊逻辑、数据融合引擎等)来执行与所要求保护的主题相关的自动和/或确定的动作。因此,分类方案和/或系统可以用于自动学习和执行多个功能、动作和/或确定。
在替代实施例中,设备可进一步包括非易失性介质(也称为非易失性存储器、存储器、存储器存储器、存储器电路和/或本文可互换使用的类似术语)或与非易失性介质通信。在一个实施例中,非易失性存储器或存储器可以包括一个或多个非易失性存储器或存储介质310,包括但不限于硬盘、ROM、PROM、EPROM、EEPROM、闪存、MMC、SD存储卡、记忆棒、CBRAM、PRAM、FeRAM、NVRAM、MRAM、RRAM、SONOS、FJG RAM、千足虫存储器、跑道存储器和/或类似物。如将认识到的,非易失性存储器或存储介质可以存储数据库、数据库实例、数据库管理系统、数据、应用、程序、程序模块、脚本、源代码、目标代码、字节代码、编译代码、解释代码、机器代码、可执行指令和/或类似物。本文可互换使用的术语数据库、数据库实例、数据库管理系统和/或类似术语可以指使用一个或多个数据库模型(例如分层数据库模型、网络模型、关系模型、实体关系模型、对象模型、文档模型、语义模型、图形模型等)存储在计算机可读存储介质中的记录或数据的集合。
在一个实施例中,设备可进一步包括易失性介质(也称为易失性存储器、存储器、存储器存储器、存储器电路和/或本文可互换使用的类似术语)或与易失性介质通信。在一个实施例中,易失性存储器或存储器还可以包括一个或多个易失性存储器或存储介质,包括但不限于RAM、DRAM、SRAM、FPM DRAM、EDO DRAM、SDRAM、DDR2 SDRAM、DDR3SDRAM、RDRAM、TTRAM、I-RAM、Z-RAM、RIMM、DIMM、SIMM、VRAM、高速缓冲存储器、寄存器存储器和/或类似物。如将认识到的,易失性存储器或存储介质可以用于存储由例如处理装置执行的数据库、数据库实例、数据库管理系统、数据、应用、程序、程序模块、脚本、源代码、目标代码、字节代码、编译代码、解释代码、机器代码、可执行指令和/或类似物的至少部分。因此,数据库、数据库实例、数据库管理系统、数据、应用、程序、程序模块、脚本、源代码、目标代码、字节代码、编译代码、解释代码、机器代码、可执行指令和/或类似物可以用于在处理装置和操作系统的帮助下控制设备操作的某些方面。
附图的具体描述
参考图1,示出了根据本公开的实施例的移动辅助设备100的框图。该设备100包括壳体102、传感器装置104、跟踪构件106、处理装置108和力反馈构件110。传感器装置104获取与其中正在使用设备100的环境相关的信息。跟踪构件106用于跟踪设备100的位置和取向。处理装置108被配置为接收与设备100的用户的目的地相关的输入,从传感器装置104接收与环境相关的信息,从跟踪构件106接收设备100的当前位置和当前取向,确定用于从设备100的当前位置开始到达目的地的最佳路线,以及计算最佳路线的导航命令序列。力反馈构件110被配置为执行一个或多个动作以将导航命令传送给用户,其中,一个或多个动作辅助用户穿越最佳路线。
参考图2,示出了根据本公开的实施例的移动辅助设备200的透视图。设备200包括壳体202。值得注意的是,壳体202的前部204基本上包围移动辅助设备200的部件(即,传感器装置、跟踪构件、处理装置、力反馈构件)。此外,壳体202具有抓握部206,其用于允许设备200的用户将设备200握在手中。
参考图3,示出了根据本公开的实施例的移动辅助设备200的横截面侧视图。如图所示,设备200包括用于包围设备202的部件的壳体202。设备200包括布置在壳体202的前部的传感器装置302和跟踪构件(未示出)。设备200进一步包括处理装置304。此外,设备200包括力反馈构件,该力反馈构件包括陀螺仪组件306,该陀螺仪组件被配置为生成角动量以在设备200中引起定向力。在图4中详细说明陀螺仪组件306。此外,移动辅助设备200使用可插入电池舱室308中的电池,用于为处理装置304、力反馈构件和其中的其他部件(例如传感器装置302和跟踪构件)供电。
参考图4,示出了根据本公开的实施例的陀螺仪组件306的分解图。如图所示,陀螺仪组件306实际上被实现为惯性轮组件。组件306由三个圆形转子组成,例如转子402、404和406,它们正交放置在x、y和z平面上,当旋转时,它们对每个轴产生单独的扭矩。值得注意的是,三个圆形转子402、404、406基本上共享一个共同的重心。陀螺仪组件306包括包围三个圆形转子402、404、406中的每一个的圆形轨道外壳,例如外壳408、410、412。移动辅助设备采用无刷电动机设计来旋转嵌入在三个圆形转子402、404、406中的每一个内的磁性图案化环。磁性图案化环包括嵌入转子圆周中的多个磁体,例如嵌入转子406的圆周中的磁体414。
参考图5,示出了描述根据本公开的实施例的向用户提供移动辅助的方法的步骤的流程图500。在步骤502,接收与用户的目的地相关的输入。在步骤504,接收与其中正在使用设备的环境相关的信息。在步骤506,捕获基于与环境相关的信息的环境的三维模型。在步骤508,接收设备(例如图1的设备100)的当前位置和当前取向。在步骤510,确定用于从设备的当前位置开始到达目的地的最佳路线。在步骤512,计算最佳路线的导航命令序列。在步骤514,经由设备执行一个或多个动作以将导航命令传送给用户,其中,一个或多个动作辅助用户穿越最佳路线。
在不脱离由所附权利要求限定的本公开的范围的情况下,对前述所描述的本公开的实施例的修改是可能的。用于描述和要求本公开的诸如“包括”、“包含”、“结合”、“具有”、“是”的表达式旨在以非排他性的方式解释,即允许还存在未明确描述的项目、部件或元件。对单数的引用也应被解释为涉及复数。

Claims (10)

1.一种移动辅助设备(100),包括:
-壳体(102);
-传感器装置(104);
-跟踪构件(106),用于跟踪所述设备的位置和取向;
-处理装置(108),被配置为:
-接收与所述设备(100)的用户的目的地相关的输入,
-从所述传感器装置(104)接收与环境相关的信息,
-基于来自所述传感器装置(104)的与所述环境相关的信息来计算所述环境的三维模型,
-从所述跟踪构件(106)接收所述设备(100)的当前位置和当前取向,
-确定从所述设备(100)的所述当前位置开始到达所述目的地的最佳路线,以及
-计算所述最佳路线的导航命令的序列;
-力反馈构件(110),被配置为执行一个或多个动作以将导航命令传送给所述用户,其中,所述一个或多个动作辅助所述用户穿越所述最佳路线,
其中,所述最佳路线由所述导航命令的序列确定,其中,所述导航命令被确定为与所述最佳路线相关的定向命令和特定于所述设备(100)的当前环境的命令的组合,并且其中,所述定向命令是使用常规卫星导航系统确定的,并且其中,所述移动辅助设备(100)是手持设备。
2.根据权利要求1所述的设备(100),其中,所述传感器装置(104)包括下列中的至少一项:飞行时间相机、RGB相机、超声波传感器、红外传感器、麦克风阵列、霍尔效应传感器。
3.根据权利要求1或2所述的设备(100),其中,所述跟踪构件(106)包括下列中的至少一项:卫星导航设备、惯性测量单元、航位推算单元。
4.根据前述权利要求中任一项所述的设备(100),其中,所述一个或多个动作包括下列中的至少一项:定向力、音频信号、触觉振动。
5.根据前述权利要求中任一项所述的设备(100),其中,所述力反馈构件(110)包括陀螺仪组件(306),所述陀螺仪组件被配置为生成角动量以在所述设备(100)中引起定向力。
6.根据权利要求5所述的设备(100),其中,所述传感器装置还被配置为测量所述陀螺仪组件(306)中的一个或多个转子(402)的角速度。
7.根据前述权利要求中任一项所述的设备(100),还包括信令构件,所述信令构件被配置为向即将到来的行人或汽车指示所述用户的移动方向。
8.根据前述权利要求中任一项所述的设备,其中,所述处理装置采用机器学习算法。
9.根据权利要求1或2所述的设备(100),其中,通过分析来自所述传感器装置(104)的数据来计算所述环境的所述三维模型,以识别所述设备(100)正被使用的所述环境的各种属性,其中,所述处理装置(108)还被配置为对从RGB相机获得的图像执行边缘检测以用于障碍物识别,并对从飞行时间相机获得的图像执行深度感测以测量障碍物与所述设备(100)的距离。
10.一种使用前述权利要求中任一项所述的设备(100)向用户提供移动辅助的方法,所述方法包括:
-接收与所述用户的目的地相关的输入;
-接收与所述设备正被使用的环境相关的信息;
-基于与所述环境相关的所述信息计算所述环境的三维模型;
-接收所述设备(100)的当前位置和当前取向;
-确定从所述设备(100)的所述当前位置开始到达所述目的地的最佳路线;
-计算所述最佳路线的导航命令的序列;以及
-经由所述设备(100)执行一个或多个动作以将导航命令传送给所述用户,其中,所述一个或多个动作辅助所述用户穿越所述最佳路线,
其中,所述最佳路线由所述导航命令的序列确定,其中,所述导航命令被确定为与所述最佳路线相关的定向命令和特定于所述设备(100)的当前环境的命令的组合,并且其中,所述定向命令是使用常规卫星导航系统确定的。
CN202180053346.6A 2020-09-03 2021-09-03 移动辅助设备和提供移动辅助的方法 Pending CN116075695A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB2013876.4 2020-09-03
GB2013876.4A GB2598596B (en) 2020-09-03 2020-09-03 Mobility assistance device and method of providing mobility assistance
PCT/IB2021/058058 WO2022049533A1 (en) 2020-09-03 2021-09-03 Mobility assistance device and method of providing mobility assistance

Publications (1)

Publication Number Publication Date
CN116075695A true CN116075695A (zh) 2023-05-05

Family

ID=72841337

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180053346.6A Pending CN116075695A (zh) 2020-09-03 2021-09-03 移动辅助设备和提供移动辅助的方法

Country Status (9)

Country Link
US (1) US20230266140A1 (zh)
EP (1) EP4208689A1 (zh)
JP (1) JP2023540554A (zh)
KR (1) KR20230078647A (zh)
CN (1) CN116075695A (zh)
AU (1) AU2021336838A1 (zh)
CA (1) CA3190765A1 (zh)
GB (1) GB2598596B (zh)
WO (1) WO2022049533A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113434038A (zh) * 2021-05-31 2021-09-24 广东工业大学 基于增强现实的视障儿童定向行走训练辅助系统的控制方法
CN117782137B (zh) * 2023-12-28 2024-08-09 重庆交通大学 一种智能轮椅路径定位识别及规划方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9915545B2 (en) * 2014-01-14 2018-03-13 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
WO2016020868A1 (en) * 2014-08-06 2016-02-11 Haways S.R.L. Actuator for haptic devices
JP6940223B2 (ja) * 2016-08-18 2021-09-22 ソニーグループ株式会社 情報処理装置、情報処理システム及び情報処理方法
US10852730B2 (en) * 2017-02-08 2020-12-01 Brain Corporation Systems and methods for robotic mobile platforms
DE102018204682A1 (de) * 2018-03-27 2019-10-02 Robert Bosch Gmbh Unaufdringliche Fußgängernavigation
US10809079B2 (en) * 2018-08-24 2020-10-20 Ford Global Technologies, Llc Navigational aid for the visually impaired
DE202019005446U1 (de) * 2019-04-12 2020-08-24 Karl Kober Leitsystem mit einer Navigationsvorrichtung

Also Published As

Publication number Publication date
GB2598596B (en) 2022-08-24
EP4208689A1 (en) 2023-07-12
GB202013876D0 (en) 2020-10-21
WO2022049533A1 (en) 2022-03-10
GB2598596A (en) 2022-03-09
CA3190765A1 (en) 2022-03-10
JP2023540554A (ja) 2023-09-25
AU2021336838A1 (en) 2023-03-23
KR20230078647A (ko) 2023-06-02
US20230266140A1 (en) 2023-08-24

Similar Documents

Publication Publication Date Title
Fernandes et al. A review of assistive spatial orientation and navigation technologies for the visually impaired
Wang et al. Enabling independent navigation for visually impaired people through a wearable vision-based feedback system
Li et al. Vision-based mobile indoor assistive navigation aid for blind people
Li et al. ISANA: wearable context-aware indoor assistive navigation with obstacle avoidance for the blind
US11697211B2 (en) Mobile robot operation method and mobile robot
Jain Path-guided indoor navigation for the visually impaired using minimal building retrofitting
KR20190100085A (ko) 인공 지능을 이용하여, 위험 상황을 감지할 수 있는 로봇 및 그의 동작 방법
WO2018156549A1 (en) Personal navigation system
JP2014176963A (ja) ロボット装置/プラットフォームを使用して能動的且つ自動的なパーソナルアシスタンスを提供するコンピュータベースの方法及びシステム
Lu et al. Assistive navigation using deep reinforcement learning guiding robot with UWB/voice beacons and semantic feedbacks for blind and visually impaired people
US20230266140A1 (en) Mobility assistance device and method of providing mobility assistance
Jain et al. Review on lidar-based navigation systems for the visually impaired
Motta et al. Overview of smart white canes: connected smart cane from front end to back end
Thiyagarajan et al. Intelligent guide robots for people who are blind or have low vision: A review
Hersh et al. Mobility: an overview
Muñoz et al. An assistive indoor navigation system for the visually impaired in multi-floor environments
US20230394677A1 (en) Image-based pedestrian speed estimation
Bamdad et al. SLAM for Visually Impaired People: A Survey
Al-Shehabi et al. An obstacle detection and guidance system for mobility of visually impaired in unfamiliar indoor environments
US20230128104A1 (en) Accessibility system for assisting a user in interacting with a vehicle
KR20160144643A (ko) 어라운드 뷰 제공장치 및 이를 구비한 차량
Raj et al. Ocularone: Exploring drones-based assistive technologies for the visually impaired
CN115038933A (zh) 车辆的导航指示
Gong et al. Building smart transportation hubs with internet of things to improve services to people with disabilities
Yusro et al. Concept and design of SEES (Smart Environment Explorer Stick) for visually impaired person mobility assistance

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination