CN106095071A - 用于触感引导的系统和方法 - Google Patents

用于触感引导的系统和方法 Download PDF

Info

Publication number
CN106095071A
CN106095071A CN201610274460.2A CN201610274460A CN106095071A CN 106095071 A CN106095071 A CN 106095071A CN 201610274460 A CN201610274460 A CN 201610274460A CN 106095071 A CN106095071 A CN 106095071A
Authority
CN
China
Prior art keywords
sensor
user
touch
haptic
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610274460.2A
Other languages
English (en)
Inventor
阿卜杜勒瓦哈卜·哈马姆
君·曼扭尔·克鲁斯-赫南德斯
吴立玟
贾迈勒·沙博恩
文森特·莱韦斯克
罗伯特·拉克鲁瓦
丹尼·格雷特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of CN106095071A publication Critical patent/CN106095071A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B6/00Tactile signalling systems, e.g. personal calling systems
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45BWALKING STICKS; UMBRELLAS; LADIES' OR LIKE FANS
    • A45B3/00Sticks combined with other objects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/06Walking aids for blind persons
    • A61H3/061Walking aids for blind persons with electronic detecting or guiding means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N1/00Electrotherapy; Circuits therefor
    • A61N1/40Applying electric fields by inductive or capacitive coupling ; Applying radio-frequency signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02KDYNAMO-ELECTRIC MACHINES
    • H02K41/00Propulsion systems in which a rigid body is moved along a path due to dynamo-electric interaction between the body and a magnetic field travelling along the path
    • H02K41/02Linear motors; Sectional motors
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02NELECTRIC MACHINES NOT OTHERWISE PROVIDED FOR
    • H02N2/00Electric machines in general using piezoelectric effect, electrostriction or magnetostriction
    • H02N2/02Electric machines in general using piezoelectric effect, electrostriction or magnetostriction producing linear motion, e.g. actuators; Linear positioners ; Linear motors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72475User interfaces specially adapted for cordless or mobile telephones specially adapted for disabled users
    • H04M1/72481User interfaces specially adapted for cordless or mobile telephones specially adapted for disabled users for visually impaired users
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/06Walking aids for blind persons
    • A61H3/061Walking aids for blind persons with electronic detecting or guiding means
    • A61H2003/063Walking aids for blind persons with electronic detecting or guiding means with tactile perception
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/01Constructive details
    • A61H2201/0119Support for the device
    • A61H2201/0153Support for the device hand-held
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/01Constructive details
    • A61H2201/0173Means for preventing injuries
    • A61H2201/0184Means for preventing injuries by raising an alarm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/10Characteristics of apparatus not provided for in the preceding codes with further special therapeutic means, e.g. electrotherapy, magneto therapy or radiation therapy, chromo therapy, infrared or ultraviolet therapy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/16Physical interface with patient
    • A61H2201/1602Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
    • A61H2201/1635Hand or arm, e.g. handle
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5007Control means thereof computer controlled
    • A61H2201/501Control means thereof computer controlled connected to external computer devices or networks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5007Control means thereof computer controlled
    • A61H2201/501Control means thereof computer controlled connected to external computer devices or networks
    • A61H2201/5012Control means thereof computer controlled connected to external computer devices or networks using the internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5064Position sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5079Velocity sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5084Acceleration sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5092Optical sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5097Control means thereof wireless

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Epidemiology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Rehabilitation Therapy (AREA)
  • Pain & Pain Management (AREA)
  • Power Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Electromagnetism (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

公开了用于触感引导的系统和方法。本文中的一个说明性方法公开包括:从传感器接收传感器信号,该传感器被配置成确定与区域相关联的一个或多个对象;部分地基于传感器信号来确定区域信息;部分地基于区域信息来确定触觉效果;以及把与触觉效果相关联的触觉信号发射到被配置成输出触觉效果的触觉输出设备。

Description

用于触感引导的系统和方法
技术领域
本发明涉及用户接口设备领域。更具体地,本发明涉及用于触感引导的系统。
背景技术
诸如移动电话的手持式设备已变得越来越流行。某些这类设备包括区域传感器。这些区域传感器使得移动设备能够检测关于周围区域的信息。此信息然后可经由视觉装置被传达给用户。许多设备进一步包括触觉反馈的能力,其能够用于经由触感装置向用户传达信息。因此,对用于触感引导的系统和方法存在需求。
发明内容
本发明的实施例包括以确定触觉信号并输出触觉效果的能力为特征的设备。在某些实施例中,这些触觉效果可包括模拟触摸区域中的一个或多个特征的基于表面的触觉效果。特征可包括但不限于能够通过使用与表面接触的对象而察觉的边界的纹理和/或模拟的改变、障碍物或触摸表面的其它不连续性。在某些实施例中,触觉效果可包括表面变形、振动及在本领域中已知的其它触感效果。在某些实施例中,这些触觉效果可用来传达与区域相关联的信息,例如,与区域中的障碍物或区域的地图相关联的信息。
在一个实施例中,一种用于触感引导的方法包括:从传感器接收传感器信号,该传感器被配置成确定与区域相关联的一个或多个对象;部分地基于传感器信号来确定区域信息;部分地基于区域信息来确定触觉效果;以及把与触觉效果相关联的触觉信号发射到被配置成输出触觉效果的触觉输出设备。
在另一说明性实施例中,一种用于触感引导的系统包括:传感器,其被配置成确定区域信息并发射与该区域信息相关联的传感器信号;处理器,其与所述传感器通信并被配置成:部分地基于传感器信号来确定区域信息,部分地基于区域信息来确定触觉效果,以及发射与触觉效果相关联的触觉信号;与处理器通信的触觉输出设备,该触觉输出设备被配置成接收触觉信号并输出触觉效果。
另一说明性实施例包括包含程序代码的非暂态计算机可读介质,该程序代码被配置成当由处理器执行时使处理器:从传感器接收传感器信号,该传感器被配置成确定与区域相关联的一个或多个对象;部分地基于传感器信号来确定区域信息;部分地基于区域信息来确定触觉效果;以及把与触觉效果相关联的触觉信号发射到被配置成输出触觉效果的触觉输出设备。
提及这些说明性实施例,并不是为了限制或定义本主题的界限,而是提供示例以帮助其理解。在具体实施方式中讨论了说明性实施例,并且在那里提供了进一步描述。可通过研究本说明书和/或通过实施要求保护的主题的一个或多个实施例来进一步理解由各种实施例提供的优点。
附图说明
在本说明书的其余部分中更特别地阐述了全面且能够实现的公开。本说明书参考以下附图。其中
图1A示出了用于触感引导的说明性系统。
图1B示出了图1A中所示的系统的一个实施例的外部视图。
图1C图示出图1A中所示的系统的另一实施例的外部视图。
图2A图示出用于触感引导的示例性实施例。
图2B图示出用于触感引导的另一示例性实施例。
图3A图示出用于触感引导的另一示例性实施例。
图3B图示出用于触感引导的又一示例性实施例。
图4图示出用于触感引导的又一示例性实施例。
图5是用于触感引导的一个示例性实施例的方法步步骤的流程图。
具体实施方式
现在将对各种可替换说明性实施例及附图详细地进行参考。是以说明的方式而不是将其作为限制来提供每个示例。对于本领域的技术人员而言将显而易见的是能够做出修改和变更。例如,作为一个实施例的一部分示出或描述的特征可用于另一实施例中以产生又一进一步的实施例。因此,意图在于本公开包括落在所附权利要求及其等价物范围内的修改和变更。
用于触感引导的设备的说明性示例
本公开的一个说明性实施例包括移动电子设备,诸如平板电脑、电子阅读器、移动电话、可穿戴设备或诸如膝上型计算机的计算机。在说明性实施例中,电子设备包括显示器(诸如触摸屏显示器)、存储器以及与这些元件中的每一个通信的处理器。该说明性设备包括通常基于移动设备的应用,例如用于发送短信、电子邮件、游戏等的应用。说明性设备的用户可在从事要求用户的集中注意力的其它活动的同时,例如走过房间或走在拥挤的街道上,使用这些应用。
在说明性实施例中,移动设备进一步包括区域传感器,其被配置成检测设备周围的区域中的一个或多个对象,并发射与这些对象相关联的传感器信号。在说明性实施例中,一个或多个对象可包括在用户周围的区域中发现的任何对象,例如室内对象(例如,家具、支柱、墙壁、门或与室内区域相关联的其它对象);室外对象(例如,树、岩石、坑、树根、树桩、路缘、汽车、自行车或与室外区域相关联的其它对象)。此外,一个或多个对象可包括移动对象(例如,动物、汽车、人等)或非移动对象(例如,树、墙壁、水坑等)。在说明性实施例中,区域传感器可包括超声波传感器、红外传感器、激光传感器或照相机中的一个或多个。在某些实施例中,可将区域传感器进一步配置成检测一个或多个对象的一个或多个关键描述符。在某些实施例中,这些关键描述符可包括例如色彩、温度、移动、加速度、维度或与对象相关联的某个其它特性。
在本说明性实施例中,处理器可从区域传感器接收信号。基于这些信号,处理器可确定与用户周围的区域相关联的一个或多个对象,以及与这些对象相关联的一个或多个关键描述符。例如,在本说明性实施例中,区域传感器可检测到用户周围的区域的各种对象,用户周围的区域例如为用户位于其中的室内或室外区域。在本说明性实施例中,移动设备可部分地基于该区域中的对象来确定用户的位置。例如,移动设备可将与对象相关联的数据与区域信息的数据库相比较。基于该比较,移动设备可确定移动设备和用户处于已知位置中,例如家、商场、公园、校园、办公室或某个其它已知位置。在此类实施例中,数据库可包括互联网可访问的“云”数据库,其可被一个或多个公共和/或私有组连续地更新。此外,此类数据库可包括多个移动应用和网页使用或访问的地图数据的数据库。在某些实施例中,此数据库可包括与遍及地球的各种区域相关联的区域信息。在说明性实施例中,处理器可将此区域信息与在用户周围检测到的信息相比较,并且部分地基于此比较,确定用户的当前位置。
在说明性实施例中,用户可在穿过一区域(例如,房间、门厅或人行道)的同时将注意力集中于移动设备的显示器。例如,用户可将注意力集中于发送消息应用,并且因此未将其注意力集中于他或她的周围环境。在此类实施例中,移动设备可确定用户很可能走进一个或多个对象,例如,该对象可包括在用户的路径上的障碍物,例如椅子。在此类实施例中,移动设备可输出警告用户的警报。在本说明性实施例中,此警报可包括图形警报(例如,显示器上的可见警告)、可听警报(例如,可听警报)或触感警报(例如,振动、变形、表面特征或某个其它触觉效果)中的一个或多个。例如,在本说明性实施例中,如果移动设备确定用户在障碍物的特定距离内,则移动设备可输出两个警报。在本说明性实施例中,这两个警报可包括诸如在移动设备的显示器上显示文本的图形警报以及触觉警报。在某些实施例中,触感警报可包括例如振动、变形(例如,在对象的方向上或在远离对象的方向上的表面的变形)或者基于表面的效果(例如,触摸表面上的摩擦系数的变化)。在本说明性实施例中,这些警报可通知用户他或她即将走进障碍物。
此外,在本说明性实施例中,处理器可确定用户位于其中的区域的“地图”。此地图可包括该区域和位于该区域中的各种对象的布局。在本说明性实施例中,处理器可将此地图存储在本地存储器中。此外,在此类实施例中,处理器可确定与该区域中的一个或多个对象相关联的触觉效果。在此类实施例中,本说明性设备可确定被配置成向用户警告对象位置的一个或多个触觉效果。在某些实施例中,可将这些触觉效果输出为基于表面的效果,例如在移动设备的显示器上。这些效果可允许用户通过与显示器的表面相交互来定位房间内诸如障碍物的对象。例如,诸如纹理或摩擦系数的变化的表面对象可指示各种对象的位置。替换地,处理器可随着用户接近对象而输出触觉效果,因此警告用户该对象是用户的路径中的障碍物。
在本说明性实施例中,移动设备可被配置成存储简化地图。例如,移动设备可确定从用户的当前位置到区域中的一个或多个对象的距离和角度。在本说明性实施例中,可使用简化地图来识别用户正在接近的对象,例如随着用户从一个位置移动至另一位置,移动设备可基于该简化地图来检测用户正在接近对象(例如,门厅或门)。
此外,在本说明性实施例中,移动设备可被配置成将用户指引到一位置。例如,在本说明性实施例中,移动设备可包括被配置成将用户从一个位置指引到另一位置的地图绘制或定位辅助应用。在本说明性实施例中,这些应用可被配置成利用卫星定位系统,例如GPS、AGPS、GLONASS、Galileo等,来确定用户的当前位置。在其它实施例中,移动设备可依赖于其它信息来确定用户的当前位置。例如,移动设备可基于使用区域传感器检测到的对象来确定用户的位置。此外,移动设备可基于这些对象来确定用户应改变方向。
在本说明性实施例中,移动设备可确定触觉效果以沿着路线(例如,室内路线或室外路线)引导用户。例如,在本说明性实施例中,移动设备可输出触觉效果以将用户引导至一位置。例如,在此类实施例中,在移动设备的右侧的触觉效果可指示用户应向右转,以及在移动设备的左侧的触觉效果可指示用户应向左转。在某些实施例中,这些触觉效果可包括例如振动、表面变形(例如,用户应朝着其转弯的方向的变形)或基于表面的效果(例如,摩擦系数或察觉的表面纹理的变化)。此外,在此类实施例中,移动设备可输出一个或多个警报以向用户警告用户即将遭遇障碍物。在某些实施例中,该警报可被具有视觉损伤的用户,或者例如在行走的同时正在发送文本或键入电子邮件的分心的用户所使用。
在另一说明性实施例中,本说明性设备可包括供视觉损伤者使用的设备。在一个实施例中,此设备可包括触觉手杖。在此类实施例中,该触觉手杖可包括区域传感器(例如,超声波传感器、红外传感器、激光传感器或照相机)和一系列触觉输出设备。在本说明性实施例中,可将触觉手杖配置成执行上文所讨论的操作。例如,该触觉手杖可被配置成检测用户路径中的障碍物,并输出触觉效果以向用户警告该障碍物。在本说明性实施例中,这些触觉效果可包括被配置成向用户警告障碍物的类型的效果,例如,墙壁可包括一个触觉效果以及门可包括不同的触觉效果。在某些实施例中,此警报可部分地基于与一个或多个对象相关联的一个或多个关键描述符。此外,在本说明性实施例中,触觉手杖可包括向用户警告从一个位置到另一位置的路线或路径的功能。例如,触觉手杖可被配置成输出触觉效果以警告用户向前、向后、向左或向右移动。
在某些实施例中,本说明性设备可被配置成基于与检测到的对象相关联的一个或多个关键描述符来确定是否输出警报。在此类实施例中,关键描述符可包括例如对象的尺寸、移动方向、移动速度、与用户的距离、相关危险或与对象相关联的某个其它关键描述符。例如,如果检测到的对象是相对远距离的(例如,超过阈值距离),则本说明性设备可不输出警报。同样地,本说明性设备可确定关于对象的附加信息,例如,对象的尺寸、其相关危险、其移动速度、其移动方向,并且基于此信息来确定是否向用户输出警报。
此外,在某些实施例中,用户周围的区域中的一个或多个对象可包括活动对象。例如,活动对象可包括具有处理和数据传输能力的对象。这些活动对象可被配置成与可经由诸如互联网的网络访问的说明性设备或服务器通信,并提供关于该活动对象周围的区域的信息。在某些实施例中,此信息可包括关于活动对象、区域中的其它对象和/或用户向说明性设备的移动的信息。本说明性设备可使用这些信号来确定是否向用户输出警报和/或向用户输出何种类型的警报。例如,在本说明性实施例中,活动对象可包括专用传感器、包括区域传感器的移动设备或包括区域传感器的其它电子设备。在本说明性实施例中,这些活动对象可周期性地或基本上连续地检测区域信息并发射与此区域信息相关联的信号。这些信号可被上传到其它移动设备可访问的数据库,例如可经由互联网访问的云数据库。替换地,在某些实施例中,活动对象可被配置成直接向其它设备,例如与活动对象在同一区域中的其它移动设备,发射数据。
提及这些说明性实施例,并不是为了限制或定义本主题的界限,而是提供示例以帮助其理解。在具体实施方式中讨论了说明性实施例,并且在那里提供了进一步描述。可通过研究本说明书和/或通过实施要求保护的主题的一个或多个实施例来进一步理解由各种实施例提供的优点。
用于触感引导的说明性系统
图1A示出了用于触感引导的说明性系统100。特别地,在本示例中,系统100包括计算设备101,其具有经由总线106与其它硬件对接的处理器102。可以包括任何适当有形(且非暂态)计算机可读介质的存储器104,诸如RAM、ROM、EEPROM等,体现了配置计算设备的操作的程序部件。在本示例中,计算设备101进一步包括一个或多个网络接口设备110、输入/输出(I/O)接口部件112以及附加储存器114。
网络设备110能够表示促进网络连接的任何部件中的一个或多个。示例包括但不限于诸如以太网、USB、IEEE 1394的有线接口,和/或诸如IEEE 802.11、蓝牙或用于访问蜂窝式电话网络的无线电接口(例如,用于访问CDMA、GSM、UMTS或其它移动通信网络的收发机/天线)的无线接口。
I/O部件112可用来便利到设备的连接,该设备诸如为一个或多个显示器、键盘、鼠标、扬声器、扩音器、照相机(例如,移动设备的前置和/或后置镜头)、卫星定位系统接收机(例如,GPS、AGPS、GLONASS、Galileo等)和/或用来输入数据或输出数据的其它硬件。储存器114表示非易失性储存器,诸如包括在设备101中的磁性、光学或其它存储介质。
区域传感器115包括一个或多个设备,其被配置成检测与用户周围的区域相关联的对象,并向处理器102发射与这些对象相关联的信号。例如,区域传感器115可包括超声波传感器、红外传感器、激光传感器或照相机(例如,光学或红外照相机)中的一个或多个。在一个实施例中,区域传感器115可包括MB1320XL-MaxSonar-AE2,然而,在其它实施例中,可同样或替换地使用许多其它类型和型号的区域传感器。在某些实施例中,由区域传感器115检测到的对象可包括在用户周围的区域中发现的任何对象,例如室内对象(例如,家具、支柱、墙壁、门或与室内区域相关联的其它对象);室外对象(例如,树、岩石、坑洞、树根、树桩、路缘、汽车、自行车或与室外区域相关联的其它对象)。此外,对象可包括移动对象(例如,动物、汽车、人等)或非移动对象(例如,树、墙壁、水坑等)。在某些实施例中,可将区域传感器进一步配置成检测一个或多个对象的一个或多个关键描述符。在某些实施例中,这些关键描述符可包括例如色彩、温度、移动、加速度、维度或与对象相关联的某个其它特性。例如,在某些实施例中,区域传感器115可包括红外照相机。在某些实施例中,红外照相机可检测一个或多个对象的热特性。在某些实施例中,热特性可用来检测对象是否是活的(例如,人或动物)或对象的威胁水平,例如火或热板。
在某些实施例中,用户周围的区域中的一个或多个对象可包括活动对象。例如,活动对象可包括具有处理和数据传输能力的对象。这些活动对象可被配置成与系统100通信并提供关于活动对象、区域中的其它对象和/或用户向设备100的移动的信息。在某些实施例中,这些信号可被区域传感器115接收到。此外,在某些实施例中,设备100的处理器102可使用这些信号来确定是否向用户输出警报和/或向用户输出何种类型的警报。例如,在本说明性实施例中,活动对象可包括专用传感器、包括区域传感器的移动设备或包括区域传感器的其它电子设备。在本说明性实施例中,这些活动对象可周期性地或基本上连续地检测区域信息,并发射与此区域信息相关联的信号。这些信号可被上传到其它移动设备可访问的数据库,例如可经由互联网访问的云数据库。因此,在某些实施例中,可在检测到数据之后的一定时间(例如,几分钟、几小时、几天、几星期或几年等)内由计算设备存储并访问由活动对象检测到的数据。替换地,在某些实施例中,活动对象可被配置成直接向其它设备,例如与活动对象在同一区域中的其它移动设备,发射数据。
在一个实施例中,系统100基于信号数据,例如GPS、Wi-Fi或蜂窝信号,来发现设备100周围的区域中的活动对象。在某些实施例中,此数据可包括与活动对象的位置相关联的数据和与设备100的位置相关联的数据。在另一实施例中,中央系统/服务器接收与设备100和活动对象相关联的数据,并基于此数据来确定在设备100周围的区域中的活动对象。在某些实施例中,设备100和活动对象可直接地以无线方式(例如经由Wi-Fi、蓝牙等)进行通信。在其它实施例中,设备100和活动对象可通过经由网络可访问的中央系统/服务器进行通信。此外,在某些实施例中,活动对象可包括区域中的一个或多个其它用户的设备(例如,类似于设备100的其它设备)。
系统100进一步包括触摸表面116,其在本示例中被集成到设备101中。触摸表面116表示被配置成感测用户的触摸输入的任何表面。一个或多个传感器108可被配置成当对象接触触摸表面时检测触摸区域中的触摸,并提供恰当的数据以供处理器102使用。能够使用任何适当数目、类型或布置的传感器。例如,可将电阻和/或电容传感器嵌入触摸表面116中并用其来确定触摸的位置及其它信息,诸如压力。作为另一示例,可使用具有触摸表面的视图的光学传感器来确定触摸位置。在某些实施例中,传感器108和触摸表面116可包括触摸屏或触控板。例如,在某些实施例中,触摸表面116和传感器108可包括安装在显示器顶部上的触摸屏,该显示器被配置成接收显示信号并向用户输出图像。在其它实施例中,传感器108可包括LED检测器。例如,在一个实施例中,触摸表面116可包括安装在显示器侧面的LED手指检测器。在某些实施例中,处理器与单个传感器108通信,在其它实施例中,处理器与多个传感器108通信,例如第一触摸屏和第二触摸屏。
在某些实施例中,一个或多个传感器108进一步包括被配置成检测移动设备的移动的一个或多个传感器(例如,加速度计、陀螺仪、照相机、GPS或其它传感器)。这些传感器可被配置成例如当用户携带移动设备通过一区域时检测使设备在X、Y或Z平面内移动的用户交互。传感器108被配置成检测用户交互,并且基于该用户交互向处理器102发射信号。
在某些实施例中,传感器108可被配置成检测用户交互的多个方面。例如,传感器108可检测用户交互的速度和压力,并将此信息结合到接口信号中。此外,在某些实施例中,用户交互包括远离设备的多维用户交互。例如,在某些实施例中,可将与设备相关联的照相机配置成检测用户移动,例如手、手指、身体、头、眼睛或足部运动或与另一个人或对象的交互。
在图1A中所示的示例中,与处理器102通信的触觉输出设备118被耦合到触摸表面116。在某些实施例中,触觉输出设备118被配置成响应于触觉信号在触摸表面上输出模拟纹理的触觉效果。另外或替换地,触觉输出设备118可以受控方式提供移动触摸表面的振动触感触觉效果。某些触觉效果可利用被耦合到设备的外壳的致动器,并且某些触觉效果可按次序和/或一致地使用多个致动器。例如,在某些实施例中,可通过以不同频率来振动表面,来模拟表面纹理。在此类实施例中,触觉输出设备118可包括以下中的一个或多个:例如压电致动器、电动机、电磁致动器、音圈、形状记忆合金、电活性聚合物、螺线管、偏心旋转质量马达(ERM)或线性谐振致动器(LRA)。在某些实施例中,触觉输出设备118可包括多个致动器,例如ERM和LRA。
在某些实施例中,一个或多个触觉输出设备可被配置成在相对于设备的X、Y或Z平面内输出力。在某些实施例中,这些效果可被配置成模拟在显示器内的对象移动的感觉。例如,在一个实施例中,多维触觉效果可被配置成在X平面(向左或向右)、Y平面(向上或向下)、Z平面(进入显示器或从其中出来)或这些平面上的矢量中模拟对象移动(诸如移动的对象)。这些多维触觉效果可在触摸表面中模拟各特征。
虽然在这里示出了单个触觉输出设备118,实施例可使用相同或不同类型的多个触觉输出设备来输出触觉效果,例如在触摸表面上模拟表面纹理。例如,在一个实施例中,可使用压电致动器来以超声波频率垂直地和/或水平地取代触摸表面116的某些或全部,诸如在某些实施例中通过使用以大于20—25kHz的频率移动的致动器。在某些实施例中,能够单独地或一致地使用诸如偏心旋转质量马达和线性谐振致动器的多个致动器来提供不同的纹理及其它触觉效果。
在又一其它实施例中,触觉输出设备118可例如通过使用静电表面致动器而使用静电引力来在触摸表面116的表面上模拟纹理。类似地,在某些实施例中,触觉输出设备118可使用静电引力来改变用户在触摸表面116的表面上感觉到的摩擦。例如,在一个实施例中,触觉输出设备118可包括静电显示器或应用电压和电流而不是机械运动来生成触觉效果的任何其它设备。在此类实施例中,静电致动器可包括导电层和绝缘层。在此类实施例中,导电层可以是任何半导体或其它导电材料,诸如铜、铝、金或银。以及,绝缘层可以是玻璃、塑料、聚合物或任何其它绝缘材料。
处理器102可通过向导电层施加电信号来操作静电致动器。电信号可以是AC信号,其在某些实施例中将导电层与接近或触摸触摸表面116的对象电容耦合。在某些实施例中,AC信号可由高压放大器生成。在其它实施例中,电容耦合可在触摸表面116的表面上模拟摩擦系数或纹理。例如,在一个实施例中,触摸表面116的表面可以是光滑的,但是电容耦合可在接近触摸表面116的表面的对象之间产生吸引力。在某些实施例中,改变对象与导电层之间的吸引水平能够改变跨触摸表面116的表面移动的对象上的模拟纹理或改变随着对象跨触摸表面116的表面移动而感觉到的摩擦系数。此外,在某些实施例中,可结合传统致动器而使用静电致动器来改变触摸表面116的表面上的模拟纹理。例如,致动器可振动以模拟触摸表面116的表面的纹理的变化,同时,静电致动器可在触摸表面116的表面上或在计算设备101的另一部分(例如,其外壳或另一输入设备)上模拟不同的纹理或其它效果。
本领域的技术人员将认识到可使用多种个技术来输出触觉效果,诸如改变摩擦系数或在表面上模拟纹理。例如,在某些实施例中,可使用柔性表面层来模拟或输出纹理,该柔性表面层被配置成基于可重配置触觉基板(包括但不限于例如纤维、纳米管、电活性聚合物、压电元件或形状记忆合金)或磁流变流的来自表面的接触而改变其纹理。在另一实施例中,可通过例如用变形机构、空气或流体袋、材料的局部变形、谐振机械元件、压电材料、微机电(“MEMS”)元件、热流体袋、MEMS泵、可变孔隙度薄膜或层流调制来提高或降低一个或多个表面特征而改变表面纹理。
在某些实施例中,可使用静电致动器通过模拟在触摸表面116附近或与之接触的主体的部分来生成触觉效果。例如,在某些实施例中,静电致动器可刺激能够响应于静电致动器的用户手指的皮肤中的神经末梢,或者触笔中的部件。例如可刺激皮肤中的神经末梢并皮肤中的神经末梢可将静电致动器(例如,电容耦合)感测为振动或某个更加特定的感觉。例如,在一个实施例中,静电致动器的导电层可接收与用户手指的导电部分耦合的AC电压信号。随着用户触摸触摸表面116并在触摸表面上移动他或她的手指,用户可感测多刺、颗粒、凹凸不平、粗糙、粘性的纹理或某个其它纹理。
转到存储器104,描绘了示例性程序部件124、126以及128以举例说明如何能够在某些实施例中配置设备以提供触感引导。在本示例中,检测模块124将处理器102配置成处理从区域传感器115接收到的信号并确定用户周围的区域中的对象。例如,检测模块可将处理器102配置成随着用户穿过一区域而从区域传感器(115)接收信号。基于这些传感器信号,处理器102可连续地更新与相对于区域中的一个或多个对象(例如,墙、门厅、路缘、其它人等)的用户位置相关联的数据。
在某些实施例中,检测模块124和处理器102可通过将检测到的对象与数据库中的数据相比较来确定与地图相关联的信息,数据库例如为本地存储数据库或者经由网络连接访问的远程数据库。例如,在某些实施例中,处理器可通过从可经由互联网访问的远程数据库接收数据来确定地图。在某些实施例中,此类数据库可包括“云”数据库,其可被一个或多个公共或私营组织连续地更新。此外,此类数据库可包括多个移动应用和网页使用或访问的地图数据的数据库。此外,在某些实施例中,此数据库可包括与全球的各种区域相关联的区域信息。在本说明性实施例中,处理器可将此区域信息与在用户周围检测到的信息相比较以确定用户的当前位置。因此,在某些实施例中,处理器可通过将关于用户周围的区域的信息(例如,关于该区域中的对象的信息)与存储在数据库中的信息相比较来确定地图。在某些实施例中,处理器102可通过访问数据库来确定用户的当前位置。
触觉效果确定模块126表示分析关于对象的数据以选择要生成的触觉效果的程序组件。例如,在一个实施例中,模块126包括基于对象的位置来确定要生成的触觉效果的代码。例如,触觉效果确定模块126可包括可由用户选择的一个或多个预加载触觉效果。这些触觉效果可包括触觉输出设备118能够生成的任何类型的触觉效果。此外,在某些实施例中,模块126可包括被配置成操纵触觉效果的特性的程序代码,所述特性例如为效果的强度、频率、持续时间、占空比或与触觉效果相关联的任何其它特性。在某些实施例中,模块126可包括允许用户例如经由图形用户界面来操纵这些特性的程序代码。
此外,在某些实施例中,模块126可包括被配置成基于用户交互来确定触觉效果的程序代码。例如,模块126可被配置成监视触摸表面116上的用户输入,或被配置成检测移动设备的运动的诸如惯性传感器的其它传感器上的用户输入。模块126可检测此输入并基于该输入来生成触觉效果。例如,在某些实施例中,模块126可被配置成确定被配置成模拟用户交互的触觉效果。
触觉效果发生模块128表示促使处理器102生成并向触觉输出设备128发射触觉信号的程序组件,所述触觉信号促使触觉输出设备118生成所选的触觉效果。例如,发生模块128可访问要发送到触觉输出设备18的存储波形或命令。作为另一示例,触觉效果发生模块128可接收期望类型的纹理,并利用信号处理算法来生成要发送到触觉输出设备118的恰当信号。作为进一步的示例,可指示生成表面(和/或其它设备部件)的恰当取代的期望的纹理以及用于触觉效果的目标坐标和发送到一个或多个致动器的恰当波形,来提供触觉效果。某些实施例可一致地利用多个触觉输出设备来输出触觉效果。例如,可使用纹理的变化来模拟穿过在接口上的按钮之间的边界,而振动触感效果模拟按钮被按下。
根据计算系统的特定配置,触摸表面可覆盖或可不覆盖(或另外与之相对应)显示器。在图1B中,示出了计算系统100B的外部视图。计算设备101包括将设备的触摸表面与显示器组合的触摸使能显示器116。触摸表面可对应于显示器外部或在实际显示部件之上的一个或多个材料层。
图1C图示出其中触摸表面并未覆盖显示器的触摸使能计算系统100C的另一示例。在本示例中,计算设备101包括触摸表面116,其可被映射到在显示器122中提供的图形用户界面,所述显示器112被包括于对接到设备101的计算系统120中。例如,计算设备101可包括鼠标、跟踪板或其它设备,而计算系统120可包括台式计算机或膝上型计算机、机顶盒(例如,DVD播放器、DVR、有线电视盒)或另一计算设备。作为另一示例,可将触摸表面116和显示器122放置在同一设备中,诸如以显示器122为特征的膝上型计算机中的触摸使能跟踪板。无论是否与显示器集成,本文的示例中的平面触摸表面的描绘并不意图是限制性的。其它实施例包括进一步被配置成提供基于表面的触觉效果的弯曲或不规则的触摸使能表面。
图2A—2B图示出用于触感引导的设备的示例性实施例。图2A是图示出包括计算设备201的系统200的外部视图的图,计算设备201包含触摸使能显示器202。图2B示出了设备201的横截面图。可类似于图1A的设备101配置设备201,但为了清晰起见在此视图中未示出诸如处理器、存储器、传感器等的部件。
如在图2B中能够看到,设备201包括多个触觉输出设备218和附加触觉输出设备222。触觉输出设备218-1可包括被配置成对显示器202施加垂直力的致动器,而218-2可横向地移动显示器202。在本示例中,触觉输出设备218、222被直接地耦合到显示器,但应理解的是可以将触觉输出设备218、222耦合到另一触摸表面,诸如在显示器202的顶部上的材料层。此外,如上文所讨论的,应理解的是触觉输出设备218或222中的一个或多个可包括静电致动器。此外,触觉输出设备222可被耦合到包含设备201的部件的外壳。在图2A—2B的示例中,显示器202的区域对应于触摸区,但可以将本原理应用于与显示器完全分开的触摸表面。
在一个实施例中,每个触觉输出设备218包括压电致动器,而附加触觉输出设备222包括偏心旋转质量马达、线性谐振致动器或另一压电致动器。触觉输出设备222能够被配置成响应于来自处理器的触觉信号而提供振动触感触觉效果。可以结合基于表面的触觉效果和/或出于其它目的而利用振动触感触觉效果。例如,可以相结合地使用每个致动器来在显示器202的表面上模拟纹理。
在某些实施例中,触觉输出设备218-1和218-2中的任一者或两者能够包括除压电致动器之外的致动器。任何致动器能够包括例如压电致动器、电磁致动器、电活性聚合物、形状记忆合金、柔性复合材料压力致动器(例如,包括柔性材料的致动器)、静电和/或磁致伸缩致动器。另外,示出了触觉输出设备222,但能够将多个其它触觉输出设备耦合到设备201的外壳和/或可以将触觉输出设备222耦合到别处。设备201也可包括耦合到不同位置处的触摸表面的多个触觉输出设备218-1/218-2。
现在转到图3A,图3A包括根据本公开一个实施例的用于触感引导的实施例。图3A中所示的实施例包括计算设备300。如图3A中所示,计算设备300包括触摸屏显示器302。此外,计算设备300包括上述类型的区域传感器,例如超声波传感器、红外传感器、激光传感器或照相机中的一个或多个。在图3A中所示的实施例中,计算设备可执行移动应用(如移动游戏、发送消息应用、电子邮件应用、社交媒体应用等)。用户可在执行要求用户注意力的其它任务的同时,(如在具有障碍物的区域中行走或跑步时,将注意力集中在此应用上。
在图3A中所示的实施例中,被配置成执行用于触感引导的方法的软件程序可在用户使用另一应用的同时在后台运行。此程序可连续地监视从移动设备300的区域传感器接收到的信号。当区域传感器检测到用户的路径中的障碍物时,移动设备300向用户输出警报。此警报可包括可听、视觉或触觉警报。如图3A中所示,此警报包括图形警报和触觉警报(例如,振动)。图形警报304包括读作“检测到障碍物”的文本。在图3A中所示的实施例中,图形警报304覆盖移动设备的显示器,包括用户正在与之相交互的任何移动应用的显示。在其它实施例中,图形警报304可仅出现在背景中,而非覆盖整个显示器302。此外,如图3A中所示,计算设备300输出诸如强烈振动的触觉效果。在其它实施例中,移动设备300可被配置成输出可听警报,例如警告音,其可进一步警告用户障碍物在用户的路径中。
现在转到图3B,图3B包括根据本公开的一个实施例的用于触感引导的实施例。图3B中所示的实施例包括计算设备350。如图3B中所述,计算设备350包括触摸屏显示器302。在图3B中所示的实施例中,显示器显示用户沿着其行进的路线352。在图3B中所示的实施例中,移动设备350包括上述类型的区域传感器,例如,超声波传感器、红外传感器、激光传感器或照相机中的一个或多个。随着用户沿着路线352行进,移动设备输出触觉效果以向用户警告路线352和用户应为遵循路线352所采取的转弯。例如,在某些实施例中,如果移动设备350确定用户应继续向前行进,则移动设备将在移动设备350的前面输出触觉效果。类似地,如果移动设备350确定用户应向左或右转弯,则移动设备350在其右侧或左侧输出触觉效果。这些触觉效果可向用户警告用户应转弯的方向。在某些实施例中,这可有助于遭受视觉损伤的用户或分心的用户,例如正在发送文本的用户。
此外,在图3B中所示的实施例中,移动设备350可连续地监视来自区域传感器的信号以确定障碍物是否在用户的路径中。如果在用户的路径中检测到障碍物,则移动设备350输出警报,诸如触觉警报,以警告用户障碍物在用户的路径中。
此外,在图3B中所示的实施例中,基于来自区域传感器的信号,移动设备350可确定用户的周围区域的地图。此地图可包括用户与该区域中的一个或多个对象之间的距离和角度。例如,在图3B中所示的实施例中,移动设备可确定表示用户距每个墙壁354的角度和距离的地图。在其它实施例中,移动设备350可确定表示用户到附加对象(例如,树、人、动物、家具等)的角度和距离的数据的地图。随着用户沿着路径352移动和/或随着区域中的对象移动,移动设备可连续地更新此地图来保持用户的周围环境的准确数据。
在图3B中所示的实施例中,移动设备350可被配置成在触摸屏显示器302的表面上输出基于表面的触觉效果,诸如纹理和摩擦。在某些实施例中,移动设备350可被配置成输出与地图相关联的基于表面的效果。例如,在某些实施例中,用户与触摸屏显示器302的表面相交互,并且移动设备350可输出与用户的区域中的各种对象之间的用户距离相关联的触觉效果。例如,在一个实施例中,触觉效果可包括基于用户在每个方向上与障碍物相距的距离的各种量值的纹理或摩擦。例如,在此类实施例中,如果对象在用户的前面短距离内,则移动设备350可在触摸屏显示器302的前面输出粗糙纹理。在此类实施例中,如果对象与用户的右边相距很长距离,则移动设备350可在触摸屏显示器302的右侧输出细纹理。
在其它实施例中,移动设备350可输出其它触觉效果(例如,振动或表面变形(例如,该效果可被配置成收缩或扩张设备的侧面以指示引导))。在又一其它实施例中,可向移动设备350的外壳上而非在触摸屏显示器302上输出触觉效果中的一个或多个。此外,在某些实施例中,触觉效果可独立于触摸屏显示器302中所示的对象。
现在转到图4,图4包括根据本公开的实施例的用于触觉引导的实施例。在图4中所示的实施例中,系统400包括供视力障碍者使用的触觉手杖。在其它实施例中,系统可采取不同形式,例如,支柱、轮椅、小型摩托车、行走辅助或某个其它外形因数。在某些实施例中,设备可包括供必须在具有降低视力的区域中操作的人(例如,消防员、警察或士兵)使用的设备。因此,在某些实施例中,设备可包括可穿戴设备,诸如手套、夹克、钢盔、眼镜或增强现实眼镜、鞋、短袜、手表或某个其它类型的可穿戴设备。
在图4中所示的实施例中,触觉手杖400包括触觉阵列402和两个区域传感器404和406。触觉阵列402包括一个或多个触觉输出设备,例如,压电致动器、电马达、电磁致动器、音圈、记形合金、电活性聚合物、螺线管、偏心旋转质量马达(ERM)、线性谐振致动器(LRA)或被配置成输出基于表面的效果的触觉输出设备。两个区域传感器404和406包括例如超声波传感器、红外传感器、激光传感器或照相机。在某些实施例中,触觉手杖400可包括仅一个区域传感器。在其它实施例中,触觉手杖400可包括超过两个区域传感器。
如图4中所示,触觉手杖400可被配置成执行本文所讨论的操作。例如,基于从区域传感器404和406接收到的信号,与触觉手杖400相关联的处理器可被配置成检测用户路径中的障碍物并输出触觉效果以向用户警告该障碍物。在某些实施例中,触觉手杖400可包括其自己的微处理器。此外,在某些实施例中,触觉手杖400可被配置成与移动设备中的处理器通信。在此类实施例中,移动设备可从触觉手杖接收传感器信号并确定由移动设备或触觉手杖400输出的触觉效果。例如,在某些实施例中,触觉手杖400可包括使得用户能够将移动设备耦合到触觉手杖的底座。在此类实施例中,处理器可替代地从与移动设备相关联的区域传感器接收数据,而非区域传感器404和406。此外,在某些实施例中,可使用与移动设备相关联的区域传感器和与触觉手杖400相关联的区域传感器两者来检测对象。类似地,可利用与移动设备相关联的触觉阵列402和触觉输出设备来向用户输出触觉效果。
触觉手杖可经由触觉阵列402输出触觉效果。这些触觉效果可包括向用户警告障碍物的简单振动。替换地,这些触觉效果可包括被配置成不同强度以向用户警告障碍物类型的复杂效果,例如用于诸如打开的井盖或开来的车辆的危险障碍物的强效果,和用于诸如一件家具或另一个人的危险较少的障碍物的弱触觉效果。
此外,在图4中所示的实施例中,触觉效果400可被配置成沿着路径指引用户。因此,例如,触觉手杖400可被配置成输出触觉效果以警告用户向前、向后、向左或向右移动。此外,如果用户遇到楼梯,则触觉手杖400可被配置成提供指示用户应上楼梯或下楼梯的反馈。在某些实施例中,这些触觉效果可包括在触觉阵列402上的不同位置处输出的效果,例如,在触觉阵列402前面的指引用户向前移动的效果和在触觉阵列402后面的指引用户向后移动的效果。在某些实施例中,触觉手杖400可包括卫星定位系统功能,并且因此能够向用户提供多个相对远的点之间的方向。
在其它实施例中,可将用于触感引导的系统和方法用作查找工具。例如,用户可使用本文公开的系统和方法来定位用户看不到的区域中的对象,例如在黑暗区域中或在另一对象下面(例如,在用户的床下面)。在此类实施例中,用于触感引导的系统和方法可充当允许用户确定对象是否在搜索区域内的检测器,例如用户可使用本文公开的实施例来确定用户的猫在床下面。在此类实施例中,用户可在床下面拿着他或她的电话。区域传感器可检测该区域中的对象,并且如果那些对象中的一个是被搜索对象(在这种情况下为猫),则移动设备的处理器可确定向用户警告发现对象的触觉效果。此类实施例对于定位遗失或放错地方的对象(例如,钥匙、遥控器、工具、头戴耳机等)可以是有用的。
用于触感引导的说明性方法
图5是根据一个实施例的用于执行触感引导的方法的步骤的流程图。在某些实施例中,可用由处理器执行的程序代码来实现图5中的步骤,处理器例如为通用计算机、移动设备或服务器中的处理器。在某些实施例中,可用一组处理器来实现这些步骤。在某些实施例中,可省略图5中所示的一个或多个步骤或以不同顺序来执行图5中所示的一个或多个步骤。类似地,在某些实施例中,还可执行图5中未示出的附加步骤。参考上面关于图1中所示的计算设备100所描述的部件来描述以下步骤。
方法500在步骤502处开始,当处理器102从区域传感器115接收到传感器信号时。如上文所讨论的,(多个)区域传感器115包括被配置成检测与用户周围的区域相关联的对象并向(多个)处理器102发射与这些对象相关联的信号的一个或多个设备。例如,(多个)区域传感器115可包括超声波传感器、红外传感器、激光传感器或照相机中的一个或多个。在一个实施例中,(多个)区域传感器115可包括MB1320XL-MaxSonar-AE2,然而,在其它实施例中,可同样或替换地使用许多其它类型和型号的(多个)区域传感器。在某些实施例中,由(多个)区域传感器115检测到的对象可包括在用户周围的区域中发现的任何对象,例如室内对象(例如,家具、支柱、墙壁、门或与室内区域相关联的其它对象);室外对象(例如,树、岩石、坑洞、树根、树桩、路缘、汽车、自行车或与室外区域相关联的其它对象)。此外,对象可包括移动对象(例如,动物、汽车、人等)或非移动对象(例如,树、墙壁、水坑等)。因此,在一个实施例中,区域传感器115可检测到墙壁形式的对象并向处理器102发射与墙壁相关联的信号。
接下来,处理器102确定区域信息504。在某些实施例中,处理器102部分地基于从区域传感器115接收到的信号来确定区域信息。该区域信息可包括例如关于在用户的一定距离内的对象的信息。这些对象可包括上面所讨论的对象,例如室内或室外对象,其中的某些可包括障碍物。在某些实施例中,处理器还确定用户正在沿其行进或用户将要沿其行进的路线。在某些实施例中,部分地基于从卫星定位系统接收到的信息来确定此路线。
在某些实施例中,区域传感器115可包括照相机。在此类实施例中,处理器102可通过平滑从照相机接收到的图像来确定来自照相机信号的区域信息。处理器102可将信号从RGB转换到HSV色彩空间。处理器102然后可创建阈值图像。如果HSV图像中的像素在阈值值之间,则处理器可将像素复制到阈值图像。处理器102然后可将阈值图像转换成3D矩阵。然后,如果3D矩阵中的非零元素的数目大于检测值,则处理器102可返回对象已被发现。类似地,在某些实施例中,区域传感器可被配置成检测与对象相关联的关键描述符。例如,区域传感器115可包括红外照相机。在某些实施例中,红外照相机可检测一个或多个对象的热特性。
接下来处理器102确定地图506。在某些实施例中,该地图可包括关于区域信息的细节。此细节可包括用户的区域内的每个对象。在某些实施例中,处理器102可在本地存储此地图。替换地,在某些实施例中,处理器可将该地图发射到远程数据库以便进一步的处理和存储。
在某些实施例中,处理器102可通过从数据库接收地图数据来确定地图,该数据库例如为本地存储数据库或者经由网络连接访问的远程数据库。例如,在某些实施例中,处理器可通过从可经由互联网访问的远程数据库接收数据来确定地图。在某些实施例中,此类数据库可包括“云”数据库,其可被一个或多个公共或私营组织连续地更新。此外,此类数据库可包括多个移动应用和网页使用或访问的地图数据的数据库。在某些实施例中,处理器可通过将关于用户周围的区域的信息(例如,关于该区域中的对象的信息)与存储在数据库中的信息相比较来确定地图。在某些实施例中,处理器102可通过访问数据库来确定用户的当前位置。
处理器102简化地图508。在某些实施例中,简化地图可包括将区域信息简化成针对用户的区域内的每个对象的矢量集合。这种矢量系列可使得处理器102能够访问简化的数据以确定用户在遇到对象之前可在每个方向上移动多远。
接下来,处理器102识别一个或多个障碍物510。障碍物可包括在用户的路线中的上文所讨论的任何对象。因此,例如,障碍物可包括如果用户继续在同一方向上移动则可能阻碍用户的向前前进的一个或多个对象。
在某些实施例中,处理器102可连续地更新关于对象和地图的信息。例如,在某些实施例中,用户可能在运动中。在此类实施例中,处理器可继续监视区域传感器115并保持关于相对于对象的用户位置的基本上最新的信息。类似地,在某些实施例中,对象可包括移动对象,诸如汽车、公交车、火车、动物或其他人等。在此类实施例中,处理器102可继续监视区域传感器115并保持关于相对于对象的用户位置的基本上最新的信息。
接下来,处理器确定触觉效果512。在某些实施例中,处理器102可基于用户选择来确定触觉效果。例如,用户可选择当用户遇到对象时待输出的可用触觉效果。例如,计算设备101的数据存储可包括与用户可选择的多个触觉效果相关联的数据。替换地,在某些实施例中,处理器102可自动地选择触觉效果。例如,在某些实施例中,处理器102可选择与由区域传感器115检测到的对象相关联的触觉效果。例如,处理器可对于例如快速移动对象(例如,汽车、公交车、火车)的更加危险的对象确定更加强烈的触觉效果,和对于例如家具或人的更远或危险较少的对象确定不那么强烈的触觉效果。
在某些实施例中,处理器102可被配置成基于与检测到的对象相关联的一个或多个关键描述符来确定是否输出警报。在此类实施例中,关键描述符可包括例如对象的尺寸、移动方向、移动速度、与用户的距离、相关危险或与对象相关联的某个其它关键描述符。例如,如果检测到的对象是相对远距离的(例如,超过阈值距离),则本说明性设备可不输出警报。类似地,本说明性设备可确定关于对象的附加信息,例如,对象的尺寸、其相关危险、其移动速度、其移动方向,并且基于此信息来确定是否向用户输出警报。
此外,在某些实施例中,基于与对象相关联的一个或多个关键描述符,处理器102可确定不输出任何形式的警报(例如,无可听警报、视觉警报或触觉效果)。例如,基于传感器信号,处理器102可确定与对象相关联的关键描述符,诸如对象的距离、对象移动的速度、移动的方向、对象的尺寸或与对象相关联的某个其它特性,并且基于此信息确定不输出任何形式的警报。例如,处理器可确定正在驶离用户的公交车不需要警报,而正在驶向用户的公交车需要警报。类似地,在某些实施例中,处理器102可基于对象的尺寸而确定不输出警报,例如,处理器102可对于在用户的路径中的类似纸夹的非常小的对象确定无警报。此外,处理器102可基于对象的类型而确定不输出警报。例如,处理器102可确定对于驯良的小狗不输出警报,但是对于好斗的大狗输出警报。在进一步的实施例中,处理器102可因为对象被检测为相对远离用户,例如超过阈值距离,而确定不警告用户。在此类实施例中,如果对象位于超过阈值距离处,则处理器102可确定不输出警报。
然后,处理器102向触觉输出设备118发射输出触觉效果的触觉信号514。如上文所讨论的,触觉效果可包括纹理(例如,沙质的、凹凸不平的或光滑的)、振动、察觉的摩擦系数的变化、温度变化、轻抚感觉、电触觉效果或变形(例如,与计算设备101相关联的表面的变形)。
存在触感引导的许多优点。例如,触感引导可允许用户更全面地参与移动应用而不担心危险或令人尴尬的碰撞。这可增加用户安全性,并且还增加用户满意度。此外,本公开的实施例可为具有视觉损伤的人提供附加的移动性。此外,本公开的实施例可提供供必须经常在视觉受限区域中操作的人使用的工具,例如士兵、警察、消防员等。这些特征中的任何一个向广泛的一组用户提供了移动设备和移动应用的附加使用。
一般考虑
上文所讨论的方法,系统以及设备是示例。各种配置可酌情省略、替换或添加各种程序或部件。例如,在替换配置中,可按照不同于所述的顺序来执行方法和/或可添加、省略和/或组合各种阶段。并且,在各种其它配置中可组合关于特定配置所描述的特征。可以类似方式组合配置的不同方面和元素。并且,技术演进,以及因此许多元素中是示例而不限制本公开或权利要求的范围。
在本描述中给出了特定细节以提供示例性配置(包括实施方式)的透彻理解。然而,可在没有这些特定细节的情况下实践配置。例如,已在没有不必要细节的情况下示出了众所周知的电路、过程、算法、结构以及技术,以避免混淆配置。本描述仅仅提供了示例性配置而不限制权利要求的范围、适用性或配置。相反地,配置的先前描述将为本领域的技术人员提供用于实现所述技术的可实现描述。在不脱离本公开的精神或范围的情况下可对元素的功能和布置做出各种改变。
并且,可将配置描述为为如流程图或框图所描绘的过程。虽然每个可将操作描述为连续过程,但能够并行地或同时地执行许多操作。另外,可重新布置操作的顺序。过程可具有未包括在图中的附加步骤。此外,可通过硬件、软件、固件、中间件、微代码、硬件描述语言或其任何组合来实现方法的示例。当用软件、固件、中间件或微代码来实现时,可将执行必要任务的程序代码或代码段存储在诸如存储介质的非暂态计算机可读介质中。处理器可执行所述任务。
已描述了数个示例配置,在不脱离本公开的精神的情况下可使用各种修改、替换构造以及等价物。例如,上述元素可以是较大系统的部件,其中,其它规则可优先于或者另外修改本发明的应用。并且,考虑在上述元素之前、期间或之后可执行的许多步骤。因此,以上描述并不限制权利要求的范围。
本文中使用“适合于”或“被配置成”的意指在于开放性和包括性语言,其并不排除适合于或被配置成执行附加任务或步骤的设备。另外,使用“基于”意指是开放性和包括性的,在这一过程中“基于”一个或多个列举条件或值的过程、步骤、计算或其它动作实际上可基于除列举那些之外的附加条件或值。本文中包括的标题、列表以及编号仅仅是为了便于说明而并不意图是限制性的。
能够以数字电子电路、以计算机硬件、固件、软件或以前述的组合来实现根据本主题的各方面的实施例。在一个实施例中,计算机可包括一个或多个处理器。处理器包括或者可访问计算机可读介质,诸如被耦合到处理器的随机存取存储器(RAM)。处理器执行存储在存储器中的计算机可执行程序指令,诸如执行包括传感器采样例程、选择例程及其它例程的一个或多个计算机程序以执行上述方法。
此类处理器可包括微处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)以及状态机。此类处理器可进一步包括可编程电子器件,诸如PLC、可编程中断控制器(PIC)、可编程逻辑器件(PLD)、可编程只读存储器(PROM)、电可编程只读存储器(EPROM或EEPROM)或其它类似器件。
此类处理器可包括可存储指令的例如有形计算机可读介质的介质或者可与之通信,所述指令在被处理器执行时能够促使处理器执行在本文中描述为由处理器执行或辅助的步骤。计算机可读介质的实施例可包括但不限于能够向诸如网络服务器中的处理器的处理器提供计算机可读指令的所有电子、光学、磁性或其它存储设备。介质的其它示例包括但不限于软盘、CD-ROM、磁盘、存储器芯片、ROM、RAM、ASIC、配置处理器、所有光学介质、所有磁带或其它磁性介质、或者能够从其读取计算机处理的任何其它介质。并且,各种其它设备可包括计算机可读介质,诸如路由器、公共或私有网络或其它传输设备。所述的处理以及进程可采取一个或多个结构,并且可通过一个或多个结构分散。处理可包括用于执行本文所述方法(或方法的各部分)中的一个或多个的代码。
虽然已相对于其特定实施例详细地描述了本主题,但本领域的技术人员将认识到的是在获得前述内容的理解时可容易地产生此类实施例的替换、修改以及等价物。因此,应理解的是出于示例而不是限制的目的提出本公开,并且不排除包含对于本领域的普通技术人员而言将显而易见的对本主题的此类修改、改变和/或添加。

Claims (22)

1.一种用于触感引导的方法,包括:
从传感器接收传感器信号,该传感器被配置成确定与区域相关联的一个或多个对象;
部分地基于所述传感器信号来确定区域信息;
部分地基于所述区域信息来确定触觉效果;以及
把与所述触觉效果相关联的触觉信号发射到被配置成输出所述触觉效果的触觉输出设备。
2.如权利要求1所述的方法,进一步包括:
部分地基于所述传感器信号来确定地图;以及
把与所述地图相关联的数据发射到远程数据库。
3.如权利要求2所述的方法,
其中,确定所述地图包括从数据库接收关于该地图的数据。
4.如权利要求2所述的方法,进一步包括:
将所述地图简化成包括所述区域内的线性距离;
识别所述区域中的一个或多个障碍物。
5.如权利要求1所述的方法,
其中,所述触觉效果与所述一个或多个障碍物相关联。
6.如权利要求1所述的方法,
其中,所述传感器包括超声波传感器、红外传感器、激光传感器或照相机中的一个或多个。
7.如权利要求1所述的方法,
其中,所述触觉输出设备包括压电致动器、电动机、电磁致动器、音圈、形状记忆合金、电活性聚合物、螺线管、偏心旋转质量马达(ERM)或线性谐振致动器(LRA)中的一个或多个。
8.如权利要求1所述的方法,
其中,所述传感器和触觉输出设备两者都与可穿戴或可抓握设备中的一个相关联。
9.如权利要求8所述的方法,
其中,所述可抓握设备包括移动设备或手杖中的一个。
10.如权利要求8所述的方法,
其中,所述可穿戴设备包括头盔、手套、眼镜或增强现实眼镜中的一个。
11.一种包括程序代码的非暂态计算机可读介质,所述程序代码被配置成在由处理器执行时使所述处理器:
从传感器接收传感器信号,该传感器被配置成确定与区域相关联的一个或多个对象;
部分地基于所述传感器信号来确定区域信息;
部分地基于所述区域信息来确定触觉效果;以及
把与所述触觉效果相关联的触觉信号发射到被配置成输出所述触觉效果的触觉输出设备。
12.如权利要求11所述的非暂态计算机可读介质,进一步包括程序代码,所述程序代码被配置成在由所述处理器执行时使所述处理器:
部分地基于所述传感器信号来确定地图;以及
把与所述地图相关联的数据发射到远程数据库。
13.如权利要求12所述的非暂态计算机可读介质,
其中,确定所述地图包括从数据库接收关于该地图的数据。
14.如权利要求12所述的非暂态计算机可读介质,进一步包括程序代码,所述程序代码被配置成在由所述处理器执行时使所述处理器:
把所述地图简化成包括所述区域内的线性距离;
识别所述区域中的一个或多个障碍物。
15.如权利要求11所述的非暂态计算机可读介质,其中,所述触觉效果与所述一个或多个障碍物相关联。
16.如权利要求11所述的非暂态计算机可读介质,其中,所述传感器包括超声波传感器、红外传感器、激光传感器或照相机中的一个或多个。
17.如权利要求11所述的非暂态计算机可读介质,其中,所述触觉输出设备包括压电致动器、电动机、电磁致动器、音圈、形状记忆合金、电活性聚合物、螺线管、偏心旋转质量马达(ERM)或线性谐振致动器(LRA)中的一个或多个。
18.如权利要求11所述的非暂态计算机可读介质,其中,所述非暂态计算机可读介质、传感器和触觉输出设备都与可穿戴或可抓握设备中的一个相关联。
19.如权利要求18所述的非暂态计算机可读介质,其中,所述可抓握设备包括移动设备或手杖中的一个。
20.如权利要求18所述的非暂态计算机可读介质,其中,所述可穿戴设备包括头盔、手套、眼镜或增强现实眼镜中的一个。
21.一种用于触感引导的系统,包括:
传感器,所述传感器被配置成确定区域信息并发射与所述区域信息相关联的传感器信号;
处理器,所述处理器与所述传感器通信并被配置成:
部分地基于所述传感器信号确定区域信息;
部分地基于所述区域信息确定触觉效果;以及
发射与所述触觉效果相关联的触觉信号;
触觉输出设备,所述触觉输出设备与所述处理器通信,所述触觉输出设备被配置成接收所述触觉信号并输出所述触觉效果。
22.如权利要求21所述的系统,
其中,所述系统的所有部件与手杖相关联。
CN201610274460.2A 2015-04-28 2016-04-28 用于触感引导的系统和方法 Pending CN106095071A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/697,680 US20160321880A1 (en) 2015-04-28 2015-04-28 Systems And Methods For Tactile Guidance
US14/697,680 2015-04-28

Publications (1)

Publication Number Publication Date
CN106095071A true CN106095071A (zh) 2016-11-09

Family

ID=55860737

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610274460.2A Pending CN106095071A (zh) 2015-04-28 2016-04-28 用于触感引导的系统和方法

Country Status (5)

Country Link
US (1) US20160321880A1 (zh)
EP (1) EP3088996A1 (zh)
JP (1) JP2016212858A (zh)
KR (1) KR20160128233A (zh)
CN (1) CN106095071A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109009906A (zh) * 2018-08-31 2018-12-18 江苏大学 一种导盲杆及其方法

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9842388B2 (en) * 2015-07-02 2017-12-12 Honeywell International Inc. Systems and methods for location aware augmented vision aircraft monitoring and inspection
KR20180112847A (ko) * 2016-04-07 2018-10-12 재팬 사이언스 앤드 테크놀로지 에이전시 촉각 정보 변환 장치, 촉각 정보 변환 방법, 및, 촉각 정보 변환 프로그램
US11269480B2 (en) * 2016-08-23 2022-03-08 Reavire, Inc. Controlling objects using virtual rays
US20180096632A1 (en) * 2016-09-30 2018-04-05 Omar U. Florez Technology to provide visual context to the visually impaired
EP3378461B1 (en) * 2017-03-22 2019-10-23 Vestel Elektronik Sanayi ve Ticaret A.S. A smart guide device for visually impaired person
US10969870B2 (en) * 2017-07-10 2021-04-06 Sharp Kabushiki Kaisha Input device
DE102017217876B4 (de) * 2017-10-09 2019-05-16 Zf Friedrichshafen Ag Vorrichtung und Verfahren zur Verbesserung des Raumgefühls eines Nutzers
JP7042061B2 (ja) 2017-11-10 2022-03-25 株式会社バンダイナムコエンターテインメント 操作入力システム、操作入力装置及びゲームシステム
US11740697B1 (en) 2018-06-19 2023-08-29 Meta Platforms Technologies, Llc Vibrotactile devices, systems, and related methods
US20200073210A1 (en) * 2018-08-30 2020-03-05 Daniel Lai Chow Leung Method to help navigate users of mobile communication devices by re-directed camera views
EP3985354A4 (en) * 2019-06-12 2023-02-08 Nippon Telegraph And Telephone Corporation MANAGEMENT AND PROGRAM COMMUNICATION DEVICE AND METHOD
US11370496B2 (en) 2020-01-31 2022-06-28 Toyota Motor Engineering & Manufacturing North America, Inc. Programmable texture surfaces having artificial muscles
US11139755B2 (en) 2020-01-31 2021-10-05 Toyota Motor Engineering & Manufacturing North America, Inc. Variable stiffening device comprising electrode stacks in a flexible envelope
US11453347B2 (en) 2020-03-12 2022-09-27 Toyota Motor Engineering & Manufacturing North America, Inc. Suction devices having artificial muscles
US11611293B2 (en) 2020-03-13 2023-03-21 Toyota Motor Engineering & Manufacturing North America, Inc. Artificial muscles having a reciprocating electrode stack
US11461587B2 (en) 2021-01-13 2022-10-04 International Business Machines Corporation Intelligent visual recognition translation
WO2023019376A1 (zh) * 2021-08-15 2023-02-23 曹庆恒 一种触觉感知系统及其使用方法
EP4330802A1 (en) * 2022-02-11 2024-03-06 AI Guided Limited Haptic guiding system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030063776A1 (en) * 2001-09-17 2003-04-03 Shigemi Sato Walking auxiliary for person with impaired vision
US20090025765A1 (en) * 2007-07-24 2009-01-29 International Business Machines Corporation Apparatus and method for sensing of three-dimensional environmental information
US20120053826A1 (en) * 2009-08-29 2012-03-01 Milan Slamka Assisted guidance navigation
CN102893293A (zh) * 2010-03-12 2013-01-23 莎法·瓦拉 位置捕获输入设备、系统及其方法
US20130131985A1 (en) * 2011-04-11 2013-05-23 James D. Weiland Wearable electronic image acquisition and enhancement system and method for image acquisition and visual enhancement
US20130220392A1 (en) * 2010-09-24 2013-08-29 Mesa Imaging Ag White Cane with Integrated Electronic Travel Aid Using 3D TOF Sensor
CN104423595A (zh) * 2013-09-10 2015-03-18 意美森公司 执行触觉转换的系统和方法
CN104427960A (zh) * 2011-11-04 2015-03-18 马萨诸塞眼科耳科诊所 自适应视觉辅助装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5942970A (en) * 1998-10-08 1999-08-24 Norman; Jim Image optical-to-tactile converter
DE102005009110A1 (de) * 2005-01-13 2006-07-27 Siemens Ag Vorrichtung zur Vermittlung von Umgebungsinformationen an einen sehbehinderten Menschen
WO2010142689A2 (en) * 2009-06-08 2010-12-16 Kieran O'callaghan An object detection device
ES1073252Y (es) * 2010-09-30 2011-03-18 Tomas Gerardo Labernia Dispositivo tactil de orientacion y percepcion volumetrica
US20120119920A1 (en) * 2010-11-12 2012-05-17 Extra Sensory Technology, L.C. Portable sensory devices
US20130113601A1 (en) * 2011-03-14 2013-05-09 The Quality of Life Plus (QL+) Program Obstacle Detection for Visually Impaired Persons
KR20140090318A (ko) * 2013-01-07 2014-07-17 삼성전자주식회사 햅틱 기반 카메라 운용 지원 방법 및 이를 지원하는 단말기
US9044374B1 (en) * 2013-07-05 2015-06-02 Leon E. Stimpson Assisted walking device
US9183708B2 (en) * 2014-03-05 2015-11-10 Umm Al-Qura University Multisensor system for the blind
US10121335B2 (en) * 2014-07-18 2018-11-06 Google Technology Holdings LLC Wearable haptic device for the visually impaired

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030063776A1 (en) * 2001-09-17 2003-04-03 Shigemi Sato Walking auxiliary for person with impaired vision
US20090025765A1 (en) * 2007-07-24 2009-01-29 International Business Machines Corporation Apparatus and method for sensing of three-dimensional environmental information
US20120053826A1 (en) * 2009-08-29 2012-03-01 Milan Slamka Assisted guidance navigation
CN102893293A (zh) * 2010-03-12 2013-01-23 莎法·瓦拉 位置捕获输入设备、系统及其方法
US20130220392A1 (en) * 2010-09-24 2013-08-29 Mesa Imaging Ag White Cane with Integrated Electronic Travel Aid Using 3D TOF Sensor
US20130131985A1 (en) * 2011-04-11 2013-05-23 James D. Weiland Wearable electronic image acquisition and enhancement system and method for image acquisition and visual enhancement
CN104427960A (zh) * 2011-11-04 2015-03-18 马萨诸塞眼科耳科诊所 自适应视觉辅助装置
CN104423595A (zh) * 2013-09-10 2015-03-18 意美森公司 执行触觉转换的系统和方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109009906A (zh) * 2018-08-31 2018-12-18 江苏大学 一种导盲杆及其方法

Also Published As

Publication number Publication date
EP3088996A1 (en) 2016-11-02
US20160321880A1 (en) 2016-11-03
JP2016212858A (ja) 2016-12-15
KR20160128233A (ko) 2016-11-07

Similar Documents

Publication Publication Date Title
CN106095071A (zh) 用于触感引导的系统和方法
Tapu et al. Wearable assistive devices for visually impaired: A state of the art survey
Jafri et al. Visual and infrared sensor data-based obstacle detection for the visually impaired using the Google project tango tablet development kit and the unity engine
Dakopoulos et al. Wearable obstacle avoidance electronic travel aids for blind: a survey
US10356398B2 (en) Method for capturing virtual space and electronic device using the same
CN105094311B (zh) 用于基于视口的增强现实触觉效果的系统和方法
Zafar et al. Assistive devices analysis for visually impaired persons: A review on taxonomy
KR20200029391A (ko) 맹인을 위한 진동 햅틱 디바이스
US11347312B1 (en) Ultrasonic haptic output devices
Chanana et al. Assistive technology solutions for aiding travel of pedestrians with visual impairment
CN106990834A (zh) 用于触觉使能的神经接口的系统和方法
CN110506249A (zh) 信息处理设备、信息处理方法和记录介质
WO2014093525A1 (en) Wearable multi-modal input device for augmented reality
CN105892472A (zh) 移动终端及其控制方法
CN105242772A (zh) 提供静电触觉效果的表面元件的系统和方法
US11755111B2 (en) Spatially aware computing hub and environment
US20230185364A1 (en) Spatially Aware Computing Hub and Environment
CN107918486A (zh) 经由可穿戴或手持设备提供静电触觉效果的系统和方法
Paiva et al. Technologies and systems to improve mobility of visually impaired people: a state of the art
US11729573B2 (en) Audio enhanced augmented reality
Bala et al. Design, development and performance analysis of cognitive assisting aid with multi sensor fused navigation for visually impaired people
CN106034173A (zh) 移动终端及其控制方法
Bouteraa Smart real time wearable navigation support system for BVIP
Oliveira The path force feedback belt
Argüello Prada et al. A belt-like assistive device for visually impaired people: Toward a more collaborative approach

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20161109

WD01 Invention patent application deemed withdrawn after publication