CN113710559A - 辅助极端周边的视觉运动感知 - Google Patents

辅助极端周边的视觉运动感知 Download PDF

Info

Publication number
CN113710559A
CN113710559A CN202080025863.8A CN202080025863A CN113710559A CN 113710559 A CN113710559 A CN 113710559A CN 202080025863 A CN202080025863 A CN 202080025863A CN 113710559 A CN113710559 A CN 113710559A
Authority
CN
China
Prior art keywords
user
time
auditory
subject
audio output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080025863.8A
Other languages
English (en)
Inventor
马克.昌吉兹
末上贵
下条伸介
C.C.伯格
D-A.吴
望月博文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Motor Co Ltd
California Institute of Technology CalTech
Original Assignee
Yamaha Motor Co Ltd
California Institute of Technology CalTech
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Motor Co Ltd, California Institute of Technology CalTech filed Critical Yamaha Motor Co Ltd
Publication of CN113710559A publication Critical patent/CN113710559A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • AHUMAN NECESSITIES
    • A42HEADWEAR
    • A42BHATS; HEAD COVERINGS
    • A42B3/00Helmets; Helmet covers ; Other protective head coverings
    • A42B3/04Parts, details or accessories of helmets
    • A42B3/0406Accessories for helmets
    • A42B3/0433Detecting, signalling or lighting devices
    • A42B3/046Means for detecting hazards or accidents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Acoustics & Sound (AREA)
  • Mechanical Engineering (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)

Abstract

本文所公开的包括用于增强周边(例如,远周边或极端周边)的人类视觉运动感知或使用例如至少一个具有下降音调的听觉刺激来提高用户安全性的系统、设备、计算机可读介质和方法。

Description

辅助极端周边的视觉运动感知
相关申请的交叉引用
本申请要求2019年3月29日提交的美国临时专利申请号62/826,540、2019年7月29日提交的美国临时专利申请号62/879,971和2019年7月30日提交的美国临时专利申请号62/880,557的优先权;每个专利的内容通过引用整体结合于此。
技术领域
本公开总体上涉及辅助视觉运动感知的领域,更具体地说,涉及辅助周边的视觉运动感知,例如远周边和极端周边。
背景技术
同时存在的听觉刺激对周边视觉运动知觉的偏向大于对中央凹的偏向。当视觉可靠性降低时,听觉变得至关重要。从后面检测极端周边视觉运动可能很重要,因为视觉模糊度非常高,检测这种运动对生态至关重要。
发明内容
这里公开的包括用于改善视觉运动感知的系统的实施例。在一些实施例中,该系统包括:被配置为存储可执行指令的非暂时性存储器;音频输出设备;与非暂时性存储器、图像捕获设备和音频输出设备通信的硬件处理器(或处理器,例如虚拟处理器)。由可执行指令编程的硬件处理器:接收由图像捕获设备捕获的多个图像。处理器可以由可执行指令编程为:使用多个图像在第一时间确定物体相对于用户的位置和轨迹。物体相对于用户在第一时间的位置和轨迹可以指示物体在经过时间具有超过经过用户的可能性阈值的可能性。在第一时间和/或经过时间,物体可能不在用户的视野中,或者可能在用户视野的远周边。处理器可以由可执行指令编程为:基于物体在第一时间相对于用户的位置和轨迹,确定听觉刺激和输出听觉刺激的输出时间。输出时间可以是经过时间,或者输出时间可以在第一次和经过时间之间。听觉刺激的特征可以从包括下降音调的组中选择。处理器可以由可执行指令编程为:使音频输出设备在输出时间向用户输出听觉刺激。作为在输出时间向用户输出听觉刺激的结果,用户在输出时间或紧接在输出时间之后的时间在视觉上感知位于用户视野的远周边的物体的可能性可以增加。
本文公开的包括用于改善视觉运动感知的系统的实施例。在一些实施例中,该系统包括:被配置为存储可执行指令的非暂时性存储器;音频输出设备;以及与非暂时性存储器、图像捕获设备和音频输出设备通信的硬件处理器(或处理器,例如虚拟处理器)。硬件处理器可以由可执行指令编程为:接收由图像捕获设备捕获的多个图像。处理器可以由可执行指令编程,以:使用多个图像来确定在经过时间,物体正在经过用户,或者具有超过经过用户的可能性阈值的可能性。该物体可能不在用户的视野中,或者在经过时可能在用户视野的远周边。处理器可以由可执行指令编程为:确定具有从包括下降音调的组中选择的特征的听觉刺激。处理器可以由可执行指令编程为:使音频输出设备在输出时间向用户输出听觉刺激。作为在输出时间向用户输出听觉刺激的结果,用户在输出时间或紧接在输出时间之后的时间在视觉上感知位于用户视野的远周边的物体的可能性可以增加。
在一些实施例中,为了接收多个图像,硬件处理器被可执行指令编程为:接收包括由一个或多个传感器捕获的多个图像的感觉数据。一个或多个传感器可以包括图像捕获设备、无线电检测和测距(雷达)、光检测和测距(激光雷达)、音频捕获设备或其组合。为了在第一时间确定物体相对于用户的位置和轨迹,硬件处理器可以由可执行指令编程为:使用传感器数据在第一时间确定物体相对于用户的位置和轨迹。为了确定在经过时物体正在经过用户,或者具有超过可能性阈值的可能性,硬件处理器可以由可执行指令编程为:使用传感器数据确定物体正在经过用户,或者具有超过可能性阈值的可能性。
在一些实施例中,系统包括一个或多个传感器或一个或多个传感器中的一个或多个。该系统可以包括图像捕获设备。在一些实施例中,为了接收传感器数据,硬件处理器被可执行指令编程为:从第二系统接收由一个或多个传感器捕获的传感器数据。在一些实施例中,硬件处理器由可执行指令编程,以:在第一时间将传感器数据、物体相对于用户的位置和轨迹、和/或物体正在经过用户或在经过时间具有超过用户经过的可能性阈值的可能性的指示传输到第三系统。在一些实施例中,头盔、汽车音频系统或可佩戴扬声器系统或设备与系统或其一部分相关联,包括或包含在系统或其一部分中。
在一些实施例中,物体是第一机动车。用户可以在第二机动车辆中或者可以乘坐第二机动车辆。在一些实施例中,物体在第一时间处于用户视野的极端周边。在一些实施例中,用户视野的远周边包括暂时远离用户鼻子并朝向太阳穴的大约60°到大约110°。用户视野的极端周边可以包括暂时远离用户鼻子并朝向太阳穴的大约90°到110°。
在一些实施例中,硬件处理器由可执行指令编程,以:基于物体相对于用户在第一时间的位置和轨迹,确定物体具有在经过时间超过用户经过的可能性阈值的可能性。在一些实施例中,用户在经过时经过物体的可能性阈值是至少50%、60%、70%、80%、90%、95%或99%。在一些实施例中,物体相对于用户在第一时间的位置和轨迹指示物体在用户的至多1米、2米、5米或10米范围内具有超过用户在经过时间经过的可能性阈值的可能性。
在一些实施例中,听觉刺激的特征选自包括下降的音调、增加的响度、更高数量的频率、更高的频率、角度差的规律性、角度差的特殊性、声音阴影、更大的角度尺寸、用户耳朵的响度不对称性、大约90°的头部相关传递函数、用户水平线以下的垂直位置或其组合的组。在一些实施例中,听觉刺激特征的变化在经过时间或大约在经过时间是最快或最高的。在一些实施例中,听觉刺激包括窄范围的频率或纯音。在一些实施例中,听觉刺激包括音乐、语音或其组合。
在一些实施例中,第一时间是捕获多个图像或其一部分的时间。第一时间可以是捕获多个图像或其一部分之后的时间。第一时间可以是紧接在捕获多个图像或其一部分之后的时间。在一些实施例中,输出时间是经过时间。输出时间可以紧接在经过时间之前。输出时间可以在第一次和经过时间之间。
在一些实施例中,物体相对于用户的位置和轨迹指示该物体可能在经过时在用户的左侧或右侧经过用户。音频输出设备可以包括左音频输出设备和右音频输出设备,其被配置为分别向用户的左耳和右耳输出听觉刺激。为了使音频输出设备在输出时间向用户输出听觉刺激,硬件处理器可以被可执行指令编程为:使左音频输出设备或右音频输出设备在输出时间分别向用户的左耳或右耳输出听觉刺激。
在一些实施例中,在输出时间输出给用户的听觉刺激可以导致用户在输出时间或紧接在输出时间之后的时间在视觉上感知用户视野的远周边的物体的可能性增加至少10%、20%、30%、40%或50%。
这里公开的包括用于改善视觉运动感知的方法的实施例。在一些实施例中,该方法在硬件处理器(或处理器,例如虚拟处理器)的控制下,并且包括:接收由一个或多个传感器捕获的传感器数据。该方法可以包括:使用传感器数据确定物体在第一时间相对于受试者的位置和轨迹。物体在第一时间相对于受试者的位置和轨迹可以指示物体在第二时间在受试者的阈值距离内具有超过相对于受试者移动的可能性阈值的可能性。物体可能不在受试者的视野中,或者可能在第一时间处于受试者视野的周边。该方法可以包括:基于物体在第一时间相对于受试者的位置和轨迹来确定听觉刺激。听觉刺激的特征可以对应于物体在受试者的阈值距离内相对于受试者移动的听觉特征。该方法可以包括:在输出时间将听觉刺激输出给受试者。该方法可以导致受试者在输出时间或紧接输出时间之后的时间在视觉上感知受试者视野周边的物体的可能性增加。
这里公开的包括用于改善视觉运动感知的方法的实施例。在一些实施例中,该方法在硬件处理器(或处理器,例如虚拟处理器)的控制下,并且包括:接收由一个或多个传感器捕获的传感器数据。该方法可以包括:使用传感器数据,确定物体是或者具有高于可能性阈值的可能性相对于受试者在受试者的阈值距离内移动。该方法可以包括:确定听觉刺激,其特征对应于在受试者的阈值距离内相对于受试者移动的物体的听觉特征。该方法可以包括:在输出时间将听觉刺激输出给受试者。该方法可以导致受试者在输出时间或紧接输出时间之后的时间在视觉上感知受试者视野周边的物体的可能性增加。
在一些实施例中,一个或多个传感器包括图像捕获设备、无线电检测和测距(雷达)、光检测和测距(激光雷达)、音频捕获设备或其组合。在一些实施例中,传感器数据包括由与物体相关联的一个或多个遥测和定位传感器捕获的物体的位置、速度和方向。一个或多个传感器可以包括与物体相关联的一个或多个遥测和定位传感器。在一些实施例中,传感器数据包括由与受试者相关联的一个或多个遥测和定位传感器捕获的物体的位置、速度和方向。一个或多个传感器可以包括与受试者相关联的一个或多个遥测和定位传感器。与物体相关联的一个或多个遥测和定位传感器可以包括与物体相关联的全球定位系统(GPS)传感器。与受试者相关联的一个或多个遥测和定位传感器可以包括与受试者相关联的全球定位系统传感器(GPS)。
在一些实施例中,头盔、汽车音频系统或可佩戴扬声器系统或设备与一个或多个传感器相关联,包括一个或多个传感器或包含在一个或多个传感器中。使听觉刺激被输出可以包括使头盔的音频输出设备、汽车音频系统或可佩戴扬声器系统或设备在输出时间输出听觉刺激。
在一些实施例中,物体是第一机动车辆。在一些实施例中,受试者在第二机动车辆中或正乘坐第二机动车辆。在一些实施例中,物体在第一时间和/或第二时间处于受试者视野的远周边或极端周边。在一些实施例中,用户视野的远周边包括在时间上远离受试者鼻子并朝向太阳穴的大约60°至大约110°。用户视野的极端周边可以包括在时间上远离受试者鼻子并朝向太阳穴的大约90°到110°。
在一些实施例中,该方法包括:基于物体在第一时间相对于受试者的位置和轨迹,确定物体在第二时间具有超过在受试者的阈值距离内相对于受试者移动的可能性阈值的可能性。在一些实施例中,物体相对于受试者在第一时间的位置和轨迹可以指示物体在第二时间具有经过或撞击受试者的高可能性。在一些实施例中,物体相对于受试者的位置和轨迹指示物体可能在第二时间在物体的左侧或右侧经过或撞击受试者。使听觉刺激在输出时间输出到受试者可以包括使听觉刺激在输出时间分别输出到受试者的左耳或右耳。
在一些实施例中,物体在第二时间在受试者的阈值距离内相对于受试者移动的可能性阈值至少是50%、60%、70%、80%、90%、95%或99%。在一些实施例中,阈值距离至多为0米、1米、2米、5米或10米。
在一些实施例中,听觉刺激的特征是下降的音调。在一些实施例中,听觉刺激的特征选自包括下降的音调、增加的响度、更高数量的频率、更高的频率、角度差的规律性、角度差的特殊性、声音阴影、更大的角度大小、受试者耳朵的响度不对称性、大约90°的头部相关传递函数、受试者水平线以下的垂直位置或其组合的组。在一些实施例中,听觉刺激特征的变化在经过时间或大约在经过时间是最快或最高的。在一些实施例中,听觉刺激包括窄范围的频率或纯音。在一些实施例中,听觉刺激包括音乐、语音或其组合。在一些实施例中,确定听觉刺激包括基于物体在第一时间相对于受试者的位置和轨迹来确定听觉刺激和输出时间。
在一些实施例中,第一时间是捕获传感器数据或其一部分的时间。第一时间可以是捕获传感器数据或其一部分之后的时间。第一时间可以是紧接在捕获传感器数据或其一部分之后的时间。在一些实施例中,输出时间是第二次。输出时间可以紧接在第二次之前。输出时间可以在第一时间和第二时间之间。
在一些实施例中,该方法导致受试者在输出时间或紧接输出时间之后的时间在视觉上感知用户视野周边的物体的可能性增加至少10%、20%、30%、40%或50%。
本文公开的包括用于用户安全的系统的实施例。在一些实施例中,该系统包括:被配置为存储可执行指令的非暂时性存储器;与头盔或可穿戴设备相关联的一个或多个传感器,用于捕获不同类型的传感器数据;多个音频输出设备,用于输出听觉刺激,所述听觉刺激模仿来自用户的(1a)水平线和(1b)水平线下的以及来自用户的(2a)左侧、(2b)正后方和(2c)右侧的声音;和与非暂时性存储器通信的硬件处理器。硬件处理器可以由可执行指令编程为:接收由一个或多个传感器捕获的第一传感器数据。硬件处理器可以由可执行指令编程为:使用第一传感器数据确定物体在第一时间相对于用户的第一位置。物体相对于用户的第一位置可以在用户的第一阈值距离内。硬件处理器可以由可执行指令编程为:使用物体在第一时间相对于用户的第一位置确定一个或多个第一听觉刺激和多个输出设备中用于输出所述一个或多个第一听觉刺激的对应的一个或多个第一音频输出设备。第一听觉刺激的特征可以与物体的属性相关。硬件处理器可以由可执行指令编程为:使一个或多个第一音频输出设备中的每一个输出一个或多个第一听觉刺激中的对应的第一听觉刺激。
在一些实施例中,第一听觉刺激的特征是第一听觉刺激的音调,其中第一听觉刺激的特征与包括物体大小的物体的属性相关,并且其中第一听觉刺激的音调与物体的大小正相关或负相关。在一些实施例中,第一听觉刺激的特征是第一听觉刺激的响度,其中第一听觉刺激的特征与包括物体速度的物体属性相关,并且其中第一听觉刺激的响度与物体速度正相关或负相关。在一些实施例中,第一听觉刺激的特征是第一听觉刺激的音调,其中第一听觉刺激的特征与包括物体的大小和/或速度的物体的属性相关,其中第一听觉刺激的音调与物体的大小正相关或负相关,并且其中第一听觉刺激的音调与物体的速度正相关或负相关。
在一些实施例中,一个或多个第一听觉刺激和对应的一个或多个第一音频输出设备包括两个或多个第一听觉刺激和对应的两个或多个第一音频输出设备。由对应的第一音频输出设备输出的两个或多个第一听觉刺激的组合可以在多个音频输出设备中没有一个能够单独模仿的第一时间模仿在相对于用户的第一位置移动的物体的声音。在一些实施例中,一个或多个第一听觉刺激包括窄范围的频率或纯音。在一些实施例中,一个或多个第一听觉刺激包括音乐、语音或其组合。
在一些实施例中,硬件处理器由可执行指令编程为:接收由一个或多个传感器捕获的第二传感器数据。硬件处理器可以由可执行指令编程为:使用第二传感器数据确定物体在第二时间相对于用户的第二位置。物体相对于用户的第二位置可以在用户的第二阈值距离内,其中第二阈值距离比第一阈值距离更短或更长。硬件处理器可由可执行指令编程,以:使用物体在第二时间相对于用户的第二位置确定一个或多个第二听觉刺激和多个输出设备中用于在输出一个或多个第二听觉刺激的对应的一个或多个第二音频输出设备。第二听觉刺激的特征可以与物体的属性相关。第二听觉刺激的特征相对于第一听觉刺激的特征之间的差异可以与物体在第二时间相对于用户的第二位置相关。硬件处理器可以由可执行指令编程为:使一个或多个第二音频输出设备中的每一个输出一个或多个第二听觉刺激中的对应的第二听觉刺激。
在一些实施例中,第二听觉刺激的特征相对于第一听觉刺激的特征之间的差异是更高或更低的频率数。在一些实施例中,第二听觉刺激的特征相对于第一听觉刺激的特征之间的差异是更大的响度或更低的响度。
在一些实施例中,硬件处理器由可执行指令编程为:接收由一个或多个传感器捕获的第三传感器数据。硬件处理器可以由可执行指令编程为:使用第三传感器数据确定物体在第三时间相对于用户的第三位置。物体相对于用户的第三位置可以在用户的第三阈值距离内。第三阈值距离可以比第二阈值距离更短或更长。硬件处理器可由可执行指令编程以:使用物体在第三时间相对于用户的第三位置确定(i)一个或多个第一听觉刺激和多个输出设备中用于输出一个或多个第一听觉刺激的对应的一个或多个第一音频输出设备,以及(ii)一个或多个第二听觉刺激和多个输出设备中用于输出一个或多个第二听觉刺激和对应的一个或多个第二音频输出设备。硬件处理器可以由可执行指令编程为:使一个或多个第一和第二音频输出设备中的每一个输出一个或多个第一和第二听觉刺激中的对应的第一或第二听觉刺激。
在一些实施例中,系统与头盔或可佩戴设备相关联,包括头盔或可佩戴设备,或者包含在头盔或可佩戴设备中,可选地,其中多个音频输出设备在头盔或可佩戴设备上、中或内。多个音频输出设备可以被定位用于输出听觉刺激,该听觉刺激模仿来自用户的(1a)水平线和(1b)水平线下的以及来自用户的(2a)左侧、(2b)正后方和(2c)右侧的声音。
在一些实施例中,多个音频输出设备包括:(i)水平线级音频输出设备,用于输出模仿用户佩戴头盔或可佩戴设备时来自用户水平线中心点的声音的听觉刺激,以及(ii)头盔或可佩戴设备上或头盔或可佩戴设备的第一轮廓的第一左水平线下音频输出设备和第一右水平线下音频输出设备,用于输出模仿用户佩戴头盔或可佩戴设备时分别来自用户左侧和右侧水平线下第一垂直水平的声音的听觉刺激。多个音频输出设备可以包括第一轮廓的中央水平线以下音频输出设备,用于输出模仿来自水平线以下和用户中心点的声音的听觉刺激。
在一些实施例中,多个音频输出设备包括(iii)在头盔或可佩戴设备上或头盔或可佩戴设备的第二轮廓的第一左水平线以下音频输出设备和第一右水平线以下音频输出设备,用于当佩戴头盔或可佩戴设备时,分别在用户的左侧和右侧输出模仿来自用户水平线之下的第二垂直水平的声音的听觉刺激。第二垂直高度可以低于第一垂直高度。第二轮廓可以低于第一轮廓。
在一些实施例中,多个音频输出设备包括(ii)头盔或可佩戴设备上或之下的第一轮廓的第二左水平线以下音频输出设备和第二右水平线以下音频输出设备,用于在佩戴头盔或可佩戴设备时分别输出模仿来自用户水平线以下的第一垂直水平的声音的听觉刺激。由第二左水平线以下音频输出设备输出的听觉刺激模仿的声音可以在由第一轮廓的第一左水平线以下音频输出设备输出的听觉刺激模仿的声音的左侧。由第二右水平线以下音频输出设备输出的听觉刺激模仿的声音可以在由第一轮廓的第一右水平线以下音频输出设备输出的听觉刺激模仿的声音的右侧。第二左水平线以下音频输出设备可以在第一轮廓的第一左水平线以下音频输出设备的左侧。第二右水平线以下音频输出设备可以在第一轮廓的第一右水平线以下音频输出设备的右侧。
在一些实施例中,硬件处理器由可执行指令编程为:接收由一个或多个传感器捕获的第四传感器数据。硬件处理器可以由可执行指令编程,以:使用第四传感器数据来确定在经过时间物体正在经过,或者具有超过可能性阈值的可能性经过用户,其中,在经过时间物体可能不在用户的视野中或者可能在用户视野的远周边。硬件处理器可以由可执行指令编程为:确定第四听觉刺激,该第四听觉刺激具有对应于经过用户的物体的听觉特征的特征。硬件处理器可以由可执行指令编程为:使多个音频输出设备中的一个或多个在输出时间向用户输出第四听觉刺激。在输出时间输出给用户的第四听觉刺激可以导致用户在输出时间或紧接在输出时间之后的时间在视觉上感知在用户视野的远周边的物体的可能性增加。
在一些实施例中,一个或多个传感器包括图像捕获设备、无线电检测和测距(雷达)、光检测和测距(激光雷达)、音频捕获设备或其组合。
在一些实施例中,物体是第一机动车。在一些实施例中,用户在第二机动车辆中或正乘坐第二机动车辆。在一些实施例中,物体在经过时间处于用户视野的极端周边。用户视野的远周边可以包括在时间上远离用户鼻子并朝向太阳穴的大约60°到大约110°。用户视野的极端周边可以包括在时间上远离用户鼻子并朝向太阳穴的大约90°到110°。
在一些实施例中,用户在经过时经过物体的可能性阈值至少是50%、60%、70%、80%、90%、95%或99%。在一些实施例中,在用户至多1米、2米、5米或10米的范围内,物体正在经过或者具有超过可能性阈值的可能性经过用户。
在一些实施例中,第四听觉刺激的特征选自包括下降的音调、增加的响度、更高数量的频率、更高的频率、角度差的规律性、角度差的特殊性、声音阴影、更大的角度尺寸、用户耳朵的响度不对称性、大约90°的头部相关传递函数、用户水平线以下的垂直位置或其组合的组。在一些实施例中,第四听觉刺激的特征变化在经过时间或大约在经过时间是最快或最高的。
在一些实施例中,经过时间是捕获第四传感器数据或其一部分的时间。经过时间可以是在第四传感器数据或其一部分被捕获之后的时间。经过时间可以是紧接在第四传感器数据或其一部分被捕获之后的时间
在一些实施例中,物体正经过或可能经过用户左侧或右侧的用户。为了使多个音频输出设备中的一个或多个在输出时间向用户输出第四听觉刺激,硬件处理器可以由可执行指令编程为:使第一轮廓的第一左水平线以下音频输出设备或第一右水平线以下音频输出设备和/或第二轮廓的第一左水平线以下音频输出设备或第一右水平线以下音频输出设备在输出时间输出第四听觉刺激。
在一些实施例中,在输出时间输出给用户的第四听觉刺激可以导致用户在输出时间或紧接在输出时间之后的时间在视觉上感知位于用户视野的远周边的物体的可能性增加至少10%、20%、30%、40%或50%。
这里公开的包括计算机可读介质的实施例,该计算机可读介质包括可执行指令,当由计算系统或设备的硬件处理器执行时,使得硬件处理器或计算系统或设备执行这里公开的任何方法。
在附图和下面的描述中阐述了本说明书中描述的主题的一个或多个实施方式的细节。其它特征和优点将从描述、附图和权利要求中变得显而易见。本发明内容和下面的具体实施方式都无意定义或限制本发明主题的范围。
附图说明
图1是用于增强远周边和极端周边的视觉运动感知的非限制性示例性系统的框图。
图2是示出从后面增强视觉运动感知的示例性方法的流程图。
图3A-3D是示意性图示,示出了系统的听觉输出设备(例如,智能头盔或可佩戴设备的扬声器)的非限制性示例性布置,用于增强远周边和极端周边的视觉运动感知。
图4A-4F是示意图,示出了系统的听觉输出设备(例如,智能头盔或可佩戴设备的扬声器)的非限制性示例性激活,用于增强远周边和极端周边的视觉运动感知。
图5是示出提高用户安全性的示例性方法的流程图。
图6是被配置成实现本公开的任何方法的说明性计算系统的框图。
图7是用于确定具有下降音调的听觉刺激是否影响从后面检测极端周边视觉运动的实验设置的非限制性示例性示意图。
图8是用于确定听觉是否影响从后面检测极端周边视觉运动的实验设置的非限制性示例性示意图。
图9是用于确定三种类型的听觉刺激对从后面检测极端周边视觉运动的影响的实验设置的非限制性示例性示意图。
图10是示出三种类型的听觉刺激对从后面检测极端周边视觉运动的影响的非限制性示例图。
具体实施方式
在下面的具体实施方式中,参考了附图,附图形成了描述的一部分。在附图中,除非上下文另有规定,否则相似的符号通常标识相似的组件。具体实施方式、附图和权利要求中描述的说明性实施例不意味着限制。在不脱离本文呈现的主题的精神或范围的情况下,可以利用其他实施例,并且可以进行其他改变。将容易理解的是,如在此一般描述的和在附图中示出的,本公开的方面可以以多种不同的配置来布置、替换、组合、分离和设计,所有这些都在此被明确地考虑并成为本公开的一部分。
本文公开的包括用于改善视觉运动感知的系统的实施例。在一些实施例中,该系统包括:被配置为存储可执行指令的非暂时性存储器;音频输出设备;与非暂时性存储器、图像捕获设备和音频输出设备通信的硬件处理器(或处理器,例如虚拟处理器)。由可执行指令编程的硬件处理器:接收由图像捕获设备捕获的多个图像。处理器可以由可执行指令编程为:使用多个图像在第一时间确定物体相对于用户的位置和轨迹。物体相对于用户在第一时间的位置和轨迹可以指示物体在经过时间具有超过经过用户的可能性阈值的可能性。该物体可能不在用户的视野中,或者可能在第一时间处于用户视野的远周边。处理器可以由可执行指令编程为:基于物体在第一时间相对于用户的位置和轨迹,确定听觉刺激和输出听觉刺激的输出时间。输出时间可以是经过时间,或者输出时间可以在第一次和经过时间之间。听觉刺激的特征可以从包括下降音调的组中选择。处理器可以由可执行指令编程为:使音频输出设备在输出时间向用户输出听觉刺激。作为在输出时间向用户输出听觉刺激的结果,用户在输出时间或紧接在输出时间之后的时间在视觉上感知位于用户视野的远周边的物体的可能性可以增加。
这里公开的包括用于改善视觉运动感知的系统的实施例。在一些实施例中,该系统包括:被配置为存储可执行指令的非暂时性存储器;音频输出设备;以及与非暂时性存储器、图像捕获设备和音频输出设备通信的硬件处理器(或处理器,例如虚拟处理器)。硬件处理器可以由可执行指令编程为:接收由图像捕获设备捕获的多个图像。处理器可以由可执行指令编程,以:使用多个图像来确定在经过时间,物体正在经过用户,或者具有超过经过用户的可能性阈值的可能性。该物体可能不在用户的视野中,或者可能在第一时间处于用户视野的远周边。处理器可以由可执行指令编程为:确定具有从包括下降音调的组中选择的特征的听觉刺激。处理器可以由可执行指令编程为:使音频输出设备在输出时间向用户输出听觉刺激。作为在输出时间向用户输出听觉刺激的结果,用户在输出时间或紧接在输出时间之后的时间在视觉上感知位于用户视野的远周边的物体的可能性可以增加。
这里公开的包括用于改善视觉运动感知的方法的实施例。在一些实施例中,该方法在硬件处理器(或处理器,例如虚拟处理器)的控制下,并且包括:接收由一个或多个传感器捕获的传感器数据。该方法可以包括:使用传感器数据确定物体在第一时间相对于受试者的位置和轨迹。物体在第一时间相对于受试者的位置和轨迹可以指示物体在第二时间在受试者的阈值距离内具有超过相对于受试者移动的可能性阈值的可能性。物体可能不在受试者的视野中,或者可能在第一时间处于受试者视野的周边。该方法可以包括:基于物体在第一时间相对于受试者的位置和轨迹来确定听觉刺激。听觉刺激的特征可以对应于物体在受试者的阈值距离内相对于受试者移动的听觉特征。该方法可以包括:在输出时间将听觉刺激输出给受试者。该方法可以导致受试者在输出时间或紧接输出时间之后的时间在视觉上感知受试者视野周边的物体的可能性增加。
这里公开的包括用于改善视觉运动感知的方法的实施例。在一些实施例中,该方法在硬件处理器的控制下,并且包括:接收由一个或多个传感器捕获的传感器数据。该方法可以包括:使用传感器数据,确定物体是或者具有高于可能性阈值的可能性相对于受试者在受试者的阈值距离内移动。物体可能不在物体的视野中,或者可能在第一时间处于物体视野的周边。该方法可以包括:确定听觉刺激,其特征对应于在受试者的阈值距离内相对于受试者移动的物体的听觉特征。该方法可以包括:在输出时间将听觉刺激输出给受试者。该方法可以导致受试者在输出时间或紧接输出时间之后的时间在视觉上感知受试者视野周边的物体的可能性增加。
本文公开的包括用于用户安全的系统的实施例。在一些实施例中,该系统包括:被配置为存储可执行指令的非暂时性存储器;与头盔或可穿戴设备相关联的一个或多个传感器,用于捕获不同类型的传感器数据;多个音频输出设备,用于输出听觉刺激,所述听觉刺激模仿来自用户的(1a)水平线和(1b)水平线下的以及来自用户的(2a)左侧、(2b)正后方和(2c)右侧的声音;和与非暂时性存储器通信的硬件处理器(或处理器,例如虚拟处理器)。硬件处理器可以由可执行指令编程为:接收由一个或多个传感器捕获的第一传感器数据。硬件处理器可以由可执行指令编程为:使用第一传感器数据确定物体在第一时间相对于用户的第一位置。物体相对于用户的第一位置可以在用户的第一阈值距离内。硬件处理器可以由可执行指令编程为:使用物体在第一时间相对于用户的第一位置确定一个或多个第一听觉刺激和多个输出设备中用于输出一个或多个第一听觉刺激的对应的一个或多个第一音频输出设备。第一听觉刺激的特征可以与物体的属性相关。硬件处理器可以由可执行指令编程为:使一个或多个第一音频输出设备中的每一个输出一个或多个第一听觉刺激中的对应的第一听觉刺激。
在整个附图中,附图标记可以重复使用,以表示被引用元素之间的对应关系。提供附图是为了说明这里描述的示例性实施例,而不是为了限制本公开的范围。
增强视觉运动感知
人的视觉感知在眼睛的中央凹处(~2度)最为准确和敏感,通过中央凹旁(~5度)和周边(~40度)性能逐渐下降。因此,一个人需要将他或她的头和/或目光指向在他或她的极端周边(60-100度)的移动物体(即使该物体的运动是相对的并且是由感知者的运动引起的),以便捕捉视网膜中央凹中的物体。从视觉上感知极端周边的移动物体在一个人的日常生活中至关重要,比如开车时。已经开发了许多技术,例如后视镜、侧镜、后监视器、侧镜中的盲点警报系统或数字镜,用于看到移动的物体,否则这些物体不会在人的眼睛的中央凹和副中央凹中被捕获。这些技术属于两类之一:光学地(例如,镜子)和/或通过图像处理(例如,数字镜子)显示更靠近人的视网膜中央凹的物体图像;或者,警告人将他或她的目光指向物体(例如,盲点警告系统)。现有技术需要将人的视线指向物体本身和/或其在设备(例如镜子)上的光学图像。现有技术导致人们开车没有向前看,这是车祸最常见的原因之一。
这里公开的包括用于增强周边的人类视觉运动感知的系统、设备、计算机可读介质和方法。使用听觉提示或刺激(例如,简单的听觉提示),人可以感知周围的移动物体,而无需将他或她的目光指向该物体。在一些实施例中,人在远周边或极端周边的视觉被增强,这可以有助于受试者执行诸如驾驶汽车或骑摩托车的任务。听觉提示或刺激可以使人能够感知远边缘和极端的移动物体,而无需将人的目光指向该物体。增强的感知可以提高人的日常生活中的安全性,例如当他或她驾驶汽车时。通过在操纵本文公开的一个或多个因素的同时向人呈现声音,可以激活或改善人对远周边和极端周边的一个或多个移动物体的视觉感知。在不操纵任何这些因素的情况下呈现声音实际上会损害远周边和极端周边的视觉感知。
听觉刺激、呈现和提示
当人面向前方时,与远周边或极端周边的运动相对应的生态上适当的听觉刺激、呈现或提示,其与侧面大致成90度,可以促进远周边或极端周边的视觉运动感知。具有一种或多种属性或特征的听觉刺激可以使远视觉周边或极端周边比刺激的非生态对应物更突出。
(a)音调–音调在下降(不是上升)。
(a')音调不仅在下降,而且以其过程中最快的速度下降。考虑音调变化率随时间变化的sigmoid函数。当功能以最快的速度下降时(即,音调以最快的速度下降),人的大脑知道移动的汽车(或移动的物体,例如移动的摩托车或移动的卡车)处于人的视野的90度,并且可能在物理上离人最近。
(b)响度–声音很大,因为相应的声源就在附近。声音可以足够大,甚至可以振动身体(这可以被认为是听觉的概括)。
(b’)响度不仅很高,而且处于峰值。响度可以表示为倒U形函数。当响度变平时,一个人的大脑知道这个物体正在靠近周边。
(c)频率范围–当制造噪音的物体靠近时,人可以听到其发射频率的更大范围,尤其是更多的高频成分。当制造噪音的物体离得很远时,人可以听到更多的低频成分。
(c’)c的衍生变体。
(d)角度差异的规律性–即使人相对于物体以零速度运动,运动物体在人的前面、后面或侧面听起来也是有规律的。
移动物体(如汽车)正在自行推进并发出噪音。例如,污垢被踢到后面,而不是前面。人类对发出的噪音或声音很敏感。
移动者通常对每一步或脚步都有一个“脚跟-脚趾”序列,这是字面上的,而不是在点大小的尖端上运行。对于有轮胎的物体,也有一个跟-趾序列,即轮胎不断旋转到新的“脚趾”上,随着轮胎的旋转,新的“脚趾”变成了脚跟。跟-趾序列在人前面时听起来与在人后面时不同,即使人相对于物体以零速度移动。例如,当在前面时,脚跟-脚趾的声音在时间上更一致(例如,具有更高的频率),而当在后面时,脚跟-脚趾的声音具有更大的时间间隔(例如,具有更低的频率)。
(d′)(d)的衍生变体。
(e)角度差异的特殊性–由于不像(d)中那样具有普遍性的原因,真实的制造噪音的运动物体在人的前面、后面和侧面听起来不一样。考虑一个人在汽车前面(以相同的速度)行驶,与汽车后面相对,与汽车侧面相对,所有这些都是等距的。人听到的声音是有区别的。人在车前行驶时可能会听到更多的电机声音(假设汽车有前置发动机),在车后行驶时会听到更多的排气和化油器声音。声音的差异在很大程度上取决于发出声音的物体的种类(例如,汽车),这是人类学习的。
(e′)(e)的衍生变体。
(f)声音阴影–在环境中,物体会部分阻挡来自其背后事物的声音。因此,即使是一个非常安静的运动物体也有一个运动的“声音阴影”,部分阻挡了物体后面的环境声音。移动的物体可能与移动的安静相关联,或者具有人类可以感知的移动声音阴影,而不是移动的声音。
(g)更大的角度尺寸–移动的发声物体不是点大小的。这种物体的大小是有限的,当靠近时,这些物体会发出来自多个方向的声音。比如火车远的时候,火车是点声源。但是当你旁边的时候,大脑可以在几乎180度的角度发出声音。事实上,几乎半个半球的角度,包括水平线以上和以下。更近的物体可以有更多的“环绕声”
(g’)g的衍生变体。
(h)耳朵不对称–移动的物体越靠近人,人的耳朵的响度不对称越大。
(h’)h的衍生变体。
(i)头部相关传递函数(HRTF)–移动的物体越靠近人,HRTF越表示该物体与人成90度角。
(i′)(i)的衍生变体。
(k)垂直位置–移动生物的最强听觉提示可以从远低于水平线的地方定向发出,从移动生物在地面上的脚发出。因此,一个人周围附近的生物可能会从水平线以下70度到水平线以上40度——以及这110度的总垂直范围——然而它的声音不成比例地倾向于从底部发出,在-70度。在-70度的听觉提示不一定意味着物体在-70度。相反,在-70度的听觉提示可以指示一个整个移动的生物,它的脚(或者移动车辆的轮子)碰巧在下面,即使大多数生物甚至不在那里附近。生物身体的其余部分(或车辆的身体)可能完全沉默。大多数动物其实都是这样的——它们的关节在运动时发出的声音为零,所有动物发出的声音都来自下面踩在地上的动物。
(k')从人的感知场中物体声音的高度到物体与人的距离的一对一映射–物体可以填充人的大量感知场,尤其是当物体在人附近时。物体可以用许多不同的方式发出声音,从它们的不同部位发出。对于移动的生物(或移动的车辆),有一些基本的概括:一个移动的生物发出的声音往往来自他或她的脚踏实地。从移动的生物发出的声音在人的感知场中的垂直位置,可以确定该生物到人的距离。水平线以下的垂直场位置与距离之间存在一一对应的关系。来自水平线的声音无限遥远。从一个人的感知场下面发出或被一个人感知到的声音离他或她的感知场更近。从人下面发出的声音意味着发出声音的生物基本上是直接走在人的旁边,与人的距离为零。
用于增强视觉运动感知的系统
图1是用于增强远周边和极端周边的视觉运动感知的非限制性示例性系统或设备(例如,可穿戴设备)100的框图。该系统可以包括一个或多个传感器104、处理器108、声音创建器112和声音生成器116。一个或多个传感器104可以包括雷达、照相机和麦克风。一个或多个传感器104可以捕获传感器数据,例如多个图像。
处理器108可以使用传感器数据来确定移动物体(例如,物体,例如车辆,从后面接近物体,例如系统的用户)的属性和特征,例如物体的大小、物体到物体的距离、物体的速度、物体的移动方向。处理器108可以使用传感器数据来确定物体的位置和可能的轨迹。例如,处理器108可以使用传感器数据在第一时间确定物体相对于受试者的位置和轨迹。物体相对于受试者在第一时间的位置和轨迹可以指示物体在第二时间相对于物体在物体的阈值距离(例如,5米)内移动的可能性高于可能性阈值(例如,80%)。物体可能不在(或不在)受试者的视野中,或者可能在(或在)受试者的视野的周边。
声音创建器112可以将物体的属性和特征转换成这里公开的声音刺激或提示。声音刺激或提示不需要是或模仿来自物体的真实/自然声音(例如,发动机声音)。在一些实施例中,声音刺激或提示可以是非常简单的人工声音,其模拟或放大来自移动物体的声音的本质(例如,具有突然音调变化的简单嘟嘟声)。例如,声音创建器112可以基于物体相对于受试者在第一时间的位置和轨迹来确定听觉刺激。听觉刺激的特征可以对应于在物体的阈值距离内相对于物体移动的物体的听觉特征。例如,听觉刺激可以具有下降的音调,其可以模仿多普勒音调偏移。
声音生成器116可以是诸如扬声器或耳机的音频设备。声音生成器116可以输出所确定的声音刺激或提示。例如,声音生成器116可以在输出时间向物体输出听觉刺激。作为声音创建器112输出的声音刺激或提示的结果,可以增强受试者的极端周边视觉感知。在输出时间或紧接在输出时间之后的时间(例如,在0.0000001秒、0.000001秒、0.00001秒、0.00001秒、0.0001秒、0.001秒、0.001秒、0.01秒、0.1秒或1秒内),受试者视觉感知受试者视野周边的物体的可能性增加。
系统100或系统100的一个或多个组件可以与用于摩托车或自行车骑手的头盔(例如,智能头盔)、用于诸如汽车或休闲车等交通工具的驾驶员的头盔以及用于航空飞行员的头盔相关联,可以包括头盔,或者可以包含在头盔中;车辆音频系统(例如,汽车音频系统);和用于行人或轮椅使用者的可佩戴扬声器系统。
基于听觉刺激的视觉运动感知增强特征
(1)数字镜像设备。本文公开的基于听觉呈现或刺激的数字镜像设备和任何方法(或系统)旨在帮助人类在视觉上感知盲点中的运动物体,例如极端周边。然而,数字镜像设备使用图像处理,而这里公开的方法使用听觉呈现。数字镜像设备还需要人的凝视方向朝着设备中的视觉图像移动,而本公开的方法不需要这样的凝视方向,因为该方法使得人类能够直接感知极端周边的物体,而不是中央凹。
(2)后方物体警报系统。本文公开的基于听觉呈现或刺激的后方物体警报系统和任何方法(或系统)旨在帮助人类在视觉上感知盲点中的运动物体,例如极端周边。然而,后方物体警报系统使用听觉和/或视觉警报来使人将他或她的凝视指向物体,而这里公开的方法使用听觉刺激来使人能够视觉感知物体而不改变他或她的凝视方向。听觉刺激可以具有在此公开的特征或特征(例如,下降的音调),而由后方物体警报系统发出的简单警报声音不能在极端周边提供视觉感知(甚至可能损害视觉检测)。
(3)音频-触觉方向指示器。本文公开的基于听觉呈现或刺激的音频触觉方向指示器和任何方法(或系统)使用两种模态来呈现信息。音频触觉方向指示器基于听觉和触觉刺激。本文公开的方法基于视觉和听觉刺激。音频-触觉方向指示器旨在主要通过听觉刺激在头盔中提供方向信息,并使用触觉刺激作为辅助。本文公开的方法旨在通过呈现具有本文公开的一个或多个特征或属性(例如,下降音调)的听觉刺激,使人类能够在视觉上感知极端周边的运动物体。
(4)3D音频或立体声技术。这里公开的基于听觉呈现或刺激的3D音频或立体声技术和任何方法(或系统)使用声音来允许人类通过听觉刺激更清楚地感知外部世界。这些技术旨在创造更真实、超准确的声音来复制真实的环境声音。然而,本公开的方法仅需要简单的声音,同时操纵这里公开的一个或多个因素或特征,但是不需要像这些技术那样产生这样的高质量声音。例如,一个简单的单声道1000赫兹蜂鸣声,其音调仅降低10%,响度的原始淡入和淡出效果,通过廉价的耳机,可以增强远边缘和极端边缘的视觉运动感知。
增强视觉运动感知
图2是示出从后面增强或改善视觉运动感知的示例性方法200的流程图。方法200可以体现为存储在计算系统或设备的计算机可读介质(例如一个或多个磁盘驱动器)上的一组可执行程序指令。例如,图6所示的计算系统600,并且下面更详细地描述可以执行一组可执行程序指令来实现方法200。当方法200被启动时,可执行程序指令可以被加载到诸如随机存取存储器的存储器中,并由计算系统600的一个或多个处理器执行。尽管方法200的描述相对于图6所示的计算系统600,该描述仅是说明性的,而不是限制性的。在一些实施例中,方法200或其部分可以由多个计算系统串行或并行执行。
在一些实施例中,计算系统与头盔或可佩戴设备相关联,包括头盔或可佩戴设备,或者包含在头盔或可佩戴设备中。例如,计算系统可以附在头盔或可穿戴设备上。例如,计算系统可以是头盔或可穿戴设备的一部分。
在方法200在框204开始之后,方法200前进到框208,在框208,计算系统接收由一个或多个传感器捕获的传感器数据。一个或多个传感器可以包括图像捕获设备、无线电检测和测距(雷达)、光检测和测距(激光雷达)、音频捕获设备或其组合。传感器数据可以包括多个图像。计算系统可以接收由图像捕获设备捕获的多个图像。
在一些实施例中,传感器数据包括由与物体相关联的一个或多个遥测和定位传感器捕获的物体的位置、速度和方向。一个或多个传感器可以包括与物体相关联的一个或多个遥测和定位传感器。与物体相关联的一个或多个遥测和定位传感器可以包括与物体相关联的全球定位系统(GPS)传感器。例如,第一车辆的计算系统200可以使用由第二车辆的一个或多个遥测和位置传感器捕获的传感器数据,在框212(下面详细描述)确定第二车辆在第一时间相对于第一车辆的位置和轨迹。
例如,第一人正在驾驶与计算系统200相关联或包括计算系统200的第一车辆。第二个人正驾驶第二辆车从后面接近第一辆车。第二车辆与另一计算系统200相关联,或者包括另一计算系统200。第一车辆可以与一个或多个遥测和位置传感器相关联,或者包括一个或多个遥测和位置传感器。第二车辆可以与一个或多个遥测和位置传感器相关联,或者包括一个或多个遥测和位置传感器。第一车辆可以直接或间接将由第一车辆的一个或多个遥测和定位传感器捕获的传感器数据传输到第二车辆。第二车辆可以直接或间接将由第二车辆的一个或多个遥测和定位传感器捕获的传感器数据传输到第一车辆。例如,第一车辆的计算系统200可以使用由第二车辆的一个或多个遥测和位置传感器捕获的传感器数据,在框212(下面详细描述)确定第二车辆在第一时间相对于第一车辆的位置和轨迹。例如,第二车辆的计算系统200可以使用由第一车辆的一个或多个遥测和位置传感器捕获的传感器数据,在框212(下面详细描述)确定第一车辆相对于第二车辆在另一个第一时间的位置和轨迹。
在一些实施例中,计算系统包括一个或多个传感器或一个或多个传感器中的一个或多个。计算系统可以与一个或多个传感器或一个或多个传感器中的一个或多个相关联(例如,在电通信、有线通信或无线通信中)。在一些实施例中,一个或多个传感器或一个或多个传感器中的一个或多个与第二系统相关联,例如传感器系统。计算系统可以与第二系统相关联(例如,在电通信、有线通信或无线通信中)。计算系统可以从第二系统接收由一个或多个传感器或者一个或多个传感器中的一个或多个传感器捕获的传感器数据。在一些实施例中,头盔、汽车音频系统或可佩戴扬声器系统或设备与一个或多个传感器相关联,包括或包含在一个或多个传感器中。例如,计算系统可以附接到头盔,并且与一个或多个传感器进行电、有线和/或无线通信。例如,一个或多个传感器可以附着在头盔或可佩戴设备上。
方法200从框208前进到框212,在框212,计算系统使用传感器数据确定物体正在或者具有高于可能性阈值的可能性在受试者的阈值距离内(例如,经过受试者的物体,或者撞击受试者的物体)相对于受试者(例如,系统的用户)移动,。计算系统可以使用传感器数据确定物体正在或具有高于可能性阈值的可能性,以受试者的阈值距离在第二时间相对于受试者移动。计算系统可以使用传感器数据来确定在经过的时间,物体正在经过用户,或者具有超过经过用户的可能性阈值的可能性。
在一些实施例中,计算系统可以使用传感器数据在第一时间确定物体相对于受试者的位置和轨迹。物体相对于受试者在第一时间的位置和轨迹可以指示物体很有可能在第二时间经过或撞击受试者。物体相对于用户在第一时间的位置和轨迹指示物体具有在经过时间超过用户经过的可能性阈值的可能性。
计算系统可以基于物体相对于受试者在第一时间的位置和轨迹,确定物体在第二时间相对于受试者在受试者的阈值距离内移动的可能性高于可能性阈值。计算系统可以基于物体相对于用户在第一时间的位置和轨迹来确定物体在经过时间具有超过可能性阈值的可能性。
在一些实施例中,计算系统使用一种或多种机器学习方法或模型来确定物体正在受试者的阈值距离内(例如,在第二时间)相对于受试者移动,或者具有高于可能性阈值的可能性。计算系统可以使用一种或多种机器学习方法或模型来确定在经过的时间,物体正在经过用户,或者具有超过经过的可能性阈值的可能性。计算系统可以使用一种或多种机器学习方法或模型在第一时间确定物体相对于受试者的位置和轨迹。
可能性阈值可以是例如至少50%、60%、70%、80%、90%、95%或99%。阈值距离可以是例如至多0米、1米、2米、5米或10米。物体可以经过受试者,例如,在受试者的至多1米、2米、5米或10米内。
物体可以是第一机动车辆(例如,自行车、摩托车、汽车或卡车)。受试者可以在第二辆机动车上。受试者可以乘坐第二机动车辆(例如,摩托车或自行车)。受试者可以是行走。第一辆机动车可以从后面接近目标。
在一些实施例中,计算系统可以在第一时间向第三系统传输传感器数据、物体相对于用户的位置和轨迹、和/或物体正在经过用户或在经过用户时具有超过可能性阈值的可能性的指示。计算系统可以与第三系统相关联(例如,在电通信、有线通信或无线通信中)。例如,计算系统可以在第一时间向车辆的音频系统或车辆的控制系统发送传感器数据、物体相对于用户的位置和轨迹、和/或物体正在经过用户或在经过时具有超过可能性阈值的可能性的指示。
物体可能在第一时间、第二时间和/或经过时间不在(或不在)受试者的视野内。在第一时间、第二时间和/或经过时间,物体可以(或正在)在受试者的视野的周边(例如远周边和/或极端周边)。在第一时间、第二时间和/或经过时间,物体可能(或正在)处于受试者视野的远周边。在第一时间、第二时间和/或经过时间,可以(或正在)处于受试者视野的极端周边。用户视野的远周边可以包括,例如,暂时远离受试者的鼻子并朝向太阳穴约60°至约110°。用户视野的远周边可以包括例如从大约50°、大约55°、大约60°、大约65°或大约70°到大约100°、大约105°、大约110°、大约115°或大约120°暂时远离受试者的鼻子并朝向太阳穴。用户视野的最外周可以包括例如暂时远离受试者鼻子并朝向太阳穴的大约90°至110°。用户视野的远周边可以包括例如从大约80°、大约85°、大约90°、大约95°、或者大约100°到大约100°、大约105°、大约110°、大约115°或者大约120°暂时远离受试者的鼻子并且朝向太阳穴。
在一些实施例中,第一时间是捕获传感器数据或多个图像或其一部分的时间。第一时间可以是捕获传感器数据或多个图像或其一部分之后的时间。第一时间可以是紧接在捕获传感器数据或多个图像或其一部分之后的时间(例如,在0.0000001秒、0.00001秒、0.0001秒、0.01秒、0.1秒或1秒内)。
方法200从框212前进到框216,在框216,计算系统确定听觉刺激,该听觉刺激的特征对应于在受试者的阈值距离内相对于受试者移动的物体的听觉特征。计算系统可以基于物体相对于受试者在第一时间的位置和轨迹来确定听觉刺激。听觉刺激的特征可以对应于在受试者的阈值距离内相对于受试者移动的物体的听觉特征。计算系统可以确定具有从包括下降音调的组中选择的特征的听觉刺激。计算系统可以基于物体相对于用户在第一时间的位置和轨迹来确定听觉刺激和输出听觉刺激的输出时间。输出时间可以是经过时间,或者输出时间可以在第一次和经过时间之间。计算系统可以基于物体相对于用户在第一时间的位置和轨迹来确定需要输出的听觉刺激。听觉刺激的特征可以从包括下降音调的组中选择。听觉刺激可以预先选择。可以预先选择听觉刺激的特征(例如,下降的音调)。
在一些实施例中,输出时间是第二时间(在该第二时间,物体被确定为具有高于可能性阈值的可能性,以相对于物体在物体的阈值距离内移动)或经过时间(在该第二时间,物体具有高于可能性阈值的可能性,以经过用户)。输出时间可以紧接在第二时间或经过时间之前(例如,0.0000001秒、0.000001秒、0.0001秒、0.001秒、0.01秒、0.1秒或1秒)。输出时间可以在第一次和第二次之间,也可以是经过时间。
在一些实施例中,听觉刺激的特征是下降的音调。例如,听觉刺激可以是1000赫兹的嘟嘟声,音调降低或下降10%或100赫兹。音调可以降低或下降例如听觉刺激频率的1%、5%、10%、15%、20%或更多。音调可以降低或下降例如10赫兹、50赫兹、100赫兹、150赫兹、200赫兹或更多。听觉刺激音调的降低或下降可以在0.00000001秒、0.000001秒、0.00001秒、0.0001秒、0.001秒、0.01秒、0.1秒或1秒内发生。听觉刺激可以有淡入淡出的效果。在一些实施例中,听觉刺激包括窄范围的频率(例如,1赫兹、10赫兹或100赫兹)或纯音(例如,250赫兹、500赫兹、750赫兹、800赫兹、900赫兹、1000赫兹、1100赫兹或1200赫兹)。在一些实施例中,听觉刺激包括音乐、语音或其组合。
在一些实施例中,听觉刺激的特征选自包括下降的音调、增加的响度、更高数量的频率、更高的频率、角度差的规律性、角度差的特殊性、声音阴影、更大的角度大小、受试者(或用户)耳朵的响度不对称性、大约90°的头部相关传递函数、受试者(或用户)水平线以下的垂直位置或其组合的组。在一些实施例中,听觉刺激特征的变化在经过时间或大约在经过时间是最快或最高的。
方法200从框216前进到框220,其中计算系统使得听觉刺激在输出时间被输出到受试者。计算系统可以使一个或多个音频输出设备在输出时间输出听觉刺激。计算系统可以与一个或多个音频输出设备相关联、包括或包含在一个或多个音频输出设备中。另一个系统可以包括一个或多个音频输出设备,例如头盔、汽车音频系统或可佩戴扬声器系统或设备。计算系统可以将听觉刺激和/或输出时间传输到另一个系统。计算系统可以使另一系统的一个或多个音频输出设备在输出时间输出听觉刺激。
听觉刺激可以增加受试者在输出时间或紧接输出之后的时间在受试者视野的周边(例如,远周边和/或极端周边)视觉感知物体的可能性。听觉刺激可以增加用户在输出时间或紧接在输出时间之后的时间在视觉上感知位于用户视野的远边缘和/或极端的物体的可能性。可能性的增加可以是例如至少10%、20%、30%、40%或50%。紧接在输出时间之后的时间可以是例如输出时间的0.0000001秒、0.000001秒、0.00001秒、0.0001秒、0.001秒、0.01秒、0.1秒或1秒之内。
左右音频输出设备。在一些实施例中,物体相对于受试者在第一时间的位置和轨迹指示物体可能在第二时间(或经过时间)在物体的左侧或右侧经过或撞击物体。计算系统可以使听觉刺激在输出时间分别输出到物体的左耳或右耳。
在一些实施例中,一个或多个音频输出设备包括左音频输出设备和右音频输出设备,用于向物体的左耳和/或右耳输出听觉刺激。诸如耳挂式耳机的耳机可以包括左扬声器和右扬声器,用于分别向受试者的左耳和/或右耳输出音频刺激。汽车音频系统可以包括左扬声器和右扬声器。当汽车音响系统的左扬声器输出音频刺激时,虽然受试者可以用双耳听到音频刺激,但受试者可以先用左耳听到音频刺激。
物体相对于受试者在第一时间的位置和轨迹可以指示物体可能在经过时间或第二时间(在该时间,物体被确定为具有高于可能性阈值的可能性相对于受试者在受试者的阈值距离内移动)经过或撞击用户左侧的受试者。计算系统可以使左音频输出设备在输出时间向用户的左耳输出听觉刺激。物体相对于受试者的位置和轨迹可以指示物体可能在经过时间或第二时间经过或撞击用户右侧的物体。计算系统可以使右音频输出设备在输出时间向用户的右耳输出听觉刺激。
方法200在框224结束。
用于提高用户安全性的系统
扬声器配置
图3A-3D是示出系统的听觉输出设备(例如,智能头盔或可佩戴设备的扬声器)的非限制性示例性布置的示意图,用于通过例如增强远周边和远周边的视觉运动感知来提高用户安全性。图3A示出了人的投影球的后半部分300,即,在人的后面。对于人周围的大多数移动物体(例如,车辆的驾驶员或骑手),声音不成比例地来自人的感知视野之下。一个人的感性视界在人的眼睛和耳朵的层面。不受理论的束缚,人周围移动物体的声音来自人的水平线以下,因为移动物体在地面上推动自己,因此与地面相互作用时会产生相当大的噪音。此外,汽车(以及一般车辆)发出的发动机噪音也往往低于人的眼睛水平。道路上跟在一个人后面很远(并且方向相同)的汽车往往位于水平线的中心点(虚线与304c0相交的地方)。当汽车接近人(或人正在操作的车辆,如驾驶或骑行,或在车内)时,这些汽车倾向于在人的投影场中向下和向外移动。越过人几条车道的汽车将向外移动多于向下移动(见最左边的箭头或轨迹308)。越过一条车道的汽车将越来越向下移动,越来越少向外移动(参见大约7点钟的箭头或轨迹312)。在到人的后端的碰撞路线上的物体将大部分向下移动,很少向外移动(见两个较低箭头或轨迹316a、316b之间的区域)。
鉴于图3A中人体后方投射场中物体的特征路径,将扬声器放置在头盔或可穿戴设备(例如颈部设备)上可能会带来挑战。如果扬声器被放置在人头部周围的恒定高度,那么扬声器将跟踪更多,如图3B中左侧的水平虚线320所示,不像司机身后的汽车朝同一个方向运动。
在一些实施例中,头盔在后视野中配备有扬声器324、328a-328h、332a-332h的二维阵列,如图3C所示。在一些实施例中,头盔配备有二维扬声器阵列,其包括后视野中的扬声器324、一个或多个扬声器328a-328h和/或一个或多个扬声器332a-332h。在一些实施例中,头盔配备有扬声器324、328a-328h、332a-332h的二维阵列和用于每个径向线的一个或多个扬声器。出于参考图3A讨论的原因,对于人后面的汽车的任何位置,在对应于该位置的投影球的后半部分上有唯一的点。因此,任何特定扬声器的激活可以唯一地提示(或指示)该人在该人后面的道路上的汽车的特定三维位置。
对于仅具有单个轮廓或单排扬声器的颈部设备(或可佩戴设备),该设备可以包括扬声器332a、328a、324、328b、332b,其根据图3D所示的“汽车从后面经过,一个车道经过”曲线或模式340来定位。当该设备朝向使用(例如佩戴)该设备的人的后脑勺移动时,该设备可以升起,或者该设备可以使扬声器相应地从该设备向上伸出。如果头盔(或可佩戴设备)包括单排扬声器,则扬声器可以根据头盔背面的“汽车从后面经过,一条车道经过”曲线或图案336而不是直线来定位。如此定位的单排扬声器332a、328a、324、328b、332b可用于跟踪典型的过往汽车。当汽车将从后面与戴头盔的人碰撞时,具有相同偏心率或不同偏心率的两个或多个扬声器332a、328a、324、328b、332b可以被激活。例如,可以激活一对扬声器332a、332b。作为另一个例子,可以激活扬声器对328a、328b。被激活的两个或多个扬声器332a、328a、324、328b、332b可以具有相同的偏心率或不同的偏心率。被激活的两个或多个扬声器332a、328a、324、328b、332b可以在相应的时间输出具有相同响度或不同响度的听觉刺激。在一些实施例中,当汽车将从后面与佩戴头盔的人碰撞时,扬声器332a、328a、324、328b、332b中的一个可以被激活。
扬声器激活
图4A-4F是示出系统的听觉输出设备(例如,智能头盔或可佩戴设备的扬声器)的非限制性示例性激活的示意图,用于通过例如增强远周边和远周边的视觉运动感知来提高用户安全性。
图4A示出了人的投影球的后半部分400,即,在人的后面。道路上的汽车在一个人后面很远的地方(并朝同一个方向行驶),往往位于投影视野中水平线的中心点(0度404)。当汽车接近人(或人正在操作的车辆,如驾驶或骑行,或在车内)时,汽车倾向于在投影场中向下移动,并在人的投影场中向外移动。例如,当汽车从远处接近人时,汽车可以在人的投影场中从0度移动到45度(由45度轮廓404c1表示)。汽车然后可以在人的投影中从45度移动到90度(由90度轮廓404c2表示),当汽车真正靠近人时(例如,汽车就在人的后面,或者当汽车经过人时,汽车就在人的旁边),该投影可以在人的极端周边。一辆汽车在人上方经过几条车道时,会向外移动而不是向下移动(例如,见线或轨迹408)。越过一条车道的汽车将向下移动得更多,向外移动得更少(例如,参见线或轨迹412)。在到人的后端的碰撞路线上的物体将大部分向下移动,很少向外移动(例如,参见线或轨迹416)。
参考图4B1和4B2,当物体(例如汽车)以固定距离(例如50m)从后面过来时,声音产生可以开始。在一些实施例中,所生成的声音可以具有一个或三个音调:大物体(例如卡车)的低音调,中等物体(例如汽车)的中音调,以及小物体(例如摩托车)的高音调。在一些实施例中,生成的声音可以具有一个或三个音调:小物体(例如,摩托车)的低音调,中等物体(例如,汽车)的中音调,以及大物体(例如,卡车)的高音调。每个音调可以具有窄的频率范围,或者纯音调(例如,250赫兹、500赫兹或1000赫兹)。
参考图4C,当物体在例如50米的距离从后面过来时,扬声器0可以开始以小的响度产生单音。色调可以反映物体的大小:大型卡车为250赫兹,汽车为500赫兹,摩托车为1000赫兹。音调可以根据物体的速度来调整:速度越高音调越高,速度越低音调越低。例如,可以为高速行驶的摩托车产生1050赫兹的单音。作为另一个例子,可以为低速的摩托车产生950赫兹的单音。
参考图4D,当物体在例如25米距离的人后面时,扬声器1x(例如,扬声器1a、1b或1c)或多个扬声器1x可以开始以中等响度产生多个音调。音调可以是如参考图4C所述生成的音调,基于物体的大小(并且可能由物体的速度调整)加上窄范围的频率(例如,±1%、±2%、±5%或±10%,或±10赫兹、±20赫兹、±50赫兹或±100赫兹)。例如,如果当物体在人后面50米时产生的音调是250赫兹,当卡车在人后面25米时产生的多个音调可以是250赫兹±5%。可以根据物体的轨迹激活不同的扬声器。不同的轨迹会导致不同的扬声器被激活。例如,如果物体以碰撞路线的轨迹从后面接近,则扬声器1a可以被激活。如果物体以危险的接近轨迹从后面接近,则扬声器1b可以被激活。如果物体从后面接近,并且在人转弯时轨迹危险,则扬声器1c可以被激活。在一些实施例中,如果物体以当人分别向右或向左转动时危险的轨迹从后面接近,则扬声器1c’或1c可以被激活。
参考图4E,当物体在例如5米的距离处在人的后面时,扬声器2x(例如,扬声器2a、2b或2c),或者除了扬声器1x之外的多个扬声器2x,可以开始以高响度产生多个音调。音调可以是如参考图4C所述生成的音调,基于物体的大小(并且可能由物体的速度调整)加上窄范围的频率。例如,如果当物体在人后面50米时产生的音调是250赫兹,当卡车在人后面25米时产生的多个音调可以是250赫兹±5%。可以根据物体的轨迹激活不同的扬声器。不同的轨迹会导致不同的扬声器被激活。例如,如果物体以碰撞路线的轨迹从后面接近,则扬声器1a和2a可以被激活。如果物体以危险的接近轨迹从后面接近,则扬声器1b和2b可以被激活。如果当人转弯时,物体以危险的轨迹从后面接近,则扬声器1c和2c可以被激活。两个(或更多)扬声器激活后,可以模仿更大角度的声源,物体,当物体更接近人。在一些实施例中,如果物体分别以当人向右或向左转弯时危险的轨迹从例如5米的距离从后面接近,则扬声器1c’和2c’或1c和2c可以被激活。
参考图4F,当物体处于人的最外周(例如,从大约90度)并且轨迹在转弯时危险地接近或危险时,扬声器1x和2x(例如,用于危险地接近的轨迹的扬声器1b和2b)可以产生突然的音调下降,以在最外周具有运动检测的跨模态增强,如本文所述。
听觉刺激
刺激如何根据车辆接近人的行为而变化是有规律的。以下是一些规律。
A.下投影球的后半部分与汽车位置之间的一对一映射。在同一方向行驶的司机后面的汽车可以位于图3A中的一个轮廓上,这取决于汽车后面有多远,汽车上方有多少车道。在后投影球的下半部分上的位置和驾驶员后面的道路上的汽车的所有可能的三维(3D)位置之间往往存在一对一的映射。对于驾驶员身后道路上的任何汽车的3D位置,可以激活对应于该3D位置的扬声器。扬声器输出的插值有助于在没有任何相应扬声器的情况下提示中间3D位置。例如,参考图3D,扬声器328a和328b可以被激活(例如,具有不同的响度)以模拟汽车的3D位置,该位置对应于投影球的后半部分中扬声器之间的位置。作为另一个例子,图3D中的扬声器328a和332a可以被激活来模拟汽车的3D位置,该位置对应于投影球的后半部分中两个扬声器之间的位置。
B.汽车因多普勒而倾斜。汽车在人后面的倾斜度取决于他们的相对速度。如果汽车以与人相同的速度行驶,汽车可以有一些基线间距,既不高也不低。汽车相对于人移动得越快(例如,汽车接近人的速度越快),其俯仰在基线之上的位置就越高。汽车相对于人的移动速度越慢(例如,汽车落后),其倾斜度就越可能低于基线。对于被跟踪的汽车,产生并输出给对应于该汽车的人的听觉声音或刺激的音调可以根据相对速度而变化(并且在一些实施例中被夸大了)。
C.汽车的响度。在给定汽车的实际线性距离的情况下,与人后面的汽车相对应的被激活的扬声器的响度可以对应于汽车的实际响度。距离可以直接从汽车在下后投影球中的位置计算出来。当汽车在物理上更近时,投影球(或头盔)上更靠近水平线的扬声器可能比沿着投影球更远激活的扬声器更安静。
D.触觉刺激的使用。触觉刺激可以有两种生态上合适的作用,这两种作用同时相关取决于以下两个因素。
a.当人后面的汽车在附近时,汽车发出的声音可能足够大,实际上会诱发触觉刺激。头盔或项链的一个或多个刺激器(例如,一个或多个扬声器)的触觉强度可以随着人和车之间距离的平方倒数而变化。此外,当在附近时,触觉刺激可以在刺激器(例如,扬声器)的更宽区域上,峰值集中在后投影球上的适当位置。
b.触觉刺激也可能由汽车接近人引起的风引起。头盔或项链的一个或多个扬声器产生的听觉刺激的触觉刺激可以与基线以上的多普勒频移成比例。
提高用户安全性
图5是示出提高用户安全性的示例性方法500的流程图。方法500可以体现为存储在计算系统或设备的计算机可读介质(例如一个或多个磁盘驱动器)上的一组可执行程序指令。例如,图1所示的计算系统600并且在下面更详细地描述,可以执行一组可执行程序指令来实现方法500。当方法500被启动时,可执行程序指令可以被加载到诸如随机存取存储器的存储器中,并由计算系统600的一个或多个处理器执行。尽管方法500是相对于图6所示的计算系统600描述的,该描述仅是说明性的,而不是限制性的。在一些实施例中,方法200或其部分可以由多个计算系统串行或并行执行。
计算系统可以包括一个或多个传感器,或者与一个或多个传感器相关联(例如,与一个或多个传感器通信,例如电通信、有线通信或无线通信)。一个或多个传感器可以与头盔相关联。一个或多个传感器可以捕获不同类型的传感器数据。
计算系统可以包括或关联于多个音频输出设备(例如,参考图3D描述的扬声器332a、328a、324、328b、332,或者参照图4B2描述的扬声器0、1c’、1b’、1a-1c、2c’、2b’、2a-2c)用于输出听觉刺激,该听觉刺激模仿来自(1a)用户的水平线和水平线下的(1b)以及来自(2a)计算系统的用户的左侧、(2b)正后方和(2c)右侧的声音。该系统可以与头盔或可穿戴设备(例如增强现实或混合现实设备)相关联,可以包括头盔或可穿戴设备,或者可以包含在头盔或可穿戴设备中。多个音频输出设备可以在头盔或可佩戴设备上、之中或之内。多个音频输出设备可以被定位用于输出听觉刺激,该听觉刺激模仿来自用户的水平线(1a)和水平线下的(1b)以及来自用户的左侧(2a)、(2b)和(2c)的声音。图3C、3D、4B1和4B2以及伴随的描述示出了多个音频输出设备的定位的非限制性示例性示意图,用于模仿来自用户水平线以下的(1a)和水平线以下的(1b)以及来自用户左侧的(2a)、(2b)和(2c)的声音。
在一些实施例中,多个音频输出设备包括:(i)水平级音频输出设备(例如,图3D中的扬声器3243D,或图4B1和4B2中的扬声器0),用于输出模仿当佩戴头盔或可佩戴设备时来自用户水平线中心点的声音的听觉刺激;以及(ii)第一左水平线以下音频输出设备和第一右水平线以下音频输出设备(例如,图3D中的扬声器328b、328a或图4B2中的扬声器1b和1b’)的第一轮廓(例如,45度轮廓),用于在佩戴头盔或可佩戴设备时分别在用户的左侧和右侧输出模仿来自用户水平线以下第一垂直水平的声音的听觉刺激。多个音频输出设备可以包括中央水平线以下音频输出设备(例如,图4B2中的扬声器1a),用于输出模拟来自用户水平线和中心点以下的声音的听觉刺激。
在一些实施例中,多个音频输出设备包括(iii)第一左水平线以下音频输出设备和第一右水平线以下音频输出设备(例如,图3D中的扬声器332b、332a或图4B2中的扬声器2b和2b’)的第二轮廓(例如,90度轮廓)位于,或,当佩戴头盔或可穿戴设备时,头盔或可穿戴设备用于输出听觉刺激,该听觉刺激在用户左侧和右侧分别模拟来自用户水平线下方第二垂直水平的声音。。第二垂直高度可以低于第一垂直高度。第二轮廓可以低于第一轮廓。
在一些实施例中,多个音频输出设备包括(ii)第二左水平线以下音频输出设备和第二右水平线以下音频输出设备(例如,图4B2中的扬声器1c和1c’),或,当佩戴头盔或可穿戴设备时,头盔或可穿戴设备用于输出听觉刺激,该听觉刺激分别模拟来自用户水平线以下第一垂直水平的声音。由第二左水平线以下音频输出设备输出的听觉刺激模仿的声音可以在由第一轮廓的第一左水平线以下音频输出设备输出的听觉刺激模仿的声音的左侧。由第二右水平线以下音频输出设备输出的听觉刺激模仿的声音可以在由第一轮廓的第一右水平线以下音频输出设备输出的听觉刺激模仿的声音的右侧。第二左水平线以下音频输出设备可以在第一轮廓的第一左水平线以下音频输出设备的左侧。第二右水平线以下音频输出设备可以在第一轮廓的第一右水平线以下音频输出设备的右侧。
在方法500开始于框504之后,方法500前进到框508,在框508,计算系统(例如,图6所示的计算系统600)接收由一个或多个传感器捕获的第一传感器数据。在一些实施例中,一个或多个传感器包括图像捕获设备、无线电检测和测距(雷达)、光检测和测距(激光雷达)、音频捕获设备或其组合。
方法500从框508前进到框512,其中计算系统使用第一传感器数据(例如,图像数据、雷达数据、激光雷达数据、音频输入、遥测数据和位置数据)在第一时间确定物体相对于用户的第一位置。物体在第一时间相对于用户的第一位置可以对应于用户的投影球的后半部分中的位置,例如0度的水平线的中心点。计算系统可以使用一种或多种机器学习方法或模型在第一时间确定物体相对于用户的第一位置。物体相对于用户的第一位置可以在用户的第一阈值距离内。第一阈值距离可以是例如1米、2米、5米、10米、20米或100米。例如,物体可以在用户后面50米。在一些实施例中,物体是第一机动车辆。在一些实施例中,用户在第二机动车辆中或正乘坐第二机动车辆。
方法500从框512前进到框516,在框516,计算系统确定多个音频输出设备中的一个或多个第一听觉刺激和对应的一个或多个第一音频输出设备,用于在第一时间使用物体相对于用户的第一位置来输出一个或多个第一听觉刺激。第一听觉刺激的特征可以与物体的属性相关。第一听觉刺激的特征可以与物体的至少一个属性相关。
在一些实施例中,一个或多个第一听觉刺激和对应的一个或多个第一音频输出设备包括两个或多个第一听觉刺激和对应的两个或多个第一音频输出设备。由相应的第一音频输出设备输出的两个或多个第一听觉刺激的组合可以在多个音频输出设备中没有一个能够单独模仿的第一时间模仿在相对于用户的第一位置移动的物体的声音。例如,图3D中的扬声器328a和328b可以被激活(例如,以不同的响度)以模拟汽车的3D位置,该位置对应于投影球的后半部分中扬声器之间的位置。作为另一个例子,图3D中的扬声器328a和332a可以被激活以模拟汽车的3D位置,该位置对应于投影球的后半部分中两个扬声器之间的位置。
在一些实施例中,一个或多个第一听觉刺激包括窄范围的频率(例如,1赫兹、10赫兹或100赫兹)或纯音(例如,250赫兹、500赫兹、750赫兹、800赫兹、900赫兹、1000赫兹、1100赫兹或1200赫兹)。在一些实施例中,一个或多个第一听觉刺激包括音乐、非音乐、语音、非语音或其组合。
在一些实施例中,第一听觉刺激的特征是第一听觉刺激的音调。第一听觉刺激的特征可以与物体的属性相关,例如物体的大小。第一听觉刺激的音调可以与物体的大小正相关,也可以负相关。在一些实施例中,第一听觉刺激的特征是第一听觉刺激的响度。第一听觉刺激的特征可以与物体的属性(例如,物体在第一时间的属性)相关,例如物体的速度。第一听觉刺激的响度可以与物体的速度正相关或负相关。在一些实施例中,第一听觉刺激的特征是第一听觉刺激的音调。第一听觉刺激的特征可以与物体的属性相关,例如物体的大小和速度。第一听觉刺激的音调可以与物体的大小正相关,也可以负相关。第一听觉刺激的音调可以与物体的速度正相关,也可以负相关。
方法500从框516前进到框520,其中计算系统使一个或多个第一音频输出设备中的每一个输出一个或多个第一听觉刺激中的对应的第一听觉刺激。例如,当物体从后面进入例如用户50米的距离时,如参考图4C所述的扬声器0开始以小音量产生单音。
物体接近
在一些实施例中,计算系统可以接收由一个或多个传感器捕获的第二传感器数据。计算系统可以使用第二传感器数据在第二时间确定物体相对于用户的第二位置。物体在第二时间相对于用户的第二位置可以对应于用户的投影球的后半部分中的位置,例如45度轮廓上的位置。物体相对于用户的第二位置可以在用户的第二阈值距离内。第二阈值距离可以是例如1米、2米、5米、10米、20米或100米。第二阈值距离可以短于(或长于,或等于)第一阈值距离。计算系统可以确定多个输出设备中的一个或多个第二听觉刺激和相应的一个或多个第二音频输出设备,用于使用物体在第二时间相对于用户的第二位置来输出一个或多个第二听觉刺激。计算系统可以使一个或多个第二音频输出设备中的每一个输出一个或多个第二听觉刺激中相应的第二听觉刺激。例如,当物体从用户后方(例如25米距离)过来时,如参考图4D所述的扬声器1a、1b和1c中的一个可以根据汽车的轨迹以中等音量开始产生多个音调。
第二听觉刺激的特征可以与物体的属性(例如,物体在第二时间的属性)相关。第二听觉刺激的特征相对于第一听觉刺激的特征之间的差异可以与物体在第二时间相对于用户的第二位置相关。第二听觉刺激的特征相对于第一听觉刺激的特征之间的差异可以与物体在第一时间相对于用户的第一位置和物体在第二时间相对于用户的第二位置之间的差异相关。第二听觉刺激的特征相对于第一听觉刺激的特征之间的差异可以与物体相对于用户在第一时间的第一位置和物体相对于用户在第二时间的第二位置之间的差异正相关或负相关。
在一些实施例中,第二听觉刺激的特征相对于第一听觉刺激的特征之间的差异是更高或更低的频率数。例如,如果物体在第二时间比在第一时间更靠近(或更远离)用户,则第二听觉刺激可以具有更高数量的频率或更宽的频率范围。作为另一个例子,如果物体在第一时间比在第二时间更靠近(或更远离)用户,则第一听觉刺激可以具有更高数量的频率或更宽的频率范围。在一些实施例中,第二听觉刺激的特征相对于第一听觉刺激的特征之间的差异是较高的音调或较低的音调。例如,如果物体在第二时间比在第一时间更接近(或更远离)用户,则第二听觉刺激与第一听觉刺激相比可以具有更高的音调。作为另一个例子,如果物体在第一时间比在第二时间更靠近(或更远离)用户,则第一听觉刺激与第二听觉刺激相比可以具有更高的音调。在一些实施例中,第二听觉刺激的特征相对于第一听觉刺激的特征之间的差异是更大的响度或更低的响度。例如,如果物体在第二时间比在第一时间更靠近(或更远离)用户,则第二听觉刺激可以比第一听觉刺激更响。作为另一个例子,如果物体在第一时间比在第二时间更靠近(或更远离)用户,则第一听觉刺激可以比第二听觉刺激更响。
物体非常接近
在一些实施例中,计算系统可以:接收由一个或多个传感器捕获的第三传感器数据。计算系统可以使用第三传感器数据在第三时间确定物体相对于用户的第三位置。物体相对于用户的第三位置可以在用户的第三阈值距离内。第二阈值距离可以是例如1米、2米、5米、10米、20米或100米。第三阈值距离可以短于(或长于,或等于)第二阈值距离。计算系统可以确定(i)用于输出一个或多个第一听觉刺激的多个输出设备中的一个或多个第一听觉刺激和相应的一个或多个第一音频输出设备,以及(ii)用于在第三时间使用物体相对于用户的第三位置输出一个或多个第二听觉刺激的多个输出设备中的一个或多个第二听觉刺激和相应的一个或多个第二音频输出设备。计算系统可以使一个或多个第一和第二音频输出设备中的每一个输出一个或多个第一和第二听觉刺激中相应的第一或第二听觉刺激。例如,当物体在距离用户5米的地方落在后面时,除扬声器1a、1b或1c外,如参考图4E所述的扬声器2a、2b或2c开始以高音量产生多个音调。。
物体正在经过
在一些实施例中,计算系统可以接收由一个或多个传感器捕获的第四传感器数据。计算系统可以使用第四传感器数据来确定物体正在经过用户,或者具有在经过时间经过用户的可能性阈值以上的可能性。在一些实施例中,用户在经过时经过物体的可能性阈值是至少50%、60%、70%、80%、90%、95%或99%。在一些实施例中,在用户至多1米、2米、5米或10米的范围内,物体在经过用户,或者具有超过经过用户的可能性阈值的可能性。该物体可能不在或者不在用户的视野中,或者可能在或者在用户视野的远边缘。在一些实施例中,经过时间是捕获第四传感器数据或其一部分的时间。经过时间可以是在第四传感器数据或其一部分被捕获之后的时间。经过时间可以是紧接在捕获第四传感器数据或其一部分之后的时间(例如,在0.0000001秒、0.00001秒、0.0001秒、0.001秒、0.01秒、0.1秒或1秒内)
计算系统可以确定要输出的第四听觉刺激。第四听觉刺激可以具有对应于经过用户的物体的听觉特征的特征。在一些实施例中,第四听觉刺激的特征选自包括下降的音调、增加的响度、更高数量的频率、更高的频率、角度差的规律性、角度差的特殊性、声音阴影、更大的角度大小、用户耳朵的响度不对称性、大约90°的头部相关传递函数、用户水平线以下的垂直位置或其组合的组。在一些实施例中,第二听觉刺激的特征变化在经过时间或大约经过时间是最快或最高的。
计算系统可以使多个音频输出设备中的一个或多个在输出时间向用户输出第四听觉刺激。在输出时间输出给用户的第四听觉刺激可以导致用户在输出时间或紧接在输出时间之后的时间在视觉上感知在用户视野的远周边的物体的可能性增加。在输出时间输出给用户的第四听觉刺激可以导致用户在紧接输出时间增加之后的时间,例如在0.00000001秒、0.000001秒、0.00001秒、0.0001秒、0.0001秒、0.001秒、0.001秒、0.01秒、0.1秒或1秒内,在用户视野的远周边视觉上感知物体的可能性。在输出时间输出给用户的第四听觉刺激可以导致用户在输出时间或紧接在输出时间之后的时间在视觉上感知在用户视野的远周边的物体的可能性增加,例如增加至少10%、20%、30%、40%或50%。例如,当物体进入在危险的接近或危险的转弯轨迹上的用户的远周边或极端周边时,图4F中的扬声器1b和2b或扬声器1c和2c分别产生突然的俯仰下降,以在远周边或极端周边具有运动检测的交叉模态增强。
在一些实施例中,物体在第一时间处于用户视野的极端周边。用户视野的远周边可以包括暂时远离鼻子并朝向用户太阳穴的大约60°到大约110°。用户视野的极端周边可以包括暂时远离鼻子并朝向用户太阳穴的大约90°到110°。
在一些实施例中,物体正经过或可能经过用户左侧的用户。为了使多个音频输出设备中的一个或多个在输出时间向用户输出第四听觉刺激,计算系统可以使第一左水平线以下音频输出设备在输出时间输出第二听觉刺激。在一些实施例中,物体正经过或可能经过用户右侧的用户。为了使多个音频输出设备中的一个或多个在输出时间向用户输出第四听觉刺激,计算系统可以使第一轮廓的第一右水平线以下音频输出设备和/或第二轮廓的第一右水平线以下音频输出设备在输出时间输出第二听觉刺激。
方法500在框524结束。
计算机视觉、机器学习和神经网络
计算机视觉。可以实现一个或多个计算机视觉算法来增强视觉运动感知和/或提高用户安全性(例如,确定物体的位置和轨迹)。计算机视觉算法的非限制性例子包括:尺度不变特征变换(SIFT)、加速鲁棒特征(SURF)、定向快速旋转简短(ORB)、二进制鲁棒不变可缩放关键点(BRISK)、快速视网膜关键点(FRANK)、Viola-Jones算法、Eigenfaces方法、Lucas Kanade算法、Horn-Schunk算法、均值漂移算法、视觉同步定位和映射(vSLAM)技术、序贯贝叶斯估计器(例如,卡尔曼滤波、扩展卡尔曼滤波等)、束调整、自适应阈值(和其他阈值技术)、迭代最近点(ICP)、半全局匹配(SGM)、半全局块匹配(SGBM)、特征点直方图(Feature Point Histograms),各种机器学习算法(例如,支持向量机、k近邻算法、朴素贝叶斯、神经网络(包括卷积或深层神经网络)或其他有监督/无监督模型等),等等。这些计算机视觉算法中的一个或多个可用于本文所述的轨迹预测,例如,确定车辆相对于物体的轨迹。
机器学习。增强视觉运动感知和/或提高用户安全性可以附加地或替代地通过各种机器学习算法来执行。一旦被训练,机器学习算法可以被存储在计算系统(例如,参考图6描述的计算系统6)中。机器学习算法的一些例子可以包括有监督或无监督的机器学习算法,包括回归算法(例如,普通最小二乘回归Ordinary Least Squares Regression)、基于实例的算法(例如,学习矢量量化Learning Vector Quantization)、决策树算法(例如,分类和回归树)、贝叶斯算法Bayesian algorithms(例如,朴素贝叶斯Naive Bayes)、聚类算法(例如,k均值聚类)、关联规则学习算法(例如,先验算法a-priori algorithms)、人工神经网络算法(例如,感知器),深度学习算法(例如,深度玻尔兹曼机器Deep BoltzmannMachine或深度神经网络)、降维算法(例如,主成分分析Principal Component Analysis)、集成算法(例如,堆叠泛化Stacked Generalization)和/或其他机器学习算法。一个或多个机器学习算法可用于本文所述的轨迹预测,例如,确定车辆相对于物体的轨迹。
神经网络。神经网络(NN)的一层,例如深度神经网络(DNN),可以对其输入应用线性或非线性变换来生成其输出。神经网络层可以是归一化层、卷积层、软设计层、校正线性层、连接层、汇集层、循环层、初始层或其任意组合。标准化层可以标准化其输入的亮度,以利用例如L2标准化来生成其输出。标准化层可以例如一次相对于彼此标准化多个图像的亮度,以生成多个标准化图像作为其输出。用于归一化亮度的方法的非限制性例子包括局部对比度归一化(LCN)或局部响应归一化(LRN)。局部对比度归一化可以通过在每个像素的基础上归一化图像的局部区域来非线性地归一化图像的对比度,以具有0的平均值和1的方差(或者平均值和方差的其他值)。局部响应归一化可以归一化局部输入区域上的图像,以具有零的平均值和一的方差(或其他平均值和方差的值)。规范化层可以加快训练过程。
卷积层可以应用一组卷积其输入以生成其输出的核。软设计层可以对其输入应用软设计功能。软设计功能(软设计(x)可以是,例如(x/(1+|x|))。软设计层可能会忽略每个元素异常值的影响。校正线性层可以是校正线性层单元(ReLU)或参数化校正线性层单元(PReLU)。ReLU层可以对其输入应用ReLU函数来生成其输出。ReLU函数ReLU(x)可以是例如最大值(0,x)。PReLU层可以对其输入应用PReLU函数来生成其输出。PReLU函数PReLU(x)可以是例如x如果x≥0,以及ax如果x<0,其中a是正数。连接层可以连接其输入以生成其输出。例如,拼接层可以拼接四个5×5的图像,生成一个20×20的图像。汇集层可以应用汇集函数,该函数对其输入进行下采样以生成其输出。例如,池层可以将20x 20的图像下采样为10x 10的图像。池功能的非限制性示例包括最大池、平均池或最小池。
在时间点t,循环层可以计算隐藏状态s(t),并且重现连接可以将时间t处的隐藏状态s(t)提供给循环层,作为后续时间点t+1处的输入。循环层可以基于时间t处的隐藏状态s(t)计算其在时间t+1处的输出。例如,循环层可以在时间t将软符号函数应用于隐藏状态s(t),以计算其在时间t+1的输出。在时间t+1的循环层的隐藏状态具有在时间t的循环层的隐藏状态s(t)作为其输入。循环层可以计算隐藏状态作为其输入。循环层可以计算隐藏状态s(t+1)通过对其输入应用例如ReLU函数。类初始层可以包括标准化层、卷积层、软设计层、诸如ReLU层和PReLU层的校正线性层、级联层、汇集层或其任意组合中的一个或多个。
在不同的实现中,NN中的层数可以不同。例如,DNN的层数可以是50、100、200或更多。深度神经网络层的输入类型在不同的实现中可以不同。例如,一个图层可以接收多个图层的输出作为其输入。一个层的输入可以包括五个层的输出。作为另一个例子,层的输入可以包括NN层的1%。一个层的输出可以是多个层的输入。例如,一个层的输出可以用作五个层的输入。作为另一个例子,一个层的输出可用作NN1%层的输入。
层的输入大小或输出大小可能相当大。层的输入大小或输出大小可以是n x m,其中n表示宽度,m表示输入或输出的高度。例如,n或m可以是11、21、31或更多。在不同的实现中,层的输入或输出的通道大小可以不同。例如,层的输入或输出的通道大小可以是4、16、32、64、128或更多。在不同的实现中,层的内核大小可以不同。例如,内核大小可以是n x m,其中n表示内核的宽度,m表示内核的高度。例如,n或m可以是5、7、9或更多。在不同的实现中,层的步长可以不同。例如,深度神经网络层的步长可以是3、5、7或更大。
在一些实施例中,NN可以指一起计算神经网络输出的多个NN。可以针对不同的任务训练多个NN中的不同NN。处理器(例如,参考图6描述的处理器610)可以计算多个NN中NN的输出,以确定NN的输出。例如,多个NN中的NN的输出可以包括似然分数。处理器可以基于多个NN的不同NN的输出的似然分数来确定包括多个NN的NN的输出。
执行环境
图6描绘了示例计算设备600的一般架构,其被配置为实现本文公开的代谢物、注释和基因整合系统。图6中描绘的计算设备600的一般架构包括计算机硬件和软件组件的布置。计算设备600可以包括比图6所示更多(或更少)的元件。然而,没有必要为了提供使能的公开而显示所有这些通常常规的元件。如图所示,计算设备600包括处理单元610、网络接口620、计算机可读介质驱动器630、输入/输出设备接口640、显示器650和输入设备660,所有这些都可以通过通信总线彼此通信。网络接口620可以提供到一个或多个网络或计算系统的连接。处理单元610因此可以经由网络从其他计算系统或服务接收信息和指令。处理单元610还可以与存储器670进行通信,并进一步通过输入/输出设备接口640为可选显示器650提供输出信息。输入/输出设备接口640还可以接受来自可选输入设备660的输入,例如键盘、鼠标、数字笔、麦克风、触摸屏、手势识别系统、语音识别系统、游戏手柄、加速度计、陀螺仪或其他输入设备。
存储器670可以包含处理单元610为了实现一个或多个实施例而执行的计算机程序指令(在一些实施例中分组为模块或组件)。存储器670通常包括RAM、ROM和/或其他持久性、辅助性或非暂时性计算机可读介质。存储器670可以存储操作系统672,该操作系统672提供计算机程序指令,以供处理单元610在计算设备600的一般管理和操作中使用。存储器670还可以包括用于实现本公开的方面的计算机程序指令和其他信息。
例如,在一个实施例中,存储器670包括用于增强视觉运动感知的视觉运动感知模块674,例如参考图2描述的方法200。存储器670可以附加地或替代地包括用于改进用户安全的用户安全模块676,例如参考图5描述的方法500。此外,存储器670可以包括数据存储器690和/或存储存储器670可以存储的计算机程序指令的一个或多个其他数据存储器,或者与之通信。
实施例
以上讨论的实施例的一些方面在下面的示例中被更详细地公开,这绝不是为了限制本公开的范围。
实施例1
增强远周边和极端周边的视觉运动感知
研究了听觉刺激对从后面检测极端周边视觉运动的影响。
对于受试者(例如,哺乳动物或人类)来说,能够感知到极端周边可能是生态上至关重要的,因为极端周边可能是受试者从看不见的地方与物体的第一接触点。极端周边可以被认为是进入受试者视野的入口。当一个物体从背后靠近受试者时,受试者与物体的第一个接触点可以是受试者的极端周边。当受试者将他或她的头转向受试者后面的物体时,同样,受试者与物体的第一个接触点可以是受试者的极端周边。
人类已经开发了许多技术来观察极端周边的物体。例如,一辆汽车可以有两个镜子,允许汽车驾驶员看到驾驶员极端周边的物体。汽车可以有一个盲点警告系统,旨在方便驾驶员在极端周边的视野。促进极端周边的视觉对于一个人的日常生活非常重要,比如开车或骑摩托车。
令人惊讶的是,人们对极端周边的视觉知之甚少。一种可能的促进极端周边视觉的方法是交叉模态调制。并发的听觉刺激可能有助于视觉感知,例如检测。周边的交叉模态调制可能比中央凹更强。同时出现的听觉刺激可能会促进极端周边的视觉。
同时存在的听觉刺激抑制了极端周边的视觉运动检测
为了检验极端周边的跨模态效应,研究了在有或没有听觉刺激(如嘟嘟声)的情况下,人类受试者是否可以在极端周边执行简单的视觉检测任务。在实验中,一个单一的闪光出现在受试者的左右边缘。目标位置是单独确定的,平均距离受试者视网膜中央凹96.8度。听觉刺激包括同时出现的白噪声、同时出现的棕色噪声和同时出现的500赫兹蜂鸣声。基线是没有声音的状态。令人惊讶的是,这三种听觉刺激都没有促进视觉检测。三种听觉刺激中的两种(白噪声和同时出现的500赫兹嘟嘟声)抑制了检测。从单耳耳机的嘟嘟声中也观察到了类似的抑制。
跨模态抑制可能是听觉刺激(如嘟嘟声或白噪声)与视觉刺激和任务完全无关的结果。同时存在但不相关的听觉刺激会抑制视觉感知。当视觉可靠性降低时,听觉变得至关重要。不受理论的限制,由不相关的听觉刺激引起的跨模态抑制的观察可能是极端周边的视觉具有高噪声并因此易受听觉输入影响的结果。
同时进行的听觉刺激有助于在极端周边进行视觉运动检测
可能需要与视觉刺激相关联(例如,高度相关)的听觉刺激来促进极端周边的跨模态。某些动作与独特的声音有关。从后面检测路过的物体可能是一个重要的生态危急情况。极端周边的擦肩而过运动可能与独特的下降音调偏移有物理联系。声音的音调来自物体,在受试者视觉的大约90度处会突然下降。这种独特的下降音调变化发生在受试者的极端周边。
在确定这种向前运动的检测是否可以通过独特的下降音调偏移来促进的实验中,在每个受试者的极端周边呈现了两个204毫秒(ms)点(306ms刺激开始异步(SOA))的序列。极端周边被确定为最大偏心率,每个受试者的检出率为75%。每个点位于两个相邻位置,距离为2°以便有明显的向前运动,或位于同一位置。作为听觉刺激,同时使用了音调下降的嘟嘟声。同时发出音调下降的蜂鸣声可以大致模拟路过物体的多普勒音调偏移。除了另一个无声音控制之外,音调上升的同时嘟嘟声被用作控制。结果表明,与没有声音和同时发出音调上升的嘟嘟声相比,同时发出音调下降的嘟嘟声提高了运动检测的命中率。
图8是用于确定听觉是否影响从后面检测极端周边视觉运动的实验设置的非限制性示例性示意图。进行初步检测以确定每个受试者的左侧或右侧75%的可检测点。第一次闪光出现在受试者75%的可检测点,然后第二次闪光出现在第一次闪光的相同位置(以模拟无运动),或者从第一次闪光向前两度(以刺激向前运动)。如果第二次闪光出现在与第一次闪光相同的位置,那么受试者应该观察不到运动。如果第二次闪光出现在第一次闪光向前两度的地方,那么受试者应该观察向前的运动。
通过受试者的最外周708中的两个连续的附近闪光704a、704b来模拟明显的向前运动。如图7所示,研究了这种向前运动的检测是否可以通过独特的下降音调偏移712来实现。运动检测与图9所示的三种声音中的一种结合,这三种声音具有单独的音调偏移模式。在下降音调偏移条件下,在第一和第二闪光呈现期间,声音的音调突然从1000赫兹降低到900赫兹。对于控制条件,在第一次和第二次闪光呈现期间,声音的音调突然从900赫兹增加到1000赫兹。对于另一个控件,声音的音调被设置为950赫兹。这三种声音具有相同的响度调制,以模拟接近然后离开的物体。
图10是示出三种类型的听觉刺激对从后面检测极端周边视觉运动的影响的非限制性示例图。跨模态促进的结果以使用信号检测理论计算出的每个声音条件和无声音基线之间的差值d’表示。听觉刺激的效果为F(1,17)=8.27,p.=0.010,其中F(1,17)是自由度为1和17的方差分析(ANOVA)得出的F值。相对于上升俯仰偏移条件和恒定俯仰条件(分别为p=0.031和p=0.031),下降俯仰偏移条件下的跨模态促进显著更大。这种跨模态促进仅在俯仰偏移下降的情况下大于零(p=0.010)。结果清楚地表明,下降的俯仰偏移条件有助于在极端周边的向前运动检测。具有90度峰值的响度变化的恒定音调控制没有促进作用。模仿路过物体的响度变化可能不足以促进在极端周边的运动检测。减小间距可能是检测极端周边“路过”物体的一个重要线索。
每个受试者都完成了一份事后调查问卷。事后调查问卷用于确定每个受试者对受试者听到的声音和引发受试者听到的声音的运动之间的关系的了解。该运动的选项包括“向你移动”、“远离你”、“从你身边经过”、“以相同的距离在你周围移动”、“越过你移动”和“以上都不是”。令人惊讶的是,几乎没有人能识别出正确的动作。只有两个(11.8%)听到降音调移位条件下的声音的受试者正确识别了“从你身边经过”的物体的运动,该运动会引出听到的声音。没有一个听到带有升调条件的声音的受试者正确地识别出“以上都不是”运动会引起所听到的声音。只有一名(5.9%)听到恒定音调条件下的声音的受试者正确地识别出“以上都不是”运动都不会引起听到的声音。受试者对引发受试者所听到的声音的运动缺乏了解,这意味着所观察到的跨模态促进不能仅用基于知识的效应来解释。
与视觉刺激自然和生态相关的并发跨模态刺激可以促进极端周边视觉感知。即使受试者不能正确地感知听觉刺激和/或受试者没有关于听觉和视觉刺激之间的关联的自上而下的知识,这种生态相关的听觉刺激也可以促进极端周边的视觉感知。下降的音调偏移条件,而不是响度变化,可以促进在极端周边的向前运动检测。响度变化不一定表示经过的物体,并且可能与跨模态促进无关。视觉刺激所特有的听觉刺激可以促进跨模态促进。
总的来说,这些数据表明,在声音中加入一个下降的音调偏移可以促进在极端周边的向前视觉运动检测。
其他注意事项
在至少一些先前描述的实施例中,在一个实施例中使用的一个或多个元件可以在另一个实施例中互换使用,除非这种替换在技术上不可行。本领域技术人员将理解,在不脱离所要求保护的主题的范围的情况下,可以对上述方法和结构进行各种其他省略、添加和修改。所有这些修改和变化都旨在落入由所附权利要求限定的主题的范围内。
本领域技术人员将理解,对于本文公开的这个和其他过程和方法,在过程和方法中执行的功能可以以不同的顺序实现。此外,所概述的步骤和操作仅作为示例提供,并且一些步骤和操作可以是可选的,组合成更少的步骤和操作,或者扩展成附加的步骤和操作,而不偏离所公开的实施例的本质。
关于本文中基本上任何复数和/或单数术语的使用,本领域技术人员可以根据上下文和/或应用将复数翻译成单数和/或将单数翻译成复数。为了清楚起见,这里可以明确阐述各种单数/复数排列。如在本说明书和所附权利要求中所使用的,单数形式“一”、“一个”和“该”包括复数引用,除非上下文另有明确规定。因此,诸如“被配置为”的短语旨在包括一个或多个列举的设备。这种一个或多个列举的设备也可以被共同配置来执行所述列举。例如,被配置为执行列举A、B和C的处理器可以包括被配置为执行列举A的第一处理器,并与配置为执行列举B和C的第二处理器协同工作。除非另有说明,否则本文件中对“或”的任何引用旨在包含“和/或”。
本领域技术人员将理解,一般来说,本文中使用的术语,尤其是在所附权利要求中使用的术语(例如,所附权利要求的受试者)通常旨在作为“开放”术语(例如,术语“包括”应被解释为“包括但不限于”,术语“具有”应被解释为“至少具有”,术语“包含”应被解释为“包含但不限于”等。本领域的技术人员将进一步理解,如果打算引入特定数量的权利要求叙述,则这种意图将在权利要求中明确叙述,并且在没有这种叙述的情况下,不存在这种意图。例如,为了帮助理解,以下所附权利要求可以包含介绍性短语“至少一个”和“一个或多个”的使用,以介绍权利要求叙述。然而,这种短语的使用不应被解释为暗示由不定冠词“一”或“一个”引入权利要求列举将包含这种引入的权利要求列举的任何特定权利要求限制为仅包含一个这种列举的实施例,即使当同一权利要求包括引入短语“一个或多个”或“至少一个”以及不定冠词例如“一个”或“一个”(例如“一”和/或“一个”应被解释为意味着“至少一个”或“一个或多个”);对于用于引入权利要求陈述的定冠词的使用也是如此。此外,即使明确列举了所介绍的权利要求列举的具体数量,本领域的技术人员将认识到,这种列举应该被解释为意味着至少列举的数量(例如,没有其它修饰语的“两个列举”的简单列举意味着至少两个列举,或者两个或更多个列举)。此外,在类似于“至少是A、B和C中的一种”的惯例的情况下“具有A、B和C中至少一个的系统”将包括但不限于具有单独的A、单独的B、单独的C、A和B在一起、A和C在一起、B和C在一起和/或A、B和C在一起等的系统。在类似于“至少是A、B或C中的一种”的惯例的情况下“具有A、B或C中至少一个的系统”将包括但不限于具有单独的A、单独的B、单独的C、A和B在一起、A和C在一起、B和C在一起和/或A、B和C在一起等的系统。本领域的技术人员将进一步理解,无论是在说明书、权利要求书还是附图中,呈现两个或更多替换术语的几乎任何分离的单词和/或短语都应该被理解为包括这些术语之一、任一术语或两个术语的可能性。例如,短语“A或B”将被理解为包括“A”或“B”或“A和B”的可能性。
此外,在根据马库什组描述本公开的特征或方面的情况下,本领域技术人员将认识到,本公开也因此根据马库什组的任何单个成员或成员子组来描述。
如本领域技术人员将理解的,出于任何和所有目的,例如在提供书面描述方面,本文公开的所有范围也包括任何和所有可能的子范围及其子范围的组合。任何列出的范围都可以很容易地被识别为充分地描述并且能够将相同的范围分解成至少相等的二分之一、三分之一、四分之一、五分之一、十分之一等。作为非限制性示例,这里讨论的每个范围可以容易地分解成下三分之一、中三分之一和上三分之一等。本领域技术人员还将理解,所有语言,例如“高达”、“至少”、“大于”、“小于”等,都包括所列举的数字,并且指的是随后可以分解成如上所述的子范围的范围。最后,如本领域技术人员将理解的,范围包括每个单独的成员。因此,例如,具有1-3条款的组是指具有1、2或3条款的组。类似地,具有1-5条款的组是指具有1、2、3、4或5条款的组,等等。
应当理解,这里出于说明的目的已经描述了本公开的各种实施例,并且在不脱离本公开的范围和精神的情况下,可以进行各种修改。因此,此处公开的各种实施例不旨在进行限制,真正的范围和精神由所附权利要求来指示。
应当理解,根据这里描述的任何特定实施例,不一定可以实现所有目的或优点。因此,例如,本领域技术人员将认识到,某些实施例可以被配置成以实现或优化如本文所教导的一个优点或一组优点的方式操作,而不一定实现如本文所教导或建议的其他目的或优点。
这里描述的所有过程可以包含在由包括一个或多个计算机或处理器的计算系统执行的软件代码模块中,并通过该软件代码模块完全自动化。代码模块可以存储在任何类型的非暂时性计算机可读介质或其他计算机存储设备中。一些或所有方法可以在专用计算机硬件中实现。
根据本公开,除了这里描述的那些之外的许多其他变化将是显而易见的。例如,根据实施例,这里描述的任何算法的某些动作、事件或功能可以以不同的顺序执行,可以被添加、合并或完全省略(例如,并非所有描述的动作或事件对于算法的实践都是必要的)。此外,在某些实施例中,动作或事件可以同时执行,例如通过多线程处理、中断处理或多个处理器或处理器核或在其他并行架构上执行,而不是顺序执行。此外,不同的任务或过程可以由可以一起工作的不同机器和/或计算系统来执行。
结合本文公开的实施例描述的各种说明性逻辑块和模块可以由机器来实现或执行,例如处理单元或处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其他可编程逻辑器件、分立门或晶体管逻辑、分立硬件组件或其设计用于执行本文描述的功能的任意组合。处理器可以是微处理器,但是可选地,处理器可以是控制器、微控制器或状态机、其组合等。处理器可以包括被配置为处理计算机可执行指令的电路。在另一个实施例中,处理器包括执行逻辑操作而不处理计算机可执行指令的FPGA或其他可编程设备。处理器也可以被实现为计算设备的组合,例如DSP和微处理器的组合、多个微处理器、一个或多个微处理器与DSP内核的组合、或者任何其他这样的配置。尽管这里主要针对数字技术进行了描述,但是处理器也可以主要包括模拟组件。例如,这里描述的一些或所有信号处理算法可以在模拟电路或模拟和数字混合电路中实现。计算环境可以包括任何类型的计算机系统,包括但不限于基于微处理器的计算机系统、大型计算机、数字信号处理器、便携式计算设备、设备控制器或设备内的计算引擎等。
在此描述的和/或在附图中描绘的流程图中的任何过程描述、元素或块应该被理解为潜在地表示包括用于实现过程中的特定逻辑功能或元素的一个或多个可执行指令的模块、段或代码部分。替代实现包括在这里描述的实施例的范围内,其中元件或功能可以被删除、不按所示顺序执行或讨论,包括基本上同时或以相反顺序执行,这取决于所涉及的功能,如本领域技术人员所理解的。
应该强调的是,可以对上述实施例进行许多变化和修改,这些实施例的元素应该被理解为在其他可接受的示例中。所有这些修改和变化都旨在包括在本公开的范围内,并由所附权利要求保护。

Claims (78)

1.一种用于改善视觉运动感知的系统,包括:
非暂时性存储器,被配置为存储可执行指令;
音频输出设备;以及
与非暂时性存储器、图像捕获设备和音频输出设备通信的硬件处理器,所述硬件处理器由可执行指令编程以:
接收由图像捕获设备捕获的多个图像;
使用所述多个图像确定物体在第一时间相对于用户的位置和轨迹,其中,所述物体在第一时间相对于用户的位置和轨迹指示所述物体在经过时间具有超过经过用户的可能性阈值的可能性,并且其中,所述物体在第一时间和/或经过时间不在用户的视野中或者在用户视野的远周边;
基于所述物体在第一时间相对于用户的位置和轨迹,确定听觉刺激和输出听觉刺激的输出时间,其中,输出时间是经过时间,或者输出时间在第一时间和经过时间之间,并且其中,听觉刺激的特征选自包括下降音调的组;以及
使音频输出设备在输出时间向用户输出听觉刺激,从而增加用户在输出时间或紧接在输出时间之后的时间在视觉上感知用户视野的远周边中的物体的可能性。
2.一种用于改善视觉运动感知的系统,包括:
非暂时性存储器,被配置为存储可执行指令;
音频输出设备;以及
与非暂时性存储器、图像捕获设备和音频输出设备通信的硬件处理器,所述硬件处理器由可执行指令编程以:
接收由图像捕获设备捕获的多个图像;
使用所述多个图像来确定在经过时间物体正在经过用户,或者具有超过经过用户的可能性阈值的可能性,并且其中,在所述经过时间物体不在用户的视野中或者在用户的视野的远周边中;
确定具有从包括下降音调的组中选择的特征的听觉刺激;以及
使音频输出设备在输出时间向用户输出听觉刺激,从而增加用户在输出时间或紧接在输出时间之后的时间在视觉上感知用户视野的远周边中的物体的可能性。
3.根据权利要求1-2中任一项所述的系统,其中,为了接收所述多个图像,所述硬件处理器被所述可执行指令编程为:接收包括由一个或多个传感器捕获的所述多个图像的感觉数据,其中,所述一个或多个传感器包括图像捕获设备、无线电检测和测距(雷达)、光检测和测距(激光雷达)、音频捕获设备或其组合,其中,为了在第一时间确定物体相对于用户的位置和轨迹,硬件处理器被可执行指令编程为:使用传感器数据在第一时间确定物体相对于用户的位置和轨迹,或者其中,为了确定物体在经过时正经过用户,或者具有超过经过用户的可能性阈值的可能性,硬件处理器由可执行指令编程为:使用传感器数据确定物体在经过时正经过用户,或者具有超过经过用户的可能性阈值的可能性。
4.根据权利要求3所述的系统,其中,所述系统包括所述一个或多个传感器或所述一个或多个传感器中的一个或多个。
5.根据权利要求1-4中任一项所述的系统,其中,所述系统包括所述图像捕获设备。
6.根据权利要求3所述的系统,其中,为了接收所述传感器数据,所述硬件处理器被所述可执行指令编程为:从第二系统接收由所述一个或多个传感器捕获的传感器数据。
7.根据权利要求3-6中任一项所述的系统,其中,所述硬件处理器由所述可执行指令编程为:在第一时间将所述传感器数据、所述物体相对于用户的位置和轨迹、和/或所述物体在所述经过时间正经过用户或具有超过经过用户的可能性阈值的可能性的指示传输到第三系统。
8.根据权利要求1-7中任一项所述的系统,其中,头盔、汽车音频系统或可佩戴扬声器系统或设备与所述系统或其一部分相关联、包括所述系统或其一部分、或包含在所述系统或其一部分中。
9.根据权利要求1-8中任一项所述的系统,其中,所述物体是第一机动车辆。
10.根据权利要求1-9中任一项所述的系统,其中,所述用户在第二机动车辆中或者正乘坐所述第二机动车辆。
11.根据权利要求1-10中任一项所述的系统,其中,所述硬件处理器由所述可执行指令编程为:基于所述物体在第一时间相对于用户的位置和轨迹,确定所述物体在所述经过时间具有超过经过用户的可能性阈值的可能性。
12.根据权利要求1-11中任一项所述的系统,其中,所述物体在所述经过时间经过用户的可能性阈值至少为50%、60%、70%、80%、90%、95%或99%。
13.根据权利要求1-12中任一项所述的系统,其中,所述物体在第一时间相对于用户的位置和轨迹指示所述物体在用户最多1米、2米、5米或10米的范围内,在所述经过时间具有超过经过用户的可能性阈值的可能性。
14.根据权利要求1-13中任一项所述的系统,其中,所述物体在第一时间处于用户视野的极端周边。
15.根据权利要求1-14中任一项所述的系统,其中,所述用户视野的远周边包括在时间上远离用户的鼻子并朝向太阳穴的大约60°至大约110°,和/或其中,所述用户视野的极端周边包括在时间上远离用户的鼻子并朝向太阳穴的大约90°至110°。
16.根据权利要求1-15中任一项所述的系统,其中,所述听觉刺激的特征选自包括下降的音调、增加的响度、更高数量的频率、更高的频率、角度差的规律性、角度差的特殊性、声音阴影、更大的角度大小、用户耳朵的响度不对称性、大约90°的头部相关传递函数、用户水平线以下的垂直位置或其组合的组。
17.根据权利要求1-16中任一项所述的系统,其中,所述听觉刺激的特征变化在经过时间或大约在经过时间处最快或最高。
18.根据权利要求1-17中任一项所述的系统,其中,所述听觉刺激包括窄频率范围或纯音。
19.根据权利要求1-17中任一项所述的系统,其中,所述听觉刺激包括音乐、语音或其组合。
20.根据权利要求1-19中任一项所述的系统,其中,所述第一时间是捕获所述多个图像或其一部分的时间,其中,所述第一时间是捕获所述多个图像或其一部分之后的时间,或者其中,所述第一时间是紧接捕获所述多个图像或其一部分之后的时间。
21.根据权利要求1-20中任一项所述的系统,其中,所述物体相对于用户的位置和轨迹指示所述物体可能在所述经过时间在用户的左侧或右侧经过用户,其中,所述音频输出设备包括被配置为分别向用户的左耳和右耳输出所述听觉刺激的左音频输出设备和右音频输出设备,并且其中,为了使音频输出设备在输出时间向用户输出听觉刺激,硬件处理器被可执行指令编程为:使左音频输出设备或右音频输出设备在输出时间分别向用户的左耳或右耳输出听觉刺激。
22.根据权利要求1-21中任一项所述的系统,其中,所述输出时间是经过时间,所述输出时间紧接在所述经过时间之前,或者所述输出时间在所述第一时间和所述经过时间之间。
23.根据权利要求1-22中任一项所述的系统,从而将用户在输出时间或紧接在输出时间之后的时间在视觉上感知用户视野的远周边的物体的可能性增加至少10%、20%、30%、40%或50%。
24.一种用于改善视觉运动感知的方法,包括:
在硬件处理器的控制下:
接收由一个或多个传感器捕获的传感器数据;
使用所述传感器数据确定物体在第一时间相对于受试者的位置和轨迹,其中,所述物体在第一时间相对于受试者的位置和轨迹指示所述物体在第二时间在受试者的阈值距离内具有超过相对于受试者移动的可能性阈值的可能性,并且其中,所述物体在第一时间不在受试者的视野内或者在受试者的视野周边;
基于所述物体相对于在第一时间受试者的位置和轨迹确定听觉刺激,其中,听觉刺激的特征对应于物体在受试者的阈值距离内相对于受试者移动的听觉特征;和
使得听觉刺激在输出时间被输出到受试者,从而增加受试者在输出时间或紧接输出时间之后的时间在视觉上感知受试者的视野周边中的物体的可能性。
25.一种用于改善视觉运动感知的方法,包括:
在硬件处理器的控制下:
接收由一个或多个传感器捕获的传感器数据;
使用所述传感器数据确定物体正在或具有超过可能性阈值的可能性在受试者的阈值距离内相对于受试者移动;
确定听觉刺激,该听觉刺激的特征对应于在受试者的阈值距离内相对于受试者移动的物体的听觉特征;以及
使得听觉刺激在输出时间被输出到受试者,从而增加受试者在输出时间或紧接输出时间之后的时间在视觉上感知受试者的视野周边的物体的可能性。
26.根据权利要求24-25中任一项所述的方法,其中,所述一个或多个传感器包括图像捕获设备、无线电检测和测距(雷达)、光检测和测距(激光雷达)、音频捕获设备或其组合。
27.根据权利要求24-26中任一项所述的方法,其中,头盔、汽车音频系统或可佩戴扬声器系统或设备与所述一个或多个传感器相关联、包括所述一个或多个传感器、或包含在所述一个或多个传感器中,并且其中,使听觉刺激被输出包括使头盔、汽车音频系统或可佩戴扬声器系统或设备的音频输出设备在输出时间输出听觉刺激。
28.根据权利要求24-27中任一项所述的方法,其中,所述传感器数据包括由与所述物体相关联的一个或多个遥测和定位传感器捕获的所述物体的位置、速度和方向,并且其中,所述一个或多个传感器包括与所述物体相关联的一个或多个遥测和定位传感器。
29.根据权利要求24-29中任一项所述的方法,其中,所述传感器数据包括由与所述物体相关联的一个或多个遥测和定位传感器捕获的所述受试者的位置、速度和方向,并且其中,所述一个或多个传感器包括与所述受试者相关联的一个或多个遥测和定位传感器。
30.根据权利要求28-29中任一项所述的方法,其中,与所述物体相关联的一个或多个遥测和定位传感器包括与所述物体相关联的全球定位系统(GPS)传感器,并且其中,与所述受试者相关联的一个或多个遥测和定位传感器包括与所述受试者相关联的全球定位系统传感器(GPS)。
31.根据权利要求24-30中任一项所述的方法,其中,所述物体是第一机动车辆。
32.根据权利要求24-31中任一项所述的方法,其中,所述受试者在第二机动车辆中或正乘坐所述第二机动车辆。
33.根据权利要求24-32中任一项所述的方法,包括:基于所述物体在第一时间相对于受试者的位置和轨迹,确定物体在第二时间具有超过在受试者的阈值距离内相对于受试者移动的可能性阈值的可能性。
34.根据权利要求24-33中任一项所述的方法,其中,所述物体相对于受试者在第一时间的位置和轨迹指示所述物体在第二时间具有经过或撞击受试者的高可能性。
35.根据权利要求24-34中任一项所述的方法,其中,所述物体在第二时间在受试者的阈值距离内相对于受试者移动的可能性阈值至少为50%、60%、70%、80%、90%、95%或99%。
36.根据权利要求24-35中任一项所述的方法,其中,阈值距离至多为0米、1米、2米、5米或10米。
37.根据权利要求24-36中任一项所述的方法,其中,所述物体在第一时间和/或第二时间处于受试者的视野的远周边或极端周边。
38.根据权利要求37所述的方法,其中,所述用户视野的远周边包括在时间上远离受试者的鼻子并朝向太阳穴约60°至约110°,和/或其中,所述用户视野的极端周边包括在时间上远离受试者的鼻子并朝向太阳穴约90°至约110°。
39.根据权利要求24-38中任一项所述的方法,其中所述听觉刺激的特征是下降的音调。
40.根据权利要求24-39中任一项所述的方法,其中,所述听觉刺激的特征选自包括下降的音调、增加的响度、更高数量的频率、更高的频率、角度差的规律性、角度差的特殊性、声音阴影、更大的角度大小、受试者耳朵的响度不对称性、大约90°的头部相关传递函数、受试者水平线以下的垂直位置或其组合的组。
41.根据权利要求24-40中任一项所述的方法,其中,确定听觉刺激包括基于物体在第一时间相对于受试者的位置和轨迹确定听觉刺激和输出时间。
42.根据权利要求24-41中任一项所述的方法,其中,听觉刺激的特征变化在经过时间或大约在经过时间是最快或最高的。
43.根据权利要求24-42中任一项所述的方法,其中,所述听觉刺激包括窄范围的频率或纯音。
44.根据权利要求24-42中任一项所述的方法,其中,所述听觉刺激包括音乐、语音或其组合。
45.根据权利要求24-44中任一项所述的方法,其中,所述第一时间是捕获所述传感器数据或其一部分的时间,其中,所述第一时间是捕获所述传感器数据或其一部分之后的时间,或者其中,所述第一时间是紧接捕获所述传感器数据或其一部分之后的时间。
46.根据权利要求24-45中任一项所述的方法,其中,所述物体相对于受试者的位置和轨迹指示所述物体可能在所述第二时间在受试者的左侧或右侧经过或撞击受试者,并且其中,在所述输出时间将所述听觉刺激输出到受试者包括在所述输出时间将所述听觉刺激分别输出到受试者的左耳或右耳。
47.根据权利要求24-46中任一项所述的方法,其中,所述输出时间是所述第二时间,所述输出时间紧接在所述第二时间之前,或者在所述第一时间和所述第二时间之间。
48.根据权利要求24-47中任一项所述的方法,从而将受试者在输出时间或紧接输出时间之后的时间在视觉上感知用户视野的周边的物体的可能性增加至少10%、20%、30%、40%或50%。
49.一种用于用户安全的系统,包括:
非暂时性存储器,被配置为存储可执行指令;
一个或多个传感器,与头盔或可穿戴设备相关联,用于捕获不同类型的传感器数据;
多个音频输出设备,用于输出听觉刺激,所述听觉刺激模仿来自用户的(1a)水平线和(1b)水平线下的以及来自用户的(2a)左侧、(2b)正后方和(2c)右侧的声音;以及
与所述非暂时性存储器通信的硬件处理器,所述硬件处理器由所述可执行指令编程以:
接收由一个或多个传感器捕获的第一传感器数据;
使用第一传感器数据确定物体在第一时间相对于用户的第一位置,其中,物体相对于用户的第一位置在用户的第一阈值距离内;
使用物体在第一时间相对于用户的第一位置确定一个或多个第一听觉刺激和所述多个输出设备中用于输出所述一个或多个第一听觉刺激的对应的一个或多个第一音频输出设备,其中,第一听觉刺激的特征与物体的属性相关;以及
使所述一个或多个第一音频输出设备中的每一个输出所述一个或多个第一听觉刺激中对应的第一听觉刺激。
50.根据权利要求49所述的系统,其中,所述第一听觉刺激的特征是所述第一听觉刺激的音调,其中,所述第一听觉刺激的特征与包括所述物体的大小的所述物体的属性相关,并且其中,所述第一听觉刺激的音调与所述物体的大小正相关或负相关。
51.根据权利要求49所述的系统,其中,所述第一听觉刺激的特征是所述第一听觉刺激的响度,其中,所述第一听觉刺激的特征与包括所述物体的速度的所述物体的属性相关,并且其中,所述第一听觉刺激的响度与所述物体的速度正相关或负相关。
52.根据权利要求49所述的系统,其中,所述第一听觉刺激的特征是所述第一听觉刺激的音调,其中,所述第一听觉刺激的特征与包括所述物体的大小和/或速度的所述物体的属性相关,其中,所述第一听觉刺激的音调与所述物体的大小正相关或负相关,并且其中,所述第一听觉刺激的音调与所述物体的速度正相关或负相关。
53.根据权利要求49-52中任一项所述的系统,其中,所述一个或多个第一听觉刺激和对应的一个或多个第一音频输出设备包括两个或多个第一听觉刺激和对应的两个或多个第一音频输出设备,并且其中,由对应的第一音频输出设备输出的两个或多个第一听觉刺激的组合模仿在多个音频输出设备中没有一个能够单独模仿的第一时间相对于用户在第一位置移动的物体的声音。
54.根据权利要求49-52中任一项所述的系统,其中,所述一个或多个第一听觉刺激包括窄范围的频率或纯音。
55.根据权利要求49-52中任一项所述的系统,其中,所述一个或多个第一听觉刺激包括音乐、语音或其组合。
56.根据权利要求49-52中任一项所述的系统,其中,所述硬件处理器由所述可执行指令编程为:
接收由所述一个或多个传感器捕获的第二传感器数据;
使用第二传感器数据确定物体在第二时间相对于用户的第二位置,其中,所述物体相对于用户的第二位置在用户的第二阈值距离内,其中,第二阈值距离比第一阈值距离短或长;
使用物体在第二时间相对于用户的第二位置确定一个或多个第二听觉刺激和所述多个输出设备中用于输出所述一个或多个第二听觉刺激的对应的一个或多个第二音频输出设备,其中,第二听觉刺激的特征与物体的属性相关,并且其中,第二听觉刺激的特征相对于第一听觉刺激的特征之间的差异与物体在第二时间相对于用户的第二位置相关;以及
使所述一个或多个第二音频输出设备中的每一个输出所述一个或多个第二听觉刺激中对应的第二听觉刺激。
57.根据权利要求56所述的系统,其中,所述第二听觉刺激的特征相对于所述第一听觉刺激的特征之间的差异是更高或更低的频率数。
58.根据权利要求49-57中任一项所述的系统,其中,所述第二听觉刺激的特征相对于所述第一听觉刺激的特征之间的差异是更大的响度或更低的响度。
59.根据权利要求49-58中任一项所述的系统,其中,所述硬件处理器由所述可执行指令编程为:
接收由所述一个或多个传感器捕获的第三传感器数据;
使用第三传感器数据定物体在第三时间确相对于用户的第三位置,其中,所述物体相对于用户的第三位置在用户的第三阈值距离内,并且其中,第三阈值距离比第二阈值距离短或长;
使用物体在第三时间相对于用户的第三位置确定(i)一个或多个第一听觉刺激和所述多个输出设备中用于输出一个或多个第一听觉刺激的对应的一个或多个第一音频输出设备,以及(ii)一个或多个第二听觉刺激和多个输出设备中用于输出所述一个或多个第二听觉刺激的对应的一个或多个第二音频输出设备;以及
使所述一个或多个第一和第二音频输出设备中的每一个输出所述一个或多个第一和第二听觉刺激中对应的第一或第二听觉刺激。
60.根据权利要求49-59中任一项所述的系统,其中,所述系统与头盔或可佩戴设备相关联,包括头盔或可佩戴设备,或者包含在头盔或可佩戴设备中,可选地其中,所述多个音频输出设备在头盔或可佩戴设备上、中或内。
61.根据权利要求60所述的系统,其中,所述多个音频输出设备被定位用于输出听觉刺激,所述听觉刺激模仿来自用户的(1a)水平线和(1b)水平线以下的以及来自用户的(2a)左侧的、(2b)正后方和(2c)右侧的声音。
62.根据权利要求49-61中任一项所述的系统,其中,所述多个音频输出设备包括:
(i)水平线级音频输出设备,用于输出听觉刺激,所述听觉刺激模仿当佩戴头盔或可佩戴设备时来自用户水平线中心点的声音,以及
(ii)头盔或可佩戴设备上或头盔或可佩戴设备的第一轮廓的第一左水平线以下音频输出设备和第一右水平线以下音频输出设备,用于当佩戴头盔或可佩戴设备时,分别在用户的左侧和右侧输出模仿来自用户水平线以下的第一垂直水平的声音的听觉刺激。
63.根据权利要求62所述的系统,其中,所述多个音频输出设备包括第一轮廓的中心水平线以下音频输出设备,用于输出模仿来自用户的水平线以下和中心点的声音的听觉刺激。
64.根据权利要求49-63中任一项所述的系统,其中,所述多个音频输出设备包括(iii)在头盔或可佩戴设备上或头盔或可佩戴设备的第二轮廓的第一左水平线以下音频输出设备和第一右水平线以下音频输出设备,用于当佩戴头盔或可佩戴设备时,分别在用户的左侧和右侧输出模仿来自用户水平线以下的第二垂直水平的声音的听觉刺激,其中,第二垂直水平低于第一垂直水平,并且其中,第二轮廓低于第一轮廓。
65.根据权利要求49-64中任一项所述的系统,其中,所述多个音频输出设备包括(ii)头盔或可佩戴设备上或头盔或可佩戴设备的第一轮廓的第二左水平线以下音频输出设备和第二右水平线以下音频输出设备,用于当佩戴头盔或可佩戴设备时,分别输出模仿来自用户水平线以下的第一垂直水平的声音的听觉刺激,其中,由第二左水平线以下音频输出设备输出的听觉刺激模仿的声音在由第一轮廓的第一左水平线以下音频输出设备输出的听觉刺激模仿的声音的左侧,其中,由第二右水平线以下音频输出设备输出的听觉刺激模仿的声音在由第一轮廓的第一右水平线以下音频输出设备输出的听觉刺激模仿的声音的右侧,其中,第二左水平线以下音频输出设备在第一轮廓的第一左水平线以下音频输出设备的左边,并且其中第二右水平线以下音频输出设备在第一轮廓的第一右水平线以下音频输出设备的右边。
66.根据权利要求49-65中任一项所述的系统,其中,所述硬件处理器进一步由所述可执行指令编程为:
接收由所述一个或多个传感器捕获的第四传感器数据;
使用所述第四传感器数据确定所述物体在经过时间正经过,或者具有超过可能性阈值的可能性经过用户,其中,所述物体在经过时间不在用户的视野中或者在用户的视野的远周边;
确定第四听觉刺激,可选地其中,对应于经过用户的物体的听觉特征的特征;以及
使多个音频输出设备中的一个或多个在输出时间向用户输出第四听觉刺激,从而增加用户在输出时间或紧接在输出时间之后的时间在视觉上感知用户视野的远周边中的物体的可能性。
67.根据权利要求66中任一项所述的系统,其中,所述一个或多个传感器包括图像捕获设备、无线电检测和测距(雷达)、光检测和测距(激光雷达)、音频捕获设备或其组合。
68.根据权利要求66-67中任一项所述的系统,其中,所述物体是第一机动车辆。
69.根据权利要求66-68中任一项所述的系统,其中,所述用户在第二机动车辆中或正乘坐所述第二机动车辆。
70.根据权利要求66-69中任一项所述的系统,其中,所述物体在所述经过时间经过用户的可能性阈值至少为50%、60%、70%、80%、90%、95%或99%。
71.根据权利要求66-70中任一项所述的系统,其中,所述物体在用户的至多1米、2米、5米或10米的范围内,在所述经过时间正在经过或者具有超过所述可能性阈值的可能性经过用户。
72.根据权利要求66-71中任一项所述的系统,其中,所述物体在经过时间处于用户视野的极端周边。
73.根据权利要求66-72中任一项所述的系统,其中,所述用户视野的远周边包括在时间上远离用户的鼻子并朝向太阳穴的大约60°至大约110°,和/或其中,所述用户视野的极端周边包括在时间上远离用户的鼻子并朝向太阳穴的大约90°至110°。
74.根据权利要求66-73中任一项所述的系统,其中,所述第四听觉刺激的特征选自包括下降的音调、增加的响度、更高数量的频率、更高的频率、角度差的规律性、角度差的特殊性、声音阴影、更大的角度大小、用户耳朵的响度不对称性、大约90°的头部相关传递函数、用户水平线以下的垂直位置或其组合的组。
75.根据权利要求66-74中任一项所述的系统,其中,所述第四听觉刺激的特征变化在经过时间或大约在经过时间是最快或最高的。
76.根据权利要求66-75中任一项所述的系统,其中,所述经过时间是捕获第四传感器数据或其一部分的时间,其中,所述经过时间是捕获第四传感器数据或其一部分之后的时间,或者其中,所述经过时间是紧接捕获第四传感器数据或其一部分之后的时间。
77.根据权利要求66-76中任一项所述的系统,其中,所述物体在用户的左侧或右侧正经过或可能经过用户,并且其中,为了使所述多个音频输出设备中的一个或多个在输出时间向用户输出第四听觉刺激,所述硬件处理器被所述可执行指令编程为:使第一轮廓的所述第一左水平线以下音频输出设备、或第一右水平线以下音频输出设备和/或第二轮廓的第一左水平线以下音频输出设备、或第一右水平线以下音频输出设备,分别在输出时间输出第四听觉刺激。
78.根据权利要求66-77中任一项所述的系统,从而将用户在输出时间或紧接在输出时间之后的时间在视觉上感知位于用户视野的远周边的物体的可能性增加至少10%、20%、30%、40%或50%。
CN202080025863.8A 2019-03-29 2020-01-06 辅助极端周边的视觉运动感知 Pending CN113710559A (zh)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201962826540P 2019-03-29 2019-03-29
US62/826,540 2019-03-29
US201962879971P 2019-07-29 2019-07-29
US62/879,971 2019-07-29
US201962880557P 2019-07-30 2019-07-30
US62/880,557 2019-07-30
PCT/US2020/012425 WO2020205029A1 (en) 2019-03-29 2020-01-06 Assisting visual motion perception in the extreme periphery

Publications (1)

Publication Number Publication Date
CN113710559A true CN113710559A (zh) 2021-11-26

Family

ID=72603837

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080025863.8A Pending CN113710559A (zh) 2019-03-29 2020-01-06 辅助极端周边的视觉运动感知

Country Status (5)

Country Link
US (1) US11276182B2 (zh)
EP (1) EP3947092A4 (zh)
JP (1) JP2022526216A (zh)
CN (1) CN113710559A (zh)
WO (1) WO2020205029A1 (zh)

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7095315B2 (en) * 2004-02-26 2006-08-22 Lemke Richard G Collision avoidance system for snowmobiles
US20150309316A1 (en) * 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US10099030B2 (en) * 2013-09-06 2018-10-16 Iarmourholdings, Inc. Mechanical and fluid system and method for the prevention and control of motion sickness, motion-induced vision sickness, and other variants of spatial disorientation and vertigo
US20170150907A1 (en) * 2015-02-04 2017-06-01 Cerebral Assessment Systems, LLC Method and system for quantitative assessment of visual motor response
US9771082B2 (en) 2015-08-13 2017-09-26 International Business Machines Corporation Reducing cognitive demand on a vehicle operator by generating passenger stimulus
GB2542846A (en) 2015-10-02 2017-04-05 Ford Global Tech Llc Hazard indicating system and method
WO2017068697A1 (ja) 2015-10-22 2017-04-27 日産自動車株式会社 駐車支援情報の表示方法及び駐車支援装置
US9902403B2 (en) * 2016-03-03 2018-02-27 Uber Technologies, Inc. Sensory stimulation for an autonomous vehicle
US9896031B1 (en) 2017-01-03 2018-02-20 Ford Global Technologies, Llc Spatial auditory alerts for a vehicle
JP6811429B2 (ja) * 2017-01-23 2021-01-13 パナソニックIpマネジメント株式会社 イベント予測システム、イベント予測方法、プログラム、及び移動体
US10446031B2 (en) 2017-03-14 2019-10-15 Hyundai Mobis Co., Ltd. Apparatus and method of safety support for vehicle
US11334070B2 (en) 2017-08-10 2022-05-17 Patroness, LLC Systems and methods for predictions of state of objects for a motorized mobile system
WO2019079790A1 (en) * 2017-10-21 2019-04-25 Eyecam, Inc ADAPTIVE GRAPHIC USER INTERFACE SYSTEM

Also Published As

Publication number Publication date
EP3947092A4 (en) 2023-03-22
US11276182B2 (en) 2022-03-15
EP3947092A1 (en) 2022-02-09
JP2022526216A (ja) 2022-05-24
US20200311951A1 (en) 2020-10-01
WO2020205029A1 (en) 2020-10-08

Similar Documents

Publication Publication Date Title
US10528815B2 (en) Method and device for visually impaired assistance
US9792501B1 (en) Method and device for visually impaired assistance
CN111279292B (zh) 检测物理边界
EP2677982B1 (en) An optical device for the visually impaired
JP2023113618A (ja) レーシングシミュレーション
CN113056390A (zh) 情境驾驶员监控系统
US20130044000A1 (en) Awakened-state maintaining apparatus and awakened-state maintaining method
US11568640B2 (en) Techniques for providing vibrations at headset
US11775054B2 (en) Virtual models for communications between autonomous vehicles and external observers
KR20180051838A (ko) 보행자 및 차량의 탑승자에게 상대방의 접근을 알리는 방법 및 장치
Dramas et al. Artificial vision for the blind: a bio-inspired algorithm for objects and obstacles detection
JP2010002714A (ja) シミュレータ装置、運転課題提供方法
CN114394109A (zh) 辅助驾驶方法、装置、设备、介质及程序产品
CN109983784B (zh) 信息处理装置、方法和存储介质
CN113710559A (zh) 辅助极端周边的视觉运动感知
JP7342637B2 (ja) 車両制御装置および運転者状態判定方法
WO2018158950A1 (ja) 作業適性判定装置、作業適性判定方法、及び作業適性判定プログラム
US10891922B1 (en) Attention diversion control
US20210043049A1 (en) Sound generation based on visual data
US20230077010A1 (en) Wearable facial movement tracking devices
CN113596673A (zh) Ar眼镜扬声器的定向发声方法、装置和发声设备
JP7070345B2 (ja) 車両用ストレス軽減装置
CN111586395A (zh) 用于辅助主体获取关于环境的空间信息的方法、计算机程序和头戴式装置
US11955028B1 (en) Presenting transformed environmental information
WO2023026553A1 (ja) 交通流シミュレーションシステムおよび交通流シミュレーション方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination