CN110393015B - 高级人工声音听觉训练 - Google Patents

高级人工声音听觉训练 Download PDF

Info

Publication number
CN110393015B
CN110393015B CN201880017170.7A CN201880017170A CN110393015B CN 110393015 B CN110393015 B CN 110393015B CN 201880017170 A CN201880017170 A CN 201880017170A CN 110393015 B CN110393015 B CN 110393015B
Authority
CN
China
Prior art keywords
sound
recipient
input
auditory
virtual reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201880017170.7A
Other languages
English (en)
Other versions
CN110393015A (zh
Inventor
S·丰
A·冯布拉施
K·雷德
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cochlear Ltd
Original Assignee
Cochlear Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cochlear Ltd filed Critical Cochlear Ltd
Publication of CN110393015A publication Critical patent/CN110393015A/zh
Application granted granted Critical
Publication of CN110393015B publication Critical patent/CN110393015B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/55Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired
    • H04R25/552Binaural
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • H04S1/005For headphones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurosurgery (AREA)
  • Otolaryngology (AREA)
  • Prostheses (AREA)
  • Rehabilitation Tools (AREA)

Abstract

一种方法,包括以下动作:获取对虚拟现实系统的访问;激活人工耳蜗,使得人工耳蜗基于第一输入唤起听觉感知;以及与基于第一输入的听觉感知的唤起在时间上接近地,从虚拟现实系统接收第二输入,其中人工耳蜗基于第一输入唤起听觉感知,并且第二输入与第一输入相关。

Description

高级人工声音听觉训练
相关申请的交叉引用
本申请要求于2017年2月10日提交的、发明人为澳大利亚麦考瑞大学(MacquarieUniversity)的Stephen FUNG的、题为“ADVANCED ARTIFICIAL SOUND HEARING TRAINING”的美国专利申请No.15/429,622的优先权,该申请的全部内容通过引用整体并入本文。
背景技术
听觉丧失可能由很多不同的原因引起,通常有两种类型:传导性和感觉神经性。感觉神经性听觉丧失是由于耳蜗中的毛细胞的缺失或破坏引起的,这些毛细胞能够将声音信号转换成神经冲动。各种听觉假体在商业上可用于为患有感觉神经性听觉丧失的个体提供感知声音的能力。听觉假体的一个示例是人工耳蜗。
当向耳蜗中的毛细胞提供声音的正常机械通路受到阻碍时,例如由于听骨链或耳道损伤,就会发生传导性听觉丧失。患有传导性听觉丧失的个体可能保留某种形式的残余听觉,因为耳蜗中的毛细胞可能保持完好无损。
患有听觉丧失的个体通常接受声学助听器。传统的助听器依靠空气传导原理将声信号传输到耳蜗。特别地,助听器通常使用位于接受者的耳道中或外耳上的装置来放大由接受者的外耳接收的声音。这种放大的声音到达耳蜗,从而引起外淋巴的运动和听觉神经的刺激。传导性听觉丧失的病例通常通过骨传导助听器进行治疗。与传统的助听器相比,这些设备使用机械致动器,机械致动器耦合到颅骨以施加放大的声音。
与主要依赖于空气传导原理的助听器不同,通常被称为人工耳蜗的某些类型的听觉假体将所接收的声音转换成电刺激。电刺激被施加到耳蜗,这导致对所接收的声音的感知。
很多设备(诸如与接受者交互的医疗设备)具有结构和/或功能特征,其中在针对个体接受者调节这些特征方面具有实用价值。针对接受者的特定需求或特定需要或特定特性来对与接受者接口或由接受者以其他方式使用的设备进行量身定做或定制或以其他方式进行调节的过程通常被称为适配(fitting)。在其中对个体接受者进行这种适配具有实用价值的一种类型的医疗设备是上述人工耳蜗。也就是说,存在其他类型的医疗设备(诸如其他类型的听觉假体),其中对接受者进行这种适配具有实用价值。
此外,即使使用经适配的人工耳蜗,电听觉的性质使得基于电听觉的最终听觉感知通常可能与正常听觉者所感知的不同。
发明内容
根据示例性实施例,存在一种方法,其包括:获取对虚拟现实系统的访问;激活人工耳蜗,使得人工耳蜗基于第一输入唤起听觉感知;以及与基于第一输入的听觉感知的唤起在时间上接近地,从虚拟现实系统接收第二输入,其中人工耳蜗基于第一输入唤起听觉感知,并且第二输入与第一输入相关。
根据另一示例性实施例,存在一种系统,其包括:虚拟现实子系统;以及听觉假体,其中虚拟现实子系统被配置为向听觉假体提供第一输出,听觉假体被配置为基于第一输出在其接受者中唤起听觉感知,虚拟现实子系统被配置为同时向听觉假体的接受者提供第二输出以唤起与听觉不同的第二感觉,并且第二感觉是由导致听觉感知的现实物理现象引起的感觉。
根据另一示例性实施例,存在一种方法,其包括:第一动作,基于指示第一声音的输入,在听觉假体的接受者中唤起人工听觉感知;第二动作,接收第一视觉输入,其中第一视觉输入与第一声音相关,其中第二动作与第一动作以有效的时间相关性而被执行;并且重复第一动作和第二动作,从而提高接受者识别第一声音的能力。
根据另一示例性实施例,存在一种方法,其包括:(i)向人工耳蜗听觉假体的接受者提供第一声音和第一非声音刺激场景,其中第一声音的人工听觉感知是利用听觉假体唤起的;以及(ii)向听觉假体的接受者提供第二声音和第二非声音刺激场景,其中第二声音的人工听觉感知是利用听觉假体唤起的,其中非声音刺激是虚拟现实发起的刺激,并且所提供的场景训练或重新训练接受者以将相应声音与相应非声音刺激相关联。
根据另一示例性实施例,存在一种方法,其包括:训练或重新训练人工耳蜗的接受者以使用虚拟现实来识别和/或区分声音。
附图说明
下面参考附图描述实施例,其中关于附图:
图1是示例性听觉假体的透视图,其中本文中详述的至少一些教导是适用的;
图2-9给出了根据示例性实施例的示例性方法的附加示例性流程图;
图10-12给出了利用本文中详述的一些教导表示接受者的听觉历程(hearingjourney)的概念示意图;
图13-18给出了根据示例性实施例的示例性方法的附加示例性流程图;
图19给出了根据示例性实施例的系统的示例性功能示意图,利用该系统可以实现本文中详述的各种方法动作中的一个或多个或全部;
图20给出了根据示例性实施例的系统的另一示例性功能示意图,利用该系统可以实现本文中详述的各种方法动作中的一个或多个或全部;
图21给出了根据示例性实施例的示例性方法的示例性流程图;以及
图22给出了接受者的虚拟真实世界的概念示意图。
具体实施方式
图1是植入接受者中的被称为人工耳蜗100的人工耳蜗的透视图,本文中详述的一些实施例和/或其变型适用于该人工耳蜗。人工耳蜗100是系统10的一部分,在一些实施例中,系统10可以包括外部部件,如下面将详述的。应当注意,在至少一些实施例中,本文中详述的教导适用于部分可植入和/或完全可植入的人工耳蜗(即,关于后者,诸如具有植入的麦克风的人工耳蜗)。还应当注意,本文中详述的教导也适用于除了人工耳蜗之外的利用电流的其他刺激装置(例如,听觉脑刺激器、起搏器等)。而且,本文中详述的教导也适用于其他听觉假体,如下面将详述的。
接受者具有外耳101、中耳105和内耳107。下面描述外耳101、中耳105和内耳107的组成部分,接着描述人工耳蜗100。
在全功能耳朵中,外耳101包括耳廓110和耳道102。声压或声波103由耳廓110收集,并且被引导进入并且穿过耳道102。设置在耳道102的远端上的是鼓膜104,鼓膜104响应于声波103而振动。该振动通过中耳105的三块骨头(统称为听小骨106,并且包括锤骨108、砧骨109和镫骨111)耦合到椭圆形窗口或窗孔椭圆112。中耳105的骨头108、109和111用于过滤和放大声波103,从而引起椭圆形窗口112响应于鼓膜104的振动而发声或振动。这种振动产生耳蜗140内的外淋巴的流体运动波浪。这种流体运动又激活耳蜗140内的微小毛细胞(未示出)。毛细胞的激活引起适当的神经冲动被生成并且通过螺旋神经节细胞(未示出)和听觉神经114被转移到大脑(也未示出),这些神经冲动在大脑处被感知为声音。
如图所示,人工耳蜗100包括暂时或永久植入接受者中的一个或多个部件。人工耳蜗100在图1中示出为具有外部设备142,外部设备142(连同人工耳蜗100)是系统10的一部分,如下所述,外部设备142被配置为向人工耳蜗提供电力,其中植入的人工耳蜗包括电池,电池通过从外部设备142提供的电力来充电。
在图1的说明性装置中,外部设备142可以包括设置在耳后(BTE)单元126中的电源(未示出)。外部设备142还包括称为外部能量传递组件的经皮能量传递链路的部件。经皮能量传递链路用于将电力和/或数据传输到人工耳蜗100。可以使用各种类型的能量传递(诸如红外(IR)、电磁、电容和电感传输)来从外部设备142向人工耳蜗100传输电力和/或数据。在图1的说明性实施例中,外部能量传递组件包括外部线圈130,外部线圈130形成感应射频(RF)通信链路的一部分。外部线圈130通常是由多匝电绝缘的单股或多股铂或金线构成的线天线线圈。外部设备142还包括定位在外部线圈130的成匝的导线内的磁体(未示出)。应当理解,图1所示的外部设备仅仅是说明性的,并且其他外部设备可以与本发明的实施例一起使用。
人工耳蜗100包括可以定位在邻近接受者的耳廓110的颞骨的凹陷中的内部能量传递组件132。如下所述,内部能量传递组件132是经皮能量传递链路的部件,并且从外部设备142接收电力和/或数据。在说明性实施例中,能量传递链路包括感应RF链路,并且内部能量传递组件132包括初级内部线圈136。内部线圈136通常是由多匝电绝缘的单股或多股铂或金线构成的线天线线圈。
人工耳蜗100还包括主要可植入部件120和细长电极组件118。在一些实施例中,内部能量传递组件132和主要可植入部件120气密地密封在生物相容性壳体内。在一些实施例中,主要可植入部件120包括可植入麦克风组件(未示出)和声音处理单元(未示出),以将由内部能量传递组件132中的可植入麦克风接收的声音信号转换成数据信号。也就是说,在一些替代实施例中,可植入麦克风组件可以位于与主要可植入部件120信号通信(例如,经由在单独的可植入部件与主要可植入部件120之间的引线等)的单独的可植入部件(例如,具有其自己的壳体组件等)中。在至少一些实施例中,本文中详述的教导和/或其变型可以与任何类型的可植入麦克风装置一起使用。
主要可植入部件120还包括基于数据信号生成电刺激信号的刺激器单元(也未示出)。电刺激信号经由细长电极组件118传递给接受者。
细长电极组件118具有连接到主要可植入部件120的近端以及植入耳蜗140中的远端。电极组件118从主要可植入部件120通过乳突骨119延伸到耳蜗140。在一些实施例中,电极组件118可以至少植入在基底区域116中,有时可以进一步植入。例如,电极组件118可以朝向耳蜗140的顶端(称为耳蜗顶点134)延伸。在某些情况下,电极组件118可以经由耳蜗底转122插入耳蜗140。在其他情况下,可以通过圆形窗口121、椭圆形窗口112、岬角123、或通过耳蜗140的顶端转弯147形成耳蜗底转。
电极组件118包括沿其长度设置的纵向对准并且向远侧延伸的电极148阵列146。如上所述,刺激器单元生成刺激信号,该刺激信号由电极148施加到耳蜗140,从而刺激听觉神经114。
在示例性实施例中,在植入人工耳蜗100之后,接受者可以适配或定制人工耳蜗100,以符合特定接受者的期望,或具有比在其他情况下更实用的配置(例如,通过编程)。而且,在示例性实施例中,在适配或定制人工耳蜗100以符合特定接受者的期望之前和/或之后,可以利用人工耳蜗100执行方法,从而改变(例如,改善)接受者使用人工耳蜗100的听觉能力和/或改变植入的人工耳蜗100的功效(例如,提高功效)。按照这些方法的一些示例性程序在下面详述。这些程序通过示例的方式详细说明了人工耳蜗。应当注意,以下程序适用于(尽管可能更一般地说)其他类型的听觉假体,诸如仅作为示例而非作为限制,骨传导装置(主动经皮骨传导装置、被动经皮骨传导装置、经皮骨传导装置)、直接声学人工耳蜗(有时也称为中耳植入物)等。此外,以下程序可以适用于(尽管可能更一般地说)由接受者使用的其他类型的装置,无论是假体还是其他。
在示例性实施例中,人工耳蜗100是植入物,其能够实现可以针对个体接受者而定制的各种适配选项和训练选项。
一些示例性实施例涉及在所有其他条件相同的情况下,减少人工耳蜗的接受者的大脑适应电听觉所需要的时间和/或工作量。所有其他条件相同表示对于完全相同的设置(例如,地图设置、音量设置、平衡设置等)以及对于完全相同的人以完全相同的效率操作的完全相同的植入物。也就是说,唯一的变量是存在或不存在本文中详述的方法的引入和/或本文中详述的系统的应用。在这方面,已经发现,人工耳蜗接受者与正常听觉者不同地感知声音。在至少一些示例性场景中,这是因为,人工耳蜗的声音感知机制不同于正常听觉者(耳蜗的电听觉/直接电刺激,而不是刺激耳蜗纤毛的正常流体波)。
一些示例性实施例涉及在所有其他条件相同的情况下,减少人工耳蜗的接受者的大脑重新学习如何利用由电听觉产生的新路径来倾听所需要的时间和/或工作量。更进一步地,一些示例性实施例涉及提高接受者关于正确地标识基于电听觉的声音的信心。其他实用特征也可以由本文中详述的方法和系统产生,诸如仅作为示例而非作为限制,在所有其他条件相同的情况下,正确地标识各个相似声音的不同来源的能力。
在一些情况下,本文中详述的教导的一些示例性实施例解决了相对于正常/传统助听器的接受者的情况,人工耳蜗接受者在康复中所面临的独特挑战。本文中详述的实施例(包括方法和系统)都适用于训练接受者进行对象关联,训练接受者理解混响及其对一种声音感知的影响,训练接受者开发声音定位,以及训练接受者欣赏更精细的语调。也就是说,本文中详述的教导的实施例还可以适用于正在康复中的人工耳蜗接受者,因为他们在接受人工耳蜗之前从未经历过正常听觉。
本文中详述的教导的一些实施例利用虚拟现实,但是在其他实施例中,不一定是这种情况,相反,可以利用传统的媒体/多媒体设备。在示例性实施例中,接受者可以沉浸在世界中,该世界可以是三维世界,该三维世界可以表示真实世界或幻想世界,其中产生真实世界的声音的对象以视觉方式呈现给接受者。例如,在示例性实施例中,可以存在汽车、割草机、任何风扇的视觉图像,这些当中的每个具有马达但是产生不同的声音,这可能使人工耳蜗接受者在没有训练以标识声音的差异的情况下出现混淆而无法辨别。
图2给出了示例性方法(方法200)的示例性流程图。在一些实施例中,方法200导致关于大脑所应用的时间和/或工作的减少的上述实用特征。也就是说,在至少一些示例性实施例中,方法200不会导致时间和/或工作的减少,而是导致其他现象,诸如信心的增加,正确标识相应相似声音的不同来源的能力的增加/改进,等等。方法200也可以产生其他实用价值。
方法200包括方法动作210,方法动作210包括获取对虚拟现实系统的访问。下面将描述虚拟现实系统的一些附加细节。然而,简言之,在示例性实施例中,虚拟现实系统被配置为向人工耳蜗提供表示声音的输出(经由可以具有实用价值的任何介质,诸如仅作为示例而非作为限制,来自扬声器的空气传导、经由硬线的电信号、红外线等)。更进一步地,在一些示例性实施例中,虚拟现实系统被配置为提供表示视觉图像的输出(其包括运动的图像(视频))。方法200还包括方法动作220,方法动作220包括激活人工耳蜗,使得人工耳蜗基于第一输入唤起听觉感知。在示例性实施例中,第一输入是来自虚拟现实系统的上述声音输出。也就是说,在一些替代实施例中,第一输入可以源自其他来源。在至少一些示例性实施例中,可以利用能够实现本文中详述的教导和/或其变型的任何输入。方法动作230还包括与基于第一输入的听觉感知的唤起在时间上接近地,从虚拟现实系统接收第二输入。在示例性实施例中,该第二输入是来自虚拟现实系统的图像形式的输出。应当注意,时间上接近包括在接收第二输入的同时接收第一输入,在接收第二输入之前接收第一输入,和/或在接收第二输入之后接收第一输入。在示例性实施例中,本文中详述的时间上接近是在方法220的人工耳蜗的激活之前或之后等于或少于X秒的时段。在示例性实施例中,X是从方法动作220的人工耳蜗的激活的开始、中间或结束开始测量的15秒、14、13、12、11、10、9、8、7、6、5、4、3、2或1、0.75、0.5、0.25或0秒。
应当注意,虽然流程图将方法动作220呈现为在方法动作230之前发生,但是在替代实施例中,方法动作230在方法动作220之前发生。在这方面,应当注意,术语“第一输入”、“第二输入”等不表示时间上领先,而是表示数字标识符,仅此而已(除非另有说明)。因此,在示例性实施例中,首先呈现视觉提示,然后呈现音频信号。对于从远距离听到声音的人来说,这可能具有实用价值,其中将在听到动作的结果之前看到该动作。仅作为示例而非作为限制,拆除专家可以被暴露于与炸药棒的视觉爆炸相对应的第二输入,随后是与炸药棒的爆炸声相对应的第一输入。
在图2的方法(方法200)中,人工耳蜗基于第一输入唤起听觉感知,并且第二输入与第一输入相关。在这方面,仅作为示例而非作为限制,如果第一输入是基于推动汽油动力六马力割草机的声音的声音信号,则第二输入将基于割草机,并且因此第一输入和第二输入彼此相关。在示例性实施例中,第二输入可以是割草机的视觉输入(无论是图片、视频等,并且图片和视频可以是艺术家的卡通图像(包括简笔画)或精确图像(实际图像、计算机生成的图像)——可以具有可以在至少一些示例性实施例中利用的实用价值的任何图像,条件是这种图像与第一输入相关。
应当注意,在方法200的示例性实施例中,第一输入可以由虚拟现实系统生成。在这方面,在示例性实施例中,虚拟现实系统向人工耳蜗提供第一输入和第二输入。
在示例性实施例中,方法200(以及在一些实施例中,本文中详述的其他方法和/或系统)为已经接受人工耳蜗的人的康复过程提供帮助。仅作为示例而非作为限制,本文中详述的方法和/或系统的操作原理为利用对象关联作为人工耳蜗接受者的康复和/或复原历程的一部分。本文中详述的方法和/或系统使得能够基于电听觉的感知的声音与对象和/或场景的重新关联/关联。
图3表示示例性方法(方法300)的示例性流程图,方法300包括方法动作310,方法动作310包括执行方法200。方法300还包括方法动作320,方法动作320包括与基于第一输入的听觉感知的唤起在时间上接近地,接收由虚拟现实系统生成的第三输入。在示例性实施例中,第三输入是与第一输入或第二输入的输入不同类型的输入。在示例性实施例中,该第三输入可以是触觉输入。应当注意,在一些示例性实施例中,第二输入可以是触觉输入——应当注意,虽然图3的实施例清楚地表明可以存在第二输入和第三输入(并且虽然没有由方法300具体表示,但是可以存在除了第三输入之外的更多输入),方法200可以仅用第一输入和第二输入来实践——因此,本文中根据方法300描述的任何输入也适用于在方法200中使用的输入,反之亦然。仅作为示例而非作为限制,第三输入(或第二输入)可以是胸部上的力,表示来自由摩托车输出的压力波的力(其中第一输入可以基于摩托车的声音)。进一步仅作为示例而非作为限制,第三输入(或第二输入)可以是湿度,其中第一输入是基于对象飞溅和水的声音的声音。再进一步仅作为示例而非作为限制,第三输入(具有第二输入)可以是突然减速或加速,其中第一输入基于打滑汽车的声音或加速汽车的声音。在示例性实施例中,第一输入可以基于地震的声音,并且具有第二输入的第三输入可以基于房间或对象的摇动。
在示例性实施例中,第一输入可以基于与具有打开的窗户而不是关闭的窗户的房间相关的声音,并且第三输入或第二输入可以是风。也就是说,在示例性实施例中,第一输入可以基于风声,并且第二输入或第三输入可以是风或以其他方式基于风。在示例性实施例中,第一输入可以基于雨声,并且具有第二输入的第三输入可以是雨滴。
在示例性实施例中,该第三输入可以是嗅觉输入。仅作为示例而非作为限制,在示例性实施例中,第一声音可以基于从喷雾罐排出的气溶胶的声音,并且第三输入(或第二输入)可以基于气溶胶的气味。在示例性实施例中,第一输入可以是划着火柴的声音,并且第三输入(或第二输入)可以是硫的气味。在示例性实施例中,第一输入可以基于噼啪作响的火的声音,并且具有第二输入的第三输入可以是燃烧木材的气味。在示例性实施例中,第一输入可以基于齿轮磨削的声音,并且第二输入或第三输入可以基于齿轮磨削的气味。
应当注意,在示例性实施例中,也可以存在第四输入。图4表示示例性方法(方法400)的示例性流程图,方法400包括方法动作410,方法动作410包括执行方法300。方法400还包括方法动作420,方法动作420包括与基于第一输入的听觉感知的唤起在时间上接近地,接收由虚拟现实系统生成的第四输入。在示例性实施例中,第四输入是与第一输入或第二输入或第三输入的输入不同类型的输入。在示例性实施例中,该第三输入可以是触觉,并且第四输入可以是嗅觉。
应当注意,在示例性实施例中,也可以存在第五输入。图5表示示例性方法(示例性方法500)的示例性流程图,方法500包括方法动作510,方法动作510包括执行方法400。方法500还包括方法动作520,方法动作520包括与基于第一输入的听觉感知的唤起在时间上接近地,接收由虚拟现实系统生成的第四输入。在示例性实施例中,第四输入是与第一输入或第二输入或第三输入的输入不同类型的输入。在示例性实施例中,该第三输入可以触觉,第四输入可以是嗅觉,并且第五输入可以是味觉。
应当注意,方法200与方法300、方法400或方法500不相互排斥。在这方面,例如,方法300的执行也导致方法200的执行,因为方法200不限于仅仅是第一输入和第二输入——方法200仅需要至少第一输入和第二输入。因此,方法500不仅限于五个输入,并且因此在示例性实施例中,存在具有六个、七个、八个、九个或十个输入或更多的输入的方法。在至少一些示例性实施例中,可以用于实现本文中详述的教导和/或其变型的任何数目的输入可以用于实践至少一些示例性实施例。
应当注意,任何上述实施例的第二输入可以是基于视觉的、触觉的、嗅觉的或味觉的;第三输入可以是剩余的三个基于视觉、触觉、嗅觉或味觉的输入中的一个(这三个不用作第二输入);第四个输入可以是剩余的两个基于视觉、触觉、嗅觉或味觉的输入中的一个(这两个未用作第二输入和第三输入);并且第五输入可以是剩余的一个基于视觉、触觉、嗅觉或味觉的输入中的一个(这一个未用作第二输入、第三输入和第四输入)。
本文中详述的方法和系统的至少一些示例性实施例在提供虚拟现实系统方面具有实用价值,该虚拟现实系统被配置为向人工耳蜗的接受者提供音频和视觉提示(尽管再次应当注意,在一些替代实施例中,虚拟现实系统可能不一定向接受者提供视觉提示,而是可以提供其他感觉提示,这些提示可以在接受者是盲人的场景中具有实用价值)。在至少一些示例性实施例中,提供了本文中详述的系统和方法,以便渲染涉及对象关联的场景——提供与对象相关联的声音(尽管应当注意,本文中详述的教导不限于对象——本文中详述的教导也可以提供场景关联(例如,下雨的声音、不同环境中的相同对象的声音——下面提供关于这些的更多内容)。一般来说,短语“事件”将用于包含被利用的对象的声音(例如,正在操作的摩托车)和给定场景的声音(暴雨、雷暴等)。下面将更详述涉及其他关联类型的其他情况。
目前,讨论对象关联。
人工耳蜗的接受者可能难以区分摩托车、割草机或吹叶机。在一个示例性实施例中,接受者是如下人:当他或她具有正常听觉时最喜欢的声音是弹簧刀和摩托车的声音,但是,在将人工耳蜗植入接受者之后,接受者不再能够区分摩托车、割草机或吹叶机,或者至少不能肯定地区分这三个中的两个或三个。关于车票打孔器的声音与弹簧刀的声音的情况也是如此。在示例性实施例中,接受者是对弹簧刀具有不愉快体验的人,但是当他或她乘坐火车时,其中对车票打孔的声音会使他或她回忆起不良体验。在任何情况下,在方法200的至少一些示例性实施例中,第一输入表示事件类属(genus)的事件种类(event species),并且第二输入表示事件种类。例如,事件的类属需要在地平面上操作内燃机,并且事件的种类对应于所讨论的特定内燃机(例如,摩托车)。在这方面,第一输入将是摩托车的声音,并且第二输入将表示摩托车(例如,其视觉图像、双冲程排气的气味、来自消声器的胸部上的搏动等)。
在示例性实施例中,本文中详述的方法和本文中详述的系统可以提供复原和/或康复方案,使得接受者学习类属事件的不同种类事件的声音之间的差异。在实践方法200的示例性实施例中,方法200可以首先利用基于摩托车的声音的第一输入以及基于摩托车的图像的第二输入来实践。然后,可以利用基于吹叶机的声音的第一输入以及基于吹叶机的图像的第二输入重新执行方法200。然后,可以利用基于割草机的声音的第一输入以及基于割草机的图像的第二输入重新执行方法200,等等。以这种方式,可以提供一种方法,以便使接受者复原和/或康复,以便以一种在没有本文中详述的教导的情况下不会是这种情况的方式识别各个事件种类的不同声音之间的差异,其中所有其他条件相同。为此,图6给出了示例性方法(方法600)的流程图,方法600包括方法动作610。方法动作610包括:针对包含y个事件种类的类属中的第n事件种类执行方法200、方法300、方法400或方法500,其中n=1。在示例性实施例中,方法动作610包括执行方法200,并且y=3(摩托车、割草机和吹叶机)。因此,方法动作610可以包括与摩托车的声音相对应的第一输入以及与摩托车的图片相对应的第二输入。方法600还包括方法动作620,方法动作620包括:对于n=n+1,针对包含y个事件的类属中的第n事件种类,重新执行方法200、方法300、方法400或方法500。在本文中,对于方法动作620的第一实现,n=2(1+1),并且第一输入可以对应于割草机的声音,并且第二输入可以对应于割草机的图片。方法600然后进行到方法动作630,方法动作630包括评估是否y=n,并且如果y等于n,则结束该方法。在本文中,y=3并且n=2,因此该方法尚未结束,因为n小于y,该方法返回到方法动作620,其中n现在等于3(2+1),并且针对第三种事件种类——吹叶机——重新执行方法200,并且第一输入是吹叶机的声音并且第二输入是吹叶机的图像。该方法然后返回到方法动作630,并且现在因为y=n,所以该方法完成。
应当注意,图6的实施例可以以串行方式针对每个单独的事件种类一次一个地执行,而在一些替代实施例中,例如,可以针对给定的事件种类,重复执行相应的子方法(方法200、300,400或500),然后继续下一事件种类的下一方法动作。还应当注意,在一些实施例中,对于某些声音,给定的方法动作可以比其他声音重复更多次。仅作为示例而非作为限制,相对于第二声音种类的呈现,有限次地呈现第一声音种类,可能存在实用价值。例如,如果吹叶机的声音是相对于摩托车的声音和割草机的声音不会频繁发生的声音,则后两种声音将在方法600中比吹叶机的声音更频繁地应用。实际上,可以间歇地引入吹叶机的声音,以便提供可以进一步训练接受者标识不同声音的控制或轻微变化。在至少一些示例性实施例中,可以利用可以以任何顺序提供给接受者的、可以使得本文中详述的教导在训练接受者以更好地识别或更好地区分声音方面具有实用价值的任何数量或质量的第一输入和第二输入。
以这种方式(通过执行方法600),作为示例,相对于不执行方法600的情况,本文中详述的教导可以用于更好地使接受者熟悉声音的类属中的某些特定种类的声音,这些声音可能不容易彼此区分(包括彼此不可区分),不容易识别(包括不可识别),其中所有其他条件相同。该想法是,某些声音可以在重复的基础上与其他感官提示(诸如视觉提示)一起提供给接受者,因此这将训练接受者区分不同的声音,或以其他方式识别声音。在示例性实施例中,本文中详述的方法和系统通常地在接受者的神经系统中诱导可塑性,并且具体地向大脑中诱导可塑性,从而提高接受者区分和/或识别声音的能力。
图7给出了表示示例性方法(这里是方法700)的另一流程图。方法700包括方法动作710,方法动作710包括:对于n,基于指示第一声音的输入,在听觉假体的接受者中唤起人工听觉感知。方法700还包括方法动作720,方法动作720包括接收第一视觉输入,该第一视觉输入与第一声音相关,其中方法动作720与方法动作710以有效的时间相关性被执行。仅作为示例而非作为限制,可以利用对本文中详述的过程及其变型具有功效以便提高接受者识别或区分声音的能力的任何时间相关性来实践方法700。在示例性实施例中,方法动作710和720同时执行。在示例性实施例中,方法动作710和方法动作720串行执行,并且在一些实施例中,在时间上接近地执行,在这种时间上的接近具有功效的情况下。
方法700还包括方法动作730,方法动作730包括确定n的值并且将其与值z进行比较。如果n=z,则该方法完成,而如果不是,则该方法返回到方法动作710,对于n=n+1,并且重复方法动作710、720和730,直到n=z。在示例性实施例中,这导致第一动作和第二动作重复足够次数以改善接受者识别第一声音的能力。在示例性实施例中,z=2、3、4、5、6、7、8、9、10、12、14、16、18、20、25、30、35、40、50、60、70、80或90或100或更多、或其间的任何值或值范围,其中增量为1(例如,13-21、33、34、44等)。作为示例,方法700与方法600的不同之处在于,不需要使用虚拟现实系统本身(但是不阻止使用虚拟现实系统)。此外,人工听觉感知可以通过任何人工听觉设备实现,而不仅仅是人工耳蜗。因此,在示例性实施例中,方法700可以利用电视或计算机显示的图像等或更复杂的虚拟现实系统来执行。
在示例性实施例中,方法动作710的第一视觉图像源自人工源(例如,来自电视或计算机显示器等)。与本文中详述的教导相一致,第一视觉输入可以由虚拟现实系统生成,但是如上所述,在替代实施例中,第一输入可以由非虚拟现实系统生成,诸如通用电视或通用计算机显示器。
简要地,应当注意,在至少一些示例性实施例中,第一视觉输入可以表示移动对象,而在其他实施例中,第一视觉输入可以表示静态对象。仅作为示例而非作为限制,已知,正在移动的对象可以产生与静态对象不同的声音。当警报器朝向或远离对象移动时,警察警报器的音调的公知的变化仅仅是一个示例。本文中详述的教导可以应用于训练听觉假体的接受者以更好地识别或以其他方式更好地区分静态对象的声音和移动对象的声音。更进一步地,本文中详述的教导可以应用于训练接受者以更好地识别从朝向接受者移动的对象发出的声音和从远离接受者移动的对象发出的声音。
简要地,应当注意,本文中训练接受者以更好地识别声音的任何公开内容也对应于训练接受者以更好地将声音与其他声音(诸如声音类属内的其他声音)区分开的公开内容,反之亦然。
图8提供了示例性方法(方法800)的另一流程图,方法800包括方法动作810,方法动作810包括向人工耳蜗听觉假体的接受者提供第一声音和非声音刺激场景,其中第一声音的人工听觉感知是利用听觉假体唤起的。方法800还包括方法动作820,方法动作820包括向听觉假体的接受者提供第二声音和非声音刺激场景,其中第二声音的人工听觉感知是利用听觉假体唤起的。在该方法中,非声音刺激是虚拟现实发起的刺激,并且所提供的场景训练或重新训练接受者以将相应声音与相应非声音刺激相关联。现在将描述该方法的一些附加细节。
在方法800的示例性实施例中,方法动作810和方法动作820可以对应于针对至少y=2执行方法600。因此,在示例性实施例中,第一声音和第二声音是接受者最初不能常规地区分为分别与相应非声音刺激相关联的声音。在示例性实施例中,第一声音可以是割草机的声音并且第二声音可以是吹叶机的声音,并且第一非声音刺激场景可以是割草机的视觉图像并且第二非声音刺激场景可以是吹叶机的视觉图像。因此,在示例性实施例中,第一声音和第二声音可以是声音类属的相应声音种类,并且第一非声音刺激和第二非声音刺激可以是图像类属中的相应图像种类。
根据执行方法800的示例性实施例,执行方法810直到接受者熟悉单个对象关联(单个事件关联),然后通过向接受者呈现具有相关的视觉线索的多个对象音频提示来增强该方法。因此,在示例性实施例中,方法动作800可以独立于方法动作820而重复地执行,直到接受者学会将第一声音与第一非声音刺激相关联。此外,在接受者学会将第一声音与第一非声音刺激相关联之后,可以结合方法动作810重复执行方法动作820。注意,执行方法800的这两种方式不是相互排斥的:可以通过重复执行方法动作810直到接受者学会将第一声音与第一非声音刺激相关联来实践方法800,而不执行方法动作820,以及然后,在接受者学会将第一声音与第一非声音刺激相关联之后,可以结合动作810重复执行方法动作820。在示例性实施例中,这可以在将接受者逐渐引入更广泛的声音方面具有实用价值,否则他或她将无法区分或以其他方式无法识别该声音。也就是说,仅作为示例而非作为限制,在示例性实施例中,重复执行方法动作810,直到接受者能够仅从音频提示识别声音,例如,没有伴随的非声音刺激场景,并且通常掌握对方法动作810的声音的识别,然后该方法前进到方法动作820,其中方法动作810也可以至少间歇地(如果不是以二进制方式)执行,诸如与方法动作820时间接近地执行方法动作810。
因此,图9给出了示例性方法(方法900)的示例性流程图,方法900包括方法动作910,方法动作910包括在第一时间段期间执行方法800,其中第一声音和第二声音是接受者最初不能常规地区分为分别与相应非声音刺激相关联的声音。
方法900还包括方法动作920,方法动作920包括在第一时间段之后的第二时间段期间,确定接受者常规地将第一声音和第二声音区分为分别与相应非声音刺激相关联。方法900还包括方法动作930,方法动作930包括向听觉假体的接受者提供第三声音和非声音刺激场景,其中第三声音的人工听觉感知是利用听觉假体唤起的。在该示例性实施例中,第三非声音刺激是虚拟现实发起的刺激,并且第一声音或第二声音中的至少一项和第三声音是接受者最初不能常规地或以其他方式以一定程度的确定性区分为分别与相应非声音刺激相关联的声音。根据这些方法,图10-12给出了概念性地表示康复/复原历程的场景的图形,其中听觉假体的接受者开始能够辨别给定声音类属的不同声音。在图10中,可以看出,所有声音被接受者分组为相同的声音。当接受者利用本文中详述的教导和方法时,随着时间的推移,接受者“听到”两个不同的声音(接受者能够以二进制方式将一些声音与其他声音区分开),如图11所示。当接受者继续利用本文中详述的方法和系统时,又有另外的声音可以与其他声音区分开,如图12所示。可以看出,随着接受者利用本文中详述的教导和方法的进展,本文中详述的教导和方法可以允许接受者更好地辨别声音。
注意,在示例性实施例中,图10可以表示接受者的基线。也就是说,无论给定声音类属的任何声音种类暴露给接受者都会听起来相同。关于利用本文中详述的至少一些系统和方法,在示例性实施例中,在本文中的方法中,可以选择来自该类属的两种声音种类用于向接受者“首次呈现”(例如,一种用于方法动作810和一种用于方法动作820)。这通过图11中的声音1101和1102仅作为示例来表示。在示例性实施例中,基于主观或客观数据,可以基于它们相对于其他情况在沿着康复/复原历程使接受者进步方面具有实用价值的可能性来选择这些声音种类。例如,摩托车的声音和吹叶机的声音可以用作声音1101和1102,因为摩托车可以具有比吹叶机更深的基本声音,或者因为吹叶机可以具有比摩托车更高音调的声音。此外,声音输出的频率(与声音本身相反)可能明显不同——摩托车的发动机在一秒钟内不会达到与吹叶机一样高的RPM,因此会有与声音相关的时间提示,这可能使接受者更容易区分,与例如割草机相反,割草机可能是两者之间的中间情况。
与上述教导相一致,一旦接受者变得足够能够区分或以其他方式识别两个声音,就会引入附加声音,诸如割草机。
在本文中详述的至少一些示例性实施例中,接受者在如所确定的两个或更多个声音之间区分或以其他方式识别的能力利用接受者反馈。在至少一些示例性实施例中,接受者可以向给定系统提供指示他或她认为是声音事件的输入。在示例性实施例中,这可以包括在没有视觉或其他感官提示的情况下向接受者提供声音。也就是说,在替代实施例中,可以提供环境的模拟。例如,本文中详述的一些系统和方法可以涉及现实生活情况,而不是简单地测试接受者的能力(因此在这方面使其不比正常听觉者更难)。例如,取决于人工耳蜗等的复杂性,可以呈现指示割草机声音的人工耳蜗的输入,以便向接受者呈现源自接受者后面的割草机的声音,从而再现听到割草机但不能正常看到割草机的效果。此外,可以提供模拟的夜间或黑暗条件。关键在于,非听觉感官提示的消除可以使用关于为什么接受者否则将无法看到或以其他方式感知而不听到发出声音的对象的存在的呈现来补充。也就是说,在至少一些示例性实施例中,将简单地移除非听觉感官提示,并且仅向接受者提供声音。
关于反馈,如下面将更详述的,在示例性实施例中,反馈可以是接受者的动作。例如,在下面更详述的关于训练接受者以更好地定位声音的实施例中,本文中详述的设备和系统可以被配置为检测接受者头部的移动,诸如接受者头部在一个方向或另一方向上的移动方向,其应当指示接受者感知声音的起源方向。在这样的示例性实施例中,系统和/或设备可以被配置为确定接受者是否适当地或正确地感知到声音的起源方向。在至少一些示例性实施例中,可以利用能够在提取指示接受者感知的内容的数据或确定接受者的表现能力方面具有实用价值的接受者的任何动作。
因此,图13给出了示例性方法(方法1300)的示例性流程图。方法1300包括方法1310,方法1310包括执行方法800。方法动作1310之后是方法动作1320,方法动作1320包括:获取指示接受者在不暴露于非声音刺激场景的情况下将第一声音与第一非声音刺激场景正确地相关联的能力以及接受者在不暴露于非声音刺激场景的情况下将第二声音与第二非声音刺激场景正确地相关联的能力的接受者反馈。这是测试,其可以包括简单地以完全纯净的方式将声音暴露给接受者的“盲”原始测试,并且还可以包括更真实的世界场景,移除非听觉刺激但代之以导致非听觉刺激的不存在的环境条件,这可以通过虚拟现实系统来完成。
注意,方法动作1320可以以自动或半自动方式执行,或者替代地,由医疗保健专业人员或其他类型的测试提供者手动执行。仅作为示例而非作为限制,可以通过从接受者输入计算机来提供接受者反馈,无论该计算机是传统的台式计算机还是膝上型计算机、还是越来越常见的移动计算机,诸如智能电话或智能手表等。此外,输入不一定需要提供给计算机设备或者以其他方式包含计算机的设备。在示例性实施例中,如果出于任何原因具有实用价值,则可以将输入提供到传统的按键式电话中。更进一步地,输入可以由接受者复选框提供或者以与给定声音相关的方式写下他或她认为其听到的内容,使得稍后可以评估输入(下面更详细地描述)。可以在至少一些示例性实施例中利用将使方法1320能够被执行的任何设备、系统和/或方法。
方法1300还包括方法1330,方法1330包括基于所获取的接受者反馈,确定接受者将第一声音与第一非声音刺激场景正确地相关联并且将第二声音与第二非声音刺激场景正确地相关联。与方法动作1330一样,这可以以自动或半自动方式执行,或者替代地,由医疗保健专业人员或其他测试提供者手动执行。注意,可以利用系统来利用方法动作1320和1330,该系统部分地包括远程系统,诸如评估接受者反馈的远程计算机。下面将描述附加细节。在任何情况下,可以在至少一些示例性实施例中利用将使得能够执行方法1330的任何设备、系统和/或方法。
简要地,应当注意,在示例性实施例中,方法1300可以在方法动作1330之后结束。也就是说,在某些情况下,仅执行方法直到方法动作1330就足够了。也就是说,在某些情况下,利用更详细的方法具有实用价值。为此,方法1300还包括方法1340,方法1340包括在方法1330的确定动作之后,向接受者提供第三声音和非声音刺激场景,其中第三声音的人工听觉感知是利用听觉假体唤起的。在该方法中,第三声音类似于第一声音和/或第二声音,并且第三非声音刺激与第一非声音刺激和/或第二非声音刺激绝对不同。在示例性实施例中,第一声音可以是摩托车的声音,第二声音可以是吹叶机的声音,并且第三声音可以是割草机的声音。第一非声音刺激可以是摩托车的视频,第二非声音刺激可以是某人吹叶子的视频,并且第三非声音刺激可以是男性或女性推动六马力推动割草机的视频。
方法动作1330背后的想法是,确定接受者已经达到与图11的状态相对应的状态,其中接受者可以区分声音类属内的两个声音。方法动作1340背后的想法是,使接受者从图11的状态进步到其他状态(图11和图12之间的中间状态,或者在存在类属的很多种类的情况下,移动到图12的状态)。
简要地,应当注意,如本文中使用的,短语类属(genus)和种类(species)可以是客观的或主观的。例如,上述具有摩托车的示例,吹叶机和摩托车是小型但响亮的内燃机驱动装置的客观类属的客观种类。相反,考虑一种情况,其中人工耳蜗操作使接受者难以区分吹叶机和垃圾处理(两者都生成高频声音)、或雷电和柴油半启动。客观地,这些可能不会被视为是类属内的种类,但对于接受者而言,这些属于类属内的种类,其中类属是接受者无法区分的声音类属。因此,这些种类是主观类属的主观种类。
图14给出了示例性方法(方法1400)的示例性流程图。方法1400包括方法动作1410,方法动作1410包括获取对人工耳蜗的接受者的访问。这可能需要允许接受者访问医疗保健专业人员的办公室,或允许接受者访问在线系统,其中一切都是远程执行的。还应当注意,在至少一些示例性实施例中,不执行方法动作1410。方法1400还包括方法1420,方法1420包括训练或重新训练(前者用于在接受听觉假体之前从未听过的人,后者用于之前已经听过但已经失去至少一部分听觉的人)人工耳蜗的接受者以使用虚拟现实识别和/或区分声音。方法动作1420可以利用本文中详述的任何方法和系统和/或其变型、或者使得能够执行方法动作1420的任何其他方法和动作和系统来执行。
注意,在一些实施例中,仅执行方法动作1420。仅作为示例而非作为限制,在示例性实施例中,接受者可以通过他或她自己获取虚拟现实系统等,或者以其他方式访问将使接受者自身能够执行方法动作1420的虚拟现实系统(自我训练,其被包括在训练中)。因此,在示例性实施例中,方法动作1410可以替代地是向接受者提供虚拟现实系统或向接受者提供对虚拟现实系统的访问或指示接受者获取对虚拟现实系统的访问等的动作。
无论如何,在方法1400的示例性实施例(包括任何上述变型)中,仅作为示例而非作为限制,该方法不包括方法动作1410,训练或重新训练包括在接受者学会识别和/或区分不太复杂的场景的声音时,使用越来越复杂的虚拟现实提供视听场景。仅作为示例而非作为限制,在示例性实施例中,初始视听场景可以是具有割草机图像的割草机的单个声音。越来越复杂的场景可以是割草机的声音与背景中的电视声音相结合,其中电视和割草机的图像在空间上分开,以便给打开窗户看电视的人提供虚拟现实效果,或者在背景中,有人用割草机修剪草坪。替代地,和/或除此之外,越来越复杂的情况可能是割草机的声音,接着是吹叶机的声音。然后,越来越复杂的情况可以是割草机的声音与吹叶机的声音相结合。替代地,和/或除此之外,越来越复杂的情况可以是提供摩托车、割草机和吹叶机的声音以及视觉图像。
该方法可以利用测试结果等来执行,以确定接受者在接受者的复原或康复历程中的位置,并且基于这些工作,确定是否在如下方面存在实用价值:提供复杂程度越来越高的视听场景,并且如果有必要则提供这样的场景,如果没有,则不会继续增加复杂的场景。在这方面,可以利用测试来确定接受者以有意义的方式(例如,不是偶然、猜测等)识别和/或区分较不复杂的场景的声音。同样,这种测试可以是主动测试或被动测试,其中接受者自己参与测试,并且自动或半自动系统确定接受者是否学会识别和/或区分较不复杂的场景的声音。
简要地,应当注意,虽然上述实施例集中于基于对象关联/事件关联和声音彼此叠加的越来越复杂的场景,但是如下面将更详述的,复杂性增加的场景可以与关于声音的识别和/或区分/辨别的其他类型的训练相关,诸如仅作为示例,受混响环境影响的声音、与方向/位置声音相关的声音等。
图15示出了示例性方法(方法1500)的另一示例性实施例。方法1500包括方法动作1510,方法动作1510包括执行方法动作1420。方法1500还包括方法动作1520,方法动作1520包括确定接受者的听觉历程的阶段。在这方面,仅作为示例而非作为限制,听觉学家等可以评估接受者已经改善了他或她使用他或她的人工耳蜗听到和以其他方式识别声音的能力。这可以通过测试或听觉学家或其他医疗专业人员用来确定接受者听到人工耳蜗的程度的任何其他传统方式来进行。这可以基于接受者的主动测试、和/或时间数据、年龄数据、统计数据、与接受者在进行人工耳蜗之前是否可以听到有关的数据等。替代地,和/或除此之外,这可以由系统自动或半自动地完成,其中一些细节将在下面更详述,其可以监测或以其他方式评估接受者识别或区分声音的能力。作为示例,该系统可以提供如上所述的自动或半自动测试。替代地,和/或除此之外,系统可以利用某种形式的逻辑算法或机器学习算法等来基于性能或甚至简单地使用本文中详述的方法和系统来推断接受者在他或她的听觉历程中的位置。例如,如果接受者正在“练习”听取诸如音乐和电动工具等声音,则可以假定接受者因此在区分两种类型的声音方面存在问题,因此接受者在他或她的听觉历程中相对早期。相反,如果接受者正在练习听歌剧音乐与福音音乐等声音,则接受者很可能在他或她的听觉历程中进一步(因为接受者试图区分彼此有点接近的声音)。也许中间情况是古典音乐与爵士音乐,而在听觉历程中更先进地位的指标可能是接受者练习区分35岁的人的声音与65岁的人的声音。还应当注意,方法动作1520可以基于接受者自己的分析。可以在至少一些示例性实施例中利用能够确定接受者的听觉历程的阶段(包括估计的)的任何设备、系统和/或方法。
方法动作1530包括基于所确定的阶段选择声音场景的动作。在该实施例中,方法动作1510中的训练或重新训练动作包括提供与基于虚拟现实的非声音刺激耦合的所选择的声音场景。如果接受者进一步沿着他或她的听觉历程相对于接受者在听觉历程中不是那么远的情况下,所选择的声音场景的复杂性将更大。也就是说,如果接受者在他或她的听觉历程中相对于接受者在他或她的听觉历程开始时的情况是进一步的,则声音场景可以是旨在帮助训练接受者区分男性声音和女性声音的场景,其中声音场景将涉及接受者简单地识别语音或将语音与背景噪声区分开。
图16给出了示例性方法(方法1600)的另一示例性流程图,方法1600包括方法动作1610,方法动作1610包括执行上面详述的方法1420,其中附加规定:训练或重新训练动作包括使用虚拟现实提供视听场景。方法1600还包括方法动作1620和方法动作1630,方法动作1620包括在提供相应的视听场景的动作期间和/或之后接收接受者反馈的动作,方法动作1630包括基于所接收的接受者反馈,使用虚拟现实提供新的视听场景。因此,在执行方法800的示例性场景中,如果接受者发现他或她通常在利用虚拟现实识别和/或辨别/区分关于所提供的视听场景的不同声音方面成功,则接受者可以向听觉学家和/或系统提供反馈,该反馈管理或以其他方式向接受者提供利用虚拟现实的视听场景,然后,基于该接收的接受者反馈(在确定接受者发现他或她在识别和/或辨别声音方面取得了成功之后),提供利用更复杂或更具挑战性的虚拟现实的新的视听场景。也就是说,在另一种情况下,接受者发现他或她通常在利用虚拟现实识别和/或区分关于所提供的视听场景的不同声音方面没有成功,接受者可以向听觉学家和/或系统提供反馈,该反馈管理或以其他方式向接受者提供利用虚拟现实的视听场景,然后,基于所接收的接受者反馈(在确定接受者发现他或她在识别和/或辨别声音方面取不太成功之后),提供利用虚拟现实的不太复杂或不那么具有挑战性的新的视听场景。更进一步地,新提供的场景可能不一定更具挑战性或不那么具有挑战性,而是可以涉及仅仅不同的声音。例如,如果接受者可以区分吹叶机、割草机和摩托车,则可以在场景中提供涉及例如液压马达和电动空气泵的一组新声音。
关键在于,关于方法1600,提供新的视听场景的动作基于由接受者接收的反馈。同样,应当注意,该反馈可以由接受者直接提供给系统。在示例性实施例中,接受者可以指示他或她对给定声音感到舒适,然后系统可以提供要提供给接受者的新场景,或者仅仅自动地将新场景实现给接受者。
应当注意,在方法动作1420的示例性实施例中,训练或重新训练动作导致接受者区分声音类属的不同声音种类,其中接受者在此之前不能区分这些不同声音种类。在示例性实施例中,训练或重新训练动作导致接受者以成功率区分声音类属的不同声音种类,当在盲测试模式下仅暴露于完全纯净声音室中的那些声音时,成功率至少为50%、60%、70%、80%、90%、95%或100%或其间的任何值或值范围,增量为1%(57%或更多、82%或更多、75%至93%等)。仅作为示例而非作为限制,示例性标准化测试/听觉评估方案可以是由CUNY测试/HEAR WorksTM的2017年1月26日提供或以其他方式可获取或管理或利用或监管的那些中的一个或多个。仅作为示例而非作为限制,在某些实施例中,可以使用有时派遣给Arthur Boothroyd的AB同位素单音节词测试,其是包括15-10个单词列表的开放式语音感知测试。仅作为示例而非作为限制,有时可归因于Bench等人的BKB-A语句列表测试是一组开放式语音感知测试,其可以在一些实施例中使用。可以利用中央聋人日常句子测试,可以利用CNC单词列表,可以利用CUNY句子列表。在一些示例性实施例中,可以在一些示例性实施例中利用从HEARworks ShopTM可获取的与2017年1月26日可用的语音感知测试相关的任何测试。应当注意,本文中对声音室测试等的任何公开内容对应于一个或多个上述测试或其变型中的任何一个的公开内容。
在示例性实施例中,训练或重新训练动作导致接受者以成功率区分声音类属的不同声音种类,当在盲测试模式下仅暴露于完全纯净声音室中的那些声音时,与在执行方法动作1420之前的情况相比,成功率至少为1.5倍、1.75倍、2.0倍、2.25倍、2.5倍、2.75倍、3倍、3.5倍、4倍、4.5倍、5倍、6倍、7倍、8倍、9倍或10倍或更多。
在示例性实施例中,方法动作1420的训练或重新训练动作导致接受者能够在不同混响环境中识别给定声音,其中接受者在此之前不能在不同混响环境中识别声音。在示例性环境中,训练或重新训练动作导致接受者能够进行以下中的至少一项:在不同混响环境中识别给定声音或在不同混响环境中区分声音,其中接受者在此之前不能进行以下中的至少一项:在不同混响环境中识别声音或者在不同混响环境中区分声音。
注意,可以在本文中详述的经修改的方法和系统中利用不同的混响环境。仅作为示例而非作为限制,本文中存在涉及向接受者呈现声音类属的不同声音种类的教导。在这些方法的替代实施例中,代替声音类属的不同声音种类,可以向接受者提供给定声音环境类属的不同声音环境种类,其中声音种类在不同声音环境种类中是相同的。仅作为示例而非作为限制,歌唱的声音可以是声音种类,并且第一声音环境种类可以是教堂,第二声音环境种类可以是开放场地(其中相同的声音种类——唱歌——用于两个环境)。因此,在示例性实施例中,参考方法800,第一声音和非声音刺激场景可以使得声音部分是在教堂中唱歌,并且非声音刺激部分是人们在教堂唱歌的视觉图像,第二声音和非声音刺激场景可以是这样,即声音部分是在空旷的场地唱歌,而非声音刺激部分是人们在空旷场地唱歌的视觉图像。该概念也适用于方法900和方法1300、以及图10、11和12背后的概念,其中最初,所有声音被分组为相同的声音,而不管声音存在的环境,然后逐渐地接受者可以学习区分不同的声音和不同的混响环境。
还应当注意,该概念适用于方法200和相关方法(300、400、500等),其中第一输入是指示受混响环境影响的声音的听觉感知,并且第二输入是与混响环境有关的非听觉类型的输入(例如,当接受者在外面时割草机的声音与接受者在房子内时割草机的声音,人们在房间里说话的声音与人们在美国州际公路上以每小时55英里的速度行驶的汽车的声音等等)。利用受混响环境影响的声音的这一概念也适用于方法700。为了清楚起见,本文中利用声音/向接受者呈现声音的任何公开内容也对应于声音受混响环境影响或以其他方式基于影响声音的环境的替代实施例的公开内容。也就是说,可以修改本文中的任何公开内容以利用已经受混响环境影响的声音,前提是本领域能够实现这一点。
在示例性实施例中,呈现给接受者的声音可以针对相同基本声音的不同呈现具有不同的幅度,其中本文中详述的方法和系统用于训练接受者识别和/或区分不同的混响声音。对于相同基本声音的不同呈现,来自声音的多径回波的数目和幅度可以是不同的,其中本文中详述的方法和系统用于训练接受者识别和/或区分不同的混响声音。在示例性实施例中,本文中详述的方法和系统被配置为训练人脑在理解声音时补偿环境。伴随本文中的教导,呈现给具有不同混响特征的接受者的这些声音以非听觉/非声音输入(视觉、触觉等)以时间相关的方式呈现给接受者(时间上相关的,时间上紧密接近的等,如本文中详述的)。
因此,利用混响声音的示例性实施例可以涉及训练人工耳蜗接受者以关联不同声音在不同环境中“听起来”不同的程度。
在示例性实施例中,本文中详述的与混响声音有关的教导可以结合本文中详述的其他教导来使用。仅作为示例而非作为限制,可以首先利用本文中关于训练接受者识别或以其他方式区分声音种类的详细描述,然后在接受者被充分训练或以其他方式足以能够区分或以其他方式识别声音种类之后,接受者现在能够舒适地识别或区分的给定声音种类呈现在不同的混响环境中。因此,在示例性实施例中,本文中关于混响声音详述的技术是事件关联的扩展(例如,本文中详述的对象关联)。也就是说,将会有声音表明接受者不需要接受关于事件关联的训练,因此,在至少一些示例性场景中,对于某些声音,接受者将从混响声音识别/区分训练开始。
该概念也适用于方法1400、以及利用方法动作1420的方法,其中对人工耳蜗的接受者进行训练或重新训练,使得接受者能够利用虚拟现实识别和/或区分混响声音。
在示例性实施例中,训练或重新训练动作导致接受者能够以成功率识别不同混响环境中的声音,当在盲测试模式下仅暴露于完全纯净声音室中的那些声音时,成功率至少为50%、60%、70%、80%、90%或95%或100%或其间任何值或值范围,增量为1%(57%或更多、82%或更多、75%至93%等)。在示例性实施例中,训练或重新训练动作导致接受者能够以成功率识别不同混响环境中的给定声音,当在盲测试模式下仅暴露于完全纯净声音室中的那些声音时,与在执行方法动作1420之前的情况相比,成功率至少1.5倍、1.75倍、2.0倍、2.25倍、2.5倍、2.75倍、3倍、3.5倍、4倍、4.5倍、5倍、6倍、7倍、8倍、9倍或10倍或更多。
在示例性实施例中,本文中详述的关于训练接受者以更好地识别或以其他方式区分由于混响引起的声音的教导可以使接受者能够更好地识别给定声音和/或可以使接受者能够基于声音更好地识别他的或她的环境。接受者处理混响的能力对于接受者能够忽略由于混响引起的听觉输入的变化也具有实用价值。仅作为示例而非作为限制,当汽车通过地下通道和/或通过隧道等时,汽车的声音可以听起来不同。声音的这种变化可能对某些接受者来说可能是不安的。在示例性实施例中,接受者可能认为汽车存在问题,而其他正常听觉者将仅仅认识到这仅仅是汽车在通过地下通道时产生的声音的差异。
还应当注意,可以根据一些方法应用与环境的自己的语音交互。此外,在示例性实施例中,本文中详述的系统被配置为改变接受者语音的声音以适应给定环境。例如,考虑虚拟真实世界的环境是教堂,但接受者处于正常房间的情况。在一些实施例中,预先录制的声音可以是与遍历环境相对应的声音,但是接受者的声音将不对应于此。因此,系统可以将接受者的语音改变为在呈现给接受者的虚拟现实环境中的声音。作为示例性场景,考虑虚拟现实系统提供与例如教堂大厅相对应的环境的场景,尽管他们所站立的真实环境是没有周围对象的场地,因此声音反射很小。在这种情况下,当接受者说话时,他们会以干音(dry)的方式听到自己的声音,尽管虚拟现实环境将是高度混响的环境。系统可以被配置为将接受者自己的语音集成到虚拟现实环境中。仅作为示例而非作为限制,这可以通过假定接受者自己的声音来自虚拟环境中心来完成,并且音频线上的处理将声音从干信号修改为湿信号,如虚拟现实环境所描述的。还应当注意,修改自己的语音以反映虚拟环境的这个概念可以关于计算机游戏等具有实用价值。因此,在示例性实施例中,存在一种示例性方法,其中接受者自己的语音被修改为对应于或以其他方式更好地对应于给定的混响环境。这使得听觉感知对应于由虚拟现实系统呈现的给定混响环境而不同。
图17呈现示例性方法(方法1700)的示例性流程图,方法1700包括方法动作1710,方法动作1710包括执行方法动作1420,其中训练或重新训练动作包括提供与基于虚拟现实的非声音刺激耦合的所选择的声音场景(例如,视觉、触觉、嗅觉等)。方法1700还包括方法动作1720,方法动作1720包括确定接受者关于听觉的复原或康复速率。同样,与本文中详述的所有方法一样,除非另有说明或本领域不能实现,否则方法1700的方法动作可以以不同的顺序执行。因此,应当注意,在一些实施例中,方法动作1720可以在方法动作1710之前执行。在任何情况下,在示例性实施例中,确定接受者的复原或康复速率可以在制定用于提供声音场景的方案方面具有实用价值。在这方面,在示例性实施例中,在一些实施例中,可以向以高复原或康复速率进展的接受者提供更复杂的声音场景,而在其他实施例中,在一些实施例中,可以向以中等复原或康复速率进展的接受者提供平均复杂的声音场景,而在其他实施例中,在一些场景中,可以向以较低复原或康复速率进展的接受者提供不太复杂的声音场景。因此,在图17的实施例中,方法1700还包括方法1730,方法1730包括基于所确定的速率选择声音场景。在示例性实施例中,动作1720和1730可以由医疗保健专业人员等手动完成。在这方面,可以向接受者提供一系列测试以评估他或她在各个时间点的复原或康复,并且可以确定复原或康复的速率。或者,可以通过其他方式评估接受者的性能,诸如通过考虑接受者在一段时间内经历的声音场景的类型。如果声音场景的类型随着时间的推移表现出越来越高的复杂程度,则可以确定复原或康复的速度。此外,接受者可以自我诊断自己,并且向医疗保健专业人员提供这样的数据。
替代地,和/或除此之外,动作1720和1730可以半自动或自动执行。在这方面,在示例性实施例中,可以由用于执行方法1700的至少一部分的系统自动提供一系列测试。此外,接受者可以提示在他或她觉得他或她已经准备好继续进行更复杂的声音场景时向他或她自己提供测试。因此,系统可以向接受者提供测试。基于这些测试的结果,系统可以基于所确定的速率来选择声音场景。此外,在示例性实施例中,动作1720或1730中的一个可以自动或半自动地执行,动作1720和1730中的另一个可以手动执行,反之亦然,以及其任何组合。仅作为示例而非作为限制,可以以自动方式确定接受者关于听觉的复原或康复速率,但是基于所确定的速率选择声音场景的动作可以由专业人员手动执行,专业人员评估所确定的复原速率以选择声音场景。能够确定接受者关于听觉的复原或康复速率的任何设备、系统和/或方法、和/或能够基于所确定的比率选择声音场景的任何设备、系统和/或方法可以在至少一些中使用示例性实施例,假定本领域能够实现这一点。
应当注意,虽然刚刚描述的系统和方法已经根据确定接受者关于听觉的复原或康复的速率进行了描述,但应当注意,在一些替代实施例中,上述教导可以是也适用于确定复原或康复状态、或者可以在选择声音场景或本文中详述的其他类型的训练方案方面具有实用价值以供接受者提供或以其他方式使用的接受者的任何其他主观状态。因此,本文中关于确定复原或康复速率的装置或系统或方法的任何公开内容对应于确定接受者相对于他或她能够听到其他方式识别其不同声音等的状态的装置或系统或方法的替代实施例中的公开内容。
应当注意,虽然本文中详述的实施例涉及多个不同的声音场景和声音类型,但至少一些示例性实施例集中于语音。在这方面,在示例性实施例中,方法动作1420的声音是语音声音。在至少一些示例性实施例中,本文中详述的教导可以训练人工耳蜗接受者变得相对于在没有应用本文中详述的教导的情况下更熟练地识别语音的不同模式。在示例性实施例中,如上所述,表示声音的各种输入可以是与男性和女性说话相对应的种类事件,分别是老年人和年轻人说话、人们用各自不同的口音说话等。在示例性实施例中,本文中详述的方法和系统使得语音被生成或以其他方式提供给听觉植入物的接受者,该语音包括特征类属中的特定种类特征、以及相应的匹配的非听觉提示,诸如仅作为示例而非作为限制,视觉提示。在示例性实施例中,年轻人的语音可以与年轻人的图像的视觉提示相匹配。
还应当注意,在至少一些示例性实施例中,本文中详述的方法适用于训练接受者如何在人工耳蜗的帮助下更好地唇读。在这方面,在示例性实施例中,由本文中详述的系统提供的视觉图像通常是人类讲话,并且特别是在讲话时人类的嘴唇移动,与对应于这个人的语音的声音的音频提示相结合。在这方面,关于方法200,作为示例,人工耳蜗的激活基于对应于语音的第一输入唤起听觉感知,并且从方法200的虚拟现实系统接收的第二输入对应于一般说话的人的图像,特别是人的嘴唇移动的图像。应当理解,本文中详述的其他方法也适用于该训练方案。
因此,在至少一些示例性实施例中,本文中详述的教导可以在训练接受者以区分男性和女性的声音方面具有实用价值。因此,在方法800的示例性场景中,第一声音是女性的语音,第一非声音刺激是女性的视觉图像,第二声音是男性的语音,第二非声音刺激是男性的视觉图像。与本文中详述的其他方法一样,除非另有说明,否则短语“第一声音”和“第二声音”的使用不表示时间上领先,而是仅用于标识目的。在这方面,如上面关于至少一些上面详述的实施例所述,虽然方法动作820在流程图中被描绘为在方法动作810之后,但是这并不表示方法800要求方法820在方法810之后。这与特别指出第二声音和非声音刺激场景在第一声音和非标准刺激场景之后的实施例相反。
本文中详述的方法和系统的一些示例性实施例及其变型可以使得接受者能够训练他或她自己以识别或以其他方式欣赏更精细的语音点。这可以使得接受者能够在社交场合中变得更加舒适以使他或她自己暴露,并且使接受者重新融入社会。
关于使用本文中详述的教导训练接受者以更好地区分或以其他方式识别声音的功效,在示例性实施例中,利用盲完全纯净测试,参与方法和/或利用本文中详述的系统的给定接受者可以具有改进的识别给定声音或以其他方式区分给定声音的能力(其中根据本文中详述的教导呈现声音——语音、对象声音、经受混响的声音、基于位置的声音等)和/或确定声音的方向性(下面更详述),其与同样情况的人相比,至少为10%、15%、20%、25%、30%、35%、40%、45%、50%、55%、60%、70%、80%、90%、100%、120%、140%、160%、180%、200%、225%、250%、275%、300%、350%、400%、450%、500%、600%、700%、800%、900%、或1000%或更多(从统计学/人为因素上讲——相同年龄、相同性别、相同教育、没有正常听觉的相同时间长度、假体植入以来的相同时间(至少从统计学上讲)、假体植入年龄、相同智商、相同职业和/或相同背景等),而不使用本文中详述的方法和系统,其中所有其他条件相同。
应当注意,本文中详述的教导可以在训练接受者以更好地标识音乐中的细微差别方面具有实用价值。为此,图18表示示例性方法1800的示例性流程图,方法1800包括方法动作1810,方法动作1810包括执行方法200。方法1800还包括方法动作1820,方法动作1820包括激活人工耳蜗,使得人工耳蜗基于第三输入唤起听觉感知。在该示例性实施例中,第一输入基于由第一乐器演奏的音符,第三输入基于由与第一乐器不同类型的第二乐器演奏的音符。在示例性实施例中,第一乐器可以是小号,第二乐器可以是长号。在示例性实施例中,第一乐器可以是吉他,第二乐器可以是键盘或钢琴。方法1800还包括方法动作1830,方法动作1830包括从虚拟现实系统接收第四输入,同时利用人工耳蜗接收第三输入。在示例性实施例中,第二输入和第四输入是相应的第一乐器和第二乐器的图像。
应当理解,在示例性实施例中,方法1800可以扩展为包含仅仅两个乐器之外的附加乐器。
图19描绘了根据示例性实施例的示例性系统(系统1900)。系统1900包括虚拟现实子系统1910和听觉假体1920。虚拟现实子系统1910被配置为向听觉假体1920提供第一输出。关于虚拟现实子系统1910的其他细节将在下面参考图20更详述。听觉假体1920可以对应于上面详述的听觉假体100。听觉假体1920被配置为基于第一输出在其接受者中唤起听觉感知,虚拟现实子系统1910被配置为同时向听觉假体的接受者提供第二输出以唤起与听觉不同的第二感觉。在该实施例中,第二感觉是由导致听觉感知的现实物理现象引起的感觉。
在示例性实施例中,第一输出是声音信号,无论其是经由声学介质还是经由硬连线介质或无线介质以电子方式传输到人工耳蜗。在至少一些示例性实施例中,可以利用向听觉假体1920提供声音信号的任何设备、系统和/或方法,条件是这使得听觉假体能够基于该输出在接受者中唤起听觉感知。第二感觉是由导致听觉感知的现实物理现象引起的感觉。在示例性实施例中,这可以是产生声音的对象的图像(例如,具有作为割草机声音的声音、割草机的图像)。需要澄清的是,在示例性实施例中,系统1900被配置为实现本文中详述的一种或多种或所有方法和/或其变型。因此,系统1900包括用于以自动和/或半自动方式实现本文中详述的方法动作的计算机和处理器以及软件和固件等。在示例性实施例中,系统1900被配置为以半自动和/或自动方式实现本文中详述的一个或多个或所有方法动作。
从图19中可以看出,系统1900被配置为使得在虚拟现实子系统1910与听觉假体1920之间可以存在双向通信,或者存在从虚拟现实子系统1910到听觉假体1920的单向通信。另外注意,虚拟现实子系统1910可以是在两个或更多个位置之间分叉的子系统,如下面将更详述的。
在示例性实施例中,虚拟现实子系统是一组虚拟现实眼镜或护目镜,其包括或以其他方式链接到图像生成系统,诸如在台式计算机中生成呈现给计算机的显示器或屏幕的图像的子组件,其中飞行模拟器的子组件等生成在屏幕上显示给飞行员的图像等。虚拟现实子系统可以替代地是接受者所在的展位或房间,其具有链接到图像生成系统的视觉显示。更进一步,与上面详述的教导相一致,虚拟现实子系统可以包括喷嘴和风扇和灯以及用于模拟雨、风、闪电等的其他设备。虚拟现实子系统可以包括用于将气体泵入房间或朝向接受者的鼻子以模仿嗅觉的房间的出口。虚拟现实子系统还可以包括用于向接受者提供物质以模拟味觉的类似的饲管。
与本文中详述的教导相一致,系统1900被配置为通过唤起由对象产生的声音的听觉感知并且使用虚拟现实子系统呈现对象的图像来训练接受者进行声音对象关联。更进一步,与本文中详述的教导相一致,系统1900被配置为通过唤起声音的听觉感知并且向接受者提供指示声音的方向性起源的虚拟现实刺激来训练接受者进行声音位置关联。
关于提供指示声音的方向性起源的、对接受者的虚拟现实刺激的该阶梯实施例,在示例性实施例中,存在涉及训练接受者以更好地定位声音的设备和系统和方法。在示例性实施例中,本文中详述的系统和方法可以用于帮助接受者开发和/或重新开发声音定位技能。在至少一些场景中,声音定位基于由双耳接收的声音之间的入口级定时(ITD)和级间响度(ILD)差异。因此,在示例性实施例中,虚拟现实子系统可以包括软件和/或固件和硬件,诸如处理器等,以向听觉假体提供输出,使得由听觉假体演变的听觉感知具有不同ITD和/或ILD,从而提供方向性分量以唤起听觉感知。在一些示例性实施例中,系统1900被配置为对于单侧植入人工耳蜗的接受者,或者在一侧具有人工耳蜗而在另一侧具有传统助听器的双模式接受者来执行该操作。在一些示例性实施例中,系统1900被配置为对于双耳植入人工耳蜗的接受者执行该操作。在这方面,在示例性实施例中,处理器可以经由编程被配置为向一个或多个人工耳蜗提供输出,使得ITD和/或ILD向声音提供方向性分量。
在示例性实施例中,系统1900被配置为利用受控ITD和/或ILD生成到双耳的音频信号,以对应于声音起源的不同位置。与本文中详述的教导相一致,在示例性实施例中,系统提供与为生成声音/由声音产生的事件的对象所呈现的位置相对应的匹配的视觉刺激。更进一步地,在示例性实施例中,系统提供与为生成声音/由声音产生的事件的对象所呈现的位置相对应的匹配的触觉刺激。仅作为示例而非作为限制,风的声音可以与从接受者的一侧吹而不是接受者的另一侧向接受者的风相结合,风可以由风扇生成。在示例性实施例中,本文中详述的教导使得人工耳蜗能够重新训练大脑以感知不同的提示以从声音推断位置信息。
在示例性实施例中,本文中详述的与局部声音有关的教导可以结合本文中详述的其他教导来使用。仅作为示例而非作为限制,可以首先利用本文中关于训练接受者识别或以其他方式区分声音种类的详细描述,然后在接受者被充分训练或以其他方式足以能够区分或以其他方式识别声音种类之后,接受者现在能够舒适地识别或区分的给定声音种类呈现在不同的局部环境中。因此,在示例性实施例中,本文中关于局部声音环境详述的技术是事件关联的扩展(例如,本文中详述的对象关联)。也就是说,将会有声音表明接受者不需要接受关于事件关联的训练,因此,在至少一些示例性场景中,对于某些声音,接受者将从局部声音识别/区分训练开始。
该概念也适用于方法1400、以及利用方法动作1420的方法,其中对人工耳蜗的接受者进行训练或重新训练,使得接受者能够利用虚拟现实识别和/或区分局部声音。
在示例性实施例中,训练或重新训练动作导致接受者能够以成功率识别局部声音(即,正确地确定声音来自哪个方向),当在盲测试模式下仅暴露于完全纯净声音室中的那些声音时,成功率至少为50%、60%、70%、80%、90%或95%或100%或其间任何值或值范围,增量为1%(57%或更多、82%或更多、75%至93%等)。在示例性实施例中,训练或重新训练动作导致接受者能够以成功率识别不同位置环境中的给定声音的位置,当在盲测试模式下仅暴露于完全纯净声音室中的那些声音时,与在执行方法动作1420之前的情况相比,成功率至少为1.5倍、1.75倍、2.0倍、2.25倍、2.5倍、2.75倍、3倍、3.5倍、4倍、4.5倍、5倍、6倍、7倍、8倍、9倍或10倍或更多。
在示例性实施例中,系统可以在没有匹配的视觉刺激的情况下测试接受者的定位感知,以便基于接受者正确地或以其他方式有效地识别声音的位置起源的能力来确定或以其他方式获取数据。
如上所述,本文中详述的设备和系统可以被配置为检测接受者头部的移动,诸如接受者头部在一个方向或另一方向上的移动方向,其应当指示来自接受者感知声音的起源方向。在这样的示例性实施例中,系统和/或设备可以被配置为确定接受者是否适当地或正确地感知到声音的起源方向。因此,在示例性实施例中,虚拟现实系统可以包括加速度计和/或图像捕获设备(相机)或定位设备(激光器或RF定位器等)以确定或以其他方式跟踪接受者头部的移动。在示例性实施例中,虚拟现实系统被配置为检测或以其他方式确定接受者移动他或她的头部的方向,并且处理诸如来自接受者的指示接受者感知的给定声音的起源方向的反馈。
在至少一些示例性实施例中,系统1900被配置为通过唤起声音的听觉感知并且提供听到具有给定混响的声音的环境的图像来训练接受者进行混响声音识别。在示例性实施例中,系统1900被配置为执行本文中关于混响声音训练而详述的一个或多个或所有方法动作。更进一步地,在示例性实施例中,听觉假体的第一输出唤起混响声音的听觉感知,并且系统被配置为使用虚拟现实子系统提供与听到混响声音的环境相对应的视觉提示。
在示例性实施例中,该系统被配置为提供视觉感觉作为第二感觉并且提供第三策略性感觉(tactical sensation),第三策略性感觉也是由导致听觉感知的现实物理现象引起的(例如,两冲程发动机操作的声音、割草机的图像、和烧焦油的气味)。
此外,在示例性实施例中,该系统被配置为通过唤起语音的听觉感知并且提供说话者的图像来训练接受者识别和/或区分语音类型。
与本文中详述的教导相一致,在示例性实施例中,系统被配置为基于指示接受者不能将场景与另一场景区分开的输入来自动选择给定的听觉第二感觉场景以提供给接受者。类似的情况。在示例性实施例中,输入可以来自医疗保健专业人员等,或者来自接受者自己。在示例性实施例中,输入来自提供给接受者的测试。在示例性实施例中,输入对应于由系统获取的关于接受者区分场景的能力相关的数据。
应当注意,本文中对具有功能的系统或设备的任何公开内容对应于使用该系统和/或设备的方法以及与该功能相对应的方法的公开内容。因此,关于系统1900,存在一种方法,其需要获取对虚拟现实子系统和听觉假体的访问,从虚拟现实子系统向听觉假体提供第一输出,基于第一输出利用听觉在其接受者中唤起听觉感知,同时向听觉假体的接受者提供第二输出以引起与听觉不同的第二感觉,其中第二感觉是由导致听觉感知的现实物理现象引起的感觉。
在示例性实施例中,存在一种方法,其包括本文中详述的任何方法动作和/或其变型、以及利用根据本文中详述的任何系统和/或其变型的系统以通过唤起由对象产生的声音的听觉感知并且使用虚拟现实子系统呈现对象的图像来训练接受者进行声音对象关联。在示例性实施例中,存在一种方法,该方法包括根据本文中详述的任何系统获取对系统的访问,并且利用该系统以通过唤起声音的听觉感知并且向接受者提供指示声音的方向性起源的虚拟现实刺激来训练接受者进行声音位置关联。更进一步地,在示例性实施例中,存在一种方法,该方法包括根据本文中详述的任何系统获取对系统的访问,并且利用该系统以通过唤起声音的听觉感知并且提供听到具有给定混响的声音的环境的图像来训练接受者进行混响声音识别。更进一步地,在示例性实施例中,存在一种方法,该方法包括根据本文中详述的任何系统获取对系统的访问,并且利用该系统以通过唤起语音的听觉感知并且提供说话者的图像来训练接受者识别和/或区分语音类型。
更进一步地,在示例性实施例中,存在一种方法,该方法包括根据本文中详述的任何系统获取对系统的访问,并且利用该系统以提供视觉感觉作为第二感觉并且提供第三策略性感觉,第三策略性感觉也是由导致听觉感知的现实物理现象引起的。更进一步地,在示例性实施例中,存在一种方法,该方法包括根据本文中详述的任何系统获取对系统的访问,并且利用该系统以基于指示接受者不能将场景与另一类似场景区分开的输入来自动选择给定的听觉第二感觉场景以提供给接受者。更进一步地,在示例性实施例中,存在一种方法,该方法包括根据本文中详述的任何系统获取对系统的访问,并且利用该系统以使得对听觉假体的第一输出唤起混响声音的听觉感知,并且系统提供与使用虚拟现实子系统听到混响声音的环境相对应的视觉提示。
在至少一些示例性实施例中,本文中详述的任何感官输入的任何公开内容(无论是直接还是间接)可以由虚拟现实系统生成或以其他方式提供,并且因此本文中详述的接受者的任何感官输入的任何公开内容对应于仅作为示例而非作为要求的用于经由虚拟现实系统向接受者提供感官输入的公开内容。
应当注意,本文中关于用于训练接受者的系统和方法和装置而详述的教导被配置为和/或在一些实施例中导致接受者的神经系统的可塑性的诱导。在示例性实施例中,本文中详述的训练将可塑性引入大脑,以使得大脑能够以与正常听觉用户所感知的方式更一致的方式感知声音,或者至少使得接受者能够更好地将声音与事件/对象相关联,和/或更好地确定声音的方向性。
简要地,应当注意,取决于实施例,本文中的任何方法动作可以自动、半自动或手动执行。
不受理论束缚,据信,本文中详述的系统和方法包括以下事实:对于人工耳蜗用户,将与正常听觉者不同的信号模式发送到大脑(其中包括使用标准助听器的人,其中声音被简单地放大,并且接受者将声音接收到与没有听觉损伤的正常听觉者相同的听觉通路中)。因此,在与正常听觉者的耳蜗相关联的电刺激因此与通过人工耳蜗对耳蜗的电刺激不同的示例性场景中,在一些实施例中,本文中详述的教导可以训练大脑重新建立声音输入的视觉或其他非听觉传感输入的关联。
关于对象关联(以及因此事件关联),在至少一些示例性实施例中,执行方法并且利用本文中详述的系统,训练或重新训练人工耳蜗接受者的大脑以将声音与对象相关联。虽然上面详述的实施例在很多情况下针对相对较大的对象(或者更准确地说,当在操作中使用时产生相对响亮的声音的对象),但是还应当注意,本文中详述的教导可以适用于相对安静或产生相对中性的背景噪声(否则可能会忽略)的对象。仅作为示例而非作为限制,诸如操作中的咖啡机、操作中的复印机、操作中的打印机、风扇等声音。根据本文中详述的方法和系统,可以使用它们可以由音频提示表示并且具有相关的视觉、触觉或其他感官提示的任何声音。因此,在示例性实施例中,本文中详述的方法和系统可以引起接受者学习将音频提示与视觉提示或其他感官提示相关联。
关于位置关联(以及因此事件关联),在至少一些示例性实施例中,执行方法并且利用本文中详述的系统,训练或重新训练人工耳蜗接受者的大脑以确定声音的起源。因此,在示例性实施例中,本文中详述的方法和系统可以引起接受者学习将音频指示提示与视觉提示或其他感官提示相关联。
应当注意,本文中详述的虚拟现实系统可以是完全基于接受者的系统,和/或可以是在两个或更多个地理区域之间二分或三分或以其他方式划分并且可能通过因特网等链接到彼此的系统。还应当注意,在至少一些示例性实施例中,尽管已经根据利用虚拟现实技术的虚拟现实系统给出了本文中的公开内容,但是在一些替代实施例中,可以使用基于非虚拟现实的标准技术。因此,本文中的基于虚拟现实的系统或方法的任何公开内容对应于关于使用非虚拟现实系统的替代实施例的公开内容,反之亦然。
现在将在接受者操作系统的上下文中描述能够实现本文中详述的教导的示例性系统和示例性设备/设备,其在至少一些实施例中可以利用自动化。也就是说,示例性实施例包括至少部分由接受者执行本文中详述的一种或多种或所有方法及其变型。
图20是示出一个示例性装置的示意图,其中系统1206可以用于与听觉假体(诸如人工耳蜗系统100)的使用相结合执行本文中详述的一个或多个或所有方法动作。系统1206将至少部分地在与接受者的交互方面来描述。在示例性实施例中,系统1206是接受者控制的系统。实际上,在至少一些示例性实施例中,本文中详述的一些或所有方法和/或其变型的实现至少部分是接受者指导的。也就是说,在至少一些示例性替代实施例中,本文中详述的一些或所有方法和/或其变型的实现至少部分是临床医生指导的。
在示例性实施例中,系统1206可以是根据本文中详述的方法动作具有附加功能的系统。在图20所示的实施例中,人工耳蜗系统可以直接连接到系统1206以在语音处理器100与系统1206之间建立数据通信链路1208。此后,系统1206通过数据通信链路1208与语音处理器100双向耦合。虽然图20中描绘的实施例描绘了经由电缆连接的系统1206和听觉假体,但是在至少一些实施例中,可以利用将能够实现可通信地耦合植入物和系统的本文中详述的教导的任何通信链路。
系统1206可以包括系统控制器1212以及用户接口1214。控制器1212可以是能够执行指令的任何类型的设备,例如,通用或专用计算机、手持计算机(例如,个人数字助理(PDA))、数字电子电路、集成电路、专门设计的ASIC(专用集成电路)、固件、软件和/或其组合。如下面将详述的,在示例性实施例中,控制器1212是处理器。控制器1212还可以包括用于与设备100(例如,人工耳蜗100)建立数据通信链路1208的接口。在控制器1212包括计算机的实施例中,该接口可以在例如计算机内部或外部。例如,在一个实施例中,控制器1212和人工耳蜗可以各自包括USB、火线、蓝牙、Wi-Fi或其他通信接口,通过这些接口可以建立数据通信链路1208。控制器1212还可以包括用于存储信息的存储设备。该存储设备可以是例如易失性或非易失性存储器,例如随机存取存储器、固态存储器、磁存储器、全息存储器等。
用户接口1214可以包括输出1222和输入接口1224,输出1222可以对应于虚拟现实输出(图像、触觉、嗅觉等)和/或还可以对应于非虚拟现实输出(通用计算机显示器、通用电视屏幕等)。输出1222可以是例如任何类型的显示设备,例如,通常与计算机系统一起使用的那些显示设备。在示例性实施例中,元件1222对应于被配置为向接受者1202可视地显示与产生声音的对象或事件相对应的图像的设备,和/或可视地显示接受者所在的环境,如上所述。
在示例性实施例中,用户接口1214被配置为接收如本文中详述的一个或多个或所有数据和/或其变型。仅作为示例而非作为限制,接口可以使得接受者能够输入对测试的答案和/或输入指示接受者想要训练的听觉场景类型的数据。在示例性实施例中,如下面将更详述的,用户接口1214被配置为使得接受者能够输入与本文中详述的任何方法动作和/或其变型有关的数据。在示例性实施例中,用户接口1214被配置为根据本文中详述的教导从接受者接收反馈,无论其是否是接受者将信息输入系统1206的肯定动作,还是系统1206如本文中详述地用相机或其他传感器监测接受者。还应当注意,在示例性实施例中,用户接口1214被配置为向接受者提供测试。应当注意,本文中使用的术语数据包括本文中详述的任何输入和/或输出。
输入接口1224可以是能够从患者接收信息的任何类型的接口,例如计算机键盘、鼠标、语音响应软件、触摸屏(例如,与输出1222集成)、麦克风(例如,可选地与语音识别软件等耦合)、视网膜显示器(其可以在跟踪接受者的眼睛方面具有实用价值,其可以指示接受者感知声音的起源的方向)、操纵杆、和现在或以后开发的任何其他数据输入或数据呈现格式。应当注意,在示例性实施例中,输出1222和输入接口1224可以是相同的组件,例如,在触摸屏的情况下。在示例性实施例中,输入接口1224是被配置为从接受者接收指示由输出1222呈现的多个单词中的一个或多个的选择的输入的设备。
在示例性实施例中,输出1222被配置为显示本文中详述的传达给接受者的一些或全部信息。仅作为示例而非作为限制,在示例性实施例中,输出1222被配置为显示图表,图表示出了接受者的复原和/或康复速率和/或接受者的复原和/或康复状态。也就是说,替代地,和/或除此之外,用户接口1214被配置为向接受者提供听觉数据。
当然,在一些实施例中,系统被配置为向接受者呈现可听单词或多个单词或单词的句子,使得可以在听觉上执行本文中详述的测试动作。
应当注意,在至少一些示例性实施例中,系统1206被配置为执行本文中详述的一个或多个或所有方法动作,其中系统1206的各个子组件以其传统方式相对于本文中详述的给定方法动作来使用。仅作为示例而非作为限制,系统1206的控制器1212被配置为获取指示接受者区分和/或识别和/或确定声音的起源位置的能力等的数据。在这方面,作为示例,“获取”表示控制器1212(其在至少一些实施例中可以对应于处理器)计算数据本身(从而获取数据)。
在示例性实施例中,系统1206对应于图19的子系统1910。那就是说,在替代实施例中,系统1206对应于非虚拟现实系统。在示例性实施例中,系统1206还被配置为向设备100(例如,人工耳蜗100)呈现本文中关于本文中详述的方法而详述的声音。在示例性实施例中,系统1206包括生成与由听觉假体100的麦克风拾取的可听句子相对应的声学信号的扬声器等。在替代实施例中,系统1206被配置为通过绕过其麦克风向听觉假体处理器提供非声学信号(例如,电信号),从而向听觉假体提供可听声音。在至少一些实施例中,可以使用被配置为从接受者接收输入的任何设备、系统和/或方法。
还应当注意,在至少一些实施例中,语音识别算法可以与反馈系统耦合,该反馈系统向接受者呈现指示语言识别算法感知为接受者说出的内容的信息。以这种方式,可以向接受者提供系统认为说出的内容的指示,并且如果存在误解,则可以关于接受者实际说出的内容来校正系统(例如,通过接受者重复单词,接受者输入实际的单词,等等)。
在示例性实施例中,处理器1212被配置为评估所接收的输入以用于感知的单词/句子与可听单词/句子之间的一致性。在示例性实施例中,这需要将接受者在触摸屏上触摸的单词/句子与形成可听句子的基础的单词/句子进行比较。在另一示例性实施例中,这需要将基于麦克风捕获的接受者的响应的来自语音识别软件的数据与形成可听句子基础的单词/句子进行比较。
更具体地,参考系统1206,在示例性实施例中,系统1206是被配置为执行动作220并且产生上面详述的动作230的第二输入的系统。在示例性实施例中,系统1206是被配置为产生上面详述的方法动作320的第三输入、上面详述的方法动作420的第四输入、和/或上面详述的方法动作520的输入的系统。在示例性实施例中,系统1206是被配置为自动和/或半自动地指导上面详述的方法200、300、400、500和600和700的执行的系统。在示例性实施例中,系统1206被配置为提供上面详述的方法动作810和方法动作820的非声音刺激,并且控制人工耳蜗以产生上面详述的方法动作810和方法动作820的声音刺激部分。
在示例性实施例中,系统1206被配置为执行方法动作920并且指导上面详述的方法910和930的执行,以及提供关于第三声音和非声音刺激场景的非声音刺激部分,以及控制听觉假体产生方法动作930的第三声音部分。
在示例性实施例中,系统1206被配置为执行方法动作1320、1330,并且指导方法动作1310和1340的执行,包括提供方法动作1340的非声音刺激部分,以及控制人工耳蜗或其他听觉假体产生方法动作1340的第三声音部分。在示例性实施例中,系统1206被配置为执行方法动作1420。在示例性实施例中,系统1206被配置为执行方法动作1520和1530。在示例性实施例中,系统1206被配置为执行方法1600和/或方法1700的方法动作中的任何一个或多个。在示例性实施例中,系统1206被配置为执行方法动作1820和/或方法动作1830,和/或以其他方式指导方法200的执行。
在示例性实施例中,处理器1212被配置为开发在实现本文中详述的方法和/或系统方面具有实用价值的任何数据和/或以其他方式在实现本文中详述的方法和/或系统方面具有实用价值的任何数据。
在示例性实施例中,系统1206被配置为执行遗传算法以选择给定的刺激场景。在示例性实施例中,系统1206利用机器学习来执行本文中详述的一个或多个方法动作。
应当注意,上面详述的系统1206可自动执行本文中详述的一个或多个或所有动作和/或其变型,至少不需要接受者动作的那些动作。注意,图20的示意图是功能性的。在一些实施例中,系统1206是独立设备(例如,膝上型计算机、所谓的智能电话等),其被配置为执行本文中详述的一个或多个或所有方法动作和/或其变型,除了利用接受者和/或听觉学家而没有从外部来源接收输入的那些动作。在替代实施例中,系统1206是具有位于不同地理位置的组件的系统。仅作为示例而非作为限制,用户接口1214可以与接受者一起定位,并且系统控制器(例如,处理器)1212可以远离接受者定位。仅作为示例而非作为限制,系统控制器1212可以经由因特网和/或经由蜂窝通信技术等与用户接口1214通信。实际上,在至少一些实施例中,系统控制器1212还可以经由因特网和/或经由蜂窝通信等与设备100通信。在示例性实施例中,用户接口1214可以是便携式通信设备,诸如仅作为示例而非作为限制,手机和/或所谓的智能电话。实际上,用户接口1214可以用作膝上型计算机等的一部分。在至少一些实施例中,可以利用能够实现系统1206和/或能够实现本文中详述的教导和/或其变型的系统的任何布置。
因此,示例性实施例需要执行本文中详述的一些或所有方法动作,其中听觉假体的接受者远离(例如,地理上远离)执行本文中详述的至少一些方法动作(例如,可以经由控制器1212执行的本文中详述的任何方法动作)的位置。例如,流程图200的方法可以经由与听觉假体和控制器1212的互联网通信来执行。实际上,在示例性实施例中,方法动作210可以在位置A处执行,方法220可以在位置B处执行,并且方法230可以在位置A处执行。位置B可以是例如远程服务器的位置,其中位置A经由远程服务器“连接”。也就是说,本文中的任何方法动作可以在一个位置执行,并且本文中的任何方法动作可以在另一位置执行,等等,条件是可以实践本文中详述的教导和/或其变型。
还应当注意,在至少一些实施例中,系统1206可以使得本文中详述的教导和/或其变型能够至少在没有临床医生(例如,听觉学家)的直接参与的情况下实现。实际上,在至少一些实施例中,本文中详述的教导和/或其变型中至少一些可以在没有临床医生完全参与的情况下实现。在一个替代实施例中,本文中详述的教导和/或其变型中的至少一些可以以如下这样的方式实现,即临床医生仅在该过程中以其他方式交互涉及他或她自己以验证结果是可接受的或者否则采取了所期望的动作。在上文中,应当注意,在至少一些实施例中,可以实现计算机化的自动化应用以评分或以其他方式确定本文中详述的任务的结果(例如,收听任务和/或存储器任务)。
应当注意,本文中详述的任何方法还对应于被配置为执行与本文中详述的相关联的一个或多个或所有方法动作的设备和/或系统的公开内容。在示例性实施例中,该设备和/或系统被配置为以自动方式执行一个或多个或所有方法动作。也就是说,在替代实施例中,设备和/或系统被配置为在由接受者和/或临床医生提示之后执行一个或多个或所有方法动作。
还应当注意,本文中详述的具有功能的任何设备和/或系统也对应于在方法动作中包括这样的功能的方法的公开内容。还应当注意,本文中详述的任何设备和/或系统还对应于操作或以其他方式利用该设备的方法的公开内容。
本文中详述的任何实施例可以与本文中详述的任何其他实施例组合,除非明确声明不能这样做或本领域不能实现触摸实施例。在这方面,本文中详述的任何单个方法动作可以与本文中详述的任何其他单个方法动作组合,尽管有上述注意事项。
应当注意,本文中详述的任何方法还对应于被配置为执行与本文中详述的相关联的一个或多个或所有方法动作的设备和/或系统的公开内容。在示例性实施例中,该设备和/或系统被配置为以自动方式执行一个或多个或所有方法动作。也就是说,在替代实施例中,设备和/或系统被配置为在由接受者和/或临床医生提示之后执行一个或多个或所有方法动作。
应当注意,实施例包括其上记录有用于执行本文中详述的一个或多个或任何方法动作的计算机程序的非暂态计算机可读介质。实际上,在示例性实施例中,存在其上记录有计算机程序的非暂态计算机可读介质,计算机程序用于执行方法200、方法300、方法400、方法500、方法600、方法700、方法800、方法900、方法1300、方法1400、方法1500、方法1600、方法1700和/或方法1800的至少一部分,包括所有方法。
更进一步地,在示例性实施例中,介质包括用于向接受者提供本文中详述的测试中的至少一个的代码,该测试使得能够确定接受者的速率和/或进展。
图21描绘了示例性方法(方法2100)的另一示例性流程图,方法2100包括方法动作2110,方法动作2110包括选择用于训练的场景,例如,所选择的场景可以是本文中详述的任何场景或其变型,而无论是对象关联和/或区分、混响训练、定位训练等。方法2100还包括方法动作2120,方法动作2120包括渲染音频和非音频提示,其中非音频提示可以是视觉的、或本文中详述的任何其他非音频提示。方法动作2130在方法动作2120之后,方法动作2130包括获取用户反馈。在示例性实施例中,这可以是本文中详述的任何类型的反馈和/或本文中详述的任何反馈介质和/或其变型。此外,应当注意,关于本文中详述的方法,其中如上所述,本文中详述的方法彼此不相互排斥,并且这可以彼此同时实现和/或可以彼此组合方法的部分,可以在重复的基础上针对每个场景执行获取接受者反馈的动作,诸如在给定场景的呈现之后和/或同时。在方法动作2140,处理接受者响应,诸如如确定接受者是否已经正确标识或以其他方式区分给定声音与另一声音等。可以看出,数据库是基于已处理的接受者响应来更新的,并且该更新后的数据库可以用于选择场景。与上面详述的教导相一致,在示例性实施例中,给定场景的选择可以对应于基于接受者的复原和/或康复速率和/或复原和/或康复的状态来选择给定场景的复杂程度,其中复原和/或康复数据可以存储在数据库中并且可以至少部分基于处理后的用户响应来到达。
在示例性实施例中,根据本文中详述的教导,本文中详述的虚拟现实系统被配置为使接受者感觉他/她正在看到“在运动中”的事物并且体验到实际上在同一时间和/或在时间上接近或在时间上彼此对准的声音。本文中详述的教导的实施例提供了定制的和渐进的增强的训练方案,其中系统可以用基本听觉简档开始接受者。当接受者熟悉声音时,系统可以开始训练接受者以实现一定程度的自导向适配,从而有可能改善听觉结果并且简化适配过程。使用该系统,接受者可以已经与实际适配会话所涵盖的大多数设置相适配。这使得接受者能够以更有效和更具成本效益的方式在安全的环境中为自己做出改变,并且减轻临床医生的一些工作。当新植入的接受者到达实际的适配时间的时间到来时,临床医生将仅进行微小的适当调节。虚拟现实声音环境允许用户与将分配上述声音的该环境的对象进行交互。
在关于适配的示例性实施例中,可以向接受者提供“原始”声音,并且接受者可以实时地或以迭代方式调节听觉假体的设置,其中原始声音呈现给植入物并且因此呈现给接受者,使得接受者可以将人工耳蜗调节到他或她的喜好或以其他方式调节到实用的环境。进一步注意,在至少一些示例性实施例中,可以提供本文中关于声音区分、位置训练、混响声音训练和语音训练的详细描述,以使得接受者能够调节他或她的植入物上的适配设置。更进一步地,在示例性实施例中,本文中详述的系统可以以迭代方式和/或基于来自接受者的反馈自动调节设置,以便微调或以其他方式提供对假体的适配的调节。在示例性场景中,例如关于本文中详述的方法,其中提供两种不同的声音种类,可以调节植入物的设置,使得被感知为两个不同对象的声音与接受者明显不同。也就是说,可以对人工耳蜗的适配进行调节,以增强对象和/或事件所发出的声音的差异,从而当接受者听到真实世界的声音时,接受者将能够更好地区分和/或识别给定声音。
因此,在示例性实施例中,存在一种示例性方法,其提供本文中详述的给定声音场景与本文中详述的非声音刺激相结合,并且调节植入物的适配设置以改善或以其他方式增加感知声音的差异,或者以其他方式改善对给定声音的识别,其中在训练会话之后保持这些适配设置。更进一步地,应当理解,这些教导可以适用于与提供不同类型的语音相关联的场景。因此,在示例性实施例中,存在一种示例性方法,其提供本文中详述的给定语音场景与本文中详述的非声音刺激相结合,并且调节植入物的适配设置以改善或以其他方式增加声音中的感知差异,或者以其他方式改善对给定声音的识别,其中在训练会话之后保持这些适配设置。“在训练会话之后保持”包括存储给定声音场景的多个设置的能力,接受者可以在给定设置之间改变。
此外,在示例性实施例中,存在一种示例性方法,其提供本文中详述的给定混响环境和/或声音位置场景与本文中详述的非声音刺激相结合,并且调节植入物的适配设置以改善或否则增加声音中的感知差异,或者以其他方式改善对给定声音的识别,其中在训练会话之后保持这些适配设置。在示例性实施例中,该系统可以用于训练接受者习惯于涉及方向性调节/波束成形的信号处理算法和/或其他信号处理算法。系统可以使接受者暴露于听觉环境如何在算法开启/参与的情况下以及在没有算法开启/参与的情况下感知,以理解、评估和微调算法/控制设置。
图22给出了具有围绕接受者定向的对象的虚拟现实空间的概念示意图。在示例性实施例中,在虚拟现实空间中,接受者可以面对给定对象,使得他或她然后可以听到产生噪声的对象,并且可以调节接受者的声音以反映如下这样的事实:接受者正在改变他或她的头部位置。因此,在示例性实施例中,存在一种提供接受者声音输入的方法,该接受者声音输入随着接受者转动他或她的头部而随接受者的视角变化而变化。如将从图22中理解的,关于多个对象,声音可以相对于哪些对象在接受者的视角内彼此支配,因此一些示例性实施例包括提供声音以彼此支配的方法。应当理解,在示例性实施例中,存在一种用于执行上述方法的系统。
鉴于以上所述,可以看出,在示例性实施例中,存在一种方法,其包括获取对虚拟现实系统的访问;激活人工耳蜗,使得人工耳蜗基于第一输入唤起听觉感知;以及与基于第一输入的听觉感知的唤起在时间上接近地,从虚拟现实系统接收第二输入,其中人工耳蜗基于第一输入唤起听觉感知,并且第二输入与第一输入相关。在示例性实施例中,该方法还包括激活人工耳蜗的动作,使得人工耳蜗基于第三输入唤起听觉感知;在接收第三输入的同时利用人工耳蜗从虚拟现实系统接收第四输入,其中第一输入基于第一乐器演奏的音符;第三输入基于由与第一乐器不同类型的第二乐器演奏的音符;第二输入和第四输入是相应的第一乐器和第二乐器的图像。
在示例性实施例中,存在一种系统,其包括虚拟现实子系统;以及听觉假体,其中虚拟现实子系统被配置为向听觉假体提供第一输出,听觉假体被配置为基于第一输出在其接受者中唤起听觉感知,虚拟现实子系统被配置为同时向听觉假体的接受者提供第二输出以引起与听觉不同的第二感觉,并且第二感觉是由导致听觉感知的现实物理现象引起的感觉。在示例性实施例中,该系统使得听觉假体的第一输出引起混响声音的听觉感知;系统被配置为使用虚拟现实子系统提供与听到混响声音的环境相对应的视觉提示。
在示例性实施例中,存在一种方法,其包括:第一动作,基于指示第一声音的输入,在听觉假体的接受者中唤起人工听觉感知;第二动作,接收第一视觉输入,其中第一视觉输入与第一声音相关,其中第二动作与第一动作以有效时间相关的方式执行;并且重复第一动作和第二动作,从而提高接受者识别第一声音的能力。在该方法的示例性实施例中,第一视觉输入表示静态对象。
在示例性实施例中,存在一种方法,其包括训练或重新训练人工耳蜗的接受者以使用虚拟现实来识别和/或区分声音。在该方法的示例性实施例中,该方法还包括确定接受者关于听觉的复原或康复速率;并且基于所确定的速率选择声音场景,其中训练或重新训练动作包括提供与基于虚拟现实的非声音刺激耦合的所选择的声音场景。
还应当注意,本文中详述的任何装置和/或系统还对应于操作该装置和/或使用该装置的方法的公开内容。此外,本文中详述的任何设备和/或系统还对应于制造或以其他方式提供该设备和/或系统的公开内容。
虽然上面已经描述了本发明的各种实施例,但是应当理解,它们仅以示例的方式呈现,而非作为限制。对于相关领域的技术人员很清楚的是,在不脱离本发明的精神和范围的情况下,可以在形式和细节上进行各种改变。

Claims (29)

1.一种用于声音听觉训练的方法,包括:
训练或重新训练人工耳蜗的接受者以使用虚拟现实来识别和/或区分声音;
确定所述接受者的听觉复原或康复过程的阶段,在所述过程中使所述接受者识别各个事件种类的不同声音之间的差异;以及
基于所确定的所述阶段,选择声音场景,
其中所述训练或重新训练的动作包括提供与基于虚拟现实的非声音刺激耦合的、所选择的所述声音场景。
2.根据权利要求1所述的方法,还包括:
获取对虚拟现实系统的访问;
激活所述人工耳蜗,使得所述人工耳蜗基于第一输入唤起听觉感知;以及
在时间上接近基于所述第一输入唤起所述听觉感知的情况下,从所述虚拟现实系统接收第二输入,其中
所述人工耳蜗基于所述第一输入唤起听觉感知,并且
所述第二输入与所述第一输入相关。
3.根据权利要求2所述的方法,其中:
所述第一输入由所述虚拟现实系统生成。
4.根据权利要求2所述的方法,其中:
所述第二输入是视觉输入。
5.根据权利要求4所述的方法,还包括:
在时间上接近基于所述第一输入唤起所述听觉感知的情况下,接收由所述虚拟现实系统生成的第三输入,其中所述第三输入是与所述第一输入或所述第二输入不同类型的输入。
6.根据权利要求5所述的方法,其中:
所述第三输入是触觉输入。
7.根据权利要求5所述的方法,其中:
所述第三输入是嗅觉输入。
8.根据权利要求2所述的方法,其中:
所述第一输入表示事件类属的事件种类;并且
所述第二输入表示所述事件种类。
9.根据权利要求2所述的方法,其中:
所述第一输入和所述第二输入由所述虚拟现实系统生成,并且所述第二输入是声音生成物的视觉输入。
10.一种用于声音听觉训练的系统,包括:
虚拟现实子系统;以及
听觉假体,其中
所述虚拟现实子系统被配置为向所述听觉假体提供第一输出,
所述听觉假体被配置为基于所述第一输出在所述听觉假体的接受者中唤起听觉感知,
所述虚拟现实子系统被配置为同时向所述听觉假体的所述接受者提供第二输出以唤起与听觉不同的第二感觉,并且
所述第二感觉是由导致所述听觉感知的现实物理现象引起的感觉,其中
所述系统被配置为通过唤起声音的听觉感知并且提供在其中具有给定混响的声音被听到的环境的图像来训练所述接受者进行混响声音识别。
11.根据权利要求10所述的系统,其中:
所述系统被配置为通过唤起由对象产生的声音的听觉感知并且使用所述虚拟现实子系统呈现所述对象的图像来训练所述接受者进行声音-对象关联。
12.根据权利要求10所述的系统,其中:
所述系统被配置为通过唤起声音的听觉感知并且向所述接受者提供指示所述声音的方向性起源的虚拟现实刺激来训练所述接受者进行声音-位置关联。
13.根据权利要求10所述的系统,其中:
所述系统被配置为通过唤起语音的听觉感知并且提供说话者的图像来训练所述接受者识别和/或区分语音类型。
14.根据权利要求10所述的系统,其中:
所述系统被配置为提供视觉感觉作为所述第二感觉并且提供第三策略性感觉,所述第三策略性感觉也是由导致所述听觉感知的所述现实物理现象引起的。
15.根据权利要求10所述的系统,其中:
基于所述第一输出的所唤起的所述听觉感知对应于听觉第一感觉场景;并且
所述系统被配置为基于指示所述接受者不能将所述听觉第一感觉场景与另一类似场景区分开的输入来自动选择给定的听觉第二感觉场景以提供给所述接受者。
16.根据权利要求10所述的系统,其中:
所述第一输出和所述第二输出是第一刺激场景的一部分,所述第一刺激场景包括第一声音场景和第一非声音刺激场景;
所述系统被配置为输出第二声音和第二非声音,所述第二非声音是第二非声音刺激场景的一部分,所述第一声音和所述第二声音完全由所述虚拟现实子系统生成;并且
所述非声音刺激场景完全由所述虚拟现实子系统生成。
17.一种用于声音听觉训练的方法,包括:
(i)向人工耳蜗听觉假体的接受者提供第一声音和第一非声音刺激场景,其中所述第一声音的人工听觉感知利用所述听觉假体而被唤起;以及
(ii)向所述听觉假体的所述接受者提供第二声音和第二非声音刺激场景,其中所述第二声音的人工听觉感知利用所述听觉假体而被唤起,其中
非声音刺激是虚拟现实发起的刺激,并且
所提供的场景训练或重新训练所述接受者将相应声音与相应非声音刺激相关联,其中
动作“i”和“ii”在第一时间段期间被执行,其中所述第一声音和所述第二声音是所述接受者最初不能常规地区分为分别与所述相应非声音刺激相关联的声音,并且所述方法还包括:
(iii)在所述第一时间段之后的第二时间段期间,确定所述接受者常规地将所述第一声音和所述第二声音区分为分别与所述相应非声音刺激相关联;以及
(iv)向所述听觉假体的所述接受者提供第三声音和第三非声音刺激场景,其中所述第三声音的人工听觉感知利用所述听觉假体而被唤起,其中
所述第三非声音刺激是虚拟现实发起的刺激,并且
所述第一声音或所述第二声音中的至少一项和所述第三声音是所述接受者最初不能常规地区分为分别与所述相应非声音刺激相关联的声音。
18.根据权利要求17所述的方法,其中:
所述第一声音和所述第二声音是所述接受者最初不能常规地区分为分别与所述相应非声音刺激相关联的声音。
19.根据权利要求17所述的方法,其中:
所述第一声音和所述第二声音是声音类属的相应声音种类,并且所述第一非声音刺激和所述第二非声音刺激是图像类属的相应图像种类。
20.根据权利要求17所述的方法,其中:
动作“i”独立于动作“ii”重复地被执行,直到所述接受者学会将所述第一声音与所述第一非声音刺激相关联;
在所述接受者学会将所述第一声音与所述第一非声音刺激相关联之后,动作“ii”与动作“i”相结合重复地被执行。
21.根据权利要求17所述的方法,还包括:
在动作“i”和“ii”之后,获取接受者反馈,所述接受者反馈指示所述接受者在不暴露于非声音刺激场景的情况下将所述第一声音与所述第一非声音刺激场景正确地相关联的能力、以及所述接受者在不暴露于非声音刺激场景的情况下将所述第二声音与所述第二非声音刺激场景正确地相关联的能力;以及
基于所获取的所述接受者反馈,确定所述接受者将所述第一声音与所述第一非声音刺激场景正确地相关联并且将所述第二声音与所述第二非声音刺激场景正确地相关联;以及
在所述确定所述接受者将所述第一声音与所述第一非声音刺激场景正确地相关联并且将所述第二声音与所述第二非声音刺激场景正确地相关联的动作之后,向所述接受者提供第四声音和第四非声音刺激场景,其中所述第四声音的人工听觉感知利用所述听觉假体而被唤起,其中
所述第四声音也是所述接受者最初不能常规地区分为分别与所述相应非声音刺激相关联的声音,但所述第四声音不同于所述第一声音和/或所述第二声音,并且所述第四非声音刺激与所述第一非声音刺激和/或所述第二非声音刺激绝对不同。
22.根据权利要求17所述的方法,其中:
所述第一声音是女性的语音,并且所述第一非声音刺激是女性的视觉图像;以及
所述第二声音是男性的语音,并且所述第二非声音刺激是男性的视觉图像。
23.一种用于声音听觉训练的方法,包括:
训练或重新训练人工耳蜗的接受者以使用虚拟现实来识别和/或区分声音,以及
确定所述接受者的听觉复原或康复过程的阶段,在所述过程中使所述接受者识别各个事件种类的不同声音之间的差异,
其中:
所述训练或重新训练的动作包括随着所述接受者学会识别和/或区分不太复杂的场景的声音,使用递增的复杂性的虚拟现实来提供视听场景。
24.根据权利要求23所述的方法,其中:
所述方法还包括:
在提供相应的所述视听场景的动作期间和/或之后,接收接受者反馈;以及
基于所接收的所述接受者反馈,使用虚拟现实提供新的视听场景。
25.根据权利要求23所述的方法,其中:
所述训练或重新训练的动作导致所述接受者区分声音类属的不同声音种类,其中所述接受者在所述训练或重新训练的动作之前不能区分这些不同声音种类。
26.根据权利要求23所述的方法,其中:
所述训练或重新训练的动作导致所述接受者能够进行以下中的至少一项:
在不同混响环境中识别给定声音,或者
在不同混响环境中区分声音,
其中所述接受者在所述训练或重新训练的动作之前不能进行以下中的至少一项:
在不同混响环境中识别所述声音,或者
在不同混响环境中区分所述声音。
27.根据权利要求23所述的方法,其中:
所述声音是语音声音。
28.根据权利要求23所述的方法,其中:
所述声音是非语音声音。
29.一种用于声音听觉训练的系统,包括:
虚拟现实子系统;以及
听觉假体,其中
所述虚拟现实子系统被配置为向所述听觉假体提供第一输出,
所述听觉假体被配置为基于所述第一输出在所述听觉假体的接受者中唤起听觉感知,
所述虚拟现实子系统被配置为同时向所述听觉假体的所述接受者提供第二输出以唤起与听觉不同的第二感觉,并且
所述第二感觉是由导致所述听觉感知的现实物理现象引起的感觉,其中
基于所述第一输出的所唤起的所述听觉感知对应于听觉第一感觉场景;并且
所述系统被配置为基于指示所述接受者不能将所述听觉第一感觉场景与另一类似场景区分开的输入来自动选择给定的听觉第二感觉场景以提供给所述接受者。
CN201880017170.7A 2017-02-10 2018-01-19 高级人工声音听觉训练 Active CN110393015B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/429,622 2017-02-10
US15/429,622 US10154354B2 (en) 2017-02-10 2017-02-10 Advanced artificial sound hearing training
PCT/IB2018/050354 WO2018146565A1 (en) 2017-02-10 2018-01-19 Advanced artificial sound hearing training

Publications (2)

Publication Number Publication Date
CN110393015A CN110393015A (zh) 2019-10-29
CN110393015B true CN110393015B (zh) 2022-04-19

Family

ID=63105935

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880017170.7A Active CN110393015B (zh) 2017-02-10 2018-01-19 高级人工声音听觉训练

Country Status (3)

Country Link
US (3) US10154354B2 (zh)
CN (1) CN110393015B (zh)
WO (1) WO2018146565A1 (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10154354B2 (en) * 2017-02-10 2018-12-11 Cochlear Limited Advanced artificial sound hearing training
US11806524B2 (en) * 2017-07-14 2023-11-07 Massachusetts Eye And Ear Infirmary Bimodal hybrid cochlear implants
WO2020174324A1 (en) * 2019-02-26 2020-09-03 Cochlear Limited Dynamic virtual hearing modelling
US11877123B2 (en) 2019-07-22 2024-01-16 Cochlear Limited Audio training
EP3930350A1 (en) * 2020-06-25 2021-12-29 Sonova AG Method for adjusting a hearing aid device and system for carrying out the method
CN118454057A (zh) * 2024-07-05 2024-08-09 中国科学院自动化研究所 基于听觉信息的空间感知训练方法及装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7676372B1 (en) 1999-02-16 2010-03-09 Yugen Kaisha Gm&M Prosthetic hearing device that transforms a detected speech into a speech of a speech form assistive in understanding the semantic meaning in the detected speech
US6925332B2 (en) 2003-02-03 2005-08-02 The Children's Hospital Of Philadelphia Methods for programming a neural prosthesis
US20050085343A1 (en) 2003-06-24 2005-04-21 Mark Burrows Method and system for rehabilitating a medical condition across multiple dimensions
DE102004035046A1 (de) 2004-07-20 2005-07-21 Siemens Audiologische Technik Gmbh Hörhilfe-oder Kommunikationssystem mit virtuellen Signalquellen
US20080153070A1 (en) * 2006-12-20 2008-06-26 Tyler Richard S Spatially separated speech-in-noise and localization training system
WO2009103823A2 (en) 2009-05-28 2009-08-27 Phonak Ag Method and system for fitting hearing systems
CA2720404A1 (en) 2009-11-02 2011-05-02 Lee R. Bartel Apparatus, system and method for music enjoyment and ability testing and rehabilitation retraining with cochlear implants
WO2014113891A1 (en) * 2013-01-25 2014-07-31 Hu Hai Devices and methods for the visualization and localization of sound
US9031663B2 (en) 2013-02-22 2015-05-12 Cochlear Limited Genetic algorithm based auditory training
KR101490336B1 (ko) 2013-04-24 2015-02-05 주식회사 바이오사운드랩 사용자 개별 환경 맞춤 방식의 보청기의 피팅 방법 및 이를 위한 저장 매체
US9467792B2 (en) 2013-07-19 2016-10-11 Morrow Labs Llc Method for processing of sound signals
DK3036914T3 (en) 2013-08-20 2019-03-25 Widex As HEARING WHICH HAS A CLASSIFIER TO CLASSIFY AUDITIVE ENVIRONMENTS AND SHARE SETTINGS
CN105227807B (zh) * 2015-09-28 2018-04-10 北京方瑞博石数字技术有限公司 沉浸式虚拟现实演播平台
CN105434084A (zh) * 2015-12-11 2016-03-30 深圳大学 一种移动设备、体外机、人工耳蜗系统及语音处理方法
US20170277257A1 (en) * 2016-03-23 2017-09-28 Jeffrey Ota Gaze-based sound selection
CN106354270A (zh) * 2016-11-11 2017-01-25 北京理工大学 基于脑机接口的可移动头戴终端及系统
US10154354B2 (en) * 2017-02-10 2018-12-11 Cochlear Limited Advanced artificial sound hearing training

Also Published As

Publication number Publication date
WO2018146565A1 (en) 2018-08-16
US20190110139A1 (en) 2019-04-11
CN110393015A (zh) 2019-10-29
US11290827B2 (en) 2022-03-29
US20180234776A1 (en) 2018-08-16
US10154354B2 (en) 2018-12-11
US20220295196A1 (en) 2022-09-15

Similar Documents

Publication Publication Date Title
CN110393015B (zh) 高级人工声音听觉训练
CN110072434B (zh) 用于辅助听力设备使用的声音声学生物标记的使用
Christiansen et al. Cochlear implants in children: Ethics and choices
US20210030371A1 (en) Speech production and the management/prediction of hearing loss
US11825268B2 (en) Advanced scene classification for prosthesis
KR102520761B1 (ko) 난청환자를 위한 청능 훈련시스템
US20220076663A1 (en) Prediction and identification techniques used with a hearing prosthesis
US20180012511A1 (en) Individualized rehabilitation training of a hearing prosthesis recipient
US10334376B2 (en) Hearing system with user-specific programming
US20230352165A1 (en) Dynamic virtual hearing modelling
EP3432606A1 (en) Hearing aid system
KR20170114395A (ko) 가상현실 영상기술과 체계적 둔감법을 이용한 사고지향적 교육장치 및 그 방법
US20220369050A1 (en) Advanced assistance for prosthesis assisted communication
WO2020084587A2 (en) Passive fitting techniques
AU2010347009B2 (en) Method for training speech recognition, and training device
CN112470496A (zh) 使用正常事物的听力性能和康复和/或复原增强
WO2021014295A1 (en) Audio training
Hayden Pediatric conversion to the HiResolution processing strategy: 6 case studies
für Cochleaimplantate et al. Cochlear implant electrode stimulation strategy based on a human auditory model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant