CN112995874B - 将两个听力设备相互耦合的方法以及听力设备 - Google Patents

将两个听力设备相互耦合的方法以及听力设备 Download PDF

Info

Publication number
CN112995874B
CN112995874B CN202011457094.7A CN202011457094A CN112995874B CN 112995874 B CN112995874 B CN 112995874B CN 202011457094 A CN202011457094 A CN 202011457094A CN 112995874 B CN112995874 B CN 112995874B
Authority
CN
China
Prior art keywords
acoustic
hearing
user
hearing device
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011457094.7A
Other languages
English (en)
Other versions
CN112995874A (zh
Inventor
U.戈凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sivantos Pte Ltd
Original Assignee
Sivantos Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sivantos Pte Ltd filed Critical Sivantos Pte Ltd
Publication of CN112995874A publication Critical patent/CN112995874A/zh
Application granted granted Critical
Publication of CN112995874B publication Critical patent/CN112995874B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/30Monitoring or testing of hearing aids, e.g. functioning, settings, battery power
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/43Electronic input selection or mixing based on input signal analysis, e.g. mixing or selection between microphone and telecoil or between microphones with different directivity characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/55Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired
    • H04R25/554Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired using a wireless connection, e.g. between microphone and amplifier or using Tcoils
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/41Detection or adaptation of hearing aid parameters or programs to listening situation, e.g. pub, forest
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/55Communication between hearing aids and external devices via a network for data exchange
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/40Arrangements for obtaining a desired directivity characteristic
    • H04R25/407Circuits for combining signals of a plurality of transducers

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Physics & Mathematics (AREA)
  • Otolaryngology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Neurosurgery (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Telephonic Communication Services (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Telephone Function (AREA)

Abstract

本发明涉及一种方法,其中,第一听力设备(2)与第一用户(N)相关联,并且第二听力设备(16)与其它第二用户(O)相关联,其中,第一听力设备(2)作为耦合请求(K1)发出第一用户(N)的语音的第一声学ID(ID1),其中,第二听力设备(16)接收第一声学ID(ID1),并且将其与第二声学ID(ID2)进行比较,其中,如果第一声学ID(ID1)与第二声学ID(ID2)一致,那么第二听力设备(16)发出耦合接受(K2),从而将第一听力设备(2)与第二听力设备(16)耦合,以在这两个听力设备(2、16)之间进行数据交换。此外,本发明还涉及一种相应的听力设备(2、16)。

Description

将两个听力设备相互耦合的方法以及听力设备
技术领域
本发明涉及一种将两个听力设备相互耦合的方法以及相应的听力设备。
背景技术
听力设备通常与单个用户相关联,并且由用户佩戴在耳朵中或者上,用于接收来自环境的声音,并且经修改后又输出。为此,听力设备具有麦克风,麦克风接收声音并且产生电输入信号。将电输入信号馈送至听力设备的信号处理器,以进行修改。信号处理器作为结果输出电输出信号,然后,电输出信号通过听力设备的听筒又被转换为声音,并且输出至用户。
如果分别具有听力设备的多个用户在一个地点相聚,那么在某些情况下有意义的是,听力设备在网络中相互连接,以交换数据。例如在EP 1 643 801 A2和EP 3 101 919 A1中描述了共同连接在一个网络中的不同用户的听力设备。
为了进行数据交换,必须将听力设备相互耦合,从而形成网络,然后,听力设备可以在网络中相互交换数据。
发明内容
基于这种背景,本发明要解决的技术问题是,使得能够以尽可能简单并且可靠的方式将听力设备在共同的网络中相互耦合。应当尽可能在没有相互影响的情况下将多个听力设备相互耦合,即尽可能自动地并且在不需要用户干预的情况下将多个听力设备相互耦合。
根据本发明,上述技术问题通过具有根据本发明的特征的方法以及通过具有根据本发明的特征的听力设备来解决。有利的设计方案、扩展方案和变形方案是下面的描述的主题。在此,与方法相关联的描述同样也适用于听力设备,反之亦然。如果下面描述方法步骤,那么特别是通过听力设备被构造为执行这些方法步骤中的一个或多个,而得到听力设备的有利的设计方案。
所述方法特别是用于将多个听力设备在共同的网络中相互耦合。一般来说,第一听力设备与第一用户相关联,并且第二听力设备与另外的第二用户相关联。在所述方法中,第一听力设备作为耦合请求,发出第一用户的语音(或者声音)的第一声学ID。第二听力设备接收第一声学ID,并且将其与第二声学ID进行比较。然后,如果第一声学ID与第二声学ID一致,那么第二听力设备发出耦合接受,从而将第一听力设备与第二听力设备耦合,以便在这两个听力设备之间进行数据交换。
相对于相应的听力设备,将属于该听力设备的用户的声学ID也称为“自己的声学ID”。与此相对,相对于相应的听力设备,将属于另一个听力设备的用户的声学ID也称为“外来的声学ID”。因此,上面提到的第一声学ID对于第一听力设备来说是自己的声学ID,然而对于第二听力设备来说是外来的声学ID。根据关于上面提到的第二声学ID的用户是否相同,该声学ID对于第一听力设备来说是外来的声学ID或者自己的声学ID。但是对于第二听力设备来说,第二声学ID在任何情况下都是外来的声学ID。
在此,为了说明所述方法,在第一听力设备和第二听力设备之间进行区分。然而,第一听力设备和第二听力设备在所述方法中的作用原则上是可互换的。这两个听力设备也不强制性地必须不同或者相同。因此,关于第一听力设备的描述同样适用于、但是不强制性地也适用于第二听力设备,反之亦然。
声学ID一般用于尽可能唯一地识别相应的用户。因此,也将声学ID称为声学指纹,以表明声学ID对于每个用户是个体化的。相应的声学ID特别是总是由语音产生,即基于实际的声音信号产生。下面也将声学ID仅简称为ID。ID特别地是包含关于相应的用户的语音的特性的信息的识别标记。在一个合适的设计方案中,ID是用户的多个语音参数的值的列表。因为语音是个体化的,因此ID也相应地是个体化的,并且使得能够特别可靠地识别用户。通过第二听力设备将第一和第二声学ID相互进行比较,使得第二听力设备能够识别第一用户,并且在一致的情况下,相应地成功地识别该用户。因此,在这种情况下,也将第一ID称为实际ID,即称为实际存在的ID。相应地也将第二ID称为目标ID,即称为为了成功进行识别而预期的ID。在比较ID时,不一定需要完全一致,相反,公差范围内的足够的一致一般已经是合适的。
第一听力设备的耦合请求的发出不强制性地直接针对第二听力设备,并且也不强制性地与环境中的另一个听力设备的存在有关。在一个原则上合适的设计方案中,耦合请求、因此第一ID的发出相应地是没有针对性的。一般地说,在第一听力设备的请求模式或者广播模式下,向所有可能处于环境中的听力设备发出耦合请求。第二听力设备特别是在第二听力设备的接受模式或者倾听模式下接收耦合请求,即,第二听力设备在环境中搜索其它听力设备的耦合请求。在单个听力设备中,原则上请求和接受模式也可以是同时激活的。
为了相互进行数据交换,一般地说为了进行通信,两个听力设备分别具有接口。通过接口发出并且接收ID,然后在进行耦合之后还传输其它数据、优选音频数据、设置参数、其它数据或者其组合。相应的接口通常具有有限的有效距离、例如最大10m,从而仅在相应的听力设备的在空间上有限的范围内自动执行耦合。因此,仅当两个听力设备相对于彼此处于有效距离内,即在空间上彼此靠近时,将两个听力设备相互耦合,从而确保两个用户也期望进行耦合,并且耦合也与这两个用户相关。相反,如果在有效距离内没有其它听力设备,那么第一听力设备的耦合请求将无效,即没有结果。
本发明的一个优点特别是在于,通过声学ID的比较以及与其相关的耦合,多个听力设备特别简单并且可靠地相互耦合,然后形成用于相互交换数据的共同的网络。在此,仅示例性地描述两个听力设备的耦合,然而这种设计原则上可以应用于任意多个听力设备。通过使用特别是个体化的声学ID,也保证在进行耦合时,正确的耦合伙伴、即用户相互连接。这在以下情形下是特别有利的,即,分别具有听力设备的多个用户聚会,并且需要进行选择,因为相应的用户不想强制性地与环境中的每个其他用户连接。作为示例,提到两个听力设备佩戴者与周围其他听力设备佩戴者之间进行对话。在这种情形下,用户一般想首先与特定的对话伙伴、即与其进行对话的用户进行连接,然而不与其他用户进行连接。通过使用声学ID来进行耦合,进行针对性的识别、选择以及与这种相关的耦合伙伴的耦合。
在第二听力设备中,第二声学ID已经存储在第二听力设备的存储器中,或者在所述方法的过程中产生第二声学ID,特别是由第二听力设备产生第二声学ID。如果在所述方法期间产生第二ID,那么这在接收到耦合请求时,或者在环境中识别出语音时,以合适的方式来进行。这两个设计方案也可以组合。
在一个特别优选的设计方案中,第二听力设备具有麦克风,并且利用其来接收来自环境的语音,并且由此产生第二声学ID。首先,语音是环境中的任意的语音,而不是第二用户的语音。相应地,第二听力设备接收的语音是外来的语音,即第一用户的语音(如果第一用户在麦克风的有效距离内),或者其它语音。特别是重要的是,第二听力设备优选反复在环境中搜索其他用户的语音。一旦找到语音,那么适宜地直接由其产生声学ID,用于稍后在进行耦合时使用。特别是,随着时间的推移,相应的听力设备以这种方式收集多个外来的ID,然后,将这些ID与可能接收到的ID进行比较。
现在,利用麦克风接收第二ID并且通过听力设备的接口发送第一ID的一个特别的优点是,使用两个不同的传输通道,来识别用户。一方面,第一听力设备通过信号路径来传输第一用户的ID,其方法是,通过接口向环境中的其它听力设备发送第一ID、即自己的ID。另一方面,第二听力设备通过空气路径(Luftstrecke)产生用户的ID,其方法是,利用麦克风接收该用户的语音(其是声学信号),然后产生第二声学ID、即外来的ID。因此,在此,在一方面通过空气路径传输声音、即声学信号和另一方面通过信号路径传输特殊的电磁信号之间进行区分。在一个设计方案中,信号路径是无线的,即同样通过空气来进行,然而重要的是关于用户的语音的信息的格式不同,即一方面是声学信号,另一方面是电磁信号。最后,第二听力设备将从不同的传输通道获得的两个ID进行比较,以识别第一用户。在此,有利地不需要用户的交互,并且优选也不进行用户的交互,相反,由听力设备自动执行整个方法。
在将两个听力设备相互耦合之后,可以进行数据交换。在一个优选的设计方案中,在进行数据交换时传输用户的语音,优选由此形成无线电连接。换言之:相应的听力设备具有麦克风,利用麦克风接收自己的用户的语音。麦克风产生相应的音频信号,根据设计方案,还附加地对音频信号进行处理或者不进行处理,然后通过接口传输到另一个听力设备。该另一个听力设备接收现在为另一个用户的语音,并且借助听筒又将其转换为声音,以向自己的用户输出。这特别是在两个方向上进行,从而用户可以通过网络相互对话。由此绕过两个用户之间的空气路径,这尤其是在嘈杂或者有干扰的环境中是有利的。
发出具有自己的第一ID的耦合请求本身,与第二用户、一般地说另一个用户的存在无关。然而,适宜地,尤其是并且有利地仅当第一听力设备识别出第二听力设备处于有效距离内时,发出耦合请求。在一个特别优选的设计方案中,当第一听力设备识别出对话情形时,第一听力设备发出第一声学ID。对话情形特别是应当理解为,至少两个人员、特别是听力设备的用户相互对话,一般来说互相对话。也就是说,当第一听力设备识别出在环境中存在另一个用户时,然后由此激活请求模式,并且发出自己的第一ID。由此确保仅当实际上也存在可能的耦合伙伴时,才发出第一ID。但是可能对话伙伴没有佩戴听力设备。耦合请求于是将无效。
为了识别另一个用户的存在,相应的听力设备适宜地被构造为用于识别外来的语音。为此,听力设备具有麦克风和语音分析单元。听力设备利用麦克风接收来自环境的声音,由其产生输入信号,并且将输入信号馈送到语音分析单元。然后,语音分析单元识别在环境中是否存在外来的语音。为此,适宜地并且如果存在,首先识别声音中的语音,并且由其产生声学ID。然后,将该声学ID例如与和听力设备相关联的用户的声学ID、即自己的ID进行比较。自己的ID特别是存储在听力设备中或者由听力设备产生。优选语音分析单元也用于接收用户自己的语音,并且由其产生声学ID。替换地,通过彼此分离的语音分析单元来实现这些功能。现在,如果在给定的时间段中存在多个不同的语音、即不同的ID,那么存在对话情形。
可能存在多个外来的语音,并且不与所有相关的用户进行对话。换言之:对话情形可能局限于环境中的用户的子集。通常仅与位于用户前面、即与其面对面的外来的用户存在对话情形。因此,在一个有利的设计方案中,第二听力设备对于第二声学ID仅接收来自环境的部分区域、即来自第二用户的对话伙伴可能停留的部分区域的语音。该部分区域通常是用户周围的有限的空间区域。在一个合适的设计方案中,该部分区域是相对于第二用户在前面的一半空间或者在前面的四分之一空间。以下设计方案也是合适的,在该设计方案中,部分区域是第二听力设备的波束成形器的定向波瓣。总的来说,也就是说,与方向有关地进行听力设备的耦合,以进一步确保仅当两个听力设备的用户也想相互对话时,将这两个听力设备耦合。通常在用户彼此面对面时,或者在听力设备的波束成形器朝向用户并且必要时也跟随用户时,是这种情况。
以合适的方式,两个听力设备的成功耦合是由于第一听力设备发出耦合请求,第二听力设备接收耦合请求,以及相反,第二听力设备发出耦合接受,并且第一听力设备接收耦合接受。因此,至少识别出第一用户。适宜地,对于耦合,还附加地相反地执行相同的步骤,以便也类似地识别出第二用户。在一个合适的设计方案中,为此,第二听力设备的耦合接受包含针对第一听力设备的耦合请求。该耦合请求包括第二用户自己的声学ID,与第一ID类似,第一听力设备接收第二用户的声学ID,并且与第二ID类似,与所存储的外来的声学ID进行比较。也就是说,总体上,听力设备执行两个用户的ID的互相比较。然后,如果第二用户的声学ID与所存储的声学ID一致,那么第一听力设备同样将耦合接受发送到第二听力设备。在一个设计方案中,利用听力设备的语音分析单元从环境的声音产生所存储的声学ID,如在上面已经描述的。简而言之:听力设备执行其用户的互相识别、即双向识别。由此,所产生的耦合是特别可靠的。
下面详细描述所述方法的实施方式的一个示例性的应用:分别具有听力设备的两个用户相互靠近并且开始互相交谈。两个听力设备中的第一听力设备借助麦克风识别出另一个用户、即第二用户存在于环境中并且也在说话。因此,该第一听力设备发出其自己的用户、即第一用户的声学ID。第二听力设备接收该第一ID,第二听力设备现在在其一侧借助麦克风接收来自环境的声音,并且识别出其中的第一用户的语音。由该语音产生声学ID,现在该声学ID称为第二声学ID,但是由于当前的情形,像第一声学ID一样是第一用户的ID。通过比较两个ID、即一方面自己产生的ID和另一方面接收到的ID,现在第二听力设备确定ID一致,也就是说,第一用户的听力设备准备好进行耦合,例如以便借助数据交换继续进行对话。根据该确定,第二听力设备向第一听力设备发送耦合接受,然后,随着第一听力设备接收到该耦合接受,进行耦合。替换地,由此首先进行部分耦合,并且在相反第二听力设备也将自己产生的第二用户的ID、即第三ID发送到第一听力设备,并且第一听力设备将该ID,与第一听力设备产生的第二用户的ID、即第四ID成功进行比较之后,才进行完全耦合。在此,类似地通过如下方式产生该由第一听力设备产生的第二用户的ID,即,第一听力设备借助麦克风接收来自环境的声音,并且据此识别出语音。
优选基于相应的语音的至少一个语音参数产生相应的声学ID,并且在此,从如下语音参数的集合中选择相应的声学ID,这些语音参数包括:声道频率(Vokaltraktfrequenz)、音量、语音频率、语音上升(也称为音调(Pitch))、速度、频率范围、呼吸频率、静息水平、元音和辅音切换。前面提到的语音参数特别适合用于产生声学ID,并且足够准确地识别出、因此区分不同的用户。原则上,使用单个语音参数已经就足够了,然而,更适宜的是在产生ID时将多个语音参数组合。于是,ID例如是各个语音参数的值的列表。因此,一般地说,通过如下方式来产生声学ID,即,首先识别语音,然后确定该语音的一个或多个语音参数。必要时,将多个语音参数概括为一个ID。
可以以简单的方式根据相应的听力设备的麦克风的输入信号,例如借助水平、频率、频谱或者时间范围分析,来确定所提到的所有语音参数。具体如何确定各个语音参数在此不太重要。相反,重要的是,使用这些语音参数来产生声学ID,并且为此确定并且特别是测量其相应的值。
声道频率特别是给出用户的声带具有什么基本频率。可以说,声道频率形成语音频带的基本频率,然后,从该基本频率出发,进行语音形成。因此,声道频率表征用户的语音。通常,对于男士,声道频率处于100Hz范围内,并且对于女士,声道频率处于150Hz范围内。
音量特别是给出相应的用户多大声地说话。优选利用水平测量仪来确定音量。
语音频率特别是给出用户的语音在当前的时间点具有什么频率。在此,适宜地,在例如一秒的短的时间段内对语音频率进行平均。优选通过在用户的对话活动期间对频率进行平均,来确定语音频率。
语音上升特别是给出,在对话活动开始时,用户的语音以什么样的水平改变增大。优选通过如下方式来确定语音上升,即,在对话活动开始时,测量在特定的时间段内测量的说话者的幅值、即水平,并且确定其平均上升曲线。因此,以合适的方式借助水平测量仪来测量水平变化过程。
元音和辅音切换特别是给出用户什么时候在元音和辅音之间进行切换。优选通过如下方式来确定元音和辅音切换,即,在语音中识别并且确定元音和辅音,在哪些时间出现切换。与此等同的是,仅确定辅音切换、即不同辅音之间的切换。
速度特别是给出相应的用户说话有多快。优选通过如下方式来确定速度,即,测量元音和辅音切换,并且由此确定该元音和辅音切换有多快,即在特定的时间段内进行多少次这种元音和辅音切换。为此,以合适的方式检查输入信号的频谱随着时间的改变。
频率范围特别是给出用户在特定的时间段内的自己的对话活动中,利用其语音平均使用或者可能使用哪些频率来进行交流。优选通过如下方式来确定频率范围,即,在特定的时间段内,对用户使用以什么幅值使用哪些频率进行平均。适宜地,以频率和幅值图存储这些频率和其幅值。适宜地,重复地、例如每毫秒或者每100ms进行这种测量。
呼吸频率特别是给出相应的用户多快地进行呼吸。优选通过如下方式来确定呼吸频率,即,在不存在对话活动时,利用麦克风测量通过呼吸产生的噪声。固体声麦克风特别适合用于此。特别是通过如下方式来测量呼吸频率,即,分析输入信号的频谱中的低音频率随着时间的改变、特别是水平改变。
静息水平特别是给出在不活动的阶段期间、即在用户不说话期间存在的幅值。在此,静息水平不是环境噪声的水平,而是用户本身在没有说话时例如由于呼吸而产生的水平。例如通过在时间上对上面描述的用于测量呼吸频率的水平改变进行平均,来确定静息水平。
在一个合适的设计方案中,将第一听力设备作为耦合请求发出的第一ID存储在第一听力设备的存储器中。例如,在校准方法的过程中确定第一ID、即相应的听力设备的用户的ID,然后进行存储。
替换地,通过第一听力设备接收第一用户自己的语音,由第一听力设备产生第一声学ID。在此,听力设备还确定一个或多个语音参数,然后由其产生自己的用户的ID、即自己的ID。适宜地,也将该ID存储在听力设备的存储器中,用于稍后重新使用。
以下组合也是有利的,即,在该组合中,通过重新接收用户自己的语音来检查通过校准方法确定的ID,并且必要时对该ID进行更新。
也有利地在第二听力设备中使用用于校准以及产生和存储ID的实施方案,来产生第二ID。
适宜地,将相应的外来的声学ID存储在相应的听力设备的接触数据库中。接触数据库因此是一种电话簿,并且使得能够在用户的重复耦合中更简单地进行耦合。于是不需要每一次都重新借助麦克风和语音分析单元产生声学ID,而是将存储在接触数据库中的ID直接与接收到的ID进行比较,以识别用户。
优选以无线方式进行数据交换。在一个更适宜的设计方案中,为此,第一和第二听力设备分别具有无线接口,用于进行数据交换。优选无线接口是蓝牙接口。然后,通过蓝牙连接进行数据交换,并且听力设备的耦合特别是用于建立蓝牙连接,并且特别是也用于为此对听力设备进行配对(即Pairing)。
根据本发明的听力设备被构造为用于执行前面描述的方法。优选听力设备为此具有控制单元。在控制单元中,所述方法特别是以程序技术或者以电路技术或者以其组合来实现。为此,例如控制单元构造为微处理器或者ASIC或者其组合。特别是,所描述的语音分析单元集成在控制单元中。
所描述的方法原则上可以应用于任意的听力设备。然而,特别优选相应的听力设备用于供应听力受损的用户的设计方案。为此,听力设备具有麦克风,其接收来自环境的声音并且产生电输入信号。将电输入信号馈送至听力设备的信号处理器,以进行修改。信号处理器优选是控制单元的一部分。特别是根据与听力设备相关联的用户的个体化的听力图(Audiogramm)来进行修改,从而补偿用户的个体化的听力缺陷。信号处理器作为结果输出电输出信号,然后通过听力设备的听筒将电输出信号又转换为声音,并且向用户输出。
对于所描述的听力设备的麦克风的不同的应用(例如接收自己的或者外来的语音、识别对话情形),总是使用听力设备的同一个麦克风,或者听力设备具有多个麦克风,不同的应用被划分到该多个麦克风上。在此,划分不一定是固定的,而是也可以随着时间根据需要改变。
相应的听力设备优选是单耳听力设备或者双耳听力设备。双耳听力设备具有两个单设备,其由用户佩戴在不同侧,即分别佩戴在左耳和右耳中或者上。单耳听力设备仅具有一个单设备,其由用户佩戴在左耳或者右耳上或者中。尤其是在双耳听力设备中,以下设计方案是有利的,在该设计方案中,单设备中的一个具有用于与其它听力设备交换数据的接口,而另一个单设备不直接与其它听力设备交换数据,而是间接地通过具有接口的单设备参与网络。以这种方式,在运行中节省能量,因为两个单设备仅通过一个接口连入网络中。
附图说明
下面,根据附图详细说明本发明的实施例。在附图中:
图1相应地示意性地示出了听力设备,
图2相应地示意性地示出了方法,
图3相应地示意性地示出了外来的声学ID的产生,
图4相应地示意性地示出了对话情形,
图5相应地示意性地示出了图2中的方法的变形方案,
图6相应地示意性地示出了自己的声学ID的产生。
具体实施方式
在图1中示出了根据本发明的听力设备2、16的实施例。听力设备2、16被构造为用于执行下面还将更详细地描述的方法。为此,听力设备2、16具有控制单元4。在此,语音分析单元6也集成在控制单元4中。此外,所示出的听力设备2、16也用于供应听力受损的用户N、O,但是这本身与下面将进一步描述的方法无关。为此,听力设备2具有麦克风8,麦克风8接收来自环境的声音并且产生电输入信号E。在图1中仅示出了单个麦克风8,但是具有多个麦克风8的变形方案也是合适的。在所示出的实施例中,将输入信号E馈送至听力设备2、16的信号处理器10,以进行修改。信号处理器10在此甚至是控制单元4的一部分。在所示出的实施例中,根据与听力设备2、16相关联的用户N、O的个体化的听力图来进行修改,从而补偿用户N、O的个体化的听力缺陷。信号处理器10作为结果输出电输出信号A,然后通过听力设备2、16的听筒12将电输出信号又转换为声音,并且向用户N、O输出。听力设备2、16是单耳听力设备2、16或者双耳听力设备2、16。此外,所示出的听力设备2、16具有接口14,用于数据交换,接口14在此通常是无线接口。
在图2中示出了根据本发明的方法的实施例。在此,所述方法用于在共同的网络中将多个听力设备2、16相互耦合。在图2中示例性地示出了与第一用户N相关联的第一听力设备2和与另一个第二用户O相关联的第二听力设备16。第一和第二听力设备2、16例如分别如在图1中所示出的那样构造。在此,用于第一和第二听力设备2、16的不同的附图标记尤其是用于在描述所述方法时区分第一和第二听力设备2、16。但是两个听力设备2、16的角色原则上可以互换。两个听力设备2、16也不强制性地必须不同或者相同,不同或者相同都可以并且是合适的。
在图2中从上到下示出了所述方法的时间流程。在所述方法中,第一听力设备2作为耦合请求K1,发出第一用户N的语音的第一声学ID ID1。第二听力设备16接收第一声学IDID1,并且将其与第二声学ID ID2进行比较。然后,如果第一声学ID ID1与第二声学ID ID 2一致,那么第二听力设备16发出耦合接受K2,从而第一听力设备2与第二听力设备16耦合,用于在这两个听力设备2、16之间进行数据交换。
相对于相应的听力设备2、16,属于该听力设备2的用户N、O的声学ID ID1、ID2、ID3、ID4也称为“自己的声学ID”。与此相对,相对于相应的听力设备2、16,属于另一个听力设备的用户的声学ID ID1、ID2、ID3、ID4也称为“外来的声学ID”。因此,上面提到的第一声学ID ID1对于第一听力设备2来说是自己的声学ID,然而对于第二听力设备16来说是外来的声学ID。根据用户N关于该声学ID ID2是否相同,上面提到的第二声学ID ID2对于第一听力设备2来说是外来的声学ID或者自己的声学ID。但是对于第二听力设备16来说,第二声学ID ID2在任何情况下都是外来的声学ID。
声学ID ID1、ID2、ID3、ID4通常用于尽可能唯一地识别相应的用户N、O。因此,声学ID ID1、ID2、ID3、ID4也称为声学指纹,以表明声学ID ID1、ID2、ID3、ID4对于每个用户N、O是个体化的。下面,声学ID ID1、ID2、ID3、ID4也仅简称为ID ID1、ID2、ID3、ID4。ID ID1、ID2、ID3、ID4是包含关于相应的用户N、O的语音的特性的信息的识别标记,ID ID1、ID2、ID3、ID4例如是用户N、O的多个语音参数的值的列表。在比较ID ID1、ID2、ID3、ID4时,不一定需要完全一致,相反,公差范围内的足够的一致通常已经是合适的。
第一听力设备2的耦合请求K1的发出不强制性地直接针对第二听力设备16,并且也不强制性地与环境中的另外的听力设备的存在有关。通常,在第一听力设备2的请求模式或者广播模式下,向可能处于环境中的所有听力设备16发出耦合请求K1。相应地,第二听力设备16在第二听力设备16的接受模式或者倾听模式下接收耦合请求K1,即,第二听力设备16搜索环境中的其它听力设备2的耦合请求K1。原则上,请求模式和接受模式在单个听力设备2、16中也可以是同时激活的。
通过相应的接口14发出和接收ID ID1、ID3,然后在进行耦合之后,也传输其它数据、例如音频数据、设置参数、其它数据或者其组合。然而,不强制性地传输ID ID2、ID4,IDID2、ID4首先用于在内部进行比较。相应的接口14通常具有有限的有效距离、例如最大10m,从而仅在相应的听力设备2、16的在空间上有限的范围内自动进行耦合。
第二声学ID ID2在第二听力设备16中要么已经存储在存储器18中,要么在所述方法的过程中例如由第二听力设备16本身产生。如果在所述方法期间产生第二ID ID 2,那么这例如在接收到耦合请求K1时,或者在识别出环境中的语音时进行。也可以将这两个设计方案组合。
在所示出的设计方案中,如图1所示,第二听力设备16具有麦克风8,并且也利用麦克风8接收来自环境的语音,并且由此产生第二声学ID ID2。这示例性地在图3中示出。语音首先是环境中的任意的语音,而不是第二用户O的语音。相应地,第二听力设备16接收到的语音是外来的语音,即,如在图3中实际上是第一用户N的语音(如果第一用户N位于麦克风8的有效距离内),或者是其它语音。在此,重要的是第二听力设备16在环境中搜索其它用户N的语音。一旦找到语音,那么适宜地由其直接产生声学ID ID2,用于稍后在耦合中使用。在此,也将该外来的ID ID2存储在存储器18中。由此,随着时间的推移,相应的听力设备2、16收集多个外来的ID ID2,然后,如在图2中所示出的,将外来的ID ID2与必要时接收到的IDID1进行比较。在一个可能的设计方案中,在图3中示出的步骤是在图2中示出的方法的一部分。
从图2和图3中可以看到,使用两个不同的传输通道来识别用户N。一方面,第一听力设备2通过信号路径传输第一用户N的ID ID1,其方法是,作为电磁信号,通过接口14向到环境中的其它听力设备16发出第一ID ID1。另一方面,第二听力设备16通过空气路径产生用户N的ID ID2,其方法是,利用麦克风8作为声学信号接收该用户N的语音,然后产生第二声学ID ID2。最后,第二听力设备16比较从不同的传输通道获得的两个ID ID1、ID2,以识别第一用户N。在此,不需要用户N、O的交互,并且在此也不进行用户N、O的交互,相反,整个方法由听力设备2、16自动执行。代替在所述方法期间直接确定第二ID2,在一个未明确示出的设计方案中,ID2存储在听力设备16的存储器18中。然而,在此重要的是,ID2是根据第一用户N的语音产生的,以便能够相应地识别出第一用户N。
在两个听力设备2、16相互耦合之后,可以进行数据交换。在这里描述的设计方案中,在进行数据交换时,传输用户N、O的语音,从而形成无线电连接。换言之:相应的听力设备2、16利用其麦克风8接收自己的用户N、O的语音。麦克风8产生相应的音频信号,根据设计方案,还附加地对音频信号进行处理或者不进行处理,然后通过接口14传输到另一个听力设备2、16。这在图1中没有明确示出,但是例如借助接口14传输输入信号E是合适的。另一个听力设备2、16接收现在是另一个用户N、O的语音,并且借助听筒12将其又转换为声音,以向自己的用户N、O输出。
利用自己的第一ID ID1发出耦合请求K1本身,与第二用户、一般地来说另一个用户O的存在无关。然而,在此,仅当第一听力设备2识别出第二听力设备16处于有效距离中时,才发出耦合请求K1。为此,当第一听力设备2识别出对话情形时,第一听力设备2发出第一声学ID ID1。在此,对话情形理解为,例如如在图3中所示出的,至少两个用户N、O相互对话,一般地来说互相对话。也就是说,当第一听力设备2识别出在环境中存在另一个用户O时,由此激活请求模式,并且发出自己的第一ID ID1。由此确保仅当实际上也存在可能的耦合伙伴时,才发出第一ID ID1。
在此,为了识别出另一个用户N、O的存在,相应的听力设备2、16被构造为用于识别外来的语音。为此,在此,同样使用相应的麦克风8和相应的语音分析单元6。听力设备2、16利用麦克风8接收来自环境的声音,由其产生输入信号E,并且将输入信号馈送到语音分析单元6。然后,语音分析单元6识别在环境中是否存在外来的语音。为此,例如,首先从声音中提取语音,并且由其产生声学ID ID2。然后,将声学ID ID2例如与和听力设备2相关联的用户N的声学ID ID1、即自己的ID进行比较。自己的ID例如存储在听力设备2的存储器18中或者由听力设备2产生,例如同样利用语音分析单元6来产生。
但是可能存在多个外来的语音,并且不与所有相关的用户N、O进行对话。换言之:对话情形可能局限于环境中的用户N、O的子集。通常仅与位于用户N前面、即与其面对面的外来的用户O存在对话情形。这示例性地在图4中示出。在那里,第二听力设备16针对第二声学ID ID2仅接收来自环境的部分区域20、即来自第二用户O的对话伙伴可能停留的部分区域20的语音。在图4中,该部分区域20是相对于第二用户O在前面的四分之一空间。在一个未示出的设计方案中,部分区域20是听力设备16的波束成形器的定向波瓣。总的来说,也就是说,听力设备2、16的耦合因此与方向有关地进行。
两个听力设备的成功耦合,是由于第一听力设备2发出耦合请求K1,第二听力设备16接收耦合请求K1,以及相反第二听力设备16发出耦合接受K2,并且第一听力设备2接收耦合接受K2,如也从图2中可以看到的。因此,至少识别出了第一用户N。与图2中的图示类似,在图5中示出了如下变形方案,在该变形方案中,对于耦合,还附加地相反地执行相同的步骤,以便也类似地识别出第二用户O。在所示出的实施例中,为此,第二听力设备16的耦合接受K2包含针对第一听力设备2的耦合请求K3。该耦合请求K3包括第二用户O自己的声学IDID3,与第一ID ID1类似,第一听力设备2接收声学ID ID3,并且与第二ID ID2类似,将声学ID ID3与存储的外来的声学ID ID4进行比较。关于图3的描述可以相应地相反地使用,从而为此类似地,由第一听力设备2根据用户O的语音产生ID4。也就是说,听力设备2、16总体上执行两个用户N、O的ID ID1、ID3的互相比较。然后,如果第二用户2的声学ID ID3与所存储的声学ID ID4一致,那么第一听力设备2同样将耦合接受K4发送到第二听力设备16。在一个设计方案中,利用语音分析单元6根据环境的声音产生存储的声学ID ID4,如在上面已经描述的。
根据图2的实施方式例如在如下情形下使用,即,分别具有听力设备2、16的两个用户N、O相互靠近并且开始相互交谈。第一听力设备2借助麦克风8识别出在环境中存在另一个用户O并且也在说话。因此,该第一听力设备2发出其自己的用户N的声学ID ID1。第二听力设备16通过其接口14接收该第一ID ID1。此时,第二听力设备16在其一侧借助其麦克风8接收来自环境的声音,并且提取第一用户N的语音。由该语音产生声学ID ID2,在所描述的情况下,该声学ID ID2刚好像第一声学ID ID1一样是第一用户N的ID。通过比较两个IDID1、ID2、即一方面自己产生的ID ID2和另一方面接收到的ID ID1,第二听力设备16现在确定ID ID1、ID2一致,也就是说,第一用户N的听力设备2准备好进行耦合。根据该确定,第二听力设备16将耦合接受K2发送到第一听力设备,然后,随着第一听力设备2接收到耦合接受K2而进行耦合。替换地,如图5所示,在相反第二听力设备16也将自己产生的第二用户O的IDID3发送到第一听力设备2,并且第一听力设备2将ID ID3与由第一听力设备2产生的第二用户O的ID ID4成功进行比较之后,才进行耦合。第一听力设备2例如通过如下方式来产生该ID ID4,即,与图2中的第二听力设备16类似,第一听力设备2借助其麦克风8接收来自环境的声音,并且检查其中的语音。
在此,基于相应的语音的至少一个语音参数来产生相应的声学ID ID1、ID2、ID3、ID4,并且在此,从如下语音参数的集合中选择相应的声学ID ID1、ID2、ID3、ID4,这些语音参数包括:声道频率、音量、语音频率、语音上升(也称为音调)、速度、频率范围、呼吸频率、静息水平、元音和辅音切换。原则上,使用单个语音参数已经就足够了,然而,在产生IDID1、ID2、ID3、ID4时将多个语音参数组合是更适宜的。
可以以简单的方式根据相应的听力设备2、16的麦克风8的输入信号E,例如借助水平分析、频率分析、频谱分析或者时间范围分析,来确定所提到的所有语音参数,水平分析、频率分析、频谱分析或者时间范围分析相应地例如是相应的听力设备2、16的控制单元4的组成部分。在此具体,如何确定各个语音参数不太重要。
第一听力设备2作为耦合请求K1发出的第一ID ID1,例如存储在第一听力设备2的存储器18中。类似地,(利用耦合请求K3发出的)第二用户O自己的声学ID ID3例如存储在第二听力设备16的存储器18中。在一个可能的设计方案中,在未明确示出的校准方法的过程中确定、然后存储这些ID ID1、ID3。替换地或者附加地,由相应的听力设备2、16产生这两个自己的ID ID1、ID3,其方法是,如示例性地在图6中示出的,相应的听力设备2、16接收相应的自己的用户N、O自己的语音。在此,听力设备2、16还测量一个或多个语音参数,然后由其产生自己的用户N、O的ID ID1、ID3。在图6中,也将ID ID1、ID3存储在听力设备2、16的存储器18中,用于稍后重新使用,然而这本身仅仅是可选的。
在所示出的实施例中,将相应的外来的声学ID ID1、ID2、ID3、ID4存储在相应的听力设备2、16的接触数据库22中。接触数据库22因此是一种电话簿,并且使得能够在用户N、O重复进行耦合时更简单地进行耦合。于是,不需要每次重新借助麦克风8和语音分析单元6产生声学ID ID2、ID4,而是将存储在接触数据库22中的ID ID1、ID2、ID3、ID4,直接与接收到的ID ID1、ID3进行比较,来识别用户O、N。在图1的实施例中,接触数据库20是存储器18的一部分。
附图标记列表
2 听力设备、第一听力设备
4 控制单元
6 语音分析单元
8 麦克风
10 信号处理器
12 听筒
14 接口
16 第二听力设备
18 存储器
20 部分区域
22 接触数据库
A 输出信号
E 输入信号
ID1、ID2、ID3、ID4 声学ID
K1 耦合请求
K2 耦合接受
K3 耦合请求
K4 耦合接受
N、O 用户

Claims (12)

1.一种用于耦合多个听力设备的方法,
-其中,第一听力设备(2)与第一用户(N)相关联,并且第二听力设备(16)与另外的第二用户(O)相关联,
-其中,所述第一听力设备(2)作为耦合请求(K1),发出第一用户(N)的语音的第一声学ID(ID1),
-其中,所述第二听力设备(16)接收第一声学ID(ID1),并且将其与第二声学ID(ID2)进行比较,
-其中,如果第一声学ID(ID1)与第二声学ID(ID2)一致,那么第二听力设备(16)发出耦合接受(K2),从而将第一听力设备(2)与第二听力设备(16)耦合,用于在这两个听力设备(2、16)之间进行数据交换。
2.根据权利要求1所述的方法,
其中,第二听力设备(16)具有麦克风(8),并且利用所述麦克风接收来自环境的语音,并且由其产生第二声学ID(ID2)。
3.根据权利要求1所述的方法,
其中,在进行数据交换时,传输用户(N、O)的语音。
4.根据权利要求1所述的方法,
其中,如果第一听力设备(2)识别出对话情形,那么第一听力设备(2)发出第一声学ID(ID1)。
5.根据权利要求1所述的方法,
其中,第二听力设备(16)针对第二声学ID(ID2)接收仅来自环境的部分区域(20)、即来自第二用户(N、O)的对话伙伴可能停留的部分区域(20)的语音。
6.根据权利要求1所述的方法,
其中,耦合接受(K2)包含针对第一听力设备(2)的耦合请求(K3),该耦合请求包括第二用户(O)的声学ID(ID3),第一听力设备(2)接收第二用户(O)的声学ID(ID3),并且与存储的声学ID(ID4)进行比较,
其中,如果第二用户(O)的声学ID(ID3)与所述存储的声学ID(ID4)一致,那么第一听力设备(2)向第二听力设备(16)发出耦合接受(K4)。
7.根据权利要求1所述的方法,
其中,基于相应的语音的至少一个语音参数产生相应的声学ID(ID1、ID2、ID3、ID4),并且在此,从如下语音参数的集合中选择相应的声学ID,所述语音参数包括:声道频率、音量、语音频率、语音上升、速度、频率范围、呼吸频率、静息水平、元音和辅音切换。
8.根据权利要求1所述的方法,
其中,第一声学ID(ID1)存储在第一听力设备(2)的存储器(18)中。
9.根据权利要求1所述的方法,
其中,第一声学ID(ID1)由第一听力设备(2)通过如下方式产生,即,第一听力设备接收第一用户(N)自己的语音。
10.根据权利要求1所述的方法,
其中,将相应的声学ID(ID1、ID2、ID3、ID4)存储在相应的听力设备(2、16)的接触数据库(22)中。
11.根据权利要求1至10中任一项所述的方法,
其中,第一和第二听力设备(2、16)分别具有无线接口(14),用于进行数据交换。
12.一种听力设备(2、16),其被构造为用于执行根据权利要求1至11中任一项所述的方法。
CN202011457094.7A 2019-12-12 2020-12-11 将两个听力设备相互耦合的方法以及听力设备 Active CN112995874B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102019219510.5 2019-12-12
DE102019219510.5A DE102019219510B3 (de) 2019-12-12 2019-12-12 Verfahren, bei welchem zwei Hörgeräte miteinander gekoppelt werden, sowie Hörgerät

Publications (2)

Publication Number Publication Date
CN112995874A CN112995874A (zh) 2021-06-18
CN112995874B true CN112995874B (zh) 2023-03-07

Family

ID=73138749

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011457094.7A Active CN112995874B (zh) 2019-12-12 2020-12-11 将两个听力设备相互耦合的方法以及听力设备

Country Status (4)

Country Link
US (1) US11425510B2 (zh)
EP (1) EP3836139B1 (zh)
CN (1) CN112995874B (zh)
DE (1) DE102019219510B3 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019219563A1 (de) * 2019-12-13 2021-06-17 Sivantos Pte. Ltd. Verfahren zum Betrieb eines Hörgerätesystems und Hörgerätesystem
EP4160565A1 (en) * 2021-09-29 2023-04-05 GN Hearing A/S A system for locating an electronic accessory device
CN115240689B (zh) * 2022-09-15 2022-12-02 深圳市水世界信息有限公司 目标声音确定方法、装置、计算机设备和介质
WO2024075434A1 (ja) * 2022-10-07 2024-04-11 ソニーグループ株式会社 情報処理システム、デバイス、情報処理方法及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080021880A (ko) * 2006-09-05 2008-03-10 삼성전자주식회사 블루투스 장치들 간의 자동으로 연결하는 방법 및 장치
CN102273106A (zh) * 2008-10-31 2011-12-07 三星电子株式会社 使用声学信号进行无线通信的方法和装置
CN103117836A (zh) * 2011-11-10 2013-05-22 斯凯普公司 设备关联
CN105898662A (zh) * 2015-02-13 2016-08-24 奥迪康有限公司 配对传声器单元和包括配对传声器单元的听力系统
CN106797519A (zh) * 2014-10-02 2017-05-31 索诺瓦公司 在自组织网络和对应系统中在用户之间提供听力辅助的方法
WO2019029828A1 (en) * 2017-08-11 2019-02-14 Sonova Ag METHOD AND SYSTEM FOR ADAPTING A HEARING APPARATUS

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2476364C (en) * 2004-07-30 2011-05-10 Research In Motion Limited Hearing aid compatibility in a wireless communications device
DE102004047759B3 (de) 2004-09-30 2006-06-01 Siemens Audiologische Technik Gmbh Verwendung eines Hörhilfegerätesystems mit wenigstens zwei Hörhilfegeräten
CN103650534A (zh) * 2011-07-13 2014-03-19 峰力公司 用于从远程地点测试听力设备的方法和系统
EP3101919B1 (en) 2015-06-02 2020-02-19 Oticon A/s A peer to peer hearing system
EP3517083B1 (en) * 2018-01-24 2021-12-01 FalCom A/S Hearing protection system and related method
EP3525487B1 (en) * 2018-02-09 2020-09-16 Widex A/S A communication channel between a remote control and a hearing assistive device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080021880A (ko) * 2006-09-05 2008-03-10 삼성전자주식회사 블루투스 장치들 간의 자동으로 연결하는 방법 및 장치
CN102273106A (zh) * 2008-10-31 2011-12-07 三星电子株式会社 使用声学信号进行无线通信的方法和装置
CN103117836A (zh) * 2011-11-10 2013-05-22 斯凯普公司 设备关联
CN106797519A (zh) * 2014-10-02 2017-05-31 索诺瓦公司 在自组织网络和对应系统中在用户之间提供听力辅助的方法
CN105898662A (zh) * 2015-02-13 2016-08-24 奥迪康有限公司 配对传声器单元和包括配对传声器单元的听力系统
WO2019029828A1 (en) * 2017-08-11 2019-02-14 Sonova Ag METHOD AND SYSTEM FOR ADAPTING A HEARING APPARATUS

Also Published As

Publication number Publication date
EP3836139B1 (de) 2023-06-07
EP3836139C0 (de) 2023-06-07
US20210185455A1 (en) 2021-06-17
US11425510B2 (en) 2022-08-23
EP3836139A1 (de) 2021-06-16
DE102019219510B3 (de) 2020-12-17
CN112995874A (zh) 2021-06-18

Similar Documents

Publication Publication Date Title
CN112995874B (zh) 将两个听力设备相互耦合的方法以及听力设备
US11671773B2 (en) Hearing aid device for hands free communication
US8958587B2 (en) Signal dereverberation using environment information
CN108200523A (zh) 包括自我话音检测器的听力装置
US20180054683A1 (en) Hearing system comprising a hearing device and a microphone unit for picking up a user's own voice
US20210360354A1 (en) Hearing aid comprising a left-right location detector
US20200120433A1 (en) Method for operating a hearing instrument and a hearing system containing a hearing instrument
US20170374476A9 (en) Hearing Eyeglass System and Method
US12058493B2 (en) Hearing device comprising an own voice processor
US11842725B2 (en) Detection of speech
US20220295191A1 (en) Hearing aid determining talkers of interest
CN108810778B (zh) 用于运行听力设备的方法和听力设备
US11991499B2 (en) Hearing aid system comprising a database of acoustic transfer functions
US20190385593A1 (en) Method for controlling the transmission of data between at least one hearing device and a peripheral device of a hearing device system and an associated hearing device system
CN113825078A (zh) 具有听力设备的听力系统和用于运行这种听力系统的方法
US20170325033A1 (en) Method for operating a hearing device, hearing device and computer program product
EP4258689A1 (en) A hearing aid comprising an adaptive notification unit
CN115811691A (zh) 用于运行听力设备的方法
US20240357296A1 (en) Hearing system comprising a database of acoustic transfer functions
US20230054213A1 (en) Hearing system comprising a database of acoustic transfer functions
CN116506780A (zh) 用于听力系统的用于调整听力设备的信号处理参数的方法
CN118072742A (zh) 训练说话人识别单元的方法及听力设备与通信设备的组合

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant