CN101242684A - 在听觉仪器系统中从直混比评定自己语音活动 - Google Patents

在听觉仪器系统中从直混比评定自己语音活动 Download PDF

Info

Publication number
CN101242684A
CN101242684A CNA2007101401451A CN200710140145A CN101242684A CN 101242684 A CN101242684 A CN 101242684A CN A2007101401451 A CNA2007101401451 A CN A2007101401451A CN 200710140145 A CN200710140145 A CN 200710140145A CN 101242684 A CN101242684 A CN 101242684A
Authority
CN
China
Prior art keywords
voice
sound
straight
write down
ratio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2007101401451A
Other languages
English (en)
Other versions
CN101242684B (zh
Inventor
瑟伦·劳格森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oticon AS
Original Assignee
Oticon AS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oticon AS filed Critical Oticon AS
Publication of CN101242684A publication Critical patent/CN101242684A/zh
Application granted granted Critical
Publication of CN101242684B publication Critical patent/CN101242684B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02087Noise filtering the noise being separate speech, e.g. cocktail party
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • G10L2021/065Aids for the handicapped in understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/50Customised settings for obtaining desired overall acoustical characteristics
    • H04R25/505Customised settings for obtaining desired overall acoustical characteristics using digital signal processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明提供一种在听觉仪器系统中识别用户自己语音的方法以及用于执行该方法的听觉仪器系统,其中至少一部分所记录的声音的直达声音部分的信号能量(1a;1b)和混响声音部分的信号能量(2a,3a;2b,3b)之间的直混比(DtoR)被用于评定该声音是否源于用户自己语音。这允许在听觉仪器系统中非常可靠地检测用户自己语音。此外,还提供一种包含用于执行该方法的自己语音检测器的听觉仪器系统。

Description

在听觉仪器系统中从直混比评定自己语音活动
技术领域
本发明涉及一种包括自己语音检测器的听觉仪器系统以及在听觉仪器系统中识别用户自己语音的方法。在这种背景下,听觉仪器可以是助听器,例如,耳内式(ITE)助听器、深耳道式(CIC)助听器或者耳后式(BTE)助听器、头戴式耳机、听觉保护装置、智能耳塞等。
背景技术
特别是当人们第一次开始戴助听器时,对助听器的最普遍的抱怨是他们自己语音的声音很大,或者听起来好象他们在向桶中说话。因此,存在识别助听器用户自己语音的需要,从而能够以不同于处理源自其它声音源的声音的方式处理用户自己的语音。
在现有技术文献WO 2004/077090A1中,说明了用于区分来自用户口中的声音和来自其它源的声音的不同方法。WO 2004/077090 A1中说明的方法的缺陷在于为了识别用户自己的语音需要来自两个或更多麦克风的信号。
基于从单个麦克风信号得到的量来识别助听器中用户自己的语音的其它已知方法是例如基于总的水平、声调、频谱形状、预报器系数的自相关与自相关的谱比较、倒谱系数、节律特征或调制韵律。没有证实并且甚至理论上也没有证明这些方法能执行可靠的自己语音检测。
用于识别用户自己语音的另一已知方法是基于来自谱转换器的输入,其拾取由声音行为引起的耳道中的振动。尽管该自己语音检测方法被认为是很可靠的,但是它需要特殊的转换器,该转换器被认为是难以实现且昂贵的。
本发明的目的是提供一种在听觉仪器系统中识别用户自己语音的方法以及提供一种包括自己语音检测器的听觉仪器系统,该自己语音检测器提供对用户自己语音的可靠且简单的检测。
发明内容
由根据权利要求1的方法和根据权利要求8的听觉仪器系统来实现本发明的目的。
在根据本发明的在听觉仪器系统中识别用户自己语音的方法中,基于至少一部分所记录的声音的直达声音部分的信号能量和混响声音部分的信号能量之间的直混比(DtoR)来评定该声音是源于用户自己语音还是源于其它声音源。该方法的优点在于直混比(DtoR)允许对用户自己语音非常可靠的检测。
根据本发明的优选实施例,当从信号能量的包络确定了直混比(DtoR)时,利用本方法可以基于来自一个麦克风的信号识别用户自己的语音。
利用直混比(DtoR),通过将直混比与自己语音阈值进行比较来评定声音是源自近场声音源(用户自己语音)还是源自远场声音源,其中所述自己语音阈值可以通过预先进行试验,从而根据经验来确定。
通过单独确定多个频带中的直混比并基于该多个频带的直混比评定声音是否源自用户自己语音可以实现在听觉仪器系统中检测用户自己语音的更可靠的方法。
如果基于直混比(DtoR)与所记录的声音的其它特征的组合来评定声音是否源自用户自己语音,则自己语音检测与仅基于直混比进行检测的情况相比具有更准确的优点。
附图说明
通过以下结合附图对优选实施例的说明,本领域的技术人员将更容易理解本发明。在附图中:
图1示出当源和接收器间隔几米时的混响声学环境的反射图的典型情况;
图2示出当源和接收器靠在一起时的混响声学环境的反射图的典型情况;
图3是根据本发明的听觉仪器系统中识别用户自己语音的方法的优选实施例的流程图;以及
图4是根据本发明的听觉仪器系统的优选实施例的示意性框图。
具体实施方式
在图1中,示出了存在反射面的声学环境的反射图。该直达声音1a的能量水平与包含早期反射2a和晚期混响3a的混响尾部的能量水平之间的所谓直混比(DtoR)对于声音源和声音接收器间隔几米的情况是典型的。如果接收器是听觉仪器麦克风而源是说话对方的语音,则是这种情况。
图2示出声音源是听觉仪器佩戴者自己语音的情况。附图标记1b表示直达声音,附图标记2b表示早期反射,附图标记3b表示晚期混响。显然,直混比(DtoR)与声音源和声音接收器间隔几米的情况中的直混比(DtoR)根本不同。图2情况中的直混比(DtoR)比图1情况中的直混比(DtoR)高许多。
在听觉仪器系统中识别用户自己语音的方法是基于发现声音信号的直混比(DtoR)在声音源自近场源的情况,如用户的自己语音,比声音源自远场源的情况更高。
图3示出根据本发明优选实施例的听觉仪器系统中识别用户自己语音的方法的基本步骤。
在第一步S1中,记录声音信号。在接下来的第二步S2中,将所记录的声音信号划分成多个频带。在第三步S3中,确定每个频带中短时间间隔例如20ms内的信号能量,以获得信号能量的包络。在第四步S4中,识别每个频带中的允许可靠估计直混比(DtoR)的有用声音事件。这是通过在例如700ms的连续片断中检查所确定的包络来实现的。由此检查每个连续片断是否包含足够陡的开始(对应于直达声音1a,1b)和足够持续时间的近似指数衰减的尾部(对应于混响声音2a,3a,2b,3b)。因此,所识别出的有用声音事件包含直达声音部分和混响声音部分。在步骤S5中,将步骤S4中识别出的声音事件按每个频带划分成直达声音部分和混响声音部分。在步骤S6中,按每个频带计算直达声音部分的信号能量(1a;1b)和混响声音部分的信号能量(2a,3a;2b,3b)之间的直混比(DtoR)。然后,在接下来的步骤S7中,将所有不同频带的各直混比(DtoR)组合成单个最终的直混比(组合后的直混比)。在此,组合后的直混比可以例如是子频带直混比的平均。在步骤S8中,将组合后的直混比与自己语音阈值进行比较,其中,自己语音阈值是在试验中按经验确定的。如果组合后的直混比超过自己语音阈值,则判定所记录的声音信号是用户自己语音。否则,判定所记录的声音信号不是用户自己语音。
如果判定所记录的声音信号是用户自己语音,则在将处理后的声音输出给用户之前,在听觉仪器中启动单独和专用信号处理。
在修改的实施例中,识别用户自己语音的方法可以结合其它自己语音检测器以获得更准确的最终自己语音检测器输出。与其它自己语音检测器的结合可以这样进行:对每个评定所记录的声音信号是用户自己语音的自己语音检测器设置标志。在此情况下,如果设置了预定数量的标志,则最终自己语音检测器输出确定所记录的声音信号是用户自己语音。由于从信号能量的包络确定直混比(DtoR)包含一秒量级的延迟这一事实,因此优选将本发明与现有技术中已知的其它更快的自己语音检测器相结合。这样,可以将基于直混比的自己语音检测的可靠性与其它低可靠方法检测的高速度相结合。
下面,参照图4说明用于执行上述方法的听觉仪器系统。
可以执行上述方法的听觉仪器系统20包括麦克风4、连接到麦克风4的A/D转换器5、输入连接到A/D转换器5的输出的数字信号处理单元6、输入连接到数字信号处理单元6的输出的D/A转换器7、以及连接到D/A转换器7的输出的扬声器8。数字信号处理单元6包括频带过滤器9、随机存取存储器(RAM)10、只读存储器(ROM)11以及中央处理单元(CPU)12。
麦克风4是用于记录声音信号的装置,频带过滤器9是用于将所记录的声音信号划分为多个频带的装置,CPU12、RAM10以及ROM11是用于确定短时间间隔内的信号能量的装置、用于识别有用声音事件的装置、用于将声音事件划分为直达部分和混响部分(1a,2a,3a;1b,2b,3b)的装置、用于计算每个频带的直混比(DtoR)的装置、用于将子频带直混比组合为最终组合后的直混比的装置、以及用于比较组合后的直混比(组合后的DtoR)与自己语音阈值以确定所记录的声音是否源于用户自己语音的装置。
听觉仪器系统可以是助听器,例如耳内式(ITE)助听器、深耳道式(CIC)助听器、耳后式(BTE)助听器或者耳内接收器(RITE)助听器。
可以对本发明的上述优选实施例进行修改。例如,说明了将所记录的声音信号划分为多个频带并计算每个频带的直混比(DtoR)。然而,只在一个宽频带中也可以实现本发明的自己语音检测。上述听觉仪器系统使用数字信号处理。然而,也可以使用声音信号的模拟处理。

Claims (14)

1. 一种用于在听觉仪器系统(20)中识别用户自己语音的方法,其特征在于包括以下步骤:
确定至少一部分所记录的声音的直达声音部分的信号能量和混响声音部分的信号能量之间的直混比;
以及基于所述直混比评定所述声音是否源自用户自己的语音。
2. 根据权利要求1所述的方法,其特征在于:评定所述声音是否源自所述用户自己语音的步骤包括以下步骤:
比较所述直混比与自己语音阈值,以及
如果所述直混比超过所述自己语音阈值,则评定所记录的声音源自所述用户自己语音。
3. 根据权利要求1所述的方法,其特征在于:
所述方法进一步包括将所记录的声音划分为多个频带的步骤;
确定所述多个频带中的每一个的所述直达声音部分的信号能量和所述混响声音部分的信号能量之间的直混比;以及
基于所述多个频带的直混比来评定所记录的声音是否源自所述用户自己的语音。
4. 根据权利要求3所述的方法,其特征在于:评定所述声音是否源自所述用户自己语音的步骤包括以下步骤
组合所确定的所述多个频带中的每一个的直混比,以获得组合后的直混比;
比较所述组合后的直混比和自己语音阈值;以及
如果所述组合后的直混比超过自己语音阈值,则评定所记录的声音源自所述用户自己语音。
5. 根据权利要求1~4任一所述的方法,其特征在于:确定所述直混比包括以下步骤
确定短时间间隔内的声音信号能量以获得这些间隔的信号能量包络;
从这些间隔的信号能量的包络计算所述直混比。
6. 根据权利要求5所述的方法,其特征在于:评定所述声音源于所述用户自己语音是基于所述直混比与所记录的声音的其它特征的组合。
7. 根据权利要求6所述的方法,其特征在于:所述方法进一步包括在所记录的声音中识别允许可靠估计所述直混比的声音事件的步骤。
8. 一种包括自己语音检测器的听觉仪器系统,其特征在于:所述自己语音检测器包括
确定装置,用于确定至少一部分所记录的声音的直达声音部分的信号能量和混响声音部分的信号能量之间的直混比;以及
评定装置,用于基于所述直混比来评定所记录的声音是否源自所述用户自己语音。
9. 根据权利要求8所述的听觉仪器系统,其特征在于:所述评定装置被配置成比较所述直混比与自己语音阈值,如果所述直混比超过所述自己语音阈值,则评定所记录的声音源自所述用户自己语音。
10. 根据权利要求8所述的听觉仪器系统,其特征在于:
所述听觉仪器系统进一步包括用于将所述声音事件划分为不同频带的划分装置;
所述确定装置确定每个频带的所述直混比;以及
所述评定装置基于每个频带的所述直混比来评定所记录的声音事件是否源自所述用户自己语音。
11. 根据权利要求10所述的听觉仪器系统,其特征在于:所述评定装置被配置成用于组合所确定的所述多个频带中的每一个的直混比以获得组合后的直混比,比较所述组合后的直混比和自己语音阈值;如果所述组合后的直混比超过自己语音阈值,则评定所记录的声音源自所述用户自己语音。
12. 根据权利要求8~11中任一项所述的听觉仪器系统,其特征在于:组合装置将所述评定装置的输出与其它自己语音检测器的输出进行组合以获得关于所记录的声音是否源于所述用户自己语音的更准确的判断。
13. 根据权利要求12所述的听觉仪器系统,其特征在于:所述确定装置被配置成用于确定短时间间隔内的声音信号能量以获得这些间隔的信号能量的包络并且用于从这些间隔的信号能量的包络计算所述直混比。
14. 根据权利要求13所述的听觉仪器系统,其特征在于:进一步包括识别装置,所述识别装置用于在所记录的声音中识别允许可靠估计所述直混比的声音事件。
CN2007101401451A 2007-02-06 2007-08-06 在听觉仪器系统中从直混比评定自己语音活动 Expired - Fee Related CN101242684B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP07101796.6 2007-02-06
EP07101796A EP1956589B1 (en) 2007-02-06 2007-02-06 Estimating own-voice activity in a hearing-instrument system from direct-to-reverberant ratio

Publications (2)

Publication Number Publication Date
CN101242684A true CN101242684A (zh) 2008-08-13
CN101242684B CN101242684B (zh) 2013-04-17

Family

ID=38123755

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2007101401451A Expired - Fee Related CN101242684B (zh) 2007-02-06 2007-08-06 在听觉仪器系统中从直混比评定自己语音活动

Country Status (7)

Country Link
US (1) US20080189107A1 (zh)
EP (1) EP1956589B1 (zh)
CN (1) CN101242684B (zh)
AT (1) ATE453910T1 (zh)
AU (2) AU2007221816B2 (zh)
DE (1) DE602007004061D1 (zh)
DK (1) DK1956589T3 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107431867A (zh) * 2014-11-19 2017-12-01 西万拓私人有限公司 用于快速识别自身语音的方法和设备
CN108781339A (zh) * 2016-03-10 2018-11-09 西万拓私人有限公司 用于运行助听器的方法以及用于根据单独的阈值检测自身语音的助听器
CN110364161A (zh) * 2019-08-22 2019-10-22 北京小米智能科技有限公司 响应语音信号的方法、电子设备、介质及系统

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK1599742T3 (da) * 2003-02-25 2009-07-27 Oticon As Fremgangsmåde til detektering af en taleaktivitet i en kommunikationsanordning
EP2899996B1 (en) 2009-05-18 2017-07-12 Oticon A/s Signal enhancement using wireless streaming
EP2306457B1 (en) 2009-08-24 2016-10-12 Oticon A/S Automatic sound recognition based on binary time frequency units
DK2352312T3 (da) 2009-12-03 2013-10-21 Oticon As Fremgangsmåde til dynamisk undertrykkelse af omgivende akustisk støj, når der lyttes til elektriske input
EP2381700B1 (en) 2010-04-20 2015-03-11 Oticon A/S Signal dereverberation using environment information
US10015589B1 (en) 2011-09-02 2018-07-03 Cirrus Logic, Inc. Controlling speech enhancement algorithms using near-field spatial statistics
US9781521B2 (en) 2013-04-24 2017-10-03 Oticon A/S Hearing assistance device with a low-power mode
DK3005731T3 (en) 2013-06-03 2017-07-10 Sonova Ag METHOD OF OPERATING A HEARING AND HEARING
DK2835985T3 (en) * 2013-08-08 2017-08-07 Oticon As Hearing aid and feedback reduction method
DK2849462T3 (en) 2013-09-17 2017-06-26 Oticon As Hearing aid device comprising an input transducer system
CN107210950A (zh) * 2014-10-10 2017-09-26 沐择歌有限责任公司 用于共享用户交互的设备
EP3588983B1 (en) 2018-06-25 2023-02-22 Oticon A/s A hearing device adapted for matching input transducers using the voice of a wearer of the hearing device
US11057721B2 (en) 2018-10-18 2021-07-06 Sonova Ag Own voice detection in hearing instrument devices
EP3863303B1 (en) * 2020-02-06 2022-11-23 Universität Zürich Estimating a direct-to-reverberant ratio of a sound signal
JP2024502930A (ja) 2020-11-30 2024-01-24 ソノヴァ アー・ゲー 聴取システムにおける自声検出のためのシステムおよび方法
EP3996390A1 (en) 2021-05-20 2022-05-11 Sonova AG Method for selecting a hearing program of a hearing device based on own voice detection

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3786188A (en) * 1972-12-07 1974-01-15 Bell Telephone Labor Inc Synthesis of pure speech from a reverberant signal
US6243322B1 (en) * 1999-11-05 2001-06-05 Wavemakers Research, Inc. Method for estimating the distance of an acoustic signal
JP2001324557A (ja) * 2000-05-18 2001-11-22 Sony Corp 近距離場における信号発信源の位置をアレーアンテナを用いて推定する装置及び方法
US6956955B1 (en) * 2001-08-06 2005-10-18 The United States Of America As Represented By The Secretary Of The Air Force Speech-based auditory distance display
DK1437031T3 (da) * 2001-10-05 2005-10-10 Oticon As Fremgangsmåde til programmering af en kommunikationsanordning og programmerbar kommunikationsanordning
DK1599742T3 (da) * 2003-02-25 2009-07-27 Oticon As Fremgangsmåde til detektering af en taleaktivitet i en kommunikationsanordning
DE102005032274B4 (de) * 2005-07-11 2007-05-10 Siemens Audiologische Technik Gmbh Hörvorrichtung und entsprechendes Verfahren zur Eigenstimmendetektion
US7974713B2 (en) * 2005-10-12 2011-07-05 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Temporal and spatial shaping of multi-channel audio signals
US20080002833A1 (en) * 2006-06-29 2008-01-03 Dts, Inc. Volume estimation by diffuse field acoustic modeling

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107431867A (zh) * 2014-11-19 2017-12-01 西万拓私人有限公司 用于快速识别自身语音的方法和设备
CN107431867B (zh) * 2014-11-19 2020-01-14 西万拓私人有限公司 用于快速识别自身语音的方法和设备
CN108781339A (zh) * 2016-03-10 2018-11-09 西万拓私人有限公司 用于运行助听器的方法以及用于根据单独的阈值检测自身语音的助听器
CN108781339B (zh) * 2016-03-10 2020-08-11 西万拓私人有限公司 用于运行助听器的方法以及用于根据单独的阈值检测自身语音的助听器
CN110364161A (zh) * 2019-08-22 2019-10-22 北京小米智能科技有限公司 响应语音信号的方法、电子设备、介质及系统
US11295740B2 (en) 2019-08-22 2022-04-05 Beijing Xiaomi Intelligent Technology Co., Ltd. Voice signal response method, electronic device, storage medium and system

Also Published As

Publication number Publication date
US20080189107A1 (en) 2008-08-07
AU2011201312B2 (en) 2011-06-23
EP1956589B1 (en) 2009-12-30
AU2007221816B2 (en) 2010-12-23
CN101242684B (zh) 2013-04-17
ATE453910T1 (de) 2010-01-15
DE602007004061D1 (de) 2010-02-11
EP1956589A1 (en) 2008-08-13
AU2007221816A1 (en) 2008-08-21
DK1956589T3 (da) 2010-04-26
AU2011201312A1 (en) 2011-04-14

Similar Documents

Publication Publication Date Title
CN101242684B (zh) 在听觉仪器系统中从直混比评定自己语音活动
US10631087B2 (en) Method and device for voice operated control
US9706280B2 (en) Method and device for voice operated control
ATE453294T1 (de) Hörgerät, verfahren für einen in-situ- okklusionseffekt und verfahren zur direktsendeschallmessung und öffnungsgrössenbestimmung
WO2004077090A1 (en) Method for detection of own voice activity in a communication device
US8155966B2 (en) Apparatus and method for producing an audible speech signal from a non-audible speech signal
US20220122605A1 (en) Method and device for voice operated control
CN108235181A (zh) 在音频处理装置中降噪的方法
WO2008128173A1 (en) Method and device for voice operated control
US20220150623A1 (en) Method and device for voice operated control
CN111028838A (zh) 一种语音唤醒方法、设备及计算机可读存储介质
CN113259826B (zh) 在电子终端中实现助听的方法和装置
CN111092668B (zh) 一种对讲终端环境噪音抑制特性的测试方法及系统
Samardzic et al. Binaural speech-to-noise loudness ratio at the speech reception threshold in vehicles
JPH10294997A (ja) 音声信号の処理回路および検査用装置
CN103888884B (zh) 一种喇叭检测方法及装置
Somarathne et al. A Study of the Variation of Acoustic Properties of Signals Received by Used Mobile Phones
CN115529543A (zh) 判断环境中的混响程度的方法及系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20130417

Termination date: 20210806

CF01 Termination of patent right due to non-payment of annual fee