CN114430848A - 一种用于识别一个或多个嘈杂人员的方法和噪声指示器系统 - Google Patents
一种用于识别一个或多个嘈杂人员的方法和噪声指示器系统 Download PDFInfo
- Publication number
- CN114430848A CN114430848A CN202080049319.7A CN202080049319A CN114430848A CN 114430848 A CN114430848 A CN 114430848A CN 202080049319 A CN202080049319 A CN 202080049319A CN 114430848 A CN114430848 A CN 114430848A
- Authority
- CN
- China
- Prior art keywords
- voice
- speech
- noise
- level
- persons
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/26—Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/033—Headphones for stereophonic communication
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/04—Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L2025/783—Detection of presence or absence of voice signals based on threshold decision
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/21—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
Abstract
一种用于识别在开放式办公室或其他开放式工作场所环境中讲话的一个或多个嘈杂人员的方法,该方法包括;测量工作场所环境中的话语的声级,分析讲话人员的语音特征以区分不同的讲话人员,估计一个或多个讲话人员中的每一个的声学噪声级。一种用于识别在开放式办公室或其他开放式工作场所环境中讲话的一个或多个嘈杂人员的噪声指示器系统,包括:一个或多个麦克风、被配置用于分析由麦克风记录的语音的语音分析器、被配置用于估计语音的噪声级的噪声级估计器、被配置用于记录和存储语音级数据的数据记录单元、被配置用于将记录的语音数据与存储在语音简档数据库中的语音数据进行比较的语音映射单元。
Description
技术领域
本发明涉及一种用于识别在开放式办公室或其他开放式工作场所环境中讲话的一个或多个嘈杂人员的方法和噪声指示器系统。本发明可以有利地应用于包括多个个人音频通信设备的系统,例如耳机和耳机基站、免提电话、诸如智能手机和其他移动电话的电话、平板电脑和包括诸如麦克风和扬声器的音频组件的个人计算机。
背景技术
由于办公室环境中的噪声通常是由房间里的人员的噪声行为引起的,大多数噪声与人们高声交谈有关,而没有考虑到他们打扰了试图专注于自己工作任务的同事而造成的巨大不便。
Jabra噪声指南是一款用于开放式办公室环境的产品,它使用内置麦克风和可选的多个卫星麦克风测量噪声,并且被配置为用三种颜色--绿色、黄色和红色--指示房间内的噪声量。当噪声超过规定的限度时,它就会亮起红灯,从而向嘈杂人员指示他们要么安静一点,要么找另一个地方继续说话,因为他们打扰了同事。Jabra噪声指南可以设置有多个麦克风单元,这些麦克风单元分布在一个房间或一套房间中,例如开放式办公室或车间或其他开放式工作场所环境,其中一群人在工作日期间通过话语进行交流。一个或多个显示单元可以位于同一房间或一套房间中。每个麦克风单元测量其位置处的声学噪声级,并将测量的声学噪声级传输到一个或多个显示单元,该显示单元以符号方式显示当前噪声级。噪声指示器系统给出有关噪声级的视觉反馈,从而使办公室和车间工人了解他们自己的噪声贡献,这通常有助于降低整体噪声级。理想情况下,每个办公桌或工作地点都应该配备有麦克风单元。在工作人员较多的较大办公室或房间中,麦克风单元可能会使噪声指示器系统相当昂贵,并可能进一步导致桌面和工作台的杂乱。
从欧洲专利EP 2863655 B1公开的一种用于估计声学噪声级的方法得知这种类型的噪声器指示系统的进一步发展,该方法包括:对于两个或更多个音频通信设备中的每一个,从环境空间接收声学信号,并通过由相应音频通信设备组成的麦克风提供对应的麦克风输出信号;根据麦克风输出信号重复估计本地声学噪声级;以及根据本地声学噪声级重复估计环境空间中声学噪声级的位置相关分布。该系统利用个人通信装备,诸如耳机和耳机基站,或电话,诸如移动电话通过其内置麦克风记录该装备用户的个人语音。
然而,现有技术的系统不提供与存在于特定工作环境中的每个人员相关联的个人噪声级估计,因为这些系统不识别单个语音,而仅仅指示通常在房间或办公室中的噪声级,或者更具体地说,作为基于所使用的麦克风的位置的声学噪声级的位置相关分布。
发明内容
因此,本发明的目的是分别提供一种用于识别在开放式办公室或其他开放式工作场所环境中讲话的一个或多个嘈杂人员的方法和一种用于识别在开放式办公室或其他开放式工作场所环境中讲话的一个或多个嘈杂人员的噪声指示器系统。
根据本发明,提供了一种用于识别在开放式办公室或其他开放式工作场所环境中讲话的一个或多个嘈杂人员的方法,该方法包括;测量工作场所环境中的话语的声级,分析讲话人员的语音特征以区分不同的讲话人员,估计一个或多个讲话人员中的每一个的声学噪声级,从而能够对高于预定噪声级讲话的人员给予个人反馈,目的是改善个人在工作场所环境中的行为。
该方法可进一步包括通过在预定时间段期间提供累积的声学话语级测量值来估计一个或多个讲话人员中的每一个的声学噪声级,从而提供对一个或多个嘈杂人员的更高级和更精确的识别。
该方法可进一步包括记录与已经以高于预定噪声级阈值的语音级讲话的人员相关联的声学噪声级测量值,以及他们的话语级已经高于设定阈值的时间量。以这种方式,可以记录特定人员大声说话的频率和时间。特别是,如果该方法进一步包括在噪声指示器系统中记录语音级数据,以及当需要评估时,从噪声指示器系统中检索噪声级数据,那么就可以从声音指示器系统中检索数据,从而看到在给定的时间段内--几小时、几天、几周、几个月等等,哪些人说话声音太大,持续了多长时间。
该方法可进一步包括记录在开放式工作场所环境中存在的一群人中的一个或多个人员的语音样本,并将这些语音样本存储在用户语音简档库中,以便稍后与来自工作场所环境的噪声/语音测量值进行比较,从而更容易识别嘈杂人员。
如果该方法进一步包括通过将语音特征与包括办公室环境中的人员的预录语音特征的用户语音简档库进行比较,将测量和分析的话语映射到特定的人员,则是一个优点。
在该方法的实施例中,由通过耳机的麦克风记录用户的语音并在用户语音简档库中创建和存储用户的语音简档,来分析在办公室环境中使用耳机的人员的语音特征。
该方法可进一步包括记录话语的小样本以及语音级映射,随后通过收听所记录话语的片段来识别讲话者。这是一个优点,例如,可以由上级或经理监控,目的是在需要时向嘈杂人员提供反馈,从而改善他或她在开放式工作场所环境中的行为。
为了改进语音简档数据库,该方法可进一步包括基于映射的语音样本向语音简档数据库添加新的语音简档或语音简档特征。
根据本发明的另一个方面,提供了一种用于识别在开放式办公室或其他开放式工作场所环境中讲话的一个或多个嘈杂人员的噪声指示器系统。该系统包括:一个或多个麦克风、被配置用于分析由麦克风记录的语音的语音分析器、被配置用于估计语音的噪声级的噪声级估计器、被配置用于记录和存储语音级数据的数据记录单元、被配置用于将记录的语音数据与存储在语音简档数据库中的语音数据进行比较的语音映射单元。该噪声指示器系统特别适用于执行上述方法,并因此提供相同的好处和优点。
该噪声指示器系统的优点是包括数据交换接口,用于与外部设备连接和交换记录的语音数据。由此,可以在具有更大容量的外部设备(例如个人计算机或数据服务器)处存储和进一步处理所记录的数据。
噪声指示器系统可进一步包括噪声指示器壳体,其中安装有麦克风,或者外部麦克风可以通过电缆或无线连接到噪声指示器壳体。
噪声指示器系统可以包括用于存储语音简档数据的语音简档数据库。语音简档数据库可以连接到语音样本数据库。
语音简档数据库和/或语音样本数据库可以存储在远程服务器处(例如云服务),以提供更多的存储容量,并使上级或管理者更容易访问系统中的数据。
如果该系统进一步包括用于指示当前和/或累积的噪声级的显示器,则是进一步的优点。显示器可以物理地放置在噪声指示器壳体内或通过电缆连接,或者是通过数据交换接口连接的无线显示器。显示器可以是用户或管理者的智能手机、平板电脑或PC屏幕的显示器。
附图说明
通过以下参考附图对示例性实施例的详细描述,上述和其他特征和优点对于本领域技术人员将变得显而易见,其中:
图1示意性地示出了根据本发明的示例性噪声指示器系统1。
图2示出了根据本发明的方法的流程图50。
具体实施方式
在下文中参考附图描述各种实施例。贯穿全文,相同的附图标记表示相同的元件。因此,将不再关于每个附图的描述来详细描述相同的元件。还应注意,附图仅旨在促进实施例的描述。它们不旨在作为所要求保护的发明的详尽描述或对所要求保护的发明的范围的限制。另外,示出的实施例不必具有所示的所有方面或优点。结合特定实施例描述的方面或优点不必限于该实施例,并且即使未如此示出或未如此明确地描述,也可以在任何其他实施例中实践。贯穿全文,相同的附图标记用于相同或相应的部分。
图1示意性地示出了根据本发明的示例性噪声指示器系统1。该噪声指示器系统被配置用于识别在开放式办公室或其他开放式工作场所环境中讲话的一个或多个嘈杂人员。该系统包括一个或多个麦克风2、被配置用于分析由麦克风2记录的语音的语音分析器3、被配置用于估计分析的语音的噪声级的噪声级估计器4、被配置用于记录和存储语音级数据的数据记录单元5,该数据记录单元包括诸如EEPROM或闪存的存储器电路、被配置用于将记录的语音数据与存储在语音简档数据库7中的语音数据进行比较的语音映射单元6、用于与外部设备连接和交换记录的语音数据的数据交换接口8。接口8可以包括诸如以太网或USB接口的电连接器13和/或诸如蓝牙或Wi-Fi的无线接口,该无线接口包括具有发射机14和接收机15的RF电路。接口8还被配置用于与噪声级估计器4和数据记录单元5进行内部数据通信。此外,数据记录单元5可以被配置用于与语音映射单元6、语音简档数据库7和语音样本数据库10进行内部数据通信。
语音分析器3可能需要“训练”,其中个别讲话人员阅读文本或将正常讲话的语音样本记录到系统中。该系统分析人员的特定语音,并使用它微调该人员的话语的识别,从而提高准确性。这也用于改进语音简档数据库7。
用于将所记录的语音映射到数据库7中的语音简档的语音特征可以包括音量、速度、音高、共振、发音、吐字、呼吸、停顿、辅音的长度、元音、音节、音域、音色或语音质量(例如细小、刺耳、疲倦、呼吸)、音调(情感质量)、音高的变化(例如旋律或语调)、省略、副语言发音,例如哭、笑、尖叫或其他具有意义的非单词发音。
噪声指示器系统1可以包括壳体9,其中麦克风2可以如图1所示安装,或者在另一个实施例中,它们可以是通过接口8通过电缆连接到电连接器13,或者经由接口14、15无线连接到噪声指示器壳体9的外部麦克风。
在实施例中,一个或多个麦克风安装在由用户在开放式工作场所环境中佩戴的音频通信耳机(未示出)中,并被配置用于记录耳机用户的话语。
在图1中还公开,可选地,语音简档数据库7和/或语音样本数据库10可以存储在远程服务器上,例如通过有线或无线数据网络16连接到噪声指示器壳体9的云服务11上,例如经由数据交换接口8,例如Wi-Fi、LAN或WAN,该接口还可以提供到互联网的进一步连接。
噪声指示器系统1可以包括显示器12,用于通过颜色或符号等指示每个被识别的人员的当前和/或累积的噪声级。显示器12可以物理地放置在噪声指示器壳体9内,或者通过电缆连接,或者是通过接口8连接的无线显示器。显示器12可以是用户的智能手机、平板电脑或PC屏幕的显示器。
此外,扬声器17对识别的嘈杂人员给予个人反馈,以使他或她能够改善工作场所环境中的行为。如图1所示,扬声器17可以物理地放置在噪声指示器壳体9内或通过有线连接,或者是通过接口8连接的无线扬声器。例如,扬声器可以是由用户佩戴的音频通信耳机的扬声器或位于用户办公桌处的免提电话设备。
可以将语音级数据记录在噪声指示器系统1内的数据记录单元5中,并且当需要评估时,通过接口8从噪声指示器系统检索噪声级数据。
语音样本数据库10可以存储在开放式工作场所环境中存在的一组人中的一个或多个人员的预录的语音样本,并且语音简档数据库7可以存储办公室环境中的人员的话语特征,以便稍后与来自工作场所环境的噪声/语音测量值进行比较。
在图2中,示出了流程图50,示出了根据本发明并且适用于在图1中公开的噪声指示器系统1中执行的方法。
该方法的实施例包括以下步骤:在步骤51中,通过使用安装在噪声指示器壳体9内部或外部连接的一个或多个麦克风2来测量开放式工作场所环境中的话语的声级。这可以通过由用户佩戴的耳机的麦克风记录用户的语音来完成。
在步骤52中,分析讲话人员的语音特征以区分不同的讲话者。在步骤53中,估计一个或多个讲话人员中的每一个的声学噪声级。这可以作为噪声级的瞬时测量值或通过在预定时间段期间提供累积的声学话语级测量值来估计一个或多个人员中的每一个的声学噪声级来完成。
在步骤54中,将声学噪声级测量值记录在存储器中。在步骤55中,通过将语音测量值与用户语音简档库进行比较,将所记录和分析的语音映射到特定的人员,并且在步骤56中,如果话语的音量和数量高于可接受的阈值,则识别嘈杂人员。
如果不能将记录的语音映射到特定的人,则可选地在步骤57中保存记录的话语的样本,并在语音简档数据库7中创建未知人员的新的语音简档。无论话语级是否可接受,语音简档数据库7都可以通过将记录的话语样本添加到被映射的人员的特定语音简档来改进。最后,也作为步骤58中的一个选项,对识别的嘈杂人员给予反馈,从而改善人员在开放式工作场所环境中的行为。
在步骤54中,可以进一步记录与以高于预定噪声级阈值的语音级讲话的人员相关联的声学噪声级测量值,以及他们的话语级已经高于设定阈值的时间量。
可以使用通过耳机麦克风记录的话语来创建用户的语音简档,并随后将其作为语音简档存储在语音简档数据库7中。
该方法可进一步包括记录话语的小样本以及话语级映射,随后通过收听所记录话语的片段来识别讲话者。例如,这可以由负责在开放式工作场所环境中工作的人员的上级或管理者来完成。
尽管已经示出和描述了特定的特征,但是应当理解,它们并不旨在限制要求保护的发明,并且对于本领域技术人员将显而易见的是,在不脱离要求保护的发明的范围的情况下可以进行各种改变和修改。因此,说明书和附图应被认为是说明性而非限制性的。要求保护的发明旨在涵盖所有替代、修改和等同形式。
参考列表
1噪声指示器系统
2麦克风
3语音分析器
4噪声级估计器
5数据记录单元
6语音映射单元
7语音简档数据库
8数据交换接口
9噪声指示器壳体
10语音样本数据库
11云服务
12显示器
13电连接器
14发射机
15接收机
16数据网络
17扬声器
Claims (15)
1.一种用于识别在开放式办公室或其他开放式工作场所环境中讲话的一个或多个嘈杂人员的方法,所述方法包括;测量工作场所环境中的话语的声级,分析讲话人员的语音特征以区分不同的讲话人员,估计一个或多个所述讲话人员中的每一个的声学噪声级。
2.根据权利要求1所述的方法,其中,通过在预定时间段期间提供累积的声学话语级测量值来完成估计一个或多个所述讲话人员中的每一个的所述声学噪声级。
3.根据权利要求1或2中任一项所述的方法,进一步包括记录与已经以高于预定噪声级阈值的语音级讲话的人员相关联的声学噪声级测量值,以及所述人员的话语级已经高于设定阈值的时间量。
4.根据前述权利要求中任一项所述的方法,进一步包括在噪声指示器设备中记录语音级数据,以及当需要评估时,从所述噪声指示器设备检索噪声级数据。
5.根据前述权利要求中任一项所述的方法,进一步包括记录在开放式工作场所环境中存在的一组人中的一个或多个人员的语音样本,并将这些语音样本存储在用户语音样本的数据库中,用于稍后与来自工作场所环境的噪声/语音测量值进行比较。
6.根据前述权利要求中任一项所述的方法,进一步包括通过将话语特征与包括办公室环境中的人员的预录话语特征的用户语音简档库进行比较,将测量和分析的话语映射到特定的人员。
7.根据前述权利要求中任一项所述的方法,进一步包括由通过耳机的麦克风记录用户的语音并在所述用户语音简档库中创建和存储用户的语音简档,来分析在所述办公室环境中使用耳机的人员的所述话语特征。
8.根据前述权利要求中任一项所述的方法,进一步包括记录话语的小样本以及话语级映射,随后通过收听记录的话语的小样本来识别讲话者。
9.根据前述权利要求中任一项所述的方法,进一步包括通过基于映射的语音样本添加新的语音简档或语音简档特征来改进语音简档数据库。
10.一种用于识别在开放式办公室或其他开放式工作场所环境中讲话的一个或多个嘈杂人员的噪声指示器系统(1),包括:一个或多个麦克风(2)、被配置用于分析由所述麦克风(2)记录的语音的语音分析器(3)、被配置用于估计所述语音的噪声级的噪声级估计器(4)、被配置用于记录和存储语音级数据的数据记录单元(5)、被配置用于将记录的语音数据与存储在语音简档数据库(7)中的语音数据进行比较的语音映射单元(6)。
11.根据权利要求10所述的噪声指示器系统,进一步包括数据交换接口(8),用于与外部设备连接和交换记录的语音数据。
12.根据权利要求10或11中任一项所述的噪声指示器系统,进一步包括噪声指示器壳体(9),并且其中,所述麦克风(2)安装在所述噪声指示器壳体(9)中,或者作为通过电缆或无线连接到所述噪声指示器壳体(9)的外部麦克风。
13.根据权利要求10至12中任一项所述的噪声指示器系统,其中,所述语音简档数据库(7)连接到语音样本数据库(10)。
14.根据权利要求10至13中任一项所述的噪声指示器系统,其中,所述语音简档数据库(7)和/或所述语音样本数据库(10)存储在远程服务器处,诸如在云服务(11)处。
15.根据权利要求10至14中任一项所述的噪声指示器系统,进一步包括用于指示当前和/或累积的噪声级的显示器(12)。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DKPA201900840 | 2019-07-05 | ||
DKPA201900840 | 2019-07-05 | ||
PCT/EP2020/068836 WO2021004941A1 (en) | 2019-07-05 | 2020-07-03 | A method and a noise indicator system for identifying one or more noisy persons |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114430848A true CN114430848A (zh) | 2022-05-03 |
Family
ID=71465363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080049319.7A Pending CN114430848A (zh) | 2019-07-05 | 2020-07-03 | 一种用于识别一个或多个嘈杂人员的方法和噪声指示器系统 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220284920A1 (zh) |
EP (1) | EP3994688A1 (zh) |
CN (1) | CN114430848A (zh) |
WO (1) | WO2021004941A1 (zh) |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7725307B2 (en) * | 1999-11-12 | 2010-05-25 | Phoenix Solutions, Inc. | Query engine for processing voice based queries including semantic decoding |
US7392185B2 (en) * | 1999-11-12 | 2008-06-24 | Phoenix Solutions, Inc. | Speech based learning/training system using semantic decoding |
US9076448B2 (en) * | 1999-11-12 | 2015-07-07 | Nuance Communications, Inc. | Distributed real time speech recognition system |
US20050288930A1 (en) * | 2004-06-09 | 2005-12-29 | Vaastek, Inc. | Computer voice recognition apparatus and method |
US20060122834A1 (en) * | 2004-12-03 | 2006-06-08 | Bennett Ian M | Emotion detection device & method for use in distributed systems |
US7376557B2 (en) * | 2005-01-10 | 2008-05-20 | Herman Miller, Inc. | Method and apparatus of overlapping and summing speech for an output that disrupts speech |
US9318108B2 (en) * | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US9183560B2 (en) * | 2010-05-28 | 2015-11-10 | Daniel H. Abelow | Reality alternate |
US8774368B2 (en) * | 2012-06-08 | 2014-07-08 | Avaya Inc. | System and method to use enterprise communication systems to measure and control workplace noise |
EP2863655B1 (en) | 2013-10-21 | 2018-05-02 | GN Audio A/S | Method and system for estimating acoustic noise levels |
EP2892037B1 (en) * | 2014-01-03 | 2017-05-03 | Alcatel Lucent | Server providing a quieter open space work environment |
US9715875B2 (en) * | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US10127911B2 (en) * | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10255907B2 (en) * | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US9877128B2 (en) * | 2015-10-01 | 2018-01-23 | Motorola Mobility Llc | Noise index detection system and corresponding methods and systems |
US10467509B2 (en) * | 2017-02-14 | 2019-11-05 | Microsoft Technology Licensing, Llc | Computationally-efficient human-identifying smart assistant computer |
GB201710215D0 (en) * | 2017-06-27 | 2017-08-09 | Flowscape Ab | Monitoring noise levels within an environment |
KR102635811B1 (ko) * | 2018-03-19 | 2024-02-13 | 삼성전자 주식회사 | 사운드 데이터를 처리하는 시스템 및 시스템의 제어 방법 |
-
2020
- 2020-07-03 US US17/597,403 patent/US20220284920A1/en active Pending
- 2020-07-03 CN CN202080049319.7A patent/CN114430848A/zh active Pending
- 2020-07-03 EP EP20736690.7A patent/EP3994688A1/en active Pending
- 2020-07-03 WO PCT/EP2020/068836 patent/WO2021004941A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
EP3994688A1 (en) | 2022-05-11 |
WO2021004941A1 (en) | 2021-01-14 |
US20220284920A1 (en) | 2022-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230300247A1 (en) | Voice and speech recognition for call center feedback and quality assurance | |
Ortega-Garcia et al. | AHUMADA: A large speech corpus in Spanish for speaker characterization and identification | |
TWI570624B (zh) | A volume adjustment method of the user terminal, a volume adjustment device, and a terminal device | |
US8078470B2 (en) | System for indicating emotional attitudes through intonation analysis and methods thereof | |
JP6268717B2 (ja) | 状態推定装置、状態推定方法及び状態推定用コンピュータプログラム | |
US20160240215A1 (en) | System and Method for Text-to-Speech Performance Evaluation | |
US20120303369A1 (en) | Energy-Efficient Unobtrusive Identification of a Speaker | |
JP5731998B2 (ja) | 対話支援装置、対話支援方法および対話支援プログラム | |
WO2015034633A1 (en) | Method for non-intrusive acoustic parameter estimation | |
CN111369976A (zh) | 测试语音识别设备的方法及测试装置 | |
CN108762494A (zh) | 显示信息的方法、装置及存储介质 | |
JP2013011830A (ja) | 異常状態検出装置、電話機、異常状態検出方法、及びプログラム | |
KR101698369B1 (ko) | 사용자 음성 신호를 이용하는 정보 제공 장치 및 정보 제공 방법 | |
JP4587854B2 (ja) | 感情解析装置、感情解析プログラム、プログラム格納媒体 | |
CN107403629B (zh) | 远场拾音性能评价方法和系统、电子设备 | |
JP5988077B2 (ja) | 発話区間検出装置及び発話区間検出のためのコンピュータプログラム | |
US20220284920A1 (en) | A method and a noise indicator system for identifying one or more noisy persons | |
US20020147587A1 (en) | System for measuring intelligibility of spoken language | |
WO2019187521A1 (ja) | 音声情報送信装置、音声情報送信方法、音声情報送信プログラム、音声情報解析システム及び音声情報解析サーバ | |
US8244538B2 (en) | Measuring double talk performance | |
KR101429138B1 (ko) | 복수의 사용자를 위한 장치에서의 음성 인식 방법 | |
Mason et al. | The role of dynamics in visual speech biometrics | |
KR102350890B1 (ko) | 휴대용 청력검사장치 | |
Srivastava et al. | Multi-scenario dataset for speaker recognition | |
Aburas et al. | Emerging Results on symbian based perceptual evaluation of speech quality for telecommunication networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |