RU2648604C2 - Способ и аппаратура для генерации сигнала речи - Google Patents
Способ и аппаратура для генерации сигнала речи Download PDFInfo
- Publication number
- RU2648604C2 RU2648604C2 RU2015140965A RU2015140965A RU2648604C2 RU 2648604 C2 RU2648604 C2 RU 2648604C2 RU 2015140965 A RU2015140965 A RU 2015140965A RU 2015140965 A RU2015140965 A RU 2015140965A RU 2648604 C2 RU2648604 C2 RU 2648604C2
- Authority
- RU
- Russia
- Prior art keywords
- speech
- microphone
- signal
- similarity
- indication
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 230000004044 response Effects 0.000 claims abstract description 32
- 239000013598 vector Substances 0.000 claims description 42
- 238000012545 processing Methods 0.000 abstract description 14
- 230000000694 effects Effects 0.000 abstract description 7
- 239000000126 substance Substances 0.000 abstract 1
- 238000004891 communication Methods 0.000 description 29
- 230000005236 sound signal Effects 0.000 description 11
- 238000001228 spectrum Methods 0.000 description 8
- 230000008901 benefit Effects 0.000 description 5
- 239000012634 fragment Substances 0.000 description 5
- 230000003595 spectral effect Effects 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000007476 Maximum Likelihood Methods 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000001052 transient effect Effects 0.000 description 3
- 230000003321 amplification Effects 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000002045 lasting effect Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/02—Casings; Cabinets ; Supports therefor; Mountings therein
- H04R1/025—Arrangements for fixing loudspeaker transducers, e.g. in a box, furniture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/406—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L2021/02082—Noise filtering the noise being echo, reverberation of the speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L2021/02161—Number of inputs available containing the signal or the noise to be suppressed
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2201/00—Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
- H04R2201/02—Details casings, cabinets or mounting therein for transducers covered by H04R1/02 but not provided for in any of its subgroups
- H04R2201/023—Transducers incorporated in garment, rucksacks or the like
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2420/00—Details of connection covered by H04R, not provided for in its groups
- H04R2420/07—Applications of wireless loudspeakers or wireless microphones
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Otolaryngology (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- General Health & Medical Sciences (AREA)
- Circuit For Audible Band Transducer (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
Abstract
Изобретение относится к средствам для генерации сигнала речи. Технический результат заключается в повышении качества речи за счет уменьшения реверберации. Аппаратура содержит микрофонные приемники (101), которые принимают сигналы микрофонов от множества микрофонов (103). Блок (105) сравнения определяет указание сходства речи, указывающее на сходство между сигналом микрофона и нереверберирующей речью, для каждого сигнала микрофона. Определение происходит в ответ на сравнение характеристики, получаемой из сигнала микрофона, со справочной характеристикой для нереверберирующей речи. В некоторых вариантах осуществления, блок (105) сравнения определяет указание сходства речи посредством сравнения со справочными характеристиками для сэмплов речи из набора сэмплов нереверберирующей речи. Генератор (107) генерирует сигнал речи посредством объединения сигналов микрофонов в ответ на указания сходства. Аппаратура может быть распределена по множеству устройств, причем каждое устройство содержит микрофон, и данный метод может определить наиболее подходящий микрофон для генерации сигнала речи. 2 н. и 12 з.п. ф-лы, 4 ил.
Description
ОБЛАСТЬ ТЕХНИКИ, К КОТОРОЙ ОТНОСИТСЯ ИЗОБРЕТЕНИЕ
Данное изобретение относится к способу и аппаратуре для генерации сигнала речи, в частности к генерации сигнала речи из множества сигналов микрофонов, таких как, например, микрофоны в разных устройствах.
УРОВЕНЬ ТЕХНИКИ
Традиционно, речевая связь между удаленными пользователями обеспечивалась посредством прямой двусторонней связи с использованием специальных устройств на каждом конце. Конкретно, традиционная связь между двумя пользователями обеспечивалась через проводную телефонную связь или беспроводную радиосвязь между двумя приемопередатчиками радиосвязи. Однако, в последние десятилетия, существенно увеличилось разнообразие возможностей для захвата и передачи речи, и был разработан целый ряд новых услуг и речевых применений, включая более гибкие применения для речевой связи.
Например, широкое распространение возможности подключения широкополосного Интернета привело к новым способам связи. Интернет-телефония существенно снизила стоимость связи. Это, в сочетании с тенденцией перемещения семей и друзей по всему миру, привело к большой продолжительности телефонных разговоров. Вызовы с использованием VoIP (Voice over Internet Protocol - передача голоса с помощью протокола сети Интернет), длящиеся больше часа, не являются редкостью, и пользовательский комфорт во время таких продолжительных вызовов является теперь более важным, чем когда-либо.
Дополнительно, диапазон устройств, которыми владеет или которые использует пользователь, существенно вырос. Конкретно, устройства, снабженные захватом звука (звукозаписью) и, обычно, беспроводной передачей данных, становятся все более распространенными, как, например, мобильные телефоны, планшетные компьютеры, портативные компьютеры, и т.д.
Качество большинства речевых применений сильно зависит от качества захваченной речи. Следовательно, большинство практических применений основано на расположении микрофона близко ко рту говорящего. Например, мобильные телефоны включают в себя микрофон, который при использовании пользователи располагают близко к своему рту. Однако такой метод может быть невыполнимым во многих сценариях и может обеспечить взаимодействие с пользователем, которое не является оптимальным. Например, для пользователя может быть невыполнимой необходимость удерживания планшетного компьютера близко к голове.
Для обеспечения более свободного и более гибкого взаимодействия с пользователем были предложены различные решения громкой связи. Эти решения включают в себя беспроводные микрофоны, которые содержатся в очень маленьких корпусах, которые могут быть надеты и, например, прикреплены к одежде пользователя. Однако это все же воспринимается как неудобство во многих сценариях. Фактически, обеспечение громкой связи со свободой перемещения и многозадачностью во время вызова, но без необходимости нахождения близко к устройству или надевания телефонной гарнитуры, является важным шагом в направлении улучшения взаимодействия с пользователем.
Другим методом является использование громкой связи на основе микрофона, расположенного дальше от пользователя. Например, были разработаны системы конференц-связи, которые, при расположении, например, на столе, обеспечивают захват речи говорящих, находящихся в помещении. Однако такие системы, как правило, не всегда обеспечивают оптимальное качество речи, и, в частности, речь более удаленных пользователей, как правило, является слабо слышимой и имеет шумы. Также, в таких сценариях, захваченная речь, как правило, имеет высокую степень реверберации, которая может существенно снизить разборчивость речи.
Было предложено использовать более одного микрофона, например, для таких систем конференц-связи. Однако проблема в таких случаях заключается в том, как объединить множество сигналов микрофонов. Общепринятым методом является простое суммирование этих сигналов вместе. Однако это, как правило, не обеспечивает оптимальное качество речи. Были предложены различные более сложные методы, такие как выполнение взвешенного суммирования на основе относительных уровней сигналов микрофонов. Однако эти методы не обеспечивают, как правило, оптимальную производительность во многих сценариях, например, они все же включают в себя высокую степень реверберации, восприимчивость к абсолютным уровням, сложность, необходимость централизованного доступа ко всем сигналам микрофонов, относительную непрактичность, необходимость специальных устройств, и т.д.
Следовательно, был бы предпочтительным улучшенный метод для захвата сигналов речи, и, в частности, был бы предпочтительным метод, обеспечивающий возможность увеличения гибкости, улучшения качества речи, уменьшения реверберации, уменьшения сложности, уменьшения требований по связи, увеличения приспособленности для разных устройств (включая многофункциональные устройства), уменьшения потребности в ресурсах и/или улучшения производительности.
СУЩНОСТЬ ИЗОБРЕТЕНИЯ
Таким образом, задачей данного изобретения является, предпочтительно, ослабить, смягчить или устранить один или несколько вышеупомянутых недостатков, отдельно или в любой комбинации.
Согласно аспекту данного изобретения, обеспечена аппаратура по п. 1 формулы изобретения.
Данное изобретение может обеспечить возможность генерации улучшенного сигнала речи во многих вариантах осуществления. В частности, оно может во многих вариантах осуществления обеспечить возможность генерации сигнала речи с меньшей реверберацией и/или, часто, меньшим шумом. Этот метод может обеспечить улучшенную производительность речевых применений, и может, в частности, во многих сценариях и вариантах осуществления, обеспечить улучшенную речевую связь.
Сравнение по меньшей мере одной характеристики, получаемой из сигналов микрофонов, со справочной характеристикой для нереверберирующей речи, обеспечивает конкретный эффективный и точный способ идентификации относительной важности отдельных сигналов микрофонов для сигнала речи и может, в частности, обеспечить лучшую оценку, чем методы на основе, например, меры уровня сигнала или меры отношения сигнал-шум. Фактически, соотношение захваченного звукового сигнала и сигналов нереверберирующей речи может обеспечить ясное указание на то, какая доля речи достигает микрофона по прямому пути, и какая доля достигает микрофона по реверберирующим путям.
По меньшей мере одна справочная характеристика может быть одной или несколькими характеристиками/ значениями, которые связаны с нереверберирующей речью. В некоторых вариантах осуществления, по меньшей мере одна справочная характеристика может быть набором характеристик, соответствующих разным сэмплам (выборкам, фрагментам) нереверберирующей речи. Может быть определено, что указание сходства отражает различие между значением по меньшей мере одной характеристики, получаемой из сигнала микрофона, и значением по меньшей мере одной справочной характеристики для нереверберирующей речи, и, конкретно, по меньшей мере одной справочной характеристики одного сэмпла нереверберирующей речи. В некоторых вариантах осуществления, по меньшей мере одна характеристика, получаемая из сигнала микрофона, может быть самим сигналом микрофона. В некоторых вариантах осуществления, по меньшей мере одна справочная характеристика для нереверберирующей речи может быть сигналом нереверберирующей речи. Альтернативно, эта характеристика может быть подходящим признаком, таким как огибающие спектра, нормированные по коэффициенту усиления.
Микрофоны, обеспечивающие сигналы микрофонов, могут быть, во многих вариантах осуществления, микрофонами, распределенными в некоторой области, и могут быть удаленными друг от друга. Метод может, в частности, обеспечить улучшенное использование звукового сигнала, захваченного в разных положениях, без необходимости знания или предположения этих положений пользователем или аппаратурой/ системой. Например, микрофоны могут быть случайно распределены произвольным образом в помещении, и система может автоматически приспособиться к обеспечению улучшенного сигнала речи для конкретного расположения.
Сэмплы нереверберирующей речи могут быть, конкретно, сэмплами, по существу, «сухой», или безэховой речи.
Указание сходства речи может быть любым указанием степени различия или сходства между отдельным сигналом микрофона (или его частью) и нереверберирующей речью, как, например, сэмплом нереверберирующей речи. Указание сходства речи может быть указанием сходства по восприятию.
Согласно необязательному признаку данного изобретения, аппаратура содержит множество отдельных устройств, причем каждое устройство содержит микрофонный приемник для приема по меньшей мере одного сигнала микрофона из множества сигналов микрофонов.
Это может обеспечить конкретный эффективный метод для генерации сигнала речи. Во многих вариантах осуществления, каждое устройство может содержать микрофон, обеспечивающий сигнал микрофона. Данное изобретение может обеспечить улучшенные и/или новые взаимодействия с пользователем с улучшенной производительностью.
Например, некоторое количество возможных различных устройств может быть расположено в помещении. При выполнении речевого применения, такого как речевая связь, каждое из отдельных устройств может обеспечить сигнал микрофона, и эти устройства могут быть оценены для нахождения наиболее подходящих устройств/ микрофонов для использования для генерации сигнала речи.
Согласно необязательному признаку данного изобретения, по меньшей мере первое устройство из множества отдельных устройств содержит локальный блок сравнения для определения первого указания сходства речи по меньшей мере для одного сигнала микрофона первого устройства.
Это может обеспечить улучшенное функционирование во многих сценариях и может, в частности, обеспечить распределенную обработку, которая может уменьшить, например, потребности в ресурсах связи и/или в распределенных вычислительных ресурсах.
Конкретно, во многих вариантах осуществления, отдельные устройства могут определить указание сходства локально и могут передать сигнал микрофона, только если критерий сходства соответствует критерию.
Согласно необязательному признаку данного изобретения, генератор реализован в генерирующем устройстве, отдельном по меньшей мере от первого устройства; и причем первое устройство содержит передатчик для передачи первого указания сходства речи к генерирующему устройству.
Это может обеспечить предпочтительные реализацию и функционирование во многих вариантах осуществления. В частности, это может обеспечить во многих вариантах осуществления одно устройство для оценки качества речи на всех других устройствах без необходимости передачи какого-либо звукового сигнала или сигнала речи. Передатчик может быть выполнен с возможностью передачи первого указания сходства речи через беспроводной канал связи, такой как канал связи стандарта Bluetooth™ или стандарта Wi-Fi.
Согласно необязательному признаку данного изобретения, генерирующее устройство выполнено с возможностью приема указаний сходства речи от каждого из множества отдельных устройств, и причем генератор выполнен с возможностью генерации сигнала речи с использованием поднабора сигналов микрофонов от множества отдельных устройств, причем этот поднабор определяют в ответ на указания сходства речи, принимаемые от множества отдельных устройств.
Это может обеспечить высокоэффективную систему во многих сценариях, где сигнал речи может быть сгенерирован из сигналов микрофонов, захватываемых посредством разных устройств, с использованием только наилучшего поднабора устройств для генерации сигнала речи. Таким образом, ресурсы связи существенно уменьшаются, обычно без значительного влияния на результирующее качество сигнала речи.
Во многих вариантах осуществления, этот поднабор может включать в себя только единственный микрофон. В некоторых вариантах осуществления, генератор может быть выполнен с возможностью генерации сигнала речи от единственного сигнала микрофона, выбираемого из множества сигналов микрофонов на основе указаний сходства.
Согласно необязательному признаку данного изобретения, по меньшей мере одно устройство из множества отдельных устройств выполнено с возможностью передачи по меньшей мере одного сигнала микрофона по меньшей мере одного устройства к генерирующему устройству, только если по меньшей мере один сигнал микрофона по меньшей мере одного устройства содержится в поднаборе сигналов микрофонов.
Это может уменьшить использование ресурсов связи и может уменьшить использование ресурсов связи для устройств, для которых сигнал микрофона не включен в этот поднабор. Передатчик может быть выполнен с возможностью передачи по меньшей мере одного сигнала микрофона через беспроводной канал связи, такой как канал связи стандарта Bluetooth™ или стандарта Wi-Fi.
Согласно необязательному признаку данного изобретения, генерирующее устройство содержит устройство выбора, выполненное с возможностью определения поднабора сигналов микрофонов, и передатчик для передачи указания на этот поднабор по меньшей мере для одного их множества отдельных устройств.
Это может обеспечить преимущества функционирования во многих сценариях.
В некоторых вариантах осуществления, генератор может определять этот поднабор и может быть выполнен с возможностью передачи указания на этот поднабор по меньшей мере для одного устройства из множества устройств. Например, для устройства или устройств сигналов микрофонов, содержащихся в поднаборе, генератор может передать указание на то, что устройство должно передать сигнал микрофона к генератору.
Передатчик может быть выполнен с возможностью передачи этого указания через беспроводной канал связи, такой как канал связи стандарта Bluetooth™ или стандарта Wi-Fi.
Согласно необязательному признаку данного изобретения, блок сравнения выполнен с возможностью определения указания сходства для первого сигнала микрофона в ответ на сравнение по меньшей мере одной характеристики, получаемой из сигнала микрофона, со справочными характеристиками для сэмплов речи из набора сэмплов нереверберирующей речи.
Сравнение сигналов микрофонов с большим набором сэмплов нереверберирующей речи (например, в подходящей области признака) обеспечивает конкретный эффективный и точный способ идентификации относительной важности отдельных сигналов микрофонов для сигнала речи и может, в частности, обеспечить лучшую оценку, чем методы на основе, например, меры уровня сигнала или меры отношения сигнал-шум. Фактически, соотношение захваченного звукового сигнала и сигнала нереверберирующей речи может обеспечить ясное указание на то, какая доля речи достигает микрофона по прямому пути и какая доля достигает микрофона по реверберирующим/ отраженным путям. Фактически, можно предположить, что сравнение с сэмплами нереверберирующей речи включает в себя рассмотрение формы импульсной переходной характеристики путей звука, а не только рассмотрение энергии или уровня.
Метод может быть независимым от говорящего, и, в некоторых вариантах осуществления, набор сэмплов нереверберирующей речи может включать в себя сэмплы, соответствующие разным характеристикам говорящего (таким как высокий или низкий голос). Во многих вариантах осуществления, обработка может быть сегментирована, и набор сэмплов нереверберирующей речи может, например, содержать сэмплы, соответствующие фонемам человеческой речи.
Блок сравнения может определить для каждого сигнала микрофона отдельное указание сходства для каждого сэмпла речи из набора сэмплов нереверберирующей речи. Указание сходства для сигнала микрофона может быть определено из отдельных указаний сходства, например, посредством выбора отдельного указания сходства, который указывает на наивысшую степень сходства. Во многих сценариях, может быть идентифицирован наилучшим образом согласующийся сэмпл речи, и указание сходства для сигнала микрофона может быть определено в отношении этого сэмпла речи. Указание сходства может обеспечить указание сходства сигнала микрофона (или его части) с сэмплом нереверберирующей речи из набора сэмплов нереверберирующей речи, для которого найдено наибольшее сходство.
Указание сходства для данного сэмпла сигнала речи может отражать правдоподобие того, что сигнал микрофона, получаемый из фрагмента речи, соответствует сэмплу речи.
Согласно необязательному признаку данного изобретения, сэмплы речи из набора сэмплов нереверберирующей речи представлены посредством параметров для модели нереверберирующей речи.
Это может обеспечить эффективное, надежное и/или точное функционирование. Метод может во многих вариантах осуществления уменьшить потребности в вычислительных ресурсах и/или ресурсах памяти.
Блок сравнения может в некоторых вариантах осуществления оценивать модель для различных наборов параметров и сравнивать результирующие сигналы с сигналом (сигналами) микрофона. Например, могут быть сравнены частотные представления сигналов микрофонов и сэмплов речи.
В некоторых вариантах осуществления, параметры модели для модели речи могут быть сгенерированы из сигнала микрофона, т.е. могут быть определены параметры модели, которые должны привести к согласованию сэмпла речи и сигнала микрофона. Эти параметры модели могут быть сравнены с параметрами набора сэмплов нереверберирующей речи.
Модель нереверберирующей речи может быть, конкретно, моделью линейного предсказания, такой как модель CELP (Code-Excited Linear Prediction - линейное предсказание с кодовым возбуждением).
Согласно необязательному признаку данного изобретения, блок сравнения выполнен с возможностью определения первой справочной характеристики для первого сэмпла речи из набора сэмплов нереверберирующей речи из сигнала сэмпла речи, генерируемого посредством оценки модели нереверберирующей речи, с использованием параметров для первого сэмпла речи, и определения указания сходства для первого сигнала микрофона из множества сигналов микрофонов, в ответ на сравнение характеристики, получаемой из первого сигнала микрофона, и первой справочной характеристики.
Это может обеспечить предпочтительное функционирование во многих сценариях. Указание сходства для первого сигнала микрофона может быть определено посредством сравнения характеристики, определяемой для первого сигнала микрофона, со справочными характеристиками, определяемыми для каждого из сэмплов нереверберирующей речи, причем справочные характеристики определяют из представления сигнала, генерируемого посредством оценки модели. Таким образом, блок сравнения может сравнить характеристику сигнала микрофона с характеристикой сэмплов сигналов, получаемой в результате оценки модели нереверберирующей речи, с использованием сохраненных параметров для сэмплов нереверберирующей речи.
Согласно необязательному признаку данного изобретения, блок сравнения выполнен с возможностью разложения первого сигнала микрофона из множества сигналов микрофонов в набор базисных сигнальных векторов; и определения указания сходства в ответ на характеристику из этого набора базисных сигнальных векторов.
Это может обеспечить предпочтительное функционирование во многих сценариях. Метод может обеспечить уменьшение сложности и/или использования ресурсов во многих сценариях. Справочная характеристика может относиться к набору базисных векторов в подходящей области признака, из которых может быть сгенерирован вектор нереверберирующего признака в виде взвешенной суммы базисных векторов. Этот набор может быть рассчитан таким образом, чтобы взвешенной суммы с использованием только немногих базисных векторов было достаточно для точного описания вектора нереверберирующего признака, т.е. набор базисных векторов обеспечивает разреженное представление для нереверберирующей речи. Справочная характеристика может быть количеством базисных векторов, которые появляются во взвешенной сумме. Использование набора базисных векторов, который рассчитан для нереверберирующей речи, для описания вектора признака реверберирующей речи, приведет к менее разреженному разложению. Эта характеристика может быть количеством базисных векторов, которые имеют ненулевой вес (или вес выше заданного порога), при использовании для описания вектора признака, извлекаемого из сигнала микрофона. Указание сходства может указывать на увеличение сходства с нереверберирующей речью при уменьшении количества базисных сигнальных векторов.
Согласно необязательному признаку данного изобретения, блок сравнения выполнен с возможностью определения указаний сходства речи для каждого сегмента из множества сегментов сигнала речи, а генератор выполнен с возможностью определения параметров объединения для объединения для каждого сегмента.
Аппаратура может использовать сегментированную обработку. Объединение может быть неизменным для каждого сегмента, но может быть изменено от одного сегмента к следующему. Например, сигнал речи может быть сгенерирован посредством выбора одного сигнала микрофона в каждом сегменте. Параметры объединения могут быть, например, весами объединений для сигнала микрофона или могут быть, например, выбором поднабора сигналов микрофонов для включения в объединение. Метод может обеспечить улучшенную производительность и/или облегченное функционирование.
Согласно необязательному признаку данного изобретения, генератор выполнен с возможностью определения параметров объединения для одного сегмента, в ответ на указания сходства по меньшей мере одного предыдущего сегмента.
Это может обеспечить улучшенную производительность во многих сценариях. Например, это может обеспечить лучшую приспособленность к медленным изменениям и может уменьшить разрывы в генерируемом сигнале речи.
В некоторых вариантах осуществления, параметры объединения могут быть определены только на основе сегментов, содержащих речь, а не на основе сегментов во время периодов молчания или пауз.
В некоторых вариантах осуществления, генератор выполнен с возможностью определения параметров объединения для первого сегмента в ответ на модель перемещения пользователя.
Согласно необязательному признаку данного изобретения, генератор выполнен с возможностью выбора поднабора сигналов микрофонов для объединения, в ответ на указания сходства.
Это может обеспечить улучшенное и/или облегченное функционирование во многих вариантах осуществления. Объединение может быть, конкретно, объединением с выбором. Генератор может, конкретно, выбрать только сигналы микрофонов, для которых указание сходства соответствует абсолютному или относительному критерию.
В некоторых вариантах осуществления, поднабор сигналов микрофонов содержит только один сигнал микрофона.
Согласно необязательному признаку данного изобретения, генератор выполнен с возможностью генерации сигнала речи в виде взвешенного объединения сигналов микрофонов, причем вес для первого из сигналов микрофонов зависит от указания сходства для сигнала микрофона.
Это может обеспечить улучшенное и/или облегченное функционирование во многих вариантах осуществления.
Согласно аспекту данного изобретения, обеспечен способ генерации сигнала речи, причем этот способ предусматривает: прием сигналов микрофонов от множества микрофонов; для каждого сигнала микрофона, определение указания сходства речи, указывающего на сходство между сигналом микрофона и нереверберирующей речью, причем указание сходства определяют в ответ на сравнение по меньшей мере одной характеристики, получаемой из сигнала микрофона, по меньшей мере с одной справочной характеристикой для нереверберирующей речи; и генерацию сигнала речи посредством объединения сигналов микрофонов в ответ на указания сходства.
Эти и другие аспекты, признаки и преимущества данного изобретения будут ясны из варианта (вариантов) осуществления, описанных ниже, и будут прояснены со ссылкой на него (них).
КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙ
Варианты осуществления данного изобретения будут описаны, только в качестве примера, со ссылкой на чертежи, в которых
Фиг. 1 является иллюстрацией аппаратуры захвата речи согласно некоторым вариантам осуществления данного изобретения;
Фиг. 2 является иллюстрацией системы захвата речи согласно некоторым вариантам осуществления данного изобретения;
Фиг. 3 иллюстрирует пример огибающих спектра, соответствующих сегменту речи, записанному на трех разных расстояниях в реверберирующем помещении; и
Фиг. 4 иллюстрирует пример правдоподобия микрофона, являющегося ближайшим микрофоном к говорящему, определяемого согласно вариантам осуществления данного изобретения.
ПОДРОБНОЕ ОПИСАНИЕ НЕКОТОРЫХ ВАРИАНТОВ ОСУЩЕСТВЛЕНИЯ ИЗОБРЕТЕНИЯ
Последующее описание сфокусировано на вариантах осуществления данного изобретения, применимых к захвату речи для генерации сигнала речи для дистанционной связи. Однако следует понимать, что данное изобретение не ограничено этим применением и может быть применено ко многим другим услугам и применениям.
Фиг. 1 иллюстрирует пример элементов аппаратуры захвата речи согласно некоторым вариантам осуществления данного изобретения.
В этом примере, аппаратура захвата речи содержит множество микрофонных приемников 101, которые соединены с множеством микрофонов 103 (которые могут быть частью аппаратуры или могут быть внешними по отношению к аппаратуре).
Набор микрофонных приемников 101, таким образом, принимает набор сигналов микрофонов от микрофонов 103. В этом примере, микрофоны 103 распределены в помещении в различных и неизвестных положениях. Таким образом, разные микрофоны могут захватить звук из разных областей, могут захватить один и тот же звук с разными характеристиками или могут, фактически, захватить один и тот же звук с похожими характеристиками, если они находятся близко друг к другу. Отношения между микрофонами 103 и между микрофонами 103 и разными источниками звука являются, обычно, неизвестными системе.
Аппаратура захвата речи выполнена с возможностью генерации сигнала речи из сигналов микрофонов. Конкретно, эта система выполнена с возможностью обработки сигналов микрофонов для извлечения сигнала речи из звукового сигнала, захваченного микрофонами 103. Система выполнена с возможностью объединения сигналов микрофонов в зависимости от того, насколько точно каждый из них соответствует сигналу нереверберирующей речи, обеспечивая, таким образом, объединенный сигнал, который, наиболее вероятно, соответствует такому сигналу. Объединение может быть, конкретно, объединением с выбором, в котором аппаратура выбирает сигнал микрофона, наиболее сходный с сигналом нереверберирующей речи. Генерация сигнала речи может быть независимой от конкретного положения отдельных микрофонов и не полагается на какое-либо знание положения микрофонов 103 или положения кого-либо из говорящих. Напротив, микрофоны 103 могут быть, например, случайно распределены в помещении, и система может автоматически приспособиться, например, к преимущественному использованию сигнала от микрофона, ближайшего к любому заданному говорящему. Это приспособление может происходить автоматически, и конкретный метод для идентификации такого ближайшего микрофона 103 (как будет описано ниже) приведет к обеспечению особенно подходящего сигнала речи в большинстве сценариев.
В аппаратуре захвата речи фиг. 1 микрофонные приемники 103 соединены с блоком сравнения или процессором 105 сходства, на который подают сигналы микрофонов.
Для каждого сигнала микрофона, процессор 105 сходства определяет указание сходства речи (далее называемое просто указанием сходства), которое указывает на сходство между сигналом микрофона и нереверберирующей речью. Процессор 105 сходства, конкретно, определяет указание сходства в ответ на сравнение по меньшей мере одной характеристики, получаемой из сигнала микрофона, по меньшей мере с одной справочной характеристикой для нереверберирующей речи. Справочная характеристика может быть, в некоторых вариантах осуществления, единственной скалярным значением, а в других вариантах осуществления, может быть сложным набором значений или функций. Справочная характеристика может быть, в некоторых вариантах осуществления, получена из конкретных сигналов нереверберирующей речи, и может быть, в других вариантах осуществления, типичной характеристикой, связанной с нереверберирующей речью. Справочная характеристика и/или характеристика, получаемая из сигнала микрофона, может быть, например, спектром, характеристикой спектральной плотности мощности, количеством ненулевых базисных векторов, и т.д. В некоторых вариантах осуществления, характеристики могут быть сигналами, и, конкретно, характеристика, получаемая из сигнала микрофона, может быть самим сигналом микрофона. Подобным образом, справочная характеристика может быть сигналом нереверберирующей речи.
Конкретно, процессор 105 сходства может быть выполнен с возможностью генерации указания сходства для каждого из сигналов микрофонов, причем указание сходства указывает на сходство сигнала микрофона с сэмплом речи из набора сэмплов нереверберирующей речи. Таким образом, процессор 105 сходства содержит запоминающее устройство, хранящее (обычно большое) количество сэмплов речи, причем каждый сэмпл речи соответствует речи в нереверберирующем, и, конкретно, по существу, безэховом, помещении. В качестве примера, процессор 105 сходства может сравнивать каждый сигнал микрофона с каждым из сэмплов речи и для каждого сэмпла речи определять меру различия между сохраненным сэмплом речи и сигналом микрофона. Меры различия для сэмплов речи могут быть затем сравнены, и мера, указывающая на наименьшее различие, может быть выбрана. Эта мера может быть затем использована для генерации (или в качестве) указания сходства для конкретного сигнала микрофона. Процесс повторяют для всех сигналов микрофонов, в результате чего получают набор указаний сходства. Таким образом, набор указаний сходства может указать, насколько каждый из сигналов микрофонов является сходным с нереверберирующей речью.
Во многих вариантах осуществления и сценариях, такое сравнение в области сэмплов сигналов может не быть достаточно надежным вследствие неопределенности в отношении изменений уровней микрофонов, шума и т.д. Следовательно, во многих вариантах осуществления, блок сравнения может быть выполнен с возможностью определения указания сходства в ответ на сравнение, выполняемое в области признака. Таким образом, во многих вариантах осуществления, блок сравнения может быть выполнен с возможностью определения некоторых признаков/ параметров из сигнала микрофона и сравнения их с сохраненными признаками/ параметрами для нереверберирующей речи. Например, как будет описано более подробно далее, сравнение может быть основано на параметрах для модели речи, таких как коэффициенты для модели линейного предсказания. Соответствующие параметры могут быть затем определены для сигнала микрофона и сравнены с сохраненными параметрами, соответствующими различным фрагментам речи в безэховой среде.
Нереверберирующую речь обычно получают, когда акустическая передаточная функция от говорящего преобладает на прямом пути, и причем, обеспечивают существенное ослабление отраженных и реверберирующих путей. Это также обычно соответствует ситуациям, в которых говорящий находится относительно близко к микрофону и может наиболее точно соответствовать традиционному расположению, в котором микрофон расположен близко ко рту говорящего. Также часто можно считать, что нереверберирующая речь является наиболее разборчивой речью и, фактически, речью, которая наиболее точно соответствует фактическому источнику речи.
Аппаратура фиг. 1 использует метод, который обеспечивает возможность оценки характеристики реверберации речи для отдельных микрофонов таким образом, чтобы она была принята во внимание. Фактически, автор изобретения реализовал не только то, что рассмотрение характеристик реверберации речи для отдельных сигналов микрофонов при генерации сигнала речи может существенно улучшить качество, но и то, насколько обоснованно это может быть достигнуто, без необходимости специальных тестовых сигналов и измерений. Фактически, автор изобретения реализовал то, что при сравнении характеристики отдельных сигналов микрофонов со справочной характеристикой, связанной с нереверберирующей речью, и, конкретно, с набором сэмплов нереверберирующей речи, можно определить подходящие параметры для объединения сигналов микрофонов для генерации улучшенного сигнала речи. В частности, метод обеспечивает возможность генерации сигнала речи без необходимости каких-либо специальных тестовых сигналов, тестовых измерений, или, фактически, априорного знания речи. Фактически, может быть разработана система для обработки любой речи, и она не потребует, например, проговаривания говорящим конкретных тестовых слов или предложений.
В системе фиг. 1, процессор 105 сходства соединен с генератором 107, на который подают указания сходства. Генератор 107 дополнительно соединен с микрофонными приемниками 101, от которых он принимает сигналы микрофонов. Генератор 107 выполнен с возможностью генерации выходного сигнала речи посредством объединения сигналов микрофонов, в ответ на указания сходства.
В качестве несложного примера, генератор 107 может реализовать объединитель с выбором, в котором, например, единственный сигнал микрофона выбирают из множества сигналов микрофонов. Конкретно, генератор 107 может выбрать сигнал микрофона, который наиболее точно согласуется с сэмплом нереверберирующей речи. Затем сигнал речи генерируют из этого сигнала микрофона, который является обычно, наиболее вероятно, самым чистым и отчетливым захватом речи. Конкретно, вероятно, он является захватом речи, который наиболее точно соответствует речи, произнесенной говорящим. Обычно, он будет также соответствовать микрофону, который является ближайшим к говорящему.
В некоторых вариантах осуществления, сигнал речи может быть передан к удаленному пользователю, например, через телефонную сеть, беспроводную связь, Интернет или другую сеть связи или канал связи. Передача сигнала речи может, обычно, включать в себя кодирование речи, а также, возможно, другую обработку.
Аппаратура фиг. 1 может, таким образом, автоматически приспосабливаться к положениям говорящего и микрофонов, а также к акустическим характеристикам среды, для генерации сигнала речи, который наиболее точно соответствует исходному сигналу речи. Конкретно, генерируемый сигнал речи будет, как правило, иметь уменьшенную реверберацию и шум и будет, таким образом, звучать менее искаженным, более чистым и более разборчивым.
Следует понимать, что обработка может включать в себя различную другую обработку, включающую в себя, обычно, усиление, фильтрацию, преобразование между временной областью и частотной областью, и т.д., выполняемые обычно в обработке звуковых сигналов и сигналов речи. Например, сигналы микрофонов могут быть, часто, усилены и отфильтрованы перед объединением и/или использованы для генерации указаний сходства. Подобным образом, генератор 107 может включать в себя фильтрацию, усиление, и т.д., в качестве части объединения и/или генерации сигнала речи.
Во многих вариантах осуществления, аппаратура захвата речи может использовать сегментированную обработку. Таким образом, обработка может быть выполнена в коротких временных интервалах, как, например, в сегментах продолжительностью менее 100 мс, и, часто, в сегментах продолжительностью около 20 мс.
Таким образом, в некоторых вариантах осуществления, указание сходства может быть сгенерировано для каждого сигнала микрофона в данном сегменте. Например, сегмент сигнала микрофона продолжительностью, например, 50 мс может быть сгенерирован для каждого из сигналов микрофонов. Сегмент может быть затем сравнен с набором сэмплов нереверберирующей речи, который сам по себе может состоять из сэмплов сегментов речи. Указания сходства могут быть определены для этого сегмента продолжительностью 50 мс, и генератор 107 может приступить к генерации сегмента сигнала речи для интервала 50 мс на основе сегментов сигналов микрофонов и указаний сходства для этого сегмента/ интервала. Таким образом, объединение может быть обновлено для каждого сегмента, например, посредством выбора в каждом сегменте сигнала микрофона, который имеет наибольшее сходство с сэмплом сегмента речи из сэмплов нереверберирующей речи. Это может обеспечить особенно эффективную обработку и функционирование и может обеспечить возможность непрерывного и динамического приспособления к конкретной среде. Фактически, приспособление к динамическому перемещению источника звука речи и/или положений микрофона может быть достигнуто с низкой сложностью. Например, если речь переключается между двумя источниками (говорящими), то система может приспособиться к соответствующему переключению между двумя микрофонами.
В некоторых вариантах осуществления, сэмплы сегментов нереверберирующей речи могут иметь продолжительность, которая согласуется с продолжительностью сегментов сигналов микрофонов. Однако, в некоторых вариантах осуществления, они могут быть продолжительнее. Например, каждый сэмпл сегмента нереверберирующей речи может соответствовать фонеме или конкретному звуку речи, который имеет большую продолжительность.
В таких вариантах осуществления, определение меры сходства для каждого сэмпла сегмента нереверберирующей речи может включать в себя выравнивание сегмента сигнала микрофона относительно сэмплов сегментов речи. Например, может быть определено значение корреляции для разных временных сдвигов, и наибольшее значение может быть выбрано в качестве указания сходства. Это может обеспечить уменьшение количества сэмплов сегментов речи, подлежащих сохранению.
В некоторых примерах, параметры объединения, такие как выбор поднабора сигналов микрофонов для использования, или веса для линейного суммирования, могут быть определены для временного интервала сигнала речи. Таким образом, сигнал речи может быть определен в сегментах из объединения, которое основано на параметрах, которые являются постоянными для сегмента, но которые могут изменяться между сегментами.
В некоторых вариантах осуществления, определение параметров объединения является независимым для каждого временного сегмента, т.е. параметры объединения для временного сегмента могут быть вычислены на основе только указаний сходства, которые определяют для каждого временного сегмента.
Однако, в других вариантах осуществления, параметры объединения могут быть, альтернативно или дополнительно, определены в ответ на указания сходства по меньшей мере одного предыдущего сегмента. Например, указания сходства могут быть отфильтрованы с использованием фильтра нижних частот, который продолжается на несколько сегментов. Это может обеспечить замедленное приспособление, которое может, например, уменьшить флуктуации и изменения в генерируемом сигнале речи. В качестве другого примера, может быть применен эффект гистерезиса, который предотвращает, например, быстрое попеременное переключение между двумя микрофонами, расположенными приближенно на одинаковом расстоянии от говорящего.
В некоторых вариантах осуществления, генератор 107 может быть выполнен с возможностью определения параметров объединения для первого сегмента в ответ на модель перемещения пользователя. Такой метод может быть использован для отслеживания относительного положения пользователя относительно микрофонных устройств 201, 203, 205. Эта пользовательская модель не нуждается в явном отслеживании положений пользователя или микрофонных устройств 201, 203, 205, но может напрямую отслеживать изменения указаний сходства. Например, представление в пространстве состояний может быть использовано для описания модели человеческого перемещения, и фильтр Калмана может быть применен к указаниям сходства отдельных сегментов одного сигнала микрофона для отслеживания изменений указаний сходства вследствие перемещения. Результирующие выходные данные фильтра Калмана могут быть затем использованы в качестве указания сходства для текущего сегмента.
Во многих вариантах осуществления, функциональность фиг. 1 может быть реализована распределенным образом, в частности система может быть распространена по множеству устройств. Конкретно, каждый из микрофонов 103 может быть частью другого устройства или может быть подключен к другому устройству, и, таким образом, микрофонные приемники 101 могут содержаться в разных устройствах.
В некоторых вариантах осуществления, процессор 105 сходства и генератор 107 реализуют в единственном устройстве. Например, некоторое количество разных удаленных устройств может передавать сигнал микрофона к генерирующему устройству, которое выполнено с возможностью генерации сигнала речи от принимаемых сигналов микрофонов. Это генерирующее устройство может реализовать функциональность процессора 105 сходства и генератора 107, как описано выше.
Однако, во многих вариантах осуществления, функциональность процессора 105 сходства распределяют по множеству отдельных устройств. Конкретно, каждое их устройств может содержать процессор 105 (суб)сходства, который выполнен с возможностью определения указания сходства для сигнала микрофона этого устройства. Указания сходства могут быть затем переданы к генерирующему устройству, которое может определить параметры для объединения на основе принимаемых указаний сходства. Например, оно может просто выбрать сигнал микрофона/ устройство, который имеет указание наибольшего сходства. В некоторых вариантах осуществления, устройства могут не передавать сигналы микрофонов к генерирующему устройству, если генерирующее устройство не запрашивает этого. Таким образом, генерирующее устройство может передать запрос на сигнал микрофона к выбранному устройству, которое в ответ обеспечивает этот сигнал к генерирующему устройству. Генерирующее устройство затем приступает к генерации выходного сигнала на основе принимаемого сигнала микрофона. Фактически, в этом примере, может быть рассмотрено распределение генератора 107 по устройствам с использованием объединения, достигаемого посредством процесса выбора и селективной передачи сигнала микрофона. Преимущество такого метода состоит в том, что только один (или по меньшей мере один поднабор) из сигналов микрофонов должен быть передан к генерирующему устройству, и в том, что, таким образом, может быть достигнуто существенно уменьшенное использование ресурсов.
В качестве примера, метод может использовать микрофоны устройств, распределенных в интересующей области, для захвата речи пользователя. Обычная современная жилая комната обычно имеет некоторое количество устройств, снабженных одним или несколькими микрофонами и возможностями беспроводной передачи данных. Примеры включают в себя обычные радиотелефоны, мобильные телефоны, телевизионные приемники с поддержкой видеочата, планшетные персональные компьютеры, компактные портативные компьютеры и т.д. Эти устройства могут быть, в некоторых вариантах осуществления, использованы для генерации сигнала речи, например, посредством автоматического и адаптивного выбора речи, захватываемой посредством микрофона, ближайшего к говорящему. Это может обеспечить захваченную речь, которая, обычно, будет иметь высокое качество и будет свободна от реверберации.
Фактически, в общем, на сигнал, захватываемый посредством микрофона, как правило, влияет реверберация, шум окружающей среды и шум микрофона, причем влияние зависит от расположения микрофона относительно источника звука, например относительно рта пользователя. Система может стремиться выбрать микрофон, который принимает звуковой сигнал, который является наиболее близким к тому сигналу, который должен быть записан посредством микрофона, близкого ко рту пользователя. Генерируемый сигнал речи может быть применен там, где необходим захват речи по громкой связи, как, например, в домашней/ учрежденческой телефонии, системах телеконферец-связи, внешнем интерфейсе для систем с голосовым управлением и т.д.
Фиг. 2 более подробно иллюстрирует пример распределенной аппаратуры/ системы генерации/ захвата речи. Этот пример включает в себя множество микрофонных устройств 201, 203, 205, а также генерирующее устройство 207.
Каждое из микрофонных устройств 201, 203, 205 содержит микрофонный приемник 101, который принимает сигнал микрофона от микрофона 103, который в этом примере является частью микрофонного устройства 201, 203, 205, но в других случаях может быть отдельным от них (например, одно или несколько микрофонных устройств 201, 203, 205 могут содержать микрофонный вход для присоединения внешнего микрофона). Микрофонный приемник 101 в каждом микрофонном устройстве 201, 203, 205 соединен с процессором 105 сходства, который определяет указание сходства для сигнала микрофона.
Процессор 105 сходства каждого микрофонного устройства 201, 203, 205, конкретно, выполняет функции процессора 105 сходства фиг. 1 для конкретного сигнала микрофона отдельного микрофонного устройства 201, 203, 205. Таким образом, процессор 105 сходства каждого из микрофонных устройств 201, 203, 205, конкретно, приступает к сравнению сигнала микрофона с набором сэмплов нереверберирующей речи, которые локально хранятся в каждом из этих устройств. Процессор 105 сходства может, конкретно, сравнить сигнал микрофона с каждым из сэмплов нереверберирующей речи и для каждого сэмпла речи определить указание на то, насколько похожими являются сигналы. Например, если процессор 105 сходства включает в себя запоминающее устройство для хранения локальной базы данных, содержащей представление каждой из фонем человеческой речи, то процессор 105 сходства может приступить к сравнению сигнала микрофона с каждой фонемой. Таким образом, определяют набор указаний, указывающих на то, насколько точно сигнал микрофона совпадает с каждой из фонем, которые не включают в себя никакой реверберации или шума. Указание, соответствующее наиболее точному согласованию, таким образом, вероятно, соответствует указанию на то, насколько точно захваченный звуковой сигнал соответствует звуку, генерируемому говорящим, произносящим эту фонему. Таким образом, указание наибольшего сходства выбирают в качестве указания сходства для сигнала микрофона. Это указание сходства, таким образом, отражает, насколько точно захваченный звуковой сигнал соответствует свободной от шума и реверберации речи. Для микрофона (и, таким образом, обычно, устройства), расположенного далеко от говорящего, захваченный звуковой сигнал, вероятно, включает в себя только низкие относительные уровни исходной испускаемой речи, сравнимые с вкладом от различных отражений, реверберации и шума. Однако для микрофона (и, таким образом, устройства), расположенного близко к говорящему, захваченный звук, вероятно, содержит существенно более высокий вклад от прямого пути звука и относительно более низкий вклад от отражений и шума. Таким образом, указание сходства обеспечивает хорошее указание на то, насколько чистой и разборчивой является речь из захваченного звукового сигнала отдельного устройства.
Каждое из микрофонных устройств 201, 203, 205 дополнительно содержит беспроводной приемопередатчик 209, который соединен с процессором 105 сходства и микрофонным приемником 101 каждого устройства. Беспроводной приемопередатчик 209, конкретно, выполнен с возможностью установления связи с генерирующим устройством 207 через беспроводное соединение.
Генерирующее устройство 207 также содержит беспроводной приемопередатчик 211, который может устанавливать связь с микрофонными устройствами 201, 203, 205 через беспроводное соединение.
Во многих вариантах осуществления, микрофонные устройства 201, 203, 205 и генерирующее устройство 207 могут быть выполнены с возможностью передачи данных в обоих направлениях. Однако следует понимать, что в некоторых вариантах осуществления, может быть применена только односторонняя передача данных от микрофонных устройств 201, 203, 205 к генерирующему устройству 207.
Во многих вариантах осуществления, устройства могут устанавливать связь через сеть беспроводной связи, такую как локальная сеть передачи данных стандарта Wi-Fi. Таким образом, беспроводной приемопередатчик 207 микрофонных устройств 201, 203, 205 может быть, конкретно, выполнен с возможностью установления связи с другими устройствами (и, конкретно, с генерирующим устройством 207) через средства связи стандарта Wi-Fi. Однако следует понимать, что в других вариантах осуществления, могут быть использованы другие способы связи, включая, например, связь через, например, проводную или беспроводную локальную сеть (Local Area Network), глобальную сеть (Wide Area Network), Интернет, каналы связи стандарта Bluetooth™, и т.д.
В некоторых вариантах осуществления, каждое их микрофонных устройств 201, 203, 205 может всегда передавать указания сходства и сигналы микрофонов к генерирующему устройству 207. Следует понимать, что специалист в данной области техники хорошо знает, как данные, такие как данные параметров и звуковые данные, могут быть переданы между устройствами. Конкретно, специалист в данной области техники хорошо знает, что передача звукового сигнала может включать в себя кодирование, сжатие, коррекцию ошибок и т.д.
В таких вариантах осуществления, генерирующее устройство 207 может принимать сигналы микрофонов и указания сходства от всех микрофонных устройств 201, 203, 205. Оно может затем приступить к объединению сигналов микрофонов на основе указаний сходства для генерации сигнала речи.
Конкретно, беспроводной приемопередатчик 211 генерирующего устройства 207 соединен с контроллером 213 и генератором 215 сигнала речи. На контроллер 213 подают указания сходства от беспроводного приемопередатчика 211 и, в ответ на них, он определяет набор параметров объединения, который управляет генерацией сигнала речи из сигналов микрофонов. Контроллер 213 соединен с генератором 215 сигнала речи, на который подают параметры объединения. Дополнительно, на генератор 215 сигнала речи подают сигналы микрофонов от беспроводного приемопередатчика 211, и он может, таким образом, приступить к генерации сигнала речи на основе параметров объединения.
В качестве конкретного примера, контроллер 213 может сравнить принимаемые указания сходства и идентифицировать указание, указывающее на наибольшую степень сходства. Указание на соответствующее устройство/ сигнал микрофона может быть затем передано к генератору 215 сигнала речи, который может приступить к выбору сигнала микрофона от этого устройства. Затем генерируют сигнал речи из этого сигнала микрофона.
В качестве другого примера, в некоторых вариантах осуществления, генератор 215 сигнала речи может приступить к генерации выходного сигнала речи в виде взвешенного объединения принимаемых сигналов микрофонов. Например, может быть применено взвешенное суммирование принимаемых сигналов микрофонов, причем веса для каждого отдельного сигнала генерируют из указаний сходства. Например, указания сходства могут быть напрямую обеспечены в виде скалярного значения в пределах данного диапазона, и отдельные веса могут быть прямо пропорциональны скалярному значению (с использованием, например, коэффициента пропорциональности, обеспечивающего то, что уровень сигнала или общее значение веса является постоянным).
Такой метод может быть, в частности, перспективным в сценариях, где доступная полоса рабочих частот канала связи не является ограничением. Таким образом, вместо выбора устройства, ближайшего к говорящему, вес может быть назначен для каждого устройства/ сигнала микрофона, и сигналы микрофонов от различных микрофонов могут быть объединены в виде взвешенной суммы. Такой метод может обеспечить робастность и ослабить влияние ошибочного выбора в сильно реверберирующих или шумных средах.
Следует понимать, что методы объединения могут быть объединены. Например, вместо использования чистого объединения с выбором, контроллер 213 может выбрать поднабор сигналов микрофонов (таких как, например, сигналы микрофонов, для которых указание сходства превышает некоторый порог) и затем объединить сигналы микрофонов поднабора с использованием весов, которые зависят от указаний сходства.
Также следует понимать, что, в некоторых вариантах осуществления, объединение может включать в себя выравнивание разных сигналов. Например, могут быть введены временные задержки для обеспечения того, что принимаемые сигналы речи добавляются когерентно для данного говорящего.
Во многих вариантах осуществления, сигналы микрофонов передают к генерирующему устройству 207 не от всех микрофонных устройств 201, 203, 205, а только от микрофонных устройств 201, 203, 205, от которых будет сгенерирован сигнал речи.
Например, микрофонные устройства 201, 203, 205 могут сначала передать указания сходства к генерирующему устройству 207 с использованием оценки контроллером 213 указаний сходства для выбора поднабора сигналов микрофонов. Например, контроллер 213 может выбрать сигнал микрофона от микрофонного устройства 201, 203, 205, которое отправило указание сходства, которое указывает на наибольшее сходство. Контроллер 213 может затем передать сообщение запроса к выбранному микрофонному устройству 201, 203, 205 с использованием беспроводного приемопередатчика 211. Микрофонные устройства 201, 203, 205 могут быть выполнены с возможностью передачи данных к генерирующему устройству 207, только при приеме сообщения запроса, т.е. сигнал микрофона передают к генерирующему устройству 207, только когда он включен в выбранный поднабор. Таким образом, в примере, где выбран только единственный сигнал микрофона, только одно из микрофонных устройств 201, 203, 205 передает сигнал микрофона. Такой метод может существенно уменьшить использование ресурсов связи, а также уменьшить, например, энергопотребление отдельных устройств. Он может также существенно уменьшить сложность генерирующего устройства 207, поскольку оно должно иметь дело, например, только с одним сигналом микрофона одновременно. В этом примере, функциональность объединения с выбором, используемая для генерации сигнала речи, является, таким образом, распределенной по устройствам.
Разные методы для определения указаний сходства могут быть использованы в разных вариантах осуществления, и, конкретно, сохраненные представления сэмплов нереверберирующей речи могут быть разными в разных вариантах осуществления, и могут быть использованы различным образом в разных вариантах осуществления.
В некоторых вариантах осуществления, сохраненные сэмплы нереверберирующей речи представлены посредством параметров для модели нереверберирующей речи. Таким образом, вместо хранения, например, выборочного представления сигнала во временной или частотной области, набор сэмплов нереверберирующей речи может содержать набор параметров для каждого сэмпла, который может обеспечить генерацию этого сэмпла.
Например, модель нереверберирующей речи может быть моделью линейного предсказания, такой как, конкретно, модель CELP (Code-Excited Linear Prediction - линейное предсказание с кодовым возбуждением). В таком сценарии, каждый сэмпл речи из сэмплов нереверберирующей речи может быть представлен посредством элемента кодовой книги, который задает сигнал возбуждения, который может быть использован для возбуждения синтезирующего фильтра (который может быть также представлен посредством сохраненных параметров).
Такой метод может существенно уменьшить потребности в памяти для набора сэмплов нереверберирующей речи, и это может быть, в частности, важным для распределенных реализаций, где определение указаний сходства выполняют локально в отдельных устройствах. Кроме того, с использованием модели речи, которая напрямую синтезирует речь от источника речи (без рассмотрения акустической среды), достигается хорошее представление нереверберирующей, безэховой речи.
В некоторых вариантах осуществления, сравнение сигнала микрофона с конкретным сэмплом речи может быть выполнено посредством оценки модели речи для конкретного набора сохраненных параметров модели речи для этого сигнала. Таким образом, может быть получено представление сигнала речи, который будет синтезирован посредством модели речи для этого набора параметров. Результирующее представление может быть затем сравнено с сигналом микрофона, и может быть вычислена мера различия между ними. Сравнение может быть, например, выполнено во временной области или в частотной области и может быть стохастическим сравнением. Например, может быть определено указание сходства для одного сигнала микрофона и одного сэмпла речи для отражения правдоподобия того, что захваченный сигнал микрофона получен от источника звука, испускающего сигнал речи, получаемый из синтеза посредством модели речи. Затем может быть выбран сэмпл речи, получаемый с наибольшим правдоподобием, и указание сходства для этого сигнала микрофона может быть определено как наиболее правдоподобное.
Далее будет обеспечен подробный пример возможного метода для определения указаний сходства на основе LP-модели речи.
В этом примере K микрофонов могут быть распределены в некоторой области. Наблюдаемые сигналы микрофонов могут быть смоделированы как
где s(n) является сигналом речи у рта пользователя, hk(n) является акустической передаточной функцией между местоположением, соответствующим рту пользователя, и местоположением k-го микрофона, и wk(n) является сигналом шума, включающим в себя как шум окружающей среды, так и собственный шум микрофона. Предполагая, что сигналы речи и шума являются независимыми, эквивалентное представление соответствующих сигналов в частотной области в терминах спектральных плотностей мощности (PSD) можно выразить следующим образом:
В безэховой среде, импульсная переходная характеристика hk(n) соответствует чистой задержке, соответствующей времени, требуемому для распространения сигнала от точки генерации к микрофону со скоростью звука. Следовательно, PSD сигнала xk(n) является идентичной PSD s(n). В реверберирующей среде, hk(n) моделирует не только прямой путь сигнала от источника звука к микрофону, но и сигналы, прибывающие к микрофону в результате отражения стенами, потолком, мебелью и т.д. Каждое отражение задерживает и ослабляет сигнал.
PSD xk(n) в этом случае может существенно отличаться от PSD s(n), в зависимости от уровня реверберации. Фиг. 3 иллюстрирует пример огибающих спектра, соответствующих сегменту речи продолжительностью 32 мс, записанному при трех разных расстояниях в реверберирующем помещении, с использованием T60, равного 0.8 секунды. Ясно, что огибающие спектра речи, записанной на расстоянии 5 см и 50 см от говорящего, являются относительно близкими, тогда как огибающая при 350 см является существенно отличающейся.
Когда интересующим сигналом является речь, как в применениях для громкой связи, PSD может быть смоделирована с использованием кодовой книги, подготовленной независимо с использованием большого набора данных. Например, кодовая книга может содержать коэффициенты линейного предсказания (linear prediction - LP), которые моделируют огибающую спектра.
Учебный набор обычно состоит из LP-векторов, извлекаемых из коротких сегментов (20-30 мс) из большого набора фонетически сбалансированных речевых данных. Такие кодовые книги успешно использовались в кодировании и улучшении речи. Кодовая книга, подготовленная на речи, записанной с использованием микрофона, расположенного близко ко рту пользователя, может быть затем использована в качестве справочной меры того, насколько реверберирующим является сигнал, принимаемый у конкретного микрофона.
Огибающая спектра, соответствующая кратковременному сегменту сигнала микрофона, захваченному у микрофона близко к говорящему, будет, обычно, находить лучшее согласование в кодовой книге, чем огибающая спектра, захваченная у микрофона, находящегося дальше (и, таким образом, подверженного относительно большему влиянию реверберации и шума). Это наблюдение может быть затем использовано, например, для выбора подходящего сигнала микрофона в данном сценарии.
Предполагая, что шум является гауссовым, и дан вектор а из коэффициентов LP, на k-м микрофоне мы имеем (со ссылкой, например, на S. Srinivasan, J. Samuelsson, and W.B. Kleijn, "Codebook driven short-term predictor parameter estimation for speech enhancement," IEEE Trans. Speech, Audio and Language Processing, vol. 14, no. 1, pp. 163-176, Jan. 2006):
где является данным вектором из коэффициентов LP, M является порядком модели LP, N является количеством сэмплов в кратковременном сегменте, Rk w является автокорреляционной матрицей сигнала шума у k-го микрофона, и Rx=g(ATA)-1, где A является NxN нижней треугольной матрицей Теплица с в качестве первого столбца, и g является членом коэффициента усиления для компенсации различия между нормированными спектрами кодовой книги и наблюдаемыми спектрами.
При приближении длины цикла к бесконечности, ковариационные матрицы могут быть описаны как циркулянтные и являются диагонализируемыми посредством преобразования Фурье. Логарифм правдоподобия в приведенном выше уравнении, в соответствии с вектором ai i-го элемента речи в кодовой книге, может быть, тогда, записан в виде (со ссылкой, например, на U. Grenander and G. Szego, "Toeplitz forms and their applications", 2nd ed. New York: Chelsea, 1984):
где C включает в себя постоянные члены, независящие от сигнала, и Ai(ω) является спектром i-го вектора из кодовой книги, заданным в виде
Для данного вектора ai из кодовой книги, член компенсации коэффициента усиления может быть получен в виде
где отрицательные значения в числителе, которые могут возникнуть вследствие ошибочных оценок PSD шума Pwk(ω), устанавливают равными нулю. Следует отметить, что все величины в этом уравнении являются доступными. PSD с шумом Pyk(ω) и PSD шума Pwk(ω) могут быть оценены из сигнала микрофона, а Ai(ω) задают посредством i-го вектора из кодовой книги.
Для каждого датчика, значение максимального правдоподобия вычисляют по всем векторам их кодовой книги, т.е.
где I является количеством векторов в кодовой книге речи. Это значение максимального правдоподобия затем используют в качестве указания сходства для конкретного сигнала микрофона.
Наконец, микрофон с наибольшим значением t максимального правдоподобия определяют в качестве микрофона, ближайшего к говорящему, т.е. определяют сигнал микрофона, получаемый с наибольшим значением правдоподобия:
Были проведены эксперименты для этого конкретного примера. Кодовая книга коэффициентов LP речи генерировалась с использованием учебных данных из базы данных речи (CSR-II (WSJ1) Complete," Linguistic Data Consortium, Philadelphia, 1994) Wall Street Journal (WSJ). 180 отдельных учебных фрагментов речи продолжительностью около 5 сек каждый от 50 разных говорящих, 25 мужчин и 25 женщин, использовались в качестве учебных данных. С использованием учебных фрагментов речи, около 55000 коэффициентов LP было извлечено из сегментов с использованием окна Ханна из сэмплов размера 256, с перекрытием 50% при частоте выборки 8 кГц. Кодовая книга была подготовлена с использованием алгоритма LBG (Y. Linde, A. Buzo, and R.M. Gray, "An algorithm for vector quantizer design," IEEE Trans. Communications, vol. COM-28, no. 1, pp. 84-95, Jan. 1980.) с искажениями Итакуры-Саито (S.R. Quackenbush, T.P. Barnwell, and M.A. Clements, Objective "Measures of Speech Quality". New Jersey: Prentice-Hall, 1988.) в качестве критерия ошибок. Размер кодовой книги был зафиксирован на 256 элементах. Была рассмотрена аппаратура из трех микрофонов, и микрофоны располагались на расстоянии 50 см, 150 см и 350 см от говорящего в реверберирующем помещении (T60 = 800 мс). Импульсная переходная характеристика между местоположением говорящего и каждым из трех микрофонов записывалась и затем свертывалась с сухим сигналом речи для получения данных микрофона. Шум микрофона у каждого микрофона был на 40 дБ ниже уровня речи.
Фиг. 4 показывает правдоподобие p(y1) для микрофона, расположенного на расстоянии 50 см от говорящего. В области преобладания речи, этот микрофон (который расположен ближе всего к пользователю) принимает значение, близкое к единице, а значения правдоподобия у других двух микрофонов являются близкими к нулю. Ближайший микрофон, таким образом, идентифицирован правильно.
Конкретным преимуществом метода является то, что он, по существу, компенсирует для сигнала различия в уровнях между разными микрофонами.
Следует отметить, что метод выбирает подходящий микрофон во время речевой деятельности. Однако во время неречевых сегментов (таких как, например, паузы в речи или смены говорящего), метод не обеспечит определение такого выбора. Однако для этого можно просто обратиться к системе, включающей в себя детектор речевой деятельности (такой как простой детектор уровня) для идентификации неречевых периодов. Во время этих периодов, система может просто продолжить использование параметров объединения, определенных для последнего сегмента, который включал в себя компонент речи.
В предыдущих вариантах осуществления, указания сходства были сгенерированы посредством сравнения характеристик сигналов микрофонов с характеристиками сэмплов нереверберирующей речи, и, конкретно, сравнения характеристик сигналов микрофонов с характеристиками сигналов речи, которые получают из оценки модели речи с использованием сохраненных параметров.
Однако, в других вариантах осуществления, набор характеристик может быть получен посредством анализа сигналов микрофонов, и эти характеристики могут быть затем сравнены с ожидаемыми значениями для нереверберирующей речи. Таким образом, сравнение может быть выполнено в области параметра или характеристики без рассмотрения конкретных сэмплов нереверберирующей речи.
Конкретно, процессор 105 сходства может быть выполнен с возможностью разложения сигналов микрофонов с использованием набора базисных сигнальных векторов. Такое разложение может, конкретно, использовать разреженный полнокомплектный словарь, который содержит прототипы сигналов, также называемые элементарными единицами. Тогда, сигнал описывают в виде линейного объединения поднабора этого словаря. Таким образом, каждая элементарная единица может, в этом случае, соответствовать базисному сигнальному вектору.
В таких вариантах осуществления, характеристика, получаемая из сигналов микрофонов и используемая в сравнении, может быть количеством базисных сигнальных векторов, и, конкретно, количеством элементарных единиц из словаря, которые необходимы для представления сигнала в подходящей области признака.
Характеристика может быть затем сравнена с одной или несколькими ожидаемыми характеристиками для нереверберирующей речи. Например, во многих вариантах осуществления, значения для набора базисных векторов могут быть сравнены с сэмплами значений для наборов базисных векторов, соответствующих конкретным сэмплам нереверберирующей речи.
Однако, во многих вариантах осуществления, может быть использован более простой метод. Конкретно, если словарь подготовлен на нереверберирующей речи, то тогда сигнал микрофона, который содержит менее реверберирующую речь, может быть описан с использованием относительно малого количества элементарных единиц словаря. Когда сигнал все больше и больше подвергается воздействию реверберации и шума, потребуется большее количество элементарных единиц, т.е. энергия будет, как правило, распространена более равномерно по большему количеству базисных векторов.
Таким образом, во многих вариантах осуществления, распределение энергии по базисным векторам может быть оценено и использовано для определения указания сходства. Чем больше распределение распространено, тем меньшим является указание сходства.
В качестве конкретного примера, при сравнении сигналов от двух микрофонов, тот, который может быть описан с использованием меньшего количества элементарных единиц словаря, является более похожим на нереверберирующую речь (причем словарь подготовлен на нереверберирующей речи).
В качестве конкретного примера, количество базисных векторов, для которого это значение (конкретно, вес каждого базисного вектора в объединении базисных векторов, аппроксимирующем сигнал) превышает заданный порог, может быть использовано для определения указания сходства. Фактически, количество базисных векторов, которое превышает порог, может быть просто вычислено и напрямую использовано в качестве указания сходства для данного сигнала микрофона, причем увеличивающееся количество базисных векторов указывает на уменьшающееся сходство. Таким образом, характеристика, получаемая из сигнала микрофона, может быть количеством значений базисных векторов, которые превышают некоторый порог, и она может быть сравнена со справочной характеристикой для нереверберирующей речи из нулевых или единичных базисных векторов, имеющих значения выше порога. Таким образом, чем больше количество базисных векторов, тем меньше будет указание сходства.
Следует понимать, что приведенное выше описание для ясности описало варианты осуществления данного изобретения со ссылкой на разные функциональные схемы, блоки и процессоры. Однако должно быть ясно, что любое подходящее распределение функциональности между разными функциональными схемами, блоками и процессорами может быть использовано, не выходя за рамки данного изобретения. Например, функциональность, показанная подлежащей выполнению посредством отдельных процессоров или контроллеров, может быть выполнена посредством одного и того же процессора или контроллера. Следовательно, ссылки на конкретные функциональные блоки или схемы приведены для рассмотрения только в качестве ссылок на подходящие средства для обеспечения описываемой функциональности, а не указывают на определенную логическую или физическую структуру или организацию.
Данное изобретение может быть реализовано в любой подходящей форме, включая аппаратное обеспечение, программное обеспечение, аппаратно-программное обеспечение или любую их комбинацию. Данное изобретение может быть, необязательно, реализовано, по меньшей мере частично, в виде компьютерного программного обеспечения, выполняемого посредством одного или нескольких процессоров для обработки данных и/или цифровых сигнальных процессоров. Элементы и компоненты варианта осуществления данного изобретения могут быть физически, функционально и логически реализованы любым подходящим способом. Фактически, функциональность может быть реализована в единственном блоке, во множестве блоков или в виде части других функциональных блоков. Соответственно, данное изобретение может быть реализовано в единственном блоке или может быть физически и функционально распределено между разными блоками, схемами и процессорами.
Хотя данное изобретение описано в связи с некоторыми вариантами осуществления, оно не предназначено для ограничения конкретной формой, изложенной здесь. Напротив, объем данного изобретения ограничен только сопутствующей формулой изобретения. Дополнительно, хотя некоторый признак может появиться в описании в связи с конкретными вариантами осуществления, специалист в данной области техники должен понимать, что различные признаки описанных вариантов осуществления могут быть объединены согласно данному изобретению. В формуле изобретения, термин «содержащий» не исключает наличия других элементов или этапов.
Кроме того, несмотря на отдельное перечисление, множество средств, элементов или этапов способа может быть реализовано посредством, например, единственной схемы, блока или процессора.
Дополнительно, хотя отдельные признаки могут быть включены в разные пункты формулы изобретения, они могут быть объединены для получения выгоды, и включение в разные пункты формулы изобретения не означает, что объединение признаков не является возможным и/или выгодным. Также включение признака в одну категорию формулы изобретения не означает ограничение этой категорией, а, напротив, указывает на то, что признак равным образом применим к другим категориям формулы изобретения, при необходимости. Кроме того, порядок признаков в формуле изобретения не означает никакого конкретного порядка, в котором признаки должны работать, в частности порядок отдельных этапов в пунктах формулы изобретения на способ не означает, что этапы должны быть выполнены в этом порядке. Напротив, этапы могут быть выполнены в любом подходящем порядке. Дополнительно, ссылки в единственном числе не исключают множества. Таким образом, ссылки на «один», «некоторый», «первый», «второй» и т.д. не исключают множества. Ссылочные позиции в формуле изобретения обеспечены только в качестве разъясняющего примера и никоим образом не должны толковаться как ограничивающие объем формулы изобретения.
Claims (22)
1. Аппаратура для генерации сигнала речи, причем аппаратура содержит:
микрофонные приемники (101) для приема сигналов микрофонов от множества микрофонов (103);
блок (105) сравнения, выполненный с возможностью, для каждого сигнала микрофона, определения указания сходства речи, указывающего на сходство между сигналом микрофона и нереверберирующей речью, причем блок (105) сравнения выполнен с возможностью определения указания сходства в ответ на сравнение по меньшей мере одной характеристики, получаемой из сигнала микрофона, по меньшей мере с одной справочной характеристикой для нереверберирующей речи; и
генератор (107) для генерации сигнала речи посредством объединения сигналов микрофонов в ответ на указания сходства,
причем блок (105) сравнения дополнительно выполнен с возможностью определения указания сходства для первого сигнала микрофона в ответ на сравнение по меньшей мере одной характеристики, получаемой из сигнала микрофона, со справочными характеристиками для сэмплов речи из набора сэмплов нереверберирующей речи.
2. Аппаратура по п. 1, содержащая множество отдельных устройств (201, 203, 205), причем каждое устройство содержит микрофонный приемник для приема по меньшей мере одного сигнала микрофона из упомянутого множества сигналов микрофонов.
3. Аппаратура по п. 2, в которой по меньшей мере первое устройство из упомянутого множества отдельных устройств (201, 203, 205) содержит локальный блок (105) сравнения для определения первого указания сходства речи для упомянутого по меньшей мере одного сигнала микрофона первого устройства.
4. Аппаратура по п. 3, в которой генератор (107) реализован в генерирующем устройстве (207) отдельно от по меньшей мере первого устройства; и в которой первое устройство содержит передатчик (209) для передачи первого указания сходства речи к генерирующему устройству (207).
5. Аппаратура по п. 4, в которой генерирующее устройство (207) выполнено с возможностью приема указаний сходства речи от каждого из упомянутого множества отдельных устройств (201, 203, 205) и в которой генератор (107, 207) выполнен с возможностью генерации сигнала речи с использованием поднабора сигналов микрофонов от упомянутого множества отдельных устройств (201, 203, 205), причем упомянутый поднабор определяют в ответ на указания сходства речи, принимаемые от упомянутого множества отдельных устройств (201, 203, 205).
6. Аппаратура по п. 5, в которой по меньшей мере одно устройство из упомянутого множества отдельных устройств (201, 203, 205) выполнено с возможностью передачи упомянутого по меньшей мере одного сигнала микрофона упомянутого по меньшей мере одного устройства к генерирующему устройству (207), только если упомянутый по меньшей мере один сигнал микрофона упомянутого по меньшей мере одного устройства содержится в упомянутом поднаборе сигналов микрофонов.
7. Аппаратура по п. 5, в которой генерирующее устройство (207) содержит устройство (213) выбора, выполненное с возможностью определения упомянутого поднабора сигналов микрофонов, и передатчик (211) для передачи указания на упомянутый поднабор по меньшей мере к одному из упомянутого множества отдельных устройств (201, 203, 205).
8. Аппаратура по п. 1, в которой сэмплы речи из набора сэмплов нереверберирующей речи представлены посредством параметров для модели нереверберирующей речи.
9. Аппаратура по п. 8, в которой блок (105) сравнения выполнен с возможностью определения первой справочной характеристики для первого сэмпла речи из набора сэмплов нереверберирующей речи из сигнала сэмпла речи, генерируемого посредством оценки модели нереверберирующей речи с использованием параметров для первого сэмпла речи, и определения указания сходства для первого сигнала микрофона из упомянутого множества сигналов микрофонов, в ответ на сравнение характеристики, получаемой из первого сигнала микрофона, и первой справочной характеристики.
10. Аппаратура по п. 1, в которой блок (105) сравнения выполнен с возможностью разложения первого сигнала микрофона из упомянутого множества сигналов микрофонов в набор базисных сигнальных векторов; и определения указания сходства в ответ на характеристику из упомянутого набора базисных сигнальных векторов.
11. Аппаратура по п. 1, в которой блок (105) сравнения выполнен с возможностью определения указаний сходства речи для каждого сегмента из множества сегментов сигнала речи и генератор выполнен с возможностью определения параметров объединения для объединения для каждого сегмента.
12. Аппаратура по п. 10, в которой генератор (107) выполнен с возможностью определения параметров объединения для одного сегмента в ответ на указания сходства по меньшей мере одного предыдущего сегмента.
13. Аппаратура по п. 1, в которой генератор (107) выполнен с возможностью выбора поднабора сигналов микрофонов для объединения в ответ на указания сходства.
14. Способ генерации сигнала речи, причем способ содержит:
прием сигналов микрофонов от множества микрофонов (103);
для каждого сигнала микрофона, определение указания сходства речи, указывающего на сходство между сигналом микрофона и нереверберирующей речью, причем указание сходства определяют в ответ на сравнение по меньшей мере одной характеристики, получаемой из сигнала микрофона, по меньшей мере с одной справочной характеристикой для нереверберирующей речи; и
генерацию сигнала речи посредством объединения сигналов микрофонов в ответ на указания сходства,
причем указание сходства дополнительно определяют для первого сигнала микрофона в ответ на сравнение по меньшей мере одной характеристики, получаемой из сигнала микрофона, со справочными характеристиками для сэмплов речи из набора сэмплов нереверберирующей речи.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361769236P | 2013-02-26 | 2013-02-26 | |
US61/769,236 | 2013-02-26 | ||
PCT/IB2014/059057 WO2014132167A1 (en) | 2013-02-26 | 2014-02-18 | Method and apparatus for generating a speech signal |
Publications (1)
Publication Number | Publication Date |
---|---|
RU2648604C2 true RU2648604C2 (ru) | 2018-03-26 |
Family
ID=50190513
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2015140965A RU2648604C2 (ru) | 2013-02-26 | 2014-02-18 | Способ и аппаратура для генерации сигнала речи |
Country Status (7)
Country | Link |
---|---|
US (1) | US10032461B2 (ru) |
EP (1) | EP2962300B1 (ru) |
JP (1) | JP6519877B2 (ru) |
CN (1) | CN105308681B (ru) |
BR (1) | BR112015020150B1 (ru) |
RU (1) | RU2648604C2 (ru) |
WO (1) | WO2014132167A1 (ru) |
Families Citing this family (84)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8971546B2 (en) | 2011-10-14 | 2015-03-03 | Sonos, Inc. | Systems, methods, apparatus, and articles of manufacture to control audio playback devices |
KR101904423B1 (ko) * | 2014-09-03 | 2018-11-28 | 삼성전자주식회사 | 오디오 신호를 학습하고 인식하는 방법 및 장치 |
US9922643B2 (en) * | 2014-12-23 | 2018-03-20 | Nice Ltd. | User-aided adaptation of a phonetic dictionary |
KR102387567B1 (ko) * | 2015-01-19 | 2022-04-18 | 삼성전자주식회사 | 음성 인식 방법 및 음성 인식 장치 |
JP6631010B2 (ja) * | 2015-02-04 | 2020-01-15 | ヤマハ株式会社 | マイク選択装置、マイクシステムおよびマイク選択方法 |
CN105185371B (zh) | 2015-06-25 | 2017-07-11 | 京东方科技集团股份有限公司 | 一种语音合成装置、语音合成方法、骨传导头盔和助听器 |
US10142754B2 (en) | 2016-02-22 | 2018-11-27 | Sonos, Inc. | Sensor on moving component of transducer |
US10264030B2 (en) | 2016-02-22 | 2019-04-16 | Sonos, Inc. | Networked microphone device control |
US9947316B2 (en) | 2016-02-22 | 2018-04-17 | Sonos, Inc. | Voice control of a media playback system |
US9965247B2 (en) | 2016-02-22 | 2018-05-08 | Sonos, Inc. | Voice controlled media playback system based on user profile |
US10097919B2 (en) | 2016-02-22 | 2018-10-09 | Sonos, Inc. | Music service selection |
US9811314B2 (en) | 2016-02-22 | 2017-11-07 | Sonos, Inc. | Metadata exchange involving a networked playback system and a networked microphone system |
US10095470B2 (en) | 2016-02-22 | 2018-10-09 | Sonos, Inc. | Audio response playback |
DK3217399T3 (en) * | 2016-03-11 | 2019-02-25 | Gn Hearing As | Kalman filtering based speech enhancement using a codebook based approach |
US9978390B2 (en) * | 2016-06-09 | 2018-05-22 | Sonos, Inc. | Dynamic player selection for audio signal processing |
US10134399B2 (en) | 2016-07-15 | 2018-11-20 | Sonos, Inc. | Contextualization of voice inputs |
US10152969B2 (en) | 2016-07-15 | 2018-12-11 | Sonos, Inc. | Voice detection by multiple devices |
US10115400B2 (en) | 2016-08-05 | 2018-10-30 | Sonos, Inc. | Multiple voice services |
US9693164B1 (en) | 2016-08-05 | 2017-06-27 | Sonos, Inc. | Determining direction of networked microphone device relative to audio playback device |
GB201615538D0 (en) | 2016-09-13 | 2016-10-26 | Nokia Technologies Oy | A method , apparatus and computer program for processing audio signals |
US9794720B1 (en) | 2016-09-22 | 2017-10-17 | Sonos, Inc. | Acoustic position measurement |
US9942678B1 (en) | 2016-09-27 | 2018-04-10 | Sonos, Inc. | Audio playback settings for voice interaction |
US9743204B1 (en) | 2016-09-30 | 2017-08-22 | Sonos, Inc. | Multi-orientation playback device microphones |
US10181323B2 (en) | 2016-10-19 | 2019-01-15 | Sonos, Inc. | Arbitration-based voice recognition |
US10621980B2 (en) * | 2017-03-21 | 2020-04-14 | Harman International Industries, Inc. | Execution of voice commands in a multi-device system |
US11183181B2 (en) | 2017-03-27 | 2021-11-23 | Sonos, Inc. | Systems and methods of multiple voice services |
GB2563857A (en) | 2017-06-27 | 2019-01-02 | Nokia Technologies Oy | Recording and rendering sound spaces |
US10475449B2 (en) | 2017-08-07 | 2019-11-12 | Sonos, Inc. | Wake-word detection suppression |
US10048930B1 (en) | 2017-09-08 | 2018-08-14 | Sonos, Inc. | Dynamic computation of system response volume |
US10446165B2 (en) | 2017-09-27 | 2019-10-15 | Sonos, Inc. | Robust short-time fourier transform acoustic echo cancellation during audio playback |
US10051366B1 (en) | 2017-09-28 | 2018-08-14 | Sonos, Inc. | Three-dimensional beam forming with a microphone array |
US10482868B2 (en) | 2017-09-28 | 2019-11-19 | Sonos, Inc. | Multi-channel acoustic echo cancellation |
US10621981B2 (en) | 2017-09-28 | 2020-04-14 | Sonos, Inc. | Tone interference cancellation |
US10466962B2 (en) | 2017-09-29 | 2019-11-05 | Sonos, Inc. | Media playback system with voice assistance |
CA3078420A1 (en) | 2017-10-17 | 2019-04-25 | Magic Leap, Inc. | Mixed reality spatial audio |
US10880650B2 (en) | 2017-12-10 | 2020-12-29 | Sonos, Inc. | Network microphone devices with automatic do not disturb actuation capabilities |
US10818290B2 (en) | 2017-12-11 | 2020-10-27 | Sonos, Inc. | Home graph |
CN108174138B (zh) * | 2018-01-02 | 2021-02-19 | 上海闻泰电子科技有限公司 | 视频拍摄方法、语音采集设备及视频拍摄系统 |
US11343614B2 (en) | 2018-01-31 | 2022-05-24 | Sonos, Inc. | Device designation of playback and network microphone device arrangements |
IL276510B2 (en) | 2018-02-15 | 2024-02-01 | Magic Leap Inc | Virtual reverberation in mixed reality |
US11175880B2 (en) | 2018-05-10 | 2021-11-16 | Sonos, Inc. | Systems and methods for voice-assisted media content selection |
US10847178B2 (en) | 2018-05-18 | 2020-11-24 | Sonos, Inc. | Linear filtering for noise-suppressed speech detection |
US10959029B2 (en) | 2018-05-25 | 2021-03-23 | Sonos, Inc. | Determining and adapting to changes in microphone performance of playback devices |
US10681460B2 (en) | 2018-06-28 | 2020-06-09 | Sonos, Inc. | Systems and methods for associating playback devices with voice assistant services |
US10461710B1 (en) | 2018-08-28 | 2019-10-29 | Sonos, Inc. | Media playback system with maximum volume setting |
US11076035B2 (en) | 2018-08-28 | 2021-07-27 | Sonos, Inc. | Do not disturb feature for audio notifications |
CN117319912A (zh) * | 2018-09-13 | 2023-12-29 | 科利耳有限公司 | 使用正常事物的听力性能和康复和/或复原增强 |
US10587430B1 (en) | 2018-09-14 | 2020-03-10 | Sonos, Inc. | Networked devices, systems, and methods for associating playback devices based on sound codes |
US10878811B2 (en) | 2018-09-14 | 2020-12-29 | Sonos, Inc. | Networked devices, systems, and methods for intelligently deactivating wake-word engines |
US11024331B2 (en) | 2018-09-21 | 2021-06-01 | Sonos, Inc. | Voice detection optimization using sound metadata |
US10811015B2 (en) | 2018-09-25 | 2020-10-20 | Sonos, Inc. | Voice detection optimization based on selected voice assistant service |
US11100923B2 (en) | 2018-09-28 | 2021-08-24 | Sonos, Inc. | Systems and methods for selective wake word detection using neural network models |
US10692518B2 (en) | 2018-09-29 | 2020-06-23 | Sonos, Inc. | Linear filtering for noise-suppressed speech detection via multiple network microphone devices |
US11899519B2 (en) | 2018-10-23 | 2024-02-13 | Sonos, Inc. | Multiple stage network microphone device with reduced power consumption and processing load |
EP3654249A1 (en) | 2018-11-15 | 2020-05-20 | Snips | Dilated convolutions and gating for efficient keyword spotting |
US11183183B2 (en) | 2018-12-07 | 2021-11-23 | Sonos, Inc. | Systems and methods of operating media playback systems having multiple voice assistant services |
US11132989B2 (en) | 2018-12-13 | 2021-09-28 | Sonos, Inc. | Networked microphone devices, systems, and methods of localized arbitration |
US10602268B1 (en) | 2018-12-20 | 2020-03-24 | Sonos, Inc. | Optimization of network microphone devices using noise classification |
US10867604B2 (en) | 2019-02-08 | 2020-12-15 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing |
US11315556B2 (en) | 2019-02-08 | 2022-04-26 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing by transmitting sound data associated with a wake word to an appropriate device for identification |
KR20210145733A (ko) * | 2019-03-27 | 2021-12-02 | 소니그룹주식회사 | 신호 처리 장치 및 방법, 그리고 프로그램 |
JP7170851B2 (ja) * | 2019-04-26 | 2022-11-14 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理システム、情報処理装置、情報処理装置の制御方法、及びプログラム |
US11880633B2 (en) | 2019-04-26 | 2024-01-23 | Sony Interactive Entertainment Inc. | Information processing system, information processing apparatus, control method for information processing apparatus, and program |
US11120794B2 (en) | 2019-05-03 | 2021-09-14 | Sonos, Inc. | Voice assistant persistence across multiple network microphone devices |
US11200894B2 (en) | 2019-06-12 | 2021-12-14 | Sonos, Inc. | Network microphone device with command keyword eventing |
US10586540B1 (en) | 2019-06-12 | 2020-03-10 | Sonos, Inc. | Network microphone device with command keyword conditioning |
US11361756B2 (en) | 2019-06-12 | 2022-06-14 | Sonos, Inc. | Conditional wake word eventing based on environment |
JP7362320B2 (ja) * | 2019-07-04 | 2023-10-17 | フォルシアクラリオン・エレクトロニクス株式会社 | オーディオ信号処理装置、オーディオ信号処理方法及びオーディオ信号処理プログラム |
US10871943B1 (en) | 2019-07-31 | 2020-12-22 | Sonos, Inc. | Noise classification for event detection |
US11138975B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
US11138969B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
US11189286B2 (en) | 2019-10-22 | 2021-11-30 | Sonos, Inc. | VAS toggle based on device orientation |
EP4049466A4 (en) | 2019-10-25 | 2022-12-28 | Magic Leap, Inc. | REVERBER FOOTPRINT ESTIMATION |
US11217235B1 (en) * | 2019-11-18 | 2022-01-04 | Amazon Technologies, Inc. | Autonomously motile device with audio reflection detection |
US11200900B2 (en) | 2019-12-20 | 2021-12-14 | Sonos, Inc. | Offline voice control |
US11562740B2 (en) | 2020-01-07 | 2023-01-24 | Sonos, Inc. | Voice verification for media playback |
US11556307B2 (en) | 2020-01-31 | 2023-01-17 | Sonos, Inc. | Local voice data processing |
US11308958B2 (en) | 2020-02-07 | 2022-04-19 | Sonos, Inc. | Localized wakeword verification |
US11482224B2 (en) | 2020-05-20 | 2022-10-25 | Sonos, Inc. | Command keywords with input detection windowing |
US11308962B2 (en) | 2020-05-20 | 2022-04-19 | Sonos, Inc. | Input detection windowing |
US11727919B2 (en) | 2020-05-20 | 2023-08-15 | Sonos, Inc. | Memory allocation for keyword spotting engines |
US11698771B2 (en) | 2020-08-25 | 2023-07-11 | Sonos, Inc. | Vocal guidance engines for playback devices |
US11984123B2 (en) | 2020-11-12 | 2024-05-14 | Sonos, Inc. | Network device interaction by range |
US11551700B2 (en) | 2021-01-25 | 2023-01-10 | Sonos, Inc. | Systems and methods for power-efficient keyword detection |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3814856A (en) * | 1973-02-22 | 1974-06-04 | D Dugan | Control apparatus for sound reinforcement systems |
EP0682436A2 (en) * | 1994-05-09 | 1995-11-15 | AT&T Corp. | Voice actuated switching system |
US20100208904A1 (en) * | 2009-02-13 | 2010-08-19 | Honda Motor Co., Ltd. | Dereverberation apparatus and dereverberation method |
US20110038486A1 (en) * | 2009-08-17 | 2011-02-17 | Broadcom Corporation | System and method for automatic disabling and enabling of an acoustic beamformer |
US20120057715A1 (en) * | 2010-09-08 | 2012-03-08 | Johnston James D | Spatial audio encoding and reproduction |
WO2012069966A1 (en) * | 2010-11-24 | 2012-05-31 | Koninklijke Philips Electronics N.V. | System and method for producing an audio signal |
RU2596584C2 (ru) * | 2010-10-25 | 2016-09-10 | Войсэйдж Корпорейшн | Кодирование обобщенных аудиосигналов на низких скоростях передачи битов и с низкой задержкой |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5638487A (en) * | 1994-12-30 | 1997-06-10 | Purespeech, Inc. | Automatic speech recognition |
JP3541339B2 (ja) | 1997-06-26 | 2004-07-07 | 富士通株式会社 | マイクロホンアレイ装置 |
US6684185B1 (en) * | 1998-09-04 | 2004-01-27 | Matsushita Electric Industrial Co., Ltd. | Small footprint language and vocabulary independent word recognizer using registration by word spelling |
US6243322B1 (en) * | 1999-11-05 | 2001-06-05 | Wavemakers Research, Inc. | Method for estimating the distance of an acoustic signal |
GB0120450D0 (en) * | 2001-08-22 | 2001-10-17 | Mitel Knowledge Corp | Robust talker localization in reverberant environment |
US7783063B2 (en) | 2002-01-18 | 2010-08-24 | Polycom, Inc. | Digital linking of multiple microphone systems |
ATE324763T1 (de) * | 2003-08-21 | 2006-05-15 | Bernafon Ag | Verfahren zur verarbeitung von audiosignalen |
WO2005024780A2 (en) * | 2003-09-05 | 2005-03-17 | Grody Stephen D | Methods and apparatus for providing services using speech recognition |
CN1808571A (zh) | 2005-01-19 | 2006-07-26 | 松下电器产业株式会社 | 声音信号分离系统及方法 |
US7260491B2 (en) * | 2005-10-27 | 2007-08-21 | International Business Machines Corporation | Duty cycle measurement apparatus and method |
JP4311402B2 (ja) | 2005-12-21 | 2009-08-12 | ヤマハ株式会社 | 拡声システム |
EP1994791B1 (en) * | 2006-03-03 | 2015-04-15 | GN Resound A/S | Automatic switching between omnidirectional and directional microphone modes in a hearing aid |
US8233353B2 (en) | 2007-01-26 | 2012-07-31 | Microsoft Corporation | Multi-sensor sound source localization |
US8411880B2 (en) | 2008-01-29 | 2013-04-02 | Qualcomm Incorporated | Sound quality by intelligently selecting between signals from a plurality of microphones |
US8660281B2 (en) * | 2009-02-03 | 2014-02-25 | University Of Ottawa | Method and system for a multi-microphone noise reduction |
US8447619B2 (en) * | 2009-10-22 | 2013-05-21 | Broadcom Corporation | User attribute distribution for network/peer assisted speech coding |
EP2375779A3 (en) * | 2010-03-31 | 2012-01-18 | Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. | Apparatus and method for measuring a plurality of loudspeakers and microphone array |
US9258429B2 (en) * | 2010-05-18 | 2016-02-09 | Telefonaktiebolaget L M Ericsson | Encoder adaption in teleconferencing system |
SE536046C2 (sv) | 2011-01-19 | 2013-04-16 | Limes Audio Ab | Metod och anordning för mikrofonval |
WO2012175094A1 (en) * | 2011-06-20 | 2012-12-27 | Agnitio, S.L. | Identification of a local speaker |
US8340975B1 (en) * | 2011-10-04 | 2012-12-25 | Theodore Alfred Rosenberger | Interactive speech recognition device and system for hands-free building control |
US8731911B2 (en) * | 2011-12-09 | 2014-05-20 | Microsoft Corporation | Harmonicity-based single-channel speech quality estimation |
US9058806B2 (en) * | 2012-09-10 | 2015-06-16 | Cisco Technology, Inc. | Speaker segmentation and recognition based on list of speakers |
US20140170979A1 (en) * | 2012-12-17 | 2014-06-19 | Qualcomm Incorporated | Contextual power saving in bluetooth audio |
-
2014
- 2014-02-18 EP EP14707461.1A patent/EP2962300B1/en active Active
- 2014-02-18 US US14/766,567 patent/US10032461B2/en active Active
- 2014-02-18 WO PCT/IB2014/059057 patent/WO2014132167A1/en active Application Filing
- 2014-02-18 JP JP2015558579A patent/JP6519877B2/ja active Active
- 2014-02-18 BR BR112015020150-4A patent/BR112015020150B1/pt active IP Right Grant
- 2014-02-18 CN CN201480010600.4A patent/CN105308681B/zh active Active
- 2014-02-18 RU RU2015140965A patent/RU2648604C2/ru active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3814856A (en) * | 1973-02-22 | 1974-06-04 | D Dugan | Control apparatus for sound reinforcement systems |
EP0682436A2 (en) * | 1994-05-09 | 1995-11-15 | AT&T Corp. | Voice actuated switching system |
US20100208904A1 (en) * | 2009-02-13 | 2010-08-19 | Honda Motor Co., Ltd. | Dereverberation apparatus and dereverberation method |
US20110038486A1 (en) * | 2009-08-17 | 2011-02-17 | Broadcom Corporation | System and method for automatic disabling and enabling of an acoustic beamformer |
US20120057715A1 (en) * | 2010-09-08 | 2012-03-08 | Johnston James D | Spatial audio encoding and reproduction |
RU2596584C2 (ru) * | 2010-10-25 | 2016-09-10 | Войсэйдж Корпорейшн | Кодирование обобщенных аудиосигналов на низких скоростях передачи битов и с низкой задержкой |
WO2012069966A1 (en) * | 2010-11-24 | 2012-05-31 | Koninklijke Philips Electronics N.V. | System and method for producing an audio signal |
Also Published As
Publication number | Publication date |
---|---|
BR112015020150A2 (pt) | 2017-07-18 |
EP2962300A1 (en) | 2016-01-06 |
JP2016511594A (ja) | 2016-04-14 |
CN105308681B (zh) | 2019-02-12 |
US20150380010A1 (en) | 2015-12-31 |
CN105308681A (zh) | 2016-02-03 |
BR112015020150B1 (pt) | 2021-08-17 |
WO2014132167A1 (en) | 2014-09-04 |
EP2962300B1 (en) | 2017-01-25 |
JP6519877B2 (ja) | 2019-05-29 |
US10032461B2 (en) | 2018-07-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2648604C2 (ru) | Способ и аппаратура для генерации сигнала речи | |
CN111489760B (zh) | 语音信号去混响处理方法、装置、计算机设备和存储介质 | |
KR101444100B1 (ko) | 혼합 사운드로부터 잡음을 제거하는 방법 및 장치 | |
CN103238182B (zh) | 具有远程噪声检测器的降噪系统 | |
US9269368B2 (en) | Speaker-identification-assisted uplink speech processing systems and methods | |
US8831936B2 (en) | Systems, methods, apparatus, and computer program products for speech signal processing using spectral contrast enhancement | |
JP2011511571A (ja) | 複数のマイクからの信号間で知的に選択することによって音質を改善すること | |
US9100756B2 (en) | Microphone occlusion detector | |
US10403300B2 (en) | Spectral estimation of room acoustic parameters | |
CN112071328B (zh) | 音频降噪 | |
US20090018826A1 (en) | Methods, Systems and Devices for Speech Transduction | |
JP6545419B2 (ja) | 音響信号処理装置、音響信号処理方法、及びハンズフリー通話装置 | |
US20170365249A1 (en) | System and method of performing automatic speech recognition using end-pointing markers generated using accelerometer-based voice activity detector | |
WO2009086017A1 (en) | Systems, methods, and apparatus for multi-microphone based speech enhancement | |
WO2019213769A1 (en) | Method, apparatus, and computer-readable media utilizing residual echo estimate information to derive secondary echo reduction parameters | |
US20140278418A1 (en) | Speaker-identification-assisted downlink speech processing systems and methods | |
JP2015018015A (ja) | 音声処理装置、音声処理方法、及び音声処理プログラム | |
JP5130895B2 (ja) | 音声処理装置、音声処理システム、音声処理プログラム及び音声処理方法 | |
JP2018046452A (ja) | 信号処理装置、プログラム及び方法、並びに、通話装置 | |
JP6265903B2 (ja) | 信号雑音減衰 | |
Gamper et al. | Predicting word error rate for reverberant speech | |
Bäckström et al. | PyAWNeS-Codec: Speech and audio codec for ad-hoc acoustic wireless sensor networks | |
Srinivasan | Using a remotewireless microphone for speech enhancement in non-stationary noise | |
GB2580655A (en) | Reducing a noise level of an audio signal of a hearing system | |
US9978394B1 (en) | Noise suppressor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PC41 | Official registration of the transfer of exclusive right |
Effective date: 20191113 |