RU2016146936A - Система, устройство и способ для согласованного воспроизведения акустической сцены на основании информированной пространственной фильтрации - Google Patents
Система, устройство и способ для согласованного воспроизведения акустической сцены на основании информированной пространственной фильтрации Download PDFInfo
- Publication number
- RU2016146936A RU2016146936A RU2016146936A RU2016146936A RU2016146936A RU 2016146936 A RU2016146936 A RU 2016146936A RU 2016146936 A RU2016146936 A RU 2016146936A RU 2016146936 A RU2016146936 A RU 2016146936A RU 2016146936 A RU2016146936 A RU 2016146936A
- Authority
- RU
- Russia
- Prior art keywords
- signal
- function
- gain
- direct
- signals
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims 10
- 238000001914 filtration Methods 0.000 title claims 2
- 230000006870 function Effects 0.000 claims 90
- 230000005236 sound signal Effects 0.000 claims 56
- 238000004091 panning Methods 0.000 claims 26
- 238000000354 decomposition reaction Methods 0.000 claims 5
- 230000001419 dependent effect Effects 0.000 claims 4
- 230000003321 amplification Effects 0.000 claims 2
- 238000004364 calculation method Methods 0.000 claims 2
- 238000003199 nucleic acid amplification method Methods 0.000 claims 2
- 238000004590 computer program Methods 0.000 claims 1
- 230000003111 delayed effect Effects 0.000 claims 1
- 238000009499 grossing Methods 0.000 claims 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S5/00—Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation
- H04S5/005—Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation of the pseudo five- or more-channel type, e.g. virtual surround
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R25/00—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R25/00—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
- H04R25/40—Arrangements for obtaining a desired directivity characteristic
- H04R25/407—Circuits for combining signals of a plurality of transducers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/307—Frequency adjustment, e.g. tone control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2430/00—Signal processing covered by H04R, not provided for in its groups
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R25/00—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
- H04R25/55—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired
- H04R25/552—Binaural
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/13—Aspects of volume control, not necessarily automatic, in stereophonic sound systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/15—Aspects of sound capture and related signal processing for recording or reproduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Otolaryngology (AREA)
- Neurosurgery (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Stereophonic System (AREA)
- Circuit For Audible Band Transducer (AREA)
Claims (76)
1. Система для генерации двух или более выходных аудиосигналов, содержащая:
модуль (101) разложения,
процессор (105) сигналов и
выходной (106) интерфейс,
причем модуль (101) разложения выполнен с возможностью приема двух или более входных аудиосигналов, причем модуль (101) разложения выполнен с возможностью генерации прямого компонентного сигнала, содержащего прямые составляющие сигнала двух или более входных аудиосигналов, и модуль (101) разложения выполнен с возможностью генерации диффузного компонентного сигнала, содержащего диффузные составляющие сигнала двух или более входных аудиосигналов,
причем процессор (105) сигналов выполнен с возможностью приема прямого компонентного сигнала, диффузного компонентного сигнала и информации направления, причем упомянутая информация направления зависит от направления прихода прямых составляющих сигнала двух или более входных аудиосигналов,
причем процессор (105) сигналов выполнен с возможностью генерации одного или более обработанных диффузных сигналов в зависимости от диффузного компонентного сигнала,
причем, для каждого выходного аудиосигнала из двух или более выходных аудиосигналов, процессор (105) сигналов выполнен с возможностью определения, в зависимости от направления прихода, прямого коэффициента усиления, причем процессор (105) сигналов выполнен с возможностью применения упомянутого прямого коэффициента усиления к прямому компонентному сигналу для получения обработанного прямого сигнала, и процессор (105) сигналов выполнен с возможностью объединения упомянутого обработанного прямого сигнала и одного из одного или более обработанных диффузных сигналов для генерации упомянутого выходного аудиосигнала, и
при этом выходной интерфейс (106) выполнен с возможностью вывода двух или более выходных аудиосигналов,
причем для каждого выходного аудиосигнала из двух или более выходных аудиосигналов панорамирующая функция усиления присваивается упомянутому выходному аудиосигналу, причем панорамирующая функция усиления каждого из двух или более выходных аудиосигналов содержит множество значений аргумента панорамирующей функции, причем возвращаемое значение панорамирующей функции присваивается каждому из упомянутых значений аргумента панорамирующей функции, причем, когда упомянутая панорамирующая функция усиления принимает одно из упомянутых значений аргумента панорамирующей функции, упомянутая панорамирующая функция усиления выполнена с возможностью возвращения возвращаемого значения панорамирующей функции, присваиваемого упомянутому одному из упомянутых значений аргумента панорамирующей функции, причем панорамирующая функция усиления содержит зависящее от направления значение аргумента, которое зависит от направления прихода,
причем процессор (105) сигналов содержит модуль (104) вычисления функции усиления для вычисления функции прямого усиления для каждого из двух или более выходных аудиосигналов в зависимости от панорамирующей функции усиления, присваиваемой упомянутому выходному аудиосигналу, и в зависимости от функции окна усиления, для определения прямого коэффициента усиления упомянутого выходного аудиосигнала,
причем процессор (105) сигналов выполнен с дополнительной возможностью приема информации ориентации, указывающей угловой сдвиг направления наведения камеры, и, по меньшей мере, одна из панорамирующей функции усиления и функции окна усиления зависит от информации ориентации; или модуль (104) вычисления функции усиления выполнен с дополнительной возможностью приема информации масштабирования, и информация масштабирования указывает угол раствора камеры, и при этом, по меньшей мере, одна из панорамирующей функции усиления и функции окна усиления зависит от информации масштабирования.
2. Система по п. 1,
в которой панорамирующая функция усиления каждого из двух или более выходных аудиосигналов имеет один или более глобальных максимумов, являющихся одним из значений аргумента панорамирующей функции, причем для каждого из одного или более глобальных максимумов каждой панорамирующей функции усиления, не существует других значений аргумента панорамирующей функции, для которых упомянутая панорамирующая функция усиления возвращает более высокое возвращаемое значение панорамирующей функции, чем для упомянутых глобальных максимумов, и
при этом, для каждой пары первого выходного аудиосигнала и второго выходного аудиосигнала из двух или более выходных аудиосигналов, по меньшей мере, один из одного или более глобальных максимумов панорамирующей функции усиления первого выходного аудиосигнала отличается от любого из одного или более глобальных максимумов панорамирующей функции усиления второго выходного аудиосигнала.
3. Система по п. 1,
в которой процессор (105) сигналов выполнен с возможностью генерации каждого выходного аудиосигнала из двух или более выходных аудиосигналов в зависимости от функции окна усиления,
причем функция окна усиления выполнена с возможностью возвращения возвращаемого значения функции окна при приеме значения аргумента функции окна,
причем, если значение аргумента функции окна больше нижнего порога окна и меньше верхнего порога окна, функция окна усиления выполнена с возможностью возвращения возвращаемого значения функции окна, которое больше любого возвращаемого значения функции окна, возвращаемого функцией окна усиления, если значение аргумента функции окна меньше нижнего порога или больше верхнего порога.
4. Система по п. 1,
в которой модуль (104) вычисления функции усиления выполнен с дополнительной возможностью приема параметра калибровки, и при этом, по меньшей мере, одна из панорамирующей функции усиления и функции окна усиления зависит от параметра калибровки.
5. Система по п. 1,
в которой процессор (105) сигналов выполнен с возможностью приема информации расстояния,
причем процессор (105) сигналов выполнен с возможностью генерации каждого выходного аудиосигнала из двух или более выходных аудиосигналов в зависимости от информации расстояния.
6. Система по п. 5,
в которой процессор (105) сигналов выполнен с возможностью приема первоначального значения угла в зависимости от первоначального направления прихода, которое является направлением прихода прямых составляющих сигнала двух или более входных аудиосигналов, и выполнен с возможностью приема информации расстояния,
причем процессор (105) сигналов выполнен с возможностью вычисления измененного значения угла в зависимости от первоначального значения угла и в зависимости от информации расстояния, и
процессор (105) сигналов выполнен с возможностью генерации каждого выходного аудиосигнала из двух или более выходных аудиосигналов в зависимости от измененного значения угла.
7. Система по п. 5, причем процессор (105) сигналов выполнен с возможностью генерации двух или более выходных аудиосигналов путем проведения низкочастотной фильтрации, или путем прибавления задержанного прямого звука, или путем проведения ослабления прямого звука, или путем проведения временного сглаживания, или путем проведения расширения направления прихода, или путем проведения декорреляции.
8. Система по п. 1,
в которой процессор (105) сигналов выполнен с возможностью генерации двух или более выходных аудиоканалов,
причем процессор (105) сигналов выполнен с возможностью применения диффузного коэффициента усиления к диффузному компонентному сигналу для получения промежуточного диффузного сигнала, и
процессор (105) сигналов выполнен с возможностью генерации одного или более декоррелированных сигналов из промежуточного диффузного сигнала путем проведения декорреляции,
причем один или более декоррелированных сигналов образуют один или более обработанных диффузных сигналов, или промежуточный диффузный сигнал и один или более декоррелированных сигналов образуют один или более обработанных диффузных сигналов.
9. Система по п. 1,
в которой прямой компонентный сигнал и один или более дополнительных прямых компонентных сигналов образуют группу из двух или более прямых компонентных сигналов, причем модуль (101) разложения выполнен с возможностью генерации одного или более дополнительных прямых компонентных сигналов, содержащих дополнительные прямые составляющие сигнала двух или более входных аудиосигналов,
причем направление прихода и одно или более дополнительных направлений прихода образуют группу из двух или более направлений прихода, причем каждое направление прихода из группы из двух или более направлений прихода присваивается в точности одному прямому компонентному сигналу из группы из двух или более прямых компонентных сигналов, причем количество прямых компонентных сигналов из двух или более прямых компонентных сигналов, и количество направлений прихода двух направлений прихода равны,
причем процессор (105) сигналов выполнен с возможностью приема группы из двух или более прямых компонентных сигналов и группы из двух или более направлений прихода, и
при этом для каждого выходного аудиосигнала из двух или более выходных аудиосигналов,
процессор (105) сигналов выполнен с возможностью определения, для каждого прямого компонентного сигнала из группы из двух или более прямых компонентных сигналов, прямого коэффициента усиления в зависимости от направления прихода упомянутого прямого компонентного сигнала,
процессор (105) сигналов выполнен с возможностью генерации группы из двух или более обработанных прямых сигналов путем применения, для каждого прямого компонентного сигнала из группы из двух или более прямых компонентных сигналов, прямого коэффициента усиления упомянутого прямого компонентного сигнала к упомянутому прямому компонентному сигналу, и
процессор (105) сигналов выполнен с возможностью объединения одного из одного или более обработанных диффузных сигналов и каждого обработанного сигнала из группы из двух или более обработанных сигналов для генерации упомянутого выходного аудиосигнала.
10. Система по п. 9, в которой количество прямых компонентных сигналов из группы из двух или более прямых компонентных сигналов плюс 1 меньше количества входных аудиосигналов, принимаемых приемным интерфейсом (101) системы.
11. Слуховой аппарат или вспомогательное слуховое устройство, содержащее систему по любому из пп. 1-10.
12. Устройство для генерации двух или более выходных аудиосигналов, содержащее:
процессор (105) сигналов и
выходной (106) интерфейс,
причем процессор (105) сигналов выполнен с возможностью приема прямого компонентного сигнала, содержащего прямые составляющие сигнала двух или более первоначальных аудиосигналов, причем процессор (105) сигналов выполнен с возможностью приема диффузного компонентного сигнала, содержащего диффузные составляющие сигнала двух или более первоначальных аудиосигналов, и при этом процессор (105) сигналов выполнен с возможностью приема информации направления, причем упомянутая информация направления зависит от направления прихода прямых составляющих сигнала двух или более входных аудиосигналов,
причем процессор (105) сигналов выполнен с возможностью генерации одного или более обработанных диффузных сигналов в зависимости от диффузного компонентного сигнала,
причем для каждого выходного аудиосигнала из двух или более выходных аудиосигналов, процессор (105) сигналов выполнен с возможностью определения, в зависимости от направления прихода, прямого коэффициента усиления, причем процессор (105) сигналов выполнен с возможностью применения упомянутого прямого коэффициента усиления к прямому компонентному сигналу для получения обработанного прямого сигнала, и процессор (105) сигналов выполнен с возможностью объединения упомянутого обработанного прямого сигнала и одного из одного или более обработанных диффузных сигналов для генерации упомянутого выходного аудиосигнала, и
при этом выходной интерфейс (106) выполнен с возможностью вывода двух или более выходных аудиосигналов,
причем для каждого выходного аудиосигнала из двух или более выходных аудиосигналов панорамирующая функция усиления присваивается упомянутому выходному аудиосигналу, причем панорамирующая функция усиления каждого из двух или более выходных аудиосигналов содержит множество значений аргумента панорамирующей функции, причем возвращаемое значение панорамирующей функции присваивается каждому из упомянутых значений аргумента панорамирующей функции, причем, когда упомянутая панорамирующая функция усиления принимает одно из упомянутых значений аргумента панорамирующей функции, упомянутая панорамирующая функция усиления выполнена с возможностью возвращения возвращаемого значения панорамирующей функции, присваиваемого упомянутому одному из упомянутых значений аргумента панорамирующей функции, причем панорамирующая функция усиления содержит зависящее от направления значение аргумента, которое зависит от направления прихода,
причем процессор (105) сигналов содержит модуль (104) вычисления функции усиления для вычисления функции прямого усиления для каждого из двух или более выходных аудиосигналов в зависимости от панорамирующей функции усиления, присваиваемой упомянутому выходному аудиосигналу, и в зависимости от функции окна усиления, для определения прямого коэффициента усиления упомянутого выходного аудиосигнала, и
процессор (105) сигналов выполнен с дополнительной возможностью приема информации ориентации, указывающей угловой сдвиг направления наведения камеры, и, по меньшей мере, одна из панорамирующей функции усиления и функции окна усиления зависит от информации ориентации; или модуль (104) вычисления функции усиления выполнен с дополнительной возможностью приема информации масштабирования, и информация масштабирования указывает угол раствора камеры, и при этом, по меньшей мере, одна из панорамирующей функции усиления и функции окна усиления зависит от информации масштабирования.
13. Способ генерации двух или более выходных аудиосигналов, содержащий этапы, на которых:
принимают два или более входных аудиосигналов,
генерируют прямой компонентный сигнал, содержащий прямые составляющие сигнала двух или более входных аудиосигналов,
генерируют диффузный компонентный сигнал, содержащий диффузные составляющие сигнала двух или более входных аудиосигналов,
принимают информацию направления в зависимости от направления прихода прямых составляющих сигнала двух или более входных аудиосигналов,
генерируют один или более обработанных диффузных сигналов в зависимости от диффузного компонентного сигнала,
для каждого выходного аудиосигнала из двух или более выходных аудиосигналов, определяют, в зависимости от направления прихода, прямой коэффициент усиления, применяют упомянутый прямой коэффициент усиления к прямому компонентному сигналу для получения обработанного прямого сигнала, и объединяют упомянутый обработанный прямой сигнал и один из одного или более обработанных диффузных сигналов для генерации упомянутого выходного аудиосигнала, и
выводят два или более выходных аудиосигналов,
причем для каждого выходного аудиосигнала из двух или более выходных аудиосигналов панорамирующая функция усиления присваивается упомянутому выходному аудиосигналу, причем панорамирующая функция усиления каждого из двух или более выходных аудиосигналов содержит множество значений аргумента панорамирующей функции, причем возвращаемое значение панорамирующей функции присваивается каждому из упомянутых значений аргумента панорамирующей функции, причем, когда упомянутая панорамирующая функция усиления принимает одно из упомянутых значений аргумента панорамирующей функции, упомянутая панорамирующая функция усиления выполнена с возможностью возвращения возвращаемого значения панорамирующей функции, присваиваемого упомянутому одному из упомянутых значений аргумента панорамирующей функции, причем панорамирующая функция усиления содержит зависящее от направления значение аргумента, которое зависит от направления прихода,
причем способ дополнительно содержит этап, на котором вычисляют функцию прямого усиления для каждого из двух или более выходных аудиосигналов в зависимости от панорамирующей функции усиления, присваиваемой упомянутому выходному аудиосигналу, и в зависимости от функции окна усиления, для определения прямого коэффициента усиления упомянутого выходного аудиосигнала, и
способ дополнительно содержит этап, на котором принимают информацию ориентации, указывающую угловой сдвиг направления наведения камеры, и, по меньшей мере, одна из панорамирующей функции усиления и функции окна усиления зависит от информации ориентации; или способ дополнительно содержит этап, на котором принимают информацию масштабирования, причем информация масштабирования указывает угол раствора камеры, и при этом, по меньшей мере, одна из панорамирующей функции усиления и функции окна усиления зависит от информации масштабирования.
14. Способ генерации двух или более выходных аудиосигналов, содержащий этапы, на которых:
принимают прямой компонентный сигнал, содержащий прямые составляющие сигнала двух или более первоначальных аудиосигналов,
принимают диффузный компонентный сигнал, содержащий диффузные составляющие сигнала двух или более первоначальных аудиосигналов,
принимают информацию направления, причем упомянутая информация направления зависит от направления прихода прямых составляющих сигнала двух или более входных аудиосигналов,
генерируют один или более обработанных диффузных сигналов в зависимости от диффузного компонентного сигнала,
для каждого выходного аудиосигнала из двух или более выходных аудиосигналов, определяют, в зависимости от направления прихода, прямой коэффициент усиления, применяют упомянутый прямой коэффициент усиления к прямому компонентному сигналу для получения обработанного прямого сигнала, и объединяют упомянутый обработанный прямой сигнал и один из одного или более обработанных диффузных сигналов для генерации упомянутого выходного аудиосигнала, и
выводят два или более выходных аудиосигналов,
причем для каждого выходного аудиосигнала из двух или более выходных аудиосигналов панорамирующая функция усиления присваивается упомянутому выходному аудиосигналу, причем панорамирующая функция усиления каждого из двух или более выходных аудиосигналов содержит множество значений аргумента панорамирующей функции, причем возвращаемое значение панорамирующей функции присваивается каждому из упомянутых значений аргумента панорамирующей функции, причем, когда упомянутая панорамирующая функция усиления принимает одно из упомянутых значений аргумента панорамирующей функции, упомянутая панорамирующая функция усиления выполнена с возможностью возвращения возвращаемого значения панорамирующей функции, присваиваемого упомянутому одному из упомянутых значений аргумента панорамирующей функции, причем панорамирующая функция усиления содержит зависящее от направления значение аргумента, которое зависит от направления прихода,
причем способ дополнительно содержит этап, на котором вычисляют функцию прямого усиления для каждого из двух или более выходных аудиосигналов в зависимости от панорамирующей функции усиления, присваиваемой упомянутому выходному аудиосигналу, и в зависимости от функции окна усиления, для определения прямого коэффициента усиления упомянутого выходного аудиосигнала, и
способ дополнительно содержит этап, на котором принимают информацию ориентации, указывающую угловой сдвиг направления наведения камеры, и, по меньшей мере, одна из панорамирующей функции усиления и функции окна усиления зависит от информации ориентации; или способ дополнительно содержит этап, на котором принимают информацию масштабирования, причем информация масштабирования указывает угол раствора камеры, и при этом, по меньшей мере, одна из панорамирующей функции усиления и функции окна усиления зависит от информации масштабирования.
15. Компьютерная программа для осуществления способа по п. 13 или 14 при выполнении на компьютере или процессоре сигналов.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP14167053.9 | 2014-05-05 | ||
EP14167053 | 2014-05-05 | ||
EP14183855.7 | 2014-09-05 | ||
EP14183855.7A EP2942982A1 (en) | 2014-05-05 | 2014-09-05 | System, apparatus and method for consistent acoustic scene reproduction based on informed spatial filtering |
PCT/EP2015/058859 WO2015169618A1 (en) | 2014-05-05 | 2015-04-23 | System, apparatus and method for consistent acoustic scene reproduction based on informed spatial filtering |
Publications (3)
Publication Number | Publication Date |
---|---|
RU2016146936A3 RU2016146936A3 (ru) | 2018-06-06 |
RU2016146936A true RU2016146936A (ru) | 2018-06-06 |
RU2665280C2 RU2665280C2 (ru) | 2018-08-28 |
Family
ID=51485417
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2016146936A RU2665280C2 (ru) | 2014-05-05 | 2015-04-23 | Система, устройство и способ для согласованного воспроизведения акустической сцены на основании информированной пространственной фильтрации |
RU2016147370A RU2663343C2 (ru) | 2014-05-05 | 2015-04-23 | Система, устройство и способ для совместимого воспроизведения акустической сцены на основе адаптивных функций |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2016147370A RU2663343C2 (ru) | 2014-05-05 | 2015-04-23 | Система, устройство и способ для совместимого воспроизведения акустической сцены на основе адаптивных функций |
Country Status (7)
Country | Link |
---|---|
US (2) | US9936323B2 (ru) |
EP (4) | EP2942982A1 (ru) |
JP (2) | JP6466969B2 (ru) |
CN (2) | CN106664501B (ru) |
BR (2) | BR112016025767B1 (ru) |
RU (2) | RU2665280C2 (ru) |
WO (2) | WO2015169618A1 (ru) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108604454B (zh) * | 2016-03-16 | 2020-12-15 | 华为技术有限公司 | 音频信号处理装置和输入音频信号处理方法 |
US10187740B2 (en) * | 2016-09-23 | 2019-01-22 | Apple Inc. | Producing headphone driver signals in a digital audio signal processing binaural rendering environment |
JP7051876B6 (ja) * | 2017-01-27 | 2023-08-18 | シュアー アクイジッション ホールディングス インコーポレイテッド | アレイマイクロホンモジュール及びシステム |
US10219098B2 (en) * | 2017-03-03 | 2019-02-26 | GM Global Technology Operations LLC | Location estimation of active speaker |
JP6472824B2 (ja) * | 2017-03-21 | 2019-02-20 | 株式会社東芝 | 信号処理装置、信号処理方法および音声の対応づけ提示装置 |
US9820073B1 (en) | 2017-05-10 | 2017-11-14 | Tls Corp. | Extracting a common signal from multiple audio signals |
GB2563606A (en) | 2017-06-20 | 2018-12-26 | Nokia Technologies Oy | Spatial audio processing |
CN109857360B (zh) * | 2017-11-30 | 2022-06-17 | 长城汽车股份有限公司 | 车内音频设备音量控制系统及控制方法 |
GB2571949A (en) | 2018-03-13 | 2019-09-18 | Nokia Technologies Oy | Temporal spatial audio parameter smoothing |
CN112513983A (zh) * | 2018-06-21 | 2021-03-16 | 奇跃公司 | 可穿戴系统语音处理 |
CN116437280A (zh) * | 2018-08-22 | 2023-07-14 | 深圳市汇顶科技股份有限公司 | 评估麦克风阵列一致性的方法、设备、装置和系统 |
KR20210059758A (ko) * | 2018-09-18 | 2021-05-25 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 실제 실내에 가상 3d 오디오를 적용하는 장치 및 방법 |
JP7311602B2 (ja) * | 2018-12-07 | 2023-07-19 | フラウンホッファー-ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | 低次、中次、高次成分生成器を用いたDirACベースの空間音声符号化に関する符号化、復号化、シーン処理および他の手順を行う装置、方法およびコンピュータプログラム |
WO2020180719A1 (en) | 2019-03-01 | 2020-09-10 | Magic Leap, Inc. | Determining input for speech processing engine |
EP3912365A1 (en) * | 2019-04-30 | 2021-11-24 | Huawei Technologies Co., Ltd. | Device and method for rendering a binaural audio signal |
WO2020231884A1 (en) | 2019-05-15 | 2020-11-19 | Ocelot Laboratories Llc | Audio processing |
US11328740B2 (en) | 2019-08-07 | 2022-05-10 | Magic Leap, Inc. | Voice onset detection |
WO2021086624A1 (en) * | 2019-10-29 | 2021-05-06 | Qsinx Management Llc | Audio encoding with compressed ambience |
WO2021113781A1 (en) * | 2019-12-06 | 2021-06-10 | Magic Leap, Inc. | Environment acoustics persistence |
EP3849202B1 (en) * | 2020-01-10 | 2023-02-08 | Nokia Technologies Oy | Audio and video processing |
US11917384B2 (en) | 2020-03-27 | 2024-02-27 | Magic Leap, Inc. | Method of waking a device using spoken voice commands |
US11595775B2 (en) * | 2021-04-06 | 2023-02-28 | Meta Platforms Technologies, Llc | Discrete binaural spatialization of sound sources on two audio channels |
WO2023069946A1 (en) * | 2021-10-22 | 2023-04-27 | Magic Leap, Inc. | Voice analysis driven audio parameter modifications |
CN114268883A (zh) * | 2021-11-29 | 2022-04-01 | 苏州君林智能科技有限公司 | 一种选择麦克风布放位置的方法与系统 |
WO2023118078A1 (en) | 2021-12-20 | 2023-06-29 | Dirac Research Ab | Multi channel audio processing for upmixing/remixing/downmixing applications |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7644003B2 (en) * | 2001-05-04 | 2010-01-05 | Agere Systems Inc. | Cue-based audio coding/decoding |
US7583805B2 (en) * | 2004-02-12 | 2009-09-01 | Agere Systems Inc. | Late reverberation-based synthesis of auditory scenes |
JP4322207B2 (ja) | 2002-07-12 | 2009-08-26 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | オーディオ符号化方法 |
WO2007127757A2 (en) * | 2006-04-28 | 2007-11-08 | Cirrus Logic, Inc. | Method and system for surround sound beam-forming using the overlapping portion of driver frequency ranges |
US9015051B2 (en) * | 2007-03-21 | 2015-04-21 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Reconstruction of audio channels with direction parameters indicating direction of origin |
US20080232601A1 (en) * | 2007-03-21 | 2008-09-25 | Ville Pulkki | Method and apparatus for enhancement of audio reconstruction |
US8180062B2 (en) * | 2007-05-30 | 2012-05-15 | Nokia Corporation | Spatial sound zooming |
US8064624B2 (en) | 2007-07-19 | 2011-11-22 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Method and apparatus for generating a stereo signal with enhanced perceptual quality |
EP2154911A1 (en) * | 2008-08-13 | 2010-02-17 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | An apparatus for determining a spatial output multi-channel audio signal |
EP2346028A1 (en) * | 2009-12-17 | 2011-07-20 | Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. | An apparatus and a method for converting a first parametric spatial audio signal into a second parametric spatial audio signal |
CA2790956C (en) * | 2010-02-24 | 2017-01-17 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Apparatus for generating an enhanced downmix signal, method for generating an enhanced downmix signal and computer program |
US8908874B2 (en) * | 2010-09-08 | 2014-12-09 | Dts, Inc. | Spatial audio encoding and reproduction |
EP2464145A1 (en) * | 2010-12-10 | 2012-06-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for decomposing an input signal using a downmixer |
EP2600343A1 (en) * | 2011-12-02 | 2013-06-05 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for merging geometry - based spatial audio coding streams |
-
2014
- 2014-09-05 EP EP14183855.7A patent/EP2942982A1/en not_active Withdrawn
- 2014-09-05 EP EP14183854.0A patent/EP2942981A1/en not_active Withdrawn
-
2015
- 2015-04-23 WO PCT/EP2015/058859 patent/WO2015169618A1/en active Application Filing
- 2015-04-23 RU RU2016146936A patent/RU2665280C2/ru active
- 2015-04-23 WO PCT/EP2015/058857 patent/WO2015169617A1/en active Application Filing
- 2015-04-23 JP JP2016564335A patent/JP6466969B2/ja active Active
- 2015-04-23 EP EP15721604.5A patent/EP3141001B1/en active Active
- 2015-04-23 CN CN201580036158.7A patent/CN106664501B/zh active Active
- 2015-04-23 BR BR112016025767-7A patent/BR112016025767B1/pt active IP Right Grant
- 2015-04-23 BR BR112016025771-5A patent/BR112016025771B1/pt active IP Right Grant
- 2015-04-23 RU RU2016147370A patent/RU2663343C2/ru active
- 2015-04-23 CN CN201580036833.6A patent/CN106664485B/zh active Active
- 2015-04-23 JP JP2016564300A patent/JP6466968B2/ja active Active
- 2015-04-23 EP EP15720034.6A patent/EP3141000B1/en active Active
-
2016
- 2016-11-04 US US15/343,901 patent/US9936323B2/en active Active
- 2016-11-04 US US15/344,076 patent/US10015613B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US10015613B2 (en) | 2018-07-03 |
RU2016146936A3 (ru) | 2018-06-06 |
JP2017517947A (ja) | 2017-06-29 |
RU2016147370A (ru) | 2018-06-06 |
JP6466968B2 (ja) | 2019-02-06 |
BR112016025767A2 (ru) | 2017-08-15 |
CN106664501B (zh) | 2019-02-15 |
US9936323B2 (en) | 2018-04-03 |
US20170078819A1 (en) | 2017-03-16 |
CN106664485B (zh) | 2019-12-13 |
EP3141000B1 (en) | 2020-06-17 |
BR112016025767B1 (pt) | 2022-08-23 |
WO2015169618A1 (en) | 2015-11-12 |
EP3141000A1 (en) | 2017-03-15 |
JP2017517948A (ja) | 2017-06-29 |
EP3141001A1 (en) | 2017-03-15 |
BR112016025771B1 (pt) | 2022-08-23 |
JP6466969B2 (ja) | 2019-02-06 |
BR112016025771A2 (ru) | 2017-08-15 |
EP2942982A1 (en) | 2015-11-11 |
EP2942981A1 (en) | 2015-11-11 |
EP3141001B1 (en) | 2022-05-18 |
CN106664501A (zh) | 2017-05-10 |
RU2016147370A3 (ru) | 2018-06-06 |
US20170078818A1 (en) | 2017-03-16 |
WO2015169617A1 (en) | 2015-11-12 |
RU2665280C2 (ru) | 2018-08-28 |
RU2663343C2 (ru) | 2018-08-03 |
CN106664485A (zh) | 2017-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2016146936A (ru) | Система, устройство и способ для согласованного воспроизведения акустической сцены на основании информированной пространственной фильтрации | |
US9900685B2 (en) | Creating an audio envelope based on angular information | |
US20150022636A1 (en) | Method and system for voice capture using face detection in noisy environments | |
JP2017517947A5 (ru) | ||
US9439019B2 (en) | Sound signal processing method and apparatus | |
JP2017517948A5 (ru) | ||
EP3217653B1 (en) | An apparatus | |
KR20190067902A (ko) | 사운드 처리 방법 및 장치 | |
RU2016105472A (ru) | Устройство и способ для осуществления понижающего микширования saoc объемного (3d) аудиоконтента | |
JP2016513410A5 (ru) | ||
US9997170B2 (en) | Electronic device and reverberation removal method therefor | |
US20140200886A1 (en) | Noise suppression device and method | |
JP2016015722A5 (ru) | ||
JP5565552B2 (ja) | 映像音響処理装置、映像音響処理方法及びプログラム | |
KR20210054551A (ko) | 비디오 처리 방법과 장치, 전자 기기 및 저장 매체 | |
JP2017528047A5 (ru) | ||
KR101767928B1 (ko) | 음원 위치 추정 장치 및 방법 | |
WO2014153450A3 (en) | Guided filter-based detail enhancement | |
US20190219659A1 (en) | Signal processing apparatus, signal processing method, and signal processing program | |
CA3015743A1 (en) | Synthetic aperture radar signal processing device | |
JPWO2018003158A1 (ja) | 相関関数生成装置、相関関数生成方法、相関関数生成プログラムおよび波源方向推定装置 | |
US10991392B2 (en) | Apparatus, electronic device, system, method and computer program for capturing audio signals | |
JP2006332736A (ja) | マイクロフォンアレイ装置 | |
JP6650245B2 (ja) | インパルス応答生成装置及びプログラム | |
EP2940989B1 (en) | Method and apparatus for generating composite image in electronic device |