KR20170084054A - Aoustic processor having low latency - Google Patents

Aoustic processor having low latency Download PDF

Info

Publication number
KR20170084054A
KR20170084054A KR1020177011938A KR20177011938A KR20170084054A KR 20170084054 A KR20170084054 A KR 20170084054A KR 1020177011938 A KR1020177011938 A KR 1020177011938A KR 20177011938 A KR20177011938 A KR 20177011938A KR 20170084054 A KR20170084054 A KR 20170084054A
Authority
KR
South Korea
Prior art keywords
rate
digital
audio signal
signal
sensor
Prior art date
Application number
KR1020177011938A
Other languages
Korean (ko)
Inventor
아밋 쿠마르
토마스 이르강
수동 자오
Original Assignee
아브네라 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아브네라 코포레이션 filed Critical 아브네라 코포레이션
Publication of KR20170084054A publication Critical patent/KR20170084054A/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1781Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions
    • G10K11/17821Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions characterised by the analysis of the input signals only
    • G10K11/17827Desired external signals, e.g. pass-through audio such as music or speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1785Methods, e.g. algorithms; Devices
    • G10K11/17855Methods, e.g. algorithms; Devices for improving speed or power requirements
    • G10K11/1788
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1784
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1785Methods, e.g. algorithms; Devices
    • G10K11/17853Methods, e.g. algorithms; Devices of the filter
    • G10K11/17854Methods, e.g. algorithms; Devices of the filter the filter being an adaptive filter
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1787General system configurations
    • G10K11/17879General system configurations using both a reference signal and an error signal
    • G10K11/17881General system configurations using both a reference signal and an error signal the reference signal being an acoustic signal, e.g. recorded with a microphone
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1787General system configurations
    • G10K11/17885General system configurations additionally using a desired external signal, e.g. pass-through audio such as music or speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/30Means
    • G10K2210/301Computational
    • G10K2210/3051Sampling, e.g. variable rate, synchronous, decimated or interpolated

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

저 레이턴시를 가지는 오디오 시스템은 디지털 오디오 프로세서와 그 프로세서에 결합되는 센서 입력부를 포함한다. 센서 입력부는 마이크로폰 입력부일 수 있다. 오디오 프로세서는 센서 입력부와 동일한 주파수에서 작동하고, 이것은 전형적으로 오디오 프로세서에 제공되는 오디오 신호보다 훨씬 높다. 일부 측면에서, 오디오 프로세서는 노이즈 제거 프로세서로서 작동되고 오디오 입력부를 포함하지는 않는다. An audio system with low latency includes a digital audio processor and a sensor input coupled to the processor. The sensor input may be a microphone input. The audio processor operates at the same frequency as the sensor input, which is typically much higher than the audio signal provided to the audio processor. In some aspects, the audio processor is operated as a noise reduction processor and does not include an audio input.

Description

저 레이턴시를 가지는 음향 프로세서{AOUSTIC PROCESSOR HAVING LOW LATENCY}AOUSTIC PROCESSOR HAVING LOW LATENCY [0002]

본원은 음향 처리 더욱 자세하게는, 실시간 또는 실시간에 가깝게 동작할 수 있는 재구성 음향 프로세서에 관한 것이다.The present invention relates to a sound processing, and more particularly, to a reconfigurable sound processor capable of operating in close proximity to real time or real time.

일반적으로, 청취 환경에 거의 존재하는 노이즈은 항상 헤드폰을 통해 오디오를 청취하는 경험과 타협한다. 예를 들어, 항공기 캐빈에서, 항공기로부터의 노이즈이 원치 않는 음파, 예컨대 노이즈를 발생시키며, 이 노이즈는 오디오 프로그램에 더하여, 청취자의 귀에 전달된다. 다른 실시예는 오피스나 하우스의 컴퓨터 및 공기 조화 노이즈, 대중 교통이나 전용 교통에서의 운송 수단 및 승객 노이즈, 또는 다른 노이즈 환경을 포함한다. Generally, noise that is almost always present in a listening environment compromises the experience of listening to audio through headphones all the time. For example, in an aircraft cabin, the noise from an aircraft causes unwanted sound waves, such as noise, which are passed on to the listener's ear, in addition to the audio program. Other embodiments include office or house computers and air conditioning noise, vehicles and passenger noise in public or private traffic, or other noise environments.

청취자에 의해 수신되는 소음의 양을 감소하는 노력에서, 소음 감소의 두 가지 주요 스타일이 개선되어 왔으며, 그것은 수동 노이즈 감소 및 능동 노이즈 제거이다. 수동 노이즈 감소는 물리적 장벽을 둠으로써 발생되는 노이즈의 감소를 지칭하며, 일반적으로 귀구멍(ear cavity)과 소음 외부 환경 사이의 헤드폰 또는 귀마개이다. 감소된 노이즈의 양은 장벽의 품질에 의존한다. 일반적으로, 더 큰 매쓰(mass)의 노이즈-감소 헤드폰은 더 높은 수동 노이즈 감소를 제공한다. 그러나, 크고, 무거운 헤드폰은 연장된 기간 동안 쓰는데 편안하지 않을 수 있다. 주어진 헤드폰에 대하여, 수동 노이즈 감소가 더 큰 주파수 노이즈를 감소하는데 더 양호하게 작용하며, 반면에 수동 노이즈 감소 시스템을 통해 저 주파수가 여전히 통과한다.In an effort to reduce the amount of noise received by a listener, two major styles of noise reduction have been improved, passive noise reduction and active noise reduction. Passive noise reduction refers to the reduction of noise caused by placing physical barriers, and is generally a headphone or ear plug between the ear cavity and the noise external environment. The amount of reduced noise depends on the quality of the barrier. In general, a larger mass noise-reducing headphone provides higher passive noise reduction. However, large, heavy headphones may not be comfortable to wear for extended periods of time. For a given headphone, passive noise reduction works better to reduce greater frequency noise, while low frequencies still pass through a passive noise reduction system.

능동 노이즈 제거(active noise cancellation, ANC)라고도 하는, 능동 노이즈 감소 시스템은 헤드폰 스피커를 통해 노이즈 방지 신호를 플레이함으로써 달성되는 노이즈의 감소를 지칭한다. 노이즈 방지 신호는 ANC가 부 존재시 귀구멍에서 있을 수 있는 노이즈 신호의 음(negative)의 근사치로서 생성된다. 노이즈 신호는 그 후 노이즈 방지 신호와 조합시 상쇄된다. An active noise reduction system, also referred to as active noise cancellation (ANC), refers to the reduction of noise achieved by playing noise suppression signals through headphone speakers. The anti-noise signal is generated as a negative approximation of the noise signal that the ANC may have in the ear canal when negative. The noise signal is then canceled in combination with the noise suppression signal.

일반적인 노이즈 제거 프로세스에서, 하나 이상의 센서(에, 마이크로폰)이 실시간으로 헤드폰의 이어컵(earcup)에서 주변 노이즈나 소음을 모니터하고, 그 후 시스템은 주변 또는 잔류 노이즈로부터 노이즈 방지 신호를 생성한다. 노이즈 방지 신호는 ANC 시스템(예, 헤드폰 등)의 물리적 형상 및 크기, 센서 및 트랜스듀서의 주파수 응답, 예컨대 스피커, 다양한 주파수에서 트랜스듀서의 레이턴시, 센서의 감지도 및 트랜스듀서 및 센서의 배치와 같은 인자에 상이하게 의존하여 생성될 수 있다. 상이한 센서와 트랜스듀서(예, 헤드폰) 사이 및 심지어 동일한 시스템의 2개의 이어컵 사이의 이러한 인자들의 변화는 노이즈 방지를 생성하기 위해 최적의 필터 고안 역시 변화해야 함을 의미한다. In a typical noise reduction process, one or more sensors (e. G., A microphone) monitors ambient noise or noise in the earcup of the headphones in real time, after which the system generates a noise suppression signal from ambient or residual noise. The noise suppression signal can be used to determine the physical shape and size of the ANC system (e.g., headphones, etc.), the frequency response of the sensor and transducer, such as the speaker, the latency of the transducer at various frequencies, the sensitivity of the sensor, Can be generated by relying on different factors. Changes in these factors between different sensors and transducers (e. G., Headphones) and even between two ear cups of the same system means that the optimum filter design must also change to produce noise protection.

노이즈 방지 신호(anti-noise signal) 처리시 레이턴시는 능동 노이즈 제거 시스템이 효과적으로 동작하는 것을 방해한다. 예를 들어, 오디오 프로세싱에서 일반적인 레이트, 예컨대 44.1 KHz 또는 48 KHz 로 센서 신호를 디지타이징하고 신호를 처리하는 것은 큰 레이턴시를 유발한다. 음향 프로세서, 예컨대 ANC의 성능은 노이즈를 검출하고 노이즈 방지 신호를 충분히 빨리 생성하여 노이즈를 제거하는 능력에 달려 있기 때문에, 큰 레이턴시가 음향 노이즈 제거 처리를 방해한다. Latency during anti-noise signal processing prevents the active noise cancellation system from operating effectively. For example, digitizing a sensor signal and processing the signal at a normal rate, e.g., 44.1 KHz or 48 KHz, in audio processing causes a large latency. Since the performance of an acoustic processor, such as ANC, depends on its ability to detect noise and generate noise protection signals fast enough to remove noise, large latency hampers the acoustic noise removal process.

본원의 실시태양은 종래 기술에 대한 이러한 제한 및 다른 제한을 설명한다.Embodiments of the present application describe these and other limitations to the prior art.

도 1은 피드-포워드 능동 노이즈 제거의 종래 기술을 도시하는 회로도이다.
도 2는 피드-백 능동 노이즈 제거의 종래 기술을 도시하는 회로도이다.
도 3은 조합된 피드-포워드 및 피드-백 능동 노이즈 제거의 종래 기술을 도시하는 회로도이다.
도 4는 본원 실시태양에 따른 재구성 음향 프로세서를 포함하는 오디오 시스템의 블록도이다.
도 5는 도 4의 일례의 재구성 음향 프로세서의 기능적 블록도이다.
도 6은 조합된 피드-포워드 및 피드-백 능동 노이즈 제거 동작을 구현하는 도 4의 재구성 음향 프로세서를 도시하는 블록도이다.
도 7은 본원의 실시태양에 따른 도 4의 일례의 재구성 음향 프로세서의 컴포넌트의 기능적 블록도이다.
1 is a circuit diagram showing a prior art of feed-forward active noise rejection.
2 is a circuit diagram showing a prior art of feed-back active noise rejection.
3 is a circuit diagram showing a prior art of combined feed-forward and feed-back active noise rejection.
4 is a block diagram of an audio system including a reconstruction acoustic processor in accordance with an embodiment of the present invention.
FIG. 5 is a functional block diagram of an exemplary reconfigurable acoustic processor of FIG. 4;
Figure 6 is a block diagram illustrating the reconstruction acoustic processor of Figure 4 implementing a combined feed-forward and feed-back active noise canceling operation.
FIG. 7 is a functional block diagram of a component of an exemplary reconfigurable acoustic processor of FIG. 4 in accordance with an embodiment of the present disclosure.

본원의 실시태양은 디지털화된 센서 입력을 사용하는 오디오 시스템에서 사용하기 위한 재구성 음향 프로세서(Reconfigurable Acoustic Processor, RAP)와 같은, 디지털 음향 프로세서에 관한 것이다.Embodiments of the present disclosure relate to a digital acoustic processor, such as a Reconfigurable Acoustic Processor (RAP), for use in an audio system using digitized sensor inputs.

능동 노이즈 제거(ANC)의 3가지 주요 유형이 있으며, 이는 시스템 내의 마이크로폰 위치 또는 센서에 기초하여 식별된다. 피드-포워드 ANC에서, 센서는 주변 노이즈를 감지하지만, 스피커와 같이 트랜스듀서에 의해 발생되는 신호를 현저히 감지하지는 못한다. 그러한 시스템은 도 1에서 도시된다. 도 1과 관련하여, 피드-포워드 ANC 시스템(10)는 주변 노이즈를 감지하는 센서(12)를 포함하지만, 트랜스듀서(14)로부터 직접 신호를 모니터링하지 않는다. 센서(12)로부터의 출력이 피드-포워드 필터(16) 및 피드-포워드 믹서(18)에 조합되는 필터 출력에서 에서 필터링되고, 필터링된 신호가 입력 오디오 신호와 믹싱된다. 필터(16)으로부터 필터링된 신호는 센서(12)의 출력으로부터 생성된 노이즈 방지 신호다. 노이즈 방지 신호가 믹서(18)에서 원하는 신호와 믹싱되는 때에, 필터링된 노이즈 방지 신호와 믹싱된 입력 신호의 조합인, 트랜스듀서(14)의 출력은, 발생되는 노이즈 방지 신호가 존재하지 않다면 더 작은 노이즈를 가진다. There are three main types of active noise cancellation (ANC), which are identified based on the microphone position or sensor in the system. In a feed-forward ANC, the sensor senses ambient noise, but does not noticeably detect the signal generated by the transducer, such as a speaker. Such a system is shown in Fig. 1, the feed-forward ANC system 10 includes a sensor 12 for sensing ambient noise, but does not monitor the signal directly from the transducer 14. The output from the sensor 12 is filtered at a filter output that is combined with the feed-forward filter 16 and the feed-forward mixer 18, and the filtered signal is mixed with the input audio signal. The filtered signal from the filter 16 is a noise suppression signal generated from the output of the sensor 12. The output of the transducer 14, which is a combination of the filtered noise suppression signal and the mixed input signal when the noise suppression signal is mixed with the desired signal in the mixer 18, is smaller if no noise suppression signal is generated It has noise.

피드백 ANC에서, 센서는 귀구멍에 존재하는 총 오디오 신호를 감지하는 위치에 놓여진다. 다시 말하면, 센서는 트랜스듀서에 의해 다시 플레이되는 오디오뿐만 아니라 주변 노이즈 둘 다의 합을 감지한다. 이러한 시스템은 도 2에 도시된다. 도 2와 관련하여, 피드백 ANC 시스템(20)에서, 센서(32)가 트랜스듀서(24)로부터 직접 출력을 모니터링한다. 센서(32)로부터의 출력이 피드백 믹서(30)에서 오디오 입력 신호와 믹스되고, 그 후 피드백 필터(34)로 조합된 신호가 전송되며, 조합된 신호는 노이즈 방지 신호를 생성하도록 필터링된다. 필터(34)로부터의 이 노이즈 방지 신호는 믹서(28)에서 원래의 오디오 신호와 믹싱되고, 그것의 조합된 출력이 그 후 트랜스듀서(24)로 피딩된다. 피드백 ANC 시스템(20)은 또한 스피커(24)의 청취자에 의해 들리는 노이즈를 감소시킨다. In the feedback ANC, the sensor is placed in a position to sense the total audio signal present in the ear canal. In other words, the sensor senses the sum of both the ambient noise as well as the audio played back by the transducer. Such a system is shown in Fig. 2, in the feedback ANC system 20, the sensor 32 monitors the output directly from the transducer 24. [ The output from the sensor 32 is mixed with the audio input signal in the feedback mixer 30 and then the combined signal is sent to the feedback filter 34 and the combined signal is filtered to produce a noise suppression signal. This anti-noise signal from the filter 34 is mixed with the original audio signal in the mixer 28, and the combined output thereof is then fed to the transducer 24. The feedback ANC system 20 also reduces the noise heard by the listener of the speaker 24.

조합된 피드-포워드 및 피드백 ANC 시스템은 둘 이상의 센서를 사용하고, 제1 위치는 도 1에 도시된 피드-포워드 경로 내에 있는 센서들에 대한 것이고, 센서들의 제2 위치는 도 2에 도시된 피드백 경로에 있다. 조합된 피드-포워드 및 피드백 ANC 시스템(40)이 도 3에 도시되고, 센서 위치(42, 52)를 포함하며, 도 44에 하나 이상의 트랜스듀서의 위치가 도시된다. 위치(52)에 있는 피드백 센서(들)로부터 감지된 신호는 피드백 믹서(50)에서 믹싱되고 조합된 신호가 피드백 필터(54)에 의해 필터링된다. 유사하게, 위치(42)에 있는 피드-포워드 센서(들)로부터 감지된 신호가 피드-포워드 필터(46)에서 필터링되고, 필터링된 신호는 피드-포워드 믹서(48)에서 들어오는 오디오 신호와 조합된다. 위치(44)에 있는 트랜스듀서(들)의 출력이 필터링 및 믹싱 동작에 의해 노이즈를 감소시키게 된다. The combined feed-forward and feedback ANC system uses more than one sensor, the first position is for sensors in the feed-forward path shown in FIG. 1, and the second position of the sensors is feedback It is in the path. A combined feed-forward and feedback ANC system 40 is shown in FIG. 3 and includes sensor locations 42 and 52, and the position of one or more transducers is shown in FIG. The sensed signal from the feedback sensor (s) in position 52 is mixed in a feedback mixer 50 and the combined signal is filtered by a feedback filter 54. Similarly, the signal sensed from the feed-forward sensor (s) at position 42 is filtered at feed-forward filter 46 and the filtered signal is combined with the incoming audio signal at feed-forward mixer 48 . The output of the transducer (s) in position 44 will reduce noise by filtering and mixing operations.

현존하는 시스템이 고정된 토폴로지 및 필터를 사용하는 반면에, 본원의 실시태양은 이하 자세히 설명되는 것처럼 복수의 상이한 응용에 선택가능한 시스템을 사용한다. While existing systems use fixed topologies and filters, embodiments of the present application use a selectable system for a plurality of different applications as described in detail below.

전형적인 오디오 처리 레이트는 44.1 kHz 또는 48 kHz이고, 이것은 전형적인 인간 청음의 주파수 범위에 기초한다. 이러한 샘플 레이트에서, 샘플링 기간은 약 20 ㎲이다. ANC 시스템에서 디지타이징 및 필터링은 언제나 다수의 샘플이 걸린다. 이 레이트에서, 100 마이크로초의 정렬에서 지연이 일어난다. 처리시 임의의 지연이 노이즈 방지 신호의 생성을 저하시키기 때문에, ANC 성능이 현저히 더 낮다. 이것은 일반적으로 제거될 수 있는 최대 노이즈 주파수를 제한하는 것으로서 극대화된다. A typical audio processing rate is 44.1 kHz or 48 kHz, which is based on the frequency range of typical human auditory sense. At this sample rate, the sampling period is about 20 μs. In an ANC system, digitizing and filtering always take a large number of samples. At this rate, a delay occurs in an alignment of 100 microseconds. ANC performance is significantly lower because any delay in processing degrades the generation of noise suppression signals. This is usually maximized by limiting the maximum noise frequency that can be removed.

도 4는 저레이턴시 또는 초저(ultra-low) 레이턴시 음향 프로세서를 포함하는 오디오 시스템(100)의 블록도이다. 일부 실시태양에서, 음향 프로세서가 재구정될 수 있고, 재구성 오디오 프로세서(reconfigurable audio processor, RAP)(150)라 한다. 도 4의 오디오 시스템은 3개 부분 - 아날로그부(102), 아날로그 디지털 컨버터(Analog to Digital Converter, ADC)의 레이트로 동작하는 디지털부(104), 및 44.1 또는 48 KHz와 같은 표준 오디오 샘플 레이트로 동작하는 디지털부(106)로 구분된다. 이 부분은 또한 도메인으로서 지칭된다. 4 is a block diagram of an audio system 100 that includes a low latency or ultra-low latency sound processor. In some embodiments, the sound processor can be re-calibrated and is referred to as a reconfigurable audio processor (RAP) 150. The audio system of FIG. 4 includes a digital part 104 that operates at a rate of three part-analog parts 102, an analog to digital converter (ADC), and a standard audio sample rate such as 44.1 or 48 KHz And a digital unit 106 that operates. This portion is also referred to as a domain.

아날로그부(102)는 클록을 요구하지 않으며, 전형적으로 이 부분의 신호가 일반적으로 계속적이고, 아날로그 신호이다. 예를 들어, 트랜스듀서나 스피커(110)가 헤드폰이나 다른 스피커와 같은 아날로그 오디오 신호를 생성할 수 있다. 센서, 예컨대 디지털 마이크로폰(112)이 아날로그 입력 신호로부터 디지털 출력을 자동으로 생성하나, 반면에 표준 아날로그 센서, 예컨대 마이크로폰(114)은 ADC(124)와 결합되어서, 아날로그 센서(114)로부터 디지털 신호를 생성한다. 센서(116), 예컨대 마이크로폰은 피드백 위치에 놓여지고, ADC(126)와 결합된다. ADC(124, 126)는 시그마-델타 프로세싱을 사용할 수 있다. 다른 실시태양에서, ADC(124, 126)가 PCM(Pulse Code Modulation) 또는 SAR(Successive Approximation Register) 유형일 수 있다. 신호 센서(112, 114, 116)가 여러 목적, 예컨대 전화기를 위해 입력 마이크로폰으로 제공하면서 주변 노이즈를 샘플링하기 위해 사용될 수 있다. 하나 이상의 필터(128)가 ADC(124, 126)로부터 출력을 필터링하도록 존재하지만 모든 실시태양에서 요구되는 것은 아니다.The analog portion 102 does not require a clock, and typically the signal in this portion is typically continuous and analog. For example, transducer or speaker 110 may generate analog audio signals such as headphones or other speakers. A sensor such as a digital microphone 112 automatically generates a digital output from an analog input signal while a standard analog sensor such as a microphone 114 is coupled to an ADC 124 to provide a digital signal from an analogue sensor 114 . The sensor 116, e.g., a microphone, is placed in a feedback position and coupled to the ADC 126. The ADCs 124 and 126 may use sigma-delta processing. In other embodiments, the ADCs 124 and 126 may be of the Pulse Code Modulation (PCM) or Successive Approximation Register (SAR) type. The signal sensors 112, 114, and 116 may be used to sample ambient noise while providing them as input microphones for various purposes, e.g., telephones. One or more filters 128 are present to filter the output from ADCs 124 and 126, but are not required in all embodiments.

디지털 신호 프로세서(Digital Signal Processor, DSP)(130) 또는 다른 오디오 소스가 표준 오디오 샘플 레이트의 주파수로 디지털부(106)에서 동작된다. 오디오 시스템(100)의 디지털부(106)의 동작 주파수는 전형적으로 44.1 또는 48 KHz이다.A digital signal processor (DSP) 130 or other audio source is operated on the digital section 106 at a frequency of a standard audio sample rate. The operating frequency of the digital portion 106 of the audio system 100 is typically 44.1 or 48 KHz.

반대로, 디지털부(104)의 동작 주파수는 약 50 KHz의 낮은 레이트로부터 약 100 MHz 레이트까지 동작하고, 바람직하게는 2-100 MHz의 범위 내에서 동작한다. 일부 실시태양에서, 디지털부(104)는 수백 KHz의 범위 내의 50 KHz, 96 KHz에서, 그리고 수십 MHz 범위, 예컨대 약 100MHz까지인, 10-20 MHz에서, 낮은 MHz 범위, 예컨대 1-6 내의 주파수에서, 동작한다. 본원의 실시태양에서, 특정 도메인의 각각의 컴포넌트가 상기 도메인의 주파수에서 동작한다. 예를 들어, 도 4에서, ADC(124, 126)가 오디오 프로세서 또는 RAP(150)와 동일한 주파수에서 동작한다. 이것은 오디오 프로세서에서 처리하기 전에 센서 신호를 다운 샘플링하도록 전형적으로 데시메이션 필터(decimation filter)를 사용하는 이전 시스템과 다소 상이하다. Conversely, the operating frequency of the digital section 104 operates from a low rate of about 50 KHz to a rate of about 100 MHz, preferably within a range of 2-100 MHz. In some embodiments, the digital portion 104 is capable of operating at frequencies of 10 KHz to 10 KHz, such as at frequencies of 50 KHz, 96 KHz, and several tens MHz, e.g., up to about 100 MHz, in the range of hundreds of KHz, Lt; / RTI > In the present embodiment, each component of a particular domain operates at the frequency of the domain. For example, in FIG. 4, the ADCs 124 and 126 operate at the same frequency as the audio processor or RAP 150. This is somewhat different from previous systems that typically use a decimation filter to downsample the sensor signal before processing by the audio processor.

보간기(140)는 예컨대 48 KHz에서 동작하는 DSP(130)로부터의 오디오 신호를 RAP(150)으로의 입력 신호로서 3 MHz 또는 6 MHz에서 동작하는 오디오 신호로 변환한다. 반대로, 데시메이터(144)는 모든 오디오 시스템(100)에서 존재할 필요는 없는데, 이것은 예컨대 3 또는 6 MHz 에서 RAP(150)으로부터의 신호를 디지털부(106)의 동작 주파수로 변환한다. 그 결과인 RAP(150)의 레이턴시는 극히 낮으며, 예컨대 2.5 ㎲보다 작고, 바람직하게는 0.5 ㎲보다 작으며, 이는 센서가 디지털 마이크로폰이든지 또는 센서 신호가 ADC(124, 126)에 의해 디지털 신호로 변경되든지 RAP(150)가 센서 또는 마이크로폰(112, 114, 116)에 의해 생성되는 레이트와 동일한 레이트로 신호를 처리하기 때문이다. Interpolator 140 converts an audio signal from DSP 130 operating at 48 KHz to an audio signal operating at 3 MHz or 6 MHz as an input signal to RAP 150, for example. Conversely, decimator 144 need not be present in all audio systems 100, which translates the signal from RAP 150, for example, at 3 or 6 MHz, to the operating frequency of digital section 106. The resulting latency of the RAP 150 is extremely low, e.g., less than 2.5 μs, preferably less than 0.5 μs, because the sensor is a digital microphone or the sensor signal is digitized by the ADCs 124 and 126 Or the RAP 150 processes the signal at the same rate as the rate generated by the sensor or microphone 112, 114, 116.

이하 더 자세히 기재되는 바와 같이, RAP(150)는 트랜스듀서(110)로부터 나오는 음향 신호를 실시간으로 제어한다. 전술한 바와 같이, RAP(150)이 임의의 중간 처리, 예컨대 데시메이션 필터 또는 다른 샘플 레이트 컨버터 없이 마이크로폰(112, 114 및/또는 116)로부터 로우 센서 샘플(raw sensor sample) 상에서 동작되도록 구성된다. 이로써 RAP(150)에서 제로 또는 제로에 가까운 계산 지연을 가지고 마이크로폰 신호에 대해 반응하게 되며, 실시간 오디오 프로세싱 알고리즘의 구현을 가능하게 한다. 실시간 센서 샘플링을 사용하는 효과는 이전 시스템의 데시메이션 필터로부터의 지연이 제거되는 것이며, 차례로 제어 루프의 반응도가 극적으로 증가된다. As described in further detail below, the RAP 150 controls the acoustic signal from the transducer 110 in real time. As described above, the RAP 150 is configured to operate on a raw sensor sample from the microphone 112, 114, and / or 116 without any intermediate processing, such as a decimation filter or other sample rate converter. This causes the RAP 150 to respond to the microphone signal with a zero or near zero computation delay and enables implementation of a real time audio processing algorithm. The effect of using real-time sensor sampling is to eliminate the delay from the decimation filter of the previous system, which in turn increases the reactivity of the control loop dramatically.

디지털부(104)의 샘플 레이트가 아날로그 센서(114)에 결합된 ADC(124), 또는 디지털 센서(112)의 샘플 레이트에 따라 변화될 수 있다. 샘플마다 처리될 수 있는 처리의 양 및 샘플 레이트 사이의 선형 교환(linear tradeoff)이 존재한다. The sample rate of the digital portion 104 may be varied according to the sample rate of the ADC 124 or the digital sensor 112 coupled to the analog sensor 114. [ There is a linear tradeoff between the amount of processing that can be processed per sample and the sample rate.

도 5는 일례의 재구성 음향 프로세서 (RAP)(250)의 기능 블록도이며, 이는 도 4의 RAP(150)의 실시태양일 수 있다. 도 5의 RAP(250)는 6개 체인의 바이-2차(bi-quadratic), 또는 바이-쿼드 필터(bi-quad filter)(BQ0-BQ6), 이하 개시될 기능들을 포함한다. 바이-쿼드 필터는 전기적 프로세싱, 특히 오디오 프로세싱으로 알려져 있다. 바이-쿼드 필터는 전형적으로 2 제로 및 2 폴을 포함한다. 바이-쿼드 체인(BQ0-BQ6)은 각각 바이-쿼드 필터의 캐스캐이드를 포함한다. 일부 실시태양에서, 체인(BQ0-BQ6)은 4, 6, 8, 12, 또는 16 캐스캐이드식 바이-쿼드 필터를 포함할 수 있고, 이 ‹š 8이 바람직하다. 바이-쿼드 필터 체인(BQ0-BQ6)이 프로그램 가능하여, 그 필터링 값들이 원하는 구현에 따라 변화될 수 있다. 값들은 또한 통과 지점(pass-through) 또는 통합 설정으로 설정될 수 있고, 이는 값들이 그들을 통과하는 신호에 주목할 만큼 영향을 끼치지 않음을 의미한다. FIG. 5 is a functional block diagram of an exemplary reconfigurable sound processor (RAP) 250, which may be an embodiment of the RAP 150 of FIG. The RAP 250 of FIG. 5 includes bi-quadratic, or bi-quad filters (BQ0-BQ6) of six chains, functions to be described below. Bi-quad filters are known as electrical processing, especially audio processing. A bi-quad filter typically includes two zeros and two poles. The bi-quad chains (BQ0-BQ6) each include a cascade of bi-quad filters. In some embodiments, the chains BQ0-BQ6 may comprise 4, 6, 8, 12, or 16 cascaded bi-quad filters, and this range is preferred. The bi-quad filter chain (BQ0-BQ6) is programmable so that the filtering values can be varied according to the desired implementation. The values may also be set to pass-through or integrated settings, which means that the values do not noticeably affect the signal passing through them.

이하 개시된 목적으로 각 바이-쿼드 필터 체인(BQ0-BQ6)이 이득(gain) 유닛에 각각 연결되고, 추가적 이득 유닛(M7)을 가진다. 이득 유닛(M0-M7) 프로그램 가능하며, 그들의 입력 및 출력 사이에 제공되는 이득의 양이 제어가능하다. 특정 바이-쿼드 필터 체인(BQ0-BQ6)의 출력이 그것의 결합된 이득 유닛(M0-M6)에 의해 제어될 수 있다. 임의의 이득 유닛(M0-M6)의 이득을 제로로 설정 하는 것이 특정 회로 브랜치를 효과적으로 오프시킬 수 있다. 이것이 바이-쿼드 필터 체인과 이득 유닛 사이의 1대1 관계를 유지하는데 완전히 필수적인 것은 아니지만, 관계는 RAP을 설정하기 위한 유연성을 제공하는 것을 유지해 준다. 도 5의 RAP(250)는 단일 오디오 채널을 도시한다. 하나 이상의 채널에 대하여, 예컨대 스테레오 프로세싱에 대하여, 추가적 하드웨어가 사용될 수 있다. Each of the bi-quad filter chains BQ0-BQ6 is connected to a gain unit for the purpose described below, and has an additional gain unit M7. The gain units (M0-M7) are programmable, and the amount of gain provided between their inputs and outputs is controllable. The output of a particular bi-quad filter chain (BQ0-BQ6) can be controlled by its combined gain units (M0-M6). Setting the gain of any gain unit (M0-M6) to zero can effectively turn off a particular circuit branch. While this is not entirely necessary to maintain a one-to-one relationship between the bi-quad filter chain and the gain unit, the relationship maintains the flexibility to configure the RAP. The RAP 250 of FIG. 5 shows a single audio channel. For one or more channels, for example, for stereo processing, additional hardware may be used.

바이-쿼드 필터 체인(BQ0-BQ6)에서의 특정 필터 계수 및 이득 유닛(M0-M6)에서의 특정 이득 값을 프로그램함으로써, 이하 기재되어 있는 것처럼 오디오 노이즈 제거와 같이, 상이한 오디오 어플리케이션이, RAP(250)에서 수행될 수 있다. By programming the specific filter coefficients in the bi-quad filter chain (BQ0-BQ6) and the specific gain values in the gain units (M0-M6), different audio applications, such as audio noise reduction, 250). ≪ / RTI >

또한 RAP(250)에 결합되어 디지털 센서(212, 214)로부터의 입력부를 포함할 수 있고, 이는 마이크로폰, 데시메이터(218) 및 보간기(220)일 수 있다. ADC에 결합된 아날로그 마이크로폰을 포함함으로써 센서 입력부(212, 214) 중 하나 또는 둘 다가 생성될 수 있다. 데시메이터(218) 및 보간기(220)가 도 4와 관련하여 기재된 것처럼 작동한다. It may also include an input from digital sensors 212 and 214 coupled to RAP 250 that may be a microphone, decimator 218 and interpolator 220. One or both of the sensor inputs 212 and 214 may be generated by including an analog microphone coupled to the ADC. Decimator 218 and interpolator 220 operate as described in connection with FIG.

작동시, RAP(250)가 센서(212)로부터의 입력을 바이-쿼드 필터 체인(BQ0 및 BQ3)에서 수신되고, 센서(214)로부터의 입력이 바이-쿼드 필터 체인(BQ1 및 BQ5)에서 수신된다. 오디오 신호는 바이-쿼드 필터 체인(BQ2 및 BQ6)에서 수신된다. 일부 실시태양에서, 오디오 신호가 완전히 필수적이지는 않다. 예를 들어, 헌터나 산업용 노이즈 제거 헤드폰에서는, 오디오 신호가 존재하지 않을 수 있다. In operation, when the RAP 250 receives an input from the sensor 212 in the bi-quad filter chains BQ0 and BQ3 and the input from the sensor 214 is received in the bi-quad filter chains BQ1 and BQ5 do. The audio signal is received in the bi-quad filter chains BQ2 and BQ6. In some embodiments, the audio signal is not entirely necessary. For example, in a hunter or an industrial noise canceling headphone, the audio signal may not be present.

이득 유닛(M7)이, 처리 오디오 신호를 보간기(220)로부터 미처리 오디오 신호로 조합기(A2)에서 최종 조합하기 전에 처리 오디오 신호를 위한 제어가능한 이득으로서 사용될 수 있다. 이득 유닛(M7)이 그것의 이득을 점차적으로 증가시키도록 제어될 수 있고, 이로써 노이즈 제거 또는 다른 처리가 미처리 오디오 신호에 점차적으로 더해져서, 청취자에게 불편할 수 있는, 출력 오디오 신호에서의 팝 또는 빠른 변화를 제거할 수 있다. The gain unit M7 can be used as a controllable gain for the processed audio signal before final combination in the combiner A2 with the processed audio signal from the interpolator 220 to the raw audio signal. The gain unit M7 can be controlled to gradually increase its gain so that noise cancellation or other processing can be added to the raw audio signal progressively to make the pop or fast The change can be eliminated.

가산기 또는 조합기(A0, A1, 및 A2)가 도 5에 도시된 것처럼, 바이-쿼드 필터 체인으로부터 중간 신호 출력들을 조합한다. Adders or combiners A0, A1, and A2 combine the intermediate signal outputs from the bi-quad filter chain, as shown in FIG.

일 실시태양에서, RAP(350)가 49.152 MHz에서 동작하며, 이것이 오디오 처리에 대해 표준 레이트이다. 입력 샘플 레이트가 전형적으로 3.072 Msps이고, 필터 부분도 또한 동일한 레이트에서 동작한다. In one embodiment, RAP 350 operates at 49.152 MHz, which is the standard rate for audio processing. The input sample rate is typically 3.072 Msps, and the filter portion also operates at the same rate.

RAP(250) 동작의 간단한 실시예는 센서(212, 214) 중 어느 하나로부터의 입력을 사용하지 않는, 단순 오디오 프로세서이다. 이러한 실시예에서, 이득 유닛(M7)이 0으로 설정되고 예를 들어 턴 오프되고, 반면에 보간기로부터의 오디오 신호가 바이-쿼드 필터 체인(BQ6)에 의해 필터링된다. 이득 유닛(M6)의 제어는 필터링된 오디오 신호의 출력 신호 레벨을 제어하고, 스피커 또는 다른 트랜스듀서 출력일 수 있는 트랜스듀서(210)로 전송된다. A simple embodiment of RAP 250 operation is a simple audio processor that does not use inputs from any of the sensors 212, In this embodiment, the gain unit M7 is set to zero and turned off, for example, while the audio signal from the interpolator is filtered by the bi-quad filter chain BQ6. Control of the gain unit M6 controls the output signal level of the filtered audio signal and is transmitted to the transducer 210, which may be a speaker or other transducer output.

더 복잡한 실시예에서, RAP(250)이 피드-포워드/피드백 ANC로서 구성될 수 있고, 이것은 도 3에 도시된 피드-포워드 및 피드-백 ANC 회로와 동일한 기능을 가진다. 도 6은 RAP(250)이 그러한 구성을 위해 설정되는 방법을 도시한다. 이 구성에서, 이득 유닛(M0 및 M5)가 0으로 설정되고, "x"를 가지는 것으로 도 6에서 도시되며, 이것은 프로세싱에 어떤 기여도 없다는 것을 나타낸다. 이득 유닛(M2, M4, M6 및 M7)이 1로 설정된다. 이득 유닛(M1 및 M3)이 -1로 설정되고, 이들의 출력이 감산되는 것을 의미한다. 바이-쿼드 필터 체인(BQ1, BQ2 및 BQ6)가 통과 지점 설정으로 설정된다. 도 3 및 6에 대하여, 바이-쿼드 필터 체인(BQ3)이 피드-포워드 필터(46)의 역할을 하며, 바이-쿼드 필터 체인(BQ4)는 피드백 필터(54)의 역할을 한다.In a more complex embodiment, the RAP 250 may be configured as a feed-forward / feedback ANC, which has the same functionality as the feed-forward and feed-back ANC circuitry shown in FIG. Figure 6 shows how RAP 250 is set up for such a configuration. In this configuration, the gain units M0 and M5 are set to zero and are shown in Figure 6 as having "x ", indicating that there is no contribution to processing. The gain units M2, M4, M6, and M7 are set to one. The gain units M1 and M3 are set to -1, and their outputs are subtracted. The bi-quad filter chain (BQ1, BQ2 and BQ6) is set to pass-through setting. 3 and 6, the bi-quad filter chain BQ3 serves as the feed-forward filter 46 and the bi-quad filter chain BQ4 serves as the feedback filter 54. [

RAP(250), 특히 이득 유닛(M0-M7) 및 바이-쿼드 필터 체인 (BQ1-BQ6)을 설정함으로써, RAP가 임의의 유형의 오디오 처리를 최대로 수행하도록 구성될 수 있다. 예를 들어, RAP(250)가, 피드백, 피드-포워드, 또는 결합된 피드-포워드 피드백 구성 중 하나에서, 능동 노이즈 제거 헤드폰에 대해 ANC 프로세서로서 구성될 수 있다. 헤드셋 마이크로폰으로부터 입력부를 사용하고 헤드셋에 있는 하나 이상의 스피커에 대한 오디오 출력부를 제공함으로써 RAP(250)가 폰 헤드셋에서 능동 노이즈 제거를 위해 사용될 수 있다. RAP(250)가 입력 오디오 신호를 더 강화시키면서 동시에 노이즈 제거를 수행할 수 있다. RAP(250)가, 마이크로폰 입력부들 중 하나에서 주변음(ambient sound)을 수신하고, 하나 이상의 바이-쿼드 필터 체인을 통해 그것을 수정하고, , 적당한 이득 레벨을 설정하고, 그 후 수정된 주변 신호를 출력함으로써 주변음 상승을 위해 사용될 수 있다. By setting the RAP 250, particularly the gain units M0-M7 and the bi-quad filter chains BQ1-BQ6, the RAP can be configured to perform any type of audio processing to a maximum. For example, the RAP 250 may be configured as an ANC processor for active noise canceling headphones, either in feedback, feed-forward, or in a combined feed-forward feedback configuration. The RAP 250 can be used for active noise removal in a phone headset by using the input from the headset microphone and providing the audio output for one or more speakers in the headset. The RAP 250 can further enhance the input audio signal while simultaneously performing noise cancellation. RAP 250 receives an ambient sound at one of the microphone inputs, modifies it through one or more bi-quad filter chains, sets a suitable gain level, and then sends the modified ambient signal And can be used to raise ambient tone.

실제로, 도 6의 RAP(250) 또는 도 5의 RAP(150)가 오디오 신호 입력을 수정하기 위한 기능, 프로세스 또는 동작을 포함한다. 실제로, 프로그래밍된 기능이 범용 또는 전용 프로세서, 예컨대 디지털 신호 프로세서(DSP) 상에서 동작되는 것처럼, 이 기능은 특히 형성된 하드웨어 회로에 의해 구현될 수 있고, 또는 필드 프로그램형 게이트 어레이(Field Programmable Gate Arrays, FPGAs) 또는 프로그램형 로직 디바이스(Programmable Logic Device, PLD)에서 구현될 수 있다. 다른 변형도 또한 가능하다.Actually, the RAP 250 of FIG. 6 or the RAP 150 of FIG. 5 includes functions, processes or operations for modifying the audio signal input. Indeed, as the programmed function is operated on a general purpose or special purpose processor, such as a digital signal processor (DSP), this function may be implemented by specially formed hardware circuitry or may be implemented by a Field Programmable Gate Arrays ) Or a programmable logic device (PLD). Other variations are also possible.

도 7은 본원 실시태양에 따른 도 4의 재구성 음향 프로세서의 실시예의 컴포넌트의 기능적 블록도이다. 도 7에서, RAP(350)은 바이-쿼드 엔진(310) 및 곱셈 누적기(multiplier accumulator)(320)를 포함한다. 곱셈 누적기(320)는 도 5와 6의 기능적 블록도에서 곱셈기 및 가산기 전부를 구현한다. 일 실시태양에서, 샘플 당 7 다중-가산 연산이 존재한다. 바이-쿼드 엔진(310)은 하나 이상의 센서, 예컨대 마이크로폰으로부터의 입력부, 그리고 처리되는 오디오 신호의 입력부를 포함한다. 바이-쿼드 엔진은 또한 곱셈 가산기 출력으로부터 입력을 수신한다. 센서로부터의 입력이 바이쿼드 엔진과 동일한 레이트에서 클록된다. 다시 말하면, 센서 입력은 임의의 데시메이션 또는 레이트 감소 없이 처리될 수 있다. 바이-쿼드 엔진(310)이 16 바이-쿼드 필터 상에서 동작되도록 크기가 조정될 수 있다. 바이-쿼드 디스크립터(descriptor) 섹션(330)이 바이-쿼드 필터 체인을 구현하기 위해 필터 값을 포함하며, 바이-쿼드 상태 메모리(332)가 바이-쿼드 프로세싱 동안 중간 값을 저장하기 위한 메모리이다. 이득 테이블(322)이 이득 유닛을 위한 값들을 저장하고, 도 5의 이득 유닛(M7)에 의해 제공되는 것과 같이, 페더링 제어(feathering control)가 페더링 제어(334)에 의해 따로 제공된다. 도 7의 바이-쿼드 디스크립터(330) 및 게인 테이블(322)로 특정 값을 기록함으로써 RAP(350)이 프로그램되고 구성된다. Figure 7 is a functional block diagram of components of an embodiment of the reconstruction acoustic processor of Figure 4 in accordance with an embodiment of the present disclosure. In FIG. 7, the RAP 350 includes a bi-quad engine 310 and a multiplier accumulator 320. The multiplier accumulator 320 implements all of the multipliers and adders in the functional block diagrams of Figures 5 and 6. In one embodiment, there are 7 multi-add operations per sample. The bi-quad engine 310 includes one or more sensors, e.g., an input from a microphone, and an input of an audio signal to be processed. The bi-quad engine also receives input from the multiplication adder output. The input from the sensor is clocked at the same rate as the biphasic engine. In other words, the sensor input can be processed without any decimation or rate reduction. The bi-quad engine 310 may be sized to operate on a 16 bi-quad filter. Quad descriptor section 330 includes filter values to implement a bi-quad filter chain and bi-quad state memory 332 is a memory for storing intermediate values during bi-quad processing. A gain table 322 stores values for the gain unit and feathering control is provided separately by the feathering control 334, as provided by the gain unit M7 of FIG. The RAP 350 is programmed and configured by writing a specific value into the bi-quad descriptor 330 and the gain table 322 of FIG.

프로그램 가능한 기술을 사용함으로써, 필터가 특정 사운드나 노이즈를 제거하기 보다는, 강화하도록 선택된다. 예를 들어, 특정 마이크로폰에 의해 감지되는 사운드를 감소시키려는 노력을 위해 선택된 바이-쿼드 체인 필터 파라미터 대신에, 특정 사운드를 강화시키는 파라미터가 선택될 수 있다. 예를 들어, 사람이 다양한 소음이 나는 기계가 있는 소음의 작업 환경에서 노이즈 제거 헤드폰을 사용할 수 있지만, 여전히 노이즈 제거 헤드폰을 없애지 않고 동료에게 대화할 수 있기를 원할 수 있다. 마이크로폰이 성대(vocal band)에서 노이즈를 검출했을 때, 적응형 필터 계수를 사용하여, 상이한 파라미터들이 동료의 음성을 강화시키는 RAP 시스템으로 자동으로 로딩될 수 있다. 따라서, 청취자는 특정 사운드를 적응형으로 강화시켰던 노이즈-제거 헤드폰을 가지는 것이다. 음성, 오디오 텔레비전 신호, 및 트래픽과 같은 사운드가 강화될 수 있다. 그러한 사운드가 멀어지면, 예컨대 동료가 대화하는 것을 멈추면, 다시 표준 필터링 계수가 RAP 시스템의 필터로 동적으로 로딩될 수 있다. By using programmable techniques, the filter is selected to enhance, rather than eliminate, certain sounds or noises. For example, instead of the bi-quad chain filter parameter selected for an effort to reduce the sound sensed by a particular microphone, a parameter that enhances a particular sound may be selected. For example, a person may use noise canceling headphones in a noisy working environment with a variety of noisy machines, but still want to be able to talk to their peers without removing the noise canceling headphones. When the microphone detects noise in the vocal band, using adaptive filter coefficients, different parameters can be automatically loaded into the RAP system, which enhances the voice of the peer. Thus, the listener has a noise-canceling headphone that adaptively amplifies a specific sound. Sounds such as voice, audio television signals, and traffic can be enhanced. If such a sound is distracted, for example, if a co-worker stops talking, the standard filtering coefficients can again be dynamically loaded into the filter of the RAP system.

본원의 실시태양은 사운드 처리 회로와 같은 직접 회로, 또는 다른 오디오 회로로 집적될 수 있다. 차례로, 집적된 회로는 헤드폰, 휴대 전화, 휴대용 컴퓨팅 시스템, 사운드 바, 오디오 독, 증폭기, 스피커 등과 같은 오디오 디바이스에서 사용될 수 있다. Embodiments of the present application may be integrated into an integrated circuit, such as a sound processing circuit, or other audio circuitry. In turn, integrated circuits can be used in audio devices such as headphones, cell phones, portable computing systems, sound bars, audio docks, amplifiers, speakers, and the like.

도시된 실시태양을 참조하여 본원의 원리를 도시하고 설명하였으며, 도시된 실시태양이 그러한 원리로부터 벗어나지 않는 한 배열과 내용에서 변경될 수 있고, 임의의 원하는 방식으로 조합될 수 있음을 인식해야 한다. 또한, 전술한 내용이 특정 실시태양에 초점이 맞추어져 있다 할지라도, 다른 구성이 고려될 수 있다. It should be appreciated that the principles herein have been illustrated and described herein with reference to illustrated embodiments, and that the illustrated embodiments may be varied in arrangement and content, and combined in any desired manner, without departing from such principles. Also, although the foregoing is focused on particular embodiments, other configurations may be contemplated.

특히, "본원의 실시태양에 따른"과 같은 표현이 기재되어 있다 할지라도, 이 표현은 일반적으로 실시태양 가능성을 참조하는 것을 의미하며, 특정 실시태양의 구성에 본원을 제한하려는 의도는 아니다. 본 명세서에 사용된 것처럼, 이러한 용어는 다른 실시태양에 결합될 수 있는 동일하거나 상이한 실시태양들을 참조한다.In particular, even though expressions such as "according to embodiments of the present disclosure" are described, this expression generally refers to the feasibility of the embodiments and is not intended to limit the scope of the specific embodiments. As used herein, such terms refer to the same or different embodiments that may be combined in other embodiments.

결과적으로, 여기에 기재된 실시태양에 대한 순서의 넓은 다양성과 관련하여, 이러한 기재 및 수반되는 재료는 오직 예시적인 의도이며 본원의 범위를 제한하려는 것이 아니다.As a result, with respect to a wide variety of orders for the embodiments described herein, such description and accompanying material are merely exemplary in nature and are not intended to limit the scope of the disclosure herein.

Claims (38)

오디오 시스템으로서,
50 KHz보다 높은 제1 레이트에서 디지털 센서 신호를 생성하는 센서; 및
상기 제1 레이트에서 작동하고, 상기 제1 신호에서 입력 오디오 신호를 수신하기 위한 제1 입력부를 가지고, 상기 제1 레이트에서 상기 센서 신호를 수신하기 위한 제2 입력부를 가지고, 출력부를 가지는 디지털 오디오 프로세서
를 포함하는,
오디오 시스템.
As an audio system,
A sensor for generating a digital sensor signal at a first rate higher than 50 KHz; And
A digital audio processor having a first input for receiving the input audio signal at the first rate and a second input for receiving the sensor signal at the first rate,
/ RTI >
Audio system.
제1항에 있어서,
상기 센서는 마이크로폰인, 오디오 시스템.
The method according to claim 1,
Wherein the sensor is a microphone.
제2항에 있어서,
상기 마이크로폰이 아날로그 디지털 컨버터(Analog to Digital Converter, ADC)에 결합되는 마이크로폰을 포함하는 시스템의 일부이고, 상기 ADC의 출력이 상기 센서 신호인, 오디오 시스템.
3. The method of claim 2,
Wherein the microphone is part of a system comprising a microphone coupled to an analog to digital converter (ADC), the output of the ADC being the sensor signal.
제3항에 있어서,
상기 ADC는 시그마-델타 프로세싱을 수행하도록 구성된, 오디오 시스템.
The method of claim 3,
Wherein the ADC is configured to perform sigma-delta processing.
제3항에 있어서,
상기 ADC는 SAR 프로세싱을 수행하도록 구성된, 오디오 시스템.
The method of claim 3,
Wherein the ADC is configured to perform SAR processing.
제1항에 있어서,
상기 출력부가 트랜스듀서에 결합되는, 오디오 시스템.
The method according to claim 1,
And wherein the output is coupled to a transducer.
제6항에 있어서,
상기 트랜스듀서가 스피커인, 오디오 시스템.
The method according to claim 6,
Wherein the transducer is a speaker.
제1항에 있어서,
상기 제1 레이트가 약 50 KHz 이상의 레이트인 것인, 오디오 시스템.
The method according to claim 1,
Wherein the first rate is a rate of at least about 50 KHz.
제1항에 있어서,
상기 제1 레이트가 약 96 KHz 이상의 레이트인 것인, 오디오 시스템.
The method according to claim 1,
Wherein the first rate is a rate of at least about 96 KHz.
제1항에 있어서,
상기 제1 레이트가 약 200 KHz 이상의 레이트인 것인, 오디오 시스템.
The method according to claim 1,
Wherein the first rate is a rate of at least about 200 KHz.
제1항에 있어서,
상기 제1 레이트가 약 350 KHz 이상의 레이트인 것인, 오디오 시스템.
The method according to claim 1,
Wherein the first rate is a rate of at least about 350 KHz.
제1항에 있어서,
상기 제1 레이트가 약 750 KHz 이상의 레이트인 것인, 오디오 시스템.
The method according to claim 1,
Wherein the first rate is a rate of at least about 750 KHz.
제1항에 있어서,
상기 제1 레이트가 약 1 MHz 이상의 레이트인 것인, 오디오 시스템.
The method according to claim 1,
Wherein the first rate is a rate of at least about 1 MHz.
제1항에 있어서,
상기 제1 레이트가 약 3 MHz 이상의 레이트인 것인, 오디오 시스템.
The method according to claim 1,
Wherein the first rate is a rate greater than or equal to about 3 MHz.
제1항에 있어서,
상기 제1 레이트가 약 6 MHz 이상의 레이트인 것인, 오디오 시스템.
The method according to claim 1,
Wherein the first rate is a rate of at least about 6 MHz.
제1항에 있어서,
제2 레이트에서 디지털 오디오 신호를 수신하기 위한 입력부를 가지고, 디지털 오디오 신호를 상기 제1 레이트를 갖는 오디오 신호로 변환하는 보간기를 더 포함하는, 오디오 시스템.
The method according to claim 1,
Further comprising an interpolator having an input for receiving a digital audio signal at a second rate and converting the digital audio signal to an audio signal having the first rate.
제16항에 있어서,
상기 제2 레이트는 상기 제1 레이트보다 낮은, 오디오 시스템.
17. The method of claim 16,
Wherein the second rate is lower than the first rate.
제16항에 있어서,
상기 제2 레이트는 약 100 KHz 이하의 레이트인 것인, 오디오 시스템.
17. The method of claim 16,
And wherein the second rate is a rate of about 100 KHz or less.
제1항에 있어서,
상기 오디오 프로세서는
복수의 프로그램 가능한 필터, 및
복수의 제어가능한 이득 스테이지로서, 상기 복수의 제어가능한 이득 스테이지 중 적어도 일부는 상기 복수의 프로그램 가능한 필터 중 적어도 일부에 각각 결합되는, 복수의 제어가능한 이득 스테이지를 포함하는, 오디오 시스템.
The method according to claim 1,
The audio processor
A plurality of programmable filters, and
A plurality of controllable gain stages, wherein at least some of the plurality of controllable gain stages are each coupled to at least a portion of the plurality of programmable filters.
재구성 노이즈 제거 시스템으로서,
제1 레이트에서 디지털 오디오 신호를 수신하기 위한 입력부;
상기 디지털 오디오 신호의 샘플 레이트를 상기 제1 레이트로부터 상기 제1 레이터보다 높은 제2 레이트로 변경하기 위한 보간기;
상기 제2 레이트에서 센서 신호를 생성하는 적어도 하나의 센서; 및
상기 보간기 및 상기 센서에 결합되는 디지털 오디오 프로세서
를 포함하고,
상기 재구성 오디오 프로세서는, 상기 제2 레이트에서 작동하고,
복수의 프로그램 가능한 필터,
복수의 제어가능한 이득 스테이지로서, 상기 복수의 제어가능한 이득 스테이지 중 적어도 일부는 상기 복수의 프로그램 가능한 필터 중 적어도 일부에 각각 결합되는, 복수의 제어가능한 이득 스테이지,
하나 이상의 이득 스테이지의 출력들을 조합하도록 구성된 가산기들, 및
상기 입력 오디오 신호로부터 변경되는 출력 오디오 신호를 전달하기 위해 상기 가산기들 중 적어도 하나와 결합되는 오디오 출력부를 포함하는,
재구성 노이즈 제거 시스템.
1. A reconstruction noise reduction system,
An input for receiving a digital audio signal at a first rate;
An interpolator for changing the sample rate of the digital audio signal from the first rate to a second rate higher than the first rate;
At least one sensor for generating a sensor signal at the second rate; And
A digital audio processor coupled to the interpolator and the sensor,
Lt; / RTI >
Wherein the reconfigurable audio processor is operative at the second rate,
A plurality of programmable filters,
A plurality of controllable gain stages, wherein at least some of the plurality of controllable gain stages are each coupled to at least a portion of the plurality of programmable filters,
Adders configured to combine outputs of one or more gain stages, and
And an audio output coupled to at least one of the adders to deliver an output audio signal that is modified from the input audio signal.
Reconstruction noise reduction system.
제20항에 있어서,
상기 적어도 하나의 센서는 상기 제2 레이트에서 작동하는 디지털 샘플링 마이크로폰인, 재구성 노이즈 제거 시스템.
21. The method of claim 20,
Wherein the at least one sensor is a digital sampling microphone operating at the second rate.
제20항에 있어서,
상기 적어도 하나의 센서는 아날로그 디지털 컨버터(Analog to Digital Converter, ADC)에 결합되는 아날로그 마이크로폰인, 재구성 노이즈 제거 시스템.
21. The method of claim 20,
Wherein the at least one sensor is an analog microphone coupled to an analog to digital converter (ADC).
제22항에 있어서,
상기 ADC는 시그마-델타 프로세싱을 수행하도록 구성되는, 재구성 노이즈 제거 시스템.
23. The method of claim 22,
Wherein the ADC is configured to perform sigma-delta processing.
제22항에 있어서,
상기 ADC는 SAR 프로세싱을 수행하도록 구성되는, 재구성 노이즈 제거 시스템.
23. The method of claim 22,
Wherein the ADC is configured to perform SAR processing.
제20항에 있어서,
상기 프로그램 가능한 필터는 상기 노이즈 제어 시스템의 작동 동안 프로그래밍되도록 구성되는, 재구성 노이즈 제거 시스템.
21. The method of claim 20,
Wherein the programmable filter is configured to be programmed during operation of the noise control system.
제20항에 있어서,
상기 복수의 제어가능한 이득 스테이지 중 적어도 일부는 상기 노이즈 제거 시스템의 작동 동안 업데이트되도록 구성되는, 재구성 노이즈 제거 시스템.
21. The method of claim 20,
Wherein at least some of the plurality of controllable gain stages are configured to be updated during operation of the noise reduction system.
오디오 시스템을 작동하는 방법으로서,
약 50 KHz 이상인 제1 레이트에서 디지털 오디오 프로세서를 작동하는 단계;
상기 제1 레이트를 가지는 디지털 입력 오디오 신호를 상기 디지털 오디오 프로세서에서 수신하는 단계;
상기 제1 레이트를 가지는 디지털 센서 신호를 상기 디지털 오디오 프로세서에서 수신하는 단계;
상기 디지털 센서 신호로부터 유도된 신호와 디지털 입력 오디오 신호를 조합함으로써 상기 제1 레이트에서 동작하는 디지털 오디오 프로세서에서 상기 디지털 입력 오디오 신호를 처리하는 단계; 및
처리된 디지털 입력 오디오 신호를 출력부에 출력하는 단계
를 포함하는,
오디오 시스템을 작동하는 방법.
CLAIMS 1. A method of operating an audio system,
Operating the digital audio processor at a first rate that is greater than or equal to about 50 KHz;
Receiving at the digital audio processor a digital input audio signal having the first rate;
Receiving at the digital audio processor a digital sensor signal having the first rate;
Processing the digital input audio signal in a digital audio processor operating at the first rate by combining a digital input audio signal with a signal derived from the digital sensor signal; And
And outputting the processed digital input audio signal to the output unit
/ RTI >
How to operate the audio system.
제27항에 있어서,
상기 제1 레이트를 가지는 디지털 센서 신호를 상기 디지털 오디오 프로세서에서 수신하는 단계는 상기 제1 레이트에서 마이크로폰 신호를 수신하는 단계를 포함하는, 오디오 시스템을 작동하는 방법.
28. The method of claim 27,
Wherein receiving the digital sensor signal having the first rate at the digital audio processor comprises receiving a microphone signal at the first rate.
제27항에 있어서,
처리된 디지털 입력 오디오 신호를 출력부에 출력하는 단계는 디지털 입력 오디오 신호를 트랜스듀서에 출력하는 단계를 포함하는, 오디오 시스템을 작동하는 방법.
28. The method of claim 27,
Wherein outputting the processed digital input audio signal to the output includes outputting a digital input audio signal to the transducer.
제27항에 있어서,
상기 제1 레이트가 약 96 KHz 이상의 레이트인 것인, 오디오 시스템을 작동하는 방법.
28. The method of claim 27,
Wherein the first rate is a rate of at least about 96 KHz.
제27항에 있어서,
상기 제1 레이트가 약 1 MHz 이상의 레이트인 것인, 오디오 시스템을 작동하는 방법.
28. The method of claim 27,
Wherein the first rate is a rate of about 1 MHz or more.
제27항에 있어서,
상기 제1 레이트가 약 3 MHz 이상의 레이트인 것인, 오디오 시스템을 작동하는 방법.
28. The method of claim 27,
Wherein the first rate is a rate of at least about 3 MHz.
제27항에 있어서,
상기 제1 레이트가 약 6 MHz 이상의 레이트인 것인, 오디오 시스템을 작동하는 방법.
28. The method of claim 27,
Wherein the first rate is a rate of at least about 6 MHz.
제27항에 있어서,
제2 레이트에서 디지털 오디오 신호를 수신하는 단계;
상기 디지털 오디오 신호를 상기 제2 레이트로부터 상기 제1 레이트로 변환시키는 단계; 및
상기 제1 레이트에서 상기 디지털 오디오 신호를 상기 디지털 오디오 프로세서에 전송하는 단계를 더 포함하는, 오디오 시스템을 작동하는 방법.
28. The method of claim 27,
Receiving a digital audio signal at a second rate;
Converting the digital audio signal from the second rate to the first rate; And
And transmitting the digital audio signal to the digital audio processor at the first rate.
제34항에 있어서,
상기 제2 레이트는 상기 제1 레이트보다 낮은 것인, 오디오 시스템을 작동하는 방법.
35. The method of claim 34,
Wherein the second rate is lower than the first rate.
제34항에 있어서,
상기 제2 레이트가 약 100 KHz 이하의 레이트인 것인, 오디오 시스템을 작동하는 방법.
35. The method of claim 34,
Wherein the second rate is a rate of about 100 KHz or less.
재구성 노이즈 제거 프로세서를 작동하는 방법으로서,
제1 주파수에서 오디오 입력부를 통해 오디오 신호를 수신하는 단계;
하나 이상의 센서 입력부를 통해 상기 제1 주파수에서 모니터링된 환경의 하나 이상의 센서 신호를 수신하는 단계;
상기 재구성 노이즈 제거 프로세서에서 복수의 프로그램 가능한 필터의 필터 파라미터 섹션을 구성하는 단계;
상기 재구성 노이즈 제거 프로세서에서 복수의 제어가능한 이득 스테이지를 구성하는 단계로서, 상기 복수의 제어가능한 이득 스테이지 중 적어도 일부는 상기 복수의 프로그램 가능한 필터 중 적어도 일부에 각각 결합되는, 복수의 제어가능한 이득 스테이지를 구성하는 단계; 및
변경된 오디오 신호 출력을 생성하기 위해 상기 복수의 제어가능한 이득 스테이지의 선택된 출력들을 상기 오디오 신호와 믹싱하는 단계
를 포함하는,
재구성 노이즈 제거 프로세서를 작동하는 방법.
CLAIMS What is claimed is: 1. A method of operating a reconstruction noise reduction processor,
Receiving an audio signal through an audio input at a first frequency;
Receiving one or more sensor signals of the monitored environment at the first frequency through one or more sensor inputs;
Configuring a filter parameter section of the plurality of programmable filters in the reconfiguration noise removal processor;
Configuring a plurality of controllable gain stages in the reconfiguration noise removal processor, wherein at least some of the plurality of controllable gain stages are each coupled to at least a portion of the plurality of programmable filters, Comprising; And
Mixing the selected outputs of the plurality of controllable gain stages with the audio signal to produce a modified audio signal output
/ RTI >
How to operate the reconstruction noise reduction processor.
제37항에 있어서,
상기 재구성 노이즈 제거 프로세서의 작동 동안 상기 복수의 프로그램 가능한 필터의 필터 파라미터 섹션을 변경시키는 단계를 더 포함하는, 재구성 노이즈 제거 프로세서를 작동하는 방법.
39. The method of claim 37,
Further comprising changing a filter parameter section of the plurality of programmable filters during operation of the reconfiguration noise removal processor.
KR1020177011938A 2014-09-30 2015-09-30 Aoustic processor having low latency KR20170084054A (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201462057481P 2014-09-30 2014-09-30
US62/057,481 2014-09-30
US201414553644A 2014-11-25 2014-11-25
US14/553,644 2014-11-25
PCT/US2015/053187 WO2016054186A1 (en) 2014-09-30 2015-09-30 Acoustic processor having low latency

Publications (1)

Publication Number Publication Date
KR20170084054A true KR20170084054A (en) 2017-07-19

Family

ID=54337376

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177011938A KR20170084054A (en) 2014-09-30 2015-09-30 Aoustic processor having low latency

Country Status (6)

Country Link
EP (1) EP3201911A1 (en)
JP (1) JP2017530413A (en)
KR (1) KR20170084054A (en)
CN (1) CN107112003B (en)
TW (2) TWI734176B (en)
WO (1) WO2016054186A1 (en)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012075343A2 (en) 2010-12-03 2012-06-07 Cirrus Logic, Inc. Oversight control of an adaptive noise canceler in a personal audio device
US8958571B2 (en) 2011-06-03 2015-02-17 Cirrus Logic, Inc. MIC covering detection in personal audio devices
US9824677B2 (en) 2011-06-03 2017-11-21 Cirrus Logic, Inc. Bandlimiting anti-noise in personal audio devices having adaptive noise cancellation (ANC)
US9318094B2 (en) 2011-06-03 2016-04-19 Cirrus Logic, Inc. Adaptive noise canceling architecture for a personal audio device
US9123321B2 (en) 2012-05-10 2015-09-01 Cirrus Logic, Inc. Sequenced adaptation of anti-noise generator response and secondary path response in an adaptive noise canceling system
US9318090B2 (en) 2012-05-10 2016-04-19 Cirrus Logic, Inc. Downlink tone detection and adaptation of a secondary path response model in an adaptive noise canceling system
US9532139B1 (en) 2012-09-14 2016-12-27 Cirrus Logic, Inc. Dual-microphone frequency amplitude response self-calibration
US9414150B2 (en) 2013-03-14 2016-08-09 Cirrus Logic, Inc. Low-latency multi-driver adaptive noise canceling (ANC) system for a personal audio device
US9666176B2 (en) 2013-09-13 2017-05-30 Cirrus Logic, Inc. Systems and methods for adaptive noise cancellation by adaptively shaping internal white noise to train a secondary path
US9620101B1 (en) 2013-10-08 2017-04-11 Cirrus Logic, Inc. Systems and methods for maintaining playback fidelity in an audio system with adaptive noise cancellation
US10219071B2 (en) 2013-12-10 2019-02-26 Cirrus Logic, Inc. Systems and methods for bandlimiting anti-noise in personal audio devices having adaptive noise cancellation
US9478212B1 (en) 2014-09-03 2016-10-25 Cirrus Logic, Inc. Systems and methods for use of adaptive secondary path estimate to control equalization in an audio device
GB2541977B (en) * 2015-07-21 2019-05-15 Cirrus Logic Int Semiconductor Ltd Hybrid finite impulse response filter
KR20180044324A (en) 2015-08-20 2018-05-02 시러스 로직 인터내셔널 세미컨덕터 리미티드 A feedback adaptive noise cancellation (ANC) controller and a method having a feedback response partially provided by a fixed response filter
US10013966B2 (en) 2016-03-15 2018-07-03 Cirrus Logic, Inc. Systems and methods for adaptive active noise cancellation for multiple-driver personal audio device
EP3513570A1 (en) * 2016-09-16 2019-07-24 Avatronics Sàrl Active noise cancellation system for headphone
TWI681387B (en) * 2017-03-09 2020-01-01 美商艾孚諾亞公司 Acoustic processing network and method for real-time acoustic processing
US10614790B2 (en) 2017-03-30 2020-04-07 Bose Corporation Automatic gain control in an active noise reduction (ANR) signal flow path
US10580398B2 (en) 2017-03-30 2020-03-03 Bose Corporation Parallel compensation in active noise reduction devices
EP3602538A2 (en) * 2017-03-30 2020-02-05 Bose Corporation Compensation and automatic gain control in active noise reduction devices
US10553195B2 (en) 2017-03-30 2020-02-04 Bose Corporation Dynamic compensation in active noise reduction devices
EP3704796B1 (en) * 2017-10-31 2024-03-06 Google LLC Low delay decimator and interpolator filters
CN108419162A (en) * 2018-02-09 2018-08-17 万魔声学科技有限公司 Active denoising method, active noise reducing device and noise cancelling headphone
US11223891B2 (en) * 2020-02-19 2022-01-11 xMEMS Labs, Inc. System and method thereof
JP2023518014A (en) * 2020-03-13 2023-04-27 フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン Apparatus and method for rendering sound scenes using pipeline stages

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5685308A (en) * 1994-08-05 1997-11-11 Acuson Corporation Method and apparatus for receive beamformer system
US7933295B2 (en) * 1999-04-13 2011-04-26 Broadcom Corporation Cable modem with voice processing capability
TWI315159B (en) * 2004-05-12 2009-09-21 Chou Yuan Fan The frequency response shaping analog hearing aid
JP4882773B2 (en) * 2007-02-05 2012-02-22 ソニー株式会社 Signal processing apparatus and signal processing method
GB0725108D0 (en) * 2007-12-21 2008-01-30 Wolfson Microelectronics Plc Slow rate adaption
SG163453A1 (en) * 2009-01-28 2010-08-30 Creative Tech Ltd An earphone set
US7928886B2 (en) * 2009-07-01 2011-04-19 Infineon Technologies Ag Emulation of analog-to-digital converter characteristics
US8737636B2 (en) * 2009-07-10 2014-05-27 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for adaptive active noise cancellation
US8729378B2 (en) * 2010-09-15 2014-05-20 Avedis Zildjian Co. Non-contact cymbal pickup using multiple microphones
WO2012075343A2 (en) * 2010-12-03 2012-06-07 Cirrus Logic, Inc. Oversight control of an adaptive noise canceler in a personal audio device
US20120155666A1 (en) * 2010-12-16 2012-06-21 Nair Vijayakumaran V Adaptive noise cancellation
US20120300960A1 (en) * 2011-05-27 2012-11-29 Graeme Gordon Mackay Digital signal routing circuit
US9318094B2 (en) * 2011-06-03 2016-04-19 Cirrus Logic, Inc. Adaptive noise canceling architecture for a personal audio device
US9082392B2 (en) * 2012-10-18 2015-07-14 Texas Instruments Incorporated Method and apparatus for a configurable active noise canceller
CN103402156B (en) * 2013-07-25 2016-05-25 瑞声科技(南京)有限公司 Sound system

Also Published As

Publication number Publication date
TW201944390A (en) 2019-11-16
JP2017530413A (en) 2017-10-12
TWI672689B (en) 2019-09-21
CN107112003A (en) 2017-08-29
TW201626361A (en) 2016-07-16
WO2016054186A1 (en) 2016-04-07
EP3201911A1 (en) 2017-08-09
CN107112003B (en) 2021-11-19
TWI734176B (en) 2021-07-21

Similar Documents

Publication Publication Date Title
KR20170084054A (en) Aoustic processor having low latency
US10096312B2 (en) Noise cancellation system
TWI759652B (en) Electrical network for processing acoustic signals, method for real-time acoustic processing and active noise cancellation audio device
EP2533240B1 (en) Anr signal processing with downsampling
US8085946B2 (en) ANR analysis side-chain data support
EP2642481B1 (en) Circuit and method for active noise reduction
KR101699067B1 (en) Noise Cancelling Method and Earphone havinng Noise Cancelling Function
WO2009081192A1 (en) Active noise cancellation system with slow rate adaptation of adaptive filter
US20110243343A1 (en) Frequency-dependent anr reference sound compression
JP2015219527A (en) Anc noise active control audio head set preventing influence of saturation of feedback microphone signal
GB2455821A (en) Active noise cancellation system with split digital filter
US10997960B2 (en) Acoustic processor having low latency
CN113728378A (en) Wind noise suppression and method for active noise cancellation systems
CN114787911A (en) Noise elimination system and signal processing method of ear-wearing type playing device
GB2455823A (en) Active noise cancellation filter cut-off frequency adjusted in accordance with magnitude of filter output signal
WO2023137127A1 (en) In-ear wearable with high latency band limiting