WO2022114935A1 - 청력보호용 소리 제어 시스템 및 방법 - Google Patents

청력보호용 소리 제어 시스템 및 방법 Download PDF

Info

Publication number
WO2022114935A1
WO2022114935A1 PCT/KR2021/095088 KR2021095088W WO2022114935A1 WO 2022114935 A1 WO2022114935 A1 WO 2022114935A1 KR 2021095088 W KR2021095088 W KR 2021095088W WO 2022114935 A1 WO2022114935 A1 WO 2022114935A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
data
output
hearing protection
frequency
Prior art date
Application number
PCT/KR2021/095088
Other languages
English (en)
French (fr)
Inventor
강준구
하경생
Original Assignee
주식회사 힐링사운드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 힐링사운드 filed Critical 주식회사 힐링사운드
Publication of WO2022114935A1 publication Critical patent/WO2022114935A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/10Applications
    • G10K2210/108Communication systems, e.g. where useful sound is kept and noise is cancelled
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/30Means
    • G10K2210/301Computational
    • G10K2210/3028Filtering, e.g. Kalman filters or special analogue or digital filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/025In the ear hearing aids [ITE] hearing aids
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/01Aspects of volume control, not necessarily automatic, in sound systems

Definitions

  • the present invention relates to sound control technology, and more particularly, to sound control technology for hearing protection.
  • Creating a comfortable and comfortable environment for treating patients is of utmost importance. While a quiet environment may be provided to the patient depending on how the disease is treated, in the dental field, sharp and high-frequency noise generated during the treatment process may create discomfort or fear in the patient. However, measures to protect patients exposed to such high-frequency noise are insufficient.
  • ACTIVE NOISE CONTROL technology is a technology that blocks noise by receiving ambient noise through a microphone attached to headphones or earphones, and generating destructive interference that cancels out the noise in the noise canceling circuit.
  • the active noise control technology is provided in headphones or earphones, and is only used for multimedia appreciation, and the development of technology for various applications in other environments has not been greatly developed.
  • a speaker and a microphone that converts ambient sound into electrical signals to generate ambient sound data, and an ear worn by a user wearable device; and a control device communicatively connected to the ear-wearing device, wherein the control device includes an analysis module for generating frequency analysis data by analyzing frequency characteristics of the ambient sound data, and output sound data transmitted to the speaker.
  • the control device includes an analysis module for generating frequency analysis data by analyzing frequency characteristics of the ambient sound data, and output sound data transmitted to the speaker.
  • a sound control system for hearing protection and a sound control method using the same comprising an output data generating module for generating the output data, wherein the output data generating module includes an equalizer for giving a gain value for each frequency to the ambient sound data.
  • the frequency characteristic of the ambient sound is analyzed by the analysis module of the control device, and a gain value for each frequency is given to the ambient sound data by the equalizer of the control device and transmitted to the speaker of the ear device. You can hear the sound with effectively reduced noise.
  • FIG. 1 is a configuration diagram schematically showing the configuration of a sound control system for hearing protection according to an embodiment of the present invention.
  • FIG. 2 is a block diagram of a sound control system for hearing protection according to an embodiment of the present invention shown in FIG. 1. Referring to FIG.
  • FIG. 3 is a block diagram illustrating a configuration of an output data generating module in the hearing protection sound control system shown in FIG. 2 according to an embodiment.
  • FIG. 4 is a flowchart schematically illustrating an embodiment of a method for controlling sound for hearing protection using the sound control system for hearing protection shown in FIG. 2 .
  • FIG. 1 schematically shows the configuration of a hearing protection sound control system according to an embodiment of the present invention
  • FIG. 2 is a block diagram of a hearing protection sound control system according to an embodiment of the present invention shown in FIG. is shown.
  • the hearing protection sound control system 100 according to an embodiment of the present invention provides an ear-wearing device 110 worn by a user on the ear, and the ear-wearing device 110 and data. and a control device 120 that generates output sound data suitable for the user's environment while receiving it.
  • a user means a person who wears the ear-wearing device 110 on an ear.
  • the ear-wearing device 110 is used by a user while being worn on the ear, and may be in the form of an earphone or a headphone.
  • the ear-wearing device 110 converts the output sound data, which is an electrical sound signal generated by the microphone 111 and the control device 120, which is an electrical sound signal generated by the microphone 111 for generating ambient sound data by converting the surrounding sound into an electrical signal, into sound waves so that the user It includes a speaker 115 for audible, and a communication unit 118 for communicatively connecting the earpiece device 110 to the control device 120 .
  • the in-ear device 110 transmits ambient sound data to the control device 120 in a state in which the user wears the ear, and converts the output sound data transmitted from the control device 120 into sound waves so that the user can hear it.
  • the microphone 111 generates ambient sound data by converting ambient sounds generated in the vicinity of the user who wears the ear-mounted device 110 to the ears into electrical signals. Ambient sounds may include voices. In the present embodiment, a sound excluding a voice from the ambient sound is defined as a non-voice, and the non-voice includes noise.
  • the ambient sound data generated by the microphone 111 is transmitted to the control device 120 through the communication unit 118 .
  • the speaker 115 converts output sound data, which is an electrical sound signal generated by the control device 120, into sound waves so that a user who wears the ear-mounted device 110 on an ear can hear it.
  • the speaker 115 receives the output sound data generated by the control device 120 through the communication unit 118 .
  • the communication unit 118 communicatively connects the attribution device 110 with the control device 120 .
  • the communication unit 118 transmits the ambient sound data generated by the microphone 111 to the control device 120 , and receives output sound data from the control device 120 .
  • the communication unit 118 may use various types of wired/wireless communication technology. In this embodiment, the communication unit 118 will be described as using a short-range wireless communication technology such as Bluetooth.
  • the control device 120 analyzes the ambient sound data transmitted from the in-ear device 110 , generates output sound data corresponding thereto according to the sound control settings set by the user, and transmits it to the in-ear device 110 .
  • the control device 120 analyzes the ambient sound data transmitted from the communication unit 130 and the communication unit 130 for communicatively connecting the control device 120 to the ear-to-ear device 110 and the communication unit 130 .
  • control device 120 includes a sound database 160 in which sound data is stored, a sound source database 170 in which a plurality of sound sources are stored, and an output data generating module 180 that generates output sound data transmitted to the ear device 110 .
  • the control device 120 is a personal portable communication terminal such as a smart phone or tablet PC carried by the user, the present invention is not limited thereto.
  • the communication unit 130 communicatively connects the control device 120 to the ear device 110 .
  • the communication unit 130 receives the ambient sound data from the ear-to-ear device 110 , and transmits the output sound data generated by the output data generating module 180 to the ear-to-ear device 110 .
  • the communication unit 118 may use various types of wired/wireless communication technologies. In this embodiment, the communication unit 130 will be described as using a short-range wireless communication technology such as Bluetooth.
  • the analysis module 140 analyzes the ambient sound data transmitted from the ear-to-ear device 110 through the communication unit 130 . Specifically, the analysis module 140 generates frequency analysis data by analyzing the frequency characteristics of the ambient sound data using a method such as FFT (Fast Fourier Transform). The frequency analysis data generated by the analysis module 140 is provided to the output data generation module 180 .
  • FFT Fast Fourier Transform
  • the user interface 150 connects the user and the control device 120 .
  • the user sets the sound control environment of the control device 120 by using the user interface 150 .
  • a specific type of output sound data generation by the output data generation module 180 is determined according to the settings of the sound control environment through the user interface 150 .
  • the sound database 160 stores sound data for generating output sound data.
  • the sound data stored in the sound database 160 includes specific non-voice data and specific voice data.
  • the specific non-voice data stored in the sound database 160 may be, for example, high-frequency noise generated in the course of treatment at a dentistry, a cry of a child, a shooting sound at a military base, a fire alarm sound, etc., and is stored in the sound database 160.
  • the stored specific voice may be, for example, a voice of a medical staff in charge in a dental office or a hospital emergency room. In the case of dentistry, the user is the patient receiving treatment.
  • the sound data stored in the sound database 160 is provided to the output data generation module 180 according to the user's sound control setting in the user interface 150 and is used to generate the output sound data.
  • the sound source database 170 stores a plurality of sound sources provided to the user and provides the sound source selected by the user through the user interface 150 to the output data generating module 180 .
  • the sound source database 170 stores sounds that can calm the user's mind and body, such as rain, wind, thunder, streams, fireplaces, waves, and birds, as well as music preferred by the user.
  • the sound source database 170 may be an external application program that provides a sound source streaming service as well as stored in the control device 120 (eg, 'Melon', a Euro sound source service), which is also within the scope of the present invention.
  • the sound source stored in the sound source database 170 includes a basic sound source such as rain, wind, thunder, a stream, a fireplace, a wave, a bird sound, and a mixed sound source generated by mixing a plurality of basic sound sources by a user.
  • a basic sound source such as rain, wind, thunder, a stream, a fireplace, a wave, a bird sound, and a mixed sound source generated by mixing a plurality of basic sound sources by a user.
  • One of the sound sources stored in the sound source database 170 may be transmitted to the ear ear device 110 as output sound data according to a user's sound control setting in the user interface 150 .
  • the output data generation module 180 generates output sound data transmitted to the ear-wearing device 110 according to the user's sound control environment condition set in the user interface 150 .
  • the output data generation module 180 generates the output sound data, frequency analysis data for the ambient sound data generated by the analysis module 140, the sound control environment setting data generated through the user interface 150, the sound database
  • the sound data stored in 160 and the sound source stored in the sound source database 170 are transmitted.
  • 3 shows the configuration of the output data generating module 180 as a block diagram. Referring to FIG. 3 , the output data generating module 180 includes an equalizer 181 , a noise filter unit 184 , a VAD performing unit 188 , and a sound source volume control unit 189 .
  • the equalizer 181 attenuates or amplifies the ambient sound data for each frequency by giving a gain value for each frequency based on the frequency analysis data for the ambient sound data generated by the analysis module 140 .
  • the gain value for each frequency of the equalizer 181 may be automatically adjusted or manually adjusted according to a sound control setting by a user. Alternatively, the user may use a preset and stored gain value for each frequency. In addition, the user can store the manually adjusted gain value for each frequency of the equalizer 181, and then call and use it.
  • the preset equalizer 181 may be shared by a plurality of users, and various types of rewards may be given to a user who creates the preset equalizer with excellent evaluation.
  • the gain value for each frequency of the equalizer 181 is optimally adjusted so that noise is attenuated and voice is amplified according to frequency analysis data for ambient sound data generated by the analysis module 140 .
  • the noise filter unit 184 filters the ambient sound data based on the frequency analysis data for the ambient sound data generated by the analysis module 140 .
  • the noise filter unit 184 may use a low pass filter (LPF) or a notch filter.
  • LPF low-pass filter
  • a low-pass filter (LPF) reduces or blocks high-frequency noise distributed in a relatively high-frequency band by passing a low-frequency band and blocking a high-frequency band in the ambient sound data. In dentistry, it is desirable to block a high frequency band of about 3500 Hz or higher.
  • the notch filter is a filter that removes only components of a specific frequency band.
  • the VAD performing unit 188 performs a VAD function on the ambient sound data.
  • VAD Voice Activity Dection
  • the specific configuration includes a typical VAD Therefore, a detailed description thereof will be omitted.
  • the sound source volume control unit 189 automatically adjusts the output volume of the sound source stored in the sound source database 170 according to the sound control setting by the user based on the frequency analysis data for the ambient sound data generated by the analysis module 140 . do.
  • FIG. 4 is a flowchart illustrating a method for controlling a sound for hearing protection according to an embodiment of the present invention using the sound control system for hearing protection shown in FIGS. 1 and 2 .
  • the hearing protection sound control method uses the hearing protection sound control system 100 shown in FIGS. 1 to 2 , and provides the user with a user interface 150 .
  • a control environment setting step (S110) in which the sound control environment is set by the Equalization step (S130) in which attenuation and amplification for each frequency is performed by 181 of 3), filtering step (S140) in which filtering of ambient sound data is performed by the noise filter unit (184 in FIG.
  • Step S150 in which the VAD function for the ambient sound data is performed by the unit (188 in FIG. 3), and the sound source volume control in which the sound volume of the sound source is adjusted by the sound source volume control unit (189 in FIG. 3) Step S160 is included.
  • the sound control environment is set by the user through the user interface 150 .
  • an equalization method by the equalizer ( 181 in FIG. 3 ) and a filtering method by the noise filter unit ( 184 in FIG. 3 ) are set.
  • the user can select any one of using the automatic equalization function, using the manual equalization function, and using the preset equalization function.
  • the user interface 150 outputs a frequency adjustment window so that the user can manually adjust a gain value for each frequency of the equalizer ( 181 in FIG. 3 ).
  • the user interface 150 outputs a plurality of preset and stored equalizations so that the user can select them.
  • a user can select one of a plurality of filters including a low-pass filter and a notch filter through the user interface 150 .
  • the user may set the filtering band of the filter through the user interface 150 .
  • the user may set the surrounding environment in which the sound control system 100 is used through the user interface 150 .
  • the user may select a noise generating area, such as a dental office or a shooting range, and an optimal equalization method and filtering method may be automatically selected in response thereto.
  • the frequency characteristic of the ambient sound data is analyzed by the analysis module 140 .
  • the analysis module 140 analyzes the ambient sound data transmitted from the in-ear device 110 through the communication unit 130 . Specifically, the analysis module 140 generates frequency analysis data by analyzing the frequency characteristics of the ambient sound data using a method such as FFT (Fast Fourier Transform).
  • the equalization step ( S130 ) attenuation and amplification for each frequency by the equalizer ( 181 in FIG. 3 ) is performed.
  • the equalizer used in the equalization step S130 is selected by the user in the control environment setting step S110.
  • automatic equalization is selected in the control environment setting step (S110)
  • the equalization step (S130) based on the frequency analysis data for the ambient sound generated through the ambient sound analysis step (S120), the noise can be minimized for each frequency by frequency.
  • the gain value is set automatically.
  • filtering step ( S140 ) filtering is performed on the ambient sound data by the noise filter unit ( 184 in FIG. 3 ).
  • the noise blocking filter used in the filtering step (S140) is selected by the user in the control environment setting step (S110).
  • the VAD function execution step ( S150 ) the VAD function is performed on the ambient sound data by the VAD performing unit ( 188 in FIG. 3 ).
  • VAD Voice Activity Dection
  • recognition of a specific voice eg, the voice of a medical team in charge of treating a patient in the course of dental treatment
  • a specific noise Recognition of non-voice may also be performed.
  • the sound volume of the sound source is automatically adjusted by the sound source volume control unit ( 189 in FIG. 3 ).
  • the sound source volume control unit 189 in FIG. 3
  • the sound source database 170 When one of the sound sources stored in the sound source database 170 is output through the speaker (115 in FIG. 2), when a voice is recognized in the VAD function performing step (S150) or a necessary sound such as an alarm sound is recognized among non-voices, it is played Reduce the volume of the current sound source. In addition, when unnecessary noise is suddenly recognized, the volume of the sound source being reproduced is increased.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

본 발명에 의하면, 스피커와, 주변의 소리를 전기적 신호로 변환하여 주변소리 데이터를 생성하는 마이크를 구비하고, 사용자가 귀에 착용하여 사용하는 귀착용 장치; 및 상기 귀착용 장치와 통신 가능하게 연결되는 제어 장치를 포함하며, 상기 제어 장치는 상기 주변소리 데이터의 주파수 특성을 분석하여 주파수 분석 데이터를 생성하는 분석 모듈과, 상기 스피커로 전송되는 출력소리 데이터를 생성하는 출력데이터 생성 모듈을 구비하며, 상기 출력데이터 생성 모듈은 상기 주변소리 데이터에 주파수 별로 게인 값을 부여하는 이퀄라이저를 구비하는, 청력보호용 소리 제어 시스템이 제공된다.

Description

청력보호용 소리 제어 시스템 및 방법
본 발명은 소리 제어 기술에 관한 것으로서, 더욱 상세하게는 청력보호를 위한 소리 제어 기술에 관한 것이다.
환자를 치료함에 있어서 안락하고 편안한 환경을 조성하는 것은 무엇보다도 중요한 사항이다. 병을 어떠한 방식으로 치료하느냐에 따라 조용한 환경이 환자에게 제공될 수도 있는 반면, 치과 분야에서는 치료 과정에서 발생하는 날카롭고 고주파의 소음이 환자에게 불쾌감이나 공포감을 조성할 수 있다. 하지만, 이러한 고주파 소음에 노출된 환자를 보호할만한 대책은 미흡한 상황이다.
한편, 능동소음제어(ACTIVE NOISE CONTROL) 기술이란 헤드폰이나 이어폰에 별도로 부착되어 있는 마이크를 통해 주변의 소음을 수신하고, 그 소음을 상쇄시키는 상쇄간섭을 노이즈캔슬링 회로에서 발생시켜서 소음을 차단하는 기술이다. 종래에는 능동소음제어 기술을 헤드폰이나 이어폰에 구비시켜서, 멀티미디어 감상에 사용될 뿐이며, 다른 환경에서 다양하게 적용하기 위한 기술의 개발이 크게 이루어지지 않은 상황이다.
본 발명의 목적은 효과적으로 청력을 보호할 수 있는 소리 제어 시스템 및 방법을 제공하는 것이다.
상기한 본 발명의 목적을 달성하기 위하여, 본 발명의 일 측면에 따르면, 스피커와, 주변의 소리를 전기적 신호로 변환하여 주변소리 데이터를 생성하는 마이크를 구비하고, 사용자가 귀에 착용하여 사용하는 귀착용 장치; 및 상기 귀착용 장치와 통신 가능하게 연결되는 제어 장치를 포함하며, 상기 제어 장치는 상기 주변소리 데이터의 주파수 특성을 분석하여 주파수 분석 데이터를 생성하는 분석 모듈과, 상기 스피커로 전송되는 출력소리 데이터를 생성하는 출력데이터 생성 모듈을 구비하며, 상기 출력데이터 생성 모듈은 상기 주변소리 데이터에 주파수 별로 게인 값을 부여하는 이퀄라이저를 구비하는, 청력보호용 소리 제어 시스템 및 이를 이용한 소리 제어 방법이 제공된다.
본 발명에 의하면 앞서서 기재한 본 발명의 목적을 모두 달성할 수 있다. 구체적으로는, 제어 장치의 분석 모듈에 의해 주변소리의 주파수 특성이 분석되고, 제어 장치의 이퀄라이저에 의해 주변소리 데이터에 주파수 별로 게인 값을 부여되어서 귀착용 장치의 스피커로 전송되므로 사용자는 귀착용 장치를 통해 효과적으로 소음이 감소된 소리를 들을 수 있다.
도 1은 본 발명의 일 실시예에 따른 청력보호용 소리 제어 시스템의 구성을 개략적으로 도시한 구성도이다.
도 2는 도 1에 도시된 본 발명의 일 실시예에 따른 청력보호용 소리 제어 시스템의 블록도이다.
도 3은 도 2에 도시된 청력보호용 소리 제어 시스템에서 출력 데이터 생성 모듈의 일 실시예에 따른 구성을 도시한 블록도이다.
도 4는 도 2에 도시된 청력보호용 소리 제어 시스템을 이용한 청력보호용 소리 제어 방법의 일 실시예를 개략적으로 설명하는 순서도이다.
이하, 도면을 참조하여 본 발명의 실시예의 구성 및 작용을 상세히 설명한다.
도 1에는 본 발명의 일 실시예에 따른 청력보호용 소리 제어 시스템의 구성이 개략적으로 도시되어 있고, 도 2에는 도 1에 도시된 본 발명의 일 실시예에 따른 청력보호용 소리 제어 시스템이 블록도로서 도시되어 있다. 도 1과 도 2를 참조하면, 본 발명의 일 실시예에 따른 청력보호용 소리 제어 시스템(100)은, 사용자가 귀에 착용하는 귀착용 장치(110)와, 귀착용 장치(110)와 데이터를 주고받으면서 사용자의 환경에 적합한 출력소리 데이터를 생성하는 제어 장치(120)를 포함한다. 본 실시예에서 사용자는 귀착용 장치(110)를 귀에 착용하는 사람을 의미한다.
귀착용 장치(110)는 사용자가 귀에 착용하여 사용하는 것으로서, 이어폰(earphone) 또는 헤드폰(headphone)과 같은 형태일 수 있다. 귀착용 장치(110)는 주변의 소리를 전기적 신호로 변환하여 주변소리 데이터를 생성하는 마이크(111)와, 제어 장치(120)에서 생성된 전기적 소리 신호인 출력소리 데이터를 음파로 변환하여 사용자가 들을 수 있도록 하는 스피커(115)와, 귀착용 장치(110)를 제어 장치(120)와 통신 가능하게 연결시키는 통신부(118)를 구비한다. 귀착용 장치(110)는 사용자가 귀에 착용한 상태에서 주변소리 데이터를 제어 장치(120)로 전송하고 제어 장치(120)로부터 전송되는 출력소리 데이터를 사용자가 들을 수 있도록 음파로 변환한다.
마이크(111)는 귀착용 장치(110)를 귀에 착용하여 사용하는 사용자의 주변에서 발생하는 주변소리를 전기적 신호로 변환하여 주변소리 데이터를 생성한다. 주변소리는 음성을 포함할 수 있다. 본 실시예에서 주변소리에서 음성을 제외한 소리를 비음성이라 정의하며, 비음성은 소음을 포함한다. 마이크(111)에서 생성된 주변소리 데이터는 통신부(118)를 통해 제어 장치(120)로 전송된다.
스피커(115)는 제어 장치(120)에서 생성된 전기적 소리 신호인 출력소리 데이터를 음파로 변환하여 귀착용 장치(110)를 귀에 착용하여 사용하는 사용자가 들을 수 있도록 한다. 스피커(115)는 제어 장치(120)에서 생성된 출력소리 데이터를 통신부(118)를 통해 전송받는다.
통신부(118)는 귀착용 장치(110)를 제어 장치(120)와 통신 가능하게 연결시킨다. 통신부(118)는 마이크(111)에서 생성된 주변소리 데이터를 제어 장치(120)로 전송하고, 제어 장치(120)로부터 출력소리 데이터를 전송받는다. 통신부(118)는 다양한 형태의 유·무선 통신 기술을 이용할 수 있는데, 본 실시예에서는 통신부(118)가 블루투스(bluetooth)와 같은 근거리 무선 통신 기술을 이용하는 것으로 설명한다.
제어 장치(120)는 귀착용 장치(110)로부터 전송되는 주변소리 데이터를 분석하여 이에 대응하는 출력소리 데이터를 사용자가 설정하는 소리 제어 설정 사항에 따라 생성하여 귀착용 장치(110)로 전송한다. 제어 장치(120)는 제어 장치(120)를 귀착용 장치(110)와 통신 가능하게 연결시키는 통신부(130)와, 통신부(130)를 통해 귀착용 장치(110)로부터 전송된 주변소리 데이터를 분석하는 분석 모듈(140)과, 사용자와 제어 장치(120)의 사이를 연결하고 사용자가 제어 장치(120)에 의한 소리 제어 설정 사항을 설정할 수 있는 사용자 인터페이스(150)와, 출력소리 데이터 생성을 위한 소리 데이터가 저장된 소리 데이터베이스(160)와, 복수개의 음원들이 저장된 음원 데이터베이스(170)와, 귀착용 장치(110)로 전송되는 출력소리 데이터를 생성하는 출력데이터 생성 모듈(180)을 포함한다. 본 실시예에서는 제어 장치(120)가 사용자가 휴대하고 다니는 스마트폰 또는 태블릿 피씨와 같은 개인 휴대형 통신 단말기인 것으로 설명하지만, 본 발명은 이에 제한되는 것은 아니다.
통신부(130)는 제어 장치(120)를 귀착용 장치(110)와 통신 가능하게 연결시킨다. 통신부(130)는 귀착용 장치(110)로부터 주변소리 데이터를 전송받고, 출력데이터 생성모듈(180)에서 생성된 출력소리 데이터를 귀착용 장치(110)로 전송한다. 통신부(118)는 다양한 형태의 유·무선 통신 기술을 이용할 수 있는데, 본 실시예에서는 통신부(130)가 블루투스(bluetooth)와 같은 근거리 무선 통신 기술을 이용하는 것으로 설명한다.
분석 모듈(140)은 통신부(130)를 통해 귀착용 장치(110)로부터 전송된 주변소리 데이터를 분석한다. 구체적으로 분석 모듈(140)은 FFT(Fast Fourier Transform)과 같은 방식을 이용하여 주변소리 데이터의 주파수 특성을 분석하여 주파수 분석 데이터를 생성한다. 분석 모듈(140)에서 생성된 주파수 분석 데이터는 출력데이터 생성 모듈(180)에 제공된다.
사용자 인터페이스(150)는 사용자와 제어 장치(120)의 사이를 연결한다. 사용자는 사용자 인터페이스(150)를 이용하여 제어 장치(120)의 소리 제어 환경을 설정한다. 사용자 인터페이스(150)를 통한 소리 제어 환경의 설정 사항에 의해 출력데이터 생성 모듈(180)에 의한 구체적인 출력소리 데이터의 생성 형태가 결정된다.
소리 데이터베이스(160)는 출력소리 데이터의 생성을 위한 소리 데이터를 저장한다. 소리 데이터베이스(160)에 저장된 소리 데이터는 특정 비음성 데이터와 특정 음성 데이터를 포함한다. 본 실시예에서 소리 데이터베이스(160)에 저장된 특정 비음성 데이터와 특정 음성 데이터는 통상적인 딥러닝 기술에 의해 생성되는 것으로 설명한다. 소리 데이터베이스(160)에 저장된 특정 비음성 데이터는 예를 들어서 치과에서 치료 과정에서 발생하는 고주파의 소음, 소아의 울음 소리, 군부대에서의 사격음, 화재 경보음 등일 수 있고, 소리 데이터베이스(160)에 저장된 특정 음성은 예를 들어서 치과나 병원 응급실에서 담당 의료진의 음성일 수 있다. 치과의 경우 사용자는 치료를 받는 환자가 된다. 소리 데이터베이스(160)에 저장된 소리 데이터는 사용자 인터페이스(150)에서의 사용자의 소리 제어 설정에 따라 출력데이터 생성 모듈(180)로 제공되어서 출력소리 데이터의 생성에 사용된다.
음원 데이터베이스(170)는 사용자에게 제공되는 복수개의 음원들을 저장하고 사용자 인터페이스(150)를 통해 사용자에 의해 선택된 음원을 출력데이터 생성 모듈(180)로 제공한다. 음원 데이터베이스(170)에는 비, 바람, 천둥, 개울, 벽난로, 파도, 새 소리 등 사용자의 심신을 안정시킬 수 있는 소리와, 사용자가 선호하는 음악 등이 저장되어 있다. 또한 음원 데이터베이스(170)은 제어 장치(120)에 저장된 것뿐만 아니라 음원 스트리밍 서비스를 제공하는 외부 응용프로그램(예를 들어, 유로 음원 서비스인 '멜론')일 수 있으며, 이 또한 본 발명의 범위에 속하는 것이다. 음원 데이터베이스(170)에 저장되는 음원은 비, 바람, 천둥, 개울, 벽난로, 파도, 새 소리 등의 기본 음원과, 복수개의 기본 음원들이 사용자에 의해 혼합되어서 생성된 혼합 음원을 포함한다. 음원 데이터베이스(170)에 저장된 음원들 중 하나는 사용자 인터페이스(150)에서의 사용자의 소리 제어 설정에 따라 출력소리 데이터로 귀착용 장치(110)에 전송될 수 있다.
출력데이터 생성 모듈(180)은 사용자 인터페이스(150)에서 설정된 사용자의 소리 제어 환경 조건에 따라 귀착용 장치(110)로 전송되는 출력소리 데이터를 생성한다. 출력데이터 생성 모듈(180)은 출력소리 데이터를 생성하기 위하여, 분석 모듈(140)에서 생성된 주변소리 데이터에 대한 주파수 분석 데이터, 사용자 인터페이스(150)를 통해 생성된 소리 제어 환경 설정 데이터, 소리 데이터베이스(160)에 저장된 소리 데이터 및 음원 데이터베이스(170)에 저장된 음원을 전송받는다. 도 3에는 출력데이터 생성 모듈(180)의 구성이 블록도로서 도시되어 있다. 도 3을 참조하면, 출력데이터 생성 모듈(180)은 이퀄라이저(equalizer)(181)와, 소음 필터부(184)와, VAD 수행부(188)와, 음원 볼륨 조절부(189)를 구비한다.
이퀄라이저(181)는 분석 모듈(140)에서 생성된 주변 소리 데이터에 대한 주파수 분석 데이터를 기반으로 주변 소리 데이터를 주파수 별로 게인(gain) 값을 부여하여 주파수 별로 감쇠시키거나 증폭시킨다. 이퀄라이저(181)의 주파수 별 게인 값은 사용자에 의한 소리 제어 설정에 따라서 자동으로 조정되거나, 수동으로 조정될 수 있다. 이와는 달리 사용자는 사전에 설정되어서 저장된 주파수 별 게인 값을 이용할 수도 있다. 또한, 사용자는 수동으로 조정한 이퀄라이저(181)의 주파수 별 게인 값을 저장하고, 이후에 불러와서 사용할 수 있다. 사전 설정된 이퀄라이저(181)는 복수의 사용자들이 공유할 수 있으며, 우수한 평가를 받은 사전 설정 퀄라이저를 생성한 사용자에게는 다양한 형태의 보상이 부여될 수 있다. 이퀄라이저(181)의 주파수 별 게인 값은 분석 모듈(140)에서 생성된 주변 소리 데이터에 대한 주파수 분석 데이터에 따라 소음은 감쇠되고, 음성은 증폭되도록 최적으로 조정된다.
소음 필터부(184)는 분석 모듈(140)에서 생성된 주변 소리 데이터에 대한 주파수 분석 데이터를 기반으로 주변 소리 데이터에 대한 필터링을 수행한다. 소음 필터부(184)는 저역 필터(LPF : Low Pass Filter) 또는 노치 필터(Notch Filter)를 사용할 수 있다. 저역 필터(LPF)는 주변 소리 데이터에서 저주파수 대역은 통과시키고 고주파수 대역은 막아서, 상대적으로 고주파 대역에 분포하는 고주파 소음을 저감하거나 차단한다. 치과에서는 약 3500Hz 이상의 고주파 대역을 막는 것이 바람직하다. 노치 필터는 특정 주파수 대역의 성분만을 제거하는 필터이다.
VAD 수행부(188)는 주변 소리 데이터에 대한 VAD 기능을 수행한다. VAD(Voice Activity Dection)은 신호의 구간마다 일정한 형태의 특징값을 추출하고, 추출된 특징값을 분석하여 해당 구간이 음성 또는 비음성에 속하는지 판별하는 기술로서, 구체적인 구성은 통상적인 VAD를 포함하므로 이에 대한 상세한 설명은 생략한다.
음원 볼륨 조절부(189)는 분석 모듈(140)에서 생성된 주변 소리 데이터에 대한 주파수 분석 데이터를 기반으로 사용자에 의한 소리 제어 설정에 따라서 음원 데이터베이스(170)에 저장된 음원의 출력 볼륨을 자동으로 조절한다.
도 4에는 도 1 및 도 2에 도시된 청력보호용 소리 제어 시스템을 이용한 본 발명의 일 실시예에 따른 청력보호용 소리 제어 방법이 순서도로서 도시되어 있다. 도 4를 참조하면, 본 발명의 일 실시예에 따른 청력보호용 소리 제어 방법은, 도 1 내지 도 2에 도시된 청력보호용 소리 제어 시스템(100)을 이용하는 것으로서, 사용자 인터페이스(150)를 통해 사용자에 의해 소리 제어 환경이 설정되는 제어 환경 설정 단계(S110)와, 분석 모듈(140)에 의해 주변소리 데이터의 주파수 특성이 분석되어서 주파수 분석 데이터가 생성되는 주변소리 분석 단계(S120)와, 이퀄라이저(도 3의 181)에 의한 주파수 별 감쇠 및 증폭이 수행되는 이퀄라이제이션 단계(S130)와, 소음 필터부(도 3의 184)에 의한 주변 소리 데이터에 대한 필터링이 수행되는 필터링 단계(S140)와, VAD 수행부(도 3의 188)에 의한 주변 소리 데이터에 대한 VAD 기능이 수행되는 VAD 기능 수행 단계(S150)와, 음원 볼륨 조절부(도 3의 189)에 의한 음원의 소리 크기가 조절되는 음원 볼륨 조절 단계(S160)를 포함한다.
제어 환경 설정 단계(S110)에서는 사용자 인터페이스(150)를 통해 사용자에 의해 소리 제어 환경이 설정된다. 구체적으로, 제어 환경 설정 단계(S110)에서는 이퀄라이저(도 3의 181)에 의한 이퀄라이제이션(equalization) 방식, 소음 필터부(도 3의 184)에 의한 필터링 방식이 설정된다.
이퀄라이제이션 방식의 경우, 사용자 인터페이스(150)를 통해 사용자가 자동 이퀄라이제이션 기능 사용, 수동 이퀄라이제이션 기능 사용 및 사전 설정 이퀄라이제이션 기능 사용 중 어느 하나를 선택할 수 있도록 한다. 사용자가 수동 이퀄라이제이션 기능의 사용을 선택하면, 사용자 인터페이스(150)는 사용자가 수동으로 이퀄라이저(도 3의 181) 주파수 별 게인 값을 조정할 수 있도록 주파수 조정 창을 출력한다. 사용자가 사전 설정 이퀄라이제이션 기능의 사용을 선택하면, 사용자 인터페이스(150)는 사전에 설정되어서 저장된 복수개의 이퀄라이제이션들 출력하여 사용자가 선택할 수 있도록 한다.
필터링 방식의 경우, 사용자 인터페이스(150)를 통해 사용자가 저역 필터와 노치 필터 등을 포함하는 복수개의 필터들 중 하나를 선택할 수 있도록 한다. 이때, 사용자는 사용자 인터페이스(150)를 통해 필터의 필터링 대역을 설정할 수 있다.
추가로 제어 환경 설정 단계(S110)에서는 사용자 인터페이스(150)를 통해 사용자가 소리 제어 시스템(100)이 사용되는 주위 환경을 설정할 수도 있다. 예를 들어서, 사용자는 치과, 사격장 등 소음 발생 지역을 선택할 수 있고, 이에 대응하여 최적의 이퀄라이제이션 방식과 필터링 방식이 자동으로 선택될 수도 있다.
주변소리 분석 단계(S120)에서는 분석 모듈(140)에 의해 주변소리 데이터의 주파수 특성이 분석된다. 주변소리 분석 단계(S120)에서 분석 모듈(140)은 통신부(130)를 통해 귀착용 장치(110)로부터 전송된 주변소리 데이터를 분석한다. 구체적으로 분석 모듈(140)은 FFT(Fast Fourier Transform)과 같은 방식을 이용하여 주변소리 데이터의 주파수 특성을 분석하여 주파수 분석 데이터를 생성한다.
이퀄라이제이션 단계(S130)에서는 이퀄라이저(도 3의 181)에 의한 주파수 별 감쇠 및 증폭이 수행된다. 이퀄라이제이션 단계(S130)에서 사용되는 이퀄라이저는 제어 환경 설정 단계(S110)에서 사용자에 의해 선택된 것이다. 제어 환경 설정 단계(S110)에서 자동 이퀄라이제이션이 선택된 경우 이퀄라이제이션 단계(S130)에서는 주변소리 분석 단계(S120)를 통해 생성된 주변소리에 대한 주파수 분석 데이터를 기반으로 주파수 별로 소음을 최소화할 수 있도록 주파수 별로 게인(gain) 값이 자동으로 설정된다.
필터링 단계(S140)에서는 소음 필터부(도 3의 184)에 의한 주변 소리 데이터에 대한 필터링이 수행된다. 필터링 단계(S140)에서 사용되는 소음 차단 필터는 제어 환경 설정 단계(S110)에서 사용자에 의해 선택된 것이다.
VAD 기능 수행 단계(S150)에서는 VAD 수행부(도 3의 188)에 의한 주변 소리 데이터에 대한 VAD 기능이 수행된다. VAD(Voice Activity Dection)은 주변 소리 데이터의 신호의 구간마다 일정한 형태의 특징값을 추출하고, 추출된 특징값을 분석하여 해당 구간이 음성 또는 비음성에 속하는지 판별한다. VAD 기능 수행 단계(S150)에서 소리 데이터베이스(도 2의 160)에 저장된 데이터를 이용하여 특정 음성(예를 들어, 치과 치료 과정에서 환자를 치료하는 담당 의료진의 목소리)에 대한 인식 및 특정 소음과 같은 비음성에 대한 인식도 함께 수행될 수 있다.
음원 볼륨 조절 단계(S160)에서는 음원 볼륨 조절부(도 3의 189)에 의한 음원의 소리 크기가 자동으로 조절된다. 음원 데이터베이스(170)에 저장된 음원 중 하나가 스피커(도 2의 115)를 통해 출력되는 중에 VAD 기능 수행 단계(S150)에서 음성이 인식되거나 비음성 중에서도 경보음과 같이 필요한 소리가 인식되는 경우에는 재생 중인 음원의 볼륨을 줄인다. 또한, 불필요한 소음이 갑자기 인식되는 경우 반대로 재생 중인 음원의 볼륨을 높인다.
이상 실시예를 통해 본 발명을 설명하였으나, 본 발명은 이에 제한되는 것은 아니다. 상기 실시예는 본 발명의 취지 및 범위를 벗어나지 않고 수정되거나 변경될 수 있으며, 본 기술분야의 통상의 기술자는 이러한 수정과 변경도 본 발명에 속하는 것임을 알 수 있을 것이다.

Claims (14)

  1. 스피커와, 주변의 소리를 전기적 신호로 변환하여 주변소리 데이터를 생성하는 마이크를 구비하고, 사용자가 귀에 착용하여 사용하는 귀착용 장치; 및
    상기 귀착용 장치와 통신 가능하게 연결되는 제어 장치를 포함하며,
    상기 제어 장치는 상기 주변소리 데이터의 주파수 특성을 분석하여 주파수 분석 데이터를 생성하는 분석 모듈과, 상기 스피커로 전송되는 출력소리 데이터를 생성하는 출력데이터 생성 모듈을 구비하며,
    상기 출력데이터 생성 모듈은 상기 주변소리 데이터에 주파수 별로 게인 값을 부여하는 이퀄라이저를 구비하는,
    청력보호용 소리 제어 시스템.
  2. 청구항 1에 있어서,
    상기 이퀄라이저는 상기 주파수 분석 데이터에 기반하여 상기 주파수 별 게인 값을 자동으로 조정하는,
    청력보호용 소리 제어 시스템.
  3. 청구항 1에 있어서,
    상기 이퀄라이저의 주파수 별 게인 값은 상기 사용자에 의해 수동으로 조정되는,
    청력보호용 소리 제어 시스템.
  4. 청구항 1에 있어서,
    상기 출력데이터 생성 모듈은 상기 주변소리 데이터에 대한 필터링을 수행하는 소음 필터부를 더 구비하는,
    청력보호용 소리 제어 시스템.
  5. 청구항 4에 있어서,
    상기 소음 필터부 저역 필터(LPF)를 구비하는,
    청력보호용 소리 제어 시스템.
  6. 청구항 4에 있어서,
    상기 소음 필터부는 노치 필터(Notch Filter)를 구비하는,
    청력보호용 소리 제어 시스템.
  7. 청구항 1에 있어서,
    상기 제어 장치는 상기 주변소리 데이터에 대한 VAD(Voice Activity Detection)을 수행하는 VAD 수행부를 더 구비하는,
    청력보호용 소리 제어 시스템.
  8. 청구항 1에 있어서,
    상기 제어 장치는 딥러닝 기술에 의해 생성된 특정 소리 데이터가 저장된 소리 데이터베이스를 더 구비하며,
    상기 출력데이터 생성 모듈은 상기 주변소리 데이터에서 상기 특정 소리 데이터를 인식하여 상기 출력소리 데이터를 생성하는,
    청력보호용 소리 제어 시스템.
  9. 청구항 1에 있어서,
    상기 제어 장치는 상기 스피커를 통해 출력되는 음원이 저장된 음원 데이터베이스를 더 구비하며,
    상기 출력데이터 생성 모듈은 상기 음원의 출력 볼륨을 자동으로 조절하는 음원 볼륨 조절부를 더 구비하는,
    청력보호용 소리 제어 시스템.
  10. 청구항 9에 있어서,
    상기 제어 장치는 특정 음성 데이터가 저장된 소리 데이터베이스를 더 구비하며,
    상기 출력데이터 생성 모듈이 주파수 분석 데이터를 기반으로 상기 특정 음성을 인식하면 상기 음원 볼륨 조절부가 출력 중인 음원의 볼륨을 줄이는,
    청력보호용 소리 제어 시스템.
  11. 스피커와, 주변의 소리를 전기적 신호로 변환하여 주변소리 데이터를 생성하는 마이크를 구비하고, 사용자가 귀에 착용하여 사용하는 귀착용 장치; 및 상기 귀착용 장치와 통신 가능하게 연결되는 제어 장치를 포함하며, 상기 제어 장치는 상기 주변소리 데이터의 주파수 특성을 분석하여 주파수 분석 데이터를 생성하는 분석 모듈과, 상기 스피커로 전송되는 출력소리 데이터를 생성하는 출력데이터 생성 모듈을 구비하며, 상기 출력데이터 생성 모듈은 상기 주변소리 데이터에 주파수 별로 게인 값을 부여하는 이퀄라이저를 구비하는 청력보호용 소리 제어 시스템을 이용한 소리 제어 방법으로서,
    상기 분석 모듈에 의해 상기 주파수 분석 데이터가 생성되는 주변소리 분석 단계; 및
    상기 이퀄라이저에 의해 상기 주파수 분석 데이터를 기반으로 상기 주변소리 데이터에 주파수 별로 게인 값이 자동으로 설정되는 이퀄라이제이션 단계를 포함하는,
    청력보호용 소리 제어 방법.
  12. 청구항 11에 있어서,
    상기 상기 출력데이터 생성 모듈은 상기 주변소리 데이터에 대한 필터링을 수행하는 소음 필터부를 더 구비하며,
    상기 소음 필터부에 의한 상기 주변소리 데이터에 대한 필터링이 수행되는 필터링 단계를 더 포함하는,
    청력보호용 소리 제어 방법.
  13. 청구항 11에 있어서,
    상기 제어 장치는 VAD(Voice Activity Detection)을 수행하는 VAD 수행부를 더 구비하며,
    상기 VAD 수행부에 의해 상기 주변소리 데이터에 대한 VAD 기능이 수행되는 단계를 더 포함하는,
    청력보호용 소리 제어 방법.
  14. 청구항 11에 있어서,
    상기 제어 장치는 상기 스피커를 통해 출력되는 음원이 저장된 음원 데이터베이스를 더 구비하며,
    상기 주파수 분석 데이터를 기반으로 상기 특정 소리가 인식되면 출력 중인 상기 음원의 볼륨이 조절되는 단계를 더 포함하는,
    청력보호용 소리 제어 방법.
PCT/KR2021/095088 2020-11-24 2021-10-28 청력보호용 소리 제어 시스템 및 방법 WO2022114935A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200158347A KR102293391B1 (ko) 2020-11-24 2020-11-24 청력보호용 소리 제어 시스템 및 방법
KR10-2020-0158347 2020-11-24

Publications (1)

Publication Number Publication Date
WO2022114935A1 true WO2022114935A1 (ko) 2022-06-02

Family

ID=77495046

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/095088 WO2022114935A1 (ko) 2020-11-24 2021-10-28 청력보호용 소리 제어 시스템 및 방법

Country Status (2)

Country Link
KR (1) KR102293391B1 (ko)
WO (1) WO2022114935A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102293391B1 (ko) * 2020-11-24 2021-08-25 (주)힐링사운드 청력보호용 소리 제어 시스템 및 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101647974B1 (ko) * 2015-03-30 2016-08-16 주식회사 이드웨어 스마트 믹싱 모듈을 갖춘 스마트 이어폰, 스마트 믹싱 모듈을 갖춘 기기, 외부음과 기기음을 혼합하는 방법 및 시스템
KR20160140161A (ko) * 2015-05-29 2016-12-07 민훈 노이즈 제거 기능이 구비된 이어폰 장치 및 노이즈 제거 방법
KR101888936B1 (ko) * 2017-03-10 2018-08-16 주식회사 파이브지티 지능형 능동 소음 제어 기반 청력 보호구
KR20200018965A (ko) * 2018-08-13 2020-02-21 대우조선해양 주식회사 공장 환경에서의 정보 소통 시스템 및 방법
KR102124760B1 (ko) * 2012-04-26 2020-06-19 씨러스 로직 인코포레이티드 이어스피커 채널들 중에서 적응형 잡음 제거(anc)의 조정된 제어
KR102293391B1 (ko) * 2020-11-24 2021-08-25 (주)힐링사운드 청력보호용 소리 제어 시스템 및 방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112015006654T5 (de) * 2015-06-26 2018-03-08 Harman International Industries, Incorporated Sportkopfhörer mit Situationsbewusstsein
KR101739441B1 (ko) 2015-12-03 2017-05-24 전자부품연구원 능동 소음 제어형 청력보호 방법 및 그 장치
KR102226132B1 (ko) * 2019-07-23 2021-03-09 엘지전자 주식회사 헤드셋 및 그의 구동 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102124760B1 (ko) * 2012-04-26 2020-06-19 씨러스 로직 인코포레이티드 이어스피커 채널들 중에서 적응형 잡음 제거(anc)의 조정된 제어
KR101647974B1 (ko) * 2015-03-30 2016-08-16 주식회사 이드웨어 스마트 믹싱 모듈을 갖춘 스마트 이어폰, 스마트 믹싱 모듈을 갖춘 기기, 외부음과 기기음을 혼합하는 방법 및 시스템
KR20160140161A (ko) * 2015-05-29 2016-12-07 민훈 노이즈 제거 기능이 구비된 이어폰 장치 및 노이즈 제거 방법
KR101888936B1 (ko) * 2017-03-10 2018-08-16 주식회사 파이브지티 지능형 능동 소음 제어 기반 청력 보호구
KR20200018965A (ko) * 2018-08-13 2020-02-21 대우조선해양 주식회사 공장 환경에서의 정보 소통 시스템 및 방법
KR102293391B1 (ko) * 2020-11-24 2021-08-25 (주)힐링사운드 청력보호용 소리 제어 시스템 및 방법

Also Published As

Publication number Publication date
KR102293391B1 (ko) 2021-08-25

Similar Documents

Publication Publication Date Title
US11671773B2 (en) Hearing aid device for hands free communication
JP6387429B2 (ja) Anrヘッドホンで周囲の自然さを提供すること
CN108028974B (zh) 多源音频放大和耳部保护装置
JP6055108B2 (ja) バイノーラルテレプレゼンス
JP6120980B2 (ja) 能動ヒアスルーを有するanrヘッドホンのためのユーザインターフェース
JP5956083B2 (ja) Anrヘッドホンでの閉塞効果低減処理
US20160302012A1 (en) Hearing Assistance Systems Configured To Detect And Provide Protection To The User From Harmful Conditions
US20150319546A1 (en) Hearing Assistance System
CN108551604B (zh) 一种降噪方法、降噪装置及降噪耳机
US7564980B2 (en) System and method for immersive simulation of hearing loss and auditory prostheses
CN109792572A (zh) 自适应电子听力保护装置
JP2018528485A (ja) 能動型雑音制御装置
JP2020512710A (ja) 音声明瞭度向上システム
US11689869B2 (en) Hearing device configured to utilize non-audio information to process audio signals
WO2016167877A1 (en) Hearing assistance systems configured to detect and provide protection to the user harmful conditions
US12058493B2 (en) Hearing device comprising an own voice processor
WO2022114935A1 (ko) 청력보호용 소리 제어 시스템 및 방법
WO2021112373A1 (ko) 치과 치료용 소리 제어 시스템 및 방법
US12081944B1 (en) Audio device apparatus for hearing impaired users
Chung et al. Modulation-based digital noise reduction for application to hearing protectors to reduce noise and maintain intelligibility
EP4440156A1 (en) A hearing system comprising a noise reduction system
CN118382046A (zh) 助听器及距离特定放大器
Chong-White et al. Evaluating Apple AirPods Pro 2 Hearing Protection and Listening

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21898760

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21898760

Country of ref document: EP

Kind code of ref document: A1