KR102293391B1 - Sound control system and method for protecting hearing - Google Patents

Sound control system and method for protecting hearing Download PDF

Info

Publication number
KR102293391B1
KR102293391B1 KR1020200158347A KR20200158347A KR102293391B1 KR 102293391 B1 KR102293391 B1 KR 102293391B1 KR 1020200158347 A KR1020200158347 A KR 1020200158347A KR 20200158347 A KR20200158347 A KR 20200158347A KR 102293391 B1 KR102293391 B1 KR 102293391B1
Authority
KR
South Korea
Prior art keywords
sound
data
output
control
user
Prior art date
Application number
KR1020200158347A
Other languages
Korean (ko)
Inventor
강준구
하경생
Original Assignee
(주)힐링사운드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)힐링사운드 filed Critical (주)힐링사운드
Priority to KR1020200158347A priority Critical patent/KR102293391B1/en
Application granted granted Critical
Publication of KR102293391B1 publication Critical patent/KR102293391B1/en
Priority to PCT/KR2021/095088 priority patent/WO2022114935A1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/10Applications
    • G10K2210/108Communication systems, e.g. where useful sound is kept and noise is cancelled
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/30Means
    • G10K2210/301Computational
    • G10K2210/3028Filtering, e.g. Kalman filters or special analogue or digital filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/025In the ear hearing aids [ITE] hearing aids
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/01Aspects of volume control, not necessarily automatic, in sound systems

Abstract

According to the present invention, provided is a sound control system for protecting hearing, which comprises: an ear wearing device having a speaker and a microphone converting a peripheral sound into an electrical signal to generate peripheral sound data and worn by a user's ear to be used; and a control device connected to communicate with the ear wearing device. The control device comprises: an analysis module analyzing a frequency characteristic of the peripheral sound data to generate frequency analysis data; and an output data generation module generating output sound data transmitted to the speaker. The output data generation module comprises an equalizer applying a gain value for each frequency in the peripheral sound data.

Description

청력보호용 소리 제어 시스템 및 방법 {SOUND CONTROL SYSTEM AND METHOD FOR PROTECTING HEARING}SOUND CONTROL SYSTEM AND METHOD FOR PROTECTING HEARING

본 발명은 소리 제어 기술에 관한 것으로서, 더욱 상세하게는 청력보호를 위한 소리 제어 기술에 관한 것이다.The present invention relates to sound control technology, and more particularly, to sound control technology for hearing protection.

환자를 치료함에 있어서 안락하고 편안한 환경을 조성하는 것은 무엇보다도 중요한 사항이다. 병을 어떠한 방식으로 치료하느냐에 따라 조용한 환경이 환자에게 제공될 수도 있는 반면, 치과 분야에서는 치료 과정에서 발생하는 날카롭고 고주파의 소음이 환자에게 불쾌감이나 공포감을 조성할 수 있다. 하지만, 이러한 고주파 소음에 노출된 환자를 보호할만한 대책은 미흡한 상황이다.Creating a comfortable and comfortable environment for treating patients is of utmost importance. Depending on how the disease is treated, a quiet environment may be provided to the patient, whereas in the dental field, sharp and high-frequency noise generated during the treatment process may create discomfort or fear in the patient. However, measures to protect patients exposed to such high-frequency noise are insufficient.

한편, 능동소음제어(ACTIVE NOISE CONTROL) 기술이란 헤드폰이나 이어폰에 별도로 부착되어 있는 마이크를 통해 주변의 소음을 수신하고, 그 소음을 상쇄시키는 상쇄간섭을 노이즈캔슬링 회로에서 발생시켜서 소음을 차단하는 기술이다. 종래에는 능동소음제어 기술을 헤드폰이나 이어폰에 구비시켜서, 멀티미디어 감상에 사용될 뿐이며, 다른 환경에서 다양하게 적용하기 위한 기술의 개발이 크게 이루어지지 않은 상황이다.On the other hand, ACTIVE NOISE CONTROL technology is a technology that blocks noise by receiving ambient noise through a microphone separately attached to headphones or earphones, and generating destructive interference that cancels out the noise in the noise canceling circuit. . Conventionally, the active noise control technology is provided in headphones or earphones, and is only used for multimedia appreciation, and the development of technology for various applications in other environments has not been significantly developed.

대한민국 등록특허공보 등록번호 10-1739441 "능동 소음 제어형 청력보호 방법 및 그 장치" (2017.05.24.)Republic of Korea Patent Publication No. 10-1739441 "Active noise control type hearing protection method and device" (2017.05.24.)

본 발명의 목적은 효과적으로 청력을 보호할 수 있는 소리 제어 시스템 및 방법을 제공하는 것이다.It is an object of the present invention to provide a sound control system and method capable of effectively protecting hearing.

상기한 본 발명의 목적을 달성하기 위하여, 본 발명의 일 측면에 따르면, 스피커와, 주변의 소리를 전기적 신호로 변환하여 주변소리 데이터를 생성하는 마이크를 구비하고, 사용자가 귀에 착용하여 사용하는 귀착용 장치; 및 상기 귀착용 장치와 통신 가능하게 연결되는 제어 장치를 포함하며, 상기 제어 장치는 상기 주변소리 데이터의 주파수 특성을 분석하여 주파수 분석 데이터를 생성하는 분석 모듈과, 상기 스피커로 전송되는 출력소리 데이터를 생성하는 출력데이터 생성 모듈을 구비하며, 상기 출력데이터 생성 모듈은 상기 주변소리 데이터에 주파수 별로 게인 값을 부여하는 이퀄라이저를 구비하는, 청력보호용 소리 제어 시스템 및 이를 이용한 소리 제어 방법이 제공된다.In order to achieve the above object of the present invention, according to one aspect of the present invention, a speaker and a microphone for generating ambient sound data by converting ambient sound into electrical signals are provided, and an ear worn by a user wearable device; and a control device communicatively connected to the ear-wearing device, wherein the control device includes an analysis module for generating frequency analysis data by analyzing frequency characteristics of the ambient sound data, and output sound data transmitted to the speaker. Provided are a sound control system for hearing protection and a sound control method using the same, comprising an output data generating module that generates the output data, wherein the output data generating module includes an equalizer that gives a gain value for each frequency to the ambient sound data.

본 발명에 의하면 앞서서 기재한 본 발명의 목적을 모두 달성할 수 있다. 구체적으로는, 제어 장치의 분석 모듈에 의해 주변소리의 주파수 특성이 분석되고, 제어 장치의 이퀄라이저에 의해 주변소리 데이터에 주파수 별로 게인 값을 부여되어서 귀착용 장치의 스피커로 전송되므로 사용자는 귀착용 장치를 통해 효과적으로 소음이 감소된 소리를 들을 수 있다.According to the present invention, all of the objects of the present invention described above can be achieved. Specifically, the frequency characteristics of the ambient sound are analyzed by the analysis module of the control device, and a gain value for each frequency is given to the ambient sound data by the equalizer of the control device and transmitted to the speaker of the ear device, so that the user can use the ear device. You can hear the sound with effectively reduced noise.

도 1은 본 발명의 일 실시예에 따른 청력보호용 소리 제어 시스템의 구성을 개략적으로 도시한 구성도이다.
도 2는 도 1에 도시된 본 발명의 일 실시예에 따른 청력보호용 소리 제어 시스템의 블록도이다.
도 3은 도 2에 도시된 청력보호용 소리 제어 시스템에서 출력 데이터 생성 모듈의 일 실시예에 따른 구성을 도시한 블록도이다.
도 4는 도 2에 도시된 청력보호용 소리 제어 시스템을 이용한 청력보호용 소리 제어 방법의 일 실시예를 개략적으로 설명하는 순서도이다.
1 is a configuration diagram schematically illustrating the configuration of a sound control system for hearing protection according to an embodiment of the present invention.
FIG. 2 is a block diagram of a sound control system for hearing protection according to an embodiment of the present invention shown in FIG. 1. Referring to FIG.
3 is a block diagram illustrating a configuration of an output data generating module in the hearing protection sound control system shown in FIG. 2 according to an embodiment.
FIG. 4 is a flowchart schematically illustrating an embodiment of a method for controlling sound for hearing protection using the sound control system for hearing protection shown in FIG. 2 .

이하, 도면을 참조하여 본 발명의 실시예의 구성 및 작용을 상세히 설명한다.Hereinafter, the configuration and operation of the embodiment of the present invention will be described in detail with reference to the drawings.

도 1에는 본 발명의 일 실시예에 따른 청력보호용 소리 제어 시스템의 구성이 개략적으로 도시되어 있고, 도 2에는 도 1에 도시된 본 발명의 일 실시예에 따른 청력보호용 소리 제어 시스템이 블록도로서 도시되어 있다. 도 1과 도 2를 참조하면, 본 발명의 일 실시예에 따른 청력보호용 소리 제어 시스템(100)은, 사용자가 귀에 착용하는 귀착용 장치(110)와, 귀착용 장치(110)와 데이터를 주고받으면서 사용자의 환경에 적합한 출력소리 데이터를 생성하는 제어 장치(120)를 포함한다. 본 실시예에서 사용자는 귀착용 장치(110)를 귀에 착용하는 사람을 의미한다.1 schematically shows the configuration of a hearing protection sound control system according to an embodiment of the present invention, and FIG. 2 is a block diagram of a hearing protection sound control system according to an embodiment of the present invention shown in FIG. is shown. 1 and 2 , the hearing protection sound control system 100 according to an embodiment of the present invention transmits data with an ear-wearing device 110 worn by a user on the ear, and the ear-wearing device 110 . and a control device 120 that generates output sound data suitable for the user's environment while receiving it. In this embodiment, a user means a person who wears the ear-wearing device 110 on an ear.

귀착용 장치(110)는 사용자가 귀에 착용하여 사용하는 것으로서, 이어폰(earphone) 또는 헤드폰(headphone)과 같은 형태일 수 있다. 귀착용 장치(110)는 주변의 소리를 전기적 신호로 변환하여 주변소리 데이터를 생성하는 마이크(111)와, 제어 장치(120)에서 생성된 전기적 소리 신호인 출력소리 데이터를 음파로 변환하여 사용자가 들을 수 있도록 하는 스피커(115)와, 귀착용 장치(110)를 제어 장치(120)와 통신 가능하게 연결시키는 통신부(118)를 구비한다. 귀착용 장치(110)는 사용자가 귀에 착용한 상태에서 주변소리 데이터를 제어 장치(120)로 전송하고 제어 장치(120)로부터 전송되는 출력소리 데이터를 사용자가 들을 수 있도록 음파로 변환한다.The ear-wearing device 110 is used by a user on the ear, and may be in the form of an earphone or a headphone. The ear-wearing device 110 converts the output sound data, which is the electrical sound signal generated by the microphone 111 and the control device 120, which is an electrical sound signal generated by the microphone 111 for generating the surrounding sound data by converting the surrounding sound into an electrical signal, into a sound wave, so that the user It includes a speaker 115 for audible, and a communication unit 118 for communicatively connecting the ear-mounted device 110 to the control device 120 . The in-ear device 110 transmits ambient sound data to the control device 120 in a state in which the user wears the ear, and converts the output sound data transmitted from the control device 120 into sound waves so that the user can hear it.

마이크(111)는 귀착용 장치(110)를 귀에 착용하여 사용하는 사용자의 주변에서 발생하는 주변소리를 전기적 신호로 변환하여 주변소리 데이터를 생성한다. 주변소리는 음성을 포함할 수 있다. 본 실시예에서 주변소리에서 음성을 제외한 소리를 비음성이라 정의하며, 비음성은 소음을 포함한다. 마이크(111)에서 생성된 주변소리 데이터는 통신부(118)를 통해 제어 장치(120)로 전송된다.The microphone 111 generates ambient sound data by converting the ambient sound generated in the vicinity of the user who wears the ear-mounted device 110 to the ear into an electrical signal. Ambient sounds may include voices. In the present embodiment, a sound excluding a voice from the ambient sound is defined as a non-voice, and the non-voice includes noise. The ambient sound data generated by the microphone 111 is transmitted to the control device 120 through the communication unit 118 .

스피커(115)는 제어 장치(120)에서 생성된 전기적 소리 신호인 출력소리 데이터를 음파로 변환하여 귀착용 장치(110)를 귀에 착용하여 사용하는 사용자가 들을 수 있도록 한다. 스피커(115)는 제어 장치(120)에서 생성된 출력소리 데이터를 통신부(118)를 통해 전송받는다.The speaker 115 converts output sound data, which is an electrical sound signal generated by the control device 120, into sound waves so that a user who wears the ear-mounted device 110 on an ear can hear it. The speaker 115 receives the output sound data generated by the control device 120 through the communication unit 118 .

통신부(118)는 귀착용 장치(110)를 제어 장치(120)와 통신 가능하게 연결시킨다. 통신부(118)는 마이크(111)에서 생성된 주변소리 데이터를 제어 장치(120)로 전송하고, 제어 장치(120)로부터 출력소리 데이터를 전송받는다. 통신부(118)는 다양한 형태의 유·무선 통신 기술을 이용할 수 있는데, 본 실시예에서는 통신부(118)가 블루투스(bluetooth)와 같은 근거리 무선 통신 기술을 이용하는 것으로 설명한다.The communication unit 118 communicatively connects the ear device 110 to the control device 120 . The communication unit 118 transmits the ambient sound data generated by the microphone 111 to the control device 120 , and receives output sound data from the control device 120 . The communication unit 118 may use various types of wired/wireless communication technology. In this embodiment, the communication unit 118 will be described as using a short-range wireless communication technology such as Bluetooth.

제어 장치(120)는 귀착용 장치(110)로부터 전송되는 주변소리 데이터를 분석하여 이에 대응하는 출력소리 데이터를 사용자가 설정하는 소리 제어 설정 사항에 따라 생성하여 귀착용 장치(110)로 전송한다. 제어 장치(120)는 제어 장치(120)를 귀착용 장치(110)와 통신 가능하게 연결시키는 통신부(130)와, 통신부(130)를 통해 귀착용 장치(110)로부터 전송된 주변소리 데이터를 분석하는 분석 모듈(140)과, 사용자와 제어 장치(120)의 사이를 연결하고 사용자가 제어 장치(120)에 의한 소리 제어 설정 사항을 설정할 수 있는 사용자 인터페이스(150)와, 출력소리 데이터 생성을 위한 소리 데이터가 저장된 소리 데이터베이스(160)와, 복수개의 음원들이 저장된 음원 데이터베이스(170)와, 귀착용 장치(110)로 전송되는 출력소리 데이터를 생성하는 출력데이터 생성 모듈(180)을 포함한다. 본 실시예에서는 제어 장치(120)가 사용자가 휴대하고 다니는 스마트폰 또는 태블릿 피씨와 같은 개인 휴대형 통신 단말기인 것으로 설명하지만, 본 발명은 이에 제한되는 것은 아니다.The control device 120 analyzes the ambient sound data transmitted from the in-ear device 110 , generates output sound data corresponding thereto according to sound control settings set by the user, and transmits it to the in-ear device 110 . The control device 120 analyzes the ambient sound data transmitted from the communication unit 130 and the communication unit 130 for communicatively connecting the control device 120 to the ear device 110 , and the communication unit 130 . and a user interface 150 that connects between the user and the control device 120 and allows the user to set sound control settings by the control device 120, and for generating output sound data It includes a sound database 160 in which sound data is stored, a sound source database 170 in which a plurality of sound sources are stored, and an output data generation module 180 that generates output sound data transmitted to the ear device 110 . In the present embodiment, the control device 120 is described as a personal portable communication terminal such as a smart phone or tablet PC carried by the user, but the present invention is not limited thereto.

통신부(130)는 제어 장치(120)를 귀착용 장치(110)와 통신 가능하게 연결시킨다. 통신부(130)는 귀착용 장치(110)로부터 주변소리 데이터를 전송받고, 출력데이터 생성모듈(180)에서 생성된 출력소리 데이터를 귀착용 장치(110)로 전송한다. 통신부(118)는 다양한 형태의 유·무선 통신 기술을 이용할 수 있는데, 본 실시예에서는 통신부(130)가 블루투스(bluetooth)와 같은 근거리 무선 통신 기술을 이용하는 것으로 설명한다.The communication unit 130 communicatively connects the control device 120 with the ear device 110 . The communication unit 130 receives the ambient sound data from the ear-to-ear device 110 , and transmits the output sound data generated by the output data generating module 180 to the ear-to-ear device 110 . The communication unit 118 may use various types of wired/wireless communication technology. In this embodiment, the communication unit 130 will be described as using a short-range wireless communication technology such as Bluetooth.

분석 모듈(140)은 통신부(130)를 통해 귀착용 장치(110)로부터 전송된 주변소리 데이터를 분석한다. 구체적으로 분석 모듈(140)은 FFT(Fast Fourier Transform)과 같은 방식을 이용하여 주변소리 데이터의 주파수 특성을 분석하여 주파수 분석 데이터를 생성한다. 분석 모듈(140)에서 생성된 주파수 분석 데이터는 출력데이터 생성 모듈(180)에 제공된다.The analysis module 140 analyzes the ambient sound data transmitted from the ear device 110 through the communication unit 130 . Specifically, the analysis module 140 generates frequency analysis data by analyzing the frequency characteristics of the ambient sound data using a method such as FFT (Fast Fourier Transform). The frequency analysis data generated by the analysis module 140 is provided to the output data generation module 180 .

사용자 인터페이스(150)는 사용자와 제어 장치(120)의 사이를 연결한다. 사용자는 사용자 인터페이스(150)를 이용하여 제어 장치(120)의 소리 제어 환경을 설정한다. 사용자 인터페이스(150)를 통한 소리 제어 환경의 설정 사항에 의해 출력데이터 생성 모듈(180)에 의한 구체적인 출력소리 데이터의 생성 형태가 결정된다.The user interface 150 connects the user and the control device 120 . The user sets the sound control environment of the control device 120 using the user interface 150 . A specific type of output sound data generation by the output data generation module 180 is determined according to the settings of the sound control environment through the user interface 150 .

소리 데이터베이스(160)는 출력소리 데이터의 생성을 위한 소리 데이터를 저장한다. 소리 데이터베이스(160)에 저장된 소리 데이터는 특정 비음성 데이터와 특정 음성 데이터를 포함한다. 본 실시예에서 소리 데이터베이스(160)에 저장된 특정 비음성 데이터와 특정 음성 데이터는 통상적인 딥러닝 기술에 의해 생성되는 것으로 설명한다. 소리 데이터베이스(160)에 저장된 특정 비음성 데이터는 예를 들어서 치과에서 치료 과정에서 발생하는 고주파의 소음, 소아의 울음 소리, 군부대에서의 사격음, 화재 경보음 등일 수 있고, 소리 데이터베이스(160)에 저장된 특정 음성은 예를 들어서 치과나 병원 응급실에서 담당 의료진의 음성일 수 있다. 치과의 경우 사용자는 치료를 받는 환자가 된다. 소리 데이터베이스(160)에 저장된 소리 데이터는 사용자 인터페이스(150)에서의 사용자의 소리 제어 설정에 따라 출력데이터 생성 모듈(180)로 제공되어서 출력소리 데이터의 생성에 사용된다.The sound database 160 stores sound data for generating output sound data. The sound data stored in the sound database 160 includes specific non-voice data and specific voice data. In this embodiment, it will be described that the specific non-voice data and specific voice data stored in the sound database 160 are generated by a typical deep learning technique. The specific non-voice data stored in the sound database 160 may be, for example, high-frequency noise generated in the course of treatment in a dentistry, a cry of a child, a shooting sound in a military unit, a fire alarm sound, etc., and is stored in the sound database 160. The stored specific voice may be, for example, a voice of a medical staff in charge in a dental office or a hospital emergency room. In the case of dentistry, the user is the patient receiving the treatment. The sound data stored in the sound database 160 is provided to the output data generation module 180 according to the user's sound control setting in the user interface 150 and is used to generate the output sound data.

음원 데이터베이스(170)는 사용자에게 제공되는 복수개의 음원들을 저장하고 사용자 인터페이스(150)를 통해 사용자에 의해 선택된 음원을 출력데이터 생성 모듈(180)로 제공한다. 음원 데이터베이스(170)에는 비, 바람, 천둥, 개울, 벽난로, 파도, 새 소리 등 사용자의 심신을 안정시킬 수 있는 소리와, 사용자가 선호하는 음악 등이 저장되어 있다. 또한 음원 데이터베이스(170)은 제어 장치(120)에 저장된 것뿐만 아니라 음원 스트리밍 서비스를 제공하는 외부 응용프로그램(예를 들어, 유로 음원 서비스인 '멜론')일 수 있으며, 이 또한 본 발명의 범위에 속하는 것이다. 음원 데이터베이스(170)에 저장되는 음원은 비, 바람, 천둥, 개울, 벽난로, 파도, 새 소리 등의 기본 음원과, 복수개의 기본 음원들이 사용자에 의해 혼합되어서 생성된 혼합 음원을 포함한다. 음원 데이터베이스(170)에 저장된 음원들 중 하나는 사용자 인터페이스(150)에서의 사용자의 소리 제어 설정에 따라 출력소리 데이터로 귀착용 장치(110)에 전송될 수 있다.The sound source database 170 stores a plurality of sound sources provided to the user and provides the sound source selected by the user through the user interface 150 to the output data generating module 180 . The sound source database 170 stores sounds that can calm the user's mind and body, such as rain, wind, thunder, streams, fireplaces, waves, and birds, as well as music preferred by the user. In addition, the sound source database 170 may be not only stored in the control device 120 but also an external application program that provides a sound source streaming service (eg, 'Melon', a Euro sound source service), which is also within the scope of the present invention. will belong The sound source stored in the sound source database 170 includes a basic sound source such as rain, wind, thunder, a stream, a fireplace, a wave, a bird sound, and a mixed sound source generated by mixing a plurality of basic sound sources by a user. One of the sound sources stored in the sound source database 170 may be transmitted to the ear-to-ear device 110 as output sound data according to a user's sound control setting in the user interface 150 .

출력데이터 생성 모듈(180)은 사용자 인터페이스(150)에서 설정된 사용자의 소리 제어 환경 조건에 따라 귀착용 장치(110)로 전송되는 출력소리 데이터를 생성한다. 출력데이터 생성 모듈(180)은 출력소리 데이터를 생성하기 위하여, 분석 모듈(140)에서 생성된 주변소리 데이터에 대한 주파수 분석 데이터, 사용자 인터페이스(150)를 통해 생성된 소리 제어 환경 설정 데이터, 소리 데이터베이스(160)에 저장된 소리 데이터 및 음원 데이터베이스(170)에 저장된 음원을 전송받는다. 도 3에는 출력데이터 생성 모듈(180)의 구성이 블록도로서 도시되어 있다. 도 3을 참조하면, 출력데이터 생성 모듈(180)은 이퀄라이저(equalizer)(181)와, 소음 필터부(184)와, VAD 수행부(188)와, 음원 볼륨 조절부(189)를 구비한다.The output data generating module 180 generates output sound data transmitted to the ear-wearing device 110 according to the user's sound control environment condition set in the user interface 150 . The output data generation module 180 generates the output sound data, frequency analysis data for the ambient sound data generated by the analysis module 140, the sound control environment setting data generated through the user interface 150, the sound database The sound data stored in 160 and the sound source stored in the sound source database 170 are transmitted. 3 shows the configuration of the output data generating module 180 as a block diagram. Referring to FIG. 3 , the output data generating module 180 includes an equalizer 181 , a noise filter unit 184 , a VAD performing unit 188 , and a sound source volume control unit 189 .

이퀄라이저(181)는 분석 모듈(140)에서 생성된 주변 소리 데이터에 대한 주파수 분석 데이터를 기반으로 주변 소리 데이터를 주파수 별로 게인(gain) 값을 부여하여 주파수 별로 감쇠시키거나 증폭시킨다. 이퀄라이저(181)의 주파수 별 게인 값은 사용자에 의한 소리 제어 설정에 따라서 자동으로 조정되거나, 수동으로 조정될 수 있다. 이와는 달리 사용자는 사전에 설정되어서 저장된 주파수 별 게인 값을 이용할 수도 있다. 또한, 사용자는 수동으로 조정한 이퀄라이저(181)의 주파수 별 게인 값을 저장하고, 이후에 불러와서 사용할 수 있다. 사전 설정된 이퀄라이저(181)는 복수의 사용자들이 공유할 수 있으며, 우수한 평가를 받은 사전 설정 퀄라이저를 생성한 사용자에게는 다양한 형태의 보상이 부여될 수 있다. 이퀄라이저(181)의 주파수 별 게인 값은 분석 모듈(140)에서 생성된 주변 소리 데이터에 대한 주파수 분석 데이터에 따라 소음은 감쇠되고, 음성은 증폭되도록 최적으로 조정된다.The equalizer 181 attenuates or amplifies the ambient sound data for each frequency by giving a gain value for each frequency based on the frequency analysis data for the ambient sound data generated by the analysis module 140 . The gain value for each frequency of the equalizer 181 may be automatically adjusted or manually adjusted according to a sound control setting by a user. Alternatively, the user may use a preset and stored gain value for each frequency. In addition, the user can store the manually adjusted gain value for each frequency of the equalizer 181, and then call and use it. The preset equalizer 181 may be shared by a plurality of users, and various types of rewards may be given to the user who creates the preset equalizer with excellent evaluation. The gain value for each frequency of the equalizer 181 is optimally adjusted so that noise is attenuated and voice is amplified according to frequency analysis data for ambient sound data generated by the analysis module 140 .

소음 필터부(184)는 분석 모듈(140)에서 생성된 주변 소리 데이터에 대한 주파수 분석 데이터를 기반으로 주변 소리 데이터에 대한 필터링을 수행한다. 소음 필터부(184)는 저역 필터(LPF : Low Pass Filter) 또는 노치 필터(Notch Filter)를 사용할 수 있다. 저역 필터(LPF)는 주변 소리 데이터에서 저주파수 대역은 통과시키고 고주파수 대역은 막아서, 상대적으로 고주파 대역에 분포하는 고주파 소음을 저감하거나 차단한다. 치과에서는 약 3500Hz 이상의 고주파 대역을 막는 것이 바람직하다. 노치 필터는 특정 주파수 대역의 성분만을 제거하는 필터이다.The noise filter unit 184 filters the ambient sound data based on the frequency analysis data for the ambient sound data generated by the analysis module 140 . The noise filter unit 184 may use a low pass filter (LPF) or a notch filter. The low-pass filter (LPF) reduces or blocks high-frequency noise distributed in a relatively high-frequency band by passing a low-frequency band and blocking a high-frequency band in the ambient sound data. In dentistry, it is desirable to block a high frequency band of about 3500 Hz or higher. The notch filter is a filter that removes only components of a specific frequency band.

VAD 수행부(188)는 주변 소리 데이터에 대한 VAD 기능을 수행한다. VAD(Voice Activity Dection)은 신호의 구간마다 일정한 형태의 특징값을 추출하고, 추출된 특징값을 분석하여 해당 구간이 음성 또는 비음성에 속하는지 판별하는 기술로서, 구체적인 구성은 통상적인 VAD를 포함하므로 이에 대한 상세한 설명은 생략한다. The VAD performing unit 188 performs a VAD function on the ambient sound data. VAD (Voice Activity Dection) is a technology that extracts a certain type of feature value for each section of a signal and analyzes the extracted feature value to determine whether the section belongs to a voice or a non-voice, and the specific configuration includes a typical VAD Therefore, a detailed description thereof will be omitted.

음원 볼륨 조절부(189)는 분석 모듈(140)에서 생성된 주변 소리 데이터에 대한 주파수 분석 데이터를 기반으로 사용자에 의한 소리 제어 설정에 따라서 음원 데이터베이스(170)에 저장된 음원의 출력 볼륨을 자동으로 조절한다. The sound source volume control unit 189 automatically adjusts the output volume of the sound source stored in the sound source database 170 according to the sound control setting by the user based on the frequency analysis data for the ambient sound data generated by the analysis module 140 . do.

도 4에는 도 1 및 도 2에 도시된 청력보호용 소리 제어 시스템을 이용한 본 발명의 일 실시예에 따른 청력보호용 소리 제어 방법이 순서도로서 도시되어 있다. 도 4를 참조하면, 본 발명의 일 실시예에 따른 청력보호용 소리 제어 방법은, 도 1 내지 도 2에 도시된 청력보호용 소리 제어 시스템(100)을 이용하는 것으로서, 사용자 인터페이스(150)를 통해 사용자에 의해 소리 제어 환경이 설정되는 제어 환경 설정 단계(S110)와, 분석 모듈(140)에 의해 주변소리 데이터의 주파수 특성이 분석되어서 주파수 분석 데이터가 생성되는 주변소리 분석 단계(S120)와, 이퀄라이저(도 3의 181)에 의한 주파수 별 감쇠 및 증폭이 수행되는 이퀄라이제이션 단계(S130)와, 소음 필터부(도 3의 184)에 의한 주변 소리 데이터에 대한 필터링이 수행되는 필터링 단계(S140)와, VAD 수행부(도 3의 188)에 의한 주변 소리 데이터에 대한 VAD 기능이 수행되는 VAD 기능 수행 단계(S150)와, 음원 볼륨 조절부(도 3의 189)에 의한 음원의 소리 크기가 조절되는 음원 볼륨 조절 단계(S160)를 포함한다.4 is a flowchart illustrating a method for controlling a sound for hearing protection according to an embodiment of the present invention using the sound control system for hearing protection shown in FIGS. 1 and 2 . Referring to FIG. 4 , the hearing protection sound control method according to an embodiment of the present invention uses the hearing protection sound control system 100 shown in FIGS. 1 to 2 , and provides a user with a user interface 150 . A control environment setting step (S110), in which a sound control environment is set by the Equalization step (S130) in which attenuation and amplification for each frequency is performed by 181 of 3), filtering step (S140) in which filtering of ambient sound data by the noise filter unit (184 in FIG. 3) is performed, and VAD The VAD function performing step (S150) in which the VAD function for the ambient sound data is performed by the unit (188 in FIG. 3), and the sound source volume control in which the sound volume of the sound source is adjusted by the sound source volume control unit (189 in FIG. 3) Step S160 is included.

제어 환경 설정 단계(S110)에서는 사용자 인터페이스(150)를 통해 사용자에 의해 소리 제어 환경이 설정된다. 구체적으로, 제어 환경 설정 단계(S110)에서는 이퀄라이저(도 3의 181)에 의한 이퀄라이제이션(equalization) 방식, 소음 필터부(도 3의 184)에 의한 필터링 방식이 설정된다.In the control environment setting step S110 , the sound control environment is set by the user through the user interface 150 . Specifically, in the control environment setting step S110 , an equalization method by the equalizer ( 181 in FIG. 3 ) and a filtering method by the noise filter unit ( 184 in FIG. 3 ) are set.

이퀄라이제이션 방식의 경우, 사용자 인터페이스(150)를 통해 사용자가 자동 이퀄라이제이션 기능 사용, 수동 이퀄라이제이션 기능 사용 및 사전 설정 이퀄라이제이션 기능 사용 중 어느 하나를 선택할 수 있도록 한다. 사용자가 수동 이퀄라이제이션 기능의 사용을 선택하면, 사용자 인터페이스(150)는 사용자가 수동으로 이퀄라이저(도 3의 181) 주파수 별 게인 값을 조정할 수 있도록 주파수 조정 창을 출력한다. 사용자가 사전 설정 이퀄라이제이션 기능의 사용을 선택하면, 사용자 인터페이스(150)는 사전에 설정되어서 저장된 복수개의 이퀄라이제이션들 출력하여 사용자가 선택할 수 있도록 한다.In the case of the equalization method, through the user interface 150, the user can select any one of using the automatic equalization function, using the manual equalization function, and using the preset equalization function. When the user selects to use the manual equalization function, the user interface 150 outputs a frequency adjustment window so that the user can manually adjust the gain value for each frequency of the equalizer ( 181 in FIG. 3 ). When the user selects to use the preset equalization function, the user interface 150 outputs a plurality of preset and stored equalizations so that the user can select them.

필터링 방식의 경우, 사용자 인터페이스(150)를 통해 사용자가 저역 필터와 노치 필터 등을 포함하는 복수개의 필터들 중 하나를 선택할 수 있도록 한다. 이때, 사용자는 사용자 인터페이스(150)를 통해 필터의 필터링 대역을 설정할 수 있다.In the case of the filtering method, a user can select one of a plurality of filters including a low-pass filter and a notch filter through the user interface 150 . In this case, the user may set the filtering band of the filter through the user interface 150 .

추가로 제어 환경 설정 단계(S110)에서는 사용자 인터페이스(150)를 통해 사용자가 소리 제어 시스템(100)이 사용되는 주위 환경을 설정할 수도 있다. 예를 들어서, 사용자는 치과, 사격장 등 소음 발생 지역을 선택할 수 있고, 이에 대응하여 최적의 이퀄라이제이션 방식과 필터링 방식이 자동으로 선택될 수도 있다.Additionally, in the control environment setting step ( S110 ), the user may set the surrounding environment in which the sound control system 100 is used through the user interface 150 . For example, the user may select a noise generating area, such as a dental office or a shooting range, and an optimal equalization method and filtering method may be automatically selected in response thereto.

주변소리 분석 단계(S120)에서는 분석 모듈(140)에 의해 주변소리 데이터의 주파수 특성이 분석된다. 주변소리 분석 단계(S120)에서 분석 모듈(140)은 통신부(130)를 통해 귀착용 장치(110)로부터 전송된 주변소리 데이터를 분석한다. 구체적으로 분석 모듈(140)은 FFT(Fast Fourier Transform)과 같은 방식을 이용하여 주변소리 데이터의 주파수 특성을 분석하여 주파수 분석 데이터를 생성한다.In the ambient sound analysis step ( S120 ), the frequency characteristic of the ambient sound data is analyzed by the analysis module 140 . In the ambient sound analysis step ( S120 ), the analysis module 140 analyzes the ambient sound data transmitted from the in-ear device 110 through the communication unit 130 . Specifically, the analysis module 140 generates frequency analysis data by analyzing the frequency characteristics of the ambient sound data using a method such as FFT (Fast Fourier Transform).

이퀄라이제이션 단계(S130)에서는 이퀄라이저(도 3의 181)에 의한 주파수 별 감쇠 및 증폭이 수행된다. 이퀄라이제이션 단계(S130)에서 사용되는 이퀄라이저는 제어 환경 설정 단계(S110)에서 사용자에 의해 선택된 것이다. 제어 환경 설정 단계(S110)에서 자동 이퀄라이제이션이 선택된 경우 이퀄라이제이션 단계(S130)에서는 주변소리 분석 단계(S120)를 통해 생성된 주변소리에 대한 주파수 분석 데이터를 기반으로 주파수 별로 소음을 최소화할 수 있도록 주파수 별로 게인(gain) 값이 자동으로 설정된다.In the equalization step ( S130 ), attenuation and amplification for each frequency are performed by the equalizer ( 181 in FIG. 3 ). The equalizer used in the equalization step S130 is selected by the user in the control environment setting step S110. When automatic equalization is selected in the control environment setting step (S110), in the equalization step (S130), based on the frequency analysis data for the ambient sound generated through the ambient sound analysis step (S120), the noise can be minimized for each frequency by frequency. The gain value is set automatically.

필터링 단계(S140)에서는 소음 필터부(도 3의 184)에 의한 주변 소리 데이터에 대한 필터링이 수행된다. 필터링 단계(S140)에서 사용되는 소음 차단 필터는 제어 환경 설정 단계(S110)에서 사용자에 의해 선택된 것이다.In the filtering step ( S140 ), filtering is performed on the ambient sound data by the noise filter unit ( 184 of FIG. 3 ). The noise cut filter used in the filtering step S140 is selected by the user in the control environment setting step S110.

VAD 기능 수행 단계(S150)에서는 VAD 수행부(도 3의 188)에 의한 주변 소리 데이터에 대한 VAD 기능이 수행된다. VAD(Voice Activity Dection)은 주변 소리 데이터의 신호의 구간마다 일정한 형태의 특징값을 추출하고, 추출된 특징값을 분석하여 해당 구간이 음성 또는 비음성에 속하는지 판별한다. VAD 기능 수행 단계(S150)에서 소리 데이터베이스(도 2의 160)에 저장된 데이터를 이용하여 특정 음성(예를 들어, 치과 치료 과정에서 환자를 치료하는 담당 의료진의 목소리)에 대한 인식 및 특정 소음과 같은 비음성에 대한 인식도 함께 수행될 수 있다.In the VAD function execution step ( S150 ), the VAD function is performed on the ambient sound data by the VAD performing unit ( 188 in FIG. 3 ). VAD (Voice Activity Dection) extracts a characteristic value of a certain form for each section of the signal of the ambient sound data, and analyzes the extracted feature value to determine whether the section belongs to a voice or a non-voice. In the VAD function performing step (S150), using the data stored in the sound database (160 in FIG. 2), recognition of a specific voice (eg, the voice of a medical staff in charge of treating a patient in the course of dental treatment) and a specific noise Recognition of non-voice may also be performed.

음원 볼륨 조절 단계(S160)에서는 음원 볼륨 조절부(도 3의 189)에 의한 음원의 소리 크기가 자동으로 조절된다. 음원 데이터베이스(170)에 저장된 음원 중 하나가 스피커(도 2의 115)를 통해 출력되는 중에 VAD 기능 수행 단계(S150)에서 음성이 인식되거나 비음성 중에서도 경보음과 같이 필요한 소리가 인식되는 경우에는 재생 중인 음원의 볼륨을 줄인다. 또한, 불필요한 소음이 갑자기 인식되는 경우 반대로 재생 중인 음원의 볼륨을 높인다.In the sound source volume control step ( S160 ), the sound volume of the sound source is automatically adjusted by the sound source volume control unit ( 189 in FIG. 3 ). While one of the sound sources stored in the sound source database 170 is output through the speaker (115 in FIG. 2), when a voice is recognized in the VAD function performing step (S150) or a necessary sound such as an alarm sound is recognized among non-voices, it is played Reduce the volume of the current sound source. In addition, when unnecessary noise is suddenly recognized, the volume of the sound source being reproduced is increased.

이상 실시예를 통해 본 발명을 설명하였으나, 본 발명은 이에 제한되는 것은 아니다. 상기 실시예는 본 발명의 취지 및 범위를 벗어나지 않고 수정되거나 변경될 수 있으며, 본 기술분야의 통상의 기술자는 이러한 수정과 변경도 본 발명에 속하는 것임을 알 수 있을 것이다.Although the present invention has been described through the above examples, the present invention is not limited thereto. The above embodiments may be modified or changed without departing from the spirit and scope of the present invention, and those skilled in the art will recognize that such modifications and changes also belong to the present invention.

100 : 청력보호용 소리 제어 시스템 110 : 귀착용 장치
111 : 마이크 115 : 스피커
120 : 제어 장치 140: 분석 모듈
150 : 사용자 인터페이스 160 : 소리 데이터베이스
170 : 음원 데이터베이스 180 : 출력데이터 생성 모듈
181 : 이퀄라이저 184 : 소음 필터부
188 : VAD 수행부 189 : 음원 볼륜 조절부
100: sound control system for hearing protection 110: ear device
111: microphone 115: speaker
120: control unit 140: analysis module
150: user interface 160: sound database
170: sound source database 180: output data generation module
181: equalizer 184: noise filter unit
188: VAD execution unit 189: sound source ball wheel control unit

Claims (14)

스피커와, 주변의 소리를 전기적 신호로 변환하여 주변소리 데이터를 생성하는 마이크를 구비하고, 사용자가 귀에 착용하여 사용하는 귀착용 장치; 및
상기 귀착용 장치와 통신 가능하게 연결되는 제어 장치를 포함하며,
상기 제어 장치는 상기 주변소리 데이터의 주파수 특성을 분석하여 주파수 분석 데이터를 생성하는 분석 모듈과, 상기 사용자가 소리 제어 설정 사항을 설정할 수 있도록 하는 사용자 인터페이스와, 상기 스피커로 전송되는 출력소리 데이터를 생성하는 출력데이터 생성 모듈을 구비하며,
상기 출력데이터 생성 모듈은 상기 주변소리 데이터에 주파수 별로 게인 값을 부여하는 이퀄라이저를 구비하며,
상기 사용자 인터페이스는 상기 사용자가 특정 소음 발생 지역을 선택할 수 있도록 하며,
상기 출력데이터 생성 모듈은 상기 사용자에 의해 선택된 특정 소음 발생 지역에 대응하여 저장된 복수개의 이퀄라이제이션 방식들 중 최적의 이퀄라이제이션 방식을 자동으로 선택하는,
청력보호용 소리 제어 시스템.
an ear-wearing device comprising a speaker and a microphone for generating ambient sound data by converting ambient sound into an electrical signal, the user wearing it on the ear; and
a control device communicatively coupled to the ear device;
The control device generates an analysis module for generating frequency analysis data by analyzing frequency characteristics of the ambient sound data, a user interface for allowing the user to set sound control settings, and output sound data transmitted to the speaker and an output data generating module that
The output data generating module includes an equalizer that gives a gain value for each frequency to the ambient sound data,
The user interface allows the user to select a specific noise generating area,
The output data generation module automatically selects an optimal equalization method from among a plurality of equalization methods stored in response to a specific noise generation region selected by the user,
Hearing protection sound control system.
삭제delete 삭제delete 청구항 1에 있어서,
상기 출력데이터 생성 모듈은 상기 주변소리 데이터에 대한 필터링을 수행하는 소음 필터부를 더 구비하는,
청력보호용 소리 제어 시스템.
The method according to claim 1,
The output data generation module further comprises a noise filter unit for filtering the ambient sound data,
Hearing protection sound control system.
청구항 4에 있어서,
상기 소음 필터부는 저역 필터(LPF)를 구비하는,
청력보호용 소리 제어 시스템.
5. The method according to claim 4,
The noise filter unit having a low-pass filter (LPF),
Hearing protection sound control system.
청구항 4에 있어서,
상기 소음 필터부는 노치 필터(Notch Filter)를 구비하는,
청력보호용 소리 제어 시스템.
5. The method according to claim 4,
The noise filter unit having a notch filter,
Hearing protection sound control system.
청구항 1에 있어서,
상기 제어 장치는 상기 주변소리 데이터에 대한 VAD(Voice Activity Detection)을 수행하는 VAD 수행부를 더 구비하는,
청력보호용 소리 제어 시스템.
The method according to claim 1,
The control device further comprises a VAD performing unit for performing VAD (Voice Activity Detection) on the ambient sound data,
Hearing protection sound control system.
청구항 1에 있어서,
상기 제어 장치는 딥러닝 기술에 의해 생성된 특정 소리 데이터가 저장된 소리 데이터베이스를 더 구비하며,
상기 출력데이터 생성 모듈은 상기 주변소리 데이터에서 상기 특정 소리 데이터를 인식하여 상기 출력소리 데이터를 생성하는,
청력보호용 소리 제어 시스템.
The method according to claim 1,
The control device further includes a sound database in which specific sound data generated by deep learning technology is stored,
The output data generating module generates the output sound data by recognizing the specific sound data from the ambient sound data,
Hearing protection sound control system.
청구항 1에 있어서,
상기 제어 장치는 상기 스피커를 통해 출력되는 음원이 저장된 음원 데이터베이스를 더 구비하며,
상기 출력데이터 생성 모듈은 상기 음원의 출력 볼륨을 자동으로 조절하는 음원 볼륨 조절부를 더 구비하는,
청력보호용 소리 제어 시스템.
The method according to claim 1,
The control device further includes a sound source database in which the sound source output through the speaker is stored,
The output data generation module further comprises a sound source volume control unit for automatically adjusting the output volume of the sound source,
Hearing protection sound control system.
청구항 9에 있어서,
상기 제어 장치는 특정 음성 데이터가 저장된 소리 데이터베이스를 더 구비하며,
상기 출력데이터 생성 모듈이 주파수 분석 데이터를 기반으로 상기 특정 음성 데이터를 인식하면 상기 음원 볼륨 조절부가 출력 중인 음원의 볼륨을 줄이는,
청력보호용 소리 제어 시스템.
10. The method of claim 9,
The control device further includes a sound database in which specific voice data is stored,
When the output data generation module recognizes the specific voice data based on the frequency analysis data, the sound source volume control unit reduces the volume of the sound source being output,
Hearing protection sound control system.
스피커와, 주변의 소리를 전기적 신호로 변환하여 주변소리 데이터를 생성하는 마이크를 구비하고, 사용자가 귀에 착용하여 사용하는 귀착용 장치; 및 상기 귀착용 장치와 통신 가능하게 연결되는 제어 장치를 포함하며, 상기 제어 장치는 상기 주변소리 데이터의 주파수 특성을 분석하여 주파수 분석 데이터를 생성하는 분석 모듈과, 상기 스피커로 전송되는 출력소리 데이터를 생성하는 출력데이터 생성 모듈과, 사용자 인터페이스를 구비하며, 상기 출력데이터 생성 모듈은 상기 주변소리 데이터에 주파수 별로 게인 값을 부여하는 이퀄라이저를 구비하는 청력보호용 소리 제어 시스템을 이용한 소리 제어 방법으로서,
상기 사용자 인터페이스를 통해 상기 사용자에 의해 소리 제어 환경이 설정되는 제어 환경 설정 단계;
상기 분석 모듈에 의해 상기 주파수 분석 데이터가 생성되는 주변소리 분석 단계; 및
상기 이퀄라이저에 의해 상기 주파수 분석 데이터를 기반으로 상기 주변소리 데이터에 주파수 별로 게인 값이 자동으로 설정되는 이퀄라이제이션 단계를 포함하며,
상기 제어 환경 설정 단계에서 상기 사용자에 의해 특정 소음 발생 지역이 선택되고, 이에 대응하여 최적의 이퀄라이제이션 방식이 자동으로 선택되는,
청력보호용 소리 제어 방법.
an ear-wearing device comprising a speaker and a microphone for generating ambient sound data by converting ambient sound into an electrical signal, the user wearing it on the ear; and a control device communicatively connected to the ear-wearing device, wherein the control device includes an analysis module for generating frequency analysis data by analyzing frequency characteristics of the ambient sound data, and output sound data transmitted to the speaker. A sound control method using a sound control system for hearing protection, comprising: an output data generating module for generating a user interface;
a control environment setting step of setting a sound control environment by the user through the user interface;
an ambient sound analysis step in which the frequency analysis data is generated by the analysis module; and
an equalization step of automatically setting a gain value for each frequency in the ambient sound data based on the frequency analysis data by the equalizer,
In the control environment setting step, a specific noise generating area is selected by the user, and an optimal equalization method is automatically selected in response thereto,
How to control sound for hearing protection.
청구항 11에 있어서,
상기 출력데이터 생성 모듈은 상기 주변소리 데이터에 대한 필터링을 수행하는 소음 필터부를 더 구비하며,
상기 소음 필터부에 의한 상기 주변소리 데이터에 대한 필터링이 수행되는 필터링 단계를 더 포함하는,
청력보호용 소리 제어 방법.
12. The method of claim 11,
The output data generation module further includes a noise filter unit for filtering the ambient sound data,
Further comprising a filtering step of performing filtering on the ambient sound data by the noise filter unit,
How to control sound for hearing protection.
청구항 11에 있어서,
상기 제어 장치는 VAD(Voice Activity Detection)을 수행하는 VAD 수행부를 더 구비하며,
상기 VAD 수행부에 의해 상기 주변소리 데이터에 대한 VAD 기능이 수행되는 단계를 더 포함하는,
청력보호용 소리 제어 방법.
12. The method of claim 11,
The control device further comprises a VAD performing unit for performing VAD (Voice Activity Detection),
Further comprising the step of performing a VAD function for the ambient sound data by the VAD performing unit,
How to control sound for hearing protection.
청구항 11에 있어서,
상기 제어 장치는 상기 스피커를 통해 출력되는 음원이 저장된 음원 데이터베이스를 더 구비하며,
상기 주파수 분석 데이터를 기반으로 특정 소리가 인식되면 출력 중인 상기 음원의 볼륨이 조절되는 단계를 더 포함하는,
청력보호용 소리 제어 방법.
12. The method of claim 11,
The control device further includes a sound source database in which the sound source output through the speaker is stored,
Further comprising the step of adjusting the volume of the sound source being output when a specific sound is recognized based on the frequency analysis data,
How to control sound for hearing protection.
KR1020200158347A 2020-11-24 2020-11-24 Sound control system and method for protecting hearing KR102293391B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200158347A KR102293391B1 (en) 2020-11-24 2020-11-24 Sound control system and method for protecting hearing
PCT/KR2021/095088 WO2022114935A1 (en) 2020-11-24 2021-10-28 Sound control system and method for protecting hearing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200158347A KR102293391B1 (en) 2020-11-24 2020-11-24 Sound control system and method for protecting hearing

Publications (1)

Publication Number Publication Date
KR102293391B1 true KR102293391B1 (en) 2021-08-25

Family

ID=77495046

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200158347A KR102293391B1 (en) 2020-11-24 2020-11-24 Sound control system and method for protecting hearing

Country Status (2)

Country Link
KR (1) KR102293391B1 (en)
WO (1) WO2022114935A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022114935A1 (en) * 2020-11-24 2022-06-02 주식회사 힐링사운드 Sound control system and method for protecting hearing

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101647974B1 (en) * 2015-03-30 2016-08-16 주식회사 이드웨어 Smart earphone, appliance and system having smart mixing module, and method for mixing external sound and internal audio
WO2016209295A1 (en) * 2015-06-26 2016-12-29 Harman International Industries, Incorporated Sports headphone with situational awareness
KR101739441B1 (en) 2015-12-03 2017-05-24 전자부품연구원 Method and apparatus for hearing protection using active noise cancelling
KR101888936B1 (en) * 2017-03-10 2018-08-16 주식회사 파이브지티 A hearing protection device based on the intelligent active noise control
KR20190094131A (en) * 2019-07-23 2019-08-12 엘지전자 주식회사 Headset and operating method thereof
KR20200018965A (en) * 2018-08-13 2020-02-21 대우조선해양 주식회사 Information communication system and method in factory environment

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9014387B2 (en) * 2012-04-26 2015-04-21 Cirrus Logic, Inc. Coordinated control of adaptive noise cancellation (ANC) among earspeaker channels
KR101699067B1 (en) * 2015-05-29 2017-02-01 민훈 Noise Cancelling Method and Earphone havinng Noise Cancelling Function
KR102293391B1 (en) * 2020-11-24 2021-08-25 (주)힐링사운드 Sound control system and method for protecting hearing

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101647974B1 (en) * 2015-03-30 2016-08-16 주식회사 이드웨어 Smart earphone, appliance and system having smart mixing module, and method for mixing external sound and internal audio
WO2016209295A1 (en) * 2015-06-26 2016-12-29 Harman International Industries, Incorporated Sports headphone with situational awareness
KR101739441B1 (en) 2015-12-03 2017-05-24 전자부품연구원 Method and apparatus for hearing protection using active noise cancelling
KR101888936B1 (en) * 2017-03-10 2018-08-16 주식회사 파이브지티 A hearing protection device based on the intelligent active noise control
KR20200018965A (en) * 2018-08-13 2020-02-21 대우조선해양 주식회사 Information communication system and method in factory environment
KR20190094131A (en) * 2019-07-23 2019-08-12 엘지전자 주식회사 Headset and operating method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022114935A1 (en) * 2020-11-24 2022-06-02 주식회사 힐링사운드 Sound control system and method for protecting hearing

Also Published As

Publication number Publication date
WO2022114935A1 (en) 2022-06-02

Similar Documents

Publication Publication Date Title
US11671773B2 (en) Hearing aid device for hands free communication
CN112019962B (en) Context-based ambient sound enhancement and acoustic noise cancellation
US9380374B2 (en) Hearing assistance systems configured to detect and provide protection to the user from harmful conditions
CN109792572B (en) Adaptive electronic hearing protection device
US20210350816A1 (en) Compressive hear-through in personal acoustic devices
JP2017142485A (en) Audio headset for performing active noise control, blocking prevention control, and passive attenuation cancellation according to presence or absence of void activity of headset user
US20040199380A1 (en) Signal processing circuit and method for increasing speech intelligibility
KR102180662B1 (en) Voice intelligibility enhancement system
US7564980B2 (en) System and method for immersive simulation of hearing loss and auditory prostheses
JP2015219527A (en) Anc noise active control audio head set preventing influence of saturation of feedback microphone signal
US11153677B2 (en) Ambient sound enhancement based on hearing profile and acoustic noise cancellation
US9361906B2 (en) Method of treating an auditory disorder of a user by adding a compensation delay to input sound
JP2018528485A (en) Active noise control device
WO2015187345A1 (en) Noise masking in headsets
EP3800900A1 (en) A wearable electronic device for emitting a masking signal
WO2016167877A1 (en) Hearing assistance systems configured to detect and provide protection to the user harmful conditions
KR102293391B1 (en) Sound control system and method for protecting hearing
KR102184649B1 (en) Sound control system and method for dental surgery
Chung et al. Modulation-based digital noise reduction for application to hearing protectors to reduce noise and maintain intelligibility
CN116074677A (en) Mode regulation and control system based on bone conduction vibration sensor and control method thereof
JP2021035032A (en) Automatic gain control sound collector
Chong-White et al. Evaluating Apple AirPods Pro 2 Hearing Protection and Listening
JP2012004614A (en) Acoustic device

Legal Events

Date Code Title Description
GRNT Written decision to grant