WO2021112373A1 - 치과 치료용 소리 제어 시스템 및 방법 - Google Patents

치과 치료용 소리 제어 시스템 및 방법 Download PDF

Info

Publication number
WO2021112373A1
WO2021112373A1 PCT/KR2020/011073 KR2020011073W WO2021112373A1 WO 2021112373 A1 WO2021112373 A1 WO 2021112373A1 KR 2020011073 W KR2020011073 W KR 2020011073W WO 2021112373 A1 WO2021112373 A1 WO 2021112373A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
sound source
signal
output
voice
Prior art date
Application number
PCT/KR2020/011073
Other languages
English (en)
French (fr)
Inventor
강준구
황승태
Original Assignee
주식회사 힐링사운드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 힐링사운드 filed Critical 주식회사 힐링사운드
Priority to US17/782,655 priority Critical patent/US20220387747A1/en
Publication of WO2021112373A1 publication Critical patent/WO2021112373A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M21/02Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis for inducing sleep or relaxation, e.g. by direct nerve stimulation, hypnosis, analgesia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C1/00Dental machines for boring or cutting ; General features of dental machines or apparatus, e.g. hand-piece design
    • A61C1/08Machine parts specially adapted for dentistry
    • A61C1/081Pain-alleviating features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C19/00Dental auxiliary appliances
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/08Mouthpieces; Microphones; Attachments therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1008Earpieces of the supra-aural or circum-aural type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1041Mechanical or electronic switches, or control elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1083Reduction of ambient noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/04Circuits for transducers, loudspeakers or microphones for correcting frequency response
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C2203/00Means for making patients feel at ease during dental treatment, e.g. dental instruments in the form of toys
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0027Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the hearing sense
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/33Controlling, regulating or measuring
    • A61M2205/3375Acoustical, e.g. ultrasonic, measuring means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/35Communication
    • A61M2205/3546Range
    • A61M2205/3561Range local, e.g. within room or hospital
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/35Communication
    • A61M2205/3576Communication with non implanted data transmission devices, e.g. using external transmitter or receiver
    • A61M2205/3592Communication with non implanted data transmission devices, e.g. using external transmitter or receiver using telemetric means, e.g. radio or optical transmission
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/80General characteristics of the apparatus voice-operated command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02163Only one microphone
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2410/00Microphones
    • H04R2410/03Reduction of intrinsic noise in microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/07Applications of wireless loudspeakers or wireless microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/01Aspects of volume control, not necessarily automatic, in sound systems

Definitions

  • the present invention relates to dental treatment technology, and more particularly, to a sound control system and method for dental treatment that blocks unnecessary noise during dental treatment and facilitates communication between a patient and a medical staff in charge.
  • Creating a comfortable and comfortable environment for treating patients is of utmost importance. Depending on how the disease is treated, a quiet environment may be provided to the patient, whereas in the dental field, sharp and high-frequency noise generated during the treatment process may create discomfort or fear in the patient. However, measures to protect patients exposed to such high-frequency noise are insufficient.
  • ACTIVE NOISE CONTROL technology is a technology that blocks noise by receiving ambient noise through a microphone separately attached to headphones or earphones, and generating destructive interference that cancels out the noise in the noise canceling circuit.
  • the active noise control technology is provided in headphones or earphones, and is only used for multimedia appreciation, and the development of technology for application to other environments has not been made significantly.
  • an ear-type speaker provided to be worn by a patient in a dentistry; a microphone for converting a sound including the voice of the medical staff in charge of the patient into an electrical signal; a voice recognition module for recognizing the voice of the medical staff from the electrical sound signal input from the microphone; a sound source module storing a plurality of sound sources for mental and physical stability of the patient; a user interface having a sound source selection unit for allowing the patient to select a play sound source provided to the ear-type speaker from among the plurality of sound sources; and an output signal generating module for generating an output sound signal output to the ear-type speaker, wherein the output signal generating module generates the play sound source as the output sound signal from the voice recognition module of the medical staff in charge.
  • a sound control system for dental treatment that generates the output sound signal including the voice signal of the medical staff in charge.
  • an ear-type speaker provided to be worn by a patient in a dentistry and a sound including the voice of a medical staff in charge of the patient is converted into an electrical signal
  • a microphone a voice recognition module for recognizing the voice of the medical staff from the electrical sound signal inputted from the microphone, a sound source module storing a plurality of sound sources for mental and physical stability of the patient, and a sound source module in which a plurality of sound sources are stored to the patient.
  • a sound control system for dental treatment comprising a user interface having a sound source selection unit for selecting a play sound source provided to the ear-type speaker, and an output signal generating module for generating an output sound signal output to the ear-type speaker
  • a sound control method for dental treatment including an output step is provided.
  • an ear-wearing speaker provided to be worn by a patient at a dentistry, a microphone for converting a sound including the voice of a medical staff in charge of the patient into an electrical signal, and the medical staff in charge from the electrical sound signal input from the microphone a voice recognition module for recognizing the voice of the patient, a sound source module storing a plurality of sound sources for mental and physical stability of the patient, and a sound source for allowing the patient to select a play sound source provided to the ear-type speaker among the plurality of sound sources a user interface including a selection unit; and an output signal generating module for generating an output sound signal output to the ear-mounted speaker, wherein the output signal generating module generates the sound while generating the play sound source as the output sound signal.
  • a sound control system for dental treatment that generates the output sound signal including the voice signal of the in charge medical staff when the voice of the medical staff in charge is recognized by the recognition module and a sound control method for dental treatment using the same are provided.
  • a patient can mix a plurality of sound sources to generate a mixed sound source suitable for his/her taste and listen to it during dental treatment, it is possible to receive dental treatment more effectively.
  • FIG. 1 is a configuration diagram schematically illustrating the configuration of a sound control system for dental treatment according to an embodiment of the present invention.
  • FIG. 2 is a block diagram of a sound control system for dental treatment according to an embodiment of the present invention shown in FIG. 1 .
  • FIG. 3 is a block diagram illustrating the configuration of the preprocessor shown in FIG. 2 according to an embodiment.
  • FIG. 4 is a block diagram illustrating a schematic configuration of the user interface unit shown in FIG. 2 .
  • FIG. 5 is a flowchart schematically illustrating a sound control method for dental treatment according to an embodiment of the present invention using the sound control system for dental treatment shown in FIGS. 1 and 2 .
  • the sound control system 100 for dental treatment includes an ear wearable speaker 110 worn by a patient and a voice of a medical staff in charge of the patient.
  • a microphone 140 that converts ambient sound into an electrical signal, and a control that processes an electrical sound signal input from the microphone 140 and outputs an electrical sound signal corresponding to the sound required by the patient to the ear-mounted speaker 110 device 170 .
  • the ear wearable speaker 110 converts the electrical sound signal transmitted from the control device 170 into sound waves so that the patient can hear it.
  • the ear wearable speaker 110 is connected using various types of wired/wireless communication technology to be able to communicate with the control device 170.
  • a short-range wireless communication technology such as Bluetooth is used. to be described as being connected.
  • the ear-worn speaker 110 is described as a headphone type, but it may be in the form of earphones, which also falls within the scope of the present invention. .
  • the patient hears only the sound desired by the patient instead of unnecessary sounds (noises) in the surroundings.
  • the microphone 140 converts the surrounding sound including the voice of the medical staff in charge of the patient into an electrical signal and transmits it to the control device 170 .
  • the microphone 140 is connected using various types of wired/wireless communication technology to be able to communicate with the control device 170.
  • the microphone 140 is connected using a short-range wireless communication technology such as Bluetooth. described as In this embodiment, the microphone 140 is described as being worn and used by a medical staff (doctor) in charge of treating a patient during dental treatment, but the present invention is not limited thereto, and may be appropriately positioned around the patient and the medical staff in charge. have.
  • the microphone 140 is described as a separate device separated from the ear wearable speaker 110 and the control device 170 , but unlike this, the microphone 140 is integrally coupled to the ear wearable speaker 110 and installed Alternatively, a microphone installed in the control device 170 may be used, which also falls within the scope of the present invention.
  • a filter for filtering a sound signal of a required frequency band is installed in the microphone 140 so that the filtered sound signal can be transmitted to the control device 170 , which also falls within the scope of the present invention. will be.
  • the control device 170 processes the electrical sound signal input from the microphone 140 and outputs the electrical sound signal corresponding to the sound required by the patient to the ear wearable speaker 110 .
  • the control device 170 is described as a personal portable communication terminal such as a smartphone carried by the patient, but the present invention is not limited thereto, and the control device 170 is a tablet PC that is not the patient's. It may be a separate device provided by a hospital including it, and this is also within the scope of the present invention.
  • the control device 170 pre-processes the electrical sound signal transmitted from the microphone 140 to output a pre-processing signal, and a pre-processing module 171 for outputting a sound from the pre-processing signal output from the pre-processing module 171 .
  • a voice recognition module 175 for recognizing and outputting a voice recognition signal, a content module 176 storing sound content including a plurality of sound sources, and a control device 170 and a user of the control device 170 to connect To generate an output sound signal based on the sound source output from the content module 176 and the voice recognition signal output from the voice recognition module 175 in response to the user interface 177 and the settings made by the user interface 177 and an output signal generating module 178 .
  • the configuration of the control unit including the pre-processing module 171, the voice recognition module 175, the content module 176, the user interface 177, and the output signal generation module 178 is an application called an application in a terminal device such as a smartphone. It can be implemented through a program.
  • the pre-processing module 171 pre-processes the electrical sound signal transmitted from the microphone 140 to remove the sound signal unnecessary to the patient and outputs a pre-processed signal in which the audio signal is enhanced.
  • 3 is a block diagram showing the configuration of the pre-processing module 171 according to an embodiment of the present invention.
  • the preprocessing module 171 includes a low pass filter (LPF) 172 , a speech enhancement unit 173 , and a dynamic range compressor (DRC) 174 . ) is provided.
  • LPF low pass filter
  • DRC dynamic range compressor
  • the low-pass filter (LPF) 172 passes the low-frequency band and blocks the high-frequency band in the electrical sound signal transmitted from the microphone 140 , thereby reducing or blocking high-frequency noise distributed in the relatively high-frequency band.
  • the primary processed signal passing through the low-pass filter 172 is transmitted to the sound quality improvement unit 173 .
  • the speech enhancement unit 173 outputs a secondary processed signal obtained by estimating and removing background noise from the primary processed signal output from the low pass filter (LPF) 172 . Since the speech enhancement unit 173 is a technology commonly used as a signal processing method for improving the performance of speech recognition or a speech communication system (for example, the sound quality improvement technology described in Korean Patent No. 10-1662946), A detailed description thereof will be omitted.
  • the dynamic range compressor (DRC) 174 uses a dynamic range compression technique from the secondary processed signal output from the speech enhancement unit 173 to obtain a tertiary processed signal with improved speech intelligibility.
  • print out Dynamic range compression reduces the difference in volume between a large portion and a small portion of a voice signal in order to increase the volume while reducing distortion.
  • the dynamic range compression technique described in Patent Registration No. 10-1981487 can be used. .
  • the voice recognition module 175 recognizes a specific voice from the preprocessing signal output from the preprocessing module 171 and outputs a voice recognition signal.
  • the voice recognition module 175 specifically detects the voice of a medical staff in charge of treating a patient in a noisy environment.
  • the voice recognition module 175 uses a conventional deep learning technology (eg, a voice recognition method using a deep learning algorithm described in Korean Patent Application Laid-Open No. 10-2019-0074011) to the voice of the medical staff in charge. is explained by recognizing
  • the content module 176 stores sound content including a plurality of sound sources provided to the patient and outputs sound content including sound sources selected by the user including the patient through the user interface 177 through the output signal generating module 178 .
  • the sound source stored in the content module 176 includes sounds capable of stabilizing the patient's mind and body, such as rain, wind, thunder, streams, fireplaces, waves, and birds, but the present invention is not limited thereto. It may be music that can be selected by a user, or sound content by a character that can be selected by a patient or medical staff, and this also falls within the scope of the present invention.
  • the content module 176 may be an external application program that provides a sound streaming service as well as stored in the control device 170 (eg, 'Melon', a Euro music service operated by Kakao Ise), which is also It is within the scope of the invention.
  • the sound source stored in the content module 176 includes a basic sound source such as rain, wind, thunder, a stream, a fireplace, a wave, a bird sound, and a mixed sound source generated by mixing a plurality of basic sound sources by a user.
  • the user interface 177 connects the control device 170 and the user of the control device 170 so that a user of the control device 170 including a patient can set the control device 170 .
  • 4 shows a schematic configuration of the user interface 177 .
  • the user interface 177 includes a sound source selection unit 177a, a sound source mixing unit 177b, and a setting unit 177c.
  • the sound source selection unit 177a visually provides a plurality of sound sources including a basic sound source and a mixed sound source stored in the content module 176 to the user and allows the user to select at least one of the plurality of sound sources.
  • the sound source selector 177a may separately show at least one preferred sound source separately stored by the user in addition to all the stored sound sources.
  • the basic sound source or mixed sound source selected by the sound source selection unit 177a may be directly played so that the patient can hear it during dental treatment.
  • the plurality of sound sources selected by the sound source selection unit 177a may be provided to the sound source mixing unit 177b and used to generate a mixed sound source.
  • the sound source selection unit 177a allows the user to select a character and select sound content by the character.
  • the sound content by the character may be a description of treatment and treatment.
  • the sound source mixing unit 177b creates a mixed sound source by mixing a plurality of sound sources selected by a user among a plurality of sound sources stored in the content module 176 , and adds it to the content module 176 and stores it.
  • the intensity of each of the sound sources selected for mixing may be adjusted by the sound source mixing unit 177b. For example, three sound sources of a bird sound, a wind sound, and a wave sound selected by the user among the plurality of basic sound sources stored in the sound source module 176 are selected by the sound source mixing unit 177b for each of the bird sound, wind sound, and wave sound.
  • a mixed sound source can be created by adjusting the intensity and then mixing.
  • the mixed sound source generated by the sound source mixing unit 177b may be generated by mixing a plurality of basic sound sources stored in the content module 176 , but another basic sound source is added to the mixed sound source stored in the content module 176 or a plurality of mixed sound sources It may be generated by mixing sound sources, or may be generated by adding at least one basic sound source to a plurality of mixed sound sources.
  • the setting unit 177c provides a window for setting the control device 170 to the user of the control device 170 .
  • the user sets the filtering frequency of the low-pass filter 172, the on/off of the noise reduction function, the on/off of the sound source reproduction, and the on/off of the automatic voice detection function through the setting unit 177c.
  • the output signal generation module 178 generates an output sound signal based on the sound source output from the content module 176 and the voice recognition signal output from the voice recognition module 175 in response to the settings made by the user interface 177 . do. Specifically, the output signal generating module 178 outputs the sound source selected by the user from the sound source module 176 during dental treatment to the ear wearable speaker 110 so that the patient can listen to the sound source, and outputs the sound source during dental treatment When the voice of the medical staff is recognized through the voice recognition module 175 in the process of doing so, the voice signal of the medical staff is output and the volume of the sound source is reduced or muted, so that the patient can hear the voice of the medical staff through the ear wearable speaker ( 110) so that it can be heard.
  • the output signal generating module 178 may generate an output sound signal so that the voice of the medical staff is transmitted to the patient as the voice of the character selected through the user interface 177 .
  • the voice recognition module 175 may generate a specific sound (eg, 'end') to restore the sound volume of the sound source to its original state.
  • the controller may also perform a command of the medical staff in charge recognized through the voice recognition module 175 .
  • the controller may recognize it through the voice recognition module 175 and control the sound volume of the sound source being output.
  • the sound of the sound source may be automatically increased when the medical staff in charge says "treatment start”, and the sound of the sound source may be automatically lowered when the medical staff in charge says "treatment end”.
  • the controller may recognize and execute the request.
  • the configuration of the control unit including the pre-processing module 171, the voice recognition module 175, the content module 176, the user interface 177, the output signal generating module 178 is a terminal such as a smartphone control
  • the present invention is not limited thereto.
  • only the user interface 177 is installed in the control device 170, and the remaining components (pre-processing module 171, voice recognition module 175, content module 176, output signal generating module 178)
  • the ear-mounted speaker 110 or the microphone 140 may be distributed or installed to be concentrated in any one, which also falls within the scope of the present invention.
  • the output signal generating module 178 may receive an electrical signal from a driving unit of a dental electric device such as a dental electric drill, and generate an output sound signal in response thereto.
  • a dental electric device such as a dental electric drill
  • the rotation speed of the motor is controlled by a pedal
  • the output signal generating module 178 receives the rotation speed signal of the motor from the pedal and increases the sound level of the output sound source as the rotation speed increases. can increase
  • FIG. 5 is a flowchart illustrating a method for controlling sound for dental treatment according to an embodiment of the present invention using the sound control system for dental treatment shown in FIGS. 1 and 2 .
  • the method for controlling sound for dental treatment according to an embodiment of the present invention uses the sound control system 100 for dental treatment shown in FIGS. 1 and 2 through a user interface 177 .
  • the voice recognition confirmation step S30 in which the voice recognition of the medical staff is confirmed through the voice recognition module 175 in the outputting process and the voice recognition confirmation step S30 and a voice signal output step (S40) of outputting the voice signal of the medical staff in charge through the output signal generating module 178.
  • the sound source is set through the user interface 177 .
  • the sound source setting step S10 is performed by a user including a patient setting a sound source stored in the content module 176 through the user interface 177 using the control device 170 .
  • one sound source to be played during dental treatment may be selected from among a plurality of sound sources stored in the content module 176 in the sound source setting step S10 .
  • a mixed sound source may be generated by the sound source mixing unit 177b as described above, and the generated mixed sound source may be stored in the sound source module 176 .
  • the sound source selected for play in the sound source setting step (S10) is output to the volume set by the ear-type speaker 110 through the output signal generating module 178, so that the patient can use the selected sound source for dental treatment heard in the process.
  • the voice recognition module 175 confirms whether the medical staff in charge recognizes the voice.
  • the voice recognition of the medical staff in charge is the same as the configuration of the pre-processing module 171 and the voice recognition module 175 described above. If the voice of the medical staff in charge of the patient is not confirmed in the voice recognition confirmation step (S30), the sound source output step (S20) is performed without change, and the selected sound source is provided to the patient at a set volume.
  • the voice signal output step S40 is performed.
  • the voice signal output step ( S40 ) when it is confirmed that the voice of the medical staff in charge is recognized in the voice recognition confirmation step ( S30 ), the voice signal of the medical staff in charge is output through the output signal generating module 178 . Specifically, when it is confirmed that the voice of the medical staff in charge is recognized in the voice recognition confirmation step S30, the recognized voice signal of the medical personnel in charge is transmitted to the ear-mounted speaker 110 through the output signal generating module 178, so that the patient will hear the voice of the medical staff in charge through the ear-mounted speaker 110 . In the process of outputting the voice of the medical staff through the voice signal output step S40, the volume of the sound source output through the sound source output step S20 is reduced or erased.
  • the voice recognition step (S30) is continuously performed together, and during the voice signal output step (S40), the voice recognition step (S30) of the medical staff in charge is performed.
  • the voice signal output step S40 is stopped, and the sound source output step S20 is performed. , instead of the medical staff's voice, the selected sound source is provided to the patient at the original volume.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Anesthesiology (AREA)
  • Dentistry (AREA)
  • Epidemiology (AREA)
  • Pain & Pain Management (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Hematology (AREA)
  • Biomedical Technology (AREA)
  • Psychology (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)

Abstract

본 발명에 의하면, 치과에서 환자가 착용하도록 비치되는 귀착용형 스피커; 상기 환자의 담당 의료진의 음성을 포함하는 소리를 전기적 신호로 변환하는 마이크; 상기 마이크로부터 입력된 전기적 소리 신호로부터 상기 담당 의료진의 음성을 인식하는 음성 인식 모듈; 상기 환자의 심신 안정을 위한 복수개의 음원들이 저장된 음원 모듈; 상기 환자에게 상기 복수개의 음원들 중 상기 귀착용형 스피커로 제공되는 플레이 음원을 선택하도록 하는 음원 선택부를 구비하는 사용자 인터페이스; 및 상기 귀착용형 스피커로 출력되는 출력 소리 신호를 생성하는 출력신호 생성 모듈을 포함하며, 상기 출력신호 생성 모듈은 상기 플레이 음원을 상기 출력 소리 신호로 생성하는 중에 상기 음성 인식 모듈로부터 상기 담당 의료진의 음성이 인식되면 상기 담당 의료진의 음성 신호를 포함하는 상기 출력 소리 신호를 생성하는 치과 치료용 소리 제어 시스템이 제공된다.

Description

치과 치료용 소리 제어 시스템 및 방법
본 발명은 치과 치료 기술에 관한 것으로서, 더욱 상세하게는 치과 치료시 불필요한 소음은 차단하고 환자와 담당 의료진 사이의 의사 소통을 원활하게 하는 치과 치료용 소리 제어 시스템 및 방법에 관한 것이다.
환자를 치료함에 있어서 안락하고 편안한 환경을 조성하는 것은 무엇보다도 중요한 사항이다. 병을 어떠한 방식으로 치료하느냐에 따라 조용한 환경이 환자에게 제공될 수도 있는 반면, 치과 분야에서는 치료 과정에서 발생하는 날카롭고 고주파의 소음이 환자에게 불쾌감이나 공포감을 조성할 수 있다. 하지만, 이러한 고주파 소음에 노출된 환자를 보호할만한 대책은 미흡한 상황이다.
한편, 능동소음제어(ACTIVE NOISE CONTROL) 기술이란 헤드폰이나 이어폰에 별도로 부착되어 있는 마이크를 통해 주변의 소음을 수신하고, 그 소음을 상쇄시키는 상쇄간섭을 노이즈캔슬링 회로에서 발생시켜서 소음을 차단하는 기술이다. 종래에는 능동소음제어 기술을 헤드폰이나 이어폰에 구비시켜서, 멀티미디어 감상에 사용될 뿐이며, 다른 환경에 적용하기 위한 기술의 개발이 크게 이루어지지 않은 상황이다.
본 발명의 목적은 치과 치료시 불필요한 소음은 차단하고 환자와 담당 의료진 사이의 의사 소통을 원활하게 하는 치과 치료용 소리 제어 시스템 및 방법을 제공하는 것이다.
상기한 본 발명의 목적을 달성하기 위하여, 본 발명의 일 측면에 따르면, 치과에서 환자가 착용하도록 비치되는 귀착용형 스피커; 상기 환자의 담당 의료진의 음성을 포함하는 소리를 전기적 신호로 변환하는 마이크; 상기 마이크로부터 입력된 전기적 소리 신호로부터 상기 담당 의료진의 음성을 인식하는 음성 인식 모듈; 상기 환자의 심신 안정을 위한 복수개의 음원들이 저장된 음원 모듈; 상기 환자에게 상기 복수개의 음원들 중 상기 귀착용형 스피커로 제공되는 플레이 음원을 선택하도록 하는 음원 선택부를 구비하는 사용자 인터페이스; 및 상기 귀착용형 스피커로 출력되는 출력 소리 신호를 생성하는 출력신호 생성 모듈을 포함하며, 상기 출력신호 생성 모듈은 상기 플레이 음원을 상기 출력 소리 신호로 생성하는 중에 상기 음성 인식 모듈로부터 상기 담당 의료진의 음성이 인식되면 상기 담당 의료진의 음성 신호를 포함하는 상기 출력 소리 신호를 생성하는 치과 치료용 소리 제어 시스템이 제공된다.
상기한 본 발명의 목적을 달성하기 위하여, 본 발명의 다른 측면에 따르면, 치과에서 환자가 착용하도록 비치되는 귀착용형 스피커와, 상기 환자의 담당 의료진의 음성을 포함하는 소리를 전기적 신호로 변환하는 마이크와, 상기 마이크로부터 입력된 전기적 소리 신호로부터 상기 담당 의료진의 음성을 인식하는 음성 인식 모듈과, 상기 환자의 심신 안정을 위한 복수개의 음원들이 저장된 음원 모듈과, 상기 환자에게 상기 복수개의 음원들 중 상기 귀착용형 스피커로 제공되는 플레이 음원을 선택하도록 하는 음원 선택부를 구비하는 사용자 인터페이스와, 상기 귀착용형 스피커로 출력되는 출력 소리 신호를 생성하는 출력신호 생성 모듈을 포함하는 치과 치료용 소리 제어 시스템을 이용한 소리 제어 방법으로서, 상기 사용자 인터페이스를 통해 상기 복수개의 음원들 중 상기 귀착용형 스피커로 제공되는 플레이 음원이 선택되는 음원 설정 단계; 상기 음원 설정 단계에서 선택된 상기 플레이 음원이 상기 출력 신호 생성 모듈을 통해 상기 귀착용형 스피커로 출력되는 음원 출력 단계; 상기 음원 출력 단계를 통해 상기 플레이 음원이 출력되는 과정에서 상기 음성 인식 모듈을 통해 상기 담당 의료진의 음성인식 여부가 확인되는 음성 인식 확인 단계; 및 상기 음성 인식 확인 단계에서 상기 담당 의료진의 음성이 인식된 것으로 확인되는 경우에 상기 출력 신호 모듈을 통해 상기 담당 의료진의 음성 신호가 상기 출력 신호 생성 모듈을 통해 상기 귀착용형 스피커로 출력되는 음성 신호 출력 단계를 포함하는 치과 치료용 소리 제어 방법이 제공된다.
본 발명에 의하면 앞서서 기재한 본 발명의 목적을 모두 달성할 수 있다. 구체적으로는, 치과에서 환자가 착용하도록 비치되는 귀착용형 스피커와, 상기 환자의 담당 의료진의 음성을 포함하는 소리를 전기적 신호로 변환하는 마이크와, 상기 마이크로부터 입력된 전기적 소리 신호로부터 상기 담당 의료진의 음성을 인식하는 음성 인식 모듈과, 상기 환자의 심신 안정을 위한 복수개의 음원들이 저장된 음원 모듈과, 상기 환자에게 상기 복수개의 음원들 중 상기 귀착용형 스피커로 제공되는 플레이 음원을 선택하도록 하는 음원 선택부를 구비하는 사용자 인터페이스와, 상기 귀착용형 스피커로 출력되는 출력 소리 신호를 생성하는 출력신호 생성 모듈을 포함하며, 상기 출력신호 생성 모듈은 상기 플레이 음원을 상기 출력 소리 신호로 생성하는 중에 상기 음성 인식 모듈로부터 상기 담당 의료진의 음성이 인식되면 상기 담당 의료진의 음성 신호를 포함하는 상기 출력 소리 신호를 생성하는 치과 치료용 소리 제어 시스템 및 이를 이용한 치과 치료용 소리 제어 방법이 제공되므로, 치과 치료 시에는 소음이 저감된 상태로 환자가 선호하는 음원을 들어면서 심신의 안정을 취한 상태에서 치과 치료를 받을 수 있으며, 치료 과정에서 담당 의료진의 음성이 환자에게 원활하게 잘 전달될 수 있으며, 치과 치료가 효율적으로 이루어질 수 있다.
또한, 환자는 복수개의 음원을 혼합하여 자신의 취향에 맞는 혼합 음원을 생성하여 치과 치료 시 들을 수 있으므로, 치과 치료를 더욱 효과적으로 받을 수 있게 된다.
도 1은 본 발명의 일 실시예에 따른 치과 치료용 소리 제어 시스템의 구성을 개략적으로 도시한 구성도이다.
도 2는 도 1에 도시된 본 발명의 일 실시예에 따른 치과 치료용 소리 제어 시스템의 블록도이다.
도 3은 도 2에 도시된 전처리부의 일 실시예에 따른 구성을 도시한 블록도이다.
도 4는 도 2에 도시된 사용자 인터페이스부의 개략적인 구성을 도시한 블록도이다.
도 5는 도 1 및 도 2에 도시된 치과 치료용 소리 제어 시스템을 이용한 본 발명의 일 실시예에 따른 치과 치료용 소리 제어 방법을 개략적으로 설명하는 순서도이다.
이하, 도면을 참조하여 본 발명의 실시예의 구성 및 작용을 상세히 설명한다.
도 1에는 본 발명의 일 실시예에 따른 치과 치료용 소리 제어 시스템의 구성이 개략적으로 도시되어 있고, 도 2에는 도 1에 도시된 본 발명의 일 실시예에 따른 치과 치료용 소리 제어 시스템이 블록도로서 도시되어 있다. 도 1과 도 2를 참조하면, 본 발명의 일 실시예에 따른 치과 치료용 소리 제어 시스템(100)은, 환자가 착용하는 귀 착용형 스피커(110)와, 환자의 담당 의료진의 음성을 포함하는 주변의 소리를 전기적 신호로 변환하는 마이크(140)와, 마이크(140)로부터 입력된 전기적 소리 신호를 처리하고 귀 착용형 스피커(110)로 환자에 필요한 소리에 대응하는 전기적 소리 신호를 출력하는 제어 장치(170)를 포함한다.
귀 착용형 스피커(110)는 제어 장치(170)로부터 전달되는 전기적 소리 신호를 음파로 변환하여 환자가 들을 수 있도록 한다. 이를 위하여, 귀 착용형 스피커(110)는 제어 장치(170)와 통신 가능하도록 다양한 형태의 유·무선 통신 기술을 이용하여 연결되는데, 본 실시예에서는 블루투스(bluetooth)와 같이 근거리 무선 통신 기술을 이용하여 연결되는 것으로 설명한다. 본 실시예에서는 도 1에 도시된 바와 같이, 귀 착용형 스피커(110)가 헤드폰(headphone) 형태인 것으로 설명하지만, 이와는 달리 이어폰(earphones) 형태일 수도 있으며, 이 또한 본 발명의 범위에 속하는 것이다. 귀 착용형 스피커(110)를 통해 환자는 주변의 불필요한 소리(소음) 대신에 환자가 원하는 소리만을 듣게 된다.
마이크(microphone)(140)는 환자의 담당 의료진의 음성을 포함하는 주변의 소리를 전기적 신호로 변환하여 제어 장치(170)로 전송한다. 이를 위하여, 마이크(140)는 제어 장치(170)와 통신 가능하도록 다양한 형태의 유·무선 통신 기술을 이용하여 연결되는데, 본 실시예에서는 블루투스(bluetooth)와 같이 근거리 무선 통신 기술을 이용하여 연결되는 것으로 설명한다. 본 실시예에서는 마이크(140)가 치과 치료 중 환자를 치료하는 담당 의료진(의사)에 착용되어서 사용되는 것으로 설명하는데 본 발명은 이에 제한되는 것은 아니며, 환자 및 담당 의료진의 주변에 적절히 위치하여 사용될 수도 있다. 또한, 본 발명에서는 마이크(140)가 귀 착용형 스피커(110) 및 제어 장치(170)와는 분리된 별도의 장치인 것으로 설명하지만, 이와는 달리, 귀 착용형 스피커(110)에 일체로 결합되어 설치되거나, 제어 장치(170)에 설치된 마이크가 사용될 수도 있으며, 이 또한 본 발명의 범위에 속하는 것이다. 그리고, 도시되지는 않았으나 마이크(140)에는 요구되는 주파수 대역의 소리 신호를 필터링하는 필터가 함께 설치되어서 필터링된 소리 신호가 제어 장치(170)로 전송될 수 있으며, 이 또한 본 발명의 범위에 속하는 것이다.
제어 장치(170)는 마이크(140)로부터 입력된 전기적 소리 신호를 처리하고 귀 착용형 스피커(110)로 환자에 필요한 소리에 대응하는 전기적 소리 신호를 출력한다. 본 실시예에서는 제어 장치(170)가 환자가 휴대하고 다니는 스마트폰과 같은 개인 휴대형 통신 단말기인 것으로 설명하지만, 본 발명은 이에 제한되는 것은 아니며, 제어 장치(170)는 환자의 것이 아닌 태블릿 피씨를 포함하는 병원에서 제공하는 별도의 장치일 수 있고 이 또한 본 발명의 범위에 속하는 것이다.
도 2를 참조하면, 제어 장치(170)는 마이크(140)로부터 전달되는 전기적 소리 신호를 전처리하여 전처리 신호를 출력하는 전처리 모듈(171)과, 전처리 모듈(171)로부터 출력되는 전처리 신호로부터 음성을 인식하여 음성인식 신호를 출력하는 음성인식 모듈(175)과, 복수개의 음원들을 포함하는 소리 컨텐츠가 저장된 컨텐츠 모듈(176)과, 제어 장치(170)와 제어 장치(170)의 사용자 사이를 연결하는 사용자 인터페이스(177)와, 사용자 인터페이스(177)에 의한 설정 사항에 대응하여 컨텐츠 모듈(176)로부터 출력되는 음원과 음성인식 모듈(175)로부터 출력되는 음성인식 신호를 기반으로 출력 소리 신호를 생성하는 출력신호 생성 모듈(178)을 구비한다. 전처리 모듈(171), 음성인식 모듈(175), 컨텐츠 모듈(176), 사용자 인터페이스(177), 출력신호 생성 모듈(178)을 포함하는 제어부의 구성은 스마트폰과 같은 단말기 장치에서 애플리케이션이라 불리는 응용프로그램을 통해 구현될 수 있다.
전처리 모듈(171)은 마이크(140)로부터 전달되는 전기적 소리 신호를 전처리하여 환자에게 불필요한 소리 신호는 제거하고 음성 신호는 강화시킨 전처리 신호를 출력한다. 도 3에는 본 발명의 일 실시예에 따른 전처리 모듈(171)의 구성이 블록도로서 도시되어 있다. 도 3을 참조하면, 전처리 모듈(171)은 저역 필터(LPF: Low Pass Filter)(172)와, 음질 개선부(Speech Enhancement)(173)와, 동적 범위 압축기(DRC: Dynamic Range Compressor)(174)를 구비한다.
저역 필터(LPF)(172)는 마이크(140)로부터 전달되는 전기적 소리 신호에서 저주파수 대역은 통과시키고 고주파수 대역은 막아서, 상대적으로 고주파 대역에 분포하는 고주파 소음을 저감하거나 차단한다. 저역 필터(172)를 통과한 1차 처리 신호는 음질 개선부(173)로 전달된다.
음질 개선부(Speech Enhancement)(173)는 저역 필터(LPF)(172)로부터 출력된 1차 처리 신호에서 배경 노이즈를 추정하여 제거한 2차 처리 신호를 출력한다. 음질 개선부(Speech Enhancement)(173)는 음성 인식 혹은 음성 통신 시스템의 성능을 높이기 위한 신호 처리 방법으로서 통상적으로 사용되는 기술(예를 들어서, 등록특허 제10-1662946호에 기재된 음질 개선 기술)이므로 이에 대한 상세한 설명은 생략한다.
동적 범위 압축기(DRC)(174)는 음질 개선부(Speech Enhancement)(173)로부터 출력된 2차 처리 신호에서 동적 범위 압축(Dynamic Range Compression) 기법을 사용하여 음성 명료도를 향상시킨 3차 처리 신호를 출력한다. 동적 범위 압축은 왜곡을 줄이면서 음량을 키우기 위하여 음성신호의 크기가 큰 부분과 작은 부분 사이의 음량 크기 차이를 줄이는 것으로서 예를 들어서 등록특허 제10-1981487호에 기재된 동적범위압축 기법이 사용될 수 있다.
음성 인식 모듈(175)은 전처리 모듈(171)로부터 출력되는 전처리 신호로부터 특정 음성을 인식하여 음성인식 신호를 출력한다. 음성 인식 모듈(175)은 환자를 진료하는 담당 의료진의 음성을 소음환경에서 특정적으로 감지한다. 본 실시예에서 음성 인식 모듈(175)은 통상적인 딥러닝 기술(예를 들어, 공개특허공보 제10-2019-0074011호에 기재된 딥러닝 알고리즘을 활용한 음성 인식 방법)을 이용하여 담당 의료진의 음성을 인식하는 것으로 설명한다.
컨텐츠 모듈(176)은 환자에 제공되는 복수개의 음원들을 포함하는 소리 컨텐츠를 저장하고 사용자 인터페이스(177)를 통해 환자를 포함하는 사용자에 의해 선택된 음원을 포함하는 소리 컨텐츠를 출력 신호 생성 모듈(178)로 제공한다. 컨텐츠 모듈(176)에 저장된 음원은 비, 바람, 천둥, 개울, 벽난로, 파도, 새 소리 등 환자의 심신을 안정시킬 수 있는 소리를 포함하는데, 본 발명은 이에 제한되는 것은 아니며, 환자 또는 의료진에 의해 선택될 수 있는 음악이거나, 환자 또는 의료진에 의해 선택될 수 있는 캐릭터에 의한 소리 컨텐츠일 수 있으며, 이 또한 본 발명의 범위에 속하는 것이다. 또한 컨텐츠 모듈(176)은 제어 장치(170)에 저장된 것뿐만 아니라 음원 스트리밍 서비스를 제공하는 외부 응용프로그램(예를 들어, 카카오이세 운영하는 유로 음원 서비스인 '멜론')일 수 있으며, 이 또한 본 발명의 범위에 속하는 것이다. 컨텐츠 모듈(176)에 저장되는 음원은 비, 바람, 천둥, 개울, 벽난로, 파도, 새 소리 등의 기본 음원과, 복수개의 기본 음원들이 사용자에 의해 혼합되어서 생성된 혼합 음원을 포함한다.
사용자 인터페이스(177)는 제어 장치(170)와 제어 장치(170)의 사용자 사이를 연결하여, 환자를 포함하는 제어 장치(170)의 사용자가 제어 장치(170)를 설정할 수 있도록 한다. 도 4에는 사용자 인터페이스(177)의 개략적인 구성이 도시되어 있다. 도 4를 참조하면, 사용자 인터페이스(177)는 음원 선택부(177a)와, 음원 혼합부(177b)와, 설정부(177c)를 구비한다.
음원 선택부(177a)는 컨텐츠 모듈(176)에 저장된 기본 음원 및 혼합 음원을 포함하는 복수개의 음원들을 사용자에게 시각적으로 제공하고 사용자가 복수개의 음원들 중 적어도 하나를 선택하도록 한다. 음원 선택부(177a)는 저장된 전체 음원 외에 사용자에 의해 별도로 저장된 적어도 하나의 선호 음원을 따로 보여줄 수 있다. 음원 선택부(177a)에서 선택된 기본 음원 또는 혼합 음원은 치과 치료 중 환자가 들을 수 있도록 곧바로 플레이될 수 있다. 또한, 음원 선택부(177a)에서 선택된 복수개의 음원들은 음원 혼합부(177b)로 제공되어서 혼합 음원 생성에 사용될 수도 있다. 도시되지는 않았으나, 음원 선택부(177a)는 사용자로 하여금 캐릭터를 선택하고 캐릭터에 의한 소리 컨텐츠를 선택할 수 있도록 한다. 캐릭터에 의한 소리 컨텐츠는 진료 및 치료에 대한 설명일 수 있다.
음원 혼합부(177b)는 컨텐츠 모듈(176)에 저장된 복수개의 음원들 중 사용자에 의해 선택된 복수개의 음원들을 혼합하여 혼합 음원을 생성하고 이를 컨텐츠 모듈(176)에 추가하여 저장하도록 한다. 혼합을 위해 선택된 음원들 각각의 세기는 음원 혼합부(177b)에 의해 조절될 수 있다. 예를 들어서, 음원 모듈(176)에 저장된 복수개의 기본 음원들 중 사용자에 의해 선택된 새소리, 바람 소리, 파도 소리의 세 가지 음원이 음원 혼합부(177b)에서 새소리, 바람 소리, 파도 소리 각각을 원하는 세기로 저절한 후 혼합하여 혼합 음원을 생성할 수 있다. 음원 혼합부(177b)에서 생성되는 혼합 음원은 컨텐츠 모듈(176)에 저장된 복수개의 기본 음원들이 혼합되어서 생성될 수도 있지만, 컨텐츠 모듈(176)에 저장된 혼합 음원에 다른 기본 음원을 추가하거나 복수개의 혼합 음원들을 혼합하여 생성될 수 있으며, 복수개의 혼합 음원들에 적어도 하나의 기본 음원을 추가 혼합하여 생성될 수도 있다.
설정부(177c)는 제어 장치(170)의 사용자에게 제어 장치(170)의 설정을 위한 창을 제공한다. 사용자는 설정부(177c)를 통해 저역 필터(172)의 필터링 주파수, 노이즈 감소 기능의 온/오프, 음원 재생의 온/오프, 음성 자동 감지 기능의 온/오프를 설정하게 된다.
출력신호 생성 모듈(178)은 사용자 인터페이스(177)에 의한 설정 사항에 대응하여 컨텐츠 모듈(176)로부터 출력되는 음원과 음성인식 모듈(175)로부터 출력되는 음성인식 신호를 기반으로 출력 소리 신호를 생성한다. 구체적으로, 출력신호 생성 모듈(178)은 치과 치료 시 음원 모듈(176)에서 사용자가 선택한 음원을 귀 착용형 스피커(110)로 출력하여 환자가 음원을 들을 수 있도록 하며, 치과 치료 중 음원을 출력하는 과정에서 음성 인식 모듈(175)을 통해 담당 의료진의 음성이 인식되는 경우에는 담당 의료진의 음성 신호를 출력하며 음원의 소리 크기를 줄이거나 소거하여, 환자가 담당 의료진의 음성을 귀 착용형 스피커(110)를 통해 들을 수 있도록 한다. 출력신호 생성 모듈(178)은 담당 의료진의 음성이 사용자 인터페이스(177)를 통해 선택된 캐릭터의 목소리로 환자에게 전달되도록 출력 소리 신호를 생성할 수도 있다. 또한, 음성 인식 모듈(175)을 통해 담당 의료진의 음성이 인식되지 않는 시간이 설정된 일정 시간동안 지속되거나 담당 의료진이 특정 소리(예를 들어서, '끝')를 내는 경우 이를 인식하여 음원 모듈(176)에서 제공하는 음원의 소리 크기를 원 상태로 복귀시킨다.
제어부는 음성인식 모듈(175)을 통해 인식된 담당 의료진의 명령을 수행할 수도 있다. 예를 들어서, 담당 의료진이 출력 중인 음원의 소리 크기를 높여달라거나 낮춰달라는 말을 하면 제어부는 음성인식 모듈(175)을 통해 이를 인식하여 출력 중인 음원의 소리 크기를 제어할 수 있다. 또는, 담당 의료진이 "치료 시작"이라고 말할 경우 음원의 소리를 자동으로 높이고, "치료 끝"이라고 말할 경우 음원의 소리를 자동으로 낮출 수 있다. 또한, 담당 의료진이 특정 캐릭터를 통해 치료를 설명해줄 것을 소리로 요청하면, 제어부는 이를 인식하여 실행할 수도 있다.
본 실시예에서는 전처리 모듈(171), 음성인식 모듈(175), 컨텐츠 모듈(176), 사용자 인터페이스(177), 출력신호 생성 모듈(178)을 포함하는 제어부의 구성이 스마트폰과 같은 단말기인 제어 장치(170)에 설치되는 응용프로그램을 통해 구현되는 것으로 설명하지만, 본 발명은 이에 제한되는 것은 아니다. 예를 들어서, 사용자 인터페이스(177)만 제어 장치(170)에 설치되고, 나머지 구성들(전처리 모듈(171), 음성 인식 모듈(175), 컨텐츠 모듈(176), 출력 신호 생성 모듈(178))은 귀착용형 스피커(110) 또는 마이크(140)에 분산되어서 또는 어느 하나에 집중되어서 설치될 수도 있으며, 이 또한 본 발명의 범위에 속하는 것이다.
도시되지는 않았으나, 출력신호 생성 모듈(178)은 치과용 전동드릴과 같은 치과용 전동기구의 구동부로부터 전기적 신호를 입력받고, 이에 대응하여 출력 소리 신호를 생성할 수 있다. 예를 들어서, 일반적으로 치과용 전동드릴은 페달에 의해 모터의 회전수가 조절되는데, 출력신호 생성 모듈(178)은 페달로부터 모터의 회전수 신호를 입력받고 회전수가 높을 수록 출력되는 음원의 소리 크기를 증가시킬 수 있다.
도 5에는 도 1 및 도 2에 도시된 치과 치료용 소리 제어 시스템을 이용한 본 발명의 일 실시예에 따른 치과 치료용 소리 제어 방법이 순서도로서 도시되어 있다. 도 5를 참조하면, 본 발명의 일 실시예에 따른 치과 치료용 소리 제어 방법은, 도 1 및 도 2에 도시된 치과 치료용 소리 제어 시스템(100)을 이용하는 것으로서, 사용자 인터페이스(177)를 통해 음원이 설정되는 음원 설정 단계(S10)와, 음원 설정 단계(S10)에서 선택된 음원이 출력 신호 생성 모듈(178)을 통해 출력되는 음원 출력 단계(S20)와, 음원 출력 단계(S20)를 통해 음원이 출력되는 과정에서 음성 인식 모듈(175)을 통해 담당 의료진의 음성인식 여부가 확되는 음성 인식 확인 단계(S30)와, 음성 인식 확인 단계(S30)에서 담당 의료진의 음성이 인식된 것으로 확인되는 경우에 출력 신호 생성 모듈(178)을 통해 담당 의료진의 음성 신호가 출력되는 음성 신호 출력 단계(S40)를 포함한다.
음원 설정 단계(S10)에서는 사용자 인터페이스(177)를 통해 음원이 설정된다. 음원 설정 단계(S10)는 환자를 포함하는 사용자가 제어 장치(170)를 이용하여 사용자 인터페이스(177)를 통해 컨텐츠 모듈(176)에 저장된 음원을 설정함으로써 수행된다. 구체적으로, 음원 설정 단계(S10)에서 컨텐츠 모듈(176)에 저장된 복수개의 음원들 중 치과 치료 중 플레이될 하나의 음원이 선택될 수 있다. 또한, 플레이될 하나의 음원이 선택되기 전에 음원 혼합부(177b)에 의해 위에서 설명된 바와 같이 혼합 음원이 생성되고 생성된 혼합 음원이 음원 모듈(176)에 저장될 수 있다.
음원 출력 단계(S20)에서는 음원 설정 단계(S10)에서 플레이를 위해 선택된 음원이 출력 신호 생성 모듈(178)을 통해 귀착용형 스피커(110)로 설정된 볼륨으로 출력되어서, 환자가 선택된 음원을 치과 치료 과정에서 듣게 된다.
음성 인식 확인 단계(S30)에서는 음성 출력 단계(S20)를 통해 음원이 출력되는 과정에서 음성 인식 모듈(175)을 통해 담당 의료진의 음성인식 여부가 확인된다. 담당 의료진의 음성 인식은 위에서 설명된 전처리 모듈(171)과 음성 인식 모듈(175)에 대한 구성과 같다. 음성 인식 확인 단계(S30)에서 환자의 담당 의료진의 음성이 확인되지 않는 경우에는 음원 출력 단계(S20)가 변함없이 수행되어서 선택된 음원이 설정된 볼륨으로 환자에게 제공된다. 음성 인식 확인 단계(S30)에서 환자의 담당 의료진의 음성이 확인되는 경우에는 음성 신호 출력 단계(S40)가 수행된다.
음성 신호 출력 단계(S40)에서는 음성 인식 확인 단계(S30)에서 담당 의료진의 음성이 인식된 것으로 확인되는 경우에 출력 신호 생성 모듈(178)을 통해 담당 의료진의 음성 신호가 출력된다. 구체적으로, 음성 인식 확인 단계(S30)에서 담당 의료진의 음성이 인식된 것으로 확인되면, 인식된 담당 의료진의 음성 신호가 출력 신호 생성 모듈(178)을 통해 귀착용형 스피커(110)로 전송되어서 환자가 귀착용형 스피커(110)를 통해 담당 의료진의 음성을 듣게 된다. 음성 신호 출력 단계(S40)를 통해 담당 의료진의 음성이 출력되는 과정에서 음원 출력 단계(S20)를 통해 출력되던 음원의 볼륨은 줄어들거나 소거된다.
음성 신호 출력 단계(S40)를 통해 담당 의료진의 음성이 출력되는 과정에서 음성 인식 단계(S30)가 함께 계속 수행되며, 음성 신호 출력 단계(S40) 수행 중 음성 인식 단계(S30)를 통해 담당 의료진의 음성이 설정된 일정 시간동안 인식되지 않거나 사전에 정해진 특정 음성(예를 들어서, '끝')이 인식되는 경우에는 음성 신호 출력 단계(S40)의 수행을 중단하고, 음원 출력 단계(S20)를 수행하여, 의료진의 음성 대신 선택된 음원을 원래의 볼륨으로 환자에게 제공하게 된다.
이상 실시예를 통해 본 발명을 설명하였으나, 본 발명은 이에 제한되는 것은 아니다. 상기 실시예는 본 발명의 취지 및 범위를 벗어나지 않고 수정되거나 변경될 수 있으며, 본 기술분야의 통상의 기술자는 이러한 수정과 변경도 본 발명에 속하는 것임을 알 수 있을 것이다.

Claims (12)

  1. 치과에서 환자가 착용하도록 비치되는 귀착용형 스피커;
    상기 환자의 담당 의료진의 음성을 포함하는 소리를 전기적 신호로 변환하는 마이크;
    상기 마이크로부터 입력된 전기적 소리 신호로부터 상기 담당 의료진의 음성을 인식하는 음성 인식 모듈;
    상기 환자의 심신 안정을 위한 복수개의 음원들이 저장된 음원 모듈;
    상기 환자에게 상기 복수개의 음원들 중 상기 귀착용형 스피커로 제공되는 플레이 음원을 선택하도록 하는 음원 선택부를 구비하는 사용자 인터페이스; 및
    상기 귀착용형 스피커로 출력되는 출력 소리 신호를 생성하는 출력신호 생성 모듈을 포함하며,
    상기 출력신호 생성 모듈은 상기 플레이 음원을 상기 출력 소리 신호로 생성하는 중에 상기 음성 인식 모듈로부터 상기 담당 의료진의 음성이 인식되면 상기 담당 의료진의 음성 신호를 포함하는 상기 출력 소리 신호를 생성하는,
    치과 치료용 소리 제어 시스템.
  2. 청구항 1에 있어서,
    상기 음원 모듈에 저장된 상기 음원은 복수개의 기본 음원들을 구비하며,
    상기 사용자 인터페이스는 상기 사용자가 상기 복수개의 기본 음원들 중 둘 이상의 기본 음원들을 혼합하여 혼합 음원을 생성할 수 있도록 하는 음원 혼합부를 더 구비하는,
    치과용 소리 제어 시스템.
  3. 청구항 2에 있어서,
    상기 음원 모듈에 저장된 상기 음원은 상기 혼합 음원을 더 구비하는,
    치과용 소리 제어 시스템.
  4. 청구항 2에 있어서,
    상기 음원 혼합부는 혼합되는 상기 둘 이상의 기본 음원들 각각의 소리 크기 조절이 가능한,
    치과용 소리 제어 시스템.
  5. 청구항 1에 있어서,
    상기 마이크로부터 전달되는 전기적 소리 신호를 전처리하여 상기 음성 인식 모듈로 전달하는 전처리 모듈을 더 포함하며,
    상기 전처리 모듈은, 상기 마이크로부터 전달되는 전기적 소리 신호로부터 고주파 소음을 저감시킨 1차 처리 신호를 출력하는 저역 필터와, 상기 1차 처리 신호에서 배경 노이즈를 제거하여 2차 처리 신호를 출력하는 음질 개선부와, 상기 2차 처리 신호에서 동적 범위 압축 기법을 사용하여 음성 명료도를 향상시킨 3차 처리 신호를 출력하는 동적 범위 압축기(DRC)를 구비하는,
    치과용 소리 제어 시스템.
  6. 청구항 1에 있어서,
    상기 음성 인식 모듈은 딥러닝을 이용하여 상기 담당 의료진의 음성을 인식하는,
    치과용 소리 제어 시스템.
  7. 청구항 1에 있어서,
    상기 출력신호 생성 모듈은 상기 플레이 음원을 상기 출력 소리 신호로 생성하는 중에 상기 음성 인식 모듈로부터 상기 담당 의료진의 음성이 인식되면 상기 플레이 음원의 소리 크기를 줄이거나 소거하는,
    치과용 소리 제어 시스템.
  8. 청구항 1에 있어서,
    상기 음성 인식 모듈, 상기 음원 모듈 및 상기 사용자 인터페이스를 포함하는 제어부는 휴대형 통신 단말기에 설치된 응용 프로그램에 의해 구현되는,
    치과용 소리 제어 시스템.
  9. 치과에서 환자가 착용하도록 비치되는 귀착용형 스피커;
    상기 환자의 담당 의료진의 음성을 포함하는 소리를 전기적 신호로 변환하는 마이크;
    상기 마이크로부터 전달되는 전기적 소리 신호를 전처리하여 전처리 신호를 출력하는 전처리 모듈;
    상기 전처리 신호로부터 상기 담당 의료진의 음성을 인식하는 음성 인식 모듈;
    상기 환자의 심신 안정을 위한 복수개의 기본 음원들과, 상기 복수개의 기본 음원들 중 둘 이상의 기본 음원들이 혼합된 혼합 음원을 포함하는 복수개의 음원들이 저장된 음원 모듈;
    상기 환자에게 상기 복수개의 음원들 중 상기 귀착용형 스피커로 제공되는 플레이 음원을 선택하도록 하는 음원 선택부와, 상기 혼합 음원을 생성하는 음원 혼합부와, 설정부를 구비하는 사용자 인터페이스; 및
    상기 귀착용형 스피커로 출력되는 출력 소리 신호를 생성하는 출력신호 생성 모듈을 포함하며,
    상기 출력신호 생성 모듈은 상기 플레이 음원을 상기 출력 소리 신호로 생성하는 중에 상기 음성 인식 모듈로부터 상기 담당 의료진의 음성이 인식되면 상기 담당 의료진의 음성 신호를 포함하는 상기 출력 소리 신호를 생성하며,
    상기 출력신호 생성 모듈은 상기 플레이 음원을 상기 출력 소리 신호로 생성하는 중에 상기 음성 인식 모듈로부터 상기 담당 의료진의 음성이 인식되면 상기 플레이 음원의 소리 크기를 줄이거나 소거한 상태에서 사전에 정해진 상기 담당 의료진의 특정 소리가 인식되는 경우에 상기 담당 의료진의 음성 신호의 출력을 중단하고 상기 플레이 음원의 소리 크기를 증가시켜서 원 상태로 복귀시키며,
    상기 음원 혼합부는 상기 음원 선택부를 통해 상기 환자에 의해 선택된 복수개의 기본 음원들을 혼합하여 상기 혼합 음원을 생성하고,
    상기 음원 혼합부에서 상기 혼합 음원을 생성하기 위해 선택된 상기 복수개의 기본 음원들 각각의 소리 크기가 조절되며,
    상기 전처리 모듈은, 상기 마이크로부터 전달되는 전기적 소리 신호로부터 고주파 소음을 저감시킨 1차 처리 신호를 출력하는 저역 필터와, 상기 1차 처리 신호에서 배경 노이즈를 제거하여 2차 처리 신호를 출력하는 음질 개선부와, 상기 2차 처리 신호에서 동적 범위 압축 기법을 사용하여 음성 명료도를 향상시킨 3차 처리 신호를 출력하는 동적 범위 압축기(DRC)를 구비하며,
    상기 저역 필터의 필터링 주파수는 상기 설정부에 의해 설정되며,
    상기 음성 인식 모듈은 딥러닝을 이용하여 상기 담당 의료진의 음성을 인식하는,
    치과 치료용 소리 제어 시스템.
  10. 치과에서 환자가 착용하도록 비치되는 귀착용형 스피커와, 상기 환자의 담당 의료진의 음성을 포함하는 소리를 전기적 신호로 변환하는 마이크와, 상기 마이크로부터 입력된 전기적 소리 신호로부터 상기 담당 의료진의 음성을 인식하는 음성 인식 모듈과, 상기 환자의 심신 안정을 위한 복수개의 음원들이 저장된 음원 모듈과, 상기 환자에게 상기 복수개의 음원들 중 상기 귀착용형 스피커로 제공되는 플레이 음원을 선택하도록 하는 음원 선택부를 구비하는 사용자 인터페이스와, 상기 귀착용형 스피커로 출력되는 출력 소리 신호를 생성하는 출력신호 생성 모듈을 포함하는 치과 치료용 소리 제어 시스템을 이용한 소리 제어 방법으로서,
    상기 사용자 인터페이스를 통해 상기 복수개의 음원들 중 상기 귀착용형 스피커로 제공되는 플레이 음원이 선택되는 음원 설정 단계;
    상기 음원 설정 단계에서 선택된 상기 플레이 음원이 상기 출력 신호 생성 모듈을 통해 상기 귀착용형 스피커로 출력되는 음원 출력 단계;
    상기 음원 출력 단계를 통해 상기 플레이 음원이 출력되는 과정에서 상기 음성 인식 모듈을 통해 상기 담당 의료진의 음성인식 여부가 확인되는 음성 인식 확인 단계; 및
    상기 음성 인식 확인 단계에서 상기 담당 의료진의 음성이 인식된 것으로 확인되는 경우에 상기 출력신호 생성 모듈을 통해 상기 담당 의료진의 음성 신호가 상기 출력 신호 생성 모듈을 통해 상기 귀착용형 스피커로 출력되는 음성 신호 출력 단계를 포함하는,
    치과 치료용 소리 제어 방법.
  11. 청구항 9에 있어서,
    상기 음원 설정 단계는 상기 사용자 인터페이스를 통해 복수개의 음원들 중 선택된 둘 이상의 음원을 혼합하여 혼합 음원을 생성하는 과정을 더 구비하는,
    치과 치료용 소리 제어 방법.
  12. 치과에서 환자가 착용하도록 비치되는 귀착용형 스피커와, 상기 환자의 담당 의료진의 음성을 포함하는 소리를 전기적 신호로 변환하는 마이크와, 상기 마이크로부터 전달되는 전기적 소리 신호로부터 고주파 소음을 저감시킨 1차 처리 신호를 출력하는 저역 필터와, 상기 1차 처리 신호에서 배경 노이즈를 제거하여 2차 처리 신호를 출력하는 음질 개선부와, 상기 2차 처리 신호에서 동적 범위 압축 기법을 사용하여 음성 명료도를 향상시킨 3차 처리 신호를 전처리 신호로 출력하는 동적 범위 압축기(DRC)와, 상기 전처리 신호로부터 딥러닝을 이용하여 상기 담당 의료진의 음성을 인식하는 음성 인식 모듈과, 상기 환자의 심신 안정을 위한 복수개의 음원들이 저장된 음원 모듈과, 상기 환자에게 상기 복수개의 음원들 중 상기 귀착용형 스피커로 제공되는 플레이 음원을 선택하도록 하는 음원 선택부 및 상기 저역 필터의 필터링 주파수를 설정하는 설정부를 구비하는 사용자 인터페이스와, 상기 귀착용형 스피커로 출력되는 출력 소리 신호를 생성하는 출력신호 생성 모듈을 포함하는 치과 치료용 소리 제어 시스템을 이용한 소리 제어 방법으로서,
    상기 설정부를 통해 상기 저역 필터의 필터링 주파수가 설정되는 단계;
    상기 사용자 인터페이스를 통해 복수개의 음원들 중 상기 환자에 의해 선택된 둘 이상의 음원들을 혼합하여 혼합 음원을 생성하고, 상기 복수개의 음원들과 상기 혼합 음원 중 상기 복수개의 음원들 중 상기 귀착용형 스피커로 제공되는 플레이 음원이 선택되는 음원 설정 단계;
    상기 음원 설정 단계에서 선택된 상기 플레이 음원이 상기 출력 신호 생성 모듈을 통해 상기 귀착용형 스피커로 출력되는 음원 출력 단계;
    상기 음원 출력 단계를 통해 상기 플레이 음원이 출력되는 과정에서 상기 음성 인식 모듈을 통해 상기 담당 의료진의 음성인식 여부가 확인되는 음성 인식 확인 단계;
    상기 음성 인식 확인 단계에서 상기 담당 의료진의 음성이 인식된 것으로 확인되는 경우에 상기 출력신호 생성 모듈을 통해 상기 담당 의료진의 음성 신호가 상기 플레이 음원의 소리 크기를 줄이거나 소거한 상태에서 상기 귀착용형 스피커로 출력되는 음성 신호 출력 단계; 및
    상기 플레이 음원의 소리 크기를 줄이거나 소거한 상태에서 사전에 정해진 상기 담당 의료진의 특정 소리가 인식되는 경우에, 상기 음성 신호 출력 단계의 수행을 중단하고 상기 음원 출력 단계를 수행하여, 상기 담당 의료진의 음성 신호의 출력을 중단하고 상기 플레이 음원의 소리 크기를 증가시켜서 원 상태로 복귀시키는 단계를 포함하며,
    상기 음원 설정 단계에서 상기 혼합 음원을 생성하기 위해 선택된 둘 이상의 음원들 각각의 소리 크기가 조절되는,
    치과 치료용 소리 제어 방법.
PCT/KR2020/011073 2019-12-05 2020-08-20 치과 치료용 소리 제어 시스템 및 방법 WO2021112373A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/782,655 US20220387747A1 (en) 2019-12-05 2020-08-20 Sound control system and method for dental treatment

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0160886 2019-12-05
KR1020190160886A KR102184649B1 (ko) 2019-12-05 2019-12-05 치과 치료용 소리 제어 시스템 및 방법

Publications (1)

Publication Number Publication Date
WO2021112373A1 true WO2021112373A1 (ko) 2021-06-10

Family

ID=73641784

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/011073 WO2021112373A1 (ko) 2019-12-05 2020-08-20 치과 치료용 소리 제어 시스템 및 방법

Country Status (3)

Country Link
US (1) US20220387747A1 (ko)
KR (1) KR102184649B1 (ko)
WO (1) WO2021112373A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100787994B1 (ko) * 2007-02-08 2007-12-24 문창수 영상 및 음향 정보를 제공하는 치과용 치료 장치
KR20140022163A (ko) * 2012-08-13 2014-02-24 한밭대학교 산학협력단 모바일 음향기기
KR101647974B1 (ko) * 2015-03-30 2016-08-16 주식회사 이드웨어 스마트 믹싱 모듈을 갖춘 스마트 이어폰, 스마트 믹싱 모듈을 갖춘 기기, 외부음과 기기음을 혼합하는 방법 및 시스템
KR101958839B1 (ko) * 2017-08-28 2019-07-02 김태훈 치과용 소음 제어 음향 출력 장치
KR102006250B1 (ko) * 2017-12-15 2019-08-01 한림대학교 산학협력단 복합음을 활용한 이명 재활용 소리치료기

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101015318B1 (ko) 2010-05-19 2011-02-15 서용선 치과 장비용 소음저감장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100787994B1 (ko) * 2007-02-08 2007-12-24 문창수 영상 및 음향 정보를 제공하는 치과용 치료 장치
KR20140022163A (ko) * 2012-08-13 2014-02-24 한밭대학교 산학협력단 모바일 음향기기
KR101647974B1 (ko) * 2015-03-30 2016-08-16 주식회사 이드웨어 스마트 믹싱 모듈을 갖춘 스마트 이어폰, 스마트 믹싱 모듈을 갖춘 기기, 외부음과 기기음을 혼합하는 방법 및 시스템
KR101958839B1 (ko) * 2017-08-28 2019-07-02 김태훈 치과용 소음 제어 음향 출력 장치
KR102006250B1 (ko) * 2017-12-15 2019-08-01 한림대학교 산학협력단 복합음을 활용한 이명 재활용 소리치료기

Also Published As

Publication number Publication date
KR102184649B1 (ko) 2020-11-30
US20220387747A1 (en) 2022-12-08

Similar Documents

Publication Publication Date Title
CN108028974B (zh) 多源音频放大和耳部保护装置
JP5315506B2 (ja) 骨伝導音伝播のための方法及びシステム
EP2533550B1 (en) A hearing device for diminishing loudness of tinnitus.
JP6374529B2 (ja) ヘッドセットと音源との間のオーディオの協調的処理
US6647123B2 (en) Signal processing circuit and method for increasing speech intelligibility
CN110915238B (zh) 语音清晰度增强系统
US7340231B2 (en) Method of programming a communication device and a programmable communication device
JP2017142485A (ja) ヘッドセットユーザの音声活動の存在又は不存在に応じてアクティブノイズコントロール、閉塞防止制御、及び、受動減衰相殺を伴うオーディオヘッドセット
KR20120034085A (ko) 이어폰 구조체 및 그 작동 방법
US10129672B2 (en) Hearing device comprising a signal generator for masking tinnitus
CN101163354A (zh) 用于运行助听器的方法以及助听器
EP2528356A1 (en) Voice dependent compensation strategy
CN114640938B (zh) 一种基于蓝牙耳机芯片的助听功能实现方法及蓝牙耳机
WO2021112373A1 (ko) 치과 치료용 소리 제어 시스템 및 방법
CN113038318B (zh) 一种语音信号处理方法及装置
WO2022114935A1 (ko) 청력보호용 소리 제어 시스템 및 방법
JP4079478B2 (ja) 音声信号の処理回路および処理方法
KR200310631Y1 (ko) 별도의 마이크 및 음성신호처리 제어부와 연결된 보청기장치
EP2858381A1 (en) Hearing aid specialised as a supplement to lip reading
JP2003284194A (ja) 補聴器
JP3292098B2 (ja) 聴覚補助装置
JP2003299198A (ja) 補聴器
WO2013151352A1 (ko) 적응적 청각보정 의료 장치 및 방법
KR20230089640A (ko) 청각 보조 장치 및 그 제어 방법
JP3616797B2 (ja) 聴覚器官の機能促進装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20895503

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 21/09/2022)

122 Ep: pct application non-entry in european phase

Ref document number: 20895503

Country of ref document: EP

Kind code of ref document: A1