WO2017183789A1 - 이어셋의 음색 보상 장치 및 방법 - Google Patents

이어셋의 음색 보상 장치 및 방법 Download PDF

Info

Publication number
WO2017183789A1
WO2017183789A1 PCT/KR2016/013992 KR2016013992W WO2017183789A1 WO 2017183789 A1 WO2017183789 A1 WO 2017183789A1 KR 2016013992 W KR2016013992 W KR 2016013992W WO 2017183789 A1 WO2017183789 A1 WO 2017183789A1
Authority
WO
WIPO (PCT)
Prior art keywords
parameter
voice
ear microphone
ear
unit
Prior art date
Application number
PCT/KR2016/013992
Other languages
English (en)
French (fr)
Inventor
김은동
Original Assignee
주식회사 오르페오사운드웍스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 오르페오사운드웍스 filed Critical 주식회사 오르페오사운드웍스
Priority to US16/093,031 priority Critical patent/US10638225B2/en
Priority to CN201680084780.XA priority patent/CN109076283B/zh
Priority to JP2018553918A priority patent/JP2019516304A/ja
Priority to DE112016006762.3T priority patent/DE112016006762T5/de
Publication of WO2017183789A1 publication Critical patent/WO2017183789A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/04Circuits for transducers, loudspeakers or microphones for correcting frequency response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1016Earpieces of the intra-aural type
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1041Mechanical or electronic switches, or control elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1083Reduction of ambient noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1091Details not provided for in groups H04R1/1008 - H04R1/1083
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/033Headphones for stereophonic communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/10Details of earpieces, attachments therefor, earphones or monophonic headphones covered by H04R1/10 but not provided for in any of its subgroups
    • H04R2201/107Monophonic and stereophonic headphones with microphone for two-way hands free communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2410/00Microphones
    • H04R2410/05Noise reduction with a separate noise microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/03Synergistic effects of band splitting and sub-band processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/15Determination of the acoustic seal of ear moulds or ear tips of hearing devices

Definitions

  • the present invention relates to an earset. More specifically, the present invention relates to an apparatus and a method for compensating a tone of an earset for compensating a tone of a user.
  • Such an earset may perform a function of transmitting sound to the ear canal and a function of collecting a user's voice in one body.
  • the speaker is directed toward the ear canal for sound transmission, and the microphone is exposed to the outside for collecting user voice.
  • the microphone exposed to the outside is not only user voice, but also external noise is collected together.
  • an earset having a microphone (in-ear microphone) installed in the ear canal direction has been proposed, but the frequency at which the voice is transmitted from the vocal cords to the eardrum through the eustachian tube is a low range of 0 to 2KHz. Therefore, there is a difficulty in restoring the original sound only by the low range input to the in-ear microphone.
  • the characteristics of the inner sound transmitted from the vocal cords to the eardrum are different for each user. If the same high-pitched recovery algorithm is applied to this, a problem may be generated that is different from the actual user's voice.
  • An object of the present invention is to provide an apparatus and method for compensating a tone of an ear set for compensating a tone of a user by comparing voices input from an in-ear microphone and an out-ear microphone.
  • an ear set tone compensator includes an in-ear microphone for collecting an inner ear voice transmitted from an vocal cord to an ear drum; Out-ear microphones that pick up external voice transmitted from the vocal cords out of the oral cavity; And a speech restoring unit for restoring speech by comparing each parameter of the speech signal transmitted from the in-ear microphone and the out-ear microphone.
  • the apparatus may further include a band extension unit configured to extend a bandwidth from the voice signal output from the in-ear microphone and the voice signal output from the voice recovery unit.
  • the sound compensating device of the ear set of the present invention the in-ear microphone for collecting the inner ear voice transmitted from the vocal cords to the ear drum; A band extension unit for extending the bandwidth from the inner voice of the low range to the inner voice of the high range; Out-ear microphones that pick up external voice transmitted from the vocal cords out of the oral cavity; And a speech restoring unit for restoring speech by comparing each parameter of the speech signal output from the band extension section with the speech signal transmitted from the out-ear microphone.
  • the speech reconstruction unit a parameter extraction unit for extracting a plurality of parameters from the transmitted voice signal; A parameter comparison unit for comparing measured values of each parameter; And a parameter compensator for compensating a parameter value of the out-ear microphone with respect to a parameter having a difference between measured values, and the parameter may include a phase and amplitude for each frequency of the voice.
  • the tone compensation method of the earset of the present invention in-ear microphone, the voice recording the inner ear delivered to the eardrum from the vocal cords, and in the out-ear microphone, the external voice transmitted outside the mouth from the vocal cords; Extracting, by a parameter extracting unit, phase and amplitude parameters for each frequency from voice signals transmitted from the in-ear microphone and the out-ear microphone; Comparing, by the parameter comparing unit, the phase-specific amplitude and amplitude parameters of the extracted in-ear microphones with the frequency-dependent phase and amplitude parameters of the out-ear microphones, respectively; And in the parameter compensator, compensating for the parameter having a difference between measured values with a phase and amplitude parameter value for each frequency of the out-ear microphone.
  • the band extension unit may further include expanding a bandwidth from the voice signal output from the in-ear microphone and the voice signal output from the parameter compensator.
  • the tone compensation method of the earset of the present invention in-ear microphone, the voice recording the inner ear delivered to the eardrum from the vocal cords, and in the out-ear microphone, the external voice transmitted outside the mouth from the vocal cords;
  • a band extension unit expanding a bandwidth of the voice signal of the in-ear microphone into a voice signal of a high range; Extracting, by a parameter extracting unit, phase and amplitude parameters for each frequency from speech signals transmitted from the band extension unit and the out-ear microphone; Comparing, by the parameter comparison unit, the phase-specific amplitude and amplitude parameters of the extracted band extension unit with the phase-specific amplitude and amplitude parameters of the out-ear microphone, respectively; And in the parameter compensator, compensating for the parameter having a difference between measured values with a phase and amplitude parameter value for each frequency of the out-ear microphone.
  • the voice input from the in-ear microphone and the out-ear microphone is restored to the user tone through comparison, thereby making it easier to communicate with the user and the other party. Can be provided.
  • FIG. 1 is a block diagram of a sound compensating device of an ear set according to an embodiment of the present invention.
  • FIG. 2 is a block diagram of a sound compensating device of an ear set according to another embodiment of the present invention.
  • FIG. 3 is a block diagram of a voice recovery unit according to an embodiment of the present invention.
  • FIG. 4 is a configuration diagram of a band extension unit according to an embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating a tone compensation method of an earset according to an embodiment of the present invention.
  • FIG. 6 is a flowchart illustrating a tone compensation method of an earset according to another embodiment of the present invention.
  • FIG. 8 is a view illustrating a process in which a tone compensation is performed through an app.
  • ⁇ means means a unit that processes at least one function or operation, Each of these may be implemented by software or hardware, or a combination thereof.
  • FIG. 1 is a block diagram of a sound compensating device of an ear set according to an embodiment of the present invention.
  • the sound compensating device of the ear set of the present invention includes an in-ear microphone 1 for collecting the inner voice transmitted from the vocal cords to the eardrum and an external voice transmitted outside the vocal cords.
  • the microphone 2 includes a voice reconstruction unit 3 for reconstructing the voice by comparing each parameter of the voice signal transmitted from the in-ear microphone 1 and the out-ear microphone 2.
  • the tone compensation device of the earset of the present invention the band extension unit 4 for extending the bandwidth from the voice signal output from the in-ear microphone 1 and the voice signal output from the voice reconstruction unit 3 is further added. It may include.
  • FIG. 2 is a block diagram of a sound compensating device of an ear set according to another embodiment of the present invention.
  • the sound compensating device of the earset of the present invention includes an in-ear microphone 1 for collecting the inner voice transmitted from the vocal cords to the ear drum, and the bandwidth from the low end inner voice to the high end inner voice.
  • the band extension section 4 an out-ear microphone 2 for picking up external voice transmitted from the vocal cords, and a voice signal output from the band extension section 4 and the out-ear microphone 2;
  • a speech restoring unit 3 for restoring speech by comparing each parameter of the speech signal.
  • FIG. 3 is a block diagram of a voice restoration unit of the present invention.
  • the voice reconstruction unit 3 of the present invention includes a parameter extraction unit 31 which extracts a plurality of parameters from voice signals transmitted from the in-ear microphone 1 and the out-ear microphone 2. ), A parameter comparator 32 for comparing the measured values of each parameter of the in-ear microphone 1 and the out-ear microphone 2, and the out-ear microphone 2 for the parameter having a difference between the measured values. And a parameter compensating unit 33 for compensating with the parameter value of.
  • the parameter includes frequency-specific phase and amplitude for speech. That is, parameters are extracted from elements of a sinusoidal signal including phase and amplitude for each frequency.
  • the parameter extraction unit 31 may be configured in each of the in-ear microphone 1 and the out-ear microphone 2.
  • the speech reconstruction unit 3 of the present invention configured as described above extracts phase and amplitude parameters for each frequency from voice signals transmitted from each of the in-ear microphone 1 and the out-ear microphone 2. Compare the phase-specific amplitude and amplitude parameters of the extracted in-ear microphone 1 with the frequency-dependent phase and amplitude parameters of the out-ear microphone 2, respectively, and compare the out-ear microphone 2 with respect to the parameter having a difference between the measured values. Compensate with the phase and amplitude parameter values for each frequency.
  • FIG. 4 is a configuration diagram of a band extension unit according to an embodiment of the present invention.
  • the band extension unit 4 of the present invention includes a first linear prediction analyzer 61 which determines an excitation signal from an input super-narrowband signal, An excitation signal extension 62 for generating a sound by outputting a wideband excitation signal through a spectral folding technique or a Gaussian noise passband conversion technique, and a high frequency band signal by doubling (N times) the frequency of the ultra narrowband signal.
  • a high frequency spectrum expansion unit 63 for extending a wideband signal including a second linear prediction analysis unit 64 for estimating and determining a high frequency band signal from the extended wideband signal, and a second linear prediction analysis unit 64; A filtering unit 65 for filtering the high frequency band signal output from the high frequency band signal, and a combining unit 66 for synthesizing the high frequency band signal output from the filtering unit 65 and the wideband excitation signal output from the excitation signal expansion unit 62. And a mixing section 67 for mixing the high frequency signal and the ultra narrow band signal output from the combining section 66.
  • the band extension unit 4 of the present invention multiplies and expands and filters the frequencies of the excitation signal and the super narrowband signal, which are extended from the super-narrowband signal inputted with a high frequency.
  • a high frequency signal generation unit for synthesizing band signals to generate a high frequency signal, and a mixing unit 67 for mixing high frequency signals and ultra narrow band signals.
  • the high frequency spectral expansion unit 63 upsamples the ultra narrowband signal (0 to 2 KHz) twice, and the upsampled signal is sampled at 4 KHz.
  • the signal output from the high frequency spectrum expansion unit 63 is the same as the 0 ⁇ 4KHz band, the high frequency band 4 ⁇ 8KHz will have the same spectrum as the folded version of the input signal.
  • the spectrum is used to estimate the high frequency band signal.
  • the filtering unit 65 extracts the voice signal of the 4 ⁇ 8KHz band.
  • the synthesis unit 66 synthesizes a voice signal in the 0 to 4KHz band and a voice signal in the 4 to 8KHz band, and then the high frequency voice output from the combiner 66 and the ultra narrowband signal before extension (0 to 4KHz). 2KHz) to finally recover the high range.
  • the band extension section 4 of the present invention enables high-band reconstruction even when a super-narrowband signal is input to the in-ear microphone 1. That is, in general, the treble reconstruction algorithm extends from 0 to 4KHz to 8KHz, whereas in the present invention, reconstruction is performed for a narrowband signal of less than 2KHz input to the in-ear microphone 1. In addition, in the present invention, it is possible to recover the high range even though the calculation amount is significantly reduced.
  • an operation of predicting and extending a frequency through a linear prediction encoding based algorithm is not performed, and a simple frequency extension is performed through a high frequency spectrum extension. That is, the operation of estimating and extending the frequency in real time is omitted, and only the frequency is extended by using rectifier, spectral folding, and modulation techniques. This can greatly reduce the amount of computation.
  • the wideband signal is output by simply expanding the frequency in the high frequency spectrum extension unit 63 as described above, after performing linear prediction analysis on this, only simple filtering is performed using a filter without performing frequency expansion through linear prediction modeling. do. In other words, filtering is performed close to the original sound (high range) without bandwidth extension. Subsequently, a high frequency signal is generated by combining the filtered result with the result of the extended excitation signal. Then, when the high frequency signal and the ultra narrow band signal input through the in-ear microphone 1 are finally mixed, the high range is restored.
  • FIG. 5 is a flowchart illustrating a tone compensation method of an earset according to an embodiment of the present invention.
  • the in-ear microphone 1 picks up the inner voice transmitted from the vocal cords to the ear drum, and in the out-ear microphone 2, the external voice is transmitted from the vocal cords to the outside of the mouth.
  • To collect (S1) the in-ear microphone 1 picks up the inner voice transmitted from the vocal cords to the ear drum, and in the out-ear microphone 2, the external voice is transmitted from the vocal cords to the outside of the mouth.
  • the parameter extraction unit 31 extracts phase and amplitude parameters for each frequency from the voice signals transmitted from the in-ear microphone 1 and the out-ear microphone 2 (S2).
  • the parameter comparison unit 32 compares the phase-specific amplitude and amplitude parameters of the extracted in-ear microphone 1 with the phase-specific amplitude parameters of the out-ear microphone 2 (S3).
  • the parameter compensator 33 compensates for the parameter having a difference between the measured values by the phase and amplitude parameter values for the frequencies of the out-ear microphone 2 (S4).
  • the band extension unit 4 may further proceed to expand the bandwidth from the voice signal output from the in-ear microphone 1 and the voice signal output from the parameter compensator 33 (S5).
  • FIG. 6 is a flowchart illustrating a tone compensation method of an earset according to another embodiment of the present invention.
  • the in-ear microphone 1 picks up the inner voice transmitted from the vocal cords to the eardrum (S11), and thus, the band extension 4 receives the lower voice from the inner ear.
  • the inner voice of the high range expands the bandwidth (S12).
  • the out-ear microphone (2) is made of the external voice collected from the vocal cords orally (S11).
  • the parameter extracting unit 31 extracts frequency and phase parameters for each frequency from the voice signals transmitted from the band extension unit 4 and the out-ear microphone 2 (S13).
  • the parameter comparison unit 32 compares the phase-specific amplitude and amplitude parameters of the extracted band extension unit 4 and the frequency-dependent phase and amplitude parameters of the out-ear microphone 2, respectively (S14).
  • the parameter compensator 33 compensates for the parameter having a difference between the measured values by the phase and amplitude parameter values for the frequencies of the out-ear microphone 2 (S15).
  • the present invention compares an external signal with an internal signal to adjust a frequency response characteristic.
  • FIG. 8 is a view illustrating a process in which a tone compensation is performed through an app.
  • a flowchart illustrating a process of setting a parameter reference value by executing an app on a smartphone, and a process of performing tone compensation.
  • the wired / wireless connection state between the smartphone and the earset is checked (S21).
  • the user's voice is input while the smartphone and the earset are connected (S22). At this time, it is preferable to check the noise input from the out-ear microphone 2 before the user voice input so that the user voice input is made when the noise value is less than or equal to the set value.
  • the phase and amplitude parameters for each frequency is extracted from the speech signal output from the in-ear microphone 1 and the out-ear microphone 2 (S23).
  • the compensation value is determined based on the phase and amplitude parameter values of the frequency of the out-ear microphone 2 with respect to the parameter having the difference between the measured values (S25).
  • the compensation value is then stored in the memory (S26).
  • the compensation value stored in the memory may be used for speech restoration. That is, speech restoration may be performed by applying a compensation value stored in a memory to the speech signal transmitted from the in-ear microphone 1.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Headphones And Earphones (AREA)
  • Details Of Audible-Bandwidth Transducers (AREA)

Abstract

이어셋의 음색 보상 장치 및 방법이 개시된다. 본 발명에 의한 이어셋의 음색 보상 장치(방법)는, 파라미터 추출부에서, 인-이어 마이크로폰과 아웃-이어 마이크로폰으로부터 전달된 음성 신호로부터 주파수별 위상 및 진폭 파라미터를 추출하고, 파라미터 비교부에서, 추출된 인-이어 마이크로폰의 주파수별 위상 및 진폭 파라미터와 아웃-이어 마이크로폰의 주파수별 위상 및 진폭 파라미터를 각각 비교하며, 파라미터 보상부에서, 측정값 간의 차이가 있는 파라미터에 대해 아웃-이어 마이크로폰의 주파수별 위상 및 진폭 파라미터값으로 보상한다.

Description

이어셋의 음색 보상 장치 및 방법
본 발명은 이어셋에 관한 것이다. 더 구체적으로는 사용자의 음색을 보상하는 이어셋의 음색 보상 장치 및 방법에 관한 것이다.
최근, 스피커와 마이크로폰을 일체화시킨 이어셋이 많이 제안되고 있다.
이러한 이어셋은 외이도로 음향을 전달하는 기능과 사용자 음성을 집음하는 기능을 하나의 바디(Body)에서 수행할 수 있다. 이에 통상, 스피커는 음향 전달을 위해 외이도 방향을 향하게 되며, 마이크로폰은 사용자 음성을 집음하기 위해 외부로 노출되게 된다.
그런데, 외부로 노출된 마이크로폰에는 사용자 음성뿐 아니라, 외부 소음도 함께 집음되게 된다.
이에 외부 소음 문제를 해결하기 위해, 마이크로폰(인-이어 마이크로폰)을 외이도 방향으로 설치한 이어셋이 제안된 바 있으나, 목소리가 성대로부터 유스타키오관을 통하여 고막쪽으로 전달되는 주파수는 0 ~ 2KHz 정도의 저음역이고, 이에 따라 인-이어 마이크로폰에 입력되는 저음역만으로 원음을 복원하는데 어려움이 있다.
이러한 고음역 상실 문제를 해결하기 위해, 마이크로폰을 다수개 구성하여 마이크로폰에 입력된 서로 다른 대역의 주파수 음성을 합성하여 원음으로 복원시키는 기술이 제안된 바 있다. 즉, 외이도 측에 설치되는 인-이어(In-Ear) 마이크로폰과, 귓바퀴 바깥쪽에 설치되는 아웃-이어(Out-Ear) 마이크로폰을 함께 구성하고, 인-이어(In-Ear) 마이크로폰과 아웃-이어(Out-Ear) 마이크로폰으로 입력되는 서로 다른 대역의 주파수 음성을 합성하여 원음을 복원하는 것이다.
그런데, 성대로부터 귀의 고막까지 전달되는 내이 음성(Inner sound)의 특성은 사용자마다 다르다. 이에 동일한 고음 복원 알고리즘을 적용할 경우, 실제 사용자의 음성과 다르게 복원되는 문제가 발생할 수 있다.
이에 사용자마다 다른 내이 음성의 특성을 고려하여 복원 알고리즘을 개량할 필요성이 있다.
본 발명의 목적은 인-이어 마이크로폰과 아웃-이어 마이크로폰으로부터 입력된 음성을 비교하여 사용자의 음색을 보상하는 이어셋의 음색 보상 장치 및 방법을 제공하는데 있다.
상기와 같은 목적을 달성하기 위한 본 발명의 이어셋의 음색 보상 장치는, 성대에서 귀의 고막으로 전달된 내이 음성을 집음하는 인-이어 마이크로폰; 성대에서 구강밖으로 전달된 외부 음성을 집음하는 아웃-이어 마이크로폰; 및 상기 인-이어 마이크로폰과 상기 아웃-이어 마이크로폰으로부터 전달된 음성 신호의 각 파라미터를 비교하여 음성을 복원하는 음성 복원부를 포함한다.
이 때, 상기 인-이어 마이크로폰으로부터 출력된 음성 신호와 상기 음성 복원부로부터 출력된 음성 신호로부터 대역폭을 확장시키는 대역 확장부를 더 포함할 수 있다.
한편, 본 발명의 이어셋의 음색 보상 장치는, 성대에서 귀의 고막으로 전달된 내이 음성을 집음하는 인-이어 마이크로폰; 저음역의 내이 음성으로부터 고음역의 내이 음성으로 대역폭을 확장시키는 대역 확장부; 성대에서 구강밖으로 전달된 외부 음성을 집음하는 아웃-이어 마이크로폰; 및 상기 대역 확장부로부터 출력된 음성 신호와 상기 아웃-이어 마이크로폰으로부터 전달된 음성 신호의 각 파라미터를 비교하여 음성을 복원하는 음성 복원부를 포함한다.
여기서, 상기 음성 복원부는, 전달된 음성 신호로부터 다수의 파라미터를 추출하는 파라미터 추출부; 각 파라미터의 측정값을 비교하는 파라미터 비교부; 및 측정값 간의 차이가 있는 파라미터에 대해 상기 아웃-이어 마이크로폰의 파라미터값으로 보상하는 파라미터 보상부를 포함하며, 상기 파라미터는 음성에 대한 주파수별 위상 및 진폭을 포함할 수 있다.
한편, 본 발명의 이어셋의 음색 보상 방법은, 인-이어 마이크로폰에서, 성대에서 귀의 고막으로 전달된 내이 음성을 집음하고, 아웃-이어 마이크로폰에서, 성대에서 구강밖으로 전달된 외부 음성을 집음하는 단계; 파라미터 추출부에서, 상기 인-이어 마이크로폰과 상기 아웃-이어 마이크로폰으로부터 전달된 음성 신호로부터 주파수별 위상 및 진폭 파라미터를 추출하는 단계; 파라미터 비교부에서, 추출된 상기 인-이어 마이크로폰의 주파수별 위상 및 진폭 파라미터와 상기 아웃-이어 마이크로폰의 주파수별 위상 및 진폭 파라미터를 각각 비교하는 단계; 및 파라미터 보상부에서, 측정값 간의 차이가 있는 파라미터에 대해 상기 아웃-이어 마이크로폰의 주파수별 위상 및 진폭 파라미터값으로 보상하는 단계를 포함한다.
이 때, 대역 확장부에서, 상기 인-이어 마이크로폰으로부터 출력된 음성 신호와 상기 파라미터 보상부로부터 출력된 음성 신호로부터 대역폭을 확장시키는 단계를 더 포함할 수 있다.
한편, 본 발명의 이어셋의 음색 보상 방법은, 인-이어 마이크로폰에서, 성대에서 귀의 고막으로 전달된 내이 음성을 집음하고, 아웃-이어 마이크로폰에서, 성대에서 구강밖으로 전달된 외부 음성을 집음하는 단계; 대역 확장부에서, 상기 인-이어 마이크로폰의 음성 신호를 고음역의 음성 신호로 대역폭을 확장시키는 단계; 파라미터 추출부에서, 상기 대역 확장부와 상기 아웃-이어 마이크로폰으로부터 전달된 음성 신호로부터 주파수별 위상 및 진폭 파라미터를 추출하는 단계; 파라미터 비교부에서, 추출된 상기 대역 확장부의 주파수별 위상 및 진폭 파라미터와 상기 아웃-이어 마이크로폰의 주파수별 위상 및 진폭 파라미터를 각각 비교하는 단계; 및 파라미터 보상부에서, 측정값 간의 차이가 있는 파라미터에 대해 상기 아웃-이어 마이크로폰의 주파수별 위상 및 진폭 파라미터값으로 보상하는 단계를 포함한다.
상술한 바와 같이, 본 발명에 의한 이어셋의 음색 보상 장치 및 방법에 따르면, 인-이어 마이크로폰과 아웃-이어 마이크로폰으로부터 입력된 음성을 비교를 통해 사용자 음색으로 복원함으로써 사용자 본인 및 상대방과의 대화에 편안함을 제공할 수 있다.
도 1은 본 발명의 일 실시예에 의한 이어셋의 음색 보상 장치의 구성도이다.
도 2는 본 발명의 다른 실시예에 의한 이어셋의 음색 보상 장치의 구성도이다.
도 3은 본 발명의 일 실시예에 의한 음성 복원부의 구성도이다.
도 4는 본 발명의 일 실시예에 의한 대역 확장부의 구성도이다.
도 5는 본 발명의 일 실시예에 의한 이어셋의 음색 보상 방법의 흐름도이다.
도 6은 본 발명의 다른 실시예에 의한 이어셋의 음색 보상 방법의 흐름도이다.
도 7은 본 발명의 음색 보상의 개념도이다.
도 8은 앱(App)을 통해 음색 보상이 이루어지는 과정을 나타낸 도면이다.
이하에서는 본 발명의 바람직한 실시예 및 첨부하는 도면을 참조하여 본 발명을 상세히 설명하되, 도면의 동일한 참조부호는 동일한 구성요소를 지칭함을 전제하여 설명하기로 한다.
발명의 상세한 설명 또는 특허청구범위에서 어느 하나의 구성요소가 다른 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 당해 구성요소만으로 이루어지는 것으로 한정되어 해석되지 아니하며, 다른 구성요소들을 더 포함할 수 있는 것으로 이해되어야 한다.
또한, 발명의 상세한 설명 또는 특허청구범위에서 "~수단", "~부", "~모듈", "~블록"으로 명명된 구성요소들은 적어도 하나 이상의 기능이나 동작을 처리하는 단위를 의미하며, 이들 각각은 소프트웨어 또는 하드웨어, 또는 이들의 결합에 의하여 구현될 수 있다.
이하에서는 본 발명의 이어셋의 음색 보상 장치 및 방법이 구현된 일 예를 특정한 실시예를 통해 설명하기로 한다.
도 1은 본 발명의 일 실시예에 의한 이어셋의 음색 보상 장치의 구성도이다.
도 1을 참조하면, 본 발명의 이어셋의 음색 보상 장치는, 성대에서 귀의 고막으로 전달된 내이 음성을 집음하는 인-이어 마이크로폰(1)과, 성대에서 구강밖으로 전달된 외부 음성을 집음하는 아웃-이어 마이크로폰(2)과, 인-이어 마이크로폰(1)과 아웃-이어 마이크로폰(2)으로부터 전달된 음성 신호의 각 파라미터를 비교하여 음성을 복원하는 음성 복원부(3)를 포함한다.
여기에, 본 발명의 이어셋의 음색 보상 장치는, 인-이어 마이크로폰(1)으로부터 출력된 음성 신호와 음성 복원부(3)로부터 출력된 음성 신호로부터 대역폭을 확장시키는 대역 확장부(4)를 더 포함할 수 있다.
도 2는 본 발명의 다른 실시예에 의한 이어셋의 음색 보상 장치의 구성도이다.
도 2를 참조하면, 본 발명의 이어셋의 음색 보상 장치는, 성대에서 귀의 고막으로 전달된 내이 음성을 집음하는 인-이어 마이크로폰(1)과, 저음역의 내이 음성으로부터 고음역의 내이 음성으로 대역폭을 확장시키는 대역 확장부(4)와, 성대에서 구강밖으로 전달된 외부 음성을 집음하는 아웃-이어 마이크로폰(2)과, 대역 확장부(4)로부터 출력된 음성 신호와 아웃-이어 마이크로폰(2)으로부터 전달된 음성 신호의 각 파라미터를 비교하여 음성을 복원하는 음성 복원부(3)를 포함한다.
도 3은 본 발명의 음성 복원부의 구성도이다.
*도 3을 참조하면, 본 발명의 음성 복원부(3)는, 인-이어 마이크로폰(1) 및 아웃-이어 마이크로폰(2)으로부터 전달된 음성 신호로부터 다수의 파라미터를 추출하는 파라미터 추출부(31)와, 인-이어 마이크로폰(1)과 아웃-이어 마이크로폰(2)의 각 파라미터의 측정값을 비교하는 파라미터 비교부(32)와, 측정값 간의 차이가 있는 파라미터에 대해 아웃-이어 마이크로폰(2)의 파라미터값으로 보상하는 파라미터 보상부(33)를 포함한다.
여기서, 파라미터는 음성에 대한 주파수별 위상 및 진폭을 포함한다. 즉, 주파수별 위상 및 진폭을 포함하는 정현파 신호의 요소로부터 파라미터를 추출한다.
상기한 파라미터 추출부(31)는 인-이어 마이크로폰(1)과 아웃-이어 마이크로폰(2) 각각에 구성될 수 있다.
한편, 본 실시예에서는 실시간으로 음성과 관련된 파라미터 간 비교가 이루어지는 경우에 대해 설명하고 있으나, 각 파라미터 기준값을 저장한 메모리와의 비교를 통해 파라미터 간 비교가 이루어질 수도 있다. 이에, 각 파라미터 기준값을 설정하기 위한 과정이 진행될 수 있다.
이와 같이 구성된 본 발명의 음성 복원부(3)는, 인-이어 마이크로폰(1) 및 아웃-이어 마이크로폰(2) 각각으로부터 전달된 음성 신호로부터 주파수별 위상 및 진폭 파라미터를 추출한다. 추출된 인-이어 마이크로폰(1)의 주파수별 위상 및 진폭 파라미터와 아웃-이어 마이크로폰(2)의 주파수별 위상 및 진폭 파라미터를 각각 비교하여 측정값 간의 차이가 있는 파라미터에 대해 아웃-이어 마이크로폰(2)의 주파수별 위상 및 진폭 파라미터값으로 보상한다.
도 4는 본 발명의 일 실시예에 의한 대역 확장부의 구성도이다.
도 4를 참조하면, 본 발명의 대역 확장부(4)는, 입력된 초협대역 신호(Super-Narrowband signal)로부터 여기신호(excitation signal)를 결정하는 제1 선형 예측 분석부(61)와, 결정된 여기신호를 스펙트럼 폴딩 기법 또는 가우시안 노이즈 통과대역 변환 기법 등을 통해 광대역 여기신호를 출력하여 소리를 생성하는 여기신호 확장부(62)와, 초협대역 신호의 주파수를 배가(N배)시켜 고주파 대역 신호를 포함하는 광대역 신호로 확장시키는 고주파 스펙트럼 확장부(63)와, 확장된 광대역 신호로부터 고주파 대역 신호를 추정 및 결정하는 제2 선형 예측 분석부(64)와, 제2 선형 예측 분석부(64)로부터 출력된 고주파 대역 신호를 필터링하는 필터링부(65)와, 필터링부(65)로부터 출력된 고주파 대역 신호와 여기신호 확장부(62)로부터 출력된 광대역 여기신호를 합성하는 합성부(66)와, 합성부(66)로부터 출력된 고주파 신호와 초협대역 신호를 믹싱하는 믹싱부(67)를 포함한다. 이와 같이, 본 발명의 대역 확장부(4)는, 고주파 크게 입력된 초협대역 신호(Super-Narrowband signal)로부터 확장된 여기신호(excitation signal)와 초협대역 신호의 주파수를 배가시켜 확장시키고 필터링한 고주파 대역 신호를 합성하여 고주파 신호를 생성하는 고주파 신호 생성부와, 고주파 신호와 초협대역 신호를 믹싱하는 믹싱부(67)로 구성되어 있다.
고주파 스펙트럼 확장부(63)는 일례로서, 초협대역 신호(0 ~ 2KHz)를 2배로 업샘플링하면, 업샘플링된 신호는 4KHz에서 샘플링된다. 이에 고주파 스펙트럼 확장부(63)에서 출력되는 신호는 0 ~ 4KHz 대역과 동일하고, 고주파 대역인 4 ~ 8KHz에서는 입력 신호의 폴딩된 버전과 동일한 스펙트럼을 갖게 된다. 이 스펙트럼을 이용하여 고주파 대역 신호를 추정하게 된다. 이에, 필터링부(65)에서는 4 ~ 8KHz 대역의 음성 신호를 추출하게 된다. 이후, 합성부(66)에서는 0 ~ 4KHz 대역의 음성 신호와 4 ~ 8KHz 대역의 음성 신호의 합성이 이루어지고, 이어서 합성부(66)에서 출력된 고주파 음성과 확장 이전의 초협대역 신호(0 ~ 2KHz)를 믹싱하여 최종적으로 고음역을 복원한다.
*이와 같이, 본 발명의 본 발명의 대역 확장부(4)는, 초협대역 신호(Super-Narrowband signal)가 인-이어 마이크로폰(1)으로 입력되더라도 고음역 복원이 가능하도록 하고 있다. 즉, 일반적으로 고음 복원 알고리즘은 0 ~ 4KHz를 8KHz 까지 확장하는데 반해, 본 발명에서는 인-이어 마이크로폰(1)으로 입력되는 2KHz 미만의 초협대역 신호에 대해 복원이 이루어지게 된다. 게다가, 본 발명에서는 연산량이 현저하게 감소되었음에도 불구하고 고음역을 복원할 수 있다.
본 발명에서는 선형 예측 부호화 기반 알고리즘을 통해 주파수를 예측하여 확장시키는 연산은 수행하지 않으며, 고주파 스펙트럼 확장(High Frequency Spectrum Extension)을 통해 단순 주파수 확장이 이루어지도록 한다. 즉, 주파수를 예측해서 실시간으로 만들어서 확장시키는 연산은 생략하고, 정류기(rectifier), 스펙트럼 폴딩(spectral folding), 변환(modulation) 기법을 사용해서 주파수만 확장시킨다. 이에 연산량이 크게 감소시킬 수 있다.
이와 같이 고주파 스펙트럼 확장부(63)에서 단순히 주파수만 확장시킴으로써 광대역 신호가 출력되면, 이에 대해 선형 예측 분석을 수행한 후, 선형 예측 모델링을 통한 주파수 확장을 수행하지 않고 필터를 사용하여 단순 필터링만을 수행한다. 즉, 대역폭 확장 없이 원음(고음역)에 근접한 필터링이 이루어지는 것이다. 이후, 필터링된 결과와 여기신호가 확장된 결과를 합성하면 고주파 신호가 생성된다. 이어서, 마지막으로 고주파 신호와 인-이어 마이크로폰(1)을 통해 입력받은 초협대역 신호를 믹싱하면 고음역이 복원된다.
그러면, 여기서 상기와 같이 구성된 시스템을 이용한 본 발명의 이어셋의 음색 보상 방법에 대해 설명하기로 한다.
도 5는 본 발명의 일 실시예에 의한 이어셋의 음색 보상 방법의 흐름도이다.
도 5를 참조하면, 사용자의 발성이 이루어지면, 인-이어 마이크로폰(1)에서는 성대에서 귀의 고막으로 전달된 내이 음성을 집음하고, 아웃-이어 마이크로폰(2)에서는 성대에서 구강밖으로 전달된 외부 음성을 집음한다(S1).
이에, 파라미터 추출부(31)에서는 인-이어 마이크로폰(1)과 아웃-이어 마이크로폰(2)으로부터 전달된 음성 신호로부터 주파수별 위상 및 진폭 파라미터를 추출한다(S2).
이어서, 파라미터 비교부(32)에서는 추출된 인-이어 마이크로폰(1)의 주파수별 위상 및 진폭 파라미터와 아웃-이어 마이크로폰(2)의 주파수별 위상 및 진폭 파라미터를 각각 비교한다(S3).
그리고, 파라미터 보상부(33)에서는 측정값 간의 차이가 있는 파라미터에 대해 아웃-이어 마이크로폰(2)의 주파수별 위상 및 진폭 파라미터값으로 보상한다(S4).
한편, 대역 확장부(4)는 인-이어 마이크로폰(1)으로부터 출력된 음성 신호와 파라미터 보상부(33)로부터 출력된 음성 신호로부터 대역폭을 확장시키는 과정을 더 진행할 수 있다(S5).
도 6은 본 발명의 다른 실시예에 의한 이어셋의 음색 보상 방법의 흐름도이다.
도 6을 참조하면, 사용자의 발성이 이루어지면, 인-이어 마이크로폰(1)에서는 성대에서 귀의 고막으로 전달된 내이 음성을 집음하고(S11), 이에 대역 확장부(4)에서는 저음역의 내이 음성으로부터 고음역의 내이 음성으로 대역폭을 확장시킨다(S12). 한편, 아웃-이어 마이크로폰(2)에서도 성대에서 구강밖으로 전달된 외부 음성의 집음이 이루어진다(S11).
이어서, 파라미터 추출부(31)에서는 대역 확장부(4)와 아웃-이어 마이크로폰(2)으로부터 전달된 음성 신호로부터 주파수별 위상 및 진폭 파라미터를 추출한다(S13).
이에, 파라미터 비교부(32)에서는 추출된 대역 확장부(4)(1)의 주파수별 위상 및 진폭 파라미터와 아웃-이어 마이크로폰(2)의 주파수별 위상 및 진폭 파라미터를 각각 비교한다(S14).
그리고, 파라미터 보상부(33)에서는 측정값 간의 차이가 있는 파라미터에 대해 아웃-이어 마이크로폰(2)의 주파수별 위상 및 진폭 파라미터값으로 보상한다(S15).
도 7은 본 발명의 음색 보상의 개념도이다.
도 7을 참조하면, 본 발명에서는 외부 신호와 내부 신호를 비교하여 주파수 응답 특성을 조정하는 프로세스를 진행하게 된다.
도 8은 앱(App)을 통해 음색 보상이 이루어지는 과정을 나타낸 도면이다.
일례로서, 스마트폰 등에서 앱(App)을 실행시켜 파라미터 기준값을 설정하는 과정 및 음색 보상이 이루어지는 과정을 나타낸 흐름도이다.
도 8을 참조하면, 스마트폰과 이어셋의 유ㆍ무선 연결 상태를 확인한다(S21).
파라미터 기준값이 설정되어 있지 않은 경우에는 파라미터 기준값을 설정하는 과정을 진행한다.
스마트폰과 이어셋이 연결된 상태에서 사용자 음성을 입력한다(S22). 이 때, 사용자 음성 입력 이전에, 아웃-이어 마이크로폰(2)으로부터 입력되는 소음을 체크하여 소음값이 설정값 이하일 경우에 사용자 음성 입력이 이루어지도록 하는 것이 바람직하다.
앱(App)에서 안내하는 문장을 읽으면, 인-이어 마이크로폰(1)과 아웃-이어 마이크로폰(2)으로부터 출력된 음성 신호로부터 주파수별 위상 및 진폭 파라미터를 추출한다(S23).
이어서, 추출된 인-이어 마이크로폰(1)의 주파수별 위상 및 진폭 파라미터와 아웃-이어 마이크로폰(2)의 주파수별 위상 및 진폭 파라미터를 각각 비교한다(S24).
이에, 측정값 간의 차이가 있는 파라미터에 대해 아웃-이어 마이크로폰(2)의 주파수별 위상 및 진폭 파라미터값을 기준으로 하여 보상값을 결정한다(S25).
그리고, 보상값을 메모리에 저장한다(S26).
이후, 메모리에 저장된 보상값은 음성 복원에 이용될 수 있다. 즉, 인-이어 마이크로폰(1)으로부터 전달된 음성 신호에 대해 메모리에 저장된 보상값을 적용하여 음성 복원이 이루어질 수 있다.
이상 몇 가지의 실시예를 통해 본 발명의 기술적 사상을 살펴보았다.
본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기재사항으로부터 상기 살펴본 실시예를 다양하게 변형하거나 변경할 수 있음은 자명하다. 또한, 비록 명시적으로 도시되거나 설명되지 아니하였다 하여도 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기재사항으로부터 본 발명에 의한 기술적 사상을 포함하는 다양한 형태의 변형을 할 수 있음은 자명하며, 이는 여전히 본 발명의 권리범위에 속한다. 첨부하는 도면을 참조하여 설명된 상기의 실시예들은 본 발명을 설명하기 위한 목적으로 기술된 것이며 본 발명의 권리범위는 이러한 실시예에 국한되지 아니한다.

Claims (7)

  1. 성대에서 귀의 고막으로 전달된 내이 음성을 집음하는 인-이어 마이크로폰;
    성대에서 구강밖으로 전달된 외부 음성을 집음하는 아웃-이어 마이크로폰; 및
    상기 인-이어 마이크로폰과 상기 아웃-이어 마이크로폰으로부터 전달된 음성 신호의 각 파라미터를 비교하여 음성을 복원하는 음성 복원부를 포함하는 이어셋의 음색 보상 장치.
  2. 제1항에 있어서,
    상기 인-이어 마이크로폰으로부터 출력된 음성 신호와 상기 음성 복원부로부터 출력된 음성 신호로부터 대역폭을 확장시키는 대역 확장부를 더 포함하는 이어셋의 음색 보상 장치.
  3. 성대에서 귀의 고막으로 전달된 내이 음성을 집음하는 인-이어 마이크로폰;
    저음역의 내이 음성으로부터 고음역의 내이 음성으로 대역폭을 확장시키는 대역 확장부;
    성대에서 구강밖으로 전달된 외부 음성을 집음하는 아웃-이어 마이크로폰; 및
    상기 대역 확장부로부터 출력된 음성 신호와 상기 아웃-이어 마이크로폰으로부터 전달된 음성 신호의 각 파라미터를 비교하여 음성을 복원하는 음성 복원부를 포함하는 이어셋의 음색 보상 장치.
  4. 제1항 및 제3항 가운데 어느 한 항에 있어서,
    상기 음성 복원부는,
    전달된 음성 신호로부터 다수의 파라미터를 추출하는 파라미터 추출부;
    각 파라미터의 측정값을 비교하는 파라미터 비교부; 및
    상기 측정값 간의 차이가 있는 파라미터에 대해 상기 아웃-이어 마이크로폰의 파라미터값으로 보상하는 파라미터 보상부를 포함하며,
    상기 파라미터는 음성에 대한 주파수별 위상 및 진폭을 포함하는 이어셋의 음색 보상 장치.
  5. 인-이어 마이크로폰에서, 성대에서 귀의 고막으로 전달된 내이 음성을 집음하고, 아웃-이어 마이크로폰에서, 성대에서 구강밖으로 전달된 외부 음성을 집음하는 단계;
    파라미터 추출부에서, 상기 인-이어 마이크로폰과 상기 아웃-이어 마이크로폰으로부터 전달된 음성 신호로부터 주파수별 위상 및 진폭 파라미터를 추출하는 단계;
    파라미터 비교부에서, 추출된 상기 인-이어 마이크로폰의 주파수별 위상 및 진폭 파라미터와 상기 아웃-이어 마이크로폰의 주파수별 위상 및 진폭 파라미터를 각각 비교하는 단계; 및
    파라미터 보상부에서, 측정값 간의 차이가 있는 파라미터에 대해 상기 아웃-이어 마이크로폰의 주파수별 위상 및 진폭 파라미터값으로 보상하는 단계를 포함하는 이어셋의 음색 보상 방법.
  6. 제5항에 있어서,
    대역 확장부에서, 상기 인-이어 마이크로폰으로부터 출력된 음성 신호와 상기 파라미터 보상부로부터 출력된 음성 신호로부터 대역폭을 확장시키는 단계를 더 포함하는 이어셋의 음색 보상 방법.
  7. 인-이어 마이크로폰에서, 성대에서 귀의 고막으로 전달된 내이 음성을 집음하고, 아웃-이어 마이크로폰에서, 성대에서 구강밖으로 전달된 외부 음성을 집음하는 단계;
    대역 확장부에서, 상기 인-이어 마이크로폰의 음성 신호를 고음역의 음성 신호로 대역폭을 확장시키는 단계;
    파라미터 추출부에서, 상기 대역 확장부와 상기 아웃-이어 마이크로폰으로부터 전달된 음성 신호로부터 주파수별 위상 및 진폭 파라미터를 추출하는 단계;
    파라미터 비교부에서, 추출된 상기 대역 확장부의 주파수별 위상 및 진폭 파라미터와 상기 아웃-이어 마이크로폰의 주파수별 위상 및 진폭 파라미터를 각각 비교하는 단계; 및
    파라미터 보상부에서, 측정값 간의 차이가 있는 파라미터에 대해 상기 아웃-이어 마이크로폰의 주파수별 위상 및 진폭 파라미터값으로 보상하는 단계를 포함하는 이어셋의 음색 보상 방법.
PCT/KR2016/013992 2016-04-19 2016-11-30 이어셋의 음색 보상 장치 및 방법 WO2017183789A1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US16/093,031 US10638225B2 (en) 2016-04-19 2016-11-30 Tone compensation device and method for earset
CN201680084780.XA CN109076283B (zh) 2016-04-19 2016-11-30 耳机的音色补偿装置及方法
JP2018553918A JP2019516304A (ja) 2016-04-19 2016-11-30 イヤーセットの音色補償装置および方法
DE112016006762.3T DE112016006762T5 (de) 2016-04-19 2016-11-30 Vorrichtung und Verfahren zur Ausgleichung einer Klangfarbe eines Ohrhörersets

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2016-0047634 2016-04-19
KR20160047634 2016-04-19
KR10-2016-0056130 2016-05-09
KR1020160056130A KR101773353B1 (ko) 2016-04-19 2016-05-09 이어셋의 음색 보상 장치 및 방법

Publications (1)

Publication Number Publication Date
WO2017183789A1 true WO2017183789A1 (ko) 2017-10-26

Family

ID=59761258

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/013992 WO2017183789A1 (ko) 2016-04-19 2016-11-30 이어셋의 음색 보상 장치 및 방법

Country Status (6)

Country Link
US (1) US10638225B2 (ko)
JP (1) JP2019516304A (ko)
KR (2) KR101773353B1 (ko)
CN (1) CN109076283B (ko)
DE (1) DE112016006762T5 (ko)
WO (1) WO2017183789A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104725847A (zh) * 2013-12-20 2015-06-24 Ems专利股份公司 塑料模制组合物及其用途

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101982812B1 (ko) * 2017-11-20 2019-05-27 김정근 헤드셋 및 그의 음질 향상 방법
KR20210101670A (ko) * 2020-02-10 2021-08-19 삼성전자주식회사 음질 개선 방법 및 이를 이용한 전자 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100935769B1 (ko) * 2008-05-02 2010-01-06 소리젠 주식회사 피드백 제어를 갖는 주파수 특성 보상형 능동형 소음 제어장치 및 방법
KR101092957B1 (ko) * 2010-11-05 2011-12-12 신두식 마이크로폰
KR20120105198A (ko) * 2011-03-15 2012-09-25 삼성전자주식회사 휴대 단말기의 이어폰 시스템
KR20150005924A (ko) * 2013-05-22 2015-01-15 고어텍 인크 강한 노이즈 환경 하에서의 헤드셋 통신 방법 및 헤드셋
JP2015188177A (ja) * 2014-03-27 2015-10-29 パナソニックIpマネジメント株式会社 聴力補助装置、およびそのマイクロフォン付きイヤフォン

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1050962C (zh) * 1993-09-29 2000-03-29 黄大伟 抗噪耳机
JP2002125298A (ja) * 2000-10-13 2002-04-26 Yamaha Corp マイク装置およびイヤホンマイク装置
US7242778B2 (en) * 2003-04-08 2007-07-10 Gennum Corporation Hearing instrument with self-diagnostics
CN2829265Y (zh) * 2005-08-22 2006-10-18 蔡锦绸 可降低干扰的耳机
US20070160243A1 (en) * 2005-12-23 2007-07-12 Phonak Ag System and method for separation of a user's voice from ambient sound
US7801319B2 (en) * 2006-05-30 2010-09-21 Sonitus Medical, Inc. Methods and apparatus for processing audio signals
KR100892095B1 (ko) * 2007-01-23 2009-04-06 삼성전자주식회사 헤드셋에서 송수신 음성신호 처리 장치 및 방법
JP2010145426A (ja) * 2007-04-03 2010-07-01 Panasonic Corp オーディオ帯域拡張装置
JP2010085877A (ja) * 2008-10-02 2010-04-15 Clarion Co Ltd 音響補完装置
CN102118667B (zh) * 2009-12-31 2016-05-25 歌尔声学股份有限公司 非封闭式耳塞型耳机及其受话端语音增强装置
JP5691618B2 (ja) * 2010-02-24 2015-04-01 ヤマハ株式会社 イヤホンマイク
JP2011209548A (ja) * 2010-03-30 2011-10-20 Nippon Logics Kk 帯域拡張装置
US20110293109A1 (en) * 2010-05-27 2011-12-01 Sony Ericsson Mobile Communications Ab Hands-Free Unit with Noise Tolerant Audio Sensor
JP2012208177A (ja) * 2011-03-29 2012-10-25 Nippon Logics Kk 帯域拡張装置及び音声補正装置
JP2014096732A (ja) * 2012-11-09 2014-05-22 Oki Electric Ind Co Ltd 収音装置及び電話機
WO2014075195A1 (en) * 2012-11-15 2014-05-22 Phonak Ag Own voice shaping in a hearing instrument
KR101598400B1 (ko) * 2014-09-17 2016-02-29 해보라 주식회사 이어셋 및 그 제어 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100935769B1 (ko) * 2008-05-02 2010-01-06 소리젠 주식회사 피드백 제어를 갖는 주파수 특성 보상형 능동형 소음 제어장치 및 방법
KR101092957B1 (ko) * 2010-11-05 2011-12-12 신두식 마이크로폰
KR20120105198A (ko) * 2011-03-15 2012-09-25 삼성전자주식회사 휴대 단말기의 이어폰 시스템
KR20150005924A (ko) * 2013-05-22 2015-01-15 고어텍 인크 강한 노이즈 환경 하에서의 헤드셋 통신 방법 및 헤드셋
JP2015188177A (ja) * 2014-03-27 2015-10-29 パナソニックIpマネジメント株式会社 聴力補助装置、およびそのマイクロフォン付きイヤフォン

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104725847A (zh) * 2013-12-20 2015-06-24 Ems专利股份公司 塑料模制组合物及其用途

Also Published As

Publication number Publication date
KR20170119655A (ko) 2017-10-27
CN109076283A (zh) 2018-12-21
US20190075396A1 (en) 2019-03-07
CN109076283B (zh) 2021-06-15
KR101773353B1 (ko) 2017-08-31
US10638225B2 (en) 2020-04-28
KR101907389B1 (ko) 2018-10-12
JP2019516304A (ja) 2019-06-13
DE112016006762T5 (de) 2019-01-03

Similar Documents

Publication Publication Date Title
WO2018030589A2 (ko) 이어폰 착용상태 모니터링 장치 및 방법
JP4759052B2 (ja) 高周波数再生が強化された補聴器および音声信号処理方法
WO2017183789A1 (ko) 이어셋의 음색 보상 장치 및 방법
Levitt Noise reduction in hearing aids: a review.
ES2267457T3 (es) Medicion de la calidad de la voz de un enlace telefonico en una red de telecomunicaciones.
CN101635877B (zh) 使用耳间信号传输和互补增益策略减少助听器中的声反馈的系统
WO2018147573A1 (ko) 인이어 마이크와 아웃이어 마이크 수음특성을 이용한 소음 제거 이어셋 및 소음 제거 방법
KR20110079848A (ko) 인시츄 폐쇄 효과 측정을 위한 시스템, 방법 및 보청기
WO2019202203A1 (en) Enabling in-ear voice capture using deep learning
EP0657873B1 (en) Speech signal bandwidth compression and expansion apparatus, and bandwidth compressing speech signal transmission method, and reproducing method
US10972844B1 (en) Earphone and set of earphones
US8948424B2 (en) Hearing device and method for operating a hearing device with two-stage transformation
WO2014058270A1 (en) Voice converting apparatus and method for converting user voice thereof
CN112019967B (zh) 一种耳机降噪方法、装置、耳机设备及存储介质
US20170201830A1 (en) Method and apparatus for adjusting a cross-over frequency of a loudspeaker
WO2017222356A1 (ko) 잡음 환경에 적응적인 신호 처리방법 및 장치와 이를 채용하는 단말장치
Joson et al. Adaptive feedback cancellation with frequency compression for hearing aids
EP3002959A1 (en) Feedback estimation based on deterministic sequences
WO2020111512A1 (en) Device and method for improving perceptual ability through sound control
JP2003256000A (ja) 電話装置
Liebich et al. Active occlusion cancellation with hear-through equalization for headphones
JP4301514B2 (ja) 音声品質を評価する方法
US20140303980A1 (en) System and method for audio kymographic diagnostics
WO2017116022A1 (ko) 인-이어 마이크로폰을 갖는 이어셋의 대역폭 확장 장치 및 방법
JP2012208177A (ja) 帯域拡張装置及び音声補正装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018553918

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16899557

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 16899557

Country of ref document: EP

Kind code of ref document: A1