KR20230027296A - 모드 제어 방법 및 장치, 그리고 단말 디바이스 - Google Patents

모드 제어 방법 및 장치, 그리고 단말 디바이스 Download PDF

Info

Publication number
KR20230027296A
KR20230027296A KR1020237002989A KR20237002989A KR20230027296A KR 20230027296 A KR20230027296 A KR 20230027296A KR 1020237002989 A KR1020237002989 A KR 1020237002989A KR 20237002989 A KR20237002989 A KR 20237002989A KR 20230027296 A KR20230027296 A KR 20230027296A
Authority
KR
South Korea
Prior art keywords
processing
headset
target
function
mode
Prior art date
Application number
KR1020237002989A
Other languages
English (en)
Inventor
웨이빈 첸
티정 왕
유롱 리
판 판
쿤슈 츄
웨이 슝
티앤시앙 차오
젠시아 궈
지팡 첸
Original Assignee
후아웨이 테크놀러지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후아웨이 테크놀러지 컴퍼니 리미티드 filed Critical 후아웨이 테크놀러지 컴퍼니 리미티드
Publication of KR20230027296A publication Critical patent/KR20230027296A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1016Earpieces of the intra-aural type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1041Mechanical or electronic switches, or control elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1781Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions
    • G10K11/17821Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions characterised by the analysis of the input signals only
    • G10K11/17823Reference signals, e.g. ambient acoustic environment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/08Mouthpieces; Microphones; Attachments therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1083Reduction of ambient noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/43Electronic input selection or mixing based on input signal analysis, e.g. mixing or selection between microphone and telecoil or between microphones with different directivity characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/55Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired
    • H04R25/558Remote control, e.g. of amplification, frequency
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/10Details of earpieces, attachments therefor, earphones or monophonic headphones covered by H04R1/10 but not provided for in any of its subgroups
    • H04R2201/109Arrangements to adapt hands free headphones for use on both ears
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/41Detection or adaptation of hearing aid parameters or programs to listening situation, e.g. pub, forest
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/43Signal processing in hearing aids to enhance the speech intelligibility
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2410/00Microphones
    • H04R2410/05Noise reduction with a separate noise microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/01Input selection or mixing for amplifiers or loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/01Aspects of volume control, not necessarily automatic, in sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/03Synergistic effects of band splitting and sub-band processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/01Hearing devices using active noise cancellation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/03Aspects of the reduction of energy consumption in hearing devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/05Electronic compensation of the occlusion effect
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/13Hearing devices using bone conduction transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/50Customised settings for obtaining desired overall acoustical characteristics
    • H04R25/505Customised settings for obtaining desired overall acoustical characteristics using digital signal processing

Abstract

이 출원의 실시예는 사용자 요건에 기초하여 희망된 효과를 구현하기 위하여, 모드 제어 방법 및 장치, 그리고 단말 디바이스를 제공한다. 단말 디바이스는 외부 환경의 장면 유형에 기초하여, 헤드셋에 의해 이용된 프로세싱 모드가 타깃 모드인 것으로 결정한다. 타깃 모드는 헤드셋에 의해 지원된 프로세싱 모드 중의 하나이고, 상이한 프로세싱 모드는 상이한 장면 유형에 대응하고, 헤드셋에 의해 지원된 프로세싱 모드는 다음의 모드: 능동 잡음 제어(ANC) 모드, 주변 음 히어-스루(HT) 모드, 또는 증강된 청취(AH) 모드 중의 적어도 2개를 포함한다. 타깃 모드에서의 프로세싱 세기는 현재의 외부 환경에서의 이벤트에 기초하여 자동적으로 조절될 수 있다. 추가적으로, 단말 디바이스는 사용자가 프로세싱 모드 및 프로세싱 세기를 선택하기 위한 선택 제어부를 제공하기 위하여, 헤드셋을 위한 제어 인터페이스를 추가로 제공할 수 있다. 사용자는 요건에 기초하여 헤드셋의 프로세싱 모드 및 프로세싱 세기를 제어할 수 있다.

Description

모드 제어 방법 및 장치, 그리고 단말 디바이스
이 출원의 실시예는 오디오 프로세싱 기술의 분야, 특히, 모드 제어 방법 및 장치, 그리고 단말 디바이스에 관한 것이다.
최근에는, 헤드셋(headset) 사용자가 더 많아졌고, 사용자는 헤드셋 기능에 대한 점점 더 차별화된 요건을 가진다. 예를 들어, 사용자가 헤드셋을 착용할 때에 외부 잡음을 청취하기를 원하지 않을 경우에, 사용자는 귀에서 잡음을 상쇄시키기 위하여 능동 잡음 제어(active noise control, ANC) 기능을 이용할 수 있다. 사용자가 헤드셋 외부의 음(sound)을 청취하기를 원할 경우에, 사용자는 자신이 헤드셋을 착용하지 않은 것처럼 주변 음(ambient sound) 히어-스루(hear through, HT) 기능을 이용할 필요가 있다. 일부 사용자는 청취 장애를 가질 수 있다. 증강된 청취(augment hearing(증강 청취), AH) 기능은 사용자가 원한 외부 신호를 전송하고 원하지 않는 신호를 필터링하기 위하여 이용될 수 있다.
그러나, 현재, 헤드셋은 사용자 요건에 기초하여 희망된 효과를 구현할 수 없다.
이 출원의 실시예는 사용자 요건에 기초하여 희망된 효과를 구현하기 위하여, 헤드셋 잡음 프로세싱 방법 및 장치, 그리고 헤드셋을 제공한다.
제1 측면에 따르면, 이 출원의 실시예는 헤드셋을 위한 잡음 프로세싱 방법을 제공한다. 헤드셋은 다음의 기능: 능동 잡음 제어(ANC : active noise control) 기능, 주변 음 히어-스루(HT : hear-through) 기능, 또는 증강된 청취(AH : augmented hearing) 기능 중의 적어도 2개를 가진다. 헤드셋은 제1 마이크로폰(microphone) 및 제2 마이크로폰을 포함한다. 제1 마이크로폰은 제1 신호를 수집하도록 구성되고, 여기서, 제1 신호는 현재의 외부 환경에서의 음을 나타내기 위하여 이용된다. 제2 마이크로폰은 제2 신호를 수집하도록 구성되고, 여기서, 제2 신호는 헤드셋을 착용하는 사용자의 외이도(ear canal)에서의 주변 음을 나타내기 위하여 이용된다. 헤드셋은 좌측 이어폰(earphone) 또는 우측 이어폰일 수 있다. 좌측 이어폰 및 우측 이어폰에 의해 이용된 프로세싱 모드는 동일하거나 상이할 수 있다. 헤드셋은 단말 디바이스로부터 제1 오디오 신호를 수신하고, 타깃 모드를 획득한다. 타깃 모드는 현재의 외부 환경의 장면 유형(scene type)에 기초하여 결정되고, 타깃 모드는 타깃 프로세싱 기능을 수행하도록 헤드셋에 지시하고, 타깃 프로세싱 기능은 다음의 기능: 능동 잡음 제어(ANC) 기능, 주변 음 히어-스루(HT) 기능, 또는 증강된 청취(AH) 기능 중의 하나이다. 헤드셋은 타깃 모드, 제1 오디오 신호, 제1 신호, 및 제2 신호에 기초하여 제2 오디오 신호를 획득한다.
상기한 방법에 따르면, 타깃 모드는 외부 환경의 장면 유형에 기초하여 결정된다. 이것은 사용자의 청각적 지각(auditory perception)을 실시간으로 최적화할 수 있다.
가능한 설계에서, 헤드셋은 스피커를 더 포함한다. 스피커는 제2 오디오 신호를 플레이하도록 구성된다.
가능한 설계에서, 타깃 프로세싱 기능은 ANC 기능이고, 스피커에 의해 플레이된 제2 오디오 신호는 사용자가 현재 위치되어 있는 환경에서의 음, 및 사용자의 외이도에서의 주변 음에 대해 사용자의 지각을 약화할 수 있다. 대안적으로, 타깃 프로세싱 기능은 HT 기능이고, 스피커에 의해 플레이된 제2 오디오 신호는 사용자가 현재 위치되어 있는 환경에서의 음에 대해 사용자의 지각을 강화시킬 수 있다. 대안적으로, 타깃 프로세싱 기능은 AH 기능이고, 스피커에 의해 플레이된 제2 오디오 신호는 이벤트 음(event sound)에 대해 사용자의 지각을 강화시킬 수 있고, 이벤트 음은 사전설정된 스펙트럼을 충족시킨다.
ANC 모드가 좌측 이어폰을 위하여 이용될 때, 좌측 이어폰의 스피커에 의해 플레이된 오디오 신호는 사용자가 현재 위치되어 있는 환경에서의 음(즉, 현재의 외부 환경에서의 음) 및 사용자의 좌측 이어폰의 외이도에서의 주변 음에 대해 사용자의 좌측 이어폰의 지각을 약화할 수 있다는 것이 이해되어야 한다. ANC 모드가 우측 이어폰을 위하여 이용될 때, 우측 이어폰의 스피커에 의해 플레이된 오디오 신호는 사용자가 현재 위치되어 있는 환경에서의 음(즉, 현재의 외부 환경에서의 음) 및 사용자의 우측 이어폰의 외이도에서의 주변 음에 대해 사용자의 우측 이어폰의 지각을 약화할 수 있다. 유사하게, HT 모드 및 AH 모드에 대하여, 좌측 귀의 감각은 좌측 이어폰에 의해 이용된 프로세싱 모드를 따르고, 우측 귀의 감각은 우측 이어폰에 의해 이용된 프로세싱 모드를 따른다.
가능한 설계에서, 타깃 프로세싱 기능이 ANC 기능일 때, 제2 오디오 신호는 제1 오디오 신호, 제3 신호, 및 제4 신호에 기초하여 획득되고, 여기서, 제3 신호는 제1 신호의 역위상 신호(antiphase signal)이고, 제4 신호는 제2 신호의 역위상 신호이거나; 타깃 프로세싱 기능이 HT 기능일 때, 제2 오디오 신호는 제1 오디오 신호, 제1 신호, 및 제2 신호에 기초하여 획득되거나; 타깃 프로세싱 기능이 AH 기능일 때, 제2 오디오 신호는 제1 오디오 신호, 제5 신호, 및 제4 신호에 기초하여 획득되고, 여기서, 제5 신호는 제1 신호 내의 이벤트 신호(event signal)이고, 이벤트 신호는 현재의 외부 환경에서의 구체적인 음을 나타내기 위하여 이용되고, 이벤트 신호는 사전설정된 스펙트럼을 충족시킨다.
상기한 설계는 상이한 프로세싱 모드에서, 스피커에 의한 신호 출력을 획득하는 방식을 제공하고, 이것은 간단하고 효과적이다.
가능한 설계에서, 타깃 모드를 획득하는 것은:
단말 디바이스로부터 제1 제어 명령을 수신하는 것을 포함하고, 여기서, 제1 제어 명령은 타깃 모드를 운반하고, 타깃 모드는 현재의 외부 환경의 장면 유형에 기초하여 단말 디바이스에 의해 결정된다.
상기한 설계에서, 단말 디바이스는 외부 환경의 장면 유형에 기초하여 타깃 모드를 결정하고, 타깃 모드를 헤드셋에 지시한다. 이것은 사용자의 청각적 지각을 실시간으로 최적화할 수 있다.
가능한 설계에서는, 단말 디바이스로부터의 제2 제어 명령이 수신되고, 여기서, 제2 제어 명령은 타깃 프로세싱 세기(target processing intensity)를 운반하고, 타깃 프로세싱 세기는 헤드셋이 타깃 프로세싱 기능을 수행하는 프로세싱 세기를 지시한다. 타깃 모드, 제1 오디오 신호, 제1 신호, 및 제2 신호에 기초하여 제2 오디오 신호를 획득하는 것은, 타깃 모드, 타깃 프로세싱 세기, 제1 오디오 신호, 제1 신호, 및 제2 신호에 기초하여 제2 오디오 신호를 획득하는 것을 포함한다.
상기한 설계에 따르면, 단말 디바이스는 헤드셋의 대응하는 프로세싱 모드에서의 프로세싱 세기를 지시한다. 프로세싱 세기는 사용자의 청각적 지각을 추가로 개선시키기 위하여 프로세싱 모드에 기초하여 조절된다.
가능한 설계에서, 현재의 외부 환경에서의 이벤트 음에 대응하는 타깃 이벤트는 제1 신호에 기초하여 결정되고, 타깃 모드에서의 타깃 프로세싱 세기는 타깃 이벤트에 기초하여 결정되고, 여기서, 타깃 프로세싱 세기는 헤드셋이 타깃 프로세싱 기능을 수행하는 프로세싱 세기를 지시한다. 타깃 모드, 제1 오디오 신호, 제1 신호, 및 제2 신호에 기초하여 제2 오디오 신호를 획득하는 것은, 타깃 모드, 타깃 프로세싱 세기, 제1 오디오 신호, 제1 신호, 및 제2 신호에 기초하여 제2 오디오 신호를 획득하는 것을 포함한다. 상이한 프로세싱 세기는 상이한 이벤트에 대응한다. 프로세싱 세기는 이벤트에 일대일 대응할 수 있거나, 하나의 프로세싱 세기는 복수의 이벤트에 대응한다. 예를 들어, 동일한 프로세싱 세기는 2개의 이벤트를 위하여 이용될 수 있고, 상이한 프로세싱 세기는 동일한 이벤트를 위하여 이용될 수 없다.
상기한 설계에 따르면, 헤드셋은 상이한 외부 환경에서 상이한 청각적 지각을 구현하기 위하여, 외부 환경에서의 이벤트 음에 기초하여 프로세싱 세기를 결정한다. 이것은 잡음 플로어 효과(noise floor effect)를 감소시킬 수 있고, 잡음제거 세기(denoising intensity)를 강화할 수 있다.
가능한 설계에서, 헤드셋은 골 전도 센서(bone conduction sensor)를 더 포함하고, 골 전도 센서는 사용자의 성대(vocal cord)가 진동할 때에 생성된 골-전도된 신호를 수집하도록 구성된다. 제1 신호에 기초하여, 사용자가 현재 위치되어 있는 제1 장면을 식별하는 것은, 제1 신호 및 골-전도된 신호에 기초하여, 사용자가 현재 위치되어 있는 제1 장면을 식별하는 것을 포함한다.
가능한 설계에서, 타깃 이벤트는 하울링 이벤트(howling event), 바람 잡음 이벤트(wind noise event), 긴급 이벤트(emergency event), 또는 인간 음성 이벤트(human voice event)이다.
가능한 설계에서, 타깃 모드를 획득하는 것은, 제1 신호에 기초하여, 현재의 외부 환경의 장면 유형이 타깃 장면 유형(줄여서 타깃 장면, 또는 줄여서 타깃 유형)인 것으로 식별하는 것; 및 타깃 장면에 기초하여, 헤드셋에 의해 이용된 타깃 모드를 결정하는 것 - 타깃 모드는 타깃 장면에 대응하는 프로세싱 모드임 - 을 포함한다. 상이한 프로세싱 모드는 상이한 장면 유형에 대응한다. 프로세싱 모드는 장면 유형에 일대일 대응할 수 있거나, 하나의 프로세싱 모드가 복수의 장면 유형에 대응할 수 있다. 예를 들어, 동일한 프로세싱 모드는 2 개의 장면 유형을 위하여 이용될 수 있다.
상기한 설계에서, 헤드셋은 지연을 감소시키고 사용자의 청각적 지각을 실시간으로 최적화하기 위하여, 식별된 장면 유형에 기초하여, 헤드셋에 의해 이용된 프로세싱 모드를 결정한다.
가능한 설계에서, 타깃 장면은 다음의 장면: 걷는 장면, 달리는 장면, 조용한 장면, 다수 사람이 말하는 장면, 카페 장면, 지하철 장면, 열차 장면, 대기실 장면, 대화 장면, 사무실 장면, 실외 장면, 운전 장면, 강한 바람 장면, 비행기 장면, 경보음 장면, 경적음 장면, 또는 우는 음 장면 중의 하나이다.
가능한 설계에서, 방법은:
지시 정보를 단말 디바이스로 송신하는 것 - 지시 정보는 타깃 모드를 운반함 -; 및 단말 디바이스로부터 제3 제어 시그널링을 수신하는 것 - 제3 제어 시그널링은 타깃 모드에서의 타깃 프로세싱 세기를 포함하고, 타깃 프로세싱 세기는 헤드셋이 타깃 프로세싱 기능을 수행하는 프로세싱 세기를 지시함 - 을 더 포함한다. 타깃 모드, 제1 오디오 신호, 제1 신호, 및 제2 신호에 기초하여 제2 오디오 신호를 획득하는 것은, 타깃 모드, 타깃 프로세싱 세기, 제1 오디오 신호, 제1 신호, 및 제2 신호에 기초하여 제2 오디오 신호를 획득하는 것을 포함한다.
상기한 설계에서, 헤드셋은 이용된 프로세싱 모드를 결정하고, 프로세싱 모드를 단말 디바이스에 지시하고, 단말 디바이스는 프로세싱 세기를 조절한다. 이것은 헤드셋에 의해 점유된 프로세싱 자원을 감소시킨다.
가능한 설계에서, 타깃 프로세싱 기능이 ANC 기능일 때, 더 큰 타깃 프로세싱 세기는 사용자의 외이도에서의 더 약한 주변 음, 및 사용자에 의해 지각되고 사용자가 현재 위치되어 있는 환경 내에 있는 더 약한 음을 지시하거나; 타깃 프로세싱 기능이 HT 기능일 때, 더 큰 타깃 프로세싱 세기는, 사용자에 의해 지각되고 사용자가 현재 위치되어 있는 환경 내에 있는 음의 더 큰 세기를 지시하거나; 타깃 프로세싱 기능이 AH 기능일 때, 더 높은 타깃 프로세싱 세기는, 사용자에 의해 지각되고 사용자가 현재 위치되어 있는 환경 내에 있는 음 내에 포함된 더 강한 이벤트 음을 지시한다.
가능한 설계에서, 타깃 모드는 ANC 기능을 수행하도록 헤드셋에 지시한다. 타깃 모드, 제1 오디오 신호, 제1 신호, 및 제2 신호에 기초하여 제2 오디오 신호를 획득하는 것은:
제1 필터링 신호를 획득하기 위하여 제1 신호에 대해 제1 필터링 프로세싱(예를 들어, 피드포워드(FF : feedforward) 필터링)을 수행하는 것;
제1 필터링된 신호를 획득하기 위하여 제2 신호 내에 포함된 제1 오디오 신호를 필터링하는 것;
제3 오디오 신호를 획득하기 위하여 제1 필터링 신호 및 필터링된 신호에 대해 혼합 프로세싱을 수행하는 것;
제4 오디오 신호를 획득하기 위하여 제3 오디오 신호에 대해 제3 필터링 프로세싱(예를 들어, 피드백(FB : feedback) 필터링)을 수행하는 것; 및
제2 오디오 신호를 획득하기 위하여 제4 오디오 신호 및 제1 오디오 신호에 대해 혼합 프로세싱을 수행하는 것을 포함한다.
상기한 설계에서, ANC 프로세싱은 더 양호한 잡음제거된 신호를 획득하고 잡음 제어 효과를 강화하기 위하여, FF 필터링 및 FB 직렬 프로세싱의 방식으로 수행된다.
가능한 설계에서, 제1 필터링 프로세싱을 위하여 이용된 필터링 계수는 ANC 기능의 경우에 제1 필터링 프로세싱을 위한 타깃 프로세싱 세기와 연관된 필터링 계수이거나; 제3 필터링 프로세싱을 위하여 이용된 필터링 계수는 ANC 기능의 경우에 제3 필터링 프로세싱을 위한 타깃 프로세싱 세기와 연관된 필터링 계수이다.
상기한 설계에서, 상이한 필터링 계수는 상이한 프로세싱 세기를 위하여 이용된다. 고정된 필터링 계수를 이용하는 것과 비교하면, 이 설계는 더 양호한 ANC 효과를 달성하고, 사용자의 청각적 지각을 개선시킨다.
가능한 설계에서, 타깃 모드는 HT 기능을 수행하도록 헤드셋에 지시한다. 타깃 모드, 제1 오디오 신호, 제1 신호, 및 제2 신호에 기초하여 제2 오디오 신호를 획득하는 것은:
제1 프로세싱된 신호를 획득하기 위하여 제1 신호에 대해 제1 신호 프로세싱을 수행하는 것 - 제1 신호 프로세싱은 제2 필터링 프로세싱(예를 들어, HT 필터링)을 포함함 -;
제5 오디오 신호를 획득하기 위하여 제1 프로세싱된 신호 및 제1 오디오 신호에 대해 혼합 프로세싱을 수행하는 것;
제2 필터링된 신호를 획득하기 위하여 제2 신호 내에 포함된 제5 오디오 신호에 대해 필터링을 수행하는 것;
제3 필터링된 신호를 획득하기 위하여 제2 필터링된 신호에 대해 제3 필터링 프로세싱(예를 들어, FB 필터링)을 수행하는 것; 및
제2 오디오 신호를 획득하기 위하여 제3 필터링된 신호 및 제5 오디오 신호에 대해 혼합 프로세싱을 수행하는 것을 포함한다.
필터링이 제2 신호 내에 포함된 제5 오디오 신호에 대해 수행되기 전에, 필터링 보상 프로세싱은 청각적 지각 손실을 감소시키기 위하여 제5 오디오 신호에 대해 추가로 수행될 수 있다. 상기한 설계에서, 다운링크 혼합 프로세싱은 HT 필터링 동안에 수행되고, 필터링 보상 프로세싱은 청각적 지각 손실을 추가로 감소시키기 위하여 수행된다.
가능한 설계에서, 프로세싱된 주변 신호를 획득하기 위하여 제1 주변 신호에 대해 제1 신호 프로세싱을 수행하는 것은, 제2 필터링 신호를 획득하기 위하여 제1 신호에 대해 제2 필터링 프로세싱을 수행하는 것; 및
제2 프로세싱된 신호를 획득하기 위하여 제2 필터링 신호에 대해 제2 신호 프로세싱을 수행하는 것을 포함한다.
제2 신호 프로세싱은 차단 효과 감소 프로세싱(occlusion effect reduction processing)을 포함한다.
상기한 설계에서, 차단 효과 감소 프로세싱은 HT 필터링을 통해 획득된 신호에 대해 수행되어, 사용자에 의해 청취된 주변 음이 더 명확할 수 있다.
가능한 설계에서, 제2 신호 프로세싱은 다음: 잡음 플로어 감소 프로세싱, 바람 잡음 감소 프로세싱, 이득 조절 프로세싱, 또는 주파수 응답 조절 프로세싱 중의 적어도 하나를 더 포함한다.
제2 신호 프로세싱 후에, 잡음 플로어 및 비정상적 음이 감소되고, 사용자의 청각적 지각이 개선된다.
가능한 설계에서, 제2 필터링 프로세싱을 위하여 이용된 필터링 계수는 HT 기능의 경우에 제2 필터링 프로세싱을 위한 타깃 프로세싱 세기와 연관된 필터링 계수이거나;
제3 필터링 프로세싱을 위하여 이용된 필터링 계수는 HT 기능의 경우에 제3 필터링 프로세싱을 위한 타깃 프로세싱 세기와 연관된 필터링 계수이다.
가능한 설계에서, 타깃 모드는 AH 기능을 수행하도록 헤드셋에 지시한다. 타깃 모드, 제1 오디오 신호, 제1 신호, 및 제2 신호에 기초하여 제2 오디오 신호를 획득하는 것은:
제2 필터링 신호를 획득하기 위하여 제1 신호에 대해 제2 필터링 프로세싱(예를 들어, HT 필터링)을 수행하고, 필터링 강화된 신호를 획득하기 위하여 제2 필터링 신호에 대해 강화 프로세싱(enhancement processing)을 수행하는 것;
제1 필터링 신호를 획득하기 위하여 제1 신호에 대해 제1 필터링 프로세싱(예를 들어, FF 필터링)을 수행하는 것;
제6 오디오 신호를 획득하기 위하여 필터링 강화된 신호 및 제1 오디오 신호에 대해 혼합 프로세싱을 수행하는 것;
제4 필터링된 신호를 획득하기 위하여 제2 신호 내에 포함된 제6 오디오 신호에 대해 필터링을 수행하는 것;
제5 필터링된 신호를 획득하기 위하여 제4 필터링된 신호에 대해 제3 필터링 프로세싱(예를 들어, FB 필터링)을 수행하는 것; 및
제2 오디오 신호를 획득하기 위하여 제5 필터링된 신호, 제6 오디오 신호, 및 제1 필터링 신호에 대해 혼합 프로세싱을 수행하는 것을 포함한다.
상기한 설계에서, 능동 잡음 제어 및 주변 음 히어-스루는 동시에 수행된다. 히어-스루 필터링 프로세싱 및 강화 프로세싱은 히어-스루 신호에 대해 수행되어, 히어-스루 신호가 더 명확하다.
임의적으로, 필터링 보상 프로세싱은 제4 필터링된 신호를 획득하기 위하여 제2 신호 내에 포함된 제6 오디오 신호에 대해 필터링이 수행되기 전에, 제6 오디오 신호에 대해 수행된다. 이것은 FB 필터링에 의해 야기된 손실을 회피할 수 있고, 최대 한도까지의 히어-스루 신호의 비 왜곡을 보장할 수 있다.
가능한 설계에서, 필터링 강화된 신호를 획득하기 위하여 제2 필터링 신호에 대해 강화 프로세싱을 수행하는 것은:
제2 필터링 신호에 대해 차단 효과 감소 프로세싱을 수행하고, 차단 효과 감소 프로세싱을 통해 획득된 신호에 대해 잡음제거 프로세싱을 수행하는 것 - 잡음제거 프로세싱은 인공 지능(AI : artificial intelligence) 잡음제거 프로세싱 및/또는 바람 잡음 감소 프로세싱을 포함함 -; 및
필터링 강화된 신호를 획득하기 위하여, 잡음제거 프로세싱을 통해 획득된 신호에 대해 이득 증폭 프로세싱 및 주파수 응답 조절을 수행하는 것을 포함한다.
상기한 설계에서, 강화 프로세싱은 히어-스루 신호에 대해 수행된다. 이것은 요구된 외부 음에 대해 사용자의 청각적 지각을 개선시킨다.
가능한 설계에서, 헤드셋은 골 전도 센서를 포함하고, 골 전도 센서는 헤드셋 사용자의 골-전도된 신호를 수집하도록 구성된다. 잡음제거 프로세싱을 통해 획득된 신호에 대해 이득 증폭 프로세싱을 수행하는 것은, 고조파 확장된 신호(harmonic extended signal)를 획득하기 위하여 골-전도된 신호에 대해 고조파 확장을 수행하는 것; 제1 이득 계수를 이용함으로써, 잡음제거 프로세싱을 통해 획득된 신호에 대해 증폭 프로세싱을 수행하는 것; 및 제4 필터링 계수를 이용함으로써, 증폭 프로세싱을 통해 획득된 신호 내에 포함된 고조파 확장된 신호를 필터링하는 것을 포함한다. 제4 필터링 계수는 제1 이득 계수에 기초하여 결정된다.
상기한 설계에서, 증폭 방식은 착용하는 사용자의 음성 이외의 특정한 음만을 증폭하도록 제공된다. 이것은 히어-스루 주변 음 내의 특정한 음의 효과를 개선시킨다.
가능한 설계에서, 제1 이득 계수는 타깃 모드에서의 타깃 프로세싱 세기와 연관된 이득 계수이다.
가능한 설계에서, 필터링 강화된 신호를 획득하기 위하여 제2 필터링 신호에 대해 강화 프로세싱을 수행하는 것은:
차단 효과 감소된 신호를 획득하기 위하여 제2 필터링 신호에 대해 차단 효과 감소 프로세싱을 수행하는 것;
차단 효과 감소된 신호 내의 오디오 이벤트 신호를 획득하기 위하여 차단 효과 감소된 신호에 대해 오디오 이벤트 검출을 수행하는 것; 및
필터링 강화된 신호를 획득하기 위하여 차단 효과 감소된 신호 내의 오디오 이벤트 신호에 대해 이득 증폭 프로세싱 및 주파수 응답 조절을 수행하는 것을 포함한다.
가능한 설계에서, 헤드셋은 골 전도 센서를 더 포함하고, 골 전도 센서는 헤드셋 사용자의 골-전도된 신호를 수집하도록 구성된다. 차단 효과 감소된 신호 내의 오디오 이벤트 신호에 대해 이득 증폭 프로세싱을 수행하는 것은, 고조파 확장된 신호를 획득하기 위하여 골-전도된 신호에 대해 고조파 확장을 수행하는 것; 제2 이득 계수를 이용함으로써, 증폭된 신호를 획득하기 위하여 차단 효과 감소된 신호 내의 오디오 이벤트 신호를 증폭하는 것; 및 제2 필터링 계수를 이용함으로써, 증폭된 신호 내에 포함된 고조파 확장된 신호를 필터링하는 것을 포함한다. 제2 필터링 계수는 제2 이득 계수에 기초하여 결정된다.
가능한 설계에서, 제2 이득 계수는 제1 잡음 프로세싱이 수행될 때, 제1 필터링 프로세싱을 위한 타깃 프로세싱 세기와 연관된 이득 계수이거나;
제2 이득 계수는 제1 잡음 프로세싱이 수행될 때, 제1 필터링 프로세싱을 위한 제1 장면 식별자와 연관된 이득 계수이다.
가능한 설계에서, 제1 필터링 프로세싱을 위하여 이용된 필터링 계수는 AH 기능의 경우에 제1 필터링 프로세싱을 위한 타깃 프로세싱 세기와 연관된 필터링 계수이거나;
제2 필터링 프로세싱을 위하여 이용된 필터링 계수는 AH 기능의 경우에 제2 필터링 프로세싱을 위한 타깃 프로세싱 세기와 연관된 필터링 계수이거나;
제3 필터링 프로세싱을 위하여 이용된 필터링 계수는 AH 기능의 경우에 제3 필터링 프로세싱을 위한 타깃 프로세싱 세기와 연관된 필터링 계수이다.
가능한 설계에서, 헤드셋은 골 전도 센서를 더 포함하고, 골 전도 센서는 헤드셋 사용자의 골-전도된 신호를 수집하도록 구성된다. 제2 필터링 신호에 대해 차단 효과 감소 프로세싱을 수행하는 것은:
스피치 고조파 세트(speech harmonic set)로부터, 골-전도된 신호와 정합(match)하는 제1 스피치 고조파 신호를 결정하는 것 - 스피치 고조파 세트는 복수의 스피치 고조파 신호를 포함함 -; 및 제2 필터링 신호로부터 제1 스피치 고조파 신호를 제거하고, 제1 스피치 고조파 신호가 제거되는 제2 필터링 신호 내의 고-주파수 성분(high-frequency component)을 증폭하는 것; 또는 제2 필터링 신호로부터 저-주파수 성분(low-frequency component)을 제거하여 제3 필터링 신호를 획득하기 위하여 제2 필터링 신호에 대해 적응적 필터링 프로세싱(adaptive filtering processing)을 수행하고, 저-주파수 성분이 제거되는 제3 필터링 신호로부터의 고-주파수 성분을 증폭하는 것을 포함한다.
제2 측면에 따르면, 본 발명의 실시예는 모드 제어 방법을 제공한다. 방법은 단말 디바이스에 적용된다. 방법은 현재의 외부 환경의 장면 유형이 타깃 장면인 것으로 식별될 때, 타깃 장면에 기초하여 타깃 모드를 결정하는 것 - 타깃 모드는 헤드셋에 의해 지원된 프로세싱 모드 중의 하나이고, 헤드셋에 의해 지원된 프로세싱 모드는 다음의 모드: 능동 잡음 제어(ANC) 모드, 주변 음 히어-스루(HT) 모드, 또는 증강된 청취(AH) 모드 중의 적어도 2개를 포함함 -; 및 타깃 모드를 헤드셋으로 송신하는 것 - 타깃 모드는 타깃 모드에 대응하는 프로세싱 기능을 수행하도록 헤드셋에 지시함 - 을 포함한다. 상이한 프로세싱 모드는 상이한 장면 유형에 대응한다. 프로세싱 모드는 장면 유형에 일대일 대응할 수 있거나, 하나의 프로세싱 모드가 복수의 장면 유형에 대응할 수 있다. 예를 들어, 동일한 프로세싱 모드는 2 개의 장면 유형을 위하여 이용될 수 있다.
상기한 설계에서, 단말 디바이스는 헤드셋의 프로세싱 모드를 제어하기 위하여 장면-기반 식별을 수행하여, 사용자의 청각적 지각을 실시간으로 최적화한다.
가능한 설계에서, 타깃 장면에 대응하고 헤드셋의 프로세싱 모드 내에 있는 타깃 모드가 결정될 때, 방법은 결과 프롬프트 정보(result prompt information)를 디스플레이하는 것 - 결과 프롬프트 정보는 헤드셋이 타깃 모드에 대응하는 프로세싱 기능을 수행한다는 것을 사용자에게 프롬프트(prompt)하기 위하여 이용됨 - 을 더 포함한다. 상기한 설계는 사용자가 헤드셋의 현재의 프로세싱 모드를 실시간으로 결정하는 것을 가능하게 한다.
가능한 설계에서, 제1 제어 시그널링이 헤드셋으로 송신되기 전에, 방법은 선택 프롬프트 정보를 디스플레이하는 것 - 선택 프롬프트 정보는 헤드셋의 프로세싱 모드를 타깃 모드로 조절할 것인지 여부를 사용자에게 지시함 -; 및 사용자에 의해, 헤드셋의 프로세싱 모드를 타깃 모드로서 선택하는 조작을 검출하는 것을 더 포함한다.
상기한 설계에서, 사용자는 요건에 기초하여, 사용자 경험을 개선시키기 위하여 헤드셋의 프로세싱 모드를 조절할 것인지 여부를 결정할 수 있다.
가능한 설계에서, 제1 제어부 및 제2 제어부가 디스플레이되고, 여기서, 제1 제어부 상의 제2 제어부의 상이한 포지션(position)은 타깃 모드에서의 상이한 프로세싱 세기를 지시한다. 제1 제어 시그널링이 헤드셋으로 송신되기 전에, 방법은 제1 제어부 상의 제1 포지션으로 이동하도록 사용자에 의해 제2 제어부를 터치(touch)하여 제어하는 것에 대해 응답하는 것 - 제1 제어부 상의 제2 제어부의 제1 포지션은 타깃 모드에서의 타깃 프로세싱 세기를 지시함 -; 및 타깃 프로세싱 세기를 헤드셋으로 송신하는 것 - 타깃 프로세싱 세기는 헤드셋이 타깃 모드에 대응하는 프로세싱 기능을 수행하는 프로세싱 세기를 지시함 - 을 더 포함한다. 상기한 설계에서, 사용자는 사용자의 상이한 요건을 충족시키기 위하여, 요건에 기초하여 헤드셋의 프로세싱 세기를 선택할 수 있다.
가능한 설계에서, 제1 제어부는 링 형상(ring shape)이고; 사용자는 제1 제어부 상에서 시계 방향(clockwise direction)으로 이동하도록 제2 제어부를 터치하여 제어하고, 타깃 모드에서의 프로세싱 세기는 오름차순으로 변화하거나; 사용자는 제1 제어부 상에서 반시계 방향(anticlockwise direction)으로 이동하도록 제2 제어부를 터치하여 제어하고, 타깃 모드에서의 프로세싱 세기는 오름차순으로 변화한다.
가능한 설계에서, 제1 제어부는 바 형상(bar shape)이고; 사용자는 제1 제어부 상에서 상부로부터 하부로 이동하도록 제2 제어부를 터치하여 제어하고, 타깃 모드에서의 프로세싱 세기는 오름차순으로 변화하거나; 사용자는 제1 제어부 상에서 하부로부터 상부로 이동하도록 제2 제어부를 터치하여 제어하고, 타깃 모드에서의 프로세싱 세기는 오름차순으로 변화하거나; 사용자는 제1 제어부 상에서 좌측으로부터 우측으로 이동하도록 제2 제어부를 터치하여 제어하고, 타깃 모드에서의 프로세싱 세기는 오름차순으로 변화하거나; 사용자는 제1 제어부 상에서 우측으로부터 좌측으로 이동하도록 제2 제어부를 터치하여 제어하고, 타깃 모드에서의 프로세싱 세기는 오름차순으로 변화한다.
가능한 설계에서, 타깃 프로세싱 기능이 ANC 기능일 때, 더 큰 타깃 프로세싱 세기는 사용자의 외이도에서의 더 약한 주변 음, 및 사용자에 의해 지각되고 사용자가 현재 위치되어 있는 환경 내에 있는 더 약한 음을 지시하거나; 타깃 프로세싱 기능이 HT 기능일 때, 더 큰 타깃 프로세싱 세기는, 사용자에 의해 지각되고 사용자가 현재 위치되어 있는 환경 내에 있는 음의 더 큰 세기를 지시하거나; 타깃 프로세싱 기능이 AH 기능일 때, 더 높은 타깃 프로세싱 세기는, 사용자에 의해 지각되고 사용자가 현재 위치되어 있는 환경 내에 있는 음 내에 포함된 더 강한 이벤트 음을 지시한다.
사용자의 좌측 귀 및 우측 귀의 지각은 동일한 프로세싱 모드 및 동일한 프로세싱 세기가 좌측 이어폰 및 우측 이어폰을 위하여 이용될 수 있을 경우에 동일할 수 있거나; 좌측 귀 및 우측 귀의 지각은 상이한 프로세싱 모드 또는 상이한 프로세싱 세기가 좌측 이어폰 및 우측 이어폰을 위하여 이용될 수 있을 경우에 상이하다는 것이 주목되어야 한다.
제3 측면에 따르면, 본 발명의 실시예는 모드 제어 방법을 제공한다. 방법은 단말 디바이스에 적용된다. 방법은 타깃 모드를 획득하는 것 - 타깃 모드는 헤드셋에 의해 지원된 프로세싱 모드 중의 하나이고, 헤드셋에 의해 지원된 프로세싱 모드는 다음의 모드: 능동 잡음 제어(ANC) 모드, 주변 음 히어-스루(HT) 모드, 또는 증강된 청취(AH) 모드 중의 적어도 2개를 포함함 -; 현재의 외부 환경의 장면 유형에 기초하여 타깃 모드에서의 타깃 프로세싱 세기를 결정하는 것 - 상이한 장면 유형은 타깃 모드에서의 상이한 프로세싱 세기에 대응함 -; 및 타깃 프로세싱 세기를 헤드셋으로 송신하는 것 - 타깃 프로세싱 세기는 헤드셋이 타깃 모드에 대응하는 프로세싱 기능을 수행하는 프로세싱 세기를 지시함 - 을 포함한다.
가능한 설계에서, 타깃 모드를 획득하는 것은, 헤드셋에 의해 송신된 타깃 모드를 수신하는 것; 또는 선택 제어부를 디스플레이하는 것 - 선택 제어부는 헤드셋에 의해 지원된 프로세싱 모드를 포함함 -; 및 선택 제어부를 이용함으로써, 사용자에 의해, 헤드셋의 프로세싱 모드로부터 타깃 모드를 선택하는 조작을 검출하는 것을 포함한다. 선택 제어부는 헤드셋에 의해 지원된 프로세싱 모드를 포함하거나; 선택 제어부는 헤드셋에 의해 지원된 프로세싱 모드를 위한 옵션을 제공하기 위하여 이용되거나; 헤드셋에 의해 지원된 프로세싱 모드는 선택 제어부 상에서 디스플레이되고, 사용자는 헤드셋에 의해 지원된 프로세싱 모드로부터의 선택을 수행할 수 있다.
가능한 설계에서, 현재의 외부 환경의 장면 유형에 기초하여 타깃 모드에서의 타깃 프로세싱 세기를 결정하기 전에, 방법은 헤드셋에 의해 송신된 타깃 모드가 수신될 때, 선택 프롬프트 정보를 디스플레이하는 것 - 선택 프롬프트 정보는 헤드셋의 프로세싱 모드를 타깃 모드로 조절할 것인지 여부를 사용자에게 지시함 -; 및 헤드셋의 프로세싱 모드를 타깃 모드로 조절하기 위하여 사용자에 의해 선택하는 조작을 검출하는 것을 더 포함한다.
가능한 설계에서, 타깃 프로세싱 기능이 ANC 기능일 때, 더 큰 타깃 프로세싱 세기는 사용자의 외이도에서의 더 약한 주변 음, 및 사용자에 의해 지각되고, 사용자가 현재 위치되어 있는 환경 내에 있는 더 약한 음을 지시하거나;
타깃 프로세싱 기능이 HT 기능일 때, 더 큰 타깃 프로세싱 세기는, 사용자에 의해 지각되고, 사용자가 현재 위치되어 있는 환경 내에 있는 음의 더 큰 세기를 지시하거나;
타깃 프로세싱 기능이 AH 기능일 때, 더 높은 타깃 프로세싱 세기는, 사용자에 의해 지각되고, 사용자가 현재 위치되어 있는 환경 내에 있는 음 내에 포함된 더 강한 이벤트 음을 지시한다.
제4 측면에 따르면, 이 출원의 실시예는 모드 제어 방법을 제공한다. 방법은 단말 디바이스에 적용된다. 방법은 제1 인터페이스를 디스플레이하는 것 - 제1 인터페이스는 제1 선택 제어부를 포함하고; 제1 선택 제어부는 제1 타깃 이어폰에 의해 지원된 프로세싱 모드, 및 제1 타깃 이어폰에 의해 지원된 프로세싱 모드에 대응하는 프로세싱 세기를 포함하고; 제1 타깃 이어폰의 프로세싱 모드는 다음의 모드: 능동 잡음 제어(ANC) 모드, 주변 음 히어-스루(HT) 모드, 또는 증강된 청취(AH) 모드 중의 적어도 2개를 포함함 -; 제1 인터페이스에서 사용자에 의해 수행된 제1 조작에 대해 응답하는 것 - 제1 조작은 사용자가 제1 선택 제어부를 이용함으로써, 제1 타깃 이어폰에 의해 지원된 프로세싱 모드로부터 제1 타깃 모드를 선택하고 제1 타깃 모드에서의 프로세싱 세기를 제1 타깃 프로세싱 세기로서 선택할 때에 생성됨 -; 및 제1 타깃 모드 및 제1 타깃 프로세싱 세기를 제1 타깃 이어폰으로 송신하는 것 - 제1 타깃 모드는 제1 타깃 모드에 대응하는 프로세싱 기능을 수행하도록 제1 타깃 이어폰에 지시하고, 제1 타깃 프로세싱 세기는 제1 타깃 이어폰이 제1 타깃 모드에 대응하는 프로세싱 기능을 수행하는 프로세싱 세기를 지시함 - 을 포함한다.
제1 선택 제어부가 제1 타깃 이어폰에 의해 지원된 프로세싱 모드, 및 제1 타깃 이어폰에 의해 지원된 프로세싱 모드에 대응하는 프로세싱 세기를 포함하는 것은: 제1 선택 제어부가 (제1 타깃 이어폰에 의해 모두 지원되는) 복수의 프로세싱 모드에 대한 옵션, 및 모든 프로세싱 모드에서의 프로세싱 세기의 조절 항목을 사용자에게 제공하는 것으로서 설명될 수 있다.
상기한 설계에서, 사용자는 사용자의 상이한 요건을 충족시키기 위하여, UI 인터페이스 상에서, 헤드셋에 의해 달성될 필요가 있는 효과에 대응하는 프로세싱 모드 및 세기를 자유롭게 스위칭할 수 있다.
가능한 설계에서, 제1 인터페이스를 디스플레이하기 전에, 방법은 선택 프롬프트 정보를 디스플레이하는 것 - 선택 프롬프트 정보는 제1 타깃 이어폰의 프로세싱 모드를 조절할 것인지 여부를 선택하기 위하여 사용자에 의해 이용됨 -; 및 제1 타깃 이어폰의 프로세싱 모드를 조절하기 위하여 사용자에 의해 선택하는 조작을 검출하는 것을 더 포함한다.
상기한 설계에서, 사용자는 요건에 기초하여, 현재의 프로세싱 모드를 조절할 것인지 여부를 결정할 수 있다.
가능한 설계에서, 제1 인터페이스를 디스플레이하기 전에, 방법은 현재의 외부 환경의 장면 유형이 타깃 장면인 것으로 식별하는 것 - 타깃 장면은 제1 타깃 이어폰의 프로세싱 모드가 조절될 필요가 있는 장면 유형에 적응함 - 을 더 포함한다.
상기한 설계는 사용자의 수동적 조작을 감소시키기 위하여, 특정한 시나리오에서 제1 인터페이스를 능동적으로 팝업(pop up)하는 프로세스를 제공한다.
가능한 설계에서, 제1 인터페이스를 디스플레이하기 전에, 방법은 단말 디바이스가 오디오를 플레이하도록 제1 타깃 이어폰을 트리거링하는 것으로 식별하는 것을 더 포함한다. 단말 디바이스가 오디오를 플레이하도록 제1 타깃 이어폰을 트리거링하는 것으로 식별하는 것은, 단말 디바이스가 오디오 신호를 제1 타깃 이어폰으로 송신하기 시작하는 것으로 식별하는 것으로서 설명될 수 있다.
상기한 설계는 사용자의 수동적 조작을 감소시키기 위하여, 제1 인터페이스를 능동적으로 팝업하는 프로세스를 제공한다.
가능한 설계에서, 제1 인터페이스를 디스플레이하기 전에, 방법은 단말 디바이스가 제1 타깃 이어폰에 대한 접속을 확립하는 것을 검출하는 것을 더 포함한다.
상기한 설계는 사용자의 수동적 조작을 감소시키기 위하여, 제1 인터페이스를 능동적으로 팝업하는 프로세스를 제공한다.
가능한 설계에서, 제1 인터페이스를 디스플레이하기 전에, 방법은 단말 디바이스가 제1 타깃 이어폰에 대한 접속을 확립하는 것을 검출할 때, 홈 스크린(home screen) 상에서 사용자에 의해 수행된 제2 조작을 검출하는 것 - 홈 스크린은 제1 애플리케이션의 아이콘(icon)을 포함하고, 제2 조작은 사용자가 제1 애플리케이션의 아이콘을 터치하여 제어할 때에 생성되고, 제1 인터페이스는 제1 애플리케이션의 디스플레이 인터페이스임 - 을 더 포함한다.
가능한 설계에서, 제1 선택 제어부는 제1 제어부 및 제2 제어부를 포함하고, 제1 제어부 상의 제2 제어부의 임의의 2개의 상이한 포지션은 제1 타깃 이어폰의 2개의 상이한 프로세싱 모드를 지시하거나, 제1 제어부 상의 제2 제어부의 임의의 2개의 상이한 포지션은 동일한 프로세싱 모드에서의 제1 타깃 이어폰의 상이한 프로세싱 세기를 지시하고; 제1 조작은 사용자가 제2 제어부를, 제1 타깃 모드에 대응하고 제1 제어부 상에 있는 영역 내의 제1 포지션으로 이동시킬 때에 생성되고, 여기서, 제1 포지션은 제1 타깃 모드에서의 제1 타깃 프로세싱 세기에 대응한다.
가능한 설계에서, 제1 제어부는 링 형상 또는 바 형상이다.
예를 들어, 제1 제어부는 링 형상이고, 링은 적어도 2개의 아크 세그먼트(arc segment)를 포함하고, 제2 제어부는 제1 타깃 이어폰의 상이한 프로세싱 모드를 지시하기 위하여 상이한 아크 세그먼트 내에 위치되어 있거나, 제2 제어부는 동일한 프로세싱 모드에서의 제1 타깃 이어폰의 상이한 프로세싱 세기를 지시하기 위하여 동일한 아크 세그먼트의 상이한 포지션 내에 위치되어 있다.
또 다른 예를 들어, 제1 제어부는 바 형상이고, 바는 적어도 2개의 바-형상 세그먼트(bar-shaped segment)를 포함하고, 제2 제어부는 제1 타깃 이어폰의 상이한 프로세싱 모드를 지시하기 위하여 상이한 바-형상 세그먼트 내에 위치되어 있거나, 제2 제어부는 동일한 프로세싱 모드에서의 제1 타깃 이어폰의 상이한 프로세싱 세기를 지시하기 위하여 동일한 바-형상 세그먼트의 상이한 포지션 내에 위치되어 있다.
가능한 설계에서, 방법은:
제1 인터페이스에서 사용자에 의해 수행된 제3 조작에 대해 응답하는 것 - 제1 인터페이스는 제2 선택 제어부를 더 포함하고; 제2 선택 제어부는 제2 타깃 이어폰에 의해 지원된 프로세싱 모드, 및 제2 타깃 이어폰에 의해 지원된 프로세싱 모드에 대응하는 프로세싱 세기를 포함하고; 제1 타깃 이어폰에 의해 지원된 프로세싱 모드는 다음의 모드: 능동 잡음 제어(ANC) 모드, 주변 음 히어-스루(HT) 모드, 또는 증강된 청취(AH) 모드 중의 적어도 2개를 포함하고; 제3 조작은 사용자가 제2 선택 제어부를 이용함으로써 제2 타깃 이어폰의 프로세싱 모드로부터 제2 타깃 모드를 선택하고, 제2 타깃 모드에서의 프로세싱 세기를 제2 타깃 프로세싱 세기로서 선택할 때에 생성되고; 제2 타깃 이어폰은 제1 타깃 이어폰이 좌측 이어폰일 때에 우측 이어폰이거나, 제1 타깃 이어폰은 우측 이어폰이고 제2 타깃 이어폰은 좌측 이어폰임 -; 및
제2 타깃 모드 및 제2 타깃 프로세싱 세기를 제2 타깃 이어폰으로 송신하는 것 - 제2 타깃 모드는 제2 타깃 모드에 대응하는 프로세싱 기능을 수행하도록 제2 타깃 이어폰에 지시하고, 제2 타깃 프로세싱 세기는 제2 타깃 이어폰이 제2 타깃 모드에 대응하는 프로세싱 기능을 수행하는 프로세싱 세기를 지시함 - 을 더 포함한다.
상기한 설계에서, 사용자는 좌측 귀 및 우측 귀의 청각적 지각을 위한 사용자의 차별화된 요건을 충족시키기 위하여, 좌측 이어폰 및 우측 이어폰의 프로세싱 모드 및 프로세싱 세기를 별도로 조작할 수 있다.
제5 측면에 따르면, 이 출원의 실시예는 헤드셋 제어 방법을 추가로 제공한다. 방법은 단말 디바이스에 적용된다. 방법은 단말 디바이스에 의해, 헤드셋에 대한 통신 접속을 확립하는 것; 제1 인터페이스를 디스플레이하는 것 - 제1 인터페이스는 헤드셋의 기능을 설정하기 위하여 이용되고, 제1 인터페이스는 이벤트 음 강화 기능을 위한 옵션을 포함하고, 이벤트 음은, 사전설정된 이벤트 조건을 충족시키고 외부 환경 내에 있는 음임 -; 및 이벤트 음 강화 기능을 위한 옵션이 이네이블(enable)될 때, 헤드셋의 ANC 기능 및 HT 기능의 둘 모두를 이네이블된 상태가 되도록 제어하는 것을 포함한다.
제6 측면에 따르면, 이 출원의 실시예는 헤드셋 제어 장치를 추가로 제공한다. 장치는 단말 디바이스에서 이용된다. 장치는:
제1 인터페이스를 디스플레이하도록 구성된 디스플레이 모듈 - 제1 인터페이스는 헤드셋의 기능을 설정하기 위하여 이용되고, 제1 인터페이스는 이벤트 음 강화 기능을 위한 옵션을 포함하고, 이벤트 음은, 사전설정된 이벤트 조건을 충족시키고 외부 환경 내에 있는 음임 -; 및
이벤트 음 강화 기능을 위한 옵션이 이네이블될 때, 헤드셋의 ANC 기능 및 HT 기능의 둘 모두를 이네이블된 상태가 되도록 제어하도록 구성된 프로세싱 모듈을 포함한다.
제5 측면 또는 제6 측면에 따르면, 가능한 설계에서, 제1 인터페이스는 헤드셋의 HT 기능을 제어하기 위한 옵션을 포함한다. 헤드셋의 HT 기능은 HT 기능을 위한 옵션이 이네이블될 때에 활성화되고, 이벤트 음을 강화하기 위한 옵션은 제1 인터페이스에 추가된다. 추가로, 임의적으로, HT 기능의 타깃 세기는 추가로 획득될 수 있고, 헤드셋의 HT 기능은 HT 기능의 타깃 세기에 기초하여 제어된다. 이 단계는 협력을 통해 디스플레이 모듈 및 프로세싱 모듈에 의해 수행될 수 있다.
제5 측면 또는 제6 측면에 따르면, 가능한 설계에서, 헤드셋의 ANC 기능 및 HT 기능의 둘 모두를 이네이블된 상태가 되도록 제어하는 것은, HT 기능을 이네이블된 상태에 있도록 유지하고 헤드셋의 ANC 기능을 활성화하는 것을 포함한다. 이 단계는 프로세싱 모듈에 의해 수행될 수 있다.
제5 측면 또는 제6 측면에 따르면, 가능한 설계에서, 제1 인터페이스는 헤드셋의 ANC 기능을 제어하기 위한 옵션을 포함하고, 헤드셋의 ANC 기능은 ANC 기능을 위한 옵션이 이네이블될 때에 활성화된다. 추가로, 임의적으로, ANC 기능의 세기 옵션은 제1 인터페이스에 추가된다. 이 단계는 프로세싱 모듈에 의해 수행될 수 있다.
제5 측면 또는 제6 측면에 따르면, 가능한 설계에서, 제1 인터페이스는 ANC 기능을 디세이블(disable)하기 위한 옵션 및/또는 HT 기능을 디세이블하기 위한 옵션을 더 포함한다.
제5 측면 또는 제6 측면에 따르면, 가능한 설계에서, ANC 기능의 세기 옵션은 적어도 제1 정상-상태 ANC 세기 옵션, 제2 정상-상태 ANC 세기 옵션, 및 적응적 ANC 세기 옵션을 포함하고; 제1 정상-상태 ANC 세기 옵션 및 제2 정상-상태 ANC 세기 옵션은 각각 제1 장면 및 제2 장면에 대응하고, 상이한 ANC 기능 세기에 대응하고; 적응적 ANC 세기 옵션에 대응하는 ANC 기능 세기는 단말 디바이스 또는 헤드셋이 위치되어 있는 현재의 환경의 장면 유형에 관련되고; 현재의 환경의 상이한 장면 유형은 상이한 ANC 세기에 대응한다.
제5 측면 또는 제6 측면에 따르면, 가능한 설계에서, 단말 또는 헤드셋이 위치되어 있는 현재의 환경의 장면 유형은 적응적 ANC 세기 옵션이 이네이블될 때에 획득되고, ANC 기능의 타깃 세기는 장면 유형에 기초하여 정합을 통해 획득되고, 헤드셋의 ANC 기능은 타깃 세기에 기초하여 획득된다. 현재의 환경의 상이한 장면 유형은 제1 장면 및 제2 장면을 포함한다.
제5 측면 또는 제6 측면에 따르면, 가능한 설계에서, 이벤트 음은 사전설정된 스펙트럼 특성을 충족시키는 인간 음성 또는 또 다른 음을 포함한다.
제5 측면 또는 제6 측면에 따르면, 가능한 설계에서, 이벤트 음 강화 기능을 위한 옵션을 이네이블하거나, HT 기능을 위한 옵션을 이네이블하거나, ANC 기능을 위한 옵션을 이네이블하는 것은, 사용자에 의해 대응하는 기능 옵션에 대하여 수행된 탭-투-선택(tap-to-select) 조작, 대응하는 기능에 대하여 수행된 적응적 스위칭, 또는 대응하는 기능에 대하여 수행된 단축키 트리거링(shortcut triggering)에 대해 응답하는 것을 포함한다.
제7 측면에 따르면, 이 출원의 실시예는 잡음제거 방법을 추가로 제공한다. 방법은 헤드셋에 적용된다. 헤드셋은 적어도 능동 잡음 제어(ANC) 기능을 지원하고, 주변 음 히어-스루(HT) 기능을 추가로 지원할 수 있다. 헤드셋은 제1 마이크로폰, 제2 마이크로폰, 및 스피커를 포함한다. 방법은 제1 마이크로폰을 이용함으로써 제1 신호를 수집하는 것 - 제1 신호는 현재의 외부 환경에서의 음을 나타내기 위하여 이용됨 -; 제2 마이크로폰을 이용함으로써 제2 신호를 수집하는 것 - 제2 신호는 헤드셋을 착용하는 사용자의 외이도에서의 주변 음을 나타내기 위하여 이용됨 -; 이벤트 음을 강화하기 위한 명령을 수신하는 것 - 이벤트 음은, 사전설정된 이벤트 조건을 충족시키고 외부 환경 내에 있는 음임 -; ANC 기능을 이네이블되도록, 즉, ANC 기능이 이네이블되는 것을 제어하는 것; 및 타깃 신호를 획득하기 위하여, 적어도 ANC 기능을 이용함으로써 제1 신호 및 제2 신호에 대해 타깃 프로세싱을 수행하는 것 - 타깃 신호 내의 이벤트 음의 신호-대-잡음(signal-to-noise) 비율은 제1 신호 내의 이벤트 음의 신호-대-잡음 비율 초과임 -; 및 스피커를 이용함으로써 타깃 신호를 플레이하는 것을 포함한다.
제8 측면에 따르면, 이 출원의 실시예는 잡음제거 장치를 추가로 제공한다. 장치는 헤드셋에서 이용된다. 헤드셋은 적어도 능동 잡음 제어(ANC) 기능을 지원하고, 주변 음 히어-스루(HT) 기능을 추가로 지원할 수 있다. 헤드셋은 제1 마이크로폰, 제2 마이크로폰, 및 스피커를 포함한다. 장치는 제1 마이크로폰을 이용함으로써 제1 신호를 수집하도록 구성되고 - 제1 신호는 현재의 외부 환경에서의 음을 나타내기 위하여 이용됨 -; 제2 마이크로폰을 이용함으로써 제2 신호를 수집하도록 추가로 구성된 - 제2 신호는 헤드셋을 착용하는 사용자의 외이도에서의 주변 음을 나타내기 위하여 이용됨 - 수집 모듈; 이벤트 음을 강화하기 위한 명령을 수신하도록 구성된 수신 모듈 - 이벤트 음은, 사전설정된 이벤트 조건을 충족시키고 외부 환경 내에 있는 음임 -; ANC 기능을 이네이블하고, 타깃 신호를 획득하기 위하여, 적어도 ANC 기능을 이용함으로써 제1 신호 및 제2 신호에 대해 타깃 프로세싱을 수행하도록 구성된 프로세싱 모듈 - 타깃 신호 내의 이벤트 음의 신호-대-잡음 비율은 제1 신호 내의 이벤트 음의 신호-대-잡음 비율 초과임 -; 및 스피커를 이용함으로써 타깃 신호를 플레이하도록 구성된 플레이 모듈을 포함한다.
제7 측면 또는 제8 측면에 따르면, 가능한 설계에서, ANC 기능 및 HT 기능의 둘 모두는 이네이블된 상태에 있도록 제어되고; 복원된 신호를 획득하기 위하여, 제1 신호는 HT 기능을 이용함으로써 히어 스루(hear through)를 통해 전송되고; 이벤트 음 강화된 신호를 획득하기 위하여, 복원된 신호 내의 이벤트 음 신호는 강화되고, 복원된 신호 내의 비 이벤트 음 신호(non event sound signal)는 약화되고; 타깃 신호를 획득하기 위하여, 제1 신호, 제2 신호, 및 이벤트 음 강화된 신호는 ANC 기능을 이용함으로써 프로세싱된다.
제7 측면 또는 제8 측면에 따르면, 가능한 설계에서, 타깃 신호를 획득하기 위하여, 제1 신호, 제2 신호, 및 이벤트 음 강화된 신호는 ANC 신호를 이용함으로써 프로세싱된다.
제7 측면 또는 제8 측면에 따르면, 가능한 설계에서, 헤드셋은 적어도 능동 잡음 제어(ANC) 기능, 주변 음 히어-스루(HT) 기능, 및 AH 기능을 지원한다. 헤드셋은 HT 필터 뱅크(filter bank), 피드백 필터 뱅크(feedback filter bank), 및 피드포워드 필터 뱅크(feedforward filter bank)를 포함한다. 방법은 헤드셋의 조작 모드를 획득하는 것; 및 조작 모드가 ANC 기능일 때, ANC 기능을 수행하기 위하여 피드백 필터 뱅크 및 피드포워드 필터 뱅크를 호출하거나; 조작 모드가 HT 기능일 때, HT 기능을 수행하기 위하여 HT 필터 뱅크 및 피드백 필터 뱅크를 호출하거나; 조작 모드가 AH 기능일 때, AH 기능을 수행하기 위하여 HT 필터 뱅크, 피드포워드 필터 뱅크, 및 피드백 필터 뱅크를 호출하는 것을 포함한다.
제9 측면에 따르면, 이 출원의 실시예는 잡음제거 방법을 추가로 제공한다. 방법은 헤드셋에 적용된다. 헤드셋은 적어도 ANC 기능을 지원하고, 헤드셋은 제1 마이크로폰 및 제3 마이크로폰을 포함하고, 제1 마이크로폰은 현재의 외부 환경에서의 음의 수집에 더 많이 초점을 맞추고, 제3 마이크로폰은 음 픽업(sound pickup)에 더 많이 초점을 맞춘다. 헤드셋이 ANC 기능을 이네이블할 때, 제1 신호는 제1 마이크로폰을 이용함으로써 현재의 환경에 대하여 수집되고; 제2 신호는 제3 마이크로폰을 이용함으로써 현재의 환경에 대하여 수집되고; 현재의 장면의 잡음 레벨은 제1 신호 및 제2 신호에 기초하여 결정되고 - 상이한 잡음 레벨은 상이한 ANC 세기에 대응함 -; ANC 기능은 현재의 잡음 레벨에 기초하여 제어된다.
제10 측면에 따르면, 이 출원의 실시예는 잡음제거 장치를 추가로 제공한다. 장치는 헤드셋에서 이용된다. 헤드셋은 적어도 ANC 기능을 지원하고, 헤드셋은 제1 마이크로폰 및 제3 마이크로폰을 포함하고, 제1 마이크로폰은 현재의 외부 환경에서의 음의 수집에 더 많이 초점을 맞추고, 제3 마이크로폰은 음 픽업에 더 많이 초점을 맞춘다. 수집 모듈은, 헤드셋의 ANC 기능이 이네이블된 상태에 있을 때, 제1 마이크로폰을 이용함으로써 현재의 환경에 대한 제1 신호를 수집하고; 제3 마이크로폰을 이용함으로써 현재의 환경에 대한 제2 신호를 수집하도록 구성된다. 식별 모듈은 제1 신호 및 제2 신호에 기초하여 현재의 장면의 잡음 레벨을 결정하도록 구성된다. 상이한 잡음 레벨은 상이한 ANC 세기에 대응한다. 프로세싱 모듈은 현재의 잡음 레벨에 기초하여 ANC 기능을 제어하도록 구성된다.
제9 측면 또는 제10 측면에 따르면, 가능한 설계에서, 음성 활성 검출(voice activity detection)은 제1 신호와 제2 신호 사이의 상관의 특징을 이용함으로써 수행되고; 비 음성 신호의 잡음이 추적되고; 현재의 장면은 잡음의 에너지가 제1 임계치 미만일 경우에 조용한 장면(quiet scene)으로서 결정되거나, 현재의 장면은 잡음의 스펙트럼이 주로 저 주파수 대역 내에 있고 잡음의 에너지가 제2 임계치 초과일 경우에 과도한-잡음 장면(heavy-noise scene)으로서 결정되거나, 현재의 장면은 현재의 장면이 조용한 장면도 아니고 과도한-잡음 장면도 아닐 경우에 보편적 장면(common scene)으로서 결정되고, 여기서, 제2 임계치는 제1 임계치 초과이다. 조용한 장면, 보편적 장면, 및 과도한-잡음 장면에 대응하는 ANC 세기는 연속적으로 증가한다.
제9 측면 또는 제10 측면에 따르면, 가능한 설계에서, 현재의 장면이 새로운 잡음 레벨에 있고 사전설정된 기간 동안에 지속되는 것으로 검출될 경우에, 새로운 잡음 레벨에 대응하는 ANC 세기가 획득되고, ANC 기능은 새로운 잡음 레벨에 대응하는 ANC 세기에 기초하여 제어된다.
제11 측면에 따르면, 이 출원의 실시예는 헤드셋 제어 방법을 추가로 제공한다. 방법은 단말 디바이스에 적용된다. 방법은 단말 디바이스에 의해, 헤드셋에 대한 통신 접속을 확립하는 것 - 헤드셋은 적어도 능동 잡음 제어(ANC) 기능을 지원함 -; 제1 인터페이스를 디스플레이하는 것 - 제1 인터페이스는 헤드셋의 기능을 설정하기 위하여 이용되고, 제1 인터페이스는 헤드셋의 ANC 기능을 제어하기 위한 옵션을 포함함 -; ANC 기능을 위한 옵션이 이네이블될 때, 헤드셋의 ANC 기능을 활성화하는 것; ANC 기능의 세기 옵션을 제1 인터페이스에 추가하는 것; 및 ANC 기능의 세기 옵션을 이네이블하는 결과에 기초하여 ANC를 수행하는 것 - ANC 기능의 세기 옵션은 적어도 제1 정상-상태 ANC 세기 옵션, 제2 정상-상태 ANC 세기 옵션, 및 적응적 ANC 세기 옵션을 포함하고; 제1 정상-상태 ANC 세기 옵션 및 제2 정상-상태 ANC 세기 옵션은 각각 제1 장면 및 제2 장면에 대응하고, 상이한 정상 ANC 기능 세기에 대응하고; 적응적 ANC 세기 옵션에 대응하는 ANC 기능 세기는 단말 디바이스 또는 헤드셋이 위치되어 있는 현재의 환경의 장면 유형에 관련되고; 현재의 환경의 상이한 장면 유형은 상이한 ANC 세기에 대응함 - 을 포함한다. 임의적으로, 현재의 환경의 상이한 장면 유형은 제1 장면 및 제2 장면을 포함한다.
제12 측면에 따르면, 이 출원의 실시예는 헤드셋 제어 장치를 추가로 제공한다. 단말 디바이스는 헤드셋에 대한 통신 접속을 확립한다. 헤드셋은 적어도 능동 잡음 제어(ANC) 기능을 지원한다. 장치는 제1 인터페이스를 디스플레이하도록 구성된 디스플레이 모듈 - 제1 인터페이스는 헤드셋의 기능을 설정하기 위하여 이용되고, 제1 인터페이스는 헤드셋의 ANC 기능을 제어하기 위한 옵션을 포함함 -; 및 ANC 기능을 위한 옵션이 이네이블될 때, 헤드셋의 ANC 기능을 활성화하도록 구성된 프로세싱 모듈을 포함한다. 디스플레이 모듈은 ANC 기능을 위한 옵션이 이네이블된 후에, ANC 기능의 세기 옵션을 제1 인터페이스에 추가하도록 추가로 구성된다. 프로세싱 모듈은 ANC 기능의 세기 옵션을 이네이블하는 결과에 기초하여 ANC를 수행하도록 추가로 구성된다. ANC 기능의 세기 옵션은 적어도 제1 정상-상태 ANC 세기 옵션, 제2 정상-상태 ANC 세기 옵션, 및 적응적 ANC 세기 옵션을 포함하고; 제1 정상-상태 ANC 세기 옵션 및 제2 정상-상태 ANC 세기 옵션은 각각 제1 장면 및 제2 장면에 대응하고, 상이한 정상 ANC 기능 세기에 대응하고; 적응적 ANC 세기 옵션에 대응하는 ANC 기능 세기는 단말 디바이스 또는 헤드셋이 위치되어 있는 현재의 환경의 장면 유형에 관련되고; 현재의 환경의 상이한 장면 유형은 상이한 ANC 세기에 대응한다.
제11 측면 또는 제12 측면에 따르면, 가능한 설계에서, 프로세싱 모듈은, 제1 정상-상태 ANC 세기 옵션이 이네이블될 때, 제1 정상-상태 ANC 세기 옵션에 대응하는 제1 ANC 기능 세기를 획득하고; 제1 ANC 기능 세기에 기초하여 ANC 기능을 제어하거나; 제2 정상-상태 ANC 세기 옵션이 이네이블될 때, 제2 정상-상태 ANC 세기 옵션에 대응하는 제2 ANC 기능 세기를 획득하고; 제2 ANC 기능 세기에 기초하여 ANC 기능을 제어하거나; 적응적 ANC 세기 옵션이 이네이블될 때, 단말 디바이스 또는 헤드셋이 위치되어 있는 현재의 환경의 장면 유형을 획득하고; 현재의 환경의 장면 유형에 기초하여 ANC 세기를 결정하고; 결정된 ANC 세기에 기초하여 ANC 기능을 제어하도록 구체적으로 구성된다.
제13 측면에 따르면, 이 출원의 실시예는 헤드셋 제어 방법을 추가로 제공한다. 방법은 단말 디바이스에 적용된다. 방법은 단말 디바이스에 의해, 헤드셋에 대한 통신 접속을 확립하는 것 - 헤드셋은 적어도 주변 음 히어-스루(HT) 기능을 지원함 -; 제1 인터페이스를 디스플레이하는 것 - 제1 인터페이스는 헤드셋의 기능을 설정하기 위하여 이용되고, 제1 인터페이스는 헤드셋의 HT 기능을 제어하기 위한 옵션을 포함함 -; HT 기능의 옵션이 이네이블될 때, 헤드셋의 HT 기능을 활성화하는 것; 이벤트 음을 강화하기 위한 옵션을 제1 인터페이스에 추가하는 것 - 이벤트 음은, 사전설정된 이벤트 조건을 충족시키고 외부 환경 내에 있는 음임 -; 이벤트 음 강화 기능을 위한 옵션이 이네이블될 때, 헤드셋에 의해 수집된 신호 내의 이벤트 음의 신호-대-잡음 비율을 증가시키도록 헤드셋을 제어하는 것 - 이벤트 음의 더 높은 신호-대-잡음 비율은 신호 내의 이벤트 음의 더 높은 에너지 비율을 지시함 - 을 포함한다.
제14 측면에 따르면, 이 출원의 실시예는 헤드셋 제어 장치를 추가로 제공한다. 장치는 단말 디바이스에서 이용되고, 단말 디바이스는 헤드셋에 대한 통신 접속을 확립하고, 헤드셋은 적어도 주변 음 히어-스루(HT) 기능을 지원한다. 장치는 제1 인터페이스를 디스플레이하도록 구성된 디스플레이 모듈 - 제1 인터페이스는 헤드셋의 기능을 설정하기 위하여 이용되고, 제1 인터페이스는 헤드셋의 HT 기능을 제어하기 위한 옵션을 포함함 -; 및 HT 기능을 위한 옵션이 이네이블될 때, 헤드셋의 HT 기능을 활성화하도록 구성된 프로세싱 모듈을 포함한다. 디스플레이 모듈은, HT 기능을 위한 옵션이 이네이블된 후에, 이벤트 음을 강화하기 위한 옵션을 제1 인터페이스에 추가하도록 추가로 구성되고, 여기서, 이벤트 음은, 사전설정된 이벤트 조건을 충족시키고 외부 환경 내에 있는 음이다. 프로세싱 모듈은, 이벤트 음 강화 기능을 위한 옵션이 이네이블될 때, 헤드셋에 의해 수집된 신호 내의 이벤트 음의 신호-대-잡음 비율을 증가시키도록 헤드셋을 제어하도록 추가로 구성되고, 여기서, 이벤트 음의 더 높은 신호-대-잡음 비율은 신호 내의 이벤트 음의 더 높은 에너지 비율을 지시한다.
제13 측면 또는 제14 측면에 따르면, 가능한 설계에서, 이벤트 음은 사전설정된 스펙트럼 특성을 충족시키는 인간 음성 또는 또 다른 음을 포함한다. 임의적으로, 제1 인터페이스는 헤드셋의 ANC 기능을 제어하기 위한 옵션, ANC 기능을 디세이블하기 위한 옵션, 및/또는 HT 기능을 디세이블하기 위한 옵션을 포함한다.
제13 측면 또는 제14 측면에 따르면, 가능한 설계에서, 프로세싱 모듈은, ANC 기능의 제1 세기를 획득하고, 제1 세기에 기초하여 헤드셋의 ANC 기능을 제어하거나; HT 기능의 제2 세기를 획득하고, 제2 세기에 기초하여 헤드셋의 HT 기능을 제어하거나; 이벤트 음 강화의 제3 세기를 획득하고, 제3 세기에 기초하여 헤드셋의 이벤트 음 강화 기능을 제어하도록 구체적으로 구성된다.
제15 측면에 따르면, 이 출원의 실시예는 잡음 프로세싱 장치를 추가로 제공한다. 장치는 헤드셋에서 이용된다. 헤드셋은 다음의 기능: 능동 잡음 제어(ANCl) 기능, 주변 음 히어-스루(HT) 기능, 또는 증강된 청취(AH) 기능 중의 적어도 2개를 가진다. 헤드셋은 제1 마이크로폰 및 제2 마이크로폰을 포함한다. 제1 마이크로폰은 제1 신호를 수집하도록 구성되고, 여기서, 제1 신호는 현재의 외부 환경에서의 음을 나타내기 위하여 이용된다. 제2 마이크로폰은 제2 신호를 수집하도록 구성되고, 여기서, 제2 신호는 헤드셋을 착용하는 사용자의 외이도에서의 주변 음을 나타내기 위하여 이용된다.
잡음 프로세싱 장치는 제1 측면에서의 방법에서 단계를 구현하도록 구성된 대응하는 기능적 모듈을 포함한다. 세부사항에 대해서는, 방법 예에서의 상세한 설명을 참조한다. 세부사항은 본 명세서에서 다시 설명되지 않는다. 기능은 하드웨어에 의해 구현될 수 있거나, 하드웨어에 의해 대응하는 소프트웨어를 실행함으로써 구현될 수 있다. 하드웨어 또는 소프트웨어는 상기한 기능에 대응하는 하나 이상의 모듈을 포함한다. 예를 들어, 잡음 프로세싱 장치는:
단말 디바이스로부터 제1 오디오 신호를 수신하도록 구성된 통신 모듈;
타깃 모드를 획득하도록 구성된 획득 모듈 - 타깃 모드는 현재의 외부 환경의 장면 유형에 기초하여 결정되고, 타깃 모드는 타깃 프로세싱 기능을 수행하도록 헤드셋에 지시하고, 타깃 프로세싱 기능은 다음의 기능: 능동 잡음 제어(ANC) 기능, 주변 음 히어-스루(HT) 기능, 또는 증강된 청취(AH) 기능 중의 하나임 -; 및
타깃 모드, 제1 오디오 신호, 제1 신호, 및 제2 신호에 기초하여 제2 오디오 신호를 획득하도록 구성된 제1 프로세싱 모듈을 포함한다.
제16 측면에 따르면, 이 출원의 실시예는 좌측 이어폰 및 우측 이어폰을 포함하는 타깃 헤드셋을 제공한다. 좌측 이어폰은 상기한 가능한 헤드셋-관련된 설계 방법 중의 임의의 하나를 구현하기 위하여 이용되거나, 우측 이어폰은 상기한 가능한 헤드셋-관련된 설계 방법 중의 임의의 하나를 구현하기 위하여 이용된다.
가능한 설계에서, 상이한 프로세싱 모드는 좌측 이어폰 및 우측 이어폰을 위하여 이용된다.
제17 측면에 따르면, 이 출원의 실시예는 타깃 헤드셋을 제공한다. 타깃 헤드셋은 좌측 이어폰 및 우측 이어폰을 포함한다. 좌측 이어폰 또는 우측 이어폰은 제1 마이크로폰, 제2 마이크로폰, 프로세서, 메모리, 및 스피커를 포함한다. 제1 마이크로폰은 제1 신호를 수집하도록 구성되고, 여기서, 제1 신호는 현재의 외부 환경에서의 음을 나타내기 위하여 이용된다. 제2 마이크로폰은 제2 신호를 수집하도록 구성되고, 여기서, 제2 신호는 헤드셋을 착용하는 사용자의 외이도에서의 주변 음을 나타내기 위하여 이용된다. 메모리는 프로그램 또는 명령을 저장하도록 구성된다. 프로세서는 프로그램 또는 명령을 호출하도록 구성되어, 전자 디바이스가 제2 오디오 신호 또는 타깃 신호를 획득하기 위하여 가능한 헤드셋-관련된 방법 중의 임의의 하나를 수행하는 것을 가능하게 한다. 스피커는 제2 오디오 신호 또는 타깃 신호를 플레이하도록 구성된다.
제18 측면에 따르면, 이 출원의 실시예는 모드 제어 장치를 제공한다. 장치는 단말 디바이스에서 이용된다. 장치는 상기한 가능한 단말-관련된 단계 중의 임의의 하나를 구현하도록 구성된 대응하는 기능적 모듈을 포함한다. 세부사항에 대해서는, 방법 예에서의 상세한 설명을 참조한다. 세부사항은 본 명세서에서 다시 설명되지 않는다. 기능은 하드웨어에 의해 구현될 수 있거나, 하드웨어에 의해 대응하는 소프트웨어를 실행함으로써 구현될 수 있다. 하드웨어 또는 소프트웨어는 상기한 기능에 대응하는 하나 이상의 모듈을 포함한다.
제19 측면에 따르면, 이 출원의 실시예는 메모리, 프로세서, 및 디스플레이를 포함하는 단말 디바이스를 제공한다. 디스플레이는 인터페이스를 디스플레이하도록 구성된다. 메모리는 프로그램 또는 명령을 저장하도록 구성된다. 프로세서는 프로그램 또는 명령을 호출하도록 구성되어, 단말 디바이스가 가능한 단말-관련된 방법 중의 임의의 하나에서의 단계를 수행하는 것을 가능하게 한다.
제20 측면에 따르면, 이 출원은 컴퓨터-판독가능 저장 매체를 제공한다. 컴퓨터-판독가능 저장 매체는 컴퓨터 프로그램 또는 명령을 저장한다. 컴퓨터 프로그램 또는 명령이 헤드셋에 의해 실행될 때, 헤드셋은 상기한 가능한 관련된 헤드셋 설계 방법 중의 임의의 하나를 수행하는 것이 가능하게 된다.
제21 측면에 따르면, 이 출원은 컴퓨터-판독가능 저장 매체를 제공한다. 컴퓨터-판독가능 저장 매체는 컴퓨터 프로그램 또는 명령을 저장한다. 컴퓨터 프로그램 또는 명령이 단말 디바이스에 의해 실행될 때, 헤드셋은 상기한 가능한 단말-관련된 설계 중의 임의의 하나에서의 방법을 수행하는 것이 가능하게 된다.
제22 측면에 따르면, 이 출원은 컴퓨터 프로그램 제품을 제공한다. 컴퓨터 프로그램 제품은 컴퓨터 프로그램 또는 명령을 포함한다. 컴퓨터 프로그램 또는 명령이 헤드셋에 의해 실행될 때, 상기한 가능한 헤드셋 구현예 중의 임의의 하나에서의 방법이 수행된다.
제23 측면에 따르면, 이 출원은 컴퓨터 프로그램 제품을 제공한다. 컴퓨터 프로그램 제품은 컴퓨터 프로그램 또는 명령을 포함한다. 컴퓨터 프로그램 또는 명령이 헤드셋에 의해 실행될 때, 상기한 가능한 헤드셋 구현예 중의 임의의 하나에서의 방법이 수행된다.
상기한 가능한 설계 중의 임의의 하나가 자연 법칙을 위반하지 않으면서 자유롭게 조합될 수 있다는 것이 이해되어야 한다.
도 1은 이 출원의 실시예에 따른 단말 디바이스(100)의 하드웨어 구조의 개략도이다.
도 2는 이 출원의 실시예에 따른 단말 디바이스(100)의 소프트웨어 구조의 개략도이다.
도 3은 이 출원의 실시예에 따른 헤드셋(200)의 구조의 개략도이다.
도 4는 이 출원의 실시예에 따른 AHA 채널의 개략도이다.
도 5a는 이 출원의 실시예에 따른 ANC 프로세싱의 흐름도이다.
도 5b는 이 출원의 실시예에 따른 ANC 프로세싱의 개략적인 흐름도이다.
도 6a는 이 출원의 실시예에 따른 HT 프로세싱의 흐름도이다.
도 6b는 이 출원의 실시예에 따른 HT 프로세싱의 개략적인 흐름도이다.
도 6c는 이 출원의 실시예에 따른 HT 프로세싱의 또 다른 개략적인 흐름도이다.
도 7은 이 출원의 실시예에 따른 차단 효과 감소 프로세싱의 개략적인 흐름도이다.
도 8a는 이 출원의 실시예에 따른 AH 프로세싱의 흐름도이다.
도 8b는 이 출원의 실시예에 따른 AH 프로세싱의 개략적인 흐름도이다.
도 8c는 이 출원의 실시예에 따른 AH 프로세싱의 또 다른 개략적인 흐름도이다.
도 9는 이 출원의 실시예에 따른 잡음제거 프로세싱의 개략적인 흐름도이다.
도 10은 이 출원의 실시예에 따른 이득 증폭 프로세싱의 개략적인 흐름도이다.
도 11은 이 출원의 실시예에 따른 이득 증폭 프로세싱의 또 다른 개략적인 흐름도이다.
도 12a는 이 출원의 실시예에 따른 단말 디바이스의 홈 스크린의 개략도이다.
도 12b는 이 출원의 실시예에 따른 헤드셋 애플리케이션의 제어 인터페이스의 개략도이다.
도 12c는 이 출원의 실시예에 따른 ANC 모드에서 단말 디바이스에 의해 헤드셋을 제어하는 개략적인 제어 다이어그램이다.
도 12d는 이 출원의 실시예에 따른 HT 모드에서 단말 디바이스에 의해 헤드셋을 제어하는 개략적인 제어 다이어그램이다.
도 12e는 이 출원의 실시예에 따른 AH 모드에서 단말 디바이스에 의해 헤드셋을 제어하는 개략적인 제어 다이어그램이다.
도 12f는 이 출원의 실시예에 따른 선택 제어부의 개략도이다.
도 12g는 이 출원의 실시예에 따른 선택 제어부의 또 다른 개략도이다.
도 12h는 이 출원의 실시예에 따른 헤드셋의 제어 인터페이스를 트리거링하는 개략도이다.
도 13은 이 출원의 실시예에 따른 선택 제어부의 또 다른 개략도이다.
도 14a는 이 출원의 실시예에 따른 스마트 장면 검출 기능의 이네이블을 제어하는 개략도이다.
도 14b는 이 출원의 실시예에 따른 스마트 장면 검출 기능의 이네이블을 제어하는 또 다른 개략도이다.
도 14c는 이 출원의 실시예에 따른 헤드셋 제어 인터페이스의 개략도이다.
도 15는 이 출원의 실시예에 따른 이벤트 검출의 개략도이다.
도 16은 이 출원의 실시예에 따른, 단말 디바이스와 헤드셋 사이의 교환의 프로세싱 모드 및 프로세싱 세기의 개략도이다.
도 17a는 이 출원의 실시예에 따른, 장면 검출 결과를 디스플레이하는 개략도이다.
도 17b는 이 출원의 실시예에 따른, 장면 검출 결과를 디스플레이하는 또 다른 개략도이다.
도 18은 이 출원의 실시예에 따른 장면 검출의 개략도이다.
도 19는 이 출원의 실시예에 따른 잡음 프로세싱 장치(1900)의 구조의 개략도이다.
도 20은 이 출원의 실시예에 따른 모드 제어 장치(2000)의 구조의 개략도이다.
도 21은 이 출원의 실시예에 따른 모드 제어 장치(2100)의 구조의 개략도이다.
도 22는 이 출원의 실시예에 따른 모드 제어 장치(2200)의 구조의 개략도이다.
도 23은 이 출원의 실시예에 따른 단말 디바이스(2300)의 구조의 개략도이다.
도 24는 이 출원의 실시예에 따른 단말 디바이스의 헤드셋 제어 인터페이스의 개략도이다.
도 25는 이 출원의 실시예에 따른 단말 디바이스의 헤드셋 제어 인터페이스의 개략도이다.
도 26은 이 출원의 실시예에 따른 단말 디바이스의 헤드셋 제어 인터페이스의 개략도이다.
도 27은 이 출원의 실시예에 따른 단말 디바이스의 헤드셋 제어 인터페이스의 개략도이다.
도 28은 이 출원의 실시예에 따른 단말 디바이스의 헤드셋 제어 인터페이스의 개략도이다.
다음은 첨부 도면을 참조하여 이 출원의 실시예를 상세하게 설명한다. 이 출원의 실시예에서 이용된 용어는 이 출원의 구체적인 실시예를 설명하기 위하여 오직 이용되지만, 이 출원을 제한하도록 의도되지는 않는다. 설명된 실시예는 이 출원의 실시예의 전부가 아니라 단지 일부인 것이 명확하다. 창조적인 노력 없이 이 출원의 실시예에 기초하여 본 기술분야에서의 통상의 기술자에 의해 획득된 모든 다른 실시예는 이 출원의 보호 범위 내에 속할 것이다.
다음은 본 기술분야에서의 통상의 기술자에 의한 이해를 용이하게 하기 위하여, 이 출원의 실시예에서의 일부 용어를 먼저 서술하고 설명한다.
(1) 이 출원의 실시예에서의 애플리케이션(application, app(앱))은 하나 이상의 특정한 기능을 구현할 수 있는 소프트웨어 프로그램이다. 일반적으로, 복수의 애플리케이션, 예를 들어, 카메라 애플리케이션, 메일박스 애플리케이션(mailbox application), 및 헤드셋 제어 애플리케이션은 단말 디바이스 상에 설치될 수 있다. 이하에서 언급된 애플리케이션은 출하 전에 단말 디바이스 상에 설치된 시스템 애플리케이션일 수 있거나, 단말 디바이스를 이용할 때, 사용자에 의해 네트워크로부터 다운로드되거나 또 다른 단말 디바이스로부터 획득된 제3자 애플리케이션(third-party application)일 수 있다.
(2) 바크 서브대역(Bark subband)
인간 청각 시스템은 마스킹 효과(masking effect)를 가지고, 즉, 강한 주파수 음은 강한 주파수 음 근처에서 동시에 발생하는 약한 주파수 음의 인간 지각을 방해하고, 달팽이관(cochlea)의 기저막(basilar membrane)은 외부 음 신호에 대한 주파수 선택 및 튜닝(tuning) 효과를 가진다. 그러므로, 지각의 측면에서 음 주파수를 측정하기 위하여, 임계 주파수 대역(critical frequency band)의 개념이 도입된다. 기저막의 상이한 포지션에서 진동을 야기시킬 수 있는, 22 Hz 내지 22 kHz의 청취의 절대 임계치에서의 24개의 임계 주파수 대역이 있는 것으로 일반적으로 간주된다. 각각의 임계 주파수 대역은 바크 서브대역으로서 지칭된다.
(3) 음성 활성 검출(voice activity detection, VAD)(VAD)은 잡음을 갖는 음성의 시작 및 종료 포인트를 정확하게 위치시키기 위한 것이다. 음성은 긴 묵음 파트를 포함하므로, 실제적인 음성으로부터 묵음 파트를 분리하는 것은 음성 데이터에 대한 원래의 프로세싱이다.
(4) 이 출원의 실시예에서, "적어도 하나의 피스(piece)(항목)"는 하나의 피스(항목) 또는 더 많은 피스(항목)를 의미하고, "복수의 피스(항목)"는 2개의 피스(항목) 또는 더 많은 피스(항목)를 의미한다. 용어 "및/또는(and/or)"은 연관된 객체를 설명하기 위한 연관 관계를 설명하고, 3개의 관계가 존재할 수 있다는 것을 나타낸다. 예를 들어, A 및/또는 B는 다음의 경우를 나타낼 수 있다: A만 존재함, A 및 B의 둘 모두가 존재함, 및 B만 존재함, 여기서, A 및 B는 단수 또는 복수일 수 있음. 추가적으로, 이 명세서에서의 문자 "/"는 일반적으로, 연관된 객체 사이의 "또는(or)" 관계를 지시한다. 다음의 항목(피스) 또는 그 유사한 표현 중의 적어도 하나는 단일 항목(피스) 또는 복수의 항목(피스)의 임의의 조합을 포함하는 이 항목의 임의의 조합을 지시한다. 예를 들어, a, b, 또는 c의 적어도 하나의 항목(피스)은 a, b, c, a-b, a-c, b-c, 또는 a-b-c를 나타낼 수 있고, 여기서, a, b, 및 c는 단수 또는 복수일 수 있다. 이 출원에서, 기호 "(a, b)"는 a 초과이고 b 미만인 범위를 갖는 개방된 간격을 나타내고, "[a, b]"는 a 이상이고 b 이하인 범위를 갖는 폐쇄된 간격을 나타내고, "(a, b]"는 a 초과이고 b 이하인 범위를 갖는 반-개방되고 반-폐쇄된 간격을 나타내고, "(a, b]"는 a 초과이고 b 이하인 범위를 갖는 반-개방되고 반-폐쇄된 간격을 나타낸다. 추가적으로, 이와 다르게 기재되지 않으면, 이 출원의 실시예에서, "제1(first)" 및 "제2(second)"와 같은 서수(ordinal number)는 복수의 객체 사이를 구별하도록 의도되지만, 복수의 객체의 크기, 내용, 순서, 시간 시퀀스(time sequence), 우선순위, 중요도 등을 제한하도록 의도되지 않는다. 예를 들어, 제1 마이크로폰 및 제2 마이크로폰은 상이한 마이크로폰 사이를 구별하기 위하여 단지 이용되지만, 2개의 마이크로폰의 상이한 크기, 우선순위, 중요도 정도 등을 지시하지는 않는다.
이 출원의 실시예는 시스템을 제공한다. 시스템은 단말 디바이스(100) 및 헤드셋(200)을 포함한다. 단말 디바이스(100)는 헤드셋(200)에 접속되고, 접속은 무선 접속 또는 유선 접속일 수 있다. 무선 접속을 위하여, 예를 들어, 단말 디바이스는 블루투스(Bluetooth) 기술, 무선 충실도(wireless fidelity, Wi-Fi) 기술, 적외선(IR : infrared) 기술, 또는 초-광대역(ultra-wideband) 기술을 이용함으로써 헤드셋에 접속될 수 있다.
이 출원의 이 실시예에서, 단말 디바이스(100)는 인터페이스 디스플레이 기능을 가지는 디바이스이다. 단말 디바이스(100)는 예를 들어, 디스플레이 인터페이스를 가지는 제품, 예를 들어, 모바일 전화, 디스플레이, 태블릿 컴퓨터, 또는 차량내 디바이스(in-vehicle device); 또는 지능형 디스플레이 웨어러블 제품(intelligent display wearable product), 예를 들어, 스마트시계 또는 스마트 밴드일 수 있다. 모바일 단말의 구체적인 형태는 이 출원의 이 실시예에서 특히 제한되지 않는다.
헤드셋(200)은 귀 테두리에 걸려 있을 수 있는 2개의 음 생성 유닛을 포함한다. 좌측 귀에 적응된 음성 유닛은 좌측 이어폰으로서 지칭될 수 있고, 우측 귀에 적응된 음성 유닛은 우측 이어폰으로서 지칭될 수 있다. 착용의 관점으로부터, 이 출원의 이 실시예에서의 헤드셋(200)은 오버-더-헤드(over-the-head) 헤드셋, 오버-더-이어(over-the-ear) 헤드셋, 비하인드-더-네크(behind-the-neck) 헤드셋, 이어플러그(earplug) 헤드셋 등일 수 있다. 이어플러그 헤드셋은 인-이어(in-ear) 헤드셋(또는 외이도 헤드셋으로서 지칭됨) 또는 반-개방형 이어버드(semi-open earbud)를 더 포함한다. 헤드셋(200)은 다음의 기능: ANC 기능, HT 기능, 또는 AH 기능 중의 적어도 2개를 가진다. 설명의 용이함을 위하여, ANC, HT, 및 AH는 이 출원의 이 실시예에서 AHA로서 집합적으로 지칭되고, 확실히, 또 다른 명칭을 가질 수 있다. 이것은 이 출원에서 제한되지 않는다.
예에서는, 인-이어 헤드셋이 예로서 이용된다. 좌측 이어폰을 위하여 이용된 구조는 우측 이어폰을 위하여 이용된 것과 유사하다. 이하에서 설명된 이어폰 구조는 좌측 이어폰 및 우측 이어폰의 둘 모두를 위하여 이용될 수 있다. 이어폰 구조(좌측 이어폰 또는 우측 이어폰)는 외이도 내로 삽입될 수 있는 고무 슬리브(rubber sleeve), 귀에 근접한 이어백(earbag), 및 이어백 상에 걸려 있는 이어폰 로드(earphone rod)를 포함한다. 고무 슬리브는 음을 외이도로 지향한다. 배터리, 스피커, 및 센서와 같은 컴포넌트들이 이어백(earbag) 내에 포함된다. 마이크로폰, 물리적 버튼 등은 이어폰 로드 상에 전개될 수 있다. 이어폰 로드는 원통, 직육면체(cuboid), 타원 등의 형상일 수 있다. 귀 내에 배열된 마이크로폰은 오차 마이크로폰(error microphone)으로서 지칭될 수 있고, 귀 외부에 배열된 마이크로폰은 기준 마이크로폰(reference microphone)으로서 지칭된다. 오차 마이크로폰은 외부 환경에서의 음을 수집하도록 구성된다. 사용자가 이어폰을 착용할 때, 기준 마이크로폰은 헤드셋을 착용하는 사용자의 외이도에서의 주변 음을 수집한다. 2개의 마이크로폰은 아날로그 마이크로폰 또는 디지털 마이크로폰일 수 있다. 사용자가 이어폰을 착용한 후에, 스피커와 2개의 마이크로폰 사이의 배치 관계는 다음과 같다: 오차 마이크로폰은 귀 내에 있고 이어폰 고무에 근접해 있다. 스피커는 오차 마이크로폰과 기준 마이크로폰 사이에 위치되어 있다. 기준 마이크로폰은 귀의 외부 구조에 근접해 있고, 이어폰 로드의 상부 부분 상에 배열될 수 있다. 오차 마이크로폰의 파이프(pipe)는 스피커와 대면할 수 있거나, 외이도의 내부와 대면할 수 있다. 히어 스루를 통해 외부 환경에서의 음을 기준 마이크로폰으로 전송하기 위하여, 기준 마이크로폰 근처에 이어폰 개방부(earphone opening)가 있다.
이 출원의 이 실시예에서, 단말 디바이스(100)는 다운링크 오디오 신호 및/또는 제어 시그널링을 헤드셋(200)으로 송신하도록 구성된다. 예를 들어, 제어 시그널링은 헤드셋(200)을 위하여 이용된 프로세싱 모드를 제어하기 위하여 이용된다. 헤드셋(200)을 위하여 이용된 프로세싱 모드는 다음의 모드: 프로세싱 없음을 수행하도록 지시하는 널 모드(null mode), ANC 기능을 수행하도록 지시하는 ANC 모드, HT 기능을 구현하도록 지시하는 HT 모드, 또는 AH 기능을 수행하도록 지시하는 AH 모드 중의 적어도 2개를 포함할 수 있다.
ANC 모드가 헤드셋을 위하여 이용될 때, 현재의 외부 환경에서의 음에 대한 헤드셋 사용자의 지각 및 헤드셋을 착용하는 사용자의 외이도에서의 주변 음의 지각은 약화될 수 있다. HT 모드가 헤드셋을 위하여 이용될 때, 현재의 외부 환경에서의 음에 대한 사용자 지각은 강화될 수 있다. AH 모드가 헤드셋을 위하여 이용될 때, 현재의 외부 환경에서의 음 내에 포함된 이벤트 음에 대한 사용자의 지각은 강화될 수 있다. 이벤트 음은 외부 환경에서의 사전설정된 음이거나, 이벤트 음은 사전설정된 스펙트럼을 충족시킨다. 예를 들어, 이벤트 음은 역 공지 음(station announcement sound) 또는 철도 역에서의 경적을 포함하고; 이 경우에, 이벤트 음은 역 공지 음 또는 철도 역에서의 경적의 스펙트럼을 충족시킨다. 또 다른 예를 들어, 이벤트 음은 비행기 터미널에서의 통지 음, 비행기 상의 방송 음, 식당에서의 대기행렬 호출 음을 포함할 수 있다. 단말 및 헤드셋의 둘 모두가 이벤트 음을 식별할 수 있다는 것이 이해되어야 한다.
헤드셋(200)은 좌측 이어폰 및 우측 이어폰을 포함하고, 동일한 프로세싱 모드 상이한 프로세싱 모드는 좌측 이어폰 및 우측 이어폰을 위하여 이용될 수 있다는 것이 이해되어야 한다. 동일한 프로세싱 모드가 좌측 이어폰 및 우측 이어폰을 위하여 이용될 때, 사용자가 좌측 이어폰을 착용하는 좌측 귀의 청각적 지각은 사용자가 우측 이어폰을 착용하는 우측 귀의 청각적 지각과 동일할 수 있다. 상이한 프로세싱 모드가 좌측 이어폰 및 우측 이어폰을 위하여 이용될 때, 사용자가 좌측 이어폰을 착용하는 좌측 귀의 청각적 지각은 사용자가 우측 이어폰을 착용하는 우측 귀의 청각적 지각과는 상이하다. 예를 들어, ANC는 좌측 이어폰을 위하여 이용되고, AH는 우측 이어폰을 위하여 이용된다. ANC 모드가 좌측 이어폰을 위하여 이용될 때, 현재의 외부 환경에서의 음에 대한 헤드셋 사용자의 좌측 귀의 지각, 및 헤드셋을 착용하는 사용자의 좌측 외이도에서의 주변 음의 지각은 약화될 수 있다. AH 모드가 우측 이어폰을 위하여 이용될 때, 현재의 외부 환경에서의 음 내에 포함된 이벤트 음에 대한 사용자의 우측 귀의 지각은 강화될 수 있다.
헤드셋의 프로세싱 모드는 다음의 가능한 방식 중의 임의의 하나로 결정될 수 있다.
제1 가능한 방식으로, 단말 디바이스(100)는 사용자가 요건에 기초하여 헤드셋(200)의 프로세싱 모드를 선택하기 위하여 이용된 제어 인터페이스를 제공한다. 예를 들어, 단말 디바이스(100)는 제어 시그널링을 헤드셋(2000으로 송신하도록 사용자 조작에 의해 명령된다. 제어 시그널링은 헤드셋(200)을 위하여 이용된 프로세싱 모드를 지시한다.
헤드셋(200) 내의 좌측 이어폰 및 우측 이어폰을 위하여 이용된 프로세싱 모드는 동일하거나 상이할 수 있다는 것이 주목되어야 한다. 예를 들어, 제어 인터페이스 내의 선택 제어부는 좌측 이어폰 및 우측 이어폰을 위한 동일한 프로세싱 모드를 선택하기 위하여 이용된다. 또 다른 예를 들어, 제어 인터페이스는 2개의 선택 제어부를 포함할 수 있고, 여기서, 하나의 선택 제어부는 좌측 이어폰을 위한 프로세싱 모드를 선택하기 위하여 이용되고, 다른 선택 제어부는 우측 이어폰을 위한 프로세싱 모드를 선택하기 위하여 이용된다. 제어 인터페이스 및 선택 제어는 이하에서 상세하게 설명된다. 세부사항은 본 명세서에서 설명되지 않는다.
제2 가능한 방식으로, 단말 디바이스는 사용자의 현재의 외부 환경의 장면 유형을 식별한다. 상이한 장면에서는, 헤드셋(200)을 위하여 이용된 프로세싱 모드가 상이하고, 즉, 헤드셋에 의해 구현된 프로세싱 기능이 상이하다.
제3 가능한 방식으로, 헤드셋(200)은, 헤드셋(200)을 위하여 이용되고 사용자에 의해 선택되는 ANC 모드, HT 모드, 또는 AH 모드를 결정하기 위하여, 사용자의 조작을 식별한다. 예를 들어, 사용자의 조작은 사용자에 의해 헤드셋을 탭(tap)하는 조작일 수 있거나; 버튼이 헤드셋 상에 배치되고, 상이한 버튼은 상이한 프로세싱 모드를 지시한다.
제4 가능한 방식으로, 헤드셋은 헤드셋의 외부 환경의 장면 유형을 식별하고, 헤드셋을 위하여 이용된 프로세싱 모드는 장면에 따라 변동된다.
제1 가능한 방식 내지 제4 가능한 방식은 추후에 상세하게 설명되고, 세부사항은 본 명세서에서 다시 설명되지 않는다.
도 1은 단말 디바이스(100)의 임의적인 하드웨어 구조의 개략도이다.
단말 디바이스(100)는 프로세서(110), 외부 메모리 인터페이스(120), 내부 메모리(121), 유니버셜 직렬 버스(universal serial bus, USB) 인터페이스(130), 충전 관리 모듈(140), 전력 관리 모듈(141), 배터리(142), 안테나 1, 안테나 2, 모바일 통신 모듈(150), 무선 통신 모듈(160), 오디오 모듈(170), 스피커(170A), 수신기(170B), 마이크로폰(170C), 헤드셋 잭(170D), 센서 모듈(180), 버튼(190), 모터(191), 지시자(192), 카메라(193), 디스플레이(194), 가입자 식별 모듈(subscriber identification module, SIM) 카드 인터페이스(195) 등을 포함할 수 있다. 센서 모듈(180)은 압력 센서(180A), 자이로스코프 센서(gyroscope sensor)(180B), 기압 센서(barometric pressure sensor)(180C), 자기 센서(180D), 가속도 센서(180E), 거리 센서(180F), 광학 근접성 센서(180G), 지문 센서(180H), 온도 센서(180J), 터치 센서(180K), 주변 광 센서(180L), 골 전도 센서(bone conduction sensor)(180M) 등을 포함할 수 있다.
본 발명의 이 실시예에서 도시된 구조는 단말 디바이스(100)에 대한 구체적인 제한을 구성하지 않는다는 것이 이해될 수 있다. 이 출원의 일부 다른 실시예에서, 단말 디바이스(100)는 도면에서 도시된 것보다 더 많거나 더 적은 컴포넌트를 포함할 수 있거나, 일부 컴포넌트를 조합할 수 있거나, 일부 컴포넌트를 분할할 수 있거나, 상이한 컴포넌트 배열을 가질 수 있다. 도면에서 도시된 컴포넌트는 하드웨어, 소프트웨어, 또는 소프트웨어 및 하드웨어의 조합에 의해 구현될 수 있다.
프로세서(110)는 하나 이상의 프로세싱 유닛을 포함할 수 있다. 예를 들어, 프로세서(110)는 애플리케이션 프로세서(application processor, AP), 모뎀 프로세서, 그래픽 프로세싱 유닛(graphics processing unit, GPU), 이미지 신호 프로세서(image signal processor, ISP), 제어기, 비디오 코덱, 디지털 신호 프로세서(digital signal processor, DSP), 기저대역 프로세서, 및/또는 신경망 프로세싱 유닛(neural-network processing unit, NPU)을 포함할 수 있다. 상이한 프로세싱 유닛은 독립적인 컴포넌트일 수 있거나, 하나 이상의 프로세서 내로 통합될 수 있다.
제어기는 명령 판독 및 명령 실행의 제어를 완료하기 위하여, 명령 동작 코드 및 시간 시퀀스 신호에 기초하여 동작 제어 신호를 생성할 수 있다.
메모리는 프로세서(110) 내에 추가로 배치될 수 있고, 명령 및 데이터를 저장하도록 구성된다. 일부 실시예에서, 프로세서(110) 내의 메모리는 캐시 메모리(cache memory)이다. 메모리는 프로세서(110)에 의해 방금 이용되었거나 주기적으로 이용된 명령 또는 데이터를 저장할 수 있다. 프로세서(110)가 명령 또는 데이터를 다시 이용할 필요가 있을 경우에, 프로세서는 메모리로부터 명령 또는 데이터를 직접적으로 호출할 수 있다. 이것은 반복된 액세스를 회피하고, 프로세서(110)의 대기 시간을 감소시키고, 시스템 효율을 개선시킨다.
일부 실시예에서, 프로세서(110)는 하나 이상의 인터페이스를 포함할 수 있다. 인터페이스는 집적 회로간(inter-integrated circuit, I2C) 인터페이스, 집적 회로간 음(inter-integrated circuit sound, I2S) 인터페이스, 펄스 코드 변조(pulse code modulation, PCM) 인터페이스, 유니버셜 비동기식 수신기/전송기(universal asynchronous receiver/transmitter, UART) 인터페이스, 모바일 산업 프로세서 인터페이스(mobile industry processor interface, MIPI), 범용 입력/출력(general-purpose input/output, GPIO) 인터페이스, 가입자 식별 모듈(subscriber identity module, SIM) 인터페이스, 유니버셜 직렬 버스(universal serial bus, USB) 인터페이스, 및/또는 등을 포함할 수 있다.
I2C 인터페이스는 직렬 데이터 라인(serial data line, SDA) 및 직렬 클록 라인(serial clock line, SCL)을 포함하는 양방향 동기식 직렬 버스(two-way synchronous serial bus)이다. 일부 실시예에서, 프로세서(110)는 I2C 버스들의 복수의 그룹을 포함할 수 있다. 프로세서(110)는 상이한 I2C 버스 인터페이스를 통해 터치 센서(180K), 충전기, 플래시(flash), 카메라(193) 등에 별도로 결합될 수 있다. 예를 들어, 프로세서(110)는 I2C 인터페이스를 통해 터치 센서(180K)에 결합될 수 있어서, 프로세서(110)는 단말 디바이스(100)의 터치 기능을 구현하기 위하여 I2C 버스 인터페이스를 통해 터치 센서(180K)와 통신한다.
I2S 인터페이스는 오디오 통신을 위하여 이용될 수 있다. 일부 실시예에서, 프로세서(110)는 I2S 버스들의 복수의 그룹을 포함할 수 있다. 프로세서(110)는 프로세서(110)와 오디오 모듈(170) 사이의 통신을 구현하기 위하여, I2S 버스를 통해 오디오 모듈(170)에 결합될 수 있다. 일부 실시예에서, 오디오 모듈(170)은 헤드셋(200)(예를 들어, 블루투스(Bluetooth) 헤드셋)을 통해 호출에 답신하는 기능을 구현하기 위하여, I2S 인터페이스를 통해 오디오 신호를 무선 통신 모듈(160)로 전송할 수 있다.
PCM 인터페이스는 또한, 오디오 통신을 위하여 이용될 수 있고, 아날로그 신호를 샘플링하고, 양자화하고, 코딩할 수 있다. 일부 실시예에서, 오디오 모듈(170)은 PCM 버스 인터페이스를 통해 무선 통신 모듈(160)에 결합될 수 있다. 일부 실시예에서, 오디오 모듈(170)은 대안적으로, 블루투스 헤드셋(200)을 통해 호출에 답신하는 기능을 구현하기 위하여, PCM 인터페이스를 통해 오디오 신호를 무선 통신 모듈(160)로 전송할 수 있다. I2S 인터페이스 및 PCM 인터페이스의 둘 모두는 오디오 통신을 위하여 이용될 수 있다.
UART 인터페이스는 유니버셜 직렬 데이터 버스(universal serial data bus)이고, 비동기식 통신을 위하여 이용된다. 버스는 양방향 통신 버스일 수 있다. 버스는 직렬 통신과 병렬 통신 사이에서 전송 대상 데이터를 변환한다. 일부 실시예에서, UART 인터페이스는 통상적으로, 프로세서(110)를 무선 통신 모듈(160)에 접속하기 위하여 이용된다. 예를 들어, 프로세서(110)는 블루투스 기능을 구현하기 위하여, UART 인터페이스를 통해 무선 통신 모듈(160) 내의 블루투스 모듈과 통신한다. 일부 실시예에서, 오디오 모듈(170)은 블루투스 헤드셋(200)을 통해 음악을 플레이하는 기능을 구현하기 위하여, UART 인터페이스를 통해 오디오 신호를 무선 통신 모듈(160)로 전송할 수 있다.
MIPI 인터페이스는 프로세서(110)를 주변 컴포넌트, 예를 들어, 디스플레이(194) 또는 카메라(193)에 접속하기 위하여 이용될 수 있다. MIPI 인터페이스는 카메라 직렬 인터페이스(camera serial interface, CSI), 디스플레이 직렬 인터페이스(display serial interface, DSI) 등을 포함한다. 일부 실시예에서, 프로세서(110)는 단말 디바이스(100)의 촬영 기능을 구현하기 위하여, CSI 인터페이스를 통해 카메라(193)와 통신한다. 프로세서(110)는 단말 디바이스(100)의 디스플레이 기능을 구현하기 위하여, DSI 인터페이스를 통해 디스플레이(194)와 통신한다.
GPIO 인터페이스는 소프트웨어에 의해 구성될 수 있다. GPIO 인터페이스는 제어 신호 또는 데이터 신호로서 구성될 수 있다. 일부 실시예에서, GPIO 인터페이스는 프로세서(110)를 카메라(193), 디스플레이(194), 무선 통신 모듈(160), 오디오 모듈(170), 센서 모듈(180) 등에 접속하기 위하여 이용될 수 있다. GPIO 인터페이스는 대안적으로, I2C 인터페이스, I2S 인터페이스, UART 인터페이스, MIPI 인터페이스 등으로서 구성될 수 있다.
USB 인터페이스(130)는 USB 표준 사양을 준수하는 인터페이스이고, 구체적으로, 미니 USB 인터페이스, 마이크로 USB 인터페이스, USB 유형-C 인터페이스 등일 수 있다. USB 인터페이스(130)는 단말 디바이스(100)를 충전하기 위한 충전기에 접속하기 위하여 이용될 수 있거나, 단말 디바이스(100)와 주변 디바이스 사이에서 데이터를 전송하기 위하여 이용될 수 있거나; 헤드셋(200)에 접속하고, 헤드셋(200)을 통해 오디오를 플레이하기 위하여 이용될 수 있다. 인터페이스는 대안적으로, 또 다른 단말 디바이스, 예를 들어, AR 디바이스에 접속하기 위하여 이용될 수 있다.
본 발명의 이 실시예에서의 모듈 사이의 인터페이스 접속 관계는 단지 설명을 위한 예이고, 단말 디바이스(100)의 구조에 대해 제한을 구성하지 않는다는 것이 이해될 수 있다. 이 출원의 일부 다른 실시예에서, 단말 디바이스(100)는 대안적으로, 상기한 실시예에서의 인터페이스 접속 방식과는 상이한 인터페이스 접속 방식을 이용할 수 있거나, 복수의 인터페이스 접속 방식의 조합을 이용할 수 있다.
충전 관리 모듈(140)은 충전기로부터 충전 입력을 수신하도록 구성된다. 충전기는 무선 충전기 또는 유선 충전기일 수 있다. 유선 충전의 일부 실시예에서, 충전 관리 모듈(140)은 USB 인터페이스(130)를 통해 유선 충전기의 충전 입력을 수신할 수 있다. 무선 충전의 일부 실시예에서, 충전 관리 모듈(140)은 단말 디바이스(100)의 무선 충전 코일을 이용함으로써 무선 충전 입력을 수신할 수 있다. 배터리(142)를 충전할 때, 충전 관리 모듈(140)은 전력 관리 모듈(141)을 이용함으로써 전력을 단말 디바이스로 추가로 공급할 수 있다.
전력 관리 모듈(141)은 배터리(142), 충전 관리 모듈(140), 및 프로세서(110)에 접속하도록 구성된다. 전력 관리 모듈(141)은 배터리(142) 및/또는 충전 관리 모듈(140)로부터 입력을 수신하고, 전력을 프로세서(110), 내부 메모리(121), 디스플레이(194), 카메라(193), 무선 통신 모듈(160) 등으로 공급한다. 전력 관리 모듈(141)은 배터리 용량(battery capacity), 배터리 사이클 카운트(battery cycle count), 및 배터리 건전성 스테이터스(battery status of health)(전기 누설 및 임피던스)와 같은 파라미터를 모니터링하도록 추가로 구성될 수 있다. 일부 다른 실시예에서, 전력 관리 모듈(141)은 대안적으로, 프로세서(110) 내에 배치될 수 있다. 일부 다른 실시예에서, 전력 관리 모듈(141) 및 충전 관리 모듈(140)은 대안적으로, 동일한 컴포넌트 내에 배치될 수 있다.
단말 디바이스(100)의 무선 통신 기능은 안테나 1, 안테나 2, 모바일 통신 모듈(150), 무선 통신 모듈(160), 모뎀 프로세서, 기저대역 프로세서 등을 통해 구현될 수 있다.
안테나 1 및 안테나 2는 전자기파 신호(electromagnetic wave signal)를 전송하고 수신하도록 구성된다. 단말 디바이스(100) 내의 각각의 안테나는 하나 이상의 통신 주파수 대역을 포괄(cover)하도록 구성될 수 있다. 상이한 안테나는 안테나 사용을 개선시키기 위하여, 추가로 재이용될 수 있다. 예를 들어, 안테나 1은 무선 로컬 영역 네트워크의 다이버시티 안테나(diversity antenna)로서 재이용될 수 있다. 일부 다른 실시예에서, 안테나는 튜닝 스위치(tuning switch)와 조합하여 이용될 수 있다.
모바일 통신 모듈(150)은, 2G/3G/4G/5G 등을 포함하고 단말 디바이스(100)에 적용되는 무선 통신 해결책을 제공할 수 있다. 모바일 통신 모듈(150)은 적어도 하나의 필터, 스위치, 전력 증폭기, 저잡음 증폭기(low noise amplifier, LNA) 등을 포함할 수 있다. 모바일 통신 모듈(150)은 안테나 1을 통해 전자기파를 수신할 수 있고, 수신된 전자기파에 대해 필터링 또는 증폭과 같은 프로세싱을 수행할 수 있고, 전자기파를 복조를 위해 모뎀 프로세서로 전송할 수 있다. 모바일 통신 모듈(150)은 모뎀 프로세서에 의해 변조된 신호를 추가로 증폭할 수 있고, 신호를 안테나 1을 통한 방사를 위해 전자기파로 변환할 수 있다. 일부 실시예에서, 모바일 통신 모듈(150) 내의 적어도 일부 기능적 모듈은 프로세서(110) 내에 배치될 수 있다. 일부 실시예에서, 모바일 통신 모듈(150)의 적어도 일부 기능적 모듈은 프로세서(110)의 적어도 일부 모듈과 동일한 디바이스 내에 배치될 수 있다.
모뎀 프로세서는 변조기 및 복조기를 포함할 수 있다. 변조기는 송신 대상 저-주파수 기저대역 신호를 중간-고(medium-high) 주파수 신호로 변조하도록 구성된다. 복조기는 수신된 전자기파 신호를 저-주파수 기저대역 신호로 복조하도록 구성된다. 그 다음으로, 복조기는 복조를 통해 획득된 저-주파수 기저대역 신호를 프로세싱을 위해 기저대역 프로세서로 전송한다. 저-주파수 기저대역 신호는 기저대역 프로세서에 의해 프로세싱되고, 그 다음으로 애플리케이션 프로세서로 전송된다. 애플리케이션 프로세서는 (스피커(170A), 수신기(170B) 등으로 제한되지 않는) 오디오 디바이스를 이용함으로써 음 신호를 출력하거나, 디스플레이(194)를 이용함으로써 이미지 또는 비디오를 디스플레이한다. 일부 실시예에서, 모뎀 프로세서는 독립적인 컴포넌트일 수 있다. 일부 다른 실시예에서, 모뎀 프로세서는 프로세서(110)와는 독립적일 수 있고, 모바일 통신 모듈(150) 또는 또 다른 기능적 모듈과 동일한 디바이스 내에 배치된다.
무선 통신 모듈(160)은 단말 디바이스(100)에 적용된 해결책을, 무선 로컬 영역 네트워크(wireless local area network, WLAN)(예를 들어, 무선 충실도(wireless fidelity, Wi-Fi) 네트워크), 블루투스(Bluetooth, BT), 글로벌 내비게이션 위성 시스템(global navigation satellite system, GNSS), 주파수 변조(frequency modulation, FM), 근접장 통신(near field communication, NFC), 적외선(infrared, IR) 기술, 적외선(infrared, IR) 기술 등을 포함하는 무선 통신에 제공할 수 있다. 무선 통신 모듈(160)은 적어도 하나의 통신 프로세싱 모듈을 통합하는 하나 이상의 컴포넌트일 수 있다. 무선 통신 모듈(160)은 안테나 2를 통해 전자기파를 수신하고, 전자기파 신호에 대해 주파수 변조 및 필터링 프로세싱을 수행하고, 프로세싱된 신호를 프로세서(110)로 송신한다. 무선 통신 모듈(160)은 프로세서(110)로부터 송신 대상 신호를 추가로 수신할 수 있고, 신호에 대해 주파수 변조 및 증폭을 수행할 수 있고, 신호를 안테나 2를 통한 방사를 위해 전자기파로 변환할 수 있다. 예를 들어, 무선 통신 모듈(160)은 블루투스 모듈을 포함하고, 단말 디바이스(100)는 블루투스를 통해 헤드셋(200)에 대한 무선 접속을 확립한다. 또 다른 예를 들어, 무선 통신 모듈(160)은 적외선 모듈을 포함하고, 단말 디바이스(100)는 적외선 모듈을 이용함으로써 헤드셋(200)에 대한 무선 접속을 확립할 수 있다.
일부 실시예에서, 단말 디바이스(100)에서는, 안테나 1 및 모바일 통신 모듈(150)이 결합되고, 안테나 2 및 무선 통신 모듈(160)이 결합되어, 단말 디바이스(100)는 무선 통신 기술을 이용함으로써 네트워크 및 또 다른 디바이스와 통신할 수 있다. 무선 통신 기술은 이동 통신을 위한 글로벌 시스템(global system for mobile communications, GSM), 일반 패킷 라디오 서비스(general packet radio service, GPRS), 코드 분할 다중 액세스(code division multiple access, CDMA), 광대역 코드 분할 다중 액세스(wideband code division multiple access, WCDMA), 시간-분할 코드 분할 다중 액세스(time-division code division multiple access, TD-SCDMA), 롱텀 에볼루션(long term evolution, LTE), BT, GNSS, WLAN, NFC, FM, IR 기술 및/또는 등을 포함할 수 있다. GNSS는 글로벌 위치결정 시스템(global positioning system, GPS), 글로벌 내비게이션 위상 시스템(global navigation satellite system, GLONASS), 바이두 내비게이션 위성 시스템(BeiDou navigation satellite system, BDS), 준-제니스 위성 시스템(quasi-zenith satellite system, QZSS), 및/또는 위성 기반 증강 시스템(satellite based augmentation systems, SBAS)을 포함할 수 있다.
단말 디바이스(100)는 GPU, 디스플레이(194), 애플리케이션 프로세서 등을 이용함으로써 디스플레이 기능을 구현한다. GPU는 이미지 프로세싱을 위한 마이크로프로세서이고, 디스플레이(194) 및 애플리케이션 프로세서에 접속된다. GPU는 수학적 및 기하학적 연산을 수행하고 이미지를 렌더링(render)하도록 구성된다. 프로세서(110)는 디스플레이 정보를 생성하거나 변경하기 위하여 프로그램 명령을 실행하는 하나 이상의 GPU를 포함할 수 있다.
디스플레이(194)는 이미지, 비디오 등을 디스플레이하도록 구성된다. 디스플레이(194)는 디스플레이 패널을 포함한다. 디스플레이 패널은 액정 디스플레이(liquid crystal display, LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 능동-매트릭스 유기 발광 다이오드(active-matrix organic light-emitting diode, AMOLED), 플렉시블 발광 다이오드(flexible light-emitting diode, FLED), 미니-LED, 마이크로-LED, 마이크로-OLED, 양자 도트 발광 다이오드(quantum dot light emitting diode, QLED) 등일 수 있다. 일부 실시예에서, 단말 디바이스(100)는 하나 또는 N1 개의 디스플레이(194)를 포함할 수 있고, 여기서, N1은 1 초과인 양의 정수이다.
단말 디바이스(100)는 ISP, 카메라(193), 비디오 코덱(video codec), GPU, 디스플레이(194), 애플리케이션 프로세서 등을 이용함으로써 촬영 기능을 구현할 수 있다.
ISP는 카메라(193)에 의해 피드백된 데이터를 프로세싱하도록 구성된다. 예를 들어, 촬영 동안에, 셔터가 눌러지고, 광은 렌즈를 통해 카메라의 감광성 엘리먼트(photosensitive element)로 투과된다. 광학 신호는 전기 신호로 변환되고, 카메라의 감광성 엘리먼트는 전기 신호를 가시적 이미지로 변환하기 위하여, 전기 신호를 프로세싱을 위해 ISP로 전송한다. ISP는 이미지의 잡음, 밝기, 및 안색(complexion)에 대해 알고리즘 최적화를 추가로 수행할 수 있다. ISP는 촬영 장면의 노출 및 색 온도와 같은 파라미터를 추가로 최적화할 수 있다. 일부 실시예에서, ISP는 카메라(193) 내에 배치될 수 있다.
카메라(193)는 스틸 이미지(still image) 또는 비디오를 캡처하도록 구성된다. 객체의 광학 이미지는 렌즈를 통해 생성되고, 감광성 엘리먼트 상으로 투영된다. 감광성 엘리먼트는 전하 결합 소자(charge coupled device, CCD) 또는 상보형 금속-산화물-반도체(complementary metal-oxide-semiconductor, CMOS) 포토트랜지스터일 수 있다. 광-감지 엘리먼트는 광학 신호를 전기 신호로 변환하고, 그 다음으로, 전기 신호를 디지털 이미지 신호로 변환하기 위하여 전기 신호를 ISP로 전송한다. ISP는 디지털 이미지 신호를 프로세싱을 위해 DSP로 출력한다. DSP는 디지털 이미지 신호를 표준 포맷, 예를 들어, RGB 또는 YUV인 이미지 신호로 변환한다. 일부 실시예에서, 프로세서(110)는 내부 메모리(121) 내의 프로그램 또는 명령에 따라, 카메라(193)가 시작되도록 트리거링할 수 있어서, 카메라(193)는 적어도 하나의 이미지를 캡처하고, 프로그램 또는 명령에 따라 적어도 하나의 이미지에 대해 대응하는 프로세싱을 수행한다. 일부 실시예에서, 단말 디바이스(100)는 하나의 카메라(193) 또는 N2 개의 카메라(193)를 포함할 수 있고, 여기서, N2는 1 초과인 양의 정수이다.
디지털 신호 프로세서는 디지털 신호를 프로세싱하도록 구성되고, 디지털 이미지 신호에 추가적으로, 또 다른 디지털 신호를 프로세싱할 수 있다. 예를 들어, 단말 디바이스(100)가 주파수 빈(frequency bin)을 선택할 때, 디지털 신호 프로세서는 주파수 빈 에너지에 대해 푸리에 변환(Fourier transform)을 수행하도록 구성된다.
비디오 코덱은 디지털 비디오를 압축하거나 압축해제하도록 구성된다. 단말 디바이스(100)는 하나 이상의 비디오 코덱을 지원할 수 있다. 이러한 방식으로, 단말 디바이스(100)는 복수의 코딩 포맷, 예를 들어, 동화상 전문가 그룹(moving picture experts group, MPEG)-1, MPEG-2, MPEG-3, 및 MPEG-4로 비디오를 플레이하거나 레코딩할 수 있다.
NPU는 신경망(neural-network, NN) 프로세싱 유닛이다. NPU는 생물학적 신경망의 구조, 예를 들어, 인간 뇌 신경 사이의 전달 모드를 참조하여 입력 정보를 신속하게 프로세싱하고, 자율-학습을 계속적으로 추가로 수행할 수 있다. NPU는 단말 디바이스(100)의 지능적 인지, 예를 들어, 이미지 인식, 얼굴 인식, 스피치 인식, 및 텍스트 이해와 같은 애플리케이션을 구현할 수 있다.
외부 메모리 인터페이스(120)는 단말 디바이스(100)의 저장 능력을 확장하기 위하여, 외부 메모리 카드, 예를 들어, 마이크로 SD 카드에 접속하기 위하여 이용될 수 있다. 외부 메모리 카드는 데이터 저장 기능을 구현하기 위하여, 외부 메모리 인터페이스(120)를 통해 프로세서(110)와 통신한다. 예를 들어, 음악 및 비디오와 같은 파일은 외부 저장 카드 내에 저장된다.
내부 메모리(121)는 컴퓨터-실행가능 프로그램 코드를 저장하도록 구성될 수 있다. 실행가능 프로그램 코드는 명령을 포함한다. 내부 메모리(121)는 프로그램 저장 에어리어(program storage area) 및 데이터 저장 에어리어(data storage area)를 포함할 수 있다. 프로그램 저장 에어리어는 오퍼레이팅 시스템(operating system), 적어도 하나의 기능에 의해 요구된 애플리케이션(예를 들어, 카메라 애플리케이션) 등을 저장할 수 있다. 데이터 저장 에어리어는 단말 디바이스(100)의 이용 동안에 생성된 (카메라에 의해 캡처된 이미지와 같은) 데이터 등을 저장할 수 있다. 추가적으로, 내부 메모리(121)는 고속 랜덤 액세스 메모리를 포함할 수 있고, 비휘발성 메모리, 예를 들어, 적어도 하나의 자기 디스크 저장 디바이스, 플래시 메모리 디바이스, 또는 유니버셜 플래시 스토리지(universal flash storage, UFS)를 더 포함할 수 있다. 프로세서(110)는 단말 디바이스(100)의 다양한 기능 애플리케이션을 수행하고 데이터를 프로세싱하기 위하여, 내부 메모리(121) 내에 저장된 명령 및/또는 프로세서 내에 배치된 메모리 내에 저장된 명령을 작동시킨다. 내부 메모리(121)는 이 출원의 이 실시예에서 제공된 다운링크 오디오 신호를 추가로 저장할 수 있다. 내부 메모리(121)는 헤드셋(200)을 제어하는 기능을 구현하기 위하여 이용된 코드를 추가로 저장할 수 있다. 내부 메모리(121) 내에 저장되고 헤드셋(200)을 제어하는 기능을 수행하기 위하여 이용되는 코드가 프로세서(110)에 의해 작동될 때, 헤드셋(200)은 대응하는 기능, 예를 들어, ANC 기능, HT 기능, 또는 AH 기능을 구현하도록 제어된다. 확실히, 이 출원의 이 실시예에서 제공되고 헤드셋(200)을 제어하는 기능을 수행하기 위하여 이용되는 코드는 외부 메모리 내에 추가로 저장될 수 있다. 이 경우에, 프로세서(110)는 대응하는 기능을 구현하도록 헤드셋(200)을 제어하기 위하여, 외부 메모리 인터페이스(120)를 통해, 외부 메모리 내에 저장되고 헤드셋(200)을 제어하는 기능을 구현하는 대응하는 데이터를 작동시킬 수 있다.
단말 디바이스(100)는 오디오 모듈(170), 스피커(170A), 수신기(170B), 마이크로폰(170C), 헤드셋 잭(170D), 애플리케이션 프로세서 등을 통해 음악 플레이 또는 레코딩과 같은 오디오 기능을 구현할 수 있다.
오디오 모듈(170)은 디지털 오디오 정보를 출력을 위해 아날로그 오디오 신호로 변환하도록 구성되고, 또한, 아날로그 오디오 입력을 디지털 오디오 신호로 변환하도록 구성된다. 오디오 모듈(170)은 오디오 신호를 인코딩하고 디코딩하도록 추가로 구성될 수 있다. 일부 실시예에서, 오디오 모듈(170)은 프로세서(110) 내에 배치될 수 있거나, 오디오 모듈(170)의 일부 기능적 모듈은 프로세서(110) 내에 배치된다.
"라우드스피커(loudspeaker)"로서 또한 지칭된 스피커(170A)는 오디오 전기 신호를 음 신호로 변환하도록 구성된다. 단말 디바이스(100)는 스피커(170A)를 이용함으로써 핸즈-프리 모드(hands-free mode)에서 음악을 들을 수 있거나 호출에 답신할 수 있다.
"이어피스(earpiece)"로서 또한 지칭된 수신기(170B)는 오디오 전기 신호를 음 신호로 변환하도록 구성된다. 단말 디바이스(100)를 이용함으로써 호출이 답신되거나 음성 정보가 수신될 때, 수신기(170B)는 음성을 듣기 위하여 인간 귀에 근접하게 놓여질 수 있다.
"마이크(mike)" 또는 "마이크(mic)"로서 또한 지칭된 마이크로폰(170C)은 음 신호를 전기 신호로 변환하도록 구성된다. 호출을 행하거나 음성 메시지를 송신할 때, 사용자는 음 신호를 마이크로폰(170C)으로 입력하기 위하여, 사용자의 입을 통해 마이크로폰(170C) 근처에서 음을 생성할 수 있다. 적어도 하나의 마이크로폰(170C)이 단말 디바이스(100) 내에 배치될 수 있다. 일부 다른 실시예에서, 2개의 마이크로폰(170C)은 음 신호를 수집하고 잡음제거 기능을 구현하기 위하여, 단말 디바이스(100) 내에 배치될 수 있다. 일부 다른 실시예에서, 3개, 4개, 또는 더 많은 마이크로폰(170C)은 대안적으로, 음 신호를 수집하고, 잡음제거를 구현하고, 음원을 식별하고, 방향성 레코딩 기능을 구현하는 등을 위하여, 단말 디바이스(100) 내에 배치될 수 있다.
헤드셋 잭(170D)은 유선 헤드셋에 접속하도록 구성된다. 이 출원의 이 실시예에서 제공된 헤드셋(200)이 유선 헤드셋일 때, 단말 디바이스(100)는 헤드셋 잭(170D)을 통해 헤드셋에 접속된다. 헤드셋 잭(170D)은 USB 인터페이스(130), 3.5 mm 개방형 모바일 단말 플랫폼(open mobile terminal platform, OMTP) 표준 인터페이스, 또는 미국의 셀룰러 전기통신 산업 협회(cellular telecommunications industry association of the USA, CTIA) 표준 인터페이스일 수 있다.
압력 센서(180A)는 압력 신호를 감지하도록 구성되고, 압력 신호를 전기 신호로 변환할 수 있다. 일부 실시예에서, 압력 센서(180A)는 디스플레이(194) 상에 배치될 수 있다. 저항성 압력 센서, 유도성 압력 센서, 및 용량성 압력 센서와 같은 복수의 유형의 압력 센서(180A)가 있다. 용량성 압력 센서는 전도성 재료로 이루어진 적어도 2개의 병렬 판을 포함할 수 있다. 힘이 압력 센서(180A)에 인가될 때, 전극 사이의 커패시턴스는 변화한다. 단말 디바이스(100)는 커패시턴스의 변화에 기초하여 압력 세기를 결정한다. 터치 조작이 디스플레이(194) 상에서 수행될 때, 단말 디바이스(100)는 압력 센서(180A)를 이용함으로써 터치 조작의 세기를 검출한다. 단말 디바이스(100)는 또한, 압력 센서(180A)의 검출 신호에 기초하여 터치 위치를 계산할 수 있다. 일부 실시예에서, 동일한 터치 포지션에서 수행되지만 상이한 터치 조작 세기를 가지는 터치 조작은 상이한 조작 명령에 대응할 수 있다. 예를 들어, 제1 압력 임계치 미만인 터치 조작 세기에 의한 터치 조작이 SMS 메시지 애플리케이션 아이콘 상에서 수행될 때, SMS 메시지를 관측하기 위한 명령이 수행되거나; 제1 압력 임계치 이상인 터치 조작 세기에 의한 터치 조작이 SMS 메시지 애플리케이션 아이콘 상에서 수행될 때, 새로운 SMS 메시지를 생성하기 위한 명령이 수행된다.
자이로스코프 센서(180B)는 단말 디바이스(100)의 모션 자세(motion posture)를 결정하도록 구성될 수 있다. 일부 실시예에서, 3개의 축(즉, x, y, 및 z 축) 주위에서의 단말 디바이스(100)의 각속도(angular velocity)는 자이로 센서(gyro sensor)(180B)를 이용함으로써 결정될 수 있다. 자이로 센서(180B)는 촬영 동안에 이미지 안정화(image stabilization)를 구현하도록 구성될 수 있다. 예를 들어, 셔터(shutter)가 눌러질 때, 자이로스코프 센서(180B)는 이미지 안정화를 구현하기 위하여, 단말 디바이스(100)가 지터링(jitter)하는 각도를 검출하고, 각도에 기초하여, 렌즈 모듈이 보상할 필요가 있는 거리를 계산하고, 렌즈가 역 모션(reverse motion)을 통해 단말 디바이스(100)의 지터를 상쇄시키는 것을 허용한다. 자이로 센서(180B)는 또한, 내비게이션 장면(navigation scene) 및 신체 게임 장면(somatic game scene)에서 이용될 수 있다.
기압 센서(180C)는 기압(barometric pressure)을 측정하도록 구성된다. 일부 실시예에서, 단말 디바이스(100)는 위치결정 및 내비게이션을 보조하기 위하여, 기압 센서(180C)에 의해 측정된 기압 값을 이용함으로써 고도(altitude)를 계산한다.
자기 센서(180D)는 홀 센서(Hall sensor)를 포함한다. 단말 디바이스(100)는 자기 센서(180D)를 이용함으로써 플립 커버(flip cover)의 개방 및 폐쇄를 검출할 수 있다. 일부 실시예에서, 단말 디바이스(100)가 플립 폰(flip phone)일 때, 단말 디바이스(100)는 자기 센서(180D)에 기초하여 플립 커버의 개방 및 폐쇄를 검출할 수 있다. 추가로, 플립 커버의 특성, 예를 들어, 자동적 언록킹(automatic unlocking)은 가죽 케이스의 검출된 개방 또는 폐쇄 상태, 또는 플립 커버의 검출된 개방 또는 폐쇄 상태에 기초하여 설정된다.
가속도 센서(180E)는 다양한 방향에서(통상적으로, 3개의 축 상에서) 단말 디바이스(100)의 가속도의 값을 검출할 수 있다. 중력의 규모 및 방향은 단말 디바이스(100)가 정지되어 있을 때에 검출될 수 있다. 가속도 센서(180E)는 단말 디바이스의 자세를 식별하도록 추가로 구성될 수 있고, 풍경 모드(landscape mode)와 인물 모드(portrait mode) 사이의 스위칭과 같은 애플리케이션 또는 보수계(pedometer)를 위하여 이용된다.
거리 센서(180F)는 거리를 측정하도록 구성된다. 단말 디바이스(100)는 적외선 방식 또는 레이저 방식으로 거리를 측정할 수 있다. 일부 실시예에서, 촬영 장면에서는, 단말 디바이스(100)가 신속한 포커싱을 구현하기 위하여, 거리 센서(180F)를 이용함으로써 거리를 측정할 수 있다.
광학 근접성 센서(180G)는 예를 들어, 발광 다이오드(LED : light-emitting diode) 및 광학 검출기, 예를 들어, 포토다이오드(photodiode)를 포함할 수 있다. 발광 다이오드는 적외선 발광 다이오드일 수 있다. 단말 디바이스(100)는 발광 다이오드를 이용함으로써 적외선 광을 외부를 향해 방출한다. 단말 디바이스(100)는 포토다이오드를 이용함으로써 인근 객체로부터 적외선 반사된 광을 검출한다. 충분한 반사된 광이 검출될 때, 단말 디바이스(100)는 단말 디바이스(100) 근처에 객체가 있는 것으로 결정할 수 있다. 불충분한 반사된 광이 검출될 때, 단말 디바이스(100)는 단말 디바이스(100) 근처에 객체가 없는 것으로 결정할 수 있다. 단말 디바이스(100)는 광학 근접성 센서(180G)를 이용함으로써, 사용자가 호출을 행하기 위하여 단말 디바이스(100)를 귀에 근접하게 유지한다는 것을 검출할 수 있어서, 전력 절약을 위하여 스크린-오프(screen-off)를 자동적으로 수행할 수 있다. 광학 근접성 센서(180G)는 또한, 스크린 언록킹 또는 록킹을 자동적으로 수행하기 위하여 스마트 커버 모드(smart cover mode) 또는 포켓 모드(pocket mode)에서 이용될 수 있다.
주변 광 센서(180L)는 주변 광 밝기를 감지하도록 구성된다. 일부 실시예에서, 단말 디바이스(100)는 주변 광 센서(180L)에 의해 감지된 주변 광의 밝기에 기초하여 이미지의 노출 시간을 결정할 수 있다. 일부 실시예에서, 단말 디바이스(100)는 감지된 주변 광의 밝기에 기초하여 디스플레이(194)의 밝기를 적응적으로 조절할 수 있다. 주변 광 센서(180L)는 또한, 촬영 동안에 백색 균형(white balance)을 자동적으로 조절하도록 구성될 수 있다. 주변 광 센서(180L)는 단말 디바이스(100)가 포켓 내에 있는지 여부를 검출하기 위하여 광학 근접성 센서(180G)와 추가로 협력할 수 있어서, 돌발적인 터치를 방지할 수 있다.
지문 센서(180H)는 지문을 수집하도록 구성된다. 단말 디바이스(100)는 지문-기반 언록킹(fingerprint-based unlocking), 애플리케이션 록 액세스(application lock access), 지문-기반 촬영(fingerprint-based photographing), 지문-기반 호출 답신(fingerprint-based call answering) 등을 구현하기 위하여 수집된 지문의 특성을 이용할 수 있다.
온도 센서(180J)는 온도를 검출하도록 구성된다. 일부 실시예에서, 단말 디바이스(100)는 온도 센서(180J)에 의해 검출된 온도를 이용함으로써 온도 프로세싱 정책을 실행한다. 예를 들어, 온도 센서(180J)에 의해 보고된 온도가 임계치를 초과할 때, 단말 디바이스(100)는 전력 소비를 감소시키고 열 보호를 구현하기 위하여, 온도 센서(180J) 근처에 위치된 프로세서의 성능을 감소시킨다. 일부 다른 실시예에서, 온도가 또 다른 임계치보다 낮을 때, 단말 디바이스(100)는 낮은 온도에 의해 야기된 단말 디바이스(100)의 비정상적인 셧다운(shutdown)을 회피하기 위하여 배터리(142)를 가열한다. 일부 다른 실시예에서, 온도가 또 다른 임계치보다 낮을 때, 단말 디바이스(100)는 낮은 온도에 의해 야기된 비정상적인 셧다운을 회피하기 위하여 배터리(142)의 출력 전압을 상승시킨다.
터치 센서(180K)는 또한, "터치 디바이스(touch device)"로서 지칭된다. 터치 센서(180K)는 디스플레이(194) 상에 배치될 수 있고, 터치 센서(180K) 및 디스플레이(194)는 "터치스크린(touchscreen)"으로서 또한 지칭되는 터치스크린을 구성한다. 터치 센서(180K)는 터치 센서 상에 또는 근처에서 수행된 터치 조작을 검출하도록 구성된다. 터치 센서는 터치 이벤트의 유형을 결정하기 위하여 검출된 터치 조작을 애플리케이션 프로세서로 송신할 수 있다. 터치 조작에 관련된 시각적 출력은 디스플레이(194)를 통해 제공될 수 있다. 일부 다른 실시예에서, 터치 센서(180K)는 대안적으로, 디스플레이(194)의 포지션과는 상이한 포지션에서 단말 디바이스(100)의 표면 상에 배치될 수 있다.
골 전도 센서(180M)는 진동 신호를 획득할 수 있다. 일부 실시예에서, 골 전도 센서(180M)는 인간 성대 부분의 진동 골(vibration bone)의 진동 신호를 획득할 수 있다. 골 전도 센서(180M)는 또한, 혈압 박동 신호(blood pressure beating signal)를 수신하기 위하여 신체 맥박(body pulse)과 접촉할 수 있다. 일부 실시예에서, 골 전도 센서(180M)는 또한, 골 전도 헤드셋을 획득하기 위하여 헤드셋 내에 배치될 수 있다. 오디오 모듈(170)은 스피치 기능을 구현하기 위하여, 성대 부분의 진동 골에 대한 것이며 골 전도 센서(180M)에 의해 획득되는 진동 신호에 기초하여 파싱(parsing)을 통해 음성 신호를 획득할 수 있다. 애플리케이션 프로세서는 심박수 검출 기능(heart rate detection function)을 구현하기 위하여, 골 전도 센서(180M)에 의해 획득된 혈압 박동 신호에 기초하여 심박수 정보를 파싱할 수 있다.
버튼(190)은 전원 버튼, 볼륨 버튼 등을 포함한다. 버튼(190)은 기계적 버튼일 수 있거나, 터치 버튼일 수 있다. 단말 디바이스(100)는 버튼 입력을 수신할 수 있고, 단말 디바이스(100)의 사용자 설정 및 기능 제어에 관련된 버튼 신호 입력을 생성할 수 있다.
모터(191)는 진동 프롬프트(vibration prompt)를 생성할 수 있다. 모터(191)는 착신 호출 진동 프롬프트 및 터치 진동 피드백을 제공하도록 구성될 수 있다. 예를 들어, 상이한 애플리케이션(예를 들어, 촬영 및 오디오 플레이) 상에서 수행된 터치 조작은 상이한 진동 피드백 효과에 대응할 수 있다. 모터(191)는 또한, 디스플레이(194)의 상이한 영역 상에서 수행된 터치 조작에 대한 상이한 진동 피드백 효과에 대응할 수 있다. 상이한 애플리케이션 시나리오(예를 들어, 시간 리마인더(time reminder), 정보 수신, 알람 시계(alarm clock), 및 게임)는 또한, 상이한 진동 피드백 효과에 대응할 수 있다. 터치 진동 피드백 효과는 추가로 맞춤화될 수 있다.
지시자(192)는 지시자 광일 수 있고; 충전 스테이터스 및 전력 변화를 지시할 수 있거나, 메시지, 부재중 호출(missed call), 통지 등을 지시할 수 있다.
SIM 카드 인터페이스(195)는 SIM 카드에 접속하도록 구성된다. SIM 카드는 단말 디바이스(100)와의 접촉 또는 단말 디바이스(100)로부터의 분리를 구현하기 위하여, SIM 카드 인터페이스(195) 내로 삽입될 수 있거나 SIM 카드 인터페이스(195)로부터 탈착될 수 있다. 단말 디바이스(100)는 하나 또는 N3 개의 SIM 카드 인터페이스를 지원할 수 있고, 여기서, N3은 1 초과인 양의 정수이다. SIM 카드 인터페이스(195)는 나노-SIM 카드, 마이크로-SIM 카드, SIM 카드 등을 지원할 수 있다. 복수의 카드는 동일한 SIM 카드 인터페이스(195) 내로 동시에 삽입될 수 있다. 복수의 카드는 동일한 유형 또는 상이한 유형일 수 있다. SIM 카드 인터페이스(195)는 상이한 유형의 SIM 카드와 호환가능할 수 있다. SIM 카드 인터페이스(195)는 또한, 외부 저장 카드와 호환가능할 수 있다. 단말 디바이스(100)는 호출 및 데이터 통신과 같은 기능을 구현하기 위하여, SIM 카드를 이용함으로써 네트워크와 상호작용한다. 일부 실시예에서, 단말 디바이스(100)는 eSIM 카드, 즉, 내장된 SIM 카드를 이용한다. eSIM 카드는 단말 디바이스(100) 내로 내장될 수 있고, 단말 디바이스(100)로부터 분리될 수 없다.
단말 디바이스(100)의 소프트웨어 시스템은 계층화된 아키텍처(layered architecture), 이벤트-구동식 아키텍처(event-driven architecture), 마이크로커널 아키텍처(microkernel architecture), 마이크로서비스 아키텍처(microservice architecture), 또는 클라우드 아키텍처(cloud architecture)를 이용할 수 있다. 본 발명의 실시예에서, 계층화된 아키텍처를 갖는 안드로이드 시스템(Android system)은 단말 디바이스(100)의 소프트웨어 구조를 설명하기 위한 예로서 이용된다.
도 2는 본 발명의 이 실시예에 따른 단말 디바이스(100)의 소프트웨어 구조의 블록도이다.
계층화된 아키텍처에서, 소프트웨어는 몇몇 계층으로 분할되고, 각각의 계층은 명확한 역할 및 태스크(task)를 가진다. 계층은 소프트웨어 인터페이스를 통해 서로 통신한다. 일부 실시예에서, 안드로이드 시스템은 상부로부터 하부까지 4개의 계층: 애플리케이션 계층(application layer), 애플리케이션 프레임워크 계층(application framework layer), 안드로이드 실행시간(Android runtime) 및 시스템 라이브러리(system library), 및 커널 계층(kernel layer)으로 분할된다. 애플리케이션 계층은 일련의 애플리케이션 패키지를 포함할 수 있다.
도 2에서 도시된 바와 같이, 애플리케이션 패키지는 카메라, 갤러리, 달력, 전화, 지도, 내비게이션, WLAN, 블루투스, 음악, 비디오, 및 메시지와 같은 애플리케이션을 포함할 수 있다.
애플리케이션 프레임워크 계층은 애플리케이션 프로그래밍 인터페이스(application programming interface, API) 및 프로그래밍 프레임워크를 애플리케이션 계층에서의 애플리케이션으로 제공한다. 애플리케이션 프레임워크 계층은 일부 미리 정의된 기능을 포함한다.
도 2에서 도시된 바와 같이, 애플리케이션 프레임워크 계층은 윈도우 관리자(window manager), 컨텐츠 제공자(content provider), 뷰 시스템, 전화 관리자(phone manager), 자원 관리자(resource manager), 통지 관리자(notification manager) 등을 포함할 수 있다.
윈도우 관리자는 윈도우 프로그램을 관리하도록 구성된다. 윈도우 관리자는 디스플레이의 크기를 획득할 수 있고, 스테이터스 바(status bar)가 있는지 여부를 결정할 수 있고, 스크린 록킹을 수행할 수 있고, 스크린샷을 촬영하는 등을 행할 수 있다.
컨텐츠 제공자는 데이터를 저장하고 획득하고, 데이터가 애플리케이션에 의해 액세스되는 것을 가능하게 하도록 구성된다. 데이터는 행해지고 답신되는 비디오, 이미지, 오디오, 호출, 브라우징 이력 및 북마크(bookmark), 주소록(address book) 등을 포함할 수 있다.
뷰 시스템(view system)은 텍스트를 디스플레이하기 위한 제어부 및 이미지를 디스플레이하기 위한 제어부와 같은 시각적 제어부를 포함한다. 뷰 시스템은 애플리케이션을 구축(construct)하도록 구성될 수 있다. 디스플레이 인터페이스는 하나 이상의 뷰(view)를 포함할 수 있다. 예를 들어, SMS 메시지 통지 아이콘을 포함하는 디스플레이 인터페이스는 텍스트 디스플레이 뷰 및 이미지 디스플레이 뷰를 포함할 수 있다.
전화 관리자는 단말 디바이스(100)의 통신 기능, 예를 들어, (답신, 거절 등을 포함하는) 호출 스테이터스의 관리를 제공하도록 구성된다.
자원 관리자는 국지화된 문자열(localized character string), 아이콘, 이미지, 레이아웃 파일, 및 비디오 파일과 같은 다양한 자원을 애플리케이션으로 제공한다.
통지 관리자는 애플리케이션이 스테이터스 바에서 통지 정보를 디스플레이하는 것을 가능하게 하고, 통지 메시지를 전달하도록 구성될 수 있다. 통지 관리자는 사용자 상호작용을 요구하지 않으면서, 짧은 일시정지 후에 자동적으로 사라질 수 있다. 예를 들어, 통지 관리자는 다운로드 완료를 통지하고, 메시지 통지를 제공하는 등을 위하여 이용된다. 통지 관리자는 대안적으로, 그래프(graph) 또는 스크롤 바 텍스트(scroll bar text)의 형태로 시스템의 상부 스테이터스 바에서 나타나는 통지, 예를 들어, 배경 상에서 작동되는 애플리케이션의 통지일 수 있거나, 다이얼로그 윈도우(dialog window)의 형태로 스크린 상에서 나타나는 통지일 수 있다. 예를 들어, 텍스트 정보는 스테이터스 바에서 디스플레이되거나, 공지가 주어지거나, 단말 디바이스가 진동하거나, 지시자 광이 깜빡인다.
안드로이드 실행시간은 커널 라이브러리(kernel library) 및 가상적 머신(virtual machine)을 포함한다. 안드로이드 실행시간은 안드로이드 시스템을 스케줄링하고 관리하는 것을 담당한다.
커널 라이브러리는 2개의 파트: 자바(java) 언어도 호출될 필요가 있는 기능 및 안드로이드의 커널 라이브러리를 포함한다.
애플리케이션 계층 및 애플리케이션 프레임워크 계층은 가상적 머신 상에서 작동한다. 가상적 머신은 애플리케이션 계층 및 애플리케이션 프레임워크 계층의 자바 파일을 2진 파일(binary file)로서 실행한다. 가상적 머신은 오브젝트 수명사이클 관리(object lifecycle management), 스택 관리(stack management), 스레드 관리(thread management), 보안 및 예외 관리, 및 가비지 수집(garbage collection)과 같은 기능을 구현하기 위하여 이용된다.
시스템 라이브러리는 복수의 기능적 모듈, 예를 들어, 표면 관리자(surface manager), 미디어 라이브러리(Media Libraries), 3 차원 그래픽 프로세싱 라이브러리(예를 들어, OpenGL ES), 및 2D 그래픽 엔진(예를 들어, SGL)을 포함할 수 있다.
표면 관리자는 디스플레이 서브시스템을 관리하고, 2D 및 3D 계층의 융합을 복수의 애플리케이션으로 제공하기 위하여 이용된다.
미디어 라이브러리는 복수의 보편적으로 이용된 오디오 및 비디오 포맷으로의 재생 및 레코딩, 및 정적 이미지 파일을 지원한다. 미디어 라이브러리는 MPEG-4, H.264, MP3, AAC, AMR, JPG, 및 PNG와 같은 복수의 오디오 및 비디오 코딩 포맷을 지원할 수 있다.
3 차원 그래픽 프로세싱 라이브러리는 3 차원 그래픽 드로잉(three-dimensional graphics drawing), 이미지 렌더링(image rendering), 편성(composition), 계층 프로세싱 등을 구현하기 위하여 이용된다.
2D 그래픽 엔진은 2D 드로잉(drawing)을 위한 드로잉 엔진(drawing engine)이다.
커널 계층은 하드웨어와 소프트웨어 사이의 계층이다. 커널 계층은 적어도 디스플레이 구동기, 카메라 구동기, 오디오 구동기, 헤드셋 구동기, 및 센서 구동기를 포함한다.
예를 들어, 다음은 캡처하고 오디오를 플레이하는 시나리오를 참조하여 단말 디바이스(100)의 소프트웨어 및 하드웨어의 작동 프로세스를 설명한다.
터치 센서(180K)가 터치 조작을 수신할 때, 대응하는 하드웨어 인터럽트(hardware interrupt)는 커널 계층으로 송신된다. 커널 계층은 터치 조작을 (터치 조작의 터치 좌표 및 타임스탬프(timestamp)와 같은 정보를 포함하는) 원래의 입력 이벤트로 프로세싱한다. 원래의 입력 이벤트는 커널 계층에서 저장된다. 애플리케이션 프레임워크 계층은 커널 계층으로부터 원래의 입력 이벤트를 획득하고, 입력 이벤트에 대응하는 제어를 식별한다. 예를 들어, 터치 조작은 터치 및 탭 조작이고, 탭 조작에 대응하는 제어는 오디오 애플리케이션 아이콘의 제어이다. 오디오 애플리케이션은 헤드셋 제어 애플리케이션을 시작시키기 위하여 애플리케이션 프레임워크 계층의 인터페이스를 호출하고, 헤드셋 구동기를 시작시키고 오디오 신호를 헤드셋으로 송신하기 위하여 커널 계층을 추가로 호출하고, 오디오 신호는 헤드셋(200)을 이용함으로써 플레이된다.
도 3은 헤드셋(200)의 임의적인 하드웨어 구조의 개략도이다. 헤드셋(200)은 좌측 이어폰 및 우측 이어폰을 포함한다. 좌측 이어폰을 위하여 이용된 구조는 우측 이어폰을 위하여 이용된 것과 유사하다. (좌측 이어폰 및 우측 이어폰으르 포함하는) 이어폰들 각각의 구조는 제1 마이크로폰(301), 제2 마이크로폰(302), 및 제3 마이크로폰(303)을 포함한다. 프로세서(304) 및 스피커(305)는 이어폰 내에 추가로 포함될 수 있다. 이하에서 설명된 이어폰은 좌측 이어폰으로서 해독될 수 있거나, 우측 이어폰으로서 해독될 수 있다는 것이 이해되어야 한다.
제1 마이크로폰(301)은 현재의 외부 환경에서의 음을 수집하도록 구성되고, 제1 마이크로폰(301)은 또한, 기준 마이크로폰으로서 지칭될 수 있다. 사용자가 이어폰을 착용할 때, 제1 마이크로폰(301)은 이어폰 외부에 위치되어 있거나, 제2 마이크로폰(301)은 귀 외부에 위치되어 있다. 사용자가 이어폰을 착용할 때, 제2 마이크로폰(302)은 사용자의 외이도에서의 주변 음을 수집한다. 제2 마이크로폰(302)은 또한, 오차 마이크로폰으로서 지칭될 수 있다. 사용자가 이어폰을 착용할 때, 제2 마이크로폰(302)은 이어폰 내부에 그리고 외이도에 근접하게 위치되어 있다. 제3 마이크로폰(303)은 호출 신호를 수집하도록 구성된다. 제3 마이크로폰(303)은 이어폰 외부에 위치될 수 있다. 사용자가 이어폰을 착용할 때, 제3 마이크로폰(303)은 제1 마이크로폰(301)보다 사용자의 입에 더 근접해 있다.
제1 마이크로폰(301)이 현재의 외부 환경에서의 음을 수집하도록 구성된다는 것은: 헤드셋 사용자가 헤드셋을 착용하는 외부 환경에서의, 예를 들어, 열차 상에서의 음은 헤드셋을 착용하는 사용자의 주변 환경에서의 음이다. 좌측 이어폰 내의 제1 마이크로폰(301)은 좌측 이어폰의 외부 환경에서의 음을 수집한다. 우측 이어폰 내의 제1 마이크로폰(301)은 우측 이어폰의 외부 환경에서의 음을 수집한다.
구별의 용이함을 위하여, 제1 마이크로폰(301)(기준 마이크로폰)에 의해 수집된 신호는 제1 신호로서 지칭되고, 제2 마이크로폰(302)(오차 마이크로폰)에 의해 수집된 신호는 제2 신호로서 지칭된다. 이 출원의 이 실시예에서의 마이크로폰은 아날로그 마이크로폰일 수 있거나 디지털 마이크로폰일 수 있다. 마이크로폰이 아날로그 마이크로폰일 때, 필터링 프로세싱이 마이크로폰에 의해 수집된 신호에 대해 수행되기 전에, 아날로그 신호는 디지털 신호로 변환될 수 있다. 이 출원의 이 실시예에서는, 제1 마이크로폰 및 제2 마이크로폰의 둘 모두가 디지털 마이크로폰인 예를 이용함으로써 설명이 제공된다. 이 경우에, 제1 신호 및 제2 신호의 둘 모두는 디지털 신호이다.
프로세서(304)는 다운링크 오디오 신호 및/또는 (제1 마이크로폰(301), 제2 마이크로폰(302), 및 제3 마이크로폰(303)을 포함하는) 마이크로폰에 의해 수집된 신호에 대해 프로세싱, 예를 들어, ANC 프로세싱, HT 프로세싱, 또는 AH 프로세싱을 수행하도록 구성된다. 예를 들어, 프로세서(304)는 주 제어 유닛 및 잡음제거 프로세싱 유닛을 포함할 수 있다. 주 제어 유닛은 사용자에 의해 이어폰 상에서 조작을 수행하기 위한 제어 커맨드(control command)를 생성하고, 단말 디바이스로부터 제어 커맨드를 수신하는 등을 행하도록 구성된다. 잡음제거 프로세싱 유닛은 제어 커맨드에 따라, 다운링크 오디오 신호 및 (제1 마이크로폰(301), 제2 마이크로폰(302), 및 제3 마이크로폰(303)을 포함하는) 마이크로폰에 의해 수집된 신호에 대해 ANC 프로세싱, HT 프로세싱, 또는 AH 프로세싱을 수행하도록 구성된다.
좌측 이어폰 및 우측 이어폰 각각은 메모리를 더 포함할 수 있고, 메모리는 프로세서(304)에 의해 실행된 프로그램 또는 명령을 저장하도록 구성된다. 프로세서(304)는 메모리 내에 저장된 프로그램 또는 명령에 따라 ANC 프로세싱, HT 프로세싱, 또는 AH 프로세싱을 수행한다. 메모리는 다음: 랜덤 액세스 메모리(random access memory, RAM), 플래시 메모리, 판독-전용 메모리(read-only memory, ROM), 프로그래밍가능 판독-전용 메모리(programmable ROM, PROM), 소거가능 프로그래밍가능 판독-전용 메모리(erasable PROM, EPROM), 전기적 소거가능 프로그래밍가능 판독-전용 메모리(electrically ePROM, EEPROM), 레지스터(register), 하드 디스크, 분리가능 하드 디스크, CD-ROM, 또는 본 기술분야에서 널리 공지된 임의의 다른 형태의 저장 매체 중의 하나 이상을 포함할 수 있다.
예를 들어, 주 제어 유닛은 다음: ARM 프로세싱 칩, 중앙 프로세싱 유닛(central processing unit, CPU), 시스템 온 칩(system on chip, SoC), 디지털 신호 프로세서(digital signal processing, DSP), 또는 마이크로 제어기 유닛(micro controller unit, MCU) 중의 하나 이상에 의해 구현될 수 있다. 잡음제거 프로세싱 유닛은 예를 들어, 코더-디코더(coder-decoder, CODEC) 칩 또는 고-충실도(high-fidelity, HiFi) 칩을 포함할 수 있다. 예를 들어, 잡음제거 프로세싱 유닛은 코덱 칩(codec chip)을 포함한다. 필터, 등화기(Equaliser, EQ), 동적 범위 제어기(Dynamic Range Control, DRC), 제한기(limiter), 이득 조절기(gain), 혼합기(mixer) 등은 코덱에서 확고하게 되고, 신호에 대해 프로세싱, 예를 들어, 필터링, 혼합, 및 이득 조절을 수행하도록 주로 구성된다. 잡음제거 프로세싱 유닛은 DSP를 더 포함할 수 있고, DSP는 장면 검출, 음성 강화, 및 차단 효과 감소와 같은 프로세싱을 수행하도록 구성될 수 있다.
이어폰은 단말 디바이스(100) 내의 무선 통신 모듈(160)을 이용함으로써 단말 디바이스(200)에 대한 통신 접속을 확립하도록 구성된 무선 통신 유닛을 더 포함할 수 있다. 무선 통신 유닛은, 이어폰에 적용되고, (무선 충실도(wireless fidelity, Wi-Fi) 네트워크와 같은) 무선 로컬 영역 네트워크(wireless local area networks, WLAN), 블루투스(Bluetooth, BT), 근접장 통신(near field communication, NFC), 및 적외선 기술(infrared, IR)을 포함하는 무선 통신 해결책을 제공할 수 있다. 무선 통신 유닛은 적어도 하나의 통신 프로세싱 모듈을 통합하는 하나 이상의 컴포넌트일 수 있다. 예를 들어, 무선 통신 모듈(160)은 블루투스일 수 있고, 무선 통신 유닛은 또한, 블루투스이고, 헤드셋(200)은 블루투스를 통해 단말 디바이스(100)에 접속된다.
가능한 예에서, 3개의 상이한 조작 모드에 대하여, 출력은 3개의 상이한 신호 경로: 능동 잡음 제어 출력 경로, 주변 음 히어-스루 출력 경로, 및 증강된 청취 출력 경로를 통해 수행된다. 예를 들어, 상이한 프로세싱 방식은 도 4에서 도시된 바와 같이, 상이한 출력 경로를 위하여 이용된다.
본 기술분야에서의 통상의 기술자는 ANC 기능을 이네이블하는 것은 ANC 기능을 위한 신호 경로가 활성화된 상태에 있고, 이에 대응하여, ANC 경로 상의 각각의 기능적 모듈이 또한, 활성화된 상태에 있다는 것을 의미한다는 것을 이해해야 한다. HT 기능을 이네이블하는 것은 HT 기능을 위한 신호 경로가 활성화된 상태에 있고, 이에 대응하여, HT 경로 상의 각각의 기능적 모듈이 또한, 활성화된 상태에 있다는 것을 의미한다. 유사하게, 이어폰의 ANC 기능 및 HT 기능의 둘 모두가 이네이블된 상태에 있을 때, 그것은 ANC 기능을 위한 신호 경로가 활성화된 상태에 있고, HT 기능을 위한 신호 경로가 또한, 활성화된 상태에 있다는 것을 지시한다. 즉, 이것은 헤드셋의 조작 스테이터스를 지시할 수 있지만, 순간에서의 구체적인 조작 또는 기능 제어의 변화로 제한되지 않는다.
능동 잡음 제어 출력 경로의 능동 잡음 제어 프로세싱은, 기준 마이크로폰에 의해 수집된 제1 신호의 역위상 신호, 및 오차 마이크로폰에 의해 수집된 제2 신호의 역위상 신호를 이용함으로써 잡음 억압(noise suppression)을 수행하는 것을 포함할 수 있지만, 이것으로 제한되지 않는다. 능동 잡음 제어 출력 경로는 제1 신호의 역위상 신호, 및 제2 신호의 역위상 신호를 포함한다. 제1 신호와 제1 신호의 역위상 신호 사이의 위상 차이는 180°인 것이 주목되어야 한다. 스피커는 제1 신호의 역위상 신호, 및 제2 신호의 역위상 신호를 가산함으로써 획득된 신호를 출력한다. 이 경우에, 스피커에 의해 플레이된 현재의 외부 환경에서의 음은 능동 잡음 제어 효과를 달성하기 위하여, 귀에 의해 실제적으로 청취된 외부 환경에서의 음을 상쇄시킨다. 그러므로, ANC 모드가 헤드셋을 위하여 이용될 때, 현재의 환경에서의 음에 대한 헤드셋 사용자의 지각, 및 사용자의 외이도에서의 주변 음의 지각은 약화될 수 있다.
임의적으로, 다운링크 오디오 신호가 있을 때, 필터링 보상은 다운링크 오디오 신호에 대해 수행될 수 있다. 추가적으로, 다운링크 오디오 신호의 영향은 주변 음의 역위상 신호가 획득될 때에 제거될 수 있다.
제1 필터링 프로세싱 및 제3 필터링 프로세싱은 제1 신호의 역위상 신호 및 제2 신호의 역위상 신호가 획득될 때에 수행될 수 있다. 예를 들어, 제1 필터링 프로세싱은 피드포워드(feed forward, FF) 필터링 프로세싱일 수 있고, 피드포워드 필터에 의해 구현될 수 있다. 제3 필터링 프로세싱은 피드백(feed back, FB) 필터링 프로세싱일 수 있고, 피드백 필터에 의해 구현될 수 있다. 도 4를 참조한다. 병렬 프로세싱 아키텍처는 잡음 제어 효과를 강화하기 위하여, FF 필터링 및 FB 필터링을 위하여 이용된다. ANC 프로세싱 절차는 이하에서 상세하게 설명된다. 세부사항은 본 명세서에서 설명되지 않는다.
주변 음 히어-스루 출력 경로 내의 주변 음 히어-스루 프로세싱은, 능동 잡음 제어 기능의 일부를 구현하기 위하여, 오차 마이크로폰에 의해 수집된 제1 신호에 대해 제3 필터링 프로세싱을 수행하는 것; 및 기준 마이크로폰에 의해 수집된 신호에 대해 제2 필터링 프로세싱 및 HT 강화 프로세싱을 수행하는 것을 포함할 수 있지만, 이것으로 제한되지 않는다. 예를 들어, 제2 필터링 프로세싱은 히어-스루(HT) 필터링 프로세싱일 수 있고, 히어-스루 필터에 의해 구현될 수 있다. 스피커에 의해 플레이된 오디오 신호는 제1 신호 및 제2 신호에 기초하여 획득된다. 이러한 방식으로, HT 프로세싱이 수행되지 않을 때에 청취된 외부 환경에서의 음과 비교하면, 오디오 신호가 스피커에 의해 플레이된 후에 이어폰을 이용함으로써 사용자에 의해 청취될 수 있는 외부 환경에서의 음은 더 높은 세기 및 더 양호한 효과를 가진다. 그러므로, HT 모드가 이어폰을 위하여 이용될 때, 사용자가 현재 위치되어 있는 환경에서의 음의 세기에 대한 사용자의 지각은 강화될 수 있다. HT 프로세싱 절차는 이하에서 상세하게 설명된다. 세부사항은 본 명세서에서 설명되지 않는다.
증강된 청취 출력 경로 내의 주변 음 히어-스루 프로세싱은, 오차 마이크로폰에 의해 수집된 신호를 이용함으로써 능동 잡음 제어 기능의 일부를 구현하는 것; 사용자가 위치되어 있는 환경에서의 음 내의 이벤트 음을 강화하기 위하여, 기준 마이크로폰에 의해 수집된 신호에 대해 제1 필터링 프로세싱 및 증강된 청취 프로세싱을 수행하는 것; 및 기준 마이크로폰에 의해 수집된 신호에 대해 제2 필터링 프로세싱을 수행하는 것을 포함할 수 있지만, 이것으로 제한되지 않는다. 스피커의 출력 신호는 제1 신호 내의 이벤트 신호 및 제2 신호의 역위상 신호를 혼합함으로써 획득되는 신호에 기초하여 획득된다. 제2 신호와 제2 신호의 역위상 신호 사이의 위상 차이는 180°인 것이 주목되어야 한다. 스피커는 제2 신호의 역위상 신호, 제1 신호의 역위상 신호, 제1 신호 내의 이벤트 신호를 가산함으로써 획득된 신호를 출력하여, 스피커에 의한 신호 출력은 능동 잡음 제어 효과를 달성하기 위하여, 귀에 의해 실제적으로 청취된 환경에서의 음을 상쇄시킨다. 추가적으로, 스피커는 환경에서의 이벤트 음을 출력하여, 사용자는 환경에서 사용자에 의해 요구된 사전설정된 신호를 명확하게 청취할 수 있다. 그러므로, AH 모드가 이어폰을 위하여 이용될 때, 현재의 외부 환경에서의 음 내에 포함된 이벤트 음에 대한 헤드셋 사용자의 지각은 강화될 수 있다. AH 프로세싱 절차는 이하에서 상세하게 설명된다. 세부사항은 본 명세서에서 설명되지 않는다.
다운링크 오디오 신호, 제1 신호, 및 제2 신호는 신호의 프레임 또는 시간의 주기 내의 신호일 수 있다는 것이 이해되어야 한다. 예를 들어, 다운링크 오디오 신호, 제1 신호, 및 제2 신호의 각각이 신호의 프레임일 때, 다운링크 오디오 신호, 제1 신호, 및 제2 신호는 3개의 신호 스트림에 각각 속하고, 다운링크 오디오 신호의 신호 프레임, 제1 신호의 신호 프레임, 및 제2 신호의 신호 프레임은 동일한 시간 주기 내에 또는 시간 내에 중첩한다. 이 출원의 이 실시예에서, 기능 프로세싱(예를 들어, ANC, HT, 또는 AH)이 수행될 때, 기능 프로세싱은 다운링크 오디오 신호가 위치되어 있는 신호 스트림, 제1 신호가 위치되어 있는 신호 스트림, 및 제2 신호가 위치되어 있는 신호 스트림에 대해 계속적으로 수행된다.
먼저, 다음은 능동 잡음 제어 경로의 프로세싱 절차를 상세하게 설명한다.
도 5a 및 도 5b는 능동 잡음 제어 프로세싱의 개략적인 흐름도이다. 단말 디바이스(100)에 의해 헤드셋(200)으로 송신된 다운링크 오디오 신호는 또한, 다음의 설명에서 제1 오디오 신호로서 지칭될 수 있다. 제1 오디오 신호는 호출 신호, 음악 신호 등일 수 있다. 기준 마이크로폰에 의해 수집된 신호가 제1 신호로서 지칭되고, 오차 마이크로폰에 의해 수집된 신호가 제2 신호로서 지칭되는 예를 이용함으로써 설명이 제공된다. ANC 모드는 헤드셋을 위하여 이용된다.
단말 디바이스(100)에 의해 헤드셋(200)의 좌측 이어폰 및 우측 이어폰으로 송신된 다운링크 오디오 신호는 동일한 신호일 수 있거나 상이한 신호일 수 있다는 것이 주목되어야 한다. 예를 들어, 스테레오 효과(stereo effect)는 단말 디바이스를 위하여 이용되고, 단말 디바이스(100)는 스테레오 효과를 구현하기 위하여, 상이한 다운링크 오디오 신호를 헤드셋(200)으로 송신한다. 확실히, 단말 디바이스는 동일한 다운링크 오디오 신호를 좌측 이어폰 및 우측 이어폰으로 추가로 송신할 수 있고, 스테레오 프로세싱은 스테레오 효과를 달성하기 위하여, 좌측 이어폰 및 우측 이어폰에 대해 수행된다. 좌측 이어폰 또는 우측 이어폰은 사용자의 제어에 기초하여, 도 5a 또는 도 5b에서 도시된 프로세싱을 수행할 수 있다.
S501: 제1 필터링 신호를 획득하기 위하여, 기준 마이크로폰에 의해 수집된 제1 신호에 대해 제1 필터링 프로세싱을 수행함. 도 5b에서, 제1 필터링 신호는 줄여서 신호 A1이다.
S502: 제1 필터링된 신호를 획득하기 위하여, 오차 마이크로폰에 의해 수집된 제2 신호 내에 포함된 제1 오디오 신호를 필터링함. 도 5b에서, 제1 필터링된 신호는 줄여서 신호 A2이다.
S503: 제3 오디오 신호를 획득하기 위하여 제1 필터링 신호 및 제1 필터링된 신호에 대해 혼합 프로세싱을 수행함. 도 5b에서, 제3 오디오 신호는 줄여서 신호 A3이고, 즉, 혼합 프로세싱은 신호 A3을 획득하기 위하여 신호 A1 및 신호 A2에 대해 수행된다.
S504: 제4 오디오 신호를 획득하기 위하여 제3 오디오 신호(신호 A3)에 대해 제3 필터링 프로세싱을 수행함. 도 5b에서, 제4 오디오 신호는 줄여서 신호 A4이다.
S505: 제2 오디오 신호를 획득하기 위하여 제4 오디오 신호 및 제1 오디오 신호에 대해 혼합 프로세싱을 수행함. 스피커는 제2 오디오 신호를 플레이하는 것을 담당한다. 도 5b에서, 제2 오디오 신호는 줄여서 A5이다.
다운링크 오디오 신호가 없을 때, 즉, 단말 디바이스가 제1 오디오 신호를 헤드셋으로 송신하지 않을 때, 그리고 ANC 모드가 헤드셋을 위하여 이용될 때, 스피커에 의한 신호 출력은 혼합 프로세싱을 거치지 않는 제4 오디오 신호인 것이 주목되어야 한다. 이 경우에, S502 뿐만 아니라 S505도 수행될 필요가 없다.
예를 들어, 도 5b에서, 제1 필터링 프로세싱은 FF 필터링 프로세싱이고 FF 필터에 의해 구현되고, 제3 필터링 프로세싱은 FB 필터링 프로세싱이고 FB 필터에 의해 구현된다. 헤드셋(200) 내의 기준 마이크로폰은 제1 신호를 픽업하고, 신호 A1을 획득하기 위하여, 제1 신호를 FF 필터링 프로세싱을 위해 FF 필터로 입력한다. 오차 마이크로폰은 제2 신호를 픽업하고, 제2 신호를 감산기(subtractor)로 입력한다. 다운링크 오디오 신호는 필터링 보상을 거치고, 그 다음으로, 감산기로 또한 입력된다. 감산기는 다운링크 오디오 신호의 영향을 제거하여 신호 A2를 획득하기 위하여, 필터링 보상을 거쳤고 제2 신호 내에 포함되는 다운링크 오디오 신호를 제거한다. 신호 A3은 혼합기를 이용하여 신호 A1 및 신호 A2에 대해 혼합 프로세싱을 수행함으로써 획득된다. 신호 A4는 신호 A4를 획득하기 위한 FB 필터링 프로세싱을 위해 FB 필터로 입력된다. 신호 A5는 신호 A4 및 다운링크 오디오 신호를 혼합함으로써 획득되고, 신호 A5는 플레이를 위해 스피커로 입력된다.
가능한 구현예에서, 양호한 또는 열악한 ANC 효과는 ANC 프로세싱 세기에 의해 결정될 수 있다. ANC 프로세싱 세기는 FF 필터링을 위하여 이용된 FF 필터링 계수 및/또는 FB 필터링을 위하여 이용된 FB 필터링 계수에 종속된다.
어떤 방식으로, FF 필터링 계수는 ANC 모드에서의 디폴트(default) FF 필터링 계수일 수 있다. 또 다른 방식으로, FF 필터링 계수는 ANC 모드가 마지막으로 선택될 때에 이용된 FF 필터링 계수일 수 있다. 또 다른 방식으로, 헤드셋은 식별된 장면에 기초하여, ANC 모드에서 이용된 FF 필터링 계수를 결정한다. 또 다른 방식으로, 사용자는 ANC 모드에서 이용된 FF 필터링 계수를, 단말 디바이스에 의해 제공된 UI 제어부를 이용함으로써 헤드셋에 지시한다. 예를 들어, 사용자는 단말 디바이스에 의해 제공된 UI 제어부를 이용함으로써 ANC 모드에서의 프로세싱 세기를 타깃 프로세싱 세기로서 선택한다. 상이한 프로세싱 세기는 상이한 FF 필터링 계수에 대응한다.
어떤 방식으로, FB 필터링 계수는 ANC 모드에서의 디폴트 FB 필터링 계수일 수 있다. 또 다른 방식으로, FB 필터링 계수는 ANC 모드가 마지막으로 선택될 때에 이용된 FB 필터링 계수일 수 있다. 또 다른 방식으로, 헤드셋은 식별된 장면에 기초하여 이용된 FB 필터링 계수를 결정한다. 또 다른 방식으로, 사용자는 ANC 모드에서 이용된 FF 필터링 계수를, 단말 디바이스에 의해 제공된 UI 제어부를 이용함으로써 헤드셋에 지시한다. 예를 들어, 사용자는 단말 디바이스에 의해 제공된 UI 제어부를 이용함으로써 ANC 모드에서의 프로세싱 세기를 타깃 프로세싱 세기로서 선택한다. 상이한 프로세싱 세기는 상이한 FB 필터링 계수에 대응한다.
ANC 모드에서의 FF 필터링 계수 및 FB 필터링 계수는 상기한 제공된 방식의 임의의 조합으로 획득될 수 있다. 예에서, FF 필터링 계수는 ANC 모드에서의 오류 필터링 계수일 수 있고, 헤드셋은 식별된 장면에 기초하여 이용된 FB 필터링 계수를 결정한다. 또 다른 예에서, FB 필터링 계수는 ANC 모드에서의 디폴트 필터링 계수이고, FF 필터링 계수는 단말 디바이스에 의해 제공된 UI 제어부를 이용함으로써 사용자에 의해 결정된다. 또 다른 예에서, FB 필터링 계수는 ANC 모드에서의 디폴트 필터링 계수이고, 사용자는 단말 디바이스에 의해 제공된 UI 제어부를 이용함으로써 FF 필터링 계수를 헤드셋에 지시하도록 선택한다. ANC 모드에서의 프로세싱 세기의 결정은 구체적인 예를 이용함으로써 이하에서 상세하게 설명된다. 세부사항은 본 명세서에서 설명되지 않는다.
다음으로, 주변 음 히어-스루 경로의 프로세싱 절차가 이하에서 상세하게 설명된다.
도 6a, 도 6b, 및 도 6c는 주변 음 히어-스루 프로세싱의 개략적인 흐름도이다. 예를 들어, 단말 디바이스(100)에 의해 헤드셋(200)으로 송신된 다운링크 오디오 신호는 다음의 설명에서 제1 오디오 신호로서 지칭된다. 제1 오디오 신호는 호출 신호, 음악 신호 등일 수 있다. 기준 마이크로폰에 의해 수집된 신호가 제1 신호로서 지칭되고, 오차 마이크로폰에 의해 수집된 신호가 제2 신호로서 지칭되는 예를 이용함으로써 설명이 제공된다. 헤드셋(200) 내의 좌측 이어폰 또는 우측 이어폰은 사용자의 제어에 기초하여 도 6a, 도 6b, 또는 도 6c에서 도시된 프로세싱을 수행할 수 있다.
S601: 제1 프로세싱된 신호를 획득하기 위하여, 기준 마이크로폰에 의해 수집된 제1 신호에 대해 제1 신호 프로세싱을 수행함. 도 6b 및 도 6c에서, 제1 프로세싱된 신호는 신호 B1로서 지칭된다. 제1 신호 프로세싱은 HT 필터링을 포함한다.
S602: 제5 오디오 신호를 획득하기 위하여 제1 프로세싱된 신호 및 제1 오디오 신호에 대해 혼합 프로세싱을 수행함. 도 6b 및 도 6c에서, 제5 오디오 신호는 신호 B2로서 지칭된다.
즉, 혼합 프로세싱은 신호 B2를 획득하기 위하여 신호 B1 및 다운링크 오디오 신호(즉, 제1 오디오 신호)에 대해 수행된다.
S603: 제2 필터링된 신호를 획득하기 위하여 제2 신호 내에 포함된 제5 오디오 신호를 필터링함. 도 6b 및 도 6c에서, 제2 필터링된 신호는 신호 B3으로서 지칭된다. 즉, 제2 주변 신호 내에 포함된 신호 B2가 필터링되어, 신호 B3이 획득된다.
S604: 제3 필터링된 신호를 획득하기 위하여 제2 필터링된 신호에 대해 FB 필터링을 수행함. 도 6b 및 도 6c에서, 제3 필터링된 신호는 신호 B4로서 지칭된다. 다시 말해서, FB 필터링은 신호 B4를 획득하기 위하여 신호 B3에 대해 수행된다.
S605: 제2 오디오 신호를 획득하기 위하여 제3 필터링된 신호 및 제5 오디오 신호에 대해 혼합 프로세싱을 수행함. 즉, 혼합 프로세싱은 제2 오디오 신호를 획득하기 위하여 신호 B4 및 신호 B2에 대해 수행된다.
예에서, 제1 신호 프로세싱은 제1 프로세싱된 신호를 획득하기 위하여, 기준 마이크로폰에 의해 수집된 제1 신호에 대해 다음의 방식으로 수행될 수 있다:
제2 필터링 신호를 획득하기 위하여 제1 신호에 대해 HT 필터링 프로세싱을 수행하는 것 - 도 6b 및 도 6c에서, 제2 필터링 신호는 신호 B5로서 지칭됨 -; 및 제2 프로세싱된 신호를 획득하기 위하여 제2 필터링 신호에 대해 제2 신호 프로세싱을 수행하는 것 - 제2 신호 프로세싱은 또한, 낮은-레이턴시 알고리즘 프로세싱(low-latency algorithm processing)으로서 지칭될 수 있고, 낮은-레이턴시 알고리즘 프로세싱은 다음: 차단 효과 감소 프로세싱, 잡음 플로어 감소 프로세싱, 바람 잡음 감소 프로세싱, 이득 조절 프로세싱, 또는 주파수 응답 조절 프로세싱 중의 하나 이상을 포함함 -.
가능한 방식으로, HT 필터링 프로세싱은 도 6b에서 도시된 바와 같이, 잡음제거 프로세싱 유닛에 의해 구현될 수 있다. 예를 들어, 헤드셋의 잡음제거 프로세싱 유닛은 코덱을 포함한다. 코덱은 HT 필터, FB 필터, 감산기, 제1 혼합기, 제2 혼합기, 및 필터링 보상 유닛을 포함한다. 예를 들어, 도 6b에서, 잡음제거 프로세싱 유닛은 DSP를 더 포함한다. DSP는 낮은-레이턴시 알고리즘 프로세싱을 수행하도록 구성될 수 있다. 헤드셋(200) 내의 기준 마이크로폰은 제1 신호를 픽업하고, 신호 B5를 획득하기 위하여, 제1 신호를 HT 필터링 프로세싱을 위해 HT 필터로 입력한다. 신호 B5는 DSP로 입력되고, DSP는 신호 B1을 획득하기 위하여 신호 B5에 대해 낮은-레이턴시 알고리즘 프로세싱을 수행한다. 신호 B1은 제1 혼합기로 입력되고, 제1 혼합기는 신호 B2를 획득하기 위하여 다운링크 오디오 신호 및 신호 B1에 대해 혼합 프로세싱을 수행한다. 필터링 보상 유닛에 의해 수행된 필터링 보상 프로세싱을 거치는 신호 B2는 감산기로 입력된다. 감산기는 신호 B3을 획득하기 위하여, 필터링 보상 프로세싱을 거쳤고, 오차 마이크로폰에 의해 픽업된 제2 주변 신호 내에 포함되는 신호 B2를 필터링하도록 구성된다. 신호 B3은 FB 필터로 입력되고, FB 필터는 신호 B4를 획득하기 위하여 신호 B3에 대해 FB 필터링 프로세싱을 수행한다. 신호 B4는 제2 혼합기로 입력된다. 추가적으로, 제2 혼합기를 위한 입력은 신호 B2를 더 포함한다. 제2 혼합기는 제2 오디오 신호를 획득하기 위하여 신호 B2 및 신호 B4에 대해 혼합 프로세싱을 수행하고, 제2 오디오 신호는 플레이를 위해 스피커로 입력된다.
또 다른 가능한 방식으로, HT 필터링 프로세싱은 도 6c에서 도시된 바와 같이, DSP에 의해 구현될 수 있다. DSP는 HT 필터링 프로세싱 및 낮은-레이턴시 알고리즘 프로세싱을 수행하도록 구성될 수 있다. 헤드셋 내의 잡음제거 프로세싱 유닛은 FB 필터, 감산기, 제1 혼합기, 제2 혼합기, 및 필터링 보상 유닛을 포함한다. 헤드셋 내의 기준 마이크로폰은 제1 신호를 픽업하고, 제1 신호를 DSP로 입력한다. DSP는 신호 B1을 획득하기 위하여 제1 신호에 대해 HT 필터링 프로세싱 및 낮은-레이턴시 알고리즘 프로세싱을 수행한다. 신호 B1은 제1 혼합기로 입력되고, 제1 혼합기는 신호 B2를 획득하기 위하여 다운링크 오디오 신호 및 신호 B1에 대해 혼합 프로세싱을 수행한다. 필터링 보상 유닛에 의해 수행된 필터링 보상 프로세싱을 거치는 신호 B2는 감산기로 입력된다. 감산기는 신호 B3을 획득하기 위하여, 오차 마이크로폰에 의해 픽업된 제2 신호 내에 포함된 신호 B2를 필터링하도록 구성된다. 신호 B3은 FB 필터로 입력되고, FB 필터는 신호 B4를 획득하기 위하여 신호 B3에 대해 FB 필터링 프로세싱을 수행한다. 신호 B4는 제2 혼합기로 입력된다. 추가적으로, 제2 혼합기를 위한 입력은 신호 B2를 더 포함한다. 제2 혼합기는 제2 오디오 신호를 획득하기 위하여 신호 B2 및 신호 B4에 대해 혼합 프로세싱을 수행하고, 제2 오디오 신호는 플레이를 위해 스피커로 입력된다.
예에서, 낮은-레이턴시 알고리즘 프로세싱은 차단 효과 감소 프로세싱을 포함한다. 차단 효과 생성 원리는 차단 효과 감소 프로세싱 방법이 설명되기 전에 먼저 설명된다. 헤드셋 착용자의 음성은 2개의 루트(route) 상에서 지각된다: 루트 1 상에서, 음성은 골 전도를 통해 골막(periosteum)으로 전송되고, 그 다음으로 지각되고, 여기서, 신호는 오직 저-주파수 신호를 포함한다. 루트 2 상에서, 음성은 외부 공기로부터 골막으로 지각되고, 여기서, 신호는 저-주파수 신호 및 중간-주파수 및 고-주파수 신호를 포함한다. 저-주파수 신호 및 중간-주파수 및 고-주파수 신호가 추가된 후에, 혼란 상태인 저-주파수 신호가 귀에서 야기되는데, 그 이유는 저-주파수 신호가 과도하게 높은 세기를 가지고, 헤드셋이 착용될 때에 방출될 수 없기 때문이다. 그 결과, 차단 효과가 생성된다.
차단 효과 감소 프로세싱은 HT 필터링 프로세싱을 통해 획득된 신호 B5에 대해 다음의 방식으로 구체적으로 수행될 수 있다.
방식 1에 대해서는, 도 7을 참조한다.
S701: 스피치 고조파 세트로부터, 골-전도된 신호와 정합하는 제1 스피치 고조파 신호를 결정하고, 여기서, 스피치 고조파 세트는 복수의 스피치 고조파 신호를 포함함. 스피치 고조파 세트 내에 포함된 복수의 스피치 고조파 신호는 상이한 주파수에 대응한다. 구체적으로, 골-전도된 신호의 주파수가 결정될 수 있고, 제1 스피치 고조파 신호는 골-전도된 신호의 주파수에 기초하여 스피치 고조파 세트로부터 결정된다. 스피치 고조파 신호는 또한, 스피치 고조파 성분으로서 지칭될 수 있다.
S702: HT 필터링 프로세싱을 통해 획득된 신호 B5로부터 제1 스피치 고조파 신호를 제거함. 예를 들어, 신호 C1을 획득하기 위하여, 제1 스피치 고조파 신호는 HT 필터링 프로세싱을 통해 획득된 신호 B5로부터 제거된다. 골 전도 센서에 의해 수집된 사람의 음성은 일반적으로, 저-주파수 고조파 성분이다. 그러므로, S702에서는, 저-주파수 고조파 성분을 포함하지 않는 신호 C1을 획득하기 위하여, 저-주파수 고조파 성분이 신호 B5로부터 제거된다.
S703: 제1 스피치 고조파 신호가 제거되는 신호 B5 내의 고-주파수 성분을 증폭하고, 즉, 신호 C1의 고-주파수 성분을 증폭함.
골-전도된 신호와 정합하는 제1 스피치 고조파 신호는 스피치 고조파 세트로부터 결정될 수 있다. 다시 말해서, 골 전도 센서는 골-전도된 신호를 검출할 수 있고, 즉, 헤드셋 착용자는 현재 음성을 생성하고 있고, 예를 들어, 말하거나 노래하고 있다. 신호 C1에 기초하여 고-주파수 성분을 개선시킴으로써 획득된 신호는 중간-주파수 및 고-주파수 성분만을 포함하여, 헤드셋 착용자에 의해 청취된 신호는 차단 효과를 가지지 않는다.
스피치 고조파 세트는 헤드셋 내에 사전-저장될 수 있다. 예에서, 스피치 고조파 세트는 오프라인 방식으로 또는 온라인 방식으로 획득될 수 있다.
스피치 고조파 세트가 오프라인 방식으로 획득될 때, 복수의 사람의 골-전도된 신호는 골 전도 센서에 의해 수집될 수 있고, 다음의 프로세싱은 복수의 사람의 골-전도된 신호 중 각각의 사람의 골-전도된 신호에 대해 수행된다: 예를 들어, FFT는 주파수-도메인 신호(frequency-domain signal)를 획득하기 위하여 제1 골-전도된 신호에 대해 수행되고, 주파수-도메인 신호 내의 기본-주파수 신호는 파일럿(pilot)을 이용함으로써 기본 주파수를 구하는 방식으로 결정되고, 골-전도된 신호의 고조파 성분은 기본-주파수 신호에 기초하여 결정되어, 골-전도된 신호의 주파수와 고조파 성분 사이의 맵핑 관계가 획득되고 스피치 고조파 세트가 획득된다. 스피치 고조파 세트는 상이한 주파수와 상이한 고주파 성분 사이의 맵핑 관계를 포함할 수 있다.
스피치 고조파 세트가 온라인 방식으로 획득될 때, 제2 골-전도된 신호는 헤드셋 내의 골 전도 센서를 이용함으로써 특정된 기간 내에 수집될 수 있다. 특정된 기간 내에서, 복수의 사람은 헤드셋을 이용할 수 있거나, 또는 오직 한 사람, 즉, 사용자가 헤드셋을 이용할 수 있다. 다음의 프로세싱은 제2 골-전도된 신호에 대해 수행된다:
FFT는 주파수-도메인 신호를 획득하기 위하여 제2 골-전도된 신호에 대해 수행되고; 주파수-도메인 신호 내의 기본-주파수 신호는 파일럿을 이용함으로써 기본 주파수를 발견하는 방식으로 결정된다. 복수의 사람이 특정된 기간 내에 헤드셋을 이용할 경우에, 특정된 기간 내의 상이한 시간 주기에 각각 대응하는 복수의 기본-주파수가 결정될 수 있다. 골-전도된 신호의 복수의 고조파 성분은 복수의 기본 주파수 신호에 기초하여 결정될 수 있어서, 주파수와 고조파 성분 사이의 맵핑 관계가 획득되고 스피치 고조파 세트가 획득될 수 있다. 스피치 고조파 세트는 상이한 주파수와 상이한 고주파 성분 사이의 맵핑 관계를 포함할 수 있다.
방식 2: 적응적 필터링 프로세싱(adaptive filtering processing)은 신호 B5로부터 저-주파수 성분을 제거하여 신호 C1을 획득하기 위하여, 즉, 신호 B5로부터 헤드셋 착용자의 음성 신호를 제거하기 위하여, HT 필터링 프로세싱을 통해 획득된 신호 B5에 대해 수행될 수 있다. 저-주파수 성분이 제거되는 제3 필터링 신호 내의 고-주파수 성분이 증폭되고, 즉, 신호 C1 내의 고-주파수 성분이 증폭된다. 신호 C1에 기초하여 고-주파수 성분을 개선시킴으로써 획득된 신호는 중간-주파수 및 고-주파수 성분만을 포함하여, 헤드셋 착용자에 의해 청취된 신호는 차단 효과를 가지지 않는다.
가능한 구현예에서, 양호한 또는 열악한 HT 효과는 HT 프로세싱 세기에 의해 결정될 수 있다. HT 프로세싱 세기는 HT 필터링을 위하여 이용된 HT 필터링 계수 및/또는 FB 필터링을 위하여 이용된 FB 필터링 계수에 종속된다.
어떤 방식으로, HT 필터링 계수는 HT 모드에서의 디폴트 HT 필터링 계수일 수 있다. 또 다른 방식으로, HT 필터링 계수는 HT 모드가 마지막으로 선택될 때에 이용된 HT 필터링 계수일 수 있다. 또 다른 방식으로, 헤드셋은 식별된 장면에 기초하여, HT 모드에서 이용된 HT 필터링 계수를 결정한다. 또 다른 방식으로, 사용자는 HT 모드에서 이용된 HT 필터링 계수를, 단말 디바이스에 의해 제공된 UI 제어부를 이용함으로써 헤드셋에 지시한다. 예를 들어, 사용자는 단말 디바이스에 의해 제공된 UI 제어부를 이용함으로써 HT 모드에서의 프로세싱 세기를 타깃 프로세싱 세기로서 선택한다. 상이한 프로세싱 세기는 상이한 HT 필터링 계수에 대응한다. 어떤 방식으로, FB 필터링 계수는 HT 모드에서의 디폴트(default) FB 필터링 계수일 수 있다. 또 다른 방식으로, FB 필터링 계수는 HT 모드가 마지막으로 선택될 때에 이용된 FB 필터링 계수일 수 있다. 또 다른 방식으로, 헤드셋은 식별된 장면에 기초하여 이용된 FB 필터링 계수를 결정한다. 또 다른 방식으로, 사용자는 HT 모드에서 이용된 HT 필터링 계수를, 단말 디바이스에 의해 제공된 UI 제어부를 이용함으로써 헤드셋에 지시한다. 예를 들어, 사용자는 단말 디바이스에 의해 제공된 UI 제어부를 이용함으로써 HT 모드에서의 프로세싱 세기를 타깃 프로세싱 세기로서 선택한다. 상이한 프로세싱 세기는 상이한 FB 필터링 계수에 대응한다.
HT 모드에서의 HT 필터링 계수 및 FB 필터링 계수는 상기한 제공된 방식의 임의의 조합으로 획득될 수 있다.
그 다음으로, 다음은 증강된 청취 경로의 프로세싱 절차를 상세하게 설명한다.
도 8a, 도 8b, 및 도 8c는 증강된 청취 프로세싱의 개략적인 흐름도이다. 예를 들어, 단말 디바이스(100)에 의해 헤드셋(110)으로 송신된 다운링크 오디오 신호는 다음의 설명에서 제1 오디오 신호로서 지칭된다. 제1 오디오 신호는 호출 신호, 음악 신호, 프롬프트 톤(prompt tone) 등일 수 있다. 기준 마이크로폰에 의해 수집된 신호가 제1 신호로서 지칭되고, 오차 마이크로폰에 의해 수집된 신호가 제2 신호로서 지칭되는 예를 이용함으로써 설명이 제공된다. 헤드셋(200) 내의 좌측 이어폰 또는 우측 이어폰은 사용자의 제어에 기초하여 도 8a, 도 8b, 또는 도 8c에서의 프로세싱을 수행할 수 있다.
S801: 제2 필터링 신호(신호 C1)를 획득하기 위하여, 기준 마이크로폰에 의해 수집된 제1 신호에 대해 HT 필터링을 수행함. 도 8b 및 도 8c에서, 제2 필터링 신호는 신호 C1로서 지칭된다.
S802: 필터링 강화된 신호를 획득하기 위하여 제2 필터링 신호(즉, 신호 C1)에 대해 강화 프로세싱을 수행함. 도 8b 및 도 8c에서, 필터링 강화된 신호는 줄여서 신호 C2이다.
S803: 제1 필터링 신호를 획득하기 위하여 제1 신호에 대해 FF 필터링을 수행함. 도 8b 및 도 8c에서, 제1 필터링 신호는 줄여서 신호 C3이다.
S804: 제6 오디오 신호를 획득하기 위하여 필터링 강화된 신호 및 제1 오디오 신호에 대해 혼합 프로세싱을 수행함. 도 8b 및 도 8c에서, 제6 오디오 신호는 줄여서 신호 C4이다. 즉, 단계(S804)에서, 혼합 프로세싱은 신호 C4를 획득하기 위하여 신호 C2 및 다운링크 오디오 신호에 대해 수행된다.
S805: 제4 필터링된 신호를 획득하기 위하여 제2 신호 내에 포함된 제6 오디오 신호에 대해 필터링을 수행함. 도 8b 및 도 8c에서, 제4 필터링된 신호는 줄여서 신호 C5이다. 즉, 단계(S805)에서는, 제2 주변 신호 내에 포함된 신호 C4가 필터링되어, 신호 C5가 획득된다.
예에서, 단계(S805)가 수행될 때, 필터링 보상 프로세싱은 보상된 신호를 획득하기 위하여 신호 C4에 대해 먼저 수행될 수 있고, 그 다음으로, 제2 신호 내에 포함된 보상된 신호가 필터링되어, C5가 획득된다.
S806: 제5 필터링된 신호를 획득하기 위하여 제4 필터링된 신호에 대해 FB 필터링을 수행함.
도 8b 및 도 8c에서, 제4 필터링된 신호는 줄여서 신호 C6이다. 즉, 단계(S806)에서, FB 필터링은 신호 C6을 획득하기 위하여 신호 C5에 대해 수행된다.
S807: 제2 오디오 신호를 획득하기 위하여 제5 필터링된 신호, 제6 오디오 신호, 및 제1 필터링 신호에 대해 혼합 프로세싱을 수행함. 즉, 단계(S806)에서, 혼합 프로세싱은 제2 오디오 신호를 획득하기 위하여 신호 C6, 신호 C4, 및 신호 C3에 대해 수행된다.
가능한 구현예에서, 강화 프로세싱은 필터링 강화된 신호(신호 C2)를 획득하기 위하여 다음의 방식 1 또는 방식 2로 제2 필터링 신호(즉, 신호 C1)에 대해 수행될 수 있다.
방식 1에 대해서는, 도 9를 참조한다.
S901: 제2 필터링 신호(즉, 신호 C1)에 대해 차단 효과 감소 프로세싱을 수행함.
신호 C1에 대해 차단 효과 감소 프로세싱을 수행하는 방식은 신호 B5에 대해 차단 효과 감소 프로세싱을 수행하는 방식과 동일할 수 있다. 세부사항에 대해서는, 장면 2에서의 방식 1 및 방식 2를 참조한다. 세부사항은 본 명세서에서 다시 설명되지 않는다.
그 다음으로, 잡음제거 프로세싱은 차단 효과 감소 프로세싱을 통해 획득된 신호에 대해 수행된다. 잡음제거 프로세싱은 인공 지능(AI) 잡음제거 프로세싱 및/또는 바람 잡음 감소 프로세싱을 포함한다. 도 9는 잡음제거 프로세싱이 AI 잡음제거 프로세싱 및 바람 잡음 감소 프로세싱을 포함하는 예를 도시한다.
S902: 차단 효과 감소 프로세싱을 통해 획득된 신호에 대해 AI 잡음제거 프로세싱을 수행함.
S903: AI 잡음제거 프로세싱을 통해 획득된 신호에 대해 바람 잡음 감소 프로세싱을 수행함.
S904: 바람 잡음 감소 프로세싱을 통해 획득된 신호에 대해 이득 증폭 프로세싱을 수행함.
S905: 필터링 강화된 신호를 획득하기 위하여, 이득 증폭 프로세싱을 통해 획득된 신호에 대해 주파수 응답 조절을 수행함.
S904에서의 바람 잡음 프로세싱을 통해 획득된 신호에 대해 이득 증폭 프로세싱을 수행하는 실현가능한 방식은 바람 잡음 프로세싱을 통해 획득된 신호를 직접적으로 증폭하는 것이다. 신호를 직접적으로 증폭하는 방식으로, 착용자의 음성은 또한, 외부 신호가 증폭되는 동안에 증폭된다. 이 출원의 이 실시예는, 외부 신호만이 증폭되지만, 착용자의 음성 신호는 증폭되지 않는 이득 증폭 프로세싱 방식을 제공한다. 예를 들어, 도 10을 참조한다. 이득 증폭 프로세싱은 다음의 방식으로 잡음제거 프로세싱을 통해 획득된 신호에 대해 수행될 수 있다.
착용자의 음성 신호는 골 전도를 통해 골막으로 전송되고, 음성 신호는 저 주파수에서 집중되고, 골-전도된 신호 D1로서 나타내어진다. 골-전도된 신호 D1은 골 전도 센서에 의해 수집된다.
1: 고조파 확장은 고조파 확장된 신호를 획득하기 위하여 골-전도된 신호 D1에 대해 수행된다. 예를 들어, 고조파 확장된 신호는 D2로서 지칭된다. 예를 들어, 고조파 확장은 고조파 강화 방법을 이용함으로써, 또는 골-전도된 신호 D1의 고조파 파가 상측으로 직접적으로 확산되어 있는 방법을 이용함으로써 수행될 수 있다.
2: 증폭 프로세싱은 잡음제거 프로세싱을 통해 획득된 신호에 대해 제1 이득 계수(이득)를 이용함으로써 수행된다. 설명의 용이함을 위하여, 잡음제거 프로세싱을 통해 획득된 신호는 신호 D3으로서 지칭된다. 증폭 프로세싱은 신호 D4를 획득하기 위하여, 신호 D3에 대해 제1 이득 계수를 이용함으로써 수행된다. 본 명세서에서의 증폭 프로세싱은 신호를 직접적으로 증폭하는 것일 수 있다.
3: 증폭 프로세싱을 통해 획득된 신호 내에 포함된 고조파 확장된 신호는 제1 필터링 계수를 이용함으로써 필터링되어, 신호 D5가 획득된다. 신호 D4 내에 포함된 D2는 제1 필터링 계수를 이용함으로써 적응적 필터링 방식으로 필터링된다. 이 경우에, 신호 D5는 착용자의 음성이 필터링되었던 신호이다. 제1 필터링 계수는 제1 이득 계수에 기초하여 결정된다. 적응적 필터링 세기는, 제1 필터링 계수로서 또한 지칭될 수 있는 제1 이득 계수 이득을 이용함으로써 조절된다. 즉, 제1 이득 계수를 이용함으로써 신호가 증폭되는 dB의 수량은 적응적 필터링을 통해 필터링된 dB의 수량과 동일하여, 착용자의 음성 신호는 균형화될 수 있고, 증폭되거나 감소되지 않는다.
방식 2에 대해서는, 도 11을 참조한다.
S1101: 차단 효과 감소된 신호를 획득하기 위하여, 제2 필터링 신호(즉, 신호 C1)에 대해 차단 효과 감소 프로세싱을 수행함.
신호 C1에 대해 차단 효과 감소 프로세싱을 수행하는 방식은 신호 B5에 대해 차단 효과 감소 프로세싱을 수행하는 방식과 동일할 수 있다. 세부사항에 대해서는, 장면 2에서의 방식 1 및 방식 2를 참조한다. 세부사항은 본 명세서에서 다시 설명되지 않는다.
S1102: 차단 효과 감소된 신호 내의 (줄여서 이벤트 신호일 수 있는) 오디오 이벤트 신호를 획득하기 위하여, 차단 효과 감소된 신호에 대해 오디오 이벤트 검출을 수행함. 오디오 이벤트 신호는 예를 들어, 역 공지 음 또는 경적이다.
S1103: 차단 효과 감소된 신호 내의 오디오 이벤트 신호에 대해 이득 증폭 프로세싱을 수행함.
이득 증폭 프로세싱은 차단 효과 감소된 신호 내의 오디오 이벤트 신호, 예를 들어, 역 공지 음 또는 경적에 대해 수행되어, 헤드셋 착용자는 역 공지 음 또는 경적을 명확하게 청취할 수 있다.
S1104: 필터링 강화된 신호를 획득하기 위하여, 이득 증폭 프로세싱을 통해 획득된 신호에 대해 주파수 응답 조절을 수행함.
방식 2로, 이득 증폭 프로세싱은 잡음제거 프로세싱을 통해 획득된 신호에 대해 이득 증폭 프로세싱을 수행하는 방식과 동일한 방식을 이용함으로써, 차단 효과 감소된 신호 내의 오디오 이벤트 신호에 대해 수행될 수 있다. 세부사항은 본 명세서에서 다시 설명되지 않는다.
가능한 방식으로, 도 8b를 참조한다. 예를 들어, 잡음제거 프로세싱 유닛은 코덱 및 DSP를 포함한다. 헤드셋의 코덱은 HT 필터, FB 필터, FF 필터, 감산기, 제1 혼합기, 제2 혼합기, 및 필터링 보상 유닛을 포함한다. HT 필터링 프로세싱은 코덱에 의해 수행된다. DSP는 강화 프로세싱을 수행하도록 구성될 수 있다. 헤드셋(110) 내의 기준 마이크로폰은 제1 신호를 픽업하고, 신호 C1을 획득하기 위하여, 제1 신호를 HT 필터링 프로세싱을 위해 HT 필터로 입력한다. 신호 C1은 DSP로 입력되고, DSP는 신호 C2를 호기득하기 위하여 신호 C1에 대해 강화 프로세싱을 수행한다. 신호 C2는 제1 혼합기로 입력되고, 제1 혼합기는 신호 C4를 획득하기 위하여 다운링크 오디오 신호 및 신호 C2에 대해 혼합 프로세싱을 수행한다. 필터링 보상 유닛에 의해 수행된 필터링 보상 프로세싱을 거치는 신호 C4는 감산기로 입력된다. 감산기는 신호 C5를 획득하기 위하여, 필터링 보상을 거쳤고, 오차 마이크로폰에 의해 픽업된 제2 주변 신호 내에 포함되는 신호 C4를 필터링하도록 구성된다. 신호 C5는 FB 필터로 입력되고, FB 필터는 신호 C6을 획득하기 위하여 신호 C5에 대해 FB 필터링 프로세싱을 수행한다. 신호 C6은 제2 혼합기로 입력된다. 추가적으로, 제2 혼합기를 위한 입력은 신호 C4 및 신호 C3을 더 포함한다. 제2 혼합기는 제2 오디오 신호를 획득하기 위하여 신호 C3, 신호 C4, 및 신호 C6에 대해 혼합 프로세싱을 수행하고, 제2 오디오 신호는 플레이를 위해 스피커로 입력된다.
또 다른 가능한 방식으로, 도 8c를 참조한다. 예를 들어, 잡음제거 프로세싱 유닛은 코덱 및 DSP를 포함한다. DSP는 HT 필터링 프로세싱 및 강화 프로세싱을 수행하도록 구성될 수 있다. 헤드셋의 코덱은 FB 필터, FF 필터, 감산기, 제1 혼합기, 제2 혼합기, 및 필터링 보상 유닛을 포함한다. 헤드셋(110) 내의 기준 마이크로폰은 제1 신호를 픽업하고, 제1 신호를 DSP로 입력한다. DSP는 신호 C1을 획득하기 위하여 제1 신호에 대해 HT 필터링 프로세싱을 수행한다. DSP는 신호 C2를 획득하기 위하여 신호 C1에 대해 강화 프로세싱을 수행한다. 신호 C2는 제1 혼합기로 입력되고, 제1 혼합기는 신호 C4를 획득하기 위하여 다운링크 오디오 신호 및 신호 C2에 대해 혼합 프로세싱을 수행한다. 필터링 보상 유닛에 의해 수행된 필터링 보상 프로세싱을 거치는 신호 C4는 감산기로 입력된다. 감산기는 신호 C5를 획득하기 위하여, 필터링 보상을 거쳤고, 오차 마이크로폰에 의해 픽업된 제2 주변 신호 내에 포함되는 신호 C4를 필터링하도록 구성된다. 신호 C5는 FB 필터로 입력되고, FB 필터는 신호 C6을 획득하기 위하여 신호 C5에 대해 FB 필터링 프로세싱을 수행한다. 신호 C6은 제2 혼합기로 입력된다. 추가적으로, 제2 혼합기를 위한 입력은 신호 C4 및 신호 C3을 더 포함한다. 제2 혼합기는 제2 오디오 신호를 획득하기 위하여 신호 C3, 신호 C4, 및 신호 C6에 대해 혼합 프로세싱을 수행하고, 제2 오디오 신호는 플레이를 위해 스피커로 입력된다.
가능한 구현예에서, 양호한 또는 열악한 AH 효과는 AH 프로세싱 세기에 의해 결정될 수 있다. AH 프로세싱 세기는 다음의 계수: HT 필터링 계수, FB 필터링 계수, 또는 FF 필터링 계수 중의 적어도 하나에 종속된다.
어떤 방식으로, FF 필터링 계수는 AH 모드에서의 디폴트 FF 필터링 계수일 수 있다. 또 다른 방식으로, FF 필터링 계수는 AH 모드가 마지막으로 선택될 때에 이용된 FF 필터링 계수일 수 있다. 또 다른 방식으로, 헤드셋은 식별된 장면에 기초하여, AH 모드에서 이용된 FF 필터링 계수를 결정한다. 또 다른 방식으로, 사용자는 AH 모드에서 이용된 FF 필터링 계수를, 단말 디바이스에 의해 제공된 UI 제어부를 이용함으로써 헤드셋에 지시한다. 예를 들어, 사용자는 단말 디바이스에 의해 제공된 UI 제어부를 이용함으로써 AH 모드에서의 프로세싱 세기를 타깃 프로세싱 세기로서 선택한다. 상이한 프로세싱 세기는 상이한 FF 필터링 계수에 대응한다. 어떤 방식으로, HT 필터링 계수는 AH 모드에서의 디폴트 HT 필터링 계수일 수 있다. 또 다른 방식으로, HT 필터링 계수는 AH 모드가 마지막으로 선택될 때에 이용된 HT 필터링 계수일 수 있다. 또 다른 방식으로, 헤드셋은 식별된 장면에 기초하여, AH 모드에서 이용된 HT 필터링 계수를 결정한다. 또 다른 방식으로, 사용자는 AH 모드에서 이용된 HT 필터링 계수를, 단말 디바이스에 의해 제공된 UI 제어부를 이용함으로써 헤드셋에 지시한다. 예를 들어, 사용자는 단말 디바이스에 의해 제공된 UI 제어부를 이용함으로써 AH 모드에서의 프로세싱 세기를 타깃 프로세싱 세기로서 선택한다. 상이한 프로세싱 세기는 상이한 HT 필터링 계수에 대응한다. 어떤 방식으로, FB 필터링 계수는 AH 모드에서의 디폴트 FB 필터링 계수일 수 있다. 또 다른 방식으로, FB 필터링 계수는 AH 모드가 마지막으로 선택될 때에 이용된 FB 필터링 계수일 수 있다. 또 다른 방식으로, 헤드셋은 식별된 장면에 기초하여 이용된 FB 필터링 계수를 결정한다. 또 다른 방식으로, 사용자는 AH 모드에서 이용된 HT 필터링 계수를, 단말 디바이스에 의해 제공된 UI 제어부를 이용함으로써 헤드셋에 지시한다. 예를 들어, 사용자는 단말 디바이스에 의해 제공된 UI 제어부를 이용함으로써 AH 모드에서의 프로세싱 세기를 타깃 프로세싱 세기로서 선택한다. 상이한 프로세싱 세기는 상이한 FB 필터링 계수에 대응한다.
AH 모드에서의 HT 필터링 계수, FB 필터링 계수, 또는 FF 필터링 계수는 상기한 제공된 방식의 임의의 조합으로 획득될 수 있다.
(좌측 이어폰 및 우측 이어폰을 포함하는) 헤드셋(200)에 의해 이용된 프로세싱 모드는 단말 디바이스(100) 상의 UI 제어부를 이용함으로써 사용자에 의해 결정될 수 있고 헤드셋에 지시될 수 있거나, 적응적으로 식별된 장면에 기초하여 단말 디바이스에 의해 결정될 수 있고 헤드셋에 지시될 수 있거나, 적응적으로 식별된 장면에 기초하여 헤드셋에 의해 결정될 수 있다.
다음은 예를 이용함으로써 헤드셋의 프로세싱 모드를 결정하는 방식을 설명한다.
예 1: 단일 제어부는 좌측 이어폰 및 우측 이어폰을 제어한다.
단말 디바이스(100)는 사용자가 요건에 기초하여 (좌측 이어폰 및 우측 이어폰을 포함하는) 헤드셋(200)의 프로세싱 모드: 널 모드, ANC 모드, HT 모드, 또는 AH 모드를 선택하기 위하여 이용된 제어 인터페이스를 제공한다. 프로세싱이 널 모드에서는 수행되지 않는다. 제어 인터페이스 내에 있고 사용자가 선택하기 위하여 이용가능한 헤드셋의 모든 프로세싱 모드는 헤드셋에 의해 지원된 프로세싱 모드인 것이 이해되어야 한다. 예 1에서, 좌측 이어폰 및 우측 이어폰은 동일한 프로세싱 기능을 가지거나, 동일한 프로세싱 모드를 지원한다. 예를 들어, 좌측 이어폰은 AHA를 지원하고, 우측 이어폰은 또한, AHA를 지원한다. 예를 들어, 헤드셋(200)에 적응된 헤드셋 애플리케이션은 단말 디바이스 상에 설치되고, 헤드셋의 프로세싱 기능은 적응 프로세스에서 학습될 수 있다. 또 다른 예를 들어, 헤드셋(200)이 단말 디바이스에 대한 접속을 확립하는 통신 프로세스에서, 기능 파라미터는 단말 디바이스로 전송되어, 단말 디바이스는 기능 파라미터에 기초하여 헤드셋의 프로세싱 기능을 결정할 수 있다.
예를 들어, 사용자는 ANC 모드를 선택한다. 제어 인터페이스는 사용자 인터페이스(user interface, UI) 제어부를 포함한다. UI 제어부는 헤드셋(200)의 프로세싱 모드를 선택하기 위하여 사용자에 의해 이용된다. 차별화의 용이함을 위하여, 헤드셋의 프로세싱 모드를 선택하기 위하여 사용자에 의해 이용된 UI 제어부는 선택 제어부로서 지칭된다. 프로세싱 모드는 다음의 모드: ANC 모드, HT 모드, 또는 AH 모드 중의 적어도 2개를 포함한다. 단말 디바이스(100)는 사용자가 선택 제어부를 이용함으로써, 헤드셋에 의해 지원된 프로세싱 모드로부터 타깃 모드를 선택하는 것에 응답하여, 제어 시그널링 1을 좌측 이어폰 및 우측 이어폰으로 별도로 송신한다. 제어 시그널링 1은 타깃 모드를 운반한다. 선택 제어부는 또한, 타깃 모드에서의 프로세싱 세기를 선택하기 위하여 이용될 수 있다. 선택 제어부는 링 형상 또는 바 형상 등일 수 있다. 선택 제어부는 제1 제어부 및 제2 제어부를 포함할 수 있다. 제1 제어부 상의 제2 제어부의 임의의 2개의 상이한 포지션은 헤드셋의 상이한 프로세싱 모드에 대응하거나, 제1 제어부 상의 제2 제어부의 임의의 2개의 상이한 포지션은 동일한 프로세싱 모드에서의 헤드셋의 상이한 프로세싱 세기에 대응한다. 사용자는 상이한 프로세싱 모드를 선택하고 프로세싱 세기를 제어하기 위하여, 디스플레이의 제1 제어부 상의 제2 제어부에 대한 것이며 사용자 선택을 나타내는 포지션을 이동시킨다.
가능한 구현예에서, 헤드셋 애플리케이션(application, APP)은 좌측 이어폰 및 우측 이어폰의 프로세싱 모드를 제어하기 위하여 이용된다.
단말 디바이스(100)는 줄여서 헤드셋 애플리케이션인, 헤드셋을 제어하도록 구성된 헤드셋 제어 애플리케이션을 포함한다. 예를 들어, 도 12a에서 도시된 단말 디바이스의 홈 스크린을 참조한다. 헤드셋이 단말 디바이스에 접속된 후에, 사용자가 홈 스크린 상에서 헤드셋 애플리케이션(application, APP)의 아이콘(001)을 탭할 때, 단말 디바이스는 사용자에 의해 아이콘(001)을 탭하는 조작에 응답하여 헤드셋 애플리케이션을 시작시킬 수 있고, 디스플레이 상에 헤드셋 애플리케이션의 제어 인터페이스를 디스플레이할 수 있거나; 헤드셋 애플리케이션의 제어 인터페이스는 헤드셋 애플리케이션이 시작될 때에 팝업된다. 애플리케이션의 명칭은 오디오 어시스턴트(audio assistant)로서 지칭될 수 있고, 제어 기능은 또한, 단말 시스템 내의 설정 옵션 내로 통합될 수 있다.
예를 들어, 선택 제어부는 도 12b에서 도시된 바와 같이, 링 형상이다. 도 12b에서, 예를 들어, 좌측 이어폰 및 우측 이어폰의 둘 모두는 ANC 모드, HT 모드, 및 AH 모드를 지원한다. 도 12b에서의 링-형상 선택 제어부 내의 제1 제어부는 ANC 모드, HT 모드, 및 AH 모드에 각각 대응하는 3개의 아크 세그먼트를 포함한다. 제2 제어부가 ANC 모드에서의 아크 세그먼트 내에 위치되어 있을 경우에, 제2 제어부가 ANC 모드에 있는 것으로 결정된다. ANC 모드에서의 아크 세그먼트 내의 제2 제어부의 상이한 포지션은 ANC 모드에서의 상이한 프로세싱 세기에 대응한다. 제2 제어부가 HT 모드에서의 아크 세그먼트 내에 위치되어 있을 경우에, 제2 제어부가 HT 모드에 있는 것으로 결정된다. HT 모드에서의 아크 세그먼트 내의 제2 제어부의 상이한 포지션은 HT 모드에서의 상이한 프로세싱 세기에 대응한다. 제2 제어부가 AH 모드에서의 아크 세그먼트 내에 위치되어 있을 경우에, 제2 제어부가 AH 모드에 있는 것으로 결정된다. AH 모드에서의 아크 세그먼트 내의 제2 제어부의 상이한 포지션은 AH 모드에서의 상이한 프로세싱 세기에 대응한다. 임의적인 설정에서, 가장 큰 ANC 세기를 갖는 포지션은 가장 작은 HT 세기를 갖는 포지션에 인접하고, 청각적 지각은 평활하게(smoothly) 전이될 수 있다. 가장 큰 HT 세기를 갖는 포지션은 가장 작은 AH를 갖는 포지션에 인접하고, 청각적 지각은 또한, 평활하게 전이될 수 있다.
링(또는 원주) 상의 강조표시된 흑색 도트는 프로세싱 세기를 선택하기 위하여 사용자에 의해 이용된 제2 제어부를 나타낸다. 사용자는 상이한 프로세싱 모드를 선택하고 프로세싱 세기를 제어하기 위하여, 원주 상의 흑색 도트의 포지션을 이동시킬 수 있다. 단말 디바이스(100)(예를 들어, 프로세서)는 제어 인터페이스에서 사용자에 의해 수행된 조작 1에 대해 응답한다. 예를 들어, 조작 1은 사용자가, 디스플레이의 제2 제어부 상의 제2 제어부에 대한 것이며 사용자 선택을 나타내는 포지션을 이동시킬 때에 생성된다. 단말 디바이스(100)는 제어 명령 1을 좌측 이어폰 및 우측 이어폰으로 별도로 송신하고, 여기서, 제어 명령 1은 타깃 모드 및 타깃 프로세싱 세기를 지시한다. 도 12b에서, 타깃 모드는 ANC 모드이다.
예에서, 제어 명령 1은 ANC 식별자, 및 ANC 프로세싱이 수행될 때에 이용된 타깃 프로세싱 세기를 지시하는 파라미터 값을 포함할 수 있다. ANC 모드에서, 상이한 프로세싱 세기(즉, 상이한 프로세싱 세기 값)는 상이한 FB 필터링 계수 및/또는 상이한 FF 필터링 계수에 대응한다.
또 다른 예에서, 제어 명령 1은 라디안(radian)을 포함한다. 대응하는 프로세싱 모드는 라디안의 범위에 기초하여 결정될 수 있다. 상이한 라디안 값은 프로세싱 모드에서의 프로세싱 세기에 대응한다. 도 12b를 참조한다. (0, 180]에 대응하는 프로세싱 모드는 ANC 모드이고, (180, 270]에 대응하는 프로세싱 모드는 HT 모드이고, (270, 360]에 대응하는 프로세싱 모드는 AH 모드이다. 좌측 이어폰 및 우측 이어폰은 라디안의 범위와 프로세싱 모드 사이의 맵핑 관계, 및 라디안 값과 필터링 계수 사이의 맵핑 관계를 포함할 수 있다. 예를 들어, ANC 모드에서, 상이한 라디안 값은 상이한 FB 필터링 계수 및 상이한 FF 필터링 계수에 대응한다.
예를 들어, 도 12b에서, 사용자는 0 도(degree)로부터 360 도까지 시계 방향으로 이동하도록 링 상의 흑색 도트를 터치하여 제어할 수 있고, 0 도에 대응하는 FF 필터링 계수 및 FB 필터링 계수는 가장 강한 ANC 효과, 즉, 사용자가 현재 위치되어 있는 환경에서의 더 약한 음, 및 사용자에 의해 지각되는 사용자의 외이도에서의 더 약한 주변 음을 만든다. FF 필터링 계수 및 FB 필터링 계수는 능동 잡음 제어 효과를 점진적으로 약화하기 위하여, 이동 후에 변화한다. 흑색 도트가 180 도로 이동될 때, 능동 잡음 제어 효과가 가장 약하고, 이것은 헤드셋이 착용될 때에 잡음제거 프로세싱이 수행되지 않는 것과 유사하다. 180 도로부터 270 도까지의 영역은 주변 음 히어-스루 제어 파트이다. 사용자는 180 도로부터 270 도까지 시계 방향으로 이동하도록 링 상의 흑색 도트를 터치하여 제어한다. 180 도에 대응하는 HT 필터링 계수 및 FB 필터링 계수는 가장 약한 주변 음 히어-스루 효과, 즉, 사용자에 의해 지각되며, 사용자가 현재 위치되어 있는 환경 내에 있는 음의 더 작은 세기를 만든다. 이것은 널 모드가 헤드셋이 착용된 후에 이용되는 것과 유사하다. HT 필터링 계수 및 FB 필터링 계수는 시계 방향 이동 후에 변화하여, 주변 음 히어-스루 효과가 더 강해진다. 270 도로부터 360 도까지의 영역은 증강된 청취를 제어하기 위하여 이용된다. 즉, 사용자는 링 상의 흑색 도트를 터치하여 제어한다. 180 도에 대응하는 FF 필터링 계수, HT 필터링 계수, 및 FB 필터링 계수는 가장 약한 증강된 청취 효과, 즉, 사용자에 의해 지각되며, 사용자가 현재 위치되어 있는 환경 내에 있는 음 내에 포함된 더 약한 이벤트 음을 만든다. FF 필터링 계수, HT 필터링 계수, 및 FB 필터링 계수는 시계 방향 이동 후에 변화하여, 증강된 청취 효과가 더 강해지고, 즉, 사용자가 청취하기를 예상하는 이벤트 신호는 청취를 보조하기 위하여 더 강해진다.
예를 들어, 단말 디바이스(100)는 블루투스를 통해 좌측 이어폰 및 우측 이어폰에 접속된다.
예를 들어, ANC 모드가 예로서 이용된다. 도 12c를 참조한다. 단말 디바이스(100)는 사용자의 조작 1에 응답하여, 블루투스를 통해 제어 명령 1을 좌측 이어폰 및 우측 이어폰으로 별도로 송신한다. 제어 명령 1은 ANC 식별자, 및 타깃 프로세싱 세기에 대한 파라미터 값을 포함할 수 있다. 유사한 조작은 제어 명령이 1이 수신된 후에 좌측 이어폰 및 우측 이어폰에 의해 수행되고, 좌측 이어폰의 프로세싱은 다음의 설명에서 예로서 이용된다. 제어 명령 1을 수신한 후에, 좌측 이어폰의 주 제어 유닛은 계수 라이브러리(coefficient library)로부터, ANC 식별자 및 타깃 프로세싱 세기에 기초하여, ANC 프로세싱을 위한 것인 FF 필터링 계수 및 FB 필터링 계수를 획득한다.
예를 들어, 계수 라이브러리는 표 1에서 도시된 맵핑 관계를 포함한다. 표 1은 단지 예이고, 맵핑 관계에 대한 구체적인 제한을 구성한다. 예를 들어, 타깃 프로세싱 세기에 대한 파라미터 값은 세기 1이다. 이 경우에, 좌측 이어폰의 주 제어 유닛은 표 1에 따라, 세기 1에 대응하는 FF 필터링 계수가 계수 FF1이고, FB 필터링 계수가 계수 FB1인 것을 학습한다. 주 제어 유닛은 신호 A1을 획득하기 위하여, 계수 FF1을 이용함으로써, 기준 마이크로폰에 의해 수집된 제1 신호에 대해 FF 필터링 프로세싱을 수행하도록 FF 필터를 제어한다. 주 제어 유닛은 제2 오디오 신호를 획득하기 위하여, 계수 FB1을 이용함으로써, 신호 A3에 대해 FB 필터링 프로세싱을 수행하도록 FB 필터를 제어한다. 구체적으로, 주 제어 유닛은 계수 FF1 및 계수 FB1을 AHA 코어 내로 기입하여, AHA 코어는 제2 오디오 신호를 획득하기 위하여 S501 내지 S504의 단계를 수행한다.
[표 1]
Figure pct00001
예를 들어, HT 모드가 이용된다. 도 12d를 참조한다. 단말 디바이스(100)는 사용자의 조작 1에 응답하여, 블루투스를 통해 제어 명령 1을 좌측 이어폰 및 우측 이어폰으로 별도로 송신한다. 제어 명령 1은 HT 식별자 및 타깃 프로세싱 세기를 포함할 수 있고, 타깃 프로세싱 세기는 HT 프로세싱이 수행될 때에 이용된 프로세싱 세기를 지시한다. 유사한 조작은 제어 명령이 1이 수신된 후에 좌측 이어폰 및 우측 이어폰에 의해 수행되고, 좌측 이어폰의 프로세싱은 다음의 설명에서 예로서 이용된다. 제어 명령 1을 수신한 후에, 좌측 이어폰의 주 제어 유닛은 계수 라이브러리(coefficient library)로부터, HT 식별자 및 타깃 프로세싱 세기에 기초하여, HT 프로세싱을 위한 것인 HT 필터링 계수 및/또는 FB 필터링 계수를 획득한다.
표 1은 예로서 이용된다. 타깃 프로세싱 세기의 값은 세기 5이다. 이 경우에, 좌측 이어폰의 주 제어 유닛은 표 1에 따라, 세기 5에 대응하는 HT 필터링 계수가 계수 HT1이고, FB 필터링 계수가 계수 FB5인 것을 학습한다. 주 제어 유닛은 계수 HT1을 이용함으로써, 기준 마이크로폰에 의해 수집된 제1 신호에 대해 HT 필터링 프로세싱을 수행하도록 HT 필터를 제어한다. 주 제어 유닛은 계수 FB5를 이용함으로써 신호 B3에 대해 FB 필터링 프로세싱을 수행하도록 FB 필터를 제어한다. 구체적으로, 주 제어 유닛은 계수 HT1 및 계수 FB5를 AHA 코어 내로 기입하여, AHA 코어는 제2 오디오 신호를 획득하기 위하여 S601 내지 S605의 단계를 수행한다.
예를 들어, AH 모드가 예로서 이용된다. 도 12e를 참조한다. 단말 디바이스(100)는 사용자의 조작 1에 응답하여, 블루투스를 통해 제어 명령 1을 좌측 이어폰 및 우측 이어폰으로 별도로 송신한다. 제어 명령 1은 AH 식별자, 및 타깃 프로세싱 세기에 대한 파라미터 값을 포함할 수 있다. 유사한 조작은 제어 명령이 1이 수신된 후에 좌측 이어폰 및 우측 이어폰에 의해 수행되고, 좌측 이어폰의 프로세싱은 다음의 설명에서 예로서 이용된다. 제어 명령 1을 수신한 후에, 좌측 이어폰의 주 제어 유닛은 계수 라이브러리로부터, HT 식별자 및 타깃 프로세싱 세기에 기초하여, AH 프로세싱을 위한 것인 HT 필터링 계수, FF 필터링 계수, 및 FB 필터링 계수를 획득한다.
표 1은 예로서 이용된다. 타깃 프로세싱 세기의 값은 지시자 7이다. 이 경우에, 좌측 이어폰의 주 제어 유닛은 표 1에 따라, 지시자 7에 대응하는 HT 필터링 계수가 계수 HT3이고, FB 필터링 계수가 계수 FB7이고, FF 필터링 계수가 계수 FF5인 것을 학습한다. 주 제어 유닛은 계수 HT3을 이용함으로써, 기준 마이크로폰에 의해 수집된 제1 신호에 대해 HT 필터링 프로세싱을 수행하도록 HT 필터를 제어한다. 주 제어 유닛은 계수 FB7을 이용함으로써 신호 C5에 대해 FB 필터링 프로세싱을 수행하도록 FB 필터를 제어한다. 주 제어 유닛은 계수 FF5를 이용함으로써 제1 신호에 대해 FF 필터링 프로세싱을 수행하도록 FF 필터를 제어한다. 구체적으로, 주 제어 유닛은 계수 HT3, 계수 FB7, 및 계수 FF5를 AHA 코어 내로 기입하여, AHA 코어는 제2 오디오 신호를 획득하기 위하여 S801 내지 S807의 단계를 수행한다.
예를 들어, 도 12f를 참조한다. 선택 제어부는 바 형상일 수 있다. 선택 제어부는 제1 제어부 및 제2 제어부를 포함한다. 제1 제어부의 바는 헤드셋에 의해 지원된 프로세싱 모드의 수량에 기초하여 복수의 바-형상 세그먼트로 분할될 수 있다. 제2 제어부는 상이한 프로세싱 모드를 지시하기 위하여 제1 제어부의 상이한 바-형상 세그먼트 내에 위치되어 있다. 제2 제어부는 동일한 프로세싱 모드에서의 상이한 프로세싱 세기를 지시하기 위하여 제1 제어부의 동일한 바-형상 세그먼트의 상이한 포지션 내에 위치되어 있다. 예를 들어, 도 12f에서, 좌측 이어폰 및 우측 이어폰의 둘 모두는 AHA를 지원한다. 이 경우에, 제1 제어부의 바는 3개의 바-형상 세그먼트를 포함한다.
도 12f는 예로서 이용된다. 사용자는 좌측으로 또는 우측으로 슬라이드하도록 흑색 바를 터치하여 제어할 수 있고; 대응하는 FF 필터링 계수 및 FB 필터링 계수는 흑색 바가 포지션 K1에 위치되어 있을 때, 가장 강한 ANC 효과를 만들고; FF 필터링 계수 및 FB 필터링 계수는 흑색 바가 우측으로 슬라이드한 후에 변화하여, 능동 잡음 제어 효과를 점진적으로 약화하고, 흑색 바가 포지션 K2로 슬라이드할 때, 가장 약한 능동 잡음 제어 효과를 만든다. 이것은 잡음제거 프로세싱이 헤드셋이 착용될 때에 수행되지 않는 것과 유사하다. K2와 K3 사이의 영역은 주변 음 히어-스루 제어 파트이다. 사용자는 포지션 K2로부터 K3까지 이동하도록 흑색 바를 터치하여 제어하고; 대응하는 HT 필터링 계수 및 FB 필터링 계수는 흑색 바가 포지션 K2로 이동할 때, 가장 약한 주변 음 히어-스루 효과를 만들고; HT 필터링 계수 및 FB 필터링 계수는 흑색 바가 포지션 K3으로 이동할 때에 변화하여, 주변 음 히어-스루 효과가 더 강해진다. 포지션 K3으로부터 포지션 K4까지의 영역은 증강된 청취를 제어하기 위하여 이용된다. 즉, 사용자는 포지션 K3으로부터 포지션 K4까지 이동하도록 흑색 바를 터치하여 제어하고; 대응하는 FF 필터링 계수, HT 필터링 계수, 및 FB 필터링 계수는 흑색 바가 포지션 K3으로 이동할 때, 가장 약한 증강된 청취 효과를 만들고; FF 필터링 계수, HT 필터링 계수, 및 FB 필터링 계수는 흑색 바가 포지션 K3으로부터 포지션 K4까지 이동할 때에 변화하여, 증강된 청취 효과가 더 강해지고, 즉, 사용자가 청취하기를 예상하는 음성 신호는 청취를 보조하기 위하여 더 강해진다.
예를 들어, 도 12g를 참조한다. (a)에서의 선택 제어부는 ANC 버튼, HT 버튼, 및 AH 버튼을 포함하는, 상이한 프로세싱 모드에 대응하는 버튼을 포함한다. ANC 모드가 예로서 이용된다. 단말 디바이스(100)는 사용자에 의해 ANC 버튼을 탭하는 조작에 응답하여, 도 12g의 (b)에서의 디스플레이 인터페이스를 디스플레이한다. (b)에서의 디스플레이 인터페이스는 프로세싱 세기를 선택하기 위한 제어부(002)를 포함한다. 사용자는 상측으로 또는 하측으로 슬라이드하도록 흑색 바를 제어함으로써 ANC 프로세싱 세기를 결정할 수 있고, 즉, 대응하는 FF 필터링 계수 및 FB 필터링 계수를 선택할 수 있다. 흑색 바는 L1과 L2 사이의 영역에서 슬라이드한다. 대응하는 FF 필터링 계수 및 FB 필터링 계수는 흑색 바가 포지션 L1에 위치되어 있을 때, 가장 강한 ANC 효과를 만들고; FF 필터링 계수 및 FB 필터링 계수는 흑색 바가 하측으로 슬라이드한 후에 변화하여, 능동 잡음 제어 효과를 점진적으로 약화하고, 흑색 바가 포지션 L2로 슬라이드할 때, 가장 약한 능동 잡음 제어 효과를 만든다. 이것은 잡음제거 프로세싱이 헤드셋이 착용될 때에 수행되지 않는 것과 유사하다.
또 다른 가능한 구현예에서, 헤드셋(200)이 단말 디바이스에 대한 접속을 확립할 때, 헤드셋 APP의 기동(startup)은 선택 제어부를 포함하는 제어 인터페이스, 예를 들어, 도 12a, 도 12b, 도 12f, 또는 도 12g에서 도시된 제어 인터페이스를 디스플레이하도록 트리거링될 수 있다.
예를 들어, 단말 디바이스에 의해 디스플레이된 인터페이스는 인터페이스 1이다. 이 경우에, 단말 디바이스가 헤드셋(200)이 단말 디바이스에 대한 접속을 확립하는 것으로 식별할 때, 인터페이스는 인터페이스 1로부터 제어 인터페이스로 점프할 수 있다.
또 다른 가능한 구현예에서, 헤드셋이 단말 디바이스에 대한 접속을 확립한 후에, 단말 디바이스는 오디오를 플레이하도록 헤드셋을 트리거링할 때에 헤드셋 APP의 기동을 트리거링할 수 있고, 즉, 선택 제어부를 포함하는 제어 인터페이스, 예를 들어, 도 12a, 도 12b, 도 12c, 또는 도 12d에서 도시된 디스플레이 인터페이스를 디스플레이할 수 있다. 예를 들어, 단말 디바이스가 오디오를 플레이하도록 헤드셋을 트리거링할 때, 헤드셋에 대한 접속을 확립한 후에, 단말 디바이스는 노래를 플레이할 수 있고, 선택 제어부를 포함하는 제어 인터페이스를 디스플레이할 수 있다. 또 다른 예를 들어, 헤드셋에 대한 접속을 확립한 후에, 단말 디바이스는 비디오를 플레이하고, 선택 제어부를 포함하는 제어 인터페이스를 디스플레이할 수 있다.
또 다른 가능한 구현예에서, 헤드셋이 단말 디바이스에 대한 접속을 확립한 후에, 단말 디바이스가 헤드셋을 이용함으로써 오디오를 플레이하는 프로세스에서는, 현재의 환경의 장면 유형이 타깃 장면이고, 타깃 장면은 제1 타깃 이어폰의 프로세싱 모드가 조절될 필요가 있는 장면 유형에 적응하고, 프롬프트 정보가 디스플레이될 수 있는 것으로 식별된다. 프롬프트 정보는 헤드셋의 프로세싱 모드를 조절할 것인지 여부를 사용자에게 프롬프트하기 위하여 이용된다. 도 12h를 참조한다. 예를 들어, 프롬프트 정보는 프롬프트 박스의 형태로 디스플레이된다. 선택 제어부를 포함하는 제어 인터페이스, 예를 들어, 도 12a, 도 12b, 도 12c, 또는 도 12d에서 도시된 제어 인터페이스는 사용자에 의해, 헤드셋의 프로세싱 모드를 조절하도록 선택하는 조작에 응답하여 디스플레이될 수 있다. 도 12e는 도 12a에서 도시된 제어 인터페이스의 예를 도시한다.
예를 들어, 단말 디바이스는 사용자가 현재 위치되어 있는 장면이 잡음성 장면인 것으로 식별한다. 이 장면에서, 사용자는 프로세싱 모드를 이네이블할 필요가 있어서, 헤드셋의 프로세싱 모드를 조절할 것인지 여부를 사용자에게 지시하기 위하여 선택 프롬프트 정보를 (예를 들어, 프롬프트 박스의 형태로) 디스플레이할 수 있다. 예를 들어, 단말 디바이스는 외부 환경의 장면 유형이 잡음성 장면인 것으로 식별한다. 이 장면에서, 사용자는 프로세싱 모드를 이네이블할 필요가 있어서, 헤드셋의 프로세싱 모드를 조절할 것인지 여부를 사용자에게 지시하기 위하여 프롬프트 박스를 디스플레이할 수 있다.
예에서, 트리거링을 통해 프롬프트 박스를 디스플레이하기 위한 장면 유형은 잡음성 잡음, 단말 구축 장면, 철도 역 장면, 버스 정거장 장면, 도로 장면 등을 포함할 수 있다.
예를 들어, 신호 세기가 특정된 임계치에 도달하는 것으로 식별될 때, 잡음성 장면이 식별되는 것으로 간주된다. 또 다른 예를 들어, 특정한 비행기 공지 음이 식별될 때, 단말 구축 장면이 식별되는 것으로 결정된다. 또 다른 예를 들어, 열차 시간 통지 음이 식별될 때, 철도 역 장면이 식별되는 것으로 결정된다. 또 다른 예를 들어, 버스 티켓 방송이 식별될 때, 버스 정류장 장면이 식별되는 것으로 결정된다. 또 다른 예를 들어, 신호등 또는 자동차의 경적의 점검 음(tick sound)이 식별될 때, 도로 장면이 식별되는 것으로 결정된다.
또 다른 가능한 시나리오에서, 헤드셋이 단말 디바이스에 대한 접속을 확립할 때, 단말 디바이스가 헤드셋을 이용함으로써 오디오를 플레이하는 프로세스에서, 선택 제어부를 포함하는 제어 인터페이스는 사용자가 현재 위치되어 있는 식별된 장면에 기초하여 디스플레이된다.
예 2: 2개의 제어부는 좌측 및 우측 이어폰을 제어하기 위하여 이용된다.
단말 디바이스(100)는 사용자가 요건에 기초하여 좌측 이어폰의 프로세싱 모드 및 우측 이어폰의 프로세싱 모드를 별도로 선택하기 위하여 이용된 제어 인터페이스를 제공한다. 좌측 이어폰 및 우측 이어폰의 프로세싱 모드는 상이할 수 있다. 예를 들어, ANC 모드는 좌측 이어폰을 위하여 선택되고, HT 모드는 우측 이어폰을 위하여 이용된다. 제어 인터페이스는 좌측 이어폰을 위한 선택 제어부 및 우측 이어폰을 위한 선택 제어부를 포함한다. 구별의 용이함을 위하여, 좌측 이어폰을 위한 선택 제어부는 제1 선택 제어부로서 지칭되고, 우측 이어폰을 위한 선택 제어부는 제2 선택 제어부로서 지칭된다. 제1 선택 제어부는 좌측 이어폰의 프로세싱 모드를 선택하기 위하여 사용자에 의해 이용되고, 제2 선택 제어부는 우측 이어폰의 프로세싱 모드를 선택하기 위하여 사용자에 의해 이용된다. 제1 선택 제어부 및 제2 선택 제어부는 링 형상 또는 바 형상 등일 수 있다. 제1 선택 제어부 및 제2 선택 제어부의 형태는 동일하거나 상이할 수 있다. 사용자는 상이한 프로세싱 모드를 선택하고 프로세싱 세기를 제어하기 위하여, 디스플레이 상의 제어부에 대한 것이며 사용자 선택을 나타내는 포지션을 이동시킨다. 좌측 이어폰 및 우측 이어폰에 의해 이용된 제어부의 형상에 대해서는, 예 1에서의 설명을 참조한다. 세부사항은 본 명세서에서 다시 설명되지 않는다.
링-형상 선택 제어부가 좌측 이어폰 및 우측 이어폰의 둘 모두를 위하여 이용되는 예를 이용함으로써 설명이 제공된다. 도 13을 참조하면, 제1 선택 제어부 및 제2 선택 제어부의 둘 모두는 제1 제어부 및 제2 제어부를 포함한다. 제1 제어부 상의 제2 제어부의 2개의 상이한 포지션은 상이한 프로세싱 모드에 대응하거나, 제1 제어부 상의 제2 제어부의 2개의 상이한 포지션은 동일한 프로세싱 모드에서의 상이한 프로세싱 세기에 대응한다. 도 13에서 도시된 제어 인터페이스의 예를 참조한다. 사용자는 좌측 이어폰에 의해 구현된 상이한 프로세싱 모드를 선택하고 프로세싱 세기를 제어하기 위하여 좌측 이어폰의 제1 선택 제어부의 제2 제어부(흑색 도트)의 포지션을 제1 제어부의 원주 상에서 이동시킬 수 잇다. 사용자는 우측 이어폰에 의해 구현된 상이한 프로세싱 모드를 선택하고 프로세싱 세기를 제어하기 위하여 우측 이어폰의 제2 선택 제어부의 제2 제어부의 포지션을 제1 제어부 상에서 이동시킬 수 있다. 예 2에서, 사용자는 좌측 이어폰 및 우측 이어폰에 대한 상이한 프로세싱 모드를 선택할 수 있거나, 동일한 프로세싱 모드에서의 동일한 프로세싱 세기를 선택할 수 있거나, 동일한 프로세싱 모드에서의 상이한 프로세싱 세기를 선택할 수 있어서, 귀 차이를 정합하거나 상이한 애플리케이션 요건을 충족시킬 수 있다.
예 2에서, 트리거링을 통해 제1 선택 제어부 및 제2 선택 제어부를 포함하는 제어 인터페이스를 디스플레이하는 방식에 대해서는, 예 1에서의 설명을 참조한다. 세부사항은 본 명세서에서 다시 설명되지 않는다.
예 3: 단말 디바이스는 스마트 장면 검출을 수행한다.
단말 디바이스는 사용자가 현재 위치되어 있는 장면을 식별한다. 헤드셋을 위하여 이용된 프로세싱 모드는 상이한 장면에서 상이하다. 현재의 외부 환경의 장면 유형이 제1 장면으로서 지시되는 것으로 식별할 때, 단말 디바이스는, 제1 장면에 대응하고 헤드셋의 프로세싱 모드 내에 있는 타깃 모드를 결정하고, 제어 시그널링 2를 좌측 이어폰 및 우측 이어폰으로 별도로 송신한다. 제어 시그널링 2는 타깃 모드를 지시한다. 상이한 타깃 모드는 상이한 장면 유형에 대응한다.
이 출원의 이 실시예에서, 단말 디바이스는 식별된 장면에 기초하여, 헤드셋에 의해 수행되어야 할 구체적인 기능을 결정한다. AHA 기능은 장면 유형에 적응한다. 이 경우에, 장면 유형에 대한 가장 적절한 기능은 사용자가 가장 희망된 효과를 자동적으로 경험할 수 있도록 선택된다.
예에서, 장면 유형은 걷는 장면, 달리는 장면, 조용한 장면, 다수 사람이 말하는 장면, 카페 장면, 지하철 장면, 열차 장면, 자동차 장면, 대기실 장면, 대화 장면, 사무실 장면, 실외 장면, 운전 장면, 강한 바람 장면, 비행기 장면, 경보음 장면, 경적음 장면, 또는 우는 음 장면 등을 포함할 수 있다.
단말 디바이스가 스마트 장면 검출을 수행할 때, 검출 분류는 인공 지능(artificial intelligence, AI) 모델의 방식을 이용함으로써 수행될 수 있다. AI 모델은 오프라인 방식으로 구축될 수 있고, 단말 디바이스 상에 저장될 수 있다. 예를 들어, 단말 디바이스 상의 마이크로폰은 상이한 장면에서의 다량의 잡음 및 센서(sensor) 데이터 및/또는 비디오 프로세싱 유닛(video processing unit, VPU) 데이터를 레코딩하고, 데이터에 대응하는 장면을 수동적으로 표기한다. 다음으로, AI 모델은 초기화(initialization)를 통해 구축된다. 모델은 컨볼루션 신경망(convolutional neural networks, CNN)/심층 신경망(deep neural networks, DNN)/장단기 메모리 네트워크(long short-term memory, LSTM) 중의 하나일 수 있거나, 상이한 모델의 조합일 수 있다. 그 다음으로, 모델 훈련은 대응하는 AI 모델을 획득하기 위하여, 표기된 데이터를 이용함으로써 수행된다. 이용 동안에, 분류 결과를 획득하기 위하여, 실시간으로 수집된 외부 환경에서의 음 신호는 계산을 위해 AI 모델로 입력된다.
예에서, 상이한 장면 유형에 적용가능한 프로세싱 모드가 열거된다. 다음의 장면들 각각에 대응하는 괄호 내의 정보는 장면 유형에 대응하는 프로세싱 모드를 지시한다: 걷는 장면(HT), 달리는 장면(HT), 조용한 장면(HT), 다수 사람이 말하는 장면(ANC), 카페 장면(ANC), 지하철 장면(AH), 열차 장면(ANC), 대기실 장면(AH), 대화 장면(AH), 사무실 장면(ANC), 실외 장면(ANC), 운전 장면(ANC), 강한 바람 장면(ANC), 비행기 장면(ANC), 경고음 장면(AH), 경적음 장면(AH), 우는 음 장면(AH), 및 또 다른 장면. 예를 들어, 비행기 장면에서, 잡음은 비행기가 비행하고 있을 때에 크다. 그러므로, ANC 모드가 적당하다. 또 다른 예를 들어, HT 모드는 긴급 이벤트의 음을 청취하기 위하여, 걷는 장면, 달리는 장면, 및 조용한 장면에 적용가능하다. 또 다른 예를 들어, 조용함은 카페 장면에서 사용자에 대해 요구된다. 그러므로, ANC 모드가 이용될 수 있다. 또 다른 예를 들어, HT 모드는 경음악 장면에서 이용될 수 있다. 또 다른 예를 들어, 사전설정된 음은 경고음 장면(AH), 경적음 장면(AH), 및 우는 음 장면(AH)에서 청취될 필요가 있다. 그러므로, AH 모드가 적당하다.
예를 들어, 비행기 장면에서, 현재의 외부 환경의 장면 유형이 비행기 장면인 것으로 식별할 때, 단말 디바이스(100)는 제어 시그널링 2를 헤드셋으로 송신할 수 있다. 제어 시그널링 2는 헤드셋이 ANC 기능을 수행할 필요가 있다는 것을 지시하고, 즉, ANC 모드를 이용하도록 헤드셋에 지시한다. 제어 시그널링 2를 수신한 후에, 좌측 이어폰 및 우측 이어폰은 S501 내지 S504에서의 프로세싱을 별도로 수행한다.
예에서, 걷는 장면에서는, 단말 디바이스(100)가 현재의 외부 환경의 장면 유형이 걷는 장면인 것으로 식별할 때, 제어 시그널링 2를 헤드셋으로 송신할 수 있다. 제어 시그널링 2는 헤드셋이 HT 기능을 수행할 필요가 있다는 것, 즉, 헤드셋이 HT 모드를 이용하는 것을 지시한다. 제어 시그널링 2를 수신한 후에, 좌측 이어폰 및 우측 이어폰은 S601 내지 S605에서의 프로세싱을 별도로 수행한다.
또 다른 예에서, 경고음 장면에서는, 단말 디바이스(100)가 현재의 외부 환경의 장면 유형이 철도 역 장면인 것으로 식별할 때, 제어 시그널링 2를 헤드셋으로 송신할 수 있다. 제어 시그널링 2는 헤드셋이 AH 기능을 수행할 필요가 있다는 것, 즉, 헤드셋이 AH 모드를 이용하는 것을 지시한다. 제어 시그널링 2를 수신한 후에, 좌측 이어폰 및 우측 이어폰은 S801 내지 S807에서의 프로세싱을 별도로 수행한다.
가능한 구현예에서, 단말 디바이스는 헤드셋이 단말 디바이스에 대한 접속을 확립한 후에 장면 검출을 시작한다. 검출을 완료한 후에, 단말 디바이스는 검출 결과를 사용자에게 추가로 디스플레이할 수 있어서, 사용자는 헤드셋을 위하여 이용된 프로세싱 모드에 대해 학습한다. 예를 들어, 검출 결과는 프롬프트 박스의 형태로 사용자에게 디스플레이된다. 검출 결과는 검출된 장면을 포함할 수 있고, 검출된 장면에 대응하는 프로세싱 모드를 더 포함할 수 있다. 예를 들어, 장면이 제1 장면인 것으로 식별할 때, 단말 디바이스는, 제1 장면에 대응하며 헤드셋의 프로세싱 모드 내에 있는 타깃 모드를 결정하고, 검출 결과, 즉, 제1 장면 및 타깃 모드를 사용자에게 디스플레이할 수 있다. 그 다음으로, 제어 시그널링 2는 좌측 이어폰 및 우측 이어폰으로 별도로 송신된다. 제어 시그널링 2는 타깃 모드를 지시한다.
또 다른 가능한 구현예에서, 스마트 장면 검출을 이네이블하기 위한 기능은 단말 디바이스 상에서 구성된다. 단말 디바이스는 사용자에 의한 스마트 장면 검출을 이네이블하는 기능에 응답하여 장면 검출을 트리거링한다. 장면이 제1 장면인 것으로 식별될 때, 제1 장면에 대응하며 헤드셋의 프로세싱 모드 내에 있는 타깃 모드가 결정되고, 그 다음으로, 제어 시그널링 2는 좌측 이어폰 및 우측 이어폰으로 별도로 송신된다. 제어 시그널링 2는 타깃 모드를 지시한다.
검출을 완료한 후에, 단말 디바이스는 검출 결과를 사용자에게 추가로 디스플레이할 수 있어서, 사용자는 헤드셋을 위하여 이용된 프로세싱 모드에 대해 학습한다. 검출 결과는 검출된 장면을 포함할 수 있고, 검출된 장면에 대응하는 프로세싱 모드를 더 포함할 수 있다. 예를 들어, 장면이 제1 장면인 것으로 식별할 때, 단말 디바이스는, 제1 장면에 대응하며 헤드셋의 프로세싱 모드 내에 있는 타깃 모드를 결정하고, 검출 결과, 즉, 제1 장면 및 타깃 모드를 사용자에게 디스플레이할 수 있다. 그 다음으로, 제어 시그널링 2는 좌측 이어폰 및 우측 이어폰으로 별도로 송신된다. 제어 시그널링 2는 타깃 모드를 지시한다. 임의적으로, 검출 결과가 사용자에게 디스플레이된 후에, 좌측 이어폰 및 우측 이어폰은 사용자에 의해 타깃 모드를 결정하는 조작에 응답하여 제어 시그널링 2를 송신한다.
예를 들어, 스마트 장면 검출 기능을 이네이블하기 위한 것이며 단말 디바이스 상에서 구성되는 스위치는 헤드셋 애플리케이션의 제어 인터페이스 상에서 구성될 수 있거나, 단말 디바이스의 메뉴 바를 설정하는 시스템 상에서 구성될 수 있다. 예를 들어, 기능 스위치는 헤드셋 애플리케이션의 제어 인터페이스에서 구성된다. 단말 디바이스는 장면을 식별하는 방식으로, 헤드셋을 위하여 이용된 프로세싱 모드를 제어할 수 있고, 단말 디바이스는 헤드셋을 위하여 이용된 프로세싱 모드를 제어하기 위하여 제어 인터페이스 내의 선택 제어부 상에서 사용자 조작을 추가로 식별할 수 있다. 단말 디바이스는 요건에 기초하여, 스마트 장면 검출 기능을 이네이블할 것인지 여부를 결정할 수 있다. 스마트 장면 검출 기능이 이네이블되지 않을 때, 헤드셋을 위하여 이용된 프로세싱 모드는 예 1을 이용함으로써 수동적으로 선택될 수 있다. 스마트 장면 검출 기능이 이네이블될 때, 단말 디바이스(100)는 사용자가 현재 위치되어 있는 장면을 식별한다. 사용자가 스마트 장면 검출 기능을 이네이블한 후에, 프로세싱 모드가 수동적으로 선택되는 인터페이스는 또 다른 인터페이스로 업데이트될 수 있거나, 검출 결과는 프로세싱 기능이 수동적으로 선택되는 인터페이스 상에서 디스플레이될 수 있다.
예를 들어, 사용자가 스마트 장면 검출 기능을 이네이블하기 전에, 단말 디바이스 상에서 사용자에 의해 선택된 프로세싱 기능은 HT 기능이다. 스마트 장면 검출 기능을 이네이블한 후에, 단말 디바이스는 사용자가 현재 위치되어 있는 장면이 비행기 장면이고, ANC 기능이 이용되기에 적당한 것으로 식별한다. 예에서, 사용자는 헤드셋 애플리케이션을 시작시키고, 디스플레이 상에 헤드셋 애플리케이션의 제어 인터페이스를 디스플레이한다. 링이 예로서 이용된다. 사용자에 의해 선택된 프로세싱 기능은 도 14a의 (a)에서 도시된 바와 같이, HT 기능이다. 제어 인터페이스는 스마트 장면 검출 기능을 이네이블할 것인지 여부를 지시하는 옵션 제어부를 포함한다. 사용자가 스마트 장면 검출 기능을 이네이블하기 위한 옵션 제어부를 트리거링한 후에, 사용자는 스마트 장면 검출 기능을 트리거링하고, 검출 결과를 획득하기 위하여 장면 검출을 수행하고, 프로세싱 기능을 위한 제어부에 대한 것이며 사용자 선택을 나타내는 포지션을 ANC 기능 영역으로 변화시킨다. 링 상의 흑색 도트의 포지션은 ANC 기능의 경우에 디폴트 값, 또는 예를 들어, 도 14a의 (b)에서 도시된 바와 같이, 사용자가 ANC 기능을 마지막으로 선택할 때에 선택된 프로세싱 세기에 대응하는 포지션일 수 있다. 도 14a의 (b)는 비행기 장면이 검출되는 예를 도시한다. 단말 디바이스9100)는 제어 시그널링 2를 좌측 이어폰 및 우측 이어폰으로 별도로 송신한다. 제어 시그널링 2는 ANC 기능을 지시한다. 또 다른 예에서, 사용자는 헤드셋 애플리케이션을 시작시키고, 헤드셋 애플리케이션의 제어 인터페이스는 디스플레이 상에서 디스플레이된다. 링이 예로서 이용된다. 사용자에 의해 선택된 프로세싱 기능은 도 14b의 (a)에서 도시된 바와 같이, HT 기능이다. 제어 인터페이스는 스마트 장면 검출 기능을 이네이블할 것인지 여부를 지시하는 옵션 제어부를 포함한다. 사용자가 스마트 장면 검출 기능을 이네이블하기 위한 옵션 제어부를 트리거링한 후에, 사용자는 스마트 장면 검출 기능을 트리거링하고, 검출 결과를 획득하기 위하여 장면 검출을 수행하고, 검출 결과 인터페이스 상에 검출 결과를 디스플레이한다. 검출 결과 인터페이스는 단말 디바이스에 의해 식별될 수 있는 장면, 및 장면에 대응하는 프로세싱 기능을 더 포함할 수 있다. 예를 들어, 도 14b의 (b)를 참조한다. 검출 결과는 비행기 장면이고, 대응하는 프로세싱 기능은 ANC 기능이다. 단말 디바이스9100)는 제어 시그널링 2를 좌측 이어폰 및 우측 이어폰으로 별도로 송신한다. 제어 시그널링 2는 ANC 기능을 지시한다.
단말 디바이스가 스마트 장면 검출을 수행하는 방식으로, 타깃 모드에서의 타깃 프로세싱 세기는 다음의 방식 중의 임의의 하나로 결정될 수 있다.
방식 1: 헤드셋은 타깃 모드에서 디폴트 타깃 프로세싱 세기를 이용한다.
예를 들어, 단말 디바이스가 제어 시그널링 2를 좌측 이어폰 및 우측 이어폰으로 별도로 송신한 후에, 좌측 이어폰이 제어 시그널링 2를 수신한 후에 이용하는 것으로 결정하는 프로세싱 모드는 타깃 모드이고, 제어 시그널링 2는 타깃 프로세싱 세기 없음을 지시하고, 헤드셋은 디폴트 타깃 프로세싱 세기를 이용하는 것으로 결정한다. 예를 들어, 타깃 모드는 ANC 모드이다. 제어 시그널링 2를 수신한 후에, 좌측 이어폰은 ANC 모드를 이용하는 것으로 결정하고, 좌측 이어폰으로부터, ANC 모드에서의 디폴트 FF 필터링 계수 및 디폴트 FB 필터링 계수를 획득한다.
방식 2: 타깃 모드가 마지막으로 이용될 때에 이용된 프로세싱 세기는 타깃 프로세싱 세기로서 이용된다.
예에서, 단말 디바이스는 타깃 프로세싱 세기를 결정하고, 제어 시그널링을 이용함으로써 타깃 프로세싱 세기를 좌측 이어폰 및 우측 이어폰에 지시한다. 장면 검출을 수행하고, 검출된 장면에 기초하여 타깃 모드를 결정한 후에, 단말 디바이스는 타깃 모드가 마지막으로 이용될 때에 이용된 프로세싱 세기를 타깃 프로세싱 세기로서 획득하고, 제어 시그널링 2를 좌측 이어폰 및 우측 이어폰으로 별도로 송신한다. 제어 시그널링 2는 타깃 모드 및 타깃 프로세싱 세기를 지시한다.
또 다른 예에서, 헤드셋은 타깃 모드에서의 프로세싱 세기를 결정한다. 장면 검출을 수행하고, 검출된 장면에 기초하여 타깃 모드를 결정한 후에, 단말 디바이스는 제어 시그널링 2를 좌측 이어폰 및 우측 이어폰으로 별도로 송신한다. 제어 시그널링 2는 타깃 모드를 지시한다. 제어 시그널링 2를 수신한 후에, 좌측 이어폰 및 우측 이어폰은 이용된 프로세싱 모드가 타깃 모드인 것으로 결정하고, 타깃 모드가 마지막으로 이용될 때에 이용되는 저장된 프로세싱 세기를 타깃 프로세싱 세기로서 획득한다. 예를 들어, 타깃 모드는 ANC이고, ANC 모드가 마지막으로 이용될 때에 이용되는 저장된 FF 필터링 계수 및 저장된 FB 필터링 계수는 ANC 프로세싱을 위하여 획득된다.
방식 3: 단말 디바이스는 식별된 장면에 기초하여 타깃 프로세싱 세기를 결정한다.
스마트 장면 검출 기능을 이네이블하기 위한 스위치가 단말 디바이스 상에서 구성되지 않을 경우에, 단말 디바이스는 장면을 식별한 후의 식별된 장면에 기초하여 타깃 프로세싱 세기를 결정할 수 있다.
예에서, 상이한 장면에서 결정된 프로세싱 모드는 동일하지만, 상이한 장면은 상이한 프로세싱 세기에 대응한다. 예를 들어, HT 모드는 다음의 장면: 걷는 장면, 달리는 장면, 및 조용한 장면의 각각에 적용가능하다. 걷는 장면, 달리는 장면, 및 조용한 장면은 HT 모드가 이용될 때, 상이한 프로세싱 세기에 대응한다. 또 다른 예를 들어, ANC 모드는 다음의 장면: 다수 사람이 말하는 장면, 카페 장면, 열차 장면, 비행기 장면, 강한 바람 장면, 및 사무실 장면의 각각에 적용가능하다. 다수 사람이 말하는 장면, 카페 장면, 열차 장면, 비행기 장면, 강한 바람 장면, 및 사무실 장면은 ANC 모드가 이용될 때, 상이한 프로세싱 세기에 대응한다. 또 다른 예를 들어, AH 모드는 다음의 장면: 대화 장면, 경고음 장면, 경적음 장면, 및 우는 음 장면의 각각에 적용가능하다. 대화 장면, 경고음 장면, 경적음 장면, 및 우는 음 장면은 AH 모드가 이용될 때, 상이한 프로세싱 세기에 대응한다.
이것을 기반으로 하여, 단말 디바이스는 장면 유형, 타깃 모드, 및 프로세싱 세기 사이의 저장된 대응관계에 기초하여 제어 시그널링 2를 좌측 이어폰 및 우측 이어폰으로 송신하고, 여기서, 제어 시그널링 2는 타깃 모드, 및 타깃 모드에서의 타깃 프로세싱 세기를 지시한다. 이 경우에, 제어 시그널링 2를 수신한 후에, 헤드셋은 제어 시그널링 2에 기초하여, 타깃 모드를 이용하는 것으로 결정하고, 타깃 프로세싱 세기에 대응하는 필터링 계수를 결정한다. 예를 들어, 타깃 모드는 AH이다. FF 필터링 계수, FB 필터링 계수, 및 HT 필터링 계수는 타깃 프로세싱 세기에 기초하여 결정되고, S801 내지 S807은 FF 필터링 계수, FB 필터링 계수, 및 HT 필터링 계수에 기초하여 수행된다.
방식 4: 사용자는 타깃 모드에서 이용된 프로세싱 세기를, 단말 디바이스에 의해 제공된 UI 제어부를 이용함으로써 헤드셋에 지시한다.
예에서, 장면 검출을 수행한 후에, 단말 디바이스는 단말 디바이스의 디스플레이 인터페이스 상에 검출 결과를 디스플레이하고, 여기서, 검출 결과는 검출된 장면, 및 검출된 장면에 대응하는 타깃 모드를 포함한다. 디스플레이 인터페이스는 프로세싱 세기를 선택하기 위한 제어부를 포함할 수 있다. 설명의 용이함을 위하여, 프로세싱 세기를 선택하기 위한 제어부는 세기 제어부로서 지칭된다. 세기 제어부는 제어부 1 및 제어부 2를 포함할 수 있다. 제어부 1의 상이한 포지션은 타깃 모드에서의 상이한 프로세싱 세기를 지시한다. 세기 제어부는 링 형상 또는 바 형상 등일 수 있다. 도 14c를 참조하면, 검출된 장면은 단말-구축 장면이다. 예를 들어, 세기 제어부에서, 제어부 1은 링-형상이고, 제어부 2는 링-형상 흑색 도트이다. 사용자가 제어부 1의 포지션 1로 이동하도록 제어부 2를 터치하여 제어하는 것에 응답하여, 포지션 1은, 타깃 모드 내에 있고 사용자에 의해 선택되는 타깃 프로세싱 세기를 나타낸다. 제어 명령 2는 좌측 이어폰 및 우측 이어폰으로 송신되고, 여기서, 제어 명령 2는 포지션 1에 대응하는 타깃 모드 및 타깃 프로세싱 세기를 지시한다.
임의적으로, 타깃 모드 및 타깃 프로세싱 세기는 상이한 제어 명령을 이용함으로써 좌측 이어폰 및 우측 이어폰으로 송신될 수 있다. 검출된 장면에 기초하여 타깃 모드를 결정한 후에, 단말 디바이스는 타깃 모드를 지시하는 제어 시그널링을 좌측 이어폰 및 우측 이어폰으로 송신한다. 타깃 모드를 지시하는 제어 시그널링을 수신한 후에, 좌측 이어폰 및 우측 이어폰은 타깃 모드에 대응하는 타깃 프로세싱을 구현하기 위하여, 타깃 모드에서의 디폴트 프로세싱 세기, 즉, 타깃 모드에서의 디폴트 필터링 계수를 이용한다. 사용자가 제어부 1의 포지션 1로 이동하도록 제어부 2를 터치하여 제어하는 것에 응답하여, 타깃 프로세싱 세기를 지시하는 제어 시그널링은 좌측 이어폰 및 우측 이어폰으로 송신된다. 추가로, 좌측 이어폰 및 우측 이어폰은 타깃 모드에 대응하는 타깃 프로세싱을 구현하기 위하여, 타깃 프로세싱 세기에 대응하는 필터링 계수를 이용한다.
도 14a에서의 예를 뒤따르는 또 다른 예에서, 사용자가 스마트 장면 검출 기능을 이네이블하기 위한 옵션 제어부를 트리거링한 후에, 사용자는 스마트 장면 검출 기능을 트리거링하고, 검출 결과를 획득하기 위하여 장면 검출을 수행하고, 프로세싱 기능을 위한 제어부에 대한 것이며 사용자 선택을 나타내는 포지션을 ANC 기능 영역으로 변화시킨다. 링 상의 흑색 도트의 포지션은 ANC 기능의 경우에 디폴트 값, 또는 사용자가 ANC 기능을 마지막으로 선택할 때에 선택된 프로세싱 세기에 대응하는 포지션일 수 있다. 사용자는 ANC 모드에서의 프로세싱 세기를 선택하기 위하여 흑색 도트의 포지션을 이동시킬 수 있다. 제어 시그널링 2는 좌측 이어폰 및 우측 이어폰으로 송신되고, 여기서, 제어 시그널링 2는 ANC 모드 및 대응하는 타깃 프로세싱 세기를 지시한다.
예 4: 헤드셋의 장면 검출. 상이한 장면은 상이한 프로세싱 기능에 대응한다.
헤드셋은 장면 검출 기능을 가진다. 헤드셋은 사용자가 현재 위치되어 있는 장면을 식별한다. 헤드셋은 검출된 장면의 유형이 상이할 때, 상이한 프로세싱 기능을 구현한다. 헤드셋 내의 좌측 이어폰이 장면 검출 기능을 가질 수 있거나, 우측 이어폰이 장면 검출 기능을 가지거나, 좌측 이어폰 및 우측 이어폰의 둘 모두가 장면 검출 기능을 가진다. 예를 들어, 좌측 이어폰 및 우측 이어폰 중의 하나는 장면 검출을 수행하도록 구성된다. 예를 들어, 좌측 이어폰은 장면 검출을 수행하고, 검출 결과를 우측 이어폰으로 송신한다. 이 경우에, 좌측 이어폰 및 우측 이어폰의 둘 모두는 좌측 이어폰의 검출 결과에 기초하여, 검출 결과에 대응하는 프로세싱 기능을 수행하기 위한 프로세싱을 수행한다. 대안적으로, 우측 이어폰은 장면 검출을 수행하고, 검출 결과를 좌측 이어폰으로 송신한다. 이 경우에, 좌측 이어폰 및 우측 이어폰의 둘 모두는 우측 이어폰의 검출 결과에 기초하여, 검출 결과에 대응하는 프로세싱 기능을 수행하기 위한 프로세싱을 수행한다. 또 다른 예에서, 좌측 이어폰 및 우측 이어폰의 둘 모두는 장면 검출을 수행하고; 좌측 이어폰은 좌측 이어폰의 검출 결과에 기초하여, 검출 결과에 대응하는 프로세싱 기능을 수행하기 위한 프로세싱을 수행하고; 우측 이어폰은 우측 이어폰의 검출 결과에 기초하여, 검출 결과에 대응하는 프로세싱 기능을 수행하기 위한 프로세싱을 수행한다.
가능한 구현예에서, 헤드셋의 장면 검출 기능의 이네이블은 헤드셋을 이용함으로써 또는 단말 디바이스를 이용함으로써 사용자에 의해 제어될 수 있다.
어떤 방식으로, 장면 검출 기능을 이네이블하기 위한 버튼은 헤드셋 상에 배치된다. 사용자는 헤드셋의 장면 검출 기능을 이네이블하거나 디세이블하도록 버튼을 터치하여 제어한다. 헤드셋의 장면 검출 기능이 이네이블된 후에, 헤드셋은 사용자가 현재 위치되어 있는 장면(또는 헤드셋이 현재 위치되어 있는 장면)을 식별하고, 프로세싱 모드에 대응하는 프로세싱 기능을 수행하기 위하여, 장면과 프로세싱 모드 사이의 대응관계에 기초하여, 식별된 장면에 대응하는 프로세싱 모드를 결정한다.
또 다른 방식으로, 사용자는 헤드셋의 장면 검출 기능을 이네이블하거나 디세이블하기 위하여, 헤드셋을 탭하고, 예를 들어, 헤드셋을 세 번 연속으로 탭한다. 헤드셋의 장면 검출 기능이 디세이블될 때, 헤드셋은 사용자에 의해 헤드셋을 세 번 탭하는 조작에 응답하여 헤드셋의 장면 검출 기능을 이네이블한다. 헤드셋의 장면 검출 기능이 이네이블될 때, 헤드셋은 사용자에 의해 헤드셋을 세 번 탭하는 조작에 응답하여 헤드셋의 장면 검출 기능을 디세이블한다. 헤드셋의 장면 검출 기능이 이네이블된 후에, 헤드셋은 사용자가 현재 위치되어 있는 장면(또는 헤드셋이 현재 위치되어 있는 장면)을 식별하고, 장면과 프로세싱 모드 사이의 대응관계에 기초하여, 프로세싱 모드에 대응하는 프로세싱 기능을 수행하기 위하여, 식별된 장면에 대응하는 프로세싱 모드를 결정한다.
또 다른 방식으로, 좌측 이어폰 또는 우측 이어폰의 장면 검출 기능의 이네이블은 단말 디바이스(100)에 의해 제어된다. 예를 들어, 헤드셋 제어 인터페이스는 헤드셋 장면 검출 기능을 위한 온/오프 버튼을 포함한다. 단말 디바이스는 사용자 요건에 기초하여, 헤드셋의 장면 검출 기능을 이네이블할 것인지 여부를 결정할 수 있다. 헤드셋의 장면 검출 기능이 이네이블되지 않을 때, 헤드셋에 의해 구현될 필요가 있는 프로세싱 기능은 예 1을 이용함으로써 수동적으로 선택될 수 있다. 헤드셋의 장면 검출 기능이 이네이블된 후에, 헤드셋은 현재의 외부 환경의 장면 유형을 식별하고, 프로세싱 모드에 대응하는 프로세싱 기능을 수행하기 위하여, 장면 유형과 프로세싱 모드 사이의 대응관계에 기초하여, 식별된 장면 유형에 대응하는 프로세싱 모드를 결정한다. 단말 디바이스(100)는 사용자에 의해 헤드셋의 장면 검출 기능을 이네이블하는 것에 응답하여 제어 시그널링 3을 헤드셋(200)으로 송신하고, 여기서, 제어 시그널링 3은 장면 검출 기능을 이네이블하도록 헤드셋에 지시한다. 헤드셋(200)은 제어 시그널링 3에 기초하여 장면 검출을 수행하기 시작한다. 헤드셋(200)은 현재의 외부 환경의 검출된 장면 유형에 기초하여, 구현될 필요가 있는 프로세싱 기능, 예를 들어, ANC 기능을 결정한다. 이 경우에, 헤드셋(200)은 ANC 프로세싱을 수행하고, S501 내지 S504를 수행한다.
또 다른 가능한 구현예에서는, 헤드셋이 단말 디바이스에 대한 접속을 확립한 후에, 헤드셋이 장면 검출을 시작하거나, 헤드셋이 단말 디바이스에 의해 송신된 다운링크 오디오 신호를 수신할 때, 헤드셋이 장면 검출을 시작한다.
예 4에서는, 예에서, 헤드셋이 검출을 수행한 후에, 검출 결과를 단말 디바이스로 추가로 송신할 수 있다. 예를 들어, 검출 결과는 지시 정보 내에 포함될 수 있고, 단말 디바이스로 송신될 수 있다. 검출 결과는 검출된 장면, 및 장면에 대응하는 프로세싱 모드를 포함할 수 있다. 단말 디바이스는 검출 결과를 수신할 때, 검출 결과를 사용자에게 디스플레이하여, 사용자는 헤드셋을 위하여 이용된 프로세싱 모드에 대해 학습한다. 예를 들어, 검출 결과는 프롬프트 박스의 형태로 사용자에게 디스플레이된다. 임의적으로, 검출 결과는 검출된 장면만을 포함할 수 있다. 검출 결과를 수신한 후에, 단말 디바이스는 헤드셋에 의해 검출된 장면에 대응하는 프로세싱 모드를 결정하고, 헤드셋에 의해 검출된 장면 및 장면에 대응하는 프로세싱 모드를 사용자에게 디스플레이한다. 예를 들어, 장면이 제1 장면인 것으로 식별할 때, 헤드셋은, 제1 장면에 대응하며 헤드셋의 프로세싱 모드 내에 있는 타깃 모드를 결정하고, 검출 결과, 즉, 제1 장면 및 타깃 모드를 사용자에게 디스플레이할 수 있다.
또 다른 예에서, 검출을 수행한 후에, 헤드셋은 장면에 대응하는 프로세싱 모드에 대한 프로세싱 기능을 즉시 수행하는 대신에, 검출 결과를 단말 디바이스로 송신하고, 단말 디바이스는 검출 결과를 사용자에게 디스플레이한다. 단말 디바이스는 사용자에 의해 프로세싱 모드를 결정하는 조작에 응답하여, 확인 명령(confirmation instruction)을 헤드셋으로 송신한다. 확인 명령을 수신할 때, 헤드셋은 헤드셋에 의해 검출된 장면에 대응하는 프로세싱 모드를 이용함으로써 프로세싱 기능을 수행한다.
예를 들어, 헤드셋에 의해 식별될 수 있는 장면 유형은 걷는 장면, 달리는 장면, 조용한 장면, 다수 사람이 말하는 장면, 카페 장면, 지하철 장면, 열차 장면, 자동차 장면, 대기실 장면, 대화 장면, 사무실 장면, 실외 장면, 운전 장면, 강한 바람 장면, 비행기 장면, 경보음 장면, 경적음 장면, 또는 우는 음 장면 등을 포함할 수 있다.
예에서, 상이한 장면 유형에 적용가능한 프로세싱 모드가 열거된다. 다음의 장면들 각각에 대응하는 괄호 내의 정보는 장면 유형에 대응하는 프로세싱 모드를 지시한다: 걷는 장면(HT), 달리는 장면(HT), 조용한 장면(HT), 다수 사람이 말하는 장면(ANC), 카페 장면(ANC), 지하철 장면(AH), 열차 장면(ANC), 대기실 장면(AH), 대화 장면(AH), 사무실 장면(ANC), 실외 장면(ANC), 운전 장면(ANC), 강한 바람 장면(ANC), 비행기 장면(ANC), 경고음 장면(AH), 경적음 장면(AH), 우는 음 장면(AH), 및 또 다른 장면. 예를 들어, 비행기 장면에서, 잡음은 비행기가 비행하고 있을 때에 크다. 그러므로, ANC 모드가 적당하다. 또 다른 예를 들어, HT 모드는 긴급 이벤트의 음을 청취하기 위하여, 걷는 장면, 달리는 장면, 및 조용한 장면에 적용가능하다. 또 다른 예를 들어, 조용함은 카페 장면에서 사용자에 대해 요구된다. 그러므로, ANC 모드가 이용될 수 있다. 또 다른 예를 들어, HT 모드는 경음악 장면에서 이용될 수 있다. 또 다른 예를 들어, 사전설정된 음은 경고음 장면(AH), 경적음 장면(AH), 및 우는 음 장면(AH)에서 청취될 필요가 있다. 그러므로, AH 모드가 적당하다.
예에서, 비행기 장면에서는, 장면 유형이 비행기 장면인 것으로 식별될 때, ANC 모드를 이용하는 것으로 결정되고, 좌측 이어폰 및 우측 이어폰은 S501 내지 S504에서의 프로세싱을 별도로 수행한다.
또 다른 예에서, 걷는 장면에서는, 장면 유형이 걷는 장면인 것으로 식별될 때, HT 모드를 이용하는 것으로 결정되고, 좌측 이어폰 및 우측 이어폰은 S601 내지 S605에서의 프로세싱을 별도로 수행한다.
또 다른 예에서, 철도 역 장면에서는, 장면 유형이 철도 역 장면인 것으로 식별될 때, AH 모드를 이용하는 것으로 결정되고, 좌측 이어폰 및 우측 이어폰은 S801 내지 S807에서의 프로세싱을 별도로 수행한다.
헤드셋이 장면 검출을 수행하는 방식으로, 타깃 모드에서의 타깃 프로세싱 세기는 다음의 방식 중의 임의의 하나로 결정될 수 있다.
방식 1: 헤드셋은 타깃 모드에서 디폴트 타깃 프로세싱 세기를 이용한다.
헤드셋(좌측 이어폰 또는 우측 이어폰)은 검출된 장면에 기초하여, 이용된 프로세싱 모드가 타깃 모드인 것으로 결정하고, 좌측 이어폰 및 우측 이어폰은 디폴트 타깃 프로세싱 세기를 이용하는 것으로 결정한다. 예를 들어, 타깃 모드는 ANC 모드이다. 좌측 이어폰 및 우측 이어폰은 ANC 모드에서의 디폴트 FF 필터링 계수 및 디폴트 FB 필터링 계수를 획득한다.
방식 2: 타깃 모드가 마지막으로 이용될 때에 이용된 프로세싱 세기는 타깃 프로세싱 세기로서 이용된다.
예에서, 헤드셋(좌측 이어폰 또는 우측 이어폰)은 타깃 모드에서의 프로세싱 세기를 결정한다. 헤드셋이 장면 검출을 수행하고, 검출된 장면에 기초하여 타깃 모드를 결정한 후에, 헤드셋은 타깃 모드가 마지막으로 이용될 때에 이용되는 저장된 프로세싱 세기를 타깃 프로세싱 세기로서 획득한다. 예를 들어, 타깃 모드는 ANC이고, ANC 모드가 마지막으로 이용될 때에 이용되는 저장된 FF 필터링 계수 및 저장된 FB 필터링 계수는 ANC 프로세싱을 위하여 획득된다.
또 다른 예에서, 단말 디바이스는 타깃 프로세싱 세기를 결정하고, 제어 시그널링을 이용함으로써 타깃 프로세싱 세기를 좌측 이어폰 및 우측 이어폰에 지시한다. 헤드셋은 장면 검출을 수행한 후에 검출 결과를 단말 디바이스로 송신하여, 단말 디바이스는 타깃 모드가 마지막으로 이용될 때에 이용된 프로세싱 세기를 타깃 프로세싱 세기로서 획득하고, 제어 시그널링 4를 좌측 이어폰 및 우측 이어폰으로 별도로 송신하고, 여기서, 제어 시그널링 4는 타깃 프로세싱 세기를 지시한다.
방식 3: 헤드셋은 식별된 장면에 기초하여 타깃 프로세싱 세기를 결정한다.
헤드셋은 장면을 식별한 후의 식별된 장면에 기초하여 타깃 프로세싱 세기를 결정할 수 있다.
예에서, 상이한 장면에서 결정된 프로세싱 모드는 동일하지만, 상이한 장면은 상이한 프로세싱 세기에 대응한다. 예를 들어, HT 모드는 다음의 장면: 걷는 장면, 달리는 장면, 및 조용한 장면의 각각에 적용가능하다. 걷는 장면, 달리는 장면, 및 조용한 장면은 HT 모드가 이용될 때, 상이한 프로세싱 세기에 대응한다. 또 다른 예를 들어, ANC 모드는 다음의 장면: 다수 사람이 말하는 장면, 카페 장면, 열차 장면, 비행기 장면, 강한 바람 장면, 및 사무실 장면의 각각에 적용가능하다. 다수 사람이 말하는 장면, 카페 장면, 열차 장면, 비행기 장면, 강한 바람 장면, 및 사무실 장면은 ANC 모드가 이용될 때, 상이한 프로세싱 세기에 대응한다. 또 다른 예를 들어, AH 모드는 다음의 장면: 대화 장면, 경고음 장면, 경적음 장면, 및 우는 음 장면의 각각에 적용가능하다. 대화 장면, 경고음 장면, 경적음 장면, 및 우는 음 장면은 AH 모드가 이용될 때, 상이한 프로세싱 세기에 대응한다.
이것을 기반으로 하여, 좌측 이어폰 및 우측 이어폰은 장면 유형, 타깃 모드, 및 프로세싱 세기 사이의 저장된 대응관계에 기초하여, 검출된 장면에 대응하는 타깃 모드, 및 타깃 모드에서의 타깃 프로세싱 세기를 결정한다. 이 경우에, 좌측 이어폰 및 우측 이어폰은 타깃 프로세싱 세기에 대응하는 필터링 계수를 획득한다. 예를 들어, 타깃 모드는 AH이다. FF 필터링 계수, FB 필터링 계수, 및 HT 필터링 계수는 타깃 프로세싱 세기에 기초하여 결정되고, S801 내지 S807은 FF 필터링 계수, FB 필터링 계수, 및 HT 필터링 계수에 기초하여 수행된다.
또 다른 예에서, 상이한 장면에서는, 헤드셋이 타깃 이벤트(또는 타깃 이벤트 장면으로서 지칭됨)를 결정하기 위하여 긴급-이벤트 검출을 추가로 수행할 수 있다. 긴급 이벤트는 예를 들어, 다음의 이벤트: 바람 잡음 이벤트, 하울링 이벤트, 긴급 이벤트, 인간 음성 이벤트, 또는 긴급 이벤트 없음 중의 하나 이상을 포함한다. 상이한 이벤트는 상이한 프로세싱 세기에 대응한다. 헤드셋은 장면 검출 및 이벤트 검출을 수행한다. 타깃 모드에서, 상이한 이벤트는 상이한 필터링 계수에 대응한다. ANC는 예로서 이용된다. 상이한 이벤트는 상이한 FF 필터링 계수 및/또는 상이한 FB 필터링 계수에 대응한다. 예를 들어, ANC 모드에서, 좌측 이어폰 또는 우측 이어폰이 장면 및 이벤트 검출을 수행한 후에, 좌측 이어폰은 검출 결과에 기초하여 계수 라이브러리로부터 FF 필터링 계수 또는 FB 필터링 계수를 획득할 수 있고, 여기서, FF 필터링 계수 또는 FB 필터링 계수는 ANC 기능이 구현될 때에 검출된 이벤트에 대응한다. 계수 라이브러리는 프로세싱 모드, 이벤트, FF 필터링 계수, 및 FB 필터링 계수 사이의 맵핑 관계를 저장한다. 양호한 또는 열악한 ANC 프로세싱 효과는 FB 필터링 및/또는 FF 필터링에 주로 의존한다. 예를 들어, FF 필터의 필터링 계수는 검출된 장면에 기초하여 제어되고, FB 필터링 계수는 고정된 값이다. 또 다른 예를 들어, FB 필터의 필터링 계수는 검출된 장면에 기초하여 제어되고, FF 필터링 계수는 고정된 값이다. 또 다른 예를 들어, FF 필터링 계수 및 FB 필터링 계수는 검출된 장면에 기초하여 제어된다. 표 2는 이벤트가 하울링 이벤트, 바람 잡음 이벤트, 긴급 이벤트, 인간 음성 이벤트, 또는 긴급 이벤트 없음을 포함하는 예를 도시한다.
[표 2]
Figure pct00002
예를 들어, 헤드셋(200)은 외부 환경에서의 이벤트 음을 검출하고, 기준 마이크로폰에 의해 수집된 신호에 기초하여, 외부 환경에서의 이벤트 음에 대응하는 타깃 이벤트를 결정할 수 있다. 예를 들어, 기준 마이크로폰에 의해 수집된 신호가 사전설정된 스펙트럼을 갖는 신호를 포함할 경우에, 사전설정된 스펙트럼을 갖는 신호에 대응하는 이벤트가 결정된다. 예를 들어, 바람 잡음 이벤트에 대하여, 기준 마이크로폰에 의해 수집된 신호가 바람 잡음 신호를 포함할 경우에, 즉, 수집된 신호가 바람 잡음의 스펙트럼과 정합하는 신호를 포함할 경우에, 외부 환경에서의 검출된 이벤트 음에 대응하는 이벤트가 바람 잡음 이벤트인 것으로 결정된다. 기준 마이크로폰에 의해 수집된 신호가 사전설정된 스펙트럼을 갖는 신호를 포함하는 것으로 결정될 때, 스펙트럼 정합 방식이 이용될 수 있거나, 심층 신경망(deep neural networks, DNN) 정합 방식이 이용될 수 있다.
예를 들어, 헤드셋(200)은 다음의 방식으로, 기준 마이크로폰에 의해 수집된 신호에 기초하여, 도 15에서 도시된 바와 같이, 사용자가 현재 위치되어 있는 환경에서의 이벤트를 결정할 수 있다. 헤드셋(200)은 골 전도 센서를 더 포함한다. 골 전도 센서는 헤드셋 사용자의 골-전도된 신호를 수집하도록 구성된다. 사용자가 헤드셋(200)을 착용하고 음을 생성할 때, 예를 들어, 말하거나 노래할 때, 골 전도 센서는 골-전도된 신호를 획득하기 위하여, 골-전도된 신호를 수집하고, 즉, 사용자가 말할 때에 생성된 골막 진동 신호(periosteum vibration signal)를 수집한다.
좌측 이어폰 또는 우측 이어폰의 장면 검출 기능의 이네이블은 단말 디바이스(100)에 의해 제어될 수 있거나, 사용자에 의한 헤드셋 상에서의 조작, 예를 들어, 좌측 이어폰 또는 우측 이어폰을 탭하는 것을 수행함으로써 제어될 수 있다. 대안적으로, 헤드셋은 골 전도 센서를 포함하고, 치아 터치 음(tooth touch sound)은 사용자의 상부 및 하부 치아가 터치할 때에 생성되어, 골 전도 센서는 사용자의 상부 및 하부 치아가 터치할 때에 생성된 오디오 신호를 검출함으로써 장면 검출 기능을 이네이블한다.
S1501: 줄여서 신호 AA1인 필터링된 신호를 획득하기 위하여, 기준 마이크로폰에 의해 수집된 제3 신호 내의 골-전도된 신호를 필터링함.
단계(S1501)에서, 기준 마이크로폰에 의해 수집된 제3 신호는 헤드셋이 장면 검출 기능을 이네이블한 후에 기준 마이크로폰에 의해 수집된 신호이다.
골 전도 센서에 의해 수집된 골-전도된 신호의 에너지는, 사용자가 헤드셋을 착용한 상태에서 음을 생성하지 않을 때, 예를 들어, 말하거나 노래하지 않을 때에 작다는 것이 이해되어야 한다. 예를 들어, 골-전도된 신호의 에너지가 특정된 임계치 미만일 때, S1501은 수행될 필요가 없을 수 있고; 이 경우에, 신호 AA1은 제3 신호이다. 예에서, 헤드셋(200)은 골-전도된 신호의 에너지를 먼저 결정할 수 있다. 골-전도된 신호의 에너지가 특정된 임계치 미만일 경우에, 필터링 동작, 즉, S1501은 수행되지 않는다. 골-전도된 신호의 에너지가 특정된 임계치 이상인 것으로 결정될 때, S1501이 수행된다.
S1502: 필터링된 신호의 에너지 특징을 획득하기 위하여 필터링된 신호에 대해 스펙트럼 분석을 수행함.
즉, 헤드셋(200)은 신호 AA1의 에너지 특징을 획득하기 위하여 신호 AA1에 대해 스펙트럼 분석을 수행한다. 예를 들어, 헤드셋(200)은 신호 AA1의 전체 프레임의 에너지 및 신호 AA1의 각각의 바크 서브대역의 에너지를 획득하기 위하여 신호에 대해 스펙트럼 분석을 수행하여, 벡터(vector)에 의해 표현되는 신호 AA1의 에너지 특징을 구성한다.
S1503: 필터링된 신호의 에너지 특징과 정합하고 에너지 특징 세트 내에 포함된 에너지 특징 내에 있는 제1 에너지 특징을 결정하고, 여기서, 에너지 특징 세트 내에 포함된 상이한 에너지 특징은 상이한 이벤트 식별자에 대응함.
S1504: 제1 에너지 특징에 대응하는 이벤트 식별자에 의해 식별된 이벤트가 사용자가 현재 위치되어 있는 환경에서의 이벤트, 즉, 이벤트 검출의 검출 결과인 것으로 결정함.
예에서, 에너지 특징 세트는 다음의 방식: 바람 잡음 신호, 버스트-잡음 신호(burst-noise signal), 및 하울링 신호를 획득하기 위하여, 제1 마이크로폰, 제2 마이크로폰, 및 제3 마이크로폰에 의해 수집된 신호에 대해 바람 잡음 검출, 버스트-잡음 검출, 하울링 검출, 및 인간 음성 검출을 수행하고; 바람 잡음 신호의 서브대역 에너지 특징, 버스트-잡음 신호의 서브대역 에너지 특징, 하울링 신호의 서브대역 에너지 특징, 및 인간 음성 신호의 서브대역 에너지 특징을 획득하기 위하여, 바람-잡음 신호, 버스트-잡음 신호, 하울링 신호, 및 인간 음성 신호에 대해 스펙트럼 분석을 별도로 수행하고; 바람 잡음 신호의 서브대역 에너지 특징, 버스트-잡음 신호의 서브대역 에너지 특징, 하울링 신호의 서브대역 에너지 특징, 및 인간 음성 신호의 서브대역 에너지 특징에 의해 에너지 특징 세트를 구성하는 방식으로 생성될 수 있다. 조용한 장면에서, 잡음의 서브대역의 에너지는 약하다는 것이 이해되어야 한다.
임의적으로, 필터링된 신호의 에너지 특징과 정합하고 에너지 특징 세트 내에 포함된 에너지 특징 내에 있는 제1 에너지 특징이 결정될 때, 스펙트럼 정합 방식이 이용될 수 있거나, 심층 신경망(deep neural networks, DNN) 정합 방식이 이용될 수 있다. 예를 들어, DNN 정합 방식이 수집될 때, 필터링된 신호의 에너지 특징과 에너지 특징 세트 내에 포함된 각각의 에너지 특징 사이의 정합의 정도는 DNN을 이용함으로써 결정될 수 있고, 최고 정합 정도로 제1 에너지 특징에 대응하는 이벤트 식별자에 의해 식별된 이벤트는 검출 결과이다.
이 출원의 이 실시예에서, 헤드셋(200) 내의 주 제어 유닛은 기준 마이크로폰에 의해 수집된 신호에 기초하여, 사용자가 현재 위치되어 있는 환경에서의 이벤트를 결정할 수 있다. 예를 들어, 주 제어 유닛은 DSP를 포함하고, DSP는 S1501 내지 S1504를 수행하도록 구성된다.
방식 4: 사용자는 타깃 모드에서 이용된 프로세싱 세기를, 단말 디바이스에 의해 제공된 UI 제어부를 이용함으로써 헤드셋에 지시한다.
예에서, 장면 검출을 수행한 후에, 헤드셋은 검출 결과를 단말 디바이스로 송신하고, 단말 디바이스는 검출 결과를 사용자에게 디스플레이한다. 검출 결과는 단말 디바이스의 디스플레이 인터페이스 상에 디스플레이되고, 검출 결과는 헤드셋에 의해 검출된 장면, 및 검출된 장면에 대응하는 타깃 모드를 포함한다. 디스플레이 인터페이스는 프로세싱 세기를 선택하기 위한 제어부를 더 포함한다. 설명의 용이함을 위하여, 프로세싱 세기를 선택하기 위한 제어부는 세기 제어부로서 지칭된다. 세기 제어부는 제어부 1 및 제어부 2를 포함할 수 있다. 제어부 1의 상이한 포지션은 타깃 모드에서의 상이한 프로세싱 세기를 지시한다. 세기 제어부는 링 형상 또는 바 형상 등일 수 있다. 도 16은 세기 제어부가 링-형상인 예를 도시한다. 사용자가 제어부 1의 포지션 2로 이동하도록 제어부 2를 터치하여 제어하는 것에 응답하여, 포지션 2는, 타깃 모드 내에 있고 사용자에 의해 선택되는 타깃 프로세싱 세기를 나타낸다. 제어 명령 5는 좌측 이어폰 및 우측 이어폰으로 송신되고, 여기서, 제어 명령 5는 포지션 2에 대응하는 타깃 프로세싱 세기를 지시한다. 도 16은 타깃 모드가 HT인 예를 도시한다.
예에서, 단말 디바이스(100)는 사용자에 의해 헤드셋의 장면 검출 기능을 이네이블하는 것에 응답하여 제어 시그널링 3을 헤드셋(200)으로 송신하고, 여기서, 제어 시그널링 3은 장면 검출 기능을 이네이블하도록 헤드셋에 지시한다. 헤드셋(200)은 검출 결과를 획득하기 위하여, 제어 시그널링 3에 기초하여 장면 검출을 수행하기 시작한다. 헤드셋(200)은 검출 결과를 단말 디바이스(100)로 송신할 수 있어서, 단말 디바이스(100)는 검출 결과를 사용자에게 디스플레이하고, 검출된 장면에 대응하고 헤드셋을 위하여 이용될 필요가 있는 프로세싱 모드를 사용자에게 디스플레이한다.
추가로, 사용자가 헤드셋 장면 검출 기능을 이네이블한 후에, 프로세싱 모드가 수동적으로 선택되는 인터페이스는 또 다른 인터페이스로 업데이트될 수 있거나, 검출 결과는 프로세싱 기능이 수동적으로 선택되는 인터페이스 상에서 디스플레이될 수 있다.
예를 들어, 사용자가 헤드셋 장면 검출 기능을 이네이블하기 전에, 단말 디바이스 상에서 사용자에 의해 선택된 프로세싱 기능은 HT 기능이다. 헤드셋 장면 검출 기능이 이네이블된 후에, 헤드셋(200)은 사용자가 현재 위치되어 있는 장면이 비행기 장면이고 ANC 기능이 이용되기에 적당한 것으로 식별하고, 검출 결과, 즉, 비행기 장면 및 ANC 기능을 단말 디바이스로 송신한다. 예에서, 사용자는 헤드셋 애플리케이션을 시작시키고, 디스플레이 상에 헤드셋 애플리케이션의 제어 인터페이스를 디스플레이한다. 링이 예로서 이용된다. 사용자에 의해 선택된 프로세싱 기능은 도 17a의 (a)에서 도시된 바와 같이, HT 기능이다. 제어 인터페이스는 헤드셋 장면 검출 기능을 이네이블할 것인지 여부를 지시하는 옵션 제어부를 포함한다. 사용자가 헤드셋 장면 검출 기능을 이네이블하기 위한 옵션 제어부를 트리거링한 후에, 단말 디바이스는 헤드셋 장면 검출 기능을 트리거링하고, 제어 시그널링 3을 헤드셋(200)으로 송신한다. 제어 시그널링 3은 장면 검출 기능을 이네이블하도록 헤드셋에 지시한다. 헤드셋(200)은 검출 결과를 획득하기 위하여, 제어 시그널링 3에 기초하여 장면 검출을 수행하기 시작한다. 헤드셋(200)은 검출 결과를 단말 디바이스(100)로 송신한다. 검출 결과를 수신한 후에, 단말 디바이스(100)는, 프로세싱 기능을 위한 제어부에 대한 것이며 사용자 선택을 나타내는 포지션을 ANC 기능 영역으로 변화시킨다. 사용자는 예를 들어, 도 17a의 (b)에서 도시된 바와 같이, ANC 모드에서의 프로세싱 세기를 선택하기 위하여 링 상의 흑색 도트의 포지션을 이동시킨다. 도 17a의 (b)는 비행기 장면이 검출되는 예를 도시한다.
또 다른 예에서, 사용자는 헤드셋 애플리케이션을 시작시키고, 디스플레이 상에 헤드셋 애플리케이션의 제어 인터페이스를 디스플레이한다. 링이 예로서 이용된다. 사용자에 의해 선택된 프로세싱 기능은 도 17b의 (a)에서 도시된 바와 같이, HT 기능이다. 제어 인터페이스는 헤드셋 장면 검출 기능을 이네이블할 것인지 여부를 지시하는 옵션 제어부를 포함한다. 사용자가 헤드셋 장면 검출 기능을 이네이블하기 위한 옵션 제어부를 트리거링한 후에, 단말 디바이스는 헤드셋 장면 검출 기능을 트리거링하고, 제어 시그널링 3을 헤드셋(200)으로 송신한다. 제어 시그널링 3은 장면 검출 기능을 이네이블하도록 헤드셋에 지시한다. 헤드셋(200)은 검출 결과를 획득하기 위하여, 제어 시그널링 3에 기초하여 장면 검출을 수행하기 시작한다. 헤드셋(200)은 검출 결과를 단말 디바이스(100)로 송신한다. 단말 디바이스(100)는 검출 결과를 수신한 후에, 검출 결과 인터페이스 상에 검출 결과를 디스플레이한다. 검출 인터페이스는 헤드셋에 의해 식별될 수 있는 장면, 및 장면에 대응하는 프로세싱 모드를 더 포함할 수 있다. 사용자는 ANC 모드에서의 프로세싱 세기를 선택하기 위하여 링 상의 흑색 도트의 포지션을 이동시킨다. 예를 들어, 도 17b의 (b)를 참조한다. 검출 결과는 비행기 장면이고, 대응하는 프로세싱 모드는 ANC 모드이다.
예를 들어, 헤드셋(200)이 장면을 검출할 때, 어떤 방식으로, 검출 분류는 인공 지능(artificial intelligence, AI) 모델을 이용함으로써 수행될 수 있다. AI 모델은 헤드셋에서 구성될 수 있다. 또 다른 방식으로, 장면 유형은 기준 마이크로폰에 의해 수집된 신호에 기초하여 결정될 수 있다. 예를 들어, 헤드셋(200)은 다음의 방식으로, 기준 마이크로폰에 의해 수집된 신호에 기초하여, 도 18에서 도시된 바와 같이, 사용자가 현재 위치되어 있는 장면을 결정할 수 있다.
S1801: 기준 마이크로폰에 의해 수집된 제1 신호에 대해 스펙트럼 분석을 수행하고, 제1 신호를 복수의 서브대역으로 분할하고, 각각의 서브대역의 에너지를 계산함. 예를 들어, 기준 마이크로폰에 의해 수집된 제1 정보는 바크 서브대역 분할 방법에 따라 주파수 도메인에서 서브대역으로 분할되고, 각각의 서브대역의 에너지가 계산된다.
S1802: 제1 신호 내의 잡음 섹션을 획득하고 잡음 섹션 내의 각각의 서브대역의 평활한 에너지를 획득하기 위하여 VAD를 결정함.
예에서, VAD 결정 방식은 다음과 같다:
교차-상관 계수(cross-correlation coefficient) A를 획득하기 위하여 기준 마이크로폰의 신호와 호출 마이크로폰의 신호 사이의 교차-상관을 계산하는 것;
기준 마이크로폰의 자동상관 계수(autocorrelation coefficient) B를 계산하는 것; 및
A < 알파(alpha)(제1 임계치) 및 B < 베타(beta)(제2 임계치)일 때, VAD에 대응하는 신호 섹션이 잡음 세그먼트인 것으로 결정하고; 이와 다를 경우에, VAD에 대응하는 신호 섹션이 스피치 세그먼트인 것으로 결정하는 것.
S1803: 잡음 섹션 내의 각각의 서브대역의 평활한 에너지에 기초하여 장면 유형을 결정함.
예에서는, 조용한 장면, 저-주파수 과도한-잡음 장면, 및 인간 음성 장면을 결정하는 것이 예로서 이용된다. 다음의 프로세싱은 장면 유형을 결정하기 위하여 결정된 잡음 섹션에 대해 수행된다:
(1) 잡음 섹션 애의 50 Hz 내지 1 kHz 서브대역의 평균 에너지 값 C, 1 내지 2 kHz 서브대역의 평균 에너지 값 D, 및 2 내지 3 kHz 서브대역의 평균 에너지 값 E를 계산하고; C/D/E가 N개의 연속 프레임에 대하여 임계치 감마(gama) 미만일 경우에, 장면 유형을 조용한 장면으로서 결정함.
(2) a = D/C일 때, a가 임계치 t 미만이고, C 및 D의 둘 모두가 임계치 k 초과이고, M개의 연속 프레임이 a가 임계치 t 미만이고 C 및 D의 둘 모두가 임계치 k 초과인 것을 충족시킬 경우에, 장면 유형을 저-주파수 과도한-잡음 장면으로서 결정함.
(3) a가 임계치 k 초과이고 P개의 연속 프레임이 잡음 프레임이 아닐 경우에, 장면 유형을 인간 음성(또는 음악) 장면으로서 결정함.
예 5: 헤드셋은 프로세싱 모드를 결정한 후에, 프로세싱 모드에서 이벤트 검출을 수행한다. 프로세싱 모드에서, 상이한 이벤트는 상이한 필터링 계수(즉, 프로세싱 모드에서의 프로세싱 세기)에 대응한다.
헤드셋은 사용자의 조작을 식별하고, 사용자에 의해 의해 선택된 헤드셋(200)이 ANC 프로세싱, HT 프로세싱, 또는 AH 프로세싱을 구현할 필요가 있는 것으로 결정한다. 예를 들어, 헤드셋(200)을 위하여 이용된 프로세싱 모드는 ANC 모드이다. 가능한 방식으로, 사용자의 조작은 사용자에 의해 헤드셋을 탭하는 조작일 수 있고, 상이한 조작에 기초하여, 프로세싱 모드가 ANC 모드, HT 모드, 또는 AH 모드인 것으로 결정된다. 또 다른 가능한 방식으로, 버튼은 헤드셋 상에 배치되고, 상이한 버튼은 상이한 프로세싱 모드를 지시한다. 사용자는 헤드셋을 위하여 이용된 프로세싱 모드를 선택하기 위하여 버튼을 누른다. 예를 들어, 헤드셋(200)이, ANC 모드에 대한 것이며 사용자에 의해 트리거링되는 조작 명령을 수신한 후에, 좌측 이어폰 및 우측 이어폰은 ANC 프로세싱을 수행하고, 구체적으로, S501 내지 S504를 수행한다. 또 다른 가능한 방식으로, 헤드셋에 의해 구현될 필요가 있는 프로세싱 모드의 선택은 단말 디바이스(100)에 의해 제어된다.
좌측 이어폰 또는 우측 이어폰은 이벤트 검출 기능을 가질 수 있다. 예에서, 좌측 이어폰 및 우측 이어폰 중의 하나는 장면 검출을 수행하도록 구성된다. 예를 들어, 좌측 이어폰은 이벤트 검출을 수행하고 검출 결과를 우측 이어폰으로 송신하거나, 우측 이어폰은 이벤트 검출을 수행하고 검출 결과를 좌측 이어폰으로 송신한다. ANC 모드에서, 상이한 이벤트는 상이한 FF 필터링 계수 및 상이한 FB 필터링 계수에 대응한다. 예를 들어, 좌측 이어폰 또는 우측 이어폰이 이벤트 검출을 수행한 후에, 좌측 이어폰은 검출 결과에 기초하여 계수 라이브러리로부터 FF 필터링 계수 또는 FB 필터링 계수를 획득할 수 있고, 여기서, FF 필터링 계수 또는 FB 필터링 계수는 ANC 모드에서의 검출된 이벤트에 대응한다. 예를 들어, 표 2에서 도시된 계수 라이브러리 내에 포함된 내용을 참조한다. 예를 들어, 이벤트는 하울링 이벤트, 바람 잡음 이벤트, 긴급 이벤트, 또는 인간 음성 이벤트를 포함한다.
상기한 방법 실시예에서의 기능을 수행하기 위하여, 헤드셋은 기능을 수행하기 위한 대응하는 하드웨어 구조 및/또는 소프트웨어 모듈을 포함한다는 것이 이해될 수 있다. 본 기술분야에서의 통상의 기술자는 이 출원에서 개시된 실시예에서 설명된 예에서의 모듈 및 방법 단계를 참조하여, 이 출원이 하드웨어, 또는 하드웨어 및 컴퓨터 소프트웨어의 조합에 의해 구현될 수 있다는 것을 용이하게 인지해야 한다. 기능이 하드웨어, 또는 컴퓨터 소프트웨어에 의해 구동된 하드웨어에 의해 수행되는지 여부는 기술적 해결책의 특정한 애플리케이션 시나리오 및 설계 제약에 종속된다.
상기한 방법과 동일한 발명적 사상에 기초하여, 도 19에서 도시된 바와 같이, 이 출원의 실시예는 잡음 프로세싱 장치(1900)를 추가로 제공한다. 잡음 프로세싱 장치(1900)는 헤드셋에서 이용된다. 헤드셋은 다음의 기능: ANC 기능, HT 기능, 또는 AH 기능 중의 적어도 2개를 가진다. 헤드셋은 제1 마이크로폰 및 제2 마이크로폰을 포함한다. 제1 마이크로폰은 제1 신호를 수집하도록 구성되고, 여기서, 제1 신호는 현재의 외부 환경에서의 음을 나타내기 위하여 이용된다. 제2 마이크로폰은 제2 신호를 수집하도록 구성되고, 여기서, 제2 신호는 헤드셋을 착용하는 사용자의 외이도에서의 주변 음을 나타내기 위하여 이용된다. 잡음 프로세싱 장치(1900)는 상기한 방법 실시예에서 헤드셋의 기능을 수행하도록 구성될 수 있고, 그러므로, 상기한 방법 실시예의 유익한 효과를 달성할 수 있다. 장치는 통신 모듈(1901), 획득 모듈(1902), 및 제1 프로세싱 모듈(1903)을 포함할 수 있다.
통신 모듈(1901)은 단말 디바이스로부터 제1 오디오 신호를 수신하도록 구성된다.
획득 모듈(1902)은 타깃 모드를 획득하도록 구성된다. 타깃 모드는 현재의 외부 환경의 장면 유형(scene type)에 기초하여 결정되고, 타깃 모드는 타깃 프로세싱 기능을 수행하도록 헤드셋에 지시하고, 타깃 프로세싱 기능은 다음의 기능: 능동 잡음 제어(ANC) 기능, 주변 음 히어-스루(HT) 기능, 또는 증강된 청취(AH) 기능 중의 하나이다.
제1 프로세싱 모듈(1903)은 타깃 모드, 제1 오디오 신호, 제1 신호, 및 제2 신호에 기초하여 제2 오디오 신호를 획득하도록 구성된다.
가능한 구현예에서, 장치는 제2 오디오 신호를 플레이하도록 구성된 플레이 모듈을 더 포함한다. 플레이 모듈은 도 19에서 도시되지 않는다.
가능한 구현예에서, 타깃 프로세싱 기능은 ANC 기능이고, 플레이 모듈에 의해 플레이된 제2 오디오 신호는 사용자가 현재 위치되어 있는 환경에서의 음, 및 사용자의 외이도에서의 주변 음에 대해 사용자의 지각을 약화할 수 있다.
대안적으로, 타깃 프로세싱 기능은 HT 기능이고, 플레이 모듈에 의해 플레이된 제2 오디오 신호는 사용자가 현재 위치되어 있는 환경에서의 음에 대해 사용자의 지각을 강화시킬 수 있다.
대안적으로, 타깃 프로세싱 기능은 AH 기능이고, 플레이 모듈에 의해 플레이된 제2 오디오 신호는 이벤트 음에 대해 사용자의 지각을 강화시킬 수 있고, 이벤트 음은 사전설정된 스펙트럼을 충족시킨다.
가능한 구현예에서, 타깃 프로세싱 기능이 ANC 기능일 때, 제2 오디오 신호는 제1 오디오 신호, 제3 신호, 및 제4 신호에 기초하여 획득되고, 여기서, 제3 신호는 제1 신호의 역위상 신호이고, 제4 신호는 제2 신호의 역위상 신호이거나;
타깃 프로세싱 기능이 HT 기능일 때, 제2 오디오 신호는 제1 오디오 신호, 제1 신호, 및 제2 신호에 기초하여 획득되거나;
타깃 프로세싱 기능이 AH 기능일 때, 제2 오디오 신호는 제1 오디오 신호, 제5 신호, 및 제4 신호에 기초하여 획득되고, 여기서, 제5 신호는 제1 신호 내의 이벤트 신호이고, 이벤트 신호는 사전설정된 스펙트럼을 충족시킨다.
가능한 구현예에서, 통신 모듈(1901)은 단말 디바이스로부터 제1 제어 명령을 수신하고 - 제1 제어 명령은 타깃 모드를 운반하고, 타깃 모드는 현재의 외부 환경의 장면 유형에 기초하여 단말 디바이스에 의해 결정됨 -;
타깃 모드를 획득 모듈(1902)로 송신하도록 추가로 구성된다.
가능한 구현예에서, 통신 모듈(1901)은:
단말 디바이스로부터 제2 제어 명령을 수신하도록 추가로 구성되고, 여기서, 제2 제어 명령은 타깃 프로세싱 세기를 운반하고, 타깃 프로세싱 세기는 헤드셋이 타깃 프로세싱 기능을 수행하는 프로세싱 세기를 지시한다.
제1 프로세싱 모듈(1903)은:
타깃 모드, 타깃 프로세싱 세기, 제1 오디오 신호, 제1 신호, 및 제2 신호에 기초하여 제2 오디오 신호를 획득하도록 구체적으로 구성된다.
가능한 구현예에서, 장치는:
제1 신호에 기초하여, 현재의 외부 환경 내의 이벤트 음에 대응하는 타깃 이벤트를 결정하고, 타깃 이벤트에 기초하여, 타깃 모드에서의 타깃 프로세싱 세기를 결정하도록 - 타깃 프로세싱 세기는 헤드셋이 타깃 프로세싱 기능을 수행하는 프로세싱 세기를 지시함 - 구성된 제2 프로세싱 모듈(1904)을 더 포함한다.
제1 프로세싱 모듈(1903)은:
타깃 모드, 타깃 프로세싱 세기, 제1 오디오 신호, 제1 신호, 및 제2 신호에 기초하여 제2 오디오 신호를 획득하도록 구체적으로 구성된다.
가능한 구현예에서, 헤드셋은 골 전도 센서를 더 포함하고, 골 전도 센서는 사용자의 성대가 진동할 때에 생성된 골-전도된 신호를 수집하도록 구성된다.
제1 프로세싱 모듈(1901)은 제1 신호 및 골-전도된 신호에 기초하여, 현재의 외부 환경에서의 이벤트 음에 대응하는 타깃 이벤트를 결정하도록 구체적으로 구성된다.
가능한 구현예에서, 타깃 이벤트는 다음의 이벤트: 하울링 이벤트, 바람 잡음 이벤트, 긴급 이벤트, 또는 인간 음성 이벤트 중의 하나를 포함한다.
가능한 구현예에서, 장치는,
제1 신호에 기초하여, 현재의 외부 환경의 장면 유형이 타깃 장면인 것으로 식별하고; 타깃 장면에 기초하여, 헤드셋에 의해 이용된 타깃 모드를 결정하도록 - 타깃 모드는 타깃 장면에 대응하는 프로세싱 모드임 - 구성된 제3 프로세싱 모듈(1905)을 더 포함한다.
가능한 구현예에서, 타깃 장면은 다음의 장면: 걷는 장면, 달리는 장면, 조용한 장면, 다수 사람이 말하는 장면, 카페 장면, 지하철 장면, 열차 장면, 대기실 장면, 대화 장면, 사무실 장면, 실외 장면, 운전 장면, 강한 바람 장면, 비행기 장면, 경보음 장면, 경적음 장면, 또는 우는 음 장면 중의 하나를 포함한다.
가능한 구현예에서, 통신 모듈(1901)은 지시 정보를 단말 디바이스로 송신하고 - 지시 정보는 타깃 모드를 운반함 -;
단말 디바이스로부터 제3 제어 시그널링을 수신하도록 - 제3 제어 시그널링은 타깃 모드에서의 타깃 프로세싱 세기를 포함하고, 타깃 프로세싱 세기는 헤드셋이 타깃 프로세싱 기능을 수행하는 프로세싱 세기를 지시함 - 추가로 구성된다.
제1 프로세싱 모듈(1903)은:
타깃 모드, 타깃 프로세싱 세기, 제1 오디오 신호, 제1 신호, 및 제2 신호에 기초하여 제2 오디오 신호를 획득하도록 구체적으로 구성된다.
가능한 구현예에서, 타깃 프로세싱 기능이 ANC 기능일 때, 더 큰 타깃 프로세싱 세기는 사용자의 외이도에서의 더 약한 주변 음, 및 사용자에 의해 지각되고, 사용자가 현재 위치되어 있는 환경 내에 있는 더 약한 음을 지시하거나;
타깃 프로세싱 기능이 HT 기능일 때, 더 큰 타깃 프로세싱 세기는, 사용자에 의해 지각되고, 사용자가 현재 위치되어 있는 환경 내에 있는 음의 더 큰 세기를 지시하거나;
타깃 프로세싱 기능이 AH 기능일 때, 더 높은 타깃 프로세싱 세기는, 사용자에 의해 지각되고, 사용자가 현재 위치되어 있는 환경 내에 있는 음 내에 포함된 더 강한 이벤트 음을 지시한다.
가능한 구현예에서, 헤드셋은 좌측 이어폰이거나, 헤드셋은 우측 이어폰이다.
가능한 구현예에서, 타깃 모드는 ANC 기능을 수행하도록 헤드셋에 지시한다. 제1 프로세싱 모듈(1903)은:
제1 필터링 신호를 획득하기 위하여 제1 신호에 대해 제1 필터링 프로세싱을 수행하고;
제1 필터링된 신호를 획득하기 위하여 제2 신호 내에 포함된 제1 오디오 신호를 필터링하고;
제3 오디오 신호를 획득하기 위하여 제1 필터링 신호 및 필터링된 신호에 대해 혼합 프로세싱을 수행하고;
제4 오디오 신호를 획득하기 위하여 제3 오디오 신호에 대해 제3 필터링 프로세싱을 수행하고;
제2 오디오 신호를 획득하기 위하여 제4 오디오 신호 및 제1 오디오 신호에 대해 혼합 프로세싱을 수행하도록 구체적으로 구성된다.
가능한 구현예에서, 제1 필터링 프로세싱을 위하여 이용된 필터링 계수는 ANC 기능의 경우에 제1 필터링 프로세싱을 위한 타깃 프로세싱 세기와 연관된 필터링 계수이거나;
제3 필터링 프로세싱을 위하여 이용된 필터링 계수는 ANC 기능의 경우에 제3 필터링 프로세싱을 위한 타깃 프로세싱 세기와 연관된 필터링 계수이다.
가능한 구현예에서, 타깃 모드는 HT 기능을 수행하도록 헤드셋에 지시한다. 제1 프로세싱 모듈(1903)은:
제1 프로세싱된 신호를 획득하기 위하여 제1 신호에 대해 제1 신호 프로세싱을 수행하고 - 제1 신호 프로세싱은 제2 필터링 프로세싱을 포함함 -;
제5 오디오 신호를 획득하기 위하여 제1 프로세싱된 신호 및 제1 오디오 신호에 대해 혼합 프로세싱을 수행하고;
제2 필터링된 신호를 획득하기 위하여 제2 신호 내에 포함된 제5 오디오 신호에 대해 필터링을 수행하고;
제3 필터링된 신호를 획득하기 위하여 제2 필터링된 신호에 대해 제3 필터링 프로세싱을 수행하고;
제2 오디오 신호를 획득하기 위하여 제3 필터링된 신호 및 제5 오디오 신호에 대해 혼합 프로세싱을 수행하도록 구체적으로 구성된다.
가능한 구현예에서, 제2 필터링 프로세싱을 위하여 이용된 필터링 계수는 HT 기능의 경우에 제2 필터링 프로세싱을 위한 타깃 프로세싱 세기와 연관된 필터링 계수이거나;
제3 필터링 프로세싱을 위하여 이용된 필터링 계수는 HT 기능의 경우에 제3 필터링 프로세싱을 위한 타깃 프로세싱 세기와 연관된 필터링 계수이다.
가능한 구현예에서, 타깃 모드는 AH 기능을 수행하도록 헤드셋에 지시한다. 제1 프로세싱 모듈(1903)은:
제2 필터링 신호를 획득하기 위하여 제1 신호에 대해 제2 필터링 프로세싱을 수행하고, 필터링 강화된 신호를 획득하기 위하여 제2 필터링 신호에 대해 강화 프로세싱을 수행하고;
제1 필터링 신호를 획득하기 위하여 제1 신호에 대해 제1 필터링 프로세싱을 수행하고;
제6 오디오 신호를 획득하기 위하여 필터링 강화된 신호 및 제1 오디오 신호에 대해 혼합 프로세싱을 수행하고;
제4 필터링된 신호를 획득하기 위하여 제2 신호 내에 포함된 제6 오디오 신호에 대해 필터링을 수행하고;
제5 필터링된 신호를 획득하기 위하여 제4 필터링된 신호에 대해 제3 필터링 프로세싱을 수행하고;
제2 오디오 신호를 획득하기 위하여 제5 필터링된 신호, 제6 오디오 신호, 및 제1 필터링 신호에 대해 혼합 프로세싱을 수행하도록 구체적으로 구성된다.
가능한 구현예에서, 제1 필터링 프로세싱을 위하여 이용된 필터링 계수는 AH 기능의 경우에 제1 필터링 프로세싱을 위한 타깃 프로세싱 세기와 연관된 필터링 계수이거나;
제2 필터링 프로세싱을 위하여 이용된 필터링 계수는 AH 기능의 경우에 제2 필터링 프로세싱을 위한 타깃 프로세싱 세기와 연관된 필터링 계수이거나;
제3 필터링 프로세싱을 위하여 이용된 필터링 계수는 AH 기능의 경우에 제3 필터링 프로세싱을 위한 타깃 프로세싱 세기와 연관된 필터링 계수이다.
상기한 방법 실시예에서의 기능을 수행하기 위하여, 단말 디바이스는 기능을 수행하기 위한 대응하는 하드웨어 구조 및/또는 소프트웨어 모듈을 포함한다는 것이 이해될 수 있다. 본 기술분야에서의 통상의 기술자는 이 출원에서 개시된 실시예에서 설명된 예에서의 모듈 및 방법 단계를 참조하여, 이 출원이 하드웨어, 또는 하드웨어 및 컴퓨터 소프트웨어의 조합에 의해 구현될 수 있다는 것을 용이하게 인지해야 한다. 기능이 하드웨어, 또는 컴퓨터 소프트웨어에 의해 구동된 하드웨어에 의해 수행되는지 여부는 기술적 해결책의 특정한 애플리케이션 시나리오 및 설계 제약에 종속된다.
상기한 방법과 동일한 발명적 사상에 기초하여, 도 20에서 도시된 바와 같이, 이 출원의 실시예는 모드 제어 장치(2000)를 추가로 제공한다. 모드 제어 장치(2000)는 단말 디바이스(100)에서 이용된다. 모드 제어 장치(2000)는 상기한 방법 실시예에서 단말 디바이스의 기능을 수행하도록 구성될 수 있고, 그러므로, 상기한 방법 실시예의 유익한 효과를 달성할 수 있다.
모드 제어 장치(2000)는 제1 검출 모듈(2001) 및 송신 모듈(2002)을 포함하고, 디스플레이 모듈(2003) 및 제2 검출 모듈(2004)을 더 포함할 수 있다.
제1 검출 모듈(2001)은 현재의 외부 환경의 장면 유형이 타깃 장면인 것으로 식별될 때, 타깃 장면에 기초하여 타깃 모드를 결정하도록 구성된다.
타깃 모드는 헤드셋에 의해 지원된 프로세싱 모드 중의 하나이고, 상이한 프로세싱 모드는 상이한 장면 유형에 대응하고, 헤드셋에 의해 지원된 프로세싱 모드는 다음의 모드: 능동 잡음 제어(ANC) 모드, 주변 음 히어-스루(HT) 모드, 또는 증강된 청취(AH) 모드 중의 적어도 2개를 포함한다.
송신 모듈(2002)은 타깃 모드를 헤드셋으로 송신하도록 구성되고, 여기서, 타깃 모드는 타깃 모드에 대응하는 프로세싱 기능을 수행하도록 헤드셋에 지시한다.
가능한 구현예에서:
디스플레이 모듈(2003)은 타깃 모드가 타깃 장면에 기초하여 결정될 때, 결과 프롬프트 정보를 디스플레이하도록 구성되고, 여기서, 결과 프롬프트 정보는 헤드셋이 타깃 모드에 대응하는 프로세싱 기능을 수행한다는 것을 사용자에게 프롬프트하기 위하여 이용된다는 것을 더 포함한다.
가능한 구현예에서, 디스플레이 모듈(2003)은 제1 제어 시그널링이 헤드셋으로 송신되기 전에, 선택 프롬프트 정보를 디스플레이하도록 구성되고, 여기서, 선택 프롬프트 정보는 헤드셋의 프로세싱 모드를 타깃 모드로 조절할 것인지 여부를 사용자에게 지시한다.
제2 검출 모듈(2004)은 사용자에 의해, 헤드셋의 프로세싱 모드를 타깃 모드로서 선택하는 조작을 검출하도록 구성된다.
가능한 구현예에서, 디스플레이 모듈(2003)은 제1 제어부 및 제2 제어부를 디스플레이하도록 추가로 구성되고, 여기서, 제1 제어부 상의 제2 제어부의 상이한 포지션은 타깃 모드에서의 상이한 프로세싱 세기를 지시한다.
제2 검출 모듈(2004)은, 송신 모듈(2002)이 제1 제어 시그널링을 헤드셋으로 송신하기 전에, 사용자에 의해 제1 제어부 상의 제1 포지션으로 이동하도록 제2 제어부를 터치하여 제어하는 조작을 검출하도록 추가로 구성되고, 여기서, 제1 제어부 상의 제2 제어부의 제1 포지션은 타깃 모드에서의 타깃 프로세싱 세기를 지시한다.
송신 모듈(2002)은 타깃 프로세싱 세기를 헤드셋으로 송신하도록 추가로 구성되고, 여기서, 타깃 프로세싱 세기는 헤드셋이 타깃 모드에 대응하는 프로세싱 기능을 수행하는 프로세싱 세기를 지시한다.
가능한 구현예에서, 제1 제어부는 링 형상이고; 사용자는 제1 제어부 상에서 시계 방향으로 이동하도록 제2 제어부를 터치하여 제어하고, 타깃 모드에서의 프로세싱 세기는 오름차순으로 변화하거나;
사용자는 제1 제어부 상에서 반시계 방향으로 이동하도록 제2 제어부를 터치하여 제어하고, 타깃 모드에서의 프로세싱 세기는 오름차순으로 변화한다.
가능한 구현예에서, 제1 제어부는 바 형상이고; 사용자는 제1 제어부 상에서 상부로부터 하부로 이동하도록 제2 제어부를 터치하여 제어하고, 타깃 모드에서의 프로세싱 세기는 오름차순으로 변화하거나;
사용자는 제1 제어부 상에서 하부로부터 상부로 이동하도록 제2 제어부를 터치하여 제어하고, 타깃 모드에서의 프로세싱 세기는 오름차순으로 변화하거나;
사용자는 제1 제어부 상에서 좌측으로부터 우측으로 이동하도록 제2 제어부를 터치하여 제어하고, 타깃 모드에서의 프로세싱 세기는 오름차순으로 변화하거나;
사용자는 제1 제어부 상에서 우측으로부터 좌측으로 이동하도록 제2 제어부를 터치하여 제어하고, 타깃 모드에서의 프로세싱 세기는 오름차순으로 변화한다.
가능한 구현예에서, 타깃 프로세싱 기능이 ANC 기능일 때, 더 큰 타깃 프로세싱 세기는 사용자의 외이도에서의 더 약한 주변 음, 및 사용자에 의해 지각되고, 사용자가 현재 위치되어 있는 환경 내에 있는 더 약한 음을 지시하거나;
타깃 프로세싱 기능이 HT 기능일 때, 더 큰 타깃 프로세싱 세기는, 사용자에 의해 지각되고, 사용자가 현재 위치되어 있는 환경 내에 있는 음의 더 큰 세기를 지시하거나;
타깃 프로세싱 기능이 AH 기능일 때, 더 높은 타깃 프로세싱 세기는, 사용자에 의해 지각되고, 사용자가 현재 위치되어 있는 환경 내에 있는 음 내에 포함된 더 강한 이벤트 음을 지시한다.
상기한 방법과 동일한 발명적 사상에 기초하여, 도 21에서 도시된 바와 같이, 이 출원의 실시예는 모드 제어 장치(2100)를 추가로 제공한다. 모드 제어 장치(2100)는 단말 디바이스(100)에서 이용된다. 모드 제어 장치(2100)는 상기한 방법 실시예에서 단말 디바이스의 기능을 수행하도록 구성될 수 있고, 그러므로, 상기한 방법 실시예의 유익한 효과를 달성할 수 있다. 모드 제어 장치(2100)는 프로세싱 모듈(2101), 송신 모듈(2102), 수신 모듈(2103), 디스플레이 모듈(2104), 및 검출 모듈(2105)을 포함한다.
프로세싱 모듈(2101)은 타깃 모드를 획득하도록 구성되고, 여기서, 타깃 모드는 헤드셋에 의해 지원된 프로세싱 모드 중의 하나이고, 헤드셋에 의해 지원된 프로세싱 모드는 다음의 모드: 능동 잡음 제어(ANC) 모드, 주변 음 히어-스루(HT) 모드, 또는 증강된 청취(AH) 모드 중의 적어도 2개를 포함한다.
프로세싱 모듈(2101)은 현재의 외부 환경의 장면 유형에 기초하여 타깃 모드에서의 타깃 프로세싱 세기를 결정하도록 추가로 구성되고, 여기서, 상이한 장면 유형은 타깃 모드에서의 상이한 프로세싱 세기에 대응한다.
송신 모듈(2102)은 타깃 프로세싱 세기를 헤드셋으로 송신하도록 구성되고, 여기서, 타깃 프로세싱 세기는 헤드셋이 타깃 모드에 대응하는 프로세싱 기능을 수행하는 프로세싱 세기를 지시한다.
가능한 구현예에서:
수신 모듈(2103)은 헤드셋에 의해 송신된 타깃 모드를 수신하도록 구성되는 것을 더 포함한다.
가능한 구현예에서:
디스플레이 모듈(2104)은 선택 제어부를 디스플레이하고 - 선택 제어부는 헤드셋에 의해 지원된 프로세싱 모드를 포함함 -; 선택 제어부를 이용함으로써, 사용자에 의해, 헤드셋의 프로세싱 모드로부터 타깃 모드를 선택하는 조작을 검출하도록 구성되는 것을 더 포함한다.
가능한 구현예에서, 디스플레이 모듈(2104)은:
프로세싱 모듈(2101)이 현재의 외부 환경의 장면 유형에 기초하여 타깃 모드에서의 타깃 프로세싱 세기를 결정하기 전에, 수신 모듈(2103)이 헤드셋에 의해 송신된 타깃 모드를 수신할 때, 선택 프롬프트 정보를 디스플레이하도록 - 선택 프롬프트 정보는 헤드셋의 프로세싱 모드를 타깃 모드로 조절할 것인지 여부를 사용자에게 지시함 - 추가로 구성되고;
검출 모듈(2105)은 사용자에 의해, 헤드셋의 프로세싱 모드를 타깃 모드로 조절하도록 선택하는 조작을 검출하도록 구성되는 것을 더 포함한다.
가능한 구현예에서, 타깃 프로세싱 기능이 ANC 기능일 때, 더 큰 타깃 프로세싱 세기는 사용자의 외이도에서의 더 약한 주변 음, 및 사용자에 의해 지각되고, 사용자가 현재 위치되어 있는 환경 내에 있는 더 약한 음을 지시하거나;
타깃 프로세싱 기능이 HT 기능일 때, 더 큰 타깃 프로세싱 세기는, 사용자에 의해 지각되고, 사용자가 현재 위치되어 있는 환경 내에 있는 음의 더 큰 세기를 지시하거나;
타깃 프로세싱 기능이 AH 기능일 때, 더 높은 타깃 프로세싱 세기는, 사용자에 의해 지각되고, 사용자가 현재 위치되어 있는 환경 내에 있는 음 내에 포함된 더 강한 이벤트 음을 지시한다.
상기한 방법과 동일한 발명적 사상에 기초하여, 도 22에서 도시된 바와 같이, 이 출원의 실시예는 모드 제어 장치(2200)를 추가로 제공한다. 모드 제어 장치(2200)는 단말 디바이스(100)에서 이용된다. 모드 제어 장치(2200)는 상기한 방법 실시예에서 단말 디바이스의 기능을 수행하도록 구성될 수 있고, 그러므로, 상기한 방법 실시예의 유익한 효과를 달성할 수 있다. 모드 제어 장치(2100)는 디스플레이 모듈(2201), 검출 모듈(2202), 송신 모듈(2203), 프로세싱 모듈(2204), 및 식별 모듈(2205)을 포함한다.
디스플레이 모듈(2201)은 제1 인터페이스 내에 제1 선택 제어부를 포함하도록 구성되고, 여기서, 제1 선택 제어부는 제1 타깃 이어폰에 의해 지원된 프로세싱 모드, 및 제1 타깃 이어폰에 의해 지원된 프로세싱 모드에 대응하는 프로세싱 세기를 포함하고; 제1 타깃 이어폰의 프로세싱 모드는 다음의 모드: 능동 잡음 제어(ANC) 모드, 주변 음 히어-스루(HT) 모드, 또는 증강된 청취(AH) 모드 중의 적어도 2개를 포함한다.
검출 모듈(2202)은 제1 인터페이스에서 사용자에 의해 수행된 제1 조작을 검출하도록 구성되고, 여기서, 제1 조작은 사용자가 제1 선택 제어부를 이용함으로써, 제1 타깃 이어폰에 의해 지원된 프로세싱 모드로부터 제1 타깃 모드를 선택하고, 제1 타깃 모드에서의 프로세싱 세기를 제1 타깃 프로세싱 세기로서 선택할 때에 생성된다.
송신 모듈(2203)은 제1 타깃 모드 및 제1 타깃 프로세싱 세기를 제1 타깃 이어폰으로 송신하도록 구성되고, 여기서, 제1 타깃 모드는 제1 타깃 모드에 대응하는 프로세싱 기능을 수행하도록 제1 타깃 이어폰에 지시하고, 제1 타깃 프로세싱 세기는 제1 타깃 이어폰이 제1 타깃 모드에 대응하는 프로세싱 기능을 수행하는 프로세싱 세기를 지시한다.
가능한 구현예에서, 디스플레이 모듈(2201)은 제1 인터페이스를 디스플레이하기 전에, 선택 프롬프트 정보를 디스플레이하도록 추가로 구성되고, 여기서, 선택 프롬프트 정보는 제1 타깃 이어폰의 프로세싱 모드를 조절할 것인지 여부를 선택하기 위하여 사용자에 의해 이용된다.
검출 모듈(2202)은 사용자에 의해, 제1 타깃 이어폰의 프로세싱 모드를 조절하도록 선택하는 조작을 검출하도록 추가로 구성된다.
가능한 구현예에서:
식별 모듈(2205)은 디스플레이 모듈(2201)이 제1 인터페이스를 디스플레이하기 전에, 현재의 외부 환경의 장면 유형이 타깃 장면인 것으로 식별하도록 - 타깃 장면은 제1 타깃 이어폰의 프로세싱 모드가 조절될 필요가 있는 장면 유형에 적응함 - 구성되는 것을 더 포함한다.
가능한 구현예에서:
식별 모듈(2205)은 디스플레이 모듈(2201)이 제1 인터페이스를 디스플레이하기 전에, 단말 디바이스가 오디오를 플레이하도록 제1 타깃 이어폰을 트리거링하는 것으로 식별하도록 구성되는 것을 더 포함한다.
가능한 구현예에서, 검출 모듈(2202)은 디스플레이 모듈이 제1 인터페이스를 디스플레이하기 전에, 단말 디바이스가 제1 타깃 이어폰에 대한 접속을 확립하는 것을 검출하도록 추가로 구성된다.
가능한 구현예에서, 디스플레이 모듈(2201)이 제1 인터페이스를 디스플레이하기 전에, 단말 디바이스가 제1 타깃 이어폰에 대한 접속을 확립하는 것을 검출할 때, 검출 모듈(2202)은 홈 스크린 상에서 사용자에 의해 수행된 제2 조작을 검출한다.
홈 스크린은 제1 애플리케이션의 아이콘을 포함하고, 제2 조작은 사용자가 제1 애플리케이션의 아이콘을 터치하여 제어할 때에 생성되고, 제1 인터페이스는 제1 애플리케이션의 디스플레이 인터페이스이다.
가능한 구현예에서, 제1 선택 제어부는 제1 제어부 및 제2 제어부를 포함하고, 제1 제어부 상의 제2 제어부의 임의의 2개의 상이한 포지션은 제1 타깃 이어폰의 2개의 상이한 프로세싱 모드를 지시하거나, 제1 제어부 상의 제2 제어부의 임의의 2개의 상이한 포지션은 동일한 프로세싱 모드에서의 제1 타깃 이어폰의 상이한 프로세싱 세기를 지시하고;
제1 조작은 사용자가 제2 제어부를, 제1 타깃 모드에 대응하고 제1 제어부 상에 있는 영역 내의 제1 포지션으로 이동시킬 때에 생성되고, 여기서, 제1 포지션은 제1 타깃 모드에서의 제1 타깃 프로세싱 세기에 대응한다.
가능한 구현예에서, 제1 제어부는 링 형상이고, 링은 적어도 2개의 아크 세그먼트를 포함하고, 제2 제어부는 제1 타깃 이어폰의 상이한 프로세싱 모드를 지시하기 위하여 상이한 아크 세그먼트 내에 위치되어 있거나, 제2 제어부는 동일한 프로세싱 모드에서의 제1 타깃 이어폰의 상이한 프로세싱 세기를 지시하기 위하여 동일한 아크 세그먼트의 상이한 포지션 내에 위치되어 있거나;
제1 제어부는 바 형상이고, 바는 적어도 2개의 바-형상 세그먼트를 포함하고, 제2 제어부는 제1 타깃 이어폰의 상이한 프로세싱 모드를 지시하기 위하여 상이한 바-형상 세그먼트 내에 위치되어 있거나, 제2 제어부는 동일한 프로세싱 모드에서의 제1 타깃 이어폰의 상이한 프로세싱 세기를 지시하기 위하여 동일한 바-형상 세그먼트의 상이한 포지션 내에 위치되어 있다.
가능한 구현예에서, 검출 모듈(2202)은 제1 인터페이스에서 사용자에 의해 수행된 제3 조작을 검출하도록 추가로 구성된다. 제1 인터페이스는 제2 선택 제어부를 더 포함하고; 제2 선택 제어부는 제2 타깃 이어폰에 의해 지원된 프로세싱 모드, 및 제2 타깃 이어폰에 의해 지원된 프로세싱 모드에 대응하는 프로세싱 세기를 포함하고; 제1 타깃 이어폰에 의해 지원된 프로세싱 모드는 다음의 모드: 능동 잡음 제어(ANC) 모드, 주변 음 히어-스루(HT) 모드, 또는 증강된 청취(AH) 모드 중의 적어도 2개를 포함하고; 제3 조작은 사용자가 제2 선택 제어부를 이용함으로써 제2 타깃 이어폰의 프로세싱 모드로부터 제2 타깃 모드를 선택하고, 제2 타깃 모드에서의 프로세싱 세기를 제2 타깃 프로세싱 세기로서 선택할 때에 생성되고; 제2 타깃 이어폰은 제1 타깃 이어폰이 좌측 이어폰일 때에 우측 이어폰이거나, 제1 타깃 이어폰은 우측 이어폰이고 제2 타깃 이어폰은 좌측 이어폰이다.
송신 모듈(2203)은 제2 타깃 모드 및 제2 타깃 프로세싱 세기를 제2 타깃 이어폰으로 송신하도록 추가로 구성된다. 제2 타깃 모드는 제2 타깃 모드에 대응하는 프로세싱 기능을 수행하도록 제2 타깃 이어폰에 지시하고, 제2 타깃 프로세싱 세기는 제2 타깃 이어폰이 제2 타깃 모드에 대응하는 프로세싱 기능을 수행하는 프로세싱 세기를 지시한다.
이것에 기초하여, 이 출원의 실시예는 단말 디바이스를 추가로 제공한다. 도 23을 참조한다. 단말 디바이스는 프로세서(2301), 메모리(2302), 통신 인터페이스(2303), 및 디스플레이(2304)를 포함한다. 메모리(2302)는 프로세서(2301)에 의해 실행된 명령 또는 프로그램을 저장하거나, 명령 또는 프로그램을 작동시키기 위하여 프로세서(2301)에 의해 요구된 입력 데이터를 저장하거나, 프로세서(2301)가 명령 또는 프로그램을 작동시킨 후에 생성된 데이터를 저장하도록 구성된다. 프로세서(2301)는 상기한 방법에서 단말 디바이스에 의해 수행된 기능을 수행하기 위하여 메모리(2302) 내에 저장된 명령 또는 프로그램을 작동시키도록 구성된다.
가능한 시나리오에서, 프로세서(2301)는 제1 검출 모듈(2001), 송신 모듈(2002), 디스플레이 모듈(2003), 및 제2 검출 모듈(2004)의 기능을 수행하도록 구성된다. 대안적으로, 프로세서(2301)는 제1 검출 모듈(2001) 및 제2 검출 모듈(2004)의 기능을 수행하도록 구성된다. 송신 모듈(2002)의 기능은 통신 인터페이스(2303)에 의해 구현되고, 디스플레이 모듈(2003)의 기능은 디스플레이(2304)에 의해 구현될 수 있다.
또 다른 가능한 시나리오에서, 프로세싱 모듈(2101), 송신 모듈(2102), 수신 모듈(2103), 디스플레이 모듈(2104), 및 검출 모듈(2105)은 프로세서(2301)에 의해 구현될 수 있다. 대안적으로, 프로세서(2301)는 프로세싱 모듈(2101) 및 검출 모듈(2105)의 기능을 수행하도록 구성될 수 있고, 송신 모듈(2102) 및 수신 모듈(2103)의 기능은 통신 인터페이스(2303)에 의해 구현될 수 있고, 디스플레이 모듈(2104)의 기능은 디스플레이(2304)에 의해 구현될 수 있다.
또 다른 가능한 시나리오에서, 디스플레이 모듈(2201), 검출 모듈(2202), 송신 모듈(2203), 프로세싱 모듈(2204), 및 식별 모듈(2205)은 프로세서(2301)에 의해 구현될 수 있다. 대안적으로, 프로세싱 모듈(2204), 검출 모듈(2202), 및 식별 모듈(2205)의 기능은 프로세서(2301)에 의해 모두 구현될 수 있다. 송신 모듈(2203)의 기능은 통신 인터페이스(2303)에 의해 구현될 수 있고, 디스플레이 모듈(2201)의 기능은 디스플레이(2304)에 의해 구현될 수 있다.
이 출원의 실시예에서 언급된 프로세서는 중앙 프로세싱 유닛(central processing unit, CPU)일 수 있거나, 프로세서는 또 다른 범용 프로세서, 디지털 신호 프로세서(Digital Signal Processor, DSP), 애플리케이션-특정 집적 회로(application specific integrated circuit, ASIC), 필드 프로그래밍가능 게이트 어레이(field programmable gate array, FPGA) 또는 또 다른 프로그래밍가능 로직 디바이스, 트랜지스터 로직 디바이스, 하드웨어 컴포넌트, 또는 그 임의의 조합일 수 있다는 것이 이해되어야 한다. 범용 프로세서는 마이크로프로세서 또는 임의의 보통의 프로세서 등일 수 있다.
상기한 실시예에서의 임의적인 구현예를 참조하면, 이 출원은 일부 구체적인 애플리케이션 시나리오를 참조하여 일부 임의적인 헤드셋 이용 실시예 및 신호 프로세싱 실시예를 설명한다. 사용자는 헤드셋과 함께 단말을 이용할 수 있다. 헤드셋은 다음의 기능: ANC 기능, HT 기능, 또는 AH 기능 중의 적어도 하나를 지원할 수 있고, 확실히, 널 모드를 더 포함할 수 있다. ANC 기능의 궁극적인 목적은 청취된 잡음을 실제적으로 제거하는 것이다. HT 기능의 궁극적인 목적은 인간 귀에 진입하는 외부 음에 대한 헤드셋의 영향을 제거하는 것이어서, 헤드셋을 이용함으로써 사용자에 의해 청취된 외부 주변 신호의 효과는 착용하지 않은 귀를 이용함으로써 사용자에 의해 청취된 현재의 외부 환경에서의 음의 효과와 동등하고, 여기서, 동등은 동일하거나 근사적인 효과를 의미할 수 있다.
다음의 방법은 단말에 대하여 수행될 수 있다.
S3001: 단말 디바이스는 헤드셋에 대한 통신 접속을 확립한다.
S3002: 제1 인터페이스를 디스플레이하고, 여기서, 제1 인터페이스는 헤드셋의 기능을 설정하기 위하여 이용되고, 제1 인터페이스는 ANC 기능, HT 기능, AH 기능, 또는 널 모드를 이네이블하거나 디세이블하기 위한 옵션을 포함할 수 있다. 도 24는 제1 인터페이스의 가능한 예를 도시한다. 헤드셋에 의해 지원된 잡음 제어 모드는 널 모드(디세이블), ANC 기능(잡음제거), 및 HT 기능(히어 스루)의 옵션을 포함할 수 있다. 제1 인터페이스는 더 많은 설정 또는 옵션을 더 포함할 수 있지만, 이들의 전부는 이 출원에서의 첨부 도면에서 도시되지 않는다는 것이 이해되어야 한다.
S3003: HT 기능을 위한 옵션이 이네이블될 때, 헤드셋의 HT 기능을 활성화함.
임의적으로, HT 기능의 히어-스루 세기가 추가로 획득될 수 있고, 헤드셋의 HT 기능은 획득된 히어-스루 세기에 기초하여 제어된다.
S3004: 이벤트 음을 강화하기 위한 옵션을 제1 인터페이스에 추가함. 임의적으로, 이 옵션은 HT 옵션이 이네이블되기 전에 존재하지 않을 수 있다는 것이 주목되어야 한다. 이벤트 음은, 사전설정된 이벤트 조건을 충족시키고 외부 환경 내에 있는 음이다. 이벤트 음은 사전설정된 스펙트럼 특성을 충족시키는 인간 음성 또는 또 다른 음을 포함할 수 있다. 세부사항에 대해서는, 상기한 실시예에서의 관련된 설명을 참조한다.
가능한 구현 형태에 대하여, 도 24와 비교하면, 도 25에서, (이벤트 음 강화에 속하는) 인간 음성 강화를 위한 옵션은 히어-스루(HT) 기능이 이네이블될 때, 인터페이스에 추가된다. 이 출원에서의 도면에서의 흑색 박스는 설명의 용이함을 위하여 단지 추가되지만, 인터페이스의 실제의 형태에 대한 임의의 제한을 구성하지 않는다는 것이 주목되어야 한다.
S3005: S3004에서의 이벤트 음 강화 기능을 위한 옵션이 이네이블되거나, S3002에서의 AH 기능을 위한 옵션이 이네이블될 때, 단말은 헤드셋에 의해 수집된 신호 내의 이벤트 음의 신호-대-잡음(signal-to-noise) 비율을 증가시키도록 헤드셋을 제어할 수 있고, 여기서, 이벤트 음의 더 높은 신호-대-잡음 비율은 신호 내의 이벤트 음의 더 높은 에너지 비율을 지시한다. 본 발명의 이 실시예에서, 헤드셋에 의해 수집된 신호 내의 이벤트 음의 신호-대-잡음 비율을 증가시키기 위한 2개의 방법은 다음의 예에서 상세하게 설명된다. 세부사항에 대해서는, S4001 내지 S4005 및 S5001 내지 S5005를 참조한다.
가능한 구현 형태에 대하여, 도 25와 비교하면, 도 26에서, HT 기능(히어 스루)이 이네이블된 후에, 사용자의 탭-투-선택 명령이 수신될 수 있거나, 사전설정된 인간 음성 강화 이네이블 명령이 획득될 수 있어서, 인터페이스 상에서 인간 음성 강화를 위한 옵션이 이네이블될 수 있다.
임의적으로, 이 경우에, 단말은 헤드셋의 ANC 기능 및 HT 기능의 둘 모두를 이네이블되도록 제어할 수 있다. 구체적으로, 헤드셋의 ANC 기능은 HT 기능이 이네이블되도록 유지될 때에 활성화될 수 있다. ANC 기능 및 HT 기능은 헤드셋에 의해 수집된 외부 환경에서의 음 신 신호를 프로세싱하도록 공동으로 이네이블되고, 프로세싱은 수집된 신호 내의 이벤트 음의 신호-대-잡음 비율을 증가시키는 것을 포함한다.
임의적으로, 이 경우에, 단말은 헤드셋의 ANC 기능을 이네이블할 수 있고, 일부 강화 및 잡음제거 알고리즘에 따라, 헤드셋에 의해 수집된 신호 내의 이벤트 음의 신호-대-잡음 비율을 증가시키도록 헤드셋을 제어할 수 있다.
임의적으로, 이벤트 음 강화 세기가 추가로 획득될 수 있고, 헤드셋의 이벤트 음 강화 기능은 획득된 이벤트 음 강화 세기에 기초하여 제어된다. 더 높은 이벤트 음 강화 세기는 이벤트 음의 더 높은 신호-대-잡음 비율을 지시한다.
S3006: ANC 기능을 위한 옵션이 이네이블될 때, 헤드셋의 ANC 기능을 활성화함.
S3007: ANC 기능의 세기 옵션을 제1 인터페이스에 추가함. 임의적으로, 이 옵션은 ANC 옵션이 이네이블되기 전에 제1 인터페이스에서 나타나지 않을 수 있거나, ANC 기능 옵션 및 HT 기능 옵션과 함께, 제1 인터페이스에서 나타날 수 있다는 것이 주목되어야 한다. ANC 기능의 세기 옵션은 적어도 제1 정상-상태 ANC 세기 옵션, 제2 정상-상태 ANC 세기 옵션, 및 적응적 ANC 세기 옵션을 포함하고; 제1 정상-상태 ANC 세기 옵션 및 제2 정상-상태 ANC 세기 옵션은 각각 제1 장면 및 제2 장면에 대응하고, 상이한 정상 ANC 기능 세기에 대응하고; 적응적 ANC 세기 옵션에 대응하는 ANC 기능 세기는 단말 디바이스 또는 헤드셋이 위치되어 있는 현재의 환경의 장면 유형에 관련되고; 현재의 환경의 상이한 장면 유형은 상이한 ANC 세기에 대응한다. 임의적으로, 현재의 환경의 상이한 장면 유형은 제1 장면 및 제2 장면을 포함할 수 있다.
가능한 구현 형태에 대하여, 도 24와 비교하면, 도 27에서, ANC 기능 세기(잡음제거 방식)에 대한 옵션은 ANC 기능(잡음제거) 기능이 이네이블될 때에 인터페이스에 추가된다. 구체적으로, ANC 기능 세기(잡음제거 방식)에 대한 옵션은 복수의 옵션을 더 포함할 수 있다. 도 28을 참조하면, 옵션은 경량(lightweight), 등화형(equalized), 심층(deep), 및 지능형 동적 잡음제거와 같은 잡음제거 방식을 포함하지만, 이것으로 제한되지 않는다. 경량 레벨은 조용한 환경에 적용가능하고, 심층 레벨은 매우 잡음성 환경에 적용가능하다. 다시 말해서, 경량 레벨에 속하지도 않고 심층 레벨에 속하지도 않는 장면은 등화형 레벨, 즉, 공통 장면으로서 분류될 수 있다.
S3008: 세기 옵션 이네이블 결과에 기초하여 ANC를 수행함.
구체적으로, 사용자가 경량 레벨을 선택할 때, 헤드셋의 ANC 기능의 잡음제거 세기는 경량 레벨에 대응하도록 제어되거나; 사용자가 등화형 레벨을 선택할 때, 헤드셋의 ANC의 잡음제거 세기는 중간 레벨에 대응하도록 제어되거나; 사용자가 심층 레벨을 선택할 때, 헤드셋의 ANC의 잡음제거 세기는 심층 레벨에 대응하도록 제어된다. 경량 레벨, 등화형 레벨, 및 심층 레벨에 대응하는 ANC의 잡음제거 세기는 연속적으로 증가하고, 3개의 레벨들 각각은 정상-상태 또는 안정한 잡음제거 세기를 가진다는 것이 이해되어야 한다. 사용자가 경량 레벨을 선택할 때, 헤드셋의 ANC 기능의 잡음제거 세기는 단말 또는 헤드셋이 위치되어 있는 환경이 어떻게 변화하는지에 관계없이 경량 레벨에 대응한다. 유사하게, 사용자가 등화형 레벨을 선택할 때, 헤드셋의 ANC 기능의 잡음제거 세기는 단말 또는 헤드셋이 위치되어 있는 환경이 어떻게 변화하는지에 관계없이 중간 레벨에 대응한다. 추가적으로, 사용자가 심층 레벨을 선택할 때, 헤드셋의 ANC 기능의 잡음제거 세기는 단말 또는 헤드셋이 위치되어 있는 환경이 어떻게 변화하는지에 관계없이 심층 레벨에 대응한다.
임의적으로, 예를 들어, 경량 레벨에 대응하는 ANC 심도는 20 내지 28 dB를 포함할 수 있고, 등화형 레벨에 대응하는 ANC 심도는 30 내지 36 dB를 포함할 수 있고, 심층 레벨에 대응하는 ANC 심도는 40 dB 초과일 수 있다.
예를 들어, 경량 레벨에 대응하는 환경 장면은 사무실, 침실, 조용한 거실 등을 포함할 수 있지만, 이것으로 제한되지 않고; 등화형 레벨에 대응하는 환경 장면은 슈퍼마켓, 광장, 대기실, 도로, 카페, 쇼핑몰 등을 포함할 수 있지만, 이것으로 제한되지 않고; 심층 레벨에 대응하는 환경 장면은 지하철, 고속 철도, 택시, 비행기 등을 포함할 수 있지만, 이것으로 제한되지 않는다.
추가적으로, 이 출원의 이 실시예는 스마트 동적 잡음 감소, 즉, 적응적 주변 잡음 감소를 더 포함한다. 구체적으로, 단말 또는 헤드셋이 위치되어 있는 환경의 장면 유형이 획득될 수 있고, ANC 세기는 현재의 환경의 장면 유형에 기초하여 결정될 수 있고, ANC 기능은 결정된 ANC 세기에 기초하여 제어될 수 있다.
임의적으로, 적응적 주변 잡음 감소는 다음의 레벨: 경량 레벨, 등화형 레벨, 및 심층 레벨 중의 적어도 하나를 포함할 수 있지만, 이것으로 제한되지 않는다. 예를 들어, 적응적 주변 잡음 감소에서, 경량 레벨, 등화형 레벨, 및 심층 레벨 중 대응하는 레벨에서의 ANC는 단말이 위치되어 있는 환경의 상태에 기초하여 수행될 수 있다. 헤드셋 또는 단말은 현재의 환경이 경량 레벨, 등화형 레벨, 또는 심층 레벨에 속하는지 여부를 검출할 수 있다. 상기한 정상-상태 ANC와 비교하면, 적응적 주변 잡음 감소는 사용자가 수동적 조작 없이 환경 변화에 기초하여 적응적으로 상이한 레벨의 잡음제거를 수행하게 할 수 있다. 이것은 사용자 경험을 개선시킨다.
임의적으로, 헤드셋에 의해 수행된 신호 프로세싱에 대해서는, S6001 내지 S6005를 참조한다.
S3009: 사용자는 사용자가 ANC, HT, 또는 인간 음성 환경을 이용하기를 원할 때, 인터페이스 상의 "디세이블(Disable)" 옵션을 이네이블할 수 있다.
ANC, HT, 이벤트 음 강화, 잡음제거 모드, 또는 디세이블 옵션을 이네이블하기 위한 상기한 방법은 사용자에 의해 대응하는 기능 옵션에 대하여 수행된 탭-투-선택 조작을 수신하는 것, 단말에 의해 적응적 스위칭을 수행하는 것, 헤드셋에 의해 적응적 스위칭을 수행하는 것, 또는 단축키(shortcut)를 통해 트리거링을 수행하는 것을 포함하지만, 이것으로 제한되지 않는다는 것이 이해되어야 한다. 예를 들어, 이벤트 음 강화 기능을 위한 옵션 상에서 사용자에 의해 수행된 선택 조작, HT 기능을 위한 옵션 상에서의 선택 조작, 또는 ANC 기능을 위한 옵션 상에서의 선택 조작이 수신되거나; 현재의 환경이 이벤트 음 강화 기능에 대응하는 장면인 것으로 식별되고, 이벤트 음 강화 기능을 위한 옵션이 활성화되거나; 현재의 환경이 HT 기능에 대응하는 장면인 것으로 식별되고, HT 기능을 위한 옵션이 활성화되거나; 현재의 환경이 ANC 기능에 대응하는 장면인 것으로 식별되고, ANC 기능을 위한 옵션이 활성화되거나; 헤드셋 상에서 사용자에 의해 수행된 누름 조작에 대해 응답이 행해지고, 여기서, 누름 조작은 다음의 기능: 이벤트 음 강화 기능, HT 기능, 또는 ANC 기능 중의 적어도 2개 사이에서 스위칭하도록 수행된다. 예를 들어, 헤드셋은 압력 센서를 포함할 수 있고, 압력 센서는 일부 단축키 조작, 예를 들어, 잡음제거 모드 사이의 스위칭을 사전정의할 수 있다.
이 출원에서 언급된 ANC 기능 세기는 ANC 세기 또는 줄여서 잡음제거 세기로서 이해될 수 있고; HT 기능 세기는 히어-스루 세기로서 이해될 수 있고; AH 기능 세기는 강화 세기로서 이해될 수 있다는 것이 이해되어야 한다. 상이한 세기는 관련된 필터 계수에 영향을 준다. 세부사항에 대해서는, 상기한 실시예에서의 관련된 설명을 참조한다. 세부사항은 본 명세서에서 다시 설명되지 않는다.
헤드셋 측 상에서의 가능한 신호 프로세싱에 대해서는, 다음의 2개의 예를 참조한다.
헤드셋은 제1 마이크로폰(기준 마이크로폰), 제2 마이크로폰(오차 마이크로폰), 및 스피커를 포함한다. 상기한 실시예에서의 헤드셋의 가능한 구현 형태를 참조하면, 헤드셋은 다음의 방법을 수행할 수 있다:
S4001: 제1 마이크로폰을 이용함으로써 제1 신호를 수집하고, 여기서, 제1 신호는 현재의 외부 환경에서의 음을 나타내기 위하여 이용됨. 기존의 기술에서, 기준 마이크로폰에 의해 수집된 신호는 또한, 기준 신호로서 지칭된다.
S4002: 제2 마이크로폰을 이용함으로써 제2 신호를 수집하고, 여기서, 제2 신호는 헤드셋을 착용하는 사용자의 외이도에서의 주변 음을 나타내기 위하여 이용됨. 기존의 기술에서, 오차 마이크로폰에 의해 수집된 신호는 또한, 오차 신호로서 지칭된다.
외이도에서의 주변 음은 헤드셋에 의해 플레이될 수 있는 음, 헤드셋에 의해 이용되고 있는 알고리즘(예를 들어, 잡음제거 또는 히어 스루), 및 사용자가 헤드셋을 착용한 후의 인간 신체의 귀 환경과 같은 인자를 참조하여 주변 음에 대해 지각된 종합적인 음으로서 이해될 수 있다.
예를 들어, 헤드셋이 오디오를 플레이하지도 않고 알고리즘을 이네이블하지도 않을 경우에, 외이도에서의 주변 음은 인간 신체의 귀 환경과 조합하여, 오차 마이크로폰에 의해 수집된 주변 음의 종합적인 음의 표현으로서 이해될 수 있지만, 이것으로 제한되지 않는다.
예를 들어, 헤드셋이 오디오를 플레이하지만, 알고리즘을 이네이블하지 않을 경우에, 외이도에서의 주변 음은 인간 신체의 귀 환경 및 헤드셋 마이크로폰에 의해 플레이된 음과 조합하여, 오차 마이크로폰에 의해 수집된 주변 음의 종합적인 음의 표현으로서 이해될 수 있지만, 이것으로 제한되지 않는다.
예를 들어, 헤드셋이 오디오를 플레이하고 알고리즘을 이네이블할 경우에, 외이도에서의 주변 음은 인간 신체의 귀 환경, 및 헤드셋 마이크로폰에 의해 플레이되고 알고리즘에 의해 프로세싱된 음과 조합하여, 오차 마이크로폰에 의해 수집된 주변 음의 종합적인 음의 표현으로서 이해될 수 있지만, 이것으로 제한되지 않는다.
기준 신호 및 오차 신호의 구체적인 신호 성분은 환경에 관련되고, 많은 변동 인자가 있다는 것이 이해되어야 한다. 그러므로, 신호 성분은 양자화 개념을 이용함으로써 상세하게 설명하기가 어렵지만, 본 기술분야에서의 통상의 기술자에게는 명확하다.
S4003: 이벤트 음을 강화하기 위한 명령을 수신하고, 여기서, 이벤트 음은, 사전설정된 이벤트 조건을 충족시키고 외부 환경 내에 있는 음임.
S4004: ANC 기능 및 HT 기능의 둘 모두를 이네이블된 상태가 되도록 제어하고, 타깃 신호를 획득하기 위하여, 적어도 HT 기능 및 ANC 기능을 이용함으로써 제1 신호 및 제2 신호에 대해 타깃 프로세싱을 수행하고, 여기서, 타깃 신호 내의 이벤트 음의 신호-대-잡음 비율은 제1 신호 내의 이벤트 음의 신호-대-잡음 비율 초과이다.
구체적으로, 도 8b 또는 도 8c를 참조한다. 기준 마이크로폰에 의해 수집된 제1 신호는 복원된 신호 C1을 획득하기 위하여 HT 기능을 이용함으로써 히어 스루를 통해 전송되고; 복원된 신호 C1 내의 이벤트 음 신호(예를 들어, 인간 음성)가 강화되고, 복원된 신호 C1 내의 비 이벤트 음 신호가 약화되어, 이벤트 음 강화된 신호 C2가 획득된다.
제1 신호 C1, 오차 마이크로폰에 의해 수집된 신호, 및 이벤트 음 강화된 신호 C2는 ANC 기능을 이용함으로써 프로세싱되어, 타깃 신호가 획득된다.
임의적으로, 관련된 강화 프로세싱에 대해서는, 도 9에서의 구현예를 참조하지만, 이것으로 제한되지 않는다.
S4005: 스피커를 이용함으로써 타깃 신호를 플레이함. 사용자의 청각적 감지의 관점으로부터, 스피커에 의해 플레이된 타깃 신호는 사용자가 헤드셋을 착용할 때에 사용자에 의해 원래 청취될 수 있는 주변 잡음을 거의 상쇄시킬 수 있어서, 사용자에 의해 최종적으로 청취될 수 있는 이벤트 음의 더 높은 신호-대-잡음 비율이 획득될 수 있다는 것이 이해되어야 한다.
임의적으로, 헤드셋은 대안적으로, 다음의 방법을 수행할 수 있다.
S5001: 제1 마이크로폰을 이용함으로써 제1 신호를 수집하고, 여기서, 제1 신호는 현재의 외부 환경에서의 음을 나타내기 위하여 이용됨.
S5002: 제2 마이크로폰을 이용함으로써 제2 신호를 수집하고, 여기서, 제2 신호는 헤드셋을 착용하는 사용자의 외이도에서의 주변 음을 나타내기 위하여 이용됨.
S5003: 이벤트 음을 강화하기 위한 명령을 수신하고, 여기서, 이벤트 음은, 사전설정된 이벤트 조건을 충족시키고 외부 환경 내에 있는 음임.
S5004: ANC 기능을 이네이블하고; 이벤트 음 강화된 신호를 획득하기 위하여, 제1 신호 내의 이벤트 음 신호를 강화하고, 제1 신호 내의 비 이벤트 음 신호를 약화하고; 타깃 신호를 획득하기 위하여, ANC 기능을 이용함으로써 제1 신호, 제2 신호, 및 이벤트 음 강화된 신호를 프로세싱하고, 여기서, 타깃 신호 내의 이벤트 음의 신호-대-잡음 비율은 제1 신호 내의 이벤트 음의 신호-대-잡음 비율 초과이고, 신호 내의 이벤트 음의 더 높은 신호-대-잡음 비율은 신호 내의 이벤트 음의 더 높은 에너지 비율을 지시한다.
임의적으로, 관련된 강화 프로세싱에 대해서는, 도 9에서의 구현예를 참조하지만, 이것으로 제한되지 않는다.
S5005: 스피커를 이용함으로써 타깃 신호를 플레이함.
능동 잡음 제어(ANC) 세기의 조절을 위하여, 헤드셋은 적어도 ANC 기능을 지원하고, 헤드셋은 제1 마이크로폰 및 제3 마이크로폰을 포함한다. 본 명세서에서의 제1 마이크로폰은 상기한 실시예에서의 기준 마이크로폰으로서 이해될 수 있고, 현재의 외부 환경에서의 음의 수집에 더 많이 초점을 맞추고, 제3 마이크로폰은 음 픽업에 더 많이 초점을 맞춘다. 사용자가 헤드셋을 착용할 때, 제3 마이크로폰은 제1 마이크로폰보다 사용자의 입에 더 근접해 있다. 그러므로, 제3 마이크로폰은 제1 마이크로폰보다 사용자의 더 명확한 음성 신호를 픽업할 수 있다. 헤드셋은 다음의 방법을 추가로 수행할 수 있다.
S6001: 헤드셋은 ANC 기능을 이네이블한다.
S6002: 제1 마이크로폰을 이용함으로써 현재의 환경에 대한 제1 신호를 수집함.
S6003: 제3 마이크로폰을 이용함으로써 현재의 환경에 대한 제2 신호를 수집함.
S6004: 제1 신호 및 제2 신호에 기초하여 현재의 장면의 잡음 레벨을 결정하고, 여기서, 상이한 잡음 레벨은 상이한 ANC 세기에 대응함.
임의적으로, 음성 활성 검출은 제1 신호와 제2 신호 사이의 상관의 특징을 이용함으로써 수행될 수 있고; 비 음성 신호의 잡음이 추적되고; 현재의 장면은 잡음의 에너지가 제1 임계치 미만일 경우에 조용한 장면(quiet scene)으로서 결정되거나, 현재의 장면은 잡음의 스펙트럼이 주로 저 주파수 대역 내에 있고 잡음의 에너지가 제2 임계치 초과일 경우에 과도한-잡음 장면(heavy-noise scene)으로서 결정되거나, 현재의 장면은 현재의 장면이 조용한 장면도 아니고 과도한-잡음 장면도 아닐 경우에 보편적 장면(common scene)으로서 결정되고, 여기서, 제2 임계치(예를 들어, [-80 dB, -65 dB]에서의 값으로 제한되지 않음)는 제1 임계치(예를 들어, [-40 dB, -30 dB]에서의 값으로 제한되지 않음) 초과이다. 조용한 장면, 보편적 장면, 및 과도한-잡음 장면에 대응하는 ANC 세기는 연속적으로 증가한다.
S6005: 현재의 잡음 레벨에 기초하여 ANC 기능을 제어함.
임의적으로, 복수의 세기 조절 모드는 ANC 세기에 대하여 사전설정될 수 있다.
임의적으로, ANC 기능은 잡음 레벨이 결정된 후에 대응하는 잡음 레벨에 대응하는 ANC 세기에 기초하여 ANC 알고리즘 필터를 조절함으로써 제어될 수 있다.
단말에 의해 송신된 ANC 세기 조절 명령이 수락될 수 있고, ANC 기능은 ANC 세기 조절 명령에 기초하여 ANC 알고리즘 필터를 조절함으로써 제어된다. 임의적으로, ANC 기능을 제어하는 방식은 S3007 및 S3008에서 ANC 세기를 제어하기 위한 방법을 더 포함할 수 있다. 세부사항은 본 명세서에서 다시 설명되지 않는다.
임의적으로, ANC 장면 사이에서 스위칭하기 위한 일부 정책이 있을 수 있고: 현재의 장면이 새로운 잡음 레벨에 있고 사전설정된 기간에 대해 지속되는 것으로 검출될 경우에, 새로운 잡음 레벨에 대응하는 ANC 세기를 획득하고, 새로운 잡음 레벨에 대응하는 ANC 세기에 기초하여 ANC 기능을 제어함.
예를 들어, (1) 스위칭은 임계치가 1 초 동안에 충족된 후에만 허용되고, 즉, 새로운 잡음 레벨로의 스위칭은 새롭게 검출된 잡음 레벨이 사전설정된 기간에 대해 지속할 때에만 수행되고; (2) 다음 장면으로의 스위칭은 현재의 잡음제거 레벨이 적어도 10 초 동안에 유지될 때에만, 즉, 새롭게 스위칭된 상태가 적어도 제2 사전설정된 기간 동안에 유지될 때에만 허용되고; (3) 과도한-잡음 레벨일 때, 정상적인 레벨 또는 조용한 레벨이 전후로 스위칭될 수 있다. 불편함은 스위칭이 과도하게 빨리 수행될 경우에 발생할 수 있다. 그러므로, 시간의 주기 내에서의 스위칭 빈도가 모니터링될 수 있고, 결정 레벨의 임계치는 예외가 발생할 경우에 증가된다. 예를 들어, 스위칭 횟수의 수량이 사전설정된 기간 내에서의 횟수의 사전설정된 수량(예를 들어, 2 분 내의 4 회)을 초과할 경우에, 정상적인 모드의 임계치에 근접한 임계치가 증가되어, 빈번한 모드 스위칭이 감소되고 사용자 경험이 개선된다.
본 발명의 다량의 실시예가 있고, 일부 용어, 표현, 또는 신호 프로세싱은 상호 참조되거나 재이용될 수 있고, 해결책에서의 신호 프로세싱 절차는 자연 법칙을 위반하지 않으면서 자유롭게 조합될 수 있다는 것이 이해되어야 한다. 세부사항은 이 출원에서 하나씩 열거되지 않는다.
이에 따라, 이 출원의 실시예는 헤드셋 제어 장치를 추가로 제공한다. 장치는 단말 디바이스에서 이용되고, 단말 디바이스는 헤드셋에 대한 통신 접속을 확립하고, 헤드셋은 능동 잡음 제어(ANC) 기능 및 주변 음 히어-스루(HT) 기능을 지원한다. 장치는 디스플레이 모듈 및 프로세싱 모듈을 포함한다.
디스플레이 모듈은 제1 인터페이스를 디스플레이하도록 구성되고, 여기서, 제1 인터페이스는 헤드셋의 기능을 설정하기 위하여 이용되고, 제1 인터페이스는 이벤트 음 강화 기능을 위한 옵션을 포함하고, 이벤트 음은, 사전설정된 이벤트 조건을 충족시키고 외부 환경 내에 있는 음이다.
임의적으로, 제1 인터페이스는 헤드셋의 HT 기능을 제어하기 위한 옵션을 포함하고; HT 기능을 위한 옵션이 이네이블될 때, 프로세싱 모듈은 헤드셋의 HT 기능을 활성화하도록 구성되고; 디스플레이 모듈은 이벤트 음을 강화하기 위한 옵션을 제1 인터페이스에 추가하도록 추가로 구성된다.
프로세싱 모듈은 이벤트 음 강화 기능을 위한 옵션이 이네이블될 때, 헤드셋의 ANC 기능 및 HT 기능의 둘 모두를 이네이블된 상태가 되도록 제어하도록 구성된다.
임의적으로, ANC 기능을 위한 옵션이 이네이블될 때, 프로세싱 모듈은 헤드셋의 ANC 기능을 활성화하도록 추가로 구성된다.
이에 따라, 이 출원의 실시예는 헤드셋 제어 장치를 추가로 제공한다. 장치는 단말 디바이스에서 이용되고, 단말 디바이스는 헤드셋에 대한 통신 접속을 확립하고, 헤드셋은 적어도 능동 잡음 제어(ANC) 기능을 지원한다. 장치는:
제1 인터페이스를 디스플레이하도록 구성된 디스플레이 모듈 - 제1 인터페이스는 헤드셋의 기능을 설정하기 위하여 이용되고, 제1 인터페이스는 헤드셋의 ANC 기능을 제어하기 위한 옵션을 포함함 -; 및
ANC 기능을 위한 옵션이 이네이블될 때, 헤드셋의 ANC 기능을 활성화하도록 구성된 프로세싱 모듈을 포함한다.
디스플레이 모듈은 ANC 기능을 위한 옵션이 이네이블된 후에, ANC 기능의 세기 옵션을 제1 인터페이스에 추가하도록 추가로 구성된다.
프로세싱 모듈은 ANC 기능의 세기 옵션을 이네이블하는 결과에 기초하여 ANC를 수행하도록 추가로 구성된다.
ANC 기능의 세기 옵션은 적어도 제1 정상-상태 ANC 세기 옵션, 제2 정상-상태 ANC 세기 옵션, 및 적응적 ANC 세기 옵션을 포함하고; 제1 정상-상태 ANC 세기 옵션 및 제2 정상-상태 ANC 세기 옵션은 각각 제1 장면 및 제2 장면에 대응하고, 상이한 정상 ANC 기능 세기에 대응하고; 적응적 ANC 세기 옵션에 대응하는 ANC 기능 세기는 단말 디바이스 또는 헤드셋이 위치되어 있는 현재의 환경의 장면 유형에 관련되고; 현재의 환경의 상이한 장면 유형은 상이한 ANC 세기에 대응한다.
프로세싱 모듈은 제1 정상-상태 ANC 세기 옵션이 이네이블될 때, 제1 정상-상태 ANC 세기 옵션에 대응하는 제1 ANC 기능 세기를 획득하고, 제1 ANC 기능 세기에 기초하여 ANC 기능을 제어하거나; 제2 정상-상태 ANC 세기 옵션이 이네이블될 때, 제2 정상-상태 ANC 세기 옵션에 대응하는 제2 ANC 기능 세기를 획득하고, 제2 ANC 기능 세기에 기초하여 ANC 기능을 제어하거나; 적응적 ANC 세기 옵션이 이네이블될 때, 단말 디바이스 또는 헤드셋이 위치되어 있는 현재의 환경의 장면 유형을 획득하고, 현재의 환경의 장면 유형에 기초하여 ANC 세기를 결정하고, 결정된 ANC 세기에 기초하여 ANC 기능을 제어하도록 구체적으로 구성된다.
이에 따라, 이 출원의 실시예는 헤드셋 제어 장치를 추가로 제공한다. 장치는 단말 디바이스에서 이용되고, 단말 디바이스는 헤드셋에 대한 통신 접속을 확립하고, 헤드셋은 적어도 주변 음 히어-스루(HT) 기능을 지원한다. 장치는:
제1 인터페이스를 디스플레이하도록 구성된 디스플레이 모듈 - 제1 인터페이스는 헤드셋의 기능을 설정하기 위하여 이용되고, 제1 인터페이스는 헤드셋의 HT 기능을 제어하기 위한 옵션을 포함함 -; 및
HT 기능을 위한 옵션이 이네이블될 때, 헤드셋의 HT 기능을 활성화하도록 구성된 프로세싱 모듈을 포함한다.
디스플레이 모듈은, HT 기능을 위한 옵션이 이네이블된 후에, 이벤트 음을 강화하기 위한 옵션을 제1 인터페이스에 추가하도록 추가로 구성되고, 여기서, 이벤트 음은, 사전설정된 이벤트 조건을 충족시키고 외부 환경 내에 있는 음이다.
프로세싱 모듈은, 이벤트 음 강화 기능을 위한 옵션이 이네이블될 때, 헤드셋에 의해 수집된 신호 내의 이벤트 음의 신호-대-잡음 비율을 증가시키도록 헤드셋을 제어하도록 추가로 구성되고, 여기서, 이벤트 음의 더 높은 신호-대-잡음 비율은 신호 내의 이벤트 음의 더 높은 에너지 비율을 지시한다. 프로세싱 모듈은 추가로, ANC 기능의 제1 세기를 획득하고, 제1 세기에 기초하여 헤드셋의 ANC 기능을 제어하거나; HT 기능의 제2 세기를 획득하고, 제2 세기에 기초하여 헤드셋의 HT 기능을 제어하거나; 이벤트 음 강화의 제3 세기를 획득하고, 제3 세기에 기초하여 헤드셋의 이벤트 음 강화 기능을 제어하도록 구체적으로 구성된다.
이에 따라, 이 출원의 실시예는 잡음제거 장치를 추가로 제공한다. 장치는 헤드셋에서 이용되고; 헤드셋은 적어도 능동 잡음 제어(ANC) 기능 및 주변 음 히어-스루(HT) 기능을 지원하고; 헤드셋은 제1 마이크로폰, 제2 마이크로폰, 및 스피커를 포함한다. 장치는:
제1 마이크로폰을 이용함으로써 제1 신호를 수집하도록 구성되고 - 제1 신호는 현재의 외부 신호에서의 음을 나타내기 위하여 이용됨 -; 제2 마이크로폰을 이용함으로써 제2 신호를 수집하도록 추가로 구성된 - 제2 신호는 헤드셋을 착용하는 사용자의 외이도에서의 주변 음을 나타내기 위하여 이용됨 - 수집 모듈;
이벤트 음을 강화하기 위한 명령을 수신하도록 구성된 수신 모듈 - 이벤트 음은, 사전설정된 이벤트 조건을 충족시키고 외부 환경 내에 있는 음임 -;
ANC 기능 및 HT 기능의 둘 모두를 이네이블된 상태가 되도록 제어하고, 타깃 신호를 획득하기 위하여, 적어도 HT 기능 및 ANC 기능을 이용함으로써 제1 신호 및 제2 신호에 대해 타깃 프로세싱을 수행하도록 구성된 프로세싱 모듈 - 타깃 신호 내의 이벤트 음의 신호-대-잡음 비율은 제1 신호 내의 이벤트 음의 신호-대-잡음 비율 초과이고; 프로세싱 모듈은 복원된 신호를 획득하기 위하여, HT 기능을 이용함으로써 히어 스루를 통해 제1 신호를 전송하고; 이벤트 음 강화된 신호를 획득하기 위하여, 복원 신호 내의 이벤트 음 신호를 강화하고, 복원된 신호 내의 비 이벤트 음 신호를 약화하고; 타깃 신호를 획득하기 위하여, ANC 기능을 이용함으로써 제1 신호, 제2 신호, 및 이벤트 음 강화된 신호를 프로세싱하도록 구체적으로 구성됨 -; 및
스피커를 이용함으로써 타깃 신호를 플레이하도록 구성된 플레이 모듈을 포함한다.
이에 따라, 이 출원의 실시예는 잡음제거 장치를 추가로 제공한다. 장치는 헤드셋에서 이용되고, 헤드셋은 적어도 능동 잡음 제어(ANC) 기능을 지원하고, 헤드셋은 제1 마이크로폰, 제2 마이크로폰, 및 스피커를 포함한다. 장치는:
제1 마이크로폰을 이용함으로써 제1 신호를 수집하도록 구성되고 - 제1 신호는 현재의 외부 신호에서의 음을 나타내기 위하여 이용됨 -; 제2 마이크로폰을 이용함으로써 제2 신호를 수집하도록 추가로 구성된 - 제2 신호는 헤드셋을 착용하는 사용자의 외이도에서의 주변 음을 나타내기 위하여 이용됨 - 수집 모듈;
이벤트 음을 강화하기 위한 명령을 수신하도록 구성된 수신 모듈 - 이벤트 음은, 사전설정된 이벤트 조건을 충족시키고 외부 환경 내에 있는 음임 -;
ANC 기능을 이네이블하고; 이벤트 음 강화된 신호를 획득하기 위하여, 제1 신호 내의 이벤트 음 신호를 강화하고, 제1 신호 내의 비 이벤트 음 신호를 약화하고; 타깃 신호를 획득하기 위하여, ANC 기능을 이용함으로써 제1 신호, 제2 신호, 및 이벤트 음 강화된 신호를 프로세싱하도록 구성된 프로세싱 모듈 - 타깃 신호 내의 이벤트 음의 신호-대-잡음 비율은 제1 신호 내의 이벤트 음의 신호-대-잡음 비율 초과이고, 신호 내의 이벤트 음의 더 높은 신호-대-잡음 비율은 신호 내의 이벤트 음의 더 높은 에너지 비율을 지시함 -; 및
스피커를 이용함으로써 타깃 신호를 플레이하도록 구성된 플레이 모듈을 포함한다.
이에 따라, 이 출원의 실시예는 잡음제거 장치를 추가로 제공한다. 장치는 헤드셋에서 이용되고; 헤드셋은 적어도 능동 잡음 제어(ANC) 기능, 주변 음 히어-스루(HT) 기능, 및 AH 기능을 지원하고; 헤드셋은 HT 필터 뱅크(filter bank), 피드백 필터 뱅크, 및 피드포워드 필터 뱅크를 포함한다. 장치는:
헤드셋의 조작 모드를 획득하도록 구성된 획득 모듈; 및
조작 모드가 ANC 기능일 때, ANC 기능을 수행하기 위하여 피드백 필터 뱅크 및 피드포워드 필터 뱅크를 호출하고; 조작 모드가 HT 기능일 때, HT 기능을 수행하기 위하여 HT 필터 뱅크 및 피드백 필터 뱅크를 호출하고; 조작 모드가 AH 기능일 때, AH 기능을 수행하기 위하여 HT 필터 뱅크, 피드포워드 필터 뱅크, 및 피드백 필터 뱅크를 호출하도록 구성된 호출 모듈을 포함한다.
이에 따라, 이 출원의 실시예는 잡음제거 장치를 추가로 제공한다. 장치는 헤드셋에서 이용되고, 헤드셋은 적어도 ANC 기능을 지원하고, 헤드셋은 제1 마이크로폰 및 제3 마이크로폰을 포함하고, 제1 마이크로폰은 현재의 외부 환경에서의 음의 수집에 더 많이 초점을 맞추고, 제3 마이크로폰은 음 픽업에 더 많이 초점을 맞춘다.
수집 모듈은 헤드셋이 ANC 기능을 이네이블할 때, 제1 마이크로폰을 이용함으로써 현재의 환경에 대한 제1 신호를 수집하고, 제3 마이크로폰을 이용함으로써 현재의 환경에 대한 제2 신호를 수집하도록 구성된다.
식별 모듈은 제1 신호 및 제2 신호에 기초하여 현재의 장면의 잡음 레벨을 결정하도록 구성되고, 여기서, 상이한 잡음 레벨은 상이한 ANC 세기에 대응한다. 임의적으로, 식별 모듈은 제1 신호와 제2 신호 사이의 상관의 특징을 이용함으로써 음성 활성 검출을 수행하고; 비 음성 신호의 잡음을 추적하고; 잡음의 에너지가 제1 임계치 미만일 경우에, 현재의 장면을 조용한 장면으로서 결정하거나, 잡음의 스펙트럼이 주로 저 주파수 대역 내에 있고 잡음의 에너지가 제2 임계치 초과일 경우에, 현재의 장면을 과도한-잡음 장면으로서 결정하거나, 현재의 장면이 조용한 장면도 아니고 과도한-잡음 장면도 아닐 경우에, 현재의 장면을 보편적 장면으로서 결정하도록 - 제2 임계치는 제1 임계치 초과임 - 구체적으로 구성된다.
프로세싱 모듈은 현재의 잡음 레벨에 기초하여 ANC 기능을 제어하도록 구성된다. 임의적으로, 프로세싱 모듈은 현재의 장면이 새로운 잡음 레벨에 있고 사전설정된 기간에 대해 지속되는 것으로 검출될 경우에, 새로운 잡음 레벨에 대응하는 ANC 세기를 획득하고, 새로운 잡음 레벨에 대응하는 ANC 세기에 기초하여 ANC 기능을 제어하도록 구체적으로 구성된다.
본 발명의 많은 실시예가 있고, 일부 프로세싱 방법, 명사, 및 임의적인 예는 상이한 실시예에서 재이용될 수 있다는 것이 이해되어야 한다. 세부사항은 이 출원에서 설명되지 않는다.
이 출원의 실시예에서의 방법 단계는 하드웨어 방식으로 구현될 수 있거나, 프로세서에 의해 소프트웨어 명령을 실행하는 방식으로 구현될 수 있다. 소프트웨어 명령은 대응하는 소프트웨어 모듈을 포함할 수 있다. 소프트웨어 모듈은 랜덤 액세스 메모리(random access memory, RAM), 플래시 메모리, 판독-전용 메모리(read-only memory, ROM), 프로그래밍가능 판독-전용 메모리(programmable ROM, PROM), 소거가능 프로그래밍가능 판독-전용 메모리(erasable PROM, EPROM), 전기적 소거가능 프로그래밍가능 판독-전용 메모리(electrically ePROM, EEPROM), 레지스터(register), 하드 디스크, 분리가능 하드 디스크, CD-ROM, 또는 본 기술분야에서 널리 공지된 임의의 다른 형태 내에 저장될 수 있다. 예를 들어, 저장 매체는 프로세서에 결합되어, 프로세서는 저장 매체로부터 정보를 판독할 수 있고 정보를 저장 매체로 기입할 수 있다. 확실히, 저장 매체는 프로세서의 컴포넌트일 수 있다. 프로세서 및 저장 매체는 ASIC 내에 배치될 수 있다. 추가적으로, ASIC은 단말 디바이스 내에 위치될 수 있다. 확실히, 프로세서 및 저장 매체는 개별 컴포넌트로서 단말 디바이스에서 존재할 수 있다.
상기한 실시예의 전부 또는 일부는 소프트웨어, 하드웨어, 펌웨어, 또는 그 임의의 조합을 이용함으로써 구현될 수 있다. 소프트웨어가 실시예를 구현하기 위하여 이용될 때, 실시예의 전부 또는 일부는 컴퓨터 프로그램 제품의 형태로 구현될 수 있다. 컴퓨터 프로그램 제품은 하나 이상의 컴퓨터 프로그램 또는 명령을 포함한다. 컴퓨터 프로그램 또는 명령이 컴퓨터 상에서 로딩되고 실행될 때, 이 출원의 실시예에 따른 절차 또는 기능은 전부 또는 부분적으로 구현된다. 컴퓨터는 범용 컴퓨터, 전용 컴퓨터, 컴퓨터 네트워크, 사용자 장비, 또는 또 다른 프로그래밍가능 장치일 수 있다. 컴퓨터 프로그램 또는 명령은 컴퓨터-판독가능 저장 매체 내에 저장될 수 있거나, 하나의 컴퓨터-판독가능 저장 매체로부터 또 다른 컴퓨터-판독가능 저장 매체로 전송될 수 있다. 예를 들어, 컴퓨터 프로그램 또는 명령은 유선 방식으로 또는 무선 방식으로 하나의 웹사이트, 컴퓨터, 서버, 또는 데이터 센터로부터 또 다른 웹사이트, 컴퓨터, 서버, 또는 데이터 센터로 전송될 수 있다. 컴퓨터-판독가능 저장 매체는 하나 이상의 이용가능 매체를 통합하는 서버 또는 데이터 센터와 같은 컴퓨터 또는 데이터 저장 디바이스에 의해 액세스가능한 임의의 이용가능 매체일 수 있다. 이용가능 매체는 자기 매체, 예를 들어, 플로피 디스크, 하드 디스크, 또는 자기 테이프일 수 있거나; 광학 매체, 예를 들어, 디지털 비디오 디스크(digital video disc, DVD)일 수 있거나; 반도체 매체, 예를 들어, 솔리드-스테이트 드라이브(solid state drive, SSD)일 수 있다.
이 출원의 실시예에서, 이와 다르게 기재되거나 논리적 상충이 있지 않다면, 상이한 실시예 사이에서의 용어 및/또는 설명은 일관적이고 상호 참조될 수 있고, 상이한 실시예에서의 기술적 특징은 새로운 실시예를 형성하기 위하여 그 내부 논리적 관계에 기초하여 조합될 수 있다. 추가적으로, 용어 "포함한다(include)", "포함한다(comprise)", 또는 그 임의의 다른 변형은 비-배타적 포함, 예를 들어, 일련의 단계 또는 유닛을 포괄하도록 의도된다. 방법, 시스템, 제품, 또는 디바이스는 문언적으로 열거되는 그 단계 또는 유닛으로 반드시 제한되지는 않지만, 문언적으로 열거되지 않거나, 이러한 프로세스, 방법, 제품, 또는 디바이스에 내재적인 다른 단계 또는 유닛을 포함할 수 있다.
이 출원은 구체적인 특징 및 그 실시예를 참조하여 설명되지만, 이 출원의 사상 및 범위로부터 이탈하지 않으면서, 다양한 수정 및 조합이 이들에 대해 행해질 수 있다는 것은 명확하다. 이에 따라, 명세서 및 첨부 도면을 첨부된 청구범위에 의해 정의된 해결책의 설명을 위한 예일 뿐이고, 이 출원의 범위를 포괄하는 모든 수정, 변형, 조합, 또는 등가물 중의 임의의 것으로서 간주된다.
본 기술분야에서의 통상의 기술자는 이 출원의 범위로부터 이탈하지 않으면서, 이 출원에 대한 다양한 수정 및 변형을 행할 수 있다는 것이 명확하다. 수정 및 변형이 이 출원의 다음의 청구범위 및 그 등가적인 기술에 의해 정의된 보호의 범위 내에 속한다면, 이 출원은 이러한 수정 및 변형을 포괄하도록 의도된다.

Claims (93)

  1. 모드 제어 방법으로서,
    상기 모드 제어 방법은 단말 디바이스에 적용되고, 상기 모드 제어 방법은,
    현재의 외부 환경의 장면 유형이 타깃 장면인 것으로 식별될 때, 상기 타깃 장면에 기초하여 타깃 모드를 결정하는 단계 - 상기 타깃 모드는 헤드셋에 의해 지원된 프로세싱 모드 중의 하나이고, 상이한 프로세싱 모드는 상이한 장면 유형에 대응하고, 상기 헤드셋에 의해 지원된 상기 프로세싱 모드는 다음의 모드: 능동 잡음 제어(ANC : active noise control) 모드, 주변 음 히어-스루(HT : hear-through) 모드, 또는 증강된 청취(AH : augmented hearing) 모드 중의 적어도 2개를 포함함 -; 및
    상기 타깃 모드를 상기 헤드셋으로 송신하는 단계 - 상기 타깃 모드는 상기 타깃 모드에 대응하는 프로세싱 기능을 수행하도록 상기 헤드셋에 지시함 - 를 포함하는, 모드 제어 방법.
  2. 제1항에 있어서,
    상기 타깃 모드가 상기 타깃 장면에 기초하여 결정될 때, 상기 모드 제어 방법은,
    결과 프롬프트 정보(result prompt information)를 디스플레이하는 단계를 더 포함하고, 상기 결과 프롬프트 정보는 상기 헤드셋이 상기 타깃 모드에 대응하는 상기 프로세싱 기능을 수행한다는 것을 사용자에게 프롬프트하기 위하여 이용되는, 모드 제어 방법.
  3. 제1항에 있어서,
    제1 제어 시그널링이 상기 헤드셋으로 송신되기 전에, 상기 모드 제어 방법은,
    선택 프롬프트 정보를 디스플레이하는 단계 - 상기 선택 프롬프트 정보는 상기 헤드셋의 프로세싱 모드를 상기 타깃 모드로 조절할 것인지 여부를 사용자에게 지시함 -; 및
    상기 사용자에 의해, 상기 헤드셋의 상기 프로세싱 모드를 상기 타깃 모드로서 선택하는 조작을 검출하는 단계를 더 포함하는, 모드 제어 방법.
  4. 제2항 또는 제3항에 있어서,
    상기 모드 제어 방법은,
    제1 제어부 및 제2 제어부를 디스플레이하는 단계 - 상기 제1 제어부 상의 상기 제2 제어부의 상이한 포지션(position)은 상기 타깃 모드에서의 상이한 프로세싱 세기를 지시함 -; 및
    상기 제1 제어 시그널링이 상기 헤드셋으로 송신되기 전에, 상기 모드 제어 방법은,
    상기 사용자에 의해, 상기 제1 제어부 상의 제1 포지션으로 이동하도록 상기 제2 제어부를 터치하여 제어하는 것에 대해 응답하는 단계 - 상기 제1 제어부 상의 상기 제2 제어부의 상기 제1 포지션은 상기 타깃 모드에서의 타깃 프로세싱 세기를 지시함 -; 및
    상기 타깃 프로세싱 세기를 상기 헤드셋으로 송신하는 단계 - 상기 타깃 프로세싱 세기는 상기 헤드셋이 상기 타깃 모드에 대응하는 상기 프로세싱 기능을 수행하는 프로세싱 세기를 지시함 - 를 더 포함하는, 모드 제어 방법.
  5. 제4항에 있어서,
    상기 제1 제어부는 링 형상(ring shape)이고; 상기 사용자는 상기 제1 제어부 상에서 시계 방향으로 이동하도록 상기 제2 제어부를 터치하여 제어하고, 상기 타깃 모드에서의 상기 프로세싱 세기는 오름차순으로 변화하거나;
    사용자는 제1 제어부 상에서 반시계 방향으로 이동하도록 제2 제어부를 터치하여 제어하고, 타깃 모드에서의 프로세싱 세기는 오름차순으로 변화하는, 모드 제어 방법.
  6. 제4항에 있어서,
    상기 제1 제어부는 바 형상(bar shape)이고; 상기 사용자는 상기 제1 제어부 상에서 상부로부터 하부로 이동하도록 상기 제2 제어부를 터치하여 제어하고, 상기 타깃 모드에서의 상기 프로세싱 세기는 오름차순으로 변화하거나;
    상기 사용자는 상기 제1 제어부 상에서 하부로부터 상부로 이동하도록 상기 제2 제어부를 터치하여 제어하고, 상기 타깃 모드에서의 상기 프로세싱 세기는 오름차순으로 변화하거나;
    상기 사용자는 상기 제1 제어부 상에서 좌측으로부터 우측으로 이동하도록 상기 제2 제어부를 터치하여 제어하고, 상기 타깃 모드에서의 상기 프로세싱 세기는 오름차순으로 변화하거나;
    상기 사용자는 상기 제1 제어부 상에서 우측으로부터 좌측으로 이동하도록 상기 제2 제어부를 터치하여 제어하고, 상기 타깃 모드에서의 상기 프로세싱 세기는 오름차순으로 변화하는, 모드 제어 방법.
  7. 제4항 내지 제6항 중 어느 한 항에 있어서,
    상기 타깃 프로세싱 기능이 ANC 기능일 때, 더 큰 타깃 프로세싱 세기는 상기 사용자의 외이도(ear canal)에서의 더 약한 주변 음, 및 상기 사용자에 의해 지각되고, 상기 사용자가 현재 위치되어 있는 환경 내에 있는 더 약한 음을 지시하거나;
    상기 타깃 프로세싱 기능이 HT 기능일 때, 더 큰 타깃 프로세싱 세기는, 상기 사용자에 의해 지각되고, 상기 사용자가 현재 위치되어 있는 환경 내에 있는 음의 더 큰 세기를 지시하거나;
    상기 타깃 프로세싱 기능이 AH 기능일 때, 더 높은 타깃 프로세싱 세기는, 상기 사용자에 의해 지각되고, 상기 사용자가 현재 위치되어 있는 환경 내에 있는 음 내에 포함된 더 강한 이벤트 음을 지시하는, 모드 제어 방법.
  8. 모드 제어 방법으로서,
    상기 모드 제어 방법은 단말 디바이스에 적용되고, 상기 모드 제어 방법은,
    타깃 모드를 획득하는 단계 - 상기 타깃 모드는 헤드셋에 의해 지원된 프로세싱 모드 중의 하나이고, 상기 헤드셋에 의해 지원된 프로세싱 모드는 다음의 모드: 능동 잡음 제어(ANC) 모드, 주변 음 히어-스루(HT) 모드, 또는 증강된 청취(AH) 모드 중의 적어도 2개를 포함함 -;
    현재의 외부 환경의 장면 유형에 기초하여 상기 타깃 모드에서의 타깃 프로세싱 세기를 결정하는 단계 - 상이한 장면 유형은 상기 타깃 모드에서의 상이한 프로세싱 세기에 대응함 -; 및
    상기 타깃 프로세싱 세기를 상기 헤드셋으로 송신하는 단계 - 상기 타깃 프로세싱 세기는 상기 헤드셋이 상기 타깃 모드에 대응하는 프로세싱 기능을 수행하는 프로세싱 세기를 지시함 - 를 포함하는, 모드 제어 방법.
  9. 제8항에 있어서,
    상기 타깃 모드를 획득하는 단계는,
    상기 헤드셋에 의해 송신된 상기 타깃 모드를 수신하는 단계; 또는
    선택 제어부를 디스플레이하는 단계 - 상기 선택 제어부는 헤드셋에 의해 지원된 프로세싱 모드를 포함함 -; 및 상기 선택 제어부를 이용함으로써, 사용자에 의해, 상기 헤드셋의 상기 프로세싱 모드로부터 상기 타깃 모드를 선택하는 조작을 검출하는 단계를 포함하는, 모드 제어 방법.
  10. 제8항 또는 제9항에 있어서,
    현재의 외부 환경의 장면 유형에 기초하여 상기 타깃 모드에서의 타깃 프로세싱 세기를 결정하기 전에, 상기 모드 제어 방법은,
    상기 헤드셋에 의해 송신된 상기 타깃 모드가 수신될 때, 선택 프롬프트 정보를 디스플레이하는 단계 - 상기 선택 프롬프트 정보는 상기 헤드셋의 프로세싱 모드를 상기 타깃 모드로 조절할 것인지 여부를 사용자에게 지시함 -; 및
    상기 사용자에 의해, 상기 헤드셋의 상기 프로세싱 모드를 상기 타깃 모드로 조절하도록 선택하는 조작을 검출하는 단계를 더 포함하는, 모드 제어 방법.
  11. 제8항 내지 제10항 중 어느 한 항에 있어서,
    상기 타깃 프로세싱 기능이 ANC 기능일 때, 더 큰 타깃 프로세싱 세기는 상기 사용자의 외이도에서의 더 약한 주변 음, 및 상기 사용자에 의해 지각되고, 상기 사용자가 현재 위치되어 있는 환경 내에 있는 더 약한 음을 지시하거나;
    상기 타깃 프로세싱 기능이 HT 기능일 때, 더 큰 타깃 프로세싱 세기는, 상기 사용자에 의해 지각되고, 상기 사용자가 현재 위치되어 있는 환경 내에 있는 음의 더 큰 세기를 지시하거나;
    상기 타깃 프로세싱 기능이 AH 기능일 때, 더 높은 타깃 프로세싱 세기는, 상기 사용자에 의해 지각되고, 상기 사용자가 현재 위치되어 있는 환경 내에 있는 음 내에 포함된 더 강한 이벤트 음을 지시하는, 모드 제어 방법.
  12. 모드 제어 방법으로서,
    상기 모드 제어 방법은 단말 디바이스에 적용되고, 상기 모드 제어 방법은,
    제1 인터페이스를 디스플레이하는 단계 - 상기 제1 인터페이스는 제1 선택 제어부를 포함하고; 상기 제1 선택 제어부는 제1 타깃 이어폰에 의해 지원된 프로세싱 모드, 및 상기 제1 타깃 이어폰에 의해 지원된 상기 프로세싱 모드에 대응하는 프로세싱 세기를 포함하고; 상기 제1 타깃 이어폰의 상기 프로세싱 모드는 다음의 모드: 능동 잡음 제어(ANC) 모드, 주변 음 히어-스루(HT) 모드, 또는 증강된 청취(AH) 모드 중의 적어도 2개를 포함함 -;
    상기 제1 인터페이스에서 사용자에 의해 수행된 제1 조작에 대해 응답하는 단계 - 상기 제1 조작은 상기 사용자가 상기 제1 선택 제어부를 이용함으로써, 상기 제1 타깃 이어폰에 의해 지원된 상기 프로세싱 모드로부터 제1 타깃 모드를 선택하고, 상기 제1 타깃 모드에서의 프로세싱 세기를 제1 타깃 프로세싱 세기로서 선택할 때에 생성됨 -; 및
    상기 제1 타깃 모드 및 상기 제1 타깃 프로세싱 세기를 상기 제1 타깃 이어폰으로 송신하는 단계 - 상기 제1 타깃 모드는 상기 제1 타깃 모드에 대응하는 프로세싱 기능을 수행하도록 상기 제1 타깃 이어폰에 지시하고, 상기 제1 타깃 프로세싱 세기는 상기 제1 타깃 이어폰이 상기 제1 타깃 모드에 대응하는 상기 프로세싱 기능을 수행하는 프로세싱 세기를 지시함 - 를 포함하는, 모드 제어 방법.
  13. 제12항에 있어서,
    제1 인터페이스를 디스플레이하기 전에, 상기 모드 제어 방법은,
    선택 프롬프트 정보를 디스플레이하는 단계 - 상기 선택 프롬프트 정보는 상기 제1 타깃 이어폰의 프로세싱 모드를 조절할 것인지 여부를 선택하기 위하여 상기 사용자에 의해 이용됨 -; 및
    상기 사용자에 의해, 상기 제1 타깃 이어폰의 상기 프로세싱 모드를 조절하도록 선택하는 조작을 검출하는 단계를 더 포함하는, 모드 제어 방법.
  14. 제11항 또는 제12항에 있어서,
    제1 인터페이스를 디스플레이하기 전에, 상기 모드 제어 방법은,
    현재의 외부 환경의 장면 유형이 타깃 장면인 것으로 식별하는 단계를 더 포함하고, 상기 타깃 장면은 상기 제1 타깃 이어폰의 상기 프로세싱 모드가 조절될 필요가 있는 장면 유형에 적응하는, 모드 제어 방법.
  15. 제11항 또는 제12항에 있어서,
    제1 인터페이스를 디스플레이하기 전에, 상기 모드 제어 방법은,
    상기 단말 디바이스가 오디오를 플레이하도록 상기 제1 타깃 이어폰을 트리거링하는 것으로 식별하는 단계를 더 포함하는, 모드 제어 방법.
  16. 제11항 또는 제12항에 있어서,
    제1 인터페이스를 디스플레이하기 전에, 상기 모드 제어 방법은,
    상기 단말 디바이스가 상기 제1 타깃 이어폰에 대한 접속을 확립하는 것을 검출하는 단계를 더 포함하는, 모드 제어 방법.
  17. 제11항 또는 제12항에 있어서,
    제1 인터페이스를 디스플레이하기 전에, 상기 모드 제어 방법은,
    상기 단말 디바이스가 상기 제1 타깃 이어폰에 대한 접속을 확립하는 것을 검출할 때, 홈 스크린 상에서 상기 사용자에 의해 수행된 제2 조작을 검출하는 단계를 더 포함하고,
    상기 홈 스크린은 제1 애플리케이션의 아이콘(icon)을 포함하고, 상기 제2 조작은 상기 사용자가 상기 제1 애플리케이션의 상기 아이콘을 터치하여 제어할 때에 생성되고, 상기 제1 인터페이스는 상기 제1 애플리케이션의 디스플레이 인터페이스인, 모드 제어 방법.
  18. 제11항 내지 제17항 중 어느 한 항에 있어서,
    상기 제1 선택 제어부는 제1 제어부 및 제2 제어부를 포함하고, 상기 제1 제어부 상의 상기 제2 제어부의 임의의 2개의 상이한 포지션은 상기 제1 타깃 이어폰의 2개의 상이한 프로세싱 모드를 지시하거나, 상기 제1 제어부 상의 상기 제2 제어부의 임의의 2개의 상이한 포지션은 동일한 프로세싱 모드에서의 상기 제1 타깃 이어폰의 상이한 프로세싱 세기를 지시하고;
    상기 제1 조작은 상기 사용자가 상기 제2 제어부를, 상기 제1 타깃 모드에 대응하고 상기 제1 제어부 상에 있는 영역 내의 제1 포지션으로 이동시킬 때에 생성되고, 상기 제1 포지션은 상기 제1 타깃 모드에서의 상기 제1 타깃 프로세싱 세기에 대응하는, 모드 제어 방법.
  19. 제18항에 있어서,
    상기 제1 제어부는 링 형상이고, 링은 적어도 2개의 아크 세그먼트(arc segment)를 포함하고, 상기 제2 제어부는 상기 제1 타깃 이어폰의 상이한 프로세싱 모드를 지시하기 위하여 상이한 아크 세그먼트 내에 위치되어 있거나, 상기 제2 제어부는 동일한 프로세싱 모드에서의 상기 제1 타깃 이어폰의 상이한 프로세싱 세기를 지시하기 위하여 동일한 아크 세그먼트의 상이한 포지션 내에 위치되어 있거나;
    상기 제1 제어부는 바 형상이고, 바는 적어도 2개의 바-형상 세그먼트를 포함하고, 상기 제2 제어부는 상기 제1 타깃 이어폰의 상이한 프로세싱 모드를 지시하기 위하여 상이한 바-형상 세그먼트 내에 위치되어 있거나, 상기 제2 제어부는 동일한 프로세싱 모드에서의 상기 제1 타깃 이어폰의 상이한 프로세싱 세기를 지시하기 위하여 동일한 바-형상 세그먼트의 상이한 포지션 내에 위치되어 있는, 모드 제어 방법.
  20. 제11항 내지 제19항 중 어느 한 항에 있어서,
    상기 모드 제어 방법은,
    상기 제1 인터페이스에서 상기 사용자에 의해 수행된 제3 조작에 대해 응답하는 단계 - 상기 제1 인터페이스는 제2 선택 제어부를 더 포함하고; 상기 제2 선택 제어부는 제2 타깃 이어폰에 의해 지원된 프로세싱 모드, 및 상기 제2 타깃 이어폰에 의해 지원된 프로세싱 모드에 대응하는 프로세싱 세기를 포함하고; 상기 제1 타깃 이어폰에 의해 지원된 상기 프로세싱 모드는 다음의 모드: 능동 잡음 제어(ANC) 모드, 주변 음 히어-스루(HT) 모드, 또는 증강된 청취(AH) 모드 중의 적어도 2개를 포함하고; 상기 제3 조작은 상기 사용자가 상기 제2 선택 제어부를 이용함으로써 상기 제2 타깃 이어폰의 상기 프로세싱 모드로부터 제2 타깃 모드를 선택하고, 상기 제2 타깃 모드에서의 프로세싱 세기를 제2 타깃 프로세싱 세기로서 선택할 때에 생성되고; 상기 제2 타깃 이어폰은 상기 제1 타깃 이어폰이 좌측 이어폰일 때에 우측 이어폰이거나, 상기 제1 타깃 이어폰은 우측 이어폰이고 상기 제2 타깃 이어폰은 좌측 이어폰임 -; 및
    상기 제2 타깃 모드 및 상기 제2 타깃 프로세싱 세기를 상기 제2 타깃 이어폰으로 송신하는 단계 - 상기 제2 타깃 모드는 상기 제2 타깃 모드에 대응하는 프로세싱 기능을 수행하도록 상기 제2 타깃 이어폰에 지시하고, 상기 제2 타깃 프로세싱 세기는 상기 제2 타깃 이어폰이 상기 제2 타깃 모드에 대응하는 상기 프로세싱 기능을 수행하는 프로세싱 세기를 지시함 - 를 더 포함하는, 모드 제어 방법.
  21. 모드 제어 장치로서,
    상기 모드 제어 장치는 단말 디바이스에서 이용되고, 상기 모드 제어 장치는,
    현재의 외부 환경의 장면 유형이 타깃 장면인 것으로 식별될 때, 상기 타깃 장면에 기초하여 타깃 모드를 결정하도록 구성된 제1 검출 모듈 - 상기 타깃 모드는 헤드셋에 의해 지원된 프로세싱 모드 중의 하나이고, 상이한 프로세싱 모드는 상이한 장면 유형에 대응하고, 상기 헤드셋에 의해 지원된 상기 프로세싱 모드는 다음의 모드: 능동 잡음 제어(ANC) 모드, 주변 음 히어-스루(HT) 모드, 또는 증강된 청취(AH) 모드 중의 적어도 2개를 포함함 -; 및
    상기 타깃 모드를 상기 헤드셋으로 송신하도록 구성된 송신 모듈 - 상기 타깃 모드는 상기 타깃 모드에 대응하는 프로세싱 기능을 수행하도록 상기 헤드셋에 지시함 - 을 포함하는, 모드 제어 장치.
  22. 제21항에 있어서,
    상기 타깃 모드가 상기 타깃 장면에 기초하여 결정될 때, 결과 프롬프트 정보를 디스플레이하도록 구성된 디스플레이 모듈을 더 포함하고, 상기 결과 프롬프트 정보는 상기 헤드셋이 상기 타깃 모드에 대응하는 상기 프로세싱 기능을 수행한다는 것을 사용자에게 프롬프트하기 위하여 이용되는, 모드 제어 장치.
  23. 제21항에 있어서,
    제1 제어 시그널링이 상기 헤드셋으로 송신되기 전에, 선택 프롬프트 정보를 디스플레이하도록 구성된 디스플레이 모듈 - 상기 선택 프롬프트 정보는 상기 헤드셋의 프로세싱 모드를 상기 타깃 모드로 조절할 것인지 여부를 사용자에게 지시함 -; 및
    상기 사용자에 의해, 상기 헤드셋의 상기 프로세싱 모드를 상기 타깃 모드로서 선택하는 조작을 검출하도록 구성된 제2 검출 모듈을 더 포함하는, 모드 제어 장치.
  24. 제23항에 있어서,
    상기 디스플레이 모듈은 제1 제어부 및 제2 제어부를 디스플레이하도록 추가로 구성되고, 상기 제1 제어부 상의 상기 제2 제어부의 상이한 포지션은 상기 타깃 모드에서의 상이한 프로세싱 세기를 지시하고;
    제2 검출 모듈은, 상기 송신 모듈이 상기 제1 제어 시그널링을 상기 헤드셋으로 송신하기 전에, 상기 사용자에 의해 상기 제1 제어부 상의 제1 포지션으로 이동하도록 상기 제2 제어부를 터치하여 제어하는 조작을 검출하도록 추가로 구성되고, 상기 제1 제어부 상의 상기 제2 제어부의 상기 제1 포지션은 상기 타깃 모드에서의 타깃 프로세싱 세기를 지시하고;
    상기 송신 모듈은 상기 타깃 프로세싱 세기를 상기 헤드셋으로 송신하도록 추가로 구성되고, 상기 타깃 프로세싱 세기는 상기 헤드셋이 상기 타깃 모드에 대응하는 상기 프로세싱 기능을 수행하는 프로세싱 세기를 지시하는, 모드 제어 장치.
  25. 제24항에 있어서,
    상기 제1 제어부는 링 형상이고; 상기 사용자는 상기 제1 제어부 상에서 시계 방향으로 이동하도록 상기 제2 제어부를 터치하여 제어하고, 상기 타깃 모드에서의 상기 프로세싱 세기는 오름차순으로 변화하거나;
    사용자는 제1 제어부 상에서 반시계 방향으로 이동하도록 제2 제어부를 터치하여 제어하고, 타깃 모드에서의 프로세싱 세기는 오름차순으로 변화하는, 모드 제어 장치.
  26. 제24항에 있어서,
    상기 제1 제어부는 바 형상이고; 상기 사용자는 상기 제1 제어부 상에서 상부로부터 하부로 이동하도록 상기 제2 제어부를 터치하여 제어하고, 상기 타깃 모드에서의 상기 프로세싱 세기는 오름차순으로 변화하거나;
    상기 사용자는 상기 제1 제어부 상에서 하부로부터 상부로 이동하도록 상기 제2 제어부를 터치하여 제어하고, 상기 타깃 모드에서의 상기 프로세싱 세기는 오름차순으로 변화하거나;
    상기 사용자는 상기 제1 제어부 상에서 좌측으로부터 우측으로 이동하도록 상기 제2 제어부를 터치하여 제어하고, 상기 타깃 모드에서의 상기 프로세싱 세기는 오름차순으로 변화하거나;
    상기 사용자는 상기 제1 제어부 상에서 우측으로부터 좌측으로 이동하도록 상기 제2 제어부를 터치하여 제어하고, 상기 타깃 모드에서의 상기 프로세싱 세기는 오름차순으로 변화하는, 모드 제어 장치.
  27. 제24항 내지 제26항 중 어느 한 항에 있어서,
    상기 타깃 프로세싱 기능이 ANC 기능일 때, 더 큰 타깃 프로세싱 세기는 상기 사용자의 외이도에서의 더 약한 주변 음, 및 상기 사용자에 의해 지각되고, 상기 사용자가 현재 위치되어 있는 환경 내에 있는 더 약한 음을 지시하거나;
    상기 타깃 프로세싱 기능이 HT 기능일 때, 더 큰 타깃 프로세싱 세기는, 상기 사용자에 의해 지각되고, 상기 사용자가 현재 위치되어 있는 환경 내에 있는 음의 더 큰 세기를 지시하거나;
    상기 타깃 프로세싱 기능이 AH 기능일 때, 더 높은 타깃 프로세싱 세기는, 상기 사용자에 의해 지각되고, 상기 사용자가 현재 위치되어 있는 환경 내에 있는 음 내에 포함된 더 강한 이벤트 음을 지시하는, 모드 제어 장치.
  28. 모드 제어 장치로서,
    상기 모드 제어 장치는 단말 디바이스에서 이용되고, 상기 모드 제어 장치는,
    타깃 모드를 획득하도록 구성된 프로세싱 모듈 - 상기 타깃 모드는 헤드셋에 의해 지원된 프로세싱 모드 중의 하나이고, 상기 헤드셋에 의해 지원된 프로세싱 모드는 다음의 모드: 능동 잡음 제어(ANC) 모드, 주변 음 히어-스루(HT) 모드, 또는 증강된 청취(AH) 모드 중의 적어도 2개를 포함하고, 상기 프로세싱 모듈은 현재의 외부 환경의 장면 유형에 기초하여 상기 타깃 모드에서의 타깃 프로세싱 세기를 결정하도록 추가로 구성되고, 상이한 장면 유형은 상기 타깃 모드에서의 상이한 프로세싱 세기에 대응함 -; 및
    상기 타깃 프로세싱 세기를 상기 헤드셋으로 송신하도록 추가로 구성된 송신 모듈 - 상기 타깃 프로세싱 세기는 상기 헤드셋이 상기 타깃 모드에 대응하는 프로세싱 기능을 수행하는 프로세싱 세기를 지시함 - 을 포함하는, 모드 제어 장치.
  29. 제28항에 있어서,
    상기 헤드셋에 의해 송신된 상기 타깃 모드를 수신하도록 구성된 수신 모듈을 더 포함하는, 모드 제어 장치.
  30. 제28항에 있어서,
    선택 제어부를 디스플레이하고 - 상기 선택 제어부는 상기 헤드셋에 의해 지원된 프로세싱 모드를 포함함 -; 상기 선택 제어부를 이용함으로써, 상기 사용자에 의해, 상기 헤드셋의 상기 프로세싱 모드로부터 상기 타깃 모드를 선택하는 조작을 검출하도록 구성된 디스플레이 모듈을 더 포함하는, 모드 제어 장치.
  31. 제29항에 있어서,
    상기 디스플레이 모듈은,
    상기 프로세싱 모듈이 상기 현재의 외부 환경의 상기 장면 유형에 기초하여 상기 타깃 모드에서의 상기 타깃 프로세싱 세기를 결정하기 전에, 상기 수신 모듈이 상기 헤드셋에 의해 송신된 상기 타깃 모드를 수신할 때, 선택 프롬프트 정보를 디스플레이하도록 - 상기 선택 프롬프트 정보는 상기 헤드셋의 프로세싱 모드를 상기 타깃 모드로 조절할 것인지 여부를 상기 사용자에게 지시함 - 추가로 구성되고;
    상기 모드 제어 장치는,
    상기 사용자에 의해, 상기 헤드셋의 상기 프로세싱 모드를 상기 타깃 모드로 조절하도록 선택하는 조작을 검출하도록 구성된 검출 모듈을 더 포함하는, 모드 제어 장치.
  32. 제28항 내지 제31항 중 어느 한 항에 있어서,
    상기 타깃 프로세싱 기능이 ANC 기능일 때, 더 큰 타깃 프로세싱 세기는 상기 사용자의 외이도에서의 더 약한 주변 음, 및 상기 사용자에 의해 지각되고, 상기 사용자가 현재 위치되어 있는 환경 내에 있는 더 약한 음을 지시하거나;
    상기 타깃 프로세싱 기능이 HT 기능일 때, 더 큰 타깃 프로세싱 세기는, 상기 사용자에 의해 지각되고, 상기 사용자가 현재 위치되어 있는 환경 내에 있는 음의 더 큰 세기를 지시하거나;
    상기 타깃 프로세싱 기능이 AH 기능일 때, 더 높은 타깃 프로세싱 세기는, 상기 사용자에 의해 지각되고, 상기 사용자가 현재 위치되어 있는 환경 내에 있는 음 내에 포함된 더 강한 이벤트 음을 지시하는, 모드 제어 장치.
  33. 모드 제어 장치로서,
    상기 모드 제어 장치는 단말 디바이스에서 이용되고, 상기 모드 제어 장치는,
    상기 제1 인터페이스 내에 제1 선택 제어부를 포함하도록 구성된 디스플레이 모듈 - 상기 제1 선택 제어부는 제1 타깃 이어폰에 의해 지원된 프로세싱 모드, 및 상기 제1 타깃 이어폰에 의해 지원된 상기 프로세싱 모드에 대응하는 프로세싱 세기를 포함하고; 상기 제1 타깃 이어폰의 상기 프로세싱 모드는 다음의 모드: 능동 잡음 제어(ANC) 모드, 주변 음 히어-스루(HT) 모드, 또는 증강된 청취(AH) 모드 중의 적어도 2개를 포함함 -;
    상기 제1 인터페이스에서 사용자에 의해 수행된 제1 조작을 검출하도록 구성된 검출 모듈 - 상기 제1 조작은 상기 사용자가 상기 제1 선택 제어부를 이용함으로써, 상기 제1 타깃 이어폰에 의해 지원된 상기 프로세싱 모드로부터 제1 타깃 모드를 선택하고, 상기 제1 타깃 모드에서의 프로세싱 세기를 제1 타깃 프로세싱 세기로서 선택할 때에 생성됨 -; 및
    상기 제1 타깃 모드 및 상기 제1 타깃 프로세싱 세기를 상기 제1 타깃 이어폰으로 송신하도록 구성된 송신 모듈 - 상기 제1 타깃 모드는 상기 제1 타깃 모드에 대응하는 프로세싱 기능을 수행하도록 상기 제1 타깃 이어폰에 지시하고, 상기 제1 타깃 프로세싱 세기는 상기 제1 타깃 이어폰이 상기 제1 타깃 모드에 대응하는 상기 프로세싱 기능을 수행하는 프로세싱 세기를 지시함 - 을 포함하는, 모드 제어 장치.
  34. 제33항에 있어서,
    상기 디스플레이 모듈은 상기 제1 인터페이스가 디스플레이되기 전에, 선택 프롬프트 정보를 디스플레이하도록 추가로 구성되고, 상기 선택 프롬프트 정보는 상기 제1 타깃 이어폰의 프로세싱 모드를 조절할 것인지 여부를 선택하기 위하여 상기 사용자에 의해 이용되고;
    상기 검출 모듈은 상기 사용자에 의해, 상기 제1 타깃 이어폰의 상기 프로세싱 모드를 조절하도록 선택하는 조작을 검출하도록 추가로 구성되는, 모드 제어 장치.
  35. 제33항 또는 제34항에 있어서,
    상기 제1 인터페이스가 디스플레이 모드에서 디스플레이되기 전에, 현재의 외부 환경의 장면 유형이 타깃 장면인 것으로 식별하도록 구성된 식별 모듈을 더 포함하고, 상기 타깃 장면은 상기 제1 타깃 이어폰의 상기 프로세싱 모드가 조절될 필요가 있는 장면 유형에 적응하는, 모드 제어 장치.
  36. 제33항 또는 제34항에 있어서,
    상기 디스플레이 모듈이 제1 인터페이스를 디스플레이하기 전에, 상기 단말 디바이스가 오디오를 플레이하도록 상기 제1 타깃 이어폰을 트리거링하는 것으로 식별하도록 구성된 식별 모듈을 더 포함하는, 모드 제어 장치.
  37. 제33항 또는 제34항에 있어서,
    상기 검출 모듈은, 상기 디스플레이 모듈이 상기 제1 인터페이스를 디스플레이하기 전에, 상기 단말 디바이스가 상기 제1 타깃 이어폰에 대한 접속을 확립하는 것을 검출하도록 추가로 구성되는, 모드 제어 장치.
  38. 제33항 또는 제34항에 있어서,
    상기 디스플레이 모듈이 상기 제1 인터페이스를 디스플레이하기 전에, 상기 단말 디바이스가 상기 제1 타깃 이어폰에 대한 접속을 확립하는 것을 검출할 때, 상기 검출 모듈은 홈 스크린 상에서 상기 사용자에 의해 수행된 제2 조작을 검출하고,
    상기 홈 스크린은 제1 애플리케이션의 아이콘을 포함하고, 상기 제2 조작은 상기 사용자가 상기 제1 애플리케이션의 상기 아이콘을 터치하여 제어할 때에 생성되고, 상기 제1 인터페이스는 상기 제1 애플리케이션의 디스플레이 인터페이스인, 모드 제어 장치.
  39. 제33항 내지 제38항 중 어느 한 항에 있어서,
    상기 제1 선택 제어부는 제1 제어부 및 제2 제어부를 포함하고, 상기 제1 제어부 상의 상기 제2 제어부의 임의의 2개의 상이한 포지션은 상기 제1 타깃 이어폰의 2개의 상이한 프로세싱 모드를 지시하거나, 상기 제1 제어부 상의 상기 제2 제어부의 임의의 2개의 상이한 포지션은 동일한 프로세싱 모드에서의 상기 제1 타깃 이어폰의 상이한 프로세싱 세기를 지시하고;
    상기 제1 조작은 상기 사용자가 상기 제2 제어부를, 상기 제1 타깃 모드에 대응하고 상기 제1 제어부 상에 있는 영역 내의 제1 포지션으로 이동시킬 때에 생성되고, 상기 제1 포지션은 상기 제1 타깃 모드에서의 상기 제1 타깃 프로세싱 세기에 대응하는, 모드 제어 장치.
  40. 제39항에 있어서,
    상기 제1 제어부는 링 형상이고, 링은 적어도 2개의 아크 세그먼트를 포함하고, 상기 제2 제어부는 상기 제1 타깃 이어폰의 상이한 프로세싱 모드를 지시하기 위하여 상이한 아크 세그먼트 내에 위치되어 있거나, 상기 제2 제어부는 동일한 프로세싱 모드에서의 상기 제1 타깃 이어폰의 상이한 프로세싱 세기를 지시하기 위하여 동일한 아크 세그먼트의 상이한 포지션 내에 위치되어 있거나;
    상기 제1 제어부는 바 형상이고, 바는 적어도 2개의 바-형상 세그먼트를 포함하고, 상기 제2 제어부는 상기 제1 타깃 이어폰의 상이한 프로세싱 모드를 지시하기 위하여 상이한 바-형상 세그먼트 내에 위치되어 있거나, 상기 제2 제어부는 동일한 프로세싱 모드에서의 상기 제1 타깃 이어폰의 상이한 프로세싱 세기를 지시하기 위하여 동일한 바-형상 세그먼트의 상이한 포지션 내에 위치되어 있는, 모드 제어 장치.
  41. 제33항 내지 제40항 중 어느 한 항에 있어서,
    상기 검출 모듈은 상기 제1 인터페이스에서 상기 사용자에 의해 수행된 제3 조작에 대해 응답하도록 추가로 구성되고, 상기 제1 인터페이스는 제2 선택 제어부를 더 포함하고; 상기 제2 선택 제어부는 제2 타깃 이어폰에 의해 지원된 프로세싱 모드, 및 상기 제2 타깃 이어폰에 의해 지원된 상기 프로세싱 모드에 대응하는 프로세싱 세기를 포함하고; 상기 제1 타깃 이어폰에 의해 지원된 상기 프로세싱 모드는 다음의 모드: 능동 잡음 제어(ANC) 모드, 주변 음 히어-스루(HT) 모드, 또는 증강된 청취(AH) 모드 중의 적어도 2개를 포함하고; 상기 제3 조작은 상기 사용자가 상기 제2 선택 제어부를 이용함으로써 상기 제2 타깃 이어폰의 상기 프로세싱 모드로부터 제2 타깃 모드를 선택하고, 상기 제2 타깃 모드에서의 프로세싱 세기를 제2 타깃 프로세싱 세기로서 선택할 때에 생성되고; 상기 제2 타깃 이어폰은 상기 제1 타깃 이어폰이 좌측 이어폰일 때에 우측 이어폰이거나, 상기 제1 타깃 이어폰은 우측 이어폰이고 상기 제2 타깃 이어폰은 좌측 이어폰이고;
    상기 송신 모듈은 상기 제2 타깃 모드 및 상기 제2 타깃 프로세싱 세기를 상기 제2 타깃 이어폰으로 송신하도록 추가로 구성되고, 상기 제2 타깃 모드는 상기 제2 타깃 모드에 대응하는 프로세싱 기능을 수행하도록 상기 제2 타깃 이어폰에 지시하고, 상기 제2 타깃 프로세싱 세기는 상기 제2 타깃 이어폰이 상기 제2 타깃 모드에 대응하는 상기 프로세싱 기능을 수행하는 프로세싱 세기를 지시하는, 모드 제어 장치.
  42. 단말 디바이스로서,
    메모리, 프로세서, 및 디스플레이를 포함하고,
    상기 디스플레이는 인터페이스를 디스플레이하도록 구성되고;
    상기 메모리는 프로그램 또는 명령을 저장하도록 구성되고;
    상기 프로세서는 상기 프로그램 또는 상기 명령을 호출하도록 구성되어, 상기 단말 디바이스는 제1항 내지 제20항 중 어느 한 항에 따른 상기 방법을 수행하는, 단말 디바이스.
  43. 헤드셋 제어 방법으로서,
    상기 헤드셋 제어 방법은 단말 디바이스에 적용되고, 상기 헤드셋 제어 방법은,
    상기 단말 디바이스에 의해, 헤드셋에 대한 통신 접속을 확립하는 단계 - 상기 헤드셋은 능동 잡음 제어(ANC) 기능 및 주변 음 히어-스루(HT) 기능을 지원함 -;
    제1 인터페이스를 디스플레이하는 단계 - 상기 제1 인터페이스는 상기 헤드셋의 기능을 설정하기 위하여 이용되고, 상기 제1 인터페이스는 이벤트 음 강화 기능을 위한 옵션을 포함하고, 이벤트 음은, 사전설정된 이벤트 조건을 충족시키고 외부 환경 내에 있는 음임 -; 및
    상기 이벤트 음 강화 기능을 위한 옵션이 이네이블(enable)될 때, 상기 헤드셋의 상기 ANC 기능 및 상기 HT 기능의 둘 모두를 이네이블된 상태가 되도록 제어하는 단계를 포함하는, 헤드셋 제어 방법.
  44. 제43항에 있어서,
    상기 제1 인터페이스는 상기 헤드셋의 상기 HT 기능을 제어하기 위한 옵션을 포함하고; 상기 제1 인터페이스가 디스플레이된 후에, 상기 헤드셋 제어 방법은,
    상기 HT 기능을 위한 옵션이 이네이블될 때, 상기 헤드셋의 상기 HT 기능을 활성화하는 단계; 및
    상기 이벤트 음을 강화하기 위한 옵션을 상기 제1 인터페이스에 추가하는 단계를 더 포함하는, 헤드셋 제어 방법.
  45. 제44항에 있어서,
    상기 헤드셋의 상기 ANC 기능 및 상기 HT 기능의 둘 모두를 이네이블된 상태가 되도록 제어하는 단계는,
    상기 HT 기능을 이네이블된 상태에서 유지하도록 상기 헤드셋을 제어하는 단계; 및
    상기 헤드셋의 상기 ANC 기능을 활성화하는 단계를 포함하는, 헤드셋 제어 방법.
  46. 제43항 내지 제45항 중 어느 한 항에 있어서,
    상기 제1 인터페이스는 상기 헤드셋의 상기 ANC 기능을 제어하기 위한 옵션을 포함하고, 상기 헤드셋 제어 방법은,
    상기 ANC 기능을 위한 옵션이 이네이블될 때, 상기 헤드셋의 상기 ANC 기능을 활성화하는 단계를 더 포함하는, 헤드셋 제어 방법.
  47. 제43항 내지 제46항 중 어느 한 항에 있어서,
    상기 제1 인터페이스는 상기 ANC 기능을 디세이블(disable)하기 위한 옵션 및/또는 상기 HT 기능을 디세이블하기 위한 옵션을 더 포함하는, 헤드셋 제어 방법.
  48. 제47항에 있어서,
    상기 헤드셋의 상기 ANC 기능이 활성화된 후에, 상기 ANC 기능의 세기 옵션은 상기 제1 인터페이스에 추가되는, 헤드셋 제어 방법.
  49. 제48항에 있어서,
    상기 ANC 기능의 상기 세기 옵션은 적어도 제1 정상-상태 ANC 세기 옵션, 제2 정상-상태 ANC 세기 옵션, 및 적응적 ANC 세기 옵션을 포함하고; 상기 제1 정상-상태 ANC 세기 옵션 및 상기 제2 정상-상태 ANC 세기 옵션은 각각 제1 장면 및 제2 장면에 대응하고, 상이한 ANC 기능 세기에 대응하고; 상기 적응적 ANC 세기 옵션에 대응하는 ANC 기능 세기는 상기 단말 디바이스 또는 상기 헤드셋이 위치되어 있는 현재의 환경의 장면 유형에 관련되고; 상기 현재의 환경의 상이한 장면 유형은 상이한 ANC 세기에 대응하는, 헤드셋 제어 방법.
  50. 제49항에 있어서,
    상기 헤드셋 제어 방법은, 상기 적응적 ANC 세기 옵션이 이네이블될 때, 상기 단말 또는 상기 헤드셋이 위치되어 있는 상기 현재 환경의 상기 장면 유형을 획득하는 단계;
    상기 장면 유형에 기초한 정합을 통해 상기 ANC 기능의 타깃 세기를 획득하는 단계; 및
    상기 타깃 세기에 기초하여 상기 헤드셋의 상기 ANC 기능을 제어하는 단계를 더 포함하는, 헤드셋 제어 방법.
  51. 제50항에 있어서,
    상기 현재의 환경의 상기 상이한 장면 유형은 제1 장면 및 제2 장면을 포함하는, 헤드셋 제어 방법.
  52. 제43항 내지 제51항 중 어느 한 항에 있어서,
    상기 이벤트 음은 사전설정된 스펙트럼 특성을 충족시키는 인간 음성 또는 또 다른 음을 포함하는, 헤드셋 제어 방법.
  53. 제43항 내지 제52항 중 어느 한 항에 있어서,
    상기 헤드셋의 상기 HT 기능이 활성화된 후에, 상기 헤드셋 제어 방법은,
    상기 HT 기능의 타깃 세기를 획득하는 단계; 및
    상기 HT 기능의 타깃 세기에 기초하여 상기 헤드셋의 상기 HT 기능을 제어하는 단계를 더 포함하는, 헤드셋 제어 방법.
  54. 제43항 내지 제53항 중 어느 한 항에 있어서,
    상기 이벤트 음 강화 기능을 위한 상기 옵션을 이네이블하는 것, 상기 HT 기능을 위한 상기 옵션을 이네이블하는 것, 또는 상기 ANC 기능을 위한 상기 옵션을 이네이블하는 것은,
    상기 사용자에 의해 대응하는 기능 옵션에 대해 수행된 탭-투-선택(tap-to-select) 조작, 대응하는 기능에 대해 수행된 적응적 스위칭, 또는 대응하는 기능에 대해 수행된 단축키 트리거링(shortcut triggering)에 대해 응답하는 것을 포함하는, 헤드셋 제어 방법.
  55. 제43항 내지 제54항 중 어느 한 항에 있어서,
    상기 ANC 기능 및 상기 HT 기능은 상기 헤드셋에 의해 수집된 외부 환경에서의 음 신 신호를 프로세싱하도록 공동으로 이네이블되고, 상기 프로세싱은 상기 수집된 신호 내의 상기 이벤트 음의 신호-대-잡음(signal-to-noise) 비율을 증가시키는 것을 포함하고, 상기 이벤트 음의 더 높은 신호-대-잡음 비율은 상기 신호 내의 상기 이벤트 음의 더 높은 에너지 비율을 지시하는, 헤드셋 제어 방법.
  56. 잡음제거 방법으로서,
    상기 잡음제거 방법은 헤드셋에 적용되고; 상기 헤드셋은 적어도 능동 잡음 제어(ANC) 기능 및 주변 음 히어-스루(HT) 기능을 지원하고; 상기 헤드셋은 제1 마이크로폰, 제2 마이크로폰, 및 스피커를 포함하고, 상기 잡음제거 방법은,
    상기 제1 마이크로폰을 이용함으로써 제1 신호를 수집하는 단계 - 상기 제1 신호는 현재의 외부 환경에서의 음을 나타내기 위하여 이용됨 -;
    상기 제2 마이크로폰을 이용함으로써 제2 신호를 수집하는 단계 - 상기 제2 신호는 상기 헤드셋을 착용하는 사용자의 외이도에서의 주변 음을 나타내기 위하여 이용됨 -;
    이벤트 음을 강화하기 위한 명령을 수신하는 단계 - 상기 이벤트 음은, 사전설정된 이벤트 조건을 충족시키고 상기 외부 환경 내에 있는 음임 -;
    상기 ANC 기능 및 상기 HT 기능의 둘 모두를 이네이블된 상태가 되도록 제어하고, 타깃 신호를 획득하기 위하여, 적어도 상기 HT 기능 및 상기 ANC 기능을 이용함으로써 상기 제1 신호 및 상기 제2 신호에 대해 타깃 프로세싱을 수행하는 단계 - 상기 타깃 신호 내의 이벤트 음의 신호-대-잡음 비율은 상기 제1 신호 내의 이벤트 음의 신호-대-잡음 비율 초과임 -; 및
    상기 스피커를 이용함으로써 상기 타깃 신호를 플레이하는 단계를 포함하는, 잡음제거 방법.
  57. 제56항에 있어서,
    상기 타깃 신호를 획득하기 위하여, 적어도 상기 HT 기능 및 상기 ANC 기능을 이용함으로써 상기 제1 신호 및 상기 제2 신호에 대해 타깃 프로세싱을 수행하는 단계는,
    복원된 신호를 획득하기 위하여, 상기 HT 기능을 이용함으로써 히어 스루를 통해 상기 제1 신호를 전송하는 단계;
    이벤트 음 강화된 신호를 획득하기 위하여, 상기 복원된 신호 내의 이벤트 음 신호를 강화하고, 상기 복원된 신호 내의 비 이벤트 음 신호를 약화하는 단계; 및
    상기 타깃 신호를 획득하기 위하여, 상기 ANC 기능을 이용함으로써 상기 제1 신호, 상기 제2 신호, 및 상기 이벤트 음 강화된 신호를 프로세싱하는 단계를 포함하는, 잡음제거 방법.
  58. 잡음제거 방법으로서,
    상기 잡음제거 방법은 헤드셋에 적용되고; 상기 헤드셋은 적어도 능동 잡음 제어(ANC) 기능을 지원하고; 상기 헤드셋은 제1 마이크로폰, 제2 마이크로폰, 및 스피커를 포함하고, 상기 잡음제거 방법은,
    상기 제1 마이크로폰을 이용함으로써 제1 신호를 수집하는 단계 - 상기 제1 신호는 현재의 외부 환경에서의 음을 나타내기 위하여 이용됨 -;
    상기 제2 마이크로폰을 이용함으로써 제2 신호를 수집하는 단계 - 상기 제2 신호는 상기 헤드셋을 착용하는 사용자의 외이도에서의 주변 음을 나타내기 위하여 이용됨 -;
    이벤트 음을 강화하기 위한 명령을 수신하는 단계 - 상기 이벤트 음은, 사전설정된 이벤트 조건을 충족시키고 상기 외부 환경 내에 있는 음임 -;
    상기 ANC 기능을 이네이블하는 단계;
    이벤트 음 강화된 신호를 획득하기 위하여, 상기 제1 신호 내의 이벤트 음 신호를 강화하고, 상기 제1 신호 내의 비 이벤트 음 신호를 약화하는 단계;
    상기 타깃 신호를 획득하기 위하여, 상기 ANC 기능을 이용함으로써 상기 제1 신호, 상기 제2 신호, 및 상기 이벤트 음 강화된 신호를 프로세싱하는 단계 - 상기 타깃 신호 내의 상기 이벤트 음의 신호-대-잡음 비율은 상기 제1 신호 내의 상기 이벤트 음의 신호-대-잡음 비율 초과이고, 상기 신호 내의 상기 이벤트 음의 더 높은 신호-대-잡음 비율은 상기 신호 내의 상기 이벤트 음의 더 높은 에너지 비율을 지시함 -; 및
    상기 스피커를 이용함으로써 상기 타깃 신호를 플레이하는 단계를 포함하는, 잡음제거 방법.
  59. 신호 프로세싱 방법으로서,
    상기 신호 프로세싱 방법은 헤드셋에 적용되고; 상기 헤드셋은 적어도 능동 잡음 제어(ANC) 기능, 주변 음 히어-스루(HT) 기능, 및 AH 기능을 지원하고; 상기 헤드셋은 HT 필터 뱅크(filter bank), 피드백(feedback) 필터 뱅크, 및 피드포워드(feedforward) 필터 뱅크를 포함하고, 상기 신호 프로세싱 방법은,
    상기 헤드셋의 조작 모드를 획득하는 단계; 및
    상기 조작 모드가 상기 ANC 기능일 때, 상기 ANC 기능을 수행하기 위하여 상기 피드백 필터 뱅크 및 상기 피드포워드 필터 뱅크를 호출하거나;
    상기 조작 모드가 상기 HT 기능일 때, 상기 HT 기능을 수행하기 위하여 상기 HT 필터 뱅크 및 상기 피드백 필터 뱅크를 호출하거나;
    상기 조작 모드가 상기 AH 기능일 때, 상기 AH 기능을 수행하기 위하여 상기 HT 필터 뱅크, 상기 피드포워드 필터 뱅크, 및 상기 피드백 필터 뱅크를 호출하는 단계를 포함하는, 신호 프로세싱 방법.
  60. 능동 잡음 제어(ANC) 세기 조절 방법으로서,
    상기 능동 잡음 제어(ANC) 세기 조절 방법은 헤드셋에 적용되고, 상기 헤드셋은 적어도 ANC 기능을 지원하고, 상기 헤드셋은 제1 마이크로폰 및 제3 마이크로폰을 포함하고, 상기 제1 마이크로폰은 현재의 외부 환경에서의 음의 수집에 더 많이 초점을 맞추고, 상기 제3 마이크로폰은 음 픽업(sound pickup)에 더 많이 초점을 맞추고,
    상기 헤드셋의 상기 ANC 기능이 이네이블된 상태에 있을 때,
    제1 신호는 상기 제1 마이크로폰을 이용함으로써 상기 현재의 환경에 대하여 수집되고;
    제2 신호는 상기 제3 마이크로폰을 이용함으로써 상기 현재의 환경에 대하여 수집되고;
    상기 현재의 장면의 잡음 레벨은 상기 제1 신호 및 상기 제2 신호에 기초하여 결정되고, 상기 상이한 잡음 레벨은 상이한 ANC 세기에 대응하고;
    상기 ANC 기능은 현재의 잡음 레벨에 기초하여 제어되는, 능동 잡음 제어(ANC) 세기 조절 방법.
  61. 제60항에 있어서,
    상기 현재의 장면의 잡음 레벨이 상기 제1 신호 및 상기 제2 신호에 기초하여 결정되는 것은,
    상기 제1 신호와 상기 제2 신호 사이의 상관의 특징을 이용함으로써 음성 활성 검출을 수행하는 것;
    비 음성 신호의 잡음을 추적하는 것; 및
    상기 잡음의 에너지가 제1 임계치 미만일 경우에, 상기 현재의 장면을 조용한 장면으로서 결정하거나;
    상기 잡음의 스펙트럼이 주로 저 주파수 대역 내에 있고 상기 잡음의 에너지가 제2 임계치 초과일 경우에, 상기 현재의 장면을 과도한-잡음 장면으로서 결정하거나;
    상기 현재의 장면이 상기 조용한 장면도 아니고, 상기 과도한-잡음 장면도 아닐 경우에, 상기 현재의 장면을 보편적 장면으로서 결정하고, 상기 제2 임계치는 상기 제1 임계치 초과인 것을 포함하는, 능동 잡음 제어(ANC) 세기 조절 방법.
  62. 제61항에 있어서,
    상기 조용한 장면, 상기 보편적 장면, 및 상기 과도한-잡음 장면에 대응하는 ANC 세기는 연속적으로 증가하는, 능동 잡음 제어(ANC) 세기 조절 방법.
  63. 제60항 내지 제62항 중 어느 한 항에 있어서,
    상기 ANC 기능이 현재의 잡음 레벨에 기초하여 제어되는 것은,
    상기 현재의 장면이 새로운 잡음 레벨에 있고 사전설정된 기간에 대하여 지속되는 것으로 검출될 경우에,
    상기 새로운 잡음 레벨에 대응하는 ANC 세기를 획득하는 것; 및
    상기 새로운 잡음 레벨에 대응하는 상기 ANC 세기에 기초하여 상기 ANC 기능을 제어하는 것을 포함하는, 능동 잡음 제어(ANC) 세기 조절 방법.
  64. 헤드셋 제어 방법으로서,
    상기 헤드셋 제어 방법은 단말 디바이스에 적용되고, 상기 헤드셋 제어 방법은,
    상기 단말 디바이스에 의해, 헤드셋에 대한 통신 접속을 확립하는 단계 - 상기 헤드셋은 적어도 능동 잡음 제어(ANC) 기능을 지원함 -;
    제1 인터페이스를 디스플레이하는 단계 - 상기 제1 인터페이스는 상기 헤드셋의 기능을 설정하기 위하여 이용되고, 상기 제1 인터페이스는 상기 헤드셋의 ANC 기능을 제어하기 위한 옵션을 포함함 -;
    상기 ANC 기능을 위한 옵션이 이네이블될 때, 상기 헤드셋의 상기 ANC 기능을 활성화하는 단계;
    상기 ANC 기능의 세기 옵션을 상기 제1 인터페이스에 추가하는 단계; 및
    상기 ANC 기능의 상기 세기 옵션을 이네이블하는 결과에 기초하여 ANC를 수행하는 단계를 포함하고,
    상기 ANC 기능의 상기 세기 옵션은 적어도 제1 정상-상태 ANC 세기 옵션, 제2 정상-상태 ANC 세기 옵션, 및 적응적 ANC 세기 옵션을 포함하고; 상기 제1 정상-상태 ANC 세기 옵션 및 상기 제2 정상-상태 ANC 세기 옵션은 각각 제1 장면 및 제2 장면에 대응하고, 상이한 정상 ANC 기능 세기에 대응하고; 상기 적응적 ANC 세기 옵션에 대응하는 ANC 기능 세기는 상기 단말 디바이스 또는 상기 헤드셋이 위치되어 있는 현재의 환경의 장면 유형에 관련되고; 상기 현재의 환경의 상이한 장면 유형은 상이한 ANC 세기에 대응하는, 헤드셋 제어 방법.
  65. 제64항에 있어서,
    상기 ANC 기능의 상기 세기 옵션을 이네이블하는 결과에 기초하여 ANC를 수행하는 단계는,
    상기 제1 정상-상태 ANC 세기 옵션이 이네이블될 때,
    상기 제1 정상-상태 ANC 세기 옵션에 대응하는 제1 ANC 기능 세기를 획득하고;
    상기 제1 ANC 기능 세기에 기초하여 상기 ANC 기능을 제어하는 단계; 또는
    상기 제2 정상-상태 ANC 세기 옵션이 이네이블될 때,
    상기 제2 정상-상태 ANC 세기 옵션에 대응하는 제2 ANC 기능 세기를 획득하고;
    상기 제2 ANC 기능 세기에 기초하여 상기 ANC 기능을 제어하는 단계를 포함하는, 헤드셋 제어 방법.
  66. 제64항 또는 제65항에 있어서,
    상기 ANC 기능의 상기 세기 옵션을 이네이블하는 결과에 기초하여 ANC를 수행하는 단계는,
    상기 적응적 ANC 세기 옵션이 이네이블될 때,
    상기 단말 디바이스 또는 상기 헤드셋이 위치되어 있는 상기 현재의 환경의 상기 장면 유형을 획득하는 단계;
    상기 현재의 환경의 상기 장면 유형에 기초하여 ANC 세기를 결정하는 단계; 및
    상기 결정된 ANC 세기에 기초하여 상기 ANC 기능을 제어하는 단계를 포함하는, 헤드셋 제어 방법.
  67. 제64항 내지 제66항 중 어느 한 항에 있어서,
    상기 현재의 환경의 상이한 장면 유형은 제1 장면 및 제2 장면을 포함하는, 헤드셋 제어 방법.
  68. 헤드셋 제어 방법으로서,
    상기 헤드셋 제어 방법은 단말 디바이스에 적용되고, 상기 헤드셋 제어 방법은,
    상기 단말 디바이스에 의해, 헤드셋에 대한 통신 접속을 확립하는 단계 - 상기 헤드셋은 적어도 주변 음 히어-스루(HT) 기능을 지원함 -;
    제1 인터페이스를 디스플레이하는 단계 - 상기 제1 인터페이스는 상기 헤드셋의 기능을 설정하기 위하여 이용되고, 상기 제1 인터페이스는 상기 헤드셋의 상기 HT 기능을 제어하기 위한 옵션을 포함함 -;
    상기 HT 기능을 위한 옵션이 이네이블될 때, 상기 헤드셋의 상기 HT 기능을 활성화하는 단계;
    상기 이벤트 음을 강화하기 위한 옵션을 상기 제1 인터페이스에 추가하는 단계 - 상기 이벤트 음은, 사전설정된 이벤트 조건을 충족시키고 외부 환경 내에 있는 음임 -; 및
    이벤트 음 강화 기능을 위한 옵션이 이네이블될 때, 상기 헤드셋에 의해 수집된 신호 내의 상기 이벤트 음의 신호-대-잡음 비율을 증가시키도록 상기 헤드셋을 제어하는 단계 - 상기 이벤트 음의 더 높은 신호-대-잡음 비율은 상기 신호 내의 상기 이벤트 음의 더 높은 에너지 비율을 지시함 - 를 포함하는, 헤드셋 제어 방법.
  69. 제68항에 있어서,
    상기 이벤트 음은 사전설정된 스펙트럼 특성을 충족시키는 인간 음성 또는 또 다른 음을 포함하는, 헤드셋 제어 방법.
  70. 제68항 또는 제69항에 있어서,
    상기 제1 인터페이스는 상기 헤드셋의 ANC 기능을 제어하기 위한 옵션, 상기 ANC 기능을 디세이블하기 위한 옵션, 및/또는 상기 HT 기능을 디세이블하기 위한 옵션을 포함하는, 헤드셋 제어 방법.
  71. 제70항에 있어서,
    상기 헤드셋 제어 방법은,
    상기 ANC 기능의 제1 세기를 획득하고, 상기 제1 세기에 기초하여 상기 헤드셋의 상기 ANC 기능을 제어하는 단계;
    상기 HT 기능의 제2 세기를 획득하고, 상기 제2 세기에 기초하여 상기 헤드셋의 상기 HT 기능을 제어하는 단계; 또는
    이벤트 음 강화의 제3 세기를 획득하고, 상기 제3 세기에 기초하여 상기 헤드셋의 상기 이벤트 음 강화 기능을 제어하는 단계를 포함하는, 헤드셋 제어 방법.
  72. 헤드셋 제어 장치로서,
    상기 헤드셋 제어 장치는 단말 디바이스에서 이용되고, 상기 단말 디바이스는 헤드셋에 대한 통신 접속을 확립하고, 상기 헤드셋은 능동 잡음 제어(ANC) 기능 및 주변 음 히어-스루(HT) 기능을 지원하고, 상기 헤드셋 제어 장치는,
    제1 인터페이스를 디스플레이하도록 구성된 디스플레이 모듈 - 상기 제1 인터페이스는 상기 헤드셋의 기능을 설정하기 위하여 이용되고, 상기 제1 인터페이스는 이벤트 음 강화 기능을 위한 옵션을 포함하고, 이벤트 음은, 사전설정된 이벤트 조건을 충족시키고 외부 환경 내에 있는 음임 -; 및
    상기 이벤트 음 강화 기능을 위한 옵션이 이네이블될 때, 상기 헤드셋의 상기 ANC 기능 및 상기 HT 기능의 둘 모두를 이네이블된 상태가 되도록 제어하도록 구성된 프로세싱 모듈을 포함하는, 헤드셋 제어 장치.
  73. 제72항에 있어서,
    상기 제1 인터페이스는 상기 헤드셋의 상기 HT 기능을 제어하기 위한 옵션을 포함하고; 상기 HT 기능을 위한 옵션이 이네이블될 때, 상기 프로세싱 모듈은 상기 헤드셋의 상기 HT 기능을 활성화하도록 구성되고; 상기 디스플레이 모듈은 상기 이벤트 음을 강화하기 위한 옵션을 상기 제1 인터페이스에 추가하도록 추가로 구성되는, 헤드셋 제어 장치.
  74. 제73항에 있어서,
    상기 프로세싱 모듈은 상기 HT 기능을 이네이블된 상태에서 유지하고; 상기 헤드셋의 상기 ANC 기능을 활성화하도록 추가로 구성되는, 헤드셋 제어 장치.
  75. 제72항 내지 제74항 중 어느 한 항에 있어서,
    상기 제1 인터페이스는 상기 헤드셋의 상기 ANC 기능을 제어하기 위한 옵션을 포함하고, 상기 프로세싱 모듈은,
    상기 ANC 기능을 위한 옵션이 이네이블될 때, 상기 헤드셋의 상기 ANC 기능을 활성화하도록 추가로 구성되는, 헤드셋 제어 장치.
  76. 제72항 내지 제75항 중 어느 한 항에 있어서,
    상기 제1 인터페이스는 상기 ANC 기능을 디세이블하기 위한 옵션 및/또는 상기 HT 기능을 디세이블하기 위한 옵션을 더 포함하는, 헤드셋 제어 장치.
  77. 제72항 내지 제76항 중 어느 한 항에 있어서,
    상기 이벤트 음은 사전설정된 스펙트럼 특성을 충족시키는 인간 음성 또는 또 다른 음을 포함하는, 헤드셋 제어 장치.
  78. 잡음제거 장치로서,
    상기 잡음제거 장치는 헤드셋에서 이용되고; 상기 헤드셋은 적어도 능동 잡음 제어(ANC) 기능 및 주변 음 히어-스루(HT) 기능을 지원하고; 상기 헤드셋은 제1 마이크로폰, 제2 마이크로폰, 및 스피커를 포함하고, 상기 잡음제거 장치는,
    상기 제1 마이크로폰을 이용함으로써 제1 신호를 수집하고 - 상기 제1 신호는 현재의 외부 신호에서의 음을 나타내기 위하여 이용됨 -; 상기 제2 마이크로폰을 이용함으로써 제2 신호를 수집하도록 추가로 구성된 - 상기 제2 신호는 상기 헤드셋을 착용하는 사용자의 외이도에서의 주변 음을 나타내기 위하여 이용됨 - 수집 모듈;
    이벤트 음을 강화하기 위한 명령을 수신하도록 구성된 수신 모듈 - 상기 이벤트 음은, 사전설정된 이벤트 조건을 충족시키고 상기 외부 환경 내에 있는 음임 -;
    상기 ANC 기능 및 상기 HT 기능의 둘 모두를 이네이블된 상태가 되도록 제어하고, 타깃 신호를 획득하기 위하여, 적어도 상기 HT 기능 및 상기 ANC 기능을 이용함으로써 상기 제1 신호 및 상기 제2 신호에 대해 타깃 프로세싱을 수행하도록 구성된 프로세싱 모듈 - 상기 타깃 신호 내의 이벤트 음의 신호-대-잡음 비율은 상기 제1 신호 내의 이벤트 음의 신호-대-잡음 비율 초과임 -; 및
    스피커를 이용함으로써 타깃 신호를 플레이하도록 구성된 플레이 모듈을 포함하는, 잡음제거 장치.
  79. 제78항에 있어서,
    상기 프로세싱 모듈은,
    복원된 신호를 획득하기 위하여, 상기 HT 기능을 이용함으로써 히어 스루를 통해 상기 제1 신호를 전송하고;
    이벤트 음 강화된 신호를 획득하기 위하여, 상기 복원된 신호 내의 이벤트 음 신호를 강화하고, 상기 복원된 신호 내의 비 이벤트 음 신호를 약화하고;
    상기 타깃 신호를 획득하기 위하여, 상기 ANC 기능을 이용함으로써 상기 제1 신호, 상기 제2 신호, 및 상기 이벤트 음 강화된 신호를 프로세싱하도록 구체적으로 구성되는, 잡음제거 장치.
  80. 잡음제거 장치로서,
    상기 잡음제거 장치는 헤드셋에서 이용되고; 상기 헤드셋은 적어도 능동 잡음 제어(ANC) 기능을 지원하고; 상기 헤드셋은 제1 마이크로폰, 제2 마이크로폰, 및 스피커를 포함하고, 상기 잡음제거 장치는,
    상기 제1 마이크로폰을 이용함으로써 제1 신호를 수집하고 - 상기 제1 신호는 현재의 외부 신호에서의 음을 나타내기 위하여 이용됨 -; 상기 제2 마이크로폰을 이용함으로써 제2 신호를 수집하도록 추가로 구성된 - 상기 제2 신호는 상기 헤드셋을 착용하는 사용자의 외이도에서의 주변 음을 나타내기 위하여 이용됨 - 수집 모듈;
    이벤트 음을 강화하기 위한 명령을 수신하도록 구성된 수신 모듈 - 상기 이벤트 음은, 사전설정된 이벤트 조건을 충족시키고 상기 외부 환경 내에 있는 음임 -;
    ANC 기능을 이네이블하고; 이벤트 음 강화된 신호를 획득하기 위하여, 제1 신호 내의 이벤트 음 신호를 강화하고, 제1 신호 내의 비 이벤트 음 신호를 약화하고; 타깃 신호를 획득하기 위하여, ANC 기능을 이용함으로써 제1 신호, 제2 신호, 및 이벤트 음 강화된 신호를 프로세싱하도록 구성된 프로세싱 모듈 - 타깃 신호 내의 이벤트 음의 신호-대-잡음 비율은 제1 신호 내의 이벤트 음의 신호-대-잡음 비율 초과이고, 신호 내의 이벤트 음의 더 높은 신호-대-잡음 비율은 신호 내의 이벤트 음의 더 높은 에너지 비율을 지시함 -; 및
    스피커를 이용함으로써 타깃 신호를 플레이하도록 구성된 플레이 모듈을 포함하는, 잡음제거 장치.
  81. 신호 프로세싱 장치로서,
    상기 신호 프로세싱 장치는 헤드셋에서 이용되고; 상기 헤드셋은 적어도 능동 잡음 제어(ANC) 기능, 주변 음 히어-스루(HT) 기능, 및 AH 기능을 지원하고; 상기 헤드셋은 HT 필터 뱅크, 피드백 필터 뱅크, 및 피드포워드 필터 뱅크를 포함하고, 상기 신호 프로세싱 장치는,
    헤드셋의 조작 모드를 획득하도록 구성된 획득 모듈; 및
    상기 조작 모드가 상기 ANC 기능일 때, 상기 ANC 기능을 수행하기 위하여 상기 피드백 필터 뱅크 및 상기 피드포워드 필터 뱅크를 호출하거나;
    상기 조작 모드가 상기 HT 기능일 때, 상기 HT 기능을 수행하기 위하여 상기 HT 필터 뱅크 및 상기 피드백 필터 뱅크를 호출하거나;
    상기 조작 모드가 상기 AH 기능일 때, 상기 AH 기능을 수행하기 위하여 상기 HT 필터 뱅크, 상기 피드포워드 필터 뱅크, 및 상기 피드백 필터 뱅크를 호출하도록 구성된 호출 모듈을 포함하는, 신호 프로세싱 장치.
  82. 능동 잡음 제어(ANC) 세기 조절 장치로서,
    상기 능동 잡음 제어(ANC) 세기 조절 장치는 헤드셋에서 이용되고, 상기 헤드셋은 적어도 ANC 기능을 지원하고, 상기 헤드셋은 제1 마이크로폰 및 제3 마이크로폰을 포함하고, 상기 제1 마이크로폰은 현재의 외부 환경에서의 음의 수집에 더 많이 초점을 맞추고, 상기 제3 마이크로폰은 음 픽업에 더 많이 초점을 맞추고;
    수집 모듈은, 상기 헤드셋의 상기 ANC 기능이 이네이블된 상태에 있을 때, 상기 제1 마이크로폰을 이용함으로써 상기 현재의 환경에 대한 제1 신호를 수집하고; 상기 제3 마이크로폰을 이용함으로써 상기 현재의 환경에 대한 제2 신호를 수집하도록 구성되고;
    식별 모듈은 상기 제1 신호 및 상기 제2 신호에 기초하여 상기 현재의 장면의 잡음 레벨을 결정하도록 구성되고, 상이한 잡음 레벨은 상이한 ANC 세기에 대응하고;
    프로세싱 모듈은 현재의 잡음 레벨에 기초하여 상기 ANC 기능을 제어하도록 구성되는, 능동 잡음 제어(ANC) 세기 조절 장치.
  83. 제82항에 있어서,
    상기 식별 모듈은,
    상기 제1 신호와 상기 제2 신호 사이의 상관의 특징을 이용함으로써 음성 활성 검출을 수행하고;
    비 음성 신호의 잡음을 추적하고;
    상기 잡음의 에너지가 제1 임계치 미만일 경우에, 상기 현재의 장면을 조용한 장면으로서 결정하거나;
    상기 잡음의 스펙트럼이 주로 저 주파수 대역 내에 있고 상기 잡음의 에너지가 제2 임계치 초과일 경우에, 상기 현재의 장면을 과도한-잡음 장면으로서 결정하거나;
    상기 현재의 장면이 상기 조용한 장면도 아니고, 상기 과도한-잡음 장면도 아닐 경우에, 상기 현재의 장면을 보편적 장면으로서 결정하도록 - 상기 제2 임계치는 상기 제1 임계치 초과임 - 구체적으로 구성되는, 능동 잡음 제어(ANC) 세기 조절 장치.
  84. 제83항에 있어서,
    상기 조용한 장면, 상기 보편적 장면, 및 상기 과도한-잡음 장면에 대응하는 ANC 세기는 연속적으로 증가하는, 능동 잡음 제어(ANC) 세기 조절 장치.
  85. 제82항 내지 제84항 중 어느 한 항에 있어서,
    상기 프로세싱 모듈은,
    상기 현재의 장면이 새로운 잡음 레벨에 있고 사전설정된 기간에 대하여 지속되는 것으로 검출될 경우에,
    상기 새로운 잡음 레벨에 대응하는 ANC 세기를 획득하고;
    상기 새로운 잡음 레벨에 대응하는 상기 ANC 세기에 기초하여 상기 ANC 기능을 제어하도록 구체적으로 구성되는, 능동 잡음 제어(ANC) 세기 조절 장치.
  86. 헤드셋 제어 장치로서,
    상기 헤드셋 제어 장치는 단말 디바이스에서 이용되고, 상기 단말 디바이스는 헤드셋에 대한 통신 접속을 확립하고, 상기 헤드셋은 적어도 능동 잡음 제어(ANC) 기능을 지원하고, 상기 헤드셋 제어 장치는,
    제1 인터페이스를 디스플레이하도록 구성된 디스플레이 모듈 - 상기 제1 인터페이스는 상기 헤드셋의 기능을 설정하기 위하여 이용되고, 상기 제1 인터페이스는 상기 헤드셋의 상기 ANC 기능을 제어하기 위한 옵션을 포함함 -; 및
    상기 ANC 기능을 위한 옵션이 이네이블될 때, 상기 헤드셋의 상기 ANC 기능을 활성화하도록 구성된 프로세싱 모듈을 포함하고,
    상기 디스플레이 모듈은 상기 ANC 기능을 위한 옵션이 이네이블된 후에, 상기 ANC 기능의 세기 옵션을 상기 제1 인터페이스에 추가하도록 추가로 구성되고;
    상기 프로세싱 모듈은 상기 ANC 기능의 상기 세기 옵션을 이네이블하는 결과에 기초하여 ANC를 수행하도록 추가로 구성되고,
    상기 ANC 기능의 상기 세기 옵션은 적어도 제1 정상-상태 ANC 세기 옵션, 제2 정상-상태 ANC 세기 옵션, 및 적응적 ANC 세기 옵션을 포함하고; 상기 제1 정상-상태 ANC 세기 옵션 및 상기 제2 정상-상태 ANC 세기 옵션은 각각 제1 장면 및 제2 장면에 대응하고, 상이한 정상 ANC 기능 세기에 대응하고; 상기 적응적 ANC 세기 옵션에 대응하는 ANC 기능 세기는 상기 단말 디바이스 또는 상기 헤드셋이 위치되어 있는 현재의 환경의 장면 유형에 관련되고; 상기 현재의 환경의 상이한 장면 유형은 상이한 ANC 세기에 대응하는, 헤드셋 제어 장치.
  87. 제86항에 있어서,
    상기 프로세싱 모듈은,
    상기 제1 정상-상태 ANC 세기 옵션이 이네이블될 때,
    상기 제1 정상-상태 ANC 세기 옵션에 대응하는 제1 ANC 기능 세기를 획득하고;
    상기 제1 ANC 기능 세기에 기초하여 상기 ANC 기능을 제어하거나;
    상기 제2 정상-상태 ANC 세기 옵션이 이네이블될 때,
    상기 제2 정상-상태 ANC 세기 옵션에 대응하는 제2 ANC 기능 세기를 획득하고;
    상기 제2 ANC 기능 세기에 기초하여 상기 ANC 기능을 제어하거나;
    상기 적응적 ANC 세기 옵션이 이네이블될 때,
    상기 단말 디바이스 또는 상기 헤드셋이 위치되어 있는 상기 현재의 환경의 상기 장면 유형을 획득하고;
    상기 현재의 환경의 상기 장면 유형에 기초하여 ANC 세기를 결정하고;
    상기 결정된 ANC 세기에 기초하여 상기 ANC 기능을 제어하도록 구체적으로 구성되는, 헤드셋 제어 장치.
  88. 헤드셋 제어 장치로서,
    상기 헤드셋 제어 장치는 단말 디바이스에서 이용되고, 상기 단말 디바이스는 헤드셋에 대한 통신 접속을 확립하고, 상기 헤드셋은 적어도 주변 음 히어-스루(HT) 기능을 지원하고, 상기 헤드셋 제어 장치는,
    제1 인터페이스를 디스플레이하도록 구성된 디스플레이 모듈 - 상기 제1 인터페이스는 상기 헤드셋의 기능을 설정하기 위하여 이용되고, 상기 제1 인터페이스는 상기 헤드셋의 상기 HT 기능을 제어하기 위한 옵션을 포함함 -; 및
    상기 HT 기능을 위한 옵션이 이네이블될 때, 상기 헤드셋의 상기 HT 기능을 활성화하도록 구성된 프로세싱 모듈을 포함하고,
    상기 디스플레이 모듈은, 상기 HT 기능을 위한 옵션이 이네이블된 후에, 상기 이벤트 음을 강화하기 위한 옵션을 상기 제1 인터페이스에 추가하도록 추가로 구성되고, 상기 이벤트 음은, 사전설정된 이벤트 조건을 충족시키고 외부 환경 내에 있는 음이고;
    상기 프로세싱 모듈은, 이벤트 음 강화 기능을 위한 옵션이 이네이블될 때, 상기 헤드셋에 의해 수집된 신호 내의 상기 이벤트 음의 신호-대-잡음 비율을 증가시키도록 상기 헤드셋을 제어하도록 추가로 구성되고, 상기 이벤트 음의 더 높은 신호-대-잡음 비율은 상기 신호 내의 상기 이벤트 음의 더 높은 에너지 비율을 지시하는, 헤드셋 제어 장치.
  89. 제88항에 있어서,
    상기 이벤트 음은 사전설정된 스펙트럼 특성을 충족시키는 인간 음성 또는 또 다른 음을 포함하는, 헤드셋 제어 장치.
  90. 제88항 또는 제89항에 있어서,
    상기 제1 인터페이스는 상기 헤드셋의 ANC 기능을 제어하기 위한 옵션, 상기 ANC 기능을 디세이블하기 위한 옵션, 및/또는 상기 HT 기능을 디세이블하기 위한 옵션을 포함하는, 헤드셋 제어 장치.
  91. 제90항에 있어서,
    상기 프로세싱 모듈은:
    상기 ANC 기능의 제1 세기를 획득하고, 상기 제1 세기에 기초하여 상기 헤드셋의 상기 ANC 기능을 제어하거나;
    상기 HT 기능의 제2 세기를 획득하고, 상기 제2 세기에 기초하여 상기 헤드셋의 상기 HT 기능을 제어하거나;
    이벤트 음 강화의 제3 세기를 획득하고, 상기 제3 세기에 기초하여 상기 헤드셋의 상기 이벤트 음 강화 기능을 제어하도록 추가로 구체적으로 구성되는, 헤드셋 제어 장치.
  92. 단말 디바이스로서,
    상기 단말 디바이스는 메모리, 프로세서, 터치스크린, 및 버스를 포함하고; 상기 메모리, 상기 터치스크린, 상기 프로세서는 상기 버스를 이용함으로써 접속되고;
    상기 메모리는 컴퓨터 프로그램 및 명령을 저장하도록 구성되고;
    상기 터치스크린은 인터페이스를 디스플레이하도록 구성되고;
    상기 프로세서는 제43항 내지 제55항, 제64항 내지 제67항, 및 제68항 내지 제71항 중 어느 한 항에 따른 상기 방법을 수행하기 위하여, 상기 메모리 내에 저장된 상기 컴퓨터 프로그램 및 상기 명령을 호출하도록 구성되는, 단말 디바이스.
  93. 헤드셋으로서,
    상기 헤드셋은 제1 마이크로폰, 제2 마이크로폰, 프로세서, 메모리, 및 스피커를 포함하고; 상기 제1 마이크로폰은 제1 신호를 수집하도록 구성되고 - 상기 제1 신호는 현재의 외부 환경에서의 음을 나타내기 위하여 이용됨 -; 상기 제2 마이크로폰은 제2 신호를 수집하도록 구성되고 - 상기 제2 신호는 상기 헤드셋을 착용하는 사용자의 외이도에서의 주변 음을 나타내기 위하여 이용됨 -; 상기 스피커는 오디오를 플레이하도록 구성되고; 상기 메모리는 프로그램 또는 명령을 저장하도록 구성되고; 상기 프로세서는 상기 헤드셋이 제56항 및 제57항, 제58항, 제59항, 및 제60항 내지 제63항 중 어느 한 항에 따른 상기 방법을 수행하는 것을 가능하게 하기 위하여, 상기 프로그램 또는 상기 명령을 호출하도록 구성되는, 헤드셋.
KR1020237002989A 2020-06-30 2021-06-30 모드 제어 방법 및 장치, 그리고 단말 디바이스 KR20230027296A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
CN202010616084 2020-06-30
CN202010616084.7 2020-06-30
CN202010949885.5 2020-09-10
CN202010949885.5A CN113873379B (zh) 2020-06-30 2020-09-10 一种模式控制方法、装置及终端设备
PCT/CN2021/103435 WO2022002110A1 (zh) 2020-06-30 2021-06-30 一种模式控制方法、装置及终端设备

Publications (1)

Publication Number Publication Date
KR20230027296A true KR20230027296A (ko) 2023-02-27

Family

ID=78982086

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020237002989A KR20230027296A (ko) 2020-06-30 2021-06-30 모드 제어 방법 및 장치, 그리고 단말 디바이스

Country Status (6)

Country Link
US (1) US20230164475A1 (ko)
EP (1) EP4171060A4 (ko)
KR (1) KR20230027296A (ko)
CN (1) CN113873379B (ko)
BR (1) BR112022026923A2 (ko)
WO (1) WO2022002110A1 (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD921669S1 (en) * 2019-09-09 2021-06-08 Apple Inc. Display screen or portion thereof with animated graphical user interface
TWI802108B (zh) * 2021-05-08 2023-05-11 英屬開曼群島商意騰科技股份有限公司 降低聲學回音之語音處理裝置及其方法
CN113938787B (zh) * 2021-12-16 2022-03-15 深圳市鑫正宇科技有限公司 基于数字均衡技术的骨传导耳机
CN114466278B (zh) * 2022-04-11 2022-08-16 北京荣耀终端有限公司 一种耳机模式对应的参数确定方法、耳机、终端和系统
CN114640938B (zh) * 2022-05-18 2022-08-23 深圳市听多多科技有限公司 一种基于蓝牙耳机芯片的助听功能实现方法及蓝牙耳机
CN114640937B (zh) * 2022-05-18 2022-09-02 深圳市听多多科技有限公司 一种基于穿戴设备系统的助听功能实现方法及穿戴设备
US20230396941A1 (en) * 2022-06-07 2023-12-07 Starkey Laboratories, Inc. Context-based situational awareness for hearing instruments
CN117751585A (zh) * 2022-06-20 2024-03-22 北京小米移动软件有限公司 智能耳机的控制方法、装置、电子设备和存储介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8798283B2 (en) * 2012-11-02 2014-08-05 Bose Corporation Providing ambient naturalness in ANR headphones
WO2014190140A1 (en) * 2013-05-23 2014-11-27 Alan Kraemer Headphone audio enhancement system
US9716939B2 (en) * 2014-01-06 2017-07-25 Harman International Industries, Inc. System and method for user controllable auditory environment customization
CN104618829A (zh) * 2014-12-29 2015-05-13 歌尔声学股份有限公司 耳机环境声音的调节方法和耳机
JP6588098B2 (ja) * 2015-01-26 2019-10-09 深▲せん▼市冠旭電子股▲ふん▼有限公司Shenzhen Grandsun Electronic Co., Ltd. ヘッドセットの騒音低減を制御する方法及び装置
AU2015395527B2 (en) * 2015-05-15 2018-10-18 Huawei Technologies Co., Ltd. Noise reduction headset setting method, terminal, and noise reduction headset
US10978041B2 (en) * 2015-12-17 2021-04-13 Huawei Technologies Co., Ltd. Ambient sound processing method and device
US10809972B2 (en) * 2016-09-27 2020-10-20 Sony Corporation Information processing device, information processing method, and program
CN106303839B (zh) * 2016-09-29 2019-10-29 中山市天键电声有限公司 基于手机app的anc降噪控制方法
CN110049403A (zh) * 2018-01-17 2019-07-23 北京小鸟听听科技有限公司 一种基于场景识别的自适应音频控制装置和方法
CN108429963A (zh) * 2018-05-08 2018-08-21 歌尔股份有限公司 一种耳机及降噪方法
CN110825446B (zh) * 2019-10-28 2023-12-08 Oppo广东移动通信有限公司 参数配置方法、装置、存储介质及电子设备
CN111107461A (zh) * 2019-12-13 2020-05-05 恒玄科技(北京)有限公司 一种降噪耳机的配置方法、装置及智能终端、降噪耳机

Also Published As

Publication number Publication date
EP4171060A4 (en) 2024-03-13
BR112022026923A2 (pt) 2023-03-14
US20230164475A1 (en) 2023-05-25
CN113873379A (zh) 2021-12-31
CN113873379B (zh) 2023-05-02
EP4171060A1 (en) 2023-04-26
WO2022002110A1 (zh) 2022-01-06

Similar Documents

Publication Publication Date Title
CN113873378B (zh) 一种耳机噪声处理方法、装置及耳机
EP4171060A1 (en) Mode control method and apparatus, and terminal device
CN113676804B (zh) 一种主动降噪方法及装置
CN113132841B (zh) 降低耳机闭塞效应的方法及相关装置
CN113169760B (zh) 无线短距离音频共享方法及电子设备
WO2021147415A1 (zh) 实现立体声输出的方法及终端
US20220248160A1 (en) Sound processing method and apparatus
US20230059427A1 (en) Bluetooth Communication Method and Apparatus
CN114727212B (zh) 音频的处理方法及电子设备
CN113571035B (zh) 降噪方法及降噪装置
JP2023156321A (ja) 通話方法および装置
CN111065020B (zh) 音频数据处理的方法和装置
KR20230009487A (ko) 능동 잡음 제거 방법 및 장치
WO2022257563A1 (zh) 一种音量调节的方法,电子设备和系统
CN113810589A (zh) 电子设备及其视频拍摄方法和介质
WO2022089563A1 (zh) 一种声音增强方法、耳机控制方法、装置及耳机
WO2024027259A1 (zh) 信号处理方法及装置、设备控制方法及装置
WO2024046416A1 (zh) 一种音量调节方法、电子设备及系统
WO2024046182A1 (zh) 一种音频播放方法、系统及相关装置
WO2024016229A1 (zh) 音频处理方法及电子设备
WO2024066933A1 (zh) 扬声器控制方法及设备
CN115206278A (zh) 一种声音降噪的方法和装置
CN117203979A (zh) 信息处理装置、信息处理方法和程序
CN118034948A (en) Key event monitoring method and system and electronic equipment

Legal Events

Date Code Title Description
E902 Notification of reason for refusal