KR20190013880A - 사용자 귀에서의 이어피스 존재의 결정 - Google Patents

사용자 귀에서의 이어피스 존재의 결정 Download PDF

Info

Publication number
KR20190013880A
KR20190013880A KR1020187037293A KR20187037293A KR20190013880A KR 20190013880 A KR20190013880 A KR 20190013880A KR 1020187037293 A KR1020187037293 A KR 1020187037293A KR 20187037293 A KR20187037293 A KR 20187037293A KR 20190013880 A KR20190013880 A KR 20190013880A
Authority
KR
South Korea
Prior art keywords
user
earpiece
ear
audio signal
signal
Prior art date
Application number
KR1020187037293A
Other languages
English (en)
Inventor
노암 페트란크
Original Assignee
부가톤 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 부가톤 엘티디. filed Critical 부가톤 엘티디.
Publication of KR20190013880A publication Critical patent/KR20190013880A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1041Mechanical or electronic switches, or control elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1083Reduction of ambient noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/001Monitoring arrangements; Testing arrangements for loudspeakers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/04Systems determining presence of a target
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1008Earpieces of the supra-aural or circum-aural type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1016Earpieces of the intra-aural type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/05Detection of connection of loudspeakers or headphones to amplifiers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/07Applications of wireless loudspeakers or wireless microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/03Aspects of the reduction of energy consumption in hearing devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/11Aspects relating to vents, e.g. shape, orientation, acoustic properties in ear tips of hearing devices to prevent occlusion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation

Abstract

일반적으로, 본 개시내용에 기술된 주제는 방법들, 시스템들, 및 컴퓨터 판독가능 디바이스들로 구체화될 수 있다. 오디오 프로세싱 디바이스는 사용자 이어피스의 전기음향 트랜스듀서를 이용해 소스 오디오 신호를 재생하고, 동일한 상기 전기음향 트랜스듀서에 의해 감지되는 청각 신호를 레코딩한다. 오디오 프로세싱 디바이스는 사용자 이어피스가 위치되는 공간의 특성을 나타내는 청각 신호의 하나 이상의 특징의 값들을 결정한다. 오디오 프로세싱 디바이스는 청각 신호의 하나 이상의 특징의 결정된 값들을 하나 이상의 특징의 미리 정의된 값들과 비교한다. 비교의 결과에 기초하여, 오디오 프로세싱 디바이스는 사용자 이어피스가 사용자의 귀에 위치되는지를 결정한다.

Description

사용자 귀에서의 이어피스 존재의 결정
관련 출원들의 상호 참조
본 출원은 2016년 8월 24일자로 출원된 미국 출원 제62/379,160호, 2016년 5월 27일자로 출원된 미국 출원 제62/342,872호, 2016년 5월 27일자로 출원된 미국 출원 제62/342,871호, 및 2016년 5월 27일자로 출원된 미국 출원 제62/342,869호의 이익을 주장하며, 이 출원들의 내용이 그 전체가 참고로 본 명세서에 포함된다.
최근 몇 년 동안 모바일 컴퓨팅 디바이스들의 확산에 따라, 사용자들은 이러한 모바일 컴퓨팅 디바이스들을 통해 이용가능하게 되는 오디오 콘텐츠의 증가하는 공급을 청취하기 위해 이어버드들(earbuds), 헤드폰들 및 다른 타입의 헤드셋들에 점점 더 의지하였다. 예를 들어, 스마트폰들은 전형적으로 사용자들이 헤드셋들을 전화기(phone)에 연결(connect)시킬 수 있게 해주는 헤드폰 잭을 포함하며, 이를 통해 사용자는 미디어 라이브러리 또는 스트리밍 서비스로부터의 노래들, 팟캐스트들, 비디오들로부터의 오디오 트랙들, 및 사용자가 선호하는 각종의 다른 콘텐츠 소스들을 청취할 수 있다. 사용자들은 또한 핸즈프리 모바일 통화 경험을 위해 전화 통화를 유지하기 위해 이어버드들 및 사용자의 입 근처에 배치된 외부 마이크로폰을 포함하는 헤드셋들을 사용할 수 있다. 모바일 디바이스(또는 다른 컴퓨팅 디바이스)의 헤드셋을 통해 오디오를 청취하는 동안, 사용자는, 일정 시간 기간 동안 오디오를 청취하는 것을 중지하는 것을 포함한, 사용자의 주의를 요구하는 다양한 이벤트들에 의해 방해를 받을 수 있다. 일부 경우들에서, 사용자는 액세스가 제한된 디바이스 상의 애플리케이션들 또는 다른 자원들과 상호작용할 수 있다. 일부 경우들에서, 사용자는 오디오 콘텐츠를 사용자가 듣기 어렵게 만드는 시끄러운 환경에서 오디오 콘텐츠를 청취하려고 시도할 수 있다.
본 명세서는 일반적으로, 오디오 프로세싱 디바이스(예컨대, 전화기)에 연결된 음향 헤드셋들을, 디바이스가 사용자에게 각종의 서비스들을 제공하기 위해 레버리지(leverage)할 수 있는 데이터를 수집하기 위한 센서로서, 적용하기 위한 기법들을 포함한, 오디오 신호 프로세싱에 관한 것이다. 예를 들어, 본 명세서에서 논의되는 기법들은 디바이스 상의 소프트웨어 플랫폼이 기성품(off-the-shelf) 이어폰들을 사용자의 특성들 및 사용자의 환경을 실시간으로 감지할 수 있는 강력한 외부 멀티 센서로서 활용할 수 있게 해줄 수 있다. 본 명세서에서 논의되는 기법들의 일부 구현들은 사용자의 귀에서 이어피스(earpiece)의 존재를 검출하는 것, 사용자의 귀의 음향 특성들에 기초하여 사람의 신원을 검증하는 것, 사전 레코딩된(pre-recorded) 사운드들을 사용하여 능동 잡음 제거(active noise cancellation)를 수행하는 것, 및 이어피스의 트랜스듀서를 사용하여 다양한 환경들의 온도들을 계산하는 것을 포함한다.
하나 이상의 구현들의 상세들이 첨부 도면들 및 이하의 설명에서 기재된다. 다른 특징들, 목적들, 및 장점들은 설명 및 도면들로부터 그리고 청구항들로부터 명백할 것이다.
도 1은, 한 쌍의 이어버드들을 사용하여, 스마트폰을 통해 재생되는 소스 오디오 신호를 청취하는 사용자의 개념 다이어그램을 묘사하고 있다. 소스 오디오 신호가 재생될 때, 이어버드들은 오디오 신호가 재생될 때 사용자의 귀 내에 생기는 청각 신호(aural signal)를 포착하기 위해 마이크로폰으로서 동시에 기능한다.
도 2a는 본 명세서에 기술된 기법들 중 다양한 것들을 수행하도록 구성되는 예시적인 오디오 프로세싱 디바이스의 블록 다이어그램이다.
도 2b는 이어피스의 트랜스듀서를 사용하는 동시적인 재생 및 레코딩을 위한 코딩/디코딩 컴포넌트(흔히 "코덱"이라고 지칭됨)와 이어피스 사이의 구성을 예시하는 배선도(schematic)이다.
도 2c는 이어피스의 트랜스듀서를 사용하는 동시적인 재생 및 레코딩을 위한 코딩/디코딩 컴포넌트와 이어피스 사이의 다른 구성을 예시하는 배선도이다.
도 2d는 이어피스들의 트랜스듀서들을 사용하는 동시적인 재생 및 레코딩을 위한 코딩/디코딩 컴포넌트와 2개의 이어피스 사이의 다른 구성을 예시하는 배선도이다.
도 3은 사용자의 귀의 음향 특성들에 기초하여 사용자를 인증하기 위한 예시적인 프로세스의 플로차트이다. 이 프로세스는 (i) 특정 사용자에 대한 음향 시그너처(acoustic signature)가 생성되어 사용자의 계정으로 등록되는 등록 페이즈(enrollment phase) 및 (ii) 사용자와 연관된 청각 신호로부터의 특징들과 사용자의 계정으로 등록된 음향 시그너처들의 비교에 기초하여 사용자의 신원이 검증되는 검증 스테이지(verification stage)를 수반한다.
도 4는 인증 절차의 등록 페이즈에서 사용자의 음향 시그너처를 생성하기 위한 예시적인 프로세스의 플로차트이다.
도 5는 인증 절차의 검증 페이즈(verification phase)에서 사용자의 신원을 검증하기 위한 예시적인 프로세스의 플로차트이다.
도 6은 이어피스가 위치되는 공간의 음향 에코(wa)의 임펄스 응답을 결정하기 위한, 예컨대, 사용자의 음향 시그너처를 생성하는 것, 사용자의 귀에서의 이어피스의 존재를 검출하는 것, 또는 사용자를 인증하는 것을 위한 예시적인 프로세스의 플로차트이다.
도 7은 소스 오디오 신호의 재생 동안 레코딩된 청각 신호로부터 도출된 특징들에 기초하여 사용자의 귀에서의 이어피스의 존재를 검출하기 위한 예시적인 프로세스의 플로차트이다.
도 8은 사용자가 헤드셋을 통해 소스 오디오 신호를 청취할 때 사전 레코딩된 오디오 신호 재생으로 인해 사용자의 환경에 생기는 간섭을 제거하기 위해 사전 레코딩된 오디오 신호의 저장된 인스턴스를 사용하기 위한 프로세스이다.
도 9a 내지 도 9d는 트랜스듀서를 사용하여 사용자 및 환경의 온도를 결정하기 위한 프로세스를 도시하고 있다.
도 10은 트랜스듀서를 사용하여 사용자 및 환경의 온도를 결정하기 위한 다른 프로세스를 도시하고 있다.
도 11은 본 명세서에 기술된 컴퓨터에 의해 구현되는 방법들(computer-implemented methods) 및 다른 기법들을 수행하도록 구성될 수 있는 예시적인 컴퓨터를 묘사하고 있다. 일부 예들에서, 오디오 프로세싱 디바이스는 도 2a와 관련하여 논의된 것과 같은 하드웨어와 소프트웨어의 조합을 포함할 수 있다.
다양한 도면들에서의 유사한 번호들 및 지시자들은 유사한 요소들을 나타낸다.
이 명세서는 오디오 신호들을 프로세싱하기 위한 시스템들, 방법들, 디바이스들, 및 다른 기법들을 전반적으로 기술한다. 일부 구현들에서, 이러한 기법들은 이어피스 내의 동일한 전기음향(electroacoustic) 트랜스듀서를 재생된 오디오 신호를 출력하기 위해, 스피커로서도, 사용하고 오디오 프로세싱 디바이스에 의해 레코딩될 수 있는 청각 신호를 감지하기 위해, 마이크로폰으로서도, 사용함으로써 이어피스들(예컨대, 헤드폰들 또는 이어버드들)을 사용하여 수행될 수 있다. 일부 예들에서, 오디오 프로세싱 디바이스는 이어피스가 사용자의 귀에 현재 위치되는지를 결정하기 위해 이어피스에 의해 감지된 오디오 신호를 프로세싱하고 그 감지된 오디오 신호를 동시에 재생되는 오디오 신호와 비교할 수 있다. 일부 예들에서, 오디오 프로세싱 디바이스는 사용자의 신원이 사용자의 귀의 음향 특성들에 기초하여 검증되는 인증 절차를 수행하기 위해 이어피스에 의해 감지된 오디오 신호를 프로세싱할 수 있다. 일부 예들에서, 오디오 프로세싱 디바이스는 사용자의 환경의 주변 잡음에 출현하는 기지의 오디오 신호를 검출하는 것에 의해 그리고 검출된 오디오 신호의 사전 레코딩된 인스턴스를 사용하여 사용자가 헤드셋을 통해 청취하고 있는 소스 오디오 신호를 수정하는 것에 의해 능동 잡음 제거를 수행할 수 있다.
도 1을 참조하면, 이어버드들(106)을 통해 재생되는 소스 오디오 신호(s)를 청취하는 사용자(102)의 개념 다이어그램이 도시되어 있다. 소스 오디오 신호(s)는, 이 예에서 스마트폰인, 오디오 프로세싱 디바이스(104)에 의해 재생된다. 이어버드들(106)은 사용자(102)가 소스 오디오 신호(s)를 청취할 수 있는 음향 챔버(acoustic chamber)를 형성하도록 사용자의 귀(106)에 꽂아진다(lodged). 소스 오디오 신호(s)는, 음악, 음성(speech), 전화 통화, 또는 영화, 텔레비젼 쇼, 또는 다른 비디오 또는 미디어 콘텐츠로부터의 오디오 트랙과 같은, 각종의 오디오 콘텐츠 중 임의의 것을 운반(carry)할 수 있다.
확대된 구역(108)에 도시된 바와 같이, 이어버드(106)는 소스 오디오 신호(s)를 출력하기도 하고 청각 오디오 신호(r)를 감지하기도 할 수 있다. 특히, 이어버드(106)는 소스 오디오 신호(s)에 대응하는 전기 신호들을 사용자(102)가 들을 수 있는 음파들로 변환하는 전기음향 트랜스듀서를 포함한다. 전기 에너지를 음향 에너지(즉, 음파들)로 변환하는 것에 의해, 전기음향 트랜스듀서는 스피커로서 기능한다. 그렇지만, 전기음향 트랜스듀서는 또한 자신의 환경에서의 음향 에너지에 기계적으로 민감(mechanically sensitive)하며, 이는 전기음향 트랜스듀서로 하여금 진동하게 하고 그로써 전기 신호들을 생성하게 한다. 그에 따라, 전기음향 트랜스듀서는 또한 청각 오디오 신호(r)를 감지할 수 있으며, 일부 구현들에서는 심지어 오디오 소스 신호(s)를 출력하면서 동시에 청각 오디오 신호(r)를 감지할 수 있다. 일부 예들에서, 전기음향 트랜스듀서는 다이어프램(diaphragm)의 전방에 위치된 공기에 가해지는(imparted) 압력으로 인해 전후로 움직여 음파들을 생성하는 다이어프램을 포함할 수 있다. 전기 신호들은 전자석들 또는 압전 결정체들(piezoelectric crystals) 주위에 권취된 코일들에 의해서와 같이 각종의 기술들 중 임의의 것을 사용하여 다이어프램의 움직임을 구동(drive)할 수 있다.
일반적으로, 청각 오디오 신호(r)는 소스 오디오 신호(s)가 이어버드(106)를 통해 재생될 때 이어버드(106)가 위치되는 공간에 생기는 오디오 신호이다. 예를 들어, 사용자의 귀에 꽂아진 이어버드(106)가 소스 오디오 신호(s)를 재생하는 동안 마이크로폰이 이어버드(106)에 인접하여 배치된 경우, 그 마이크로폰에 의해 포착된 신호가 청각 오디오 신호(r)에 대응할 것이다. 물론, 청각 신호(r)는 그 공간에서 재생되는 소스 오디오 신호(s)를 주로 반영할 것이지만, 이어버드(106)의 내재적 특성들(intrinsic characteristics) 및 소스 오디오 신호(s)가 재생되는 공간을 적어도 부분적으로 정의하는 사용자의 귀의 고유 음향 속성들(unique acoustic properties)과 같은 다른 인자들을 추가로 반영할 수 있다. 예시의 목적으로, 도 1에서의 확대도(108)가 사용자의 귀의 외부에 위치된 이어버드를 도시하지만, 실제로는, 사용자(102)가 전형적으로 자신의 귀 내에 꽂아진 이어버드(106)를 이용해 오디오 신호(s)를 청취할 것이라는 점에 유의해야 한다.
일부 구현들에서, 오디오 프로세싱 디바이스(104)는 이어버드(106)의 동일한 전기음향 트랜스듀서에 의해, 제각기, 출력되고 감지되는 바와 같이 소스 오디오 신호(s)를 재생하기도 하고 청각 오디오 신호(r)를 레코딩하기도 하도록 구성될 수 있다. 오디오 프로세싱 디바이스(104)의 사운드 카드 또는 다른 프로세싱 회로부는 (예컨대, 이어피스의 스피커와 구별되는 전용 마이크로폰을 포함하는 이어피스의) 동일한 전기음향 트랜스듀서를 통해 오디오 신호들을 출력하고 레코딩하도록 구성될 수 있다. 예를 들어, 이어피스 트랜스듀서와 오디오 프로세싱 디바이스를 전기적으로 인터페이싱하는 회로의 하나 이상의 도체 사이에 전자 저항 컴포넌트가 연결될 수 있다. 저항기의 배치(placement)는 전압 분할기(voltage divider)를 형성할 수 있고, 이 전압 분할기는 청각 오디오 신호(r)에 대응하는 전기 신호가 감지되고, 예컨대, 디지털적으로 샘플링되어 레코딩될 수 있는 전기적 인터페이스에서의 위치를 제공한다. 오디오 프로세싱 디바이스(104)의 프로세싱 회로부는 소스 오디오 신호(s)를 재생하면서 동시에 청각 오디오 신호(r)를 레코딩하기 위해 전기 신호를 전기음향 트랜스듀서로 구동할 수 있다. 일부 구현들에서, 프로세싱 회로부는 소스 오디오 신호(s)를 재생하고 청각 오디오 신호(r)를 레코딩하기 위한 얼터네이트 모드들(alternate modes) 사이에서 (예컨대, 높은 주파수로) 스위칭할 수 있다. 스위칭은 사용자(102)가 소스 오디오 신호(s)의 재생에서의 어떠한 단절(disruption)도 인지하지 않도록 충분히 높은 주파수로 일어날 수 있다.
일부 구현들에서, 이어버드들(106)은, 예를 들어, 전용 마이크로폰을 포함하는 프리미엄 헤드셋의 일부일 수 있다. 전용 마이크로폰은, 예를 들어, 능동 잡음 제거를 위해 행해질 수 있는 바와 같이, 청각 오디오 신호(r)를 레코딩하는 데 또는 환경 잡음을 레코딩하는 데 사용될 수 있다. 예를 들어, 전용 마이크로폰은 임베디드 마이크로폰(embedded microphone)(예컨대, 210a, 210b)일 수 있거나 외부 마이크로폰(예컨대, 마이크로폰(212))이 이용될 수 있다.
파라미터 결정
본 명세서에 기술된 기법들 중 다양한 기법들은 오디오 신호들, 이어피스들, 이어피스가 위치되는 공간(예컨대, 사용자의 외이도), 또는 이들의 조합과 연관된 파라미터들을 결정하는 것을 수반한다. 이 파라미터들 중 일부는, 오디오 프로세싱 디바이스에 의해 레코딩되는 바와 같은, 청각 오디오 신호(r)를 이 파라미터들의 함수로서 표현하는, 이하의 모델(수학식 1)에서 반영된다.
Figure pct00001
비고: * 연산자는 컨볼루션(convolution)을 표기한다
수학식 1의 모델에서의 파라미터들은 일반적으로 다음과 같은 것들을 나타낸다:
Figure pct00002
따라서, 수학식 1의 모델은 레코딩된 청각 오디오 신호(r)가 3개의 오디오 신호: (1) 오디오 프로세싱 디바이스에 의해 재생되는 소스 오디오 신호(s), (2) 환경 잡음(e), 및 (3) 오디오 프로세싱 디바이스의 전기적 잡음(n)의 함수라는 것을 나타낸다. 그렇지만, 소스 오디오 신호(s)는 3개의 인자로 인해 왜곡될 수 있고, 이러한 왜곡은 s와
Figure pct00003
의 컨볼루션에 의해 표현된다. 파라미터들(w0 및 wΔ)은 이어피스의 내재적 파라미터들이고, 주어진 이어피스의 설계에 특정적이다. 따라서, 귀 안에 끼워지는(fit) 이어버드는 귀를 커버하는 이어폰과 상이한 파라미터들(w0 및 wΔ 값들)을 가질 수 있다. 마찬가지로, 특정의 제조업체의 특정의 모델의 제1 이어버드는 상이한 제조업체의 상이한 모델의 제2 이어버드와 상이한 파라미터들(w0 및 wΔ)을 가질 수 있다. 이러한 파라미터들은 일반적으로 이어피스의 기하형상(geometry) 및 전체적인 구성이, 오디오 신호(s)가 그 이어피스를 통해 재생될 때, 오디오 신호(s)를 수정(예컨대, 왜곡)하도록 어떻게 기능하는지를 나타낸다. w0 파라미터는 이어피스가 베이스라인 온도(T0)(예컨대, 섭씨 20도)에서 오디오 신호(s)를 어떻게 수정하는지를 나타내는 반면, wΔ 파라미터는 이어피스가 T0와의 온도 차이의 함수로서 오디오 신호(s)를 어떻게 수정하는지를 나타낸다.
일반적으로, w0 및 wΔ 둘 다는 이어피스가 배치되는 공간에 무관하게 이어피스에 의해 부여되는 오디오 신호(s)의 변환 특성을 표현한다. 일부 구현들에서, w0 및 wΔ 각각은 이어피스의 각자의 임펄스 응답 특성들을 집합적으로 나타내는 복수의 값들(예컨대, 수십 또는 수백개의 값들)을 포함한다. 예를 들어, w0은 이어피스의 전기적 에코의 임펄스 응답 함수를 나타낼 수 있고, wΔ는 이어피스의 전기적 에코의 온도 의존적 임펄스 응답 함수를 나타낼 수 있다.
임펄스 응답 함수들을 기술하는 단순화된 방식은 임펄스 톤이 이어피스에 제공될 때 생기는 에코를 상상하는 것이다. 예를 들어, 시스템이 1000 Hz로 샘플링한다고 가정하면, 시스템은 매 0.001 초마다 이어피스 전압의 진폭을 샘플링할 것이다. 임펄스 톤이 시간 0에서 출력되는 경우, 임펄스 응답은 이어피스가 듣게 될, 임펄스 톤의 출력으로 인한 에코들을 기록(record)할 수 있으며, 이 예에서 매 0.001 초마다 진폭 측정으로서 기록될 수 있다. 이에 따라, 임펄스 응답은 값들의 벡터 또는 어레이로 간주될 수 있으며, 값은 임펄스 함수의 재생 이후 0.001 초마다 레코딩된다. 이 에코는 이어피스의 특성들에 기초하는 고정된 특성(예컨대, w0) 및 이어피스 온도에 기초하는 가변적 특성(예컨대,
Figure pct00004
)을 갖는 것으로 결정될 수 있다.
에코는 또한 사용자의 외이도와 같은, 오디오 신호가 재생되는 공간의 음향 특성(예컨대, wa)을 나타내는 부가의 변환 특성에 의해 영향을 받지만, 이 변환 특성은 나중에 보다 상세히 기술되고 특정 측정들에 대해서는 무시될 수 있다. 환경 잡음 및 전기적 잡음을 잠시 동안 무시하면, 트랜스듀서를 사용하여 취해진 레코딩(r)이 어떻게 트랜스듀서를 사용하여 재생된 사운드(s)가 다수의 임펄스 응답들 - 임펄스 응답들은 그 사운드가 레코딩을 위해 트랜스듀서로 에코백하는 데 얼마나 오랫동안 걸리는지(어쩌면 사용자의 귀 및 이어피스의 상이한 표면들에서의 상이한 에코들로 인해 다수의 상이한 시간들에서 나타남)를 나타냄 - 과 컨볼루션된 것의 결합일 것인지, 및 그 에코가 다양한 시간들에서 얼마나 큰지(loud)를 알 수 있다.
이제 변환 특성들을 논의하기 위해 돌아가면, 이어피스의 내재적 파라미터들(w0 및 wΔ)이 미리 정의되고 복수의 상이한 이어피스들에 대한 내재적 파라미터들을 저장하는 데이터베이스에 저장될 수 있다. 오디오 프로세싱 디바이스는 데이터베이스로부터(예컨대, 사용자의 이어피스들의 제조사 및 모델을 나타내는 사용자 입력으로부터 또는 자동 검출 능력에 기초하여) 이 파라미터들을 식별할 수 있다. 일부 구현들에서, 내재적 파라미터들은 공장 또는 실험실에서 교정(calibrate)되고 사용자들의 집단에게 액세스가능하게 될 수 있다. 일부 구현들에서, 내재적 파라미터들은 개개의 사용자들에 의해 그 각자의 오디오 프로세싱 디바이스들을 이용해 교정될 수 있다.
일부 구현들에서, 환경 잡음 신호(e)는 이어피스가 제자리에 위치되고 오디오 소스 신호(s)가 이어피스를 통해 재생되지 않을 때 생기는 오디오 신호를 레코딩하는 것에 의해 결정된다. 일부 구현들에서, 환경 잡음 신호(e)는, 이어피스의 사용자의 환경에 위치된 외부 마이크로폰과 같은, 이어피스의 전기음향 트랜스듀서 이외의 제2 마이크로폰에 의해 감지된 신호로부터 레코딩될 수 있다. 일부 구현들에서, 환경 잡음 신호(e)는 시스템이 온도(T) 및 음향 에코 파라미터(wa)를 결정한 후에 산출(calculate)되는데, 그 이유는 다른 변수들 및 상수들이 알려져 있거나 이미 산출되어 있을 수 있기 때문이다(회로 보드 잡음(N)이 알려져 있을 수 있거나, 환경 잡음 신호(e)와 회로 보드 잡음(N)의 조합이 결합하여 산출될 수 있다).
음향 에코 파라미터(wa)는 오디오 소스 신호(s)를 재생할 때 이어피스가 위치되는 공간의 음향 특성을 나타낼 수 있다. 예를 들어, wa 파라미터는 이어피스가 배치되는 물리적 공간이 오디오 신호(s)에 어떻게 왜곡을 부여하는지를 나타내고, 이어피스 자체가 오디오 신호(s)에 어떻게 왜곡을 부여하는지에 일반적으로 무관하다. 이어피스가 위치되는 공간의 크기, 형상, 구성, 및 재료 모두가 wa 파라미터에 영향을 미칠 수 있다. 그에 따라, 동일한 이어피스가 소스 오디오 신호(s)를 상이한 공간들에서 재생할 때, 소스 오디오 신호(s)가 각자의 공간들의 특정의 특성들에 기초하여 얼마간 상이한 방식들로 왜곡될 수 있다. 오디오 소스 신호(s), 청각 오디오 신호(r), 및 변환 특성들(w0
Figure pct00005
)과 같은, 다양한 다른 값들이 알려져 있을 때 음향 에코 파라미터(wa)가 도출될 수 있다.
본 명세서에 보다 상세히 기술된 바와 같이, 음향 에코 파라미터(wa)는 상이한 맥락들에서, 예를 들어, 이어피스에 대한 공간을 형성하는 사용자들의 귀들의 구성들에 기초하여 사용자들에 대한 고유의 음향 시그너처들을 생성하기 위해, 이어피스가 사용자의 귀에 배치되어 있는지를 검출하기 위해, 그리고 이어피스 또는 이어피스가 위치되는 공간의 온도를 결정하기 위해 적용될 수 있다. 일부 구현들에서, 음향 에코 파라미터(wa)는 이어피스가 위치되는 공간의 임펄스 응답을 집합적으로 나타내는 복수의 값들(예컨대, 수십 또는 수백개의 값들)을 포함할 수 있다. 임펄스 응답 함수는 따라서 이어피스가 위치되는 공간의 음향 특성들로 인해 생기는 오디오 신호(s)의 변환 또는 왜곡을 모델링할 수 있다.
일부 구현들에서, 오디오 프로세싱 디바이스는, 다른 관련 파라미터들이 일단 식별되었으면, 온도(T) 및 음향 에코 파라미터(wa)에 대한 값들을, 수학식 1을 그 값들에 대해 푸는 것에 의해, 결정할 수 있다. 앞서 기술된 수학식 1을 사용하여 T 및 wa를 결정하거나 그에 대해 풀기 위한 예시적인 프로세스(600)가 도 6의 플로차트에 나타내어져 있다. 일부 구현들에서, 프로세스(600)는 오디오 신호들을 출력하고 감지하기 위해 전기음향 트랜스듀서를 갖는 종래의 이어피스들(예컨대, 이어버드들 또는 이어폰들)을 사용하여 오디오 프로세싱 디바이스에 의해 수행될 수 있다. 주어진 공간에 대한 T 및 wa를 도출하기 위해, 오디오 소스 신호(s)가 이어피스를 통해 재생되는 동안(스테이지(602)) 그리고 청각 신호(r)가 이어피스 트랜스듀서에 의해 생성된 전기 신호들로부터 레코딩되는 동안(스테이지(604)) 이어피스가 그 공간에 위치된다. 예를 들어, 사용자는 이어피스를 사용자의 귀에서 제자리에 배치하고 프로세스(600)의 수행을 개시하는 오디오 프로세싱 디바이스 상의 컨트롤을 선택하는 것에 의해 사용자의 귀들 중 하나에 대한 음향 에코 파라미터(wa)의 결정을 프롬프트할 수 있다. 일부 경우들에서, wa의 값들은 공간에서의 이어피스의 위치 및 배향에 부분적으로 의존할 수 있고, 따라서 사용자는 이어피스를 wa 파라미터의 결정을 위해 공간 내의 원하는 위치에 또는 그 근방에 주의하여 위치시킬 수 있다. 일부 구현들에서, 공간은 wa 파라미터에 대한 값들의 다수의 세트들과 연관될 수 있고, 각각의 세트는 공간에서의 이어피스의 상이한 위치에 대응한다.
스테이지(606)에서, 오디오 프로세싱 디바이스는 내재적 이어피스 파라미터들(w0 및 wΔ)을 식별한다. 이것들은 오디오 프로세싱 디바이스 상에서 로컬로 교정되거나, 오디오 프로세싱 디바이스에 저장되거나, 또는 오디오 프로세싱 디바이스로부터 멀리 떨어진(remote) 컴퓨팅 시스템(예컨대, 인터넷 기반 서버 시스템)으로부터 획득될 수 있다. 오디오 프로세싱 디바이스는 사용자가 착용하는 이어피스에 특별히 적용되는 내재적 파라미터들에 대한 값들을 식별할 수 있다. 이 값들은 공간에서의 이어피스의 위치(position) 또는 이어피스의 위치(location)에 기초하여 변하지 않을 수 있다.
스테이지(608)에서, 오디오 프로세싱 디바이스는 초기 반복에서 프로세싱을 위해 오디오 소스 신호(s)의 제1 세그먼트 및 청각 신호(r)의 대응하는 세그먼트를 선택한다. 청각 신호(r)의 선택된 세그먼트는, r의 선택된 세그먼트가 오디오 신호(s)의 제1 세그먼트가 이어피스의 전기음향 트랜스듀서에 의해 재생되어 공간 내로 출력된 동일한 시간 기간 동안 발생된 청각 신호를 나타낸다는 점에서, 오디오 소스 신호(s)의 제1 세그먼트에 대응한다. 예를 들어, 시스템이 오디오를 1000 Hz로 재생하고 레코딩하는 경우, 선택된 r 및 s 세그먼트들은 0.001 초 시간 간격에 걸친 또는 매 0.001 초마다의 재생된 신호의 전압 및 레코딩된 신호의 전압을 포함한다.
스테이지(610)에서, 오디오 프로세싱 디바이스는 소스-감소된 청각 신호(source-reduced aural signal)(rdiff)를 결정한다. 소스-감소된 청각 신호(rdiff)는, 레코딩된 청각 신호(r)의 선택된 세그먼트로부터, 오디오 소스 신호(s)의 선택된 세그먼트와 w0의 컨볼루션을 차감하는 것에 의해 계산(compute)될 수 있다(즉,
Figure pct00006
). 수학식 1을 분석하는 것으로부터 명백할 수 있는 바와 같이, rdiff는 레코딩에 대한 이어피스의 w0 영향을 배제하는 레코딩된 사운드의 부분을 나타낸다.
스테이지(612)에서, 오디오 프로세싱 디바이스는 온도 의존적 청각 신호(rΔ)를 오디오 소스 신호(s)의 선택된 세그먼트와 wΔ의 컨볼루션으로서 결정한다(즉,
Figure pct00007
). 수학식 1을 분석하는 것으로부터 또한 명백할 수 있는 바와 같이, rΔ는 레코딩에 대한 이어피스의 w0 영향을 배제하는 레코딩된 사운드의 부분을 나타낸다.
스테이지(614)에서, 오디오 프로세싱 디바이스는 이어서 온도(T)(베이스라인 온도(T0)로부터의 오프셋을 나타내는 온도 또는 절대 온도(T) 중 어느 하나)를 결정할 수 있다. 이 온도(T)는 rdiff와 T와 rΔ의 컨볼루션 간의 차이를 최소화하는 T에 대한 값을 식별하는 것에 의해 결정될 수 있다(즉,
Figure pct00008
). 일부 구현들에서, 이 표현식을 최소화하는 T의 값은 MLS 추정(minimum least squares estimation) 기법을 사용하여 결정될 수 있다. T의 식별된 값은 이어피스의 결정된 온도일 수 있다. 수학식 1을 분석하는 것으로부터 명백할 수 있는 바와 같이, T의 이러한 식별은 wa, e, 및 N이 미칠 수 있는 레코딩된 신호에 대한 영향을 고려하지 않는다. 이러할 수 있는 이유는 wa가 최적인 것으로 가정될 수 있고 e 및 N이 다양한 계수 값들의 초기 결정 동안 T의 결정에 무시할 만한 영향을 미칠 수 있기 때문이다.
스테이지(616)에서, T에 대한 값을 결정할 때(스테이지(614)), 오디오 프로세싱 디바이스는 이어서 청각 신호 음향 에코(ra)에 대한 값들을 결정한다. 청각 신호 음향 에코는 일반적으로 이어피스에 의해 재생되는 오디오로부터 생기는 레코딩된 청각 신호(r)의 성분이고, (예컨대, wa, e, 및 N을 고려하지 않고) 이어피스의 음향 특성들의 결과로서 오디오 소스 신호(s)에 부여되는 왜곡이다. 청각 신호 음향 에코(ra)는 레코딩된 신호(r)를 식별하는 것, 및 그것으로부터 (1) 오디오 소스 신호(s)의 선택된 세그먼트와 w0의 컨볼루션 및 (2) T, 오디오 소스 신호(s)의 선택된 세그먼트와 wΔ의 컨볼루션을 차감하는 것에 의해 계산될 수 있다(즉,
Figure pct00009
Figure pct00010
).
실제로, T, 그리고 따라서 ra의 값들은 급격히 변하는 경향이 있다. 이어피스는, 예를 들어, 사용자의 귀에 오랫동안 꽂아져 있을수록, 또는 노래의 상이한 세그먼트들 동안 소스 오디오 신호(s)의 증가하는 강도에 기초하여 또는 소스 오디오 신호(s)를 재생하기 위해 사용자가 볼륨을 증가시킨 결과로서 따뜻해질(warm up) 수 있다. 이러한 급격히 변하는 값들을 고려하기 위해, 프로세스(600)는 음향 에코 파라미터(wa)의 값들을 계산하기 전에 오디오 소스 신호(s) 및 레코딩된 청각 신호(r)의 다수의 작은 세그먼트들 각각에 대한 T 및 ra의 새로운 값을 결정할 수 있다. 예를 들어, (예컨대, 0.05 내지 2초의) r 및 s의 작은 세그먼트들에 대한 T 및 ra가 산출될 수 있고, 이어서 다수의 세그먼트들로부터 결정된 값들에 기초하여 보다 긴 시간이 경과한(예컨대, 2 내지 10초) 후에 wa가 산출될 수 있다. 이 값들은 스테이지(622)에서 평균화되거나 다른 방식으로 결합(combine)될 수 있다. 일부 구현들에서, wa의 값들이 매 0.2초마다 재산출될 수 있다(즉, ra의 간격의 크기가 매 0.2초마다임). 일부 구현들에서, wa를 계산하기 위한 이러한 간격들이, 매 0.05 또는 0.1초와 같이, 훨씬 더 작을 수 있다. 각각의 간격으로 산출된 ra의 값들이 연접(concatenation)에 의해, 즉 rdiff를 상이한 세그먼트들로 분할하고, 각각의 세그먼트에 대한 T의 대응하는 값을 구하며, ra를 산출하고 이들을 연접시키는 것에 의해, 결합될 수 있다. wa를 결정하기(스테이지(622)) 전에 소스 신호(s) 및 청각 신호(r )의 부가의 세그먼트들이 아직 프로세싱되지 않은 채로 있는 경우, 스테이지(620)에서 오디오 프로세싱 디바이스는 신호들(s 및 r)의 다음 세그먼트를 선택하고 부가의 반복들을 위해 스테이지(610)로 되돌아간다. 프로세스(600)는 임계 반복 횟수가 경과할 때까지 또는 다른 조건이 충족될 때까지 이러한 반복들을 계속할 수 있다.
스테이지(622)에서, 오디오 프로세싱 디바이스는 이어서 음향 에코 파라미터(wa)의 값을 결정한다. 일부 구현들에서, wa의 값은 표현식
Figure pct00011
를 최소화하는 값으로서 계산될 수 있다. 이 표현식을 최소화하는 값들은, MLS 추정(minimum least squares estimation)과 같은, 다양한 기법들을 사용하여 결정될 수 있다. 수학식 1을 분석하는 것으로부터 명백할 수 있는 바와 같이, 음향 에코 파라미터(wa)의 결정은 e 및 N의 값들을 고려하지 않을 수 있다.
T 및 wa가 일단 산출되었으면, e 및 N이 계산될 수 있다. 시스템은, 이어피스의 온도를 (예컨대, 적어도 5 또는 10초 동안) 레벨 아웃(level out)시키기 위해, 그러한 계산을 수행하기 전에 결정된 시간량 동안 대기할 수 있다. 이 시점에서, 수학식 1의 다른 값들 전부가 알려질 수 있고, e와 N의 결합이 산출될 수 있다. 시스템이 (예컨대, 양쪽 레코딩에 공통인 e의 변동을 레코딩하기 위해 다른 마이크로폰을 사용하여) 어느 한 신호의 특성들을 결정할 수 있는 경우, e에 대한 값을 N에 대한 값으로부터 분리시키는 것이 가능할 수 있다.
도 2a를 다시 참조하면, 본 명세서에 기술된 다양한 방법들의 동작들을 수행하도록 구성될 수 있는 예시적인 오디오 프로세싱 디바이스(202)의 블록 다이어그램이 도시되어 있다. 디바이스(202)는, 예를 들어, 휴대용 미디어 플레이어, 스마트폰, 태블릿 컴퓨팅 디바이스, 웨어러블 컴퓨팅 디바이스, 노트북 또는 데스크톱 컴퓨터, 텔레비전, 또는 일반적으로 오디오 신호들을 재생하고, 레코딩하며, 프로세싱할 수 있는 다른 타입의 컴퓨팅 디바이스들일 수 있다.
디바이스(202)는 오디오 소스 신호들을 재생하기 위한 플레이어(222) 및 마이크로폰(212)에 의해 감지된 신호들을 레코딩하기 위한 레코더(recorder)(224)를 갖는 오디오 프로세서(220)를 포함한다. 한 쌍의 이어피스들(206a, 206b)(각자의 전기음향 트랜스듀서들(208a, 208b) 및 임의로 개별적인 마이크로폰들(210a, 210b)을 포함함)을 갖는 이어셋(earset)(204)은 포트(226)(예컨대, 표준 3.5 mm 오디오 잭)를 통해 오디오 프로세싱 디바이스(202)에 연결할 수 있다. 이어셋(204)은 이어피스에 내장된(built into) 전용 마이크로폰을 갖지 않는 종래의 기성품 디바이스일 수 있다. 일부 구현들에서, 이어셋(204)은, 예를 들어, 내장된 마이크로폰들(210a, 210b)을 포함하는 특수 디바이스(specialized device)일 수 있다. 일부 구현들에서, 오디오 프로세싱 디바이스(202)는 디바이스에 의해 수행되는 동작들을 조율(coordinate)하는 제어기(218); 사용자들의 청각 기반 인증(aural-based authentication)을 수행하는 인증 엔진(228); 사용자들에 대한 음향 에코들(wa) 및 음향 시그너처들의 값들을 생성하는 음향 모델링 엔진(238); 주변 사운드들 및 주변 사운드들에서의 사전 레코딩된 오디오 신호들의 출현을 식별하기 위한 외부 잡음 검출기(236); 및 외부 잡음 검출기(236)에 의해 식별된 사전 레코딩된 오디오 신호들에 관한 정보를 사용하여 능동 잡음 제거를 수행하기 위한 잡음 제거 엔진(240)을 포함할 수 있다. 디바이스는, 예컨대, 사전 레코딩된 사운드들을 식별하기 위해 그리고 음향 에코들(wa)의 사전 저장된 모델들을 획득하기 위해, 네트워크(216)를 거쳐 서버(214)와 통신하는 통신 인터페이스(242)를 추가로 포함할 수 있다. 일부 구현들에서, 오디오 프로세싱 디바이스(202)는 이러한 컴포넌트들의 전부보다 더 적은 것들을 가질 수 있거나, 이러한 컴포넌트들의 특정의 조합들 또는 서브세트들만을 포함할 수 있다. 예시로서, 이어폰들이 블루투스 또는 다른 무선 연결을 통해 오디오 프로세싱 디바이스에 연결되는 그 예들에서, 오디오 프로세싱의 적어도 일부가 헤드폰들에 있는 회로부에 의해 수행될 수 있다(예컨대, 코덱, 디지털-아날로그 출력 변환, 및 입력 아날로그-디지털 변환이 헤드폰들에서 수행될 수 있다). 외부 마이크로폰(212)은 또한, (예컨대, 해제가능(releasable) 3.5mm 오디오 잭을 통하지 않고) 영구적 하드-와이어(hard-wire) 연결을 통해 오디오 프로세싱 디바이스(202)에 연결되기보다는, 영구적 하드-와이어 연결에 의해 헤드폰들 내의 오디오 프로세싱 회로부에 직접 연결될 수 있다. 오디오 프로세싱 디바이스(202)에 의해 수행되는 동작들의 상세들은 이하의 섹션들에서 기술된다.
동시적인 재생 및 레코딩을 구성하기
시스템은 오디오를 재생하기도 하고 레코딩하기도 하는 데 단일 트랜스듀서를 사용할 수 있다. 예로서, 이하에서 기술되는 이 문서에 설명된 기술에 대한 의도된 응용들을 고려하여 이해될 것인 바와 같이, 기성품 이어셋 내의 트랜스듀서가 외이도를 향해 지향되는 사운드를 생성하도록 배치될 수 있고, 따라서 그 트랜스듀서를 마이크로폰으로서 또한 사용하는 것은 사운드를 수신하기 위해 마이크로폰의 외이도를 향한 배향이 주어진 경우 유용할 수 있다. 오디오를 재생하기도 하고 레코딩하기도 하기 위해 이어셋 트랜스듀서를 사용하는 것은 재생 기능과 레코딩 기능 간에 교번하는 것 또는 동시에 재생하고 레코딩하는 것 중 어느 하나에 의해 달성될 수 있다. 전자에서, 사운드 카드 출력 포트 및 사운드 카드 입력 포트 둘 다가 트랜스듀서에 연결될 수 있고, 사운드 카드는, 예를 들어, 반복적으로 200 mS 동안 오디오를 재생하고 이어서 10 mS 동안 오디오를 레코딩하는 것에 의해, 신호를 트랜스듀서로 출력하는 것과 트랜스듀서에 의해 생성된 신호를 레코딩하는 것 사이에서 교번할 수 있다.
두 번째 옵션과 관련하여, 오디오를 동시에 재생하기도 하고 레코딩하기도 하는 것이 가능하다. 그렇게 하는 것은 컴퓨팅 시스템이 재생된 오디오와 레코딩된 오디오 사이의 차이들을 분석할 수 있게 해주며, 이는 컴퓨팅 시스템이 오디오가 재생된 환경의 특성들(예컨대, 환경의 온도, 환경으로부터의 사운드들, 및, 형상과 같은, 환경의 오디오 반사 특성들)을 결정할 수 있게 해주기 때문에 도움이 될 수 있다. 그렇지만, 오디오의 동시적인 재생 및 레코딩을 향상시키기 위해, 이어피스 트랜스듀서와 사운드 카드(예컨대, 사운드 카드 코덱) 사이의 전형적인 표준 연결을 수정하는 것이 도움이 된다. 수정은 트랜스듀서와 오디오 회로 출력 또는 입력 중 어느 하나 사이에 저항기를 삽입하는 것을 포함할 수 있다. 사실상, 이러한 삽입은 오디오 회로 출력 포트와 오디오 회로 입력 포트 사이에 저항기를 삽입하는 것과 동일할 수 있다. 이 삽입된 저항기는 도 2b에서 RADDED로서 예시되어 있다. 이 저항기의 추가에 의해 제공되는 이점들을 논의하기 전에, 본 개시내용은 트랜스듀서 동작에 대한 간략하고 얼마간 단순화된 개요를 제공한다.
이제 도 2b를 참조하면, 도면은 전기 신호를 (예컨대, VPLAYED 출력 포트를 통해) 트랜스듀서로 출력할 수 있고 (예컨대, VRECORDED 입력 포트를 통해) 트랜스듀서로부터 수신된 전기 신호를 입력/분석할 수 있는 회로부를 나타내는 코덱(250)을 좌측에 도시하고 있다. 코덱은 모바일 디바이스(예컨대, 전화기)에 위치될 수 있거나 헤드셋에(예컨대, 블루투스에 의해 연결된(Bluetooth-connected) 이어폰들의 회로부에) 위치될 수 있다. 도면의 우측에는 트랜스듀서를 포함하는 이어피스(260)가 있다. 이 예에서, VPLAYED 포트 및 VRECORDED 포트 둘 다는 스피커 구성으로도 마이크로폰 구성으로도 사용되고 있는 트랜스듀서에 연결된다. 이것은, 트랜스듀서가 스피커 또는 마이크로폰으로서 사용되어야 하는지에 따라, VRECORDED 포트 또는 VPLAYED 포트 중 하나가 트랜스듀서에 자체적으로(by itself) 연결되는 것을 수반하는 전형적인 동작과 대조된다.
트랜스듀서가 스피커로서 오디오 회로부의 VPLAYED 포트에 연결될 때, 트랜스듀서는 VPLAYED에서 출력되는 전압에 따라 음파들을 생성하도록 바뀐다. 전형적인 오디오 트랜스듀서의 구조(construction) 및 기능에 관한 일부 논의는 사운드가 어떻게 생성되고 레코딩되는지, 그리고 본 명세서에 기술된 구성이 어떻게 오디오의 동시적인 재생 및 레코딩을 향상시키는지를 설명하는 데 도움이 될 수 있다. 전형적인 트랜스듀서의 주요 컴포넌트들 중 하나는 콘(cone)이다. 이것은 음파들을 생성하기 위해 전후로 움직이는 트랜스듀서의 부분이며 스피커의 전면을 볼 때 보이는 것이다. 이는 종이, 종이 복합재들 및 라미네이트들, 또는 플라스틱 재료들과 같은 다양한 연성 재료들로 이루어질 수 있다. 스피커의 고정된 프레임 - 그 내에서 콘이 움직임 - 은 바스켓(basket)이라고 불리며, 콘은, 또한 종이, 플라스틱, 또는 고무 재료일 수 있는, 에지들 주위의 개스킷에 의해 바스켓에 연결된다. 콘의 중앙에는 코일이 있으며, 코일은 전형적으로 콘의 후면(backside)에 연결되고 스피커를 그의 전방으로부터 볼 때 보이지 않는다. 코일은 콘에 연결되고 콘과 함께 전후로 움직일 수 있는데, 그 이유는 코일이 연결되는 콘의 중앙이 공간에 매달려 있기(콘이 그의 외주(outer circumference)에서만 연결되기) 때문이다. 프레임에 고정되는 전자석은 코일을 둘러싸지만 공기에 의해 분리되어 있다. 전압을 전자석에 인가하는 것은 전기장(electrical field)을 유도하여 코일을 전자석 쪽으로 끌어당기게 할 수 있다. 전자석이 코일로부터 변위될 수 있기 때문에, 전기장을 유도하는 것은 코일이 전후로 움직이게 할 수 있다. 이에 따라, 전압을 전자석에 인가하는 것은 코일에 연결된 콘의 위치에 영향을 미친다. 그럼에도, 주어진 전압이 콘의 고정된 위치에 반드시 대응하는 것은 아닐 수 있는데, 그 이유는 콘이 콘의 개스킷 및 굴곡(flexing) 속성들에 의해 콘에 부여되는 바이어싱 힘들(biasing forces)을 가질 수 있기 때문이다. 실제로, 전압 또는 오디오 신호는 전형적으로 트랜스듀서의 움직임을 통해 출력되는 다양한 주파수들을 나타 내도록 진동하고 있으며, 트랜스듀서에 인가되는 전압들의 이력은 트랜스듀서의 포지셔닝(positioning)에 영향을 미친다. 이 예에서, 전압은 오디오 회로부에 의해 VPLAYED 포트를 통해 트랜스듀서에 제공될 것이다.
그렇지만, 트랜스듀서의 위치가 VPLAYED 포트에서 제공되는 전압에 의해 전적으로 설정되는 것은 아니다. 실제로, 트랜스듀서가 오디오를 재생하는 동안 사용자가 콘을 누르는 것(pressing), 또는 충격파가 트랜스듀서에 충돌(hit)하는 것을 상상해본다. 이 상황들 둘 다에서, 콘의 위치가 임의의 외부 영향이 없는 경우 예상되는 것으로부터 벗어난다. 더욱이, 임의의 외부 영향들로 인한 콘의 움직임은 전자석에 걸리는 전압에 영향을 미친다. 실제로, 발전기가 컴포넌트를 전자석에 대해 움직여 그 전자석 양단에 걸친 전압 신호를 유도하는 것으로 작동하는 것처럼, 트랜스듀서의 콘 및 코일을 움직이는 것은 전자석의 단자들 양단에 걸친 전압 및 전기 신호를 유도할 수 있다. 사실, 이것은 도 2b에 도시된 회로가 레코딩 디바이스 - 이어피스/트랜스듀서가 (VPLAYED 포트가 아니라) VRECORDED 포트에만 연결된 경우 - 로서 어떻게 기능할 수 있는지이다. 그러한 예에서, 트랜스듀서에 충돌하는 압력파들(예컨대, 사운드들)은 전자석에 의해 전압으로 변환될 것이고, 이 전압은 VRECORDED 포트에 공급되어, 코덱이 그 포트에서의 변하는 전압 값들을 샘플링하고 트랜스듀서에 의해 레코딩되는 사운드를 나타내는 디지털 데이터 스트림을 출력할 수 있게 해줄 것이다.
이에 따라, VPLAYED 또는 VRECORDED 포트들을 트랜스듀서에, 한 번에 적어도 하나씩, 연결시키는 것이 어떻게 그 트랜스듀서를 사용하여 오디오를 재생하거나 오디오를 레코딩할 수 있게 해줄 수 있는지를 알 수 있다. 그렇지만, 둘 다를 동시에 트랜스듀서에 연결시키는 것은 효과적이지 않을 수 있는데, 그 이유는 VPLAYED와 VRECORDED가 서로 단락될 수 있어 (예컨대, 0.1, 0.5, 또는 1 옴 미만의 저항의 도체와의 연결을 통해) 동일한 전압으로 구동될 것이기 때문이다. VPLAYED 포트와 VRECORDED 포트 사이에 연결된 (예컨대, 2, 5, 10, 50, 또는 100 옴 이상의 저항을 갖는) 저항기를 도입하고 이어서 트랜스듀서를 (예컨대, 다시 말하지만 앞서 기술된 저항 값들의 도체를 이용해) VPLAYED 포트 및 VRECORDED 포트 중 하나에 직접 연결시키는 것은 VPLAYED 및 VRECORDED에서의 전압들이 상이할 수 있게 해주어, VRECORDED가 트랜스듀서 양단에 걸친 전압이 VPLAYED에서의 전압과 어떻게 상이한지를 감지할 수 있게 해준다. 이 예에서, 저항기의 배치는 VPLAYED 포트와 트랜스듀서 사이에 배치되고, VRECORDED 포트가 트랜스듀서에 직접 연결된 것으로 예시되어 있지만, 대안적으로 저항기가 또한 VRECORDED 라인에 추가될 수 있고 VPLAYED가 트랜스듀서에 직접 연결될 수 있다.
RADDED 저항기의 추가는 VRECORDED에서의 전압이 VPLAYED에 존재하는 전압과 상이할 수 있게 해준다. VRECORDED가 트랜스듀서와 접지 사이에 연결되기 때문에, 트랜스듀서에서처럼, VRECORDED가 따라서 트랜스듀서의 전압을 감지할 수 있다. 예를 들어, 5V가 VPLAYED에 존재하고 트랜스듀서 양단에 걸친 전압이 RADDED와 RTRANSDUCER 사이의 전압 분할로 인해 4V일 것으로 예상된다고 가정한다. 트랜스듀서 양단에 걸친 전압이 외부 사운드들에 의해 영향을 받는 트랜스듀서의 움직임으로 인해 4V와 상이하면, 예를 들어, 전압이 4.1V이면, VRECORDED는 이 전압일 것이다. 컴퓨팅 시스템은 이어서 예상된 전압 4V 및 한 순간에서의 측정된 전압으로부터 0.1 V 편차가 있었다고 결정할 수 있다. 이러한 결정을 정기적으로 수행하여, 컴퓨팅 시스템은 VPLAYED 신호와 상이한 레코딩된 신호 VRECORDED의 성분들의 비교적 작은, 시변 신호를 추출할 수 있다.
일부 예들에서, RADDED를 회로에 삽입하는 것은 트랜스듀서의 성능에 크게 영향을 미치지 않을 수 있지만, 저항기가 VPLAYED 포트 또는 VRECORDED 포트에 배치되는지에 따라, 트랜스듀서에 제공되는 전압 또는 VRECORDED에서 레코딩되는 전압의 진폭을 저하시킬 수 있다. 이러한 감소는 트랜스듀서에 의해 출력되는 사운드 볼륨 또는 레코딩의 볼륨을 이와 유사하게 감소시킬 수 있다. 이에 따라, 컴퓨팅 시스템은 RADDED 저항기를 회로 내로 그리고 회로 밖으로 스위칭하도록, 예를 들어, 컴퓨팅 시스템이 오디오를 동시에 재생하고 레코딩하도록 지시받았을 때 저항기를 회로 내로 단지 스위칭하도록, 구성될 수 있다. 저항기가 회로 밖으로 스위칭될 때, 이어피스 포트는, 앞서 기술된 바와 같이, 최소 저항의 도체로 적절한 VPLAYED 또는 VRECORDED 포트에 직접 연결될 수 있다. 컴퓨팅 시스템은, RADDED가 제거된 상태에서 VPLAYED와 VRECORDED가 서로 단락되지 않도록, VRECORDED를 이어피스에 연결시키는 스위치를 동시에 열 수 있다.
일부 예들에서, VRECORDED 포트는 전형적으로 전용 마이크로폰들(예컨대, 사용자의 음성을 포착하도록 의도된 코드(cord) 상에서 헤드폰들에 매달려 있는 마이크로폰)에 대해 지정된 포트일 수 있다. 이에 따라, 컴퓨팅 시스템이 단일 트랜스듀서를 통해 오디오를 동시에 재생하고 레코딩하도록 지시받았을 때 컴퓨팅 시스템은 VRECORDED 포트를 VPLAYED 포트와 동일한 트랜스듀서에 연결되는 것으로 스위칭하도록 구성될 수 있다. 이에 따라, 헤드폰들이 그들의 전형적인 동작 중에 있을 때, 컴퓨팅 시스템은 VRECORDED 포트를 열린 채로 두거나 상이한 마이크로폰에 연결된 채로 둘 수 있다. 이러한 예들에서, 컴퓨팅 시스템은 이용가능하거나 요망될 때 전용 마이크로폰을 사용할 수 있고, 전용 마이크로폰이 이용가능하지 않을 때 또는 오디오를 재생하기도 하고 레코딩하기도 하기 위해 동일한 트랜스듀서를 사용하는 것이 바람직할 때, 스피커 또는 마이크로폰과 동일한 트랜스듀서를 사용할 수 있다.
이제 도 2c를 참조하면, 도면은 ADC(analog-to-digital converter) 및 DAC(digital-to-analog converter)를 왼쪽에 그리고 사용자에 대한 헤드폰의 표현을 오른쪽에 갖는 배선도를 도시하고 있다. 저항기(R)가 이 둘 사이에 연결되어 있다. 이 배선도는 도 2c에 도시된 것과 유사하며, DAC는 VPLAYED를 나타내고, ADC는 VRECORDED를 나타내며, R은 RADDED를 나타내고, H는 RTRANSDUCER를 나타낸다(코덱의 접지 연결부는 도 2c에 나타내어져 있지 않다). 도 2b에서의 배선도와의 주된 차이점은, ADC가 저항기(R)의 이어피스 측에만 연결되기보다는, ADC가 저항기(R) 양단에 연결되는 포지티브 단지 및 네거티브 단자를 포함한다는 것이다. 이 구성은 포지티브 단자 및 네거티브 단자를 갖는 차동 ADC들을 포함하는 코덱들에서 사용될 수 있으며, ADC가 저항기(R) 양단에 걸친 전압 차이를 측정할 수 있는 차동 회로를 나타낼 수 있다. 그러한 구성은, 일부 구현들에서, 도 2b에 도시된 구성과 비교하여 증가된 다이내믹 레인지를 제공할 수 있다. 코덱 또는 다른 계산 디바이스에 의한 프로세싱은 도 2b에서의 배선도에 의해 수행되는 것과 유사할 수 있다. 예를 들어, 저항기(R) 양단에 걸친 전압은, 헤드폰 이어피스(H)의 저항을 변화시키는 압력파들로 인해, DAC에 의해 제공되는 주어진 출력에 대해 예상된 것과 상이할 수 있다. 코덱(또는 다른 계산 디바이스)은 ADC에 의해 저항기(R) 양단에 걸친 예상된 측정과 실제 측정을 비교하는 것에 의해 헤드폰 이어피스에 대한 이 압력파들의 영향을 결정할 수 있다.
이제 도 2d를 참조하면, 도면은 2개의 ADC, 2개의 DAC, 및 2개의 저항기(R)를 갖는 배선도를 도시하고 있다. 이 배선도는 도 2c와 관련하여 제시된 것과 유사하지만, 1-채널 구현보다는 2-채널 구현(좌 및 우 채널들)을 도시하고 있다. 요컨대, 각각의 채널은 오디오 신호를 그 각자의 채널에 출력하는 그 자신의 DAC, DAC와 사용자 이어피스로 가는 오디오 잭(또는 오디오 잭들을 포함하지 않는 무선 구현들에서는 대응하는 트랜스듀서로 가는 와이어)에 대응하는 입력 단자 사이의 그 자신의 저항기(R), 및 저항기(R) 양단에 걸친 차분(differential)을 측정하기 위한 그 자신의 ADC를 갖는다. 이 예에서, 마이크로폰 입력에 대한, 예를 들어, 오디오 잭과 이어피스들 사이의 코드에 인라인으로(inline) 위치될 수 있는 마이크로폰에 대한, ADC가 또한 있다. 이 특정의 오디오 코덱은 저항기들(RR 및 RL) 양단에 걸친 전압을 측정하는 데 사용하기 위해 이용가능한 추가의 ADC 입력들을 가질 수 있다. ADC 포지티브 및 네거티브 입력들은 도 2c에서의 것들과 비교하여 반대로 되어 있지만, 차동 회로들이 회로들에서 상이한 구성들로 포지티브 및 네거티브 ACD 입력들로 구성될 수 있다.
청각 기반 사용자 인증
일부 구현들에서, 이어피스의 하나 이상의 전기음향 트랜스듀서를 통해 재생되고 레코딩되는 오디오 신호들은 사용자들의 신원들을 검증할 수 있는 인증 능력을 구현하는 데 사용될 수 있다. 인증은 대체로 2개의 주된 페이즈: (i) 등록 및 (ii) 검증으로 분할될 수 있다. 이 페이즈들은 도 3의 플로차트에 나타내어져 있다. 등록 페이즈(302) 동안, 사용자는 사용자의 계정으로 등록되는 하나 이상의 음향 시그너처를 생성하기 위해 오디오 프로세싱 디바이스와 상호작용한다. 예컨대, 구별되는 음향 특성들을 제공하는 사용자의 외이도의 고유한 기하형상들로 인해 생기는, 음향 시그너처는 사용자와 연관된 고유 지문(unique fingerprint)과 같다. 검증 페이즈(304) 동안, 오디오 프로세싱 디바이스는 사용자의 귀에서의 청각 신호의 특징들이 사용자와 연관된(예컨대, 사용자의 계정으로 등록된) 음향 시그너처와 매칭하는지를 결정하고, 사용자의 신원을 검증하는 매치(match)가 결정되는지에 기초하여 상이한 액션들을 트리거링한다.
예를 들어, 사용자가 뱅킹 웹사이트(banking website)의 로그인 페이지에 도착할 때, 사용자의 컴퓨팅 디바이스는 사용자가 자격증명들을 페이지에 타이핑하는 것 대신에 사용자의 신원을 검증하기 위해 본 명세서에서 논의된 청각 인증 절차를 자동으로 수행할 수 있다. 사용자가 인증되는 경우, 사용자는 사용자와 연관된 뱅킹 계정(banking account)에 대한 포털에 로그인하도록 허용될 수 있다.
그렇지만, 청각 기반 인증이 단일 개별 인증 인스턴스들(single, discrete instances of authentication)(예컨대, 제한된 사이트에 대한 사용자 액세스를 허가(grant)할지를 결정하기 위해 사용자의 신원의 일회성 검증(one-time verification))로 제한되지 않는다. 일부 구현들에서, 본 명세서에서 논의된 청각 기법들은, 예컨대, 제한된 활동 동안, 시간 경과에 따라 사용자를 연속적으로 그리고 반복적으로 인증하는 데 사용될 수 있다. 예를 들어, 사용자가 자신의 개인 뱅킹 계정에 대한 포털에 로그인되어 있는 동안, 사용자는 사용자의 귀들에 한 쌍의 이어피스들을 위치시키는 헤드셋을 착용할 수 있다. 사용자가 뱅킹 사이트와 상호작용할 때, 디바이스는 뱅킹 사이트가 디바이스 상에 열려 있는 동안 사용자의 상태를 모니터링하고 권한 있는(authorized) 사용자가 존재한다는 것을 연속적으로 검증하기 위해, 예컨대, 도 5의 프로세스(500)에 따라 헤드셋을 통해 사운드들을 재생 및 레코딩할 수 있다. 사용자가 헤드셋을 제거하는 경우, 인증 절차는 권한 있는 사용자가 더 이상 존재하지 않는다고 결정할 수 있고, 디바이스로 하여금 사이트로부터 자동으로 로그아웃하게 할 수 있으며, 그로써 권한 없는(non-authorized) 사용자가 권한 있는 사용자의 계정을 하이재킹(hijack)할 수 없도록 보장한다. 일부 구현들에서, 인증이 실패하는 경우, 사이트는 사용자에게 자신의 신원을 확인해 주도록 프롬프트하거나 즉각 또는 정의된 지연 후에 사용자를 사이트로부터 자동으로 로그아웃시킬 수 있다.
도 4는 사용자에 대한 음향 시그너처를 생성하고 등록하는 것을 포함한, 오디오 프로세싱 디바이스 상에 사용자를 등록하기 위한 예시적인 프로세스(400)를 묘사하고 있다.
스테이지(402)에서, 오디오 프로세싱 디바이스는 등록을 개시하라는 입력을 수신한다. 일부 구현들에서, 디바이스는 사용자에게 등록하도록 프롬프트하며 그리고, 이어버드를 귀에 삽입하고, 이어버드의 위치를 조정하며, 사운드가 들렸다는 것을 확인해 주라는 등에 대한 지시들과 같은, 사용자에게 요구되는 액션들에 대한 단계별 지시들을 제공하는 사용자 인터페이스를 제시할 수 있다.
스테이지(404)에서, 오디오 프로세싱 디바이스는 이어피스를 통해 소스 오디오 신호(s)를 재생한다. 오디오 프로세싱 디바이스는, 예를 들어, 이어피스로 하여금 오디오 신호(s)에 대한 음파들을 생성하게 하기 위해 이어피스 내의 전기음향 트랜스듀서의 다이어프램을 구동시킬 수 있다. 다양한 타입의 오디오 콘텐츠가 소스 오디오 신호(s)에 의해 표현될 수 있다. 일부 구현들에서, 소스 오디오 신호(s)는 사용자가 주어진 시간에 청취하기 위해 선택한 친숙한 노래, 팟캐스트, 또는 다른 오디오 트랙일 수 있다. 일부 구현들에서, 소스 오디오 신호(s)는 이어피스가 사용자의 귀에 위치된 경우 사용자에게 들리게 될 백색 잡음일 수 있다. 일부 구현들에서, 소스 오디오 신호(s)는, 이어피스가 사용자의 귀에 위치되더라도, 오디오 소스 신호(s)를 사용자가 들을 수 없도록 인간 청력의 정상 범위 밖에(예컨대, 20 킬로헤르츠 초과) 있을 수 있다. 예를 들어, 원하지 않는 사운드들로 사용자를 방해하지 않으면서 또는 사용자가 고요함 또는 최소한의 잡음을 선호하는 다른 환경들에서 이어피스 검출 절차의 수행을 가능하게 하기 위해, 비가청(inaudible) 소스 신호(s)가 유익할 수 있다. 일부 구현들에서, 비가청 소스 신호(s)가 사용자에 의해 검출되지 않으면서 디바이스 상에서 재생하기 위해 사용자가 이미 선택한 가청 신호(예컨대, 음악 또는 다른 오디오 콘텐츠)에 추가될 수 있다. 일부 구현들에서, 오디오 프로세싱 디바이스는 사용자가 귀내 검출(in-ear detection)을 위해 재생할 오디오 신호(s)의 타입(예컨대, 백색 잡음, 비가청, 또는 사전 레코딩된 가청 사운드 신호)을 선택할 수 있게 해주는 물리 또는 가상 인터페이스를 (예컨대, 오디오 프로세싱 디바이스의 전자 디스플레이 상에 제시되는 그래픽 사용자 인터페이스를 통해) 제공할 수 있다. 오디오 신호는 비교적 짧은 시간 스팬(span of time) 동안, 예컨대, 0.05 내지 3초 동안, 또는 연속적으로 재생될 수 있다.
스테이지(406)에서, 오디오 프로세싱 디바이스는 오디오 소스 신호(s)가 재생되는 동안 이어피스가 위치되는 사용자의 귀에서 발생되는 사운드의 청각 오디오 신호(r)를 레코딩한다. 일부 구현들에서, 청각 신호(r)는 오디오 소스 신호(s)를 출력하는 동일한 이어피스 트랜스듀서에 의해 감지된 정보에 기초하여 오디오 프로세싱 디바이스에 의해 레코딩될 수 있다. 오디오 프로세싱 디바이스는 (예컨대, 트랜스듀서를 구동하고 동시에 트랜스듀서의 전압을 산출하는 것에 의해, 또는, 각각의 1 ms, 0.1 ms, 또는 0.01 ms보다 더 길지 않게 각각을 교번하는 것과 같이, 재생이 레코딩에 의해 방해를 받고 있다는 것을 사용자가 인지하지 않도록 재생과 레코딩이 시분할 듀플렉스 스킴으로 높은 주파수로 서로 교대로 수행되는 것에 의해) 동시에 오디오 소스 신호(s)를 재생하고 청각 오디오 신호(r)를 레코딩할 수 있다. 일부 구현들에서, 오디오 소스 신호(s)와 청각 오디오 신호(r)가, 스테이지들 사이에서 교번하지 않고, 실제로는 동시에 재생되고 레코딩될 수 있다. 일부 구현들에서, 이어피스는 제1 트랜스듀서와 별개인 제2 트랜스듀서를 포함할 수 있으며, 여기서 제2 트랜스듀서는 전용 마이크로폰으로서 역할하고 제1 트랜스듀서는 전용 스피커이다.
스테이지(408)에서, 오디오 프로세싱 디바이스는 디바이스가 오디오 소스 신호(s)를 재생하고 청각 신호(r)를 레코딩하는 시간 기간 동안 이어피스의 현재 위치와 연관된 음향 에코(wa)에 대한 값들(예컨대, 이어피스의 음향 에코의 임펄스 응답)을 결정한다. 이 스테이지(408)에서 결정된 음향 에코(wa)는 이어피스가 현재 위치되는 공간의 특성들을 나타낸다. 음향 시그너처가 이어서 음향 에코(wa)에 대한 결정된 값들에 기초하여 생성된다. 일부 구현들에서, 음향 에코(wa)의 값들 자체가 음향 시그너처를 형성한다. 일부 구현들에서, 음향 에코의 값들이 사용자에 대한 음향 시그너처를 생성하기 위해 추가로 프로세싱되고, 필터링되며 그리고/또는 암호화될 수 있다.
일부 구현들에서, 오디오 프로세싱 디바이스는 등록 페이즈 동안 사용자에 대한 다수의(예컨대, 5 내지 10개의) 음향 시그너처들의 세트를 생성할 수 있다. 음향 시그너처들의 각자의 컨텍스트들을 식별해주는 상이한 애트리뷰트들(attributes)이 음향 시그너처들의 상이한 음향 시그너처들에 할당될 수 있다. 예를 들어, 애트리뷰트들은 사용자가 등록 동안 제공하는 이어피스에 대응하는 음향 시그너처에 대한 특정의 이어피스 타입, 제조사, 또는 모델을 나타낼 수 있다. 애트리뷰트들은 이어피스 측면(earpiece side)(예컨대, 이어피스가 사용자의 좌측 또는 우측 귀에 대한 것인지) 및 귀에서의 이어피스의 위치를 추가로 나타낼 수 있다. 오디오 프로세싱 디바이스는, 예를 들어, 가능한 시그너처들의 컬렉션이 결정되고 사용자와 연관될 수 있도록 이어버드를 귀 내의 상이한 위치들로 회전시키도록 사용자에게 프롬프트할 수 있으며, 그 중 임의의 것은 사용자가 나중에 자신의 귀에서 이어버드를 배치하는 위치에 따라 검증 페이즈 동안 유효할 수 있다. 스테이지(412)에서, 음향 시그너처가 사용자의 계정과 관련하여 저장된다.
스테이지(414)에서, 오디오 프로세싱 디바이스는 부가의 귀내 위치들에서의 시그너처들에 대해 사용자에게 프롬프트할지를 결정한다. 예를 들어, 오디오 프로세싱 디바이스는 사용자가 등록을 완료하기 위해 미리 정의된 수(n)의 음향 시그너처가 생성되어 등록될 것을 요구할 수 있고, 프로세스(400)는 유효한 시그너처들의 수(n)에 도달할 때까지 계속될 수 있다. 부가의 음향 시그너처들이 요구되는 경우, 프로세스(400)는 스테이지(418)로 진행하고, 디바이스는 이어피스를 새로운 위치로 조정하도록 사용자에게 프롬프트한다. 프로세스(400)는 이어서 이어피스의 변경된 위치에 대한 사용자의 음향 시그너처를 생성하기 위해 스테이지(404)로부터 반복한다. 충분한 음향 시그너처들의 세트가 일단 생성되었으면, 등록이 완료된다(스테이지(416)).
도 5를 살펴보면, 사용자의 신원을 검증(즉, 사용자를 인증)하기 위한 예시적인 프로세스(500)의 플로차트가 도시되어 있다. 프로세스(500)는 일반적으로 사용자가 디바이스 상에서 청각 기반 인증 서비스들을 등록하고 활성화시킨 후에 수행된다.
스테이지(502)에서, 오디오 프로세싱 디바이스는 인증 절차를 개시하라는 지시를 수신한다. 지시는 디바이스에 대한 사용자 입력의 형태로 되어 있을 수 있거나, 디바이스 상의 운영 체제 또는 애플리케이션, 예컨대, 청각 기반 인증 서비스와 연관된 API를 호출하는 애플리케이션으로부터의 지시일 수 있다.
스테이지(504)에서, 오디오 프로세싱 디바이스는 이어피스를 통해 소스 오디오 신호(s)를 재생한다. 오디오 프로세싱 디바이스는, 예를 들어, 이어피스로 하여금 오디오 신호(s)에 대한 음파들을 생성하게 하기 위해 이어피스 내의 전기음향 트랜스듀서의 다이어프램을 구동시킬 수 있다. 다양한 타입의 오디오 콘텐츠가 소스 오디오 신호(s)에 의해 표현될 수 있다. 일부 구현들에서, 소스 오디오 신호(s)는 사용자가 주어진 시간에 청취하기 위해 선택한 친숙한 노래, 팟캐스트, 또는 다른 오디오 트랙일 수 있다. 일부 구현들에서, 소스 오디오 신호(s)는 이어피스가 사용자의 귀에 위치된 경우 사용자에게 들리게 될 백색 잡음일 수 있다. 일부 구현들에서, 소스 오디오 신호(s)는, 이어피스가 사용자의 귀에 위치되더라도, 오디오 소스 신호(s)를 사용자가 들을 수 없도록 인간 청력의 정상 범위 밖에(예컨대, 20 킬로헤르츠 초과) 있을 수 있다. 예를 들어, 원하지 않는 사운드들로 사용자를 방해하지 않으면서 또는 사용자가 고요함 또는 최소한의 잡음을 선호하는 다른 환경들에서 이어피스 검출 절차의 수행을 가능하게 하기 위해, 비가청 소스 신호(s)가 유익할 수 있다. 일부 구현들에서, 오디오 프로세싱 디바이스는 사용자가 귀내 검출을 위해 재생할 오디오 신호(s)의 타입(예컨대, 백색 잡음, 비가청, 또는 사전 레코딩된 가청 사운드 신호)을 선택할 수 있게 해주는 물리 또는 가상 인터페이스를 (예컨대, 오디오 프로세싱 디바이스의 전자 디스플레이 상에 제시되는 그래픽 사용자 인터페이스를 통해) 제공할 수 있다. 오디오 신호는 비교적 짧은 시간 기간 동안, 예컨대, 0.05 내지 3초 동안, 또는 연속적으로 재생될 수 있다.
스테이지(506)에서, 오디오 프로세싱 디바이스는 오디오 소스 신호(s)가 재생되는 동안 이어피스가 위치되는 사용자의 귀에서 발생되는 청각 오디오 신호(r)를 레코딩한다. 일부 구현들에서, 청각 신호(r)는 오디오 소스 신호(s)를 출력하는 동일한 이어피스 트랜스듀서에 의해 감지된 정보에 기초하여 오디오 프로세싱 디바이스에 의해 레코딩될 수 있다. 오디오 프로세싱 디바이스는, 앞서 기술된 바와 같이, 동시에 오디오 소스 신호(s)를 재생하고 청각 오디오 신호(r)를 레코딩할 수 있다(예컨대, 오디오 소스 신호(s)와 청각 오디오 신호(r)가, 스테이지들 사이에서 교번하지 않고, 동시에 재생되고 레코딩됨). 일부 구현들에서, 이어피스는 제1 트랜스듀서와 별개인 제2 트랜스듀서를 포함할 수 있으며, 여기서 제2 트랜스듀서는 전용 마이크로폰으로서 역할하고 제1 트랜스듀서는 전용 스피커이다.
스테이지(508)에서, 오디오 프로세싱 디바이스는 디바이스가 오디오 소스 신호(s)를 재생하고 청각 신호(r)를 레코딩하는 시간 기간 동안 이어피스의 현재 위치와 연관된 음향 에코(wa)에 대한 값들(예컨대, 이어피스의 음향 에코의 임펄스 응답)을 결정한다. 이 스테이지(508)에서 결정된 음향 에코(wa)는 이어피스가 현재 위치되는 공간의 특성들을 나타낸다.
스테이지(510)에서, 오디오 프로세싱 디바이스는 스테이지(508)에서 결정된 음향 에코(wa)에 대해 결정된 값들을 사용자와 연관된 저장된 음향 시그너처들과 비교한다. 매치가 식별되는 경우(스테이지(512)), 제한된 계정에 로그인하는 것 또는 스마트폰을 잠금해제하는 것과 같은, 특정된 활동이 수행되도록 허용될 수 있다(스테이지(514)). 매치가 식별되지 않는 경우, 특정된 활동이 거부될 수 있거나 상이한 액션이 오디오 프로세싱 디바이스에 의해 취해질 수 있다(스테이지(514)).
일부 구현들에서, 디바이스는 디바이스를 사용하는 다수의 상이한 사람들에 대한 음향 시그너처들을 저장할 수 있다. 인증 프로세스(500)는 그러면 음향 시그너처들을 디바이스 상에 등록한 다수의 상이한 사용자들 중에서 특정의 사용자를 식별하기 위해 수행될 수 있다. 예를 들어, 태블릿 컴퓨팅 디바이스가 다인 가족(multi-person family) 내의 상이한 가족 멤버들 간에 공유될 수 있다. 사용자가 (예컨대, 음악, 팟캐스트, 비디오 사운드트랙을 청취하기 위해) 이어폰들을 착용하며 디바이스가 사용자에 대한 wa 값들을 식별하고 wa 값들을 가족 멤버들의 상이한 가족 멤버들과 연관된 음향 시그너처들과 비교하는 청각 인증 절차에 기초하여 디바이스는 누가 디바이스와 상호작용하고 있는지를 결정할 수 있다. 비교는, 예컨대, 누구의 음향 시그너처가 도출된 wa 값들과 가장 가깝게 매칭했는지에 기초하여, 가족 멤버들 중 어느 가족 멤버가 디바이스를 현재 사용하고 있는지를 밝혀줄 수 있다. 일부 구현들에서, 콘텐츠가 청각 식별(aural identification)에 기초하여 특정 사용자를 목표로 할 수 있다. 예를 들어, 비디오 스트리밍 애플리케이션은 디바이스 상에 다수의 사람들과 연관된 계정들 또는 프로파일들을 가질 수 있다. 비디오 스트리밍 애플리케이션은 누구의 계정 또는 프로파일을 열지를 자동으로 결정하기 위해 청각 기반 검증을 사용할 수 있다. 일부 구현들에서, 콘텐츠 제안들 또는 추천들이 디바이스 상의 주어진 사용자의 식별에 기초하여 사용자에게 제공될 수 있다. 예를 들어, 디바이스는 상이한 사용자들에 의해 재생된 음악 또는 비디오들의 레코드들을 유지할 수 있고, 레코드들을 사용자들의 각자의 사용자 계정들 또는 각자의 음향 시그너처들과 상관시킬 수 있다. 사람이 검증될 때, 디바이스는 그 사람에 의해 이전에 재생된 미디어의 레코드들에 액세스하고 그 사람에게 재생 또는 제안할 부가의 콘텐츠를 결정할 수 있다. 일부 구현들에서, 청각 기반 인증의 검증 페이즈는 사용자에게 보이지 않게 수행될 수 있다. 예를 들어, 사용자가 헤드셋을 통해 미디어 파일을 청취할 때, 디바이스는, 사용자의 콘텐츠 선호사항들에 관한 정보를 수집하기 위해, 사용자에게 개인화된 콘텐츠 선택 및 추천을 하기 위해, 또는 사용자의 개인 선호사항들에 맞춰 디바이스 상에서의 경험을 다른 방식으로 적합화하기 위해, 미디어 파일을 청취하고 있는 사용자를 식별하기 위해 사용자 검증 프로세스를 연속적으로 또는 특정의 시간들에서 수행할 수 있다.
사용자의 귀에서의 이어피스의 검출
일부 구현들에서, 오디오 프로세싱 디바이스는 이어피스가 사용자의 귀에 위치되는지 또는 사용자의 귀로부터 멀리 떨어져 위치되는지를 검출하도록 동작가능할 수 있다. 귀 내에 꽂아지도록 구성된 이어버드의 경우, 오디오 프로세싱 디바이스는 이어버드가 사용자의 귀에 삽입되었을 때 또는 이어버드가 사용자의 귀로부터 제거된 때를 결정할 수 있다. (예컨대, 헤드폰 디바이스로부터의) 이어폰의 경우, 오디오 프로세싱 디바이스는 이어폰이 사용자의 귀 상에 배치되었거나 사용자의 귀로부터 벗어났을 때를 결정할 수 있다. 이하의 단락들에 기술되는 바와 같이, 사용자의 귀에서의 이어피스의 존재(presence) 또는 부존재(absence)의 검출, 또는 사용자의 귀에 상대적인 이어피스의 위치의 변화의 검출은 특정된 액션들이 오디오 프로세싱 디바이스 또는 오디오 프로세싱 디바이스와 통신하는 다른 컴퓨팅 디바이스 또는 시스템에 의해 수행되도록 트리거링할 수 있다. 예를 들어, 사용자가 자신의 오디오 프로세싱 디바이스를 통해 음악 또는 다른 오디오 소스 신호(s)를 청취하고 있고 사용자가 자신의 주의를 다른 활동으로 돌리기 위해 이어피스를 자신의 귀로부터 고의로 제거하는 경우, 오디오 프로세싱 디바이스는 이어피스가 귀로부터 제거된 것을 검출하고 자동으로 디바이스 상의 미디어 플레이어 애플리케이션으로 하여금 음악을 일시중지시키게 할 수 있다. 나중에, 사용자가 또다시 음악을 청취하기 시작할 준비가 될 때, 사용자는 디바이스로 하여금 트랙이 이전에 일시중지되었던 음악 트랙 내의 동일한 위치로부터 음악의 재생을 자동으로 재개하게 하기 위해 단순히 이어피스를 귀에 배치할 수 있다.
도 7을 참조하면, 묘사된 플로차트는 사용자의 귀에 대한 이어피스의 현재 위치를 그리고 특히 이어피스가 사용자의 귀에 또는 사용자의 귀로부터 멀리 떨어져 위치되는지를 결정하기 위한 예시적인 프로세스(700)를 도시하고 있다. 이 프로세스는 이어피스 근처에서의 임의의 물체의 존재를 단지 결정하는 것과 구별하여, 이어피스가 사용자의 귀에 위치되는지를 구체적으로 결정할 수 있다. 일부 구현들에서, 프로세스(700)는, 오디오 프로세싱 디바이스(202)(도 2a)와 같은, 본 명세서에 기술된 디바이스들 및 시스템들에 의해 수행될 수 있다.
스테이지(702)에서, 오디오 프로세싱 디바이스는 이어피스를 통해 소스 오디오 신호(s)를 재생한다. 오디오 프로세싱 디바이스는, 예를 들어, 이어피스로 하여금 오디오 신호(s)에 대한 음파들을 생성하게 하기 위해 이어피스 내의 전기음향 트랜스듀서의 다이어프램을 구동시킬 수 있다. 다양한 타입의 오디오 콘텐츠가 소스 오디오 신호(s)에 의해 표현될 수 있다. 일부 구현들에서, 소스 오디오 신호(s)는 사용자가 주어진 시간에 청취하기 위해 선택한 친숙한 노래, 팟캐스트, 또는 다른 오디오 트랙일 수 있다. 일부 구현들에서, 소스 오디오 신호(s)는 이어피스가 사용자의 귀에 위치된 경우 사용자에게 들리게 될 백색 잡음일 수 있다. 일부 구현들에서, 소스 오디오 신호(s)는, 이어피스가 사용자의 귀에 위치되더라도, 오디오 소스 신호(s)를 사용자가 들을 수 없도록 인간 청력의 정상 범위 밖에(예컨대, 20 킬로헤르츠 초과) 있을 수 있다. 예를 들어, 원하지 않는 사운드들로 사용자를 방해하지 않으면서 또는 사용자가 고요함 또는 최소한의 잡음을 선호하는 다른 환경들에서 이어피스 검출 절차의 수행을 가능하게 하기 위해, 비가청 소스 신호(s)가 유익할 수 있다. 일부 구현들에서, 오디오 프로세싱 디바이스는 사용자가 귀내 검출을 위해 재생할 오디오 신호(s)의 타입(예컨대, 백색 잡음, 비가청, 또는 사전 레코딩된 가청 사운드 신호)을 선택할 수 있게 해주는 물리 또는 가상 인터페이스를 (예컨대, 오디오 프로세싱 디바이스의 전자 디스플레이 상에 제시되는 그래픽 사용자 인터페이스를 통해) 제공할 수 있다. 오디오 신호는 비교적 짧은 시간 기간 동안, 예컨대, 0.05 내지 3초 동안, 또는 연속적으로 재생될 수 있다.
스테이지(704)에서, 오디오 프로세싱 디바이스는 오디오 소스 신호(s)가 재생되는 동안 이어피스가 위치되는 공간에 생기는 사운드의 청각 오디오 신호(r)를 레코딩한다. 일부 구현들에서, 청각 신호(r)는 오디오 소스 신호(s)를 출력하는 동일한 이어피스 트랜스듀서에 의해 감지된 정보에 기초하여 오디오 프로세싱 디바이스에 의해 레코딩될 수 있다. 오디오 프로세싱 디바이스는 동시에 오디오 소스 신호(s)를 재생하고 청각 오디오 신호(r)를 레코딩할 수 있거나, 재생 및 레코딩이, 예컨대, 시분할 듀플렉스 스킴으로 서로 교대로 수행될 수 있다. 일부 구현들에서, 이어피스는 제1 트랜스듀서와 별개인 제2 트랜스듀서를 포함할 수 있으며, 여기서 제2 트랜스듀서는 전용 마이크로폰으로서 역할하고 제1 트랜스듀서는 전용 스피커이다.
스테이지(706)에서, 오디오 프로세싱 디바이스는 디바이스가 오디오 소스 신호(s)를 재생하고 청각 신호(r)를 레코딩하는 시간 기간 동안 이어피스의 현재 위치와 연관된 음향 에코(wa)에 대한 값들을 결정한다. 이 스테이지(706)에서 결정된 음향 에코(wa)는 이어피스가 현재 위치되는 공간의 특성들을 나타낸다. 이어피스가 현재 사용자의 귀에 위치되거나 사용자의 귀로부터 멀리 떨어져 위치되는지에 따라, wa의 값들이 크게 변할 수 있고, 그로써 wa 값들로부터 이어피스의 위치의 결정을 가능하게 해준다. 일부 구현들에서, 오디오 프로세싱 디바이스는, 이전에 기술된 바와 같이, 도 6에 기재된 프로세스(600)에 따라 wa의 값들을 결정한다.
스테이지(708)에서, 오디오 프로세싱 디바이스는 사용자의 귀에 위치된 것으로 이전에 결정된 이어피스들과 연관된 음향 에코(wa-stored)에 대한 사전 저장된 값들에 액세스한다. wa-stored의 값들은 따라서 이어피스가 사용자의 귀에 위치되는 경우 예상될 값들을 나타낸다. wa-stored의 값들은 이어피스가 (i) 디바이스가 스테이지(706)에서 wa를 결정한 동일한 사용자의 귀, (ii) 다른 사용자들(예컨대, 귀내 검출 서비스의 제공자와 연관된 사용자들 또는 검사자들(testers))의 귀들, 또는 (iii) 스테이지(706)로부터의 동일한 사용자 및 다른 사용자들 둘 다의 귀들에 위치된 것으로 결정된 이전의 경우들로부터의 음향 에코의 분석에 기초하여 결정될 수 있다. 일부 구현들에서, wa-stored의 값들은 서버 시스템으로부터 오디오 프로세싱 디바이스로 푸시된 업데이트된 값들에 기초하여 또는 이어피스의 위치의 이전의 결정들이 정확했는지를 나타내는 오디오 프로세싱 디바이스의 사용자로부터의 피드백에 기초하여 자동으로 업데이트될 수 있다.
일부 구현들에서, 오디오 프로세싱 디바이스는 사용자가 착용한 특정의 이어피스에 기초하여 또는 이어피스의 예측된 위치에 기초하여 wa-stored에 대한 상이한 값들에 액세스할 수 있다. 음향 에코 파라미터(wa)의 값들이 이어피스 설계의 차이들 및 이어피스가 위치되는 공간의 음향 속성들에 영향을 미치는 사용자의 귀에서의 이어피스의 위치의 차이들에 민감할 수 있기 때문에, 오디오 프로세싱 디바이스는 프로세스(700) 동안 사용자의 이어피스의 조건들과 가장 가깝게 매칭하는 wa-stored에 대한 사전 저장된 값들을 식별할 수 있다. 예를 들어, 디바이스는 디바이스에 연결된 이어셋이 아이폰(IPHONE) 이어버드들이라고 인식할 수 있고, 이 타입의 이어버드들과 적절히 상관되는 wa-stored에 대한 값들을 선택할 수 있다. 일부 구현들에서, 디바이스는 사용자가 과거에 이어피스를 자신의 귀에 배치한 빈도수들에 관한 정보를 저장할 수 있고, 사용자가 이어피스를 자신의 귀에서 가장 빈번히 배치한 하나 이상의 위치에 대응하는 wa-stored에 대한 값들에 먼저 액세스할 수 있다. wa-stored의 값들은 단지 비-귀 물체들(non-ear objects) 근방에 또는 비-귀 물체들 내부에 배치된 이어피스들로부터 결정된 음향 에코들과 상이할 수 있다. 환언하면, wa-stored의 값들은 하나 이상의 사용자 귀에 특정적일 수 있다. 일부 구현들에서, 오디오 프로세싱 디바이스가 이어피스가 임의의 물체 근방에 있는지를 결정할 수 있도록, wa-stored의 값들은 임의의 물체들(귀 물체들(ear objects)이든 그렇지 않든 관계없음) 근방에 배치된 이어피스들로부터 결정된 음향 에코들을 반영할 수 있다.
스테이지(710)에서, 오디오 프로세싱 디바이스는 (스테이지(706)에서 도출된) wa의 값들을 (스테이지(708)에서 도출된) wa-stored의 값들과 비교한다. 일부 구현들에서, 디바이스는 wa의 값들이 wa-stored의 값들과 얼마나 가깝게 매칭하는지를 나타내는 유사도 점수(similarity score)를 결정한다. 일반적으로, 값들 사이의 보다 가까운 매치는 이어피스의 현재 위치가 사용자의 귀에 있을 보다 큰 가능성을 나타낸다. 스테이지(712)에서, 오디오 프로세싱 디바이스는 임계 점수와 비교하여 유사도 점수를 평가할 수 있다. 유사도 점수가 임계값을 충족시키는(예컨대, 임계 점수보다 크거나 같은) 경우, 프로세스(700)는 스테이지(714)로 진행하고, 디바이스는 이어피스가 사용자의 귀에 있다는 표시를 출력한다. 유사도 점수가 임계값을 충족시키지 않는 경우, 프로세스(700)는 스테이지(718)로 진행하고 디바이스는 이어피스가 사용자의 귀에 위치되어 있지 않다는 표시를 출력한다. 일부 구현들에서, 오디오 프로세싱 디바이스는, 이어피스가 임의의 물체(반드시 귀일 필요는 없음) 근방에 있는지를 결정하기 위해, wa에 대한 하나 이상의 값을 wa-stored의 저장된 값들 또는 미리 결정된 함수들, 임계값들, 파라미터들, 또는 허용오차들(tolerances)과 비교한다. 이어피스가 물체 근방에 있다고 또는 물체 근방에 있지 않다고 결정하는 것에 응답하여, 오디오 프로세싱 디바이스는 이어피스가 물체 근방에 있다는 또는 물체 근방에 있지 않다는 표시를 출력하여 대응하는 액션을 트리거링하도록 한다.
일부 구현들에서, 이어피스가 사용자의 귀에 위치되는 것으로 결정되는지에 기초하여 오디오 프로세싱 디바이스 상에서 또는 다른 디바이스 상에서 상이한 액션들이 수행될 수 있다. 예를 들어, 이어피스가 사용자의 귀에 위치된다는 것을 식별한 것에 기초하여 제1 액션이 수행될 수 있고(스테이지(716)); 대안적으로, 이어피스가 사용자의 귀에 위치되지 않는다는 것을 식별한 것에 기초하여 제2 액션이 수행될 수 있다(스테이지(720)). 일부 구현들에서, 오디오 프로세싱 디바이스는 이어피스의 위치를 연속적으로 모니터링할 수 있으며, 이어피스가 사용자의 귀 쪽으로 이동되었다는 것을 식별한 것 또는 이어피스가 사용자의 귀로부터 멀어지는 쪽으로 이동되었다는 것을 식별한 것에 기초하여 액션이 트리거링될 수 있다.
사용자의 귀와 관련하여 이어피스의 위치를 결정한 것에 응답하여 오디오 프로세싱 디바이스 또는 다른 컴퓨팅 디바이스 상에서 수행될 수 있는 상이한 유형의 액션들은 미디어 파일을 재생하는 것, 미디어 파일을 일시중지시키는 것, 미디어 파일을 정지시키는 것, 일시중지된 미디어 파일의 재생을 재개하는 것, 전자 디스플레이를 활성화시키는 것, 전자 디스플레이의 백라이트의 밝기 설정을 조정하는 것, 디바이스를 잠금 모드로 전환하는 것, 디바이스를 잠금 모드로부터 전환하는 것, 전화 통화를 개시하는 것, 전화 통화를 종료하는 것, 애플리케이션을 론칭하는 것, 또는 애플리케이션을 닫는 것을 포함한다. 예를 들어, 사용자의 이어피스가 사용자의 귀로부터 빠져나오는 경우 미디어 플레이어는 노래를 일시중지시킬 수 있고; 사용자의 이어피스가 사용자의 귀에서 더 이상 검출되지 않는 경우, 전화 애플리케이션은 통화를 종료하거나, 디바이스의 스피커폰 또는 다른 내부 스피커로 스위칭하거나, 또는 통화 중인 당사자들에 대한 경고를 생성할 수 있고; 또는 이어피스가 사용자의 귀에 있는 위치로 이동되었다고 결정한 것에 응답하여 미디어 애플리케이션은 노래 또는 다른 미디어 파일을 재생하기 시작할 수 있다. 일부 구현들에서, 예를 들어, 사용자가 이어피스를 다시 자신의 귀들에 삽입했다고 디바이스가 검출할 때, 디바이스는, 전화 통화 동안 스피커폰으로부터 이어피스로 다시 스위칭하는 것과 같이, 이어피스가 제거되기 전에 존재했던 모드로 복귀할 수 있다.
사전 레코딩된 사운드들을 사용한 능동 잡음 제어
일부 구현들에서, 오디오 프로세싱 디바이스는 사전 레코딩된 사운드들을 사용하여 능동 잡음 제거를 수행할 수 있다. 일반적으로, 이 기법들은 디바이스가 사전 레코딩된 오디오 신호의 저장된 인스턴스에 액세스하고 사전 레코딩된 오디오 신호의 저장된 인스턴스를 사용하여 사용자의 환경에서 동일한 사전 레코딩된 오디오의 다른 인스턴스의 재생에 의해 야기된 간섭 또는 잡음을 제거할 수 있게 해준다. 예를 들어, 사용자는 자신의 개인 재생목록 상의 노래들을 청취하기 위해 체육관에서 운동하는 동안 이어폰들을 착용할 수 있다. 그렇지만, 체육관은 라우드스피커를 통해 음악을 재생할(또는 심지어 쾅쾅 울릴(blast)) 수 있으며, 체육관의 라우드스피커 음악의 존재는 사용자가 자신의 선호 오디오 콘텐츠를 듣는 것을 어렵게 만들 수 있다. 그에 따라, 사용자의 오디오 디바이스와 연관된 마이크로폰(예컨대, 재생된 오디오 신호를 출력하는 트랜스듀서와 동일한 전기음향 트랜스듀서인 마이크로폰, 사용자의 헤드셋 상의 별개의 마이크로폰, 오디오 디바이스의 외부에 있고 사용자의 헤드셋과 별개인 마이크로폰, 사용자의 헤드셋에 내장된 마이크로폰, 또는 이 마이크로폰들 중 2개 이상)은 체육관의 라우드스피커를 통한 음악 재생을 포함하는, 사용자 주위의 환경 잡음을 식별해주는 오디오 신호를 레코딩할 수 있다. 디바이스는 체육관의 라우드스피커를 통한 특정의 음악 재생(예컨대, 레이디 가가(Lady Gaga) 노래, 롤링 스톤즈(Rolling Stones) 노래 또는 프린스(Prince) 노래)을 식별하기 위해 그 레코딩된 오디오 신호를 프로세싱할 수 있고, 이어서 동일한 음악의 사본에 액세스하고 라우드스피커를 통해 재생되는 노래로 인해 사용자의 환경에 생기는 잡음을 어떻게 제거할지를 실시간으로 예측하기 위해 그 사본을 사용할 수 있다.
능동 잡음 제거를 위해 사전 레코딩된 사운드들을 사용하는 것의 하나의 주목할 만한 이점은 수정된 잡음 제거된 오디오 신호를 생성하는 데 있어서의 레이턴시가 다른 능동 잡음 제거 접근법들과 비교하여 실질적으로 감소될 수 있다는 것이다. 이러한 이유는 사전 레코딩된 오디오 신호의 저장된 인스턴스가 환경 사운드가 심지어 발생되기도 전에 오디오 프로세싱 디바이스가 환경 사운드를 예측하는 데 사용할 수 있는 맵으로서 효과적으로 역할할 수 있기 때문이다.
예시적인 사전 레코딩된 사운드들을 이용한 잡음 제거를 위한 예시적인 프로세스(800)가 도 8의 플로차트에 나타내어져 있다. 스테이지(802)에서, 오디오 프로세싱 디바이스는 사용자의 귀에 위치된 이어피스 트랜스듀서를 통해 소스 오디오 신호(s)를 재생한다. 예를 들어, 사용자가 팟캐스트를 청취하고 있을 수 있지만, 사용자가 레스토랑, 커피 숍, 또는 대중 교통과 같은 시끄러운 환경에 위치될 수 있다. 스테이지(804)에서, 디바이스는 디바이스에 연결된 마이크로폰에 의해 감지된 오디오 신호를 포착한다(예컨대, 여기서 마이크로폰은 소스 오디오 신호(s)를 재생한 바로 그 트랜스듀서일 수 있다). 레코딩된 오디오 신호는 환경 잡음(즉, 사용자 주위의 외부 또는 주변 잡음)을 포함한다. 스테이지(806)에서, 디바이스는 포착된 환경 잡음에 출현하는 사전 레코딩된 오디오 신호(p)를 식별한다. 예로서, 사전 레코딩된 오디오 신호는 상점 또는 레스토랑에서의 배경 잡음인 라디오 상에서 재생되는 특정의 노래일 수 있다. 디바이스는 사전 레코딩된 오디오 신호들의 데이터베이스에 액세스하고 마이크로폰으로부터 레코딩된 오디오 신호(p)의 샘플을 데이터베이스에 저장된 오디오 신호들의 부분들과 비교함으로써 특정의 노래를 식별할 수 있다. 스테이지(808)에서, 디바이스는 사전 레코딩된 오디오 신호(p')의 저장된 인스턴스에 액세스한다. 디바이스는 이어서 사전 레코딩된 오디오 신호(p')의 저장된 인스턴스를, 노래가 배경에서 계속하여 재생될 때 실시간으로 출현할 수 있는, 외부 잡음에 출현하는 오디오 신호(p)와 동기화시킨다. 스테이지(512)에서, 디바이스는 사전 레코딩된 오디오 신호(p')를 사용하여 오디오 소스 신호(s)로부터 사전 레코딩된 오디오 신호(p)를 제거한다. 예를 들어, 사전 레코딩된 오디오 신호(p')가 배경 오디오 신호(p)에 의해 오디오 신호(s)에 부여된 왜곡을 상쇄(cancel)하도록, 사전 레코딩된 오디오 신호(p')(또는 사전 레코딩된 오디오 신호(p')로부터 도출되는 프로세싱된 신호)가 배경 오디오 신호(p)와 동기화되는 방식으로 차감될 수 있다. 능동 잡음 제거를 수행하기 위한 부가의 기법들은 WIPO 공보 WO2014/178054에 논의되어 있으며, 이 WIPO 공보는 이로써 그 전체가 참고로 포함된다.
일부 구현들에서, 사전 레코딩된 오디오 신호를 이용한 능동 잡음 제거는, 잡음을 재생 및 포착하기 위해 이어피스 내의 공통 트랜스듀서를 사용하여, 다음과 같이 수행될 수 있다. 사전 레코딩된 오디오 신호는 p로서 표현된다. 마이크로폰(예컨대, 이어피스 내의 공통 트랜스듀서)으로부터 레코딩된 신호는 a로서 표현된다. 이 시나리오에서 사용되는 다른 파라미터는 p와 a 사이의 관계를 기술하는 wroom, 즉 룸 임펄스 응답(room impulse response)이다. 상세하게는, a는 wroom과 p의 컨볼루션이다. 이 예가, 라우드스피커가 오디오 콘텐츠를 출력하는 종종 적어도 부분적으로 폐쇄된 환경인, 사용자의 환경을 지칭하기 위해 "룸(room)" 및 "룸 임펄스 응답"을 언급한다는 것에 유의한다.
wroom 파라미터의 값들은 사용자가 룸 여기저기로 움직일 때 변할 수 있고 사용자가 위치되는 룸 자체의 특성들에 따라 변할 수 있다. 일반적으로, wroom은 사용자가 위치되어 있는 주어진 룸의 구성, 룸에서의 사용자의 위치, 룸에서의 라우드스피커의 위치, 및 사용자(즉, 사용자의 마이크로폰)와 라우드스피커의 상대 위치들에 민감하다. 사용자의 위치 및 룸 내의 조건들이 변하지 않는 경우, wroom의 값들이 일반적으로 정적인 채로 있을 수 있지만, 다른 한편으로, 사용자의 위치 또는 룸의 다른 조건들이 변하는 경우, wroom의 값들이 그에 따라 변할 수 있다. 일반적으로, 매우 작은 시간 구간들(예컨대, 0.01초, 0.1초)에 대해, wroom이 구간마다 크게 변하지 않을 것이다. 오디오 프로세싱 디바이스가 갖는 경우,
사용자가 소스 오디오 신호(s)를 청취할 때 그리고 하나 이상의 마이크로폰(예컨대, 사용자의 귀에 꽂아진 이어피스의 전기음향 트랜스듀서)이 오디오 신호(a)를 감지할 때, 사용자의 오디오 프로세싱 디바이스는 연속적으로 그리고 반복적으로 wroom을 재교정(re-calibrate)한다. 디바이스가 wroom을 결정하고, 디바이스가 환경 잡음으로부터 사전 레코딩된 오디오 신호(p)를 식별하면, 디바이스는 다음 시간 구간(예컨대, wroom이 이전 시간 간격으로부터 비교적 일정한 채로 있는 동안인, 0.1초)에 대해 p와 w_room의 컨볼루션으로서 a를 예측할 수 있다. 일부 구현들에서, 오디오 프로세싱 디바이스는 wroom을 재산출하고 보다 적은 레이턴시를 위해 훨씬 더 높은 주파수들로, 예컨대, 매 0.1 내지 3 밀리초마다 잡음 제거를 위한 간격들을 예측할 수 있다. 디바이스가 a를 결정하면, 디바이스는 배경 잡음을 상쇄시키기 위해, 헤드폰들로부터 재생될 때 -a를 출력하는 신호(s)를 구하는 것과 같이, 신호를 "반전(inverse)"시키는 알고리즘들을 수행할 수 있다.
온도 측정
이 문서에 기술된 기법들을 사용하여, 디바이스는 트랜스듀서, 예를 들어, 오디오를 재생하기 위해 이어피스에 위치된 트랜스듀서를 사용하여 온도를 측정할 수 있다. 측정된 온도는 이어피스의 온도일 수 있지만, 본 명세서에 기술된 다양한 메커니즘들을 사용하여, 사용자의 귀의 온도 또는 이어피스가 위치된 환경의 온도가 추론될 수 있다. 전용 온도계보다는 이어피스를 사용하여 온도 측정을 수행하는 것에 대한 다양한 이점들이 있다. 주요 이점은 이미 시장에 나와 있는 이어피스들이, 일부 구현들에서 이어피스들에 대한 어떠한 수정도 요구됨이 없이, 온도 감지 디바이스들로 변환될 수 있다는 것이다. 이에 따라, 이어피스들이 연결될 수 있는 전화기들 및 다른 디바이스들이 전용 온도 센서를 추가함이 없이 사용자 또는 환경의 온도를 감지하도록 프로그래밍될 수 있다. 더욱이, 온도 특정 센서(예컨대, 서미스터(thermistor))를 포함하도록 이어피스 또는 모바일 디바이스를 설계했더라도, 사용자, 전화기, 또는 이어피스에 의해 생성된 열이 그 온도 특정 센서의 온도에 영향을 미칠 수 있기 때문에 본 명세서에 기술된 기법들이 유용하다.
모바일 디바이스가 이어피스를 이용해 온도를 측정할 수 있게 해주는 것은 많은 유익한 용도들에 기여한다. 예를 들어, 피트니스 트래커들(fitness trackers)과 같은 건강 애플리케이션들은 정기적으로 사용자의 온도를 레코딩하고 시간에 따라 이를 플로팅(plot)할 수 있다. 이에 따라, 사용자 또는 컴퓨팅 시스템은 사용자가 병에 걸릴 수 있는지 또는 사용자의 생리가 변하고 있을 수 있는지를 결정하기 위해 최근의 사용자 온도들을 과거의 사용자 온도들과 비교할 수 있고, 그러한 변화들을 사용자에게 통지할 수 있다. 예를 들어, 운동선수가 소모한 칼로리를 보다 잘 추정하기 위해, 운동 중에 있을 수 있는 고열(hyperthermia)을 운동선수에게 경고하기 위해, 여성 배란 일을 예측하기 위해 통계들이 기록될 수 있다. 그러한 메커니즘들은 또한 (예컨대, 달리기 시간 대 실외 온도를 차트화하는 것에 의해) 환경 온도를 운동 수행의 함수로서 추적할 수 있다.
적어도 2개의 예시적인 메커니즘이 트랜스듀서를 사용하여 온도들을 측정할 수 있다. 제1 예시적인 메커니즘은, 이어폰 온도가 이어폰의 전기적 속성들에 미치는 영향에 기초하여, 이어폰(예컨대, 트랜스듀서 코일) 자체의 온도를 추정하는 것이다. 이 메커니즘은 다양한 시점들에서의 T를 결정하기 위해 이 문서에서 이전에 기술된 수학식 1을 사용한다. 그러한 메커니즘은 대부분 또는 모든 이어폰에 대해, 시스템이 그 타입의 이어폰에 대한 교정 정보를 가지고 있는 한, 작동할 수 있다. 그럼에도, 이어폰이 자신의 환경의 온도로 가열되거나 냉각되는 데 시간이 좀 걸릴 수 있으며, 따라서 본 명세서에 기술된 메커니즘들은 장래의 이어폰 온도를 추정하기 위해 이어폰의 온도 변화를 분석할 수 있다. 현재의 환경 및/또는 사용자 온도를 추론하기 위해 장래의 이어폰 온도가 교정 데이터와 비교될 수 있다. 제2 예시적인 메커니즘은 사용자의 외이도 내의 공기의 속성들을 결정하기 위해 레코딩된 사운드를 분석하는 것이다. 온도와 같은 공기의 속성들이 그 공기를 통한 사운드의 재생에 영향을 미칠 수 있기 때문에, 레코딩된 사운드를 분석하는 것에 의해 온도가 추론될 수 있다. 본 개시내용은 다음에 이 온도 결정 메커니즘 각각에 대해 기술할 것이다.
제1 메커니즘: 이어피스 온도 측정
제1 메커니즘에서, 이전에 기술된 바와 같이, 시스템은 오디오(가청 또는 비가청)를 동시에 재생 및 레코딩하고 이어폰(예컨대, 그의 코일)의 온도 변화들로 인한 이어폰의 전기적 속성들의 변화들을 검출하는 것에 의해 온도를 측정한다. 이 상황은 저항이 온도에 상관되는(temperature-correlated) 저항기를 포함하는 전기 회로의 상황과 유사하고, 여기서 회로의 한 부분은 고정 출력 전압(예컨대, 사운드 카드 출력)에 연결되고 회로의 다른 부분은 전압계(예컨대, 사운드 카드 입력)에 연결된다. 이 구성으로, 회로의 현재의 임펄스 응답을 결정할 수 있다. 저항의 현재 온도를 결정하기 위해 현재의 임펄스 응답이 이전에 저장된 온도 의존적 임펄스 응답들과 비교될 수 있다. 이 프로세스는 프로세스(900)(도 9a 내지 도 9d를 참조)와 관련하여 예시된 프로세스의 특정 부분들과 관련하여 상세히 기술된다.
박스(902)에서, 컴퓨팅 시스템은, 재생된 오디오 샘플들(s) 및 재생된 오디오 신호에 영향을 미치는, w0 및 wΔ와 같은, 이어피스의 기지의 변환 특성들이 주어지면, 다수의 오디오 샘플들(r)을 레코딩하고 온도가 r에 어떻게 영향을 미쳤는지를 결정함으로써 T를 결정한다. 그렇게 하는 것은 수학식 1의 사용을 수반한다.
박스(904)에서, 박스(902)의 동작들은 프로세스(600)(도 6을 참조)의 적어도 일부분을 사용함으로써 수행될 수 있다. 상세하게는, 컴퓨팅 시스템은 T를 결정하기 위해 프로세스(600)의 단계들(602 내지 624)을 수행할 수 있다.
박스(906)에서, 컴퓨팅 시스템은, T에 대해 풀지만 고주파 잡음을 출력 오디오 신호(s)에 추가함으로써, 프로세스(600)의 변형을 수행한다. 이 고주파 신호를 s에 추가하는 것이 도움이 될 수 있는데 그 이유는 s가 그렇지 않았으면 특정 시간들에서 오디오를 포함하지 않을 수 있기 때문이고 그리고 온도 측정이 고주파 신호들에 대해 보다 효과적일 수 있기 때문이다. 이러한 방식으로 s를 수정하는 것은 박스들(908 내지 914)과 관련하여 이하에서 기술되는, 프로세스(600)에 대한 일부 변형들을 이용해 프로세스(600)를 수행하는 것을 수반할 수 있다.
박스(908)에서, 컴퓨팅 시스템은 s = s0 + shighfreqs를 설정할 수 있다. 예시적인 고주파 신호는 20,000 Hz 사인파일 수 있다.
박스(910)에서, 컴퓨팅 시스템은 rdiff = r - s*w0을 산출하는 것에 의해 그러나, 앞서 기술된 바와 같이, 고주파 값을 포함하도록 수정된 s 값을 이용해 박스(610)의 동작을 수행할 수 있다.
박스(912)에서, 컴퓨팅 시스템은,
Figure pct00012
를 산출하는 것에 의해, 박스(612)의 동작들을 수행할 수 있다. 이 예에서, 이 동작은 s 대신에 shighfreqs로 치환하는데, 그 이유는 shighfreqs가 온도를 산출하는 데 적합할 수 있기 때문이다(그렇지만 s = s0 + shighfreqs가, wa의 결정과 같은, 다른 산출들을 위해 사용될 수 있다). shighfreqs는 가청이 아닐 수 있으며, 따라서 wa에 크게 영향을 미치지 않을 수 있지만, 여전히 일부 예들에서, shighfreqs가 wa의 결정을 위해 s에 추가되지 않는다.
박스(914)에서, 컴퓨팅 시스템은 rdiff와 T와 r의 컨볼루션 간의 차이를 최소화하는 온도 T(즉, T = argminT(rdiff - T*rΔ))를 결정하는 것에 의해 박스(614)의 동작을 수행할 수 있다. 그렇지만, rdiff 및 rΔ의 값들은 shighfreqs의 추가에 의해 영향을 받았을 수 있다.
박스(916)에서, 컴퓨팅 시스템은 결정된 시간 기간에 걸친 T에 대한 다수의 값들을 결합시킬 수 있다. 예를 들어, 시스템은 0.03, 0.05, 0.1, 0.2, 또는 0.5초 길이인 시간 기간에 걸친 결정된 온도 측정들을 연접시킬 수 있다. 예시적인 타입의 결합은 평균 및 선형 회귀를 포함한다.
박스(920)에서, 컴퓨팅 시스템은 박스(916)에서 결정된 비례 온도(proportional temperature)(T)를 사용하여 절대 온도를 결정한다. 이러한 결정이 수행될 수 있는 이유는 값 T가 절대 온도를 제공하지 않을 수 있고 단지 온도에 기초하여 변하고 오프셋 및 스케일링 상수를 제공함으로써 절대 온도(예컨대, 섭씨)로 변환될 수 있는 전압 값일 수 있기 때문이다. 다수의 온도 값들이 여기에 기술되어 있기 때문에, 박스(916)에서 식별된 절대 온도는 TC로 표기될 것이고, 상대 온도는 Tb로 표기될 것이다. 이 값들을 오프셋을 식별하기 위한
Figure pct00013
및 스케일링을 나타내기 위한
Figure pct00014
와 함께 방정식으로 결합시키는 것은
Figure pct00015
를 제공한다.
박스(922)에서, 컴퓨팅 시스템(또는 다른 시스템)은
Figure pct00016
Figure pct00017
에 대한 값들을 교정한다. 이 교정은 사전에(예컨대, 임의의 온도 측정들이 취해지기 전에) 수행될 수 있다. 예를 들어, 교정은 사용자가 특정의 이어피스를 처음으로 사용할 때 수행될 수 있거나, 이어피스의 제조업체에 의해 또는 다른 서드파티 기관에 의해 수행될 수 있다. 이 나중의 예들에서, 교정 값들은 모바일 디바이스에 또는 헤드폰들에 적재(ship)될 수 있거나, 인터넷 데이터베이스를 통해 액세스가능할 수 있다. 박스들(924 내지 934)과 관련하여 이하에서 기술되는, 이 교정 값들을 결정하기 위한 적어도 6개의 메커니즘이 있다.
박스(924)에서, 제1 메커니즘에서, 사용자는 결정된 시간량(예컨대, 5분 또는 10분) 동안 이어피스를 착용하고, 그 시간 기간 이후의 이어피스 온도가 전형적인 사용자 신체 온도인 것으로 가정된다. 예를 들어, 이어피스 온도가 인간의 평균 신체 온도(예컨대, 36.7도)인 것으로 가정되거나 추정될 수 있다. 사용자 온도의 측정이 없을 수 있다. 오히려, 이어피스가 평균 인간 온도라는 가정만이 있을 수 있다. 일부 예들에서, 온도는 평균 룸 온도의 룸에 있는 평균 신체 온도를 갖는 사용자의 귀에 배치될 때 이어피스의 전형적인 온도인 것으로 추정된다.
박스(926)에서, 제2 메커니즘에서, 사용자는 결정된 시간 기간 동안 이어피스를 착용하고, 시스템은 사용자의 온도 또는 이어피스의 평균 온도 및 주변 온도일 수 있는 온도 TC를 입력하도록 사용자에게 요구한다.
박스(928)에서, 제3 메커니즘에서, 이어피스가 룸에 배치되고, 결정된 시간량 후에, 사용자는 룸의 온도를 입력하도록 요구받는다.
박스(930)에서, 제4 메커니즘에서, 이어피스의 온도가 하루의 상이한 시간들에서 그리고/또는 상이한 날들에 여러 번 측정된다. 그러한 예에서의 평균 또는 메디안 온도 측정은 Tb로서 표기될 수 있는 반면, 모바일 디바이스 및 이어피스의 위치들에서 날씨 이력 데이터에 따른 그러한 시간들에서의 평균 또는 메디안 온도는 Tc로서 표기될 수 있다.
박스(932)에서, 제5 메커니즘에서, 이어피스가 룸 또는 다른 환경에 배치될 수 있고, 시스템은 이어피스가 배치되어 있는 환경의 절대 온도(Tc)를 결정하는 외부 센서에 연결될 수 있는 반면, 이어피스는 환경의 상대 온도(Tb)를 결정하는 데 사용된다.
박스(934)에서, 제6 메커니즘에서, 제2 이어피스가 이미 교정된 제1 이어피스에 기초하여 교정될 수 있다. 첫번째로, 제1 이어피스가 앞서 기술된 메커니즘들 중 임의의 것을 사용하여 교정될 수 있다. 두번째로, 시스템이 이어서 (예컨대, wΔ와 계수를 곱하고 이를 새로운 wΔ로서 설정하는 것에 의해) wΔ = wΔ (알파)를 설정할 수 있다. 세번째로, wΔ의 어떤 특징이 계산되고 C(예컨대, 2 놈(norm), C = || wΔ || 또는 wΔ의 주파수 응답에 대한 어떤 가중치(weighting), 또는 2개의 주파수에서의 이어폰의 응답 사이의 어떤 비율)로서 표기될 수 있다. 네번째로, 사용자는 제2 이어피스를 디바이스에 연결시킬 수 있고 디바이스는 wΔ의 동일한 특징을 계산하고 그 특징을 D로서 표기할 수 있다. 다섯번째로, 디바이스는 C, D, 및 제1 이어피스의 wΔ가 주어지면 이하의 식을 사용하여 제2 이어피스의 wΔ를 산출할 수 있다: wΔ-second_earpiece = C / D wΔ-first_earpiece. wΔ 대신에 w0을 사용하는 유사한 메커니즘이 또한 적용된다.
온도의 보다 빠른 예측
때로는, 이어피스의 열 전달 계수가 작으며, 이는 이어피스 코일 및 멤브레인이 그의 환경의 온도에 도달하는 데 때때로 시간이 좀 걸린다는 것을 의미한다. 일 예로서, 일부 이어피스들에서, 시상수가 약 100 초이며, 이는 이어폰이 섭씨 30도의 주머니에서 꺼내져 15도 환경에 배치되는 경우, 이어폰이 15도 ± 0.5도를 달성하는 데 5분 초과가 걸릴 수 있다는 것을 의미한다.
박스(940)에서, 컴퓨팅 시스템은 이어피스의 정상 상태(steady-state) 온도를 식별한다. 이것은 이어피스가 특정 시간량 동안 어떤 환경에 있은 후에 레벨 아웃될 수 있는 온도이다. 환언하면, 이어피스는 정상 상태에서 자신의 환경과 동일한 온도를 가질 수 있다.
박스(942)에서, 컴퓨팅 시스템은 이어피스의 온도를 정상 상태 이어피스 온도로서 지정하기 전에 결정된 시간량(예컨대, 상기 예에서 5 분) 동안 기다릴 수 있다. 본질적으로, 컴퓨팅 시스템은 측정된 온도를 정상 상태 온도로서 지정하기 전에 이어피스 온도가 가열되거나 냉각되기를 기다릴 수 있다. 일부 예들에서, 시간량의 이러한 결정은 컴퓨팅 시스템이 온도가 변하는 것을 멈추었을 때를 결정하거나 온도 변화율이 결정된 임계값 아래로 떨어졌다고 결정하는 것을 수반한다.
박스(944)에서, 이어피스 온도가 여전히 변하고 있을 수 있으며 정상 상태에 아직 도달하지 않았더라도, 컴퓨팅 시스템은 장래의(예컨대, 정상 상태에서의) 이어피스의 온도를 추정하기 위해 - 최근의 이어피스 온도 변화들과 함께 - 이어피스에 대한 시간에 따른 교정된 온도 변화의 모델을 사용할 수 있다. 이 모델을 사용하는 것은 이어피스가 가열되거나 냉각되기 위해 수 분을 기다리는 것보다 더 빨리 이어피스 정상 상태를 추정하는 것을 가능하게 해줄 수 있다. 4개의 그러한 모델이, 박스들(946 내지 952)을 참조하여, 이하에서 기술된다. 이어피스가 코일, 플라스틱, 멤브레인, 및 어쩌면 다른 피처들을 갖는 복잡한 몸체를 가질 수 있기 때문에, 뉴턴의 냉각 법칙은 일부 시나리오들에서 이어폰의 온도의 열악한 추정을 제공할 수 있는데, 그 이유는 뉴턴의 냉각 법칙이, 저항 온도 검출기들과 같은, 간단한 재료들에 최상으로 적용될 수 있기 때문이다.
박스(946)에서, 제1 예로서, 뉴턴의 냉각 법칙은 트랜스듀서의 장래의 온도를 결정하는 데, 예를 들어, 뉴턴의 냉각 법칙이 이어폰의 온도의 적절한 추정을 제공할 시나리오들에서 사용될 수 있다.
Figure pct00018
이 방정식에서, e는 시간 t에서의 온도이고, r은 이어피스의 타입에 의존하는 열 전달 계수이며, Tenv는 환경의 온도이다. Tenv를 추정하기 위해 온도 샘플들을 읽는 것을 목표로, 시스템은 r이 교정되어 있지 않을 때 이하의 4개의 단계를 사용하여 온도를 예측할 수 있다: (1) 시간들 t1, t2, ... tn에서 입력들로서 T1, T2,, ... Tn을 사용하는 것; (2) 근사치
Figure pct00019
을 사용하는 것; (3) 방정식
Figure pct00020
을 사용하여 ML
Figure pct00021
을 푸는 것; 및 (4) r = b,
Figure pct00022
로 설정하는 것.
r이 교정되어 있는 경우, 이하의 2개의 단계가 수행될 수 있다: (1) 시간들 t1, t2, ... tn에서 입력들로서 T1, T2,, ... Tn을 사용하는 것; 및 (2) 이하의 MLSQ를 푸는 것:
Figure pct00023
이 두 번째 동작들의 세트는 r이 이미 교정되었기 때문에 첫 번째 동작들의 세트보다 수행하기가 더 빠를 수 있다. 따라서, r이 일단 보정되었으면, 시스템은 r을 재교정함이 없이 두 번째 동작들의 세트를 수행할 수 있다.
박스(948)에서, 제2 예로서, 장래의 어떤 시간에서의 온도를 결정하기 위해 일반 모델(General Model)이 사용될 수 있다.
Figure pct00024
이도록 하는 감소 함수들
Figure pct00025
이 존재한다.
Figure pct00026
Figure pct00027
함수들 F+, F-은 이어폰의 모델 및 재료에 의존한다. 이 방정식들은 선형 최소 제곱(linear least squares) 알고리즘을 사용하여 풀 수 있다.
박스(950)에서, 제3 예로서, 함수 F를 사용하여, 장래의 어떤 시간에서의 온도를 예측하기 위해 일반 선형 모델(General Linear Model)이 사용될 수 있다:
Figure pct00028
이것을 염두에 두고서, 시간들 t1, t2, ... tn에서의 온도 측정들 T1, T2,, ... Tn의 입력 및 교정된 e를 사용하여 온도 예측이 수행될 수 있다. 시스템은 이어서 열거(enumeration), 이진 탐색(binary search), 또는 어떤 다른 방법을 사용하여 이하의 최적화 문제를 풀 수 있다:
Figure pct00029
박스(952)에서, 제4 예로서, 장래의 어떤 시간에서의 온도를 예측하기 위해 지수합(Sum of Exponents) 모델링이 사용될 수 있다.
Figure pct00030
이 예에서, 상수들(ai 및 ri)은 이어폰의 모델에 의존하는 계수들이다. 이 방정식은 선형 최소 제곱 알고리즘을 사용하여 풀 수 있다.
일부 구현들에서, 도면들에 도시된 예는 컴퓨팅 시스템이 상대 온도를 절대 온도로 변환한 후에 정상 상태 온도의 산출을 제시하지만, 시스템은 온도가 상대 온도로부터 절대 온도로 변환되기 전에 정상 상태 온도를 산출할 수 있다. 변환이 그러면 정상 상태 온도의 산출 후에 일어날 수 있다.
신체 온도 측정(제1 접근법)
시스템이 (예컨대, 결정된 시간량 동안 기다리는 것(박스(942)를 참조), 또는 장래의 이어피스 온도를 산출하기 위해 앞서 기술된 온도 모델들을 사용하는 것(박스(944)를 참조) 중 어느 하나에 의해) 이어피스의 온도를 일단 측정하면, 사용자의 고막 온도와 같은, 사용자의 귀/신체 온도가 결정될 수 있다. 이어피스 코일은 사용자의 고막(tympanic membrane)과 이격되어 있을 수 있으며, 따라서 사용자의 귀 온도와 환경 온도의 조합에 기초하는 온도를 가질 수 있다.
본 개시내용은 이어피스의 온도가 알려져 있을 때 사용자 온도 및 심지어 환경 온도를 결정하기 위한 메커니즘들을 기술한다. 사실, 이하의 설명이 스피커 및 마이크로폰 둘 다로서 사용되는 트랜스듀서를 참조하여 설명되지만, 이 프로세스는 또한, 전용 마이크로폰들, 온도계들, 저항 온도 검출기들, 및 서미스터들과 같은, 다른 타입의 온도 감지 디바이스들을 사용하는 신체 및 환경 온도 결정들에 적용될 수 있다. 이러한 이유는 이하의 논의가 때때로 (이 예에서 단지 우연히 트랜스듀서인) 온도 감지 디바이스만을 사용하여 어떻게 사용자 또는 환경 온도를 결정할지를 설명하기 때문이다.
보다 구체적으로는 그리고 방금 언급된 바와 같이, 이어피스(또는 다른 온도 감지 디바이스)의 온도는 주변 온도 및, 외이도 온도와 같은, 사용자의 신체의 온도에 의존한다. 이에 따라, 신체 온도의 결정이 때때로 시간 경과에 따른 다수의 온도 측정들을 획득하는 것을 수반할 수 있다. 그럼에도, 다수의 온도 측정들로부터 구성될 수 있는 온도 곡선이 주어진 주변/환경 온도에 대해 고유할 수 있다. 그에 따라, 온도 곡선의 형상을 사용하여, 시스템은 사용자의 온도 및 주변 온도를 결정할 수 있다. 이 프로세스는, 차례로 논의되는, 4개의 기본적인 단계를 포함한다.
박스(960)에서, 컴퓨팅 시스템은 다수의 주변 온도들에서 온도 곡선의 거동을 교정할 수 있다.
박스(962)에서, 컴퓨팅 시스템은 많은 상이한 주변 온도들에서 귀 온도 대 이어피스 온도를 교정할 수 있다. 예를 들어, 시스템은, 다수의 이어피스 온도들 각각에 대해, 다수의 주변 온도들 그리고 이어피스 및 주변 온도들의 그 특정 세트에 대응하는 사용자 온도들을 저장할 수 있다. 환언하면, 시스템은 세 가지 온도의 많은 세트들을 저장할 수 있거나, 예측 공식들을 사용하여 중간 값들을 보간하기 위해 그러한 정보를 다른 방식으로 사용할 수 있다.
이러한 교정 단계들 모두는 사전에, 예를 들어, 임의의 실시간 온도 측정이 취해지기 전에 수행될 수 있다. 실제로, 교정은 공장에서 이루어져 이어피스 또는 모바일 디바이스에 사전 설치될 수 있거나, 인터넷 데이터베이스를 통해 액세스가능할 수 있다.
박스(964)에서, 컴퓨팅 시스템은 다수의 이어피스 온도 측정들을 기록할 수 있다.
박스(966)에서, 컴퓨팅 시스템은 주변 온도를 결정하기 위해 다수의 이어피스 온도 측정들 및 박스(960)에서 식별된 교정 정보를 사용할 수 있다.
박스(968)에서, 컴퓨팅 시스템은 사용자 온도를 결정하기 위해 다수의 이어피스 온도 측정들 중 하나 이상 및 박스(962)와 관련하여 식별된 교정 정보를 사용할 수 있다. 예를 들어, 시스템은 결정된 이어피스 온도 및 결정된 주변 온도와 매칭하는 사용자 온도를 식별할 수 있다.
일련의 온도 측정들 및 교정된 값들이 주어지면 주변 및 사용자 온도들을 산출하는 데 사용될 수 있는 적어도 2개의 모델이 있다.
첫 번째 그러한 모델은 일반 모델이다.
Figure pct00031
Figure pct00032
인 경우
Figure pct00033
이도록 하는 감소 함수들
Figure pct00034
이 존재한다.
함수들 F +, F-는, 이어피스 모델, 재료, 및 설계와 같은, 다양한 특성들에 의존한다.
Figure pct00035
Figure pct00036
Figure pct00037
인 경우,
Figure pct00038
Figure pct00039
일반 모델에 대해 풀기 위해, 시스템은 먼저 주변 온도 및 α의 다양한 값들에 대해 F 및 G에 대해 교정할 수 있다. 이어서, 시스템은 MLSQ를 사용하여 Tamb 및 Tear를 추론할 수 있다.
두 번째 그러한 모델은 뉴턴의 모델이다.
Figure pct00040
Figure pct00041
때로는,
Figure pct00042
이고, 그러면
Figure pct00043
Figure pct00044
이다.
이 예에서, P(Tamb, Tear)는 주변 온도가 Tamb이고 고막(eardrum) 온도가 Tenv일 때의 이어피스의 최종 온도이다. R[Tamb]는 주변 온도를 사용하는 함수이다. 이 모델에서, 열 계수(heat coefficient)는 주변 온도에 의존할 수 있다. 뉴턴의 모델에 대해 풀기 위해, 시스템은 5개의 단계를 수행할 수 있다. 첫번째로, 시스템은 주변 온도의 일부 값들에 대한 R(Tamb), 및 P를 교정할 수 있다. 두번째로, 시스템은 (예컨대, 2개의 점 사이에 있는 또는 2개의 점의 측면들 쪽에 있는 점들을 추정하는 것을 가능하게 하기 위해 적어도 2개의 점 사이에 직선을 플로팅하는 것에 의해) R(Tamb)를 보간할 수 있다. 세번째로, 시스템은 이어피스 온도를 연속적으로 레코딩함으로써 r을 추론할 수 있다. 네번째로, 시스템은, Tamb가 알려져 있을 수 있고 (어떤 시간 동안 기다리는 것, 또는 앞서 기술된 시간 예측 기법들을 사용하는 것 중 어느 하나에 의해) Tinferred가 측정될 수 있기 때문에, R(Tamb) = r이도록 하는 Tamb를 구할 수 있다. 다섯번째로, 앞서 기술된 방정식을 사용하면, P가 알려져 있을 수 있고, Tamb가 알려져 있을 수 있으며, Tinferred가 (예측을 사용하여) 알려져 있을 수 있기 때문에, 이하의 방정식을 Tear에 대해 푸는 것에 의해 Tear가 결정될 수 있다: Tinferred = P(Tamb, Tamb)
신체 온도 측정(제2 접근법)
이 대안의 접근법에서, 컴퓨팅 시스템은 이전에 기술된 바와 같이 이어피스 온도를 산출하지만, 이어피스가 사용자의 귀 외부에 위치되는 것으로 결정되고 따라서 주변 온도에 의해 주로 영향을 받는 것으로 인해 이어피스 온도가 주변 온도로서 지정된다. (프로세스(700)와 관련하여 기술된 귀내 검출 기법이 이어피스가 귀의 외부에 있을 때를 식별하는 데 사용된다.) 이어피스가 귀에 있는 것으로 일단 결정되면, 주변 온도가 알려져 있고 이어피스 온도가 알려져 있기 때문에 시스템은 사용자 온도를 결정할 수 있고, 시스템은 다양한 주변 온도들에 대해 귀 온도를 이어피스 온도에 매핑하는 이전에 수행된 교정들에 액세스할 수 있다. 이 프로세스는 박스들(980 내지 986)과 관련하여 보다 상세히 기술된다.
박스(980)에서, 컴퓨팅 시스템은, 예를 들어, 귀내 검출 프로세스(700)를 사용하여 이어피스가 사용자의 귀에 있는지를 결정한다. 컴퓨팅 시스템은, 시스템이 이어피스가 사용자의 귀에 있지 않다고 결정할 때까지 - 이 시점에서 컴퓨팅 시스템은 온도 측정 프로세스를 효과적으로 시작하기 위해 박스(982)의 동작들을 수행할 수 있음 -, 이 프로세스를 정기적으로 수행할 수 있다.
박스(982)에서, 컴퓨팅 시스템은 절대 정상 상태 이어피스 온도를 결정하고, 이 온도를 주변 온도로서 지정할 수 있다. 절대 정상 상태 이어피스 온도의 결정은 이어피스의 정상 상태 온도를 산출하기 위해 박스들(900 내지 940)의 동작들을 수행하는 것을 수반할 수 있다. 이 경우에, 이어피스가 사용자의 귀에 있지 않기 때문에, 이어피스는 이어피스가 위치되는 공간의 주변 온도와 동일하거나 적어도 유사하다고 가정될 수 있다. 박스(940)와 관련하여 기술된 바와 같이, 정상 상태 온도를 결정하는 것은 이어피스가 주변 온도에 도달할 때까지 결정된 시간 길이 동안 기다리는 것(박스(942))을 수반할 수 있거나, 장래의 정상 상태 온도를 산출하기 위해 모델을 사용하는 것(박스(944))을 수반할 수 있다.
박스(984)에서, 컴퓨팅 시스템은, 예를 들어, 귀내 검출 프로세스(700)를 사용하여 이어피스가 사용자의 귀에 있는지를 결정한다. 이어피스가 사용자의 귀에 있는 것으로 결정되지 않는 경우, 시스템은 계속하여 절대 정상 상태 이어피스 온도를 결정한다(박스(982)). 시스템이 이어피스가 이제 사용자의 귀에 위치되어 있다고 결정하는 경우, 컴퓨팅 시스템은 박스(966)의 동작들을 수행한다. 다양한 예들에서, 컴퓨팅 시스템은 계속하여 이어피스 온도들을 기록하고, 컴퓨터 시스템이 이어피스가 사용자의 귀에 있는 것으로 전환했는지를 결정할 때까지는 정상 상태 이어피스 온도를 결정하기 위해 박스(982)의 동작들을 수행하지 않는다. 주변 온도를 결정하기 위해 기다리는 것은 컴퓨팅 시스템이 마지막 온도 판독치를 단순히 사용하는 것(예컨대, 이어피스가 정상 상태 환경 온도에 도달했기 때문에) 또는 온도 모델링을 사용하는 것(예컨대, 이어피스 온도가 여전히 변하고 있었기 때문에) 중에서 선택하는 것을 가능하게 한다.
박스(986)에서, 컴퓨팅 시스템은, 박스(962)와 관련하여 이전에 기술된 바와 같이, 다수의 주변 온도들에 대해 귀 온도 대 이어피스 온도(예컨대, 다수의 이어피스 온도들에 대해 귀 온도 대 주변 온도)를 교정한다.
박스(990)에서, 컴퓨팅 시스템은 절대 정상 상태 이어피스 온도, 결정된 주변 온도, 및 귀 온도 대 이어피스 온도 대 주변 온도(ear to earpiece to ambient temperatures)를 교정한 데이터를 사용하여 귀 온도를 결정한다. 예를 들어, 컴퓨팅 시스템은 결정된 이어피스 온도와 매칭하는 교정된 데이터로부터 이어피스 온도를 식별하고, 이어서 그 이어피스 온도에 대해 저장된 다수의 주변 온도들 중에서, 저장된 주변 온도와 매칭하는 주변 온도를 선택하며, 이미 선택된 이 2개의 값을 이용해, 데이터 세트로부터 대응하는 귀 온도를 선택할 수 있다. 일부 예들에서, 레코딩된 값들이 교정된 데이터와 동일하지 않은 경우에 교정된 데이터는 보간 또는 유사한 프로세스를 사용한다.
제2 메커니즘: 환경의 특성들을 측정하기
온도가 변함에 따라, 이어피스가 위치되는 환경의 음향 특성들이 변할 수 있다. 예를 들어, 온도는 환경에서의 음속은 물론, 진폭 및 다른 특성들에 영향을 미칠 수 있다. 이에 따라, 온도가 변함에 따라, 음속 및 진폭에 의해 영향을 받는, 음향 에코(ra) 및 음향 응답(wa)이 변할 수 있다. 그에 따라, 음향 에코(ra) 또는 음향 응답(wa) 중 어느 하나를 상이한 온도들에 대해 교정된 대응하는 값들과 비교하는 것은 시스템이 사용자의 귀 내부의 온도를 결정할 수 있게 해줄 수 있다. 이 프로세스는 프로세스(1000)(도 10) 및 박스들(1002 내지 1008)과 관련하여 이하에서 기술된다.
박스(1002)에서, 컴퓨팅 시스템은, 프로세스(600)와 관련하여 이전에 기술된 바와 같이, 오디오가 재생되고 있는 동안 음향 에코(ra) 또는 음향 응답(wa)을 추출한다.
박스(1004)에서, 컴퓨팅 시스템은 사전 교정된 음향 에코들 또는 응답들의 세트에 액세스하며, 여기서 각각의 온도 값에 대해 적어도 하나의 사전 교정된 값이 있다.
박스(1006)에서, 컴퓨팅 시스템은 추출된 음향 에코(ra) 또는 음향 응답(wa)을, 여기서 섭씨 X도로서 지정된, 추정된 온도에 대해 교정된 사전 교정된 음향 에코 또는 응답(Pa)과 비교한다.
박스(1008)에서, 컴퓨팅 시스템은, 매칭하는 외이도 온도를 식별하기 위해, 추출된 음향 에코(ra) 또는 음향 응답(wa)으로부터의 특징을 사용하고 그 특징을 사전 교정된 음향 에코 또는 응답(Pa)의 동일한 특징과 비교한다. 제1 예로서, 시스템은 재생된 신호와 레코딩된 신호 사이의 시간 차이를 추출할 수 있으며, 이 시간 차이는 음속에 대한 온도의 영향에 따라 온도 상관될(temperature correlated) 수 있다. 제2 예로서, 시스템은 레코딩된 신호의 진폭을 재생된 신호의 진폭과 비교할 수 있다. 다른 예로서, 시스템은 재생된 신호와 레코딩된 신호 사이의 전체 임펄스 응답을 구하고, 이를 X도에서의 임펄스 응답과 비교하며, 음속으로 인한 수축 모델(model of contraction)을 사용할 수 있다. 그러한 메커니즘들은 귀의 상대 온도를 결정하는 데 사용될 수 있다.
박스(1010)에서, 컴퓨팅 시스템은, 예를 들어, 박스(920)의 동작들을 수행함으로써 귀의 결정된 상대 온도를 귀의 절대 온도로 변환한다.
도 11은 컴퓨터 시스템(1100)의 개략 다이어그램이다. 시스템(1100)은, 일 구현에 따른, 이전에 기술된 컴퓨터에 의해 구현되는 방법들 중 임의의 것과 관련하여 기술된 동작들을 수행하는 데 사용될 수 있다. 시스템(1100)은, 랩톱들, 데스크톱들, 워크스테이션들, 개인 휴대 단말들(personal digital assistants), 서버들, 블레이드 서버들, 메인프레임들, 및 다른 적절한 컴퓨터들과 같은, 다양한 형태의 디지털 컴퓨터들을 포함하는 것으로 의도된다. 시스템(1100)은 또한, 개인 휴대 단말들, 셀룰러 전화기들, 스마트폰들, 및 다른 유사한 컴퓨팅 디바이스들과 같은, 모바일 디바이스들을 포함할 수 있다. 부가적으로, 시스템은, USB(Universal Serial Bus) 플래시 드라이브들과 같은, 휴대용 저장 매체를 포함할 수 있다. 예를 들어, USB 플래시 드라이브들은 운영 체제들 및 다른 애플리케이션들을 저장할 수 있다. USB 플래시 드라이브들은, 다른 컴퓨팅 디바이스의 USB 포트에 삽입될 수 있는 무선 송신기 또는 USB 커넥터와 같은, 입력/출력 컴포넌트들을 포함할 수 있다.
시스템(1100)은 프로세서(1110), 메모리(1120), 저장 디바이스(1130), 및 입력/출력 디바이스(1140)를 포함한다. 컴포넌트들(1110, 1120, 1130, 및 1140) 각각은 시스템 버스(1150)를 사용하여 상호연결된다. 프로세서(1110)는 시스템(1100) 내에서 실행하기 위한 명령어들을 프로세싱할 수 있다. 프로세서는 다수의 아키텍처들 중 임의의 것을 사용하여 설계될 수 있다. 예를 들어, 프로세서(1110)는 CISC(Complex Instruction Set Computers) 프로세서, RISC(Reduced Instruction Set Computer) 프로세서, 또는 MISC(Minimal Instruction Set Computer) 프로세서일 수 있다.
일 구현에서, 프로세서(1110)는 단일 스레드 프로세서(single-threaded processor)이다. 다른 구현에서, 프로세서(1110)는 멀티 스레드 프로세서(multi-threaded processor)이다. 프로세서(1110)는 입력/출력 디바이스(1140) 상에 사용자 인터페이스에 대한 그래픽 정보를 디스플레이하기 위해 메모리(1120)에 또는 저장 디바이스(1130) 상에 저장된 명령어들을 프로세싱할 수 있다.
메모리(1120)는 시스템(1100) 내에 정보를 저장한다. 일 구현에서, 메모리(1120)는 컴퓨터 판독가능 매체이다. 일 구현에서, 메모리(1120)는 휘발성 메모리 유닛이다. 다른 구현에서, 메모리(1120)는 비휘발성 메모리 유닛이다.
저장 디바이스(1130)는 시스템(400)에 대한 대용량 스토리지(mass storage)를 제공할 수 있다. 일 구현에서, 저장 디바이스(1130)는 컴퓨터 판독가능 매체이다. 다양한 상이한 구현들에서, 저장 디바이스(1130)는 플로피 디스크 디바이스, 하드 디스크 디바이스, 광학 디스크 디바이스, 또는 테이프 디바이스일 수 있다.
입력/출력 디바이스(1140)는 시스템(400)에 대한 입력/출력 동작들을 제공한다. 일 구현에서, 입력/출력 디바이스(1140)는 키보드 및/또는 포인팅 디바이스를 포함한다. 다른 구현에서, 입력/출력 디바이스(1140)는 그래픽 사용자 인터페이스들을 디스플레이하기 위한 디스플레이 유닛을 포함한다.
기술된 특징들은 디지털 전자 회로부로, 또는 컴퓨터 하드웨어, 펌웨어, 소프트웨어로, 또는 이들의 조합으로 구현될 수 있다. 장치는 프로그래밍가능 프로세서에 의한 실행을 위해 정보 캐리어(information carrier)에, 예컨대, 머신 판독가능 저장 디바이스에 유형적으로 포함된(tangibly embodied) 컴퓨터 프로그램 제품으로 구현될 수 있고; 방법 단계들은 프로그래밍가능 프로세서가 입력 데이터를 조작하고 출력을 생성하는 것에 의해 기술된 구현들의 기능들을 수행하기 위해 명령어들의 프로그램을 실행하는 것에 의해 수행될 수 있다. 기술된 특징들은 유리하게도 데이터 저장 시스템, 적어도 하나의 입력 디바이스, 및 적어도 하나의 출력 디바이스로부터 데이터 및 명령어들을 수신하고 그에게로 데이터 및 명령어들을 전송하도록 커플링된 적어도 하나의 프로그래밍가능 프로세서를 포함하는 프로그래밍가능 시스템 상에서 실행가능한 하나 이상의 컴퓨터 프로그램으로 구현될 수 있다. 컴퓨터 프로그램은 특정 활동을 수행하거나 특정 결과를 가져오기 위해 컴퓨터에서, 직접적으로 또는 간접적으로, 사용될 수 있는 명령어들의 세트이다. 컴퓨터 프로그램은, 컴파일되는 언어(compiled language) 또는 인터프리트되는 언어(interpreted language)를 포함한, 임의의 형태의 프로그래밍 언어로 작성될 수 있고, 컴퓨터 프로그램은, 독립형 프로그램(stand-alone program)으로서 또는 모듈, 컴포넌트, 서브루틴, 또는 컴퓨팅 환경에서 사용하기에 적당한 다른 유닛(unit)으로서를 포함한, 임의의 형태로 배포(deploy)될 수 있다.
명령어들의 프로그램의 실행에 적당한 프로세서들은, 예로서, 범용 프로세서 및 특수 목적 프로세서 둘 다, 그리고 임의의 종류의 컴퓨터의 유일한 프로세서 또는 다수의 프로세서들 중 하나를 포함한다. 일반적으로, 프로세서는 판독 전용 메모리 또는 랜덤 액세스 메모리 또는 둘 다로부터 명령어들 및 데이터를 수신할 것이다. 컴퓨터의 필수 요소들은 명령어들을 실행하기 위한 프로세서와 명령어들 및 데이터를 저장하기 위한 하나 이상의 메모리이다. 일반적으로, 컴퓨터는 또한 데이터 파일들을 저장하기 위한 하나 이상의 대용량 저장 디바이스를 포함하거나 그들과 통신하기 위해 동작가능하게 커플링될 것이고; 그러한 디바이스들은, 내장형 하드 디스크들(internal hard disks) 및 이동식 디스크들(removable disks)과 같은, 자기 디스크들; 자기 광학 디스크들; 및 광학 디스크들을 포함한다. 컴퓨터 프로그램 명령어들 및 데이터를 유형적으로 포함하기에 적당한 저장 디바이스들은, 예로서, EPROM, EEPROM, 및 플래시 메모리 디바이스들과 같은, 반도체 메모리 디바이스들; 내장형 하드 디스크들 및 이동식 디스크들과 같은 자기 디스크들; 자기 광학 디스크들; 그리고 CD-ROM 및 DVD-ROM 디스크들을 포함한, 모든 형태들의 비휘발성 메모리를 포함한다. 프로세서 및 메모리는 ASIC들(application-specific integrated circuits)에 의해 보완(supplement)되거나 그들에 통합(incorporate)될 수 있다.
사용자와의 상호작용을 제공하기 위해, 특징들은 사용자에게 정보를 디스플레이하기 위한 CRT(cathode ray tube) 또는 LCD(liquid crystal display) 모니터와 같은 디스플레이 디바이스 및 사용자가 컴퓨터에 입력을 제공할 수 있는 키보드 및 마우스 또는 트랙볼과 같은 포인팅 디바이스를 갖는 컴퓨터 상에 구현될 수 있다. 부가적으로, 그러한 활동들은 터치스크린 평판 디스플레이들 및 다른 적절한 메커니즘들을 통해 구현될 수 있다.
특징들은, 데이터 서버와 같은, 백 엔드 컴포넌트(back-end component)를 포함하거나, 애플리케이션 서버 또는 인터넷 서버와 같은, 미들웨어 컴포넌트(middleware component)를 포함하거나, 그래픽 사용자 인터페이스 또는 인터넷 브라우저를 갖는 클라이언트 컴퓨터와 같은, 프런트 엔드 컴포넌트(front-end component)를 포함하거나, 또는 이들의 임의의 조합인 컴퓨터 시스템에서 구현될 수 있다. 시스템의 컴포넌트들이 통신 네트워크와 같은 임의의 디지털 데이터 통신 형태 또는 매체에 의해 연결될 수 있다. 통신 네트워크들의 예들은 근거리 네트워크("LAN"), 광역 네트워크("WAN"), 피어-투-피어 네트워크들(애드혹 또는 정적 멤버들을 가짐), 그리드 컴퓨팅 인프라스트럭처들, 및 인터넷을 포함한다.
컴퓨터 시스템은 클라이언트들 및 서버들을 포함할 수 있다. 클라이언트와 서버는 일반적으로 서로 멀리 떨어져 있고 전형적으로, 기술된 것과 같은, 네트워크를 통해 상호작용한다. 클라이언트와 서버의 관계는 컴퓨터 프로그램들이 각자의 컴퓨터들 상에서 실행되고 서로 클라이언트-서버 관계를 갖는 것에 의해 생긴다.
본 명세서가 많은 특정 구현 상세들을 포함하고 있지만, 이들이 임의의 발명들의 또는 청구될 수 있는 것의 범위에 대한 제한들로서 해석되어서는 안되고, 오히려 특정의 발명들의 특정의 구현들에 특정적인 특징들에 대한 설명으로서 해석되어야 한다. 개별적인 구현들과 관련하여 본 명세서에 기술되는 특정 특징들이 또한 단일 구현에 결합하여 구현될 수 있다. 이와 달리, 단일 구현과 관련하여 기술되는 다양한 특징들이 또한 다수의 구현들에 개별적으로 또는 임의의 적당한 서브콤비네이션(subcombination)으로 구현될 수 있다. 더욱이, 특징들이 특정 조합들로 기능하는 것으로 앞서 기술되고 심지어 처음에 그 자체로서 청구될 수 있지만, 청구된 조합으로부터의 하나 이상의 특징이 일부 경우들에서 그 조합으로부터 제거될 수 있고, 청구된 조합은 서브콤비네이션 또는 서브콤비네이션의 변형에 관한 것일 수 있다.
이와 유사하게, 동작들이 도면들에서 특정의 순서로 묘사되어 있지만, 이것은, 바람직한 결과들을 달성하기 위해, 그러한 동작들이 도시된 특정의 순서로 또는 순차적 순서로 수행되거나, 모든 예시된 동작들이 수행될 것을 요구하는 것으로 이해되어서는 안된다. 특정 상황들에서, 멀티태스킹 및 병렬 프로세싱이 유리할 수 있다. 더욱이, 앞서 기술된 구현들에서의 다양한 시스템 컴포넌트들의 분리는 모든 구현들에서 그러한 분리를 요구하는 것으로 이해되어서는 안되며, 기술된 프로그램 컴포넌트들 및 시스템들이 일반적으로 단일 소프트웨어 제품에 함께 통합되거나 다수의 소프트웨어 제품들로 패키징될 수 있다는 것이 이해되어야 한다.
따라서, 주제(subject matter)의 특정의 구현들이 기술되었다. 다른 구현들이 이하의 청구항들의 범위 내에 있다. 일부 경우들에서, 청구항들에서 열거된 액션들은 상이한 순서로 수행될 수 있고 바람직한 결과들을 여전히 달성할 수 있다. 그에 부가하여, 첨부 도면들에 묘사된 프로세스들은 바람직한 결과들을 달성하기 위해 도시된 특정의 순서 또는 순차적 순서를 반드시 필요로 하지는 않는다. 특정 구현들에서, 멀티태스킹 및 병렬 프로세싱이 유리할 수 있다.
사전 레코딩된 사운드들
구현 1은 컴퓨터에 의해 구현되는 방법이다. 본 방법은, 소스 오디오 신호가 사용자 이어피스의 전기음향 트랜스듀서에 의해 청각적으로 출력되게 하는 단계를 포함한, 오디오 프로세싱 디바이스를 이용해, 소스 오디오 신호를 재생하는 단계를 포함한다. 본 방법은, 오디오 프로세싱 디바이스를 이용해 그리고 소스 오디오 신호를 재생하는 동안, 사용자의 환경 내에 존재하는 사운드들을 나타내는 주변 오디오 신호를 레코딩하는 단계를 추가로 포함한다. 본 방법은, 주변 오디오 신호의 분석에 기초하여, 사전 레코딩된 오디오 신호가 주변 오디오 신호에 출현하는 것을 식별하는 단계를 추가로 포함한다. 본 방법은, 사전 레코딩된 오디오 신호의 제2 인스턴스에 액세스하는 단계를 추가로 포함한다. 본 방법은, 오디오 프로세싱 디바이스에 의해 그리고 주변 오디오 신호에 출현하는 사전 레코딩된 오디오 신호의 표현으로서 사전 레코딩된 오디오 신호의 저장된 인스턴스를 사용하여, 소스 오디오 신호로부터 사전 레코딩된 오디오 신호를 적어도 부분적으로 제거하기 위해 사용자 이어피스의 전기음향 트랜스듀서에 의해 출력된 소스 오디오 신호를 수정하는 단계를 추가로 포함한다.
구현 2는 구현 1의 방법이다. 소스 오디오 신호는 노래 또는 음성 콘텐츠(spoken content) 중 적어도 하나로부터의 오디오 신호를 포함한다.
구현 3은 구현 1의 방법이다. 사전 레코딩된 오디오 신호는 노래, 음성 콘텐츠, 영화, 또는 텔레비전 쇼 중 적어도 하나로부터의 오디오 신호를 포함한다.
구현 4는 구현 1의 방법이다. 사전 레코딩된 오디오 신호가 주변 오디오 신호에 출현하는 것을 식별하는 단계는: 오디오 프로세싱 디바이스를 이용해, 주변 오디오 신호로부터 사전 레코딩된 오디오 신호를 추출하기 위해 주변 오디오 신호를 필터링하는 단계; 및 주변 오디오 신호로부터 추출된 사전 레코딩된 오디오 신호가 복수의 상이한 사전 레코딩된 오디오 신호들 중 하나와 매칭한다고 결정하는 단계를 포함한다.
구현 5는 구현 1의 방법이다. 사전 레코딩된 오디오 신호가 주변 오디오 신호에 출현하는 것을 식별하는 단계는: 오디오 프로세싱 디바이스로부터 그리고 네트워크를 통해 오디오 프로세싱 디바이스로부터 멀리 떨어져 위치된 서버로, 주변 오디오 신호의 적어도 일부분을 특징짓는 오디오 데이터를 송신하는 단계; 및 서버로 송신된 오디오 데이터에 대한 응답으로서 오디오 프로세싱 디바이스에서, 사전 레코딩된 오디오 신호를 식별해주는 데이터를 수신하는 단계를 포함한다.
구현 6은 구현 5의 방법이다. 사전 레코딩된 오디오 신호의 저장된 인스턴스에 액세스하는 단계는 서버로 송신된 오디오 데이터에 대한 응답의 일부로서 오디오 프로세싱 디바이스에서, 사전 레코딩된 오디오 신호의 제2 인스턴스를 수신하는 단계를 포함한다.
구현 7은 구현 1 내지 구현 6 중 어느 한 구현의 방법이다. 본 방법은 주변 오디오 신호에 출현하는 사전 레코딩된 오디오 신호의 현재 시간 위치를 결정하는 단계; 및 결정된 현재 시간 위치에 기초하여 사전 레코딩된 오디오 신호의 제2 인스턴스를 주변 오디오 신호에 출현하는 사전 레코딩된 오디오 신호와 동기화시키는 단계를 포함한다.
구현 8은 구현 7의 방법이다. 소스 오디오 신호로부터 사전 레코딩된 오디오 신호를 적어도 부분적으로 제거하기 위해 소스 오디오 신호를 수정하는 단계는 사전 레코딩된 오디오 신호의 동기화된 제2 인스턴스를 이용해 소스 오디오 신호를 실시간으로 필터링하는 단계를 포함한다.
구현 9는 구현 1 내지 구현 8 중 어느 한 구현의 방법이다. 본 방법은 사전 레코딩된 오디오 신호가 주변 오디오 신호에 더 이상 출현하지 않는 것을 식별하는 단계; 및 사전 레코딩된 오디오 신호가 주변 오디오 신호에 더 이상 출현하지 않는 것을 식별한 것에 응답하여, 소스 오디오 신호로부터 사전 레코딩된 오디오 신호를 적어도 부분적으로 제거하기 위해 소스 오디오 신호를 수정하는 것을 중지하는 단계를 포함한다.
구현 10은 구현 9의 방법이다. 본 방법은 소스 오디오 신호를 수정하는 것을 중지한 후에: 사전 레코딩된 오디오 신호가 주변 오디오 신호에 재개(resume)되었다는 것을 식별하는 단계; 및 사전 레코딩된 오디오 신호가 주변 오디오 신호에 재개되었다는 것을 식별한 것에 응답하여, 소스 오디오 신호로부터 사전 레코딩된 오디오 신호를 적어도 부분적으로 제거하기 위해 소스 오디오 신호를 수정하는 것을 재개하는 단계를 포함한다.
구현 11은 구현 1 내지 구현 10 중 어느 한 구현의 방법이다. 주변 오디오 신호를 레코딩하는 단계는 사용자 이어피스의 전기음향 트랜스듀서를 이용해 주변 오디오 신호를 감지하는 단계를 포함한다.
구현 12는 구현 1 내지 구현 10 중 어느 한 구현의 방법이다. 주변 오디오 신호를 레코딩하는 단계는 사용자 이어피스의 외부에 있는 마이크로폰을 이용해 주변 오디오 신호를 감지하는 단계를 포함한다.
구현 13은 구현 12의 방법이다. 마이크로폰은 추가로 오디오 프로세싱 디바이스의 외부에 있다.
구현 14는 구현 12의 방법이다. 마이크로폰은 오디오 프로세싱 디바이스의 통합된 컴포넌트(integrated component)이다.
구현 15는 구현 1 내지 구현 14 중 어느 한 구현의 방법이다. 사용자 이어피스의 전기음향 트랜스듀서에 의해 출력된 소스 오디오 신호를 수정하는 단계는 소스 오디오 신호로부터 사전 레코딩된 오디오 신호의 제2 인스턴스를 차감하는 단계를 포함한다.
구현 16은 구현 1 내지 구현 15 중 어느 한 구현의 방법이다. 이어피스는 헤드폰 또는 이어버드를 포함한다.
구현 17은 구현 1 내지 구현 16 중 어느 한 구현의 방법이다. 오디오 프로세싱 디바이스는 휴대용 디지털 미디어 플레이어, 스마트폰, 태블릿 컴퓨팅 디바이스, 노트북 컴퓨팅 디바이스, 데스크톱 컴퓨팅 디바이스, 또는 웨어러블 컴퓨팅 디바이스를 포함한다.
구현 18은 컴퓨팅 시스템이다. 컴퓨팅 시스템은 하나 이상의 프로세서 및 하나 이상의 컴퓨터 판독가능 매체를 포함한다. 하나 이상의 컴퓨터 판독가능 매체는, 하나 이상의 프로세서에 의해 실행될 때, 구현 1 내지 구현 17의 방법들 중 임의의 것을 수행하는 동작들을 수행하게 하는 명령어들을 저장하고 있다.
구현 19는, 하나 이상의 프로세서에 의해 실행될 때, 구현 1 내지 구현 17의 방법들 중 임의의 것을 수행하는 동작들을 수행하게 하는 명령어들을 저장하고 있는 하나 이상의 컴퓨터 판독가능 매체이다.
귀 존재
구현 1은 컴퓨터에 의해 구현되는 방법이다. 본 방법은 소스 오디오 신호가 사용자 이어피스의 전기음향 트랜스듀서에 의해 청각적으로 출력되게 하는 단계를 포함한, 오디오 프로세싱 디바이스를 이용해, 소스 오디오 신호를 재생하는 단계; 오디오 프로세싱 디바이스를 이용해, 사용자 이어피스의 전기음향 트랜스듀서를 사용하여 청각 신호를 레코딩하는 단계; 소스 오디오 신호를 재생한 결과로서, 사용자 이어피스가 위치되는 공간의 특성을 나타내는 청각 신호의 하나 이상의 특징의 값들을 결정하는 단계; 청각 신호의 하나 이상의 특징의 결정된 값들을 하나 이상의 특징의 미리 정의된 값들과 비교하는 단계; 및 청각 신호의 하나 이상의 특징의 결정된 값들을 하나 이상의 특징의 미리 정의된 값들과 비교한 결과에 기초하여, 사용자 이어피스가 사용자의 귀에 위치되는지를 결정하는 단계를 포함한다.
구현 2는 구현 1의 방법이다. 본 방법은 사용자 이어피스가 사용자의 귀에 위치되는지에 기초하여 특정된 액션을 수행할지를 결정하는 단계를 포함한다.
구현 3은 구현 1의 방법이다. 본 방법은, 제1 시간에서, 사용자 이어피스가 사용자의 귀에 위치된다고 결정하는 단계; 제1 시간 이후의 제2 시간에서, 사용자 이어피스의 위치가 사용자의 귀에 있는 것으로부터 사용자의 귀에 있지 않은 것으로 변경되었다고 결정하는 단계; 및 사용자 이어피스의 위치가 사용자의 귀에 있는 것으로부터 사용자의 귀에 있지 않은 것으로 변경되었다고 결정한 것에 응답하여, 특정된 액션을 수행하는 단계를 포함한다.
구현 4는 구현 1의 방법이다. 본 방법은 제1 시간에서, 사용자 이어피스가 사용자의 귀에 위치되어 있지 않다고 결정하는 단계; 제1 시간 이후의 제2 시간에서, 사용자 이어피스의 위치가 사용자의 귀에 있지 않은 것으로부터 사용자의 귀에 있는 것으로 변경되었다고 결정하는 단계; 및 사용자 이어피스의 위치가 사용자의 귀에 있지 않은 것으로부터 사용자의 귀에 있는 것으로 변경되었다고 결정한 것에 응답하여, 특정된 액션을 수행하는 단계를 포함한다.
구현 5는 구현 2 내지 구현 4 중 어느 한 구현의 방법이다. 특정된 액션은 미디어 파일을 재생하는 것, 미디어 파일을 일시중지시키는 것, 미디어 파일을 정지시키는 것, 일시중지된 미디어 파일의 재생을 재개하는 것, 전자 디스플레이를 활성화시키는 것, 전자 디스플레이의 백라이트의 밝기 설정을 조정하는 것, 디바이스를 잠금 모드로 전환하는 것, 디바이스를 잠금 모드로부터 전환하는 것, 전화 통화를 개시하는 것, 전화 통화를 종료하는 것, 애플리케이션을 론칭하는 것, 또는 애플리케이션을 닫는 것 중 적어도 하나를 포함한다.
구현 6은 구현 1 내지 구현 5 중 어느 한 구현의 방법이다. 본 방법은 (i) 사용자의 귀에 있지 않은 것으로부터 사용자의 귀에 있는 것으로 또는 (ii) 사용자의 귀에 있는 것으로부터 사용자의 귀에 있지 않은 것으로의 사용자 이어피스의 위치의 변화가 있는지 모니터링하기 위해 사용자 이어피스가 사용자의 귀에 위치되는지를 일정 시간 기간에 걸쳐 반복하여 결정하는 단계를 포함한다.
구현 7은 구현 1 내지 구현 6 중 어느 한 구현의 방법이다. 본 방법은 오디오 프로세싱 디바이스를 이용해 소스 오디오 신호를 재생하는 것과 동시에 오디오 프로세싱 디바이스를 이용해 청각 신호를 레코딩하는 단계를 포함한다.
구현 8은 구현 1 내지 구현 6 중 어느 한 구현의 방법이다. 사용자 이어피스의 전기음향 트랜스듀서는 (i) 소스 오디오 신호를 청각적으로 출력하는 스피커 및 (ii) 소스 오디오 신호가 재생되는 동안 청각 신호를 감지하는 마이크로폰으로서 동시에 기능한다.
구현 9는 구현 1 내지 구현 8 중 어느 한 구현의 방법이다. 청각 신호의 하나 이상의 특징은 사용자 이어피스가 위치되는 공간의 음향 에코의 임펄스 응답을 포함한다.
구현 10은 구현 1 내지 구현 9 중 어느 한 구현의 방법이다. 하나 이상의 특징의 미리 정의된 값들은 사용자의 귀 내의 공간을 특징짓는 모델을 포함한다.
구현 11은 구현 1 내지 구현 10 중 어느 한 구현의 방법이다. 하나 이상의 특징의 미리 정의된 값들은 사용자 이어피스가 사용자의 귀에 위치되는 것으로 결정되었을 때 소스 오디오 신호 또는 다른 오디오 신호를 재생하는 것으로 인해 생긴 청각 신호들의 하나 이상의 특징의 이전에 결정된 값들에 적어도 부분적으로 기초하여 결정된다.
구현 12는 구현 1 내지 구현 10 중 어느 한 구현의 방법이다. 하나 이상의 특징의 미리 정의된 값들은 사용자 이어피스가 사용자 이외의 하나 이상의 사용자의 각자의 귀들에 위치되었을 때 소스 오디오 신호 또는 다른 오디오 신호를 재생하는 것으로 인해 생긴 청각 신호들의 하나 이상의 특징의 값들에 적어도 부분적으로 기초하여 결정된다.
구현 13은 구현 1 내지 구현 12 중 어느 한 구현의 방법이다. 이어피스는 헤드폰 또는 이어버드를 포함한다.
구현 14는 구현 1 내지 구현 13 중 어느 한 구현의 방법이다. 오디오 프로세싱 디바이스는 휴대용 디지털 미디어 플레이어, 스마트폰, 태블릿 컴퓨팅 디바이스, 노트북 컴퓨팅 디바이스, 데스크톱 컴퓨팅 디바이스, 또는 웨어러블 컴퓨팅 디바이스를 포함한다.
구현 15는 구현 1 내지 구현 14 중 어느 한 구현의 방법이다. 소스 오디오 신호를 재생하는 단계는 백색 잡음을 재생하는 단계를 포함한다.
구현 16은 구현 1 내지 구현 14 중 어느 한 구현의 방법이다. 소스 오디오 신호를 재생하는 단계는 노래 또는 음성 콘텐츠를 오디오 프로세싱 디바이스의 사용자에게 재생하는 단계를 포함한다.
구현 17은 구현 1 내지 구현 16 중 어느 한 구현의 방법이다. 소스 오디오 신호를 재생하는 단계는, 재생된 사운드가 인간 청력의 정상 주파수 한계 초과이도록, 20 킬로헤르츠 초과의 평균 주파수를 갖는 사운드를 재생하는 단계를 포함한다.
구현 18은 컴퓨팅 시스템이다. 컴퓨팅 시스템은 하나 이상의 프로세서 및 하나 이상의 컴퓨터 판독가능 매체를 포함한다. 하나 이상의 컴퓨터 판독가능 매체는, 하나 이상의 프로세서에 의해 실행될 때, 구현 1 내지 구현 17의 방법들 중 임의의 것을 수행하는 동작들을 수행하게 하는 명령어들을 저장하고 있다.
구현 19는, 하나 이상의 프로세서에 의해 실행될 때, 구현 1 내지 구현 17의 방법들 중 임의의 것을 수행하는 동작들을 수행하게 하는 명령어들을 저장하고 있는 하나 이상의 컴퓨터 판독가능 매체이다.
사용자 인증
구현 1은 컴퓨터에 의해 구현되는 방법이다. 본 방법은 소스 오디오 신호가 사용자 이어피스의 전기음향 트랜스듀서에 의해 청각적으로 출력되게 하는 단계를 포함한, 오디오 프로세싱 디바이스를 이용해, 소스 오디오 신호를 재생하는 단계를 포함한다. 본 방법은 오디오 프로세싱 디바이스를 이용해, 사용자 이어피스의 전기음향 트랜스듀서에 의해 감지되는 청각 신호를 레코딩하는 단계를 추가로 포함한다. 본 방법은, 소스 오디오 신호를 재생한 결과로서, 사용자 이어피스가 위치되는 공간의 특성을 나타내는 청각 신호의 하나 이상의 특징의 값들을 결정하는 단계를 추가로 포함한다. 본 방법은 청각 신호의 하나 이상의 특징의 값들에 기초하여 사용자에 대한 음향 시그너처를 생성하는 단계를 추가로 포함한다. 본 방법은 사용자 계정으로 음향 시그너처를 등록하는 단계를 추가로 포함한다.
구현 2는 구현 1의 방법이다. 본 방법은, 사용자 계정으로 음향 시그너처를 등록한 후에: 제2 소스 오디오 신호가 사용자 이어피스의 전기음향 트랜스듀서에 의해 청각적으로 출력되게 하는 단계를 포함한, 오디오 프로세싱 디바이스를 이용해, 제2 소스 오디오 신호를 재생하는 단계; 오디오 프로세싱 디바이스를 이용해, 사용자 이어피스의 전기음향 트랜스듀서에 의해 감지되는 제2 청각 신호를 레코딩하는 단계; 제2 청각 신호의 하나 이상의 특징의 값들을 결정하는 단계; 제2 청각 신호의 하나 이상의 특징이 사용자 계정으로 등록된 음향 시그너처와 매칭하는지를 결정하는 단계; 및 제2 청각 신호의 하나 이상의 특징이 사용자 계정으로 등록된 음향 시그너처와 매칭하는지에 기초하여, 특정된 액션을 수행할지를 결정하는 단계를 추가로 포함한다.
구현 3은 구현 2의 방법이다. 특정된 액션을 수행할지를 결정하는 단계는 제2 청각 신호의 하나 이상의 특징이 사용자 계정으로 등록된 음향 시그너처와 매칭하는지에 기초하여 사용자 이어피스의 사용자를 인증하는 단계를 포함한다.
구현 4는 구현 2의 방법이다. 특정된 액션은 사용자 계정 또는 다른 계정에 로그인하는 단계를 포함한다.
구현 5는 구현 2의 방법이다. 본 방법은 제2 청각 신호의 하나 이상의 특징이 사용자 계정으로 등록된 음향 시그너처와 매칭한다고 결정하는 단계; 및 제2 청각 신호의 하나 이상의 특징이 사용자 계정으로 등록된 음향 시그너처와 매칭한다고 결정한 것에 응답하여, 특정된 액션의 수행을 허용하는 단계를 포함한다.
구현 6은 구현 2의 방법이다. 본 방법은 제2 청각 신호의 하나 이상의 특징이 사용자 계정으로 등록된 음향 시그너처와 매칭하지 않는다고 결정하는 단계; 및 제2 청각 신호의 하나 이상의 특징이 사용자 계정으로 등록된 음향 시그너처와 매칭하지 않는다고 결정한 것에 응답하여, 특정된 액션의 수행을 블로킹하는 단계를 포함한다.
구현 7은 구현 2의 방법이다. 본 방법은 오디오 프로세싱 디바이스가 특정된 액션과 연관된 제1 모드에 있는 동안 제2 청각 신호의 하나 이상의 특징의 값들을 반복하여 결정하는 단계; 반복하여 결정하는 단계의 반복들에서 결정된 제2 청각 신호의 하나 이상의 특징의 값들이 사용자 계정으로 등록된 음향 시그너처와 매칭하는 한, 특정된 액션과 연관된 오디오 프로세싱 디바이스의 제1 모드에 머물러 있기로 결정하는 단계를 포함한다.
구현 8은 구현 7의 방법이다. 본 방법은, 제2 청각 신호의 하나 이상의 특징의 값들이 사용자 계정으로 등록된 음향 시그너처와 더 이상 매칭하지 않는다고 결정한 것에 응답하여, 특정된 액션과 연관된 제1 모드로부터 특정된 액션과 연관된 제2 모드로 전환하기로 결정하는 단계를 추가로 포함한다.
구현 9는 구현 7의 방법이다. 특정된 액션과 연관된 제1 모드는 제한된 사용자 계정에 로그인되어 있는 것을 포함한다.
구현 10은 구현 8의 방법이다. 특정된 액션과 연관된 제1 모드는 제한된 사용자 계정에 로그인되어 있는 것을 포함하며, 여기서 특정된 액션과 연관된 제2 모드는 제한된 사용자 계정으로부터 로그아웃되어 있는 것을 포함한다.
구현 11은 구현 1 내지 구현 10 중 어느 한 구현의 방법이다. 본 방법은 음향 시그너처를 사용자의 귀에서의 사용자 이어피스의 제1 위치와 상관시키는 단계를 포함한다.
구현 12는 구현 1 내지 구현 11 중 어느 한 구현의 방법이다. 본 방법은 사용자에 대한 다수의 음향 시그너처들을 생성하기 위해 재생하는 단계, 레코딩하는 단계, 결정하는 단계, 및 생성하는 단계의 다수의 반복들을 수행하는 단계; 다수의 반복들의 각각의 반복에 대해 사용자 이어피스를 사용자의 귀에서의 다른 위치로 이동시키도록 사용자에게 프롬프트하는 단계; 및 사용자에 대한 다수의 음향 시그너처들 중 적어도 2개를 사용자의 귀에서의 사용자 이어피스의 적어도 2개의 상이한 위치와 상관시키는 단계를 포함한다.
구현 13은 구현 1 내지 구현 12 중 어느 한 구현의 방법이다. 본 방법은 오디오 프로세싱 디바이스를 이용해 소스 오디오 신호를 재생하는 것과 동시에 오디오 프로세싱 디바이스를 이용해 청각 신호를 레코딩하는 단계를 포함한다.
구현 14는 구현 1 내지 구현 13 중 어느 한 구현의 방법이다. 사용자 이어피스의 전기음향 트랜스듀서는 (i) 소스 오디오 신호를 청각적으로 출력하는 스피커 및 (ii) 소스 오디오 신호가 재생되는 동안 청각 신호를 감지하는 마이크로폰으로서 동시에 기능한다.
구현 15는 구현 1 내지 구현 14 중 어느 한 구현의 방법이다. 청각 신호의 하나 이상의 특징은 사용자 이어피스가 위치되는 공간의 음향 에코의 임펄스 응답을 포함한다.
구현 16은 구현 1 내지 구현 15 중 어느 한 구현의 방법이다. 하나 이상의 특징의 미리 정의된 값들은 사용자의 귀 내의 공간을 특징짓는 모델을 포함한다.
구현 17은 구현 1 내지 구현 16 중 어느 한 구현의 방법이다. 사용자 이어피스는 헤드폰 또는 이어버드를 포함한다.
구현 18은 구현 1 내지 구현 17 중 어느 한 구현의 방법이다. 소스 오디오 신호를 재생하는 단계는 백색 잡음을 재생하는 단계를 포함한다.
구현 19는 구현 1 내지 구현 17 중 어느 한 구현의 방법이다. 소스 오디오 신호를 재생하는 단계는 노래 또는 음성 콘텐츠를 오디오 프로세싱 디바이스의 사용자에게 재생하는 단계를 포함한다.
구현 20은 구현 1 내지 구현 17 중 어느 한 구현의 방법이다. 소스 오디오 신호를 재생하는 단계는, 재생된 사운드가 인간 청력의 정상 주파수 한계 초과이도록, 20 킬로헤르츠 초과의 평균 주파수를 갖는 사운드를 재생하는 단계를 포함한다.
구현 21은 컴퓨팅 시스템이다. 컴퓨팅 시스템은 하나 이상의 프로세서 및 하나 이상의 컴퓨터 판독가능 매체를 포함한다. 하나 이상의 컴퓨터 판독가능 매체는, 하나 이상의 프로세서에 의해 실행될 때, 구현 1 내지 구현 20의 방법들 중 임의의 것을 수행하는 동작들을 수행하게 하는 명령어들을 저장하고 있다.
구현 22는, 하나 이상의 프로세서에 의해 실행될 때, 구현 1 내지 구현 20 중 임의의 것의 방법들을 수행하는 동작들을 수행하게 하는 명령어들을 저장하고 있는 하나 이상의 컴퓨터 판독가능 매체이다.
음향 시그너처들을 사용하기
구현 1은 컴퓨터에 의해 구현되는 방법이다. 본 방법은, 소스 오디오 신호가 사용자 이어피스의 전기음향 트랜스듀서에 의해 청각적으로 출력되게 하는 단계를 포함한, 오디오 프로세싱 디바이스를 이용해, 소스 오디오 신호를 재생하는 단계를 포함한다. 본 방법은, 오디오 프로세싱 디바이스를 이용해, 사용자 이어피스의 전기음향 트랜스듀서에 의해 감지되는 청각 신호를 레코딩하는 단계를 추가로 포함한다. 본 방법은, 소스 오디오 신호를 재생한 결과로서, 사용자 이어피스가 위치되는 공간의 특성을 나타내는 청각 신호의 하나 이상의 특징의 값들을 결정하는 단계를 추가로 포함한다. 본 방법은 청각 신호의 하나 이상의 특징이 사용자 계정으로 등록된 하나 이상의 음향 시그너처와 매칭하는지를 결정하는 단계를 추가로 포함한다. 본 방법은, 청각 신호의 하나 이상의 특징이 사용자 계정으로 등록된 하나 이상의 음향 시그너처와 매칭하는지에 기초하여, 특정된 액션을 수행할지를 결정하는 단계를 추가로 포함한다.
구현 2는 컴퓨팅 시스템이다. 컴퓨팅 시스템은 하나 이상의 프로세서 및 하나 이상의 컴퓨터 판독가능 매체를 포함한다. 하나 이상의 컴퓨터 판독가능 매체는, 하나 이상의 프로세서에 의해 실행될 때, 구현 1의 방법을 수행하는 동작들을 수행하게 하는 명령어들을 저장하고 있다.
구현 3은, 하나 이상의 프로세서에 의해 실행될 때, 구현 1의 방법을 수행하는 동작들을 수행하게 하는 명령어들을 저장하고 있는 하나 이상의 컴퓨터 판독가능 매체이다.
동시적인 재생 및 레코딩을 구성하기
구현 1은 동일한 트랜스듀서를 사용하여 오디오를 동시에 재생하고 레코딩하는 시스템이다. 본 시스템은 오디오 프로세싱 회로를 포함하고, 오디오 프로세싱 회로는
오디오 출력 연결부, 오디오 입력 연결부, 및 접지 연결부를 포함한다. 본 시스템은 제1 전기 연결부 및 제2 전기 연결부를 포함하는 트랜스듀서를 포함한다. 본 시스템은 오디오 프로세싱 회로의 오디오 출력 연결부와 오디오 프로세싱 회로의 오디오 입력 연결부 사이에 연결된 저항기를 포함한다. 본 시스템은 트랜스듀서의 제1 전기 연결부와 오디오 프로세싱 회로의 오디오 출력 연결부 또는 오디오 프로세싱 회로의 오디오 입력 연결부 중 어느 하나 사이에 제1 전기 도체를 포함한다. 본 시스템은 트랜스듀서의 제2 전기 연결부와 오디오 프로세싱 회로의 접지 연결부 사이에 제2 전기 도체를 포함한다. 구현 2는 구현 1의 시스템이고, 여기서 제1 전기 도체는 와이어이고, 제2 전기 도체는 와이어이다.
구현 3은 구현 1의 시스템이고, 여기서: 트랜스듀서의 제1 전기 연결부와 오디오 프로세싱 회로의 오디오 출력 연결부 사이의 저항은 1 옴 미만이거나, 트랜스듀서의 제1 전기 연결부와 오디오 프로세싱 회로의 오디오 입력 연결부 사이의 저항은 1 옴 미만이다.
구현 4는 구현 1의 시스템이고, 여기서 저항기는 5 옴 초과의 저항을 갖는다.
구현 5는 구현 1의 시스템이고, 여기서 저항기는 50 옴 초과의 저항을 갖는다.
구현 6은 구현 1의 시스템이고, 저항기가 오디오 출력 연결부와 오디오 입력 연결부 사이에 더 이상 연결되지 않도록 오디오 출력 연결부와 오디오 입력 연결부 사이에 연결된 저항기를 스위칭하도록 구성된 제1 회로 요소를 추가로 포함한다.
구현 7은 구현 6의 시스템이고, 제1 회로 요소 또는 저항기가 오디오 출력 연결부와 오디오 입력 연결부 사이에 더 이상 연결되지 않도록 저항기가 스위칭된 결과로서 트랜스듀서의 제1 전기 연결부를 트랜스듀서의 오디오 출력 연결부 또는 트랜스듀서의 오디오 입력 연결부에 연결시키도록 구성된 제2 회로 요소를 포함한다.
구현 8은 구현 1의 시스템이고, 여기서 제1 전기 도체는 트랜스듀서의 제1 전기 연결부와 오디오 프로세싱 회로의 오디오 입력 연결부 사이에 연결된다.
구현 9는 구현 1의 시스템이고, 여기서 오디오 입력 연결부는, 제1 입력 연결부 및 제2 입력 연결부가 저항기 양단에(across) 연결되도록, 저항기의 제1 측면에 연결된 제1 입력 연결부 및 저항기의 제2 측면에 연결된 제2 입력 연결부를 포함한다.
온도 측정 메커니즘
구현 1은 컴퓨터에 의해 구현되는 방법이다. 본 방법은, 소스 오디오 신호가 사용자 이어피스의 전기음향 트랜스듀서에 의해 청각적으로 출력되게 하는 단계를 포함한, 오디오 프로세싱 디바이스를 이용해, 소스 오디오 신호를 재생하는 단계를 포함한다. 본 방법은, 오디오 프로세싱 디바이스를 이용해 그리고 소스 오디오 신호를 재생하는 동안, 레코딩된 오디오 신호를 사용자 이어피스의 전기음향 트랜스듀서를 사용하여 레코딩하는 단계를 포함한다. 본 방법은, 오디오 프로세싱 디바이스에 의해, 사용자 이어피스의 속성들이 전기음향 트랜스듀서에 의한 소스 오디오 신호의 재생에 어떻게 영향을 미치는지를 나타내는 하나 이상의 파라미터를 식별하는 단계를 포함하고, 여기서 하나 이상의 파라미터 중 적어도 하나는 온도 의존적이다. 본 방법은, 오디오 프로세싱 디바이스에 의해, 하나 이상의 파라미터의 적용으로 인해 발생되는 소스 오디오 신호에 대한 변화들을 고려하여, 오디오 프로세싱 디바이스에 의해 재생된 소스 오디오 신호가 레코딩된 오디오 신호를 초래하게 하는 것으로 추정된 온도 값을 결정하는 단계를 포함한다.
구현 2는 구현 1의 컴퓨터에 의해 구현되는 방법이고, 여기서 하나 이상의 파라미터 중 적어도 하나는 사용자 이어피스의 온도 의존적 임펄스 응답이다.
구현 3은 구현 1의 컴퓨터에 의해 구현되는 방법이고, 여기서 하나 이상의 파라미터 중 적어도 하나는 사용자 이어피스의 온도 의존적 주파수 응답이다.
구현 4는 구현 1의 컴퓨터에 의해 구현되는 방법이고, 여기서 온도 값은 트랜스듀서의 상대 온도 값을 나타낸다. 본 방법은 사용자 이어피스의 절대 온도 값을 생성하기 위해 오프셋 상수 및 스케일링 상수를 사용하여 온도 값을 수정하는 단계를 추가로 포함하고, 여기서 오프셋 상수 및 스케일링 상수는 사용자 이어피스 또는 사용자 이어피스의 타입에 대해 교정된 값들이다.
구현 5는 구현 1의 컴퓨터에 의해 구현되는 방법이고, 여기서 온도 값은 트랜스듀서의 온도 값을 나타낸다. 본 방법은, 결정된 온도 값을 사용하여, 시간 경과에 따른 이어피스 온도 변화 특성들을 나타내는 모델을 사용하여 장래의 시간에서의 사용자 이어피스의 온도를 식별함으로써 사용자 이어피스가 위치되는 환경의 환경 온도 값을 추정하는 단계를 추가로 포함한다.
구현 6은 구현 1의 컴퓨터에 의해 구현되는 방법이고, 여기서 온도 값은 트랜스듀서의 온도 값을 나타낸다. 본 방법은, 결정된 온도 값 및 사용자 이어피스가 위치되는 환경의 환경 온도 값을 사용하여, 사용자 신체 온도 값을 서로 상관관계를 갖는(correlate to each other) 사용자 신체 온도, 사용자 이어피스 온도, 및 환경 온도의 이전에 교정된 세트들에 상관시키는 것에 의해 사용자 이어피스에 인접하며 접촉하는 사용자 신체의 사용자 신체 온도 값을 추정하는 단계를 추가로 포함한다.
구현 7은 구현 1의 컴퓨터에 의해 구현되는 방법이다. 본 방법은, 오디오 프로세싱 디바이스에 의해, 사용자 이어피스가 사용자 귀에 위치되어 있지 않다고 결정하는 단계를 추가로 포함하고, 여기서 결정된 온도 값이 환경 온도 값으로서 지정되도록, 소스 오디오 신호의 재생 및 레코딩된 오디오 신호의 레코딩은 오디오 프로세싱 디바이스가 사용자 이어피스가 사용자 귀에 위치되어 있지 않다고 결정한 동안에 일어난다.
구현 8은 구현 7의 컴퓨터에 의해 구현되는 방법이다. 본 방법은, 오디오 프로세싱 디바이스에 의해 그리고 사용자 이어피스가 사용자 귀에 위치되어 있지 않은 것으로 결정된 후에, 사용자 이어피스가 이제 사용자 귀에 위치되어 있다고 결정하는 단계, 및 그에 응답하여: (i) 오디오 프로세싱 디바이스를 이용해, 전기음향 트랜스듀서를 사용하여 제2 소스 오디오 신호를 재생하는 단계, (ii) 오디오 프로세싱 디바이스를 이용해 그리고 제2 소스 오디오 신호를 재생하는 동안, 제2 레코딩된 오디오 신호를 레코딩하는 단계, 및 (iii) 오디오 프로세싱 디바이스에 의해, 하나 이상의 파라미터의 적용으로 인해 발생되는 제2 소스 오디오 신호에 대한 변화들을 고려하여, 오디오 프로세싱 디바이스에 의해 재생된 제2 소스 오디오 신호가 제2 레코딩된 오디오 신호를 초래하게 하는 것으로 추정된 제2 온도 값을 결정하는 단계를 추가로 포함하며, 여기서 이어피스가 사용자 귀에 배치된 후에 이어피스의 온도가 변하였기 때문에 제2 온도 값은 환경 온도 값으로서 지정되는 결정된 온도 값과 상이하다. 본 방법은, 오디오 프로세싱 디바이스에 의해, 환경 온도 값으로서 지정되는 결정된 온도 값 및 제2 온도 값을 사용하여 사용자 신체 온도 값을 추정하는 단계를 추가로 포함한다.
구현 9는 구현 8의 컴퓨터에 의해 구현되는 방법이고, 여기서 결정된 온도 값 및 제2 온도 값을 사용하여 사용자 신체 온도를 추정하는 단계는 사용자 신체 온도를 서로 상관관계를 갖는 사용자 신체 온도, 사용자 이어피스 온도, 및 환경 온도의 이전에 교정된 세트들에 상관시키는 단계를 포함한다.
구현 10은 하나 이상의 프로세서; 및 하나 이상의 프로세서에 의해 실행될 때, 청구항 1 내지 청구항 9의 방법 중 임의의 것을 수행하는 동작들을 수행하게 하는 명령어들을 저장하고 있는 하나 이상의 컴퓨터 판독가능 매체를 포함하는 컴퓨팅 시스템이다.
구현 11은, 하나 이상의 프로세서에 의해 실행될 때, 청구항 1 내지 청구항 9의 방법들 중 임의의 것을 수행하는 동작들을 수행하게 하는 명령어들을 저장하고 있는 하나 이상의 컴퓨터 판독가능 매체이다.
다른 온도 측정 메커니즘
구현 1은 컴퓨터에 의해 구현되는 방법이다. 본 방법은, 소스 오디오 신호가 사용자 이어피스의 전기음향 트랜스듀서에 의해 청각적으로 출력되게 하는 단계를 포함한, 오디오 프로세싱 디바이스를 이용해, 소스 오디오 신호를 재생하는 단계를 포함한다. 본 방법은, 오디오 프로세싱 디바이스를 이용해 그리고 소스 오디오 신호를 재생하는 동안, 레코딩된 오디오 신호를 사용자 이어피스의 전기음향 트랜스듀서를 사용하여 레코딩하는 단계를 포함한다. 본 방법은, 오디오 프로세싱 디바이스에 의해, 이어피스의 속성들이 전기음향 트랜스듀서에 의한 소스 오디오 신호의 재생에 어떻게 영향을 미치는지를 나타내는 하나 이상의 파라미터를 식별하는 단계를 포함한다. 본 방법은, 오디오 프로세싱 디바이스에 의해, 이어피스의 속성들이 소스 오디오 신호의 재생에 어떻게 영향을 미치는지를 나타내는 하나 이상의 파라미터의 적용으로 인해 발생되는 소스 오디오 신호에 대한 변화들을 고려하여, 사용자 이어피스가 위치되는 사용자 귀 환경의 속성들이 오디오 프로세싱 디바이스에 의해 재생된 소스 오디오 신호에 어떻게 영향을 미치는지를 나타내는 파라미터를 결정하는 단계를 포함한다. 본 방법은, 오디오 프로세싱 디바이스에 의해, 사용자 귀의 속성들이 소스 오디오 신호에 어떻게 영향을 미치는지를 나타내는 파라미터를 사용하여 온도 값을 결정하는 단계를 포함한다.
구현 2는 구현 1의 컴퓨터에 의해 구현되는 방법이고, 여기서 온도 값은 사용자 귀 환경의 상대 온도 값을 나타낸다. 본 방법은, 사용자 귀 환경의 절대 온도 값을 생성하기 위해 오프셋 상수 및 스케일링 상수를 사용하여 온도 값을 수정하는 단계를 추가로 포함하고, 여기서 오프셋 상수 및 스케일링 상수는 사용자 이어피스 또는 사용자 이어피스의 타입에 대해 교정된 값들이다.
구현 3은 하나 이상의 프로세서; 및 하나 이상의 프로세서에 의해 실행될 때, 구현 1 및 구현 2의 방법 중 임의의 것을 수행하는 동작들을 수행하게 하는 명령어들을 저장하고 있는 하나 이상의 컴퓨터 판독가능 매체를 포함하는 컴퓨팅 시스템이다.
구현 4는, 하나 이상의 프로세서에 의해 실행될 때, 구현 1 및 구현 2의 방법들 중 임의의 것을 수행하는 동작들을 수행하게 하는 명령어들을 저장하고 있는 하나 이상의 컴퓨터 판독가능 매체이다.
일부 구현들에서, 오디오 프로세싱 디바이스는, 귀내 검출 기법들, 사전 레코딩된 사운드들을 이용한 능동 잡음 제거 기법들, 및 청각 기반 인증 기법들 중 2개 이상을 포함한, 본 명세서에 기술된 기법들의 다양한 조합들을 수행하도록 구성될 수 있다.
일부 구현들에서, 본 명세서에 기술된 기법들은 무선 연결(예컨대, 블루투스)을 통해 컴퓨팅 디바이스와 통신가능하게 결합되는 무선 이어피스들을 사용하여 수행될 수 있다. 예를 들어, 무선 이어피스들은, 예컨대, 청각 기반 인증, 귀내 검출, 및/또는 사전 레코딩된 사운드들을 이용한 능동 잡음 제거를 수행하기 위해, 레코딩된 사운드들을 디지털적으로 샘플링하고 헤드셋에서 로컬로 사운드들을 프로세싱하거나 레코딩된 신호를 별개의 오디오 프로세싱 디바이스로 전송할 수 있다.

Claims (20)

  1. 컴퓨터에 의해 구현되는 방법으로서,
    소스 오디오 신호가 사용자 이어피스(user earpiece)의 전기음향 트랜스듀서(electroacoustic transducer)에 의해 청각적으로 출력되게 하는 단계를 포함한, 오디오 프로세싱 디바이스를 이용해, 상기 소스 오디오 신호를 재생하는 단계;
    상기 오디오 프로세싱 디바이스를 이용해, 상기 사용자 이어피스의 동일한 상기 전기음향 트랜스듀서를 사용하여 청각 신호(aural signal)를 레코딩하는 단계;
    상기 소스 오디오 신호를 재생한 결과로서, 상기 사용자 이어피스가 위치되는 공간의 특성을 나타내는 상기 청각 신호의 하나 이상의 특징의 값들을 결정하는 단계;
    상기 청각 신호의 상기 하나 이상의 특징의 상기 결정된 값들을 정의된 값들과 비교하는 단계; 및
    상기 청각 신호의 상기 하나 이상의 특징의 상기 결정된 값들을 상기 정의된 값들과 비교한 결과에 기초하여, 상기 사용자 이어피스가 사용자의 귀에 위치되는지를 결정하는 단계
    를 포함하는, 컴퓨터에 의해 구현되는 방법.
  2. 제1항에 있어서, 상기 사용자 이어피스가 상기 사용자의 귀에 위치되는지에 기초하여 특정된 액션을 수행할지를 결정하는 단계를 추가로 포함하는, 컴퓨터에 의해 구현되는 방법.
  3. 제1항에 있어서,
    제1 시간에서, 상기 사용자 이어피스가 상기 사용자의 귀에 위치된다고 결정하는 단계;
    상기 제1 시간 이후의 제2 시간에서, 상기 사용자 이어피스의 상기 위치가 상기 사용자의 귀에 있는 것으로부터 상기 사용자의 귀에 있지 않은 것으로 변경되었다고 결정하는 단계; 및
    상기 사용자 이어피스의 상기 위치가 상기 사용자의 귀에 있는 것으로부터 상기 사용자의 귀에 있지 않은 것으로 변경되었다고 결정한 것에 응답하여, 특정된 액션을 수행하는 단계
    를 추가로 포함하는, 컴퓨터에 의해 구현되는 방법.
  4. 제3항에 있어서, 상기 특정된 액션은 미디어 파일을 재생하는 것, 상기 미디어 파일을 일시중지시키는 것, 상기 미디어 파일을 정지시키는 것, 일시중지된 미디어 파일의 재생을 재개하는 것, 전자 디스플레이를 활성화시키는 것, 상기 전자 디스플레이의 백라이트의 밝기 설정을 조정하는 것, 디바이스를 잠금 모드로 전환하는 것, 디바이스를 잠금 모드로부터 전환하는 것, 전화 통화를 개시하는 것, 전화 통화를 종료하는 것, 애플리케이션을 론칭하는 것, 또는 애플리케이션을 닫는 것 중 적어도 하나를 포함하는, 컴퓨터에 의해 구현되는 방법.
  5. 제1항에 있어서,
    제1 시간에서, 상기 사용자 이어피스가 상기 사용자의 귀에 위치되어 있지 않다고 결정하는 단계;
    상기 제1 시간 이후의 제2 시간에서, 상기 사용자 이어피스의 상기 위치가 상기 사용자의 귀에 있지 않은 것으로부터 상기 사용자의 귀에 있는 것으로 변경되었다고 결정하는 단계; 및
    상기 사용자 이어피스의 상기 위치가 상기 사용자의 귀에 있지 않은 것으로부터 상기 사용자의 귀에 있는 것으로 변경되었다고 결정한 것에 응답하여, 특정된 액션을 수행하는 단계
    를 추가로 포함하는, 컴퓨터에 의해 구현되는 방법.
  6. 제5항에 있어서, 상기 특정된 액션은 미디어 파일을 재생하는 것, 상기 미디어 파일을 일시중지시키는 것, 상기 미디어 파일을 정지시키는 것, 일시중지된 미디어 파일의 재생을 재개하는 것, 전자 디스플레이를 활성화시키는 것, 상기 전자 디스플레이의 백라이트의 밝기 설정을 조정하는 것, 디바이스를 잠금 모드로 전환하는 것, 디바이스를 잠금 모드로부터 전환하는 것, 전화 통화를 개시하는 것, 전화 통화를 종료하는 것, 애플리케이션을 론칭하는 것, 또는 애플리케이션을 닫는 것 중 적어도 하나를 포함하는, 컴퓨터에 의해 구현되는 방법.
  7. 제1항에 있어서, (i) 상기 사용자의 귀에 있지 않은 것으로부터 상기 사용자의 귀에 있는 것으로 또는 (ii) 상기 사용자의 귀에 있는 것으로부터 상기 사용자의 귀에 있지 않은 것으로의 상기 사용자 이어피스의 위치의 변화가 있는지 모니터링하기 위해 상기 사용자 이어피스가 상기 사용자의 귀에 위치되는지를 일정 시간 기간에 걸쳐 반복하여 결정하는 단계를 추가로 포함하는, 컴퓨터에 의해 구현되는 방법.
  8. 제1항에 있어서, 상기 오디오 프로세싱 디바이스를 이용해 상기 소스 오디오 신호를 재생하는 것과 동시에 상기 오디오 프로세싱 디바이스를 이용해 상기 청각 신호를 레코딩하는 단계를 추가로 포함하는, 컴퓨터에 의해 구현되는 방법.
  9. 제1항에 있어서, 상기 사용자 이어피스의 동일한 상기 전기음향 트랜스듀서는 (i) 상기 소스 오디오 신호를 청각적으로 출력하는 스피커 및 (ii) 상기 소스 오디오 신호가 재생되는 동안 상기 청각 신호를 감지하는 마이크로폰으로서 동시에 기능하는, 컴퓨터에 의해 구현되는 방법.
  10. 제1항에 있어서, 상기 청각 신호의 상기 하나 이상의 특징은 상기 사용자 이어피스가 위치되는 상기 공간의 음향 에코의 임펄스 응답을 포함하는, 컴퓨터에 의해 구현되는 방법.
  11. 제1항에 있어서, 상기 정의된 값들은 상기 사용자의 귀 내의 공간을 특징짓는 모델을 포함하는, 컴퓨터에 의해 구현되는 방법.
  12. 제1항에 있어서, 상기 정의된 값들은 상기 사용자 이어피스가 상기 사용자의 귀에 위치되는 것으로 결정되었을 때 상기 소스 오디오 신호 또는 다른 오디오 신호를 재생하는 것으로 인해 생긴 청각 신호들의 상기 하나 이상의 특징의 이전에 결정된 값들에 적어도 부분적으로 기초하여 결정되는, 컴퓨터에 의해 구현되는 방법.
  13. 제1항에 있어서, 상기 정의된 값들은 상기 사용자 이어피스가 상기 사용자 이외의 하나 이상의 사용자의 각자의 귀들에 위치되었을 때 상기 소스 오디오 신호 또는 다른 오디오 신호를 재생하는 것으로 인해 생긴 청각 신호들의 상기 하나 이상의 특징의 값들에 적어도 부분적으로 기초하여 결정되는, 컴퓨터에 의해 구현되는 방법.
  14. 제1항에 있어서, 상기 이어피스는 헤드폰 또는 이어버드(earbud)를 포함하는, 컴퓨터에 의해 구현되는 방법.
  15. 제1항에 있어서, 상기 오디오 프로세싱 디바이스는 휴대용 디지털 미디어 플레이어, 스마트폰, 태블릿 컴퓨팅 디바이스, 노트북 컴퓨팅 디바이스, 데스크톱 컴퓨팅 디바이스, 또는 웨어러블 컴퓨팅 디바이스를 포함하는, 컴퓨터에 의해 구현되는 방법.
  16. 제1항에 있어서, 상기 소스 오디오 신호를 재생하는 단계는 백색 잡음을 재생하는 단계를 포함하는, 컴퓨터에 의해 구현되는 방법.
  17. 제1항에 있어서, 상기 소스 오디오 신호를 재생하는 단계는 노래 또는 음성 콘텐츠(spoken content)를 상기 오디오 프로세싱 디바이스의 상기 사용자에게 재생하는 단계를 포함하는, 컴퓨터에 의해 구현되는 방법.
  18. 제1항에 있어서, 상기 소스 오디오 신호를 재생하는 단계는, 상기 재생된 사운드가 인간 청력의 정상 주파수 한계 초과이도록, 20 킬로헤르츠 초과의 평균 주파수를 갖는 사운드를 재생하는 단계를 포함하는, 컴퓨터에 의해 구현되는 방법.
  19. 컴퓨팅 시스템으로서,
    하나 이상의 프로세서; 및
    상기 하나 이상의 프로세서에 의해 실행될 때, 동작들을 수행하게 하는 명령어들을 저장하고 있는 하나 이상의 컴퓨터 판독가능 매체
    를 포함하며, 상기 동작들은:
    소스 오디오 신호가 사용자 이어피스의 전기음향 트랜스듀서에 의해 청각적으로 출력되게 하는 동작을 포함한, 오디오 프로세싱 디바이스를 이용해, 상기 소스 오디오 신호를 재생하는 동작;
    상기 오디오 프로세싱 디바이스를 이용해, 상기 사용자 이어피스의 동일한 상기 전기음향 트랜스듀서를 사용하여 청각 신호를 레코딩하는 동작;
    상기 소스 오디오 신호를 재생한 결과로서, 상기 사용자 이어피스가 위치되는 공간의 특성을 나타내는 상기 청각 신호의 하나 이상의 특징의 값들을 결정하는 동작;
    상기 청각 신호의 상기 하나 이상의 특징의 상기 결정된 값들을 정의된 값들과 비교하는 동작; 및
    상기 청각 신호의 상기 하나 이상의 특징의 상기 결정된 값들을 상기 정의된 값들과 비교한 결과에 기초하여, 상기 사용자 이어피스가 사용자의 귀에 위치되는지를 결정하는 동작
    을 포함하는, 컴퓨팅 시스템.
  20. 하나 이상의 프로세서에 의해 실행될 때, 동작들을 수행하게 하는 명령어들을 저장하고 있는 하나 이상의 컴퓨터 판독가능 매체로서, 상기 동작들은:
    소스 오디오 신호가 사용자 이어피스의 전기음향 트랜스듀서에 의해 청각적으로 출력되게 하는 동작을 포함한, 오디오 프로세싱 디바이스를 이용해, 상기 소스 오디오 신호를 재생하는 동작;
    상기 오디오 프로세싱 디바이스를 이용해, 상기 사용자 이어피스의 동일한 상기 전기음향 트랜스듀서를 사용하여 청각 신호를 레코딩하는 동작;
    상기 소스 오디오 신호를 재생한 결과로서, 상기 사용자 이어피스가 위치되는 공간의 특성을 나타내는 상기 청각 신호의 하나 이상의 특징의 값들을 결정하는 동작;
    상기 청각 신호의 상기 하나 이상의 특징의 상기 결정된 값들을 정의된 값들과 비교하는 동작; 및
    상기 청각 신호의 상기 하나 이상의 특징의 상기 결정된 값들을 상기 정의된 값들과 비교한 결과에 기초하여, 상기 사용자 이어피스가 사용자의 귀에 위치되는지를 결정하는 동작
    을 포함하는, 하나 이상의 컴퓨터 판독가능 매체.
KR1020187037293A 2016-05-27 2017-05-26 사용자 귀에서의 이어피스 존재의 결정 KR20190013880A (ko)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201662342871P 2016-05-27 2016-05-27
US201662342872P 2016-05-27 2016-05-27
US201662342869P 2016-05-27 2016-05-27
US62/342,872 2016-05-27
US62/342,869 2016-05-27
US62/342,871 2016-05-27
US201662379160P 2016-08-24 2016-08-24
US62/379,160 2016-08-24
PCT/IB2017/053123 WO2017203484A1 (en) 2016-05-27 2017-05-26 Determining earpiece presence at a user ear

Publications (1)

Publication Number Publication Date
KR20190013880A true KR20190013880A (ko) 2019-02-11

Family

ID=59067715

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187037293A KR20190013880A (ko) 2016-05-27 2017-05-26 사용자 귀에서의 이어피스 존재의 결정

Country Status (8)

Country Link
US (3) US10097914B2 (ko)
EP (1) EP3466106A1 (ko)
JP (1) JP2019523581A (ko)
KR (1) KR20190013880A (ko)
CN (1) CN109196879A (ko)
AU (1) AU2017268930A1 (ko)
CA (1) CA3025726A1 (ko)
WO (1) WO2017203484A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210008329A (ko) * 2019-07-08 2021-01-21 애플 인크. 헤드폰 피트 조정 및 오디오 출력 제어를 위한 시스템, 방법, 및 사용자 인터페이스
US11941319B2 (en) 2020-07-20 2024-03-26 Apple Inc. Systems, methods, and graphical user interfaces for selecting audio output modes of wearable audio output devices

Families Citing this family (82)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
BR112015018905B1 (pt) 2013-02-07 2022-02-22 Apple Inc Método de operação de recurso de ativação por voz, mídia de armazenamento legível por computador e dispositivo eletrônico
US11178478B2 (en) 2014-05-20 2021-11-16 Mobile Physics Ltd. Determining a temperature value by analyzing audio
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
CA3025726A1 (en) 2016-05-27 2017-11-30 Bugatone Ltd. Determining earpiece presence at a user ear
JP7077948B2 (ja) * 2016-09-16 2022-05-31 日本電気株式会社 個人認証装置、個人認証方法および個人認証プログラム
US20190213313A1 (en) * 2016-09-16 2019-07-11 Nec Corporation Personal authentication device, personal authentication method, and recording medium
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
GB2578386B (en) 2017-06-27 2021-12-01 Cirrus Logic Int Semiconductor Ltd Detection of replay attack
GB201713697D0 (en) 2017-06-28 2017-10-11 Cirrus Logic Int Semiconductor Ltd Magnetic detection of replay attack
GB2563953A (en) 2017-06-28 2019-01-02 Cirrus Logic Int Semiconductor Ltd Detection of replay attack
GB201801526D0 (en) 2017-07-07 2018-03-14 Cirrus Logic Int Semiconductor Ltd Methods, apparatus and systems for authentication
GB201801527D0 (en) * 2017-07-07 2018-03-14 Cirrus Logic Int Semiconductor Ltd Method, apparatus and systems for biometric processes
GB201801532D0 (en) * 2017-07-07 2018-03-14 Cirrus Logic Int Semiconductor Ltd Methods, apparatus and systems for audio playback
GB201801530D0 (en) 2017-07-07 2018-03-14 Cirrus Logic Int Semiconductor Ltd Methods, apparatus and systems for authentication
GB201801528D0 (en) 2017-07-07 2018-03-14 Cirrus Logic Int Semiconductor Ltd Method, apparatus and systems for biometric processes
GB2567503A (en) 2017-10-13 2019-04-17 Cirrus Logic Int Semiconductor Ltd Analysing speech signals
GB201804843D0 (en) 2017-11-14 2018-05-09 Cirrus Logic Int Semiconductor Ltd Detection of replay attack
GB201801664D0 (en) 2017-10-13 2018-03-21 Cirrus Logic Int Semiconductor Ltd Detection of liveness
GB201801874D0 (en) 2017-10-13 2018-03-21 Cirrus Logic Int Semiconductor Ltd Improving robustness of speech processing system against ultrasound and dolphin attacks
GB201801661D0 (en) 2017-10-13 2018-03-21 Cirrus Logic International Uk Ltd Detection of liveness
GB201801663D0 (en) 2017-10-13 2018-03-21 Cirrus Logic Int Semiconductor Ltd Detection of liveness
GB201803570D0 (en) 2017-10-13 2018-04-18 Cirrus Logic Int Semiconductor Ltd Detection of replay attack
CN109754821B (zh) * 2017-11-07 2023-05-02 北京京东尚科信息技术有限公司 信息处理方法及其系统、计算机系统和计算机可读介质
GB201801659D0 (en) 2017-11-14 2018-03-21 Cirrus Logic Int Semiconductor Ltd Detection of loudspeaker playback
KR102488001B1 (ko) 2018-01-22 2023-01-13 삼성전자주식회사 오디오 신호를 이용하여 사용자를 인증하는 전자 장치 및 그 방법
US11264037B2 (en) 2018-01-23 2022-03-01 Cirrus Logic, Inc. Speaker identification
US11475899B2 (en) 2018-01-23 2022-10-18 Cirrus Logic, Inc. Speaker identification
US11735189B2 (en) 2018-01-23 2023-08-22 Cirrus Logic, Inc. Speaker identification
JP6610693B2 (ja) * 2018-03-20 2019-11-27 株式会社Jvcケンウッド 車両用撮像記録装置、車両用撮像制御方法及びプログラム
US10810291B2 (en) * 2018-03-21 2020-10-20 Cirrus Logic, Inc. Ear proximity detection
CN108391205B (zh) * 2018-03-30 2021-01-22 Oppo广东移动通信有限公司 左右声道切换方法和装置、可读存储介质、终端
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
CN108810787B (zh) * 2018-05-28 2021-08-31 Oppo广东移动通信有限公司 基于音频设备的异物检测方法和装置、终端
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US10956546B2 (en) * 2018-06-05 2021-03-23 Cirrus Logic, Inc. Methods, apparatus and computer-readable mediums related to biometric authentication
WO2020014853A1 (zh) * 2018-07-17 2020-01-23 万魔声学科技有限公司 耳机、耳机入耳检测的方法及系统
CN110740396A (zh) * 2018-07-18 2020-01-31 安克创新科技股份有限公司 一种降噪耳机
US10692490B2 (en) 2018-07-31 2020-06-23 Cirrus Logic, Inc. Detection of replay attack
US10915614B2 (en) 2018-08-31 2021-02-09 Cirrus Logic, Inc. Biometric authentication
JP7120313B2 (ja) * 2018-08-31 2022-08-17 日本電気株式会社 生体認証装置、生体認証方法およびプログラム
US11037574B2 (en) 2018-09-05 2021-06-15 Cirrus Logic, Inc. Speaker recognition and speaker change detection
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US10878796B2 (en) * 2018-10-10 2020-12-29 Samsung Electronics Co., Ltd. Mobile platform based active noise cancellation (ANC)
WO2020089983A1 (en) * 2018-10-29 2020-05-07 Nec Corporation Recognition apparatus, recognition method, and computer-readable recording medium
US10491981B1 (en) 2018-12-14 2019-11-26 Apple Inc. Acoustic in ear detection for a hearable device
JP7317448B2 (ja) * 2018-12-18 2023-07-31 三星電子株式会社 生体情報検出装置
JP7028339B2 (ja) * 2018-12-19 2022-03-02 日本電気株式会社 情報処理装置、装着型機器、情報処理方法及び記憶媒体
EP3902283A4 (en) * 2018-12-19 2022-01-12 NEC Corporation INFORMATION PROCESSING DEVICE, WEARABLE DEVICE, INFORMATION PROCESSING METHOD AND STORAGE MEDIA
WO2020174681A1 (ja) * 2019-02-28 2020-09-03 日本電気株式会社 状態推定装置、状態推定方法、及びコンピュータ読み取り可能な記録媒体
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
JP2020161949A (ja) 2019-03-26 2020-10-01 日本電気株式会社 聴覚ウェアラブルデバイス管理システム、聴覚ウェアラブルデバイス管理方法およびそのプログラム
CN110087161B (zh) * 2019-04-23 2020-07-07 青岛恒茂电子有限公司 一种蓝牙耳机的佩戴状态切换方法、耳机及存储介质
GB2584495B (en) * 2019-04-29 2021-09-01 Cirrus Logic Int Semiconductor Ltd Methods, apparatus and systems for authentication
GB2583543B (en) 2019-04-29 2021-08-25 Cirrus Logic Int Semiconductor Ltd Methods, apparatus and systems for biometric processes
US11531738B2 (en) * 2019-04-29 2022-12-20 Cirrus Logic, Inc. Methods, apparatus and systems for biometric processes
US11483664B2 (en) 2019-04-29 2022-10-25 Cirrus Logic, Inc. Methods, apparatus and systems for biometric processes
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
CN110278509A (zh) * 2019-07-26 2019-09-24 歌尔股份有限公司 一种无线耳机控制方法、装置及无线耳机和存储介质
US10880667B1 (en) * 2019-09-04 2020-12-29 Facebook Technologies, Llc Personalized equalization of audio output using 3D reconstruction of an ear of a user
CN110769354B (zh) * 2019-10-25 2021-11-30 歌尔股份有限公司 一种用户语音检测装置、方法及耳机
CN110677768A (zh) * 2019-10-31 2020-01-10 歌尔科技有限公司 一种无线耳机控制方法、装置及无线耳机和存储介质
EP4052485A1 (en) * 2019-11-01 2022-09-07 Starkey Laboratories, Inc. Ear-based biometric identification
GB2604496B (en) * 2019-11-04 2023-09-06 Cirrus Logic Int Semiconductor Ltd Methods, apparatus and systems for biometric processes
US11900730B2 (en) * 2019-12-18 2024-02-13 Cirrus Logic Inc. Biometric identification
CN111200769B (zh) * 2020-01-08 2022-01-28 昆山泰芯微电子有限公司 一种用于蓝牙耳机设备的通信方法以及蓝牙耳机设备
CN111343534A (zh) * 2020-03-02 2020-06-26 昆山众赢昌盛贸易有限公司 无线耳机入耳检测方法及无线耳机
CN111491234B (zh) * 2020-04-16 2022-01-28 广东思派康电子科技有限公司 一种头戴式降噪耳机
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US20210393168A1 (en) * 2020-06-22 2021-12-23 Bose Corporation User authentication via in-ear acoustic measurements
US11183205B1 (en) * 2020-07-08 2021-11-23 Cirrus Logic, Inc. Methods and apparatus for biometric processes
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
US11122350B1 (en) * 2020-08-18 2021-09-14 Cirrus Logic, Inc. Method and apparatus for on ear detect
JP2022056790A (ja) * 2020-09-30 2022-04-11 フォスター電機株式会社 ヘッドセット
JP2022089615A (ja) * 2020-12-04 2022-06-16 パナソニックIpマネジメント株式会社 イヤホンおよび装着感調整方法
US20230370760A1 (en) * 2022-05-16 2023-11-16 Microsoft Technology Licensing, Llc Earbud location detection based on acoustical signature with user-specific customization

Family Cites Families (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6017052Y2 (ja) 1979-06-21 1985-05-27 ソニー株式会社 テ−プレコ−ダ
CN2162063Y (zh) 1993-05-07 1994-04-13 王建军 录放音耳机
US5787187A (en) 1996-04-01 1998-07-28 Sandia Corporation Systems and methods for biometric identification using the acoustic properties of the ear canal
US5990784A (en) 1996-12-17 1999-11-23 Yosemite Investment, Inc. Schmitt trigger loud alarm with feedback
JPH11205166A (ja) 1998-01-19 1999-07-30 Mitsubishi Electric Corp ノイズ検出装置
JP2000059876A (ja) 1998-08-13 2000-02-25 Sony Corp 音響装置およびヘッドホン
GB2375205A (en) 2001-05-03 2002-11-06 Orange Personal Comm Serv Ltd Determining identity of a user
US7359504B1 (en) 2002-12-03 2008-04-15 Plantronics, Inc. Method and apparatus for reducing echo and noise
GB2434708B (en) 2006-01-26 2008-02-27 Sonaptic Ltd Ambient noise reduction arrangements
US7706821B2 (en) 2006-06-20 2010-04-27 Alon Konchitsky Noise reduction system and method suitable for hands free communication devices
US20070297634A1 (en) * 2006-06-27 2007-12-27 Sony Ericsson Mobile Communications Ab Earphone system with usage detection
US7773759B2 (en) 2006-08-10 2010-08-10 Cambridge Silicon Radio, Ltd. Dual microphone noise reduction for headset application
US8249265B2 (en) 2006-09-15 2012-08-21 Shumard Eric L Method and apparatus for achieving active noise reduction
US8652040B2 (en) 2006-12-19 2014-02-18 Valencell, Inc. Telemetric apparatus for health and environmental monitoring
JP5007561B2 (ja) 2006-12-27 2012-08-22 ソニー株式会社 ノイズ低減装置、ノイズ低減方法、ノイズ低減処理用プログラム、ノイズ低減音声出力装置およびノイズ低減音声出力方法
GB2441835B (en) 2007-02-07 2008-08-20 Sonaptic Ltd Ambient noise reduction system
US20090003617A1 (en) 2007-06-28 2009-01-01 Goldman Stuart O Noise cancellation for buildings and/or structures
US8229145B2 (en) * 2007-09-05 2012-07-24 Avaya Inc. Method and apparatus for configuring a handheld audio device using ear biometrics
PL2214554T3 (pl) 2007-11-27 2012-06-29 Koninl Philips Electronics Nv Sposób i urządzenie do słuchowego monitorowania pracy serca
JP4572945B2 (ja) 2008-03-28 2010-11-04 ソニー株式会社 ヘッドフォン装置、信号処理装置、信号処理方法
ATE548725T1 (de) 2008-10-31 2012-03-15 Austriamicrosystems Ag Aktive rauschsteueranordnung, aktiver rauschsteuerungskopfhörer und kalibrierungsverfahren
KR100986527B1 (ko) 2008-12-04 2010-10-07 한국기술교육대학교 산학협력단 음악선곡시스템 및 그 방법
JP4521461B2 (ja) * 2008-12-25 2010-08-11 株式会社東芝 音響処理装置、音響再生装置、及び音響処理方法
EP2202998B1 (en) 2008-12-29 2014-02-26 Nxp B.V. A device for and a method of processing audio data
US20100174390A1 (en) 2009-01-02 2010-07-08 Peter Garrett Solid-State Music Player And Host Docking System
US8705784B2 (en) * 2009-01-23 2014-04-22 Sony Corporation Acoustic in-ear detection for earpiece
CN102365875B (zh) * 2009-03-30 2014-09-24 伯斯有限公司 个人声学设备位置确定
US8699719B2 (en) * 2009-03-30 2014-04-15 Bose Corporation Personal acoustic device position determination
US8184822B2 (en) 2009-04-28 2012-05-22 Bose Corporation ANR signal processing topology
US20100296666A1 (en) 2009-05-25 2010-11-25 National Chin-Yi University Of Technology Apparatus and method for noise cancellation in voice communication
US8737636B2 (en) 2009-07-10 2014-05-27 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for adaptive active noise cancellation
US8401200B2 (en) * 2009-11-19 2013-03-19 Apple Inc. Electronic device and headset with speaker seal evaluation capabilities
US8509882B2 (en) 2010-06-08 2013-08-13 Alivecor, Inc. Heart monitoring system usable with a smartphone or computer
US8774875B1 (en) 2010-10-20 2014-07-08 Sprint Communications Company L.P. Spatial separation-enabled noise reduction
US8693700B2 (en) 2011-03-31 2014-04-08 Bose Corporation Adaptive feed-forward noise reduction
WO2012167234A1 (en) * 2011-06-02 2012-12-06 Cedars-Sinai Medical Center Earphones and hearing aids
US20130196721A1 (en) 2011-07-26 2013-08-01 Aloft Technologies, Inc. Wireless headset
US8750528B2 (en) * 2011-08-16 2014-06-10 Fortemedia, Inc. Audio apparatus and audio controller thereof
TW201330645A (zh) 2012-01-05 2013-07-16 Richtek Technology Corp 降低雜訊的錄音裝置及其方法
US9344815B2 (en) * 2013-02-11 2016-05-17 Symphonic Audio Technologies Corp. Method for augmenting hearing
US9467776B2 (en) * 2013-03-15 2016-10-11 Cirrus Logic, Inc. Monitoring of speaker impedance to detect pressure applied between mobile device and ear
KR102045600B1 (ko) 2013-05-02 2019-11-15 부가톤 엘티디. 이어폰 능동 노이즈 제어
TWI551153B (zh) * 2013-11-01 2016-09-21 瑞昱半導體股份有限公司 驅動揚聲器的電路及方法
EP3066820B1 (en) * 2013-11-06 2018-03-21 Sony Corporation Method in an electronic mobile device, and such a device
US20150168996A1 (en) * 2013-12-17 2015-06-18 United Sciences, Llc In-ear wearable computer
US9560445B2 (en) * 2014-01-18 2017-01-31 Microsoft Technology Licensing, Llc Enhanced spatial impression for home audio
US9825598B2 (en) 2014-04-08 2017-11-21 Doppler Labs, Inc. Real-time combination of ambient audio and a secondary audio source
US9524731B2 (en) 2014-04-08 2016-12-20 Doppler Labs, Inc. Active acoustic filter with location-based filter characteristics
US9648436B2 (en) 2014-04-08 2017-05-09 Doppler Labs, Inc. Augmented reality sound system
US9557960B2 (en) 2014-04-08 2017-01-31 Doppler Labs, Inc. Active acoustic filter with automatic selection of filter parameters based on ambient sound
WO2015166482A1 (en) 2014-05-01 2015-11-05 Bugatone Ltd. Methods and devices for operating an audio processing integrated circuit to record an audio signal via a headphone port
CN105097000A (zh) * 2014-05-05 2015-11-25 昆山研达电脑科技有限公司 智能控制离开人耳的耳机及智能控制耳机离开人耳的方法
GB2542054B (en) * 2014-05-13 2021-04-14 Crutchfield Corp Virtual simulation of spatial audio characteristics
FR3021180B1 (fr) 2014-05-16 2016-06-03 Parrot Casque audio a controle actif de bruit anc avec prevention des effets d'une saturation du signal microphonique "feedback"
KR20170007451A (ko) 2014-05-20 2017-01-18 부가톤 엘티디. 이어폰 출력 스피커로부터의 청각적 측정
WO2016067942A1 (ja) 2014-10-28 2016-05-06 株式会社三菱ケミカルホールディングス 検体情報処理装置、情報処理方法、情報処理プログラム、及び同プログラムを記録したコンピュータ読み取り可能な記録媒体
EP3062532B1 (en) * 2015-02-27 2018-08-01 Oticon A/s A method of adapting a hearing device to a user's ear, and a hearing device
CN105451111B (zh) * 2015-12-10 2019-03-19 小米科技有限责任公司 耳机播放控制方法、装置及终端
CA3025726A1 (en) 2016-05-27 2017-11-30 Bugatone Ltd. Determining earpiece presence at a user ear
US20180357470A1 (en) * 2017-06-08 2018-12-13 Stmicroelectronics, Inc. Biometric ear identification

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210008329A (ko) * 2019-07-08 2021-01-21 애플 인크. 헤드폰 피트 조정 및 오디오 출력 제어를 위한 시스템, 방법, 및 사용자 인터페이스
US11941319B2 (en) 2020-07-20 2024-03-26 Apple Inc. Systems, methods, and graphical user interfaces for selecting audio output modes of wearable audio output devices

Also Published As

Publication number Publication date
US20190273982A1 (en) 2019-09-05
JP2019523581A (ja) 2019-08-22
US10659867B2 (en) 2020-05-19
US10097914B2 (en) 2018-10-09
CA3025726A1 (en) 2017-11-30
US20180376234A1 (en) 2018-12-27
WO2017203484A1 (en) 2017-11-30
EP3466106A1 (en) 2019-04-10
US10334350B2 (en) 2019-06-25
US20170347180A1 (en) 2017-11-30
CN109196879A (zh) 2019-01-11
AU2017268930A1 (en) 2018-12-06

Similar Documents

Publication Publication Date Title
US10659867B2 (en) Identifying an acoustic signal for a user based on a feature of an aural signal
AU2016213897B2 (en) Adaptive room equalization using a speaker and a handheld listening device
US9706305B2 (en) Enhancing audio using a mobile device
US11665488B2 (en) Auditory device assembly
Fan et al. HeadFi: bringing intelligence to all headphones
KR20130114162A (ko) 녹음된 사운드 신호에 기초한 머리 추적을 위한 시스템, 방법, 장치 및 컴퓨터 판독가능 매체
CN114762360A (zh) 入耳检测
US9946509B2 (en) Apparatus and method for processing audio signal
US11178478B2 (en) Determining a temperature value by analyzing audio
WO2017154378A1 (ja) 測定装置、フィルタ生成装置、測定方法、及びフィルタ生成方法
CN113534052A (zh) 骨导设备虚拟声源定位性能测试方法、系统、装置及介质
CN116076088A (zh) 智能耳机系统及方法
WO2022047606A1 (en) Method and system for authentication and compensation
US20240114296A1 (en) Hearing aid comprising a speaker unit