KR102192361B1 - 머리 움직임을 이용한 사용자 인터페이스 방법 및 장치 - Google Patents

머리 움직임을 이용한 사용자 인터페이스 방법 및 장치 Download PDF

Info

Publication number
KR102192361B1
KR102192361B1 KR1020130076509A KR20130076509A KR102192361B1 KR 102192361 B1 KR102192361 B1 KR 102192361B1 KR 1020130076509 A KR1020130076509 A KR 1020130076509A KR 20130076509 A KR20130076509 A KR 20130076509A KR 102192361 B1 KR102192361 B1 KR 102192361B1
Authority
KR
South Korea
Prior art keywords
hearing device
information
head
motion
unit
Prior art date
Application number
KR1020130076509A
Other languages
English (en)
Other versions
KR20150003528A (ko
Inventor
한주만
김동욱
한종희
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130076509A priority Critical patent/KR102192361B1/ko
Priority to US14/320,008 priority patent/US9374647B2/en
Publication of KR20150003528A publication Critical patent/KR20150003528A/ko
Application granted granted Critical
Publication of KR102192361B1 publication Critical patent/KR102192361B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/50Customised settings for obtaining desired overall acoustical characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1041Mechanical or electronic switches, or control elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/41Detection or adaptation of hearing aid parameters or programs to listening situation, e.g. pub, forest
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/61Aspects relating to mechanical or electronic switches or control elements, e.g. functioning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/01Aspects of volume control, not necessarily automatic, in sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/30Monitoring or testing of hearing aids, e.g. functioning, settings, battery power
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/55Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired
    • H04R25/552Binaural
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/033Headphones for stereophonic communication

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Neurosurgery (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

머리 움직임을 이용한 사용자 인터페이스 방법 및 장치가 제공된다. 일 실시예에 따른 청각 기기는 외부로부터 감지되는 오디오 신호를 이용하여 추정된 머리의 움직임을 기초로 청각 기기 또는 외부 기기 중 적어도 하나의 동작을 제어한다.

Description

머리 움직임을 이용한 사용자 인터페이스 방법 및 장치{METHOD AND APPARATUS FOR USER INTERFACE BY SENSING HEAD MOVEMENT}
아래의 실시 예들은 머리 움직임을 이용한 사용자 인터페이스 방법 및 장치에 관한 것이다.
청각 기기는 사용자에게 오디오 신호를 제공하는 기기이다. 청각 기기의 예로, 보청기(Hearing Aid Device), 이어폰 및 헤드폰 등의 음향 기기가 있다.
보청기는 외부에서 발생하는 소리를 증폭시켜, 사용자가 소리를 인식할 수 있도록 도와주는 장치이다. 일반적으로, 보청기는 포켓형, 귀걸이형, 이갑계형, 고막형 등으로 나뉠 수 있다.
음향 기기는 라디오, 스테레오 등의 음성이나 음악을 듣기 위한 기기이다. 음향 기기는 이어폰, 헤드폰과 같이 사용자의 귀에 고정되거나 밀착되는 기기를 포함할 수 있다.
기술 발전에 따라, 청각 기기는 점점 다양한 기능들을 제공하고 있고, 청각 기기를 이용하는 사용자도 점점 증가하고 있다. 청각 기능이 쇠약한 사람들이 사용하는 경우는 물론, 운전 중 등 청각 기기 자체의 조작이 불편한 상황에서도 보다 편리하게 청각 기기를 쉽게 제어하는 것이 필요하다.
일 실시예에 따른 청각 기기는 외부로부터 감지되는 오디오 신호를 이용하여 머리의 움직임을 추정하는 움직임 추정부; 및 상기 추정된 머리의 움직임을 기초로 청각 기기의 동작을 제어하는 청각 기기 제어부를 포함할 수 있다.
일 실시예에 따른 청각 기기는 적어도 두 개의 마이크로폰들을 포함하고, 상기 마이크로폰들 각각에서 수신된 오디오 신호를 검출하는 오디오 신호 검출부를 더 포함할 수 있다.
상기 움직임 추정부는, 상기 검출된 오디오 신호들의 시간 차이 정보 또는 레벨 차이 정보 중 적어도 하나에 기반하여 상기 머리의 움직임을 추정할 수 있다.
상기 움직임 추정부는, 상기 마이크로폰들의 상대적인 위치를 이용하여 상기 시간 차이 정보 또는 상기 레벨 차이 정보 중 적어도 하나를 획득할 수 있다.
상기 시간 차이 정보는, 상기 검출된 오디오 신호들의 인터오럴 시간 차(Interaural Time Difference: ITD) 정보일 수 있다.
상기 레벨 차이 정보는, 상기 검출된 오디오 신호들의 인터오럴 레벨 차(Interaural Level Difference: ILD) 정보일 수 있다.
일 실시예에 따른 청각 기기는 미리 정해진 시간 차이 정보 또는 레벨 차이 정보 중 적어도 하나와, 이에 대응하는 머리의 움직임을 기록하는 룩업 테이블을 더 포함할 수 있다.
상기 움직임 추정부는, 상기 룩업 테이블을 참조하여, 상기 검출된 오디오 신호들의 시간 차이 정보 또는 레벨 차이 정보 중 적어도 하나에 대응하는 상기 머리의 움직임을 추정할 수 있다.
일 실시예에 따른 청각 기기는 사용자 제스쳐를 감지하는 제스쳐 감지부를 더 포함할 수 있다.
상기 청각 기기 제어부는, 상기 제스쳐 감지부에서 미리 정해진 사용자의 제스쳐가 감지되는 경우, 상기 미리 정해진 사용자의 제스쳐에 대응하는 상기 청각 기기의 동작을 제어할 수 있다.
일 실시예에 따른 청각 기기는 상기 미리 정해진 사용자의 제츠쳐와 매핑되는 상기 청각 기기의 동작에 대한 정보를 저장하는 제스쳐 매핑부를 더 포함할 수 있다.
상기 청각 기기 제어부는, 상기 제스쳐 매핑부를 참조하여, 상기 감지된 사용자 제츠쳐에 대응하는 상기 청각 기기의 동작을 제어할 수 있다.
상기 청각 기기 제어부는, 미리 정해진 머리의 움직임이 감지되는 경우, 상기 미리 정해진 머리의 움직임에 대응하는 상기 청각 기기의 동작을 제어할 수 있다.
일 실시예에 따른 청각 기기는 상기 미리 정해진 머리의 움직임과 매핑되는 상기 청각 기기의 동작에 대한 정보를 저장하는 머리 움직임 매핑부를 더 포함할 수 있다.
상기 청각 기기 제어부는, 상기 머리 움직임 매핑부를 참조하여, 상기 추정된 머리의 움직임에 대응하는 상기 청각 기기의 동작을 제어할 수 있다.
일 실시예에 따른 청각 기기는 사용자에게 상기 청각 기기의 동작에 대한 정보를 제공하는 동작 정보 제공부를 더 포함할 수 있다.
상기 동작 정보 제공부는, 상기 청각 기기의 동작에 대하여 시각적, 청각적, 또는 촉각적 피드백 중 어느 하나인 피드백 정보를 제공할 수 있다.
상기 동작 정보 제공부는, 상기 청각 기기의 현재 동작과 다른 동작에 대한 정보를 제공할 수 있다.
일 실시예에 따른 청각 기기는 상기 추정된 머리의 움직임을 기초로 외부 기기의 동작을 제어하는 외부 기기 제어부를 더 포함할 수 있다.
일 실시예에 따른 청각 기기 컨트롤러는 청각 기기로부터 수신한 오디오 신호에 대한 정보를 이용하여 머리의 움직임을 추정하는 움직임 추정부; 및 상기 추정된 머리의 움직임을 기초로 상기 청각 기기의 동작을 제어하는 청각 기기 제어부를 포함할 수 있다.
일 실시예에 따른 청각 기기 컨트롤러는 상기 청각 기기로부터 상기 오디오 신호에 대한 정보를 수신하는 통신부를 더 포함할 수 있다.
일 실시예에 따른 청각 기기 컨트롤러는 상기 추정된 머리의 움직임을 기초로 외부 기기의 동작을 제어하는 외부 기기 제어부를 더 포함할 수 있다.
일 실시예에 따른 청각 기기 컨트롤러는 사용자에게 상기 청각 기기의 동작에 대한 정보를 제공하는 동작 정보 제공부를 더 포함할 수 있다.
상기 동작 정보 제공부는, 상기 청각 기기의 동작에 대하여 시각적, 청각적, 또는 촉각적 피드백 중 어느 하나인 피드백 정보를 제공할 수 있다.
일 실시예에 따른 청각 기기는 적어도 두 개의 마이크로폰들을 포함하고, 상기 마이크로폰들 각각에서 수신된 오디오 신호를 검출하는 오디오 신호 검출부; 및 상기 검출된 오디오 신호들에 대한 정보를 청각 기기 컨트롤러에 송신하는 통신부를 포함할 수 있다.
도 1은 일 실시예에 따른 청각 기기를 나타낸 블록도이다.
도 2는 일 실시예에 따른 청각 기기 및 청각 기기 컨트롤러를 나타낸 블록도이다.
도 3은 일 실시예에 따른 머리 움직임의 추정을 설명하기 위한 도면이다.
도 4a 내지 도 4c는 일 실시예에 따른 청각 기기의 시작 동작을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 청각 기기 동작 제어의 일 예를 나타낸 도면이다.
도 6은 일 실시예에 따른 청각 기기 동작 제어의 다른 일 예를 나타낸 도면이다.
도 7은 일 실시예에 따른 청각 기기의 제어 방법을 나타낸 동작 흐름도이다.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 본 발명이 일 실시예들에 의해 제한되거나 한정되는 것은 아니다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
본 명세서에서, 청각 기기는 사용자의 귀에 탈부착 식으로(detachably) 고정되거나 밀착되어 사용자에게 오디오 신호를 제공할 수 있는 기기를 의미한다. 청각 기기는 외부에서 발생하는 오디오 신호를 증폭시켜 사용자가 오디오 신호를 인식할 수 있도록 도와주는 보청기를 포함할 수 있다. 또한, 청각 기기는 리시버, 이어폰, 헤드폰과 같이 사용자의 귀에 고정되거나 밀착되는 음향 기기를 포함할 수 있다. 청각 기기는 한쪽 귀에서 오디오 신호를 발생하는 모노럴(monaural) 기기 및 양쪽 귀에서 오디오 신호를 발생하는 바이노럴(binaural) 기기를 포함한다.
일 실시예에 따른 청각 기기는 일반 모드 또는 움직임 제어 모드에서 동작할 수 있다. 일반 모드는 청각 기기의 일반적인 동작(예를 들어, 일반적인 보청기의 동작, 일반적인 음향 기기의 동작)을 수행하는 동작 모드를 의미하고, 움직임 제어 모드는 사용자의 머리 움직임을 추정하여 청각 기기의 동작을 제어하는 동작 모드를 의미한다. 이하에서는, 움직임 제어 모드를 수행하는 청각 기기에 대하여 설명한다.
도 1은 일 실시예에 따른 청각 기기를 나타낸 블록도이다.
도 1을 참조하면, 일 실시예에 따른 청각 기기(100)는 오디오 신호 검출부(110), 정보 연산부(120), 움직임 추정부(130), 청각 기기 제어부(140) 및 외부 기기 제어부(150)를 포함할 수 있다. 청각 기기(100)는 후술할 청각 기기 컨트롤러를 더 포함할 수 있다.
오디오 신호 검출부(110)는 적어도 두 개의 마이크로폰들을 포함하고, 마이크로폰들 각각에서 수신된 오디오 신호를 검출할 수 있다. 청각 기기(100)가 바이노럴 기기인 경우, 바이노럴 기기에 포함된 좌측 오디오 신호 검출부 및 우측 오디오 신호 검출부는 각각 적어도 하나의 마이크로폰을 포함할 수 있다. 청각 기기(110)가 모노럴 기기인 경우, 오디오 신호 검출부는 적어도 두 개의 마이크로폰들을 포함한다. 이 경우, 적어도 두 개의 마이크로폰들은 서로 다른 위치에 존재할 수 있다. 오디오 신호 검출부(110)에 포함된 마이크로폰이 많아질수록, 머리 움직임 추정의 정확도는 더 높아질 수 있다.
청각 기기(100)가 이어폰, 헤드폰과 같은 음향 기기이고, 음향 기기가 액티브 노이즈 캔슬러(active noise canceller) 기능을 제공하는 경우, 오디오 신호 검출부(110)는 액티브 노이즈 캔슬러 기능에 제공되는 적어도 두 개의 마이크로폰들을 이용하여 오디오 신호를 검출할 수 있다.
오디오 신호 검출부(110)는 외부로부터 오디오 신호를 감지할 수 있다. 여기서, 외부는 청각 기기(100) 이외의 것을 의미할 수 있다. 청각 기기와 청각 기기 컨트롤러가 분리된 경우, 오디오 신호 검출부(110)는 청각 기기 컨트롤러에서 발생하는 오디오 신호를 감지할 수 있다. 또한, 오디오 신호 검출부(110)는 청각 기기 및 청각 기기 컨트롤러와 무관한 오디오 신호를 감지할 수 있다.
정보 연산부(120)는 오디오 신호 검출부(110)에서 감지되는 오디오 신호들에 대한 정보를 연산할 수 있다. 감지되는 오디오 신호들에 대한 정보는 감지되는 오디오 신호들의 시간 차이 정보 또는 감지되는 오디오 신호들의 레벨 차이 정보 중 적어도 하나를 포함할 수 있다. 여기서, 감지되는 오디오 신호들의 시간 차이 정보는 감지되는 오디오 신호들의 위상 차이에 대한 정보를 포함할 수 있다. 정보 연산부(120)는 오디오 신호 검출부(110)에 포함될 수도 있고, 오디오 신호 검출부(110)와 독립적으로 존재할 수도 있다.
모노럴 기기의 경우, 정보 연산부(120)는 오디오 신호 검출부(110)에 포함된 적어도 두 개의 마이크로폰들의 상대적인 위치를 이용하여 오디오 신호들에 대한 정보를 연산할 수 있다. 적어도 두 개의 마이크로폰들은 서로 다른 장소에 위치하므로, 각각의 마이크로폰에서 수신되는 오디오 신호들의 특성은 서로 다를 수 있다. 예를 들어, 하나의 소스(source)에서 발생된 오디오 신호가 감지되는 경우에도, 사용자의 머리 움직임에 따라 각각의 마이크로폰이 감지하는 오디오 신호의 시간, 위상 또는 레벨은 서로 다를 수 있다. 정보 연산부(120)는 마이크로폰들이 감지하는 오디오 신호들의 시간 차이, 위상 차이 또는 레벨 차이를 계산하여 감지되는 오디오 신호에 대한 정보를 연산할 수 있다.
바이노럴 기기의 경우, 정보 연산부(120)는 좌측 기기에 포함된 적어도 하나의 마이크로폰에서 감지한 오디오 신호의 특성과 우측 기기에 포함된 적어도 하나의 마이크로폰에서 감지한 오디오 신호의 특성의 차이를 이용하여 오디오 신호에 대한 정보를 연산할 수 있다. 이 경우, 감지되는 오디오 신호들의 시간 차이 정보는 감지되는 오디오 신호의 인터오럴 시간 차(Interaural Time Difference: ITD) 정보를 의미할 수 있고, 감지되는 오디오 신호의 레벨 차이 정보는 감지되는 오디오 신호의 인터오럴 레벨 차 (Interaural Level Difference: ILD) 정보를 의미할 수 있다. 예를 들어, 사용자의 정면에 위치하는 하나의 소스에서 오디오 신호가 발생될 때, 사용자는 머리를 정면에서 왼쪽으로 돌릴 수 있다. 이 때, 좌측 기기에서 오디오 신호가 감지되는 시간은 느려질 수 있고, 우측 기기에서 오디오 신호가 감지되는 시간은 빨라질 수 있다. 또한, 좌측 기기에서 감지되는 오디오 신호의 레벨은 감소될 수 있으나, 우측 기기에서 감지되는 오디오 신호의 레벨은 증가될 수 있다.
움직임 추정부(130)는 정보 연산부(120)에서 연산된 오디오 신호들에 대한 정보를 이용하여 머리의 움직임을 추정할 수 있다. 움직임 추정부(130)는 미리 정해진 시간 차이 정보 또는 레벨 차이 정보 중 적어도 하나와, 이에 대응하는 머리의 움직임을 기록하는 룩업(lookup) 테이블을 포함할 수 있다. 또한, 움직임 추정부(130)는 미리 정해진 시간 차이 정보, 미리 정해진 레벨 차이 정보 또는 룩업 테이블 외의 다른 구성을 이용하여 머리의 움직임을 추정할 수 있다.
머리의 움직임에 따라, 오디오 신호의 시간 차이 정보 또는 레벨 차이 정보는 상이할 수 있다. 미리 정해진 머리의 여러 가지 움직임에 따른 오디오 신호들의 시간 차이 정보 또는 레벨 차이 정보는 미리 계산되어 룩업 테이블에 저장될 수 있다. 상기 룩업 테이블에 저장되는 시간 차이 정보 또는 레벨 차이 정보는 미리 정해진 범위(range)일 수 있다.
움직임 추정부(130)는 룩업 테이블을 참조하여, 검출된 오디오 신호들의 시간 차이 정보 또는 레벨 차이 정보 중 적어도 하나에 대응하는 머리의 움직임을 추정할 수 있다.
일 실시예에서, 움직임 추정부(130)는 감지되는 오디오 신호들의 시간 차이 정보 또는 레벨 차이 정보 중 적어도 하나와 미리 정해진 머리의 움직임에 대응하는 기준값(reference value)과의 유사도를 식별할 수 있다. 여기서, 미리 정해진 머리의 움직임에 대응하는 기준값은 룩업 테이블에 포함된 미리 정해진 시간 차이 정보 또는 레벨 차이 정보 중 적어도 하나일 수 있다. 또한, 청각 기기가 바이노럴 기기인 경우, 움직임 추정부(130)는 감지되는 오디오 신호의 인터오럴 시간 차(ITD) 정보 또는 인터오럴 레벨 차(ILD) 정보 중 적어도 하나와 미리 정해진 머리의 움직임에 대응하는 기준값과의 유사도를 식별할 수 있다. 움직임 추정부(130)는 식별된 유사도를 기초로 머리의 움직임을 추정할 수 있다. 예를 들어, 움직임 추정부(130)는 미리 정해진 머리의 여러 가지 움직임에 대응하는 기준값들 중 감지되는 오디오 신호에 대한 정보와 유사도가 가장 높은 기준값을 식별할 수 있고, 식별된 기준값에 대응하는 머리의 움직임을 사용자의 머리 움직임으로 추정할 수 있다.
청각 기기 제어부(140)는 추정된 머리의 움직임을 기초로 청각 기기의 동작을 제어할 수 있다. 청각 기기 제어부(140)는 미리 정해진 머리의 움직임이 감지되는 경우, 미리 정해진 머리의 움직임에 대응하는 청각 기기의 동작을 제어할 수 있다. 청각 기기 제어부(140)는 미리 정해진 머리의 움직임과 매핑되는 청각 기기의 동작에 대한 정보를 저장하는 머리 움직임 매핑부(미도시)를 포함할 수 있다. 미리 정해진 움직임은 복수 개일 수 있으며, 각각의 미리 정해진 움직임은 청각 기기의 각각의 동작과 대응될 수 있다. 예를 들어, 머리를 위로 올리는 움직임은 청각 기기(100)의 볼륨을 증가시키는 동작과 매핑될 수 있고, 머리를 아래로 내리는 움직임은 청각 기기(100)의 볼륨을 감소시키는 동작과 매핑될 수 있으며, 이와 같은 정보는 머리 움직임 매핑부(미도시)에 저장될 수 있다.
청각 기기 제어부(140)는 머리 움직임 매핑부(미도시)를 참조하여, 추정된 머리의 움직임에 대응하는 청각 기기의 동작을 제어할 수 있다.
청각 기기 제어부(140)가 제어하는 청각 기기의 동작은 동작 모드 설정, 기능 설정 또는 파라미터 설정 중 적어도 하나를 포함할 수 있다. 예를 들어, 동작 모드 설정은 음악 모드, 자동차 운전자 대화 모드, 스피치(speech) 모드, 소음 속 스피치(speech in noise) 모드, 고요(quiet) 모드, 윈드(wind) 모드, 저전력 모드 등으로 설정하는 것일 수 있다. 기능 설정은 전화 통화 기능, 스테레오 기능, 소음 감소 기능, 반향음 제거 기능, 양이 기능, 외부 기기 연결 기능 등으로 설정하는 것일 수 있다. 파라미터 설정은 볼륨, 이퀄라이저(equalizer), 전력 소모, 특정 주파수 대역의 볼륨 등의 파라미터를 설정하는 것일 수 있다. 각각의 동작 모드 설정, 기능 설정 및 파라미터 설정은 미리 정해진 머리의 움직임과 대응될 수 있다. 예를 들어, 청각 기기(100)의 볼륨을 증가시키는 동작은 머리를 위로 올리는 움직임과 대응될 수 있다. 이 경우, 움직임 추정부(130)에 의하여 머리를 위로 올리는 움직임이 추정된 때, 청각 기기 제어부(140)는 청각 기기(100)의 볼륨을 증가시킬 수 있다.
청각 기기(100)는 사용자 제스쳐를 감지하는 제스쳐 감지부(미도시)를 포함할 수 있다. 여기서, 사용자 제스쳐는 머리의 움직임 이외에 사용자가 수행하는 제스쳐를 의미하는 것으로서, 예를 들어, 사용자가 청각 기기(100)를 터치하는 터치 제스쳐 및 사용자가 청각 기기(100)의 주변에서 손으로 특정 모션을 수행하는 핸드 제스쳐를 포함할 수 있다. 일 실시예에서, 제스쳐 감지부(미도시)는 터치 센서를 포함할 수 있고, 터치 센서를 이용하여 사용자의 터치 제스쳐를 감지할 수 있다.
다른 일 실시예에서, 제스쳐 감지부(미도시)는 텔레코일(Telecoil)을 포함할 수 있다. 텔레코일은 청각 기기(100) 주변의 마그네틱 필드(magnetic field)를 감지할 수 있고, 제스쳐 감지부(미도시)는 마그네틱 필드의 변화를 이용하여 사용자의 핸드 제스쳐를 감지할 수 있다. 예를 들어, 사용자가 자성이 있는 반지를 낀 상태에서 손을 흔드는 경우, 청각 기기(100) 주변의 마그네틱 필드는 변할 수 있고, 마그네틱 필드의 변화를 통하여 사용자의 핸드 제스쳐가 감지될 수 있다.
청각 기기 제어부(140)는 미리 정해진 사용자의 제스쳐가 감지되는 경우, 미리 정해진 사용자의 제스쳐에 대응하는 청각 기기의 동작을 제어할 수 있다. 청각 기기 제어부(140)는 미리 정해진 사용자의 제스쳐에 매핑되는 청각 기기의 동작에 대한 정보를 저장하는 제스쳐 매핑부(미도시)를 포함할 수 있다. 청각 기기 제어부(140)는 제스쳐 매핑부(미도시)를 참조하여 감지된 사용자 제스쳐에 대응하는 청각 기기의 동작을 제어할 수 있다. 예를 들어, 미리 정해진 시간 동안 한 번의 터치 제스쳐는 적어도 두 개의 마이크로폰들의 온(on) 동작과 대응하고, 미리 정해진 시간 동안 두 번의 터치 제스쳐는 적어도 두 개의 마이크로폰들의 오프(off) 동작과 대응한다는 정보가 제스쳐 매핑부(미도시)에 저장될 수 있다. 이 때, 미리 정해진 시간 동안 한 번의 터치 제스쳐가 감지되는 경우, 청각 기기 제어부(140)는 제스쳐 매핑부(미도시)를 참조하여, 적어도 두 개의 마이크로폰들을 온(on) 시킬 수 있다.
또한, 청각 기기(100)는 사용자에게 청각 기기의 동작에 대한 정보를 제공하는 동작 정보 제공부(미도시)를 포함할 수 있다. 동작 정보 제공부(미도시)는 제어되는 동작에 대한 피드백 정보, 청각 기기(100)의 상태 정보, 청각 기기(100)의 현재 동작과 다른 동작에 대한 정보 등을 제공할 수 있다.
동작 정보 제공부(미도시)는 청각 기기(100)의 동작에 대하여 시각적, 청각적 또는 촉각적 피드백 중 어느 하나인 피드백 정보를 제공할 수 있다.
예를 들어, 청각 기기 제어부(140)가 추정된 움직임을 기초로 볼륨을 감소시키는 경우, 동작 정보 제공부(미도시)는 사용자에게 "볼륨을 내리겠습니다" 와 같은 청각적 피드백 제공할 수 있다. 이 때, 청각 기기(100)가 외부 기기와 연결되어 있다면 동작 정보 제공부(미도시)는 외부 기기를 이용하여 '볼륨의 감소를 나타내는 아이콘'과 같은 시각적 피드백을 제공할 수 있다. 또한, 청각 기기 제어부(140)가 추정된 움직임을 기초로 볼륨을 증가시켰다가 감소시키는 경우, 동작 정보 제공부(미도시)는 볼륨이 증가될 때, 상대적으로 강한 진동을 발생시키고, 볼륨이 감소될 때, 상대적으로 약한 진동을 발생시킴으로써, 촉각적 피드백을 제공할 수 있다.
동작 정보 제공부(미도시)는 청각 기기(100)의 상태 정보를 제공할 수 있다. 예를 들어, 청각 기기(100)의 잔여 배터리 양이 전체 배터리 양의 5%인 경우, 동작 정보 제공부(미도시)는 사용자에게 "배터리가 5% 남았습니다. 충전해 주세요" 와 같은 음성 메시지를 제공할 수 있다.
동작 정보 제공부(미도시)는 청각 기기(100)의 현재 동작과 다른 동작에 대한 정보를 제공할 수 있다. 일 실시예에서, 청각 기기(100)는 청각 기기(100)의 현재 동작보다 적합한 다른 동작을 식별하는 적합 동작 식별부(미도시)를 포함할 수 있다. 적합 동작 식별부(미도시)는 외부 환경을 검출하는 외부 환경 검출부(미도시)를 포함할 수 있다. 여기서, 외부 환경은 외부 소스에서 발생하는 진동수, 주파수, 전파 등을 포함할 수 있다. 또한, 외부 환경은 빛을 포함할 수 있다. 이 경우, 청각 기기(100)는 광센서를 포함할 수 있고, 광센서를 이용하여 밤/낮과 같은 빛의 변화에 따른 외부 환경을 감지할 수 있다. 또한, 청각 기기(100)는 온도 센서, 가속도 센서, 각속도 센서 등을 포함할 수 있고, 온도 센서, 가속도 센서, 각속도 센서 등을 이용하여 외부 환경을 감지할 수 있다. 외부 환경의 변화를 이용하여, 적합 동작 식별부(미도시)는 청각 기기(100)의 현재 동작보다 적합한 다른 동작을 식별할 수 있다.
청각 기기(100)의 현재 동작보다 적합한 다른 동작이 식별된 경우, 동작 정보 제공부(미도시)는 사용자에게 적합한 다른 동작에 대한 정보를 제공할 수 있다. 예를 들어, 청각 기기(100)의 사용자는 다른 사람과 대화할 때, 청각 기기(100)의 동작 모드를 '스피치 모드'로 설정할 수 있다. 이 때, 청각 기기(100)의 사용자가 소음이 발생하는 공사장을 지나가는 경우, 외부 환경 검출부(미도시)는 소음이 발생하는 환경을 검출할 수 있고, 적합 동작 식별부(미도시)는 현재의 '스피치 모드'보다 적합한 '소음 속 스피치 모드'를 식별할 수 있다. 동작 정보 제공부(미도시)는 "소음 속 스피치 모드로 변경하시겠습니까?"라는 음성 메시지를 사용자에게 제공할 수 있다. 움직임 추정부(130)에서 YES에 대응하는 머리의 움직임이 추정된 경우, 청각 기기 제어부(140)는 추정된 머리의 움직임에 따라 청각 기기(100)의 동작 모드를 '소음 속 스피치 모드'로 변경할 수 있다.
외부 기기 제어부(150)는 추정된 머리의 움직임을 기초로 외부 기기의 동작을 제어할 수 있다. 여기서, 외부 기기는 청각 기기(100)를 제외한 다른 기기를 의미할 수 있다. 예를 들어, 외부 기기는 컴퓨터(PC), 노트북, TV, 오디오 및 휴대폰, 태블릿 PC, PDA와 같은 모바일 단말 등 데이터를 처리하는 모든 형태의 장치를 포함할 수 있다.
청각 기기(100)와 외부 기기는 연결될 수 있다. 이 때, 외부 기기와의 연결은 청각 기기 제어부(140)에 의해 수행될 수도 있고, 외부 기기 제어부(150)에 의해 수행될 수도 있으며, 머리의 움직임과 무관한 다른 방법에 의해 수행될 수도 있다. 예를 들어, 외부 기기가 모바일 단말인 경우, 기기 간 무선 통신을 통해 청각 기기(100)와 모바일 단말은 서로 연결될 수 있다.
외부 기기 제어부(150)는 추정된 머리의 움직임과 매핑되는 미리 정해진 머리의 움직임을 식별하고, 식별된 움직임에 따라 외부 기기의 동작을 제어할 수 있다. 이 때, 외부 기기 제어부(150)는 외부 기기의 동작에 대한 제어 신호를 생성할 수 있고, 통신부(미도시)를 통해 외부 기기에 전송할 수 있다. 예를 들어, 청각 기기(100)과 모바일 단말이 연결된 경우, 추정된 움직임에 따라, 모바일 단말의 볼륨이 조절될 수 있고, 어플리케이션이 실행될 수 있으며, 모바일 단말의 다른 동작이 제어될 수 있다.
도 2는 일 실시예에 따른 청각 기기 및 청각 기기 컨트롤러를 나타낸 블록도이다.
도 2를 참조하면, 청각 기기(210)는 오디오 신호 검출부(211), 정보 연산부(212) 및 통신부(213)를 포함한다. 오디오 신호 검출부(211)는 적어도 두 개의 마이크로폰들을 포함하고, 마이크로폰들 각각에서 수신된 오디오 신호를 검출할 수 있다. 정보 연산부(212)는 오디오 신호 검출부(211)에서 검출되는 오디오 신호들에 대한 정보를 연산할 수 있다. 감지되는 오디오 신호들에 대한 정보는 감지되는 오디오 신호들의 시간 차이 정보 또는 감지되는 오디오 신호들의 레벨 차이 정보 중 적어도 하나를 포함할 수 있다. 이 때, 바이노럴 기기의 경우, 감지되는 오디오 신호들의 시간 차이 정보는 감지되는 오디오 신호들의 인터오럴 시간 차(ITD) 정보를 의미할 수 있고, 감지되는 오디오 신호들의 레벨 차이 정보는 감지되는 오디오 신호들의 인터오럴 레벨 차(ILD) 정보를 의미할 수 있다. 오디오 신호 검출부(211) 및 정보 연산부(212)에는 도 1의 오디오 신호 검출부(110) 및 정보 연산부(120)를 통해 설명된 내용이 그대로 적용될 수 있다.
통신부(213)는 정보 연산부(212)에 의해 연산된 오디오 신호에 대한 정보를 청각 기기 컨트롤러(220)에 전송할 수 있다. 또한, 통신부(213)는 청각 기기 컨트롤러(220)로부터 청각 기기(210)의 동작에 대한 제어 신호를 수신할 수 있다. 수신된 제어 신호에 의해 청각 기기(210)의 동작은 제어될 수 있다.
청각 기기 컨트롤러(220)는 통신부(221), 움직임 추정부(222), 청각 기기 제어부(223) 및 외부 기기 제어부(224)를 포함할 수 있다. 청각 기기 컨트롤러(220)는 독립적으로 존재할 수 있고, 청각 기기에 포함될 수도 있으며, 외부 기기에 포함될 수도 있다. 예를 들어, 청각 기기 컨트롤러(220)는 모바일 단말에 포함될 수 있다.
통신부(221)는 청각 기기(210)로부터, 청각 기기(210)에 의해 연산된 오디오 신호에 대한 정보를 수신할 수 있다. 또한, 통신부(213)는 청각 기기 제어부(223)가 생성한 청각 기기의 동작에 대한 제어 신호를 청각 기기(210)에 전송할 수 있고, 외부 기기 제어부(224)가 생성한 외부 기기의 동작에 대한 제어 신호를 외부 기기에 전송할 수 있다.
움직임 추정부(222)는 연산된 오디오 신호에 대한 정보를 이용하여 머리의 움직임을 추정할 수 있다. 청각 기기 제어부(223)는 추정된 머리의 움직임을 기초로 청각 기기(210)의 동작을 제어할 수 있다. 청각 기기 제어부(223)는 청각 기기의 동작에 대한 제어 신호를 생성할 수 있고, 이를 통신부(221)를 통해 전송할 수 있다.
외부 기기 제어부(224)는 추정된 머리의 움직임을 기초로 외부 기기의 동작을 제어할 수 있다. 외부 기기 제어부(224) 역시 외부 기기의 동작에 대한 제어 신호를 생성할 수 있고, 이를 통신부(221)를 통해 전송할 수 있다.
또한, 청각 기기 컨트롤러(220)는 동작 정보 제공부(미도시) 및 적합 동작 식별부(미도시)를 포함할 수 있다. 예를 들어, 적합 동작 식별부(미도시)에 의해 음악 모드가 청각 기기의 현재 동작 모드인 스피치 모드보다 더 적합하다고 판단된 경우, 동작 정보 제공부(미도시)는 "동작 모드를 음악 모드로 변경하시겠습니까?"라는 음성 메시지를 제공할 수 있다. 청각 기기(210)의 오디오 신호 검출부(211)는 청각 기기 컨트롤러(220)가 제공한 음성 메시지를 검출할 수 있고, 정보 연산부(212)를 통하여 검출한 음성 메시지의 시간 차이 정보 또는 레벨 차이 정보 중 적어도 하나를 연산할 수 있다. 청각 기기 컨트롤러(220)의 통신부(221)는 음성 메시지에 대한 정보를 수신할 수 있고, 움직임 추정부(222)는 음성 메시지에 대한 정보를 이용하여 머리의 움직임을 추정할 수 있다. 움직임 추정부(222)가 NO에 대응하는 머리의 움직임을 추정한 경우, 청각 기기 제어부(223)는 추정된 머리의 움직임에 따라 청각 기기(210)의 동작 모드를 현재의 동작 모드인 스피치 모드로 유지시킬 수 있다.
움직임 추정부(222), 청각 기기 제어부(223) 및 외부 기기 제어부(224)에는 도 1의 움직임 추정부(130), 청각 기기 제어부(140) 및 외부 기기 제어부(150)를 통해 설명된 내용이 그대로 적용될 수 있다.
도 3은 일 실시예에 따른 머리 움직임의 추정을 설명하기 위한 도면이다.
도 3을 참조하면, 사용자는 청각 기기(310)를 착용할 수 있다. 도 3에서는 청각 기기(310)를 모노럴 기기로 표현하였지만, 청각 기기(310)는 바이노럴 기기일 수 있다. 청각 기기(310)는 외부로부터 오디오 신호를 감지할 수 있다. 도 3의 예에서, 청각 기기(310)는 소스(320)에서 발생되는 오디오 신호를 감지할 수 있다. 이 경우, 소스(320)는 복수 개일 수 있고, 소스들은 서로 상이한 위치에 존재할 수 있다. 또한, 소스(320)는 청각 기기 컨트롤러일 수 있다.
청각 기기(310)는 적어도 두 개의 마이크로폰들을 이용하여 외부로부터 오디오 신호를 검출하고, 검출되는 오디오 신호들에 대한 정보를 연산할 수 있다. 청각 기기(310)가 모노럴 기기인 경우, 청각 기기(310)는 검출되는 오디오 신호들의 시간 차이 정보 또는 레벨 차이 정보 중 적어도 하나를 연산할 수 있다. 청각 기기(310)가 바이노럴 기기인 경우, 청각 기기(310)는 인터오럴 시간 차(ITD) 정보 또는 인터오럴 레벨 차(ILD) 정보 중 적어도 하나를 연산할 수 있다.
청각 기기(310)는 미리 정해진 시간 차이 정보 또는 레벨 차이 정보 중 적어도 하나와, 이에 대응하는 머리의 움직임을 기록하는 룩업 테이블을 참조하여, 검출된 오디오 신호들의 시간 차이 정보 또는 레벨 차이 정보 중 적어도 하나에 대응하는 머리의 움직임(또는, 청각 기기(310)의 방향)을 추정할 수 있다.
일 실시예에서, 미리 정해진 머리의 움직임은 롤(roll) 회전각(또는, x축 회전량), 피치(pitch) 회전각(또는, y축 회전량), 야우(yaw) 회전각(또는, z축 회전량)으로 표현될 수 있으므로, 미리 정해진 머리의 움직임은 세부적으로 분류될 수 있다. 예를 들어, 사용자가 머리를 좌우로 흔들 때(331)는 야우(yaw) 회전각이 변할 수 있고, 머리를 상하로 끄덕일 때(332)는 피치(pitch) 회전각이 변할 수 있으며, 머리를 좌우로 갸웃거릴 때(333)는 롤(roll) 회전각이 변할 수 있다. 세부적으로 분류된 머리의 움직임 각각에 대응하는 기준값은 룩업 테이블에 저장될 수 있다. 이에 따라, 청각 기기(310)는 세부적으로 분류된 미리 정해진 머리의 움직임에 대응하는 기준값들 중 검출되는 오디오 신호들의 시간 차이 정보 또는 레벨 차이 정보 중 적어도 하나와 유사도가 가장 높은 기준값을 식별하고, 식별된 기준값에 대응하는 머리의 움직임을 사용자의 머리 움직임으로 추정할 수 있다.
도 4a 내지 도 4c는 일 실시예에 따른 청각 기기의 시작 동작을 설명하기 위한 도면이다. 여기서, 시작 동작은 사용자 인터페이스를 이용하여 움직임 제어 모드로 진입하는 동작을 의미한다. 사용자 인터페이스는 사용자 제스쳐 및 머리 움직임을 포함할 수 있다.
도 4a를 참조하면, 청각 기기(410)는 터치 센서를 포함할 수 있고, 터치 센서를 이용하여 사용자의 터치 제스쳐를 감지할 수 있다. 이 때, 미리 정해진 시간 동안 한 번의 터치 제스쳐는 움직임 제어 모드로 진입하는 동작과 대응되고, 미리 정해진 시간 동안 두 번의 터치 제스쳐는 일반 모드로 진입하는 동작과 대응될 수 있다. 이와 같은 정보는 제스쳐 매핑부에 저장될 수 있다.
미리 정해진 시간 동안 한 번의 터치 제스쳐가 감지되는 경우, 청각 기기(410)는 움직임 제어 모드로 진입할 수 있다. 이에 따라, 청각 기기(410)는 적어도 두 개의 마이크로폰들 각각에서 수신된 오디오 신호를 검출할 수 있고, 머리의 움직임을 추정하여, 청각 기기의 동작을 제어할 수 있다.
미리 정해진 시간 동안 두 번의 터치 제스쳐가 감지되는 경우, 청각 기기(410)는 일반 모드로 진입할 수 있다. 이에 따라, 청각 기기(410)는 외부로부터 오디오 신호를 감지하지 않음으로써 머리의 움직임을 추정하지 않고, 머리의 움직임을 기초로 청각 기기의 동작을 제어하지 않는다.
도 4b를 참조하면, 청각 기기(420)는 텔레코일을 포함할 수 있다. 텔레코일은 청각 기기(420) 주변의 마그네틱 필드를 감지할 수 있고, 청각 기기(420)는 마그네틱 필드의 변화를 이용하여 사용자의 핸드 제스쳐를 감지할 수 있다.
사용자가 자성이 있는 반지를 낀 상태에서 손을 위아래로 흔들거나 좌우로 흔드는 경우, 청각 기기(420) 주변의 마그네틱 필드는 변할 수 있다. 청각 기기(420)는 텔레코일을 이용하여 핸드 제스쳐를 감지할 수 있다.
예를 들어, 미리 정해진 시간 동안 손을 위아래로 흔드는 핸드 제스쳐는 움직임 제어 모드로 진입하는 동작과 대응될 수 있고, 미리 정해진 시간 동안 손을 좌우로 흔드는 핸드 제스쳐는 일반 모드로 진입하는 동작과 대응될 수 있다. 이와 같은 정보는 제스쳐 매핑부에 저장될 수 있다.
미리 정해진 시간 동안 손을 위아래로 흔드는 핸드 제스쳐가 감지된 경우, 청각 기기(420)는 움직임 제어 모드로 진입함으로써, 연산된 오디오 신호에 대한 정보를 이용하여 사용자의 머리 움직임을 추정하고, 청각 기기의 동작을 제어할 수 있다.
미리 정해진 시간 동안 손을 좌우로 흔드는 핸드 제스쳐가 검출된 경우, 청각 기기(420)는 일반 모드로 진입함으로써, 오디오 신호에 대한 정보가 연산되더라도, 머리의 움직임이 추정되지 않는다.
도 4c를 참조하면, (a)에서, 사용자는 청각 기기(430)를 착용한 채로 정면을 바라볼 수 있다. 이 때, 3초 이내에 머리를 정면에서 왼쪽으로 45도 이상 2번 또는 3번 반복하여 돌리는 움직임(이하, 움직임 1)은, 움직임 제어 모드로 진입하는 동작과 대응될 수 있다. 이에 대한 정보는 머리 움직임 매핑부에 저장될 수 있다.
(a)에서 (b)로의 움직임과 같이, 3초 이내에 머리를 정면에서 왼쪽으로 45도 이상 3번 반복하여 돌리는 경우, 청각 기기(430)는 움직임 1과 대응되는 움직임 제어 모드로 진입하는 동작을 식별하여, 청각 기기(430)를 움직임 제어 모드로 설정할 수 있다. 이에 따라, 청각 기기(430)는 추정된 머리의 움직임을 이용하여 청각 기기의 동작을 제어할 수 있다.
도 5는 일 실시예에 따른 청각 기기 동작 제어의 일 예를 나타낸 도면이다.
도 5를 참조하면, (a)와 같이, 사용자는 청각 기기(510)를 착용할 수 있다. 이 때, 청각 기기(510)는 움직임 제어 모드로 설정될 수 있다. 청각 기기(510)는 외부 기기(520)(예를 들어, 모바일 단말, MP3 플레이어 등)와 연결될 수 있다. 외부 기기(520)는 사용자가 듣고 있는 음악에 대한 정보를 표시할 수 있다.
청각 기기(510)는 외부에서 발생하는 오디오 신호(예를 들어, 주변의 대화소리, 주변의 소음)를 이용하여 머리의 움직임을 추정할 수 있다. 또한, 청각 기기(510)는 미리 정해진 머리의 움직임과 매핑되는 외부 기기의 동작에 대한 정보를 포함할 수 있다. 예를 들어, 머리를 위로 올리는 움직임은 외부 기기(520)의 볼륨을 증가시키는 동작과 대응될 수 있고, 머리를 아래로 내리는 움직임은 외부 기기(520)의 볼륨을 감소시키는 동작과 대응될 수 있다. 또한, 머리를 정면에서 왼쪽으로 돌리는 움직임은 외부 기기(520)가 재생하는 음악의 인덱스(예를 들어, 트랙 번호)를 증가시키는 동작과 대응될 수 있고, 머리를 정면에서 오른쪽으로 돌리는 움직임은 외부 기기(520)가 재생하는 음악의 인덱스를 감소시키는 동작과 대응될 수 있다.
일 실시예에서, (a)에서 (b)로의 움직임과 같이, 사용자가 머리를 위로 올리는 경우, 청각 기기(530)는 주변의 오디오 신호를 이용하여 머리를 위로 올리는 움직임을 추정할 수 있다. 추정된 머리의 움직임에 따라, 청각 기기(530)는 외부 기기(540)의 볼륨을 증가시키는 제어 신호를 외부 기기(540)에 전송할 수 있고, 제어 신호를 수신한 외부 기기(540)는 볼륨을, 예를 들면, 현재 상태인 8에서 9로 증가시킬 수 있다.
다른 일 실시예에서, (a)에서 (c)로의 움직임과 같이, 사용자가 머리를 정면에서 왼쪽으로 돌리는 경우, 청각 기기(550)는 검출되는 오디오 신호의 인터오럴 시간 차(ITD) 정보 또는 인터오럴 레벨 차(ILD) 정보 중 적어도 하나를 이용하여, 머리를 정면에서 왼쪽으로 돌리는 움직임을 추정할 수 있다. 추정된 머리의 움직임에 따라, 청각 기기(550)는 외부 기기(560)가 재생하는 음악의 인덱스를 증가시키는 제어 신호를 외부 기기(560)에 전송할 수 있다. 제어 신호를 수신한 외부 기기(560)는 재생하는 음악의 인덱스를, 예를 들면, 1에서 2로 증가시킬 수 있다.
도 6은 일 실시예에 따른 청각 기기 동작 제어의 다른 일 예를 나타낸 도면이다.
도 6을 참조하면, 청각 기기는 외부 환경을 검출하여 현재의 동작 모드보다 외부 환경에 적합한 다른 동작 모드를 추천할 수 있다.
(a)에서, 사용자는 조용한 환경에서 청각 기기(610)를 착용한 채로 책을 읽고 있다. 이 때, 사용자는 청각 기기(610)의 동작 모드를 고요(quiet) 모드로 설정할 수 있다. 고요 모드에서, 청각 기기(610)는 잡음 제거 알고리즘을 온(on) 시킴으로써, 사용자에게 잡음이 없는 고요한 상태를 제공할 수 있다.
외부 환경이 변경되는 경우, 청각 기기(620)는 외부 소스에서 발생하는 오디오 신호의 진동수, 주파수, 또는 전파 등을 이용하여 외부 환경을 검출할 수 있다. 사용자는 (a)와 같은 조용한 환경에서, (b)와 같이 음악이 들리는 환경으로 이동할 수 있다. 이 때, 청각 기기(620)는 스피커에서 발생하는 오디오 신호의 진동수, 주파수, 또는 전파 등을 이용하여 사용자가 음악이 들리는 환경에 있음을 검출할 수 있다. 청각 기기(620)는 청각 기기(620)의 현재 동작 모드인 고요 모드보다 더 적합한 동작 모드인 음악 모드를 식별할 수 있다. 청각 기기(620)는 사용자에게 음악 모드에 대한 정보를 제공할 수 있다. 예를 들어, 청각 기기(620)는 "음악 모드로 변경하시겠습니까?" 라는 음성 메시지를 사용자에게 제공할 수 있다. 음성 메시지를 제공받고, 5초 이내에 사용자가 고개를 끄덕인 경우, 청각 기기(620)는 외부로부터 감지되는 오디오 신호를 이용하여 사용자의 머리 움직임을 추정할 수 있다. 여기서, 외부로부터 감지되는 오디오 신호는 스피커에서 발생하는 음악에 대한 오디오 신호일 수도 있고, 다른 소스에서 발생하는 오디오 신호일 수도 있으며, 스피커에서 발생하는 음악에 대한 오디오 신호 및 다른 소스에서 발생하는 오디오 신호를 모두 포함할 수 있다. 청각 기기(620)는 추정된 머리의 움직임을 기초로 청각 기기(620)의 동작 모드를 변경 또는 유지할 수 있다. 예를 들어, 5초 이내에 고개를 끄덕이는 움직임이 YES에 대응하는 머리의 움직임으로 설정된 경우, 청각 기기(620)는 사용자에게 피드백 정보로서, "음악 모드로 변경하겠습니다."와 같은 음성 메시지를 제공하고, 동작 모드를 고요 모드에서 음악 모드로 변경할 수 있다. 이에 따라, 청각 기기(620)는 피드백 제거 알고리즘 및 잡음 제거 알고리즘을 오프(off)하여 사용자가 음악 감상에 집중할 수 있게 하고, 샘플링 레이트(sampling rate)를 최대로 하여 좋은 음질의 음악을 제공할 수 있다.
또한, (c)와 같이, 사용자(630)는 자동차 운전 중에 동승자(650)와 대화할 수 있다. 이 때, 사용자(630)는 청각 기기(640)를 착용할 수 있다. 청각 기기(620)는 자동차 내부/외부 및 동승자(650)와의 대화 소리에서 발생하는 오디오 신호의 진동수, 주파수, 또는 전파 등을 이용하여 사용자가 자동차 내에서 대화를 하는 환경에 있음을 탐지할 수 있다. 청각 기기(640)는 현재 동작 모드인 음악 모드보다 자동차 운전자 대화 모드가 더 적합한 환경임을 식별할 수 있다. 청각 기기(640)는 사용자에게 자동차 운전자 대화 모드에 대한 정보를 제공할 수 있다. 예를 들어, 청각 기기(640)는 사용자에게 "자동차 운전자 대화 모드로 변경하실 것을 추천합니다. 자동차 운전자 대화 모드로 변경하시겠습니까?" 라는 음성 메시지를 제공할 수 있다. 사용자가 음성 메시지를 제공 받고 5초 이내에 머리를 좌우로 흔든 경우, 청각 기기(640)는 외부로부터 감지되는 오디오 신호를 이용하여 사용자의 머리 움직임을 추정할 수 있다. 청각 기기(640)는 추정된 머리의 움직임을 기초로 동작 모드를 변경 또는 유지할 수 있다. 5초 이내에 머리를 좌우로 흔드는 움직임이 NO에 대응하는 머리의 움직임으로 설정된 경우, 청각 기기(640)는 사용자에게 피드백 정보로서, "자동차 운전자 대화 모드로 변경하지 않겠습니다. 음악 모드를 유지하겠습니다"와 같은 음성 메시지를 제공하고, 동작 모드를 음악 모드로 유지할 수 있다.
도 7은 일 실시예에 따른 청각 기기의 제어 방법을 나타낸 동작 흐름도이다.
도 7을 참조하면, 일 실시예에 따른 청각 기기의 제어 방법은, 움직임 제어 모드로 진입한다(705). 상술한 바와 같이, 움직임 제어 모드는 사용자의 머리 움직임을 추정하여 청각 기기의 동작을 제어하는 동작 모드를 의미하고, 일반 모드는 청각 기기의 일반적인 동작을 수행하는 동작 모드를 의미한다. 움직임 제어 모드는 청각 기기에서 기본적으로 진입될 수도 있고, 사용자 인터페이스에 의해 진입될 수도 있다. 여기서, 사용자 인터페이스는 사용자 제스쳐 및 머리 움직임을 포함할 수 있다. 단계(705)는 움직임 제어 모드가 사용자 인터페이스에 의해 진입될 경우를 나타낸다.
단계(705)에서, 청각 기기는 사용자 제스쳐 또는 머리 움직임을 감지하여 움직임 제어 모드로 진입할 수 있다. 일 실시예에서, 사용자 제스쳐는 터치 제스쳐 및 핸드 제스쳐를 포함할 수 있다.
일 실시예에서, 청각 기기는 터치 센서를 이용하여 사용자의 터치 제스쳐를 감지함으로써 움직임 제어 모드로 진입할 수 있다. 예를 들어, 미리 정해진 시간 내의 한 번의 터치 제스쳐는 움직임 제어 모드로 진입하는 동작과 대응될 수 있다.
다른 일 실시예에서, 청각 기기는 텔레코일을 이용하여 사용자의 핸드 제스쳐를 감지함으로써 움직임 제어 모드로 진입할 수 있다. 예를 들어, 미리 정해진 시간 내에 손을 시계 방향으로 돌리는 제스쳐는 움직임 제어 모드로 진입하는 동작과 대응될 수 있다.
또 다른 일 실시예에서, 청각 기기는 머리 움직임을 이용하여 움직임 제어 모드로 진입할 수 있다. 예를 들어, 미리 정해진 시간 내에 머리를 좌우로 3번 흔드는 움직임은 움직임 제어 모드로 진입하는 동작과 대응될 수 있다.
또한, 일 실시예에 따른 청각 기기의 제어 방법은 머리의 움직임을 추정할 수 있다(710). 단계(710)에서, 청각 기기는 외부로부터 감지되는 오디오 신호를 이용하여 머리의 움직임을 추정할 수 있다. 청각 기기는 적어도 두 개의 마이크로폰들 각각에서 수신된 오디오 신호를 검출할 수 있다. 일 실시예에서, 청각 기기는 적어도 두 개의 마이크로폰들의 상대적인 위치를 이용하여 검출된 오디오 신호들의 시간 차이 정보 또는 레벨 차이 정보를 연산할 수 있다. 청각 기기는 검출된 오디오 신호들의 시간 차이 정보 또는 레벨 차이 정보 중 적어도 하나에 기반하여 머리의 움직임을 추정할 수 있다. 이 때, 청각 기기가 바이노럴 기기인 경우, 청각 기기는 검출된 오디오 신호들의 인터오럴 시간 차(ITD) 정보 또는 인터오럴 레벨 차(ILD) 정보 중 적어도 하나에 기반하여 머리의 움직임을 추정할 수 있다.
청각 기기는 룩업 테이블을 참조하여, 검출된 오디오 신호들의 시간 차이 정보 또는 레벨 차이 정보 중 적어도 하나에 대응하는 머리의 움직임을 추정할 수 있다. 여기서, 룩업 테이블은 미리 정해진 시간 차이 정보 또는 레벨 차이 정보 중 적어도 하나와, 이에 대응하는 머리의 움직임에 대한 정보를 포함할 수 있다.
또한, 일 실시예에 따른 청각 기기의 제어 방법은 추정된 머리의 움직임을 기초로 청각 기기의 동작 또는 외부 기기의 동작 중 적어도 하나를 제어할 수 있다(720). 미리 정해진 머리의 움직임이 감지되는 경우, 청각 기기는 미리 정해진 머리의 움직임에 대응하는 청각 기기의 동작 또는 외부 기기의 동작 중 적어도 하나를 제어할 수 있다. 이 때, 미리 정해진 머리의 움직임과 매핑되는 청각 기기의 동작 또는 외부 기기의 동작에 대한 정보는 미리 저장될 수 있다. 미리 정해진 머리 움직임들 중 어느 하나와 추정된 머리 움직임이 일치하는 경우, 청각 기기는 미리 정해진 머리의 움직임과 매핑되는 청각 기기의 동작에 대한 정보 또는 외부 기기에 대한 동작에 대한 정보 중 적어도 하나를 이용하여, 추정된 머리의 움직임에 대응하는 청각 기기의 동작 또는 외부 기기의 동작 중 적어도 하나를 제어할 수 있다.
단계(720)에서, 청각 기기는 사용자 제스쳐를 추가적으로 감지할 수 있다. 예를 들어, 청각 기기는 터치 센서를 이용하여 터치 제스쳐를 감지할 수 있고, 텔레코일을 이용하여 핸드 제스쳐를 감지할 수 있다. 미리 정해진 사용자의 제스쳐가 감지되는 경우, 청각 기기는 미리 정해진 사용자의 제스쳐에 대응하는 청각 기기의 동작 또는 외부 기기의 동작 중 적어도 하나를 제어할 수 있다. 이 때, 미리 정해진 사용자의 제스쳐에 매핑되는 청각 기기의 동작에 대한 정보 또는 외부 기기에 대한 정보는 미리 저장될 수 있다. 청각 기기는, 미리 정해진 사용자의 제스쳐에 매핑되는 정보를 이용하여 감지된 사용자 제스쳐에 대응하는 청각 기기의 동작을 제어할 수 있다. 예를 들어, 사용자가 머리를 위로 올리는 경우, 청각 기기는 머리를 위로 올리는 움직임과 매핑되는 동작인 볼륨을 증가시키는 동작을 수행할 수 있다. 이 때, 사용자가 터치 제스쳐를 수행한 경우, 청각 기기는 터치 제스쳐를 감지할 수 있다. 청각 기기는 터치 제스쳐와 매핑되는 동작인 취소 동작을 식별하여, 볼륨을 증가시키는 동작을 취소할 수 있다.
또한, 단계(720)에서, 청각 기기는 사용자에게 청각 기기의 동작에 대한 정보를 제공할 수 있다. 일 실시예에서, 청각 기기는 제어되는 동작에 대한 피드백 정보, 청각 기기의 상태 정보, 청각 기기의 현재 동작과 다른 동작에 대한 정보 등을 제공할 수 있다. 여기서, 피드백 정보는 시각적, 청각적 또는 촉각적 피드백 중 어느 하나일 수 있다.
도 7에 도시된 일 실시예에 따른 청각 기기의 제어 방법에는 도 1 내지 도 6을 통해 설명된 내용이 그대로 적용될 수 있으므로, 보다 상세한 내용은 생략한다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (18)

  1. 외부로부터 감지되는 오디오 신호를 이용하여 머리의 움직임을 추정하는 움직임 추정부; 및
    상기 추정된 머리의 움직임을 기초로 청각 기기의 동작을 제어하는 청각 기기 제어부
    를 포함하고,
    상기 청각 기기 제어부는,
    상기 추정된 머리의 움직임을 미리 정해진 머리의 움직임과 비교하고, 상기 추정된 머리의 움직임이 미리 결정된 머리의 움직임 중 하나와 일치하는 것에 응답하여, 상기 미리 결정된 머리의 움직임 중 하나에 대응하는 상기 청각 기기의 동작을 제어하는
    청각 기기.
  2. 제1항에 있어서,
    적어도 두 개의 마이크로폰들을 포함하고, 상기 마이크로폰들 각각에서 수신된 오디오 신호를 검출하는 오디오 신호 검출부
    를 더 포함하는 청각 기기.
  3. 제2항에 있어서,
    상기 움직임 추정부는,
    상기 검출된 오디오 신호들의 시간 차이 정보 또는 레벨 차이 정보 중 적어도 하나에 기반하여 상기 머리의 움직임을 추정하는 청각 기기.
  4. 제3항에 있어서,
    상기 움직임 추정부는,
    상기 마이크로폰들의 상대적인 위치를 이용하여 상기 시간 차이 정보 또는 상기 레벨 차이 정보 중 적어도 하나를 획득하는 청각 기기.
  5. 제3항에 있어서,
    상기 시간 차이 정보는,
    상기 검출된 오디오 신호들의 인터오럴 시간 차(Interaural Time Difference: ITD) 정보이고,
    상기 레벨 차이 정보는,
    상기 검출된 오디오 신호들의 인터오럴 레벨 차(Interaural Level Difference: ILD) 정보인 청각 기기.
  6. 제3항에 있어서,
    미리 정해진 시간 차이 정보 또는 레벨 차이 정보 중 적어도 하나와, 이에 대응하는 머리의 움직임을 기록하는 룩업 테이블
    을 더 포함하고,
    상기 움직임 추정부는, 상기 룩업 테이블을 참조하여, 상기 검출된 오디오 신호들의 시간 차이 정보 또는 레벨 차이 정보 중 적어도 하나에 대응하는 상기 머리의 움직임을 추정하는 청각 기기.
  7. 제1항에 있어서,
    사용자 제스쳐를 감지하는 제스쳐 감지부
    를 더 포함하고,
    상기 청각 기기 제어부는,
    상기 제스쳐 감지부에서 미리 정해진 사용자의 제스쳐가 감지되는 경우, 상기 미리 정해진 사용자의 제스쳐에 대응하는 상기 청각 기기의 동작을 제어하는 청각 기기.
  8. 제7항에 있어서,
    상기 미리 정해진 사용자의 제츠쳐와 매핑되는 상기 청각 기기의 동작에 대한 정보를 저장하는 제스쳐 매핑부
    를 더 포함하고,
    상기 청각 기기 제어부는, 상기 제스쳐 매핑부를 참조하여, 상기 감지된 사용자 제츠쳐에 대응하는 상기 청각 기기의 동작을 제어하는 청각 기기.
  9. 제1항에 있어서,
    상기 청각 기기 제어부는,
    미리 정해진 머리의 움직임이 감지되는 경우, 상기 미리 정해진 머리의 움직임에 대응하는 상기 청각 기기의 동작을 제어하는 청각 기기.
  10. 제9항에 있어서,
    상기 미리 정해진 머리의 움직임과 매핑되는 상기 청각 기기의 동작에 대한 정보를 저장하는 머리 움직임 매핑부
    를 더 포함하고,
    상기 청각 기기 제어부는, 상기 머리 움직임 매핑부를 참조하여, 상기 추정된 머리의 움직임에 대응하는 상기 청각 기기의 동작을 제어하는 청각 기기.
  11. 제1항에 있어서,
    사용자에게 상기 청각 기기의 동작에 대한 정보를 제공하는 동작 정보 제공부
    를 더 포함하고,
    상기 동작 정보 제공부는,
    상기 청각 기기의 동작에 대하여 시각적, 청각적, 또는 촉각적 피드백 중 어느 하나인 피드백 정보를 제공하는 청각 기기.
  12. 제11항에 있어서,
    상기 동작 정보 제공부는,
    상기 청각 기기의 현재 동작과 다른 동작에 대한 정보를 제공하는 청각 기기.
  13. 제1항에 있어서,
    상기 추정된 머리의 움직임을 기초로 외부 기기의 동작을 제어하는 외부 기기 제어부
    를 더 포함하는 청각 기기.
  14. 청각 기기로부터 수신한 오디오 신호에 대한 정보를 이용하여 머리의 움직임을 추정하는 움직임 추정부; 및
    상기 추정된 머리의 움직임을 기초로 상기 청각 기기의 동작을 제어하는 청각 기기 제어부
    를 포함하고,
    상기 청각 기기 제어부는,
    상기 추정된 머리의 움직임을 미리 정해진 머리의 움직임과 비교하고, 상기 추정된 머리의 움직임이 미리 결정된 머리의 움직임 중 하나와 일치하는 것에 응답하여, 상기 미리 결정된 머리의 움직임 중 하나에 대응하는 상기 청각 기기의 동작을 제어하는
    청각 기기 컨트롤러.
  15. 제14항에 있어서,
    상기 청각 기기로부터 상기 오디오 신호에 대한 정보를 수신하는 통신부
    를 더 포함하는 청각 기기 컨트롤러.
  16. 제14항에 있어서,
    상기 추정된 머리의 움직임을 기초로 외부 기기의 동작을 제어하는 외부 기기 제어부
    를 더 포함하는 청각 기기 컨트롤러.
  17. 제14항에 있어서,
    사용자에게 상기 청각 기기의 동작에 대한 정보를 제공하는 동작 정보 제공부
    를 더 포함하고,
    상기 동작 정보 제공부는,
    상기 청각 기기의 동작에 대하여 시각적, 청각적, 또는 촉각적 피드백 중 어느 하나인 피드백 정보를 제공하는 청각 기기 컨트롤러.
  18. 적어도 두 개의 마이크로폰들을 포함하고, 상기 마이크로폰들 각각에서 수신된 오디오 신호를 검출하는 오디오 신호 검출부; 및
    상기 검출된 오디오 신호들에 대한 정보를 청각 기기 컨트롤러에 송신하는 통신부
    를 포함하고,
    상기 검출된 오디오 신호들에 대한 정보는 머리의 움직임을 추정하는데 사용되고, 추정된 머리의 움직임은 미리 정해진 머리의 움직임과 비교되고, 상기 추정된 머리의 움직임이 미리 결정된 머리의 움직임 중 하나와 일치하는 것에 응답하여, 상기 미리 결정된 머리의 움직임 중 하나에 대응하는 동작이 수행되는
    청각 기기.
KR1020130076509A 2013-07-01 2013-07-01 머리 움직임을 이용한 사용자 인터페이스 방법 및 장치 KR102192361B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130076509A KR102192361B1 (ko) 2013-07-01 2013-07-01 머리 움직임을 이용한 사용자 인터페이스 방법 및 장치
US14/320,008 US9374647B2 (en) 2013-07-01 2014-06-30 Method and apparatus using head movement for user interface

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130076509A KR102192361B1 (ko) 2013-07-01 2013-07-01 머리 움직임을 이용한 사용자 인터페이스 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20150003528A KR20150003528A (ko) 2015-01-09
KR102192361B1 true KR102192361B1 (ko) 2020-12-17

Family

ID=52115625

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130076509A KR102192361B1 (ko) 2013-07-01 2013-07-01 머리 움직임을 이용한 사용자 인터페이스 방법 및 장치

Country Status (2)

Country Link
US (1) US9374647B2 (ko)
KR (1) KR102192361B1 (ko)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9877116B2 (en) * 2013-12-30 2018-01-23 Gn Hearing A/S Hearing device with position data, audio system and related methods
JP6674737B2 (ja) * 2013-12-30 2020-04-01 ジーエヌ ヒアリング エー/エスGN Hearing A/S 位置データを有する聴取装置および聴取装置の動作方法
WO2016025826A1 (en) * 2014-08-15 2016-02-18 iHear Medical, Inc. Canal hearing device and methods for wireless remote control of an appliance
US9769577B2 (en) 2014-08-22 2017-09-19 iHear Medical, Inc. Hearing device and methods for wireless remote control of an appliance
US10097933B2 (en) 2014-10-06 2018-10-09 iHear Medical, Inc. Subscription-controlled charging of a hearing device
US20160134742A1 (en) 2014-11-11 2016-05-12 iHear Medical, Inc. Subscription-based wireless service for a canal hearing device
CN104503592A (zh) * 2015-01-23 2015-04-08 北京智谷睿拓技术服务有限公司 头部动作确定方法和装置
US10409394B2 (en) * 2015-08-29 2019-09-10 Bragi GmbH Gesture based control system based upon device orientation system and method
US9949013B2 (en) * 2015-08-29 2018-04-17 Bragi GmbH Near field gesture control system and method
US10348891B2 (en) * 2015-09-06 2019-07-09 Deborah M. Manchester System for real time, remote access to and adjustment of patient hearing aid with patient in normal life environment
US20170195811A1 (en) * 2015-12-30 2017-07-06 Knowles Electronics Llc Audio Monitoring and Adaptation Using Headset Microphones Inside User's Ear Canal
US10110986B1 (en) * 2017-03-28 2018-10-23 Motorola Mobility Llc Haptic feedback for head-wearable speaker mount such as headphones or earbuds to indicate ambient sound
US10277973B2 (en) * 2017-03-31 2019-04-30 Apple Inc. Wireless ear bud system with pose detection
DE102018206979A1 (de) * 2018-05-04 2019-11-07 Sivantos Pte. Ltd. Verfahren zum Betrieb eines Hörgeräts und Hörgerät
US11843919B2 (en) 2019-06-17 2023-12-12 Cochlear Limited Improving musical perception of a recipient of an auditory device
CN111010640A (zh) * 2019-12-20 2020-04-14 歌尔智能科技有限公司 耳机的控制方法、耳机及存储介质
WO2021181966A1 (ja) * 2020-03-09 2021-09-16 ソニーグループ株式会社 画像処理装置、画像処理方法、プログラム
KR20210150862A (ko) * 2020-06-04 2021-12-13 주식회사 브이터치 제스처를 인식하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
DE102020209939A1 (de) 2020-08-06 2022-02-10 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zum Erkennen von Kopfgesten
KR20220084902A (ko) * 2020-12-14 2022-06-21 삼성전자주식회사 주변 소리 제어 방법 및 이를 위한 전자 장치
US12033628B2 (en) 2020-12-14 2024-07-09 Samsung Electronics Co., Ltd. Method for controlling ambient sound and electronic device therefor
IT202100019751A1 (it) * 2021-07-23 2023-01-23 Monte Paschi Fiduciaria S P A Dispositivo auricolare controllabile motorialmente per la ricetrasmissione di segnali acustici
US11762456B2 (en) 2021-09-27 2023-09-19 International Business Machines Corporation Head-movement-based user interface and control

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101249320B1 (ko) * 2008-07-11 2013-04-01 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 오디오 인코딩 및 디코딩에서의 위상 정보의 효율적 이용

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE502311T1 (de) 2003-10-10 2011-04-15 Harman Becker Automotive Sys System und verfahren zur bestimmung der position einer schallquelle
EP1600791B1 (en) 2004-05-26 2009-04-01 Honda Research Institute Europe GmbH Sound source localization based on binaural signals
US7778433B2 (en) * 2005-04-29 2010-08-17 Industrial Technology Research Institute Wireless system and method thereof for hearing
US7590772B2 (en) * 2005-08-22 2009-09-15 Apple Inc. Audio status information for a portable electronic device
EP1946610A2 (en) * 2005-11-01 2008-07-23 Koninklijke Philips Electronics N.V. Sound reproduction system and method
DE602007009784D1 (de) * 2007-01-16 2010-11-25 Harman Becker Automotive Sys Vorrichtung und Verfahren zum Verfolgen von surround Kopfhörern unter Verwendung von Audiosignalen unterhalb der maskierten Hörschwelle
DE102007005861B3 (de) * 2007-02-06 2008-08-21 Siemens Audiologische Technik Gmbh Hörvorrichtung mit automatischer Ausrichtung des Richtmikrofons und entsprechendes Verfahren
US20110200213A1 (en) * 2010-02-12 2011-08-18 Audiotoniq, Inc. Hearing aid with an accelerometer-based user input
US9237393B2 (en) * 2010-11-05 2016-01-12 Sony Corporation Headset with accelerometers to determine direction and movements of user head and method
DE102011075006B3 (de) * 2011-04-29 2012-10-31 Siemens Medical Instruments Pte. Ltd. Verfahren zum Betrieb eines Hörgerätes mit verringerter Kammfilterwahrnehmung und Hörgerät mit verringerter Kammfilterwahrnehmung
KR20130039114A (ko) * 2011-10-11 2013-04-19 엘지전자 주식회사 이동 단말기 및 그 구동 방법
US8781142B2 (en) * 2012-02-24 2014-07-15 Sverrir Olafsson Selective acoustic enhancement of ambient sound
US9420386B2 (en) * 2012-04-05 2016-08-16 Sivantos Pte. Ltd. Method for adjusting a hearing device apparatus and hearing device apparatus
US9445172B2 (en) * 2012-08-02 2016-09-13 Ronald Pong Headphones with interactive display

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101249320B1 (ko) * 2008-07-11 2013-04-01 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 오디오 인코딩 및 디코딩에서의 위상 정보의 효율적 이용

Also Published As

Publication number Publication date
KR20150003528A (ko) 2015-01-09
US9374647B2 (en) 2016-06-21
US20150003651A1 (en) 2015-01-01

Similar Documents

Publication Publication Date Title
KR102192361B1 (ko) 머리 움직임을 이용한 사용자 인터페이스 방법 및 장치
US11089402B2 (en) Conversation assistance audio device control
US10817251B2 (en) Dynamic capability demonstration in wearable audio device
US10284939B2 (en) Headphones system
EP3892009B1 (en) Wearable audio device with head on/off state detection
US9622013B2 (en) Directional sound modification
US10922044B2 (en) Wearable audio device capability demonstration
JP2018509820A (ja) パーソナライズされたヘッドホン
US10354651B1 (en) Head-mounted device control based on wearer information and user inputs
US11036464B2 (en) Spatialized augmented reality (AR) audio menu
US11438710B2 (en) Contextual guidance for hearing aid
KR102386110B1 (ko) 휴대용 음향기기
US11039265B1 (en) Spatialized audio assignment
CN115605944A (zh) 基于活动的智能透明度
KR102175180B1 (ko) 자세 검출에 기반한 피드백 방지 방법 및 상기 방법을 수행할 수 있는 장치들
KR20160054438A (ko) 능동 방향성 이득 조정 가능한 양이 보청기 시스템

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right