JP2020500492A - 空間的アンビエントアウェア型の個人用オーディオ供給デバイス - Google Patents

空間的アンビエントアウェア型の個人用オーディオ供給デバイス Download PDF

Info

Publication number
JP2020500492A
JP2020500492A JP2019546780A JP2019546780A JP2020500492A JP 2020500492 A JP2020500492 A JP 2020500492A JP 2019546780 A JP2019546780 A JP 2019546780A JP 2019546780 A JP2019546780 A JP 2019546780A JP 2020500492 A JP2020500492 A JP 2020500492A
Authority
JP
Japan
Prior art keywords
sound
signal
pinna
transfer function
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019546780A
Other languages
English (en)
Other versions
JP2020500492A5 (ja
Inventor
ジェイン、カピル
Original Assignee
エンボディーヴィーアール、インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エンボディーヴィーアール、インコーポレイテッド filed Critical エンボディーヴィーアール、インコーポレイテッド
Publication of JP2020500492A publication Critical patent/JP2020500492A/ja
Publication of JP2020500492A5 publication Critical patent/JP2020500492A5/ja
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/12Audiometering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/12Audiometering
    • A61B5/121Audiometering evaluating hearing capacity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6814Head
    • A61B5/6815Ear
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B7/00Measuring arrangements characterised by the use of electric or magnetic techniques
    • G01B7/14Measuring arrangements characterised by the use of electric or magnetic techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/005Details of transducers, loudspeakers or microphones using digitally weighted transducing elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1008Earpieces of the supra-aural or circum-aural type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1058Manufacture or assembly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/22Arrangements for obtaining desired frequency or directional characteristics for obtaining desired frequency characteristic only 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/323Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only for loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/04Circuits for transducers, loudspeakers or microphones for correcting frequency response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • H04S7/304For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space
    • H04S7/306For headphones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4005Detecting, measuring or recording for evaluating the nervous system for evaluating the sensory system
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7405Details of notification to user or communication with user or patient ; user input means using sound
    • A61B5/7415Sound rendering of measured values, e.g. by pitch or volume variation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1016Earpieces of the intra-aural type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R11/00Transducers of moving-armature or moving-core type
    • H04R11/02Loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/02Details casings, cabinets or mounting therein for transducers covered by H04R1/02 but not provided for in any of its subgroups
    • H04R2201/029Manufacturing aspects of enclosures transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/77Design aspects, e.g. CAD, of hearing aid tips, moulds or housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/033Headphones for stereophonic communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Otolaryngology (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Manufacturing & Machinery (AREA)
  • Fuzzy Systems (AREA)
  • Psychiatry (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Physiology (AREA)
  • Stereophonic System (AREA)
  • Headphones And Earphones (AREA)
  • Stereophonic Arrangements (AREA)
  • Image Analysis (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

オーディオデバイスにおける少なくとも1つのセンサにより検出された音を示す信号が受信される。オーディオデバイスは、耳介を少なくとも部分的に覆っていてよく、検出された音は、少なくとも人体の胴と相互作用してよいが、頭および肩とも相互作用することができる。信号が非線形伝達関数で変調されて、オーディオデバイスが耳介を少なくとも部分的に覆っている間に、検出された音の位置を空間的に特定するための1つまたは複数のオーディオキューを示す変調信号が生成される。当該変調信号に基づいて、オーディオデバイスにより音が出力される。

Description

本開示は、米国特許法第119条(e)の定めにより、2016年11月14日に出願された「Spatially Ambient Aware Audio Headset」と題する米国特許仮出願第62/421,380号、2016年11月20日に出願された「Head Anatomy Measurement and HRTF Personalization」と題する米国特許仮出願第62/424,512号、2017年3月8日に出願された「System and Method to Capture and Characterize Human Auditory Anatomy Using Mobile Device」と題する米国特許仮出願第62/468,933号、2016年11月13日に出願された「Personalized Audio Reproduction System and Method」と題する米国特許仮出願第62/421,285号、および、2017年3月2日に出願された「Method and Protocol for Human Auditory Anatomy Characterization in Real Time」と題する米国特許仮出願第62/466,268号の優先権の利益を主張するものであり、これらの各々の内容全体が参照により本明細書に組み込まれる。
本開示は、_に出願された「Method, System, and Apparatus for Measuring Head Size Using a Magnetic Sensor Mounted on a Personal Audio Delivery Device」と題する米国特許出願第_号、代理人整理番号154.2016 0004 ORG US1、_に出願された「Image and Audio Based Characterization of a Human Auditory System for Personalized Audio Reproduction」と題する米国特許出願第_号、代理人整理番号154.2016 0002 ORG US1、_に出願された「Audio Based Characterization of a Human Auditory System for Personalized Audio Reproduction」と題する米国特許出願第_号、代理人整理番号154.2016 0007 ORG US1、および、_に出願された「System and Method to Capture Image of Pinna and Characterize Human Auditory Anatomy using Image of Pinna」と題する米国特許出願第_号、代理人整理番号154.2016 0008 ORG US1にも関連しており、これらの各々の内容全体が参照により本明細書に組み込まれる。
本開示は、コンシューマグッズ、より具体的には、音の空間的位置特定を容易にする個人用オーディオ供給デバイスに関連する。空間的位置特定は、個人用オーディオ供給デバイスを着用している人に、音が発せられている方向を示すオーディオキューを提供することによって容易になる。
人間の聴覚系は、外耳、中耳および内耳を含む。人間の聴覚系は、外耳、中耳および内耳を用いて音を聞くことができる。例えば、室内ラウドスピーカなどの音源が音を出力し得る。外耳の耳介がその音を受信し、音を外耳の外耳道に導く。次に、外耳の外耳道は、音を中耳に導く。人間の聴覚系の中耳は、音を内耳液に伝達して神経インパルスに変換する。次に、脳が神経インパルスを読み取って、音が聞こえる。更に、人間の聴覚系は、音が発せられている方向を感知することができる。音源の方向の感知は、人体構造との相互作用に基づいて行われる。この相互作用には、頭、肩および耳介に反射および/または反響する音、および、頭、肩および耳介を回折する音が含まれる。この相互作用によって、音が発せられている方向を感知するために脳が解読するオーディオキューが生成される。
現在では、ヘッドフォン、ヒアラブル、イヤバッド、スピーカまたは補聴器などの個人向けオーディオ供給デバイスを着用して音を聴くことがより一般的になりつつある。個人向けオーディオ供給デバイスは、音、例えば、音楽を外耳の外耳道に出力する。例えば、あるユーザが、音を外耳道に出力するイヤカップを耳介に固定して着用する。或いは、骨伝導ヘッドセットが中耳の骨を振動させて、音を人間の聴覚系に伝える。個人向けオーディオ供給デバイスは、音を正確に再生する。しかし、音源からの音と違って、個人向けオーディオ供給デバイスからの音は、音が発せられている方向を正確に感知できるように人体構造と相互作用することはない。耳介にイヤカップを固定すると、個人用オーディオ供給デバイスからの音は耳介と相互作用することができず、骨伝導は耳介を完全に迂回し得る。方向を示すオーディオキューが生成されない結果、その人は、音が発せられている方向を感知することができない。
以下の説明、添付の請求項、および添付の図面に関連して、ここに開示される技術の特徴、態様および利点をより深く理解することができる。
音の空間的位置特定に使用される様々なパラメータを視覚化したものの例である。
音の空間的位置特定における人体構造の態様を示している。
人体構造が両耳間のオーディオキューに与える影響の例を示している。
人体構造の耳介の詳細図を示している。
音の空間的位置特定のための例示的なシステムを示している。 音の空間的位置特定のための例示的なシステムを示している。
音の空間的位置特定のための例示的なシステムにおける処理エンジンの例示的な構成を示している。 音の空間的位置特定のための例示的なシステムにおける処理エンジンの例示的な構成を示している。
個人用オーディオ供給デバイスを着用している人に聞こえる実世界の音の空間的位置特定を提供することに関する機能の例示的フローチャートである。
音の空間的位置特定と関連付けられる非線形伝達関数の例を示している。
非線形伝達関数を決定することと関連付けられる例示的な構成を示している。 非線形伝達関数を決定することと関連付けられる例示的な構成を示している。 非線形伝達関数を決定することと関連付けられる例示的な構成を示している。 非線形伝達関数を決定することと関連付けられる例示的な構成を示している。 非線形伝達関数を決定することと関連付けられる例示的な構成を示している。
図面は例示的な実施形態を示すことを目的としているが、これらの実施形態が図面に示されている構成および手段に限定されるわけではないことが解る。
ある音源が音を出力し得る。音が発せられる方向が、1つまたは複数のオーディオキューを用いて人間の聴覚系により特定され得る。オーディオキューは、音の空間的位置、例えば、音が発せられている場所を示す音(例えば、反射および反響)であってよい。オーディオキューは、人間の聴覚系に到達する前に、音と、環境中の物体と、人体構造との相互作用から生成され得る。例えば、物体からの反響および反射がオーディオキューを生成し得る。更にまたは或いは、頭の形状、頭のサイズ、肩の形状、肩のサイズ、および外耳(耳介)の構造といった人体構造の態様がオーディオキューを生成し得る。各人が異なる人体構造を有し得る。この点で、ある人が音の位置を空間的に特定するために使用するオーディオキューが、別の人にとっては異なっていてよい。
図1は、音源102により出力された音の位置を空間的に特定することを容易にするパラメータを視覚化したものの例100である。1つまたは複数のパラメータが、リスナー104の位置と音源102との関係を表し得る。パラメータには、方位角106、仰角108、並びに、距離110および/または速度112が含まれ得る。方位角106は、リスナー104と音源102との間の水平面における角度であってよい。仰角108は、リスナー104と音源102との間の垂直面における角度であってよい。距離110は、リスナー104と音源102との隔たりであってよい。速度112は、音源102の移動速度を表し得る。方向を示す他のパラメータが使用されてもよい。
図2は、音の位置特定に使用される人体構造の態様202から208を示している。人体構造との音の相互作用に基づいて、オーディオキューが生成され得る。オーディオキューは、音が発せられる空間的位置を示し得る。図示されている人体構造は、胴202、耳206を含めた頭204、および、耳介208を含む。
胴202からの音の反射は、音が発せられている場所からの仰角および距離のうちの1つまたは複数を示すオーディオキューを生成し得る。これらの反射は、胴の影響としてモデル化される。耳の対称性および両耳206間の距離Dを含む頭204の全体形状が、音が発せられている場所からの方位角および仰角のうちの1つまたは複数に関するオーディオキューを生成し得る。これは頭の影響としてモデル化される。最後に、音が耳介208の形状、サイズおよび構造とどのように相互作用するかが、音が発せられる場所からの仰角、方位角、距離および速度のうちの1つまたは複数に関するオーディオキューを生成し得る。
図3は、方位角を示すオーディオキューがどのように生成されるかを示している。音源304から一定の距離をあけた所に人302が位置付けられ得る。音源304は音306を出力し得る。次に、その人は、左耳308および右耳310において音306を感知する。
両耳間時間差(ITD)は、2つの耳308、310の間の到達時間の差を表す。音源304により生成された音x(t)が左耳308へ到達するのに要する時間はTであり、右耳310へ到達するのに要する時間はTである。ITDはTとTとの差を表す。同様に、任意の時間tにおいて、左耳308における音圧レベルX(t)は、右耳310において得られる音圧レベルX(t)とは異なる。この強度差は、両耳間レベル差(ILD)オーディオキューで表される。頭の形状およびサイズが異なると、これらのオーディオキュー(ITDおよびILD)は異なっていてよい。頭がより大きいと、すなわち、左耳308と右耳310との間の距離がより長いと、頭がより小さい場合よりも大きな時間差および強度差が生じる。
ITDオーディオキューおよびILDオーディオキューは、リスナーと音源との間の方位角に正比例し得る。この点で、音源の方位角が感知され得る。しかしながら、仰角、距離および速度の観点から見ると、ITDおよびILDでは、音の方向の位置を更に特定するのに不十分であるかもしれない。
図4は、耳介400の解剖学的構造の詳細図、および、音がどのように変換され得るかを示している。耳介400は様々な特徴を有し得る。これらの特徴には、耳介400の高さ、幅、形状および深さが含まれ得る。更に、これらの特徴には、数ある特徴の中でも、耳輪402、窩404、耳甲介舟406、耳甲介腔408、耳珠410、耳切痕412、対耳輪414および対耳珠416が含まれ得る。これらの特徴は、1つまたは複数の空洞を形成する。1つまたは複数の空洞の内部では、音が共鳴および/または反射し得る。例えば、耳介の構造に起因して、音源からの音の振幅が周波数により増加したり減少したりする。こうした増加および/または減少は、耳介400の特徴と関連付けられる反射および/または反響に起因し得る。音の変換によってオーディオキューが生成され得る。次に、これらのオーディオキューは、仰角、距離および速度の観点から音の方向の位置を更に特定するために使用され得る。
ヘッドフォン、イヤバッド、イヤフォン、スピーカ、ヒアラブルおよび補聴器などの個人用オーディオ供給デバイスは、人間の聴覚系に音を直接出力し得る。例えば、ヘッドフォンのイヤカップが耳介に配置されてよく、イヤカップ内のトランスデューサが人間の聴覚系の外耳道に音を出力してよい。しかしながら、イヤカップは耳介を覆っていてもよいし、部分的に覆っていてもよい。別の例を挙げると、あるイヤバッドはイヤカップを有さないかもしれないが、依然として、耳介を部分的に覆いながら人間の聴覚系の外耳道に音を出力し得る。その結果、耳介がそのような音と相互作用して、音が発せられている方向を感知するためのオーディオキューを生成することはないかもしれない。
本明細書で説明される実施形態は、個人用オーディオ供給デバイスを着用している人に聞こえる実世界の音の位置を空間的に特定するように構成されている個人用オーディオ供給デバイスを対象にしている。実世界の音は、個人用オーディオ供給デバイス以外の音源により出力される音であってよい。そうでなければ、人が実世界の音の位置を空間的に正確に特定すること、例えば、音が発せられている場所を決定することはできないであろう。なぜなら、個人用オーディオ供給デバイスを着用すると、実世界の音は、耳介と相互作用して、空間的位置を示すオーディオキューを生成することができないからである。音の空間的位置特定には、特に、人がスポーツに従事しながら音楽を聴いているかもしれない、ランニングおよびサイクリングなどのスポーツにおいて多くの利益がある。例えば、車道でランニングまたはサイクリングをしている人が、車道における車のクラクションおよび緊急用サイレンなど、自らの周囲の音を空間的に認識することもできるため、その人は、音が発せられている方向に基づいて自らの行動を訂正して、安全な状態を保つことができる。音の空間的位置特定には他の利益もある。
例を挙げると、空間的位置特定を容易にするオーディオキューが、例えば、頭部伝達関数(HRTF)とも呼ばれる非線形伝達関数、または、オーディオキューの生成を容易にし得る伝達関数(線形であっても非線形であってもよい)に基づいて人為的に生成され得る。非線形伝達関数は、頭、胴、肩、耳介、および、人間の聴覚的な位置特定に影響を与える人体構造の他の部分との相互作用に基づいて、音が人間の聴覚系にどのように受信されるかの特徴を示し得る。非線形伝達関数は、音源の方位角、仰角、距離および/または速度を決定するためのオーディオキューを人為的に生成するために使用され得る。
図5Aは、空間的位置特定のための例示的なシステム500を示している。システム500は、音声または音楽などの音を出力するヘッドセットなどの個人用オーディオ供給デバイス502と、処理エンジン504とを含み得る。
個人用オーディオ供給デバイス502は、耳介508に着用されるイヤカップ506を有し得る。耳介508はイヤカップ506が着用されると外部から見えないかもしれないが、例示を目的として、耳介508は見えるものとして示されている。イヤカップ506は、1つまたは複数のトランスデューサ510および1つまたは複数のセンサ512を有し得る。トランスデューサ510は、音を表す電気信号の変換に基づいて可聴音を出力するスピーカであってよい。センサ512は、可聴音を検出し、かつ、可聴音を電気信号に変換する、マイクの形態を取ってよい。
個人用オーディオ供給デバイス502は、音が個人用オーディオ供給デバイス502以外の音源により生成され得る環境において使用され得る。これらの音は、実世界の音と呼ばれる。例えば、個人用オーディオ供給デバイス502のトランスデューサ510により出力される音楽とは対照的に、音源は車のクラクション、緊急用の車両音、他の人々などであってよい。センサ512は、この音を検出し、この音を電気信号に変換し得る。場合によっては、イヤカップ502上のセンサ512が耳介508および/またはトランスデューサ510と反対の方向を向くように装着され、トランスデューサ510により出力される音と比較すれば実世界の音のサンプリングが向上し得る。処理エンジン504は、センサおよび/またはトランスデューサと関連付けられる信号を処理し得る。
図5Bは、空間的位置特定のための別の例示的なシステム550を示している。システム550は、音声または音楽などの音を外耳道に出力するイヤバッド552などの個人用オーディオ供給デバイスと、処理エンジン554とを含み得る。個人用オーディオ供給デバイス502とは違って、イヤバッド552は、外耳道に挿入した状態にすることによって、耳介558上の定位置に保持され得る。その結果、イヤバッド552は、イヤカップ506と比較すれば耳介558を覆っている部分が少ないかもしれない。例示的なシステム550は、処理エンジン554、トランスデューサ560およびセンサ562を含んでもよい。
一般に、個人用オーディオ供給デバイス(オーディオ供給デバイスとも呼ばれる)は、様々な形態を取ってよい。個人用オーディオ供給デバイスは、上記のようなヘッドセットまたはイヤバッドであってよい。或いは、個人用オーディオ供給デバイスは、ヒアラブルまたは補聴器であってよい。他の変形例も適用可能であり、開示されている空間的位置特定は、個人用オーディオ供給デバイスが取る形態により限定されない。
図6Aおよび図6Bは、空間的位置特定のための例示的なシステムにおける処理エンジン504の例示的な構成を示している。処理エンジンは、数ある構成の中でも、プロセッサまたはサーバの形態を取ってよい。
図6Aは、プロセッサ602の形態の処理エンジンを有する個人用オーディオ供給デバイス600の構成を示している。プロセッサ602は、メモリなどの記憶装置に記憶されているコンピュータ命令を実行して1つまたは複数のセンサ604および1つまたは複数のトランスデューサ606と関連付けられる信号を処理する、個人用オーディオ供給デバイス600のローカルな中央処理装置(CPU)であってよい。プロセッサ602が個人用オーディオ供給デバイス600と一体化されている場合は、プロセッサ602がローカルであってよい。
図6Bは、個人用オーディオ供給デバイス610、および、ネットワーク614を介して連結されているサーバ612の形態の処理エンジンの構成を示している。サーバ612は、ネットワークベースのコンピューティングシステムであってよい。サーバ612は、1つまたは複数のセンサ604および1つまたは複数のトランスデューサ606と関連付けられる信号を処理し得る。サーバ612は、ネットワーク614を介して個人用オーディオ供給デバイスからアクセス可能であってよい。ネットワーク614は、有線ネットワークまたは無線ネットワークの形態を取ってよい。個人用オーディオ供給デバイス610は、トランスデューサおよび/またはセンサと関連付けられる信号の処理が容易になるよう、例えば、Wi−Fiまたはイーサネット(登録商標)を介して、サーバ612と信号618を通信するための通信回路616を有し得る。
ローカルプロセッサは、サーバと比較すれば、1つまたは複数のトランスデューサにより出力された音、および/または、1つまたは複数のマイクにより検出された音と関連付けられる信号を処理することと関連付けられるレイテンシが少ないかもしれない。サーバへの通信と関連付けられる遅延がないので、レイテンシは少ないかもしれない。個人用オーディオ供給デバイスは電池式であってよい。ローカルプロセッサで信号を処理すると、バッテリ電源の充電または交換が必要となる前に個人用オーディオ供給デバイスが動作し得る時間が減少し得る。1つまたは複数のトランスデューサ、および/または、1つまたは複数のマイクにより出力された音と関連付けられる信号の処理によって、バッテリからの電源が消費され得る。そうでなければ、バッテリからの電源は、個人用オーディオ供給デバイスが音を出力するために使用されるであろう。
処理エンジンは他の形態も取ってよい。例えば、処理エンジンは、サーバおよび個人用オーディオ供給デバイスのローカルなCPUの形態を取ってよい。すなわち、信号の処理は、個人用オーディオ供給デバイスにおけるプロセッサによりローカルに実行されてよく、サーバにおいて遠隔的に実行されてよい。更に他の変形例も適用可能である。
図7は、個人用オーディオ供給デバイスを着用している人に聞こえる実世界の音の位置を空間的に特定することと関連付けられる機能のフローチャート700である。これらの機能は、個人用オーディオ供給デバイスおよび処理エンジンを含む例示的なシステム500により実行され得る。
簡単に言うと、702では、特定の人体構造、例えば、胴、頭および/または肩と相互作用する音が、イヤカップに位置付けられるマイクにより検出される。イヤカップは耳介に着用されてよく、音は胴と相互作用する実世界の音であってよい。704では、検出された音を示す第1信号がマイクにより出力される。706では、第1信号で非線形伝達関数が変調されて、検出された音の空間的位置特定を容易にする1つまたは複数のオーディオキューを示す第2信号が生成される。708では、個人用オーディオ供給デバイスにより出力された音を示す第3信号が受信される。710では、第2信号が第3信号と混合され得る。712では、イヤカップが耳介に着用されている間に、1つまたは複数のオーディオキューに基づいて、検出された音の空間的位置特定が容易になるよう、混合された信号が個人用オーディオ供給デバイスのイヤカップのトランスデューサにより出力される。
本明細書で開示される方法および他のプロセスは、1つまたは複数の動作、機能または行為を含み得る。ブロックは順番に示されているが、これらのブロックは、並行して、および/または、本明細書で説明されているものとは異なる順序で実行されてもよい。また、所望の実装に基づいて、これらの様々なブロックを組み合わせてより少ないブロックにしてよく、更なるブロックに分割してよく、および/または、除去してよい。
更に、本明細書で開示される方法、並びに、他のプロセスおよび方法として、フローチャートは、本実施形態の1つの適用可能な実装の機能および動作を示している。この点で、各ブロックがプログラムコードの一部、セグメントまたはモジュールを表し得る。プログラムコードは、プロセスにおける特定の論理機能または段階を実装するための、プロセッサにより実行可能な1つまたは複数の命令を含む。プログラムコードは、任意のタイプのコンピュータ可読媒体、例えば、ディスクまたはハードドライブを含む記憶デバイスなどに記憶され得る。コンピュータ可読媒体は、非一時的コンピュータ可読媒体、例えば、レジスタメモリ、プロセッサキャッシュおよびランダムアクセスメモリ(RAM)のように短期間にわたってデータを記憶するコンピュータ可読媒体などを含み得る。コンピュータ可読媒体は、例えば、リードオンリメモリ(ROM)、光ディスクまたは磁気ディスク、コンパクトディスクリードオンリメモリ(CD−ROM)のような、二次記憶装置または永続的長期記憶装置などの非一時的媒体を含んでもよい。コンピュータ可読媒体は、任意の他の揮発性記憶システムまたは不揮発性記憶システムであってもよい。コンピュータ可読媒体は、例えば、コンピュータ可読記憶媒体とみなされてもよいし、有形の記憶デバイスとみなされてもよい。更に、図中のブロックはそれぞれ、プロセスにおいて特定の論理機能を実行するために配線されている回路を表し得る。
ある個人が個人用オーディオ供給デバイスを着用し得る。個人用オーディオ供給デバイスは、個人が耳介に着用するイヤカップを有し得る。702に戻って参照すると、耳介に着用されるイヤカップに位置付けられるマイクにより音が検出される。マイクは、サンプルホールド回路または他のアナログ−デジタル変換回路を用いて音をデジタルサンプリングすることにより音を検出し得る。検出される音は、イヤカップを着用している人の特定の人体構造、例えば、胴、頭および/または肩と相互作用する実世界の音であってよい。実世界の音は、トランスデューサにより出力される音であるかもしれないし、出力される音ではないかもしれない。幾つかの例を挙げると、マイクは、イヤカップに位置付けられるトランスデューサにより出力されている任意の音ではなく、実世界の音を検出するのが容易になるよう、イヤカップが着用される耳介と反対の方向に向けられ得る。
704において、マイクは、検出された音を示す第1信号を出力し得る。第1信号は、検出された音の1つまたは複数のサンプルを定義し得る。第1信号は処理エンジンに提供され得る。更にまたは或いは、マイクは、検出された音が発せられる方向の指標となるものを出力し得る。例えば、マイクは、一定の方向から発せられる音を拾う指向性マイクであってよい。別の例として、マイクはマイクアレイであってよい。マイクアレイの各マイクが一定の方向に向けられ得る。幾つかのマイクが他のマイクよりも多くの音を拾う場合は、より多くの音を拾うそれらのマイクの向きが音の方向を示し得る。マイクアレイに基づく方向の決定は一般的に、ビームフォーミングとして知られている。マイクは方向の指標となるものを出力してよく、および/または、方向はマイクの出力に基づいて決定されてよい。
個人用オーディオ供給デバイスが2つのイヤカップを有する場合は、各イヤカップと関連付けられる、対応するマイクが実世界の音をサンプリングし得る。左マイクが左耳介付近の音をサンプリングしてよく、右マイクが右耳介付近の音をサンプリングしてよい。一例を挙げると、サンプリングは、各マイクが、段階704から段階712に従って処理される、対応する信号を出力できるように個別に行われ得る。更に、音を受信する複数のマイクは、例えばビームフォーミングにより、音が発せられる方向を決定するために使用され得る。次に、ビームフォーミングは、当該方向に基づく非線形伝達関数を、左マイクおよび右マイクと関連付けられる、サンプリングされた音に適用するために使用される。別の例を挙げると、各マイクにより出力された対応する信号は合成されてよく、合成されたこの信号は、段階704から段階712に従って処理されてよい。他の変形例も適用可能である。
実世界の音は、特定の人体構造、例えば、胴、頭および/または肩と相互作用し得る。しかしながら、個人用オーディオ供給デバイスのイヤカップが耳介を覆っているかもしれない、または、部分的に覆っているかもしれないので、実世界の音は、耳介と適切に相互作用しないかもしれない。その結果、実世界の音が発せられる方向を決定するのが容易になるよう、耳介と関連付けられるオーディオキューが生成されることはないかもしれない。
706では、非線形伝達関数が第1信号で変調される。幾つかの例を挙げると、非線形伝達関数は、時間領域において第1信号に畳み込まれる、または、周波数領域において第1信号と乗算される、インパルス応答であってよい。この変調により、この非線形伝達関数に基づいて第1信号が調整され、変調信号が形成されることになる。
非線形伝達関数は、音が耳介によってどのように変換されるかの特徴を示し得る。実世界の音が耳介と相互作用しないので、音の空間的位置と関連付けられるオーディオキューは見つからないかもしれない。非線形伝達関数による第1信号の変調によって、見つからないこれらのオーディオキューが人為的に生成されることになり得る。特に、音源の仰角、方位角、距離および/または速度を決定するためのオーディオキューが生成され得る。これらのオーディオキューは、実世界の音の空間的位置特定を容易にするために使用され得る。例えば、車のクラクション、緊急用の車両サイレン、および人々からの音の位置が空間的に特定されることで、個人用オーディオ供給デバイスを着用しているユーザの安全性が高まり得る。この点で、変調信号は、検出された音の空間的位置特定を容易にする1つまたは複数のオーディオキューを示す第2信号であってよい。
図8は、見つからないオーディオキューを生成するための非線形伝達関数の例800を示している。横軸802が、耳介において聞こえる、例えばHz単位での周波数を表し得る一方で、縦軸804は、例えばdB単位での周波数応答を表し得る。非線形伝達関数は、耳介が音をどのように変換するかの特徴を示し得る。例えば、非線形伝達関数は、音源の様々な仰角における耳介の周波数応答を示す波形を定義し得る。例えば、各波形が音源の特定の仰角と関連付けられ得る。更に、各波形が音源の同じ方位角と関連付けられ得る。この点で、音が所与の仰角および方位角から発せられると、当該所与の仰角の波形が耳介の周波数応答を定義し得る。更に、領域806は耳介の周波数応答におけるノッチを表してよく、領域808は耳介の周波数応答におけるピークを表してよい。
非線形伝達関数は他の形態を取ってもよい。例えば、非線形伝達関数は、所与の方位角に関する仰角に対する耳介の周波数応答、および、所与の仰角に関する方位角に対する耳介の周波数応答のうちの1つまたは複数を表し得る。非線形伝達関数は、距離、速度、仰角および/または方位角を含む複数の大きさに対する周波数応答を表し得る場合もある。
ここで、変調プロセスがより詳しく説明され得る。702において音を検出するマイクは、音が発せられている方向を検出してもよい。1つまたは複数のマイクにより検出された音の方向は、マイクにより検出された音の位置を空間的に特定するために非線形伝達関数と併せて使用され得る。方向と関連付けられる非線形伝達関数の周波数応答が、検出された音と関連付けられる音声信号で変調されて、検出された音の空間的位置特定を容易にする1つまたは複数のオーディオキューが生成され得る。例えば、マイクにより検出された音は、所与の方位角および仰角から発せられているかもしれない。非線形伝達関数は、音が所与の方位角および仰角から発せられると、耳介の周波数応答を示す波形を定義し得る。これらの波形が音声信号で変調されて、1つまたは複数のオーディオキューを示す第2信号が生成され得る。当該オーディオキューによって、ユーザは、検出された音が所与の方位角および仰角から発せられているのを感知できるかもしれない。
図9Aから図9Eは、非線形伝達関数を決定することと関連付けられる例示的な構成を示している。非線形伝達関数は様々なやり方で決定され得る。
図9Aは、直接測定により非線形伝達関数を決定することと関連付けられる例示的な構成900を示している。段階706においてオーディオキューが生成される個人906の外耳道904の入口付近に、マイク902が配置され得る。次に、個人906の周囲で音源908が動かされ得る。音源908は、個人の周囲で、方位角、仰角、距離および/または速度の面で複数の空間的位置に動かされてよく、その例が位置A、BおよびCとして示されている。各位置において、音源908は、人間の可聴域、すなわち20Hz〜20kHzにおいて周波数が変化する、チャープ信号の形態を取り得る音を出力してよい。20Hz〜20kHzに帯域制限されている、インパルスなどの他の音が使用されてもよい。耳介904内のマイク902により測定される、複数の空間的位置に関する耳介904の周波数応答が、非線形伝達関数を示し得る。場合によっては、複数の非線形伝達関数が決定され得る。複数の非線形伝達関数は、数ある中でも、所与の方位角に関する仰角に対する耳介の周波数応答、所与の距離に関する仰角に対する耳介の周波数応答、および/または、所与の速度に関する仰角に対する耳介の周波数応答のうちの1つまたは複数を表し得る。別の個人の耳介902について実行される直接測定により異なる非線形伝達関数がもたらされるよう、この非線形伝達関数は個人906に特有のものであってよい。
或いは、706でオーディオキューが生成される個人とは異なる複数の個人について、学習プロセスで直接測定が実行され得る。複数の個人のうちの所与の個人について実行される直接測定が、所与の非線形伝達関数を決定することになり得る。更に、幾つかの例を挙げると、耳介の画像が所与の個人について決定され、かつ、所与の個人について所与の非線形伝達関数と関連付けられ得る。この点で、当該学習プロセスには、複数の非線形伝達関数、および/または、関連付けられる耳介の画像を決定することが伴い得る。
図9Bは、耳介の画像を決定するための例示的な構成920を示している。耳介922の画像は、706においてオーディオキューが生成される個人とは異なる個人926について、カメラまたは携帯電話などの撮像デバイス924により撮像され得る。
図9Cは、706においてオーディオキューが生成される個人に関する非線形伝達関数を決定するための例示的な構成950を示しており、図9Aに示されているような直接測定をその個人について実行する必要はない。
例示的な構成950は、データベース952およびコンパレータ954を含み得る。データベース952およびコンパレータ954は、個人用オーディオ供給デバイス、サーバ、または、何らかの他のデバイスに存在し得る。データベース952は、学習プロセスで決定された複数の非線形伝達関数を記憶し得る。更に、幾つかの例を挙げると、データベース952は、学習プロセスで決定された複数の非線形伝達関数と関連付けられる耳介の画像を記憶し得る。例えば、データベース952内のエントリ956が、対応する非線形伝達関数958を定義してよく、そうした場合は、当該対応する非線形伝達関数と関連付けられる個人の耳介の画像960を定義してよい。データベースは複数のエントリ1:Nを有し得る。例示的な構成は、基準センサ出力962を含んでもよい。幾つかの例を挙げると、基準センサ出力962は、オーディオキューが生成される個人に関する耳介の1つまたは複数の周波数応答を示し得る。
図9Dは、1つまたは複数の周波数応答がどのように決定され得るかの例を示している。ある個人が個人用オーディオ供給デバイスを着用し得る。個人用オーディオ供給デバイスは、個人926が耳介922に着用するイヤカップ932を有し得る。イヤカップ932は耳介922と接触しているかもしれないが、例示を目的として、イヤカップ932はそのようには示されていない。イヤカップ932は、オーディオサウンドを出力するための1つまたは複数のトランスデューサ930と、耳介922の周囲の特定の位置に位置付けられる1つまたは複数のマイク934とを有し得る。例えば、イヤカップ932は、窩、耳甲介舟、耳甲介腔および耳切痕など、耳介の4つの特定の特徴に位置付けられる4つのマイク934を有し得る。
第1の音を示す信号が1つまたは複数のトランスデューサ930に提供されて、イヤカップ932内の1つまたは複数のトランスデューサ930に第1の音を出力させ得る。第1の音は様々な形態を取ってよく、場合によっては、学習プロセスで使用される音と同様であってよい。例えば、第1の音は、人間の可聴域、すなわち20Hz〜20kHzにおいて周波数が変化する、チャープ信号の形態を取ってよい。或いは、第1の音はインパルスの形態を取ってよい。20Hz〜20kHzに帯域制限されている他の音が使用されてもよい。
第1の音が出力される際、第1の音が耳介の特徴の内部で反射および共鳴することで、音声散乱が生じる。イヤカップ932内の1つまたは複数のマイクの各マイク934が、対応する第2の音を検出し得る。あるマイクについて検出された対応する第2の音は、当該マイクにより受信された音であり、別のマイクについて検出された対応する音とは異なっていてよい。1つまたは複数のマイク934の各々の、検出された対応する第2の音は、第1の音と耳介との相互作用により生じた、イヤカップが着用される耳介の、マイク934の位置における周波数応答を示し得る。1つまたは複数のトランスデューサ930により出力された第1の音は、1つまたは複数のマイク934の各々の、検出された対応する第2の音が耳介の特徴を一意的に示すよう選択されたかもしれない。
イヤカップが4つのマイクを有する場合は、基準センサ出力962は、これら4つのマイクの位置に対応する、検出された対応する第2の音を少なくとも4つ含み得る。コンパレータ954は、エントリ1:Nのうち基準センサ出力962に近い(例えば、それと同様の)非線形伝達関数958を特定するために、それぞれの非線形伝達関数958と関連付けられる周波数応答を、基準センサ出力962と関連付けられる1つまたは複数のマイク934の各々により検出された対応する第2の音と比較するように構成され得る。一致の度合いは、数ある基準の中でも、非線形伝達関数958と関連付けられる耳介の周波数応答のうちの1つまたは複数と、1つまたは複数のマイクの各々の、検出された対応する第2の音との隔たりに基づいていてよい。コンパレータ954は、度合い(例えば、一致度が最も高いもの)と関連付けられる非線形伝達関数964を出力し得る。
幾つかの例を挙げると、基準センサ出力962は、オーディオキューが生成される個人に関する耳介の画像であってよい。コンパレータ954は、基準センサ出力962に近い耳介の画像960を特定するために、基準センサ出力962と関連付けられる耳介の特徴の特性を、非線形伝達関数958と関連付けられる耳介の画像960と関連付けられる耳介の1つまたは複数の特徴の、対応する特性と比較するように構成され得る。耳介の特徴を特定して画像から当該特徴を抽出した後に当該特徴の特性を決定することを含め、耳介の特徴の特性を決定するために、処理エンジンにより様々な画像処理技法が使用され得る。これらの特性には、以下に限定されるわけではないが、耳介の全体的なサイズおよび形状(例えば、長さ、幅、半径)と、数ある特徴の中でも、耳輪、窩、耳甲介舟、耳甲介腔、耳珠、耳切痕、対耳輪および対耳珠のサイズおよび形状(例えば、長さ、幅、半径)と、数ある特徴の中でも、耳輪、窩、耳甲介舟、耳甲介腔、耳珠、耳切痕、対耳輪および/または対耳珠間の相対距離とが含まれ得る。コンパレータ954は、基準センサ出力962に近い(例えば、一致度が最も高い)耳介の画像960と関連付けられる非線形伝達関数964を出力し得る。
更に別の例を挙げると、1つまたは複数のマイクの各々の、検出された対応する第2の音、および、オーディオキューが生成される個人に関する耳介の画像は共に、非線形伝達関数964を特定するために使用され得る。コンパレータ954は、それぞれの非線形伝達関数958と関連付けられる耳介の画像960を、基準センサ出力962と関連付けられる耳介の画像と比較するように構成され得る。この比較には第1相関スコアが割り当てられ得る。更に、コンパレータ954は、それぞれの非線形伝達関数958の周波数応答を、基準センサ出力962と関連付けられる、1つまたは複数のマイクの各々により検出された対応する第2の音と比較するように構成され得る。この比較には第2相関スコアが割り当てられ得る。同じ非線形伝達関数に関する、それぞれの相関スコアが合成、例えば、合計されて、合成スコアが形成され得る。コンパレータ954は、複数の非線形伝達関数のうち、最も高い合成スコアを有する非線形伝達関数958を、非線形伝達関数964として出力し得る。
この点で、非線形伝達関数964を決定するために、個人の耳介に対する直接測定を実行する必要はないかもしれない。代わりに、非線形伝達関数964は、学習プロセスで決定され、データベース952に記憶され、かつ、非線形伝達関数964を決定するためにリアルタイムで使用される、複数の非線形伝達関数に基づいていてよい。
非線形伝達関数964は、段階706で変調される非線形伝達関数であってよい。この点で、非線形伝達関数964を決定するために、706においてオーディオキューが生成される個人の耳介について直接測定を実行する必要はないかもしれない。代わりに、非線形伝達関数964は、学習プロセスで決定され、データベース952に記憶され、かつ、非線形伝達関数964を決定するためにリアルタイムで使用される、複数の非線形伝達関数に基づいていてよい。
幾つかの例を挙げると、706においてオーディオキューが生成される個人に関する非線形伝達関数964は、データベース952に記憶されている複数の非線形伝達関数のうちの1つまたは複数の合成に基づいていてよい。例えば、非線形伝達関数964を決定するために、複数の非線形伝達関数のうちの1つまたは複数が重み付けされ得る。
重み付けは、基準センサ出力962と関連付けられる、検出された対応する第2の音と、複数の非線形伝達関数のうちの非線形伝達関数958の周波数応答との類別、例えば、一致の度合いまたは類似性に基づいていてよい。例えば、一致度がより高いと重み付けがより大きくなり得る一方で、一致度がより低いと重み付けがより小さくなり得る。次に、重み付けされた非線形伝達関数が合成、例えば、合計されて、段階706と関連付けられる非線形伝達関数964が形成され得る。
図9Eは、706においてオーディオキューが決定される個人に関する非線形伝達関数を決定するための別の例示的な構成980を示している。学習プロセスで決定された、複数の非線形伝達関数および/または関連付けられる耳介の画像は、入力984および出力986を持つ関数982を定義するために、数値解析手法によりパラメータ化され得る。関数982への入力984は、基準センサ出力962と関連付けられる、耳介の画像、および/または、検出された対応する第2の音であってよく、関数982の出力986は、非線形伝達関数であってよい。関数は様々な形態を取ってよい。
例えば、関数982は、ニューラルネットワークなどの周知のデータ適合技法を用いて学習フェーズで決定された、複数の非線形伝達関数および/または関連付けられる耳介の画像に適合させられているモデルの形態を取ってよい。706においてオーディオキューが生成される個人について画像センサにより撮像された耳介の画像の形態の入力が、当該モデルに入力されてよく、当該モデルは、この入力に関する非線形伝達関数を出力してよい。更にまたは或いは、基準センサ出力962と関連付けられる、検出された対応する第2の音の形態の入力が、当該モデルに入力されてよく、当該モデルは、センサ出力に関する非線形伝達関数を出力してよい。この出力は、段階706において変調される非線形伝達関数であってよい。
_に出願された「Image and Audio Based Characterization of a Human Auditory System for Personalized Audio Reproduction」と題する米国特許出願第_号、代理人整理番号154.2016 0002 ORG US1には、個人用オーディオ供給デバイスを着用している個人に関する非線形伝達関数を決定するための更なる詳細が記載されており、その内容全体が参照により本明細書に組み込まれる。
場合によっては、702においてマイクにより検出される音は、トランスデューサにより出力される音を含み得る。これは、マイクが耳介および/またはトランスデューサと反対の方向に向けられているかもしれないとしても、マイクの固有の感度に起因して起こり得る。処理エンジンは、トランスデューサにより出力されるこの音を変調前に消去し得る。この消去を実行するには、周知のエコー消去技法が使用され得る。或いは、処理エンジンは、トランスデューサにより出力されるこの音を変調プロセスにおいて消去し得る。他の変形例も適用可能である。
708では、個人用オーディオ供給デバイスにより出力される音を示す第3信号が処理エンジンによって受信される。個人用オーディオ供給デバイスは、トランスデューサを介して人間の聴覚系に音を出力し得る。音は、音楽、音声または他のコンテンツであるかもしれない。第2信号は、記憶デバイスから受信されてもよいし、更には、処理デバイス自体により生成されてもよい。第2信号はこの音を表し得る。
710では、第2信号(例えば、変調信号)が第3信号と混合され得る。混合された信号によって、ユーザは、個人用オーディオ供給デバイスにより出力される音だけではなく、実世界の音と関連付けられるオーディオキューも聞くことができるので、実世界の音の空間的位置特定が容易になる。
第2信号は、様々な割合で第3信号と混合され得る。第2信号が第3信号と混合される割合は、ユーザ設定に基づいていてよい。一例を挙げると、第2信号および第3信号は、第3信号と関連付けられる音よりも大きな1つまたは複数のオーディオキューがユーザに聞こえるように混合され得る。例えば、第2信号が第3信号よりも大きく重み付けされた後に合計されて、混合された信号が形成され得る。別の例を挙げると、第2信号および第3信号は、第3信号と関連付けられる音よりも小さな1つまたは複数のオーディオキューがユーザに聞こえるように混合され得る。例えば、第2信号が第3信号よりも小さく重み付けされた後に合計されて、混合された信号が形成され得る。更に別の例を挙げると、重み付けは、検出される音のタイプに基づいていてよい。例えば、処理エンジンは、検出された音がサイレンまたは車のクラクションなど、車両と関連付けられるものであるかどうかを決定し得る。この決定は、検出された音が車両と関連付けられるものであるという示唆をアルゴリズムが提供するような類別およびトレーニングプロセスによって実行され得る。この決定に基づいて、第2信号が第3信号よりも大きく重み付けされて、ユーザに音を空間的に認識させ得る。他の変形例も適用可能である。
708では、イヤカップが耳介に着用されている間に、1つまたは複数のオーディオキューに基づいて、検出された音の空間的位置特定が容易になるよう、混合された信号が個人用オーディオ供給デバイスのイヤカップにより出力される。混合された信号は、トランスデューサに入力されてよく、トランスデューサは当該信号を可聴音に変換する。混合された信号は見つからないオーディオキューを人為的に生成し得るので、個人用オーディオ供給デバイスのイヤカップが耳介を覆っているかもしれないとしても、ユーザは実世界の音が発せられる方向を感知することができる。その結果、人は個人用オーディオ供給デバイスを着用しながら周囲の音を空間的に認識し得る。例えば、混雑した交差点を歩きながら個人用オーディオ供給デバイスを着用している人は、周囲の車の音を聞くことができるだけではなく、車の音が発せられている方向を感知することもできる。これによって、個人用オーディオ供給デバイスを着用しているときのユーザの安全性が高まり得る。更に、個人用オーディオ供給デバイスが実世界の音、例えば、音楽と関連付けられるもの以外の音も出力するかどうかに関わりなく、この感知は可能であってよい。
段階702から712と関連付けられる処理は、イヤカップごとに実行され得る。一方のイヤカップが左耳に固定されてよく、もう一方のイヤカップが右耳に固定されてよい。この点で、左イヤカップは、左耳における空間的位置特定のための、対応するオーディオキューを出力してよく、右イヤカップは、右耳における空間的位置特定のための、対応するオーディオキューを出力してよい。しかしながら、他の例を挙げると、各マイクにより出力された対応する信号が合成されてよく、合成されたこの信号は、段階704から段階712に従って処理されてよい。この場合は、各イヤカップが同じオーディオキューを出力し得る。他の変形例も適用可能である。
幾つかの例を挙げると、オーディオキューは、段階708および段階710と関連付けられる段階を実行することなくイヤカップにより出力され得る。この場合、第1信号と関連付けられる、検出された音の空間的位置特定を容易にするには、個人用オーディオ供給デバイスがオーディオキューを出力するだけでよい。
更に、幾つかの例を挙げると、段階710における混合は、変調後の段階としてではなく、段階706における変調プロセスの一部として実行され得る。非線形伝達関数、第1信号および第2信号は、他のやり方でも合成され得る。
上記の説明では、数ある中でも、様々な例示的なシステム、方法、装置および製品を開示している。当該製品には、数ある構成要素の中でも、ハードウェアで実行されるファームウェアおよび/またはソフトウェアが含まれる。そのような例は例示に過ぎず、限定とみなされるべきではないことが解る。例えば、ファームウェア、ハードウェアおよび/またはソフトウェアの態様または構成要素のうちの何れかまたは全てが、ハードウェアだけで、ソフトウェアだけで、ファームウェアだけで、または、ハードウェア、ソフトウェアおよび/もしくはファームウェアの任意の組み合わせで具現化され得ると考えられる。従って、提供されている例は、そのようなシステム、方法、装置および/または製品を実装する唯一のやり方ではない。
更に、本明細書では「例」および/または「実施形態」に言及することで、この例および/または実施形態との関連で説明されている特定の特徴、構造または特性が、発明の少なくとも1つの例および/または実施形態に含まれ得ることを意味する。本明細書中の様々な箇所に出現するこの言い回しは、必ずしも全てが同じ例および/または実施形態を指しているとは限らないし、他の例および/または実施形態を互いに排除し合う別個のまたは代替的な例および/または実施形態であるというわけでもない。故に、当業者であれば明示的かつ黙示的に理解する、本明細書で説明されている例および/または実施形態は、他の例および/または実施形態と組み合わされ得る。更には、マイクに言及することで、1つのマイク、または、マイクアレイなどの複数のマイクを指すことができる。
本明細書は概して、ネットワークに連結されているデータ処理デバイスの動作に直接的または間接的に似ている、例示的な環境、システム、手順、段階、論理ブロック、処理、および他の記号表現の観点から提示されている。プロセスに関するこれらの説明および表現は通常、当業者が自らの研究の本質を他の当業者へ最も効果的に伝えるために使用される。本開示を十分に理解できるよう、数々の具体的な詳細が記載されている。しかしながら、当業者であれば、本開示の幾つかの実施形態が幾つかの具体的な詳細なくして実施され得ることが解る。他の事例では、実施形態の態様を不必要に不明瞭にすることを避けるべく、周知の方法、手順、構成要素および回路については詳しく説明されていない。従って、本開示の範囲は、実施形態の上述の説明ではなく、添付の請求項により定義される。
添付の請求項のうちの何れかが純粋にソフトウェアおよび/またはファームウェアの実装をカバーするものと解釈される場合は、少なくとも1つの例における要素のうちの少なくとも1つが、メモリ、DVD、CD、ブルーレイ(登録商標)などといった、ソフトウェアおよび/またはファームウェアを記憶する有形の非一時的媒体を含むものと、ここで明示的に定義される。
[例示的な実施形態] 例示的な実施形態は以下を含む。
実施形態1:オーディオデバイスの少なくとも1つのセンサにより検出された音を示す信号を受信する段階であって、当該オーディオデバイスは、耳介を少なくとも部分的に覆っており、検出された当該音は、少なくとも身体の胴と相互作用する、受信する段階と、当該オーディオデバイスが当該耳介を少なくとも部分的に覆っている間に、検出された当該音の空間的位置特定が容易になるよう、非線形伝達関数で当該信号を変調して、1つまたは複数のオーディオキューを示す変調信号を生成する段階と、当該オーディオデバイスが当該変調信号を出力する段階とを備える方法。
実施形態2:当該少なくとも1つのセンサにより検出された当該音を示す当該信号は、第1信号であり、当該オーディオデバイスが当該変調信号を出力する段階は、当該変調信号を第2信号と混合する段階を含む、実施形態1に記載の方法。
実施形態3:当該変調信号を当該第2信号と混合する段階は、検出された当該音の音タイプに基づいて、当該混合する段階において当該変調信号および当該第2信号の重み付けをする段階を含む、実施形態1または2に記載の方法。
実施形態4:当該オーディオデバイスにおける少なくとも1つのセンサにより検出された音を示す当該第1信号を受信する段階は、当該オーディオデバイスにおける少なくとも1つのマイクにより検出された当該音を示す当該第1信号を受信する段階を含む、実施形態1から3の何れかに記載の方法。
実施形態5:当該少なくとも1つのマイクは、当該耳介と反対の方向に向けられる、実施形態1から4の何れかに記載の方法。
実施形態6:当該1つまたは複数のオーディオキューは、検出された当該音と関連付けられる音源の仰角、方位角、距離および速度のうちの1つまたは複数に基づいている、実施形態1から5の何れかに記載の方法。
実施形態7:当該非線形伝達関数で当該信号を変調する段階は、検出された当該音が発せられている方向を決定する段階と、当該方向と関連付けられる当該非線形伝達関数の1つまたは複数の波形を特定する段階とを含む、実施形態1から6の何れかに記載の方法。
実施形態8:当該耳介の周波数応答を他方の耳介の複数の周波数応答と比較する段階であって、当該他方の耳介の各周波数応答が、対応する非線形伝達関数と関連付けられる、比較する段階と、当該比較に基づいて、当該他方の耳介の当該複数の他の周波数応答のうち、当該周波数応答に最も近い1つを決定する段階と、当該非線形伝達関数を、当該複数の他の周波数応答のうちの当該1つと関連付けられる当該対応する非線形伝達関数として特定する段階とを更に備える、実施形態1から7の何れかに記載の方法。
実施形態9:メモリに記憶され、かつ、プロセッサにより実行可能である、プログラムコードを備える1つまたは複数の非一時的コンピュータ可読媒体であって、当該プログラムコードは、オーディオデバイスの少なくとも1つのセンサにより検出された音を示す信号を受信することであって、当該オーディオデバイスは、耳介を少なくとも部分的に覆っており、検出された当該音は、少なくとも身体の胴と相互作用する、受信することと、当該オーディオデバイスが当該耳介を少なくとも部分的に覆っている間に、検出された当該音の空間的位置特定が容易になるよう、非線形伝達関数で当該信号を変調して、1つまたは複数のオーディオキューを示す変調信号を生成することと、当該オーディオデバイスが当該変調信号を出力することとを行うためのものである、1つまたは複数の非一時的コンピュータ可読媒体。
実施形態10:当該少なくとも1つのセンサにより検出された当該音を示す当該信号は、第1信号であり、当該オーディオデバイスが当該変調信号を出力するための当該プログラムコードは、当該変調信号を第2信号と混合することを含む、実施形態9に記載の1つまたは複数の非一時的機械可読媒体。
実施形態11:当該変調信号を当該第2信号と混合するための当該プログラムコードは、検出された当該音の音タイプに基づいて、当該混合することの間に当該変調信号および当該第2信号の重み付けをすることを含む、実施形態9または10に記載の1つまたは複数の非一時的機械可読媒体。
実施形態12:当該オーディオデバイスにおける少なくとも1つのセンサにより検出された音を示す当該第1信号を受信するための当該プログラムコードは、当該オーディオデバイスにおける少なくとも1つのマイクにより検出された当該音を示す第1信号を受信することを含む、実施形態10または11に記載の1つまたは複数の非一時的機械可読媒体。
実施形態13:当該少なくとも1つのマイクは、当該耳介と反対の方向に向けられる、実施形態10から12の何れかに記載の1つまたは複数の非一時的機械可読媒体。
実施形態14:当該1つまたは複数のオーディオキューは、検出された当該音と関連付けられる音源の仰角、方位角、距離および速度のうちの1つまたは複数に基づいている、実施形態10から13の何れかに記載の1つまたは複数の非一時的機械可読媒体。
実施形態15:当該非線形伝達関数で当該信号を変調するための当該プログラムコードは、検出された当該音が発せられている方向を決定することと、当該方向と関連付けられる当該非線形伝達関数の1つまたは複数の波形を特定することとを含む、実施形態10から14の何れかに記載の1つまたは複数の非一時的機械可読媒体。
実施形態16:当該プログラムコードは更に、当該耳介の周波数応答を他方の耳介の複数の周波数応答と比較することであって、当該他方の耳介の各周波数応答が、対応する非線形伝達関数と関連付けられる、比較することと、当該比較に基づいて、当該他方の耳介の当該複数の他の周波数応答のうち、当該周波数応答に最も近い1つを決定することと、当該非線形伝達関数を、当該複数の他の周波数応答のうち、当該周波数応答に最も近い当該1つと関連付けられる当該対応する非線形伝達関数として特定することとを備える、実施形態10から15の何れかに記載の1つまたは複数の非一時的機械可読媒体。
実施形態17:オーディオデバイスと、メモリに記憶され、かつ、プロセッサにより実行可能である、コンピュータ命令とを備えるシステムであって、当該コンピュータ命令は、当該オーディオデバイスの少なくとも1つのセンサにより検出された音を示す信号を受信する機能であって、当該オーディオデバイスは、耳介を少なくとも部分的に覆っており、検出された当該音は、少なくとも身体の胴と相互作用する、受信する機能と、当該オーディオデバイスが当該耳介を少なくとも部分的に覆っている間に、検出された当該音の空間的位置特定が容易になるよう、当該音の当該方向に基づいて選択された非線形伝達関数で当該信号を変調して、1つまたは複数のオーディオキューを示す変調信号を生成する機能と、当該オーディオデバイスが当該変調信号を出力する機能とを実行するためのものである、システム。
実施形態18:メモリに記憶され、かつ、当該プロセッサにより実行可能である、当該非線形伝達関数で当該信号を変調するための当該コンピュータ命令は、検出された当該音が発せられている方向を決定する機能と、当該方向と関連付けられる当該非線形伝達関数の1つまたは複数の波形を特定する機能とを含む、実施形態17に記載のシステム。
実施形態19:当該耳介の周波数応答を他方の耳介の複数の周波数応答と比較する機能であって、当該他方の耳介の各周波数応答が、対応する非線形伝達関数と関連付けられる、比較する機能と、当該比較に基づいて、当該他方の耳介の当該複数の他の周波数応答のうち、当該周波数応答に最も近い1つを決定する機能と、当該非線形伝達関数を、当該複数の他の周波数応答のうち、当該周波数応答に最も近い当該1つと関連付けられる当該対応する非線形伝達関数として特定する機能とを実行するための、メモリに記憶され、かつ、当該プロセッサにより実行可能である、コンピュータ命令を更に備える、実施形態17または18に記載のシステム。
実施形態20:当該1つまたは複数のオーディオキューは、検出された当該音と関連付けられる音源の仰角、距離、方位角および速度のうちの1つまたは複数を示す、実施形態17から19の何れかに記載のシステム。

Claims (20)

  1. オーディオデバイスの少なくとも1つのセンサにより検出された音を示す信号を受信する段階であって、前記オーディオデバイスは、耳介を少なくとも部分的に覆っており、検出された前記音は、少なくとも身体の胴と相互作用する、受信する段階と、
    前記オーディオデバイスが前記耳介を少なくとも部分的に覆っている間に、検出された前記音の空間的位置特定が容易になるよう、非線形伝達関数で前記信号を変調して、1つまたは複数のオーディオキューを示す変調信号を生成する段階と、
    前記オーディオデバイスが前記変調信号を出力する段階と
    を備える方法。
  2. 前記少なくとも1つのセンサにより検出された前記音を示す前記信号は、第1信号であり、前記オーディオデバイスが前記変調信号を出力する段階は、前記変調信号を第2信号と混合する段階を含む、請求項1に記載の方法。
  3. 前記変調信号を前記第2信号と混合する段階は、検出された前記音の音タイプに基づいて、前記混合する段階において前記変調信号および前記第2信号の重み付けをする段階を含む、請求項2に記載の方法。
  4. 前記オーディオデバイスにおける少なくとも1つのセンサにより検出された音を示す前記第1信号を受信する段階は、前記オーディオデバイスにおける少なくとも1つのマイクにより検出された前記音を示す前記第1信号を受信する段階を含む、請求項1に記載の方法。
  5. 前記少なくとも1つのマイクは、前記耳介と反対の方向に向けられる、請求項4に記載の方法。
  6. 前記1つまたは複数のオーディオキューは、検出された前記音と関連付けられる音源の仰角、方位角、距離および速度のうちの1つまたは複数に基づいている、請求項1に記載の方法。
  7. 前記非線形伝達関数で前記信号を変調する段階は、検出された前記音が発せられている方向を決定する段階と、前記方向と関連付けられる前記非線形伝達関数の1つまたは複数の波形を特定する段階とを含む、請求項1に記載の方法。
  8. 前記耳介の周波数応答を他方の耳介の複数の周波数応答と比較する段階であって、前記他方の耳介の各周波数応答が、対応する非線形伝達関数と関連付けられる、比較する段階と、
    前記比較に基づいて、前記他方の耳介の前記複数の他の周波数応答のうち、前記周波数応答に最も近い1つを決定する段階と、
    前記非線形伝達関数を、前記複数の他の周波数応答のうちの前記1つと関連付けられる前記対応する非線形伝達関数として特定する段階と
    を更に備える、請求項1に記載の方法。
  9. メモリに記憶され、かつ、プロセッサにより実行可能である、プログラムコードを備える1つまたは複数の非一時的コンピュータ可読媒体であって、前記プログラムコードは、
    オーディオデバイスの少なくとも1つのセンサにより検出された音を示す信号を受信することであって、前記オーディオデバイスは、耳介を少なくとも部分的に覆っており、検出された前記音は、少なくとも身体の胴と相互作用する、受信することと、
    前記オーディオデバイスが前記耳介を少なくとも部分的に覆っている間に、検出された前記音の空間的位置特定が容易になるよう、非線形伝達関数で前記信号を変調して、1つまたは複数のオーディオキューを示す変調信号を生成することと、
    前記オーディオデバイスが前記変調信号を出力することと
    を行うためのものである、1つまたは複数の非一時的コンピュータ可読媒体。
  10. 前記少なくとも1つのセンサにより検出された前記音を示す前記信号は、第1信号であり、前記オーディオデバイスが前記変調信号を出力するための前記プログラムコードは、前記変調信号を第2信号と混合することを含む、請求項9に記載の1つまたは複数の非一時的機械可読媒体。
  11. 前記変調信号を前記第2信号と混合するための前記プログラムコードは、検出された前記音の音タイプに基づいて、前記混合することの間に前記変調信号および前記第2信号の重み付けをすることを含む、請求項10に記載の1つまたは複数の非一時的機械可読媒体。
  12. 前記オーディオデバイスにおける少なくとも1つのセンサにより検出された音を示す前記第1信号を受信するための前記プログラムコードは、前記オーディオデバイスにおける少なくとも1つのマイクにより検出された前記音を示す前記第1信号を受信することを含む、請求項9に記載の1つまたは複数の非一時的機械可読媒体。
  13. 前記少なくとも1つのマイクは、前記耳介と反対の方向に向けられる、請求項12に記載の1つまたは複数の非一時的機械可読媒体。
  14. 前記1つまたは複数のオーディオキューは、検出された前記音と関連付けられる音源の仰角、方位角、距離および速度のうちの1つまたは複数に基づいている、請求項9に記載の1つまたは複数の非一時的機械可読媒体。
  15. 前記非線形伝達関数で前記信号を変調するための前記プログラムコードは、検出された前記音が発せられている方向を決定することと、前記方向と関連付けられる前記非線形伝達関数の1つまたは複数の波形を特定することとを含む、請求項9に記載の1つまたは複数の非一時的機械可読媒体。
  16. 前記プログラムコードは更に、
    前記耳介の周波数応答を他方の耳介の複数の周波数応答と比較することであって、前記他方の耳介の各周波数応答が、対応する非線形伝達関数と関連付けられる、比較することと、
    前記比較に基づいて、前記他方の耳介の前記複数の他の周波数応答のうち、前記周波数応答に最も近い1つを決定することと、
    前記非線形伝達関数を、前記複数の他の周波数応答のうち、前記周波数応答に最も近い前記1つと関連付けられる前記対応する非線形伝達関数として特定することと
    を含む、請求項9に記載の1つまたは複数の非一時的機械可読媒体。
  17. オーディオデバイスと、
    メモリに記憶され、かつ、プロセッサにより実行可能である、コンピュータ命令と
    を備えるシステムであって、前記コンピュータ命令は、
    前記オーディオデバイスの少なくとも1つのセンサにより検出された音を示す信号を受信する機能であって、前記オーディオデバイスは、耳介を少なくとも部分的に覆っており、検出された前記音は、少なくとも身体の胴と相互作用する、受信する機能と、
    前記オーディオデバイスが前記耳介を少なくとも部分的に覆っている間に、検出された前記音の空間的位置特定が容易になるよう、前記音の方向に基づいて選択された非線形伝達関数で前記信号を変調して、1つまたは複数のオーディオキューを示す変調信号を生成する機能と、
    前記オーディオデバイスが前記変調信号を出力する機能と
    を実行するためのものである、システム。
  18. メモリに記憶され、かつ、前記プロセッサにより実行可能である、前記非線形伝達関数で前記信号を変調するための前記コンピュータ命令は、検出された前記音が発せられている方向を決定する機能と、前記方向と関連付けられる前記非線形伝達関数の1つまたは複数の波形を特定する機能とを含む、請求項17に記載のシステム。
  19. 前記耳介の周波数応答を他方の耳介の複数の周波数応答と比較する機能であって、前記他方の耳介の各周波数応答が、対応する非線形伝達関数と関連付けられる、比較する機能と、
    前記比較に基づいて、前記他方の耳介の前記複数の他の周波数応答のうち、前記周波数応答に最も近い1つを決定する機能と、
    前記非線形伝達関数を、前記複数の他の周波数応答のうち、前記周波数応答に最も近い前記1つと関連付けられる前記対応する非線形伝達関数として特定する機能と
    を実行するための、メモリに記憶され、かつ、前記プロセッサにより実行可能である、コンピュータ命令を更に備える、請求項17に記載のシステム。
  20. 前記1つまたは複数のオーディオキューは、検出された前記音と関連付けられる音源の仰角、距離、方位角および速度のうちの1つまたは複数を示す、請求項17に記載のシステム。
JP2019546780A 2016-11-13 2017-11-13 空間的アンビエントアウェア型の個人用オーディオ供給デバイス Pending JP2020500492A (ja)

Applications Claiming Priority (11)

Application Number Priority Date Filing Date Title
US201662421285P 2016-11-13 2016-11-13
US62/421,285 2016-11-13
US201662421380P 2016-11-14 2016-11-14
US62/421,380 2016-11-14
US201662424512P 2016-11-20 2016-11-20
US62/424,512 2016-11-20
US201762466268P 2017-03-02 2017-03-02
US62/466,268 2017-03-02
US201762468933P 2017-03-08 2017-03-08
US62/468,933 2017-03-08
PCT/US2017/061413 WO2018089952A1 (en) 2016-11-13 2017-11-13 Spatially ambient aware personal audio delivery device

Publications (2)

Publication Number Publication Date
JP2020500492A true JP2020500492A (ja) 2020-01-09
JP2020500492A5 JP2020500492A5 (ja) 2021-01-07

Family

ID=62106984

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019546780A Pending JP2020500492A (ja) 2016-11-13 2017-11-13 空間的アンビエントアウェア型の個人用オーディオ供給デバイス
JP2019546782A Pending JP2019536395A (ja) 2016-11-13 2017-11-13 耳介の画像を撮像し、耳介の画像を用いて人間の聴覚の解剖学的構造の特徴を示すためのシステムおよび方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019546782A Pending JP2019536395A (ja) 2016-11-13 2017-11-13 耳介の画像を撮像し、耳介の画像を用いて人間の聴覚の解剖学的構造の特徴を示すためのシステムおよび方法

Country Status (4)

Country Link
US (6) US10433095B2 (ja)
EP (2) EP3539304A4 (ja)
JP (2) JP2020500492A (ja)
WO (2) WO2018089952A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG10201800147XA (en) 2018-01-05 2019-08-27 Creative Tech Ltd A system and a processing method for customizing audio experience
CN109691139B (zh) * 2016-09-01 2020-12-18 安特卫普大学 确定个性化头部相关传递函数和耳间时间差函数的方法和设备
US10507137B2 (en) * 2017-01-17 2019-12-17 Karl Allen Dierenbach Tactile interface system
US12010494B1 (en) * 2018-09-27 2024-06-11 Apple Inc. Audio system to determine spatial audio filter based on user-specific acoustic transfer function
WO2020069275A2 (en) * 2018-09-28 2020-04-02 EmbodyVR, Inc. Binaural sound source localization
WO2020075622A1 (ja) 2018-10-10 2020-04-16 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US11166115B2 (en) 2018-10-18 2021-11-02 Gn Hearing A/S Device and method for hearing device customization
US11158154B2 (en) * 2018-10-24 2021-10-26 Igt Gaming system and method providing optimized audio output
JP7206027B2 (ja) * 2019-04-03 2023-01-17 アルパイン株式会社 頭部伝達関数学習装置および頭部伝達関数推論装置
WO2020210249A1 (en) * 2019-04-08 2020-10-15 Harman International Industries, Incorporated Personalized three-dimensional audio
CN109905831B (zh) * 2019-04-15 2021-01-15 南京影风智能科技有限公司 一种立体声辅助音频设备
AU2020203290B2 (en) * 2019-06-10 2022-03-03 Genelec Oy System and method for generating head-related transfer function
US10743128B1 (en) * 2019-06-10 2020-08-11 Genelec Oy System and method for generating head-related transfer function
CN114175142A (zh) * 2019-08-02 2022-03-11 索尼集团公司 音频输出装置和使用该装置的音频输出系统
US10812929B1 (en) * 2019-08-28 2020-10-20 Facebook Technologies, Llc Inferring pinnae information via beam forming to produce individualized spatial audio
US11770604B2 (en) * 2019-09-06 2023-09-26 Sony Group Corporation Information processing device, information processing method, and information processing program for head-related transfer functions in photography
US20220329936A1 (en) * 2019-09-09 2022-10-13 Nippon Telegraph And Telephone Corporation Sound collection and emission apparatus, sound collection and emission method, and program
CN110767028B (zh) * 2019-11-11 2022-02-01 中国人民解放军第四军医大学 一种飞行员空间听觉能力训练系统
CN111050244A (zh) * 2019-12-11 2020-04-21 佳禾智能科技股份有限公司 耳机的环境音监听方法、电子设备、计算机可读存储介质
CN111818441B (zh) * 2020-07-07 2022-01-11 Oppo(重庆)智能科技有限公司 音效实现方法、装置、存储介质及电子设备
US11778408B2 (en) 2021-01-26 2023-10-03 EmbodyVR, Inc. System and method to virtually mix and audition audio content for vehicles
KR102654283B1 (ko) * 2021-11-26 2024-04-04 대전보건대학교 산학협력단 이어 스캐너
US20230275617A1 (en) * 2022-01-31 2023-08-31 Bose Corporation Audio device with hall effect sensor proximity detection and independent coupling

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000324590A (ja) * 1999-05-13 2000-11-24 Mitsubishi Electric Corp 音響再生装置
US20060013409A1 (en) * 2004-07-16 2006-01-19 Sensimetrics Corporation Microphone-array processing to generate directional cues in an audio signal
JP2006203850A (ja) * 2004-12-24 2006-08-03 Matsushita Electric Ind Co Ltd 音像定位装置
JP2011529296A (ja) * 2008-07-24 2011-12-01 クゥアルコム・インコーポレイテッド 周囲信号をレンダリングするための方法及び装置

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3045051B2 (ja) * 1995-08-17 2000-05-22 ソニー株式会社 ヘッドホン装置
US6996244B1 (en) 1998-08-06 2006-02-07 Vulcan Patents Llc Estimation of head-related transfer functions for spatial sound representative
IL141822A (en) 2001-03-05 2007-02-11 Haim Levy A method and system for imitating a 3D audio environment
US20030035551A1 (en) 2001-08-20 2003-02-20 Light John J. Ambient-aware headset
JP3521900B2 (ja) * 2002-02-04 2004-04-26 ヤマハ株式会社 バーチャルスピーカアンプ
AU2003235202A1 (en) 2002-10-31 2004-05-25 Korea Institute Of Science And Technology Image processing method for removing glasses from color facial images
US7430300B2 (en) 2002-11-18 2008-09-30 Digisenz Llc Sound production systems and methods for providing sound inside a headgear unit
JPWO2005025270A1 (ja) * 2003-09-08 2006-11-16 松下電器産業株式会社 音像制御装置の設計ツールおよび音像制御装置
US8027481B2 (en) 2006-11-06 2011-09-27 Terry Beard Personal hearing control system and method
US8050444B2 (en) * 2007-01-19 2011-11-01 Dale Trenton Smith Adjustable mechanism for improving headset comfort
WO2009049320A1 (en) 2007-10-12 2009-04-16 Earlens Corporation Multifunction system and method for integrated hearing and communiction with noise cancellation and feedback management
JP2009105559A (ja) * 2007-10-22 2009-05-14 Nec Saitama Ltd 撮影画像からの認識対象検出処理方法およびカメラ付き携帯型電子機器
WO2009106783A1 (fr) 2008-02-29 2009-09-03 France Telecom Procede et dispositif pour la determination de fonctions de transfert de type hrtf
US20100215198A1 (en) 2009-02-23 2010-08-26 Ngia Lester S H Headset assembly with ambient sound control
EP2362678B1 (en) 2010-02-24 2017-07-26 GN Audio A/S A headset system with microphone for ambient sounds
US20120183161A1 (en) 2010-09-03 2012-07-19 Sony Ericsson Mobile Communications Ab Determining individualized head-related transfer functions
US20130177166A1 (en) 2011-05-27 2013-07-11 Sony Ericsson Mobile Communications Ab Head-related transfer function (hrtf) selection or adaptation based on head size
US8787584B2 (en) 2011-06-24 2014-07-22 Sony Corporation Audio metrics for head-related transfer function (HRTF) selection or adaptation
US9030545B2 (en) * 2011-12-30 2015-05-12 GNR Resound A/S Systems and methods for determining head related transfer functions
JP2013150190A (ja) * 2012-01-20 2013-08-01 Nec Casio Mobile Communications Ltd 情報端末装置、セキュリティ確保方法、及びコンピュータプログラム
US20130279724A1 (en) 2012-04-19 2013-10-24 Sony Computer Entertainment Inc. Auto detection of headphone orientation
JP2014075753A (ja) * 2012-10-05 2014-04-24 Nippon Hoso Kyokai <Nhk> 音響品質推定装置、音響品質推定方法及び音響品質推定プログラム
EP3637419A3 (en) 2012-11-29 2020-07-22 SoundSight IP, LLC Video headphones, system, platform, methods, apparatuses and media
US9270244B2 (en) 2013-03-13 2016-02-23 Personics Holdings, Llc System and method to detect close voice sources and automatically enhance situation awareness
US9426589B2 (en) 2013-07-04 2016-08-23 Gn Resound A/S Determination of individual HRTFs
KR101496659B1 (ko) 2013-07-16 2015-02-27 유한회사 청텍 초소형 카메라 모듈이 구비된 이어폰 장치
US9271077B2 (en) 2013-12-17 2016-02-23 Personics Holdings, Llc Method and system for directional enhancement of sound using small microphone arrays
US9900722B2 (en) * 2014-04-29 2018-02-20 Microsoft Technology Licensing, Llc HRTF personalization based on anthropometric features
DK2947898T3 (da) * 2014-05-20 2019-05-13 Oticon As Høreanordning
US10181328B2 (en) 2014-10-21 2019-01-15 Oticon A/S Hearing system
EP3269150A1 (en) * 2015-03-10 2018-01-17 Ossic Corporation Calibrating listening devices
US9544706B1 (en) 2015-03-23 2017-01-10 Amazon Technologies, Inc. Customized head-related transfer functions
US10182710B2 (en) * 2015-07-23 2019-01-22 Qualcomm Incorporated Wearable dual-ear mobile otoscope
CN108024762B (zh) 2015-09-14 2020-09-22 雅马哈株式会社 耳形状分析方法、耳形状分析装置以及耳形状模型生成方法
SG10201510822YA (en) * 2015-12-31 2017-07-28 Creative Tech Ltd A method for generating a customized/personalized head related transfer function
US9955279B2 (en) * 2016-05-11 2018-04-24 Ossic Corporation Systems and methods of calibrating earphones
US10231073B2 (en) * 2016-06-17 2019-03-12 Dts, Inc. Ambisonic audio rendering with depth decoding
US10154365B2 (en) 2016-09-27 2018-12-11 Intel Corporation Head-related transfer function measurement and application

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000324590A (ja) * 1999-05-13 2000-11-24 Mitsubishi Electric Corp 音響再生装置
US20060013409A1 (en) * 2004-07-16 2006-01-19 Sensimetrics Corporation Microphone-array processing to generate directional cues in an audio signal
JP2006203850A (ja) * 2004-12-24 2006-08-03 Matsushita Electric Ind Co Ltd 音像定位装置
JP2011529296A (ja) * 2008-07-24 2011-12-01 クゥアルコム・インコーポレイテッド 周囲信号をレンダリングするための方法及び装置

Also Published As

Publication number Publication date
WO2018089956A9 (en) 2019-08-15
EP3539305A4 (en) 2020-04-22
EP3539304A1 (en) 2019-09-18
WO2018089956A1 (en) 2018-05-17
US20190379993A1 (en) 2019-12-12
US20180139533A1 (en) 2018-05-17
JP2019536395A (ja) 2019-12-12
US20180132764A1 (en) 2018-05-17
WO2018089952A1 (en) 2018-05-17
US10433095B2 (en) 2019-10-01
US20180139567A1 (en) 2018-05-17
US9992603B1 (en) 2018-06-05
US10313822B2 (en) 2019-06-04
US10104491B2 (en) 2018-10-16
US20180139532A1 (en) 2018-05-17
US10362432B2 (en) 2019-07-23
US20180139561A1 (en) 2018-05-17
EP3539305A1 (en) 2019-09-18
US10659908B2 (en) 2020-05-19
EP3539304A4 (en) 2020-07-01

Similar Documents

Publication Publication Date Title
JP2020500492A (ja) 空間的アンビエントアウェア型の個人用オーディオ供給デバイス
US10431239B2 (en) Hearing system
US9613610B2 (en) Directional sound masking
CN104284286B (zh) 个体hrtf的确定
CN111095944B (zh) 耳塞式耳机装置、耳罩式耳机装置和方法
US10924837B2 (en) Acoustic device
WO2019233588A1 (en) Microphone device to provide audio with spatial context
WO2020026548A1 (ja) 情報処理装置及び情報処理方法、並びに音響システム
KR20150142925A (ko) 스테레오 음향 입력 장치
JP7472582B2 (ja) 音声再生システムおよび頭部伝達関数選択方法
TWI850844B (zh) 聲學裝置及其傳遞函數確定方法
JP7404736B2 (ja) 頭外定位フィルタ決定システム、頭外定位フィルタ決定方法、及びプログラム
US20220174448A1 (en) Headphones, out-of-head localization filter determination device, out-of-head localization filter determination system, out-of-head localization filter determination method, and program
TW202322637A (zh) 聲學裝置及其傳遞函數確定方法
Lezzoum et al. Assessment of sound source localization of an intra-aural audio wearable device for audio augmented reality applications

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220224

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220621