JP2017527223A - 再生デバイスのキャリブレーション - Google Patents

再生デバイスのキャリブレーション Download PDF

Info

Publication number
JP2017527223A
JP2017527223A JP2017513171A JP2017513171A JP2017527223A JP 2017527223 A JP2017527223 A JP 2017527223A JP 2017513171 A JP2017513171 A JP 2017513171A JP 2017513171 A JP2017513171 A JP 2017513171A JP 2017527223 A JP2017527223 A JP 2017527223A
Authority
JP
Japan
Prior art keywords
microphone
playback
network device
audio signal
playback device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017513171A
Other languages
English (en)
Other versions
JP2017527223A5 (ja
JP6276467B2 (ja
Inventor
ティモシー・シーン
Original Assignee
ソノズ インコーポレイテッド
ソノズ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソノズ インコーポレイテッド, ソノズ インコーポレイテッド filed Critical ソノズ インコーポレイテッド
Publication of JP2017527223A publication Critical patent/JP2017527223A/ja
Publication of JP2017527223A5 publication Critical patent/JP2017527223A5/ja
Application granted granted Critical
Publication of JP6276467B2 publication Critical patent/JP6276467B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/001Monitoring arrangements; Testing arrangements for loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/004Monitoring arrangements; Testing arrangements for microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/04Circuits for transducers, loudspeakers or microphones for correcting frequency response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2227/00Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
    • H04R2227/003Digital PA systems using, e.g. LAN or internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2227/00Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
    • H04R2227/005Audio distribution systems for home, i.e. multi-room use
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R27/00Public address systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

本明細書で述べられている例は、デバイスのマイクロホンのキャリブレーションを含む。例示的な実施形態は、ネットワークデバイスが再生デバイスのマイクロホンの所定の物理的範囲内に位置している間に、ネットワークデバイスのマイクロホンによって検出される第1オーディオ信号を示す第1データと;再生デバイスのマイクロホンによって検出される第2オーディオ信号を示す第2データと;に基づいて、マイクロホンキャリブレーションアルゴリズムを特定するステップ、及び再生デバイスに関連付けられたキャリブレーション機能を実行するときにマイクロホンキャリブレーションアルゴリズムを適用するステップ、を含む。

Description

関連出願の参照
本願は、2014年9月9日に出願された米国特許出願第14/481,522号、及び2015年3月10日に出願された米国特許出願第14/644,136号の優先権を主張しており、その全体が参照されることにより本明細書に組み込まれる。
本願は、コンシューマ製品に関するものであり、特に、メディア再生に向けられた方法、システム、製品、機能、サービス、および他の要素に関するものや、それらのいくつかの態様に関する。
2003年に、ソノズ・インコーポレイテッドが最初の特許出願のうちの1つである「複数のネットワークデバイス間のオーディオ再生を同期する方法」と題する特許出願をし、2005年にメディア再生システムの販売を開始するまで、アウトラウド設定におけるデジタルオーディオへのアクセスおよび試聴のオプションは厳しく制限されていた。人々は、ソノズ無線HiFiシステムによって、1つ又は複数のネットワーク再生デバイスを介してソースから音楽を実質的に無制限に体験できるようになっている。スマートフォン、タブレット、又はコンピュータにインストールされたソフトウェアコントロールアプリケーションを通じて、ネットワーク再生デバイスを備えたいずれの部屋においても、人々は自分が望む音楽を再生することができる。また、例えばコントローラを用いて、再生デバイスを備えた各部屋に異なる歌をストリーミングすることもできるし、同期再生のために複数の部屋をグループ化することもできるし、全ての部屋において同期して同じ歌を聞くこともできる。
これまでのデジタルメディアに対する関心の高まりを考えると、試聴体験を更に向上させることができるコンシューマアクセス可能な技術を更に開発することにニーズがある。
本明細書で開示されている技術の特徴、態様、および利点は、以下の記載、添付の特許請求の範囲、および添付の図面を参照するとより理解しやすい。
ある実施形態で実施可能な例示的なメデイア再生システムの構成を示す図 例示的な再生デバイスの機能ブロック図を示す図 例示的な制御デバイスの機能ブロック図を示す図 例示的なコントローラインタフェースを示す図 再生デバイスをキャリブレーションする第1方法の例示的なフロー図 再生デバイスがキャリブレーションされ得る例示的な再生環境を示す図 再生デバイスをキャリブレーションする第2方法の例示的なフロー図 再生デバイスをキャリブレーションする第3方法の例示的なフロー図 マイクロホンをキャリブレーションする第1方法の例示的なフロー図 マイクロホンをキャリブレーションする例示的な配置を示す図 マイクロホンをキャリブレーションする第2方法の例示的なフロー図
図面は、いくつかの例示的な実施形態を説明することを目的としているが、本発明が、図面に示した配置および手段に限定されるものではないことは理解される。
I.概要
マイクロホンを用いて再生環境を整えるための1つ又は複数の再生デバイスのキャリブレーションは、マイクロホンの音響特性を含んでもよい。ある実施形態では、1つ又は複数の再生デバイスのキャリブレーションに使用されるネットワークデバイスのマイクロホンの音響特性は、未知であってもよい。
本明細書で開示される実施形態は、ネットワークデバイスが再生デバイスのマイクロホンの所定の物理的範囲内に位置している間に、ネットワークデバイスのマイクロホンによって検出されたオーディオ信号に基づいて、ネットワークデバイスのマイクロホンのキャリブレーションを行うことに関する。
ある例では、キャリブレーション機能は、ネットワークデバイスによって、少なくとも部分的に調整されてもよく、かつ実行されてもよい。ある場合では、ネットワークデバイスは、内蔵マイクロホンを有するモバイルデバイスであってもよい。また、ネットワークデバイスは、1つ又は複数の再生デバイスを制御するために使用されるコントローラであってもよい。
ネットワークデバイスが再生デバイスのマイクロホンの所定の物理的範囲内に位置している間に、ネットワークデバイスのマイクロホンは、第1オーディオ信号を検出してもよい。ある例では、再生デバイスのマイクロホンの所定の物理的範囲内の位置は、再生デバイスの上方の位置、再生デバイスの後ろの位置、再生デバイスのサイドの位置、及び再生デバイスの前の位置のうちのいずれかであってもよいし、他に可能性のある位置であってもよい。
また、ネットワークデバイスは、再生デバイスのマイクロホンによって検出される第2オーディオ信号を示すデータを受信してもよい。第1オーディオ信号及び第2オーディオ信号の両方は、1つ又は複数の再生デバイスによって再生される第3オーディオ信号に対応する部分を含んでいてもよい。1つ又は複数の再生デバイスは、ネットワークデバイスが位置する所定の物理的範囲内の、マイクロホンを備えた再生デバイスを含んでもよい。第1オーディオ信号及び第2オーディオ信号は、それぞれのマイクロホンによって同時に検出されてもよいし、あるいは異なる時間に検出されてもよい。第2オーディオ信号を示すデータは、第1オーディオ信号がネットワークデバイスのマイクロホンによって検出される前又は後に、ネットワークデバイスによって受信されてもよい。
次いで、ネットワークデバイスは、第1オーディオ信号を示すデータと第2オーディオ信号を示すデータとに基づいて、マイクロホンキャリブレーションアルゴリズムを特定してもよい。それに応じて、ネットワークデバイスは、再生デバイスに関連付けられた機能、例えばキャリブレーション機能を実行するときに、特定されたマイクロホンキャリブレーションアルゴリズムを適用してもよい。
別の例では、キャリブレーション機能は、コンピュータによって少なくとも部分的に調整されてもよく、かつ実行されてもよい。コンピュータとしては、例えば、再生デバイス及び/又はネットワークデバイスと通信するサーバなどが挙げられる。
コンピュータは、ネットワークデバイスが再生デバイスのマイクロホンの所定の物理的範囲内に位置している間に、ネットワークデバイスのマイクロホンによって検出された第1オーディオ信号を示すデータを、ネットワークデバイスから受信してもよい。また、コンピュータは、再生デバイスのマイクロホンによって検出された第2オーディオ信号を示すデータを受信してもよい。次いで、コンピュータは、第1オーディオ信号を示すデータと第2オーディオ信号を示すデータとに基づいて、マイクロホンキャリブレーションアルゴリズムを特定してもよい。ある場合では、次いで、コンピュータは、ネットワークデバイスと再生デバイスとに関連付けられた機能、例えばキャリブレーション機能を実行するときに、特定されたマイクロホンキャリブレーションアルゴリズムを適用してもよい。ある場合では、コンピュータは、特定されたマイクロホンキャリブレーションアルゴリズムを示すデータをネットワークデバイスに送信し、再生デバイスに関連付けられた機能を実行するときに、ネットワークデバイスに適用してもよい。
ある場合では、マイクロホンキャリブレーションアルゴリズムの特定は、マイクロホンキャリブレーションアルゴリズムとマイクロホン音響特性とのデータベースにアクセスすることを含んでもよい。これによって、ネットワークデバイスのマイクロホンのマイクロホン音響特性に基づいて、マイクロホンキャリブレーションアルゴリズムを特定してもよい。マイクロホン音響特性は、第1オーディオ信号を示すデータと第2オーディオ信号を示すデータとに基づいて、決定されてもよい。
別の場合では、マイクロホンキャリブレーションアルゴリズムの特定は、第1オーディオ信号を示すデータと第2オーディオ信号を示すデータとに基づいて、マイクロホンキャリブレーションアルゴリズムを算出することを含んでもよい。例えば、再生環境においてオーディオコンテンツを再生するときに、1つ又は複数の再生デバイスによってマイクロホンキャリブレーションアルゴリズムを適用することで、正規化されたオーディオ特性を含む第3オーディオ信号を生成するように、マイクロホンキャリブレーションアルゴリズムが算出されてもよい。例えば、マイクロホン音響特性が、ある周波数で低感度を含む場合、マイクロホンキャリブレーションアルゴリズムは、例えば、ある周波数でマイクロホンによって検出されたオーディオコンテンツを増幅することによって、低感度を解決することができる。
上述したように、ネットワークデバイスのマイクロホンが1つ又は複数の再生デバイスに関連付けられたキャリブレーション機能などを実行するように使用されるとき、ネットワークデバイスのマイクロホンのキャリブレーションが開始されてもよいが、マイクロホンの音響特性、又はマイクロホンに対応するマイクロホンキャリブレーションアルゴリズムは利用することができない。このように、マイクロホンのキャリブレーションは、1つ又は複数の再生デバイスに関連付けられたキャリブレーション機能を実行するデバイスによって開始されてもよい。
また、上述したように、ネットワークデバイスは、1つ又は複数の再生デバイスを制御するように使用されるコントローラであってもよい。このように、ある場合では、ネットワークデバイスのマイクロホンのキャリブレーションは、コントローラがセットアップされて、1つ又は複数の再生デバイスを制御するときに開始されてもよい。また、他の例も可能である。
ある例では、特定されたキャリブレーションアルゴリズムと、ネットワークデバイスのモデルなどの1つ又は複数の特性との間の関連付けは、マイクロホンキャリブレーションアルゴリズムのデータベース内のエントリとして記憶されてもよい。次いで、マイクロホンキャリブレーションアルゴリズムは、別のネットワークデバイスがネットワークデバイスの1つ又は複数の特性のうち少なくとも1つを有するときに、特定されてもよく、且つ適用されてもよい。
上述したように、本明細書では、ネットワークデバイスが再生デバイスのマイクロホンの所定の物理的範囲内に位置している間にネットワークデバイスのマイクロホンによって検出されるオーディオ信号に基づくネットワークデバイスのマイクロホンのキャリブレーションを含む。ある態様では、ネットワークデバイスが提供される。ネットワークデバイスは、マイクロホン、及びプロセッサによって再生デバイスに機能を実行させる命令を記憶したメモリ、を備える。機能は、(i)再生デバイスが第1オーディオ信号を再生している間、及び(ii)ネットワークデバイスが第1物理的位置から第2物理的位置に移動している間に、第2オーディオ信号を、マイクロホンによって検出するステップ、第2オーディオ信号を示すデータに基づいて、オーディオ処理アルゴリズムを特定するステップ、及び特定されたオーディオ処理アルゴリズムを示すデータを再生デバイスに送信するステップ、を含む。
別の態様では、再生デバイスが提供される。再生デバイスは、プロセッサ、及びプロセッサによって再生デバイスに機能を実行させる命令を記憶したメモリ、を備える。機能は、第1オーディオ信号を再生するステップ、再生環境内においてネットワークデバイスが第1物理的位置から第2物理的位置に移動している間に、ネットワークデバイスのマイクロホンによって検出された第2オーディオ信号を示すデータを、ネットワークデバイスから受信するステップ、第2オーディオ信号を示すデータに基づいてオーディオ処理アルゴリズムを特定するステップ、及び再生環境においてオーディオコンテンツを再生するときに特定されたオーディオ処理アルゴリズムを適用するステップ、を含む。
別の態様では、非一時的なコンピュータ読み取り可能な記録媒体が提供される。非一時的なコンピュータ読み取り可能な記録媒体は、コンピュータに機能を実行させる命令を記憶している。機能は、ネットワークデバイスが再生環境内で第1物理位置から第2物理位置へ移動している間に、ネットワークデバイスのマイクロホンによって検出されたオーディオ信号を示すデータを、ネットワークデバイスから受信するステップ、検出されたオーディオ信号を示すデータに基づいてオーディオ処理アルゴリズムを特定するステップ、及びオーディオ処理アルゴリズムを示すデータを、再生環境内の再生デバイスに送信するステップ、を含む。
別の態様では、ネットワークデバイスが提供される。ネットワークデバイスは、マイクロホン、プロセッサ、及びプロセッサによって再生デバイスに機能を実行させる命令を記憶したメモリ、を備える。機能は、ネットワークデバイスが再生デバイスのマイクロホンの所定の物理的範囲内に位置している間に、ネットワークのマイクロホンによって、第1オーディオ信号を検出するステップ、再生デバイスのマイクロホンによって検出された第2オーディオ信号を示すデータを、ネットワークデバイスのマイクロホンによって受信するステップ、第1オーディオ信号を示すデータと第2オーディオ信号を示すデータとに基づいて、マイクロホンキャリブレーションアルゴリズムを特定するステップ、及び再生デバイスに関連付けられたキャリブレーション機能を実行するときにマイクロホンキャリブレーションアルゴリズムを適用するステップ、を含む。
別の態様では、コンピュータが提供される。コンピュータは、プロセッサ、及びプロセッサによって再生デバイスに機能を実行させる命令を記憶したメモリ、を備える。機能は、ネットワークデバイスのマイクロホンによって検出される第1オーディオ信号を示すデータを、ネットワークデバイスから受信するステップ、再生デバイスのマイクロホンによって検出される第2オーディオ信号を示すデータを受信するステップ、第1オーディオ信号を示すデータと第2オーディオ信号を示すデータとに基づいて、マイクロホンキャリブレーションアルゴリズムを特定するステップ、及びネットワークデバイスと再生デバイスとに関連付けられたキャリブレーション機能を実行するときにマイクロホンキャリブレーションアルゴリズムを適用するステップ、を含む。
別の態様では、非一時的なコンピュータ読み取り可能な記録媒体が提供される。非一時的なコンピュータ読み取り可能な記録媒体は、コンピュータに機能を実行させる命令を記憶している。機能は、ネットワークデバイスが再生デバイスのマイクロホンの所定の物理的範囲内に位置している間に、ネットワークデバイスのマイクロホンによって検出された第1オーディオ信号を示すデータを、ネットワークデバイスから受信するステップ、再生デバイスのマイクロホンによって検出された第2オーディオ信号を示すデータを受信するステップ、第1オーディオ信号を示すデータと第2オーディオ信号を示すデータとに基づいて、マイクロホンキャリブレーションアルゴリズムを特定するステップ、及び特定されたマイクロホンキャリブレーションアルゴリズムと、ネットワークデバイスのマイクロホンの1つ又は複数の特性との間の関連付けをデータベースに記憶するステップ、を含む。
当業者は、本開示には他の複数の実施形態が含まれることを理解するであろう。本明細書に記載されているいくつかの例において、「ユーザ」及び/又は別のエンティティなどの行為者によって実行される機能について言及することがあるが、そのような記載は、説明のためだけを目的としていることを理解されるべきである。そのような例示的な行為者によるアクションは、特許請求の範囲の文言そのものによって明確に必要とされていない限り、必要であると解釈されるべきではない。当業者において、本開示が複数の他の実施形態を含むことは理解され得る。
II.動作環境の例
図1は、本明細書で開示されている1つ又は複数の実施形態で実施可能又は実装可能なメディア再生システム100の例示的な構成を示す。図示されるように、メディア再生システム100は、複数の部屋および空間、例えば、主寝室、オフィス、ダイニングルーム、およびリビングルームを有する例示的なホーム環境に関連付けられている。図1の例に示されるように、メディア再生システム100は、再生デバイス102−124、制御デバイス126および128、有線又は無線のネットワークルータ130を含む。
更に、例示的なメディア再生システム100の異なる構成要素、および異なる構成要素がどのように作用してユーザにメディア体験を提供するかに関しての説明は、以下のセクションで述べられている。本明細書における説明は、概してメディア再生システム100を参照しているが、本明細書で述べられている技術は、図1に示されるホーム環境の用途に限定されるものではない。例えば、本明細書で述べられている技術は、マルチゾーンオーディオが望まれる環境、例えば、レストラン、モール、又は空港のような商業的環境、スポーツ用多目的車(SUV)、バス又は車のような車両、船、若しくはボード、飛行機などの環境において有益である。
a.例示的な再生デバイス
図2は、図1のメディア再生システム100の再生デバイス102−124の1つ又は複数を構成する例示的な再生デバイス200の機能ブロック図を示す。再生デバイス200は、プロセッサ202、ソフトウェアコンポーネント204、メモリ206、オーディオ処理コンポーネント208、オーディオアンプ210、スピーカー212、マイクロホン220、およびネットワークインタフェース214を含んでもよい。ネットワークインタフェース214は、無線インタフェース216および有線インタフェース218を含む。ある場合では、再生デバイス200は、スピーカー212を含まないが、再生デバイス200を外部スピーカーに接続するためのスピーカーインタフェースを含んでもよい。別の場合では、再生デバイス200は、スピーカー212もオーディオアンプ210も含まないが、再生デバイス200を外部オーディオアンプ又はオーディオビジュアルレシーバーに接続するためのオーディオインタフェースを含んでもよい。
ある例では、プロセッサ202は、メモリ206に記憶された命令に基づいて、入力データを処理するように構成されたクロック駆動コンピュータコンポーネントであってもよい。メモリ206は、プロセッサ202によって実行可能な命令を記憶するように構成された非一時的なコンピュータ読み取り可能記録媒体であってもよい。例えば、メモリ206は、ある機能を実行するためにプロセッサ202によって実行可能なソフトウェアコンポーネント204の1つ又は複数をロードすることができるデータストレージであってもよい。ある例では、機能は、再生デバイス200がオーディオソース又は別の再生デバイスからオーディオデータを読み出すステップを含んでもよい。別の例では、機能は、再生デバイス200がネットワーク上の別のデバイス又は再生デバイスにオーディオデータを送信するステップを含んでもよい。更に別の例では、機能は、マルチチャンネルオーディオ環境を作るために、再生デバイス200と1つ又は複数の再生デバイスとをペアリングするステップを含んでもよい。
ある機能は、再生デバイス200が、1つ又は複数の他の再生デバイスと、オーディオコンテンツの再生を同期するステップを含む。再生を同期している間、再生デバイス200によるオーディオコンテンツの再生と1つ又は複数の他の再生デバイスによる再生との間の遅延を、リスナーが気づかないことが好ましい。「複数の独立クロックデジタルデータ処理デバイス間の動作を同期するシステムおよび方法」と題する米国特許第8,234,395号が本明細書に参照として援用されており、それは再生デバイス間のオーディオ再生を同期することが述べられたより詳細な例を提供している。
更に、メモリ206は、データを記憶するように構成されてもよい。データは、例えば、1つ又は複数のゾーン及び/又はゾーングループに一部として含まれる再生デバイス200などの再生デバイス200、再生デバイス200によりアクセス可能なオーディオソース、又は再生デバイス200(又は他の再生デバイス)に関連付け可能な再生キュー、に関連付けられている。データは、定期的に更新され、再生デバイス200の状態を示す1つ又は複数の状態変数として記憶されてもよい。また、メモリ206は、メディアシステムの他のデバイスの状態に関連付けられたデータを含んでもよく、デバイス間で随時共有することによって、1つ又は複数のデバイスが、システムに関連するほぼ直近のデータを有することができる。他の実施形態も可能である。
オーディオ処理コンポーネント208は、とりわけ、デジタル−アナログ変換器(DAC)、アナログ・デジタル・コンバータ(ADC)、オーディオ処理コンポーネント、オーディオ強化コンポーネント、及びデジタルシグナルプロセッサ(DSP)のうちの1つ又は複数を含んでもよい。ある実施形態では、1つ又は複数のオーディオ処理コンポーネント208は、プロセッサ202のサブコンポーネントであってもよい。ある実施形態では、オーディオコンテンツが、オーディオ処理コンポーネント208によって処理及び/又は意図的に変更されることによって、オーディオ信号を生成してもよい。生成されたオーディオ信号は、オーディオアンプ210に送信され、増幅され、スピーカー212を通じて再生される。特に、オーディオアンプ210は、1つ又は複数のスピーカー212を駆動できるレベルまでオーディオ信号を増幅するように構成されたデバイスを含んでもよい。スピーカー212は、独立した変換器(例えば、「ドライバ」)又は1つ又は複数のドライバを内包する筐体を含む完全なスピーカーシステムを備えてもよい。スピーカー212に備えられたあるドライバは、例えば、サブウーファー(例えば、低周波用)、ミドルレンジドライバ(例えば、中間周波用)、及び/又はツイーター(高周波用)を含んでもよい。ある場合では、1つ又は複数のスピーカー212のそれぞれの変換器は、オーディオアンプ210の対応する個々のオーディオアンプによって駆動されてもよい。再生デバイス200で再生するアナログ信号を生成することに加えて、オーディオ処理コンポーネント208は、オーディオコンテンツを処理し、そのオーディオコンテンツを1つ又は複数の他の再生デバイスに再生させるために送信する。
再生デバイス200によって処理及び/又は再生されるオーディオコンテンツは、外部ソース、例えば、オーディオライン−イン入力接続(例えば、オートディテクティング3.5mmオーディオラインイン接続)又はネットワークインタフェース214を介して、受信されてもよい。
マイクロホン220は、検出されたサウンドを電気信号に変換するように構成されたオーディオセンサを含んでいてもよい。電気信号は、オーディオ処理コンポーネント208及び/又はプロセッサ202によって処理されてもよい。マイクロホン220は、再生デバイス220の1つ又は複数の位置で、1つ又は複数の方向を向いて配置されてもよい。マイクロホン220は、1つ又は複数の周波数レンジ内でサウンドを検出するように構成されていてもよい。ある場合では、マイクロホン220のうち1つ又は複数は、再生デバイス200が再生可能なオーディオの周波数範囲内のサウンドを検出するように構成されていてもよい。別の場合では、マイクロホン220の1つ又は複数は、人間が聞くことができる周波数範囲内のサウンドを検出するように構成されていてもよい。
ネットワークインタフェース214は、データネットワーク上で再生デバイス200と1つ又は複数の他のデバイスとの間のデータフローを可能にするように構成されてもよい。このように、再生デバイス200は、再生デバイスと通信する1つ又は複数の他の再生デバイス、ローカルエリアネットワーク内のネットワークデバイス、又は例えば、インターネット等のワイドエリアネットワーク上のオーディオコンテンツソースから、データネットワークを介してオーディオコンテンツを受信するように構成されてもよい。ある例では、再生デバイス200によって送信および受信されたオーディオコンテンツおよび他の信号は、インターネットプロトコル(IP)に基づくソースアドレスおよびIPに基づく宛先アドレスを含むデジタルパケットの形で送信されてもよい。そのような場合、ネットワークインタフェース214は、デジタルパケットデータを解析することによって、再生デバイス200宛てのデータを、再生デバイス200によって適切に受信して処理することができる。
図示されるように、ネットワークインタフェース214は、無線インタフェース216と有線インタフェース218とを含んでもよい。無線インタフェース216は、再生デバイス200用のネットワークインタフェース機能を提供し、通信プロトコル(例えば、無線規格IEEE802.11a、802.11b、802.11g、802.11n、802.11ac、802.15、4Gモバイル通信基準などを含む無線基準(規格)のいずれか)に基づいて、他のデバイス(例えば、再生デバイス200に関連付けられたデータネットワーク内の他の再生デバイス、スピーカー、レシーバー、ネットワークデバイス、制御デバイス)と無線通信してもよい。有線インタフェース218は、再生デバイス200用のネットワークインタフェース機能を提供し、通信プロトコル(例えば、IEEE802.3)に基づいて他のデバイスとの有線接続を介して通信してもよい。図2に示されるネットワークインタフェース214は、無線インタフェース216と有線インタフェース218との両方を含んでいるが、ネットワークインタフェース214は、ある実施形態において、無線インタフェースのみか、又は有線インタフェースのみを含んでもよい。
ある例では、再生デバイス200と他の再生デバイスとは、ペアにされて、オーディオコンテンツの2つの別々のオーディオコンポーネントを再生してもよい。例えば、再生デバイス200は、左チャンネルオーディオコンポーネントを再生するように構成される一方、他の再生デバイスは、右チャンネルオーディオコンポーネントを再生するように構成されてもよい。これにより、オーディオコンテンツのステレオ効果を生成するか、又は強化することができる。ペアにされた再生デバイス(「結合再生デバイス」とも言う)は、更に、他の再生デバイスと同期してオーディオコンテンツを再生してもよい。
別の例では、再生デバイス200は、1つ又は複数の他の再生デバイスと音響的に統合され、単一の統合された再生デバイス(統合再生デバイス)を形成してもよい。統合再生デバイスは、統合されていない再生デバイス又はペアにされた再生デバイスと比べて、サウンドの処理や再現を異なるように構成することができる。なぜならば、統合再生デバイスは、オーディオコンテンツを再生するスピーカー追加することができるからである。例えば、再生デバイス200が、低周波レンジのオーディオコンテンツを再生するように設計されている場合(例えば、サブウーファー)、再生デバイス200は、全周波数レンジのオーディオコンテンツを再生するように設計された再生デバイスと統合されてもよい。この場合、全周波数レンジの再生デバイスは、低周波の再生デバイス200と統合されたとき、オーディオコンテンツの中高周波コンポーネントのみを再生するように構成されてもよい。一方で低周波レンジの再生デバイス200は、オーディオコンテンツの低周波コンポーネントを再生する。更に、統合再生デバイスは、単一の再生デバイス、又は更に他の統合再生デバイスとペアにされてもよい。
例として、現在、ソノズ・インコーポレイテッドは、「PLAY:1」、「PLAY:3」、「PLAY:5」、「PLAYBAR」、「CONNECT:AMP」、「CONNECT」、および「SUB」を含む再生デバイスを販売提供している。他の過去、現在、及び/又は将来のいずれの再生デバイスにおいても、追加的に又は代替的に本明細書で開示された実施例の再生デバイスに実装して使用することができる。更に、再生デバイスは、図2に示された特定の例又は提供されるソノズ製品に限定されないことは理解される。例えば、再生デバイスは、有線又は無線のヘッドホンを含んでもよい。別の例では、再生デバイスは、パーソナルモバイルメディア再生デバイス用のドッキングステーションを含むか、又は、それらと対話してもよい。更に別の例では、再生デバイスは、別のデバイス又はコンポーネント、例えば、テレビ、照明器具、又は屋内又は屋外で使用するためのいくつかの他のデバイスと一体化されてもよい。
b.例示的な再生ゾーン構成
図1のメディア再生システムに戻って、環境は、1つ又は複数の再生ゾーンを有しており、それぞれの再生ゾーンは1つ又は複数の再生デバイスを含んでいる。メディア再生システム100は、1つ又は複数の再生ゾーンで形成されており、後で1つ又は複数のゾーンが追加又は削除して、図1に示す例示的な構成としてもよい。それぞれのゾーンは、異なる部屋又は空間、例えば、オフィス、浴室、主寝室、寝室、キッチン、ダイニングルーム、リビングルーム、及び/又はバルコニーに基づく名前が与えられてもよい。ある場合では、単一の再生ゾーンは複数の部屋又は空間を含んでもよい。別の場合では、単一の部屋又は空間は、複数の再生ゾーンを含んでもよい。
図1に示されるように、バルコニー、ダイニングルーム、キッチン、浴室、オフィス、および寝室のゾーンのそれぞれは、1つの再生デバイスを有する一方、リビングルームおよび主寝室のゾーンのそれぞれは、複数の再生デバイスを有する。リビングルームゾーンは、再生デバイス104、106、108、および110が、別々の再生デバイスとしてか、1つ又は複数の結合再生デバイスとしてか、1つ又は複数の統合再生デバイスとしてか、又はこれらのいずれかの組み合わせで、オーディオコンテンツを同期して再生するように構成されてもよい。同様に、主寝室の場合では、再生デバイス122および124が、別々の再生デバイスとしてか、結合再生デバイスとしてか、又は統合再生デバイスとして、オーディオコンテンツを同期して再生するように構成されてもよい。
ある例では、図1の環境における1つ又は複数の再生ゾーンは、それぞれ異なるオーディオコンテンツを再生している。例えば、ユーザは、バルコニーゾーンでグリルしながら、再生デバイス102によって再生されるヒップホップ音楽を聞くことができる。一方、別のユーザは、キッチンゾーンで食事を準備しながら、再生デバイス114によって再生されるクラシック音楽を聞くことができる。別の例では、再生ゾーンは、同じオーディオコンテンツを別の再生ゾーンと同期して再生してもよい。例えば、ユーザがオフィスゾーンにいる場合、オフィスゾーンの再生デバイス118が、バルコニーの再生デバイス102で再生されている音楽と同じ音楽を再生してもよい。そのような場合、再生デバイス102および118は、ロック音楽を同期して再生しているため、ユーザは、異なる再生ゾーン間を移動してもアウト−ラウドで再生されるオーディオコンテンツをシームレス(又は少なくともほぼシームレス)に楽しむことができる。再生ゾーン間の同期は、前述の米国特許第8,234,395号で述べられているような再生デバイス間の同期と同様の方法で行ってもよい。
上述したように、メディア再生システム100のゾーン構成は、動的に変更してもよく、ある実施形態では、メディア再生システム100は、複数の構成をサポートする。例えば、ユーザが1つ又は複数の再生デバイスを、物理的にゾーンに移動させるか、又はゾーンから移動させる場合、メディア再生システム100は変更に対応するように再構成されてもよい。例えば、ユーザが再生デバイス102をバルコニーゾーンからオフィスゾーンに物理的に移動させる場合、オフィスゾーンは、再生デバイス118と再生デバイス102との両方を含んでもよい。必要に応じて、制御デバイス、例えば制御デバイス126と128とを介して、再生デバイス102が、ペアにされるか、又はオフィスゾーンにグループ化されるか、及び/又はリネームされてもよい。一方、1つ又は複数の再生デバイスが、再生ゾーンを未だ設定していないホーム環境において、ある領域に移動させられた場合、新しい再生ゾーンがその領域に形成されてもよい。
更に、メディア再生システム100の異なる再生ゾーンは、動的にゾーングループに組み合わされてもよいし、又は別々の再生ゾーンに分割されてもよい。例えば、ダイニングルームゾーンとキッチンゾーン114とがディナーパーティ用のゾーングループに組み合わされることによって、再生デバイス112と114とがオーディオコンテンツを同期して再生することができる。一方、あるユーザがテレビを見たい一方、他のユーザがリビングルーム空間の音楽を聞きたい場合、リビングルームゾーンが、再生デバイス104を含むテレビゾーンと、再生デバイス106、108および110を含むリスニングゾーンと、に分けられてもよい。
c.例示的な制御デバイス
図3は、メディア再生システム100の制御デバイス126及び128のうちの一方又は両方を構成する例示的な制御デバイス300の機能ブロック図を示す。図示されるように、制御デバイス300は、プロセッサ302、メモリ304、ネットワークインタフェース306、ユーザインタフェース308、およびマイクロホン310を含んでもよい。ある例では、制御デバイス300は、メディア再生システム100専用の制御デバイスであってもよい。別の例では、制御デバイス300は、メディア再生システムコントローラアプリケーションソフトウェアをインストールされたネットワークデバイス、例えば、iPhone(登録商標)、iPad(登録商標)、又は任意の他のスマートフォン、タブレットあるいはネットワークデバイス(例えば、PC又はMac(登録商標)などのネットワークコンピュータ)であってもよい。
プロセッサ302は、メディア再生システム100のユーザアクセス、コントロール、および構成を可能にすることに関する機能を実行するように構成されてもよい。メモリ304は、プロセッサ302によって実行可能な命令を記憶し、それらの機能を実行するように構成されてもよい。また、メモリ304は、メディア再生システムコントローラアプリケーションソフトウェアと、メディア再生システム100とユーザとに関連付けられた他のデータを記憶するように構成されてもよい。
マイクロホン310は、検出されたサウンドを電気信号に変換するように構成されたオーディオセンサを含んでいてもよい。電気信号は、プロセッサ302によって処理されてもよい。ある場合では、制御デバイス300が音声通信手段又は音声記録手段として使用され得るデバイスである場合、マイクロホン310の1つ又は複数は、それらの機能を実行するためのマイクロホンであってもよい。例えば、マイクロホン310の1つ又は複数は、人間が生成することができる周波数範囲内で、及び/又は人間が聞き取ることができる周波数範囲内でサウンドを検出するように構成されていてもよい。他の例も可能である。
ある例では、ネットワークインタフェース306は、工業規格(例えば、赤外線、無線、IEEE802.3などの有線規格、IEEE802.11a、802.11b、802.11g、802.11n、802.11ac、802.15などの無線規格、4G通信規格など)に基づいてもよい。ネットワークインタフェース306においては、制御デバイス300がメディア再生システム100内の他のデバイスと通信するための手段を提供してもよい。ある例では、データおよび情報(例えば、状態変数)は、ネットワークインタフェース306を介して制御デバイス300と他のデバイスとの間で通信されてもよい。例えば、メディア再生システム100における再生ゾーンおよびゾーングループの構成は、制御デバイス300によって、再生デバイス又は別のネットワークデバイスから受信されてもよいし、あるいは制御デバイス300によって、ネットワークインタフェース306を介して別の再生デバイス又はネットワークデバイスに送信されてもよい。ある場合では、他のネットワークデバイスは、別の制御デバイスであってもよい。
ボリュームコントロールおよびオーディオ再生コントロールなどの再生デバイス制御コマンドは、ネットワークインタフェース306を介して制御デバイス300から再生デバイスに通信されてもよい。上述したように、メディア再生システム100の構成の変更は、ユーザにより制御デバイス300を用いて行うことができる。構成の変更は、1つ又は複数の再生デバイスをゾーンに追加すること、1つ又は複数の再生デバイスをゾーンから取り除くこと、1つ又は複数のゾーンをゾーングループに追加すること、1つ又は複数のゾーンをゾーングループから取り除くこと、結合プレーヤー又は統合プレーヤーを形成すること、結合プレーヤー又は統合プレーヤーから1つ又は複数の再生デバイスに分けることなどを含んでもよい。このように、制御デバイス300は、コントローラと呼ばれてもよく、制御デバイス300は、メディア再生システムコントローラアプリケーションソフトウェアをインストールした専用のコントローラか、又はネットワークデバイスであってもよい。
制御デバイス300のユーザインタフェース308は、図4に示されるコントローラインタフェース400などのようなコントローラインタフェースを提供することによって、メディア再生システム100のユーザアクセスおよび制御を可能にするように構成されてもよい。コントローラインタフェース400は、再生制御領域410、再生ゾーン領域420、再生ステータス領域430、再生キュー領域440、およびオーディオコンテンツソース領域450を含む。図示されるユーザインタフェース400は、図3の制御デバイス300などのようなネットワークデバイス(及び/又は図1の制御デバイス126および128)を設けられたユーザインタフェースの単なる一例であって、ユーザによってメディア再生システム100などのようなメディア再生システムを制御するためにアクセスされるものである。あるいは、様々なフォーマット、スタイル、および対話型シーケンスを他のユーザのインタフェースを1つ又は複数のネットワークデバイスに実装し、メディア再生システムへ類似の制御アクセスを提供してもよい。
再生制御領域410は、(例えば、タッチ又はカーソルを用いることで)選択可能なアイコンを含んでもよい。このアイコンによって、選択された再生ゾーン又はゾーングループ内の再生デバイスが、再生又は停止、早送り、巻き戻し、次にスキップ、前にスキップ、シャッフルモードのオン/オフ、リピートモードのオン/オフ、クロスフェードモードのオン/オフを行う。再生制御領域410は、別の選択可能なアイコンを含んでもよい。別の選択可能なアイコンは、イコライゼーション設定、再生ボリュームなど他の設定などを変更してもよい。
再生ゾーン領域420は、メディア再生システム100内の再生ゾーンの表示を含んでもよい。ある実施形態では、再生ゾーンのグラフィック表示が選択可能であってもよい。追加の選択可能なアイコンを移動させることによって、メディア再生システム内の再生ゾーンを管理又は構成することができる。例えば、結合ゾーンの作成、ゾーングループの作成、ゾーングループの分割、およびゾーングループのリネームなど他の管理又は構成を行うことができる。
例えば、図示されるように、「グループ」アイコンは、再生ゾーンのグラフィック表示のそれぞれに設けられてもよい。あるゾーンのグラフィック表示内の「グループ」アイコンは、メディア再生システム内の1つ又は複数のゾーンを選択して、あるゾーンとグループ化するオプションを出せるように選択可能であってもよい。一度グループ化すると、あるゾーンとグループ化されたゾーン内の再生デバイスは、あるゾーン内の再生デバイスと同期してオーディオコンテンツを再生するように構成される。同様に、「グループ」アイコンは、ゾーングループのグラフィック表示内に設けられてもよい。この場合、「グループ」アイコンは、ゾーングループ内の1つ又は複数のゾーンをゾーングループから取り除くために、ゾーングループ内の1つ又は複数のゾーンを選択から外すというオプションを出すように選択可能であってもよい。ユーザインタフェース400等のユーザインタフェースを介してゾーンをグループ化およびグループ解除するための他の対話をすることも可能であるし、実施することも可能である。再生ゾーン領域420内の再生ゾーンの表示は、再生ゾーン又はゾーングループ構成が変更されると、動的に更新されてもよい。
再生ステータス領域430は、現在再生されているオーディオコンテンツ、前に再生されたオーディオコンテンツ、又は選択された再生ゾーン又はゾーングループ内で次に再生するように予定されているオーディオコンテンツ、のグラフィック表示を含んでもよい。選択可能な再生ゾーン又は再生グループは、ユーザインタフェース上で、例えば、再生ゾーン領域420及び/又は再生ステータス領域430内で視覚的に区別されてもよい。グラフィック表示は、トラックタイトル、アーティスト名、アルバム名、アルバム年、トラックの長さ、およびメディア再生システムを、ユーザインタフェース400を介して制御するときに、ユーザにとって有益な他の関連情報を含んでもよい。
再生キュー領域440は、選択された再生ゾーン又はゾーングループに関連付けられた再生キュー内のオーディオコンテンツのグラフィック表示を含んでもよい。ある実施形態では、それぞれの再生ゾーン又はゾーングループは、再生ゾーン又は再生グループによって再生される0以上のオーディオアイテムに対応する情報を含む再生キューに関連付けられてもよい。例えば、再生キュー内のそれぞれのオーディオアイテムは、ユー・アール・アイ(URI)、ユー・アール・エル(URL)、又は再生ゾーン又はゾーングループ内の再生デバイスによって使用可能な他の識別子を含んでもよい。これらによって、ローカルオーディオコンテンツソース又はネットワークオーディオコンテンツソース、からオーディオアイテムを見つけ、及び/又は取り出し、再生デバイスによって再生することができる。
ある例では、プレイリストが再生キューに追加されてもよい。この場合、プレイリスト内のそれぞれのオーディオアイテムに対応する情報が再生キューに追加されてもよい。別の例では、再生キュー内のオーディオアイテムは、プレイリストとして保存されてもよい。更に別の例では、再生デバイスがストリーミングオーディオコンテンツ、例えば、再生時間を有することで連続して再生されないオーディオアイテムよりも、停止しない限り連続して再生されるインターネットラジオを再生し続けているとき、再生キューは、空であってもよいし、又は「未使用」であるが埋められていてもよい。別の実施形態では、再生キューは、インターネットラジオ及び/又は他のストリーミングオーディオコンテンツアイテムを含むことができ、且つ再生ゾーン又はゾーングループがそれらのアイテムを再生しているとき「未使用」とすることができる。他の例も可能である。
再生ゾーン又はゾーングループが「グループ化される」か、又は「グループ解除」されるとき、影響を受ける再生ゾーン又はゾーングループに関連付けられた再生キューは、クリアされてもよいし、又は再び関連付けられてもよい。例えば、第1再生キューを含む第1再生ゾーンが、第2再生キューを含む第2再生ゾーンとグループ化された場合、形成されたゾーングループは、関連付けられた再生キューを有してもよい。関連付けられた再生キューは、最初は空であるか、(例えば、第2再生ゾーンが第1再生ゾーンに追加された場合、)第1再生キューのオーディオアイテムを含むか、(例えば、第1再生ゾーンが第2再生ゾーンに追加された場合、)第2再生キューのオーディオアイテムを含むか、又は第1再生キューと第2再生キューとの両方のオーディオアイテムを組み合わせられる。その後、形成されたゾーングループがグループ解除された場合、グループ解除された第1再生ゾーンは、前の第1再生キューと再び関連付けられてもよいし、空の新しい再生キューに関連付けられてもよいし、あるいはゾーングループがグループ解除される前にゾーングループに関連付けられていた再生キューのオーディオアイテムを含む新しい再生キューに関連付けられてもよい。同様に、グループ解除された第2再生ゾーンは、前の第2再生キューと再び関連付けられてもよいし、空の新しい再生キューに関連付けられてもよいし、あるいはゾーングループがグループ解除される前にゾーングループに関連付けられていた再生キューのオーディオアイテムを含む新しい再生キューに関連付けられてもよい。
図4のユーザインタフェース400に戻って、再生キュー領域440内のオーディオコンテンツのグラフィック表示は、トラックタイトル、アーティスト名、トラックの長さ、および再生キュー内のオーディオコンテンツに関連付けられた他の関連情報を含んでもよい。ある例では、オーディオコンテンツのグラフィック表示は、追加の選択可能なアイコンを選択して移動させることができる。これにより、再生キュー及び/又は再生キューに表示されたオーディオコンテンツを管理及び/又は編集することができる。例えば、表示されたオーディオコンテンツは、再生キューから取り除いてもよいし、再生キュー内の異なる位置に移動させてもよいし、すぐに再生させるか若しくは現在再生しているオーディオコンテンツの後に再生するように選択されてもよいし、あるいは他の動作を実行してもよい。再生ゾーン又はゾーングループに関連付けられた再生キューは、再生ゾーン又はゾーングループ内の1つ又は複数の再生デバイスのメモリ、再生ゾーン又はゾーングループに入っていない再生デバイスのメモリ、及び/又は他の指定のデバイスのメモリに記憶されていてもよい。
オーディオコンテンツソース領域450は、選択可能なオーディオコンテンツソースのグラフィック表示を含んでいてもよい。このオーディオコンテンツソースにおいては、オーディオコンテンツが選択された再生ゾーン又はゾーングループによって取り出され、再生されてもよい。オーディオコンテンツソースに関する説明は、以降のセクションを参照することができる。
d.例示的なオーディオコンテンツソース
前回図示したように、ゾーン又はゾーングループ内の1つ又は複数の再生デバイスは、再生するオーディオコンテンツを、(例えば、オーディオコンテンツの対応するURI又はURLに基づいて、)複数の入手可能なオーディオコンテンツソースから取り出すように構成されてもよい。ある例では、オーディオコンテンツは、再生デバイスによって、対応するオーディオコンテンツソース(例えば、ライン−イン接続)から直接取り出されてもよい。別の例では、オーディオコンテンツは、1つ又は複数の他の再生デバイス若しくはネットワークデバイスを介してネットワーク上の再生デバイスに提供されてもよい。
例示的なオーディオコンテンツソースは、メディア再生システム内の1つ又は複数の再生デバイスのメモリを含んでもよい。メディア再生システムとしては、例えば、図1のメディア再生システム100、1つ又は複数のネットワークデバイス上のローカルミュージックライブラリ(例えば、制御デバイス、ネットワーク対応のパーソナルコンピュータ、又はネットワーク接続ストレージ(NAS)など)、インターネット(例えば、クラウド)を介してオーディオコンテンツを提供するストリーミングオーディオサービス、あるいは再生デバイス又はネットワークデバイスのライン−イン入力接続を介してメディア再生システムに接続されるオーディオソース、他の可能なシステムであってもよい。
ある実施形態では、オーディオコンテンツソースは、図1のメディア再生システム100などのようなメディア再生システムに定期的に追加されてもよいし、定期的に取り除かれてもよい。ある例では、1つ又は複数のオーディオコンテンツソースが追加される、取り除かれる、又は更新される度に、オーディオアイテムのインデックス付けが行われてもよい。オーディオアイテムのインデックス付けは、ネットワーク上で共有される全てのフォルダ/ディレクトリ内の識別可能なオーディオアイテムをスキャンすることを含んでもよい。ここで、ネットワークは、メディア再生システム内の再生デバイスによってアクセス可能である。また、オーディオアイテムのインデックス付けは、メタデータ(例えば、タイトル、アーティスト、アルバム、トラックの長さなど)と他の関連情報とを含むオーディオコンテンツデータベースを作成すること、又は更新すること、を含んでもよい。他の関連情報とは、例えば、それぞれの識別可能なオーディオアイテムを見つけるためのURI又はURLを含んでもよい。オーディオコンテンツソースを管理し、且つ維持するための他の例も可能である。
再生デバイス、制御デバイス、再生ゾーン構成、およびメディアコンテンツソースに関しての上述した説明は、以降で述べられている機能および方法を実施可能ないくつかの例示的な動作環境のみを提供している。本発明は、本明細書で明示的に述べられていないメディア再生システム、再生デバイス、およびネットワークデバイスの他の動作環境および構成であっても適用可能であり、その機能および方法を実施するのに適している。
III.再生環境のための再生デバイスのキャリブレーション
上述したように、本明細書で説明される例は、ネットワークデバイスが再生環境内で移動するときに、ネットワークデバイスのマイクロホンによって検出されたオーディオ信号に基づいて、再生環境のための1つ又は複数の再生デバイスをキャリブレーションすることに関する。
ある例では、再生デバイスが最初にセットアップされるとき、又は再生デバイスが新しい位置に移動した場合に、再生デバイスのキャリブレーションが開始されてもよい。例えば、再生デバイスが新しい位置に移動した場合、再生デバイスのキャリブレーションは、移動の検出(例えば、とりわけ、全地球測位システム(GPS)、1つ又は複数の加速度計、又は無線信号強度変動など)に基づいて、あるいは再生デバイスが新しい位置に移動したことを示すユーザ入力(例えば、再生デバイスに関連付けられた再生ゾーン名の変更)に基づいて開始されてもよい。
別の例では、再生デバイスのキャリブレーションは、コントローラ(例えば、ネットワークデバイス)を介して開始されてもよい。例えば、ユーザは、再生デバイスのコントローラインタフェースにアクセスし、再生デバイスのキャリブレーションを開始してもよい。ある場合では、ユーザは、コントローラにアクセスし、キャリブレーションを行う再生デバイス(又は、再生デバイスを含む再生デバイスのグループ)を選択してもよい。ある場合では、キャリブレーションインタフェースが再生デバイスのコントローラインタフェースの一部として提供され、ユーザによって再生デバイスのキャリブレーションを開始することが可能になっていてもよい。他の例も可能である。
方法500、700、及び800は、以降で説明しているように、再生環境のために1つ又は複数の再生デバイスをキャリブレーションするために実行される例示的な方法である。
a.1つ又は複数の再生デバイスをキャリブレーションする例示的な第1方法
図5は、再生環境内を移動するネットワークデバイスのマイクロホンによって検出されるオーディオ信号に基づいて、再生デバイスをキャリブレーションする第1方法500の例示的なフロー図を示す。図5に示される方法500は、例えば、図1のメディア再生システム100、図2の再生デバイス200の1つ又は複数、図3の制御デバイス300の1つ又は複数、及び図6の再生環境、を含む以降で説明される操作環境内で実行され得る方法の実施形態を示す。方法500は、ブロック502−506の1つ又は複数によって示される1つ又は複数の操作、機能、又は動作を含んでいてもよい。ブロックは、順番に示されているが、これらのブロックは、並行で実行されてもよいし、及び/又は本明細書で述べられている順番と異なる順番で実行されてもよい。また、これらのブロックは、組み合わせてより少ないブロック数となるようにしてもよいし、分割してブロック数を増やしてもよいし、及び/又は所望の実装に基づいて取り除いてもよい。
更に、方法500、他の処理、及び本明細書で開示されている方法において、フローチャートは、本実施形態の1つの実装可能な機能及び操作を示す。これに関して、それぞれのブロックは、プロセス中の論理機能又はステップを実行するためにプロセッサによって実行可能な1つ又は複数の命令を含むモジュール、セグメント、又はプログラムコードの一部を示していてもよい。プログラムコードは、コンピュータ読み取り可能な媒体のいずれのタイプ、例えば、ディスク又はハードドライブを含む記憶デバイスなどに記憶されてもよい。コンピュータ読み取り可能な媒体は、非一時的なコンピュータ読み取り可能な媒体を含んでもよい。非一時的なコンピュータ読み取り可能な媒体とは、例えば、レジスタメモリ、プロセッサキャッシュ、及びランダムアクセスメモリ(RAM)などの短期間、データを記憶するコンピュータ読み取り可能なメディアなどである。また、コンピュータ読み取り可能な媒体は、非一時的なメディアを含んでもよい。非一時的なメディアとは、例えば、リードオンリーメモリ(ROM)、光又は磁気ディスク、コンパクトディスクリードオンリーメモリ(CD−ROM)などの二次的又は永久的に長期記憶するものである。また、コンピュータ読み取り可能な媒体は、任意の揮発性又は不揮発性記憶システムであってもよい。コンピュータ読み取り可能な媒体は、例えば、コンピュータ読み取り可能な記録媒体、又は有形の記憶デバイスとみなしてもよい。更に、方法500、他のプロセス、及び本明細書に開示された方法において、それぞれのブロックがプロセス内のある論理機能を実行するように配線された回路を示していてもよい。
ある例では、方法500は、1つ又は複数の再生デバイスをキャリブレーションするために内蔵マイクロホンが使用され得るネットワークデバイスによって、少なくとも部分的に実行されてもよい。図5に示されるように、方法500は、ブロック502において、(i)再生デバイスが第1オーディオ信号を再生している間、及び(ii)ネットワークデバイスが第1物理的位置から第2物理的位置に移動している間に、ネットワークデバイスのマイクロホンによって第2オーディオ信号を検出するステップ、ブロック504において、第2オーディオ信号を示すデータに基づいて、オーディオ処理アルゴリズムを特定するステップ、ブロック506において、特定されたオーディオ処理アルゴリズムを示すデータを再生デバイスに送信するステップ、を含む。
方法500、700及び800の説明を補助するために、図6の再生環境600を提供する。図6に示されるように、再生環境600は、ネットワークデバイス602、再生デバイス604、再生デバイス606、及びコンピュータ610を含む。ネットワークデバイス602は、方法500の少なくとも一部を調整していてもよいし、及び/又は方法500の少なくとも一部を実行するものであってもよい。ネットワークデバイス602は、図3の制御デバイス300と同様のものであってもよい。再生デバイス604及び606の両方は、図2の再生デバイス200と同様のものであってもよい。再生デバイス604及び606のいずれか又は両方は、方法500、700又は800によってキャリブレーションされてもよい。コンピュータ810は、再生デバイス604及び606を含むメディア再生システムと通信するサーバであってもよい。更に、コンピュータ810は、ネットワークデバイス602と直接又は間接的に通信してもよい。方法500、700、及び800に関する以降の説明では、図6の再生環境600に言及しているが、当業者であれば、再生環境600が、再生デバイスがキャリブレーションされ得る再生環境の1つの例を示しているに過ぎないことは理解され得る。他の例も可能である。
方法500に戻って、ブロック502は、(i)再生デバイスが第1オーディオ信号を再生している間、及び(ii)ネットワークデバイスが第1物理的位置から第2物理的位置へ移動している間に、ネットワークデバイスのマイクロホンによって、第2オーディオ信号を検出するステップを含む。再生デバイスは、キャリブレーションされる再生デバイスであり、再生環境内の1つ又は複数の再生デバイスのうちの1つであってもよい。また、再生デバイスは、オーディオコンテンツを個別に再生するように構成されていてもよいし、あるいは再生環境内の別の再生デバイスと同期してオーディオコンテンツを再生するように構成されていてもよい。説明のために、再生デバイスは、再生デバイス604であってもよい。
ある例では、第1オーディオ信号は、ユーザによって定期的に使用されている間に再生デバイスによって再生され得るオーディオコンテンツを示すテスト信号又は測定信号であってもよい。したがって、第1オーディオ信号は、再生デバイス604の再生可能な波周波数範囲を実質的にカバーする周波数か、又は人間が聞き取ることができる周波数範囲の周波数を有するオーディオコンテンツを含んでもよい。ある場合では、第1オーディオ信号は、本明細書で例示として説明されているキャリブレーションされる再生デバイス604などの再生デバイスをキャリブレーションするときに特別に使用するために生成されたオーディオ信号であってもよい。別の場合では、第1オーディオ信号は、再生デバイス604のユーザのお気に入りであるオーディオトラックであってもよいし、あるいは再生デバイス604によって通常再生されるものであってもよい。他の例も可能である。
説明のために、ネットワークデバイスは、ネットワークデバイス602であってもよい。前述したように、ネットワークデバイス602は、内蔵マイクロホン備えたモバイルデバイスであってもよい。このように、ネットワークデバイスのマイクロホンは、ネットワークデバイスの内蔵マイクロホンであってもよい。ある例では、ネットワークデバイス602がネットワークデバイス602のマイクロホンを介して第2オーディオ信号を検出する前に、ネットワークデバイス602は、再生デバイス604に第1オーディオ信号を再生させてもよい。ある場合では、ネットワークデバイス602は、再生デバイス604に再生させる第1オーディオ信号を示すデータを送信してもよい。
別の例では、再生デバイス604は、コンピュータ610などのサーバから、第1オーディオ信号を再生するためのコマンドを受信し、その受信したコマンドに応答して第1オーディオ信号を再生してもよい。さらに別の例では、再生デバイス604は、ネットワークデバイス602又はコンピュータ610からコマンドを受信せずに、第1オーディオ信号を再生してもよい。例えば、再生デバイス604が再生デバイス604のキャリブレーションを調整している場合、再生デバイス604は、第1オーディオ信号を再生するためのコマンドを受信しなくても第1オーディオ信号を再生してもよい。
第1オーディオ信号が再生デバイス604によって再生されている間に、ネットワークデバイス602のマイクロホンによって第2オーディオ信号が検出される場合、第2オーディオ信号は、第1オーディオ信号に対応する部分を含んでいてもよい。言い換えると、第2オーディオ信号は、第1オーディオ信号の一部を含むことによって、再生デバイス604によって再生されてもよいし、及び/又は再生環境600内で反映されてもよい。
ある例では、第1物理的位置及び第2物理的位置の両方は、再生環境600内にあってもよい。図6に示されるように、第1物理的位置はポイント(a)であってもよく、第2物理的位置はポイント(b)であってもよい。第1物理的位置(a)から第2物理的位置(b)に移動している間、ネットワークデバイスは、再生環境600内のロケーションを横切ってもよい。ここで、再生環境600は、1人又は複数人のリスナーが再生デバイス604の通常使用時にオーディオ再生を体験し得るロケーションである。ある例では、例示の再生環境600は、キッチン及びダイニングルームを含んでもよく、第1物理的位置(a)と第1物理的位置(b)との間の経路608は、キッチン及びダイニングルーム内の場所をカバーしている。ここで、キッチン及びダイニングルームは、1人又は複数人のリスナーが再生デバイス604の通常使用時にオーディオ再生を体験し得る場所である。
ネットワークデバイス602が第1物理的位置(a)から第2物理的位置(b)に移動している間に第2オーディオ信号が検出される場合、第2オーディオ信号は、第1物理的位置(a)と第2物理的位置(b)との間の経路608に沿って異なる位置で検出されたオーディオ信号を含んでいてもよい。このように、第2オーディオ信号の特性は、ネットワークデバイス602が第1物理的位置(a)から第2物理的位置(b)に移動している間に第2オーディオ信号が検出されたことを示していてもよい。
ある例では、第1物理的位置(a)と第2物理的位置(b)との間を移動するネットワークデバイス602の移動は、ユーザによって行われてもよい。ある場合では、第2オーディオ信号を検出する前及び/又は検出している間に、ネットワークデバイスのグラフィカル表示は、再生デバイス内でネットワークデバイス602を移動させる指示を提供してもよい。例えば、グラフィカル表示は、「オーディオを再生している間に、あなた又は他の人が音楽を楽しむことができる再生ゾーン内の場所を通ってネットワークデバイスを移動させて下さい。」などのテキストを表示してもよい。他の例も可能である。
ある例では、第1オーディオ信号は、所定の時間(例えば、約30秒)であってもよいし、ネットワークデバイス602のマイクロホンによるオーディオ信号の検出は、所定の期間であってもよく、あるいは同様の期間であってもよい。ある場合では、ネットワークデバイスのグラフィカル表示は、更に、ユーザが再生環境602内のロケーションを通ってネットワークデバイス602を移動させるために残された時間量を示す表示を提供してもよい。再生デバイスのキャリブレーション中にユーザを補助する表示を提供するグラフィカル表示の他の例も可能である。
ある例では、再生デバイス604及びネットワークデバイス602は、第1オーディオ信号の再生及び/又は第2オーディオ信号の検出を調整してもよい。ある場合では、キャリブレーションの開始時に、再生デバイス604は、ネットワークデバイスにメッセージを送信し、再生デバイスが第1オーディオ信号を再生していること、又は再生しようとしていることを示してもよい。ネットワークデバイス602は、そのメッセージに応答して、第2オーディオ信号の検出を開始してもよい。別の場合では、キャリブレーションの開始時に、ネットワークデバイス602は、ネットワークデバイス602の加速度計などのモーションセンサを用いて、ネットワークデバイス602の移動を検出してもよいし、ネットワークデバイス602が第1物理的位置(a)から第2物理的位置(b)へ移動したことを示すメッセージを送信してもよい。再生デバイス604は、そのメッセージに応答して、第1オーディオ信号の再生を開始してもよい。他の例も可能である。
ブロック504では、方法500は、第2オーディオ信号を示すデータに基づいて、オーディオ処理アルゴリズムを特定するステップを含む。上述したように、第2オーディオ信号は、再生デバイスによって再生される第1オーディオ信号に対応する部分を含んでいてもよい。
ある例では、ネットワークデバイス602のマイクロホンによって検出される第2オーディオ信号は、アナログ信号であってもよい。このように,ネットワークデバイスは、検出されたアナログ信号を処理し(例えば、検出されたオーディオ信号をアナログ信号からデジタル信号に変換し)、第2オーディオ信号を示すデータを生成してもよい。
ある場合では、ネットワークデバイス602のマイクロホンは、音響特性を有していてもよい。その音響特性は、処理(例えば、デジタルオーディオ信号への変換)のために、マイクロホンによって、ネットワークデバイス602のプロセッサに出力されるオーディオ信号を考慮していてもよい。例えば、ネットワークデバイスのマイクロホンの音響特性がある周波数で低感度を含んでいる場合、マイクロホンによって出力させるオーディオ信号において、その周波数のオーディオコンテンツは減衰されてもよい。
ネットワークデバイス602のマイクロホンによって出力されるオーディオ信号をx(t)で示し、検出された第2オーディオ信号をs(t)で示し、マイクロホンの音響特性をh(t)で示した場合、マイクロホンから出力される信号とマイクロホンによって検出された第2オーディオ信号との間の関係は、次の式で表すことができる。
Figure 2017527223
ここで、○の中に×が描かれた関数は、畳み込み(convolution)の数学関数を示す。このように、マイクロホンによって検出される第2オーディオ信号s(t)は、マイクロホンから出力される信号x(t)とマイクロホンの音響特性h(t)とに基づいて決定されてもよい。例えば、h −1(t)などのキャリブレーションアルゴリズムは、ネットワークデバイス602のマイクロホンから出力されるオーディオ信号に適用されることによって、マイクロホンによって検出される第2オーディオ信号s(t)を決定してもよい。
ある例では、ネットワークデバイス602のマイクロホンの音響特性h(t)は、既知であってもよい。例えば、マイクロホンの音響特性、対応するネットワークデバイスモデル、及び/又はネットワークデバイスのマイクロホンモデルなどのデータベースが利用可能であってよい。別の例では、ネットワークデバイス602のマイクロホンの音響特性h(t)は、未知であってもよい。このような場合、ネットワークデバイス602のマイクロホンの音響特性又はマイクロホンキャリブレーションアルゴリズムは、再生デバイス604、再生デバイス606などの再生デバイスを用いて、又は別の再生デバイスを用いて決定されてもよい。このような処理の例は、図9−11に関連して以降で説明されている。
ある例では、オーディオ処理アルゴリズムを特定するステップは、第1オーディオ信号に基づいて、第2オーディオ信号を示すデータに基づく周波数等応答を決定すること、及び決定した周波数応答に基づいて、オーディオ処理アルゴリズムを特定することを含んでいてもよい。
ネットワークデバイス602のマイクロホンが第2オーディオ信号を検出する間に、ネットワークデバイス602が第1物理的位置(a)から第2物理的位置(b)に移動している場合、周波数応答は、それぞれが経路608に沿って異なる位置で検出された第2オーディオ信号の部分に対応する一連の周波数応答を含んでいてもよい。ある場合では、一連の周波数応答の平均周波数応答が決定されてもよい。例えば、平均周波数応答におけるある周波数の信号の大きさは、一連の周波数応答におけるその周波数の大きさの平均であってもよい。他の例も可能である。
ある例では、次いで、平均周波数応答に基づいてオーディオ処理アルゴリズムが特定されてもよい。ある場合では、オーディオ処理アルゴリズムが決定されることによって、再生環境600において第1オーディオ信号を再生するときに再生デバイス604によるオーディオ処理アルゴリズムを適用し、所定のオーディオ特性と実質的に同じであるオーディオ特性を含む第3オーディオ信号を生成してもよい。
ある例では、所定のオーディオ特性は、良好なサウンドとみなされるオーディオ周波数等化(イコライゼーション)であってもよい。ある場合では、所定のオーディオ特性は、再生デバイスの再生可能な周波数範囲にわたって実質的に均等なイコライゼーションを含んでいてもよい。別の場合では、所定のオーディオ特性は、典型的なリスナーにとって好ましいと考えられるイコライゼーションを含んでいてもよい。更に別の例では、所定のオーディオ特性は、あるジャンルの音楽に適していると考えられる周波数応答を含んでいてもよい。
いずれの場合であっても、ネットワークデバイス602は、第2オーディオ信号を示すデータと所定のオーディオ特性とに基づいてオーディオ処理アルゴリズムを特定してもよい。ある例では、再生環境600の周波数応答においては、あるオーディオ周波数が他の周波数よりも減衰されるようにしてもよい。また、所定のオーディオ特性があるオーディオ周波数が最小限に減衰されたイコライゼーションを含む場合、対応するオーディオ処理アルゴリズムは、あるオーディオ周波数での増幅を含んでいてもよい。
ある例では、第1オーディオ信号f(t)と、ネットワークデバイス602のマイクロホンによって検出され、s(t)で示される第2オーディオ信号との関係は、数学的に次の式で表すことができる。
Figure 2017527223
ここで、hpe(t)は、再生環境600内の(経路608に沿った位置での)再生デバイス604によって再生されるオーディオコンテンツの音響特性を示す。所定のオーディオ特性は、所定のオーディオ信号はz(t)で示され、オーディオ処理アルゴリズムはp(t)で示される場合、所定のオーディオ信号z(t)、第2オーディオ信号s(t)、及びオーディオ処理アルゴリズムp(t)は、数学的に次の式で表すことができる。
Figure 2017527223
したがって、オーディオ処理アルゴリズムp(t)は数学的に次の式で表すことができる。
Figure 2017527223
ある場合では、オーディオ処理アルゴリズムを特定するステップは、ネットワークデバイス602がコンピュータ610に、第2オーディオ信号を示すデータを送信することを含んでもよい。このような場合、コンピュータ610は、第2オーディオ信号を示すデータに基づいて、オーディオ処理アルゴリズムを特定するように構成されてもよい。コンピュータ610は、式(1)〜(4)を参照して上述したものと同じオーディオ処理アルゴリズムを特定してもよい。次に、ネットワークデバイス602は、特定されたオーディオ処理アルゴリズムを、コンピュータ610から受信してもよい。
ブロック506では、方法500は、特定されたオーディオ処理アルゴリズムを再生デバイスに送信するステップを含む。ネットワークデバイス602は、ある場合では、再生デバイス604にコマンドを送信し、再生環境600においてオーディオコンテンツを再生するときに、特定されたオーディオ処理アルゴリズムを適用してもよい。
ある例では、特定されたオーディオ処理アルゴリズムを示すデータは、特定されたオーディオ処理アルゴリズムの1つ又は複数のパラメータを含んでもよい。別の例では、オーディオ処理アルゴリムのデータベースは、再生デバイスによってアクセス可能であってもよい。このような場合、特定されたオーディオ処理アルゴリズムを示すデータは、特定されたオーディオ処理アルゴリズムに対応するデータベースのエントリを示すことができる。
ある場合では、ブロック504で、第2オーディオ信号を示すデータに基づいてオーディオ処理アルゴリズムをコンピュータ610が特定した場合、コンピュータ610はオーディオ処理アルゴリズムを再生デバイスに直接送信してもよい。
上述した説明は、概して単一の再生デバイスのキャリブレーションを説明しているが、当業者であれば、同様の機能が実行され、複数の再生デバイスに対して個別に、又はグループでまとめてキャリブレーションすることができることは理解され得る。例えば、方法500は、更に、再生デバイス604及び/又は606によって実行され、再生環境600内の再生デバイス606をキャリブレーションしてもよい。ある例では、再生デバイス604は、再生環境内の再生デバイス606と同期して再生するようにキャリブレーションされてもよい。例えば、再生デバイス604は、再生デバイス606に、再生デバイス604による第1オーディオ信号の再生と同期して、又は個別に第3オーディオ信号を再生させてもよい。
ある例では、第1オーディオ信号及び第3オーディオ信号は、実質的に同じであってもよく、及び/又は同時に再生されてもよい。別の例では、第1オーディオ信号及び第3オーディオ信号は、直交していてもよいし、又は他の方法で識別可能であればよい。例えば、再生デバイス604は、再生デバイス606による第3オーディオ信号の再生が完了した後、第1オーディオ信号を再生してもよい。別の例では、第1オーディオ信号は、第3オーディオ信号の位相に直交する位相を有していてもよい。更に別の例では、第3オーディオ信号は、第1オーディオ信号と異なる周波数範囲、及び/又は変動する周波数範囲を有していてもよい。他の例も可能である。
いずれの場合であっても、ネットワークデバイス602のマイクロホンによって検出される第2オーディオ信号は、更に、第2再生デバイスによって再生される第3オーディオ信号に対応する部分を含んでいてもよい。上述したように、第2オーディオ信号は、再生デバイス604のオーディオ処理アルゴリズムを特定するため、および再生デバイス606のオーディオ処理アルゴリズムを特定するために処理されてもよい。この場合では、再生デバイス604及び再生デバイス606による第2オーディオ信号に寄与する違いを構文解析することを含む1つ又は複数の追加の機能が実行されてもよい。
例では、再生環境600内でオーディオコンテンツを単独で再生するときに、再生デバイス604に第1オーディオ処理アルゴリムが適用されることを特定してもよい。再生環境600内の再生デバイス606と同期してオーディオコンテンツを再生するときに、再生デバイス604に第2オーディオ処理アルゴリズムが適用されることを特定してもよい。次いで、再生デバイス604は、再生デバイス604が入っている再生構成に基づいて、適切なオーディオ処理アルゴリズムを適用してもよい。
ある例では、最初にオーディオ処理アルゴリズムを特定する際に、再生デバイス604は、オーディオコンテンツを再生するときにオーディオ処理アルゴリズムを適用してもよい。再生デバイスの(キャリブレーションを開始し、且つ参加した)ユーザは、オーディオ処理アルゴリズムが適用されて再生されたオーディオコンテンツを聞いた後に、特定されたオーディオ処理アルゴリズムを保存するか、オーディオ処理アルゴリズムを破棄するか、及び/又はキャリブレーションを再度行うかを決定してもよい。
ある場合では、ユーザは、ある期間、特定されたオーディオ処理アルゴリズムをアクティブ化又は非アクティブ化してもよい。ある例では、これにより、再生デバイス604にオーディオ処理アルゴリズムを適用するのか、又はキャリブレーションを再度行うのかを評価するために、ユーザはより多くの時間をかけることができる。オーディオ処理アルゴリムが適用されるべきであることをユーザが示した場合、再生デバイス604がメディアコンテンツを再生するとき、再生デバイス604はデフォルトでオーディオ処理アルゴリズムを適用してもよい。オーディオ処理アルゴリズムは、更に、ネットワークデバイス602、再生デバイス604、再生デバイス606、コンピュータ610、又は再生デバイス604と通信する他のいずれのデバイスに記憶されていてもよい。他の例も可能である。
上述したように、方法500は、ネットワークデバイス602によって少なくとも部分的に調整されてもよいし、及び/又は実行されてもよい。なお、ある実施形態では、方法500のある機能が、1つ又は複数の他のデバイスによって実行されてもよいし、及び/又は調整されてもよい。1つ又は複数の他のデバイスは、再生デバイス604、再生デバイス606、又はコンピュータ610など他の可能性のあるものも含む。例えば、上述したように、ブロック502がネットワークデバイス602によって実行されてもよい一方で、ある場合では、ブロック504がコンピュータ610によって部分的に実行されてもよく、ブロック506がネットワークデバイス602及び/又はコンピュータ610によって実行されてもよい。他の例も可能である。
b.1つ又は複数の再生デバイスをキャリブレーションする例示的な第2方法
図7は、再生環境内を移動するネットワークデバイスのマイクロホンによって検出されるオーディオ信号に基づいて再生デバイスをキャリブレーションする第2方法700の例示的なフロー図を示す。図7に示す方法700は、例えば、図1のメディア再生システム100、図2の再生デバイス200の1つ又は複数、図3の制御デバイス300の1つ又は複数、及び図6の再生環境600、を含む以降で述べられる操作環境内で実行され得る方法の実施形態を示す。方法700は、ブロック702−708の1つ又は複数によって示される1つ又は複数の操作、機能又は動作を含んでいてもよい。ブロックは、順番に示されているが、これらのブロックは、並行で実行されてもよいし、及び/又は本明細書で述べられている順番と異なる順番で実行されてもよい。これらのブロックは、組み合わせてより少ないブロック数となるようにしてもよいし、分割してブロック数を増やしてもよいし、及び/又は所望の実装に基づいて取り除いてもよい。
ある例では、方法700は、キャリブレーションされた再生デバイスによって少なくとも部分的に調整されてもよいし、及び/又は実行されてもよい。図7に示すように、方法700は、ブロック702で、第1オーディオ信号を再生するステップ、ブロック704で、ネットワークデバイスが第1物理的位置から第2物理的位置に移動している間に、ネットワークデバイスのマイクロホンによって検出された第2オーディオ信号を示すデータを、ネットワークデバイスから受信するステップ、ブロック706で、第2オーディオ信号を示すデータに基づいて、オーディオ処理アルゴリズムを特定するステップ、及びブロック708で、再生環境内でオーディオコンテンツを再生するときに、特定されたオーディオ処理アルゴリズムを適用するステップ、を含む。
ブロック702では、方法700は、再生デバイスが第1オーディオ信号を再生するステップを含む。図6に戻って、方法700の少なくとも一部を実行する再生デバイスは、再生デバイス604であってもよい。このように、再生デバイス604は、第1オーディオ信号を再生してもよい。更に、再生デバイス604は、ネットワークデバイス602、コンピュータ610、又は再生デバイス606からの第1オーディオ信号を再生するコマンドによって、又はコマンドによらずに第1オーディオ信号を再生してもよい。
ある例では、第1オーディオ信号は、ブロック502で上述した第1オーディオ信号と実質的に同様であってもよい。このように、方法500における第1オーディオ信号の説明は、ブロック702及び方法700において述べられた第1オーディオ信号に適用可能であってもよい。
ブロック704では、方法700は、ネットワークデバイスが第1物理的位置から第2物理的位置に移動していた間に、ネットワークデバイスのマイクロホンによって検出された第2オーディオ信号を示すデータを、ネットワークデバイスから受信するステップを含む。第2オーディオ信号を示すことに加えて、データは、更に、ネットワークデバイスが第1物理的位置から第2物理的位置に移動していた間に、第2オーディオ信号がネットワークデバイスのマイクロホンによって検出されたことを示してもよい。ある例では、ブロック704は、方法500のブロック502と実質的に同様であってもよい。このように、ブロック502及び方法500に関連する説明は、ブロック704に、時には修正を加えて、適用可能であってもよい。
ある場合では、再生デバイス604は、ネットワークデバイス602のマイクロホンが第2オーディオ信号を検出している間に、第2オーディオ信号を示すデータを受信してもよい。言い換えれば、ネットワークデバイス602は、第2オーディオ信号を検出している間、第2オーディオ信号を示すデータをストリーミングしてもよい。別の場合では、再生デバイス604は、第2オーディオ信号の検出(及び、ある場合では、再生デバイス604による第1オーディオ信号の再生)が完了すると、第2オーディオ信号を示すデータを受信してもよい。他の例も可能である。
ブロック706では、方法700は、第2オーディオ信号を示すデータに基づいて、オーディオ処理アルゴリズムを特定するステップを含む。ある例では、ブロック706は、方法500のブロック504と実質的に同様であってもよい。このように、ブロック504と方法500に関連する説明は、ブロック706に、時には修正を加えて、適用可能であってもよい。
ブロック708では、方法700は、再生環境内でオーディオコンテンツを再生するときにオーディオ処理アルゴリズムを適用するステップを含む。ある例では、ブロック708は、方法500のブロック506と実質的に同様であってもよい。なお、この場合、再生デバイス604は、特定されたオーディオ処理アルゴリズムを別のデバイスに送信する必要無く、特定されたオーディオ処理アルゴリズムを適用することができる。なお、上述したように、再生デバイス604は、特定されたオーディオ処理アルゴリズムを、コンピュータ610などの別のデバイスに、送信して記憶することもできる。
上述したように、方法700は、再生デバイス604によって少なくとも部分的に調整されてもよいし、及び/又は実行されてもよい。なお、ある実施形態では、方法700のある機能が、1つ又は複数の別のデバイスによって実行されてもよいし、及び/又は調整されてもよい。1つ又は複数の別のデバイスは、ネットワークデバイス602、再生デバイス606、又はコンピュータ610、他の可能性のあるものを含む。例えば、ブロック702、704、及び708は、再生デバイス604によって実行されてもよい一方、ある場合では、ブロック706は、ネットワークデバイス602又はコンピュータ610によって部分的に実行されてもよい。他の例も可能である。
c.1つ又は複数の再生デバイスをキャリブレーションする例示的な第3方法
図8は、再生環境内を移動するネットワークデバイスのマイクロホンによって検出されるオーディオ信号に基づいて再生デバイスをキャリブレーションする第3方法800の例示的なフロー図を示す。図8に示す方法800は、例えば、図1のメディア再生システム100、図2の再生デバイス200の1つ又は複数、図3の制御デバイス300の1つ又は複数、及び図6の再生環境600、を含む以降で説明される操作環境内で実行され得る方法の実施形態を示す。方法800は、ブロック802−806の1つ又は複数によって示される1つ又は複数の操作、機能又は動作を含んでいてもよい。ブロックは、順番に示されているが、これらのブロックは、並行で実行されてもよいし、及び/又は本明細書で述べられている順番と異なる順番で実行されてもよい。これらのブロックは、組み合わせてより少ないブロック数となるようにしてもよいし、分割してブロック数を増やしてもよいし、及び/又は所望の実装に基づいて取り除いてもよい。
ある例では、方法800は、再生デバイスと通信するサーバなどのコンピュータによって少なくとも部分的に行われてもよい。図6の再生環境600に再び戻って、方法800は、コンピュータ610によって少なくとも部分的に調整されてもよいし、及び/又は実行されてもよい。
図8に示されるように、方法800は、ブロック802で、ネットワークデバイスが再生環境内で第1物理的位置から第2物理的位置に移動している間に、ネットワークデバイスのマイクロホンによって検出されたオーディオ信号を示すデータを、ネットワークデバイスから受信するステップ、ブロック804で、検出されたオーディオ信号を示すデータに基づいてオーディオ処理アルゴリムを特定するステップ、及びブロック806で、特定されたオーディオ処理アルゴリズムを示すデータを、再生環境内の再生デバイスに送信するステップ、を含む。
ブロック802では、方法800は、ネットワークデバイスが再生環境内で第1物理的位置から第2物理的位置に移動している間に、ネットワークデバイスのマイクロホンによって検出されたオーディオ信号を示すデータを、ネットワークデバイスから受信するステップを含む。検出されたオーディオ信号を示すことに加えて、データは、更に、ネットワークデバイスが第1物理的位置から第2物理的位置に移動していた間に、検出されたオーディオ信号がネットワークデバイスのマイクロホンによって検出されたことを示してもよい。ある例では、ブロック802は、方法500のブロック502及び方法700のブロック704と実質的に同様であってもよい。このように、ブロック502及び方法500、又はブロック704及び方法700に関連するいずれの説明も、時には修正を加えて、ブロック802に適用可能であってもよい。
ブロック804では、方法800は、検出されたオーディオ信号を示すデータに基づいて、オーディオ処理アルゴリズムを特定するステップを含む。ある例では、ブロック804は、方法500のブロック504、及び方法700のブロック706と実質的に同様であってもよい。このように、ブロック504及び方法500、又はブロック706及び方法700に関連するいずれの説明も、時には修正を加えて、ブロック804に適用可能であってもよい。
ブロック806では、方法800は、ブロック806で、特定されたオーディオ処理アルゴリズムを示すデータを、再生環境内の再生デバイスに送信するステップを含む。ある例では、ブロック806は、方法500のブロック506、及び方法700のブロック708と実質的に同様であってもよい。このように、ブロック506及び方法500、又はブロック708及び方法700に関連するいずれの説明も、時には修正を加えて、ブロック806に適用可能であってもよい。
上述したように、方法800は、コンピュータ610によって少なくとも部分的に調整されてもよいし、及び/又は実行されてもよい。ある実施形態では、方法800のある機能は、1つ又は複数の他のデバイスによって実行されてもよいし、及び/又は調整されてもよい。1つ又は複数の他のデバイスは、ネットワークデバイス602、再生デバイス604、又は再生デバイス606、他の可能性のあるものを含む。例えば、上述したように、ブロック802は、コンピュータによって実行されてもよい一方、ある場合では、ブロック804は、ネットワークデバイス602によって部分的に実行されてもよいし、ブロック806はコンピュータ610及び/又はネットワークデバイス602によって実行されてもよい。他の例も可能である。
ある場合では、1つ又は複数のネットワークデバイスが使用され、1つ又は複数の再生デバイスを、個別に又はまとめてキャリブレーションしてもよい。例えば、2つ以上のネットワークデバイスは、再生環境を移動している間、1つ又は複数の再生デバイスによって再生されるオーディオ信号を検出してもよい。例えば、1つ又は複数の再生デバイスによって再生されるオーディオコンテンツを第1ユーザが定期的に聞いている場所を、あるネットワークデバイスが移動してもよい。一方、1つ又は複数の再生デバイスによって再生されるオーディオコンテンツを第2ユーザ定期的に聞いている場所を、別のネットワークデバイスが移動してもよい。このような場合では、処理アルゴリズムは、2つ以上のネットワークデバイスによって検出されたオーディオ信号に基づいて実行されてもよい。
更に、ある場合では、それぞれのネットワークデバイスが再生環境内の異なる経路を横切っている間に検出された信号に基づいて、2つ以上の再生デバイスのそれぞれに、処理アルゴリズムが実行されてもよい。このように、あるネットワークデバイスが使用されて、1つ又は複数の再生デバイスによるオーディオコンテンツの再生が開始された場合、あるネットワークデバイスが再生環境内を横切っている間に検出された信号に基づいて決定された処理アルゴリズムが適用されてもよい。
IV.再生デバイスのマイクロホンを用いたネットワークデバイスのマイクロホンのキャリブレーション
上述したように、再生環境内の再生デバイスのキャリブレーションは、図5−8において説明したように、キャリブレーションに使用されるネットワークデバイスのマイクロホンの音響特性及び/又はキャリブレーションアルゴリズムを知ることを含んでもよい。ある場合では、キャリブレーションに使用されるネットワークデバイスのマイクロホンの音響特性及び/又はキャリブレーションアルゴリズムは未知であってもよい。
このセクションで説明する例は、ネットワークデバイスが再生デバイスのマイクロホンの所定の物理的範囲内に位置している間にネットワークデバイスのマイクロホンのキャリブレーションを行うことを含む。方法900及び1100は、以降で述べるように、ネットワークデバイスのマイクロホンのキャリブレーションを実行することができる例示的な方法である。
a.ネットワークデバイスのマイクロホンをキャリブレーションする例示的な第1方法
図9は、ネットワークデバイスのマイクロホンをキャリブレーションする第1方法の例示的なフロー図を示す。図9に示す方法900は、例えば、図1のメディア再生システム100、図2の再生デバイス200の1つ又は複数、図3の制御デバイス300の1つ又は複数、及び図10に示すマイクロホンキャリブレーションの例示的な配置1000等の以降で述べられる操作環境内で実行され得る方法の実施形態を示す。方法900は、ブロック902−908の1つ又は複数によって示される1つ又は複数の操作、機能又は動作を含んでいてもよい。ブロックは、順番に示されているが、これらのブロックは、並行で実行されてもよいし、及び/又は本明細書で述べられている順番と異なる順番で実行されてもよい。これらのブロックは、組み合わせてより少ないブロック数となるようにしてもよいし、分割してブロック数を増やしてもよいし、及び/又は所望の実装に基づいて取り除いてもよい。
ある例では、方法900は、マイクロホンがキャリブレーションされたネットワークデバイスによって少なくとも部分的に行われてもよい。図9に示すように、方法900は、ブロック802で、ネットワークデバイスが再生デバイスのマイクロホンの所定の物理的範囲に位置する間に、ネットワークデバイスのマイクロホンによって、第1オーディオ信号を検出するステップ、ブロック904で、再生デバイスのマイクロホンによって検出された第2オーディオ信号を示すデータを受信するステップ、ブロック906で、第1オーディオ信号を示すデータと第2オーディオ信号を示すデータとに基づいて、マイクロホンキャリブレーションアルゴリズムを特定するステップ、及びブロック908で、再生デバイスに関連付けされたキャリブレーション機能を実行するときにマイクロホンキャリブレーションを適用するステップ、を含む。
方法900及び以降の方法1100の説明を補助するために、図10に示すようなマイクロホンキャリブレーションの例示的な配置1000が提供される。マイクロホンキャリブレーション配置1000は、再生デバイス1002、再生デバイス1004、再生デバイス1006、再生デバイス1006のマイクロホン1008、ネットワークデバイス1010、及びコンピュータ1012を含む。
ネットワークデバイス1010は、方法900の少なくとも一部を調整してもよいし、及び/又は実行してもよい。ネットワークデバイス1010は、図3の制御デバイス300と同様であってもよい。この場合では、ネットワークデバイス1010は、方法900及び/又は方法1100によってキャリブレーションされたマイクロホンを有していてもよい。上述したように、ネットワークデバイス1010は、内蔵マイクロホンを備えるモバイルデバイスであってもよい。このように、キャリブレーションされるネットワークデバイス1010のマイクロホンは、ネットワークデバイス1010の内蔵マイクロホンであってもよい。
再生デバイス1002、1004、及び1006のそれぞれは、図2の再生デバイス200と同様であってもよい。再生デバイス1002,1004、及び1006のうち1つ又は複数の再生デバイスは、(既知の音響特性を有する)マイクロホンを備えていてもよい。コンピュータ1012は、再生デバイス1002、1004、及び1006を含むメディア再生システムと通信するサーバであってもよい。コンピュータ1012は、更に、ネットワークデバイス1010と、直接又は間接的に通信してもよい。方法900及び1100における以降の説明は、図10のマイクロホンキャリブレーション配置1000を説明しているが、当業者であれば、マイクロホンキャリブレーション配置1000は、ネットワークデバイスのマイクロホンがキャリブレーションされ得るマイクロホンキャリブレーション配置の1つの例を示しているだけであることは明らかである。他の例も可能である。
ある例では、マイクロホンキャリブレーション配置1000は、ネットワークデバイスのマイクロホンがキャリブレーションされる音響試験施設内にあってもよい。別の例では、マイクロホンキャリブレーション配置1000は、ユーザがネットワークデバイス1010を使用して、再生デバイス1002、1004、及び1006をキャリブレーションするユーザのハウスホールド内にあってもよい。
ある例では、ネットワークデバイス1010のマイクロホンのキャリブレーションは、ネットワークデバイス1010又はコンピュータ1012によって開始されてもよい。例えば、マイクロホンによって検出されたオーディオ信号が、例えば、方法500、700、及び800において上述したように再生デバイスのキャリブレーションを行うためにネットワークデバイス1010又はコンピュータ1012によって処理されたときに、マイクロホンのキャリブレーションが開始されてもよいが、マイクロホンの音響特性は未知であってもよい。別の例では、ネットワークデバイスのマイクロホンがキャリブレーションされたことを示す入力をネットワークデバイス1010によって受信するときに、マイクロホンのキャリブレーションが開始されてもよい。ある場合では、入力は、ネットワークデバイス1010のユーザによって提供されてもよい。
方法900に戻って、ブロック902は、ネットワークデバイスが再生デバイスのマイクロホンの所定の物理的範囲内に位置する間に、ネットワークデバイスのマイクロホンによって、第1オーディオ信号を検出するステップを含む。マイクロホンキャリブレーション配置1000において、ネットワークデバイス1010は、再生デバイス1006のマイクロホン1008の所定の物理的範囲内にあってもよい。説明したように、マイクロホン1008は、再生デバイス1006の左上に位置していてもよい。実装においては、再生デバイス1006のマイクロホン1008は、再生デバイス1006に関連付けられた複数の可能性のある位置にあってもよい。ある場合では、マイクロホン1008は、再生デバイス1006内に隠され、再生デバイス1006の外部から見えなくてもよい。
このように、再生デバイス1006のマイクロホン1008の位置に応じて、再生デバイス1006のマイクロホン1008の所定の物理的範囲内の位置は、再生デバイス1006の上方の位置、再生デバイス1006の後ろの位置、再生デバイス1006のサイドの位置、又は再生デバイス1006の前の位置、他の可能性のある位置のうちいずれであってもよい。
ある例では、ネットワークデバイス1010は、キャリブレーション処理の一部として、再生デバイスのマイクロホン1008の所定の物理的範囲内にユーザによって置かれてもよい。例えば、ネットワークデバイス1010のマイクロホンのキャリブレーションの開始時に、ネットワークデバイス1010は、ネットワークデバイス1010のグラフィカル表示を提供してもよい。グラフィカルインタフェースにおいては、再生デバイス1006などの既知の音響特性を有するネットワークデバイス1010が再生デバイスのマイクロホンの所定の物理的範囲内に位置していることを示す。ある場合では、ネットワークデバイス1010によって制御される複数の再生デバイスが既知の音響特性を有するマイクロホンを備えている場合、グラフィカルインタフェースは、ユーザを促して複数の再生デバイスの中から1つの再生デバイスを選択させ、キャリブレーションに使用してもよい。この例では、ユーザは、再生デバイスを選択してもよい。ある例では、グラフィカルインタフェースは、再生デバイス1006のマイクロホンの所定の物理的範囲が再生デバイス1006に関連付けられた場所の図を含んでいてもよい。
ある例では、ネットワークデバイス1010のマイクロホンによって検出された第1オーディオ信号は、再生デバイス1002、1004、及び1006のうち1つ又は複数の再生デバイスによって再生される第3オーディオ信号の一部を含んでいてもよいし、マイクロホンキャリブレーション配置1000がセットアップされた部屋内に反映された第3オーディオ信号の一部を含んでいてもよいし、他の可能性のあるものを含んでいてもよい。
ある例では、1つ又は複数の再生デバイス1002、1004、及び1006によって再生される第3オーディオ信号は、再生デバイス1002、1004、及び1006のうち1つ又は複数の再生デバイスのキャリブレーション中に、再生デバイス1002、1004及び1006によって再生され得るオーディオコンテンツを示すテスト信号又は測定信号であってもよい。したがって、再生される第3オーディオ信号は、再生デバイス1002、1004、及び1006の再生可能周波数範囲、又は人間が聞き取れる周波数範囲を実質的にカバーする周波数を有するオーディオコンテンツを含んでいてもよい。ある場合では、再生される第3オーディオ信号は、再生デバイス1002、1004、及び1006などの再生デバイスをキャリブレーションするときに特別に使用するために生成されたオーディオ信号であってもよい。
ネットワークデバイス1010が所定の位置に入ると、第3オーディオ信号は、再生デバイス1002、1004、及び1006のうち1つ又は複数の再生デバイスによって再生されてもよい。例えば、ネットワークデバイス1010がマイクロホン1008の所定の物理的範囲内に位置すると、ネットワークデバイス1010は、再生デバイス1002、1004、及び1006のうち1つ又は複数の再生デバイスにメッセージを送信し、1つ又は複数の再生デバイス1002、1004、及び1006に第3オーディオ信号を再生させてもよい。ある場合では、メッセージは、ネットワークデバイス1010がマイクロホン1008の所定の物理的範囲内に位置することを示すユーザの入力に応答して送信されてもよい。別の例では、ネットワークデバイス1010は、ネットワークデバイス1010の近接センサによって、ネットワークデバイス1010への再生デバイス1006の接近を検出してもよい。別の例では、再生デバイス1006は、再生デバイス1006の近接センサに基づいて、ネットワークデバイス1010がマイクロホン1008の所定の物理的範囲内に位置しているときを決定してもよい。他の例も可能である。
再生デバイス1002、1004、及び1006のうち1つ又は複数の再生デバイスは、第3オーディオ信号を再生してもよく、第1オーディオ信号がネットワークデバイス1010のマイクロホンによって検出されてもよい。
ブロック904では、方法900は、再生デバイスのマイクロホンによって検出された第2オーディオ信号を示すデータを受信するステップを含む。上記の例を続けると、再生デバイスのマイクロホンは、再生デバイス1006のマイクロホン1008であってもよい。ある例では、第2オーディオ信号は、ネットワークデバイス1010のマイクロホンの第1オーディオ信号の検出と同時に検出されてもよい。このように、第2オーディオ信号は、再生デバイス1002、1004、及び1006のうち1つ又は複数の再生デバイスによって再生される第3オーディオ信号に対応する部分を含んでいてもよいし、マイクロホンキャリブレーション配置1000がセットアップされた部屋内で反映された第3オーディオ信号の一部を含んでいてもよいし、他の可能性のあるものを含んでいてもよい。
別の例では、第2オーディオ信号は、第1オーディオ信号が検出される前又は後に、再生デバイス1006のマイクロホンによって検出されてもよい。このような場合、再生デバイス1002、1004、及び1006のうち1つ又は複数の再生デバイスは、再生デバイス1006のマイクロホン1008が第2オーディオ信号を検出し得る期間に、第3オーディオ信号を再生してもよいし、又は異なる時間で再生される第3オーディオ信号と実質的に同時にオーディオ信号を再生してもよい。
このような場合、第3オーディオ信号が再生されるとき、又は第2オーディオ信号が再生デバイス1006のマイクロホン1008によって検出されるときに、再生デバイス1002、1004、及び1006のうち1つ又は複数の再生デバイスは、全く同じマイクロホンキャリブレーション配置1000内に位置していてもよい。
ある例では、再生デバイス1006のマイクロホン1008によって第2オーディオ信号が検出されている間に、ネットワークデバイス1010は、第2オーディオ信号を示すデータを受信してもよい。言い換えれば、マイクロホン1008が第2オーディオ信号を検出している間に、再生デバイス1006は、第2オーディオ信号を示すデータをネットワークデバイス1010にストリーミングしてもよい。別の例では、第2オーディオ信号の検出が完了した後に、ネットワークデバイス1010は、第2オーディオ信号を示すデータを受信してもよい。他の例も可能である。
ブロック906では、方法は、第1オーディオ信号を示すデータと第2オーディオ信号を示すデータとに基づいて、マイクロホンキャリブレーションアルゴリズムを特定するステップを含む。ある例では、再生デバイス1006のマイクロホン1008の所定の物理的範囲内にネットワークデバイス1010を位置することは、ネットワークデバイス1010のマイクロホンによって検出された第1オーディオ信号を、再生デバイス1006のマイクロホン1008によって検出された第2オーディオ信号と実質的に同じにしてもよい。このように、再生デバイス1106の音響特性が既知の場合、ネットワークデバイス1010のマイクロホンの音響特性が決定されてもよい。
マイクロホン1008によって検出された第2オーディオ信号がs(t)であり、マイクロホン1008の音響特性がh(t)であるとした場合、マイクロホン1008から出力されると共に、第2オーディオ信号を示すデータを生成するように処理される信号m(t)は、数学的に次の式で表すことができる。
Figure 2017527223
同様に、ネットワークデバイス1010のマイクロホンによって検出された第1オーディオ信号がf(t)であり、ネットワークデバイスのマイクロホンの未知の音響特性がh(t)であるとした場合、ネットワークデバイス1010のマイクロホンから出力されると共に、第1オーディオ信号を示すデータを生成するように処理される信号n(t)は、数学的に次の式で表すことができる。
Figure 2017527223
上述したように、ネットワークデバイス1010のマイクロホンによって検出される第1オーディオ信号f(t)が、再生デバイス1006のマイクロホン1008によって検出される第2オーディオ信号s(t)と実質的に同じである場合、次の式が成立する。
Figure 2017527223
したがって、第1オーディオ信号n(t)を示すデータ、第2オーディオ信号m(t)を示すデータ、及び再生デバイス1006のマイクロホン1008の音響特性h(t)が知られているので、h(t)を算出することができる。
ある例では、ネットワークデバイス1010のマイクロホンのマイクロホンキャリブレーションアルゴリズムは、単純に音響特性h(t)の逆数h −1(t)であってもよい。このように、ネットワークデバイス1010のマイクロホンによって出力されるオーディオ信号を処理するときのマイクロホンキャリブレーションアルゴリズムの適用は、出力されるオーディオ信号からネットワークデバイス1010のマイクロホンの音響特性を数学的に除去してもよい。他の例も可能である。
ある場合では、マイクロホンキャリブレーションアルゴリズムを特定するステップは、ネットワークデバイス1010がコンピュータ1012に、第1オーディオ信号を示すデータ、第2オーディオ信号を示すデータ、及び再生デバイス1006のマイクロホン1008の音響特性を送信することを含んでもよい。ある場合では、第2オーディオ信号を示すデータと、再生デバイス1006のマイクロホン1008の音響特性とは、再生デバイス1006及び/又はコンピュータ1012と通信する他のデバイスから、コンピュータ1012に提供されてもよい。次いで、コンピュータ1012は、式(5)−(7)で説明した内容と同様に、第1オーディオ信号を示すデータ、第2オーディオ信号を示すデータ、及び再生デバイス1006のマイクロホン1008の音響特性に基づいて、オーディオ処理アルゴリズムを特定してもよい。次いで、ネットワークデバイス1010は、コンピュータ1012から、特定されたオーディオ処理アルゴリズムを受信してもよい。
ブロック906では、方法900は、再生デバイスに関連付けられたキャリブレーション機能を実行するときに、マイクロホンキャリブレーションアルゴリズムを適用するステップを含む。ある例では、マイクロホンキャリブレーションアルゴリズムを特定する際に、ネットワークデバイス1010が、マクロホンを含む機能を実行するときに特定されたマイクロホンキャリブレーションアルゴリズムを適用してもよい。例えば、ネットワークデバイス1010のマイクロホンによって検出されるオーディオ信号から生成するあるオーディオ信号は、マイクロホンキャリブレーションアルゴリズムを用いて処理し、ネットワークデバイス1010がそのオーディオ信号を別のデバイスに送信する前に、オーディオ信号からマイクロホンの音響特性を数学的に除去してもよい。ある例では、方法500、700及び800において述べたように、ネットワークデバイス1010が再生デバイスのキャリブレーションを実行しているときに、マイクロホンキャリブレーションアルゴリズムが適用されてもよい。
ある例では、ネットワークデバイス1010は、更に、特定されたキャリブレーションアルゴリズム(及び/又は音響特性)と、ネットワークデバイス1010のマイクロホンの1つ又は複数の特性との間の関連付けを、データベースに記憶してもよい。ネットワークデバイス1010のマイクロホンの1つ又は複数の特性は、ネットワークデバイス1010のモデル、又はネットワークデバイス1010のマイクロホンのモデル、あるいは他の可能性のあるものを含んでもよい。ある例では、データベースは、ネットワークデバイス1010にローカルに記憶されてもよい。別の例では、データベースは、コンピュータ1012、又は再生デバイス1002、1004、及び1006のうち1つ又は複数の再生デバイスなどの別のデバイスに送信され、記憶されてもよい。他の例も可能である。
データベースにおいては、マイクロホンキャリブレーションアルゴリズムの複数のエントリ、及び/又はマイクロホンキャリブレーションアルゴリズムとネットワークデバイスのマイクロホンの1つ又は複数の特性との間の関連付けを追加されてもよい。上述したように、マイクロホンキャリブレーション配置1000は、ネットワークデバイスのマイクロホンがキャリブレーションされる音響試験施設内にあってもよい。このような場合、音響試験施設内のキャリブレーションを介して、データベースに追加されてもよい。この場合では、マイクロホンキャリブレーション配置1000は、ユーザがネットワークデバイス1010を使用して、再生デバイス1002、1004、及び1006をキャリブレーションするユーザハウスホールド内にあり、データベースにおいては、クラウドソースのマイクロホンキャリブレーションアルゴリズムが追加されてもよい。ある場合では、データベースは、音響試験施設内のキャリブレーションから生成されるエントリ及びクラウドソースのエントリを含んでもよい。
データベースは、他のネットワークデバイス、コンピュータ1012を含むコンピュータ、及び再生デバイス1002、1004、及び1006を含む再生デバイスによってアクセスされ、あるネットワークデバイスのマイクロホンから出力されるオーディオ信号を処理するときに適用するそのネットワークデバイスのマイクロホンに対応するオーディオ処理アルゴリズムを特定してもよい。
ある場合では、製造のばらつき、マイクロホンの製造品質制御のばらつき、及びキャリブレーション中のばらつき(例えば、キャリブレーション中にネットワークデバイスが配置される場所の不一致、他の可能性のあるもの)によって、同じモデルのネットワークデバイス又はマイクロホンで決定したマイクロホンキャリブレーションアルゴリズムは変化する。このような場合、代表的なマイクロホンキャリブレーションアルゴリズムは、変化したマイクロホンキャリブレーションアルゴリズムから決定してもよい。例えば、代表的なマイクロホンキャリブレーションアルゴリズムは、変化するマイクロホンキャリブレーションアルゴリズムの平均であってもよい。ある場合では、あるモデルのネットワークデバイスのデータベース内のエントリは、あるモデルのネットワークデバイスのマイクロホンにキャリブレーションが実行される度に、更新された代表的なキャリブレーションアルゴリズムで更新されてもよい。
上述したように、方法900は、ネットワークデバイス1010によって少なくとも部分的に調整されてもよいし、及び/又は実行されてもよい。なお、ある実施形態では、方法900のある機能は、1つ又は複数の他のデバイスによって実行されてもよいし、及び/又は調整されてもよい。1つ又は複数の他のデバイスとしては、再生デバイス1002、1004、及び1006のうち1つ又は複数の再生デバイス、又はコンピュータ1012、他の可能性のあるものを含む。例えば、ブロック902及び908は、ネットワークデバイス1010によって実行されてもよい一方、ある場合では、ブロック904及び906は、コンピュータ1012によって少なくとも部分的に実行されてもよい。他の例も可能である。
ある場合では、ネットワークデバイス1010は、別のネットワークデバイスのマイクロホンをキャリブレーションする機能を少なくとも部分的に調整してもよいし、及び/又は実行してもよい。
b.ネットワークデバイスのマイクロホンのキャリブレーションの例示的な第2方法
図11は、ネットワークデバイスのマイクロホンのキャリブレーションの第2方法の例示的なフロー図を示す。図11に示す方法1100は、例えば、図1のメディア再生システム100、図2の再生デバイス200の1つ又は複数、図3の制御デバイス300の1つ又は複数、及び図10で示されるマイクロホンキャリブレーションのキャリブレーション配置1000を含む操作環境内で実行され得る方法の実施形態を示す。方法1100は、ブロック1102−1108のうち1つ又は複数のブロックで示されるような1つ又は複数の操作、機能、又は動作を含んでもよい。ブロックは、順番に示されているが、これらのブロックは、並行で実行されてもよいし、及び/又は本明細書で述べられている順番と異なる順番で実行されてもよい。また、これらのブロックは、組み合わせてより少ないブロック数となるようにしてもよいし、分割してブロック数を増やしてもよいし、及び/又は所望の実装に基づいて取り除いてもよい。
ある例では、方法1100は、図10のコンピュータ1012などのコンピュータによって少なくとも部分的に実行されてもよい。図11に示すように、方法1100は、ブロック1102で、ネットワークデバイスが再生デバイスのマイクロホンの所定の物理的範囲内に位置している間に、ネットワークデバイスのマイクロホンによって検出された第1オーディオ信号を示すデータを、ネットワークデバイスから受信するステップ、ブロック1104で、再生デバイスのマイクロホンによって検出された第2オーディオ信号を示すデータを受信するステップ、ブロック1106で、第1オーディオ信号を示すデータと第2オーディオ信号を示すデータとに基づいて、マイクロホンキャリブレーションアルゴリズムを特定するステップ、及びブロック1108で、ネットワークデバイスと再生デバイスとに関連付けられたキャリブレーション機能を実行するときに、マイクロホンキャリブレーションアルゴリズムを適用するステップ、を含む。
ブロック1102では、方法1100は、ネットワークデバイスが再生デバイスのマイクロホンの所定の物理的範囲内に位置している間に、ネットワークデバイスのマイクロホンによって検出された第1オーディオ信号を示すデータを、ネットワークデバイスから受信するステップを含む。第1オーディオ信号を示すデータは、更に、ネットワークデバイスが再生デバイスのマイクロホンの所定の物理的範囲内に位置している間に、第1オーディオ信号がネットワークデバイスのマイクロホンによって検出されたことを示してもよい。ある例では、方法1100のブロック1102は、ネットワークデバイス1010の代わりにコンピュータ1012によって調整される、及び/又は実行されることを除いて、方法900のブロック902と実質的に同様であってもよい。なお、ブロック902と方法900に関する説明は、時には修正を加えて、ブロック1102に適用可能であってもよい。
ブロック1104では、方法1100は、再生デバイスのマイクロホンによって検出された第2オーディオ信号を示すデータを受信するステップを含む。ある例では、方法1100のブロック1104は、ネットワークデバイス1010の代わりにコンピュータ1012によって調整される、及び/又は実行されることを除いて、方法900のブロック904と実質的に同様であってもよい。なお、ブロック904と方法900に関する説明は、時には修正を加えて、ブロック1104に適用可能であってもよい。
ブロック1106では、方法1100は、第1オーディオ信号を示すデータと第2オーディオ信号を示すデータとに基づいて、マイクロホンキャリブレーションアルゴリズムを特定するステップを含む。ある例では、方法1100のブロック1106は、ネットワークデバイス1010の代わりにコンピュータ1012によって調整される、及び/又は実行されることを除いて、方法900のブロック906と実質的に同様であってもよい。なお、ブロック906と方法900に関する説明は、時には修正を加えて、ブロック1106に適用可能であってもよい。
ブロック1108では、方法1100は、ネットワークデバイスと再生デバイスとに関連付けられたキャリブレーション機能を実行するときにマイクロホンキャリブレーションアルゴリズムを適用するステップを含む。ある例では、方法1100のブロック1108は、ネットワークデバイス1010の代わりにコンピュータ1012によって調整される、及び/又は実行されることを除いて、方法900のブロック908と実質的に同様であってもよい。なお、ブロック908と方法900に関する説明は、時には修正を加えて、ブロック1108に適用可能であってもよい。
例えば、この場合、マイクロホンキャリブレーションアルゴリズムは、マイクロホン検出オーディオ信号データが送信され、コンピュータ1012によって受信される前にそれぞれのネットワークデバイスによって適用されるのではなくて、それぞれのネットワークデバイスからコンピュータ1012によって受信されたマイクロホン検出オーディオ信号データに適用されてもよい。ある場合では、コンピュータ1012は、それぞれのネットワークデバイスを特定し、マイクロホン検出オーディオ信号データを送信してもよいし、及びそれぞれのネットワークデバイスから受信したデータに対応するマイクロホンキャリブレーションアルゴリズムを適用してもよい。
方法900において述べたように、ブロック1108で特定されたマイクロホンキャリブレーションアルゴリズムは、データベースに記憶されてもよい。データベースは、マイクロホンキャリブレーションアルゴリズム及び/又はマイクロホンキャリブレーションアルゴリズムと、それぞれのネットワークデバイス及び/又はネットワークデバイスのマイクロホンの1つ又は複数の特性との間の関連付けに関するデータを記憶している。
コンピュータ1012は、他のネットワークデバイスのマイクロホンをキャリブレーションする機能を調整する、及び/又は実行するように構成されていてもよい。例えば、方法1100は、更に、第2ネットワークデバイスが再生デバイスのマイクロホンの所定の物理的範囲に位置している間に、第2ネットワークデバイスのマイクロホンによって検出されたオーディオ信号を示すデータを、第2ネットワークデバイスから受信するステップを含んでもよい。検出されたオーディオ信号を示すデータは、第2ネットワークデバイスが再生デバイスのマイクロホンの所定の物理的範囲内に位置している間に、検出されたオーディオ信号が第2ネットワークデバイスのマイクロホンによって検出されたことを示してもよい。
検出されたオーディオ信号を示すデータと、第2オーディオ信号を示すデータとに基づいて、第2マイクロホンキャリブレーションアルゴリズムを特定するステップ、及び決定された第2マイクロホンキャリブレーションアルゴリズムと、第2ネットワークデバイスのマイクロホンの1つ又は複数の特性との間の関連付けをデータベースに記憶させるステップ。コンピュータ1012は、更に、第2マイクロホンキャリブレーションアルゴリズムを示すデータを、第2ネットワークデバイスに送信してもよい。
方法900において述べられたように、製造のばらつき、マイクロホンの製造品質制御のばらつき、及びキャリブレーション中のばらつき(例えば、キャリブレーション中にネットワークデバイスが配置される場所の不一致、他の可能性のあるもの)によって、同じモデルのネットワークデバイス又はマイクロホンで決定したマイクロホンキャリブレーションアルゴリズムは変化する。このような場合、代表的なマイクロホンキャリブレーションアルゴリズムは、変化したマイクロホンキャリブレーションアルゴリズムから決定してもよい。例えば、代表的なマイクロホンキャリブレーションアルゴリズムは、変化するマイクロホンキャリブレーションアルゴリズムの平均であってもよい。ある場合では、あるモデルのネットワークデバイスのデータベース内のエントリは、あるモデルのネットワークデバイスのマイクロホンにキャリブレーションが実行される度に、更新された代表的なキャリブレーションアルゴリズムで更新されてもよい。
このような場合、例えば、第2ネットワークデバイスがネットワークデバイス1010と同じモデルであり、且つ同じモデルのマイクロホンを有する場合、方法1100は更に、ネットワークデバイス1010のマイクロホン及び第2ネットワークデバイスのマイクロホンが実質的に同じであることを決定すること、それに応答して、(ネットワークデバイス1010のマイクロホンの)第1マイクロホンキャリブレーションアルゴリズムと、第2マイクロホンキャリブレーションアルゴリズムとに基づいて、第3マイクロホンキャリブレーションアルゴリズムを決定すること、及び決定された第3マイクロホンキャリブレーションアルゴリズムと、ネットワークデバイス1010のマイクロホンの1つ又は複数の特性との間の関連付けをデータベースに記憶させることを含んでもよい。上述したように、第2マイクロホンキャリブレーションアルゴリズムは、第1マイクロホンキャリブレーションと第2マイクロホンキャリブレーションアルゴリズムとの間の平均で決定されてもよい。
上述したように、方法1100は、コンピュータ1012によって少なくとも部分的に調整されてもよいし、及び/又は実行されてもよい。なお、ある場合では、方法1100のある機能は、1つ又は複数の他のデバイスによって実行されてもよいし、及び/又は調整されてもよい。1つ又は複数の他のデバイスとしては、再生デバイス1002、1004、及び1006のうち1つ又は複数の再生デバイス、又はコンピュータ1012、他の可能性のあるものを含む。例えば、上述したように、ブロック1102−1106は、コンピュータ1012によって実行されてもよい一方、ある場合では、ブロック1108は、ネットワークデバイス1010によって実行されてもよい。他の例も可能である。
V.結論
上記の説明は、とりわけ、他のコンポーネント、ハードウェア上で実行されるファームウェア及び/又はソフトウェアを含む様々な例示のシステム、方法、装置、及び製品を開示する。このような実施例は、単なる例示であって、限定されるものではないことが理解される、例えば、ファームウェア、ハードウェア、及び/又はソフトウェアの態様又はコンポーネントのいずれか又はすべてが、ハードウェアのみ、ソフトウェアのみ、ファームウェアのみ、あるいはハードウェア、ソフトウェア、及び/又はファームウェアの組み合わせにおいて具現化され得ることが考えられる。したがって、提供される実施例は、そのようなシステム、方法、装置、及び/又は製品に実装されるやり方だけではない。
以下の実施例は、本開示のさらなる態様又は代替の態様を開示している。以下の実施例のいずれかのデバイスは、本明細書に記載されたデバイスのいずれかの構成要素であってもよいし、本明細書に記載されたデバイスのいずれかの構成であってもよい。
(特徴1)
マイクロホン、プロセッサ、及びプロセッサによって再生デバイスに機能を実行させる命令を記憶したメモリ、を備え、
前記機能は、
ネットワークデバイスが再生デバイスのマイクロホンの所定の物理的範囲内に位置している間に、再生デバイスのマイクロホンによって第1オーディオ信号を検出するステップ、
再生デバイスのマイクロホンによって検出された第2オーディオ信号を示すデータを受信するステップ、
第1オーディオ信号を示すデータと第2オーディオ信号を示すデータとに基づいて、マイクロホンキャリブレーションアルゴリズムを特定するステップ、
再生デバイスに関連付けられたキャリブレーション機能を実行するときにマイクロホンキャリブレーションアルゴリズムを適用するステップ、
を含む、ネットワークデバイス。
(特徴2)
前記機能は、更に、特定されたマイクロホンキャリブレーションアルゴリズムと、ネットワークデバイスのマイクロホンの1つ又は複数の特性との間の関連付けを、データベースに記憶させるステップ、を含む、特徴1のネットワークデバイス。
(特徴3)
第1オーディオ信号が再生デバイスのマイクロホンによって検出されている間に、第2オーディオ信号は、再生デバイスのマイクロホンによって検出されていた、特徴1又は2のネットワークデバイス。
(特徴4)
前記機能は、更に、第1オーディオ信号を検出している間、1つ又は複数の再生デバイスに第3オーディオ信号を再生させるステップ、を含み、第1オーディオ信号と第2オーディオ信号とは、それぞれ第3オーディオ信号に対応する部分を含む、特徴1〜3のいずれか1つのネットワークデバイス。
(特徴5)
1つ又は複数の再生デバイスは、前記再生デバイスを含む、特徴4のネットワークデバイス。
(特徴6)
前記機能は、更に、第1オーディオ信号を検出する前に、ネットワークデバイスのマイクロホンをキャリブレーションする入力を受信するステップ、を含む、特徴1〜5のいずれか1つのネットワークデバイス。
(特徴7)
前記機能は、更に、第1オーディオ信号を検出する前に、ネットワークデバイスが再生デバイスのマイクロホンの所定の物理的範囲内に位置していることを示すグラフィカル表示を、グラフィカルインタフェースに提供するステップ、を含む、特徴1〜6のいずれか1つのネットワークデバイス。
(特徴8)
前記機能は、更に、第1オーディオ信号を検出する前に、ネットワークデバイスが再生デバイスのマイクロホンの所定の物理的範囲内に位置していることを決定するステップ、を含む、特徴1〜7のいずれか1つのネットワークデバイス。
(特徴9)
マイクロホンキャリブレーションアルゴリムを特定するステップは、
第1オーディオ信号を示すデータを、コンピュータに送信すること、
マイクロホンキャリブレーションアルゴリズムを、コンピュータから受信すること、
を含む、特徴1〜8のいずれか1つのネットワークデバイス。
(特徴10)
プロセッサ、及びプロセッサによって再生デバイスに機能を実行させる命令を記憶したメモリ、を備え、
前記機能は、
ネットワークデバイスが再生デバイスのマイクロホンの所定の物理的範囲内に置かれていた間に、再生デバイスのマイクロホンによって検出された第1オーディオ信号を受信するステップ、
再生デバイスのマイクロホンによって検出される第2オーディオ信号を示すデータを受信するステップ、
第1オーディオ信号を示すデータと第2オーディオ信号を示すデータとに基づいて、マイクロホンキャリブレーションアルゴリズムを特定するステップ、
再生デバイスに関連付けられたキャリブレーション機能を実行するときにマイクロホンキャリブレーションアルゴリズムを適用するステップ、
を含む、コンピュータ。
(特徴11)
前記機能は、更に、マイクロホンキャリブレーションアルゴリズムを、ネットワークデバイスに送信するステップ、を含む、特徴10のコンピュータ。
(特徴12)
前記機能は、更に、決定されたマイクロホンキャリブレーションアルゴリズムと、ネットワークデバイスのマイクロホンの1つ又は複数の特性との間の関連付けを、データベースに記憶させるステップ、を含む、特徴10又は11のコンピュータ。
(特徴13)
ネットワークデバイスは第1ネットワークデバイスであり、マイクロホンキャリブレーションアルゴリズムは第1マイクロホンキャリブレーションアルゴリズムであり、
前記機能は、更に、
第2ネットワークデバイスが再生デバイスのマイクロホンの所定の物理的範囲内に位置している間に、第2ネットワークデバイスのマイクロホンによって検出される第3オーディオ信号を示すデータを、第2ネットワークデバイスから受信するステップ、
第3オーディオ信号を示すデータと第2オーディオ信号を示すデータとに基づいて、第2マイクロホンキャリブレーションアルゴリズムを特定するステップ、
特定された第2マイクロホンキャリブレーションアルゴリズムと、第2ネットワークデバイスのマイクロホンの1つ又は複数の特性との間の関連付けを、データベースに記憶させるステップ、
を含む、特徴10〜12のいずれか1つのコンピュータ。
(特徴14)
前記機能は、更に、第2マイクロホンキャリブレーションアルゴリズムを示すデータを、第2ネットワークデバイスに送信するステップ、を含む、特徴13のコンピュータ。
(特徴15)
前記機能は、更に、
第1ネットワークデバイスのマイクロホンと第2ネットワークデバイスのマイクロホンとが実質的に同じであることを決定するステップ、
それに応答して、第1マイクロホンキャリブレーションアルゴリズムと第2マイクロホンキャリブレーションアルゴリズムとに基づいて、第3マイクロホンキャリブレーションアルゴリズムを決定するステップ、
決定された第3マイクロホンキャリブレーションアルゴリズムと、第1ネットワークデバイスのマイクロホンの1つ又は複数の特性との間の関連付けを、データベースに記憶させるステップ、
を含む、特徴13又は14のコンピュータ。
(特徴16)
コンピュータに機能を実行させるための命令を記憶した非一時的なコンピュータ読み取り可能な記録媒体であって、
前記機能は、
ネットワークデバイスが再生デバイスのマイクロホンの所定の物理的範囲内に置かれていた間に、ネットワークデバイスのマイクロホンによって検出された第1オーディオ信号を示すデータを、ネットワークデバイスから受信するステップ、
再生デバイスのマイクロホンに検出される第2オーディオ信号を示すデータを受信するステップ、
第1オーディオ信号を示すデータと第2オーディオ信号を示すデータとに基づいて、マイクロホンキャリブレーションアルゴリズムを特定するステップ、
特定されたマイクロホンキャリブレーションアルゴリズムと、ネットワークデバイスのマイクロホンの1つ又は複数の特性との間の関連付けを、データベースに記憶させるステップ、
を含む、非一時的なコンピュータ読み取り可能な記録媒体。
(特徴17)
前記機能は、更に、マイクロホンキャリブレーションアルゴリズムを示すデータを、ネットワークデバイスに送信するステップ、を含む、特徴16の非一時的なコンピュータ読み取り可能な記録媒体。
(特徴18)
再生デバイスのマイクロホンによって第2オーディオ信号を示すデータを受信するステップは、再生デバイスのマイクロホンによって検出された第2オーディオ信号を示すデータを、再生デバイスから受信すること、を含む、特徴16又は17の非一時的なコンピュータ読み取り可能な記録媒体。
(特徴19)
再生デバイスのマイクロホンによって第2オーディオ信号を示すデータを受信するステップは、再生デバイスのマイクロホンによって検出された第2オーディオ信号を示すデータを、ネットワークデバイスから受信すること、を含む、特徴16〜18のいずれか1つの非一時的なコンピュータ読み取り可能な記録媒体。
(特徴20)
前記機能は、更に、第1オーディオ信号を示すデータを受信する前に、1つ又は複数の再生デバイスに第3オーディオ信号を再生させるステップ、を含み、第1オーディオ信号は、第3オーディオ信号に対応する部分を含む、特徴16〜19のいずれか1つの非一時的なコンピュータ読み取り可能な記録媒体。
(特徴21)
プロセッサ、及び再生デバイスに機能を実行させる命令を記憶したメモリ、を備え、
前記機能は、
マイクロホン音響特性のデータベース内の、ネットワークデバイスのある特性に対応するネットワークデバイスのマイクロホンの音響特性を特定するステップ、
少なくとも特定されたマイクロホンの音響特性に基づいて、再生デバイスをキャリブレーションするステップ、
を含む、コンピュータ。
(特徴22)
前記機能は、更に、マイクロホン音響特性のデータベースを維持するステップ、を含む、特徴21のコンピュータ。
(特徴23)
マイクロホンの音響特性を特定するステップは、
マイクロホン音響特性のデータベースを維持するサーバに、ネットワークデバイスの特性を示すデータと、ネットワークデバイスの特性に対応する音響特性の問合せ(クエリ)とを送信すること、
問合せされたマイクロホンの音響特性を示すデータを、サーバから受信すること、
を含む、特徴21又は22のコンピュータ。
(特徴24)
マイクロホンの音響特性を特定するステップは、
ネットワークデバイスの音響特性に対応するマイクロホンのモデルを特定すること、
マイクロホン音響特性のデータベースを維持するサーバに、マイクロホンのモデルを示すデータと、そのモデルに対応する音響特性の問合せとを送信すること、
問合せされたマイクロホンの音響特性を示すデータを、サーバから受信すること、
を含む、特徴21〜23のいずれか1つのコンピュータ。
(特徴25)
再生デバイスをキャリブレーションするステップは、
特定されたマイクロホンの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、
メディアコンテンツを再生する時に、再生デバイスに、オーディオ処理アルゴリズムを適用させること、
を含む、特徴21〜24のいずれか1つのコンピュータ。
(特徴26)
前記機能は、更に、
再生デバイスによって第1オーディオ信号が再生されていた間に、ネットワークデバイスのマイクロホンを介して(i)第1オーディオ信号を示す第1データと、(ii)第2オーディオ信号を示す第2データとを受信するステップ、
を含み、
オーディオ処理アルゴリズムを決定するステップは、
更に、第1オーディオ信号と第2オーディオ信号とに基づいて、オーディオ処理アルゴリズムを決定すること、
を含む、特徴25のコンピュータ。
(特徴27)
オーディオ処理アルゴリズムは、特定されたマイクロホンの音響特性の逆数を含み、
メディアコンテンツを再生する時に、再生デバイスに、オーディオ処理アルゴリズムを適用させることは、再生されるメディアコンテンツを、特定されたマイクロホンの音響特性の逆数機能によって修正すること、を含む、特徴25又は26のコンピュータ。
(特徴28)
マイクロホン、プロセッサ、及び再生デバイスに機能を実行させる命令を記憶したメモリ、を備え、
前記機能は、
マイクロホン音響特性のデータベース内の、ネットワークデバイスのある音響特性に対応するマイクロホンの音響特性を特定するステップ、
少なくとも特定されたマイクロホンの音響特性に基づいて再生デバイスをキャリブレーションするステップ、
を含む、ネットワークデバイス。
(特徴29)
前記機能は、更に、マイクロホン音響特性のデータベースを維持するステップ、を含む、特徴28のネットワークデバイス。
(特徴30)
マイクロホンの音響特性を特定するステップは、
マイクロホン音響特性のデータベースに維持されるサーバに、ネットワークデバイスの特性を示すデータと、ネットワークデバイスの特性に対応する音響特性の問合せ(クエリ)とを送信すること、
問合せされたマイクロホンの音響特性を示すデータを、サーバから受信すること、
を含む、特徴28又は29のネットワークデバイス。
(特徴31)
マイクロホンの音響特性を特定するステップは、
ネットワークデバイスの特性に対応するマイクロホンのモデルを特定すること、
マイクロホン音響特性のデータベースを維持するサーバに、マイクロホンのモデルを示すデータと、そのモデルに対応する音響特性の問合せとを送信すること、
問合せされたマイクロホンの音響特性を示すデータを、サーバから受信すること、
を含む、特徴28〜30のいずれか1つのネットワークデバイス。
(特徴32)
再生デバイスをキャリブレーションするステップは、
特定されたマイクロホンの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、
メディアコンテンツを再生するときに、再生デバイスに、オーディオ処理アルゴリズムを適用させること、
を含む、特徴28〜31のいずれか1つのネットワークデバイス。
(特徴33)
前記機能は、更に、
再生デバイスによって第1オーディオ信号が再生されていた間に、マイクロホンを介して検出された(i)第1オーディオ信号を示すデータと、(ii)第2オーディオ信号を示すデータとを受信するステップ、
オーディオ処理アルゴリズムを決定するステップは、
更に、第1オーディオ信号と第2オーディオ信号とに基づいて、オーディオ処理アルゴリズムを決定すること、
を含む、特徴32のネットワークデバイス。
(特徴34)
オーディオ処理アルゴリズムは、特定されたマイクロホンの音響特性の逆数を含み、
メディアコンテンツを再生するときに、再生デバイスにオーディオ処理アルゴリズムを適用するステップは、再生されるメディアコンテンツを、特定されたマイクロホンの音響特性の逆数機能によって修正すること、を含む、特徴32又は33のネットワークデバイス。
(特徴35)
プロセッサ、及びプロセッサによって再生デバイスに機能を実行させる命令を記憶したメモリ、を備え、
前記機能は、
マイクロホン音響特性のデータベース内の、ネットワークデバイスのある特性に対応するネットワークデバイスのマイクロホンの音響特性を特定するステップ、
少なくとも特定されたマイクロホンの音響特性に基づいて、再生デバイスをキャリブレーションするステップ、
を含む、再生デバイス。
(特徴36)
機能は、更に、マイクロホン音響特性のデータベースを維持するステップ、を含む、特徴35の再生デバイス。
(特徴37)
マイクロホンの音響特性を特定するステップは、
マイクロホン音響特性のデータバースを維持するサーバに、再生デバイスの特性を示すデータと、再生デバイスの特性に対応する音響特性の問合せ(クエリ)とを送信するステップ、
問合せされたマイクロホンの音響特性を示すデータを、サーバから受信するステップ、
を含む、特徴35又は36の再生デバイス。
(特徴38)
マイクロホンの音響特性を特定するステップは、
再生デバイスの特性に対応するマイクロホンのモデルを特定すること、
マイクロホン音響特性のデータベースを維持するサーバに、マイクロホンのモデルを示すデータと、そのモデルに対応する音響特性の問合せとを送信するステップ、
問合せされたマイクロホンの音響特性を示すデータを、サーバから受信するステップ、
を含む、特徴35〜37のいずれか1つの再生デバイス。
(特徴39)
再生デバイスをキャリブレーションするステップは、
特定されたマイクロホンの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、
メディアコンテンツを再生するときにオーディオ処理アルゴリズムを適用すること、
を含む、特徴35〜38のいずれか1つの再生デバイス。
(特徴40)
前記機能は、更に、
第1オーディオ信号を再生するステップ、
第1オーディオ信号が再生されていた間に、ネットワークのマイクロホンを介して検出された第2オーディオ信号を示すデータを受信するステップ、
を含み、
オーディオ処理アルゴリズムを決定することは、
更に、第1オーディオ信号と第2オーディオ信号とに基づいて、オーディオ処理アルゴリズムを決定すること、
を含む、特徴39の再生デバイス。
更に、「実施形態」への言及は、実施の形態に関連して述べられた特徴、構造、又は特性が、本発明の少なくとも1つの例示的な実施形態に含まれ得ることを意味する。本明細書の様々な箇所で使用されているこの語句は、必ずしもすべてが同じ実施形態を示しているものでもなく、他の実施形態と相互排他的な別個の又は代替の実施形態でもない。このように、当業者によって、明示的に又は黙示的に理解されるであろう本明細書で述べられている実施形態は、他の実施形態と組み合わせることもできる。
本明細書は、例示的な環境、システム、手順、ステップ、論理ブロック、処理、および他のシンボル表現に関して広く示されており、それらは直接又は間接的にネットワークに接続されるデータ処理デバイスの動作に類似するものである。これらの処理説明および表現は、一般的に当業者によって使用され、それらの仕事の内容を他の当業者に最も効率良く伝えることができる。多くの具体的な内容が、本開示を理解するために提供されている。しかしながら、当業者にとって、本開示の特定の実施形態が特定の、具体的な詳細なしに実施され得ることは理解される。他の例では、周知の方法、手順、コンポーネント、および回路が、実施形態を不必要に曖昧にすることを避けるため、詳細に説明していない。したがって、本開示の範囲は、上記した実施形態よりむしろ添付された特許請求の範囲によって定義される。
添付の特許請求の範囲のいずれかが単にソフトウェア及び/又はファームウェアへの実装をカバーするように読み取ると、少なくとも1つの例における要素の1つ又は複数は、本明細書では、ソフトウェア及び/又はファームウェアを記憶する有形の非一時的な記憶媒体、例えば、メモリ、DVD、CD、Blu−ray(登録商標)等を含むことが明確に定められている。

Claims (22)

  1. 以下のデータに基づいてマイクロホンキャリブレーションアルゴリズムを特定するステップ、
    ネットワークデバイスが再生デバイスのマイクロホンの所定の物理的範囲内に位置している間に、ネットワークデバイスのマイクロホンによって検出される第1オーディオ信号を示す第1データ、及び
    再生デバイスのマイクロホンによって検出される第2オーディオ信号を示す第2データ、
    再生デバイスに関連付けられたキャリブレーション機能を実行するときにマイクロホンキャリブレーションアルゴリズムを適用するステップ、
    を含む、方法。
  2. 更に、
    特定されたマイクロホンキャリブレーションアルゴリズムと、ネットワークデバイスのマイクロホンの1つ又は複数の特性との間の関連付けを、データベースに記憶させるステップ、を含む、請求項1に記載の方法。
  3. 第1オーディオ信号がネットワークデバイスのマイクロホンによって検出されている間に、第2オーディオ信号が再生デバイスのマイクロホンによって検出される、請求項1又は2に記載の方法。
  4. 更に、
    第1オーディオ信号を検出している間、1つ又は複数の再生デバイスに第3オーディオ信号を再生させるステップ、を含み、
    第1オーディオ信号と第2オーディオ信号とのうち少なくともいずれか一方は、第3オーディオ信号に対応する部分を含む、請求項1〜3のいずれか一項に記載の方法。
  5. 1つ又は複数の再生デバイスは、前記再生デバイスを含む、請求項4に記載の方法。
  6. 更に、第1オーディオ信号を検出する前に、
    ネットワークデバイスのマイクロホンをキャリブレーションする入力を受信するステップ、
    ネットワークデバイスが再生デバイスのマイクロホンの所定の物理的範囲内に位置していることを示すグラフィカル表示を、ネットワークデバイスのグラフィカルインタフェースに提供するステップ、
    ネットワークデバイスが再生デバイスのマイクロホンの所定の物理的範囲内に位置していたことを決定するステップ、
    を含む、請求項1〜5のいずれか一項に記載の方法。
  7. マイクロホンキャリブレーションアルゴリズムを特定するステップは、
    第1オーディオ信号を示すデータを、コンピュータに送信すること、
    マイクロホンキャリブレーションアルゴリズムを、コンピュータから受信すること、
    を含む、請求項1〜6のいずれか一項に記載の方法。
  8. ネットワークデバイスは第1ネットワークデバイスであり、マイクロホンキャリブレーションアルゴリムは第1マイクロホンキャリブレーションアルゴリズムであり、
    更に、
    第2オーディオ信号を示すデータと、第2ネットワークデバイスから受信され、第2ネットワークデバイスのマイクロホンによって検出される第3オーディオ信号を示すデータとに基づいて、第2マイクロホンキャリブレーションアルゴリズムを特定するステップ、
    特定された第2マイクロホンキャリブレーションアルゴリズムと、第2ネットワークデバイスのマイクロホンの1つ又は複数の特性との間の関連付けを、データベースに記憶するステップ、
    を含む、請求項1〜7のいずれか一項に記載の方法。
  9. 更に、
    第2マイクロホンキャリブレーションアルゴリズムを示すデータを、第2ネットワークデバイスに送信するステップ、
    を含む、請求項8に記載の方法。
  10. 更に、
    第1ネットワークデバイスのマイクロホンと第2ネットワークデバイスのマイクロホンとが実質的に同じであることを決定するステップ、
    それに応答して、第1マイクロホンキャリブレーションアルゴリズムと第2マイクロホンキャリブレーションアルゴリズムとに基づいて、第3マイクロホンキャリブレーションアルゴリズムを決定するステップ、
    決定された第3マイクロホンキャリブレーションアルゴリズムと、第1ネットワークデバイスのマイクロホンの1つ又は複数の特性との間の関連付けを、データベースに記憶するステップ、
    を含む、請求項8又は9に記載の方法。
  11. 第2オーディオ信号を示すデータは、
    再生デバイス、及び
    ネットワークデバイス、
    のうちいずれか一方から受信される、請求項1〜10のいずれか一項に記載の方法。
  12. 請求項1〜11のいずれか一項に記載の方法を実行するように構成されたネットワークデバイス又はコンピュータ。
  13. 更に、
    ネットワークデバイスのマイクロホンによって検出される第1オーディオ信号を示すデータを受信する一方、再生デバイスのマイクロホンによって検出される第2オーディオ信号を示すデータを受信するように構成された、請求項12に記載のコンピュータ。
  14. 更に、
    マイクロホンキャリブレーションアルゴリズムを示すデータを、ネットワークデバイスに送信するように構成された、請求項12又は13に記載のコンピュータ。
  15. マイクロホン音響特性のデータベース内の、ネットワークデバイスのマイクロホンのある音響特性を特定するステップ、ここである音響特性は、ネットワークデバイスのある特性に対応する、
    少なくとも特定されたマイクロホンの音響特性に基づいて、再生デバイスをキャリブレーションするステップ、
    を含む、方法。
  16. 更に、
    マイクロホン音響特性のデータベースを維持するステップ、
    を含む、請求項15に記載の方法。
  17. マイクロホンの音響特性を特定するステップは、
    マイクロホン音響特性のデータベースを維持するサーバに、ネットワークデバイスの特性を示すデータと、ネットワークデバイスの特性に対応する音響特性の問合せとを送信すること、
    問合せされたマイクロホンの音響特性を示すデータを、サーバから受信すること、
    を含む、請求項15又は16に記載の方法。
  18. マイクロホンの音響特性を特定するステップは、
    ネットワークデバイスの特性に対応するマイクロホンのモデルを特定するステップ、
    マイクロホン音響特性のデータベースを維持するサーバに、マイクロホンのモデルを示すデータと、そのモデルに対応する音響特性の問合せを示すデータとを送信すること、
    問合せされたマイクロホンの音響特性を示すデータを、サーバから受信すること、
    を含む、請求項15〜17のいずれか一項に記載の方法。
  19. 再生デバイスをキャリブレーションするステップは、
    特定されたマイクロホンの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、
    メディアコンテンツを再生するときに、再生デバイスにオーディオ処理アルゴリズムを適用させること、
    を含む、請求項15〜18のいずれか一項に記載の方法。
  20. 更に、
    再生デバイスによって第1オーディオ信号が再生されている間に、(i)再生デバイスによって再生される第1オーディオ信号を示す第1データと、(ii)ネットワークデバイスのマイクロホンを介して検出された第2オーディオ信号を示す第2データとを受信するステップ、
    を含み、
    オーディオ処理アルゴリズムを決定することは、更に、第1オーディオ信号と第2オーディオ信号とに基づいて、オーディオ処理アルゴリズムを決定すること、を含む、
    請求項1〜14のいずれか一項に記載の方法と組み合わされる請求項19に記載の方法。
  21. オーディオ処理アルゴリムは、特定されたマイクロホンの音響特性の逆数を含み、
    メディアコンテンツを再生するときに、再生デバイスにオーディオ処理アルゴリズムを適用させることは、再生されるメディアコンテンツを、
    特定されたマイクロホンの音響特性の逆数機能によって修正すること、を含む、請求項19又は20に記載の方法。
  22. マイクロホンを備え、請求項15〜21のいずれか一項に記載の方法を実行するように構成されたコンピュータ、
    マイクロホンを備え、請求項15〜21のいずれか一項に記載の方法を実行するように構成されたネットワークデバイス、
    方法1〜5又は7のいずれか一項に記載の方法を実行するように構成された再生デバイス、
    のうちいずれかのデバイス。
JP2017513171A 2014-09-09 2015-09-08 再生デバイスのキャリブレーション Active JP6276467B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US14/481,522 2014-09-09
US14/481,522 US9910634B2 (en) 2014-09-09 2014-09-09 Microphone calibration
US14/644,136 US9749763B2 (en) 2014-09-09 2015-03-10 Playback device calibration
US14/644,136 2015-03-10
PCT/US2015/048944 WO2016040325A1 (en) 2014-09-09 2015-09-08 Playback device calibration

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018002482A Division JP6524273B2 (ja) 2014-09-09 2018-01-11 再生デバイスのキャリブレーション

Publications (3)

Publication Number Publication Date
JP2017527223A true JP2017527223A (ja) 2017-09-14
JP2017527223A5 JP2017527223A5 (ja) 2017-11-02
JP6276467B2 JP6276467B2 (ja) 2018-02-07

Family

ID=55437580

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017513171A Active JP6276467B2 (ja) 2014-09-09 2015-09-08 再生デバイスのキャリブレーション
JP2018002482A Active JP6524273B2 (ja) 2014-09-09 2018-01-11 再生デバイスのキャリブレーション

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018002482A Active JP6524273B2 (ja) 2014-09-09 2018-01-11 再生デバイスのキャリブレーション

Country Status (5)

Country Link
US (4) US9910634B2 (ja)
EP (1) EP3081012B1 (ja)
JP (2) JP6276467B2 (ja)
CN (2) CN106688250B (ja)
WO (1) WO2016040325A1 (ja)

Families Citing this family (94)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9084058B2 (en) 2011-12-29 2015-07-14 Sonos, Inc. Sound field calibration using listener localization
US9690539B2 (en) 2012-06-28 2017-06-27 Sonos, Inc. Speaker calibration user interface
US9106192B2 (en) 2012-06-28 2015-08-11 Sonos, Inc. System and method for device playback calibration
US9219460B2 (en) 2014-03-17 2015-12-22 Sonos, Inc. Audio settings based on environment
US9706323B2 (en) 2014-09-09 2017-07-11 Sonos, Inc. Playback device calibration
US9264839B2 (en) 2014-03-17 2016-02-16 Sonos, Inc. Playback device configuration based on proximity detection
US9952825B2 (en) 2014-09-09 2018-04-24 Sonos, Inc. Audio processing algorithms
US9891881B2 (en) 2014-09-09 2018-02-13 Sonos, Inc. Audio processing algorithm database
US9910634B2 (en) 2014-09-09 2018-03-06 Sonos, Inc. Microphone calibration
US10127006B2 (en) 2014-09-09 2018-11-13 Sonos, Inc. Facilitating calibration of an audio playback device
US10664224B2 (en) 2015-04-24 2020-05-26 Sonos, Inc. Speaker calibration user interface
WO2016172593A1 (en) 2015-04-24 2016-10-27 Sonos, Inc. Playback device calibration user interfaces
US9538305B2 (en) 2015-07-28 2017-01-03 Sonos, Inc. Calibration error conditions
JP6437695B2 (ja) 2015-09-17 2018-12-12 ソノズ インコーポレイテッド オーディオ再生デバイスのキャリブレーションを容易にする方法
US9693165B2 (en) 2015-09-17 2017-06-27 Sonos, Inc. Validation of audio calibration using multi-dimensional motion check
US9699580B2 (en) * 2015-09-28 2017-07-04 International Business Machines Corporation Electronic media volume control
US10026401B1 (en) * 2015-12-28 2018-07-17 Amazon Technologies, Inc. Naming devices via voice commands
US9743207B1 (en) 2016-01-18 2017-08-22 Sonos, Inc. Calibration using multiple recording devices
US10003899B2 (en) 2016-01-25 2018-06-19 Sonos, Inc. Calibration with particular locations
US11106423B2 (en) 2016-01-25 2021-08-31 Sonos, Inc. Evaluating calibration of a playback device
US10264030B2 (en) 2016-02-22 2019-04-16 Sonos, Inc. Networked microphone device control
US10509626B2 (en) 2016-02-22 2019-12-17 Sonos, Inc Handling of loss of pairing between networked devices
US9947316B2 (en) 2016-02-22 2018-04-17 Sonos, Inc. Voice control of a media playback system
US9965247B2 (en) 2016-02-22 2018-05-08 Sonos, Inc. Voice controlled media playback system based on user profile
US10095470B2 (en) 2016-02-22 2018-10-09 Sonos, Inc. Audio response playback
US9772817B2 (en) 2016-02-22 2017-09-26 Sonos, Inc. Room-corrected voice detection
US9864574B2 (en) 2016-04-01 2018-01-09 Sonos, Inc. Playback device calibration based on representation spectral characteristics
US9860662B2 (en) 2016-04-01 2018-01-02 Sonos, Inc. Updating playback device configuration information based on calibration data
EP3226575B1 (en) * 2016-04-01 2019-05-15 Sonos, Inc. Updating playback device configuration information based on calibration data
US9763018B1 (en) 2016-04-12 2017-09-12 Sonos, Inc. Calibration of audio playback devices
US9978390B2 (en) 2016-06-09 2018-05-22 Sonos, Inc. Dynamic player selection for audio signal processing
US9794710B1 (en) 2016-07-15 2017-10-17 Sonos, Inc. Spatial audio correction
US10134399B2 (en) 2016-07-15 2018-11-20 Sonos, Inc. Contextualization of voice inputs
US9860670B1 (en) 2016-07-15 2018-01-02 Sonos, Inc. Spectral correction using spatial calibration
US10372406B2 (en) 2016-07-22 2019-08-06 Sonos, Inc. Calibration interface
US10459684B2 (en) 2016-08-05 2019-10-29 Sonos, Inc. Calibration of a playback device based on an estimated frequency response
US10115400B2 (en) 2016-08-05 2018-10-30 Sonos, Inc. Multiple voice services
US9693164B1 (en) * 2016-08-05 2017-06-27 Sonos, Inc. Determining direction of networked microphone device relative to audio playback device
US9942678B1 (en) 2016-09-27 2018-04-10 Sonos, Inc. Audio playback settings for voice interaction
US10181323B2 (en) 2016-10-19 2019-01-15 Sonos, Inc. Arbitration-based voice recognition
US11611605B2 (en) * 2016-10-21 2023-03-21 Microsoft Technology Licensing, Llc Dynamically modifying an execution environment for varying data
US10255032B2 (en) * 2016-12-13 2019-04-09 EVA Automation, Inc. Wireless coordination of audio sources
US10475449B2 (en) 2017-08-07 2019-11-12 Sonos, Inc. Wake-word detection suppression
US10048930B1 (en) 2017-09-08 2018-08-14 Sonos, Inc. Dynamic computation of system response volume
US10446165B2 (en) 2017-09-27 2019-10-15 Sonos, Inc. Robust short-time fourier transform acoustic echo cancellation during audio playback
US10482868B2 (en) 2017-09-28 2019-11-19 Sonos, Inc. Multi-channel acoustic echo cancellation
US10621981B2 (en) 2017-09-28 2020-04-14 Sonos, Inc. Tone interference cancellation
US10051366B1 (en) 2017-09-28 2018-08-14 Sonos, Inc. Three-dimensional beam forming with a microphone array
US10466962B2 (en) 2017-09-29 2019-11-05 Sonos, Inc. Media playback system with voice assistance
US10880650B2 (en) * 2017-12-10 2020-12-29 Sonos, Inc. Network microphone devices with automatic do not disturb actuation capabilities
US11343614B2 (en) 2018-01-31 2022-05-24 Sonos, Inc. Device designation of playback and network microphone device arrangements
US11175880B2 (en) 2018-05-10 2021-11-16 Sonos, Inc. Systems and methods for voice-assisted media content selection
US10959029B2 (en) 2018-05-25 2021-03-23 Sonos, Inc. Determining and adapting to changes in microphone performance of playback devices
CN117316150A (zh) * 2018-06-28 2023-12-29 搜诺思公司 用于将回放设备与语音助理服务相关联的系统和方法
US10681460B2 (en) 2018-06-28 2020-06-09 Sonos, Inc. Systems and methods for associating playback devices with voice assistant services
EP3598344A1 (en) 2018-07-19 2020-01-22 Nokia Technologies Oy Processing sensor data
US11206484B2 (en) 2018-08-28 2021-12-21 Sonos, Inc. Passive speaker authentication
US11076035B2 (en) 2018-08-28 2021-07-27 Sonos, Inc. Do not disturb feature for audio notifications
US10299061B1 (en) 2018-08-28 2019-05-21 Sonos, Inc. Playback device calibration
US10461710B1 (en) 2018-08-28 2019-10-29 Sonos, Inc. Media playback system with maximum volume setting
US10587430B1 (en) 2018-09-14 2020-03-10 Sonos, Inc. Networked devices, systems, and methods for associating playback devices based on sound codes
EP3854109B1 (en) * 2018-09-20 2022-05-18 Signify Holding B.V. A method and a controller for configuring a distributed microphone system
US11024331B2 (en) 2018-09-21 2021-06-01 Sonos, Inc. Voice detection optimization using sound metadata
US10811015B2 (en) 2018-09-25 2020-10-20 Sonos, Inc. Voice detection optimization based on selected voice assistant service
US11100923B2 (en) 2018-09-28 2021-08-24 Sonos, Inc. Systems and methods for selective wake word detection using neural network models
US10692518B2 (en) 2018-09-29 2020-06-23 Sonos, Inc. Linear filtering for noise-suppressed speech detection via multiple network microphone devices
US11899519B2 (en) 2018-10-23 2024-02-13 Sonos, Inc. Multiple stage network microphone device with reduced power consumption and processing load
EP3654249A1 (en) 2018-11-15 2020-05-20 Snips Dilated convolutions and gating for efficient keyword spotting
US11183183B2 (en) 2018-12-07 2021-11-23 Sonos, Inc. Systems and methods of operating media playback systems having multiple voice assistant services
US11132989B2 (en) 2018-12-13 2021-09-28 Sonos, Inc. Networked microphone devices, systems, and methods of localized arbitration
US10602268B1 (en) 2018-12-20 2020-03-24 Sonos, Inc. Optimization of network microphone devices using noise classification
US11315556B2 (en) 2019-02-08 2022-04-26 Sonos, Inc. Devices, systems, and methods for distributed voice processing by transmitting sound data associated with a wake word to an appropriate device for identification
US10867604B2 (en) 2019-02-08 2020-12-15 Sonos, Inc. Devices, systems, and methods for distributed voice processing
US10694309B1 (en) 2019-02-12 2020-06-23 Sonos, Inc. Systems and methods for authenticating and calibrating passive speakers with a graphical user interface
US11120794B2 (en) 2019-05-03 2021-09-14 Sonos, Inc. Voice assistant persistence across multiple network microphone devices
US11363382B2 (en) * 2019-05-31 2022-06-14 Apple Inc. Methods and user interfaces for audio synchronization
US10586540B1 (en) 2019-06-12 2020-03-10 Sonos, Inc. Network microphone device with command keyword conditioning
US11361756B2 (en) 2019-06-12 2022-06-14 Sonos, Inc. Conditional wake word eventing based on environment
US11200894B2 (en) 2019-06-12 2021-12-14 Sonos, Inc. Network microphone device with command keyword eventing
US11138975B2 (en) 2019-07-31 2021-10-05 Sonos, Inc. Locally distributed keyword detection
US10871943B1 (en) 2019-07-31 2020-12-22 Sonos, Inc. Noise classification for event detection
US11138969B2 (en) 2019-07-31 2021-10-05 Sonos, Inc. Locally distributed keyword detection
US10734965B1 (en) 2019-08-12 2020-08-04 Sonos, Inc. Audio calibration of a portable playback device
US11189286B2 (en) 2019-10-22 2021-11-30 Sonos, Inc. VAS toggle based on device orientation
US11200900B2 (en) 2019-12-20 2021-12-14 Sonos, Inc. Offline voice control
US11562740B2 (en) 2020-01-07 2023-01-24 Sonos, Inc. Voice verification for media playback
US11556307B2 (en) 2020-01-31 2023-01-17 Sonos, Inc. Local voice data processing
US11308958B2 (en) 2020-02-07 2022-04-19 Sonos, Inc. Localized wakeword verification
CN113518298B (zh) * 2020-04-09 2022-06-07 圣布拉斯特有限公司 音频校正系统
US11308962B2 (en) 2020-05-20 2022-04-19 Sonos, Inc. Input detection windowing
US11727919B2 (en) 2020-05-20 2023-08-15 Sonos, Inc. Memory allocation for keyword spotting engines
US11482224B2 (en) 2020-05-20 2022-10-25 Sonos, Inc. Command keywords with input detection windowing
US11698771B2 (en) 2020-08-25 2023-07-11 Sonos, Inc. Vocal guidance engines for playback devices
US11984123B2 (en) 2020-11-12 2024-05-14 Sonos, Inc. Network device interaction by range

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002502193A (ja) * 1998-01-30 2002-01-22 テレフオンアクチーボラゲット エル エム エリクソン(パブル) 適応型ビーム形成器用キャリブレーション信号の生成
JP2005538633A (ja) * 2002-09-13 2005-12-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 第1及び第2マイクロホンの較正
JP2007068125A (ja) * 2005-09-02 2007-03-15 Nec Corp 信号処理の方法及び装置並びにコンピュータプログラム
JP2010081124A (ja) * 2008-09-24 2010-04-08 Panasonic Electric Works Co Ltd インターホン装置用キャリブレーション方法
US20130329896A1 (en) * 2012-06-08 2013-12-12 Apple Inc. Systems and methods for determining the condition of multiple microphones

Family Cites Families (406)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4342104A (en) 1979-11-02 1982-07-27 University Court Of The University Of Edinburgh Helium-speech communication
US4306113A (en) 1979-11-23 1981-12-15 Morton Roger R A Method and equalization of home audio systems
JPS5936689U (ja) 1982-08-31 1984-03-07 パイオニア株式会社 スピ−カ装置
EP0122290B1 (en) 1982-10-14 1991-04-03 Matsushita Electric Industrial Co., Ltd. Speaker
US4631749A (en) 1984-06-22 1986-12-23 Heath Company ROM compensated microphone
US4773094A (en) 1985-12-23 1988-09-20 Dolby Ray Milton Apparatus and method for calibrating recording and transmission systems
US4694484A (en) 1986-02-18 1987-09-15 Motorola, Inc. Cellular radiotelephone land station
DE3900342A1 (de) 1989-01-07 1990-07-12 Krupp Maschinentechnik Greifvorrichtung zum mitfuehren einer klebrigen werkstoffbahn
JPH02280199A (ja) 1989-04-20 1990-11-16 Mitsubishi Electric Corp 残響装置
US5218710A (en) 1989-06-19 1993-06-08 Pioneer Electronic Corporation Audio signal processing system having independent and distinct data buses for concurrently transferring audio signal data to provide acoustic control
US5440644A (en) 1991-01-09 1995-08-08 Square D Company Audio distribution system having programmable zoning features
JPH0739968B2 (ja) 1991-03-25 1995-05-01 日本電信電話株式会社 音響伝達特性模擬方法
KR930011742B1 (ko) 1991-07-23 1993-12-18 삼성전자 주식회사 청취공간 상태에 따른 재생 음성신호의 주파수 특성 보정장치
JP3208800B2 (ja) 1991-08-09 2001-09-17 ソニー株式会社 マイクロフォン装置及びワイヤレスマイクロフォン装置
US5757927A (en) 1992-03-02 1998-05-26 Trifield Productions Ltd. Surround sound apparatus
US5255326A (en) 1992-05-18 1993-10-19 Alden Stevenson Interactive audio control system
US5581621A (en) 1993-04-19 1996-12-03 Clarion Co., Ltd. Automatic adjustment system and automatic adjustment method for audio devices
US5553147A (en) 1993-05-11 1996-09-03 One Inc. Stereophonic reproduction method and apparatus
JP3106774B2 (ja) 1993-06-23 2000-11-06 松下電器産業株式会社 デジタル音場創生装置
US5386478A (en) 1993-09-07 1995-01-31 Harman International Industries, Inc. Sound system remote control with acoustic sensor
US7630500B1 (en) 1994-04-15 2009-12-08 Bose Corporation Spatial disassembly processor
EP0772374B1 (en) 1995-11-02 2008-10-08 Bang & Olufsen A/S Method and apparatus for controlling the performance of a loudspeaker in a room
JP3094900B2 (ja) 1996-02-20 2000-10-03 ヤマハ株式会社 ネットワーク機器およびデータ送受信方法
US6404811B1 (en) 1996-05-13 2002-06-11 Tektronix, Inc. Interactive multimedia system
JP2956642B2 (ja) 1996-06-17 1999-10-04 ヤマハ株式会社 音場制御ユニットおよび音場制御装置
US5910991A (en) 1996-08-02 1999-06-08 Apple Computer, Inc. Method and apparatus for a speaker for a personal computer for selective use as a conventional speaker or as a sub-woofer
JP3698376B2 (ja) 1996-08-19 2005-09-21 松下電器産業株式会社 同期再生装置
US6469633B1 (en) 1997-01-06 2002-10-22 Openglobe Inc. Remote control of electronic devices
US6611537B1 (en) 1997-05-30 2003-08-26 Centillium Communications, Inc. Synchronous network for digital media streams
US6704421B1 (en) 1997-07-24 2004-03-09 Ati Technologies, Inc. Automatic multichannel equalization control system for a multimedia computer
EP0905933A3 (de) 1997-09-24 2004-03-24 STUDER Professional Audio AG Verfahren und Vorrichtung zum Mischen von Tonsignalen
JPH11161266A (ja) 1997-11-25 1999-06-18 Kawai Musical Instr Mfg Co Ltd 楽音補正装置及び楽音補正方法
US6032202A (en) 1998-01-06 2000-02-29 Sony Corporation Of Japan Home audio/video network with two level device control
US20020002039A1 (en) 1998-06-12 2002-01-03 Safi Qureshey Network-enabled audio device
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US6573067B1 (en) 1998-01-29 2003-06-03 Yale University Nucleic acid encoding sodium channels in dorsal root ganglia
US6111957A (en) 1998-07-02 2000-08-29 Acoustic Technologies, Inc. Apparatus and method for adjusting audio equipment in acoustic environments
FR2781591B1 (fr) 1998-07-22 2000-09-22 Technical Maintenance Corp Systeme de reproduction audiovisuelle
US6931134B1 (en) 1998-07-28 2005-08-16 James K. Waller, Jr. Multi-dimensional processor and multi-dimensional audio processor system
FI113935B (fi) 1998-09-25 2004-06-30 Nokia Corp Menetelmä äänitason kalibroimiseksi monikanavaisessa äänentoistojärjestelmässä ja monikanavainen äänentoistojärjestelmä
DK199901256A (da) 1998-10-06 1999-10-05 Bang & Olufsen As MMS-System
US6721428B1 (en) 1998-11-13 2004-04-13 Texas Instruments Incorporated Automatic loudspeaker equalizer
US7130616B2 (en) 2000-04-25 2006-10-31 Simple Devices System and method for providing content, management, and interactivity for client devices
US6766025B1 (en) 1999-03-15 2004-07-20 Koninklijke Philips Electronics N.V. Intelligent speaker training using microphone feedback and pre-loaded templates
US7103187B1 (en) 1999-03-30 2006-09-05 Lsi Logic Corporation Audio calibration system
US6256554B1 (en) 1999-04-14 2001-07-03 Dilorenzo Mark Multi-room entertainment system with in-room media player/dispenser
US6920479B2 (en) 1999-06-16 2005-07-19 Im Networks, Inc. Internet radio receiver with linear tuning interface
US7657910B1 (en) 1999-07-26 2010-02-02 E-Cast Inc. Distributed electronic entertainment method and apparatus
US6798889B1 (en) 1999-11-12 2004-09-28 Creative Technology Ltd. Method and apparatus for multi-channel sound system calibration
US6522886B1 (en) 1999-11-22 2003-02-18 Qwest Communications International Inc. Method and system for simultaneously sharing wireless communications among multiple wireless handsets
JP2001157293A (ja) 1999-12-01 2001-06-08 Matsushita Electric Ind Co Ltd スピーカ装置
ES2277419T3 (es) 1999-12-03 2007-07-01 Telefonaktiebolaget Lm Ericsson (Publ) Un metodo para producir simultaneamente ficheros de audio en dos telefonos.
US20010042107A1 (en) 2000-01-06 2001-11-15 Palm Stephen R. Networked audio player transport protocol and architecture
AU2629601A (en) 2000-01-07 2001-07-24 Informio, Inc. Methods and apparatus for an audio web retrieval telephone system
AU2001231115A1 (en) 2000-01-24 2001-07-31 Zapmedia, Inc. System and method for the distribution and sharing of media assets between mediaplayers devices
WO2001053994A2 (en) 2000-01-24 2001-07-26 Friskit, Inc. Streaming media search and playback system
JP2003521202A (ja) 2000-01-28 2003-07-08 レイク テクノロジー リミティド 地理的な環境で使用される空間オーディオシステム。
EP1256207B1 (en) 2000-02-18 2007-09-05 Bridgeco AG Multi-portal bridge for providing network connectivity
US6631410B1 (en) 2000-03-16 2003-10-07 Sharp Laboratories Of America, Inc. Multimedia wired/wireless content synchronization system and method
US7187947B1 (en) 2000-03-28 2007-03-06 Affinity Labs, Llc System and method for communicating selected information to an electronic device
AU4219601A (en) 2000-03-31 2001-10-15 Classwave Wireless Inc. Dynamic protocol selection and routing of content to mobile devices
WO2001082650A2 (en) 2000-04-21 2001-11-01 Keyhold Engineering, Inc. Self-calibrating surround sound system
GB2363036B (en) 2000-05-31 2004-05-12 Nokia Mobile Phones Ltd Conference call method and apparatus therefor
US6643744B1 (en) 2000-08-23 2003-11-04 Nintendo Co., Ltd. Method and apparatus for pre-fetching audio data
US6985694B1 (en) 2000-09-07 2006-01-10 Clix Network, Inc. Method and system for providing an audio element cache in a customized personal radio broadcast
US8281001B2 (en) 2000-09-19 2012-10-02 Harman International Industries, Incorporated Device-to-device network
US6778869B2 (en) 2000-12-11 2004-08-17 Sony Corporation System and method for request, delivery and use of multimedia files for audiovisual entertainment in the home environment
US20020078161A1 (en) 2000-12-19 2002-06-20 Philips Electronics North America Corporation UPnP enabling device for heterogeneous networks of slave devices
US7143939B2 (en) 2000-12-19 2006-12-05 Intel Corporation Wireless music device and method therefor
US20020124097A1 (en) 2000-12-29 2002-09-05 Isely Larson J. Methods, systems and computer program products for zone based distribution of audio signals
US6731312B2 (en) 2001-01-08 2004-05-04 Apple Computer, Inc. Media player interface
US7305094B2 (en) 2001-01-12 2007-12-04 University Of Dayton System and method for actively damping boom noise in a vibro-acoustic enclosure
DE10105184A1 (de) 2001-02-06 2002-08-29 Bosch Gmbh Robert Verfahren zum automatischen Einstellen eines digitalen Equalizers und Wiedergabeeinrichtung für Audiosignale zur Realisierung eines solchen Verfahrens
DE10110422A1 (de) 2001-03-05 2002-09-19 Harman Becker Automotive Sys Verfahren zur Steuerung eines mehrkanaligen Tonwiedergabesystems und mehrkanaliges Tonwiedergabesystem
US7492909B2 (en) 2001-04-05 2009-02-17 Motorola, Inc. Method for acoustic transducer calibration
US6757517B2 (en) 2001-05-10 2004-06-29 Chin-Chi Chang Apparatus and method for coordinated music playback in wireless ad-hoc networks
US7668317B2 (en) 2001-05-30 2010-02-23 Sony Corporation Audio post processing in DVD, DTV and other audio visual products
US7164768B2 (en) 2001-06-21 2007-01-16 Bose Corporation Audio signal processing
US20030002689A1 (en) 2001-06-29 2003-01-02 Harris Corporation Supplemental audio content system with wireless communication for a cinema and related methods
MXPA04002234A (es) 2001-09-11 2004-06-29 Thomson Licensing Sa Metodo y aparato para la activacion automatica del modo de ecualizacion.
US7312785B2 (en) 2001-10-22 2007-12-25 Apple Inc. Method and apparatus for accelerated scrolling
JP2003143252A (ja) 2001-11-05 2003-05-16 Toshiba Corp 移動通信端末
AU2002361767A1 (en) 2001-12-17 2003-07-09 Becomm Corporation Method and system for synchronization of content rendering
US8103009B2 (en) 2002-01-25 2012-01-24 Ksc Industries, Inc. Wired, wireless, infrared, and powerline audio entertainment systems
US7853341B2 (en) 2002-01-25 2010-12-14 Ksc Industries, Inc. Wired, wireless, infrared, and powerline audio entertainment systems
JP2005518734A (ja) 2002-02-20 2005-06-23 メシュネットワークス、インコーポレイテッド チャンネル間で802.11データトラフィックをルーティングしてアドホックネットワーク容量を増大するシステムおよび方法
US7197152B2 (en) 2002-02-26 2007-03-27 Otologics Llc Frequency response equalization system for hearing aid microphones
US7483540B2 (en) 2002-03-25 2009-01-27 Bose Corporation Automatic audio system equalizing
JP3929817B2 (ja) 2002-04-23 2007-06-13 株式会社河合楽器製作所 電子楽器の音響制御装置
EP1510031A4 (en) 2002-05-06 2009-02-04 Syncronation Inc LOCALIZED AUDIO NETWORKS AND ASSOCIATED DIGITAL TOOLS
AU2003241405B2 (en) 2002-05-09 2008-06-19 Netstreams, Llc Audio network distribution system
US6862440B2 (en) 2002-05-29 2005-03-01 Intel Corporation Method and system for multiple channel wireless transmitter and receiver phase and amplitude calibration
US7567675B2 (en) 2002-06-21 2009-07-28 Audyssey Laboratories, Inc. System and method for automatic multiple listener room acoustic correction with low filter orders
US7769183B2 (en) 2002-06-21 2010-08-03 University Of Southern California System and method for automatic room acoustic correction in multi-channel audio environments
US7890284B2 (en) * 2002-06-24 2011-02-15 Analog Devices, Inc. Identification system and method for recognizing any one of a number of different types of devices
US7072477B1 (en) 2002-07-09 2006-07-04 Apple Computer, Inc. Method and apparatus for automatically normalizing a perceived volume level in a digitally encoded file
US8060225B2 (en) 2002-07-31 2011-11-15 Hewlett-Packard Development Company, L. P. Digital audio device
EP1389853B1 (en) 2002-08-14 2006-03-29 Sony Deutschland GmbH Bandwidth oriented reconfiguration of wireless ad hoc networks
JP2004172786A (ja) 2002-11-19 2004-06-17 Sony Corp オーディオ信号の再生方法および再生装置
US7295548B2 (en) 2002-11-27 2007-11-13 Microsoft Corporation Method and system for disaggregating audio/visual components
US7676047B2 (en) 2002-12-03 2010-03-09 Bose Corporation Electroacoustical transducing with low frequency augmenting devices
GB0301093D0 (en) 2003-01-17 2003-02-19 1 Ltd Set-up method for array-type sound systems
US7925203B2 (en) 2003-01-22 2011-04-12 Qualcomm Incorporated System and method for controlling broadcast multimedia using plural wireless network connections
US6990211B2 (en) 2003-02-11 2006-01-24 Hewlett-Packard Development Company, L.P. Audio system and method
US7477751B2 (en) 2003-04-23 2009-01-13 Rh Lyon Corp Method and apparatus for sound transduction with minimal interference from background noise and minimal local acoustic radiation
US8234395B2 (en) 2003-07-28 2012-07-31 Sonos, Inc. System and method for synchronizing operations among a plurality of independently clocked digital data processing devices
US7571014B1 (en) 2004-04-01 2009-08-04 Sonos, Inc. Method and apparatus for controlling multimedia players in a multi-zone system
US7526093B2 (en) 2003-08-04 2009-04-28 Harman International Industries, Incorporated System for configuring audio system
US8280076B2 (en) 2003-08-04 2012-10-02 Harman International Industries, Incorporated System and method for audio system configuration
US7039212B2 (en) 2003-09-12 2006-05-02 Britannia Investment Corporation Weather resistant porting
US7519188B2 (en) 2003-09-18 2009-04-14 Bose Corporation Electroacoustical transducing
US20060008256A1 (en) 2003-10-01 2006-01-12 Khedouri Robert K Audio visual player apparatus and system and method of content distribution using the same
JP4361354B2 (ja) 2003-11-19 2009-11-11 パイオニア株式会社 自動音場補正装置及びそのためのコンピュータプログラム
JP4765289B2 (ja) 2003-12-10 2011-09-07 ソニー株式会社 音響システムにおけるスピーカ装置の配置関係検出方法、音響システム、サーバ装置およびスピーカ装置
US20050147261A1 (en) 2003-12-30 2005-07-07 Chiang Yeh Head relational transfer function virtualizer
US20050157885A1 (en) 2004-01-16 2005-07-21 Olney Ross D. Audio system parameter setting based upon operator usage patterns
US7483538B2 (en) 2004-03-02 2009-01-27 Ksc Industries, Inc. Wireless and wired speaker hub for a home theater system
US7725826B2 (en) 2004-03-26 2010-05-25 Harman International Industries, Incorporated Audio-related system node instantiation
DK1745677T3 (en) 2004-05-06 2018-01-22 Bang & Olufsen As Method and system for adapting a speaker to a listening position in a room
JP3972921B2 (ja) 2004-05-11 2007-09-05 ソニー株式会社 音声集音装置とエコーキャンセル処理方法
US7630501B2 (en) 2004-05-14 2009-12-08 Microsoft Corporation System and method for calibration of an acoustic system
AU2004320207A1 (en) 2004-05-25 2005-12-08 Huonlabs Pty Ltd Audio apparatus and method
US7490044B2 (en) 2004-06-08 2009-02-10 Bose Corporation Audio signal processing
JP3988750B2 (ja) 2004-06-30 2007-10-10 ブラザー工業株式会社 音圧周波数特性調整装置、情報通信システム及びプログラム
KR20060022968A (ko) 2004-09-08 2006-03-13 삼성전자주식회사 음향재생장치 및 음향재생방법
US7664276B2 (en) 2004-09-23 2010-02-16 Cirrus Logic, Inc. Multipass parametric or graphic EQ fitting
EP1825713B1 (en) 2004-11-22 2012-10-17 Bang & Olufsen A/S A method and apparatus for multichannel upmixing and downmixing
JP4664346B2 (ja) * 2004-12-01 2011-04-06 パナソニック株式会社 記録媒体、再生装置、プログラム、再生方法
JP2006180039A (ja) 2004-12-21 2006-07-06 Yamaha Corp 音響装置およびプログラム
WO2006067436A1 (en) 2004-12-21 2006-06-29 Universitetet I Oslo Channel impulse response estimation
US20080098027A1 (en) 2005-01-04 2008-04-24 Koninklijke Philips Electronics, N.V. Apparatus For And A Method Of Processing Reproducible Data
US7818350B2 (en) 2005-02-28 2010-10-19 Yahoo! Inc. System and method for creating a collaborative playlist
US8234679B2 (en) 2005-04-01 2012-07-31 Time Warner Cable, Inc. Technique for selecting multiple entertainment programs to be provided over a communication network
KR20060116383A (ko) 2005-05-09 2006-11-15 엘지전자 주식회사 디지털 오디오 재생장치의 이퀄라이저 기능 자동 설정 방법및 장치
US8244179B2 (en) 2005-05-12 2012-08-14 Robin Dua Wireless inter-device data processing configured through inter-device transmitted data
EP1737265A1 (en) 2005-06-23 2006-12-27 AKG Acoustics GmbH Determination of the position of sound sources
US20070032895A1 (en) 2005-07-29 2007-02-08 Fawad Nackvi Loudspeaker with demonstration mode
WO2007016465A2 (en) 2005-07-29 2007-02-08 Klipsch, L.L.C. Loudspeaker with automatic calibration and room equalization
US7529377B2 (en) 2005-07-29 2009-05-05 Klipsch L.L.C. Loudspeaker with automatic calibration and room equalization
US7590772B2 (en) 2005-08-22 2009-09-15 Apple Inc. Audio status information for a portable electronic device
WO2007028094A1 (en) 2005-09-02 2007-03-08 Harman International Industries, Incorporated Self-calibrating loudspeaker
JP4285469B2 (ja) 2005-10-18 2009-06-24 ソニー株式会社 計測装置、計測方法、音声信号処理装置
JP4193835B2 (ja) 2005-10-19 2008-12-10 ソニー株式会社 計測装置、計測方法、音声信号処理装置
US7881460B2 (en) 2005-11-17 2011-02-01 Microsoft Corporation Configuration of echo cancellation
US20070121955A1 (en) 2005-11-30 2007-05-31 Microsoft Corporation Room acoustics correction device
WO2007068257A1 (en) 2005-12-16 2007-06-21 Tc Electronic A/S Method of performing measurements by means of an audio system comprising passive loudspeakers
FI20060295L (fi) 2006-03-28 2008-01-08 Genelec Oy Menetelmä ja laitteisto äänentoistojärjestelmässä
FI122089B (fi) 2006-03-28 2011-08-15 Genelec Oy Kalibrointimenetelmä ja -laitteisto äänentoistojärjestelmässä
JP4544190B2 (ja) * 2006-03-31 2010-09-15 ソニー株式会社 映像音声処理システム、映像処理装置、音声処理装置、映像音声の出力装置および映像と音声の同期処理方法
EP1855455B1 (en) 2006-05-11 2011-10-05 Global IP Solutions (GIPS) AB Audio mixing
US20080002839A1 (en) 2006-06-28 2008-01-03 Microsoft Corporation Smart equalizer
US7876903B2 (en) 2006-07-07 2011-01-25 Harris Corporation Method and apparatus for creating a multi-dimensional communication space for use in a binaural audio system
KR101275467B1 (ko) 2006-07-31 2013-06-14 삼성전자주식회사 오디오 재생 장치의 이퀄라이저 자동 제어 장치 및 방법
US9386269B2 (en) 2006-09-07 2016-07-05 Rateze Remote Mgmt Llc Presentation of data on multiple display devices using a wireless hub
US8483853B1 (en) 2006-09-12 2013-07-09 Sonos, Inc. Controlling and manipulating groupings in a multi-zone media system
US8036767B2 (en) 2006-09-20 2011-10-11 Harman International Industries, Incorporated System for extracting and changing the reverberant content of an audio input signal
JP2010507294A (ja) 2006-10-17 2010-03-04 アベガ システムズ ピーティーワイ リミテッド マルチメディアデバイスの統合
US8984442B2 (en) 2006-11-17 2015-03-17 Apple Inc. Method and system for upgrading a previously purchased media asset
US20080136623A1 (en) 2006-12-06 2008-06-12 Russell Calvarese Audio trigger for mobile devices
US8006002B2 (en) 2006-12-12 2011-08-23 Apple Inc. Methods and systems for automatic configuration of peripherals
US8391501B2 (en) 2006-12-13 2013-03-05 Motorola Mobility Llc Method and apparatus for mixing priority and non-priority audio signals
US8045721B2 (en) 2006-12-14 2011-10-25 Motorola Mobility, Inc. Dynamic distortion elimination for output audio
TWI353126B (en) 2007-01-09 2011-11-21 Generalplus Technology Inc Audio system and related method integrated with ul
US20080175411A1 (en) 2007-01-19 2008-07-24 Greve Jens Player device with automatic settings
US8155335B2 (en) 2007-03-14 2012-04-10 Phillip Rutschman Headset having wirelessly linked earpieces
US8174558B2 (en) 2007-04-30 2012-05-08 Hewlett-Packard Development Company, L.P. Automatically calibrating a video conference system
US8194874B2 (en) 2007-05-22 2012-06-05 Polk Audio, Inc. In-room acoustic magnitude response smoothing via summation of correction signals
US7796068B2 (en) 2007-07-16 2010-09-14 Gmr Research & Technology, Inc. System and method of multi-channel signal calibration
US8306235B2 (en) 2007-07-17 2012-11-06 Apple Inc. Method and apparatus for using a sound sensor to adjust the audio output for a device
KR101397433B1 (ko) 2007-07-18 2014-06-27 삼성전자주식회사 미디어 파일 재생 장치에서 이퀄라이저를 설정하는 방법 및이를 위한 장치
WO2009010832A1 (en) 2007-07-18 2009-01-22 Bang & Olufsen A/S Loudspeaker position estimation
US20090063274A1 (en) 2007-08-01 2009-03-05 Dublin Iii Wilbur Leslie System and method for targeted advertising and promotions using tabletop display devices
US20090047993A1 (en) 2007-08-14 2009-02-19 Vasa Yojak H Method of using music metadata to save music listening preferences
KR20090027101A (ko) 2007-09-11 2009-03-16 삼성전자주식회사 오디오 이퀄라이징 방법 및 이를 적용한 영상기기
GB2453117B (en) 2007-09-25 2012-05-23 Motorola Mobility Inc Apparatus and method for encoding a multi channel audio signal
EP2043381A3 (en) 2007-09-28 2010-07-21 Bang & Olufsen A/S A method and a system to adjust the acoustical performance of a loudspeaker
US20090110218A1 (en) 2007-10-31 2009-04-30 Swain Allan L Dynamic equalizer
JP2009130643A (ja) 2007-11-22 2009-06-11 Yamaha Corp オーディオ信号供給装置、パラメータ提供システム、テレビ、avシステム、スピーカ装置およびオーディオ信号供給方法
US20090138507A1 (en) 2007-11-27 2009-05-28 International Business Machines Corporation Automated playback control for audio devices using environmental cues as indicators for automatically pausing audio playback
US8126172B2 (en) 2007-12-06 2012-02-28 Harman International Industries, Incorporated Spatial processing stereo system
JP4561825B2 (ja) 2007-12-27 2010-10-13 ソニー株式会社 オーディオ信号受信装置、オーディオ信号受信方法、プログラムおよびオーディオ信号伝送システム
JP5191750B2 (ja) 2008-01-25 2013-05-08 川崎重工業株式会社 音響装置
KR101460060B1 (ko) 2008-01-31 2014-11-20 삼성전자주식회사 음향 특성 보상 방법 및 그를 이용한 av 장치
JP5043701B2 (ja) 2008-02-04 2012-10-10 キヤノン株式会社 音声再生装置及びその制御方法
GB2457508B (en) 2008-02-18 2010-06-09 Ltd Sony Computer Entertainmen System and method of audio adaptaton
JPWO2009107202A1 (ja) 2008-02-26 2011-06-30 パイオニア株式会社 音響信号処理装置及び音響信号処理方法
JPWO2009107227A1 (ja) 2008-02-29 2011-06-30 パイオニア株式会社 音響信号処理装置及び音響信号処理方法
US8401202B2 (en) 2008-03-07 2013-03-19 Ksc Industries Incorporated Speakers with a digital signal processor
US8503669B2 (en) 2008-04-07 2013-08-06 Sony Computer Entertainment Inc. Integrated latency detection and echo cancellation
US20090252481A1 (en) 2008-04-07 2009-10-08 Sony Ericsson Mobile Communications Ab Methods, apparatus, system and computer program product for audio input at video recording
US8063698B2 (en) 2008-05-02 2011-11-22 Bose Corporation Bypassing amplification
US8325931B2 (en) 2008-05-02 2012-12-04 Bose Corporation Detecting a loudspeaker configuration
US8379876B2 (en) 2008-05-27 2013-02-19 Fortemedia, Inc Audio device utilizing a defect detection method on a microphone array
US20090304205A1 (en) 2008-06-10 2009-12-10 Sony Corporation Of Japan Techniques for personalizing audio levels
US8527876B2 (en) 2008-06-12 2013-09-03 Apple Inc. System and methods for adjusting graphical representations of media files based on previous usage
KR100970920B1 (ko) 2008-06-30 2010-07-20 권대훈 튜닝음향 피드백 장치
US8332414B2 (en) 2008-07-01 2012-12-11 Samsung Electronics Co., Ltd. Method and system for prefetching internet content for video recorders
US8452020B2 (en) 2008-08-20 2013-05-28 Apple Inc. Adjustment of acoustic properties based on proximity detection
EP2161950B1 (en) 2008-09-08 2019-01-23 Harman Becker Gépkocsirendszer Gyártó Korlátolt Felelösségü Társaság Configuring a sound field
US8488799B2 (en) 2008-09-11 2013-07-16 Personics Holdings Inc. Method and system for sound monitoring over a network
JP2012509038A (ja) 2008-11-14 2012-04-12 ザット コーポレーション 動的音量制御及び複数空間処理防止
US8085952B2 (en) 2008-11-22 2011-12-27 Mao-Liang Liu Combination equalizer and calibrator circuit assembly for audio system
US8126156B2 (en) 2008-12-02 2012-02-28 Hewlett-Packard Development Company, L.P. Calibrating at least one system microphone
TR200809433A2 (tr) 2008-12-05 2010-06-21 Vestel Elektroni̇k Sanayi̇ Ve Ti̇caret A.Ş. Üstveri için dinamik ön belleğe alma yöntemi ve sistemi
US8977974B2 (en) 2008-12-08 2015-03-10 Apple Inc. Ambient noise based augmentation of media playback
KR20100066949A (ko) 2008-12-10 2010-06-18 삼성전자주식회사 오디오 기기 및 그의 신호보정방법
US8819554B2 (en) 2008-12-23 2014-08-26 At&T Intellectual Property I, L.P. System and method for playing media
JP5394905B2 (ja) 2009-01-14 2014-01-22 ローム株式会社 自動レベル制御回路およびそれを用いたオーディオ用デジタル信号プロセッサならびに可変利得増幅器の利得制御方法
US8731500B2 (en) 2009-01-29 2014-05-20 Telefonaktiebolaget Lm Ericsson (Publ) Automatic gain control based on bandwidth and delay spread
US8229125B2 (en) 2009-02-06 2012-07-24 Bose Corporation Adjusting dynamic range of an audio system
US8626516B2 (en) * 2009-02-09 2014-01-07 Broadcom Corporation Method and system for dynamic range control in an audio processing system
US8300840B1 (en) 2009-02-10 2012-10-30 Frye Electronics, Inc. Multiple superimposed audio frequency test system and sound chamber with attenuated echo properties
US8620006B2 (en) 2009-05-13 2013-12-31 Bose Corporation Center channel rendering
JP5451188B2 (ja) 2009-06-02 2014-03-26 キヤノン株式会社 定在波検出装置およびその制御方法
RU2570217C2 (ru) 2009-08-03 2015-12-10 Аймакс Корпорейшн Системы и способы для контроля громкоговорителей кинотеатра и компенсации проблем качества
EP2288178B1 (en) * 2009-08-17 2012-06-06 Nxp B.V. A device for and a method of processing audio data
CN102696244B (zh) 2009-10-05 2015-01-07 哈曼国际工业有限公司 具有音频通道补偿的多通道音频系统
WO2011043678A1 (en) 2009-10-09 2011-04-14 Auckland Uniservices Limited Tinnitus treatment system and method
US8539161B2 (en) 2009-10-12 2013-09-17 Microsoft Corporation Pre-fetching content items based on social distance
US20110091055A1 (en) 2009-10-19 2011-04-21 Broadcom Corporation Loudspeaker localization techniques
EP2494793A2 (en) 2009-10-27 2012-09-05 Phonak AG Method and system for speech enhancement in a room
KR20110082840A (ko) 2010-01-12 2011-07-20 삼성전자주식회사 음량 조절 방법 및 장치
US8265310B2 (en) 2010-03-03 2012-09-11 Bose Corporation Multi-element directional acoustic arrays
US8139774B2 (en) 2010-03-03 2012-03-20 Bose Corporation Multi-element directional acoustic arrays
US9749709B2 (en) 2010-03-23 2017-08-29 Apple Inc. Audio preview of music
WO2011117399A1 (en) * 2010-03-26 2011-09-29 Thomson Licensing Method and device for decoding an audio soundfield representation for audio playback
US9674629B2 (en) 2010-03-26 2017-06-06 Harman Becker Automotive Systems Manufacturing Kft Multichannel sound reproduction method and device
JP5672748B2 (ja) 2010-03-31 2015-02-18 ヤマハ株式会社 音場制御装置
US9107021B2 (en) 2010-04-30 2015-08-11 Microsoft Technology Licensing, Llc Audio spatialization using reflective room model
US9307340B2 (en) 2010-05-06 2016-04-05 Dolby Laboratories Licensing Corporation Audio system equalization for portable media playback devices
CN102893633B (zh) * 2010-05-06 2015-04-15 杜比实验室特许公司 用于便携式媒体回放装置的音频系统均衡化
EP2385686B1 (en) * 2010-05-06 2018-04-11 BlackBerry Limited Multimedia playback calibration methods, devices and systems
US8300845B2 (en) 2010-06-23 2012-10-30 Motorola Mobility Llc Electronic apparatus having microphones with controllable front-side gain and rear-side gain
WO2012003894A1 (en) 2010-07-09 2012-01-12 Bang & Olufsen A/S Adaptive sound field control
US8965546B2 (en) 2010-07-26 2015-02-24 Qualcomm Incorporated Systems, methods, and apparatus for enhanced acoustic imaging
US8433076B2 (en) 2010-07-26 2013-04-30 Motorola Mobility Llc Electronic apparatus for generating beamformed audio signals with steerable nulls
US8862273B2 (en) 2010-07-29 2014-10-14 Empire Technology Development Llc Acoustic noise management through control of electrical device operations
US8907930B2 (en) 2010-08-06 2014-12-09 Motorola Mobility Llc Methods and devices for determining user input location using acoustic sensing elements
US20120051558A1 (en) 2010-09-01 2012-03-01 Samsung Electronics Co., Ltd. Method and apparatus for reproducing audio signal by adaptively controlling filter coefficient
TWI486068B (zh) 2010-09-13 2015-05-21 Htc Corp 行動電子裝置與其聲音播放方法
US9008338B2 (en) 2010-09-30 2015-04-14 Panasonic Intellectual Property Management Co., Ltd. Audio reproduction apparatus and audio reproduction method
US8767968B2 (en) 2010-10-13 2014-07-01 Microsoft Corporation System and method for high-precision 3-dimensional audio for augmented reality
US9377941B2 (en) 2010-11-09 2016-06-28 Sony Corporation Audio speaker selection for optimization of sound origin
US9316717B2 (en) 2010-11-24 2016-04-19 Samsung Electronics Co., Ltd. Position determination of devices using stereo audio
US20120148075A1 (en) 2010-12-08 2012-06-14 Creative Technology Ltd Method for optimizing reproduction of audio signals from an apparatus for audio reproduction
US20130051572A1 (en) 2010-12-08 2013-02-28 Creative Technology Ltd Method for optimizing reproduction of audio signals from an apparatus for audio reproduction
US20120183156A1 (en) 2011-01-13 2012-07-19 Sennheiser Electronic Gmbh & Co. Kg Microphone system with a hand-held microphone
US8291349B1 (en) 2011-01-19 2012-10-16 Google Inc. Gesture-based metadata display
US8989406B2 (en) 2011-03-11 2015-03-24 Sony Corporation User profile based audio adjustment techniques
US9107023B2 (en) 2011-03-18 2015-08-11 Dolby Laboratories Licensing Corporation N surround
US9253561B2 (en) 2011-04-14 2016-02-02 Bose Corporation Orientation-responsive acoustic array control
US8934647B2 (en) 2011-04-14 2015-01-13 Bose Corporation Orientation-responsive acoustic driver selection
US8934655B2 (en) 2011-04-14 2015-01-13 Bose Corporation Orientation-responsive use of acoustic reflection
US9007871B2 (en) 2011-04-18 2015-04-14 Apple Inc. Passive proximity detection
US8824692B2 (en) 2011-04-20 2014-09-02 Vocollect, Inc. Self calibrating multi-element dipole microphone
US8786295B2 (en) 2011-04-20 2014-07-22 Cypress Semiconductor Corporation Current sensing apparatus and method for a capacitance-sensing device
US9031268B2 (en) 2011-05-09 2015-05-12 Dts, Inc. Room characterization and correction for multi-channel audio
US8831244B2 (en) 2011-05-10 2014-09-09 Audiotoniq, Inc. Portable tone generator for producing pre-calibrated tones
US8320577B1 (en) 2011-05-20 2012-11-27 Google Inc. Method and apparatus for multi-channel audio processing using single-channel components
US8855319B2 (en) 2011-05-25 2014-10-07 Mediatek Inc. Audio signal processing apparatus and audio signal processing method
US10218063B2 (en) 2013-03-13 2019-02-26 Aliphcom Radio signal pickup from an electrically conductive substrate utilizing passive slits
US8588434B1 (en) 2011-06-27 2013-11-19 Google Inc. Controlling microphones and speakers of a computing device
US9055382B2 (en) * 2011-06-29 2015-06-09 Richard Lane Calibration of headphones to improve accuracy of recorded audio content
US9462399B2 (en) 2011-07-01 2016-10-04 Dolby Laboratories Licensing Corporation Audio playback system monitoring
US8175297B1 (en) 2011-07-06 2012-05-08 Google Inc. Ad hoc sensor arrays
US9154185B2 (en) 2011-07-14 2015-10-06 Vivint, Inc. Managing audio output through an intermediary
US20130028443A1 (en) 2011-07-28 2013-01-31 Apple Inc. Devices with enhanced audio
EP2737728A1 (en) 2011-07-28 2014-06-04 Thomson Licensing Audio calibration system and method
US9065929B2 (en) 2011-08-02 2015-06-23 Apple Inc. Hearing aid detection
US8879761B2 (en) 2011-11-22 2014-11-04 Apple Inc. Orientation-based audio
US9363386B2 (en) 2011-11-23 2016-06-07 Qualcomm Incorporated Acoustic echo cancellation based on ultrasound motion detection
US8983089B1 (en) 2011-11-28 2015-03-17 Rawles Llc Sound source localization using multiple microphone arrays
US9179237B2 (en) * 2011-12-16 2015-11-03 Bose Corporation Virtual audio system tuning
US9084058B2 (en) 2011-12-29 2015-07-14 Sonos, Inc. Sound field calibration using listener localization
JP2013150246A (ja) * 2012-01-23 2013-08-01 Nagoya Institute Of Technology ハウリング低減システム及びそれに用いられるアナログ電子回路
US8996370B2 (en) 2012-01-31 2015-03-31 Microsoft Corporation Transferring data via audio link
JP5962038B2 (ja) 2012-02-03 2016-08-03 ソニー株式会社 信号処理装置、信号処理方法、プログラム、信号処理システムおよび通信端末
US20130211843A1 (en) 2012-02-13 2013-08-15 Qualcomm Incorporated Engagement-dependent gesture recognition
CN104247461A (zh) 2012-02-21 2014-12-24 英特托拉斯技术公司 音频再现系统和方法
US9277322B2 (en) 2012-03-02 2016-03-01 Bang & Olufsen A/S System for optimizing the perceived sound quality in virtual sound zones
WO2013135819A1 (en) 2012-03-14 2013-09-19 Bang & Olufsen A/S A method of applying a combined or hybrid sound -field control strategy
US20130259254A1 (en) 2012-03-28 2013-10-03 Qualcomm Incorporated Systems, methods, and apparatus for producing a directional sound field
LV14747B (lv) 2012-04-04 2014-03-20 Sonarworks, Sia Elektroakustisko izstarotāju akustisko parametru korekcijas paņēmiens un iekārta tā realizēšanai
US20130279706A1 (en) 2012-04-23 2013-10-24 Stefan J. Marti Controlling individual audio output devices based on detected inputs
US9524098B2 (en) 2012-05-08 2016-12-20 Sonos, Inc. Methods and systems for subwoofer calibration
EP2847971B1 (en) 2012-05-08 2018-12-26 Cirrus Logic International Semiconductor Ltd. System and method for forming media networks from loosely coordinated media rendering devices.
JP2013247456A (ja) 2012-05-24 2013-12-09 Toshiba Corp 音響処理装置、音響処理方法、音響処理プログラムおよび音響処理システム
US8903526B2 (en) 2012-06-06 2014-12-02 Sonos, Inc. Device playback failure recovery and redistribution
US9715365B2 (en) 2012-06-27 2017-07-25 Sonos, Inc. Systems and methods for mobile music zones
US9106192B2 (en) 2012-06-28 2015-08-11 Sonos, Inc. System and method for device playback calibration
US9065410B2 (en) 2012-06-28 2015-06-23 Apple Inc. Automatic audio equalization using handheld mode detection
US9706323B2 (en) 2014-09-09 2017-07-11 Sonos, Inc. Playback device calibration
US9690539B2 (en) 2012-06-28 2017-06-27 Sonos, Inc. Speaker calibration user interface
US9119012B2 (en) 2012-06-28 2015-08-25 Broadcom Corporation Loudspeaker beamforming for personal audio focal points
US9690271B2 (en) 2012-06-28 2017-06-27 Sonos, Inc. Speaker calibration
US9219460B2 (en) 2014-03-17 2015-12-22 Sonos, Inc. Audio settings based on environment
US9031244B2 (en) 2012-06-29 2015-05-12 Sonos, Inc. Smart audio settings
US9615171B1 (en) 2012-07-02 2017-04-04 Amazon Technologies, Inc. Transformation inversion to reduce the effect of room acoustics
US20140003635A1 (en) 2012-07-02 2014-01-02 Qualcomm Incorporated Audio signal processing device calibration
US9190065B2 (en) 2012-07-15 2015-11-17 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for three-dimensional audio coding using basis function coefficients
US9288603B2 (en) 2012-07-15 2016-03-15 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for backward-compatible audio coding
US9473870B2 (en) 2012-07-16 2016-10-18 Qualcomm Incorporated Loudspeaker position compensation with 3D-audio hierarchical coding
US9516446B2 (en) 2012-07-20 2016-12-06 Qualcomm Incorporated Scalable downmix design for object-based surround codec with cluster analysis by synthesis
US8995687B2 (en) 2012-08-01 2015-03-31 Sonos, Inc. Volume interactions for connected playback devices
US9094768B2 (en) 2012-08-02 2015-07-28 Crestron Electronics Inc. Loudspeaker calibration using multiple wireless microphones
US8930005B2 (en) 2012-08-07 2015-01-06 Sonos, Inc. Acoustic signatures in a playback system
US20140052770A1 (en) 2012-08-14 2014-02-20 Packetvideo Corporation System and method for managing media content using a dynamic playlist
US9532153B2 (en) 2012-08-29 2016-12-27 Bang & Olufsen A/S Method and a system of providing information to a user
WO2014032709A1 (en) 2012-08-29 2014-03-06 Huawei Technologies Co., Ltd. Audio rendering system
CN104604257B (zh) 2012-08-31 2016-05-25 杜比实验室特许公司 用于在各种收听环境中渲染并且回放基于对象的音频的系统
US8965033B2 (en) 2012-08-31 2015-02-24 Sonos, Inc. Acoustic optimization
US9078055B2 (en) 2012-09-17 2015-07-07 Blackberry Limited Localization of a wireless user equipment (UE) device based on single beep per channel signatures
US9173023B2 (en) 2012-09-25 2015-10-27 Intel Corporation Multiple device noise reduction microphone array
US9319816B1 (en) 2012-09-26 2016-04-19 Amazon Technologies, Inc. Characterizing environment using ultrasound pilot tones
SG2012072161A (en) 2012-09-27 2014-04-28 Creative Tech Ltd An electronic device
JP6580990B2 (ja) 2012-10-09 2019-09-25 聯發科技股▲ふん▼有限公司Mediatek Inc. オーディオ干渉推定のための方法及び装置
US8731206B1 (en) 2012-10-10 2014-05-20 Google Inc. Measuring sound quality using relative comparison
US9396732B2 (en) 2012-10-18 2016-07-19 Google Inc. Hierarchical deccorelation of multichannel audio
US9020153B2 (en) 2012-10-24 2015-04-28 Google Inc. Automatic detection of loudspeaker characteristics
CN103813236A (zh) 2012-11-07 2014-05-21 飞兆半导体公司 扬声器保护的相关方法及装置
JP2014096657A (ja) * 2012-11-08 2014-05-22 Yamaha Corp 音響装置
US9277321B2 (en) 2012-12-17 2016-03-01 Nokia Technologies Oy Device discovery and constellation selection
US9467793B2 (en) 2012-12-20 2016-10-11 Strubwerks, LLC Systems, methods, and apparatus for recording three-dimensional audio and associated data
US20140242913A1 (en) 2013-01-01 2014-08-28 Aliphcom Mobile device speaker control
KR102051588B1 (ko) 2013-01-07 2019-12-03 삼성전자주식회사 휴대 단말기의 오디오 컨텐츠 재생 방법 및 그 장치
KR20140099122A (ko) 2013-02-01 2014-08-11 삼성전자주식회사 전자 장치, 위치 검출 장치, 스피커 자동 설정 시스템 및 방법
CN103970793B (zh) 2013-02-04 2020-03-03 腾讯科技(深圳)有限公司 信息查询方法、客户端及服务器
JP2016509429A (ja) 2013-02-05 2016-03-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. オーディオ装置及びそのための方法
US9913064B2 (en) 2013-02-07 2018-03-06 Qualcomm Incorporated Mapping virtual speakers to physical speakers
US10178489B2 (en) 2013-02-08 2019-01-08 Qualcomm Incorporated Signaling audio rendering information in a bitstream
US9319019B2 (en) 2013-02-11 2016-04-19 Symphonic Audio Technologies Corp. Method for augmenting a listening experience
US9300266B2 (en) 2013-02-12 2016-03-29 Qualcomm Incorporated Speaker equalization for mobile devices
US9602918B2 (en) 2013-02-28 2017-03-21 Google Inc. Stream caching for audio mixers
KR20180097786A (ko) 2013-03-05 2018-08-31 애플 인크. 하나 이상의 청취자들의 위치에 기초한 스피커 어레이의 빔 패턴의 조정
CN105122845B (zh) 2013-03-06 2018-09-07 苹果公司 用于扬声器系统的稳健同时驱动器测量的系统和方法
WO2014138489A1 (en) 2013-03-07 2014-09-12 Tiskerling Dynamics Llc Room and program responsive loudspeaker system
JP6211677B2 (ja) 2013-03-11 2017-10-11 アップル インコーポレイテッド ラウドスピーカの指向性範囲にまたがる音色の一定性
US9357306B2 (en) 2013-03-12 2016-05-31 Nokia Technologies Oy Multichannel audio calibration method and apparatus
US9351091B2 (en) 2013-03-12 2016-05-24 Google Technology Holdings LLC Apparatus with adaptive microphone configuration based on surface proximity, surface type and motion
US20140279889A1 (en) 2013-03-14 2014-09-18 Aliphcom Intelligent device connection for wireless media ecosystem
US10212534B2 (en) 2013-03-14 2019-02-19 Michael Edward Smith Luna Intelligent device connection for wireless media ecosystem
US20140267148A1 (en) 2013-03-14 2014-09-18 Aliphcom Proximity and interface controls of media devices for media presentations
KR101764660B1 (ko) 2013-03-14 2017-08-03 애플 인크. 스피커 및 핸드헬드 청취 디바이스를 사용한 적응적 공간 등화
US9349282B2 (en) 2013-03-15 2016-05-24 Aliphcom Proximity sensing device control architecture and data communication protocol
US20140286496A1 (en) 2013-03-15 2014-09-25 Aliphcom Proximity sensing device control architecture and data communication protocol
US9559651B2 (en) 2013-03-29 2017-01-31 Apple Inc. Metadata for loudness and dynamic range control
US9689960B1 (en) 2013-04-04 2017-06-27 Amazon Technologies, Inc. Beam rejection in multi-beam microphone systems
US9253586B2 (en) 2013-04-26 2016-02-02 Sony Corporation Devices, methods and computer program products for controlling loudness
US9307508B2 (en) 2013-04-29 2016-04-05 Google Technology Holdings LLC Systems and methods for syncronizing multiple electronic devices
US9942661B2 (en) 2013-05-14 2018-04-10 Logitech Europe S.A Method and apparatus for controlling portable audio devices
US10031647B2 (en) 2013-05-14 2018-07-24 Google Llc System for universal remote media control in a multi-user, multi-platform, multi-device environment
US9472201B1 (en) 2013-05-22 2016-10-18 Google Inc. Speaker localization by means of tactile input
US9412385B2 (en) 2013-05-28 2016-08-09 Qualcomm Incorporated Performing spatial masking with respect to spherical harmonic coefficients
US9369818B2 (en) 2013-05-29 2016-06-14 Qualcomm Incorporated Filtering with binaural room impulse responses with content analysis and weighting
US9215545B2 (en) 2013-05-31 2015-12-15 Bose Corporation Sound stage controller for a near-field speaker-based audio system
US20160049051A1 (en) 2013-06-21 2016-02-18 Hello Inc. Room monitoring device with packaging
US20150011195A1 (en) 2013-07-03 2015-01-08 Eric Li Automatic volume control based on context and location
US9426598B2 (en) 2013-07-15 2016-08-23 Dts, Inc. Spatial calibration of surround sound systems including listener position estimation
US9832517B2 (en) 2013-07-17 2017-11-28 Telefonaktiebolaget Lm Ericsson (Publ) Seamless playback of media content using digital watermarking
US9336113B2 (en) 2013-07-29 2016-05-10 Bose Corporation Method and device for selecting a networked media device
US10225680B2 (en) 2013-07-30 2019-03-05 Thomas Alan Donaldson Motion detection of audio sources to facilitate reproduction of spatial audio spaces
US10219094B2 (en) 2013-07-30 2019-02-26 Thomas Alan Donaldson Acoustic detection of audio sources to facilitate reproduction of spatial audio spaces
US9565497B2 (en) 2013-08-01 2017-02-07 Caavo Inc. Enhancing audio using a mobile device
WO2015020266A1 (en) 2013-08-09 2015-02-12 Samsung Electronics Co., Ltd. System for tuning audio processing features and method thereof
EP3280162A1 (en) 2013-08-20 2018-02-07 Harman Becker Gépkocsirendszer Gyártó Korlátolt Felelösségü Társaság A system for and a method of generating sound
EP2842529A1 (en) 2013-08-30 2015-03-04 GN Store Nord A/S Audio rendering system categorising geospatial objects
US20150078586A1 (en) 2013-09-16 2015-03-19 Amazon Technologies, Inc. User input with fingerprint sensor
US9231545B2 (en) 2013-09-27 2016-01-05 Sonos, Inc. Volume enhancements in a multi-zone media playback system
KR102114219B1 (ko) 2013-10-10 2020-05-25 삼성전자주식회사 오디오 시스템 및 오디오 출력 방법, 그리고 스피커 장치
US9240763B2 (en) 2013-11-25 2016-01-19 Apple Inc. Loudness normalization based on user feedback
US9451377B2 (en) 2014-01-07 2016-09-20 Howard Massey Device, method and software for measuring distance to a sound generator by using an audible impulse signal
EP3092824B1 (en) 2014-01-10 2017-11-01 Dolby Laboratories Licensing Corporation Calibration of virtual height speakers using programmable portable devices
US9560449B2 (en) 2014-01-17 2017-01-31 Sony Corporation Distributed wireless speaker system
US9729984B2 (en) 2014-01-18 2017-08-08 Microsoft Technology Licensing, Llc Dynamic calibration of an audio system
US9288597B2 (en) 2014-01-20 2016-03-15 Sony Corporation Distributed wireless speaker system with automatic configuration determination when new speakers are added
US20150229699A1 (en) 2014-02-10 2015-08-13 Comcast Cable Communications, Llc Methods And Systems For Linking Content
US9746491B2 (en) 2014-03-17 2017-08-29 Plantronics, Inc. Sensor calibration based on device use state
US9264839B2 (en) 2014-03-17 2016-02-16 Sonos, Inc. Playback device configuration based on proximity detection
US9554201B2 (en) 2014-03-31 2017-01-24 Bose Corporation Multiple-orientation audio device and related apparatus
EP2928211A1 (en) 2014-04-04 2015-10-07 Oticon A/s Self-calibration of multi-microphone noise reduction system for hearing assistance devices using an auxiliary device
US9467779B2 (en) 2014-05-13 2016-10-11 Apple Inc. Microphone partial occlusion detector
WO2015178950A1 (en) 2014-05-19 2015-11-26 Tiskerling Dynamics Llc Directivity optimized sound reproduction
US9398392B2 (en) 2014-06-30 2016-07-19 Microsoft Technology Licensing, Llc Audio calibration and adjustment
US9516414B2 (en) 2014-07-09 2016-12-06 Blackberry Limited Communication device and method for adapting to audio accessories
US9516444B2 (en) 2014-07-15 2016-12-06 Sonavox Canada Inc. Wireless control and calibration of audio system
JP6210458B2 (ja) 2014-07-30 2017-10-11 パナソニックIpマネジメント株式会社 故障検知システム及び故障検知方法
US9910634B2 (en) 2014-09-09 2018-03-06 Sonos, Inc. Microphone calibration
CN106688248B (zh) 2014-09-09 2020-04-14 搜诺思公司 音频处理算法和数据库
US9952825B2 (en) 2014-09-09 2018-04-24 Sonos, Inc. Audio processing algorithms
CN107113527A (zh) 2014-09-30 2017-08-29 苹果公司 确定扬声器位置变化的方法
WO2016054099A1 (en) 2014-09-30 2016-04-07 Nunntawi Dynamics Llc Multi-driver acoustic horn for horizontal beam control
WO2016054098A1 (en) 2014-09-30 2016-04-07 Nunntawi Dynamics Llc Method for creating a virtual acoustic stereo system with an undistorted acoustic center
US9747906B2 (en) 2014-11-14 2017-08-29 The Nielson Company (Us), Llc Determining media device activation based on frequency response analysis
US9578418B2 (en) 2015-01-21 2017-02-21 Qualcomm Incorporated System and method for controlling output of multiple audio output devices
US20160239255A1 (en) 2015-02-16 2016-08-18 Harman International Industries, Inc. Mobile interface for loudspeaker optimization
US20160260140A1 (en) 2015-03-06 2016-09-08 Spotify Ab System and method for providing a promoted track display for use with a media content or streaming environment
US9609383B1 (en) 2015-03-23 2017-03-28 Amazon Technologies, Inc. Directional audio for virtual environments
US9678708B2 (en) 2015-04-24 2017-06-13 Sonos, Inc. Volume limit
US9794719B2 (en) 2015-06-15 2017-10-17 Harman International Industries, Inc. Crowd sourced audio data for venue equalization
US9538305B2 (en) 2015-07-28 2017-01-03 Sonos, Inc. Calibration error conditions
JP6437695B2 (ja) 2015-09-17 2018-12-12 ソノズ インコーポレイテッド オーディオ再生デバイスのキャリブレーションを容易にする方法
US10123141B2 (en) 2015-11-13 2018-11-06 Bose Corporation Double-talk detection for acoustic echo cancellation
US9743207B1 (en) 2016-01-18 2017-08-22 Sonos, Inc. Calibration using multiple recording devices
US9859858B2 (en) 2016-01-19 2018-01-02 Apple Inc. Correction of unknown audio content
EP3214858A1 (en) 2016-03-03 2017-09-06 Thomson Licensing Apparatus and method for determining delay and gain parameters for calibrating a multi channel audio system
US9763018B1 (en) 2016-04-12 2017-09-12 Sonos, Inc. Calibration of audio playback devices

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002502193A (ja) * 1998-01-30 2002-01-22 テレフオンアクチーボラゲット エル エム エリクソン(パブル) 適応型ビーム形成器用キャリブレーション信号の生成
JP2005538633A (ja) * 2002-09-13 2005-12-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 第1及び第2マイクロホンの較正
US20060032357A1 (en) * 2002-09-13 2006-02-16 Koninklijke Philips Eoectronics N.V. Calibrating a first and a second microphone
JP2007068125A (ja) * 2005-09-02 2007-03-15 Nec Corp 信号処理の方法及び装置並びにコンピュータプログラム
JP2010081124A (ja) * 2008-09-24 2010-04-08 Panasonic Electric Works Co Ltd インターホン装置用キャリブレーション方法
US20130329896A1 (en) * 2012-06-08 2013-12-12 Apple Inc. Systems and methods for determining the condition of multiple microphones

Also Published As

Publication number Publication date
US20160073210A1 (en) 2016-03-10
CN106688250A (zh) 2017-05-17
EP3081012B1 (en) 2018-09-05
US20180192215A1 (en) 2018-07-05
US20160070526A1 (en) 2016-03-10
WO2016040325A1 (en) 2016-03-17
US9749763B2 (en) 2017-08-29
CN110719561A (zh) 2020-01-21
CN106688250B (zh) 2019-11-15
US10271150B2 (en) 2019-04-23
US9910634B2 (en) 2018-03-06
US20170048633A1 (en) 2017-02-16
JP6524273B2 (ja) 2019-06-05
CN110719561B (zh) 2021-09-28
EP3081012A1 (en) 2016-10-19
JP6276467B2 (ja) 2018-02-07
JP2018110401A (ja) 2018-07-12
US9936318B2 (en) 2018-04-03

Similar Documents

Publication Publication Date Title
JP6276467B2 (ja) 再生デバイスのキャリブレーション
JP6449393B2 (ja) 再生デバイスのキャリブレーション
US12069444B2 (en) Calibration state variable
JP6503457B2 (ja) オーディオ処理アルゴリズム及びデータベース
US10127008B2 (en) Audio processing algorithm database
US9715367B2 (en) Audio processing algorithms

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170428

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170428

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170428

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170718

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20170925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180111

R150 Certificate of patent or registration of utility model

Ref document number: 6276467

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250