JP6483922B2 - Validating audio calibration using multidimensional motion check - Google Patents

Validating audio calibration using multidimensional motion check Download PDF

Info

Publication number
JP6483922B2
JP6483922B2 JP2018514418A JP2018514418A JP6483922B2 JP 6483922 B2 JP6483922 B2 JP 6483922B2 JP 2018514418 A JP2018514418 A JP 2018514418A JP 2018514418 A JP2018514418 A JP 2018514418A JP 6483922 B2 JP6483922 B2 JP 6483922B2
Authority
JP
Japan
Prior art keywords
calibration
playback
movement
data
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018514418A
Other languages
Japanese (ja)
Other versions
JP2018533752A (en
Inventor
ジョナサン・ダウニング
ティモシー・シーン
ダニエル・バレント
Original Assignee
ソノズ インコーポレイテッド
ソノズ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソノズ インコーポレイテッド, ソノズ インコーポレイテッド filed Critical ソノズ インコーポレイテッド
Publication of JP2018533752A publication Critical patent/JP2018533752A/en
Application granted granted Critical
Publication of JP6483922B2 publication Critical patent/JP6483922B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/007Monitoring arrangements; Testing arrangements for public address systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/06Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being correlation coefficients
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G5/00Tone control or bandwidth control in amplifiers
    • H03G5/16Automatic control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/008Visual indication of individual signal levels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/04Circuits for transducers, loudspeakers or microphones for correcting frequency response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G5/00Tone control or bandwidth control in amplifiers
    • H03G5/16Automatic control
    • H03G5/165Equalizers; Volume or gain control in limited frequency bands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2227/00Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
    • H04R2227/003Digital PA systems using, e.g. LAN or internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2227/00Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
    • H04R2227/005Audio distribution systems for home, i.e. multi-room use
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/07Use of position data from wide-area or local-area positioning systems in hearing devices, e.g. program or information selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R27/00Public address systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/001Monitoring arrangements; Testing arrangements for loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone

Description

関連出願の相互参照Cross-reference of related applications

本願は、2015年9月24日に出願された米国特許出願第14/864,506号及び2015年9月17日に出願された米国仮特許出願第62/220,176号の優先権を主張しており、その全体が参照されることにより本明細書に組み込まれる。   This application claims priority to US patent application Ser. No. 14 / 864,506 filed Sep. 24, 2015 and US Provisional Patent Application No. 62 / 220,176 filed Sep. 17, 2015. And are hereby incorporated by reference in their entirety.

本願は、コンシューマ製品に関するものであり、特に、メディア再生に向けられた方法、システム、製品、機能、サービス、および他の要素に関するものや、それらのいくつかの態様に関する。   This application relates to consumer products, and in particular, to methods, systems, products, features, services, and other elements directed to media playback and some aspects thereof.

2003年に、ソノズ・インコーポレイテッドが最初の特許出願のうちの1つである「複数のネットワークデバイス間のオーディオ再生を同期する方法」と題する特許出願をし、2005年にメディア再生システムの販売を開始するまで、アウトラウド設定におけるデジタルオーディオへのアクセスおよび試聴のオプションは制限されていた。人々は、ソノズ無線HiFiシステムによって、1つ又は複数のネットワーク再生デバイスを介して多数のソースから音楽を体験できるようになっている。スマートフォン、タブレット、又はコンピュータにインストールされたソフトウェアコントロールアプリケーションを通じて、ネットワーク再生デバイスを備えたいずれの部屋においても、人々は自分が望む音楽を再生することができる。また、例えばコントローラを用いて、再生デバイスを備えた各部屋に異なる歌をストリーミングすることもできるし、同期再生のために複数の部屋をグループ化することもできるし、全ての部屋において同期して同じ歌を聞くこともできる。   In 2003, Sonos Incorporated filed a patent application entitled “Method of Synchronizing Audio Playback Between Multiple Network Devices”, one of the first patent applications, and in 2005, marketed a media playback system. Until it started, the options for accessing and listening to digital audio in the outloud setting were limited. People can experience music from multiple sources via one or more network playback devices with the Sonos Wireless HiFi system. Through a software control application installed on a smartphone, tablet, or computer, people can play the music they want in any room with a network playback device. Also, for example, a controller can be used to stream different songs to each room equipped with a playback device, or multiple rooms can be grouped for synchronized playback, or synchronized in all rooms. You can listen to the same song.

これまでのデジタルメディアに対する関心の高まりを考えると、試聴体験を更に向上させることができるコンシューマアクセス可能な技術を更に開発することにニーズがある。   Given the growing interest in digital media, there is a need to further develop consumer accessible technologies that can further improve the listening experience.

本明細書で開示されている技術の特徴、態様、および利点は、以下の記載、添付の特許請求の範囲、および添付の図面を参照するとより理解しやすい。   The features, aspects, and advantages of the techniques disclosed herein may be better understood with reference to the following description, appended claims, and accompanying drawings.

ある実施形態で実施可能な例示的なメデイア再生システムの構成を示す図The figure which shows the structure of the example media reproduction system which can be implemented with a certain embodiment. 例示的な再生デバイスの機能ブロック図Functional block diagram of an exemplary playback device 例示的な制御デバイスの機能ブロック図Functional block diagram of an exemplary control device 例示的なコントローラインタフェースを示す図Diagram showing an example controller interface エラー状態を識別する方法の一例を示すフロー図Flow diagram showing an example method for identifying error conditions ある例示的な再生デバイスキャリブレーションのユーザインタフェースを示す図FIG. 3 illustrates a user interface for an exemplary playback device calibration. ある例示的な再生デバイスキャリブレーションのエラー状態ユーザインタフェースを示す図FIG. 4 illustrates an exemplary playback device calibration error state user interface. キャリブレーション中にマイクロホンの動きの有効性を確認するための例示的な技法を示すフロー図Flow diagram illustrating an exemplary technique for verifying the effectiveness of microphone movement during calibration リスニングエリア内におけるデバイスの動きの例を示す図Diagram showing an example of device movement in the listening area 動きデータの例を示す図Diagram showing an example of motion data 動きデータの例を示す図Diagram showing an example of motion data 周期的キャリブレーション音の一例の反復を示すフレームを示す図Diagram showing a frame showing an example repetition of a periodic calibration sound 周期的キャリブレーション音の一例の反復を示す一連のフレームを示す図Diagram showing a series of frames showing an example repetition of a periodic calibration sound 比較的密に相関された二方向の動きデータを示す図Diagram showing bi-directional motion data that is relatively closely correlated 比較的緩く相関された二方向の動きデータを示す図Diagram showing bi-directional motion data that is relatively loosely correlated ある例示的な再生デバイスキャリブレーションのユーザインタフェースを示す図FIG. 3 illustrates a user interface for an exemplary playback device calibration. 別の例示的な再生デバイスキャリブレーションのユーザインタフェースを示す図FIG. 5 illustrates another exemplary playback device calibration user interface.

図面は、いくつかの例示的な実施形態を説明することを目的としているが、本発明が、図面に示した配置および手段に限定されるものではないことは理解される。   Although the drawings are intended to illustrate some exemplary embodiments, it is understood that the invention is not limited to the arrangements and instrumentality shown in the drawings.

I.概要
本明細書に記述する実施形態は、とりわけ、メディア再生システムの1つまたは複数の再生デバイスをキャリブレーションする際に生じる場合もある1つまたは複数のエラー状態を検出することを含む。キャリブレーションが環境の音響特性に対処できるため、再生デバイスのキャリブレーションは、所定の環境における再生デバイスのパフォーマンスを改善できる。音響効果は、環境によって変わる可能性があり、一部の環境は、再生デバイスの周波数応答にわたって所定の周波数をブーストまたはカットすることにより、音響透過に悪影響を与えることがある。例えば、シンフォニーホールでは、音響効果が完璧に近く、音響の伝播に実質的な影響はないが、多くの家庭またはオフィスでは、音響透過にとってそうした理想的な条件は提供されない。
I. Overview Embodiments described herein include, among other things, detecting one or more error conditions that may occur when calibrating one or more playback devices of a media playback system. Because calibration can address the acoustic characteristics of the environment, calibration of the playback device can improve the performance of the playback device in a given environment. Sound effects can vary from environment to environment, and some environments can adversely affect sound transmission by boosting or cutting a predetermined frequency over the frequency response of the playback device. For example, in a symphony hall, the acoustic effect is nearly perfect and has no substantial effect on the propagation of sound, but many homes or offices do not provide such ideal conditions for sound transmission.

本明細書において企図する幾つかのキャリブレーション手順は、所定のリスニング環境において1つまたは複数の再生デバイスにより放出される音波(例えば、1つまたは複数のキャリブレーション音)を検出しかつ分析する録音デバイスを含む。リスニング環境内において伝播した音波を分析することによって、メディア再生システムは、リスニング環境が再生デバイスにより放出される音にどのように影響しているか、およびおそらくは、再生デバイスに与えるリスニング環境の影響を補う方法をも決定できる。例えば、メディア再生システムは、環境の音響効果を補うように再生デバイスの周波数応答を調整するキャリブレーションプロファイルを決定してもよい。   Some calibration procedures contemplated herein include recordings that detect and analyze sound waves (eg, one or more calibration sounds) emitted by one or more playback devices in a given listening environment. Includes devices. By analyzing the sound waves propagated within the listening environment, the media playback system compensates for how the listening environment affects the sound emitted by the playback device, and possibly the effect of the listening environment on the playback device. The method can also be determined. For example, the media playback system may determine a calibration profile that adjusts the frequency response of the playback device to compensate for environmental acoustic effects.

キャリブレーション中に生じる場合もあるエラー状態の可能性としては、1つまたは複数の再生デバイスがキャリブレーション音を放出する間の、リスニング環境内における録音デバイスの動きが不十分であることが含まれる。音響効果は、リスニング環境内の物理的場所毎に変わる可能性があることから、本明細書において企図する例示的なキャリブレーション手順は、1つまたは複数の再生デバイスがキャリブレーション音を放出する間に、リスニング環境内において録音デバイスを動かすことを提案できる。幾つかの例において、キャリブレーション音は、キャリブレーショントーンの周期的反復を含んでもよい。これは、個々の場所における環境の音響効果を表す「サンプル」を生成してもよい。移動するマイクロホンにより生成されるこのようなデータは、固定式のマイクロホンによるものよりも完全な環境音響効果の表現を提供してもよい。他のエラー状態の例としては、他の可能性の中でもとりわけ、バックグラウンドノイズのレベル、マイクロホンにより検出されるオーディオ信号の品質、1つまたは複数の再生デバイスと録音デバイスとの距離または録音デバイスの速度が挙げられる。   Possible error conditions that may occur during calibration include insufficient movement of the recording device within the listening environment while one or more playback devices emit calibration sounds. . Since acoustic effects can vary from physical location to physical location within the listening environment, the exemplary calibration procedure contemplated herein is performed while one or more playback devices emit calibration sounds. In addition, it can be proposed to move the recording device within the listening environment. In some examples, the calibration sound may include a periodic repetition of calibration tones. This may generate “samples” that represent the acoustic effects of the environment at individual locations. Such data generated by a moving microphone may provide a more complete representation of environmental acoustic effects than by a stationary microphone. Examples of other error conditions include, among other possibilities, the level of background noise, the quality of the audio signal detected by the microphone, the distance between one or more playback devices and the recording device, or the recording device's Speed.

キャリブレーションの間、録音デバイスは、1つまたは複数の(例えば、(再生デバイスに対して)垂直、水平および/または半径方向の)次元で、十分な移動が生じたかどうかを決定してもよい。(おそらくは、他のエラー状態が存在しないものとすると)録音デバイスがこのような次元で十分に移動されたキャリブレーションは、有効とされうる。逆に、これらの次元のうちの1つ以上における十分な移動の不在は、無効とされうる。1つまたは複数のエラー状態が検出される状況では、メディア再生システムは、エラー状態の種類に依存して、キャリブレーションを繰り返すように促しても、キャリブレーションの修正を試行してもよい。   During calibration, the recording device may determine whether sufficient movement has occurred in one or more (eg, vertical, horizontal and / or radial (relative to the playback device) dimensions. . A calibration where the recording device has been moved sufficiently in this dimension (perhaps assuming no other error conditions exist) may be valid. Conversely, the absence of sufficient movement in one or more of these dimensions can be invalidated. In situations where one or more error conditions are detected, the media playback system may prompt the calibration to repeat or attempt to correct the calibration, depending on the type of error condition.

録音デバイスの(または、マイクロホンが録音デバイスから分離されている実施形態では、マイクロホン自体の)動きを示すデータは、異なるソースから生成されうる。幾つかの実施形態において、録音デバイス上の(またはマイクロホン上にあって録音デバイスへ結合される)センサは、録音デバイスの加速を示すデータを生成してもよい。録音デバイスまたは再生デバイス上のカメラまたは他の種類のビジョンベース・システムは、環境内における録音デバイスの移動を示す映像データを生成してもよい。別の例として、音響データは、(例えば、再生デバイスから録音デバイスへの、またはその逆のオーディオ伝搬遅延を示すことによって)録音デバイスから再生デバイスへの半径方向距離を示してもよい。   Data indicating the movement of the recording device (or in the embodiment where the microphone is separate from the microphone itself) may be generated from different sources. In some embodiments, a sensor on the recording device (or on the microphone and coupled to the recording device) may generate data indicative of the acceleration of the recording device. A camera or other type of vision-based system on the recording or playback device may generate video data that indicates the movement of the recording device within the environment. As another example, the acoustic data may indicate a radial distance from the recording device to the playback device (eg, by indicating an audio propagation delay from the playback device to the recording device or vice versa).

幾つかの場合において、2つの次元における録音デバイスの移動を示す動きデータは、第3の次元における録音デバイスの動きを決定するために使用されることが可能である。例えば、センサは、(おそらくは、重力関連のデータを生成する加速度計から)録音デバイスの垂直方向の移動を示す動きデータを生成してもよく、かつ音響データは、録音デバイスの再生デバイスからの半径方向移動を示してもよい。このようなデータを相互相関することにより、メディア再生システムは、録音デバイスの第3の次元における動き(即ち、水平方向の動き)を表す水平動きパラメータを決定してもよい。この水平動きパラメータが相関閾値(最初の2つの次元における動きが十分に相関されないことを示す閾値)を超える場合、メディア再生システムは、キャリブレーション周期中に環境にわたって十分な水平移動が生じたものと推測することができる。   In some cases, motion data indicating movement of the recording device in the two dimensions can be used to determine the movement of the recording device in the third dimension. For example, the sensor may generate motion data indicating the vertical movement of the recording device (possibly from an accelerometer that generates gravity-related data), and the acoustic data is a radius from the playback device of the recording device. Directional movement may be indicated. By cross-correlating such data, the media playback system may determine a horizontal motion parameter that represents motion in the third dimension of the recording device (ie, horizontal motion). If this horizontal motion parameter exceeds a correlation threshold (threshold indicating that the motion in the first two dimensions is not fully correlated), the media playback system will assume that sufficient horizontal movement has occurred across the environment during the calibration period. Can be guessed.

エラー状態が識別されると、キャリブレーションプロセスは中断されてもよく、かつメディア再生システムは、キャリブレーションプロセスが中断されたことを示すメッセージを表示してもよい。幾つかの場合において、メディア再生システムは、キャリブレーションプロセスの中断を引き起こした識別されたエラー状態を示してもよい。メディア再生システムは、さらに、識別されたエラー状態をどのように修正するかについての提案を示してもよい。例えば、メッセージは、不十分な垂直移動が生じたこと、および、このエラー状態を、より多い量の録音デバイスを動かす、または録音デバイスをキャリブレーション周期のより長い部分にわたって動かすことにより回避できること、を示してもよい。メディア再生システムは、さらに、キャリブレーションプロセスを再開するため、またはキャリブレーションプロセスをキャンセルするための選択可能なオプションを表示してもよい。例としては、これら以外のものも可能である。   If an error condition is identified, the calibration process may be interrupted and the media playback system may display a message indicating that the calibration process has been interrupted. In some cases, the media playback system may indicate the identified error condition that caused the calibration process to be interrupted. The media playback system may further provide suggestions on how to correct the identified error condition. For example, the message may indicate that insufficient vertical movement has occurred and that this error condition can be avoided by moving a larger amount of recording device or moving the recording device over a longer portion of the calibration period. May be shown. The media playback system may also display selectable options for restarting the calibration process or canceling the calibration process. Other examples are possible as examples.

先に示したように、本開示は、1つまたは複数の再生デバイスをキャリブレーションする間に1つまたは複数のエラー状態を識別することを含む。ある態様では、録音デバイスが提供される。録音デバイスは、マイクロホンと、1つまたは複数のプロセッサと、1つまたは複数のプロセッサにより実行可能な命令であって、録音デバイスに動作を実行させる前記命令を内部に記憶している有形データ記憶装置とを含む。動作には、キャリブレーション周期中に所定の環境において再生デバイスがキャリブレーション音を放出しているという指示を受信することが含まれる。動作には、マイクロホンを介して、放出されるキャリブレーション音を含む音データを録音すること、および、キャリブレーション音放出中の録音デバイスの移動を示す動きデータを受信すること、も含まれる。動作には、キャリブレーション周期中に録音デバイスの十分な垂直移動が生じたと決定することがさらに含まれる。動作には、キャリブレーション周期中に録音デバイスの十分な水平移動が生じたと決定することと、キャリブレーション周期中に垂直方向および水平方向に録音デバイスの十分な移動が生じたという決定に基づいて、検出されたキャリブレーション音を基礎とするキャリブレーションを再生デバイスのオーディオステージに適用すること、が含まれる。   As indicated above, the present disclosure includes identifying one or more error conditions while calibrating one or more playback devices. In an aspect, a recording device is provided. A recording device includes a microphone, one or more processors, and an instruction executable by the one or more processors, the tangible data storage device storing therein the instructions for causing the recording device to perform an operation Including. The operation includes receiving an indication that the playback device is emitting a calibration sound in a predetermined environment during the calibration period. Operation also includes recording sound data including the emitted calibration sound via the microphone and receiving motion data indicating movement of the recording device during the emission of the calibration sound. The operation further includes determining that sufficient vertical movement of the recording device has occurred during the calibration period. The operation is based on determining that sufficient horizontal movement of the recording device has occurred during the calibration period and that sufficient movement of the recording device has occurred in the vertical and horizontal directions during the calibration period. Applying a calibration based on the detected calibration sound to the audio stage of the playback device.

別の態様では、方法を提供する。本方法は、キャリブレーション周期中に所定の環境において1つまたは複数の再生デバイスがキャリブレーション音を放出しているという指示を受信するステップを含む。本方法は、放出されたキャリブレーション音を録音するステップと、キャリブレーション音放出中の制御デバイスの移動を示す動きデータを受信するステップ、も含む。本方法は、さらに、制御デバイスの垂直方向の移動を示す、動きデータの第1の成分と、制御デバイスの1つまたは複数の再生デバイスからの各半径方向の移動を示す、動きデータの1つまたは複数の第2の成分とを識別するステップを含む。また、本方法は、制御デバイスの垂直方向の移動を示す動きデータの第1の成分と、制御デバイスの1つまたは複数の再生デバイスからの各半径方向の移動を示す動きデータの1つまたは複数の第2の成分とを相互相関することによって、環境内における制御デバイスの水平方向の動きを表す1つまたは複数の水平動きパラメータを決定するステップも含む。本方法は、環境内における水平方向の動きを表す水平動きパラメータの少なくとも1つが相関閾値を超えていると決定することによって、キャリブレーション周期中に制御デバイスの十分な水平移動が生じたことを決定するステップを含む。本方法は、キャリブレーション周期中に制御デバイスの十分な移動が生じたことを示すメッセージを送信するステップも含む。   In another aspect, a method is provided. The method includes receiving an indication that one or more playback devices are emitting a calibration sound in a predetermined environment during a calibration cycle. The method also includes recording the emitted calibration sound and receiving motion data indicating movement of the control device during the calibration sound emission. The method further includes a first component of motion data indicative of vertical movement of the control device and one of the motion data indicative of each radial movement of the control device from one or more playback devices. Or identifying a plurality of second components. The method also includes a first component of motion data indicative of vertical movement of the control device and one or more of motion data indicative of each radial movement of the control device from one or more playback devices. And determining one or more horizontal motion parameters representative of the horizontal movement of the control device within the environment by cross-correlating the second component of The method determines that sufficient horizontal movement of the control device has occurred during the calibration period by determining that at least one of the horizontal motion parameters representing horizontal motion in the environment exceeds a correlation threshold. Including the steps of: The method also includes sending a message indicating that sufficient movement of the control device has occurred during the calibration period.

別の態様では、非一時的コンピュータ読み取り可能媒体を提供する。非一時的コンピュータ読み取り可能媒体は、動作を実行するためにコンピュータ装置により実行可能な命令を記憶している。動作には、キャリブレーション周期中に所定の環境において再生デバイスがキャリブレーション音を放出しているという指示を受信することが含まれる。動作には、マイクロホンを介して、放出されるキャリブレーション音を含む音データを録音すること、および、キャリブレーション音放出中の録音デバイスの移動を示す動きデータを受信すること、も含まれる。動作には、キャリブレーション周期中に録音デバイスの十分な垂直移動が生じたと決定することがさらに含まれる。動作には、キャリブレーション周期中に録音デバイスの十分な水平移動が生じたと決定することと、キャリブレーション周期中に垂直方向および水平方向に録音デバイスの十分な移動が生じたという決定に基づいて、検出されたキャリブレーション音を基礎とするキャリブレーションを再生デバイスのオーディオステージに適用すること、が含まれる。   In another aspect, a non-transitory computer readable medium is provided. A non-transitory computer readable medium stores instructions executable by a computer device to perform an operation. The operation includes receiving an indication that the playback device is emitting a calibration sound in a predetermined environment during the calibration period. Operation also includes recording sound data including the emitted calibration sound via the microphone and receiving motion data indicating movement of the recording device during the emission of the calibration sound. The operation further includes determining that sufficient vertical movement of the recording device has occurred during the calibration period. The operation is based on determining that sufficient horizontal movement of the recording device has occurred during the calibration period and that sufficient movement of the recording device has occurred in the vertical and horizontal directions during the calibration period. Applying a calibration based on the detected calibration sound to the audio stage of the playback device.

さらに別の態様では、制御デバイスを提供する。制御デバイスは、1つまたは複数のプロセッサと、1つまたは複数のプロセッサにより実行可能な命令であって、録音デバイスに動作を実行させる前記命令を内部に記憶している有形データ記憶装置とを含む。動作には、キャリブレーション周期中に所定の環境において録音デバイスが1つまたは複数の再生デバイスにより放出されるキャリブレーション音を録音している間の、録音デバイスの移動を示す動きデータを受信することが含まれる。動作には、キャリブレーション周期中に録音デバイスの十分な垂直移動が生じたこと、およびキャリブレーション周期中に録音デバイスの十分な水平移動が生じたこと、を決定することも含まれる。動作には、キャリブレーション周期中、垂直方向および水平方向に録音デバイスの十分な移動が生じたことを示すメッセージを送信することがさらに含まれる。   In yet another aspect, a control device is provided. The control device includes one or more processors and a tangible data storage device having instructions stored therein that are executable by the one or more processors and that cause the recording device to perform an operation. . In operation, receiving motion data indicating movement of the recording device while the recording device is recording a calibration sound emitted by one or more playback devices in a given environment during the calibration period. Is included. The operation also includes determining that a sufficient vertical movement of the recording device has occurred during the calibration period and that a sufficient horizontal movement of the recording device has occurred during the calibration period. The operation further includes sending a message indicating that sufficient movement of the recording device has occurred in the vertical and horizontal directions during the calibration period.

ある態様では、方法を提供する。本方法は、キャリブレーション周期中に所定の環境において録音デバイスが1つまたは複数の再生デバイスにより放出されるキャリブレーション音を録音している間の、録音デバイスの移動を示す動きデータを受信するステップを含む。本方法は、キャリブレーション周期中に録音デバイスの十分な垂直移動が生じたこと、およびキャリブレーション周期中に録音デバイスの十分な水平移動が生じたこと、を決定するステップも含む。本方法は、さらに、キャリブレーション周期中、垂直方向および水平方向に録音デバイスの十分な移動が生じたことを示すメッセージを送信するステップを含む。   In certain aspects, a method is provided. The method receives motion data indicative of movement of a recording device while the recording device is recording a calibration sound emitted by one or more playback devices in a predetermined environment during a calibration period. including. The method also includes determining that a sufficient vertical movement of the recording device has occurred during the calibration period and that a sufficient horizontal movement of the recording device has occurred during the calibration period. The method further includes transmitting a message indicating that sufficient movement of the recording device has occurred in the vertical and horizontal directions during the calibration period.

別の態様では、非一時的コンピュータ読み取り可能媒体を提供する。非一時的コンピュータ読み取り可能媒体は、動作を実行するためにコンピュータ装置により実行可能な命令を記憶している。動作には、キャリブレーション周期中に所定の環境において録音デバイスが1つまたは複数の再生デバイスにより放出されるキャリブレーション音を録音している間の、録音デバイスの移動を示す動きデータを受信することが含まれる。動作には、キャリブレーション周期中に録音デバイスの十分な垂直移動が生じたこと、およびキャリブレーション周期中に録音デバイスの十分な水平移動が生じたこと、を決定することも含まれる。動作には、キャリブレーション周期中、垂直方向および水平方向に録音デバイスの十分な移動が生じたことを示すメッセージを送信することがさらに含まれる。   In another aspect, a non-transitory computer readable medium is provided. A non-transitory computer readable medium stores instructions executable by a computer device to perform an operation. In operation, receiving motion data indicating movement of the recording device while the recording device is recording a calibration sound emitted by one or more playback devices in a given environment during the calibration period. Is included. The operation also includes determining that a sufficient vertical movement of the recording device has occurred during the calibration period and that a sufficient horizontal movement of the recording device has occurred during the calibration period. The operation further includes sending a message indicating that sufficient movement of the recording device has occurred in the vertical and horizontal directions during the calibration period.

本明細書に記載の幾つかの例は、「ユーザ」及び/又は他の実体のような任意の主体によって行われる機能について言及するが、このことは単に例示目的であると理解されるべきである。特許請求の範囲は、特許請求の範囲自体の記載によって明示的に要請されない限り、そのような例示の主体の動作であることを要請するものと解釈されてはならない。当業者にとって、本開示には他の複数の実施形態が含まれることは理解されるであろう。   Although some examples described herein refer to functions performed by any entity, such as a “user” and / or other entity, this should be understood to be for illustrative purposes only. is there. The claims should not be construed as requiring the operation of such exemplary subject matter unless explicitly required by the recitation of the claims themselves. Those skilled in the art will appreciate that the present disclosure includes other embodiments.

II.動作環境の例
図1は、本明細書で開示されている1つ又は複数の実施形態で実施可能又は実装可能なメディア再生システム100の例示的な構成を示す。図示されるように、メディア再生システム100は、複数の部屋および空間、例えば、主寝室、オフィス、ダイニングルーム、およびリビングルームを有する例示的なホーム環境と関連付けられている。図1の例に示されるように、メディア再生システム100は、再生デバイス102−124、制御デバイス126および128、有線又は無線のネットワークルータ130を含む。
II. Exemplary Operating Environment FIG. 1 illustrates an exemplary configuration of a media playback system 100 that can be implemented or implemented with one or more embodiments disclosed herein. As shown, media playback system 100 is associated with an exemplary home environment having multiple rooms and spaces, eg, a master bedroom, an office, a dining room, and a living room. As shown in the example of FIG. 1, the media playback system 100 includes playback devices 102-124, control devices 126 and 128, and a wired or wireless network router 130.

更に、例示的なメディア再生システム100の異なる構成要素、および異なる構成要素がどのように作用してユーザにメディア体験を提供するかに関しての説明は、以下のセクションで述べられている。本明細書における説明は、概してメディア再生システム100を参照しているが、本明細書で述べられている技術は、図1に示されるホーム環境の用途に限定されるものではない。例えば、本明細書で述べられている技術は、マルチゾーンオーディオが望まれる環境、例えば、レストラン、モール、又は空港のような商業的環境、スポーツ用多目的車(SUV)、バス又は車のような車両、船、若しくはボード、飛行機などの環境において有益である。   In addition, descriptions of the different components of the exemplary media playback system 100 and how the different components work to provide a media experience to the user are described in the following sections. Although the description herein generally refers to the media playback system 100, the techniques described herein are not limited to the home environment application shown in FIG. For example, the techniques described herein can be used in environments where multi-zone audio is desired, such as commercial environments such as restaurants, malls, or airports, sports multipurpose vehicles (SUVs), buses or cars. Useful in environments such as vehicles, ships, boards or airplanes.

a.例示的な再生デバイス
図2は、図1のメディア再生システム100の再生デバイス102−124の1つ又は複数を構成する例示的な再生デバイス200の機能ブロック図を示す。再生デバイス200は、プロセッサ202、ソフトウェアコンポーネント204、メモリ206、オーディオ処理コンポーネント208、オーディオアンプ210、スピーカー212、マイクロホン220、およびネットワークインタフェース214を含んでもよい。ネットワークインタフェース214は、無線インタフェース216および有線インタフェース218を含む。ある場合では、再生デバイス200は、スピーカー212を含まないが、再生デバイス200を外部スピーカーに接続するためのスピーカーインタフェースを含んでいてもよい。別の場合では、再生デバイス200は、スピーカー212もオーディオアンプ210も含まないが、再生デバイス200を外部オーディオアンプ又はオーディオビジュアルレシーバーに接続するためのオーディオインタフェースを含んでもよい。
a. Exemplary Playback Device FIG. 2 shows a functional block diagram of an exemplary playback device 200 that constitutes one or more of the playback devices 102-124 of the media playback system 100 of FIG. The playback device 200 may include a processor 202, software component 204, memory 206, audio processing component 208, audio amplifier 210, speaker 212, microphone 220, and network interface 214. The network interface 214 includes a wireless interface 216 and a wired interface 218. In some cases, the playback device 200 does not include the speaker 212, but may include a speaker interface for connecting the playback device 200 to an external speaker. In other cases, the playback device 200 does not include the speaker 212 or the audio amplifier 210, but may include an audio interface for connecting the playback device 200 to an external audio amplifier or audiovisual receiver.

ある例では、プロセッサ202は、メモリ206に記憶された命令に基づいて、入力データを処理するように構成されたクロック駆動コンピュータコンポーネントであってもよい。メモリ206は、プロセッサ202によって実行可能な命令を記憶するように構成された非一時的なコンピュータ読み取り可能記録媒体であってもよい。例えば、メモリ206は、ある機能を実行するためにプロセッサ202によって実行可能なソフトウェアコンポーネント204の1つ又は複数をロードすることができるデータストレージであってもよい。ある例では、機能は、再生デバイス200がオーディオソース又は別の再生デバイスからオーディオデータを読み出すステップを含んでもよい。別の例では、機能は、再生デバイス200がネットワーク上の別のデバイス又は再生デバイスにオーディオデータを送信するステップを含んでもよい。更に別の例では、機能は、マルチチャンネルオーディオ環境を作るために、再生デバイス200と1つ又は複数の再生デバイスとをペアリングするステップを含んでもよい。   In one example, the processor 202 may be a clocked computer component configured to process input data based on instructions stored in the memory 206. The memory 206 may be a non-transitory computer readable recording medium configured to store instructions executable by the processor 202. For example, the memory 206 may be a data storage that can load one or more of the software components 204 executable by the processor 202 to perform certain functions. In one example, the function may include the playback device 200 reading audio data from an audio source or another playback device. In another example, the functionality may include the playback device 200 sending audio data to another device on the network or to a playback device. In yet another example, the functionality may include pairing the playback device 200 with one or more playback devices to create a multi-channel audio environment.

ある機能は、再生デバイス200が、1つ又は複数の他の再生デバイスと、オーディオコンテンツの再生を同期するステップを含む。再生を同期している間、再生デバイス200によるオーディオコンテンツの再生と1つ又は複数の他の再生デバイスによる再生との間の遅延を、リスナーが気づかないことが好ましい。「複数の独立クロックデジタルデータ処理デバイス間の動作を同期するシステムおよび方法」と題する米国特許第8,234,395号が本明細書に参照として援用されており、それは再生デバイス間のオーディオ再生を同期することが述べられたより詳細な例を提供している。   One feature includes the playback device 200 synchronizing the playback of audio content with one or more other playback devices. While synchronizing playback, it is preferred that the listener is unaware of the delay between playback of audio content by playback device 200 and playback by one or more other playback devices. US Pat. No. 8,234,395, entitled “System and Method for Synchronizing Operation Between Multiple Independent Clock Digital Data Processing Devices”, is incorporated herein by reference, which provides audio playback between playback devices. It provides a more detailed example where synchronization is stated.

更に、メモリ206は、データを記憶するように構成されていてもよい。データは、例えば、1つ又は複数のゾーンおよび/又はゾーングループに一部として含まれる再生デバイス200などの再生デバイス200、再生デバイス200によりアクセス可能なオーディオソース、又は再生デバイス200(又は他の再生デバイス)と関連付け可能な再生キュー、に関連付けられている。データは、定期的に更新され、再生デバイス200の状態を示す1つ又は複数の状態変数として記憶されてもよい。また、メモリ206は、メディアシステムの他のデバイスの状態と関連付けられたデータを含んでもよく、デバイス間で随時共有することによって、1つ又は複数のデバイスが、システムと関連するほぼ直近のデータを有してもよい。他の実施形態も可能である。   Further, the memory 206 may be configured to store data. The data may be, for example, a playback device 200, such as a playback device 200 included as part of one or more zones and / or zone groups, an audio source accessible by the playback device 200, or a playback device 200 (or other playback). Device) and a play queue that can be associated with the device. The data may be periodically updated and stored as one or more state variables that indicate the state of the playback device 200. The memory 206 may also include data associated with the status of other devices in the media system, which allows one or more devices to share the most recent data associated with the system from time to time. You may have. Other embodiments are possible.

オーディオ処理コンポーネント208は、とりわけ、1つ又は複数のデジタル−アナログ変換器(DAC)、アナログ−デジタル変換器(ADC)、オーディオ処理コンポーネント、オーディオ強化コンポーネント、及びデジタルシグナルプロセッサ(DSP)を含んでいてもよい。ある実施形態では、1つ又は複数のオーディオ処理コンポーネント208は、プロセッサ202のサブコンポーネントであってもよい。ある実施形態では、オーディオコンテンツが、オーディオ処理コンポーネント208によって処理および/又は意図的に変更されることによって、オーディオ信号を生成してもよい。生成されたオーディオ信号は、オーディオアンプ210に送信され、増幅され、スピーカー212を通じて再生される。特に、オーディオアンプ210は、1つ又は複数のスピーカー212を駆動できるレベルまでオーディオ信号を増幅するように構成されたデバイスを含んでもよい。スピーカー212は、独立した変換器(例えば、「ドライバ」)又は1つ又は複数のドライバを内包する筐体を含む完全なスピーカーシステムを備えてもよい。スピーカー212に備えられたあるドライバは、例えば、サブウーファー(例えば、低周波用)、ミドルレンジドライバ(例えば、中間周波用)、および/又はツイーター(高周波用)を含んでもよい。ある場合では、1つ又は複数のスピーカー212のそれぞれの変換器は、オーディオアンプ210の対応する個々のオーディオアンプによって駆動されてもよい。再生デバイス200で再生するアナログ信号を生成することに加えて、オーディオ処理コンポーネント208は、オーディオコンテンツを処理し、そのオーディオコンテンツを1つ又は複数の他の再生デバイスに再生させるために送信する。   Audio processing component 208 includes, among other things, one or more digital-to-analog converters (DACs), analog-to-digital converters (ADCs), audio processing components, audio enhancement components, and digital signal processors (DSPs). Also good. In some embodiments, one or more audio processing components 208 may be a subcomponent of processor 202. In some embodiments, audio content may be processed and / or deliberately modified by the audio processing component 208 to generate an audio signal. The generated audio signal is transmitted to the audio amplifier 210, amplified, and reproduced through the speaker 212. In particular, the audio amplifier 210 may include a device configured to amplify the audio signal to a level that can drive one or more speakers 212. The speaker 212 may comprise a complete speaker system including an independent transducer (eg, a “driver”) or a housing that contains one or more drivers. Some drivers provided in the speaker 212 may include, for example, a subwoofer (eg, for low frequency), a middle range driver (eg, for intermediate frequency), and / or a tweeter (for high frequency). In some cases, each transducer of one or more speakers 212 may be driven by a corresponding individual audio amplifier of audio amplifier 210. In addition to generating analog signals for playback on playback device 200, audio processing component 208 processes the audio content and transmits the audio content for playback by one or more other playback devices.

再生デバイス200によって処理および/又は再生されるオーディオコンテンツは、外部ソース、例えば、オーディオライン−イン入力接続(例えば、オートディテクティング3.5mmオーディオラインイン接続)又はネットワークインタフェース214を介して、受信されてもよい。   Audio content that is processed and / or played by the playback device 200 is received via an external source, eg, an audio line-in input connection (eg, an auto-detecting 3.5 mm audio line-in connection) or the network interface 214. May be.

マイクロホン220は、検出されたサウンドを電気信号に変換するように構成されたオーディオセンサを含んでもよい。電気信号は、オーディオ処理コンポーネント208及び/又はプロセッサ202によって処理されうる。マイクロホン220は、再生デバイス200における1つ又は複数の位置において1つ又は複数の向きに配置されうる。マイクロホン220は、1つ又は複数の周波数レンジ内のサウンドを検出するように構成されうる。ある場合では、1つ又は複数のマイクロホン220は、再生デバイス200が可能であるか又はレンダリングしているオーディオの周波数レンジ内のサウンドを検出するように構成されうる。別の場合では、1つ又は複数のマイクロホン220は、人間の可聴周波数レンジ内のサウンドを検出するように構成されてもよい。他の例もまた可能である。   The microphone 220 may include an audio sensor configured to convert the detected sound into an electrical signal. The electrical signal may be processed by audio processing component 208 and / or processor 202. The microphone 220 can be arranged in one or more orientations at one or more positions in the playback device 200. Microphone 220 may be configured to detect sound within one or more frequency ranges. In some cases, the one or more microphones 220 may be configured to detect sound within the frequency range of audio that the playback device 200 is capable of or rendering. In another case, the one or more microphones 220 may be configured to detect sound within the human audible frequency range. Other examples are also possible.

ネットワークインタフェース214は、データネットワーク上で再生デバイス200と1つ又は複数の他のデバイスとの間のデータフローを可能にするように構成されてもよい。このように、再生デバイス200は、再生デバイスと通信する1つ又は複数の他の再生デバイス、ローカルエリアネットワーク内のネットワークデバイス、又は例えば、インターネット等のワイドエリアネットワーク上のオーディオコンテンツソースから、データネットワークを介してオーディオコンテンツを受信するように構成されていてもよい。ある例では、再生デバイス200によって送信および受信されたオーディオコンテンツおよび他の信号は、インターネットプロトコル(IP)に基づくソースアドレスおよびIPに基づく宛先アドレスを含むデジタルパケットの形で送信されてもよい。そのような場合、ネットワークインタフェース214は、デジタルパケットデータを解析することによって、再生デバイス200宛てのデータを、再生デバイス200によって適切に受信して処理することができる。   The network interface 214 may be configured to allow data flow between the playback device 200 and one or more other devices over a data network. In this way, the playback device 200 can receive data from one or more other playback devices that communicate with the playback device, a network device in a local area network, or an audio content source on a wide area network such as, for example, the Internet. May be configured to receive audio content over the network. In one example, audio content and other signals transmitted and received by playback device 200 may be transmitted in the form of a digital packet that includes a source address based on Internet Protocol (IP) and a destination address based on IP. In such a case, the network interface 214 can appropriately receive and process data addressed to the playback device 200 by analyzing the digital packet data.

図示されるように、ネットワークインタフェース214は、無線インタフェース216と有線インタフェース218とを含んでもよい。無線インタフェース216は、再生デバイス200用のネットワークインタフェース機能を提供し、通信プロトコル(例えば、無線規格IEEE802.11a、802.11b、802.11g、802.11n、802.11ac、802.15、4Gモバイル通信基準などを含む無線基準(規格)のいずれか)に基づいて、他のデバイス(例えば、再生デバイス200に関連付けられたデータネットワーク内の他の再生デバイス、スピーカー、レシーバー、ネットワークデバイス、制御デバイス)と無線通信してもよい。有線インタフェース218は、再生デバイス200用のネットワークインタフェース機能を提供し、通信プロトコル(例えば、IEEE802.3)に基づいて他のデバイスとの有線接続を介して通信してもよい。図2に示されるネットワークインタフェース214は、無線インタフェース216と有線インタフェース218との両方を含んでいるが、ネットワークインタフェース214は、ある実施形態において、無線インタフェースのみか、又は有線インタフェースのみを含んでいてもよい。   As shown, the network interface 214 may include a wireless interface 216 and a wired interface 218. The wireless interface 216 provides a network interface function for the playback device 200 and a communication protocol (eg, wireless standards IEEE 802.11a, 802.11b, 802.11g, 802.11n, 802.11ac, 802.15, 4G mobile Other devices (eg, other playback devices, speakers, receivers, network devices, control devices in the data network associated with playback device 200) based on any of the wireless standards (standards) including communication standards, etc. And wireless communication. The wired interface 218 may provide a network interface function for the playback device 200 and may communicate with other devices via a wired connection based on a communication protocol (eg, IEEE 802.3). Although the network interface 214 shown in FIG. 2 includes both a wireless interface 216 and a wired interface 218, the network interface 214 may include only a wireless interface or only a wired interface in some embodiments. Good.

ある例では、再生デバイス200と他の再生デバイスとは、ペアにされて、オーディオコンテンツの2つの別々のオーディオコンポーネントを再生してもよい。例えば、再生デバイス200は、左チャンネルオーディオコンポーネントを再生するように構成される一方、他の再生デバイスは、右チャンネルオーディオコンポーネントを再生するように構成されてもよい。これにより、オーディオコンテンツのステレオ効果を生成するか、又は強化することができる。ペアにされた再生デバイス(「結合再生デバイス」とも言う)は、更に、他の再生デバイスと同期してオーディオコンテンツを再生してもよい。   In one example, playback device 200 and another playback device may be paired to play two separate audio components of audio content. For example, playback device 200 may be configured to play a left channel audio component while other playback devices may be configured to play a right channel audio component. This can generate or enhance the stereo effect of the audio content. Paired playback devices (also referred to as “combined playback devices”) may further play audio content in synchronization with other playback devices.

別の例では、再生デバイス200は、1つ又は複数の他の再生デバイスと音響的に統合され、単一の統合された再生デバイス(統合再生デバイス)を形成してもよい。統合再生デバイスは、統合されていない再生デバイス又はペアにされた再生デバイスと比べて、サウンドの処理や再現を異なるように構成することができる。なぜならば、統合再生デバイスは、オーディオコンテンツを再生するスピーカー追加することができるからである。例えば、再生デバイス200が、低周波レンジのオーディオコンテンツを再生するように設計されている場合(例えば、サブウーファー)、再生デバイス200は、全周波数レンジのオーディオコンテンツを再生するように設計された再生デバイスと統合されてもよい。この場合、全周波数レンジの再生デバイスは、低周波の再生デバイス200と統合されたとき、オーディオコンテンツの中高周波コンポーネントのみを再生するように構成されてもよい。一方で低周波レンジの再生デバイス200は、オーディオコンテンツの低周波コンポーネントを再生する。更に、統合再生デバイスは、単一の再生デバイス、又は更に他の統合再生デバイスとペアにされてもよい。   In another example, playback device 200 may be acoustically integrated with one or more other playback devices to form a single integrated playback device (integrated playback device). The integrated playback device can be configured to differ in sound processing and reproduction compared to non-integrated playback devices or paired playback devices. This is because the integrated playback device can add a speaker for playing back audio content. For example, if the playback device 200 is designed to play audio content in the low frequency range (eg, a subwoofer), the playback device 200 will play back designed to play audio content in the full frequency range. It may be integrated with the device. In this case, the playback device for the entire frequency range may be configured to play back only the medium and high frequency components of the audio content when integrated with the low frequency playback device 200. On the other hand, the low frequency range playback device 200 plays back the low frequency component of the audio content. Further, the integrated playback device may be paired with a single playback device or yet another integrated playback device.

例として、現在、ソノズ・インコーポレイテッドは、「PLAY:1」、「PLAY:3」、「PLAY:5」、「PLAYBAR」、「CONNECT:AMP」、「CONNECT」、および「SUB」を含む再生デバイスを販売提供している。他の過去、現在、および/又は将来のいずれの再生デバイスにおいても、追加的に又は代替的に本明細書で開示された実施例の再生デバイスに実装して使用することができる。更に、再生デバイスは、図2に示された特定の例又は提供されるソノズ製品に限定されないことは理解される。例えば、再生デバイスは、有線又は無線のヘッドホンを含んでもよい。別の例では、再生デバイスは、パーソナルモバイルメディア再生デバイス用のドッキングステーションを含むか、又は、それらと対話してもよい。更に別の例では、再生デバイスは、別のデバイス又はコンポーネント、例えば、テレビ、照明器具、又は屋内又は屋外で使用するためのいくつかの他のデバイスと一体化されてもよい。   As an example, currently Sonos Incorporated includes “PLAY: 1”, “PLAY: 3”, “PLAY: 5”, “PLAYBAR”, “CONNECT: AMP”, “CONNECT”, and “SUB”. I sell devices. In any other past, present, and / or future playback devices, the playback devices of the embodiments disclosed herein may be additionally or alternatively implemented and used. Further, it is understood that the playback device is not limited to the specific example shown in FIG. 2 or the provided Sonoz product. For example, the playback device may include wired or wireless headphones. In another example, the playback device may include or interact with a docking station for a personal mobile media playback device. In yet another example, the playback device may be integrated with another device or component, such as a television, luminaire, or some other device for indoor or outdoor use.

b.例示的な再生ゾーン構成
図1のメディア再生システム100に戻って、環境は、1つ又は複数の再生ゾーンを有しており、それぞれの再生ゾーンは1つ又は複数の再生デバイスを含んでいる。メディア再生システム100は、1つ又は複数の再生ゾーンで形成されており、後で1つ又は複数のゾーンが追加又は削除して、図1に示す例示的な構成としてもよい。それぞれのゾーンは、異なる部屋又は空間、例えば、オフィス、浴室、主寝室、寝室、キッチン、ダイニングルーム、リビングルーム、および/又はバルコニーに基づく名前が与えられてもよい。ある場合では、単一の再生ゾーンは複数の部屋又は空間を含んでいてもよい。別の場合では、単一の部屋又は空間は、複数の再生ゾーンを含んでいてもよい。
b. Exemplary Playback Zone Configuration Returning to the media playback system 100 of FIG. 1, the environment has one or more playback zones, each playback zone including one or more playback devices. The media playback system 100 is formed by one or a plurality of playback zones, and one or a plurality of zones may be added or deleted later to form the exemplary configuration shown in FIG. Each zone may be given a name based on a different room or space, eg, office, bathroom, master bedroom, bedroom, kitchen, dining room, living room, and / or balcony. In some cases, a single playback zone may include multiple rooms or spaces. In other cases, a single room or space may include multiple playback zones.

図1に示されるように、バルコニー、ダイニングルーム、キッチン、浴室、オフィス、および寝室のゾーンのそれぞれは、1つの再生デバイスを有する一方、リビングルームおよび主寝室のゾーンのそれぞれは、複数の再生デバイスを有する。リビングルームゾーンは、再生デバイス104、106、108、および110が、別々の再生デバイスとしてか、1つ又は複数の結合再生デバイスとしてか、1つ又は複数の統合再生デバイスとしてか、又はこれらのいずれかの組み合わせで、オーディオコンテンツを同期して再生するように構成されてもよい。同様に、主寝室の場合では、再生デバイス122および124が、別々の再生デバイスとしてか、結合再生デバイスとしてか、又は統合再生デバイスとして、オーディオコンテンツを同期して再生するように構成されてもよい。   As shown in FIG. 1, each of the balcony, dining room, kitchen, bathroom, office, and bedroom zones has one playback device, while each of the living room and master bedroom zones has multiple playback devices. Have The living room zone is where the playback devices 104, 106, 108, and 110 are either as separate playback devices, as one or more combined playback devices, as one or more integrated playback devices, or any of these In such a combination, the audio content may be played back synchronously. Similarly, in the case of a master bedroom, playback devices 122 and 124 may be configured to play audio content synchronously as separate playback devices, as combined playback devices, or as an integrated playback device. .

ある例では、図1の環境における1つ又は複数の再生ゾーンは、それぞれ異なるオーディオコンテンツを再生している。例えば、ユーザは、バルコニーゾーンでグリルしながら、再生デバイス102によって再生されるヒップホップ音楽を聞くことができる。一方、別のユーザは、キッチンゾーンで食事を準備しながら、再生デバイス114によって再生されるクラシック音楽を聞くことができる。別の例では、再生ゾーンは、同じオーディオコンテンツを別の再生ゾーンと同期して再生してもよい。例えば、ユーザがオフィスゾーンにいる場合、オフィスゾーンの再生デバイス118が、バルコニーの再生デバイス102で再生されている音楽と同じ音楽を再生してもよい。そのような場合、再生デバイス102および118は、ロック音楽を同期して再生しているため、ユーザは、異なる再生ゾーン間を移動してもアウト−ラウドで再生されるオーディオコンテンツをシームレス(又は少なくともほぼシームレス)に楽しむことができる。再生ゾーン間の同期は、前述の米国特許第8,234,395号で述べられているような再生デバイス間の同期と同様の方法で行ってもよい。   In one example, one or more playback zones in the environment of FIG. 1 are playing different audio content. For example, a user can listen to hip-hop music played by the playback device 102 while grilling in a balcony zone. On the other hand, another user can listen to classical music played by the playback device 114 while preparing a meal in the kitchen zone. In another example, the playback zone may play the same audio content in synchronization with another playback zone. For example, if the user is in the office zone, the playback device 118 in the office zone may play the same music that is played on the playback device 102 on the balcony. In such a case, since the playback devices 102 and 118 are playing rock music synchronously, the user can seamlessly (or at least at least) play audio content that is played out-loud even when moving between different playback zones. It can be enjoyed almost seamlessly. Synchronization between playback zones may be performed in a manner similar to synchronization between playback devices as described in the aforementioned US Pat. No. 8,234,395.

上述したように、メディア再生システム100のゾーン構成は、動的に変更してもよく、ある実施形態では、メディア再生システム100は、複数の構成をサポートする。例えば、ユーザが1つ又は複数の再生デバイスを、物理的にゾーンに移動させるか、又はゾーンから移動させる場合、メディア再生システム100は変更に対応するように再構成されてもよい。例えば、ユーザが再生デバイス102をバルコニーゾーンからオフィスゾーンに物理的に移動させる場合、オフィスゾーンは、再生デバイス118と再生デバイス102との両方を含んでもよい。必要に応じて、制御デバイス、例えば制御デバイス126と128とを介して、再生デバイス102が、ペアにされるか、又はオフィスゾーンにグループ化されるか、および/又はリネームされてもよい。一方、1つ又は複数の再生デバイスが、再生ゾーンを未だ設定していないホーム環境において、ある領域に移動させられた場合、新しい再生ゾーンがその領域に形成されてもよい。   As described above, the zone configuration of the media playback system 100 may change dynamically, and in some embodiments, the media playback system 100 supports multiple configurations. For example, if the user physically moves one or more playback devices to or from the zone, the media playback system 100 may be reconfigured to accommodate the change. For example, if the user physically moves playback device 102 from a balcony zone to an office zone, the office zone may include both playback device 118 and playback device 102. As desired, playback devices 102 may be paired or grouped into an office zone and / or renamed via a control device, eg, control devices 126 and 128. On the other hand, if one or more playback devices are moved to a certain area in a home environment where a playback zone has not yet been set, a new playback zone may be formed in that area.

更に、メディア再生システム100の異なる再生ゾーンは、動的にゾーングループに組み合わされてもよいし、又は別々の再生ゾーンに分割されてもよい。例えば、ダイニングルームゾーンとキッチンゾーン114とがディナーパーティ用のゾーングループに組み合わされることによって、再生デバイス112と114とがオーディオコンテンツを同期して再生することができる。一方、あるユーザがテレビを見たい一方、他のユーザがリビングルーム空間の音楽を聞きたい場合、リビングルームゾーンが、再生デバイス104を含むテレビゾーンと、再生デバイス106、108および110を含むリスニングゾーンと、に分けられてもよい。   Furthermore, the different playback zones of the media playback system 100 may be dynamically combined into zone groups or may be divided into separate playback zones. For example, the dining room zone and the kitchen zone 114 are combined into a dinner party zone group so that the playback devices 112 and 114 can play back audio content in synchronization. On the other hand, if one user wants to watch television while another user wants to listen to music in the living room space, the living room zone includes a television zone that includes the playback device 104 and a listening zone that includes the playback devices 106, 108, and 110. And may be divided into

c.例示的な制御デバイス
図3は、メディア再生システム100の制御デバイス126と128とうちの一方又は両方を構成する例示的な制御デバイス300の機能ブロック図を示す。図示されるように、制御デバイス300は、プロセッサ302、メモリ304、ネットワークインタフェース306、ユーザインタフェース308、及びマイクロホン310を含んでもよい。ある例では、制御デバイス300は、メディア再生システム100専用の制御デバイスであってもよい。別の例では、制御デバイス300は、メディア再生システムコントローラアプリケーションソフトウェアをインストールされたネットワークデバイス、例えば、iPhone(登録商標)、iPad(登録商標)、又は任意の他のスマートフォン、タブレットあるいはネットワークデバイス(例えば、PC又はMac(登録商標)などのネットワークコンピュータ)であってもよい。
c. Exemplary Control Device FIG. 3 shows a functional block diagram of an exemplary control device 300 that constitutes one or both of the control devices 126 and 128 of the media playback system 100. As shown, the control device 300 may include a processor 302, a memory 304, a network interface 306, a user interface 308, and a microphone 310. In an example, the control device 300 may be a control device dedicated to the media playback system 100. In another example, the control device 300 may be a network device installed with media playback system controller application software, such as iPhone®, iPad®, or any other smartphone, tablet or network device (eg, , A network computer such as a PC or Mac (registered trademark).

プロセッサ302は、メディア再生システム100のユーザアクセス、コントロール、および構成を可能にすることに関する機能を実行するように構成されてもよい。メモリ304は、プロセッサ302によって実行可能な命令を記憶し、それらの機能を実行するように構成されていてもよい。また、メモリ304は、メディア再生システムコントローラアプリケーションソフトウェアと、メディア再生システム100とユーザとに関連付けられた他のデータを記憶するように構成されていてもよい。   The processor 302 may be configured to perform functions relating to enabling user access, control, and configuration of the media playback system 100. The memory 304 may be configured to store instructions executable by the processor 302 and perform those functions. The memory 304 may also be configured to store media playback system controller application software and other data associated with the media playback system 100 and the user.

マイクロホン310は、検出されたサウンドを電気信号に変換するように構成されたオーディオセンサを含んでもよい。電気信号は、プロセッサ302によって処理されうる。ある場合では、制御デバイス300が音声通信又は音声録音のための手段として使用されることもできるデバイスである場合、1つ又は複数のマイクロホン310は、それらの機能を容易にするマイクロホンであってもよい。例えば、1つ又は複数のマイクロホン310は、人間が生成可能な周波数レンジ及び/又は人間の可聴周波数レンジ内のサウンドを検出するように構成されうる。他の例もまた可能である。   Microphone 310 may include an audio sensor configured to convert the detected sound into an electrical signal. The electrical signal can be processed by the processor 302. In some cases, where the control device 300 is a device that can also be used as a means for voice communication or voice recording, the one or more microphones 310 may be microphones that facilitate their functions. Good. For example, the one or more microphones 310 may be configured to detect sound within a human-generated frequency range and / or a human audible frequency range. Other examples are also possible.

ある例では、ネットワークインタフェース306は、工業規格(例えば、赤外線、無線、IEEE802.3などの有線規格、IEEE802.11a、802.11b、802.11g、802.11n、802.11ac、802.15などの無線規格、4G通信規格など)に基づいてもよい。ネットワークインタフェース306においては、制御デバイス300がメディア再生システム100内の他のデバイスと通信するための手段を提供してもよい。ある例では、データおよび情報(例えば、状態変数)は、ネットワークインタフェース306を介して制御デバイス300と他のデバイスとの間で通信されてもよい。例えば、メディア再生システム100における再生ゾーンおよびゾーングループの構成は、制御デバイス300によって、再生デバイス又は別のネットワークデバイスから受信されてもよいし、あるいは制御デバイス300によって、ネットワークインタフェース306を介して別の再生デバイス又はネットワークデバイスに送信されてもよい。ある場合では、他のネットワークデバイスは、別の制御デバイスであってもよい。   In one example, the network interface 306 may be an industry standard (eg, infrared, wireless, wired standards such as IEEE 802.3, IEEE 802.11a, 802.11b, 802.11g, 802.11n, 802.11ac, 802.15, etc. Wireless standards, 4G communication standards, etc.). In network interface 306, control device 300 may provide a means for communicating with other devices in media playback system 100. In certain examples, data and information (eg, state variables) may be communicated between the control device 300 and other devices via the network interface 306. For example, the configuration of playback zones and zone groups in the media playback system 100 may be received by the control device 300 from the playback device or another network device, or may be different by the control device 300 via the network interface 306. It may be sent to a playback device or network device. In some cases, the other network device may be another control device.

ボリュームコントロールおよびオーディオ再生コントロールなどの再生デバイス制御コマンドは、ネットワークインタフェース306を介して制御デバイス300から再生デバイスに通信されてもよい。上述したように、メディア再生システム100の構成の変更は、ユーザにより制御デバイス300を用いて行うことができる。構成の変更は、1つ又は複数の再生デバイスをゾーンに追加すること、1つ又は複数の再生デバイスをゾーンから取り除くこと、1つ又は複数のゾーンをゾーングループに追加すること、1つ又は複数のゾーンをゾーングループから取り除くこと、結合プレーヤー又は統合プレーヤーを形成すること、結合プレーヤー又は統合プレーヤーから1つ又は複数の再生デバイスに分けることなどを含んでもよい。このように、制御デバイス300は、コントローラと呼ばれてもよく、制御デバイス300は、メディア再生システムコントローラアプリケーションソフトウェアをインストールした専用のコントローラか、又はネットワークデバイスであってもよい。   Playback device control commands such as volume control and audio playback control may be communicated from the control device 300 to the playback device via the network interface 306. As described above, the configuration of the media playback system 100 can be changed by the user using the control device 300. Configuration changes may include adding one or more playback devices to a zone, removing one or more playback devices from a zone, adding one or more zones to a zone group, one or more Removing a zone from the zone group, forming a combined player or integrated player, dividing the combined player or integrated player into one or more playback devices, and the like. Thus, the control device 300 may be referred to as a controller, and the control device 300 may be a dedicated controller that has installed the media playback system controller application software or a network device.

制御デバイス300のユーザインタフェース308は、図4に示されるコントローラインタフェース400などのようなコントローラインタフェースを提供することによって、メディア再生システム100のユーザアクセスおよび制御を可能にするように構成されていてもよい。コントローラインタフェース400は、再生制御領域410、再生ゾーン領域420、再生ステータス領域430、再生キュー領域440、およびオーディオコンテンツソース領域450を含む。図示されるユーザインタフェース400は、図3の制御デバイス300などのようなネットワークデバイス(および/又は図1の制御デバイス126および128)を設けられたユーザインタフェースの単なる一例であって、ユーザによってメディア再生システム100などのようなメディア再生システムを制御するためにアクセスされるものである。あるいは、様々なフォーマット、スタイル、および対話型シーケンスを他のユーザのインタフェースを1つ又は複数のネットワークデバイスに実装し、メディア再生システムへ類似の制御アクセスを提供してもよい。   The user interface 308 of the control device 300 may be configured to allow user access and control of the media playback system 100 by providing a controller interface, such as the controller interface 400 shown in FIG. . The controller interface 400 includes a playback control area 410, a playback zone area 420, a playback status area 430, a playback queue area 440, and an audio content source area 450. The illustrated user interface 400 is merely one example of a user interface provided with a network device (and / or the control devices 126 and 128 of FIG. 1), such as the control device 300 of FIG. 3, for media playback by the user. It is accessed to control a media playback system such as system 100. Alternatively, various formats, styles, and interactive sequences may be implemented with other user interfaces on one or more network devices to provide similar control access to the media playback system.

再生制御領域410は、(例えば、タッチ又はカーソルを用いることで)選択可能なアイコンを含んでもよい。このアイコンによって、選択された再生ゾーン又はゾーングループ内の再生デバイスが、再生又は停止、早送り、巻き戻し、次にスキップ、前にスキップ、シャッフルモードのオン/オフ、リピートモードのオン/オフ、クロスフェードモードのオン/オフを行う。再生制御領域410は、別の選択可能なアイコンを含んでもよい。別の選択可能なアイコンは、イコライゼーション設定、再生ボリュームなど他の設定などを変更してもよい。   The playback control area 410 may include selectable icons (eg, by using a touch or a cursor). This icon allows playback devices in the selected playback zone or zone group to play or stop, fast forward, rewind, then skip, skip forward, shuffle mode on / off, repeat mode on / off, cross Turn fade mode on / off. The playback control area 410 may include another selectable icon. Another selectable icon may change other settings such as equalization settings, playback volume, and the like.

再生ゾーン領域420は、メディア再生システム100内の再生ゾーンの表示を含んでもよい。ある実施形態では、再生ゾーンのグラフィック表示が選択可能であってもよい。追加の選択可能なアイコンを移動させることによって、メディア再生システム内の再生ゾーンを管理又は構成することができる。例えば、結合ゾーンの作成、ゾーングループの作成、ゾーングループの分割、およびゾーングループのリネームなど他の管理又は構成を行うことができる。   The playback zone area 420 may include a display of playback zones within the media playback system 100. In some embodiments, a graphical display of the playback zone may be selectable. By moving additional selectable icons, playback zones within the media playback system can be managed or configured. For example, other management or configuration can be performed, such as creating a combined zone, creating a zone group, dividing a zone group, and renaming a zone group.

例えば、図示されるように、「グループ」アイコンは、再生ゾーンのグラフィック表示のそれぞれに設けられてもよい。あるゾーンのグラフィック表示内の「グループ」アイコンは、メディア再生システム内の1つ又は複数のゾーンを選択して、あるゾーンとグループ化するオプションを出せるように選択可能であってもよい。一度グループ化すると、あるゾーンとグループ化されたゾーン内の再生デバイスは、あるゾーン内の再生デバイスと同期してオーディオコンテンツを再生するように構成される。同様に、「グループ」アイコンは、ゾーングループのグラフィック表示内に設けられてもよい。この場合、「グループ」アイコンは、ゾーングループ内の1つ又は複数のゾーンをゾーングループから取り除くために、ゾーングループ内の1つ又は複数のゾーンを選択から外すというオプションを出すように選択可能であってもよい。ユーザインタフェース400等のユーザインタフェースを介してゾーンをグループ化およびグループ解除するための他の対話をすることも可能であるし、実施することも可能である。再生ゾーン領域420内の再生ゾーンの表示は、再生ゾーン又はゾーングループ構成が変更されると、動的に更新されてもよい。   For example, as shown, a “group” icon may be provided for each graphic display of the playback zone. A “group” icon in a graphical representation of a zone may be selectable to allow selection of one or more zones in the media playback system and the option to group with a zone. Once grouped, a playback device in a zone grouped with a zone is configured to play audio content in synchronization with the playback device in the zone. Similarly, a “group” icon may be provided in the graphic display of the zone group. In this case, the “Group” icon can be selected to give the option to deselect one or more zones in the zone group to remove one or more zones in the zone group from the zone group. There may be. Other interactions for grouping and ungrouping zones may be possible and implemented via a user interface, such as user interface 400. The display of the playback zone in the playback zone area 420 may be updated dynamically as the playback zone or zone group configuration is changed.

再生ステータス領域430は、現在再生されているオーディオコンテンツ、前に再生されたオーディオコンテンツ、又は選択された再生ゾーン又はゾーングループ内で次に再生するように予定されているオーディオコンテンツ、のグラフィック表示を含んでもよい。選択可能な再生ゾーン又は再生グループは、ユーザインタフェース上で、例えば、再生ゾーン領域420および/又は再生ステータス領域430内で視覚的に区別されてもよい。グラフィック表示は、トラックタイトル、アーティスト名、アルバム名、アルバム年、トラックの長さ、およびメディア再生システムを、ユーザインタフェース400を介して制御するときに、ユーザにとって有益な他の関連情報を含んでいてもよい。   The playback status area 430 provides a graphical representation of the currently played audio content, the previously played audio content, or the audio content scheduled to be played next in the selected playback zone or zone group. May be included. The selectable playback zones or playback groups may be visually distinguished on the user interface, for example, within playback zone area 420 and / or playback status area 430. The graphical display includes track title, artist name, album name, album year, track length, and other relevant information useful to the user when controlling the media playback system via the user interface 400. Also good.

再生キュー領域440は、選択された再生ゾーン又はゾーングループと関連付けられた再生キュー内のオーディオコンテンツのグラフィック表示を含んでもよい。ある実施形態では、それぞれの再生ゾーン又はゾーングループは、再生ゾーン又は再生グループによって再生される0以上のオーディオアイテムに対応する情報を含む再生キューと関連付けられていてもよい。例えば、再生キュー内のそれぞれのオーディオアイテムは、ユー・アール・アイ(URI)、ユー・アール・エル(URL)、又は再生ゾーン又はゾーングループ内の再生デバイスによって使用可能な他の識別子を含んでいてもよい。これらによって、ローカルオーディオコンテンツソース又はネットワークオーディオコンテンツソース、からオーディオアイテムを見つけ、および/又は取り出し、再生デバイスによって再生することができる。   The playback queue area 440 may include a graphical representation of the audio content in the playback queue associated with the selected playback zone or zone group. In some embodiments, each playback zone or zone group may be associated with a playback queue that includes information corresponding to zero or more audio items played by the playback zone or playback group. For example, each audio item in the playback queue includes a UR (URI), a URL (URL), or other identifier that can be used by a playback device in a playback zone or zone group. May be. These allow audio items to be found and / or retrieved from a local audio content source or a network audio content source and played by a playback device.

ある例では、プレイリストが再生キューに追加されてもよい。この場合、プレイリスト内のそれぞれのオーディオアイテムに対応する情報が再生キューに追加されてもよい。別の例では、再生キュー内のオーディオアイテムは、プレイリストとして保存されてもよい。更に別の例では、再生デバイスがストリーミングオーディオコンテンツ、例えば、再生時間を有することで連続して再生されないオーディオアイテムよりも、停止しない限り連続して再生されるインターネットラジオを再生し続けているとき、再生キューは、空であってもよいし、又は「未使用」であるが埋められていてもよい。別の実施形態では、再生キューは、インターネットラジオおよび/又は他のストリーミングオーディオコンテンツアイテムを含むことができ、且つ再生ゾーン又はゾーングループがそれらのアイテムを再生しているとき「使用中」とすることができる。他の例も可能である。   In one example, a playlist may be added to the playback queue. In this case, information corresponding to each audio item in the playlist may be added to the reproduction queue. In another example, audio items in the play queue may be saved as a playlist. In yet another example, when the playback device continues to play streaming audio content, e.g., an audio item that does not play continuously due to having a playback time, it continues to play continuously unless it stops. The play queue may be empty, or may be “unused” but filled. In another embodiment, the playback queue can include Internet radio and / or other streaming audio content items and is “in use” when a playback zone or zone group is playing those items. Can do. Other examples are possible.

再生ゾーン又はゾーングループが「グループ化される」か、又は「グループ解除」されるとき、影響を受ける再生ゾーン又はゾーングループに関連付けられた再生キューは、クリアされてもよいし、又は再び関連付けられてもよい。例えば、第1再生キューを含む第1再生ゾーンが、第2再生キューを含む第2再生ゾーンとグループ化された場合、形成されたゾーングループは、関連付けられた再生キューを有していてもよい。関連付けられた再生キューは、最初は空であるか、(例えば、第2再生ゾーンが第1再生ゾーンに追加された場合、)第1再生キューのオーディオアイテムを含むか、(例えば、第1再生ゾーンが第2再生ゾーンに追加された場合、)第2再生キューのオーディオアイテムを含むか、又は第1再生キューと第2再生キューとの両方のオーディオアイテムを組み合わせられる。その後、形成されたゾーングループがグループ解除された場合、グループ解除された第1再生ゾーンは、前の第1再生キューと再び関連付けられてもよいし、空の新しい再生キューと関連付けられてもよいし、あるいはゾーングループがグループ解除される前にゾーングループと関連付けられていた再生キューのオーディオアイテムを含む新しい再生キューと関連付けられてもよい。同様に、グループ解除された第2再生ゾーンは、前の第2再生キューと再び関連付けられてもよいし、空の新しい再生キューと関連付けられてもよいし、あるいはゾーングループがグループ解除される前にゾーングループと関連付けられていた再生キューのオーディオアイテムを含む新しい再生キューと関連付けられてもよい。他の例も可能である。   When a playback zone or zone group is “grouped” or “ungrouped”, the playback queue associated with the affected playback zone or zone group may be cleared or reassociated. May be. For example, if a first playback zone that includes a first playback queue is grouped with a second playback zone that includes a second playback queue, the formed zone group may have an associated playback queue. . The associated play queue is initially empty, or contains audio items from the first play queue (eg, when the second play zone is added to the first play zone), or (eg, the first play queue). When a zone is added to the second playback zone, it can include the audio items of the second playback queue, or combine the audio items of both the first and second playback queues. Thereafter, when the formed zone group is ungrouped, the ungrouped first playback zone may be re-associated with the previous first playback queue or may be associated with an empty new playback queue. Alternatively, it may be associated with a new play queue that includes the audio items of the play queue that were associated with the zone group before the zone group was ungrouped. Similarly, the ungrouped second playback zone may be re-associated with the previous second playback queue, may be associated with an empty new playback queue, or before the zone group is ungrouped. May be associated with a new play queue that includes an audio item of the play queue that was associated with the zone group. Other examples are possible.

図4のユーザインタフェース400に戻って、再生キュー領域440内のオーディオコンテンツのグラフィック表示は、トラックタイトル、アーティスト名、トラックの長さ、および再生キュー内のオーディオコンテンツと関連付けられた他の関連情報を含んでいてもよい。ある例では、オーディオコンテンツのグラフィック表示は、追加の選択可能なアイコンを選択して移動させることができる。これにより、再生キューおよび/又は再生キューに表示されたオーディオコンテンツを管理および/又は操作することができる。例えば、表示されたオーディオコンテンツは、再生キューから取り除いてもよいし、再生キュー内の異なる位置に移動させてもよいし、すぐに再生させるか若しくは現在再生しているオーディオコンテンツの後に再生するように選択されてもよいし、あるいは他の動作を実行してもよい。再生ゾーン又はゾーングループに関連付けられた再生キューは、再生ゾーン又はゾーングループ内の1つ又は複数の再生デバイスのメモリ、再生ゾーン又はゾーングループに入っていない再生デバイスのメモリ、および/又は他の指定のデバイスのメモリに記憶されていてもよい。   Returning to the user interface 400 of FIG. 4, the graphic display of the audio content in the play queue area 440 includes the track title, artist name, track length, and other related information associated with the audio content in the play queue. May be included. In one example, the graphical display of audio content can be moved by selecting additional selectable icons. Thereby, it is possible to manage and / or operate the reproduction queue and / or the audio content displayed in the reproduction queue. For example, the displayed audio content may be removed from the playback queue, moved to a different position in the playback queue, played immediately, or played after the currently playing audio content. Or other actions may be performed. A playback queue associated with a playback zone or zone group can be the memory of one or more playback devices in the playback zone or zone group, the memory of playback devices not in the playback zone or zone group, and / or other designations. It may be stored in the memory of the device.

オーディオコンテンツソース領域450は、選択可能なオーディオコンテンツソースのグラフィック表示を含んでいてもよい。このオーディオコンテンツソースにおいては、オーディオコンテンツが選択された再生ゾーン又はゾーングループによって取り出され、再生されてもよい。オーディオコンテンツソースに関する説明は、以降のセクションを参照することができる。   Audio content source area 450 may include a graphic representation of selectable audio content sources. In this audio content source, the audio content may be taken out and played back by the selected playback zone or zone group. Refer to the following sections for an explanation of audio content sources.

d.例示的なオーディオコンテンツソース
前回図示したように、ゾーン又はゾーングループ内の1つ又は複数の再生デバイスは、再生するオーディオコンテンツを、(例えば、オーディオコンテンツの対応するURI又はURLに基づいて、)複数の入手可能なオーディオコンテンツソースから取り出すように構成されていてもよい。ある例では、オーディオコンテンツは、再生デバイスによって、対応するオーディオコンテンツソース(例えば、ライン−イン接続)から直接取り出されてもよい。別の例では、オーディオコンテンツは、1つ又は複数の他の再生デバイス若しくはネットワークデバイスを介してネットワーク上の再生デバイスに提供されてもよい。
d. Exemplary Audio Content Source As previously illustrated, one or more playback devices in a zone or zone group may select multiple audio content to play (eg, based on the corresponding URI or URL of the audio content). May be configured to be retrieved from available audio content sources. In one example, audio content may be retrieved directly from a corresponding audio content source (eg, a line-in connection) by a playback device. In another example, audio content may be provided to a playback device on a network via one or more other playback devices or network devices.

例示的なオーディオコンテンツソースは、メディア再生システム内の1つ又は複数の再生デバイスのメモリを含んでもよい。メディア再生システムとしては、例えば、図1のメディア再生システム100、1つ又は複数のネットワークデバイス上のローカルミュージックライブラリ(例えば、制御デバイス、ネットワーク対応のパーソナルコンピュータ、又はネットワーク接続ストレージ(NAS)など)、インターネット(例えば、クラウド)を介してオーディオコンテンツを提供するストリーミングオーディオサービス、あるいは再生デバイス又はネットワークデバイスのライン−イン入力接続を介してメディア再生システムに接続されるオーディオソース、他の可能なシステムであってもよい。   Exemplary audio content sources may include the memory of one or more playback devices in the media playback system. As the media playback system, for example, the media playback system 100 of FIG. 1, a local music library (for example, a control device, a network-compatible personal computer, or a network attached storage (NAS)) on one or more network devices, A streaming audio service that provides audio content over the Internet (eg, the cloud), or an audio source connected to a media playback system via a line-in input connection of a playback device or network device, and other possible systems. May be.

ある実施形態では、オーディオコンテンツソースは、図1のメディア再生システム100などのようなメディア再生システムに定期的に追加されてもよいし、定期的に取り除かれてもよい。ある例では、1つ又は複数のオーディオコンテンツソースが追加される、取り除かれる、又は更新される度に、オーディオアイテムのインデックス付けが行われてもよい。オーディオアイテムのインデックス付けは、ネットワーク上で共有される全てのフォルダ/ディレクトリ内の識別可能なオーディオアイテムをスキャンすることを含んでもよい。ここで、ネットワークは、メディア再生システム内の再生デバイスによってアクセス可能である。また、オーディオアイテムのインデックス付けは、メタデータ(例えば、タイトル、アーティスト、アルバム、トラックの長さなど)と他の関連情報とを含むオーディオコンテンツデータベースを作成すること、又は更新すること、を含んでもよい。他の関連情報とは、例えば、それぞれの識別可能なオーディオアイテムを見つけるためのURI又はURLを含んでもよい。オーディオコンテンツソースを管理し、且つ維持するための他の例も可能である。   In some embodiments, the audio content source may be periodically added to or removed from a media playback system, such as the media playback system 100 of FIG. In one example, an audio item may be indexed each time one or more audio content sources are added, removed, or updated. Audio item indexing may include scanning identifiable audio items in all folders / directories shared on the network. Here, the network is accessible by a playback device in the media playback system. Also, audio item indexing may include creating or updating an audio content database that includes metadata (eg, title, artist, album, track length, etc.) and other related information. Good. Other relevant information may include, for example, a URI or URL for finding each identifiable audio item. Other examples for managing and maintaining audio content sources are possible.

再生デバイス、制御デバイス、再生ゾーン構成、およびメディアアイテムソースに関しての上述した説明は、以降で述べられている機能および方法を実施可能ないくつかの例示的な動作環境のみを提供している。本発明は、本明細書で明示的に述べられていないメディア再生システム、再生デバイス、およびネットワークデバイスの他の動作環境および構成であっても適用可能であり、その機能および方法を実施するのに適している。   The above description of playback devices, control devices, playback zone configurations, and media item sources provides only some exemplary operating environments in which the functions and methods described below can be implemented. The present invention is applicable to other operating environments and configurations of media playback systems, playback devices, and network devices not explicitly mentioned herein, and to implement the functions and methods. Is suitable.

III.再生デバイスキャリブレーションの例
先に論じたように、図1の再生デバイス102〜124のうちの1つまたはそれ以上等の1つまたは複数の再生デバイスは、特定のオーディオ体験を提供するように構成されてもよく、かつ、そのオーディオ体験を、再生環境内の1つまたは複数の再生デバイスの位置に関わらず提供するようにキャリブレーションされてもよい。先に述べたように、本明細書において企図する例示的なキャリブレーション手順は、キャリブレーション中の再生デバイスにより放出される音波(例えば、1つまたは複数のキャリブレーション音)を検出しかつ分析する録音デバイスのマイクロホンを含んでもよい。
III. Playback Device Calibration Example As discussed above, one or more playback devices, such as one or more of the playback devices 102-124 of FIG. 1, are configured to provide a particular audio experience. And may be calibrated to provide the audio experience regardless of the location of one or more playback devices within the playback environment. As previously mentioned, the exemplary calibration procedure contemplated herein detects and analyzes sound waves (eg, one or more calibration sounds) emitted by the playback device being calibrated. A microphone of the recording device may be included.

キャリブレーションプロセスによってユーザを誘導するためのキャリブレーションインタフェースは、ネットワークデバイス上に設けられてもよい。例示的なインタフェースは、2015年4月24日に出願された「Speaker Calibration」と題する米国非仮特許出願第14/696,014号明細書に記載されており、その全体が本明細書に参考として組み込まれる。さらなる例示的なインタフェースは、2015年8月14日に出願された「Speaker Calibration User Interface」と題する米国非仮特許出願第14/826,873号明細書に記載されており、その全体が本明細書に同じく参考として組み込まれる。あるいは、キャリブレーションは、ネットワークデバイスと再生デバイスとの間で自動的に実行されてもよく、かつネットワークデバイスのユーザによる相互作用によって、または相互作用なしに実行されてもよい。ネットワークデバイスは、ユーザが1つまたは複数の再生デバイスを制御するために使用できるデバイスであってもよい。例えば、ネットワークデバイスは、図1の制御デバイス126および128ならびに図3の制御デバイス300に類似していてもよい。キャリブレーションインタフェースは、1つまたは複数の再生デバイスを制御するためにネットワークデバイス上へ設けられる図4のコントローラインタフェース400等のコントローラインタフェースのコンポーネントであってもよい。   A calibration interface for guiding the user through the calibration process may be provided on the network device. An exemplary interface is described in US Non-Provisional Application No. 14 / 696,014, filed Apr. 24, 2015, entitled “Speaker Calibration”, which is hereby incorporated by reference in its entirety. Incorporated as. A further exemplary interface is described in US Non-Provisional Application No. 14 / 826,873, filed Aug. 14, 2015, entitled “Speaker Calibration User Interface”, which is incorporated herein in its entirety. Also incorporated into the book as a reference. Alternatively, the calibration may be performed automatically between the network device and the playback device, and may be performed with or without interaction by the user of the network device. A network device may be a device that a user can use to control one or more playback devices. For example, the network device may be similar to the control devices 126 and 128 of FIG. 1 and the control device 300 of FIG. The calibration interface may be a component of a controller interface, such as the controller interface 400 of FIG. 4, that is provided on a network device to control one or more playback devices.

1つまたは複数の再生デバイスを再生環境内に配置すれば、キャリブレーションインタフェースにより、1つまたは複数の再生デバイスにキャリブレーショントーンを再正させることが可能になる。特定のキャリブレーショントーンは、本明細書において企図する例示的なキャリブレーション手順を容易にできる。例示的なキャリブレーショントーンは、2015年7月21日に出願された「Hybrid Test Tone for Space−Averaged Room Audio Calibration Using A Moving Microphone」と題する米国非仮特許出願第14/805,140号明細書に記載されており、その全体が本明細書に参考として組み込まれる。   If one or more playback devices are placed in the playback environment, the calibration interface allows one or more playback devices to recalibrate the calibration tone. Certain calibration tones can facilitate the exemplary calibration procedure contemplated herein. An exemplary calibration tone is described in U.S. Non-Provisional Patent Application No. 14 / 805,140, filed July 21, 2015, entitled “Hybrid Test Tone for Space-Available Room Audio Calibration Using A Moving Microphone”. Which is incorporated herein by reference in its entirety.

ネットワークデバイスは、1つまたは複数の再生デバイスによるキャリブレーショントーンの再生に関連するオーディオデータを受信するように配置されてもよい。ある例において、インタフェースは、キャリブレーショントーンが再生されている間に再生環境内でネットワークデバイスを動かすようにユーザに対して促してもよい。例えば、あるより具体的な場合において、インタフェースは、再生環境内の、1つまたは複数の再生デバイスによるオーディオ再生の楽しさが典型的に起こりうるエリアを横切るようにユーザに指示してもよい。別の例において、インタフェースは、ネットワークデバイスを可能な限り部屋の壁等の再生環境の反対側の境界領域へ近づけて動かすようにユーザに指示してもよい。ある場合において、キャリブレーションインタフェースは、ユーザがどのようにして再生環境を横切るかを説明する映像を提供してもよい。映像は、キャリブレーショントーンが再生される前、またはキャリブレーショントーンが再生されている間に、インタフェースを介してユーザに示されてもよい。キャリブレーション中に動くマイクロホンの例は、2014年9月9日に出願された「Playback Device Calibration」と題する米国非仮特許出願第14/481,511号明細書に記載されており、その全体が本明細書に参考として組み込まれる。   The network device may be arranged to receive audio data related to the playback of the calibration tone by one or more playback devices. In one example, the interface may prompt the user to move the network device within the playback environment while the calibration tone is being played. For example, in certain more specific cases, the interface may instruct the user to traverse an area in the playback environment where audio playback enjoyment by one or more playback devices may typically occur. In another example, the interface may instruct the user to move the network device as close as possible to the border area opposite the playback environment, such as a room wall. In some cases, the calibration interface may provide a video describing how the user crosses the playback environment. The video may be shown to the user via the interface before the calibration tone is played or while the calibration tone is being played. Examples of microphones that move during calibration are described in US Non-Provisional Patent Application No. 14 / 481,511, filed September 9, 2014, entitled “Playback Device Calibration”. Incorporated herein by reference.

幾つかの例において、複数の再生デバイスが同時にキャリブレーションされてもよい。さらに、幾つかの再生デバイスは、複数の再生チャネル(例えば、ツイータおよびウーファ、またはチャネルとして作用するように構成される複数のスピーカ)を含んでもよく、これらは、同時にキャリブレーションされてもよい。複数の再生チャネルのキャリブレーションを容易にするための技術の例は、2015年7月21日に出願された「Concurrent Multi−Loudspeaker Calibration with a Single Measurement」と題する米国非仮特許出願第14/805,340号明細書に記載されており、その全体が本明細書に参考として組み込まれる。   In some examples, multiple playback devices may be calibrated simultaneously. In addition, some playback devices may include multiple playback channels (eg, tweeters and woofers, or multiple speakers configured to act as channels), which may be calibrated simultaneously. An example of a technique for facilitating calibration of multiple playback channels is U.S. Non-Provisional Patent Application No. 14/805 entitled “Concurrent Multi-Loudspeaker Calibration with a Single Measurement” filed on July 21, 2015. No. 340, which is incorporated herein by reference in its entirety.

ある例において、キャリブレーショントーンは、予め決められた持続時間にわたって再生されてもよく、ユーザには、再生環境におけるエリアを横切るための予め決められた持続時間が割り当てられてもよい。別の例において、キャリブレーショントーンが再生される時間量は、ネットワークデバイスにより検出される、ネットワークデバイスの動きまたは経路に関する情報に基づいて変更されてもよい。例えば、ネットワークデバイスが、前記ネットワークデバイスが先に横断された経路を逆戻りすることを開始したと決定すれば、ネットワークデバイスは、キャリブレーショントーンの追加の測定が不要であると決定してもよく、かつ1つまたは複数の再生デバイスによるキャリブレーショントーンの再正を終了させてもよい。   In one example, the calibration tone may be played for a predetermined duration, and the user may be assigned a predetermined duration for crossing an area in the playback environment. In another example, the amount of time that the calibration tone is played may be changed based on information about network device movement or path detected by the network device. For example, if a network device determines that the network device has started reversing a previously traversed path, the network device may determine that no additional measurement of calibration tones is required, And the calibration tone re-correction by one or more playback devices may be terminated.

さらなる例において、キャリブレーショントーンが再生される時間量は、検出されるオーディオ信号に基づいて変更されてもよい。例えば、ネットワークデバイスは、再生環境において検出されたオーディオ信号の追加のサンプルが再生環境の特性の決定を改善するものではないと決定すれば、キャリブレーショントーンの追加の測定が不要であると決定してもよく、かつ1つまたは複数の再生デバイスによるキャリブレーショントーンの再正を終了させてもよい。例としては、これら以外のものも可能である。   In a further example, the amount of time that the calibration tone is played may be changed based on the detected audio signal. For example, if the network device determines that the additional samples of the audio signal detected in the playback environment do not improve the determination of the characteristics of the playback environment, the network device determines that no additional measurement of calibration tones is required. And calibration tone recalibration by one or more playback devices may be terminated. Other examples are possible as examples.

予め決められる持続時間は、再生環境の種類および/またはサイズに依存して変わってもよい。例えば、1つまたは複数の再生デバイスにキャリブレーショントーンを再生させる前に、キャリブレーションインタフェースは、再生環境の種類および/またはサイズを指示するようにユーザに対して促してもよい。ユーザによる入力に基づいて、インタフェースは、指示された再生環境の種類および/またはサイズをもとに、キャリブレーショントーンを再生するための適切な予め決められる持続時間を特定してもよい。ある場合において、提供されるデモンストレーション映像も、指示された再生環境の種類および/またはサイズに基づいて変わってもよい。別の例において、ユーザは、再生環境の対向する境界エリア間で動くように指示されてもよい。再生環境のおおよそのサイズは、ネットワークデバイスの検出される動きおよび/または経路に基づいて決定されてもよく、よって、キャリブレーショントーンの再生時間は、検出されるユーザの動きおよび/または検出されるユーザの動きの経路に基づいて調整(延長または短縮)されてもよい。例えば、ユーザが依然としてネットワークデバイスを動かしていることが検出されれば、キャリブレーショントーンの再生は、延長されてもよい。別の例において、ユーザがデバイスを、再生環境が先の想定より大きいことを示す方向に動かしていて、かつユーザが再生環境全体またはそのかなりの部分をカバーすべくデバイスを適切に動かすにはさらなる時間を必要とすることが検出されれば、再生時間が延長されてもよい。   The predetermined duration may vary depending on the type and / or size of the playback environment. For example, prior to playing a calibration tone on one or more playback devices, the calibration interface may prompt the user to indicate the type and / or size of the playback environment. Based on input by the user, the interface may identify an appropriate predetermined duration for playing the calibration tone based on the type and / or size of the indicated playback environment. In some cases, the provided demonstration video may also vary based on the type and / or size of the indicated playback environment. In another example, the user may be instructed to move between opposing boundary areas of the playback environment. The approximate size of the playback environment may be determined based on the detected movement and / or path of the network device, so the playback time of the calibration tone is detected and / or detected. Adjustment (extension or shortening) may be made based on the path of movement of the user. For example, if it is detected that the user is still moving the network device, the playback of the calibration tone may be extended. In another example, if the user is moving the device in a direction that indicates that the playback environment is larger than previously assumed, and the user moves the device appropriately to cover the entire playback environment or a substantial portion thereof, further If it is detected that time is required, the playback time may be extended.

1つまたは複数の再生デバイスがキャリブレーショントーンを再生している間、制御デバイス300のマイクロホン310等のネットワークデバイスのマイクロホンは、オーディオ信号を検出できる。制御デバイス300のプロセッサ302等のネットワークデバイスのプロセッサは、オーディオ信号が検出されるにつれて、マイクロホンからオーディオデータストリームを受信してもよい。次いで、プロセッサは、受信されたオーディオデータを処理して、再生環境のオーディオ特性を決定してもよい。例えば、オーディオデータを基礎として、再生環境に関連づけられる線形周波数応答が決定されてもよい。   While one or more playback devices are playing calibration tones, a microphone of a network device, such as microphone 310 of control device 300, can detect the audio signal. A network device processor, such as processor 302 of control device 300, may receive an audio data stream from a microphone as an audio signal is detected. The processor may then process the received audio data to determine the audio characteristics of the playback environment. For example, based on audio data, a linear frequency response associated with the playback environment may be determined.

次には、オーディオ特性に基づいて、信号処理アルゴリズムが決定されてもよい。例えば、等価パラメータは、オーディオコンテンツの再生に際して1つまたは複数の再生デバイスにより等化パラメータが適用される場合に、特定のオーディオ体験が生成されるように決定されてもよい。言い替えれば、環境の音響特性を補うために、キャリブレーションプロファイルが再生デバイスに適用されてもよい。   Next, a signal processing algorithm may be determined based on the audio characteristics. For example, the equivalent parameter may be determined such that a specific audio experience is generated when the equalization parameter is applied by one or more playback devices during playback of the audio content. In other words, a calibration profile may be applied to the playback device to supplement the acoustic properties of the environment.

IV.再生デバイス−キャリブレーションエラー状態を識別する技術の例
先に指摘したように、1つまたは複数のエラー状態は、1つまたは複数の再生デバイスのキャリブレーションの有効性に悪影響を及ぼすことがある。ある例において、1つまたは複数のエラー状態は、1つまたは複数の再生デバイスによるキャリブレーショントーンの再生中およびネットワークデバイスのマイクロホンによるオーディオ信号の検出中に識別されてもよい。ある場合において、1つまたは複数の再生デバイスのキャリブレーションは、予め決められた持続時間にわたるキャリブレーショントーンの再生およびオーディオ信号の検出が完了した後ではなく、エラー状態が識別されるとすぐに、中断されかつ/または終了されてもよい。
IV. Example Reproducing Device-Calibration Error Condition Identification Technique As pointed out above, one or more error conditions may adversely affect the calibration effectiveness of one or more reproduction devices. In one example, one or more error conditions may be identified during calibration tone playback by one or more playback devices and during detection of an audio signal by a microphone of a network device. In some cases, calibration of one or more playback devices may occur as soon as an error condition is identified, rather than after calibration tone playback and audio signal detection over a predetermined duration is complete. It may be interrupted and / or terminated.

図5は、再生デバイス−キャリブレーションエラー状態を識別するための実装500の例を示すフロー図である。実装500は、例えば図1のメディア再生システム100と、図2の再生デバイス200のうちの1つ以上と、制御デバイス300のうちの1つ以上とを含む動作環境内で実施されることが可能な技術の例を提示する。ある例において、実装500は、全体的または部分的に、メディア再生システムと通信するコンピュータ装置によって実行されてもよい。例えば、実装500は、図1の制御デバイス126および128のうちの一方またはそれ以上によって実行されてもよい。このような場合において、制御デバイス126および128のうちの一方またはそれ以上は、各制御デバイスに実装500の機能を実行させるように各制御デバイスのプロセッサにより実行可能な命令を含むソフトウェアアプリケーションをインストールしていてもよい。   FIG. 5 is a flow diagram illustrating an example implementation 500 for identifying playback device-calibration error conditions. Implementation 500 can be implemented within an operating environment that includes, for example, media playback system 100 of FIG. 1, one or more of playback devices 200 of FIG. 2, and one or more of control devices 300. Examples of new technologies are presented. In certain examples, implementation 500 may be performed in whole or in part by a computing device that communicates with a media playback system. For example, implementation 500 may be performed by one or more of control devices 126 and 128 of FIG. In such a case, one or more of control devices 126 and 128 install a software application that includes instructions executable by the processor of each control device to cause each control device to perform the functions of implementation 500. It may be.

実装500は、ブロック502−506の1つ又は複数によって構成されるように、1つ又は複数の操作、機能、又は動作を含んでもよい。各ブロックはそれぞれ順番に示されているが、これらのブロックは並行して行われてもよいし、および/又は、本明細書で述べられている順番と異なる順番で行われてもよい。また、所望の実施内容に応じて、ブロックを少なくしてもよいし、増やして分割してもよいし、および/又は取り除いてもよい。さらに、フローチャートは、実装500並びに本明細書で開示されている他の処理および方法に関して、本実施形態の単に幾つかの可能な実装の機能および動作の例を示している。これに関して、各ブロックは、プロセッサによって実行されるとプロセスにおける特定のロジカル機能又はステップを実行させる1つ又は複数の命令を記憶した、モジュール、セグメント、あるいはプログラムコードの一部を示していてもよい。プログラムコードは例えば、ディスク又はハードドライブを含む記憶デバイスなど、任意のタイプのコンピュータ読み取り可能記録媒体に記憶されてもよい。   Implementation 500 may include one or more operations, functions, or operations as configured by one or more of blocks 502-506. Each block is shown in order, but these blocks may be performed in parallel and / or in an order different from the order described herein. Further, the number of blocks may be reduced, the number of blocks may be increased, and / or may be removed depending on the desired implementation. Further, the flowcharts illustrate examples of merely some possible implementation functions and operations of this embodiment with respect to implementation 500 and other processes and methods disclosed herein. In this regard, each block may represent a module, segment, or portion of program code that stores one or more instructions that, when executed by a processor, cause a particular logical function or step in the process to be performed. . The program code may be stored on any type of computer readable recording medium, such as a storage device including a disk or hard drive.

コンピュータ読み取り可能記録媒体は、非一時的なコンピュータ読み取り可能記録媒体、例えば、レジスタメモリ、プロセッサキャッシュ、およびランダム・アクセス・メモリ(RAM)などのように短時間データを記憶するコンピュータ読み取り可能媒体を含んでもよい。コンピュータ読み取り可能媒体は、非一時的なメディア、例えば、リード・オンリ・メモリ(ROM)、光ディスク、磁気ディスク、コンパクトディスク・リード・オンリ・メモリ(CD−ROM)等の長期間の記憶が可能な二次記憶装置又は永続記憶装置を含んでもよい。コンピュータ読み取り可能媒体は、その他の任意の揮発性記憶システム又は不揮発性記憶システムであってもよい。コンピュータ読み取り可能媒体は例えば、コンピュータ読み取り可能記録媒体、即ち、有形の記憶デバイスとみなされてもよい。また、実装500並びに本明細書に開示されたその他の処理および方法において、各ブロックは回路を示していてもよく、その回路は処理において、ある論理機能を実行するために有線接続されている。   Computer-readable recording media include non-transitory computer-readable recording media, such as computer-readable media that store data for a short time, such as register memory, processor cache, and random access memory (RAM). But you can. Computer readable media can be stored for long periods of time such as non-transitory media such as read only memory (ROM), optical disk, magnetic disk, compact disk read only memory (CD-ROM), etc. Secondary storage or permanent storage may be included. The computer readable medium may be any other volatile storage system or non-volatile storage system. A computer readable medium may be considered, for example, a computer readable recording medium, ie, a tangible storage device. Also, in implementation 500 and other processes and methods disclosed herein, each block may represent a circuit, which is wired to perform certain logic functions in the process.

図5に示すように、実装500は、ブロック502において、マイクロホンからオーディオデータストリームを受信し、ブロック504において、オーディオデータのサブセットが受信されるにつれて、少なくともオーディオデータのサブセットをもとにエラー状態を識別し、かつブロック506において、識別されたエラー状態に関連づけられるグラフィック表示をグラフィックディスプレイ上に表示することを含む。   As shown in FIG. 5, the implementation 500 receives an audio data stream from a microphone at block 502, and at block 504, an error condition based on at least the subset of audio data is received as the subset of audio data is received. In a block 506, identifying and displaying a graphic display associated with the identified error condition on the graphic display.

a.マイクロホンからのオーディオデータストリームの受信
先に指摘したように、ブロック502は、マイクロホンからオーディオデータストリームを受信するステップを含む。ある例において、マイクロホンは、1つまたは複数の再生デバイスをキャリブレーションするプロセスによってユーザを誘導するためのキャリブレーションインタフェースを提供するネットワークデバイスの一部であってもよい。別の例において、マイクロホンは、ネットワークデバイスの外部にあってネットワークデバイスへ通信可能に結合されるマイクロホンであってもよい。本明細書における説明において、ネットワークデバイスの物理的移動は、マイクロホンの同時的な物理的移動を含んでもよい。
a. Receiving an Audio Data Stream from a Microphone As noted above, block 502 includes receiving an audio data stream from a microphone. In one example, the microphone may be part of a network device that provides a calibration interface to guide the user through the process of calibrating one or more playback devices. In another example, the microphone may be a microphone that is external to the network device and communicatively coupled to the network device. In the description herein, physical movement of network devices may include simultaneous physical movement of microphones.

ある例において、ネットワークデバイスは、マイクロホンがオーディオデータストリームを受信する前に、1つまたは複数の再生デバイスのうちの少なくとも1つへ、前記少なくとも1つの再生デバイスにキャリブレーショントーンを再生させるメッセージを送信してもよい。ある場合において、キャリブレーションインタフェースは、再生環境内でユーザがネットワークデバイスの移動を開始する準備ができた時にそれを指示するようにユーザに対して促してもよい。例えば、キャリブレーションインタフェースは、ネットワークデバイスのグラフィックディスプレイ上に、ユーザが選択できる選択可能アイコン(即ち、「キャリブレーション開始」アイコン)を提供して、ユーザが準備完了であることを示してもよい。   In one example, the network device sends a message that causes the at least one playback device to play a calibration tone to at least one of the one or more playback devices before the microphone receives the audio data stream. May be. In some cases, the calibration interface may prompt the user to indicate when the user is ready to begin moving the network device within the playback environment. For example, the calibration interface may provide a selectable icon (ie, a “start calibration” icon) that the user can select on the graphic display of the network device to indicate that the user is ready.

ネットワークデバイスは、再生環境内でユーザがネットワークデバイスの移動を開始する準備ができていることを示す入力を受信したことに応答して、適宜、1つまたは複数の再生デバイスのうちの少なくとも1つへメッセージを送信してもよい。ある場合において、次に、1つまたは複数の再生デバイスのうちの少なくとも1つは、1つまたは複数の再生デバイスの各々によるキャリブレーショントーンの再生を調整してもよい。   In response to receiving input indicating that the user is ready to begin moving the network device in the playback environment, the network device, as appropriate, at least one of the one or more playback devices. You may send a message to In some cases, at least one of the one or more playback devices may then coordinate the playback of the calibration tone by each of the one or more playback devices.

キャリブレーショントーンが1つまたは複数の再生デバイスによって再生されるにつれて、マイクロホンは、再生中であるキャリブレーショントーンの少なくとも一部を含むオーディオ信号、および再生環境内に存在するあらゆる周囲ノイズを検出できる。次に、マイクロホンは、オーディオ信号が検出されるにつれて、検出されるオーディオ信号をサンプリングし、かつ結果として生じるオーディオデータをネットワークデバイスのプロセッサに流してもよい。   As the calibration tone is played by one or more playback devices, the microphone can detect an audio signal that includes at least a portion of the calibration tone being played, and any ambient noise present in the playback environment. The microphone may then sample the detected audio signal and stream the resulting audio data to the network device processor as the audio signal is detected.

このように、1つまたは複数の再生デバイスによってキャリブレーショントーンが再生されている間およびマイクロホンがオーディオ信号を検出してサンプリングする間、オーディオデータストリームは受信されうる。したがって、オーディオデータは、(i)再生中であるキャリブレーショントーンの少なくとも一部に対応するオーディオ信号成分、および(ii)キャリブレーショントーン以外のオーディオ要素に対応するバックグラウンドノイズ成分を含んでもよい。   Thus, the audio data stream can be received while the calibration tone is being played by one or more playback devices and while the microphone detects and samples the audio signal. Accordingly, the audio data may include (i) an audio signal component corresponding to at least a part of the calibration tone being reproduced, and (ii) a background noise component corresponding to an audio element other than the calibration tone.

図6は、ある例示的な再生デバイスキャリブレーションのユーザインタフェース600を示す。図示のように、ユーザインタフェース600は、「リビングルーム」ゾーン内の1つまたは複数の再生デバイスがキャリブレーション中であることを示すグラフィック表示602を含む。図1を参照すると、再生デバイス104、106、108および110は、キャリブレーション中である1つまたは複数の再生デバイスであってもよい。ユーザインタフェース600は、キャリブレーションを目的とするオーディオ信号の検出が実行中であることを示すグラフィック表示604をさらに含む。グラフィック表示604は、キャリブレーショントーンを検出するための予め決められた持続時間のうちの経過した、および/または残りの量等の、オーディオ信号録音プロセスのステータスも示してもよい。また、グラフィック表示604は、それまでに検出されているオーディオ信号の表示も示してもよい。ユーザインタフェース600には、キャリブレーションプロセスを終了するために選択されうる選択可能アイコン606も示されている。一般的な当業者であれば、図6のユーザインタフェース600が例示を目的とするものであって、他の例も可能であることを認識するであろう。   FIG. 6 shows an exemplary playback device calibration user interface 600. As shown, the user interface 600 includes a graphical display 602 that indicates that one or more playback devices in the “living room” zone are being calibrated. Referring to FIG. 1, playback devices 104, 106, 108 and 110 may be one or more playback devices that are being calibrated. The user interface 600 further includes a graphical display 604 that indicates that detection of an audio signal for calibration purposes is in progress. The graphical display 604 may also indicate the status of the audio signal recording process, such as the amount of elapsed and / or remaining of a predetermined duration for detecting a calibration tone. The graphic display 604 may also indicate the display of audio signals that have been detected so far. The user interface 600 also shows a selectable icon 606 that can be selected to end the calibration process. Those of ordinary skill in the art will recognize that the user interface 600 of FIG. 6 is for illustration purposes and other examples are possible.

b.オーディオデータのサブセットの受信に伴う、少なくともオーディオデータのサブセットに基づくエラー状態の識別
ブロック504において、実装500は、オーディオデータのサブセットの受信に伴い、少なくともこのオーディオデータのサブセットに基づいてエラー状態を識別するステップを含む。ある例において、オーディオデータのサブセットは、単一のオーディオデータのサンプルであってもよい。別の例において、オーディオデータのサブセットは、複数のオーディオデータのサンプルであってもよい。ある場合において、少なくともオーディオデータのサブセットに基づいてエラー状態を識別するステップは、オーディオデータのサブセット、およびオーディオデータストリームにおける1つまたは複数の先行するオーディオデータのサブセットに基づいて、エラー状態を識別することを含んでもよい。
b. Identifying an error condition based on at least a subset of audio data associated with receiving the subset of audio data At block 504, implementation 500 identifies an error condition based on at least the subset of audio data associated with receiving the subset of audio data. Including the steps of: In one example, the subset of audio data may be a single sample of audio data. In another example, the subset of audio data may be a plurality of audio data samples. In some cases, the step of identifying an error condition based at least on the subset of audio data identifies the error condition based on the subset of audio data and one or more preceding audio data subsets in the audio data stream. You may include that.

幾つかの場合において、エラー状態は、統計的に重要でないことがある。例えば、キャリブレーションの間にノイズインパルスが生じても、ノイズインパルスを示すオーディオデータは、オーディオデータを処理する間に外れ値として自動的に廃棄されうる。このような場合、ネットワークデバイスは、1つまたは複数の再生デバイスのキャリブレーションが継続されうると決定してもよい。他の場合、エラー状態は、統計的に重要であり、よって、エラー状態を示すオーディオデータは、外れ値として廃棄されないことがある。このような場合、ネットワークデバイスは、エラー状態の識別に応答して、1つまたは複数の再生デバイスのキャリブレーションが中断されるべきであると決定し、よって、1つまたは複数の再生デバイスのうちの少なくとも1つへ、前記少なくとも1つの再生デバイスにキャリブレーショントーンの再生を停止させるメッセージを送信してもよい。   In some cases, the error condition may not be statistically significant. For example, even if a noise impulse occurs during calibration, audio data indicative of the noise impulse can be automatically discarded as an outlier while processing the audio data. In such a case, the network device may determine that calibration of one or more playback devices can continue. In other cases, the error condition is statistically significant, so audio data indicating an error condition may not be discarded as an outlier. In such a case, in response to the identification of the error condition, the network device determines that the calibration of the one or more playback devices should be interrupted, and thus of the one or more playback devices A message for stopping the reproduction of the calibration tone to the at least one reproduction device may be transmitted to at least one of the above.

ある例では、予め決められた複数のエラー状態および予め決められたエラー状態の対応する特性が定義されてもよい。このような場合、ブロック504におけるエラー状態の識別は、対応する特性を識別することに基づいて、予め決められた複数のエラー状態からエラー状態を識別することを含んでもよい。ある場合において、オーディオデータの少なくとも1つのサブセットに基づいて、単に1つのエラー状態が識別される。別の場合では、オーディオデータの少なくとも1つのサブセットに基づいて、複数のエラー状態が識別されてもよい。   In some examples, a plurality of predetermined error conditions and corresponding characteristics of the predetermined error conditions may be defined. In such a case, identifying the error condition in block 504 may include identifying the error condition from a plurality of predetermined error conditions based on identifying the corresponding characteristic. In some cases, only one error condition is identified based on at least one subset of the audio data. In other cases, multiple error conditions may be identified based on at least one subset of the audio data.

先に指摘したように、キャリブレーションインタフェースは、キャリブレーショントーンが再生されている間、再生環境内でネットワークデバイスを動かすようにユーザに対して促してもよい。キャリブレーションインタフェースは、さらに、ネットワークデバイス内でネットワークデバイスを上下に動かすようにユーザに対して促してもよい。ネットワークデバイスのマイクロホンがキャリブレーショントーンを検出する間のネットワークデバイスの移動は、オーディオデータストリームにおいて捕捉されるべき再生環境のより包括的な音響特性を提供しうる。加えて、1つまたは複数の再生デバイスによるオーディオ再生の楽しさが、典型的にはネットワークデバイスのマイクロホンがキャリブレーショントーンを検出する間に生じる、再生環境内のエリアにわたるネットワークデバイスの移動は、さらに、再生環境における1つまたは複数の再生デバイスによるオーディオ再生の間の再生環境の用い方にとってより適切な再生環境の音響特性を提供してもよい。   As pointed out above, the calibration interface may prompt the user to move the network device within the playback environment while the calibration tone is being played. The calibration interface may further prompt the user to move the network device up and down within the network device. Movement of the network device while the microphone of the network device detects the calibration tone can provide a more comprehensive acoustic characteristic of the playback environment to be captured in the audio data stream. In addition, the movement of the network device across an area in the playback environment, where the enjoyment of audio playback by one or more playback devices typically occurs while the network device microphone detects a calibration tone, further The acoustic characteristics of the playback environment may be provided that is more appropriate for the usage of the playback environment during audio playback by one or more playback devices in the playback environment.

ネットワークデバイスが移動する間、ネットワークデバイスのマイクロホンにより検出されたオーディオ信号のレベルは、ある程度の変動および所定の変動率を有することが予期されうる。したがって、オーディオデータのサブセット内に表されるオーディオ信号成分のレベルが最小閾値より小さいという決定が下されれば、ネットワークデバイスの移動が不十分であるというエラー状態が識別されうる。あるいは、オーディオデータのサブセット内に表されるオーディオ信号成分のレベルの変動率が最大閾値より大きいという決定が下されれば、ネットワークデバイスの移動が速すぎるというエラー状態が識別されうる。   While the network device moves, the level of the audio signal detected by the network device microphone can be expected to have some variation and a predetermined rate of variation. Thus, if a determination is made that the level of the audio signal component represented in the subset of audio data is less than a minimum threshold, an error condition that network device movement is insufficient may be identified. Alternatively, if a determination is made that the rate of variation of the level of the audio signal component represented in the subset of audio data is greater than a maximum threshold, an error condition that the network device is moving too fast can be identified.

ある例において、ネットワークデバイスは、他の例の中でもとりわけ、加速度計等のモーションセンサをさらに含んでもよい。このような場合、ネットワークデバイスのプロセッサは、さらに、1つまたは複数の再生デバイスのキャリブレーション中に、かつ具体的には、1つまたは複数の再生デバイスによりキャリブレーショントーンが再生中である間、およびネットワークデバイスが再生環境内で動かされることが予期される間に、モーションセンサを起動してもよい。この例において、ネットワークデバイスのプロセッサは、さらに、動きデータのストリームを受信するように構成されてもよい。動きデータは、再生環境内のネットワークデバイスの移動範囲および/または移動速度を示してもよい。ネットワークデバイスの移動範囲および移動速度は、再生環境内でのネットワークデバイスの横方向移動およびネットワークデバイスの上下移動の双方を含んでもよい。   In one example, the network device may further include a motion sensor such as an accelerometer, among other examples. In such a case, the processor of the network device further performs calibration of the one or more playback devices, and specifically while the calibration tone is being played by the one or more playback devices. And the motion sensor may be activated while the network device is expected to be moved within the playback environment. In this example, the processor of the network device may be further configured to receive the stream of motion data. The motion data may indicate a moving range and / or moving speed of the network device in the playback environment. The moving range and moving speed of the network device may include both the lateral movement of the network device and the vertical movement of the network device within the playback environment.

モーションセンサにより動きデータのサブセットが受信されるにつれて、ネットワークデバイスのプロセッサは、少なくともこの動きデータのサブセットに基づいて1つまたは複数のエラー状態を識別してもよい。したがって、不十分な移動または速すぎる移動というエラー状態は、代替的または追加的に、モーションセンサからの動きデータの少なくとも1つのサブセットに基づいて識別されてもよい。より具体的には、モーションセンサにより検出される移動が最小閾値を下回る場合、不十分な動きというエラーメッセージが生成され、かつ/または、モーションセンサにより検出される移動速度が最大閾値を超える場合、速すぎる移動というエラーメッセージが生成される。   As a subset of motion data is received by the motion sensor, the processor of the network device may identify one or more error conditions based at least on the subset of motion data. Thus, an error condition of insufficient or too fast movement may alternatively or additionally be identified based on at least one subset of motion data from the motion sensor. More specifically, if the movement detected by the motion sensor is below the minimum threshold, an error message of insufficient movement is generated and / or if the movement speed detected by the motion sensor exceeds the maximum threshold, An error message is generated that says moving too fast.

ある例において、不十分な移動とみなされる移動の範囲は、リスニング環境の予期されるサイズに基づいて決定されてもよい。ある場合において、平均的なリスニング環境に対して、1.2メートルという移動の閾値範囲が決定されてもよい。この場合、モーションセンサにより検出される移動の範囲が1.2メートル未満であれば、不十分な移動というエラー状態が識別されうる。   In one example, the range of movement that is considered insufficient movement may be determined based on the expected size of the listening environment. In some cases, a threshold range of travel of 1.2 meters may be determined for an average listening environment. In this case, if the range of movement detected by the motion sensor is less than 1.2 meters, an error condition of insufficient movement can be identified.

別の例において、予期される移動の範囲は、指示されるリスニング環境の種類に依存して変化することがある。よって、移動の閾値範囲は、指示されるリスニング環境の種類に基づいて変わってもよい。例えば、ユーザが、キャリブレーションプロセス中に、キャリブレーションがリビングルームに対して実行されることを指示すれば、移動の閾値範囲は、3メートルになり得る。ユーザは、キャリブレーションがリビングルームに対して実行されることを指示する場合、キャリブレーション中である再生デバイスに関連づけられる再生ゾーンを「リビングルーム」と指名することによって行ってもよい。一方で、ユーザが、キャリブレーションプロセス中に、キャリブレーションが浴室に対して実行されることを指示すれば、移動の閾値範囲は、1メートルになり得る。例としては、これら以外のものも可能である。   In another example, the expected range of travel may vary depending on the type of listening environment indicated. Therefore, the threshold range of movement may change based on the type of listening environment instructed. For example, if the user indicates during the calibration process that calibration will be performed on the living room, the threshold range of movement can be 3 meters. When instructing the calibration to be performed on the living room, the user may designate the playback zone associated with the playback device being calibrated as “living room”. On the other hand, if the user indicates during the calibration process that calibration will be performed on the bathroom, the threshold range of movement can be 1 meter. Other examples are possible as examples.

移動の閾値範囲の決定および/または識別に関しては、他の例も可能である。例えば、ネットワークデバイスおよび/または再生デバイスは、インパルス信号を再生し、かつネットワークデバイスおよび/または再生デバイスによる反射信号の検出に基づいて、リスニング環境のサイズを推定してもよい。例としては、これら以外のものも可能である。   Other examples are possible for determining and / or identifying the threshold range of movement. For example, the network device and / or playback device may recover the impulse signal and estimate the size of the listening environment based on detection of the reflected signal by the network device and / or playback device. Other examples are possible as examples.

再生環境は、1つまたは複数の再生ゾーンを含んでもよく、よって、1つまたは複数の再生ゾーンに関連づけられる1つまたは複数の再生デバイスを含んでもよい。1つまたは複数の再生デバイスのキャリブレーションは、特定の再生ゾーンを含まない別の再生ゾーンまたは再生環境ではなく、1つまたは複数の再生デバイスに関連づけられる特定の再生ゾーン内で適切に実行されてもよい。言い替えれば、図1を参照すると、再生デバイス122および124は、ダイニングルームではなく主寝室に対して適切にキャリブレーションされてもよい。   A playback environment may include one or more playback zones, and thus may include one or more playback devices associated with one or more playback zones. Calibration of one or more playback devices is properly performed within a specific playback zone associated with one or more playback devices, rather than another playback zone or playback environment that does not include the specific playback zone. Also good. In other words, referring to FIG. 1, playback devices 122 and 124 may be appropriately calibrated for the master bedroom rather than the dining room.

ある例では、オーディオデータのサブセット内に表されるオーディオ信号成分のレベルが徐々に最小閾値より下がっているという決定が下されれば、閾値移動距離を超えるというエラー状態が識別されうる。言い替えれば、ネットワークデバイスは、1つまたは複数の再生デバイスから離れすぎていて、1つまたは複数の再生デバイスにとって適切な再生環境の外側まで動いていることがある。   In one example, if a determination is made that the level of the audio signal component represented in the subset of audio data is gradually falling below a minimum threshold, an error condition that exceeds the threshold travel distance may be identified. In other words, the network device may be too far away from the one or more playback devices and has moved outside the appropriate playback environment for the one or more playback devices.

キャリブレーション中である1つまたは複数の再生デバイスによるキャリブレーショントーンの再生、およびマイクロホンによるオーディオ信号の検出に先行して、キャリブレーションインタフェースは、まず、再生環境内のバックグラウンドノイズのレベルが再生環境における1つまたは複数の再生デバイスのキャリブレーションに適するかどうかを決定してもよい。ある場合において、キャリブレーションインタフェースは、再生環境におけるノイズレベルを示すためにノイズメータのグラフィック表示を提供してもよい。ノイズレベルが適切なレベルを上回っていれば、キャリブレーションインタフェースは、1つまたは複数の再生デバイスのキャリブレーションに先行して、再生環境におけるノイズレベルの低減を試行するようにユーザに対して促してもよい。再生環境のノイズレベルが適切なレベル内にあれば、ユーザが再生環境内でネットワークデバイスをいつでも動かすことができることを示すために、ユーザが選択できる選択可能アイコンがキャリブレーションインタフェース上に表示されてもよい。次に、選択可能アイコンの選択により、1つまたは複数の再生デバイスによるキャリブレーショントーンの再生、およびネットワークデバイスのマイクロホンによるオーディオ信号の検出が開始されてもよい。   Prior to playback of the calibration tone by one or more playback devices being calibrated and detection of the audio signal by the microphone, the calibration interface first determines the level of background noise in the playback environment. It may be determined whether it is suitable for calibration of one or more playback devices. In some cases, the calibration interface may provide a graphic display of the noise meter to indicate the noise level in the playback environment. If the noise level is above an appropriate level, the calibration interface prompts the user to attempt to reduce the noise level in the playback environment prior to calibrating one or more playback devices. Also good. If the noise level of the playback environment is within an appropriate level, a selectable icon that the user can select is displayed on the calibration interface to indicate that the user can move the network device at any time within the playback environment. Good. Next, selection of the selectable icon may initiate playback of the calibration tone by one or more playback devices and detection of the audio signal by the microphone of the network device.

1つまたは複数の再生デバイスによるキャリブレーショントーンの再生中、およびネットワークデバイスのマイクロホンによるオーディオ信号の検出中は、再生環境におけるバックグラウンドノイズのレベルが変わることがある。ある例において、オーディオデータのサブセット内に表されるバックグラウンドノイズ成分のレベルが最大閾値レベルを上回るという決定が下されれば、不適切なバックグラウンドノイズというエラー状態が識別されうる。ある例において、このようなエラー状態は、マイクロホンによる音声信号の検出中に再生環境内に音のバーストが存在すれば、発生し得る。   During playback of calibration tones by one or more playback devices and detection of audio signals by microphones of network devices, the level of background noise in the playback environment may change. In one example, an inappropriate background noise error condition can be identified if a determination is made that the level of the background noise component represented in the subset of audio data is above a maximum threshold level. In one example, such an error condition can occur if there is a burst of sound in the playback environment during detection of the audio signal by the microphone.

別の例において、オーディオデータのサブセット内に表されるオーディオ信号成分とバックグラウンドノイズ成分との比(信号対雑音比、または「SNR」)が最小閾値を下回るという決定が下されれば、バックグラウンドノイズが高すぎるというエラー状態が識別されうる。ある例において、このようなエラー状態は、再生環境内のバックグラウンドノイズが適切なレベルを超えて徐々に増加していれば、発生し得る。   In another example, if a determination is made that the ratio of the audio signal component represented in the subset of audio data to the background noise component (signal to noise ratio, or “SNR”) is below a minimum threshold, An error condition where ground noise is too high can be identified. In one example, such an error condition can occur if background noise in the playback environment is gradually increasing beyond an appropriate level.

異なるネットワークデバイスは、異なるマイクロホン設定を有してもよい。ある例において、ネットワークデバイスのマイクロホンが(ネットワークデバイスの標準的な動作方向に対して)ネットワークデバイスの底面にあれば、キャリブレーションインタフェースは、1つまたは複数の再生デバイスによるキャリブレーショントーンの再生、およびマイクロホンによるオーディオ信号の検出に先行して、マイクロホンがネットワークデバイスの上部に存在するようにネットワークデバイスを逆さまにひっくり返すようユーザに対して促してもよい。ネットワークデバイス、延いてはマイクロホンのこのような配向により、ネットワークデバイスのマイクロホンは、キャリブレーション中である1つまたは複数の再生デバイスにより再生されるキャリブレーショントーンの少なくとも一部分を含むオーディオ信号の最適な検出にとって適切に配向されうる。   Different network devices may have different microphone settings. In one example, if the network device microphone is at the bottom of the network device (relative to the normal direction of operation of the network device), the calibration interface may play calibration tones with one or more playback devices, and Prior to detection of the audio signal by the microphone, the user may be prompted to turn the network device upside down so that the microphone is on top of the network device. Due to this orientation of the network device, and hence the microphone, the microphone of the network device optimally detects an audio signal that includes at least a portion of the calibration tone that is played by the one or more playback devices being calibrated. Can be properly oriented.

ある例では、オーディオデータのサブセット内に表されるオーディオ信号成分のレベルが実質的に(または、大幅に)最小閾値より下がっているという決定が下されれば、不適切に配向されたネットワークデバイス(およびマイクロホン)を有するというエラー状態が識別されうる。例えば、ユーザは、直観的に、かつ/または誤って、マイクロホンをネットワークデバイスの標準的な動作方向に戻しているかもしれず、この場合、マイクロホンの配向は、キャリブレーション中である1つまたは複数の再生デバイスにより再生されるキャリブレーショントーンの少なくとも一部分を含むオーディオ信号の検出にとって最適ではないことがある。ある場合において、ネットワークデバイスの配向を決定するために、モーションセンサからの動きデータも使用されてもよい。したがって、ネットワークデバイスの配向が不適切であるというエラー状態は、代替的または追加的に、モーションセンサからの動きデータの少なくとも1つのサブセットに基づいて識別されてもよい。   In one example, an improperly oriented network device if a determination is made that the level of the audio signal component represented in the subset of audio data is substantially (or significantly) below a minimum threshold An error condition of having (and a microphone) can be identified. For example, the user may have intuitively and / or mistakenly returned the microphone to the standard operating direction of the network device, where the orientation of the microphone is one or more being calibrated. It may not be optimal for detection of an audio signal that includes at least a portion of a calibration tone that is played by a playback device. In some cases, motion data from motion sensors may also be used to determine the orientation of the network device. Thus, an error condition that the orientation of the network device is improper may alternatively or additionally be identified based on at least one subset of motion data from the motion sensor.

ネットワークデバイス(およびマイクロホン)の不適切な配向に加えて、部分的にでも塞がれたマイクロホンもまた、ネットワークデバイスを用いる1つまたは複数の再生デバイスのキャリブレーションの有効性に悪影響を及ぼすことがある。ある場合において、ネットワークデバイスの保護および/または装飾ケースは、マイクロホンの一部を塞ぐことがある。別の場合では、衣服からの糸くず、またはネットワークデバイスの通常の使用から生じる他の破片も、マイクロホンの一部を塞ぐことがある。   In addition to improper orientation of network devices (and microphones), partially blocked microphones can also adversely affect the effectiveness of calibration of one or more playback devices using network devices. is there. In some cases, the protective and / or decorative case of the network device may block part of the microphone. In other cases, lint from clothing or other debris resulting from normal use of the network device may also block a portion of the microphone.

ある例において、オーディオデータのサブセット内に表されるオーディオ信号成分が基準オーディオ信号とは実質的に異なるという決定が下されれば、マイクロホンが塞がれているというエラー状態が識別されうる。ある場合において、基準オーディオ信号は、キャリブレーショントーンを表すものであってもよい。例えば、基準オーディオ信号は、キャリブレーショントーンオーディオ信号をマイクロホンの周波数応答で重畳することによって生成されてもよい。ある場合において、オーディオデータのサブセットと基準オーディオ信号との間の実質的差異は、オーディオデータ内に表される、基準オーディオ信号に対して実質的に減衰されたオーディオ信号を含んでもよい。   In one example, if a determination is made that the audio signal component represented in the subset of audio data is substantially different from the reference audio signal, an error condition that the microphone is blocked can be identified. In some cases, the reference audio signal may represent a calibration tone. For example, the reference audio signal may be generated by superimposing a calibration tone audio signal with the frequency response of the microphone. In some cases, the substantial difference between the subset of audio data and the reference audio signal may include an audio signal that is substantially attenuated relative to the reference audio signal, represented in the audio data.

1つまたは複数の再生デバイスのキャリブレーションに使用されるネットワークデバイスは、通信デバイスとして使用されることもあり、よって、1つまたは複数の再生デバイスによるキャリブレーショントーンの再生中、およびネットワークデバイスのマイクロホンがオーディオ信号を検出している間に、ネットワークデバイスは、ローカルエリアネットワークおよび/またはセルラネットワーク上でメッセージを受信してもよく、かつオーディオ信号および/または振動の形式の通知を生成してもよい。オーディオおよび/または振動による通知もまた、1つまたは複数の再生デバイスのキャリブレーションの有効性に悪影響を及ぼすことがある。したがって、キャリブレーショントーンの再生およびオーディオ信号の検出中に、ネットワークデバイスが可聴または物理的な通知を生成したという決定が下されれば、対応するエラー状態が識別されうる。   A network device used for calibration of one or more playback devices may also be used as a communication device, so during calibration tone playback by one or more playback devices, and the microphone of the network device While detecting the audio signal, the network device may receive a message on the local area network and / or cellular network and generate a notification in the form of an audio signal and / or vibration. . Audio and / or vibration notifications can also adversely affect the effectiveness of calibration of one or more playback devices. Thus, if during a calibration tone playback and audio signal detection a determination is made that the network device has generated an audible or physical notification, a corresponding error condition can be identified.

先に指摘したように、1つまたは複数のエラー状態は、受信されるオーディオデータおよび動きデータの組み合わせに基づいて決定されてもよい。ある例において、ネットワークデバイスは、受信されるオーディオデータの1/4がSNR閾値を下回るSNRを示せば、キャリブレーションを中断するように構成されてもよい。ある場合において、先に論じたように、バックグラウンドノイズのレベルが高すぎることがある。   As pointed out above, the one or more error conditions may be determined based on a combination of received audio data and motion data. In one example, the network device may be configured to abort the calibration if 1/4 of the received audio data exhibits an SNR that is below the SNR threshold. In some cases, as discussed above, the level of background noise may be too high.

しかしながら、別の場合では、さらに、受信されるオーディオデータのこれらの1/4に対応する動きデータに基づいて、エラー状態を識別してもよい。例えば、受信されるオーディオデータの1/4に対応する動きデータの1/3が、所定の閾値を超える移動を示していれば、移動が速すぎるというエラー状態が決定されうる。この場合は、速すぎる移動により増大されるノイズ(移動によるマイクロホン上の風/通風)から、閾値以下のSNRが生じ得る。   However, in other cases, an error condition may be further identified based on motion data corresponding to these quarters of the received audio data. For example, if 1/3 of the motion data corresponding to 1/4 of the received audio data indicates a movement that exceeds a predetermined threshold, an error condition that the movement is too fast may be determined. In this case, an SNR below a threshold value can be generated from noise (wind / airflow on the microphone due to movement) that is increased by movement that is too fast.

別の例では、対応する動きデータが予期される閾値未満の移動速度を示しているにも関わらず、受信されるオーディオデータの1/4の3/4がSNR閾値を下回るSNRを示せば、バックグラウンドノイズが多すぎるというエラー状態が決定されてもよい。さらにこの場合、再生環境内のネットワークデバイスの移動が移動の閾値速度より速いが、受信されるオーディオデータのSNRがSNR閾値を超えたままであれば、キャリブレーションは続行を許容されてもよく、かつエラー状態は識別されなくてもよい。言い替えれば、この場合、受信されるオーディオ信号のSNRがSNR閾値を上回っている限り、エラー状態は、識別されない。しかしながら、受信されるオーディオデータの一部(即ち、先に論じたような1/4)のSNRがSNR閾値を下回っていれば、エラー状態がバックグラウンドノイズに関連するものか、速すぎる移動に関連するものかの決定は、動きデータに依存してもよい。例としては、これら以外のものも可能である。   In another example, if the corresponding motion data shows a moving speed below the expected threshold but 1/4 of the received audio data shows a SNR below the SNR threshold, An error condition where there is too much background noise may be determined. Furthermore, in this case, if the movement of the network device in the playback environment is faster than the threshold speed of movement, but the SNR of the received audio data remains above the SNR threshold, the calibration may be allowed to continue, and Error conditions may not be identified. In other words, in this case, an error condition is not identified as long as the SNR of the received audio signal is above the SNR threshold. However, if the SNR of a portion of the received audio data (i.e., 1/4 as discussed above) is below the SNR threshold, the error condition is related to background noise or too fast movement. The determination of whether it is relevant may depend on the motion data. Other examples are possible as examples.

エラー状態に関する上述の説明は、例示を目的とするものであって、限定を意図するものではない。一般的な当業者には、他の例も可能であることが認識されるであろう。例えば、ネットワークデバイスの移動に関連するエラー状態については、例えば、オーディオデータがキャリブレーション手順中の比較的短時間にわたって予め決められた閾値を下回った場合、1つまたは複数の再生デバイスとネットワークデバイスとの間に1点の家具またはユーザが存在するような特性が決定されてもよい。決定された前記特性がオーディオデータの少なくとも1つのサブセット内に存在すれば、このようなエラー状態が識別されうる。   The above description of error conditions is for illustrative purposes and is not intended to be limiting. One of ordinary skill in the art will recognize that other examples are possible. For example, for an error condition associated with movement of a network device, for example, if the audio data has fallen below a predetermined threshold for a relatively short time during the calibration procedure, one or more playback devices and network devices A characteristic may be determined such that there is a piece of furniture or a user in between. Such an error condition can be identified if the determined characteristic is present in at least one subset of the audio data.

さらに、上述の例は、1つまたは複数のエラー状態を、オーディオデータのサブセットが受信される間に、オーディオデータのサブセットに基づいて識別することを含んでいるが、一般的な当業者であれば、1つまたは複数のエラー状態が、オーディオデータの受信が完了した後に、受信された全てのオーディオデータに基づいて決定される代替実施形態も可能であることが認識されるであろう。例としては、これら以外のものも可能である。   Further, the above example includes identifying one or more error conditions based on the subset of audio data while the subset of audio data is received, although those of ordinary skill in the art. For example, it will be appreciated that alternative embodiments are possible in which one or more error conditions are determined based on all received audio data after reception of the audio data is complete. Other examples are possible as examples.

c.識別されたエラー状態に関連づけられるグラフィック表示の、グラフィックディスプレイ上への表示
ブロック506において、実装500は、識別されたエラー状態に関連づけられるグラフィック表示をグラフィックインタフェース上へ表示するステップを含む。図7は、エラー状態が識別されるとグラフィックインタフェース上へ表示されうる、再生デバイスキャリブレーションエラー状態の例示的なユーザインタフェース700を示す。図示のように、ユーザインタフェース700は、インタフェース700上の表示されたコンテンツが、リビングルームゾーンにおける1つまたは複数の再生デバイスに対応することを示すグラフィック表示702を含む。
c. Display of Graphical Display Associated with Identified Error Condition on Graphical Display In block 506, implementation 500 includes displaying a graphic display associated with the identified error condition on a graphic interface. FIG. 7 shows an exemplary user interface 700 for a playback device calibration error condition that may be displayed on a graphic interface once the error condition is identified. As shown, the user interface 700 includes a graphical display 702 that indicates that the displayed content on the interface 700 corresponds to one or more playback devices in the living room zone.

ユーザインタフェース700は、識別されたエラー状態および/またはエラー状態を修正するための提案を記述するテキストメッセージを含むことができるグラフィック表示710をさらに含む。ユーザインタフェース700は、選択可能アイコン706および708をさらに含む。選択可能アイコン706が選択されて、キャリブレーションプロセスが再び試みられてもよく、かつ選択可能アイコン708が選択されて、キャリブレーションプロセスが終了してもよい。図示のように、グラフィック表示710は、図6のユーザインタフェース600のグラフィック表示604の一部または全ての灰色または淡色表示バージョンに重なってもよい。   User interface 700 further includes a graphical display 710 that can include a text message describing the identified error condition and / or suggestions for correcting the error condition. User interface 700 further includes selectable icons 706 and 708. Selectable icon 706 may be selected and the calibration process may be attempted again, and selectable icon 708 may be selected and the calibration process may end. As shown, the graphic display 710 may overlay some or all gray or light display versions of the graphic display 604 of the user interface 600 of FIG.

ある例において、各エラー状態(即ち、予め決められた複数のエラー状態のうちの各々)は、グラフィック表示710内に提供されるべき対応するテキストメッセージを有してもよい。例えば、識別されたエラー状態が不十分な移動に関連するものであれば、テキストメッセージの例は、「良好な測定値を得るために、デバイスを必ずゆっくりと上下に動かし、部屋全体を歩いてください。動きを多くして、もう一度試してください」であってもよい。別の例において、識別されたエラー状態が速すぎる移動に関連するものであれば、テキストメッセージの例は、「移動が少し速すぎて、チューニングのための良好な測定値が得られませんでした。もう一度、今度は速度を落として動いてみてください」であってもよい。   In one example, each error condition (ie, each of a plurality of predetermined error conditions) may have a corresponding text message to be provided in the graphical display 710. For example, if the identified error condition is related to inadequate movement, the text message example is: “To get a good measurement, always move the device slowly up and down and walk across the room. Please increase your movement and try again. " In another example, if the identified error condition is related to a move that is too fast, the text message example says, “The move was a bit too fast and did not give a good measurement for tuning. Again, try moving at a slower speed. "

ある例において、識別されたエラー状態が閾値レベルを上回るバックグラウンドノイズに関連するものであれば、テキストメッセージの例は、「チューニングのための良好な測定値が得られませんでした。バックグラウンドノイズを減らして、もう一度試してください」であってもよい。このような場合、グラフィック表示710は、ノイズメータの表示も含むことがあり、アイコン706を選択して再試行する前に、ユーザが再生環境内のバックグラウンドノイズのレベルが閾値レベルを下回って十分に低減しているかどうかをユーザで確認できるようにする。   In one example, if the identified error condition is related to background noise above a threshold level, the text message example says, “No good measurements for tuning. Background noise. Please try again. " In such a case, the graphical display 710 may also include a noise meter display so that the user has enough background noise level below the threshold level in the playback environment before selecting the icon 706 and retrying. The user can confirm whether or not it is reduced.

別の例において、識別されたエラー状態が塞がれたマイクロホンに関連するものであれば、テキストメッセージの例は、「デバイスにケースが付いていれば、取り外してください。マイクロホンが塞がっていないことも確認して、もう一度試してください」であってもよい。   In another example, if the identified error condition is related to a blocked microphone, the text message example should read "If the device has a case, remove it. The microphone is not blocked. Please check and try again. "

本明細書で論じているテキストメッセージの例は、単に例示を目的とするものであって、限定を意図するものではない。さらに、一般的な当業者には、他の例も可能であることが認識されるであろう。   The text message examples discussed herein are for illustrative purposes only and are not intended to be limiting. In addition, one of ordinary skill in the art will recognize that other examples are possible.

ある例では、オーディオデータの少なくとも1つのサブセットに基づいて複数のエラー状態が識別されてもよい。ある場合において、複数のエラー状態のうちの最も重大なエラー状態が識別されてもよく、かつ、この最も重大なエラー状態に対応するテキストメッセージがグラフィック表示710に表示されてもよい。別の場合では、複数のエラー状態のサブセット(即ち、最も重大な上位3つのエラー状態)が識別されてもよく、かつ複数のエラー状態のこのサブセットに対応するテキストメッセージがグラフィック表示710に表示されてもよい。さらに別の場合では、複数のエラー状態のうちの各々に対応するテキストメッセージが、グラフィック表示710に表示されてもよい。例としては、これら以外のものも可能である。   In some examples, multiple error conditions may be identified based on at least one subset of audio data. In some cases, the most severe error condition of the plurality of error conditions may be identified, and a text message corresponding to the most severe error condition may be displayed on the graphical display 710. In another case, a subset of multiple error conditions may be identified (ie, the most severe top three error conditions), and a text message corresponding to this subset of multiple error conditions may be displayed in graphical display 710. May be. In yet another case, a text message corresponding to each of a plurality of error conditions may be displayed on the graphic display 710. Other examples are possible as examples.

IV.キャリブレーション中にマイクロホンの動きの有効性を確認する技術の例
先に指摘したように、1つまたは複数のエラー状態は、1つまたは複数の再生デバイスのキャリブレーションの有効性に悪影響を及ぼすことがある。このようなエラー状態には、キャリブレーション中のマイクロホンの不適切な動きが含まれる。不適切な動きには、1つまたは複数の次元における不十分な移動、ならびに過剰または不十分な移動速度が含まれ得る。
IV. Examples of techniques for validating microphone movement during calibration As pointed out above, one or more error conditions can adversely affect the calibration effectiveness of one or more playback devices. There is. Such error conditions include improper movement of the microphone during calibration. Inappropriate movement may include insufficient movement in one or more dimensions, as well as excessive or insufficient movement speed.

ある例において、1つまたは複数のエラー状態は、キャリブレーション周期中に(即ち、1つ以上の再生デバイスによるキャリブレーショントーンの再生中、および録音デバイスのマイクロホンによるオーディオ信号の検出中に)検出されうる。ある場合において、1つまたは複数の再生デバイスのキャリブレーションは、キャリブレーション持続時間全体にわたるキャリブレーショントーンの再生およびオーディオ信号の検出が完了した後ではなく、エラー状態が識別された時に中断されかつ/または終了されてもよい。   In one example, one or more error conditions are detected during a calibration period (ie, during playback of a calibration tone by one or more playback devices and during detection of an audio signal by a microphone of a recording device). sell. In some cases, the calibration of one or more playback devices is interrupted when an error condition is identified and / or after completion of calibration tone playback and audio signal detection over the entire calibration duration and / or Or it may be terminated.

図8は、所定のエラー状態の検出を容易にするための実装800の例を示すフロー図である。実装800は、例えば、図1のメディア再生システム100、図2の再生デバイス200のうちの1つ以上、および制御デバイス300のうちの1つ以上を含む動作環境内で実装されることが可能な技術の例を提示している。ある例において、実装800は、メディア再生システムと通信するコンピュータ装置によって完全に、または部分的に実行されてもよい。例えば、実装800は、図1の制御デバイス126および128のうちの一方またはそれ以上によって実行されてもよい。このような場合、制御デバイス126および128のうちの1つまたはそれ以上は、各制御デバイスに実装800の機能を実行させるように各制御デバイスのプロセッサにより実行可能な命令を含むソフトウェアアプリケーションをインストールしていてもよい。   FIG. 8 is a flow diagram illustrating an example implementation 800 for facilitating detection of a predetermined error condition. The implementation 800 can be implemented within an operating environment that includes, for example, one or more of the media playback system 100 of FIG. 1, the playback device 200 of FIG. An example of the technology is presented. In certain examples, implementation 800 may be performed completely or partially by a computing device in communication with a media playback system. For example, implementation 800 may be performed by one or more of control devices 126 and 128 of FIG. In such a case, one or more of control devices 126 and 128 install a software application that includes instructions executable by the processor of each control device to cause each control device to perform the functions of implementation 800. It may be.

実装800は、ブロック802〜808のうちの1つ以上によって示されるような1つまたは複数の操作、機能、または動作を含む。各ブロックは、順番に示されているが、これらのブロックは、並行して、かつ/または本明細書に記述しているものとは異なる順序でも実行されてもよい。また、様々なブロックは、所望される実装に基づいて、より少ないブロックに結合されてもよく、追加のブロックに分割されてもよく、かつ/または除去されてもよい。さらに、本明細書に開示している実装800および他のプロセスおよび方法について、本フローチャートは、本実施形態の単に幾つかの可能な実装の機能および動作を示している。この関連で、各ブロックが、プロセスにおける特定の論理機能またはステップを実施するためにプロセッサにより実行可能な1つまたは複数の命令を含む、モジュール、セグメント、またはプログラムコードの一部分を表してもよい。プログラムコードは、例えば、ディスクまたはハードドライブを含む記憶デバイス等のあらゆる種類のコンピュータ読み取り可能媒体に格納されてもよい。   Implementation 800 includes one or more operations, functions, or operations as indicated by one or more of blocks 802-808. Each block is shown in order, but these blocks may be executed in parallel and / or in a different order than that described herein. Also, the various blocks may be combined into fewer blocks, divided into additional blocks, and / or removed based on the desired implementation. Further, for the implementation 800 and other processes and methods disclosed herein, the flowchart illustrates the functionality and operation of just a few possible implementations of this embodiment. In this regard, each block may represent a module, segment, or portion of program code that includes one or more instructions that can be executed by the processor to perform a particular logical function or step in the process. The program code may be stored on any kind of computer readable medium, for example a storage device including a disk or hard drive.

コンピュータ読み取り可能媒体は、例えば、レジスタメモリ、プロセッサキャッシュおよびランダム・アクセス・メモリ(RAM)のようなデータを短時間記憶するコンピュータ読み取り可能媒体等の非一時的コンピュータ読み取り可能媒体を含んでもよい。コンピュータ読み取り可能媒体は、例えば、リード・オンリ・メモリ(ROM)、光ディスク、磁気ディスク、コンパクトディスク・リード・オンリ・メモリ(CD−ROM)のような二次記憶装置又は永続記憶装置等の非一時的な媒体も含んでもよい。また、コンピュータ読み取り可能媒体は、他の任意の揮発性または不揮発性の記憶システムであってもよい。コンピュータ読み取り可能媒体は、例えば、コンピュータ読み取り可能記憶媒体、または有形記憶デバイスとされてもよい。さらに、実装800および本明細書に開示している他のプロセスおよび方法に対して、各ブロックが、プロセスにおいて特有の論理機能を実行するように配線される回路を表してもよい。   Computer-readable media may include non-transitory computer-readable media such as computer-readable media that store data for a short period of time, such as register memory, processor cache, and random access memory (RAM). The computer readable medium is a non-temporary storage device such as a secondary storage device or a permanent storage device such as a read only memory (ROM), an optical disk, a magnetic disk, a compact disk read only memory (CD-ROM). A typical medium may also be included. The computer readable medium may also be any other volatile or non-volatile storage system. The computer readable medium may be, for example, a computer readable storage medium or a tangible storage device. Further, for implementation 800 and other processes and methods disclosed herein, each block may represent a circuit that is wired to perform a specific logic function in the process.

a.マイクロホンの移動を示す動きデータの受信
ブロック802において、実装800は、マイクロホンの移動を示す動きデータを受信するステップを含む。例えば、録音デバイスは、マイクロホンと、録音デバイスの移動を示すデータを生成する1つまたは複数のセンサ(例えば、加速度計、ジャイロスコープまたは慣性測定ユニット)とを含んでもよい。録音デバイスは、これらのセンサから動きデータを受信してもよい。あるいは、制御デバイスまたは再生デバイス等の処理デバイスは、録音デバイスから動きデータを受信してもよい。幾つかの場合において、録音デバイスは、制御デバイス(例えば、制御デバイス300)として実施されてもよく、これはまた、処理デバイスであってもよい。またさらに、幾つかの場合において、録音デバイスから離れているデバイス(例えば、再生デバイス)上のセンサは、録音デバイスの動きを追跡する、ビジョン(カメラ)、赤外線、またはレーザ追跡システム等の遠隔追跡システムを含んでもよい。
a. Receiving Motion Data Indicating Microphone Movement In block 802, implementation 800 includes receiving motion data indicative of microphone movement. For example, the recording device may include a microphone and one or more sensors (eg, accelerometer, gyroscope or inertial measurement unit) that generate data indicative of movement of the recording device. The recording device may receive motion data from these sensors. Alternatively, a processing device such as a control device or playback device may receive motion data from the recording device. In some cases, the recording device may be implemented as a control device (eg, control device 300), which may also be a processing device. Still further, in some cases, a sensor on a device that is remote from the recording device (eg, a playback device) is a remote tracking such as a vision (camera), infrared, or laser tracking system that tracks the movement of the recording device. A system may be included.

例えば、あるキャリブレーション手順の例において、録音デバイスは、1つまたは複数の再生デバイスがキャリブレーション音を放出しているという指示を受信することがある。このような指示は、他の例の中でもとりわけ、(おそらくはキャリブレーションインタフェース上に表示される)キャリブレーションを開始する選択可能な制御によって、または、再生デバイスがキャリブレーション音の放出を開始することを示す再生デバイスからのメッセージによって、受信されてもよい。キャリブレーション音が放出される間、録音デバイスは、マイクロホンを介してキャリブレーション音を検出し、かつキャリブレーション音を表すマイクロホンデータをデータ記憶装置に記録してもよい。   For example, in one example calibration procedure, the recording device may receive an indication that one or more playback devices are emitting a calibration sound. Such an indication, among other examples, indicates that a selectable control to initiate calibration (possibly displayed on the calibration interface) or that the playback device begins to emit a calibration sound. It may be received by a message from the playback device shown. While the calibration sound is emitted, the recording device may detect the calibration sound via the microphone and record microphone data representing the calibration sound in the data storage device.

同じくキャリブレーション音が放出される間、録音デバイスは、1つまたは複数のセンサ(例えば、加速度計、ジャイロスコープまたは慣性測定ユニット)に、マイクロホンがキャリブレーション音を検出している間のマイクロホンの移動を示す動きデータを生成させてもよい。先に述べたように、マイクロホンを含む録音デバイスは、1つまたは複数の再生デバイスをキャリブレーションするプロセスによってユーザを誘導するためのキャリブレーションインタフェースを提供するネットワークデバイスの一部であってもよい。別の例において、マイクロホンは、録音デバイスの外部にあって録音デバイスへ通信可能に結合されるマイクロホンであってもよい。センサは、マイクロホンと同じデバイス(例えば、録音/ネットワークデバイス)またはハウジング(例えば、録音デバイスへ結合されるマイクロホンハウジング)内に取り付けられてもよく、よって、センサにより検出される動きは、マイクロホンの動きを実質的に表す。本明細書における説明において、録音/ネットワークデバイスの物理的移動は、マイクロホンの同時的な物理的移動を引き起こしうる。   While the calibration sound is also emitted, the recording device can move one or more sensors (eg, accelerometer, gyroscope or inertial measurement unit) to move the microphone while the microphone detects the calibration sound. May be generated. As previously mentioned, a recording device that includes a microphone may be part of a network device that provides a calibration interface to guide the user through the process of calibrating one or more playback devices. In another example, the microphone may be a microphone external to the recording device and communicatively coupled to the recording device. The sensor may be mounted in the same device as the microphone (eg, a recording / network device) or housing (eg, a microphone housing coupled to the recording device), so that the movement detected by the sensor is the movement of the microphone. Is substantially represented. In the description herein, physical movement of the recording / network device may cause simultaneous physical movement of the microphone.

異なるセンサは、異なる種類の動きデータを生成できる。例えば、加速度計、ジャイロスコープまたは慣性測定ユニットは、加速度を表すデータを生成してもよい。このような加速度データは、3次元における加速度を含んでもよい。幾つかの例において、加速度データは、他の可能な例の中でもとりわけ、録音デバイスに対するユーザの加速度、ならびにキャリブレーションデバイスに対する重力加速度を示してもよい。   Different sensors can generate different types of motion data. For example, an accelerometer, gyroscope or inertial measurement unit may generate data representing acceleration. Such acceleration data may include acceleration in three dimensions. In some examples, the acceleration data may indicate the user's acceleration relative to the recording device, as well as the gravitational acceleration relative to the calibration device, among other possible examples.

マイクロホンは、動きデータも生成できる。例えば、キャリブレーション中の1つまたは複数の再生デバイス(およびおそらくは、キャリブレーション中ではないが録音デバイスの範囲にある他の再生デバイス)からのオーディオの伝播遅延は、各再生デバイスからマイクロホンまでの半径方向距離を示してもよい。このような半径方向距離は、キャリブレーション周期中のマイクロホン(およびおそらくは、録音デバイス自体)の動きに伴って、キャリブレーション周期にわたって変わってもよい。   The microphone can also generate motion data. For example, the propagation delay of audio from one or more playback devices being calibrated (and possibly other playback devices that are not being calibrated but are in the range of recording devices) is the radius from each playback device to the microphone. The direction distance may be indicated. Such radial distance may vary over the calibration period as the microphone (and possibly the recording device itself) moves during the calibration period.

例えば、ある例において、所定の再生デバイスにより放出されるキャリブレーション音は、一定の間隔で反復するチャープを含んでもよい。チャープが反復する間隔の僅かな変化がマイクロホンと再生デバイスとの間の変化する伝搬遅延を表し得るため、マイクロホンと所定の再生デバイスとの距離を決定するために、録音デバイスは、チャープが反復する間隔の変化を検出してもよい。幾つかの場合において、マイクロホンは、放出されたキャリブレーション音、およびこのキャリブレーション音の1つまたは複数の反射の双方を検出できることから、録音デバイスは、キャリブレーション音がリスニングエリア内での反射に伴って音の強さを失うという理由により、最大の音強度を有する(即ち、最も音が大きい)ものとして検出されたキャリブレーション音の例を識別してもよい。   For example, in one example, the calibration sound emitted by a given playback device may include a chirp that repeats at regular intervals. In order to determine the distance between the microphone and a given playback device, the recording device repeats the chirp because a slight change in the chirp repeat interval can represent a changing propagation delay between the microphone and the playback device. A change in the interval may be detected. In some cases, the microphone can detect both the emitted calibration sound and one or more reflections of this calibration sound, so that the recording device can reflect the calibration sound in the listening area. An example of a calibration sound detected as having the highest sound intensity (i.e., the loudest sound) may be identified because of the accompanying loss of sound intensity.

動きデータの中で、処理デバイスは、特定の次元における動きを示す1つまたは複数の成分を識別できる。例えば、動きデータの中で、処理デバイスは、他の可能性のある動きデータの中でもとりわけ、おそらくは重力に対する加速度データから、録音デバイスの垂直方向の移動を示す成分を識別してもよい。このような成分は、最終的に、垂直方向の、およびおそらくは1つまたは複数のさらなる次元における動きの有効性を確認するために使用されてもよい。別の例として、動きデータの中で、処理デバイスは、おそらくはマイクロホンと1つまたは複数の再生デバイスの各々との間の変化する伝搬遅延(および、変化する半径)を示すオーディオおよびタイミングデータから、録音デバイスによる1つまたは複数の再生デバイスからの半径方向の移動を示す成分を識別してもよい。   Within the motion data, the processing device can identify one or more components that exhibit motion in a particular dimension. For example, in the motion data, the processing device may identify a component indicative of vertical movement of the recording device, possibly from acceleration data relative to gravity, among other possible motion data. Such components may ultimately be used to confirm the validity of the movement in the vertical direction and possibly in one or more additional dimensions. As another example, in the motion data, the processing device may possibly be from audio and timing data indicating a changing propagation delay (and changing radius) between the microphone and each of the one or more playback devices, Components that indicate radial movement from the one or more playback devices by the recording device may be identified.

成分を識別することは、受信される動きデータを統合して他の種類の動きデータを決定することを含んでもよい。例えば、重力に対する加速度データは、重力に対する(例えば、上向きおよび下向きの)速度を決定するために統合されてもよく、かつ距離を決定するために統合されてもよい。あるキャリブレーション手順の例が、キャリブレーション周期中にマイクロホンを上下に動かすことを提案するものとすれば、このような移動は、マイクロホンがキャリブレーション手順毎に動かされることを条件に、重力(即ち垂直)に対して略正弦曲線的であり得る。逆に、キャリブレーション手順中にマイクロホンが動かされなければ、移動データは、キャリブレーション周期にわたって垂直方向の変化がほとんどないことを表す平坦な曲線を示してもよい。   Identifying the components may include integrating the received motion data to determine other types of motion data. For example, acceleration data for gravity may be integrated to determine velocity (eg, upward and downward) with respect to gravity and may be integrated to determine distance. If an example calibration procedure suggests moving the microphone up and down during the calibration period, such movement is subject to gravity (ie, subject to the microphone being moved from one calibration procedure to another). It can be approximately sinusoidal to (vertical). Conversely, if the microphone is not moved during the calibration procedure, the movement data may show a flat curve representing little vertical change over the calibration period.

キャリブレーション中の録音デバイスの移動を示すために、図9に、図1のメディア再生システム100を示す。図9は、経路900を示している。録音デバイス(例えば、制御デバイス126)は、キャリブレーション中に、経路900に沿って移動する場合もある。先に述べたように、制御デバイスは、このような移動をどのように実行するかを、他の例の中でもとりわけ映像またはアニメーション等による様々な方法で示してもよい。この経路は、移動を水平面において示しているが、一部のキャリブレーション手順の例により企図される移動は、(例えば、ユーザがマイクロホンを持ったまま腕を上下に動かすことによる)垂直の動きを含んでもよい。   To illustrate the movement of the recording device during calibration, FIG. 9 shows the media playback system 100 of FIG. FIG. 9 shows the path 900. The recording device (eg, control device 126) may move along path 900 during calibration. As mentioned above, the control device may indicate how to perform such movement in various ways, such as by video or animation, among other examples. Although this path shows movement in the horizontal plane, movements contemplated by some example calibration procedures may cause vertical movement (eg, by moving the arm up and down while the user is holding the microphone). May be included.

幾つかの実施形態において、制御デバイス126は、再生デバイス(例えば、再生デバイス108)により放出されるキャリブレーション信号を、経路に沿った様々な点(例えば、他の点の中でもとりわけ、点902および/または点904)で検出してもよい。あるいは、制御デバイスは、キャリブレーション信号を経路に沿って記録してもよい。幾つかの実施形態において、再生デバイスが経路に沿った異なる点でキャリブレーション信号のインスタンスを記録するように、再生デバイスは周期的なキャリブレーション信号を再生(または、おそらくは、同じキャリブレーション信号を反復)してもよい。このような記録の比較は、音響特性が環境内の物理的場所毎にどのように変わるかを示してもよい。これは、その環境における再生デバイス用に選ばれるキャリブレーション設定に影響を及ぼす。   In some embodiments, the control device 126 transmits calibration signals emitted by the playback device (eg, playback device 108) to various points along the path (eg, point 902 and, among other points, / Or point 904) may be detected. Alternatively, the control device may record the calibration signal along the path. In some embodiments, the playback device plays a periodic calibration signal (or perhaps repeats the same calibration signal so that the playback device records instances of the calibration signal at different points along the path. ) Such a comparison of records may indicate how the acoustic characteristics vary from physical location to environmental location. This affects the calibration settings chosen for the playback device in that environment.

図10Aは、プロット1002Aを含むグラフ1000Aを示す。プロット1002Aは、例示的なキャリブレーション手順の第1のインスタンスにおける例示的な垂直動きデータを表す。図示のように、マイクロホンの垂直高さは、経時的にほぼ正弦曲線的に変わる。これは、ユーザがキャリブレーション手順の第1のインスタンスの間にマイクロホンを上下に動かすことに一致するものと思われる。   FIG. 10A shows a graph 1000A that includes a plot 1002A. Plot 1002A represents exemplary vertical motion data in the first instance of the exemplary calibration procedure. As shown, the vertical height of the microphone changes approximately sinusoidally over time. This appears to be consistent with the user moving the microphone up and down during the first instance of the calibration procedure.

図10Bは、プロット1002Bを含むグラフ1000Bを示す。プロット1002Bは、例示的なキャリブレーション手順の第1のインスタンスにおける例示的な垂直動きデータを表す。図示のように、マイクロホンの垂直高さは、経時的にほぼ同じである。これは、ユーザがキャリブレーション手順の第2のインスタンスの間にマイクロホンを一定の高さに保つことに一致するものと思われる。   FIG. 10B shows a graph 1000B that includes a plot 1002B. Plot 1002B represents exemplary vertical motion data in the first instance of the exemplary calibration procedure. As shown, the vertical height of the microphone is approximately the same over time. This appears to be consistent with the user keeping the microphone at a constant height during the second instance of the calibration procedure.

幾つかの例において、再生デバイスにより放出されるキャリブレーション音は、周期的である。例えば、ある所定の再生デバイスは、キャリブレーショントーンを繰り返し放出してもよい。キャリブレーショントーンの各周期または反復は、(マイクロホンが動いているとすると)異なる位置からのリスニングエリアの応答を表すサンプルに一致し得る。幾つかの例において、録音デバイスは、サンプルをグループで受信してもよく、これは、フレームと称されてもよい。各フレームは、各フレームが、マイクロホンによってキャリブレーショントーンの所定の反復が検出されていた間のマイクロホンの動きを表すような、キャリブレーショントーンの周期または反復に対応してもよい。   In some examples, the calibration sound emitted by the playback device is periodic. For example, a given playback device may repeatedly emit calibration tones. Each period or repetition of the calibration tone may correspond to a sample representing the response of the listening area from a different location (assuming the microphone is moving). In some examples, the recording device may receive the samples in groups, which may be referred to as a frame. Each frame may correspond to a period or repetition of the calibration tone such that each frame represents the movement of the microphone while a predetermined repetition of the calibration tone was detected by the microphone.

キャリブレーション音の反復例を示すために、図11は、ある例示的なキャリブレーション音の反復の一例(例えば、周期またはサイクル)を示す。この反復は、フレーム1100として表されている。フレーム1100は、掃引信号成分1102と、ノイズ成分1104とを含む。掃引信号成分1102は、下向きの傾斜線として示されていて、キャリブレーション範囲(例えば、再生デバイスがキャリブレーションされるべき周波数の範囲)の周波数にわたって下降する掃引信号を示している。ノイズ成分1104は、1つの領域として示されていて、フレーム1100全体にわたる低周波ノイズを示している。図示のように、掃引信号成分1102およびノイズ成分は、遷移周波数範囲において重なっているが、これは、両成分間の急激な遷移によって不快な音が生じることを防止できる。キャリブレーション音の周期1106は、音の略3/8(例えば、1/4〜1/2秒の範囲内)であるが、これは、実装によっては、単一チャネルのキャリブレーション周波数範囲をカバーするに足る時間である。フレーム1100内のキャリブレーション音は、複数の成分を含むことから、ハイブリッドキャリブレーション音と呼ばれることがある。ハイブリッドキャリブレーション音は、ある範囲のキャリブレーション周波数をカバーする上で様々な利点を有する。   To illustrate a calibration sound iteration example, FIG. 11 shows an example calibration sound iteration example (eg, period or cycle). This iteration is represented as frame 1100. Frame 1100 includes a sweep signal component 1102 and a noise component 1104. The sweep signal component 1102 is shown as a downward sloping line and represents a sweep signal that falls over a frequency in the calibration range (eg, the range of frequencies at which the playback device is to be calibrated). The noise component 1104 is shown as one region and represents low frequency noise throughout the frame 1100. As shown in the figure, the sweep signal component 1102 and the noise component overlap in the transition frequency range, but this can prevent an unpleasant sound from being caused by a sudden transition between the two components. The calibration sound period 1106 is approximately 3/8 of the sound (eg, within the range of 1/4 to 1/2 second), but this covers the calibration frequency range of a single channel, depending on the implementation. It is time to do. Since the calibration sound in the frame 1100 includes a plurality of components, it may be called a hybrid calibration sound. Hybrid calibration sounds have various advantages in covering a range of calibration frequencies.

図12は、周期的なキャリブレーション音1200の例を示す。ハイブリッドキャリブレーション音1100の5つの反復(例えば、周期)が、フレーム1202、1204、1206、1208および1210として表されている。各反復またはフレームにおいて、周期的なキャリブレーション音1200は、2つの成分(例えば、ノイズ成分および掃引信号成分)を用いてキャリブレーション周波数範囲をカバーする。あるキャリブレーション周期の間、録音デバイスは、これらのキャリブレーションフレームを記録し、かつフレーム1202、1204、1206、1208および1210が再生デバイスにより放出されかつマイクロホンにより検出される間に生じる動きに対応する動きデータの各フレームも受信してもよい。幾つかの例において、録音デバイスは、これらの動きデータのフレームを、これらがセンサにより発生されるにつれて受信してもよい。あるいは、デバイスは、他の例の中でもとりわけ、センサからサンプルのデータストリームを受信しても、キャリブレーション周期の後に動きデータを受信してもよい。   FIG. 12 shows an example of a periodic calibration sound 1200. Five iterations (eg, periods) of the hybrid calibration sound 1100 are represented as frames 1202, 1204, 1206, 1208, and 1210. In each iteration or frame, the periodic calibration sound 1200 covers the calibration frequency range using two components (eg, a noise component and a swept signal component). During a calibration period, the recording device records these calibration frames and responds to movements that occur while frames 1202, 1204, 1206, 1208 and 1210 are emitted by the playback device and detected by the microphone. Each frame of motion data may also be received. In some examples, the recording device may receive these frames of motion data as they are generated by the sensor. Alternatively, the device may receive a sample data stream from a sensor, among other examples, or may receive motion data after a calibration period.

b.キャリブレーション周期中におけるマイクロホンの動きの有効性の確認
ブロック804において、実装800は、キャリブレーション周期中のマイクロホンの動きの有効性を確認するステップを含む。マイクロホンの動きの有効性を確認するステップは、キャリブレーション周期中、再生デバイスがキャリブレーション音を放出していた間にマイクロホンの十分な移動が生じたかどうかを決定することを含んでもよい。例において、処理デバイスは、1つまたは複数の方向(例えば、垂直、水平または半径方向)における移動の有効性を確認してもよい。また、処理デバイスは、動きの有効性の確認を、マイクロホンの速度が閾値の限度内であったかどうかを決定することによって行ってもよい。動きの有効性の確認は、他の種類も企図されている。
b. Checking the validity of microphone movement during the calibration period In block 804, the implementation 800 includes checking the validity of the movement of the microphone during the calibration period. Checking the validity of the microphone movement may include determining whether sufficient movement of the microphone has occurred during the calibration period while the playback device was emitting a calibration sound. In an example, the processing device may confirm the effectiveness of movement in one or more directions (eg, vertical, horizontal or radial). The processing device may also verify the validity of the movement by determining whether the microphone speed was within threshold limits. Other types of verification of movement effectiveness are also contemplated.

マイクロホンが十分な垂直の動きを経験したという決定によって、垂直の動きの有効性を確認するために、処理デバイスは、キャリブレーション周期中のマイクロホンの動きを表す1つまたは複数の垂直動きパラメータを決定してもよい。先に述べたように、処理デバイスは、動きデータの垂直方向成分(例えば、プロット1002Aおよび1002Bにより表される例示的な動きデータ)を識別してもよい。このような成分は、マイクロホンの垂直振動またはおそらくは垂直方向の線形的な動きを識別してもよい。処理デバイスは、識別される成分から定数(即ち、垂直動きパラメータ)を推測することができる。このようなパラメータは、他の例の中でもとりわけ、垂直方向の動きデータの平均(例えば、垂直振動の二乗平均平方根(RMS)値)または垂直方向の線形振動の時間平均を含んでもよい。   In order to confirm the validity of the vertical movement by determining that the microphone has experienced sufficient vertical movement, the processing device determines one or more vertical movement parameters representing the movement of the microphone during the calibration period. May be. As noted above, the processing device may identify vertical components of motion data (eg, exemplary motion data represented by plots 1002A and 1002B). Such a component may identify a vertical vibration or possibly a vertical linear movement of the microphone. The processing device can infer a constant (ie, vertical motion parameter) from the identified components. Such parameters may include, among other examples, an average of vertical motion data (eg, root mean square (RMS) value of vertical vibration) or a time average of vertical linear vibration.

処理デバイスは、垂直動きパラメータが垂直動き閾値を超えると決定することによって、キャリブレーション周期中に制御デバイスの十分な垂直移動が生じたと決定することができる。垂直動き閾値は、所定量の垂直動き(即ち、品質オーディオキャリブレーションデータにとって十分であると決定される動き)に相当する値に設定されてもよい。例えば、このような閾値は、キャリブレーション周期のかなりの部分(例えば、75%以上)にわたるマイクロホンによる数フィート(人の典型的な腕の長さに一致)の範囲内の上下の移動の平均に一致するように設定されてもよい。別の例として、閾値は、キャリブレーション周期中の所定数の垂直振動に対応してもよい。幾つかの実施形態において、垂直動き閾値は、大多数のキャリブレーション周期における垂直の動きの特徴である。処理デバイスは、このようなパラメータを、半径方向または水平方向等の他の次元の動きについても決定してもよい。   The processing device can determine that sufficient vertical movement of the control device has occurred during the calibration period by determining that the vertical motion parameter exceeds the vertical motion threshold. The vertical motion threshold may be set to a value corresponding to a predetermined amount of vertical motion (ie, motion determined to be sufficient for quality audio calibration data). For example, such a threshold is an average of up and down movement within a few feet (matching a typical arm length of a person) by a microphone over a significant portion of the calibration period (eg, 75% or more). It may be set to match. As another example, the threshold may correspond to a predetermined number of vertical vibrations during the calibration period. In some embodiments, the vertical motion threshold is a feature of vertical motion in the majority of calibration periods. The processing device may also determine such parameters for other dimensions of movement, such as radial or horizontal.

動作中、動きパラメータは、キャリブレーション周期中またはキャリブレーション周期後の1つまたは複数の点のうちのいずれかにおいて決定され、かつおそらくは決定し直されてもよい。例えば、垂直動きパラメータは、キャリブレーション周期を通して連続的または離散的に更新されてもよい。幾つかの実施形態において、処理デバイスは、動きデータの1つまたは複数の追加フレームを受信した時点で、パラメータを繰り返し更新してもよい。   In operation, motion parameters may be determined and possibly re-determined at one or more points during or after the calibration cycle. For example, the vertical motion parameters may be updated continuously or discretely throughout the calibration period. In some embodiments, the processing device may repeatedly update the parameters upon receipt of one or more additional frames of motion data.

状況によっては、処理デバイスは、垂直動きパラメータ(および/または他の方向の動きを表す他のパラメータ)の決定に際して、キャリブレーション周期の全てについては考察しないことがある。例えば、ユーザは、再生デバイスがキャリブレーション音を放出し始めても、すぐにはマイクロホンを動かし始めない場合もあり得ることから、処理デバイスは、垂直動きパラメータの有効性の確認をキャリブレーション周期途中のある時点(例えば、キャリブレーション周期の1/4が経過した後)で開始してもよい。別の例として、処理デバイスは、マイクロホンがキャリブレーション周期途中のある点で所定の方向の動きを十分に経験したと決定すれば、動きパラメータの決定に際してさらなる動きデータを考慮しない場合もある。さらなる例として、処理デバイスは、キャリブレーションの途中で動きが有効であり得ないと決定すれば、測定を中止してもよい。   In some situations, the processing device may not consider all of the calibration periods when determining vertical motion parameters (and / or other parameters that represent motion in other directions). For example, the processing device may check the validity of the vertical motion parameter during the calibration cycle because the user may not immediately start moving the microphone even if the playback device begins to emit a calibration sound. You may start at a certain time (for example, after 1/4 of the calibration period has elapsed). As another example, if the processing device determines that the microphone has sufficiently experienced movement in a given direction at some point during the calibration period, it may not consider further motion data in determining the motion parameters. As a further example, if the processing device determines that the motion cannot be valid during calibration, the processing device may abort the measurement.

先に述べたように、処理デバイスは、半径方向の動きに関する動きパラメータを決定してもよく、処理デバイスは、これを用いて再生デバイスに対するマイクロホンの半径方向の動きの有効性を確認してもよい。例において、処理デバイスは、キャリブレーション周期中のマイクロホンからの半径方向距離の合計または平均変化を示す動きパラメータを決定してもよい。このパラメータが閾値を超えるものとすると、処理デバイスは、マイクロホンの十分な半径方向の動きが生じたと決定してもよい。先に指摘したように、マイクロホンと再生デバイスとの半径方向距離を示す動きデータは、再生デバイスとマイクロホンとの間の伝播遅延を測定することによって生成されてもよい。   As mentioned earlier, the processing device may determine motion parameters for radial motion, which may be used by the processing device to confirm the effectiveness of the microphone radial motion relative to the playback device. Good. In an example, the processing device may determine a motion parameter that indicates a total or average change in radial distance from the microphone during the calibration period. If this parameter exceeds the threshold, the processing device may determine that sufficient radial movement of the microphone has occurred. As pointed out above, motion data indicative of the radial distance between the microphone and the playback device may be generated by measuring the propagation delay between the playback device and the microphone.

幾つかの例において、処理デバイスは、別の方向の動き(例えば、リスニングエリアを横切る水平方向の動き)の有効性を、必ずしもその測定平面における動きを直接表す動きデータを用いることなく、確認できる。例えば、処理デバイスは、録音デバイスのリスニングエリア内における水平方向の動きを、録音デバイスの垂直方向および半径方向の動きを示す動きデータを用いて決定してもよい。幾つかの場合において、このようなデータは、水平方向の動きデータより比較的容易に取得されうる。しかしながら、リスニングエリアを横切る水平面における十分な動きを用いるキャリブレーションは、このような動きによらないキャリブレーションより比較的有用であり得る。   In some examples, the processing device can confirm the effectiveness of another direction of movement (eg, horizontal movement across the listening area) without necessarily using movement data that directly represents movement in its measurement plane. . For example, the processing device may determine horizontal movement within the listening area of the recording device using movement data indicating vertical and radial movement of the recording device. In some cases, such data can be obtained relatively easily from horizontal motion data. However, calibration with sufficient movement in the horizontal plane across the listening area may be more useful than calibration without such movement.

録音デバイスの水平方向の動きを表す1つまたは複数の水平動きパラメータを決定するために、処理デバイスは、制御デバイスの垂直方向の移動を示す動きデータの第1の成分と、制御デバイスの1つまたは複数の再生デバイスからの半径方向の移動を示す動きデータの第2の成分とを相互相関してもよい。2方向における重大な動きを所与として、各方向の動きを示す動きデータが密に相関する可能性は低い。しかしながら、重大な動きが一方向のみ存在すれば(または、どの方向にも全くなければ)、各方向の動きを示す動きデータは、密に相関する可能性が高い。したがって、相対相関する垂直および半径方向の動きは、水平方向の移動が比較的少ないことを示し得る。逆に、相対相関のない垂直および半径方向の動きは、相対的に多い水平方向の移動を示し得る。   In order to determine one or more horizontal motion parameters representing the horizontal movement of the recording device, the processing device includes a first component of motion data indicative of the vertical movement of the control device and one of the control devices. Alternatively, the second component of the motion data indicating radial movement from a plurality of playback devices may be cross-correlated. Given significant motion in two directions, it is unlikely that motion data indicating motion in each direction is closely correlated. However, if there is significant motion in only one direction (or none in any direction), motion data indicating motion in each direction is likely to be closely correlated. Thus, relative correlated vertical and radial movements may indicate relatively little horizontal movement. Conversely, vertical and radial movement without relative correlation may indicate relatively much horizontal movement.

他の次元における動きデータの相互相関によって水平方向の移動の有効性を確認するために、処理デバイスは、相互相関に適する動きデータを取得してもよい。例えば、ある例において、処理デバイスは、キャリブレーション周期にわたる連続的な半径方向の動き測定値(例えば、マイクロホンと再生デバイスとの各距離を示す離散サンプル)、およびキャリブレーション周期にわたる連続的な動き測定値(例えば、垂直移動を示す離散サンプル)を受信する。あるいは、処理デバイスは、キャリブレーション周期の少なくとも一部にわたって重なり合う測定値を受信してもよい。   In order to confirm the effectiveness of horizontal movement by cross-correlation of motion data in other dimensions, the processing device may obtain motion data suitable for cross-correlation. For example, in one example, the processing device may have continuous radial motion measurements over a calibration period (eg, discrete samples indicating each distance between the microphone and the playback device), and continuous motion measurements over the calibration period. A value (eg, a discrete sample that indicates vertical movement) is received. Alternatively, the processing device may receive measurements that overlap over at least a portion of the calibration period.

幾つかの例において、これらの測定値は、相互相関を容易にするように準備されてもよい。例えば、測定値は、同じ時間期間(即ち、同じ動きであるが方向が異なる)を表すようにトリミングされてもよい。さらに、測定値は、各測定におけるサンプル数が一致するようにアップサンプリングされても、ダウンサンプリングされてもよい。また、相互相関をさらに容易にするために、処理デバイスは、おそらくは各データセットの平均をそのデータセット内の全ての値から減算することによって、測定データセットを同じ値(例えば、0)のまわりに集中させてもよい。またさらに、処理デバイスは、測定データセットを互いに対して、各データセットの特定の最大値(例えば、1)にスケーリングすることによって正規化してもよい。センサエラー(例えば、スパイク)および他の非測定アーティファクトを説明するために、データは、このようなアーティファクトを除去するためにフィルタリングされてもよい。相互相関は、代替的または追加的な処理によってさらに容易にされうる。   In some examples, these measurements may be prepared to facilitate cross-correlation. For example, the measurements may be trimmed to represent the same time period (ie, the same movement but different direction). Furthermore, the measurement values may be up-sampled or down-sampled so that the number of samples in each measurement matches. Also, to further facilitate cross-correlation, the processing device may cause the measurement data set to be around the same value (eg, 0), perhaps by subtracting the average of each data set from all values in that data set. You may concentrate on. Still further, the processing device may normalize the measurement data sets relative to each other by scaling to a specific maximum value (eg, 1) for each data set. In order to account for sensor errors (eg, spikes) and other non-measurement artifacts, the data may be filtered to remove such artifacts. Cross-correlation can be further facilitated by alternative or additional processing.

2つの次元(例えば、垂直および半径方向)の測定値を取得した後、処理デバイスは、2つのデータセットを相互相関させて、相関定数(即ち、水平動きパラメータ)を決定してもよい。相互相関は、2つの級数(例えば、測定値)の類似性の、一方の他方に対する遅れの関数としての尺度である。比較的高い相関定数は、データセットが密に相関していることを示す。データセットが各方向の動きデータである場合、比較的高い相関定数は、第3の次元における比較的少ない動きを示す。逆に、比較的低い相関定数は、データセット間に十分な相関性がないことから、第3の次元において比較的多くの動きが生じたことを示す。水平の動きの有効性を確認するために、処理デバイスは、水平動きパラメータが相関閾値を超えているかどうかを決定してもよい。相関閾値は、リスニング環境内における十分な水平方向移動(例えば、閾値距離にわたるおよび/または閾値持続時間にわたる水平方向移動)を示す値に設定されてもよい。   After obtaining measurements in two dimensions (eg, vertical and radial), the processing device may cross-correlate the two data sets to determine a correlation constant (ie, a horizontal motion parameter). Cross-correlation is a measure of the similarity of two series (eg, measurements) as a function of delay relative to one other. A relatively high correlation constant indicates that the data set is closely correlated. If the data set is motion data in each direction, a relatively high correlation constant indicates relatively little motion in the third dimension. Conversely, a relatively low correlation constant indicates that there is relatively much movement in the third dimension because there is not enough correlation between the data sets. In order to verify the validity of the horizontal motion, the processing device may determine whether the horizontal motion parameter exceeds a correlation threshold. The correlation threshold may be set to a value that indicates sufficient horizontal movement within the listening environment (eg, horizontal movement over a threshold distance and / or over a threshold duration).

相互相関を示すために、図13Aおよび図13Bは、相関グラフの例を示す。図13Aは、相関性の強い例示的な垂直動きデータ1302A、および例示的な半径方向動きデータ1304Aを示すプロット1300Aを含む。この例において、キャリブレーションプロセスを実行するユーザは、録音デバイスを上下へと垂直に動かす間、じっと立っていた(または、ほとんど動かなかった)ものと思われ、よって、録音デバイスの垂直の動きによって密接に変わる半径方向変位が発生する。   To show the cross-correlation, FIGS. 13A and 13B show examples of correlation graphs. FIG. 13A includes a plot 1300A showing exemplary highly correlated vertical motion data 1302A and exemplary radial motion data 1304A. In this example, the user performing the calibration process appears to have stood still (or hardly moved) while moving the recording device vertically up and down, and thus the vertical movement of the recording device Closely changing radial displacement occurs.

図13Bは、相関性の強い例示的な垂直動きデータ1302B、および例示的な半径方向動きデータ1304Bを示すプロット1300Bを含む。この例では、ユーザは、録音デバイスを上下に動かしながらリスニングエリアを歩き回っていたと思われ、よって、垂直の動きと半径方向変位との間のより緩やかな相関が生じる。このプロットにおいて、半径方向動きデータ1304Bの動き平均の傾きは、キャリブレーション周期にわたって生じた水平移動と直に相関される。   FIG. 13B includes a plot 1300B showing exemplary highly correlated vertical motion data 1302B and exemplary radial motion data 1304B. In this example, the user is likely walking around the listening area while moving the recording device up and down, thus creating a more gradual correlation between vertical movement and radial displacement. In this plot, the slope of the motion average of the radial motion data 1304B is directly correlated with the horizontal movement that occurred over the calibration period.

幾つかの場合において、処理デバイスは、1つまたは複数の次元における複数の測定値を受信してもよい。ある例では、複数の再生デバイスが、複数の半径方向の測定データセット(例えば、マイクロホンに対する各再生デバイス毎に1つのデータセット)を生成できる同時キャリブレーションを受けていてもよい。処理デバイスは、第1の測定平面(例えば、垂直平面)におけるデータと、第2の測定平面(例えば、半径方向平面)における複数のデータセットとを相互相関することによって、複数のデータセットの各水平動きパラメータ(例えば、相関定数)を決定してもよい。リスニングエリアにわたって十分な水平方向移動が生じたかどうかを決定するために、処理デバイスは、水平動きパラメータを閾値と比較してもよく、かつ処理デバイスは、水平動きパラメータを水平動き相関閾値と比較してもよい。   In some cases, the processing device may receive multiple measurements in one or more dimensions. In one example, multiple playback devices may be subjected to simultaneous calibration that can generate multiple radial measurement data sets (eg, one data set for each playback device for a microphone). The processing device cross-correlates the data in the first measurement plane (eg, vertical plane) and the plurality of data sets in the second measurement plane (eg, radial plane), thereby each of the plurality of data sets. A horizontal motion parameter (eg, a correlation constant) may be determined. To determine whether sufficient horizontal movement has occurred across the listening area, the processing device may compare the horizontal motion parameter to a threshold value, and the processing device may compare the horizontal motion parameter to a horizontal motion correlation threshold value. May be.

マイクロホンの動きの有効性を確認することは、キャリブレーション周期中のマイクロホンの速度の有効性を確認することを含んでもよい。過度の速度は、おそらくは検出されるキャリブレーション音内にドップラーシフトを生成することによってキャリブレーションを妨害することがあり、これにより、キャリブレーショントーンの各反復間に重なり合いが引き起される。速度の有効性を確認するために、処理デバイスは、動きデータが、キャリブレーション周期中の制御デバイスの速度が速度閾値(例えば、特定のメートル限度/秒)を超えていなかったことを示していると、決定してもよい。さらに、遅すぎる移動は、このような遅い速度が不十分な移動に寄与し、かつ/またはサンプルが同じ物理的場所を表すことに繋がり得るという理由で、やはり理想的なキャリブレーションとはなり得ない。   Checking the validity of the microphone movement may include checking the validity of the speed of the microphone during the calibration period. Excessive velocity can interfere with calibration, possibly by creating a Doppler shift in the detected calibration sound, which causes an overlap between each iteration of the calibration tone. To confirm the validity of the speed, the processing device indicates that the motion data indicates that the speed of the control device during the calibration period did not exceed a speed threshold (eg, a specific meter limit / second) You may decide. Furthermore, movements that are too slow can still be an ideal calibration because such slow speeds contribute to insufficient movement and / or can lead to the sample representing the same physical location. Absent.

例えば、先に述べたように、処理デバイスは、キャリブレーション周期中のマイクロホンの加速度を示す動きデータを受信してもよい。加速度が環境に対する移動を示すことを考慮すると、処理デバイスは、この加速度を積分して速度を決定してもよく、速度は、次に、スカラ速度に変換されてもよい。しかしながら、所定のセンサがマイクロホンへ結合されることを考慮すると、このようなセンサにより検出される加速度は、環境内における動きを直には示さない場合もある。しかし、このような加速度データは、リスニングエリア内における速度を決定するために使用されてもよい。   For example, as described above, the processing device may receive motion data indicating the acceleration of the microphone during the calibration period. Given that the acceleration indicates movement relative to the environment, the processing device may integrate this acceleration to determine the velocity, which may then be converted to a scalar velocity. However, given that a given sensor is coupled to a microphone, the acceleration detected by such a sensor may not directly indicate movement in the environment. However, such acceleration data may be used to determine the velocity within the listening area.

ある例において、処理デバイスは、加速度を示す複数のデータストリームを含むセンサデータを受信してもよい。例えば、処理デバイスは、制御デバイスに対するユーザ加速度を示す第1のデータストリームと、制御デバイスに対する重力加速度を示す第2のデータストリームとを受信してもよい。重力に対するユーザ加速度を決定するために、処理デバイスは、第1のデータストリームと第2のデータストリームとの積(例えば、ドット積)を決定してもよい。このような計算は、重力に対するユーザ加速度を示す第3のデータストリームを生成する。キャリブレーション中のマイクロホンの速度の決定を容易にするために、処理デバイスは、第3のデータストリームの積分を決定して、マイクロホンの3次元速度を示す第4のデータストリームを生成してもよい。   In one example, the processing device may receive sensor data that includes multiple data streams indicative of acceleration. For example, the processing device may receive a first data stream indicating user acceleration for the control device and a second data stream indicating gravitational acceleration for the control device. In order to determine user acceleration with respect to gravity, the processing device may determine a product (eg, a dot product) of the first data stream and the second data stream. Such a calculation generates a third data stream indicating user acceleration with respect to gravity. To facilitate the determination of the speed of the microphone during calibration, the processing device may determine an integration of the third data stream to generate a fourth data stream indicative of the three-dimensional speed of the microphone. .

速度の有効性を確認するために、処理デバイスは、第4のデータストリームを速度スカラに変換してもよい。このような変換は、処理デバイスがマイクロホンの3次元速度を示すサンプルの各大きさを計算して、キャリブレーション周期中のマイクロホンのスカラ速度を示す第5のデータストリームを生成することを含んでもよい。処理デバイスは、次に、速度データポイントが速度閾値を超えていない(または、持続時間閾値を超えて速度閾値を超えなかった)と決定することにより、キャリブレーション周期中の速度の有効性を確認してもよい。   To confirm the validity of the speed, the processing device may convert the fourth data stream to a speed scalar. Such a conversion may include the processing device calculating each sample size indicative of the three-dimensional velocity of the microphone to generate a fifth data stream indicative of the scalar velocity of the microphone during the calibration period. . The processing device then validates the speed during the calibration cycle by determining that the speed data point does not exceed the speed threshold (or exceeds the duration threshold and does not exceed the speed threshold). May be.

c.キャリブレーション周期中におけるマイクロホンの動きが有効であったことを示すメッセージの送信
図8のブロック806において、実装800は、キャリブレーション周期中のマイクロホンの動きが有効であったことを示すメッセージを送信するステップを含む。例えば、録音デバイスは、キャリブレーション中の1つまたは複数の再生デバイスへ、キャリブレーションが有効であったことを示すメッセージを送信してもよい。このようなメッセージは、他の例の中でもとりわけ、キャリブレーション周期中に制御デバイスの十分な移動が生じたこと、キャリブレーション周期中に制御デバイスの十分な垂直移動が生じたこと、キャリブレーション周期中に制御デバイスの十分な半径方向移動が生じたこと、および/または、制御デバイスの十分な移動が速度閾値を超えなかったことを示してもよい。
c. Sending a message indicating that the movement of the microphone during the calibration period was valid In block 806 of FIG. 8, the implementation 800 sends a message indicating that the movement of the microphone during the calibration period was valid. Includes steps. For example, the recording device may send a message indicating that the calibration was valid to one or more playback devices being calibrated. Such messages, among other examples, indicate that sufficient movement of the control device has occurred during the calibration period, sufficient vertical movement of the control device has occurred during the calibration period, and during the calibration period. May indicate that sufficient radial movement of the control device has occurred and / or that sufficient movement of the control device has not exceeded the speed threshold.

再生デバイスがキャリブレーション区間中にキャリブレーション音を放出した後、キャリブレーション音の記録は、再生デバイスのキャリブレーション設定を決定するために分析されてもよい。幾つかの実施形態において、録音デバイスは、キャリブレーション音自体を分析してもよい。あるいは、録音デバイスは、記録(またはその一部)を別のコンピューティングシステム(おそらくは、パーソナルコンピュータまたはサーバ(例えば、クラウド・コンピューティング・サービスの提供に関与するサーバ)等のより多い処理能力を有するコンピューティングシステム)へ送信してもよい。分析の間、録音デバイス(または他のコンピューティングシステム)は、再生デバイスのキャリブレーションプロファイルを決定してもよい。再生デバイスに適用される場合、このようなキャリブレーションプロファイルは、再生デバイスを所望される等化(例えば、平坦な応答)へ、またはおそらくは所望される等化(例えば、所定の種類の音楽のための等化)により調整される平坦な応答へとキャリブレーションするように、環境の音響特性を補ってもよい。   After the playback device emits a calibration sound during the calibration interval, the recording of the calibration sound may be analyzed to determine the calibration settings of the playback device. In some embodiments, the recording device may analyze the calibration sound itself. Alternatively, the recording device has more processing power, such as recording (or part thereof) another computing system (probably a personal computer or server (eg, a server involved in providing a cloud computing service)) To a computing system). During analysis, the recording device (or other computing system) may determine a calibration profile for the playback device. When applied to a playback device, such a calibration profile allows the playback device to achieve the desired equalization (eg, flat response), or perhaps the desired equalization (eg, for a given type of music). The acoustic properties of the environment may be supplemented to calibrate to a flat response adjusted by (equalization).

このような記録を分析するための幾つかの技術の例は、2012年6月28日に出願された「System and Method for Device Playback Calibration」と題する米国特許出願第13/536,493号明細書、2014年3月17日に出願された「Audio Settings Based On Environment」と題する米国特許出願第14/216,306号明細書、および2014年9月9日に出願された「Playback Device Calibration」と題する米国特許出願第14/481,511号明細書に記載されており、その全体が本明細書に参考として組み込まれる。幾つかの例において、キャリブレーション周期中に制御デバイスの十分な移動が生じたことを示すメッセージを送信することは、再生デバイスに、決定されたキャリブレーションプロファイルを用いてキャリブレーションするように指示するメッセージを送信することを含んでもよい。このようなキャリブレーションプロファイルを送信することにより、デバイスは、キャリブレーションが成功したことを(および、キャリブレーションの決定に使用された動きが有効であったことも)示してもよい。動きの有効性が確認されなかった幾つかの場合において、キャリブレーションが再生デバイスへ送信されない場合もある。   Examples of some techniques for analyzing such records are described in US patent application Ser. No. 13 / 536,493, filed Jun. 28, 2012, entitled “System and Method for Device Playback Calibration”. , US patent application Ser. No. 14 / 216,306 entitled “Audio Settings Based On Environment” filed Mar. 17, 2014, and “Playback Device Calibration” filed Sep. 9, 2014. No. 14 / 481,511, which is hereby incorporated by reference in its entirety. In some examples, sending a message indicating that sufficient movement of the control device has occurred during the calibration period instructs the playback device to calibrate using the determined calibration profile. It may include sending a message. By sending such a calibration profile, the device may indicate that the calibration was successful (and that the movement used to determine the calibration was valid). In some cases where the validity of the movement has not been confirmed, the calibration may not be sent to the playback device.

幾つかの場合において、デバイス(例えば、録音デバイス)は、動きの有効性確認のステータスをグラフィックインタフェース上に示してもよい。図14は、マイクロホンの動きの有効性が確認されたときにグラフィックインタフェース上へ表示される場合もある、例示的な再生デバイスキャリブレーションユーザインタフェース1400を示す。図示のように、ユーザインタフェース1400は、インタフェース1400上に表示されたコンテンツが、リビングルームゾーン(例えば、メディア再生システム100のリビングルームゾーン)における1つまたは複数の再生デバイスに対応することを示すグラフィック表示1402を含む。   In some cases, a device (eg, a recording device) may indicate the status of motion validation on the graphic interface. FIG. 14 shows an exemplary playback device calibration user interface 1400 that may be displayed on the graphic interface when the validity of the microphone movement is confirmed. As shown, the user interface 1400 is a graphic indicating that the content displayed on the interface 1400 corresponds to one or more playback devices in a living room zone (eg, the living room zone of the media playback system 100). A display 1402 is included.

ユーザインタフェース1400は、識別されたエラー状態および/またはエラー状態を修正するための提案を記述するメッセージを含むことができるグラフィック表示1410をさらに含む。ユーザインタフェース1400は、選択可能アイコン1406および1408をさらに含む。選択可能アイコン1406は、キャリブレーションプロセスを再び繰り返すために選択されてもよく、選択可能アイコン1408は、1つまたは複数の再生デバイスの動作を継続するために選択されてもよい。図示のように、グラフィック表示1410は、図6のユーザインタフェース600のグラフィック表示604の一部または全ての灰色または淡色表示バージョンに重なってもよい。   The user interface 1400 further includes a graphical display 1410 that can include a message describing the identified error condition and / or suggestions for correcting the error condition. User interface 1400 further includes selectable icons 1406 and 1408. Selectable icon 1406 may be selected to repeat the calibration process again, and selectable icon 1408 may be selected to continue operation of one or more playback devices. As shown, the graphical display 1410 may overlap some or all gray or light colored display versions of the graphical display 604 of the user interface 600 of FIG.

d.動きを補正するためのプロンプトの表示
図8を再度参照すると、ブロック808において、実装800は、動きを補正するためのプロンプトを表示するステップを含む。例えば、録音デバイスは、キャリブレーションの全てまたは一部を繰り返すためのプロンプトを表示してもよい。録音デバイスは、動きがどの程度不十分であったか、およびおそらくは、如何にして(例えば、所定の平面内でより多く、または異なる速度で動かすことにより)動きを補正できるかも示してもよい。このようなプロンプトは、他の例の中でもとりわけ、キャリブレーション周期中に制御デバイスの十分な移動が生じなかったこと、キャリブレーション周期中に制御デバイスの十分な垂直移動が生じなかったこと、キャリブレーション周期中に制御デバイスの十分な半径方向移動が生じなかったこと、および/または、制御デバイスの十分な移動が速度閾値を超えたことを示してもよい。
d. Displaying Prompts to Correct Motion Referring back to FIG. 8, at block 808, implementation 800 includes displaying a prompt to correct motion. For example, the recording device may display a prompt to repeat all or part of the calibration. The recording device may also indicate how inadequate the motion and possibly how it can correct the motion (eg, by moving more or different in a given plane). Such prompts, among other examples, indicate that there was not enough movement of the control device during the calibration period, that there was not enough vertical movement of the control device during the calibration period, It may indicate that sufficient radial movement of the control device did not occur during the period and / or that sufficient movement of the control device exceeded the speed threshold.

図15は、動きの有効性が確認されなかった場合にグラフィックインタフェース上へ表示されうる、再生デバイスキャリブレーションエラー状態の例示的なユーザインタフェース1500を示す。図示のように、ユーザインタフェース1500は、インタフェース1500上の表示されたコンテンツが、リビングルームゾーンにおける1つまたは複数の再生デバイスに対応することを示すグラフィック表示1502を含む。   FIG. 15 illustrates an example user interface 1500 in a playback device calibration error condition that may be displayed on the graphic interface if the validity of the motion is not confirmed. As shown, the user interface 1500 includes a graphical display 1502 that indicates that the displayed content on the interface 1500 corresponds to one or more playback devices in the living room zone.

ユーザインタフェース1500は、識別されたエラー状態および/またはエラー状態を修正するためのプロンプトを記述するメッセージを含むことができるグラフィック表示1510をさらに含む。ユーザインタフェース1500は、選択可能アイコン1506および1508をさらに含む。選択可能アイコン1506は、キャリブレーションプロセスを再び試みるために選択されてもよく、かつ選択可能アイコン1508は、キャリブレーションプロセスを終了するために選択されてもよい。図示のように、グラフィック表示1510は、図6のユーザインタフェース600のグラフィック表示604の一部または全ての灰色または淡色表示バージョンに重なってもよい。   The user interface 1500 further includes a graphical display 1510 that can include a message describing the identified error condition and / or a prompt to correct the error condition. User interface 1500 further includes selectable icons 1506 and 1508. A selectable icon 1506 may be selected to retry the calibration process and a selectable icon 1508 may be selected to end the calibration process. As shown, the graphic display 1510 may overlap some or all gray or light color display versions of the graphic display 604 of the user interface 600 of FIG.

ある例において、各種類の動き(例えば、様々な方向の動きまたは速度)は、グラフィック表示1510内に提供されるべき対応するテキストメッセージを有してもよい。例えば、識別されたエラー状態が水平面における移動に関連していれば、テキストメッセージの例は、「優れた測定値を得るために、デバイスは必ずゆっくりと上下に動かし、部屋全体を歩いてください。リスニングエリアにわたって動きを多くして、もう一度試してください」、であってもよい。別の例において、識別されたエラー状態が速すぎる移動に関連するものであれば、テキストメッセージの例は、「移動が少し速すぎて、チューニングのための良好な測定値が得られませんでした。もう一度、今度は速度を落として動いてみてください」、であってもよい。   In one example, each type of movement (eg, movement or speed in various directions) may have a corresponding text message to be provided in the graphical display 1510. For example, if the identified error condition is related to movement in a horizontal plane, the text message example is: “To get a good measurement, always move the device slowly up and down and walk through the room. "Please try again with more movement over the listening area." In another example, if the identified error condition is related to a move that is too fast, the text message example says, “The move was a bit too fast and did not give a good measurement for tuning. Again, try moving at a slower speed this time. "

本明細書で論じているテキストメッセージの例は、単に例示を目的とするものであって、限定を意図するものではない。さらに、一般的な当業者には、他の例も可能であることが認識されるであろう。   The text message examples discussed herein are for illustrative purposes only and are not intended to be limiting. In addition, one of ordinary skill in the art will recognize that other examples are possible.

VI.結論
本明細書は、様々な例示のシステム、方法、装置、および製品などを開示しており、それらは、他のコンポーネントの中で、ハードウェア上で実行されるファームウェアおよび/又はソフトウェアを含む。そのような例は、単なる例示であり、限定されるものとみなすべきではないと理解される。例えば、これらのファームウェア、ハードウェア、および/又はソフトウェアの態様又はコンポーネントのいくつか又はすべてが、専らハードウェアに、専らソフトウェアに、専らファームウェアに、又はハードウェア、ソフトウェア、および/又はファームウェアの任意の組み合わせを実施することができることが意図されている。したがって、提供されているそれらの例は、それらのシステム、方法、装置、および/又は生産物を実施する唯一の方法ではない。
VI. CONCLUSION This specification discloses various exemplary systems, methods, apparatuses, products, and the like, which include firmware and / or software running on hardware, among other components. It is understood that such examples are illustrative only and should not be considered limiting. For example, some or all of these firmware, hardware, and / or software aspects or components may be exclusively hardware, exclusively software, exclusively firmware, or any of hardware, software, and / or firmware It is intended that combinations can be implemented. Thus, the examples provided are not the only way to implement those systems, methods, devices, and / or products.

更に、本明細書において「実施形態」は、実施形態に関連して述べられた特定の特徴、構造、又は特性が、本発明の少なくとも1つの実施例に含まれ得ることを示している。本明細書の様々な場所でこの語句が用いられているが、すべてが同じ実施形態を言及するものではなく、又、他の実施形態を除いた別個の実施形態又は代替の実施形態でもない。このように、本明細書で述べられた実施形態は、明示的におよび暗黙的に、当業者によって、他の実施形態と組み合わせることができることが理解される。   Furthermore, “embodiments” herein indicate that the particular features, structures, or characteristics described in connection with the embodiments may be included in at least one example of the invention. Although this phrase is used in various places throughout the specification, they do not all refer to the same embodiment, nor are they separate or alternative embodiments other than other embodiments. Thus, it is understood that the embodiments described herein may be combined with other embodiments by those skilled in the art, explicitly and implicitly.

本明細書は、例示的な環境、システム、手順、ステップ、論理ブロック、処理、および他のシンボル表現に関して広く示されており、それらは直接又は間接的にネットワークに接続されるデータ処理デバイスの動作に類似するものである。これらの処理説明および表現は、一般的に当業者によって使用され、それらの仕事の内容を他の当業者に最も効率良く伝えることができる。多くの具体的な内容が、本開示を理解するために提供されている。しかしながら、当業者にとって、本開示の特定の実施形態が特定の、具体的な詳細なしに実施され得ることは理解される。他の例では、周知の方法、手順、コンポーネント、および回路が、実施形態を不必要に曖昧にすることを避けるため、詳細に説明していない。したがって、本開示の範囲は、上記した実施形態よりむしろ添付された特許請求の範囲によって定義される。   This specification is broadly illustrated with respect to exemplary environments, systems, procedures, steps, logic blocks, processing, and other symbolic representations that operate directly or indirectly on a data processing device connected to a network. It is similar to These process descriptions and representations are generally used by those skilled in the art and can most effectively convey the content of their work to others skilled in the art. Numerous specific details are provided to understand the present disclosure. However, it will be understood by one of ordinary skill in the art that certain embodiments of the present disclosure may be practiced without the specific details. In other instances, well-known methods, procedures, components, and circuits have not been described in detail in order to avoid unnecessarily obscuring the embodiments. Accordingly, the scope of the present disclosure is defined by the appended claims rather than the embodiments described above.

添付の特許請求の範囲のいずれかが単にソフトウェアおよび/又はファームウェアへの実装をカバーするように読み取ると、少なくとも1つの例における要素の1つ又は複数は、本明細書では、ソフトウェアおよび/又はファームウェアを記憶する有形の非一時的な記憶媒体、例えば、メモリ、DVD、CD、Blu−ray(登録商標)等を含むことが明確に定められている。   One or more of the elements in at least one example may be referred to herein as software and / or firmware, when any of the appended claims simply reads to cover implementation in software and / or firmware. Is clearly defined to include a tangible, non-transitory storage medium for storing, for example, memory, DVD, CD, Blu-ray (registered trademark), and the like.

(特徴1)マイクロホンを含むネットワークデバイスは、キャリブレーション周期中に所定の環境において1つまたは複数の再生デバイスがキャリブレーション音を放出しているという指示を受信し、放出されたキャリブレーション音を録音しかつキャリブレーション音放出中のネットワークデバイスの移動を示す動きデータを受信し、ネットワークデバイスの垂直方向の移動を示す、動きデータの第1の成分と、ネットワークデバイスの1つまたは複数の再生デバイスからの各半径方向の移動を示す、動きデータの1つまたは複数の第2の成分と、を識別し、ネットワークデバイスの垂直方向の移動を示す動きデータの第1の成分と、ネットワークデバイスの1つまたは複数の再生デバイスからの各半径方向の移動を示す動きデータの1つまたは複数の第2の成分とを相互相関することによって、環境内におけるネットワークデバイスの水平方向の動きを表す1つまたは複数の水平動きパラメータを決定し、環境内における水平方向の動きを表す水平動きパラメータの少なくとも1つが相関閾値を超えていると決定することによって、キャリブレーション周期中にネットワークデバイスの十分な水平移動が生じたことを決定し、かつ、キャリブレーション周期中にネットワークデバイスの十分な移動が生じたことを示すメッセージを送信するように構成される。   (Feature 1) A network device including a microphone receives an instruction that one or more playback devices emit a calibration sound in a predetermined environment during a calibration cycle, and records the emitted calibration sound. And receiving movement data indicative of movement of the network device during emission of the calibration sound, from a first component of movement data indicative of vertical movement of the network device, and one or more playback devices of the network device One or more second components of the motion data indicative of each radial movement of the first and second components of the motion data indicative of the vertical movement of the network device and one of the network devices Or one of the motion data indicating each radial movement from a plurality of playback devices Or by cross-correlating with a plurality of second components to determine one or more horizontal motion parameters representative of the horizontal movement of the network device in the environment, and to represent the horizontal movement in the environment. By determining that at least one of the motion parameters exceeds the correlation threshold, it is determined that sufficient horizontal movement of the network device has occurred during the calibration period, and sufficient for the network device during the calibration period. It is configured to send a message indicating that the movement has occurred.

(特徴2)特徴1に記載のネットワークデバイスは、さらに、垂直方向の動きデータの平均を表す垂直動きパラメータを決定し、かつ垂直動きパラメータが垂直動き閾値を超えていると決定することによって、キャリブレーション周期中にネットワークデバイスの十分な垂直移動が生じたことを決定するように構成される。   (Feature 2) The network device according to Feature 1 further determines a vertical motion parameter representing an average of vertical motion data, and determines that the vertical motion parameter exceeds a vertical motion threshold, thereby calibrating the network device. Configured to determine that a sufficient vertical movement of the network device has occurred during the session period.

(特徴3)特徴2と組み合わされた特徴1に記載のネットワークデバイスにおいて、キャリブレーション周期中にネットワークデバイスの十分な移動が生じたことを示すメッセージを送信することは、キャリブレーション周期中にネットワークデバイスの十分な水平移動および十分な垂直移動が生じたことを示すメッセージを送信することを含む。   (Feature 3) In the network device according to Feature 1 in combination with Feature 2, transmitting a message indicating that sufficient movement of the network device has occurred during the calibration period may be performed during the calibration period. Sending a message indicating that sufficient horizontal movement and sufficient vertical movement have occurred.

(特徴4)特徴2と組み合わされた特徴1または特徴3に記載のネットワークデバイスにおいて、垂直方向の動きデータの平均を表す垂直動きパラメータを決定することは、垂直方向の動きデータの平均を表す垂直動きパラメータを、キャリブレーション周期中のネットワークデバイスの動きを示す動きデータのフレームが受信されるにつれて蓄積される動きデータに基づいて繰り返し更新することを含む。   (Feature 4) In the network device according to Feature 1 or Feature 3 combined with Feature 2, determining a vertical motion parameter that represents an average of vertical motion data is a vertical that represents an average of vertical motion data. Including repeatedly updating motion parameters based on motion data accumulated as frames of motion data indicative of network device motion during a calibration period are received.

(特徴5)特徴1〜4のいずれかに記載のネットワークデバイスにおいて、キャリブレーション周期中のネットワークデバイスの移動を示す動きデータを受信することは、ネットワークデバイスの加速度を示すセンサデータを受信することと、1つまたは複数の再生デバイスとネットワークデバイスへ結合されるマイクロホンとの間の各伝搬遅延に基づく、1つまたは複数の再生デバイスからネットワークデバイスへの各半径方向距離を示すマイクロホンデータを受信することを含む。   (Feature 5) In the network device according to any one of Features 1 to 4, receiving motion data indicating movement of the network device during a calibration cycle includes receiving sensor data indicating acceleration of the network device. Receiving microphone data indicating each radial distance from the one or more playback devices to the network device based on each propagation delay between the one or more playback devices and a microphone coupled to the network device; including.

(特徴6)特徴1〜5のいずれかに記載のネットワークデバイスは、さらに、記録されたキャリブレーション音に基づいて、1つまたは複数の再生デバイスのうちの少なくとも1つに関して各キャリブレーションプロファイルを決定するように構成され、かつ、キャリブレーション周期中にネットワークデバイスの十分な移動が生じたことを示すメッセージを送信することは、少なくとも1つの再生デバイスに決定されたキャリブレーションプロファイルを用いてキャリブレーションするように命令するメッセージを送信することを含む。   (Feature 6) The network device according to any one of Features 1 to 5 further determines each calibration profile for at least one of the one or more playback devices based on the recorded calibration sound. And sending a message indicating that sufficient movement of the network device has occurred during the calibration period calibrates with the determined calibration profile for the at least one playback device Sending a message instructing

(特徴7)特徴6と組み合わされた特徴1〜5のいずれかに記載のネットワークデバイスにおいて、記録されたキャリブレーション音に基づいて1つまたは複数の再生デバイスのうちの少なくとも1つに関する各キャリブレーションプロファイルを決定することは、再生デバイスをキャリブレーション等化へとキャリブレーションするように所定の環境の音響特性を補う各キャリブレーションプロファイルを決定することを含む。   (Feature 7) Each calibration relating to at least one of one or more reproduction devices based on the recorded calibration sound in the network device according to any one of features 1 to 5 combined with feature 6 Determining the profile includes determining each calibration profile that supplements the acoustic characteristics of the predetermined environment to calibrate the playback device to calibration equalization.

(特徴8)特徴1〜7のいずれかに記載のネットワークデバイスは、さらに、キャリブレーション周期中のネットワークデバイスの速度が速度閾値を超えなかったと決定するように構成され、かつ、キャリブレーション周期中にネットワークデバイスの十分な移動が生じたことを示すメッセージを送信することは、ネットワークデバイスの十分な移動が速度閾値を超えなかったことを示すメッセージを送信することを含む。   (Feature 8) The network device according to any one of features 1 to 7 is further configured to determine that the speed of the network device during the calibration period has not exceeded the speed threshold, and during the calibration period Sending a message indicating that sufficient movement of the network device has occurred includes sending a message indicating that sufficient movement of the network device has not exceeded the speed threshold.

(特徴9)特徴8と組み合わされた特徴1〜7のいずれかに記載のネットワークデバイスにおいて、キャリブレーション周期中のネットワークデバイスの移動を示す動きデータを受信することは、ネットワークデバイスに対するユーザ加速度を示す第1のデータストリームと、ネットワークデバイスに対する重力加速度を示す第2のデータストリームとを含むセンサデータを受信することを含み、かつ、キャリブレーション周期中のネットワークデバイスの速度が速度閾値を超えなかったと決定することは、ネットワークデバイスに対するユーザ加速度を示す第1のデータストリームと、ネットワークデバイスに対する重力加速度を示す第2のデータストリームとに基づいて、重力に対するユーザ加速度を示す第3のデータストリームを決定することと、重力に対するユーザ加速度を示す第3のデータストリームの積分の大きさを決定することによって、キャリブレーション周期中のネットワークデバイスの速度を示す第4のデータストリームを決定することと、第4のデータストリームが、キャリブレーション周期中のネットワークデバイスの速度が速度閾値を超えなかったことを示していると決定することと、を含む。   (Feature 9) In the network device according to any one of features 1 to 7, combined with feature 8, receiving motion data indicating movement of the network device during a calibration period indicates user acceleration relative to the network device. Receiving sensor data including a first data stream and a second data stream indicative of gravitational acceleration for the network device, and determining that the speed of the network device during the calibration period has not exceeded the speed threshold. Determining a third data stream indicative of user acceleration relative to gravity based on a first data stream indicative of user acceleration relative to the network device and a second data stream indicative of gravity acceleration relative to the network device. Determining a fourth data stream indicative of the speed of the network device during the calibration period by determining a magnitude of integration of the third data stream indicative of user acceleration relative to gravity; Determining that the data stream indicates that the speed of the network device during the calibration period has not exceeded the speed threshold.

(特徴10)方法は、コンピュータ装置により、録音デバイスがキャリブレーション周期中に所定の環境において1つまたは複数の再生デバイスにより放出されるキャリブレーション音を記録していた間の録音デバイスの移動を示す動きデータを受信するステップと、コンピュータ装置により、キャリブレーション周期中に録音デバイスの十分な垂直移動が生じたことを決定するステップと、コンピュータ装置により、キャリブレーション周期中に録音デバイスの十分な水平移動が生じたことを決定するステップと、コンピュータ装置により1つまたは複数の再生デバイスへ、キャリブレーション周期中に録音デバイスの十分な垂直方向および水平方向の移動が生じたことを示すメッセージを送信するステップと、を含む。   (Feature 10) The method shows the movement of the recording device while the recording device was recording the calibration sound emitted by the one or more playback devices in a predetermined environment during the calibration period. Receiving movement data; determining by the computer apparatus that a sufficient vertical movement of the recording device has occurred during the calibration period; and calculating by the computer apparatus a sufficient horizontal movement of the recording device during the calibration period. Transmitting a message indicating that sufficient vertical and horizontal movement of the recording device has occurred during the calibration period to the one or more playback devices by the computing device. And including.

(特徴11)特徴10に記載の方法において、キャリブレーション周期中に録音デバイスの十分な水平移動が生じたと決定するステップは、録音デバイスの垂直方向の移動を示す、動きデータの第1の成分と、録音デバイスの1つまたは複数の再生デバイスからの各半径方向の移動を示す、動きデータの1つまたは複数の第2の成分と、を識別することと、録音デバイスの垂直方向の移動を示す動きデータの第1の成分と、録音デバイスの1つまたは複数の再生デバイスからの各半径方向の移動を示す動きデータの1つまたは複数の第2の成分とを相互相関することによって、環境内における録音デバイスの水平方向の動きを表す1つまたは複数の水平動きパラメータを決定することと、環境内における水平方向の動きを表す水平動きパラメータの少なくとも1つが相関閾値を超えていると決定することによって、キャリブレーション周期中に録音デバイスの十分な水平移動が生じたことを決定することと、を含む。   (Feature 11) In the method according to Feature 10, the step of determining that sufficient horizontal movement of the recording device has occurred during the calibration period includes the first component of the motion data indicating the vertical movement of the recording device; Identifying one or more second components of the motion data indicative of each radial movement of the recording device from the one or more playback devices, and indicating the vertical movement of the recording device By cross-correlating the first component of the motion data with one or more second components of the motion data indicative of each radial movement from one or more playback devices of the recording device, Determining one or more horizontal motion parameters representing the horizontal movement of the recording device in the horizontal direction and a horizontal movement parameter representing the horizontal movement in the environment. By data of at least one of determined to exceed the correlation threshold includes determining that a sufficient horizontal movement of the recording device occurs during the calibration period, the.

(特徴12)特徴10または11に記載の方法において、キャリブレーション周期中に録音デバイスの十分な垂直移動が生じたと決定するステップは、垂直方向の動きデータの平均を表す垂直動きパラメータを決定することと、垂直動きパラメータが垂直動き閾値を超えていると決定することによって、キャリブレーション周期中に録音デバイスの十分な垂直移動が生じたことを決定することと、を含む。   (Feature 12) In the method according to Feature 10 or 11, the step of determining that a sufficient vertical movement of the recording device has occurred during the calibration period is to determine a vertical motion parameter representing an average of the vertical motion data. And determining that sufficient vertical movement of the recording device has occurred during the calibration period by determining that the vertical motion parameter exceeds a vertical motion threshold.

(特徴13)特徴12と組み合わされた特徴10または11に記載の方法において、垂直方向の動きデータの平均を表す垂直動きパラメータを決定することは、垂直方向の動きデータの平均を表す垂直動きパラメータを、キャリブレーション周期中の録音デバイスの移動を示す動きデータが受信されるにつれて蓄積される動きデータに基づいて繰り返し更新することと、を含む。   (Feature 13) In the method of feature 10 or 11, in combination with feature 12, determining a vertical motion parameter that represents an average of vertical motion data is a vertical motion parameter that represents an average of vertical motion data Updating repeatedly based on motion data accumulated as motion data indicative of movement of the recording device during the calibration period is received.

(特徴14)特徴10〜14のいずれかに記載の方法は、キャリブレーション周期中の録音デバイスの速度が速度閾値を超えなかったと決定するステップをさらに含み、キャリブレーション周期中に録音デバイスの十分な移動が生じたことを示すメッセージを送信するステップは、録音デバイスの十分な移動が速度閾値を超えなかったことを示すメッセージを送信することを含む。   (Feature 14) The method according to any of features 10-14, further comprising determining that the speed of the recording device during the calibration period did not exceed the speed threshold, Sending a message indicating that movement has occurred includes sending a message indicating that sufficient movement of the recording device has not exceeded the speed threshold.

(特徴15)特徴14と組み合わされた特徴10〜13のいずれかに記載の方法において、録音デバイスがキャリブレーション周期中に所定の環境において1つまたは複数の再生デバイスにより放出されるキャリブレーション音を検出していた間の録音デバイスの移動を示す動きデータを受信するステップは、録音デバイスに対するユーザ加速度を示す第1のデータストリームと、録音デバイスに対する重力加速度を示す第2のデータストリームとを含むセンサデータを受信することを含み、かつ、キャリブレーション周期中の録音デバイスの速度が速度閾値を超えなかったと決定するステップは、録音デバイスに対するユーザ加速度を示す第1のデータストリームと、録音デバイスに対する重力加速度を示す第2のデータストリームとに基づいて、重力に対するユーザ加速度を示す第3のデータストリームを決定することと、重力に対するユーザ加速度を示す第3のデータストリームの積分の大きさを決定することによって、キャリブレーション周期中の録音デバイスの速度を示す第4のデータストリームを決定することと、第4のデータストリームが、キャリブレーション周期中の録音デバイスの速度が速度閾値を超えなかったことを示していると決定することと、を含む。   (Feature 15) The method according to any one of features 10 to 13 in combination with feature 14, wherein the recording device emits a calibration sound emitted by one or more playback devices in a predetermined environment during the calibration period. The step of receiving motion data indicative of movement of the recording device during detection comprises a first data stream indicating user acceleration relative to the recording device and a second data stream indicating gravitational acceleration relative to the recording device. Receiving the data and determining that the speed of the recording device during the calibration period did not exceed the speed threshold includes a first data stream indicative of user acceleration for the recording device and a gravitational acceleration for the recording device. Based on a second data stream indicating Determining the third data stream indicative of the user acceleration relative to gravity and determining the magnitude of the integration of the third data stream indicative of the user acceleration relative to gravity to thereby determine the speed of the recording device during the calibration period. And determining that the fourth data stream indicates that the speed of the recording device during the calibration period has not exceeded the speed threshold.

(特徴16)特徴10〜15のいずれかに記載の方法は、記録されたキャリブレーション音に基づいて、1つまたは複数の再生デバイスのうちの少なくとも1つに関して各キャリブレーションプロファイルを決定するステップをさらに含み、かつ、キャリブレーション周期中に録音デバイスの十分な移動が生じたことを示すメッセージを送信するステップは、少なくとも1つの再生デバイスに決定されたキャリブレーションプロファイルを用いてキャリブレーションするように命令するメッセージを送信することを含む。   (Feature 16) The method according to any of features 10-15, comprising determining each calibration profile for at least one of the one or more playback devices based on the recorded calibration sound. And further comprising sending a message indicating that sufficient movement of the recording device has occurred during the calibration period, instructing at least one playback device to calibrate using the determined calibration profile. Sending a message.

(特徴17)特徴10〜16のいずれかに記載の方法において、コンピュータ装置は、録音デバイスを備える。   (Feature 17) In the method according to any one of Features 10 to 16, the computer apparatus includes a recording device.

(特徴18)コンピュータ読み取り可能媒体は、特徴10〜17のいずれかに記載の方法を実行するように構成される。   (Feature 18) The computer-readable medium is configured to perform the method according to any of features 10-17.

(特徴19)非一時的コンピュータ読み取り可能媒体は、1つまたは複数のプロセッサによって実行可能な命令を記憶していて、前記命令は制御デバイスに動作を実行させるものであり、前記動作は、(i)キャリブレーション周期中に所定の環境において1つまたは複数の再生デバイスがキャリブレーション音を放出しているという指示を受信することと、(ii)放出されたキャリブレーション音を録音しかつキャリブレーション音放出中の制御デバイスの移動を示す動きデータを受信することと、(iii)制御デバイスの垂直方向の移動を示す、動きデータの第1の成分と、制御デバイスの1つまたは複数の再生デバイスからの各半径方向の移動を示す、動きデータの1つまたは複数の第2の成分と、を識別することと、(iv)制御デバイスの垂直方向の移動を示す動きデータの第1の成分と、制御デバイスの1つまたは複数の再生デバイスからの各半径方向の移動を示す動きデータの1つまたは複数の第2の成分とを相互相関することによって、環境内における制御デバイスの水平方向の動きを表す1つまたは複数の水平動きパラメータを決定することと、(v)環境内における水平方向の動きを表す水平動きパラメータの少なくとも1つが相関閾値を超えていると決定することによって、キャリブレーション周期中に制御デバイスの十分な水平移動が生じたことを決定することと、(vi)キャリブレーション周期中に制御デバイスの十分な移動が生じたことを示すメッセージを送信することと、を含む。   (Feature 19) A non-transitory computer readable medium stores instructions executable by one or more processors, the instructions causing a control device to perform an action, wherein the action is (i ) Receiving an indication that one or more playback devices are emitting a calibration sound in a predetermined environment during the calibration period; and (ii) recording the emitted calibration sound and the calibration sound. Receiving motion data indicative of movement of the control device during emission; (iii) a first component of motion data indicative of vertical movement of the control device; and one or more playback devices of the control device Identifying one or more second components of the motion data indicative of each radial movement of (iv), A first component of motion data indicative of vertical movement of the device and one or more second components of motion data indicative of each radial movement from one or more playback devices of the control device; Determining one or more horizontal motion parameters representative of the horizontal movement of the control device in the environment by cross-correlating; and (v) at least one of the horizontal motion parameters representing the horizontal movement in the environment. Determining that sufficient horizontal movement of the control device has occurred during the calibration period, and (vi) sufficient movement of the control device during the calibration period. Sending a message indicating that it has occurred.

(特徴20)特徴1に記載の非一時的コンピュータ読み取り可能媒体において、前記動作は、(i)垂直方向の動きデータの平均を表す垂直動きパラメータを決定することと、(ii)垂直動きパラメータが垂直動き閾値を超えていると決定することによって、キャリブレーション周期中に制御デバイスの十分な垂直移動が生じたことを決定することと、をさらに含む。   (Feature 20) In the non-transitory computer-readable medium according to Feature 1, the operations include: (i) determining a vertical motion parameter representing an average of vertical motion data; and (ii) a vertical motion parameter is Determining that sufficient vertical movement of the control device has occurred during the calibration period by determining that the vertical motion threshold has been exceeded.

(特徴21)特徴2に記載の非一時的コンピュータ読み取り可能媒体において、キャリブレーション周期中に制御デバイスの十分な移動が生じたことを示すメッセージを送信することは、キャリブレーション周期中に制御デバイスの十分な水平移動および十分な垂直移動が生じたことを示すメッセージを送信することを含む。   (Feature 21) In the non-transitory computer readable medium according to Feature 2, transmitting a message indicating that sufficient movement of the control device has occurred during the calibration period is performed by the control device during the calibration period. Sending a message indicating that sufficient horizontal movement and sufficient vertical movement have occurred.

(特徴22)特徴2に記載の非一時的コンピュータ読み取り可能媒体において、垂直方向の動きデータの平均を表す垂直動きパラメータを決定することは、キャリブレーション周期中の制御デバイスの動きを示す動きデータのフレームが受信されるにつれて、垂直方向の動きデータの平均を表す垂直動きパラメータを、蓄積される動きデータに基づいて繰り返し更新することを含む。   (Feature 22) In the non-transitory computer readable medium according to Feature 2, determining the vertical motion parameter representing an average of the vertical motion data may include detecting motion data indicative of motion of the control device during the calibration period. As the frame is received, it includes repeatedly updating a vertical motion parameter representing the average of the vertical motion data based on the accumulated motion data.

(特徴23)特徴1に記載の非一時的コンピュータ読み取り可能媒体において、キャリブレーション周期中の制御デバイスの移動を示す動きデータを受信することは、(i)制御デバイスの加速度を示すセンサデータを受信することと、(ii)1つまたは複数の再生デバイスと制御デバイスへ結合されるマイクロホンとの間の各伝搬遅延に基づく、1つまたは複数の再生デバイスから制御デバイスへの各半径方向距離を示すマイクロホンデータを受信することを含む。   (Feature 23) In the non-transitory computer-readable medium according to Feature 1, receiving motion data indicating movement of the control device during a calibration cycle includes: (i) receiving sensor data indicating acceleration of the control device And (ii) each radial distance from the one or more playback devices to the control device based on each propagation delay between the one or more playback devices and the microphone coupled to the control device. Receiving microphone data.

(特徴24)特徴1に記載の非一時的コンピュータ読み取り可能媒体において、前記動作は、記録されたキャリブレーション音に基づいて、1つまたは複数の再生デバイスのうちの少なくとも1つに関して各キャリブレーションプロファイルを決定することをさらに含み、かつ、キャリブレーション周期中に制御デバイスの十分な移動が生じたことを示すメッセージを送信することは、少なくとも1つの再生デバイスに決定されたキャリブレーションプロファイルを用いてキャリブレーションするように命令するメッセージを送信することを含む。   (Feature 24) In the non-transitory computer-readable medium according to Feature 1, the operations are performed for each calibration profile for at least one of the one or more playback devices based on the recorded calibration sound. And transmitting a message indicating that sufficient movement of the control device has occurred during the calibration period is performed using the determined calibration profile for the at least one playback device. Sending a message instructing the user to

(特徴25)特徴6に記載の非一時的コンピュータ読み取り可能媒体において、記録されたキャリブレーション音に基づいて1つまたは複数の再生デバイスのうちの少なくとも1つに関する各キャリブレーションプロファイルを決定することは、再生デバイスをキャリブレーション等化へとキャリブレーションするように所定の環境の音響特性を補う各キャリブレーションプロファイルを決定することを含む。   (Feature 25) In the non-transitory computer-readable medium according to Feature 6, determining each calibration profile for at least one of the one or more playback devices based on the recorded calibration sound Determining each calibration profile that supplements the acoustic characteristics of the predetermined environment to calibrate the playback device to calibration equalization.

(特徴26)特徴1に記載の非一時的コンピュータ読み取り可能媒体において、前記動作は、キャリブレーション周期中の制御デバイスの速度が速度閾値を超えなかったと決定することをさらに含み、かつ、キャリブレーション周期中に制御デバイスの十分な移動が生じたことを示すメッセージを送信することは、制御デバイスの十分な移動が速度閾値を超えなかったことを示すメッセージを送信することを含む。   26. The non-transitory computer readable medium of feature 1, wherein the operation further comprises determining that the speed of the control device during the calibration period has not exceeded the speed threshold, and the calibration period Transmitting a message indicating that sufficient movement of the control device has occurred includes transmitting a message indicating that sufficient movement of the control device has not exceeded the speed threshold.

(特徴27)特徴8に記載の非一時的コンピュータ読み取り可能媒体において、キャリブレーション周期中の制御デバイスの移動を示す動きデータを受信することは、制御デバイスに対するユーザ加速度を示す第1のデータストリームと、制御デバイスに対する重力加速度を示す第2のデータストリームとを含むセンサデータを受信することを含み、かつ、キャリブレーション周期中の制御デバイスの速度が速度閾値を超えなかったと決定することは、(i)制御デバイスに対するユーザ加速度を示す第1のデータストリームと、制御デバイスに対する重力加速度を示す第2のデータストリームとに基づいて、重力に対するユーザ加速度を示す第3のデータストリームを決定することと、(ii)重力に対するユーザ加速度を示す第3のデータストリームの積分の大きさを決定することによって、キャリブレーション周期中の制御デバイスの速度を示す第4のデータストリームを決定することと、(iii)第4のデータストリームが、キャリブレーション周期中の制御デバイスの速度が速度閾値を超えなかったことを示していると決定することと、を含む。   (Feature 27) In the non-transitory computer readable medium of feature 8, receiving motion data indicative of movement of the control device during a calibration cycle comprises: a first data stream indicative of user acceleration relative to the control device; Receiving sensor data including a second data stream indicative of gravitational acceleration for the control device and determining that the speed of the control device during the calibration period did not exceed the speed threshold (i ) Determining a third data stream indicative of user acceleration relative to gravity based on a first data stream indicative of user acceleration relative to the control device and a second data stream indicative of gravity acceleration relative to the control device; ii) Third data indicating user acceleration with respect to gravity Determining a fourth data stream indicative of the speed of the control device during the calibration period by determining the magnitude of the stream integral; and (iii) controlling the fourth data stream during the calibration period. Determining that the speed of the device indicates that the speed threshold has not been exceeded.

(特徴28)方法は、(i)コンピュータ装置により、録音デバイスがキャリブレーション周期中に所定の環境において1つまたは複数の再生デバイスにより放出されるキャリブレーション音を記録していた間の録音デバイスの移動を示す動きデータを受信することと、(ii)コンピュータ装置により、キャリブレーション周期中に録音デバイスの十分な垂直移動が生じたことを決定することと、(iii)コンピュータ装置により、キャリブレーション周期中に録音デバイスの十分な水平移動が生じたことを決定することと、(iv)コンピュータ装置により1つまたは複数の再生デバイスへ、キャリブレーション周期中に録音デバイスの十分な垂直方向および水平方向の移動が生じたことを示すメッセージを送信することと、を含む。   (Characteristic 28) The method includes: (i) the recording device while the recording device is recording a calibration sound emitted by one or more playback devices in a predetermined environment during a calibration period. Receiving motion data indicative of movement; (ii) determining by the computer apparatus that a sufficient vertical movement of the recording device has occurred during the calibration period; and (iii) determining the calibration period by the computer apparatus. Determining that sufficient horizontal movement of the recording device has occurred, and (iv) the computer device to the one or more playback devices to ensure that the recording device has sufficient vertical and horizontal orientation during the calibration period. Sending a message indicating that the movement has occurred.

(特徴29)特徴10に記載の方法において、キャリブレーション周期中に録音デバイスの十分な水平移動が生じたと決定するステップは、(i)録音デバイスの垂直方向の移動を示す、動きデータの第1の成分と、録音デバイスの1つまたは複数の再生デバイスからの各半径方向の移動を示す、動きデータの1つまたは複数の第2の成分と、を識別することと、(ii)録音デバイスの垂直方向の移動を示す動きデータの第1の成分と、録音デバイスの1つまたは複数の再生デバイスからの各半径方向の移動を示す動きデータの1つまたは複数の第2の成分とを相互相関することによって、環境内における録音デバイスの水平方向の動きを表す1つまたは複数の水平動きパラメータを決定することと、(iii)環境内における水平方向の動きを表す水平動きパラメータの少なくとも1つが相関閾値を超えていると決定することによって、キャリブレーション周期中に録音デバイスの十分な水平移動が生じたことを決定することと、を含む。   (Feature 29) In the method according to Feature 10, the step of determining that sufficient horizontal movement of the recording device has occurred during the calibration period comprises: (i) a first motion data indicative of vertical movement of the recording device; And (ii) the recording device's one or more second components of the motion data indicative of each radial movement of the recording device from the one or more playback devices; Cross-correlating a first component of motion data indicative of vertical movement and one or more second components of motion data indicative of each radial movement from one or more playback devices of the recording device Determining one or more horizontal motion parameters representative of the horizontal movement of the recording device in the environment; and (iii) the horizontal direction in the environment By at least one of the horizontal motion parameters determined to exceed the correlation threshold indicating yellow, includes determining that a sufficient horizontal movement of the recording device occurs during the calibration period, the.

(特徴30)特徴10に記載の方法において、キャリブレーション周期中に録音デバイスの十分な垂直移動が生じたと決定するステップは、(i)垂直方向の動きデータの平均を表す垂直動きパラメータを決定することと、(ii)垂直動きパラメータが垂直動き閾値を超えていると決定することによって、キャリブレーション周期中に録音デバイスの十分な垂直移動が生じたことを決定することと、を含む。   (Feature 30) In the method according to Feature 10, the step of determining that sufficient vertical movement of the recording device has occurred during the calibration period includes: (i) determining a vertical motion parameter representing an average of vertical motion data. And (ii) determining that sufficient vertical movement of the recording device has occurred during the calibration period by determining that the vertical motion parameter exceeds a vertical motion threshold.

(特徴31)特徴12に記載の方法において、垂直方向の動きデータの平均を表す垂直動きパラメータを決定することは、(i)キャリブレーション周期中の録音デバイスの移動を示す動きデータが受信されるにつれて、垂直方向の動きデータの平均を表す垂直動きパラメータを、蓄積される動きデータに基づいて繰り返し更新することを含む。   (Feature 31) In the method according to Feature 12, determining a vertical motion parameter representing an average of vertical motion data includes: (i) motion data indicating movement of a recording device during a calibration period is received. As a result, the vertical motion parameter representing the average of the motion data in the vertical direction is repeatedly updated based on the accumulated motion data.

(特徴32)特徴10に記載の方法は、キャリブレーション周期中の録音デバイスの速度が速度閾値を超えなかったと決定するステップをさらに含み、キャリブレーション周期中に録音デバイスの十分な移動が生じたことを示すメッセージを送信するステップは、録音デバイスの十分な移動が速度閾値を超えなかったことを示すメッセージを送信することを含む。   (Characteristic 32) The method according to Feature 10, further comprising the step of determining that the speed of the recording device during the calibration period has not exceeded the speed threshold, wherein sufficient movement of the recording device has occurred during the calibration period. Sending a message indicating that includes sending a message indicating that sufficient movement of the recording device has not exceeded the speed threshold.

(特徴33)特徴14に記載の方法において、録音デバイスがキャリブレーション周期中に所定の環境において1つまたは複数の再生デバイスにより放出されるキャリブレーション音を検出していた間の録音デバイスの移動を示す動きデータを受信するステップは、録音デバイスに対するユーザ加速度を示す第1のデータストリームと、録音デバイスに対する重力加速度を示す第2のデータストリームとを含むセンサデータを受信することを含み、かつ、キャリブレーション周期中の録音デバイスの速度が速度閾値を超えなかったと決定するステップは、(i)録音デバイスに対するユーザ加速度を示す第1のデータストリームと、録音デバイスに対する重力加速度を示す第2のデータストリームとに基づいて、重力に対するユーザ加速度を示す第3のデータストリームを決定することと、(ii)重力に対するユーザ加速度を示す第3のデータストリームの積分の大きさを決定することによって、キャリブレーション周期中の録音デバイスの速度を示す第4のデータストリームを決定することと、(iii)第4のデータストリームが、キャリブレーション周期中の録音デバイスの速度が速度閾値を超えなかったことを示していると決定することと、を含む。   (Feature 33) The method according to Feature 14, wherein the recording device is moved while the recording device is detecting a calibration sound emitted by one or more playback devices in a predetermined environment during a calibration period. Receiving the motion data indicating includes receiving sensor data including a first data stream indicative of user acceleration for the recording device and a second data stream indicative of gravitational acceleration for the recording device; and calibration Determining that the speed of the recording device during the recording period did not exceed the speed threshold includes: (i) a first data stream indicating user acceleration for the recording device; and a second data stream indicating gravitational acceleration for the recording device; Based on user acceleration with respect to gravity Determining a third data stream; and (ii) determining a third data stream integral indicative of user acceleration with respect to gravity, thereby indicating a fourth recording device speed during the calibration period. And (iii) determining that the fourth data stream indicates that the speed of the recording device during the calibration period has not exceeded the speed threshold.

(特徴34)特徴10に記載の方法は、記録されたキャリブレーション音に基づいて、1つまたは複数の再生デバイスのうちの少なくとも1つに関して各キャリブレーションプロファイルを決定するステップをさらに含み、かつ、キャリブレーション周期中に録音デバイスの十分な移動が生じたことを示すメッセージを送信するステップは、少なくとも1つの再生デバイスに決定されたキャリブレーションプロファイルを用いてキャリブレーションするように命令するメッセージを送信することを含む。   (Feature 34) The method of feature 10 further comprises determining each calibration profile for at least one of the one or more playback devices based on the recorded calibration sound; and The step of sending a message indicating that sufficient movement of the recording device has occurred during the calibration period sends a message instructing at least one playback device to calibrate using the determined calibration profile. Including that.

(特徴35)特徴10に記載の方法において、コンピュータ装置は、録音デバイスを備える。   (Feature 35) In the method according to Feature 10, the computer apparatus includes a recording device.

(特徴36)録音デバイスは、(i)マイクロホンと、(ii)1つまたは複数のプロセッサと、(iii)1つまたは複数のプロセッサにより実行可能な命令を内部に記憶している有形データ記憶装置とを備え、前記命令は前記録音デバイスに動作を実行させるものであり、前記動作は、(a)キャリブレーション周期中に所定の環境において、再生デバイスがキャリブレーション音を放出しているという指示を受信することと、(b)マイクロホンを介して、放出されるキャリブレーション音を含む音データを録音し、かつキャリブレーション音放出中の録音デバイスの移動を示す動きデータを受信することと、(c)キャリブレーション周期中に録音デバイスの十分な垂直移動が生じたと決定することと、(d)キャリブレーション周期中に録音デバイスの十分な水平移動が生じたと決定することと、(e)キャリブレーション周期中に録音デバイスの十分な垂直方向および水平方向の移動が生じたという決定に基づいて、検出されたキャリブレーション音に基づくキャリブレーションを再生デバイスのオーディオステージに適用することと、を含む。   (Feature 36) A recording device includes: (i) a microphone; (ii) one or more processors; and (iii) a tangible data storage device that stores instructions executable by the one or more processors. The instruction is for causing the recording device to perform an operation, and the operation includes: (a) an instruction that the playback device emits a calibration sound in a predetermined environment during a calibration cycle. Receiving (b) recording sound data including a calibration sound to be emitted via a microphone, and receiving motion data indicating movement of the recording device during the emission of the calibration sound; ) Determining that sufficient vertical movement of the recording device has occurred during the calibration period; and (d) calibration cycle. The detected calibration based on determining that sufficient horizontal movement of the recording device occurred during (e) sufficient vertical and horizontal movement of the recording device during the calibration period. Applying a calibration based on the sound to the audio stage of the playback device.

(特徴37)特徴18に記載の録音デバイスにおいて、キャリブレーション周期中に録音デバイスの十分な水平移動が生じたと決定することは、(i)録音デバイスの垂直方向の移動を示す、動きデータの第1の成分と、録音デバイスの再生デバイスからの半径方向の移動を示す、動きデータの第2の成分と、を識別することと、(ii)録音デバイスの垂直方向の移動を示す動きデータの第1の成分と、録音デバイスの再生デバイスからの半径方向の移動を示す動きデータの第2の成分とを相互相関することによって、環境内における録音デバイスの水平方向の動きを表す水平動きパラメータを決定することと、(iii)環境内における水平方向の動きを表す水平動きパラメータが相関閾値を超えていると決定することによって、キャリブレーション周期中に録音デバイスの十分な水平移動が生じたことを決定することと、を含む。   (Feature 37) In the recording device according to Feature 18, determining that sufficient horizontal movement of the recording device has occurred during the calibration period includes: (i) a first step of motion data indicating vertical movement of the recording device; Identifying a first component and a second component of motion data indicative of radial movement of the recording device from the playback device; and (ii) first of motion data indicative of vertical movement of the recording device. A horizontal motion parameter representing the horizontal motion of the recording device in the environment is determined by cross-correlating one component with a second component of motion data indicative of radial movement of the recording device from the playback device. And (iii) carry by determining that the horizontal motion parameter representing the horizontal motion in the environment exceeds the correlation threshold. Includes determining that a sufficient horizontal movement of the recording device occurs during configuration cycle, the.

(特徴38)特徴18に記載の録音デバイスにおいて、キャリブレーション周期中に録音デバイスの十分な垂直移動が生じたと決定することは、(i)垂直方向の動きデータの平均を表す垂直動きパラメータを決定することと、(ii)垂直動きパラメータが垂直動き閾値を超えていると決定することによって、キャリブレーション周期中に録音デバイスの十分な垂直移動が生じたことを決定することと、を含む。   (Feature 38) In the recording device according to Feature 18, determining that sufficient vertical movement of the recording device has occurred during the calibration period includes: (i) determining a vertical motion parameter representing an average of motion data in the vertical direction. And (ii) determining that sufficient vertical movement of the recording device has occurred during the calibration period by determining that the vertical motion parameter exceeds a vertical motion threshold.

Claims (16)

コンピュータ装置のための方法であって、
キャリブレーション周期中に所定の環境において1つまたは複数の再生デバイスがキャリブレーション音を放出しているという指示を受信するステップ、
放出される前記キャリブレーション音を記録するステップ、
前記キャリブレーション音の放出中に前記コンピュータ装置の移動を示す動きデータを受信するステップ、
前記動きデータの第1の成分と、前記動きデータの1つまたは複数の第2の成分と、を識別するステップ、
ここで、前記動きデータの前記第1の成分は、前記コンピュータ装置の垂直方向の移動を示す、前記動きデータの前記1つまたは複数の第2の成分は、前記コンピュータ装置の前記1つまたは複数の再生デバイスからの各半径方向の移動を示す、
前記動きデータの前記第1の成分と、前記1つまたは複数の第2の成分とを相互相関することによって、前記環境内における前記コンピュータ装置の水平方向の動きを表す1つまたは複数の水平動きパラメータを決定するステップ、及び
前記環境内における水平方向の動きを表す水平動きパラメータの少なくとも1つが相関閾値を超えていると決定することによって、前記キャリブレーション周期中に前記コンピュータ装置の十分な水平移動が生じたことを決定するステップ、
を含む、方法。
A method for a computer device, comprising:
Receiving an indication that one or more playback devices are emitting a calibration sound in a predetermined environment during a calibration cycle;
Recording the emitted calibration sound;
Receiving movement data indicative of movement of the computer device during emission of the calibration sound;
Identifying a first component of the motion data and one or more second components of the motion data;
Wherein the first component of the motion data indicates a vertical movement of the computer device, and the one or more second components of the motion data are the one or more of the computer device. Showing each radial movement from the playback device,
One or more horizontal movements representing a horizontal movement of the computing device in the environment by cross-correlating the first component of the movement data and the one or more second components. Determining a parameter; and sufficient horizontal movement of the computing device during the calibration period by determining that at least one of the horizontal motion parameters representing horizontal motion in the environment exceeds a correlation threshold Determining that has occurred,
Including a method.
コンピュータ装置により、録音デバイスがキャリブレーション周期中に所定の環境において1つまたは複数の再生デバイスにより放出されるキャリブレーション音を記録していた間の前記録音デバイスの移動を示す動きデータを受信するステップ、
前記コンピュータ装置により、前記キャリブレーション周期中に前記録音デバイスの十分な垂直移動が生じたことを決定するステップ、
前記動きデータの第1の成分と、前記動きデータの1つまたは複数の第2の成分と、を識別するステップ、
ここで、前記動きデータの前記第1の成分は、前記録音デバイスの垂直方向の移動を示す、前記動きデータの前記1つまたは複数の第2の成分は、前記録音デバイスの前記1つまたは複数の再生デバイスからの各半径方向の移動を示す、
前記動きデータの前記第1の成分と、前記動きデータの前記1つまたは複数の第2の成分とを相互相関することによって、前記環境内における前記録音デバイスの水平方向の動きを表す1つまたは複数の水平動きパラメータを決定するステップ、
前記コンピュータ装置により、前記環境内における前記水平方向の動きを表す前記水平動きパラメータの少なくとも1つが相関閾値を超えていると決定することによって、前記キャリブレーション周期中に前記録音デバイスの十分な水平移動が生じたことを決定するステップ、及び
前記コンピュータ装置により1つまたは複数の再生デバイスへ、前記キャリブレーション周期中に垂直方向および水平方向へ前記録音デバイスの十分な移動が生じたことを示すメッセージを送信するステップ、
を含む、方法。
Receiving, by the computer apparatus, motion data indicating movement of the recording device while the recording device was recording a calibration sound emitted by one or more playback devices in a predetermined environment during a calibration period; ,
Determining by the computer apparatus that a sufficient vertical movement of the recording device has occurred during the calibration period;
Identifying a first component of the motion data and one or more second components of the motion data;
Wherein the first component of the motion data indicates a vertical movement of the recording device, and the one or more second components of the motion data are the one or more of the recording device. Showing each radial movement from the playback device,
One or more representing a horizontal movement of the recording device in the environment by cross-correlating the first component of the motion data and the one or more second components of the motion data Determining a plurality of horizontal motion parameters;
Sufficient horizontal movement of the recording device during the calibration period by the computer apparatus determining that at least one of the horizontal motion parameters representing the horizontal motion in the environment exceeds a correlation threshold; A message indicating that sufficient movement of the recording device has occurred in the vertical and horizontal directions during the calibration period to one or more playback devices by the computing device. Sending step,
Including a method.
さらに、
十分な水平移動が生じたという決定に応答して、前記キャリブレーション周期中に前記コンピュータ装置の十分な移動が生じたことを示すメッセージを送信するステップを含む、
請求項に記載の方法。
further,
In response to a determination that sufficient horizontal movement has occurred, sending a message indicating that sufficient movement of the computing device has occurred during the calibration period;
The method of claim 1 .
さらに、
前記キャリブレーション周期中に前記録音デバイスの十分な垂直方向および水平方向の移動が生じたという決定に基づいて、前記検出されたキャリブレーション音に基づくキャリブレーションを前記再生デバイスのオーディオステージに適用するステップを含む、
請求項に記載の方法。
further,
Applying a calibration based on the detected calibration sound to the audio stage of the playback device based on a determination that sufficient vertical and horizontal movement of the recording device has occurred during the calibration period. including,
The method of claim 2 .
さらに、
垂直方向の前記動きデータの平均を表す垂直動きパラメータを決定するステップ、及び
前記垂直動きパラメータが垂直動き閾値を超えていると決定することによって、前記キャリブレーション周期中に前記コンピュータ装置の十分な垂直移動が生じたことを決定するステップ、
を含む、請求項1又は請求項3に記載の方法。
further,
Determining a vertical motion parameter representative of an average of the motion data in the vertical direction, and determining that the vertical motion parameter exceeds a vertical motion threshold, so that a sufficient vertical of the computing device during the calibration period. Determining that a movement has occurred;
The method according to claim 1 , comprising:
前記キャリブレーション周期中に前記コンピュータ装置の十分な移動が生じたことを示す前記メッセージを送信するステップは、前記キャリブレーション周期中に前記コンピュータ装置の十分な水平移動および十分な垂直移動が生じたことを示すメッセージを送信することを含む、
請求項3に記載の方法。
The step of transmitting the message indicating that sufficient movement of the computer device has occurred during the calibration cycle is that sufficient horizontal movement and sufficient vertical movement of the computer device have occurred during the calibration cycle. Including sending a message indicating
The method of claim 3.
前記垂直方向の前記動きデータの前記平均を表す前記垂直動きパラメータを決定するステップは、前記キャリブレーション周期中の前記コンピュータ装置の移動を示す動きデータが受信されるにつれて、前記垂直方向の前記動きデータの前記平均を表す前記垂直動きパラメータを、蓄積される動きデータに基づいて繰り返し更新することを含む、
請求項に記載の方法。
The step of determining the vertical motion parameter representative of the average of the motion data in the vertical direction includes the motion data in the vertical direction as motion data indicative of movement of the computer device during the calibration period is received. Recursively updating the vertical motion parameter representing the average of based on accumulated motion data;
The method of claim 5 .
前記キャリブレーション周期中の前記コンピュータ装置の移動を示す動きデータを受信するステップは、
前記コンピュータ装置の加速度を示すセンサデータを受信すること、及び
前記1つまたは複数の再生デバイスと前記コンピュータ装置へ結合されるマイクロホンとの間の各伝搬遅延に基づく、前記1つまたは複数の再生デバイスから前記コンピュータ装置への各半径方向距離を示すマイクロホンデータを受信すること、
を含む、
請求項1、3、5、6、7のいずれかに記載の方法。
Receiving movement data indicative of movement of the computer device during the calibration period;
Receiving one or more sensor data indicative of acceleration of the computer apparatus, and the one or more reproduction devices based on respective propagation delays between the one or more reproduction devices and a microphone coupled to the computer apparatus; Receiving microphone data indicating each radial distance from the to the computer device;
including,
The method according to claim 1, 3 , 5 , 6 , 7 .
さらに、記録された前記キャリブレーション音に基づいて、前記1つまたは複数の再生デバイスのうちの少なくとも1つに関して各キャリブレーションプロファイルを決定するステップを含む、
前記キャリブレーション周期中に前記コンピュータ装置の十分な移動が生じたことを示すメッセージを送信するステップは、前記少なくとも1つの再生デバイスに対して前記決定されたキャリブレーションプロファイルを用いてキャリブレーションするように命令するメッセージを送信することを含む、
請求項に記載の方法。
Further comprising determining each calibration profile for at least one of the one or more playback devices based on the recorded calibration sound.
The step of transmitting a message indicating that sufficient movement of the computer apparatus has occurred during the calibration period is such that the at least one playback device is calibrated using the determined calibration profile. Including sending a message to order,
The method of claim 3 .
記録された前記キャリブレーション音に基づいて前記1つまたは複数の再生デバイスのうちの少なくとも1つに関する各キャリブレーションプロファイルを決定するステップは、前記再生デバイスをキャリブレーション等化へとキャリブレーションするように前記所定の環境の音響特性を補う各キャリブレーションプロファイルを決定することを含む、
請求項9に記載の方法。
Determining each calibration profile for at least one of the one or more playback devices based on the recorded calibration sound so as to calibrate the playback device to calibration equalization Determining each calibration profile to supplement the acoustic characteristics of the predetermined environment;
The method of claim 9.
さらに、前記キャリブレーション周期中の前記コンピュータ装置の速度が速度閾値を超えなかったと決定するステップを含む、
前記キャリブレーション周期中に前記コンピュータ装置の十分な移動が生じたことを示すメッセージを送信するステップは、前記コンピュータ装置の前記十分な移動が前記速度閾値を超えなかったことを示すメッセージを送信することを含む、
請求項3に記載の方法。
Further comprising determining that the speed of the computing device during the calibration period did not exceed a speed threshold;
Transmitting a message indicating that sufficient movement of the computer device has occurred during the calibration period, transmitting a message indicating that the sufficient movement of the computer device has not exceeded the speed threshold. including,
The method of claim 3.
前記キャリブレーション周期中の前記コンピュータ装置の移動を示す動きデータを受信するステップは、前記コンピュータ装置に対するユーザ加速度を示す第1のデータストリームと、前記コンピュータ装置に対する重力加速度を示す第2のデータストリームとを含むセンサデータを受信することを含む、
前記キャリブレーション周期中の前記コンピュータ装置の速度が速度閾値を超えなかったと決定するステップは、
前記コンピュータ装置に対するユーザ加速度を示す前記第1のデータストリームと、前記コンピュータ装置に対する重力加速度を示す前記第2のデータストリームとに基づいて、重力に対するユーザ加速度を示す第3のデータストリームを決定すること、
重力に対するユーザ加速度を示す前記第3のデータストリームの積分の大きさを決定することによって、前記キャリブレーション周期中の前記コンピュータ装置の速度を示す第4のデータストリームを決定すること、及び
前記第4のデータストリームが、前記キャリブレーション周期中の前記コンピュータ装置の速度が前記速度閾値を超えなかったことを示していると決定すること、
を含む、請求項11に記載の方法。
The step of receiving motion data indicative of movement of the computer device during the calibration period comprises: a first data stream indicating user acceleration for the computer device; and a second data stream indicating gravitational acceleration for the computer device; Receiving sensor data including:
Determining that the speed of the computing device during the calibration period did not exceed a speed threshold,
Determining a third data stream indicative of user acceleration relative to gravity based on the first data stream indicative of user acceleration relative to the computer device and the second data stream indicative of gravity acceleration relative to the computer device; ,
Determining a fourth data stream indicative of the speed of the computing device during the calibration period by determining a magnitude of integration of the third data stream indicative of user acceleration with respect to gravity; and Determining that the speed of the computing device during the calibration period has not exceeded the speed threshold;
12. The method of claim 11 comprising:
請求項1から請求項12のいずれかに記載の方法を実行するように構成される1つまたは複数のプロセッサを備えるコンピュータ装置。   A computing device comprising one or more processors configured to perform the method of any of claims 1-12. さらに、
録音デバイス、及び
放出される前記キャリブレーション音を録音するように構成されるマイクロホン、
のうちの少なくとも1つを備える、請求項13に記載のコンピュータ装置。
further,
A recording device, and a microphone configured to record the calibration sound emitted;
The computer apparatus of claim 13, comprising at least one of:
請求項1から請求項12のいずれかに記載の方法を実行するための命令を記憶しているコンピュータ読み取り可能媒体。   A computer readable medium storing instructions for performing the method of any of claims 1-12. 請求項1から請求項12のいずれか1つに記載の方法をプロセッサに実行させるためのコンピュータプログラム。   A computer program for causing a processor to execute the method according to any one of claims 1 to 12.
JP2018514418A 2015-09-17 2016-09-16 Validating audio calibration using multidimensional motion check Active JP6483922B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201562220176P 2015-09-17 2015-09-17
US62/220,176 2015-09-17
US14/864,506 2015-09-24
US14/864,506 US9693165B2 (en) 2015-09-17 2015-09-24 Validation of audio calibration using multi-dimensional motion check
PCT/US2016/052266 WO2017049171A1 (en) 2015-09-17 2016-09-16 Validation of audio calibration using multi-dimensional motion check

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019024563A Division JP6781779B2 (en) 2015-09-17 2019-02-14 Checking the effectiveness of audio calibration using multidimensional motion check

Publications (2)

Publication Number Publication Date
JP2018533752A JP2018533752A (en) 2018-11-15
JP6483922B2 true JP6483922B2 (en) 2019-03-13

Family

ID=58283732

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018514418A Active JP6483922B2 (en) 2015-09-17 2016-09-16 Validating audio calibration using multidimensional motion check
JP2019024563A Active JP6781779B2 (en) 2015-09-17 2019-02-14 Checking the effectiveness of audio calibration using multidimensional motion check

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019024563A Active JP6781779B2 (en) 2015-09-17 2019-02-14 Checking the effectiveness of audio calibration using multidimensional motion check

Country Status (5)

Country Link
US (6) US9693165B2 (en)
EP (2) EP3541095A1 (en)
JP (2) JP6483922B2 (en)
CN (1) CN108028633A (en)
WO (1) WO2017049171A1 (en)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9084058B2 (en) 2011-12-29 2015-07-14 Sonos, Inc. Sound field calibration using listener localization
US9219460B2 (en) 2014-03-17 2015-12-22 Sonos, Inc. Audio settings based on environment
US9106192B2 (en) 2012-06-28 2015-08-11 Sonos, Inc. System and method for device playback calibration
CN105940679B (en) * 2014-01-31 2019-08-06 交互数字Ce专利控股公司 Method and apparatus for synchronizing the playback at two electronic equipments
US9952825B2 (en) 2014-09-09 2018-04-24 Sonos, Inc. Audio processing algorithms
KR102550595B1 (en) 2014-12-08 2023-06-30 로힛 세스 Wearable wireless hmi device
US9693165B2 (en) 2015-09-17 2017-06-27 Sonos, Inc. Validation of audio calibration using multi-dimensional motion check
EP3531714B1 (en) 2015-09-17 2022-02-23 Sonos Inc. Facilitating calibration of an audio playback device
JP6632855B2 (en) * 2015-10-15 2020-01-22 株式会社ディーアンドエムホールディングス Wireless speakers, controllers, wireless audio systems, and computer readable programs
US9743207B1 (en) 2016-01-18 2017-08-22 Sonos, Inc. Calibration using multiple recording devices
US10003899B2 (en) * 2016-01-25 2018-06-19 Sonos, Inc. Calibration with particular locations
US9991862B2 (en) 2016-03-31 2018-06-05 Bose Corporation Audio system equalizing
US9860662B2 (en) 2016-04-01 2018-01-02 Sonos, Inc. Updating playback device configuration information based on calibration data
US9763018B1 (en) 2016-04-12 2017-09-12 Sonos, Inc. Calibration of audio playback devices
US9794710B1 (en) 2016-07-15 2017-10-17 Sonos, Inc. Spatial audio correction
US10372406B2 (en) 2016-07-22 2019-08-06 Sonos, Inc. Calibration interface
US10459684B2 (en) 2016-08-05 2019-10-29 Sonos, Inc. Calibration of a playback device based on an estimated frequency response
US10341794B2 (en) 2017-07-24 2019-07-02 Bose Corporation Acoustical method for detecting speaker movement
US20190033438A1 (en) * 2017-07-27 2019-01-31 Acer Incorporated Distance detection device and distance detection method thereof
US10511930B2 (en) * 2018-03-05 2019-12-17 Centrak, Inc. Real-time location smart speaker notification system
US10852143B2 (en) * 2018-06-27 2020-12-01 Rohit Seth Motion sensor with drift correction
US10299061B1 (en) 2018-08-28 2019-05-21 Sonos, Inc. Playback device calibration
USD923638S1 (en) 2019-02-12 2021-06-29 Sonos, Inc. Display screen or portion thereof with transitional graphical user interface
US10734965B1 (en) 2019-08-12 2020-08-04 Sonos, Inc. Audio calibration of a portable playback device
WO2021136605A1 (en) * 2019-12-30 2021-07-08 Harman Becker Automotive Systems Gmbh Method for performing acoustic measurements
CN112235690B (en) * 2020-10-13 2022-05-10 恒玄科技(上海)股份有限公司 Method and device for adjusting audio signal, earphone assembly and readable storage medium

Family Cites Families (549)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US679889A (en) 1900-08-16 1901-08-06 Charles I Dorn Sand-line and pump or bailer connection.
US4342104A (en) 1979-11-02 1982-07-27 University Court Of The University Of Edinburgh Helium-speech communication
US4306113A (en) 1979-11-23 1981-12-15 Morton Roger R A Method and equalization of home audio systems
JPS5936689U (en) 1982-08-31 1984-03-07 パイオニア株式会社 speaker device
EP0122290B1 (en) 1982-10-14 1991-04-03 Matsushita Electric Industrial Co., Ltd. Speaker
NL8300671A (en) 1983-02-23 1984-09-17 Philips Nv AUTOMATIC EQUALIZATION SYSTEM WITH DTF OR FFT.
US4631749A (en) 1984-06-22 1986-12-23 Heath Company ROM compensated microphone
US4773094A (en) 1985-12-23 1988-09-20 Dolby Ray Milton Apparatus and method for calibrating recording and transmission systems
US4694484A (en) 1986-02-18 1987-09-15 Motorola, Inc. Cellular radiotelephone land station
DE3900342A1 (en) 1989-01-07 1990-07-12 Krupp Maschinentechnik GRIP DEVICE FOR CARRYING A STICKY MATERIAL RAIL
JPH02280199A (en) 1989-04-20 1990-11-16 Mitsubishi Electric Corp Reverberation device
US5218710A (en) 1989-06-19 1993-06-08 Pioneer Electronic Corporation Audio signal processing system having independent and distinct data buses for concurrently transferring audio signal data to provide acoustic control
US5440644A (en) 1991-01-09 1995-08-08 Square D Company Audio distribution system having programmable zoning features
JPH0739968B2 (en) 1991-03-25 1995-05-01 日本電信電話株式会社 Sound transfer characteristics simulation method
KR930011742B1 (en) 1991-07-23 1993-12-18 삼성전자 주식회사 Frequency characteristics compensation system for sound signal
JP3208800B2 (en) 1991-08-09 2001-09-17 ソニー株式会社 Microphone device and wireless microphone device
JPH0828920B2 (en) 1992-01-20 1996-03-21 松下電器産業株式会社 Speaker measuring device
US5757927A (en) 1992-03-02 1998-05-26 Trifield Productions Ltd. Surround sound apparatus
US5255326A (en) 1992-05-18 1993-10-19 Alden Stevenson Interactive audio control system
US5581621A (en) 1993-04-19 1996-12-03 Clarion Co., Ltd. Automatic adjustment system and automatic adjustment method for audio devices
US5553147A (en) 1993-05-11 1996-09-03 One Inc. Stereophonic reproduction method and apparatus
JP2870359B2 (en) 1993-05-11 1999-03-17 ヤマハ株式会社 Acoustic characteristic correction device
JP3106774B2 (en) 1993-06-23 2000-11-06 松下電器産業株式会社 Digital sound field creation device
US6760451B1 (en) 1993-08-03 2004-07-06 Peter Graham Craven Compensating filters
US5386478A (en) 1993-09-07 1995-01-31 Harman International Industries, Inc. Sound system remote control with acoustic sensor
US7630500B1 (en) 1994-04-15 2009-12-08 Bose Corporation Spatial disassembly processor
JP4392513B2 (en) 1995-11-02 2010-01-06 バン アンド オルフセン アクティー ゼルスカブ Method and apparatus for controlling an indoor speaker system
EP0772374B1 (en) 1995-11-02 2008-10-08 Bang & Olufsen A/S Method and apparatus for controlling the performance of a loudspeaker in a room
US7012630B2 (en) 1996-02-08 2006-03-14 Verizon Services Corp. Spatial sound conference system and apparatus
US5754774A (en) 1996-02-15 1998-05-19 International Business Machine Corp. Client/server communication system
JP3094900B2 (en) 1996-02-20 2000-10-03 ヤマハ株式会社 Network device and data transmission / reception method
US6404811B1 (en) 1996-05-13 2002-06-11 Tektronix, Inc. Interactive multimedia system
JP2956642B2 (en) 1996-06-17 1999-10-04 ヤマハ株式会社 Sound field control unit and sound field control device
US5910991A (en) 1996-08-02 1999-06-08 Apple Computer, Inc. Method and apparatus for a speaker for a personal computer for selective use as a conventional speaker or as a sub-woofer
JP3698376B2 (en) 1996-08-19 2005-09-21 松下電器産業株式会社 Synchronous playback device
US6469633B1 (en) 1997-01-06 2002-10-22 Openglobe Inc. Remote control of electronic devices
JPH10307592A (en) 1997-05-08 1998-11-17 Alpine Electron Inc Data distributing system for on-vehicle audio device
US6611537B1 (en) 1997-05-30 2003-08-26 Centillium Communications, Inc. Synchronous network for digital media streams
US6704421B1 (en) 1997-07-24 2004-03-09 Ati Technologies, Inc. Automatic multichannel equalization control system for a multimedia computer
TW392416B (en) 1997-08-18 2000-06-01 Noise Cancellation Tech Noise cancellation system for active headsets
EP0905933A3 (en) 1997-09-24 2004-03-24 STUDER Professional Audio AG Method and system for mixing audio signals
JPH11161266A (en) 1997-11-25 1999-06-18 Kawai Musical Instr Mfg Co Ltd Musical sound correcting device and method
US6032202A (en) 1998-01-06 2000-02-29 Sony Corporation Of Japan Home audio/video network with two level device control
US20020002039A1 (en) 1998-06-12 2002-01-03 Safi Qureshey Network-enabled audio device
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US6573067B1 (en) 1998-01-29 2003-06-03 Yale University Nucleic acid encoding sodium channels in dorsal root ganglia
US6549627B1 (en) 1998-01-30 2003-04-15 Telefonaktiebolaget Lm Ericsson Generating calibration signals for an adaptive beamformer
US6111957A (en) 1998-07-02 2000-08-29 Acoustic Technologies, Inc. Apparatus and method for adjusting audio equipment in acoustic environments
FR2781591B1 (en) 1998-07-22 2000-09-22 Technical Maintenance Corp AUDIOVISUAL REPRODUCTION SYSTEM
US6931134B1 (en) 1998-07-28 2005-08-16 James K. Waller, Jr. Multi-dimensional processor and multi-dimensional audio processor system
FI113935B (en) 1998-09-25 2004-06-30 Nokia Corp Method for Calibrating the Sound Level in a Multichannel Audio System and a Multichannel Audio System
DK199901256A (en) 1998-10-06 1999-10-05 Bang & Olufsen As Multimedia System
US6721428B1 (en) 1998-11-13 2004-04-13 Texas Instruments Incorporated Automatic loudspeaker equalizer
US7130616B2 (en) 2000-04-25 2006-10-31 Simple Devices System and method for providing content, management, and interactivity for client devices
US6766025B1 (en) 1999-03-15 2004-07-20 Koninklijke Philips Electronics N.V. Intelligent speaker training using microphone feedback and pre-loaded templates
US7103187B1 (en) 1999-03-30 2006-09-05 Lsi Logic Corporation Audio calibration system
US6256554B1 (en) 1999-04-14 2001-07-03 Dilorenzo Mark Multi-room entertainment system with in-room media player/dispenser
US6920479B2 (en) 1999-06-16 2005-07-19 Im Networks, Inc. Internet radio receiver with linear tuning interface
US7657910B1 (en) 1999-07-26 2010-02-02 E-Cast Inc. Distributed electronic entertainment method and apparatus
WO2001011918A2 (en) 1999-08-11 2001-02-15 Pacific Microsonics, Inc. Compensation system and method for sound reproduction
US6798889B1 (en) 1999-11-12 2004-09-28 Creative Technology Ltd. Method and apparatus for multi-channel sound system calibration
US6522886B1 (en) 1999-11-22 2003-02-18 Qwest Communications International Inc. Method and system for simultaneously sharing wireless communications among multiple wireless handsets
JP2001157293A (en) 1999-12-01 2001-06-08 Matsushita Electric Ind Co Ltd Speaker system
DE69935147T2 (en) 1999-12-03 2007-10-31 Telefonaktiebolaget Lm Ericsson (Publ) Method for the simultaneous playback of audio signals in two telephones
US7092537B1 (en) 1999-12-07 2006-08-15 Texas Instruments Incorporated Digital self-adapting graphic equalizer and method
US20010042107A1 (en) 2000-01-06 2001-11-15 Palm Stephen R. Networked audio player transport protocol and architecture
AU2762601A (en) 2000-01-07 2001-07-24 Informio, Inc. Methods and apparatus for forwarding audio content using an audio web retrieval telephone system
US20020026442A1 (en) 2000-01-24 2002-02-28 Lipscomb Kenneth O. System and method for the distribution and sharing of media assets between media players devices
JP2004500651A (en) 2000-01-24 2004-01-08 フリスキット インコーポレイテッド Streaming media search and playback system
JP2003521202A (en) 2000-01-28 2003-07-08 レイク テクノロジー リミティド A spatial audio system used in a geographic environment.
AU2001237673A1 (en) 2000-02-18 2001-08-27 Bridgeco Ag Reference time distribution over a network
US6631410B1 (en) 2000-03-16 2003-10-07 Sharp Laboratories Of America, Inc. Multimedia wired/wireless content synchronization system and method
US7187947B1 (en) 2000-03-28 2007-03-06 Affinity Labs, Llc System and method for communicating selected information to an electronic device
US20020022453A1 (en) 2000-03-31 2002-02-21 Horia Balog Dynamic protocol selection and routing of content to mobile devices
WO2001082650A2 (en) 2000-04-21 2001-11-01 Keyhold Engineering, Inc. Self-calibrating surround sound system
GB2363036B (en) 2000-05-31 2004-05-12 Nokia Mobile Phones Ltd Conference call method and apparatus therefor
US7031476B1 (en) 2000-06-13 2006-04-18 Sharp Laboratories Of America, Inc. Method and apparatus for intelligent speaker
US6643744B1 (en) 2000-08-23 2003-11-04 Nintendo Co., Ltd. Method and apparatus for pre-fetching audio data
US6985694B1 (en) 2000-09-07 2006-01-10 Clix Network, Inc. Method and system for providing an audio element cache in a customized personal radio broadcast
AU2001292738A1 (en) 2000-09-19 2002-04-02 Phatnoise, Inc. Device-to-device network
JP2002101500A (en) 2000-09-22 2002-04-05 Matsushita Electric Ind Co Ltd Sound field measurement device
US20020072816A1 (en) 2000-12-07 2002-06-13 Yoav Shdema Audio system
US6778869B2 (en) 2000-12-11 2004-08-17 Sony Corporation System and method for request, delivery and use of multimedia files for audiovisual entertainment in the home environment
US20020078161A1 (en) 2000-12-19 2002-06-20 Philips Electronics North America Corporation UPnP enabling device for heterogeneous networks of slave devices
US7143939B2 (en) 2000-12-19 2006-12-05 Intel Corporation Wireless music device and method therefor
US20020124097A1 (en) 2000-12-29 2002-09-05 Isely Larson J. Methods, systems and computer program products for zone based distribution of audio signals
US6731312B2 (en) 2001-01-08 2004-05-04 Apple Computer, Inc. Media player interface
US7305094B2 (en) 2001-01-12 2007-12-04 University Of Dayton System and method for actively damping boom noise in a vibro-acoustic enclosure
DE10105184A1 (en) 2001-02-06 2002-08-29 Bosch Gmbh Robert Method for automatically adjusting a digital equalizer and playback device for audio signals to implement such a method
DE10110422A1 (en) 2001-03-05 2002-09-19 Harman Becker Automotive Sys Method for controlling a multi-channel sound reproduction system and multi-channel sound reproduction system
US7095455B2 (en) * 2001-03-21 2006-08-22 Harman International Industries, Inc. Method for automatically adjusting the sound and visual parameters of a home theatre system
US7492909B2 (en) 2001-04-05 2009-02-17 Motorola, Inc. Method for acoustic transducer calibration
US6757517B2 (en) 2001-05-10 2004-06-29 Chin-Chi Chang Apparatus and method for coordinated music playback in wireless ad-hoc networks
US7668317B2 (en) 2001-05-30 2010-02-23 Sony Corporation Audio post processing in DVD, DTV and other audio visual products
US7164768B2 (en) 2001-06-21 2007-01-16 Bose Corporation Audio signal processing
US20030002689A1 (en) 2001-06-29 2003-01-02 Harris Corporation Supplemental audio content system with wireless communication for a cinema and related methods
WO2003023786A2 (en) 2001-09-11 2003-03-20 Thomson Licensing S.A. Method and apparatus for automatic equalization mode activation
US7312785B2 (en) 2001-10-22 2007-12-25 Apple Inc. Method and apparatus for accelerated scrolling
JP2003143252A (en) 2001-11-05 2003-05-16 Toshiba Corp Mobile communication terminal
US7391791B2 (en) 2001-12-17 2008-06-24 Implicit Networks, Inc. Method and system for synchronization of content rendering
US8103009B2 (en) 2002-01-25 2012-01-24 Ksc Industries, Inc. Wired, wireless, infrared, and powerline audio entertainment systems
US7853341B2 (en) 2002-01-25 2010-12-14 Ksc Industries, Inc. Wired, wireless, infrared, and powerline audio entertainment systems
JP2005518734A (en) 2002-02-20 2005-06-23 メシュネットワークス、インコーポレイテッド System and method for routing 802.11 data traffic between channels to increase ad hoc network capacity
US7197152B2 (en) 2002-02-26 2007-03-27 Otologics Llc Frequency response equalization system for hearing aid microphones
JP4059478B2 (en) 2002-02-28 2008-03-12 パイオニア株式会社 Sound field control method and sound field control system
US7483540B2 (en) 2002-03-25 2009-01-27 Bose Corporation Automatic audio system equalizing
JP2003304590A (en) 2002-04-10 2003-10-24 Nippon Telegr & Teleph Corp <Ntt> Remote controller, sound volume adjustment method, and sound volume automatic adjustment system
JP3929817B2 (en) 2002-04-23 2007-06-13 株式会社河合楽器製作所 Electronic musical instrument acoustic control device
JP4555072B2 (en) 2002-05-06 2010-09-29 シンクロネイション インコーポレイテッド Localized audio network and associated digital accessories
CA2485104A1 (en) 2002-05-09 2003-11-20 Herman Cardenas Audio network distribution system
US6862440B2 (en) 2002-05-29 2005-03-01 Intel Corporation Method and system for multiple channel wireless transmitter and receiver phase and amplitude calibration
WO2004002192A1 (en) 2002-06-21 2003-12-31 University Of Southern California System and method for automatic room acoustic correction
US7120256B2 (en) 2002-06-21 2006-10-10 Dolby Laboratories Licensing Corporation Audio testing system and method
US7567675B2 (en) 2002-06-21 2009-07-28 Audyssey Laboratories, Inc. System and method for automatic multiple listener room acoustic correction with low filter orders
US20050021470A1 (en) 2002-06-25 2005-01-27 Bose Corporation Intelligent music track selection
US7072477B1 (en) 2002-07-09 2006-07-04 Apple Computer, Inc. Method and apparatus for automatically normalizing a perceived volume level in a digitally encoded file
US8060225B2 (en) 2002-07-31 2011-11-15 Hewlett-Packard Development Company, L. P. Digital audio device
EP1389853B1 (en) 2002-08-14 2006-03-29 Sony Deutschland GmbH Bandwidth oriented reconfiguration of wireless ad hoc networks
EP1540986A1 (en) 2002-09-13 2005-06-15 Koninklijke Philips Electronics N.V. Calibrating a first and a second microphone
US20040071294A1 (en) 2002-10-15 2004-04-15 Halgas Joseph F. Method and apparatus for automatically configuring surround sound speaker systems
JP2004172786A (en) 2002-11-19 2004-06-17 Sony Corp Method and apparatus for reproducing audio signal
US7295548B2 (en) 2002-11-27 2007-11-13 Microsoft Corporation Method and system for disaggregating audio/visual components
US7676047B2 (en) 2002-12-03 2010-03-09 Bose Corporation Electroacoustical transducing with low frequency augmenting devices
US20040114771A1 (en) 2002-12-12 2004-06-17 Mitchell Vaughan Multimedia system with pre-stored equalization sets for multiple vehicle environments
GB0301093D0 (en) 2003-01-17 2003-02-19 1 Ltd Set-up method for array-type sound systems
US7925203B2 (en) 2003-01-22 2011-04-12 Qualcomm Incorporated System and method for controlling broadcast multimedia using plural wireless network connections
US6990211B2 (en) 2003-02-11 2006-01-24 Hewlett-Packard Development Company, L.P. Audio system and method
CA2522896A1 (en) 2003-04-23 2004-11-04 Rh Lyon Corp Method and apparatus for sound transduction with minimal interference from background noise and minimal local acoustic radiation
US7571014B1 (en) 2004-04-01 2009-08-04 Sonos, Inc. Method and apparatus for controlling multimedia players in a multi-zone system
US8234395B2 (en) 2003-07-28 2012-07-31 Sonos, Inc. System and method for synchronizing operations among a plurality of independently clocked digital data processing devices
US8280076B2 (en) 2003-08-04 2012-10-02 Harman International Industries, Incorporated System and method for audio system configuration
US7526093B2 (en) 2003-08-04 2009-04-28 Harman International Industries, Incorporated System for configuring audio system
JP2005086686A (en) 2003-09-10 2005-03-31 Fujitsu Ten Ltd Electronic equipment
US7039212B2 (en) 2003-09-12 2006-05-02 Britannia Investment Corporation Weather resistant porting
US7519188B2 (en) 2003-09-18 2009-04-14 Bose Corporation Electroacoustical transducing
US20060008256A1 (en) 2003-10-01 2006-01-12 Khedouri Robert K Audio visual player apparatus and system and method of content distribution using the same
JP4361354B2 (en) 2003-11-19 2009-11-11 パイオニア株式会社 Automatic sound field correction apparatus and computer program therefor
KR100678929B1 (en) 2003-11-24 2007-02-07 삼성전자주식회사 Method For Playing Multi-Channel Digital Sound, And Apparatus For The Same
JP4765289B2 (en) 2003-12-10 2011-09-07 ソニー株式会社 Method for detecting positional relationship of speaker device in acoustic system, acoustic system, server device, and speaker device
US20050147261A1 (en) 2003-12-30 2005-07-07 Chiang Yeh Head relational transfer function virtualizer
US20050157885A1 (en) 2004-01-16 2005-07-21 Olney Ross D. Audio system parameter setting based upon operator usage patterns
US7483538B2 (en) 2004-03-02 2009-01-27 Ksc Industries, Inc. Wireless and wired speaker hub for a home theater system
US7742606B2 (en) 2004-03-26 2010-06-22 Harman International Industries, Incorporated System for audio related equipment management
US9374607B2 (en) * 2012-06-26 2016-06-21 Sonos, Inc. Media playback system with guest access
US8144883B2 (en) 2004-05-06 2012-03-27 Bang & Olufsen A/S Method and system for adapting a loudspeaker to a listening position in a room
JP3972921B2 (en) 2004-05-11 2007-09-05 ソニー株式会社 Voice collecting device and echo cancellation processing method
US7630501B2 (en) 2004-05-14 2009-12-08 Microsoft Corporation System and method for calibration of an acoustic system
WO2005117483A1 (en) 2004-05-25 2005-12-08 Huonlabs Pty Ltd Audio apparatus and method
US7574010B2 (en) 2004-05-28 2009-08-11 Research In Motion Limited System and method for adjusting an audio signal
US7490044B2 (en) 2004-06-08 2009-02-10 Bose Corporation Audio signal processing
JP3988750B2 (en) 2004-06-30 2007-10-10 ブラザー工業株式会社 Sound pressure frequency characteristic adjusting device, information communication system, and program
US7720237B2 (en) 2004-09-07 2010-05-18 Audyssey Laboratories, Inc. Phase equalization for multi-channel loudspeaker-room responses
KR20060022968A (en) 2004-09-08 2006-03-13 삼성전자주식회사 Sound reproducing apparatus and sound reproducing method
US7664276B2 (en) 2004-09-23 2010-02-16 Cirrus Logic, Inc. Multipass parametric or graphic EQ fitting
US20060088174A1 (en) 2004-10-26 2006-04-27 Deleeuw William C System and method for optimizing media center audio through microphones embedded in a remote control
DE102004000043A1 (en) 2004-11-17 2006-05-24 Siemens Ag Method for selective recording of a sound signal
EP1825713B1 (en) 2004-11-22 2012-10-17 Bang & Olufsen A/S A method and apparatus for multichannel upmixing and downmixing
JP2006180039A (en) 2004-12-21 2006-07-06 Yamaha Corp Acoustic apparatus and program
EP2330783B1 (en) 2004-12-21 2012-10-10 Elliptic Laboratories AS Channel impulse response estimation
US9008331B2 (en) 2004-12-30 2015-04-14 Harman International Industries, Incorporated Equalization system to improve the quality of bass sounds within a listening area
US20080098027A1 (en) 2005-01-04 2008-04-24 Koninklijke Philips Electronics, N.V. Apparatus For And A Method Of Processing Reproducible Data
US7818350B2 (en) 2005-02-28 2010-10-19 Yahoo! Inc. System and method for creating a collaborative playlist
US8234679B2 (en) 2005-04-01 2012-07-31 Time Warner Cable, Inc. Technique for selecting multiple entertainment programs to be provided over a communication network
KR20060116383A (en) 2005-05-09 2006-11-15 엘지전자 주식회사 Method and apparatus for automatic setting equalizing functionality in a digital audio player
US8244179B2 (en) 2005-05-12 2012-08-14 Robin Dua Wireless inter-device data processing configured through inter-device transmitted data
JP4407571B2 (en) 2005-06-06 2010-02-03 株式会社デンソー In-vehicle system, vehicle interior sound field adjustment system, and portable terminal
EP1737265A1 (en) 2005-06-23 2006-12-27 AKG Acoustics GmbH Determination of the position of sound sources
US20070032895A1 (en) 2005-07-29 2007-02-08 Fawad Nackvi Loudspeaker with demonstration mode
CA2568916C (en) 2005-07-29 2010-02-09 Harman International Industries, Incorporated Audio tuning system
WO2007016465A2 (en) 2005-07-29 2007-02-08 Klipsch, L.L.C. Loudspeaker with automatic calibration and room equalization
US7529377B2 (en) 2005-07-29 2009-05-05 Klipsch L.L.C. Loudspeaker with automatic calibration and room equalization
US7590772B2 (en) 2005-08-22 2009-09-15 Apple Inc. Audio status information for a portable electronic device
JP4701931B2 (en) 2005-09-02 2011-06-15 日本電気株式会社 Method and apparatus for signal processing and computer program
WO2007028094A1 (en) 2005-09-02 2007-03-08 Harman International Industries, Incorporated Self-calibrating loudspeaker
GB2430319B (en) 2005-09-15 2008-09-17 Beaumont Freidman & Co Audio dosage control
US20070087686A1 (en) 2005-10-18 2007-04-19 Nokia Corporation Audio playback device and method of its operation
JP4285469B2 (en) 2005-10-18 2009-06-24 ソニー株式会社 Measuring device, measuring method, audio signal processing device
JP4193835B2 (en) 2005-10-19 2008-12-10 ソニー株式会社 Measuring device, measuring method, audio signal processing device
US7881460B2 (en) 2005-11-17 2011-02-01 Microsoft Corporation Configuration of echo cancellation
US20070121955A1 (en) 2005-11-30 2007-05-31 Microsoft Corporation Room acoustics correction device
CN1984507A (en) 2005-12-16 2007-06-20 乐金电子(沈阳)有限公司 Voice-frequency/video-frequency equipment and method for automatically adjusting loundspeaker position
WO2007068257A1 (en) 2005-12-16 2007-06-21 Tc Electronic A/S Method of performing measurements by means of an audio system comprising passive loudspeakers
FI20060910A0 (en) 2006-03-28 2006-10-13 Genelec Oy Identification method and device in an audio reproduction system
FI20060295L (en) 2006-03-28 2008-01-08 Genelec Oy Method and device in a sound reproduction system
FI122089B (en) 2006-03-28 2011-08-15 Genelec Oy Calibration method and equipment for the audio system
JP2007271802A (en) 2006-03-30 2007-10-18 Kenwood Corp Content reproduction system and computer program
JP4544190B2 (en) 2006-03-31 2010-09-15 ソニー株式会社 VIDEO / AUDIO PROCESSING SYSTEM, VIDEO PROCESSING DEVICE, AUDIO PROCESSING DEVICE, VIDEO / AUDIO OUTPUT DEVICE, AND VIDEO / AUDIO SYNCHRONIZATION METHOD
ATE527810T1 (en) 2006-05-11 2011-10-15 Global Ip Solutions Gips Ab SOUND MIXING
JP4725422B2 (en) 2006-06-02 2011-07-13 コニカミノルタホールディングス株式会社 Echo cancellation circuit, acoustic device, network camera, and echo cancellation method
US20080002839A1 (en) 2006-06-28 2008-01-03 Microsoft Corporation Smart equalizer
US7876903B2 (en) 2006-07-07 2011-01-25 Harris Corporation Method and apparatus for creating a multi-dimensional communication space for use in a binaural audio system
US7970922B2 (en) 2006-07-11 2011-06-28 Napo Enterprises, Llc P2P real time media recommendations
US7702282B2 (en) 2006-07-13 2010-04-20 Sony Ericsoon Mobile Communications Ab Conveying commands to a mobile terminal through body actions
JP2008035254A (en) 2006-07-28 2008-02-14 Sharp Corp Sound output device and television receiver
KR101275467B1 (en) 2006-07-31 2013-06-14 삼성전자주식회사 Apparatus and method for controlling automatic equalizer of audio reproducing apparatus
US20080077261A1 (en) 2006-08-29 2008-03-27 Motorola, Inc. Method and system for sharing an audio experience
US9386269B2 (en) 2006-09-07 2016-07-05 Rateze Remote Mgmt Llc Presentation of data on multiple display devices using a wireless hub
US8483853B1 (en) 2006-09-12 2013-07-09 Sonos, Inc. Controlling and manipulating groupings in a multi-zone media system
US8036767B2 (en) 2006-09-20 2011-10-11 Harman International Industries, Incorporated System for extracting and changing the reverberant content of an audio input signal
EP2080272B1 (en) 2006-10-17 2019-08-21 D&M Holdings, Inc. Unification of multimedia devices
US8984442B2 (en) 2006-11-17 2015-03-17 Apple Inc. Method and system for upgrading a previously purchased media asset
US20080136623A1 (en) 2006-12-06 2008-06-12 Russell Calvarese Audio trigger for mobile devices
US8006002B2 (en) 2006-12-12 2011-08-23 Apple Inc. Methods and systems for automatic configuration of peripherals
US8391501B2 (en) 2006-12-13 2013-03-05 Motorola Mobility Llc Method and apparatus for mixing priority and non-priority audio signals
US8045721B2 (en) 2006-12-14 2011-10-25 Motorola Mobility, Inc. Dynamic distortion elimination for output audio
TWI353126B (en) 2007-01-09 2011-11-21 Generalplus Technology Inc Audio system and related method integrated with ul
US20080175411A1 (en) 2007-01-19 2008-07-24 Greve Jens Player device with automatic settings
US20080214160A1 (en) 2007-03-01 2008-09-04 Sony Ericsson Mobile Communications Ab Motion-controlled audio output
US8155335B2 (en) 2007-03-14 2012-04-10 Phillip Rutschman Headset having wirelessly linked earpieces
JP2008228133A (en) 2007-03-15 2008-09-25 Matsushita Electric Ind Co Ltd Acoustic system
US20100104114A1 (en) 2007-03-15 2010-04-29 Peter Chapman Timbral correction of audio reproduction systems based on measured decay time or reverberation time
KR101114940B1 (en) 2007-03-29 2012-03-07 후지쯔 가부시끼가이샤 Semiconductor device and bias generating circuit
US8174558B2 (en) 2007-04-30 2012-05-08 Hewlett-Packard Development Company, L.P. Automatically calibrating a video conference system
US8194874B2 (en) 2007-05-22 2012-06-05 Polk Audio, Inc. In-room acoustic magnitude response smoothing via summation of correction signals
US8493332B2 (en) * 2007-06-21 2013-07-23 Elo Touch Solutions, Inc. Method and system for calibrating an acoustic touchscreen
DE102007032281A1 (en) 2007-07-11 2009-01-15 Austriamicrosystems Ag Reproduction device and method for controlling a reproduction device
US7796068B2 (en) 2007-07-16 2010-09-14 Gmr Research & Technology, Inc. System and method of multi-channel signal calibration
US8306235B2 (en) 2007-07-17 2012-11-06 Apple Inc. Method and apparatus for using a sound sensor to adjust the audio output for a device
KR101397433B1 (en) 2007-07-18 2014-06-27 삼성전자주식회사 Method and apparatus for configuring equalizer of media file player
WO2009010832A1 (en) 2007-07-18 2009-01-22 Bang & Olufsen A/S Loudspeaker position estimation
US20090063274A1 (en) 2007-08-01 2009-03-05 Dublin Iii Wilbur Leslie System and method for targeted advertising and promotions using tabletop display devices
US20090047993A1 (en) 2007-08-14 2009-02-19 Vasa Yojak H Method of using music metadata to save music listening preferences
KR20090027101A (en) 2007-09-11 2009-03-16 삼성전자주식회사 Method for equalizing audio and video apparatus using the same
GB2453117B (en) 2007-09-25 2012-05-23 Motorola Mobility Inc Apparatus and method for encoding a multi channel audio signal
US8175871B2 (en) 2007-09-28 2012-05-08 Qualcomm Incorporated Apparatus and method of noise and echo reduction in multiple microphone audio systems
EP2043381A3 (en) 2007-09-28 2010-07-21 Bang & Olufsen A/S A method and a system to adjust the acoustical performance of a loudspeaker
US20090110218A1 (en) 2007-10-31 2009-04-30 Swain Allan L Dynamic equalizer
US8264408B2 (en) 2007-11-20 2012-09-11 Nokia Corporation User-executable antenna array calibration
JP2009130643A (en) 2007-11-22 2009-06-11 Yamaha Corp Audio signal supplying apparatus, parameter providing system, television set, av system, speaker device and audio signal supplying method
US20090138507A1 (en) 2007-11-27 2009-05-28 International Business Machines Corporation Automated playback control for audio devices using environmental cues as indicators for automatically pausing audio playback
US8042961B2 (en) 2007-12-02 2011-10-25 Andrew Massara Audio lamp
US8126172B2 (en) 2007-12-06 2012-02-28 Harman International Industries, Incorporated Spatial processing stereo system
JP4561825B2 (en) 2007-12-27 2010-10-13 ソニー株式会社 Audio signal receiving apparatus, audio signal receiving method, program, and audio signal transmission system
US8073176B2 (en) 2008-01-04 2011-12-06 Bernard Bottum Speakerbar
JP5191750B2 (en) 2008-01-25 2013-05-08 川崎重工業株式会社 Sound equipment
KR101460060B1 (en) 2008-01-31 2014-11-20 삼성전자주식회사 Method for compensating audio frequency characteristic and AV apparatus using the same
JP5043701B2 (en) 2008-02-04 2012-10-10 キヤノン株式会社 Audio playback device and control method thereof
GB2457508B (en) 2008-02-18 2010-06-09 Ltd Sony Computer Entertainmen System and method of audio adaptaton
TWI394049B (en) 2008-02-20 2013-04-21 Ralink Technology Corp Direct memory access system and method for transmitting/receiving packet using the same
US20110007905A1 (en) 2008-02-26 2011-01-13 Pioneer Corporation Acoustic signal processing device and acoustic signal processing method
JPWO2009107227A1 (en) 2008-02-29 2011-06-30 パイオニア株式会社 Acoustic signal processing apparatus and acoustic signal processing method
US8401202B2 (en) 2008-03-07 2013-03-19 Ksc Industries Incorporated Speakers with a digital signal processor
US8503669B2 (en) 2008-04-07 2013-08-06 Sony Computer Entertainment Inc. Integrated latency detection and echo cancellation
US20090252481A1 (en) 2008-04-07 2009-10-08 Sony Ericsson Mobile Communications Ab Methods, apparatus, system and computer program product for audio input at video recording
US8325931B2 (en) 2008-05-02 2012-12-04 Bose Corporation Detecting a loudspeaker configuration
US8063698B2 (en) 2008-05-02 2011-11-22 Bose Corporation Bypassing amplification
TW200948165A (en) * 2008-05-15 2009-11-16 Asustek Comp Inc Sound system with acoustic calibration function
US8379876B2 (en) 2008-05-27 2013-02-19 Fortemedia, Inc Audio device utilizing a defect detection method on a microphone array
US20090304205A1 (en) 2008-06-10 2009-12-10 Sony Corporation Of Japan Techniques for personalizing audio levels
US8527876B2 (en) 2008-06-12 2013-09-03 Apple Inc. System and methods for adjusting graphical representations of media files based on previous usage
US8385557B2 (en) 2008-06-19 2013-02-26 Microsoft Corporation Multichannel acoustic echo reduction
KR100970920B1 (en) 2008-06-30 2010-07-20 권대훈 Tuning sound feed-back device
US8332414B2 (en) 2008-07-01 2012-12-11 Samsung Electronics Co., Ltd. Method and system for prefetching internet content for video recorders
US8452020B2 (en) 2008-08-20 2013-05-28 Apple Inc. Adjustment of acoustic properties based on proximity detection
JP5125891B2 (en) 2008-08-28 2013-01-23 ヤマハ株式会社 Audio system and speaker device
EP2161950B1 (en) 2008-09-08 2019-01-23 Harman Becker Gépkocsirendszer Gyártó Korlátolt Felelösségü Társaság Configuring a sound field
US8488799B2 (en) 2008-09-11 2013-07-16 Personics Holdings Inc. Method and system for sound monitoring over a network
JP2010081124A (en) 2008-09-24 2010-04-08 Panasonic Electric Works Co Ltd Calibration method for intercom device
US8392505B2 (en) 2008-09-26 2013-03-05 Apple Inc. Collaborative playlist management
US8544046B2 (en) 2008-10-09 2013-09-24 Packetvideo Corporation System and method for controlling media rendering in a network using a mobile device
US8325944B1 (en) 2008-11-07 2012-12-04 Adobe Systems Incorporated Audio mixes for listening environments
JP5368576B2 (en) 2008-11-14 2013-12-18 ザット コーポレーション Dynamic volume control and multi-space processing prevention
US8085952B2 (en) 2008-11-22 2011-12-27 Mao-Liang Liu Combination equalizer and calibrator circuit assembly for audio system
US8126156B2 (en) 2008-12-02 2012-02-28 Hewlett-Packard Development Company, L.P. Calibrating at least one system microphone
TR200809433A2 (en) 2008-12-05 2010-06-21 Vestel Elektroni̇k Sanayi̇ Ve Ti̇caret A.Ş. Dynamic caching method and system for metadata
US8977974B2 (en) 2008-12-08 2015-03-10 Apple Inc. Ambient noise based augmentation of media playback
KR20100066949A (en) 2008-12-10 2010-06-18 삼성전자주식회사 Audio apparatus and method for auto sound calibration
US8819554B2 (en) 2008-12-23 2014-08-26 At&T Intellectual Property I, L.P. System and method for playing media
CN101478296B (en) 2009-01-05 2011-12-21 华为终端有限公司 Gain control method and apparatus in multi-channel system
JP5394905B2 (en) 2009-01-14 2014-01-22 ローム株式会社 Automatic level control circuit, audio digital signal processor and variable gain amplifier gain control method using the same
US8731500B2 (en) 2009-01-29 2014-05-20 Telefonaktiebolaget Lm Ericsson (Publ) Automatic gain control based on bandwidth and delay spread
US8229125B2 (en) 2009-02-06 2012-07-24 Bose Corporation Adjusting dynamic range of an audio system
US8626516B2 (en) 2009-02-09 2014-01-07 Broadcom Corporation Method and system for dynamic range control in an audio processing system
US8300840B1 (en) 2009-02-10 2012-10-30 Frye Electronics, Inc. Multiple superimposed audio frequency test system and sound chamber with attenuated echo properties
US8588430B2 (en) 2009-02-11 2013-11-19 Nxp B.V. Controlling an adaptation of a behavior of an audio device to a current acoustic environmental condition
US8620006B2 (en) 2009-05-13 2013-12-31 Bose Corporation Center channel rendering
WO2010138311A1 (en) 2009-05-26 2010-12-02 Dolby Laboratories Licensing Corporation Equalization profiles for dynamic equalization of audio data
JP5451188B2 (en) 2009-06-02 2014-03-26 キヤノン株式会社 Standing wave detection device and control method thereof
US8682002B2 (en) 2009-07-02 2014-03-25 Conexant Systems, Inc. Systems and methods for transducer calibration and tuning
US8995688B1 (en) 2009-07-23 2015-03-31 Helen Jeanne Chemtob Portable hearing-assistive sound unit system
US8565908B2 (en) * 2009-07-29 2013-10-22 Northwestern University Systems, methods, and apparatus for equalization preference learning
CN106454675B (en) 2009-08-03 2020-02-07 图象公司 System and method for monitoring cinema speakers and compensating for quality problems
EP2288178B1 (en) 2009-08-17 2012-06-06 Nxp B.V. A device for and a method of processing audio data
CA2941646C (en) 2009-10-05 2019-09-10 Harman International Industries, Incorporated Multichannel audio system having audio channel compensation
CN105877914B (en) 2009-10-09 2019-07-05 奥克兰联合服务有限公司 Tinnitus treatment system and method
US8539161B2 (en) 2009-10-12 2013-09-17 Microsoft Corporation Pre-fetching content items based on social distance
US20110091055A1 (en) 2009-10-19 2011-04-21 Broadcom Corporation Loudspeaker localization techniques
WO2010004056A2 (en) 2009-10-27 2010-01-14 Phonak Ag Method and system for speech enhancement in a room
TWI384457B (en) 2009-12-09 2013-02-01 Nuvoton Technology Corp System and method for audio adjustment
JP5448771B2 (en) 2009-12-11 2014-03-19 キヤノン株式会社 Sound processing apparatus and method
JP5290949B2 (en) 2009-12-17 2013-09-18 キヤノン株式会社 Sound processing apparatus and method
US20110150247A1 (en) 2009-12-17 2011-06-23 Rene Martin Oliveras System and method for applying a plurality of input signals to a loudspeaker array
KR20110072650A (en) 2009-12-23 2011-06-29 삼성전자주식회사 Audio apparatus and method for transmitting audio signal and audio system
KR20110082840A (en) 2010-01-12 2011-07-20 삼성전자주식회사 Method and apparatus for adjusting volume
JP2011164166A (en) 2010-02-05 2011-08-25 D&M Holdings Inc Audio signal amplifying apparatus
WO2011104146A1 (en) 2010-02-24 2011-09-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus for generating an enhanced downmix signal, method for generating an enhanced downmix signal and computer program
US8139774B2 (en) 2010-03-03 2012-03-20 Bose Corporation Multi-element directional acoustic arrays
US8265310B2 (en) 2010-03-03 2012-09-11 Bose Corporation Multi-element directional acoustic arrays
US9749709B2 (en) 2010-03-23 2017-08-29 Apple Inc. Audio preview of music
EP2550813B1 (en) 2010-03-26 2016-11-09 Harman Becker Gépkocsirendszer Gyártó Korlátolt Felelösségü Társaság Multichannel sound reproduction method and device
KR101953279B1 (en) 2010-03-26 2019-02-28 돌비 인터네셔널 에이비 Method and device for decoding an audio soundfield representation for audio playback
JP5387478B2 (en) 2010-03-29 2014-01-15 ソニー株式会社 Audio reproduction apparatus and audio reproduction method
JP5488128B2 (en) 2010-03-31 2014-05-14 ヤマハ株式会社 Signal processing device
JP5672748B2 (en) 2010-03-31 2015-02-18 ヤマハ株式会社 Sound field control device
US9107021B2 (en) 2010-04-30 2015-08-11 Microsoft Technology Licensing, Llc Audio spatialization using reflective room model
EP2986034B1 (en) 2010-05-06 2017-05-31 Dolby Laboratories Licensing Corporation Audio system equalization for portable media playback devices
US9307340B2 (en) 2010-05-06 2016-04-05 Dolby Laboratories Licensing Corporation Audio system equalization for portable media playback devices
US8611570B2 (en) 2010-05-25 2013-12-17 Audiotoniq, Inc. Data storage system, hearing aid, and method of selectively applying sound filters
US8300845B2 (en) 2010-06-23 2012-10-30 Motorola Mobility Llc Electronic apparatus having microphones with controllable front-side gain and rear-side gain
CN103733648A (en) 2010-07-09 2014-04-16 邦及欧路夫森有限公司 Adaptive sound field control
US8433076B2 (en) 2010-07-26 2013-04-30 Motorola Mobility Llc Electronic apparatus for generating beamformed audio signals with steerable nulls
US8965546B2 (en) 2010-07-26 2015-02-24 Qualcomm Incorporated Systems, methods, and apparatus for enhanced acoustic imaging
WO2012015404A1 (en) 2010-07-29 2012-02-02 Empire Technology Development Llc Acoustic noise management through control of electrical device operations
WO2012019043A1 (en) 2010-08-06 2012-02-09 Motorola Mobility, Inc. Methods and devices for determining user input location using acoustic sensing elements
US20120051558A1 (en) 2010-09-01 2012-03-01 Samsung Electronics Co., Ltd. Method and apparatus for reproducing audio signal by adaptively controlling filter coefficient
TWI486068B (en) 2010-09-13 2015-05-21 Htc Corp Mobile electronic device and sound playback method thereof
US9008338B2 (en) 2010-09-30 2015-04-14 Panasonic Intellectual Property Management Co., Ltd. Audio reproduction apparatus and audio reproduction method
US8767968B2 (en) 2010-10-13 2014-07-01 Microsoft Corporation System and method for high-precision 3-dimensional audio for augmented reality
US20120113224A1 (en) 2010-11-09 2012-05-10 Andy Nguyen Determining Loudspeaker Layout Using Visual Markers
CN102004823B (en) 2010-11-11 2012-09-26 浙江中科电声研发中心 Numerical value simulation method of vibration and acoustic characteristics of speaker
WO2012066541A2 (en) 2010-11-16 2012-05-24 Epos Development Ltd. System and method for object position estimation based on ultrasonic reflected signals
US9316717B2 (en) 2010-11-24 2016-04-19 Samsung Electronics Co., Ltd. Position determination of devices using stereo audio
US20120148075A1 (en) 2010-12-08 2012-06-14 Creative Technology Ltd Method for optimizing reproduction of audio signals from an apparatus for audio reproduction
US20130051572A1 (en) 2010-12-08 2013-02-28 Creative Technology Ltd Method for optimizing reproduction of audio signals from an apparatus for audio reproduction
US20120183156A1 (en) * 2011-01-13 2012-07-19 Sennheiser Electronic Gmbh & Co. Kg Microphone system with a hand-held microphone
KR101873405B1 (en) 2011-01-18 2018-07-02 엘지전자 주식회사 Method for providing user interface using drawn patten and mobile terminal thereof
US8291349B1 (en) 2011-01-19 2012-10-16 Google Inc. Gesture-based metadata display
US8989406B2 (en) 2011-03-11 2015-03-24 Sony Corporation User profile based audio adjustment techniques
US9107023B2 (en) 2011-03-18 2015-08-11 Dolby Laboratories Licensing Corporation N surround
US9253561B2 (en) 2011-04-14 2016-02-02 Bose Corporation Orientation-responsive acoustic array control
US8934655B2 (en) 2011-04-14 2015-01-13 Bose Corporation Orientation-responsive use of acoustic reflection
US8934647B2 (en) 2011-04-14 2015-01-13 Bose Corporation Orientation-responsive acoustic driver selection
US9007871B2 (en) 2011-04-18 2015-04-14 Apple Inc. Passive proximity detection
US8786295B2 (en) 2011-04-20 2014-07-22 Cypress Semiconductor Corporation Current sensing apparatus and method for a capacitance-sensing device
US8824692B2 (en) 2011-04-20 2014-09-02 Vocollect, Inc. Self calibrating multi-element dipole microphone
US9031268B2 (en) 2011-05-09 2015-05-12 Dts, Inc. Room characterization and correction for multi-channel audio
US8831244B2 (en) 2011-05-10 2014-09-09 Audiotoniq, Inc. Portable tone generator for producing pre-calibrated tones
US8320577B1 (en) 2011-05-20 2012-11-27 Google Inc. Method and apparatus for multi-channel audio processing using single-channel components
US8855319B2 (en) 2011-05-25 2014-10-07 Mediatek Inc. Audio signal processing apparatus and audio signal processing method
US10218063B2 (en) 2013-03-13 2019-02-26 Aliphcom Radio signal pickup from an electrically conductive substrate utilizing passive slits
US8588434B1 (en) 2011-06-27 2013-11-19 Google Inc. Controlling microphones and speakers of a computing device
US9055382B2 (en) 2011-06-29 2015-06-09 Richard Lane Calibration of headphones to improve accuracy of recorded audio content
EP2727379B1 (en) 2011-07-01 2015-02-18 Dolby Laboratories Licensing Corporation Equalization of speaker arrays
CN105472525B (en) 2011-07-01 2018-11-13 杜比实验室特许公司 Audio playback system monitors
US8175297B1 (en) 2011-07-06 2012-05-08 Google Inc. Ad hoc sensor arrays
KR101948645B1 (en) 2011-07-11 2019-02-18 삼성전자 주식회사 Method and apparatus for controlling contents using graphic object
US9154185B2 (en) 2011-07-14 2015-10-06 Vivint, Inc. Managing audio output through an intermediary
US9042556B2 (en) 2011-07-19 2015-05-26 Sonos, Inc Shaping sound responsive to speaker orientation
US20130028443A1 (en) 2011-07-28 2013-01-31 Apple Inc. Devices with enhanced audio
JP2014527337A (en) 2011-07-28 2014-10-09 トムソン ライセンシング Audio calibration system and method
US9065929B2 (en) * 2011-08-02 2015-06-23 Apple Inc. Hearing aid detection
US9286384B2 (en) 2011-09-21 2016-03-15 Sonos, Inc. Methods and systems to share media
US8879761B2 (en) 2011-11-22 2014-11-04 Apple Inc. Orientation-based audio
US9363386B2 (en) 2011-11-23 2016-06-07 Qualcomm Incorporated Acoustic echo cancellation based on ultrasound motion detection
US8983089B1 (en) 2011-11-28 2015-03-17 Rawles Llc Sound source localization using multiple microphone arrays
US20130166227A1 (en) 2011-12-27 2013-06-27 Utc Fire & Security Corporation System and method for an acoustic monitor self-test
US9084058B2 (en) 2011-12-29 2015-07-14 Sonos, Inc. Sound field calibration using listener localization
US8856272B2 (en) 2012-01-08 2014-10-07 Harman International Industries, Incorporated Cloud hosted audio rendering based upon device and environment profiles
US8996370B2 (en) 2012-01-31 2015-03-31 Microsoft Corporation Transferring data via audio link
JP5962038B2 (en) 2012-02-03 2016-08-03 ソニー株式会社 Signal processing apparatus, signal processing method, program, signal processing system, and communication terminal
US20130211843A1 (en) 2012-02-13 2013-08-15 Qualcomm Incorporated Engagement-dependent gesture recognition
JP2015513832A (en) 2012-02-21 2015-05-14 インタートラスト テクノロジーズ コーポレイション Audio playback system and method
EP2817977B1 (en) 2012-02-24 2019-12-18 Fraunhofer Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus for providing an audio signal for reproduction by a sound transducer, system, method and computer program
US9277322B2 (en) 2012-03-02 2016-03-01 Bang & Olufsen A/S System for optimizing the perceived sound quality in virtual sound zones
KR102024284B1 (en) 2012-03-14 2019-09-23 방 앤드 오루프센 에이/에스 A method of applying a combined or hybrid sound -field control strategy
US20130259254A1 (en) 2012-03-28 2013-10-03 Qualcomm Incorporated Systems, methods, and apparatus for producing a directional sound field
KR101267047B1 (en) 2012-03-30 2013-05-24 삼성전자주식회사 Apparatus and method for detecting earphone
LV14747B (en) 2012-04-04 2014-03-20 Sonarworks, Sia Method and device for correction operating parameters of electro-acoustic radiators
US20130279706A1 (en) 2012-04-23 2013-10-24 Stefan J. Marti Controlling individual audio output devices based on detected inputs
EP2847971B1 (en) 2012-05-08 2018-12-26 Cirrus Logic International Semiconductor Ltd. System and method for forming media networks from loosely coordinated media rendering devices.
US9524098B2 (en) 2012-05-08 2016-12-20 Sonos, Inc. Methods and systems for subwoofer calibration
JP2013247456A (en) 2012-05-24 2013-12-09 Toshiba Corp Acoustic processing device, acoustic processing method, acoustic processing program, and acoustic processing system
US8903526B2 (en) 2012-06-06 2014-12-02 Sonos, Inc. Device playback failure recovery and redistribution
JP5284517B1 (en) 2012-06-07 2013-09-11 株式会社東芝 Measuring apparatus and program
US9301073B2 (en) 2012-06-08 2016-03-29 Apple Inc. Systems and methods for determining the condition of multiple microphones
US9882995B2 (en) 2012-06-25 2018-01-30 Sonos, Inc. Systems, methods, apparatus, and articles of manufacture to provide automatic wireless configuration
US9715365B2 (en) 2012-06-27 2017-07-25 Sonos, Inc. Systems and methods for mobile music zones
US9690539B2 (en) 2012-06-28 2017-06-27 Sonos, Inc. Speaker calibration user interface
US9690271B2 (en) 2012-06-28 2017-06-27 Sonos, Inc. Speaker calibration
US9106192B2 (en) 2012-06-28 2015-08-11 Sonos, Inc. System and method for device playback calibration
US9119012B2 (en) 2012-06-28 2015-08-25 Broadcom Corporation Loudspeaker beamforming for personal audio focal points
US9219460B2 (en) 2014-03-17 2015-12-22 Sonos, Inc. Audio settings based on environment
US9065410B2 (en) 2012-06-28 2015-06-23 Apple Inc. Automatic audio equalization using handheld mode detection
US9706323B2 (en) 2014-09-09 2017-07-11 Sonos, Inc. Playback device calibration
US9031244B2 (en) 2012-06-29 2015-05-12 Sonos, Inc. Smart audio settings
US9615171B1 (en) 2012-07-02 2017-04-04 Amazon Technologies, Inc. Transformation inversion to reduce the effect of room acoustics
US9497544B2 (en) 2012-07-02 2016-11-15 Qualcomm Incorporated Systems and methods for surround sound echo reduction
US20140003635A1 (en) 2012-07-02 2014-01-02 Qualcomm Incorporated Audio signal processing device calibration
US9190065B2 (en) 2012-07-15 2015-11-17 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for three-dimensional audio coding using basis function coefficients
US9288603B2 (en) 2012-07-15 2016-03-15 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for backward-compatible audio coding
US9473870B2 (en) 2012-07-16 2016-10-18 Qualcomm Incorporated Loudspeaker position compensation with 3D-audio hierarchical coding
US9516446B2 (en) 2012-07-20 2016-12-06 Qualcomm Incorporated Scalable downmix design for object-based surround codec with cluster analysis by synthesis
US20140029201A1 (en) 2012-07-25 2014-01-30 Si Joong Yang Power package module and manufacturing method thereof
WO2014018365A2 (en) 2012-07-26 2014-01-30 Jvl Ventures, Llc Systems, methods, and computer program products for receiving a feed message
US8995687B2 (en) 2012-08-01 2015-03-31 Sonos, Inc. Volume interactions for connected playback devices
US9094768B2 (en) 2012-08-02 2015-07-28 Crestron Electronics Inc. Loudspeaker calibration using multiple wireless microphones
US8930005B2 (en) 2012-08-07 2015-01-06 Sonos, Inc. Acoustic signatures in a playback system
US20140052770A1 (en) 2012-08-14 2014-02-20 Packetvideo Corporation System and method for managing media content using a dynamic playlist
US9532153B2 (en) 2012-08-29 2016-12-27 Bang & Olufsen A/S Method and a system of providing information to a user
WO2014032709A1 (en) 2012-08-29 2014-03-06 Huawei Technologies Co., Ltd. Audio rendering system
US9532158B2 (en) 2012-08-31 2016-12-27 Dolby Laboratories Licensing Corporation Reflected and direct rendering of upmixed content to individually addressable drivers
US8965033B2 (en) 2012-08-31 2015-02-24 Sonos, Inc. Acoustic optimization
US9826328B2 (en) 2012-08-31 2017-11-21 Dolby Laboratories Licensing Corporation System for rendering and playback of object based audio in various listening environments
US9078055B2 (en) 2012-09-17 2015-07-07 Blackberry Limited Localization of a wireless user equipment (UE) device based on single beep per channel signatures
FR2995754A1 (en) 2012-09-18 2014-03-21 France Telecom OPTIMIZED CALIBRATION OF A MULTI-SPEAKER SOUND RESTITUTION SYSTEM
US9173023B2 (en) 2012-09-25 2015-10-27 Intel Corporation Multiple device noise reduction microphone array
US9319816B1 (en) 2012-09-26 2016-04-19 Amazon Technologies, Inc. Characterizing environment using ultrasound pilot tones
SG2012072161A (en) 2012-09-27 2014-04-28 Creative Tech Ltd An electronic device
CN104685903B (en) 2012-10-09 2018-03-30 皇家飞利浦有限公司 The apparatus and method measured for generating audio disturbances
US8731206B1 (en) 2012-10-10 2014-05-20 Google Inc. Measuring sound quality using relative comparison
US9396732B2 (en) 2012-10-18 2016-07-19 Google Inc. Hierarchical deccorelation of multichannel audio
US9020153B2 (en) 2012-10-24 2015-04-28 Google Inc. Automatic detection of loudspeaker characteristics
CN107404159A (en) 2012-10-26 2017-11-28 联发科技(新加坡)私人有限公司 A kind of transmitter module and receiver module
WO2014074089A1 (en) 2012-11-06 2014-05-15 D & M Holding Inc. Selectively coordinated audio player system
US9729986B2 (en) 2012-11-07 2017-08-08 Fairchild Semiconductor Corporation Protection of a speaker using temperature calibration
US9277321B2 (en) 2012-12-17 2016-03-01 Nokia Technologies Oy Device discovery and constellation selection
EP2747081A1 (en) 2012-12-18 2014-06-25 Oticon A/s An audio processing device comprising artifact reduction
JP6486833B2 (en) 2012-12-20 2019-03-20 ストラブワークス エルエルシー System and method for providing three-dimensional extended audio
US20140242913A1 (en) 2013-01-01 2014-08-28 Aliphcom Mobile device speaker control
KR102051588B1 (en) 2013-01-07 2019-12-03 삼성전자주식회사 Method and apparatus for playing audio contents in wireless terminal
KR20140099122A (en) 2013-02-01 2014-08-11 삼성전자주식회사 Electronic device, position detecting device, system and method for setting of speakers
CN103970793B (en) 2013-02-04 2020-03-03 腾讯科技(深圳)有限公司 Information query method, client and server
BR112015018352A2 (en) 2013-02-05 2017-07-18 Koninklijke Philips Nv audio device and method for operating an audio system
US9913064B2 (en) 2013-02-07 2018-03-06 Qualcomm Incorporated Mapping virtual speakers to physical speakers
US10178489B2 (en) 2013-02-08 2019-01-08 Qualcomm Incorporated Signaling audio rendering information in a bitstream
US9319019B2 (en) 2013-02-11 2016-04-19 Symphonic Audio Technologies Corp. Method for augmenting a listening experience
US9300266B2 (en) 2013-02-12 2016-03-29 Qualcomm Incorporated Speaker equalization for mobile devices
US9247365B1 (en) 2013-02-14 2016-01-26 Google Inc. Impedance sensing for speaker characteristic information
US9602918B2 (en) 2013-02-28 2017-03-21 Google Inc. Stream caching for audio mixers
KR20180097786A (en) 2013-03-05 2018-08-31 애플 인크. Adjusting the beam pattern of a speaker array based on the location of one or more listeners
CN105122845B (en) 2013-03-06 2018-09-07 苹果公司 The system and method that steady while driver for speaker system measures
KR101887983B1 (en) 2013-03-07 2018-08-14 애플 인크. Room and program responsive loudspeaker system
EP2974382B1 (en) 2013-03-11 2017-04-19 Apple Inc. Timbre constancy across a range of directivities for a loudspeaker
US9185199B2 (en) 2013-03-12 2015-11-10 Google Technology Holdings LLC Method and apparatus for acoustically characterizing an environment in which an electronic device resides
US9351091B2 (en) 2013-03-12 2016-05-24 Google Technology Holdings LLC Apparatus with adaptive microphone configuration based on surface proximity, surface type and motion
US9357306B2 (en) 2013-03-12 2016-05-31 Nokia Technologies Oy Multichannel audio calibration method and apparatus
US20140267148A1 (en) 2013-03-14 2014-09-18 Aliphcom Proximity and interface controls of media devices for media presentations
US10212534B2 (en) 2013-03-14 2019-02-19 Michael Edward Smith Luna Intelligent device connection for wireless media ecosystem
US20140279889A1 (en) 2013-03-14 2014-09-18 Aliphcom Intelligent device connection for wireless media ecosystem
JP6084750B2 (en) 2013-03-14 2017-02-22 アップル インコーポレイテッド Indoor adaptive equalization using speakers and portable listening devices
US9349282B2 (en) 2013-03-15 2016-05-24 Aliphcom Proximity sensing device control architecture and data communication protocol
US20140286496A1 (en) 2013-03-15 2014-09-25 Aliphcom Proximity sensing device control architecture and data communication protocol
WO2014145367A2 (en) 2013-03-15 2014-09-18 Keyssa, Inc. Contactless ehf data communication
US9559651B2 (en) 2013-03-29 2017-01-31 Apple Inc. Metadata for loudness and dynamic range control
US9689960B1 (en) 2013-04-04 2017-06-27 Amazon Technologies, Inc. Beam rejection in multi-beam microphone systems
US9253586B2 (en) 2013-04-26 2016-02-02 Sony Corporation Devices, methods and computer program products for controlling loudness
US9307508B2 (en) 2013-04-29 2016-04-05 Google Technology Holdings LLC Systems and methods for syncronizing multiple electronic devices
US9942661B2 (en) 2013-05-14 2018-04-10 Logitech Europe S.A Method and apparatus for controlling portable audio devices
US10031647B2 (en) 2013-05-14 2018-07-24 Google Llc System for universal remote media control in a multi-user, multi-platform, multi-device environment
US9909863B2 (en) 2013-05-16 2018-03-06 Koninklijke Philips N.V. Determination of a room dimension estimate
US9472201B1 (en) 2013-05-22 2016-10-18 Google Inc. Speaker localization by means of tactile input
US9412385B2 (en) 2013-05-28 2016-08-09 Qualcomm Incorporated Performing spatial masking with respect to spherical harmonic coefficients
US9420393B2 (en) 2013-05-29 2016-08-16 Qualcomm Incorporated Binaural rendering of spherical harmonic coefficients
US9215545B2 (en) 2013-05-31 2015-12-15 Bose Corporation Sound stage controller for a near-field speaker-based audio system
US9979438B2 (en) 2013-06-07 2018-05-22 Apple Inc. Controlling a media device using a mobile device
US9654073B2 (en) 2013-06-07 2017-05-16 Sonos, Inc. Group volume control
US20160049051A1 (en) 2013-06-21 2016-02-18 Hello Inc. Room monitoring device with packaging
US20150011195A1 (en) * 2013-07-03 2015-01-08 Eric Li Automatic volume control based on context and location
WO2015009748A1 (en) 2013-07-15 2015-01-22 Dts, Inc. Spatial calibration of surround sound systems including listener position estimation
US9832517B2 (en) 2013-07-17 2017-11-28 Telefonaktiebolaget Lm Ericsson (Publ) Seamless playback of media content using digital watermarking
US9596553B2 (en) 2013-07-18 2017-03-14 Harman International Industries, Inc. Apparatus and method for performing an audio measurement sweep
US9336113B2 (en) 2013-07-29 2016-05-10 Bose Corporation Method and device for selecting a networked media device
US10219094B2 (en) 2013-07-30 2019-02-26 Thomas Alan Donaldson Acoustic detection of audio sources to facilitate reproduction of spatial audio spaces
US10225680B2 (en) 2013-07-30 2019-03-05 Thomas Alan Donaldson Motion detection of audio sources to facilitate reproduction of spatial audio spaces
US9565497B2 (en) 2013-08-01 2017-02-07 Caavo Inc. Enhancing audio using a mobile device
CN104349090B (en) 2013-08-09 2019-07-19 三星电子株式会社 Tune the system and method for audio processing feature
EP3280162A1 (en) 2013-08-20 2018-02-07 Harman Becker Gépkocsirendszer Gyártó Korlátolt Felelösségü Társaság A system for and a method of generating sound
EP2842529A1 (en) 2013-08-30 2015-03-04 GN Store Nord A/S Audio rendering system categorising geospatial objects
US20150078586A1 (en) 2013-09-16 2015-03-19 Amazon Technologies, Inc. User input with fingerprint sensor
CN103491397B (en) 2013-09-25 2017-04-26 歌尔股份有限公司 Method and system for achieving self-adaptive surround sound
US9231545B2 (en) 2013-09-27 2016-01-05 Sonos, Inc. Volume enhancements in a multi-zone media playback system
KR102114219B1 (en) 2013-10-10 2020-05-25 삼성전자주식회사 Audio system, Method for outputting audio, and Speaker apparatus thereof
US9402095B2 (en) 2013-11-19 2016-07-26 Nokia Technologies Oy Method and apparatus for calibrating an audio playback system
US9240763B2 (en) 2013-11-25 2016-01-19 Apple Inc. Loudness normalization based on user feedback
US20150161360A1 (en) 2013-12-06 2015-06-11 Microsoft Corporation Mobile Device Generated Sharing of Cloud Media Collections
US9451377B2 (en) 2014-01-07 2016-09-20 Howard Massey Device, method and software for measuring distance to a sound generator by using an audible impulse signal
EP3092824B1 (en) 2014-01-10 2017-11-01 Dolby Laboratories Licensing Corporation Calibration of virtual height speakers using programmable portable devices
US9560449B2 (en) 2014-01-17 2017-01-31 Sony Corporation Distributed wireless speaker system
US9729984B2 (en) 2014-01-18 2017-08-08 Microsoft Technology Licensing, Llc Dynamic calibration of an audio system
US9288597B2 (en) 2014-01-20 2016-03-15 Sony Corporation Distributed wireless speaker system with automatic configuration determination when new speakers are added
US9116912B1 (en) 2014-01-31 2015-08-25 EyeGroove, Inc. Methods and devices for modifying pre-existing media items
US20150229699A1 (en) 2014-02-10 2015-08-13 Comcast Cable Communications, Llc Methods And Systems For Linking Content
US9590969B2 (en) 2014-03-13 2017-03-07 Ca, Inc. Identity verification services using private data
US9264839B2 (en) 2014-03-17 2016-02-16 Sonos, Inc. Playback device configuration based on proximity detection
US9746491B2 (en) * 2014-03-17 2017-08-29 Plantronics, Inc. Sensor calibration based on device use state
US9554201B2 (en) 2014-03-31 2017-01-24 Bose Corporation Multiple-orientation audio device and related apparatus
EP2928211A1 (en) 2014-04-04 2015-10-07 Oticon A/s Self-calibration of multi-microphone noise reduction system for hearing assistance devices using an auxiliary device
WO2015156775A1 (en) 2014-04-08 2015-10-15 Empire Technology Development Llc Sound verification
US9467779B2 (en) 2014-05-13 2016-10-11 Apple Inc. Microphone partial occlusion detector
US10368183B2 (en) 2014-05-19 2019-07-30 Apple Inc. Directivity optimized sound reproduction
US9398392B2 (en) * 2014-06-30 2016-07-19 Microsoft Technology Licensing, Llc Audio calibration and adjustment
US20160119730A1 (en) 2014-07-07 2016-04-28 Project Aalto Oy Method for improving audio quality of online multimedia content
US9516414B2 (en) 2014-07-09 2016-12-06 Blackberry Limited Communication device and method for adapting to audio accessories
US9516444B2 (en) 2014-07-15 2016-12-06 Sonavox Canada Inc. Wireless control and calibration of audio system
JP6210458B2 (en) 2014-07-30 2017-10-11 パナソニックIpマネジメント株式会社 Failure detection system and failure detection method
US20160036881A1 (en) 2014-08-01 2016-02-04 Qualcomm Incorporated Computing device and method for exchanging metadata with peer devices in order to obtain media playback resources from a network service
CN104284291B (en) 2014-08-07 2016-10-05 华南理工大学 The earphone dynamic virtual playback method of 5.1 path surround sounds and realize device
CN106688248B (en) 2014-09-09 2020-04-14 搜诺思公司 Audio processing algorithms and databases
US10127006B2 (en) 2014-09-09 2018-11-13 Sonos, Inc. Facilitating calibration of an audio playback device
US9952825B2 (en) 2014-09-09 2018-04-24 Sonos, Inc. Audio processing algorithms
US9891881B2 (en) 2014-09-09 2018-02-13 Sonos, Inc. Audio processing algorithm database
US9910634B2 (en) 2014-09-09 2018-03-06 Sonos, Inc. Microphone calibration
US9196432B1 (en) 2014-09-24 2015-11-24 James Thomas O'Keeffe Smart electrical switch with audio capability
CN104219604B (en) 2014-09-28 2017-02-15 三星电子(中国)研发中心 Stereo playback method of loudspeaker array
WO2016054098A1 (en) 2014-09-30 2016-04-07 Nunntawi Dynamics Llc Method for creating a virtual acoustic stereo system with an undistorted acoustic center
EP3755003A1 (en) 2014-09-30 2020-12-23 Apple Inc. Multi-driver acoustic horn for horizontal beam control
EP3800902A1 (en) 2014-09-30 2021-04-07 Apple Inc. Method to determine loudspeaker change of placement
US9747906B2 (en) 2014-11-14 2017-08-29 The Nielson Company (Us), Llc Determining media device activation based on frequency response analysis
US9832524B2 (en) 2014-11-18 2017-11-28 Caavo Inc Configuring television speakers
US9584915B2 (en) 2015-01-19 2017-02-28 Microsoft Technology Licensing, Llc Spatial audio with remote speakers
US9578418B2 (en) 2015-01-21 2017-02-21 Qualcomm Incorporated System and method for controlling output of multiple audio output devices
US20160239255A1 (en) 2015-02-16 2016-08-18 Harman International Industries, Inc. Mobile interface for loudspeaker optimization
US9811212B2 (en) 2015-02-25 2017-11-07 Microsoft Technology Licensing, Llc Ultrasound sensing of proximity and touch
US20160260140A1 (en) 2015-03-06 2016-09-08 Spotify Ab System and method for providing a promoted track display for use with a media content or streaming environment
US9609383B1 (en) 2015-03-23 2017-03-28 Amazon Technologies, Inc. Directional audio for virtual environments
US9678708B2 (en) 2015-04-24 2017-06-13 Sonos, Inc. Volume limit
US9568994B2 (en) 2015-05-19 2017-02-14 Spotify Ab Cadence and media content phase alignment
US9813621B2 (en) 2015-05-26 2017-11-07 Google Llc Omnistereo capture for mobile devices
US9794719B2 (en) 2015-06-15 2017-10-17 Harman International Industries, Inc. Crowd sourced audio data for venue equalization
CN104967953B (en) 2015-06-23 2018-10-09 Tcl集团股份有限公司 A kind of multichannel playback method and system
US9544701B1 (en) 2015-07-19 2017-01-10 Sonos, Inc. Base properties in a media playback system
US9686625B2 (en) 2015-07-21 2017-06-20 Disney Enterprises, Inc. Systems and methods for delivery of personalized audio
US9538305B2 (en) 2015-07-28 2017-01-03 Sonos, Inc. Calibration error conditions
US9913056B2 (en) 2015-08-06 2018-03-06 Dolby Laboratories Licensing Corporation System and method to enhance speakers connected to devices with microphones
US9911433B2 (en) 2015-09-08 2018-03-06 Bose Corporation Wireless audio synchronization
US9693165B2 (en) 2015-09-17 2017-06-27 Sonos, Inc. Validation of audio calibration using multi-dimensional motion check
EP3531714B1 (en) 2015-09-17 2022-02-23 Sonos Inc. Facilitating calibration of an audio playback device
CN105163221B (en) 2015-09-30 2019-06-28 广州三星通信技术研究有限公司 The method and its electric terminal of earphone active noise reduction are executed in electric terminal
US9653075B1 (en) 2015-11-06 2017-05-16 Google Inc. Voice commands across devices
US10123141B2 (en) 2015-11-13 2018-11-06 Bose Corporation Double-talk detection for acoustic echo cancellation
US9648438B1 (en) 2015-12-16 2017-05-09 Oculus Vr, Llc Head-related transfer function recording using positional tracking
EP3182732A1 (en) 2015-12-18 2017-06-21 Thomson Licensing Apparatus and method for detecting loudspeaker connection or positionning errors during calibration of a multi channel audio system
US10206052B2 (en) 2015-12-22 2019-02-12 Bragi GmbH Analytical determination of remote battery temperature through distributed sensor array system and method
US9743207B1 (en) 2016-01-18 2017-08-22 Sonos, Inc. Calibration using multiple recording devices
US9859858B2 (en) 2016-01-19 2018-01-02 Apple Inc. Correction of unknown audio content
US10003899B2 (en) 2016-01-25 2018-06-19 Sonos, Inc. Calibration with particular locations
EP3214858A1 (en) 2016-03-03 2017-09-06 Thomson Licensing Apparatus and method for determining delay and gain parameters for calibrating a multi channel audio system
US9864574B2 (en) 2016-04-01 2018-01-09 Sonos, Inc. Playback device calibration based on representation spectral characteristics
US9860662B2 (en) 2016-04-01 2018-01-02 Sonos, Inc. Updating playback device configuration information based on calibration data
US9763018B1 (en) 2016-04-12 2017-09-12 Sonos, Inc. Calibration of audio playback devices
US10425730B2 (en) 2016-04-14 2019-09-24 Harman International Industries, Incorporated Neural network-based loudspeaker modeling with a deconvolution filter
US10125006B2 (en) 2016-05-19 2018-11-13 Ronnoco Coffee, Llc Dual compartment beverage diluting and cooling medium container and system
US10459684B2 (en) 2016-08-05 2019-10-29 Sonos, Inc. Calibration of a playback device based on an estimated frequency response
US10783883B2 (en) 2016-11-03 2020-09-22 Google Llc Focus session at a voice interface device
EP3879297A1 (en) 2017-04-14 2021-09-15 Signify Holding B.V. A positioning system for determining a location of an object
US10455322B2 (en) 2017-08-18 2019-10-22 Roku, Inc. Remote control with presence sensor
KR102345926B1 (en) 2017-08-28 2022-01-03 삼성전자주식회사 Electronic Device for detecting proximity of external object using signal having specified frequency
US10614857B2 (en) 2018-07-02 2020-04-07 Apple Inc. Calibrating media playback channels for synchronized presentation
US10299061B1 (en) 2018-08-28 2019-05-21 Sonos, Inc. Playback device calibration

Also Published As

Publication number Publication date
US20180359585A1 (en) 2018-12-13
US9992597B2 (en) 2018-06-05
US11197112B2 (en) 2021-12-07
WO2017049171A1 (en) 2017-03-23
US20200008000A1 (en) 2020-01-02
EP3350922B1 (en) 2019-05-08
EP3350922A1 (en) 2018-07-25
US20220240036A1 (en) 2022-07-28
US11706579B2 (en) 2023-07-18
CN108028633A (en) 2018-05-11
EP3541095A1 (en) 2019-09-18
US20240015458A1 (en) 2024-01-11
JP6781779B2 (en) 2020-11-04
US20170208408A1 (en) 2017-07-20
JP2019133160A (en) 2019-08-08
JP2018533752A (en) 2018-11-15
US9693165B2 (en) 2017-06-27
US10419864B2 (en) 2019-09-17
US20170086004A1 (en) 2017-03-23

Similar Documents

Publication Publication Date Title
JP6483922B2 (en) Validating audio calibration using multidimensional motion check
US10462592B2 (en) Calibration error conditions
JP6523543B2 (en) Calibration of playback device
US11540073B2 (en) Playback device self-calibration
JP6524273B2 (en) Calibration of playback device
JP7092829B2 (en) How to facilitate calibration of audio playback devices
JP6383896B1 (en) A hybrid test tone for spatially averaged room audio calibration using a moving microphone
JP6503457B2 (en) Audio processing algorithm and database
JP6216471B2 (en) Audio settings based on environment
US10021503B2 (en) Determining direction of networked microphone device relative to audio playback device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190214

R150 Certificate of patent or registration of utility model

Ref document number: 6483922

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250