JP6483922B2 - Validating audio calibration using multidimensional motion check - Google Patents
Validating audio calibration using multidimensional motion check Download PDFInfo
- Publication number
- JP6483922B2 JP6483922B2 JP2018514418A JP2018514418A JP6483922B2 JP 6483922 B2 JP6483922 B2 JP 6483922B2 JP 2018514418 A JP2018514418 A JP 2018514418A JP 2018514418 A JP2018514418 A JP 2018514418A JP 6483922 B2 JP6483922 B2 JP 6483922B2
- Authority
- JP
- Japan
- Prior art keywords
- calibration
- playback
- movement
- data
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 title claims description 518
- 238000000034 method Methods 0.000 claims description 114
- 230000001133 acceleration Effects 0.000 claims description 52
- 230000005484 gravity Effects 0.000 claims description 20
- 230000004044 response Effects 0.000 claims description 10
- 230000010354 integration Effects 0.000 claims description 4
- 239000013589 supplement Substances 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims 1
- 230000001934 delay Effects 0.000 claims 1
- 238000012545 processing Methods 0.000 description 61
- 230000005236 sound signal Effects 0.000 description 45
- 230000008569 process Effects 0.000 description 31
- 238000005259 measurement Methods 0.000 description 29
- 230000006870 function Effects 0.000 description 20
- 230000000875 corresponding effect Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 16
- 238000001514 detection method Methods 0.000 description 15
- 230000002596 correlated effect Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 9
- 230000000694 effects Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000000737 periodic effect Effects 0.000 description 7
- 239000000047 product Substances 0.000 description 7
- 230000002411 adverse Effects 0.000 description 5
- 238000013500 data storage Methods 0.000 description 5
- 230000000670 limiting effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000026058 directional locomotion Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R29/00—Monitoring arrangements; Testing arrangements
- H04R29/007—Monitoring arrangements; Testing arrangements for public address systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/06—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being correlation coefficients
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G5/00—Tone control or bandwidth control in amplifiers
- H03G5/16—Automatic control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R29/00—Monitoring arrangements; Testing arrangements
- H04R29/008—Visual indication of individual signal levels
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/04—Circuits for transducers, loudspeakers or microphones for correcting frequency response
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G5/00—Tone control or bandwidth control in amplifiers
- H03G5/16—Automatic control
- H03G5/165—Equalizers; Volume or gain control in limited frequency bands
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2227/00—Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
- H04R2227/003—Digital PA systems using, e.g. LAN or internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2227/00—Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
- H04R2227/005—Audio distribution systems for home, i.e. multi-room use
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2460/00—Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
- H04R2460/07—Use of position data from wide-area or local-area positioning systems in hearing devices, e.g. program or information selection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R27/00—Public address systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R29/00—Monitoring arrangements; Testing arrangements
- H04R29/001—Monitoring arrangements; Testing arrangements for loudspeakers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/301—Automatic calibration of stereophonic sound system, e.g. with test microphone
Description
本願は、2015年9月24日に出願された米国特許出願第14/864,506号及び2015年9月17日に出願された米国仮特許出願第62/220,176号の優先権を主張しており、その全体が参照されることにより本明細書に組み込まれる。 This application claims priority to US patent application Ser. No. 14 / 864,506 filed Sep. 24, 2015 and US Provisional Patent Application No. 62 / 220,176 filed Sep. 17, 2015. And are hereby incorporated by reference in their entirety.
本願は、コンシューマ製品に関するものであり、特に、メディア再生に向けられた方法、システム、製品、機能、サービス、および他の要素に関するものや、それらのいくつかの態様に関する。 This application relates to consumer products, and in particular, to methods, systems, products, features, services, and other elements directed to media playback and some aspects thereof.
2003年に、ソノズ・インコーポレイテッドが最初の特許出願のうちの1つである「複数のネットワークデバイス間のオーディオ再生を同期する方法」と題する特許出願をし、2005年にメディア再生システムの販売を開始するまで、アウトラウド設定におけるデジタルオーディオへのアクセスおよび試聴のオプションは制限されていた。人々は、ソノズ無線HiFiシステムによって、1つ又は複数のネットワーク再生デバイスを介して多数のソースから音楽を体験できるようになっている。スマートフォン、タブレット、又はコンピュータにインストールされたソフトウェアコントロールアプリケーションを通じて、ネットワーク再生デバイスを備えたいずれの部屋においても、人々は自分が望む音楽を再生することができる。また、例えばコントローラを用いて、再生デバイスを備えた各部屋に異なる歌をストリーミングすることもできるし、同期再生のために複数の部屋をグループ化することもできるし、全ての部屋において同期して同じ歌を聞くこともできる。 In 2003, Sonos Incorporated filed a patent application entitled “Method of Synchronizing Audio Playback Between Multiple Network Devices”, one of the first patent applications, and in 2005, marketed a media playback system. Until it started, the options for accessing and listening to digital audio in the outloud setting were limited. People can experience music from multiple sources via one or more network playback devices with the Sonos Wireless HiFi system. Through a software control application installed on a smartphone, tablet, or computer, people can play the music they want in any room with a network playback device. Also, for example, a controller can be used to stream different songs to each room equipped with a playback device, or multiple rooms can be grouped for synchronized playback, or synchronized in all rooms. You can listen to the same song.
これまでのデジタルメディアに対する関心の高まりを考えると、試聴体験を更に向上させることができるコンシューマアクセス可能な技術を更に開発することにニーズがある。 Given the growing interest in digital media, there is a need to further develop consumer accessible technologies that can further improve the listening experience.
本明細書で開示されている技術の特徴、態様、および利点は、以下の記載、添付の特許請求の範囲、および添付の図面を参照するとより理解しやすい。 The features, aspects, and advantages of the techniques disclosed herein may be better understood with reference to the following description, appended claims, and accompanying drawings.
図面は、いくつかの例示的な実施形態を説明することを目的としているが、本発明が、図面に示した配置および手段に限定されるものではないことは理解される。 Although the drawings are intended to illustrate some exemplary embodiments, it is understood that the invention is not limited to the arrangements and instrumentality shown in the drawings.
I.概要
本明細書に記述する実施形態は、とりわけ、メディア再生システムの1つまたは複数の再生デバイスをキャリブレーションする際に生じる場合もある1つまたは複数のエラー状態を検出することを含む。キャリブレーションが環境の音響特性に対処できるため、再生デバイスのキャリブレーションは、所定の環境における再生デバイスのパフォーマンスを改善できる。音響効果は、環境によって変わる可能性があり、一部の環境は、再生デバイスの周波数応答にわたって所定の周波数をブーストまたはカットすることにより、音響透過に悪影響を与えることがある。例えば、シンフォニーホールでは、音響効果が完璧に近く、音響の伝播に実質的な影響はないが、多くの家庭またはオフィスでは、音響透過にとってそうした理想的な条件は提供されない。
I. Overview Embodiments described herein include, among other things, detecting one or more error conditions that may occur when calibrating one or more playback devices of a media playback system. Because calibration can address the acoustic characteristics of the environment, calibration of the playback device can improve the performance of the playback device in a given environment. Sound effects can vary from environment to environment, and some environments can adversely affect sound transmission by boosting or cutting a predetermined frequency over the frequency response of the playback device. For example, in a symphony hall, the acoustic effect is nearly perfect and has no substantial effect on the propagation of sound, but many homes or offices do not provide such ideal conditions for sound transmission.
本明細書において企図する幾つかのキャリブレーション手順は、所定のリスニング環境において1つまたは複数の再生デバイスにより放出される音波(例えば、1つまたは複数のキャリブレーション音)を検出しかつ分析する録音デバイスを含む。リスニング環境内において伝播した音波を分析することによって、メディア再生システムは、リスニング環境が再生デバイスにより放出される音にどのように影響しているか、およびおそらくは、再生デバイスに与えるリスニング環境の影響を補う方法をも決定できる。例えば、メディア再生システムは、環境の音響効果を補うように再生デバイスの周波数応答を調整するキャリブレーションプロファイルを決定してもよい。 Some calibration procedures contemplated herein include recordings that detect and analyze sound waves (eg, one or more calibration sounds) emitted by one or more playback devices in a given listening environment. Includes devices. By analyzing the sound waves propagated within the listening environment, the media playback system compensates for how the listening environment affects the sound emitted by the playback device, and possibly the effect of the listening environment on the playback device. The method can also be determined. For example, the media playback system may determine a calibration profile that adjusts the frequency response of the playback device to compensate for environmental acoustic effects.
キャリブレーション中に生じる場合もあるエラー状態の可能性としては、1つまたは複数の再生デバイスがキャリブレーション音を放出する間の、リスニング環境内における録音デバイスの動きが不十分であることが含まれる。音響効果は、リスニング環境内の物理的場所毎に変わる可能性があることから、本明細書において企図する例示的なキャリブレーション手順は、1つまたは複数の再生デバイスがキャリブレーション音を放出する間に、リスニング環境内において録音デバイスを動かすことを提案できる。幾つかの例において、キャリブレーション音は、キャリブレーショントーンの周期的反復を含んでもよい。これは、個々の場所における環境の音響効果を表す「サンプル」を生成してもよい。移動するマイクロホンにより生成されるこのようなデータは、固定式のマイクロホンによるものよりも完全な環境音響効果の表現を提供してもよい。他のエラー状態の例としては、他の可能性の中でもとりわけ、バックグラウンドノイズのレベル、マイクロホンにより検出されるオーディオ信号の品質、1つまたは複数の再生デバイスと録音デバイスとの距離または録音デバイスの速度が挙げられる。 Possible error conditions that may occur during calibration include insufficient movement of the recording device within the listening environment while one or more playback devices emit calibration sounds. . Since acoustic effects can vary from physical location to physical location within the listening environment, the exemplary calibration procedure contemplated herein is performed while one or more playback devices emit calibration sounds. In addition, it can be proposed to move the recording device within the listening environment. In some examples, the calibration sound may include a periodic repetition of calibration tones. This may generate “samples” that represent the acoustic effects of the environment at individual locations. Such data generated by a moving microphone may provide a more complete representation of environmental acoustic effects than by a stationary microphone. Examples of other error conditions include, among other possibilities, the level of background noise, the quality of the audio signal detected by the microphone, the distance between one or more playback devices and the recording device, or the recording device's Speed.
キャリブレーションの間、録音デバイスは、1つまたは複数の(例えば、(再生デバイスに対して)垂直、水平および/または半径方向の)次元で、十分な移動が生じたかどうかを決定してもよい。(おそらくは、他のエラー状態が存在しないものとすると)録音デバイスがこのような次元で十分に移動されたキャリブレーションは、有効とされうる。逆に、これらの次元のうちの1つ以上における十分な移動の不在は、無効とされうる。1つまたは複数のエラー状態が検出される状況では、メディア再生システムは、エラー状態の種類に依存して、キャリブレーションを繰り返すように促しても、キャリブレーションの修正を試行してもよい。 During calibration, the recording device may determine whether sufficient movement has occurred in one or more (eg, vertical, horizontal and / or radial (relative to the playback device) dimensions. . A calibration where the recording device has been moved sufficiently in this dimension (perhaps assuming no other error conditions exist) may be valid. Conversely, the absence of sufficient movement in one or more of these dimensions can be invalidated. In situations where one or more error conditions are detected, the media playback system may prompt the calibration to repeat or attempt to correct the calibration, depending on the type of error condition.
録音デバイスの(または、マイクロホンが録音デバイスから分離されている実施形態では、マイクロホン自体の)動きを示すデータは、異なるソースから生成されうる。幾つかの実施形態において、録音デバイス上の(またはマイクロホン上にあって録音デバイスへ結合される)センサは、録音デバイスの加速を示すデータを生成してもよい。録音デバイスまたは再生デバイス上のカメラまたは他の種類のビジョンベース・システムは、環境内における録音デバイスの移動を示す映像データを生成してもよい。別の例として、音響データは、(例えば、再生デバイスから録音デバイスへの、またはその逆のオーディオ伝搬遅延を示すことによって)録音デバイスから再生デバイスへの半径方向距離を示してもよい。 Data indicating the movement of the recording device (or in the embodiment where the microphone is separate from the microphone itself) may be generated from different sources. In some embodiments, a sensor on the recording device (or on the microphone and coupled to the recording device) may generate data indicative of the acceleration of the recording device. A camera or other type of vision-based system on the recording or playback device may generate video data that indicates the movement of the recording device within the environment. As another example, the acoustic data may indicate a radial distance from the recording device to the playback device (eg, by indicating an audio propagation delay from the playback device to the recording device or vice versa).
幾つかの場合において、2つの次元における録音デバイスの移動を示す動きデータは、第3の次元における録音デバイスの動きを決定するために使用されることが可能である。例えば、センサは、(おそらくは、重力関連のデータを生成する加速度計から)録音デバイスの垂直方向の移動を示す動きデータを生成してもよく、かつ音響データは、録音デバイスの再生デバイスからの半径方向移動を示してもよい。このようなデータを相互相関することにより、メディア再生システムは、録音デバイスの第3の次元における動き(即ち、水平方向の動き)を表す水平動きパラメータを決定してもよい。この水平動きパラメータが相関閾値(最初の2つの次元における動きが十分に相関されないことを示す閾値)を超える場合、メディア再生システムは、キャリブレーション周期中に環境にわたって十分な水平移動が生じたものと推測することができる。 In some cases, motion data indicating movement of the recording device in the two dimensions can be used to determine the movement of the recording device in the third dimension. For example, the sensor may generate motion data indicating the vertical movement of the recording device (possibly from an accelerometer that generates gravity-related data), and the acoustic data is a radius from the playback device of the recording device. Directional movement may be indicated. By cross-correlating such data, the media playback system may determine a horizontal motion parameter that represents motion in the third dimension of the recording device (ie, horizontal motion). If this horizontal motion parameter exceeds a correlation threshold (threshold indicating that the motion in the first two dimensions is not fully correlated), the media playback system will assume that sufficient horizontal movement has occurred across the environment during the calibration period. Can be guessed.
エラー状態が識別されると、キャリブレーションプロセスは中断されてもよく、かつメディア再生システムは、キャリブレーションプロセスが中断されたことを示すメッセージを表示してもよい。幾つかの場合において、メディア再生システムは、キャリブレーションプロセスの中断を引き起こした識別されたエラー状態を示してもよい。メディア再生システムは、さらに、識別されたエラー状態をどのように修正するかについての提案を示してもよい。例えば、メッセージは、不十分な垂直移動が生じたこと、および、このエラー状態を、より多い量の録音デバイスを動かす、または録音デバイスをキャリブレーション周期のより長い部分にわたって動かすことにより回避できること、を示してもよい。メディア再生システムは、さらに、キャリブレーションプロセスを再開するため、またはキャリブレーションプロセスをキャンセルするための選択可能なオプションを表示してもよい。例としては、これら以外のものも可能である。 If an error condition is identified, the calibration process may be interrupted and the media playback system may display a message indicating that the calibration process has been interrupted. In some cases, the media playback system may indicate the identified error condition that caused the calibration process to be interrupted. The media playback system may further provide suggestions on how to correct the identified error condition. For example, the message may indicate that insufficient vertical movement has occurred and that this error condition can be avoided by moving a larger amount of recording device or moving the recording device over a longer portion of the calibration period. May be shown. The media playback system may also display selectable options for restarting the calibration process or canceling the calibration process. Other examples are possible as examples.
先に示したように、本開示は、1つまたは複数の再生デバイスをキャリブレーションする間に1つまたは複数のエラー状態を識別することを含む。ある態様では、録音デバイスが提供される。録音デバイスは、マイクロホンと、1つまたは複数のプロセッサと、1つまたは複数のプロセッサにより実行可能な命令であって、録音デバイスに動作を実行させる前記命令を内部に記憶している有形データ記憶装置とを含む。動作には、キャリブレーション周期中に所定の環境において再生デバイスがキャリブレーション音を放出しているという指示を受信することが含まれる。動作には、マイクロホンを介して、放出されるキャリブレーション音を含む音データを録音すること、および、キャリブレーション音放出中の録音デバイスの移動を示す動きデータを受信すること、も含まれる。動作には、キャリブレーション周期中に録音デバイスの十分な垂直移動が生じたと決定することがさらに含まれる。動作には、キャリブレーション周期中に録音デバイスの十分な水平移動が生じたと決定することと、キャリブレーション周期中に垂直方向および水平方向に録音デバイスの十分な移動が生じたという決定に基づいて、検出されたキャリブレーション音を基礎とするキャリブレーションを再生デバイスのオーディオステージに適用すること、が含まれる。 As indicated above, the present disclosure includes identifying one or more error conditions while calibrating one or more playback devices. In an aspect, a recording device is provided. A recording device includes a microphone, one or more processors, and an instruction executable by the one or more processors, the tangible data storage device storing therein the instructions for causing the recording device to perform an operation Including. The operation includes receiving an indication that the playback device is emitting a calibration sound in a predetermined environment during the calibration period. Operation also includes recording sound data including the emitted calibration sound via the microphone and receiving motion data indicating movement of the recording device during the emission of the calibration sound. The operation further includes determining that sufficient vertical movement of the recording device has occurred during the calibration period. The operation is based on determining that sufficient horizontal movement of the recording device has occurred during the calibration period and that sufficient movement of the recording device has occurred in the vertical and horizontal directions during the calibration period. Applying a calibration based on the detected calibration sound to the audio stage of the playback device.
別の態様では、方法を提供する。本方法は、キャリブレーション周期中に所定の環境において1つまたは複数の再生デバイスがキャリブレーション音を放出しているという指示を受信するステップを含む。本方法は、放出されたキャリブレーション音を録音するステップと、キャリブレーション音放出中の制御デバイスの移動を示す動きデータを受信するステップ、も含む。本方法は、さらに、制御デバイスの垂直方向の移動を示す、動きデータの第1の成分と、制御デバイスの1つまたは複数の再生デバイスからの各半径方向の移動を示す、動きデータの1つまたは複数の第2の成分とを識別するステップを含む。また、本方法は、制御デバイスの垂直方向の移動を示す動きデータの第1の成分と、制御デバイスの1つまたは複数の再生デバイスからの各半径方向の移動を示す動きデータの1つまたは複数の第2の成分とを相互相関することによって、環境内における制御デバイスの水平方向の動きを表す1つまたは複数の水平動きパラメータを決定するステップも含む。本方法は、環境内における水平方向の動きを表す水平動きパラメータの少なくとも1つが相関閾値を超えていると決定することによって、キャリブレーション周期中に制御デバイスの十分な水平移動が生じたことを決定するステップを含む。本方法は、キャリブレーション周期中に制御デバイスの十分な移動が生じたことを示すメッセージを送信するステップも含む。 In another aspect, a method is provided. The method includes receiving an indication that one or more playback devices are emitting a calibration sound in a predetermined environment during a calibration cycle. The method also includes recording the emitted calibration sound and receiving motion data indicating movement of the control device during the calibration sound emission. The method further includes a first component of motion data indicative of vertical movement of the control device and one of the motion data indicative of each radial movement of the control device from one or more playback devices. Or identifying a plurality of second components. The method also includes a first component of motion data indicative of vertical movement of the control device and one or more of motion data indicative of each radial movement of the control device from one or more playback devices. And determining one or more horizontal motion parameters representative of the horizontal movement of the control device within the environment by cross-correlating the second component of The method determines that sufficient horizontal movement of the control device has occurred during the calibration period by determining that at least one of the horizontal motion parameters representing horizontal motion in the environment exceeds a correlation threshold. Including the steps of: The method also includes sending a message indicating that sufficient movement of the control device has occurred during the calibration period.
別の態様では、非一時的コンピュータ読み取り可能媒体を提供する。非一時的コンピュータ読み取り可能媒体は、動作を実行するためにコンピュータ装置により実行可能な命令を記憶している。動作には、キャリブレーション周期中に所定の環境において再生デバイスがキャリブレーション音を放出しているという指示を受信することが含まれる。動作には、マイクロホンを介して、放出されるキャリブレーション音を含む音データを録音すること、および、キャリブレーション音放出中の録音デバイスの移動を示す動きデータを受信すること、も含まれる。動作には、キャリブレーション周期中に録音デバイスの十分な垂直移動が生じたと決定することがさらに含まれる。動作には、キャリブレーション周期中に録音デバイスの十分な水平移動が生じたと決定することと、キャリブレーション周期中に垂直方向および水平方向に録音デバイスの十分な移動が生じたという決定に基づいて、検出されたキャリブレーション音を基礎とするキャリブレーションを再生デバイスのオーディオステージに適用すること、が含まれる。 In another aspect, a non-transitory computer readable medium is provided. A non-transitory computer readable medium stores instructions executable by a computer device to perform an operation. The operation includes receiving an indication that the playback device is emitting a calibration sound in a predetermined environment during the calibration period. Operation also includes recording sound data including the emitted calibration sound via the microphone and receiving motion data indicating movement of the recording device during the emission of the calibration sound. The operation further includes determining that sufficient vertical movement of the recording device has occurred during the calibration period. The operation is based on determining that sufficient horizontal movement of the recording device has occurred during the calibration period and that sufficient movement of the recording device has occurred in the vertical and horizontal directions during the calibration period. Applying a calibration based on the detected calibration sound to the audio stage of the playback device.
さらに別の態様では、制御デバイスを提供する。制御デバイスは、1つまたは複数のプロセッサと、1つまたは複数のプロセッサにより実行可能な命令であって、録音デバイスに動作を実行させる前記命令を内部に記憶している有形データ記憶装置とを含む。動作には、キャリブレーション周期中に所定の環境において録音デバイスが1つまたは複数の再生デバイスにより放出されるキャリブレーション音を録音している間の、録音デバイスの移動を示す動きデータを受信することが含まれる。動作には、キャリブレーション周期中に録音デバイスの十分な垂直移動が生じたこと、およびキャリブレーション周期中に録音デバイスの十分な水平移動が生じたこと、を決定することも含まれる。動作には、キャリブレーション周期中、垂直方向および水平方向に録音デバイスの十分な移動が生じたことを示すメッセージを送信することがさらに含まれる。 In yet another aspect, a control device is provided. The control device includes one or more processors and a tangible data storage device having instructions stored therein that are executable by the one or more processors and that cause the recording device to perform an operation. . In operation, receiving motion data indicating movement of the recording device while the recording device is recording a calibration sound emitted by one or more playback devices in a given environment during the calibration period. Is included. The operation also includes determining that a sufficient vertical movement of the recording device has occurred during the calibration period and that a sufficient horizontal movement of the recording device has occurred during the calibration period. The operation further includes sending a message indicating that sufficient movement of the recording device has occurred in the vertical and horizontal directions during the calibration period.
ある態様では、方法を提供する。本方法は、キャリブレーション周期中に所定の環境において録音デバイスが1つまたは複数の再生デバイスにより放出されるキャリブレーション音を録音している間の、録音デバイスの移動を示す動きデータを受信するステップを含む。本方法は、キャリブレーション周期中に録音デバイスの十分な垂直移動が生じたこと、およびキャリブレーション周期中に録音デバイスの十分な水平移動が生じたこと、を決定するステップも含む。本方法は、さらに、キャリブレーション周期中、垂直方向および水平方向に録音デバイスの十分な移動が生じたことを示すメッセージを送信するステップを含む。 In certain aspects, a method is provided. The method receives motion data indicative of movement of a recording device while the recording device is recording a calibration sound emitted by one or more playback devices in a predetermined environment during a calibration period. including. The method also includes determining that a sufficient vertical movement of the recording device has occurred during the calibration period and that a sufficient horizontal movement of the recording device has occurred during the calibration period. The method further includes transmitting a message indicating that sufficient movement of the recording device has occurred in the vertical and horizontal directions during the calibration period.
別の態様では、非一時的コンピュータ読み取り可能媒体を提供する。非一時的コンピュータ読み取り可能媒体は、動作を実行するためにコンピュータ装置により実行可能な命令を記憶している。動作には、キャリブレーション周期中に所定の環境において録音デバイスが1つまたは複数の再生デバイスにより放出されるキャリブレーション音を録音している間の、録音デバイスの移動を示す動きデータを受信することが含まれる。動作には、キャリブレーション周期中に録音デバイスの十分な垂直移動が生じたこと、およびキャリブレーション周期中に録音デバイスの十分な水平移動が生じたこと、を決定することも含まれる。動作には、キャリブレーション周期中、垂直方向および水平方向に録音デバイスの十分な移動が生じたことを示すメッセージを送信することがさらに含まれる。 In another aspect, a non-transitory computer readable medium is provided. A non-transitory computer readable medium stores instructions executable by a computer device to perform an operation. In operation, receiving motion data indicating movement of the recording device while the recording device is recording a calibration sound emitted by one or more playback devices in a given environment during the calibration period. Is included. The operation also includes determining that a sufficient vertical movement of the recording device has occurred during the calibration period and that a sufficient horizontal movement of the recording device has occurred during the calibration period. The operation further includes sending a message indicating that sufficient movement of the recording device has occurred in the vertical and horizontal directions during the calibration period.
本明細書に記載の幾つかの例は、「ユーザ」及び/又は他の実体のような任意の主体によって行われる機能について言及するが、このことは単に例示目的であると理解されるべきである。特許請求の範囲は、特許請求の範囲自体の記載によって明示的に要請されない限り、そのような例示の主体の動作であることを要請するものと解釈されてはならない。当業者にとって、本開示には他の複数の実施形態が含まれることは理解されるであろう。 Although some examples described herein refer to functions performed by any entity, such as a “user” and / or other entity, this should be understood to be for illustrative purposes only. is there. The claims should not be construed as requiring the operation of such exemplary subject matter unless explicitly required by the recitation of the claims themselves. Those skilled in the art will appreciate that the present disclosure includes other embodiments.
II.動作環境の例
図1は、本明細書で開示されている1つ又は複数の実施形態で実施可能又は実装可能なメディア再生システム100の例示的な構成を示す。図示されるように、メディア再生システム100は、複数の部屋および空間、例えば、主寝室、オフィス、ダイニングルーム、およびリビングルームを有する例示的なホーム環境と関連付けられている。図1の例に示されるように、メディア再生システム100は、再生デバイス102−124、制御デバイス126および128、有線又は無線のネットワークルータ130を含む。
II. Exemplary Operating Environment FIG. 1 illustrates an exemplary configuration of a
更に、例示的なメディア再生システム100の異なる構成要素、および異なる構成要素がどのように作用してユーザにメディア体験を提供するかに関しての説明は、以下のセクションで述べられている。本明細書における説明は、概してメディア再生システム100を参照しているが、本明細書で述べられている技術は、図1に示されるホーム環境の用途に限定されるものではない。例えば、本明細書で述べられている技術は、マルチゾーンオーディオが望まれる環境、例えば、レストラン、モール、又は空港のような商業的環境、スポーツ用多目的車(SUV)、バス又は車のような車両、船、若しくはボード、飛行機などの環境において有益である。
In addition, descriptions of the different components of the exemplary
a.例示的な再生デバイス
図2は、図1のメディア再生システム100の再生デバイス102−124の1つ又は複数を構成する例示的な再生デバイス200の機能ブロック図を示す。再生デバイス200は、プロセッサ202、ソフトウェアコンポーネント204、メモリ206、オーディオ処理コンポーネント208、オーディオアンプ210、スピーカー212、マイクロホン220、およびネットワークインタフェース214を含んでもよい。ネットワークインタフェース214は、無線インタフェース216および有線インタフェース218を含む。ある場合では、再生デバイス200は、スピーカー212を含まないが、再生デバイス200を外部スピーカーに接続するためのスピーカーインタフェースを含んでいてもよい。別の場合では、再生デバイス200は、スピーカー212もオーディオアンプ210も含まないが、再生デバイス200を外部オーディオアンプ又はオーディオビジュアルレシーバーに接続するためのオーディオインタフェースを含んでもよい。
a. Exemplary Playback Device FIG. 2 shows a functional block diagram of an exemplary playback device 200 that constitutes one or more of the playback devices 102-124 of the
ある例では、プロセッサ202は、メモリ206に記憶された命令に基づいて、入力データを処理するように構成されたクロック駆動コンピュータコンポーネントであってもよい。メモリ206は、プロセッサ202によって実行可能な命令を記憶するように構成された非一時的なコンピュータ読み取り可能記録媒体であってもよい。例えば、メモリ206は、ある機能を実行するためにプロセッサ202によって実行可能なソフトウェアコンポーネント204の1つ又は複数をロードすることができるデータストレージであってもよい。ある例では、機能は、再生デバイス200がオーディオソース又は別の再生デバイスからオーディオデータを読み出すステップを含んでもよい。別の例では、機能は、再生デバイス200がネットワーク上の別のデバイス又は再生デバイスにオーディオデータを送信するステップを含んでもよい。更に別の例では、機能は、マルチチャンネルオーディオ環境を作るために、再生デバイス200と1つ又は複数の再生デバイスとをペアリングするステップを含んでもよい。
In one example, the processor 202 may be a clocked computer component configured to process input data based on instructions stored in the
ある機能は、再生デバイス200が、1つ又は複数の他の再生デバイスと、オーディオコンテンツの再生を同期するステップを含む。再生を同期している間、再生デバイス200によるオーディオコンテンツの再生と1つ又は複数の他の再生デバイスによる再生との間の遅延を、リスナーが気づかないことが好ましい。「複数の独立クロックデジタルデータ処理デバイス間の動作を同期するシステムおよび方法」と題する米国特許第8,234,395号が本明細書に参照として援用されており、それは再生デバイス間のオーディオ再生を同期することが述べられたより詳細な例を提供している。 One feature includes the playback device 200 synchronizing the playback of audio content with one or more other playback devices. While synchronizing playback, it is preferred that the listener is unaware of the delay between playback of audio content by playback device 200 and playback by one or more other playback devices. US Pat. No. 8,234,395, entitled “System and Method for Synchronizing Operation Between Multiple Independent Clock Digital Data Processing Devices”, is incorporated herein by reference, which provides audio playback between playback devices. It provides a more detailed example where synchronization is stated.
更に、メモリ206は、データを記憶するように構成されていてもよい。データは、例えば、1つ又は複数のゾーンおよび/又はゾーングループに一部として含まれる再生デバイス200などの再生デバイス200、再生デバイス200によりアクセス可能なオーディオソース、又は再生デバイス200(又は他の再生デバイス)と関連付け可能な再生キュー、に関連付けられている。データは、定期的に更新され、再生デバイス200の状態を示す1つ又は複数の状態変数として記憶されてもよい。また、メモリ206は、メディアシステムの他のデバイスの状態と関連付けられたデータを含んでもよく、デバイス間で随時共有することによって、1つ又は複数のデバイスが、システムと関連するほぼ直近のデータを有してもよい。他の実施形態も可能である。
Further, the
オーディオ処理コンポーネント208は、とりわけ、1つ又は複数のデジタル−アナログ変換器(DAC)、アナログ−デジタル変換器(ADC)、オーディオ処理コンポーネント、オーディオ強化コンポーネント、及びデジタルシグナルプロセッサ(DSP)を含んでいてもよい。ある実施形態では、1つ又は複数のオーディオ処理コンポーネント208は、プロセッサ202のサブコンポーネントであってもよい。ある実施形態では、オーディオコンテンツが、オーディオ処理コンポーネント208によって処理および/又は意図的に変更されることによって、オーディオ信号を生成してもよい。生成されたオーディオ信号は、オーディオアンプ210に送信され、増幅され、スピーカー212を通じて再生される。特に、オーディオアンプ210は、1つ又は複数のスピーカー212を駆動できるレベルまでオーディオ信号を増幅するように構成されたデバイスを含んでもよい。スピーカー212は、独立した変換器(例えば、「ドライバ」)又は1つ又は複数のドライバを内包する筐体を含む完全なスピーカーシステムを備えてもよい。スピーカー212に備えられたあるドライバは、例えば、サブウーファー(例えば、低周波用)、ミドルレンジドライバ(例えば、中間周波用)、および/又はツイーター(高周波用)を含んでもよい。ある場合では、1つ又は複数のスピーカー212のそれぞれの変換器は、オーディオアンプ210の対応する個々のオーディオアンプによって駆動されてもよい。再生デバイス200で再生するアナログ信号を生成することに加えて、オーディオ処理コンポーネント208は、オーディオコンテンツを処理し、そのオーディオコンテンツを1つ又は複数の他の再生デバイスに再生させるために送信する。 Audio processing component 208 includes, among other things, one or more digital-to-analog converters (DACs), analog-to-digital converters (ADCs), audio processing components, audio enhancement components, and digital signal processors (DSPs). Also good. In some embodiments, one or more audio processing components 208 may be a subcomponent of processor 202. In some embodiments, audio content may be processed and / or deliberately modified by the audio processing component 208 to generate an audio signal. The generated audio signal is transmitted to the audio amplifier 210, amplified, and reproduced through the speaker 212. In particular, the audio amplifier 210 may include a device configured to amplify the audio signal to a level that can drive one or more speakers 212. The speaker 212 may comprise a complete speaker system including an independent transducer (eg, a “driver”) or a housing that contains one or more drivers. Some drivers provided in the speaker 212 may include, for example, a subwoofer (eg, for low frequency), a middle range driver (eg, for intermediate frequency), and / or a tweeter (for high frequency). In some cases, each transducer of one or more speakers 212 may be driven by a corresponding individual audio amplifier of audio amplifier 210. In addition to generating analog signals for playback on playback device 200, audio processing component 208 processes the audio content and transmits the audio content for playback by one or more other playback devices.
再生デバイス200によって処理および/又は再生されるオーディオコンテンツは、外部ソース、例えば、オーディオライン−イン入力接続(例えば、オートディテクティング3.5mmオーディオラインイン接続)又はネットワークインタフェース214を介して、受信されてもよい。 Audio content that is processed and / or played by the playback device 200 is received via an external source, eg, an audio line-in input connection (eg, an auto-detecting 3.5 mm audio line-in connection) or the network interface 214. May be.
マイクロホン220は、検出されたサウンドを電気信号に変換するように構成されたオーディオセンサを含んでもよい。電気信号は、オーディオ処理コンポーネント208及び/又はプロセッサ202によって処理されうる。マイクロホン220は、再生デバイス200における1つ又は複数の位置において1つ又は複数の向きに配置されうる。マイクロホン220は、1つ又は複数の周波数レンジ内のサウンドを検出するように構成されうる。ある場合では、1つ又は複数のマイクロホン220は、再生デバイス200が可能であるか又はレンダリングしているオーディオの周波数レンジ内のサウンドを検出するように構成されうる。別の場合では、1つ又は複数のマイクロホン220は、人間の可聴周波数レンジ内のサウンドを検出するように構成されてもよい。他の例もまた可能である。 The microphone 220 may include an audio sensor configured to convert the detected sound into an electrical signal. The electrical signal may be processed by audio processing component 208 and / or processor 202. The microphone 220 can be arranged in one or more orientations at one or more positions in the playback device 200. Microphone 220 may be configured to detect sound within one or more frequency ranges. In some cases, the one or more microphones 220 may be configured to detect sound within the frequency range of audio that the playback device 200 is capable of or rendering. In another case, the one or more microphones 220 may be configured to detect sound within the human audible frequency range. Other examples are also possible.
ネットワークインタフェース214は、データネットワーク上で再生デバイス200と1つ又は複数の他のデバイスとの間のデータフローを可能にするように構成されてもよい。このように、再生デバイス200は、再生デバイスと通信する1つ又は複数の他の再生デバイス、ローカルエリアネットワーク内のネットワークデバイス、又は例えば、インターネット等のワイドエリアネットワーク上のオーディオコンテンツソースから、データネットワークを介してオーディオコンテンツを受信するように構成されていてもよい。ある例では、再生デバイス200によって送信および受信されたオーディオコンテンツおよび他の信号は、インターネットプロトコル(IP)に基づくソースアドレスおよびIPに基づく宛先アドレスを含むデジタルパケットの形で送信されてもよい。そのような場合、ネットワークインタフェース214は、デジタルパケットデータを解析することによって、再生デバイス200宛てのデータを、再生デバイス200によって適切に受信して処理することができる。 The network interface 214 may be configured to allow data flow between the playback device 200 and one or more other devices over a data network. In this way, the playback device 200 can receive data from one or more other playback devices that communicate with the playback device, a network device in a local area network, or an audio content source on a wide area network such as, for example, the Internet. May be configured to receive audio content over the network. In one example, audio content and other signals transmitted and received by playback device 200 may be transmitted in the form of a digital packet that includes a source address based on Internet Protocol (IP) and a destination address based on IP. In such a case, the network interface 214 can appropriately receive and process data addressed to the playback device 200 by analyzing the digital packet data.
図示されるように、ネットワークインタフェース214は、無線インタフェース216と有線インタフェース218とを含んでもよい。無線インタフェース216は、再生デバイス200用のネットワークインタフェース機能を提供し、通信プロトコル(例えば、無線規格IEEE802.11a、802.11b、802.11g、802.11n、802.11ac、802.15、4Gモバイル通信基準などを含む無線基準(規格)のいずれか)に基づいて、他のデバイス(例えば、再生デバイス200に関連付けられたデータネットワーク内の他の再生デバイス、スピーカー、レシーバー、ネットワークデバイス、制御デバイス)と無線通信してもよい。有線インタフェース218は、再生デバイス200用のネットワークインタフェース機能を提供し、通信プロトコル(例えば、IEEE802.3)に基づいて他のデバイスとの有線接続を介して通信してもよい。図2に示されるネットワークインタフェース214は、無線インタフェース216と有線インタフェース218との両方を含んでいるが、ネットワークインタフェース214は、ある実施形態において、無線インタフェースのみか、又は有線インタフェースのみを含んでいてもよい。 As shown, the network interface 214 may include a wireless interface 216 and a wired interface 218. The wireless interface 216 provides a network interface function for the playback device 200 and a communication protocol (eg, wireless standards IEEE 802.11a, 802.11b, 802.11g, 802.11n, 802.11ac, 802.15, 4G mobile Other devices (eg, other playback devices, speakers, receivers, network devices, control devices in the data network associated with playback device 200) based on any of the wireless standards (standards) including communication standards, etc. And wireless communication. The wired interface 218 may provide a network interface function for the playback device 200 and may communicate with other devices via a wired connection based on a communication protocol (eg, IEEE 802.3). Although the network interface 214 shown in FIG. 2 includes both a wireless interface 216 and a wired interface 218, the network interface 214 may include only a wireless interface or only a wired interface in some embodiments. Good.
ある例では、再生デバイス200と他の再生デバイスとは、ペアにされて、オーディオコンテンツの2つの別々のオーディオコンポーネントを再生してもよい。例えば、再生デバイス200は、左チャンネルオーディオコンポーネントを再生するように構成される一方、他の再生デバイスは、右チャンネルオーディオコンポーネントを再生するように構成されてもよい。これにより、オーディオコンテンツのステレオ効果を生成するか、又は強化することができる。ペアにされた再生デバイス(「結合再生デバイス」とも言う)は、更に、他の再生デバイスと同期してオーディオコンテンツを再生してもよい。 In one example, playback device 200 and another playback device may be paired to play two separate audio components of audio content. For example, playback device 200 may be configured to play a left channel audio component while other playback devices may be configured to play a right channel audio component. This can generate or enhance the stereo effect of the audio content. Paired playback devices (also referred to as “combined playback devices”) may further play audio content in synchronization with other playback devices.
別の例では、再生デバイス200は、1つ又は複数の他の再生デバイスと音響的に統合され、単一の統合された再生デバイス(統合再生デバイス)を形成してもよい。統合再生デバイスは、統合されていない再生デバイス又はペアにされた再生デバイスと比べて、サウンドの処理や再現を異なるように構成することができる。なぜならば、統合再生デバイスは、オーディオコンテンツを再生するスピーカー追加することができるからである。例えば、再生デバイス200が、低周波レンジのオーディオコンテンツを再生するように設計されている場合(例えば、サブウーファー)、再生デバイス200は、全周波数レンジのオーディオコンテンツを再生するように設計された再生デバイスと統合されてもよい。この場合、全周波数レンジの再生デバイスは、低周波の再生デバイス200と統合されたとき、オーディオコンテンツの中高周波コンポーネントのみを再生するように構成されてもよい。一方で低周波レンジの再生デバイス200は、オーディオコンテンツの低周波コンポーネントを再生する。更に、統合再生デバイスは、単一の再生デバイス、又は更に他の統合再生デバイスとペアにされてもよい。 In another example, playback device 200 may be acoustically integrated with one or more other playback devices to form a single integrated playback device (integrated playback device). The integrated playback device can be configured to differ in sound processing and reproduction compared to non-integrated playback devices or paired playback devices. This is because the integrated playback device can add a speaker for playing back audio content. For example, if the playback device 200 is designed to play audio content in the low frequency range (eg, a subwoofer), the playback device 200 will play back designed to play audio content in the full frequency range. It may be integrated with the device. In this case, the playback device for the entire frequency range may be configured to play back only the medium and high frequency components of the audio content when integrated with the low frequency playback device 200. On the other hand, the low frequency range playback device 200 plays back the low frequency component of the audio content. Further, the integrated playback device may be paired with a single playback device or yet another integrated playback device.
例として、現在、ソノズ・インコーポレイテッドは、「PLAY:1」、「PLAY:3」、「PLAY:5」、「PLAYBAR」、「CONNECT:AMP」、「CONNECT」、および「SUB」を含む再生デバイスを販売提供している。他の過去、現在、および/又は将来のいずれの再生デバイスにおいても、追加的に又は代替的に本明細書で開示された実施例の再生デバイスに実装して使用することができる。更に、再生デバイスは、図2に示された特定の例又は提供されるソノズ製品に限定されないことは理解される。例えば、再生デバイスは、有線又は無線のヘッドホンを含んでもよい。別の例では、再生デバイスは、パーソナルモバイルメディア再生デバイス用のドッキングステーションを含むか、又は、それらと対話してもよい。更に別の例では、再生デバイスは、別のデバイス又はコンポーネント、例えば、テレビ、照明器具、又は屋内又は屋外で使用するためのいくつかの他のデバイスと一体化されてもよい。 As an example, currently Sonos Incorporated includes “PLAY: 1”, “PLAY: 3”, “PLAY: 5”, “PLAYBAR”, “CONNECT: AMP”, “CONNECT”, and “SUB”. I sell devices. In any other past, present, and / or future playback devices, the playback devices of the embodiments disclosed herein may be additionally or alternatively implemented and used. Further, it is understood that the playback device is not limited to the specific example shown in FIG. 2 or the provided Sonoz product. For example, the playback device may include wired or wireless headphones. In another example, the playback device may include or interact with a docking station for a personal mobile media playback device. In yet another example, the playback device may be integrated with another device or component, such as a television, luminaire, or some other device for indoor or outdoor use.
b.例示的な再生ゾーン構成
図1のメディア再生システム100に戻って、環境は、1つ又は複数の再生ゾーンを有しており、それぞれの再生ゾーンは1つ又は複数の再生デバイスを含んでいる。メディア再生システム100は、1つ又は複数の再生ゾーンで形成されており、後で1つ又は複数のゾーンが追加又は削除して、図1に示す例示的な構成としてもよい。それぞれのゾーンは、異なる部屋又は空間、例えば、オフィス、浴室、主寝室、寝室、キッチン、ダイニングルーム、リビングルーム、および/又はバルコニーに基づく名前が与えられてもよい。ある場合では、単一の再生ゾーンは複数の部屋又は空間を含んでいてもよい。別の場合では、単一の部屋又は空間は、複数の再生ゾーンを含んでいてもよい。
b. Exemplary Playback Zone Configuration Returning to the
図1に示されるように、バルコニー、ダイニングルーム、キッチン、浴室、オフィス、および寝室のゾーンのそれぞれは、1つの再生デバイスを有する一方、リビングルームおよび主寝室のゾーンのそれぞれは、複数の再生デバイスを有する。リビングルームゾーンは、再生デバイス104、106、108、および110が、別々の再生デバイスとしてか、1つ又は複数の結合再生デバイスとしてか、1つ又は複数の統合再生デバイスとしてか、又はこれらのいずれかの組み合わせで、オーディオコンテンツを同期して再生するように構成されてもよい。同様に、主寝室の場合では、再生デバイス122および124が、別々の再生デバイスとしてか、結合再生デバイスとしてか、又は統合再生デバイスとして、オーディオコンテンツを同期して再生するように構成されてもよい。
As shown in FIG. 1, each of the balcony, dining room, kitchen, bathroom, office, and bedroom zones has one playback device, while each of the living room and master bedroom zones has multiple playback devices. Have The living room zone is where the
ある例では、図1の環境における1つ又は複数の再生ゾーンは、それぞれ異なるオーディオコンテンツを再生している。例えば、ユーザは、バルコニーゾーンでグリルしながら、再生デバイス102によって再生されるヒップホップ音楽を聞くことができる。一方、別のユーザは、キッチンゾーンで食事を準備しながら、再生デバイス114によって再生されるクラシック音楽を聞くことができる。別の例では、再生ゾーンは、同じオーディオコンテンツを別の再生ゾーンと同期して再生してもよい。例えば、ユーザがオフィスゾーンにいる場合、オフィスゾーンの再生デバイス118が、バルコニーの再生デバイス102で再生されている音楽と同じ音楽を再生してもよい。そのような場合、再生デバイス102および118は、ロック音楽を同期して再生しているため、ユーザは、異なる再生ゾーン間を移動してもアウト−ラウドで再生されるオーディオコンテンツをシームレス(又は少なくともほぼシームレス)に楽しむことができる。再生ゾーン間の同期は、前述の米国特許第8,234,395号で述べられているような再生デバイス間の同期と同様の方法で行ってもよい。
In one example, one or more playback zones in the environment of FIG. 1 are playing different audio content. For example, a user can listen to hip-hop music played by the
上述したように、メディア再生システム100のゾーン構成は、動的に変更してもよく、ある実施形態では、メディア再生システム100は、複数の構成をサポートする。例えば、ユーザが1つ又は複数の再生デバイスを、物理的にゾーンに移動させるか、又はゾーンから移動させる場合、メディア再生システム100は変更に対応するように再構成されてもよい。例えば、ユーザが再生デバイス102をバルコニーゾーンからオフィスゾーンに物理的に移動させる場合、オフィスゾーンは、再生デバイス118と再生デバイス102との両方を含んでもよい。必要に応じて、制御デバイス、例えば制御デバイス126と128とを介して、再生デバイス102が、ペアにされるか、又はオフィスゾーンにグループ化されるか、および/又はリネームされてもよい。一方、1つ又は複数の再生デバイスが、再生ゾーンを未だ設定していないホーム環境において、ある領域に移動させられた場合、新しい再生ゾーンがその領域に形成されてもよい。
As described above, the zone configuration of the
更に、メディア再生システム100の異なる再生ゾーンは、動的にゾーングループに組み合わされてもよいし、又は別々の再生ゾーンに分割されてもよい。例えば、ダイニングルームゾーンとキッチンゾーン114とがディナーパーティ用のゾーングループに組み合わされることによって、再生デバイス112と114とがオーディオコンテンツを同期して再生することができる。一方、あるユーザがテレビを見たい一方、他のユーザがリビングルーム空間の音楽を聞きたい場合、リビングルームゾーンが、再生デバイス104を含むテレビゾーンと、再生デバイス106、108および110を含むリスニングゾーンと、に分けられてもよい。
Furthermore, the different playback zones of the
c.例示的な制御デバイス
図3は、メディア再生システム100の制御デバイス126と128とうちの一方又は両方を構成する例示的な制御デバイス300の機能ブロック図を示す。図示されるように、制御デバイス300は、プロセッサ302、メモリ304、ネットワークインタフェース306、ユーザインタフェース308、及びマイクロホン310を含んでもよい。ある例では、制御デバイス300は、メディア再生システム100専用の制御デバイスであってもよい。別の例では、制御デバイス300は、メディア再生システムコントローラアプリケーションソフトウェアをインストールされたネットワークデバイス、例えば、iPhone(登録商標)、iPad(登録商標)、又は任意の他のスマートフォン、タブレットあるいはネットワークデバイス(例えば、PC又はMac(登録商標)などのネットワークコンピュータ)であってもよい。
c. Exemplary Control Device FIG. 3 shows a functional block diagram of an exemplary control device 300 that constitutes one or both of the
プロセッサ302は、メディア再生システム100のユーザアクセス、コントロール、および構成を可能にすることに関する機能を実行するように構成されてもよい。メモリ304は、プロセッサ302によって実行可能な命令を記憶し、それらの機能を実行するように構成されていてもよい。また、メモリ304は、メディア再生システムコントローラアプリケーションソフトウェアと、メディア再生システム100とユーザとに関連付けられた他のデータを記憶するように構成されていてもよい。
The processor 302 may be configured to perform functions relating to enabling user access, control, and configuration of the
マイクロホン310は、検出されたサウンドを電気信号に変換するように構成されたオーディオセンサを含んでもよい。電気信号は、プロセッサ302によって処理されうる。ある場合では、制御デバイス300が音声通信又は音声録音のための手段として使用されることもできるデバイスである場合、1つ又は複数のマイクロホン310は、それらの機能を容易にするマイクロホンであってもよい。例えば、1つ又は複数のマイクロホン310は、人間が生成可能な周波数レンジ及び/又は人間の可聴周波数レンジ内のサウンドを検出するように構成されうる。他の例もまた可能である。 Microphone 310 may include an audio sensor configured to convert the detected sound into an electrical signal. The electrical signal can be processed by the processor 302. In some cases, where the control device 300 is a device that can also be used as a means for voice communication or voice recording, the one or more microphones 310 may be microphones that facilitate their functions. Good. For example, the one or more microphones 310 may be configured to detect sound within a human-generated frequency range and / or a human audible frequency range. Other examples are also possible.
ある例では、ネットワークインタフェース306は、工業規格(例えば、赤外線、無線、IEEE802.3などの有線規格、IEEE802.11a、802.11b、802.11g、802.11n、802.11ac、802.15などの無線規格、4G通信規格など)に基づいてもよい。ネットワークインタフェース306においては、制御デバイス300がメディア再生システム100内の他のデバイスと通信するための手段を提供してもよい。ある例では、データおよび情報(例えば、状態変数)は、ネットワークインタフェース306を介して制御デバイス300と他のデバイスとの間で通信されてもよい。例えば、メディア再生システム100における再生ゾーンおよびゾーングループの構成は、制御デバイス300によって、再生デバイス又は別のネットワークデバイスから受信されてもよいし、あるいは制御デバイス300によって、ネットワークインタフェース306を介して別の再生デバイス又はネットワークデバイスに送信されてもよい。ある場合では、他のネットワークデバイスは、別の制御デバイスであってもよい。
In one example, the network interface 306 may be an industry standard (eg, infrared, wireless, wired standards such as IEEE 802.3, IEEE 802.11a, 802.11b, 802.11g, 802.11n, 802.11ac, 802.15, etc. Wireless standards, 4G communication standards, etc.). In network interface 306, control device 300 may provide a means for communicating with other devices in
ボリュームコントロールおよびオーディオ再生コントロールなどの再生デバイス制御コマンドは、ネットワークインタフェース306を介して制御デバイス300から再生デバイスに通信されてもよい。上述したように、メディア再生システム100の構成の変更は、ユーザにより制御デバイス300を用いて行うことができる。構成の変更は、1つ又は複数の再生デバイスをゾーンに追加すること、1つ又は複数の再生デバイスをゾーンから取り除くこと、1つ又は複数のゾーンをゾーングループに追加すること、1つ又は複数のゾーンをゾーングループから取り除くこと、結合プレーヤー又は統合プレーヤーを形成すること、結合プレーヤー又は統合プレーヤーから1つ又は複数の再生デバイスに分けることなどを含んでもよい。このように、制御デバイス300は、コントローラと呼ばれてもよく、制御デバイス300は、メディア再生システムコントローラアプリケーションソフトウェアをインストールした専用のコントローラか、又はネットワークデバイスであってもよい。
Playback device control commands such as volume control and audio playback control may be communicated from the control device 300 to the playback device via the network interface 306. As described above, the configuration of the
制御デバイス300のユーザインタフェース308は、図4に示されるコントローラインタフェース400などのようなコントローラインタフェースを提供することによって、メディア再生システム100のユーザアクセスおよび制御を可能にするように構成されていてもよい。コントローラインタフェース400は、再生制御領域410、再生ゾーン領域420、再生ステータス領域430、再生キュー領域440、およびオーディオコンテンツソース領域450を含む。図示されるユーザインタフェース400は、図3の制御デバイス300などのようなネットワークデバイス(および/又は図1の制御デバイス126および128)を設けられたユーザインタフェースの単なる一例であって、ユーザによってメディア再生システム100などのようなメディア再生システムを制御するためにアクセスされるものである。あるいは、様々なフォーマット、スタイル、および対話型シーケンスを他のユーザのインタフェースを1つ又は複数のネットワークデバイスに実装し、メディア再生システムへ類似の制御アクセスを提供してもよい。
The user interface 308 of the control device 300 may be configured to allow user access and control of the
再生制御領域410は、(例えば、タッチ又はカーソルを用いることで)選択可能なアイコンを含んでもよい。このアイコンによって、選択された再生ゾーン又はゾーングループ内の再生デバイスが、再生又は停止、早送り、巻き戻し、次にスキップ、前にスキップ、シャッフルモードのオン/オフ、リピートモードのオン/オフ、クロスフェードモードのオン/オフを行う。再生制御領域410は、別の選択可能なアイコンを含んでもよい。別の選択可能なアイコンは、イコライゼーション設定、再生ボリュームなど他の設定などを変更してもよい。
The
再生ゾーン領域420は、メディア再生システム100内の再生ゾーンの表示を含んでもよい。ある実施形態では、再生ゾーンのグラフィック表示が選択可能であってもよい。追加の選択可能なアイコンを移動させることによって、メディア再生システム内の再生ゾーンを管理又は構成することができる。例えば、結合ゾーンの作成、ゾーングループの作成、ゾーングループの分割、およびゾーングループのリネームなど他の管理又は構成を行うことができる。
The
例えば、図示されるように、「グループ」アイコンは、再生ゾーンのグラフィック表示のそれぞれに設けられてもよい。あるゾーンのグラフィック表示内の「グループ」アイコンは、メディア再生システム内の1つ又は複数のゾーンを選択して、あるゾーンとグループ化するオプションを出せるように選択可能であってもよい。一度グループ化すると、あるゾーンとグループ化されたゾーン内の再生デバイスは、あるゾーン内の再生デバイスと同期してオーディオコンテンツを再生するように構成される。同様に、「グループ」アイコンは、ゾーングループのグラフィック表示内に設けられてもよい。この場合、「グループ」アイコンは、ゾーングループ内の1つ又は複数のゾーンをゾーングループから取り除くために、ゾーングループ内の1つ又は複数のゾーンを選択から外すというオプションを出すように選択可能であってもよい。ユーザインタフェース400等のユーザインタフェースを介してゾーンをグループ化およびグループ解除するための他の対話をすることも可能であるし、実施することも可能である。再生ゾーン領域420内の再生ゾーンの表示は、再生ゾーン又はゾーングループ構成が変更されると、動的に更新されてもよい。
For example, as shown, a “group” icon may be provided for each graphic display of the playback zone. A “group” icon in a graphical representation of a zone may be selectable to allow selection of one or more zones in the media playback system and the option to group with a zone. Once grouped, a playback device in a zone grouped with a zone is configured to play audio content in synchronization with the playback device in the zone. Similarly, a “group” icon may be provided in the graphic display of the zone group. In this case, the “Group” icon can be selected to give the option to deselect one or more zones in the zone group to remove one or more zones in the zone group from the zone group. There may be. Other interactions for grouping and ungrouping zones may be possible and implemented via a user interface, such as
再生ステータス領域430は、現在再生されているオーディオコンテンツ、前に再生されたオーディオコンテンツ、又は選択された再生ゾーン又はゾーングループ内で次に再生するように予定されているオーディオコンテンツ、のグラフィック表示を含んでもよい。選択可能な再生ゾーン又は再生グループは、ユーザインタフェース上で、例えば、再生ゾーン領域420および/又は再生ステータス領域430内で視覚的に区別されてもよい。グラフィック表示は、トラックタイトル、アーティスト名、アルバム名、アルバム年、トラックの長さ、およびメディア再生システムを、ユーザインタフェース400を介して制御するときに、ユーザにとって有益な他の関連情報を含んでいてもよい。
The
再生キュー領域440は、選択された再生ゾーン又はゾーングループと関連付けられた再生キュー内のオーディオコンテンツのグラフィック表示を含んでもよい。ある実施形態では、それぞれの再生ゾーン又はゾーングループは、再生ゾーン又は再生グループによって再生される0以上のオーディオアイテムに対応する情報を含む再生キューと関連付けられていてもよい。例えば、再生キュー内のそれぞれのオーディオアイテムは、ユー・アール・アイ(URI)、ユー・アール・エル(URL)、又は再生ゾーン又はゾーングループ内の再生デバイスによって使用可能な他の識別子を含んでいてもよい。これらによって、ローカルオーディオコンテンツソース又はネットワークオーディオコンテンツソース、からオーディオアイテムを見つけ、および/又は取り出し、再生デバイスによって再生することができる。
The
ある例では、プレイリストが再生キューに追加されてもよい。この場合、プレイリスト内のそれぞれのオーディオアイテムに対応する情報が再生キューに追加されてもよい。別の例では、再生キュー内のオーディオアイテムは、プレイリストとして保存されてもよい。更に別の例では、再生デバイスがストリーミングオーディオコンテンツ、例えば、再生時間を有することで連続して再生されないオーディオアイテムよりも、停止しない限り連続して再生されるインターネットラジオを再生し続けているとき、再生キューは、空であってもよいし、又は「未使用」であるが埋められていてもよい。別の実施形態では、再生キューは、インターネットラジオおよび/又は他のストリーミングオーディオコンテンツアイテムを含むことができ、且つ再生ゾーン又はゾーングループがそれらのアイテムを再生しているとき「使用中」とすることができる。他の例も可能である。 In one example, a playlist may be added to the playback queue. In this case, information corresponding to each audio item in the playlist may be added to the reproduction queue. In another example, audio items in the play queue may be saved as a playlist. In yet another example, when the playback device continues to play streaming audio content, e.g., an audio item that does not play continuously due to having a playback time, it continues to play continuously unless it stops. The play queue may be empty, or may be “unused” but filled. In another embodiment, the playback queue can include Internet radio and / or other streaming audio content items and is “in use” when a playback zone or zone group is playing those items. Can do. Other examples are possible.
再生ゾーン又はゾーングループが「グループ化される」か、又は「グループ解除」されるとき、影響を受ける再生ゾーン又はゾーングループに関連付けられた再生キューは、クリアされてもよいし、又は再び関連付けられてもよい。例えば、第1再生キューを含む第1再生ゾーンが、第2再生キューを含む第2再生ゾーンとグループ化された場合、形成されたゾーングループは、関連付けられた再生キューを有していてもよい。関連付けられた再生キューは、最初は空であるか、(例えば、第2再生ゾーンが第1再生ゾーンに追加された場合、)第1再生キューのオーディオアイテムを含むか、(例えば、第1再生ゾーンが第2再生ゾーンに追加された場合、)第2再生キューのオーディオアイテムを含むか、又は第1再生キューと第2再生キューとの両方のオーディオアイテムを組み合わせられる。その後、形成されたゾーングループがグループ解除された場合、グループ解除された第1再生ゾーンは、前の第1再生キューと再び関連付けられてもよいし、空の新しい再生キューと関連付けられてもよいし、あるいはゾーングループがグループ解除される前にゾーングループと関連付けられていた再生キューのオーディオアイテムを含む新しい再生キューと関連付けられてもよい。同様に、グループ解除された第2再生ゾーンは、前の第2再生キューと再び関連付けられてもよいし、空の新しい再生キューと関連付けられてもよいし、あるいはゾーングループがグループ解除される前にゾーングループと関連付けられていた再生キューのオーディオアイテムを含む新しい再生キューと関連付けられてもよい。他の例も可能である。 When a playback zone or zone group is “grouped” or “ungrouped”, the playback queue associated with the affected playback zone or zone group may be cleared or reassociated. May be. For example, if a first playback zone that includes a first playback queue is grouped with a second playback zone that includes a second playback queue, the formed zone group may have an associated playback queue. . The associated play queue is initially empty, or contains audio items from the first play queue (eg, when the second play zone is added to the first play zone), or (eg, the first play queue). When a zone is added to the second playback zone, it can include the audio items of the second playback queue, or combine the audio items of both the first and second playback queues. Thereafter, when the formed zone group is ungrouped, the ungrouped first playback zone may be re-associated with the previous first playback queue or may be associated with an empty new playback queue. Alternatively, it may be associated with a new play queue that includes the audio items of the play queue that were associated with the zone group before the zone group was ungrouped. Similarly, the ungrouped second playback zone may be re-associated with the previous second playback queue, may be associated with an empty new playback queue, or before the zone group is ungrouped. May be associated with a new play queue that includes an audio item of the play queue that was associated with the zone group. Other examples are possible.
図4のユーザインタフェース400に戻って、再生キュー領域440内のオーディオコンテンツのグラフィック表示は、トラックタイトル、アーティスト名、トラックの長さ、および再生キュー内のオーディオコンテンツと関連付けられた他の関連情報を含んでいてもよい。ある例では、オーディオコンテンツのグラフィック表示は、追加の選択可能なアイコンを選択して移動させることができる。これにより、再生キューおよび/又は再生キューに表示されたオーディオコンテンツを管理および/又は操作することができる。例えば、表示されたオーディオコンテンツは、再生キューから取り除いてもよいし、再生キュー内の異なる位置に移動させてもよいし、すぐに再生させるか若しくは現在再生しているオーディオコンテンツの後に再生するように選択されてもよいし、あるいは他の動作を実行してもよい。再生ゾーン又はゾーングループに関連付けられた再生キューは、再生ゾーン又はゾーングループ内の1つ又は複数の再生デバイスのメモリ、再生ゾーン又はゾーングループに入っていない再生デバイスのメモリ、および/又は他の指定のデバイスのメモリに記憶されていてもよい。
Returning to the
オーディオコンテンツソース領域450は、選択可能なオーディオコンテンツソースのグラフィック表示を含んでいてもよい。このオーディオコンテンツソースにおいては、オーディオコンテンツが選択された再生ゾーン又はゾーングループによって取り出され、再生されてもよい。オーディオコンテンツソースに関する説明は、以降のセクションを参照することができる。
Audio
d.例示的なオーディオコンテンツソース
前回図示したように、ゾーン又はゾーングループ内の1つ又は複数の再生デバイスは、再生するオーディオコンテンツを、(例えば、オーディオコンテンツの対応するURI又はURLに基づいて、)複数の入手可能なオーディオコンテンツソースから取り出すように構成されていてもよい。ある例では、オーディオコンテンツは、再生デバイスによって、対応するオーディオコンテンツソース(例えば、ライン−イン接続)から直接取り出されてもよい。別の例では、オーディオコンテンツは、1つ又は複数の他の再生デバイス若しくはネットワークデバイスを介してネットワーク上の再生デバイスに提供されてもよい。
d. Exemplary Audio Content Source As previously illustrated, one or more playback devices in a zone or zone group may select multiple audio content to play (eg, based on the corresponding URI or URL of the audio content). May be configured to be retrieved from available audio content sources. In one example, audio content may be retrieved directly from a corresponding audio content source (eg, a line-in connection) by a playback device. In another example, audio content may be provided to a playback device on a network via one or more other playback devices or network devices.
例示的なオーディオコンテンツソースは、メディア再生システム内の1つ又は複数の再生デバイスのメモリを含んでもよい。メディア再生システムとしては、例えば、図1のメディア再生システム100、1つ又は複数のネットワークデバイス上のローカルミュージックライブラリ(例えば、制御デバイス、ネットワーク対応のパーソナルコンピュータ、又はネットワーク接続ストレージ(NAS)など)、インターネット(例えば、クラウド)を介してオーディオコンテンツを提供するストリーミングオーディオサービス、あるいは再生デバイス又はネットワークデバイスのライン−イン入力接続を介してメディア再生システムに接続されるオーディオソース、他の可能なシステムであってもよい。
Exemplary audio content sources may include the memory of one or more playback devices in the media playback system. As the media playback system, for example, the
ある実施形態では、オーディオコンテンツソースは、図1のメディア再生システム100などのようなメディア再生システムに定期的に追加されてもよいし、定期的に取り除かれてもよい。ある例では、1つ又は複数のオーディオコンテンツソースが追加される、取り除かれる、又は更新される度に、オーディオアイテムのインデックス付けが行われてもよい。オーディオアイテムのインデックス付けは、ネットワーク上で共有される全てのフォルダ/ディレクトリ内の識別可能なオーディオアイテムをスキャンすることを含んでもよい。ここで、ネットワークは、メディア再生システム内の再生デバイスによってアクセス可能である。また、オーディオアイテムのインデックス付けは、メタデータ(例えば、タイトル、アーティスト、アルバム、トラックの長さなど)と他の関連情報とを含むオーディオコンテンツデータベースを作成すること、又は更新すること、を含んでもよい。他の関連情報とは、例えば、それぞれの識別可能なオーディオアイテムを見つけるためのURI又はURLを含んでもよい。オーディオコンテンツソースを管理し、且つ維持するための他の例も可能である。
In some embodiments, the audio content source may be periodically added to or removed from a media playback system, such as the
再生デバイス、制御デバイス、再生ゾーン構成、およびメディアアイテムソースに関しての上述した説明は、以降で述べられている機能および方法を実施可能ないくつかの例示的な動作環境のみを提供している。本発明は、本明細書で明示的に述べられていないメディア再生システム、再生デバイス、およびネットワークデバイスの他の動作環境および構成であっても適用可能であり、その機能および方法を実施するのに適している。 The above description of playback devices, control devices, playback zone configurations, and media item sources provides only some exemplary operating environments in which the functions and methods described below can be implemented. The present invention is applicable to other operating environments and configurations of media playback systems, playback devices, and network devices not explicitly mentioned herein, and to implement the functions and methods. Is suitable.
III.再生デバイスキャリブレーションの例
先に論じたように、図1の再生デバイス102〜124のうちの1つまたはそれ以上等の1つまたは複数の再生デバイスは、特定のオーディオ体験を提供するように構成されてもよく、かつ、そのオーディオ体験を、再生環境内の1つまたは複数の再生デバイスの位置に関わらず提供するようにキャリブレーションされてもよい。先に述べたように、本明細書において企図する例示的なキャリブレーション手順は、キャリブレーション中の再生デバイスにより放出される音波(例えば、1つまたは複数のキャリブレーション音)を検出しかつ分析する録音デバイスのマイクロホンを含んでもよい。
III. Playback Device Calibration Example As discussed above, one or more playback devices, such as one or more of the playback devices 102-124 of FIG. 1, are configured to provide a particular audio experience. And may be calibrated to provide the audio experience regardless of the location of one or more playback devices within the playback environment. As previously mentioned, the exemplary calibration procedure contemplated herein detects and analyzes sound waves (eg, one or more calibration sounds) emitted by the playback device being calibrated. A microphone of the recording device may be included.
キャリブレーションプロセスによってユーザを誘導するためのキャリブレーションインタフェースは、ネットワークデバイス上に設けられてもよい。例示的なインタフェースは、2015年4月24日に出願された「Speaker Calibration」と題する米国非仮特許出願第14/696,014号明細書に記載されており、その全体が本明細書に参考として組み込まれる。さらなる例示的なインタフェースは、2015年8月14日に出願された「Speaker Calibration User Interface」と題する米国非仮特許出願第14/826,873号明細書に記載されており、その全体が本明細書に同じく参考として組み込まれる。あるいは、キャリブレーションは、ネットワークデバイスと再生デバイスとの間で自動的に実行されてもよく、かつネットワークデバイスのユーザによる相互作用によって、または相互作用なしに実行されてもよい。ネットワークデバイスは、ユーザが1つまたは複数の再生デバイスを制御するために使用できるデバイスであってもよい。例えば、ネットワークデバイスは、図1の制御デバイス126および128ならびに図3の制御デバイス300に類似していてもよい。キャリブレーションインタフェースは、1つまたは複数の再生デバイスを制御するためにネットワークデバイス上へ設けられる図4のコントローラインタフェース400等のコントローラインタフェースのコンポーネントであってもよい。
A calibration interface for guiding the user through the calibration process may be provided on the network device. An exemplary interface is described in US Non-Provisional Application No. 14 / 696,014, filed Apr. 24, 2015, entitled “Speaker Calibration”, which is hereby incorporated by reference in its entirety. Incorporated as. A further exemplary interface is described in US Non-Provisional Application No. 14 / 826,873, filed Aug. 14, 2015, entitled “Speaker Calibration User Interface”, which is incorporated herein in its entirety. Also incorporated into the book as a reference. Alternatively, the calibration may be performed automatically between the network device and the playback device, and may be performed with or without interaction by the user of the network device. A network device may be a device that a user can use to control one or more playback devices. For example, the network device may be similar to the
1つまたは複数の再生デバイスを再生環境内に配置すれば、キャリブレーションインタフェースにより、1つまたは複数の再生デバイスにキャリブレーショントーンを再正させることが可能になる。特定のキャリブレーショントーンは、本明細書において企図する例示的なキャリブレーション手順を容易にできる。例示的なキャリブレーショントーンは、2015年7月21日に出願された「Hybrid Test Tone for Space−Averaged Room Audio Calibration Using A Moving Microphone」と題する米国非仮特許出願第14/805,140号明細書に記載されており、その全体が本明細書に参考として組み込まれる。 If one or more playback devices are placed in the playback environment, the calibration interface allows one or more playback devices to recalibrate the calibration tone. Certain calibration tones can facilitate the exemplary calibration procedure contemplated herein. An exemplary calibration tone is described in U.S. Non-Provisional Patent Application No. 14 / 805,140, filed July 21, 2015, entitled “Hybrid Test Tone for Space-Available Room Audio Calibration Using A Moving Microphone”. Which is incorporated herein by reference in its entirety.
ネットワークデバイスは、1つまたは複数の再生デバイスによるキャリブレーショントーンの再生に関連するオーディオデータを受信するように配置されてもよい。ある例において、インタフェースは、キャリブレーショントーンが再生されている間に再生環境内でネットワークデバイスを動かすようにユーザに対して促してもよい。例えば、あるより具体的な場合において、インタフェースは、再生環境内の、1つまたは複数の再生デバイスによるオーディオ再生の楽しさが典型的に起こりうるエリアを横切るようにユーザに指示してもよい。別の例において、インタフェースは、ネットワークデバイスを可能な限り部屋の壁等の再生環境の反対側の境界領域へ近づけて動かすようにユーザに指示してもよい。ある場合において、キャリブレーションインタフェースは、ユーザがどのようにして再生環境を横切るかを説明する映像を提供してもよい。映像は、キャリブレーショントーンが再生される前、またはキャリブレーショントーンが再生されている間に、インタフェースを介してユーザに示されてもよい。キャリブレーション中に動くマイクロホンの例は、2014年9月9日に出願された「Playback Device Calibration」と題する米国非仮特許出願第14/481,511号明細書に記載されており、その全体が本明細書に参考として組み込まれる。 The network device may be arranged to receive audio data related to the playback of the calibration tone by one or more playback devices. In one example, the interface may prompt the user to move the network device within the playback environment while the calibration tone is being played. For example, in certain more specific cases, the interface may instruct the user to traverse an area in the playback environment where audio playback enjoyment by one or more playback devices may typically occur. In another example, the interface may instruct the user to move the network device as close as possible to the border area opposite the playback environment, such as a room wall. In some cases, the calibration interface may provide a video describing how the user crosses the playback environment. The video may be shown to the user via the interface before the calibration tone is played or while the calibration tone is being played. Examples of microphones that move during calibration are described in US Non-Provisional Patent Application No. 14 / 481,511, filed September 9, 2014, entitled “Playback Device Calibration”. Incorporated herein by reference.
幾つかの例において、複数の再生デバイスが同時にキャリブレーションされてもよい。さらに、幾つかの再生デバイスは、複数の再生チャネル(例えば、ツイータおよびウーファ、またはチャネルとして作用するように構成される複数のスピーカ)を含んでもよく、これらは、同時にキャリブレーションされてもよい。複数の再生チャネルのキャリブレーションを容易にするための技術の例は、2015年7月21日に出願された「Concurrent Multi−Loudspeaker Calibration with a Single Measurement」と題する米国非仮特許出願第14/805,340号明細書に記載されており、その全体が本明細書に参考として組み込まれる。 In some examples, multiple playback devices may be calibrated simultaneously. In addition, some playback devices may include multiple playback channels (eg, tweeters and woofers, or multiple speakers configured to act as channels), which may be calibrated simultaneously. An example of a technique for facilitating calibration of multiple playback channels is U.S. Non-Provisional Patent Application No. 14/805 entitled “Concurrent Multi-Loudspeaker Calibration with a Single Measurement” filed on July 21, 2015. No. 340, which is incorporated herein by reference in its entirety.
ある例において、キャリブレーショントーンは、予め決められた持続時間にわたって再生されてもよく、ユーザには、再生環境におけるエリアを横切るための予め決められた持続時間が割り当てられてもよい。別の例において、キャリブレーショントーンが再生される時間量は、ネットワークデバイスにより検出される、ネットワークデバイスの動きまたは経路に関する情報に基づいて変更されてもよい。例えば、ネットワークデバイスが、前記ネットワークデバイスが先に横断された経路を逆戻りすることを開始したと決定すれば、ネットワークデバイスは、キャリブレーショントーンの追加の測定が不要であると決定してもよく、かつ1つまたは複数の再生デバイスによるキャリブレーショントーンの再正を終了させてもよい。 In one example, the calibration tone may be played for a predetermined duration, and the user may be assigned a predetermined duration for crossing an area in the playback environment. In another example, the amount of time that the calibration tone is played may be changed based on information about network device movement or path detected by the network device. For example, if a network device determines that the network device has started reversing a previously traversed path, the network device may determine that no additional measurement of calibration tones is required, And the calibration tone re-correction by one or more playback devices may be terminated.
さらなる例において、キャリブレーショントーンが再生される時間量は、検出されるオーディオ信号に基づいて変更されてもよい。例えば、ネットワークデバイスは、再生環境において検出されたオーディオ信号の追加のサンプルが再生環境の特性の決定を改善するものではないと決定すれば、キャリブレーショントーンの追加の測定が不要であると決定してもよく、かつ1つまたは複数の再生デバイスによるキャリブレーショントーンの再正を終了させてもよい。例としては、これら以外のものも可能である。 In a further example, the amount of time that the calibration tone is played may be changed based on the detected audio signal. For example, if the network device determines that the additional samples of the audio signal detected in the playback environment do not improve the determination of the characteristics of the playback environment, the network device determines that no additional measurement of calibration tones is required. And calibration tone recalibration by one or more playback devices may be terminated. Other examples are possible as examples.
予め決められる持続時間は、再生環境の種類および/またはサイズに依存して変わってもよい。例えば、1つまたは複数の再生デバイスにキャリブレーショントーンを再生させる前に、キャリブレーションインタフェースは、再生環境の種類および/またはサイズを指示するようにユーザに対して促してもよい。ユーザによる入力に基づいて、インタフェースは、指示された再生環境の種類および/またはサイズをもとに、キャリブレーショントーンを再生するための適切な予め決められる持続時間を特定してもよい。ある場合において、提供されるデモンストレーション映像も、指示された再生環境の種類および/またはサイズに基づいて変わってもよい。別の例において、ユーザは、再生環境の対向する境界エリア間で動くように指示されてもよい。再生環境のおおよそのサイズは、ネットワークデバイスの検出される動きおよび/または経路に基づいて決定されてもよく、よって、キャリブレーショントーンの再生時間は、検出されるユーザの動きおよび/または検出されるユーザの動きの経路に基づいて調整(延長または短縮)されてもよい。例えば、ユーザが依然としてネットワークデバイスを動かしていることが検出されれば、キャリブレーショントーンの再生は、延長されてもよい。別の例において、ユーザがデバイスを、再生環境が先の想定より大きいことを示す方向に動かしていて、かつユーザが再生環境全体またはそのかなりの部分をカバーすべくデバイスを適切に動かすにはさらなる時間を必要とすることが検出されれば、再生時間が延長されてもよい。 The predetermined duration may vary depending on the type and / or size of the playback environment. For example, prior to playing a calibration tone on one or more playback devices, the calibration interface may prompt the user to indicate the type and / or size of the playback environment. Based on input by the user, the interface may identify an appropriate predetermined duration for playing the calibration tone based on the type and / or size of the indicated playback environment. In some cases, the provided demonstration video may also vary based on the type and / or size of the indicated playback environment. In another example, the user may be instructed to move between opposing boundary areas of the playback environment. The approximate size of the playback environment may be determined based on the detected movement and / or path of the network device, so the playback time of the calibration tone is detected and / or detected. Adjustment (extension or shortening) may be made based on the path of movement of the user. For example, if it is detected that the user is still moving the network device, the playback of the calibration tone may be extended. In another example, if the user is moving the device in a direction that indicates that the playback environment is larger than previously assumed, and the user moves the device appropriately to cover the entire playback environment or a substantial portion thereof, further If it is detected that time is required, the playback time may be extended.
1つまたは複数の再生デバイスがキャリブレーショントーンを再生している間、制御デバイス300のマイクロホン310等のネットワークデバイスのマイクロホンは、オーディオ信号を検出できる。制御デバイス300のプロセッサ302等のネットワークデバイスのプロセッサは、オーディオ信号が検出されるにつれて、マイクロホンからオーディオデータストリームを受信してもよい。次いで、プロセッサは、受信されたオーディオデータを処理して、再生環境のオーディオ特性を決定してもよい。例えば、オーディオデータを基礎として、再生環境に関連づけられる線形周波数応答が決定されてもよい。 While one or more playback devices are playing calibration tones, a microphone of a network device, such as microphone 310 of control device 300, can detect the audio signal. A network device processor, such as processor 302 of control device 300, may receive an audio data stream from a microphone as an audio signal is detected. The processor may then process the received audio data to determine the audio characteristics of the playback environment. For example, based on audio data, a linear frequency response associated with the playback environment may be determined.
次には、オーディオ特性に基づいて、信号処理アルゴリズムが決定されてもよい。例えば、等価パラメータは、オーディオコンテンツの再生に際して1つまたは複数の再生デバイスにより等化パラメータが適用される場合に、特定のオーディオ体験が生成されるように決定されてもよい。言い替えれば、環境の音響特性を補うために、キャリブレーションプロファイルが再生デバイスに適用されてもよい。 Next, a signal processing algorithm may be determined based on the audio characteristics. For example, the equivalent parameter may be determined such that a specific audio experience is generated when the equalization parameter is applied by one or more playback devices during playback of the audio content. In other words, a calibration profile may be applied to the playback device to supplement the acoustic properties of the environment.
IV.再生デバイス−キャリブレーションエラー状態を識別する技術の例
先に指摘したように、1つまたは複数のエラー状態は、1つまたは複数の再生デバイスのキャリブレーションの有効性に悪影響を及ぼすことがある。ある例において、1つまたは複数のエラー状態は、1つまたは複数の再生デバイスによるキャリブレーショントーンの再生中およびネットワークデバイスのマイクロホンによるオーディオ信号の検出中に識別されてもよい。ある場合において、1つまたは複数の再生デバイスのキャリブレーションは、予め決められた持続時間にわたるキャリブレーショントーンの再生およびオーディオ信号の検出が完了した後ではなく、エラー状態が識別されるとすぐに、中断されかつ/または終了されてもよい。
IV. Example Reproducing Device-Calibration Error Condition Identification Technique As pointed out above, one or more error conditions may adversely affect the calibration effectiveness of one or more reproduction devices. In one example, one or more error conditions may be identified during calibration tone playback by one or more playback devices and during detection of an audio signal by a microphone of a network device. In some cases, calibration of one or more playback devices may occur as soon as an error condition is identified, rather than after calibration tone playback and audio signal detection over a predetermined duration is complete. It may be interrupted and / or terminated.
図5は、再生デバイス−キャリブレーションエラー状態を識別するための実装500の例を示すフロー図である。実装500は、例えば図1のメディア再生システム100と、図2の再生デバイス200のうちの1つ以上と、制御デバイス300のうちの1つ以上とを含む動作環境内で実施されることが可能な技術の例を提示する。ある例において、実装500は、全体的または部分的に、メディア再生システムと通信するコンピュータ装置によって実行されてもよい。例えば、実装500は、図1の制御デバイス126および128のうちの一方またはそれ以上によって実行されてもよい。このような場合において、制御デバイス126および128のうちの一方またはそれ以上は、各制御デバイスに実装500の機能を実行させるように各制御デバイスのプロセッサにより実行可能な命令を含むソフトウェアアプリケーションをインストールしていてもよい。
FIG. 5 is a flow diagram illustrating an
実装500は、ブロック502−506の1つ又は複数によって構成されるように、1つ又は複数の操作、機能、又は動作を含んでもよい。各ブロックはそれぞれ順番に示されているが、これらのブロックは並行して行われてもよいし、および/又は、本明細書で述べられている順番と異なる順番で行われてもよい。また、所望の実施内容に応じて、ブロックを少なくしてもよいし、増やして分割してもよいし、および/又は取り除いてもよい。さらに、フローチャートは、実装500並びに本明細書で開示されている他の処理および方法に関して、本実施形態の単に幾つかの可能な実装の機能および動作の例を示している。これに関して、各ブロックは、プロセッサによって実行されるとプロセスにおける特定のロジカル機能又はステップを実行させる1つ又は複数の命令を記憶した、モジュール、セグメント、あるいはプログラムコードの一部を示していてもよい。プログラムコードは例えば、ディスク又はハードドライブを含む記憶デバイスなど、任意のタイプのコンピュータ読み取り可能記録媒体に記憶されてもよい。
コンピュータ読み取り可能記録媒体は、非一時的なコンピュータ読み取り可能記録媒体、例えば、レジスタメモリ、プロセッサキャッシュ、およびランダム・アクセス・メモリ(RAM)などのように短時間データを記憶するコンピュータ読み取り可能媒体を含んでもよい。コンピュータ読み取り可能媒体は、非一時的なメディア、例えば、リード・オンリ・メモリ(ROM)、光ディスク、磁気ディスク、コンパクトディスク・リード・オンリ・メモリ(CD−ROM)等の長期間の記憶が可能な二次記憶装置又は永続記憶装置を含んでもよい。コンピュータ読み取り可能媒体は、その他の任意の揮発性記憶システム又は不揮発性記憶システムであってもよい。コンピュータ読み取り可能媒体は例えば、コンピュータ読み取り可能記録媒体、即ち、有形の記憶デバイスとみなされてもよい。また、実装500並びに本明細書に開示されたその他の処理および方法において、各ブロックは回路を示していてもよく、その回路は処理において、ある論理機能を実行するために有線接続されている。
Computer-readable recording media include non-transitory computer-readable recording media, such as computer-readable media that store data for a short time, such as register memory, processor cache, and random access memory (RAM). But you can. Computer readable media can be stored for long periods of time such as non-transitory media such as read only memory (ROM), optical disk, magnetic disk, compact disk read only memory (CD-ROM), etc. Secondary storage or permanent storage may be included. The computer readable medium may be any other volatile storage system or non-volatile storage system. A computer readable medium may be considered, for example, a computer readable recording medium, ie, a tangible storage device. Also, in
図5に示すように、実装500は、ブロック502において、マイクロホンからオーディオデータストリームを受信し、ブロック504において、オーディオデータのサブセットが受信されるにつれて、少なくともオーディオデータのサブセットをもとにエラー状態を識別し、かつブロック506において、識別されたエラー状態に関連づけられるグラフィック表示をグラフィックディスプレイ上に表示することを含む。
As shown in FIG. 5, the
a.マイクロホンからのオーディオデータストリームの受信
先に指摘したように、ブロック502は、マイクロホンからオーディオデータストリームを受信するステップを含む。ある例において、マイクロホンは、1つまたは複数の再生デバイスをキャリブレーションするプロセスによってユーザを誘導するためのキャリブレーションインタフェースを提供するネットワークデバイスの一部であってもよい。別の例において、マイクロホンは、ネットワークデバイスの外部にあってネットワークデバイスへ通信可能に結合されるマイクロホンであってもよい。本明細書における説明において、ネットワークデバイスの物理的移動は、マイクロホンの同時的な物理的移動を含んでもよい。
a. Receiving an Audio Data Stream from a Microphone As noted above, block 502 includes receiving an audio data stream from a microphone. In one example, the microphone may be part of a network device that provides a calibration interface to guide the user through the process of calibrating one or more playback devices. In another example, the microphone may be a microphone that is external to the network device and communicatively coupled to the network device. In the description herein, physical movement of network devices may include simultaneous physical movement of microphones.
ある例において、ネットワークデバイスは、マイクロホンがオーディオデータストリームを受信する前に、1つまたは複数の再生デバイスのうちの少なくとも1つへ、前記少なくとも1つの再生デバイスにキャリブレーショントーンを再生させるメッセージを送信してもよい。ある場合において、キャリブレーションインタフェースは、再生環境内でユーザがネットワークデバイスの移動を開始する準備ができた時にそれを指示するようにユーザに対して促してもよい。例えば、キャリブレーションインタフェースは、ネットワークデバイスのグラフィックディスプレイ上に、ユーザが選択できる選択可能アイコン(即ち、「キャリブレーション開始」アイコン)を提供して、ユーザが準備完了であることを示してもよい。 In one example, the network device sends a message that causes the at least one playback device to play a calibration tone to at least one of the one or more playback devices before the microphone receives the audio data stream. May be. In some cases, the calibration interface may prompt the user to indicate when the user is ready to begin moving the network device within the playback environment. For example, the calibration interface may provide a selectable icon (ie, a “start calibration” icon) that the user can select on the graphic display of the network device to indicate that the user is ready.
ネットワークデバイスは、再生環境内でユーザがネットワークデバイスの移動を開始する準備ができていることを示す入力を受信したことに応答して、適宜、1つまたは複数の再生デバイスのうちの少なくとも1つへメッセージを送信してもよい。ある場合において、次に、1つまたは複数の再生デバイスのうちの少なくとも1つは、1つまたは複数の再生デバイスの各々によるキャリブレーショントーンの再生を調整してもよい。 In response to receiving input indicating that the user is ready to begin moving the network device in the playback environment, the network device, as appropriate, at least one of the one or more playback devices. You may send a message to In some cases, at least one of the one or more playback devices may then coordinate the playback of the calibration tone by each of the one or more playback devices.
キャリブレーショントーンが1つまたは複数の再生デバイスによって再生されるにつれて、マイクロホンは、再生中であるキャリブレーショントーンの少なくとも一部を含むオーディオ信号、および再生環境内に存在するあらゆる周囲ノイズを検出できる。次に、マイクロホンは、オーディオ信号が検出されるにつれて、検出されるオーディオ信号をサンプリングし、かつ結果として生じるオーディオデータをネットワークデバイスのプロセッサに流してもよい。 As the calibration tone is played by one or more playback devices, the microphone can detect an audio signal that includes at least a portion of the calibration tone being played, and any ambient noise present in the playback environment. The microphone may then sample the detected audio signal and stream the resulting audio data to the network device processor as the audio signal is detected.
このように、1つまたは複数の再生デバイスによってキャリブレーショントーンが再生されている間およびマイクロホンがオーディオ信号を検出してサンプリングする間、オーディオデータストリームは受信されうる。したがって、オーディオデータは、(i)再生中であるキャリブレーショントーンの少なくとも一部に対応するオーディオ信号成分、および(ii)キャリブレーショントーン以外のオーディオ要素に対応するバックグラウンドノイズ成分を含んでもよい。 Thus, the audio data stream can be received while the calibration tone is being played by one or more playback devices and while the microphone detects and samples the audio signal. Accordingly, the audio data may include (i) an audio signal component corresponding to at least a part of the calibration tone being reproduced, and (ii) a background noise component corresponding to an audio element other than the calibration tone.
図6は、ある例示的な再生デバイスキャリブレーションのユーザインタフェース600を示す。図示のように、ユーザインタフェース600は、「リビングルーム」ゾーン内の1つまたは複数の再生デバイスがキャリブレーション中であることを示すグラフィック表示602を含む。図1を参照すると、再生デバイス104、106、108および110は、キャリブレーション中である1つまたは複数の再生デバイスであってもよい。ユーザインタフェース600は、キャリブレーションを目的とするオーディオ信号の検出が実行中であることを示すグラフィック表示604をさらに含む。グラフィック表示604は、キャリブレーショントーンを検出するための予め決められた持続時間のうちの経過した、および/または残りの量等の、オーディオ信号録音プロセスのステータスも示してもよい。また、グラフィック表示604は、それまでに検出されているオーディオ信号の表示も示してもよい。ユーザインタフェース600には、キャリブレーションプロセスを終了するために選択されうる選択可能アイコン606も示されている。一般的な当業者であれば、図6のユーザインタフェース600が例示を目的とするものであって、他の例も可能であることを認識するであろう。
FIG. 6 shows an exemplary playback device
b.オーディオデータのサブセットの受信に伴う、少なくともオーディオデータのサブセットに基づくエラー状態の識別
ブロック504において、実装500は、オーディオデータのサブセットの受信に伴い、少なくともこのオーディオデータのサブセットに基づいてエラー状態を識別するステップを含む。ある例において、オーディオデータのサブセットは、単一のオーディオデータのサンプルであってもよい。別の例において、オーディオデータのサブセットは、複数のオーディオデータのサンプルであってもよい。ある場合において、少なくともオーディオデータのサブセットに基づいてエラー状態を識別するステップは、オーディオデータのサブセット、およびオーディオデータストリームにおける1つまたは複数の先行するオーディオデータのサブセットに基づいて、エラー状態を識別することを含んでもよい。
b. Identifying an error condition based on at least a subset of audio data associated with receiving the subset of audio data At
幾つかの場合において、エラー状態は、統計的に重要でないことがある。例えば、キャリブレーションの間にノイズインパルスが生じても、ノイズインパルスを示すオーディオデータは、オーディオデータを処理する間に外れ値として自動的に廃棄されうる。このような場合、ネットワークデバイスは、1つまたは複数の再生デバイスのキャリブレーションが継続されうると決定してもよい。他の場合、エラー状態は、統計的に重要であり、よって、エラー状態を示すオーディオデータは、外れ値として廃棄されないことがある。このような場合、ネットワークデバイスは、エラー状態の識別に応答して、1つまたは複数の再生デバイスのキャリブレーションが中断されるべきであると決定し、よって、1つまたは複数の再生デバイスのうちの少なくとも1つへ、前記少なくとも1つの再生デバイスにキャリブレーショントーンの再生を停止させるメッセージを送信してもよい。 In some cases, the error condition may not be statistically significant. For example, even if a noise impulse occurs during calibration, audio data indicative of the noise impulse can be automatically discarded as an outlier while processing the audio data. In such a case, the network device may determine that calibration of one or more playback devices can continue. In other cases, the error condition is statistically significant, so audio data indicating an error condition may not be discarded as an outlier. In such a case, in response to the identification of the error condition, the network device determines that the calibration of the one or more playback devices should be interrupted, and thus of the one or more playback devices A message for stopping the reproduction of the calibration tone to the at least one reproduction device may be transmitted to at least one of the above.
ある例では、予め決められた複数のエラー状態および予め決められたエラー状態の対応する特性が定義されてもよい。このような場合、ブロック504におけるエラー状態の識別は、対応する特性を識別することに基づいて、予め決められた複数のエラー状態からエラー状態を識別することを含んでもよい。ある場合において、オーディオデータの少なくとも1つのサブセットに基づいて、単に1つのエラー状態が識別される。別の場合では、オーディオデータの少なくとも1つのサブセットに基づいて、複数のエラー状態が識別されてもよい。
In some examples, a plurality of predetermined error conditions and corresponding characteristics of the predetermined error conditions may be defined. In such a case, identifying the error condition in
先に指摘したように、キャリブレーションインタフェースは、キャリブレーショントーンが再生されている間、再生環境内でネットワークデバイスを動かすようにユーザに対して促してもよい。キャリブレーションインタフェースは、さらに、ネットワークデバイス内でネットワークデバイスを上下に動かすようにユーザに対して促してもよい。ネットワークデバイスのマイクロホンがキャリブレーショントーンを検出する間のネットワークデバイスの移動は、オーディオデータストリームにおいて捕捉されるべき再生環境のより包括的な音響特性を提供しうる。加えて、1つまたは複数の再生デバイスによるオーディオ再生の楽しさが、典型的にはネットワークデバイスのマイクロホンがキャリブレーショントーンを検出する間に生じる、再生環境内のエリアにわたるネットワークデバイスの移動は、さらに、再生環境における1つまたは複数の再生デバイスによるオーディオ再生の間の再生環境の用い方にとってより適切な再生環境の音響特性を提供してもよい。 As pointed out above, the calibration interface may prompt the user to move the network device within the playback environment while the calibration tone is being played. The calibration interface may further prompt the user to move the network device up and down within the network device. Movement of the network device while the microphone of the network device detects the calibration tone can provide a more comprehensive acoustic characteristic of the playback environment to be captured in the audio data stream. In addition, the movement of the network device across an area in the playback environment, where the enjoyment of audio playback by one or more playback devices typically occurs while the network device microphone detects a calibration tone, further The acoustic characteristics of the playback environment may be provided that is more appropriate for the usage of the playback environment during audio playback by one or more playback devices in the playback environment.
ネットワークデバイスが移動する間、ネットワークデバイスのマイクロホンにより検出されたオーディオ信号のレベルは、ある程度の変動および所定の変動率を有することが予期されうる。したがって、オーディオデータのサブセット内に表されるオーディオ信号成分のレベルが最小閾値より小さいという決定が下されれば、ネットワークデバイスの移動が不十分であるというエラー状態が識別されうる。あるいは、オーディオデータのサブセット内に表されるオーディオ信号成分のレベルの変動率が最大閾値より大きいという決定が下されれば、ネットワークデバイスの移動が速すぎるというエラー状態が識別されうる。 While the network device moves, the level of the audio signal detected by the network device microphone can be expected to have some variation and a predetermined rate of variation. Thus, if a determination is made that the level of the audio signal component represented in the subset of audio data is less than a minimum threshold, an error condition that network device movement is insufficient may be identified. Alternatively, if a determination is made that the rate of variation of the level of the audio signal component represented in the subset of audio data is greater than a maximum threshold, an error condition that the network device is moving too fast can be identified.
ある例において、ネットワークデバイスは、他の例の中でもとりわけ、加速度計等のモーションセンサをさらに含んでもよい。このような場合、ネットワークデバイスのプロセッサは、さらに、1つまたは複数の再生デバイスのキャリブレーション中に、かつ具体的には、1つまたは複数の再生デバイスによりキャリブレーショントーンが再生中である間、およびネットワークデバイスが再生環境内で動かされることが予期される間に、モーションセンサを起動してもよい。この例において、ネットワークデバイスのプロセッサは、さらに、動きデータのストリームを受信するように構成されてもよい。動きデータは、再生環境内のネットワークデバイスの移動範囲および/または移動速度を示してもよい。ネットワークデバイスの移動範囲および移動速度は、再生環境内でのネットワークデバイスの横方向移動およびネットワークデバイスの上下移動の双方を含んでもよい。 In one example, the network device may further include a motion sensor such as an accelerometer, among other examples. In such a case, the processor of the network device further performs calibration of the one or more playback devices, and specifically while the calibration tone is being played by the one or more playback devices. And the motion sensor may be activated while the network device is expected to be moved within the playback environment. In this example, the processor of the network device may be further configured to receive the stream of motion data. The motion data may indicate a moving range and / or moving speed of the network device in the playback environment. The moving range and moving speed of the network device may include both the lateral movement of the network device and the vertical movement of the network device within the playback environment.
モーションセンサにより動きデータのサブセットが受信されるにつれて、ネットワークデバイスのプロセッサは、少なくともこの動きデータのサブセットに基づいて1つまたは複数のエラー状態を識別してもよい。したがって、不十分な移動または速すぎる移動というエラー状態は、代替的または追加的に、モーションセンサからの動きデータの少なくとも1つのサブセットに基づいて識別されてもよい。より具体的には、モーションセンサにより検出される移動が最小閾値を下回る場合、不十分な動きというエラーメッセージが生成され、かつ/または、モーションセンサにより検出される移動速度が最大閾値を超える場合、速すぎる移動というエラーメッセージが生成される。 As a subset of motion data is received by the motion sensor, the processor of the network device may identify one or more error conditions based at least on the subset of motion data. Thus, an error condition of insufficient or too fast movement may alternatively or additionally be identified based on at least one subset of motion data from the motion sensor. More specifically, if the movement detected by the motion sensor is below the minimum threshold, an error message of insufficient movement is generated and / or if the movement speed detected by the motion sensor exceeds the maximum threshold, An error message is generated that says moving too fast.
ある例において、不十分な移動とみなされる移動の範囲は、リスニング環境の予期されるサイズに基づいて決定されてもよい。ある場合において、平均的なリスニング環境に対して、1.2メートルという移動の閾値範囲が決定されてもよい。この場合、モーションセンサにより検出される移動の範囲が1.2メートル未満であれば、不十分な移動というエラー状態が識別されうる。 In one example, the range of movement that is considered insufficient movement may be determined based on the expected size of the listening environment. In some cases, a threshold range of travel of 1.2 meters may be determined for an average listening environment. In this case, if the range of movement detected by the motion sensor is less than 1.2 meters, an error condition of insufficient movement can be identified.
別の例において、予期される移動の範囲は、指示されるリスニング環境の種類に依存して変化することがある。よって、移動の閾値範囲は、指示されるリスニング環境の種類に基づいて変わってもよい。例えば、ユーザが、キャリブレーションプロセス中に、キャリブレーションがリビングルームに対して実行されることを指示すれば、移動の閾値範囲は、3メートルになり得る。ユーザは、キャリブレーションがリビングルームに対して実行されることを指示する場合、キャリブレーション中である再生デバイスに関連づけられる再生ゾーンを「リビングルーム」と指名することによって行ってもよい。一方で、ユーザが、キャリブレーションプロセス中に、キャリブレーションが浴室に対して実行されることを指示すれば、移動の閾値範囲は、1メートルになり得る。例としては、これら以外のものも可能である。 In another example, the expected range of travel may vary depending on the type of listening environment indicated. Therefore, the threshold range of movement may change based on the type of listening environment instructed. For example, if the user indicates during the calibration process that calibration will be performed on the living room, the threshold range of movement can be 3 meters. When instructing the calibration to be performed on the living room, the user may designate the playback zone associated with the playback device being calibrated as “living room”. On the other hand, if the user indicates during the calibration process that calibration will be performed on the bathroom, the threshold range of movement can be 1 meter. Other examples are possible as examples.
移動の閾値範囲の決定および/または識別に関しては、他の例も可能である。例えば、ネットワークデバイスおよび/または再生デバイスは、インパルス信号を再生し、かつネットワークデバイスおよび/または再生デバイスによる反射信号の検出に基づいて、リスニング環境のサイズを推定してもよい。例としては、これら以外のものも可能である。 Other examples are possible for determining and / or identifying the threshold range of movement. For example, the network device and / or playback device may recover the impulse signal and estimate the size of the listening environment based on detection of the reflected signal by the network device and / or playback device. Other examples are possible as examples.
再生環境は、1つまたは複数の再生ゾーンを含んでもよく、よって、1つまたは複数の再生ゾーンに関連づけられる1つまたは複数の再生デバイスを含んでもよい。1つまたは複数の再生デバイスのキャリブレーションは、特定の再生ゾーンを含まない別の再生ゾーンまたは再生環境ではなく、1つまたは複数の再生デバイスに関連づけられる特定の再生ゾーン内で適切に実行されてもよい。言い替えれば、図1を参照すると、再生デバイス122および124は、ダイニングルームではなく主寝室に対して適切にキャリブレーションされてもよい。
A playback environment may include one or more playback zones, and thus may include one or more playback devices associated with one or more playback zones. Calibration of one or more playback devices is properly performed within a specific playback zone associated with one or more playback devices, rather than another playback zone or playback environment that does not include the specific playback zone. Also good. In other words, referring to FIG. 1,
ある例では、オーディオデータのサブセット内に表されるオーディオ信号成分のレベルが徐々に最小閾値より下がっているという決定が下されれば、閾値移動距離を超えるというエラー状態が識別されうる。言い替えれば、ネットワークデバイスは、1つまたは複数の再生デバイスから離れすぎていて、1つまたは複数の再生デバイスにとって適切な再生環境の外側まで動いていることがある。 In one example, if a determination is made that the level of the audio signal component represented in the subset of audio data is gradually falling below a minimum threshold, an error condition that exceeds the threshold travel distance may be identified. In other words, the network device may be too far away from the one or more playback devices and has moved outside the appropriate playback environment for the one or more playback devices.
キャリブレーション中である1つまたは複数の再生デバイスによるキャリブレーショントーンの再生、およびマイクロホンによるオーディオ信号の検出に先行して、キャリブレーションインタフェースは、まず、再生環境内のバックグラウンドノイズのレベルが再生環境における1つまたは複数の再生デバイスのキャリブレーションに適するかどうかを決定してもよい。ある場合において、キャリブレーションインタフェースは、再生環境におけるノイズレベルを示すためにノイズメータのグラフィック表示を提供してもよい。ノイズレベルが適切なレベルを上回っていれば、キャリブレーションインタフェースは、1つまたは複数の再生デバイスのキャリブレーションに先行して、再生環境におけるノイズレベルの低減を試行するようにユーザに対して促してもよい。再生環境のノイズレベルが適切なレベル内にあれば、ユーザが再生環境内でネットワークデバイスをいつでも動かすことができることを示すために、ユーザが選択できる選択可能アイコンがキャリブレーションインタフェース上に表示されてもよい。次に、選択可能アイコンの選択により、1つまたは複数の再生デバイスによるキャリブレーショントーンの再生、およびネットワークデバイスのマイクロホンによるオーディオ信号の検出が開始されてもよい。 Prior to playback of the calibration tone by one or more playback devices being calibrated and detection of the audio signal by the microphone, the calibration interface first determines the level of background noise in the playback environment. It may be determined whether it is suitable for calibration of one or more playback devices. In some cases, the calibration interface may provide a graphic display of the noise meter to indicate the noise level in the playback environment. If the noise level is above an appropriate level, the calibration interface prompts the user to attempt to reduce the noise level in the playback environment prior to calibrating one or more playback devices. Also good. If the noise level of the playback environment is within an appropriate level, a selectable icon that the user can select is displayed on the calibration interface to indicate that the user can move the network device at any time within the playback environment. Good. Next, selection of the selectable icon may initiate playback of the calibration tone by one or more playback devices and detection of the audio signal by the microphone of the network device.
1つまたは複数の再生デバイスによるキャリブレーショントーンの再生中、およびネットワークデバイスのマイクロホンによるオーディオ信号の検出中は、再生環境におけるバックグラウンドノイズのレベルが変わることがある。ある例において、オーディオデータのサブセット内に表されるバックグラウンドノイズ成分のレベルが最大閾値レベルを上回るという決定が下されれば、不適切なバックグラウンドノイズというエラー状態が識別されうる。ある例において、このようなエラー状態は、マイクロホンによる音声信号の検出中に再生環境内に音のバーストが存在すれば、発生し得る。 During playback of calibration tones by one or more playback devices and detection of audio signals by microphones of network devices, the level of background noise in the playback environment may change. In one example, an inappropriate background noise error condition can be identified if a determination is made that the level of the background noise component represented in the subset of audio data is above a maximum threshold level. In one example, such an error condition can occur if there is a burst of sound in the playback environment during detection of the audio signal by the microphone.
別の例において、オーディオデータのサブセット内に表されるオーディオ信号成分とバックグラウンドノイズ成分との比(信号対雑音比、または「SNR」)が最小閾値を下回るという決定が下されれば、バックグラウンドノイズが高すぎるというエラー状態が識別されうる。ある例において、このようなエラー状態は、再生環境内のバックグラウンドノイズが適切なレベルを超えて徐々に増加していれば、発生し得る。 In another example, if a determination is made that the ratio of the audio signal component represented in the subset of audio data to the background noise component (signal to noise ratio, or “SNR”) is below a minimum threshold, An error condition where ground noise is too high can be identified. In one example, such an error condition can occur if background noise in the playback environment is gradually increasing beyond an appropriate level.
異なるネットワークデバイスは、異なるマイクロホン設定を有してもよい。ある例において、ネットワークデバイスのマイクロホンが(ネットワークデバイスの標準的な動作方向に対して)ネットワークデバイスの底面にあれば、キャリブレーションインタフェースは、1つまたは複数の再生デバイスによるキャリブレーショントーンの再生、およびマイクロホンによるオーディオ信号の検出に先行して、マイクロホンがネットワークデバイスの上部に存在するようにネットワークデバイスを逆さまにひっくり返すようユーザに対して促してもよい。ネットワークデバイス、延いてはマイクロホンのこのような配向により、ネットワークデバイスのマイクロホンは、キャリブレーション中である1つまたは複数の再生デバイスにより再生されるキャリブレーショントーンの少なくとも一部分を含むオーディオ信号の最適な検出にとって適切に配向されうる。 Different network devices may have different microphone settings. In one example, if the network device microphone is at the bottom of the network device (relative to the normal direction of operation of the network device), the calibration interface may play calibration tones with one or more playback devices, and Prior to detection of the audio signal by the microphone, the user may be prompted to turn the network device upside down so that the microphone is on top of the network device. Due to this orientation of the network device, and hence the microphone, the microphone of the network device optimally detects an audio signal that includes at least a portion of the calibration tone that is played by the one or more playback devices being calibrated. Can be properly oriented.
ある例では、オーディオデータのサブセット内に表されるオーディオ信号成分のレベルが実質的に(または、大幅に)最小閾値より下がっているという決定が下されれば、不適切に配向されたネットワークデバイス(およびマイクロホン)を有するというエラー状態が識別されうる。例えば、ユーザは、直観的に、かつ/または誤って、マイクロホンをネットワークデバイスの標準的な動作方向に戻しているかもしれず、この場合、マイクロホンの配向は、キャリブレーション中である1つまたは複数の再生デバイスにより再生されるキャリブレーショントーンの少なくとも一部分を含むオーディオ信号の検出にとって最適ではないことがある。ある場合において、ネットワークデバイスの配向を決定するために、モーションセンサからの動きデータも使用されてもよい。したがって、ネットワークデバイスの配向が不適切であるというエラー状態は、代替的または追加的に、モーションセンサからの動きデータの少なくとも1つのサブセットに基づいて識別されてもよい。 In one example, an improperly oriented network device if a determination is made that the level of the audio signal component represented in the subset of audio data is substantially (or significantly) below a minimum threshold An error condition of having (and a microphone) can be identified. For example, the user may have intuitively and / or mistakenly returned the microphone to the standard operating direction of the network device, where the orientation of the microphone is one or more being calibrated. It may not be optimal for detection of an audio signal that includes at least a portion of a calibration tone that is played by a playback device. In some cases, motion data from motion sensors may also be used to determine the orientation of the network device. Thus, an error condition that the orientation of the network device is improper may alternatively or additionally be identified based on at least one subset of motion data from the motion sensor.
ネットワークデバイス(およびマイクロホン)の不適切な配向に加えて、部分的にでも塞がれたマイクロホンもまた、ネットワークデバイスを用いる1つまたは複数の再生デバイスのキャリブレーションの有効性に悪影響を及ぼすことがある。ある場合において、ネットワークデバイスの保護および/または装飾ケースは、マイクロホンの一部を塞ぐことがある。別の場合では、衣服からの糸くず、またはネットワークデバイスの通常の使用から生じる他の破片も、マイクロホンの一部を塞ぐことがある。 In addition to improper orientation of network devices (and microphones), partially blocked microphones can also adversely affect the effectiveness of calibration of one or more playback devices using network devices. is there. In some cases, the protective and / or decorative case of the network device may block part of the microphone. In other cases, lint from clothing or other debris resulting from normal use of the network device may also block a portion of the microphone.
ある例において、オーディオデータのサブセット内に表されるオーディオ信号成分が基準オーディオ信号とは実質的に異なるという決定が下されれば、マイクロホンが塞がれているというエラー状態が識別されうる。ある場合において、基準オーディオ信号は、キャリブレーショントーンを表すものであってもよい。例えば、基準オーディオ信号は、キャリブレーショントーンオーディオ信号をマイクロホンの周波数応答で重畳することによって生成されてもよい。ある場合において、オーディオデータのサブセットと基準オーディオ信号との間の実質的差異は、オーディオデータ内に表される、基準オーディオ信号に対して実質的に減衰されたオーディオ信号を含んでもよい。 In one example, if a determination is made that the audio signal component represented in the subset of audio data is substantially different from the reference audio signal, an error condition that the microphone is blocked can be identified. In some cases, the reference audio signal may represent a calibration tone. For example, the reference audio signal may be generated by superimposing a calibration tone audio signal with the frequency response of the microphone. In some cases, the substantial difference between the subset of audio data and the reference audio signal may include an audio signal that is substantially attenuated relative to the reference audio signal, represented in the audio data.
1つまたは複数の再生デバイスのキャリブレーションに使用されるネットワークデバイスは、通信デバイスとして使用されることもあり、よって、1つまたは複数の再生デバイスによるキャリブレーショントーンの再生中、およびネットワークデバイスのマイクロホンがオーディオ信号を検出している間に、ネットワークデバイスは、ローカルエリアネットワークおよび/またはセルラネットワーク上でメッセージを受信してもよく、かつオーディオ信号および/または振動の形式の通知を生成してもよい。オーディオおよび/または振動による通知もまた、1つまたは複数の再生デバイスのキャリブレーションの有効性に悪影響を及ぼすことがある。したがって、キャリブレーショントーンの再生およびオーディオ信号の検出中に、ネットワークデバイスが可聴または物理的な通知を生成したという決定が下されれば、対応するエラー状態が識別されうる。 A network device used for calibration of one or more playback devices may also be used as a communication device, so during calibration tone playback by one or more playback devices, and the microphone of the network device While detecting the audio signal, the network device may receive a message on the local area network and / or cellular network and generate a notification in the form of an audio signal and / or vibration. . Audio and / or vibration notifications can also adversely affect the effectiveness of calibration of one or more playback devices. Thus, if during a calibration tone playback and audio signal detection a determination is made that the network device has generated an audible or physical notification, a corresponding error condition can be identified.
先に指摘したように、1つまたは複数のエラー状態は、受信されるオーディオデータおよび動きデータの組み合わせに基づいて決定されてもよい。ある例において、ネットワークデバイスは、受信されるオーディオデータの1/4がSNR閾値を下回るSNRを示せば、キャリブレーションを中断するように構成されてもよい。ある場合において、先に論じたように、バックグラウンドノイズのレベルが高すぎることがある。 As pointed out above, the one or more error conditions may be determined based on a combination of received audio data and motion data. In one example, the network device may be configured to abort the calibration if 1/4 of the received audio data exhibits an SNR that is below the SNR threshold. In some cases, as discussed above, the level of background noise may be too high.
しかしながら、別の場合では、さらに、受信されるオーディオデータのこれらの1/4に対応する動きデータに基づいて、エラー状態を識別してもよい。例えば、受信されるオーディオデータの1/4に対応する動きデータの1/3が、所定の閾値を超える移動を示していれば、移動が速すぎるというエラー状態が決定されうる。この場合は、速すぎる移動により増大されるノイズ(移動によるマイクロホン上の風/通風)から、閾値以下のSNRが生じ得る。 However, in other cases, an error condition may be further identified based on motion data corresponding to these quarters of the received audio data. For example, if 1/3 of the motion data corresponding to 1/4 of the received audio data indicates a movement that exceeds a predetermined threshold, an error condition that the movement is too fast may be determined. In this case, an SNR below a threshold value can be generated from noise (wind / airflow on the microphone due to movement) that is increased by movement that is too fast.
別の例では、対応する動きデータが予期される閾値未満の移動速度を示しているにも関わらず、受信されるオーディオデータの1/4の3/4がSNR閾値を下回るSNRを示せば、バックグラウンドノイズが多すぎるというエラー状態が決定されてもよい。さらにこの場合、再生環境内のネットワークデバイスの移動が移動の閾値速度より速いが、受信されるオーディオデータのSNRがSNR閾値を超えたままであれば、キャリブレーションは続行を許容されてもよく、かつエラー状態は識別されなくてもよい。言い替えれば、この場合、受信されるオーディオ信号のSNRがSNR閾値を上回っている限り、エラー状態は、識別されない。しかしながら、受信されるオーディオデータの一部(即ち、先に論じたような1/4)のSNRがSNR閾値を下回っていれば、エラー状態がバックグラウンドノイズに関連するものか、速すぎる移動に関連するものかの決定は、動きデータに依存してもよい。例としては、これら以外のものも可能である。 In another example, if the corresponding motion data shows a moving speed below the expected threshold but 1/4 of the received audio data shows a SNR below the SNR threshold, An error condition where there is too much background noise may be determined. Furthermore, in this case, if the movement of the network device in the playback environment is faster than the threshold speed of movement, but the SNR of the received audio data remains above the SNR threshold, the calibration may be allowed to continue, and Error conditions may not be identified. In other words, in this case, an error condition is not identified as long as the SNR of the received audio signal is above the SNR threshold. However, if the SNR of a portion of the received audio data (i.e., 1/4 as discussed above) is below the SNR threshold, the error condition is related to background noise or too fast movement. The determination of whether it is relevant may depend on the motion data. Other examples are possible as examples.
エラー状態に関する上述の説明は、例示を目的とするものであって、限定を意図するものではない。一般的な当業者には、他の例も可能であることが認識されるであろう。例えば、ネットワークデバイスの移動に関連するエラー状態については、例えば、オーディオデータがキャリブレーション手順中の比較的短時間にわたって予め決められた閾値を下回った場合、1つまたは複数の再生デバイスとネットワークデバイスとの間に1点の家具またはユーザが存在するような特性が決定されてもよい。決定された前記特性がオーディオデータの少なくとも1つのサブセット内に存在すれば、このようなエラー状態が識別されうる。 The above description of error conditions is for illustrative purposes and is not intended to be limiting. One of ordinary skill in the art will recognize that other examples are possible. For example, for an error condition associated with movement of a network device, for example, if the audio data has fallen below a predetermined threshold for a relatively short time during the calibration procedure, one or more playback devices and network devices A characteristic may be determined such that there is a piece of furniture or a user in between. Such an error condition can be identified if the determined characteristic is present in at least one subset of the audio data.
さらに、上述の例は、1つまたは複数のエラー状態を、オーディオデータのサブセットが受信される間に、オーディオデータのサブセットに基づいて識別することを含んでいるが、一般的な当業者であれば、1つまたは複数のエラー状態が、オーディオデータの受信が完了した後に、受信された全てのオーディオデータに基づいて決定される代替実施形態も可能であることが認識されるであろう。例としては、これら以外のものも可能である。 Further, the above example includes identifying one or more error conditions based on the subset of audio data while the subset of audio data is received, although those of ordinary skill in the art. For example, it will be appreciated that alternative embodiments are possible in which one or more error conditions are determined based on all received audio data after reception of the audio data is complete. Other examples are possible as examples.
c.識別されたエラー状態に関連づけられるグラフィック表示の、グラフィックディスプレイ上への表示
ブロック506において、実装500は、識別されたエラー状態に関連づけられるグラフィック表示をグラフィックインタフェース上へ表示するステップを含む。図7は、エラー状態が識別されるとグラフィックインタフェース上へ表示されうる、再生デバイスキャリブレーションエラー状態の例示的なユーザインタフェース700を示す。図示のように、ユーザインタフェース700は、インタフェース700上の表示されたコンテンツが、リビングルームゾーンにおける1つまたは複数の再生デバイスに対応することを示すグラフィック表示702を含む。
c. Display of Graphical Display Associated with Identified Error Condition on Graphical Display In
ユーザインタフェース700は、識別されたエラー状態および/またはエラー状態を修正するための提案を記述するテキストメッセージを含むことができるグラフィック表示710をさらに含む。ユーザインタフェース700は、選択可能アイコン706および708をさらに含む。選択可能アイコン706が選択されて、キャリブレーションプロセスが再び試みられてもよく、かつ選択可能アイコン708が選択されて、キャリブレーションプロセスが終了してもよい。図示のように、グラフィック表示710は、図6のユーザインタフェース600のグラフィック表示604の一部または全ての灰色または淡色表示バージョンに重なってもよい。
ある例において、各エラー状態(即ち、予め決められた複数のエラー状態のうちの各々)は、グラフィック表示710内に提供されるべき対応するテキストメッセージを有してもよい。例えば、識別されたエラー状態が不十分な移動に関連するものであれば、テキストメッセージの例は、「良好な測定値を得るために、デバイスを必ずゆっくりと上下に動かし、部屋全体を歩いてください。動きを多くして、もう一度試してください」であってもよい。別の例において、識別されたエラー状態が速すぎる移動に関連するものであれば、テキストメッセージの例は、「移動が少し速すぎて、チューニングのための良好な測定値が得られませんでした。もう一度、今度は速度を落として動いてみてください」であってもよい。
In one example, each error condition (ie, each of a plurality of predetermined error conditions) may have a corresponding text message to be provided in the
ある例において、識別されたエラー状態が閾値レベルを上回るバックグラウンドノイズに関連するものであれば、テキストメッセージの例は、「チューニングのための良好な測定値が得られませんでした。バックグラウンドノイズを減らして、もう一度試してください」であってもよい。このような場合、グラフィック表示710は、ノイズメータの表示も含むことがあり、アイコン706を選択して再試行する前に、ユーザが再生環境内のバックグラウンドノイズのレベルが閾値レベルを下回って十分に低減しているかどうかをユーザで確認できるようにする。
In one example, if the identified error condition is related to background noise above a threshold level, the text message example says, “No good measurements for tuning. Background noise. Please try again. " In such a case, the
別の例において、識別されたエラー状態が塞がれたマイクロホンに関連するものであれば、テキストメッセージの例は、「デバイスにケースが付いていれば、取り外してください。マイクロホンが塞がっていないことも確認して、もう一度試してください」であってもよい。 In another example, if the identified error condition is related to a blocked microphone, the text message example should read "If the device has a case, remove it. The microphone is not blocked. Please check and try again. "
本明細書で論じているテキストメッセージの例は、単に例示を目的とするものであって、限定を意図するものではない。さらに、一般的な当業者には、他の例も可能であることが認識されるであろう。 The text message examples discussed herein are for illustrative purposes only and are not intended to be limiting. In addition, one of ordinary skill in the art will recognize that other examples are possible.
ある例では、オーディオデータの少なくとも1つのサブセットに基づいて複数のエラー状態が識別されてもよい。ある場合において、複数のエラー状態のうちの最も重大なエラー状態が識別されてもよく、かつ、この最も重大なエラー状態に対応するテキストメッセージがグラフィック表示710に表示されてもよい。別の場合では、複数のエラー状態のサブセット(即ち、最も重大な上位3つのエラー状態)が識別されてもよく、かつ複数のエラー状態のこのサブセットに対応するテキストメッセージがグラフィック表示710に表示されてもよい。さらに別の場合では、複数のエラー状態のうちの各々に対応するテキストメッセージが、グラフィック表示710に表示されてもよい。例としては、これら以外のものも可能である。
In some examples, multiple error conditions may be identified based on at least one subset of audio data. In some cases, the most severe error condition of the plurality of error conditions may be identified, and a text message corresponding to the most severe error condition may be displayed on the
IV.キャリブレーション中にマイクロホンの動きの有効性を確認する技術の例
先に指摘したように、1つまたは複数のエラー状態は、1つまたは複数の再生デバイスのキャリブレーションの有効性に悪影響を及ぼすことがある。このようなエラー状態には、キャリブレーション中のマイクロホンの不適切な動きが含まれる。不適切な動きには、1つまたは複数の次元における不十分な移動、ならびに過剰または不十分な移動速度が含まれ得る。
IV. Examples of techniques for validating microphone movement during calibration As pointed out above, one or more error conditions can adversely affect the calibration effectiveness of one or more playback devices. There is. Such error conditions include improper movement of the microphone during calibration. Inappropriate movement may include insufficient movement in one or more dimensions, as well as excessive or insufficient movement speed.
ある例において、1つまたは複数のエラー状態は、キャリブレーション周期中に(即ち、1つ以上の再生デバイスによるキャリブレーショントーンの再生中、および録音デバイスのマイクロホンによるオーディオ信号の検出中に)検出されうる。ある場合において、1つまたは複数の再生デバイスのキャリブレーションは、キャリブレーション持続時間全体にわたるキャリブレーショントーンの再生およびオーディオ信号の検出が完了した後ではなく、エラー状態が識別された時に中断されかつ/または終了されてもよい。 In one example, one or more error conditions are detected during a calibration period (ie, during playback of a calibration tone by one or more playback devices and during detection of an audio signal by a microphone of a recording device). sell. In some cases, the calibration of one or more playback devices is interrupted when an error condition is identified and / or after completion of calibration tone playback and audio signal detection over the entire calibration duration and / or Or it may be terminated.
図8は、所定のエラー状態の検出を容易にするための実装800の例を示すフロー図である。実装800は、例えば、図1のメディア再生システム100、図2の再生デバイス200のうちの1つ以上、および制御デバイス300のうちの1つ以上を含む動作環境内で実装されることが可能な技術の例を提示している。ある例において、実装800は、メディア再生システムと通信するコンピュータ装置によって完全に、または部分的に実行されてもよい。例えば、実装800は、図1の制御デバイス126および128のうちの一方またはそれ以上によって実行されてもよい。このような場合、制御デバイス126および128のうちの1つまたはそれ以上は、各制御デバイスに実装800の機能を実行させるように各制御デバイスのプロセッサにより実行可能な命令を含むソフトウェアアプリケーションをインストールしていてもよい。
FIG. 8 is a flow diagram illustrating an
実装800は、ブロック802〜808のうちの1つ以上によって示されるような1つまたは複数の操作、機能、または動作を含む。各ブロックは、順番に示されているが、これらのブロックは、並行して、かつ/または本明細書に記述しているものとは異なる順序でも実行されてもよい。また、様々なブロックは、所望される実装に基づいて、より少ないブロックに結合されてもよく、追加のブロックに分割されてもよく、かつ/または除去されてもよい。さらに、本明細書に開示している実装800および他のプロセスおよび方法について、本フローチャートは、本実施形態の単に幾つかの可能な実装の機能および動作を示している。この関連で、各ブロックが、プロセスにおける特定の論理機能またはステップを実施するためにプロセッサにより実行可能な1つまたは複数の命令を含む、モジュール、セグメント、またはプログラムコードの一部分を表してもよい。プログラムコードは、例えば、ディスクまたはハードドライブを含む記憶デバイス等のあらゆる種類のコンピュータ読み取り可能媒体に格納されてもよい。
コンピュータ読み取り可能媒体は、例えば、レジスタメモリ、プロセッサキャッシュおよびランダム・アクセス・メモリ(RAM)のようなデータを短時間記憶するコンピュータ読み取り可能媒体等の非一時的コンピュータ読み取り可能媒体を含んでもよい。コンピュータ読み取り可能媒体は、例えば、リード・オンリ・メモリ(ROM)、光ディスク、磁気ディスク、コンパクトディスク・リード・オンリ・メモリ(CD−ROM)のような二次記憶装置又は永続記憶装置等の非一時的な媒体も含んでもよい。また、コンピュータ読み取り可能媒体は、他の任意の揮発性または不揮発性の記憶システムであってもよい。コンピュータ読み取り可能媒体は、例えば、コンピュータ読み取り可能記憶媒体、または有形記憶デバイスとされてもよい。さらに、実装800および本明細書に開示している他のプロセスおよび方法に対して、各ブロックが、プロセスにおいて特有の論理機能を実行するように配線される回路を表してもよい。
Computer-readable media may include non-transitory computer-readable media such as computer-readable media that store data for a short period of time, such as register memory, processor cache, and random access memory (RAM). The computer readable medium is a non-temporary storage device such as a secondary storage device or a permanent storage device such as a read only memory (ROM), an optical disk, a magnetic disk, a compact disk read only memory (CD-ROM). A typical medium may also be included. The computer readable medium may also be any other volatile or non-volatile storage system. The computer readable medium may be, for example, a computer readable storage medium or a tangible storage device. Further, for
a.マイクロホンの移動を示す動きデータの受信
ブロック802において、実装800は、マイクロホンの移動を示す動きデータを受信するステップを含む。例えば、録音デバイスは、マイクロホンと、録音デバイスの移動を示すデータを生成する1つまたは複数のセンサ(例えば、加速度計、ジャイロスコープまたは慣性測定ユニット)とを含んでもよい。録音デバイスは、これらのセンサから動きデータを受信してもよい。あるいは、制御デバイスまたは再生デバイス等の処理デバイスは、録音デバイスから動きデータを受信してもよい。幾つかの場合において、録音デバイスは、制御デバイス(例えば、制御デバイス300)として実施されてもよく、これはまた、処理デバイスであってもよい。またさらに、幾つかの場合において、録音デバイスから離れているデバイス(例えば、再生デバイス)上のセンサは、録音デバイスの動きを追跡する、ビジョン(カメラ)、赤外線、またはレーザ追跡システム等の遠隔追跡システムを含んでもよい。
a. Receiving Motion Data Indicating Microphone Movement In
例えば、あるキャリブレーション手順の例において、録音デバイスは、1つまたは複数の再生デバイスがキャリブレーション音を放出しているという指示を受信することがある。このような指示は、他の例の中でもとりわけ、(おそらくはキャリブレーションインタフェース上に表示される)キャリブレーションを開始する選択可能な制御によって、または、再生デバイスがキャリブレーション音の放出を開始することを示す再生デバイスからのメッセージによって、受信されてもよい。キャリブレーション音が放出される間、録音デバイスは、マイクロホンを介してキャリブレーション音を検出し、かつキャリブレーション音を表すマイクロホンデータをデータ記憶装置に記録してもよい。 For example, in one example calibration procedure, the recording device may receive an indication that one or more playback devices are emitting a calibration sound. Such an indication, among other examples, indicates that a selectable control to initiate calibration (possibly displayed on the calibration interface) or that the playback device begins to emit a calibration sound. It may be received by a message from the playback device shown. While the calibration sound is emitted, the recording device may detect the calibration sound via the microphone and record microphone data representing the calibration sound in the data storage device.
同じくキャリブレーション音が放出される間、録音デバイスは、1つまたは複数のセンサ(例えば、加速度計、ジャイロスコープまたは慣性測定ユニット)に、マイクロホンがキャリブレーション音を検出している間のマイクロホンの移動を示す動きデータを生成させてもよい。先に述べたように、マイクロホンを含む録音デバイスは、1つまたは複数の再生デバイスをキャリブレーションするプロセスによってユーザを誘導するためのキャリブレーションインタフェースを提供するネットワークデバイスの一部であってもよい。別の例において、マイクロホンは、録音デバイスの外部にあって録音デバイスへ通信可能に結合されるマイクロホンであってもよい。センサは、マイクロホンと同じデバイス(例えば、録音/ネットワークデバイス)またはハウジング(例えば、録音デバイスへ結合されるマイクロホンハウジング)内に取り付けられてもよく、よって、センサにより検出される動きは、マイクロホンの動きを実質的に表す。本明細書における説明において、録音/ネットワークデバイスの物理的移動は、マイクロホンの同時的な物理的移動を引き起こしうる。 While the calibration sound is also emitted, the recording device can move one or more sensors (eg, accelerometer, gyroscope or inertial measurement unit) to move the microphone while the microphone detects the calibration sound. May be generated. As previously mentioned, a recording device that includes a microphone may be part of a network device that provides a calibration interface to guide the user through the process of calibrating one or more playback devices. In another example, the microphone may be a microphone external to the recording device and communicatively coupled to the recording device. The sensor may be mounted in the same device as the microphone (eg, a recording / network device) or housing (eg, a microphone housing coupled to the recording device), so that the movement detected by the sensor is the movement of the microphone. Is substantially represented. In the description herein, physical movement of the recording / network device may cause simultaneous physical movement of the microphone.
異なるセンサは、異なる種類の動きデータを生成できる。例えば、加速度計、ジャイロスコープまたは慣性測定ユニットは、加速度を表すデータを生成してもよい。このような加速度データは、3次元における加速度を含んでもよい。幾つかの例において、加速度データは、他の可能な例の中でもとりわけ、録音デバイスに対するユーザの加速度、ならびにキャリブレーションデバイスに対する重力加速度を示してもよい。 Different sensors can generate different types of motion data. For example, an accelerometer, gyroscope or inertial measurement unit may generate data representing acceleration. Such acceleration data may include acceleration in three dimensions. In some examples, the acceleration data may indicate the user's acceleration relative to the recording device, as well as the gravitational acceleration relative to the calibration device, among other possible examples.
マイクロホンは、動きデータも生成できる。例えば、キャリブレーション中の1つまたは複数の再生デバイス(およびおそらくは、キャリブレーション中ではないが録音デバイスの範囲にある他の再生デバイス)からのオーディオの伝播遅延は、各再生デバイスからマイクロホンまでの半径方向距離を示してもよい。このような半径方向距離は、キャリブレーション周期中のマイクロホン(およびおそらくは、録音デバイス自体)の動きに伴って、キャリブレーション周期にわたって変わってもよい。 The microphone can also generate motion data. For example, the propagation delay of audio from one or more playback devices being calibrated (and possibly other playback devices that are not being calibrated but are in the range of recording devices) is the radius from each playback device to the microphone. The direction distance may be indicated. Such radial distance may vary over the calibration period as the microphone (and possibly the recording device itself) moves during the calibration period.
例えば、ある例において、所定の再生デバイスにより放出されるキャリブレーション音は、一定の間隔で反復するチャープを含んでもよい。チャープが反復する間隔の僅かな変化がマイクロホンと再生デバイスとの間の変化する伝搬遅延を表し得るため、マイクロホンと所定の再生デバイスとの距離を決定するために、録音デバイスは、チャープが反復する間隔の変化を検出してもよい。幾つかの場合において、マイクロホンは、放出されたキャリブレーション音、およびこのキャリブレーション音の1つまたは複数の反射の双方を検出できることから、録音デバイスは、キャリブレーション音がリスニングエリア内での反射に伴って音の強さを失うという理由により、最大の音強度を有する(即ち、最も音が大きい)ものとして検出されたキャリブレーション音の例を識別してもよい。 For example, in one example, the calibration sound emitted by a given playback device may include a chirp that repeats at regular intervals. In order to determine the distance between the microphone and a given playback device, the recording device repeats the chirp because a slight change in the chirp repeat interval can represent a changing propagation delay between the microphone and the playback device. A change in the interval may be detected. In some cases, the microphone can detect both the emitted calibration sound and one or more reflections of this calibration sound, so that the recording device can reflect the calibration sound in the listening area. An example of a calibration sound detected as having the highest sound intensity (i.e., the loudest sound) may be identified because of the accompanying loss of sound intensity.
動きデータの中で、処理デバイスは、特定の次元における動きを示す1つまたは複数の成分を識別できる。例えば、動きデータの中で、処理デバイスは、他の可能性のある動きデータの中でもとりわけ、おそらくは重力に対する加速度データから、録音デバイスの垂直方向の移動を示す成分を識別してもよい。このような成分は、最終的に、垂直方向の、およびおそらくは1つまたは複数のさらなる次元における動きの有効性を確認するために使用されてもよい。別の例として、動きデータの中で、処理デバイスは、おそらくはマイクロホンと1つまたは複数の再生デバイスの各々との間の変化する伝搬遅延(および、変化する半径)を示すオーディオおよびタイミングデータから、録音デバイスによる1つまたは複数の再生デバイスからの半径方向の移動を示す成分を識別してもよい。 Within the motion data, the processing device can identify one or more components that exhibit motion in a particular dimension. For example, in the motion data, the processing device may identify a component indicative of vertical movement of the recording device, possibly from acceleration data relative to gravity, among other possible motion data. Such components may ultimately be used to confirm the validity of the movement in the vertical direction and possibly in one or more additional dimensions. As another example, in the motion data, the processing device may possibly be from audio and timing data indicating a changing propagation delay (and changing radius) between the microphone and each of the one or more playback devices, Components that indicate radial movement from the one or more playback devices by the recording device may be identified.
成分を識別することは、受信される動きデータを統合して他の種類の動きデータを決定することを含んでもよい。例えば、重力に対する加速度データは、重力に対する(例えば、上向きおよび下向きの)速度を決定するために統合されてもよく、かつ距離を決定するために統合されてもよい。あるキャリブレーション手順の例が、キャリブレーション周期中にマイクロホンを上下に動かすことを提案するものとすれば、このような移動は、マイクロホンがキャリブレーション手順毎に動かされることを条件に、重力(即ち垂直)に対して略正弦曲線的であり得る。逆に、キャリブレーション手順中にマイクロホンが動かされなければ、移動データは、キャリブレーション周期にわたって垂直方向の変化がほとんどないことを表す平坦な曲線を示してもよい。 Identifying the components may include integrating the received motion data to determine other types of motion data. For example, acceleration data for gravity may be integrated to determine velocity (eg, upward and downward) with respect to gravity and may be integrated to determine distance. If an example calibration procedure suggests moving the microphone up and down during the calibration period, such movement is subject to gravity (ie, subject to the microphone being moved from one calibration procedure to another). It can be approximately sinusoidal to (vertical). Conversely, if the microphone is not moved during the calibration procedure, the movement data may show a flat curve representing little vertical change over the calibration period.
キャリブレーション中の録音デバイスの移動を示すために、図9に、図1のメディア再生システム100を示す。図9は、経路900を示している。録音デバイス(例えば、制御デバイス126)は、キャリブレーション中に、経路900に沿って移動する場合もある。先に述べたように、制御デバイスは、このような移動をどのように実行するかを、他の例の中でもとりわけ映像またはアニメーション等による様々な方法で示してもよい。この経路は、移動を水平面において示しているが、一部のキャリブレーション手順の例により企図される移動は、(例えば、ユーザがマイクロホンを持ったまま腕を上下に動かすことによる)垂直の動きを含んでもよい。
To illustrate the movement of the recording device during calibration, FIG. 9 shows the
幾つかの実施形態において、制御デバイス126は、再生デバイス(例えば、再生デバイス108)により放出されるキャリブレーション信号を、経路に沿った様々な点(例えば、他の点の中でもとりわけ、点902および/または点904)で検出してもよい。あるいは、制御デバイスは、キャリブレーション信号を経路に沿って記録してもよい。幾つかの実施形態において、再生デバイスが経路に沿った異なる点でキャリブレーション信号のインスタンスを記録するように、再生デバイスは周期的なキャリブレーション信号を再生(または、おそらくは、同じキャリブレーション信号を反復)してもよい。このような記録の比較は、音響特性が環境内の物理的場所毎にどのように変わるかを示してもよい。これは、その環境における再生デバイス用に選ばれるキャリブレーション設定に影響を及ぼす。
In some embodiments, the
図10Aは、プロット1002Aを含むグラフ1000Aを示す。プロット1002Aは、例示的なキャリブレーション手順の第1のインスタンスにおける例示的な垂直動きデータを表す。図示のように、マイクロホンの垂直高さは、経時的にほぼ正弦曲線的に変わる。これは、ユーザがキャリブレーション手順の第1のインスタンスの間にマイクロホンを上下に動かすことに一致するものと思われる。
FIG. 10A shows a
図10Bは、プロット1002Bを含むグラフ1000Bを示す。プロット1002Bは、例示的なキャリブレーション手順の第1のインスタンスにおける例示的な垂直動きデータを表す。図示のように、マイクロホンの垂直高さは、経時的にほぼ同じである。これは、ユーザがキャリブレーション手順の第2のインスタンスの間にマイクロホンを一定の高さに保つことに一致するものと思われる。
FIG. 10B shows a graph 1000B that includes a
幾つかの例において、再生デバイスにより放出されるキャリブレーション音は、周期的である。例えば、ある所定の再生デバイスは、キャリブレーショントーンを繰り返し放出してもよい。キャリブレーショントーンの各周期または反復は、(マイクロホンが動いているとすると)異なる位置からのリスニングエリアの応答を表すサンプルに一致し得る。幾つかの例において、録音デバイスは、サンプルをグループで受信してもよく、これは、フレームと称されてもよい。各フレームは、各フレームが、マイクロホンによってキャリブレーショントーンの所定の反復が検出されていた間のマイクロホンの動きを表すような、キャリブレーショントーンの周期または反復に対応してもよい。 In some examples, the calibration sound emitted by the playback device is periodic. For example, a given playback device may repeatedly emit calibration tones. Each period or repetition of the calibration tone may correspond to a sample representing the response of the listening area from a different location (assuming the microphone is moving). In some examples, the recording device may receive the samples in groups, which may be referred to as a frame. Each frame may correspond to a period or repetition of the calibration tone such that each frame represents the movement of the microphone while a predetermined repetition of the calibration tone was detected by the microphone.
キャリブレーション音の反復例を示すために、図11は、ある例示的なキャリブレーション音の反復の一例(例えば、周期またはサイクル)を示す。この反復は、フレーム1100として表されている。フレーム1100は、掃引信号成分1102と、ノイズ成分1104とを含む。掃引信号成分1102は、下向きの傾斜線として示されていて、キャリブレーション範囲(例えば、再生デバイスがキャリブレーションされるべき周波数の範囲)の周波数にわたって下降する掃引信号を示している。ノイズ成分1104は、1つの領域として示されていて、フレーム1100全体にわたる低周波ノイズを示している。図示のように、掃引信号成分1102およびノイズ成分は、遷移周波数範囲において重なっているが、これは、両成分間の急激な遷移によって不快な音が生じることを防止できる。キャリブレーション音の周期1106は、音の略3/8(例えば、1/4〜1/2秒の範囲内)であるが、これは、実装によっては、単一チャネルのキャリブレーション周波数範囲をカバーするに足る時間である。フレーム1100内のキャリブレーション音は、複数の成分を含むことから、ハイブリッドキャリブレーション音と呼ばれることがある。ハイブリッドキャリブレーション音は、ある範囲のキャリブレーション周波数をカバーする上で様々な利点を有する。
To illustrate a calibration sound iteration example, FIG. 11 shows an example calibration sound iteration example (eg, period or cycle). This iteration is represented as
図12は、周期的なキャリブレーション音1200の例を示す。ハイブリッドキャリブレーション音1100の5つの反復(例えば、周期)が、フレーム1202、1204、1206、1208および1210として表されている。各反復またはフレームにおいて、周期的なキャリブレーション音1200は、2つの成分(例えば、ノイズ成分および掃引信号成分)を用いてキャリブレーション周波数範囲をカバーする。あるキャリブレーション周期の間、録音デバイスは、これらのキャリブレーションフレームを記録し、かつフレーム1202、1204、1206、1208および1210が再生デバイスにより放出されかつマイクロホンにより検出される間に生じる動きに対応する動きデータの各フレームも受信してもよい。幾つかの例において、録音デバイスは、これらの動きデータのフレームを、これらがセンサにより発生されるにつれて受信してもよい。あるいは、デバイスは、他の例の中でもとりわけ、センサからサンプルのデータストリームを受信しても、キャリブレーション周期の後に動きデータを受信してもよい。
FIG. 12 shows an example of a
b.キャリブレーション周期中におけるマイクロホンの動きの有効性の確認
ブロック804において、実装800は、キャリブレーション周期中のマイクロホンの動きの有効性を確認するステップを含む。マイクロホンの動きの有効性を確認するステップは、キャリブレーション周期中、再生デバイスがキャリブレーション音を放出していた間にマイクロホンの十分な移動が生じたかどうかを決定することを含んでもよい。例において、処理デバイスは、1つまたは複数の方向(例えば、垂直、水平または半径方向)における移動の有効性を確認してもよい。また、処理デバイスは、動きの有効性の確認を、マイクロホンの速度が閾値の限度内であったかどうかを決定することによって行ってもよい。動きの有効性の確認は、他の種類も企図されている。
b. Checking the validity of microphone movement during the calibration period In
マイクロホンが十分な垂直の動きを経験したという決定によって、垂直の動きの有効性を確認するために、処理デバイスは、キャリブレーション周期中のマイクロホンの動きを表す1つまたは複数の垂直動きパラメータを決定してもよい。先に述べたように、処理デバイスは、動きデータの垂直方向成分(例えば、プロット1002Aおよび1002Bにより表される例示的な動きデータ)を識別してもよい。このような成分は、マイクロホンの垂直振動またはおそらくは垂直方向の線形的な動きを識別してもよい。処理デバイスは、識別される成分から定数(即ち、垂直動きパラメータ)を推測することができる。このようなパラメータは、他の例の中でもとりわけ、垂直方向の動きデータの平均(例えば、垂直振動の二乗平均平方根(RMS)値)または垂直方向の線形振動の時間平均を含んでもよい。
In order to confirm the validity of the vertical movement by determining that the microphone has experienced sufficient vertical movement, the processing device determines one or more vertical movement parameters representing the movement of the microphone during the calibration period. May be. As noted above, the processing device may identify vertical components of motion data (eg, exemplary motion data represented by
処理デバイスは、垂直動きパラメータが垂直動き閾値を超えると決定することによって、キャリブレーション周期中に制御デバイスの十分な垂直移動が生じたと決定することができる。垂直動き閾値は、所定量の垂直動き(即ち、品質オーディオキャリブレーションデータにとって十分であると決定される動き)に相当する値に設定されてもよい。例えば、このような閾値は、キャリブレーション周期のかなりの部分(例えば、75%以上)にわたるマイクロホンによる数フィート(人の典型的な腕の長さに一致)の範囲内の上下の移動の平均に一致するように設定されてもよい。別の例として、閾値は、キャリブレーション周期中の所定数の垂直振動に対応してもよい。幾つかの実施形態において、垂直動き閾値は、大多数のキャリブレーション周期における垂直の動きの特徴である。処理デバイスは、このようなパラメータを、半径方向または水平方向等の他の次元の動きについても決定してもよい。 The processing device can determine that sufficient vertical movement of the control device has occurred during the calibration period by determining that the vertical motion parameter exceeds the vertical motion threshold. The vertical motion threshold may be set to a value corresponding to a predetermined amount of vertical motion (ie, motion determined to be sufficient for quality audio calibration data). For example, such a threshold is an average of up and down movement within a few feet (matching a typical arm length of a person) by a microphone over a significant portion of the calibration period (eg, 75% or more). It may be set to match. As another example, the threshold may correspond to a predetermined number of vertical vibrations during the calibration period. In some embodiments, the vertical motion threshold is a feature of vertical motion in the majority of calibration periods. The processing device may also determine such parameters for other dimensions of movement, such as radial or horizontal.
動作中、動きパラメータは、キャリブレーション周期中またはキャリブレーション周期後の1つまたは複数の点のうちのいずれかにおいて決定され、かつおそらくは決定し直されてもよい。例えば、垂直動きパラメータは、キャリブレーション周期を通して連続的または離散的に更新されてもよい。幾つかの実施形態において、処理デバイスは、動きデータの1つまたは複数の追加フレームを受信した時点で、パラメータを繰り返し更新してもよい。 In operation, motion parameters may be determined and possibly re-determined at one or more points during or after the calibration cycle. For example, the vertical motion parameters may be updated continuously or discretely throughout the calibration period. In some embodiments, the processing device may repeatedly update the parameters upon receipt of one or more additional frames of motion data.
状況によっては、処理デバイスは、垂直動きパラメータ(および/または他の方向の動きを表す他のパラメータ)の決定に際して、キャリブレーション周期の全てについては考察しないことがある。例えば、ユーザは、再生デバイスがキャリブレーション音を放出し始めても、すぐにはマイクロホンを動かし始めない場合もあり得ることから、処理デバイスは、垂直動きパラメータの有効性の確認をキャリブレーション周期途中のある時点(例えば、キャリブレーション周期の1/4が経過した後)で開始してもよい。別の例として、処理デバイスは、マイクロホンがキャリブレーション周期途中のある点で所定の方向の動きを十分に経験したと決定すれば、動きパラメータの決定に際してさらなる動きデータを考慮しない場合もある。さらなる例として、処理デバイスは、キャリブレーションの途中で動きが有効であり得ないと決定すれば、測定を中止してもよい。 In some situations, the processing device may not consider all of the calibration periods when determining vertical motion parameters (and / or other parameters that represent motion in other directions). For example, the processing device may check the validity of the vertical motion parameter during the calibration cycle because the user may not immediately start moving the microphone even if the playback device begins to emit a calibration sound. You may start at a certain time (for example, after 1/4 of the calibration period has elapsed). As another example, if the processing device determines that the microphone has sufficiently experienced movement in a given direction at some point during the calibration period, it may not consider further motion data in determining the motion parameters. As a further example, if the processing device determines that the motion cannot be valid during calibration, the processing device may abort the measurement.
先に述べたように、処理デバイスは、半径方向の動きに関する動きパラメータを決定してもよく、処理デバイスは、これを用いて再生デバイスに対するマイクロホンの半径方向の動きの有効性を確認してもよい。例において、処理デバイスは、キャリブレーション周期中のマイクロホンからの半径方向距離の合計または平均変化を示す動きパラメータを決定してもよい。このパラメータが閾値を超えるものとすると、処理デバイスは、マイクロホンの十分な半径方向の動きが生じたと決定してもよい。先に指摘したように、マイクロホンと再生デバイスとの半径方向距離を示す動きデータは、再生デバイスとマイクロホンとの間の伝播遅延を測定することによって生成されてもよい。 As mentioned earlier, the processing device may determine motion parameters for radial motion, which may be used by the processing device to confirm the effectiveness of the microphone radial motion relative to the playback device. Good. In an example, the processing device may determine a motion parameter that indicates a total or average change in radial distance from the microphone during the calibration period. If this parameter exceeds the threshold, the processing device may determine that sufficient radial movement of the microphone has occurred. As pointed out above, motion data indicative of the radial distance between the microphone and the playback device may be generated by measuring the propagation delay between the playback device and the microphone.
幾つかの例において、処理デバイスは、別の方向の動き(例えば、リスニングエリアを横切る水平方向の動き)の有効性を、必ずしもその測定平面における動きを直接表す動きデータを用いることなく、確認できる。例えば、処理デバイスは、録音デバイスのリスニングエリア内における水平方向の動きを、録音デバイスの垂直方向および半径方向の動きを示す動きデータを用いて決定してもよい。幾つかの場合において、このようなデータは、水平方向の動きデータより比較的容易に取得されうる。しかしながら、リスニングエリアを横切る水平面における十分な動きを用いるキャリブレーションは、このような動きによらないキャリブレーションより比較的有用であり得る。 In some examples, the processing device can confirm the effectiveness of another direction of movement (eg, horizontal movement across the listening area) without necessarily using movement data that directly represents movement in its measurement plane. . For example, the processing device may determine horizontal movement within the listening area of the recording device using movement data indicating vertical and radial movement of the recording device. In some cases, such data can be obtained relatively easily from horizontal motion data. However, calibration with sufficient movement in the horizontal plane across the listening area may be more useful than calibration without such movement.
録音デバイスの水平方向の動きを表す1つまたは複数の水平動きパラメータを決定するために、処理デバイスは、制御デバイスの垂直方向の移動を示す動きデータの第1の成分と、制御デバイスの1つまたは複数の再生デバイスからの半径方向の移動を示す動きデータの第2の成分とを相互相関してもよい。2方向における重大な動きを所与として、各方向の動きを示す動きデータが密に相関する可能性は低い。しかしながら、重大な動きが一方向のみ存在すれば(または、どの方向にも全くなければ)、各方向の動きを示す動きデータは、密に相関する可能性が高い。したがって、相対相関する垂直および半径方向の動きは、水平方向の移動が比較的少ないことを示し得る。逆に、相対相関のない垂直および半径方向の動きは、相対的に多い水平方向の移動を示し得る。 In order to determine one or more horizontal motion parameters representing the horizontal movement of the recording device, the processing device includes a first component of motion data indicative of the vertical movement of the control device and one of the control devices. Alternatively, the second component of the motion data indicating radial movement from a plurality of playback devices may be cross-correlated. Given significant motion in two directions, it is unlikely that motion data indicating motion in each direction is closely correlated. However, if there is significant motion in only one direction (or none in any direction), motion data indicating motion in each direction is likely to be closely correlated. Thus, relative correlated vertical and radial movements may indicate relatively little horizontal movement. Conversely, vertical and radial movement without relative correlation may indicate relatively much horizontal movement.
他の次元における動きデータの相互相関によって水平方向の移動の有効性を確認するために、処理デバイスは、相互相関に適する動きデータを取得してもよい。例えば、ある例において、処理デバイスは、キャリブレーション周期にわたる連続的な半径方向の動き測定値(例えば、マイクロホンと再生デバイスとの各距離を示す離散サンプル)、およびキャリブレーション周期にわたる連続的な動き測定値(例えば、垂直移動を示す離散サンプル)を受信する。あるいは、処理デバイスは、キャリブレーション周期の少なくとも一部にわたって重なり合う測定値を受信してもよい。 In order to confirm the effectiveness of horizontal movement by cross-correlation of motion data in other dimensions, the processing device may obtain motion data suitable for cross-correlation. For example, in one example, the processing device may have continuous radial motion measurements over a calibration period (eg, discrete samples indicating each distance between the microphone and the playback device), and continuous motion measurements over the calibration period. A value (eg, a discrete sample that indicates vertical movement) is received. Alternatively, the processing device may receive measurements that overlap over at least a portion of the calibration period.
幾つかの例において、これらの測定値は、相互相関を容易にするように準備されてもよい。例えば、測定値は、同じ時間期間(即ち、同じ動きであるが方向が異なる)を表すようにトリミングされてもよい。さらに、測定値は、各測定におけるサンプル数が一致するようにアップサンプリングされても、ダウンサンプリングされてもよい。また、相互相関をさらに容易にするために、処理デバイスは、おそらくは各データセットの平均をそのデータセット内の全ての値から減算することによって、測定データセットを同じ値(例えば、0)のまわりに集中させてもよい。またさらに、処理デバイスは、測定データセットを互いに対して、各データセットの特定の最大値(例えば、1)にスケーリングすることによって正規化してもよい。センサエラー(例えば、スパイク)および他の非測定アーティファクトを説明するために、データは、このようなアーティファクトを除去するためにフィルタリングされてもよい。相互相関は、代替的または追加的な処理によってさらに容易にされうる。 In some examples, these measurements may be prepared to facilitate cross-correlation. For example, the measurements may be trimmed to represent the same time period (ie, the same movement but different direction). Furthermore, the measurement values may be up-sampled or down-sampled so that the number of samples in each measurement matches. Also, to further facilitate cross-correlation, the processing device may cause the measurement data set to be around the same value (eg, 0), perhaps by subtracting the average of each data set from all values in that data set. You may concentrate on. Still further, the processing device may normalize the measurement data sets relative to each other by scaling to a specific maximum value (eg, 1) for each data set. In order to account for sensor errors (eg, spikes) and other non-measurement artifacts, the data may be filtered to remove such artifacts. Cross-correlation can be further facilitated by alternative or additional processing.
2つの次元(例えば、垂直および半径方向)の測定値を取得した後、処理デバイスは、2つのデータセットを相互相関させて、相関定数(即ち、水平動きパラメータ)を決定してもよい。相互相関は、2つの級数(例えば、測定値)の類似性の、一方の他方に対する遅れの関数としての尺度である。比較的高い相関定数は、データセットが密に相関していることを示す。データセットが各方向の動きデータである場合、比較的高い相関定数は、第3の次元における比較的少ない動きを示す。逆に、比較的低い相関定数は、データセット間に十分な相関性がないことから、第3の次元において比較的多くの動きが生じたことを示す。水平の動きの有効性を確認するために、処理デバイスは、水平動きパラメータが相関閾値を超えているかどうかを決定してもよい。相関閾値は、リスニング環境内における十分な水平方向移動(例えば、閾値距離にわたるおよび/または閾値持続時間にわたる水平方向移動)を示す値に設定されてもよい。 After obtaining measurements in two dimensions (eg, vertical and radial), the processing device may cross-correlate the two data sets to determine a correlation constant (ie, a horizontal motion parameter). Cross-correlation is a measure of the similarity of two series (eg, measurements) as a function of delay relative to one other. A relatively high correlation constant indicates that the data set is closely correlated. If the data set is motion data in each direction, a relatively high correlation constant indicates relatively little motion in the third dimension. Conversely, a relatively low correlation constant indicates that there is relatively much movement in the third dimension because there is not enough correlation between the data sets. In order to verify the validity of the horizontal motion, the processing device may determine whether the horizontal motion parameter exceeds a correlation threshold. The correlation threshold may be set to a value that indicates sufficient horizontal movement within the listening environment (eg, horizontal movement over a threshold distance and / or over a threshold duration).
相互相関を示すために、図13Aおよび図13Bは、相関グラフの例を示す。図13Aは、相関性の強い例示的な垂直動きデータ1302A、および例示的な半径方向動きデータ1304Aを示すプロット1300Aを含む。この例において、キャリブレーションプロセスを実行するユーザは、録音デバイスを上下へと垂直に動かす間、じっと立っていた(または、ほとんど動かなかった)ものと思われ、よって、録音デバイスの垂直の動きによって密接に変わる半径方向変位が発生する。
To show the cross-correlation, FIGS. 13A and 13B show examples of correlation graphs. FIG. 13A includes a
図13Bは、相関性の強い例示的な垂直動きデータ1302B、および例示的な半径方向動きデータ1304Bを示すプロット1300Bを含む。この例では、ユーザは、録音デバイスを上下に動かしながらリスニングエリアを歩き回っていたと思われ、よって、垂直の動きと半径方向変位との間のより緩やかな相関が生じる。このプロットにおいて、半径方向動きデータ1304Bの動き平均の傾きは、キャリブレーション周期にわたって生じた水平移動と直に相関される。
FIG. 13B includes a
幾つかの場合において、処理デバイスは、1つまたは複数の次元における複数の測定値を受信してもよい。ある例では、複数の再生デバイスが、複数の半径方向の測定データセット(例えば、マイクロホンに対する各再生デバイス毎に1つのデータセット)を生成できる同時キャリブレーションを受けていてもよい。処理デバイスは、第1の測定平面(例えば、垂直平面)におけるデータと、第2の測定平面(例えば、半径方向平面)における複数のデータセットとを相互相関することによって、複数のデータセットの各水平動きパラメータ(例えば、相関定数)を決定してもよい。リスニングエリアにわたって十分な水平方向移動が生じたかどうかを決定するために、処理デバイスは、水平動きパラメータを閾値と比較してもよく、かつ処理デバイスは、水平動きパラメータを水平動き相関閾値と比較してもよい。 In some cases, the processing device may receive multiple measurements in one or more dimensions. In one example, multiple playback devices may be subjected to simultaneous calibration that can generate multiple radial measurement data sets (eg, one data set for each playback device for a microphone). The processing device cross-correlates the data in the first measurement plane (eg, vertical plane) and the plurality of data sets in the second measurement plane (eg, radial plane), thereby each of the plurality of data sets. A horizontal motion parameter (eg, a correlation constant) may be determined. To determine whether sufficient horizontal movement has occurred across the listening area, the processing device may compare the horizontal motion parameter to a threshold value, and the processing device may compare the horizontal motion parameter to a horizontal motion correlation threshold value. May be.
マイクロホンの動きの有効性を確認することは、キャリブレーション周期中のマイクロホンの速度の有効性を確認することを含んでもよい。過度の速度は、おそらくは検出されるキャリブレーション音内にドップラーシフトを生成することによってキャリブレーションを妨害することがあり、これにより、キャリブレーショントーンの各反復間に重なり合いが引き起される。速度の有効性を確認するために、処理デバイスは、動きデータが、キャリブレーション周期中の制御デバイスの速度が速度閾値(例えば、特定のメートル限度/秒)を超えていなかったことを示していると、決定してもよい。さらに、遅すぎる移動は、このような遅い速度が不十分な移動に寄与し、かつ/またはサンプルが同じ物理的場所を表すことに繋がり得るという理由で、やはり理想的なキャリブレーションとはなり得ない。 Checking the validity of the microphone movement may include checking the validity of the speed of the microphone during the calibration period. Excessive velocity can interfere with calibration, possibly by creating a Doppler shift in the detected calibration sound, which causes an overlap between each iteration of the calibration tone. To confirm the validity of the speed, the processing device indicates that the motion data indicates that the speed of the control device during the calibration period did not exceed a speed threshold (eg, a specific meter limit / second) You may decide. Furthermore, movements that are too slow can still be an ideal calibration because such slow speeds contribute to insufficient movement and / or can lead to the sample representing the same physical location. Absent.
例えば、先に述べたように、処理デバイスは、キャリブレーション周期中のマイクロホンの加速度を示す動きデータを受信してもよい。加速度が環境に対する移動を示すことを考慮すると、処理デバイスは、この加速度を積分して速度を決定してもよく、速度は、次に、スカラ速度に変換されてもよい。しかしながら、所定のセンサがマイクロホンへ結合されることを考慮すると、このようなセンサにより検出される加速度は、環境内における動きを直には示さない場合もある。しかし、このような加速度データは、リスニングエリア内における速度を決定するために使用されてもよい。 For example, as described above, the processing device may receive motion data indicating the acceleration of the microphone during the calibration period. Given that the acceleration indicates movement relative to the environment, the processing device may integrate this acceleration to determine the velocity, which may then be converted to a scalar velocity. However, given that a given sensor is coupled to a microphone, the acceleration detected by such a sensor may not directly indicate movement in the environment. However, such acceleration data may be used to determine the velocity within the listening area.
ある例において、処理デバイスは、加速度を示す複数のデータストリームを含むセンサデータを受信してもよい。例えば、処理デバイスは、制御デバイスに対するユーザ加速度を示す第1のデータストリームと、制御デバイスに対する重力加速度を示す第2のデータストリームとを受信してもよい。重力に対するユーザ加速度を決定するために、処理デバイスは、第1のデータストリームと第2のデータストリームとの積(例えば、ドット積)を決定してもよい。このような計算は、重力に対するユーザ加速度を示す第3のデータストリームを生成する。キャリブレーション中のマイクロホンの速度の決定を容易にするために、処理デバイスは、第3のデータストリームの積分を決定して、マイクロホンの3次元速度を示す第4のデータストリームを生成してもよい。 In one example, the processing device may receive sensor data that includes multiple data streams indicative of acceleration. For example, the processing device may receive a first data stream indicating user acceleration for the control device and a second data stream indicating gravitational acceleration for the control device. In order to determine user acceleration with respect to gravity, the processing device may determine a product (eg, a dot product) of the first data stream and the second data stream. Such a calculation generates a third data stream indicating user acceleration with respect to gravity. To facilitate the determination of the speed of the microphone during calibration, the processing device may determine an integration of the third data stream to generate a fourth data stream indicative of the three-dimensional speed of the microphone. .
速度の有効性を確認するために、処理デバイスは、第4のデータストリームを速度スカラに変換してもよい。このような変換は、処理デバイスがマイクロホンの3次元速度を示すサンプルの各大きさを計算して、キャリブレーション周期中のマイクロホンのスカラ速度を示す第5のデータストリームを生成することを含んでもよい。処理デバイスは、次に、速度データポイントが速度閾値を超えていない(または、持続時間閾値を超えて速度閾値を超えなかった)と決定することにより、キャリブレーション周期中の速度の有効性を確認してもよい。 To confirm the validity of the speed, the processing device may convert the fourth data stream to a speed scalar. Such a conversion may include the processing device calculating each sample size indicative of the three-dimensional velocity of the microphone to generate a fifth data stream indicative of the scalar velocity of the microphone during the calibration period. . The processing device then validates the speed during the calibration cycle by determining that the speed data point does not exceed the speed threshold (or exceeds the duration threshold and does not exceed the speed threshold). May be.
c.キャリブレーション周期中におけるマイクロホンの動きが有効であったことを示すメッセージの送信
図8のブロック806において、実装800は、キャリブレーション周期中のマイクロホンの動きが有効であったことを示すメッセージを送信するステップを含む。例えば、録音デバイスは、キャリブレーション中の1つまたは複数の再生デバイスへ、キャリブレーションが有効であったことを示すメッセージを送信してもよい。このようなメッセージは、他の例の中でもとりわけ、キャリブレーション周期中に制御デバイスの十分な移動が生じたこと、キャリブレーション周期中に制御デバイスの十分な垂直移動が生じたこと、キャリブレーション周期中に制御デバイスの十分な半径方向移動が生じたこと、および/または、制御デバイスの十分な移動が速度閾値を超えなかったことを示してもよい。
c. Sending a message indicating that the movement of the microphone during the calibration period was valid In
再生デバイスがキャリブレーション区間中にキャリブレーション音を放出した後、キャリブレーション音の記録は、再生デバイスのキャリブレーション設定を決定するために分析されてもよい。幾つかの実施形態において、録音デバイスは、キャリブレーション音自体を分析してもよい。あるいは、録音デバイスは、記録(またはその一部)を別のコンピューティングシステム(おそらくは、パーソナルコンピュータまたはサーバ(例えば、クラウド・コンピューティング・サービスの提供に関与するサーバ)等のより多い処理能力を有するコンピューティングシステム)へ送信してもよい。分析の間、録音デバイス(または他のコンピューティングシステム)は、再生デバイスのキャリブレーションプロファイルを決定してもよい。再生デバイスに適用される場合、このようなキャリブレーションプロファイルは、再生デバイスを所望される等化(例えば、平坦な応答)へ、またはおそらくは所望される等化(例えば、所定の種類の音楽のための等化)により調整される平坦な応答へとキャリブレーションするように、環境の音響特性を補ってもよい。 After the playback device emits a calibration sound during the calibration interval, the recording of the calibration sound may be analyzed to determine the calibration settings of the playback device. In some embodiments, the recording device may analyze the calibration sound itself. Alternatively, the recording device has more processing power, such as recording (or part thereof) another computing system (probably a personal computer or server (eg, a server involved in providing a cloud computing service)) To a computing system). During analysis, the recording device (or other computing system) may determine a calibration profile for the playback device. When applied to a playback device, such a calibration profile allows the playback device to achieve the desired equalization (eg, flat response), or perhaps the desired equalization (eg, for a given type of music). The acoustic properties of the environment may be supplemented to calibrate to a flat response adjusted by (equalization).
このような記録を分析するための幾つかの技術の例は、2012年6月28日に出願された「System and Method for Device Playback Calibration」と題する米国特許出願第13/536,493号明細書、2014年3月17日に出願された「Audio Settings Based On Environment」と題する米国特許出願第14/216,306号明細書、および2014年9月9日に出願された「Playback Device Calibration」と題する米国特許出願第14/481,511号明細書に記載されており、その全体が本明細書に参考として組み込まれる。幾つかの例において、キャリブレーション周期中に制御デバイスの十分な移動が生じたことを示すメッセージを送信することは、再生デバイスに、決定されたキャリブレーションプロファイルを用いてキャリブレーションするように指示するメッセージを送信することを含んでもよい。このようなキャリブレーションプロファイルを送信することにより、デバイスは、キャリブレーションが成功したことを(および、キャリブレーションの決定に使用された動きが有効であったことも)示してもよい。動きの有効性が確認されなかった幾つかの場合において、キャリブレーションが再生デバイスへ送信されない場合もある。 Examples of some techniques for analyzing such records are described in US patent application Ser. No. 13 / 536,493, filed Jun. 28, 2012, entitled “System and Method for Device Playback Calibration”. , US patent application Ser. No. 14 / 216,306 entitled “Audio Settings Based On Environment” filed Mar. 17, 2014, and “Playback Device Calibration” filed Sep. 9, 2014. No. 14 / 481,511, which is hereby incorporated by reference in its entirety. In some examples, sending a message indicating that sufficient movement of the control device has occurred during the calibration period instructs the playback device to calibrate using the determined calibration profile. It may include sending a message. By sending such a calibration profile, the device may indicate that the calibration was successful (and that the movement used to determine the calibration was valid). In some cases where the validity of the movement has not been confirmed, the calibration may not be sent to the playback device.
幾つかの場合において、デバイス(例えば、録音デバイス)は、動きの有効性確認のステータスをグラフィックインタフェース上に示してもよい。図14は、マイクロホンの動きの有効性が確認されたときにグラフィックインタフェース上へ表示される場合もある、例示的な再生デバイスキャリブレーションユーザインタフェース1400を示す。図示のように、ユーザインタフェース1400は、インタフェース1400上に表示されたコンテンツが、リビングルームゾーン(例えば、メディア再生システム100のリビングルームゾーン)における1つまたは複数の再生デバイスに対応することを示すグラフィック表示1402を含む。
In some cases, a device (eg, a recording device) may indicate the status of motion validation on the graphic interface. FIG. 14 shows an exemplary playback device
ユーザインタフェース1400は、識別されたエラー状態および/またはエラー状態を修正するための提案を記述するメッセージを含むことができるグラフィック表示1410をさらに含む。ユーザインタフェース1400は、選択可能アイコン1406および1408をさらに含む。選択可能アイコン1406は、キャリブレーションプロセスを再び繰り返すために選択されてもよく、選択可能アイコン1408は、1つまたは複数の再生デバイスの動作を継続するために選択されてもよい。図示のように、グラフィック表示1410は、図6のユーザインタフェース600のグラフィック表示604の一部または全ての灰色または淡色表示バージョンに重なってもよい。
The
d.動きを補正するためのプロンプトの表示
図8を再度参照すると、ブロック808において、実装800は、動きを補正するためのプロンプトを表示するステップを含む。例えば、録音デバイスは、キャリブレーションの全てまたは一部を繰り返すためのプロンプトを表示してもよい。録音デバイスは、動きがどの程度不十分であったか、およびおそらくは、如何にして(例えば、所定の平面内でより多く、または異なる速度で動かすことにより)動きを補正できるかも示してもよい。このようなプロンプトは、他の例の中でもとりわけ、キャリブレーション周期中に制御デバイスの十分な移動が生じなかったこと、キャリブレーション周期中に制御デバイスの十分な垂直移動が生じなかったこと、キャリブレーション周期中に制御デバイスの十分な半径方向移動が生じなかったこと、および/または、制御デバイスの十分な移動が速度閾値を超えたことを示してもよい。
d. Displaying Prompts to Correct Motion Referring back to FIG. 8, at
図15は、動きの有効性が確認されなかった場合にグラフィックインタフェース上へ表示されうる、再生デバイスキャリブレーションエラー状態の例示的なユーザインタフェース1500を示す。図示のように、ユーザインタフェース1500は、インタフェース1500上の表示されたコンテンツが、リビングルームゾーンにおける1つまたは複数の再生デバイスに対応することを示すグラフィック表示1502を含む。
FIG. 15 illustrates an
ユーザインタフェース1500は、識別されたエラー状態および/またはエラー状態を修正するためのプロンプトを記述するメッセージを含むことができるグラフィック表示1510をさらに含む。ユーザインタフェース1500は、選択可能アイコン1506および1508をさらに含む。選択可能アイコン1506は、キャリブレーションプロセスを再び試みるために選択されてもよく、かつ選択可能アイコン1508は、キャリブレーションプロセスを終了するために選択されてもよい。図示のように、グラフィック表示1510は、図6のユーザインタフェース600のグラフィック表示604の一部または全ての灰色または淡色表示バージョンに重なってもよい。
The
ある例において、各種類の動き(例えば、様々な方向の動きまたは速度)は、グラフィック表示1510内に提供されるべき対応するテキストメッセージを有してもよい。例えば、識別されたエラー状態が水平面における移動に関連していれば、テキストメッセージの例は、「優れた測定値を得るために、デバイスは必ずゆっくりと上下に動かし、部屋全体を歩いてください。リスニングエリアにわたって動きを多くして、もう一度試してください」、であってもよい。別の例において、識別されたエラー状態が速すぎる移動に関連するものであれば、テキストメッセージの例は、「移動が少し速すぎて、チューニングのための良好な測定値が得られませんでした。もう一度、今度は速度を落として動いてみてください」、であってもよい。
In one example, each type of movement (eg, movement or speed in various directions) may have a corresponding text message to be provided in the
本明細書で論じているテキストメッセージの例は、単に例示を目的とするものであって、限定を意図するものではない。さらに、一般的な当業者には、他の例も可能であることが認識されるであろう。 The text message examples discussed herein are for illustrative purposes only and are not intended to be limiting. In addition, one of ordinary skill in the art will recognize that other examples are possible.
VI.結論
本明細書は、様々な例示のシステム、方法、装置、および製品などを開示しており、それらは、他のコンポーネントの中で、ハードウェア上で実行されるファームウェアおよび/又はソフトウェアを含む。そのような例は、単なる例示であり、限定されるものとみなすべきではないと理解される。例えば、これらのファームウェア、ハードウェア、および/又はソフトウェアの態様又はコンポーネントのいくつか又はすべてが、専らハードウェアに、専らソフトウェアに、専らファームウェアに、又はハードウェア、ソフトウェア、および/又はファームウェアの任意の組み合わせを実施することができることが意図されている。したがって、提供されているそれらの例は、それらのシステム、方法、装置、および/又は生産物を実施する唯一の方法ではない。
VI. CONCLUSION This specification discloses various exemplary systems, methods, apparatuses, products, and the like, which include firmware and / or software running on hardware, among other components. It is understood that such examples are illustrative only and should not be considered limiting. For example, some or all of these firmware, hardware, and / or software aspects or components may be exclusively hardware, exclusively software, exclusively firmware, or any of hardware, software, and / or firmware It is intended that combinations can be implemented. Thus, the examples provided are not the only way to implement those systems, methods, devices, and / or products.
更に、本明細書において「実施形態」は、実施形態に関連して述べられた特定の特徴、構造、又は特性が、本発明の少なくとも1つの実施例に含まれ得ることを示している。本明細書の様々な場所でこの語句が用いられているが、すべてが同じ実施形態を言及するものではなく、又、他の実施形態を除いた別個の実施形態又は代替の実施形態でもない。このように、本明細書で述べられた実施形態は、明示的におよび暗黙的に、当業者によって、他の実施形態と組み合わせることができることが理解される。 Furthermore, “embodiments” herein indicate that the particular features, structures, or characteristics described in connection with the embodiments may be included in at least one example of the invention. Although this phrase is used in various places throughout the specification, they do not all refer to the same embodiment, nor are they separate or alternative embodiments other than other embodiments. Thus, it is understood that the embodiments described herein may be combined with other embodiments by those skilled in the art, explicitly and implicitly.
本明細書は、例示的な環境、システム、手順、ステップ、論理ブロック、処理、および他のシンボル表現に関して広く示されており、それらは直接又は間接的にネットワークに接続されるデータ処理デバイスの動作に類似するものである。これらの処理説明および表現は、一般的に当業者によって使用され、それらの仕事の内容を他の当業者に最も効率良く伝えることができる。多くの具体的な内容が、本開示を理解するために提供されている。しかしながら、当業者にとって、本開示の特定の実施形態が特定の、具体的な詳細なしに実施され得ることは理解される。他の例では、周知の方法、手順、コンポーネント、および回路が、実施形態を不必要に曖昧にすることを避けるため、詳細に説明していない。したがって、本開示の範囲は、上記した実施形態よりむしろ添付された特許請求の範囲によって定義される。 This specification is broadly illustrated with respect to exemplary environments, systems, procedures, steps, logic blocks, processing, and other symbolic representations that operate directly or indirectly on a data processing device connected to a network. It is similar to These process descriptions and representations are generally used by those skilled in the art and can most effectively convey the content of their work to others skilled in the art. Numerous specific details are provided to understand the present disclosure. However, it will be understood by one of ordinary skill in the art that certain embodiments of the present disclosure may be practiced without the specific details. In other instances, well-known methods, procedures, components, and circuits have not been described in detail in order to avoid unnecessarily obscuring the embodiments. Accordingly, the scope of the present disclosure is defined by the appended claims rather than the embodiments described above.
添付の特許請求の範囲のいずれかが単にソフトウェアおよび/又はファームウェアへの実装をカバーするように読み取ると、少なくとも1つの例における要素の1つ又は複数は、本明細書では、ソフトウェアおよび/又はファームウェアを記憶する有形の非一時的な記憶媒体、例えば、メモリ、DVD、CD、Blu−ray(登録商標)等を含むことが明確に定められている。 One or more of the elements in at least one example may be referred to herein as software and / or firmware, when any of the appended claims simply reads to cover implementation in software and / or firmware. Is clearly defined to include a tangible, non-transitory storage medium for storing, for example, memory, DVD, CD, Blu-ray (registered trademark), and the like.
(特徴1)マイクロホンを含むネットワークデバイスは、キャリブレーション周期中に所定の環境において1つまたは複数の再生デバイスがキャリブレーション音を放出しているという指示を受信し、放出されたキャリブレーション音を録音しかつキャリブレーション音放出中のネットワークデバイスの移動を示す動きデータを受信し、ネットワークデバイスの垂直方向の移動を示す、動きデータの第1の成分と、ネットワークデバイスの1つまたは複数の再生デバイスからの各半径方向の移動を示す、動きデータの1つまたは複数の第2の成分と、を識別し、ネットワークデバイスの垂直方向の移動を示す動きデータの第1の成分と、ネットワークデバイスの1つまたは複数の再生デバイスからの各半径方向の移動を示す動きデータの1つまたは複数の第2の成分とを相互相関することによって、環境内におけるネットワークデバイスの水平方向の動きを表す1つまたは複数の水平動きパラメータを決定し、環境内における水平方向の動きを表す水平動きパラメータの少なくとも1つが相関閾値を超えていると決定することによって、キャリブレーション周期中にネットワークデバイスの十分な水平移動が生じたことを決定し、かつ、キャリブレーション周期中にネットワークデバイスの十分な移動が生じたことを示すメッセージを送信するように構成される。 (Feature 1) A network device including a microphone receives an instruction that one or more playback devices emit a calibration sound in a predetermined environment during a calibration cycle, and records the emitted calibration sound. And receiving movement data indicative of movement of the network device during emission of the calibration sound, from a first component of movement data indicative of vertical movement of the network device, and one or more playback devices of the network device One or more second components of the motion data indicative of each radial movement of the first and second components of the motion data indicative of the vertical movement of the network device and one of the network devices Or one of the motion data indicating each radial movement from a plurality of playback devices Or by cross-correlating with a plurality of second components to determine one or more horizontal motion parameters representative of the horizontal movement of the network device in the environment, and to represent the horizontal movement in the environment. By determining that at least one of the motion parameters exceeds the correlation threshold, it is determined that sufficient horizontal movement of the network device has occurred during the calibration period, and sufficient for the network device during the calibration period. It is configured to send a message indicating that the movement has occurred.
(特徴2)特徴1に記載のネットワークデバイスは、さらに、垂直方向の動きデータの平均を表す垂直動きパラメータを決定し、かつ垂直動きパラメータが垂直動き閾値を超えていると決定することによって、キャリブレーション周期中にネットワークデバイスの十分な垂直移動が生じたことを決定するように構成される。 (Feature 2) The network device according to Feature 1 further determines a vertical motion parameter representing an average of vertical motion data, and determines that the vertical motion parameter exceeds a vertical motion threshold, thereby calibrating the network device. Configured to determine that a sufficient vertical movement of the network device has occurred during the session period.
(特徴3)特徴2と組み合わされた特徴1に記載のネットワークデバイスにおいて、キャリブレーション周期中にネットワークデバイスの十分な移動が生じたことを示すメッセージを送信することは、キャリブレーション周期中にネットワークデバイスの十分な水平移動および十分な垂直移動が生じたことを示すメッセージを送信することを含む。 (Feature 3) In the network device according to Feature 1 in combination with Feature 2, transmitting a message indicating that sufficient movement of the network device has occurred during the calibration period may be performed during the calibration period. Sending a message indicating that sufficient horizontal movement and sufficient vertical movement have occurred.
(特徴4)特徴2と組み合わされた特徴1または特徴3に記載のネットワークデバイスにおいて、垂直方向の動きデータの平均を表す垂直動きパラメータを決定することは、垂直方向の動きデータの平均を表す垂直動きパラメータを、キャリブレーション周期中のネットワークデバイスの動きを示す動きデータのフレームが受信されるにつれて蓄積される動きデータに基づいて繰り返し更新することを含む。 (Feature 4) In the network device according to Feature 1 or Feature 3 combined with Feature 2, determining a vertical motion parameter that represents an average of vertical motion data is a vertical that represents an average of vertical motion data. Including repeatedly updating motion parameters based on motion data accumulated as frames of motion data indicative of network device motion during a calibration period are received.
(特徴5)特徴1〜4のいずれかに記載のネットワークデバイスにおいて、キャリブレーション周期中のネットワークデバイスの移動を示す動きデータを受信することは、ネットワークデバイスの加速度を示すセンサデータを受信することと、1つまたは複数の再生デバイスとネットワークデバイスへ結合されるマイクロホンとの間の各伝搬遅延に基づく、1つまたは複数の再生デバイスからネットワークデバイスへの各半径方向距離を示すマイクロホンデータを受信することを含む。 (Feature 5) In the network device according to any one of Features 1 to 4, receiving motion data indicating movement of the network device during a calibration cycle includes receiving sensor data indicating acceleration of the network device. Receiving microphone data indicating each radial distance from the one or more playback devices to the network device based on each propagation delay between the one or more playback devices and a microphone coupled to the network device; including.
(特徴6)特徴1〜5のいずれかに記載のネットワークデバイスは、さらに、記録されたキャリブレーション音に基づいて、1つまたは複数の再生デバイスのうちの少なくとも1つに関して各キャリブレーションプロファイルを決定するように構成され、かつ、キャリブレーション周期中にネットワークデバイスの十分な移動が生じたことを示すメッセージを送信することは、少なくとも1つの再生デバイスに決定されたキャリブレーションプロファイルを用いてキャリブレーションするように命令するメッセージを送信することを含む。 (Feature 6) The network device according to any one of Features 1 to 5 further determines each calibration profile for at least one of the one or more playback devices based on the recorded calibration sound. And sending a message indicating that sufficient movement of the network device has occurred during the calibration period calibrates with the determined calibration profile for the at least one playback device Sending a message instructing
(特徴7)特徴6と組み合わされた特徴1〜5のいずれかに記載のネットワークデバイスにおいて、記録されたキャリブレーション音に基づいて1つまたは複数の再生デバイスのうちの少なくとも1つに関する各キャリブレーションプロファイルを決定することは、再生デバイスをキャリブレーション等化へとキャリブレーションするように所定の環境の音響特性を補う各キャリブレーションプロファイルを決定することを含む。 (Feature 7) Each calibration relating to at least one of one or more reproduction devices based on the recorded calibration sound in the network device according to any one of features 1 to 5 combined with feature 6 Determining the profile includes determining each calibration profile that supplements the acoustic characteristics of the predetermined environment to calibrate the playback device to calibration equalization.
(特徴8)特徴1〜7のいずれかに記載のネットワークデバイスは、さらに、キャリブレーション周期中のネットワークデバイスの速度が速度閾値を超えなかったと決定するように構成され、かつ、キャリブレーション周期中にネットワークデバイスの十分な移動が生じたことを示すメッセージを送信することは、ネットワークデバイスの十分な移動が速度閾値を超えなかったことを示すメッセージを送信することを含む。 (Feature 8) The network device according to any one of features 1 to 7 is further configured to determine that the speed of the network device during the calibration period has not exceeded the speed threshold, and during the calibration period Sending a message indicating that sufficient movement of the network device has occurred includes sending a message indicating that sufficient movement of the network device has not exceeded the speed threshold.
(特徴9)特徴8と組み合わされた特徴1〜7のいずれかに記載のネットワークデバイスにおいて、キャリブレーション周期中のネットワークデバイスの移動を示す動きデータを受信することは、ネットワークデバイスに対するユーザ加速度を示す第1のデータストリームと、ネットワークデバイスに対する重力加速度を示す第2のデータストリームとを含むセンサデータを受信することを含み、かつ、キャリブレーション周期中のネットワークデバイスの速度が速度閾値を超えなかったと決定することは、ネットワークデバイスに対するユーザ加速度を示す第1のデータストリームと、ネットワークデバイスに対する重力加速度を示す第2のデータストリームとに基づいて、重力に対するユーザ加速度を示す第3のデータストリームを決定することと、重力に対するユーザ加速度を示す第3のデータストリームの積分の大きさを決定することによって、キャリブレーション周期中のネットワークデバイスの速度を示す第4のデータストリームを決定することと、第4のデータストリームが、キャリブレーション周期中のネットワークデバイスの速度が速度閾値を超えなかったことを示していると決定することと、を含む。 (Feature 9) In the network device according to any one of features 1 to 7, combined with feature 8, receiving motion data indicating movement of the network device during a calibration period indicates user acceleration relative to the network device. Receiving sensor data including a first data stream and a second data stream indicative of gravitational acceleration for the network device, and determining that the speed of the network device during the calibration period has not exceeded the speed threshold. Determining a third data stream indicative of user acceleration relative to gravity based on a first data stream indicative of user acceleration relative to the network device and a second data stream indicative of gravity acceleration relative to the network device. Determining a fourth data stream indicative of the speed of the network device during the calibration period by determining a magnitude of integration of the third data stream indicative of user acceleration relative to gravity; Determining that the data stream indicates that the speed of the network device during the calibration period has not exceeded the speed threshold.
(特徴10)方法は、コンピュータ装置により、録音デバイスがキャリブレーション周期中に所定の環境において1つまたは複数の再生デバイスにより放出されるキャリブレーション音を記録していた間の録音デバイスの移動を示す動きデータを受信するステップと、コンピュータ装置により、キャリブレーション周期中に録音デバイスの十分な垂直移動が生じたことを決定するステップと、コンピュータ装置により、キャリブレーション周期中に録音デバイスの十分な水平移動が生じたことを決定するステップと、コンピュータ装置により1つまたは複数の再生デバイスへ、キャリブレーション周期中に録音デバイスの十分な垂直方向および水平方向の移動が生じたことを示すメッセージを送信するステップと、を含む。 (Feature 10) The method shows the movement of the recording device while the recording device was recording the calibration sound emitted by the one or more playback devices in a predetermined environment during the calibration period. Receiving movement data; determining by the computer apparatus that a sufficient vertical movement of the recording device has occurred during the calibration period; and calculating by the computer apparatus a sufficient horizontal movement of the recording device during the calibration period. Transmitting a message indicating that sufficient vertical and horizontal movement of the recording device has occurred during the calibration period to the one or more playback devices by the computing device. And including.
(特徴11)特徴10に記載の方法において、キャリブレーション周期中に録音デバイスの十分な水平移動が生じたと決定するステップは、録音デバイスの垂直方向の移動を示す、動きデータの第1の成分と、録音デバイスの1つまたは複数の再生デバイスからの各半径方向の移動を示す、動きデータの1つまたは複数の第2の成分と、を識別することと、録音デバイスの垂直方向の移動を示す動きデータの第1の成分と、録音デバイスの1つまたは複数の再生デバイスからの各半径方向の移動を示す動きデータの1つまたは複数の第2の成分とを相互相関することによって、環境内における録音デバイスの水平方向の動きを表す1つまたは複数の水平動きパラメータを決定することと、環境内における水平方向の動きを表す水平動きパラメータの少なくとも1つが相関閾値を超えていると決定することによって、キャリブレーション周期中に録音デバイスの十分な水平移動が生じたことを決定することと、を含む。 (Feature 11) In the method according to Feature 10, the step of determining that sufficient horizontal movement of the recording device has occurred during the calibration period includes the first component of the motion data indicating the vertical movement of the recording device; Identifying one or more second components of the motion data indicative of each radial movement of the recording device from the one or more playback devices, and indicating the vertical movement of the recording device By cross-correlating the first component of the motion data with one or more second components of the motion data indicative of each radial movement from one or more playback devices of the recording device, Determining one or more horizontal motion parameters representing the horizontal movement of the recording device in the horizontal direction and a horizontal movement parameter representing the horizontal movement in the environment. By data of at least one of determined to exceed the correlation threshold includes determining that a sufficient horizontal movement of the recording device occurs during the calibration period, the.
(特徴12)特徴10または11に記載の方法において、キャリブレーション周期中に録音デバイスの十分な垂直移動が生じたと決定するステップは、垂直方向の動きデータの平均を表す垂直動きパラメータを決定することと、垂直動きパラメータが垂直動き閾値を超えていると決定することによって、キャリブレーション周期中に録音デバイスの十分な垂直移動が生じたことを決定することと、を含む。 (Feature 12) In the method according to Feature 10 or 11, the step of determining that a sufficient vertical movement of the recording device has occurred during the calibration period is to determine a vertical motion parameter representing an average of the vertical motion data. And determining that sufficient vertical movement of the recording device has occurred during the calibration period by determining that the vertical motion parameter exceeds a vertical motion threshold.
(特徴13)特徴12と組み合わされた特徴10または11に記載の方法において、垂直方向の動きデータの平均を表す垂直動きパラメータを決定することは、垂直方向の動きデータの平均を表す垂直動きパラメータを、キャリブレーション周期中の録音デバイスの移動を示す動きデータが受信されるにつれて蓄積される動きデータに基づいて繰り返し更新することと、を含む。 (Feature 13) In the method of feature 10 or 11, in combination with feature 12, determining a vertical motion parameter that represents an average of vertical motion data is a vertical motion parameter that represents an average of vertical motion data Updating repeatedly based on motion data accumulated as motion data indicative of movement of the recording device during the calibration period is received.
(特徴14)特徴10〜14のいずれかに記載の方法は、キャリブレーション周期中の録音デバイスの速度が速度閾値を超えなかったと決定するステップをさらに含み、キャリブレーション周期中に録音デバイスの十分な移動が生じたことを示すメッセージを送信するステップは、録音デバイスの十分な移動が速度閾値を超えなかったことを示すメッセージを送信することを含む。 (Feature 14) The method according to any of features 10-14, further comprising determining that the speed of the recording device during the calibration period did not exceed the speed threshold, Sending a message indicating that movement has occurred includes sending a message indicating that sufficient movement of the recording device has not exceeded the speed threshold.
(特徴15)特徴14と組み合わされた特徴10〜13のいずれかに記載の方法において、録音デバイスがキャリブレーション周期中に所定の環境において1つまたは複数の再生デバイスにより放出されるキャリブレーション音を検出していた間の録音デバイスの移動を示す動きデータを受信するステップは、録音デバイスに対するユーザ加速度を示す第1のデータストリームと、録音デバイスに対する重力加速度を示す第2のデータストリームとを含むセンサデータを受信することを含み、かつ、キャリブレーション周期中の録音デバイスの速度が速度閾値を超えなかったと決定するステップは、録音デバイスに対するユーザ加速度を示す第1のデータストリームと、録音デバイスに対する重力加速度を示す第2のデータストリームとに基づいて、重力に対するユーザ加速度を示す第3のデータストリームを決定することと、重力に対するユーザ加速度を示す第3のデータストリームの積分の大きさを決定することによって、キャリブレーション周期中の録音デバイスの速度を示す第4のデータストリームを決定することと、第4のデータストリームが、キャリブレーション周期中の録音デバイスの速度が速度閾値を超えなかったことを示していると決定することと、を含む。 (Feature 15) The method according to any one of features 10 to 13 in combination with feature 14, wherein the recording device emits a calibration sound emitted by one or more playback devices in a predetermined environment during the calibration period. The step of receiving motion data indicative of movement of the recording device during detection comprises a first data stream indicating user acceleration relative to the recording device and a second data stream indicating gravitational acceleration relative to the recording device. Receiving the data and determining that the speed of the recording device during the calibration period did not exceed the speed threshold includes a first data stream indicative of user acceleration for the recording device and a gravitational acceleration for the recording device. Based on a second data stream indicating Determining the third data stream indicative of the user acceleration relative to gravity and determining the magnitude of the integration of the third data stream indicative of the user acceleration relative to gravity to thereby determine the speed of the recording device during the calibration period. And determining that the fourth data stream indicates that the speed of the recording device during the calibration period has not exceeded the speed threshold.
(特徴16)特徴10〜15のいずれかに記載の方法は、記録されたキャリブレーション音に基づいて、1つまたは複数の再生デバイスのうちの少なくとも1つに関して各キャリブレーションプロファイルを決定するステップをさらに含み、かつ、キャリブレーション周期中に録音デバイスの十分な移動が生じたことを示すメッセージを送信するステップは、少なくとも1つの再生デバイスに決定されたキャリブレーションプロファイルを用いてキャリブレーションするように命令するメッセージを送信することを含む。 (Feature 16) The method according to any of features 10-15, comprising determining each calibration profile for at least one of the one or more playback devices based on the recorded calibration sound. And further comprising sending a message indicating that sufficient movement of the recording device has occurred during the calibration period, instructing at least one playback device to calibrate using the determined calibration profile. Sending a message.
(特徴17)特徴10〜16のいずれかに記載の方法において、コンピュータ装置は、録音デバイスを備える。 (Feature 17) In the method according to any one of Features 10 to 16, the computer apparatus includes a recording device.
(特徴18)コンピュータ読み取り可能媒体は、特徴10〜17のいずれかに記載の方法を実行するように構成される。 (Feature 18) The computer-readable medium is configured to perform the method according to any of features 10-17.
(特徴19)非一時的コンピュータ読み取り可能媒体は、1つまたは複数のプロセッサによって実行可能な命令を記憶していて、前記命令は制御デバイスに動作を実行させるものであり、前記動作は、(i)キャリブレーション周期中に所定の環境において1つまたは複数の再生デバイスがキャリブレーション音を放出しているという指示を受信することと、(ii)放出されたキャリブレーション音を録音しかつキャリブレーション音放出中の制御デバイスの移動を示す動きデータを受信することと、(iii)制御デバイスの垂直方向の移動を示す、動きデータの第1の成分と、制御デバイスの1つまたは複数の再生デバイスからの各半径方向の移動を示す、動きデータの1つまたは複数の第2の成分と、を識別することと、(iv)制御デバイスの垂直方向の移動を示す動きデータの第1の成分と、制御デバイスの1つまたは複数の再生デバイスからの各半径方向の移動を示す動きデータの1つまたは複数の第2の成分とを相互相関することによって、環境内における制御デバイスの水平方向の動きを表す1つまたは複数の水平動きパラメータを決定することと、(v)環境内における水平方向の動きを表す水平動きパラメータの少なくとも1つが相関閾値を超えていると決定することによって、キャリブレーション周期中に制御デバイスの十分な水平移動が生じたことを決定することと、(vi)キャリブレーション周期中に制御デバイスの十分な移動が生じたことを示すメッセージを送信することと、を含む。 (Feature 19) A non-transitory computer readable medium stores instructions executable by one or more processors, the instructions causing a control device to perform an action, wherein the action is (i ) Receiving an indication that one or more playback devices are emitting a calibration sound in a predetermined environment during the calibration period; and (ii) recording the emitted calibration sound and the calibration sound. Receiving motion data indicative of movement of the control device during emission; (iii) a first component of motion data indicative of vertical movement of the control device; and one or more playback devices of the control device Identifying one or more second components of the motion data indicative of each radial movement of (iv), A first component of motion data indicative of vertical movement of the device and one or more second components of motion data indicative of each radial movement from one or more playback devices of the control device; Determining one or more horizontal motion parameters representative of the horizontal movement of the control device in the environment by cross-correlating; and (v) at least one of the horizontal motion parameters representing the horizontal movement in the environment. Determining that sufficient horizontal movement of the control device has occurred during the calibration period, and (vi) sufficient movement of the control device during the calibration period. Sending a message indicating that it has occurred.
(特徴20)特徴1に記載の非一時的コンピュータ読み取り可能媒体において、前記動作は、(i)垂直方向の動きデータの平均を表す垂直動きパラメータを決定することと、(ii)垂直動きパラメータが垂直動き閾値を超えていると決定することによって、キャリブレーション周期中に制御デバイスの十分な垂直移動が生じたことを決定することと、をさらに含む。 (Feature 20) In the non-transitory computer-readable medium according to Feature 1, the operations include: (i) determining a vertical motion parameter representing an average of vertical motion data; and (ii) a vertical motion parameter is Determining that sufficient vertical movement of the control device has occurred during the calibration period by determining that the vertical motion threshold has been exceeded.
(特徴21)特徴2に記載の非一時的コンピュータ読み取り可能媒体において、キャリブレーション周期中に制御デバイスの十分な移動が生じたことを示すメッセージを送信することは、キャリブレーション周期中に制御デバイスの十分な水平移動および十分な垂直移動が生じたことを示すメッセージを送信することを含む。 (Feature 21) In the non-transitory computer readable medium according to Feature 2, transmitting a message indicating that sufficient movement of the control device has occurred during the calibration period is performed by the control device during the calibration period. Sending a message indicating that sufficient horizontal movement and sufficient vertical movement have occurred.
(特徴22)特徴2に記載の非一時的コンピュータ読み取り可能媒体において、垂直方向の動きデータの平均を表す垂直動きパラメータを決定することは、キャリブレーション周期中の制御デバイスの動きを示す動きデータのフレームが受信されるにつれて、垂直方向の動きデータの平均を表す垂直動きパラメータを、蓄積される動きデータに基づいて繰り返し更新することを含む。 (Feature 22) In the non-transitory computer readable medium according to Feature 2, determining the vertical motion parameter representing an average of the vertical motion data may include detecting motion data indicative of motion of the control device during the calibration period. As the frame is received, it includes repeatedly updating a vertical motion parameter representing the average of the vertical motion data based on the accumulated motion data.
(特徴23)特徴1に記載の非一時的コンピュータ読み取り可能媒体において、キャリブレーション周期中の制御デバイスの移動を示す動きデータを受信することは、(i)制御デバイスの加速度を示すセンサデータを受信することと、(ii)1つまたは複数の再生デバイスと制御デバイスへ結合されるマイクロホンとの間の各伝搬遅延に基づく、1つまたは複数の再生デバイスから制御デバイスへの各半径方向距離を示すマイクロホンデータを受信することを含む。 (Feature 23) In the non-transitory computer-readable medium according to Feature 1, receiving motion data indicating movement of the control device during a calibration cycle includes: (i) receiving sensor data indicating acceleration of the control device And (ii) each radial distance from the one or more playback devices to the control device based on each propagation delay between the one or more playback devices and the microphone coupled to the control device. Receiving microphone data.
(特徴24)特徴1に記載の非一時的コンピュータ読み取り可能媒体において、前記動作は、記録されたキャリブレーション音に基づいて、1つまたは複数の再生デバイスのうちの少なくとも1つに関して各キャリブレーションプロファイルを決定することをさらに含み、かつ、キャリブレーション周期中に制御デバイスの十分な移動が生じたことを示すメッセージを送信することは、少なくとも1つの再生デバイスに決定されたキャリブレーションプロファイルを用いてキャリブレーションするように命令するメッセージを送信することを含む。 (Feature 24) In the non-transitory computer-readable medium according to Feature 1, the operations are performed for each calibration profile for at least one of the one or more playback devices based on the recorded calibration sound. And transmitting a message indicating that sufficient movement of the control device has occurred during the calibration period is performed using the determined calibration profile for the at least one playback device. Sending a message instructing the user to
(特徴25)特徴6に記載の非一時的コンピュータ読み取り可能媒体において、記録されたキャリブレーション音に基づいて1つまたは複数の再生デバイスのうちの少なくとも1つに関する各キャリブレーションプロファイルを決定することは、再生デバイスをキャリブレーション等化へとキャリブレーションするように所定の環境の音響特性を補う各キャリブレーションプロファイルを決定することを含む。 (Feature 25) In the non-transitory computer-readable medium according to Feature 6, determining each calibration profile for at least one of the one or more playback devices based on the recorded calibration sound Determining each calibration profile that supplements the acoustic characteristics of the predetermined environment to calibrate the playback device to calibration equalization.
(特徴26)特徴1に記載の非一時的コンピュータ読み取り可能媒体において、前記動作は、キャリブレーション周期中の制御デバイスの速度が速度閾値を超えなかったと決定することをさらに含み、かつ、キャリブレーション周期中に制御デバイスの十分な移動が生じたことを示すメッセージを送信することは、制御デバイスの十分な移動が速度閾値を超えなかったことを示すメッセージを送信することを含む。 26. The non-transitory computer readable medium of feature 1, wherein the operation further comprises determining that the speed of the control device during the calibration period has not exceeded the speed threshold, and the calibration period Transmitting a message indicating that sufficient movement of the control device has occurred includes transmitting a message indicating that sufficient movement of the control device has not exceeded the speed threshold.
(特徴27)特徴8に記載の非一時的コンピュータ読み取り可能媒体において、キャリブレーション周期中の制御デバイスの移動を示す動きデータを受信することは、制御デバイスに対するユーザ加速度を示す第1のデータストリームと、制御デバイスに対する重力加速度を示す第2のデータストリームとを含むセンサデータを受信することを含み、かつ、キャリブレーション周期中の制御デバイスの速度が速度閾値を超えなかったと決定することは、(i)制御デバイスに対するユーザ加速度を示す第1のデータストリームと、制御デバイスに対する重力加速度を示す第2のデータストリームとに基づいて、重力に対するユーザ加速度を示す第3のデータストリームを決定することと、(ii)重力に対するユーザ加速度を示す第3のデータストリームの積分の大きさを決定することによって、キャリブレーション周期中の制御デバイスの速度を示す第4のデータストリームを決定することと、(iii)第4のデータストリームが、キャリブレーション周期中の制御デバイスの速度が速度閾値を超えなかったことを示していると決定することと、を含む。 (Feature 27) In the non-transitory computer readable medium of feature 8, receiving motion data indicative of movement of the control device during a calibration cycle comprises: a first data stream indicative of user acceleration relative to the control device; Receiving sensor data including a second data stream indicative of gravitational acceleration for the control device and determining that the speed of the control device during the calibration period did not exceed the speed threshold (i ) Determining a third data stream indicative of user acceleration relative to gravity based on a first data stream indicative of user acceleration relative to the control device and a second data stream indicative of gravity acceleration relative to the control device; ii) Third data indicating user acceleration with respect to gravity Determining a fourth data stream indicative of the speed of the control device during the calibration period by determining the magnitude of the stream integral; and (iii) controlling the fourth data stream during the calibration period. Determining that the speed of the device indicates that the speed threshold has not been exceeded.
(特徴28)方法は、(i)コンピュータ装置により、録音デバイスがキャリブレーション周期中に所定の環境において1つまたは複数の再生デバイスにより放出されるキャリブレーション音を記録していた間の録音デバイスの移動を示す動きデータを受信することと、(ii)コンピュータ装置により、キャリブレーション周期中に録音デバイスの十分な垂直移動が生じたことを決定することと、(iii)コンピュータ装置により、キャリブレーション周期中に録音デバイスの十分な水平移動が生じたことを決定することと、(iv)コンピュータ装置により1つまたは複数の再生デバイスへ、キャリブレーション周期中に録音デバイスの十分な垂直方向および水平方向の移動が生じたことを示すメッセージを送信することと、を含む。 (Characteristic 28) The method includes: (i) the recording device while the recording device is recording a calibration sound emitted by one or more playback devices in a predetermined environment during a calibration period. Receiving motion data indicative of movement; (ii) determining by the computer apparatus that a sufficient vertical movement of the recording device has occurred during the calibration period; and (iii) determining the calibration period by the computer apparatus. Determining that sufficient horizontal movement of the recording device has occurred, and (iv) the computer device to the one or more playback devices to ensure that the recording device has sufficient vertical and horizontal orientation during the calibration period. Sending a message indicating that the movement has occurred.
(特徴29)特徴10に記載の方法において、キャリブレーション周期中に録音デバイスの十分な水平移動が生じたと決定するステップは、(i)録音デバイスの垂直方向の移動を示す、動きデータの第1の成分と、録音デバイスの1つまたは複数の再生デバイスからの各半径方向の移動を示す、動きデータの1つまたは複数の第2の成分と、を識別することと、(ii)録音デバイスの垂直方向の移動を示す動きデータの第1の成分と、録音デバイスの1つまたは複数の再生デバイスからの各半径方向の移動を示す動きデータの1つまたは複数の第2の成分とを相互相関することによって、環境内における録音デバイスの水平方向の動きを表す1つまたは複数の水平動きパラメータを決定することと、(iii)環境内における水平方向の動きを表す水平動きパラメータの少なくとも1つが相関閾値を超えていると決定することによって、キャリブレーション周期中に録音デバイスの十分な水平移動が生じたことを決定することと、を含む。 (Feature 29) In the method according to Feature 10, the step of determining that sufficient horizontal movement of the recording device has occurred during the calibration period comprises: (i) a first motion data indicative of vertical movement of the recording device; And (ii) the recording device's one or more second components of the motion data indicative of each radial movement of the recording device from the one or more playback devices; Cross-correlating a first component of motion data indicative of vertical movement and one or more second components of motion data indicative of each radial movement from one or more playback devices of the recording device Determining one or more horizontal motion parameters representative of the horizontal movement of the recording device in the environment; and (iii) the horizontal direction in the environment By at least one of the horizontal motion parameters determined to exceed the correlation threshold indicating yellow, includes determining that a sufficient horizontal movement of the recording device occurs during the calibration period, the.
(特徴30)特徴10に記載の方法において、キャリブレーション周期中に録音デバイスの十分な垂直移動が生じたと決定するステップは、(i)垂直方向の動きデータの平均を表す垂直動きパラメータを決定することと、(ii)垂直動きパラメータが垂直動き閾値を超えていると決定することによって、キャリブレーション周期中に録音デバイスの十分な垂直移動が生じたことを決定することと、を含む。 (Feature 30) In the method according to Feature 10, the step of determining that sufficient vertical movement of the recording device has occurred during the calibration period includes: (i) determining a vertical motion parameter representing an average of vertical motion data. And (ii) determining that sufficient vertical movement of the recording device has occurred during the calibration period by determining that the vertical motion parameter exceeds a vertical motion threshold.
(特徴31)特徴12に記載の方法において、垂直方向の動きデータの平均を表す垂直動きパラメータを決定することは、(i)キャリブレーション周期中の録音デバイスの移動を示す動きデータが受信されるにつれて、垂直方向の動きデータの平均を表す垂直動きパラメータを、蓄積される動きデータに基づいて繰り返し更新することを含む。 (Feature 31) In the method according to Feature 12, determining a vertical motion parameter representing an average of vertical motion data includes: (i) motion data indicating movement of a recording device during a calibration period is received. As a result, the vertical motion parameter representing the average of the motion data in the vertical direction is repeatedly updated based on the accumulated motion data.
(特徴32)特徴10に記載の方法は、キャリブレーション周期中の録音デバイスの速度が速度閾値を超えなかったと決定するステップをさらに含み、キャリブレーション周期中に録音デバイスの十分な移動が生じたことを示すメッセージを送信するステップは、録音デバイスの十分な移動が速度閾値を超えなかったことを示すメッセージを送信することを含む。 (Characteristic 32) The method according to Feature 10, further comprising the step of determining that the speed of the recording device during the calibration period has not exceeded the speed threshold, wherein sufficient movement of the recording device has occurred during the calibration period. Sending a message indicating that includes sending a message indicating that sufficient movement of the recording device has not exceeded the speed threshold.
(特徴33)特徴14に記載の方法において、録音デバイスがキャリブレーション周期中に所定の環境において1つまたは複数の再生デバイスにより放出されるキャリブレーション音を検出していた間の録音デバイスの移動を示す動きデータを受信するステップは、録音デバイスに対するユーザ加速度を示す第1のデータストリームと、録音デバイスに対する重力加速度を示す第2のデータストリームとを含むセンサデータを受信することを含み、かつ、キャリブレーション周期中の録音デバイスの速度が速度閾値を超えなかったと決定するステップは、(i)録音デバイスに対するユーザ加速度を示す第1のデータストリームと、録音デバイスに対する重力加速度を示す第2のデータストリームとに基づいて、重力に対するユーザ加速度を示す第3のデータストリームを決定することと、(ii)重力に対するユーザ加速度を示す第3のデータストリームの積分の大きさを決定することによって、キャリブレーション周期中の録音デバイスの速度を示す第4のデータストリームを決定することと、(iii)第4のデータストリームが、キャリブレーション周期中の録音デバイスの速度が速度閾値を超えなかったことを示していると決定することと、を含む。 (Feature 33) The method according to Feature 14, wherein the recording device is moved while the recording device is detecting a calibration sound emitted by one or more playback devices in a predetermined environment during a calibration period. Receiving the motion data indicating includes receiving sensor data including a first data stream indicative of user acceleration for the recording device and a second data stream indicative of gravitational acceleration for the recording device; and calibration Determining that the speed of the recording device during the recording period did not exceed the speed threshold includes: (i) a first data stream indicating user acceleration for the recording device; and a second data stream indicating gravitational acceleration for the recording device; Based on user acceleration with respect to gravity Determining a third data stream; and (ii) determining a third data stream integral indicative of user acceleration with respect to gravity, thereby indicating a fourth recording device speed during the calibration period. And (iii) determining that the fourth data stream indicates that the speed of the recording device during the calibration period has not exceeded the speed threshold.
(特徴34)特徴10に記載の方法は、記録されたキャリブレーション音に基づいて、1つまたは複数の再生デバイスのうちの少なくとも1つに関して各キャリブレーションプロファイルを決定するステップをさらに含み、かつ、キャリブレーション周期中に録音デバイスの十分な移動が生じたことを示すメッセージを送信するステップは、少なくとも1つの再生デバイスに決定されたキャリブレーションプロファイルを用いてキャリブレーションするように命令するメッセージを送信することを含む。 (Feature 34) The method of feature 10 further comprises determining each calibration profile for at least one of the one or more playback devices based on the recorded calibration sound; and The step of sending a message indicating that sufficient movement of the recording device has occurred during the calibration period sends a message instructing at least one playback device to calibrate using the determined calibration profile. Including that.
(特徴35)特徴10に記載の方法において、コンピュータ装置は、録音デバイスを備える。 (Feature 35) In the method according to Feature 10, the computer apparatus includes a recording device.
(特徴36)録音デバイスは、(i)マイクロホンと、(ii)1つまたは複数のプロセッサと、(iii)1つまたは複数のプロセッサにより実行可能な命令を内部に記憶している有形データ記憶装置とを備え、前記命令は前記録音デバイスに動作を実行させるものであり、前記動作は、(a)キャリブレーション周期中に所定の環境において、再生デバイスがキャリブレーション音を放出しているという指示を受信することと、(b)マイクロホンを介して、放出されるキャリブレーション音を含む音データを録音し、かつキャリブレーション音放出中の録音デバイスの移動を示す動きデータを受信することと、(c)キャリブレーション周期中に録音デバイスの十分な垂直移動が生じたと決定することと、(d)キャリブレーション周期中に録音デバイスの十分な水平移動が生じたと決定することと、(e)キャリブレーション周期中に録音デバイスの十分な垂直方向および水平方向の移動が生じたという決定に基づいて、検出されたキャリブレーション音に基づくキャリブレーションを再生デバイスのオーディオステージに適用することと、を含む。 (Feature 36) A recording device includes: (i) a microphone; (ii) one or more processors; and (iii) a tangible data storage device that stores instructions executable by the one or more processors. The instruction is for causing the recording device to perform an operation, and the operation includes: (a) an instruction that the playback device emits a calibration sound in a predetermined environment during a calibration cycle. Receiving (b) recording sound data including a calibration sound to be emitted via a microphone, and receiving motion data indicating movement of the recording device during the emission of the calibration sound; ) Determining that sufficient vertical movement of the recording device has occurred during the calibration period; and (d) calibration cycle. The detected calibration based on determining that sufficient horizontal movement of the recording device occurred during (e) sufficient vertical and horizontal movement of the recording device during the calibration period. Applying a calibration based on the sound to the audio stage of the playback device.
(特徴37)特徴18に記載の録音デバイスにおいて、キャリブレーション周期中に録音デバイスの十分な水平移動が生じたと決定することは、(i)録音デバイスの垂直方向の移動を示す、動きデータの第1の成分と、録音デバイスの再生デバイスからの半径方向の移動を示す、動きデータの第2の成分と、を識別することと、(ii)録音デバイスの垂直方向の移動を示す動きデータの第1の成分と、録音デバイスの再生デバイスからの半径方向の移動を示す動きデータの第2の成分とを相互相関することによって、環境内における録音デバイスの水平方向の動きを表す水平動きパラメータを決定することと、(iii)環境内における水平方向の動きを表す水平動きパラメータが相関閾値を超えていると決定することによって、キャリブレーション周期中に録音デバイスの十分な水平移動が生じたことを決定することと、を含む。 (Feature 37) In the recording device according to Feature 18, determining that sufficient horizontal movement of the recording device has occurred during the calibration period includes: (i) a first step of motion data indicating vertical movement of the recording device; Identifying a first component and a second component of motion data indicative of radial movement of the recording device from the playback device; and (ii) first of motion data indicative of vertical movement of the recording device. A horizontal motion parameter representing the horizontal motion of the recording device in the environment is determined by cross-correlating one component with a second component of motion data indicative of radial movement of the recording device from the playback device. And (iii) carry by determining that the horizontal motion parameter representing the horizontal motion in the environment exceeds the correlation threshold. Includes determining that a sufficient horizontal movement of the recording device occurs during configuration cycle, the.
(特徴38)特徴18に記載の録音デバイスにおいて、キャリブレーション周期中に録音デバイスの十分な垂直移動が生じたと決定することは、(i)垂直方向の動きデータの平均を表す垂直動きパラメータを決定することと、(ii)垂直動きパラメータが垂直動き閾値を超えていると決定することによって、キャリブレーション周期中に録音デバイスの十分な垂直移動が生じたことを決定することと、を含む。 (Feature 38) In the recording device according to Feature 18, determining that sufficient vertical movement of the recording device has occurred during the calibration period includes: (i) determining a vertical motion parameter representing an average of motion data in the vertical direction. And (ii) determining that sufficient vertical movement of the recording device has occurred during the calibration period by determining that the vertical motion parameter exceeds a vertical motion threshold.
Claims (16)
キャリブレーション周期中に所定の環境において1つまたは複数の再生デバイスがキャリブレーション音を放出しているという指示を受信するステップ、
放出される前記キャリブレーション音を記録するステップ、
前記キャリブレーション音の放出中に前記コンピュータ装置の移動を示す動きデータを受信するステップ、
前記動きデータの第1の成分と、前記動きデータの1つまたは複数の第2の成分と、を識別するステップ、
ここで、前記動きデータの前記第1の成分は、前記コンピュータ装置の垂直方向の移動を示す、前記動きデータの前記1つまたは複数の第2の成分は、前記コンピュータ装置の前記1つまたは複数の再生デバイスからの各半径方向の移動を示す、
前記動きデータの前記第1の成分と、前記1つまたは複数の第2の成分とを相互相関することによって、前記環境内における前記コンピュータ装置の水平方向の動きを表す1つまたは複数の水平動きパラメータを決定するステップ、及び
前記環境内における水平方向の動きを表す水平動きパラメータの少なくとも1つが相関閾値を超えていると決定することによって、前記キャリブレーション周期中に前記コンピュータ装置の十分な水平移動が生じたことを決定するステップ、
を含む、方法。 A method for a computer device, comprising:
Receiving an indication that one or more playback devices are emitting a calibration sound in a predetermined environment during a calibration cycle;
Recording the emitted calibration sound;
Receiving movement data indicative of movement of the computer device during emission of the calibration sound;
Identifying a first component of the motion data and one or more second components of the motion data;
Wherein the first component of the motion data indicates a vertical movement of the computer device, and the one or more second components of the motion data are the one or more of the computer device. Showing each radial movement from the playback device,
One or more horizontal movements representing a horizontal movement of the computing device in the environment by cross-correlating the first component of the movement data and the one or more second components. Determining a parameter; and sufficient horizontal movement of the computing device during the calibration period by determining that at least one of the horizontal motion parameters representing horizontal motion in the environment exceeds a correlation threshold Determining that has occurred,
Including a method.
前記コンピュータ装置により、前記キャリブレーション周期中に前記録音デバイスの十分な垂直移動が生じたことを決定するステップ、
前記動きデータの第1の成分と、前記動きデータの1つまたは複数の第2の成分と、を識別するステップ、
ここで、前記動きデータの前記第1の成分は、前記録音デバイスの垂直方向の移動を示す、前記動きデータの前記1つまたは複数の第2の成分は、前記録音デバイスの前記1つまたは複数の再生デバイスからの各半径方向の移動を示す、
前記動きデータの前記第1の成分と、前記動きデータの前記1つまたは複数の第2の成分とを相互相関することによって、前記環境内における前記録音デバイスの水平方向の動きを表す1つまたは複数の水平動きパラメータを決定するステップ、
前記コンピュータ装置により、前記環境内における前記水平方向の動きを表す前記水平動きパラメータの少なくとも1つが相関閾値を超えていると決定することによって、前記キャリブレーション周期中に前記録音デバイスの十分な水平移動が生じたことを決定するステップ、及び
前記コンピュータ装置により1つまたは複数の再生デバイスへ、前記キャリブレーション周期中に垂直方向および水平方向へ前記録音デバイスの十分な移動が生じたことを示すメッセージを送信するステップ、
を含む、方法。 Receiving, by the computer apparatus, motion data indicating movement of the recording device while the recording device was recording a calibration sound emitted by one or more playback devices in a predetermined environment during a calibration period; ,
Determining by the computer apparatus that a sufficient vertical movement of the recording device has occurred during the calibration period;
Identifying a first component of the motion data and one or more second components of the motion data;
Wherein the first component of the motion data indicates a vertical movement of the recording device, and the one or more second components of the motion data are the one or more of the recording device. Showing each radial movement from the playback device,
One or more representing a horizontal movement of the recording device in the environment by cross-correlating the first component of the motion data and the one or more second components of the motion data Determining a plurality of horizontal motion parameters;
Sufficient horizontal movement of the recording device during the calibration period by the computer apparatus determining that at least one of the horizontal motion parameters representing the horizontal motion in the environment exceeds a correlation threshold; A message indicating that sufficient movement of the recording device has occurred in the vertical and horizontal directions during the calibration period to one or more playback devices by the computing device. Sending step,
Including a method.
十分な水平移動が生じたという決定に応答して、前記キャリブレーション周期中に前記コンピュータ装置の十分な移動が生じたことを示すメッセージを送信するステップを含む、
請求項1に記載の方法。 further,
In response to a determination that sufficient horizontal movement has occurred, sending a message indicating that sufficient movement of the computing device has occurred during the calibration period;
The method of claim 1 .
前記キャリブレーション周期中に前記録音デバイスの十分な垂直方向および水平方向の移動が生じたという決定に基づいて、前記検出されたキャリブレーション音に基づくキャリブレーションを前記再生デバイスのオーディオステージに適用するステップを含む、
請求項2に記載の方法。 further,
Applying a calibration based on the detected calibration sound to the audio stage of the playback device based on a determination that sufficient vertical and horizontal movement of the recording device has occurred during the calibration period. including,
The method of claim 2 .
垂直方向の前記動きデータの平均を表す垂直動きパラメータを決定するステップ、及び
前記垂直動きパラメータが垂直動き閾値を超えていると決定することによって、前記キャリブレーション周期中に前記コンピュータ装置の十分な垂直移動が生じたことを決定するステップ、
を含む、請求項1又は請求項3に記載の方法。 further,
Determining a vertical motion parameter representative of an average of the motion data in the vertical direction, and determining that the vertical motion parameter exceeds a vertical motion threshold, so that a sufficient vertical of the computing device during the calibration period. Determining that a movement has occurred;
The method according to claim 1 , comprising:
請求項3に記載の方法。 The step of transmitting the message indicating that sufficient movement of the computer device has occurred during the calibration cycle is that sufficient horizontal movement and sufficient vertical movement of the computer device have occurred during the calibration cycle. Including sending a message indicating
The method of claim 3.
請求項5に記載の方法。 The step of determining the vertical motion parameter representative of the average of the motion data in the vertical direction includes the motion data in the vertical direction as motion data indicative of movement of the computer device during the calibration period is received. Recursively updating the vertical motion parameter representing the average of based on accumulated motion data;
The method of claim 5 .
前記コンピュータ装置の加速度を示すセンサデータを受信すること、及び
前記1つまたは複数の再生デバイスと前記コンピュータ装置へ結合されるマイクロホンとの間の各伝搬遅延に基づく、前記1つまたは複数の再生デバイスから前記コンピュータ装置への各半径方向距離を示すマイクロホンデータを受信すること、
を含む、
請求項1、3、5、6、7のいずれかに記載の方法。 Receiving movement data indicative of movement of the computer device during the calibration period;
Receiving one or more sensor data indicative of acceleration of the computer apparatus, and the one or more reproduction devices based on respective propagation delays between the one or more reproduction devices and a microphone coupled to the computer apparatus; Receiving microphone data indicating each radial distance from the to the computer device;
including,
The method according to claim 1, 3 , 5 , 6 , 7 .
前記キャリブレーション周期中に前記コンピュータ装置の十分な移動が生じたことを示すメッセージを送信するステップは、前記少なくとも1つの再生デバイスに対して前記決定されたキャリブレーションプロファイルを用いてキャリブレーションするように命令するメッセージを送信することを含む、
請求項3に記載の方法。 Further comprising determining each calibration profile for at least one of the one or more playback devices based on the recorded calibration sound.
The step of transmitting a message indicating that sufficient movement of the computer apparatus has occurred during the calibration period is such that the at least one playback device is calibrated using the determined calibration profile. Including sending a message to order,
The method of claim 3 .
請求項9に記載の方法。 Determining each calibration profile for at least one of the one or more playback devices based on the recorded calibration sound so as to calibrate the playback device to calibration equalization Determining each calibration profile to supplement the acoustic characteristics of the predetermined environment;
The method of claim 9.
前記キャリブレーション周期中に前記コンピュータ装置の十分な移動が生じたことを示すメッセージを送信するステップは、前記コンピュータ装置の前記十分な移動が前記速度閾値を超えなかったことを示すメッセージを送信することを含む、
請求項3に記載の方法。 Further comprising determining that the speed of the computing device during the calibration period did not exceed a speed threshold;
Transmitting a message indicating that sufficient movement of the computer device has occurred during the calibration period, transmitting a message indicating that the sufficient movement of the computer device has not exceeded the speed threshold. including,
The method of claim 3.
前記キャリブレーション周期中の前記コンピュータ装置の速度が速度閾値を超えなかったと決定するステップは、
前記コンピュータ装置に対するユーザ加速度を示す前記第1のデータストリームと、前記コンピュータ装置に対する重力加速度を示す前記第2のデータストリームとに基づいて、重力に対するユーザ加速度を示す第3のデータストリームを決定すること、
重力に対するユーザ加速度を示す前記第3のデータストリームの積分の大きさを決定することによって、前記キャリブレーション周期中の前記コンピュータ装置の速度を示す第4のデータストリームを決定すること、及び
前記第4のデータストリームが、前記キャリブレーション周期中の前記コンピュータ装置の速度が前記速度閾値を超えなかったことを示していると決定すること、
を含む、請求項11に記載の方法。 The step of receiving motion data indicative of movement of the computer device during the calibration period comprises: a first data stream indicating user acceleration for the computer device; and a second data stream indicating gravitational acceleration for the computer device; Receiving sensor data including:
Determining that the speed of the computing device during the calibration period did not exceed a speed threshold,
Determining a third data stream indicative of user acceleration relative to gravity based on the first data stream indicative of user acceleration relative to the computer device and the second data stream indicative of gravity acceleration relative to the computer device; ,
Determining a fourth data stream indicative of the speed of the computing device during the calibration period by determining a magnitude of integration of the third data stream indicative of user acceleration with respect to gravity; and Determining that the speed of the computing device during the calibration period has not exceeded the speed threshold;
12. The method of claim 11 comprising:
録音デバイス、及び
放出される前記キャリブレーション音を録音するように構成されるマイクロホン、
のうちの少なくとも1つを備える、請求項13に記載のコンピュータ装置。 further,
A recording device, and a microphone configured to record the calibration sound emitted;
The computer apparatus of claim 13, comprising at least one of:
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562220176P | 2015-09-17 | 2015-09-17 | |
US62/220,176 | 2015-09-17 | ||
US14/864,506 | 2015-09-24 | ||
US14/864,506 US9693165B2 (en) | 2015-09-17 | 2015-09-24 | Validation of audio calibration using multi-dimensional motion check |
PCT/US2016/052266 WO2017049171A1 (en) | 2015-09-17 | 2016-09-16 | Validation of audio calibration using multi-dimensional motion check |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019024563A Division JP6781779B2 (en) | 2015-09-17 | 2019-02-14 | Checking the effectiveness of audio calibration using multidimensional motion check |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018533752A JP2018533752A (en) | 2018-11-15 |
JP6483922B2 true JP6483922B2 (en) | 2019-03-13 |
Family
ID=58283732
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018514418A Active JP6483922B2 (en) | 2015-09-17 | 2016-09-16 | Validating audio calibration using multidimensional motion check |
JP2019024563A Active JP6781779B2 (en) | 2015-09-17 | 2019-02-14 | Checking the effectiveness of audio calibration using multidimensional motion check |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019024563A Active JP6781779B2 (en) | 2015-09-17 | 2019-02-14 | Checking the effectiveness of audio calibration using multidimensional motion check |
Country Status (5)
Country | Link |
---|---|
US (6) | US9693165B2 (en) |
EP (2) | EP3541095A1 (en) |
JP (2) | JP6483922B2 (en) |
CN (1) | CN108028633A (en) |
WO (1) | WO2017049171A1 (en) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9084058B2 (en) | 2011-12-29 | 2015-07-14 | Sonos, Inc. | Sound field calibration using listener localization |
US9219460B2 (en) | 2014-03-17 | 2015-12-22 | Sonos, Inc. | Audio settings based on environment |
US9106192B2 (en) | 2012-06-28 | 2015-08-11 | Sonos, Inc. | System and method for device playback calibration |
CN105940679B (en) * | 2014-01-31 | 2019-08-06 | 交互数字Ce专利控股公司 | Method and apparatus for synchronizing the playback at two electronic equipments |
US9952825B2 (en) | 2014-09-09 | 2018-04-24 | Sonos, Inc. | Audio processing algorithms |
KR102550595B1 (en) | 2014-12-08 | 2023-06-30 | 로힛 세스 | Wearable wireless hmi device |
US9693165B2 (en) | 2015-09-17 | 2017-06-27 | Sonos, Inc. | Validation of audio calibration using multi-dimensional motion check |
EP3531714B1 (en) | 2015-09-17 | 2022-02-23 | Sonos Inc. | Facilitating calibration of an audio playback device |
JP6632855B2 (en) * | 2015-10-15 | 2020-01-22 | 株式会社ディーアンドエムホールディングス | Wireless speakers, controllers, wireless audio systems, and computer readable programs |
US9743207B1 (en) | 2016-01-18 | 2017-08-22 | Sonos, Inc. | Calibration using multiple recording devices |
US10003899B2 (en) * | 2016-01-25 | 2018-06-19 | Sonos, Inc. | Calibration with particular locations |
US9991862B2 (en) | 2016-03-31 | 2018-06-05 | Bose Corporation | Audio system equalizing |
US9860662B2 (en) | 2016-04-01 | 2018-01-02 | Sonos, Inc. | Updating playback device configuration information based on calibration data |
US9763018B1 (en) | 2016-04-12 | 2017-09-12 | Sonos, Inc. | Calibration of audio playback devices |
US9794710B1 (en) | 2016-07-15 | 2017-10-17 | Sonos, Inc. | Spatial audio correction |
US10372406B2 (en) | 2016-07-22 | 2019-08-06 | Sonos, Inc. | Calibration interface |
US10459684B2 (en) | 2016-08-05 | 2019-10-29 | Sonos, Inc. | Calibration of a playback device based on an estimated frequency response |
US10341794B2 (en) | 2017-07-24 | 2019-07-02 | Bose Corporation | Acoustical method for detecting speaker movement |
US20190033438A1 (en) * | 2017-07-27 | 2019-01-31 | Acer Incorporated | Distance detection device and distance detection method thereof |
US10511930B2 (en) * | 2018-03-05 | 2019-12-17 | Centrak, Inc. | Real-time location smart speaker notification system |
US10852143B2 (en) * | 2018-06-27 | 2020-12-01 | Rohit Seth | Motion sensor with drift correction |
US10299061B1 (en) | 2018-08-28 | 2019-05-21 | Sonos, Inc. | Playback device calibration |
USD923638S1 (en) | 2019-02-12 | 2021-06-29 | Sonos, Inc. | Display screen or portion thereof with transitional graphical user interface |
US10734965B1 (en) | 2019-08-12 | 2020-08-04 | Sonos, Inc. | Audio calibration of a portable playback device |
WO2021136605A1 (en) * | 2019-12-30 | 2021-07-08 | Harman Becker Automotive Systems Gmbh | Method for performing acoustic measurements |
CN112235690B (en) * | 2020-10-13 | 2022-05-10 | 恒玄科技(上海)股份有限公司 | Method and device for adjusting audio signal, earphone assembly and readable storage medium |
Family Cites Families (549)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US679889A (en) | 1900-08-16 | 1901-08-06 | Charles I Dorn | Sand-line and pump or bailer connection. |
US4342104A (en) | 1979-11-02 | 1982-07-27 | University Court Of The University Of Edinburgh | Helium-speech communication |
US4306113A (en) | 1979-11-23 | 1981-12-15 | Morton Roger R A | Method and equalization of home audio systems |
JPS5936689U (en) | 1982-08-31 | 1984-03-07 | パイオニア株式会社 | speaker device |
EP0122290B1 (en) | 1982-10-14 | 1991-04-03 | Matsushita Electric Industrial Co., Ltd. | Speaker |
NL8300671A (en) | 1983-02-23 | 1984-09-17 | Philips Nv | AUTOMATIC EQUALIZATION SYSTEM WITH DTF OR FFT. |
US4631749A (en) | 1984-06-22 | 1986-12-23 | Heath Company | ROM compensated microphone |
US4773094A (en) | 1985-12-23 | 1988-09-20 | Dolby Ray Milton | Apparatus and method for calibrating recording and transmission systems |
US4694484A (en) | 1986-02-18 | 1987-09-15 | Motorola, Inc. | Cellular radiotelephone land station |
DE3900342A1 (en) | 1989-01-07 | 1990-07-12 | Krupp Maschinentechnik | GRIP DEVICE FOR CARRYING A STICKY MATERIAL RAIL |
JPH02280199A (en) | 1989-04-20 | 1990-11-16 | Mitsubishi Electric Corp | Reverberation device |
US5218710A (en) | 1989-06-19 | 1993-06-08 | Pioneer Electronic Corporation | Audio signal processing system having independent and distinct data buses for concurrently transferring audio signal data to provide acoustic control |
US5440644A (en) | 1991-01-09 | 1995-08-08 | Square D Company | Audio distribution system having programmable zoning features |
JPH0739968B2 (en) | 1991-03-25 | 1995-05-01 | 日本電信電話株式会社 | Sound transfer characteristics simulation method |
KR930011742B1 (en) | 1991-07-23 | 1993-12-18 | 삼성전자 주식회사 | Frequency characteristics compensation system for sound signal |
JP3208800B2 (en) | 1991-08-09 | 2001-09-17 | ソニー株式会社 | Microphone device and wireless microphone device |
JPH0828920B2 (en) | 1992-01-20 | 1996-03-21 | 松下電器産業株式会社 | Speaker measuring device |
US5757927A (en) | 1992-03-02 | 1998-05-26 | Trifield Productions Ltd. | Surround sound apparatus |
US5255326A (en) | 1992-05-18 | 1993-10-19 | Alden Stevenson | Interactive audio control system |
US5581621A (en) | 1993-04-19 | 1996-12-03 | Clarion Co., Ltd. | Automatic adjustment system and automatic adjustment method for audio devices |
US5553147A (en) | 1993-05-11 | 1996-09-03 | One Inc. | Stereophonic reproduction method and apparatus |
JP2870359B2 (en) | 1993-05-11 | 1999-03-17 | ヤマハ株式会社 | Acoustic characteristic correction device |
JP3106774B2 (en) | 1993-06-23 | 2000-11-06 | 松下電器産業株式会社 | Digital sound field creation device |
US6760451B1 (en) | 1993-08-03 | 2004-07-06 | Peter Graham Craven | Compensating filters |
US5386478A (en) | 1993-09-07 | 1995-01-31 | Harman International Industries, Inc. | Sound system remote control with acoustic sensor |
US7630500B1 (en) | 1994-04-15 | 2009-12-08 | Bose Corporation | Spatial disassembly processor |
JP4392513B2 (en) | 1995-11-02 | 2010-01-06 | バン アンド オルフセン アクティー ゼルスカブ | Method and apparatus for controlling an indoor speaker system |
EP0772374B1 (en) | 1995-11-02 | 2008-10-08 | Bang & Olufsen A/S | Method and apparatus for controlling the performance of a loudspeaker in a room |
US7012630B2 (en) | 1996-02-08 | 2006-03-14 | Verizon Services Corp. | Spatial sound conference system and apparatus |
US5754774A (en) | 1996-02-15 | 1998-05-19 | International Business Machine Corp. | Client/server communication system |
JP3094900B2 (en) | 1996-02-20 | 2000-10-03 | ヤマハ株式会社 | Network device and data transmission / reception method |
US6404811B1 (en) | 1996-05-13 | 2002-06-11 | Tektronix, Inc. | Interactive multimedia system |
JP2956642B2 (en) | 1996-06-17 | 1999-10-04 | ヤマハ株式会社 | Sound field control unit and sound field control device |
US5910991A (en) | 1996-08-02 | 1999-06-08 | Apple Computer, Inc. | Method and apparatus for a speaker for a personal computer for selective use as a conventional speaker or as a sub-woofer |
JP3698376B2 (en) | 1996-08-19 | 2005-09-21 | 松下電器産業株式会社 | Synchronous playback device |
US6469633B1 (en) | 1997-01-06 | 2002-10-22 | Openglobe Inc. | Remote control of electronic devices |
JPH10307592A (en) | 1997-05-08 | 1998-11-17 | Alpine Electron Inc | Data distributing system for on-vehicle audio device |
US6611537B1 (en) | 1997-05-30 | 2003-08-26 | Centillium Communications, Inc. | Synchronous network for digital media streams |
US6704421B1 (en) | 1997-07-24 | 2004-03-09 | Ati Technologies, Inc. | Automatic multichannel equalization control system for a multimedia computer |
TW392416B (en) | 1997-08-18 | 2000-06-01 | Noise Cancellation Tech | Noise cancellation system for active headsets |
EP0905933A3 (en) | 1997-09-24 | 2004-03-24 | STUDER Professional Audio AG | Method and system for mixing audio signals |
JPH11161266A (en) | 1997-11-25 | 1999-06-18 | Kawai Musical Instr Mfg Co Ltd | Musical sound correcting device and method |
US6032202A (en) | 1998-01-06 | 2000-02-29 | Sony Corporation Of Japan | Home audio/video network with two level device control |
US20020002039A1 (en) | 1998-06-12 | 2002-01-03 | Safi Qureshey | Network-enabled audio device |
US8479122B2 (en) | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
US6573067B1 (en) | 1998-01-29 | 2003-06-03 | Yale University | Nucleic acid encoding sodium channels in dorsal root ganglia |
US6549627B1 (en) | 1998-01-30 | 2003-04-15 | Telefonaktiebolaget Lm Ericsson | Generating calibration signals for an adaptive beamformer |
US6111957A (en) | 1998-07-02 | 2000-08-29 | Acoustic Technologies, Inc. | Apparatus and method for adjusting audio equipment in acoustic environments |
FR2781591B1 (en) | 1998-07-22 | 2000-09-22 | Technical Maintenance Corp | AUDIOVISUAL REPRODUCTION SYSTEM |
US6931134B1 (en) | 1998-07-28 | 2005-08-16 | James K. Waller, Jr. | Multi-dimensional processor and multi-dimensional audio processor system |
FI113935B (en) | 1998-09-25 | 2004-06-30 | Nokia Corp | Method for Calibrating the Sound Level in a Multichannel Audio System and a Multichannel Audio System |
DK199901256A (en) | 1998-10-06 | 1999-10-05 | Bang & Olufsen As | Multimedia System |
US6721428B1 (en) | 1998-11-13 | 2004-04-13 | Texas Instruments Incorporated | Automatic loudspeaker equalizer |
US7130616B2 (en) | 2000-04-25 | 2006-10-31 | Simple Devices | System and method for providing content, management, and interactivity for client devices |
US6766025B1 (en) | 1999-03-15 | 2004-07-20 | Koninklijke Philips Electronics N.V. | Intelligent speaker training using microphone feedback and pre-loaded templates |
US7103187B1 (en) | 1999-03-30 | 2006-09-05 | Lsi Logic Corporation | Audio calibration system |
US6256554B1 (en) | 1999-04-14 | 2001-07-03 | Dilorenzo Mark | Multi-room entertainment system with in-room media player/dispenser |
US6920479B2 (en) | 1999-06-16 | 2005-07-19 | Im Networks, Inc. | Internet radio receiver with linear tuning interface |
US7657910B1 (en) | 1999-07-26 | 2010-02-02 | E-Cast Inc. | Distributed electronic entertainment method and apparatus |
WO2001011918A2 (en) | 1999-08-11 | 2001-02-15 | Pacific Microsonics, Inc. | Compensation system and method for sound reproduction |
US6798889B1 (en) | 1999-11-12 | 2004-09-28 | Creative Technology Ltd. | Method and apparatus for multi-channel sound system calibration |
US6522886B1 (en) | 1999-11-22 | 2003-02-18 | Qwest Communications International Inc. | Method and system for simultaneously sharing wireless communications among multiple wireless handsets |
JP2001157293A (en) | 1999-12-01 | 2001-06-08 | Matsushita Electric Ind Co Ltd | Speaker system |
DE69935147T2 (en) | 1999-12-03 | 2007-10-31 | Telefonaktiebolaget Lm Ericsson (Publ) | Method for the simultaneous playback of audio signals in two telephones |
US7092537B1 (en) | 1999-12-07 | 2006-08-15 | Texas Instruments Incorporated | Digital self-adapting graphic equalizer and method |
US20010042107A1 (en) | 2000-01-06 | 2001-11-15 | Palm Stephen R. | Networked audio player transport protocol and architecture |
AU2762601A (en) | 2000-01-07 | 2001-07-24 | Informio, Inc. | Methods and apparatus for forwarding audio content using an audio web retrieval telephone system |
US20020026442A1 (en) | 2000-01-24 | 2002-02-28 | Lipscomb Kenneth O. | System and method for the distribution and sharing of media assets between media players devices |
JP2004500651A (en) | 2000-01-24 | 2004-01-08 | フリスキット インコーポレイテッド | Streaming media search and playback system |
JP2003521202A (en) | 2000-01-28 | 2003-07-08 | レイク テクノロジー リミティド | A spatial audio system used in a geographic environment. |
AU2001237673A1 (en) | 2000-02-18 | 2001-08-27 | Bridgeco Ag | Reference time distribution over a network |
US6631410B1 (en) | 2000-03-16 | 2003-10-07 | Sharp Laboratories Of America, Inc. | Multimedia wired/wireless content synchronization system and method |
US7187947B1 (en) | 2000-03-28 | 2007-03-06 | Affinity Labs, Llc | System and method for communicating selected information to an electronic device |
US20020022453A1 (en) | 2000-03-31 | 2002-02-21 | Horia Balog | Dynamic protocol selection and routing of content to mobile devices |
WO2001082650A2 (en) | 2000-04-21 | 2001-11-01 | Keyhold Engineering, Inc. | Self-calibrating surround sound system |
GB2363036B (en) | 2000-05-31 | 2004-05-12 | Nokia Mobile Phones Ltd | Conference call method and apparatus therefor |
US7031476B1 (en) | 2000-06-13 | 2006-04-18 | Sharp Laboratories Of America, Inc. | Method and apparatus for intelligent speaker |
US6643744B1 (en) | 2000-08-23 | 2003-11-04 | Nintendo Co., Ltd. | Method and apparatus for pre-fetching audio data |
US6985694B1 (en) | 2000-09-07 | 2006-01-10 | Clix Network, Inc. | Method and system for providing an audio element cache in a customized personal radio broadcast |
AU2001292738A1 (en) | 2000-09-19 | 2002-04-02 | Phatnoise, Inc. | Device-to-device network |
JP2002101500A (en) | 2000-09-22 | 2002-04-05 | Matsushita Electric Ind Co Ltd | Sound field measurement device |
US20020072816A1 (en) | 2000-12-07 | 2002-06-13 | Yoav Shdema | Audio system |
US6778869B2 (en) | 2000-12-11 | 2004-08-17 | Sony Corporation | System and method for request, delivery and use of multimedia files for audiovisual entertainment in the home environment |
US20020078161A1 (en) | 2000-12-19 | 2002-06-20 | Philips Electronics North America Corporation | UPnP enabling device for heterogeneous networks of slave devices |
US7143939B2 (en) | 2000-12-19 | 2006-12-05 | Intel Corporation | Wireless music device and method therefor |
US20020124097A1 (en) | 2000-12-29 | 2002-09-05 | Isely Larson J. | Methods, systems and computer program products for zone based distribution of audio signals |
US6731312B2 (en) | 2001-01-08 | 2004-05-04 | Apple Computer, Inc. | Media player interface |
US7305094B2 (en) | 2001-01-12 | 2007-12-04 | University Of Dayton | System and method for actively damping boom noise in a vibro-acoustic enclosure |
DE10105184A1 (en) | 2001-02-06 | 2002-08-29 | Bosch Gmbh Robert | Method for automatically adjusting a digital equalizer and playback device for audio signals to implement such a method |
DE10110422A1 (en) | 2001-03-05 | 2002-09-19 | Harman Becker Automotive Sys | Method for controlling a multi-channel sound reproduction system and multi-channel sound reproduction system |
US7095455B2 (en) * | 2001-03-21 | 2006-08-22 | Harman International Industries, Inc. | Method for automatically adjusting the sound and visual parameters of a home theatre system |
US7492909B2 (en) | 2001-04-05 | 2009-02-17 | Motorola, Inc. | Method for acoustic transducer calibration |
US6757517B2 (en) | 2001-05-10 | 2004-06-29 | Chin-Chi Chang | Apparatus and method for coordinated music playback in wireless ad-hoc networks |
US7668317B2 (en) | 2001-05-30 | 2010-02-23 | Sony Corporation | Audio post processing in DVD, DTV and other audio visual products |
US7164768B2 (en) | 2001-06-21 | 2007-01-16 | Bose Corporation | Audio signal processing |
US20030002689A1 (en) | 2001-06-29 | 2003-01-02 | Harris Corporation | Supplemental audio content system with wireless communication for a cinema and related methods |
WO2003023786A2 (en) | 2001-09-11 | 2003-03-20 | Thomson Licensing S.A. | Method and apparatus for automatic equalization mode activation |
US7312785B2 (en) | 2001-10-22 | 2007-12-25 | Apple Inc. | Method and apparatus for accelerated scrolling |
JP2003143252A (en) | 2001-11-05 | 2003-05-16 | Toshiba Corp | Mobile communication terminal |
US7391791B2 (en) | 2001-12-17 | 2008-06-24 | Implicit Networks, Inc. | Method and system for synchronization of content rendering |
US8103009B2 (en) | 2002-01-25 | 2012-01-24 | Ksc Industries, Inc. | Wired, wireless, infrared, and powerline audio entertainment systems |
US7853341B2 (en) | 2002-01-25 | 2010-12-14 | Ksc Industries, Inc. | Wired, wireless, infrared, and powerline audio entertainment systems |
JP2005518734A (en) | 2002-02-20 | 2005-06-23 | メシュネットワークス、インコーポレイテッド | System and method for routing 802.11 data traffic between channels to increase ad hoc network capacity |
US7197152B2 (en) | 2002-02-26 | 2007-03-27 | Otologics Llc | Frequency response equalization system for hearing aid microphones |
JP4059478B2 (en) | 2002-02-28 | 2008-03-12 | パイオニア株式会社 | Sound field control method and sound field control system |
US7483540B2 (en) | 2002-03-25 | 2009-01-27 | Bose Corporation | Automatic audio system equalizing |
JP2003304590A (en) | 2002-04-10 | 2003-10-24 | Nippon Telegr & Teleph Corp <Ntt> | Remote controller, sound volume adjustment method, and sound volume automatic adjustment system |
JP3929817B2 (en) | 2002-04-23 | 2007-06-13 | 株式会社河合楽器製作所 | Electronic musical instrument acoustic control device |
JP4555072B2 (en) | 2002-05-06 | 2010-09-29 | シンクロネイション インコーポレイテッド | Localized audio network and associated digital accessories |
CA2485104A1 (en) | 2002-05-09 | 2003-11-20 | Herman Cardenas | Audio network distribution system |
US6862440B2 (en) | 2002-05-29 | 2005-03-01 | Intel Corporation | Method and system for multiple channel wireless transmitter and receiver phase and amplitude calibration |
WO2004002192A1 (en) | 2002-06-21 | 2003-12-31 | University Of Southern California | System and method for automatic room acoustic correction |
US7120256B2 (en) | 2002-06-21 | 2006-10-10 | Dolby Laboratories Licensing Corporation | Audio testing system and method |
US7567675B2 (en) | 2002-06-21 | 2009-07-28 | Audyssey Laboratories, Inc. | System and method for automatic multiple listener room acoustic correction with low filter orders |
US20050021470A1 (en) | 2002-06-25 | 2005-01-27 | Bose Corporation | Intelligent music track selection |
US7072477B1 (en) | 2002-07-09 | 2006-07-04 | Apple Computer, Inc. | Method and apparatus for automatically normalizing a perceived volume level in a digitally encoded file |
US8060225B2 (en) | 2002-07-31 | 2011-11-15 | Hewlett-Packard Development Company, L. P. | Digital audio device |
EP1389853B1 (en) | 2002-08-14 | 2006-03-29 | Sony Deutschland GmbH | Bandwidth oriented reconfiguration of wireless ad hoc networks |
EP1540986A1 (en) | 2002-09-13 | 2005-06-15 | Koninklijke Philips Electronics N.V. | Calibrating a first and a second microphone |
US20040071294A1 (en) | 2002-10-15 | 2004-04-15 | Halgas Joseph F. | Method and apparatus for automatically configuring surround sound speaker systems |
JP2004172786A (en) | 2002-11-19 | 2004-06-17 | Sony Corp | Method and apparatus for reproducing audio signal |
US7295548B2 (en) | 2002-11-27 | 2007-11-13 | Microsoft Corporation | Method and system for disaggregating audio/visual components |
US7676047B2 (en) | 2002-12-03 | 2010-03-09 | Bose Corporation | Electroacoustical transducing with low frequency augmenting devices |
US20040114771A1 (en) | 2002-12-12 | 2004-06-17 | Mitchell Vaughan | Multimedia system with pre-stored equalization sets for multiple vehicle environments |
GB0301093D0 (en) | 2003-01-17 | 2003-02-19 | 1 Ltd | Set-up method for array-type sound systems |
US7925203B2 (en) | 2003-01-22 | 2011-04-12 | Qualcomm Incorporated | System and method for controlling broadcast multimedia using plural wireless network connections |
US6990211B2 (en) | 2003-02-11 | 2006-01-24 | Hewlett-Packard Development Company, L.P. | Audio system and method |
CA2522896A1 (en) | 2003-04-23 | 2004-11-04 | Rh Lyon Corp | Method and apparatus for sound transduction with minimal interference from background noise and minimal local acoustic radiation |
US7571014B1 (en) | 2004-04-01 | 2009-08-04 | Sonos, Inc. | Method and apparatus for controlling multimedia players in a multi-zone system |
US8234395B2 (en) | 2003-07-28 | 2012-07-31 | Sonos, Inc. | System and method for synchronizing operations among a plurality of independently clocked digital data processing devices |
US8280076B2 (en) | 2003-08-04 | 2012-10-02 | Harman International Industries, Incorporated | System and method for audio system configuration |
US7526093B2 (en) | 2003-08-04 | 2009-04-28 | Harman International Industries, Incorporated | System for configuring audio system |
JP2005086686A (en) | 2003-09-10 | 2005-03-31 | Fujitsu Ten Ltd | Electronic equipment |
US7039212B2 (en) | 2003-09-12 | 2006-05-02 | Britannia Investment Corporation | Weather resistant porting |
US7519188B2 (en) | 2003-09-18 | 2009-04-14 | Bose Corporation | Electroacoustical transducing |
US20060008256A1 (en) | 2003-10-01 | 2006-01-12 | Khedouri Robert K | Audio visual player apparatus and system and method of content distribution using the same |
JP4361354B2 (en) | 2003-11-19 | 2009-11-11 | パイオニア株式会社 | Automatic sound field correction apparatus and computer program therefor |
KR100678929B1 (en) | 2003-11-24 | 2007-02-07 | 삼성전자주식회사 | Method For Playing Multi-Channel Digital Sound, And Apparatus For The Same |
JP4765289B2 (en) | 2003-12-10 | 2011-09-07 | ソニー株式会社 | Method for detecting positional relationship of speaker device in acoustic system, acoustic system, server device, and speaker device |
US20050147261A1 (en) | 2003-12-30 | 2005-07-07 | Chiang Yeh | Head relational transfer function virtualizer |
US20050157885A1 (en) | 2004-01-16 | 2005-07-21 | Olney Ross D. | Audio system parameter setting based upon operator usage patterns |
US7483538B2 (en) | 2004-03-02 | 2009-01-27 | Ksc Industries, Inc. | Wireless and wired speaker hub for a home theater system |
US7742606B2 (en) | 2004-03-26 | 2010-06-22 | Harman International Industries, Incorporated | System for audio related equipment management |
US9374607B2 (en) * | 2012-06-26 | 2016-06-21 | Sonos, Inc. | Media playback system with guest access |
US8144883B2 (en) | 2004-05-06 | 2012-03-27 | Bang & Olufsen A/S | Method and system for adapting a loudspeaker to a listening position in a room |
JP3972921B2 (en) | 2004-05-11 | 2007-09-05 | ソニー株式会社 | Voice collecting device and echo cancellation processing method |
US7630501B2 (en) | 2004-05-14 | 2009-12-08 | Microsoft Corporation | System and method for calibration of an acoustic system |
WO2005117483A1 (en) | 2004-05-25 | 2005-12-08 | Huonlabs Pty Ltd | Audio apparatus and method |
US7574010B2 (en) | 2004-05-28 | 2009-08-11 | Research In Motion Limited | System and method for adjusting an audio signal |
US7490044B2 (en) | 2004-06-08 | 2009-02-10 | Bose Corporation | Audio signal processing |
JP3988750B2 (en) | 2004-06-30 | 2007-10-10 | ブラザー工業株式会社 | Sound pressure frequency characteristic adjusting device, information communication system, and program |
US7720237B2 (en) | 2004-09-07 | 2010-05-18 | Audyssey Laboratories, Inc. | Phase equalization for multi-channel loudspeaker-room responses |
KR20060022968A (en) | 2004-09-08 | 2006-03-13 | 삼성전자주식회사 | Sound reproducing apparatus and sound reproducing method |
US7664276B2 (en) | 2004-09-23 | 2010-02-16 | Cirrus Logic, Inc. | Multipass parametric or graphic EQ fitting |
US20060088174A1 (en) | 2004-10-26 | 2006-04-27 | Deleeuw William C | System and method for optimizing media center audio through microphones embedded in a remote control |
DE102004000043A1 (en) | 2004-11-17 | 2006-05-24 | Siemens Ag | Method for selective recording of a sound signal |
EP1825713B1 (en) | 2004-11-22 | 2012-10-17 | Bang & Olufsen A/S | A method and apparatus for multichannel upmixing and downmixing |
JP2006180039A (en) | 2004-12-21 | 2006-07-06 | Yamaha Corp | Acoustic apparatus and program |
EP2330783B1 (en) | 2004-12-21 | 2012-10-10 | Elliptic Laboratories AS | Channel impulse response estimation |
US9008331B2 (en) | 2004-12-30 | 2015-04-14 | Harman International Industries, Incorporated | Equalization system to improve the quality of bass sounds within a listening area |
US20080098027A1 (en) | 2005-01-04 | 2008-04-24 | Koninklijke Philips Electronics, N.V. | Apparatus For And A Method Of Processing Reproducible Data |
US7818350B2 (en) | 2005-02-28 | 2010-10-19 | Yahoo! Inc. | System and method for creating a collaborative playlist |
US8234679B2 (en) | 2005-04-01 | 2012-07-31 | Time Warner Cable, Inc. | Technique for selecting multiple entertainment programs to be provided over a communication network |
KR20060116383A (en) | 2005-05-09 | 2006-11-15 | 엘지전자 주식회사 | Method and apparatus for automatic setting equalizing functionality in a digital audio player |
US8244179B2 (en) | 2005-05-12 | 2012-08-14 | Robin Dua | Wireless inter-device data processing configured through inter-device transmitted data |
JP4407571B2 (en) | 2005-06-06 | 2010-02-03 | 株式会社デンソー | In-vehicle system, vehicle interior sound field adjustment system, and portable terminal |
EP1737265A1 (en) | 2005-06-23 | 2006-12-27 | AKG Acoustics GmbH | Determination of the position of sound sources |
US20070032895A1 (en) | 2005-07-29 | 2007-02-08 | Fawad Nackvi | Loudspeaker with demonstration mode |
CA2568916C (en) | 2005-07-29 | 2010-02-09 | Harman International Industries, Incorporated | Audio tuning system |
WO2007016465A2 (en) | 2005-07-29 | 2007-02-08 | Klipsch, L.L.C. | Loudspeaker with automatic calibration and room equalization |
US7529377B2 (en) | 2005-07-29 | 2009-05-05 | Klipsch L.L.C. | Loudspeaker with automatic calibration and room equalization |
US7590772B2 (en) | 2005-08-22 | 2009-09-15 | Apple Inc. | Audio status information for a portable electronic device |
JP4701931B2 (en) | 2005-09-02 | 2011-06-15 | 日本電気株式会社 | Method and apparatus for signal processing and computer program |
WO2007028094A1 (en) | 2005-09-02 | 2007-03-08 | Harman International Industries, Incorporated | Self-calibrating loudspeaker |
GB2430319B (en) | 2005-09-15 | 2008-09-17 | Beaumont Freidman & Co | Audio dosage control |
US20070087686A1 (en) | 2005-10-18 | 2007-04-19 | Nokia Corporation | Audio playback device and method of its operation |
JP4285469B2 (en) | 2005-10-18 | 2009-06-24 | ソニー株式会社 | Measuring device, measuring method, audio signal processing device |
JP4193835B2 (en) | 2005-10-19 | 2008-12-10 | ソニー株式会社 | Measuring device, measuring method, audio signal processing device |
US7881460B2 (en) | 2005-11-17 | 2011-02-01 | Microsoft Corporation | Configuration of echo cancellation |
US20070121955A1 (en) | 2005-11-30 | 2007-05-31 | Microsoft Corporation | Room acoustics correction device |
CN1984507A (en) | 2005-12-16 | 2007-06-20 | 乐金电子(沈阳)有限公司 | Voice-frequency/video-frequency equipment and method for automatically adjusting loundspeaker position |
WO2007068257A1 (en) | 2005-12-16 | 2007-06-21 | Tc Electronic A/S | Method of performing measurements by means of an audio system comprising passive loudspeakers |
FI20060910A0 (en) | 2006-03-28 | 2006-10-13 | Genelec Oy | Identification method and device in an audio reproduction system |
FI20060295L (en) | 2006-03-28 | 2008-01-08 | Genelec Oy | Method and device in a sound reproduction system |
FI122089B (en) | 2006-03-28 | 2011-08-15 | Genelec Oy | Calibration method and equipment for the audio system |
JP2007271802A (en) | 2006-03-30 | 2007-10-18 | Kenwood Corp | Content reproduction system and computer program |
JP4544190B2 (en) | 2006-03-31 | 2010-09-15 | ソニー株式会社 | VIDEO / AUDIO PROCESSING SYSTEM, VIDEO PROCESSING DEVICE, AUDIO PROCESSING DEVICE, VIDEO / AUDIO OUTPUT DEVICE, AND VIDEO / AUDIO SYNCHRONIZATION METHOD |
ATE527810T1 (en) | 2006-05-11 | 2011-10-15 | Global Ip Solutions Gips Ab | SOUND MIXING |
JP4725422B2 (en) | 2006-06-02 | 2011-07-13 | コニカミノルタホールディングス株式会社 | Echo cancellation circuit, acoustic device, network camera, and echo cancellation method |
US20080002839A1 (en) | 2006-06-28 | 2008-01-03 | Microsoft Corporation | Smart equalizer |
US7876903B2 (en) | 2006-07-07 | 2011-01-25 | Harris Corporation | Method and apparatus for creating a multi-dimensional communication space for use in a binaural audio system |
US7970922B2 (en) | 2006-07-11 | 2011-06-28 | Napo Enterprises, Llc | P2P real time media recommendations |
US7702282B2 (en) | 2006-07-13 | 2010-04-20 | Sony Ericsoon Mobile Communications Ab | Conveying commands to a mobile terminal through body actions |
JP2008035254A (en) | 2006-07-28 | 2008-02-14 | Sharp Corp | Sound output device and television receiver |
KR101275467B1 (en) | 2006-07-31 | 2013-06-14 | 삼성전자주식회사 | Apparatus and method for controlling automatic equalizer of audio reproducing apparatus |
US20080077261A1 (en) | 2006-08-29 | 2008-03-27 | Motorola, Inc. | Method and system for sharing an audio experience |
US9386269B2 (en) | 2006-09-07 | 2016-07-05 | Rateze Remote Mgmt Llc | Presentation of data on multiple display devices using a wireless hub |
US8483853B1 (en) | 2006-09-12 | 2013-07-09 | Sonos, Inc. | Controlling and manipulating groupings in a multi-zone media system |
US8036767B2 (en) | 2006-09-20 | 2011-10-11 | Harman International Industries, Incorporated | System for extracting and changing the reverberant content of an audio input signal |
EP2080272B1 (en) | 2006-10-17 | 2019-08-21 | D&M Holdings, Inc. | Unification of multimedia devices |
US8984442B2 (en) | 2006-11-17 | 2015-03-17 | Apple Inc. | Method and system for upgrading a previously purchased media asset |
US20080136623A1 (en) | 2006-12-06 | 2008-06-12 | Russell Calvarese | Audio trigger for mobile devices |
US8006002B2 (en) | 2006-12-12 | 2011-08-23 | Apple Inc. | Methods and systems for automatic configuration of peripherals |
US8391501B2 (en) | 2006-12-13 | 2013-03-05 | Motorola Mobility Llc | Method and apparatus for mixing priority and non-priority audio signals |
US8045721B2 (en) | 2006-12-14 | 2011-10-25 | Motorola Mobility, Inc. | Dynamic distortion elimination for output audio |
TWI353126B (en) | 2007-01-09 | 2011-11-21 | Generalplus Technology Inc | Audio system and related method integrated with ul |
US20080175411A1 (en) | 2007-01-19 | 2008-07-24 | Greve Jens | Player device with automatic settings |
US20080214160A1 (en) | 2007-03-01 | 2008-09-04 | Sony Ericsson Mobile Communications Ab | Motion-controlled audio output |
US8155335B2 (en) | 2007-03-14 | 2012-04-10 | Phillip Rutschman | Headset having wirelessly linked earpieces |
JP2008228133A (en) | 2007-03-15 | 2008-09-25 | Matsushita Electric Ind Co Ltd | Acoustic system |
US20100104114A1 (en) | 2007-03-15 | 2010-04-29 | Peter Chapman | Timbral correction of audio reproduction systems based on measured decay time or reverberation time |
KR101114940B1 (en) | 2007-03-29 | 2012-03-07 | 후지쯔 가부시끼가이샤 | Semiconductor device and bias generating circuit |
US8174558B2 (en) | 2007-04-30 | 2012-05-08 | Hewlett-Packard Development Company, L.P. | Automatically calibrating a video conference system |
US8194874B2 (en) | 2007-05-22 | 2012-06-05 | Polk Audio, Inc. | In-room acoustic magnitude response smoothing via summation of correction signals |
US8493332B2 (en) * | 2007-06-21 | 2013-07-23 | Elo Touch Solutions, Inc. | Method and system for calibrating an acoustic touchscreen |
DE102007032281A1 (en) | 2007-07-11 | 2009-01-15 | Austriamicrosystems Ag | Reproduction device and method for controlling a reproduction device |
US7796068B2 (en) | 2007-07-16 | 2010-09-14 | Gmr Research & Technology, Inc. | System and method of multi-channel signal calibration |
US8306235B2 (en) | 2007-07-17 | 2012-11-06 | Apple Inc. | Method and apparatus for using a sound sensor to adjust the audio output for a device |
KR101397433B1 (en) | 2007-07-18 | 2014-06-27 | 삼성전자주식회사 | Method and apparatus for configuring equalizer of media file player |
WO2009010832A1 (en) | 2007-07-18 | 2009-01-22 | Bang & Olufsen A/S | Loudspeaker position estimation |
US20090063274A1 (en) | 2007-08-01 | 2009-03-05 | Dublin Iii Wilbur Leslie | System and method for targeted advertising and promotions using tabletop display devices |
US20090047993A1 (en) | 2007-08-14 | 2009-02-19 | Vasa Yojak H | Method of using music metadata to save music listening preferences |
KR20090027101A (en) | 2007-09-11 | 2009-03-16 | 삼성전자주식회사 | Method for equalizing audio and video apparatus using the same |
GB2453117B (en) | 2007-09-25 | 2012-05-23 | Motorola Mobility Inc | Apparatus and method for encoding a multi channel audio signal |
US8175871B2 (en) | 2007-09-28 | 2012-05-08 | Qualcomm Incorporated | Apparatus and method of noise and echo reduction in multiple microphone audio systems |
EP2043381A3 (en) | 2007-09-28 | 2010-07-21 | Bang & Olufsen A/S | A method and a system to adjust the acoustical performance of a loudspeaker |
US20090110218A1 (en) | 2007-10-31 | 2009-04-30 | Swain Allan L | Dynamic equalizer |
US8264408B2 (en) | 2007-11-20 | 2012-09-11 | Nokia Corporation | User-executable antenna array calibration |
JP2009130643A (en) | 2007-11-22 | 2009-06-11 | Yamaha Corp | Audio signal supplying apparatus, parameter providing system, television set, av system, speaker device and audio signal supplying method |
US20090138507A1 (en) | 2007-11-27 | 2009-05-28 | International Business Machines Corporation | Automated playback control for audio devices using environmental cues as indicators for automatically pausing audio playback |
US8042961B2 (en) | 2007-12-02 | 2011-10-25 | Andrew Massara | Audio lamp |
US8126172B2 (en) | 2007-12-06 | 2012-02-28 | Harman International Industries, Incorporated | Spatial processing stereo system |
JP4561825B2 (en) | 2007-12-27 | 2010-10-13 | ソニー株式会社 | Audio signal receiving apparatus, audio signal receiving method, program, and audio signal transmission system |
US8073176B2 (en) | 2008-01-04 | 2011-12-06 | Bernard Bottum | Speakerbar |
JP5191750B2 (en) | 2008-01-25 | 2013-05-08 | 川崎重工業株式会社 | Sound equipment |
KR101460060B1 (en) | 2008-01-31 | 2014-11-20 | 삼성전자주식회사 | Method for compensating audio frequency characteristic and AV apparatus using the same |
JP5043701B2 (en) | 2008-02-04 | 2012-10-10 | キヤノン株式会社 | Audio playback device and control method thereof |
GB2457508B (en) | 2008-02-18 | 2010-06-09 | Ltd Sony Computer Entertainmen | System and method of audio adaptaton |
TWI394049B (en) | 2008-02-20 | 2013-04-21 | Ralink Technology Corp | Direct memory access system and method for transmitting/receiving packet using the same |
US20110007905A1 (en) | 2008-02-26 | 2011-01-13 | Pioneer Corporation | Acoustic signal processing device and acoustic signal processing method |
JPWO2009107227A1 (en) | 2008-02-29 | 2011-06-30 | パイオニア株式会社 | Acoustic signal processing apparatus and acoustic signal processing method |
US8401202B2 (en) | 2008-03-07 | 2013-03-19 | Ksc Industries Incorporated | Speakers with a digital signal processor |
US8503669B2 (en) | 2008-04-07 | 2013-08-06 | Sony Computer Entertainment Inc. | Integrated latency detection and echo cancellation |
US20090252481A1 (en) | 2008-04-07 | 2009-10-08 | Sony Ericsson Mobile Communications Ab | Methods, apparatus, system and computer program product for audio input at video recording |
US8325931B2 (en) | 2008-05-02 | 2012-12-04 | Bose Corporation | Detecting a loudspeaker configuration |
US8063698B2 (en) | 2008-05-02 | 2011-11-22 | Bose Corporation | Bypassing amplification |
TW200948165A (en) * | 2008-05-15 | 2009-11-16 | Asustek Comp Inc | Sound system with acoustic calibration function |
US8379876B2 (en) | 2008-05-27 | 2013-02-19 | Fortemedia, Inc | Audio device utilizing a defect detection method on a microphone array |
US20090304205A1 (en) | 2008-06-10 | 2009-12-10 | Sony Corporation Of Japan | Techniques for personalizing audio levels |
US8527876B2 (en) | 2008-06-12 | 2013-09-03 | Apple Inc. | System and methods for adjusting graphical representations of media files based on previous usage |
US8385557B2 (en) | 2008-06-19 | 2013-02-26 | Microsoft Corporation | Multichannel acoustic echo reduction |
KR100970920B1 (en) | 2008-06-30 | 2010-07-20 | 권대훈 | Tuning sound feed-back device |
US8332414B2 (en) | 2008-07-01 | 2012-12-11 | Samsung Electronics Co., Ltd. | Method and system for prefetching internet content for video recorders |
US8452020B2 (en) | 2008-08-20 | 2013-05-28 | Apple Inc. | Adjustment of acoustic properties based on proximity detection |
JP5125891B2 (en) | 2008-08-28 | 2013-01-23 | ヤマハ株式会社 | Audio system and speaker device |
EP2161950B1 (en) | 2008-09-08 | 2019-01-23 | Harman Becker Gépkocsirendszer Gyártó Korlátolt Felelösségü Társaság | Configuring a sound field |
US8488799B2 (en) | 2008-09-11 | 2013-07-16 | Personics Holdings Inc. | Method and system for sound monitoring over a network |
JP2010081124A (en) | 2008-09-24 | 2010-04-08 | Panasonic Electric Works Co Ltd | Calibration method for intercom device |
US8392505B2 (en) | 2008-09-26 | 2013-03-05 | Apple Inc. | Collaborative playlist management |
US8544046B2 (en) | 2008-10-09 | 2013-09-24 | Packetvideo Corporation | System and method for controlling media rendering in a network using a mobile device |
US8325944B1 (en) | 2008-11-07 | 2012-12-04 | Adobe Systems Incorporated | Audio mixes for listening environments |
JP5368576B2 (en) | 2008-11-14 | 2013-12-18 | ザット コーポレーション | Dynamic volume control and multi-space processing prevention |
US8085952B2 (en) | 2008-11-22 | 2011-12-27 | Mao-Liang Liu | Combination equalizer and calibrator circuit assembly for audio system |
US8126156B2 (en) | 2008-12-02 | 2012-02-28 | Hewlett-Packard Development Company, L.P. | Calibrating at least one system microphone |
TR200809433A2 (en) | 2008-12-05 | 2010-06-21 | Vestel Elektroni̇k Sanayi̇ Ve Ti̇caret A.Ş. | Dynamic caching method and system for metadata |
US8977974B2 (en) | 2008-12-08 | 2015-03-10 | Apple Inc. | Ambient noise based augmentation of media playback |
KR20100066949A (en) | 2008-12-10 | 2010-06-18 | 삼성전자주식회사 | Audio apparatus and method for auto sound calibration |
US8819554B2 (en) | 2008-12-23 | 2014-08-26 | At&T Intellectual Property I, L.P. | System and method for playing media |
CN101478296B (en) | 2009-01-05 | 2011-12-21 | 华为终端有限公司 | Gain control method and apparatus in multi-channel system |
JP5394905B2 (en) | 2009-01-14 | 2014-01-22 | ローム株式会社 | Automatic level control circuit, audio digital signal processor and variable gain amplifier gain control method using the same |
US8731500B2 (en) | 2009-01-29 | 2014-05-20 | Telefonaktiebolaget Lm Ericsson (Publ) | Automatic gain control based on bandwidth and delay spread |
US8229125B2 (en) | 2009-02-06 | 2012-07-24 | Bose Corporation | Adjusting dynamic range of an audio system |
US8626516B2 (en) | 2009-02-09 | 2014-01-07 | Broadcom Corporation | Method and system for dynamic range control in an audio processing system |
US8300840B1 (en) | 2009-02-10 | 2012-10-30 | Frye Electronics, Inc. | Multiple superimposed audio frequency test system and sound chamber with attenuated echo properties |
US8588430B2 (en) | 2009-02-11 | 2013-11-19 | Nxp B.V. | Controlling an adaptation of a behavior of an audio device to a current acoustic environmental condition |
US8620006B2 (en) | 2009-05-13 | 2013-12-31 | Bose Corporation | Center channel rendering |
WO2010138311A1 (en) | 2009-05-26 | 2010-12-02 | Dolby Laboratories Licensing Corporation | Equalization profiles for dynamic equalization of audio data |
JP5451188B2 (en) | 2009-06-02 | 2014-03-26 | キヤノン株式会社 | Standing wave detection device and control method thereof |
US8682002B2 (en) | 2009-07-02 | 2014-03-25 | Conexant Systems, Inc. | Systems and methods for transducer calibration and tuning |
US8995688B1 (en) | 2009-07-23 | 2015-03-31 | Helen Jeanne Chemtob | Portable hearing-assistive sound unit system |
US8565908B2 (en) * | 2009-07-29 | 2013-10-22 | Northwestern University | Systems, methods, and apparatus for equalization preference learning |
CN106454675B (en) | 2009-08-03 | 2020-02-07 | 图象公司 | System and method for monitoring cinema speakers and compensating for quality problems |
EP2288178B1 (en) | 2009-08-17 | 2012-06-06 | Nxp B.V. | A device for and a method of processing audio data |
CA2941646C (en) | 2009-10-05 | 2019-09-10 | Harman International Industries, Incorporated | Multichannel audio system having audio channel compensation |
CN105877914B (en) | 2009-10-09 | 2019-07-05 | 奥克兰联合服务有限公司 | Tinnitus treatment system and method |
US8539161B2 (en) | 2009-10-12 | 2013-09-17 | Microsoft Corporation | Pre-fetching content items based on social distance |
US20110091055A1 (en) | 2009-10-19 | 2011-04-21 | Broadcom Corporation | Loudspeaker localization techniques |
WO2010004056A2 (en) | 2009-10-27 | 2010-01-14 | Phonak Ag | Method and system for speech enhancement in a room |
TWI384457B (en) | 2009-12-09 | 2013-02-01 | Nuvoton Technology Corp | System and method for audio adjustment |
JP5448771B2 (en) | 2009-12-11 | 2014-03-19 | キヤノン株式会社 | Sound processing apparatus and method |
JP5290949B2 (en) | 2009-12-17 | 2013-09-18 | キヤノン株式会社 | Sound processing apparatus and method |
US20110150247A1 (en) | 2009-12-17 | 2011-06-23 | Rene Martin Oliveras | System and method for applying a plurality of input signals to a loudspeaker array |
KR20110072650A (en) | 2009-12-23 | 2011-06-29 | 삼성전자주식회사 | Audio apparatus and method for transmitting audio signal and audio system |
KR20110082840A (en) | 2010-01-12 | 2011-07-20 | 삼성전자주식회사 | Method and apparatus for adjusting volume |
JP2011164166A (en) | 2010-02-05 | 2011-08-25 | D&M Holdings Inc | Audio signal amplifying apparatus |
WO2011104146A1 (en) | 2010-02-24 | 2011-09-01 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus for generating an enhanced downmix signal, method for generating an enhanced downmix signal and computer program |
US8139774B2 (en) | 2010-03-03 | 2012-03-20 | Bose Corporation | Multi-element directional acoustic arrays |
US8265310B2 (en) | 2010-03-03 | 2012-09-11 | Bose Corporation | Multi-element directional acoustic arrays |
US9749709B2 (en) | 2010-03-23 | 2017-08-29 | Apple Inc. | Audio preview of music |
EP2550813B1 (en) | 2010-03-26 | 2016-11-09 | Harman Becker Gépkocsirendszer Gyártó Korlátolt Felelösségü Társaság | Multichannel sound reproduction method and device |
KR101953279B1 (en) | 2010-03-26 | 2019-02-28 | 돌비 인터네셔널 에이비 | Method and device for decoding an audio soundfield representation for audio playback |
JP5387478B2 (en) | 2010-03-29 | 2014-01-15 | ソニー株式会社 | Audio reproduction apparatus and audio reproduction method |
JP5488128B2 (en) | 2010-03-31 | 2014-05-14 | ヤマハ株式会社 | Signal processing device |
JP5672748B2 (en) | 2010-03-31 | 2015-02-18 | ヤマハ株式会社 | Sound field control device |
US9107021B2 (en) | 2010-04-30 | 2015-08-11 | Microsoft Technology Licensing, Llc | Audio spatialization using reflective room model |
EP2986034B1 (en) | 2010-05-06 | 2017-05-31 | Dolby Laboratories Licensing Corporation | Audio system equalization for portable media playback devices |
US9307340B2 (en) | 2010-05-06 | 2016-04-05 | Dolby Laboratories Licensing Corporation | Audio system equalization for portable media playback devices |
US8611570B2 (en) | 2010-05-25 | 2013-12-17 | Audiotoniq, Inc. | Data storage system, hearing aid, and method of selectively applying sound filters |
US8300845B2 (en) | 2010-06-23 | 2012-10-30 | Motorola Mobility Llc | Electronic apparatus having microphones with controllable front-side gain and rear-side gain |
CN103733648A (en) | 2010-07-09 | 2014-04-16 | 邦及欧路夫森有限公司 | Adaptive sound field control |
US8433076B2 (en) | 2010-07-26 | 2013-04-30 | Motorola Mobility Llc | Electronic apparatus for generating beamformed audio signals with steerable nulls |
US8965546B2 (en) | 2010-07-26 | 2015-02-24 | Qualcomm Incorporated | Systems, methods, and apparatus for enhanced acoustic imaging |
WO2012015404A1 (en) | 2010-07-29 | 2012-02-02 | Empire Technology Development Llc | Acoustic noise management through control of electrical device operations |
WO2012019043A1 (en) | 2010-08-06 | 2012-02-09 | Motorola Mobility, Inc. | Methods and devices for determining user input location using acoustic sensing elements |
US20120051558A1 (en) | 2010-09-01 | 2012-03-01 | Samsung Electronics Co., Ltd. | Method and apparatus for reproducing audio signal by adaptively controlling filter coefficient |
TWI486068B (en) | 2010-09-13 | 2015-05-21 | Htc Corp | Mobile electronic device and sound playback method thereof |
US9008338B2 (en) | 2010-09-30 | 2015-04-14 | Panasonic Intellectual Property Management Co., Ltd. | Audio reproduction apparatus and audio reproduction method |
US8767968B2 (en) | 2010-10-13 | 2014-07-01 | Microsoft Corporation | System and method for high-precision 3-dimensional audio for augmented reality |
US20120113224A1 (en) | 2010-11-09 | 2012-05-10 | Andy Nguyen | Determining Loudspeaker Layout Using Visual Markers |
CN102004823B (en) | 2010-11-11 | 2012-09-26 | 浙江中科电声研发中心 | Numerical value simulation method of vibration and acoustic characteristics of speaker |
WO2012066541A2 (en) | 2010-11-16 | 2012-05-24 | Epos Development Ltd. | System and method for object position estimation based on ultrasonic reflected signals |
US9316717B2 (en) | 2010-11-24 | 2016-04-19 | Samsung Electronics Co., Ltd. | Position determination of devices using stereo audio |
US20120148075A1 (en) | 2010-12-08 | 2012-06-14 | Creative Technology Ltd | Method for optimizing reproduction of audio signals from an apparatus for audio reproduction |
US20130051572A1 (en) | 2010-12-08 | 2013-02-28 | Creative Technology Ltd | Method for optimizing reproduction of audio signals from an apparatus for audio reproduction |
US20120183156A1 (en) * | 2011-01-13 | 2012-07-19 | Sennheiser Electronic Gmbh & Co. Kg | Microphone system with a hand-held microphone |
KR101873405B1 (en) | 2011-01-18 | 2018-07-02 | 엘지전자 주식회사 | Method for providing user interface using drawn patten and mobile terminal thereof |
US8291349B1 (en) | 2011-01-19 | 2012-10-16 | Google Inc. | Gesture-based metadata display |
US8989406B2 (en) | 2011-03-11 | 2015-03-24 | Sony Corporation | User profile based audio adjustment techniques |
US9107023B2 (en) | 2011-03-18 | 2015-08-11 | Dolby Laboratories Licensing Corporation | N surround |
US9253561B2 (en) | 2011-04-14 | 2016-02-02 | Bose Corporation | Orientation-responsive acoustic array control |
US8934655B2 (en) | 2011-04-14 | 2015-01-13 | Bose Corporation | Orientation-responsive use of acoustic reflection |
US8934647B2 (en) | 2011-04-14 | 2015-01-13 | Bose Corporation | Orientation-responsive acoustic driver selection |
US9007871B2 (en) | 2011-04-18 | 2015-04-14 | Apple Inc. | Passive proximity detection |
US8786295B2 (en) | 2011-04-20 | 2014-07-22 | Cypress Semiconductor Corporation | Current sensing apparatus and method for a capacitance-sensing device |
US8824692B2 (en) | 2011-04-20 | 2014-09-02 | Vocollect, Inc. | Self calibrating multi-element dipole microphone |
US9031268B2 (en) | 2011-05-09 | 2015-05-12 | Dts, Inc. | Room characterization and correction for multi-channel audio |
US8831244B2 (en) | 2011-05-10 | 2014-09-09 | Audiotoniq, Inc. | Portable tone generator for producing pre-calibrated tones |
US8320577B1 (en) | 2011-05-20 | 2012-11-27 | Google Inc. | Method and apparatus for multi-channel audio processing using single-channel components |
US8855319B2 (en) | 2011-05-25 | 2014-10-07 | Mediatek Inc. | Audio signal processing apparatus and audio signal processing method |
US10218063B2 (en) | 2013-03-13 | 2019-02-26 | Aliphcom | Radio signal pickup from an electrically conductive substrate utilizing passive slits |
US8588434B1 (en) | 2011-06-27 | 2013-11-19 | Google Inc. | Controlling microphones and speakers of a computing device |
US9055382B2 (en) | 2011-06-29 | 2015-06-09 | Richard Lane | Calibration of headphones to improve accuracy of recorded audio content |
EP2727379B1 (en) | 2011-07-01 | 2015-02-18 | Dolby Laboratories Licensing Corporation | Equalization of speaker arrays |
CN105472525B (en) | 2011-07-01 | 2018-11-13 | 杜比实验室特许公司 | Audio playback system monitors |
US8175297B1 (en) | 2011-07-06 | 2012-05-08 | Google Inc. | Ad hoc sensor arrays |
KR101948645B1 (en) | 2011-07-11 | 2019-02-18 | 삼성전자 주식회사 | Method and apparatus for controlling contents using graphic object |
US9154185B2 (en) | 2011-07-14 | 2015-10-06 | Vivint, Inc. | Managing audio output through an intermediary |
US9042556B2 (en) | 2011-07-19 | 2015-05-26 | Sonos, Inc | Shaping sound responsive to speaker orientation |
US20130028443A1 (en) | 2011-07-28 | 2013-01-31 | Apple Inc. | Devices with enhanced audio |
JP2014527337A (en) | 2011-07-28 | 2014-10-09 | トムソン ライセンシング | Audio calibration system and method |
US9065929B2 (en) * | 2011-08-02 | 2015-06-23 | Apple Inc. | Hearing aid detection |
US9286384B2 (en) | 2011-09-21 | 2016-03-15 | Sonos, Inc. | Methods and systems to share media |
US8879761B2 (en) | 2011-11-22 | 2014-11-04 | Apple Inc. | Orientation-based audio |
US9363386B2 (en) | 2011-11-23 | 2016-06-07 | Qualcomm Incorporated | Acoustic echo cancellation based on ultrasound motion detection |
US8983089B1 (en) | 2011-11-28 | 2015-03-17 | Rawles Llc | Sound source localization using multiple microphone arrays |
US20130166227A1 (en) | 2011-12-27 | 2013-06-27 | Utc Fire & Security Corporation | System and method for an acoustic monitor self-test |
US9084058B2 (en) | 2011-12-29 | 2015-07-14 | Sonos, Inc. | Sound field calibration using listener localization |
US8856272B2 (en) | 2012-01-08 | 2014-10-07 | Harman International Industries, Incorporated | Cloud hosted audio rendering based upon device and environment profiles |
US8996370B2 (en) | 2012-01-31 | 2015-03-31 | Microsoft Corporation | Transferring data via audio link |
JP5962038B2 (en) | 2012-02-03 | 2016-08-03 | ソニー株式会社 | Signal processing apparatus, signal processing method, program, signal processing system, and communication terminal |
US20130211843A1 (en) | 2012-02-13 | 2013-08-15 | Qualcomm Incorporated | Engagement-dependent gesture recognition |
JP2015513832A (en) | 2012-02-21 | 2015-05-14 | インタートラスト テクノロジーズ コーポレイション | Audio playback system and method |
EP2817977B1 (en) | 2012-02-24 | 2019-12-18 | Fraunhofer Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus for providing an audio signal for reproduction by a sound transducer, system, method and computer program |
US9277322B2 (en) | 2012-03-02 | 2016-03-01 | Bang & Olufsen A/S | System for optimizing the perceived sound quality in virtual sound zones |
KR102024284B1 (en) | 2012-03-14 | 2019-09-23 | 방 앤드 오루프센 에이/에스 | A method of applying a combined or hybrid sound -field control strategy |
US20130259254A1 (en) | 2012-03-28 | 2013-10-03 | Qualcomm Incorporated | Systems, methods, and apparatus for producing a directional sound field |
KR101267047B1 (en) | 2012-03-30 | 2013-05-24 | 삼성전자주식회사 | Apparatus and method for detecting earphone |
LV14747B (en) | 2012-04-04 | 2014-03-20 | Sonarworks, Sia | Method and device for correction operating parameters of electro-acoustic radiators |
US20130279706A1 (en) | 2012-04-23 | 2013-10-24 | Stefan J. Marti | Controlling individual audio output devices based on detected inputs |
EP2847971B1 (en) | 2012-05-08 | 2018-12-26 | Cirrus Logic International Semiconductor Ltd. | System and method for forming media networks from loosely coordinated media rendering devices. |
US9524098B2 (en) | 2012-05-08 | 2016-12-20 | Sonos, Inc. | Methods and systems for subwoofer calibration |
JP2013247456A (en) | 2012-05-24 | 2013-12-09 | Toshiba Corp | Acoustic processing device, acoustic processing method, acoustic processing program, and acoustic processing system |
US8903526B2 (en) | 2012-06-06 | 2014-12-02 | Sonos, Inc. | Device playback failure recovery and redistribution |
JP5284517B1 (en) | 2012-06-07 | 2013-09-11 | 株式会社東芝 | Measuring apparatus and program |
US9301073B2 (en) | 2012-06-08 | 2016-03-29 | Apple Inc. | Systems and methods for determining the condition of multiple microphones |
US9882995B2 (en) | 2012-06-25 | 2018-01-30 | Sonos, Inc. | Systems, methods, apparatus, and articles of manufacture to provide automatic wireless configuration |
US9715365B2 (en) | 2012-06-27 | 2017-07-25 | Sonos, Inc. | Systems and methods for mobile music zones |
US9690539B2 (en) | 2012-06-28 | 2017-06-27 | Sonos, Inc. | Speaker calibration user interface |
US9690271B2 (en) | 2012-06-28 | 2017-06-27 | Sonos, Inc. | Speaker calibration |
US9106192B2 (en) | 2012-06-28 | 2015-08-11 | Sonos, Inc. | System and method for device playback calibration |
US9119012B2 (en) | 2012-06-28 | 2015-08-25 | Broadcom Corporation | Loudspeaker beamforming for personal audio focal points |
US9219460B2 (en) | 2014-03-17 | 2015-12-22 | Sonos, Inc. | Audio settings based on environment |
US9065410B2 (en) | 2012-06-28 | 2015-06-23 | Apple Inc. | Automatic audio equalization using handheld mode detection |
US9706323B2 (en) | 2014-09-09 | 2017-07-11 | Sonos, Inc. | Playback device calibration |
US9031244B2 (en) | 2012-06-29 | 2015-05-12 | Sonos, Inc. | Smart audio settings |
US9615171B1 (en) | 2012-07-02 | 2017-04-04 | Amazon Technologies, Inc. | Transformation inversion to reduce the effect of room acoustics |
US9497544B2 (en) | 2012-07-02 | 2016-11-15 | Qualcomm Incorporated | Systems and methods for surround sound echo reduction |
US20140003635A1 (en) | 2012-07-02 | 2014-01-02 | Qualcomm Incorporated | Audio signal processing device calibration |
US9190065B2 (en) | 2012-07-15 | 2015-11-17 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for three-dimensional audio coding using basis function coefficients |
US9288603B2 (en) | 2012-07-15 | 2016-03-15 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for backward-compatible audio coding |
US9473870B2 (en) | 2012-07-16 | 2016-10-18 | Qualcomm Incorporated | Loudspeaker position compensation with 3D-audio hierarchical coding |
US9516446B2 (en) | 2012-07-20 | 2016-12-06 | Qualcomm Incorporated | Scalable downmix design for object-based surround codec with cluster analysis by synthesis |
US20140029201A1 (en) | 2012-07-25 | 2014-01-30 | Si Joong Yang | Power package module and manufacturing method thereof |
WO2014018365A2 (en) | 2012-07-26 | 2014-01-30 | Jvl Ventures, Llc | Systems, methods, and computer program products for receiving a feed message |
US8995687B2 (en) | 2012-08-01 | 2015-03-31 | Sonos, Inc. | Volume interactions for connected playback devices |
US9094768B2 (en) | 2012-08-02 | 2015-07-28 | Crestron Electronics Inc. | Loudspeaker calibration using multiple wireless microphones |
US8930005B2 (en) | 2012-08-07 | 2015-01-06 | Sonos, Inc. | Acoustic signatures in a playback system |
US20140052770A1 (en) | 2012-08-14 | 2014-02-20 | Packetvideo Corporation | System and method for managing media content using a dynamic playlist |
US9532153B2 (en) | 2012-08-29 | 2016-12-27 | Bang & Olufsen A/S | Method and a system of providing information to a user |
WO2014032709A1 (en) | 2012-08-29 | 2014-03-06 | Huawei Technologies Co., Ltd. | Audio rendering system |
US9532158B2 (en) | 2012-08-31 | 2016-12-27 | Dolby Laboratories Licensing Corporation | Reflected and direct rendering of upmixed content to individually addressable drivers |
US8965033B2 (en) | 2012-08-31 | 2015-02-24 | Sonos, Inc. | Acoustic optimization |
US9826328B2 (en) | 2012-08-31 | 2017-11-21 | Dolby Laboratories Licensing Corporation | System for rendering and playback of object based audio in various listening environments |
US9078055B2 (en) | 2012-09-17 | 2015-07-07 | Blackberry Limited | Localization of a wireless user equipment (UE) device based on single beep per channel signatures |
FR2995754A1 (en) | 2012-09-18 | 2014-03-21 | France Telecom | OPTIMIZED CALIBRATION OF A MULTI-SPEAKER SOUND RESTITUTION SYSTEM |
US9173023B2 (en) | 2012-09-25 | 2015-10-27 | Intel Corporation | Multiple device noise reduction microphone array |
US9319816B1 (en) | 2012-09-26 | 2016-04-19 | Amazon Technologies, Inc. | Characterizing environment using ultrasound pilot tones |
SG2012072161A (en) | 2012-09-27 | 2014-04-28 | Creative Tech Ltd | An electronic device |
CN104685903B (en) | 2012-10-09 | 2018-03-30 | 皇家飞利浦有限公司 | The apparatus and method measured for generating audio disturbances |
US8731206B1 (en) | 2012-10-10 | 2014-05-20 | Google Inc. | Measuring sound quality using relative comparison |
US9396732B2 (en) | 2012-10-18 | 2016-07-19 | Google Inc. | Hierarchical deccorelation of multichannel audio |
US9020153B2 (en) | 2012-10-24 | 2015-04-28 | Google Inc. | Automatic detection of loudspeaker characteristics |
CN107404159A (en) | 2012-10-26 | 2017-11-28 | 联发科技(新加坡)私人有限公司 | A kind of transmitter module and receiver module |
WO2014074089A1 (en) | 2012-11-06 | 2014-05-15 | D & M Holding Inc. | Selectively coordinated audio player system |
US9729986B2 (en) | 2012-11-07 | 2017-08-08 | Fairchild Semiconductor Corporation | Protection of a speaker using temperature calibration |
US9277321B2 (en) | 2012-12-17 | 2016-03-01 | Nokia Technologies Oy | Device discovery and constellation selection |
EP2747081A1 (en) | 2012-12-18 | 2014-06-25 | Oticon A/s | An audio processing device comprising artifact reduction |
JP6486833B2 (en) | 2012-12-20 | 2019-03-20 | ストラブワークス エルエルシー | System and method for providing three-dimensional extended audio |
US20140242913A1 (en) | 2013-01-01 | 2014-08-28 | Aliphcom | Mobile device speaker control |
KR102051588B1 (en) | 2013-01-07 | 2019-12-03 | 삼성전자주식회사 | Method and apparatus for playing audio contents in wireless terminal |
KR20140099122A (en) | 2013-02-01 | 2014-08-11 | 삼성전자주식회사 | Electronic device, position detecting device, system and method for setting of speakers |
CN103970793B (en) | 2013-02-04 | 2020-03-03 | 腾讯科技(深圳)有限公司 | Information query method, client and server |
BR112015018352A2 (en) | 2013-02-05 | 2017-07-18 | Koninklijke Philips Nv | audio device and method for operating an audio system |
US9913064B2 (en) | 2013-02-07 | 2018-03-06 | Qualcomm Incorporated | Mapping virtual speakers to physical speakers |
US10178489B2 (en) | 2013-02-08 | 2019-01-08 | Qualcomm Incorporated | Signaling audio rendering information in a bitstream |
US9319019B2 (en) | 2013-02-11 | 2016-04-19 | Symphonic Audio Technologies Corp. | Method for augmenting a listening experience |
US9300266B2 (en) | 2013-02-12 | 2016-03-29 | Qualcomm Incorporated | Speaker equalization for mobile devices |
US9247365B1 (en) | 2013-02-14 | 2016-01-26 | Google Inc. | Impedance sensing for speaker characteristic information |
US9602918B2 (en) | 2013-02-28 | 2017-03-21 | Google Inc. | Stream caching for audio mixers |
KR20180097786A (en) | 2013-03-05 | 2018-08-31 | 애플 인크. | Adjusting the beam pattern of a speaker array based on the location of one or more listeners |
CN105122845B (en) | 2013-03-06 | 2018-09-07 | 苹果公司 | The system and method that steady while driver for speaker system measures |
KR101887983B1 (en) | 2013-03-07 | 2018-08-14 | 애플 인크. | Room and program responsive loudspeaker system |
EP2974382B1 (en) | 2013-03-11 | 2017-04-19 | Apple Inc. | Timbre constancy across a range of directivities for a loudspeaker |
US9185199B2 (en) | 2013-03-12 | 2015-11-10 | Google Technology Holdings LLC | Method and apparatus for acoustically characterizing an environment in which an electronic device resides |
US9351091B2 (en) | 2013-03-12 | 2016-05-24 | Google Technology Holdings LLC | Apparatus with adaptive microphone configuration based on surface proximity, surface type and motion |
US9357306B2 (en) | 2013-03-12 | 2016-05-31 | Nokia Technologies Oy | Multichannel audio calibration method and apparatus |
US20140267148A1 (en) | 2013-03-14 | 2014-09-18 | Aliphcom | Proximity and interface controls of media devices for media presentations |
US10212534B2 (en) | 2013-03-14 | 2019-02-19 | Michael Edward Smith Luna | Intelligent device connection for wireless media ecosystem |
US20140279889A1 (en) | 2013-03-14 | 2014-09-18 | Aliphcom | Intelligent device connection for wireless media ecosystem |
JP6084750B2 (en) | 2013-03-14 | 2017-02-22 | アップル インコーポレイテッド | Indoor adaptive equalization using speakers and portable listening devices |
US9349282B2 (en) | 2013-03-15 | 2016-05-24 | Aliphcom | Proximity sensing device control architecture and data communication protocol |
US20140286496A1 (en) | 2013-03-15 | 2014-09-25 | Aliphcom | Proximity sensing device control architecture and data communication protocol |
WO2014145367A2 (en) | 2013-03-15 | 2014-09-18 | Keyssa, Inc. | Contactless ehf data communication |
US9559651B2 (en) | 2013-03-29 | 2017-01-31 | Apple Inc. | Metadata for loudness and dynamic range control |
US9689960B1 (en) | 2013-04-04 | 2017-06-27 | Amazon Technologies, Inc. | Beam rejection in multi-beam microphone systems |
US9253586B2 (en) | 2013-04-26 | 2016-02-02 | Sony Corporation | Devices, methods and computer program products for controlling loudness |
US9307508B2 (en) | 2013-04-29 | 2016-04-05 | Google Technology Holdings LLC | Systems and methods for syncronizing multiple electronic devices |
US9942661B2 (en) | 2013-05-14 | 2018-04-10 | Logitech Europe S.A | Method and apparatus for controlling portable audio devices |
US10031647B2 (en) | 2013-05-14 | 2018-07-24 | Google Llc | System for universal remote media control in a multi-user, multi-platform, multi-device environment |
US9909863B2 (en) | 2013-05-16 | 2018-03-06 | Koninklijke Philips N.V. | Determination of a room dimension estimate |
US9472201B1 (en) | 2013-05-22 | 2016-10-18 | Google Inc. | Speaker localization by means of tactile input |
US9412385B2 (en) | 2013-05-28 | 2016-08-09 | Qualcomm Incorporated | Performing spatial masking with respect to spherical harmonic coefficients |
US9420393B2 (en) | 2013-05-29 | 2016-08-16 | Qualcomm Incorporated | Binaural rendering of spherical harmonic coefficients |
US9215545B2 (en) | 2013-05-31 | 2015-12-15 | Bose Corporation | Sound stage controller for a near-field speaker-based audio system |
US9979438B2 (en) | 2013-06-07 | 2018-05-22 | Apple Inc. | Controlling a media device using a mobile device |
US9654073B2 (en) | 2013-06-07 | 2017-05-16 | Sonos, Inc. | Group volume control |
US20160049051A1 (en) | 2013-06-21 | 2016-02-18 | Hello Inc. | Room monitoring device with packaging |
US20150011195A1 (en) * | 2013-07-03 | 2015-01-08 | Eric Li | Automatic volume control based on context and location |
WO2015009748A1 (en) | 2013-07-15 | 2015-01-22 | Dts, Inc. | Spatial calibration of surround sound systems including listener position estimation |
US9832517B2 (en) | 2013-07-17 | 2017-11-28 | Telefonaktiebolaget Lm Ericsson (Publ) | Seamless playback of media content using digital watermarking |
US9596553B2 (en) | 2013-07-18 | 2017-03-14 | Harman International Industries, Inc. | Apparatus and method for performing an audio measurement sweep |
US9336113B2 (en) | 2013-07-29 | 2016-05-10 | Bose Corporation | Method and device for selecting a networked media device |
US10219094B2 (en) | 2013-07-30 | 2019-02-26 | Thomas Alan Donaldson | Acoustic detection of audio sources to facilitate reproduction of spatial audio spaces |
US10225680B2 (en) | 2013-07-30 | 2019-03-05 | Thomas Alan Donaldson | Motion detection of audio sources to facilitate reproduction of spatial audio spaces |
US9565497B2 (en) | 2013-08-01 | 2017-02-07 | Caavo Inc. | Enhancing audio using a mobile device |
CN104349090B (en) | 2013-08-09 | 2019-07-19 | 三星电子株式会社 | Tune the system and method for audio processing feature |
EP3280162A1 (en) | 2013-08-20 | 2018-02-07 | Harman Becker Gépkocsirendszer Gyártó Korlátolt Felelösségü Társaság | A system for and a method of generating sound |
EP2842529A1 (en) | 2013-08-30 | 2015-03-04 | GN Store Nord A/S | Audio rendering system categorising geospatial objects |
US20150078586A1 (en) | 2013-09-16 | 2015-03-19 | Amazon Technologies, Inc. | User input with fingerprint sensor |
CN103491397B (en) | 2013-09-25 | 2017-04-26 | 歌尔股份有限公司 | Method and system for achieving self-adaptive surround sound |
US9231545B2 (en) | 2013-09-27 | 2016-01-05 | Sonos, Inc. | Volume enhancements in a multi-zone media playback system |
KR102114219B1 (en) | 2013-10-10 | 2020-05-25 | 삼성전자주식회사 | Audio system, Method for outputting audio, and Speaker apparatus thereof |
US9402095B2 (en) | 2013-11-19 | 2016-07-26 | Nokia Technologies Oy | Method and apparatus for calibrating an audio playback system |
US9240763B2 (en) | 2013-11-25 | 2016-01-19 | Apple Inc. | Loudness normalization based on user feedback |
US20150161360A1 (en) | 2013-12-06 | 2015-06-11 | Microsoft Corporation | Mobile Device Generated Sharing of Cloud Media Collections |
US9451377B2 (en) | 2014-01-07 | 2016-09-20 | Howard Massey | Device, method and software for measuring distance to a sound generator by using an audible impulse signal |
EP3092824B1 (en) | 2014-01-10 | 2017-11-01 | Dolby Laboratories Licensing Corporation | Calibration of virtual height speakers using programmable portable devices |
US9560449B2 (en) | 2014-01-17 | 2017-01-31 | Sony Corporation | Distributed wireless speaker system |
US9729984B2 (en) | 2014-01-18 | 2017-08-08 | Microsoft Technology Licensing, Llc | Dynamic calibration of an audio system |
US9288597B2 (en) | 2014-01-20 | 2016-03-15 | Sony Corporation | Distributed wireless speaker system with automatic configuration determination when new speakers are added |
US9116912B1 (en) | 2014-01-31 | 2015-08-25 | EyeGroove, Inc. | Methods and devices for modifying pre-existing media items |
US20150229699A1 (en) | 2014-02-10 | 2015-08-13 | Comcast Cable Communications, Llc | Methods And Systems For Linking Content |
US9590969B2 (en) | 2014-03-13 | 2017-03-07 | Ca, Inc. | Identity verification services using private data |
US9264839B2 (en) | 2014-03-17 | 2016-02-16 | Sonos, Inc. | Playback device configuration based on proximity detection |
US9746491B2 (en) * | 2014-03-17 | 2017-08-29 | Plantronics, Inc. | Sensor calibration based on device use state |
US9554201B2 (en) | 2014-03-31 | 2017-01-24 | Bose Corporation | Multiple-orientation audio device and related apparatus |
EP2928211A1 (en) | 2014-04-04 | 2015-10-07 | Oticon A/s | Self-calibration of multi-microphone noise reduction system for hearing assistance devices using an auxiliary device |
WO2015156775A1 (en) | 2014-04-08 | 2015-10-15 | Empire Technology Development Llc | Sound verification |
US9467779B2 (en) | 2014-05-13 | 2016-10-11 | Apple Inc. | Microphone partial occlusion detector |
US10368183B2 (en) | 2014-05-19 | 2019-07-30 | Apple Inc. | Directivity optimized sound reproduction |
US9398392B2 (en) * | 2014-06-30 | 2016-07-19 | Microsoft Technology Licensing, Llc | Audio calibration and adjustment |
US20160119730A1 (en) | 2014-07-07 | 2016-04-28 | Project Aalto Oy | Method for improving audio quality of online multimedia content |
US9516414B2 (en) | 2014-07-09 | 2016-12-06 | Blackberry Limited | Communication device and method for adapting to audio accessories |
US9516444B2 (en) | 2014-07-15 | 2016-12-06 | Sonavox Canada Inc. | Wireless control and calibration of audio system |
JP6210458B2 (en) | 2014-07-30 | 2017-10-11 | パナソニックIpマネジメント株式会社 | Failure detection system and failure detection method |
US20160036881A1 (en) | 2014-08-01 | 2016-02-04 | Qualcomm Incorporated | Computing device and method for exchanging metadata with peer devices in order to obtain media playback resources from a network service |
CN104284291B (en) | 2014-08-07 | 2016-10-05 | 华南理工大学 | The earphone dynamic virtual playback method of 5.1 path surround sounds and realize device |
CN106688248B (en) | 2014-09-09 | 2020-04-14 | 搜诺思公司 | Audio processing algorithms and databases |
US10127006B2 (en) | 2014-09-09 | 2018-11-13 | Sonos, Inc. | Facilitating calibration of an audio playback device |
US9952825B2 (en) | 2014-09-09 | 2018-04-24 | Sonos, Inc. | Audio processing algorithms |
US9891881B2 (en) | 2014-09-09 | 2018-02-13 | Sonos, Inc. | Audio processing algorithm database |
US9910634B2 (en) | 2014-09-09 | 2018-03-06 | Sonos, Inc. | Microphone calibration |
US9196432B1 (en) | 2014-09-24 | 2015-11-24 | James Thomas O'Keeffe | Smart electrical switch with audio capability |
CN104219604B (en) | 2014-09-28 | 2017-02-15 | 三星电子(中国)研发中心 | Stereo playback method of loudspeaker array |
WO2016054098A1 (en) | 2014-09-30 | 2016-04-07 | Nunntawi Dynamics Llc | Method for creating a virtual acoustic stereo system with an undistorted acoustic center |
EP3755003A1 (en) | 2014-09-30 | 2020-12-23 | Apple Inc. | Multi-driver acoustic horn for horizontal beam control |
EP3800902A1 (en) | 2014-09-30 | 2021-04-07 | Apple Inc. | Method to determine loudspeaker change of placement |
US9747906B2 (en) | 2014-11-14 | 2017-08-29 | The Nielson Company (Us), Llc | Determining media device activation based on frequency response analysis |
US9832524B2 (en) | 2014-11-18 | 2017-11-28 | Caavo Inc | Configuring television speakers |
US9584915B2 (en) | 2015-01-19 | 2017-02-28 | Microsoft Technology Licensing, Llc | Spatial audio with remote speakers |
US9578418B2 (en) | 2015-01-21 | 2017-02-21 | Qualcomm Incorporated | System and method for controlling output of multiple audio output devices |
US20160239255A1 (en) | 2015-02-16 | 2016-08-18 | Harman International Industries, Inc. | Mobile interface for loudspeaker optimization |
US9811212B2 (en) | 2015-02-25 | 2017-11-07 | Microsoft Technology Licensing, Llc | Ultrasound sensing of proximity and touch |
US20160260140A1 (en) | 2015-03-06 | 2016-09-08 | Spotify Ab | System and method for providing a promoted track display for use with a media content or streaming environment |
US9609383B1 (en) | 2015-03-23 | 2017-03-28 | Amazon Technologies, Inc. | Directional audio for virtual environments |
US9678708B2 (en) | 2015-04-24 | 2017-06-13 | Sonos, Inc. | Volume limit |
US9568994B2 (en) | 2015-05-19 | 2017-02-14 | Spotify Ab | Cadence and media content phase alignment |
US9813621B2 (en) | 2015-05-26 | 2017-11-07 | Google Llc | Omnistereo capture for mobile devices |
US9794719B2 (en) | 2015-06-15 | 2017-10-17 | Harman International Industries, Inc. | Crowd sourced audio data for venue equalization |
CN104967953B (en) | 2015-06-23 | 2018-10-09 | Tcl集团股份有限公司 | A kind of multichannel playback method and system |
US9544701B1 (en) | 2015-07-19 | 2017-01-10 | Sonos, Inc. | Base properties in a media playback system |
US9686625B2 (en) | 2015-07-21 | 2017-06-20 | Disney Enterprises, Inc. | Systems and methods for delivery of personalized audio |
US9538305B2 (en) | 2015-07-28 | 2017-01-03 | Sonos, Inc. | Calibration error conditions |
US9913056B2 (en) | 2015-08-06 | 2018-03-06 | Dolby Laboratories Licensing Corporation | System and method to enhance speakers connected to devices with microphones |
US9911433B2 (en) | 2015-09-08 | 2018-03-06 | Bose Corporation | Wireless audio synchronization |
US9693165B2 (en) | 2015-09-17 | 2017-06-27 | Sonos, Inc. | Validation of audio calibration using multi-dimensional motion check |
EP3531714B1 (en) | 2015-09-17 | 2022-02-23 | Sonos Inc. | Facilitating calibration of an audio playback device |
CN105163221B (en) | 2015-09-30 | 2019-06-28 | 广州三星通信技术研究有限公司 | The method and its electric terminal of earphone active noise reduction are executed in electric terminal |
US9653075B1 (en) | 2015-11-06 | 2017-05-16 | Google Inc. | Voice commands across devices |
US10123141B2 (en) | 2015-11-13 | 2018-11-06 | Bose Corporation | Double-talk detection for acoustic echo cancellation |
US9648438B1 (en) | 2015-12-16 | 2017-05-09 | Oculus Vr, Llc | Head-related transfer function recording using positional tracking |
EP3182732A1 (en) | 2015-12-18 | 2017-06-21 | Thomson Licensing | Apparatus and method for detecting loudspeaker connection or positionning errors during calibration of a multi channel audio system |
US10206052B2 (en) | 2015-12-22 | 2019-02-12 | Bragi GmbH | Analytical determination of remote battery temperature through distributed sensor array system and method |
US9743207B1 (en) | 2016-01-18 | 2017-08-22 | Sonos, Inc. | Calibration using multiple recording devices |
US9859858B2 (en) | 2016-01-19 | 2018-01-02 | Apple Inc. | Correction of unknown audio content |
US10003899B2 (en) | 2016-01-25 | 2018-06-19 | Sonos, Inc. | Calibration with particular locations |
EP3214858A1 (en) | 2016-03-03 | 2017-09-06 | Thomson Licensing | Apparatus and method for determining delay and gain parameters for calibrating a multi channel audio system |
US9864574B2 (en) | 2016-04-01 | 2018-01-09 | Sonos, Inc. | Playback device calibration based on representation spectral characteristics |
US9860662B2 (en) | 2016-04-01 | 2018-01-02 | Sonos, Inc. | Updating playback device configuration information based on calibration data |
US9763018B1 (en) | 2016-04-12 | 2017-09-12 | Sonos, Inc. | Calibration of audio playback devices |
US10425730B2 (en) | 2016-04-14 | 2019-09-24 | Harman International Industries, Incorporated | Neural network-based loudspeaker modeling with a deconvolution filter |
US10125006B2 (en) | 2016-05-19 | 2018-11-13 | Ronnoco Coffee, Llc | Dual compartment beverage diluting and cooling medium container and system |
US10459684B2 (en) | 2016-08-05 | 2019-10-29 | Sonos, Inc. | Calibration of a playback device based on an estimated frequency response |
US10783883B2 (en) | 2016-11-03 | 2020-09-22 | Google Llc | Focus session at a voice interface device |
EP3879297A1 (en) | 2017-04-14 | 2021-09-15 | Signify Holding B.V. | A positioning system for determining a location of an object |
US10455322B2 (en) | 2017-08-18 | 2019-10-22 | Roku, Inc. | Remote control with presence sensor |
KR102345926B1 (en) | 2017-08-28 | 2022-01-03 | 삼성전자주식회사 | Electronic Device for detecting proximity of external object using signal having specified frequency |
US10614857B2 (en) | 2018-07-02 | 2020-04-07 | Apple Inc. | Calibrating media playback channels for synchronized presentation |
US10299061B1 (en) | 2018-08-28 | 2019-05-21 | Sonos, Inc. | Playback device calibration |
-
2015
- 2015-09-24 US US14/864,506 patent/US9693165B2/en active Active
-
2016
- 2016-09-16 EP EP19167365.6A patent/EP3541095A1/en not_active Withdrawn
- 2016-09-16 EP EP16779219.1A patent/EP3350922B1/en active Active
- 2016-09-16 JP JP2018514418A patent/JP6483922B2/en active Active
- 2016-09-16 WO PCT/US2016/052266 patent/WO2017049171A1/en active Application Filing
- 2016-09-16 CN CN201680054164.XA patent/CN108028633A/en active Pending
-
2017
- 2017-04-05 US US15/480,265 patent/US9992597B2/en active Active
-
2018
- 2018-06-04 US US15/996,878 patent/US10419864B2/en active Active
-
2019
- 2019-02-14 JP JP2019024563A patent/JP6781779B2/en active Active
- 2019-09-13 US US16/570,679 patent/US11197112B2/en active Active
-
2021
- 2021-12-06 US US17/543,430 patent/US11706579B2/en active Active
-
2023
- 2023-07-12 US US18/351,033 patent/US20240015458A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20180359585A1 (en) | 2018-12-13 |
US9992597B2 (en) | 2018-06-05 |
US11197112B2 (en) | 2021-12-07 |
WO2017049171A1 (en) | 2017-03-23 |
US20200008000A1 (en) | 2020-01-02 |
EP3350922B1 (en) | 2019-05-08 |
EP3350922A1 (en) | 2018-07-25 |
US20220240036A1 (en) | 2022-07-28 |
US11706579B2 (en) | 2023-07-18 |
CN108028633A (en) | 2018-05-11 |
EP3541095A1 (en) | 2019-09-18 |
US20240015458A1 (en) | 2024-01-11 |
JP6781779B2 (en) | 2020-11-04 |
US20170208408A1 (en) | 2017-07-20 |
JP2019133160A (en) | 2019-08-08 |
JP2018533752A (en) | 2018-11-15 |
US9693165B2 (en) | 2017-06-27 |
US10419864B2 (en) | 2019-09-17 |
US20170086004A1 (en) | 2017-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6483922B2 (en) | Validating audio calibration using multidimensional motion check | |
US10462592B2 (en) | Calibration error conditions | |
JP6523543B2 (en) | Calibration of playback device | |
US11540073B2 (en) | Playback device self-calibration | |
JP6524273B2 (en) | Calibration of playback device | |
JP7092829B2 (en) | How to facilitate calibration of audio playback devices | |
JP6383896B1 (en) | A hybrid test tone for spatially averaged room audio calibration using a moving microphone | |
JP6503457B2 (en) | Audio processing algorithm and database | |
JP6216471B2 (en) | Audio settings based on environment | |
US10021503B2 (en) | Determining direction of networked microphone device relative to audio playback device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180821 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190115 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6483922 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |