JP2019134470A - Audio processing algorithms and databases - Google Patents

Audio processing algorithms and databases Download PDF

Info

Publication number
JP2019134470A
JP2019134470A JP2019056360A JP2019056360A JP2019134470A JP 2019134470 A JP2019134470 A JP 2019134470A JP 2019056360 A JP2019056360 A JP 2019056360A JP 2019056360 A JP2019056360 A JP 2019056360A JP 2019134470 A JP2019134470 A JP 2019134470A
Authority
JP
Japan
Prior art keywords
playback
zone
audio
audio signal
processing algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019056360A
Other languages
Japanese (ja)
Other versions
JP6792015B2 (en
Inventor
ティモシー・シーン
Sheen Timothy
サイモン・ジャービス
Jarvis Simon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sonos Inc
Original Assignee
Sonos Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US14/481,505 external-priority patent/US9952825B2/en
Priority claimed from US14/481,514 external-priority patent/US9891881B2/en
Application filed by Sonos Inc filed Critical Sonos Inc
Publication of JP2019134470A publication Critical patent/JP2019134470A/en
Application granted granted Critical
Publication of JP6792015B2 publication Critical patent/JP6792015B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R27/00Public address systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2227/00Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
    • H04R2227/005Audio distribution systems for home, i.e. multi-room use
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/09Electronic reduction of distortion of stereophonic sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/13Aspects of volume control, not necessarily automatic, in stereophonic sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space

Abstract

To provide a reproduction device that removes the acoustic characteristics of the reproduction device from the acoustic response of a reproduction zone.SOLUTION: An audio processing algorithm to be applied by a reproduction device s determined when an audio content is reproduced within the reproduction zone. The determination of the audio processing algorithm includes causing the reproduction device to reproduce a first audio signal in the reproduction zone and receiving data indicative of a second audio signal detected by a microphone of the reproduction device. The audio processing algorithm is determined on the basis of the characteristics of the second audio signal and the reproduction device. The audio processing algorithm is calculated or identified in the database on the basis of the acoustic properties of the reproduction zone. The acoustic characteristics of the reproduction zone are determined on the basis of the second audio signal and the characteristics of the reproduction device. The audio processing algorithm is then applied by the reproduction device.SELECTED DRAWING: Figure 5

Description

関連出願の相互参照Cross-reference of related applications

本願は、2014年9月9日に出願された米国特許出願第14/481,505号及び2014年9月9日に出願された米国特許出願第14/481,514号の優先権を主張しており、その全体が参照されることにより本明細書に組み込まれる。   This application claims priority to US patent application Ser. No. 14 / 481,505 filed on Sep. 9, 2014 and US Patent Application No. 14 / 481,514 filed Sep. 9, 2014. Which is hereby incorporated by reference in its entirety.

本願は、コンシューマ製品に関するものであり、特に、メディア再生に向けられた方法、システム、製品、機能、サービス、および他の要素に関するものや、それらのいくつかの態様に関する。   This application relates to consumer products, and in particular, to methods, systems, products, features, services, and other elements directed to media playback and some aspects thereof.

2003年に、ソノズ・インコーポレイテッドが最初の特許出願のうちの1つである「複数のネットワークデバイス間のオーディオ再生を同期する方法」と題する特許出願をし、2005年にメディア再生システムの販売を開始するまで、アウトラウド設定におけるデジタルオーディオへのアクセスおよび試聴のオプションは制限されていた。人々は、ソノズ無線HiFiシステムによって、1つ又は複数のネットワーク再生デバイスを介して多数のソースから音楽を体験できるようになっている。スマートフォン、タブレット、又はコンピュータにインストールされたソフトウェアコントロールアプリケーションを通じて、ネットワーク再生デバイスを備えたいずれの部屋においても、人々は自分が望む音楽を再生することができる。また、例えばコントローラを用いて、再生デバイスを備えた各部屋に異なる歌をストリーミングすることもできるし、同期再生のために複数の部屋をグループ化することもできるし、全ての部屋において同期して同じ歌を聞くこともできる。   In 2003, Sonos Incorporated filed a patent application entitled “Method of Synchronizing Audio Playback Between Multiple Network Devices”, one of the first patent applications, and in 2005, marketed a media playback system. Until it started, the options for accessing and listening to digital audio in the outloud setting were limited. People can experience music from multiple sources via one or more network playback devices with the Sonos Wireless HiFi system. Through a software control application installed on a smartphone, tablet, or computer, people can play the music they want in any room with a network playback device. Also, for example, a controller can be used to stream different songs to each room equipped with a playback device, or multiple rooms can be grouped for synchronized playback, or synchronized in all rooms. You can listen to the same song.

これまでのデジタルメディアに対する関心の高まりを考えると、試聴体験を更に向上させることができるコンシューマアクセス可能な技術を更に開発することにニーズがある。   Given the growing interest in digital media, there is a need to further develop consumer accessible technologies that can further improve the listening experience.

本明細書で開示されている技術の特徴、態様、および利点は、以下の記載、添付の特許請求の範囲、および添付の図面を参照するとより理解しやすい。   The features, aspects, and advantages of the techniques disclosed herein may be better understood with reference to the following description, appended claims, and accompanying drawings.

ある実施形態で実施可能な例示的なメデイア再生システムの構成を示す図The figure which shows the structure of the example media reproduction system which can be implemented with an embodiment 例示的な再生デバイスの機能ブロック図Functional block diagram of an exemplary playback device 例示的な制御デバイスの機能ブロック図Functional block diagram of an exemplary control device 例示的なコントローラインタフェースを示す図Diagram showing an example controller interface オーディオ処理アルゴリズムのデータベースを保守する第1の方法の例示的なフロー図Exemplary flow diagram of a first method of maintaining a database of audio processing algorithms オーディオ処理アルゴリズムの第1のデータベースの例示的な部分を示す図FIG. 4 shows an exemplary portion of a first database of audio processing algorithms. オーディオ処理アルゴリズムの第2のデータベースの例示的な部分を示す図FIG. 4 shows an exemplary portion of a second database of audio processing algorithms オーディオ処理アルゴリズムのデータベースを保守する第2の方法の例示的なフロー図Exemplary flow diagram of a second method of maintaining a database of audio processing algorithms 再生デバイスが校正されうる例示的な再生ゾーンを示す図Diagram showing an exemplary playback zone in which the playback device can be calibrated 1つ又は複数の再生ゾーン特性に基づいてオーディオ処理アルゴリズムを決定する第1の方法の例示的なフロー図Exemplary flow diagram of a first method for determining an audio processing algorithm based on one or more playback zone characteristics. 1つ又は複数の再生ゾーン特性に基づいてオーディオ処理アルゴリズムを決定する第2の方法の例示的なフロー図Exemplary flow diagram of a second method for determining an audio processing algorithm based on one or more playback zone characteristics. オーディオ処理アルゴリズムのデータベースからオーディオ処理アルゴリズムを特定する例示的なフロー図Exemplary flow diagram for identifying an audio processing algorithm from a database of audio processing algorithms

図面は、いくつかの例示的な実施形態を説明することを目的としているが、本発明が、図面に示した配置および手段に限定されるものではないことは理解される。   Although the drawings are intended to illustrate some exemplary embodiments, it is understood that the invention is not limited to the arrangements and instrumentality shown in the drawings.

I.概要
再生デバイスが再生ゾーンにおいてオーディオコンテンツを再生するとき、再生の品質は、再生ゾーンの音響特性に依存することがある。本明細書の説明において、再生ゾーンは、1つ又は複数の再生デバイス又は再生デバイスのグループを含むことができる。再生ゾーンの音響特性は、再生ゾーンの寸法、再生ゾーン内の家具の種類、及び再生ゾーン内の家具の配置などに依存することがある。そのため、異なる再生ゾーンは、異なる音響特性を有する場合がある。再生デバイスの所定のモデルは、異なる音響特性を有する様々な異なる再生ゾーンにおいて使用されうるため、単一のオーディオ処理アルゴリズムは、異なる再生ゾーンのそれぞれにおける再生デバイスによる一貫したオーディオ再生品質を提供しないことがある。
I. Overview When a playback device plays audio content in a playback zone, the quality of the playback may depend on the acoustic characteristics of the playback zone. In the description herein, a playback zone can include one or more playback devices or groups of playback devices. The acoustic characteristics of the playback zone may depend on the dimensions of the playback zone, the type of furniture in the playback zone, the arrangement of furniture in the playback zone, and the like. As such, different playback zones may have different acoustic characteristics. Since a given model of a playback device can be used in a variety of different playback zones with different acoustic characteristics, a single audio processing algorithm does not provide consistent audio playback quality by the playback device in each of the different playback zones There is.

本明細書において記載される例は、再生ゾーン内に再生デバイスが存在するような再生ゾーンの音響特性に基づいて、再生デバイスが適用するオーディオ処理アルゴリズムを決定することに関する。再生ゾーンにおいてオーディオコンテンツを再生するときの、決定したオーディオ処理アルゴリズムの再生デバイスによる適用は、再生ゾーンにおいて再生デバイスによってレンダリングされたオーディオコンテンツに、少なくともある程度、所定のオーディオ特性を持たせることができる。ある場合では、オーディオ処理アルゴリズムの適用は、オーディオコンテンツの1つ又は複数のオーディオ周波数におけるオーディオ増幅を変更することである。他の例もまた可能である。   The examples described herein relate to determining an audio processing algorithm that a playback device applies based on the acoustic characteristics of the playback zone such that the playback device is in the playback zone. The application by the playback device of the determined audio processing algorithm when playing the audio content in the playback zone can cause the audio content rendered by the playback device in the playback zone to have at least some predetermined audio characteristics. In some cases, the application of the audio processing algorithm is to change the audio amplification at one or more audio frequencies of the audio content. Other examples are also possible.

ある例では、オーディオ処理アルゴリズムのデータベースは保守されてもよく、データベース内のオーディオ処理アルゴリズムは、再生ゾーンの1つ又は複数の特性に基づいて特定されてもよい。再生ゾーンの1つ又は複数の特性は、再生ゾーンの音響特性、及び/又は再生ゾーンの寸法、再生ゾーンの床材及び/又は壁材、並びに再生ゾーン内の家具の数及び/又は種類などのうちの1つ又は複数を含んでもよい。   In one example, a database of audio processing algorithms may be maintained, and the audio processing algorithms in the database may be identified based on one or more characteristics of the playback zone. One or more characteristics of the regeneration zone may include the acoustic characteristics of the regeneration zone and / or the dimensions of the regeneration zone, the flooring and / or wall material of the regeneration zone, and the number and / or type of furniture in the regeneration zone One or more of them may be included.

オーディオ処理アルゴリズムのデータベースを保守することは、再生ゾーンの1つ又は複数の特性に対応する少なくとも1つのオーディオ処理アルゴリズムを決定すること、及び決定したオーディオ処理アルゴリズムをデータベースに追加することを含んでもよい。ある例では、データベースは、データベースを保守する1つ又は複数のデバイス又は1つ又は複数の他のデバイスに格納されうる。本明細書における説明において、別段の記載がない限り、データベースを保守するための機能は、とりわけ、1つ又は複数のコンピューティングデバイス(すなわち、サーバ)、1つ又は複数の再生デバイス、又は1つ又は複数のコントローラデバイスによって実行されうる。しかしながら、単純化のために、機能を実行する1つ又は複数のデバイスは、一般に、コンピューティングデバイスと称されてもよい。   Maintaining a database of audio processing algorithms may include determining at least one audio processing algorithm corresponding to one or more characteristics of the playback zone and adding the determined audio processing algorithm to the database. . In one example, the database may be stored on one or more devices or one or more other devices that maintain the database. In the description herein, unless otherwise stated, functions for maintaining a database include, among other things, one or more computing devices (ie, servers), one or more playback devices, or one Or it may be executed by multiple controller devices. However, for simplicity, the device or devices that perform the function may be generally referred to as a computing device.

ある例では、そのようなオーディオ処理アルゴリズムを決定することは、コンピューティングデバイスが再生ゾーンの音響特性を決定することを含んでもよい。ある場合では、再生ゾーンは、再生デバイスがオーディオコンテンツを再生することができる再生ゾーンをシミュレートするために使用されるモデルルームであってもよい。そのような場合、モデルルームの1つ又は複数の物理的特性(すなわち、寸法、床材及び壁材など)が予め決定されてもよい。別の場合では、再生ゾーンは、再生デバイスのユーザの自宅内の部屋であってもよい。そのような場合、再生ゾーンの物理的特性は、ユーザによって提供されてもよく又は未知であってもよい。   In certain examples, determining such an audio processing algorithm may include the computing device determining an acoustic characteristic of the playback zone. In some cases, the playback zone may be a model room that is used to simulate a playback zone in which a playback device can play audio content. In such cases, one or more physical characteristics (ie, dimensions, flooring and walling, etc.) of the model room may be predetermined. In another case, the playback zone may be a room in the home of the user of the playback device. In such cases, the physical characteristics of the playback zone may be provided by the user or unknown.

ある例では、コンピューティングデバイスは、再生ゾーン内の再生デバイスにオーディオ信号を再生させてもよい。ある場合では、再生されたオーディオ信号は、再生デバイスによってレンダリング可能な全周波数レンジを実質的にカバーする周波数を有するオーディオコンテンツを含んでもよい。その後、再生デバイスは、再生デバイスのマイクロホンを使用してオーディオ信号を検出してもよい。再生デバイスのマイクロホンは、再生デバイスの内蔵マイクロホンであってもよい。ある場合では、検出されたオーディオ信号は、再生されたオーディオ信号に対応する部分を含んでもよい。例えば、検出されたオーディオ信号は、再生ゾーン内で反射された再生されたオーディオ信号の成分を含んでもよい。コンピューティングデバイスは、検出されたオーディオ信号を再生デバイスから受信し、検出されたオーディオ信号に基づいて再生ゾーンの音響応答を決定してもよい。   In one example, the computing device may cause a playback device in the playback zone to play the audio signal. In some cases, the played audio signal may include audio content having a frequency that substantially covers the entire frequency range that can be rendered by the playback device. The playback device may then detect the audio signal using the microphone of the playback device. The microphone of the playback device may be a built-in microphone of the playback device. In some cases, the detected audio signal may include a portion corresponding to the reproduced audio signal. For example, the detected audio signal may include a component of the reproduced audio signal reflected within the reproduction zone. The computing device may receive the detected audio signal from the playback device and determine the acoustic response of the playback zone based on the detected audio signal.

そして、コンピューティングデバイスは、再生ゾーンの音響応答から再生デバイスの音響特性を除去することによって再生ゾーンの音響特性を決定してもよい。再生デバイスの音響特性は、再生デバイスのモデルに対応する音響特性であってもよい。ある場合では、再生デバイスのモデルに対応する音響特性は、無響室におけるモデルの代表的な再生デバイスによって再生されて検出されたオーディオ信号に基づいて決定されてもよい。   The computing device may then determine the acoustic characteristics of the playback zone by removing the acoustic characteristics of the playback device from the acoustic response of the playback zone. The acoustic characteristics of the playback device may be acoustic characteristics corresponding to the model of the playback device. In some cases, the acoustic characteristics corresponding to the model of the playback device may be determined based on the audio signal played back and detected by the model's representative playback device in an anechoic chamber.

そして、コンピューティングデバイスは、決定した再生ゾーンの音響特性及び所定のオーディオ特性に基づいて、対応するオーディオ処理アルゴリズムを決定してもよい。所定のオーディオ特性は、良好なサウンディングとみなされる特定の周波数等化を含んでもよい。対応するオーディオ処理アルゴリズムが決定されて、再生ゾーンにおいてオーディオコンテンツを再生するときの再生デバイスによる対応するオーディオ処理アルゴリズムの適用は、再生ゾーンにおいて再生デバイスによってレンダリングされたオーディオコンテンツに、少なくともある程度、所定のオーディオ特性を持たせてもよい。例えば、再生ゾーンの音響特性が特定のオーディオ周波数が他の周波数よりも減衰されたものである場合、対応するオーディオ処理アルゴリズムは、特定のオーディオ周波数の強めた増幅を含んでもよい。他の例もまた可能である。   The computing device may then determine a corresponding audio processing algorithm based on the determined acoustic characteristics of the playback zone and predetermined audio characteristics. The predetermined audio characteristic may include a specific frequency equalization that is considered good sounding. The application of the corresponding audio processing algorithm by the playback device when the corresponding audio processing algorithm is determined and playing the audio content in the playback zone may be applied to the audio content rendered by the playback device in the playback zone at least to some extent. Audio characteristics may be provided. For example, if the acoustic characteristics of the playback zone are such that a particular audio frequency is attenuated relative to other frequencies, the corresponding audio processing algorithm may include an enhanced amplification of the particular audio frequency. Other examples are also possible.

そして、決定されたオーディオ処理アルゴリズムと再生ゾーンの音響特性との関連付けは、データベース内のエントリとして記憶されてもよい。幾つかの場合では、オーディオ処理アルゴリズムと再生ゾーンの1つ又は複数の他の特性との関連付けが追加的に又は代替的にデータベースに記憶されてもよい。例えば、再生ゾーンが特定の寸法からなる場合、オーディオ処理アルゴリズムと特定の部屋寸法との関連付けがデータベースに記憶されてもよい。他の例もまた可能である。   The determined association between the audio processing algorithm and the acoustic characteristics of the playback zone may be stored as an entry in the database. In some cases, the association of the audio processing algorithm with one or more other characteristics of the playback zone may additionally or alternatively be stored in a database. For example, if the playback zone consists of specific dimensions, the association between the audio processing algorithm and specific room dimensions may be stored in the database. Other examples are also possible.

ある例では、データベースが、コンピューティングデバイスによってアクセスされることによって、再生デバイスが再生ゾーンに適用するためのオーディオ処理アルゴリズムが特定されてもよい。ある例では、データベースにアクセスしてオーディオ処理アルゴリズムを特定するコンピューティングデバイスは、上述したように、データベースを保守する同一のコンピューティングデバイスであってもよい。別の例では、コンピューティングデバイスは、異なるコンピューティングデバイスであってもよい。   In one example, the database may be accessed by the computing device to identify an audio processing algorithm for the playback device to apply to the playback zone. In one example, the computing device that accesses the database and identifies the audio processing algorithm may be the same computing device that maintains the database, as described above. In another example, the computing device may be a different computing device.

幾つかの場合では、データベースにアクセスして、再生デバイスが再生ゾーンに適用するためのオーディオ処理アルゴリズムを特定することは、再生デバイスの校正の一部であってもよい。そのような再生デバイスの校正は、再生デバイス自体によって、再生デバイスと通信するサーバによって、又はコントローラデバイスによって開始されてもよい。ある場合では、再生デバイスが新規であり且つ校正が再生デバイスの初期設定の一部であるため、校正が開始されてもよい。別の場合では、再生デバイスは、同一の再生ゾーン内に又はある再生ゾーンから別の再生ゾーンに再配置されてもよい。さらなる場合では、校正は、コントローラデバイスを介してなど、再生デバイスのユーザによって開始されてもよい。   In some cases, accessing the database to identify an audio processing algorithm for the playback device to apply to the playback zone may be part of the calibration of the playback device. Such playback device calibration may be initiated by the playback device itself, by a server in communication with the playback device, or by a controller device. In some cases, calibration may be initiated because the playback device is new and calibration is part of the playback device's initial settings. In other cases, playback devices may be relocated within the same playback zone or from one playback zone to another. In further cases, calibration may be initiated by a user of the playback device, such as via a controller device.

ある例では、再生デバイスの校正は、他の可能性の中でも特に、コンピューティングデバイスが、再生デバイスのユーザに、再生ゾーンの近似寸法、床材又は壁材、家具の量などの再生ゾーンの1つ又は複数の特性を示すように促すことを含んでもよい。コンピューティングデバイスは、コントローラデバイス上のユーザインタフェースを介してユーザに促すことができる。ユーザによって提供される再生ゾーンの1つ又は複数の特性に基づいて、再生ゾーンの1つ又は複数の特性に対応するオーディオ処理アルゴリズムがデータベースにおいて特定されてもよく、したがって、再生デバイスは、再生ゾーンにおいてオーディオコンテンツを再生するときに特定されたオーディオ処理アルゴリズムを適用してもよい。   In one example, calibration of the playback device may include, among other possibilities, a computing device that allows a user of the playback device to use one of the playback zones, such as approximate dimensions of the playback zone, flooring or wall material, furniture quantity, etc. Prompting to show one or more characteristics may be included. The computing device can prompt the user via a user interface on the controller device. Based on one or more characteristics of the playback zone provided by the user, an audio processing algorithm corresponding to the one or more characteristics of the playback zone may be identified in the database, so that the playback device The audio processing algorithm specified when the audio content is played back may be applied.

別の例では、再生デバイスの校正は、再生ゾーンの音響特性を決定すること、及び再生ゾーンの音響特性に基づいて対応するオーディオ処理アルゴリズムを特定することを含んでもよい。再生ゾーンの音響特性の決定は、上述したものと同様であってもよい。例えば、再生デバイスが校正されている再生ゾーン内の再生デバイスは、第1のオーディオ信号を再生した後に、再生デバイスのマイクロホンを使用して第2のオーディオ信号を検出してもよい。そして、第2のオーディオ信号は、再生ゾーンの音響特性を決定することに基づいてもよい。決定された音響特性に基づいて、対応するオーディオ処理アルゴリズムがデータベース内で特定されてもよく、したがって、再生デバイスは、再生ゾーンにおいてオーディオコンテンツを再生するときに、特定されたオーディオ処理アルゴリズムを適用してもよい。上述したように、再生ゾーンにおいてオーディオコンテンツを再生するときの再生デバイスによる対応するオーディオ処理アルゴリズムの適用は、再生ゾーンにおいて再生デバイスによってレンダリングされたオーディオコンテンツに、少なくともある程度、所定のオーディオ特性を持たせることができる。   In another example, calibration of the playback device may include determining the acoustic characteristics of the playback zone and identifying a corresponding audio processing algorithm based on the acoustic characteristics of the playback zone. The determination of the acoustic characteristics of the playback zone may be the same as described above. For example, a playback device in a playback zone in which the playback device is calibrated may detect the second audio signal using the playback device microphone after playing back the first audio signal. The second audio signal may then be based on determining the acoustic characteristics of the playback zone. Based on the determined acoustic characteristics, a corresponding audio processing algorithm may be identified in the database, so that the playback device applies the identified audio processing algorithm when playing the audio content in the playback zone. May be. As described above, application of a corresponding audio processing algorithm by a playback device when playing audio content in a playback zone causes the audio content rendered by the playback device in the playback zone to have at least some predetermined audio characteristics. be able to.

上述した再生デバイスの校正についての説明は、一般に、オーディオ処理アルゴリズムのデータベースを含むが、当業者は、コンピューティングデバイスがデータベースにアクセスすることなく再生ゾーンについてのオーディオ処理アルゴリズムを決定することができることを理解するであろう。例えば、データベース内の対応するオーディオ処理アルゴリズムを特定する代わりに、コンピューティングデバイスは、(検出されたオーディオ信号からの)再生ゾーンの音響特性と、データベースについてのオーディオ処理アルゴリズムエントリの保守及び生成に関連して上述したものと同様の所定のオーディオ特性とに基づいて、オーディオ処理アルゴリズムを計算することによってオーディオ処理アルゴリズムを決定することができる。他の例もまた可能である。   Although the above description of playback device calibration generally includes a database of audio processing algorithms, one of ordinary skill in the art will be able to determine an audio processing algorithm for a playback zone without accessing the database. You will understand. For example, instead of identifying a corresponding audio processing algorithm in the database, the computing device is responsible for maintaining and generating the acoustic characteristics of the playback zone (from the detected audio signal) and audio processing algorithm entries for the database. Thus, the audio processing algorithm can be determined by calculating the audio processing algorithm based on predetermined audio characteristics similar to those described above. Other examples are also possible.

ある場合では、校正されるべき再生デバイスは、再生ゾーンにおいてオーディオコンテンツを同期して再生するように構成された複数の再生デバイスのうちの1つであってもよい。そのような場合、再生ゾーンの音響特性の決定は、再生ゾーン内の他の再生デバイスによって再生されたオーディオ信号を含むこともできる。ある例では、オーディオ処理アルゴリズムを決定している間、再生ゾーンにおける複数の再生デバイスのそれぞれは、同時にオーディオ信号を再生することができ、再生デバイスのマイクロホンによって検出されたオーディオ信号は、再生デバイスによって再生されたオーディオ信号に対応する部分とともに、再生ゾーン内の他の再生デバイスによって再生されたオーディオ信号の部分を含んでもよい。検出されたオーディオ信号に基づいて、再生ゾーンの音響応答を決定することができ、再生ゾーンの音響応答から校正されている再生デバイスの音響特性を除去することによって、他の再生デバイスを含む再生ゾーンの音響特性を決定することができる。そして、オーディオ処理アルゴリズムは、再生ゾーンの音響特性に基づいてデータベース内で計算又は特定され、再生デバイスによって適用されうる。   In some cases, the playback device to be calibrated may be one of a plurality of playback devices configured to play audio content synchronously in the playback zone. In such a case, the determination of the acoustic characteristics of the playback zone can also include audio signals played by other playback devices in the playback zone. In one example, while determining an audio processing algorithm, each of a plurality of playback devices in the playback zone can play an audio signal at the same time, and the audio signal detected by the playback device microphone is transmitted by the playback device. A portion corresponding to the reproduced audio signal may be included as well as a portion of the audio signal reproduced by another reproduction device in the reproduction zone. A playback zone that can determine the acoustic response of the playback zone based on the detected audio signal and that includes other playback devices by removing the calibrated playback device's acoustic characteristics from the playback zone's acoustic response Can be determined. The audio processing algorithm can then be calculated or identified in the database based on the acoustic characteristics of the playback zone and applied by the playback device.

別の場合では、再生ゾーン内の複数の再生デバイスにおける2つ以上の再生デバイスは、各内蔵マイクロホンをそれぞれ有することができ、上記記載にしたがってそれぞれ個別に校正されうる。1つの例において、2つ以上の再生デバイスのそれぞれのマイクロホンによって検出されたオーディオ信号の集合に基づいて、再生ゾーンの音響特性が決定されてもよく、音響特性に対応するオーディオ処理アルゴリズムは、2つ以上の再生デバイスのそれぞれについて特定されてもよい。他の例もまた可能である。   In other cases, two or more playback devices in a plurality of playback devices in the playback zone can each have their own built-in microphones and can be individually calibrated according to the description above. In one example, the acoustic characteristics of the playback zone may be determined based on a set of audio signals detected by respective microphones of two or more playback devices, and the audio processing algorithm corresponding to the acoustic characteristics is 2 It may be specified for each of two or more playback devices. Other examples are also possible.

上述したように、本開示は、再生デバイスを含む特定の再生ゾーンの音響特性に基づいて、再生デバイスが適用するオーディオ処理アルゴリズムを決定することを含む。1つの態様において、コンピューティングデバイスが提供される。コンピューティングデバイスは、プロセッサと、プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリとを含む。本機能は、再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させること、及び再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを再生デバイスから受信することを含む。第2のオーディオ信号は、第1のオーディオ信号に対応する部分を含む。本機能は、さらに、第2のオーディオ信号及び再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び決定したオーディオ処理アルゴリズムを示すデータを再生デバイスに送信することを含む。   As described above, the present disclosure includes determining an audio processing algorithm that a playback device applies based on the acoustic characteristics of a particular playback zone that includes the playback device. In one aspect, a computing device is provided. The computing device includes a processor and memory that stores instructions that are executable by the processor and that cause the computing device to perform functions. The function includes causing the playback device in the playback zone to play the first audio signal and receiving data indicating the second audio signal detected by the playback device microphone from the playback device. The second audio signal includes a portion corresponding to the first audio signal. The function further includes determining an audio processing algorithm based on the second audio signal and the acoustic characteristics of the playback device, and transmitting data indicating the determined audio processing algorithm to the playback device.

別の態様において、コンピューティングデバイスが提供される。コンピューティングデバイスは、プロセッサと、プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリとを含む。本機能は、第1の再生デバイスに再生ゾーンにおいて第1のオーディオ信号を再生させること、第2の再生デバイスに再生ゾーンにおいて第2のオーディオ信号を再生させること、及び第1の再生デバイスのマイクロホンによって検出された第3のオーディオ信号を示すデータを第1の再生デバイスから受信することを含む。第3のオーディオ信号は、(i)第1のオーディオ信号に対応する部分と、(ii)第2の再生デバイスによって再生された第2のオーディオ信号に対応する部分とを含む。また、本機能は、第3のオーディオ信号及び第1の再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び決定したオーディオ処理アルゴリズムを示すデータを第1の再生デバイスに送信することを含む。   In another aspect, a computing device is provided. The computing device includes a processor and memory that stores instructions that are executable by the processor and that cause the computing device to perform functions. The function allows the first playback device to play the first audio signal in the playback zone, causes the second playback device to play the second audio signal in the playback zone, and the microphone of the first playback device. Receiving data indicating the third audio signal detected by the first playback device. The third audio signal includes (i) a portion corresponding to the first audio signal and (ii) a portion corresponding to the second audio signal reproduced by the second reproduction device. In addition, this function determines an audio processing algorithm based on the third audio signal and the acoustic characteristics of the first playback device, and transmits data indicating the determined audio processing algorithm to the first playback device. Including that.

別の態様において、再生デバイスが提供される。再生デバイスは、プロセッサと、マイクロホンと、プロセッサによって実行可能であって再生デバイスに機能を実行させる命令を格納したメモリとを含む。本機能は、再生ゾーンにおいて第1のオーディオ信号を再生しながら、マイクロホンによって第2のオーディオ信号を検出することを含む。第2のオーディオ信号は、第1のオーディオ信号に対応する部分を含む。また、本機能は、第2のオーディオ信号及び再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び再生ゾーンにおいてメディアアイテムを再生するときに、決定されたオーディオ処理アルゴリズムをメディアアイテムに対応するオーディオデータに適用することを含む。   In another aspect, a playback device is provided. The playback device includes a processor, a microphone, and a memory that stores instructions that are executable by the processor and that cause the playback device to perform functions. This function includes detecting the second audio signal by the microphone while reproducing the first audio signal in the reproduction zone. The second audio signal includes a portion corresponding to the first audio signal. The function also determines an audio processing algorithm based on the second audio signal and the acoustic characteristics of the playback device, and determines the determined audio processing algorithm when the media item is played in the playback zone. Application to audio data corresponding to.

別の態様において、コンピューティングデバイスが提供される。コンピューティングデバイスは、プロセッサと、プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリとを含む。本機能は、再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させること、及び再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを受信することを含む。第2のオーディオ信号は、再生デバイスによって再生された第1のオーディオ信号に対応する部分を含む。また、本機能は、第2のオーディオ信号及び再生デバイスの特性に基づいて再生ゾーンの音響特性を決定すること、再生ゾーンの音響特性に基づいてオーディオ処理アルゴリズムを決定すること、及びオーディオ処理アルゴリズムと再生ゾーンの音響特性との関連付けをデータベースに記憶させることを含む。   In another aspect, a computing device is provided. The computing device includes a processor and memory that stores instructions that are executable by the processor and that cause the computing device to perform functions. The function includes causing a playback device in the playback zone to play the first audio signal and receiving data indicating the second audio signal detected by the microphone of the playback device. The second audio signal includes a portion corresponding to the first audio signal reproduced by the reproduction device. In addition, the function determines the acoustic characteristics of the playback zone based on the characteristics of the second audio signal and the playback device, determines the audio processing algorithm based on the acoustic characteristics of the playback zone, and the audio processing algorithm Storing an association with the acoustic characteristics of the playback zone in a database.

別の態様において、コンピューティングデバイスが提供される。コンピューティングデバイスは、プロセッサと、プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリとを含む。本機能は、再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させること、及び(i)再生ゾーンの1つ又は複数の特性を示すデータと、(ii)再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータとを受信することを含む。第2のオーディオ信号は、再生デバイスによって再生されたオーディオ信号に対応する部分を含む。また、本機能は、第2のオーディオ信号及び再生デバイスの特性に基づいてオーディオ処理アルゴリズムを決定すること、及び決定したオーディオ処理アルゴリズムと再生ゾーンの1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させることを含む。   In another aspect, a computing device is provided. The computing device includes a processor and memory that stores instructions that are executable by the processor and that cause the computing device to perform functions. This function allows a playback device in the playback zone to play the first audio signal, and (i) data indicative of one or more characteristics of the playback zone, and (ii) detected by the microphone of the playback device Receiving data indicative of the second audio signal. The second audio signal includes a portion corresponding to the audio signal reproduced by the reproduction device. The function also determines an audio processing algorithm based on the characteristics of the second audio signal and the playback device, and determines the determined audio processing algorithm and at least one of the characteristics of the playback zone. Storing the association in a database.

別の態様において、コンピューティングデバイスが提供される。コンピューティングデバイスは、プロセッサと、プロセッサによって実行可能であって再生デバイスに機能を実行させる命令を格納したメモリとを含む。本機能は、(i)複数のオーディオ処理アルゴリズム及び(ii)複数の再生ゾーン特性のデータベースを保守することを含む。複数のオーディオ処理アルゴリズムのうちの各オーディオ処理アルゴリズムは、複数の再生ゾーン特性のうちの少なくとも1つの再生ゾーン特性に対応する。また、本機能は、再生ゾーンの1つ又は複数の特性を示すデータを受信すること、データに基づいてオーディオ処理アルゴリズムをデータベースにおいて特定すること、及び特定したオーディオ処理アルゴリズムを示すデータを送信することを含む。   In another aspect, a computing device is provided. The computing device includes a processor and memory that stores instructions that are executable by the processor and that cause the playback device to perform functions. This function includes maintaining a database of (i) multiple audio processing algorithms and (ii) multiple playback zone characteristics. Each audio processing algorithm of the plurality of audio processing algorithms corresponds to at least one reproduction zone characteristic of the plurality of reproduction zone characteristics. The function also receives data indicating one or more characteristics of the playback zone, specifies an audio processing algorithm in the database based on the data, and transmits data indicating the specified audio processing algorithm. including.

本明細書に記載の幾つかの例は、「ユーザ」及び/又は他の実体のような任意の主体によって行われる機能について言及するが、このことは単に例示目的であると理解されるべきである。特許請求の範囲は、特許請求の範囲自体の記載によって明示的に要請されない限り、そのような例示の主体の動作であることを要請するものと解釈されてはならない。当業者にとって、本開示には他の複数の実施形態が含まれることは理解されるであろう。   Although some examples described herein refer to functions performed by any entity, such as a “user” and / or other entity, this should be understood to be for illustrative purposes only. is there. The claims should not be construed as requiring the operation of such exemplary subject matter unless explicitly required by the recitation of the claims themselves. Those skilled in the art will appreciate that the present disclosure includes other embodiments.

II.動作環境の例
図1は、本明細書で開示されている1つ又は複数の実施形態で実施可能又は実装可能なメディア再生システム100の例示的な構成を示す。図示されるように、メディア再生システム100は、複数の部屋および空間、例えば、主寝室、オフィス、ダイニングルーム、およびリビングルームを有する例示的なホーム環境と関連付けられている。図1の例に示されるように、メディア再生システム100は、再生デバイス102−124、制御デバイス126および128、有線又は無線のネットワークルータ130を含む。
II. Exemplary Operating Environment FIG. 1 illustrates an exemplary configuration of a media playback system 100 that can be implemented or implemented with one or more embodiments disclosed herein. As shown, media playback system 100 is associated with an exemplary home environment having multiple rooms and spaces, eg, a master bedroom, an office, a dining room, and a living room. As shown in the example of FIG. 1, the media playback system 100 includes playback devices 102-124, control devices 126 and 128, and a wired or wireless network router 130.

更に、例示的なメディア再生システム100の異なる構成要素、および異なる構成要素がどのように作用してユーザにメディア体験を提供するかに関しての説明は、以下のセクションで述べられている。本明細書における説明は、概してメディア再生システム100を参照しているが、本明細書で述べられている技術は、図1に示されるホーム環境の用途に限定されるものではない。例えば、本明細書で述べられている技術は、マルチゾーンオーディオが望まれる環境、例えば、レストラン、モール、又は空港のような商業的環境、スポーツ用多目的車(SUV)、バス又は車のような車両、船、若しくはボード、飛行機などの環境において有益である。   In addition, descriptions of the different components of the exemplary media playback system 100 and how the different components work to provide a media experience to the user are described in the following sections. Although the description herein generally refers to the media playback system 100, the techniques described herein are not limited to the home environment application shown in FIG. For example, the techniques described herein can be used in environments where multi-zone audio is desired, such as commercial environments such as restaurants, malls, or airports, sports multipurpose vehicles (SUVs), buses or cars. Useful in environments such as vehicles, ships, boards, airplanes, etc.

a.例示的な再生デバイス
図2は、図1のメディア再生システム100の再生デバイス102−124の1つ又は複数を構成する例示的な再生デバイス200の機能ブロック図を示す。再生デバイス200は、プロセッサ202、ソフトウェアコンポーネント204、メモリ206、オーディオ処理コンポーネント208、オーディオアンプ210、スピーカー212、マイクロホン220、およびネットワークインタフェース214を含んでもよい。ネットワークインタフェース214は、無線インタフェース216および有線インタフェース218を含む。ある場合では、再生デバイス200は、スピーカー212を含まないが、再生デバイス200を外部スピーカーに接続するためのスピーカーインタフェースを含んでいてもよい。別の場合では、再生デバイス200は、スピーカー212もオーディオアンプ210も含まないが、再生デバイス200を外部オーディオアンプ又はオーディオビジュアルレシーバーに接続するためのオーディオインタフェースを含んでもよい。
a. Exemplary Playback Device FIG. 2 shows a functional block diagram of an exemplary playback device 200 that constitutes one or more of the playback devices 102-124 of the media playback system 100 of FIG. The playback device 200 may include a processor 202, software component 204, memory 206, audio processing component 208, audio amplifier 210, speaker 212, microphone 220, and network interface 214. The network interface 214 includes a wireless interface 216 and a wired interface 218. In some cases, the playback device 200 does not include the speaker 212, but may include a speaker interface for connecting the playback device 200 to an external speaker. In other cases, the playback device 200 does not include the speaker 212 or the audio amplifier 210, but may include an audio interface for connecting the playback device 200 to an external audio amplifier or audiovisual receiver.

ある例では、プロセッサ202は、メモリ206に記憶された命令に基づいて、入力データを処理するように構成されたクロック駆動コンピュータコンポーネントであってもよい。メモリ206は、プロセッサ202によって実行可能な命令を記憶するように構成された非一時的なコンピュータ読み取り可能記録媒体であってもよい。例えば、メモリ206は、ある機能を実行するためにプロセッサ202によって実行可能なソフトウェアコンポーネント204の1つ又は複数をロードすることができるデータストレージであってもよい。ある例では、機能は、再生デバイス200がオーディオソース又は別の再生デバイスからオーディオデータを読み出すステップを含んでもよい。別の例では、機能は、再生デバイス200がネットワーク上の別のデバイス又は再生デバイスにオーディオデータを送信するステップを含んでもよい。更に別の例では、機能は、マルチチャンネルオーディオ環境を作るために、再生デバイス200と1つ又は複数の再生デバイスとをペアリングするステップを含んでもよい。   In one example, the processor 202 may be a clocked computer component configured to process input data based on instructions stored in the memory 206. The memory 206 may be a non-transitory computer readable recording medium configured to store instructions executable by the processor 202. For example, the memory 206 may be a data storage that can load one or more of the software components 204 executable by the processor 202 to perform certain functions. In one example, the function may include the playback device 200 reading audio data from an audio source or another playback device. In another example, the functionality may include the playback device 200 sending audio data to another device on the network or to a playback device. In yet another example, the functionality may include pairing the playback device 200 with one or more playback devices to create a multi-channel audio environment.

ある機能は、再生デバイス200が、1つ又は複数の他の再生デバイスと、オーディオコンテンツの再生を同期するステップを含む。再生を同期している間、再生デバイス200によるオーディオコンテンツの再生と1つ又は複数の他の再生デバイスによる再生との間の遅延を、リスナーが気づかないことが好ましい。「複数の独立クロックデジタルデータ処理デバイス間の動作を同期するシステムおよび方法」と題する米国特許第8,234,395号が本明細書に参照として援用されており、それは再生デバイス間のオーディオ再生を同期することが述べられたより詳細な例を提供している。   One feature includes the playback device 200 synchronizing the playback of audio content with one or more other playback devices. While synchronizing playback, it is preferred that the listener is unaware of the delay between playback of audio content by playback device 200 and playback by one or more other playback devices. US Pat. No. 8,234,395, entitled “System and Method for Synchronizing Operation Between Multiple Independent Clock Digital Data Processing Devices”, is incorporated herein by reference, which provides audio playback between playback devices. It provides a more detailed example where synchronization is stated.

更に、メモリ206は、データを記憶するように構成されていてもよい。データは、例えば、1つ又は複数のゾーンおよび/又はゾーングループに一部として含まれる再生デバイス200などの再生デバイス200、再生デバイス200によりアクセス可能なオーディオソース、又は再生デバイス200(又は他の再生デバイス)と関連付け可能な再生キュー、に関連付けられている。データは、定期的に更新され、再生デバイス200の状態を示す1つ又は複数の状態変数として記憶されてもよい。また、メモリ206は、メディアシステムの他のデバイスの状態と関連付けられたデータを含んでもよく、デバイス間で随時共有することによって、1つ又は複数のデバイスが、システムと関連するほぼ直近のデータを有してもよい。他の実施形態も可能である。   Further, the memory 206 may be configured to store data. The data may be, for example, a playback device 200, such as a playback device 200 included as part of one or more zones and / or zone groups, an audio source accessible by the playback device 200, or a playback device 200 (or other playback). Device) and a play queue that can be associated with the device. The data may be periodically updated and stored as one or more state variables that indicate the state of the playback device 200. The memory 206 may also include data associated with the status of other devices in the media system, which allows one or more devices to share the most recent data associated with the system from time to time. You may have. Other embodiments are possible.

オーディオ処理コンポーネント208は、とりわけ、1つ又は複数のデジタル−アナログ変換器(DAC)、アナログ−デジタル変換器(ADC)、オーディオ処理コンポーネント、オーディオ強化コンポーネント、及びデジタルシグナルプロセッサ(DSP)を含んでいてもよい。ある実施形態では、1つ又は複数のオーディオ処理コンポーネント208は、プロセッサ202のサブコンポーネントであってもよい。ある実施形態では、オーディオコンテンツが、オーディオ処理コンポーネント208によって処理および/又は意図的に変更されることによって、オーディオ信号を生成してもよい。生成されたオーディオ信号は、オーディオアンプ210に送信され、増幅され、スピーカー212を通じて再生される。特に、オーディオアンプ210は、1つ又は複数のスピーカー212を駆動できるレベルまでオーディオ信号を増幅するように構成されたデバイスを含んでもよい。スピーカー212は、独立した変換器(例えば、「ドライバ」)又は1つ又は複数のドライバを内包する筐体を含む完全なスピーカーシステムを備えてもよい。スピーカー212に備えられたあるドライバは、例えば、サブウーファー(例えば、低周波用)、ミドルレンジドライバ(例えば、中間周波用)、および/又はツイーター(高周波用)を含んでもよい。ある場合では、1つ又は複数のスピーカー212のそれぞれの変換器は、オーディオアンプ210の対応する個々のオーディオアンプによって駆動されてもよい。再生デバイス200で再生するアナログ信号を生成することに加えて、オーディオ処理コンポーネント208は、オーディオコンテンツを処理し、そのオーディオコンテンツを1つ又は複数の他の再生デバイスに再生させるために送信する。   Audio processing component 208 includes, among other things, one or more digital-to-analog converters (DACs), analog-to-digital converters (ADCs), audio processing components, audio enhancement components, and digital signal processors (DSPs). Also good. In some embodiments, one or more audio processing components 208 may be a subcomponent of processor 202. In some embodiments, audio content may be processed and / or deliberately modified by the audio processing component 208 to generate an audio signal. The generated audio signal is transmitted to the audio amplifier 210, amplified, and reproduced through the speaker 212. In particular, the audio amplifier 210 may include a device configured to amplify the audio signal to a level that can drive one or more speakers 212. The speaker 212 may comprise a complete speaker system including an independent transducer (eg, a “driver”) or a housing that contains one or more drivers. Some drivers provided in the speaker 212 may include, for example, a subwoofer (eg, for low frequency), a middle range driver (eg, for intermediate frequency), and / or a tweeter (for high frequency). In some cases, each transducer of one or more speakers 212 may be driven by a corresponding individual audio amplifier of audio amplifier 210. In addition to generating analog signals for playback on playback device 200, audio processing component 208 processes the audio content and transmits the audio content for playback by one or more other playback devices.

再生デバイス200によって処理および/又は再生されるオーディオコンテンツは、外部ソース、例えば、オーディオライン−イン入力接続(例えば、オートディテクティング3.5mmオーディオラインイン接続)又はネットワークインタフェース214を介して、受信されてもよい。   Audio content that is processed and / or played by the playback device 200 is received via an external source, eg, an audio line-in input connection (eg, an auto-detecting 3.5 mm audio line-in connection) or the network interface 214. May be.

マイクロホン220は、検出されたサウンドを電気信号に変換するように構成されたオーディオセンサを含んでもよい。電気信号は、オーディオ処理コンポーネント208及び/又はプロセッサ202によって処理されうる。マイクロホン220は、再生デバイス200における1つ又は複数の位置において1つ又は複数の向きに配置されうる。マイクロホン220は、1つ又は複数の周波数レンジ内のサウンドを検出するように構成されうる。ある場合では、1つ又は複数のマイクロホン220は、再生デバイス200が可能であるか又はレンダリングしているオーディオの周波数レンジ内のサウンドを検出するように構成されうる。別の場合では、1つ又は複数のマイクロホン220は、人間の可聴周波数レンジ内のサウンドを検出するように構成されてもよい。他の例もまた可能である。   The microphone 220 may include an audio sensor configured to convert the detected sound into an electrical signal. The electrical signal may be processed by audio processing component 208 and / or processor 202. The microphone 220 can be arranged in one or more orientations at one or more positions in the playback device 200. Microphone 220 may be configured to detect sound within one or more frequency ranges. In some cases, the one or more microphones 220 may be configured to detect sound within the frequency range of the audio that the playback device 200 is capable of or rendering. In another case, the one or more microphones 220 may be configured to detect sound within the human audible frequency range. Other examples are also possible.

ネットワークインタフェース214は、データネットワーク上で再生デバイス200と1つ又は複数の他のデバイスとの間のデータフローを可能にするように構成されてもよい。このように、再生デバイス200は、再生デバイスと通信する1つ又は複数の他の再生デバイス、ローカルエリアネットワーク内のネットワークデバイス、又は例えば、インターネット等のワイドエリアネットワーク上のオーディオコンテンツソースから、データネットワークを介してオーディオコンテンツを受信するように構成されていてもよい。ある例では、再生デバイス200によって送信および受信されたオーディオコンテンツおよび他の信号は、インターネットプロトコル(IP)に基づくソースアドレスおよびIPに基づく宛先アドレスを含むデジタルパケットの形で送信されてもよい。そのような場合、ネットワークインタフェース214は、デジタルパケットデータを解析することによって、再生デバイス200宛てのデータを、再生デバイス200によって適切に受信して処理することができる。   The network interface 214 may be configured to allow data flow between the playback device 200 and one or more other devices over a data network. In this way, the playback device 200 can receive data from one or more other playback devices that communicate with the playback device, a network device in a local area network, or an audio content source on a wide area network such as, for example, the Internet. May be configured to receive audio content over the network. In one example, audio content and other signals transmitted and received by playback device 200 may be transmitted in the form of a digital packet that includes a source address based on Internet Protocol (IP) and a destination address based on IP. In such a case, the network interface 214 can appropriately receive and process data addressed to the playback device 200 by analyzing the digital packet data.

図示されるように、ネットワークインタフェース214は、無線インタフェース216と有線インタフェース218とを含んでもよい。無線インタフェース216は、再生デバイス200用のネットワークインタフェース機能を提供し、通信プロトコル(例えば、無線規格IEEE802.11a、802.11b、802.11g、802.11n、802.11ac、802.15、4Gモバイル通信基準などを含む無線基準(規格)のいずれか)に基づいて、他のデバイス(例えば、再生デバイス200に関連付けられたデータネットワーク内の他の再生デバイス、スピーカー、レシーバー、ネットワークデバイス、制御デバイス)と無線通信してもよい。有線インタフェース218は、再生デバイス200用のネットワークインタフェース機能を提供し、通信プロトコル(例えば、IEEE802.3)に基づいて他のデバイスとの有線接続を介して通信してもよい。図2に示されるネットワークインタフェース214は、無線インタフェース216と有線インタフェース218との両方を含んでいるが、ネットワークインタフェース214は、ある実施形態において、無線インタフェースのみか、又は有線インタフェースのみを含んでいてもよい。   As shown, the network interface 214 may include a wireless interface 216 and a wired interface 218. The wireless interface 216 provides a network interface function for the playback device 200 and a communication protocol (eg, wireless standards IEEE 802.11a, 802.11b, 802.11g, 802.11n, 802.11ac, 802.15, 4G mobile Other devices (eg, other playback devices, speakers, receivers, network devices, control devices in the data network associated with playback device 200) based on any of the wireless standards (standards) including communication standards, etc. And wireless communication. The wired interface 218 may provide a network interface function for the playback device 200 and may communicate with other devices via a wired connection based on a communication protocol (eg, IEEE 802.3). Although the network interface 214 shown in FIG. 2 includes both a wireless interface 216 and a wired interface 218, the network interface 214 may include only a wireless interface or only a wired interface in some embodiments. Good.

ある例では、再生デバイス200と他の再生デバイスとは、ペアにされて、オーディオコンテンツの2つの別々のオーディオコンポーネントを再生してもよい。例えば、再生デバイス200は、左チャンネルオーディオコンポーネントを再生するように構成される一方、他の再生デバイスは、右チャンネルオーディオコンポーネントを再生するように構成されてもよい。これにより、オーディオコンテンツのステレオ効果を生成するか、又は強化することができる。ペアにされた再生デバイス(「結合再生デバイス」とも言う)は、更に、他の再生デバイスと同期してオーディオコンテンツを再生してもよい。   In one example, playback device 200 and another playback device may be paired to play two separate audio components of audio content. For example, playback device 200 may be configured to play a left channel audio component while other playback devices may be configured to play a right channel audio component. This can generate or enhance the stereo effect of the audio content. Paired playback devices (also referred to as “combined playback devices”) may further play audio content in synchronization with other playback devices.

別の例では、再生デバイス200は、1つ又は複数の他の再生デバイスと音響的に統合され、単一の統合された再生デバイス(統合再生デバイス)を形成してもよい。統合再生デバイスは、統合されていない再生デバイス又はペアにされた再生デバイスと比べて、サウンドの処理や再現を異なるように構成することができる。なぜならば、統合再生デバイスは、オーディオコンテンツを再生するスピーカー追加することができるからである。例えば、再生デバイス200が、低周波レンジのオーディオコンテンツを再生するように設計されている場合(例えば、サブウーファー)、再生デバイス200は、全周波数レンジのオーディオコンテンツを再生するように設計された再生デバイスと統合されてもよい。この場合、全周波数レンジの再生デバイスは、低周波の再生デバイス200と統合されたとき、オーディオコンテンツの中高周波コンポーネントのみを再生するように構成されてもよい。一方で低周波レンジの再生デバイス200は、オーディオコンテンツの低周波コンポーネントを再生する。更に、統合再生デバイスは、単一の再生デバイス、又は更に他の統合再生デバイスとペアにされてもよい。   In another example, playback device 200 may be acoustically integrated with one or more other playback devices to form a single integrated playback device (integrated playback device). The integrated playback device can be configured to differ in sound processing and reproduction compared to non-integrated playback devices or paired playback devices. This is because the integrated playback device can add a speaker for playing back audio content. For example, if the playback device 200 is designed to play audio content in the low frequency range (eg, a subwoofer), the playback device 200 will play back designed to play audio content in the full frequency range. It may be integrated with the device. In this case, the playback device for the entire frequency range may be configured to play back only the medium and high frequency components of the audio content when integrated with the low frequency playback device 200. On the other hand, the low frequency range playback device 200 plays back the low frequency component of the audio content. Further, the integrated playback device may be paired with a single playback device or yet another integrated playback device.

例として、現在、ソノズ・インコーポレイテッドは、「PLAY:1」、「PLAY:3」、「PLAY:5」、「PLAYBAR」、「CONNECT:AMP」、「CONNECT」、および「SUB」を含む再生デバイスを販売提供している。他の過去、現在、および/又は将来のいずれの再生デバイスにおいても、追加的に又は代替的に本明細書で開示された実施例の再生デバイスに実装して使用することができる。更に、再生デバイスは、図2に示された特定の例又は提供されるソノズ製品に限定されないことは理解される。例えば、再生デバイスは、有線又は無線のヘッドホンを含んでもよい。別の例では、再生デバイスは、パーソナルモバイルメディア再生デバイス用のドッキングステーションを含むか、又は、それらと対話してもよい。更に別の例では、再生デバイスは、別のデバイス又はコンポーネント、例えば、テレビ、照明器具、又は屋内又は屋外で使用するためのいくつかの他のデバイスと一体化されてもよい。   As an example, currently Sonos Incorporated includes “PLAY: 1”, “PLAY: 3”, “PLAY: 5”, “PLAYBAR”, “CONNECT: AMP”, “CONNECT”, and “SUB”. I sell devices. In any other past, present, and / or future playback devices, the playback devices of the embodiments disclosed herein may be additionally or alternatively implemented and used. Further, it is understood that the playback device is not limited to the specific example shown in FIG. 2 or the provided Sonoz product. For example, the playback device may include wired or wireless headphones. In another example, the playback device may include or interact with a docking station for a personal mobile media playback device. In yet another example, the playback device may be integrated with another device or component, such as a television, luminaire, or some other device for indoor or outdoor use.

b.例示的な再生ゾーン構成
図1のメディア再生システム100に戻って、環境は、1つ又は複数の再生ゾーンを有しており、それぞれの再生ゾーンは1つ又は複数の再生デバイスを含んでいる。メディア再生システム100は、1つ又は複数の再生ゾーンで形成されており、後で1つ又は複数のゾーンが追加又は削除して、図1に示す例示的な構成としてもよい。それぞれのゾーンは、異なる部屋又は空間、例えば、オフィス、浴室、主寝室、寝室、キッチン、ダイニングルーム、リビングルーム、および/又はバルコニーに基づく名前が与えられてもよい。ある場合では、単一の再生ゾーンは複数の部屋又は空間を含んでいてもよい。別の場合では、単一の部屋又は空間は、複数の再生ゾーンを含んでいてもよい。
b. Exemplary Playback Zone Configuration Returning to the media playback system 100 of FIG. 1, the environment has one or more playback zones, each playback zone including one or more playback devices. The media playback system 100 is formed by one or a plurality of playback zones, and one or a plurality of zones may be added or deleted later to form the exemplary configuration shown in FIG. Each zone may be given a name based on a different room or space, eg, office, bathroom, master bedroom, bedroom, kitchen, dining room, living room, and / or balcony. In some cases, a single playback zone may include multiple rooms or spaces. In other cases, a single room or space may include multiple playback zones.

図1に示されるように、バルコニー、ダイニングルーム、キッチン、浴室、オフィス、および寝室のゾーンのそれぞれは、1つの再生デバイスを有する一方、リビングルームおよび主寝室のゾーンのそれぞれは、複数の再生デバイスを有する。リビングルームゾーンは、再生デバイス104、106、108、および110が、別々の再生デバイスとしてか、1つ又は複数の結合再生デバイスとしてか、1つ又は複数の統合再生デバイスとしてか、又はこれらのいずれかの組み合わせで、オーディオコンテンツを同期して再生するように構成されてもよい。同様に、主寝室の場合では、再生デバイス122および124が、別々の再生デバイスとしてか、結合再生デバイスとしてか、又は統合再生デバイスとして、オーディオコンテンツを同期して再生するように構成されてもよい。   As shown in FIG. 1, each of the balcony, dining room, kitchen, bathroom, office, and bedroom zones has one playback device, while each of the living room and master bedroom zones has multiple playback devices. Have The living room zone is where the playback devices 104, 106, 108, and 110 are either as separate playback devices, as one or more combined playback devices, as one or more integrated playback devices, or any of these In such a combination, the audio content may be played back synchronously. Similarly, in the case of a master bedroom, playback devices 122 and 124 may be configured to play audio content synchronously as separate playback devices, as combined playback devices, or as an integrated playback device. .

ある例では、図1の環境における1つ又は複数の再生ゾーンは、それぞれ異なるオーディオコンテンツを再生している。例えば、ユーザは、バルコニーゾーンでグリルしながら、再生デバイス102によって再生されるヒップホップ音楽を聞くことができる。一方、別のユーザは、キッチンゾーンで食事を準備しながら、再生デバイス114によって再生されるクラシック音楽を聞くことができる。別の例では、再生ゾーンは、同じオーディオコンテンツを別の再生ゾーンと同期して再生してもよい。例えば、ユーザがオフィスゾーンにいる場合、オフィスゾーンの再生デバイス118が、バルコニーの再生デバイス102で再生されている音楽と同じ音楽を再生してもよい。そのような場合、再生デバイス102および118は、ロック音楽を同期して再生しているため、ユーザは、異なる再生ゾーン間を移動してもアウト−ラウドで再生されるオーディオコンテンツをシームレス(又は少なくともほぼシームレス)に楽しむことができる。再生ゾーン間の同期は、前述の米国特許第8,234,395号で述べられているような再生デバイス間の同期と同様の方法で行ってもよい。   In one example, one or more playback zones in the environment of FIG. 1 are playing different audio content. For example, a user can listen to hip-hop music played by the playback device 102 while grilling in a balcony zone. On the other hand, another user can listen to classical music played by the playback device 114 while preparing a meal in the kitchen zone. In another example, the playback zone may play the same audio content in synchronization with another playback zone. For example, if the user is in the office zone, the playback device 118 in the office zone may play the same music that is played on the playback device 102 on the balcony. In such a case, since the playback devices 102 and 118 are playing the rock music synchronously, the user can seamlessly (or at least at least) play the audio content that is played out-of-loop even when moving between different playback zones. It can be enjoyed almost seamlessly). Synchronization between playback zones may be performed in a manner similar to synchronization between playback devices as described in the aforementioned US Pat. No. 8,234,395.

上述したように、メディア再生システム100のゾーン構成は、動的に変更してもよく、ある実施形態では、メディア再生システム100は、複数の構成をサポートする。例えば、ユーザが1つ又は複数の再生デバイスを、物理的にゾーンに移動させるか、又はゾーンから移動させる場合、メディア再生システム100は変更に対応するように再構成されてもよい。例えば、ユーザが再生デバイス102をバルコニーゾーンからオフィスゾーンに物理的に移動させる場合、オフィスゾーンは、再生デバイス118と再生デバイス102との両方を含んでもよい。必要に応じて、制御デバイス、例えば制御デバイス126と128とを介して、再生デバイス102が、ペアにされるか、又はオフィスゾーンにグループ化されるか、および/又はリネームされてもよい。一方、1つ又は複数の再生デバイスが、再生ゾーンを未だ設定していないホーム環境において、ある領域に移動させられた場合、新しい再生ゾーンがその領域に形成されてもよい。   As described above, the zone configuration of the media playback system 100 may change dynamically, and in some embodiments, the media playback system 100 supports multiple configurations. For example, if the user physically moves one or more playback devices to or from the zone, the media playback system 100 may be reconfigured to accommodate the change. For example, if the user physically moves playback device 102 from a balcony zone to an office zone, the office zone may include both playback device 118 and playback device 102. If desired, playback devices 102 may be paired or grouped into an office zone and / or renamed via a control device, eg, control devices 126 and 128. On the other hand, if one or more playback devices are moved to a certain area in a home environment where a playback zone has not yet been set, a new playback zone may be formed in that area.

更に、メディア再生システム100の異なる再生ゾーンは、動的にゾーングループに組み合わされてもよいし、又は別々の再生ゾーンに分割されてもよい。例えば、ダイニングルームゾーンとキッチンゾーン114とがディナーパーティ用のゾーングループに組み合わされることによって、再生デバイス112と114とがオーディオコンテンツを同期して再生することができる。一方、あるユーザがテレビを見たい一方、他のユーザがリビングルーム空間の音楽を聞きたい場合、リビングルームゾーンが、再生デバイス104を含むテレビゾーンと、再生デバイス106、108および110を含むリスニングゾーンと、に分けられてもよい。   Furthermore, the different playback zones of the media playback system 100 may be dynamically combined into zone groups or may be divided into separate playback zones. For example, the dining room zone and the kitchen zone 114 are combined into a dinner party zone group so that the playback devices 112 and 114 can play back audio content in synchronization. On the other hand, if one user wants to watch television while another user wants to listen to music in the living room space, the living room zone includes a television zone that includes the playback device 104 and a listening zone that includes the playback devices 106, 108, and 110. And may be divided into

c.例示的な制御デバイス
図3は、メディア再生システム100の制御デバイス126と128とうちの一方又は両方を構成する例示的な制御デバイス300の機能ブロック図を示す。図示されるように、制御デバイス300は、プロセッサ302、メモリ304、ネットワークインタフェース306、ユーザインタフェース308、及びマイクロホン310を含んでもよい。ある例では、制御デバイス300は、メディア再生システム100専用の制御デバイスであってもよい。別の例では、制御デバイス300は、メディア再生システムコントローラアプリケーションソフトウェアをインストールされたネットワークデバイス、例えば、iPhone(登録商標)、iPad(登録商標)、又は任意の他のスマートフォン、タブレットあるいはネットワークデバイス(例えば、PC又はMac(登録商標)などのネットワークコンピュータ)であってもよい。
c. Exemplary Control Device FIG. 3 shows a functional block diagram of an exemplary control device 300 that constitutes one or both of the control devices 126 and 128 of the media playback system 100. As shown, the control device 300 may include a processor 302, a memory 304, a network interface 306, a user interface 308, and a microphone 310. In an example, the control device 300 may be a control device dedicated to the media playback system 100. In another example, the control device 300 may be a network device installed with media playback system controller application software, such as iPhone®, iPad®, or any other smartphone, tablet or network device (eg, , A network computer such as a PC or Mac (registered trademark).

プロセッサ302は、メディア再生システム100のユーザアクセス、コントロール、および構成を可能にすることに関する機能を実行するように構成されてもよい。メモリ304は、プロセッサ302によって実行可能な命令を記憶し、それらの機能を実行するように構成されていてもよい。また、メモリ304は、メディア再生システムコントローラアプリケーションソフトウェアと、メディア再生システム100とユーザとに関連付けられた他のデータを記憶するように構成されていてもよい。   The processor 302 may be configured to perform functions relating to enabling user access, control, and configuration of the media playback system 100. The memory 304 may be configured to store instructions executable by the processor 302 and perform those functions. The memory 304 may also be configured to store media playback system controller application software and other data associated with the media playback system 100 and the user.

マイクロホン310は、検出されたサウンドを電気信号に変換するように構成されたオーディオセンサを含んでもよい。電気信号は、プロセッサ302によって処理されうる。ある場合では、制御デバイス300が音声通信又は音声録音のための手段として使用されることもできるデバイスである場合、1つ又は複数のマイクロホン310は、それらの機能を容易にするマイクロホンであってもよい。例えば、1つ又は複数のマイクロホン310は、人間が生成可能な周波数レンジ及び/又は人間の可聴周波数レンジ内のサウンドを検出するように構成されうる。他の例もまた可能である。   Microphone 310 may include an audio sensor configured to convert the detected sound into an electrical signal. The electrical signal can be processed by the processor 302. In some cases, where the control device 300 is a device that can also be used as a means for voice communication or voice recording, the one or more microphones 310 may be microphones that facilitate their functions. Good. For example, the one or more microphones 310 may be configured to detect sound within a human-generated frequency range and / or a human audible frequency range. Other examples are also possible.

ある例では、ネットワークインタフェース306は、工業規格(例えば、赤外線、無線、IEEE802.3などの有線規格、IEEE802.11a、802.11b、802.11g、802.11n、802.11ac、802.15などの無線規格、4G通信規格など)に基づいてもよい。ネットワークインタフェース306においては、制御デバイス300がメディア再生システム100内の他のデバイスと通信するための手段を提供してもよい。ある例では、データおよび情報(例えば、状態変数)は、ネットワークインタフェース306を介して制御デバイス300と他のデバイスとの間で通信されてもよい。例えば、メディア再生システム100における再生ゾーンおよびゾーングループの構成は、制御デバイス300によって、再生デバイス又は別のネットワークデバイスから受信されてもよいし、あるいは制御デバイス300によって、ネットワークインタフェース306を介して別の再生デバイス又はネットワークデバイスに送信されてもよい。ある場合では、他のネットワークデバイスは、別の制御デバイスであってもよい。   In one example, the network interface 306 may be an industry standard (eg, infrared, wireless, wired standards such as IEEE 802.3, IEEE 802.11a, 802.11b, 802.11g, 802.11n, 802.11ac, 802.15, etc. Wireless standards, 4G communication standards, etc.). In network interface 306, control device 300 may provide a means for communicating with other devices in media playback system 100. In certain examples, data and information (eg, state variables) may be communicated between the control device 300 and other devices via the network interface 306. For example, the configuration of playback zones and zone groups in the media playback system 100 may be received by the control device 300 from the playback device or another network device, or may be different by the control device 300 via the network interface 306. It may be sent to a playback device or network device. In some cases, the other network device may be another control device.

ボリュームコントロールおよびオーディオ再生コントロールなどの再生デバイス制御コマンドは、ネットワークインタフェース306を介して制御デバイス300から再生デバイスに通信されてもよい。上述したように、メディア再生システム100の構成の変更は、ユーザにより制御デバイス300を用いて行うことができる。構成の変更は、1つ又は複数の再生デバイスをゾーンに追加すること、1つ又は複数の再生デバイスをゾーンから取り除くこと、1つ又は複数のゾーンをゾーングループに追加すること、1つ又は複数のゾーンをゾーングループから取り除くこと、結合プレーヤー又は統合プレーヤーを形成すること、結合プレーヤー又は統合プレーヤーから1つ又は複数の再生デバイスに分けることなどを含んでもよい。このように、制御デバイス300は、コントローラと呼ばれてもよく、制御デバイス300は、メディア再生システムコントローラアプリケーションソフトウェアをインストールした専用のコントローラか、又はネットワークデバイスであってもよい。   Playback device control commands such as volume control and audio playback control may be communicated from the control device 300 to the playback device via the network interface 306. As described above, the configuration of the media playback system 100 can be changed by the user using the control device 300. Configuration changes may include adding one or more playback devices to a zone, removing one or more playback devices from a zone, adding one or more zones to a zone group, one or more Removing a zone from the zone group, forming a combined player or integrated player, dividing the combined player or integrated player into one or more playback devices, and the like. Thus, the control device 300 may be referred to as a controller, and the control device 300 may be a dedicated controller that has installed the media playback system controller application software or a network device.

制御デバイス300のユーザインタフェース308は、図4に示されるコントローラインタフェース400などのようなコントローラインタフェースを提供することによって、メディア再生システム100のユーザアクセスおよび制御を可能にするように構成されていてもよい。コントローラインタフェース400は、再生制御領域410、再生ゾーン領域420、再生ステータス領域430、再生キュー領域440、およびオーディオコンテンツソース領域450を含む。図示されるユーザインタフェース400は、図3の制御デバイス300などのようなネットワークデバイス(および/又は図1の制御デバイス126および128)を設けられたユーザインタフェースの単なる一例であって、ユーザによってメディア再生システム100などのようなメディア再生システムを制御するためにアクセスされるものである。あるいは、様々なフォーマット、スタイル、および対話型シーケンスを他のユーザのインタフェースを1つ又は複数のネットワークデバイスに実装し、メディア再生システムへ類似の制御アクセスを提供してもよい。   The user interface 308 of the control device 300 may be configured to allow user access and control of the media playback system 100 by providing a controller interface, such as the controller interface 400 shown in FIG. . The controller interface 400 includes a playback control area 410, a playback zone area 420, a playback status area 430, a playback queue area 440, and an audio content source area 450. The illustrated user interface 400 is merely one example of a user interface provided with a network device (and / or the control devices 126 and 128 of FIG. 1), such as the control device 300 of FIG. 3, for media playback by the user. It is accessed to control a media playback system such as system 100. Alternatively, various formats, styles, and interactive sequences may be implemented with other user interfaces on one or more network devices to provide similar control access to the media playback system.

再生制御領域410は、(例えば、タッチ又はカーソルを用いることで)選択可能なアイコンを含んでもよい。このアイコンによって、選択された再生ゾーン又はゾーングループ内の再生デバイスが、再生又は停止、早送り、巻き戻し、次にスキップ、前にスキップ、シャッフルモードのオン/オフ、リピートモードのオン/オフ、クロスフェードモードのオン/オフを行う。再生制御領域410は、別の選択可能なアイコンを含んでもよい。別の選択可能なアイコンは、イコライゼーション設定、再生ボリュームなど他の設定などを変更してもよい。   The playback control area 410 may include selectable icons (eg, by using a touch or a cursor). This icon allows playback devices in the selected playback zone or zone group to play or stop, fast forward, rewind, then skip, skip forward, shuffle mode on / off, repeat mode on / off, cross Turn fade mode on / off. The playback control area 410 may include another selectable icon. Another selectable icon may change other settings such as equalization settings, playback volume, and the like.

再生ゾーン領域420は、メディア再生システム100内の再生ゾーンの表示を含んでもよい。ある実施形態では、再生ゾーンのグラフィック表示が選択可能であってもよい。追加の選択可能なアイコンを移動させることによって、メディア再生システム内の再生ゾーンを管理又は構成することができる。例えば、結合ゾーンの作成、ゾーングループの作成、ゾーングループの分割、およびゾーングループのリネームなど他の管理又は構成を行うことができる。   The playback zone area 420 may include a display of playback zones within the media playback system 100. In some embodiments, a graphical display of the playback zone may be selectable. By moving additional selectable icons, playback zones within the media playback system can be managed or configured. For example, other management or configuration can be performed, such as creating a combined zone, creating a zone group, splitting a zone group, and renaming a zone group.

例えば、図示されるように、「グループ」アイコンは、再生ゾーンのグラフィック表示のそれぞれに設けられてもよい。あるゾーンのグラフィック表示内の「グループ」アイコンは、メディア再生システム内の1つ又は複数のゾーンを選択して、あるゾーンとグループ化するオプションを出せるように選択可能であってもよい。一度グループ化すると、あるゾーンとグループ化されたゾーン内の再生デバイスは、あるゾーン内の再生デバイスと同期してオーディオコンテンツを再生するように構成される。同様に、「グループ」アイコンは、ゾーングループのグラフィック表示内に設けられてもよい。この場合、「グループ」アイコンは、ゾーングループ内の1つ又は複数のゾーンをゾーングループから取り除くために、ゾーングループ内の1つ又は複数のゾーンを選択から外すというオプションを出すように選択可能であってもよい。ユーザインタフェース400等のユーザインタフェースを介してゾーンをグループ化およびグループ解除するための他の対話をすることも可能であるし、実施することも可能である。再生ゾーン領域420内の再生ゾーンの表示は、再生ゾーン又はゾーングループ構成が変更されると、動的に更新されてもよい。   For example, as shown, a “group” icon may be provided for each graphic display of the playback zone. A “group” icon in a graphical representation of a zone may be selectable to allow selection of one or more zones in the media playback system and the option to group with a zone. Once grouped, a playback device in a zone grouped with a zone is configured to play audio content in synchronization with the playback device in the zone. Similarly, a “group” icon may be provided in the graphic display of the zone group. In this case, the “Group” icon can be selected to give the option to deselect one or more zones in the zone group to remove one or more zones in the zone group from the zone group. There may be. Other interactions for grouping and ungrouping zones may be possible and implemented via a user interface, such as user interface 400. The display of the playback zone in the playback zone area 420 may be updated dynamically as the playback zone or zone group configuration is changed.

再生ステータス領域430は、現在再生されているオーディオコンテンツ、前に再生されたオーディオコンテンツ、又は選択された再生ゾーン又はゾーングループ内で次に再生するように予定されているオーディオコンテンツ、のグラフィック表示を含んでもよい。選択可能な再生ゾーン又は再生グループは、ユーザインタフェース上で、例えば、再生ゾーン領域420および/又は再生ステータス領域430内で視覚的に区別されてもよい。グラフィック表示は、トラックタイトル、アーティスト名、アルバム名、アルバム年、トラックの長さ、およびメディア再生システムを、ユーザインタフェース400を介して制御するときに、ユーザにとって有益な他の関連情報を含んでいてもよい。   The playback status area 430 provides a graphical representation of the currently played audio content, the previously played audio content, or the audio content scheduled to be played next in the selected playback zone or zone group. May be included. The selectable playback zones or playback groups may be visually distinguished on the user interface, for example, within playback zone area 420 and / or playback status area 430. The graphical display includes track title, artist name, album name, album year, track length, and other relevant information useful to the user when controlling the media playback system via the user interface 400. Also good.

再生キュー領域440は、選択された再生ゾーン又はゾーングループと関連付けられた再生キュー内のオーディオコンテンツのグラフィック表示を含んでもよい。ある実施形態では、それぞれの再生ゾーン又はゾーングループは、再生ゾーン又は再生グループによって再生される0以上のオーディオアイテムに対応する情報を含む再生キューと関連付けられていてもよい。例えば、再生キュー内のそれぞれのオーディオアイテムは、ユー・アール・アイ(URI)、ユー・アール・エル(URL)、又は再生ゾーン又はゾーングループ内の再生デバイスによって使用可能な他の識別子を含んでいてもよい。これらによって、ローカルオーディオコンテンツソース又はネットワークオーディオコンテンツソース、からオーディオアイテムを見つけ、および/又は取り出し、再生デバイスによって再生することができる。   The playback queue area 440 may include a graphical representation of the audio content in the playback queue associated with the selected playback zone or zone group. In some embodiments, each playback zone or zone group may be associated with a playback queue that includes information corresponding to zero or more audio items played by the playback zone or playback group. For example, each audio item in the playback queue includes a UR (URI), a URL (URL), or other identifier that can be used by a playback device in a playback zone or zone group. May be. These allow audio items to be found and / or retrieved from a local audio content source or a network audio content source and played by a playback device.

ある例では、プレイリストが再生キューに追加されてもよい。この場合、プレイリスト内のそれぞれのオーディオアイテムに対応する情報が再生キューに追加されてもよい。別の例では、再生キュー内のオーディオアイテムは、プレイリストとして保存されてもよい。更に別の例では、再生デバイスがストリーミングオーディオコンテンツ、例えば、再生時間を有することで連続して再生されないオーディオアイテムよりも、停止しない限り連続して再生されるインターネットラジオを再生し続けているとき、再生キューは、空であってもよいし、又は「未使用」であるが埋められていてもよい。別の実施形態では、再生キューは、インターネットラジオおよび/又は他のストリーミングオーディオコンテンツアイテムを含むことができ、且つ再生ゾーン又はゾーングループがそれらのアイテムを再生しているとき「未使用」とすることができる。他の例も可能である。   In one example, a playlist may be added to the playback queue. In this case, information corresponding to each audio item in the playlist may be added to the reproduction queue. In another example, audio items in the play queue may be saved as a playlist. In yet another example, when the playback device continues to play streaming audio content, e.g., an audio item that does not play continuously due to having a playback time, it continues to play continuously unless it stops. The play queue may be empty, or may be “unused” but filled. In another embodiment, the playback queue may include Internet radio and / or other streaming audio content items and be “unused” when a playback zone or zone group is playing those items. Can do. Other examples are possible.

再生ゾーン又はゾーングループが「グループ化される」か、又は「グループ解除」されるとき、影響を受ける再生ゾーン又はゾーングループに関連付けられた再生キューは、クリアされてもよいし、又は再び関連付けられてもよい。例えば、第1再生キューを含む第1再生ゾーンが、第2再生キューを含む第2再生ゾーンとグループ化された場合、形成されたゾーングループは、関連付けられた再生キューを有していてもよい。関連付けられた再生キューは、最初は空であるか、(例えば、第2再生ゾーンが第1再生ゾーンに追加された場合、)第1再生キューのオーディオアイテムを含むか、(例えば、第1再生ゾーンが第2再生ゾーンに追加された場合、)第2再生キューのオーディオアイテムを含むか、又は第1再生キューと第2再生キューとの両方のオーディオアイテムを組み合わせられる。その後、形成されたゾーングループがグループ解除された場合、グループ解除された第1再生ゾーンは、前の第1再生キューと再び関連付けられてもよいし、空の新しい再生キューと関連付けられてもよいし、あるいはゾーングループがグループ解除される前にゾーングループと関連付けられていた再生キューのオーディオアイテムを含む新しい再生キューと関連付けられてもよい。同様に、グループ解除された第2再生ゾーンは、前の第2再生キューと再び関連付けられてもよいし、空の新しい再生キューと関連付けられてもよいし、あるいはゾーングループがグループ解除される前にゾーングループと関連付けられていた再生キューのオーディオアイテムを含む新しい再生キューと関連付けられてもよい。   When a playback zone or zone group is “grouped” or “ungrouped”, the playback queue associated with the affected playback zone or zone group may be cleared or reassociated. May be. For example, if a first playback zone that includes a first playback queue is grouped with a second playback zone that includes a second playback queue, the formed zone group may have an associated playback queue. . The associated play queue is initially empty, or contains audio items from the first play queue (eg, when the second play zone is added to the first play zone), or (eg, the first play queue). When a zone is added to the second playback zone, it can include the audio items of the second playback queue, or combine the audio items of both the first and second playback queues. Thereafter, when the formed zone group is ungrouped, the ungrouped first playback zone may be re-associated with the previous first playback queue or may be associated with an empty new playback queue. Alternatively, it may be associated with a new play queue that includes the audio items of the play queue that were associated with the zone group before the zone group was ungrouped. Similarly, the ungrouped second playback zone may be re-associated with the previous second playback queue, may be associated with an empty new playback queue, or before the zone group is ungrouped. May be associated with a new play queue that includes an audio item of the play queue that was associated with the zone group.

図4のユーザインタフェース400に戻って、再生キュー領域440内のオーディオコンテンツのグラフィック表示は、トラックタイトル、アーティスト名、トラックの長さ、および再生キュー内のオーディオコンテンツと関連付けられた他の関連情報を含んでいてもよい。ある例では、オーディオコンテンツのグラフィック表示は、追加の選択可能なアイコンを選択して移動させることができる。これにより、再生キューおよび/又は再生キューに表示されたオーディオコンテンツを管理および/又は操作することができる。例えば、表示されたオーディオコンテンツは、再生キューから取り除いてもよいし、再生キュー内の異なる位置に移動させてもよいし、すぐに再生させるか若しくは現在再生しているオーディオコンテンツの後に再生するように選択されてもよいし、あるいは他の動作を実行してもよい。再生ゾーン又はゾーングループに関連付けられた再生キューは、再生ゾーン又はゾーングループ内の1つ又は複数の再生デバイスのメモリ、再生ゾーン又はゾーングループに入っていない再生デバイスのメモリ、および/又は他の指定のデバイスのメモリに記憶されていてもよい。   Returning to the user interface 400 of FIG. 4, the graphic display of the audio content in the play queue area 440 includes the track title, artist name, track length, and other related information associated with the audio content in the play queue. May be included. In one example, the graphical display of audio content can be moved by selecting additional selectable icons. Thereby, it is possible to manage and / or operate the reproduction queue and / or the audio content displayed in the reproduction queue. For example, the displayed audio content may be removed from the playback queue, moved to a different position in the playback queue, played immediately, or played after the currently playing audio content. Or other actions may be performed. A playback queue associated with a playback zone or zone group can be the memory of one or more playback devices in the playback zone or zone group, the memory of playback devices not in the playback zone or zone group, and / or other designations. It may be stored in the memory of the device.

オーディオコンテンツソース領域450は、選択可能なオーディオコンテンツソースのグラフィック表示を含んでいてもよい。このオーディオコンテンツソースにおいては、オーディオコンテンツが選択された再生ゾーン又はゾーングループによって取り出され、再生されてもよい。オーディオコンテンツソースに関する説明は、以降のセクションを参照することができる。   Audio content source area 450 may include a graphic representation of selectable audio content sources. In this audio content source, the audio content may be taken out and played back by the selected playback zone or zone group. Refer to the following sections for an explanation of audio content sources.

d.例示的なオーディオコンテンツソース
前回図示したように、ゾーン又はゾーングループ内の1つ又は複数の再生デバイスは、再生するオーディオコンテンツを、(例えば、オーディオコンテンツの対応するURI又はURLに基づいて、)複数の入手可能なオーディオコンテンツソースから取り出すように構成されていてもよい。ある例では、オーディオコンテンツは、再生デバイスによって、対応するオーディオコンテンツソース(例えば、ライン−イン接続)から直接取り出されてもよい。別の例では、オーディオコンテンツは、1つ又は複数の他の再生デバイス若しくはネットワークデバイスを介してネットワーク上の再生デバイスに提供されてもよい。
d. Exemplary Audio Content Source As previously illustrated, one or more playback devices in a zone or zone group may select multiple audio content to play (eg, based on the corresponding URI or URL of the audio content). May be configured to be retrieved from available audio content sources. In one example, audio content may be retrieved directly from a corresponding audio content source (eg, a line-in connection) by a playback device. In another example, the audio content may be provided to a playback device on the network via one or more other playback devices or network devices.

例示的なオーディオコンテンツソースは、メディア再生システム内の1つ又は複数の再生デバイスのメモリを含んでもよい。メディア再生システムとしては、例えば、図1のメディア再生システム100、1つ又は複数のネットワークデバイス上のローカルミュージックライブラリ(例えば、制御デバイス、ネットワーク対応のパーソナルコンピュータ、又はネットワーク接続ストレージ(NAS)など)、インターネット(例えば、クラウド)を介してオーディオコンテンツを提供するストリーミングオーディオサービス、あるいは再生デバイス又はネットワークデバイスのライン−イン入力接続を介してメディア再生システムに接続されるオーディオソース、他の可能なシステムであってもよい。   Exemplary audio content sources may include the memory of one or more playback devices in the media playback system. As the media playback system, for example, the media playback system 100 of FIG. 1, a local music library (for example, a control device, a network-compatible personal computer, or a network attached storage (NAS)) on one or more network devices, A streaming audio service that provides audio content over the Internet (eg, the cloud), or an audio source connected to a media playback system via a line-in input connection of a playback device or network device, and other possible systems. May be.

ある実施形態では、オーディオコンテンツソースは、図1のメディア再生システム100などのようなメディア再生システムに定期的に追加されてもよいし、定期的に取り除かれてもよい。ある例では、1つ又は複数のオーディオコンテンツソースが追加される、取り除かれる、又は更新される度に、オーディオアイテムのインデックス付けが行われてもよい。オーディオアイテムのインデックス付けは、ネットワーク上で共有される全てのフォルダ/ディレクトリ内の識別可能なオーディオアイテムをスキャンすることを含んでもよい。ここで、ネットワークは、メディア再生システム内の再生デバイスによってアクセス可能である。また、オーディオアイテムのインデックス付けは、メタデータ(例えば、タイトル、アーティスト、アルバム、トラックの長さなど)と他の関連情報とを含むオーディオコンテンツデータベースを作成すること、又は更新すること、を含んでもよい。他の関連情報とは、例えば、それぞれの識別可能なオーディオアイテムを見つけるためのURI又はURLを含んでもよい。オーディオコンテンツソースを管理し、且つ維持するための他の例も可能である。   In some embodiments, the audio content source may be periodically added to or removed from a media playback system, such as the media playback system 100 of FIG. In one example, an audio item may be indexed each time one or more audio content sources are added, removed, or updated. Audio item indexing may include scanning identifiable audio items in all folders / directories shared on the network. Here, the network is accessible by a playback device in the media playback system. Also, audio item indexing may include creating or updating an audio content database that includes metadata (eg, title, artist, album, track length, etc.) and other related information. Good. Other relevant information may include, for example, a URI or URL for finding each identifiable audio item. Other examples for managing and maintaining audio content sources are possible.

再生デバイス、制御デバイス、再生ゾーン構成、およびメディアコンテンツソースに関しての上述した説明は、以降で述べられている機能および方法を実施可能ないくつかの例示的な動作環境のみを提供している。本発明は、本明細書で明示的に述べられていないメディア再生システム、再生デバイス、およびネットワークデバイスの他の動作環境および構成であっても適用可能であり、その機能および方法を実施するのに適している。   The above description of playback devices, control devices, playback zone configurations, and media content sources provides only some example operating environments in which the functions and methods described below can be implemented. The present invention is applicable to other operating environments and configurations of media playback systems, playback devices, and network devices not explicitly mentioned herein, and to implement the functions and methods. Is suitable.

III.信号処理アルゴリズムのデータベースの保守
上述したように、本明細書で説明される幾つかの例は、オーディオ処理アルゴリズムのデータベースを保守することに関連する。幾つかの場合において、データベースの保守は、さらに、データベースについてのオーディオ処理アルゴリズムのエントリを生成及び/又は更新することを含んでもよい。データベースにおけるオーディオ処理アルゴリズムのそれぞれは、再生ゾーンの1つ又は複数の特性に対応することができる。ある例では、再生ゾーンの1つ又は複数の特性は、再生ゾーンの音響特性を含んでもよい。以下の説明は、一般に、データベース内のエントリとして記憶されるオーディオ処理アルゴリズムを決定することに関する。しかし、当業者は、類似の機能がデータベース内の既存のエントリを更新するために実行されてもよいことを理解するであろう。データベースにアクセスして、特定の再生ゾーンにおけるオーディオコンテンツを再生するときに、再生デバイスが適用するオーディオ処理アルゴリズムを特定することができる。
III. Maintaining a Database of Signal Processing Algorithms As noted above, some examples described herein relate to maintaining a database of audio processing algorithms. In some cases, database maintenance may further include creating and / or updating an audio processing algorithm entry for the database. Each of the audio processing algorithms in the database can correspond to one or more characteristics of the playback zone. In certain examples, the one or more characteristics of the playback zone may include the acoustic characteristics of the playback zone. The following description relates generally to determining an audio processing algorithm that is stored as an entry in a database. However, those skilled in the art will appreciate that similar functions may be performed to update existing entries in the database. The audio processing algorithm that the playback device applies when accessing the database to play audio content in a particular playback zone can be identified.

a.オーディオ処理アルゴリズム及び再生ゾーンの対応する音響特性の例示的データベース
図5は、オーディオ処理アルゴリズム及び再生ゾーン音響特性のデータベースを保守する方法500の例示的なフロー図を示している。上述したように、オーディオ処理アルゴリズムのデータベースを保守することは、データベースに記憶されるオーディオ処理アルゴリズムを決定することを含んでもよい。図5に示される方法500は、例えば、図1のメディア再生システム100、図2の1つ又は複数の再生デバイス200、及び図3の1つ又は複数の制御デバイス300を含む動作環境内で実施されうる方法の実施形態を表している。ある例では、方法500は、メディア再生システム100などのメディア再生システムと通信するコンピューティングデバイスによって実行されうる。別の例では、方法500の幾つか又は全ての機能は、代替的に、1つ又は複数のサーバ、1つ又は複数の再生デバイス、及び/又は1つ又は複数のコントローラデバイスなどの1つ又は複数の他のコンピューティングデバイスによって実行されてもよい。
a. Exemplary Database of Audio Processing Algorithms and Corresponding Acoustic Characteristics of Playback Zone FIG. 5 shows an exemplary flow diagram of a method 500 for maintaining a database of audio processing algorithms and playback zone acoustic characteristics. As described above, maintaining a database of audio processing algorithms may include determining an audio processing algorithm stored in the database. The method 500 shown in FIG. 5 is implemented within an operating environment including, for example, the media playback system 100 of FIG. 1, the one or more playback devices 200 of FIG. 2, and the one or more control devices 300 of FIG. 1 represents an embodiment of a method that can be performed. In certain examples, the method 500 may be performed by a computing device that communicates with a media playback system, such as the media playback system 100. In another example, some or all of the functions of method 500 may alternatively be one or more servers, such as one or more servers, one or more playback devices, and / or one or more controller devices. It may be executed by multiple other computing devices.

方法500は、ブロック502−510の1つ又は複数によって構成されるように、1つ又は複数の操作、機能、又は動作を含んでもよい。ブロックはそれぞれ順番に示されているが、これらのブロックは並行して行われてもよいし、および/又は、本明細書で述べられている順番と異なる順番で行われてもよい。また、所望の実施内容に応じて、ブロックを少なくしてもよいし、増やして分割してもよいし、および/又は取り除いてもよい。さらに、フローチャートは、方法500並びに本明細書で開示されている他の処理および方法に関して、本実施形態の実施可能な機能および動作の例を示している。これに関して、各ブロックは、プロセッサによって実行されるとプロセスにおける特定のロジカル機能又はステップを実行させる1つ又は複数の命令を記憶した、モジュール、セグメント、あるいはプログラムコードの一部を示していてもよい。プログラムコードは例えば、ディスク又はハードドライブを含む記憶デバイスなど、任意のタイプのコンピュータ読み取り可能記録媒体に記憶されてもよい。   Method 500 may include one or more operations, functions, or operations, as configured by one or more of blocks 502-510. Although the blocks are each shown in order, these blocks may be performed in parallel and / or in a different order than the order described herein. Further, the number of blocks may be reduced, the number of blocks may be increased, and / or may be removed depending on the desired implementation. Further, the flowcharts illustrate examples of functions and operations that may be performed by the present embodiments with respect to method 500 and other processes and methods disclosed herein. In this regard, each block may represent a module, segment, or portion of program code that stores one or more instructions that, when executed by a processor, cause a particular logical function or step in the process to be performed. . The program code may be stored on any type of computer readable recording medium, such as a storage device including a disk or hard drive.

コンピュータ読み取り可能記録媒体は、非一時的なコンピュータ読み取り可能記録媒体、例えば、レジスタメモリ、プロセッサキャッシュ、およびランダム・アクセス・メモリ(RAM)などのように短時間データを記憶するコンピュータ読み取り可能媒体を含んでもよい。コンピュータ読み取り可能媒体は、非一時的なメディア、例えば、リード・オンリ・メモリ(ROM)、光ディスク、磁気ディスク、コンパクトディスク・リード・オンリ・メモリ(CD−ROM)等の長期間の記憶が可能な二次記憶装置又は永続記憶装置を含んでもよい。コンピュータ読み取り可能媒体は、その他の任意の揮発性記憶システム又は不揮発性記憶システムであってもよい。コンピュータ読み取り可能媒体は例えば、コンピュータ読み取り可能記録媒体、即ち、有形の記憶デバイスとみなされてもよい。また、方法500並びに本明細書に開示されたその他の処理および方法において、各ブロックは回路を示していてもよく、その回路は処理において、ある論理機能を実行するために有線接続されている。   Computer-readable recording media include non-transitory computer-readable recording media, such as computer-readable media that store data for a short time, such as register memory, processor cache, and random access memory (RAM). But you can. Computer readable media can be stored for long periods of time such as non-transitory media such as read only memory (ROM), optical disk, magnetic disk, compact disk read only memory (CD-ROM), etc. Secondary storage or permanent storage may be included. The computer readable medium may be any other volatile storage system or non-volatile storage system. A computer readable medium may be considered, for example, a computer readable recording medium, ie, a tangible storage device. Also, in method 500 and other processes and methods disclosed herein, each block may represent a circuit, which is wired to perform certain logic functions in the process.

図5に示されるように、方法500は、コンピューティングデバイスにより、再生ゾーン内の再生デバイスに、第1のオーディオ信号を再生させ(ブロック502)、再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを受信し(ブロック504)、第2のオーディオ信号及び再生デバイスの特性に基づいて、再生ゾーンの音響特性を決定し(ブロック506)、再生ゾーンの音響特性に基づいて、オーディオ処理アルゴリズムを決定し(ブロック508)、オーディオ処理アルゴリズムと再生ゾーンの音響特性との関連付けをデータベースに記憶させる(ブロック510)。   As shown in FIG. 5, the method 500 causes a computing device to cause a playback device in a playback zone to play a first audio signal (block 502) and a second audio detected by the playback device microphone. Data indicative of the signal is received (block 504), the acoustic characteristics of the playback zone are determined based on the characteristics of the second audio signal and the playback device (block 506), and audio processing is performed based on the acoustic characteristics of the playback zone. An algorithm is determined (block 508) and an association between the audio processing algorithm and the acoustic characteristics of the playback zone is stored in a database (block 510).

前述したように、データベースにアクセスして、再生ゾーンにおけるオーディオコンテンツの再生時に再生デバイスが適用するオーディオ処理アルゴリズムを、特定することができる。そのため、ある例では、方法500は、様々な異なる再生ゾーンについて実行されて、様々な異なる再生環境に対応するオーディオ処理アルゴリズムのデータベースが構築される。   As described above, the database can be accessed to identify the audio processing algorithm that the playback device applies when playing the audio content in the playback zone. Thus, in one example, the method 500 is performed for a variety of different playback zones to build a database of audio processing algorithms corresponding to a variety of different playback environments.

方法500は、ブロック502において、再生ゾーン内の再生デバイスに、第1のオーディオ信号を再生させることを含む。再生デバイスは、図2に示される再生デバイス200と同様の再生デバイスであってもよい。ある場合では、コンピューティングデバイスは、第1のオーディオ信号を再生させるコマンドを送信することによって、再生デバイスに第1のオーディオ信号を再生させてもよい。別の場合では、コンピューティングデバイスは、再生されるべき第1のオーディオ信号を再生デバイスに提供してもよい。   The method 500 includes, at block 502, causing a playback device in the playback zone to play the first audio signal. The playback device may be a playback device similar to the playback device 200 shown in FIG. In some cases, the computing device may cause the playback device to play the first audio signal by sending a command to play the first audio signal. In another case, the computing device may provide the playback device with a first audio signal to be played.

ある例では、第1のオーディオ信号は、再生ゾーンの音響応答を決定するために使用されてもよい。そのため、第1のオーディオ信号は、ユーザによる通常使用中に再生デバイスによって再生されうるオーディオコンテンツを表す検査信号又は測定信号であってもよい。したがって、第1のオーディオ信号は、再生デバイスのレンダリング可能な周波数レンジ又は人間の可聴周波数レンジを実質的にカバーする周波数を有するオーディオコンテンツを含んでもよい。   In one example, the first audio signal may be used to determine the acoustic response of the playback zone. Thus, the first audio signal may be a test signal or a measurement signal that represents audio content that can be played by the playback device during normal use by the user. Thus, the first audio signal may include audio content having a frequency that substantially covers the renderable frequency range of the playback device or the human audible frequency range.

ある例では、再生ゾーンは、再生デバイスがユーザによる通常使用中にオーディオコンテンツを再生することができる複数の再生環境のうちの1つを表す再生ゾーンであってもよい。図1を参照すると、再生ゾーンは、メディア再生システム100における異なる部屋及びゾーングループのうちのいずれか1つを表すことができる。例えば、再生ゾーンは、ダイニングルームを表していてもよい。   In one example, the playback zone may be a playback zone that represents one of multiple playback environments in which the playback device can play audio content during normal use by the user. Referring to FIG. 1, a playback zone can represent any one of different rooms and zone groups in the media playback system 100. For example, the playback zone may represent a dining room.

ある例では、再生ゾーンは、再生デバイスがオーディオコンテンツを再生することができるリスニング環境をシミュレートするために構築されたモデル再生ゾーンであってもよい。ある例では、再生ゾーンは、複数の再生環境をシミュレートするために構築された複数の再生ゾーンのうちの1つであってもよい。複数の再生ゾーンは、そのようなオーディオ処理アルゴリズムのデータベースを作成する目的のために構築されてもよい。そのような場合、再生ゾーンの特定の特性は、予め決められていてもよいし及び/又は公知のものであってもよい。例えば、いくつかある可能性の中でも特に、再生ゾーンの寸法、再生ゾーンの床材若しくは壁材(又は再生ゾーンのオーディオ反射特性に影響を与えることがある他の特徴)、再生ゾーン内の家具の数、又は再生ゾーン内の家具のサイズ及び種類は、予め決められた及び/又は公知の再生ゾーンの特性であってもよい。   In one example, the playback zone may be a model playback zone that is constructed to simulate a listening environment in which a playback device can play audio content. In one example, the playback zone may be one of a plurality of playback zones constructed to simulate a plurality of playback environments. Multiple playback zones may be constructed for the purpose of creating a database of such audio processing algorithms. In such cases, the specific characteristics of the regeneration zone may be predetermined and / or known. For example, among other possibilities, the dimensions of the playback zone, the flooring or wall material of the playback zone (or other features that may affect the audio reflection characteristics of the playback zone), the furniture in the playback zone The number, or the size and type of furniture in the regeneration zone, may be predetermined and / or known reproduction zone characteristics.

別の場合では、再生ゾーンは、再生デバイスのユーザの家庭内の部屋であってもよい。例えば、データベースの構築の一部として、顧客及び/又は試験者などの再生デバイスのユーザは、ユーザの再生デバイスを使用して、方法500の機能を実行してデータベースを構築するように要請されることがある。幾つかの場合において、ユーザ再生ゾーンの特定の特性は不明であってもよい。幾つかの他の場合において、ユーザ再生ゾーンの特定の特性の一部又は全てがユーザによって提供されてもよい。方法500の機能を実行することによって作成されたデータベースは、シミュレートされた再生ゾーン及び/又はユーザ再生ゾーンに基づくエントリを含んでもよい。   In another case, the playback zone may be a room in the home of the user of the playback device. For example, as part of building a database, a user of a playback device, such as a customer and / or tester, is required to perform the functions of method 500 to build the database using the user's playback device. Sometimes. In some cases, certain characteristics of the user playback zone may be unknown. In some other cases, some or all of the specific characteristics of the user playback zone may be provided by the user. The database created by performing the functions of method 500 may include entries based on simulated playback zones and / or user playback zones.

ブロック502はコンピューティングデバイスを含み、そのコンピューティングデバイスは、再生デバイスに第1のオーディオ信号を再生させる。しかし、当業者は、再生デバイスによる第1のオーディオ信号の再生が、必ずしもコンピューティングデバイスによって引き起こされるか又は開始されなくてもよいことを理解するであろう。例えば、コントローラデバイスは、再生デバイスにコマンドを送信して、再生デバイスに第1のオーディオ信号を再生させてもよい。別の例において、再生デバイスは、コンピューティングデバイス又はコントローラからコマンドを受信することなく、第1のオーディオ信号を再生してもよい。他の例もまた可能である。   Block 502 includes a computing device that causes the playback device to play the first audio signal. However, one of ordinary skill in the art will appreciate that the playback of the first audio signal by the playback device may not necessarily be triggered or initiated by the computing device. For example, the controller device may send a command to the playback device to cause the playback device to play the first audio signal. In another example, the playback device may play the first audio signal without receiving a command from the computing device or controller. Other examples are also possible.

方法500は、ブロック504において、再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを受信することを含む。上述したように、再生デバイスは、図2に示される再生デバイス200と同様の再生デバイスであってもよい。そのため、マイクロホンは、マイクロホン220であってもよい。ある例では、コンピューティングデバイスは、再生デバイスからデータを受信してもよい。別の例において、コンピューティングデバイスは、他の再生デバイス、コントローラデバイス又は他のサーバを介してデータを受信してもよい。   The method 500 includes, at block 504, receiving data indicative of a second audio signal detected by a playback device microphone. As described above, the playback device may be a playback device similar to the playback device 200 shown in FIG. Therefore, the microphone may be the microphone 220. In certain examples, the computing device may receive data from the playback device. In another example, the computing device may receive data via other playback devices, controller devices, or other servers.

再生デバイスが第1のオーディオ信号を再生しているとき又はその後まもなく、再生デバイスのマイクロホンは、第2のオーディオ信号を検出してもよい。第2のオーディオ信号は、再生ゾーン内に存在する検出可能なオーディオ信号を含んでもよい。例えば、第2のオーディオ信号は、再生デバイスによって再生された第1のオーディオ信号に対応する部分を含んでもよい。   When the playback device is playing the first audio signal or shortly thereafter, the microphone of the playback device may detect the second audio signal. The second audio signal may include a detectable audio signal present in the playback zone. For example, the second audio signal may include a portion corresponding to the first audio signal reproduced by the reproduction device.

ある例では、マイクロホンが第2のオーディオ信号を検出するとき、コンピューティングデバイスは、メディアストリームとして、再生デバイスから検出された第2のオーディオ信号を示すデータを受信してもよい。別の例では、コンピューティングデバイスは、再生デバイスのマイクロホンによる第1のオーディオ信号の検出が完了すると、第2のオーディオ信号を示すデータを再生デバイスから受信してもよい。いずれの場合においても、再生デバイスは、(再生デバイス200のオーディオ処理コンポーネント208などのオーディオ処理コンポーネントを介して)検出された第2のオーディオ信号を処理して、第2のオーディオ信号を示すデータを生成し、コンピューティングデバイスにそのデータを送信してもよい。ある例では、第2のオーディオ信号を示すデータを生成することは、アナログ信号からデジタル信号に第2のオーディオ信号を変換することを含んでもよい。他の例もまた可能である。   In one example, when the microphone detects the second audio signal, the computing device may receive data indicative of the detected second audio signal from the playback device as a media stream. In another example, the computing device may receive data indicative of the second audio signal from the playback device upon completion of detection of the first audio signal by the microphone of the playback device. In any case, the playback device processes the detected second audio signal (via an audio processing component such as the audio processing component 208 of the playback device 200) to produce data indicative of the second audio signal. May be generated and transmitted to the computing device. In certain examples, generating data indicative of the second audio signal may include converting the second audio signal from an analog signal to a digital signal. Other examples are also possible.

方法500は、ブロック506において、第2のオーディオ信号及び再生デバイスの特性に基づいて、再生ゾーンの音響特性を決定することを含む。上述したように、第2のオーディオ信号は、再生ゾーンにおいて再生デバイスによって再生された第1のオーディオ信号に対応する部分を含んでもよい。   The method 500 includes, at block 506, determining an acoustic characteristic of the playback zone based on the second audio signal and the characteristics of the playback device. As described above, the second audio signal may include a portion corresponding to the first audio signal reproduced by the reproduction device in the reproduction zone.

再生デバイスの特性は、再生デバイスの音響特性、再生デバイスの仕様(すなわち、トランスデューサの数、周波数レンジ、増幅器ワット数など)、及び再生デバイスのモデルのうちの1つ又は複数を含んでもよい。幾つかの場合において、再生デバイスの音響特性及び/又は再生デバイスの仕様は、再生デバイスのモデルと関連付けられてもよい。例えば、再生デバイスの特定のモデルは、実質的に同一の仕様及び音響特性を有してもよい。ある例では、再生デバイスのモデルのデータベース、再生デバイスのモデルの音響特性、及び/又は再生デバイスのモデルの仕様は、コンピューティングデバイス又はコンピューティングデバイスと通信する他のデバイス上で保守されうる。   The characteristics of the playback device may include one or more of the acoustic characteristics of the playback device, the specifications of the playback device (ie, the number of transducers, frequency range, amplifier wattage, etc.), and the model of the playback device. In some cases, the acoustic characteristics of the playback device and / or the specifications of the playback device may be associated with a model of the playback device. For example, a particular model of a playback device may have substantially the same specifications and acoustic characteristics. In one example, a playback device model database, playback device model acoustic characteristics, and / or playback device model specifications may be maintained on the computing device or other devices in communication with the computing device.

ある例では、再生ゾーン内で第1のオーディオ信号を再生する再生デバイスからの音響応答は、第1のオーディオ信号と第2のオーディオ信号との間の関係によって表すことができる。数学的に、第1のオーディオ信号がf(t)であり、第2のオーディオ信号がs(t)であり、且つ再生ゾーン内で第1のオーディオ信号を再生する再生デバイスの音響応答がh(t)である場合、下記式(1)になる。 In one example, the acoustic response from a playback device that plays the first audio signal within the playback zone can be represented by a relationship between the first audio signal and the second audio signal. Mathematically, the first audio signal is f (t), the second audio signal is s (t), and the acoustic response of the playback device that plays the first audio signal in the playback zone is h In the case of r (t), the following formula (1) is obtained.

Figure 2019134470
そのため、再生デバイスのマイクロホンによって検出される第2のオーディオ信号s(t)及び再生デバイスによって再生された第1の信号f(t)が与えられると、h(t)を計算することができる。
Figure 2019134470
Therefore, given the second audio signal s (t) detected by the microphone of the playback device and the first signal f (t) played back by the playback device, h r (t) can be calculated. .

ある場合では、第1のオーディオ信号f(t)が再生デバイスによって再生されることから、音響応答h(t)は、(i)再生デバイスの音響特性及び(ii)再生デバイスとは独立した再生ゾーンの音響特性を含んでもよい。数学的に、この関係は、下記式(2)として表すことができる。 In some cases, the acoustic response h r (t) is independent of (i) the acoustic characteristics of the playback device and (ii) the playback device because the first audio signal f (t) is played by the playback device. The acoustic characteristics of the playback zone may be included. Mathematically, this relationship can be expressed as the following equation (2).

Figure 2019134470
ここで、h(t)は、再生デバイスの音響特性であり、hroom(t)は、再生デバイスとは独立した再生ゾーンの音響特性である。そのため、再生デバイスとは独立した再生ゾーンの音響特性は、再生ゾーンの音響応答から再生デバイスによって再生された第1のオーディオ信号へと再生デバイスの音響特性を除去することによって決定されうる。換言すれば、下記式(3)になる。
Figure 2019134470
Here, h p (t) is the acoustic characteristic of the reproduction device, and h room (t) is the acoustic characteristic of the reproduction zone independent of the reproduction device. Thus, the acoustic characteristics of the playback zone independent of the playback device can be determined by removing the acoustic characteristics of the playback device from the acoustic response of the playback zone to the first audio signal played by the playback device. In other words, the following expression (3) is obtained.

Figure 2019134470
Figure 2019134470

ある例では、再生デバイスの音響特性h(t)は、無響室において再生デバイス又は同一のモデルの代表的な再生デバイスを配置し、再生デバイスに無響室内で測定信号を再生させ、再生デバイスのマイクロホンによって応答信号を検出することによって、決定されうる。無響室において再生デバイスによって再生された測定信号は、上述した第1のオーディオ信号f(t)に類似していてもよい。例えば、測定信号は、再生デバイスのレンダリング可能な周波数レンジ又は人間の可聴周波数レンジを実質的にカバーする周波数を有するオーディオコンテンツを含むことができる。 In one example, the acoustic characteristic h p (t) of the playback device is obtained by arranging a playback device or a representative playback device of the same model in an anechoic chamber, and causing the playback device to play back a measurement signal in the anechoic chamber. It can be determined by detecting the response signal with the microphone of the device. The measurement signal reproduced by the reproduction device in the anechoic chamber may be similar to the first audio signal f (t) described above. For example, the measurement signal may include audio content having a frequency that substantially covers the renderable frequency range of the playback device or the human audible frequency range.

再生デバイスの音響特性h(t)は、再生された測定信号と検出された応答信号との間の関係を表すことができる。例えば、測定信号が特定の周波数において第1の信号の大きさを有し且つ検出された応答信号がその特定の周波数において第1の信号の大きさとは異なる第2の信号の大きさを有する場合、再生デバイスの音響特性h(t)は、特定の周波数において信号の増幅又は減衰を示すことができる。 The acoustic characteristic h p (t) of the playback device can represent the relationship between the reproduced measurement signal and the detected response signal. For example, when the measurement signal has a first signal magnitude at a particular frequency and the detected response signal has a second signal magnitude different from the first signal magnitude at that particular frequency. , the playback device acoustic characteristics h p (t) may indicate the amplification or attenuation of the signal at a particular frequency.

数学的に、測定信号がx(t)であり、検出された応答信号がy(t)であり且つ無響室における再生デバイスの音響特性がh(t)である場合、下記式(4)になる。 Mathematically, when the measurement signal is x (t), the detected response signal is y (t), and the acoustic characteristic of the playback device in the anechoic chamber is h p (t), the following equation (4) )become.

Figure 2019134470
したがって、h(t)は、測定信号x(t)及び検出された応答信号y(t)に基づいて計算されうる。上述したように、h(t)は、無響室において使用されたものと同一のモデルの再生デバイスについての代表的な音響特性であってもよい。
Figure 2019134470
Thus, h p (t) can be calculated based on the measurement signal x (t) and the detected response signal y (t). As described above, h p (t) may be a representative acoustic characteristic for a playback device of the same model used in an anechoic room.

ある例では、上述したように、基準音響特性h(t)は、再生デバイスのモデル及び/又は再生デバイスの仕様と関連付けて記憶されてもよい。ある例では、h(t)は、コンピューティングデバイス上に格納されてもよい。別の例では、h(t)は、再生デバイス及び同一のモデルの他の再生デバイス上に格納されてもよい。さらなる場合において、h −1(t)として表されるh(t)の逆数は、h(t)の代わりに記憶されてもよい。 In one example, as described above, the reference acoustic characteristic h P (t) may be stored in association with a playback device model and / or playback device specification. In certain examples, h P (t) may be stored on the computing device. In another example, hp (t) may be stored on the playback device and other playback devices of the same model. In a further case, the reciprocal of h p (t) expressed as h p −1 (t) may be stored instead of h p (t).

したがって、ブロック506に戻って参照すると、再生ゾーンの音響特性hroom(t)は、第1のオーディオ信号f(t)、第2のオーディオ信号s(t)、及び再生デバイスの音響特性h(t)に基づいて決定されうる。ある例では、再生デバイスの音響特性の逆数h −1(t)を、式(2)に適用することができる。換言すれば、下記式(5)になる。 Thus, referring back to block 506, the acoustic characteristic h room (t) of the playback zone is the first audio signal f (t), the second audio signal s (t), and the acoustic characteristic h p of the playback device. It can be determined based on (t). In one example, the reciprocal h p −1 (t) of the acoustic characteristics of the playback device can be applied to equation (2). In other words, the following expression (5) is obtained.

Figure 2019134470
Figure 2019134470

ここで、I(t)は、インパルス信号である。そして、再生ゾーン時間の音響特性hroom(t)は、下記式(6)のように簡略化されうる。 Here, I (t) is an impulse signal. Then, the acoustic characteristic h room (t) of the reproduction zone time can be simplified as the following formula (6).

Figure 2019134470
Figure 2019134470

方法500は、ブロック506において、再生ゾーンの音響特性及び所定のオーディオ信号に基づいて、オーディオ処理アルゴリズムを決定することを含む。ある例では、オーディオ処理アルゴリズムが決定されて、再生ゾーンにおいて第1のオーディオ信号を再生するときの、決定したオーディオ処理アルゴリズムの再生デバイスによる適用により、所定のオーディオ特性と実質的に同一のオーディオ特性を有するか又は少なくともある程度所定のオーディオ特性を持つ第3のオーディオ信号が生成されうる。   The method 500 includes, at block 506, determining an audio processing algorithm based on the acoustic characteristics of the playback zone and the predetermined audio signal. In one example, when the audio processing algorithm is determined and the first audio signal is played in the playback zone, the application of the determined audio processing algorithm by the playback device results in an audio characteristic that is substantially the same as the predetermined audio characteristic. Or a third audio signal having at least some predetermined audio characteristics may be generated.

ある例では、所定のオーディオ特性は、良好なサウンディングとみなされるオーディオ周波数等化であってもよい。ある場合では、所定のオーディオ特性は、再生デバイスのレンダリング可能な周波数レンジにわたって実質的に均等な等化を含んでもよい。別の場合では、所定のオーディオ特性は、一般的なリスナーに心地よいと考えられる等化を含んでもよい。さらなる場合において、所定のオーディオ特性は、特定の音楽ジャンルに適していると考えられる周波数応答を含んでもよい。   In one example, the predetermined audio characteristic may be an audio frequency equalization that is considered good sounding. In some cases, the predetermined audio characteristics may include equalization that is substantially equal across the renderable frequency range of the playback device. In other cases, the predetermined audio characteristics may include equalization that may be comfortable for a typical listener. In a further case, the predetermined audio characteristic may include a frequency response that may be suitable for a particular music genre.

いずれの場合にも、コンピューティングデバイスは、音響特性及び所定のオーディオ特性に基づいて、オーディオ処理アルゴリズムを決定することができる。ある例では、再生ゾーンの音響特性が、特定のオーディオ周波数が他の周波数よりも減衰されたものであり、且つ、所定のオーディオ特性が、特定のオーディオ周波数が最小限に減衰された等化を含む場合、対応するオーディオ処理アルゴリズムは、特定のオーディオ周波数において強めた増幅を含んでもよい。   In any case, the computing device can determine an audio processing algorithm based on the acoustic characteristics and the predetermined audio characteristics. In one example, the acoustic characteristics of the playback zone are such that a particular audio frequency is attenuated more than other frequencies, and the predetermined audio characteristic is equalized with a particular audio frequency attenuated to a minimum. If included, the corresponding audio processing algorithm may include enhanced amplification at a particular audio frequency.

所定のオーディオ特性が所定のオーディオ信号z(t)によって表され且つオーディオ処理アルゴリズムがp(t)によって表される場合、所定のオーディオ信号z(t)、オーディオ処理アルゴリズム及び再生ゾーンの音響特性hroom(t)との間の関係を、下記式(7)のように数学的に記述することができる。 If the predetermined audio characteristic is represented by a predetermined audio signal z (t) and the audio processing algorithm is represented by p (t), the predetermined audio signal z (t), the audio processing algorithm and the acoustic characteristic h of the reproduction zone The relationship with room (t) can be mathematically described as in equation (7) below.

Figure 2019134470
Figure 2019134470

したがって、オーディオ処理アルゴリズムp(t)を、下記式(8)のように数学的に記述することができる。   Therefore, the audio processing algorithm p (t) can be mathematically described as the following equation (8).

Figure 2019134470
Figure 2019134470

幾つかの場合において、オーディオ処理アルゴリズムを決定することは、オーディオ処理アルゴリズムについての1つ又は複数のパラメータ(すなわち、p(t)についての係数)を決定することを含んでもよい。例えば、オーディオ処理アルゴリズムは、オーディオ信号の特定の対応する周波数における特定の信号増幅利得を含んでもよい。そのため、特定の信号増幅及び/又はオーディオ信号の特定の対応する周波数を示すパラメータが、オーディオ処理アルゴリズムp(t)を決定するために特定されてもよい。   In some cases, determining the audio processing algorithm may include determining one or more parameters for the audio processing algorithm (ie, a coefficient for p (t)). For example, the audio processing algorithm may include a specific signal amplification gain at a specific corresponding frequency of the audio signal. Thus, a parameter indicative of a particular signal amplification and / or a particular corresponding frequency of the audio signal may be specified to determine the audio processing algorithm p (t).

方法500は、ブロック510において、オーディオ処理アルゴリズムと再生ゾーンの音響特性との関連付けをデータベースに記憶させることを含む。そのため、ブロック504及び506において決定した再生ゾーンの音響特性hroom(t)及び対応するオーディオ処理アルゴリズムp(t)を含むエントリを、データベースに追加してもよい。ある例では、データベースは、コンピューティングデバイスのローカルのメモリストレージに格納されてもよい。別の例において、データベースが他のデバイスに格納されている場合、コンピューティングデバイスは、オーディオ処理アルゴリズム及び再生ゾーンの音響特性を他のデバイスに送信して、データベースに記憶されるようにしてもよい。他の例もまた可能である。 The method 500 includes, at block 510, storing an association between the audio processing algorithm and the acoustic characteristics of the playback zone in a database. Therefore, an entry including the acoustic characteristic h room (t) of the reproduction zone determined in blocks 504 and 506 and the corresponding audio processing algorithm p (t) may be added to the database. In one example, the database may be stored in local memory storage of the computing device. In another example, if the database is stored on another device, the computing device may send the audio processing algorithm and the acoustic characteristics of the playback zone to the other device for storage in the database. . Other examples are also possible.

上述したように、オーディオ処理アルゴリズムが決定された再生ゾーンは、再生デバイスがオーディオコンテンツを再生することができるリスニング環境をシミュレートするために使用されるモデル再生ゾーン、又は再生デバイスのユーザの部屋であってもよい。幾つかの場合において、データベースは、モデル再生ゾーン内で再生されて検出されたオーディオ信号に基づいて生成されたエントリとともに、再生デバイスのユーザの部屋内で再生されて検出されたオーディオ信号に基づいて生成されたエントリを含んでもよい。   As described above, the playback zone for which the audio processing algorithm has been determined is the model playback zone used to simulate a listening environment in which the playback device can play audio content, or the user's room of the playback device. There may be. In some cases, the database is based on audio signals that are played and detected in the user's room of the playback device, along with entries generated based on the audio signals that are played and detected in the model playback zone. The generated entry may be included.

図6Aは、オーディオ処理アルゴリズムのデータベース600の例示的な部分を示していて、上記説明において決定されたオーディオ処理アルゴリズムp(t)がデータベース600に格納されている。示されるように、データベース600の一部は、複数のエントリ602−608を含んでもよい。エントリ602は、再生ゾーン音響特性hroom −1(t)−1を含んでもよい。音響特性hroom −1(t)−1は、上述したように再生デバイスによって検出されたオーディオ信号及び再生デバイスの特性に基づいて計算されるように、再生ゾーンの音響特性の数学的表現であってもよい。エントリ602における音響特性hroom −1(t)−1に対応するものは、上述したように、音響特性hroom −1(t)−1及び所定のオーディオ特性に基づいて決定されたオーディオ処理アルゴリズムについての係数w、x、y及びzであってもよい。 FIG. 6A shows an exemplary portion of the audio processing algorithm database 600, and the audio processing algorithm p (t) determined in the above description is stored in the database 600. As shown, a portion of database 600 may include a plurality of entries 602-608. The entry 602 may include a reproduction zone acoustic characteristic h room −1 (t) −1. The acoustic characteristic h room -1 (t) -1 is a mathematical representation of the acoustic characteristic of the reproduction zone as calculated based on the audio signal detected by the reproduction device and the characteristic of the reproduction device as described above. May be. As described above, the audio processing algorithm corresponding to the acoustic characteristic h room -1 (t) -1 in the entry 602 is determined based on the acoustic characteristic h room -1 (t) -1 and a predetermined audio characteristic. May be coefficients w 1 , x 1 , y 1 and z 1 .

さらに示されるように、データベース600のエントリ604は、再生ゾーン音響特性hroom −1(t)−2及び処理アルゴリズム係数w、x、y及びzを含んでもよい。データベース600のエントリ606は、再生ゾーン音響特性hroom −1(t)−3及び処理アルゴリズム係数w、x、y及びzを含んでもよい。データベース600のエントリ608は、再生ゾーン音響特性hroom −1(t)−4及び処理アルゴリズム係数w、x、y及びzを含んでもよい。 As further shown, entry 604 of database 600 may include playback zone acoustic characteristics h room -1 (t) -2 and processing algorithm coefficients w 2 , x 2 , y 2, and z 2 . The entry 606 of the database 600 may include a playback zone acoustic characteristic h room -1 (t) -3 and processing algorithm coefficients w 3 , x 3 , y 3 and z 3 . The entry 608 of the database 600 may include a playback zone acoustic characteristic h room -1 (t) -4 and processing algorithm coefficients w 4 , x 4 , y 4 and z 4 .

当業者は、データベース600が方法500の機能を実行することによって作成されて保守されうるデータベースの単なる一例であることを理解するであろう。ある例では、再生ゾーン音響特性は、異なる形式又は数学的状態(すなわち、反転対非反転関数)で記憶されうる。別の例では、オーディオ処理アルゴリズムは、関数及び/又は等化関数として記憶されてもよい。他の例もまた可能である。   Those skilled in the art will appreciate that database 600 is just one example of a database that can be created and maintained by performing the functions of method 500. In certain examples, playback zone acoustic characteristics may be stored in different forms or mathematical states (ie, inverted vs. non-inverted functions). In another example, the audio processing algorithm may be stored as a function and / or an equalization function. Other examples are also possible.

ある例では、上述した機能の一部が、同一の再生ゾーンにおいて同一の再生デバイスについて複数回実行されて、再生ゾーンの音響特性hroom(t)及び対応する処理アルゴリズムp(t)が決定されうる。例えば、複数回、ブロック502−506を実行することによって、再生ゾーンの複数の音響特性を決定することができる。再生ゾーンの合成(すなわち、平均)音響特性は、複数の音響特性から決定されてもよく、対応する処理アルゴリズムp(t)は、再生ゾーンの合成音響特性に基づいて決定されてもよい。そして、対応する処理アルゴリズムp(t)と再生ゾーンの音響特性hroom(t)又はhroom −1(t)との関連付けは、データベースに記憶されてもよい。幾つかの場合において、再生ゾーン内の再生デバイスによって再生される第1のオーディオ信号は、関数の反復のそれぞれにおいて実質的に同一のオーディオ信号であってもよい。幾つかの他の場合において、再生ゾーン内の再生デバイスによって再生される第1のオーディオ信号は、関数の反復の一部又はそれぞれについて異なるオーディオ信号であってもよい。他の例もまた可能である。 In one example, some of the functions described above are performed multiple times for the same playback device in the same playback zone to determine the playback zone acoustic characteristic h room (t) and the corresponding processing algorithm p (t). sell. For example, multiple acoustic characteristics of the playback zone can be determined by executing blocks 502-506 multiple times. The combined (ie, average) acoustic characteristics of the playback zone may be determined from a plurality of acoustic characteristics, and the corresponding processing algorithm p (t) may be determined based on the combined acoustic characteristics of the playback zone. Then, the association between the corresponding processing algorithm p (t) and the acoustic characteristic h room (t) or h room −1 (t) of the reproduction zone may be stored in the database. In some cases, the first audio signal played by the playback device in the playback zone may be substantially the same audio signal in each of the function iterations. In some other cases, the first audio signal played by the playback device in the playback zone may be a different audio signal for some or each of the function repetitions. Other examples are also possible.

上述した方法500(又は、方法500の幾つかの変形例)は、さらに、データベース内の他のエントリを生成するために実行されうる。例えば、再生デバイスが第1の再生デバイスであり、再生ゾーンが第1の再生ゾーンであり、オーディオ処理アルゴリズムが第1のオーディオ処理アルゴリズムであることを考えると、方法500は、追加的に又は代替的に、第2の再生ゾーンにおいて第2の再生デバイスを使用して実行されうる。ある例では、第2の再生デバイスは、第2の再生ゾーンにおいて第4のオーディオ信号を再生することができ、第2の再生デバイスのマイクロホンは、第2の再生デバイスによって再生された第4のオーディオ信号の一部を含む第5のオーディオ信号を検出することができる。そして、コンピューティングデバイスは、第5のオーディオ信号を示すデータを受信し、第5のオーディオ信号及び第2の再生デバイスの特性に基づいて、第2の再生ゾーンの音響特性を決定することができる。   The method 500 described above (or some variations of the method 500) may be further performed to generate other entries in the database. For example, given that the playback device is the first playback device, the playback zone is the first playback zone, and the audio processing algorithm is the first audio processing algorithm, the method 500 may additionally or alternatively In particular, it may be performed using a second playback device in the second playback zone. In an example, the second playback device can play a fourth audio signal in the second playback zone, and the second playback device microphone is played back by the second playback device. A fifth audio signal including a part of the audio signal can be detected. The computing device can then receive data indicative of the fifth audio signal and determine the acoustic characteristics of the second playback zone based on the characteristics of the fifth audio signal and the second playback device. .

コンピューティングデバイスは、第2の再生ゾーンの音響特性に基づいて、第2のオーディオ処理アルゴリズムを決定することができる。ここで、再生ゾーンにおいて第4のオーディオ信号を再生するときの、決定した第2のオーディオ処理アルゴリズムの第2の再生デバイスによる適用により、第6のオーディオ信号が生成される。第6のオーディオ信号は、式(7)及び(8)において示される、所定のオーディオ信号z(t)によって表される所定のオーディオ特性と実質的に同一のオーディオ特性を有する。そして、コンピューティングデバイスは、第2のオーディオ処理アルゴリズムと第2の再生ゾーンの音響特性との関連付けをデータベースに記憶させることができる。   The computing device can determine a second audio processing algorithm based on the acoustic characteristics of the second playback zone. Here, when the fourth audio signal is reproduced in the reproduction zone, the sixth audio signal is generated by application of the determined second audio processing algorithm by the second reproduction device. The sixth audio signal has substantially the same audio characteristic as the predetermined audio characteristic represented by the predetermined audio signal z (t) shown in equations (7) and (8). The computing device can then store an association between the second audio processing algorithm and the acoustic characteristics of the second playback zone in the database.

多くの再生ゾーンは、寸法、構築材料、及び/又は家具の種類及び配置において類似している場合もあるけれども、2つの再生ゾーンが全く同一の再生ゾーン音響特性を有することになるとは考えにくい。そのため、各固有の再生ゾーン音響特性及びそれらの各対応するオーディオ処理アルゴリズムについての個々のエントリを記憶すると、非現実的な量のメモリストレージを必要とすることがあるため、むしろ、類似の又は実質的に同一の再生ゾーン音響特性についてのエントリは組み合わせたほうがよい。   Although many playback zones may be similar in size, construction material, and / or furniture type and arrangement, it is unlikely that the two playback zones will have exactly the same playback zone acoustic characteristics. As such, storing individual entries for each unique playback zone acoustic characteristic and their respective corresponding audio processing algorithms may require an unrealistic amount of memory storage, rather, similar or substantive It is better to combine entries for the same playback zone acoustic characteristics.

ある場合では、2つの再生ゾーンが実質的に類似の部屋であるとき、2つの再生ゾーンの音響特性は類似している場合がある。別の場合では、コンピューティングデバイスは、上記示唆したように、同一の再生ゾーンにおいて、複数回、同一の再生デバイスについて、方法500を実行してもよい。さらなる場合において、コンピューティングデバイスは、同一の再生ゾーンにおいて、異なる再生デバイスについて、方法500を実行してもよい。さらに他の場合において、コンピューティングデバイスは、同一の再生ゾーンであるが再生ゾーン内の他の場所において、再生デバイスについて方法500を実行してもよい。他の例もまた可能である。   In some cases, the acoustic characteristics of the two playback zones may be similar when the two playback zones are substantially similar rooms. In other cases, the computing device may perform the method 500 for the same playback device multiple times in the same playback zone, as suggested above. In further cases, the computing device may perform the method 500 for different playback devices in the same playback zone. In yet other cases, the computing device may perform the method 500 for a playback device in the same playback zone but elsewhere in the playback zone. Other examples are also possible.

いずれの場合にも、再生ゾーン音響特性及び対応するオーディオ処理アルゴリズムのエントリを生成する過程において、コンピューティングデバイスは、2つの再生ゾーンが実質的に同一の再生ゾーン音響特性を有することを決定してもよい。そして、コンピューティングデバイスは、それに応答して、第1のオーディオ処理アルゴリズム及び第2のオーディオ処理アルゴリズムに基づいて、第3のオーディオ処理アルゴリズムを決定してもよい。例えば、コンピューティングデバイスは、第1及び第2のオーディオ処理アルゴリズムのパラメータの平均をとることによって、第3のオーディオ処理アルゴリズムを決定してもよい。   In any case, in the process of generating the playback zone acoustic characteristics and corresponding audio processing algorithm entries, the computing device determines that the two playback zones have substantially the same playback zone acoustic characteristics. Also good. The computing device may then determine a third audio processing algorithm based on the first audio processing algorithm and the second audio processing algorithm in response. For example, the computing device may determine the third audio processing algorithm by averaging the parameters of the first and second audio processing algorithms.

そして、コンピューティングデバイスは、第3のオーディオ処理アルゴリズムと実質的に同一の音響特性との関連付けをデータベースに記憶してもよい。ある例では、第3のオーディオ処理アルゴリズムについてのデータベースエントリは、2つの実質的に同一の音響特性の平均値に基づいて決定された対応する音響特性を有してもよい。幾つかの場合において、上記示唆したように、データベースは、ストレージメモリを節約する目的で、実質的に同一の音響特性について1つのエントリのみを有してもよい。そのため、第3のオーディオ処理アルゴリズムについてのエントリを優先して、第1の再生ゾーン及び第2の再生ゾーンの音響特性のエントリは廃棄してもよい。他の例もまた可能である。   The computing device may then store an association between the third audio processing algorithm and substantially the same acoustic characteristics in the database. In one example, the database entry for the third audio processing algorithm may have a corresponding acoustic characteristic determined based on an average value of two substantially identical acoustic characteristics. In some cases, as suggested above, the database may have only one entry for substantially the same acoustic characteristics for the purpose of saving storage memory. For this reason, the entry for the third audio processing algorithm may be given priority, and the entries for the acoustic characteristics of the first reproduction zone and the second reproduction zone may be discarded. Other examples are also possible.

上記説明は、全体的に、コンピューティングデバイスによって実行されるものとして方法500について言及しているが、当業者は、上述したように、方法500の機能が、代替的に、1つ又は複数のサーバ、1つ又は複数の再生デバイス、及び/又は1つ又は複数のコントローラデバイスなどの1つ又は複数の他のデバイスによって実行されてもよいことを理解するであろう。換言すれば、ブロック502−510のうちの1つ又は複数は、コンピューティングデバイスによって実行されてもよい一方で、ブロック502−510のうちの1つ又は複数の他のブロックは、1つ又は複数の他のコンピューティングデバイスによって実行されてもよい。   Although the above description generally refers to the method 500 as being performed by a computing device, those skilled in the art will recognize that the functionality of the method 500 may alternatively include one or more It will be appreciated that it may be performed by one or more other devices, such as a server, one or more playback devices, and / or one or more controller devices. In other words, one or more of the blocks 502-510 may be executed by a computing device, while one or more of the other blocks 502-510 are one or more. May be executed by other computing devices.

ある例では、上述したように、ブロック502における再生デバイスによる第1のオーディオ信号の再生は、いかなる外部コマンドもなしに再生デバイスによって実行されてもよい。あるいは、再生デバイスは、コントローラデバイス及び/又は他の再生デバイスからのコマンドに応答して第1のオーディオ信号を再生してもよい。別の例では、ブロック502−506は、1つ又は複数の再生デバイス又は1つ又は複数のコントローラデバイスによって実行されてもよく、コンピューティングデバイスは、ブロック508及び510を実行してもよい。さらに別の例では、ブロック502−508は、1つ又は複数の再生デバイス又は1つ又は複数のコントローラデバイスによって実行されてもよく、コンピューティングデバイスは、ブロック510においてオーディオ処理アルゴリズムを記憶する機能を実行するだけであってもよい。他の例もまた可能である。   In one example, as described above, playback of the first audio signal by the playback device in block 502 may be performed by the playback device without any external command. Alternatively, the playback device may play the first audio signal in response to a command from the controller device and / or another playback device. In another example, blocks 502-506 may be performed by one or more playback devices or one or more controller devices, and a computing device may perform blocks 508 and 510. In yet another example, blocks 502-508 may be performed by one or more playback devices or one or more controller devices, and the computing device has the ability to store audio processing algorithms at block 510. It may just be executed. Other examples are also possible.

b.オーディオ処理アルゴリズム及び再生ゾーンの対応する1つ又は複数の特性の例示的データベース
先に示したように、再生ゾーンは、1つ又は複数の再生ゾーン特性を有してもよい。1つ又は複数の再生ゾーン特性は、上述したように、再生ゾーンの音響特性を含んでもよい。また、再生ゾーンの1つ又は複数の特性は、(a)再生ゾーンの寸法、(b)再生ゾーンのオーディオ反射特性、(c)再生ゾーンの使用目的、(d)再生ゾーン内の家具の数、(e)再生ゾーン内の家具のサイズ、及び(f)再生ゾーン内の家具の種類のうちの1つ又は複数を含んでもよい。ある場合では、再生ゾーンのオーディオ反射特性は、再生ゾーンの床材及び/又は壁材に関連してもよい。
b. Exemplary Database of Audio Processing Algorithms and Corresponding One or More Characteristics of Playback Zones As indicated above, a playback zone may have one or more playback zone characteristics. The one or more playback zone characteristics may include the acoustic characteristics of the playback zone, as described above. Also, one or more characteristics of the playback zone include: (a) the size of the playback zone, (b) the audio reflection characteristics of the playback zone, (c) the intended use of the playback zone, and (d) the number of furniture in the playback zone. , (E) the size of the furniture in the regeneration zone, and (f) one or more of the types of furniture in the regeneration zone. In some cases, the audio reflection characteristics of the playback zone may be related to the flooring and / or wall material of the playback zone.

幾つかの例において、上述したp(t)などの決定されたオーディオ処理アルゴリズムと再生ゾーンの追加の1つ又は複数の特性との関連付けがデータベースに記憶されうる。図7は、オーディオ処理アルゴリズム及び再生ゾーンの1つ又は複数の特性のデータベースを保守する方法700の例示的なフロー図を示している。図7に示される方法700は、例えば、図1のメディア再生システム100、図2の1つ又は複数の再生デバイス200、及び図3の1つ又は複数の制御デバイス300を含む動作環境内で実施されうる方法の実施形態を表している。ある例では、方法700は、メディア再生システム100などのメディア再生システムと通信するコンピューティングデバイスによって実行されてもよい。これに代えて、別の例では、方法700の幾つか又は全ての機能は、1つ又は複数のサーバ、1つ又は複数の再生デバイス、及び/又は1つ又は複数のコントローラデバイスなどの1つ又は複数の他のコンピューティングデバイスによって実行されてもよい。   In some examples, an association of the determined audio processing algorithm, such as p (t) described above, with the additional one or more characteristics of the playback zone may be stored in a database. FIG. 7 shows an exemplary flow diagram of a method 700 for maintaining a database of one or more characteristics of audio processing algorithms and playback zones. The method 700 shown in FIG. 7 is implemented in an operating environment including, for example, the media playback system 100 of FIG. 1, the one or more playback devices 200 of FIG. 2, and the one or more control devices 300 of FIG. 1 represents an embodiment of a method that can be performed. In one example, method 700 may be performed by a computing device that communicates with a media playback system, such as media playback system 100. Alternatively, in another example, some or all of the functions of the method 700 may be one of one or more servers, one or more playback devices, and / or one or more controller devices. Or it may be executed by several other computing devices.

方法700は、ブロック702−708のうちの1つ又は複数によって示されるように1つ又は複数の操作、機能又は動作を含んでもよい。ブロックは順番に示されているが、これらのブロックは、並列に及び/又は本明細書に記載されたものとは異なる順序で実行されてもよい。また、様々なブロックは、所望の実装に基づいて、より少数のブロックに組み合わせられてもよく、さらなるブロックに分割されてもよく、及び/又は除去されてもよい。   Method 700 may include one or more operations, functions, or operations as indicated by one or more of blocks 702-708. Although the blocks are shown in order, these blocks may be executed in parallel and / or in a different order than that described herein. Also, the various blocks may be combined into fewer blocks, divided into further blocks, and / or removed based on the desired implementation.

図7に示されるように、方法700は、再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させるステップ(ブロック702)、(i)再生ゾーンの1つ又は複数の特性を示すデータ及び(ii)再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを受信するステップ(ブロック704)、第2のオーディオ信号及び再生デバイスの特性に基づいてオーディオ処理アルゴリズムを決定するステップ(ブロック706)、決定したオーディオ処理アルゴリズムと再生ゾーンの1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させるステップ(ブロック708)を含む。   As shown in FIG. 7, method 700 includes causing a playback device in a playback zone to play a first audio signal (block 702), (i) data indicative of one or more characteristics of the playback zone, and ( ii) receiving data indicative of a second audio signal detected by the microphone of the playback device (block 704); determining an audio processing algorithm based on the second audio signal and characteristics of the playback device (block 706); ) Storing an association between the determined audio processing algorithm and at least one of the one or more characteristics of the playback zone in a database (block 708).

方法700は、ブロック702において、コンピューティングデバイスにより、再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させる。ある例では、ブロック702は、図5に関連して記載されたブロック502のものと同一の又は実質的に同一の機能を含んでもよい。例えば、第1のオーディオ信号は、再生デバイスのレンダリング可能な周波数レンジ又は人間の可聴周波数レンジを実質的にカバーする周波数を有するオーディオコンテンツを含んでもよい。そのため、ブロック502に関連した上記説明は、ブロック702に適用することができる。   The method 700 causes the computing device to cause the playback device in the playback zone to play the first audio signal at block 702. In one example, block 702 may include the same or substantially the same function as that of block 502 described in connection with FIG. For example, the first audio signal may include audio content having a frequency that substantially covers the renderable frequency range of the playback device or the human audible frequency range. As such, the above description relating to block 502 can be applied to block 702.

方法700は、ブロック704において、(i)再生ゾーンの1つ又は複数の特性を示すデータ、及び(ii)再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを受信することを含む。ある例では、ブロック704は、図5に関連して記載されたブロック504のものと同一の又は実質的に同一の機能を含んでもよい。例えば、第2のオーディオ信号は、再生デバイスによって再生された第1のオーディオ信号に対応する部分を含んでもよい。そのため、ブロック504に関連した上記説明は、ブロック704に適用することができる。   The method 700 includes, at block 704, receiving (i) data indicative of one or more characteristics of the playback zone and (ii) data indicative of a second audio signal detected by the microphone of the playback device. . In one example, block 704 may include the same or substantially the same functionality as that of block 504 described in connection with FIG. For example, the second audio signal may include a portion corresponding to the first audio signal reproduced by the reproduction device. As such, the above description relating to block 504 can be applied to block 704.

ブロック504に関連して上述したものに加えて、ブロック704は、再生ゾーンの1つ又は複数の特性を示すデータを受信することを含む。上述したように、再生ゾーンは、再生デバイスがオーディオコンテンツを再生することができるリスニング環境をシミュレートするために使用されるモデル再生ゾーンであってもよい。そのような場合、再生ゾーンについての1つ又は複数の再生ゾーン特性の一部は公知であってもよい。例えば、再生ゾーンについての寸法、フロアプラン、構築材料、及び家具が公知であってもよい。ある場合では、モデル再生ゾーンは、データベースについてのオーディオ処理アルゴリズムを決定するという目的のために構築されてもよく、その場合、1つ又は複数の再生ゾーン特性の一部は予め決められていてもよい。別の場合では、再生ゾーンは、再生デバイスのユーザの部屋であってもよい。上述したように、そのような再生ゾーンの特性は、再生ゾーンの音響特性に寄与することができる。   In addition to those described above in connection with block 504, block 704 includes receiving data indicative of one or more characteristics of the playback zone. As described above, the playback zone may be a model playback zone used to simulate a listening environment in which a playback device can play audio content. In such cases, some of the one or more playback zone characteristics for the playback zone may be known. For example, dimensions, floor plans, construction materials, and furniture for the regeneration zone may be known. In some cases, the model playback zone may be constructed for the purpose of determining an audio processing algorithm for the database, in which case one or more of the playback zone characteristics may be predetermined. Good. In another case, the playback zone may be the room of the user of the playback device. As described above, such reproduction zone characteristics can contribute to the acoustic characteristics of the reproduction zone.

ある例では、コンピューティングデバイスは、ユーザ又は音響エンジニアによって使用されるコントローラデバイスのコントローラインタフェースを介して、1つ又は複数の再生ゾーン特性を示すデータを受信してもよい。別の例では、コンピューティングデバイスは、再生ゾーン内の再生デバイスから再生ゾーンの1つ又は複数の特性を示すデータを受信してもよい。例えば、1つ又は複数の特性を示すデータは、第2のオーディオ信号を示すデータとともに受信されてもよい。1つ又は複数の再生ゾーン特性を示すデータは、ブロック702における再生デバイスによる第1のオーディオ信号の再生前、再生中又は再生後に受信されてもよい。他の例もまた可能である。   In one example, the computing device may receive data indicative of one or more playback zone characteristics via a controller interface of a controller device used by a user or acoustic engineer. In another example, the computing device may receive data indicative of one or more characteristics of the playback zone from playback devices in the playback zone. For example, data indicative of one or more characteristics may be received along with data indicative of the second audio signal. Data indicative of one or more playback zone characteristics may be received before, during or after playback of the first audio signal by the playback device at block 702. Other examples are also possible.

方法700は、ブロック706において、第2のオーディオ信号及び再生デバイスの特性に基づいて、オーディオ処理アルゴリズムを決定することを含む。ある例では、ブロック706は、図5のブロック506及び508において上述したものと同一又は類似の機能を含んでもよい。例えば、オーディオ処理アルゴリズムを決定することは、第2のオーディオ信号及び再生デバイスの特性に基づいて再生ゾーンの音響特性を決定すること、及びその後に再生ゾーンの音響特性に基づいてオーディオ処理アルゴリズムを決定することを含んでもよい。再生デバイスの特性は、上述したように、再生デバイスの音響特性、再生デバイスの仕様、及び再生デバイスのモデルのうちの1つ又は複数を含んでもよい。   The method 700 includes, at block 706, determining an audio processing algorithm based on the characteristics of the second audio signal and the playback device. In some examples, block 706 may include the same or similar functionality as described above in blocks 506 and 508 of FIG. For example, determining the audio processing algorithm may determine the acoustic characteristics of the playback zone based on the characteristics of the second audio signal and the playback device, and then determine the audio processing algorithm based on the acoustic characteristics of the playback zone May include. The characteristics of the playback device may include one or more of the acoustic characteristics of the playback device, the specifications of the playback device, and the model of the playback device, as described above.

上述したように、再生ゾーン内で第1のオーディオ信号を再生するときの、決定したオーディオ処理アルゴリズムの再生デバイスによる適用により、第3のオーディオ信号が生成されうる。第3のオーディオ信号は、所定のオーディオ特性と実質的に同一のオーディオ特性を有するか、又は少なくともある程度所定のオーディオ特性を持つ。ある場合では、所定のオーディオ特性は、上述した所定のオーディオ信号p(t)として表される所定のオーディオ特性と同一か又は実質的に同一であってもよい。他の例もまた可能である。   As described above, the third audio signal can be generated by applying the determined audio processing algorithm by the playback device when playing back the first audio signal in the playback zone. The third audio signal has substantially the same audio characteristics as the predetermined audio characteristics, or has at least some predetermined audio characteristics. In some cases, the predetermined audio characteristic may be the same or substantially the same as the predetermined audio characteristic represented as the predetermined audio signal p (t) described above. Other examples are also possible.

方法800は、ブロック708において、決定したオーディオ処理アルゴリズムと再生ゾーンの1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させることを含む。ある例では、ブロック708は、ブロック501において上述したものと同一又は類似の機能を含んでもよい。しかしながら、この場合において、コンピューティングデバイスは、再生ゾーンの音響特性に加えて又はその代わりに、オーディオ処理アルゴリズムと1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させてもよい。   The method 800 includes, at block 708, storing an association between the determined audio processing algorithm and at least one of the one or more characteristics of the playback zone in a database. In one example, block 708 may include the same or similar functionality as described above in block 501. In this case, however, the computing device may store an association of the audio processing algorithm and at least one of the one or more characteristics in the database in addition to or instead of the acoustic characteristics of the playback zone. .

上述したように、オーディオ処理アルゴリズムが決定された再生ゾーンは、再生デバイスがオーディオコンテンツを再生することができるリスニング環境をシミュレートするために使用されるモデル再生ゾーン、又は再生デバイスのユーザの部屋であってもよい。幾つかの場合において、データベースは、モデル再生ゾーン内で再生されて検出されたオーディオ信号に基づいて生成されたエントリとともに、再生デバイスのユーザの部屋内で再生されて検出されたオーディオ信号に基づいて生成されたエントリを含んでもよい。   As described above, the playback zone for which the audio processing algorithm has been determined is the model playback zone used to simulate a listening environment in which the playback device can play audio content, or the user's room of the playback device. There may be. In some cases, the database is based on audio signals that are played and detected in the user's room of the playback device, along with entries generated based on the audio signals that are played and detected in the model playback zone. The generated entry may be included.

図6Bは、オーディオ処理アルゴリズムのデータベース650の例示的な部分を示している。データベース650には、上記説明において決定したオーディオ処理アルゴリズム及びオーディオ処理アルゴリズムと再生ゾーン音響特性との関連付けが格納されている。示されるように、データベース650の一部は、データベース600のエントリ602−608と類似の複数のエントリ652−658を含んでもよい。例えば、エントリ652及び602は、同一の再生ゾーン音響特性、及び同一のオーディオ処理アルゴリズム係数を有してもよい。エントリ654及び604は、同一の再生ゾーン音響特性、及び同一のオーディオ処理アルゴリズム係数を有してもよい。エントリ656及び606は、同一の再生ゾーン音響特性、及び同一のオーディオ処理アルゴリズム係数を有してもよい。エントリ658及び608は、同一の再生ゾーン音響特性、及び同一のオーディオ処理アルゴリズム係数を有してもよい。   FIG. 6B shows an exemplary portion of a database 650 of audio processing algorithms. The database 650 stores the audio processing algorithm determined in the above description and the association between the audio processing algorithm and the reproduction zone acoustic characteristics. As shown, a portion of database 650 may include a plurality of entries 652-658 similar to entries 6002-608 of database 600. For example, entries 652 and 602 may have the same playback zone acoustic characteristics and the same audio processing algorithm coefficients. Entries 654 and 604 may have the same playback zone acoustic characteristics and the same audio processing algorithm coefficients. Entries 656 and 606 may have the same playback zone acoustic characteristics and the same audio processing algorithm coefficients. Entries 658 and 608 may have the same playback zone acoustic characteristics and the same audio processing algorithm coefficients.

再生ゾーン音響特性に加えて、データベース650は、対応する再生ゾーン音響特性を有する再生ゾーンの寸法を示すゾーン寸法情報及び対応する再生ゾーン音響特性に基づいて決定されたオーディオ処理アルゴリズムを含んでもよい。例えば、示されるように、エントリ652は、a×b×cのゾーン寸法を有してもよく、エントリ654は、a×b×cのゾーン寸法を有してもよく、エントリ656は、a×b×cのゾーン寸法を有してもよく、エントリ654は、a×b×cのゾーン寸法を有してもよい。そのため、この例において、決定されたオーディオ処理アルゴリズムに関連付けて記憶された1つ又は複数の特性は、再生ゾーンの音響特性及び再生ゾーンの寸法を含む。他の例もまた可能である。 In addition to the playback zone acoustic characteristics, the database 650 may include zone size information indicating the dimensions of the playback zone having the corresponding playback zone acoustic characteristics and an audio processing algorithm determined based on the corresponding playback zone acoustic characteristics. For example, as shown, entry 652 may have a zone size of a 1 × b 1 × c 1 and entry 654 may have a zone size of a 2 × b 2 × c 2. , Entry 656 may have a zone size of a 3 × b 3 × c 3 and entry 654 may have a zone size of a 4 × b 4 × c 4 . Thus, in this example, the one or more characteristics stored in association with the determined audio processing algorithm include the acoustic characteristics of the playback zone and the dimensions of the playback zone. Other examples are also possible.

当業者は、データベース650が方法700の機能を実行することによって作成されて保守されうるデータベースの単なる一例であることを理解するであろう。ある例では、再生ゾーン音響特性は、異なる形式又は数学的状態(すなわち、反転対非反転関数)で記憶されてもよい。別の例では、オーディオ処理アルゴリズムは、関数及び/又は等化関数として記憶されてもよい。さらに別の例では、データベース650は、ゾーン寸法及び対応するオーディオ処理アルゴリズムのみを含むことができ、再生ゾーンの対応する音響特性を含まないことができる。他の例もまた可能である。   Those skilled in the art will appreciate that database 650 is just one example of a database that can be created and maintained by performing the functions of method 700. In certain examples, playback zone acoustic characteristics may be stored in different forms or mathematical states (ie, inverted vs. non-inverted functions). In another example, the audio processing algorithm may be stored as a function and / or an equalization function. In yet another example, the database 650 may include only zone dimensions and corresponding audio processing algorithms, and may not include the corresponding acoustic characteristics of the playback zone. Other examples are also possible.

方法500と同様に、上述した方法700(又は方法700の幾つかの変形例)は、さらに、データベース内の他のエントリを生成するために実行されてもよい。例えば、再生デバイスが第1の再生デバイスであり、再生ゾーンが第1の再生ゾーンであり、オーディオ処理アルゴリズムが第1のオーディオ処理アルゴリズムであることを考えると、方法600は、追加的に又は代替的に、第2の再生ゾーンにおいて第2の再生デバイスを使用して実行されてもよい。ある例では、第2の再生デバイスは、第2の再生ゾーンにおいて第4のオーディオ信号を再生することができ、第2の再生デバイスのマイクロホンは、第2の再生デバイスによって再生された第4のオーディオ信号の一部を含む第5のオーディオ信号を検出することができる。そして、コンピューティングデバイスは、(i)第2の再生ゾーンの1つ又は複数の特性を示すデータ及び(ii)第2の再生ゾーン内の第2の再生デバイスのマイクロホンによって検出された第5のオーディオ信号を示すデータを受信してもよい。   Similar to method 500, method 700 described above (or some variations of method 700) may also be performed to generate other entries in the database. For example, given that the playback device is the first playback device, the playback zone is the first playback zone, and the audio processing algorithm is the first audio processing algorithm, the method 600 may additionally or alternatively In particular, it may be performed using the second playback device in the second playback zone. In an example, the second playback device can play a fourth audio signal in the second playback zone, and the second playback device microphone is played back by the second playback device. A fifth audio signal including a part of the audio signal can be detected. The computing device then detects (i) data indicative of one or more characteristics of the second playback zone and (ii) a fifth playback device detected by the microphone of the second playback device in the second playback zone. Data indicating an audio signal may be received.

そして、コンピューティングデバイスは、第5のオーディオ信号及び第2の再生デバイスの特性に基づいて、第2の再生ゾーンの音響特性を決定してもよい。コンピューティングデバイスは、第2の再生ゾーンの音響特性に基づいて、第2のオーディオ処理アルゴリズムを決定してもよい。ここで、再生ゾーンにおいて第4のオーディオ信号を再生するときの、決定した第2のオーディオ処理アルゴリズムの第2の再生デバイスによる適用により、第6のオーディオ信号が生成される。第6のオーディオ信号は、式(7)及び(8)において示される、所定のオーディオ信号z(t)によって表される所定のオーディオ特性と実質的に同一のオーディオ特性を有する。そして、コンピューティングデバイスは、第2のオーディオ処理アルゴリズムと第2の再生ゾーンの1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させてもよい。   The computing device may then determine the acoustic characteristics of the second playback zone based on the fifth audio signal and the characteristics of the second playback device. The computing device may determine a second audio processing algorithm based on the acoustic characteristics of the second playback zone. Here, when the fourth audio signal is reproduced in the reproduction zone, the sixth audio signal is generated by application of the determined second audio processing algorithm by the second reproduction device. The sixth audio signal has substantially the same audio characteristic as the predetermined audio characteristic represented by the predetermined audio signal z (t) shown in equations (7) and (8). The computing device may then store an association between the second audio processing algorithm and at least one of the one or more characteristics of the second playback zone in the database.

方法500に関連して上述したものと同様に、データベースについてのエントリを生成する過程において、コンピューティングデバイスは、2つの再生ゾーンが類似の又は実質的に同一の再生ゾーン音響特性を有することを決定してもよい。したがって、上述したように、コンピューティングデバイスは、再生ゾーン音響特性と再生ゾーン音響特性に対応する決定したオーディオ処理アルゴリズムとを合成(すなわち、平均化)することができ、データベース内の1つのエントリとして合成された再生ゾーン音響特性及び合成したオーディオ処理アルゴリズムを記憶してもよい。他の例もまた可能である。   Similar to that described above with respect to method 500, in the process of generating entries for the database, the computing device determines that the two playback zones have similar or substantially identical playback zone acoustic characteristics. May be. Thus, as described above, the computing device can synthesize (ie, average) the playback zone acoustic characteristics and the determined audio processing algorithm corresponding to the playback zone acoustic characteristics as one entry in the database. The synthesized playback zone acoustic characteristics and the synthesized audio processing algorithm may be stored. Other examples are also possible.

方法500の場合と同様に、上記説明は、全体的に、コンピューティングデバイスによって実行されるものとして方法700について言及しているが、当業者は、方法700の機能が、代替的に、1つ又は複数のサーバ、1つ又は複数の再生デバイス、及び/又は1つ又は複数のコントローラデバイスなどの1つ又は複数の他のコンピューティングデバイスによって実行されてもよいことを理解するであろう。換言すれば、ブロック702−708のうちの1つ又は複数は、コンピューティングデバイスによって実行されてもよい一方で、ブロック702−708のうちの1つ又は複数の他のブロックは、1つ又は複数の他のコンピューティングデバイスによって実行されてもよい。他のコンピューティングデバイスは、1つ又は複数の再生デバイス、1つ又は複数のコントローラデバイス、及び/又は1つ又は複数のサーバを含んでもよい。   As with method 500, the above description generally refers to method 700 as being performed by a computing device; however, those skilled in the art will recognize that the functionality of method 700 is alternatively one It will also be appreciated that may be performed by one or more other computing devices, such as multiple servers, one or more playback devices, and / or one or more controller devices. In other words, one or more of blocks 702-708 may be executed by a computing device, while one or more other blocks of blocks 702-708 may be one or more. May be executed by other computing devices. Other computing devices may include one or more playback devices, one or more controller devices, and / or one or more servers.

ある例では、上述したように、ブロック702における再生デバイスによる第1のオーディオ信号の再生は、いかなる外部コマンドもなしに再生デバイスによって実行されうる。あるいは、再生デバイスは、コントローラデバイス及び/又は他の再生デバイスからのコマンドに応答して、第1のオーディオ信号を再生してもよい。別の例では、ブロック702−706は、1つ又は複数の再生デバイス又は1つ又は複数のコントローラデバイスによって実行されてもよく、コンピューティングデバイスは、ブロック708を実行してもよい。他の例もまた可能である。   In one example, as described above, playback of the first audio signal by the playback device at block 702 may be performed by the playback device without any external command. Alternatively, the playback device may play the first audio signal in response to a command from the controller device and / or another playback device. In another example, blocks 702-706 may be performed by one or more playback devices or one or more controller devices, and the computing device may perform block 708. Other examples are also possible.

IV. 再生ゾーン特性に基づく再生デバイスの校正
上述したように、本明細書に記載された幾つかの例は、再生ゾーンについての再生デバイスの校正を含む。幾つかの場合において、再生デバイスの校正は、再生ゾーンにおけるオーディオコンテンツの再生時に再生デバイスが適用するオーディオ処理アルゴリズムを決定することを含んでもよい。
IV. Calibration of Playback Device Based on Playback Zone Characteristics As described above, some examples described herein include calibration of a playback device for a playback zone. In some cases, calibration of the playback device may include determining an audio processing algorithm that the playback device applies when playing audio content in the playback zone.

図8は、再生デバイスを校正することができる例示的な再生環境800を示している。示されるように、再生環境800は、コンピューティングデバイス802と、再生デバイス804及び806と、コントローラデバイス808と、再生ゾーン810とを含む。再生デバイス804及び806は、図2に示される再生デバイス200に類似していてもよい。そのため、再生デバイス804及び806は、それぞれ、マイクロホン220などのマイクロホンを有してもよい。幾つかの場合において、再生デバイス804及び806のうちの一方のみがマイクロホンを有していてもよい。   FIG. 8 illustrates an exemplary playback environment 800 in which a playback device can be calibrated. As shown, the playback environment 800 includes a computing device 802, playback devices 804 and 806, a controller device 808, and a playback zone 810. The playback devices 804 and 806 may be similar to the playback device 200 shown in FIG. Therefore, each of the playback devices 804 and 806 may have a microphone such as the microphone 220. In some cases, only one of the playback devices 804 and 806 may have a microphone.

ある例では、再生デバイス804及び806は、メディア再生システムの一部とすることができ、図1のメディア再生システム100に関連して示されて上述されたもののように、オーディオコンテンツを同期して再生するように構成されうる。ある場合では、再生デバイス804及び806は、再生ゾーン810内で同期してオーディオコンテンツを再生するためにともにグループ化されうる。図1を再度参照すると、再生ゾーン810は、メディア再生システム100において異なる部屋及びゾーングループのいずれか1つ又は複数であってもよい。例えば、再生ゾーン810は、主寝室であってもよい。そのような場合、再生デバイス804及び806は、それぞれ、再生デバイス122及び124に対応していてもよい。   In one example, playback devices 804 and 806 can be part of a media playback system that synchronizes audio content, such as that shown and described above in connection with media playback system 100 of FIG. It can be configured to play. In some cases, playback devices 804 and 806 may be grouped together to play audio content synchronously within playback zone 810. Referring back to FIG. 1, the playback zone 810 may be any one or more of different rooms and zone groups in the media playback system 100. For example, the reproduction zone 810 may be a main bedroom. In such a case, playback devices 804 and 806 may correspond to playback devices 122 and 124, respectively.

ある例では、コントローラデバイス808は、メディア再生システムを制御するために使用されうるデバイスであってもよい。ある場合では、コントローラデバイス808は、図3の制御デバイス300に類似していてもよい。図8のコントローラデバイス808は、再生ゾーン810の内部にあるように示されているが、コントローラデバイス808は、再生ゾーン810の外部にあってもよいし、又は、再生デバイス804、再生デバイス806、及び/又はメディア再生システム内の他のデバイスと通信しながら再生ゾーン810の内外に移動してもよい。   In one example, controller device 808 may be a device that can be used to control a media playback system. In some cases, controller device 808 may be similar to control device 300 of FIG. Although the controller device 808 of FIG. 8 is shown as being within the playback zone 810, the controller device 808 may be external to the playback zone 810, or may be a playback device 804, playback device 806, And / or move in and out of the playback zone 810 while communicating with other devices in the media playback system.

ある例では、コンピューティングデバイス802は、メディア再生システムと通信するサーバであってもよい。コンピューティングデバイス802は、メディア再生システムに関連する情報(再生デバイス804及び806に関連付けられた登録番号など)のデータベースを保守するように構成されうる。また、コンピューティングデバイス802は、前のセクションにおいて記載されたようにオーディオ処理アルゴリズムのデータベースを保守するように構成されうる。他の例もまた可能である。   In one example, computing device 802 may be a server that communicates with a media playback system. The computing device 802 may be configured to maintain a database of information related to the media playback system (such as registration numbers associated with playback devices 804 and 806). The computing device 802 may also be configured to maintain a database of audio processing algorithms as described in the previous section. Other examples are also possible.

方法900、1000及び1100は、後述するように、再生ゾーン810における再生デバイス804及び806などの再生ゾーンにおける再生デバイスの校正のために実行されうる機能を提供する。   Methods 900, 1000 and 1100 provide functions that can be performed for calibration of playback devices in playback zones, such as playback devices 804 and 806 in playback zone 810, as described below.

a. 検出されたオーディオ信号に基づいてオーディオ処理アルゴリズムを決定する第1の例示的な方法
図9は、1つ又は複数の再生ゾーン特性に基づいてオーディオ処理アルゴリズムを決定する方法900の例示的なフロー図を示している。図9に示される方法900は、例えば、図1のメディア再生システム100、図2の1つ又は複数の再生デバイス200、図3の1つ又は複数の制御デバイス300、及び図8の再生環境800を含む動作環境内で実施されうる方法の実施形態を表している。ある例では、方法900は、メディア再生システムと通信するコンピューティングデバイスによって実行されうる。これに代えて、別の例では、方法900の機能の一部又は全ては、1つ又は複数のサーバ、1つ又は複数の再生デバイス、及び/又はメディア再生システムに関連する1つ又は複数のコントローラデバイスなどの、1つ又は複数の他のコンピューティングデバイスによって実行されてもよい。
a. First Exemplary Method for Determining Audio Processing Algorithm Based on Detected Audio Signal FIG. 9 is an exemplary flow diagram of a method 900 for determining an audio processing algorithm based on one or more playback zone characteristics. Is shown. The method 900 shown in FIG. 9 includes, for example, the media playback system 100 of FIG. 1, the one or more playback devices 200 of FIG. 2, the one or more control devices 300 of FIG. 3, and the playback environment 800 of FIG. 1 represents an embodiment of a method that can be implemented within an operating environment including: In one example, method 900 can be performed by a computing device in communication with a media playback system. Alternatively, in another example, some or all of the functionality of the method 900 may include one or more servers associated with one or more servers, one or more playback devices, and / or media playback systems. It may be executed by one or more other computing devices, such as a controller device.

方法900は、ブロック902−908のうちの1つ又は複数によって示されるように1つ又は複数の操作、機能又は動作を含んでもよい。ブロックは順番に示されているが、これらのブロックは、並列に及び/又は本明細書に記載されたものとは異なる順序で実行されてもよい。また、様々なブロックは、所望の実装に基づいて、より少数のブロックに組み合わせられてもよく、さらなるブロックに分割されてもよく、及び/又は除去されてもよい。   Method 900 may include one or more operations, functions, or operations as indicated by one or more of blocks 902-908. Although the blocks are shown in order, these blocks may be executed in parallel and / or in a different order than that described herein. Also, the various blocks may be combined into fewer blocks, divided into further blocks, and / or removed based on the desired implementation.

図9に示されるように、方法900は、再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させるステップ(ブロック902)、再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを再生デバイスから受信するステップ(ブロック904)、第2のオーディオ信号及び再生デバイスの音響特性に基づいてオーディオ処理アルゴリズムを決定するステップ(ブロック906)、及び決定したオーディオ処理アルゴリズムを示すデータを再生デバイスに送信するステップ(ブロック908)を含む。   As shown in FIG. 9, the method 900 causes the playback device in the playback zone to play the first audio signal (block 902), data indicating the second audio signal detected by the playback device microphone. Receiving from the playback device (block 904), determining an audio processing algorithm based on the second audio signal and the acoustic characteristics of the playback device (block 906), and data indicating the determined audio processing algorithm to the playback device; Transmitting (block 908).

方法900は、ブロック902において、再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させることを含む。図8を参照し、再生デバイスは再生デバイス804であってもよく、再生ゾーンは再生ゾーン810であってもよい。そのため、再生デバイスは、図2に示される再生デバイス200と同様の再生デバイスであってもよい。   The method 900 includes, at block 902, causing a playback device in the playback zone to play the first audio signal. Referring to FIG. 8, the playback device may be playback device 804, and the playback zone may be playback zone 810. Therefore, the playback device may be a playback device similar to the playback device 200 shown in FIG.

ある例では、コンピューティングデバイス802は、再生デバイス804が再生ゾーン810について校正されるべきであることを決定してもよく、それに応答して再生ゾーン810内の再生デバイス804に第1のオーディオ信号を再生させてもよい。ある場合では、コンピューティングデバイス802は、ユーザから受信した、再生デバイス804が校正されるべきであることを示す入力に基づいて、再生デバイス804が校正されるべきであることを決定してもよい。ある例では、入力は、コントローラデバイス808を介してユーザから受信されてもよい。別の場合では、コンピューティングデバイス802は、再生デバイス804が新たな再生デバイスであることから又は再生ゾーン810へと新たに移動したことから、再生デバイス804が校正されるべきであることを決定してもよい。さらなる場合において、再生デバイス804(又はメディア再生システム内の任意の他の再生デバイス)の校正が定期的に実行されてもよい。そのため、コンピューティングデバイス802は、再生デバイス804が再生デバイス804の校正スケジュールに基づいて校正されるべきであることを決定してもよい。他の例もまた可能である。再生デバイス804が校正されるべきであることを決定するのに応答して、コンピューティングデバイス802は、その後、再生デバイス804に第1のオーディオ信号を再生させてもよい。   In one example, the computing device 802 may determine that the playback device 804 should be calibrated for the playback zone 810 and in response to the first audio signal to the playback device 804 in the playback zone 810. May be played. In some cases, the computing device 802 may determine that the playback device 804 should be calibrated based on an input received from the user indicating that the playback device 804 should be calibrated. . In certain examples, the input may be received from a user via controller device 808. In another case, the computing device 802 determines that the playback device 804 should be calibrated because the playback device 804 is a new playback device or has newly moved to the playback zone 810. May be. In further cases, calibration of the playback device 804 (or any other playback device in the media playback system) may be performed periodically. As such, the computing device 802 may determine that the playback device 804 should be calibrated based on the calibration schedule of the playback device 804. Other examples are also possible. In response to determining that playback device 804 should be calibrated, computing device 802 may then cause playback device 804 to play the first audio signal.

ブロック902は、コンピューティングデバイス802が再生デバイス804に第1のオーディオ信号を再生させることを含むが、当業者は、再生デバイス804による第1のオーディオ信号の再生が必ずしもコンピューティングデバイス802によって生じなくてもよい又は開始されなくてもよいことを理解するであろう。例えば、コントローラデバイス808は、再生デバイス804にコマンドを送信して、再生デバイス804に第1のオーディオ信号を再生させてもよい。別の例では、再生デバイス806は、再生デバイス804に第1のオーディオ信号を再生させてもよい。さらなる例において、再生デバイス804は、コンピューティングデバイス802、再生デバイス806又はコントローラデバイス808からのコマンドを受信することなく、第1のオーディオ信号を再生してもよい。ある例では、再生デバイス804は、再生デバイス804の動き又は再生デバイス804の再生ゾーンの変化に基づいて、校正が実行されるべきであることを決定してもよく、それに応答して、第1のオーディオ信号を再生してもよい。他の例もまた可能である。   Block 902 includes the computing device 802 causing the playback device 804 to play the first audio signal, although those of ordinary skill in the art will not necessarily cause the playback of the first audio signal by the playback device 804 by the computing device 802. It will be understood that it may or may not be initiated. For example, the controller device 808 may send a command to the playback device 804 to cause the playback device 804 to play the first audio signal. In another example, the playback device 806 may cause the playback device 804 to play the first audio signal. In a further example, playback device 804 may play the first audio signal without receiving a command from computing device 802, playback device 806, or controller device 808. In one example, the playback device 804 may determine that calibration should be performed based on movement of the playback device 804 or a change in the playback zone of the playback device 804, and in response, the first The audio signal may be reproduced. Other examples are also possible.

示唆されるように、第1のオーディオ信号は、再生ゾーン810についての再生デバイス804を校正するための検査信号又は測定信号であってもよい。そのため、第1のオーディオ信号は、ユーザによる通常使用中に再生デバイスによって再生されうるオーディオコンテンツを表してもよい。したがって、第1のオーディオ信号は、再生デバイスのレンダリング可能な周波数レンジ又は人間の可聴周波数レンジを実質的にカバーする周波数を有するオーディオコンテンツを含んでもよい。別の例では、第1のオーディオ信号は、再生デバイスのユーザのお気に入りの又は一般に再生されるオーディオトラックであってもよい。   As suggested, the first audio signal may be a test signal or a measurement signal for calibrating the playback device 804 for the playback zone 810. Thus, the first audio signal may represent audio content that can be played by the playback device during normal use by the user. Thus, the first audio signal may include audio content having a frequency that substantially covers the renderable frequency range of the playback device or the human audible frequency range. In another example, the first audio signal may be a favorite or generally played audio track of the user of the playback device.

方法900は、ブロック904において、再生デバイスのマイクロホンによって検出された第2のオーディオ信号を再生デバイスから受信することを含む。上記例を続けると、再生デバイス804が図2の再生デバイス200と同様であることを考慮すると、再生デバイス804のマイクロホンは、再生デバイス200のマイクロホン220に類似していてもよい。ある例では、コンピューティングデバイス802は、再生デバイス804からデータを受信してもよい。別の例では、コンピューティングデバイス804は、再生デバイス806などの他の再生デバイス、コントローラデバイス808などのコントローラデバイス、又は他のサーバなどの他のコンピューティングデバイスを介して、データを受信してもよい。   The method 900 includes, at block 904, receiving from the playback device a second audio signal detected by the playback device microphone. Continuing the above example, considering that the playback device 804 is similar to the playback device 200 of FIG. 2, the microphone of the playback device 804 may be similar to the microphone 220 of the playback device 200. In one example, computing device 802 may receive data from playback device 804. In another example, the computing device 804 may receive data via another playback device such as the playback device 806, a controller device such as the controller device 808, or other computing device such as another server. Good.

再生デバイス804が第1のオーディオ信号を再生しているとき又はその直後まもなく、再生デバイス804のマイクロホンは、第2のオーディオ信号を検出することができる。第2のオーディオ信号は、再生ゾーン内に存在するサウンドを含んでもよい。例えば、第2のオーディオ信号は、再生デバイス804によって再生された第1のオーディオ信号に対応する部分を含んでもよい。   When the playback device 804 is playing the first audio signal or shortly thereafter, the microphone of the playback device 804 can detect the second audio signal. The second audio signal may include a sound that exists within the playback zone. For example, the second audio signal may include a portion corresponding to the first audio signal reproduced by the reproduction device 804.

ある例では、コンピューティングデバイス802は、マイクロホンが第2のオーディオ信号を検出するとき、メディアストリームとして再生デバイス804から第1のオーディオ信号を示すデータを受信してもよい。別の例では、コンピューティングデバイス802は、再生デバイス804のマイクロホンによる第2のオーディオ信号の検出が完了すると、第2のオーディオ信号を示すデータを再生デバイス804から受信してもよい。いずれの場合も、再生デバイス804は、(再生デバイス200のオーディオ処理コンポーネント208などのオーディオ処理コンポーネントを介して)検出された第2のオーディオ信号を処理して、第2のオーディオ信号を示すデータを生成してコンピューティングデバイス802にデータを送信してもよい。ある例では、第2のオーディオ信号を示すデータを生成することは、アナログ信号からデジタル信号に第2のオーディオ信号を変換することを含んでもよい。他の例もまた可能である。   In one example, the computing device 802 may receive data indicative of the first audio signal from the playback device 804 as a media stream when the microphone detects the second audio signal. In another example, the computing device 802 may receive data indicative of the second audio signal from the playback device 804 when detection of the second audio signal by the microphone of the playback device 804 is complete. In any case, the playback device 804 processes the detected second audio signal (via an audio processing component such as the audio processing component 208 of the playback device 200) to produce data indicative of the second audio signal. It may be generated and sent to the computing device 802. In certain examples, generating data indicative of the second audio signal may include converting the second audio signal from an analog signal to a digital signal. Other examples are also possible.

方法900は、ブロック906において、第2のオーディオ信号及び再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定することを含む。ある例では、再生デバイスの音響特性は、図5に示される方法500のブロック506に関連して上述したように、h(t)であってもよい。例えば、上述したように、無響室内の基準再生デバイスに測定信号を再生させ、基準再生デバイスのマイクロホンによって検出されたオーディオ信号を示すデータを基準再生デバイスから受信し、検出されたオーディオ信号と測定信号との比較に基づいて再生デバイスの音響特性を決定することにより、再生デバイスの音響特性を決定することができる。 The method 900 includes, at block 906, determining an audio processing algorithm based on the second audio signal and the acoustic characteristics of the playback device. In one example, the acoustic characteristics of the playback device may be h p (t), as described above with respect to block 506 of method 500 shown in FIG. For example, as described above, the reference reproduction device in the anechoic chamber reproduces the measurement signal, receives data indicating the audio signal detected by the microphone of the reference reproduction device from the reference reproduction device, and measures the detected audio signal. By determining the acoustic characteristics of the playback device based on the comparison with the signal, the acoustic characteristics of the playback device can be determined.

上記示唆したように、基準再生デバイスは、再生ゾーン810について校正されている再生デバイス804と同じモデルであってもよい。また、ブロック506に関連して上述したものと同様に、コンピューティングデバイスは、それに応じて、再生デバイスの音響特性及び第2のオーディオ信号に基づいて、再生ゾーンの音響特性を決定してもよい。   As suggested above, the reference playback device may be the same model as playback device 804 calibrated for playback zone 810. Also, similar to that described above with respect to block 506, the computing device may accordingly determine the acoustic characteristics of the playback zone based on the acoustic characteristics of the playback device and the second audio signal. .

ある例では、コンピューティングデバイス802は、ブロック508に関連して上述したものと同様の再生ゾーンの音響特性に基づいて、オーディオ処理アルゴリズムを決定してもよい。そのため、コンピューティングデバイス802は、再生ゾーンの音響特性及び所定のオーディオ特性に基づいて、オーディオ処理アルゴリズムを決定してもよい。ここで、再生ゾーン810内で第1のオーディオ信号を再生するときの、決定したオーディオ処理アルゴリズムの再生デバイス804による適用は、第3のオーディオ信号を生成する。第3のオーディオ信号は、所定のオーディオ特性と実質的に同一のオーディオ特性を有するか、又は少なくともある程度、所定のオーディオ特性を持つ。   In one example, the computing device 802 may determine an audio processing algorithm based on acoustic characteristics of the playback zone similar to those described above with respect to block 508. Thus, the computing device 802 may determine an audio processing algorithm based on the acoustic characteristics of the playback zone and predetermined audio characteristics. Here, application of the determined audio processing algorithm by the playback device 804 when playing back the first audio signal in the playback zone 810 generates a third audio signal. The third audio signal has substantially the same audio characteristics as the predetermined audio characteristics, or has at least some predetermined audio characteristics.

別の例では、コンピューティングデバイス802は、再生ゾーン810の音響特性に対応するオーディオ処理アルゴリズムを複数のオーディオ処理アルゴリズムの中から選択してもよい。例えば、コンピューティングデバイスは、図6A及び図6Bそれぞれのデータベース600及び650などのデータベースにアクセスすることができ、再生ゾーン810の音響特性に基づいてオーディオ処理アルゴリズムを特定してもよい。例えば、図6Aのデータベース600を参照すると、再生ゾーン810の音響特性がhroom −1(t)−3として決定された場合、データベースエントリ606の係数w、x、y及びzを有するオーディオ処理アルゴリズムを特定することができる。 In another example, computing device 802 may select an audio processing algorithm corresponding to the acoustic characteristics of playback zone 810 from among a plurality of audio processing algorithms. For example, the computing device may access a database, such as databases 600 and 650 in FIGS. 6A and 6B, respectively, and may identify an audio processing algorithm based on the acoustic characteristics of the playback zone 810. For example, referring to the database 600 of FIG. 6A, if the acoustic characteristic of the playback zone 810 is determined as h room −1 (t) −3, the coefficients w 3 , x 3 , y 3 and z 3 of the database entry 606 are An audio processing algorithm can be specified.

幾つかの場合において、再生ゾーン810の決定された音響特性に完全に一致する音響特性は、データベースにおいてみつからないことがある。そのような場合、再生ゾーン810の音響特性に最も類似しているデータベース内の音響特性に対応するオーディオ処理アルゴリズムが特定されてもよい。他の例もまた可能である。   In some cases, an acoustic characteristic that exactly matches the determined acoustic characteristic of the playback zone 810 may not be found in the database. In such a case, an audio processing algorithm corresponding to the acoustic characteristic in the database that is most similar to the acoustic characteristic of the playback zone 810 may be identified. Other examples are also possible.

方法900は、ブロック908において、決定したオーディオ処理アルゴリズムを示すデータを再生デバイスに送信することを含む。上記例を続けると、コンピューティングデバイス802(又は1つ又は複数の他のデバイス)は、決定したオーディオ処理アルゴリズムを示すデータを再生デバイス804に送信してもよい。また、決定されたオーディオ処理アルゴリズムを示すデータは、再生ゾーン810においてオーディオコンテンツを再生するときに、決定されたオーディオ処理アルゴリズムを再生デバイス804に適用させるためのコマンドを含んでもよい。ある例では、オーディオコンテンツにオーディオ処理アルゴリズムを適用することは、オーディオコンテンツの周波数等化を変更してもよい。別の例では、オーディオコンテンツにオーディオ処理アルゴリズムを適用することは、オーディオコンテンツの音量域を変更してもよい。他の例もまた可能である。   The method 900 includes, at block 908, transmitting data indicative of the determined audio processing algorithm to the playback device. Continuing with the above example, computing device 802 (or one or more other devices) may send data indicative of the determined audio processing algorithm to playback device 804. Further, the data indicating the determined audio processing algorithm may include a command for causing the playback device 804 to apply the determined audio processing algorithm when playing back audio content in the playback zone 810. In one example, applying an audio processing algorithm to audio content may change the frequency equalization of the audio content. In another example, applying an audio processing algorithm to audio content may change the volume range of the audio content. Other examples are also possible.

幾つかの場合において、再生ゾーンは、同期してオーディオコンテンツを再生するように構成された複数の再生デバイスを含んでもよい。例えば、上述したように、再生デバイス804及び806は、再生ゾーン810において同期してオーディオコンテンツを再生するように構成されてもよい。そのような場合、再生デバイスのうちの1つの校正は、他の再生デバイスを含んでもよい。   In some cases, a playback zone may include a plurality of playback devices configured to play audio content synchronously. For example, as described above, the playback devices 804 and 806 may be configured to play audio content synchronously in the playback zone 810. In such a case, the calibration of one of the playback devices may include other playback devices.

ある例では、再生ゾーン810などの再生ゾーンは、同期してオーディオコンテンツを再生するように構成された、再生デバイス804などの第1の再生デバイス及び再生デバイス806などの第2の再生デバイスを含んでもよい。コンピューティングデバイス802によって協調されて実行されるのにともない、再生デバイス804の校正は、再生デバイス804に第1のオーディオ信号を再生させ且つ再生デバイス806に第2のオーディオ信号を再生させることを含んでもよい。   In one example, a playback zone, such as playback zone 810, includes a first playback device, such as playback device 804, and a second playback device, such as playback device 806, configured to play audio content synchronously. But you can. As coordinated and performed by computing device 802, calibration of playback device 804 includes having playback device 804 play a first audio signal and playback device 806 play a second audio signal. But you can.

ある場合では、コンピューティングデバイス802は、再生デバイス804による第1のオーディオ信号の再生と同期して、再生デバイス806に第2のオーディオ信号を再生させてもよい。ある例では、再生デバイス804及び806のいずれかによって同期して再生されるオーディオコンテンツの成分が識別可能とすることができるように、第2のオーディオ信号は第1のオーディオ信号に直交していてもよい。別の場合では、コンピューティングデバイスは、再生デバイス804による第1のオーディオ信号の再生が終了した後に再生デバイス806に第2のオーディオ信号を再生させてもよい。他の例もまた可能である。   In some cases, the computing device 802 may cause the playback device 806 to play the second audio signal in synchronization with the playback of the first audio signal by the playback device 804. In one example, the second audio signal is orthogonal to the first audio signal so that the component of the audio content that is played back synchronously by either of the playback devices 804 and 806 can be identified. Also good. In another case, the computing device may cause the playback device 806 to play the second audio signal after the playback device 804 finishes playing the first audio signal. Other examples are also possible.

そして、コンピューティングデバイス802は、ブロック904に関連して記載されたものと同様に、再生デバイス804のマイクロホンによって検出された第3のオーディオ信号を再生デバイス804から受信してもよい。しかしながら、この場合、第3のオーディオ信号は、再生デバイス804によって再生された第1のオーディオ信号に対応する部分及び再生デバイス806によって再生された第2のオーディオ信号に対応する部分の双方を含んでもよい。   The computing device 802 may then receive a third audio signal detected by the playback device 804 microphone from the playback device 804, similar to that described in connection with block 904. However, in this case, the third audio signal may include both a portion corresponding to the first audio signal reproduced by the reproduction device 804 and a portion corresponding to the second audio signal reproduced by the reproduction device 806. Good.

その後、コンピューティングデバイス802は、第3のオーディオ信号及び再生デバイス804の音響特性に基づいて、オーディオ処理アルゴリズムを決定して、決定したオーディオ処理アルゴリズムを示すデータを再生デバイス804に送信してもよい。決定されたオーディオ処理アルゴリズムは、ブロック906及び908に関連して上述したものと同様に、再生ゾーン810においてオーディオコンテンツを再生するときに、再生デバイス804が適用するものである。   Thereafter, the computing device 802 may determine an audio processing algorithm based on the third audio signal and the acoustic characteristics of the playback device 804, and transmit data indicating the determined audio processing algorithm to the playback device 804. . The determined audio processing algorithm is the one that playback device 804 applies when playing audio content in playback zone 810, similar to that described above with respect to blocks 906 and 908.

ある場合では、上述したように、再生デバイス806は、マイクロホンを有してもよく、また、上述したものと同様に校正されてもよい。示されるように、再生デバイス804によって再生される第1のオーディオ信号及び再生デバイス806によって再生される第2のオーディオ信号は、直交していてもよく又は識別可能であってもよい。例えば、また上述したように、再生デバイス806は、再生デバイス804による第1のオーディオ信号の再生が終了した後に、第2のオーディオ信号を再生してもよい。別の例において、第2のオーディオ信号は、第1のオーディオ信号の位相に直交する位相を有してもよい。さらに別の例において、第2のオーディオ信号は、第1のオーディオ信号とは異なる及び/又は変化する周波数レンジを有してもよい。他の例もまた可能である。   In some cases, as described above, the playback device 806 may have a microphone and may be calibrated in the same manner as described above. As shown, the first audio signal played by playback device 804 and the second audio signal played by playback device 806 may be orthogonal or identifiable. For example, as described above, the reproduction device 806 may reproduce the second audio signal after the reproduction device 804 finishes reproducing the first audio signal. In another example, the second audio signal may have a phase that is orthogonal to the phase of the first audio signal. In yet another example, the second audio signal may have a different and / or varying frequency range than the first audio signal. Other examples are also possible.

いずれの場合にも、識別可能な第1及び第2のオーディオ信号により、コンピューティングデバイス802は、再生デバイス804によって検出された第3のオーディオ信号から、検出された第3のオーディオ信号に対する再生デバイス804の寄与及び検出された第3のオーディオ信号に対する再生デバイス806の寄与を解析することができる。そして、各オーディオ処理アルゴリズムは、再生デバイス804及び再生デバイス806について決定されうる。   In any case, the identifiable first and second audio signals cause the computing device 802 to play from the third audio signal detected by the playback device 804 to the detected third audio signal. The contribution of 804 and the contribution of playback device 806 to the detected third audio signal can be analyzed. Each audio processing algorithm can then be determined for playback device 804 and playback device 806.

各オーディオ処理アルゴリズムは、ブロック508に関連して上述したものと同様に、決定されうる。ある場合では、再生ゾーンの第1の音響特性は、再生デバイス604によって検出された第3のオーディオ信号に基づいて決定されてもよく、再生ゾーンの第2の音響特性は、再生デバイス806によって検出された第4のオーディオ信号に基づいて決定されてもよい。第3のオーディオ信号と同様に、第4のオーディオ信号は、再生デバイス804によって再生された第1のオーディオ信号に対応する部分及び再生デバイス806によって再生された第2のオーディオ信号に対応する部分を含んでもよい。   Each audio processing algorithm may be determined similar to that described above with respect to block 508. In some cases, the first acoustic characteristic of the playback zone may be determined based on the third audio signal detected by the playback device 604, and the second acoustic characteristic of the playback zone is detected by the playback device 806. The fourth audio signal may be determined based on the determined fourth audio signal. Similar to the third audio signal, the fourth audio signal includes a portion corresponding to the first audio signal reproduced by the reproduction device 804 and a portion corresponding to the second audio signal reproduced by the reproduction device 806. May be included.

そして、再生デバイス804及び再生デバイス806についての各オーディオ処理アルゴリズムは、再生ゾーンの第1の音響特性及び再生ゾーンの第2の音響特性の個々に又はそれらの組み合わせに基づいて、決定されうる。幾つかの場合において、再生ゾーンの第1の音響特性及び再生ゾーンの第2の音響特性の組み合わせは、再生ゾーンの個別の第1又は第2の音響特性のいずれかよりも、再生ゾーンのより包括的な音響特性を表すことができる。そして、各オーディオ処理アルゴリズムは、再生デバイス804及び再生デバイス806に送信されて、再生ゾーン810においてオーディオコンテンツを再生するときに適用される。他の例もまた可能である。   Each audio processing algorithm for the playback device 804 and the playback device 806 may then be determined based on the first acoustic characteristics of the playback zone and the second acoustic characteristics of the playback zone individually or a combination thereof. In some cases, the combination of the first acoustic characteristic of the reproduction zone and the second acoustic characteristic of the reproduction zone is more of the reproduction zone than either the individual first or second acoustic characteristic of the reproduction zone. Comprehensive acoustic characteristics can be represented. Each audio processing algorithm is transmitted to the playback device 804 and the playback device 806 and applied when playing back audio content in the playback zone 810. Other examples are also possible.

上記説明は、全体的に、図8のコンピューティングデバイス802によって実行されるものとして、方法900ついて言及しているが、当業者は、上述したように、方法900の機能が、代替的に、1つ又は複数のサーバ、1つ又は複数の再生デバイス及び/又は1つ又は複数のコントローラデバイスなどの、1つ又は複数の他のコンピューティングデバイスよって実行されてもよいことを理解するであろう。例えば、再生ゾーン810についての再生デバイス804を校正するための方法900の機能は、再生デバイス804、再生デバイス806、コントローラデバイス808、又は図8には示されていないが再生デバイス804と通信する他のデバイスによって実行されてもよい。   Although the above description refers generally to the method 900 as being performed by the computing device 802 of FIG. 8, those skilled in the art will understand that, as described above, the functionality of the method 900 may be It will be appreciated that may be performed by one or more other computing devices, such as one or more servers, one or more playback devices and / or one or more controller devices. . For example, the functionality of the method 900 for calibrating the playback device 804 for the playback zone 810 may be a playback device 804, playback device 806, controller device 808, or other device that is not shown in FIG. May be executed by other devices.

さらに、幾つかの場合において、ブロック902−908のうちの1つ又は複数は、コンピューティングデバイス802によって実行されうる一方で、ブロック902−908のうちの1つ又は複数の他のブロックは、1つ又は複数の他のデバイスによって実行されてもよい。例えば、ブロック902及び904は、再生デバイス804、再生デバイス806及び再生デバイス808のうちの1つ又は複数によって実行されうる。換言すれば、コンピューティングデバイス802以外の調整デバイスは、再生ゾーン810についての再生デバイス804の校正を調整することができる。   Further, in some cases, one or more of blocks 902-908 may be performed by computing device 802, while one or more of the other blocks 902-908 are 1 It may be performed by one or more other devices. For example, blocks 902 and 904 may be performed by one or more of playback device 804, playback device 806, and playback device 808. In other words, an adjustment device other than computing device 802 can adjust the calibration of playback device 804 for playback zone 810.

幾つかの場合において、ブロック906において、調整デバイスは、第2のオーディオ信号をコンピューティングデバイス802に送信して、コンピューティングデバイス802が第2のオーディオ信号及び再生デバイスの音響特性に基づいてオーディオ処理アルゴリズムを決定してもよい。再生デバイスの音響特性は、調整デバイスによってコンピューティングデバイス802に提供されてもよいし、又は再生デバイスの特性が格納されている他のデバイスから提供されてもよい。ある場合では、コンピューティングデバイス802は調整デバイスよりも多くの処理能力を有するため、コンピューティングデバイス802がブロック906の計算を実行してもよい。   In some cases, at block 906, the conditioning device transmits a second audio signal to the computing device 802, where the computing device 802 performs audio processing based on the acoustic characteristics of the second audio signal and the playback device. An algorithm may be determined. The acoustic characteristics of the playback device may be provided to the computing device 802 by the adjustment device, or may be provided from other devices in which the characteristics of the playback device are stored. In some cases, computing device 802 may perform the computation of block 906 because computing device 802 has more processing power than the coordinating device.

ある例では、コンピューティングデバイス802は、オーディオ処理アルゴリズムを決定すると、決定したオーディオ処理アルゴリズムを直接再生デバイス804に送信して、再生ゾーン810でオーディオコンテンツを再生するときに再生デバイス804が適用できるようにしてもよい。別の例では、コンピューティングデバイス802は、オーディオ処理アルゴリズムを決定すると、決定したオーディオ処理アルゴリズムを調整デバイスに送信してもよく、調整デバイスはブロック908を実行して、(調整デバイスが再生デバイス804ではない場合は)決定したオーディオ処理アルゴリズムを再生デバイス804に送信してもよい。他の例もまた可能である。   In one example, once the computing device 802 determines the audio processing algorithm, the computing device 802 sends the determined audio processing algorithm directly to the playback device 804 so that the playback device 804 can be applied when playing audio content in the playback zone 810. It may be. In another example, once the computing device 802 determines the audio processing algorithm, the computing device 802 may send the determined audio processing algorithm to the adjustment device, which executes the block 908 (the adjustment device plays the playback device 804). If not, the determined audio processing algorithm may be transmitted to the playback device 804. Other examples are also possible.

b. 検出されたオーディオ信号に基づいてオーディオ処理アルゴリズムを決定する第2の例示的な方法
幾つかの場合において、上述したように、再生ゾーンにおける再生デバイスの校正は、サーバ又はコントーラデバイスなどのコンピューティングデバイスによって調整されて実行されてもよい。幾つかの他の場合において、上述したように、再生デバイスの校正は、校正されている再生デバイスによって調整及び/又は実行されてもよい。
b. Second Exemplary Method of Determining Audio Processing Algorithm Based on Detected Audio Signal In some cases, as described above, calibration of the playback device in the playback zone may be a computing device such as a server or controller device. May be adjusted and executed. In some other cases, as described above, calibration of the playback device may be adjusted and / or performed by the playback device being calibrated.

図10は、校正されている再生デバイスによって実行されるような、1つ又は複数の再生ゾーン特性に基づいて、オーディオ処理アルゴリズムを決定する方法1000の例示的なフロー図を示している。図10に示される方法1000は、例えば、図1のメディア再生システム100、図2の1つ又は複数の再生デバイス200、図3の1つ又は複数の制御デバイス300、及び図8の再生環境800を含む動作環境内で実施されうる方法の実施形態を表している。示されるように、方法800は、再生ゾーンのために校正されるべき再生デバイスによって実行されうる。幾つかの場合において、方法1000の機能の一部は、代替的に、1つ又は複数のサーバ、1つ又は複数の他の再生デバイス、及び/又は1つ又は複数のコントローラデバイスなどの1つ又は複数の他のコンピューティングデバイスによって実行されてもよい。   FIG. 10 shows an exemplary flow diagram of a method 1000 for determining an audio processing algorithm based on one or more playback zone characteristics as performed by a playback device being calibrated. The method 1000 shown in FIG. 10 includes, for example, the media playback system 100 of FIG. 1, the one or more playback devices 200 of FIG. 2, the one or more control devices 300 of FIG. 3, and the playback environment 800 of FIG. 1 represents an embodiment of a method that can be implemented within an operating environment including: As shown, the method 800 may be performed by a playback device to be calibrated for a playback zone. In some cases, some of the functionality of method 1000 may alternatively be one such as one or more servers, one or more other playback devices, and / or one or more controller devices. Or it may be executed by several other computing devices.

方法1000は、ブロック1002−1008のうちの1つ又は複数によって示されるように1つ又は複数の操作、機能又は動作を含んでもよい。ブロックは順番に示されているが、これらのブロックは、並列に及び/又は本明細書に記載されたものとは異なる順序で実行されてもよい。また、様々なブロックは、所望の実装に基づいて、より少数のブロックに組み合わせられてもよく、さらなるブロックに分割されてもよく、及び/又は除去されてもよい。   Method 1000 may include one or more operations, functions, or operations as indicated by one or more of blocks 1002-1008. Although the blocks are shown in order, these blocks may be executed in parallel and / or in a different order than that described herein. Also, the various blocks may be combined into fewer blocks, divided into further blocks, and / or removed based on the desired implementation.

図10に示されるように、方法1000は、再生ゾーン内で第1のオーディオ信号を再生するステップ(ブロック1002)、マイクロホンによって第2のオーディオ信号を検出するステップ(ブロック1004)、第2のオーディオ信号及び再生デバイスの音響特性に基づいてオーディオ処理アルゴリズムを決定するステップ(ブロック1006)、決定したオーディオ処理アルゴリズムを、メディアアイテムを再生するときにメディアアイテムに対応するオーディオデータに適用するステップ(ブロック1008)を含む。   As shown in FIG. 10, method 1000 includes reproducing a first audio signal within a playback zone (block 1002), detecting a second audio signal with a microphone (block 1004), and second audio. Determining an audio processing algorithm based on the signal and the acoustic characteristics of the playback device (block 1006); applying the determined audio processing algorithm to the audio data corresponding to the media item when playing the media item (block 1008); )including.

方法1000は、ブロック1002において、再生ゾーンにおいて、第1のオーディオ信号を再生することを含む。図8を参照すると、再生デバイス804が再生ゾーン810内にある間、方法1000を実行する再生デバイスは、再生デバイス804であってもよい。ある例では、ブロック1002はブロック902に類似しているが、コンピューティングデバイス802よりもむしろ校正されている再生デバイス804によって実行されてもよい。それにもかかわらず、ブロック902に関連した上記説明が、時にはいくらか変形して、ブロック1002に適用可能である。   The method 1000 includes, at block 1002, playing the first audio signal in the playback zone. Referring to FIG. 8, the playback device that performs the method 1000 while the playback device 804 is in the playback zone 810 may be the playback device 804. In one example, block 1002 is similar to block 902, but may be performed by a playback device 804 that is calibrated rather than a computing device 802. Nevertheless, the above description relating to block 902 can be applied to block 1002, sometimes with some variations.

方法1000は、ブロック1004において、マイクロホンによって、第2のオーディオ信号を検出することを含む。第2のオーディオ信号は、再生デバイスによって再生された第1のオーディオ信号に対応する部分を含んでもよい。ある例では、ブロック1004はブロック904に類似しているが、コンピューティングデバイス802よりもむしろ校正されている再生デバイス804によって実行されてもよい。それにもかかわらず、ブロック904に関連した上記説明が、時にはいくらか変形して、ブロック1004に適用可能である。   The method 1000 includes detecting a second audio signal with a microphone at block 1004. The second audio signal may include a portion corresponding to the first audio signal reproduced by the reproduction device. In one example, block 1004 is similar to block 904, but may be performed by a playback device 804 that is calibrated rather than a computing device 802. Nevertheless, the above description relating to block 904 is applicable to block 1004, sometimes with some variations.

方法1000は、ブロック1006において、第2のオーディオ信号及び再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定することを含む。ある例では、ブロック1006はブロック906に類似しているが、コンピューティングデバイス802よりもむしろ校正されている再生デバイス804によって実行されてもよい。それにもかかわらず、ブロック906に関連した上記説明が、時にはいくらか変形して、ブロック1006に適用可能である。   The method 1000 includes, at block 1006, determining an audio processing algorithm based on the second audio signal and the acoustic characteristics of the playback device. In one example, block 1006 is similar to block 906, but may be performed by a playback device 804 that is calibrated rather than computing device 802. Nevertheless, the above description relating to block 906 is applicable to block 1006, sometimes with some variations.

ある場合では、オーディオ処理アルゴリズムを決定する機能は、ブロック906に関連して記載されたように、再生ゾーン810のために校正されている再生デバイス804によって全体的に実行されてもよい。例えば、再生デバイス804が、第2のオーディオ信号及び再生デバイス804の音響特性に基づいて、再生ゾーン610の音響特性を決定してもよい。ある場合では、再生デバイス804は、再生デバイス804の音響特性をローカルに格納していてもよい。別の場合では、再生デバイス804は、他のデバイスから、再生デバイス804の音響特性を受信してもよい。   In some cases, the function of determining an audio processing algorithm may be performed entirely by a playback device 804 that is calibrated for playback zone 810, as described in connection with block 906. For example, the playback device 804 may determine the acoustic characteristics of the playback zone 610 based on the second audio signal and the acoustic characteristics of the playback device 804. In some cases, the playback device 804 may store the acoustic characteristics of the playback device 804 locally. In other cases, the playback device 804 may receive the acoustic characteristics of the playback device 804 from other devices.

ある例では、その後、再生デバイス804は、再生ゾーン610の音響特性に対応するオーディオ処理アルゴリズムを複数のオーディオ処理アルゴリズムの中から選択してもよい。例えば、再生デバイス804は、それぞれ、図6A及び図6Bに関連して示されて上述されたデータベース600及び650などのデータベースにアクセスして、再生ゾーン610の音響特性と実質的に同様の音響特性に対応するオーディオ処理アルゴリズムをデータベースにおいて特定してもよい。   In one example, the playback device 804 may then select an audio processing algorithm corresponding to the acoustic characteristics of the playback zone 610 from a plurality of audio processing algorithms. For example, the playback device 804 accesses a database, such as the databases 600 and 650 shown and described above in connection with FIGS. 6A and 6B, respectively, to provide acoustic characteristics that are substantially similar to the acoustic characteristics of the playback zone 610. May be specified in the database.

他の例において、方法900のブロック906及び/又は方法500のブロック508に関連して上述した機能と同様に、再生デバイス804は、再生ゾーン610の音響特性及び所定のオーディオ特性に基づいて、オーディオ処理アルゴリズムを計算してもよい。ここで、再生ゾーン810において第1のオーディオ信号を再生するときの、決定したオーディオ処理アルゴリズムの再生デバイス804による適用は、第3のオーディオ信号を生成する。第3のオーディオ信号は、所定のオーディオ特性と実質的に同一のオーディオ特性を有するか又は少なくともある程度の所定のオーディオ特性を持つ。   In other examples, similar to the functionality described above with respect to block 906 of method 900 and / or block 508 of method 500, playback device 804 may perform audio based on the acoustic characteristics and predetermined audio characteristics of playback zone 610. A processing algorithm may be calculated. Here, application of the determined audio processing algorithm by the playback device 804 when playing back the first audio signal in the playback zone 810 generates a third audio signal. The third audio signal has substantially the same audio characteristics as the predetermined audio characteristics or has at least some predetermined audio characteristics.

さらなる例において、前のセクションにおいて記載されたように、再生デバイス804以外の他のデバイスが、ブロック1006の機能の一部又は全てを実行してもよい。例えば、再生デバイス804は、コンピューティングデバイス802などのコンピューティングデバイス、再生デバイス806などの他の再生デバイス、コントローラデバイス808などのコントローラデバイス、及び/又は再生デバイス804と通信する幾つかの他のデバイスに対して、検出された第2のオーディオ信号を示すデータを送信して、オーディオ処理アルゴリズムを要求してもよい。別の例において、再生デバイス804は、検出されたオーディオ信号に基づいて再生ゾーン810の音響特性を決定し、再生ゾーン810の決定した音響特性に基づいたオーディオ処理アルゴリズムについての要求に応じて、再生ゾーン810の決定した音響特性を示すデータを他のデバイスに送信してもよい。   In further examples, other devices than playback device 804 may perform some or all of the functions of block 1006 as described in the previous section. For example, playback device 804 may be a computing device such as computing device 802, another playback device such as playback device 806, a controller device such as controller device 808, and / or some other device that communicates with playback device 804. On the other hand, data indicating the detected second audio signal may be transmitted to request an audio processing algorithm. In another example, the playback device 804 determines the acoustic characteristics of the playback zone 810 based on the detected audio signal, and plays the playback in response to a request for an audio processing algorithm based on the determined acoustic characteristics of the playback zone 810. Data indicating the determined acoustic characteristics of the zone 810 may be transmitted to another device.

換言すれば、1つの態様において、再生デバイス804は、検出された第2のオーディオ信号及び/又は再生デバイス804によって他のデバイスに提供された再生ゾーン810の音響特性に基づいて、他のデバイスからオーディオ処理アルゴリズムを要求することによって、オーディオ処理アルゴリズムを決定してもよい。   In other words, in one aspect, the playback device 804 is based on the detected second audio signal and / or the acoustic characteristics of the playback zone 810 provided by the playback device 804 to the other device. The audio processing algorithm may be determined by requesting an audio processing algorithm.

再生デバイス804が再生ゾーン810の音響特性ではなく、検出された第2のオーディオ信号を示すデータを提供する場合、再生デバイス804は、他のデバイスが再生ゾーン810の音響特性を決定することができるように、検出された第2のオーディオ信号を示すデータとともに再生デバイス804の音響特性を送信してもよい。別の場合では、検出された第2のオーディオ信号を示すデータを受信するデバイスは、データに基づいて、データを送信する再生デバイス804のモデルを決定し、再生デバイス804のモデル(すなわち、再生デバイス音響特性データベース)に基づいて、再生デバイス804の音響特性を決定してもよい。他の例もまた可能である。   If the playback device 804 provides data indicating the detected second audio signal rather than the acoustic characteristics of the playback zone 810, the playback device 804 may allow other devices to determine the acoustic characteristics of the playback zone 810. As described above, the acoustic characteristics of the playback device 804 may be transmitted together with data indicating the detected second audio signal. In another case, a device that receives data indicative of the detected second audio signal determines, based on the data, a model of playback device 804 that transmits the data and a model of playback device 804 (ie, playback device 804). The acoustic characteristics of the playback device 804 may be determined based on the acoustic characteristics database. Other examples are also possible.

そして、再生デバイス804は、決定されたオーディオ処理アルゴリズムを受信してもよい。ある場合では、再生デバイス804は、他のデバイスが再生デバイス804よりも多くの処理能力を有することから、第2のオーディオ信号を他のデバイスに送信してもよい。別の場合では、再生デバイス804及び1つ又は複数の他のデバイスは、処理能力の効率的な使用のために、計算及び機能を並列に実行してもよい。他の例もまた可能である。   Then, the playback device 804 may receive the determined audio processing algorithm. In some cases, playback device 804 may send the second audio signal to the other device because the other device has more processing power than playback device 804. In other cases, playback device 804 and one or more other devices may perform computations and functions in parallel for efficient use of processing power. Other examples are also possible.

方法800は、ブロック1008において、決定したオーディオ処理アルゴリズムを、メディアアイテムを再生するときにメディアアイテムに対応するオーディオデータに対して適用することを含む。ある例では、再生ゾーン810内でメディアアイテムを再生するときの再生デバイス804によるメディアアイテムのオーディオデータに対するオーディオ処理アルゴリズムの適用は、メディアアイテムの周波数等化を変更してもよい。別の例では、再生ゾーン810内でメディアアイテムを再生するときの再生デバイス804によるメディアアイテムのオーディオデータに対するオーディオ処理アルゴリズムの適用は、メディアアイテムの音量域を変更してもよい。ある例では、再生デバイス804は、決定されたオーディオ処理アルゴリズムをローカルメモリストレージに格納することができ、再生ゾーン810においてオーディオコンテンツを再生するときにオーディオ処理アルゴリズムを適用してもよい。   The method 800 includes, at block 1008, applying the determined audio processing algorithm to the audio data corresponding to the media item when playing the media item. In one example, application of an audio processing algorithm to the audio data of the media item by the playback device 804 when playing the media item in the playback zone 810 may change the frequency equalization of the media item. In another example, application of an audio processing algorithm to the audio data of the media item by the playback device 804 when playing the media item in the playback zone 810 may change the volume range of the media item. In one example, the playback device 804 can store the determined audio processing algorithm in local memory storage and may apply the audio processing algorithm when playing audio content in the playback zone 810.

ある例では、再生デバイス804は、再生デバイス804の異なる構成のために校正されてもよい。例えば、再生デバイス804は、再生ゾーン810における個々の再生を含む第1の構成、並びに再生ゾーン810における再生デバイス806との同期再生を含む第2の構成のために、校正されてもよい。そのような場合、第1のオーディオ処理アルゴリズムが、再生デバイスの第1の再生構成のために、決定、格納、及び適用され、第2のオーディオ処理アルゴリズムが、再生デバイスの第2の再生構成のために、決定、格納、及び適用される。   In certain examples, the playback device 804 may be calibrated for different configurations of the playback device 804. For example, playback device 804 may be calibrated for a first configuration that includes individual playback in playback zone 810 and a second configuration that includes synchronized playback with playback device 806 in playback zone 810. In such a case, a first audio processing algorithm is determined, stored, and applied for the first playback configuration of the playback device, and a second audio processing algorithm is used for the second playback configuration of the playback device. In order to be determined, stored, and applied.

そして、再生デバイス804は、再生デバイス804の所定時間における再生構成に基づいて、オーディオ処理アルゴリズムを決定して、再生ゾーン810におけるオーディオコンテンツの再生時に適用してもよい。例えば、再生デバイス804が再生デバイス806なしで再生ゾーン810においてオーディオコンテンツを再生しているとき、再生デバイス804は、第1のオーディオ処理アルゴリズムを適用してもよい。一方、再生デバイス804が再生デバイス806と同期して再生ゾーン810においてオーディオコンテンツを再生しているとき、再生デバイス804は、第2のオーディオ処理アルゴリズムを適用してもよい。他の例もまた可能である。   Then, the playback device 804 may determine an audio processing algorithm based on the playback configuration at a predetermined time of the playback device 804 and apply the determined audio processing algorithm in the playback zone 810. For example, when the playback device 804 is playing audio content in the playback zone 810 without the playback device 806, the playback device 804 may apply the first audio processing algorithm. On the other hand, when the playback device 804 is playing back audio content in the playback zone 810 in synchronization with the playback device 806, the playback device 804 may apply the second audio processing algorithm. Other examples are also possible.

c. 再生ゾーン特性に基づいてオーディオ処理アルゴリズムを決定する例示的な方法
上記説明において、オーディオ処理アルゴリズムの決定は、一般に、再生ゾーン内の再生デバイスによって検出されたオーディオ信号に基づいて決定されるように、再生ゾーンの音響特性を決定することに基づくことができる。幾つかの場合において、オーディオ処理アルゴリズムは、再生ゾーンの音響特性に加えて又はその代わりに、再生ゾーンの他の特性に基づいて特定されてもよい。
c. Exemplary Method for Determining Audio Processing Algorithm Based on Playback Zone Characteristics In the above description, the determination of the audio processing algorithm is generally determined based on an audio signal detected by a playback device in the playback zone, It can be based on determining the acoustic characteristics of the playback zone. In some cases, the audio processing algorithm may be specified based on other characteristics of the playback zone in addition to or instead of the acoustic characteristics of the playback zone.

図11は、再生ゾーンの1つ又は複数の特性に基づいて、オーディオ処理アルゴリズムのデータベースから、オーディオ処理アルゴリズムを提供する例示的なフロー図を示している。図11に示される方法1100は、例えば、図1のメディア再生システム100、図2の1つ又は複数の再生デバイス200、図3の1つ又は複数の制御デバイス300、及び図8の再生環境800を含む動作環境内で実施されうる方法の実施形態を表している。ある例では、方法1100は、再生ゾーンのために校正されるべきである再生デバイスと通信する、1つ又は複数の再生デバイス、1つ又は複数のコントローラデバイス、1つ又は複数のサーバ、又は1つ又は複数のコンピューティングデバイスによって、個別に又はまとめて実行されてもよい。   FIG. 11 illustrates an exemplary flow diagram for providing an audio processing algorithm from a database of audio processing algorithms based on one or more characteristics of the playback zone. The method 1100 shown in FIG. 11 includes, for example, the media playback system 100 of FIG. 1, the one or more playback devices 200 of FIG. 2, the one or more control devices 300 of FIG. 3, and the playback environment 800 of FIG. 1 represents an embodiment of a method that can be implemented within an operating environment including: In certain examples, the method 1100 may include one or more playback devices, one or more controller devices, one or more servers, or one that communicates with a playback device that is to be calibrated for the playback zone. It may be performed individually or collectively by one or more computing devices.

方法1100は、ブロック1102−1108のうちの1つ又は複数によって示されるように、1つ又は複数の操作、機能又は動作を含んでもよい。ブロックは順番に示されているが、これらのブロックは、並列に及び/又は本明細書に記載されたものとは異なる順序で実行されてもよい。また、様々なブロックは、所望の実装に基づいて、より少数のブロックに組み合わせられてもよく、さらなるブロックに分割されてもよく、及び/又は除去されてもよい。   The method 1100 may include one or more operations, functions or operations, as indicated by one or more of the blocks 1102-1108. Although the blocks are shown in order, these blocks may be executed in parallel and / or in a different order than that described herein. Also, the various blocks may be combined into fewer blocks, divided into further blocks, and / or removed based on the desired implementation.

図11に示されるように、方法1100は、(i)複数のオーディオ処理アルゴリズム及び(ii)複数の再生ゾーン特性のデータベースを保守するステップ(ブロック1102)、再生ゾーンの1つ又は複数の特性を示すデータを受信するステップ(ブロック1104)、データに基づいてオーディオ処理アルゴリズムをデータベース内で特定するステップ(ブロック1106)、及び特定したオーディオ処理アルゴリズムを示すデータを送信するステップ(ブロック1108)を含む。   As shown in FIG. 11, the method 1100 includes (i) maintaining a database of multiple audio processing algorithms and (ii) a plurality of playback zone characteristics (block 1102), determining one or more characteristics of the playback zone. Receiving the indicated data (block 1104), identifying an audio processing algorithm in the database based on the data (block 1106), and transmitting data indicative of the identified audio processing algorithm (block 1108).

方法1100は、ブロック1102において、(i)複数のオーディオ処理アルゴリズム及び(ii)複数の再生ゾーン特性のデータベースを保守することを含む。ある例では、データベースは、図6A及び図6Bそれぞれに関連して示されて上述されたようなデータベース600及び650に類似していてもよい。そのため、複数のオーディオ処理アルゴリズムのうちの各オーディオ処理アルゴリズムは、複数の再生ゾーン特性のうちの1つ又は複数の再生ゾーン特性に対応してもよい。データベースの保守は、図5及び図7それぞれの方法500及び700に関連して上述したようなものとしてもよい。上述したように、データベースは、データベースを保守するデバイス上にローカルに格納されていてもよいし、格納されていなくてもよい。   The method 1100 includes maintaining a database of (i) a plurality of audio processing algorithms and (ii) a plurality of playback zone characteristics at block 1102. In one example, the database may be similar to databases 600 and 650 as shown and described above in connection with FIGS. 6A and 6B, respectively. Therefore, each audio processing algorithm of the plurality of audio processing algorithms may correspond to one or more reproduction zone characteristics of the plurality of reproduction zone characteristics. Database maintenance may be as described above in connection with methods 500 and 700 of FIGS. 5 and 7, respectively. As described above, the database may or may not be stored locally on the device that maintains the database.

方法1100は、ブロック1104において、再生ゾーンの1つ又は複数の特性を示すデータを受信することを含む。ある例では、再生ゾーンの1つ又は複数の特性は、再生ゾーンの音響特性を含んでもよい。別の例では、再生ゾーンの1つ又は複数の特性は、他の可能性のうち、再生ゾーンの寸法、再生ゾーンの床材、再生ゾーンの壁材、再生ゾーンの使用目的、再生ゾーン内の家具の数、再生ゾーン内の家具の大きさ及び再生ゾーン内の家具の種類を含んでもよい。   The method 1100 includes, at block 1104, receiving data indicative of one or more characteristics of the playback zone. In certain examples, the one or more characteristics of the playback zone may include the acoustic characteristics of the playback zone. In another example, one or more characteristics of the regeneration zone may include, among other possibilities, the size of the regeneration zone, the flooring of the regeneration zone, the wall material of the regeneration zone, the intended use of the regeneration zone, It may include the number of furniture, the size of the furniture in the regeneration zone, and the type of furniture in the regeneration zone.

ある例では、図8を再度参照すると、再生デバイス804は、再生ゾーン810のために校正されてもよい。上述したように、方法1100は、校正されている再生デバイス804、再生デバイス806、コントローラデバイス808、コンピューティングデバイス802、又は再生デバイス804と通信する他のデバイスによって、個別に又はまとめて実行されてもよい。   In one example, referring again to FIG. 8, the playback device 804 may be calibrated for the playback zone 810. As described above, the method 1100 may be performed individually or collectively by a calibrated playback device 804, playback device 806, controller device 808, computing device 802, or other device in communication with the playback device 804. Also good.

ある場合では、1つ又は複数の特性は、再生ゾーン810の音響特性を含んでもよい。そのような場合、再生ゾーン810内の再生デバイス804は、第1のオーディオ信号を再生し、第1のオーディオ信号に対応する部分を含む第2のオーディオ信号を再生デバイス804のマイクロホンによって検出してもよい。ある例では、1つ又は複数の特性を示すデータは、検出された第2のオーディオ信号を示すデータであってもよい。別の例において、検出された第2のオーディオ信号及び再生デバイス804の音響特性に基づいて、再生ゾーン810の音響特性は、先に記載されたものと同様に決定されてもよい。そして、1つ又は複数の特性を示すデータは、再生ゾーンの音響特性を示してもよい。いずれの場合にも、1つ又は複数の特性を示すデータは、その後、方法1100を実行する1つ又は複数のデバイスのうちの少なくとも1つによって受信されてもよい。   In some cases, the one or more characteristics may include the acoustic characteristics of the playback zone 810. In such a case, the reproduction device 804 in the reproduction zone 810 reproduces the first audio signal, and detects the second audio signal including a portion corresponding to the first audio signal by the microphone of the reproduction device 804. Also good. In an example, the data indicating the one or more characteristics may be data indicating the detected second audio signal. In another example, based on the detected second audio signal and the acoustic characteristics of the playback device 804, the acoustic characteristics of the playback zone 810 may be determined in the same manner as described above. The data indicating one or more characteristics may indicate the acoustic characteristics of the playback zone. In any case, data indicative of one or more characteristics may then be received by at least one of the one or more devices performing method 1100.

別の場合では、1つ又は複数の特性は、再生ゾーンの寸法、再生ゾーンの床材、及び再生ゾーンの壁材などを含んでもよい。そのような場合、ユーザは、コントローラデバイス808などのコントローラデバイスによって提供されるコントローラインタフェースを介して、再生ゾーン810の1つ又は複数の特性を入力又は選択するように促されてもよい。例えば、コントローラインタフェースは、ユーザが選択できるように、他の可能性のうち、再生ゾーン寸法のリスト及び/又は家具配置のリストを提供してもよい。そして、ユーザによって提供されるような再生ゾーン810の1つ又は複数の特性を示すデータは、方法1100を実行する1つ又は複数のデバイスのうちの少なくとも1つによって受信されてもよい。   In another case, the one or more characteristics may include the dimensions of the regeneration zone, the flooring of the regeneration zone, the wall of the regeneration zone, and the like. In such cases, the user may be prompted to enter or select one or more characteristics of playback zone 810 via a controller interface provided by a controller device, such as controller device 808. For example, the controller interface may provide a list of playback zone dimensions and / or a list of furniture arrangements, among other possibilities, for selection by the user. Data indicative of one or more characteristics of the playback zone 810 as provided by the user may then be received by at least one of the one or more devices performing the method 1100.

方法1100は、ブロック1106において、データに基づいて、データベース内でオーディオ処理アルゴリズムを特定することを含む。1つ又は複数の特性が再生ゾーン810の音響特性を含む場合を参照すると、オーディオ処理アルゴリズムは、再生ゾーン810の音響特性に基づいて、データベース内で特定されうる。例えば、図6Aのデータベース600を参照すると、受信したデータが、hroom −1(t)−3又はhroom −1(t)−3と実質的に同一の、再生ゾーン810の音響特性を示す場合、係数w、x、y及びzを有するデータベースエントリ606のオーディオ処理アルゴリズムが特定されうる。例えば、再生ゾーンの1つ又は複数の特性を示すデータは、検出された第2のオーディオ信号を示すデータを単に含み、再生ゾーンの音響特性は、さらに、オーディオ処理アルゴリズムを特定する前に、上述したように決定されうる。他の例もまた可能である。 The method 1100 includes, at block 1106, identifying an audio processing algorithm in the database based on the data. With reference to the case where the one or more characteristics include the acoustic characteristics of the playback zone 810, an audio processing algorithm can be identified in the database based on the acoustic characteristics of the playback zone 810. For example, referring to the database 600 of FIG. 6A, the received data shows the acoustic characteristics of the playback zone 810 that is substantially identical to h room -1 (t) -3 or h room -1 (t) -3. In this case, the audio processing algorithm of the database entry 606 with coefficients w 3 , x 3 , y 3 and z 3 may be identified. For example, data indicative of one or more characteristics of the playback zone simply includes data indicative of the detected second audio signal, and the acoustic characteristics of the playback zone are further described above before specifying the audio processing algorithm. As determined. Other examples are also possible.

1つ又は複数の特性が、数ある特性の中でも特に、再生ゾーンの寸法を含む場合を参照すると、オーディオ処理アルゴリズムは、再生ゾーンの寸法に基づいて、データベース内で特定されてもよい。例えば、図6Bのデータベース650を参照すると、受信データがa×b×cとして又はa×b×cと実質的に同一の、再生ゾーン810の寸法を示す場合、係数w、x、y及びzを有するデータベースエントリ658のオーディオ処理アルゴリズムエントリが特定されうる。他の例もまた可能である。 Referring to the case where the one or more characteristics include, among other characteristics, the dimensions of the playback zone, an audio processing algorithm may be identified in the database based on the dimensions of the playback zone. For example, in the case shown with reference to the database 650 of FIG. 6B, the received data is a 4 × b 4 × c 4 and with or a 4 × b 4 × c 4 substantially the same, the size of the regeneration zone 810, the coefficient w An audio processing algorithm entry of database entry 658 having 4 , 4 , y 4, and z 4 may be identified. Other examples are also possible.

幾つかの場合において、複数のオーディオ処理アルゴリズムは、受信データに示される再生ゾーンの1つ又は複数の特性に基づいて特定されてもよい。例えば、再生ゾーン810の音響特性が、hroom −1(t)−3として決定される一方で、再生ゾーン810についてユーザによって提供される寸法が、a×b×cであってもよい。ここで、hroom −1(t)−3は、図6のデータベース650のエントリ656において提供されるようなオーディオ処理アルゴリズムパラメータw、x、y及びzに対応し、a×b×cは、エントリ658において提供されるようなオーディオ処理アルゴリズムパラメータw、x、y及びzに対応する。 In some cases, multiple audio processing algorithms may be identified based on one or more characteristics of the playback zone indicated in the received data. For example, while the acoustic characteristics of the playback zone 810 are determined as h room -1 (t) -3, the dimensions provided by the user for the playback zone 810 are a 4 × b 4 × c 4 Good. Here, h room -1 (t) -3 corresponds to an audio processing algorithm parameter w 3, x 3, y 3 and z 3 as provided in the entry 656 in the database 650 of FIG. 6, a 4 × b 4 × c 4 corresponds to the audio processing algorithm parameters w 4 , x 4 , y 4 and z 4 as provided in entry 658.

ある例では、一致又は実質的に一致する音響特性に対応するオーディオ処理アルゴリズムが優先されてもよい。別の例では、オーディオ処理アルゴリズムの平均(すなわち、パラメータの平均)が計算されてもよく、平均オーディオ処理アルゴリズムが、特定されたオーディオ処理アルゴリズムであってもよい。他の例もまた可能である。   In one example, an audio processing algorithm that corresponds to a matching or substantially matching acoustic characteristic may be prioritized. In another example, an average of audio processing algorithms (ie, an average of parameters) may be calculated, and the average audio processing algorithm may be a specified audio processing algorithm. Other examples are also possible.

方法1100は、ブロック1108において、特定したオーディオ処理アルゴリズムを示すデータを送信することを含む。上記例を続けると、特定したオーディオ処理アルゴリズムを示すデータは、再生ゾーン810用に校正されている再生デバイス804に送信されてもよい。ある場合では、特定したオーディオ処理アルゴリズムを示すデータは、再生デバイス804に直接送信されてもよい。別の場合では、再生デバイス804の校正がコントローラデバイス808によって調整される場合、及びオーディオ処理アルゴリズムがコンピューティングデバイス802によって特定された場合、特定されたオーディオ処理アルゴリズムを示すデータは、コントローラデバイス808を介してコンピューティングデバイス802から再生デバイス804に対して送信されてもよい。他の例もまた可能である。   The method 1100 includes transmitting data indicative of the identified audio processing algorithm at block 1108. Continuing the above example, data indicating the identified audio processing algorithm may be transmitted to a playback device 804 that has been calibrated for playback zone 810. In some cases, data indicative of the identified audio processing algorithm may be sent directly to the playback device 804. In another case, if the calibration of the playback device 804 is adjusted by the controller device 808, and if an audio processing algorithm is specified by the computing device 802, the data indicative of the specified audio processing algorithm is stored in the controller device 808. Via the computing device 802 to the playback device 804. Other examples are also possible.

上述したように、方法1100の機能は、1つ又は複数のサーバ、1つ又は複数の再生デバイス、及び/又は1つ又は複数のコントローラデバイスのうちの1つ又は複数によって実行されうる。ある例では、ブロック1102におけるデータベースの保守は、コンピューティングデバイス802によって実行される。ブロック1104における再生ゾーンの1つ又は複数の特性を示すデータの受信は、コントローラデバイス808によって実行される(データは、再生ゾーン810において校正されている再生デバイス804によってコントローラデバイス808に提供される)。ブロック1106は、コンピューティングデバイス802と通信するコントローラデバイス808によって実行され、コンピューティングデバイス802によって保守されるデータベースにアクセスして、オーディオ信号処理が特定される。ブロック1108は、コンピューティングデバイス802が、特定されたオーディオ処理アルゴリズムを示すデータを、直接又はコントローラデバイス808を介して、再生デバイス804に送信することを含む。   As described above, the functionality of method 1100 may be performed by one or more of one or more servers, one or more playback devices, and / or one or more controller devices. In one example, database maintenance at block 1102 is performed by computing device 802. Reception of data indicative of one or more characteristics of the playback zone at block 1104 is performed by the controller device 808 (the data is provided to the controller device 808 by the playback device 804 being calibrated in the playback zone 810). . Block 1106 is executed by the controller device 808 in communication with the computing device 802 to access a database maintained by the computing device 802 to identify audio signal processing. Block 1108 includes the computing device 802 sending data indicative of the identified audio processing algorithm directly or via the controller device 808 to the playback device 804.

別の例では、方法1100の機能は、1つのデバイスによって完全に又は実質的完全に実行されてもよい。例えば、コンピューティングデバイス802は、ブロック1102に関連して記載されたようにデータベースを保守してもよい。   In another example, the functions of method 1100 may be performed completely or substantially completely by one device. For example, computing device 802 may maintain a database as described in connection with block 1102.

そして、コンピューティングデバイス802は、再生デバイス804の校正を調整してもよい。例えば、コンピューティングデバイス802は、再生デバイス804に第1のオーディオ信号を再生させて第2のオーディオ信号を検出させ、検出された第2のオーディオ信号を示すデータを再生デバイス804から受信し、再生デバイス804からのデータに基づいて再生ゾーン810の音響特性を決定してもよい。別の場合において、コンピューティングデバイス802は、コントローラデバイス808に再生ゾーン810の1つ又は複数の特性(すなわち、上述したように寸法など)を提供するようにユーザを促させ、再生ゾーン810のユーザによって提供された特性を示すデータを受信してもよい。   The computing device 802 may then adjust the calibration of the playback device 804. For example, the computing device 802 causes the playback device 804 to play back the first audio signal to detect the second audio signal, receives data indicating the detected second audio signal from the playback device 804, and plays back the data. Based on the data from the device 804, the acoustic characteristics of the playback zone 810 may be determined. In another case, the computing device 802 prompts the user to provide the controller device 808 with one or more characteristics of the playback zone 810 (ie, dimensions, etc. as described above) and the user of the playback zone 810 Data indicative of the characteristics provided by may be received.

そして、コンピューティングデバイスは、ブロック1106において、受信データに基づいてオーディオ処理アルゴリズムを特定することができ、ブロック1108において、特定したオーディオ処理アルゴリズムを示すデータを再生デバイス804に対して送信してもよい。また、コンピューティングデバイス802は、再生デバイス804のためにコマンドを送信して、再生ゾーン810内でオーディオコンテンツを再生するときに、特定されたオーディオ処理アルゴリズムを適用してもよい。他の例もまた可能である。   The computing device may then identify an audio processing algorithm based on the received data at block 1106 and may transmit data indicating the identified audio processing algorithm to the playback device 804 at block 1108. . The computing device 802 may also apply a specified audio processing algorithm when sending commands for the playback device 804 to play audio content in the playback zone 810. Other examples are also possible.

IV.結論
本明細書は、様々な例示のシステム、方法、装置、および製品などを開示しており、それらは、他のコンポーネントの中で、ハードウェア上で実行されるファームウェアおよび/又はソフトウェアを含む。そのような例は、単なる例示であり、限定されるものとみなすべきではないと理解される。例えば、これらのファームウェア、ハードウェア、および/又はソフトウェアの態様又はコンポーネントのいくつか又はすべてが、専らハードウェアに、専らソフトウェアに、専らファームウェアに、又はハードウェア、ソフトウェア、および/又はファームウェアの任意の組み合わせを実施することができることが意図されている。したがって、提供されているそれらの例は、それらのシステム、方法、装置、および/又は生産物を実施する唯一の方法ではない。
IV. CONCLUSION This specification discloses various exemplary systems, methods, apparatuses, products, and the like, which include firmware and / or software running on hardware, among other components. It is understood that such examples are illustrative only and should not be considered limiting. For example, some or all of these firmware, hardware, and / or software aspects or components may be exclusively hardware, exclusively software, exclusively firmware, or any of hardware, software, and / or firmware It is intended that combinations can be implemented. Thus, the examples provided are not the only way to implement those systems, methods, devices, and / or products.

更に、本明細書において「実施形態」は、実施形態に関連して述べられた特定の特徴、構造、又は特性が、本発明の少なくとも1つの実施例に含まれ得ることを示している。本明細書の様々な場所でこの語句が用いられているが、すべてが同じ実施形態を言及するものではなく、又、他の実施形態を除いた別個の実施形態又は代替の実施形態でもない。このように、本明細書で述べられた実施形態は、明示的におよび暗黙的に、当業者によって、他の実施形態砥組み合わせることができることが理解される。   Furthermore, “embodiments” herein indicate that the particular features, structures, or characteristics described in connection with the embodiments may be included in at least one example of the invention. Although this phrase is used in various places throughout the specification, they do not all refer to the same embodiment, nor are they separate or alternative embodiments other than other embodiments. Thus, it is understood that the embodiments described herein can be combined with other embodiment abrasives by those skilled in the art, both explicitly and implicitly.

以下の例は、本開示のさらなる又は代替的な態様を記載している。以下の例のいずれかにおけるデバイスは、本明細書に記載されたデバイスのうちのいずれかのデバイスの要素又は本明細書に記載されたデバイスの任意の構成とすることができる。
(特徴1)
プロセッサ、及び前記プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリを備えたコンピューティングデバイスであって、
前記機能は、
再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させること、
前記再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを前記再生デバイスから受信すること、ここで、前記第2のオーディオ信号は前記第1のオーディオ信号に対応する部分を含む、
前記第2のオーディオ信号及び前記再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び
決定した前記オーディオ処理アルゴリズムを示すデータを前記再生デバイスに送信すること、
を有する、コンピューティングデバイス。
(特徴2)
前記再生ゾーン内で前記第1のオーディオ信号を再生するときに前記決定したオーディオ処理アルゴリズムを前記再生デバイスによって適用することにより、所定のオーディオ特性と実質的に同一のオーディオ特性を有する第3のオーディオ信号が生成される、いずれかの先行する特徴のコンピューティングデバイス。
(特徴3)
前記オーディオ処理アルゴリズムを決定することが、さらに、
前記第2のオーディオ信号及び前記再生デバイスの音響特性に基づいて、前記再生ゾーンの音響特性を決定すること、及び
前記再生ゾーンの決定した前記音響特性に対応するオーディオ処理アルゴリズムを複数のオーディオ処理アルゴリズムから選択すること、
を含む、いずれかの先行する特徴のコンピューティングデバイス。
(特徴4)
前記オーディオ処理アルゴリズムを決定することが、さらに、
前記第2のオーディオ信号及び前記再生デバイスの音響特性に基づいて、前記再生ゾーンの音響特性を決定すること、及び
前記再生ゾーンの音響特性及び所定のオーディオ特性に基づいて、前記オーディオ処理アルゴリズムを計算すること、
を含む、いずれかの先行する特徴のコンピューティングデバイス。
(特徴5)
前記オーディオ処理アルゴリズムを決定することが、前記オーディオ処理アルゴリズムについての1つ又は複数のパラメータを決定することを含む、いずれかの先行する特徴のコンピューティングデバイス。
(特徴6)
前記機能が、さらに、
無響室内の基準再生デバイスに測定信号を再生させること、
前記基準再生デバイスのマイクロホンによって検出されたオーディオ信号を示すデータを前記基準再生デバイスから受信すること、ここで、前記検出されたオーディオ信号は前記無響室内で再生された測定信号に対応する部分を含む、及び
前記検出されたオーディオ信号と前記測定信号との比較に基づいて、前記再生デバイスの音響特性を決定すること、
を有する、いずれかの先行する特徴のコンピューティングデバイス。
(特徴7)
プロセッサ、及び前記プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリを備えたコンピューティングデバイスであって、
前記機能は、
再生ゾーンにおいて、第1の再生デバイスに第1のオーディオ信号を再生させること、
前記再生ゾーンにおいて、第2の再生デバイスに第2のオーディオ信号を再生させること、
前記第1の再生デバイスのマイクロホンによって検出された第3のオーディオ信号を示すデータを前記第1の再生デバイスから受信すること、ここで、前記第3のオーディオ信号は、(i)前記第1のオーディオ信号に対応する部分及び(ii)第2の再生デバイスによって再生された前記第2のオーディオ信号に対応する部分を含む、
前記第3のオーディオ信号及び前記第1の再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び
前記決定したオーディオ処理アルゴリズムを示すデータを前記第1の再生デバイスに送信すること、
を有する、コンピューティングデバイス。
(特徴8)
前記再生ゾーンにおいて前記第1のオーディオ信号を再生するときに前記決定したオーディオ処理アルゴリズムを前記第1の再生デバイスによって適用することにより、所定のオーディオ特性と実質的に同一のオーディオ特性を有する第4のオーディオ信号が生成される、特徴7のコンピューティングデバイス。
(特徴9)
前記オーディオ処理アルゴリズムを決定することは、さらに、
前記第3のオーディオ信号及び前記第1の再生デバイスの音響特性に基づいて、前記再生ゾーンの音響特性を決定すること、及び
前記再生ゾーンの音響特性に対応するオーディオ処理アルゴリズムを複数のオーディオ処理アルゴリズムから選択すること
を含む、特徴7又は特徴8のコンピューティングデバイス。
(特徴10)
第2の再生デバイスに第2のオーディオ信号を再生させることは、前記第1の再生デバイスによる前記第1のオーディオ信号の再生と同期して、前記第2の再生デバイスに前記第2のオーディオ信号を再生させることを含む、特徴7から特徴9のいずれかのコンピューティングデバイス。
(特徴11)
第2の再生デバイスに第2のオーディオ信号を再生させることは、前記第1の再生デバイスによる前記第1のオーディオ信号の再生が終了した後に前記第2の再生デバイスに前記第2のオーディオ信号を再生させることを含む、特徴7から特徴10のいずれかのコンピューティングデバイス。
(特徴12)
前記第1のオーディオ信号は前記第2のオーディオ信号に直交している、特徴7から特徴11のいずれかのコンピューティングデバイス。
(特徴13)
前記第1の再生デバイス及び前記第2の再生デバイスは、同期してオーディオコンテンツを再生するように構成された再生デバイスのゾーングループに含まれる、特徴7から特徴12のいずれかのコンピューティングデバイス。
(特徴14)
プロセッサ、マイクロホン、及び前記プロセッサによって実行可能であって再生デバイスに機能を実行させる命令を格納したメモリを備えた再生デバイスであって、
前記機能は、
再生ゾーン内で第1のオーディオ信号を再生すること、
第2のオーディオ信号を前記マイクロホンによって検出すること、ここで、前記第2のオーディオ信号は前記第1のオーディオ信号に対応する部分を含む、
前記第2のオーディオ信号及び前記再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、
前記再生ゾーン内でメディアアイテムを再生するときに前記メディアアイテムに対応するオーディオデータに対して、前記決定したオーディオ処理アルゴリズムを適用すること、
を有する、再生デバイス。
(特徴15)
前記再生ゾーン内で前記第1のオーディオ信号を再生するときに前記決定したオーディオ処理アルゴリズムを適用することにより、所定のオーディオ特性と実質的に同一のオーディオ特性を有する第3のオーディオ信号を生成する、特徴14のコンピューティングデバイス。
(特徴16)
前記オーディオ処理アルゴリズムを決定することは、さらに、
前記第2のオーディオ信号及び前記再生デバイスの音響特性に基づいて、前記再生ゾーンの1つ又は複数の特性を決定すること、及び
前記再生ゾーンの1つ又は複数の特性に対応するオーディオ処理アルゴリズムを複数のオーディオ処理アルゴリズムから選択すること、
を含む、特徴14又は特徴15のコンピューティングデバイス。
(特徴17)
前記オーディオ処理アルゴリズムを決定することは、
(i)前記第2のオーディオ信号及び(ii)前記再生デバイスの特性を示す送信データをコンピューティングデバイスに送信すること、及び
前記オーディオ処理アルゴリズムを示すデータを前記コンピューティングデバイスから受信すること、
を含む、特徴14から特徴16のいずれかのコンピューティングデバイス。
(特徴18)
前記機能は、さらに、前記決定したオーディオ処理アルゴリズムを前記メモリに格納することを含む、特徴14から特徴17のいずれかのコンピューティングデバイス。
(特徴19)
前記オーディオデータに対して前記オーディオ処理アルゴリズムを適用することは、前記メディアアイテムの周波数等化を変更することを含む、特徴14から特徴18のいずれかのコンピューティングデバイス。
(特徴20)
前記オーディオデータに対して前記オーディオ処理アルゴリズムを適用することは、前記メディアアイテムの音量域を変更することを含む、特徴14から特徴19のいずれかのコンピューティングデバイス。
(特徴21)
プロセッサ、及び
前記プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリ、
を備えたコンピューティングデバイスであって、
前記機能は、
再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させること、
前記再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを受信すること、ここで、前記第2のオーディオ信号は、前記再生デバイスによって再生された前記第1のオーディオ信号に対応する部分を含む、
前記第2のオーディオ信号及び前記再生デバイスの特性に基づいて、前記再生ゾーンの音響特性を決定すること、
前記再生ゾーンの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び
前記オーディオ処理アルゴリズムと前記再生ゾーンの音響特性との関連付けをデータベースに記憶させること、
を有する、コンピューティングデバイス。
(特徴22)
前記再生ゾーン内で前記第1のオーディオ信号を再生するときに前記決定したオーディオ処理アルゴリズムを前記再生デバイスによって適用することにより、所定のオーディオ特性と実質的に同一のオーディオ特性を有する第3のオーディオ信号が生成される、いずれかの先行する特徴のコンピューティングデバイス。
(特徴23)
前記再生デバイスは、第1の再生デバイスである、
前記再生ゾーンは、第1の再生ゾーンである、
前記オーディオ処理アルゴリズムは、第1のオーディオ処理アルゴリズムである、
前記機能は、さらに、
第2の再生ゾーン内の第2の再生デバイスに第4のオーディオ信号を再生させること、
前記第2の再生デバイスのマイクロホンによって検出された第5のオーディオ信号を示すデータを受信すること、ここで、前記第5のオーディオ信号は、前記第2の再生デバイスによって再生された前記第4のオーディオ信号に対応する部分を含む、
前記第5のオーディオ信号及び前記第2の再生デバイスの特性に基づいて、前記第2の再生ゾーンの音響特性を決定すること、
前記第2の再生ゾーンの音響特性に基づいて、第2のオーディオ処理アルゴリズムを決定すること、及び
前記第2のオーディオ処理アルゴリズム及び前記第2の再生ゾーンの音響特性との関連付けをデータベースに記憶させること、
を有する、いずれかの先行する特徴のコンピューティングデバイス。
(特徴24)
第1の再生ゾーン内で前記第1のオーディオ信号を再生するときに前記第1の決定されたオーディオ処理アルゴリズムを前記第1の再生デバイスによって適用することにより、所定のオーディオ特性と実質的に同一のオーディオ特性を有する第3のオーディオ信号が生成される、
前記第2の再生ゾーン内で前記第4のオーディオ信号を再生するときに前記第2の決定されたオーディオ処理アルゴリズムを前記第2の再生デバイスによって適用することにより、前記所定のオーディオ特性と実質的に同一のオーディオ特性を有する第6のオーディオ信号が生成される、
特徴3のコンピューティングデバイス。
(特徴25)
前記機能は、さらに、
前記第2の再生ゾーンの音響特性が前記第1の再生ゾーンの音響特性と実質的に同一であることを決定すること、
それに応答して、前記第1のオーディオ処理アルゴリズム及び前記第2のオーディオ処理アルゴリズムに基づいて、第3のオーディオ処理アルゴリズムを決定すること、及び
前記第3のオーディオ処理アルゴリズムと前記第1の再生ゾーンの音響特性との関連付けをデータベースに記憶させること、
を有する、特徴3のコンピューティングデバイス。
(特徴26)
前記オーディオ処理アルゴリズムを決定することは、前記オーディオ処理アルゴリズムについての1つ又は複数のパラメータを決定することを含む、特徴21から特徴25のいずれかのコンピューティングデバイス。
(特徴27)
前記機能は、さらに、
前記再生ゾーンの1つ又は複数の特性を示すデータを受信すること、及び
前記再生ゾーンの1つ又は複数の特性と前記第2のオーディオ処理アルゴリズムとの関連付けをデータベースに記憶させること、
を有する、特徴21から特徴26のいずれかのコンピューティングデバイス。
(特徴28)
前記再生ゾーンの1つ又は複数の特性は、(a)前記再生ゾーンの寸法、(b)前記再生ゾーンのオーディオ反射特性、(c)再生ゾーンの使用目的、(d)再生ゾーン内の家具の数、(e)再生ゾーン内の家具の大きさ、及び(f)再生ゾーン内の家具の種類のうちの1つ又は複数を含む、特徴27のコンピューティングデバイス。
(特徴29)
プロセッサ、及び
前記プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリ、
を備えたコンピューティングデバイスであって、
前記機能は、
再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させること、
(i)前記再生ゾーンの1つ又は複数の特性を示すデータ及び(ii)前記再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを受信すること、ここで、前記第2のオーディオ信号は、前記再生デバイスによって再生された前記オーディオ信号に対応する部分を含む、
前記第2のオーディオ信号及び前記再生デバイスの特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び
前記決定したオーディオ処理アルゴリズムと前記再生ゾーンの1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させること、
を備える、コンピューティングデバイス。
(特徴30)
前記オーディオ処理アルゴリズムを決定することは、さらに、
前記第2のオーディオ信号及び前記再生デバイスの特性に基づいて、前記再生ゾーンの音響特性を決定すること、及び
前記再生ゾーンの音響特性に基づいてオーディオ処理アルゴリズムを決定すること、を含み、前記再生ゾーン内で前記第2のオーディオ信号を再生するときに前記決定したオーディオ処理アルゴリズムを前記再生デバイスによって適用することにより、所定のオーディオ特性と実質的に同一のオーディオ特性を有する第3のオーディオ信号が生成されるようにする、
特徴29のコンピューティングデバイス。
(特徴31)
前記再生デバイスは、第1の再生デバイスである、
前記再生ゾーンは、第1の再生ゾーンである、
前記オーディオ処理アルゴリズムは、第1のオーディオ処理アルゴリズムである、
前記機能は、さらに、
第2の再生ゾーン内の第2の再生デバイスに第3のオーディオ信号を再生させること、
(i)前記第2の再生ゾーンの1つ又は複数の特性を示すデータ及び(ii)前記第2の再生ゾーン内の第2の再生デバイスのマイクロホンによって検出された第4のオーディオ信号を示すデータを受信すること、ここで、前記第4のオーディオ信号は、前記再生デバイスによって再生された前記第3のオーディオ信号に対応する部分を含む、
前記第4のオーディオ信号及び前記第2の再生デバイスの特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び
前記第2のオーディオ処理アルゴリズムと前記第2の再生ゾーンの1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させること、
を有する、特徴29又は特徴30のコンピューティングデバイス。
(特徴32)
前記第2のオーディオ処理アルゴリズムを決定することは、さらに、
前記第4のオーディオ信号及び前記再生デバイスの特性に基づいて、前記再生ゾーンの音響特性を決定すること、及び
前記再生ゾーンの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、を含み、前記再生ゾーン内で前記第3のオーディオ信号を再生するときに前記決定したオーディオ処理アルゴリズムを前記第2の再生デバイスによって適用することにより、所定のオーディオ特性と実質的に同一のオーディオ特性を有する第5のオーディオ信号が生成されるようにする、
特徴29のコンピューティングデバイス。
(特徴33)
前記機能は、さらに、
前記第2の再生ゾーンの音響特性が前記第1の再生ゾーンの音響特性と実質的に同一であることを決定すること、
それに応答して、前記第1のオーディオ処理アルゴリズム及び前記第2のオーディオ処理アルゴリズムに基づいて、第3のオーディオ処理アルゴリズムを決定すること、及び
前記第3のオーディオ処理アルゴリズムと前記第1の再生ゾーンの1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させること、
を有する、特徴32のコンピューティングデバイス。
(特徴34)
前記再生ゾーンの1つ又は複数の特性は、(a)前記再生ゾーンの寸法、(b)前記再生ゾーンのオーディオ反射特性、(c)再生ゾーンの使用目的、(d)再生ゾーン内の家具の数、(e)再生ゾーン内の家具の大きさ、(f)再生ゾーン内の家具の種類、及び(g)前記再生ゾーンの音響特性のうちの1つ又は複数を含む、特徴29から特徴33のいずれかのコンピューティングデバイス。
(特徴35)
プロセッサ、及び
前記プロセッサによって実行可能であって再生デバイスに機能を実行させる命令を格納したメモリ、
を備えたコンピューティングデバイスであって、
前記機能は、
(i)複数のオーディオ処理アルゴリズム及び(ii)複数の再生ゾーン特性のデータベースを保守すること、ここで、前記複数のオーディオ処理アルゴリズムのうちの各オーディオ処理アルゴリズムは、前記複数の再生ゾーン特性のうちの少なくとも1つの再生ゾーン特性に対応している、
前記再生ゾーンの1つ又は複数の特性を示すデータを受信すること、
前記データに基づいて、オーディオ処理アルゴリズムを前記データベースにおいて特定すること、及び
前記特定したオーディオ処理アルゴリズムを示すデータを送信すること、
を有する、コンピューティングデバイス。
(特徴36)
前記データは、さらに、前記再生ゾーン内の再生デバイスのマイクロホンによって検出されたオーディオ信号を示す、特徴35のコンピューティングデバイス。
(特徴37)
前記オーディオ処理アルゴリズムを前記データベースにおいて特定することは、さらに、
前記検出されたオーディオ信号及び前記再生デバイスの特性に基づいて、前記再生ゾーンの音響特性を決定すること、及び
前記再生ゾーンの決定した前記音響特性に基づいて、オーディオ処理アルゴリズムを前記データベースにおいて特定すること、
を含む、特徴36のコンピューティングデバイス。
(特徴38)
前記複数の再生ゾーン特性は、(a)前記再生ゾーンの寸法、(b)前記再生ゾーンのオーディオ反射特性、(c)再生ゾーンの使用目的、(d)再生ゾーン内の家具の数、(e)再生ゾーン内の家具の大きさ、(f)再生ゾーン内の家具の種類、及び(g)前記再生ゾーンの音響特性のうちの1つ又は複数を含む、特徴35のコンピューティングデバイス。
(特徴39)
前記再生ゾーンの1つ又は複数の特性を示すデータは、コントローラデバイスから受信される、特徴35のコンピューティングデバイス。
(特徴40)
前記再生ゾーンの1つ又は複数の特性を示すデータは、前記再生ゾーン内の再生デバイスから受信される、特徴35のコンピューティングデバイス。
The following examples describe further or alternative aspects of the present disclosure. The device in any of the following examples can be an element of any of the devices described herein or any configuration of the devices described herein.
(Feature 1)
A computing device comprising a processor and a memory that is executable by the processor and stores instructions that cause the computing device to perform functions,
The function is
Causing the playback device in the playback zone to play the first audio signal;
Receiving data from the playback device indicating a second audio signal detected by a microphone of the playback device, wherein the second audio signal includes a portion corresponding to the first audio signal;
Determining an audio processing algorithm based on the second audio signal and an acoustic characteristic of the playback device; and transmitting data indicating the determined audio processing algorithm to the playback device;
Having a computing device.
(Feature 2)
A third audio having substantially the same audio characteristics as a predetermined audio characteristic by applying the determined audio processing algorithm by the reproduction device when reproducing the first audio signal in the reproduction zone. The computing device of any preceding feature from which a signal is generated.
(Feature 3)
Determining the audio processing algorithm further comprises:
Determining an acoustic characteristic of the reproduction zone based on an acoustic characteristic of the second audio signal and the reproduction device; and a plurality of audio processing algorithms corresponding to the acoustic characteristic determined by the reproduction zone To choose from,
A computing device of any preceding feature, including:
(Feature 4)
Determining the audio processing algorithm further comprises:
Determining an acoustic characteristic of the reproduction zone based on the second audio signal and an acoustic characteristic of the reproduction device; and calculating the audio processing algorithm based on the acoustic characteristic of the reproduction zone and a predetermined audio characteristic To do,
A computing device of any preceding feature, including:
(Feature 5)
The computing device of any preceding feature, wherein determining the audio processing algorithm includes determining one or more parameters for the audio processing algorithm.
(Feature 6)
The function is further
Reproducing the measurement signal to a reference reproduction device in an anechoic chamber,
Receiving data indicating an audio signal detected by a microphone of the reference reproduction device from the reference reproduction device, wherein the detected audio signal is a portion corresponding to a measurement signal reproduced in the anechoic chamber; And determining acoustic characteristics of the playback device based on a comparison of the detected audio signal and the measurement signal,
A computing device of any preceding feature having:
(Feature 7)
A computing device comprising a processor and a memory that is executable by the processor and stores instructions that cause the computing device to perform functions,
The function is
Causing the first playback device to play the first audio signal in the playback zone;
Causing the second playback device to play the second audio signal in the playback zone;
Receiving from the first playback device data indicative of a third audio signal detected by a microphone of the first playback device, wherein the third audio signal is: (i) the first A portion corresponding to an audio signal and (ii) a portion corresponding to the second audio signal reproduced by a second reproduction device;
Determining an audio processing algorithm based on the third audio signal and an acoustic characteristic of the first playback device; and transmitting data indicating the determined audio processing algorithm to the first playback device;
Having a computing device.
(Feature 8)
The determined audio processing algorithm is applied by the first playback device when playing back the first audio signal in the playback zone, so that a fourth audio characteristic substantially the same as a predetermined audio characteristic is obtained. The computing device of feature 7, wherein:
(Feature 9)
Determining the audio processing algorithm further comprises:
Determining an acoustic characteristic of the reproduction zone based on an acoustic characteristic of the third audio signal and the first reproduction device; and a plurality of audio processing algorithms corresponding to the acoustic characteristic of the reproduction zone. The computing device of feature 7 or feature 8, comprising: selecting from.
(Feature 10)
Playing the second playback device with the second playback device causes the second playback device to play the second audio signal in synchronization with playback of the first audio signal by the first playback device. 10. The computing device of any of features 7 to 9, comprising:
(Feature 11)
Playing the second audio signal on the second playback device means that the second audio signal is sent to the second playback device after the playback of the first audio signal by the first playback device is completed. The computing device of any of features 7 to 10, comprising playing.
(Feature 12)
The computing device of any of features 7 to 11, wherein the first audio signal is orthogonal to the second audio signal.
(Feature 13)
The computing device of any one of features 7 to 12, wherein the first playback device and the second playback device are included in a zone group of playback devices configured to play audio content synchronously.
(Feature 14)
A playback device comprising a processor, a microphone, and a memory that is executable by the processor and stores instructions that cause the playback device to perform functions,
The function is
Playing the first audio signal in the playback zone;
Detecting a second audio signal by the microphone, wherein the second audio signal includes a portion corresponding to the first audio signal;
Determining an audio processing algorithm based on acoustic characteristics of the second audio signal and the playback device;
Applying the determined audio processing algorithm to audio data corresponding to the media item when playing the media item in the playback zone;
Having a playback device.
(Feature 15)
Applying the determined audio processing algorithm when reproducing the first audio signal in the reproduction zone generates a third audio signal having substantially the same audio characteristic as a predetermined audio characteristic. The computing device of feature 14.
(Feature 16)
Determining the audio processing algorithm further comprises:
Determining one or more characteristics of the playback zone based on the second audio signal and the acoustic characteristics of the playback device; and an audio processing algorithm corresponding to the one or more characteristics of the playback zone; Select from multiple audio processing algorithms,
The computing device of feature 14 or feature 15, comprising:
(Feature 17)
Determining the audio processing algorithm
(I) transmitting the second audio signal and (ii) transmission data indicative of characteristics of the playback device to the computing device; and receiving data indicative of the audio processing algorithm from the computing device;
The computing device of any of features 14 through 16, comprising:
(Feature 18)
The computing device of any of features 14 to 17, wherein the function further includes storing the determined audio processing algorithm in the memory.
(Feature 19)
The computing device of any of features 14-18, wherein applying the audio processing algorithm to the audio data includes changing a frequency equalization of the media item.
(Feature 20)
The computing device of any of features 14 to 19, wherein applying the audio processing algorithm to the audio data includes changing a volume range of the media item.
(Feature 21)
A processor, and a memory storing instructions that are executable by the processor and that cause the computing device to perform functions;
A computing device comprising:
The function is
Causing the playback device in the playback zone to play the first audio signal;
Receiving data indicating a second audio signal detected by a microphone of the playback device, wherein the second audio signal corresponds to the first audio signal played by the playback device; including,
Determining acoustic characteristics of the playback zone based on the second audio signal and characteristics of the playback device;
Determining an audio processing algorithm based on the acoustic characteristics of the playback zone; and storing an association between the audio processing algorithm and the acoustic characteristics of the playback zone in a database;
Having a computing device.
(Feature 22)
A third audio having substantially the same audio characteristics as a predetermined audio characteristic by applying the determined audio processing algorithm by the reproduction device when reproducing the first audio signal in the reproduction zone. The computing device of any preceding feature from which a signal is generated.
(Feature 23)
The playback device is a first playback device;
The playback zone is a first playback zone.
The audio processing algorithm is a first audio processing algorithm.
The function is further
Causing the second playback device in the second playback zone to play the fourth audio signal;
Receiving data indicative of a fifth audio signal detected by a microphone of the second reproduction device, wherein the fifth audio signal is reproduced by the second reproduction device; Including the part corresponding to the audio signal,
Determining acoustic characteristics of the second playback zone based on the characteristics of the fifth audio signal and the second playback device;
Determining a second audio processing algorithm based on the acoustic characteristics of the second playback zone; and storing an association between the second audio processing algorithm and the acoustic characteristics of the second playback zone in a database about,
A computing device of any preceding feature having:
(Feature 24)
Applying the first determined audio processing algorithm by the first playback device when playing back the first audio signal in a first playback zone, substantially the same as predetermined audio characteristics A third audio signal having the following audio characteristics is generated:
Applying the second determined audio processing algorithm by the second playback device when playing back the fourth audio signal in the second playback zone, substantially with the predetermined audio characteristics. A sixth audio signal having the same audio characteristics is generated;
The computing device of feature 3.
(Feature 25)
The function is further
Determining that the acoustic characteristics of the second reproduction zone are substantially the same as the acoustic characteristics of the first reproduction zone;
In response, determining a third audio processing algorithm based on the first audio processing algorithm and the second audio processing algorithm; and the third audio processing algorithm and the first playback zone Storing the association with the acoustic characteristics of
The computing device of feature 3, comprising:
(Feature 26)
The computing device of any of features 21 through 25, wherein determining the audio processing algorithm includes determining one or more parameters for the audio processing algorithm.
(Feature 27)
The function is further
Receiving data indicative of one or more characteristics of the playback zone; and storing an association of the one or more characteristics of the playback zone with the second audio processing algorithm in a database;
The computing device of any of features 21 to 26, comprising:
(Feature 28)
One or more characteristics of the playback zone include: (a) dimensions of the playback zone, (b) audio reflection characteristics of the playback zone, (c) purpose of use of the playback zone, (d) furniture in the playback zone The computing device of feature 27, comprising one or more of a number, (e) the size of furniture in the playback zone, and (f) the type of furniture in the playback zone.
(Feature 29)
A processor, and a memory storing instructions that are executable by the processor and that cause the computing device to perform functions;
A computing device comprising:
The function is
Causing the playback device in the playback zone to play the first audio signal;
(I) receiving data indicative of one or more characteristics of the reproduction zone and (ii) data indicative of a second audio signal detected by a microphone of the reproduction device, wherein the second audio The signal includes a portion corresponding to the audio signal played by the playback device,
Determining an audio processing algorithm based on the second audio signal and the characteristics of the playback device; and associating the determined audio processing algorithm with at least one of the one or more characteristics of the playback zone To store in the database,
A computing device comprising:
(Feature 30)
Determining the audio processing algorithm further comprises:
Determining an acoustic characteristic of the reproduction zone based on the second audio signal and a characteristic of the reproduction device, and determining an audio processing algorithm based on the acoustic characteristic of the reproduction zone, and By applying the determined audio processing algorithm by the playback device when playing the second audio signal in a zone, a third audio signal having substantially the same audio characteristic as a predetermined audio characteristic is obtained. To be generated,
The computing device of feature 29.
(Feature 31)
The playback device is a first playback device;
The playback zone is a first playback zone.
The audio processing algorithm is a first audio processing algorithm.
The function is further
Causing the second playback device in the second playback zone to play the third audio signal;
(I) data indicating one or more characteristics of the second playback zone and (ii) data indicating a fourth audio signal detected by a microphone of a second playback device in the second playback zone. Wherein the fourth audio signal includes a portion corresponding to the third audio signal reproduced by the reproduction device,
Determining an audio processing algorithm based on characteristics of the fourth audio signal and the second playback device; and determining one or more characteristics of the second audio processing algorithm and the second playback zone. Storing the association with at least one of them in a database;
The computing device of feature 29 or feature 30, comprising:
(Feature 32)
Determining the second audio processing algorithm further comprises:
Determining an acoustic characteristic of the reproduction zone based on the fourth audio signal and a characteristic of the reproduction device, and determining an audio processing algorithm based on the acoustic characteristic of the reproduction zone, By applying the determined audio processing algorithm by the second playback device when playing back the third audio signal in the playback zone, a fifth audio characteristic having substantially the same audio characteristic as a predetermined audio characteristic is obtained. To produce an audio signal of
The computing device of feature 29.
(Feature 33)
The function is further
Determining that the acoustic characteristics of the second reproduction zone are substantially the same as the acoustic characteristics of the first reproduction zone;
In response, determining a third audio processing algorithm based on the first audio processing algorithm and the second audio processing algorithm; and the third audio processing algorithm and the first playback zone Storing in a database an association with at least one of the one or more characteristics of
32. The computing device of feature 32, comprising:
(Feature 34)
One or more characteristics of the playback zone include: (a) dimensions of the playback zone, (b) audio reflection characteristics of the playback zone, (c) purpose of use of the playback zone, (d) furniture in the playback zone Feature 29 to feature 33, including one or more of: (e) size of furniture in the playback zone, (f) type of furniture in the playback zone, and (g) acoustic characteristics of the playback zone. One of the computing devices.
(Feature 35)
A processor, and a memory that stores instructions that can be executed by the processor and that causes a playback device to perform a function;
A computing device comprising:
The function is
(I) maintaining a database of a plurality of audio processing algorithms and (ii) a plurality of playback zone characteristics, wherein each audio processing algorithm of the plurality of audio processing algorithms is out of the plurality of playback zone characteristics Corresponding to at least one reproduction zone characteristic of
Receiving data indicative of one or more characteristics of the playback zone;
Identifying an audio processing algorithm in the database based on the data; and transmitting data indicating the identified audio processing algorithm;
Having a computing device.
(Feature 36)
36. The computing device of feature 35, wherein the data further indicates an audio signal detected by a microphone of a playback device in the playback zone.
(Feature 37)
Identifying the audio processing algorithm in the database further comprises:
Determining acoustic characteristics of the playback zone based on the detected audio signal and characteristics of the playback device; and identifying an audio processing algorithm in the database based on the determined acoustic characteristics of the playback zone about,
The computing device of feature 36, comprising:
(Feature 38)
The plurality of reproduction zone characteristics are: (a) dimensions of the reproduction zone; (b) audio reflection characteristics of the reproduction zone; (c) purpose of use of the reproduction zone; (d) number of furniture in the reproduction zone; The computing device of feature 35, comprising one or more of :) the size of the furniture in the playback zone, (f) the type of furniture in the playback zone, and (g) the acoustic characteristics of the playback zone.
(Feature 39)
36. The computing device of feature 35, wherein data indicative of one or more characteristics of the playback zone is received from a controller device.
(Feature 40)
36. The computing device of feature 35, wherein data indicative of one or more characteristics of the playback zone is received from a playback device in the playback zone.

本明細書は、例示的な環境、システム、手順、ステップ、論理ブロック、処理、および他のシンボル表現に関して広く示されており、それらは直接又は間接的にネットワークに接続されるデータ処理デバイスの動作に類似するものである。これらの処理説明および表現は、一般的に当業者によって使用され、それらの仕事の内容を他の当業者に最も効率良く伝えることができる。多くの具体的な内容が、本開示を理解するために提供されている。しかしながら、当業者にとって、本開示の特定の実施形態が特定の、具体的な詳細なしに実施され得ることは理解される。他の例では、周知の方法、手順、コンポーネント、および回路が、実施形態を不必要に曖昧にすることを避けるため、詳細に説明していない。したがって、本開示の範囲は、上記した実施形態よりむしろ添付された特許請求の範囲によって定義される。   This specification is broadly illustrated with respect to exemplary environments, systems, procedures, steps, logic blocks, processing, and other symbolic representations that operate directly or indirectly on a data processing device connected to a network. It is similar to These process descriptions and representations are generally used by those skilled in the art and can most effectively convey the content of their work to others skilled in the art. Numerous specific details are provided to understand the present disclosure. However, it will be understood by one of ordinary skill in the art that certain embodiments of the present disclosure may be practiced without the specific details. In other instances, well-known methods, procedures, components, and circuits have not been described in detail in order to avoid unnecessarily obscuring the embodiments. Accordingly, the scope of the present disclosure is defined by the appended claims rather than the embodiments described above.

添付の特許請求の範囲のいずれかが単にソフトウェアおよび/又はファームウェアへの実装をカバーするように読み取ると、少なくとも1つの例における要素の1つ又は複数は、本明細書では、ソフトウェアおよび/又はファームウェアを記憶する有形の非一時的な記憶媒体、例えば、メモリ、DVD、CD、Blu−ray(登録商標)等を含むことが明確に定められている。   One or more of the elements in at least one example may be referred to herein as software and / or firmware, when any of the appended claims simply reads to cover implementation in software and / or firmware. Is clearly defined to include a tangible, non-transitory storage medium for storing, for example, memory, DVD, CD, Blu-ray (registered trademark), and the like.

Claims (20)

再生ゾーン内の再生デバイス(200)に第1のオーディオ信号を再生させる、
前記再生デバイスのマイクロホン(220)によって検出された第2のオーディオ信号を示すデータを受信する、ここで、前記第2のオーディオ信号は前記第1のオーディオ信号に対応する部分を含む、
前記第2のオーディオ信号及び前記再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定する、及び
決定した前記オーディオ処理アルゴリズムを示すデータを前記再生デバイス(200)に送信する、及び/又は、前記オーディオ処理アルゴリズムと前記再生ゾーンの音響特性との関連付けをデータベースに記憶させる、
コンピューティングデバイス(300)。
Causing the playback device (200) in the playback zone to play the first audio signal;
Receiving data indicative of a second audio signal detected by a microphone (220) of the playback device, wherein the second audio signal includes a portion corresponding to the first audio signal;
An audio processing algorithm is determined based on the second audio signal and an acoustic characteristic of the playback device, and data indicating the determined audio processing algorithm is transmitted to the playback device (200), and / or Storing an association between an audio processing algorithm and the acoustic characteristics of the playback zone in a database;
A computing device (300).
前記再生ゾーン内で前記第1のオーディオ信号を再生するときに、決定した前記オーディオ処理アルゴリズムを前記再生デバイス(200)によって適用することにより、所定のオーディオ特性と実質的に同一のオーディオ特性を有する第3のオーディオ信号が生成される、請求項1に記載のコンピューティングデバイス。   When the first audio signal is played in the playback zone, the determined audio processing algorithm is applied by the playback device (200), thereby having substantially the same audio characteristics as predetermined audio characteristics. The computing device of claim 1, wherein a third audio signal is generated. 前記オーディオ処理アルゴリズムを決定することは、さらに、
前記第2のオーディオ信号及び前記再生デバイス(200)の音響特性に基づいて、前記再生ゾーンの音響特性を決定すること、及び
前記再生ゾーンの決定した前記音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、
を含む、請求項1又は請求項2に記載のコンピューティングデバイス。
Determining the audio processing algorithm further comprises:
Determining an acoustic characteristic of the reproduction zone based on the second audio signal and an acoustic characteristic of the reproduction device (200); and determining an audio processing algorithm based on the acoustic characteristic determined by the reproduction zone To do,
The computing device according to claim 1, comprising:
前記再生ゾーンの決定した前記音響特性に基づいて、前記オーディオ処理アルゴリズムを決定することは、
前記再生ゾーンの決定した前記音響特性に対応するオーディオ処理アルゴリズムを複数のオーディオ処理アルゴリズムから選択すること、又は
前記再生ゾーンの音響特性及び所定のオーディオ特性に基づいて、前記オーディオ処理アルゴリズムを計算すること、
を含む、請求項3に記載のコンピューティングデバイス。
Determining the audio processing algorithm based on the determined acoustic characteristics of the playback zone;
Selecting an audio processing algorithm corresponding to the determined acoustic characteristic of the reproduction zone from a plurality of audio processing algorithms, or calculating the audio processing algorithm based on the acoustic characteristic of the reproduction zone and a predetermined audio characteristic ,
The computing device of claim 3, comprising:
前記オーディオ処理アルゴリズムを決定することは、前記オーディオ処理アルゴリズムについての1つ又は複数のパラメータを決定することを含む、請求項1から請求項4のうちいずれか1項に記載のコンピューティングデバイス。   5. The computing device of any one of claims 1-4, wherein determining the audio processing algorithm includes determining one or more parameters for the audio processing algorithm. 無響室内の基準再生デバイス(200)に測定信号を再生させる、
前記基準再生デバイス(220)のマイクロホン(220)によって検出されたオーディオ信号を示すデータを前記基準再生デバイス(200)から受信する、ここで、前記検出されたオーディオ信号は、前記無響室内で再生された前記測定信号に対応する部分を含む、
前記検出されたオーディオ信号と前記測定信号との比較に基づいて、前記再生デバイス(200)の音響特性を決定する、
請求項1から請求項5のうちいずれか1項に記載のコンピューティングデバイス。
Let the reference reproduction device (200) in the anechoic room reproduce the measurement signal,
Data indicating an audio signal detected by a microphone (220) of the reference playback device (220) is received from the reference playback device (200), wherein the detected audio signal is played back in the anechoic chamber. A portion corresponding to the measured signal,
Determining an acoustic characteristic of the playback device (200) based on a comparison of the detected audio signal and the measurement signal;
The computing device according to any one of claims 1 to 5.
さらに、
前記第2のオーディオ信号を示すデータを受信する前に、第2の再生デバイス(200)に前記再生ゾーン内で第4のオーディオ信号を再生させる、
ここで、前記第2のオーディオ信号は、さらに、第2の再生デバイス(200)によって再生された前記第4のオーディオ信号に対応する部分を含む、
請求項1から請求項6のうちいずれか1項に記載のコンピューティングデバイス。
further,
Causing the second playback device (200) to play back the fourth audio signal within the playback zone before receiving data indicative of the second audio signal;
Here, the second audio signal further includes a portion corresponding to the fourth audio signal reproduced by the second reproduction device (200).
The computing device according to any one of claims 1 to 6.
前記第2の再生デバイス(200)による前記第4のオーディオ信号の再生は、前記第1の再生デバイス(200)による前記第1のオーディオ信号の再生と同期して、又は前記第1の再生デバイス(200)による前記第1のオーディオ信号の再生が終了した後に、行わせる、請求項7に記載のコンピューティングデバイス。   The reproduction of the fourth audio signal by the second reproduction device (200) is synchronized with the reproduction of the first audio signal by the first reproduction device (200) or the first reproduction device. The computing device according to claim 7, wherein the first audio signal according to (200) is played after the reproduction of the first audio signal is finished. 前記第1のオーディオ信号は、前記第3のオーディオ信号に対して直交している、請求項7又は請求項8に記載のコンピューティングデバイス。   9. A computing device according to claim 7 or claim 8, wherein the first audio signal is orthogonal to the third audio signal. 前記第1の再生デバイス(200)及び前記第2の再生デバイス(200)は、同期してオーディオコンテンツを再生するように構成された再生デバイス(200)のゾーングループに含まれる、請求項7から請求項9のうちいずれか1項に記載のコンピューティングデバイス。   The first playback device (200) and the second playback device (200) are included in a zone group of playback devices (200) configured to play audio content synchronously. The computing device according to claim 9. 前記オーディオ処理アルゴリズムを決定することは、さらに、
前記再生ゾーンの1つ又は複数の特性を示すデータを受信すること、
前記再生ゾーンの1つ又は複数の特性と前記オーディオ処理アルゴリズムとの関連付けをデータベースに記憶させること、
を含む、請求項1から請求項2及び請求項5から請求項10のうちいずれか1項に記載のコンピューティングデバイス。
Determining the audio processing algorithm further comprises:
Receiving data indicative of one or more characteristics of the playback zone;
Storing an association of one or more characteristics of the playback zone with the audio processing algorithm in a database;
The computing device according to any one of claims 1 to 2 and claim 5 to claim 10, comprising:
前記再生デバイスは、第1の再生デバイスである、
前記再生ゾーンは、第1の再生ゾーンである、
前記オーディオ処理アルゴリズムは、第1のオーディオ処理アルゴリズムである、
前記機能は、さらに、
第2の再生ゾーン内の第2の再生デバイスに第4のオーディオ信号を再生させること、
前記第2の再生デバイスのマイクロホンによって検出された第5のオーディオ信号を示すデータを受信すること、ここで、前記第5のオーディオ信号は、前記第2の再生デバイスによって再生された前記第4のオーディオ信号に対応する部分を含む、
前記第5のオーディオ信号及び前記第2の再生デバイスの特性に基づいて、前記第2の再生ゾーンの音響特性を決定すること、
前記第2の再生ゾーンの音響特性に基づいて、第2のオーディオ処理アルゴリズムを決定すること、
前記第2のオーディオ処理アルゴリズム及び前記第2の再生ゾーンの音響特性との関連付けをデータベースに記憶させること、
を含む、請求項1から請求項6及び請求項9から請求項11のうちいずれか1項に記載のコンピューティングデバイス。
The playback device is a first playback device;
The playback zone is a first playback zone.
The audio processing algorithm is a first audio processing algorithm.
The function is further
Causing the second playback device in the second playback zone to play the fourth audio signal;
Receiving data indicative of a fifth audio signal detected by a microphone of the second reproduction device, wherein the fifth audio signal is reproduced by the second reproduction device; Including the part corresponding to the audio signal,
Determining acoustic characteristics of the second playback zone based on the characteristics of the fifth audio signal and the second playback device;
Determining a second audio processing algorithm based on the acoustic characteristics of the second playback zone;
Storing an association between the second audio processing algorithm and the acoustic characteristics of the second playback zone in a database;
The computing device according to any one of claims 1 to 6 and claim 9 to claim 11, comprising:
前記機能は、さらに、
前記第2の再生ゾーンの音響特性が、前記第1の再生ゾーンの音響特性と実質的に同一であることを決定すること、
それに応答して、前記第1のオーディオ処理アルゴリズム及び前記第2のオーディオ処理アルゴリズムに基づいて、第3のオーディオ処理アルゴリズムを決定すること、
前記第3のオーディオ処理アルゴリズムと前記第1の再生ゾーンの音響特性との関連付けをデータベースに記憶させること、
を含む、請求項12に記載のコンピューティングデバイス。
The function is further
Determining that the acoustic characteristics of the second reproduction zone are substantially the same as the acoustic characteristics of the first reproduction zone;
In response, determining a third audio processing algorithm based on the first audio processing algorithm and the second audio processing algorithm;
Storing an association between the third audio processing algorithm and the acoustic characteristics of the first reproduction zone in a database;
The computing device of claim 12, comprising:
前記再生ゾーンの1つ又は複数の特性を示すデータは、コントローラデバイス及び前記再生ゾーン内の再生デバイスのうちの一方から受信される、請求項11から請求項13のうちいずれか1項に記載のコンピューティングデバイス。   14. Data according to any one of claims 11 to 13, wherein data indicative of one or more characteristics of the playback zone is received from one of a controller device and a playback device in the playback zone. Computing device. 前記再生ゾーンの1つ又は複数の特性は、(a)前記再生ゾーンの寸法、(b)前記再生ゾーンのオーディオ反射特性、(c)前記再生ゾーンの使用目的、(d)前記再生ゾーン内の家具の数、(e)前記再生ゾーン内の家具の大きさ、及び(f)前記再生ゾーン内の家具の種類のうちの1つ又は複数を含む、請求項1から請求項14のうちいずれか1項に記載のコンピューティングデバイス。   One or more characteristics of the playback zone include: (a) dimensions of the playback zone, (b) audio reflection characteristics of the playback zone, (c) purpose of use of the playback zone, (d) within the playback zone 15. One of claims 1 to 14, comprising one or more of the number of furniture, (e) the size of furniture in the regeneration zone, and (f) the type of furniture in the regeneration zone. 2. The computing device according to item 1. 再生ゾーン内の再生デバイス(200)であって、
マイクロホン(220)、及び
プロセッサ(202)、
を有し、
前記プロセッサ(202)は、
第1のオーディオ信号を再生する、
前記第1のオーディオ信号に対応する部分を含む第2のオーディオ信号を前記マイクロホン(220)によって検出する、
前記第2のオーディオ信号及び前記再生デバイス(200)の音響特性に基づいて、オーディオ処理アルゴリズムを決定する、
決定した前記オーディオ処理アルゴリズムを、前記再生ゾーン内でメディアアイテムを再生するときに、前記メディアアイテムに対応するオーディオデータに対して適用する、
再生デバイス。
A playback device (200) in a playback zone,
A microphone (220), and a processor (202),
Have
The processor (202)
Playing the first audio signal;
A second audio signal including a portion corresponding to the first audio signal is detected by the microphone (220);
Determining an audio processing algorithm based on acoustic characteristics of the second audio signal and the playback device (200);
Applying the determined audio processing algorithm to audio data corresponding to the media item when playing the media item in the playback zone;
Playback device.
前記オーディオ処理アルゴリズムを決定することは、
さらに、
前記第2のオーディオ信号及び前記再生デバイス(200)の音響特性に基づいて、前記再生ゾーンの1つ又は複数の特性を決定すること、及び
前記再生ゾーンの1つ又は複数の特性に対応するオーディオ処理アルゴリズムを複数のオーディオ処理アルゴリズムから選択すること、
を含む、請求項16に記載の再生デバイス。
Determining the audio processing algorithm
further,
Determining one or more characteristics of the playback zone based on the second audio signal and acoustic characteristics of the playback device (200); and audio corresponding to the one or more characteristics of the playback zone Selecting a processing algorithm from a plurality of audio processing algorithms;
The playback device of claim 16, comprising:
前記オーディオ処理アルゴリズムを決定することは、
(i)前記第2のオーディオ信号及び(ii)前記再生デバイス(200)の特性を示す送信データをコンピューティングデバイス(300)に送信すること、及び
前記オーディオ処理アルゴリズムを示すデータを前記コンピューティングデバイス(300)から受信すること、
を含む、請求項16に記載の再生デバイス。
Determining the audio processing algorithm
(I) transmitting the second audio signal and (ii) transmission data indicating characteristics of the playback device (200) to the computing device (300); and data indicating the audio processing algorithm. Receiving from (300),
The playback device of claim 16, comprising:
さらに、
決定した前記オーディオ処理アルゴリズムを格納するように構成されたメモリ(206)を有する、請求項16から請求項18のうちいずれか1項に記載の再生デバイス。
further,
19. A playback device according to any one of claims 16 to 18, comprising a memory (206) configured to store the determined audio processing algorithm.
前記オーディオデータに対して前記オーディオ処理アルゴリズムを適用することは、
前記メディアアイテムの周波数等化と前記メディアアイテムの音量域のうちの少なくとも1つを変更することを含む、請求項16から請求項19のうちいずれか1項に記載の再生デバイス。
Applying the audio processing algorithm to the audio data;
The playback device according to any one of claims 16 to 19, comprising changing at least one of frequency equalization of the media item and a volume range of the media item.
JP2019056360A 2014-09-09 2019-03-25 Audio processing algorithms and databases Active JP6792015B2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US14/481,505 US9952825B2 (en) 2014-09-09 2014-09-09 Audio processing algorithms
US14/481,514 US9891881B2 (en) 2014-09-09 2014-09-09 Audio processing algorithm database
US14/481,505 2014-09-09
US14/481,514 2014-09-09

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017513241A Division JP6503457B2 (en) 2014-09-09 2015-09-08 Audio processing algorithm and database

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020185230A Division JP7110301B2 (en) 2014-09-09 2020-11-05 Audio processing algorithms and databases

Publications (2)

Publication Number Publication Date
JP2019134470A true JP2019134470A (en) 2019-08-08
JP6792015B2 JP6792015B2 (en) 2020-11-25

Family

ID=54292894

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2017513241A Active JP6503457B2 (en) 2014-09-09 2015-09-08 Audio processing algorithm and database
JP2019056360A Active JP6792015B2 (en) 2014-09-09 2019-03-25 Audio processing algorithms and databases
JP2020185230A Active JP7110301B2 (en) 2014-09-09 2020-11-05 Audio processing algorithms and databases
JP2022115789A Pending JP2022163061A (en) 2014-09-09 2022-07-20 Audio processing algorithm and database

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017513241A Active JP6503457B2 (en) 2014-09-09 2015-09-08 Audio processing algorithm and database

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2020185230A Active JP7110301B2 (en) 2014-09-09 2020-11-05 Audio processing algorithms and databases
JP2022115789A Pending JP2022163061A (en) 2014-09-09 2022-07-20 Audio processing algorithm and database

Country Status (4)

Country Link
EP (2) EP3111678B1 (en)
JP (4) JP6503457B2 (en)
CN (2) CN106688248B (en)
WO (1) WO2016040324A1 (en)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9084058B2 (en) 2011-12-29 2015-07-14 Sonos, Inc. Sound field calibration using listener localization
US9690539B2 (en) 2012-06-28 2017-06-27 Sonos, Inc. Speaker calibration user interface
US9106192B2 (en) 2012-06-28 2015-08-11 Sonos, Inc. System and method for device playback calibration
US9706323B2 (en) 2014-09-09 2017-07-11 Sonos, Inc. Playback device calibration
US9219460B2 (en) 2014-03-17 2015-12-22 Sonos, Inc. Audio settings based on environment
US9264839B2 (en) 2014-03-17 2016-02-16 Sonos, Inc. Playback device configuration based on proximity detection
US9891881B2 (en) 2014-09-09 2018-02-13 Sonos, Inc. Audio processing algorithm database
US10127006B2 (en) 2014-09-09 2018-11-13 Sonos, Inc. Facilitating calibration of an audio playback device
US9910634B2 (en) 2014-09-09 2018-03-06 Sonos, Inc. Microphone calibration
US9952825B2 (en) 2014-09-09 2018-04-24 Sonos, Inc. Audio processing algorithms
WO2016172593A1 (en) 2015-04-24 2016-10-27 Sonos, Inc. Playback device calibration user interfaces
US10664224B2 (en) 2015-04-24 2020-05-26 Sonos, Inc. Speaker calibration user interface
US9538305B2 (en) 2015-07-28 2017-01-03 Sonos, Inc. Calibration error conditions
WO2017049169A1 (en) 2015-09-17 2017-03-23 Sonos, Inc. Facilitating calibration of an audio playback device
US9693165B2 (en) 2015-09-17 2017-06-27 Sonos, Inc. Validation of audio calibration using multi-dimensional motion check
US9743207B1 (en) 2016-01-18 2017-08-22 Sonos, Inc. Calibration using multiple recording devices
US11106423B2 (en) 2016-01-25 2021-08-31 Sonos, Inc. Evaluating calibration of a playback device
US10003899B2 (en) 2016-01-25 2018-06-19 Sonos, Inc. Calibration with particular locations
EP3547701B1 (en) * 2016-04-01 2023-09-06 Sonos Inc. Updating playback device configuration information based on calibration data
US9860662B2 (en) 2016-04-01 2018-01-02 Sonos, Inc. Updating playback device configuration information based on calibration data
US9864574B2 (en) 2016-04-01 2018-01-09 Sonos, Inc. Playback device calibration based on representation spectral characteristics
US9763018B1 (en) 2016-04-12 2017-09-12 Sonos, Inc. Calibration of audio playback devices
US9860670B1 (en) 2016-07-15 2018-01-02 Sonos, Inc. Spectral correction using spatial calibration
US9794710B1 (en) 2016-07-15 2017-10-17 Sonos, Inc. Spatial audio correction
US10372406B2 (en) 2016-07-22 2019-08-06 Sonos, Inc. Calibration interface
US10459684B2 (en) 2016-08-05 2019-10-29 Sonos, Inc. Calibration of a playback device based on an estimated frequency response
US10299061B1 (en) 2018-08-28 2019-05-21 Sonos, Inc. Playback device calibration
US11206484B2 (en) 2018-08-28 2021-12-21 Sonos, Inc. Passive speaker authentication
US10959018B1 (en) * 2019-01-18 2021-03-23 Amazon Technologies, Inc. Method for autonomous loudspeaker room adaptation
US10734965B1 (en) 2019-08-12 2020-08-04 Sonos, Inc. Audio calibration of a portable playback device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10307592A (en) * 1997-05-08 1998-11-17 Alpine Electron Inc Data distributing system for on-vehicle audio device
JP2006340285A (en) * 2005-06-06 2006-12-14 Denso Corp Vehicle-mounted device, vehicle-mounted system, system for adjusting sound field in mobile room and mobile terminal
US20130315405A1 (en) * 2012-05-24 2013-11-28 Kabushiki Kaisha Toshiba Sound processor, sound processing method, and computer program product

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0828920B2 (en) * 1992-01-20 1996-03-21 松下電器産業株式会社 Speaker measuring device
JP2870359B2 (en) * 1993-05-11 1999-03-17 ヤマハ株式会社 Acoustic characteristic correction device
AU6900900A (en) * 1999-08-11 2001-03-05 Pacific Microsonics, Inc. Compensation system and method for sound reproduction
JP4187391B2 (en) * 2000-08-28 2008-11-26 富士通テン株式会社 In-vehicle audio service method
US7483540B2 (en) * 2002-03-25 2009-01-27 Bose Corporation Automatic audio system equalizing
JP2004159037A (en) * 2002-11-06 2004-06-03 Sony Corp Automatic sound adjustment system, sound adjusting device, sound analyzer, and sound analysis processing program
US8234395B2 (en) 2003-07-28 2012-07-31 Sonos, Inc. System and method for synchronizing operations among a plurality of independently clocked digital data processing devices
JP2005086686A (en) * 2003-09-10 2005-03-31 Fujitsu Ten Ltd Electronic equipment
US20060088174A1 (en) * 2004-10-26 2006-04-27 Deleeuw William C System and method for optimizing media center audio through microphones embedded in a remote control
LV13342B (en) * 2005-05-18 2005-10-20 Real Sound Lab Sia Method and device for correction of acoustic parameters of electro-acoustic transducers
JP2007271802A (en) * 2006-03-30 2007-10-18 Kenwood Corp Content reproduction system and computer program
JP4725422B2 (en) 2006-06-02 2011-07-13 コニカミノルタホールディングス株式会社 Echo cancellation circuit, acoustic device, network camera, and echo cancellation method
JP2008035254A (en) 2006-07-28 2008-02-14 Sharp Corp Sound output device and television receiver
US7845233B2 (en) * 2007-02-02 2010-12-07 Seagrave Charles G Sound sensor array with optical outputs
JP2008228133A (en) * 2007-03-15 2008-09-25 Matsushita Electric Ind Co Ltd Acoustic system
JP5313549B2 (en) * 2008-05-27 2013-10-09 アルパイン株式会社 Acoustic information providing system and in-vehicle acoustic device
US8819554B2 (en) * 2008-12-23 2014-08-26 At&T Intellectual Property I, L.P. System and method for playing media
US8300840B1 (en) * 2009-02-10 2012-10-30 Frye Electronics, Inc. Multiple superimposed audio frequency test system and sound chamber with attenuated echo properties
CN102318325B (en) * 2009-02-11 2015-02-04 Nxp股份有限公司 Controlling an adaptation of a behavior of an audio device to a current acoustic environmental condition
JP2011164166A (en) * 2010-02-05 2011-08-25 D&M Holdings Inc Audio signal amplifying apparatus
ES2605248T3 (en) * 2010-02-24 2017-03-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus for generating improved downlink signal, method for generating improved downlink signal and computer program
US9307340B2 (en) * 2010-05-06 2016-04-05 Dolby Laboratories Licensing Corporation Audio system equalization for portable media playback devices
EP2567554B1 (en) * 2010-05-06 2016-03-23 Dolby Laboratories Licensing Corporation Determination and use of corrective filters for portable media playback devices
JP5533248B2 (en) * 2010-05-20 2014-06-25 ソニー株式会社 Audio signal processing apparatus and audio signal processing method
CN102004823B (en) * 2010-11-11 2012-09-26 浙江中科电声研发中心 Numerical value simulation method of vibration and acoustic characteristics of speaker
DE102011076484A1 (en) * 2011-05-25 2012-11-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. SOUND PLAYING DEVICE WITH HORIZONTAL SIMULATION
EP2817980B1 (en) 2012-02-21 2019-06-12 Intertrust Technologies Corporation Audio reproduction systems and methods
US9106192B2 (en) * 2012-06-28 2015-08-11 Sonos, Inc. System and method for device playback calibration
WO2014085510A1 (en) * 2012-11-30 2014-06-05 Dts, Inc. Method and apparatus for personalized audio virtualization
EP2747081A1 (en) * 2012-12-18 2014-06-25 Oticon A/s An audio processing device comprising artifact reduction

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10307592A (en) * 1997-05-08 1998-11-17 Alpine Electron Inc Data distributing system for on-vehicle audio device
JP2006340285A (en) * 2005-06-06 2006-12-14 Denso Corp Vehicle-mounted device, vehicle-mounted system, system for adjusting sound field in mobile room and mobile terminal
US20130315405A1 (en) * 2012-05-24 2013-11-28 Kabushiki Kaisha Toshiba Sound processor, sound processing method, and computer program product
JP2013247456A (en) * 2012-05-24 2013-12-09 Toshiba Corp Acoustic processing device, acoustic processing method, acoustic processing program, and acoustic processing system

Also Published As

Publication number Publication date
EP3111678B1 (en) 2023-11-01
JP2017528083A (en) 2017-09-21
JP6503457B2 (en) 2019-04-17
JP7110301B2 (en) 2022-08-01
CN106688248A (en) 2017-05-17
JP6792015B2 (en) 2020-11-25
EP4243450A3 (en) 2023-11-15
CN111565352B (en) 2021-08-06
JP2021044818A (en) 2021-03-18
WO2016040324A1 (en) 2016-03-17
CN111565352A (en) 2020-08-21
EP4243450A2 (en) 2023-09-13
JP2022163061A (en) 2022-10-25
CN106688248B (en) 2020-04-14
EP3111678A1 (en) 2017-01-04

Similar Documents

Publication Publication Date Title
JP6792015B2 (en) Audio processing algorithms and databases
US11625219B2 (en) Audio processing algorithms
JP6449393B2 (en) Playback device calibration
JP6524273B2 (en) Calibration of playback device
US10127008B2 (en) Audio processing algorithm database
JP6216471B2 (en) Audio settings based on environment

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190412

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190412

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201105

R150 Certificate of patent or registration of utility model

Ref document number: 6792015

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250