JP2022163061A - Audio processing algorithm and database - Google Patents

Audio processing algorithm and database Download PDF

Info

Publication number
JP2022163061A
JP2022163061A JP2022115789A JP2022115789A JP2022163061A JP 2022163061 A JP2022163061 A JP 2022163061A JP 2022115789 A JP2022115789 A JP 2022115789A JP 2022115789 A JP2022115789 A JP 2022115789A JP 2022163061 A JP2022163061 A JP 2022163061A
Authority
JP
Japan
Prior art keywords
playback
zone
audio
audio signal
processing algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022115789A
Other languages
Japanese (ja)
Inventor
ティモシー・シーン
Sheen Timothy
サイモン・ジャービス
Jarvis Simon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sonos Inc
Original Assignee
Sonos Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US14/481,505 external-priority patent/US9952825B2/en
Priority claimed from US14/481,514 external-priority patent/US9891881B2/en
Application filed by Sonos Inc filed Critical Sonos Inc
Publication of JP2022163061A publication Critical patent/JP2022163061A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R27/00Public address systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2227/00Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
    • H04R2227/005Audio distribution systems for home, i.e. multi-room use
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/09Electronic reduction of distortion of stereophonic sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/13Aspects of volume control, not necessarily automatic, in stereophonic sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space

Abstract

PROBLEM TO BE SOLVED: To provide a computing device and a reproduction device, further improving a trial listening experience.
SOLUTION: A method for maintaining a database of an audio processing algorithm and reproduction zone acoustic characteristics, includes: causing the reproduction device to reproduce a first audio signal in the reproduction zone; and receiving data indicative of a second audio signal detected by a microphone of the reproduction device. The audio processing algorithm determined on the basis of the second audio signal and characteristics of the reproduction device is calculated or identified in the database on the basis of the acoustic characteristics of the reproduction zone. The acoustic characteristics of the reproduction zone are determined on the basis of the second audio signal and the characteristics of the reproduction device. The audio processing algorithm is then applied by the reproduction device.
SELECTED DRAWING: Figure 5
COPYRIGHT: (C)2023,JPO&INPIT

Description

関連出願の相互参照Cross-reference to related applications

本願は、2014年9月9日に出願された米国特許出願第14/481,505号及び2014年9月9日に出願された米国特許出願第14/481,514号の優先権を主張しており、その全体が参照されることにより本明細書に組み込まれる。 This application claims priority to U.S. Application No. 14/481,505 filed September 9, 2014 and U.S. Application No. 14/481,514 filed September 9, 2014. and is incorporated herein by reference in its entirety.

本願は、コンシューマ製品に関するものであり、特に、メディア再生に向けられた方法、システム、製品、機能、サービス、および他の要素に関するものや、それらのいくつかの態様に関する。 This application relates to consumer products, and more particularly to methods, systems, products, features, services, and other elements directed to media playback, as well as some aspects thereof.

2003年に、ソノズ・インコーポレイテッドが最初の特許出願のうちの1つである「複数のネットワークデバイス間のオーディオ再生を同期する方法」と題する特許出願をし、2005年にメディア再生システムの販売を開始するまで、アウトラウド設定におけるデジタルオーディオへのアクセスおよび試聴のオプションは制限されていた。人々は、ソノズ無線HiFiシステムによって、1つ又は複数のネットワーク再生デバイスを介して多数のソースから音楽を体験できるようになっている。スマートフォン、タブレット、又はコンピュータにインストールされたソフトウェアコントロールアプリケーションを通じて、ネットワーク再生デバイスを備えたいずれの部屋においても、人々は自分が望む音楽を再生することができる。また、例えばコントローラを用いて、再生デバイスを備えた各部屋に異なる歌をストリーミングすることもできるし、同期再生のために複数の部屋をグループ化することもできるし、全ての部屋において同期して同じ歌を聞くこともできる。 In 2003, Sonos, Inc. filed one of the first patent applications, titled "Method for Synchronizing Audio Playback Across Multiple Network Devices," and in 2005 launched a media playback system. Prior to launch, digital audio access and audition options were limited in Outloud settings. The Sonos wireless HiFi system allows people to experience music from multiple sources via one or more network playback devices. Through software control applications installed on smartphones, tablets, or computers, people can play the music they want in any room equipped with a network playback device. Also, for example, using a controller, different songs can be streamed to each room with a playback device, multiple rooms can be grouped for synchronized playback, and all rooms can be synchronized. You can also listen to the same song.

これまでのデジタルメディアに対する関心の高まりを考えると、試聴体験を更に向上させることができるコンシューマアクセス可能な技術を更に開発することにニーズがある。 Given the ever-increasing interest in digital media, there is a need to further develop consumer-accessible technologies that can further enhance the listening experience.

本明細書で開示されている技術の特徴、態様、および利点は、以下の記載、添付の特許請求の範囲、および添付の図面を参照するとより理解しやすい。 Features, aspects, and advantages of the technology disclosed herein may be better understood with reference to the following description, appended claims, and accompanying drawings.

ある実施形態で実施可能な例示的なメデイア再生システムの構成を示す図FIG. 1 illustrates an exemplary media playback system configuration that may be implemented in certain embodiments; 例示的な再生デバイスの機能ブロック図Functional block diagram of an exemplary playback device 例示的な制御デバイスの機能ブロック図Functional block diagram of an exemplary control device 例示的なコントローラインタフェースを示す図Diagram showing an exemplary controller interface オーディオ処理アルゴリズムのデータベースを保守する第1の方法の例示的なフロー図FIG. 4 is an exemplary flow diagram of a first method of maintaining a database of audio processing algorithms; オーディオ処理アルゴリズムの第1のデータベースの例示的な部分を示す図FIG. 4 shows an exemplary portion of a first database of audio processing algorithms; オーディオ処理アルゴリズムの第2のデータベースの例示的な部分を示す図FIG. 4 shows an exemplary portion of a second database of audio processing algorithms; オーディオ処理アルゴリズムのデータベースを保守する第2の方法の例示的なフロー図FIG. 4 is an exemplary flow diagram of a second method of maintaining a database of audio processing algorithms; 再生デバイスが校正されうる例示的な再生ゾーンを示す図FIG. 4 illustrates an exemplary playback zone in which a playback device may be calibrated; 1つ又は複数の再生ゾーン特性に基づいてオーディオ処理アルゴリズムを決定する第1の方法の例示的なフロー図FIG. 4 is an exemplary flow diagram of a first method for determining audio processing algorithms based on one or more play zone characteristics; 1つ又は複数の再生ゾーン特性に基づいてオーディオ処理アルゴリズムを決定する第2の方法の例示的なフロー図FIG. 4 is an exemplary flow diagram of a second method for determining audio processing algorithms based on one or more play zone characteristics; オーディオ処理アルゴリズムのデータベースからオーディオ処理アルゴリズムを特定する例示的なフロー図An exemplary flow diagram for identifying an audio processing algorithm from a database of audio processing algorithms.

図面は、いくつかの例示的な実施形態を説明することを目的としているが、本発明が、図面に示した配置および手段に限定されるものではないことは理解される。 While the drawings are for the purpose of illustrating some exemplary embodiments, it is to be understood that the invention is not limited to the arrangements and instrumentalities shown in the drawings.

I.概要
再生デバイスが再生ゾーンにおいてオーディオコンテンツを再生するとき、再生の品質は、再生ゾーンの音響特性に依存することがある。本明細書の説明において、再生ゾーンは、1つ又は複数の再生デバイス又は再生デバイスのグループを含むことができる。再生ゾーンの音響特性は、再生ゾーンの寸法、再生ゾーン内の家具の種類、及び再生ゾーン内の家具の配置などに依存することがある。そのため、異なる再生ゾーンは、異なる音響特性を有する場合がある。再生デバイスの所定のモデルは、異なる音響特性を有する様々な異なる再生ゾーンにおいて使用されうるため、単一のオーディオ処理アルゴリズムは、異なる再生ゾーンのそれぞれにおける再生デバイスによる一貫したオーディオ再生品質を提供しないことがある。
I. Overview When a playback device plays audio content in a playback zone, the quality of playback may depend on the acoustic characteristics of the playback zone. In the description herein, a playback zone may include one or more playback devices or groups of playback devices. The acoustic properties of the reproduction zone may depend on the dimensions of the reproduction zone, the type of furniture within the reproduction zone, the placement of the furniture within the reproduction zone, and the like. As such, different playback zones may have different acoustic properties. Since a given model of playback device may be used in a variety of different playback zones with different acoustic characteristics, no single audio processing algorithm will provide consistent audio playback quality by playback devices in each of the different playback zones. There is

本明細書において記載される例は、再生ゾーン内に再生デバイスが存在するような再生ゾーンの音響特性に基づいて、再生デバイスが適用するオーディオ処理アルゴリズムを決定することに関する。再生ゾーンにおいてオーディオコンテンツを再生するときの、決定したオーディオ処理アルゴリズムの再生デバイスによる適用は、再生ゾーンにおいて再生デバイスによってレンダリングされたオーディオコンテンツに、少なくともある程度、所定のオーディオ特性を持たせることができる。ある場合では、オーディオ処理アルゴリズムの適用は、オーディオコンテンツの1つ又は複数のオーディオ周波数におけるオーディオ増幅を変更することである。他の例もまた可能である。 Examples described herein relate to determining audio processing algorithms to be applied by a playback device based on acoustic characteristics of a playback zone within which the playback device resides. Application by the playback device of the determined audio processing algorithm when playing the audio content in the playback zone can cause, at least in part, the audio content rendered by the playback device in the playback zone to have predetermined audio characteristics. In some cases, the application of the audio processing algorithm is to change the audio amplification at one or more audio frequencies of the audio content. Other examples are also possible.

ある例では、オーディオ処理アルゴリズムのデータベースは保守されてもよく、データベース内のオーディオ処理アルゴリズムは、再生ゾーンの1つ又は複数の特性に基づいて特定されてもよい。再生ゾーンの1つ又は複数の特性は、再生ゾーンの音響特性、及び/又は再生ゾーンの寸法、再生ゾーンの床材及び/又は壁材、並びに再生ゾーン内の家具の数及び/又は種類などのうちの1つ又は複数を含んでもよい。 In one example, a database of audio processing algorithms may be maintained, and the audio processing algorithms in the database may be identified based on one or more characteristics of the play zone. The one or more characteristics of the regeneration zone may be the acoustic properties of the regeneration zone, and/or the dimensions of the regeneration zone, the flooring and/or walling of the regeneration zone, and the number and/or type of furniture in the regeneration zone. may include one or more of

オーディオ処理アルゴリズムのデータベースを保守することは、再生ゾーンの1つ又は複数の特性に対応する少なくとも1つのオーディオ処理アルゴリズムを決定すること、及び決定したオーディオ処理アルゴリズムをデータベースに追加することを含んでもよい。ある例では、データベースは、データベースを保守する1つ又は複数のデバイス又は1つ又は複数の他のデバイスに格納されうる。本明細書における説明において、別段の記載がない限り、データベースを保守するための機能は、とりわけ、1つ又は複数のコンピューティングデバイス(すなわち、サーバ)、1つ又は複数の再生デバイス、又は1つ又は複数のコントローラデバイスによって実行されうる。しかしながら、単純化のために、機能を実行する1つ又は複数のデバイスは、一般に、コンピューティングデバイスと称されてもよい。 Maintaining the database of audio processing algorithms may include determining at least one audio processing algorithm corresponding to one or more characteristics of the play zone and adding the determined audio processing algorithm to the database. . In some examples, the database may be stored on one or more devices or one or more other devices that maintain the database. In the description herein, unless stated otherwise, the functionality for maintaining the database may be, inter alia, one or more computing devices (i.e., servers), one or more playback devices, or one or more or may be performed by multiple controller devices. However, for the sake of simplicity, one or more devices that perform functions may be generally referred to as computing devices.

ある例では、そのようなオーディオ処理アルゴリズムを決定することは、コンピューティングデバイスが再生ゾーンの音響特性を決定することを含んでもよい。ある場合では、再生ゾーンは、再生デバイスがオーディオコンテンツを再生することができる再生ゾーンをシミュレートするために使用されるモデルルームであってもよい。そのような場合、モデルルームの1つ又は複数の物理的特性(すなわち、寸法、床材及び壁材など)が予め決定されてもよい。別の場合では、再生ゾーンは、再生デバイスのユーザの自宅内の部屋であってもよい。そのような場合、再生ゾーンの物理的特性は、ユーザによって提供されてもよく又は未知であってもよい。 In one example, determining such an audio processing algorithm may include the computing device determining acoustic characteristics of the play zone. In some cases, a play zone may be a model room used to simulate a play zone in which a playback device can play audio content. In such cases, one or more physical characteristics of the model room (ie, dimensions, flooring and wall coverings, etc.) may be predetermined. In other cases, the playback zone may be a room in the home of the user of the playback device. In such cases, the physical characteristics of the play zone may be provided by the user or unknown.

ある例では、コンピューティングデバイスは、再生ゾーン内の再生デバイスにオーディオ信号を再生させてもよい。ある場合では、再生されたオーディオ信号は、再生デバイスによってレンダリング可能な全周波数レンジを実質的にカバーする周波数を有するオーディオコンテンツを含んでもよい。その後、再生デバイスは、再生デバイスのマイクロホンを使用してオーディオ信号を検出してもよい。再生デバイスのマイクロホンは、再生デバイスの内蔵マイクロホンであってもよい。ある場合では、検出されたオーディオ信号は、再生されたオーディオ信号に対応する部分を含んでもよい。例えば、検出されたオーディオ信号は、再生ゾーン内で反射された再生されたオーディオ信号の成分を含んでもよい。コンピューティングデバイスは、検出されたオーディオ信号を再生デバイスから受信し、検出されたオーディオ信号に基づいて再生ゾーンの音響応答を決定してもよい。 In one example, a computing device may cause a playback device within a playback zone to play an audio signal. In some cases, the reproduced audio signal may include audio content having frequencies that substantially cover the entire frequency range renderable by the reproduction device. The playback device may then detect the audio signal using the playback device's microphone. The playback device's microphone may be the playback device's built-in microphone. In some cases, the detected audio signal may include portions corresponding to the reproduced audio signal. For example, the detected audio signal may include components of the reproduced audio signal reflected within the reproduction zone. A computing device may receive the detected audio signal from the playback device and determine an acoustic response of the playback zone based on the detected audio signal.

そして、コンピューティングデバイスは、再生ゾーンの音響応答から再生デバイスの音響特性を除去することによって再生ゾーンの音響特性を決定してもよい。再生デバイスの音響特性は、再生デバイスのモデルに対応する音響特性であってもよい。ある場合では、再生デバイスのモデルに対応する音響特性は、無響室におけるモデルの代表的な再生デバイスによって再生されて検出されたオーディオ信号に基づいて決定されてもよい。 The computing device may then determine the acoustic characteristics of the playback zone by subtracting the acoustic characteristics of the playback device from the acoustic response of the playback zone. The acoustic properties of the playback device may be acoustic properties corresponding to a model of the playback device. In some cases, acoustic characteristics corresponding to a model of a reproduction device may be determined based on detected audio signals reproduced by a representative reproduction device of the model in an anechoic room.

そして、コンピューティングデバイスは、決定した再生ゾーンの音響特性及び所定のオーディオ特性に基づいて、対応するオーディオ処理アルゴリズムを決定してもよい。所定のオーディオ特性は、良好なサウンディングとみなされる特定の周波数等化を含んでもよい。対応するオーディオ処理アルゴリズムが決定されて、再生ゾーンにおいてオーディオコンテンツを再生するときの再生デバイスによる対応するオーディオ処理アルゴリズムの適用は、再生ゾーンにおいて再生デバイスによってレンダリングされたオーディオコンテンツに、少なくともある程度、所定のオーディオ特性を持たせてもよい。例えば、再生ゾーンの音響特性が特定のオーディオ周波数が他の周波数よりも減衰されたものである場合、対応するオーディオ処理アルゴリズムは、特定のオーディオ周波数の強めた増幅を含んでもよい。他の例もまた可能である。 The computing device may then determine corresponding audio processing algorithms based on the determined acoustic characteristics of the play zone and predetermined audio characteristics. Predetermined audio characteristics may include a particular frequency equalization that is considered good sounding. A corresponding audio processing algorithm is determined, and application of the corresponding audio processing algorithm by the playback device when playing back the audio content in the playback zone will affect, at least to some extent, the audio content rendered by the playback device in the playback zone. It may have audio characteristics. For example, if the acoustic characteristics of the play zone are such that certain audio frequencies are attenuated more than others, a corresponding audio processing algorithm may include increased amplification of certain audio frequencies. Other examples are also possible.

そして、決定されたオーディオ処理アルゴリズムと再生ゾーンの音響特性との関連付けは、データベース内のエントリとして記憶されてもよい。幾つかの場合では、オーディオ処理アルゴリズムと再生ゾーンの1つ又は複数の他の特性との関連付けが追加的に又は代替的にデータベースに記憶されてもよい。例えば、再生ゾーンが特定の寸法からなる場合、オーディオ処理アルゴリズムと特定の部屋寸法との関連付けがデータベースに記憶されてもよい。他の例もまた可能である。 The association between the determined audio processing algorithm and the acoustic properties of the play zone may then be stored as an entry in a database. In some cases, an association between audio processing algorithms and one or more other characteristics of the playback zone may additionally or alternatively be stored in the database. For example, if the play zone is of particular dimensions, the association of audio processing algorithms with particular room dimensions may be stored in the database. Other examples are also possible.

ある例では、データベースが、コンピューティングデバイスによってアクセスされることによって、再生デバイスが再生ゾーンに適用するためのオーディオ処理アルゴリズムが特定されてもよい。ある例では、データベースにアクセスしてオーディオ処理アルゴリズムを特定するコンピューティングデバイスは、上述したように、データベースを保守する同一のコンピューティングデバイスであってもよい。別の例では、コンピューティングデバイスは、異なるコンピューティングデバイスであってもよい。 In one example, a database may be accessed by a computing device to identify audio processing algorithms for a playback device to apply to a playback zone. In one example, the computing device that accesses the database to identify the audio processing algorithms may be the same computing device that maintains the database, as described above. In another example, the computing devices may be different computing devices.

幾つかの場合では、データベースにアクセスして、再生デバイスが再生ゾーンに適用するためのオーディオ処理アルゴリズムを特定することは、再生デバイスの校正の一部であってもよい。そのような再生デバイスの校正は、再生デバイス自体によって、再生デバイスと通信するサーバによって、又はコントローラデバイスによって開始されてもよい。ある場合では、再生デバイスが新規であり且つ校正が再生デバイスの初期設定の一部であるため、校正が開始されてもよい。別の場合では、再生デバイスは、同一の再生ゾーン内に又はある再生ゾーンから別の再生ゾーンに再配置されてもよい。さらなる場合では、校正は、コントローラデバイスを介してなど、再生デバイスのユーザによって開始されてもよい。 In some cases, accessing the database to identify audio processing algorithms for the playback device to apply to the playback zone may be part of calibrating the playback device. Calibration of such a playback device may be initiated by the playback device itself, by a server communicating with the playback device, or by a controller device. In some cases, calibration may be initiated because the playback device is new and calibration is part of the initial setup of the playback device. In other cases, playback devices may be relocated within the same playback zone or from one playback zone to another. In further cases, calibration may be initiated by a user of the playback device, such as through a controller device.

ある例では、再生デバイスの校正は、他の可能性の中でも特に、コンピューティングデバイスが、再生デバイスのユーザに、再生ゾーンの近似寸法、床材又は壁材、家具の量などの再生ゾーンの1つ又は複数の特性を示すように促すことを含んでもよい。コンピューティングデバイスは、コントローラデバイス上のユーザインタフェースを介してユーザに促すことができる。ユーザによって提供される再生ゾーンの1つ又は複数の特性に基づいて、再生ゾーンの1つ又は複数の特性に対応するオーディオ処理アルゴリズムがデータベースにおいて特定されてもよく、したがって、再生デバイスは、再生ゾーンにおいてオーディオコンテンツを再生するときに特定されたオーディオ処理アルゴリズムを適用してもよい。 In one example, the calibration of the playback device is such that the computing device provides the user of the playback device with the approximate dimensions of the playback zone, flooring or wall coverings, amount of furniture, etc., among other possibilities. It may include prompting to indicate one or more characteristics. The computing device can prompt the user through a user interface on the controller device. Based on one or more characteristics of the playback zone provided by the user, audio processing algorithms corresponding to one or more characteristics of the playback zone may be identified in the database, and thus the playback device may may apply the specified audio processing algorithm when playing the audio content in .

別の例では、再生デバイスの校正は、再生ゾーンの音響特性を決定すること、及び再生ゾーンの音響特性に基づいて対応するオーディオ処理アルゴリズムを特定することを含んでもよい。再生ゾーンの音響特性の決定は、上述したものと同様であってもよい。例えば、再生デバイスが校正されている再生ゾーン内の再生デバイスは、第1のオーディオ信号を再生した後に、再生デバイスのマイクロホンを使用して第2のオーディオ信号を検出してもよい。そして、第2のオーディオ信号は、再生ゾーンの音響特性を決定することに基づいてもよい。決定された音響特性に基づいて、対応するオーディオ処理アルゴリズムがデータベース内で特定されてもよく、したがって、再生デバイスは、再生ゾーンにおいてオーディオコンテンツを再生するときに、特定されたオーディオ処理アルゴリズムを適用してもよい。上述したように、再生ゾーンにおいてオーディオコンテンツを再生するときの再生デバイスによる対応するオーディオ処理アルゴリズムの適用は、再生ゾーンにおいて再生デバイスによってレンダリングされたオーディオコンテンツに、少なくともある程度、所定のオーディオ特性を持たせることができる。 In another example, calibrating a playback device may include determining acoustic properties of the playback zone and identifying corresponding audio processing algorithms based on the acoustic properties of the playback zone. Determining the acoustic properties of the play zone may be similar to that described above. For example, a playback device within the playback zone in which the playback device is calibrated may detect the second audio signal using the playback device's microphone after playing the first audio signal. The second audio signal may then be based on determining the acoustic properties of the playback zone. Based on the determined acoustic characteristics, a corresponding audio processing algorithm may be identified in the database so that the playback device applies the identified audio processing algorithm when playing audio content in the playback zone. may As described above, the application of corresponding audio processing algorithms by a playback device when playing back audio content in a playback zone causes the audio content rendered by the playback device in the playback zone to have, at least to some extent, predetermined audio characteristics. be able to.

上述した再生デバイスの校正についての説明は、一般に、オーディオ処理アルゴリズムのデータベースを含むが、当業者は、コンピューティングデバイスがデータベースにアクセスすることなく再生ゾーンについてのオーディオ処理アルゴリズムを決定することができることを理解するであろう。例えば、データベース内の対応するオーディオ処理アルゴリズムを特定する代わりに、コンピューティングデバイスは、(検出されたオーディオ信号からの)再生ゾーンの音響特性と、データベースについてのオーディオ処理アルゴリズムエントリの保守及び生成に関連して上述したものと同様の所定のオーディオ特性とに基づいて、オーディオ処理アルゴリズムを計算することによってオーディオ処理アルゴリズムを決定することができる。他の例もまた可能である。 Although the above discussion of calibrating playback devices generally includes a database of audio processing algorithms, those skilled in the art will appreciate that a computing device can determine audio processing algorithms for a playback zone without accessing the database. will understand. For example, instead of identifying corresponding audio processing algorithms in a database, the computing device relates the acoustic characteristics of the play zone (from detected audio signals) to the maintenance and generation of audio processing algorithm entries for the database. The audio processing algorithm can be determined by calculating the audio processing algorithm based on predetermined audio characteristics similar to those described above. Other examples are also possible.

ある場合では、校正されるべき再生デバイスは、再生ゾーンにおいてオーディオコンテンツを同期して再生するように構成された複数の再生デバイスのうちの1つであってもよい。そのような場合、再生ゾーンの音響特性の決定は、再生ゾーン内の他の再生デバイスによって再生されたオーディオ信号を含むこともできる。ある例では、オーディオ処理アルゴリズムを決定している間、再生ゾーンにおける複数の再生デバイスのそれぞれは、同時にオーディオ信号を再生することができ、再生デバイスのマイクロホンによって検出されたオーディオ信号は、再生デバイスによって再生されたオーディオ信号に対応する部分とともに、再生ゾーン内の他の再生デバイスによって再生されたオーディオ信号の部分を含んでもよい。検出されたオーディオ信号に基づいて、再生ゾーンの音響応答を決定することができ、再生ゾーンの音響応答から校正されている再生デバイスの音響特性を除去することによって、他の再生デバイスを含む再生ゾーンの音響特性を決定することができる。そして、オーディオ処理アルゴリズムは、再生ゾーンの音響特性に基づいてデータベース内で計算又は特定され、再生デバイスによって適用されうる。 In some cases, the playback device to be calibrated may be one of a plurality of playback devices configured to synchronously play back audio content in the playback zone. In such cases, the determination of the acoustic properties of the reproduction zone may also include audio signals reproduced by other reproduction devices within the reproduction zone. In one example, while determining the audio processing algorithms, each of the multiple playback devices in the playback zone can simultaneously play an audio signal, and the audio signal detected by the playback device's microphone is received by the playback device. Portions of the audio signal played by other playback devices within the playback zone may be included along with the portion corresponding to the played audio signal. Based on the detected audio signal, the acoustic response of the playback zone can be determined, and the playback zone including other playback devices by removing the acoustic characteristics of the calibrated playback device from the acoustic response of the playback zone. can determine the acoustic properties of Audio processing algorithms can then be calculated or identified in the database based on the acoustic properties of the playback zone and applied by the playback device.

別の場合では、再生ゾーン内の複数の再生デバイスにおける2つ以上の再生デバイスは、各内蔵マイクロホンをそれぞれ有することができ、上記記載にしたがってそれぞれ個別に校正されうる。1つの例において、2つ以上の再生デバイスのそれぞれのマイクロホンによって検出されたオーディオ信号の集合に基づいて、再生ゾーンの音響特性が決定されてもよく、音響特性に対応するオーディオ処理アルゴリズムは、2つ以上の再生デバイスのそれぞれについて特定されてもよい。他の例もまた可能である。 Alternatively, two or more playback devices in a plurality of playback devices within a playback zone can each have their own built-in microphones and can each be individually calibrated according to the above description. In one example, the acoustic characteristics of the playback zone may be determined based on sets of audio signals detected by respective microphones of two or more playback devices, and the audio processing algorithms corresponding to the acoustic characteristics are: It may be specified for each of one or more playback devices. Other examples are also possible.

上述したように、本開示は、再生デバイスを含む特定の再生ゾーンの音響特性に基づいて、再生デバイスが適用するオーディオ処理アルゴリズムを決定することを含む。1つの態様において、コンピューティングデバイスが提供される。コンピューティングデバイスは、プロセッサと、プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリとを含む。本機能は、再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させること、及び再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを再生デバイスから受信することを含む。第2のオーディオ信号は、第1のオーディオ信号に対応する部分を含む。本機能は、さらに、第2のオーディオ信号及び再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び決定したオーディオ処理アルゴリズムを示すデータを再生デバイスに送信することを含む。 As noted above, the present disclosure involves determining audio processing algorithms to be applied by a playback device based on acoustic characteristics of a particular playback zone containing the playback device. In one aspect, a computing device is provided. A computing device includes a processor and memory storing instructions executable by the processor to cause the computing device to perform functions. The functionality includes causing a playback device within the playback zone to play the first audio signal, and receiving data from the playback device indicative of a second audio signal detected by a microphone of the playback device. The second audio signal includes portions corresponding to the first audio signal. The function further includes determining an audio processing algorithm based on the second audio signal and the acoustic characteristics of the playback device, and transmitting data indicative of the determined audio processing algorithm to the playback device.

別の態様において、コンピューティングデバイスが提供される。コンピューティングデバイスは、プロセッサと、プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリとを含む。本機能は、第1の再生デバイスに再生ゾーンにおいて第1のオーディオ信号を再生させること、第2の再生デバイスに再生ゾーンにおいて第2のオーディオ信号を再生させること、及び第1の再生デバイスのマイクロホンによって検出された第3のオーディオ信号を示すデータを第1の再生デバイスから受信することを含む。第3のオーディオ信号は、(i)第1のオーディオ信号に対応する部分と、(ii)第2の再生デバイスによって再生された第2のオーディオ信号に対応する部分とを含む。また、本機能は、第3のオーディオ信号及び第1の再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び決定したオーディオ処理アルゴリズムを示すデータを第1の再生デバイスに送信することを含む。 In another aspect, a computing device is provided. A computing device includes a processor and memory storing instructions executable by the processor to cause the computing device to perform functions. The function comprises causing a first playback device to play a first audio signal in the play zone, causing a second playback device to play a second audio signal in the play zone, and a microphone of the first playback device. receiving from the first playback device data indicative of the third audio signal detected by the. The third audio signal includes (i) a portion corresponding to the first audio signal and (ii) a portion corresponding to the second audio signal reproduced by the second reproduction device. The function also determines an audio processing algorithm based on the third audio signal and the acoustic characteristics of the first playback device, and transmits data indicative of the determined audio processing algorithm to the first playback device. Including.

別の態様において、再生デバイスが提供される。再生デバイスは、プロセッサと、マイクロホンと、プロセッサによって実行可能であって再生デバイスに機能を実行させる命令を格納したメモリとを含む。本機能は、再生ゾーンにおいて第1のオーディオ信号を再生しながら、マイクロホンによって第2のオーディオ信号を検出することを含む。第2のオーディオ信号は、第1のオーディオ信号に対応する部分を含む。また、本機能は、第2のオーディオ信号及び再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び再生ゾーンにおいてメディアアイテムを再生するときに、決定されたオーディオ処理アルゴリズムをメディアアイテムに対応するオーディオデータに適用することを含む。 In another aspect, a playback device is provided. The playback device includes a processor, a microphone, and a memory storing instructions executable by the processor to cause the playback device to perform functions. The function includes detecting a second audio signal with a microphone while playing the first audio signal in the play zone. The second audio signal includes portions corresponding to the first audio signal. The functionality also includes determining an audio processing algorithm based on the second audio signal and the acoustic characteristics of the playback device, and applying the determined audio processing algorithm to the media item when playing the media item in the playback zone. to the audio data corresponding to the

別の態様において、コンピューティングデバイスが提供される。コンピューティングデバイスは、プロセッサと、プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリとを含む。本機能は、再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させること、及び再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを受信することを含む。第2のオーディオ信号は、再生デバイスによって再生された第1のオーディオ信号に対応する部分を含む。また、本機能は、第2のオーディオ信号及び再生デバイスの特性に基づいて再生ゾーンの音響特性を決定すること、再生ゾーンの音響特性に基づいてオーディオ処理アルゴリズムを決定すること、及びオーディオ処理アルゴリズムと再生ゾーンの音響特性との関連付けをデータベースに記憶させることを含む。 In another aspect, a computing device is provided. A computing device includes a processor and memory storing instructions executable by the processor to cause the computing device to perform functions. The functionality includes causing a playback device within the playback zone to play a first audio signal and receiving data indicative of a second audio signal detected by a microphone of the playback device. The second audio signal includes portions corresponding to the first audio signal reproduced by the reproduction device. The functionality also includes: determining acoustic characteristics of the playback zone based on the characteristics of the second audio signal and the playback device; determining an audio processing algorithm based on the acoustic characteristics of the playback zone; Storing in a database the association with the acoustic properties of the play zone.

別の態様において、コンピューティングデバイスが提供される。コンピューティングデバイスは、プロセッサと、プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリとを含む。本機能は、再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させること、及び(i)再生ゾーンの1つ又は複数の特性を示すデータと、(ii)再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータとを受信することを含む。第2のオーディオ信号は、再生デバイスによって再生されたオーディオ信号に対応する部分を含む。また、本機能は、第2のオーディオ信号及び再生デバイスの特性に基づいてオーディオ処理アルゴリズムを決定すること、及び決定したオーディオ処理アルゴリズムと再生ゾーンの1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させることを含む。 In another aspect, a computing device is provided. A computing device includes a processor and memory storing instructions executable by the processor to cause the computing device to perform functions. The function comprises causing a playback device within the playback zone to play a first audio signal, and (i) data indicative of one or more characteristics of the playback zone and (ii) the audio signal detected by the playback device's microphone. and receiving data indicative of a second audio signal. The second audio signal includes portions corresponding to the audio signal reproduced by the reproduction device. The facility also includes determining an audio processing algorithm based on the characteristics of the second audio signal and the playback device, and combining the determined audio processing algorithm with at least one of the one or more characteristics of the playback zone. Including storing the association in a database.

別の態様において、コンピューティングデバイスが提供される。コンピューティングデバイスは、プロセッサと、プロセッサによって実行可能であって再生デバイスに機能を実行させる命令を格納したメモリとを含む。本機能は、(i)複数のオーディオ処理アルゴリズム及び(ii)複数の再生ゾーン特性のデータベースを保守することを含む。複数のオーディオ処理アルゴリズムのうちの各オーディオ処理アルゴリズムは、複数の再生ゾーン特性のうちの少なくとも1つの再生ゾーン特性に対応する。また、本機能は、再生ゾーンの1つ又は複数の特性を示すデータを受信すること、データに基づいてオーディオ処理アルゴリズムをデータベースにおいて特定すること、及び特定したオーディオ処理アルゴリズムを示すデータを送信することを含む。 In another aspect, a computing device is provided. The computing device includes a processor and memory storing instructions executable by the processor to cause the playback device to perform functions. This functionality includes maintaining a database of (i) multiple audio processing algorithms and (ii) multiple play zone characteristics. Each audio processing algorithm of the plurality of audio processing algorithms corresponds to at least one play zone characteristic of the plurality of play zone characteristics. The facility also receives data indicative of one or more characteristics of the playback zone, identifies in the database an audio processing algorithm based on the data, and transmits data indicative of the identified audio processing algorithm. including.

本明細書に記載の幾つかの例は、「ユーザ」及び/又は他の実体のような任意の主体によって行われる機能について言及するが、このことは単に例示目的であると理解されるべきである。特許請求の範囲は、特許請求の範囲自体の記載によって明示的に要請されない限り、そのような例示の主体の動作であることを要請するものと解釈されてはならない。当業者にとって、本開示には他の複数の実施形態が含まれることは理解されるであろう。 Although some examples described herein refer to functions performed by arbitrary entities such as "users" and/or other entities, it should be understood that this is for illustrative purposes only. be. The claims should not be construed as requiring such exemplary subjective acts unless explicitly required by the claims themselves. It will be appreciated by those skilled in the art that this disclosure includes multiple other embodiments.

II.動作環境の例
図1は、本明細書で開示されている1つ又は複数の実施形態で実施可能又は実装可能なメディア再生システム100の例示的な構成を示す。図示されるように、メディア再生システム100は、複数の部屋および空間、例えば、主寝室、オフィス、ダイニングルーム、およびリビングルームを有する例示的なホーム環境と関連付けられている。図1の例に示されるように、メディア再生システム100は、再生デバイス102-124、制御デバイス126および128、有線又は無線のネットワークルータ130を含む。
II. Example Operating Environment FIG. 1 illustrates an example configuration of a media playback system 100 that can be implemented or implemented with one or more embodiments disclosed herein. As shown, media playback system 100 is associated with an exemplary home environment having multiple rooms and spaces, eg, master bedroom, office, dining room, and living room. As shown in the example of FIG. 1, the media playback system 100 includes playback devices 102-124, control devices 126 and 128, and a wired or wireless network router .

更に、例示的なメディア再生システム100の異なる構成要素、および異なる構成要素がどのように作用してユーザにメディア体験を提供するかに関しての説明は、以下のセクションで述べられている。本明細書における説明は、概してメディア再生システム100を参照しているが、本明細書で述べられている技術は、図1に示されるホーム環境の用途に限定されるものではない。例えば、本明細書で述べられている技術は、マルチゾーンオーディオが望まれる環境、例えば、レストラン、モール、又は空港のような商業的環境、スポーツ用多目的車(SUV)、バス又は車のような車両、船、若しくはボード、飛行機などの環境において有益である。 Further descriptions regarding the different components of the exemplary media playback system 100 and how the different components work to provide a user with a media experience are provided in the sections below. Although the description herein generally refers to media playback system 100, the techniques described herein are not limited to application in the home environment shown in FIG. For example, the techniques described herein can be used in environments where multi-zone audio is desired, such as commercial environments such as restaurants, malls, or airports, sports utility vehicles (SUVs), buses or cars. It is useful in environments such as vehicles, ships or boards, airplanes.

a.例示的な再生デバイス
図2は、図1のメディア再生システム100の再生デバイス102-124の1つ又は複数を構成する例示的な再生デバイス200の機能ブロック図を示す。再生デバイス200は、プロセッサ202、ソフトウェアコンポーネント204、メモリ206、オーディオ処理コンポーネント208、オーディオアンプ210、スピーカー212、マイクロホン220、およびネットワークインタフェース214を含んでもよい。ネットワークインタフェース214は、無線インタフェース216および有線インタフェース218を含む。ある場合では、再生デバイス200は、スピーカー212を含まないが、再生デバイス200を外部スピーカーに接続するためのスピーカーインタフェースを含んでいてもよい。別の場合では、再生デバイス200は、スピーカー212もオーディオアンプ210も含まないが、再生デバイス200を外部オーディオアンプ又はオーディオビジュアルレシーバーに接続するためのオーディオインタフェースを含んでもよい。
a. Exemplary Playback Device FIG. 2 illustrates a functional block diagram of an exemplary playback device 200 that may make up one or more of the playback devices 102-124 of the media playback system 100 of FIG. Playback device 200 may include processor 202 , software component 204 , memory 206 , audio processing component 208 , audio amplifier 210 , speaker 212 , microphone 220 , and network interface 214 . Network interface 214 includes wireless interface 216 and wired interface 218 . In some cases, playback device 200 does not include speakers 212, but may include a speaker interface for connecting playback device 200 to external speakers. In other cases, playback device 200 may not include speakers 212 or audio amplifier 210, but may include an audio interface for connecting playback device 200 to an external audio amplifier or audiovisual receiver.

ある例では、プロセッサ202は、メモリ206に記憶された命令に基づいて、入力データを処理するように構成されたクロック駆動コンピュータコンポーネントであってもよい。メモリ206は、プロセッサ202によって実行可能な命令を記憶するように構成された非一時的なコンピュータ読み取り可能記録媒体であってもよい。例えば、メモリ206は、ある機能を実行するためにプロセッサ202によって実行可能なソフトウェアコンポーネント204の1つ又は複数をロードすることができるデータストレージであってもよい。ある例では、機能は、再生デバイス200がオーディオソース又は別の再生デバイスからオーディオデータを読み出すステップを含んでもよい。別の例では、機能は、再生デバイス200がネットワーク上の別のデバイス又は再生デバイスにオーディオデータを送信するステップを含んでもよい。更に別の例では、機能は、マルチチャンネルオーディオ環境を作るために、再生デバイス200と1つ又は複数の再生デバイスとをペアリングするステップを含んでもよい。 In one example, processor 202 may be a clocked computer component configured to process input data based on instructions stored in memory 206 . Memory 206 may be a non-transitory computer-readable medium configured to store instructions executable by processor 202 . For example, memory 206 may be data storage capable of loading one or more of software components 204 executable by processor 202 to perform certain functions. In some examples, functionality may include playback device 200 reading audio data from an audio source or another playback device. In another example, functionality may include playback device 200 transmitting audio data to another device or playback device on a network. In yet another example, functionality may include pairing playback device 200 with one or more playback devices to create a multi-channel audio environment.

ある機能は、再生デバイス200が、1つ又は複数の他の再生デバイスと、オーディオコンテンツの再生を同期するステップを含む。再生を同期している間、再生デバイス200によるオーディオコンテンツの再生と1つ又は複数の他の再生デバイスによる再生との間の遅延を、リスナーが気づかないことが好ましい。「複数の独立クロックデジタルデータ処理デバイス間の動作を同期するシステムおよび方法」と題する米国特許第8,234,395号が本明細書に参照として援用されており、それは再生デバイス間のオーディオ再生を同期することが述べられたより詳細な例を提供している。 Certain functions include playback device 200 synchronizing playback of audio content with one or more other playback devices. While synchronizing playback, the listener is preferably unaware of any delay between playback of audio content by playback device 200 and playback by one or more other playback devices. U.S. Pat. No. 8,234,395, entitled "System and Method for Synchronizing Operation Between Multiple Independently Clocked Digital Data Processing Devices," is incorporated herein by reference and describes audio reproduction between playback devices. We provide a more detailed example where synchronizing is mentioned.

更に、メモリ206は、データを記憶するように構成されていてもよい。データは、例えば、1つ又は複数のゾーンおよび/又はゾーングループに一部として含まれる再生デバイス200などの再生デバイス200、再生デバイス200によりアクセス可能なオーディオソース、又は再生デバイス200(又は他の再生デバイス)と関連付け可能な再生キュー、に関連付けられている。データは、定期的に更新され、再生デバイス200の状態を示す1つ又は複数の状態変数として記憶されてもよい。また、メモリ206は、メディアシステムの他のデバイスの状態と関連付けられたデータを含んでもよく、デバイス間で随時共有することによって、1つ又は複数のデバイスが、システムと関連するほぼ直近のデータを有してもよい。他の実施形態も可能である。 Additionally, memory 206 may be configured to store data. The data may be, for example, a playback device 200, such as a playback device 200 included as part of one or more zones and/or zone groups, an audio source accessible by the playback device 200, or a playback device 200 (or other playback device). associated with a play queue, which can be associated with a device). The data may be periodically updated and stored as one or more state variables indicating the state of playback device 200 . The memory 206 may also contain data associated with the state of other devices in the media system, and occasional sharing between devices allows one or more devices to have more or less recent data associated with the system. may have. Other embodiments are possible.

オーディオ処理コンポーネント208は、とりわけ、1つ又は複数のデジタル-アナログ変換器(DAC)、アナログ-デジタル変換器(ADC)、オーディオ処理コンポーネント、オーディオ強化コンポーネント、及びデジタルシグナルプロセッサ(DSP)を含んでいてもよい。ある実施形態では、1つ又は複数のオーディオ処理コンポーネント208は、プロセッサ202のサブコンポーネントであってもよい。ある実施形態では、オーディオコンテンツが、オーディオ処理コンポーネント208によって処理および/又は意図的に変更されることによって、オーディオ信号を生成してもよい。生成されたオーディオ信号は、オーディオアンプ210に送信され、増幅され、スピーカー212を通じて再生される。特に、オーディオアンプ210は、1つ又は複数のスピーカー212を駆動できるレベルまでオーディオ信号を増幅するように構成されたデバイスを含んでもよい。スピーカー212は、独立した変換器(例えば、「ドライバ」)又は1つ又は複数のドライバを内包する筐体を含む完全なスピーカーシステムを備えてもよい。スピーカー212に備えられたあるドライバは、例えば、サブウーファー(例えば、低周波用)、ミドルレンジドライバ(例えば、中間周波用)、および/又はツイーター(高周波用)を含んでもよい。ある場合では、1つ又は複数のスピーカー212のそれぞれの変換器は、オーディオアンプ210の対応する個々のオーディオアンプによって駆動されてもよい。再生デバイス200で再生するアナログ信号を生成することに加えて、オーディオ処理コンポーネント208は、オーディオコンテンツを処理し、そのオーディオコンテンツを1つ又は複数の他の再生デバイスに再生させるために送信する。 Audio processing components 208 include, among others, one or more digital-to-analog converters (DACs), analog-to-digital converters (ADCs), audio processing components, audio enhancement components, and digital signal processors (DSPs). good too. In some embodiments, one or more of audio processing components 208 may be subcomponents of processor 202 . In some embodiments, audio content may be processed and/or intentionally altered by audio processing component 208 to generate an audio signal. The generated audio signal is sent to audio amplifier 210 where it is amplified and played through speaker 212 . In particular, audio amplifier 210 may include devices configured to amplify audio signals to a level capable of driving one or more speakers 212 . Speaker 212 may comprise a complete speaker system including a separate transducer (eg, “driver”) or a housing enclosing one or more drivers. Certain drivers included in speaker 212 may include, for example, a subwoofer (eg, for low frequencies), a mid-range driver (eg, for mid frequencies), and/or a tweeter (eg, for high frequencies). In some cases, each transducer of one or more speakers 212 may be driven by a corresponding individual audio amplifier of audio amplifier 210 . In addition to generating analog signals for playback on playback device 200, audio processing component 208 processes audio content and transmits the audio content for playback to one or more other playback devices.

再生デバイス200によって処理および/又は再生されるオーディオコンテンツは、外部ソース、例えば、オーディオライン-イン入力接続(例えば、オートディテクティング3.5mmオーディオラインイン接続)又はネットワークインタフェース214を介して、受信されてもよい。 Audio content to be processed and/or played by playback device 200 is received from an external source, such as an audio line-in input connection (eg, an autodetecting 3.5 mm audio line-in connection) or network interface 214 . may

マイクロホン220は、検出されたサウンドを電気信号に変換するように構成されたオーディオセンサを含んでもよい。電気信号は、オーディオ処理コンポーネント208及び/又はプロセッサ202によって処理されうる。マイクロホン220は、再生デバイス200における1つ又は複数の位置において1つ又は複数の向きに配置されうる。マイクロホン220は、1つ又は複数の周波数レンジ内のサウンドを検出するように構成されうる。ある場合では、1つ又は複数のマイクロホン220は、再生デバイス200が可能であるか又はレンダリングしているオーディオの周波数レンジ内のサウンドを検出するように構成されうる。別の場合では、1つ又は複数のマイクロホン220は、人間の可聴周波数レンジ内のサウンドを検出するように構成されてもよい。他の例もまた可能である。 Microphone 220 may include an audio sensor configured to convert detected sounds into electrical signals. The electrical signal may be processed by audio processing component 208 and/or processor 202 . Microphone 220 may be placed in one or more orientations at one or more locations on playback device 200 . Microphone 220 may be configured to detect sounds within one or more frequency ranges. In some cases, one or more microphones 220 may be configured to detect sounds within the frequency range of audio that playback device 200 is capable of or rendering. In other cases, one or more microphones 220 may be configured to detect sounds within the human audible frequency range. Other examples are also possible.

ネットワークインタフェース214は、データネットワーク上で再生デバイス200と1つ又は複数の他のデバイスとの間のデータフローを可能にするように構成されてもよい。このように、再生デバイス200は、再生デバイスと通信する1つ又は複数の他の再生デバイス、ローカルエリアネットワーク内のネットワークデバイス、又は例えば、インターネット等のワイドエリアネットワーク上のオーディオコンテンツソースから、データネットワークを介してオーディオコンテンツを受信するように構成されていてもよい。ある例では、再生デバイス200によって送信および受信されたオーディオコンテンツおよび他の信号は、インターネットプロトコル(IP)に基づくソースアドレスおよびIPに基づく宛先アドレスを含むデジタルパケットの形で送信されてもよい。そのような場合、ネットワークインタフェース214は、デジタルパケットデータを解析することによって、再生デバイス200宛てのデータを、再生デバイス200によって適切に受信して処理することができる。 Network interface 214 may be configured to allow data flow between playback device 200 and one or more other devices over a data network. In this way, the playback device 200 can communicate with one or more other playback devices in communication with the playback device, network devices in a local area network, or audio content sources on a wide area network, such as the Internet, for example, from a data network. may be configured to receive audio content via the In one example, audio content and other signals transmitted and received by playback device 200 may be transmitted in the form of digital packets that include an Internet Protocol (IP)-based source address and an IP-based destination address. In such cases, network interface 214 parses the digital packet data so that data intended for playback device 200 can be properly received and processed by playback device 200 .

図示されるように、ネットワークインタフェース214は、無線インタフェース216と有線インタフェース218とを含んでもよい。無線インタフェース216は、再生デバイス200用のネットワークインタフェース機能を提供し、通信プロトコル(例えば、無線規格IEEE802.11a、802.11b、802.11g、802.11n、802.11ac、802.15、4Gモバイル通信基準などを含む無線基準(規格)のいずれか)に基づいて、他のデバイス(例えば、再生デバイス200に関連付けられたデータネットワーク内の他の再生デバイス、スピーカー、レシーバー、ネットワークデバイス、制御デバイス)と無線通信してもよい。有線インタフェース218は、再生デバイス200用のネットワークインタフェース機能を提供し、通信プロトコル(例えば、IEEE802.3)に基づいて他のデバイスとの有線接続を介して通信してもよい。図2に示されるネットワークインタフェース214は、無線インタフェース216と有線インタフェース218との両方を含んでいるが、ネットワークインタフェース214は、ある実施形態において、無線インタフェースのみか、又は有線インタフェースのみを含んでいてもよい。 As shown, network interface 214 may include wireless interface 216 and wired interface 218 . Wireless interface 216 provides network interface functionality for playback device 200 and supports communication protocols (e.g., wireless standards IEEE 802.11a, 802.11b, 802.11g, 802.11n, 802.11ac, 802.15, 4G Mobile other devices (e.g., other playback devices, speakers, receivers, network devices, control devices) in the data network associated with playback device 200, based on any wireless standard (including communication standards, etc.). may communicate wirelessly with Wired interface 218 may provide network interface functionality for playback device 200 to communicate via wired connections with other devices based on communication protocols (eg, IEEE 802.3). Although the network interface 214 shown in FIG. 2 includes both a wireless interface 216 and a wired interface 218, the network interface 214 may include only a wireless interface or only a wired interface in some embodiments. good.

ある例では、再生デバイス200と他の再生デバイスとは、ペアにされて、オーディオコンテンツの2つの別々のオーディオコンポーネントを再生してもよい。例えば、再生デバイス200は、左チャンネルオーディオコンポーネントを再生するように構成される一方、他の再生デバイスは、右チャンネルオーディオコンポーネントを再生するように構成されてもよい。これにより、オーディオコンテンツのステレオ効果を生成するか、又は強化することができる。ペアにされた再生デバイス(「結合再生デバイス」とも言う)は、更に、他の再生デバイスと同期してオーディオコンテンツを再生してもよい。 In one example, playback device 200 and another playback device may be paired to play two separate audio components of the audio content. For example, playback device 200 may be configured to play left channel audio components, while other playback devices may be configured to play right channel audio components. This can create or enhance the stereo effect of the audio content. Paired playback devices (also referred to as "combined playback devices") may also play audio content in sync with other playback devices.

別の例では、再生デバイス200は、1つ又は複数の他の再生デバイスと音響的に統合され、単一の統合された再生デバイス(統合再生デバイス)を形成してもよい。統合再生デバイスは、統合されていない再生デバイス又はペアにされた再生デバイスと比べて、サウンドの処理や再現を異なるように構成することができる。なぜならば、統合再生デバイスは、オーディオコンテンツを再生するスピーカー追加することができるからである。例えば、再生デバイス200が、低周波レンジのオーディオコンテンツを再生するように設計されている場合(例えば、サブウーファー)、再生デバイス200は、全周波数レンジのオーディオコンテンツを再生するように設計された再生デバイスと統合されてもよい。この場合、全周波数レンジの再生デバイスは、低周波の再生デバイス200と統合されたとき、オーディオコンテンツの中高周波コンポーネントのみを再生するように構成されてもよい。一方で低周波レンジの再生デバイス200は、オーディオコンテンツの低周波コンポーネントを再生する。更に、統合再生デバイスは、単一の再生デバイス、又は更に他の統合再生デバイスとペアにされてもよい。 In another example, playback device 200 may be acoustically integrated with one or more other playback devices to form a single integrated playback device (integrated playback device). Integrated playback devices may be configured to process and reproduce sound differently than non-integrated or paired playback devices. This is because the integrated playback device can add speakers to play audio content. For example, if the playback device 200 is designed to play audio content in the low frequency range (e.g., a subwoofer), the playback device 200 may be a playback device designed to play audio content in the full frequency range. May be integrated with the device. In this case, the full frequency range playback device, when integrated with the low frequency playback device 200, may be configured to play only the mid-high frequency components of the audio content. The low frequency range playback device 200, on the other hand, plays back the low frequency components of the audio content. Further, an integrated playback device may be paired with a single playback device or even other integrated playback devices.

例として、現在、ソノズ・インコーポレイテッドは、「PLAY:1」、「PLAY:3」、「PLAY:5」、「PLAYBAR」、「CONNECT:AMP」、「CONNECT」、および「SUB」を含む再生デバイスを販売提供している。他の過去、現在、および/又は将来のいずれの再生デバイスにおいても、追加的に又は代替的に本明細書で開示された実施例の再生デバイスに実装して使用することができる。更に、再生デバイスは、図2に示された特定の例又は提供されるソノズ製品に限定されないことは理解される。例えば、再生デバイスは、有線又は無線のヘッドホンを含んでもよい。別の例では、再生デバイスは、パーソナルモバイルメディア再生デバイス用のドッキングステーションを含むか、又は、それらと対話してもよい。更に別の例では、再生デバイスは、別のデバイス又はコンポーネント、例えば、テレビ、照明器具、又は屋内又は屋外で使用するためのいくつかの他のデバイスと一体化されてもよい。 By way of example, Sonos, Inc. currently has a list of playback options including "PLAY:1", "PLAY:3", "PLAY:5", "PLAYBAR", "CONNECT:AMP", "CONNECT", and "SUB". We sell devices. Any other past, present, and/or future playback devices may additionally or alternatively be implemented and used with the example playback devices disclosed herein. Further, it is understood that the playback device is not limited to the specific examples shown in FIG. 2 or the Sonos products provided. For example, the playback device may include wired or wireless headphones. In another example, the playback device may include or interact with a docking station for a personal mobile media playback device. In yet another example, the playback device may be integrated with another device or component, such as a television, lighting fixture, or some other device for indoor or outdoor use.

b.例示的な再生ゾーン構成
図1のメディア再生システム100に戻って、環境は、1つ又は複数の再生ゾーンを有しており、それぞれの再生ゾーンは1つ又は複数の再生デバイスを含んでいる。メディア再生システム100は、1つ又は複数の再生ゾーンで形成されており、後で1つ又は複数のゾーンが追加又は削除して、図1に示す例示的な構成としてもよい。それぞれのゾーンは、異なる部屋又は空間、例えば、オフィス、浴室、主寝室、寝室、キッチン、ダイニングルーム、リビングルーム、および/又はバルコニーに基づく名前が与えられてもよい。ある場合では、単一の再生ゾーンは複数の部屋又は空間を含んでいてもよい。別の場合では、単一の部屋又は空間は、複数の再生ゾーンを含んでいてもよい。
b. Exemplary Play Zone Configurations Returning to media playback system 100 of FIG. 1, an environment has one or more play zones, each play zone containing one or more playback devices. The media playback system 100 is formed of one or more playback zones, and one or more zones may be added or deleted later to form the exemplary configuration shown in FIG. Each zone may be given a name based on a different room or space, eg, office, bathroom, master bedroom, bedroom, kitchen, dining room, living room, and/or balcony. In some cases, a single playback zone may include multiple rooms or spaces. In other cases, a single room or space may contain multiple regeneration zones.

図1に示されるように、バルコニー、ダイニングルーム、キッチン、浴室、オフィス、および寝室のゾーンのそれぞれは、1つの再生デバイスを有する一方、リビングルームおよび主寝室のゾーンのそれぞれは、複数の再生デバイスを有する。リビングルームゾーンは、再生デバイス104、106、108、および110が、別々の再生デバイスとしてか、1つ又は複数の結合再生デバイスとしてか、1つ又は複数の統合再生デバイスとしてか、又はこれらのいずれかの組み合わせで、オーディオコンテンツを同期して再生するように構成されてもよい。同様に、主寝室の場合では、再生デバイス122および124が、別々の再生デバイスとしてか、結合再生デバイスとしてか、又は統合再生デバイスとして、オーディオコンテンツを同期して再生するように構成されてもよい。 As shown in FIG. 1, the balcony, dining room, kitchen, bathroom, office, and bedroom zones each have one playback device, while the living room and master bedroom zones each have multiple playback devices. have The living room zone may include playback devices 104, 106, 108, and 110 as separate playback devices, as one or more combined playback devices, or as one or more integrated playback devices, or any of these. Any combination may be configured to play audio content synchronously. Similarly, in the case of the master bedroom, playback devices 122 and 124 may be configured to play audio content synchronously as separate playback devices, as a combined playback device, or as an integrated playback device. .

ある例では、図1の環境における1つ又は複数の再生ゾーンは、それぞれ異なるオーディオコンテンツを再生している。例えば、ユーザは、バルコニーゾーンでグリルしながら、再生デバイス102によって再生されるヒップホップ音楽を聞くことができる。一方、別のユーザは、キッチンゾーンで食事を準備しながら、再生デバイス114によって再生されるクラシック音楽を聞くことができる。別の例では、再生ゾーンは、同じオーディオコンテンツを別の再生ゾーンと同期して再生してもよい。例えば、ユーザがオフィスゾーンにいる場合、オフィスゾーンの再生デバイス118が、バルコニーの再生デバイス102で再生されている音楽と同じ音楽を再生してもよい。そのような場合、再生デバイス102および118は、ロック音楽を同期して再生しているため、ユーザは、異なる再生ゾーン間を移動してもアウト-ラウドで再生されるオーディオコンテンツをシームレス(又は少なくともほぼシームレス)に楽しむことができる。再生ゾーン間の同期は、前述の米国特許第8,234,395号で述べられているような再生デバイス間の同期と同様の方法で行ってもよい。 In one example, one or more play zones in the environment of FIG. 1 are each playing different audio content. For example, a user can listen to hip hop music played by playback device 102 while grilling in the balcony zone. Meanwhile, another user may listen to classical music played by playback device 114 while preparing a meal in the kitchen zone. In another example, a play zone may play the same audio content synchronously with another play zone. For example, if the user is in the office zone, the office zone playback device 118 may play the same music that is playing on the balcony playback device 102 . In such a case, playback devices 102 and 118 are playing rock music in synchronism so that the user can seamlessly (or at least) experience audio content played out-loud as they move between different playback zones. You can enjoy it almost seamlessly). Synchronization between playback zones may be performed in a manner similar to synchronization between playback devices as described in the aforementioned US Pat. No. 8,234,395.

上述したように、メディア再生システム100のゾーン構成は、動的に変更してもよく、ある実施形態では、メディア再生システム100は、複数の構成をサポートする。例えば、ユーザが1つ又は複数の再生デバイスを、物理的にゾーンに移動させるか、又はゾーンから移動させる場合、メディア再生システム100は変更に対応するように再構成されてもよい。例えば、ユーザが再生デバイス102をバルコニーゾーンからオフィスゾーンに物理的に移動させる場合、オフィスゾーンは、再生デバイス118と再生デバイス102との両方を含んでもよい。必要に応じて、制御デバイス、例えば制御デバイス126と128とを介して、再生デバイス102が、ペアにされるか、又はオフィスゾーンにグループ化されるか、および/又はリネームされてもよい。一方、1つ又は複数の再生デバイスが、再生ゾーンを未だ設定していないホーム環境において、ある領域に移動させられた場合、新しい再生ゾーンがその領域に形成されてもよい。 As noted above, the zone configuration of media playback system 100 may change dynamically, and in some embodiments, media playback system 100 supports multiple configurations. For example, if a user physically moves one or more playback devices into or out of a zone, media playback system 100 may be reconfigured to accommodate the change. For example, if a user physically moves playback device 102 from a balcony zone to an office zone, office zone may include both playback device 118 and playback device 102 . If desired, via control devices such as control devices 126 and 128, playback devices 102 may be paired or grouped into office zones and/or renamed. On the other hand, if one or more playback devices are moved to an area in the Home environment that has not yet established a playback zone, a new playback zone may be created in that area.

更に、メディア再生システム100の異なる再生ゾーンは、動的にゾーングループに組み合わされてもよいし、又は別々の再生ゾーンに分割されてもよい。例えば、ダイニングルームゾーンとキッチンゾーン114とがディナーパーティ用のゾーングループに組み合わされることによって、再生デバイス112と114とがオーディオコンテンツを同期して再生することができる。一方、あるユーザがテレビを見たい一方、他のユーザがリビングルーム空間の音楽を聞きたい場合、リビングルームゾーンが、再生デバイス104を含むテレビゾーンと、再生デバイス106、108および110を含むリスニングゾーンと、に分けられてもよい。 Further, different playback zones of media playback system 100 may be dynamically combined into zone groups or divided into separate playback zones. For example, the dining room zone and kitchen zone 114 may be combined into a group of zones for a dinner party so that playback devices 112 and 114 may play audio content in sync. On the other hand, if one user wants to watch TV while another user wants to listen to music in the living room space, the living room zone will be the TV zone containing playback device 104 and the listening zone containing playback devices 106, 108 and 110. and may be divided into

c.例示的な制御デバイス
図3は、メディア再生システム100の制御デバイス126と128とうちの一方又は両方を構成する例示的な制御デバイス300の機能ブロック図を示す。図示されるように、制御デバイス300は、プロセッサ302、メモリ304、ネットワークインタフェース306、ユーザインタフェース308、及びマイクロホン310を含んでもよい。ある例では、制御デバイス300は、メディア再生システム100専用の制御デバイスであってもよい。別の例では、制御デバイス300は、メディア再生システムコントローラアプリケーションソフトウェアをインストールされたネットワークデバイス、例えば、iPhone(登録商標)、iPad(登録商標)、又は任意の他のスマートフォン、タブレットあるいはネットワークデバイス(例えば、PC又はMac(登録商標)などのネットワークコンピュータ)であってもよい。
c. Exemplary Control Device FIG. 3 shows a functional block diagram of an exemplary control device 300 that constitutes one or both of control devices 126 and 128 of media playback system 100 . As shown, control device 300 may include processor 302 , memory 304 , network interface 306 , user interface 308 , and microphone 310 . In one example, control device 300 may be a dedicated control device for media playback system 100 . In another example, the control device 300 is a network device, such as an iPhone®, iPad®, or any other smart phone, tablet or network device (such as , a PC or a network computer such as a Mac (registered trademark)).

プロセッサ302は、メディア再生システム100のユーザアクセス、コントロール、および構成を可能にすることに関する機能を実行するように構成されてもよい。メモリ304は、プロセッサ302によって実行可能な命令を記憶し、それらの機能を実行するように構成されていてもよい。また、メモリ304は、メディア再生システムコントローラアプリケーションソフトウェアと、メディア再生システム100とユーザとに関連付けられた他のデータを記憶するように構成されていてもよい。 Processor 302 may be configured to perform functions related to enabling user access, control, and configuration of media playback system 100 . Memory 304 may be configured to store instructions executable by processor 302 to perform their functions. Memory 304 may also be configured to store media playback system controller application software and other data associated with media playback system 100 and users.

マイクロホン310は、検出されたサウンドを電気信号に変換するように構成されたオーディオセンサを含んでもよい。電気信号は、プロセッサ302によって処理されうる。ある場合では、制御デバイス300が音声通信又は音声録音のための手段として使用されることもできるデバイスである場合、1つ又は複数のマイクロホン310は、それらの機能を容易にするマイクロホンであってもよい。例えば、1つ又は複数のマイクロホン310は、人間が生成可能な周波数レンジ及び/又は人間の可聴周波数レンジ内のサウンドを検出するように構成されうる。他の例もまた可能である。 Microphone 310 may include an audio sensor configured to convert detected sounds into electrical signals. The electrical signal may be processed by processor 302 . In some cases, if the control device 300 is a device that can also be used as a means for voice communication or voice recording, the one or more microphones 310 may be microphones that facilitate those functions. good. For example, one or more microphones 310 may be configured to detect sounds within the human-producible frequency range and/or the human-audible frequency range. Other examples are also possible.

ある例では、ネットワークインタフェース306は、工業規格(例えば、赤外線、無線、IEEE802.3などの有線規格、IEEE802.11a、802.11b、802.11g、802.11n、802.11ac、802.15などの無線規格、4G通信規格など)に基づいてもよい。ネットワークインタフェース306においては、制御デバイス300がメディア再生システム100内の他のデバイスと通信するための手段を提供してもよい。ある例では、データおよび情報(例えば、状態変数)は、ネットワークインタフェース306を介して制御デバイス300と他のデバイスとの間で通信されてもよい。例えば、メディア再生システム100における再生ゾーンおよびゾーングループの構成は、制御デバイス300によって、再生デバイス又は別のネットワークデバイスから受信されてもよいし、あるいは制御デバイス300によって、ネットワークインタフェース306を介して別の再生デバイス又はネットワークデバイスに送信されてもよい。ある場合では、他のネットワークデバイスは、別の制御デバイスであってもよい。 In one example, the network interface 306 is an industry standard (e.g., infrared, wireless, wired standards such as IEEE 802.3, IEEE 802.11a, 802.11b, 802.11g, 802.11n, 802.11ac, 802.15, etc.). wireless standard, 4G communication standard, etc.). Network interface 306 may provide a means for control device 300 to communicate with other devices within media playback system 100 . In some examples, data and information (eg, state variables) may be communicated between control device 300 and other devices via network interface 306 . For example, the configuration of playback zones and zone groups in media playback system 100 may be received by control device 300 from a playback device or another network device, or may be received by control device 300 from another network interface 306 . It may be sent to a playback device or a network device. In some cases, the other network device may be another control device.

ボリュームコントロールおよびオーディオ再生コントロールなどの再生デバイス制御コマンドは、ネットワークインタフェース306を介して制御デバイス300から再生デバイスに通信されてもよい。上述したように、メディア再生システム100の構成の変更は、ユーザにより制御デバイス300を用いて行うことができる。構成の変更は、1つ又は複数の再生デバイスをゾーンに追加すること、1つ又は複数の再生デバイスをゾーンから取り除くこと、1つ又は複数のゾーンをゾーングループに追加すること、1つ又は複数のゾーンをゾーングループから取り除くこと、結合プレーヤー又は統合プレーヤーを形成すること、結合プレーヤー又は統合プレーヤーから1つ又は複数の再生デバイスに分けることなどを含んでもよい。このように、制御デバイス300は、コントローラと呼ばれてもよく、制御デバイス300は、メディア再生システムコントローラアプリケーションソフトウェアをインストールした専用のコントローラか、又はネットワークデバイスであってもよい。 Playback device control commands, such as volume control and audio playback controls, may be communicated from control device 300 to playback devices via network interface 306 . As described above, changes in the configuration of the media playback system 100 can be made by the user using the control device 300 . Configuration changes include adding one or more playback devices to a zone, removing one or more playback devices from a zone, adding one or more zones to a zone group, one or more zones from the zone group, forming a combined player or combined player, splitting from the combined player or combined player to one or more playback devices, and the like. As such, the control device 300 may be referred to as a controller, and the control device 300 may be a dedicated controller with media playback system controller application software installed, or a network device.

制御デバイス300のユーザインタフェース308は、図4に示されるコントローラインタフェース400などのようなコントローラインタフェースを提供することによって、メディア再生システム100のユーザアクセスおよび制御を可能にするように構成されていてもよい。コントローラインタフェース400は、再生制御領域410、再生ゾーン領域420、再生ステータス領域430、再生キュー領域440、およびオーディオコンテンツソース領域450を含む。図示されるユーザインタフェース400は、図3の制御デバイス300などのようなネットワークデバイス(および/又は図1の制御デバイス126および128)を設けられたユーザインタフェースの単なる一例であって、ユーザによってメディア再生システム100などのようなメディア再生システムを制御するためにアクセスされるものである。あるいは、様々なフォーマット、スタイル、および対話型シーケンスを他のユーザのインタフェースを1つ又は複数のネットワークデバイスに実装し、メディア再生システムへ類似の制御アクセスを提供してもよい。 User interface 308 of control device 300 may be configured to allow user access and control of media playback system 100 by providing a controller interface, such as controller interface 400 shown in FIG. . Controller interface 400 includes playback control area 410 , playback zone area 420 , playback status area 430 , playback queue area 440 , and audio content source area 450 . The illustrated user interface 400 is merely one example of a user interface provided with a network device (and/or control devices 126 and 128 of FIG. 1), such as control device 300 of FIG. It is accessed to control a media playback system such as system 100 . Alternatively, various formats, styles, and interactive sequences may be implemented to interface other users to one or more network devices to provide similar control access to the media playback system.

再生制御領域410は、(例えば、タッチ又はカーソルを用いることで)選択可能なアイコンを含んでもよい。このアイコンによって、選択された再生ゾーン又はゾーングループ内の再生デバイスが、再生又は停止、早送り、巻き戻し、次にスキップ、前にスキップ、シャッフルモードのオン/オフ、リピートモードのオン/オフ、クロスフェードモードのオン/オフを行う。再生制御領域410は、別の選択可能なアイコンを含んでもよい。別の選択可能なアイコンは、イコライゼーション設定、再生ボリュームなど他の設定などを変更してもよい。 The playback control area 410 may include selectable icons (eg, by touch or using a cursor). This icon indicates whether the playback device within the selected play zone or zone group is play or stop, fast forward, rewind, skip next, skip back, shuffle mode on/off, repeat mode on/off, cross Turns fade mode on/off. Playback control area 410 may include other selectable icons. Other selectable icons may change other settings such as equalization settings, playback volume, and the like.

再生ゾーン領域420は、メディア再生システム100内の再生ゾーンの表示を含んでもよい。ある実施形態では、再生ゾーンのグラフィック表示が選択可能であってもよい。追加の選択可能なアイコンを移動させることによって、メディア再生システム内の再生ゾーンを管理又は構成することができる。例えば、結合ゾーンの作成、ゾーングループの作成、ゾーングループの分割、およびゾーングループのリネームなど他の管理又は構成を行うことができる。 Play zone area 420 may include a representation of the play zones within media playback system 100 . In some embodiments, a graphical representation of play zones may be selectable. Play zones within the media playback system can be managed or configured by moving additional selectable icons. For example, other management or configuration may be performed, such as creating combined zones, creating zone groups, splitting zone groups, and renaming zone groups.

例えば、図示されるように、「グループ」アイコンは、再生ゾーンのグラフィック表示のそれぞれに設けられてもよい。あるゾーンのグラフィック表示内の「グループ」アイコンは、メディア再生システム内の1つ又は複数のゾーンを選択して、あるゾーンとグループ化するオプションを出せるように選択可能であってもよい。一度グループ化すると、あるゾーンとグループ化されたゾーン内の再生デバイスは、あるゾーン内の再生デバイスと同期してオーディオコンテンツを再生するように構成される。同様に、「グループ」アイコンは、ゾーングループのグラフィック表示内に設けられてもよい。この場合、「グループ」アイコンは、ゾーングループ内の1つ又は複数のゾーンをゾーングループから取り除くために、ゾーングループ内の1つ又は複数のゾーンを選択から外すというオプションを出すように選択可能であってもよい。ユーザインタフェース400等のユーザインタフェースを介してゾーンをグループ化およびグループ解除するための他の対話をすることも可能であるし、実施することも可能である。再生ゾーン領域420内の再生ゾーンの表示は、再生ゾーン又はゾーングループ構成が変更されると、動的に更新されてもよい。 For example, as shown, a "group" icon may be provided in each of the graphical representations of the play zones. A "group" icon within the graphical representation of a zone may be selectable to provide an option to select one or more zones within the media playback system to group with a zone. Once grouped, a zone and the playback devices within the grouped zones are configured to play the audio content in sync with the playback devices within the zone. Similarly, a "group" icon may be provided within the graphical representation of the zone group. In this case, the "group" icon can be selected to provide an option to deselect one or more zones within the zonegroup to remove one or more zones within the zonegroup from the zonegroup. There may be. Other interactions for grouping and ungrouping zones are possible and may be implemented via a user interface such as user interface 400 . The display of play zones in play zone area 420 may be dynamically updated as the play zone or zone group configuration is changed.

再生ステータス領域430は、現在再生されているオーディオコンテンツ、前に再生されたオーディオコンテンツ、又は選択された再生ゾーン又はゾーングループ内で次に再生するように予定されているオーディオコンテンツ、のグラフィック表示を含んでもよい。選択可能な再生ゾーン又は再生グループは、ユーザインタフェース上で、例えば、再生ゾーン領域420および/又は再生ステータス領域430内で視覚的に区別されてもよい。グラフィック表示は、トラックタイトル、アーティスト名、アルバム名、アルバム年、トラックの長さ、およびメディア再生システムを、ユーザインタフェース400を介して制御するときに、ユーザにとって有益な他の関連情報を含んでいてもよい。 Play status area 430 provides a graphical representation of the audio content currently being played, previously played, or scheduled to play next within the selected play zone or group of zones. may contain. Selectable play zones or play groups may be visually distinguished on the user interface, for example, within play zone area 420 and/or play status area 430 . The graphical display includes track title, artist name, album name, album year, track length, and other relevant information useful to the user when controlling the media playback system via user interface 400. good too.

再生キュー領域440は、選択された再生ゾーン又はゾーングループと関連付けられた再生キュー内のオーディオコンテンツのグラフィック表示を含んでもよい。ある実施形態では、それぞれの再生ゾーン又はゾーングループは、再生ゾーン又は再生グループによって再生される0以上のオーディオアイテムに対応する情報を含む再生キューと関連付けられていてもよい。例えば、再生キュー内のそれぞれのオーディオアイテムは、ユー・アール・アイ(URI)、ユー・アール・エル(URL)、又は再生ゾーン又はゾーングループ内の再生デバイスによって使用可能な他の識別子を含んでいてもよい。これらによって、ローカルオーディオコンテンツソース又はネットワークオーディオコンテンツソース、からオーディオアイテムを見つけ、および/又は取り出し、再生デバイスによって再生することができる。 Play queue area 440 may include a graphical representation of the audio content in the play queue associated with the selected play zone or zone group. In some embodiments, each play zone or zone group may be associated with a play queue containing information corresponding to zero or more audio items to be played by the play zone or play group. For example, each audio item in the playback queue may contain a user identifier (URI), user URL (URL), or other identifier usable by playback devices within a playback zone or zone group. You can These allow audio items to be located and/or retrieved from local or network audio content sources and played by a playback device.

ある例では、プレイリストが再生キューに追加されてもよい。この場合、プレイリスト内のそれぞれのオーディオアイテムに対応する情報が再生キューに追加されてもよい。別の例では、再生キュー内のオーディオアイテムは、プレイリストとして保存されてもよい。更に別の例では、再生デバイスがストリーミングオーディオコンテンツ、例えば、再生時間を有することで連続して再生されないオーディオアイテムよりも、停止しない限り連続して再生されるインターネットラジオを再生し続けているとき、再生キューは、空であってもよいし、又は「未使用」であるが埋められていてもよい。別の実施形態では、再生キューは、インターネットラジオおよび/又は他のストリーミングオーディオコンテンツアイテムを含むことができ、且つ再生ゾーン又はゾーングループがそれらのアイテムを再生しているとき「未使用」とすることができる。他の例も可能である。 In one example, a playlist may be added to the play queue. In this case, information corresponding to each audio item in the playlist may be added to the play queue. In another example, the audio items in the play queue may be saved as a playlist. In yet another example, when a playback device continues to play streaming audio content, e.g., an Internet radio that plays continuously unless stopped, rather than an audio item that has a play time that does not play continuously, The play queue may be empty, or "unused" but filled. In another embodiment, the play queue may contain Internet radio and/or other streaming audio content items, and be "unused" when a play zone or zone group is playing those items. can be done. Other examples are possible.

再生ゾーン又はゾーングループが「グループ化される」か、又は「グループ解除」されるとき、影響を受ける再生ゾーン又はゾーングループに関連付けられた再生キューは、クリアされてもよいし、又は再び関連付けられてもよい。例えば、第1再生キューを含む第1再生ゾーンが、第2再生キューを含む第2再生ゾーンとグループ化された場合、形成されたゾーングループは、関連付けられた再生キューを有していてもよい。関連付けられた再生キューは、最初は空であるか、(例えば、第2再生ゾーンが第1再生ゾーンに追加された場合、)第1再生キューのオーディオアイテムを含むか、(例えば、第1再生ゾーンが第2再生ゾーンに追加された場合、)第2再生キューのオーディオアイテムを含むか、又は第1再生キューと第2再生キューとの両方のオーディオアイテムを組み合わせられる。その後、形成されたゾーングループがグループ解除された場合、グループ解除された第1再生ゾーンは、前の第1再生キューと再び関連付けられてもよいし、空の新しい再生キューと関連付けられてもよいし、あるいはゾーングループがグループ解除される前にゾーングループと関連付けられていた再生キューのオーディオアイテムを含む新しい再生キューと関連付けられてもよい。同様に、グループ解除された第2再生ゾーンは、前の第2再生キューと再び関連付けられてもよいし、空の新しい再生キューと関連付けられてもよいし、あるいはゾーングループがグループ解除される前にゾーングループと関連付けられていた再生キューのオーディオアイテムを含む新しい再生キューと関連付けられてもよい。 When a play zone or zone group is "grouped" or "ungrouped," the play queue associated with the affected play zone or zone group may be cleared or reassociated. may For example, if a first play zone containing a first play cue is grouped with a second play zone containing a second play cue, the formed zone group may have an associated play cue. . The associated play queue is initially empty, contains the audio items of the first play queue (e.g. when a second play zone is added to the first play zone), or contains audio items of the first play queue (e.g. If a zone is added to the second play zone, it may include audio items from the second play cue, or it may combine audio items from both the first and second play queues. Subsequently, if the formed zone group is ungrouped, the ungrouped first play zone may be re-associated with the previous first play queue, or may be associated with an empty new play queue. Alternatively, the zonegroup may be associated with a new play queue containing audio items from the play queue that was associated with the zonegroup before it was ungrouped. Similarly, the ungrouped secondary play zone may be reassociated with the previous secondary play queue, may be associated with an empty new play queue, or may be associated with a new play queue that is empty, or may be ungrouped before the zone group is ungrouped. may be associated with a new play queue containing audio items from the play queue that were previously associated with the zone group.

図4のユーザインタフェース400に戻って、再生キュー領域440内のオーディオコンテンツのグラフィック表示は、トラックタイトル、アーティスト名、トラックの長さ、および再生キュー内のオーディオコンテンツと関連付けられた他の関連情報を含んでいてもよい。ある例では、オーディオコンテンツのグラフィック表示は、追加の選択可能なアイコンを選択して移動させることができる。これにより、再生キューおよび/又は再生キューに表示されたオーディオコンテンツを管理および/又は操作することができる。例えば、表示されたオーディオコンテンツは、再生キューから取り除いてもよいし、再生キュー内の異なる位置に移動させてもよいし、すぐに再生させるか若しくは現在再生しているオーディオコンテンツの後に再生するように選択されてもよいし、あるいは他の動作を実行してもよい。再生ゾーン又はゾーングループに関連付けられた再生キューは、再生ゾーン又はゾーングループ内の1つ又は複数の再生デバイスのメモリ、再生ゾーン又はゾーングループに入っていない再生デバイスのメモリ、および/又は他の指定のデバイスのメモリに記憶されていてもよい。 Returning to user interface 400 of FIG. 4, the graphical representation of the audio content in play queue area 440 displays the track title, artist name, track length, and other pertinent information associated with the audio content in the play queue. may contain. In one example, the graphical representation of the audio content can be moved by selecting additional selectable icons. This allows the playback queue and/or the audio content displayed in the playback queue to be managed and/or manipulated. For example, the displayed audio content may be removed from the playback queue, moved to a different position in the playback queue, played immediately, or played after the currently playing audio content. may be selected, or other actions may be performed. A playback queue associated with a playback zone or zone group may be stored in the memory of one or more playback devices within the playback zone or zone group, the memory of playback devices not in the playback zone or zone group, and/or other designations. may be stored in the memory of the device.

オーディオコンテンツソース領域450は、選択可能なオーディオコンテンツソースのグラフィック表示を含んでいてもよい。このオーディオコンテンツソースにおいては、オーディオコンテンツが選択された再生ゾーン又はゾーングループによって取り出され、再生されてもよい。オーディオコンテンツソースに関する説明は、以降のセクションを参照することができる。 Audio content source area 450 may include a graphical representation of selectable audio content sources. In this audio content source, audio content may be retrieved and played by a selected play zone or zone group. A discussion of audio content sources can be found in the sections below.

d.例示的なオーディオコンテンツソース
前回図示したように、ゾーン又はゾーングループ内の1つ又は複数の再生デバイスは、再生するオーディオコンテンツを、(例えば、オーディオコンテンツの対応するURI又はURLに基づいて、)複数の入手可能なオーディオコンテンツソースから取り出すように構成されていてもよい。ある例では、オーディオコンテンツは、再生デバイスによって、対応するオーディオコンテンツソース(例えば、ライン-イン接続)から直接取り出されてもよい。別の例では、オーディオコンテンツは、1つ又は複数の他の再生デバイス若しくはネットワークデバイスを介してネットワーク上の再生デバイスに提供されてもよい。
d. Exemplary Audio Content Sources As previously illustrated, one or more playback devices within a zone or zone group may select audio content for playback (e.g., based on the audio content's corresponding URI or URL). available audio content sources. In some examples, audio content may be retrieved directly by a playback device from a corresponding audio content source (eg, a line-in connection). In another example, audio content may be provided to playback devices on a network via one or more other playback devices or network devices.

例示的なオーディオコンテンツソースは、メディア再生システム内の1つ又は複数の再生デバイスのメモリを含んでもよい。メディア再生システムとしては、例えば、図1のメディア再生システム100、1つ又は複数のネットワークデバイス上のローカルミュージックライブラリ(例えば、制御デバイス、ネットワーク対応のパーソナルコンピュータ、又はネットワーク接続ストレージ(NAS)など)、インターネット(例えば、クラウド)を介してオーディオコンテンツを提供するストリーミングオーディオサービス、あるいは再生デバイス又はネットワークデバイスのライン-イン入力接続を介してメディア再生システムに接続されるオーディオソース、他の可能なシステムであってもよい。 Exemplary audio content sources may include the memory of one or more playback devices within a media playback system. Media playback systems include, for example, the media playback system 100 of FIG. 1, a local music library on one or more network devices (e.g., a control device, a network-enabled personal computer, or a network-attached storage (NAS), etc.); Streaming audio services that provide audio content over the Internet (e.g., the cloud), or audio sources connected to media playback systems via line-in connections of playback devices or network devices, or other possible systems. may

ある実施形態では、オーディオコンテンツソースは、図1のメディア再生システム100などのようなメディア再生システムに定期的に追加されてもよいし、定期的に取り除かれてもよい。ある例では、1つ又は複数のオーディオコンテンツソースが追加される、取り除かれる、又は更新される度に、オーディオアイテムのインデックス付けが行われてもよい。オーディオアイテムのインデックス付けは、ネットワーク上で共有される全てのフォルダ/ディレクトリ内の識別可能なオーディオアイテムをスキャンすることを含んでもよい。ここで、ネットワークは、メディア再生システム内の再生デバイスによってアクセス可能である。また、オーディオアイテムのインデックス付けは、メタデータ(例えば、タイトル、アーティスト、アルバム、トラックの長さなど)と他の関連情報とを含むオーディオコンテンツデータベースを作成すること、又は更新すること、を含んでもよい。他の関連情報とは、例えば、それぞれの識別可能なオーディオアイテムを見つけるためのURI又はURLを含んでもよい。オーディオコンテンツソースを管理し、且つ維持するための他の例も可能である。 In some embodiments, audio content sources may be periodically added to or removed from a media playback system, such as media playback system 100 of FIG. In one example, audio items may be indexed whenever one or more audio content sources are added, removed, or updated. Indexing audio items may include scanning for identifiable audio items in all folders/directories shared on the network. Here, the network is accessible by playback devices within the media playback system. Indexing audio items may also include creating or updating an audio content database containing metadata (e.g., title, artist, album, track length, etc.) and other relevant information. good. Other relevant information may include, for example, a URI or URL for locating each identifiable audio item. Other examples for managing and maintaining audio content sources are possible.

再生デバイス、制御デバイス、再生ゾーン構成、およびメディアコンテンツソースに関しての上述した説明は、以降で述べられている機能および方法を実施可能ないくつかの例示的な動作環境のみを提供している。本発明は、本明細書で明示的に述べられていないメディア再生システム、再生デバイス、およびネットワークデバイスの他の動作環境および構成であっても適用可能であり、その機能および方法を実施するのに適している。 The above descriptions of playback devices, control devices, playback zone configurations, and media content sources provide only some exemplary operating environments in which the functions and methods described below can be implemented. The invention is applicable to other operating environments and configurations of media playback systems, playback devices, and network devices not expressly described herein, and may implement its features and methods. Are suitable.

III.信号処理アルゴリズムのデータベースの保守
上述したように、本明細書で説明される幾つかの例は、オーディオ処理アルゴリズムのデータベースを保守することに関連する。幾つかの場合において、データベースの保守は、さらに、データベースについてのオーディオ処理アルゴリズムのエントリを生成及び/又は更新することを含んでもよい。データベースにおけるオーディオ処理アルゴリズムのそれぞれは、再生ゾーンの1つ又は複数の特性に対応することができる。ある例では、再生ゾーンの1つ又は複数の特性は、再生ゾーンの音響特性を含んでもよい。以下の説明は、一般に、データベース内のエントリとして記憶されるオーディオ処理アルゴリズムを決定することに関する。しかし、当業者は、類似の機能がデータベース内の既存のエントリを更新するために実行されてもよいことを理解するであろう。データベースにアクセスして、特定の再生ゾーンにおけるオーディオコンテンツを再生するときに、再生デバイスが適用するオーディオ処理アルゴリズムを特定することができる。
III. Maintaining a Database of Signal Processing Algorithms As noted above, some examples described herein relate to maintaining a database of audio processing algorithms. In some cases, maintaining the database may also include creating and/or updating audio processing algorithm entries for the database. Each of the audio processing algorithms in the database can correspond to one or more characteristics of the playback zone. In some examples, one or more properties of the play zone may include acoustic properties of the play zone. The following description generally relates to determining audio processing algorithms that are stored as entries in a database. However, those skilled in the art will appreciate that similar functions may be performed to update existing entries in the database. A database can be accessed to identify the audio processing algorithms that a playback device will apply when playing audio content in a particular playback zone.

a.オーディオ処理アルゴリズム及び再生ゾーンの対応する音響特性の例示的データベース
図5は、オーディオ処理アルゴリズム及び再生ゾーン音響特性のデータベースを保守する方法500の例示的なフロー図を示している。上述したように、オーディオ処理アルゴリズムのデータベースを保守することは、データベースに記憶されるオーディオ処理アルゴリズムを決定することを含んでもよい。図5に示される方法500は、例えば、図1のメディア再生システム100、図2の1つ又は複数の再生デバイス200、及び図3の1つ又は複数の制御デバイス300を含む動作環境内で実施されうる方法の実施形態を表している。ある例では、方法500は、メディア再生システム100などのメディア再生システムと通信するコンピューティングデバイスによって実行されうる。別の例では、方法500の幾つか又は全ての機能は、代替的に、1つ又は複数のサーバ、1つ又は複数の再生デバイス、及び/又は1つ又は複数のコントローラデバイスなどの1つ又は複数の他のコンピューティングデバイスによって実行されてもよい。
a. Exemplary Database of Audio Processing Algorithms and Corresponding Acoustic Properties of Play Zones FIG. 5 illustrates an exemplary flow diagram of a method 500 for maintaining a database of audio processing algorithms and play zone acoustic properties. As noted above, maintaining the database of audio processing algorithms may include determining the audio processing algorithms stored in the database. The method 500 illustrated in FIG. 5 may be implemented within an operating environment including, for example, the media playback system 100 of FIG. 1, one or more playback devices 200 of FIG. 2, and one or more control devices 300 of FIG. 3 illustrates an embodiment of a method that may be performed. In one example, method 500 may be performed by a computing device in communication with a media playback system, such as media playback system 100 . In another example, some or all of the functions of method 500 are alternatively performed by one or more servers, such as one or more servers, one or more playback devices, and/or one or more controller devices. It may be executed by multiple other computing devices.

方法500は、ブロック502-510の1つ又は複数によって構成されるように、1つ又は複数の操作、機能、又は動作を含んでもよい。ブロックはそれぞれ順番に示されているが、これらのブロックは並行して行われてもよいし、および/又は、本明細書で述べられている順番と異なる順番で行われてもよい。また、所望の実施内容に応じて、ブロックを少なくしてもよいし、増やして分割してもよいし、および/又は取り除いてもよい。さらに、フローチャートは、方法500並びに本明細書で開示されている他の処理および方法に関して、本実施形態の実施可能な機能および動作の例を示している。これに関して、各ブロックは、プロセッサによって実行されるとプロセスにおける特定のロジカル機能又はステップを実行させる1つ又は複数の命令を記憶した、モジュール、セグメント、あるいはプログラムコードの一部を示していてもよい。プログラムコードは例えば、ディスク又はハードドライブを含む記憶デバイスなど、任意のタイプのコンピュータ読み取り可能記録媒体に記憶されてもよい。 Method 500 may include one or more operations, functions, or actions as constituted by one or more of blocks 502-510. Although each block is shown in sequence, these blocks may be performed in parallel and/or in an order other than the order presented herein. Also, fewer blocks, more blocks may be divided, and/or removed depending on the desired implementation. Further, the flowcharts illustrate examples of possible functionality and operations of the present embodiments with respect to method 500 as well as other processes and methods disclosed herein. In this regard, each block may represent a module, segment, or portion of program code that stores one or more instructions that, when executed by a processor, cause a particular logical function or step in the process to be performed. . The program code may be stored on any type of computer readable recording medium such as storage devices including, for example, disks or hard drives.

コンピュータ読み取り可能記録媒体は、非一時的なコンピュータ読み取り可能記録媒体、例えば、レジスタメモリ、プロセッサキャッシュ、およびランダム・アクセス・メモリ(RAM)などのように短時間データを記憶するコンピュータ読み取り可能媒体を含んでもよい。コンピュータ読み取り可能媒体は、非一時的なメディア、例えば、リード・オンリ・メモリ(ROM)、光ディスク、磁気ディスク、コンパクトディスク・リード・オンリ・メモリ(CD-ROM)等の長期間の記憶が可能な二次記憶装置又は永続記憶装置を含んでもよい。コンピュータ読み取り可能媒体は、その他の任意の揮発性記憶システム又は不揮発性記憶システムであってもよい。コンピュータ読み取り可能媒体は例えば、コンピュータ読み取り可能記録媒体、即ち、有形の記憶デバイスとみなされてもよい。また、方法500並びに本明細書に開示されたその他の処理および方法において、各ブロックは回路を示していてもよく、その回路は処理において、ある論理機能を実行するために有線接続されている。 Computer-readable recording media include computer-readable media that store data for short periods of time, such as non-transitory computer-readable recording media, such as register memory, processor cache, and random access memory (RAM). It's okay. Computer-readable media are non-transitory media capable of long-term storage, such as read-only memory (ROM), optical discs, magnetic discs, compact disc-read-only memory (CD-ROM), etc. It may also include secondary or permanent storage. A computer-readable medium may be any other volatile or non-volatile storage system. A computer-readable medium, for example, may be considered a computer-readable recording medium or a tangible storage device. Also, in method 500 and other processes and methods disclosed herein, each block may represent a circuit that is hardwired to perform some logical function in the process.

図5に示されるように、方法500は、コンピューティングデバイスにより、再生ゾーン内の再生デバイスに、第1のオーディオ信号を再生させ(ブロック502)、再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを受信し(ブロック504)、第2のオーディオ信号及び再生デバイスの特性に基づいて、再生ゾーンの音響特性を決定し(ブロック506)、再生ゾーンの音響特性に基づいて、オーディオ処理アルゴリズムを決定し(ブロック508)、オーディオ処理アルゴリズムと再生ゾーンの音響特性との関連付けをデータベースに記憶させる(ブロック510)。 As shown in FIG. 5, a method 500 causes a computing device to cause a playback device within a playback zone to play a first audio signal (block 502) and a second audio signal detected by a microphone of the playback device. receiving data indicative of the signal (block 504); determining acoustic characteristics of the playback zone based on the second audio signal and characteristics of the playback device (block 506); audio processing based on the acoustic characteristics of the playback zone; An algorithm is determined (block 508) and an association between the audio processing algorithm and the acoustic properties of the play zone is stored in a database (block 510).

前述したように、データベースにアクセスして、再生ゾーンにおけるオーディオコンテンツの再生時に再生デバイスが適用するオーディオ処理アルゴリズムを、特定することができる。そのため、ある例では、方法500は、様々な異なる再生ゾーンについて実行されて、様々な異なる再生環境に対応するオーディオ処理アルゴリズムのデータベースが構築される。 As noted above, a database may be accessed to identify the audio processing algorithms to be applied by the playback device when playing audio content in the playback zone. Thus, in one example, method 500 is performed for a variety of different playback zones to build a database of audio processing algorithms corresponding to a variety of different playback environments.

方法500は、ブロック502において、再生ゾーン内の再生デバイスに、第1のオーディオ信号を再生させることを含む。再生デバイスは、図2に示される再生デバイス200と同様の再生デバイスであってもよい。ある場合では、コンピューティングデバイスは、第1のオーディオ信号を再生させるコマンドを送信することによって、再生デバイスに第1のオーディオ信号を再生させてもよい。別の場合では、コンピューティングデバイスは、再生されるべき第1のオーディオ信号を再生デバイスに提供してもよい。 The method 500 includes causing a playback device within a playback zone to play a first audio signal at block 502 . The playback device may be a playback device similar to playback device 200 shown in FIG. In some cases, the computing device may cause the playback device to play the first audio signal by sending a command to play the first audio signal. In other cases, the computing device may provide the playback device with the first audio signal to be played.

ある例では、第1のオーディオ信号は、再生ゾーンの音響応答を決定するために使用されてもよい。そのため、第1のオーディオ信号は、ユーザによる通常使用中に再生デバイスによって再生されうるオーディオコンテンツを表す検査信号又は測定信号であってもよい。したがって、第1のオーディオ信号は、再生デバイスのレンダリング可能な周波数レンジ又は人間の可聴周波数レンジを実質的にカバーする周波数を有するオーディオコンテンツを含んでもよい。 In one example, the first audio signal may be used to determine the acoustic response of the play zone. As such, the first audio signal may be a test or measurement signal representative of audio content that may be played by a playback device during normal use by a user. Accordingly, the first audio signal may include audio content having frequencies that substantially cover the renderable frequency range of the playback device or the human audible frequency range.

ある例では、再生ゾーンは、再生デバイスがユーザによる通常使用中にオーディオコンテンツを再生することができる複数の再生環境のうちの1つを表す再生ゾーンであってもよい。図1を参照すると、再生ゾーンは、メディア再生システム100における異なる部屋及びゾーングループのうちのいずれか1つを表すことができる。例えば、再生ゾーンは、ダイニングルームを表していてもよい。 In one example, the playback zone may be a playback zone that represents one of multiple playback environments in which the playback device may play audio content during normal use by a user. Referring to FIG. 1, a play zone can represent any one of different rooms and zone groups in media playback system 100 . For example, a play zone may represent a dining room.

ある例では、再生ゾーンは、再生デバイスがオーディオコンテンツを再生することができるリスニング環境をシミュレートするために構築されたモデル再生ゾーンであってもよい。ある例では、再生ゾーンは、複数の再生環境をシミュレートするために構築された複数の再生ゾーンのうちの1つであってもよい。複数の再生ゾーンは、そのようなオーディオ処理アルゴリズムのデータベースを作成する目的のために構築されてもよい。そのような場合、再生ゾーンの特定の特性は、予め決められていてもよいし及び/又は公知のものであってもよい。例えば、いくつかある可能性の中でも特に、再生ゾーンの寸法、再生ゾーンの床材若しくは壁材(又は再生ゾーンのオーディオ反射特性に影響を与えることがある他の特徴)、再生ゾーン内の家具の数、又は再生ゾーン内の家具のサイズ及び種類は、予め決められた及び/又は公知の再生ゾーンの特性であってもよい。 In one example, the playback zone may be a model playback zone constructed to simulate a listening environment in which a playback device can play audio content. In one example, the play zone may be one of multiple play zones constructed to simulate multiple play environments. Multiple play zones may be constructed for the purpose of creating a database of such audio processing algorithms. In such cases, certain characteristics of the regeneration zone may be predetermined and/or known. For example, the dimensions of the playback zone, the flooring or walling of the playback zone (or other features that may affect the audio reflection properties of the playback zone), the furniture within the playback zone, among other possibilities. The number, or size and type of furniture within the regeneration zone may be predetermined and/or known characteristics of the regeneration zone.

別の場合では、再生ゾーンは、再生デバイスのユーザの家庭内の部屋であってもよい。例えば、データベースの構築の一部として、顧客及び/又は試験者などの再生デバイスのユーザは、ユーザの再生デバイスを使用して、方法500の機能を実行してデータベースを構築するように要請されることがある。幾つかの場合において、ユーザ再生ゾーンの特定の特性は不明であってもよい。幾つかの他の場合において、ユーザ再生ゾーンの特定の特性の一部又は全てがユーザによって提供されてもよい。方法500の機能を実行することによって作成されたデータベースは、シミュレートされた再生ゾーン及び/又はユーザ再生ゾーンに基づくエントリを含んでもよい。 In other cases, the playback zone may be a room in the home of the user of the playback device. For example, as part of building the database, a user of a playback device, such as a customer and/or tester, is asked to use the user's playback device to perform the functions of method 500 to build the database. Sometimes. In some cases, the specific characteristics of the user play zone may be unknown. In some other cases, some or all of the specific characteristics of the user play zone may be provided by the user. The database created by performing the functions of method 500 may include entries based on simulated play zones and/or user play zones.

ブロック502はコンピューティングデバイスを含み、そのコンピューティングデバイスは、再生デバイスに第1のオーディオ信号を再生させる。しかし、当業者は、再生デバイスによる第1のオーディオ信号の再生が、必ずしもコンピューティングデバイスによって引き起こされるか又は開始されなくてもよいことを理解するであろう。例えば、コントローラデバイスは、再生デバイスにコマンドを送信して、再生デバイスに第1のオーディオ信号を再生させてもよい。別の例において、再生デバイスは、コンピューティングデバイス又はコントローラからコマンドを受信することなく、第1のオーディオ信号を再生してもよい。他の例もまた可能である。 Block 502 includes a computing device that causes a playback device to play the first audio signal. However, those skilled in the art will appreciate that the playback of the first audio signal by the playback device need not necessarily be caused or initiated by the computing device. For example, the controller device may send a command to the playback device to cause the playback device to play the first audio signal. In another example, the playback device may play the first audio signal without receiving commands from the computing device or controller. Other examples are also possible.

方法500は、ブロック504において、再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを受信することを含む。上述したように、再生デバイスは、図2に示される再生デバイス200と同様の再生デバイスであってもよい。そのため、マイクロホンは、マイクロホン220であってもよい。ある例では、コンピューティングデバイスは、再生デバイスからデータを受信してもよい。別の例において、コンピューティングデバイスは、他の再生デバイス、コントローラデバイス又は他のサーバを介してデータを受信してもよい。 Method 500 includes, at block 504, receiving data indicative of a second audio signal detected by a microphone of a playback device. As noted above, the playback device may be a playback device similar to playback device 200 shown in FIG. As such, the microphone may be microphone 220 . In one example, a computing device may receive data from a playback device. In another example, a computing device may receive data via other playback devices, controller devices, or other servers.

再生デバイスが第1のオーディオ信号を再生しているとき又はその後まもなく、再生デバイスのマイクロホンは、第2のオーディオ信号を検出してもよい。第2のオーディオ信号は、再生ゾーン内に存在する検出可能なオーディオ信号を含んでもよい。例えば、第2のオーディオ信号は、再生デバイスによって再生された第1のオーディオ信号に対応する部分を含んでもよい。 When the playback device is playing the first audio signal, or shortly thereafter, a microphone of the playback device may detect the second audio signal. The second audio signal may include a detectable audio signal present within the play zone. For example, the second audio signal may include portions corresponding to the first audio signal reproduced by the reproduction device.

ある例では、マイクロホンが第2のオーディオ信号を検出するとき、コンピューティングデバイスは、メディアストリームとして、再生デバイスから検出された第2のオーディオ信号を示すデータを受信してもよい。別の例では、コンピューティングデバイスは、再生デバイスのマイクロホンによる第1のオーディオ信号の検出が完了すると、第2のオーディオ信号を示すデータを再生デバイスから受信してもよい。いずれの場合においても、再生デバイスは、(再生デバイス200のオーディオ処理コンポーネント208などのオーディオ処理コンポーネントを介して)検出された第2のオーディオ信号を処理して、第2のオーディオ信号を示すデータを生成し、コンピューティングデバイスにそのデータを送信してもよい。ある例では、第2のオーディオ信号を示すデータを生成することは、アナログ信号からデジタル信号に第2のオーディオ信号を変換することを含んでもよい。他の例もまた可能である。 In one example, the computing device may receive data indicative of the detected second audio signal from the playback device as a media stream when the microphone detects the second audio signal. In another example, the computing device may receive data indicative of the second audio signal from the playback device upon completion of detection of the first audio signal by the playback device's microphone. In either case, the playback device processes the detected second audio signal (via an audio processing component, such as audio processing component 208 of playback device 200) to generate data indicative of the second audio signal. may be generated and transmitted to the computing device. In some examples, generating data indicative of the second audio signal may include converting the second audio signal from an analog signal to a digital signal. Other examples are also possible.

方法500は、ブロック506において、第2のオーディオ信号及び再生デバイスの特性に基づいて、再生ゾーンの音響特性を決定することを含む。上述したように、第2のオーディオ信号は、再生ゾーンにおいて再生デバイスによって再生された第1のオーディオ信号に対応する部分を含んでもよい。 The method 500 includes determining acoustic characteristics of the playback zone based on the characteristics of the second audio signal and the playback device at block 506 . As mentioned above, the second audio signal may include portions corresponding to the first audio signal reproduced by the reproduction device in the reproduction zone.

再生デバイスの特性は、再生デバイスの音響特性、再生デバイスの仕様(すなわち、トランスデューサの数、周波数レンジ、増幅器ワット数など)、及び再生デバイスのモデルのうちの1つ又は複数を含んでもよい。幾つかの場合において、再生デバイスの音響特性及び/又は再生デバイスの仕様は、再生デバイスのモデルと関連付けられてもよい。例えば、再生デバイスの特定のモデルは、実質的に同一の仕様及び音響特性を有してもよい。ある例では、再生デバイスのモデルのデータベース、再生デバイスのモデルの音響特性、及び/又は再生デバイスのモデルの仕様は、コンピューティングデバイス又はコンピューティングデバイスと通信する他のデバイス上で保守されうる。 The characteristics of the playback device may include one or more of the acoustic characteristics of the playback device, playback device specifications (ie, number of transducers, frequency range, amplifier wattage, etc.), and playback device model. In some cases, the acoustic characteristics of a playback device and/or playback device specifications may be associated with a model of the playback device. For example, particular models of playback devices may have substantially identical specifications and acoustic characteristics. In some examples, a database of models of playback devices, acoustic properties of models of playback devices, and/or specifications of models of playback devices may be maintained on the computing device or other device in communication with the computing device.

ある例では、再生ゾーン内で第1のオーディオ信号を再生する再生デバイスからの音響応答は、第1のオーディオ信号と第2のオーディオ信号との間の関係によって表すことができる。数学的に、第1のオーディオ信号がf(t)であり、第2のオーディオ信号がs(t)であり、且つ再生ゾーン内で第1のオーディオ信号を再生する再生デバイスの音響応答がh(t)である場合、下記式(1)になる。 In one example, an acoustic response from a playback device playing a first audio signal within a playback zone can be represented by a relationship between the first audio signal and the second audio signal. Mathematically, the first audio signal is f(t), the second audio signal is s(t), and the acoustic response of a reproduction device reproducing the first audio signal within the reproduction zone is h In the case of r (t), the following formula (1) is obtained.

Figure 2022163061000002
そのため、再生デバイスのマイクロホンによって検出される第2のオーディオ信号s(t)及び再生デバイスによって再生された第1の信号f(t)が与えられると、h(t)を計算することができる。
Figure 2022163061000002
So, given the second audio signal s(t) detected by the microphone of the reproduction device and the first signal f(t) reproduced by the reproduction device, h r (t) can be calculated .

ある場合では、第1のオーディオ信号f(t)が再生デバイスによって再生されることから、音響応答h(t)は、(i)再生デバイスの音響特性及び(ii)再生デバイスとは独立した再生ゾーンの音響特性を含んでもよい。数学的に、この関係は、下記式(2)として表すことができる。 In some cases, since the first audio signal f(t) is played by a playback device, the acoustic response h r (t) is independent of (i) the acoustic properties of the playback device and (ii) the playback device It may also include the acoustic properties of the play zone. Mathematically, this relationship can be expressed as equation (2) below.

Figure 2022163061000003
ここで、h(t)は、再生デバイスの音響特性であり、hroom(t)は、再生デバイスとは独立した再生ゾーンの音響特性である。そのため、再生デバイスとは独立した再生ゾーンの音響特性は、再生ゾーンの音響応答から再生デバイスによって再生された第1のオーディオ信号へと再生デバイスの音響特性を除去することによって決定されうる。換言すれば、下記式(3)になる。
Figure 2022163061000003
where h p (t) is the acoustic property of the playback device and h room (t) is the acoustic property of the playback zone independent of the playback device. As such, the acoustic properties of the playback zone independent of the playback device can be determined by subtracting the acoustic properties of the playback device from the acoustic response of the playback zone into the first audio signal played by the playback device. In other words, the following formula (3) is obtained.

Figure 2022163061000004
Figure 2022163061000004

ある例では、再生デバイスの音響特性h(t)は、無響室において再生デバイス又は同一のモデルの代表的な再生デバイスを配置し、再生デバイスに無響室内で測定信号を再生させ、再生デバイスのマイクロホンによって応答信号を検出することによって、決定されうる。無響室において再生デバイスによって再生された測定信号は、上述した第1のオーディオ信号f(t)に類似していてもよい。例えば、測定信号は、再生デバイスのレンダリング可能な周波数レンジ又は人間の可聴周波数レンジを実質的にカバーする周波数を有するオーディオコンテンツを含むことができる。 In one example, the acoustic properties h p (t) of a playback device can be determined by placing the playback device or a representative playback device of the same model in an anechoic room, having the playback device play back the measured signal in the anechoic room, playing It can be determined by detecting the response signal with the device's microphone. The measured signal reproduced by the reproduction device in the anechoic chamber may resemble the first audio signal f(t) described above. For example, the measurement signal may contain audio content having frequencies that substantially cover the renderable frequency range of the playback device or the human audible frequency range.

再生デバイスの音響特性h(t)は、再生された測定信号と検出された応答信号との間の関係を表すことができる。例えば、測定信号が特定の周波数において第1の信号の大きさを有し且つ検出された応答信号がその特定の周波数において第1の信号の大きさとは異なる第2の信号の大きさを有する場合、再生デバイスの音響特性h(t)は、特定の周波数において信号の増幅又は減衰を示すことができる。 The acoustic properties h p (t) of the reproduction device can represent the relationship between the reproduced measurement signal and the detected response signal. For example, if the measurement signal has a first signal magnitude at a particular frequency and the detected response signal has a second signal magnitude at that particular frequency that is different from the first signal magnitude. , the acoustic properties h p (t) of the reproduction device can indicate the amplification or attenuation of the signal at a particular frequency.

数学的に、測定信号がx(t)であり、検出された応答信号がy(t)であり且つ無響室における再生デバイスの音響特性がh(t)である場合、下記式(4)になる。 Mathematically, if the measured signal is x(t), the detected response signal is y(t), and the acoustic properties of the playback device in the anechoic chamber are h p (t), then equation (4 )become.

Figure 2022163061000005
したがって、h(t)は、測定信号x(t)及び検出された応答信号y(t)に基づいて計算されうる。上述したように、h(t)は、無響室において使用されたものと同一のモデルの再生デバイスについての代表的な音響特性であってもよい。
Figure 2022163061000005
Therefore, h p (t) can be calculated based on the measured signal x(t) and the detected response signal y(t). As noted above, h p (t) may be a representative acoustic property for the same model of playback device as used in the anechoic chamber.

ある例では、上述したように、基準音響特性h(t)は、再生デバイスのモデル及び/又は再生デバイスの仕様と関連付けて記憶されてもよい。ある例では、h(t)は、コンピューティングデバイス上に格納されてもよい。別の例では、h(t)は、再生デバイス及び同一のモデルの他の再生デバイス上に格納されてもよい。さらなる場合において、h -1(t)として表されるh(t)の逆数は、h(t)の代わりに記憶されてもよい。 In one example, as described above, the reference acoustic properties h P (t) may be stored in association with the playback device model and/or playback device specifications. In one example, h P (t) may be stored on the computing device. In another example, h p (t) may be stored on the playback device and other playback devices of the same model. In further cases, the inverse of h p (t), denoted as h p −1 (t), may be stored instead of h p (t).

したがって、ブロック506に戻って参照すると、再生ゾーンの音響特性hroom(t)は、第1のオーディオ信号f(t)、第2のオーディオ信号s(t)、及び再生デバイスの音響特性h(t)に基づいて決定されうる。ある例では、再生デバイスの音響特性の逆数h -1(t)を、式(2)に適用することができる。換言すれば、下記式(5)になる。 Thus, referring back to block 506, the acoustic properties of the playback zone h room (t) are the first audio signal f(t), the second audio signal s(t), and the acoustic properties of the playback device h p (t). In one example, the inverse of the acoustic properties of the playback device, h p −1 (t), can be applied to equation (2). In other words, the following formula (5) is obtained.

Figure 2022163061000006
Figure 2022163061000006

ここで、I(t)は、インパルス信号である。そして、再生ゾーン時間の音響特性hroom(t)は、下記式(6)のように簡略化されうる。 where I(t) is the impulse signal. Also, the acoustic characteristic h room (t) of the playback zone time can be simplified as shown in Equation (6) below.

Figure 2022163061000007
Figure 2022163061000007

方法500は、ブロック506において、再生ゾーンの音響特性及び所定のオーディオ信号に基づいて、オーディオ処理アルゴリズムを決定することを含む。ある例では、オーディオ処理アルゴリズムが決定されて、再生ゾーンにおいて第1のオーディオ信号を再生するときの、決定したオーディオ処理アルゴリズムの再生デバイスによる適用により、所定のオーディオ特性と実質的に同一のオーディオ特性を有するか又は少なくともある程度所定のオーディオ特性を持つ第3のオーディオ信号が生成されうる。 The method 500 includes determining an audio processing algorithm based on the acoustic characteristics of the play zone and the predetermined audio signal at block 506 . In one example, an audio processing algorithm is determined, and application by a playback device of the determined audio processing algorithm when playing the first audio signal in the playback zone results in audio characteristics substantially identical to the predetermined audio characteristics. or at least to some extent have predetermined audio characteristics.

ある例では、所定のオーディオ特性は、良好なサウンディングとみなされるオーディオ周波数等化であってもよい。ある場合では、所定のオーディオ特性は、再生デバイスのレンダリング可能な周波数レンジにわたって実質的に均等な等化を含んでもよい。別の場合では、所定のオーディオ特性は、一般的なリスナーに心地よいと考えられる等化を含んでもよい。さらなる場合において、所定のオーディオ特性は、特定の音楽ジャンルに適していると考えられる周波数応答を含んでもよい。 In one example, the predetermined audio characteristic may be audio frequency equalization, which is considered good sounding. In some cases, the predetermined audio characteristics may include substantially uniform equalization across the renderable frequency range of the playback device. In other cases, the predetermined audio characteristics may include equalization that is considered pleasing to a typical listener. In a further case, the predetermined audio characteristics may include frequency responses deemed suitable for a particular music genre.

いずれの場合にも、コンピューティングデバイスは、音響特性及び所定のオーディオ特性に基づいて、オーディオ処理アルゴリズムを決定することができる。ある例では、再生ゾーンの音響特性が、特定のオーディオ周波数が他の周波数よりも減衰されたものであり、且つ、所定のオーディオ特性が、特定のオーディオ周波数が最小限に減衰された等化を含む場合、対応するオーディオ処理アルゴリズムは、特定のオーディオ周波数において強めた増幅を含んでもよい。 In either case, the computing device can determine audio processing algorithms based on acoustic characteristics and predetermined audio characteristics. In one example, the acoustic properties of the playback zone are such that certain audio frequencies are attenuated more than others, and the predetermined audio properties are such that the equalization is such that certain audio frequencies are attenuated the least. If included, the corresponding audio processing algorithms may include enhanced amplification at specific audio frequencies.

所定のオーディオ特性が所定のオーディオ信号z(t)によって表され且つオーディオ処理アルゴリズムがp(t)によって表される場合、所定のオーディオ信号z(t)、オーディオ処理アルゴリズム及び再生ゾーンの音響特性hroom(t)との間の関係を、下記式(7)のように数学的に記述することができる。 If the predetermined audio characteristic is represented by a predetermined audio signal z(t) and the audio processing algorithm is represented by p(t), the given audio signal z(t), the audio processing algorithm and the acoustic properties of the reproduction zone h room (t) can be mathematically described as in equation (7) below.

Figure 2022163061000008
Figure 2022163061000008

したがって、オーディオ処理アルゴリズムp(t)を、下記式(8)のように数学的に記述することができる。 Therefore, the audio processing algorithm p(t) can be mathematically described as Equation (8) below.

Figure 2022163061000009
Figure 2022163061000009

幾つかの場合において、オーディオ処理アルゴリズムを決定することは、オーディオ処理アルゴリズムについての1つ又は複数のパラメータ(すなわち、p(t)についての係数)を決定することを含んでもよい。例えば、オーディオ処理アルゴリズムは、オーディオ信号の特定の対応する周波数における特定の信号増幅利得を含んでもよい。そのため、特定の信号増幅及び/又はオーディオ信号の特定の対応する周波数を示すパラメータが、オーディオ処理アルゴリズムp(t)を決定するために特定されてもよい。 In some cases, determining the audio processing algorithm may include determining one or more parameters for the audio processing algorithm (ie, coefficients for p(t)). For example, an audio processing algorithm may include specific signal amplification gains at specific corresponding frequencies of the audio signal. As such, parameters indicative of a particular signal amplification and/or a particular corresponding frequency of the audio signal may be specified to determine the audio processing algorithm p(t).

方法500は、ブロック510において、オーディオ処理アルゴリズムと再生ゾーンの音響特性との関連付けをデータベースに記憶させることを含む。そのため、ブロック504及び506において決定した再生ゾーンの音響特性hroom(t)及び対応するオーディオ処理アルゴリズムp(t)を含むエントリを、データベースに追加してもよい。ある例では、データベースは、コンピューティングデバイスのローカルのメモリストレージに格納されてもよい。別の例において、データベースが他のデバイスに格納されている場合、コンピューティングデバイスは、オーディオ処理アルゴリズム及び再生ゾーンの音響特性を他のデバイスに送信して、データベースに記憶されるようにしてもよい。他の例もまた可能である。 The method 500 includes storing in a database, at block 510, an association between the audio processing algorithm and the acoustic characteristics of the play zone. As such, an entry containing the acoustic properties h room (t) of the play zone determined in blocks 504 and 506 and the corresponding audio processing algorithm p(t) may be added to the database. In one example, the database may be stored in local memory storage of the computing device. In another example, if the database is stored on another device, the computing device may transmit the audio processing algorithms and acoustic characteristics of the play zone to the other device for storage in the database. . Other examples are also possible.

上述したように、オーディオ処理アルゴリズムが決定された再生ゾーンは、再生デバイスがオーディオコンテンツを再生することができるリスニング環境をシミュレートするために使用されるモデル再生ゾーン、又は再生デバイスのユーザの部屋であってもよい。幾つかの場合において、データベースは、モデル再生ゾーン内で再生されて検出されたオーディオ信号に基づいて生成されたエントリとともに、再生デバイスのユーザの部屋内で再生されて検出されたオーディオ信号に基づいて生成されたエントリを含んでもよい。 As described above, the playback zone in which the audio processing algorithms have been determined can be a model playback zone used to simulate a listening environment in which the playback device can play back audio content, or the user's room of the playback device. There may be. In some cases, the database is based on detected audio signals played within the user's room of the playback device, with entries generated based on detected audio signals played within the model playback zone. May contain generated entries.

図6Aは、オーディオ処理アルゴリズムのデータベース600の例示的な部分を示していて、上記説明において決定されたオーディオ処理アルゴリズムp(t)がデータベース600に格納されている。示されるように、データベース600の一部は、複数のエントリ602-608を含んでもよい。エントリ602は、再生ゾーン音響特性hroom -1(t)-1を含んでもよい。音響特性hroom -1(t)-1は、上述したように再生デバイスによって検出されたオーディオ信号及び再生デバイスの特性に基づいて計算されるように、再生ゾーンの音響特性の数学的表現であってもよい。エントリ602における音響特性hroom -1(t)-1に対応するものは、上述したように、音響特性hroom -1(t)-1及び所定のオーディオ特性に基づいて決定されたオーディオ処理アルゴリズムについての係数w、x、y及びzであってもよい。 FIG. 6A shows an exemplary portion of a database 600 of audio processing algorithms in which the audio processing algorithms p(t) determined in the above description are stored. As shown, a portion of database 600 may include multiple entries 602-608. Entry 602 may include a play zone acoustic characteristic h room −1 (t)−1. The acoustic properties h room −1 (t)−1 are mathematical representations of the acoustic properties of the playback zone, as calculated based on the audio signal detected by the playback device and the properties of the playback device as described above. may Corresponding to acoustic property h room -1 (t)-1 in entry 602 is the audio processing algorithm determined based on acoustic property h room -1 (t)-1 and the predetermined audio property, as described above. may be coefficients w 1 , x 1 , y 1 and z 1 for .

さらに示されるように、データベース600のエントリ604は、再生ゾーン音響特性hroom -1(t)-2及び処理アルゴリズム係数w、x、y及びzを含んでもよい。データベース600のエントリ606は、再生ゾーン音響特性hroom -1(t)-3及び処理アルゴリズム係数w、x、y及びzを含んでもよい。データベース600のエントリ608は、再生ゾーン音響特性hroom -1(t)-4及び処理アルゴリズム係数w、x、y及びzを含んでもよい。 As further shown, entry 604 of database 600 may include play zone acoustic characteristic h room −1 (t)−2 and processing algorithm coefficients w 2 , x 2 , y 2 and z 2 . Entry 606 of database 600 may include play zone acoustic characteristic h room −1 (t)−3 and processing algorithm coefficients w 3 , x 3 , y 3 and z 3 . Entry 608 of database 600 may include play zone acoustic characteristic h room −1 (t)−4 and processing algorithm coefficients w 4 , x 4 , y 4 and z 4 .

当業者は、データベース600が方法500の機能を実行することによって作成されて保守されうるデータベースの単なる一例であることを理解するであろう。ある例では、再生ゾーン音響特性は、異なる形式又は数学的状態(すなわち、反転対非反転関数)で記憶されうる。別の例では、オーディオ処理アルゴリズムは、関数及び/又は等化関数として記憶されてもよい。他の例もまた可能である。 Those skilled in the art will appreciate that database 600 is merely one example of a database that may be created and maintained by performing the functions of method 500 . In one example, the play zone acoustic properties may be stored in different forms or mathematical states (ie, inverted versus non-inverted functions). In another example, audio processing algorithms may be stored as functions and/or equalization functions. Other examples are also possible.

ある例では、上述した機能の一部が、同一の再生ゾーンにおいて同一の再生デバイスについて複数回実行されて、再生ゾーンの音響特性hroom(t)及び対応する処理アルゴリズムp(t)が決定されうる。例えば、複数回、ブロック502-506を実行することによって、再生ゾーンの複数の音響特性を決定することができる。再生ゾーンの合成(すなわち、平均)音響特性は、複数の音響特性から決定されてもよく、対応する処理アルゴリズムp(t)は、再生ゾーンの合成音響特性に基づいて決定されてもよい。そして、対応する処理アルゴリズムp(t)と再生ゾーンの音響特性hroom(t)又はhroom -1(t)との関連付けは、データベースに記憶されてもよい。幾つかの場合において、再生ゾーン内の再生デバイスによって再生される第1のオーディオ信号は、関数の反復のそれぞれにおいて実質的に同一のオーディオ信号であってもよい。幾つかの他の場合において、再生ゾーン内の再生デバイスによって再生される第1のオーディオ信号は、関数の反復の一部又はそれぞれについて異なるオーディオ信号であってもよい。他の例もまた可能である。 In one example, some of the functions described above are performed multiple times for the same playback device in the same playback zone to determine the acoustic properties h room (t) of the playback zone and the corresponding processing algorithm p(t). sell. For example, by executing blocks 502-506 multiple times, multiple acoustic characteristics of the playback zone can be determined. A composite (ie, average) acoustic property of the play zone may be determined from the plurality of acoustic properties, and a corresponding processing algorithm p(t) may be determined based on the composite acoustic property of the play zone. The association between the corresponding processing algorithm p(t) and the acoustic properties h room (t) or h room −1 (t) of the playback zone may then be stored in a database. In some cases, the first audio signal reproduced by the reproduction device within the reproduction zone may be substantially the same audio signal in each iteration of the function. In some other cases, the first audio signal played by the playback device in the playback zone may be a different audio signal for some or each iteration of the function. Other examples are also possible.

上述した方法500(又は、方法500の幾つかの変形例)は、さらに、データベース内の他のエントリを生成するために実行されうる。例えば、再生デバイスが第1の再生デバイスであり、再生ゾーンが第1の再生ゾーンであり、オーディオ処理アルゴリズムが第1のオーディオ処理アルゴリズムであることを考えると、方法500は、追加的に又は代替的に、第2の再生ゾーンにおいて第2の再生デバイスを使用して実行されうる。ある例では、第2の再生デバイスは、第2の再生ゾーンにおいて第4のオーディオ信号を再生することができ、第2の再生デバイスのマイクロホンは、第2の再生デバイスによって再生された第4のオーディオ信号の一部を含む第5のオーディオ信号を検出することができる。そして、コンピューティングデバイスは、第5のオーディオ信号を示すデータを受信し、第5のオーディオ信号及び第2の再生デバイスの特性に基づいて、第2の再生ゾーンの音響特性を決定することができる。 The method 500 (or some variation of method 500) described above may also be performed to create other entries in the database. For example, given that the playback device is the first playback device, the playback zone is the first playback zone, and the audio processing algorithm is the first audio processing algorithm, method 500 may additionally or alternatively Specifically, it can be performed using a second playback device in a second playback zone. In one example, the second reproduction device can reproduce a fourth audio signal in the second reproduction zone, and the microphone of the second reproduction device can reproduce the fourth audio signal reproduced by the second reproduction device. A fifth audio signal can be detected that includes a portion of the audio signal. The computing device can then receive data indicative of the fifth audio signal and determine acoustic characteristics of the second playback zone based on the fifth audio signal and characteristics of the second playback device. .

コンピューティングデバイスは、第2の再生ゾーンの音響特性に基づいて、第2のオーディオ処理アルゴリズムを決定することができる。ここで、再生ゾーンにおいて第4のオーディオ信号を再生するときの、決定した第2のオーディオ処理アルゴリズムの第2の再生デバイスによる適用により、第6のオーディオ信号が生成される。第6のオーディオ信号は、式(7)及び(8)において示される、所定のオーディオ信号z(t)によって表される所定のオーディオ特性と実質的に同一のオーディオ特性を有する。そして、コンピューティングデバイスは、第2のオーディオ処理アルゴリズムと第2の再生ゾーンの音響特性との関連付けをデータベースに記憶させることができる。 The computing device can determine a second audio processing algorithm based on the acoustic properties of the second play zone. Application by the second playback device of the determined second audio processing algorithm when playing back the fourth audio signal in the playback zone now produces a sixth audio signal. The sixth audio signal has substantially the same audio characteristics as the predetermined audio characteristics represented by the predetermined audio signal z(t) shown in equations (7) and (8). The computing device can then store in a database an association between the second audio processing algorithm and the acoustic characteristics of the second play zone.

多くの再生ゾーンは、寸法、構築材料、及び/又は家具の種類及び配置において類似している場合もあるけれども、2つの再生ゾーンが全く同一の再生ゾーン音響特性を有することになるとは考えにくい。そのため、各固有の再生ゾーン音響特性及びそれらの各対応するオーディオ処理アルゴリズムについての個々のエントリを記憶すると、非現実的な量のメモリストレージを必要とすることがあるため、むしろ、類似の又は実質的に同一の再生ゾーン音響特性についてのエントリは組み合わせたほうがよい。 Although many play zones may be similar in size, materials of construction, and/or type and arrangement of furniture, it is unlikely that two play zones will have exactly the same play zone acoustic characteristics. As such, storing individual entries for each unique play zone acoustic characteristic and their respective corresponding audio processing algorithms may require an unrealistic amount of memory storage, so rather than a similar or substantial Entries for virtually identical play zone acoustic characteristics should be combined.

ある場合では、2つの再生ゾーンが実質的に類似の部屋であるとき、2つの再生ゾーンの音響特性は類似している場合がある。別の場合では、コンピューティングデバイスは、上記示唆したように、同一の再生ゾーンにおいて、複数回、同一の再生デバイスについて、方法500を実行してもよい。さらなる場合において、コンピューティングデバイスは、同一の再生ゾーンにおいて、異なる再生デバイスについて、方法500を実行してもよい。さらに他の場合において、コンピューティングデバイスは、同一の再生ゾーンであるが再生ゾーン内の他の場所において、再生デバイスについて方法500を実行してもよい。他の例もまた可能である。 In some cases, the acoustic characteristics of the two playback zones may be similar when the two playback zones are substantially similar rooms. In other cases, a computing device may perform method 500 for the same playback device multiple times in the same playback zone, as suggested above. In further cases, a computing device may perform method 500 for different playback devices in the same playback zone. In still other cases, a computing device may perform method 500 for playback devices in the same playback zone but at other locations within the playback zone. Other examples are also possible.

いずれの場合にも、再生ゾーン音響特性及び対応するオーディオ処理アルゴリズムのエントリを生成する過程において、コンピューティングデバイスは、2つの再生ゾーンが実質的に同一の再生ゾーン音響特性を有することを決定してもよい。そして、コンピューティングデバイスは、それに応答して、第1のオーディオ処理アルゴリズム及び第2のオーディオ処理アルゴリズムに基づいて、第3のオーディオ処理アルゴリズムを決定してもよい。例えば、コンピューティングデバイスは、第1及び第2のオーディオ処理アルゴリズムのパラメータの平均をとることによって、第3のオーディオ処理アルゴリズムを決定してもよい。 In either case, in the process of generating the play zone acoustic properties and corresponding audio processing algorithm entries, the computing device determines that the two play zones have substantially identical play zone acoustic properties. good too. The computing device may then, in response, determine a third audio processing algorithm based on the first audio processing algorithm and the second audio processing algorithm. For example, the computing device may determine the third audio processing algorithm by averaging the parameters of the first and second audio processing algorithms.

そして、コンピューティングデバイスは、第3のオーディオ処理アルゴリズムと実質的に同一の音響特性との関連付けをデータベースに記憶してもよい。ある例では、第3のオーディオ処理アルゴリズムについてのデータベースエントリは、2つの実質的に同一の音響特性の平均値に基づいて決定された対応する音響特性を有してもよい。幾つかの場合において、上記示唆したように、データベースは、ストレージメモリを節約する目的で、実質的に同一の音響特性について1つのエントリのみを有してもよい。そのため、第3のオーディオ処理アルゴリズムについてのエントリを優先して、第1の再生ゾーン及び第2の再生ゾーンの音響特性のエントリは廃棄してもよい。他の例もまた可能である。 The computing device may then store in a database an association of the third audio processing algorithm with substantially the same acoustic characteristics. In one example, the database entry for the third audio processing algorithm may have corresponding acoustic properties determined based on an average of two substantially identical acoustic properties. In some cases, as suggested above, the database may have only one entry for substantially identical acoustic characteristics for the purpose of saving storage memory. As such, the entries for the acoustic characteristics of the first and second playback zones may be discarded in favor of the entry for the third audio processing algorithm. Other examples are also possible.

上記説明は、全体的に、コンピューティングデバイスによって実行されるものとして方法500について言及しているが、当業者は、上述したように、方法500の機能が、代替的に、1つ又は複数のサーバ、1つ又は複数の再生デバイス、及び/又は1つ又は複数のコントローラデバイスなどの1つ又は複数の他のデバイスによって実行されてもよいことを理解するであろう。換言すれば、ブロック502-510のうちの1つ又は複数は、コンピューティングデバイスによって実行されてもよい一方で、ブロック502-510のうちの1つ又は複数の他のブロックは、1つ又は複数の他のコンピューティングデバイスによって実行されてもよい。 Although the above description generally refers to method 500 as being performed by a computing device, those skilled in the art will appreciate that the functionality of method 500 can alternatively be performed by one or more It will be appreciated that it may also be performed by one or more other devices such as a server, one or more playback devices, and/or one or more controller devices. In other words, one or more of blocks 502-510 may be performed by a computing device, while one or more of other blocks 502-510 may be performed by one or more may be performed by any other computing device.

ある例では、上述したように、ブロック502における再生デバイスによる第1のオーディオ信号の再生は、いかなる外部コマンドもなしに再生デバイスによって実行されてもよい。あるいは、再生デバイスは、コントローラデバイス及び/又は他の再生デバイスからのコマンドに応答して第1のオーディオ信号を再生してもよい。別の例では、ブロック502-506は、1つ又は複数の再生デバイス又は1つ又は複数のコントローラデバイスによって実行されてもよく、コンピューティングデバイスは、ブロック508及び510を実行してもよい。さらに別の例では、ブロック502-508は、1つ又は複数の再生デバイス又は1つ又は複数のコントローラデバイスによって実行されてもよく、コンピューティングデバイスは、ブロック510においてオーディオ処理アルゴリズムを記憶する機能を実行するだけであってもよい。他の例もまた可能である。 In one example, as described above, playing the first audio signal by the playback device at block 502 may be performed by the playback device without any external command. Alternatively, the playback device may play the first audio signal in response to commands from the controller device and/or other playback devices. In another example, blocks 502-506 may be performed by one or more playback devices or one or more controller devices, and a computing device may perform blocks 508 and 510. In yet another example, blocks 502-508 may be performed by one or more playback devices or one or more controller devices, and the computing device functions to store the audio processing algorithms at block 510. You can just run it. Other examples are also possible.

b.オーディオ処理アルゴリズム及び再生ゾーンの対応する1つ又は複数の特性の例示的データベース
先に示したように、再生ゾーンは、1つ又は複数の再生ゾーン特性を有してもよい。1つ又は複数の再生ゾーン特性は、上述したように、再生ゾーンの音響特性を含んでもよい。また、再生ゾーンの1つ又は複数の特性は、(a)再生ゾーンの寸法、(b)再生ゾーンのオーディオ反射特性、(c)再生ゾーンの使用目的、(d)再生ゾーン内の家具の数、(e)再生ゾーン内の家具のサイズ、及び(f)再生ゾーン内の家具の種類のうちの1つ又は複数を含んでもよい。ある場合では、再生ゾーンのオーディオ反射特性は、再生ゾーンの床材及び/又は壁材に関連してもよい。
b. Exemplary Database of Audio Processing Algorithms and Corresponding One or More Properties of Play Zones As indicated above, a play zone may have one or more play zone properties. The one or more play zone properties may include acoustic properties of the play zone, as described above. Also, the one or more characteristics of the play zone may include (a) the dimensions of the play zone, (b) the audio reflection properties of the play zone, (c) the intended use of the play zone, and (d) the number of pieces of furniture in the play zone. , (e) the size of the furniture in the regeneration zone, and (f) the type of furniture in the regeneration zone. In some cases, the audio reflection properties of the playback zone may be related to the flooring and/or walling of the playback zone.

幾つかの例において、上述したp(t)などの決定されたオーディオ処理アルゴリズムと再生ゾーンの追加の1つ又は複数の特性との関連付けがデータベースに記憶されうる。図7は、オーディオ処理アルゴリズム及び再生ゾーンの1つ又は複数の特性のデータベースを保守する方法700の例示的なフロー図を示している。図7に示される方法700は、例えば、図1のメディア再生システム100、図2の1つ又は複数の再生デバイス200、及び図3の1つ又は複数の制御デバイス300を含む動作環境内で実施されうる方法の実施形態を表している。ある例では、方法700は、メディア再生システム100などのメディア再生システムと通信するコンピューティングデバイスによって実行されてもよい。これに代えて、別の例では、方法700の幾つか又は全ての機能は、1つ又は複数のサーバ、1つ又は複数の再生デバイス、及び/又は1つ又は複数のコントローラデバイスなどの1つ又は複数の他のコンピューティングデバイスによって実行されてもよい。 In some examples, an association between the determined audio processing algorithm, such as p(t) described above, and one or more additional characteristics of the playback zone may be stored in a database. FIG. 7 illustrates an exemplary flow diagram of a method 700 of maintaining a database of one or more characteristics of audio processing algorithms and play zones. The method 700 illustrated in FIG. 7 may be implemented within an operating environment including, for example, the media playback system 100 of FIG. 1, one or more playback devices 200 of FIG. 2, and one or more control devices 300 of FIG. 3 illustrates an embodiment of a method that may be performed. In one example, method 700 may be performed by a computing device in communication with a media playback system, such as media playback system 100 . Alternatively, in another example, some or all of the functionality of method 700 is performed by one or more servers, such as one or more servers, one or more playback devices, and/or one or more controller devices. or by multiple other computing devices.

方法700は、ブロック702-708のうちの1つ又は複数によって示されるように1つ又は複数の操作、機能又は動作を含んでもよい。ブロックは順番に示されているが、これらのブロックは、並列に及び/又は本明細書に記載されたものとは異なる順序で実行されてもよい。また、様々なブロックは、所望の実装に基づいて、より少数のブロックに組み合わせられてもよく、さらなるブロックに分割されてもよく、及び/又は除去されてもよい。 Method 700 may include one or more operations, functions or actions as indicated by one or more of blocks 702-708. Although the blocks are shown in sequence, these blocks may be executed in parallel and/or in a different order than described herein. Also, various blocks may be combined into fewer blocks, divided into additional blocks, and/or removed based on the desired implementation.

図7に示されるように、方法700は、再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させるステップ(ブロック702)、(i)再生ゾーンの1つ又は複数の特性を示すデータ及び(ii)再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを受信するステップ(ブロック704)、第2のオーディオ信号及び再生デバイスの特性に基づいてオーディオ処理アルゴリズムを決定するステップ(ブロック706)、決定したオーディオ処理アルゴリズムと再生ゾーンの1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させるステップ(ブロック708)を含む。 As shown in FIG. 7, the method 700 comprises the steps of causing a playback device within a playback zone to play a first audio signal (block 702); (i) data indicative of one or more characteristics of the playback zone; ii) receiving data indicative of a second audio signal detected by a microphone of a playback device (block 704); determining an audio processing algorithm based on the characteristics of the second audio signal and the playback device (block 706); ), storing in a database an association between the determined audio processing algorithm and at least one of the one or more characteristics of the playback zone (block 708).

方法700は、ブロック702において、コンピューティングデバイスにより、再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させる。ある例では、ブロック702は、図5に関連して記載されたブロック502のものと同一の又は実質的に同一の機能を含んでもよい。例えば、第1のオーディオ信号は、再生デバイスのレンダリング可能な周波数レンジ又は人間の可聴周波数レンジを実質的にカバーする周波数を有するオーディオコンテンツを含んでもよい。そのため、ブロック502に関連した上記説明は、ブロック702に適用することができる。 The method 700, at block 702, causes a computing device to play a first audio signal to a playback device within a play zone. In one example, block 702 may include the same or substantially the same functionality as that of block 502 described in connection with FIG. For example, the first audio signal may include audio content having frequencies that substantially cover the renderable frequency range of the playback device or the human audible frequency range. As such, the discussion above relating to block 502 is applicable to block 702 .

方法700は、ブロック704において、(i)再生ゾーンの1つ又は複数の特性を示すデータ、及び(ii)再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを受信することを含む。ある例では、ブロック704は、図5に関連して記載されたブロック504のものと同一の又は実質的に同一の機能を含んでもよい。例えば、第2のオーディオ信号は、再生デバイスによって再生された第1のオーディオ信号に対応する部分を含んでもよい。そのため、ブロック504に関連した上記説明は、ブロック704に適用することができる。 The method 700 includes, at block 704, receiving (i) data indicative of one or more characteristics of a playback zone and (ii) data indicative of a second audio signal detected by a microphone of the playback device. . In some examples, block 704 may include the same or substantially the same functionality as that of block 504 described in connection with FIG. For example, the second audio signal may include portions corresponding to the first audio signal reproduced by the reproduction device. As such, the discussion above relating to block 504 is applicable to block 704 .

ブロック504に関連して上述したものに加えて、ブロック704は、再生ゾーンの1つ又は複数の特性を示すデータを受信することを含む。上述したように、再生ゾーンは、再生デバイスがオーディオコンテンツを再生することができるリスニング環境をシミュレートするために使用されるモデル再生ゾーンであってもよい。そのような場合、再生ゾーンについての1つ又は複数の再生ゾーン特性の一部は公知であってもよい。例えば、再生ゾーンについての寸法、フロアプラン、構築材料、及び家具が公知であってもよい。ある場合では、モデル再生ゾーンは、データベースについてのオーディオ処理アルゴリズムを決定するという目的のために構築されてもよく、その場合、1つ又は複数の再生ゾーン特性の一部は予め決められていてもよい。別の場合では、再生ゾーンは、再生デバイスのユーザの部屋であってもよい。上述したように、そのような再生ゾーンの特性は、再生ゾーンの音響特性に寄与することができる。 In addition to what was described above with respect to block 504, block 704 includes receiving data indicative of one or more characteristics of the regeneration zone. As noted above, a playback zone may be a model playback zone used to simulate a listening environment in which a playback device can play audio content. In such cases, some of the one or more regeneration zone characteristics for the regeneration zone may be known. For example, the dimensions, floor plan, construction materials, and furniture for the regeneration zone may be known. In some cases, model play zones may be constructed for the purpose of determining audio processing algorithms for a database, where some of one or more of the play zone characteristics may be predetermined. good. In other cases, the playback zone may be the room of the user of the playback device. As noted above, such play zone properties can contribute to the acoustic properties of the play zone.

ある例では、コンピューティングデバイスは、ユーザ又は音響エンジニアによって使用されるコントローラデバイスのコントローラインタフェースを介して、1つ又は複数の再生ゾーン特性を示すデータを受信してもよい。別の例では、コンピューティングデバイスは、再生ゾーン内の再生デバイスから再生ゾーンの1つ又は複数の特性を示すデータを受信してもよい。例えば、1つ又は複数の特性を示すデータは、第2のオーディオ信号を示すデータとともに受信されてもよい。1つ又は複数の再生ゾーン特性を示すデータは、ブロック702における再生デバイスによる第1のオーディオ信号の再生前、再生中又は再生後に受信されてもよい。他の例もまた可能である。 In one example, a computing device may receive data indicative of one or more play zone characteristics via a controller interface of a controller device used by a user or sound engineer. In another example, a computing device may receive data indicative of one or more characteristics of a playback zone from playback devices within the playback zone. For example, data indicative of one or more characteristics may be received along with data indicative of the second audio signal. Data indicative of one or more playback zone characteristics may be received before, during, or after playback of the first audio signal by the playback device at block 702 . Other examples are also possible.

方法700は、ブロック706において、第2のオーディオ信号及び再生デバイスの特性に基づいて、オーディオ処理アルゴリズムを決定することを含む。ある例では、ブロック706は、図5のブロック506及び508において上述したものと同一又は類似の機能を含んでもよい。例えば、オーディオ処理アルゴリズムを決定することは、第2のオーディオ信号及び再生デバイスの特性に基づいて再生ゾーンの音響特性を決定すること、及びその後に再生ゾーンの音響特性に基づいてオーディオ処理アルゴリズムを決定することを含んでもよい。再生デバイスの特性は、上述したように、再生デバイスの音響特性、再生デバイスの仕様、及び再生デバイスのモデルのうちの1つ又は複数を含んでもよい。 The method 700 includes determining an audio processing algorithm based on characteristics of the second audio signal and the playback device at block 706 . In some examples, block 706 may include the same or similar functionality as described above in blocks 506 and 508 of FIG. For example, determining the audio processing algorithm may comprise determining acoustic characteristics of the playback zone based on characteristics of the second audio signal and the playback device, and thereafter determining the audio processing algorithm based on the acoustic characteristics of the playback zone. may include doing The characteristics of the playback device may include one or more of the acoustic characteristics of the playback device, the specification of the playback device, and the model of the playback device, as described above.

上述したように、再生ゾーン内で第1のオーディオ信号を再生するときの、決定したオーディオ処理アルゴリズムの再生デバイスによる適用により、第3のオーディオ信号が生成されうる。第3のオーディオ信号は、所定のオーディオ特性と実質的に同一のオーディオ特性を有するか、又は少なくともある程度所定のオーディオ特性を持つ。ある場合では、所定のオーディオ特性は、上述した所定のオーディオ信号p(t)として表される所定のオーディオ特性と同一か又は実質的に同一であってもよい。他の例もまた可能である。 As described above, application by the playback device of the determined audio processing algorithm when playing the first audio signal within the playback zone may produce the third audio signal. The third audio signal has audio characteristics substantially identical to the predetermined audio characteristics, or at least to some extent the predetermined audio characteristics. In some cases, the predetermined audio characteristic may be the same or substantially the same as the predetermined audio characteristic represented as the predetermined audio signal p(t) described above. Other examples are also possible.

方法800は、ブロック708において、決定したオーディオ処理アルゴリズムと再生ゾーンの1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させることを含む。ある例では、ブロック708は、ブロック501において上述したものと同一又は類似の機能を含んでもよい。しかしながら、この場合において、コンピューティングデバイスは、再生ゾーンの音響特性に加えて又はその代わりに、オーディオ処理アルゴリズムと1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させてもよい。 The method 800 includes storing in a database an association between the determined audio processing algorithm and at least one of the one or more characteristics of the playback zone at block 708 . In some examples, block 708 may include the same or similar functionality as described above in block 501 . However, in this case, the computing device may store in the database an association of the audio processing algorithm with at least one of the one or more properties in addition to or instead of the acoustic properties of the playback zone. .

上述したように、オーディオ処理アルゴリズムが決定された再生ゾーンは、再生デバイスがオーディオコンテンツを再生することができるリスニング環境をシミュレートするために使用されるモデル再生ゾーン、又は再生デバイスのユーザの部屋であってもよい。幾つかの場合において、データベースは、モデル再生ゾーン内で再生されて検出されたオーディオ信号に基づいて生成されたエントリとともに、再生デバイスのユーザの部屋内で再生されて検出されたオーディオ信号に基づいて生成されたエントリを含んでもよい。 As mentioned above, the playback zone from which the audio processing algorithms have been determined can be a model playback zone used to simulate a listening environment in which the playback device can play back audio content, or the user's room of the playback device. There may be. In some cases, the database is based on detected audio signals played within the user's room of the playback device, with entries generated based on detected audio signals played within the model playback zone. May contain generated entries.

図6Bは、オーディオ処理アルゴリズムのデータベース650の例示的な部分を示している。データベース650には、上記説明において決定したオーディオ処理アルゴリズム及びオーディオ処理アルゴリズムと再生ゾーン音響特性との関連付けが格納されている。示されるように、データベース650の一部は、データベース600のエントリ602-608と類似の複数のエントリ652-658を含んでもよい。例えば、エントリ652及び602は、同一の再生ゾーン音響特性、及び同一のオーディオ処理アルゴリズム係数を有してもよい。エントリ654及び604は、同一の再生ゾーン音響特性、及び同一のオーディオ処理アルゴリズム係数を有してもよい。エントリ656及び606は、同一の再生ゾーン音響特性、及び同一のオーディオ処理アルゴリズム係数を有してもよい。エントリ658及び608は、同一の再生ゾーン音響特性、及び同一のオーディオ処理アルゴリズム係数を有してもよい。 FIG. 6B shows an exemplary portion of a database 650 of audio processing algorithms. The database 650 stores the audio processing algorithms determined in the above description and the associations between the audio processing algorithms and the reproduction zone acoustic characteristics. As shown, a portion of database 650 may include multiple entries 652 - 658 similar to entries 602 - 608 of database 600 . For example, entries 652 and 602 may have identical play zone acoustic characteristics and identical audio processing algorithm coefficients. Entries 654 and 604 may have identical play zone acoustic characteristics and identical audio processing algorithm coefficients. Entries 656 and 606 may have identical play zone acoustic characteristics and identical audio processing algorithm coefficients. Entries 658 and 608 may have identical play zone acoustic characteristics and identical audio processing algorithm coefficients.

再生ゾーン音響特性に加えて、データベース650は、対応する再生ゾーン音響特性を有する再生ゾーンの寸法を示すゾーン寸法情報及び対応する再生ゾーン音響特性に基づいて決定されたオーディオ処理アルゴリズムを含んでもよい。例えば、示されるように、エントリ652は、a×b×cのゾーン寸法を有してもよく、エントリ654は、a×b×cのゾーン寸法を有してもよく、エントリ656は、a×b×cのゾーン寸法を有してもよく、エントリ654は、a×b×cのゾーン寸法を有してもよい。そのため、この例において、決定されたオーディオ処理アルゴリズムに関連付けて記憶された1つ又は複数の特性は、再生ゾーンの音響特性及び再生ゾーンの寸法を含む。他の例もまた可能である。 In addition to the play zone acoustic properties, the database 650 may include zone dimension information indicating the dimensions of the play zone having the corresponding play zone acoustic properties and audio processing algorithms determined based on the corresponding play zone acoustic properties. For example, as shown, entry 652 may have zone dimensions of a 1 ×b 1 ×c 1 and entry 654 may have zone dimensions of a 2 ×b 2 ×c 2 . , entry 656 may have zone dimensions of a 3 ×b 3 ×c 3 and entry 654 may have zone dimensions of a 4 ×b 4 ×c 4 . Thus, in this example, the one or more properties stored in association with the determined audio processing algorithm include the acoustic properties of the play zone and the dimensions of the play zone. Other examples are also possible.

当業者は、データベース650が方法700の機能を実行することによって作成されて保守されうるデータベースの単なる一例であることを理解するであろう。ある例では、再生ゾーン音響特性は、異なる形式又は数学的状態(すなわち、反転対非反転関数)で記憶されてもよい。別の例では、オーディオ処理アルゴリズムは、関数及び/又は等化関数として記憶されてもよい。さらに別の例では、データベース650は、ゾーン寸法及び対応するオーディオ処理アルゴリズムのみを含むことができ、再生ゾーンの対応する音響特性を含まないことができる。他の例もまた可能である。 Those skilled in the art will appreciate that database 650 is merely one example of a database that may be created and maintained by performing the functions of method 700 . In some examples, play zone acoustic properties may be stored in different forms or mathematical states (ie, inverted versus non-inverted functions). In another example, audio processing algorithms may be stored as functions and/or equalization functions. In yet another example, the database 650 may contain only zone dimensions and corresponding audio processing algorithms and not the corresponding acoustic characteristics of the playback zones. Other examples are also possible.

方法500と同様に、上述した方法700(又は方法700の幾つかの変形例)は、さらに、データベース内の他のエントリを生成するために実行されてもよい。例えば、再生デバイスが第1の再生デバイスであり、再生ゾーンが第1の再生ゾーンであり、オーディオ処理アルゴリズムが第1のオーディオ処理アルゴリズムであることを考えると、方法600は、追加的に又は代替的に、第2の再生ゾーンにおいて第2の再生デバイスを使用して実行されてもよい。ある例では、第2の再生デバイスは、第2の再生ゾーンにおいて第4のオーディオ信号を再生することができ、第2の再生デバイスのマイクロホンは、第2の再生デバイスによって再生された第4のオーディオ信号の一部を含む第5のオーディオ信号を検出することができる。そして、コンピューティングデバイスは、(i)第2の再生ゾーンの1つ又は複数の特性を示すデータ及び(ii)第2の再生ゾーン内の第2の再生デバイスのマイクロホンによって検出された第5のオーディオ信号を示すデータを受信してもよい。 Similar to method 500, method 700 (or some variation of method 700) described above may also be performed to create other entries in the database. For example, given that the playback device is the first playback device, the playback zone is the first playback zone, and the audio processing algorithm is the first audio processing algorithm, method 600 may additionally or alternatively Alternatively, it may be performed using a second playback device in a second playback zone. In one example, the second reproduction device can reproduce a fourth audio signal in the second reproduction zone, and the microphone of the second reproduction device can reproduce the fourth audio signal reproduced by the second reproduction device. A fifth audio signal can be detected that includes a portion of the audio signal. The computing device then outputs (i) data indicative of one or more characteristics of the second playback zone and (ii) the fifth playback device detected by the microphone of the second playback device in the second playback zone. Data indicative of an audio signal may be received.

そして、コンピューティングデバイスは、第5のオーディオ信号及び第2の再生デバイスの特性に基づいて、第2の再生ゾーンの音響特性を決定してもよい。コンピューティングデバイスは、第2の再生ゾーンの音響特性に基づいて、第2のオーディオ処理アルゴリズムを決定してもよい。ここで、再生ゾーンにおいて第4のオーディオ信号を再生するときの、決定した第2のオーディオ処理アルゴリズムの第2の再生デバイスによる適用により、第6のオーディオ信号が生成される。第6のオーディオ信号は、式(7)及び(8)において示される、所定のオーディオ信号z(t)によって表される所定のオーディオ特性と実質的に同一のオーディオ特性を有する。そして、コンピューティングデバイスは、第2のオーディオ処理アルゴリズムと第2の再生ゾーンの1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させてもよい。 The computing device may then determine acoustic characteristics of the second playback zone based on the fifth audio signal and characteristics of the second playback device. The computing device may determine a second audio processing algorithm based on the acoustic properties of the second play zone. Application by the second playback device of the determined second audio processing algorithm when playing back the fourth audio signal in the playback zone now produces a sixth audio signal. The sixth audio signal has substantially the same audio characteristics as the predetermined audio characteristics represented by the predetermined audio signal z(t) shown in equations (7) and (8). The computing device may then store in the database an association between the second audio processing algorithm and at least one of the one or more characteristics of the second play zone.

方法500に関連して上述したものと同様に、データベースについてのエントリを生成する過程において、コンピューティングデバイスは、2つの再生ゾーンが類似の又は実質的に同一の再生ゾーン音響特性を有することを決定してもよい。したがって、上述したように、コンピューティングデバイスは、再生ゾーン音響特性と再生ゾーン音響特性に対応する決定したオーディオ処理アルゴリズムとを合成(すなわち、平均化)することができ、データベース内の1つのエントリとして合成された再生ゾーン音響特性及び合成したオーディオ処理アルゴリズムを記憶してもよい。他の例もまた可能である。 Similar to that described above with respect to method 500, in the process of creating entries for the database, the computing device determines that two play zones have similar or substantially identical play zone acoustic characteristics. You may Thus, as described above, the computing device can combine (i.e., average) the play zone acoustic properties and the determined audio processing algorithm corresponding to the play zone acoustic properties, and as one entry in the database: A synthesized play zone acoustic characteristic and a synthesized audio processing algorithm may be stored. Other examples are also possible.

方法500の場合と同様に、上記説明は、全体的に、コンピューティングデバイスによって実行されるものとして方法700について言及しているが、当業者は、方法700の機能が、代替的に、1つ又は複数のサーバ、1つ又は複数の再生デバイス、及び/又は1つ又は複数のコントローラデバイスなどの1つ又は複数の他のコンピューティングデバイスによって実行されてもよいことを理解するであろう。換言すれば、ブロック702-708のうちの1つ又は複数は、コンピューティングデバイスによって実行されてもよい一方で、ブロック702-708のうちの1つ又は複数の他のブロックは、1つ又は複数の他のコンピューティングデバイスによって実行されてもよい。他のコンピューティングデバイスは、1つ又は複数の再生デバイス、1つ又は複数のコントローラデバイス、及び/又は1つ又は複数のサーバを含んでもよい。 As with method 500, although the above description generally refers to method 700 as being performed by a computing device, it will be appreciated by those skilled in the art that the functionality of method 700 could alternatively be performed by a single or by one or more other computing devices, such as one or more servers, one or more playback devices, and/or one or more controller devices. In other words, one or more of blocks 702-708 may be executed by a computing device, while one or more of the other blocks 702-708 may be executed by one or more may be performed by any other computing device. Other computing devices may include one or more playback devices, one or more controller devices, and/or one or more servers.

ある例では、上述したように、ブロック702における再生デバイスによる第1のオーディオ信号の再生は、いかなる外部コマンドもなしに再生デバイスによって実行されうる。あるいは、再生デバイスは、コントローラデバイス及び/又は他の再生デバイスからのコマンドに応答して、第1のオーディオ信号を再生してもよい。別の例では、ブロック702-706は、1つ又は複数の再生デバイス又は1つ又は複数のコントローラデバイスによって実行されてもよく、コンピューティングデバイスは、ブロック708を実行してもよい。他の例もまた可能である。 In one example, as described above, playing the first audio signal by the playback device at block 702 may be performed by the playback device without any external command. Alternatively, the playback device may play the first audio signal in response to commands from the controller device and/or other playback devices. In another example, blocks 702-706 may be performed by one or more playback devices or one or more controller devices, and a computing device may perform block 708. Other examples are also possible.

IV. 再生ゾーン特性に基づく再生デバイスの校正
上述したように、本明細書に記載された幾つかの例は、再生ゾーンについての再生デバイスの校正を含む。幾つかの場合において、再生デバイスの校正は、再生ゾーンにおけるオーディオコンテンツの再生時に再生デバイスが適用するオーディオ処理アルゴリズムを決定することを含んでもよい。
IV. CALIBRATION OF PLAYBACK DEVICES BASED ON PLAY ZONE CHARACTERISTICS As noted above, some examples described herein involve calibration of playback devices for the play zone. In some cases, calibrating a playback device may include determining the audio processing algorithms that the playback device applies when playing audio content in the playback zone.

図8は、再生デバイスを校正することができる例示的な再生環境800を示している。示されるように、再生環境800は、コンピューティングデバイス802と、再生デバイス804及び806と、コントローラデバイス808と、再生ゾーン810とを含む。再生デバイス804及び806は、図2に示される再生デバイス200に類似していてもよい。そのため、再生デバイス804及び806は、それぞれ、マイクロホン220などのマイクロホンを有してもよい。幾つかの場合において、再生デバイス804及び806のうちの一方のみがマイクロホンを有していてもよい。 FIG. 8 shows an exemplary playback environment 800 in which playback devices can be calibrated. As shown, playback environment 800 includes computing device 802 , playback devices 804 and 806 , controller device 808 , and playback zone 810 . Playback devices 804 and 806 may be similar to playback device 200 shown in FIG. As such, playback devices 804 and 806 may each have a microphone, such as microphone 220 . In some cases, only one of playback devices 804 and 806 may have a microphone.

ある例では、再生デバイス804及び806は、メディア再生システムの一部とすることができ、図1のメディア再生システム100に関連して示されて上述されたもののように、オーディオコンテンツを同期して再生するように構成されうる。ある場合では、再生デバイス804及び806は、再生ゾーン810内で同期してオーディオコンテンツを再生するためにともにグループ化されうる。図1を再度参照すると、再生ゾーン810は、メディア再生システム100において異なる部屋及びゾーングループのいずれか1つ又は複数であってもよい。例えば、再生ゾーン810は、主寝室であってもよい。そのような場合、再生デバイス804及び806は、それぞれ、再生デバイス122及び124に対応していてもよい。 In one example, playback devices 804 and 806 can be part of a media playback system that synchronizes audio content, such as that shown and described above in connection with media playback system 100 of FIG. can be configured to play In some cases, playback devices 804 and 806 may be grouped together to play audio content synchronously within playback zone 810 . Referring back to FIG. 1, playback zone 810 may be any one or more of the different rooms and zone groups in media playback system 100 . For example, play zone 810 may be the master bedroom. In such cases, playback devices 804 and 806 may correspond to playback devices 122 and 124, respectively.

ある例では、コントローラデバイス808は、メディア再生システムを制御するために使用されうるデバイスであってもよい。ある場合では、コントローラデバイス808は、図3の制御デバイス300に類似していてもよい。図8のコントローラデバイス808は、再生ゾーン810の内部にあるように示されているが、コントローラデバイス808は、再生ゾーン810の外部にあってもよいし、又は、再生デバイス804、再生デバイス806、及び/又はメディア再生システム内の他のデバイスと通信しながら再生ゾーン810の内外に移動してもよい。 In one example, controller device 808 may be a device that may be used to control a media playback system. In some cases, controller device 808 may be similar to control device 300 of FIG. Although the controller device 808 of FIG. 8 is shown as being inside the regeneration zone 810, the controller device 808 may be outside the regeneration zone 810, or may be the regeneration device 804, the regeneration device 806, or the like. and/or may move in and out of playback zone 810 while communicating with other devices in the media playback system.

ある例では、コンピューティングデバイス802は、メディア再生システムと通信するサーバであってもよい。コンピューティングデバイス802は、メディア再生システムに関連する情報(再生デバイス804及び806に関連付けられた登録番号など)のデータベースを保守するように構成されうる。また、コンピューティングデバイス802は、前のセクションにおいて記載されたようにオーディオ処理アルゴリズムのデータベースを保守するように構成されうる。他の例もまた可能である。 In one example, computing device 802 may be a server that communicates with a media playback system. Computing device 802 may be configured to maintain a database of information related to the media playback system (such as registration numbers associated with playback devices 804 and 806). Computing device 802 may also be configured to maintain a database of audio processing algorithms as described in the previous section. Other examples are also possible.

方法900、1000及び1100は、後述するように、再生ゾーン810における再生デバイス804及び806などの再生ゾーンにおける再生デバイスの校正のために実行されうる機能を提供する。 Methods 900, 1000 and 1100 provide functions that may be performed for calibration of playback devices in the playback zone, such as playback devices 804 and 806 in playback zone 810, as described below.

a. 検出されたオーディオ信号に基づいてオーディオ処理アルゴリズムを決定する第1の例示的な方法
図9は、1つ又は複数の再生ゾーン特性に基づいてオーディオ処理アルゴリズムを決定する方法900の例示的なフロー図を示している。図9に示される方法900は、例えば、図1のメディア再生システム100、図2の1つ又は複数の再生デバイス200、図3の1つ又は複数の制御デバイス300、及び図8の再生環境800を含む動作環境内で実施されうる方法の実施形態を表している。ある例では、方法900は、メディア再生システムと通信するコンピューティングデバイスによって実行されうる。これに代えて、別の例では、方法900の機能の一部又は全ては、1つ又は複数のサーバ、1つ又は複数の再生デバイス、及び/又はメディア再生システムに関連する1つ又は複数のコントローラデバイスなどの、1つ又は複数の他のコンピューティングデバイスによって実行されてもよい。
a. First Exemplary Method for Determining Audio Processing Algorithms Based on Detected Audio Signals FIG. 9 is an exemplary flow diagram of a method 900 for determining audio processing algorithms based on one or more play zone characteristics. is shown. The method 900 illustrated in FIG. 9 may be used, for example, with the media playback system 100 of FIG. 1, the one or more playback devices 200 of FIG. 2, the one or more control devices 300 of FIG. 3, and the playback environment 800 of FIG. 1 depicts an embodiment of a method that may be implemented within an operating environment that includes a. In one example, method 900 can be performed by a computing device in communication with a media playback system. Alternatively, in another example, some or all of the functionality of method 900 includes one or more servers associated with one or more servers, one or more playback devices, and/or media playback systems. It may also be performed by one or more other computing devices, such as controller devices.

方法900は、ブロック902-908のうちの1つ又は複数によって示されるように1つ又は複数の操作、機能又は動作を含んでもよい。ブロックは順番に示されているが、これらのブロックは、並列に及び/又は本明細書に記載されたものとは異なる順序で実行されてもよい。また、様々なブロックは、所望の実装に基づいて、より少数のブロックに組み合わせられてもよく、さらなるブロックに分割されてもよく、及び/又は除去されてもよい。 Method 900 may include one or more operations, functions or actions as indicated by one or more of blocks 902-908. Although the blocks are shown in sequence, these blocks may be executed in parallel and/or in a different order than described herein. Also, various blocks may be combined into fewer blocks, divided into additional blocks, and/or removed based on the desired implementation.

図9に示されるように、方法900は、再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させるステップ(ブロック902)、再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを再生デバイスから受信するステップ(ブロック904)、第2のオーディオ信号及び再生デバイスの音響特性に基づいてオーディオ処理アルゴリズムを決定するステップ(ブロック906)、及び決定したオーディオ処理アルゴリズムを示すデータを再生デバイスに送信するステップ(ブロック908)を含む。 As shown in FIG. 9, method 900 includes the steps of causing a playback device within a playback zone to play a first audio signal (block 902), generating data indicative of a second audio signal detected by a microphone of the playback device. receiving from the playback device (block 904); determining an audio processing algorithm based on the second audio signal and the acoustic characteristics of the playback device (block 906); and providing data indicative of the determined audio processing algorithm to the playback device. A step of transmitting (block 908) is included.

方法900は、ブロック902において、再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させることを含む。図8を参照し、再生デバイスは再生デバイス804であってもよく、再生ゾーンは再生ゾーン810であってもよい。そのため、再生デバイスは、図2に示される再生デバイス200と同様の再生デバイスであってもよい。 Method 900 includes causing a playback device within a playback zone to play a first audio signal at block 902 . Referring to FIG. 8, the playback device may be playback device 804 and the playback zone may be playback zone 810 . As such, the playback device may be a playback device similar to playback device 200 shown in FIG.

ある例では、コンピューティングデバイス802は、再生デバイス804が再生ゾーン810について校正されるべきであることを決定してもよく、それに応答して再生ゾーン810内の再生デバイス804に第1のオーディオ信号を再生させてもよい。ある場合では、コンピューティングデバイス802は、ユーザから受信した、再生デバイス804が校正されるべきであることを示す入力に基づいて、再生デバイス804が校正されるべきであることを決定してもよい。ある例では、入力は、コントローラデバイス808を介してユーザから受信されてもよい。別の場合では、コンピューティングデバイス802は、再生デバイス804が新たな再生デバイスであることから又は再生ゾーン810へと新たに移動したことから、再生デバイス804が校正されるべきであることを決定してもよい。さらなる場合において、再生デバイス804(又はメディア再生システム内の任意の他の再生デバイス)の校正が定期的に実行されてもよい。そのため、コンピューティングデバイス802は、再生デバイス804が再生デバイス804の校正スケジュールに基づいて校正されるべきであることを決定してもよい。他の例もまた可能である。再生デバイス804が校正されるべきであることを決定するのに応答して、コンピューティングデバイス802は、その後、再生デバイス804に第1のオーディオ信号を再生させてもよい。 In one example, the computing device 802 may determine that the playback device 804 should be calibrated for the playback zone 810 and, in response, transmit the first audio signal to the playback device 804 within the playback zone 810 . may be played. In some cases, computing device 802 may determine that playback device 804 should be calibrated based on input received from the user indicating that playback device 804 should be calibrated. . In one example, input may be received from a user via controller device 808 . In other cases, computing device 802 determines that playback device 804 should be calibrated because playback device 804 is a new playback device or has newly moved to playback zone 810 . may In further cases, calibration of playback device 804 (or any other playback device in a media playback system) may be performed periodically. As such, computing device 802 may determine that playback device 804 should be calibrated based on the calibration schedule for playback device 804 . Other examples are also possible. In response to determining that playback device 804 should be calibrated, computing device 802 may then cause playback device 804 to play the first audio signal.

ブロック902は、コンピューティングデバイス802が再生デバイス804に第1のオーディオ信号を再生させることを含むが、当業者は、再生デバイス804による第1のオーディオ信号の再生が必ずしもコンピューティングデバイス802によって生じなくてもよい又は開始されなくてもよいことを理解するであろう。例えば、コントローラデバイス808は、再生デバイス804にコマンドを送信して、再生デバイス804に第1のオーディオ信号を再生させてもよい。別の例では、再生デバイス806は、再生デバイス804に第1のオーディオ信号を再生させてもよい。さらなる例において、再生デバイス804は、コンピューティングデバイス802、再生デバイス806又はコントローラデバイス808からのコマンドを受信することなく、第1のオーディオ信号を再生してもよい。ある例では、再生デバイス804は、再生デバイス804の動き又は再生デバイス804の再生ゾーンの変化に基づいて、校正が実行されるべきであることを決定してもよく、それに応答して、第1のオーディオ信号を再生してもよい。他の例もまた可能である。 Block 902 includes computing device 802 causing playback device 804 to play the first audio signal, although those skilled in the art will appreciate that playback of the first audio signal by playback device 804 does not necessarily occur with computing device 802 . may or may not be initiated. For example, controller device 808 may send a command to playback device 804 to cause playback device 804 to play the first audio signal. In another example, playback device 806 may cause playback device 804 to play the first audio signal. In a further example, playback device 804 may play the first audio signal without receiving commands from computing device 802 , playback device 806 , or controller device 808 . In one example, the playback device 804 may determine that calibration should be performed based on movement of the playback device 804 or changes in the playback zone of the playback device 804, and in response, the first audio signal may be reproduced. Other examples are also possible.

示唆されるように、第1のオーディオ信号は、再生ゾーン810についての再生デバイス804を校正するための検査信号又は測定信号であってもよい。そのため、第1のオーディオ信号は、ユーザによる通常使用中に再生デバイスによって再生されうるオーディオコンテンツを表してもよい。したがって、第1のオーディオ信号は、再生デバイスのレンダリング可能な周波数レンジ又は人間の可聴周波数レンジを実質的にカバーする周波数を有するオーディオコンテンツを含んでもよい。別の例では、第1のオーディオ信号は、再生デバイスのユーザのお気に入りの又は一般に再生されるオーディオトラックであってもよい。 As suggested, the first audio signal may be a test or measurement signal for calibrating playback device 804 for playback zone 810 . As such, the first audio signal may represent audio content that may be played by a playback device during normal use by a user. Accordingly, the first audio signal may include audio content having frequencies that substantially cover the renderable frequency range of the playback device or the human audible frequency range. In another example, the first audio signal may be a favorite or commonly played audio track of the user of the playback device.

方法900は、ブロック904において、再生デバイスのマイクロホンによって検出された第2のオーディオ信号を再生デバイスから受信することを含む。上記例を続けると、再生デバイス804が図2の再生デバイス200と同様であることを考慮すると、再生デバイス804のマイクロホンは、再生デバイス200のマイクロホン220に類似していてもよい。ある例では、コンピューティングデバイス802は、再生デバイス804からデータを受信してもよい。別の例では、コンピューティングデバイス804は、再生デバイス806などの他の再生デバイス、コントローラデバイス808などのコントローラデバイス、又は他のサーバなどの他のコンピューティングデバイスを介して、データを受信してもよい。 The method 900 includes, at block 904, receiving from the playback device a second audio signal detected by a microphone of the playback device. Continuing with the above example, the microphone of playback device 804 may be similar to microphone 220 of playback device 200, given that playback device 804 is similar to playback device 200 of FIG. In one example, computing device 802 may receive data from playback device 804 . In another example, computing device 804 may receive data via other playback devices such as playback device 806, controller devices such as controller device 808, or other computing devices such as other servers. good.

再生デバイス804が第1のオーディオ信号を再生しているとき又はその直後まもなく、再生デバイス804のマイクロホンは、第2のオーディオ信号を検出することができる。第2のオーディオ信号は、再生ゾーン内に存在するサウンドを含んでもよい。例えば、第2のオーディオ信号は、再生デバイス804によって再生された第1のオーディオ信号に対応する部分を含んでもよい。 When the playback device 804 is playing the first audio signal, or shortly thereafter, the microphone of the playback device 804 can detect the second audio signal. The second audio signal may include sounds present within the play zone. For example, the second audio signal may include portions corresponding to the first audio signal played by playback device 804 .

ある例では、コンピューティングデバイス802は、マイクロホンが第2のオーディオ信号を検出するとき、メディアストリームとして再生デバイス804から第1のオーディオ信号を示すデータを受信してもよい。別の例では、コンピューティングデバイス802は、再生デバイス804のマイクロホンによる第2のオーディオ信号の検出が完了すると、第2のオーディオ信号を示すデータを再生デバイス804から受信してもよい。いずれの場合も、再生デバイス804は、(再生デバイス200のオーディオ処理コンポーネント208などのオーディオ処理コンポーネントを介して)検出された第2のオーディオ信号を処理して、第2のオーディオ信号を示すデータを生成してコンピューティングデバイス802にデータを送信してもよい。ある例では、第2のオーディオ信号を示すデータを生成することは、アナログ信号からデジタル信号に第2のオーディオ信号を変換することを含んでもよい。他の例もまた可能である。 In one example, computing device 802 may receive data indicative of the first audio signal from playback device 804 as a media stream when the microphone detects the second audio signal. In another example, computing device 802 may receive data indicative of the second audio signal from playback device 804 upon completion of detection of the second audio signal by the microphone of playback device 804 . In either case, playback device 804 processes the detected second audio signal (via an audio processing component, such as audio processing component 208 of playback device 200) to generate data indicative of the second audio signal. The data may be generated and sent to computing device 802 . In some examples, generating data indicative of the second audio signal may include converting the second audio signal from an analog signal to a digital signal. Other examples are also possible.

方法900は、ブロック906において、第2のオーディオ信号及び再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定することを含む。ある例では、再生デバイスの音響特性は、図5に示される方法500のブロック506に関連して上述したように、h(t)であってもよい。例えば、上述したように、無響室内の基準再生デバイスに測定信号を再生させ、基準再生デバイスのマイクロホンによって検出されたオーディオ信号を示すデータを基準再生デバイスから受信し、検出されたオーディオ信号と測定信号との比較に基づいて再生デバイスの音響特性を決定することにより、再生デバイスの音響特性を決定することができる。 The method 900 includes determining an audio processing algorithm based on the second audio signal and the acoustic characteristics of the playback device at block 906 . In one example, the acoustic property of the playback device may be h p (t), as described above with respect to block 506 of method 500 shown in FIG. For example, as described above, having a reference reproduction device in an anechoic chamber reproduce the measurement signal, receive data from the reference reproduction device indicative of the audio signal detected by the microphone of the reference reproduction device, and obtain the detected audio signal and the measurement. By determining the acoustic properties of the reproduction device based on the comparison with the signal, the acoustic properties of the reproduction device can be determined.

上記示唆したように、基準再生デバイスは、再生ゾーン810について校正されている再生デバイス804と同じモデルであってもよい。また、ブロック506に関連して上述したものと同様に、コンピューティングデバイスは、それに応じて、再生デバイスの音響特性及び第2のオーディオ信号に基づいて、再生ゾーンの音響特性を決定してもよい。 As suggested above, the reference playback device may be the same model as the playback device 804 being calibrated for the playback zone 810 . Also, similar to that described above with respect to block 506, the computing device may accordingly determine the acoustic characteristics of the playback zone based on the acoustic characteristics of the playback device and the second audio signal. .

ある例では、コンピューティングデバイス802は、ブロック508に関連して上述したものと同様の再生ゾーンの音響特性に基づいて、オーディオ処理アルゴリズムを決定してもよい。そのため、コンピューティングデバイス802は、再生ゾーンの音響特性及び所定のオーディオ特性に基づいて、オーディオ処理アルゴリズムを決定してもよい。ここで、再生ゾーン810内で第1のオーディオ信号を再生するときの、決定したオーディオ処理アルゴリズムの再生デバイス804による適用は、第3のオーディオ信号を生成する。第3のオーディオ信号は、所定のオーディオ特性と実質的に同一のオーディオ特性を有するか、又は少なくともある程度、所定のオーディオ特性を持つ。 In one example, computing device 802 may determine audio processing algorithms based on acoustic characteristics of the play zone similar to those described above with respect to block 508 . As such, the computing device 802 may determine audio processing algorithms based on the acoustic characteristics of the play zone and predetermined audio characteristics. Here, application by playback device 804 of the determined audio processing algorithm when playing back the first audio signal within playback zone 810 produces a third audio signal. The third audio signal has audio characteristics that are substantially the same as the predetermined audio characteristics, or at least to some extent, the predetermined audio characteristics.

別の例では、コンピューティングデバイス802は、再生ゾーン810の音響特性に対応するオーディオ処理アルゴリズムを複数のオーディオ処理アルゴリズムの中から選択してもよい。例えば、コンピューティングデバイスは、図6A及び図6Bそれぞれのデータベース600及び650などのデータベースにアクセスすることができ、再生ゾーン810の音響特性に基づいてオーディオ処理アルゴリズムを特定してもよい。例えば、図6Aのデータベース600を参照すると、再生ゾーン810の音響特性がhroom -1(t)-3として決定された場合、データベースエントリ606の係数w、x、y及びzを有するオーディオ処理アルゴリズムを特定することができる。 In another example, computing device 802 may select an audio processing algorithm from among multiple audio processing algorithms that corresponds to the acoustic characteristics of play zone 810 . For example, a computing device may access a database, such as databases 600 and 650 of FIGS. 6A and 6B, respectively, and identify audio processing algorithms based on the acoustic properties of play zone 810 . For example, referring to database 600 of FIG. 6A, if the acoustic properties of play zone 810 were determined as h room −1 (t)−3, then coefficients w 3 , x 3 , y 3 and z 3 of database entry 606 would be It is possible to specify an audio processing algorithm that has

幾つかの場合において、再生ゾーン810の決定された音響特性に完全に一致する音響特性は、データベースにおいてみつからないことがある。そのような場合、再生ゾーン810の音響特性に最も類似しているデータベース内の音響特性に対応するオーディオ処理アルゴリズムが特定されてもよい。他の例もまた可能である。 In some cases, acoustic properties that exactly match the determined acoustic properties of play zone 810 may not be found in the database. In such cases, an audio processing algorithm may be identified that corresponds to the acoustic characteristics in the database that are most similar to the acoustic characteristics of play zone 810 . Other examples are also possible.

方法900は、ブロック908において、決定したオーディオ処理アルゴリズムを示すデータを再生デバイスに送信することを含む。上記例を続けると、コンピューティングデバイス802(又は1つ又は複数の他のデバイス)は、決定したオーディオ処理アルゴリズムを示すデータを再生デバイス804に送信してもよい。また、決定されたオーディオ処理アルゴリズムを示すデータは、再生ゾーン810においてオーディオコンテンツを再生するときに、決定されたオーディオ処理アルゴリズムを再生デバイス804に適用させるためのコマンドを含んでもよい。ある例では、オーディオコンテンツにオーディオ処理アルゴリズムを適用することは、オーディオコンテンツの周波数等化を変更してもよい。別の例では、オーディオコンテンツにオーディオ処理アルゴリズムを適用することは、オーディオコンテンツの音量域を変更してもよい。他の例もまた可能である。 Method 900 includes transmitting data indicative of the determined audio processing algorithm to a playback device at block 908 . Continuing the above example, computing device 802 (or one or more other devices) may transmit data to playback device 804 indicating the determined audio processing algorithm. The data indicative of the determined audio processing algorithm may also include commands for causing playback device 804 to apply the determined audio processing algorithm when playing audio content in playback zone 810 . In one example, applying an audio processing algorithm to the audio content may change the frequency equalization of the audio content. In another example, applying an audio processing algorithm to audio content may change the volume range of the audio content. Other examples are also possible.

幾つかの場合において、再生ゾーンは、同期してオーディオコンテンツを再生するように構成された複数の再生デバイスを含んでもよい。例えば、上述したように、再生デバイス804及び806は、再生ゾーン810において同期してオーディオコンテンツを再生するように構成されてもよい。そのような場合、再生デバイスのうちの1つの校正は、他の再生デバイスを含んでもよい。 In some cases, a playback zone may include multiple playback devices configured to play audio content in sync. For example, as described above, playback devices 804 and 806 may be configured to play audio content synchronously in playback zone 810 . In such cases, calibration of one of the playback devices may include the other playback device.

ある例では、再生ゾーン810などの再生ゾーンは、同期してオーディオコンテンツを再生するように構成された、再生デバイス804などの第1の再生デバイス及び再生デバイス806などの第2の再生デバイスを含んでもよい。コンピューティングデバイス802によって協調されて実行されるのにともない、再生デバイス804の校正は、再生デバイス804に第1のオーディオ信号を再生させ且つ再生デバイス806に第2のオーディオ信号を再生させることを含んでもよい。 In one example, a playback zone, such as playback zone 810, includes a first playback device, such as playback device 804, and a second playback device, such as playback device 806, configured to play audio content in synchronism. It's okay. Calibrating playback device 804, as performed in coordination with computing device 802, includes causing playback device 804 to play a first audio signal and playback device 806 to play a second audio signal. It's okay.

ある場合では、コンピューティングデバイス802は、再生デバイス804による第1のオーディオ信号の再生と同期して、再生デバイス806に第2のオーディオ信号を再生させてもよい。ある例では、再生デバイス804及び806のいずれかによって同期して再生されるオーディオコンテンツの成分が識別可能とすることができるように、第2のオーディオ信号は第1のオーディオ信号に直交していてもよい。別の場合では、コンピューティングデバイスは、再生デバイス804による第1のオーディオ信号の再生が終了した後に再生デバイス806に第2のオーディオ信号を再生させてもよい。他の例もまた可能である。 In some cases, computing device 802 may cause playback device 806 to play the second audio signal in synchronization with playback of the first audio signal by playback device 804 . In one example, the second audio signal is orthogonal to the first audio signal such that the components of the audio content that are synchronously played back by either of playback devices 804 and 806 can be identifiable. good too. In other cases, the computing device may cause playback device 806 to play the second audio signal after playback device 804 finishes playing the first audio signal. Other examples are also possible.

そして、コンピューティングデバイス802は、ブロック904に関連して記載されたものと同様に、再生デバイス804のマイクロホンによって検出された第3のオーディオ信号を再生デバイス804から受信してもよい。しかしながら、この場合、第3のオーディオ信号は、再生デバイス804によって再生された第1のオーディオ信号に対応する部分及び再生デバイス806によって再生された第2のオーディオ信号に対応する部分の双方を含んでもよい。 Computing device 802 may then receive from playback device 804 a third audio signal detected by the microphone of playback device 804 , similar to that described with respect to block 904 . However, in this case, the third audio signal may include both a portion corresponding to the first audio signal reproduced by reproduction device 804 and a portion corresponding to the second audio signal reproduced by reproduction device 806. good.

その後、コンピューティングデバイス802は、第3のオーディオ信号及び再生デバイス804の音響特性に基づいて、オーディオ処理アルゴリズムを決定して、決定したオーディオ処理アルゴリズムを示すデータを再生デバイス804に送信してもよい。決定されたオーディオ処理アルゴリズムは、ブロック906及び908に関連して上述したものと同様に、再生ゾーン810においてオーディオコンテンツを再生するときに、再生デバイス804が適用するものである。 Computing device 802 may then determine an audio processing algorithm based on the third audio signal and the acoustic characteristics of playback device 804 and transmit data indicative of the determined audio processing algorithm to playback device 804 . . The determined audio processing algorithms, similar to those described above with respect to blocks 906 and 908 , are those that playback device 804 applies when playing audio content in playback zone 810 .

ある場合では、上述したように、再生デバイス806は、マイクロホンを有してもよく、また、上述したものと同様に校正されてもよい。示されるように、再生デバイス804によって再生される第1のオーディオ信号及び再生デバイス806によって再生される第2のオーディオ信号は、直交していてもよく又は識別可能であってもよい。例えば、また上述したように、再生デバイス806は、再生デバイス804による第1のオーディオ信号の再生が終了した後に、第2のオーディオ信号を再生してもよい。別の例において、第2のオーディオ信号は、第1のオーディオ信号の位相に直交する位相を有してもよい。さらに別の例において、第2のオーディオ信号は、第1のオーディオ信号とは異なる及び/又は変化する周波数レンジを有してもよい。他の例もまた可能である。 In some cases, as described above, playback device 806 may have a microphone and may be calibrated similarly to those described above. As shown, the first audio signal reproduced by reproduction device 804 and the second audio signal reproduced by reproduction device 806 may be orthogonal or distinct. For example, and as discussed above, playback device 806 may play the second audio signal after playback device 804 finishes playing the first audio signal. In another example, the second audio signal may have a phase that is orthogonal to the phase of the first audio signal. In yet another example, the second audio signal may have a different and/or varying frequency range than the first audio signal. Other examples are also possible.

いずれの場合にも、識別可能な第1及び第2のオーディオ信号により、コンピューティングデバイス802は、再生デバイス804によって検出された第3のオーディオ信号から、検出された第3のオーディオ信号に対する再生デバイス804の寄与及び検出された第3のオーディオ信号に対する再生デバイス806の寄与を解析することができる。そして、各オーディオ処理アルゴリズムは、再生デバイス804及び再生デバイス806について決定されうる。 In either case, the distinguishable first and second audio signals allow the computing device 802 to select from the third audio signal detected by the playback device 804 the playback device for the detected third audio signal. The contribution of 804 and the contribution of playback device 806 to the detected third audio signal can be analyzed. Each audio processing algorithm can then be determined for playback device 804 and playback device 806 .

各オーディオ処理アルゴリズムは、ブロック508に関連して上述したものと同様に、決定されうる。ある場合では、再生ゾーンの第1の音響特性は、再生デバイス604によって検出された第3のオーディオ信号に基づいて決定されてもよく、再生ゾーンの第2の音響特性は、再生デバイス806によって検出された第4のオーディオ信号に基づいて決定されてもよい。第3のオーディオ信号と同様に、第4のオーディオ信号は、再生デバイス804によって再生された第1のオーディオ信号に対応する部分及び再生デバイス806によって再生された第2のオーディオ信号に対応する部分を含んでもよい。 Each audio processing algorithm can be determined in a manner similar to that described above with respect to block 508 . In some cases, a first acoustic property of the play zone may be determined based on a third audio signal detected by playback device 604 and a second acoustic property of the play zone is detected by playback device 806. may be determined based on the obtained fourth audio signal. Similar to the third audio signal, the fourth audio signal has a portion corresponding to the first audio signal reproduced by reproduction device 804 and a portion corresponding to the second audio signal reproduced by reproduction device 806. may contain.

そして、再生デバイス804及び再生デバイス806についての各オーディオ処理アルゴリズムは、再生ゾーンの第1の音響特性及び再生ゾーンの第2の音響特性の個々に又はそれらの組み合わせに基づいて、決定されうる。幾つかの場合において、再生ゾーンの第1の音響特性及び再生ゾーンの第2の音響特性の組み合わせは、再生ゾーンの個別の第1又は第2の音響特性のいずれかよりも、再生ゾーンのより包括的な音響特性を表すことができる。そして、各オーディオ処理アルゴリズムは、再生デバイス804及び再生デバイス806に送信されて、再生ゾーン810においてオーディオコンテンツを再生するときに適用される。他の例もまた可能である。 Each audio processing algorithm for playback device 804 and playback device 806 may then be determined based on the first acoustic characteristic of the playback zone and the second acoustic characteristic of the playback zone, individually or in combination. In some cases, the combination of the first acoustic characteristic of the reproduction zone and the second acoustic characteristic of the reproduction zone is more pronounced of the reproduction zone than either the individual first or second acoustic characteristic of the reproduction zone. Comprehensive acoustic properties can be represented. Each audio processing algorithm is then transmitted to playback device 804 and playback device 806 for application when playing audio content in playback zone 810 . Other examples are also possible.

上記説明は、全体的に、図8のコンピューティングデバイス802によって実行されるものとして、方法900ついて言及しているが、当業者は、上述したように、方法900の機能が、代替的に、1つ又は複数のサーバ、1つ又は複数の再生デバイス及び/又は1つ又は複数のコントローラデバイスなどの、1つ又は複数の他のコンピューティングデバイスよって実行されてもよいことを理解するであろう。例えば、再生ゾーン810についての再生デバイス804を校正するための方法900の機能は、再生デバイス804、再生デバイス806、コントローラデバイス808、又は図8には示されていないが再生デバイス804と通信する他のデバイスによって実行されてもよい。 Although the above description generally refers to method 900 as being performed by computing device 802 of FIG. It will be appreciated that it may be performed by one or more other computing devices, such as one or more servers, one or more playback devices and/or one or more controller devices. . For example, the functionality of method 900 for calibrating playback device 804 for playback zone 810 may include playback device 804, playback device 806, controller device 808, or any other device not shown in FIG. 8 that communicates with playback device 804. device.

さらに、幾つかの場合において、ブロック902-908のうちの1つ又は複数は、コンピューティングデバイス802によって実行されうる一方で、ブロック902-908のうちの1つ又は複数の他のブロックは、1つ又は複数の他のデバイスによって実行されてもよい。例えば、ブロック902及び904は、再生デバイス804、再生デバイス806及び再生デバイス808のうちの1つ又は複数によって実行されうる。換言すれば、コンピューティングデバイス802以外の調整デバイスは、再生ゾーン810についての再生デバイス804の校正を調整することができる。 Further, in some cases, one or more of blocks 902-908 may be performed by computing device 802, while one or more other blocks of blocks 902-908 may be performed by one or more of the blocks 902-908. It may be performed by one or more other devices. For example, blocks 902 and 904 may be performed by one or more of playback device 804 , playback device 806 and playback device 808 . In other words, an adjustment device other than computing device 802 can adjust the calibration of playback device 804 for playback zone 810 .

幾つかの場合において、ブロック906において、調整デバイスは、第2のオーディオ信号をコンピューティングデバイス802に送信して、コンピューティングデバイス802が第2のオーディオ信号及び再生デバイスの音響特性に基づいてオーディオ処理アルゴリズムを決定してもよい。再生デバイスの音響特性は、調整デバイスによってコンピューティングデバイス802に提供されてもよいし、又は再生デバイスの特性が格納されている他のデバイスから提供されてもよい。ある場合では、コンピューティングデバイス802は調整デバイスよりも多くの処理能力を有するため、コンピューティングデバイス802がブロック906の計算を実行してもよい。 In some cases, at block 906, the coordinating device transmits the second audio signal to the computing device 802 for the computing device 802 to process the audio based on the second audio signal and the acoustic characteristics of the playback device. Algorithm may be determined. The acoustic characteristics of the playback device may be provided to the computing device 802 by the coordinating device, or may be provided from some other device on which the playback device characteristics are stored. In some cases, the computing device 802 may perform the calculations of block 906 because the computing device 802 has more processing power than the coordinating device.

ある例では、コンピューティングデバイス802は、オーディオ処理アルゴリズムを決定すると、決定したオーディオ処理アルゴリズムを直接再生デバイス804に送信して、再生ゾーン810でオーディオコンテンツを再生するときに再生デバイス804が適用できるようにしてもよい。別の例では、コンピューティングデバイス802は、オーディオ処理アルゴリズムを決定すると、決定したオーディオ処理アルゴリズムを調整デバイスに送信してもよく、調整デバイスはブロック908を実行して、(調整デバイスが再生デバイス804ではない場合は)決定したオーディオ処理アルゴリズムを再生デバイス804に送信してもよい。他の例もまた可能である。 In one example, once the computing device 802 determines the audio processing algorithm, the computing device 802 sends the determined audio processing algorithm directly to the playback device 804 for application by the playback device 804 when playing audio content in the playback zone 810 . can be In another example, once the computing device 802 determines the audio processing algorithm, it may transmit the determined audio processing algorithm to the coordinating device, which performs block 908 (where the coordinating device otherwise) the determined audio processing algorithm may be transmitted to playback device 804 . Other examples are also possible.

b. 検出されたオーディオ信号に基づいてオーディオ処理アルゴリズムを決定する第2の例示的な方法
幾つかの場合において、上述したように、再生ゾーンにおける再生デバイスの校正は、サーバ又はコントーラデバイスなどのコンピューティングデバイスによって調整されて実行されてもよい。幾つかの他の場合において、上述したように、再生デバイスの校正は、校正されている再生デバイスによって調整及び/又は実行されてもよい。
b. A Second Exemplary Method of Determining an Audio Processing Algorithm Based on a Detected Audio Signal In some cases, as described above, calibration of playback devices in the playback zone involves computing devices such as servers or controller devices. may be coordinated and performed by In some other cases, as described above, playback device calibration may be adjusted and/or performed by the playback device being calibrated.

図10は、校正されている再生デバイスによって実行されるような、1つ又は複数の再生ゾーン特性に基づいて、オーディオ処理アルゴリズムを決定する方法1000の例示的なフロー図を示している。図10に示される方法1000は、例えば、図1のメディア再生システム100、図2の1つ又は複数の再生デバイス200、図3の1つ又は複数の制御デバイス300、及び図8の再生環境800を含む動作環境内で実施されうる方法の実施形態を表している。示されるように、方法800は、再生ゾーンのために校正されるべき再生デバイスによって実行されうる。幾つかの場合において、方法1000の機能の一部は、代替的に、1つ又は複数のサーバ、1つ又は複数の他の再生デバイス、及び/又は1つ又は複数のコントローラデバイスなどの1つ又は複数の他のコンピューティングデバイスによって実行されてもよい。 FIG. 10 shows an exemplary flow diagram of a method 1000 for determining audio processing algorithms based on one or more playback zone characteristics, as performed by a playback device being calibrated. 10, the one or more playback devices 200 of FIG. 2, the one or more control devices 300 of FIG. 3, and the playback environment 800 of FIG. 8, for example. 1 depicts an embodiment of a method that may be implemented within an operating environment that includes a. As shown, method 800 can be performed by a playback device to be calibrated for a playback zone. In some cases, some of the functionality of method 1000 is alternatively performed by one or more servers, one or more other playback devices, and/or one or more controller devices. or by multiple other computing devices.

方法1000は、ブロック1002-1008のうちの1つ又は複数によって示されるように1つ又は複数の操作、機能又は動作を含んでもよい。ブロックは順番に示されているが、これらのブロックは、並列に及び/又は本明細書に記載されたものとは異なる順序で実行されてもよい。また、様々なブロックは、所望の実装に基づいて、より少数のブロックに組み合わせられてもよく、さらなるブロックに分割されてもよく、及び/又は除去されてもよい。 Method 1000 may include one or more operations, functions or actions as indicated by one or more of blocks 1002-1008. Although the blocks are shown in sequence, these blocks may be executed in parallel and/or in a different order than described herein. Also, various blocks may be combined into fewer blocks, divided into additional blocks, and/or removed based on the desired implementation.

図10に示されるように、方法1000は、再生ゾーン内で第1のオーディオ信号を再生するステップ(ブロック1002)、マイクロホンによって第2のオーディオ信号を検出するステップ(ブロック1004)、第2のオーディオ信号及び再生デバイスの音響特性に基づいてオーディオ処理アルゴリズムを決定するステップ(ブロック1006)、決定したオーディオ処理アルゴリズムを、メディアアイテムを再生するときにメディアアイテムに対応するオーディオデータに適用するステップ(ブロック1008)を含む。 As shown in FIG. 10, method 1000 includes the steps of playing a first audio signal within a play zone (block 1002), detecting a second audio signal with a microphone (block 1004), Determining an audio processing algorithm based on the acoustic characteristics of the signal and the playback device (block 1006); applying the determined audio processing algorithm to audio data corresponding to the media item when playing the media item (block 1008); )including.

方法1000は、ブロック1002において、再生ゾーンにおいて、第1のオーディオ信号を再生することを含む。図8を参照すると、再生デバイス804が再生ゾーン810内にある間、方法1000を実行する再生デバイスは、再生デバイス804であってもよい。ある例では、ブロック1002はブロック902に類似しているが、コンピューティングデバイス802よりもむしろ校正されている再生デバイス804によって実行されてもよい。それにもかかわらず、ブロック902に関連した上記説明が、時にはいくらか変形して、ブロック1002に適用可能である。 Method 1000 includes playing a first audio signal in a play zone at block 1002 . Referring to FIG. 8, a playback device performing method 1000 while playback device 804 is within playback zone 810 may be playback device 804 . In one example, block 1002 is similar to block 902 but may be performed by calibrated playback device 804 rather than computing device 802 . Nonetheless, the discussion above relating to block 902 is applicable to block 1002, sometimes with some variation.

方法1000は、ブロック1004において、マイクロホンによって、第2のオーディオ信号を検出することを含む。第2のオーディオ信号は、再生デバイスによって再生された第1のオーディオ信号に対応する部分を含んでもよい。ある例では、ブロック1004はブロック904に類似しているが、コンピューティングデバイス802よりもむしろ校正されている再生デバイス804によって実行されてもよい。それにもかかわらず、ブロック904に関連した上記説明が、時にはいくらか変形して、ブロック1004に適用可能である。 Method 1000 includes detecting a second audio signal with a microphone at block 1004 . The second audio signal may include portions corresponding to the first audio signal reproduced by the reproduction device. In some examples, block 1004 is similar to block 904 but may be performed by calibrated playback device 804 rather than computing device 802 . Nonetheless, the discussion above relating to block 904 is applicable to block 1004, sometimes with some variations.

方法1000は、ブロック1006において、第2のオーディオ信号及び再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定することを含む。ある例では、ブロック1006はブロック906に類似しているが、コンピューティングデバイス802よりもむしろ校正されている再生デバイス804によって実行されてもよい。それにもかかわらず、ブロック906に関連した上記説明が、時にはいくらか変形して、ブロック1006に適用可能である。 The method 1000 includes determining an audio processing algorithm based on the second audio signal and the acoustic characteristics of the playback device at block 1006 . In some examples, block 1006 is similar to block 906 but may be performed by calibrated playback device 804 rather than computing device 802 . Nonetheless, the discussion above relating to block 906 is applicable to block 1006, sometimes with some variations.

ある場合では、オーディオ処理アルゴリズムを決定する機能は、ブロック906に関連して記載されたように、再生ゾーン810のために校正されている再生デバイス804によって全体的に実行されてもよい。例えば、再生デバイス804が、第2のオーディオ信号及び再生デバイス804の音響特性に基づいて、再生ゾーン610の音響特性を決定してもよい。ある場合では、再生デバイス804は、再生デバイス804の音響特性をローカルに格納していてもよい。別の場合では、再生デバイス804は、他のデバイスから、再生デバイス804の音響特性を受信してもよい。 In some cases, the function of determining audio processing algorithms may be performed entirely by playback device 804 that is calibrated for playback zone 810, as described with respect to block 906. For example, playback device 804 may determine the acoustic properties of playback zone 610 based on the second audio signal and the acoustic properties of playback device 804 . In some cases, playback device 804 may store the acoustic characteristics of playback device 804 locally. In other cases, playback device 804 may receive acoustic characteristics of playback device 804 from other devices.

ある例では、その後、再生デバイス804は、再生ゾーン610の音響特性に対応するオーディオ処理アルゴリズムを複数のオーディオ処理アルゴリズムの中から選択してもよい。例えば、再生デバイス804は、それぞれ、図6A及び図6Bに関連して示されて上述されたデータベース600及び650などのデータベースにアクセスして、再生ゾーン610の音響特性と実質的に同様の音響特性に対応するオーディオ処理アルゴリズムをデータベースにおいて特定してもよい。 In one example, playback device 804 may then select an audio processing algorithm from among multiple audio processing algorithms that corresponds to the acoustic characteristics of playback zone 610 . For example, playback device 804 may access databases, such as databases 600 and 650 shown and described above with respect to FIGS. may be identified in the database for audio processing algorithms corresponding to .

他の例において、方法900のブロック906及び/又は方法500のブロック508に関連して上述した機能と同様に、再生デバイス804は、再生ゾーン610の音響特性及び所定のオーディオ特性に基づいて、オーディオ処理アルゴリズムを計算してもよい。ここで、再生ゾーン810において第1のオーディオ信号を再生するときの、決定したオーディオ処理アルゴリズムの再生デバイス804による適用は、第3のオーディオ信号を生成する。第3のオーディオ信号は、所定のオーディオ特性と実質的に同一のオーディオ特性を有するか又は少なくともある程度の所定のオーディオ特性を持つ。 In another example, similar to the functionality described above with respect to block 906 of method 900 and/or block 508 of method 500, playback device 804 may generate an audio signal based on acoustic characteristics of playback zone 610 and predetermined audio characteristics. A processing algorithm may be calculated. Here, application by playback device 804 of the determined audio processing algorithm when playing back the first audio signal in playback zone 810 produces a third audio signal. The third audio signal has substantially the same audio characteristics as the predetermined audio characteristics or at least some predetermined audio characteristics.

さらなる例において、前のセクションにおいて記載されたように、再生デバイス804以外の他のデバイスが、ブロック1006の機能の一部又は全てを実行してもよい。例えば、再生デバイス804は、コンピューティングデバイス802などのコンピューティングデバイス、再生デバイス806などの他の再生デバイス、コントローラデバイス808などのコントローラデバイス、及び/又は再生デバイス804と通信する幾つかの他のデバイスに対して、検出された第2のオーディオ信号を示すデータを送信して、オーディオ処理アルゴリズムを要求してもよい。別の例において、再生デバイス804は、検出されたオーディオ信号に基づいて再生ゾーン810の音響特性を決定し、再生ゾーン810の決定した音響特性に基づいたオーディオ処理アルゴリズムについての要求に応じて、再生ゾーン810の決定した音響特性を示すデータを他のデバイスに送信してもよい。 In further examples, other devices besides playback device 804 may perform some or all of the functionality of block 1006, as described in the previous section. For example, playback device 804 may be a computing device such as computing device 802, another playback device such as playback device 806, a controller device such as controller device 808, and/or some other device in communication with playback device 804. may send data indicative of the detected second audio signal to request the audio processing algorithm. In another example, the playback device 804 determines acoustic characteristics of the playback zone 810 based on the detected audio signal, and performs playback in response to a request for an audio processing algorithm based on the determined acoustic characteristics of the playback zone 810 . Data indicative of the determined acoustic properties of zone 810 may be transmitted to other devices.

換言すれば、1つの態様において、再生デバイス804は、検出された第2のオーディオ信号及び/又は再生デバイス804によって他のデバイスに提供された再生ゾーン810の音響特性に基づいて、他のデバイスからオーディオ処理アルゴリズムを要求することによって、オーディオ処理アルゴリズムを決定してもよい。 In other words, in one aspect, the playback device 804 outputs audio from the other device based on the detected second audio signal and/or the acoustic characteristics of the playback zone 810 provided to the other device by the playback device 804 . The audio processing algorithm may be determined by requesting the audio processing algorithm.

再生デバイス804が再生ゾーン810の音響特性ではなく、検出された第2のオーディオ信号を示すデータを提供する場合、再生デバイス804は、他のデバイスが再生ゾーン810の音響特性を決定することができるように、検出された第2のオーディオ信号を示すデータとともに再生デバイス804の音響特性を送信してもよい。別の場合では、検出された第2のオーディオ信号を示すデータを受信するデバイスは、データに基づいて、データを送信する再生デバイス804のモデルを決定し、再生デバイス804のモデル(すなわち、再生デバイス音響特性データベース)に基づいて、再生デバイス804の音響特性を決定してもよい。他の例もまた可能である。 If the playback device 804 provides data indicative of the detected second audio signal rather than the acoustic properties of the playback zone 810 , the playback device 804 allows other devices to determine the acoustic properties of the playback zone 810 . As such, the acoustic characteristics of playback device 804 may be transmitted along with data indicative of the detected second audio signal. In another case, a device receiving data indicative of the detected second audio signal determines, based on the data, the model of the playback device 804 transmitting the data, and the model of the playback device 804 (i.e., the playback device The acoustic properties of the playback device 804 may be determined based on the acoustic properties database). Other examples are also possible.

そして、再生デバイス804は、決定されたオーディオ処理アルゴリズムを受信してもよい。ある場合では、再生デバイス804は、他のデバイスが再生デバイス804よりも多くの処理能力を有することから、第2のオーディオ信号を他のデバイスに送信してもよい。別の場合では、再生デバイス804及び1つ又は複数の他のデバイスは、処理能力の効率的な使用のために、計算及び機能を並列に実行してもよい。他の例もまた可能である。 Playback device 804 may then receive the determined audio processing algorithm. In some cases, playback device 804 may transmit the second audio signal to other devices because the other devices have more processing power than playback device 804 . In other cases, playback device 804 and one or more other devices may perform computations and functions in parallel for efficient use of processing power. Other examples are also possible.

方法800は、ブロック1008において、決定したオーディオ処理アルゴリズムを、メディアアイテムを再生するときにメディアアイテムに対応するオーディオデータに対して適用することを含む。ある例では、再生ゾーン810内でメディアアイテムを再生するときの再生デバイス804によるメディアアイテムのオーディオデータに対するオーディオ処理アルゴリズムの適用は、メディアアイテムの周波数等化を変更してもよい。別の例では、再生ゾーン810内でメディアアイテムを再生するときの再生デバイス804によるメディアアイテムのオーディオデータに対するオーディオ処理アルゴリズムの適用は、メディアアイテムの音量域を変更してもよい。ある例では、再生デバイス804は、決定されたオーディオ処理アルゴリズムをローカルメモリストレージに格納することができ、再生ゾーン810においてオーディオコンテンツを再生するときにオーディオ処理アルゴリズムを適用してもよい。 The method 800 includes applying the determined audio processing algorithm to audio data corresponding to the media item at block 1008 when playing the media item. In one example, the application of audio processing algorithms to the audio data of the media item by playback device 804 when playing the media item within playback zone 810 may alter the frequency equalization of the media item. In another example, application of audio processing algorithms to the audio data of the media item by the playback device 804 when playing the media item within the playback zone 810 may change the volume range of the media item. In one example, playback device 804 may store the determined audio processing algorithms in local memory storage and may apply the audio processing algorithms when playing audio content in playback zone 810 .

ある例では、再生デバイス804は、再生デバイス804の異なる構成のために校正されてもよい。例えば、再生デバイス804は、再生ゾーン810における個々の再生を含む第1の構成、並びに再生ゾーン810における再生デバイス806との同期再生を含む第2の構成のために、校正されてもよい。そのような場合、第1のオーディオ処理アルゴリズムが、再生デバイスの第1の再生構成のために、決定、格納、及び適用され、第2のオーディオ処理アルゴリズムが、再生デバイスの第2の再生構成のために、決定、格納、及び適用される。 In some examples, playback device 804 may be calibrated for different configurations of playback device 804 . For example, playback device 804 may be calibrated for a first configuration that includes individual playback in playback zone 810 and a second configuration that includes synchronized playback with playback device 806 in playback zone 810 . In such case, a first audio processing algorithm is determined, stored and applied for a first playback configuration of the playback device and a second audio processing algorithm is determined for a second playback configuration of the playback device. determined, stored, and applied for

そして、再生デバイス804は、再生デバイス804の所定時間における再生構成に基づいて、オーディオ処理アルゴリズムを決定して、再生ゾーン810におけるオーディオコンテンツの再生時に適用してもよい。例えば、再生デバイス804が再生デバイス806なしで再生ゾーン810においてオーディオコンテンツを再生しているとき、再生デバイス804は、第1のオーディオ処理アルゴリズムを適用してもよい。一方、再生デバイス804が再生デバイス806と同期して再生ゾーン810においてオーディオコンテンツを再生しているとき、再生デバイス804は、第2のオーディオ処理アルゴリズムを適用してもよい。他の例もまた可能である。 The playback device 804 may then determine audio processing algorithms to apply when playing audio content in the playback zone 810 based on the playback configuration of the playback device 804 at a given time. For example, when playback device 804 is playing audio content in playback zone 810 without playback device 806, playback device 804 may apply a first audio processing algorithm. On the other hand, when playback device 804 is playing audio content in playback zone 810 in sync with playback device 806, playback device 804 may apply a second audio processing algorithm. Other examples are also possible.

c. 再生ゾーン特性に基づいてオーディオ処理アルゴリズムを決定する例示的な方法
上記説明において、オーディオ処理アルゴリズムの決定は、一般に、再生ゾーン内の再生デバイスによって検出されたオーディオ信号に基づいて決定されるように、再生ゾーンの音響特性を決定することに基づくことができる。幾つかの場合において、オーディオ処理アルゴリズムは、再生ゾーンの音響特性に加えて又はその代わりに、再生ゾーンの他の特性に基づいて特定されてもよい。
c. Exemplary Methods of Determining Audio Processing Algorithms Based on Play Zone Characteristics In the discussion above, the determination of audio processing algorithms is generally based on the audio signals detected by the playback devices within the play zone. It can be based on determining the acoustic properties of the playback zone. In some cases, audio processing algorithms may be specified based on other properties of the play zone in addition to or instead of the acoustic properties of the play zone.

図11は、再生ゾーンの1つ又は複数の特性に基づいて、オーディオ処理アルゴリズムのデータベースから、オーディオ処理アルゴリズムを提供する例示的なフロー図を示している。図11に示される方法1100は、例えば、図1のメディア再生システム100、図2の1つ又は複数の再生デバイス200、図3の1つ又は複数の制御デバイス300、及び図8の再生環境800を含む動作環境内で実施されうる方法の実施形態を表している。ある例では、方法1100は、再生ゾーンのために校正されるべきである再生デバイスと通信する、1つ又は複数の再生デバイス、1つ又は複数のコントローラデバイス、1つ又は複数のサーバ、又は1つ又は複数のコンピューティングデバイスによって、個別に又はまとめて実行されてもよい。 FIG. 11 shows an exemplary flow diagram for providing an audio processing algorithm from a database of audio processing algorithms based on one or more characteristics of a play zone. 11, the one or more playback devices 200 of FIG. 2, the one or more control devices 300 of FIG. 3, and the playback environment 800 of FIG. 8, for example. 1 depicts an embodiment of a method that may be implemented within an operating environment that includes a. In one example, the method 1100 includes one or more playback devices, one or more controller devices, one or more servers, or one in communication with the playback device to be calibrated for the playback zone. May be executed individually or collectively by one or more computing devices.

方法1100は、ブロック1102-1108のうちの1つ又は複数によって示されるように、1つ又は複数の操作、機能又は動作を含んでもよい。ブロックは順番に示されているが、これらのブロックは、並列に及び/又は本明細書に記載されたものとは異なる順序で実行されてもよい。また、様々なブロックは、所望の実装に基づいて、より少数のブロックに組み合わせられてもよく、さらなるブロックに分割されてもよく、及び/又は除去されてもよい。 Method 1100 may include one or more operations, functions or actions, as indicated by one or more of blocks 1102-1108. Although the blocks are shown in sequence, these blocks may be executed in parallel and/or in a different order than described herein. Also, various blocks may be combined into fewer blocks, divided into additional blocks, and/or removed based on the desired implementation.

図11に示されるように、方法1100は、(i)複数のオーディオ処理アルゴリズム及び(ii)複数の再生ゾーン特性のデータベースを保守するステップ(ブロック1102)、再生ゾーンの1つ又は複数の特性を示すデータを受信するステップ(ブロック1104)、データに基づいてオーディオ処理アルゴリズムをデータベース内で特定するステップ(ブロック1106)、及び特定したオーディオ処理アルゴリズムを示すデータを送信するステップ(ブロック1108)を含む。 As shown in FIG. 11, the method 1100 includes maintaining a database of (i) a plurality of audio processing algorithms and (ii) a plurality of play zone characteristics (block 1102); The steps include receiving data indicative (block 1104), identifying an audio processing algorithm in a database based on the data (block 1106), and transmitting data indicative of the identified audio processing algorithm (block 1108).

方法1100は、ブロック1102において、(i)複数のオーディオ処理アルゴリズム及び(ii)複数の再生ゾーン特性のデータベースを保守することを含む。ある例では、データベースは、図6A及び図6Bそれぞれに関連して示されて上述されたようなデータベース600及び650に類似していてもよい。そのため、複数のオーディオ処理アルゴリズムのうちの各オーディオ処理アルゴリズムは、複数の再生ゾーン特性のうちの1つ又は複数の再生ゾーン特性に対応してもよい。データベースの保守は、図5及び図7それぞれの方法500及び700に関連して上述したようなものとしてもよい。上述したように、データベースは、データベースを保守するデバイス上にローカルに格納されていてもよいし、格納されていなくてもよい。 The method 1100 includes maintaining a database of (i) multiple audio processing algorithms and (ii) multiple play zone characteristics at block 1102 . In one example, the database may be similar to databases 600 and 650 as shown and described above in connection with FIGS. 6A and 6B, respectively. As such, each audio processing algorithm of the plurality of audio processing algorithms may correspond to one or more play zone characteristics of the plurality of play zone characteristics. Database maintenance may be as described above with respect to methods 500 and 700 of FIGS. 5 and 7, respectively. As noted above, the database may or may not be stored locally on the device that maintains the database.

方法1100は、ブロック1104において、再生ゾーンの1つ又は複数の特性を示すデータを受信することを含む。ある例では、再生ゾーンの1つ又は複数の特性は、再生ゾーンの音響特性を含んでもよい。別の例では、再生ゾーンの1つ又は複数の特性は、他の可能性のうち、再生ゾーンの寸法、再生ゾーンの床材、再生ゾーンの壁材、再生ゾーンの使用目的、再生ゾーン内の家具の数、再生ゾーン内の家具の大きさ及び再生ゾーン内の家具の種類を含んでもよい。 Method 1100 includes receiving data indicative of one or more characteristics of the play zone at block 1104 . In some examples, one or more properties of the play zone may include acoustic properties of the play zone. In another example, the one or more characteristics of the regeneration zone are the dimensions of the regeneration zone, the flooring of the regeneration zone, the walls of the regeneration zone, the intended use of the regeneration zone, the It may include the number of pieces of furniture, the size of pieces of furniture in the regeneration zone and the types of pieces of furniture in the regeneration zone.

ある例では、図8を再度参照すると、再生デバイス804は、再生ゾーン810のために校正されてもよい。上述したように、方法1100は、校正されている再生デバイス804、再生デバイス806、コントローラデバイス808、コンピューティングデバイス802、又は再生デバイス804と通信する他のデバイスによって、個別に又はまとめて実行されてもよい。 In one example, referring back to FIG. 8, playback device 804 may be calibrated for playback zone 810 . As described above, the method 1100 may be performed individually or collectively by the playback device 804 being calibrated, the playback device 806, the controller device 808, the computing device 802, or any other device in communication with the playback device 804. good too.

ある場合では、1つ又は複数の特性は、再生ゾーン810の音響特性を含んでもよい。そのような場合、再生ゾーン810内の再生デバイス804は、第1のオーディオ信号を再生し、第1のオーディオ信号に対応する部分を含む第2のオーディオ信号を再生デバイス804のマイクロホンによって検出してもよい。ある例では、1つ又は複数の特性を示すデータは、検出された第2のオーディオ信号を示すデータであってもよい。別の例において、検出された第2のオーディオ信号及び再生デバイス804の音響特性に基づいて、再生ゾーン810の音響特性は、先に記載されたものと同様に決定されてもよい。そして、1つ又は複数の特性を示すデータは、再生ゾーンの音響特性を示してもよい。いずれの場合にも、1つ又は複数の特性を示すデータは、その後、方法1100を実行する1つ又は複数のデバイスのうちの少なくとも1つによって受信されてもよい。 In some cases, the one or more properties may include acoustic properties of the play zone 810 . In such cases, the playback device 804 within the playback zone 810 plays the first audio signal and detects by the microphone of the playback device 804 a second audio signal that includes a portion corresponding to the first audio signal. good too. In one example, the data indicative of the one or more characteristics may be data indicative of the detected second audio signal. In another example, based on the detected second audio signal and the acoustic properties of the playback device 804, the acoustic properties of the playback zone 810 may be determined in a manner similar to that previously described. The data indicative of one or more properties may then indicate acoustic properties of the playback zone. In any case, data indicative of one or more characteristics may then be received by at least one of the one or more devices performing method 1100 .

別の場合では、1つ又は複数の特性は、再生ゾーンの寸法、再生ゾーンの床材、及び再生ゾーンの壁材などを含んでもよい。そのような場合、ユーザは、コントローラデバイス808などのコントローラデバイスによって提供されるコントローラインタフェースを介して、再生ゾーン810の1つ又は複数の特性を入力又は選択するように促されてもよい。例えば、コントローラインタフェースは、ユーザが選択できるように、他の可能性のうち、再生ゾーン寸法のリスト及び/又は家具配置のリストを提供してもよい。そして、ユーザによって提供されるような再生ゾーン810の1つ又は複数の特性を示すデータは、方法1100を実行する1つ又は複数のデバイスのうちの少なくとも1つによって受信されてもよい。 In other cases, the one or more characteristics may include regeneration zone dimensions, regeneration zone flooring, regeneration zone wall materials, and the like. In such cases, the user may be prompted to input or select one or more characteristics of play zone 810 via a controller interface provided by a controller device, such as controller device 808 . For example, the controller interface may provide a list of play zone dimensions and/or a list of furniture arrangements, among other possibilities, for the user to choose from. Data indicating one or more characteristics of the play zone 810 as provided by the user may then be received by at least one of the one or more devices performing the method 1100 .

方法1100は、ブロック1106において、データに基づいて、データベース内でオーディオ処理アルゴリズムを特定することを含む。1つ又は複数の特性が再生ゾーン810の音響特性を含む場合を参照すると、オーディオ処理アルゴリズムは、再生ゾーン810の音響特性に基づいて、データベース内で特定されうる。例えば、図6Aのデータベース600を参照すると、受信したデータが、hroom -1(t)-3又はhroom -1(t)-3と実質的に同一の、再生ゾーン810の音響特性を示す場合、係数w、x、y及びzを有するデータベースエントリ606のオーディオ処理アルゴリズムが特定されうる。例えば、再生ゾーンの1つ又は複数の特性を示すデータは、検出された第2のオーディオ信号を示すデータを単に含み、再生ゾーンの音響特性は、さらに、オーディオ処理アルゴリズムを特定する前に、上述したように決定されうる。他の例もまた可能である。 The method 1100 includes identifying audio processing algorithms in the database based on the data at block 1106 . Referring to the case where the one or more properties include acoustic properties of play zone 810 , audio processing algorithms may be identified in the database based on the acoustic properties of play zone 810 . For example, referring to database 600 of FIG. 6A, the received data indicates acoustic characteristics of playback zone 810 that are substantially the same as h room −1 (t)−3 or h room −1 (t)−3. , an audio processing algorithm for database entry 606 with coefficients w3 , x3 , y3 and z3 may be identified. For example, the data indicative of one or more properties of the play zone may simply include data indicative of the detected second audio signal, and the acoustic properties of the play zone may be further described above prior to specifying the audio processing algorithm. can be determined as Other examples are also possible.

1つ又は複数の特性が、数ある特性の中でも特に、再生ゾーンの寸法を含む場合を参照すると、オーディオ処理アルゴリズムは、再生ゾーンの寸法に基づいて、データベース内で特定されてもよい。例えば、図6Bのデータベース650を参照すると、受信データがa×b×cとして又はa×b×cと実質的に同一の、再生ゾーン810の寸法を示す場合、係数w、x、y及びzを有するデータベースエントリ658のオーディオ処理アルゴリズムエントリが特定されうる。他の例もまた可能である。 Referring to the case where the one or more properties include, among other properties, the dimensions of the play zone, audio processing algorithms may be identified in the database based on the dimensions of the play zone. For example, referring to database 650 of FIG. 6B, if the received data indicates the dimensions of regeneration zone 810 as a 4 ×b 4 ×c 4 or substantially the same as a 4 ×b 4 ×c 4 , then factor w 4 , x 4 , y 4 and z 4 , the audio processing algorithm entries of database entry 658 may be identified. Other examples are also possible.

幾つかの場合において、複数のオーディオ処理アルゴリズムは、受信データに示される再生ゾーンの1つ又は複数の特性に基づいて特定されてもよい。例えば、再生ゾーン810の音響特性が、hroom -1(t)-3として決定される一方で、再生ゾーン810についてユーザによって提供される寸法が、a×b×cであってもよい。ここで、hroom -1(t)-3は、図6のデータベース650のエントリ656において提供されるようなオーディオ処理アルゴリズムパラメータw、x、y及びzに対応し、a×b×cは、エントリ658において提供されるようなオーディオ処理アルゴリズムパラメータw、x、y及びzに対応する。 In some cases, multiple audio processing algorithms may be identified based on one or more characteristics of the playback zone indicated in the received data. For example, even if the acoustic properties of the play zone 810 are determined as h room −1 (t)−3, while the dimensions provided by the user for the play zone 810 are a 4 ×b 4 ×c 4 good. where h room −1 ( t)−3 corresponds to audio processing algorithm parameters w 3 , x 3 , y 3 and z 3 as provided in entry 656 of database 650 of FIG. b 4 ×c 4 corresponds to audio processing algorithm parameters w 4 , x 4 , y 4 and z 4 as provided in entry 658 .

ある例では、一致又は実質的に一致する音響特性に対応するオーディオ処理アルゴリズムが優先されてもよい。別の例では、オーディオ処理アルゴリズムの平均(すなわち、パラメータの平均)が計算されてもよく、平均オーディオ処理アルゴリズムが、特定されたオーディオ処理アルゴリズムであってもよい。他の例もまた可能である。 In some examples, preference may be given to audio processing algorithms that correspond to matching or substantially matching acoustic characteristics. In another example, an audio processing algorithm average (ie, parameter average) may be calculated, and the average audio processing algorithm may be a specified audio processing algorithm. Other examples are also possible.

方法1100は、ブロック1108において、特定したオーディオ処理アルゴリズムを示すデータを送信することを含む。上記例を続けると、特定したオーディオ処理アルゴリズムを示すデータは、再生ゾーン810用に校正されている再生デバイス804に送信されてもよい。ある場合では、特定したオーディオ処理アルゴリズムを示すデータは、再生デバイス804に直接送信されてもよい。別の場合では、再生デバイス804の校正がコントローラデバイス808によって調整される場合、及びオーディオ処理アルゴリズムがコンピューティングデバイス802によって特定された場合、特定されたオーディオ処理アルゴリズムを示すデータは、コントローラデバイス808を介してコンピューティングデバイス802から再生デバイス804に対して送信されてもよい。他の例もまた可能である。 Method 1100 includes transmitting data indicative of the identified audio processing algorithm at block 1108 . Continuing with the above example, data indicative of the identified audio processing algorithm may be sent to playback device 804 that is calibrated for playback zone 810 . In some cases, data indicative of the identified audio processing algorithm may be sent directly to playback device 804 . In other cases, if the calibration of the playback device 804 is adjusted by the controller device 808 and if the audio processing algorithm is specified by the computing device 802 , data indicative of the specified audio processing algorithm may be used by the controller device 808 . may be transmitted from the computing device 802 to the playback device 804 via. Other examples are also possible.

上述したように、方法1100の機能は、1つ又は複数のサーバ、1つ又は複数の再生デバイス、及び/又は1つ又は複数のコントローラデバイスのうちの1つ又は複数によって実行されうる。ある例では、ブロック1102におけるデータベースの保守は、コンピューティングデバイス802によって実行される。ブロック1104における再生ゾーンの1つ又は複数の特性を示すデータの受信は、コントローラデバイス808によって実行される(データは、再生ゾーン810において校正されている再生デバイス804によってコントローラデバイス808に提供される)。ブロック1106は、コンピューティングデバイス802と通信するコントローラデバイス808によって実行され、コンピューティングデバイス802によって保守されるデータベースにアクセスして、オーディオ信号処理が特定される。ブロック1108は、コンピューティングデバイス802が、特定されたオーディオ処理アルゴリズムを示すデータを、直接又はコントローラデバイス808を介して、再生デバイス804に送信することを含む。 As noted above, the functionality of method 1100 may be performed by one or more of one or more servers, one or more playback devices, and/or one or more controller devices. In one example, database maintenance at block 1102 is performed by computing device 802 . Receipt of data indicative of one or more characteristics of the regeneration zone at block 1104 is performed by the controller device 808 (the data is provided to the controller device 808 by the regeneration device 804 being calibrated in the regeneration zone 810). . Block 1106 is executed by controller device 808 in communication with computing device 802 to access a database maintained by computing device 802 to identify audio signal processing. Block 1108 includes the computing device 802 sending data indicative of the identified audio processing algorithm to the playback device 804 either directly or via the controller device 808 .

別の例では、方法1100の機能は、1つのデバイスによって完全に又は実質的完全に実行されてもよい。例えば、コンピューティングデバイス802は、ブロック1102に関連して記載されたようにデータベースを保守してもよい。 In another example, the functionality of method 1100 may be performed entirely or substantially entirely by one device. For example, computing device 802 may maintain a database as described with respect to block 1102 .

そして、コンピューティングデバイス802は、再生デバイス804の校正を調整してもよい。例えば、コンピューティングデバイス802は、再生デバイス804に第1のオーディオ信号を再生させて第2のオーディオ信号を検出させ、検出された第2のオーディオ信号を示すデータを再生デバイス804から受信し、再生デバイス804からのデータに基づいて再生ゾーン810の音響特性を決定してもよい。別の場合において、コンピューティングデバイス802は、コントローラデバイス808に再生ゾーン810の1つ又は複数の特性(すなわち、上述したように寸法など)を提供するようにユーザを促させ、再生ゾーン810のユーザによって提供された特性を示すデータを受信してもよい。 Computing device 802 may then adjust the calibration of playback device 804 . For example, the computing device 802 may cause the playback device 804 to play a first audio signal and detect a second audio signal, receive data indicative of the detected second audio signal from the playback device 804, and play. Acoustic characteristics of playback zone 810 may be determined based on data from device 804 . In another case, the computing device 802 causes the controller device 808 to prompt the user to provide one or more characteristics of the regeneration zone 810 (i.e., dimensions, etc., as described above) so that the user of the regeneration zone 810 can may receive data indicative of characteristics provided by

そして、コンピューティングデバイスは、ブロック1106において、受信データに基づいてオーディオ処理アルゴリズムを特定することができ、ブロック1108において、特定したオーディオ処理アルゴリズムを示すデータを再生デバイス804に対して送信してもよい。また、コンピューティングデバイス802は、再生デバイス804のためにコマンドを送信して、再生ゾーン810内でオーディオコンテンツを再生するときに、特定されたオーディオ処理アルゴリズムを適用してもよい。他の例もまた可能である。 The computing device may then identify an audio processing algorithm based on the received data at block 1106 and transmit data indicative of the identified audio processing algorithm to playback device 804 at block 1108. . Computing device 802 may also send commands for playback device 804 to apply the specified audio processing algorithms when playing audio content within playback zone 810 . Other examples are also possible.

IV.結論
本明細書は、様々な例示のシステム、方法、装置、および製品などを開示しており、それらは、他のコンポーネントの中で、ハードウェア上で実行されるファームウェアおよび/又はソフトウェアを含む。そのような例は、単なる例示であり、限定されるものとみなすべきではないと理解される。例えば、これらのファームウェア、ハードウェア、および/又はソフトウェアの態様又はコンポーネントのいくつか又はすべてが、専らハードウェアに、専らソフトウェアに、専らファームウェアに、又はハードウェア、ソフトウェア、および/又はファームウェアの任意の組み合わせを実施することができることが意図されている。したがって、提供されているそれらの例は、それらのシステム、方法、装置、および/又は生産物を実施する唯一の方法ではない。
IV. CONCLUSION This specification discloses various example systems, methods, apparatus, articles of manufacture, etc. that include, among other components, firmware and/or software executing on hardware. It is understood that such examples are illustrative only and should not be considered limiting. For example, some or all of these firmware, hardware, and/or software aspects or components may be exclusively hardware, exclusively software, exclusively firmware, or any of hardware, software, and/or firmware. It is intended that combinations may be practiced. Accordingly, the examples provided are not the only ways to implement the systems, methods, apparatuses, and/or products.

更に、本明細書において「実施形態」は、実施形態に関連して述べられた特定の特徴、構造、又は特性が、本発明の少なくとも1つの実施例に含まれ得ることを示している。本明細書の様々な場所でこの語句が用いられているが、すべてが同じ実施形態を言及するものではなく、又、他の実施形態を除いた別個の実施形態又は代替の実施形態でもない。このように、本明細書で述べられた実施形態は、明示的におよび暗黙的に、当業者によって、他の実施形態砥組み合わせることができることが理解される。 Further, the use of "embodiment" herein indicates that the particular feature, structure, or characteristic described in connection with the embodiment can be included in at least one example of the invention. The appearances of the phrase in various places in this specification are not all referring to the same embodiment, nor to separate or alternative embodiments but to other embodiments. It is thus understood that the embodiments described herein can be combined with other embodiments, both explicitly and implicitly, by those skilled in the art.

以下の例は、本開示のさらなる又は代替的な態様を記載している。以下の例のいずれかにおけるデバイスは、本明細書に記載されたデバイスのうちのいずれかのデバイスの要素又は本明細書に記載されたデバイスの任意の構成とすることができる。
(特徴1)
プロセッサ、及び前記プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリを備えたコンピューティングデバイスであって、
前記機能は、
再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させること、
前記再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを前記再生デバイスから受信すること、ここで、前記第2のオーディオ信号は前記第1のオーディオ信号に対応する部分を含む、
前記第2のオーディオ信号及び前記再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び
決定した前記オーディオ処理アルゴリズムを示すデータを前記再生デバイスに送信すること、
を有する、コンピューティングデバイス。
(特徴2)
前記再生ゾーン内で前記第1のオーディオ信号を再生するときに前記決定したオーディオ処理アルゴリズムを前記再生デバイスによって適用することにより、所定のオーディオ特性と実質的に同一のオーディオ特性を有する第3のオーディオ信号が生成される、いずれかの先行する特徴のコンピューティングデバイス。
(特徴3)
前記オーディオ処理アルゴリズムを決定することが、さらに、
前記第2のオーディオ信号及び前記再生デバイスの音響特性に基づいて、前記再生ゾーンの音響特性を決定すること、及び
前記再生ゾーンの決定した前記音響特性に対応するオーディオ処理アルゴリズムを複数のオーディオ処理アルゴリズムから選択すること、
を含む、いずれかの先行する特徴のコンピューティングデバイス。
(特徴4)
前記オーディオ処理アルゴリズムを決定することが、さらに、
前記第2のオーディオ信号及び前記再生デバイスの音響特性に基づいて、前記再生ゾーンの音響特性を決定すること、及び
前記再生ゾーンの音響特性及び所定のオーディオ特性に基づいて、前記オーディオ処理アルゴリズムを計算すること、
を含む、いずれかの先行する特徴のコンピューティングデバイス。
(特徴5)
前記オーディオ処理アルゴリズムを決定することが、前記オーディオ処理アルゴリズムについての1つ又は複数のパラメータを決定することを含む、いずれかの先行する特徴のコンピューティングデバイス。
(特徴6)
前記機能が、さらに、
無響室内の基準再生デバイスに測定信号を再生させること、
前記基準再生デバイスのマイクロホンによって検出されたオーディオ信号を示すデータを前記基準再生デバイスから受信すること、ここで、前記検出されたオーディオ信号は前記無響室内で再生された測定信号に対応する部分を含む、及び
前記検出されたオーディオ信号と前記測定信号との比較に基づいて、前記再生デバイスの音響特性を決定すること、
を有する、いずれかの先行する特徴のコンピューティングデバイス。
(特徴7)
プロセッサ、及び前記プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリを備えたコンピューティングデバイスであって、
前記機能は、
再生ゾーンにおいて、第1の再生デバイスに第1のオーディオ信号を再生させること、
前記再生ゾーンにおいて、第2の再生デバイスに第2のオーディオ信号を再生させること、
前記第1の再生デバイスのマイクロホンによって検出された第3のオーディオ信号を示すデータを前記第1の再生デバイスから受信すること、ここで、前記第3のオーディオ信号は、(i)前記第1のオーディオ信号に対応する部分及び(ii)第2の再生デバイスによって再生された前記第2のオーディオ信号に対応する部分を含む、
前記第3のオーディオ信号及び前記第1の再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び
前記決定したオーディオ処理アルゴリズムを示すデータを前記第1の再生デバイスに送信すること、
を有する、コンピューティングデバイス。
(特徴8)
前記再生ゾーンにおいて前記第1のオーディオ信号を再生するときに前記決定したオーディオ処理アルゴリズムを前記第1の再生デバイスによって適用することにより、所定のオーディオ特性と実質的に同一のオーディオ特性を有する第4のオーディオ信号が生成される、特徴7のコンピューティングデバイス。
(特徴9)
前記オーディオ処理アルゴリズムを決定することは、さらに、
前記第3のオーディオ信号及び前記第1の再生デバイスの音響特性に基づいて、前記再生ゾーンの音響特性を決定すること、及び
前記再生ゾーンの音響特性に対応するオーディオ処理アルゴリズムを複数のオーディオ処理アルゴリズムから選択すること
を含む、特徴7又は特徴8のコンピューティングデバイス。
(特徴10)
第2の再生デバイスに第2のオーディオ信号を再生させることは、前記第1の再生デバイスによる前記第1のオーディオ信号の再生と同期して、前記第2の再生デバイスに前記第2のオーディオ信号を再生させることを含む、特徴7から特徴9のいずれかのコンピューティングデバイス。
(特徴11)
第2の再生デバイスに第2のオーディオ信号を再生させることは、前記第1の再生デバイスによる前記第1のオーディオ信号の再生が終了した後に前記第2の再生デバイスに前記第2のオーディオ信号を再生させることを含む、特徴7から特徴10のいずれかのコンピューティングデバイス。
(特徴12)
前記第1のオーディオ信号は前記第2のオーディオ信号に直交している、特徴7から特徴11のいずれかのコンピューティングデバイス。
(特徴13)
前記第1の再生デバイス及び前記第2の再生デバイスは、同期してオーディオコンテンツを再生するように構成された再生デバイスのゾーングループに含まれる、特徴7から特徴12のいずれかのコンピューティングデバイス。
(特徴14)
プロセッサ、マイクロホン、及び前記プロセッサによって実行可能であって再生デバイスに機能を実行させる命令を格納したメモリを備えた再生デバイスであって、
前記機能は、
再生ゾーン内で第1のオーディオ信号を再生すること、
第2のオーディオ信号を前記マイクロホンによって検出すること、ここで、前記第2のオーディオ信号は前記第1のオーディオ信号に対応する部分を含む、
前記第2のオーディオ信号及び前記再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、
前記再生ゾーン内でメディアアイテムを再生するときに前記メディアアイテムに対応するオーディオデータに対して、前記決定したオーディオ処理アルゴリズムを適用すること、
を有する、再生デバイス。
(特徴15)
前記再生ゾーン内で前記第1のオーディオ信号を再生するときに前記決定したオーディオ処理アルゴリズムを適用することにより、所定のオーディオ特性と実質的に同一のオーディオ特性を有する第3のオーディオ信号を生成する、特徴14のコンピューティングデバイス。
(特徴16)
前記オーディオ処理アルゴリズムを決定することは、さらに、
前記第2のオーディオ信号及び前記再生デバイスの音響特性に基づいて、前記再生ゾーンの1つ又は複数の特性を決定すること、及び
前記再生ゾーンの1つ又は複数の特性に対応するオーディオ処理アルゴリズムを複数のオーディオ処理アルゴリズムから選択すること、
を含む、特徴14又は特徴15のコンピューティングデバイス。
(特徴17)
前記オーディオ処理アルゴリズムを決定することは、
(i)前記第2のオーディオ信号及び(ii)前記再生デバイスの特性を示す送信データをコンピューティングデバイスに送信すること、及び
前記オーディオ処理アルゴリズムを示すデータを前記コンピューティングデバイスから受信すること、
を含む、特徴14から特徴16のいずれかのコンピューティングデバイス。
(特徴18)
前記機能は、さらに、前記決定したオーディオ処理アルゴリズムを前記メモリに格納することを含む、特徴14から特徴17のいずれかのコンピューティングデバイス。
(特徴19)
前記オーディオデータに対して前記オーディオ処理アルゴリズムを適用することは、前記メディアアイテムの周波数等化を変更することを含む、特徴14から特徴18のいずれかのコンピューティングデバイス。
(特徴20)
前記オーディオデータに対して前記オーディオ処理アルゴリズムを適用することは、前記メディアアイテムの音量域を変更することを含む、特徴14から特徴19のいずれかのコンピューティングデバイス。
(特徴21)
プロセッサ、及び
前記プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリ、
を備えたコンピューティングデバイスであって、
前記機能は、
再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させること、
前記再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを受信すること、ここで、前記第2のオーディオ信号は、前記再生デバイスによって再生された前記第1のオーディオ信号に対応する部分を含む、
前記第2のオーディオ信号及び前記再生デバイスの特性に基づいて、前記再生ゾーンの音響特性を決定すること、
前記再生ゾーンの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び
前記オーディオ処理アルゴリズムと前記再生ゾーンの音響特性との関連付けをデータベースに記憶させること、
を有する、コンピューティングデバイス。
(特徴22)
前記再生ゾーン内で前記第1のオーディオ信号を再生するときに前記決定したオーディオ処理アルゴリズムを前記再生デバイスによって適用することにより、所定のオーディオ特性と実質的に同一のオーディオ特性を有する第3のオーディオ信号が生成される、いずれかの先行する特徴のコンピューティングデバイス。
(特徴23)
前記再生デバイスは、第1の再生デバイスである、
前記再生ゾーンは、第1の再生ゾーンである、
前記オーディオ処理アルゴリズムは、第1のオーディオ処理アルゴリズムである、
前記機能は、さらに、
第2の再生ゾーン内の第2の再生デバイスに第4のオーディオ信号を再生させること、
前記第2の再生デバイスのマイクロホンによって検出された第5のオーディオ信号を示すデータを受信すること、ここで、前記第5のオーディオ信号は、前記第2の再生デバイスによって再生された前記第4のオーディオ信号に対応する部分を含む、
前記第5のオーディオ信号及び前記第2の再生デバイスの特性に基づいて、前記第2の再生ゾーンの音響特性を決定すること、
前記第2の再生ゾーンの音響特性に基づいて、第2のオーディオ処理アルゴリズムを決定すること、及び
前記第2のオーディオ処理アルゴリズム及び前記第2の再生ゾーンの音響特性との関連付けをデータベースに記憶させること、
を有する、いずれかの先行する特徴のコンピューティングデバイス。
(特徴24)
第1の再生ゾーン内で前記第1のオーディオ信号を再生するときに前記第1の決定されたオーディオ処理アルゴリズムを前記第1の再生デバイスによって適用することにより、所定のオーディオ特性と実質的に同一のオーディオ特性を有する第3のオーディオ信号が生成される、
前記第2の再生ゾーン内で前記第4のオーディオ信号を再生するときに前記第2の決定されたオーディオ処理アルゴリズムを前記第2の再生デバイスによって適用することにより、前記所定のオーディオ特性と実質的に同一のオーディオ特性を有する第6のオーディオ信号が生成される、
特徴3のコンピューティングデバイス。
(特徴25)
前記機能は、さらに、
前記第2の再生ゾーンの音響特性が前記第1の再生ゾーンの音響特性と実質的に同一であることを決定すること、
それに応答して、前記第1のオーディオ処理アルゴリズム及び前記第2のオーディオ処理アルゴリズムに基づいて、第3のオーディオ処理アルゴリズムを決定すること、及び
前記第3のオーディオ処理アルゴリズムと前記第1の再生ゾーンの音響特性との関連付けをデータベースに記憶させること、
を有する、特徴3のコンピューティングデバイス。
(特徴26)
前記オーディオ処理アルゴリズムを決定することは、前記オーディオ処理アルゴリズムについての1つ又は複数のパラメータを決定することを含む、特徴21から特徴25のいずれかのコンピューティングデバイス。
(特徴27)
前記機能は、さらに、
前記再生ゾーンの1つ又は複数の特性を示すデータを受信すること、及び
前記再生ゾーンの1つ又は複数の特性と前記第2のオーディオ処理アルゴリズムとの関連付けをデータベースに記憶させること、
を有する、特徴21から特徴26のいずれかのコンピューティングデバイス。
(特徴28)
前記再生ゾーンの1つ又は複数の特性は、(a)前記再生ゾーンの寸法、(b)前記再生ゾーンのオーディオ反射特性、(c)再生ゾーンの使用目的、(d)再生ゾーン内の家具の数、(e)再生ゾーン内の家具の大きさ、及び(f)再生ゾーン内の家具の種類のうちの1つ又は複数を含む、特徴27のコンピューティングデバイス。
(特徴29)
プロセッサ、及び
前記プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリ、
を備えたコンピューティングデバイスであって、
前記機能は、
再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させること、
(i)前記再生ゾーンの1つ又は複数の特性を示すデータ及び(ii)前記再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを受信すること、ここで、前記第2のオーディオ信号は、前記再生デバイスによって再生された前記オーディオ信号に対応する部分を含む、
前記第2のオーディオ信号及び前記再生デバイスの特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び
前記決定したオーディオ処理アルゴリズムと前記再生ゾーンの1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させること、
を備える、コンピューティングデバイス。
(特徴30)
前記オーディオ処理アルゴリズムを決定することは、さらに、
前記第2のオーディオ信号及び前記再生デバイスの特性に基づいて、前記再生ゾーンの音響特性を決定すること、及び
前記再生ゾーンの音響特性に基づいてオーディオ処理アルゴリズムを決定すること、を含み、前記再生ゾーン内で前記第2のオーディオ信号を再生するときに前記決定したオーディオ処理アルゴリズムを前記再生デバイスによって適用することにより、所定のオーディオ特性と実質的に同一のオーディオ特性を有する第3のオーディオ信号が生成されるようにする、
特徴29のコンピューティングデバイス。
(特徴31)
前記再生デバイスは、第1の再生デバイスである、
前記再生ゾーンは、第1の再生ゾーンである、
前記オーディオ処理アルゴリズムは、第1のオーディオ処理アルゴリズムである、
前記機能は、さらに、
第2の再生ゾーン内の第2の再生デバイスに第3のオーディオ信号を再生させること、
(i)前記第2の再生ゾーンの1つ又は複数の特性を示すデータ及び(ii)前記第2の再生ゾーン内の第2の再生デバイスのマイクロホンによって検出された第4のオーディオ信号を示すデータを受信すること、ここで、前記第4のオーディオ信号は、前記再生デバイスによって再生された前記第3のオーディオ信号に対応する部分を含む、
前記第4のオーディオ信号及び前記第2の再生デバイスの特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び
前記第2のオーディオ処理アルゴリズムと前記第2の再生ゾーンの1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させること、
を有する、特徴29又は特徴30のコンピューティングデバイス。
(特徴32)
前記第2のオーディオ処理アルゴリズムを決定することは、さらに、
前記第4のオーディオ信号及び前記再生デバイスの特性に基づいて、前記再生ゾーンの音響特性を決定すること、及び
前記再生ゾーンの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、を含み、前記再生ゾーン内で前記第3のオーディオ信号を再生するときに前記決定したオーディオ処理アルゴリズムを前記第2の再生デバイスによって適用することにより、所定のオーディオ特性と実質的に同一のオーディオ特性を有する第5のオーディオ信号が生成されるようにする、
特徴29のコンピューティングデバイス。
(特徴33)
前記機能は、さらに、
前記第2の再生ゾーンの音響特性が前記第1の再生ゾーンの音響特性と実質的に同一であることを決定すること、
それに応答して、前記第1のオーディオ処理アルゴリズム及び前記第2のオーディオ処理アルゴリズムに基づいて、第3のオーディオ処理アルゴリズムを決定すること、及び
前記第3のオーディオ処理アルゴリズムと前記第1の再生ゾーンの1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させること、
を有する、特徴32のコンピューティングデバイス。
(特徴34)
前記再生ゾーンの1つ又は複数の特性は、(a)前記再生ゾーンの寸法、(b)前記再生ゾーンのオーディオ反射特性、(c)再生ゾーンの使用目的、(d)再生ゾーン内の家具の数、(e)再生ゾーン内の家具の大きさ、(f)再生ゾーン内の家具の種類、及び(g)前記再生ゾーンの音響特性のうちの1つ又は複数を含む、特徴29から特徴33のいずれかのコンピューティングデバイス。
(特徴35)
プロセッサ、及び
前記プロセッサによって実行可能であって再生デバイスに機能を実行させる命令を格納したメモリ、
を備えたコンピューティングデバイスであって、
前記機能は、
(i)複数のオーディオ処理アルゴリズム及び(ii)複数の再生ゾーン特性のデータベースを保守すること、ここで、前記複数のオーディオ処理アルゴリズムのうちの各オーディオ処理アルゴリズムは、前記複数の再生ゾーン特性のうちの少なくとも1つの再生ゾーン特性に対応している、
前記再生ゾーンの1つ又は複数の特性を示すデータを受信すること、
前記データに基づいて、オーディオ処理アルゴリズムを前記データベースにおいて特定すること、及び
前記特定したオーディオ処理アルゴリズムを示すデータを送信すること、
を有する、コンピューティングデバイス。
(特徴36)
前記データは、さらに、前記再生ゾーン内の再生デバイスのマイクロホンによって検出されたオーディオ信号を示す、特徴35のコンピューティングデバイス。
(特徴37)
前記オーディオ処理アルゴリズムを前記データベースにおいて特定することは、さらに、
前記検出されたオーディオ信号及び前記再生デバイスの特性に基づいて、前記再生ゾーンの音響特性を決定すること、及び
前記再生ゾーンの決定した前記音響特性に基づいて、オーディオ処理アルゴリズムを前記データベースにおいて特定すること、
を含む、特徴36のコンピューティングデバイス。
(特徴38)
前記複数の再生ゾーン特性は、(a)前記再生ゾーンの寸法、(b)前記再生ゾーンのオーディオ反射特性、(c)再生ゾーンの使用目的、(d)再生ゾーン内の家具の数、(e)再生ゾーン内の家具の大きさ、(f)再生ゾーン内の家具の種類、及び(g)前記再生ゾーンの音響特性のうちの1つ又は複数を含む、特徴35のコンピューティングデバイス。
(特徴39)
前記再生ゾーンの1つ又は複数の特性を示すデータは、コントローラデバイスから受信される、特徴35のコンピューティングデバイス。
(特徴40)
前記再生ゾーンの1つ又は複数の特性を示すデータは、前記再生ゾーン内の再生デバイスから受信される、特徴35のコンピューティングデバイス。
The following examples describe additional or alternative aspects of the disclosure. A device in any of the following examples can be an element of any of the devices described herein or any configuration of a device described herein.
(Feature 1)
A computing device comprising a processor and a memory storing instructions executable by the processor to cause the computing device to perform functions,
Said function is
causing a playback device within the playback zone to play the first audio signal;
receiving data from the playback device indicative of a second audio signal detected by a microphone of the playback device, wherein the second audio signal includes a portion corresponding to the first audio signal;
determining an audio processing algorithm based on the second audio signal and the acoustic characteristics of the playback device; and transmitting data indicative of the determined audio processing algorithm to the playback device;
A computing device having a
(Feature 2)
third audio having audio characteristics substantially identical to predetermined audio characteristics by applying the determined audio processing algorithm by the playback device when playing the first audio signal within the playback zone; A computing device of any preceding character from which a signal is generated.
(Feature 3)
Determining the audio processing algorithm further comprises:
determining acoustic characteristics of the playback zone based on the second audio signal and the acoustic characteristics of the playback device; and a plurality of audio processing algorithms corresponding to the determined acoustic characteristics of the playback zone. to choose from
A computing device of any preceding feature, including
(Feature 4)
Determining the audio processing algorithm further comprises:
determining acoustic characteristics of the playback zone based on the second audio signal and acoustic characteristics of the playback device; and calculating the audio processing algorithm based on the acoustic characteristics of the playback zone and predetermined audio characteristics. to do
A computing device of any preceding feature, including
(Feature 5)
The computing device of any preceding feature, wherein determining the audio processing algorithm comprises determining one or more parameters for the audio processing algorithm.
(Feature 6)
The function further includes:
causing a reference reproduction device in the anechoic chamber to reproduce the measured signal;
receiving data from the reference reproduction device indicative of an audio signal detected by a microphone of the reference reproduction device, wherein the detected audio signal corresponds to a measured signal reproduced in the anechoic chamber; and determining an acoustic characteristic of the playback device based on a comparison of the detected audio signal and the measured signal;
A computing device of any preceding feature, having
(Feature 7)
A computing device comprising a processor and a memory storing instructions executable by the processor to cause the computing device to perform functions,
Said function is
causing a first playback device to play a first audio signal in a playback zone;
causing a second playback device to play a second audio signal in the playback zone;
receiving data from the first playback device indicative of a third audio signal detected by a microphone of the first playback device, wherein the third audio signal is (i) the first audio signal; a portion corresponding to an audio signal; and (ii) a portion corresponding to said second audio signal reproduced by a second reproduction device;
determining an audio processing algorithm based on the third audio signal and acoustic characteristics of the first playback device; and transmitting data indicative of the determined audio processing algorithm to the first playback device;
A computing device having a
(Feature 8)
applying the determined audio processing algorithm by the first reproduction device when reproducing the first audio signal in the reproduction zone, thereby generating a fourth audio characteristic having substantially the same audio characteristics as predetermined audio characteristics; 8. The computing device of feature 7, wherein the audio signal of feature 7 is generated.
(Feature 9)
Determining the audio processing algorithm further comprises:
determining acoustic characteristics of the playback zone based on the third audio signal and acoustic characteristics of the first playback device; and a plurality of audio processing algorithms corresponding to the acoustic characteristics of the playback zone. The computing device of feature 7 or feature 8, comprising selecting from:
(Feature 10)
causing a second reproduction device to reproduce a second audio signal includes reproducing the second audio signal to the second reproduction device in synchronization with reproduction of the first audio signal by the first reproduction device; 10. The computing device of any of features 7-9, including playing the
(Feature 11)
causing the second reproduction device to reproduce the second audio signal includes reproducing the second audio signal to the second reproduction device after the reproduction of the first audio signal by the first reproduction device is completed; 11. The computing device of any of features 7-10, including playing.
(Feature 12)
12. The computing device of any of features 7-11, wherein the first audio signal is orthogonal to the second audio signal.
(Feature 13)
13. The computing device of any of features 7-12, wherein the first playback device and the second playback device are included in a zone group of playback devices configured to play audio content synchronously.
(Feature 14)
1. A playback device comprising a processor, a microphone, and a memory storing instructions executable by the processor to cause the playback device to perform functions,
Said function is
playing the first audio signal within a play zone;
detecting a second audio signal with the microphone, wherein the second audio signal includes a portion corresponding to the first audio signal;
determining an audio processing algorithm based on the second audio signal and the acoustic characteristics of the playback device;
applying the determined audio processing algorithm to audio data corresponding to the media item when playing the media item within the play zone;
A playback device.
(Feature 15)
generating a third audio signal having audio characteristics substantially identical to predetermined audio characteristics by applying the determined audio processing algorithm when reproducing the first audio signal within the reproduction zone; , the computing device of feature 14.
(Feature 16)
Determining the audio processing algorithm further comprises:
determining one or more characteristics of the playback zone based on the second audio signal and acoustic characteristics of the playback device; and providing an audio processing algorithm corresponding to the one or more characteristics of the playback zone. choosing from multiple audio processing algorithms;
16. The computing device of feature 14 or feature 15, comprising:
(Feature 17)
Determining the audio processing algorithm includes:
(i) transmitting the second audio signal and (ii) transmission data indicative of characteristics of the playback device to a computing device; and receiving data indicative of the audio processing algorithm from the computing device;
17. The computing device of any of features 14-16, comprising:
(Feature 18)
18. The computing device of any of features 14-17, wherein the functionality further includes storing the determined audio processing algorithm in the memory.
(Feature 19)
19. The computing device of any of features 14-18, wherein applying the audio processing algorithm to the audio data includes modifying frequency equalization of the media item.
(Feature 20)
20. The computing device of any of features 14-19, wherein applying the audio processing algorithm to the audio data includes modifying a volume range of the media item.
(Feature 21)
a processor and a memory storing instructions executable by the processor to cause a computing device to perform functions;
A computing device comprising
Said function is
causing a playback device within the playback zone to play the first audio signal;
receiving data indicative of a second audio signal detected by a microphone of the reproduction device, wherein the second audio signal corresponds to a portion of the first audio signal reproduced by the reproduction device; including,
determining acoustic characteristics of the playback zone based on the second audio signal and characteristics of the playback device;
determining an audio processing algorithm based on the acoustic properties of the play zone; and storing in a database an association between the audio processing algorithm and the acoustic properties of the play zone;
A computing device having a
(Feature 22)
third audio having audio characteristics substantially identical to predetermined audio characteristics by applying the determined audio processing algorithm by the playback device when playing the first audio signal within the playback zone; A computing device of any preceding character from which a signal is generated.
(Feature 23)
wherein the playback device is a first playback device;
wherein the regeneration zone is a first regeneration zone;
wherein the audio processing algorithm is a first audio processing algorithm,
Said function further comprises:
causing a second playback device in a second playback zone to play a fourth audio signal;
receiving data indicative of a fifth audio signal detected by a microphone of the second reproduction device, wherein the fifth audio signal is the fourth audio signal reproduced by the second reproduction device; including the portion corresponding to the audio signal,
determining acoustic characteristics of the second playback zone based on the fifth audio signal and characteristics of the second playback device;
determining a second audio processing algorithm based on the acoustic properties of the second play zone; and storing in a database an association between the second audio processing algorithm and the acoustic properties of the second play zone. thing,
A computing device of any preceding feature, having
(Feature 24)
substantially identical to predetermined audio characteristics by applying the first determined audio processing algorithm by the first reproduction device when reproducing the first audio signal within a first reproduction zone; a third audio signal is generated having audio characteristics of
applying the second determined audio processing algorithm by the second playback device when playing back the fourth audio signal in the second playback zone, substantially a sixth audio signal having the same audio characteristics at
The computing device of Feature 3.
(Feature 25)
Said function further comprises:
determining that the acoustic properties of the second playback zone are substantially the same as the acoustic properties of the first playback zone;
In response, determining a third audio processing algorithm based on said first audio processing algorithm and said second audio processing algorithm; and said third audio processing algorithm and said first play zone. storing in a database the association with the acoustic properties of
The computing device of feature 3, comprising:
(Feature 26)
26. The computing device of any of features 21-25, wherein determining the audio processing algorithm includes determining one or more parameters for the audio processing algorithm.
(Feature 27)
Said function further comprises:
receiving data indicative of one or more characteristics of the play zone; and storing in a database an association between one or more characteristics of the play zone and the second audio processing algorithm;
The computing device of any of features 21-26, having a
(Feature 28)
The one or more characteristics of the reproduction zone are: (a) dimensions of the reproduction zone; (b) audio reflection properties of the reproduction zone; (c) intended use of the reproduction zone; 28. The computing device of feature 27, comprising one or more of the number, (e) the size of the furniture in the reproduction zone, and (f) the type of furniture in the reproduction zone.
(Feature 29)
a processor and a memory storing instructions executable by the processor to cause a computing device to perform functions;
A computing device comprising
Said function is
causing a playback device within the playback zone to play the first audio signal;
(i) data indicative of one or more characteristics of the playback zone and (ii) data indicative of a second audio signal detected by a microphone of the playback device, wherein the second audio. the signal includes a portion corresponding to the audio signal reproduced by the reproduction device;
determining an audio processing algorithm based on the second audio signal and characteristics of the playback device; and associating the determined audio processing algorithm with at least one of one or more characteristics of the playback zone. to be stored in a database,
A computing device comprising:
(Feature 30)
Determining the audio processing algorithm further comprises:
determining acoustic characteristics of the playback zone based on the second audio signal and characteristics of the playback device; and determining an audio processing algorithm based on the acoustic characteristics of the playback zone. A third audio signal having audio characteristics substantially identical to predetermined audio characteristics is generated by applying the determined audio processing algorithm by the reproduction device when reproducing the second audio signal within the zone. to be generated,
29. The computing device of feature 29.
(Feature 31)
wherein the playback device is a first playback device;
wherein the regeneration zone is a first regeneration zone;
wherein the audio processing algorithm is a first audio processing algorithm,
Said function further comprises:
causing a second playback device in a second playback zone to play a third audio signal;
(i) data indicative of one or more characteristics of said second playback zone; and (ii) data indicative of a fourth audio signal detected by a microphone of a second playback device within said second playback zone. wherein said fourth audio signal comprises a portion corresponding to said third audio signal reproduced by said reproduction device;
determining an audio processing algorithm based on characteristics of the fourth audio signal and the second playback device; and determining one or more characteristics of the second audio processing algorithm and the second playback zone. storing in a database an association with at least one of
The computing device of feature 29 or feature 30, comprising:
(Feature 32)
Determining the second audio processing algorithm further comprises:
determining acoustic characteristics of the playback zone based on the fourth audio signal and characteristics of the playback device; and determining an audio processing algorithm based on the acoustic characteristics of the playback zone; applying the determined audio processing algorithm by the second reproduction device when reproducing the third audio signal within a reproduction zone, thereby obtaining a fifth audio characteristic having substantially the same audio characteristics as predetermined audio characteristics; so that an audio signal of
29. The computing device of feature 29.
(Feature 33)
Said function further comprises:
determining that the acoustic properties of the second playback zone are substantially the same as the acoustic properties of the first playback zone;
In response, determining a third audio processing algorithm based on said first audio processing algorithm and said second audio processing algorithm; and said third audio processing algorithm and said first play zone. storing in a database an association with at least one of the one or more properties of
The computing device of feature 32, comprising:
(Feature 34)
The one or more characteristics of the reproduction zone are: (a) dimensions of the reproduction zone; (b) audio reflection properties of the reproduction zone; (c) intended use of the reproduction zone; (e) the size of the furniture in the reproduction zone; (f) the type of furniture in the reproduction zone; and (g) the acoustic characteristics of the reproduction zone. any computing device.
(Feature 35)
a processor and a memory storing instructions executable by the processor to cause a playback device to perform functions;
A computing device comprising
Said function is
(i) maintaining a database of a plurality of audio processing algorithms and (ii) a plurality of play zone characteristics, wherein each audio processing algorithm of said plurality of audio processing algorithms comprises: corresponding to at least one play zone characteristic of
receiving data indicative of one or more characteristics of the regeneration zone;
identifying an audio processing algorithm in the database based on the data; and transmitting data indicative of the identified audio processing algorithm;
A computing device having a
(Feature 36)
36. The computing device of Feature 35, wherein the data is further indicative of audio signals detected by microphones of playback devices within the playback zone.
(Feature 37)
Identifying the audio processing algorithm in the database further comprises:
determining acoustic characteristics of the playback zone based on the detected audio signal and characteristics of the playback device; and identifying an audio processing algorithm in the database based on the determined acoustic characteristics of the playback zone. thing,
The computing device of feature 36, comprising:
(Feature 38)
The plurality of play zone characteristics include: (a) dimensions of the play zone, (b) audio reflection properties of the play zone, (c) intended use of the play zone, (d) number of furniture in the play zone, (e) 36. The computing device of Feature 35, comprising one or more of:) size of furniture in a play zone; (f) type of furniture in a play zone; and (g) acoustic characteristics of the play zone.
(Feature 39)
36. The computing device of feature 35, wherein data indicative of one or more characteristics of the play zone is received from a controller device.
(Feature 40)
36. The computing device of feature 35, wherein data indicative of one or more characteristics of the play zone is received from a play device within the play zone.

本明細書は、例示的な環境、システム、手順、ステップ、論理ブロック、処理、および他のシンボル表現に関して広く示されており、それらは直接又は間接的にネットワークに接続されるデータ処理デバイスの動作に類似するものである。これらの処理説明および表現は、一般的に当業者によって使用され、それらの仕事の内容を他の当業者に最も効率良く伝えることができる。多くの具体的な内容が、本開示を理解するために提供されている。しかしながら、当業者にとって、本開示の特定の実施形態が特定の、具体的な詳細なしに実施され得ることは理解される。他の例では、周知の方法、手順、コンポーネント、および回路が、実施形態を不必要に曖昧にすることを避けるため、詳細に説明していない。したがって、本開示の範囲は、上記した実施形態よりむしろ添付された特許請求の範囲によって定義される。 This specification is presented broadly in terms of exemplary environments, systems, procedures, steps, logic blocks, processes, and other symbolic representations that describe the operations of data processing devices that are directly or indirectly connected to networks. is similar to These processing descriptions and representations are commonly used by those skilled in the art to most effectively convey the substance of their work to others skilled in the art. A number of specific details are provided for understanding this disclosure. However, it will be understood by those skilled in the art that certain embodiments of the present disclosure may be practiced without the specific specific details. In other instances, well-known methods, procedures, components and circuits have not been described in detail to avoid unnecessarily obscuring the embodiments. Accordingly, the scope of the present disclosure is defined by the appended claims rather than the above-described embodiments.

添付の特許請求の範囲のいずれかが単にソフトウェアおよび/又はファームウェアへの実装をカバーするように読み取ると、少なくとも1つの例における要素の1つ又は複数は、本明細書では、ソフトウェアおよび/又はファームウェアを記憶する有形の非一時的な記憶媒体、例えば、メモリ、DVD、CD、Blu-ray(登録商標)等を含むことが明確に定められている。 When any of the appended claims are read to merely cover implementations in software and/or firmware, one or more of the elements in at least one example may be referred to herein as software and/or firmware. tangible, non-transitory storage media, such as memories, DVDs, CDs, Blu-rays, etc.

Claims (20)

再生ゾーン内の再生デバイス(200)に第1のオーディオ信号を再生させる、
前記再生デバイスのマイクロホン(220)によって検出された第2のオーディオ信号を示すデータを受信する、ここで、前記第2のオーディオ信号は前記第1のオーディオ信号に対応する部分を含む、
前記第2のオーディオ信号及び前記再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定する、及び
決定した前記オーディオ処理アルゴリズムを示すデータを前記再生デバイス(200)に送信する、及び/又は、前記オーディオ処理アルゴリズムと前記再生ゾーンの音響特性との関連付けをデータベースに記憶させる、
コンピューティングデバイス(300)。
causing a playback device (200) in the playback zone to play the first audio signal;
receiving data indicative of a second audio signal detected by a microphone (220) of the playback device, wherein the second audio signal includes a portion corresponding to the first audio signal;
determine an audio processing algorithm based on the second audio signal and the acoustic characteristics of the playback device; and transmit data indicative of the determined audio processing algorithm to the playback device (200), and/or storing in a database an association between audio processing algorithms and acoustic properties of the play zone;
A computing device (300).
前記再生ゾーン内で前記第1のオーディオ信号を再生するときに、決定した前記オーディオ処理アルゴリズムを前記再生デバイス(200)によって適用することにより、所定のオーディオ特性と実質的に同一のオーディオ特性を有する第3のオーディオ信号が生成される、請求項1に記載のコンピューティングデバイス。 applying the determined audio processing algorithm by the playback device (200) when playing back the first audio signal within the playback zone to have audio characteristics substantially identical to predetermined audio characteristics; 2. The computing device of claim 1, wherein a third audio signal is generated. 前記オーディオ処理アルゴリズムを決定することは、さらに、
前記第2のオーディオ信号及び前記再生デバイス(200)の音響特性に基づいて、前記再生ゾーンの音響特性を決定すること、及び
前記再生ゾーンの決定した前記音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、
を含む、請求項1又は請求項2に記載のコンピューティングデバイス。
Determining the audio processing algorithm further comprises:
determining acoustic characteristics of the playback zone based on the second audio signal and acoustic characteristics of the playback device (200); and determining an audio processing algorithm based on the determined acoustic characteristics of the playback zone. to do
3. A computing device according to claim 1 or claim 2, comprising a .
前記再生ゾーンの決定した前記音響特性に基づいて、前記オーディオ処理アルゴリズムを決定することは、
前記再生ゾーンの決定した前記音響特性に対応するオーディオ処理アルゴリズムを複数のオーディオ処理アルゴリズムから選択すること、又は
前記再生ゾーンの音響特性及び所定のオーディオ特性に基づいて、前記オーディオ処理アルゴリズムを計算すること、
を含む、請求項3に記載のコンピューティングデバイス。
Determining the audio processing algorithm based on the determined acoustic characteristics of the playback zone comprises:
selecting from a plurality of audio processing algorithms an audio processing algorithm corresponding to the determined acoustic properties of the play zone; or calculating the audio processing algorithm based on acoustic properties of the play zone and predetermined audio properties. ,
4. The computing device of claim 3, comprising:
前記オーディオ処理アルゴリズムを決定することは、前記オーディオ処理アルゴリズムについての1つ又は複数のパラメータを決定することを含む、請求項1から請求項4のうちいずれか1項に記載のコンピューティングデバイス。 5. A computing device as claimed in any preceding claim, wherein determining the audio processing algorithm comprises determining one or more parameters for the audio processing algorithm. 無響室内の基準再生デバイス(200)に測定信号を再生させる、
前記基準再生デバイス(220)のマイクロホン(220)によって検出されたオーディオ信号を示すデータを前記基準再生デバイス(200)から受信する、ここで、前記検出されたオーディオ信号は、前記無響室内で再生された前記測定信号に対応する部分を含む、
前記検出されたオーディオ信号と前記測定信号との比較に基づいて、前記再生デバイス(200)の音響特性を決定する、
請求項1から請求項5のうちいずれか1項に記載のコンピューティングデバイス。
causing the reference reproduction device (200) in the anechoic chamber to reproduce the measurement signal;
receiving data from the reference reproduction device (200) indicative of an audio signal detected by a microphone (220) of the reference reproduction device (220), wherein the detected audio signal is reproduced in the anechoic chamber; a portion corresponding to the measured signal obtained by
determining an acoustic characteristic of the playback device (200) based on a comparison of the detected audio signal and the measured signal;
A computing device according to any one of claims 1-5.
さらに、
前記第2のオーディオ信号を示すデータを受信する前に、第2の再生デバイス(200)に前記再生ゾーン内で第4のオーディオ信号を再生させる、
ここで、前記第2のオーディオ信号は、さらに、第2の再生デバイス(200)によって再生された前記第4のオーディオ信号に対応する部分を含む、
請求項1から請求項6のうちいずれか1項に記載のコンピューティングデバイス。
moreover,
causing a second playback device (200) to play a fourth audio signal within the playback zone prior to receiving data indicative of the second audio signal;
wherein said second audio signal further comprises a portion corresponding to said fourth audio signal reproduced by a second reproduction device (200);
A computing device according to any one of claims 1-6.
前記第2の再生デバイス(200)による前記第4のオーディオ信号の再生は、前記第1の再生デバイス(200)による前記第1のオーディオ信号の再生と同期して、又は前記第1の再生デバイス(200)による前記第1のオーディオ信号の再生が終了した後に、行わせる、請求項7に記載のコンピューティングデバイス。 The reproduction of the fourth audio signal by the second reproduction device (200) is synchronized with the reproduction of the first audio signal by the first reproduction device (200), or the first reproduction device 8. The computing device of claim 7, caused to occur after (200) finishes playing the first audio signal. 前記第1のオーディオ信号は、前記第3のオーディオ信号に対して直交している、請求項7又は請求項8に記載のコンピューティングデバイス。 9. A computing device according to claim 7 or 8, wherein said first audio signal is orthogonal to said third audio signal. 前記第1の再生デバイス(200)及び前記第2の再生デバイス(200)は、同期してオーディオコンテンツを再生するように構成された再生デバイス(200)のゾーングループに含まれる、請求項7から請求項9のうちいずれか1項に記載のコンピューティングデバイス。 from claim 7, wherein the first playback device (200) and the second playback device (200) are included in a zone group of playback devices (200) configured to play audio content synchronously; 10. A computing device according to any one of claims 9. 前記オーディオ処理アルゴリズムを決定することは、さらに、
前記再生ゾーンの1つ又は複数の特性を示すデータを受信すること、
前記再生ゾーンの1つ又は複数の特性と前記オーディオ処理アルゴリズムとの関連付けをデータベースに記憶させること、
を含む、請求項1から請求項2及び請求項5から請求項10のうちいずれか1項に記載のコンピューティングデバイス。
Determining the audio processing algorithm further comprises:
receiving data indicative of one or more characteristics of the regeneration zone;
storing in a database an association between one or more characteristics of the play zone and the audio processing algorithm;
11. A computing device according to any one of claims 1-2 and 5-10, comprising a.
前記再生デバイスは、第1の再生デバイスである、
前記再生ゾーンは、第1の再生ゾーンである、
前記オーディオ処理アルゴリズムは、第1のオーディオ処理アルゴリズムである、
前記機能は、さらに、
第2の再生ゾーン内の第2の再生デバイスに第4のオーディオ信号を再生させること、
前記第2の再生デバイスのマイクロホンによって検出された第5のオーディオ信号を示すデータを受信すること、ここで、前記第5のオーディオ信号は、前記第2の再生デバイスによって再生された前記第4のオーディオ信号に対応する部分を含む、
前記第5のオーディオ信号及び前記第2の再生デバイスの特性に基づいて、前記第2の再生ゾーンの音響特性を決定すること、
前記第2の再生ゾーンの音響特性に基づいて、第2のオーディオ処理アルゴリズムを決定すること、
前記第2のオーディオ処理アルゴリズム及び前記第2の再生ゾーンの音響特性との関連付けをデータベースに記憶させること、
を含む、請求項1から請求項6及び請求項9から請求項11のうちいずれか1項に記載のコンピューティングデバイス。
wherein the playback device is a first playback device;
wherein the regeneration zone is a first regeneration zone;
wherein the audio processing algorithm is a first audio processing algorithm,
Said function further comprises:
causing a second playback device in a second playback zone to play a fourth audio signal;
receiving data indicative of a fifth audio signal detected by a microphone of the second reproduction device, wherein the fifth audio signal is the fourth audio signal reproduced by the second reproduction device; including the portion corresponding to the audio signal,
determining acoustic characteristics of the second playback zone based on the fifth audio signal and characteristics of the second playback device;
determining a second audio processing algorithm based on the acoustic properties of the second playback zone;
storing in a database an association of the second audio processing algorithm and the acoustic properties of the second playback zone;
A computing device according to any one of claims 1-6 and 9-11, comprising a.
前記機能は、さらに、
前記第2の再生ゾーンの音響特性が、前記第1の再生ゾーンの音響特性と実質的に同一であることを決定すること、
それに応答して、前記第1のオーディオ処理アルゴリズム及び前記第2のオーディオ処理アルゴリズムに基づいて、第3のオーディオ処理アルゴリズムを決定すること、
前記第3のオーディオ処理アルゴリズムと前記第1の再生ゾーンの音響特性との関連付けをデータベースに記憶させること、
を含む、請求項12に記載のコンピューティングデバイス。
Said function further comprises:
determining that the acoustic properties of the second playback zone are substantially the same as the acoustic properties of the first playback zone;
responsively, determining a third audio processing algorithm based on the first audio processing algorithm and the second audio processing algorithm;
storing in a database an association between the third audio processing algorithm and the acoustic characteristics of the first play zone;
13. The computing device of claim 12, comprising:
前記再生ゾーンの1つ又は複数の特性を示すデータは、コントローラデバイス及び前記再生ゾーン内の再生デバイスのうちの一方から受信される、請求項11から請求項13のうちいずれか1項に記載のコンピューティングデバイス。 14. Any one of claims 11-13, wherein data indicative of one or more characteristics of the regeneration zone is received from one of a controller device and a regeneration device within the regeneration zone. computing device. 前記再生ゾーンの1つ又は複数の特性は、(a)前記再生ゾーンの寸法、(b)前記再生ゾーンのオーディオ反射特性、(c)前記再生ゾーンの使用目的、(d)前記再生ゾーン内の家具の数、(e)前記再生ゾーン内の家具の大きさ、及び(f)前記再生ゾーン内の家具の種類のうちの1つ又は複数を含む、請求項1から請求項14のうちいずれか1項に記載のコンピューティングデバイス。 The one or more characteristics of the reproduction zone are: (a) dimensions of the reproduction zone; (b) audio reflection characteristics of the reproduction zone; (c) intended use of the reproduction zone; 15. Any of claims 1-14, including one or more of the number of pieces of furniture, (e) size of pieces of furniture in the regeneration zone, and (f) types of pieces of furniture in the regeneration zone. 2. The computing device of clause 1. 再生ゾーン内の再生デバイス(200)であって、
マイクロホン(220)、及び
プロセッサ(202)、
を有し、
前記プロセッサ(202)は、
第1のオーディオ信号を再生する、
前記第1のオーディオ信号に対応する部分を含む第2のオーディオ信号を前記マイクロホン(220)によって検出する、
前記第2のオーディオ信号及び前記再生デバイス(200)の音響特性に基づいて、オーディオ処理アルゴリズムを決定する、
決定した前記オーディオ処理アルゴリズムを、前記再生ゾーン内でメディアアイテムを再生するときに、前記メディアアイテムに対応するオーディオデータに対して適用する、
再生デバイス。
A playback device (200) in a playback zone, comprising:
a microphone (220), and a processor (202),
has
The processor (202)
playing the first audio signal;
detecting by the microphone (220) a second audio signal comprising a portion corresponding to the first audio signal;
determining an audio processing algorithm based on the second audio signal and the acoustic characteristics of the playback device (200);
applying the determined audio processing algorithm to audio data corresponding to the media item when playing the media item within the play zone;
playback device.
前記オーディオ処理アルゴリズムを決定することは、
さらに、
前記第2のオーディオ信号及び前記再生デバイス(200)の音響特性に基づいて、前記再生ゾーンの1つ又は複数の特性を決定すること、及び
前記再生ゾーンの1つ又は複数の特性に対応するオーディオ処理アルゴリズムを複数のオーディオ処理アルゴリズムから選択すること、
を含む、請求項16に記載の再生デバイス。
Determining the audio processing algorithm includes:
moreover,
determining one or more characteristics of the reproduction zone based on the second audio signal and acoustic characteristics of the reproduction device (200); and audio corresponding to the one or more characteristics of the reproduction zone. selecting a processing algorithm from a plurality of audio processing algorithms;
17. The playback device of claim 16, comprising:
前記オーディオ処理アルゴリズムを決定することは、
(i)前記第2のオーディオ信号及び(ii)前記再生デバイス(200)の特性を示す送信データをコンピューティングデバイス(300)に送信すること、及び
前記オーディオ処理アルゴリズムを示すデータを前記コンピューティングデバイス(300)から受信すること、
を含む、請求項16に記載の再生デバイス。
Determining the audio processing algorithm includes:
(i) transmitting the second audio signal and (ii) transmission data indicative of characteristics of the playback device (200) to a computing device (300); and transmitting data indicative of the audio processing algorithm to the computing device. (300) receiving from
17. The playback device of claim 16, comprising:
さらに、
決定した前記オーディオ処理アルゴリズムを格納するように構成されたメモリ(206)を有する、請求項16から請求項18のうちいずれか1項に記載の再生デバイス。
moreover,
19. A playback device according to any one of claims 16 to 18, comprising a memory (206) configured to store the determined audio processing algorithm.
前記オーディオデータに対して前記オーディオ処理アルゴリズムを適用することは、
前記メディアアイテムの周波数等化と前記メディアアイテムの音量域のうちの少なくとも1つを変更することを含む、請求項16から請求項19のうちいずれか1項に記載の再生デバイス。
Applying the audio processing algorithm to the audio data comprises:
20. A playback device as claimed in any one of claims 16 to 19, comprising changing at least one of frequency equalization of the media item and volume range of the media item.
JP2022115789A 2014-09-09 2022-07-20 Audio processing algorithm and database Pending JP2022163061A (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US14/481,505 US9952825B2 (en) 2014-09-09 2014-09-09 Audio processing algorithms
US14/481,514 2014-09-09
US14/481,514 US9891881B2 (en) 2014-09-09 2014-09-09 Audio processing algorithm database
US14/481,505 2014-09-09
JP2020185230A JP7110301B2 (en) 2014-09-09 2020-11-05 Audio processing algorithms and databases

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020185230A Division JP7110301B2 (en) 2014-09-09 2020-11-05 Audio processing algorithms and databases

Publications (1)

Publication Number Publication Date
JP2022163061A true JP2022163061A (en) 2022-10-25

Family

ID=54292894

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2017513241A Active JP6503457B2 (en) 2014-09-09 2015-09-08 Audio processing algorithm and database
JP2019056360A Active JP6792015B2 (en) 2014-09-09 2019-03-25 Audio processing algorithms and databases
JP2020185230A Active JP7110301B2 (en) 2014-09-09 2020-11-05 Audio processing algorithms and databases
JP2022115789A Pending JP2022163061A (en) 2014-09-09 2022-07-20 Audio processing algorithm and database

Family Applications Before (3)

Application Number Title Priority Date Filing Date
JP2017513241A Active JP6503457B2 (en) 2014-09-09 2015-09-08 Audio processing algorithm and database
JP2019056360A Active JP6792015B2 (en) 2014-09-09 2019-03-25 Audio processing algorithms and databases
JP2020185230A Active JP7110301B2 (en) 2014-09-09 2020-11-05 Audio processing algorithms and databases

Country Status (4)

Country Link
EP (2) EP3111678B1 (en)
JP (4) JP6503457B2 (en)
CN (2) CN106688248B (en)
WO (1) WO2016040324A1 (en)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9084058B2 (en) 2011-12-29 2015-07-14 Sonos, Inc. Sound field calibration using listener localization
US9219460B2 (en) 2014-03-17 2015-12-22 Sonos, Inc. Audio settings based on environment
US9106192B2 (en) 2012-06-28 2015-08-11 Sonos, Inc. System and method for device playback calibration
US9706323B2 (en) 2014-09-09 2017-07-11 Sonos, Inc. Playback device calibration
US9690539B2 (en) 2012-06-28 2017-06-27 Sonos, Inc. Speaker calibration user interface
US9264839B2 (en) 2014-03-17 2016-02-16 Sonos, Inc. Playback device configuration based on proximity detection
US9952825B2 (en) 2014-09-09 2018-04-24 Sonos, Inc. Audio processing algorithms
US9910634B2 (en) 2014-09-09 2018-03-06 Sonos, Inc. Microphone calibration
US9891881B2 (en) 2014-09-09 2018-02-13 Sonos, Inc. Audio processing algorithm database
US10127006B2 (en) 2014-09-09 2018-11-13 Sonos, Inc. Facilitating calibration of an audio playback device
US10664224B2 (en) 2015-04-24 2020-05-26 Sonos, Inc. Speaker calibration user interface
WO2016172593A1 (en) 2015-04-24 2016-10-27 Sonos, Inc. Playback device calibration user interfaces
US9538305B2 (en) 2015-07-28 2017-01-03 Sonos, Inc. Calibration error conditions
EP3531714B1 (en) 2015-09-17 2022-02-23 Sonos Inc. Facilitating calibration of an audio playback device
US9693165B2 (en) 2015-09-17 2017-06-27 Sonos, Inc. Validation of audio calibration using multi-dimensional motion check
US9743207B1 (en) 2016-01-18 2017-08-22 Sonos, Inc. Calibration using multiple recording devices
US10003899B2 (en) 2016-01-25 2018-06-19 Sonos, Inc. Calibration with particular locations
US11106423B2 (en) 2016-01-25 2021-08-31 Sonos, Inc. Evaluating calibration of a playback device
US9864574B2 (en) 2016-04-01 2018-01-09 Sonos, Inc. Playback device calibration based on representation spectral characteristics
US9860662B2 (en) 2016-04-01 2018-01-02 Sonos, Inc. Updating playback device configuration information based on calibration data
EP3547701B1 (en) * 2016-04-01 2023-09-06 Sonos Inc. Updating playback device configuration information based on calibration data
US9763018B1 (en) 2016-04-12 2017-09-12 Sonos, Inc. Calibration of audio playback devices
US9794710B1 (en) 2016-07-15 2017-10-17 Sonos, Inc. Spatial audio correction
US9860670B1 (en) 2016-07-15 2018-01-02 Sonos, Inc. Spectral correction using spatial calibration
US10372406B2 (en) 2016-07-22 2019-08-06 Sonos, Inc. Calibration interface
US10459684B2 (en) 2016-08-05 2019-10-29 Sonos, Inc. Calibration of a playback device based on an estimated frequency response
US11206484B2 (en) 2018-08-28 2021-12-21 Sonos, Inc. Passive speaker authentication
US10299061B1 (en) * 2018-08-28 2019-05-21 Sonos, Inc. Playback device calibration
US10959018B1 (en) * 2019-01-18 2021-03-23 Amazon Technologies, Inc. Method for autonomous loudspeaker room adaptation
US10734965B1 (en) 2019-08-12 2020-08-04 Sonos, Inc. Audio calibration of a portable playback device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002067815A (en) * 2000-08-28 2002-03-08 Fujitsu Ten Ltd On-vehicle audio service method
JP2009288260A (en) * 2008-05-27 2009-12-10 Alpine Electronics Inc Acoustic information providing system and onboard acoustic device
JP2014519274A (en) * 2011-05-25 2014-08-07 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ Sound reproduction device including auditory scenario simulation

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0828920B2 (en) * 1992-01-20 1996-03-21 松下電器産業株式会社 Speaker measuring device
JP2870359B2 (en) * 1993-05-11 1999-03-17 ヤマハ株式会社 Acoustic characteristic correction device
JPH10307592A (en) * 1997-05-08 1998-11-17 Alpine Electron Inc Data distributing system for on-vehicle audio device
WO2001011918A2 (en) * 1999-08-11 2001-02-15 Pacific Microsonics, Inc. Compensation system and method for sound reproduction
US7483540B2 (en) * 2002-03-25 2009-01-27 Bose Corporation Automatic audio system equalizing
JP2004159037A (en) * 2002-11-06 2004-06-03 Sony Corp Automatic sound adjustment system, sound adjusting device, sound analyzer, and sound analysis processing program
US8234395B2 (en) 2003-07-28 2012-07-31 Sonos, Inc. System and method for synchronizing operations among a plurality of independently clocked digital data processing devices
JP2005086686A (en) * 2003-09-10 2005-03-31 Fujitsu Ten Ltd Electronic equipment
US20060088174A1 (en) * 2004-10-26 2006-04-27 Deleeuw William C System and method for optimizing media center audio through microphones embedded in a remote control
LV13342B (en) * 2005-05-18 2005-10-20 Real Sound Lab Sia Method and device for correction of acoustic parameters of electro-acoustic transducers
JP4407571B2 (en) * 2005-06-06 2010-02-03 株式会社デンソー In-vehicle system, vehicle interior sound field adjustment system, and portable terminal
JP2007271802A (en) * 2006-03-30 2007-10-18 Kenwood Corp Content reproduction system and computer program
JP4725422B2 (en) * 2006-06-02 2011-07-13 コニカミノルタホールディングス株式会社 Echo cancellation circuit, acoustic device, network camera, and echo cancellation method
JP2008035254A (en) * 2006-07-28 2008-02-14 Sharp Corp Sound output device and television receiver
US7845233B2 (en) * 2007-02-02 2010-12-07 Seagrave Charles G Sound sensor array with optical outputs
JP2008228133A (en) * 2007-03-15 2008-09-25 Matsushita Electric Ind Co Ltd Acoustic system
US8819554B2 (en) * 2008-12-23 2014-08-26 At&T Intellectual Property I, L.P. System and method for playing media
US8300840B1 (en) * 2009-02-10 2012-10-30 Frye Electronics, Inc. Multiple superimposed audio frequency test system and sound chamber with attenuated echo properties
US8588430B2 (en) * 2009-02-11 2013-11-19 Nxp B.V. Controlling an adaptation of a behavior of an audio device to a current acoustic environmental condition
JP2011164166A (en) * 2010-02-05 2011-08-25 D&M Holdings Inc Audio signal amplifying apparatus
WO2011104146A1 (en) * 2010-02-24 2011-09-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus for generating an enhanced downmix signal, method for generating an enhanced downmix signal and computer program
US9307340B2 (en) * 2010-05-06 2016-04-05 Dolby Laboratories Licensing Corporation Audio system equalization for portable media playback devices
EP2986034B1 (en) * 2010-05-06 2017-05-31 Dolby Laboratories Licensing Corporation Audio system equalization for portable media playback devices
JP5533248B2 (en) * 2010-05-20 2014-06-25 ソニー株式会社 Audio signal processing apparatus and audio signal processing method
CN102004823B (en) * 2010-11-11 2012-09-26 浙江中科电声研发中心 Numerical value simulation method of vibration and acoustic characteristics of speaker
JP2015513832A (en) * 2012-02-21 2015-05-14 インタートラスト テクノロジーズ コーポレイション Audio playback system and method
JP2013247456A (en) * 2012-05-24 2013-12-09 Toshiba Corp Acoustic processing device, acoustic processing method, acoustic processing program, and acoustic processing system
US9106192B2 (en) * 2012-06-28 2015-08-11 Sonos, Inc. System and method for device playback calibration
CN104956689B (en) * 2012-11-30 2017-07-04 Dts(英属维尔京群岛)有限公司 For the method and apparatus of personalized audio virtualization
EP2747081A1 (en) * 2012-12-18 2014-06-25 Oticon A/s An audio processing device comprising artifact reduction

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002067815A (en) * 2000-08-28 2002-03-08 Fujitsu Ten Ltd On-vehicle audio service method
JP2009288260A (en) * 2008-05-27 2009-12-10 Alpine Electronics Inc Acoustic information providing system and onboard acoustic device
JP2014519274A (en) * 2011-05-25 2014-08-07 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ Sound reproduction device including auditory scenario simulation

Also Published As

Publication number Publication date
JP7110301B2 (en) 2022-08-01
WO2016040324A1 (en) 2016-03-17
JP2021044818A (en) 2021-03-18
CN111565352A (en) 2020-08-21
CN111565352B (en) 2021-08-06
EP3111678A1 (en) 2017-01-04
EP4243450A2 (en) 2023-09-13
EP4243450A3 (en) 2023-11-15
CN106688248A (en) 2017-05-17
CN106688248B (en) 2020-04-14
JP2019134470A (en) 2019-08-08
EP3111678B1 (en) 2023-11-01
JP6503457B2 (en) 2019-04-17
JP2017528083A (en) 2017-09-21
JP6792015B2 (en) 2020-11-25

Similar Documents

Publication Publication Date Title
JP7110301B2 (en) Audio processing algorithms and databases
US11029917B2 (en) Audio processing algorithms
US10127008B2 (en) Audio processing algorithm database
US10701501B2 (en) Playback device calibration
JP6524273B2 (en) Calibration of playback device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220816

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220816

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240402