JP5882552B2 - 協調的サウンドシステム - Google Patents
協調的サウンドシステム Download PDFInfo
- Publication number
- JP5882552B2 JP5882552B2 JP2015544072A JP2015544072A JP5882552B2 JP 5882552 B2 JP5882552 B2 JP 5882552B2 JP 2015544072 A JP2015544072 A JP 2015544072A JP 2015544072 A JP2015544072 A JP 2015544072A JP 5882552 B2 JP5882552 B2 JP 5882552B2
- Authority
- JP
- Japan
- Prior art keywords
- mobile device
- audio
- audio signal
- source data
- period
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000005236 sound signal Effects 0.000 claims description 227
- 238000009877 rendering Methods 0.000 claims description 178
- 238000000034 method Methods 0.000 claims description 117
- 239000013598 vector Substances 0.000 claims description 70
- 238000003860 storage Methods 0.000 claims description 30
- 238000004091 panning Methods 0.000 claims description 23
- 230000001419 dependent effect Effects 0.000 claims description 14
- 230000000694 effects Effects 0.000 claims description 12
- 210000004185 liver Anatomy 0.000 claims 3
- 230000001052 transient effect Effects 0.000 claims 1
- 230000006870 function Effects 0.000 description 59
- 238000007781 pre-processing Methods 0.000 description 32
- 238000013480 data collection Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 18
- 238000012545 processing Methods 0.000 description 18
- 230000004044 response Effects 0.000 description 14
- 238000004458 analytical method Methods 0.000 description 11
- 230000008859 change Effects 0.000 description 7
- 239000010454 slate Substances 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 238000013024 troubleshooting Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000006978 adaptation Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/02—Spatial or constructional arrangements of loudspeakers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2205/00—Details of stereophonic arrangements covered by H04R5/00 but not provided for in any of its subgroups
- H04R2205/024—Positioning of loudspeaker enclosures for spatial sound reproduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2420/00—Details of connection covered by H04R, not provided for in its groups
- H04R2420/07—Applications of wireless loudspeakers or wireless microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/13—Aspects of volume control, not necessarily automatic, in stereophonic sound systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/308—Electronic adaptation dependent on speaker or headphone connection
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Stereophonic System (AREA)
- Circuit For Audible Band Transducer (AREA)
- Stereophonic Arrangements (AREA)
Description
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1] 協調的サラウンドサウンドシステムに加わるモバイルデバイスに対して、前記協調的サラウンドサウンドシステムの仮想スピーカーの規定された位置を特定することと、
前記モバイルデバイスによるオーディオソースからレンダリングされたオーディオ信号の再生に影響を与える制約を決定することと、
前記モバイルデバイスによる前記オーディオ信号の再生の間の前記決定された制約の前記影響を減らすようにオーディオ信号をレンダリングするために、前記決定された制約とともに前記オーディオソースの動的空間レンダリングを実行することとを備える、方法。
[C2] 前記制約を決定することが、
前記オーディオソースからレンダリングされた前記オーディオ信号を再生するのに十分な電力を前記モバイルデバイスが有するであろう予想される期間を示す、予想される電力期間を決定することと、
前記オーディオソースからの前記オーディオ信号の再生期間を示すソースオーディオ期間を決定することと、
前記ソースオーディオ期間が前記予想される電力期間を超えるとき、前記予想される電力期間を前記制約として決定することとを備える、C1に記載の方法。
[C3] 前記決定された制約とともに前記オーディオソースの前記動的空間レンダリングを実行することが、前記オーディオ信号を再生するための予想される電力期間が前記ソースオーディオ期間より短いように前記オーディオ信号をレンダリングするために、前記決定された予想される電力期間を前記制約として使用して前記オーディオソースの動的空間レンダリングを実行することを備える、C2に記載の方法。
[C4] 前記制約を決定することが、周波数に依存する制約を決定することを備え、
前記動的空間レンダリングを実行することが、前記モバイルデバイスによって前記オーディオ信号を再生するための予想される電力期間が前記オーディオ信号の再生期間を示すソースオーディオ期間より短いように前記オーディオ信号をレンダリングするために、前記決定された周波数に依存する制約を使用して前記オーディオソースの前記動的空間レンダリングを実行することを備える、C1に記載の方法。
[C5] 前記仮想スピーカーが、前記協調的サラウンドサウンドシステムの複数の仮想スピーカーの1つを備え、
前記モバイルデバイスが、前記複数の仮想スピーカーを支援するように構成される複数のモバイルデバイスの1つを備え、
前記動的空間レンダリングを実行することが、前記複数のモバイルデバイスの少なくとも1つによって前記オーディオ信号を再生するための予想される電力期間が前記オーディオ信号の再生期間を示すソースオーディオ期間より短いように前記オーディオ信号をレンダリングするために、前記複数のモバイルデバイスの前記少なくとも1つによって前記オーディオ信号を再生するための前記予想される電力期間を前記制約として使用して、前記オーディオソースの前記動的空間レンダリングを実行することを備える、C1に記載の方法。
[C6] 前記複数のモバイルデバイスが、第1のモバイルデバイスと、第2のモバイルデバイスと、第3のモバイルデバイスとを備え、
前記予想される電力期間を前記制約として使用して、前記オーディオソースの前記動的空間レンダリングを実行することが、
前記第1のモバイルデバイス、前記第2のモバイルデバイス、および前記第3のモバイルデバイスに対して、それぞれ、以下の式に従って音量利得g1と、g2と、g3とを計算することを備え、
l 11 、l 12 が、ヘッドエンドデバイスに対する前記第1のモバイルデバイスの位置を特定するベクトルを示し、l 21 、l 22 が、前記ヘッドエンドデバイスに対する前記第2のモバイルデバイスの位置を特定するベクトルを示し、l 31 、l 32 が、前記ヘッドエンドデバイスに対する前記第3のモバイルデバイスの位置を特定するベクトルを示し、
p 1 、p 2 が、前記第1のモバイルデバイス、前記第2のモバイルデバイス、および前記第3のモバイルデバイスによって支援される前記複数の仮想スピーカーの1つの、ヘッドエンドデバイスに対する前記規定された位置を特定するベクトルを示す、C5に記載の方法。
[C7] 前記決定された制約とともに前記オーディオソースの前記動的空間レンダリングを実行することが、前記モバイルデバイスによる前記オーディオ信号の再生に対する前記決定された制約の前記影響を減らすように前記オーディオ信号をレンダリングするために、前記オーディオソースに対して拘束ベクトルに基づく動的振幅パンニングを実行することを備える、C1に記載の方法。
[C8] 前記協調的サラウンドサウンドシステムの前記仮想スピーカーが、前記モバイルデバイスの位置とは異なる位置に配置されているように見える、C1に記載の方法。
[C9] 前記オーディオソースが、高次アンビソニックスオーディオソースデータと、マルチチャンネルオーディオソースデータと、オブジェクトベースのオーディオソースデータとの1つを備える、C1に記載の方法。
[C10] 協調的サラウンドサウンドシステムに加わるモバイルデバイスに対して、前記協調的サラウンドサウンドシステムの仮想スピーカーの規定された位置を特定し、前記モバイルデバイスによるオーディオソースからレンダリングされたオーディオ信号の再生に影響を与える制約を決定し、前記モバイルデバイスによる前記オーディオ信号の再生の間の前記決定された制約の前記影響を減らすようにオーディオ信号をレンダリングするために、前記決定された制約とともに前記オーディオソースの動的空間レンダリングを実行するように構成される、1つまたは複数のプロセッサを備える、ヘッドエンドデバイス。
[C11] 前記1つまたは複数のプロセッサがさらに、前記制約を決定するときに、前記オーディオソースからレンダリングされた前記オーディオ信号を再生するのに十分な電力を前記モバイルデバイスが有するであろう予想される期間を示す、予想される電力期間を決定し、前記オーディオソースからの前記オーディオ信号の再生期間を示すソースオーディオ期間を決定し、前記ソースオーディオ期間が前記予想される電力期間を超えるとき、前記予想される電力期間を前記制約として決定することように構成される、C10に記載のヘッドエンドデバイス。
[C12] 前記1つまたは複数のプロセッサがさらに、前記決定された制約とともに前記オーディオソースの前記動的空間レンダリングを実行するときに、前記オーディオ信号を再生するための予想される電力期間が前記ソースオーディオ期間より短いように前記オーディオ信号をレンダリングするために、前記決定された予想される電力期間を前記制約として使用して前記オーディオソースの動的空間レンダリングを実行するように構成される、C11に記載のヘッドエンドデバイス。
[C13] 前記1つまたは複数のプロセッサがさらに、
前記制約を決定するときに、周波数に依存する制約を決定するように構成され、
前記1つまたは複数のプロセッサがさらに、前記動的空間レンダリングを実行するときに、前記モバイルデバイスによって前記オーディオ信号を再生するための予想される電力期間が前記オーディオ信号の再生期間を示すソースオーディオ期間より短いように前記オーディオ信号をレンダリングするために、前記決定された周波数に依存する制約を使用して前記オーディオソースの前記動的空間レンダリングを実行するように構成される、C10に記載のヘッドエンドデバイス。
[C14] 前記仮想スピーカーが、前記協調的サラウンドサウンドシステムの複数の仮想スピーカーの1つを備え、
前記モバイルデバイスが、前記複数の仮想スピーカーを支援するように構成される複数のモバイルデバイスの1つを備え、
前記1つまたは複数のプロセッサがさらに、前記動的空間レンダリングを実行するときに、前記複数のモバイルデバイスの少なくとも1つによって前記オーディオ信号を再生するための予想される電力期間が前記オーディオ信号の再生期間を示すソースオーディオ期間より短いように前記オーディオ信号をレンダリングするために、前記複数のモバイルデバイスの前記少なくとも1つによって前記オーディオ信号を再生するための前記予想される電力期間を前記制約として使用して、前記オーディオソースの前記動的空間レンダリングを実行するように構成される、C10に記載のヘッドエンドデバイス。
[C15] 前記複数のモバイルデバイスが、第1のモバイルデバイスと、第2のモバイルデバイスと、第3のモバイルデバイスとを備え、
前記1つまたは複数のプロセッサがさらに、前記予想される電力期間を前記制約として使用して、前記オーディオソースの前記動的空間レンダリングを実行するときに、前記第1のモバイルデバイス、前記第2のモバイルデバイス、および前記第3のモバイルデバイスに対して、それぞれ、以下の式に従って音量利得g 1 と、g 2 と、g 3 とを計算するように構成され、
l 11 、l 12 が、ヘッドエンドデバイスに対する前記第1のモバイルデバイスの位置を特定するベクトルを示し、l 21 、l 22 が、前記ヘッドエンドデバイスに対する前記第2のモバイルデバイスの位置を特定するベクトルを示し、l 31 、l 32 が、前記ヘッドエンドデバイスに対する前記第3のモバイルデバイスの位置を特定するベクトルを示し、
p 1 、p 2 が、前記第1のモバイルデバイス、前記第2のモバイルデバイス、および前記第3のモバイルデバイスによって支援される前記複数の仮想スピーカーの1つの、ヘッドエンドデバイスに対する前記規定された位置を特定するベクトルを示す、C14に記載のヘッドエンドデバイス。
[C16] 前記1つまたは複数のプロセッサがさらに、前記決定された制約とともに前記オーディオソースの前記動的空間レンダリングを実行するときに、前記モバイルデバイスによる前記オーディオ信号の再生に対する前記決定された制約の前記影響を減らすように前記オーディオ信号をレンダリングするために、前記オーディオソースに対して拘束ベクトルに基づく動的振幅パンニングを実行するように構成される、C10に記載のヘッドエンドデバイス。
[C17] 前記協調的サラウンドサウンドシステムの前記仮想スピーカーが、前記モバイルデバイスの位置とは異なる位置に配置されているように見える、C10に記載のヘッドエンドデバイス。
[C18] 前記オーディオソースが、高次アンビソニックスオーディオソースデータと、マルチチャンネルオーディオソースデータと、オブジェクトベースのオーディオソースデータとの1つを備える、C10に記載のヘッドエンドデバイス。
[C19] 協調的サラウンドサウンドシステムに加わるモバイルデバイスに対して、前記協調的サラウンドサウンドシステムの仮想スピーカーの規定された位置を特定するための手段と、
前記モバイルデバイスによるオーディオソースからレンダリングされたオーディオ信号の再生に影響を与える制約を決定するための手段と、
前記モバイルデバイスによる前記オーディオ信号の再生の間の前記決定された制約の前記影響を減らすようにオーディオ信号をレンダリングするために、前記決定された制約とともに前記オーディオソースの動的空間レンダリングを実行するための手段とを備える、ヘッドエンドデバイス。
[C20] 前記制約を決定するための前記手段が、前記オーディオソースからレンダリングされた前記オーディオ信号を再生するのに十分な電力を前記モバイルデバイスが有するであろう予想される期間を示す、予想される電力期間を決定し、前記オーディオソースからの前記オーディオ信号の再生期間を示すソースオーディオ期間を決定し、前記ソースオーディオ期間が前記予想される電力期間を超えるとき、前記予想される電力期間を前記制約として決定するための手段を備える、C19に記載のヘッドエンドデバイス。
[C21] 前記決定された制約とともに前記オーディオソースの前記動的空間レンダリングを実行するための前記手段が、前記オーディオ信号を再生するための予想される電力期間が前記ソースオーディオ期間より短いように前記オーディオ信号をレンダリングするために、前記決定された予想される電力期間を前記制約として使用して前記オーディオソースの動的空間レンダリングを実行するための手段を備える、C20に記載のヘッドエンドデバイス。
[C22] 前記制約を決定するための前記手段が、周波数に依存する制約を決定するための手段を備え、
前記動的空間レンダリングを実行するための前記手段が、前記モバイルデバイスによって前記オーディオ信号を再生するための予想される電力期間が前記オーディオ信号の再生期間を示すソースオーディオ期間より短いように前記オーディオ信号をレンダリングするために、前記決定された周波数に依存する制約を使用して前記オーディオソースの前記動的空間レンダリングを実行するための手段を備える、C20に記載のヘッドエンドデバイス。
[C23] 前記仮想スピーカーが、前記協調的サラウンドサウンドシステムの複数の仮想スピーカーの1つを備え、
前記モバイルデバイスが、前記複数の仮想スピーカーを支援するように構成される複数のモバイルデバイスの1つを備え、
前記動的空間レンダリングを実行するための前記手段が、前記複数のモバイルデバイスの少なくとも1つによって前記オーディオ信号を再生するための予想される電力期間が前記オーディオ信号の再生期間を示すソースオーディオ期間より短いように前記オーディオ信号をレンダリングするために、前記複数のモバイルデバイスの前記少なくとも1つによって前記オーディオ信号を再生するための前記予想される電力期間を前記制約として使用して、前記オーディオソースの前記動的空間レンダリングを実行するための手段を備える、C19に記載のヘッドエンドデバイス。
[C24] 前記複数のモバイルデバイスが、第1のモバイルデバイスと、第2のモバイルデバイスと、第3のモバイルデバイスとを備え、
前記予想される電力期間を前記制約として使用して、前記オーディオソースの前記動的空間レンダリングを実行するための前記手段が、
前記第1のモバイルデバイス、前記第2のモバイルデバイス、および前記第3のモバイルデバイスに対して、それぞれ、以下の式に従って音量利得g1と、g2と、g3とを計算するための手段を備え、
l 11 、l 12 が、ヘッドエンドデバイスに対する前記第1のモバイルデバイスの位置を特定するベクトルを示し、l 21 、l 22 が、前記ヘッドエンドデバイスに対する前記第2のモバイルデバイスの位置を特定するベクトルを示し、l 31 、l 32 が、前記ヘッドエンドデバイスに対する前記第3のモバイルデバイスの位置を特定するベクトルを示し、
p 1 、p 2 が、前記第1のモバイルデバイス、前記第2のモバイルデバイス、および前記第3のモバイルデバイスによって支援される前記複数の仮想スピーカーの1つの、ヘッドエンドデバイスに対する前記規定された位置を特定するベクトルを示す、C23に記載のヘッドエンドデバイス。
[C25] 前記決定された制約とともに前記オーディオソースの前記動的空間レンダリングを実行するための前記手段が、前記モバイルデバイスによる前記オーディオ信号の再生に対する前記決定された制約の前記影響を減らすように前記オーディオ信号をレンダリングするために、前記オーディオソースに対して拘束ベクトルに基づく動的振幅パンニングを実行するための手段を備える、C19に記載のヘッドエンドデバイス。
[C26] 前記協調的サラウンドサウンドシステムの前記仮想スピーカーが、前記モバイルデバイスの位置とは異なる位置に配置されているように見える、C19に記載のヘッドエンドデバイス。
[C27] 前記オーディオソースが、高次アンビソニックスオーディオソースデータと、マルチチャンネルオーディオソースデータと、オブジェクトベースのオーディオソースデータとの1つを備える、C19に記載のヘッドエンドデバイス。
[C28] 実行されると、1つまたは複数のプロセッサに、
協調的サラウンドサウンドシステムに加わるモバイルデバイスに対して、前記協調的サラウンドサウンドシステムの仮想スピーカーの規定された位置を特定させ、
前記モバイルデバイスによるオーディオソースからレンダリングされたオーディオ信号の再生に影響を与える制約を決定させ、
前記モバイルデバイスによる前記オーディオ信号の再生の間の前記決定された制約の前記影響を減らすようにオーディオ信号をレンダリングするために、前記決定された制約とともに前記オーディオソースの動的空間レンダリングを実行させる、命令を記憶した非一時的コンピュータ可読記憶媒体。
[C29] 前記命令がさらに、実行されると、前記1つまたは複数のプロセッサに、前記制約を決定するときに、前記オーディオソースからレンダリングされた前記オーディオ信号を再生するのに十分な電力を前記モバイルデバイスが有するであろう予想される期間を示す、予想される電力期間を決定させ、前記オーディオソースからの前記オーディオ信号の再生期間を示すソースオーディオ期間を決定させ、前記ソースオーディオ期間が前記予想される電力期間を超えるとき、前記予想される電力期間を前記制約として決定すること、C28に記載の非一時的コンピュータ可読記憶媒体。
[C30] 前記命令がさらに、実行されると、前記1つまたは複数のプロセッサに、前記決定された制約とともに前記オーディオソースの前記動的空間レンダリングを実行するときに、前記オーディオ信号を再生するための予想される電力期間が前記ソースオーディオ期間より短いように前記オーディオ信号をレンダリングするために、前記決定された予想される電力期間を前記制約として使用して前記オーディオソースの動的空間レンダリングを実行させる、C29に記載の非一時的コンピュータ可読記憶媒体。
[C31] 前記命令がさらに、実行されると、前記1つまたは複数のプロセッサに、前記制約を決定するときに、周波数に依存する制約を決定させ、
前記命令がさらに、実行されると、前記1つまたは複数のプロセッサに、前記動的空間レンダリングを実行するときに、前記モバイルデバイスによって前記オーディオ信号を再生するための予想される電力期間が前記オーディオ信号の再生期間を示すソースオーディオ期間より短いように前記オーディオ信号をレンダリングするために、前記決定された周波数に依存する制約を使用して前記オーディオソースの前記動的空間レンダリングを実行させる、C28に記載の非一時的コンピュータ可読記憶媒体。
[C32] 前記仮想スピーカーが、前記協調的サラウンドサウンドシステムの複数の仮想スピーカーの1つを備え、
前記モバイルデバイスが、前記複数の仮想スピーカーを支援するように構成される複数のモバイルデバイスの1つを備え、
前記命令がさらに、実行されると、前記1つまたは複数のプロセッサに、前記動的空間レンダリングを実行するときに、前記複数のモバイルデバイスの少なくとも1つによって前記オーディオ信号を再生するための予想される電力期間が前記オーディオ信号の再生期間を示すソースオーディオ期間より短いように前記オーディオ信号をレンダリングするために、前記複数のモバイルデバイスの前記少なくとも1つによって前記オーディオ信号を再生するための前記予想される電力期間を前記制約として使用して、前記オーディオソースの前記動的空間レンダリングを実行させる、C28に記載の非一時的コンピュータ可読記憶媒体。
[C33] 前記複数のモバイルデバイスが、第1のモバイルデバイスと、第2のモバイルデバイスと、第3のモバイルデバイスとを備え、
前記命令がさらに、実行されると、前記1つまたは複数のプロセッサに、前記予想される電力期間を前記制約として使用して、前記オーディオソースの前記動的空間レンダリングを実行するときに、前記第1のモバイルデバイス、前記第2のモバイルデバイス、および前記第3のモバイルデバイスに対して、それぞれ、以下の式に従って音量利得g 1 と、g 2 と、g 3 とを計算させ、
l 11 、l 12 が、ヘッドエンドデバイスに対する前記第1のモバイルデバイスの位置を特定するベクトルを示し、l 21 、l 22 が、前記ヘッドエンドデバイスに対する前記第2のモバイルデバイスの位置を特定するベクトルを示し、l 31 、l 32 が、前記ヘッドエンドデバイスに対する前記第3のモバイルデバイスの位置を特定するベクトルを示し、
p 1 、p 2 が、前記第1のモバイルデバイス、前記第2のモバイルデバイス、および前記第3のモバイルデバイスによって支援される前記複数の仮想スピーカーの1つの、ヘッドエンドデバイスに対する前記規定された位置を特定するベクトルを示す、C32に記載の非一時的コンピュータ可読記憶媒体。
[C34] 前記命令がさらに、実行されると、前記1つまたは複数のプロセッサに、前記決定された制約とともに前記オーディオソースの前記動的空間レンダリングを実行するときに、前記モバイルデバイスによる前記オーディオ信号の再生に対する前記決定された制約の前記影響を減らすように前記オーディオ信号をレンダリングするために、前記オーディオソースに対して拘束ベクトルに基づく動的振幅パンニングを実行させる、C28に記載の非一時的コンピュータ可読記憶媒体。
[C35] 前記協調的サラウンドサウンドシステムの前記仮想スピーカーが、前記モバイルデバイスの位置とは異なる位置に配置されているように見える、C28に記載の非一時的コンピュータ可読記憶媒体。
[C36] 前記オーディオソースが、高次アンビソニックスオーディオソースデータと、マルチチャンネルオーディオソースデータと、オブジェクトベースのオーディオソースデータとの1つを備える、C28に記載の非一時的コンピュータ可読記憶媒体。
Claims (36)
- 協調的サラウンドサウンドシステムの仮想スピーカーを表すことが可能な前記協調的サラウンドサウンドシステムに加わる複数のモバイルデバイスの2つ以上のモバイルデバイスを特定することと、
前記特定された2つ以上のモバイルデバイスの少なくとも1つによるオーディオソースデータからレンダリングされたオーディオ信号の再生に影響を与える制約を決定することと、
前記制約に基づいて、前記特定された2つ以上のモバイルデバイスの前記少なくとも1つのための利得を決定することと、
前記特定された2つ以上のモバイルデバイスによる前記オーディオ信号の再生の間の前記決定された制約の前記影響を減らすようにオーディオ信号を生成するために、前記利得を使用して、前記オーディオソースデータをレンダリングすることとを備える、方法。 - 前記制約を決定することが、
前記オーディオソースデータからレンダリングされた前記オーディオ信号を再生するのに十分な電力を前記特定された2つ以上のモバイルデバイスの前記少なくとも1つが有するであろう予想される期間を示す、予想される電力期間を決定することと、
前記オーディオソースデータからレンダリングされた前記オーディオ信号の再生期間を示すソースオーディオ期間を決定することと、
前記ソースオーディオ期間が前記予想される電力期間を超えるとき、前記予想される電力期間を前記制約として決定することとを備える、請求項1に記載の方法。 - 前記利得を使用して前記オーディオソースデータをレンダリングすることが、前記オーディオ信号を再生するための予想される電力期間が前記ソースオーディオ期間より短いように前記オーディオ信号を生成するために、前記利得を使用して前記オーディオソースデータをレンダリングすることを備える、請求項2に記載の方法。
- 前記制約を決定することが、周波数に依存する制約を決定することを備え、
前記少なくとも1つの利得を使用して前記オーディオソースデータをレンダリングすることが、前記特定された2つ以上のモバイルデバイスの前記少なくとも1つによって前記オーディオ信号を再生するための予想される電力期間が前記オーディオソースデータの期間より短いように前記オーディオ信号を生成するために、前記少なくとも1つの利得を使用して前記オーディオソースデータをレンダリングすることを備える、請求項1に記載の方法。 - 前記オーディオソースデータをレンダリングすることが、前記モバイルデバイスの前記特定された2つ以上の前記少なくとも1つによって前記オーディオ信号を再生するための予想される電力期間が前記オーディオソースデータの期間より短いように前記特定された2つ以上のモバイルデバイスの前記少なくとも1つによって前記オーディオ信号を再生するために、前記オーディオ信号を生成するための前記制約として、前記予想される電力期間を使用して、前記オーディオソースデータをレンダリングすることを備える、請求項1に記載の方法。
- 前記複数のモバイルデバイスが、第1のモバイルデバイスと、第2のモバイルデバイスと、第3のモバイルデバイスとを備え、
前記仮想スピーカーは、前記協調的サラウンドサウンドシステムの複数の仮想スピーカーの1つを備え、
前記制約は、1つまたは複数の予想される電力期間を備え、前記1つまたは複数の予想される電力期間は各々、前記複数のモバイルデバイスの1つが前記オーディオソースデータからレンダリングされたオーディオ信号を再生するために十分な電力を有し得る予想される期間を示し、
前記特定された2つ以上のモバイルデバイスの前記少なくとも1つのための前記利得を決定することが、
前記第1のモバイルデバイス、前記第2のモバイルデバイス、および前記第3のモバイルデバイスに対して、それぞれ、以下の式に従って音量利得g1と、g2と、g3とを計算することを備え、
l11、l12が、ヘッドエンドデバイスに対する前記第1のモバイルデバイスの位置を特定するベクトルを示し、l21、l22が、前記ヘッドエンドデバイスに対する前記第2のモバイルデバイスの位置を特定するベクトルを示し、l31、l32が、前記ヘッドエンドデバイスに対する前記第3のモバイルデバイスの位置を特定するベクトルを示し、
p1、p2が、前記第1のモバイルデバイス、前記第2のモバイルデバイス、および前記第3のモバイルデバイスによって表される前記複数の仮想スピーカーの1つの、前記ヘッドエンドデバイスに対する規定された位置を特定するベクトルを示す、請求項1に記載の方法。 - 前記利得を使用して前記オーディオソースデータをレンダリングすることが、前記2つ以上のモバイルデバイスの前記少なくとも1つによる前記オーディオ信号の再生に対する前記決定された制約の前記影響を減らすように前記オーディオ信号を生成するために、前記オーディオソースデータに対して拘束ベクトルに基づく動的振幅パンニングを実行することを備える、請求項1に記載の方法。
- 前記協調的サラウンドサウンドシステムの前記仮想スピーカーが、前記2つ以上のモバイルデバイスの少なくとも1つの位置とは異なる位置に配置されているように見える、請求項1に記載の方法。
- 前記オーディオソースデータが、高次アンビソニックスオーディオソースデータと、マルチチャンネルオーディオソースデータと、オブジェクトベースのオーディオソースデータとの1つを備える、請求項1に記載の方法。
- 協調的サラウンドサウンドシステムの仮想スピーカーを表すことが可能な前記協調的サラウンドサウンドシステムに加わる複数のモバイルデバイスの2つ以上のモバイルデバイスを特定し、前記特定された2つ以上のモバイルデバイスの少なくとも1つによるオーディオソースデータからレンダリングされたオーディオ信号の再生に影響を与える制約を決定し、前記制約に基づいて、前記特定された2つ以上のモバイルデバイスの前記少なくとも1つのための利得を決定し、前記特定された2つ以上のモバイルデバイスによる前記オーディオ信号の再生の間の前記決定された制約の前記影響を減らすオーディオ信号を生成するために、前記利得を使用して前記オーディオソースデータをレンダリングするように構成される、1つまたは複数のプロセッサと、
前記オーディオ信号を記憶するように構成されたメモリと、
を備える、ヘッドエンドデバイス。 - 前記1つまたは複数のプロセッサがさらに、前記制約を決定するときに、前記オーディオソースデータからレンダリングされた前記オーディオ信号を再生するのに十分な電力を前記特定された2つ以上のモバイルデバイスの少なくとも1つが有するであろう予想される期間を示す、予想される電力期間を決定し、前記オーディオソースデータからの前記オーディオ信号の再生期間を示すソースオーディオ期間を決定し、前記ソースオーディオ期間が前記予想される電力期間を超えるとき、前記予想される電力期間を前記制約として決定するように構成される、請求項10に記載のヘッドエンドデバイス。
- 前記1つまたは複数のプロセッサが、前記オーディオ信号を再生するための予想される電力期間が前記ソースオーディオ期間より短いように前記オーディオ信号を生成するために、前記利得を使用して前記オーディオソースデータをレンダリングするように構成される、請求項11に記載のヘッドエンドデバイス。
- 前記1つまたは複数のプロセッサが、周波数に依存する制約を決定するように構成され、
前記1つまたは複数のプロセッサが、前記モバイルデバイスの前記特定された2つ以上の前記少なくとも1つによって前記オーディオ信号を再生するための予想される電力期間が前記オーディオ信号の再生期間を示す前記ソースオーディオデータの期間より短いように前記オーディオ信号を生成するために、前記決定された周波数に依存する制約を使用して前記オーディオソースデータをレンダリングするように構成される、請求項10に記載のヘッドエンドデバイス。 - 前記仮想スピーカーは、前記協調的サラウンドサウンドシステムの複数の仮想スピーカーの1つを備え、
前記特定された2つ以上のモバイルデバイスの前記少なくとも1つは、前記複数の仮想スピーカーを支援するように構成された複数のモバイルデバイスの1つを備え、
前記1つまたは複数のプロセッサが、前記モバイルデバイスの前記特定された2つ以上の前記少なくとも1つによって前記オーディオ信号を再生するための予想される電力期間が前記ソースオーディオの期間より短いように前記特定された2つ以上のモバイルデバイスの前記少なくとも1つによって前記オーディオ信号を再生するために、前記オーディオ信号を生成するための前記制約として、前記予想される電力期間を使用して、前記オーディオソースデータをレンダリングするように構成される、請求項10に記載のヘッドエンドデバイス。 - 前記複数のモバイルデバイスが、第1のモバイルデバイスと、第2のモバイルデバイスと、第3のモバイルデバイスとを備え、
前記仮想スピーカーは、前記協調的サラウンドサウンドシステムの複数の仮想スピーカーの1つを備え、
前記制約は、1つまたは複数の予想される電力期間を備え、前記1つまたは複数の予想される電力期間は各々、前記複数のモバイルデバイスの1つが前記オーディオソースからレンダリングされたオーディオ信号を再生するために十分な電力を有し得る予想される期間を示し、
前記1つまたは複数のプロセッサが、前記第1のモバイルデバイス、前記第2のモバイルデバイス、および前記第3のモバイルデバイスに対して、それぞれ、以下の式に従って音量利得g1と、g2と、g3とを計算するように構成され、
l11、l12が、ヘッドエンドデバイスに対する前記第1のモバイルデバイスの位置を特定するベクトルを示し、l21、l22が、前記ヘッドエンドデバイスに対する前記第2のモバイルデバイスの位置を特定するベクトルを示し、l31、l32が、前記ヘッドエンドデバイスに対する前記第3のモバイルデバイスの位置を特定するベクトルを示し、
p1、p2が、前記第1のモバイルデバイス、前記第2のモバイルデバイス、および前記第3のモバイルデバイスによって表される前記複数の仮想スピーカーの1つの、ヘッドエンドデバイスに対する規定された位置を特定するベクトルを示す、請求項10に記載のヘッドエンドデバイス。 - 前記1つまたは複数のプロセッサが、前記特定された2つ以上のモバイルデバイスの前記少なくとも1つによる前記オーディオ信号の再生に対する前記決定された制約の前記影響を減らすように前記オーディオ信号を生成するために、前記オーディオソースデータに対して拘束ベクトルに基づく動的振幅パンニングを実行するように構成される、請求項10に記載のヘッドエンドデバイス。
- 前記協調的サラウンドサウンドシステムの前記仮想スピーカーが、前記特定された2つ以上のモバイルデバイスの位置とは異なる位置に配置されているように見える、請求項10に記載のヘッドエンドデバイス。
- 前記オーディオソースデータが、高次アンビソニックスオーディオソースデータと、マルチチャンネルオーディオソースデータと、オブジェクトベースのオーディオソースデータとの1つを備える、請求項10に記載のヘッドエンドデバイス。
- 協調的サラウンドサウンドシステムの仮想スピーカーを表すことが可能な前記協調的サラウンドサウンドシステムに加わる複数のモバイルデバイスの2つ以上のモバイルデバイスを特定するための手段と、
前記特定された2つ以上のモバイルデバイスの少なくとも1つによるオーディオソースデータからレンダリングされたオーディオ信号の再生に影響を与える制約を決定するための手段と、
前記制約に基づいて、前記特定された2つ以上のモバイルデバイスの前記少なくとも1つのための利得を決定するための手段と、
前記特定された2つ以上のモバイルデバイスによる前記オーディオ信号の再生の間の前記決定された制約の前記影響を減らすオーディオ信号を生成するために、前記利得を使用して、前記オーディオソースデータをレンダリングするための手段とを備える、ヘッドエンドデバイス。 - 前記制約を決定するための前記手段が、前記オーディオソースデータからレンダリングされた前記オーディオ信号を再生するのに十分な電力を前記特定された2つ以上のモバイルデバイスの前記少なくとも1つが有するであろう予想される期間を示す、予想される電力期間を決定するための手段と、前記オーディオソースデータからレンダリングされた前記オーディオ信号の再生期間を示すソースオーディオ期間を決定するための手段と、前記ソースオーディオ期間が前記予想される電力期間を超えるとき、前記予想される電力期間を前記制約として決定するための手段とを備える、請求項19に記載のヘッドエンドデバイス。
- 前記オーディオソースデータをレンダリングするための前記手段が、前記オーディオ信号を再生するための予想される電力期間が前記オーディオソースデータの期間より短いように前記オーディオ信号を生成するために、前記利得を使用して前記オーディオソースデータをレンダリングするための手段を備える、請求項20に記載のヘッドエンドデバイス。
- 前記制約を決定するための前記手段が、周波数に依存する制約を決定するための手段を備え、
レンダリングするための前記手段が、前記特定された2つ以上のモバイルデバイスの前記少なくとも1つによって前記オーディオ信号を再生するための予想される電力期間が前記オーディオソースデータの期間より短いように前記オーディオ信号を生成するために、前記少なくとも1つの利得を使用して前記オーディオソースデータをレンダリングするための手段を備える、請求項20に記載のヘッドエンドデバイス。 - レンダリングするための前記手段が、前記モバイルデバイスの前記特定された2つ以上の前記少なくとも1つによって前記オーディオ信号を再生するための予想される電力期間が前記ソースオーディオデータの期間より短いように前記特定された2つ以上のモバイルデバイスの前記少なくとも1つによって前記オーディオ信号を再生するために、前記オーディオ信号を生成するための前記制約として、前記予想される電力期間を使用して、前記オーディオソースデータの動的空間レンダリングを実行するための手段を備える、請求項19に記載のヘッドエンドデバイス。
- 前記複数のモバイルデバイスが、第1のモバイルデバイスと、第2のモバイルデバイスと、第3のモバイルデバイスとを備え、
前記仮想スピーカーは、前記協調的サラウンドサウンドシステムの複数の仮想スピーカーの1つを備え
前記制約は、1つまたは複数の予想される電力期間を備え、前記1つまたは複数の予想される電力期間は各々、前記複数のモバイルデバイスの1つが前記オーディオソースからレンダリングされたオーディオ信号を再生するために十分な電力を有し得る予想される期間を示し、
前記特定された2つ以上のモバイルデバイスの前記少なくとも1つのための前記利得を決定するための前記手段が、
前記第1のモバイルデバイス、前記第2のモバイルデバイス、および前記第3のモバイルデバイスに対して、それぞれ、以下の式に従って音量利得g1と、g2と、g3とを計算するための手段を備え、
l11、l12が、ヘッドエンドデバイスに対する前記第1のモバイルデバイスの位置を特定するベクトルを示し、l21、l22が、前記ヘッドエンドデバイスに対する前記第2のモバイルデバイスの位置を特定するベクトルを示し、l31、l32が、前記ヘッドエンドデバイスに対する前記第3のモバイルデバイスの位置を特定するベクトルを示し、
p1、p2が、前記第1のモバイルデバイス、前記第2のモバイルデバイス、および前記第3のモバイルデバイスによって表される前記複数の仮想スピーカーの1つの、前記ヘッドエンドデバイスに対する規定された位置を特定するベクトルを示す、請求項19に記載のヘッドエンドデバイス。 - レンダリングするための前記手段が、前記特定された2つ以上のモバイルデバイスの前記少なくとも1つによる前記オーディオ信号の再生に対する前記決定された制約の前記影響を減らすように前記オーディオ信号を生成するために、前記オーディオソースデータに対して拘束ベクトルに基づく動的振幅パンニングを実行するための手段を備える、請求項19に記載のヘッドエンドデバイス。
- 前記協調的サラウンドサウンドシステムの前記仮想スピーカーが、前記2つ以上のモバイルデバイスの少なくとも1つの位置とは異なる位置に配置されているように見える、請求項19に記載のヘッドエンドデバイス。
- 前記オーディオソースデータが、高次アンビソニックスオーディオソースデータと、マルチチャンネルオーディオソースデータと、オブジェクトベースのオーディオソースデータとの1つを備える、請求項19に記載のヘッドエンドデバイス。
- 実行されると、1つまたは複数のプロセッサに、
協調的サラウンドサウンドシステムの仮想スピーカーを表すことが可能な前記協調的サラウンドサウンドシステムに加わる複数のモバイルデバイスの2つ以上のモバイルデバイスを特定させ、
前記特定された2つ以上のモバイルデバイスの少なくとも1つによるオーディオソースデータからレンダリングされたオーディオ信号の再生に影響を与える制約を決定させ、
前記制約に基づいて、前記特定された2つ以上のモバイルデバイスの前記少なくとも1つのための利得を決定させ、
前記複数のモバイルデバイスによる前記オーディオ信号の再生の間の前記決定された制約の前記影響を減らすオーディオ信号を生成するために、前記利得を使用して前記オーディオソースデータをレンダリングさせる、命令を記憶した非一時的コンピュータ可読記憶媒体。 - 前記命令がさらに、実行されると、前記1つまたは複数のプロセッサに、前記制約を決定するときに、前記オーディオソースデータからレンダリングされた前記オーディオ信号を再生するのに十分な電力を前記特定された2つ以上のモバイルデバイスの少なくとも1つが有するであろう予想される期間を示す、予想される電力期間を決定させ、前記オーディオソースデータからレンダリングされた前記オーディオ信号の再生期間を示すソースオーディオ期間を決定させ、前記ソースオーディオ期間が前記予想される電力期間を超えるとき、前記予想される電力期間を前記制約として決定させる、請求項28に記載の非一時的コンピュータ可読記憶媒体。
- 前記命令がさらに、実行されると、前記1つまたは複数のプロセッサに、前記決定された制限を用いて前記オーディオソースデータをレンダリングするときに、前記オーディオ信号を再生するための予想される電力期間が前記オーディオソースデータの期間より短いように前記オーディオ信号を生成するために、前記利得を使用して前記オーディオソースデータをレンダリングさせる、請求項29に記載の非一時的コンピュータ可読記憶媒体。
- 前記命令がさらに、実行されると、前記1つまたは複数のプロセッサに、前記制約を決定するときに、周波数に依存する制約を決定させ、
前記命令がさらに、実行されると、前記1つまたは複数のプロセッサに、レンダリングするときに、前記モバイルデバイスの前記特定された2つ以上の前記少なくとも1つによって前記オーディオ信号を再生するための予想される電力期間が前記オーディオソースデータの期間より短いように前記オーディオ信号を生成するために、前記利得を使用して前記オーディオソースデータをレンダリングさせる、請求項28に記載の非一時的コンピュータ可読記憶媒体。 - 前記命令がさらに、実行されると、前記1つまたは複数のプロセッサに、レンダリングするときに、前記モバイルデバイスの前記特定された2つ以上の前記少なくとも1つによって前記オーディオ信号を再生するための予想される電力期間が前記オーディオソースデータの期間より短いように前記特定された2つ以上のモバイルデバイスの前記少なくとも1つによって前記オーディオ信号を再生するために、前記オーディオ信号をレンダリングするための前記制約として、前記予想される電力期間を使用して、前記オーディオソースデータをレンダリングさせる、請求項28に記載の非一時的コンピュータ可読記憶媒体。
- 前記複数のモバイルデバイスが、第1のモバイルデバイスと、第2のモバイルデバイスと、第3のモバイルデバイスとを備え、
前記仮想スピーカーは、前記協調的サラウンドサウンドシステムの複数の仮想スピーカーの1つを備え、
前記制約は、1つまたは複数の予想される電力期間を備え、前記1つまたは複数の予想される電力期間は各々、前記複数のモバイルデバイスの1つが前記オーディオソースデータからレンダリングされたオーディオ信号を再生するために十分な電力を有し得る予想される期間を示し、
前記命令がさらに、実行されると、前記1つまたは複数のプロセッサに、前記2つ以上のモバイルデバイスの前記少なくとも1つのための前記利得を決定するときに、前記第1のモバイルデバイス、前記第2のモバイルデバイス、および前記第3のモバイルデバイスに対して、それぞれ、以下の式に従って音量利得g1と、g2と、g3とを計算させ、
l11、l12が、ヘッドエンドデバイスに対する前記第1のモバイルデバイスの位置を特定するベクトルを示し、l21、l22が、前記ヘッドエンドデバイスに対する前記第2のモバイルデバイスの位置を特定するベクトルを示し、l31、l32が、前記ヘッドエンドデバイスに対する前記第3のモバイルデバイスの位置を特定するベクトルを示し、
p1、p2が、前記第1のモバイルデバイス、前記第2のモバイルデバイス、および前記第3のモバイルデバイスによって表される前記複数の仮想スピーカーの1つの、前記ヘッドエンドデバイスに対する規定された位置を特定するベクトルを示す、請求項28に記載の非一時的コンピュータ可読記憶媒体。 - 前記命令がさらに、実行されると、前記1つまたは複数のプロセッサに、前記利得を使用して前記オーディオソースデータをレンダリングするときに、前記2つ以上のモバイルデバイスの前記少なくとも1つによる前記オーディオ信号の再生に対する前記決定された制約の前記影響を減らすように前記オーディオ信号を生成するために、前記オーディオソースデータに対して拘束ベクトルに基づく動的振幅パンニングを実行させる、請求項28に記載の非一時的コンピュータ可読記憶媒体。
- 前記協調的サラウンドサウンドシステムの前記仮想スピーカーが、前記2つ以上のモバイルデバイスの少なくとも1つの位置とは異なる位置に配置されているように見える、請求項28に記載の非一時的コンピュータ可読記憶媒体。
- 前記オーディオソースデータが、高次アンビソニックスオーディオソースデータと、マルチチャンネルオーディオソースデータと、オブジェクトベースのオーディオソースデータとの1つを備える、請求項28に記載の非一時的コンピュータ可読記憶媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261730911P | 2012-11-28 | 2012-11-28 | |
US61/730,911 | 2012-11-28 | ||
US13/830,894 | 2013-03-14 | ||
US13/830,894 US9131298B2 (en) | 2012-11-28 | 2013-03-14 | Constrained dynamic amplitude panning in collaborative sound systems |
PCT/US2013/067124 WO2014085007A1 (en) | 2012-11-28 | 2013-10-28 | Constrained dynamic amplitude panning in collaborative sound systems |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016502345A JP2016502345A (ja) | 2016-01-21 |
JP5882552B2 true JP5882552B2 (ja) | 2016-03-09 |
Family
ID=50773327
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015544070A Expired - Fee Related JP5882550B2 (ja) | 2012-11-28 | 2013-10-28 | 協調的サウンドシステム |
JP2015544072A Expired - Fee Related JP5882552B2 (ja) | 2012-11-28 | 2013-10-28 | 協調的サウンドシステム |
JP2015544071A Expired - Fee Related JP5882551B2 (ja) | 2012-11-28 | 2013-10-28 | 協調的サウンドシステムのための画像生成 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015544070A Expired - Fee Related JP5882550B2 (ja) | 2012-11-28 | 2013-10-28 | 協調的サウンドシステム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015544071A Expired - Fee Related JP5882551B2 (ja) | 2012-11-28 | 2013-10-28 | 協調的サウンドシステムのための画像生成 |
Country Status (6)
Country | Link |
---|---|
US (3) | US9154877B2 (ja) |
EP (3) | EP2926572B1 (ja) |
JP (3) | JP5882550B2 (ja) |
KR (1) | KR101673834B1 (ja) |
CN (3) | CN104813683B (ja) |
WO (3) | WO2014085005A1 (ja) |
Families Citing this family (116)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101624904B1 (ko) * | 2009-11-09 | 2016-05-27 | 삼성전자주식회사 | 휴대용 단말기에서 디엔엘에이를 이용하여 멀티 사운드 채널 컨텐츠를 재생하기 위한 장치 및 방법 |
US9131305B2 (en) * | 2012-01-17 | 2015-09-08 | LI Creative Technologies, Inc. | Configurable three-dimensional sound system |
US9288603B2 (en) | 2012-07-15 | 2016-03-15 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for backward-compatible audio coding |
US9473870B2 (en) * | 2012-07-16 | 2016-10-18 | Qualcomm Incorporated | Loudspeaker position compensation with 3D-audio hierarchical coding |
US9154877B2 (en) | 2012-11-28 | 2015-10-06 | Qualcomm Incorporated | Collaborative sound system |
EP2946468B1 (en) * | 2013-01-16 | 2016-12-21 | Thomson Licensing | Method for measuring hoa loudness level and device for measuring hoa loudness level |
US10038957B2 (en) | 2013-03-19 | 2018-07-31 | Nokia Technologies Oy | Audio mixing based upon playing device location |
EP2782094A1 (en) * | 2013-03-22 | 2014-09-24 | Thomson Licensing | Method and apparatus for enhancing directivity of a 1st order Ambisonics signal |
KR102028339B1 (ko) * | 2013-03-22 | 2019-10-04 | 한국전자통신연구원 | 사운드 가상화 방법 및 장치 |
US9716958B2 (en) * | 2013-10-09 | 2017-07-25 | Voyetra Turtle Beach, Inc. | Method and system for surround sound processing in a headset |
US20160253145A1 (en) * | 2013-10-31 | 2016-09-01 | Lg Electronics Inc. | Electronic device and method for controlling the same |
US11310614B2 (en) * | 2014-01-17 | 2022-04-19 | Proctor Consulting, LLC | Smart hub |
US9704491B2 (en) | 2014-02-11 | 2017-07-11 | Disney Enterprises, Inc. | Storytelling environment: distributed immersive audio soundscape |
US9319792B1 (en) * | 2014-03-17 | 2016-04-19 | Amazon Technologies, Inc. | Audio capture and remote output |
DK178063B1 (en) * | 2014-06-02 | 2015-04-20 | Bang & Olufsen As | Dynamic Configuring of a Multichannel Sound System |
US9838819B2 (en) * | 2014-07-02 | 2017-12-05 | Qualcomm Incorporated | Reducing correlation between higher order ambisonic (HOA) background channels |
US9584915B2 (en) | 2015-01-19 | 2017-02-28 | Microsoft Technology Licensing, Llc | Spatial audio with remote speakers |
CN107211211A (zh) * | 2015-01-21 | 2017-09-26 | 高通股份有限公司 | 用于改变音频输出设备集的声道配置的系统和方法 |
US9723406B2 (en) | 2015-01-21 | 2017-08-01 | Qualcomm Incorporated | System and method for changing a channel configuration of a set of audio output devices |
US9578418B2 (en) | 2015-01-21 | 2017-02-21 | Qualcomm Incorporated | System and method for controlling output of multiple audio output devices |
US10223459B2 (en) | 2015-02-11 | 2019-03-05 | Google Llc | Methods, systems, and media for personalizing computerized services based on mood and/or behavior information from multiple data sources |
US11048855B2 (en) | 2015-02-11 | 2021-06-29 | Google Llc | Methods, systems, and media for modifying the presentation of contextually relevant documents in browser windows of a browsing application |
US10284537B2 (en) | 2015-02-11 | 2019-05-07 | Google Llc | Methods, systems, and media for presenting information related to an event based on metadata |
US11392580B2 (en) | 2015-02-11 | 2022-07-19 | Google Llc | Methods, systems, and media for recommending computerized services based on an animate object in the user's environment |
US9769564B2 (en) | 2015-02-11 | 2017-09-19 | Google Inc. | Methods, systems, and media for ambient background noise modification based on mood and/or behavior information |
DE102015005704A1 (de) * | 2015-05-04 | 2016-11-10 | Audi Ag | Fahrzeug mit einem Infotainmentsystem |
US9864571B2 (en) | 2015-06-04 | 2018-01-09 | Sonos, Inc. | Dynamic bonding of playback devices |
US9584758B1 (en) | 2015-11-25 | 2017-02-28 | International Business Machines Corporation | Combining installed audio-visual sensors with ad-hoc mobile audio-visual sensors for smart meeting rooms |
US9820048B2 (en) * | 2015-12-26 | 2017-11-14 | Intel Corporation | Technologies for location-dependent wireless speaker configuration |
US9591427B1 (en) * | 2016-02-20 | 2017-03-07 | Philip Scott Lyren | Capturing audio impulse responses of a person with a smartphone |
US9947316B2 (en) | 2016-02-22 | 2018-04-17 | Sonos, Inc. | Voice control of a media playback system |
US10509626B2 (en) | 2016-02-22 | 2019-12-17 | Sonos, Inc | Handling of loss of pairing between networked devices |
US10095470B2 (en) | 2016-02-22 | 2018-10-09 | Sonos, Inc. | Audio response playback |
US10264030B2 (en) | 2016-02-22 | 2019-04-16 | Sonos, Inc. | Networked microphone device control |
US9965247B2 (en) | 2016-02-22 | 2018-05-08 | Sonos, Inc. | Voice controlled media playback system based on user profile |
US10743101B2 (en) | 2016-02-22 | 2020-08-11 | Sonos, Inc. | Content mixing |
JP6461850B2 (ja) * | 2016-03-31 | 2019-01-30 | 株式会社バンダイナムコエンターテインメント | シミュレーションシステム及びプログラム |
US9978390B2 (en) | 2016-06-09 | 2018-05-22 | Sonos, Inc. | Dynamic player selection for audio signal processing |
US9763280B1 (en) | 2016-06-21 | 2017-09-12 | International Business Machines Corporation | Mobile device assignment within wireless sound system based on device specifications |
CN106057207B (zh) * | 2016-06-30 | 2021-02-23 | 深圳市虚拟现实科技有限公司 | 远程立体声全方位实时传输和播放方法 |
GB2551779A (en) * | 2016-06-30 | 2018-01-03 | Nokia Technologies Oy | An apparatus, method and computer program for audio module use in an electronic device |
US10152969B2 (en) | 2016-07-15 | 2018-12-11 | Sonos, Inc. | Voice detection by multiple devices |
US10134399B2 (en) | 2016-07-15 | 2018-11-20 | Sonos, Inc. | Contextualization of voice inputs |
US20180020309A1 (en) * | 2016-07-17 | 2018-01-18 | Bose Corporation | Synchronized Audio Playback Devices |
JP6799141B2 (ja) * | 2016-08-01 | 2020-12-09 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 空間化オーディオを用いた複合現実システム |
US10115400B2 (en) | 2016-08-05 | 2018-10-30 | Sonos, Inc. | Multiple voice services |
US9913061B1 (en) | 2016-08-29 | 2018-03-06 | The Directv Group, Inc. | Methods and systems for rendering binaural audio content |
EP3513405B1 (en) * | 2016-09-14 | 2023-07-19 | Magic Leap, Inc. | Virtual reality, augmented reality, and mixed reality systems with spatialized audio |
US10701508B2 (en) * | 2016-09-20 | 2020-06-30 | Sony Corporation | Information processing apparatus, information processing method, and program |
US9942678B1 (en) | 2016-09-27 | 2018-04-10 | Sonos, Inc. | Audio playback settings for voice interaction |
US9743204B1 (en) | 2016-09-30 | 2017-08-22 | Sonos, Inc. | Multi-orientation playback device microphones |
US10181323B2 (en) | 2016-10-19 | 2019-01-15 | Sonos, Inc. | Arbitration-based voice recognition |
CN107872754A (zh) * | 2016-12-12 | 2018-04-03 | 深圳市蚂蚁雄兵物联技术有限公司 | 一种多声道环绕立体声系统及安装方法 |
US11183181B2 (en) | 2017-03-27 | 2021-11-23 | Sonos, Inc. | Systems and methods of multiple voice services |
WO2018235182A1 (ja) * | 2017-06-21 | 2018-12-27 | ヤマハ株式会社 | 情報処理装置、情報処理システム、情報処理プログラム、及び情報処理方法 |
US10516962B2 (en) * | 2017-07-06 | 2019-12-24 | Huddly As | Multi-channel binaural recording and dynamic playback |
US10475449B2 (en) | 2017-08-07 | 2019-11-12 | Sonos, Inc. | Wake-word detection suppression |
CN110999318B (zh) * | 2017-08-08 | 2021-10-12 | 麦克赛尔株式会社 | 终端、声音协作再现系统和内容显示装置 |
US10048930B1 (en) | 2017-09-08 | 2018-08-14 | Sonos, Inc. | Dynamic computation of system response volume |
US10446165B2 (en) | 2017-09-27 | 2019-10-15 | Sonos, Inc. | Robust short-time fourier transform acoustic echo cancellation during audio playback |
US10051366B1 (en) | 2017-09-28 | 2018-08-14 | Sonos, Inc. | Three-dimensional beam forming with a microphone array |
US10621981B2 (en) | 2017-09-28 | 2020-04-14 | Sonos, Inc. | Tone interference cancellation |
US10482868B2 (en) | 2017-09-28 | 2019-11-19 | Sonos, Inc. | Multi-channel acoustic echo cancellation |
US10466962B2 (en) | 2017-09-29 | 2019-11-05 | Sonos, Inc. | Media playback system with voice assistance |
US10609485B2 (en) | 2017-09-29 | 2020-03-31 | Apple Inc. | System and method for performing panning for an arbitrary loudspeaker setup |
US10880650B2 (en) | 2017-12-10 | 2020-12-29 | Sonos, Inc. | Network microphone devices with automatic do not disturb actuation capabilities |
US10818290B2 (en) | 2017-12-11 | 2020-10-27 | Sonos, Inc. | Home graph |
CN109996167B (zh) * | 2017-12-31 | 2020-09-11 | 华为技术有限公司 | 一种多终端协同播放音频文件的方法及终端 |
US11343614B2 (en) | 2018-01-31 | 2022-05-24 | Sonos, Inc. | Device designation of playback and network microphone device arrangements |
KR102580673B1 (ko) * | 2018-04-09 | 2023-09-21 | 돌비 인터네셔널 에이비 | Mpeg-h 3d 오디오의 3 자유도(3dof+) 확장을 위한 방법, 장치 및 시스템 |
US11175880B2 (en) | 2018-05-10 | 2021-11-16 | Sonos, Inc. | Systems and methods for voice-assisted media content selection |
US10847178B2 (en) | 2018-05-18 | 2020-11-24 | Sonos, Inc. | Linear filtering for noise-suppressed speech detection |
US10959029B2 (en) | 2018-05-25 | 2021-03-23 | Sonos, Inc. | Determining and adapting to changes in microphone performance of playback devices |
US10681460B2 (en) | 2018-06-28 | 2020-06-09 | Sonos, Inc. | Systems and methods for associating playback devices with voice assistant services |
US10461710B1 (en) | 2018-08-28 | 2019-10-29 | Sonos, Inc. | Media playback system with maximum volume setting |
US11076035B2 (en) | 2018-08-28 | 2021-07-27 | Sonos, Inc. | Do not disturb feature for audio notifications |
US10878811B2 (en) | 2018-09-14 | 2020-12-29 | Sonos, Inc. | Networked devices, systems, and methods for intelligently deactivating wake-word engines |
US10587430B1 (en) | 2018-09-14 | 2020-03-10 | Sonos, Inc. | Networked devices, systems, and methods for associating playback devices based on sound codes |
US11024331B2 (en) | 2018-09-21 | 2021-06-01 | Sonos, Inc. | Voice detection optimization using sound metadata |
US10811015B2 (en) | 2018-09-25 | 2020-10-20 | Sonos, Inc. | Voice detection optimization based on selected voice assistant service |
US11100923B2 (en) | 2018-09-28 | 2021-08-24 | Sonos, Inc. | Systems and methods for selective wake word detection using neural network models |
US10692518B2 (en) | 2018-09-29 | 2020-06-23 | Sonos, Inc. | Linear filtering for noise-suppressed speech detection via multiple network microphone devices |
US11899519B2 (en) | 2018-10-23 | 2024-02-13 | Sonos, Inc. | Multiple stage network microphone device with reduced power consumption and processing load |
EP3654249A1 (en) | 2018-11-15 | 2020-05-20 | Snips | Dilated convolutions and gating for efficient keyword spotting |
US11183183B2 (en) | 2018-12-07 | 2021-11-23 | Sonos, Inc. | Systems and methods of operating media playback systems having multiple voice assistant services |
US11132989B2 (en) | 2018-12-13 | 2021-09-28 | Sonos, Inc. | Networked microphone devices, systems, and methods of localized arbitration |
US10602268B1 (en) | 2018-12-20 | 2020-03-24 | Sonos, Inc. | Optimization of network microphone devices using noise classification |
US10867604B2 (en) | 2019-02-08 | 2020-12-15 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing |
US11315556B2 (en) | 2019-02-08 | 2022-04-26 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing by transmitting sound data associated with a wake word to an appropriate device for identification |
US11120794B2 (en) | 2019-05-03 | 2021-09-14 | Sonos, Inc. | Voice assistant persistence across multiple network microphone devices |
US11361756B2 (en) | 2019-06-12 | 2022-06-14 | Sonos, Inc. | Conditional wake word eventing based on environment |
US10586540B1 (en) | 2019-06-12 | 2020-03-10 | Sonos, Inc. | Network microphone device with command keyword conditioning |
US11200894B2 (en) | 2019-06-12 | 2021-12-14 | Sonos, Inc. | Network microphone device with command keyword eventing |
US11968268B2 (en) | 2019-07-30 | 2024-04-23 | Dolby Laboratories Licensing Corporation | Coordination of audio devices |
US11138975B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
US10871943B1 (en) | 2019-07-31 | 2020-12-22 | Sonos, Inc. | Noise classification for event detection |
US11138969B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
US11189286B2 (en) | 2019-10-22 | 2021-11-30 | Sonos, Inc. | VAS toggle based on device orientation |
US11533560B2 (en) * | 2019-11-15 | 2022-12-20 | Boomcloud 360 Inc. | Dynamic rendering device metadata-informed audio enhancement system |
US11200900B2 (en) | 2019-12-20 | 2021-12-14 | Sonos, Inc. | Offline voice control |
US11562740B2 (en) | 2020-01-07 | 2023-01-24 | Sonos, Inc. | Voice verification for media playback |
CN111297054B (zh) * | 2020-01-17 | 2021-11-30 | 铜仁职业技术学院 | 一种教学讲台 |
US11556307B2 (en) | 2020-01-31 | 2023-01-17 | Sonos, Inc. | Local voice data processing |
US11308958B2 (en) | 2020-02-07 | 2022-04-19 | Sonos, Inc. | Localized wakeword verification |
KR102372792B1 (ko) * | 2020-04-22 | 2022-03-08 | 연세대학교 산학협력단 | 사운드의 병행 출력을 통한 사운드 제어 시스템 및 이를 포함하는 통합 제어 시스템 |
KR102324816B1 (ko) * | 2020-04-29 | 2021-11-09 | 연세대학교 산학협력단 | 사운드의 병행 출력을 통한 공간 이동에 따른 사운드 인터렉션 시스템 및 방법 |
US11308962B2 (en) | 2020-05-20 | 2022-04-19 | Sonos, Inc. | Input detection windowing |
US11727919B2 (en) | 2020-05-20 | 2023-08-15 | Sonos, Inc. | Memory allocation for keyword spotting engines |
US11482224B2 (en) | 2020-05-20 | 2022-10-25 | Sonos, Inc. | Command keywords with input detection windowing |
US11698771B2 (en) | 2020-08-25 | 2023-07-11 | Sonos, Inc. | Vocal guidance engines for playback devices |
US11984123B2 (en) | 2020-11-12 | 2024-05-14 | Sonos, Inc. | Network device interaction by range |
US11521623B2 (en) | 2021-01-11 | 2022-12-06 | Bank Of America Corporation | System and method for single-speaker identification in a multi-speaker environment on a low-frequency audio recording |
US11551700B2 (en) | 2021-01-25 | 2023-01-10 | Sonos, Inc. | Systems and methods for power-efficient keyword detection |
KR20220146165A (ko) * | 2021-04-23 | 2022-11-01 | 삼성전자주식회사 | 오디오 신호 처리를 위한 전자 장치 및 그 동작 방법 |
CN115497485B (zh) * | 2021-06-18 | 2024-10-18 | 华为技术有限公司 | 三维音频信号编码方法、装置、编码器和系统 |
CN113438548B (zh) * | 2021-08-30 | 2021-10-29 | 深圳佳力拓科技有限公司 | 基于视频数据包与音频数据包的数字电视展示方法与装置 |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6154549A (en) | 1996-06-18 | 2000-11-28 | Extreme Audio Reality, Inc. | Method and apparatus for providing sound in a spatial environment |
US6577738B2 (en) * | 1996-07-17 | 2003-06-10 | American Technology Corporation | Parametric virtual speaker and surround-sound system |
US20020072816A1 (en) | 2000-12-07 | 2002-06-13 | Yoav Shdema | Audio system |
US6757517B2 (en) * | 2001-05-10 | 2004-06-29 | Chin-Chi Chang | Apparatus and method for coordinated music playback in wireless ad-hoc networks |
JP4766440B2 (ja) | 2001-07-27 | 2011-09-07 | 日本電気株式会社 | 携帯端末装置及び携帯端末装置の音響再生システム |
EP1542503B1 (en) | 2003-12-11 | 2011-08-24 | Sony Deutschland GmbH | Dynamic sweet spot tracking |
JP4368210B2 (ja) * | 2004-01-28 | 2009-11-18 | ソニー株式会社 | 送受信システム、送信装置およびスピーカ搭載機器 |
US20050286546A1 (en) * | 2004-06-21 | 2005-12-29 | Arianna Bassoli | Synchronized media streaming between distributed peers |
EP1615464A1 (en) | 2004-07-07 | 2006-01-11 | Sony Ericsson Mobile Communications AB | Method and device for producing multichannel audio signals |
JP2006033077A (ja) * | 2004-07-12 | 2006-02-02 | Pioneer Electronic Corp | スピーカ装置 |
KR20070086052A (ko) | 2004-11-12 | 2007-08-27 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 헤드폰 세트를 통해 콘텐트들을 공유하는 장치 및 방법 |
US20060177073A1 (en) * | 2005-02-10 | 2006-08-10 | Isaac Emad S | Self-orienting audio system |
JP2006279548A (ja) * | 2005-03-29 | 2006-10-12 | Fujitsu Ten Ltd | 車載用スピーカシステム及びオーディオ装置 |
KR100704697B1 (ko) | 2005-07-21 | 2007-04-10 | 경북대학교 산학협력단 | 배터리의 소비 전력 제어 방법 및 상기 방법이 적용되는휴대용 기기 |
JP4669340B2 (ja) | 2005-07-28 | 2011-04-13 | 富士通株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
US20070087686A1 (en) | 2005-10-18 | 2007-04-19 | Nokia Corporation | Audio playback device and method of its operation |
JP2007288405A (ja) * | 2006-04-14 | 2007-11-01 | Matsushita Electric Ind Co Ltd | 映像音声出力システム、映像音声処理方法、およびプログラム |
US20080077261A1 (en) | 2006-08-29 | 2008-03-27 | Motorola, Inc. | Method and system for sharing an audio experience |
US9319741B2 (en) * | 2006-09-07 | 2016-04-19 | Rateze Remote Mgmt Llc | Finding devices in an entertainment system |
JP4810378B2 (ja) | 2006-09-20 | 2011-11-09 | キヤノン株式会社 | 音響出力装置及びその制御方法並びに音響システム |
US20080216125A1 (en) | 2007-03-01 | 2008-09-04 | Microsoft Corporation | Mobile Device Collaboration |
FR2915041A1 (fr) * | 2007-04-13 | 2008-10-17 | Canon Kk | Procede d'attribution d'une pluralite de canaux audio a une pluralite de haut-parleurs, produit programme d'ordinateur, moyen de stockage et noeud gestionnaire correspondants. |
US8724600B2 (en) | 2008-01-07 | 2014-05-13 | Tymphany Hong Kong Limited | Systems and methods for providing a media playback in a networked environment |
US8380127B2 (en) * | 2008-10-29 | 2013-02-19 | National Semiconductor Corporation | Plurality of mobile communication devices for performing locally collaborative operations |
US20110091055A1 (en) | 2009-10-19 | 2011-04-21 | Broadcom Corporation | Loudspeaker localization techniques |
KR20110072650A (ko) | 2009-12-23 | 2011-06-29 | 삼성전자주식회사 | 오디오 장치 및 이의 오디오 신호 전송 방법, 그리고 오디오 시스템 |
US9282418B2 (en) * | 2010-05-03 | 2016-03-08 | Kit S. Tam | Cognitive loudspeaker system |
US20120113224A1 (en) | 2010-11-09 | 2012-05-10 | Andy Nguyen | Determining Loudspeaker Layout Using Visual Markers |
US9154877B2 (en) | 2012-11-28 | 2015-10-06 | Qualcomm Incorporated | Collaborative sound system |
-
2013
- 2013-03-14 US US13/831,515 patent/US9154877B2/en active Active
- 2013-03-14 US US13/830,894 patent/US9131298B2/en active Active
- 2013-03-14 US US13/830,384 patent/US9124966B2/en not_active Expired - Fee Related
- 2013-10-28 WO PCT/US2013/067119 patent/WO2014085005A1/en active Application Filing
- 2013-10-28 WO PCT/US2013/067120 patent/WO2014085006A1/en active Application Filing
- 2013-10-28 CN CN201380061577.7A patent/CN104813683B/zh not_active Expired - Fee Related
- 2013-10-28 KR KR1020157017060A patent/KR101673834B1/ko active IP Right Grant
- 2013-10-28 CN CN201380061575.8A patent/CN104871558B/zh not_active Expired - Fee Related
- 2013-10-28 JP JP2015544070A patent/JP5882550B2/ja not_active Expired - Fee Related
- 2013-10-28 CN CN201380061543.8A patent/CN104871566B/zh not_active Expired - Fee Related
- 2013-10-28 EP EP13789138.8A patent/EP2926572B1/en not_active Not-in-force
- 2013-10-28 EP EP13789139.6A patent/EP2926573A1/en not_active Ceased
- 2013-10-28 JP JP2015544072A patent/JP5882552B2/ja not_active Expired - Fee Related
- 2013-10-28 WO PCT/US2013/067124 patent/WO2014085007A1/en active Application Filing
- 2013-10-28 JP JP2015544071A patent/JP5882551B2/ja not_active Expired - Fee Related
- 2013-10-28 EP EP13789434.1A patent/EP2926570B1/en not_active Not-in-force
Also Published As
Publication number | Publication date |
---|---|
US9154877B2 (en) | 2015-10-06 |
US9124966B2 (en) | 2015-09-01 |
EP2926572A1 (en) | 2015-10-07 |
CN104871558A (zh) | 2015-08-26 |
JP2016504824A (ja) | 2016-02-12 |
US20140146970A1 (en) | 2014-05-29 |
EP2926572B1 (en) | 2017-05-17 |
EP2926570A1 (en) | 2015-10-07 |
CN104813683A (zh) | 2015-07-29 |
US20140146983A1 (en) | 2014-05-29 |
US9131298B2 (en) | 2015-09-08 |
WO2014085007A1 (en) | 2014-06-05 |
JP2016502344A (ja) | 2016-01-21 |
JP5882551B2 (ja) | 2016-03-09 |
WO2014085005A1 (en) | 2014-06-05 |
JP5882550B2 (ja) | 2016-03-09 |
KR20150088874A (ko) | 2015-08-03 |
KR101673834B1 (ko) | 2016-11-07 |
EP2926573A1 (en) | 2015-10-07 |
CN104813683B (zh) | 2017-04-12 |
EP2926570B1 (en) | 2017-12-27 |
CN104871566B (zh) | 2017-04-12 |
WO2014085006A1 (en) | 2014-06-05 |
CN104871566A (zh) | 2015-08-26 |
JP2016502345A (ja) | 2016-01-21 |
CN104871558B (zh) | 2017-07-21 |
US20140146984A1 (en) | 2014-05-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5882552B2 (ja) | 協調的サウンドシステム | |
JP6676801B2 (ja) | マルチチャンネル音声コンテンツを表すビットストリームを生成する方法、およびデバイス | |
CN109791193A (zh) | 环绕声系统中扬声器位置的自动发现和定位 | |
CN109313907A (zh) | 合并音频信号与空间元数据 | |
US11617051B2 (en) | Streaming binaural audio from a cloud spatial audio processing system to a mobile station for playback on a personal audio delivery device | |
CN114026885A (zh) | 扩展现实体验的音频捕获和渲染 | |
US11122386B2 (en) | Audio rendering for low frequency effects | |
US20190335286A1 (en) | Speaker system, audio signal rendering apparatus, and program | |
CN110191745B (zh) | 利用空间音频的游戏流式传输 | |
US20240056758A1 (en) | Systems and Methods for Rendering Spatial Audio Using Spatialization Shaders | |
CN114128312B (zh) | 用于低频效果的音频渲染 | |
US20240196150A1 (en) | Adaptive loudspeaker and listener positioning compensation | |
US20240163629A1 (en) | Adaptive sound scene rotation | |
KR102137589B1 (ko) | 3차원 입체음향 제공시스템 및 그 방법 | |
JP2017212547A (ja) | チャンネル数変換装置およびそのプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151126 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151126 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20151126 |
|
TRDD | Decision of grant or rejection written | ||
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20151222 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160203 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5882552 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |