JP7194200B2 - 複数の音源を備える空間オーディオ・シーンのプレビュー - Google Patents
複数の音源を備える空間オーディオ・シーンのプレビュー Download PDFInfo
- Publication number
- JP7194200B2 JP7194200B2 JP2020561918A JP2020561918A JP7194200B2 JP 7194200 B2 JP7194200 B2 JP 7194200B2 JP 2020561918 A JP2020561918 A JP 2020561918A JP 2020561918 A JP2020561918 A JP 2020561918A JP 7194200 B2 JP7194200 B2 JP 7194200B2
- Authority
- JP
- Japan
- Prior art keywords
- sound source
- spatial audio
- sound
- user
- spatial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000009877 rendering Methods 0.000 claims description 67
- 238000000034 method Methods 0.000 claims description 59
- 238000004590 computer program Methods 0.000 claims description 31
- 230000004044 response Effects 0.000 claims description 17
- 230000001419 dependent effect Effects 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 7
- 239000000203 mixture Substances 0.000 description 18
- 230000006870 function Effects 0.000 description 17
- 230000008859 change Effects 0.000 description 13
- 238000010801 machine learning Methods 0.000 description 11
- 230000001404 mediated effect Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 230000001413 cellular effect Effects 0.000 description 4
- 230000000875 corresponding effect Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 125000002015 acyclic group Chemical group 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000000796 flavoring agent Substances 0.000 description 1
- 235000019634 flavors Nutrition 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/002—Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/008—Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2460/00—Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
- H04R2460/07—Use of position data from wide-area or local-area positioning systems in hearing devices, e.g. program or information selection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/01—Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Stereophonic System (AREA)
Description
ユーザ入力に応答して、複数の音源を備える、ある空間オーディオ・シーンの少なくとも1つの音源を選択し、その空間オーディオ・シーンは、空間オーディオ・コンテンツによって定義され、
その少なくとも1つの選択された音源に基づいて少なくとも1つの関連するコンテキスト音源を選択して、
ユーザによって選択できる、その空間オーディオ・コンテンツを表す、あるオーディオ・プレビューのレンダリングをもたらす
手段を備え、
そのオーディオ・プレビューは、その空間オーディオ・シーンの複数の音源のすべてではないが、その少なくとも1つの選択された音源およびその少なくとも1つの関連するコンテキスト音源を少なくとも含む音源のミックスを備え、
そのオーディオ・プレビューの選択は、少なくともその選択された音源上のオペレーションをもたらす
装置が提供される。
その選択された音源およびその少なくとも1つの関連するコンテキスト音源を含む複数の音源を備える、その空間オーディオ・シーンの空間レンダリングをもたらすことを含み、その空間オーディオ・シーンは、空間オーディオ・コンテンツによって定義される。
ユーザ入力は、第1の空間オーディオ・シーンにおいてレンダリングされた少なくとも1つの第1の音源の選択である。
その少なくとも1つの選択された音源に基づいて少なくとも1つの関連するコンテキスト音源を選択することは、その少なくとも1つの選択された第1の音源に基づいて少なくとも1つの関連するコンテキスト音源を選択することを含み、
ユーザによって選択できる、その空間オーディオ・コンテンツを表す、あるオーディオ・プレビューのレンダリングをもたらすことは、ユーザによって選択できる、第1の空間オーディオ・コンテンツを表す、あるオーディオ・プレビューのレンダリングをもたらすことを含み、
そのオーディオ・プレビューは、第1の空間オーディオ・シーンの複数の第1の音源のすべてではないが、その少なくとも1つの選択された第1の音源およびその少なくとも1つの関連するコンテキスト音源を少なくとも含む音源のミックスを備え、
そのオーディオ・プレビューの選択は、少なくともその選択された第1の音源およびその少なくとも1つの関連する第1のコンテキスト音源上のオペレーションをもたらす。
その少なくとも1つの選択された音源に基づいて少なくとも1つの関連するコンテキスト音源を選択することは、その少なくとも1つの選択された第2の音源に基づいて少なくとも1つの関連するコンテキスト音源を選択することを含み、
ユーザによって選択できる、その空間オーディオ・コンテンツを表す、あるオーディオ・プレビューのレンダリングをもたらすことは、ユーザによって選択できる、第2の空間オーディオ・コンテンツを表す、あるオーディオ・プレビューのレンダリングをもたらすことを含み、
そのオーディオ・プレビューは、第2の空間オーディオ・シーンの複数の第2の音源のすべてではないが、その少なくとも1つの選択された第2の音源およびその少なくとも1つの関連するコンテキスト音源を少なくとも含む音源のミックスを備え、
そのオーディオ・プレビューの選択は、少なくともその選択された第2の音源上のオペレーションをもたらす。
その空間オーディオ・コンテンツを表す、そのレンダリングされたオーディオ・プレビューのユーザによる選択に応答して、複数の音源のレンダリングを含むその空間オーディオ・コンテンツによって定義されたその空間オーディオ・シーンの空間レンダリングをもたらし、
その空間オーディオ・シーンと関連付けられた、あるロケーションおよびある方位を備える仮想ユーザ位置を決定して、
ユーザが、仮想ユーザの位置を変化させることによって、そのレンダリングされた空間オーディオ・シーンをその空間オーディオ・シーンから変化させることを可能にするように構成され、仮想ユーザの位置は、ユーザのある変化する方位、またはユーザのある変化するロケーションおよび方位に依存する。
空間および/またはオーディオ特性に基づいて複数の音源を主要音源および非主要音源へ論理的に分離するように構成され、少なくとも1つの選択された音源は、主要音源を備える群から選択され、その少なくとも1つの関連するコンテキスト音源は、非主要音源を備える群から選択される。
その少なくとも1つの選択された音源と、
(i)その空間オーディオ・コンテンツの作成者によってその空間オーディオ・コンテンツの元の部分として提供されたメタデータ、および/または
(ii)複数の音源のラウドネスに依存するあるメトリック、および/または
(iii)複数の音源間の1つ以上の定義されたオントロジーに依存するあるメトリック
とに基づいて、複数の音源のうちから、その少なくとも1つの関連するコンテキスト音源を選択するように構成される。
その少なくとも1つの選択された音源に基づいて、複数の音源のあるサブセットのうちから、その少なくとも1つの関連するコンテキスト音源を選択するように構成され、複数の音源のそのサブセットは、ユーザの方位に係わらず同じである音源を備え、ユーザの方位とともに変動する音源を備えず、および/または
その少なくとも1つの選択された音源に基づいて、複数の音源のあるサブセットのうちから、その少なくとも1つの関連するコンテキスト音源を選択するように構成され、複数の音源のそのサブセットは、ユーザに依存する音源を備える。
異なるそれぞれの空間オーディオ・コンテンツによって定義された、異なるそれぞれ複数の音源を備える、異なるそれぞれの空間オーディオ・シーンの空間レンダリングをもたらすために、ユーザによって選択できる、異なるそれぞれの空間オーディオ・コンテンツを表す、複数のオーディオ・プレビューのレンダリングをもたらし、
あるオーディオ・プレビューは、少なくとも1つのユーザにより選択された音源、および、その少なくとも1つの選択された音源に依存する、少なくとも1つのコンテキストにより選択された音源を含むが、それぞれの空間オーディオ・シーンのそれぞれの複数の音源のすべてを含むわけではない音源のミックスを備え、
ユーザがあるオーディオ・プレビューを選択することなく複数のオーディオ・プレビューをブラウズすることを可能にし、
ユーザがある所望のオーディオ・プレビューに対して複数のオーディオ・プレビューをブラウズして、その所望のオーディオ・プレビューを選択することを可能にし、
あるレンダリングされたオーディオ・プレビューのユーザによる選択に応答して、その選択された空間オーディオ・コンテンツに含まれる複数の音源のレンダリングを含むその選択された空間オーディオ・コンテンツによって定義されたその空間オーディオ・シーンの空間レンダリングをもたらすように構成される。
ユーザ入力に応答して、空間オーディオ・コンテンツによって定義され、複数の音源を備えるある空間オーディオ・シーンの少なくとも1つの音源を選択すること、
その少なくとも1つの選択された音源に基づいて少なくとも1つの関連するコンテキスト音源を選択すること、
ユーザによって選択できる、その空間オーディオ・コンテンツを表す、あるオーディオ・プレビューのレンダリングをもたらすこと
を備え、
そのオーディオ・プレビューは、その空間オーディオ・シーンの複数の音源のすべてではないが、その選択された音源およびその少なくとも1つの関連するコンテキスト音源を少なくとも含む音源のミックスを備え、
そのオーディオ・プレビューの選択は、少なくともその選択された音源上のオペレーションをもたらす
方法が提供される。
(i)その空間オーディオ・コンテンツの作成者によってその空間オーディオ・コンテンツの元の部分として提供されたメタデータ、および/または
(ii)複数の音源のラウドネスに依存するあるメトリック、および/または
(iii)複数の音源間の1つ以上の定義されたオントロジーに依存するあるメトリック
とに基づいて、複数の音源のうちから、その少なくとも1つの関連するコンテキスト音源を選択することを含む。
ユーザ入力に応答して、空間オーディオ・コンテンツによって定義され、複数の音源を備えるある空間オーディオ・シーンの少なくとも1つの音源を選択すること、
その少なくとも1つの選択された音源に基づいて少なくとも1つの関連するコンテキスト音源を選択すること、
ユーザによって選択できる、その空間オーディオ・コンテンツを表す、あるオーディオ・プレビューのレンダリングをもたらすこと
を行うための命令を備え、
そのオーディオ・プレビューは、その空間オーディオ・シーンの複数の音源のすべてではないが、その選択された音源およびその少なくとも1つの関連するコンテキスト音源を少なくとも含む音源のミックスを備え、
そのオーディオ・プレビューの選択は、少なくともその選択された音源上のオペレーションをもたらす
コンピュータ・プログラムが提供される。
少なくとも1つのプロセッサ、および
コンピュータ・プログラム・コードを含む少なくとも1つのメモリ
を備え、
少なくとも1つのメモリおよびコンピュータ・プログラム・コードは、少なくとも1つのプロセッサとともに、少なくとも
ユーザ入力に応答して、空間オーディオ・コンテンツによって定義され、複数の音源を備えるある空間オーディオ・シーンの少なくとも1つの音源を選択すること、
その少なくとも1つの選択された音源に基づいて少なくとも1つの関連するコンテキスト音源を選択すること、
ユーザによって選択できる、その空間オーディオ・コンテンツを表す、あるオーディオ・プレビューのレンダリングをもたらすこと
を本装置に行わせるように構成され、
そのオーディオ・プレビューは、その空間オーディオ・シーンの複数の音源のすべてではないが、その選択された音源およびその少なくとも1つの関連するコンテキスト音源を少なくとも含む音源のミックスを備え、
そのオーディオ・プレビューの選択は、少なくともその選択された音源上のオペレーションをもたらす
装置が提供される。
ユーザ入力に応答して、複数の音源を備える、ある空間オーディオ・シーンのある音源を選択すること、
選択された音源に基づいてあるコンテキスト音源を選択すること、
その空間オーディオ・コンテンツによって定義されたその空間オーディオ・シーンの空間レンダリングをもたらすために、ユーザによって選択できる、空間オーディオ・コンテンツを表す、あるオーディオ・プレビューをレンダリングすること
を含み、
そのオーディオ・プレビューは、その空間オーディオ・シーンの複数の音源のすべてではないが、その選択された音源およびその関連するコンテキスト音源を少なくとも含む音源のミックスを備える、
方法が提供される。
少なくとも1つのプロセッサ82、および
コンピュータ・プログラム・コードを含む少なくとも1つのメモリ84
を備え、
少なくとも1つのメモリ84およびコンピュータ・プログラム・コードは、少なくとも1つのプロセッサ82とともに、少なくとも
ユーザ入力に応答して、空間オーディオ・コンテンツによって定義され、複数の音源を備えるある空間オーディオ・シーンの少なくとも1つの音源を選択すること、
少なくとも1つの選択された音源12uに基づいて少なくとも1つの関連するコンテキスト音源12cを選択すること、
ユーザによって選択できる、その空間オーディオ・コンテンツを表す、あるオーディオ・プレビューのレンダリングをもたらすこと
を装置81に行わせるように構成され、
そのオーディオ・プレビューは、その空間オーディオ・シーンの複数の音源のすべてではないが、選択された音源12uおよび少なくとも1つの関連するコンテキスト音源12cを少なくとも含む音源のミックスを備え、
そのオーディオ・プレビューの選択は、少なくとも選択された音源12uおよび少なくとも1つの関連するコンテキスト音源12c上のオペレーションをもたらす。
ユーザ入力に応答して、空間オーディオ・コンテンツによって定義され、複数の音源を備えるある空間オーディオ・シーンの少なくとも1つの音源の選択をもたらすこと、
少なくとも1つの選択された音源12uに基づいて少なくとも1つの関連するコンテキスト音源12cを選択すること、
ユーザによって選択できる、その空間オーディオ・コンテンツを表す、あるオーディオ・プレビューのレンダリングをもたらすこと
を装置に行わせるため、またはそれらを行うためのコンピュータ・プログラム命令であって、
そのオーディオ・プレビューは、その空間オーディオ・シーンの複数の音源のすべてではないが、選択された音源12uおよび少なくとも1つの関連するコンテキスト音源12cを少なくとも含む音源のミックスを備え、
そのオーディオ・プレビューの選択は、少なくとも、選択された音源12uおよび少なくとも1つの関連するコンテキスト音源12c上のオペレーションをもたらす、
コンピュータ・プログラム命令。
(a)ハードウェアのみの回路素子実装(例えば、アナログおよび/またはデジタル回路素子のみで実装)ならびに
(b)ハードウェア回路およびソフトウェアの組み合わせ、例えば(適用できる場合):
(i)アナログおよび/またはデジタル・ハードウェア回路(単数または複数)とソフトウェア/ファームウェアとの組み合わせ、および
(ii)装置、例えば、モバイルフォンまたはサーバに様々な機能を行わせるために一緒に作動するソフトウェアをもつハードウェア・プロセッサ(単数または複数)(デジタル信号プロセッサ(単数または複数)を含む)、ソフトウェア、およびメモリ(単数または複数)のいずれかの部分、ならびに
(c)オペレーションのためにソフトウェア(例えば、ファームウェア)を必要とするが、オペレーションのために必要とされないときにはソフトウェアが存在しなくてよいハードウェア回路(単数または複数)および/またはプロセッサ(単数または複数)、例えば、マイクロプロセッサ(単数または複数)もしくはマイクロプロセッサ(単数または複数)の一部分。
自動車システム、電気通信システム、消費者電子製品を含む電子システム、分散型コンピューティング・システム、オーディオ、ビジュアルおよびオーディオ・ビジュアル・コンテンツならびに複合、媒介、仮想および/または拡張現実を含むメディア・コンテンツを生成またはレンダリングするためのメディア・システム、パーソナル・ヘルス・システムまたはパーソナル・フィットネス・システムを含むパーソナル・システム、ナビゲーション・システム、ヒューマン・マシン・インターフェースとしても知られるユーザ・インターフェース、セルラ、非セルラおよび光ネットワークを含むネットワーク、アドホック・ネットワーク、インターネット、インターネット・オブ・シングス、仮想化ネットワークを含むネットワーク、ならびに関連するソフトウェアおよびサービス
の有効な構成要素として用途を見出す。
Claims (17)
- ユーザ入力に応答して、複数の音源を備える、ある空間オーディオ・シーンの少なくとも1つの音源を選択し、前記空間オーディオ・シーンは、空間オーディオ・コンテンツによって定義され、
前記少なくとも1つの選択された音源に基づいて少なくとも1つの関連するコンテキスト音源を選択して、
ユーザによって選択できる、前記空間オーディオ・コンテンツを表す、あるオーディオ・プレビューのレンダリングをもたらす
手段を備え、
前記オーディオ・プレビューは、前記空間オーディオ・シーンの前記複数の音源のすべてではないが、前記少なくとも1つの選択された音源および前記少なくとも1つの関連するコンテキスト音源を少なくとも含む音源のミックスを備え、
前記オーディオ・プレビューの選択は、少なくとも前記選択された音源上のオペレーションをもたらす、
装置であって、前記手段は、
空間および/またはオーディオ特性に基づいて前記複数の音源を主要音源および非主要音源へ論理的に分離するように構成され、前記少なくとも1つの選択された音源は、前記主要音源を備える群から選択され、前記少なくとも1つの関連するコンテキスト音源は、前記非主要音源を備える群から選択される、
装置。 - 前記手段は、更に、
前記少なくとも1つの選択された音源と、
(i)前記複数の音源のラウドネスに依存するあるメトリック、および/または
(ii)前記複数の音源間の1つ以上の定義されたオントロジーに依存するあるメトリック
とに基づいて、前記複数の音源のうちから、前記少なくとも1つの関連するコンテキスト音源を選択するように構成される、請求項1に記載の装置。 - 前記手段は、更に、
前記少なくとも1つの選択された音源に基づいて、前記複数の音源のあるサブセットのうちから、前記少なくとも1つの関連するコンテキスト音源を選択するように構成され、前記複数の音源の前記サブセットは、前記ユーザに依存する音源を備える、請求項1又は2に記載の装置。 - 前記手段は、前記少なくとも1つの選択された音源に基づいて、前記複数の音源のあるサブセットのうちから、前記少なくとも1つの関連するコンテキスト音源を選択するように構成され、前記複数の音源の前記サブセットは、前記ユーザの方位に係わらず同じである音源を備え、前記ユーザの方位とともに変動する音源を備えない、請求項3に記載の装置。
- 前記オーディオ・プレビューの選択によってもたらされる前記オペレーションは、
前記選択された音源および前記少なくとも1つの関連するコンテキスト音源を含む複数の音源を備える、前記空間オーディオ・シーンの空間レンダリングをもたらすことを含み、前記空間オーディオ・シーンは、空間オーディオ・コンテンツによって定義される、
請求項1から4のいずれかに記載の装置。 - 前記ユーザ入力より前に、第1の空間オーディオ・コンテンツによって定義された、複数の第1の音源を備える、第1の空間オーディオ・シーンの空間レンダリングをもたらす手段を備え、
前記ユーザ入力は、前記第1の空間オーディオ・シーンにおいてレンダリングされた少なくとも1つの第1の音源の選択である、
請求項1から5のいずれかに記載の装置。 - 空間オーディオ・コンテンツによって定義された、複数の音源を備える、ある空間オーディオ・シーンの少なくとも1つの音源を選択することは、第1の空間オーディオ・コンテンツによって定義された、複数の第1の音源を備える、前記第1の空間オーディオ・シーンの少なくとも1つの第1の音源を選択することを含み、
前記少なくとも1つの選択された音源に基づいて少なくとも1つの関連するコンテキスト音源を選択することは、前記少なくとも1つの選択された第1の音源に基づいて少なくとも1つの関連するコンテキスト音源を選択することを含み、
ユーザによって選択できる、前記空間オーディオ・コンテンツを表す、あるオーディオ・プレビューのレンダリングをもたらすことは、ユーザによって選択できる、前記第1の空間オーディオ・コンテンツを表す、あるオーディオ・プレビューのレンダリングをもたらすことを含み、
前記オーディオ・プレビューは、前記第1の空間オーディオ・シーンの前記複数の音源のすべてではないが、前記少なくとも1つの選択された第1の音源および前記少なくとも1つの関連するコンテキスト音源を少なくとも含む音源のミックスを備え、
前記オーディオ・プレビューの選択は、少なくとも前記選択された第1の音源および前記少なくとも1つの関連する第1のコンテキスト音源上のオペレーションをもたらす、
請求項6に記載の装置。 - 前記ユーザ入力は、あるサーチを指定している、請求項1から6のいずれか一項に記載の装置。
- 空間オーディオ・コンテンツによって定義された、複数の音源を備える、ある空間オーディオ・シーンの少なくとも1つの音源を選択することは、第2の空間オーディオ・コンテンツによって定義された、複数の第2の音源を備える、第2の新しい空間オーディオ・シーンの少なくとも1つの第2の音源を選択することを含み、
前記少なくとも1つの選択された音源に基づいて少なくとも1つの関連するコンテキスト音源を選択することは、前記少なくとも1つの選択された第2の音源に基づいて少なくとも1つの関連するコンテキスト音源を選択することを含み、
ユーザによって選択できる、前記空間オーディオ・コンテンツを表す、あるオーディオ・プレビューのレンダリングをもたらすことは、ユーザによって選択できる、前記第2の空間オーディオ・コンテンツを表す、あるオーディオ・プレビューのレンダリングをもたらすことを含み、
前記オーディオ・プレビューは、前記第2の空間オーディオ・シーンの前記複数の第2の音源のすべてではないが、前記少なくとも1つの選択された第2の音源および前記少なくとも1つの関連するコンテキスト音源を少なくとも含む音源のミックスを備え、
前記オーディオ・プレビューの選択は、少なくとも前記選択された第2の音源上のオペレーションをもたらす、
請求項1から6及び8のいずれか一項に記載の装置。 - 前記手段は、
前記空間オーディオ・コンテンツを表す、前記レンダリングされたオーディオ・プレビューのユーザによる選択に応答して、前記複数の音源のレンダリングを含む前記空間オーディオ・コンテンツによって定義された前記空間オーディオ・シーンの空間レンダリングをもたらし、
前記空間オーディオ・シーンと関連付けられた、あるロケーションおよびある方位を備える仮想ユーザ位置を決定して、
ユーザが、前記仮想ユーザの前記位置を変化させることによって、前記レンダリングされた空間オーディオ・シーンを前記空間オーディオ・シーンから変化させることを可能にするように構成され、前記仮想ユーザの前記位置は、前記ユーザのある変化する方位、または前記ユーザのある変化するロケーションおよび方位に依存する、
請求項1から9のいずれかに記載の装置。 - 前記手段は、前記少なくとも1つの選択された音源に基づいて、前記複数の音源のうちから、前記少なくとも1つの関連するコンテキスト音源を選択するように構成される、請求項1~10のいずれか一項に記載の装置。
- 前記手段は、
異なるそれぞれの空間オーディオ・コンテンツによって定義された、異なるそれぞれ複数の音源を備える、異なるそれぞれの空間オーディオ・シーンの空間レンダリングをもたらすために、ユーザによって選択できる、前記異なるそれぞれの空間オーディオ・コンテンツを表す、複数のオーディオ・プレビューのレンダリングをもたらし、
あるオーディオ・プレビューは、少なくとも1つのユーザにより選択された音源、および、前記少なくとも1つの選択された音源に依存する、少なくとも1つのコンテキストにより選択された音源を含むが、前記それぞれの空間オーディオ・シーンの前記それぞれの複数の音源のすべてを含むわけではない、音源のミックスを備え、
前記ユーザがあるオーディオ・プレビューを選択することなく前記複数のオーディオ・プレビューをブラウズすることを可能にし、
前記ユーザがある所望のオーディオ・プレビューに対して前記複数のオーディオ・プレビューをブラウズして、前記所望のオーディオ・プレビューを選択することを可能にし、
あるレンダリングされたオーディオ・プレビューのユーザによる選択に応答して、前記選択された空間オーディオ・コンテンツに含まれる前記複数の音源のレンダリングを含む前記選択された空間オーディオ・コンテンツによって定義された前記空間オーディオ・シーンの空間レンダリングをもたらす
ように構成される、請求項1~11のいずれか一項に記載の装置。 - ユーザ入力に応答して、空間オーディオ・コンテンツによって定義され、複数の音源を備えるある空間オーディオ・シーンの少なくとも1つの音源を選択すること、
前記少なくとも1つの選択された音源に基づいて少なくとも1つの関連するコンテキスト音源を選択すること、
ユーザによって選択できる、前記空間オーディオ・コンテンツを表す、あるオーディオ・プレビューのレンダリングをもたらすこと
を含み、
前記オーディオ・プレビューは、前記空間オーディオ・シーンの前記複数の音源のすべてではないが、前記選択された音源および前記少なくとも1つの関連するコンテキスト音源を少なくとも含む音源のミックスを備え、
前記オーディオ・プレビューの選択は、少なくとも前記選択された音源上のオペレーションをもたらす
方法であって、空間および/またはオーディオ特性に基づいて前記複数の音源を主要音源および非主要音源へ論理的に分離することを更に含み、前記少なくとも1つの選択された音源は、前記主要音源を備える群から選択され、前記少なくとも1つの関連するコンテキスト音源は、前記非主要音源を備える群から選択される、方法。 - 前記少なくとも1つの関連するコンテキスト音源を選択することは、前記少なくとも1つの選択された音源と、
(i)前記複数の音源のラウドネスに依存するあるメトリック、および/または
(ii)前記複数の音源間の1つ以上の定義されたオントロジーに依存するあるメトリック
とに基づいて、前記複数の音源のうちから、前記少なくとも1つの関連するコンテキスト音源を選択することを含む、請求項13に記載の方法。 - 前記少なくとも1つの選択された音源に基づいて、前記複数の音源のあるサブセットのうちから、前記少なくとも1つの関連するコンテキスト音源を選択することを更に含み、前記複数の音源の前記サブセットは、前記ユーザに依存する音源を備える、請求項13又は14に記載の方法。
- 前記少なくとも1つの選択された音源に基づいて、前記複数の音源のあるサブセットのうちから、前記少なくとも1つの関連するコンテキスト音源を選択することを更に含み、前記複数の音源の前記サブセットは、前記ユーザの方位に係わらず同じである音源を備え、前記ユーザの方位とともに変動する音源を備えない、請求項15に記載の方法。
- 装置の処理手段に実行されると、前記装置に、請求項13から16のいずれかに記載の方法を遂行させるように構成されたプログラム命令を備える、コンピュータ・プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP18171975.8A EP3570566B1 (en) | 2018-05-14 | 2018-05-14 | Previewing spatial audio scenes comprising multiple sound sources |
EP18171975.8 | 2018-05-14 | ||
PCT/EP2019/062033 WO2019219527A1 (en) | 2018-05-14 | 2019-05-10 | Previewing spatial audio scenes comprising multiple sound sources. |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021523603A JP2021523603A (ja) | 2021-09-02 |
JP7194200B2 true JP7194200B2 (ja) | 2022-12-21 |
Family
ID=62165379
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020561918A Active JP7194200B2 (ja) | 2018-05-14 | 2019-05-10 | 複数の音源を備える空間オーディオ・シーンのプレビュー |
Country Status (4)
Country | Link |
---|---|
US (1) | US11368807B2 (ja) |
EP (1) | EP3570566B1 (ja) |
JP (1) | JP7194200B2 (ja) |
WO (1) | WO2019219527A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11304006B2 (en) * | 2020-03-27 | 2022-04-12 | Bose Corporation | Systems and methods for broadcasting audio |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020141597A1 (en) | 2001-01-29 | 2002-10-03 | Hewlett-Packard Company | Audio user interface with selectively-mutable synthesised sound sources |
JP2008092193A (ja) | 2006-09-29 | 2008-04-17 | Japan Science & Technology Agency | 音源選択装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
PL2489037T3 (pl) * | 2009-10-16 | 2022-03-07 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Urządzenie, sposób i program komputerowy do dostarczania regulowanych parametrów |
EP2829048B1 (en) * | 2012-03-23 | 2017-12-27 | Dolby Laboratories Licensing Corporation | Placement of sound signals in a 2d or 3d audio conference |
EP2840811A1 (en) * | 2013-07-22 | 2015-02-25 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Method for processing an audio signal; signal processing unit, binaural renderer, audio encoder and audio decoder |
US9693009B2 (en) * | 2014-09-12 | 2017-06-27 | International Business Machines Corporation | Sound source selection for aural interest |
EP3414925B1 (en) * | 2016-02-09 | 2019-09-11 | Dolby Laboratories Licensing Corporation | System and method for spatial processing of soundfield signals |
EP3236363A1 (en) | 2016-04-18 | 2017-10-25 | Nokia Technologies Oy | Content search |
ES2713685T3 (es) * | 2016-04-26 | 2019-05-23 | Nokia Technologies Oy | Métodos, aparatos y programas informáticos relativos a la modificación de una característica asociada a una señal de audio separada |
EP3319341A1 (en) * | 2016-11-03 | 2018-05-09 | Nokia Technologies OY | Audio processing |
US11096004B2 (en) | 2017-01-23 | 2021-08-17 | Nokia Technologies Oy | Spatial audio rendering point extension |
EP3422148B1 (en) | 2017-06-29 | 2021-03-10 | Nokia Technologies Oy | An apparatus and associated methods for display of virtual reality content |
-
2018
- 2018-05-14 EP EP18171975.8A patent/EP3570566B1/en active Active
-
2019
- 2019-05-10 JP JP2020561918A patent/JP7194200B2/ja active Active
- 2019-05-10 US US17/049,445 patent/US11368807B2/en active Active
- 2019-05-10 WO PCT/EP2019/062033 patent/WO2019219527A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020141597A1 (en) | 2001-01-29 | 2002-10-03 | Hewlett-Packard Company | Audio user interface with selectively-mutable synthesised sound sources |
JP2008092193A (ja) | 2006-09-29 | 2008-04-17 | Japan Science & Technology Agency | 音源選択装置 |
Also Published As
Publication number | Publication date |
---|---|
US11368807B2 (en) | 2022-06-21 |
US20210250720A1 (en) | 2021-08-12 |
EP3570566B1 (en) | 2022-12-28 |
EP3570566A1 (en) | 2019-11-20 |
JP2021523603A (ja) | 2021-09-02 |
WO2019219527A1 (en) | 2019-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10952009B2 (en) | Audio parallax for virtual reality, augmented reality, and mixed reality | |
US11089426B2 (en) | Apparatus, method or computer program for rendering sound scenes defined by spatial audio content to a user | |
US9838818B2 (en) | Immersive 3D sound space for searching audio | |
US8380333B2 (en) | Methods, apparatuses and computer program products for facilitating efficient browsing and selection of media content and lowering computational load for processing audio data | |
US10567902B2 (en) | User interface for user selection of sound objects for rendering | |
US11140507B2 (en) | Rendering of spatial audio content | |
CN111512648A (zh) | 启用空间音频内容的渲染以用于由用户消费 | |
CN113316078B (zh) | 数据处理方法、装置、计算机设备及存储介质 | |
US20240022870A1 (en) | System for and method of controlling a three-dimensional audio engine | |
US20240098416A1 (en) | Audio enhancements based on video detection | |
JP7037654B2 (ja) | キャプチャされた空間オーディオコンテンツの提示用の装置および関連する方法 | |
JP7194200B2 (ja) | 複数の音源を備える空間オーディオ・シーンのプレビュー | |
JP2021508193A5 (ja) | ||
EP3691298A1 (en) | Apparatus, method or computer program for enabling real-time audio communication between users experiencing immersive audio | |
US20240080638A1 (en) | Method for navigating multidimensional space using sound | |
Huopaniemi | Future of personal audio: Smart applications and immersive communication | |
Sodnik et al. | Spatial Auditory Interfaces |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201124 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220404 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220829 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221102 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7194200 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |