JP6670361B2 - レンダリングする音響オブジェクトをユーザが選択するためのユーザインタフェース、および/またはレンダリングする音響オブジェクトをユーザが選択するためのユーザインタフェースをレンダリングする方法 - Google Patents

レンダリングする音響オブジェクトをユーザが選択するためのユーザインタフェース、および/またはレンダリングする音響オブジェクトをユーザが選択するためのユーザインタフェースをレンダリングする方法 Download PDF

Info

Publication number
JP6670361B2
JP6670361B2 JP2018209328A JP2018209328A JP6670361B2 JP 6670361 B2 JP6670361 B2 JP 6670361B2 JP 2018209328 A JP2018209328 A JP 2018209328A JP 2018209328 A JP2018209328 A JP 2018209328A JP 6670361 B2 JP6670361 B2 JP 6670361B2
Authority
JP
Japan
Prior art keywords
acoustic
user
user interface
location
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2018209328A
Other languages
English (en)
Other versions
JP2019097162A (ja
Inventor
アンッティ エロネン
アンッティ エロネン
アルト レフティニエミ
アルト レフティニエミ
ユッシ レッパネン
ユッシ レッパネン
ユハ アーラスヴオリ
ユハ アーラスヴオリ
Original Assignee
ノキア テクノロジーズ オーユー
ノキア テクノロジーズ オーユー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ノキア テクノロジーズ オーユー, ノキア テクノロジーズ オーユー filed Critical ノキア テクノロジーズ オーユー
Publication of JP2019097162A publication Critical patent/JP2019097162A/ja
Application granted granted Critical
Publication of JP6670361B2 publication Critical patent/JP6670361B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field

Description

本発明の実施形態は、レンダリングする音響オブジェクトをユーザが選択するためのユーザインタフェースに関する。
背景
空間(またはボリュメトリック)オーディオは、様々な音響オブジェクトを様々な3次元の場所でレンダリングすることを要する。各音響オブジェクトは個別に制御することができる。例えば、音響オブジェクトの強さや、場所または位置を制御したり、音響オブジェクトのその他の特性を個別に制御したりすることができる。これにより、ユーザに対してレンダリングされる音響シーン内で音源を再配置することが可能になる。また、その音響シーンを加工することが可能になる。
空間オーディオは、例えば、複数のスピーカ、例えば、5.1または7.1サラウンドサウンドによってユーザに対してレンダリングすることも、ヘッドフォン、例えば、両耳レンダリングによってユーザに対してレンダリングすることもできる。
空間オーディオは、オーディオコンテンツをユーザに対してレンダリングするために用いることも、マルチメディアコンテンツのオーディオ部分をユーザに対してレンダリングするために用いることもできる。マルチメディアコンテンツがレンダリングされる場合、ビジュアルコンテンツは、例えば、仮想現実や拡張現実などの媒介現実によってレンダリングすることができる。場合によっては、例えば、コンテンツ消費者またはコンテンツエンジニアでありうるユーザに、音響シーンを完全にはレンダリングしないで、その音響シーンのコンテンツを理解させることが望ましいことがある。
摘要
本発明の様々な、ただし必ずしもすべてではない実施形態によれば、方法が提供される。前記方法は、3次元音響空間内の場所にそれぞれ関連付けられた音響オブジェクトを、レンダリングのためにユーザが選択するためのユーザインタフェースをレンダリングすることと、音響オブジェクトを選択するユーザ操作に応じて、少なくとも前記選択された音響オブジェクトを、前記3次元音響空間内で関連付けられた場所にレンダリングすることと、を含み、前記ユーザインタフェースは、音響オブジェクトを少なくとも1つの形状にマッピングし、前記形状上の音響オブジェクトを、前記形状上の一連の場所で識別し、前記形状上の場所は、前記識別された音響オブジェクトの関連付けられた場所とは異なる。
必ずしもすべてではないがいくつかの例において、第1のユーザ操作に応じて、音響オブジェクトのセットのサブセットの音響オブジェクトをそれぞれ、前記3次元音響空間内で関連付けられた場所にレンダリングすることを含む縮小音響シーンのレンダリングによって、前記セットの音響オブジェクトを含む音響シーンの没入的オーディオプレビューをレンダリングする。
必ずしもすべてではないがいくつかの例において、第2のユーザ操作に応じて、前記セットの音響オブジェクトをそれぞれ、前記3次元音響空間内で関連付けられた場所にレンダリングすることで、前記セットの音響オブジェクトを含む音響シーンをレンダリングする。
必ずしもすべてではないがいくつかの例において、前記ユーザインタフェースは、音響オブジェクトの特性の少なくとも1つまたは複数を示す、各音響オブジェクトのコンテンツを用いて、前記形状上の異なる場所で前記音響オブジェクトを識別し、前記音響オブジェクトの特性は、相対的な重要度、音声、音の大きさ、期間からなる群からのものである。
必ずしもすべてではないがいくつかの例において、前記ユーザインタフェースは、音響オブジェクトの前記セット内の前記音響オブジェクトの少なくともいくつかを、1つまたは複数の形状上の異なる場所で識別し、音響オブジェクトの場所は、音響オブジェクトの前記セット内の当該音響オブジェクトの重要度に基づく。
必ずしもすべてではないがいくつかの例において、前記方法は、前記セットの音響オブジェクトを、前記ユーザインタフェースの形状の一部上の音響オブジェクトとして選択するために、前記形状の当該一部を選択することを含む。
必ずしもすべてではないがいくつかの例において、前記方法は、前記第1のユーザ操作の前に、前記セットの前記サブセットの音響オブジェクトのすべてではなく、ゼロ、1つ、または複数を、空間場所なしで前記3次元音響空間にレンダリングすることを含む。
必ずしもすべてではないがいくつかの例において、前記第1のユーザ操作は、前記セットの前記サブセットの音響オブジェクトを選択する。
必ずしもすべてではないがいくつかの例において、第1の前記サブセットは、少なくとも、前記ユーザインタフェースの形状に対する前記第1のユーザ操作の第1の場所と、音響オブジェクトの前記セット内の、前記第1の場所に隣接する前記音響オブジェクトの配置と、に基づく。
必ずしもすべてではないがいくつかの例において、前記方法は、前記没入的オーディオプレビューのレンダリング中に、変更のためのユーザ相互作用に応じて前記サブセットを新しいサブセットへと変化させ、音響オブジェクトの前記セットの前記新しいサブセット内の前記音響オブジェクトをそれぞれ、3次元音響空間内で関連付けられた場所にレンダリングすることを含む、新しい縮小音響シーンのレンダリングを行うことを含む。
必ずしもすべてではないがいくつかの例において、前記ユーザインタフェースは、集約されたビジュアルプレビューユーザインタフェースであり、前記集約されたビジュアルプレビューユーザインタフェースは、音響オブジェクトを、少なくとも1つの形状にマッピングし、前記形状上の音響オブジェクトを、前記形状上の一連の場所で視覚的に識別し、前記形状上の場所は、前記識別された音響オブジェクトの関連付けられた場所とは異なる。
必ずしもすべてではないがいくつかの例において、前記形状は、可視形式で前記ユーザインタフェースに表示され、前記ユーザインタフェースは、前記形状上の音響オブジェクトを視覚的に識別する。
必ずしもすべてではないがいくつかの例において、前記方法は、前記第2のユーザ操作の後、前記ユーザインタフェースをレンダリングしなくなることを含む。
必ずしもすべてではないがいくつかの例において、前記方法は、前記第2のユーザ操作に応じて、前記レンダリングされた音響シーンに対応する視覚シーンをレンダリングし、前記レンダリングされた視覚シーンおよび前記対応するレンダリングされた音響シーンを、少なくとも前記ユーザの向きの変更に基づいて、自動的に変化させることを含む。
装置は、3次元音響空間内の場所にそれぞれ関連付けられた音響オブジェクトを、レンダリングのためにユーザが選択するためのユーザインタフェースをレンダリングするユーザインタフェースレンダリング手段と、音響オブジェクトを選択するユーザ操作に応じて、少なくとも前記選択された音響オブジェクトを、前記3次元音響空間内で関連付けられた場所にレンダリングする音響レンダリング手段と、を備え、前記ユーザインタフェースは、音響オブジェクトを少なくとも1つの形状にマッピングし、前記形状上の音響オブジェクトを、前記形状上の一連の場所で識別し、前記形状上の場所は、前記識別された音響オブジェクトの関連付けられた場所とは異なる。
必ずしもすべてではないがいくつかの例において、前記音響レンダリング手段は、第1のユーザ操作に応じて、音響オブジェクトのセットのサブセットの音響オブジェクトをそれぞれ、前記3次元音響空間内で関連付けられた場所にレンダリングすることを含む縮小音響シーンのレンダリングによって、前記セットの音響オブジェクトを含む音響シーンの没入的オーディオプレビューをレンダリングする手段を備える。
必ずしもすべてではないがいくつかの例において、前記音響レンダリング手段は、第2のユーザ操作に応じて、前記セットの音響オブジェクトをそれぞれ、前記3次元音響空間内で関連付けられた場所にレンダリングすることで、前記セットの音響オブジェクトを含む音響シーンをレンダリングする手段を備える。
必ずしもすべてではないがいくつかの例において、前記ユーザインタフェースレンダリング手段は、音響オブジェクトの特性の少なくとも1つまたは複数を示す、各音響オブジェクトのコンテンツを用いて、前記形状上の異なる場所で前記音響オブジェクトを識別する手段を備え、前記音響オブジェクトの特性は、相対的な重要度、音声、音の大きさ、期間からなる群からのものである。
必ずしもすべてではないがいくつかの例において、前記ユーザインタフェースレンダリング手段は、音響オブジェクトの前記セット内の前記音響オブジェクトの少なくともいくつかを、1つまたは複数の形状上の異なる場所で識別する手段を備え、音響オブジェクトの場所は、音響オブジェクトの前記セット内の当該音響オブジェクトの重要度に基づく。
必ずしもすべてではないがいくつかの例において、前記装置は、前記セットの音響オブジェクトを、前記ユーザインタフェースの形状の一部上の音響オブジェクトとして選択するために、前記形状の当該一部を選択する手段を備える。
必ずしもすべてではないがいくつかの例において、前記装置は、前記第1のユーザ操作の前に、前記セットの前記サブセットの音響オブジェクトのすべてではなく、ゼロ、1つ、または複数を、空間場所なしで前記3次元音響空間にレンダリングする手段を備える。
必ずしもすべてではないがいくつかの例において、前記ユーザインタフェースレンダリング手段は、前記第1のユーザ操作によって、前記セットの前記サブセットの音響オブジェクトを選択できるようにする手段を備える。第1の前記サブセットは、少なくとも、前記ユーザインタフェースの形状に対する前記第1のユーザ操作の第1の場所と、音響オブジェクトの前記セット内の、前記第1の場所に隣接する前記音響オブジェクトの配置と、に基づいてもよい。
必ずしもすべてではないがいくつかの例において、前記装置は、前記没入的オーディオプレビューのレンダリング中に、変更のためのユーザ相互作用に応じて前記サブセットを新しいサブセットへと変化させ、音響オブジェクトの前記セットの前記新しいサブセット内の前記音響オブジェクトをそれぞれ、3次元音響空間内で関連付けられた場所にレンダリングすることを含む、新しい縮小音響シーンのレンダリングを行う手段を備える。
必ずしもすべてではないがいくつかの例において、前記ユーザインタフェースは、集約されたビジュアルプレビューユーザインタフェースであり、前記集約されたビジュアルプレビューインタフェースは、音響オブジェクトを、少なくとも1つの形状にマッピングするように構成され、かつ、前記形状上の音響オブジェクトを、前記形状上の一連の場所で視覚的に識別するように構成され、前記形状上の場所は、前記識別された音響オブジェクトの関連付けられた場所とは異なる。
必ずしもすべてではないがいくつかの例において、前記形状は、可視形式で前記ユーザインタフェースに表示され、前記ユーザインタフェースは、前記形状上の音響オブジェクトを視覚的に識別するように構成される。
必ずしもすべてではないがいくつかの例において、前記ユーザインタフェースレンダリング手段は、前記第2のユーザ操作の後、前記ユーザインタフェースをレンダリングしなくなる。
必ずしもすべてではないがいくつかの例において、前記装置は、前記第2のユーザ操作に応じて、前記レンダリングされた音響シーンに対応する視覚シーンをレンダリングする手段と、前記レンダリングされた視覚シーンおよび前記対応するレンダリングされた音響シーンを、少なくとも前記ユーザの向きの変更に基づいて、自動的に変化させる手段とを備える。
前記装置は、少なくとも1つのプロセッサと、コンピュータプログラムコードを備えた少なくとも1つのメモリと、を備え、前記少なくとも1つのメモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサとともに前記装置に少なくとも、3次元音響空間内の場所にそれぞれ関連付けられた音響オブジェクトを、レンダリングのためにユーザが選択するためのユーザインタフェースをレンダリングすることと、音響オブジェクトを選択するユーザ操作に応じて、前記少なくとも選択された音響オブジェクトを、前記3次元音響空間内で関連付けられた場所にレンダリングすることと、を実行させるように構成され、前記ユーザインタフェースは、音響オブジェクトを少なくとも1つの形状にマッピングし、前記形状上の音響オブジェクトを、前記形状上の一連の場所で識別し、前記形状上の場所は、前記識別された音響オブジェクトの関連付けられた場所とは異なる。
コンピュータプログラムは、プロセッサによって実行された場合、前記プロセッサが、3次元音響空間内の場所にそれぞれ関連付けられた音響オブジェクトを、レンダリングのためにユーザが選択するためのユーザインタフェースをレンダリングすることと、音響オブジェクトを選択するユーザ操作に応じて、少なくとも前記選択された音響オブジェクトを、前記3次元音響空間内で関連付けられた場所にレンダリングすることと、を可能にし、前記ユーザインタフェースは、音響オブジェクトを少なくとも1つの形状にマッピングし、前記形状上の音響オブジェクトを、前記形状上の一連の場所で識別し、前記形状上の場所は、前記識別された音響オブジェクトの関連付けられた場所とは異なる。
本発明の様々な、ただし必ずしもすべてではない実施形態によれば、添付の特許請求の範囲に記載されるような例が提供される。
詳細な説明の理解に有用な様々な例をより良く理解するために、単なる例として添付の図面を参照する。
図1は、レンダリングする音響オブジェクトをユーザが選択するためのユーザインタフェースをレンダリングする方法の例を示す図である。 図2Aは、複数の音響オブジェクトを含む音響空間の例を示す図である。 図2Bは、レンダリングする音響オブジェクトをユーザが選択するためのユーザインタフェースの例を示す図である。 図3は、音響オブジェクトのサブセットを含むプレビュー縮小音響空間のレンダリングの例を示す図である。 図4Aは、音響オブジェクトのサブセットを含むプレビュー縮小音響空間のレンダリングの例を示す図である。 図4Bは、音響オブジェクトの完全なセットを含む音響空間全体のレンダリングの例を示す図である。 図5Aは、音響オブジェクトの新しいサブセットを含む新しいプレビュー縮小音響空間のレンダリングの例を示す図である。 図5Bは、音響オブジェクトの新しいサブセットを含む新しいプレビュー縮小音響空間のレンダリングの例を示す図である。 図6は、ビジュアルユーザインタフェースの例を示す図である。 図7は、マッピングされた音響オブジェクトの複数の形状を含むユーザインタフェースの例を示す図である。 図8A、図8Bは、一人称視点媒介現実のレンダリングの状況に当該方法を適用する例を示す図である。 図9A、図9Bは、一人称視点媒介現実のレンダリングの状況に当該方法を適用する例を示す図である。 図10A、図10Bは、一人称視点媒介現実のレンダリングの状況に当該方法を適用する例を示す図である。 図11Aは、音響オブジェクトを異なるグループにグループ化し、各グループをユーザインタフェースの異なる形状にマッピングする例を示す図である。 図11Bは、音響オブジェクトを異なるグループにグループ化し、各グループをユーザインタフェースの異なる形状にマッピングする例を示す図である。 図11Cは、音響オブジェクトを異なるグループにグループ化し、各グループをユーザインタフェースの異なる形状にマッピングする例を示す図である。 図12Aは、コントローラの例を示す図であり、図12Bは、コンピュータプログラムの例を示す図である。
定義
「人工環境」は、記録または生成された任意のものでありうる。
「仮想視覚空間」は、視覚可能な完全または部分的な人工環境を指す。これは3次元でありうる。
「仮想視覚シーン」は、仮想視覚空間内の特定の視点(位置)から見た仮想視覚空間の表現を指す。
「仮想視覚オブジェクト」は、仮想視覚シーン内の可視の仮想オブジェクトである。
「音響空間」(または「仮想音響空間」)は、3次元空間内の音源の配置を指す。音響空間は、音響の録音(録音された音響空間)に関連して、および音響のレンダリング(レンダリングされた音響空間)に関連して、定義される場合がある。
「音響シーン」(または「仮想音響シーン」)は、音響空間内の特定の視点(位置)から聴いた音響空間の表現を指す。
「音響オブジェクト」は、音響空間内に配置されうる音源を指す。音源オブジェクトは、仮想視覚空間内のオブジェクトに関連付けられた音源とは対照的に、音響空間内の音源を表す。録音された音響オブジェクトは、特定のマイクまたは場所で録音された音響を表す。レンダリングされた音響オブジェクトは、特定の場所からレンダリングされた音響を表す。
「仮想空間」は、仮想視覚空間を意味する場合も、音響空間を意味する場合も、仮想視覚空間と対応する音響空間との組合せを意味する場合もある。いくつかの例において、仮想空間は、水平方向に360まで延在してもよく、垂直方向に180まで延在してもよい。
「仮想シーン」は、仮想視覚シーンを意味する場合も、音響シーンを意味する場合も、仮想視覚シーンと対応する音響シーンとの組合せを意味する場合もある。
「仮想オブジェクト」は、仮想シーン内のオブジェクトであり、人工仮想オブジェクト(例えば、コンピュータが生成した仮想オブジェクト)や、ライブの、または記録された現実空間内の実際のオブジェクトの画像でありうる。仮想オブジェクトは、音響オブジェクトおよび/または仮想視覚オブジェクトでありうる。
「仮想位置」は、仮想空間内の位置である。仮想位置は、仮想場所および/または仮想向きを用いて定義されうる。仮想位置は、移動可能な「視点」とみなされうる。
「対応」または「対応する」は、音響空間および仮想視覚空間と関連して用いられる場合、音響空間と仮想視覚空間との時間および空間が一致している、すなわちそれらが同じ時間の同じ空間であることを意味する。
「対応」または「対応する」は、音響シーンおよび仮想視覚シーン(または視覚シーン)と関連して用いられる場合、音響空間と仮想視覚空間(または視覚シーン)とが対応しており、音響シーンを定める視点を有する概念的(仮想)リスナーと、仮想視覚シーン(または視覚シーン)を定める視点を有する概念的(仮想)ビューアとが、同じ場所に同じ向きでおり、すなわち、当該リスナーと当該ビューアの視点は同じ(同じ仮想位置)であることを意味する。
「現実空間」(または「物理空間」)は、現実環境を指す。これは3次元でありうる。
「現実シーン」は、現実空間内の特定の視点(位置)からの現実空間の表現を指す。
「現実視覚シーン」は、現実空間内の特定の現実の視点(位置)から見た現実空間の視覚表現を指す。
本明細書における「媒介現実」は、完全または部分的な人工環境(仮想空間)を、装置によってユーザに対して少なくとも部分的にレンダリングされた仮想シーンとして、例えば視覚的に経験するユーザを指す。仮想シーンは、仮想空間内の視点(仮想位置)によって決定される。仮想シーンの表示は、ユーザが知覚できる形式で仮想視覚シーンを提示することを意味する。
本明細書における「拡張現実」は、媒介現実の一形式を指し、ユーザは、部分的な人工環境(仮想空間)を、装置によってユーザに対してレンダリングされた1つまたは複数の視覚またはオーディオ要素によって補足された、物理的現実環境(現実空間)の現実シーンを含む仮想シーンとして経験する。拡張現実という用語は、複合現実またはハイブリッドリアリティを意味し、(現実に対する)仮想の度合いや媒介の度合いを必ずしも意味するものではない。
本明細書における「仮想現実」は、媒介現実の一形式を指し、ユーザは、完全な人工環境(仮想視覚空間)を、装置によってユーザに対して表示された仮想シーンとして経験する。
「仮想コンテンツ」は、現実シーンからの現実コンテンツ(存在する場合)加えて、例えば、1つまたは複数の人工仮想オブジェクトを提示することによって媒介現実を可能にするコンテンツである。
「媒介現実コンテンツ」は、ユーザが、完全または部分的な人工環境(仮想空間)を仮想シーンとして、例えば視覚的に経験できるようにするコンテンツである。媒介現実コンテンツは、ビデオゲームなどのインタラクティブコンテンツや、動画などの非インタラクティブコンテンツを含むことができる。
「拡張現実コンテンツ」は、媒介現実コンテンツの一形式であり、ユーザが、部分的な人工環境(仮想空間)を仮想シーンとして、例えば視覚的に経験できるようにする。拡張現実コンテンツは、ビデオゲームなどのインタラクティブコンテンツや、動画などの非インタラクティブコンテンツを含むことができる。
「仮想現実コンテンツ」は、媒介現実コンテンツの一形式であり、ユーザが、完全な人工環境(仮想空間)を仮想シーンとして、例えば視覚的に経験できるようにする。仮想現実コンテンツは、ビデオゲームなどのインタラクティブコンテンツや、動画などの非インタラクティブコンテンツを含むことができる。
媒介現実、拡張現実、または仮想現実に適用される「視点媒介」は、ユーザの動作が、仮想空間内の視点(仮想位置)を決定し、仮想シーンを変更することを意味する。
媒介現実、拡張現実、または仮想現実に適用される「一人称視点媒介」は、ユーザの実際の視点(場所および/または向き)が、仮想空間内の視点(仮想位置)を決定するという制約が追加された視点媒介を意味する。
媒介現実、拡張現実、または仮想現実に適用される「三人称視点媒介」は、ユーザの実際の視点が、仮想空間内の視点(仮想位置)を決定しないという制約が追加された視点媒介を意味する。
媒介現実、拡張現実、または仮想現実に適用される「ユーザインタラクティブ」は、ユーザの動作が、仮想空間内で起こることを少なくとも部分的に決定することを意味する。
「表示」は、ユーザによって視覚的に知覚される(見られる)形式で提示することを意味する。
「レンダリング」は、ユーザによって知覚される形式で提示することを意味する。
「仮想ユーザ」は、視点媒介音響シーンおよび/または視覚シーンの生成に用いられる、仮想空間内における視点(仮想位置―場所および/または向き)を定める。
「概念的リスナー」は、ユーザが実際に聴いているかどうかに関係なく、視点媒介音響シーンの生成に用いられる、仮想空間内における視点(仮想位置―場所および/または向き)を定める。
「概念的ビューア」は、ユーザが実際に見ているかどうかに関係なく、視点媒介視覚シーンの生成に用いられる、仮想空間内における視点(仮想位置―場所および/または向き)を定める。
3自由度(Three Degrees of Freedom:3DoF)は、仮想位置が向き(例えば、3次元の向きの3つの自由度)のみによって決定される媒介現実を表す。一人称視点媒介現実に関しては、ユーザの向きのみによって仮想位置が決定される。
6自由度(Six Degrees of Freedom:6DoF)は、仮想位置が向き(例えば、3次元の向きの3つの自由度)と場所(3次元の場所の3つの自由度)の両方によって決定される媒介現実を表す。一人称視点媒介現実に関しては、現実空間におけるユーザの向きとユーザの場所の両方によって仮想位置が決定される。
詳細説明
図1は、レンダリングする音響オブジェクトをユーザが選択するためのユーザインタフェースをレンダリングする方法100の例を示す図である。
ブロック102において、方法100は、3次元音響空間内の場所にそれぞれ関連付けられた音響オブジェクトを、レンダリングのためにユーザが選択するためのユーザインタフェースをレンダリングすることを含み、当該ユーザインタフェースは、音響オブジェクトを少なくとも1つの形状にマッピングし、当該形状上の音響オブジェクトを、当該形状上の一連の場所で識別し、当該形状上の場所は、識別された音響オブジェクトの関連付けられた場所とは異なる。
ブロック104において、方法100は、音響オブジェクトを選択するユーザ操作が発生したかどうかを決定する。
ブロック106において、方法100は、音響オブジェクトを選択するユーザ操作に応じて、少なくとも選択された音響オブジェクトを、3次元音響空間内で関連付けられた場所にレンダリングすることを含む。
図2Aは、複数の音響オブジェクト22を含む音響空間20の例を示す図である。各音響オブジェクト22は、3次元音響空間20内の場所24に関連付けられる。音響空間20が図示のとおりにレンダリングされる場合、各音響オブジェクト22はそれぞれ対応する場所24でレンダリングされ、空間オーディオを作り出す。
図2Bは、レンダリングする音響オブジェクト22をユーザが選択するためのユーザインタフェース200のレンダリングを示す図である。ユーザインタフェース200は、オーディオ専用ユーザインタフェースであってもよく、他の例ではオーディオビジュアルユーザインタフェースであってもよい。
ユーザインタフェース200は、(音響空間20内の)音響オブジェクト22を、(マッピングされた空間30内の)少なくとも1つの形状40に、マッピングされた音響オブジェクト32としてマッピングする。ユーザインタフェース200は音響オブジェクト22を、形状40上で、形状40上の一連の場所34で識別する。一連の場所34は、音響オブジェクト22の関連付けられた場所24とは異なる。
したがって、ある音響オブジェクト22の場所24が、マッピングされた音響オブジェクト32の場所34と同じである可能性はあるが、すべての音響オブジェクト22がそのようである可能性はない。場所24にある少なくともいくつかの音響オブジェクト22は、当該場所24とは異なる場所34にあるマッピングされた音響オブジェクト32にマッピングされる
そのため、このマッピングにより、音響オブジェクト22の分散された配置(図2A)が、形状40上のマッピングされた音響オブジェクト32の規則正しい配置(図2B)へと「集約」される。したがってユーザインタフェース200は、音響空間20とその音響オブジェクトとを1つまたは複数の形状40に集約したものを表現する。
形状40は、任意の適切な形状であってもよい。この形状は、1次元、2次元、または3次元の形状であってもよい。例えば、直線もしくは曲線、または平面であってもよい。また、三角形、円形、楕円形であってもよい。また、球体の表面またはその他の3次元形状であってもよい。いくつかの例において、最適な形状40は、音響空間20内の音響オブジェクト22の配置(図2A)に基づいて決定してもよい。例えば、音響オブジェクト22の配置内の音響オブジェクト22の場所24と、推定上の形状40上のマッピングされた音響オブジェクト32の相当する推定上の場所34との間で、最小二乗当てはめを決定してもよい。場所24と、推定上の形状40上の相当する推定上の場所34との間の距離の二乗に対して最小の総累積値を有する形状を、最適な形状として選択してもよい。
ユーザインタフェース200は、形状40に沿った場所34に、複数のマッピングされた音響オブジェクト32を有する。これらの場所34は、音響空間20内の音響オブジェクトの場所24に必ずしも対応している必要はない。ユーザインタフェース200は、各音響オブジェクト22の、音響オブジェクト特性の少なくとも1つまたは複数を示すコンテンツを用いて、形状40上の異なる場所34で音響オブジェクト22を識別してもよい。音響オブジェクト特性は、例えば、相対的な重要度、音声、音の大きさ、期間からなる群からのものである。これによって、ユーザがユーザインタフェース200において音響オブジェクト22を選択する際に情報が提供される。
ユーザインタフェース200は、マッピングされた空間30が音響空間20である音響ベースのユーザインタフェース、および/または、マッピングされた空間30が音響空間20に対応する視覚空間である視覚ベースのユーザインタフェースであってもよい。
音響ベースのユーザインタフェース200において、マッピングされた音響オブジェクト32はそれぞれ、場所34でレンダリングされた音響オブジェクトである。そのような音響オブジェクトは、選択的にのみレンダリング、すなわち、ユーザが、例えば視線を向けることによって選択する場合にのみレンダリングされてもよい。これによって、ユーザは、音響ベースのユーザインタフェース200内のマッピングされた音響オブジェクト32をサンプリングし、その後にマッピングされた音響オブジェクト32の1つを選択することが可能になる。
ユーザインタフェース200は、(音響空間20内の)音響オブジェクト22を、(マッピングされた空間30内の)少なくとも1つの形状40に、マッピングされた音響オブジェクト32としてマッピングする。ユーザは、マッピングされた音響オブジェクト32の1つを、その音響オブジェクト32および/または形状40に対する相互作用を実行することで選択104してもよい。
図3に示すとおり、方法100は、音響オブジェクト22を選択するユーザ操作104に応じて、少なくとも選択された音響オブジェクト22を、3次元音響空間20内で関連付けられた場所24にレンダリングする。これによって、音響オブジェクト22は、図2Aに示す音響空間20がレンダリングされた場合にレンダリングされるであろうように、ユーザにとって外部化された音響としてレンダリングされる。しかしながら、当然のこととして、この例示では音響オブジェクト22のみがレンダリングされることを理解されたい。レンダリングされた音響オブジェクト22は黒いアイコンとして図示され、レンダリングされていない音響オブジェクト22は白いアイコンとして図示されている。
しかしながら、他の例では、音響オブジェクトを選択するユーザ操作104に応じて、1つより多くの選択された音響オブジェクト22をレンダリングすることができる。例として、図4Aに示すとおり、方法100は、第1のユーザ操作104に応じて、音響空間20の没入的オーディオプレビュー25をレンダリングする。音響空間20は、音響オブジェクト22のセット23を含む(図4Bを参照)。プレビュー25は縮小音響空間27であり、この空間では、3次元音響空間20内のセット23のサブセット21の音響オブジェクト22が、それぞれ関連付けられた場所24にレンダリングされる。レンダリングされた音響オブジェクト22は黒いアイコンとして図示され、レンダリングされていない音響オブジェクト22は白いアイコンとして図示されている。
したがって、ユーザインタフェースの形状40の一部を選択することで、すなわち、選択された音響オブジェクト22を選択することによって、音響オブジェクトのサブセット21が選択される。サブセット21の音響オブジェクトは、形状40の該当する部分上の音響オブジェクトであってもよい。
図4Bは、方法100について、例えば図4Aからの続きを示している。方法100は、第2のユーザ操作108に応じて、セット23の音響オブジェクト22をそれぞれ、3次元音響空間20内で関連付けられた場所24にレンダリングすることで、セット23の音響オブジェクト22を含む音響空間20をレンダリングすることを含む。レンダリングされた音響オブジェクト22は黒いアイコンとして図示されている。
この例において、場所24でレンダリングされた、セット23の音響オブジェクト22は、図2Aに示す音響オブジェクトと同じ配置であることを理解されたい。他の例では、音響オブジェクト22のセット23は、より小さくてもよい。
この例において、第1のユーザ操作104はユーザ操作の最初の部分であってもよく、第2のユーザ操作108は当該ユーザ操作の範囲全体までの続きであってもよい。例えば、第1のユーザ操作104は、第1の方向におけるユーザの頭部のわずかなまたは小さな動きであってもよく、第2のユーザ操作108は、同じく第1の方向におけるユーザの頭部の大きな動きであってもよい。したがって、ユーザは、ユーザインタフェース200に向かって体を傾けることによってプレビュー25を取得し、例えば図3または図4Aのプレビュー25を確認した後で、ユーザインタフェース200に向かってさらに体を傾けることで、図4Bに示す全体のレンダリングに入ることができてもよい。
もちろん、他の例において、ユーザは、異なるユーザ操作104、108を実行して同じ効果を得ることができる。
図3に示す例のプレビュー25は、図4Aのプレビュー25の例においてサブセット21の構成要素が1つのみである場合に相当することを理解されたい。
図3、図4A、図4B、図5A、および図5Bにおいて、仮想ユーザの仮想位置は一定である。音響空間20がレンダリングされる視点は一定に維持される。他の例において、仮想ユーザの仮想位置は、プレビュー25中にユーザによって変更されてもよく、および/または、プレビューから全体レンダリング(図4B)へと遷移させるユーザ操作108を実行する際にユーザによって変更されてもよい。例えば、ユーザ操作104、108の方向によって、仮想ユーザの少なくとも仮想向きを制御してもよい。これによってユーザは、例えば、ユーザ操作104、108を定められた方法で実行するだけで、大規模なボリュメトリック(空間)音響シーンの簡潔な要約を取得して制御することができる。
図4Aおよび図4Bの例において、2つの個別の遷移が行われている。第1の遷移は、ユーザインタフェース200(図2B)から図4Aのプレビュー25へである。第2の遷移は、図4Aのプレビュー25から、すべての音響オブジェクト22をレンダリングした音響空間20全体のレンダリングへである。他の例(図5A、図5B)において、初期プレビュー25のレンダリング(図4A)と音響空間20全体のレンダリング(図4B)との間に、より詳細なプレビュー25を介した連続的な遷移があってもよい。
例えば、没入的オーディオプレビュー25は、1つまたは少数の音響オブジェクト22のみを含む縮小音響空間のレンダリングによって開始されてもよい。すなわち、サブセット21が小さい場合である。その場合、方法100は、サブセット21のサイズを徐々に大きくして、より多くの音響オブジェクト22がレンダリングされるようにして継続してもよい。レンダリングされるサブセット21への音響オブジェクトの追加は、第1のユーザ操作104の後に徐々に時間をかけて行われてもよい。その場合、音響空間20全体のレンダリングは事前に定められた期間の後に達成されるため、第2のユーザ操作108によって全体のレンダリングに到達する必要はない。他の例では、サブセット21を変化させるために、ユーザが第1のユーザ操作104を維持する必要があるようにしてもよい。他の例において、ユーザが別のユーザ操作を実行する必要があるようにしてもよい。例えば、第1のユーザ操作104を繰り返すか、または第1のユーザ操作104を繰り返し延長し、繰り返しごとにサブセット21を大きくする。
したがって、没入的オーディオプレビュー25のレンダリング中に、変更のためのユーザ相互作用に応じてサブセット21を新しいサブセット21'へと変化させてもよい。これによって、新しい縮小音響空間27'のレンダリングが行われる。このレンダリングには、音響オブジェクト22のセットの新しいサブセット21'内の音響オブジェクト22をそれぞれ、3次元音響空間20内で関連付けられた場所24にレンダリングすることが含まれる。図5Aおよび図5Bは、新しいサブセット21'の音響オブジェクト22それぞれをレンダリングすることを含む、そのような新しい縮小音響空間27'の例を示す図である。図5Aの例では、サブセット21を変化させることには、図4Aと比較して1つの音響オブジェクト22を追加することが含まれることを理解されたい。図5Aの後に実行されてもよい図5Bの例では、この例のサブセット21を変化させることには、図5Aと比較して2つの音響オブジェクト22を追加することが含まれる。
したがって、ある時点で、方法は、縮小音響シーン27のレンダリングを含み、このレンダリングには、音響オブジェクト22のセットのサブセット21内の音響オブジェクト22をそれぞれ、3次元音響空間30内で関連付けられた場所24にレンダリングすることが含まれ(図4A)、その後のある時点で、方法100は、新しい縮小音響シーン27'のレンダリングを含み、このレンダリングには、音響オブジェクト22のセットの新しいサブセット21'内の音響オブジェクト22をそれぞれ、3次元空音響空間20内で関連付けられた場所24にレンダリングすることが含まれる。
音響オブジェクトを新しいサブセット21'に追加する順序は、任意の適切な基準に基づいてもよい。
例えば、プレビュー25としての新しい縮小音響シーン27'のレンダリングは、新しい名目上のユーザ場所および/またはユーザの聴力の向上(聴こえる範囲の拡大)に基づいてもよい。ユーザに関連付けられた名目上のボリューム(空間)は、新しい音響オブジェクト22を包含するようにサイズが増大および/または場所が変更される。これらの新しい音響オブジェクト22は、この名目上のボリューム(空間)に包含されると、新しいサブセット21'内に含まれる。必ずしもすべてではないが、一例において、図4Aに示すプレビュー25としての縮小音響空間27のレンダリングは、ユーザおよび/またはユーザの場所への距離によって決定される新しいサブセット21'に基づく。距離は固定であっても可変であってもよく、場所も固定であっても可変であってもよい。音響オブジェクトを新しいサブセット21'に追加する順序は、ユーザの動き(名目上のユーザ場所の変化)のシミュレーションに基づいてもよい。
代替として、または追加として、音響オブジェクト22は、ユーザへの距離ではなく、例えば重要度などの他の基準に基づいて、新しいサブセット21'に含まれてもよい。
図4Aにおいて、サブセット21内の音響オブジェクト22は必ずしも、選択された音響オブジェクト22の場所24に最も近い場所24を有する音響オブジェクト22である必要はない。図5Aおよび図5Bにおいて、新しいサブセット21'の新しく追加された音響オブジェクト22は必ずしも、選択された音響オブジェクト22の場所24に最も近い場所24を有する、サブセット21内に存在しない音響オブジェクト22である必要はない。
図6は、ユーザインタフェース200の視覚的部分を提示する、ビジュアルユーザインタフェース202の例を示す図である。視覚的/ビジュアルとは、インタフェース、オブジェクト、または空間が、ユーザから可視であるように表示されることを意味する。この例では、マッピングされた空間30は仮想視覚空間60である。マッピングされた音響オブジェクト32はそれぞれ、ビジュアルユーザインタフェース202内の仮想視覚オブジェクトとしてレンダリングされる。また、必ずしもすべてではないが、この例では、形状40も仮想視覚空間60内の仮想視覚オブジェクトとして視覚的に表現される。
ユーザは、マッピングされた音響オブジェクト32の1つを、そのマッピングされた音響オブジェクト32を表現する仮想視覚オブジェクトに対する相互作用を実行することで選択104してもよい。このような相互作用は既知であり、例えば、その仮想視覚オブジェクトをタッチすることや選択することが含まれうる。
ユーザインタフェース200は、集約されたビジュアルプレビューインタフェース202であってもよい。集約されたビジュアルプレビューインタフェース202は、音響オブジェクト22を、少なくとも1つの形状40にマッピングし、形状40上の音響オブジェクト22を、形状40上の一連の場所34で、マッピングされた音響オブジェクト32として視覚的に識別する。形状40上の場所34は、識別された音響オブジェクト22の関連付けられた場所24とは異なる。形状40は、可視形式でユーザインタフェース202に表示されてもよく、ユーザインタフェース202は、形状40上のマッピングされた音響オブジェクト32を視覚的に識別してもよい。ユーザインタフェース202は、音響オブジェクトのセット内の音響オブジェクト22の少なくともいくつかを、1つまたは複数の形状40上の異なる場所34において視覚的に識別してもよい。
音響オブジェクト22の場所は、音響オブジェクトのセット内の当該音響オブジェクトの重要度に基づいてもよい。例えば、最も重要な音響オブジェクト22を形状40の中央に配置してもよく、最も重要な音響オブジェクト(単数または複数)を取り囲む音響オブジェクト22を形状40の端から端まで、例えば左から右へと配置してもよい。いくつかの例において、最も関連性の低い音響オブジェクト22はユーザインタフェース40から除外される。ボリュメトリックコンテンツに入る場所(仮想向き)は、ユーザ操作104の対象となる箇所を取り囲む場所における複数の音響オブジェクト22の中央点によって決定されてもよい。
ユーザインタフェース200の種類に関係なく、ユーザは、複数の異なる種類のユーザ操作104、108を実行してもよい。前述のとおり、適切な相互作用の1つは、ユーザがユーザインタフェース200に向かって体を傾けることである。別の適切な相互作用は、ユーザが形状40をつかむ動作を行い、形状40をユーザのほうに引き寄せることである。つかむ動作を用いる場合、ユーザは、両手でつかむことで、縮小音響シーン27にレンダリングされる音響オブジェクト22を選択することができてもよい。例えば、ユーザが伸ばした両手の間にあるマッピングされた音響オブジェクト32を、縮小音響シーン27としてレンダリングされるサブセット21の相当する音響オブジェクト22を識別するための基準として用いてもよい。
したがって、第1のユーザ操作104によって、音響オブジェクト22のサブセット21を選択できる。第1のサブセット21は、例えば、少なくとも、ユーザインタフェース200の形状40に対する第1のユーザ操作104の第1の場所と、その第1の場所に隣接する複数のマッピングされた音響オブジェクト32の配置と、に基づく。
いくつかの例において、ユーザは、形状40と相互作用することでその形状40を再配置またはサイズ変更することができてもよい。
図7は、複数の形状40を含むユーザインタフェース200の例を示す図である。マッピングされた音響オブジェクト32は、第1の形状40および第2の形状40の上に配置される。ユーザインタフェース200は、一方の形状40上の異なる場所で、音響オブジェクト22のセット23内のいくつかの音響オブジェクトを識別し、他方の形状40上の異なる場所で、当該セット内の別の音響オブジェクトを識別する。しかしながら、前述のとおり、マッピングされた空間30内のマッピングされた音響オブジェクト32の場所34は、音響空間20内の相当する音響オブジェクト22の場所とは異なる。
マッピングされた音響オブジェクト32の場所は、その重要度に基づいてもよい。例えば、図6の例において、1つの形状40上のマッピングされた音響オブジェクト32の場所34は、そのマッピングされた音響オブジェクト32を作成するためにマッピングされた音響オブジェクト22の重要度に基づいてもよい。例えば、最も重要な音響オブジェクトに相当するマッピングされた音響オブジェクト32を中央の場所34に有してもよい。
図7の例において、一方の形状40は、より重要度の高い音響オブジェクト22に関連付けられ、他方の形状40は、より重要度の低いまたは背景の音響オブジェクト22に関連付けられてもよい。
一実施形態において、いずれの形状40の音響オブジェクトも、同じ方法でユーザによりプレビューされる。ユーザインタフェース200内の形状40と40との間の距離は、形状40に関連付けられた音響オブジェクトと形状40に関連付けられた音響オブジェクト22との混合比を定めるために用いられてもよい。
ユーザインタフェース200のレンダリング中であって、第1のユーザ操作104の前に、方法は、セットのサブセット21の音響オブジェクト22のすべてではなく、ゼロ、1つ、または複数を、空間場所なしで3次元音響空間20にレンダリングすることを含んでもよい。すなわち、ユーザインタフェース200が提示されているとき、音響オブジェクトのすべてではなくいくつかを聴くことはできるが、空間オーディオとしてではないようにしてもよい。したがって、ユーザは、空間の態様なしでオーディオコンテンツをサンプリングできるようにしてもよい。したがって、図3と図4A(および図5Aと図5B)に示すプレビュー25は、ユーザインタフェース200のレンダリング中には存在しなかった空間次元を音響オブジェクト22のレンダリングに提供する。
図4Bと関連して、第2のユーザ操作108の後、ユーザインタフェース200はレンダリングされなくなることに留意されたい。実際、図3、図4A、図5A、および図5Bに示す例において、第1のユーザ操作104の後は、ユーザインタフェース200はレンダリングされなくなる。
第1のユーザ操作104によって実行された動作は、取り消されてもよい。この取消は、第1のユーザ操作104が停止された場合に自動的に実行されても(取消は、直ちに開始されても、タイムアウト期間後に開始されてもよい)、および/または、第1のユーザ操作104が取り消された場合に自動的に実行されてもよい。
第2のユーザ操作108によって実行された動作は、取り消されてもよい。この取消は、第1のユーザ操作104が停止された場合に自動的に実行されても(取消は、直ちに開始されても、タイムアウト期間後に開始されてもよい)、および/または、第1のユーザ操作104が取り消された場合に自動的に実行されてもよい。
図8A、図8B、図9A、図9B、図10A、および図10Bは、媒介現実のレンダリングがある状況への方法100の適用を示す図である。この状況において、媒介現実は、例えば、拡張現実や仮想現実などの媒介現実を達成するための、媒介現実のレンダリングを意味する。これらの例において、媒介現実は一人称視点媒介現実である。これはユーザインタラクティブであってもそうでなくてもよい。また、3DoFまたは6DoFであってもよい。
図8A、図9A、および図10Aは、第1の時間における現実空間50、音響空間20、および視覚空間60を示す図である。現実空間50内のユーザ51は、場所52および向き53を有する。この場所は3次元の場所であり、この向きは3次元の向きである。
3DoFの媒介現実において、ユーザ50の向き53は、仮想ユーザ71の仮想向き73を制御する。向き52と仮想向き73とは、向き52が変わると仮想向き73も同様に変わるように対応付けられている。仮想ユーザ71の仮想向き73は、仮想視野74と組み合わされて、仮想視覚空間60内の仮想視覚シーン75を画定してもよい。いくつかの例において、これは仮想音響シーン76も画定してもよい。仮想視覚シーン75は、仮想視覚空間60のユーザに表示される部分である。仮想音響シーン76は、仮想音響空間20のユーザに表示される部分である。仮想音響空間20と仮想視覚空間60とは、仮想音響空間20内の位置が仮想視覚空間60内の位置に相当するという点で、対応している。
6DoFの媒介現実の例では、3DoFの例で説明した状況に加えて、ユーザ51の場所52の移動によって、レンダリングされた仮想音響シーン76と表示された仮想視覚シーン75とを変更することができる。例えば、ユーザ51の場所52と仮想ユーザ71の仮想場所72とをマッピングしてもよい。ユーザ51の場所52を変更すると、仮想ユーザ71の仮想場所72も対応して変更される。仮想ユーザ71の仮想場所72を変更すると、レンダリングされた音響シーン76が変更され、レンダリングされた視覚シーン75も変更される。
このことは、図8B、図9B、および図10Bから理解されるであろう。これらの図は、ユーザ51の場所52および向き53の変更の結果を、レンダリングされた音響シーン76(図9B)およびレンダリングされた視覚シーン75(図10B)についてそれぞれ示している。
方法100の実施形態は、様々な状況に適用することができる。例えば、選択的な産業用通信の状況における、オーディオの選択的なレンダリングに有用でありうる。ユーザは、例えば異なる方向を見ることにより、様々な操作を実行して、聴くものや聴かないものを制御することができる。
図11A、図11B、および図11Cは、音響オブジェクト22を異なるグループにグループ化し、各グループをユーザインタフェース200の異なる形状40にマッピングする例を示す図である。
図11Aにおいて、音響オブジェクト22のグループは、音響空間20内の任意の点からの各音響オブジェクト22の相対距離に基づく。第1のグループ内の音響オブジェクト22は最も遠くにあり(背景)、第1の形状40上のマッピングされた音響オブジェクト32にマッピングされる。第2のグループ内の音響オブジェクト22は最も遠くでも最も近くでもなく(中景)、第2の形状40上のマッピングされた音響オブジェクト32にマッピングされる。第3のグループ内の音響オブジェクト22は最も近くにあり(前景)、第3の形状40上のマッピングされた音響オブジェクト32にマッピングされる。
図11Bの例において、音響オブジェクト22は、相対距離の測定値、この場合は音響空間20内のそれぞれの高さに基づいてグループ化される。第1のグループ内の音響オブジェクト22は最も高く、第1の形状40上のマッピングされた音響オブジェクト32にマッピングされる。第2のグループ内の音響オブジェクト22は次に高く、第2の形状40上のマッピングされた音響オブジェクト32にマッピングされる。第3のグループ内の音響オブジェクト22は最も低く、第3の形状40上のマッピングされた音響オブジェクト32にマッピングされる。
図11Cの例において、音響オブジェクト22はオーディオコンテンツに基づいてグループ化される。この例では、音響オブジェクトの第1のセットは音楽に関係するとして検出され、オーケストラとしてグループ化され、形状40上のマッピングされた音響オブジェクト32にマッピングされる。他の音響オブジェクトは互いに話をしている人としてグループ化され、形状40上のマッピングされた音響オブジェクト32にマッピングされる。
前述の例には多くの利点がある。例えば、新しいユーザに、ボリュメトリック(空間)音響空間20を単純化する簡易なユーザインタフェース200が提示され、音響空間20をより容易に操作することが可能になる。方法100により、コンテンツ作成者は、空間オーディオコンテンツの異なる部分を素早く聴くことができるようになる。方法100は、媒介現実コンテンツを閲覧またはレンダリングするための他のサードパーティアプリケーションに組み込まれてもよい。
ユーザインタフェース200は、複雑性を低減し、要約を提示する。これによって、ユーザは、音響空間20の特定の部分を、音響オブジェクトの元の空間分布(図4B)で詳細に体験したいかどうかを、プレビュー(図4A、図3)から容易に決定することができる。
一例において、ユーザは、ユーザ操作104に応じて音響空間20(図4A、図3)をプレビューしている。このプレビューにおいて、ユーザは、(マッピングされた空間30内のユーザインタフェース200上の場所34とは異なる)適切な場所24にある、第1のサブセット21の音響オブジェクト22を聴く。したがって、ユーザ操作104により、第1のサブセット21の音響オブジェクト22はユーザの頭部を取り囲み始める(図4A、図3)。ユーザは、実際のボリュメトリック(空間)音響シーンがその場所でどのように聴こえるかについての詳細なプレビュー(図4A)を聴くことができる。ユーザが続けてユーザ操作108を実行すると、その仮想場所(図4B)において完全なボリュメトリック(空間)オーディオ体験を得る。
コントローラ92の実装は、コントローラ回路構成としてなされてもよい。コントローラ92は、ハードウェアのみとして実装されてもよく、特定の側面をファームウェアのみを含めソフトウェアとして有してもよく、またはハードウェアとソフトウェア(ファームウェアを含む)との組合せとすることもできる。
図12Aに示されているとおり、コントローラ92は、ハードウェアの機能性を使用可能にする命令を使用して実装されてもよい。例えばコントローラ92は、汎用または専用プロセッサ94においてコンピュータプログラム98の実行可能な命令を使用して実装されてもよい。これらの命令は、そのようなプロセッサ94により実行されるよう、コンピュータ可読記憶媒体(ディスク、メモリなど)に記憶されてもよい。
プロセッサ94は、メモリ96に対し読取りおよび書込みを行うように構成される。プロセッサ94は、出力インタフェースと入力インタフェースを備えてもよい。データおよび/またはコマンドは、プロセッサ94によって出力インタフェースを介して出力され、入力インタフェースを介してプロセッサ94に入力される。
メモリ96は、プロセッサ94にロードされると装置90の動作を制御するコンピュータプログラム命令(コンピュータプログラムコード)を備えるコンピュータプログラム98を記憶する。コンピュータプログラム98のコンピュータプログラム命令は、装置が図1から図11に示されている方法を実行できるようにするロジックおよびルーチンを提供する。プロセッサ94は、メモリ96を読み取ることによってコンピュータプログラム98をロードし実行することができる。
したがって、装置90は、少なくとも1つのプロセッサ94と、コンピュータプログラムコードを備えた少なくとも1つのメモリ96と、を備え、少なくとも1つのメモリ96およびコンピュータプログラムコードは、少なくとも1つのプロセッサ94とともに装置90に少なくとも、3次元音響空間20内の場所24にそれぞれ関連付けられた音響オブジェクト22を、レンダリングのためにユーザが選択するためのユーザインタフェース200をレンダリングすることと、音響オブジェクト22を選択するユーザ操作104に応じて、少なくとも選択された音響オブジェクト22を、3次元音響空間20内で関連付けられた場所24にレンダリングすることと、を実行させるように構成され、ユーザインタフェース200は、音響オブジェクト22を、少なくとも1つの形状40に、マッピングされた音響オブジェクト32としてマッピングし、音響オブジェクト22を、形状40上の一連の場所34で識別し、形状40上の場所34は、識別された音響オブジェクト22の関連付けられた場所24とは異なる。
図12Bに示されているとおり、コンピュータプログラム98は、任意の適切な配信メカニズム99を介して装置90に到達してもよい。配信メカニズム99は、例えば、非一時的コンピュータ可読記憶媒体、コンピュータプログラム製品、メモリデバイス、コンパクトディスク読取り専用メモリ(Compact Disc Read-Only Memory:CD−ROM)またはデジタルバーサタイルディスク(Digital Versatile Disc:DVD)などの記録媒体、コンピュータプログラム98を有形に体現する製品であってもよい。配信メカニズムは、コンピュータプログラム98を確実に伝送するよう構成された信号であってもよい。装置90は、コンピュータプログラム98をコンピュータデータ信号として伝搬または送信してもよい。
メモリ96は、単一のコンポーネント/回路構成として示されているが、1つまたは複数の別々のコンポーネント/回路構成として実装されてもよく、その一部または全部が一体型/取り外し可能であってもよく、さらに/または永久/半永久/動的/キャッシュの記憶を提供してもよい。
プロセッサ94は、単一のコンポーネント/回路構成として示されているが、1つまたは複数の別々のコンポーネント/回路構成として実装されてもよく、その一部または全部が一体型/取り外し可能であってもよい。プロセッサ94は、シングルコアまたはマルチコアプロセッサであってもよい。
「コンピュータ可読記憶媒体」、「コンピュータプログラム製品」、「有形に体現されたコンピュータプログラム」など、または「コントローラ」、「コンピュータ」、「プロセッサ」などへの言及は、シングル/マルチプロセッサアーキテクチャおよび順次(ノイマン型)/並列アーキテクチャなどの種々のアーキテクチャを有するコンピュータのみでなく、フィールドプログラマブルゲートアレイ(Field-Programmable Gate Array:FPGA)、特定用途向け集積回路(Application Specific Circuit:ASIC)、信号処理デバイス、およびその他の処理回路構成などの特殊回路も含むと理解すべきである。コンピュータプログラム、命令、コードなどへの言及は、プログラマブルプロセッサのソフトウェア、または例えばプロセッサのための命令であるか、固定機能デバイス、ゲートアレイ、もしくはプログラマブル論理デバイスなどの構成設定であるかを問わない、ハードウェアデバイスのプログラマブルコンテンツなどのファームウェア、を含むと理解されるべきである。
本願において使用される「回路構成」という用語は、以下のすべてを指す:
(a)ハードウェアのみの回路実装(アナログおよび/またはデジタル回路構成のみでの実装など)、
(b)回路とソフトウェア(および/またはファームウェア)との組合せ、例えば(該当する場合)、(i)プロセッサ(単数または複数)の組合せ、または(ii)携帯電話またはサーバなどの装置に様々な機能を実行させるべく協働する、プロセッサ(単数または複数)/ソフトウェア(デジタル信号プロセッサ(単数または複数)を含む)、ソフトウェア、およびメモリ(単数または複数)の一部、
(c)回路、例えばソフトウェアまたはファームウェアが物理的に存在しなくても動作のためにソフトウェアまたはファームウェアを必要とするマイクロプロセッサ(単数または複数)またはマイクロプロセッサ(単数または複数)の一部。
「回路構成」のこの定義は、任意の請求項を含め本願におけるこの用語の使用すべてに当てはまる。さらなる例として、本願において使用される「回路構成」という用語は、プロセッサ(または複数のプロセッサ)のみ、またはプロセッサの一部およびその(もしくはそれらの)付随するソフトウェアおよび/またはファームウェアの実装も対象とするであろう。「回路構成」という用語は、該当する場合、例えば特定の請求項の要素、携帯電話のベースバンド集積回路もしくはアプリケーションプロセッサ集積回路、またはサーバ、セルラネットワークデバイス、もしくはその他ネットワークデバイス内の同様の集積回路も対象とするであろう。
図1から図11に示されたブロックは、方法のステップおよび/またはコンピュータプログラム98のコードのセクションを表現しうる。示されたブロックの特定の順序は、それらのブロックに対して必要な順序または好ましい順序が存在することを必ずしも意味するものではなく、ブロックの順序および配置は変更されてもよい。さらに、いくつかのブロックを省略することも可能である。
構造的特徴が記載されている場合、その構造的特徴は、構造的特徴の機能のうちの1つまたは複数を実行する手段で置き換えられてもよく、その1つまたは複数の機能が明示的に記載されているか黙示的に記載されているかを問わない。
本願に記載する「モジュール」という用語は、ユニットまたは装置であって、エンドメーカーやユーザによって追加される部品/コンポーネントを除いたものを表す。装置90、コントローラ92、またはコンピュータプログラム98は、モジュールであってもよい。
本文書内の「含む、備える(comprise)」という用語は、限定的な意味ではなく、非限定的な意味で使用される。したがって、「Yを含むX」に関してはすべて、「Xは1つのYを含んでもよい」と「複数のYを含んでもよい」の両方を意味する。限定的な意味を有する「含む、備える(comprise)」を意図する場合は、「〜を1つのみ含む」などと言及することにより、文脈内で明確にするであろう。
本発明の簡単な説明では、様々な例について言及した。例に関する特徴または機能の説明は、これらの特徴または機能が、その例に存在することを示す。本明細書中で「例(example)」、「例えば(for example)」、「〜てもよい、〜できる、〜場合がある(may)」として明確に言及されている場合でも、明確に言及されていない場合でも、このような特徴および機能が、少なくとも記載された例には存在することを意味する。すなわち、例として記載されている、記載されていないにかかわらず、これら特徴および機能が、他のいくつかの例またはすべての例に存在する可能性があり、また必ずしもそうではないことを意味する。このように、「例」、「例えば」、「〜てもよい、〜できる、〜の場合がある」は、ある例示群における特定の例であることを指す。上記特定の例の特性は、その特定の例のみの特性、上記例示群の特性、または上記例示群に属する一群の特性である場合がある。ここで、この上記例示群に属する一群は、上記例示群に属する全例示ではなく、一部の例示を含む。したがって、黙示に開示されているのは、一例を参照して記載されたが別の例を参照しては記載されなかった特徴は、可能であればその別の例において使用できるが、その別の例で必ずしも使用される必要はないということである。
本発明の実施形態を、様々な例を参照して上記の各段落に記載したが、請求される本発明の範囲から逸脱することなく、与えられた例に対して変更を加えうることを理解されたい。
先行する記載において説明された特徴は、明示的に記載された組合せ以外の組合せで用いられてもよい。
特定の特徴を参照して種々の機能を記述してきたが、こうした機能は、記述の有無を問わずその他の特徴によって実行される場合がある。
特定の実施形態を参照して種々の特徴を記述してきたが、こうした特徴は、記述の有無を問わずその他の実施形態にも含まれる場合がある。
前述のように本明細書において、とりわけ重要であると考えられる本発明の特徴に注目を集めるように努めてきた。しかし、前述の記載にて言及され、さらに/あるいは添付の図面に示された特許されうるすべての特徴およびそれらの組合せに対して、そうした特徴が特段強調されていたかどうかにかかわらず、本出願人はその保護を求めるものである点を理解されたい。

Claims (13)

  1. 3次元音響空間内の場所にそれぞれ関連付けられた音響オブジェクトを、レンダリングのためにユーザが選択するためのユーザインタフェースをレンダリングすることと、
    前記ユーザインフェース内の音響オブジェクトを選択するユーザ操作に応じて、少なくとも前記選択された音響オブジェクトに対応する音響オブジェクトを、前記3次元音響空間内関連付けられた場所にレンダリングすることと、
    を含む方法であって、
    前記ユーザインタフェースは、前記3次元音響空間内の音響オブジェクトを、前記ユーザインタフェース内の少なくとも1つの形状上の音響オブジェクトにマッピングし、前記3次元音響空間内の音響オブジェクトを、前記形状上の場所で識別し、前記形状上の場所は、前記識別された前記3次元音響空間内の音響オブジェクトが前記3次元音響空間内で関連付けられている場所とは異なる、方法。
  2. 前記ユーザ操作は第1及び第2のユーザ操作を含み、
    前記第1のユーザ操作に応じて、前記3次元音響空間の音響シーンであって、複数の音響オブジェクトのセット含む音響シーンのプレビューをレンダリングし、
    前記第2のユーザ操作に応じて、前記プレビューに対応する音響シーンをレンダリングする、
    請求項に記載の方法。
  3. 前記第1のユーザ操作は、前記形状一部を選択することを含む、請求項に記載の方法。
  4. 前記セットは、少なくとも、前記ユーザインタフェースの前記形状に対する前記第1のユーザ操作の第1の場所と、前記ユーザインフェース内の音響オブジェクトであって前記第1の場所に隣接する音響オブジェクトの配置と、に基づく、
    請求項2又は3に記載の方法。
  5. 前記プレビューのレンダリング中に、変更のためのユーザ相互作用に応じて前記セットを新しいセットへと変化させことを含む、
    請求項2から4のいずれかに記載の方法。
  6. 前記第2のユーザ操作の後、前記ユーザインタフェースをレンダリングしなくなる、
    請求項からのいずれかに記載の方法。
  7. 前記第2のユーザ操作の後、前記レンダリングした視覚シーン、少なくとも前記ユーザの向きの変更に基づいて、自動的に変化させることを含む、
    請求項からのいずれかに記載の方法。
  8. 前記ユーザインタフェースは、前記3次元音響空間内の音響オブジェクトの特性用いて、前記形状上の場所音響オブジェクトを識別し、
    前記特性は、相対的な重要度、音声、音の大きさ、期間の少なくともいずれかに関連する
    請求項1からのいずれかに記載の方法。
  9. 前記形状上の前記場所は、前記場所に関連付けられている前記3次元音響空間内の音響オブジェクトの重要度に関連する
    請求項1からのいずれかに記載の方法。
  10. 前記ユーザインタフェースは、集約されたビジュアルプレビューユーザインタフェースであり、前記集約されたビジュアルプレビューユーザインタフェースは、前記3次元音響空間内の複数の音響オブジェクトを前記ユーザインタフェース内の少なくとも1つの形状にマッピングし、前記複数の音響オブジェクトを、前記形状上の一連の場所で視覚的に識別し、前記形状上の場所は、前記複数の音響オブジェクトが前記3次元音響空間内で関連付けられている場所とは異なる、
    請求項1からのいずれかに記載の方法。
  11. 前記形状は、可視形式で前記ユーザインタフェースに表示され、前記ユーザインタフェースは、前記形状上の音響オブジェクトを視覚的に識別する、
    請求項1から10のいずれかに記載の方法。
  12. 処理手段及び記憶手段を備える装置であって、前記記憶手段はプログラム命令を格納し、前記プログラム命令は、前記処理手段に実行されると、前記装置に、請求項1から11のいずれかに記載の方法を遂行させるように構成される、装置。
  13. 装置の処理手段に実行されると、前記装置に、請求項1から11のいずれかに記載の方法を遂行させるように構成されるプログラム命令を備える、コンピュータプログラム。
JP2018209328A 2017-11-27 2018-11-07 レンダリングする音響オブジェクトをユーザが選択するためのユーザインタフェース、および/またはレンダリングする音響オブジェクトをユーザが選択するためのユーザインタフェースをレンダリングする方法 Expired - Fee Related JP6670361B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP17203771.5A EP3489821A1 (en) 2017-11-27 2017-11-27 A user interface for user selection of sound objects for rendering, and/or a method for rendering a user interface for user selection of sound objects for rendering
EP17203771.5 2017-11-27

Publications (2)

Publication Number Publication Date
JP2019097162A JP2019097162A (ja) 2019-06-20
JP6670361B2 true JP6670361B2 (ja) 2020-03-18

Family

ID=60480215

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018209328A Expired - Fee Related JP6670361B2 (ja) 2017-11-27 2018-11-07 レンダリングする音響オブジェクトをユーザが選択するためのユーザインタフェース、および/またはレンダリングする音響オブジェクトをユーザが選択するためのユーザインタフェースをレンダリングする方法

Country Status (3)

Country Link
US (1) US10567902B2 (ja)
EP (1) EP3489821A1 (ja)
JP (1) JP6670361B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10812928B1 (en) * 2019-08-12 2020-10-20 Facebook Technologies, Llc Audio service design for operating systems
US11069091B2 (en) * 2019-08-19 2021-07-20 Patrick S. Piemonte Systems and methods for presentation of and interaction with immersive content
CN113467603B (zh) * 2020-03-31 2024-03-08 抖音视界有限公司 音频处理方法、装置、可读介质及电子设备
JP2022083445A (ja) * 2020-11-24 2022-06-03 ネイバー コーポレーション ユーザカスタム型臨場感を実現するためのオーディオコンテンツを製作するコンピュータシステムおよびその方法
US11930348B2 (en) * 2020-11-24 2024-03-12 Naver Corporation Computer system for realizing customized being-there in association with audio and method thereof
KR102500694B1 (ko) * 2020-11-24 2023-02-16 네이버 주식회사 사용자 맞춤형 현장감 실현을 위한 오디오 콘텐츠를 제작하는 컴퓨터 시스템 및 그의 방법

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2374772B (en) * 2001-01-29 2004-12-29 Hewlett Packard Co Audio user interface
JP4134794B2 (ja) * 2003-04-07 2008-08-20 ヤマハ株式会社 音場制御装置
US7563168B2 (en) * 2004-02-13 2009-07-21 Texas Instruments Incorporated Audio effect rendering based on graphic polygons
KR100739723B1 (ko) * 2005-07-19 2007-07-13 삼성전자주식회사 오디오 썸네일 기능을 지원하는 오디오 재생 방법 및 장치
US8923995B2 (en) * 2009-12-22 2014-12-30 Apple Inc. Directional audio interface for portable media device
US8755432B2 (en) * 2010-06-30 2014-06-17 Warner Bros. Entertainment Inc. Method and apparatus for generating 3D audio positioning using dynamically optimized audio 3D space perception cues
WO2012120810A1 (ja) * 2011-03-08 2012-09-13 パナソニック株式会社 音声制御装置および音声制御方法
US9754595B2 (en) * 2011-06-09 2017-09-05 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding 3-dimensional audio signal
JP5825176B2 (ja) * 2012-03-29 2015-12-02 富士通株式会社 携帯端末、音源位置制御方法および音源位置制御プログラム
JP5748078B2 (ja) * 2013-07-26 2015-07-15 ブラザー工業株式会社 楽曲演奏装置及び楽曲演奏プログラム
US10027994B2 (en) * 2016-03-23 2018-07-17 Dts, Inc. Interactive audio metadata handling
EP3232689B1 (en) * 2016-04-13 2020-05-06 Nokia Technologies Oy Control of audio rendering
EP3236363A1 (en) 2016-04-18 2017-10-25 Nokia Technologies Oy Content search
KR102465227B1 (ko) * 2016-05-30 2022-11-10 소니그룹주식회사 영상 음향 처리 장치 및 방법, 및 프로그램이 저장된 컴퓨터 판독 가능한 기록 매체

Also Published As

Publication number Publication date
EP3489821A1 (en) 2019-05-29
US20190166446A1 (en) 2019-05-30
US10567902B2 (en) 2020-02-18
JP2019097162A (ja) 2019-06-20

Similar Documents

Publication Publication Date Title
JP6670361B2 (ja) レンダリングする音響オブジェクトをユーザが選択するためのユーザインタフェース、および/またはレンダリングする音響オブジェクトをユーザが選択するためのユーザインタフェースをレンダリングする方法
CN110121695B (zh) 虚拟现实领域中的装置及相关联的方法
CN111052770B (zh) 空间音频下混频的方法及系统
WO2017182703A1 (en) An apparatus and associated methods
EP3343348A1 (en) An apparatus and associated methods
US11200739B2 (en) Virtual scene
TW201928945A (zh) 音訊場景處理技術
US11516615B2 (en) Audio processing
CN111512371B (zh) 用于所捕获的空间音频内容的呈现的装置和相关方法
US20220171593A1 (en) An apparatus, method, computer program or system for indicating audibility of audio content rendered in a virtual space
US20230077102A1 (en) Virtual Scene
US10535179B2 (en) Audio processing
CN113614710A (zh) 用于呈现数据的呈现的设备和相关联的方法
CN112912822A (zh) 在混合现实环境中控制支持音频的连接设备的系统
US11449192B2 (en) Apparatus, method, computer program for enabling access to mediated reality content by a remote user
KR20220160638A (ko) 오디오 장면을 위한 라우드니스 조정의 시그널링
CN116391171A (zh) 动态改变音频特性

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200228

R150 Certificate of patent or registration of utility model

Ref document number: 6670361

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees