JP6670361B2 - レンダリングする音響オブジェクトをユーザが選択するためのユーザインタフェース、および/またはレンダリングする音響オブジェクトをユーザが選択するためのユーザインタフェースをレンダリングする方法 - Google Patents
レンダリングする音響オブジェクトをユーザが選択するためのユーザインタフェース、および/またはレンダリングする音響オブジェクトをユーザが選択するためのユーザインタフェースをレンダリングする方法 Download PDFInfo
- Publication number
- JP6670361B2 JP6670361B2 JP2018209328A JP2018209328A JP6670361B2 JP 6670361 B2 JP6670361 B2 JP 6670361B2 JP 2018209328 A JP2018209328 A JP 2018209328A JP 2018209328 A JP2018209328 A JP 2018209328A JP 6670361 B2 JP6670361 B2 JP 6670361B2
- Authority
- JP
- Japan
- Prior art keywords
- acoustic
- user
- user interface
- location
- shape
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000009877 rendering Methods 0.000 title claims description 88
- 238000000034 method Methods 0.000 title claims description 45
- 230000000007 visual effect Effects 0.000 claims description 67
- 238000004590 computer program Methods 0.000 claims description 24
- 230000004044 response Effects 0.000 claims description 16
- 230000008859 change Effects 0.000 claims description 9
- 230000003993 interaction Effects 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 25
- 230000003190 augmentative effect Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 230000001404 mediated effect Effects 0.000 description 9
- 230000002452 interceptive effect Effects 0.000 description 8
- 230000007704 transition Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- ZYXYTGQFPZEUFX-UHFFFAOYSA-N benzpyrimoxan Chemical compound O1C(OCCC1)C=1C(=NC=NC=1)OCC1=CC=C(C=C1)C(F)(F)F ZYXYTGQFPZEUFX-UHFFFAOYSA-N 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/002—Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/008—Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/305—Electronic adaptation of stereophonic audio signals to reverberation of the listening space
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
Description
「仮想視覚シーン」は、仮想視覚空間内の特定の視点(位置)から見た仮想視覚空間の表現を指す。
「仮想視覚オブジェクト」は、仮想視覚シーン内の可視の仮想オブジェクトである。
「音響シーン」(または「仮想音響シーン」)は、音響空間内の特定の視点(位置)から聴いた音響空間の表現を指す。
「音響オブジェクト」は、音響空間内に配置されうる音源を指す。音源オブジェクトは、仮想視覚空間内のオブジェクトに関連付けられた音源とは対照的に、音響空間内の音源を表す。録音された音響オブジェクトは、特定のマイクまたは場所で録音された音響を表す。レンダリングされた音響オブジェクトは、特定の場所からレンダリングされた音響を表す。
「仮想シーン」は、仮想視覚シーンを意味する場合も、音響シーンを意味する場合も、仮想視覚シーンと対応する音響シーンとの組合せを意味する場合もある。
「仮想オブジェクト」は、仮想シーン内のオブジェクトであり、人工仮想オブジェクト(例えば、コンピュータが生成した仮想オブジェクト)や、ライブの、または記録された現実空間内の実際のオブジェクトの画像でありうる。仮想オブジェクトは、音響オブジェクトおよび/または仮想視覚オブジェクトでありうる。
「仮想位置」は、仮想空間内の位置である。仮想位置は、仮想場所および/または仮想向きを用いて定義されうる。仮想位置は、移動可能な「視点」とみなされうる。
「対応」または「対応する」は、音響シーンおよび仮想視覚シーン(または視覚シーン)と関連して用いられる場合、音響空間と仮想視覚空間(または視覚シーン)とが対応しており、音響シーンを定める視点を有する概念的(仮想)リスナーと、仮想視覚シーン(または視覚シーン)を定める視点を有する概念的(仮想)ビューアとが、同じ場所に同じ向きでおり、すなわち、当該リスナーと当該ビューアの視点は同じ(同じ仮想位置)であることを意味する。
「現実シーン」は、現実空間内の特定の視点(位置)からの現実空間の表現を指す。
「現実視覚シーン」は、現実空間内の特定の現実の視点(位置)から見た現実空間の視覚表現を指す。
本明細書における「拡張現実」は、媒介現実の一形式を指し、ユーザは、部分的な人工環境(仮想空間)を、装置によってユーザに対してレンダリングされた1つまたは複数の視覚またはオーディオ要素によって補足された、物理的現実環境(現実空間)の現実シーンを含む仮想シーンとして経験する。拡張現実という用語は、複合現実またはハイブリッドリアリティを意味し、(現実に対する)仮想の度合いや媒介の度合いを必ずしも意味するものではない。
本明細書における「仮想現実」は、媒介現実の一形式を指し、ユーザは、完全な人工環境(仮想視覚空間)を、装置によってユーザに対して表示された仮想シーンとして経験する。
「媒介現実コンテンツ」は、ユーザが、完全または部分的な人工環境(仮想空間)を仮想シーンとして、例えば視覚的に経験できるようにするコンテンツである。媒介現実コンテンツは、ビデオゲームなどのインタラクティブコンテンツや、動画などの非インタラクティブコンテンツを含むことができる。
「拡張現実コンテンツ」は、媒介現実コンテンツの一形式であり、ユーザが、部分的な人工環境(仮想空間)を仮想シーンとして、例えば視覚的に経験できるようにする。拡張現実コンテンツは、ビデオゲームなどのインタラクティブコンテンツや、動画などの非インタラクティブコンテンツを含むことができる。
「仮想現実コンテンツ」は、媒介現実コンテンツの一形式であり、ユーザが、完全な人工環境(仮想空間)を仮想シーンとして、例えば視覚的に経験できるようにする。仮想現実コンテンツは、ビデオゲームなどのインタラクティブコンテンツや、動画などの非インタラクティブコンテンツを含むことができる。
媒介現実、拡張現実、または仮想現実に適用される「一人称視点媒介」は、ユーザの実際の視点(場所および/または向き)が、仮想空間内の視点(仮想位置)を決定するという制約が追加された視点媒介を意味する。
媒介現実、拡張現実、または仮想現実に適用される「三人称視点媒介」は、ユーザの実際の視点が、仮想空間内の視点(仮想位置)を決定しないという制約が追加された視点媒介を意味する。
媒介現実、拡張現実、または仮想現実に適用される「ユーザインタラクティブ」は、ユーザの動作が、仮想空間内で起こることを少なくとも部分的に決定することを意味する。
「レンダリング」は、ユーザによって知覚される形式で提示することを意味する。
「概念的リスナー」は、ユーザが実際に聴いているかどうかに関係なく、視点媒介音響シーンの生成に用いられる、仮想空間内における視点(仮想位置―場所および/または向き)を定める。
「概念的ビューア」は、ユーザが実際に見ているかどうかに関係なく、視点媒介視覚シーンの生成に用いられる、仮想空間内における視点(仮想位置―場所および/または向き)を定める。
(a)ハードウェアのみの回路実装(アナログおよび/またはデジタル回路構成のみでの実装など)、
(b)回路とソフトウェア(および/またはファームウェア)との組合せ、例えば(該当する場合)、(i)プロセッサ(単数または複数)の組合せ、または(ii)携帯電話またはサーバなどの装置に様々な機能を実行させるべく協働する、プロセッサ(単数または複数)/ソフトウェア(デジタル信号プロセッサ(単数または複数)を含む)、ソフトウェア、およびメモリ(単数または複数)の一部、
(c)回路、例えばソフトウェアまたはファームウェアが物理的に存在しなくても動作のためにソフトウェアまたはファームウェアを必要とするマイクロプロセッサ(単数または複数)またはマイクロプロセッサ(単数または複数)の一部。
Claims (13)
- 3次元音響空間内の場所にそれぞれ関連付けられた音響オブジェクトを、レンダリングのためにユーザが選択するためのユーザインタフェースをレンダリングすることと、
前記ユーザインフェース内の音響オブジェクトを選択するユーザ操作に応じて、少なくとも前記選択された音響オブジェクトに対応する音響オブジェクトを、前記3次元音響空間内の関連付けられた場所にレンダリングすることと、
を含む方法であって、
前記ユーザインタフェースは、前記3次元音響空間内の音響オブジェクトを、前記ユーザインタフェース内の少なくとも1つの形状上の音響オブジェクトにマッピングし、前記3次元音響空間内の音響オブジェクトを、前記形状上の場所で識別し、前記形状上の場所は、前記識別された前記3次元音響空間内の音響オブジェクトが前記3次元音響空間内で関連付けられている場所とは異なる、方法。 - 前記ユーザ操作は第1及び第2のユーザ操作を含み、
前記第1のユーザ操作に応じて、前記3次元音響空間の音響シーンであって、複数の音響オブジェクトのセットを含む音響シーンのプレビューをレンダリングし、
前記第2のユーザ操作に応じて、前記プレビューに対応する音響シーンをレンダリングする、
請求項1に記載の方法。 - 前記第1のユーザ操作は、前記形状の一部を選択することを含む、請求項2に記載の方法。
- 前記セットは、少なくとも、前記ユーザインタフェースの前記形状に対する前記第1のユーザ操作の第1の場所と、前記ユーザインフェース内の音響オブジェクトであって前記第1の場所に隣接する音響オブジェクトの配置と、に基づく、
請求項2又は3に記載の方法。 - 前記プレビューのレンダリング中に、変更のためのユーザ相互作用に応じて前記セットを新しいセットへと変化させることを含む、
請求項2から4のいずれかに記載の方法。 - 前記第2のユーザ操作の後、前記ユーザインタフェースをレンダリングしなくなる、
請求項2から5のいずれかに記載の方法。 - 前記第2のユーザ操作の後、前記レンダリングした視覚シーンを、少なくとも前記ユーザの向きの変更に基づいて、自動的に変化させることを含む、
請求項2から6のいずれかに記載の方法。 - 前記ユーザインタフェースは、前記3次元音響空間内の音響オブジェクトの特性を用いて、前記形状上の場所で該音響オブジェクトを識別し、
前記特性は、相対的な重要度、音声、音の大きさ、期間の少なくともいずれかに関連する、
請求項1から7のいずれかに記載の方法。 - 前記形状上の前記場所は、前記場所に関連付けられている前記3次元音響空間内の音響オブジェクトの重要度に関連する、
請求項1から8のいずれかに記載の方法。 - 前記ユーザインタフェースは、集約されたビジュアルプレビューユーザインタフェースであり、前記集約されたビジュアルプレビューユーザインタフェースは、前記3次元音響空間内の複数の音響オブジェクトを前記ユーザインタフェース内の少なくとも1つの形状にマッピングし、前記複数の音響オブジェクトを、前記形状上の一連の場所で視覚的に識別し、前記形状上の場所は、前記複数の音響オブジェクトが前記3次元音響空間内で関連付けられている場所とは異なる、
請求項1から9のいずれかに記載の方法。 - 前記形状は、可視形式で前記ユーザインタフェースに表示され、前記ユーザインタフェースは、前記形状上の音響オブジェクトを視覚的に識別する、
請求項1から10のいずれかに記載の方法。 - 処理手段及び記憶手段を備える装置であって、前記記憶手段はプログラム命令を格納し、前記プログラム命令は、前記処理手段に実行されると、前記装置に、請求項1から11のいずれかに記載の方法を遂行させるように構成される、装置。
- 装置の処理手段に実行されると、前記装置に、請求項1から11のいずれかに記載の方法を遂行させるように構成されるプログラム命令を備える、コンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP17203771.5A EP3489821A1 (en) | 2017-11-27 | 2017-11-27 | A user interface for user selection of sound objects for rendering, and/or a method for rendering a user interface for user selection of sound objects for rendering |
EP17203771.5 | 2017-11-27 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019097162A JP2019097162A (ja) | 2019-06-20 |
JP6670361B2 true JP6670361B2 (ja) | 2020-03-18 |
Family
ID=60480215
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018209328A Expired - Fee Related JP6670361B2 (ja) | 2017-11-27 | 2018-11-07 | レンダリングする音響オブジェクトをユーザが選択するためのユーザインタフェース、および/またはレンダリングする音響オブジェクトをユーザが選択するためのユーザインタフェースをレンダリングする方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10567902B2 (ja) |
EP (1) | EP3489821A1 (ja) |
JP (1) | JP6670361B2 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10812928B1 (en) * | 2019-08-12 | 2020-10-20 | Facebook Technologies, Llc | Audio service design for operating systems |
US11069091B2 (en) * | 2019-08-19 | 2021-07-20 | Patrick S. Piemonte | Systems and methods for presentation of and interaction with immersive content |
CN113467603B (zh) * | 2020-03-31 | 2024-03-08 | 抖音视界有限公司 | 音频处理方法、装置、可读介质及电子设备 |
JP2022083445A (ja) * | 2020-11-24 | 2022-06-03 | ネイバー コーポレーション | ユーザカスタム型臨場感を実現するためのオーディオコンテンツを製作するコンピュータシステムおよびその方法 |
US11930348B2 (en) * | 2020-11-24 | 2024-03-12 | Naver Corporation | Computer system for realizing customized being-there in association with audio and method thereof |
KR102500694B1 (ko) * | 2020-11-24 | 2023-02-16 | 네이버 주식회사 | 사용자 맞춤형 현장감 실현을 위한 오디오 콘텐츠를 제작하는 컴퓨터 시스템 및 그의 방법 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2374772B (en) * | 2001-01-29 | 2004-12-29 | Hewlett Packard Co | Audio user interface |
JP4134794B2 (ja) * | 2003-04-07 | 2008-08-20 | ヤマハ株式会社 | 音場制御装置 |
US7563168B2 (en) * | 2004-02-13 | 2009-07-21 | Texas Instruments Incorporated | Audio effect rendering based on graphic polygons |
KR100739723B1 (ko) * | 2005-07-19 | 2007-07-13 | 삼성전자주식회사 | 오디오 썸네일 기능을 지원하는 오디오 재생 방법 및 장치 |
US8923995B2 (en) * | 2009-12-22 | 2014-12-30 | Apple Inc. | Directional audio interface for portable media device |
US8755432B2 (en) * | 2010-06-30 | 2014-06-17 | Warner Bros. Entertainment Inc. | Method and apparatus for generating 3D audio positioning using dynamically optimized audio 3D space perception cues |
WO2012120810A1 (ja) * | 2011-03-08 | 2012-09-13 | パナソニック株式会社 | 音声制御装置および音声制御方法 |
US9754595B2 (en) * | 2011-06-09 | 2017-09-05 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding and decoding 3-dimensional audio signal |
JP5825176B2 (ja) * | 2012-03-29 | 2015-12-02 | 富士通株式会社 | 携帯端末、音源位置制御方法および音源位置制御プログラム |
JP5748078B2 (ja) * | 2013-07-26 | 2015-07-15 | ブラザー工業株式会社 | 楽曲演奏装置及び楽曲演奏プログラム |
US10027994B2 (en) * | 2016-03-23 | 2018-07-17 | Dts, Inc. | Interactive audio metadata handling |
EP3232689B1 (en) * | 2016-04-13 | 2020-05-06 | Nokia Technologies Oy | Control of audio rendering |
EP3236363A1 (en) | 2016-04-18 | 2017-10-25 | Nokia Technologies Oy | Content search |
KR102465227B1 (ko) * | 2016-05-30 | 2022-11-10 | 소니그룹주식회사 | 영상 음향 처리 장치 및 방법, 및 프로그램이 저장된 컴퓨터 판독 가능한 기록 매체 |
-
2017
- 2017-11-27 EP EP17203771.5A patent/EP3489821A1/en not_active Ceased
-
2018
- 2018-11-07 JP JP2018209328A patent/JP6670361B2/ja not_active Expired - Fee Related
- 2018-11-19 US US16/194,683 patent/US10567902B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
EP3489821A1 (en) | 2019-05-29 |
US20190166446A1 (en) | 2019-05-30 |
US10567902B2 (en) | 2020-02-18 |
JP2019097162A (ja) | 2019-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6670361B2 (ja) | レンダリングする音響オブジェクトをユーザが選択するためのユーザインタフェース、および/またはレンダリングする音響オブジェクトをユーザが選択するためのユーザインタフェースをレンダリングする方法 | |
CN110121695B (zh) | 虚拟现实领域中的装置及相关联的方法 | |
CN111052770B (zh) | 空间音频下混频的方法及系统 | |
WO2017182703A1 (en) | An apparatus and associated methods | |
EP3343348A1 (en) | An apparatus and associated methods | |
US11200739B2 (en) | Virtual scene | |
TW201928945A (zh) | 音訊場景處理技術 | |
US11516615B2 (en) | Audio processing | |
CN111512371B (zh) | 用于所捕获的空间音频内容的呈现的装置和相关方法 | |
US20220171593A1 (en) | An apparatus, method, computer program or system for indicating audibility of audio content rendered in a virtual space | |
US20230077102A1 (en) | Virtual Scene | |
US10535179B2 (en) | Audio processing | |
CN113614710A (zh) | 用于呈现数据的呈现的设备和相关联的方法 | |
CN112912822A (zh) | 在混合现实环境中控制支持音频的连接设备的系统 | |
US11449192B2 (en) | Apparatus, method, computer program for enabling access to mediated reality content by a remote user | |
KR20220160638A (ko) | 오디오 장면을 위한 라우드니스 조정의 시그널링 | |
CN116391171A (zh) | 动态改变音频特性 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200225 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200228 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6670361 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |