JP2016525813A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2016525813A5 JP2016525813A5 JP2016513470A JP2016513470A JP2016525813A5 JP 2016525813 A5 JP2016525813 A5 JP 2016525813A5 JP 2016513470 A JP2016513470 A JP 2016513470A JP 2016513470 A JP2016513470 A JP 2016513470A JP 2016525813 A5 JP2016525813 A5 JP 2016525813A5
- Authority
- JP
- Japan
- Prior art keywords
- audio
- cluster
- rendering
- transducers
- transducer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000009877 rendering Methods 0.000 claims 32
- 230000001902 propagating Effects 0.000 claims 1
Claims (14)
前記オーディオデータから前記複数のオーディオトランスデューサのためのオーディオトランスデューサ駆動信号を生成することにより前記オーディオデータをレンダリングするためのレンダリング部と、
空間距離測定基準に従った前記複数のオーディオトランスデューサのうちのオーディオトランスデューサ間の距離に基づいて、前記複数のオーディオトランスデューサをオーディオトランスデューサクラスタのセットにクラスタ化するためのクラスタ部であって、前記距離は前記オーディオトランスデューサ位置データから決定され、前記クラスタ化は、前の繰り返しのクラスタに対するオーディオトランスデューサの繰り返された包含に基づいて前記オーディオトランスデューサクラスタのセットを生成し、第1のオーディオトランスデューサは、前記オーディオトランスデューサクラスタのセットのうちの第1のクラスタの1又はそれ以上のオーディオトランスデューサに関して距離基準を満たしている前記第1のオーディオトランスデューサに基づいて前記第1のクラスタに含まれる、クラスタ部と、
前記のクラスタ化に基づいて前記のレンダリングを適応させるように構成されたレンダリングコントローラとを有する、オーディオ装置。 A receiver for receiving audio data and audio transducer position data for a plurality of audio transducers;
A rendering unit for rendering the audio data by generating audio transducer drive signals for the plurality of audio transducers from the audio data;
A cluster unit for clustering the plurality of audio transducers into a set of audio transducer clusters based on a distance between the audio transducers of the plurality of audio transducers according to a spatial distance metric, wherein the distance is Determined from the audio transducer position data, wherein the clustering generates a set of audio transducer clusters based on repeated inclusion of the audio transducers relative to a previous iteration cluster, wherein the first audio transducer is the audio transducer The first audio transducer that satisfies a distance criterion with respect to one or more audio transducers of a first cluster of the set of clusters. Included in the first cluster based on the p o, and cluster unit,
An audio device having a rendering controller configured to adapt the rendering based on the clustering.
前記レンダリングコントローラは、異なる共存するオーディオトランスデューサクラスタに対して前記複数のレンダリングモードからレンダリングモードを独立して選択するように構成される、請求項1に記載のオーディオ装置。 The rendering unit can render the audio data according to a plurality of rendering modes,
The audio device of claim 1, wherein the rendering controller is configured to independently select a rendering mode from the plurality of rendering modes for different coexisting audio transducer clusters.
前記レンダリングコントローラは、基準を満たしている、前記オーディオトランスデューサクラスタのセットのうちの第1のクラスタの特性に基づいて前記第1のクラスタに対してアレイ処理レンダリングを選択するように構成される、請求項2に記載のオーディオ装置。 The rendering unit is capable of performing array processing rendering;
The rendering controller is configured to select array processing rendering for the first cluster based on characteristics of the first cluster of the set of audio transducer clusters that meet a criterion. Item 3. The audio device according to Item 2.
前記レンダリングコントローラは、前記オーディオトランスデューサクラスタのセットのうちの第1のクラスタの特性に基づいて前記第1のクラスタに対して前記アレイ処理レンダリングを適応させるように構成される、請求項1に記載のオーディオ装置。 The rendering unit is configured to perform array processing rendering;
The rendering controller of claim 1, wherein the rendering controller is configured to adapt the array processing rendering for the first cluster based on characteristics of a first cluster of the set of audio transducer clusters. Audio device.
前記レンダリングコントローラは、前記特性指標に基づいて前記第1のクラスタに対して前記のレンダリングを適応させるように構成される、請求項1に記載のオーディオ装置。 The cluster is configured to generate a characteristic indicator for a first cluster of the set of audio transducer clusters;
The audio device of claim 1, wherein the rendering controller is configured to adapt the rendering to the first cluster based on the characteristic indicator.
前記オーディオデータから前記複数のオーディオトランスデューサのためのオーディオトランスデューサ駆動信号を生成することにより前記オーディオデータをレンダリングするステップと、
前記オーディオトランスデューサ位置データと空間距離測定基準に従う前記複数のオーディオトランスデューサのオーディオトランスデューサ間の距離とに基づいて前記複数のオーディオトランスデューサをオーディオトランスデューサクラスタのセットにクラスタ化するステップであって、前記距離は前記オーディオトランスデューサ位置データから決定され、前記クラスタ化は、前の繰り返しのクラスタに対するオーディオトランスデューサの繰り返された包含に基づいて前記オーディオトランスデューサクラスタのセットを生成し、第1のオーディオトランスデューサは、前記オーディオトランスデューサクラスタのセットのうちの第1のクラスタの1又はそれ以上のオーディオトランスデューサに関して距離基準を満たしている前記第1のオーディオトランスデューサに基づいて前記第1のクラスタに含まれる、ステップと、
前記のクラスタ化に基づいて前記のレンダリングを適合させるステップとを有する、オーディオ処理の方法。 Receiving audio data and audio transducer position data for a plurality of audio transducers;
Rendering the audio data by generating audio transducer drive signals for the plurality of audio transducers from the audio data;
Clustering the plurality of audio transducers into a set of audio transducer clusters based on the audio transducer position data and a distance between the audio transducers of the plurality of audio transducers according to a spatial distance metric, wherein the distance is the Determined from audio transducer position data, and the clustering generates a set of audio transducer clusters based on repeated inclusion of audio transducers relative to a previous iteration cluster, wherein the first audio transducer is the audio transducer cluster Satisfying a distance criterion for one or more audio transducers of the first cluster of the set of Included in the first cluster based on 1 audio transducer, and the step,
Adapting the rendering based on the clustering.
オーディオデータ及び複数のオーディオトランスデューサのためのオーディオトランスデューサ位置データを受信するステップと、
前記オーディオデータから前記複数のオーディオトランスデューサのためのオーディオトランスデューサ駆動信号を生成することにより前記オーディオデータをレンダリングするステップと、
前記オーディオトランスデューサ位置データと空間距離測定基準に従う前記複数のオーディオトランスデューサのオーディオトランスデューサ間の距離とに基づいて前記複数のオーディオトランスデューサをオーディオトランスデューサクラスタのセットにクラスタ化するステップであって、前記距離は前記オーディオトランスデューサ位置データから決定され、前記クラスタ化は、前の繰り返しのクラスタに対するオーディオトランスデューサの繰り返された包含に基づいて前記オーディオトランスデューサクラスタのセットを生成し、第1のオーディオトランスデューサは、前記オーディオトランスデューサクラスタのセットのうちの第1のクラスタの1又はそれ以上のオーディオトランスデューサに関して距離基準を満たしている前記第1のオーディオトランスデューサに基づいて前記第1のクラスタに含まれる、ステップと、
前記のクラスタ化に基づいて前記のレンダリングを適合させるステップと、
を実行させるコンピュータ命令を有する、一時的な伝播する波又は信号ではない、コンピュータ可読記録媒体。 When executed by an audio device , the device
Receiving audio data and audio transducer position data for a plurality of audio transducers;
Rendering the audio data by generating audio transducer drive signals for the plurality of audio transducers from the audio data;
Clustering the plurality of audio transducers into a set of audio transducer clusters based on the audio transducer position data and a distance between the audio transducers of the plurality of audio transducers according to a spatial distance metric, wherein the distance is the Determined from audio transducer position data, and the clustering generates a set of audio transducer clusters based on repeated inclusion of audio transducers relative to a previous iteration cluster, wherein the first audio transducer is the audio transducer cluster Satisfying a distance criterion for one or more audio transducers of the first cluster of the set of Included in the first cluster based on 1 audio transducer, and the step,
Adapting the rendering based on the clustering;
A computer- readable recording medium that is not a temporarily propagating wave or signal having computer instructions for executing
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP14150062.9 | 2014-01-02 | ||
EP14150062 | 2014-01-02 | ||
PCT/IB2014/061226 WO2014184706A1 (en) | 2013-05-16 | 2014-05-06 | An audio apparatus and method therefor |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016525813A JP2016525813A (en) | 2016-08-25 |
JP2016525813A5 true JP2016525813A5 (en) | 2017-11-30 |
JP6291035B2 JP6291035B2 (en) | 2018-03-14 |
Family
ID=49916971
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016513470A Active JP6291035B2 (en) | 2014-01-02 | 2014-05-06 | Audio apparatus and method therefor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6291035B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018150774A1 (en) * | 2017-02-17 | 2018-08-23 | シャープ株式会社 | Voice signal processing device and voice signal processing system |
WO2018173413A1 (en) * | 2017-03-24 | 2018-09-27 | シャープ株式会社 | Audio signal processing device and audio signal processing system |
GB201818959D0 (en) * | 2018-11-21 | 2019-01-09 | Nokia Technologies Oy | Ambience audio representation and associated rendering |
US11601776B2 (en) | 2020-12-18 | 2023-03-07 | Qualcomm Incorporated | Smart hybrid rendering for augmented reality/virtual reality audio |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4783804A (en) * | 1985-03-21 | 1988-11-08 | American Telephone And Telegraph Company, At&T Bell Laboratories | Hidden Markov model speech recognition arrangement |
JP4450764B2 (en) * | 2005-04-12 | 2010-04-14 | 日本放送協会 | Speaker device |
EP2194527A3 (en) * | 2008-12-02 | 2013-09-25 | Electronics and Telecommunications Research Institute | Apparatus for generating and playing object based audio contents |
WO2011054876A1 (en) * | 2009-11-04 | 2011-05-12 | Fraunhofer-Gesellschaft Zur Förderungder Angewandten Forschung E.V. | Apparatus and method for calculating driving coefficients for loudspeakers of a loudspeaker arrangement for an audio signal associated with a virtual source |
FR2970574B1 (en) * | 2011-01-19 | 2013-10-04 | Devialet | AUDIO PROCESSING DEVICE |
-
2014
- 2014-05-06 JP JP2016513470A patent/JP6291035B2/en active Active
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2015153551A (en) | AUDIO DEVICE AND METHOD FOR HIM | |
JP2016525813A5 (en) | ||
RU2017107465A (en) | CLASSIFICATION OF TOUCH INPUT AS UNCENTRATIVE OR INTENTIONAL | |
WO2014023788A3 (en) | Adaptive sweep method and device for seismic exploration | |
JP2010264974A5 (en) | ||
BR112013008509A2 (en) | system and process for performing ultrasonic measurements of pipe wall properties | |
WO2016166763A3 (en) | Methods and systems for detecting at least the position of an object in space | |
JP2013524601A5 (en) | ||
JP2016534352A5 (en) | ||
KR20180042360A (en) | Multi-speaker method and apparatus for leak cancellation | |
JP2015161551A (en) | Sound source direction estimation device, sound source estimation method, and program | |
RU2019138260A (en) | DEVICE, METHOD AND PROGRAM OF AUDIO PROCESSING | |
RU2017130902A (en) | SUBMISSION OF DATA OF SOUND OBJECTS WITH APPLICABLE SIZE TO ARBITRARY SCHEMES OF LOCATION OF SPEAKERS | |
RU2015144125A (en) | SELECTING A FILTER TO ACHIEVE SPATIAL SOUND | |
JP2014507044A5 (en) | ||
WO2014143927A3 (en) | Acoustic transducers | |
WO2012061134A3 (en) | Estimating position and orientation of an underwater vehicle relative to underwater structures | |
WO2014146828A3 (en) | Sensor assembly and method for detecting the surroundings of a vehicle | |
JP2021096266A5 (en) | ||
JP2015096921A5 (en) | ||
WO2015007248A3 (en) | Method and apparatus of derivation for a binary partition pattern | |
WO2016063123A3 (en) | Systems and methods for deghosting seismic data using migration of sparse arrays | |
JP2012002809A5 (en) | ||
CN110164443B (en) | Voice processing method and device for electronic equipment and electronic equipment | |
CN110992921A (en) | Method for dynamically selecting reference microphone in feedforward noise reduction system, electronic device and computer readable storage medium |