WO2017110882A1 - スピーカの配置位置提示装置 - Google Patents
スピーカの配置位置提示装置 Download PDFInfo
- Publication number
- WO2017110882A1 WO2017110882A1 PCT/JP2016/088122 JP2016088122W WO2017110882A1 WO 2017110882 A1 WO2017110882 A1 WO 2017110882A1 JP 2016088122 W JP2016088122 W JP 2016088122W WO 2017110882 A1 WO2017110882 A1 WO 2017110882A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- speaker
- arrangement position
- speaker arrangement
- information
- unit
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/301—Automatic calibration of stereophonic sound system, e.g. with test microphone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/04—Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/008—Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/02—Spatial or constructional arrangements of loudspeakers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/01—Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
Definitions
- One embodiment of the present invention relates to a technique for presenting positions of a plurality of speakers that output a multichannel audio signal as physical vibration.
- Patent Document 2 Various methods for making multi-channels have also been studied for conventional stereo audio signals, and a technique for making multi-channels based on the correlation between channels of stereo signals is disclosed in Patent Document 2, for example.
- a system for reproducing multi-channel audio a system that can be easily enjoyed at home, etc., is becoming common even if it is not a facility with large sound equipment such as a movie theater or a hall.
- a user listener
- An environment for listening to multi-channel sound such as 1ch can be established in the home.
- a technique for reproducing multi-channel sound image localization with a small number of speakers has been studied (Non-patent Document 2).
- ITU-R BS.775-1 Virtual Sound Source Positioning Using Vector Base AmplitudePanning, VILLE PULKKI, J. Audio. Eng., Vol. 45, No. 6, 1997 June
- Non-Patent Document 1 discloses a general-purpose speaker arrangement position for multi-channel reproduction, this may not be satisfied depending on the viewing environment of the user.
- FIG. 2A when the coordinate system is set such that the front of the user U is 0 °, the right position and the left position of the user are 90 ° and ⁇ 90 °, respectively, for example, In the 5.1 channel described, as shown in FIG.
- the center channel 201 is arranged in front of the user on a concentric circle centered on the user U, and the front right channel 202 and the front left channel 203 are respectively 30 It is recommended that the surround right channel 204 and the surround left channel 205 are disposed within the ranges of 100 ° to 120 ° and ⁇ 100 ° to ⁇ 120 °, respectively, at positions of ⁇ 30 ° and ⁇ 30 °.
- the speaker may not be placed at the recommended position.
- Japanese Patent Application Laid-Open No. H10-228561 actually generates sound from each of the arranged speakers, acquires the sound with a microphone, and feeds back the characteristic amount obtained by analysis to the output sound.
- a method of correcting the deviation of the speaker placement position from the recommended position has been clarified.
- the sound correction method of the technique described in Patent Document 1 performs sound correction based on the position of the speaker placed by the user, it is possible to show a local optimum solution in the speaker placement by the user.
- the sound localization is concentrated in a specific direction, and the actually arranged speakers may not be used.
- the sound reproduction from the rear speaker is hardly performed, and the user suffers from the disadvantage that the arranged resources are not utilized.
- the present invention has been made in view of such circumstances, and provides a speaker arrangement position presentation system capable of automatically calculating a speaker arrangement position suitable for the user and providing the user with the arrangement position information.
- the purpose is to provide.
- the speaker arrangement position presentation device is a speaker arrangement position presentation device that presents the arrangement positions of a plurality of speakers that output audio signals as physical vibrations.
- a loudspeaker placement position calculation unit that calculates a loudspeaker placement position based on at least one of the amount and the information specifying the environment in which the content data is reproduced, and a presentation that presents the calculated loudspeaker placement position A section.
- the present invention it is possible to present a speaker arrangement position suitable for content to be viewed and a viewing environment. As a result, the user can construct a more suitable audio viewing environment.
- FIG. 3 is a diagram illustrating an example of adjacent channel pairs in the first embodiment.
- FIG. 3 is a diagram illustrating an example of adjacent channel pairs in the first embodiment. It is a figure which shows typically the calculation result of a virtual sound image position. It is a flowchart which shows operation
- the present inventors pay attention to the point that when a user reproduces a multi-channel audio signal and outputs it from a plurality of speakers, appropriate viewing cannot be performed depending on the feature amount of the content data and the position of the speaker in the viewing environment.
- the present invention has found that by calculating the speaker placement position based on the content data feature amount and information for specifying the viewing environment, the speaker placement position suitable for the content to be viewed and the viewing environment can be presented. It came to the one aspect
- the speaker arrangement position presentation system (speaker arrangement position presentation apparatus) according to one aspect of the present invention is a speaker arrangement position presentation system that presents the arrangement positions of a plurality of speakers that output multichannel audio signals as physical vibrations.
- An analysis unit that analyzes at least one of the feature amount of the input content data or the information that specifies the environment for reproducing the content data, and the analyzed feature amount or the information that specifies the environment,
- a speaker arrangement position calculation unit that calculates a speaker arrangement position, and a presentation unit that presents the calculated speaker arrangement position.
- a speaker is a loudspeaker (Loudspeaker).
- FIG. 1 is a diagram showing a main configuration of a speaker arrangement position indicating system according to the first embodiment of the present invention.
- the speaker arrangement position instruction system 1 analyzes the feature amount of the content to be reproduced, and instructs a suitable speaker arrangement position based on this. That is, as shown in FIG. 1, the speaker arrangement position instruction system 1 analyzes an audio signal included in video content or audio content recorded on a disc medium such as a DVD or a BD, an HDD (Hard Disc Drive), or the like.
- Content analysis unit 101 analysis result obtained by content analysis unit 101, storage unit 104 that records various parameters necessary for content analysis, and speaker arrangement based on the analysis result obtained by content analysis unit 101
- a speaker arrangement position calculation unit 102 that calculates a position; an audio signal processing unit 103 that generates and re-synthesizes an audio signal to be reproduced based on the position of each speaker calculated by the speaker arrangement position calculation unit 102; It is composed of
- the speaker arrangement position indicating system 1 is connected to a presentation unit 105 that presents the speaker position to the user as an external device, and an audio output unit 106 that outputs an audio signal subjected to signal processing.
- the speaker arrangement position indication system (speaker arrangement position instruction unit) 1 and the presentation unit 105 constitute a speaker arrangement position presentation device.
- the content analysis unit 101 analyzes an arbitrary feature amount included in the content to be reproduced, and sends the information to the speaker arrangement position calculation unit 102.
- the object-based audio is to appropriately render these sounding objects on the player (playing device) side without mixing the individual sounding objects.
- each of these pronunciation objects is associated with metadata (accompanying information) such as when, where, and at what volume the sound should be pronounced. Renders individual pronunciation objects based on this.
- the localization position information of the audio of the entire content is determined by analyzing this metadata.
- the metadata is composed of a track ID indicating which sounding object track is associated with, and a pair of playback time and position at that time. It is assumed that it is composed of one or more pronunciation object position information. In the present embodiment, it is assumed that the position information of the pronunciation object is expressed in the coordinate system shown in FIG.
- These metadata are described in a markup language such as XML (Extensible Markup Language) in the content, for example.
- the content analysis unit 101 first creates a localization position histogram 4 as shown in FIG. 4 from all sound generation object position information included in the metadata of all tracks. This will be specifically described with reference to the pronunciation object position information shown in FIG.
- the sounding object position information means that the sounding object with the track ID “1” remains at a position of 0 ° for 70 seconds from “0:00:00 to 0:01:10”.
- a value 70 / N obtained by normalizing the dwell time 70 seconds with N is added as a histogram value.
- the localization position histogram 4 shown in FIG. 4 can be obtained by performing the above-described processing on all sound generation object position information.
- the coordinate system shown in FIG. 2A has been described as an example of the position information of the pronunciation object, but it goes without saying that this may be a two-dimensional coordinate system represented by, for example, the x-axis and the y-axis. Yes.
- the histogram generation method in this case is as follows. For example, when 5.1 ch audio is included in the playback content, a sound image localization calculation technique based on correlation information between two channels disclosed in Patent Document 2 is applied, and a similar histogram is calculated based on the following procedure. create.
- the correlation is calculated between adjacent channels.
- a pair of adjacent channels has four pairs of FR and FL, FR and SR, FL and SL, and SL and SR, as shown in FIG.
- the correlation information d (i) of f frequency bands arbitrarily quantized per unit time n is calculated as the correlation information of adjacent channels, and based on this, the correlation coefficient values d (i) of each of the f frequency bands are calculated.
- a sound image localization position ⁇ is calculated. This is described in Patent Document 2.
- the sound image localization position 1203 based on the correlation between FL 1201 and FR 1202 is expressed as ⁇ with reference to the center of the angle formed by FL 1201 and FR 1202.
- Formula (1) is used to obtain this ⁇ .
- ⁇ is a parameter representing the sound pressure balance (see Patent Document 2).
- a quantized f frequency band having a correlation coefficient value d (i) equal to or greater than a preset threshold Th_d is included in the localization position histogram.
- the value added to the histogram is n / N.
- n is the unit time for calculating the correlation
- N is the total content length.
- ⁇ obtained as the sound image localization position is based on the center of the sound source position sandwiching the ⁇ , and is appropriately converted into the coordinate system shown in FIG. The above processing is similarly performed for combinations other than FL and FR.
- a histogram similar to that described in the position information of the pronunciation object can be created even when the reproduction content includes an audio signal other than object-based audio.
- the speaker arrangement position calculation unit 102 calculates the speaker arrangement position based on the localization position histogram obtained by the content analysis unit 101.
- FIG. 7 is a flowchart showing an operation of calculating the speaker arrangement position.
- the processing of the speaker arrangement position calculation unit 102 is started (step S001)
- the value MAX_TH is set to the threshold Th (step S002).
- MAX_TH is the maximum value of the localization position histogram obtained by the content analysis unit 101.
- step S003 the number of intersections between the threshold Th and the localization position histogram graph is calculated (step S003), and when the interval between the intersections and the adjacent intersection satisfies a predetermined threshold ⁇ _min and less than ⁇ _max (in step S004). (YES), each intersection position is stored in the cache area (step S005), and the process proceeds to the next step S015.
- FIG. 8 is a schematic diagram showing a localization position histogram 701, a threshold value Th702, and intersections 703, 704, 705, and 706 thereof.
- the interval between the intersections does not satisfy the threshold ⁇ _min or more and less than ⁇ _max, among the included intersections, if a pair of intersections with an interval less than the threshold ⁇ _min is included, these are integrated to create a new one intersection After that (step S006), each intersection position is stored in the cache area (step S005).
- the position of this integrated intersection is the middle position of the paired intersection before integration.
- the number of intersections and the number of speakers are compared. If this is “the number of speakers> the number of intersections” (YES in step S015), the value step is subtracted from the threshold Th to obtain a new threshold Th (step S007).
- Th is equal to or smaller than a predetermined threshold lower limit MIN_TH (YES in step S009), it is checked whether there is cache information storing the intersection position, and if this exists (YES in step S010). Then, the position coordinate of the intersection stored in the cache is output as the speaker arrangement position (step S014), and the process is terminated (step S012).
- step S013 when “the number of speakers ⁇ the number of intersections” (NO in step S015 and NO in step S008), the number of intersections is reduced, and the number of speakers and the number of intersections are matched (step S013). Is output as the speaker arrangement position (step S014), and the process is terminated (step S012).
- step S006 the intersection integration process described in step S006 is applied to these intersections.
- the speaker placement position is determined by the above steps. It is assumed that various parameters mentioned as values set in advance in the audio signal processing unit 103 are recorded in the storage unit 104 in advance. Of course, these parameters may be input by the user using an arbitrary user interface (not shown).
- the speaker position may be determined using a method other than this.
- speakers may be arranged at positions corresponding to the first to s-th highest histogram values, that is, characteristic sound image localization positions.
- a speaker that covers the entire sound image localization position by applying a multi-value conversion method that applies the “Otsu's threshold selection method” to the histogram and arranging the speakers at the calculated s threshold positions. It may be arranged.
- s is the number of speakers to be arranged as described above.
- FIG. 9 is a diagram showing the concept of vector-based sound pressure panning in the second embodiment.
- the position of one sounding object in the object-based audio at a certain time is 1103.
- the speaker arrangement positions calculated by the speaker arrangement position calculation unit 102 are designated as 1101 and 1102 so as to sandwich the position 1103 of the pronunciation object, for example, as shown in Non-Patent Document 2, these speakers are arranged.
- the sound generation object is reproduced at the position 1103 by vector-based sound pressure panning using.
- the vector 1104 between the listener 1107 and the speaker located at the position 1101 and the listener A vector 1106 between the speakers located at 1107 and the position 1101 is decomposed, and a ratio to the vector 1105 at this time is obtained.
- r1 sin ( ⁇ 2) / sin ( ⁇ 1 + ⁇ 2)
- r2 cos ( ⁇ 2) -sin ( ⁇ 2) / tan ( ⁇ 1 + ⁇ 2)
- An output audio signal can be generated by performing the above processing on all sound generation objects.
- the storage unit 104 is configured by a secondary storage device for recording various data used in the content analysis unit 101.
- the storage unit 104 is configured by, for example, a magnetic disk, an optical disk, a flash memory, and the like, and more specific examples include an HDD, an SSD (Solid State Drive), an SD memory card, a BD, a DVD, and the like.
- the content analysis unit 101 reads data from the storage unit 104 as necessary.
- Various parameter data including the analysis result can also be recorded in the storage unit 104.
- the presentation unit 105 presents the speaker arrangement position information obtained by the speaker arrangement position calculation unit 102 to the user.
- the positional relationship between the user and the speaker may be illustrated on a liquid crystal display or the like as shown in FIG. 10 (A), or only the numerical value is set as the positional location as shown in FIG. 10 (B). It may be shown as
- the speaker position may be presented using a device other than the display. For example, a laser pointer or projector may be installed near the ceiling and linked to this to present the installation position in a form that maps to the real world. good.
- the audio output unit 106 outputs the audio obtained by the audio signal processing unit 103.
- the audio output unit 106 is configured by s speakers arranged or an amplifier (amplifier) for driving them.
- the speaker arrangement on the two-dimensional plane has been described in order to simplify the description and make it easier to understand.
- the position information of the sound object of the object-based audio is expressed by three-dimensional coordinates including information in the height direction, or the speaker arrangement including the vertical position such as 22.2ch audio is recommended. It doesn't matter.
- the speaker arrangement position instruction system 8 includes a content analysis unit 101 that analyzes an audio signal included in video content or audio content, and a content analysis unit.
- a storage unit 104 that records the analysis results obtained in 101 and various parameters necessary for content analysis, and a speaker arrangement position calculation unit 801 that calculates the speaker arrangement position based on the analysis results obtained in the content analysis unit 101.
- the speaker arrangement position indication system (speaker arrangement position instruction unit) 8 and the presentation unit 105 constitute a speaker arrangement position presentation device.
- the speaker arrangement position instruction system 8 presents a speaker position to the user, and an audio signal processing unit 802 that re-synthesizes audio signals reproduced by each speaker based on the position of each speaker calculated by the speaker arrangement position calculation unit 801.
- the presentation unit 105 and an external device such as an audio output unit 106 that outputs an audio signal subjected to signal processing are connected.
- Speaker position information as shown in the first embodiment is transmitted from the speaker arrangement position calculation unit 801 to the audio signal processing unit 802 in an arbitrary format such as XML, and the audio signal processing unit 802 As shown in the first embodiment, output speech reconstruction processing is performed by, for example, the VBAP method.
- the speaker position confirmation unit 1701 may be further provided in the configuration of the first embodiment.
- the speaker position confirmation unit 1701 includes at least one microphone.
- sound emitted from a speaker arranged by a user is collected and analyzed by the microphone.
- the actual position of the speaker is grasped, and when this is different from the position shown on the presentation unit 105, the fact may be shown on the presentation unit 105 to notify the user.
- the speaker arrangement position indication system (speaker arrangement position instruction unit) 17 and the presentation unit 105 constitute a speaker arrangement position presentation device.
- FIG. 13 is a diagram showing a main configuration of a speaker arrangement position indicating system 9 according to the second embodiment of the present invention.
- the speaker arrangement position instruction system 9 according to the second embodiment is a system for acquiring environment information to be reproduced, for example, room layout information, and instructing a suitable speaker arrangement position based thereon.
- the speaker arrangement position instruction system 9 is obtained by an environment information analysis unit 901 that analyzes information necessary for speaker arrangement from environment information obtained from various external devices, and an environment information analysis unit 901.
- a storage unit 104 that records various parameters necessary for analysis results and environment information analysis, a speaker arrangement position calculation unit 102 that calculates the speaker arrangement position based on the analysis results obtained by the environment information analysis unit 901, a speaker Based on the position of each speaker calculated by the arrangement position calculation unit 102, the audio signal processing unit 103 re-synthesizes the audio signal reproduced by each speaker.
- the speaker arrangement position instruction system 9 is connected to a presentation unit 105 that presents the speaker position to the user as an external device and a voice output unit 106 that outputs a voice signal subjected to signal processing.
- the speaker arrangement position indication system (speaker arrangement position instruction unit) 9 and the presentation unit 105 constitute a speaker arrangement position presentation device.
- the environment information analysis unit 901 calculates likelihood information of the speaker arrangement position from the input information about the room in which the speaker is arranged.
- the environment information analysis unit 901 acquires a plan view as shown in FIG. 14A.
- For the plan view for example, an image taken by a camera installed on the ceiling of a room is used. It is assumed that a TV 1402, sofa 1403, furniture 1404, and 1405 are arranged in the plan view 1401 input in the present embodiment.
- the environment information analysis unit 901 presents a plan view 1401 to the user via the presentation unit 103 configured by a liquid crystal display or the like, and notifies the user of the television position 1407 via the user input reception unit 903.
- the viewing position 1406 is input.
- the environment information analysis unit 901 displays a concentric circle 1408 having a radius of the distance between the input TV position 1407 and the viewing position 1406 on the plan view 1401 as candidates for positions where speakers are arranged. Furthermore, the environment information analysis unit 901 causes the user to input an area where the speaker cannot be arranged on the displayed concentric circle. In the present embodiment, it is assumed that 1409 and 1410 that are areas that cannot be installed due to the furniture that is arranged, and 1411 that is an area that cannot be installed due to the shape of the room are input. From the above input, the environment information analysis unit 901 sets the installation likelihood (graph) 1301 as shown in FIG. 15 where the installation likelihood of the speaker installation possible area is 1 and the installation likelihood of the speaker installation impossible area is 0. And the information is transferred to the speaker arrangement position calculation unit 902.
- user input is input via an external device user input reception unit 903 connected to the environment information analysis unit 901.
- the user input reception unit 903 is a touch panel, a mouse, a keyboard, or the like. Shall be composed.
- the speaker arrangement position calculation unit 902 determines the position where the speaker is arranged based on the speaker installation likelihood information obtained from the environment information analysis unit 901.
- FIG. 16 is a flowchart showing an operation of calculating the speaker arrangement position.
- the speaker arrangement position calculation unit 902 reads default speaker arrangement position information from the storage unit 104 (step S202). In this embodiment, it is assumed that speaker placement position information excluding 5.1ch LFE (Low Frequency Effect) is read.
- the speaker positions 1501 to 1505 may be displayed using the speaker arrangement position information based on the content information shown in the first embodiment. That is, the content analysis unit 101 may be included in the speaker arrangement position instruction system 9 shown in the present embodiment.
- the speaker arrangement position calculation unit 902 repeats the process from step S203 to step S206 for all the read speaker positions.
- Each speaker position checks whether or not there is a position within the current speaker position ⁇ ⁇ in which the positional relationship with the adjacent speaker has a value greater than or equal to ⁇ _min and less than ⁇ _max and a likelihood value greater than 0. If this exists (YES in step S204), the speaker position is updated to a position having the maximum likelihood value in the position information that satisfies the above condition (step S205).
- the speaker positions designated as the default positions 1504 and 1505 are updated to the positions 1506 and 1507, respectively, based on the installation likelihood 1301.
- the speaker arrangement position is output (step S207), and the processing is terminated (step S208).
- step S208 if there is at least one speaker position information that does not satisfy the condition of step S204, it is determined that the speaker cannot be arranged, an error is presented (step S209), and the process is terminated (step S208).
- ⁇ , ⁇ _min, and ⁇ _max are preset values stored in the storage unit 104.
- the speaker arrangement position calculation unit 902 presents the result obtained by the above processing to the user through the presentation unit 105.
- the installation likelihood graph is created based on whether or not it can be physically arranged in the room, but it goes without saying that the graph may be created using other information. Yes.
- the material information wood, metal, concrete
- the installation likelihood is set in consideration of this reflection coefficient. You may make it do.
- a speaker arrangement position presentation system is a speaker arrangement position presentation system that presents arrangement positions of a plurality of speakers that output audio signals as physical vibrations, and the input content Based on the analysis unit that analyzes at least one of the feature amount of data or the information that specifies the environment for reproducing the content data, and the speaker placement position are calculated based on the analyzed feature amount or the information that specifies the environment A speaker arrangement position calculation unit; and a presentation unit that presents the calculated speaker arrangement position.
- the analysis unit is a candidate for arranging a speaker using a position information parameter associated with an audio signal included in the input content data. Generating a histogram that indicates the frequency of sound localization at the position where the speaker localization position is calculated when the number of intersections between the sound localization frequency threshold and the histogram is equal to the number of speakers. The coordinate position of the intersection is defined as the speaker placement position.
- the analysis unit outputs from an adjacent position using a position information parameter associated with an audio signal included in the input content data.
- a correlation value between the audio signals to be generated is generated, and a histogram indicating the frequency of sound localization at a position that is a candidate for speaker placement is generated based on the correlation value, and the speaker placement position calculation unit
- the coordinate position of the intersection when the number of intersections between the frequency threshold and the histogram is the same as the number of the speakers is defined as the speaker placement position.
- the analysis unit inputs availability information indicating an area where the speaker can be arranged or an area where the speaker can be arranged, and arranges the speaker.
- the likelihood information indicating the likelihood of the candidate position is generated, and the speaker arrangement position calculation unit determines the speaker arrangement position based on the likelihood information.
- the speaker arrangement position presentation system receives a user operation and receives user input to input availability information indicating an area where the speaker can be arranged or an area where the speaker can be arranged. A part.
- the speaker arrangement position presentation system is configured to generate sound signals to be output from the speakers based on the information indicating the speaker arrangement positions and the input content data.
- a signal processing unit is provided.
- a program according to an aspect of the present invention is a program for a speaker arrangement position presentation system that presents the arrangement positions of a plurality of speakers that output a multi-channel audio signal as physical vibrations. Processing for analyzing at least one of the feature amount or information for specifying the environment for reproducing the content data, and processing for calculating the speaker placement position based on the analyzed feature amount or the information for specifying the environment, The computer executes a series of processes including the process of presenting the calculated speaker arrangement position.
- the program according to an aspect of the present invention indicates the frequency of sound localization at a position where a speaker is a candidate using a position information parameter associated with an audio signal included in the input content data.
- the program according to an aspect of the present invention calculates a correlation value between audio signals output from adjacent positions using a position information parameter associated with the audio signal included in the input content data. Then, based on the correlation value, a process for generating a histogram indicating the frequency of sound localization at positions that are candidates for speaker placement, and the number of intersections between the threshold value of the sound localization frequency and the histogram And a process of setting the coordinate position of the intersection when the number is the same as the number as the arrangement position of the speaker.
- the program inputs likelihood information indicating a region where speakers can be placed or cannot be placed, and indicates the likelihood of positions that are candidates for placing speakers. Further includes a process of generating degree information and a process of determining an arrangement position of the speaker based on the likelihood information.
- the program according to one aspect of the present invention is a process in which the user input receiving unit receives a user operation and inputs availability information indicating an area where speakers can be arranged or an area where speakers can be arranged. In addition.
- the program according to one aspect of the present invention further includes a process of generating an audio signal output from each speaker based on the information indicating the arrangement position of the speaker and the input content data.
- Speaker placement position indication system (speaker placement position indication section) 4 Histogram 8 Speaker placement position indication system (speaker placement position indication section) 9 Speaker placement position indication system (speaker placement position indication section) 101 Content Analysis Unit 102 Speaker Arrangement Position Calculation Unit 103 Audio Signal Processing Unit 104 Storage Unit 105 Presentation Unit 106 Audio Output Unit 201 Center Channel 202 Front Right Channel 203 Front Left Channel 204 Surround Right Channel 205 Surround Left Channel 701 Localization Position Histogram 702 Threshold Th 703, 704, 705, 706 Intersection 801 Speaker arrangement position calculation unit 802 Audio signal processing unit 901 Environmental information analysis unit 902 Speaker arrangement position calculation unit 903 User input reception unit 1101, 1102 Position of sounding object 1103 One of object-based audio Position of pronunciation object at a certain time 1104, 1105, 1106 Vector 1107 Listener 1201 FL (front left channel) 1202 FR (front light channel) 1203 Sound image localization position 1301 Installation likelihood 1401 Plan view 1402 Television 1403 Sofa 1404, 1405 Furniture 1406 Viewing position 1407 Input
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Stereophonic System (AREA)
Abstract
ユーザにとって好適なスピーカの配置位置を自動で算出し、その配置位置情報をユーザに提供する。マルチチャネル音声信号を物理振動として出力する複数のスピーカの配置位置を提示するスピーカの配置位置提示装置であって、入力されたコンテンツデータの特徴量、および入力された、前記コンテンツデータを再生する環境を特定する情報の少なくとも一方に基づいて、スピーカの配置位置を算出するスピーカ配置位置指示部(1)と、前記算出したスピーカの配置位置を提示する提示部(105)と、を備える。
Description
本発明の一態様は、マルチチャネル音声信号を物理振動として出力する複数のスピーカの配置位置を提示する技術に関する。
近年、放送波、DVD(Digital Versatile Disc)やBD(Blu-ray(登録商標) Disc)などのディスクメディア、インターネットなどを介して、ユーザは、マルチチャネル音声(サラウンド音声)を含むコンテンツを簡単に入手できるようになっている。映画館等においては、Dolby Atmosに代表されるオブジェクトベースオーディオによる立体音響システムが多く配備され、更に日本国内においては、次世代放送規格に22.2chオーディオが採用されるなど、ユーザがマルチチャネルコンテンツに触れる機会は格段に多くなった。
従来のステレオ方式の音声信号に関しても、マルチチャネル化手法が様々検討されており、ステレオ信号の各チャネル間の相関に基づいてマルチチャネル化する技術が、例えば特許文献2に開示されている。マルチチャネル音声を再生するシステムについても、映画館やホールのような大型音響設備が配された施設でなくても、家庭などで手軽に楽しめるようなシステムが一般的となってきつつある。ユーザ(聴取者)は、国際電気通信連合(International Telecommunication Union:ITU)が推奨する配置基準(非特許文献1を参照)に基づいて、複数のスピーカを配置することによって、5.1chや7.1chなどのマルチチャネル音声を聴取する環境を家庭内に構築することができる。また、少ないスピーカ数で、マルチチャネルの音像定位を再現する手法なども研究されている(非特許文献2)。
ITU-R BS.775-1
Virtual Sound Source Positioning Using Vector Base AmplitudePanning, VILLE PULKKI, J. Audio. Eng., Vol. 45, No. 6, 1997 June
しかしながら、非特許文献1では、マルチチャネル再生のためのスピーカ配置位置について、汎用的なものが開示されているため、ユーザの視聴環境によってはこれを満たすことができない場合がある。図2(A)に示すように、ユーザUの正面を0°、ユーザの右位置、左位置を各々90°、-90°とするような座標系で示すと、例えば、非特許文献1に記載されている5.1chでは、図2(B)に示すように、ユーザUを中心とした同心円上のユーザ正面にセンターチャネル201を配置し、フロントライトチャネル202、フロントレフトチャネル203を各々30°、-30°の位置に配置し、サラウンドライトチャネル204、サラウンドレフトチャネル205を各々100°~120°、-100°~-120°の範囲内に配置することを推奨している。しかし、ユーザの視聴環境、例えば、部屋の形状や家具の配置によっては、スピーカを推奨位置に配することができない場合がある。
これらの課題を解決するため、特許文献1には、配置されたスピーカ各々から発音し、その音声をマイクで取得し、解析することで得られた特徴量を出力音声にフィードバックすることで、実際のスピーカ配置位置の推奨位置からのずれを補正する手法が明らかにされている。しかし、特許文献1に記載されている技術の音声補正手法では、ユーザが配置したスピーカの位置に基づいた音声補正を行なうため、このユーザによるスピーカの配置における局所的な最適解を示すことはできても、そもそものスピーカの配置の位置を含めた全体としての最適解を示すことは難しい。例えば、ユーザがスピーカを極端な配置、例えば、前や右などに集中してスピーカを並べた場合、良好な音声補正結果を得られるとは限らない。
また、視聴するコンテンツによっては特定の方向に音声定位が集中し、実際に配されたスピーカがほぼ使用されない場合がある。例えば、音声定位が前方に集中するコンテンツにおいては、後方のスピーカからの音声再生はほとんどなされず、ユーザにとっては、配置したリソースが活用されないという不利益を被ることとなる。
本発明は、このような事情に鑑みてなされたものであり、ユーザにとって好適なスピーカの配置位置を自動で算出し、その配置位置情報をユーザに提供することができるスピーカの配置位置提示システムを提供することを目的とする。
上記の目的を達成するために、本発明の一態様は、以下のような手段を講じた。すなわち、本発明の一態様のスピーカの配置位置提示装置は、音声信号を物理振動として出力する複数のスピーカの配置位置を提示するスピーカの配置位置提示装置であって、入力されたコンテンツデータの特徴量、および入力された、前記コンテンツデータを再生する環境を特定する情報の少なくとも一方に基づいて、スピーカの配置位置を算出するスピーカ配置位置算出部と、前記算出したスピーカの配置位置を提示する提示部と、を備える。
本発明の一態様によれば、視聴するコンテンツや視聴する環境に適合したスピーカの配置位置を提示することが可能となる。その結果、ユーザは、より好適な音声視聴環境を構築することが可能となる。
本発明者らは、ユーザがマルチチャネル音声信号を再生し、複数のスピーカから出力する際、コンテンツデータの特徴量や視聴環境におけるスピーカの配置位置によっては、適切な視聴ができなくなる点に着目し、コンテンツデータの特徴量や視聴環境を特定する情報に基づいて、スピーカの配置位置を算定することによって、視聴するコンテンツや視聴する環境に適合したスピーカの配置位置を提示することができることを見出し、本発明の一態様をするに至った。
すなわち、本発明の一態様のスピーカの配置位置提示システム(スピーカの配置位置提示装置)は、マルチチャネル音声信号を物理振動として出力する複数のスピーカの配置位置を提示するスピーカの配置位置提示システムであって、入力されたコンテンツデータの特徴量または前記コンテンツデータを再生する環境を特定する情報の少なくとも一方を解析する解析部と、前記解析された特徴量または前記環境を特定する情報に基づいて、スピーカの配置位置を算出するスピーカ配置位置算出部と、前記算出したスピーカの配置位置を提示する提示部と、を備える。
これにより、本発明者らは、視聴するコンテンツや視聴する環境に適合したスピーカの配置位置を提示し、ユーザが、より好適な音声視聴環境を構築することを可能とした。以下、本発明の実施形態について図面を参照して説明する。なお、本明細書において、スピーカとは、ラウドスピーカ(Loudspeaker)のことである。
<第1の実施形態>
図1は、本発明の第1の実施形態に係るスピーカ配置位置指示システムの主要な構成を示す図である。第1の実施形態に係るスピーカ配置位置指示システム1は、再生するコンテンツの特徴量を解析し、これに基づいた好適なスピーカ配置位置を指示する。すなわち、図1に示すように、スピーカ配置位置指示システム1は、DVDやBDなどのディスクメディア、HDD(Hard Disc Drive)等に記録されている映像コンテンツや音声コンテンツに含まれる音声信号を解析するコンテンツ解析部101と、コンテンツ解析部101で得られた解析結果や、コンテンツ解析に必要な各種パラメータを記録している記憶部104と、コンテンツ解析部101で得られた解析結果に基づきスピーカの配置位置を算出するスピーカ配置位置算出部102と、スピーカ配置位置算出部102で算出された各スピーカの位置に基づいて、各々が再生する音声信号を生成し、再合成する音声信号処理部103と、から構成されている。
図1は、本発明の第1の実施形態に係るスピーカ配置位置指示システムの主要な構成を示す図である。第1の実施形態に係るスピーカ配置位置指示システム1は、再生するコンテンツの特徴量を解析し、これに基づいた好適なスピーカ配置位置を指示する。すなわち、図1に示すように、スピーカ配置位置指示システム1は、DVDやBDなどのディスクメディア、HDD(Hard Disc Drive)等に記録されている映像コンテンツや音声コンテンツに含まれる音声信号を解析するコンテンツ解析部101と、コンテンツ解析部101で得られた解析結果や、コンテンツ解析に必要な各種パラメータを記録している記憶部104と、コンテンツ解析部101で得られた解析結果に基づきスピーカの配置位置を算出するスピーカ配置位置算出部102と、スピーカ配置位置算出部102で算出された各スピーカの位置に基づいて、各々が再生する音声信号を生成し、再合成する音声信号処理部103と、から構成されている。
また、スピーカ配置位置指示システム1は、外部装置としてユーザにスピーカ位置を提示する提示部105、および信号処理を施した音声信号を出力する音声出力部106に接続されている。スピーカ配置位置指示システム(スピーカ配置位置指示部)1と提示部105とによって、スピーカの配置位置提示装置が構成される。
[コンテンツ解析部101について]
コンテンツ解析部101は、再生するコンテンツに含まれる任意の特徴量を解析し、その情報をスピーカ配置位置算出部102に送る。
コンテンツ解析部101は、再生するコンテンツに含まれる任意の特徴量を解析し、その情報をスピーカ配置位置算出部102に送る。
(1)再生コンテンツにオブジェクトベースオーディオが含まれていた場合
本実施形態では、再生コンテンツにオブジェクトベースオーディオが含まれていた場合、この特徴量を用いて、コンテンツに含まれる音声の定位の頻度グラフを作成し、これをスピーカ配置位置算出部102に送る特徴量情報とする。
本実施形態では、再生コンテンツにオブジェクトベースオーディオが含まれていた場合、この特徴量を用いて、コンテンツに含まれる音声の定位の頻度グラフを作成し、これをスピーカ配置位置算出部102に送る特徴量情報とする。
まず、オブジェクトベースオーディオの概要について説明する。オブジェクトベースオーディオとは、個々の発音オブジェクトをミキシングせずにプレイヤー(再生機)側でこれら発音オブジェクトを適宜レンダリングするものである。各々の規格において差はあるものの、一般的には、これら発音オブジェクトには各々、いつ、どこで、どの程度の音量で発音されるべきかといったメタデータ(付随情報)が紐づけられており、プレイヤーはこれに基づいて個々の発音オブジェクトをレンダリングする。
本実施形態では、このメタデータを解析することでコンテンツ全体の音声の定位位置情報を割り出す。なお、説明を簡単にする為、これらのメタデータを図3に示すように、どの発音オブジェクトのトラックに紐づけられているかを示すトラックID、および再生時刻とその時刻での位置のペアで構成される1つ以上の発音オブジェクト位置情報で構成されているものとする。本実施形態では、発音オブジェクトの位置情報は、図2(A)に示した座標系で表現されるものとする。また、これらメタデータは例えばコンテンツ内ではXML(Extensible Markup Language)のようなマークアップ言語で記述されているものとする。
コンテンツ解析部101は、まず、すべてのトラックのメタデータに含まれるすべての発音オブジェクト位置情報から、図4に示されるような定位位置のヒストグラム4を作成する。これについて、図3に示す発音オブジェクト位置情報を例にして、具体的に説明する。発音オブジェクト位置情報は、「0:00:00~0:01:10」の70秒間、トラックID 1の発音オブジェクトが0°の位置にとどまることを意味する。ここで、コンテンツ全体長がN(秒)であった場合、この停留時間70秒をNで正規化した値70/Nをヒストグラム値として加算する。以上のような処理をすべての発音オブジェクト位置情報に対して行なうことで、図4に示す定位位置のヒストグラム4を得ることができる。
なお、本実施形態では、発音オブジェクトの位置情報の一例として、図2(A)に示す座標系について説明したが、これが例えばx軸とy軸で表される2次元座標系でも良いことは言うまでもない。
(2)再生コンテンツにオブジェクトベースオーディオ以外の音声信号が含まれていた場合
この場合のヒストグラム生成方法は、以下の通りである。例えば、再生コンテンツに5.1ch音声が含まれていた場合、特許文献2に開示されている2チャネル間の相関情報に基づく音像定位算出技術を応用し、以下の手順に基づいて同様のヒストグラムを作成する。
この場合のヒストグラム生成方法は、以下の通りである。例えば、再生コンテンツに5.1ch音声が含まれていた場合、特許文献2に開示されている2チャネル間の相関情報に基づく音像定位算出技術を応用し、以下の手順に基づいて同様のヒストグラムを作成する。
5.1ch音声に含まれる低音効果音(Low Frequency Effect:LFE)以外の各チャン
ネルにおいて、隣り合うチャネル間でその相関を計算する。隣り合うチャネルの組は、5.1chの音声信号においては、図5(A)に示す通り、FRとFL、FRとSR、FLとSL、SLとSRの4対となる。この時、隣り合うチャネルの相関情報は、単位時間nあたりの任意に量子化されたf個の周波数帯の相関係数値d(i)が算出され、これに基づいてf個の周波数帯各々の音像定位位置θが算出される。これについては、特許文献2に記載されている。
ネルにおいて、隣り合うチャネル間でその相関を計算する。隣り合うチャネルの組は、5.1chの音声信号においては、図5(A)に示す通り、FRとFL、FRとSR、FLとSL、SLとSRの4対となる。この時、隣り合うチャネルの相関情報は、単位時間nあたりの任意に量子化されたf個の周波数帯の相関係数値d(i)が算出され、これに基づいてf個の周波数帯各々の音像定位位置θが算出される。これについては、特許文献2に記載されている。
例えば、図6に示すように、FL1201とFR1202間の相関に基づく音像定位位置1203は、FL1201とFR1202が成す角の中心を基準としたθとして表される。このθを求めるには、数式(1)を用いる。ただし、αは音圧バランスを表すパラメータである(特許文献2参照)。
本実施形態では、量子化されたf個の周波数帯の中であらかじめ設定された閾値Th_d以上の相関係数値d(i)を持つものに関して、定位位置のヒストグラムに含めるものとする。この時、ヒストグラムに加算される値は、n/Nとなる。ただし、前述の通りnは相関を計算する単位時間、Nはコンテンツ全体長である。また、前述の通り、音像定位位置として求められるθは、これを挟む音源位置の中心を基準としている為、適宜、図2(A)に示す座標系に変換を行なうものとする。以上の処理をFLとFR以外の組み合わせについても、同様に行なう。
なお、以上の説明では、特許文献2に開示されている通り、主に人のセリフ音声などが割り付けられるFCチャネルについては、同チャネルとFL乃至FR間に音像を生じさせるような音圧制御がなされている箇所が多くないものとして、FCは相関の計算対象からは外し、代わりにFLとFRの相関について考えるものとした。しかし、本発明の一態様は、これに限定されるわけではなく、勿論FCを含めた相関を考慮してヒストグラムを算出しても良く、図5(B)に示すように、FCとFR、FCとFL、FRとSR、FLとSL、SLとSRの5対の相関について、上記算出法でのヒストグラム生成を行なって良いことは言うまでもない。
以上の処理により、再生コンテンツにオブジェクトベースオーディオ以外の音声信号が含まれていた場合であっても発音オブジェクトの位置情報で説明した時と同様のヒストグラムを作成することができる。
[スピーカ配置位置算出部102について]
スピーカ配置位置算出部102は、コンテンツ解析部101で得られた定位位置のヒストグラムに基づいて、スピーカの配置位置を算出する。図7は、スピーカの配置位置を算出する動作を示すフローチャートである。スピーカ配置位置算出部102の処理が開始されると(ステップS001)、閾値Thに値MAX_THが設定される(ステップS002)。ここで、MAX_THは、コンテンツ解析部101で得られた定位位置のヒストグラムの最大値である。次に、閾値Thと定位位置のヒストグラムグラフとの交点数を算出し(ステップS003)、これら交点の隣り合う交点との間隔があらかじめ設定された閾値Θ_min以上Θ_max未満を満たす場合は(ステップS004においてYES)、その交点位置各々をキャッシュ領域に記憶し(ステップS005)、次のステップS015に進む。
スピーカ配置位置算出部102は、コンテンツ解析部101で得られた定位位置のヒストグラムに基づいて、スピーカの配置位置を算出する。図7は、スピーカの配置位置を算出する動作を示すフローチャートである。スピーカ配置位置算出部102の処理が開始されると(ステップS001)、閾値Thに値MAX_THが設定される(ステップS002)。ここで、MAX_THは、コンテンツ解析部101で得られた定位位置のヒストグラムの最大値である。次に、閾値Thと定位位置のヒストグラムグラフとの交点数を算出し(ステップS003)、これら交点の隣り合う交点との間隔があらかじめ設定された閾値Θ_min以上Θ_max未満を満たす場合は(ステップS004においてYES)、その交点位置各々をキャッシュ領域に記憶し(ステップS005)、次のステップS015に進む。
図8では、定位位置ヒストグラム701と閾値Th702並びにその交点703、704、705、706を示した模式図を示している。一方、交点の間隔が閾値Θ_min以上Θ_max未満を満たさない場合は、含まれる交点のうち、閾値Θ_min未満の間隔の交点の対が含まれていた場合、これらを統合し、新たな1つの交点とした上で(ステップS006)、その交点位置各々をキャッシュ領域に記憶する(ステップS005)。
この統合された交点の位置は、統合前の対となる交点の中間位置とする。次に、交点数とスピーカ数を比較し、これが「スピーカ数>交点数」である場合(ステップS015においてYES)、閾値Thから値stepを減算し、新たな閾値Thとする(ステップS007)。
ここでThが予め定められている閾値下限MIN_TH以下となる場合は(ステップS009においてYES)、交点位置を記憶したキャッシュ情報があるかどうかを検査し、これが存在する場合は(ステップS010においてYES)、キャッシュに記憶された交点の位置座標をスピーカ配置位置として出力し(ステップS014)、処理を終了する(ステップS012)。
一方で、交点位置を記憶したキャッシュ情報が存在しない場合(ステップS010においてNO)、あらかじめ設定されているデフォルトスピーカ配置位置をスピーカ位置として出力し(ステップS011)、処理を終了する(ステップS012)。また、ステップS015において、「スピーカ数=交点数」であった場合(ステップS015においてNOかつステップS008においてYES)、その交点の位置座標をスピーカ配置位置として出力し(ステップS014)、処理を終了する(ステップS012)。
更に、「スピーカ数<交点数」であった場合(ステップS015においてNOかつステップS008においてNO)、交点数の削減処理を行ない、スピーカ数と交点数を一致させた上で(ステップS013)、交点の位置座標をスピーカ配置位置として出力し(ステップS014)、処理を終了する(ステップS012)。
ここでの交点数の削減処理は、交点間の距離が最も近いある2つの交点を選出し、これらに対してステップS006で説明した交点統合処理を適用するものとし、この距離が最も近い交点に対する統合処理を、「スピーカ数=交点数」となるまで繰り返し行なうものとする。
以上のステップにより、スピーカの配置位置を決定する。なお、音声信号処理部103で予め設定されている値として言及した各種パラメータは、予め記憶部104に記録されているものとする。勿論、これらパラメータを任意のユーザインタフェース(図示しない)を用いて、ユーザに入力させるようにしても良い。
また、これ以外の手法を用いてスピーカ位置を決定するようにしても良いことは言うまでもない。例えば、ヒストグラム値の大きい上位1~s番目までに対応する位置、すなわち、特徴的な音像定位位置にスピーカを配置することとしても良い。それ以外にも、ヒストグラムに“大津の閾値選定法”を応用した多値化法を適用し、算出されたs個の閾値位置にスピーカを配置することで、全体の音像定位位置をカバーするスピーカ配置とするものとしても良い。ここでsは、前述の通り配置されるべきスピーカ数である。
[音声信号処理部103について]
(1)再生コンテンツにオブジェクトベースオーディオの音声信号が含まれていた場合
音声信号処理部103は、スピーカ配置位置算出部102で算出されたスピーカの配置位置に基づいて、各スピーカから出力される音声信号を構築する。図9は、第2の実施形態において、ベクトルベースの音圧パンニングの概念を示した図である。図9において、オブジェクトベースオーディオ中の1つの発音オブジェクトのある時間における位置が1103であるとする。また、スピーカ配置位置算出部102で算出されたスピーカの配置位置が発音オブジェクトの位置1103を挟むように1101と1102に指定されていた場合、例えば、非特許文献2に示されるように、これらスピーカを用いたベクトルベースの音圧パンニングで発音オブジェクトを位置1103に再現する。具体的には、受聴者1107に対し、発音オブジェクトから発せられる音の強さを、ベクトル1105で表したとき、このベクトルを受聴者1107と位置1101に位置するスピーカ間のベクトル1104と、受聴者1107と位置1101に位置するスピーカ間のベクトル1106に分解し、この時のベクトル1105に対する比を求める。
(1)再生コンテンツにオブジェクトベースオーディオの音声信号が含まれていた場合
音声信号処理部103は、スピーカ配置位置算出部102で算出されたスピーカの配置位置に基づいて、各スピーカから出力される音声信号を構築する。図9は、第2の実施形態において、ベクトルベースの音圧パンニングの概念を示した図である。図9において、オブジェクトベースオーディオ中の1つの発音オブジェクトのある時間における位置が1103であるとする。また、スピーカ配置位置算出部102で算出されたスピーカの配置位置が発音オブジェクトの位置1103を挟むように1101と1102に指定されていた場合、例えば、非特許文献2に示されるように、これらスピーカを用いたベクトルベースの音圧パンニングで発音オブジェクトを位置1103に再現する。具体的には、受聴者1107に対し、発音オブジェクトから発せられる音の強さを、ベクトル1105で表したとき、このベクトルを受聴者1107と位置1101に位置するスピーカ間のベクトル1104と、受聴者1107と位置1101に位置するスピーカ間のベクトル1106に分解し、この時のベクトル1105に対する比を求める。
すなわち、ベクトル1104とベクトル1105の比をr1、ベクトル1106とベクトル1105の比をr2とすると、これらは各々、
r1=sin(θ2)/sin(θ1+θ2)
r2=cos(θ2)-sin(θ2)/tan(θ1+θ2)
で表すことができる。
r1=sin(θ2)/sin(θ1+θ2)
r2=cos(θ2)-sin(θ2)/tan(θ1+θ2)
で表すことができる。
求めた比を発音音声から発せられる音声信号に掛け合わせたものを、各々1101と1102に配置されたスピーカから再生することで、発音オブジェクトがあたかも位置1103から再生されているように、視聴者に知覚させることができる。以上の処理を、すべての発音オブジェクトに対して行なうことで、出力音声信号を生成することができる。
(2)再生コンテンツにオブジェクトベースオーディオ以外の音声信号が含まれていた場合
この場合、例えば、5.1ch音声が含まれていた場合も同様の処理で、5.1chの推奨配置位置のひとつが位置1103、スピーカ配置位置算出部102で算出されたスピーカの配置位置が1101と1102と考え、上記手順を実行する。
この場合、例えば、5.1ch音声が含まれていた場合も同様の処理で、5.1chの推奨配置位置のひとつが位置1103、スピーカ配置位置算出部102で算出されたスピーカの配置位置が1101と1102と考え、上記手順を実行する。
[記憶部104について]
記憶部104は、コンテンツ解析部101で用いられる種々のデータを記録するための二次記憶装置によって構成される。記憶部104は、例えば、磁気ディスク、光ディスク、フラッシュメモリなどによって構成され、より具体的な例としては、HDD、SSD(Solid State Drive)、SDメモリーカード、BD、DVDなどが挙げられる。コンテン
ツ解析部101は、必要に応じて記憶部104からデータを読み出す。また、解析結果を含む各種パラメータデータを記憶部104に記録することもできる。
記憶部104は、コンテンツ解析部101で用いられる種々のデータを記録するための二次記憶装置によって構成される。記憶部104は、例えば、磁気ディスク、光ディスク、フラッシュメモリなどによって構成され、より具体的な例としては、HDD、SSD(Solid State Drive)、SDメモリーカード、BD、DVDなどが挙げられる。コンテン
ツ解析部101は、必要に応じて記憶部104からデータを読み出す。また、解析結果を含む各種パラメータデータを記憶部104に記録することもできる。
[提示部105について]
提示部105は、スピーカ配置位置算出部102で得られたスピーカの配置位置情報をユーザに提示する。提示方法としては、例えば、図10(A)に示すように液晶ディスプレイ等にユーザとスピーカの配置位置関係を図示しても良いし、図10(B)に示すように、配置位置を数値のみで示しても良い。また、ディスプレイ以外を用いてスピーカ位置を提示しても良く、例えば天井近くにレーザポインタやプロジェクタを設置し、これと連携することで、設置位置を現実世界にマッピングする形で提示することとしても良い。
提示部105は、スピーカ配置位置算出部102で得られたスピーカの配置位置情報をユーザに提示する。提示方法としては、例えば、図10(A)に示すように液晶ディスプレイ等にユーザとスピーカの配置位置関係を図示しても良いし、図10(B)に示すように、配置位置を数値のみで示しても良い。また、ディスプレイ以外を用いてスピーカ位置を提示しても良く、例えば天井近くにレーザポインタやプロジェクタを設置し、これと連携することで、設置位置を現実世界にマッピングする形で提示することとしても良い。
[音声出力部106について]
音声出力部106は、音声信号処理部103で得られた音声を出力する。ここで、音声出力部106は、配置されるs個のスピーカ乃至これらを駆動させる増幅器(アンプ)で構成される。
音声出力部106は、音声信号処理部103で得られた音声を出力する。ここで、音声出力部106は、配置されるs個のスピーカ乃至これらを駆動させる増幅器(アンプ)で構成される。
なお、本実施形態においては、説明を簡単にし、より分かり易くするため、2次元平面上のスピーカ配置について説明を行なったが、これが3次元空間上の配置であっても問題ない。すなわち、オブジェクトベースオーディオの発音オブジェクトの位置情報が高さ方向の情報も含めた3次元座標で表現されたり、22.2chオーディオのような上下位置も含めたスピーカ配置を推奨としたりするものであっても構わない。
<第1の実施形態の変形例1>
第1の実施形態では、スピーカの位置に応じた出力音声の構築処理をスピーカ配置位置指示システム1内の音声信号処理部103で行なったが、この機能をスピーカ配置位置指示システム外部に持たせても良い。すなわち、図11に示すように、第1の実施形態の変形例1に係るスピーカ配置位置指示システム8は、映像コンテンツ乃至音声コンテンツに含まれる音声信号を解析するコンテンツ解析部101と、コンテンツ解析部101で得られた解析結果やコンテンツ解析に必要な各種パラメータを記録している記憶部104と、コンテンツ解析部101で得られた解析結果に基づきスピーカの配置位置を算出するスピーカ配置位置算出部801と、から構成される。なお、スピーカ配置位置指示システム(スピーカ配置位置指示部)8と提示部105とによって、スピーカの配置位置提示装置が構成される。
第1の実施形態では、スピーカの位置に応じた出力音声の構築処理をスピーカ配置位置指示システム1内の音声信号処理部103で行なったが、この機能をスピーカ配置位置指示システム外部に持たせても良い。すなわち、図11に示すように、第1の実施形態の変形例1に係るスピーカ配置位置指示システム8は、映像コンテンツ乃至音声コンテンツに含まれる音声信号を解析するコンテンツ解析部101と、コンテンツ解析部101で得られた解析結果やコンテンツ解析に必要な各種パラメータを記録している記憶部104と、コンテンツ解析部101で得られた解析結果に基づきスピーカの配置位置を算出するスピーカ配置位置算出部801と、から構成される。なお、スピーカ配置位置指示システム(スピーカ配置位置指示部)8と提示部105とによって、スピーカの配置位置提示装置が構成される。
更に、スピーカ配置位置指示システム8はスピーカ配置位置算出部801で算出された各スピーカの位置に基づいて各々が再生する音声信号を再合成する音声信号処理部802と、ユーザにスピーカ位置を提示する提示部105と、信号処理を施した音声信号を出力する音声出力部106といった外部装置と接続されている。
スピーカ配置位置算出部801から、音声信号処理部802へは、第1の実施形態で示したようなスピーカの位置情報が例えばXMLのような任意のフォーマットで伝達され、音声信号処理部802では、第1の実施形態で示したように例えばVBAP方式で出力音声の再構築処理が行なわれる。
なお、図11の中で、他の図と同じ番号を付したものは同様の機能を持つものとし、説明を省略している。
<第1の実施形態の変形例2>
図12に示すように、ユーザが提示部105で提示した位置にスピーカを配置しているかを確認するために、第1の実施形態の構成にさらにスピーカ位置確認部1701を設ける構成としても良い。スピーカ位置確認部1701には、マイクロホンが少なくともひとつ具備され、例えば、特許文献1に開示された技術を用いて、ユーザが配置したスピーカから発せられた音をこのマイクロホンで集音、解析することで実際のスピーカの位置を把握し、これが、提示部105に示した位置と異なる場合は、その旨を提示部105に示し、ユーザに知らせるようにしても良い。なお、スピーカ配置位置指示システム(スピーカ配置位置指示部)17と提示部105とによって、スピーカの配置位置提示装置が構成される。
図12に示すように、ユーザが提示部105で提示した位置にスピーカを配置しているかを確認するために、第1の実施形態の構成にさらにスピーカ位置確認部1701を設ける構成としても良い。スピーカ位置確認部1701には、マイクロホンが少なくともひとつ具備され、例えば、特許文献1に開示された技術を用いて、ユーザが配置したスピーカから発せられた音をこのマイクロホンで集音、解析することで実際のスピーカの位置を把握し、これが、提示部105に示した位置と異なる場合は、その旨を提示部105に示し、ユーザに知らせるようにしても良い。なお、スピーカ配置位置指示システム(スピーカ配置位置指示部)17と提示部105とによって、スピーカの配置位置提示装置が構成される。
<第2の実施形態>
次に、本発明の第2の実施形態について説明する。図13は、本発明の第2の実施形態に係るスピーカ配置位置指示システム9の主要な構成を示す図である。第2の実施形態に係るスピーカ配置位置指示システム9は、再生する環境情報例えば部屋の間取り情報を取得し、これに基づいた好適なスピーカ配置位置を指示するシステムである。図13に示すように、スピーカ配置位置指示システム9は、さまざまな外部機器から得られる環境情報からスピーカ配置に必要な情報を解析する環境情報解析部901と、環境情報解析部901で得られた解析結果や環境情報解析に必要な各種パラメータを記録している記憶部104と、環境情報解析部901で得られた解析結果に基づきスピーカの配置位置を算出するスピーカ配置位置算出部102と、スピーカ配置位置算出部102で算出された各スピーカの位置に基づいて各々が再生する音声信号を再合成する音声信号処理部103と、から構成される。
次に、本発明の第2の実施形態について説明する。図13は、本発明の第2の実施形態に係るスピーカ配置位置指示システム9の主要な構成を示す図である。第2の実施形態に係るスピーカ配置位置指示システム9は、再生する環境情報例えば部屋の間取り情報を取得し、これに基づいた好適なスピーカ配置位置を指示するシステムである。図13に示すように、スピーカ配置位置指示システム9は、さまざまな外部機器から得られる環境情報からスピーカ配置に必要な情報を解析する環境情報解析部901と、環境情報解析部901で得られた解析結果や環境情報解析に必要な各種パラメータを記録している記憶部104と、環境情報解析部901で得られた解析結果に基づきスピーカの配置位置を算出するスピーカ配置位置算出部102と、スピーカ配置位置算出部102で算出された各スピーカの位置に基づいて各々が再生する音声信号を再合成する音声信号処理部103と、から構成される。
また、スピーカ配置位置指示システム9は、外部装置としてユーザにスピーカ位置を提示する提示部105と、信号処理を施した音声信号を出力する音声出力部106に接続されている。なお、スピーカ配置位置指示システム(スピーカ配置位置指示部)9と提示部105とによって、スピーカの配置位置提示装置が構成される。
なお、図13に示したブロック図のうち、図1と同様の番号を付したブロックについては同様の機能を持つため説明を割愛し、本実施形態では、主に環境情報解析部901、スピーカ配置位置算出部902について説明する。
[環境情報解析部901について]
環境情報解析部901は、入力されたスピーカを配置する部屋の情報から、スピーカ配置位置の尤度情報を計算する。まず、環境情報解析部901は、図14Aに示すような平面図を取得する。平面図は、例えば、部屋の天井に設置されたカメラで撮影された画像を用いるものとする。本実施形態で入力された平面図1401内には、テレビ1402、ソファー1403、家具1404並びに1405が配置されているものとする。ここで、環境情報解析部901は、液晶ディスプレイ等で構成される提示部103を介してユーザに対し平面図1401を提示し、ユーザに、ユーザ入力受付部903を介して、テレビの位置1407と、視聴位置1406を入力させる。
環境情報解析部901は、入力されたスピーカを配置する部屋の情報から、スピーカ配置位置の尤度情報を計算する。まず、環境情報解析部901は、図14Aに示すような平面図を取得する。平面図は、例えば、部屋の天井に設置されたカメラで撮影された画像を用いるものとする。本実施形態で入力された平面図1401内には、テレビ1402、ソファー1403、家具1404並びに1405が配置されているものとする。ここで、環境情報解析部901は、液晶ディスプレイ等で構成される提示部103を介してユーザに対し平面図1401を提示し、ユーザに、ユーザ入力受付部903を介して、テレビの位置1407と、視聴位置1406を入力させる。
環境情報解析部901は、スピーカを配置する位置の候補として、入力されたテレビの位置1407と、視聴位置1406の距離を半径とする同心円1408を平面図1401上に表示する。更に環境情報解析部901は、ユーザに対し、表示した同心円上でスピーカの配置することのできないエリアを入力させる。本実施形態では、配置されている家具によって設置できないエリアとなる1409と1410、部屋の形状から設置できないエリアとなる1411が入力されるものとする。以上の入力から、環境情報解析部901は、スピーカ設置可能エリアの設置尤度を1、スピーカ設置不可能エリアの設置尤度を0とする、図15に示すような設置尤度(グラフ)1301を作成し、スピーカ配置位置算出部902にその情報を引き渡す。
なお、本実施形態において、ユーザの入力は、環境情報解析部901に接続された外部装置ユーザ入力受付部903を介して入力されるものとし、ユーザ入力受付部903はタッチパネルやマウス、キーボードなどで構成されるものとする。
[スピーカ配置位置算出部902について]
スピーカ配置位置算出部902は、環境情報解析部901から得られたスピーカの設置尤度情報に基づいて、スピーカを配置する位置を決定する。図16は、スピーカ配置位置を算出する動作を示すフローチャートである。図16において処理が開始されると(ステップS201)、スピーカ配置位置算出部902は、記憶部104から、デフォルトのスピーカ配置位置情報を読み出す(ステップS202)。本実施形態では、5.1chのLFE(Low Frequency Effect)を除くスピーカの配置位置情報を読み出すものとする。
スピーカ配置位置算出部902は、環境情報解析部901から得られたスピーカの設置尤度情報に基づいて、スピーカを配置する位置を決定する。図16は、スピーカ配置位置を算出する動作を示すフローチャートである。図16において処理が開始されると(ステップS201)、スピーカ配置位置算出部902は、記憶部104から、デフォルトのスピーカ配置位置情報を読み出す(ステップS202)。本実施形態では、5.1chのLFE(Low Frequency Effect)を除くスピーカの配置位置情報を読み出すものとする。
なお、図17Aに示すように、第1の実施形態で示したコンテンツ情報に基づくスピーカ配置位置情報を使用してスピーカ位置1501~1505と表示しても良い。すなわち、本実施形態で示すスピーカ配置位置指示システム9にコンテンツ解析部101を含める構成としても良い。
次に、スピーカ配置位置算出部902は、読みだした全てのスピーカ位置について、ステップS203からステップS206間の処理を繰り返す。各スピーカ位置は、現在のスピーカ位置±Θαの範囲内に、その隣接するスピーカとの位置関係がΘ_min以上Θ_max未満且つ尤度値が0より大きい値を持つ位置が存在するかどうかを検査し、これが存在する場合(ステップS204においてYES)、前記条件を満たす位置情報の中で、最大尤度値を持つ位置にスピーカ位置を更新する(ステップS205)。
例えば、平面図1401においては、設置尤度1301に基づいて、図17Bに示すように、デフォルト位置が1504、1505に指定されていたスピーカ位置を、各々1506、1507の位置に更新する。全てのスピーカで処理が行なわれたら、スピーカ配置位置を出力し(ステップS207)、処理を終了する(ステップS208)。
一方で、ステップS204の条件を満たさないスピーカ位置情報が一つでも存在した場合は、スピーカの配置が不可能と判断しエラーを提示し(ステップS209)、処理を終了する(ステップS208)。なお、Θα、Θ_min、Θ_maxは、記憶部104に記憶された予め設定された値である。最終的にスピーカ配置位置算出部902は、以上の処理で得られた結果を、提示部105を通じてユーザに提示する。
なお、以上の実施形態では、設置尤度グラフを、部屋内に物理的に配置可能か否かに基づいて作成したが、それ以外の情報を用いて同グラフを作成しても良いことは言うまでもない。例えば、環境情報解析部901におけるユーザからの入力に、壁や家具の位置に加えて、その材質情報(木材、金属、コンクリート)を入力させるようにし、この反射係数を加味した設置尤度を設定するようにしても良い。
本発明の一態様は、以下の態様を取ることが可能である。すなわち、(1)本発明の一態様のスピーカの配置位置提示システムは、音声信号を物理振動として出力する複数のスピーカの配置位置を提示するスピーカの配置位置提示システムであって、入力されたコンテンツデータの特徴量または前記コンテンツデータを再生する環境を特定する情報の少なくとも一方を解析する解析部と、前記解析された特徴量または前記環境を特定する情報に基づいて、スピーカの配置位置を算出するスピーカ配置位置算出部と、前記算出したスピーカの配置位置を提示する提示部と、を備える。
(2)また、本発明の一態様のスピーカの配置位置提示システムにおいて、前記解析部は、前記入力されたコンテンツデータに含まれる音声信号に付随する位置情報パラメータを用いて、スピーカを配置する候補となる位置における音声定位の頻度を示すヒストグラムを生成し、前記スピーカ配置位置算出部は、音声定位の頻度の閾値と前記ヒストグラムとの交点の数が、前記スピーカの数と同数となったときの前記交点の座標位置をスピーカの配置位置とする。
(3)また、本発明の一態様のスピーカの配置位置提示システムにおいて、前記解析部は、前記入力されたコンテンツデータに含まれる音声信号に付随する位置情報パラメータを用いて、隣接する位置から出力される音声信号間の相関値を算出し、前記相関値に基づいて、スピーカを配置する候補となる位置における音声定位の頻度を示すヒストグラムを生成し、前記スピーカ配置位置算出部は、音声定位の頻度の閾値と前記ヒストグラムとの交点の数が、前記スピーカの数と同数となったときの前記交点の座標位置をスピーカの配置位置とする。
(4)また、本発明の一態様のスピーカの配置位置提示システムにおいて、前記解析部は、スピーカの配置が可能である領域または不可能である領域を示す可否情報を入力し、スピーカを配置する候補となる位置の尤度を示す尤度情報を生成し、前記スピーカ配置位置算出部は、前記尤度情報に基づいて、スピーカの配置位置を決定する。
(5)また、本発明の一態様のスピーカの配置位置提示システムは、ユーザの操作を受け付けて、スピーカの配置が可能である領域または不可能である領域を示す可否情報を入力するユーザ入力受付部を備える。
(6)また、本発明の一態様のスピーカの配置位置提示システムは、前記スピーカの配置位置を示す情報および前記入力されたコンテンツデータに基づいて、各スピーカで出力される音声信号を生成する音声信号処理部を備える。
(7)また、本発明の一態様のプログラムは、マルチチャネル音声信号を物理振動として出力する複数のスピーカの配置位置を提示するスピーカの配置位置提示システムのプログラムであって、入力されたコンテンツデータの特徴量または前記コンテンツデータを再生する環境を特定する情報の少なくとも一方を解析する処理と、前記解析された特徴量または前記環境を特定する情報に基づいて、スピーカの配置位置を算出する処理と、前記算出したスピーカの配置位置を提示する処理と、の一連の処理を、コンピュータに実行させる。
(8)また、本発明の一態様のプログラムは、前記入力されたコンテンツデータに含まれる音声信号に付随する位置情報パラメータを用いて、スピーカを配置する候補となる位置における音声定位の頻度を示すヒストグラムを生成する処理と、音声定位の頻度の閾値と前記ヒストグラムとの交点の数が、前記スピーカの数と同数となったときの前記交点の座標位置をスピーカの配置位置とする処理と、をさらに含む。
(9)また、本発明の一態様のプログラムは、前記入力されたコンテンツデータに含まれる音声信号に付随する位置情報パラメータを用いて、隣接する位置から出力される音声信号間の相関値を算出し、前記相関値に基づいて、スピーカを配置する候補となる位置における音声定位の頻度を示すヒストグラムを生成する処理と、音声定位の頻度の閾値と前記ヒストグラムとの交点の数が、前記スピーカの数と同数となったときの前記交点の座標位置をスピーカの配置位置とする処理と、をさらに含む。
(10)また、本発明の一態様のプログラムは、スピーカの配置が可能である領域または不可能である領域を示す可否情報を入力し、スピーカを配置する候補となる位置の尤度を示す尤度情報を生成する処理と、前記尤度情報に基づいて、スピーカの配置位置を決定する処理と、をさらに含む。
(11)また、本発明の一態様のプログラムは、ユーザ入力受付部において、ユーザの操作を受け付けて、スピーカの配置が可能である領域または不可能である領域を示す可否情報を入力する処理をさらに含む。
(12)また、本発明の一態様のプログラムは、前記スピーカの配置位置を示す情報および前記入力されたコンテンツデータに基づいて、各スピーカで出力される音声信号を生成する処理をさらに含む。
以上説明したように、本実施形態によれば、ユーザにとって好適なスピーカの配置位置を自動で算出し、その配置位置情報をユーザに提供することが可能となる。
(関連出願の相互参照)
本出願は、2015年12月21日に出願された日本国特許出願:特願2015-248970に対して優先権の利益を主張するものであり、それを参照することにより、その内容の全てが本書に含まれる。
本出願は、2015年12月21日に出願された日本国特許出願:特願2015-248970に対して優先権の利益を主張するものであり、それを参照することにより、その内容の全てが本書に含まれる。
1 スピーカ配置位置指示システム(スピーカ配置位置指示部)
4 ヒストグラム
8 スピーカ配置位置指示システム(スピーカ配置位置指示部)
9 スピーカ配置位置指示システム(スピーカ配置位置指示部)
101 コンテンツ解析部
102 スピーカ配置位置算出部
103 音声信号処理部
104 記憶部
105 提示部
106 音声出力部
201 センターチャネル
202 フロントライトチャネル
203 フロントレフトチャネル
204 サラウンドライトチャネル
205 サラウンドレフトチャネル
701 定位位置ヒストグラム
702 閾値Th
703、704、705、706 交点
801 スピーカ配置位置算出部
802 音声信号処理部
901 環境情報解析部
902 スピーカ配置位置算出部
903 ユーザ入力受付部
1101、1102 発音オブジェクトの位置
1103 オブジェクトベースオーディオ中の1つの発音オブジェクトのある時間における位置
1104、1105、1106 ベクトル
1107 受聴者
1201 FL(フロントレフトチャネル)
1202 FR(フロントライトチャネル)
1203 音像定位位置
1301 設置尤度
1401 平面図
1402 テレビ
1403 ソファー
1404、1405 家具
1406 視聴位置
1407 入力されたテレビの位置
1408 同心円
1409、1410、1411 設置できないエリア
1501、1502、1503、1504、1505、1506、1507 スピーカ位置
4 ヒストグラム
8 スピーカ配置位置指示システム(スピーカ配置位置指示部)
9 スピーカ配置位置指示システム(スピーカ配置位置指示部)
101 コンテンツ解析部
102 スピーカ配置位置算出部
103 音声信号処理部
104 記憶部
105 提示部
106 音声出力部
201 センターチャネル
202 フロントライトチャネル
203 フロントレフトチャネル
204 サラウンドライトチャネル
205 サラウンドレフトチャネル
701 定位位置ヒストグラム
702 閾値Th
703、704、705、706 交点
801 スピーカ配置位置算出部
802 音声信号処理部
901 環境情報解析部
902 スピーカ配置位置算出部
903 ユーザ入力受付部
1101、1102 発音オブジェクトの位置
1103 オブジェクトベースオーディオ中の1つの発音オブジェクトのある時間における位置
1104、1105、1106 ベクトル
1107 受聴者
1201 FL(フロントレフトチャネル)
1202 FR(フロントライトチャネル)
1203 音像定位位置
1301 設置尤度
1401 平面図
1402 テレビ
1403 ソファー
1404、1405 家具
1406 視聴位置
1407 入力されたテレビの位置
1408 同心円
1409、1410、1411 設置できないエリア
1501、1502、1503、1504、1505、1506、1507 スピーカ位置
Claims (6)
- 音声信号を物理振動として出力する複数のスピーカの配置位置を提示するスピーカの配置位置提示装置であって、
入力されたコンテンツデータの特徴量、および入力された、前記コンテンツデータを再生する環境を特定する情報の少なくとも一方に基づいて、スピーカの配置位置を算出するスピーカ配置位置指示部と、
前記算出したスピーカの配置位置を提示する提示部と、
を備えるスピーカの配置位置提示装置。 - 前記スピーカ配置位置指示部は、
前記入力されたコンテンツデータの特徴量、および前記入力された、前記コンテンツデータを再生する環境を特定する情報の少なくとも一方を解析する解析部と、
前記解析された特徴量または前記環境を特定する情報に基づいて、スピーカの配置位置を算出するスピーカ配置位置算出部と
を備えることを特徴とする請求項1記載のスピーカの配置位置提示装置。 - 前記解析部は、前記入力されたコンテンツデータに含まれる音声信号に付随する位置情報パラメータを用いて、スピーカを配置する候補となる位置における音声定位の頻度を示すヒストグラムを生成し、
前記スピーカ配置位置算出部は、音声定位の頻度の閾値と前記ヒストグラムとの交点の数が、前記スピーカの数と同数となったときの前記交点の座標位置をスピーカの配置位置とする請求項2記載のスピーカの配置位置提示装置。 - 前記解析部は、前記入力されたコンテンツデータに含まれる音声信号に付随する位置情報パラメータを用いて、隣接する位置から出力される音声信号間の相関値を算出し、前記相関値に基づいて、スピーカを配置する候補となる位置における音声定位の頻度を示すヒストグラムを生成し、
前記スピーカ配置位置算出部は、音声定位の頻度の閾値と前記ヒストグラムとの交点の数が、前記スピーカの数と同数となったときの前記交点の座標位置をスピーカの配置位置とする請求項2記載のスピーカの配置位置提示装置。 - 前記解析部は、スピーカの配置が可能である領域または不可能である領域を示す可否情報を入力し、スピーカを配置する候補となる位置の尤度を示す尤度情報を生成し、
前記スピーカ配置位置算出部は、前記尤度情報に基づいて、スピーカの配置位置を決定する請求項2から請求項4のいずれか1項に記載のスピーカの配置位置提示装置。 - ユーザの操作を受け付けて、スピーカの配置が可能である領域または不可能である領域を示す可否情報を入力するユーザ入力受付部を備える請求項5記載のスピーカの配置位置提示装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201680075025.5A CN109479177B (zh) | 2015-12-21 | 2016-12-21 | 扬声器的配置位置提示装置 |
US16/064,586 US10547962B2 (en) | 2015-12-21 | 2016-12-21 | Speaker arranged position presenting apparatus |
JP2017558194A JP6550473B2 (ja) | 2015-12-21 | 2016-12-21 | スピーカの配置位置提示装置 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015248970 | 2015-12-21 | ||
JP2015-248970 | 2015-12-21 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2017110882A1 true WO2017110882A1 (ja) | 2017-06-29 |
Family
ID=59089408
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2016/088122 WO2017110882A1 (ja) | 2015-12-21 | 2016-12-21 | スピーカの配置位置提示装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10547962B2 (ja) |
JP (1) | JP6550473B2 (ja) |
CN (1) | CN109479177B (ja) |
WO (1) | WO2017110882A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020235307A1 (ja) | 2019-05-17 | 2020-11-26 | 株式会社東海理化電機製作所 | コンテンツ提供システム、出力装置、及び情報処理方法 |
WO2021220821A1 (ja) * | 2020-04-28 | 2021-11-04 | パナソニックIpマネジメント株式会社 | 制御装置、制御装置の処理方法、および、プログラム |
WO2023013154A1 (ja) * | 2021-08-06 | 2023-02-09 | ソニーグループ株式会社 | 音響処理装置、音響処理方法、音響処理プログラムおよび音響処理システム |
JP7470695B2 (ja) | 2019-01-08 | 2024-04-18 | テレフオンアクチーボラゲット エルエム エリクソン(パブル) | 仮想現実のための効率的な空間的にヘテロジーニアスなオーディオ要素 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220295206A1 (en) * | 2019-08-09 | 2022-09-15 | Lg Electronics Inc. | Display device and operating method thereof |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008227942A (ja) * | 2007-03-13 | 2008-09-25 | Pioneer Electronic Corp | コンテンツ再生装置及びコンテンツ再生方法 |
JP2010193323A (ja) * | 2009-02-19 | 2010-09-02 | Casio Hitachi Mobile Communications Co Ltd | 録音装置、再生装置、録音方法、再生方法、及びコンピュータプログラム |
JP2015167274A (ja) * | 2014-03-03 | 2015-09-24 | 日本放送協会 | スピーカ配置提示装置、スピーカ配置提示方法、スピーカ配置提示プログラム |
JP2015228625A (ja) * | 2014-06-02 | 2015-12-17 | ヤマハ株式会社 | 位置特定装置およびオーディオ装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050057288A (ko) * | 2002-09-09 | 2005-06-16 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 스마트 스피커들 |
JP4581831B2 (ja) | 2005-05-16 | 2010-11-17 | ソニー株式会社 | 音響装置、音響調整方法および音響調整プログラム |
CN1878433A (zh) * | 2005-06-09 | 2006-12-13 | 乐金电子(沈阳)有限公司 | 家庭影院中背部扬声器的最佳位置设定方法及装置 |
CN101136199B (zh) * | 2006-08-30 | 2011-09-07 | 纽昂斯通讯公司 | 语音数据处理方法和设备 |
JP5439602B2 (ja) * | 2009-11-04 | 2014-03-12 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | 仮想音源に関連するオーディオ信号についてスピーカ設備のスピーカの駆動係数を計算する装置および方法 |
JP2013055439A (ja) | 2011-09-02 | 2013-03-21 | Sharp Corp | 音声信号変換装置、方法、プログラム、及び記録媒体 |
JP6186436B2 (ja) * | 2012-08-31 | 2017-08-23 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 個々に指定可能なドライバへの上方混合されたコンテンツの反射されたおよび直接的なレンダリング |
RU2667377C2 (ru) * | 2013-04-26 | 2018-09-19 | Сони Корпорейшн | Способ и устройство обработки звука и программа |
US9432791B2 (en) * | 2013-12-11 | 2016-08-30 | Harman International Industries, Inc. | Location aware self-configuring loudspeaker |
-
2016
- 2016-12-21 WO PCT/JP2016/088122 patent/WO2017110882A1/ja active Application Filing
- 2016-12-21 JP JP2017558194A patent/JP6550473B2/ja not_active Expired - Fee Related
- 2016-12-21 CN CN201680075025.5A patent/CN109479177B/zh not_active Expired - Fee Related
- 2016-12-21 US US16/064,586 patent/US10547962B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008227942A (ja) * | 2007-03-13 | 2008-09-25 | Pioneer Electronic Corp | コンテンツ再生装置及びコンテンツ再生方法 |
JP2010193323A (ja) * | 2009-02-19 | 2010-09-02 | Casio Hitachi Mobile Communications Co Ltd | 録音装置、再生装置、録音方法、再生方法、及びコンピュータプログラム |
JP2015167274A (ja) * | 2014-03-03 | 2015-09-24 | 日本放送協会 | スピーカ配置提示装置、スピーカ配置提示方法、スピーカ配置提示プログラム |
JP2015228625A (ja) * | 2014-06-02 | 2015-12-17 | ヤマハ株式会社 | 位置特定装置およびオーディオ装置 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7470695B2 (ja) | 2019-01-08 | 2024-04-18 | テレフオンアクチーボラゲット エルエム エリクソン(パブル) | 仮想現実のための効率的な空間的にヘテロジーニアスなオーディオ要素 |
US11968520B2 (en) | 2019-01-08 | 2024-04-23 | Telefonaktiebolaget Lm Ericsson (Publ) | Efficient spatially-heterogeneous audio elements for virtual reality |
WO2020235307A1 (ja) | 2019-05-17 | 2020-11-26 | 株式会社東海理化電機製作所 | コンテンツ提供システム、出力装置、及び情報処理方法 |
WO2021220821A1 (ja) * | 2020-04-28 | 2021-11-04 | パナソニックIpマネジメント株式会社 | 制御装置、制御装置の処理方法、および、プログラム |
JPWO2021220821A1 (ja) * | 2020-04-28 | 2021-11-04 | ||
JP7457893B2 (ja) | 2020-04-28 | 2024-03-29 | パナソニックIpマネジメント株式会社 | 制御装置、制御装置の処理方法、および、プログラム |
WO2023013154A1 (ja) * | 2021-08-06 | 2023-02-09 | ソニーグループ株式会社 | 音響処理装置、音響処理方法、音響処理プログラムおよび音響処理システム |
Also Published As
Publication number | Publication date |
---|---|
CN109479177A (zh) | 2019-03-15 |
US10547962B2 (en) | 2020-01-28 |
US20190007782A1 (en) | 2019-01-03 |
JP6550473B2 (ja) | 2019-07-24 |
CN109479177B (zh) | 2021-02-09 |
JPWO2017110882A1 (ja) | 2018-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2017110882A1 (ja) | スピーカの配置位置提示装置 | |
CN107690123B (zh) | 音频提供方法 | |
CN104822036B (zh) | 用于局域化感知音频的技术 | |
US9131298B2 (en) | Constrained dynamic amplitude panning in collaborative sound systems | |
US9119011B2 (en) | Upmixing object based audio | |
JP5973058B2 (ja) | レイアウト及びフォーマットに依存しない3dオーディオ再生のための方法及び装置 | |
JP7504140B2 (ja) | 音響処理装置および方法、並びにプログラム | |
JP2018201225A (ja) | 音響信号のレンダリング方法、装置及び記録媒体 | |
CN106961647A (zh) | 音频再生装置以及方法 | |
US20210076153A1 (en) | Enabling Rendering, For Consumption by a User, of Spatial Audio Content | |
KR102527336B1 (ko) | 가상 공간에서 사용자의 이동에 따른 오디오 신호 재생 방법 및 장치 | |
US10999678B2 (en) | Audio signal processing device and audio signal processing system | |
JP6663490B2 (ja) | スピーカシステム、音声信号レンダリング装置およびプログラム | |
JP2022537513A (ja) | 音場関連レンダリング | |
US10986457B2 (en) | Method and device for outputting audio linked with video screen zoom | |
WO2018150774A1 (ja) | 音声信号処理装置及び音声信号処理システム | |
JP6694755B2 (ja) | チャンネル数変換装置およびそのプログラム | |
JP7451896B2 (ja) | 音響処理装置および音響処理方法 | |
KR102058619B1 (ko) | 예외 채널 신호의 렌더링 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 16878769 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2017558194 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 16878769 Country of ref document: EP Kind code of ref document: A1 |