WO2017061278A1 - 信号処理装置、信号処理方法及びコンピュータプログラム - Google Patents

信号処理装置、信号処理方法及びコンピュータプログラム Download PDF

Info

Publication number
WO2017061278A1
WO2017061278A1 PCT/JP2016/077869 JP2016077869W WO2017061278A1 WO 2017061278 A1 WO2017061278 A1 WO 2017061278A1 JP 2016077869 W JP2016077869 W JP 2016077869W WO 2017061278 A1 WO2017061278 A1 WO 2017061278A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal processing
content
sound
real space
effect
Prior art date
Application number
PCT/JP2016/077869
Other languages
English (en)
French (fr)
Inventor
稀淳 金
俊一 笠原
将治 吉野
稲見 昌彦
孝太 南澤
裕太 杉浦
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP16853432.9A priority Critical patent/EP3361756B1/en
Priority to US15/761,647 priority patent/US10674304B2/en
Priority to JP2017544446A priority patent/JP6897565B2/ja
Priority to CN201680057456.9A priority patent/CN108141693B/zh
Publication of WO2017061278A1 publication Critical patent/WO2017061278A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone

Definitions

  • the present disclosure relates to a signal processing device, a signal processing method, and a computer program.
  • a new and improved signal capable of reproducing an environment different from the real space in the real space by giving the sound emitted in the real space an acoustic characteristic different from the real space.
  • a processing device, a signal processing method, and a computer program are proposed.
  • a predetermined acoustic characteristic for causing the user to listen to the collected ambient sound of the user in a space having different acoustic characteristics is determined according to the content being reproduced or the user's behavior.
  • a signal processing device including a control unit that applies the determined acoustic characteristics to the ambient sound.
  • predetermined acoustic characteristics for allowing the user to listen to the collected ambient sounds of the user in a space having different acoustic characteristics are determined according to the content being reproduced or the user's behavior.
  • a signal processing method including a processor executing a process of adding the determined acoustic characteristic to the ambient sound.
  • predetermined acoustic characteristics for allowing the user to listen to the collected ambient sounds of the user in a space having different acoustic characteristics are determined according to the content being reproduced or the user's behavior.
  • a computer program for causing a computer to add the determined acoustic characteristic to the ambient sound is provided.
  • Embodiment of the present disclosure 1.1. Outline 1.2. First configuration example and operation example 1.3. Second configuration example and operation example 1.4. Third Configuration Example and Operation Example 1.5. Fourth configuration example and operation example 1.6. Fifth configuration example 1.7. Modification 2 Summary
  • FIG. 1 is an explanatory diagram illustrating an outline of an embodiment of the present disclosure.
  • the signal processing device 100 shown in FIG. 1 is a device that performs signal processing that adds the acoustic characteristics of another space to the sound emitted in the physical space (real space) in which the microphone 10 is placed.
  • the signal processing apparatus 100 reproduces another space in the real space or expands the real space in the other space by performing signal processing that adds the acoustic characteristics of the other space to the sound emitted in the real space. Can give an effect.
  • the microphone 10 placed on the table 11 collects sounds emitted in the real space, for example, sounds of human conversation and sounds when an object is placed on the table 11.
  • the microphone 10 outputs the collected sound to the signal processing device 100.
  • the signal processing apparatus 100 performs signal processing that adds the acoustic characteristics of other spaces to the sound collected by the microphone 10. For example, the signal processing device 100 identifies the acoustic characteristics of another space from the content output from the display device 20 placed in the real space, and adds the acoustic characteristics to the sound collected by the microphone 10. . Then, the signal processing apparatus 100 outputs the signal after signal processing to the speaker 12.
  • the speaker 12 is placed on the back surface of the table 11, for example.
  • the signal processing device 100 when the content output from the display device 20 is a scene in a cave, if a person in the real space makes a sound, the signal processing device 100 outputs the sound in the same manner as the cave in the content. Add an acoustic characteristic that makes the sound reverberated.
  • the signal processing device 100 when the content output from the display device 20 is a concert video, when a person in the real space makes a sound, the signal processing device 100 emits the same as the concert hall in the content. Add acoustic properties that make the sound reverberate. Note that the signal processing apparatus 100 can reproduce the space in the same manner when playing concert music without displaying video.
  • the signal processing device 100 adds, for example, a sound having a phase opposite to that sound as an effect. This makes it difficult to hear the sound that is actually emitted, and can reproduce a space like a vacuum space.
  • the signal processing device 100 when the content output from the display device 20 is content with the water surface as the main content, when a person in the real space emits sound, the signal processing device 100 applies a sound to the sound emitted in the real space. Reproduces the water surface space by adding reverberation sound that seems to have fallen on the water surface. Further, for example, when the content output from the display device 20 is an image of an underwater space, when a person in the real space emits a sound, the signal processing device 100 reverberates as if the sound was emitted underwater. Append.
  • the signal processing device 100 displays the acoustic characteristics of the virtual space. Apply to sound emitted in physical space and output.
  • the signal processing device 100 when the video in the game content is a video of a cave, the signal processing device 100 echoes the sound of the real space as if it were in a cave space. Further, for example, when the video in the game content is an underwater video, the signal processing device 100 reverberates the sound in the real space as if it were underwater. Further, for example, when the video in the game content is an SF (Science Fiction) video, the signal processing device 100 adds respiration sounds of characters appearing in the content as reverberation to sounds generated in the real space. Output.
  • the signal processing apparatus 100 can expand the real space to the virtual space by applying the acoustic characteristics of the virtual space to the sound generated in the physical space and outputting the sound.
  • the signal processing device 100 may dynamically switch the space to be reproduced for each scene of the content output from the display device 20.
  • the signal processing device 100 dynamically switches the acoustic characteristics to be added to the sound generated in the real space in conjunction with the content scene output from the display device 20, for example, in one content Each time is switched, the same space as that scene can be experienced by a person in the real space.
  • the signal processing device 100 gives an acoustic characteristic as if it is underwater, and the scene is switched to be inside a cave. In this scene, the signal processing apparatus 100 gives an acoustic characteristic as if in a cave.
  • the speaker 12 outputs the sound that has been subjected to signal processing by the signal processing device 100, so that a person located in the real space can reproduce the sound emitted in the real space in the content that the display device 20 outputs. It can be heard like a sound emitted in space.
  • the signal processing device 100 executes signal processing that allows the sound emitted in the real space to be heard as if it were emitted in the space in the content output by the display device 20.
  • 1 illustrates a state in which the microphone 10 is placed on the table 11 and the speaker 12 is provided on the back surface of the table 11, the present disclosure is not limited to such an example.
  • the microphone 10 and the speaker 12 may be built in the display device 20.
  • the microphone 10 and the speaker 12 may be placed in the same room as the room where the display device 20 is placed.
  • FIG. 2 is an explanatory diagram for explaining the outline of the embodiment of the present disclosure.
  • FIG. 2 illustrates a case where the signal processing device 100 configured as a device such as a smartphone performs processing for adding the acoustic characteristics of another space based on the content being played back by the signal processing device 100. This is a configuration example of the system.
  • the signal processing device 100 Performs signal processing on the sound collected by the microphones 10a and 10b. This signal processing is processing for adding acoustic characteristics of other spaces based on the content being played back by the signal processing apparatus 100.
  • the microphones 10a and 10b collect voices uttered by the listeners themselves and sounds emitted around the listeners.
  • the signal processing device 100 performs signal processing for adding acoustic characteristics of other spaces to the sound in the real space collected by the microphones 10a and 10b, and outputs the sound after the signal processing from the earphones 12a and 12b.
  • the signal processing device 100 when a listener listens to a live sound source of a concert using the signal processing device 100 in a real space such as in a train, the signal processing device 100 is used for the surrounding people in the real space (in the train).
  • the sound characteristics of the concert hall are added to the voice and the sound, and the result is output from the earphones 12a and 12b.
  • the signal processing apparatus 100 adds the acoustic characteristics of the concert hall to the voices and sounds of surrounding people in the real space (in the train) and outputs the result, including other people in the train.
  • the concert hall space can be reproduced.
  • the sound may be recorded by the microphones 10a and 10b, and the content may be created by adding the acoustic characteristics of the space where the sound is recorded.
  • the signal processing apparatus 100 senses the space where the sound was actually recorded as binaural three-dimensional sound, and at the same time outputs the sound emitted in the real space by adding the acoustic characteristics of the place where the sound was recorded. Reproduce a more realistic space.
  • the acoustic characteristics to be added to the sound emitted in the real space can be switched for each signal processing apparatus 100. Since the signal processing apparatus 100 adds different acoustic characteristics to the sound emitted in the real space even though a plurality of people are viewing the same content in the same real space, the signal processing device 100 creates a space for each listener. Makes it possible to feel.
  • FIG. 3 is an explanatory diagram illustrating a first configuration example of the signal processing device 100 according to the embodiment of the present disclosure.
  • meta information such as effect parameters and effect names for sounds in the real space is assigned in advance to the content being played back (by the display device 20 or the signal processing device 100).
  • parameters for effect processing for the sound in the real space are set.
  • the signal processing device 100 includes a meta information extraction unit 110 and an effect setting unit 120.
  • the meta information extraction unit 110 extracts meta information from the content being played back.
  • the meta information extraction unit 110 extracts, for example, meta information such as effect parameters and effect names previously assigned to the content as meta information.
  • the meta information extraction unit 110 outputs the extracted meta information to the effect setting unit 120.
  • the meta information extraction unit 110 may execute the extraction of meta information at a predetermined interval, or may be executed when it is detected that the meta information has been switched.
  • the effect setting unit 120 is an example of the control unit of the present disclosure, and performs an effect process on the sound emitted in the real space, so that the sound emitted in the real space is added to another space in the content being played back.
  • the signal processing which adds the acoustic characteristic of is performed.
  • the effect setting unit 120 sets effect processing parameters for the sound emitted in the real space using the meta information extracted by the meta information extraction unit 110 when performing signal processing to add the acoustic characteristics of other spaces. .
  • the effect setting unit 120 sets an effect processing parameter for a sound emitted in real space based on the parameter. Further, for example, if the meta information output from the meta information extraction unit 110 is an effect name, the effect setting unit 120 sets the effect processing parameters for the sound emitted in the real space based on the effect name.
  • the effect setting unit 120 gives an effect of being in a cave, as an effect, the sound set in the real space is echoed to increase the remaining time of the sound.
  • the effect setting unit 120 gives an effect such as being underwater, the effect setting unit 120 applies an effect such that water bubbles are emitted to the sound generated in the real space.
  • the effect setting unit 120 sets a parameter for effect processing for a sound emitted in the real space using the meta information extracted by the meta information extraction unit 110, the effect processing for the sound emitted in the real space using the parameter is performed. To output the sound after effect processing.
  • the signal processing device 100 has the configuration as shown in FIG. 3, so that the real-time space is based on the meta information given in advance to the content being played back (by the display device 20 or the signal processing device 100). You can set parameters for effect processing for sound.
  • FIG. 4 is an explanatory diagram illustrating a first operation example of the signal processing device 100 according to the embodiment of the present disclosure.
  • meta information such as effect parameters and effect names for sounds in the real space is given in advance to the content being played (in the display device 20 or the signal processing device 100).
  • parameters for effect processing for the sound in the real space are set.
  • the signal processing apparatus 100 continuously acquires ambient environmental sounds emitted in the real space (step S101).
  • the environmental sound is acquired by, for example, the microphone 10 shown in FIG. 1 or the microphones 10a and 10b shown in FIG.
  • the signal processing apparatus 100 extracts meta information from the content being played back (step S102).
  • the signal processing apparatus 100 extracts meta information such as effect parameters and effect names previously assigned to the content as meta information.
  • the signal processing apparatus 100 may execute the extraction of the meta information at a predetermined interval, or may be executed when it is detected that the meta information has been switched.
  • the signal processing apparatus 100 When the signal processing apparatus 100 extracts the meta information from the content being reproduced, the signal processing apparatus 100 sets the effect processing parameters to be executed for the environmental sound acquired in step S101 using the meta information acquired in step S102. (Step S103). When the effect processing parameter is set, the signal processing apparatus 100 executes the effect processing on the environmental sound acquired in step S101 using the parameter, and outputs the sound after the effect processing.
  • the signal processing device 100 performs an operation as shown in FIG. 4, so that the real space is based on the meta information given in advance to the content being reproduced (in the display device 20 or the signal processing device 100). It is possible to set the effect processing parameters for the sound.
  • FIG. 5 is an explanatory diagram illustrating a second configuration example of the signal processing device 100 according to the embodiment of the present disclosure.
  • the second configuration example shown in FIG. 5 performs an image recognition process on the content being reproduced (in the display device 20 or the signal processing device 100), and the effect on the sound in the real space is obtained from the result of the image recognition process. It sets processing parameters.
  • the signal processing apparatus 100 includes an image recognition unit 112 and an effect setting unit 120.
  • the image recognition unit 112 executes image recognition processing for the content being reproduced. Since the effect processing parameters for the sound in the real space are set based on the result of the image recognition processing, the image recognition processing unit 112 can perform image recognition processing to such an extent that it can determine the scene where the content being reproduced is. I do. When the image recognition unit 112 executes the image recognition process on the content being reproduced, the image recognition unit 112 outputs the result of the image recognition process to the effect setting unit 120.
  • the image recognition unit 112 can recognize that the content being reproduced is a scene near the waterside or a scene in water. For example, if the video is dark and the video contains many rocks, the image recognition unit 112 can recognize that the content being reproduced is a scene in a cave.
  • the image recognition unit 112 may execute the image recognition process every frame. However, since it is very rare that the scene is frequently switched for each frame, the image recognition process may be executed at a predetermined interval in order to reduce the processing load.
  • the effect setting unit 120 performs signal processing to add the acoustic characteristics of other spaces in the content being played to the sound emitted in the real space by performing the effect processing on the sound emitted in the real space. Then, the effect setting unit 120 sets the effect processing parameters for the sound generated in the real space using the result of the image recognition processing by the image recognition unit 112 when performing signal processing to add the acoustic characteristics of the other space. .
  • the effect setting unit 120 causes the object to fall on the water surface.
  • the parameter of the effect processing that adds a reverberation sound such as a sound or a reverberation that sound is generated underwater is set.
  • the effect setting unit 120 adds reverberation as if in the cave. Set the parameters for effect processing.
  • the effect setting unit 120 sets the effect processing parameter for the sound emitted in the real space using the result of the image recognition processing by the image recognition unit 112, and the effect processing for the sound emitted in the real space using the parameter. To output the sound after effect processing.
  • the signal processing apparatus 100 Since the signal processing apparatus 100 has the configuration shown in FIG. 5, it is possible to set the effect processing parameters for the sound in the real space based on the content being played back. That is, the signal processing apparatus 100 has the configuration as shown in FIG. 5, so that the effect on the sound in the real space can be obtained based on the content of the content being reproduced even if the content is not added with meta information. Process parameters can be set.
  • FIG. 6 is an explanatory diagram illustrating a second operation example of the signal processing device 100 according to the embodiment of the present disclosure.
  • an image recognition process is performed on the content being reproduced (in the display device 20 or the signal processing device 100), and the effect on the sound in the real space is obtained from the result of the image recognition process. It sets processing parameters.
  • the signal processing apparatus 100 continuously acquires ambient environmental sounds emitted in the real space (step S111).
  • the environmental sound is acquired by, for example, the microphone 10 shown in FIG. 1 or the microphones 10a and 10b shown in FIG.
  • the signal processing apparatus 100 recognizes an image for the content being reproduced (step S112). For example, if the video contains many seas, rivers, lakes, etc., the signal processing apparatus 100 can recognize that the content being reproduced is a scene near the waterside or a scene in water. For example, if the video is dark and the video contains a lot of rocks, the signal processing apparatus 100 can recognize that the content being played back is a scene in a cave.
  • the effect processing parameters to be executed for the environmental sound acquired in step S111 are the results of the image recognition process in step S112. (Step S113).
  • the signal processing apparatus 100 executes the effect processing on the environmental sound acquired in step S111 using the parameter, and outputs the sound after the effect processing.
  • the signal processing apparatus 100 can set the effect processing parameters for the sound in the real space based on the contents of the content being played back by executing the operation as shown in FIG. In other words, the signal processing apparatus 100 performs the operation as shown in FIG. 6, so that even for content to which no meta information is added, the signal processing device 100 applies to the sound in the real space based on the content of the content being reproduced. Parameters for effect processing can be set.
  • FIG. 7 is an explanatory diagram illustrating a second configuration example of the signal processing device 100 according to the embodiment of the present disclosure.
  • the third configuration example shown in FIG. 7 performs an audio recognition process on the content being reproduced (in the display device 20 or the signal processing device 100), and an effect on the sound in the real space is obtained from the result of the audio recognition process. It sets processing parameters.
  • the signal processing apparatus 100 includes a voice recognition unit 114 and an effect setting unit 120.
  • the voice recognition unit 114 executes voice recognition processing for the content being played back. Since the effect processing parameters for the sound in the real space are set based on the result of the speech recognition processing, the speech recognition unit 114 can recognize the location of the scene where the content being reproduced is a scene. I do. When the speech recognition unit 114 executes speech recognition processing on the content being played back, the speech recognition unit 114 outputs the result of the speech recognition processing to the effect setting unit 120.
  • the speech recognition unit 114 can recognize that the content being played is a scene near the waterside. Further, for example, if it is found that a cave reverberation sound is present in the voice, the voice recognition unit 114 can recognize that the content being reproduced is a scene in the cave.
  • the effect setting unit 120 performs signal processing to add the acoustic characteristics of other spaces in the content being played to the sound emitted in the real space by performing the effect processing on the sound emitted in the real space. Then, the effect setting unit 120 sets effect processing parameters for the sound generated in the real space using the result of the speech recognition processing by the speech recognition unit 114 when performing signal processing to add the acoustic characteristics of the other space. .
  • the effect setting unit 120 when it is recognized as a result of the voice recognition processing by the voice recognition unit 114 that the content being reproduced is a scene near the waterside, the effect setting unit 120 generates a reverberation sound that an object has fallen on the water surface. Set the effect processing parameters to be added.
  • the effect setting unit 120 adds reverberation as if in the cave. Set the parameters for effect processing.
  • the effect setting unit 120 sets the effect processing parameter for the sound emitted in the real space using the result of the image recognition processing by the voice recognition unit 114, the effect processing for the sound emitted in the real space using the parameter is performed. To output the sound after effect processing.
  • the signal processing apparatus 100 Since the signal processing apparatus 100 has the configuration shown in FIG. 7, it is possible to set the effect processing parameters for the sound in the real space based on the content being reproduced. That is, the signal processing apparatus 100 has the configuration as shown in FIG. 7, so that the effect on the sound in the real space can be obtained based on the content of the content being reproduced even if the content is not added with meta information. Process parameters can be set.
  • FIG. 8 is an explanatory diagram illustrating a second operation example of the signal processing device 100 according to the embodiment of the present disclosure.
  • the speech recognition process is performed on the content being reproduced (in the display device 20 or the signal processing device 100), and the effect on the sound in the real space is obtained from the result of the speech recognition process. It sets processing parameters.
  • the signal processing apparatus 100 continuously acquires ambient environmental sounds emitted in the real space (step S121).
  • the environmental sound is acquired by, for example, the microphone 10 shown in FIG. 1 or the microphones 10a and 10b shown in FIG.
  • the signal processing apparatus 100 recognizes audio for the content being played back (step S122). For example, if it is found that there is a reverberation sound that occurs when an object is dropped into water, the signal processing apparatus 100 can recognize that the content being reproduced is a scene near the waterside. Further, for example, if it is found that a cave reverberation sound is present in the voice, the signal processing apparatus 100 can recognize that the content being reproduced is a scene in the cave.
  • the effect processing parameters executed for the environmental sound acquired in step S121 are the results of the voice recognition processing in step S122. (Step S123).
  • the signal processing apparatus 100 executes the effect processing on the environmental sound acquired in step S121 using the parameter, and outputs the sound after the effect processing.
  • the signal processing apparatus 100 can set the effect processing parameters for the sound in the real space based on the content of the content being played back by executing the operation shown in FIG. In other words, the signal processing apparatus 100 performs the operation as shown in FIG. 8, so that even for content to which no meta information is added, the signal processing device 100 applies to the sound in the real space based on the content of the content being played back. Parameters for effect processing can be set.
  • the signal processing apparatus 100 may determine the location of the scene in the content by combining the metadata extraction, video recognition, and voice recognition described so far. If the content is content without video such as music data, the signal processing apparatus 100 may set the effect processing parameter for the sound in the real space by combining metadata extraction and speech recognition. .
  • the effect setting unit 120 has set the effect processing parameters for the sound in the real space based on the content of the content being played back.
  • the effect setting unit 120 may retrieve the effect processing parameters from a server on the network.
  • FIG. 9 is an explanatory diagram illustrating a fourth configuration example of the signal processing device 100 according to the embodiment of the present disclosure.
  • the signal processing device 100 includes a meta information extraction unit 110 and an effect setting unit 120.
  • the meta information extraction unit 110 extracts meta information from the content being reproduced, as in the first configuration example shown in FIG.
  • the meta information extraction unit 110 extracts, for example, meta information such as effect parameters and effect names previously assigned to the content as meta information.
  • the meta information extraction unit 110 outputs the extracted meta information to the effect setting unit 120.
  • the effect setting unit 120 performs signal processing to add the acoustic characteristics of other spaces in the content being played to the sound emitted in the real space by performing the effect processing on the sound emitted in the real space. Then, the effect setting unit 120 uses the meta information extracted by the meta information extraction unit 110 when performing signal processing to add the acoustic characteristics of other spaces, as in the first configuration example shown in FIG. Set effect processing parameters for sounds emitted in space.
  • the effect setting unit 120 searches the database 200 placed on a server on the network to set the effect processing parameters when setting the effect processing parameters for the sound emitted in the real space.
  • the parameters may be acquired.
  • the format of information stored in the database 200 is not limited to a specific format, but it is desirable that the information be stored in the database 200 so that parameters can be extracted from information such as effect names and scenes.
  • the effect setting unit 120 sets effect processing parameters for a sound emitted in the real space based on the effect name. If the effect setting unit 120 does not hold a parameter corresponding to, the effect setting unit 120 acquires a parameter corresponding to the effect name from the database 200.
  • the effect information The setting unit 120 acquires from the database 200 a parameter for effect processing that adds acoustic characteristics such as being in the cave.
  • the signal processing device 100 has the configuration as shown in FIG. 9, so that based on meta information preliminarily assigned to the content being played back (in the display device 20 or the signal processing device 100), the real space You can set parameters for effect processing for sound.
  • FIG. 10 is an explanatory diagram illustrating a fourth operation example of the signal processing device 100 according to the embodiment of the present disclosure.
  • meta information such as an effect parameter and an effect name for a sound in the real space is added in advance to the content being played (in the display device 20 or the signal processing device 100).
  • parameters for effect processing for the sound in the real space are set.
  • the signal processing apparatus 100 first continuously acquires ambient environmental sounds emitted in the real space (step S131).
  • the environmental sound is acquired by, for example, the microphone 10 shown in FIG. 1 or the microphones 10a and 10b shown in FIG.
  • the signal processing apparatus 100 extracts meta information from the content being played back (step S132).
  • the signal processing apparatus 100 extracts meta information such as effect parameters and effect names previously assigned to the content as meta information.
  • the signal processing apparatus 100 may execute the extraction of the meta information at a predetermined interval, or may be executed when it is detected that the meta information has been switched.
  • the signal processing apparatus 100 extracts the meta information from the content being played back, the signal processing apparatus 100 acquires, from the database 200, the effect processing parameters to be executed on the environmental sound acquired in step S131 (step S133).
  • the signal processing apparatus 100 sets the effect processing parameter acquired in step S133 as the effect processing parameter to be executed for the environmental sound acquired in step S131 (step S134).
  • the signal processing apparatus 100 executes the effect processing on the environmental sound acquired in step S131 using the parameters, and outputs the sound after the effect processing.
  • the signal processing apparatus 100 performs an operation as shown in FIG. 10, thereby realizing the real space based on the meta information given in advance to the content being reproduced (in the display apparatus 20 or the signal processing apparatus 100). It is possible to set the effect processing parameters for the sound.
  • the configuration and operation for extracting meta information from the content being played back are shown.
  • video recognition is performed for the content being played back. If the effect setting unit 120 does not hold the parameter corresponding to the video recognition result after processing, the effect setting unit 120 may obtain the parameter corresponding to the effect name from the database 200.
  • the effect setting unit 120 may acquire a parameter corresponding to the effect name from the database 200.
  • FIG. 11 is an explanatory diagram illustrating a fifth configuration example of the signal processing device 100 according to the embodiment of the present disclosure. As shown in FIG. 11, the signal processing apparatus 100 includes an effect setting unit 120.
  • the effect setting unit 120 acquires information on the acoustic characteristics configured as one channel of the content being reproduced, and sets the effect processing parameters corresponding to the acoustic characteristics.
  • the effect setting unit 120 can add a more realistic acoustic characteristic of the content being reproduced to the sound in the real space by setting an effect processing parameter corresponding to the acoustic characteristic of the content being reproduced.
  • the signal processing apparatus 100 may execute a process of extracting meta information from the content being played back if the acoustic characteristic information is not included in the content being played back. If the meta information is not included in the content being played back, the signal processing apparatus 100 may execute video analysis processing and audio analysis processing of the content being played back.
  • Each of the signal processing apparatuses 100 described above sets parameters for effect processing on sound in the real space by extracting meta information from the content or analyzing video and audio of the content.
  • the signal processing apparatus 100 may set parameters for effect processing on sound in the real space according to the user's action.
  • the signal processing apparatus 100 may allow the user to select the content of the effect processing. For example, when a scene in a cave appears in the content that the user is viewing, and the user wants the sound in the real space to sound like a cave, the signal processing apparatus 100 is in the cave. The user may be able to select such effect processing. For example, when a scene in the forest appears in the content that the user is viewing, and the user does not want the sound in the real space to resonate like in the forest, the signal processing apparatus 100 plays the sound. The user may be allowed to select an effect process that does not reverberate.
  • the signal processing apparatus 100 holds or refers to information on the acoustic characteristics of the real space in advance, and changes the effect processing parameters for the sound in the real space according to the acoustic characteristics of the real space. Also good.
  • the acoustic characteristics of the real space can be obtained by analyzing the sound collected by the microphone 10, for example.
  • the signal processing apparatus 100 performs an effect process such as being in a cave, the sound in the real space will sound too much.
  • the parameters may be adjusted so that the sound in the real space does not resonate excessively.
  • the signal processing apparatus 100 sets parameters so that the sound resonates strongly when performing an effect process such as in a cave. You may adjust.
  • the signal processing apparatus 100 may set parameters for effect processing on sound in the real space according to sensing data output from a sensor carried by the user or worn by the user.
  • the signal processing apparatus 100 recognizes the user's action from data such as an acceleration sensor, a gyro sensor, a geomagnetic sensor, an illuminance sensor, a temperature sensor, or an atmospheric pressure sensor, or recognizes from the data of these sensors by another apparatus.
  • the user's action may be acquired, and the effect processing parameters for the sound in the real space may be set based on the user's action.
  • the signal processing apparatus 100 may set an effect processing parameter that does not resonate the sound. Since the action recognition method is described in many documents such as Japanese Patent Application Laid-Open No. 2012-8771, for example, detailed description thereof is omitted.
  • a signal processing device 100 that allows a content viewer to feel a sense of expanding a space to a real space.
  • each step in the processing executed by each device in this specification does not necessarily have to be processed in chronological order in the order described as a sequence diagram or flowchart.
  • each step in the processing executed by each device may be processed in an order different from the order described as the flowchart, or may be processed in parallel.
  • each functional block shown in the functional block diagram used in the above description may be realized by a server device connected via a network such as the Internet.
  • the configuration of each functional block shown in the functional block diagram used in the above description may be realized by a single device or a system in which a plurality of devices cooperate.
  • a system in which a plurality of devices are linked may include, for example, a combination of a plurality of server devices, a combination of a server device and a terminal device, or the like.
  • a predetermined acoustic characteristic for allowing the user to listen to the collected ambient sound of the user in a space having different acoustic characteristics is determined according to the content being played or the user's behavior, and the determined acoustic characteristics are determined.
  • a signal processing apparatus comprising a control unit for adding to the ambient sound.
  • control unit adds the acoustic characteristic selected by the user to the ambient sound when determining the acoustic characteristic according to a user's action.
  • control unit determines an acoustic characteristic in consideration of an acoustic characteristic of a space in which a microphone that acquires the ambient sound is placed.
  • a predetermined acoustic characteristic for allowing the user to listen to the collected ambient sound of the user in a space having different acoustic characteristics is determined according to the content being played or the user's behavior, and the determined acoustic characteristics are determined.
  • a signal processing method comprising: a processor executing a process to add to the ambient sound. (10) A predetermined acoustic characteristic for allowing the user to listen to the collected ambient sound of the user in a space having different acoustic characteristics is determined according to the content being played or the user's behavior, and the determined acoustic characteristics are determined. A computer program for causing a computer to add to the ambient sound.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

【課題】実空間中で放たれた音に、実空間とは異なる音響特性を与えることで、実空間と異なる環境を実空間に再現させることが可能な信号処理装置を提供する。 【解決手段】集音されたユーザの周囲音を、異なる音響特性の空間で前記ユーザに聴取させるための所定の音響特性を、再生されているコンテンツまたはユーザの行動に応じて決定して、決定した音響特性を前記周囲音に加える制御部を備える、信号処理装置が提供される。

Description

信号処理装置、信号処理方法及びコンピュータプログラム
 本開示は、信号処理装置、信号処理方法及びコンピュータプログラムに関する。
 聴取者に臨場感のある音を聴取させるための技術が従前より存在する。聴取者に臨場感のある音を聴取させるために、例えば、コンテンツ内の音声を立体再生したり、コンテンツ内の音に対してある一定の音響特性を付加して再生したりされている。立体再生の技術としては、例えば5.1チャンネルや7.1チャンネル等のサラウンドオーディオを生成したり、複数の音声モード(サッカースタジアムモード、コンサートホールモードなど)を切り替えて再生したりする技術がある。後者のモード切替のために、空間特性を記録して、コンテンツ中の音にエフェクトを加えることは行われてきた(例えば特許文献1参照)。
特開平6-186966号公報
 しかし、上述した技術は、いずれもコンテンツ中の音をどのように再生するかという点にとどまっている。実空間中で放たれた音は、あくまでその実空間での音響特性に従って反響などがなされるので、コンテンツ中の音をいかに臨場感があるように再生しても、実空間とコンテンツ空間とが分離される感覚を聴取者が覚えてしまう。
 そこで、本開示では、実空間中で放たれた音に、実空間とは異なる音響特性を与えることで、実空間と異なる環境を実空間に再現させることが可能な、新規かつ改良された信号処理装置、信号処理方法及びコンピュータプログラムを提案する。
 本開示によれば、集音されたユーザの周囲音を、異なる音響特性の空間で前記ユーザに聴取させるための所定の音響特性を、再生されているコンテンツまたはユーザの行動に応じて決定して、決定した音響特性を前記周囲音に加える制御部を備える、信号処理装置が提供される。
 また本開示によれば、集音されたユーザの周囲音を、異なる音響特性の空間で前記ユーザに聴取させるための所定の音響特性を、再生されているコンテンツまたはユーザの行動に応じて決定して、決定した音響特性を前記周囲音に加える処理をプロセッサが実行することを含む、信号処理方法が提供される。
 また本開示によれば、集音されたユーザの周囲音を、異なる音響特性の空間で前記ユーザに聴取させるための所定の音響特性を、再生されているコンテンツまたはユーザの行動に応じて決定して、決定した音響特性を前記周囲音に加えることをコンピュータに実行させる、コンピュータプログラムが提供される。
 以上説明したように本開示によれば、実空間中で放たれた音に、実空間とは異なる音響特性を与えることで、実空間と異なる環境を実空間に再現させることが可能な、新規かつ改良された信号処理装置、信号処理方法及びコンピュータプログラムを提供することが出来る。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の実施の形態の概要について説明する説明図である。 本開示の実施の形態の概要について説明する説明図である。 信号処理装置の第1の構成例を示す説明図である。 信号処理装置の第1の動作例を示す流れ図である。 信号処理装置の第2の構成例を示す説明図である。 信号処理装置の第2の動作例を示す流れ図である。 信号処理装置の第3の構成例を示す説明図である。 信号処理装置の第3の動作例を示す流れ図である。 信号処理装置の第4の構成例を示す説明図である。 信号処理装置の第4の動作例を示す流れ図である。 信号処理装置の第5の構成例を示す説明図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.本開示の実施の形態
  1.1.概要
  1.2.第1の構成例及び動作例
  1.3.第2の構成例及び動作例
  1.4.第3の構成例及び動作例
  1.5.第4の構成例及び動作例
  1.6.第5の構成例
  1.7.変形例
 2.まとめ
 <1.本開示の実施の形態>
 [1.1.概要]
 まず、本開示の実施の形態の概要について説明する。図1は、本開示の実施の形態の概要について説明する説明図である。
 図1に示した信号処理装置100は、マイク10が置かれている物理空間(現実空間)で発せられた音に、他の空間の音響特性を加える信号処理を行う装置である。現実空間で発せられた音に、他の空間の音響特性を加える信号処理を行うことで、信号処理装置100は、現実空間に他の空間を再現し、または現実空間を他の空間で拡張する効果を与えることができる。
 テーブル11の上に置かれているマイク10は、現実空間で発せられた音、例えば人間の会話の音や、テーブル11に物が置かれたときの音を集音する。マイク10は、集音した音を信号処理装置100に出力する。
 信号処理装置100は、マイク10が集音した音に対して、他の空間の音響特性を加える信号処理を行う。信号処理装置100は、例えば現実空間に置かれている表示装置20が出力しているコンテンツから、他の空間の音響特性を特定し、マイク10が集音した音に対してその音響特性を加える。そして信号処理装置100は、信号処理後の信号をスピーカ12に出力する。スピーカ12は、例えばテーブル11の背面などに置かれる。
 例えば、表示装置20が出力しているコンテンツが洞窟の中のシーンである場合に、現実空間にいる人間が音を発すると、信号処理装置100は、そのコンテンツ中の洞窟と同じように、発した音が反響するような音響特性を加える。
 また例えば、表示装置20が出力しているコンテンツがコンサート映像である場合に、現実空間にいる人間が音を発すると、信号処理装置100は、そのコンテンツ中のコンサートホールと同じように、発した音が反響するような音響特性を加える。なお、映像を表示しなくても、コンサート音楽を再生する場合も、信号処理装置100は、同様に空間の再現が可能である。
 また例えば、表示装置20が出力しているコンテンツが宇宙映画である場合に、現実空間にいる人間が音を発すると、信号処理装置100は、例えばその音と逆位相の音をエフェクトとして付加することで、実際に発した音を聞こえにくくし、真空の宇宙空間のような空間を再現することができる。
 また例えば、表示装置20が出力しているコンテンツが水面をメインにしたコンテンツである場合に、現実空間にいる人間が音を発すると、信号処理装置100は、現実空間で発した音に、物が水面に落ちたような残響音を付加することで水面空間を再現する。また例えば、表示装置20が出力しているコンテンツが水中空間の映像である場合に、現実空間にいる人間が音を発すると、信号処理装置100は、水中で音が発せられたような残響を付加する。
 また例えば、表示装置20が出力しているコンテンツがバーチャル空間のコンテンツ、例えばゲームコンテンツである場合に、現実空間にいる人間が音を発すると、信号処理装置100は、そのバーチャル空間の音響特性を、物理空間で発した音に適用して出力する。
 例えば、ゲームコンテンツ中の映像が洞窟の映像だった場合、信号処理装置100は、まるで洞窟空間にいるかのように、現実空間の音を反響させる。また例えば、ゲームコンテンツ中の映像が水中の映像だった場合、信号処理装置100は、まるで水中にいるかのように、現実空間の音を反響させる。また例えば、ゲームコンテンツ中の映像がSF(Science Fiction)の映像だった場合、信号処理装置100は、現実空間で発せられた音に、コンテンツに登場するキャラクタの呼吸音等を残響として付加して出力する。信号処理装置100は、このようにバーチャル空間の音響特性を、物理空間で発した音に適用して出力することで、現実空間をバーチャル空間に拡張することができる。
 信号処理装置100は、表示装置20が出力しているコンテンツのシーンごとに再現する空間を動的に切り替えてもよい。信号処理装置100は、表示装置20が出力しているコンテンツのシーンに連動して、現実空間で発せられた音に付加する音響特性を動的に切り替えることで、例えば、1つのコンテンツの中でもシーンが切り替わるごとに、そのシーンと同一の空間を、現実空間にいる人間に体験させ続けることができる。
 例えば、表示装置20が出力しているコンテンツが映画で、その映画の中で水中のシーンになると、信号処理装置100は、水中にいるかのような音響特性を与え、シーンが切り替わって洞窟の中のシーンになると、信号処理装置100は、洞窟の中にいるかのような音響特性を与える。
 信号処理装置100によって信号処理が施された音をスピーカ12が出力することで、現実空間に位置する人間は、その現実空間で発せられた音を、あたかも表示装置20が出力しているコンテンツにおける空間で発せられた音のように聴取することが出来る。
 このように、信号処理装置100は、現実空間で発せられた音を、あたかも表示装置20が出力しているコンテンツにおける空間で発せられた音のように聴取させる信号処理を実行する。なお、図1では、テーブル11の上にマイク10が置かれ、テーブル11の背面にスピーカ12が設けられている状態を図示したが、本開示は係る例に限定されるものではない。例えば、マイク10やスピーカ12は、表示装置20に内蔵されていても良い。さらに言えば、マイク10やスピーカ12は、表示装置20が置かれている部屋と同じ部屋に置かれていれば良い。
 図2は、本開示の実施の形態の概要について説明する説明図である。図2に示したのは、例えばスマートフォンのような機器として構成されている信号処理装置100が、信号処理装置100で再生中のコンテンツに基づいて、他の空間の音響特性を加える処理を行う際のシステムの構成例である。
 聴取者が、信号処理装置100に接続したイヤホン12a、12bを耳に装着しており、イヤホン12a、12bに設けられているマイク10a、10bが現実空間の音を集音すると、信号処理装置100は、マイク10a、10bが集音した音に対する信号処理を実行する。この信号処理は、信号処理装置100で再生中のコンテンツに基づいて、他の空間の音響特性を加える処理である。
 マイク10a、10bは、聴取者自身が発した声や、聴取者の周囲で発せられた音を集音する。信号処理装置100は、マイク10a、10bが集音した現実空間の音に対して、他の空間の音響特性を加える信号処理を行い、その信号処理後の音をイヤホン12a、12bから出力する。
 例えば電車の中という現実空間で、聴取者が信号処理装置100を使用してコンサートのライブ音源を聴いている場合に、信号処理装置100は、現実空間(電車の中)にいる周囲の人の声や物音に対して、コンサートホールの音響特性を加えてイヤホン12a、12bから出力する。信号処理装置100は、現実空間(電車の中)にいる周囲の人の声や物音に対して、コンサートホールの音響特性を加えて出力することで、電車の中にいる他の人も含めて、コンサートホール空間にいる人として、コンサートホール空間を再現できる。
 マイク10a、10bにより音を記録し、さらに音を記録した場所の空間の音響特性を付加してコンテンツを作り込んでもよい。信号処理装置100は、実際にバイノーラルな立体音として音を記録した場所の空間を感じると同時に、現実空間で発せられた音も、その音を記録した場所の音響特性を加えて出力することで、よりリアルな空間を再現する。
 複数人で同じコンテンツを視聴している場合であっても、信号処理装置100ごとに現実空間で発せられた音に対して付加する音響特性を切り替えることができる。信号処理装置100は、複数人が同じ現実空間で同じコンテンツを視聴しているにもかかわらず、異なる音響特性が現実空間で発せられた音に対して付加されるので、聴取者毎に空間を感じることを可能にする。
 以上、本開示の実施の形態の概要について説明した。続いて、本開示の実施の形態の構成例及び動作例について、いくつか例示して説明する。
 [1.2.第1の構成例及び動作例]
 まず、本開示の実施の形態に係る信号処理装置100の第1の構成例及び動作例を説明する。図3は、本開示の実施の形態に係る信号処理装置100の第1の構成例を示す説明図である。図3に示した第1の構成例は、(表示装置20、または信号処理装置100で)再生中のコンテンツに、現実空間の音に対するエフェクトのパラメータやエフェクト名などのメタ情報を予め付与しておき、そのコンテンツからメタ情報を抽出することで、現実空間の音に対するエフェクト処理のパラメータを設定するものである。
 図3に示したように、信号処理装置100は、メタ情報抽出部110と、エフェクト設定部120と、を含んで構成される。
 メタ情報抽出部110は、再生中のコンテンツからメタ情報を抽出する。メタ情報抽出部110は、メタ情報として例えばコンテンツに予め付与されているエフェクトのパラメータや、エフェクト名等のメタ情報を抽出する。メタ情報抽出部110は、抽出したメタ情報をエフェクト設定部120に出力する。
 メタ情報抽出部110は、メタ情報の抽出を、所定の間隔で実行しても良く、メタ情報が切り替わったことを検出した時点で実行しても良い。
 エフェクト設定部120は、本開示の制御部の一例であり、現実空間で発せられた音に対してエフェクト処理を行うことで、現実空間で発せられた音に、再生中のコンテンツにおける他の空間の音響特性を加える信号処理を行う。そしてエフェクト設定部120は、他の空間の音響特性を加える信号処理を行う際に、メタ情報抽出部110が抽出したメタ情報を用いて現実空間で発せられた音に対するエフェクト処理のパラメータを設定する。
 例えば、メタ情報抽出部110が出力したメタ情報がエフェクトのパラメータであれば、エフェクト設定部120は、そのパラメータに基づいて現実空間で発せられた音に対するエフェクト処理のパラメータを設定する。また例えば、メタ情報抽出部110が出力したメタ情報がエフェクト名であれば、エフェクト設定部120は、そのエフェクト名に基づいて現実空間で発せられた音に対するエフェクト処理のパラメータを設定する。
 エフェクト設定部120は、例えば、洞窟の中にいるような効果を与える場合は、エフェクトとして、現実空間で発せられた音に対してエコーを掛けて、音の残存時間を長くする。エフェクト設定部120は、また例えば、水中にいるような効果を与える場合は、現実空間で発せられた音に対して水泡が発せられるようなエフェクトを掛ける。
 エフェクト設定部120は、メタ情報抽出部110が抽出したメタ情報を用いて現実空間で発せられた音に対するエフェクト処理のパラメータを設定すると、そのパラメータを用いて現実空間で発せられた音に対するエフェクト処理を実行し、エフェクト処理後の音を出力する。
 信号処理装置100は、図3に示したような構成を有することで、(表示装置20、または信号処理装置100で)再生中のコンテンツに予め付与されているメタ情報に基づいて、現実空間の音に対するエフェクト処理のパラメータを設定することが出来る。
 図4は、本開示の実施の形態に係る信号処理装置100の第1の動作例を示す説明図である。図4に示した第1の動作例は、(表示装置20、または信号処理装置100で)再生中のコンテンツに、現実空間の音に対するエフェクトのパラメータやエフェクト名などのメタ情報を予め付与しておき、そのコンテンツからメタ情報を抽出することで、現実空間の音に対するエフェクト処理のパラメータを設定するものである。
 信号処理装置100は、まず現実空間で発せられた周囲の環境音を継続的に取得する(ステップS101)。環境音の取得は、例えば、図1で示したマイク10や、図2で示したマイク10a、10bが行う。
 信号処理装置100は、再生中のコンテンツからメタ情報を抽出する(ステップS102)。信号処理装置100は、メタ情報として例えばコンテンツに予め付与されているエフェクトのパラメータや、エフェクト名等のメタ情報を抽出する。信号処理装置100は、メタ情報の抽出を、所定の間隔で実行しても良く、メタ情報が切り替わったことを検出した時点で実行しても良い。
 そして信号処理装置100は、再生中のコンテンツからメタ情報を抽出すると、上記ステップS101で取得した環境音に対して実行するエフェクト処理のパラメータを、上記ステップS102で取得したメタ情報を用いて設定する(ステップS103)。信号処理装置100は、エフェクト処理のパラメータを設定すると、そのパラメータを用いて上記ステップS101で取得した環境音に対するエフェクト処理を実行して、エフェクト処理後の音を出力する。
 信号処理装置100は、図4に示したような動作を実行することで、(表示装置20、または信号処理装置100で)再生中のコンテンツに予め付与されているメタ情報に基づいて、現実空間の音に対するエフェクト処理のパラメータを設定することが出来る。
 [1.3.第2の構成例及び動作例]
 次に、本開示の実施の形態に係る信号処理装置100の第2の構成例及び動作例を説明する。図5は、本開示の実施の形態に係る信号処理装置100の第2の構成例を示す説明図である。図5に示した第2の構成例は、(表示装置20、または信号処理装置100で)再生中のコンテンツに対する画像認識処理を行って、その画像認識処理の結果から、現実空間の音に対するエフェクト処理のパラメータを設定するものである。
 図5に示したように、信号処理装置100は、画像認識部112と、エフェクト設定部120と、を含んで構成される。
 画像認識部112は、再生中のコンテンツに対する画像認識処理を実行する。画像認識処理の結果から、現実空間の音に対するエフェクト処理のパラメータが設定されるので、画像認識部112は、再生中のコンテンツがどのような場所のシーンであるかを判別できる程度の画像認識処理を行う。画像認識部112は、再生中のコンテンツに対する画像認識処理を実行すると、画像認識処理の結果をエフェクト設定部120に出力する。
 例えば、映像中に海や川、湖などが多く含まれていれば、画像認識部112は、再生中のコンテンツが水辺に近い場所のシーンや、水中にいるシーンであると認識出来る。また例えば、映像が暗く、その映像中に岩肌などが多く含まれていれば、画像認識部112は、再生中のコンテンツが洞窟の中のシーンであると認識出来る。
 画像認識部112は、画像認識処理を、毎フレーム実行しても良い。しかし、シーンがフレーム毎に頻繁に切り替わることは極めて稀であろうから、処理負荷の軽減のために、画像認識処理を所定の間隔で実行してもよい。
 エフェクト設定部120は、現実空間で発せられた音に対してエフェクト処理を行うことで、現実空間で発せられた音に、再生中のコンテンツにおける他の空間の音響特性を加える信号処理を行う。そしてエフェクト設定部120は、他の空間の音響特性を加える信号処理を行う際に、画像認識部112による画像認識処理の結果を用いて現実空間で発せられた音に対するエフェクト処理のパラメータを設定する。
 例えば、画像認識部112による画像認識処理の結果、再生中のコンテンツが水辺に近い場所のシーンや、水中にいるシーンであると認識された場合は、エフェクト設定部120は、物が水面に落ちたような残響音を付加したり、水中で音が発せられたような残響を付加したりするようなエフェクト処理のパラメータを設定する。
 また例えば、画像認識部112による画像認識処理の結果、再生中のコンテンツが洞窟の中のシーンであると認識された場合は、エフェクト設定部120は、洞窟の中にいるかのような残響を付加するようなエフェクト処理のパラメータを設定する。
 エフェクト設定部120は、画像認識部112による画像認識処理の結果を用いて現実空間で発せられた音に対するエフェクト処理のパラメータを設定すると、そのパラメータを用いて現実空間で発せられた音に対するエフェクト処理を実行し、エフェクト処理後の音を出力する。
 信号処理装置100は、図5に示したような構成を有することで、再生中のコンテンツの内容に基づいて、現実空間の音に対するエフェクト処理のパラメータを設定することが出来る。すなわち、信号処理装置100は、図5に示したような構成を有することで、メタ情報が付加されていないコンテンツであっても、再生中のコンテンツの内容に基づいて、現実空間の音に対するエフェクト処理のパラメータを設定することが出来る。
 図6は、本開示の実施の形態に係る信号処理装置100の第2の動作例を示す説明図である。図6に示した第2の動作例は、(表示装置20、または信号処理装置100で)再生中のコンテンツに対する画像認識処理を行って、その画像認識処理の結果から、現実空間の音に対するエフェクト処理のパラメータを設定するものである。
 信号処理装置100は、まず現実空間で発せられた周囲の環境音を継続的に取得する(ステップS111)。環境音の取得は、例えば、図1で示したマイク10や、図2で示したマイク10a、10bが行う。
 信号処理装置100は、再生中のコンテンツに対して画像を認識する(ステップS112)。例えば、映像中に海や川、湖などが多く含まれていれば、信号処理装置100は、再生中のコンテンツが水辺に近い場所のシーンや、水中にいるシーンであると認識出来る。また例えば、映像が暗く、その映像中に岩肌などが多く含まれていれば、信号処理装置100は、再生中のコンテンツが洞窟の中のシーンであると認識出来る。
 そして信号処理装置100は、再生中のコンテンツに対して画像認識処理を行うと、上記ステップS111で取得した環境音に対して実行するエフェクト処理のパラメータを、上記ステップS112での画像認識処理の結果を用いて設定する(ステップS113)。信号処理装置100は、エフェクト処理のパラメータを設定すると、そのパラメータを用いて上記ステップS111で取得した環境音に対するエフェクト処理を実行して、エフェクト処理後の音を出力する。
 信号処理装置100は、図6に示したような動作を実行することで、再生中のコンテンツの内容に基づいて、現実空間の音に対するエフェクト処理のパラメータを設定することが出来る。すなわち、信号処理装置100は、図6に示したような動作を実行することで、メタ情報が付加されていないコンテンツであっても、再生中のコンテンツの内容に基づいて、現実空間の音に対するエフェクト処理のパラメータを設定することが出来る。
 [1.4.第3の構成例及び動作例]
 次に、本開示の実施の形態に係る信号処理装置100の第3の構成例及び動作例を説明する。図7は、本開示の実施の形態に係る信号処理装置100の第2の構成例を示す説明図である。図7に示した第3の構成例は、(表示装置20、または信号処理装置100で)再生中のコンテンツに対する音声認識処理を行って、その音声認識処理の結果から、現実空間の音に対するエフェクト処理のパラメータを設定するものである。
 図7に示したように、信号処理装置100は、音声認識部114と、エフェクト設定部120と、を含んで構成される。
 音声認識部114は、再生中のコンテンツに対する音声認識処理を実行する。音声認識処理の結果から、現実空間の音に対するエフェクト処理のパラメータが設定されるので、音声認識部114は、再生中のコンテンツがどのような場所のシーンであるかを判別できる程度の音声認識処理を行う。音声認識部114は、再生中のコンテンツに対する音声認識処理を実行すると、音声認識処理の結果をエフェクト設定部120に出力する。
 例えば、音声中に水に物を落とした場合に発生する反響音が存在することがわかれば、音声認識部114は、再生中のコンテンツが水辺に近い場所のシーンであると認識出来る。また例えば、音声中に洞窟の反響音が存在することがわかれば、音声認識部114は、再生中のコンテンツが洞窟の中のシーンであると認識出来る。
 エフェクト設定部120は、現実空間で発せられた音に対してエフェクト処理を行うことで、現実空間で発せられた音に、再生中のコンテンツにおける他の空間の音響特性を加える信号処理を行う。そしてエフェクト設定部120は、他の空間の音響特性を加える信号処理を行う際に、音声認識部114による音声認識処理の結果を用いて現実空間で発せられた音に対するエフェクト処理のパラメータを設定する。
 例えば、音声認識部114による音声認識処理の結果、再生中のコンテンツが水辺に近い場所のシーンであると認識された場合は、エフェクト設定部120は、物が水面に落ちたような残響音を付加するようなエフェクト処理のパラメータを設定する。
 また例えば、音声認識部114による画像認識処理の結果、再生中のコンテンツが洞窟の中のシーンであると認識された場合は、エフェクト設定部120は、洞窟の中にいるかのような残響を付加するようなエフェクト処理のパラメータを設定する。
 エフェクト設定部120は、音声認識部114による画像認識処理の結果を用いて現実空間で発せられた音に対するエフェクト処理のパラメータを設定すると、そのパラメータを用いて現実空間で発せられた音に対するエフェクト処理を実行し、エフェクト処理後の音を出力する。
 信号処理装置100は、図7に示したような構成を有することで、再生中のコンテンツの内容に基づいて、現実空間の音に対するエフェクト処理のパラメータを設定することが出来る。すなわち、信号処理装置100は、図7に示したような構成を有することで、メタ情報が付加されていないコンテンツであっても、再生中のコンテンツの内容に基づいて、現実空間の音に対するエフェクト処理のパラメータを設定することが出来る。
 図8は、本開示の実施の形態に係る信号処理装置100の第2の動作例を示す説明図である。図8に示した第3の動作例は、(表示装置20、または信号処理装置100で)再生中のコンテンツに対する音声認識処理を行って、その音声認識処理の結果から、現実空間の音に対するエフェクト処理のパラメータを設定するものである。
 信号処理装置100は、まず現実空間で発せられた周囲の環境音を継続的に取得する(ステップS121)。環境音の取得は、例えば、図1で示したマイク10や、図2で示したマイク10a、10bが行う。
 信号処理装置100は、再生中のコンテンツに対して音声を認識する(ステップS122)。例えば、音声中に水に物を落とした場合に発生する反響音が存在することがわかれば、信号処理装置100は、再生中のコンテンツが水辺に近い場所のシーンであると認識出来る。また例えば、音声中に洞窟の反響音が存在することがわかれば、信号処理装置100は、再生中のコンテンツが洞窟の中のシーンであると認識出来る。
 そして信号処理装置100は、再生中のコンテンツに対して音声認識処理を行うと、上記ステップS121で取得した環境音に対して実行するエフェクト処理のパラメータを、上記ステップS122での音声認識処理の結果を用いて設定する(ステップS123)。信号処理装置100は、エフェクト処理のパラメータを設定すると、そのパラメータを用いて上記ステップS121で取得した環境音に対するエフェクト処理を実行して、エフェクト処理後の音を出力する。
 信号処理装置100は、図8に示したような動作を実行することで、再生中のコンテンツの内容に基づいて、現実空間の音に対するエフェクト処理のパラメータを設定することが出来る。すなわち、信号処理装置100は、図8に示したような動作を実行することで、メタ情報が付加されていないコンテンツであっても、再生中のコンテンツの内容に基づいて、現実空間の音に対するエフェクト処理のパラメータを設定することが出来る。
 信号処理装置100は、ここまで示したメタデータの抽出、映像認識、音声認識を組み合わせて、コンテンツ中のシーンがどのような場所であるかどうかを判断しても良い。また、コンテンツが楽曲データ等の映像が無いコンテンツである場合は、信号処理装置100は、メタデータの抽出と音声認識とを組み合わせて、現実空間の音に対するエフェクト処理のパラメータを設定してもよい。
 [1.5.第4の構成例及び動作例]
 次に、本開示の実施の形態に係る信号処理装置100の第4の構成例及び動作例を説明する。ここまでの説明では、いずれもエフェクト設定部120が、再生中のコンテンツの内容に基づいて、現実空間の音に対するエフェクト処理のパラメータを設定していた。エフェクト設定部120は、現実空間の音に対するエフェクト処理のパラメータを設定する際に、ネットワーク上のサーバから、エフェクト処理のパラメータを検索してもよい。
 図9は、本開示の実施の形態に係る信号処理装置100の第4の構成例を示す説明図である。図9に示したように、信号処理装置100は、メタ情報抽出部110と、エフェクト設定部120と、を含んで構成される。
 メタ情報抽出部110は、図3に示した第1の構成例と同様に、再生中のコンテンツからメタ情報を抽出する。メタ情報抽出部110は、メタ情報として例えばコンテンツに予め付与されているエフェクトのパラメータや、エフェクト名等のメタ情報を抽出する。メタ情報抽出部110は、抽出したメタ情報をエフェクト設定部120に出力する。
 エフェクト設定部120は、現実空間で発せられた音に対してエフェクト処理を行うことで、現実空間で発せられた音に、再生中のコンテンツにおける他の空間の音響特性を加える信号処理を行う。そしてエフェクト設定部120は、他の空間の音響特性を加える信号処理を行う際に、図3に示した第1の構成例と同様に、メタ情報抽出部110が抽出したメタ情報を用いて現実空間で発せられた音に対するエフェクト処理のパラメータを設定する。
 この第4の構成例では、エフェクト設定部120は、現実空間で発せられた音に対するエフェクト処理のパラメータを設定する際に、ネットワーク上のサーバに置かれているデータベース200を検索して、エフェクト処理のパラメータを取得しても良い。データベース200に格納される情報のフォーマットは特定のものに限定されるものでは無いが、エフェクト名やシーンなどの情報からパラメータが抽出できるように情報がデータベース200に格納されていることが望ましい。
 例えば、メタ情報抽出部110が出力したメタ情報がエフェクト名であれば、エフェクト設定部120は、そのエフェクト名に基づいて現実空間で発せられた音に対するエフェクト処理のパラメータを設定するが、エフェクト名に対応するパラメータをエフェクト設定部120が保持していなければ、エフェクト設定部120は、そのエフェクト名に対応するパラメータをデータベース200から取得する。
 例えば、メタ情報抽出部110が出力したメタ情報が、「洞窟の中」というエフェクト名であり、洞窟の中にいるような音響特性を加えるパラメータをエフェクト設定部120が保持していなければ、エフェクト設定部120は、その洞窟の中にいるような音響特性を加えるエフェクト処理のパラメータをデータベース200から取得する。
 信号処理装置100は、図9に示したような構成を有することで、(表示装置20、または信号処理装置100で)再生中のコンテンツに予め付与されているメタ情報に基づいて、現実空間の音に対するエフェクト処理のパラメータを設定することが出来る。
 図10は、本開示の実施の形態に係る信号処理装置100の第4の動作例を示す説明図である。図10に示した第4の動作例は、(表示装置20、または信号処理装置100で)再生中のコンテンツに、現実空間の音に対するエフェクトのパラメータやエフェクト名などのメタ情報を予め付与しておき、そのコンテンツからメタ情報を抽出することで、現実空間の音に対するエフェクト処理のパラメータを設定するものである。
 信号処理装置100は、まず現実空間で発せられた周囲の環境音を継続的に取得する(ステップS131)。環境音の取得は、例えば、図1で示したマイク10や、図2で示したマイク10a、10bが行う。
 信号処理装置100は、再生中のコンテンツからメタ情報を抽出する(ステップS132)。信号処理装置100は、メタ情報として例えばコンテンツに予め付与されているエフェクトのパラメータや、エフェクト名等のメタ情報を抽出する。信号処理装置100は、メタ情報の抽出を、所定の間隔で実行しても良く、メタ情報が切り替わったことを検出した時点で実行しても良い。
 信号処理装置100は、再生中のコンテンツからメタ情報を抽出すると、上記ステップS131で取得した環境音に対して実行するエフェクト処理のパラメータを、データベース200から取得する(ステップS133)。そして信号処理装置100は、上記ステップS131で取得した環境音に対して実行するエフェクト処理のパラメータとして、ステップS133で取得したエフェクト処理のパラメータを設定する(ステップS134)。信号処理装置100は、エフェクト処理のパラメータを設定すると、そのパラメータを用いて上記ステップS131で取得した環境音に対するエフェクト処理を実行して、エフェクト処理後の音を出力する。
 信号処理装置100は、図10に示したような動作を実行することで、(表示装置20、または信号処理装置100で)再生中のコンテンツに予め付与されているメタ情報に基づいて、現実空間の音に対するエフェクト処理のパラメータを設定することが出来る。
 なお、図9及び図10に示した例では、再生中のコンテンツからメタ情報を抽出する構成及び動作を示したが、上述の第2の構成例のように再生中のコンテンツに対して映像認識処理を行って、その映像認識の結果に対応するパラメータをエフェクト設定部120が保持していなければ、エフェクト設定部120は、そのエフェクト名に対応するパラメータをデータベース200から取得してもよい。
 また、上述の第3の構成例のように再生中のコンテンツに対して音声認識処理を行って、その音声認識の結果に対応するパラメータをエフェクト設定部120が保持していなければ、エフェクト設定部120は、そのエフェクト名に対応するパラメータをデータベース200から取得してもよい。
 [1.6.第5の構成例]
 ここまでは、再生中のコンテンツからメタ情報を抽出したり、再生中のコンテンツに対して映像や音声の認識処理を行ったりすることで、エフェクト処理のパラメータを設定する信号処理装置100の構成例及び動作例を説明した。次の例は、コンテンツに予め音響特性が付与されており、その音響特性に対応するエフェクト処理のパラメータを設定する信号処理装置100の構成例を説明する。
 図11は、本開示の実施の形態に係る信号処理装置100の第5の構成例を示す説明図である。図11に示したように、信号処理装置100は、エフェクト設定部120を含んで構成される。
 エフェクト設定部120は、再生中のコンテンツの1つのチャンネルとして構成されている音響特性の情報を取得し、その音響特性に対応するエフェクト処理のパラメータを設定する。エフェクト設定部120は、再生中のコンテンツの音響特性に対応するエフェクト処理のパラメータを設定することで、現実空間の音に対して、よりリアルな再生中のコンテンツの音響特性を加えることが出来る。
 信号処理装置100は、音響特性の情報が再生中のコンテンツに含まれていなければ、再生中のコンテンツからメタ情報を抽出する処理を実行してもよい。そして再生中のコンテンツにメタ情報が含まれていなければ、信号処理装置100は、再生中のコンテンツの映像解析処理や音声解析処理を実行してもよい。
 [1.7.変形例]
 上述した信号処理装置100は、いずれもコンテンツからメタ情報を抽出したり、コンテンツの映像や音声を解析したりすることで、現実空間の音に対するエフェクト処理のパラメータを設定していた。この他にも、例えば信号処理装置100は、ユーザの行動に応じて現実空間の音に対するエフェクト処理のパラメータを設定してもよい。
 例えば信号処理装置100は、ユーザにエフェクト処理の内容を選択させても良い。例えば、ユーザが視聴しているコンテンツに洞窟の中のシーンが登場し、ユーザが現実空間の音を洞窟の中のように響かせたいと思った場合、信号処理装置100は、洞窟の中にいるようなエフェクト処理を行うようユーザが選択出来るようにしても良い。また例えば、ユーザが視聴しているコンテンツに森の中のシーンが登場し、ユーザが現実空間の音を森の中のようにあまり響かせたくないと思った場合、信号処理装置100は、音を反響させないようなエフェクト処理を行うようユーザが選択出来るようにしても良い。
 また信号処理装置100は、予め現実空間の音響特性の情報を保持するか、または参照できる状態にしておき、現実空間の音響特性に応じて、現実空間の音に対するエフェクト処理のパラメータを変更してもよい。現実空間の音響特性は、例えばマイク10で集音された音を解析することで得られる。
 例えば、現実空間が会議室のような音が反響しやすい空間である場合に、信号処理装置100は、洞窟の中にいるようなエフェクト処理を行うと、現実空間の音が響きすぎてしまうので、現実空間の音が響きすぎないようにパラメータを調整してもよい。また例えば、現実空間が広い部屋のような音が反響しにくい空間である場合に、信号処理装置100は、洞窟の中にいるようなエフェクト処理を行う際に音が強めに反響するようパラメータを調整してもよい。
 例えば信号処理装置100は、ユーザが携帯または装着するセンサが出力するセンシングデータに応じて現実空間の音に対するエフェクト処理のパラメータを設定してもよい。信号処理装置100は、例えば、加速度センサ、ジャイロセンサ、地磁気センサ、照度センサ、温度センサ、または気圧センサなどのデータからユーザの行動を認識したり、または他の装置でこれらのセンサのデータから認識されたユーザの行動を取得したりして、そのユーザの行動に基づいて現実空間の音に対するエフェクト処理のパラメータを設定してもよい。
 例えば、上記センサのデータからユーザが集中していると認識出来た場合は、信号処理装置100は、音を反響させないようなエフェクト処理のパラメータを設定してもよい。なお、行動認識の手法については、例えば特開2012-8771号公報など多くの文献に記載されているため、詳細な説明は省略する。
 <2.まとめ>
 以上説明したように本開示の実施の形態によれば、現実空間において再生されているコンテンツの音響特性を、現実空間で集音された音に加えることで、現実空間において再生されているコンテンツの空間を現実空間にまで拡張させた感覚をコンテンツの視聴者に感じさせることが可能な信号処理装置100が提供される。
 本明細書の各装置が実行する処理における各ステップは、必ずしもシーケンス図またはフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、各装置が実行する処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
 また、各装置に内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した各装置の構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供されることが可能である。また、機能ブロック図で示したそれぞれの機能ブロックをハードウェアまたはハードウェア回路で構成することで、一連の処理をハードウェアまたはハードウェア回路で実現することもできる。
 また上述の説明で用いた機能ブロック図で示したそれぞれの機能ブロックの一部又は全部は、たとえばインターネット等のネットワークを介して接続されるサーバ装置で実現されてもよい。また上述の説明で用いた機能ブロック図で示したそれぞれの機能ブロックの構成は、単独の装置で実現されてもよく、複数の装置が連携するシステムで実現されても良い。複数の装置が連携するシステムには、例えば複数のサーバ装置の組み合わせ、サーバ装置と端末装置との組み合わせ等が含まれ得る。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 集音されたユーザの周囲音を、異なる音響特性の空間で前記ユーザに聴取させるための所定の音響特性を、再生されているコンテンツまたはユーザの行動に応じて決定して、決定した音響特性を前記周囲音に加える制御部を備える、信号処理装置。
(2)
 前記制御部は、再生されているコンテンツに応じて音響特性を決定する場合、前記コンテンツのシーンに応じて音響特性を決定する、前記(1)に記載の信号処理装置。
(3)
 前記制御部は、前記コンテンツの画像または音を解析することで前記コンテンツのシーンを判定する、前記(2)に記載の信号処理装置。
(4)
 前記制御部は、前記コンテンツに付与されたメタデータに基づいて前記コンテンツのシーンを判定する、前記(2)に記載の信号処理装置。
(5)
 前記制御部は、再生されているコンテンツに応じて音響特性を決定する場合、前記コンテンツに付与された音響特性を前記周囲音に加える、前記(1)~(4)のいずれかに記載の信号処理装置。
(6)
 前記制御部は、ユーザの行動に応じて音響特性を決定する場合、前記ユーザが携帯または装着するセンサが出力するセンシングデータに応じて音響特性を決定する、前記(1)に記載の信号処理装置。
(7)
 前記制御部は、ユーザの行動に応じて音響特性を決定する場合、前記ユーザが選択した音響特性を前記周囲音に加える、前記(1)に記載の信号処理装置。
(8)
 前記制御部は、前記周囲音を取得するマイクが置かれている空間の音響特性を考慮して音響特性を決定する、前記(1)~(7)のいずれかに記載の信号処理装置。
(9)
 集音されたユーザの周囲音を、異なる音響特性の空間で前記ユーザに聴取させるための所定の音響特性を、再生されているコンテンツまたはユーザの行動に応じて決定して、決定した音響特性を前記周囲音に加える処理をプロセッサが実行することを含む、信号処理方法。
(10)
 集音されたユーザの周囲音を、異なる音響特性の空間で前記ユーザに聴取させるための所定の音響特性を、再生されているコンテンツまたはユーザの行動に応じて決定して、決定した音響特性を前記周囲音に加えることをコンピュータに実行させる、コンピュータプログラム。
 10、10a、10b  マイク
 11  テーブル
 12、12a、12b  スピーカ
 100  信号処理装置

Claims (10)

  1.  集音されたユーザの周囲音を、異なる音響特性の空間で前記ユーザに聴取させるための所定の音響特性を、再生されているコンテンツまたはユーザの行動に応じて決定して、決定した音響特性を前記周囲音に加える制御部を備える、信号処理装置。
  2.  前記制御部は、再生されているコンテンツに応じて音響特性を決定する場合、前記コンテンツのシーンに応じて音響特性を決定する、請求項1に記載の信号処理装置。
  3.  前記制御部は、前記コンテンツの画像または音を解析することで前記コンテンツのシーンを判定する、請求項2に記載の信号処理装置。
  4.  前記制御部は、前記コンテンツに付与されたメタデータに基づいて前記コンテンツのシーンを判定する、請求項2に記載の信号処理装置。
  5.  前記制御部は、再生されているコンテンツに応じて音響特性を決定する場合、前記コンテンツに付与された音響特性を前記周囲音に加える、請求項1に記載の信号処理装置。
  6.  前記制御部は、ユーザの行動に応じて音響特性を決定する場合、前記ユーザが携帯または装着するセンサが出力するセンシングデータに応じて音響特性を決定する、請求項1に記載の信号処理装置。
  7.  前記制御部は、ユーザの行動に応じて音響特性を決定する場合、前記ユーザが選択した音響特性を前記周囲音に加える、請求項1に記載の信号処理装置。
  8.  前記制御部は、前記周囲音を取得するマイクが置かれている空間の音響特性を考慮して音響特性を決定する、請求項1に記載の信号処理装置。
  9.  集音されたユーザの周囲音を、異なる音響特性の空間で前記ユーザに聴取させるための所定の音響特性を、再生されているコンテンツまたはユーザの行動に応じて決定して、決定した音響特性を前記周囲音に加える処理をプロセッサが実行することを含む、信号処理方法。
  10.  集音されたユーザの周囲音を、異なる音響特性の空間で前記ユーザに聴取させるための所定の音響特性を、再生されているコンテンツまたはユーザの行動に応じて決定して、決定した音響特性を前記周囲音に加えることをコンピュータに実行させる、コンピュータプログラム。
PCT/JP2016/077869 2015-10-09 2016-09-21 信号処理装置、信号処理方法及びコンピュータプログラム WO2017061278A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP16853432.9A EP3361756B1 (en) 2015-10-09 2016-09-21 Signal processing device, signal processing method, and computer program
US15/761,647 US10674304B2 (en) 2015-10-09 2016-09-21 Signal processing apparatus and signal processing method
JP2017544446A JP6897565B2 (ja) 2015-10-09 2016-09-21 信号処理装置、信号処理方法及びコンピュータプログラム
CN201680057456.9A CN108141693B (zh) 2015-10-09 2016-09-21 信号处理设备、信号处理方法和计算机可读存储介质

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015200900 2015-10-09
JP2015-200900 2015-10-09

Publications (1)

Publication Number Publication Date
WO2017061278A1 true WO2017061278A1 (ja) 2017-04-13

Family

ID=58487550

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/077869 WO2017061278A1 (ja) 2015-10-09 2016-09-21 信号処理装置、信号処理方法及びコンピュータプログラム

Country Status (5)

Country Link
US (1) US10674304B2 (ja)
EP (1) EP3361756B1 (ja)
JP (1) JP6897565B2 (ja)
CN (1) CN108141693B (ja)
WO (1) WO2017061278A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020188435A (ja) * 2019-05-17 2020-11-19 株式会社ソニー・インタラクティブエンタテインメント オーディオエフェクト制御装置、オーディオエフェクト制御システム、オーディオエフェクト制御方法及びプログラム
JP7482147B2 (ja) 2019-06-24 2024-05-13 メタ プラットフォームズ テクノロジーズ, リミテッド ライアビリティ カンパニー 人工現実環境のためのオーディオシステム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109327795B (zh) * 2018-11-13 2021-09-14 Oppo广东移动通信有限公司 音效处理方法及相关产品

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04306100A (ja) * 1991-04-03 1992-10-28 Fujitsu Ten Ltd 音場再生用コンパクトディスク及び音場制御装置
JP2000194460A (ja) * 1998-12-25 2000-07-14 Mitsubishi Electric Corp メニュ―選択装置
US20090106670A1 (en) * 2007-10-20 2009-04-23 Philipp Christian Berndt Systems and methods for providing services in a virtual environment
JP2013243619A (ja) * 2012-05-22 2013-12-05 Toshiba Corp 音響処理装置及び音響処理方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01130700A (ja) * 1987-11-17 1989-05-23 Victor Co Of Japan Ltd Avサラウンドシステム
US5559891A (en) * 1992-02-13 1996-09-24 Nokia Technology Gmbh Device to be used for changing the acoustic properties of a room
US5729613A (en) * 1993-10-15 1998-03-17 Industrial Research Limited Reverberators for use in wide band assisted reverberation systems
US5559892A (en) * 1994-03-28 1996-09-24 Knowles Electronics, Inc. Impedence buffering MOS circuit with dynamically reduced threshold voltage, as for use in an output buffer of a hearing aid amplifier
JP2003087712A (ja) * 2001-09-14 2003-03-20 Jisedai Joho Hoso System Kenkyusho:Kk スポーツ映像のダイジェスト作成方法およびダイジェスト作成装置
US7521623B2 (en) * 2004-11-24 2009-04-21 Apple Inc. Music synchronization arrangement
JP2005252467A (ja) * 2004-03-02 2005-09-15 Sony Corp 音響再生方法、音響再生装置および記録メディア
CN1969589B (zh) * 2004-04-16 2011-07-20 杜比实验室特许公司 用于创建音频场景的设备和方法
JP2006025281A (ja) * 2004-07-09 2006-01-26 Hitachi Ltd 情報源選択システム、および方法
JP4222276B2 (ja) * 2004-08-27 2009-02-12 ソニー株式会社 再生システム
JP4873316B2 (ja) * 2007-03-09 2012-02-08 株式会社国際電気通信基礎技術研究所 音響空間共有装置
WO2008125593A2 (en) 2007-04-14 2008-10-23 Musecom Ltd. Virtual reality-based teleconferencing
CN102568535A (zh) * 2010-12-23 2012-07-11 美律实业股份有限公司 互动式声音录放装置
US9694282B2 (en) * 2011-04-08 2017-07-04 Disney Enterprises, Inc. Importing audio to affect gameplay experience
JP6202003B2 (ja) * 2012-11-02 2017-09-27 ソニー株式会社 信号処理装置、信号処理方法
EP2916567B1 (en) * 2012-11-02 2020-02-19 Sony Corporation Signal processing device and signal processing method
CN104010265A (zh) * 2013-02-22 2014-08-27 杜比实验室特许公司 音频空间渲染设备及方法
JP6204682B2 (ja) * 2013-04-05 2017-09-27 日本放送協会 音響信号再生装置
US9888333B2 (en) * 2013-11-11 2018-02-06 Google Technology Holdings LLC Three-dimensional audio rendering techniques
US20160210775A1 (en) * 2015-01-21 2016-07-21 Ford Global Technologies, Llc Virtual sensor testbed
US10484598B2 (en) * 2015-08-20 2019-11-19 Sony Corporation System and method for controlling capture of images

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04306100A (ja) * 1991-04-03 1992-10-28 Fujitsu Ten Ltd 音場再生用コンパクトディスク及び音場制御装置
JP2000194460A (ja) * 1998-12-25 2000-07-14 Mitsubishi Electric Corp メニュ―選択装置
US20090106670A1 (en) * 2007-10-20 2009-04-23 Philipp Christian Berndt Systems and methods for providing services in a virtual environment
JP2013243619A (ja) * 2012-05-22 2013-12-05 Toshiba Corp 音響処理装置及び音響処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3361756A4 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020188435A (ja) * 2019-05-17 2020-11-19 株式会社ソニー・インタラクティブエンタテインメント オーディオエフェクト制御装置、オーディオエフェクト制御システム、オーディオエフェクト制御方法及びプログラム
JP7267096B2 (ja) 2019-05-17 2023-05-01 株式会社ソニー・インタラクティブエンタテインメント オーディオエフェクト制御システム、オーディオエフェクト制御装置、受信装置、オーディオエフェクト制御方法、受信装置の制御方法及びプログラム
JP7482147B2 (ja) 2019-06-24 2024-05-13 メタ プラットフォームズ テクノロジーズ, リミテッド ライアビリティ カンパニー 人工現実環境のためのオーディオシステム

Also Published As

Publication number Publication date
EP3361756B1 (en) 2024-04-17
JPWO2017061278A1 (ja) 2018-07-26
CN108141693A (zh) 2018-06-08
JP6897565B2 (ja) 2021-06-30
US10674304B2 (en) 2020-06-02
CN108141693B (zh) 2021-10-29
EP3361756A1 (en) 2018-08-15
EP3361756A4 (en) 2019-06-05
US20180352361A1 (en) 2018-12-06

Similar Documents

Publication Publication Date Title
CN109644314B (zh) 渲染声音程序的方法、音频回放系统和制造制品
KR101333031B1 (ko) HRTFs을 나타내는 파라미터들의 생성 및 처리 방법 및디바이스
KR100739723B1 (ko) 오디오 썸네일 기능을 지원하는 오디오 재생 방법 및 장치
JP7014176B2 (ja) 再生装置、再生方法、およびプログラム
EP3343349B1 (en) An apparatus and associated methods in the field of virtual reality
US10798518B2 (en) Apparatus and associated methods
McGill et al. Acoustic transparency and the changing soundscape of auditory mixed reality
KR20160015317A (ko) 오디오 장면 장치
TW201820315A (zh) 改良型音訊耳機裝置及其聲音播放方法、電腦程式
JP6246922B2 (ja) 音響信号処理方法
JP6361000B2 (ja) 改良された復元のために音声信号を処理するための方法
JP2023040294A (ja) 再生装置、再生方法、およびプログラム
EP4080910A1 (en) Impulse response generation system and method
WO2017061278A1 (ja) 信号処理装置、信号処理方法及びコンピュータプログラム
CN114822568A (zh) 音频播放方法、装置、设备及计算机可读存储介质
JP2015065541A (ja) 音響制御装置及び方法
CN114501297B (zh) 一种音频处理方法以及电子设备
CN105979468A (zh) 一种音频处理方法及装置
WO2023085186A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
WO2018105254A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20230251718A1 (en) Method for Generating Feedback in a Multimedia Entertainment System
US20230007434A1 (en) Control apparatus, signal processing method, and speaker apparatus
KR20150005438A (ko) 오디오 신호 처리 방법 및 장치
JP2022128177A (ja) 音声生成装置、音声再生装置、音声再生方法、及び音声信号処理プログラム
Stewart Spatial auditory display for acoustics and music collections

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16853432

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017544446

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE