WO2017090387A1 - 信号処理装置、信号処理方法及びコンピュータプログラム - Google Patents

信号処理装置、信号処理方法及びコンピュータプログラム Download PDF

Info

Publication number
WO2017090387A1
WO2017090387A1 PCT/JP2016/082461 JP2016082461W WO2017090387A1 WO 2017090387 A1 WO2017090387 A1 WO 2017090387A1 JP 2016082461 W JP2016082461 W JP 2016082461W WO 2017090387 A1 WO2017090387 A1 WO 2017090387A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal processing
control unit
sound
processing apparatus
signal
Prior art date
Application number
PCT/JP2016/082461
Other languages
English (en)
French (fr)
Inventor
稀淳 金
稲見 昌彦
孝太 南澤
裕太 杉浦
澪 山本
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US15/774,062 priority Critical patent/US10607585B2/en
Publication of WO2017090387A1 publication Critical patent/WO2017090387A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/04Sound-producing devices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0091Means for obtaining special acoustic effects
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • G10H1/06Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H3/00Instruments in which the tones are generated by electromechanical means
    • G10H3/12Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument
    • G10H3/14Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument using mechanically actuated vibrators with pick-up means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/008Means for controlling the transition from one tone waveform to another
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/003Changing voice quality, e.g. pitch or formants
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/201User input interfaces for electrophonic musical instruments for movement interpretation, i.e. capturing and recognizing a gesture or a specific kind of movement, e.g. to control a musical instrument
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/391Angle sensing for musical purposes, using data from a gyroscope, gyrometer or other angular velocity or angular movement sensing device
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/395Acceleration sensing or accelerometer use, e.g. 3D movement computation by integration of accelerometer data, angle sensing with respect to the vertical, i.e. gravity sensing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/4013D sensing, i.e. three-dimensional (x, y, z) position or movement sensing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/441Image sensing, i.e. capturing images or optical patterns for musical purposes or musical control purposes
    • G10H2220/455Camera input, e.g. analyzing pictures from a video camera and using the analysis results as control data

Definitions

  • the present disclosure relates to a signal processing device, a signal processing method, and a computer program.
  • Patent Literature 1 discloses a technique for controlling the timbre and sound change of an object held by the user in accordance with the movement of the user.
  • Patent Document 1 changes the timbre of a musical instrument that is an object held by the user according to the movement of the user's body, and presents the movement of the object itself in an aurally exaggerated manner. It is not something to do.
  • the present disclosure proposes a new and improved signal processing apparatus, signal processing method, and computer program capable of audibly exaggerating and presenting the motion of an object itself.
  • a control unit that performs sound signal processing on a waveform of a signal generated based on an action of an object, and outputs a sound corresponding to a signal generated based on the sound signal processing within a predetermined time.
  • a signal processing apparatus is provided.
  • it includes performing sound signal processing on a waveform of a signal generated based on an action of an object, and outputting a sound corresponding to a signal generated based on the sound signal processing within a predetermined time.
  • a signal processing method is provided.
  • the computer it is possible to cause the computer to execute sound signal processing on a waveform of a signal generated based on the motion of the object and output a sound corresponding to the signal generated based on the sound signal processing within a predetermined time.
  • a computer program is provided for execution.
  • a signal processing device performs audio signal processing on a waveform of a signal generated based on a motion of an object, and generates a sound corresponding to a signal generated based on the audio signal processing within a predetermined time
  • the signal generated based on the movement of an object is, for example, a signal obtained by collecting wind noise generated by the movement of the object, or by collecting sound generated by contact between the object and another object.
  • Signal a signal obtained by collecting sound generated when the object moves on the surface of another object, sensing data generated along with the movement of the object, and the like.
  • a signal processing device performs audio signal processing on a waveform of a signal generated based on a motion of an object, and generates a sound corresponding to a signal generated based on the audio signal processing within a predetermined time By outputting, it is possible to present the movement of the object itself in an exaggerated manner.
  • FIG. 1 is an explanatory diagram illustrating an example of a mode in which a signal processing device according to an embodiment of the present disclosure is used.
  • FIG. 1 illustrates an example in which the microphone 20, the speaker 30, and the signal processing device 100 according to the embodiment of the present disclosure are provided on the back surface of the top plate of the table 10.
  • the microphone 20 collects sound generated when an object comes into contact with the top plate of the table 10 or when the object moves on the top plate of the table 10.
  • FIG. 1 shows a state in which an object 1 (ball) is bouncing the top plate of the table 10.
  • the microphone 20 collects sound generated when the object 1 bounces the top plate of the table 10.
  • the microphone 20 outputs the collected sound to the signal processing device 100.
  • the signal processing apparatus 100 performs signal processing on the sound collected by the microphone 20.
  • the signal processing apparatus 100 can perform amplification, an effect (sound effect), etc. as signal processing with respect to the sound collected by the microphone 20.
  • the signal processing apparatus 100 performs signal processing such as amplification and effect (acoustic effect) on the sound collected by the microphone 20 so that an object comes into contact with the top plate of the table 10 or the top plate of the table 10 is touched.
  • signal processing such as amplification and effect (acoustic effect) on the sound collected by the microphone 20 so that an object comes into contact with the top plate of the table 10 or the top plate of the table 10 is touched.
  • the effect processing can include, for example, echo, reverb, low-frequency modulation, speed change (time stretch), pitch change (pitch shift), and the like. Note that sound amplification processing may also be regarded as a kind of effect processing.
  • the signal processing device 100 performs signal processing such as an effect on the sound collected by the microphone 20, and an object contacts another signal, that is, the top plate of the table 10. Or generating an audio signal for exaggerating the sound generated when the object moves on the tabletop of the table 10, and presenting the movement of the object itself in an exaggerated manner. Make it possible.
  • the signal processing apparatus 100 can perform addition synthesis and subtraction synthesis with filter effects such as low-pass, high-pass, and band-pass, and oscillators (sine wave, sawtooth wave, triangular wave, rectangular wave, and the like).
  • the speaker 30 outputs a sound based on the audio signal generated by the signal processing in the signal processing device 100.
  • the speaker 30 by providing the speaker 30 on the back of the top plate of the table 10, it is possible to exaggerate and present the sound generated when an object moves on the top plate of the table 10. .
  • the signal processing apparatus 100 may not be provided on the table 10.
  • a sound collected by the microphone 20 is received by an information processing device such as a smartphone, a tablet terminal, or a personal computer, and the information processing device that has received the sound collected by the microphone 20 performs the above-described signal processing to obtain a signal.
  • the processed audio signal may be transmitted to the speaker 30.
  • FIG. 2 is an explanatory diagram illustrating a functional configuration example of the signal processing device 100 according to the embodiment of the present disclosure.
  • the signal processing apparatus 100 illustrated in FIG. 2 performs audio signal processing on a waveform of a signal generated based on the motion of an object, and outputs a sound corresponding to a signal generated based on the audio signal processing within a predetermined time.
  • it is a device for presenting the movement of the object itself in an audible manner.
  • FIG. 2 a functional configuration example of the signal processing device 100 according to the embodiment of the present disclosure will be described with reference to FIG.
  • the signal processing device 100 includes an acquisition unit 110, a control unit 120, an output unit 130, a storage unit 140, and a communication unit 150. Composed.
  • the acquisition unit 110 acquires a signal generated based on the movement of the object from the outside.
  • the acquisition unit 110 acquires, for example, a sound signal of sound generated when an object comes in contact with the top plate of the table 10 or the object moves on the top plate of the table 10 from the microphone 20 illustrated in FIG. To do.
  • the acquisition unit 110 outputs the acquired signal to the control unit 120.
  • the control unit 120 includes, for example, a processor such as a CPU (Central Processing Unit) or a DSP (Digital Signal Processor), a storage medium such as a ROM (Read Only Memory), a RAM (Random Access Memory), or the like.
  • a processor such as a CPU (Central Processing Unit) or a DSP (Digital Signal Processor)
  • a storage medium such as a ROM (Read Only Memory), a RAM (Random Access Memory), or the like.
  • the control unit 120 performs signal processing on the signal acquired by the acquisition unit 110. For example, the control unit 120 performs signal processing on a sound signal of a sound generated when an object comes into contact with the top plate of the table 10 or when the object moves on the top plate of the table 10.
  • the control unit 120 performs, for example, amplification processing on at least some frequency bands, predetermined effect processing, and the like as signal processing on the audio signal output from the acquisition unit 110. As described above, the amplification process may also be regarded as a kind of effect process.
  • the control unit 120 outputs the signal after the signal processing to the output unit 130 within a predetermined time, preferably in substantially real time.
  • the control unit 120 determines the content of the signal processing according to the object. I can do it.
  • the control unit 120 performs signal processing on the sound generated based on the movement of the object so that the automobile is running.
  • Signal processing for outputting a simple sound (for example, engine sound) from the speaker 30 can be executed.
  • the control unit 120 performs signal processing on the sound generated based on the movement of the object so that the elephant is walking. It is possible to execute signal processing for outputting a loud “doshin” sound from the speaker 30.
  • the control unit 120 performs signal processing on the sound generated based on the contact of the object (contact between the top plate of the table 10 and the ball).
  • signal processing for outputting a sound that emphasizes that the ball has bounced from the speaker 30 can be executed.
  • the control unit 120 may be set in advance by the user as to what the object that contacts the top plate of the table 10 or moves on the top plate of the table 10 is, and uses the result of image recognition described later. May be determined.
  • the control unit 120 outputs a sound unrelated to the object from the speaker 30 even if it is known in advance what the object that contacts the top plate of the table 10 or moves on the top plate of the table 10 is. Such signal processing may be performed.
  • the control unit 120 makes a sound unrelated to the car based on the movement of the object (for example, a heavy bass such as an engine sound). Signal processing for outputting from the speaker 30 a sound effect comprised of high sounds).
  • the control unit 120 may specify the amount of amplification for the audio signal output from the acquisition unit 110, the frequency band to be amplified, and the content of the effect processing by the user, or may determine automatically.
  • the control unit 120 may determine, for example, according to the content of the motion of the object.
  • the control unit 120 may change the content of the signal processing according to the content of the movement even with the same object. For example, the control unit 120 may change the content of the signal processing when the object moves on the top plate of the table 10 and when the top plate of the table 10 bounces.
  • the control unit 120 may perform signal processing for outputting the sound emitted by the object so that the sound emitted by the object is exaggerated as a synthesized wave with the sound emitted by the object during signal processing. After canceling, signal processing may be performed for outputting the sound produced by the object in an exaggerated manner.
  • the control unit 120 may perform a process of cutting a low frequency band on the audio signal output from the acquisition unit 110 in order to avoid howling during signal processing.
  • the output unit 130 outputs the signal after the signal processing in the control unit 120 to an external device, for example, the speaker 30 shown in FIG.
  • the speaker 30 receives the signal from the output unit 130 and outputs a sound based on the signal after the signal processing in the control unit 120.
  • the storage unit 140 is configured by a storage medium such as a semiconductor memory or a hard disk, and stores a program and data for processing by the signal processing apparatus 100.
  • the program and data stored in the storage unit 140 can be read as appropriate during signal processing in the control unit 120.
  • the storage unit 140 stores, for example, effect processing parameters used when the control unit 120 performs signal processing.
  • a plurality of parameters stored in the storage unit 140 may exist depending on the characteristics of an object that collides with the top plate of the table 10 or moves on the top plate of the table 10.
  • the communication unit 150 is a communication interface that mediates communication between the signal processing device 100 and other devices.
  • the communication unit 150 supports an arbitrary wireless communication protocol or wired communication protocol, and establishes a communication connection with other devices. Data received by the communication unit 150 from another device can be supplied to the acquisition unit 110. The signal output from the output unit 130 can be transmitted from the communication unit 150.
  • the signal processing apparatus 100 has a configuration as illustrated in FIG. 2, and performs audio signal processing on a waveform of a signal generated based on the motion of an object, and performs the audio signal processing.
  • a sound corresponding to the signal generated based on the signal within a predetermined time, preferably in substantially real time, the motion of the object itself can be presented in an exaggerated manner.
  • FIG. 3 is a flowchart illustrating an operation example of the signal processing apparatus 100 according to the embodiment of the present disclosure. 3 shows, for example, the sound of sound generated when an object comes in contact with the top plate of the table 10 or the object moves on the top plate of the table 10 from the microphone 20 shown in FIG. It is an operation example of the signal processing apparatus 100 when a signal is acquired and signal processing is performed on the audio signal.
  • an operation example of the signal processing apparatus 100 according to the embodiment of the present disclosure will be described with reference to FIG.
  • the signal processing apparatus 100 analyzes the waveform of the acquired signal by the control unit 120 (step S102). Then, the signal processing device 100 executes dynamic signal processing according to the acquired signal waveform in the control unit 120 (step S103), and a signal based on the result of the signal processing is output from the output unit 130 within a predetermined time. Preferably, it outputs in substantially real time (step S104).
  • the signal processing apparatus 100 performs the sound signal processing on the waveform of the signal generated based on the motion of the object by performing the operation as illustrated in FIG. By outputting a sound corresponding to the signal generated based on the signal within a predetermined time, preferably almost in real time, it is possible to exaggerately present the motion of the object itself.
  • FIG. 4 is an explanatory diagram illustrating a modification of the embodiment of the present disclosure.
  • FIG. 4 shows an example in which an imaging device 40 for imaging the top plate of the table 10 is provided in the room where the table 10 is installed.
  • the signal processing device 100 acquires a moving image captured by the imaging device 40 from the imaging device 40.
  • the signal processing apparatus 100 analyzes the moving image captured by the imaging apparatus 40 with the control unit 120, so that the presence or absence of an object on the top plate of the table 10 and the shape of the object in the presence of the object exist. You can recognize if there is. Then, the signal processing apparatus 100 estimates what the object on the top of the table 10 is from the shape of the recognized object, and performs signal processing on the signal acquired by the acquisition unit 110 according to the estimated object. Execute.
  • the signal processing apparatus 100 may obtain feedback from the user regarding the object on the top plate of the table 10 estimated by performing image processing. By obtaining feedback from the user for the object on the top plate of the table 10 estimated by performing image processing, the signal processing apparatus 100 can improve the accuracy of object estimation from the result of image recognition. .
  • the signal processing device 100 may perform signal processing on the signal acquired by the acquisition unit 110 according to the content of the color included in the image as a result of analyzing the moving image captured by the imaging device 40. That is, the signal processing apparatus 100 may execute signal processing on the signal acquired by the acquisition unit 110 according to the color difference of the object even if the objects that generate the sound are the same object.
  • the signal processing apparatus 100 may detect a bass part with respect to the signal acquired by the acquisition unit 110. Signal processing that emphasizes may be executed.
  • the signal processing apparatus 100 analyzes the moving image captured by the imaging apparatus 40 and the color included in the image includes a large amount of blue, the signal processing apparatus 100 performs a treble portion with respect to the signal acquired by the acquisition unit 110. Signal processing that emphasizes may be executed.
  • Control part 120 may presume what is the object which contacts the top plate of the table 10 or moves on the top plate of table 10 from the data of the mass obtained by a sensor, for example.
  • FIG. 5 is an explanatory diagram illustrating a modification of the embodiment of the present disclosure.
  • FIG. 5 shows an example in which a sensor 50 for measuring the mass of an object in contact with the top plate of the table 10 is provided on the top plate of the table 10.
  • the sensor 50 detects the mass of the object in response to contact with the surface of the object 1 and transmits data of the detected mass to the signal processing device 100.
  • the signal processing apparatus 100 analyzes the mass data transmitted from the sensor 50 with the control unit 120, thereby determining whether there is an object on the top plate of the table 10 and whether the object is the mass of the object. I can know. Then, the signal processing apparatus 100 estimates what the object on the top plate of the table 10 is from the mass of the object, and executes signal processing on the signal acquired by the acquisition unit 110 according to the estimated object. .
  • the signal processing apparatus 100 obtains feedback from the user for learning about the signal processing result for the object on the top plate of the table 10 estimated from the mass of the object and the sound generated based on the movement of the object. Also good.
  • the signal processing apparatus 100 obtains feedback from the user regarding the result of signal processing on the object on the top plate of the table 10 estimated by performing image processing and the sound generated based on the movement of the object. Thus, it is possible to improve the accuracy of estimation of an object from the mass and the accuracy of signal processing.
  • the signal processing apparatus 100 may combine object estimation using the result of object image recognition described with reference to FIG.
  • the signal processing apparatus 100 may perform signal processing on the signal acquired by the acquisition unit 110 according to the size of the object on the top plate of the table 10 estimated by performing image processing. That is, the signal processing apparatus 100 may execute signal processing on the signal acquired by the acquisition unit 110 according to the difference in the size of the object even if the objects that generate the sound are the same object. For example, the signal processing apparatus 100 analyzes the moving image captured by the imaging apparatus 40, and as a result, the signal processing that emphasizes the bass part with respect to the signal acquired by the acquisition unit 110 as the recognized object is larger. May be executed. In addition, for example, the signal processing apparatus 100 analyzes the moving image captured by the imaging apparatus 40, and as a result, the smaller the recognized object is, the signal that emphasizes the treble part with respect to the signal acquired by the acquisition unit 110. Processing may be executed.
  • the signal processing apparatus 100 may change the content of the audio signal processing according to the frequency characteristics of the signal generated based on the motion of the object. For example, if a signal generated based on the motion of the object contains a lot of low-frequency sound, the signal processing apparatus 100 performs signal processing that amplifies the low-frequency sound, and generates a signal based on the motion of the object. If the signal contains a lot of high frequency sound, the signal processing apparatus 100 may perform signal processing that amplifies the high frequency sound. Conversely, if the signal generated based on the motion of the object contains a lot of low-frequency sound, the signal processing apparatus 100 performs signal processing that amplifies the high-frequency sound, and converts the signal generated based on the motion of the object into the signal generated. If many high-frequency sounds are included, the signal processing apparatus 100 may perform signal processing that amplifies low-frequency sounds.
  • the positions of the microphone 20 and the speaker 30 provided on the table 10 are not limited to those shown in FIG.
  • FIG. 6 is an explanatory diagram showing a modification of the positions of the microphone 20 and the speaker 30 provided on the table 10.
  • the microphone 20 may be embedded in the surface of the top plate of the table 10.
  • the speaker 30 may be integrated with the signal processing apparatus 100.
  • FIG. 7 is an explanatory diagram illustrating a modified example of the number of microphones and speakers provided in the table 10.
  • FIG. 7 shows an example in which five microphones 20 a to 20 e are embedded in the surface of the top plate of the table 10, and two speakers 30 a and 30 b are provided in the signal processing device 100.
  • the signal processing apparatus 100 can be viewed from the side closer to the position where the object contacts the top plate of the table 10. Signal processing for outputting a louder sound can be executed.
  • a microphone is provided on the top plate of the table 10, and sounds when the object contacts the top plate of the table 10 or moves on the top plate of the table 10 are collected by the microphone.
  • the example which performs the signal processing with respect to the sound was shown.
  • an example is shown in which a microphone is provided inside an object, sound generated according to the movement of the object is collected by the microphone, and signal processing is performed on the collected sound.
  • FIG. 8 is an explanatory diagram illustrating a modification of the embodiment of the present disclosure. 8 shows that a microphone 20 and a speaker 30 are provided on the surface of the ball 101, and an acquisition unit 110, a control unit 120, which are components of the signal processing device 100 shown in FIG. And an output unit 130 is provided.
  • the microphone 10 and the speaker 30 are provided on the surface of the ball 101, and the acquisition unit 110, the control unit 120, and the output unit 130 are provided inside the ball 101. Can output a sound for exaggerating the movement from the speaker 30.
  • FIG. 9 is an explanatory diagram illustrating a modification of the embodiment of the present disclosure.
  • FIG. 9 shows that the speaker 30 is provided on the surface of the ball 101, the sensor 60, the acquisition unit 110, the control unit 120, which are components of the signal processing device 100 shown in FIG. And an output unit 130 is provided.
  • the sensor 60 includes, for example, an acceleration sensor, an angular velocity sensor, a geomagnetic sensor, and the like.
  • the control unit 120 illustrated in FIG. 9 performs signal processing on the waveform signal output from the sensor 60, and generates a sound signal for outputting a sound for exaggerating the motion of the ball 101 from the speaker 30. .
  • the speaker 30 is provided on the surface of the ball 101.
  • 8 and 9 show a modification in which a sound for exaggerating the motion of the ball 101 is output from the speaker 30.
  • a sound for exaggerating the motion is output from the speaker 30.
  • the output object is not limited to the ball. 8 and 9 illustrate an example in which the acquisition unit 110, the control unit 120, and the output unit 130, which are components of the signal processing device 100, are provided inside the ball 101. It is not limited to examples.
  • the ball 101 transmits the sound collected by the speaker 30 illustrated in FIG. 8 to the signal processing device 100 by wireless communication, and the signal processing device 100 performs signal processing on the sound collected by the speaker 30,
  • the signal after signal processing may be transmitted to the ball 101 or an object different from the ball 101.
  • the sound signal processing is performed on the waveform of the signal generated based on the motion of the object, and the sound corresponding to the signal generated based on the sound signal processing is output for a predetermined time.
  • a signal processing apparatus 100 that outputs in substantially real time is provided.
  • the signal processing apparatus 100 uses, for example, a sound signal generated by contact or collision between objects as a signal generated based on the motion of the object, and performs sound signal processing on the waveform of the signal. .
  • the signal processing apparatus 100 performs audio signal processing on the waveform of a signal generated based on the motion of an object, and preferably generates a sound corresponding to the signal generated based on the audio signal processing within a predetermined time. Makes it possible to present the motion of the object itself in an exaggerated manner by outputting it in almost real time.
  • each step in the processing executed by each device in this specification does not necessarily have to be processed in chronological order in the order described as a sequence diagram or flowchart.
  • each step in the processing executed by each device may be processed in an order different from the order described as the flowchart, or may be processed in parallel.
  • each functional block shown in the functional block diagram used in the above description may be realized by a server device connected via a network such as the Internet.
  • the configuration of each functional block shown in the functional block diagram used in the above description may be realized by a single device or a system in which a plurality of devices cooperate.
  • a system in which a plurality of devices are linked may include, for example, a combination of a plurality of server devices, a combination of a server device and a terminal device, or the like.
  • a signal processing apparatus comprising: a control unit that performs audio signal processing on a waveform of a signal generated based on an action of an object and outputs a sound corresponding to a signal generated based on the audio signal processing within a predetermined time.
  • the signal processing apparatus according to (1) wherein the control unit changes contents of the audio signal processing according to characteristics of the object.
  • the control unit estimates a characteristic of the object using a recognition result of the object.
  • the control unit learns the recognition result of the object and changes contents of the audio signal processing in accordance with the learning.
  • the signal processing apparatus (5) The signal processing apparatus according to (3), wherein the control unit estimates a characteristic of the object using an image recognition result of the object. (6) The signal processing apparatus according to (5), wherein the control unit changes the content of the audio signal processing according to the mass of the object as a characteristic of the object. (7) The signal processing apparatus according to (5), wherein the control unit changes the content of the audio signal processing according to a size of the object as a characteristic of the object. (8) The signal processing apparatus according to (5), wherein the control unit changes the content of the audio signal processing according to a frequency characteristic of a signal generated based on an operation of the object as the characteristic of the object.
  • a signal processing apparatus comprising: executing sound signal processing on a waveform of a signal generated based on an action of an object, and outputting a sound corresponding to a signal generated based on the sound signal processing within a predetermined time.
  • a computer program for causing a computer to execute sound signal processing on a waveform of a signal generated based on an action of an object and to output a sound corresponding to a signal generated based on the sound signal processing within a predetermined time.

Landscapes

  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • User Interface Of Digital Computer (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

【課題】物体の動きそのものを聴覚的に誇張して提示することが可能な信号処理装置を提供する。 【解決手段】物体の動作に基づき生じる信号の波形に対する音声信号処理を実行して、前記音声信号処理に基づき生成される信号に応じた音を所定時間内に出力させる制御部を備える、信号処理装置が提供される。信号処理装置は、物体の動作に基づき生じる信号の波形に対する音声信号処理することにより、物体の動きそのものを聴覚的に誇張して提示することを可能とする。

Description

信号処理装置、信号処理方法及びコンピュータプログラム
 本開示は、信号処理装置、信号処理方法及びコンピュータプログラムに関する。
 ユーザの動きに合わせてユーザが保持する物体の音色や音の変化をコントロールする技術が、例えば特許文献1で開示されている。
特開2013-228434号公報
 しかし、特許文献1で開示されている技術は、ユーザの体の動きに応じてユーザが保持する物体である楽器の音色を変更するものであり、物体の動きそのものを聴覚的に誇張して提示するものでは無い。
 そこで、本開示では、物体の動きそのものを聴覚的に誇張して提示することが可能な、新規かつ改良された信号処理装置、信号処理方法及びコンピュータプログラムを提案する。
 本開示によれば、物体の動作に基づき生じる信号の波形に対する音声信号処理を実行して、前記音声信号処理に基づき生成される信号に応じた音を所定時間内に出力させる制御部を備える、信号処理装置が提供される。
 また本開示によれば、物体の動作に基づき生じる信号の波形に対する音声信号処理を実行して、前記音声信号処理に基づき生成される信号に応じた音を所定時間内に出力させることを含む、信号処理方法が提供される。
 また本開示によれば、物体の動作に基づき生じる信号の波形に対する音声信号処理を実行して、前記音声信号処理に基づき生成される信号に応じた音を所定時間内に出力させることをコンピュータに実行させる、コンピュータプログラムが提供される。
 以上説明したように本開示によれば、物体の動きそのものを聴覚的に誇張して提示することが可能な、新規かつ改良された信号処理装置、信号処理方法及びコンピュータプログラムを提供することが出来る。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の実施の形態に係る信号処理装置が使用される態様の一例を示す説明図である。 本開示の実施の形態に係る信号処理装置100の機能構成例を示す説明図である。 本開示の実施の形態に係る信号処理装置100の動作例を示す流れ図である。 本開示の実施の形態の変形例を示す説明図である。 本開示の実施の形態の変形例を示す説明図である。 テーブルに設けられるマイク0やスピーカの位置の変形例を示す説明図である。 テーブルに設けられるマイクやスピーカの数の変形例を示す説明図である。 本開示の実施の形態の変形例を示す説明図である。 本開示の実施の形態の変形例を示す説明図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.本開示の実施の形態
  1.1.概要
  1.2.構成例
  1.3.動作例
  1.4.変形例
 2.まとめ
 <1.本開示の実施の形態>
 [1.1.概要]
 まず、本開示の実施の形態に係る信号処理装置の概要について説明する。本開示の実施の形態に係る信号処理装置は、物体の動きに基づき生じる信号の波形に対する音声信号処理を実行して、その音声信号処理に基づき生成される信号に応じた音を所定時間内に出力する装置である。物体の動きに基づき生じる信号とは、例えば、その物体の移動に伴い発生する風切音を集音して得られる信号、その物体と別の物体との接触により生じる音を集音して得られる信号、その物体が別の物体の表面を移動することにより生じる音を集音して得られる信号その物体の移動に伴い発生するセンシングデータ、等が含まれうる。
 本開示の実施の形態に係る信号処理装置は、物体の動きに基づき生じる信号の波形に対する音声信号処理を実行して、その音声信号処理に基づき生成される信号に応じた音を所定時間内に出力させることで、物体の動きそのものを聴覚的に誇張して提示することを可能とする。
 図1は、本開示の実施の形態に係る信号処理装置が使用される態様の一例を示す説明図である。図1には、テーブル10の天板の背面に、マイク20、スピーカ30、及び本開示の実施の形態に係る信号処理装置100が設けられている例が示されている。
 マイク20は、テーブル10の天板に物体が接触したり、テーブル10の天板を物体が移動したりする際に発生する音を集音する。図1では、テーブル10の天板を物体1(ボール)が弾んでいる様子が示されている。マイク20は、テーブル10の天板を物体1が弾んだ際に発生する音を集音する。マイク20は、集音した音を信号処理装置100に出力する。
 信号処理装置100は、マイク20が集音した音に対して信号処理を実行する。信号処理装置100は、マイク20が集音した音に対する信号処理として、増幅やエフェクト(音響効果)などを行いうる。
 そして信号処理装置100は、マイク20が集音した音に対して増幅やエフェクト(音響効果)などの信号処理を行って、テーブル10の天板に物体が接触したり、テーブル10の天板を物体が移動したりする際に発生する音を誇張して表した音を出力する。エフェクト処理には、例えばエコーやリバーブ、低周波による変調、速度の変化(タイムストレッチ)、音程の変化(ピッチシフト)などが含まれうる。なお、音の増幅処理もエフェクト処理の一種として捉えても良い。
 本開示の実施の形態に係る信号処理装置100は、マイク20が集音した音に対して、エフェクトのような信号処理を行って、別の信号、すなわち、テーブル10の天板に物体が接触したり、テーブル10の天板を物体が移動したりする際に発生する音を誇張して表すための音声信号を生成することで、物体の動きそのものを聴覚的に誇張して提示することを可能とする。信号処理装置100は、エフェクト処理として、ローパス、ハイパス、バンドパスなどのフィルタ効果、オシレータ(サイン波、ノコギリ波、三角波、矩形波など)との加算合成や減算合成を行いうる。
 スピーカ30は、信号処理装置100での信号処理により生成された音声信号に基づく音を出力する。このように、テーブル10の天板の背面にスピーカ30が設けられていることで、テーブル10の天板を物体が移動したりする際に発生する音を誇張して提示することが可能となる。
 もちろん、信号処理装置100は、テーブル10に設けられていなくても良い。例えば、マイク20で集音した音をスマートフォンやタブレット端末、パーソナルコンピュータ等の情報処理装置で受信し、マイク20で集音した音を受信した情報処理装置が上述の信号処理を実行して、信号処理後の音声信号をスピーカ30に送信してもよい。
 以上、本開示の実施の形態に係る信号処理装置の概要について説明した。続いて、本開示の実施の形態に係る信号処理装置の機能構成例について説明する。
 [1.2.構成例]
 図2は、本開示の実施の形態に係る信号処理装置100の機能構成例を示す説明図である。図2に示した信号処理装置100は、物体の動きに基づき生じる信号の波形に対する音声信号処理を実行して、その音声信号処理に基づき生成される信号に応じた音を所定時間内に出力させることで、物体の動きそのものを聴覚的に誇張して提示するための装置である。以下、図2を用いて本開示の実施の形態に係る信号処理装置100の機能構成例について説明する。
 図2に示したように、本開示の実施の形態に係る信号処理装置100は、取得部110と、制御部120と、出力部130と、記憶部140と、通信部150と、を含んで構成される。
 取得部110は、物体の動きに基づき生じる信号を外部から取得する。取得部110は、例えば、図1に示したマイク20から、テーブル10の天板に物体が接触したり、テーブル10の天板を物体が移動したりする際に発生する音の音声信号を取得する。取得部110は、取得した信号を制御部120に出力する。
 制御部120は、例えばCPU(Central Processing Unit)やDSP(Digital Signal Processor)などのプロセッサや、ROM(Read Only Memory)、RAM(Random Access Memory)などの記憶媒体等で構成される。
 制御部120は、取得部110が取得した信号に対する信号処理を行う。例えば制御部120は、テーブル10の天板に物体が接触したり、テーブル10の天板を物体が移動したりする際に発生する音の音声信号に対する信号処理を行う。制御部120は、取得部110が出力する音声信号に対する信号処理として、例えば少なくとも一部の周波数帯域に対する増幅処理や、所定のエフェクト処理などを行う。上述したように、増幅処理も、エフェクト処理の一種と捉えてもよい。制御部120は、取得部110が出力する音声信号に対して信号処理を行うと、信号処理後の信号を所定時間内、好ましくは、ほぼリアルタイムで出力部130に出力する。
 制御部120は、テーブル10の天板に接触したり、テーブル10の天板上を移動したりする物体が何であるかが予め分かっていれば、その物体に応じて信号処理の内容を決定することが出来る。
 例えば、テーブル10の天板上を移動する物体が自動車のおもちゃであれば、制御部120は、その物体の移動に基づいて生じた音に対する信号処理を実行して、自動車が走行しているような音(例えば、エンジン音)をスピーカ30から出力するための信号処理を実行しうる。
 また例えば、テーブル10の天板上を移動する物体が象のおもちゃであれば、制御部120は、その物体の移動に基づいて生じた音に対する信号処理を実行して、象が歩いているような「ドシン」という音をスピーカ30から出力するための信号処理を実行しうる。
 また例えば、テーブル10の天板をボールが弾んだ場合であれば、制御部120は、その物体の接触(テーブル10の天板とボールとの接触)に基づいて生じた音に対する信号処理を実行して、ボールが弾んだことを強調するような音をスピーカ30から出力するための信号処理を実行しうる。
 制御部120は、テーブル10の天板に接触したり、テーブル10の天板上を移動したりする物体が何であるかを、予めユーザから設定されてもよく、後述する画像認識の結果を用いて決定しても良い。
 制御部120は、テーブル10の天板に接触したり、テーブル10の天板上を移動したりする物体が何であるかが予め分かっていても、その物体とは無関係の音をスピーカ30から出力するような信号処理を行っても良い。
 例えば、テーブル10の天板上を移動する物体が自動車のおもちゃであっても、制御部120は、その物体の移動に基づいて自動車とは無関係な音(例えば、エンジン音のような重低音では無く、高音で構成される効果音)をスピーカ30から出力するための信号処理を実行しうる。
 制御部120は、取得部110が出力する音声信号に対する増幅量や増幅する周波数帯、エフェクト処理の内容を、ユーザが指定したものとしてもよく、自動的に決定しても良い。制御部120は、取得部110が出力する音声信号に対する増幅量や増幅する周波数帯、エフェクト処理の内容を自動的に決定する場合は、例えば物体の動きの内容に応じて決定しても良い。
 制御部120は、同じ物体でも、動きの内容に応じて信号処理の内容を変化させてもよい。例えば、制御部120は、同じ物体でも、テーブル10の天板上を移動する場合と、テーブル10の天板をバウンドした場合とで信号処理の内容を変化させてもよい。
 制御部120は、信号処理の際に、物体が発した音との合成波として、物体が発した音を誇張して聴取させるよう出力するための信号処理を行っても良く、物体の音をキャンセルした上で物体が発した音を誇張して聴取させるよう出力するための信号処理を行っても良い。
 制御部120は、信号処理の際に、ハウリングを回避するために、取得部110が出力する音声信号に対して低周波数帯をカットする処理を行っても良い。
 出力部130は、制御部120での信号処理後の信号を、外部の装置、例えば、図1に示したスピーカ30に出力する。スピーカ30は、出力部130から信号を受けることで、制御部120での信号処理後の信号に基づいた音を出力する。
 記憶部140は、半導体メモリ又はハードディスクなどの記憶媒体により構成され、信号処理装置100による処理のためのプログラム及びデータを記憶する。記憶部140に記憶されているプログラム及びデータは、制御部120での信号処理の際に適宜読み出されうる。
 記憶部140は、例えば、制御部120での信号処理の際に用いられるエフェクト処理のパラメータを記憶する。記憶部140が記憶するパラメータは、テーブル10の天板に衝突したり、テーブル10の天板上を移動したりする物体の特性に応じて複数存在してもよい。
 通信部150は、信号処理装置100による他の装置との間の通信を仲介する通信インタフェースである。通信部150は、任意の無線通信プロトコル又は有線通信プロトコルをサポートし、他の装置との間の通信接続を確立する。他の装置から通信部150が受信したデータは取得部110に供給されうる。また出力部130が出力する信号は、通信部150から送信されうる。
 本開示の実施の形態に係る信号処理装置100は、図2に示したような構成を有することで、物体の動きに基づき生じる信号の波形に対する音声信号処理を実行して、その音声信号処理に基づき生成される信号に応じた音を所定時間内、好ましくは、ほぼリアルタイムで出力させることで、物体の動きそのものを聴覚的に誇張して提示することを可能とする。
 以上、図2を用いて本開示の実施の形態に係る信号処理装置100の機能構成例について説明した。続いて、本開示の実施の形態に係る信号処理装置の動作例について説明する。
 [1.3.動作例]
 図3は、本開示の実施の形態に係る信号処理装置100の動作例を示す流れ図である。図3に示したのは、例えば、図1に示したマイク20から、テーブル10の天板に物体が接触したり、テーブル10の天板を物体が移動したりする際に発生する音の音声信号を取得し、その音声信号に対する信号処理を行う際の、信号処理装置100の動作例である。以下、図3を用いて本開示の実施の形態に係る信号処理装置100の動作例について説明する。
 信号処理装置100は、物体の動きに基づき発せられる信号を取得部110で取得すると(ステップS101)、その取得した信号の波形を制御部120で解析する(ステップS102)。そして信号処理装置100は、取得した信号の波形に応じた、動的な信号処理を制御部120で実行し(ステップS103)、信号処理の結果に基づく信号を出力部130から所定時間内に、好ましくは、ほぼリアルタイムで出力する(ステップS104)。
 本開示の実施の形態に係る信号処理装置100は、図3に示したような動作を実行することで、物体の動きに基づき生じる信号の波形に対する音声信号処理を実行して、その音声信号処理に基づき生成される信号に応じた音を所定時間内、好ましくは、ほぼリアルタイムで出力させることで、物体の動きそのものを聴覚的に誇張して提示することを可能とする。
 [1.4.変形例]
 続いて、本開示の実施の形態に係る信号処理装置の変形例を説明する。上述したように、制御部120は、テーブル10の天板に接触したり、テーブル10の天板上を移動したりする物体が何であるかが予め分かっていれば、その物体の特性に応じて信号処理の内容を決定することが出来る。そして制御部120は、そのテーブル10の天板に接触したり、テーブル10の天板上を移動したりする物体が何であるかを、例えば画像認識処理の結果を用いて知りうる。
 図4は、本開示の実施の形態の変形例を示す説明図である。図4に示したのは、テーブル10が設置されている部屋に、テーブル10の天板上を撮像するための撮像装置40を設けている例である。
 信号処理装置100は、撮像装置40が撮像する動画像を撮像装置40から取得する。信号処理装置100は、撮像装置40が撮像する動画像を制御部120で解析することで、テーブル10の天板上の物体の有無、及び物体が存在する場合にその物体がどのような形状であるかを認識することが出来る。そして、信号処理装置100は、認識した物体の形状からそのテーブル10の天板上の物体が何であるかを推定し、その推定した物体に応じた、取得部110で取得した信号に対する信号処理を実行する。
 信号処理装置100は、画像処理を行って推定したテーブル10の天板上の物体について、ユーザにフィードバックを求めても良い。画像処理を行って推定したテーブル10の天板上の物体について、ユーザにフィードバックを求めることで、信号処理装置100は、画像認識の結果からの物体の推定の精度を向上させることが可能となる。
 信号処理装置100は、撮像装置40が撮像する動画像を解析した結果、画像に含まれる色の内容に応じて、取得部110で取得した信号に対する信号処理を実行してもよい。つまり、信号処理装置100は、音を発生させたものが同じ物体であっても、その物体の色の違いに応じて、取得部110で取得した信号に対する信号処理を実行してもよい。
 例えば、信号処理装置100は、撮像装置40が撮像する動画像を解析した結果、画像に含まれる色に赤色が多く含まれていれば、取得部110で取得した信号に対して、低音部を強調するような信号処理を実行してもよい。また例えば、信号処理装置100は、撮像装置40が撮像する動画像を解析した結果、画像に含まれる色に青色が多く含まれていれば、取得部110で取得した信号に対して、高音部を強調するような信号処理を実行してもよい。
 制御部120は、そのテーブル10の天板に接触したり、テーブル10の天板上を移動したりする物体が何であるかを、例えばセンサによって得られる質量のデータから推定してもよい。
 図5は、本開示の実施の形態の変形例を示す説明図である。図5に示したのは、テーブル10の天板上に、テーブル10の天板に接触した物体の質量を量るためのセンサ50を設けている例である。
 センサ50は、物体1の表面への接触に応じて、その物体の質量を検知し、検知した質量のデータを信号処理装置100に送信する。信号処理装置100は、センサ50が送信した質量のデータを制御部120で解析することで、テーブル10の天板上の物体の有無、及び物体が存在する場合にその物体の質量であるかを知ることが出来る。そして、信号処理装置100は、物体の質量からそのテーブル10の天板上の物体が何であるかを推定し、その推定した物体に応じた、取得部110で取得した信号に対する信号処理を実行する。
 信号処理装置100は、物体の質量から推定したテーブル10の天板上の物体や、その物体の動きに基づいて発せられた音に対する信号処理の結果について、学習のためにユーザにフィードバックを求めても良い。画像処理を行って推定したテーブル10の天板上の物体や、その物体の動きに基づいて発せられた音に対する信号処理の結果について、ユーザにフィードバックを求めることで、信号処理装置100は、物体の質量からの物体の推定の精度や、信号処理の精度を向上させることが可能となる。
 もちろん信号処理装置100は、物体の質量からその物体が何であるかを推定する際に、図4を用いて説明した物体の画像認識の結果を用いた物体の推定を組み合わせても良い。
 信号処理装置100は、画像処理を行って推定したテーブル10の天板上の物体の大きさに応じて取得部110で取得した信号に対する信号処理を実行してもよい。つまり、信号処理装置100は、音を発生させたものが同じ物体であっても、その物体の大きさの違いに応じて、取得部110で取得した信号に対する信号処理を実行してもよい。例えば、信号処理装置100は、撮像装置40が撮像する動画像を解析した結果、認識した物体が大きければ大きいほど、取得部110で取得した信号に対して、低音部を強調するような信号処理を実行してもよい。また例えば、信号処理装置100は、撮像装置40が撮像する動画像を解析した結果、認識した物体が小さければ小さいほど、取得部110で取得した信号に対して、高音部を強調するような信号処理を実行してもよい。
 また、信号処理装置100は、物体の動作に基づき生じる信号の周波数特性に応じて音声信号処理の内容を変化させてもよい。例えば、物体の動作に基づき生じる信号に低周波の音が多く含まれていれば、信号処理装置100は、その低周波の音を増幅するような信号処理を行い、物体の動作に基づき生じる信号に高周波の音が多く含まれていれば、信号処理装置100は、その高周波の音を増幅するような信号処理を行ってもよい。逆に、物体の動作に基づき生じる信号に低周波の音が多く含まれていれば、信号処理装置100は、高周波の音を増幅するような信号処理を行い、物体の動作に基づき生じる信号に高周波の音が多く含まれていれば、信号処理装置100は、低周波の音を増幅するような信号処理を行ってもよい。
 テーブル10に設けられるマイク20やスピーカ30の位置は、図1に示したものに限定されるものでは無い。
 図6は、テーブル10に設けられるマイク20やスピーカ30の位置の変形例を示す説明図である。図6に示したように、マイク20は、テーブル10の天板の表面に埋め込まれていてもよい。またスピーカ30は、信号処理装置100と一体になっていても良い。
 マイクやスピーカの数は1つに限定されるものでは無い。図7は、テーブル10に設けられるマイクやスピーカの数の変形例を示す説明図である。図7には、5つのマイク20a~20eがテーブル10の天板の表面に埋め込まれ、2つのスピーカ30a、30bが信号処理装置100に設けられている例が示されている。
 このようにテーブル10の天板に複数のマイクを埋め込み、2つのスピーカ30a、30bから音を出力させることで、信号処理装置100は、物体がテーブル10の天板に接触した位置に近い方からより大きな音を出力する信号処理を実行することが出来る。
 ここまでの説明では、テーブル10の天板にマイクを設けて、物体がテーブル10の天板に接触したりテーブル10の天板上を移動したりする際の音をマイクで集音し、集音した音に対する信号処理を行う例を示した。続いて、物体の内部にマイクを設けて、その物体の移動に応じて生じる音をマイクで集音し、集音した音に対する信号処理を行う例を示す。
 図8は、本開示の実施の形態の変形例を説明する説明図である。図8に示したのは、ボール101の表面にマイク20及びスピーカ30が設けられ、ボール101の内部に、図2に示した信号処理装置100の構成要素である取得部110、制御部120、及び出力部130が設けられている例である。
 図8に示したように、ボール101の表面にマイク20及びスピーカ30が設けられ、ボール101の内部に、取得部110、制御部120、及び出力部130が設けられていることで、ボール101は、動きを誇張して提示するための音をスピーカ30から出力することが出来る。
 図9は、本開示の実施の形態の変形例を説明する説明図である。図9に示したのは、ボール101の表面にスピーカ30が設けられ、ボール101の内部に、センサ60、図2に示した信号処理装置100の構成要素である取得部110、制御部120、及び出力部130が設けられている例である。センサ60は、例えば加速度センサ、角速度センサ、地磁気センサなどからなる。図9に示した制御部120は、センサ60が出力する波形信号に対する信号処理を行って、ボール101の動きを誇張して提示するための音をスピーカ30から出力するための音声信号を生成する。
 図9に示したように、ボール101の表面にスピーカ30が設けられ、ボール101の内部に、センサ60、図2に示した信号処理装置100の構成要素である取得部110、制御部120、及び出力部130が設けられていることで、ボール101は、動きを誇張して提示するための音をスピーカ30から出力することが出来る。
 図8及び図9では、ボール101の動きを誇張して提示するための音をスピーカ30から出力するという変形例を示したが、もちろん、動きを誇張して提示するための音がスピーカ30から出力される物体はボールに限定されるものでは無い。また、図8及び図9では、ボール101の内部に信号処理装置100の構成要素である取得部110、制御部120、及び出力部130が設けられている例を示したが、本開示は係る例に限定されるものでは無い。ボール101は、図8に示したスピーカ30が集音した音を無線通信によって信号処理装置100に送信し、信号処理装置100は、スピーカ30が集音した音に対して信号処理を実行し、信号処理後の信号をボール101、またはボール101とは別の物体に送信してもよい。
 <2.まとめ>
 以上説明したように本開示の実施の形態によれば、物体の動作に基づき生じる信号の波形に対する音声信号処理を実行して、その音声信号処理に基づき生成される信号に応じた音を所定時間内、好ましくは、ほぼリアルタイムに出力させる信号処理装置100が提供される。
 上記実施の形態に係る信号処理装置100は、物体の動作に基づき生じる信号として、例えば物体同士の接触や衝突などにより生じた音の信号を用いて、その信号の波形に対する音声信号処理を実行する。
 上記実施の形態に係る信号処理装置100は、物体の動作に基づき生じる信号の波形に対する音声信号処理を実行して、その音声信号処理に基づき生成される信号に応じた音を所定時間内、好ましくは、ほぼリアルタイムで出力させることで、物体の動きそのものを聴覚的に誇張して提示することを可能とする。
 本明細書の各装置が実行する処理における各ステップは、必ずしもシーケンス図またはフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、各装置が実行する処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
 また、各装置に内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した各装置の構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供されることが可能である。また、機能ブロック図で示したそれぞれの機能ブロックをハードウェアまたはハードウェア回路で構成することで、一連の処理をハードウェアまたはハードウェア回路で実現することもできる。
 また上述の説明で用いた機能ブロック図で示したそれぞれの機能ブロックの一部又は全部は、たとえばインターネット等のネットワークを介して接続されるサーバ装置で実現されてもよい。また上述の説明で用いた機能ブロック図で示したそれぞれの機能ブロックの構成は、単独の装置で実現されてもよく、複数の装置が連携するシステムで実現されても良い。複数の装置が連携するシステムには、例えば複数のサーバ装置の組み合わせ、サーバ装置と端末装置との組み合わせ等が含まれ得る。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 物体の動作に基づき生じる信号の波形に対する音声信号処理を実行して、前記音声信号処理に基づき生成される信号に応じた音を所定時間内に出力させる制御部を備える、信号処理装置。
(2)
 前記制御部は、前記物体の特性に応じて前記音声信号処理の内容を変化させる、前記(1)に記載の信号処理装置。
(3)
 前記制御部は、前記物体の認識結果を用いて前記物体の特性を推定する、前記(2)に記載の信号処理装置。
(4)
 前記制御部は、前記物体の認識結果を学習し、該学習に応じて前記音声信号処理の内容を変化させる、前記(3)に記載の信号処理装置。
(5)
 前記制御部は、前記物体の画像認識結果を用いて前記物体の特性を推定する、前記(3)に記載の信号処理装置。
(6)
 前記制御部は、前記物体の特性として前記物体の質量に応じて前記音声信号処理の内容を変化させる、前記(5)に記載の信号処理装置。
(7)
 前記制御部は、前記物体の特性として前記物体の大きさに応じて前記音声信号処理の内容を変化させる、前記(5)に記載の信号処理装置。
(8)
 前記制御部は、前記物体の特性として該物体の動作に基づき生じる信号の周波数特性に応じて前記音声信号処理の内容を変化させる、前記(5)に記載の信号処理装置。
(9)
 前記制御部は、前記物体の特性として前記物体の色に応じて前記音声信号処理の内容を変化させる、前記(5)に記載の信号処理装置。
(10)
 前記制御部は、前記物体の動作に基づき生じる信号を学習し、該学習に応じて前記音声信号処理の内容を変化させる、前記(1)~(9)のいずれかに記載の信号処理装置。
(11)
 前記制御部は、前記物体と他の物体との接触により生じる信号の波形に対して前記音声信号処理を実行する、前記(1)~(10)のいずれかに記載の信号処理装置。
(12)
 前記制御部は、前記物体が他の物体の表面を移動することにより生じる信号の波形に対して前記音声信号処理を実行する、前記(1)~(11)のいずれかに記載の信号処理装置。
(13)
 前記制御部は、前記物体の動作に基づき生じる信号を、マイクにより集音される音声信号として取得する、前記(1)~(12)のいずれかに記載の信号処理装置。
(14)
 前記制御部は、前記物体の動作に基づき生じる信号を、センサにより取得される波形信号として取得する、前記(1)~(12)のいずれかに記載の信号処理装置。
(15)
 物体の動作に基づき生じる信号の波形に対する音声信号処理を実行して、前記音声信号処理に基づき生成される信号に応じた音を所定時間内に出力させることを含む、信号処理方法。
(16)
 コンピュータに、物体の動作に基づき生じる信号の波形に対する音声信号処理を実行して、前記音声信号処理に基づき生成される信号に応じた音を所定時間内に出力させることを実行させる、コンピュータプログラム。
 10  テーブル
 20  マイク
 30  スピーカ
 40  撮像装置
 100  信号処理装置
 101  ボール

Claims (16)

  1.  物体の動作に基づき生じる信号の波形に対する音声信号処理を実行して、前記音声信号処理に基づき生成される信号に応じた音を所定時間内に出力させる制御部を備える、信号処理装置。
  2.  前記制御部は、前記物体の特性に応じて前記音声信号処理の内容を変化させる、請求項1に記載の信号処理装置。
  3.  前記制御部は、前記物体の認識結果を用いて前記物体の特性を推定する、請求項2に記載の信号処理装置。
  4.  前記制御部は、前記物体の認識結果を学習し、該学習に応じて前記音声信号処理の内容を変化させる、請求項3に記載の信号処理装置。
  5.  前記制御部は、前記物体の画像認識結果を用いて前記物体の特性を推定する、請求項3に記載の信号処理装置。
  6.  前記制御部は、前記物体の特性として前記物体の質量に応じて前記音声信号処理の内容を変化させる、請求項5に記載の信号処理装置。
  7.  前記制御部は、前記物体の特性として前記物体の大きさに応じて前記音声信号処理の内容を変化させる、請求項5に記載の信号処理装置。
  8.  前記制御部は、前記物体の特性として該物体の動作に基づき生じる信号の周波数特性に応じて前記音声信号処理の内容を変化させる、請求項5に記載の信号処理装置。
  9.  前記制御部は、前記物体の特性として前記物体の色に応じて前記音声信号処理の内容を変化させる、請求項5に記載の信号処理装置。
  10.  前記制御部は、前記物体の動作に基づき生じる信号を学習し、該学習に応じて前記音声信号処理の内容を変化させる、請求項1に記載の信号処理装置。
  11.  前記制御部は、前記物体と他の物体との接触により生じる信号の波形に対して前記音声信号処理を実行する、請求項1に記載の信号処理装置。
  12.  前記制御部は、前記物体が他の物体の表面を移動することにより生じる信号の波形に対して前記音声信号処理を実行する、請求項1に記載の信号処理装置。
  13.  前記制御部は、前記物体の動作に基づき生じる信号を、マイクにより集音される音声信号として取得する、請求項1に記載の信号処理装置。
  14.  前記制御部は、前記物体の動作に基づき生じる信号を、センサにより取得される波形信号として取得する、請求項1に記載の信号処理装置。
  15.  物体の動作に基づき生じる信号の波形に対する音声信号処理を実行して、前記音声信号処理に基づき生成される信号に応じた音を所定時間内に出力させることを含む、信号処理方法。
  16.  コンピュータに、物体の動作に基づき生じる信号の波形に対する音声信号処理を実行して、前記音声信号処理に基づき生成される信号に応じた音を所定時間内に出力させることを実行させる、コンピュータプログラム。
PCT/JP2016/082461 2015-11-26 2016-11-01 信号処理装置、信号処理方法及びコンピュータプログラム WO2017090387A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/774,062 US10607585B2 (en) 2015-11-26 2016-11-01 Signal processing apparatus and signal processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-230515 2015-11-26
JP2015230515A JP2017097214A (ja) 2015-11-26 2015-11-26 信号処理装置、信号処理方法及びコンピュータプログラム。

Publications (1)

Publication Number Publication Date
WO2017090387A1 true WO2017090387A1 (ja) 2017-06-01

Family

ID=58763187

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/082461 WO2017090387A1 (ja) 2015-11-26 2016-11-01 信号処理装置、信号処理方法及びコンピュータプログラム

Country Status (3)

Country Link
US (1) US10607585B2 (ja)
JP (1) JP2017097214A (ja)
WO (1) WO2017090387A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017131789A (ja) * 2017-05-16 2017-08-03 株式会社大都技研 遊技台

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6491190A (en) * 1987-10-02 1989-04-10 Yamaha Corp Acoustic processor
JPH06296724A (ja) * 1993-04-19 1994-10-25 Tele Syst:Kk ボウリングのピン衝突音音響効果装置
JPH0819660A (ja) * 1992-10-02 1996-01-23 Sega Enterp Ltd エアーホッケーゲーム装置
JP2000084140A (ja) * 1998-09-14 2000-03-28 Takumi Sugo ビリヤード台
JP2007212635A (ja) * 2006-02-08 2007-08-23 Copcom Co Ltd 効果音発生装置、この効果音発生装置を備えたビデオゲーム装置、この効果音発生装置を実現するためのプログラム及び記録媒体
WO2010016349A1 (ja) * 2008-08-08 2010-02-11 国立大学法人 電気通信大学 ボール及びエンターテイメントシステム
JP2015126814A (ja) * 2013-12-27 2015-07-09 ヤマハ株式会社 球体の衝突に応じた放音を行うための装置

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5159140A (en) 1987-09-11 1992-10-27 Yamaha Corporation Acoustic control apparatus for controlling musical tones based upon visual images
EP0410045A1 (en) * 1989-07-27 1991-01-30 Koninklijke Philips Electronics N.V. Image audio transformation system, particularly as a visual aid for the blind
US5214615A (en) * 1990-02-26 1993-05-25 Will Bauer Three-dimensional displacement of a body with computer interface
WO1992009921A1 (en) * 1990-11-30 1992-06-11 Vpl Research, Inc. Improved method and apparatus for creating sounds in a virtual world
US5371854A (en) * 1992-09-18 1994-12-06 Clarity Sonification system using auditory beacons as references for comparison and orientation in data
US5730140A (en) * 1995-04-28 1998-03-24 Fitch; William Tecumseh S. Sonification system using synthesized realistic body sounds modified by other medically-important variables for physiological monitoring
US6009394A (en) * 1996-09-05 1999-12-28 The Board Of Trustees Of The University Of Illinois System and method for interfacing a 2D or 3D movement space to a high dimensional sound synthesis control space
US6154723A (en) * 1996-12-06 2000-11-28 The Board Of Trustees Of The University Of Illinois Virtual reality 3D interface system for data creation, viewing and editing
US6388183B1 (en) * 2001-05-07 2002-05-14 Leh Labs, L.L.C. Virtual musical instruments with user selectable and controllable mapping of position input to sound output
US7138575B2 (en) * 2002-07-29 2006-11-21 Accentus Llc System and method for musical sonification of data
US7135635B2 (en) * 2003-05-28 2006-11-14 Accentus, Llc System and method for musical sonification of data parameters in a data stream
US7355561B1 (en) * 2003-09-15 2008-04-08 United States Of America As Represented By The Secretary Of The Army Systems and methods for providing images
US7304228B2 (en) * 2003-11-10 2007-12-04 Iowa State University Research Foundation, Inc. Creating realtime data-driven music using context sensitive grammars and fractal algorithms
EP2496196B1 (en) * 2009-11-03 2021-05-26 Yissum Research Development Company of the Hebrew University of Jerusalem Ltd. Representing visual images by alternative senses
US8247677B2 (en) * 2010-06-17 2012-08-21 Ludwig Lester F Multi-channel data sonification system with partitioned timbre spaces and modulation techniques
US9578419B1 (en) * 2010-09-01 2017-02-21 Jonathan S. Abel Method and apparatus for estimating spatial content of soundfield at desired location
US9323379B2 (en) * 2011-12-09 2016-04-26 Microchip Technology Germany Gmbh Electronic device with a user interface that has more than two degrees of freedom, the user interface comprising a touch-sensitive surface and contact-free detection means
US10459972B2 (en) * 2012-09-07 2019-10-29 Biobeats Group Ltd Biometric-music interaction methods and systems
US9245510B2 (en) * 2014-03-12 2016-01-26 Avedis Zildjian Co. Electronic cymbal trigger
US9875732B2 (en) * 2015-01-05 2018-01-23 Stephen Suitor Handheld electronic musical percussion instrument
CN107408376B (zh) * 2015-01-08 2019-03-05 沐择歌有限责任公司 交互式乐器和其它打击物体
KR102395515B1 (ko) * 2015-08-12 2022-05-10 삼성전자주식회사 가상 악기의 연주 방법 및 이를 지원 하는 장치
WO2017031421A1 (en) * 2015-08-20 2017-02-23 Elkins Roy Systems and methods for visual image audio composition based on user input
US9916011B1 (en) * 2015-08-22 2018-03-13 Bertec Corporation Force measurement system that includes a force measurement assembly, a visual display device, and one or more data processing devices
JP6597346B2 (ja) * 2016-02-01 2019-10-30 ヤマハ株式会社 ドラムヘッド
US10347004B2 (en) * 2016-04-01 2019-07-09 Baja Education, Inc. Musical sonification of three dimensional data
WO2019010435A1 (en) * 2017-07-06 2019-01-10 Icuemotion Llc SYSTEMS AND METHODS FOR TRAINING SKILL TRAINING WITH DATA
JP6677265B2 (ja) * 2018-03-07 2020-04-08 ヤマハ株式会社 音響処理装置、及び音響処理方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6491190A (en) * 1987-10-02 1989-04-10 Yamaha Corp Acoustic processor
JPH0819660A (ja) * 1992-10-02 1996-01-23 Sega Enterp Ltd エアーホッケーゲーム装置
JPH06296724A (ja) * 1993-04-19 1994-10-25 Tele Syst:Kk ボウリングのピン衝突音音響効果装置
JP2000084140A (ja) * 1998-09-14 2000-03-28 Takumi Sugo ビリヤード台
JP2007212635A (ja) * 2006-02-08 2007-08-23 Copcom Co Ltd 効果音発生装置、この効果音発生装置を備えたビデオゲーム装置、この効果音発生装置を実現するためのプログラム及び記録媒体
WO2010016349A1 (ja) * 2008-08-08 2010-02-11 国立大学法人 電気通信大学 ボール及びエンターテイメントシステム
JP2015126814A (ja) * 2013-12-27 2015-07-09 ヤマハ株式会社 球体の衝突に応じた放音を行うための装置

Also Published As

Publication number Publication date
US20180357988A1 (en) 2018-12-13
US10607585B2 (en) 2020-03-31
JP2017097214A (ja) 2017-06-01

Similar Documents

Publication Publication Date Title
US20240231751A9 (en) Facilitating Calibration of an Audio Playback Device
JP5334037B2 (ja) 音源の位置検出方法及びシステム
JP5290949B2 (ja) 音響処理装置及び方法
CN109256146B (zh) 音频检测方法、装置及存储介质
JP7218391B2 (ja) 車載環境のノイズ低減方法、装置、電子デバイス、記憶媒体、及びプログラム
US10264354B1 (en) Spatial cues from broadside detection
JP2017532614A (ja) オーディオをキャプチャーし、解釈するシステムと方法
JP2006310930A5 (ja)
JP2014520284A5 (ja)
JP2012027186A (ja) 音声信号処理装置、音声信号処理方法及びプログラム
JP6276132B2 (ja) 発話区間検出装置、音声処理システム、発話区間検出方法およびプログラム
JP7095767B2 (ja) 信号処理装置、信号処理方法及びコンピュータプログラム
JP2016504087A5 (ja)
JP2021536596A (ja) 正規化を介して音響信号をフィンガープリンティングするための方法及び装置
WO2017090387A1 (ja) 信号処理装置、信号処理方法及びコンピュータプログラム
CN108736982B (zh) 声波通信处理方法、装置、电子设备及存储介质
WO2019185015A1 (zh) 一种压电传感器信号噪声去除方法
JP2009115735A (ja) 距離測定装置、距離測定方法、距離測定プログラム、および記録媒体
WO2016078485A1 (en) Method and apparatus for obtaining vibration information and user equipment
JP2020086027A (ja) 音声再生システムおよびプログラム
CN114143665A (zh) 一种服务器风扇的降噪处理系统及方法
US11564036B1 (en) Presence detection using ultrasonic signals with concurrent audio playback
JP2019528526A5 (ja)
Garg et al. Doppler effect: Ui input method using gestures for the visually impaired
JP6361360B2 (ja) 残響判定装置及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16868336

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16868336

Country of ref document: EP

Kind code of ref document: A1