WO2019171963A1 - 信号処理システム、信号処理装置および方法、並びにプログラム - Google Patents

信号処理システム、信号処理装置および方法、並びにプログラム Download PDF

Info

Publication number
WO2019171963A1
WO2019171963A1 PCT/JP2019/006433 JP2019006433W WO2019171963A1 WO 2019171963 A1 WO2019171963 A1 WO 2019171963A1 JP 2019006433 W JP2019006433 W JP 2019006433W WO 2019171963 A1 WO2019171963 A1 WO 2019171963A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal processing
microphone
sound
output
interference sound
Prior art date
Application number
PCT/JP2019/006433
Other languages
English (en)
French (fr)
Inventor
裕一郎 小山
和也 立石
典子 戸塚
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2020504912A priority Critical patent/JPWO2019171963A1/ja
Publication of WO2019171963A1 publication Critical patent/WO2019171963A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/1752Masking
    • G10K11/1754Speech masking
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/04Sound-producing devices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein

Definitions

  • the present technology relates to a signal processing system, a signal processing apparatus and method, and a program, and more particularly, to a signal processing system, a signal processing apparatus and method, and a program that can use functions other than a voice UI function with peace of mind. .
  • Patent Document 1 a technique for outputting a masking voice has been proposed in order to prevent surrounding people from hearing a voice when using a mobile phone.
  • a keyword for starting voice recognition is provided.
  • the microphone keeps observing the audio signal. Even if audio signals are not recorded and collected, there are a certain number of users who are uncomfortable with the state that the microphone is constantly observing.
  • home appliances such as microwave ovens and refrigerators may be equipped with a voice UI function as standard, and there may be a demand for a method of disabling only the microphone while the device is turned on.
  • the present technology has been made in view of such a situation, and enables functions other than the voice UI function to be used with peace of mind.
  • a signal processing system is provided with an information processing device including a microphone provided in a housing, a microphone hole formed in a surface of the housing, and the microphone hole,
  • the signal processing apparatus includes a noise output unit that outputs noise in response to an input of the microphone.
  • the microphone is provided in the housing of the information processing apparatus, and the microphone hole is formed on the surface of the housing. It is mounted in the vicinity of the microphone hole, and noise corresponding to the input of the microphone is output.
  • a signal processing device is mounted in the vicinity of a microphone hole formed in the surface of the housing of an information processing device including a microphone provided in the housing, and generates noise with respect to the input of the microphone.
  • a noise output unit is provided.
  • an information processing apparatus including a microphone provided in a casing is attached in the vicinity of a microphone hole formed in the surface of the casing, and noise for the input of the microphone is output. .
  • FIG. 1 It is a figure showing an example of composition of a signal processing system to which this art is applied. It is sectional drawing which shows the structural example of the output device with which the vicinity of the microphone hole was mounted
  • FIG. 1 is a diagram illustrating a configuration example of a signal processing system to which the present technology is applied.
  • the signal processing system 1 in FIG. 1 includes a signal processing device 11 and a voice agent device 12.
  • an interference sound that interferes with the use of the voice UI function of the voice agent device 12 is output by the signal processing device 11 in the vicinity of the microphone hole formed on the surface of the casing of the voice agent device 12. It is a thing.
  • the signal processing device 11 outputs a disturbance sound in response to the voice input of the voice agent device 12.
  • the signal processing device 11 includes a control device 21 and output devices 22-1 to 22-4.
  • the output devices 22-1 to 22-4 are connected to the control device 21 via cables 23-1 to 23-4.
  • the control device 21 is composed of a dedicated device.
  • the control apparatus 21 may be comprised with a smart phone.
  • the control device 21 generates control signals for controlling the output devices 22-1 to 22-4, and outputs the generated control signals.
  • the number of output devices 22 corresponding to the number of microphones of the voice agent device 12 (four in the case of FIG. 1) is provided.
  • the output devices 22-1 to 22-4 will be referred to as output devices 22 when it is not necessary to distinguish them.
  • the output device 22 is mounted in the vicinity of the microphone hole 32-1 to the microphone hole 32-4 provided on the surface of the casing 31 of the voice agent device 12.
  • the output device 22 outputs a disturbing sound based on the control signal supplied from the control device 21.
  • the voice agent device 12 recognizes a user voice from surrounding voices that are constantly input as a voice UI (User Interface) function, and utters a generated word or performs an action according to the recognized user voice. .
  • the voice agent device 12 has functions such as a music playback function and an alarm function in addition to the voice UI function.
  • the voice UI function is a function for detecting voice from a signal input from a microphone and executing processing based on the voice. For example, this is a function for reproducing sound when the user makes an utterance instructing sound reproduction.
  • the music playback function is a function for playing back pre-recorded music or radio programs and outputting the played music.
  • the alarm function is a function that sounds an alarm sound at a preset time.
  • microphone holes 32-1 to 32-4 of the same number as the number of microphones are formed at positions corresponding to the positions where the microphones are provided.
  • microphone holes 32-1 to 32-4 are formed on the upper surface of a cylindrical casing 31 at equal intervals.
  • the microphone hole 32-1 to the microphone hole 32-4 By forming the microphone hole 32-1 to the microphone hole 32-4, even if the microphone provided in the casing 31 is provided in the casing 31, the sound from the outside of the casing 31 is reliably input. can do.
  • the microphone hole 32-1 to the microphone hole 32-4 will be referred to as the microphone hole 32 when it is not necessary to distinguish them.
  • the output device 22 outputs a disturbing sound for the voice input of the voice agent device 12.
  • a user who feels uncomfortable with the voice UI function can use functions other than the voice UI function in the voice agent device 12 with peace of mind.
  • FIG. 2 is a cross-sectional view showing a configuration example of the output device mounted near the microphone hole.
  • the microphone hole 32 formed on the surface of the casing 31 of the voice agent device 12 and the cross section of the cylindrical output device 22 are shown in an enlarged manner.
  • a microphone 51 is provided behind the microphone hole 32.
  • the other output devices 22 are configured similarly.
  • the output device 22 includes an output unit 41 and an adhesive unit 42.
  • the output unit 41 is connected to the control device 21 via the cable 23.
  • the output unit 41 is disposed near the microphone hole 32 of the housing 31 (for example, near the upper part of the microphone hole 32), and outputs an interference sound that interferes with the sound input of the microphone 51.
  • the adhesive part 42 is provided so as to surround the output part 41.
  • the adhesion part 42 is comprised with a suction cup and an adhesive.
  • the bonding portion 42 is in close contact with the surface of the housing 31 in order to fix the output portion 41 on the microphone hole 32.
  • the bottom side of the bonding portion 42 is formed so as to be in close contact with the surface of the casing 31 except for the microphone hole 32 so that the output portion 41 and the microphone hole 32 are not blocked.
  • FIG. 3 is a block diagram illustrating a configuration example of the control device and the output device in the case of FIG.
  • FIG. 3 shows a configuration example of the control device 21, and the left side of FIG. 3 shows a configuration example of the output unit 41 of the output device 22.
  • the control device 21 includes a control unit 61 and an audio DAC (Digital Analog Converter) 62-1 to audio DAC 62-n.
  • an audio DAC Digital Analog Converter
  • the control unit 61 generates audio data of independent disturbing sounds for the number of connections. In particular, by generating as many independent interference sounds as the number of connections, it is possible to suppress the removal of the interference sounds due to signal processing techniques such as beam forming installed in the voice agent device.
  • the control unit 61 outputs the generated audio data to the audio DAC 62-1 to audio DAC 62-n.
  • the audio DACs 62-1 to 62-n DA convert the audio data supplied from the control unit 61 to generate analog audio signals.
  • the generated audio signal is output to the corresponding output device 22.
  • the output unit 41 of the output device 22 is configured to include a vibration (sound) generation unit 71.
  • the output device 22 can connect as many as the user needs within the upper limit number of connection ports provided in the control device 21.
  • the vibration generating unit 71 includes a vibration speaker or the like.
  • the vibration generation unit 71 outputs a disturbance sound corresponding to the audio signal supplied from the audio DAC 62-1 to audio DAC 62-n by generating vibration.
  • White noise is used as the disturbing sound. Since white noise is noise having power in all bands, it is possible to disturb any voice.
  • White noise is generated using a pseudo-random number sequence that follows a normal distribution.
  • a pseudo-random number sequence according to the normal distribution is obtained by, for example, the Box Mueller method.
  • the Box-Muller transform two mutually independent random variables X 1 according to the uniform distribution on (0, 1), using a random variable X 2, as shown in the following equation (1), average 0, A random variable Y 1 and a random variable Y 2 that follow a standard normal distribution with variance 1 are generated.
  • An independent pseudo-random number sequence following a uniform distribution can be obtained by a method called linear congruential method or Mersenne twister.
  • FIG. 4 is a flowchart for explaining the disturbing sound output process of the signal processing apparatus 11 having the configuration shown in FIG.
  • the control unit 61 starts in response to an operation signal for turning on the switch by the user, thereby starting the interference sound output process of FIG.
  • step S11 the control unit 61 detects the number of connections of the output device 22.
  • step S12 the control unit 61 generates as many disturbing sounds as the number of connected output devices 22, and generates audio data of the generated disturbing sounds.
  • the generated audio data is output to the audio DAC 62-1 to audio DAC 62-n.
  • step S13 the audio DAC 62-1 to audio DAC 62-n perform DA conversion on the audio data supplied from the control unit 61 to generate an analog audio signal.
  • the generated audio signal is output to the output unit 41 of the corresponding output device 22.
  • step S14 the vibration generating unit 71 of the output unit 41 outputs a disturbance sound corresponding to the audio signal supplied from the audio DAC 62 by generating a vibration.
  • an interference sound is output near the microphone hole 32 in the casing 31 of the voice agent device 12. Thereby, the voice input of the microphone 51 can be disturbed.
  • the disturbing sound output by the present technology is output near the microphone hole 32 (that is, the microphone 51) of the voice agent device 12, it is observed by the microphone 51 at a very large level.
  • the disturbing sound is dominant in the mixed sound, that is, the voice agent device 12 performs the user sound from the mixed sound. It is extremely difficult to hear the contents.
  • FIG. 5 is a diagram for explaining that it is necessary to provide at least the same number of output devices as the number of microphones.
  • FIG. 5 shows signal processing in the case where the voice agent device 12 includes four microphones 51, whereas the signal processing device 11 includes only two output devices 22-1 and 22-2.
  • a configuration example of the system 111 is shown.
  • the voice agent device 12 uses a technique called beam forming.
  • the voice agent apparatus 12 can sufficiently suppress sound sources from the direction of the number of microphones minus one ideal.
  • the signal processing system 111 having a configuration in which the number of output devices 22 is smaller than the number of microphones 51, the user's daily sound is emphasized by suppressing noise using adaptive beamforming. It becomes possible to record.
  • the output devices 22 having more than the number of microphones mounted on the voice agent device 12 are mounted. At that time, the output device 22 is as close as possible to the microphone hole 32 provided in the voice agent device 12.
  • noise can be observed at a sufficiently large level in the microphone 51, and noise can be observed (so as not to be heard) by a user at a sufficiently small level.
  • the microphone mute function is different from the playback volume mute function and there is no way for the user to confirm whether it is actually muted. Therefore, the user's concern can only be resolved by trusting the product specifications.
  • the noise component reproduced by the signal processing device 11 may be sufficiently removed by a technique called an acoustic echo canceller.
  • the recording side system must know the playback sound signal.
  • the recording side ADC (Analog Digital Converter) clock and playback side DAC clock must be synchronized.
  • the signal processing device 11 and the voice agent device 12 exist as the same system, the possibility that the above two conditions are satisfied is not lost even if the acoustic echo canceller is not used as the product specification. Therefore, there are users who have concerns.
  • the signal processing device 11 and the voice agent device 12 exist as the same signal processing system has been described after the 0080 paragraph, it is preferable that the signal processing device 11 and the voice agent device 12 are realized as separate systems.
  • FIG. 6 is a cross-sectional view illustrating a configuration example of an output device that is mounted near the microphone hole and outputs (generates) wind.
  • FIG. 6 parts corresponding to those in FIG. 2 are denoted by the same reference numerals. The overlapping description is omitted as appropriate.
  • the configuration of the bonding portion 42 shown in FIG. 6 is different from the configuration shown in FIG. 2 in that an exhaust port 121 for exhausting the wind out of the bonding portion 42 is formed.
  • the output device 22 of FIG. 6 is configured such that the wind output from the output unit 41 is turbulently flown in the bonding unit 42 or the microphone hole 32 and is discharged from the exhaust port 121. It has become. Thereby, the sound generated by the wind becomes a disturbing sound for the sound input of the microphone 51, and the sound input of the microphone 51 can be disturbed.
  • FIG. 7 is a block diagram illustrating a configuration example of the control device and the output device in the case of FIG.
  • FIG. 7 shows a configuration example of the control device 21, and the left side of FIG. 7 shows a configuration example of the output unit 41 of the output device 22.
  • the control device 21 is configured to include a control unit 131.
  • the control unit 131 is activated in response to an operation signal for the user to turn on the switch.
  • the control unit 131 detects the number of connections of the output device 22 connected to the cable 23 and generates a control signal for causing the output device 22 to output independent winds corresponding to the number of connections.
  • the generated control signal is output to the corresponding output device 22.
  • the output unit 41 of the output device 22 is configured to include a wind generating unit 141.
  • the wind generator 141 is made of a propeller or the like.
  • the wind generator 141 outputs wind according to the control signal supplied from the controller 131.
  • FIG. 8 is a flowchart for explaining the disturbing sound output process of the signal processing apparatus 11 having the configuration shown in FIG.
  • the control unit 131 starts the disturbance sound output process of FIG. 8 by being activated in response to an operation signal for turning on the switch by the user.
  • step S111 the control unit 131 detects the number of connections of the output device 22.
  • step S112 the control unit 131 generates a control signal for outputting independent winds for the number of connected output devices 22.
  • the generated control signal is output to the output unit 41 of the output device 22.
  • step S113 the wind generating unit 141 of the output unit 41 outputs the wind according to the control signal supplied from the control unit 131.
  • FIG. 9 is a diagram illustrating another configuration example of the signal processing apparatus of FIG.
  • the signal processing device 11 in FIG. 9 is common to the signal processing device 11 in FIG. 6 in that the control device 21 and the output device 22 are provided.
  • the signal processing device 11 of FIG. 9 differs from the signal processing device 11 of FIG. 6 in that the cable 23 is replaced with a hose 151 for sending wind.
  • the control device 21 in FIG. 9 generates wind and outputs the wind to the output device 22 via the hose 151.
  • the output device 22 is different from the output device 22 of FIG. 6 in that the output unit 41 is removed.
  • the output device 22 includes an adhesive part 42.
  • the bonding portion 42 includes an exhaust port 121 and bonds the hose 151 to the housing 31.
  • the hose 151 is connected to the bonding portion 42, and wind is output from the tip of the hose 151 as a disturbing sound that interferes with the input of the microphone 51.
  • the wind condition is calculated so that the wind output from the hose 151 flows turbulently in the bonding portion 42 and the microphone hole 32. Thereby, the wind becomes a disturbing sound, and the sound input of the microphone 51 can be disturbed.
  • FIG. 10 is a block diagram illustrating a functional configuration example of the control device configured as illustrated in FIG. 9.
  • the configuration of the control device 21 shown in FIG. 10 is different from the configuration shown in FIG. 7 in that wind generators 141-1 to 141-n are added.
  • the wind generation unit 141 provided in the output device 22 in FIG. 7 is provided in the control device 21 as the wind generation unit 141-1 to the wind generation unit 141-n in FIG.
  • the control unit 131 is activated in response to an operation signal for the user to turn on the switch.
  • the control unit 131 detects the number of connections of the output device 22 connected to the hose 151 and generates a control signal for generating independent winds for the number of connections.
  • the generated control signals are respectively output to the corresponding wind generators 141-1 to 141-n.
  • the wind generators 141-1 to 141-n are made of a propeller or the like.
  • the wind generators 141-1 to 141-n generate wind according to the control signal supplied from the controller 131 and output the wind to the hoses 151-1 to 151-n.
  • wind is output from the tip of the hose 151 as a disturbing sound that interferes with the input of the microphone 51.
  • the signal processing device 11 of FIG. 10 is different from the signal processing device 11 of FIG. 7 in that the wind generation unit 141 is provided in the control device 21 instead of the output device 22. Therefore, the interference sound output processing of the signal processing device 11 of FIG. 10 is basically the same processing as the interference sound output processing of FIG. 8 performed by the signal processing device 11 of FIG.
  • FIG. 11 is a cross-sectional view illustrating a configuration example of an output device that is mounted near a microphone hole and outputs a frictional sound.
  • the driving unit 171 is constituted by a motor.
  • the driving unit 171 is driven based on the control device 21 to rotate the frictional sound generating unit 172.
  • the friction sound generator 172 is disposed so as to rub against the surface of the casing 31. As the frictional sound generator 172 rotates, a frictional sound is output between the surface of the housing 31.
  • FIG. 12 is a block diagram illustrating a configuration example of the control device in the case of FIG. 11.
  • the control device 21 is configured to include a control unit 181.
  • the control unit 181 is activated in response to an operation signal for the user to turn on the switch.
  • the control unit 181 detects the number of output devices 22 connected to the cable 23 and generates independent control signals for the number of connections.
  • the control signal is a signal for controlling driving of the driving unit 171 in order to generate a frictional sound.
  • the generated control signal is output to the corresponding output device 22.
  • the frictional sound generator 172 rotates based on the control signal supplied from the controller 181. As the rotated frictional sound generator 172 rubs against the surface of the housing 31, a frictional sound is output as an interference sound.
  • FIG. 13 is a flowchart for explaining the disturbing sound output process of the signal processing apparatus 11 having the configuration shown in FIG.
  • the control unit 181 starts the interference sound output process of FIG. 13 by being activated in response to an operation signal for turning on the switch by the user.
  • step S151 the control unit 181 detects the number of connections of the output device 22.
  • step S152 the control unit 181 generates a control signal for generating independent friction sounds corresponding to the number of connected output devices 22.
  • the generated control signal is output to the drive unit 171 of the output device 22.
  • step S153 the drive unit 171 of the output device 22 rotates or vibrates the frictional sound generating unit 172 in accordance with the control signal supplied from the control unit 181. As a result, a frictional sound is output from the frictional sound generator 172 and the surface of the housing 31.
  • the voice input of the microphone 51 can be obstructed.
  • control device 21 detects the number of connections of the output device 22 and generates independent control signals for the number of connections. Control signals may be generated in advance and used as much as necessary.
  • the voice input of the microphone 51 can be blocked.
  • the user can use functions other than the voice UI function of the voice agent device with peace of mind.
  • the bonding portion can be handled by being configured to cover the plurality of microphone holes.
  • ⁇ Computer hardware configuration example> The series of processes described above can be executed by hardware or can be executed by software.
  • a program constituting the software is installed in the computer.
  • the computer includes, for example, a general-purpose personal computer that can execute various functions by installing a computer incorporated in dedicated hardware and various programs.
  • FIG. 14 is a block diagram showing an example of the hardware configuration of a computer that executes the above-described series of processing by a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 305 is also connected to the bus 304.
  • An input unit 306, an output unit 307, a storage unit 308, a communication unit 309, and a drive 310 are connected to the input / output interface 305.
  • the input unit 306 includes, for example, a keyboard, a mouse, a microphone, a touch panel, an input terminal, and the like.
  • the output unit 307 includes, for example, a display, a speaker, an output terminal, and the like.
  • the storage unit 308 includes, for example, a hard disk, a RAM disk, a nonvolatile memory, and the like.
  • the communication unit 309 includes a network interface, for example.
  • the drive 310 drives a removable medium 311 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 301 loads the program stored in the storage unit 308 to the RAM 303 via the input / output interface 305 and the bus 304 and executes the program, for example. Is performed.
  • the RAM 303 also appropriately stores data necessary for the CPU 301 to execute various processes.
  • the program executed by the computer (CPU 301) can be recorded and applied to, for example, a removable medium 311 as a package medium or the like.
  • the program can be installed in the storage unit 308 via the input / output interface 305 by attaching the removable medium 311 to the drive 310.
  • This program can also be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting. In that case, the program can be received by the communication unit 309 and installed in the storage unit 308.
  • this program can be installed in the ROM 302 or the storage unit 308 in advance.
  • the program executed by the communication device may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program in which processing is performed.
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and a single device housing a plurality of modules in one housing are all systems. .
  • Embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology.
  • the present technology can take a configuration of cloud computing in which one function is shared by a plurality of devices via a network and is jointly processed.
  • each step described in the above flowchart can be executed by one device or can be shared by a plurality of devices.
  • the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
  • this technique can also take the following structures.
  • a microphone provided in the housing;
  • An information processing apparatus comprising a microphone hole formed on a surface of the housing;
  • a signal processing system comprising: a signal processing device that is mounted in the vicinity of the microphone hole and includes an interference sound output unit that outputs an interference sound with respect to the input of the microphone.
  • a signal processing device including an interference sound output unit that is mounted in the vicinity of a microphone hole formed on the surface of the housing of an information processing device including a microphone provided in the housing and outputs a disturbing sound with respect to the input of the microphone.
  • a control unit for controlling the output of the interference sound The signal processing apparatus according to (2), wherein the interference sound output unit and the control unit are provided in different housings.
  • the interference sound output unit includes a propeller.
  • the interference sound output unit outputs the friction sound by friction with a surface of the casing by rotating by driving of a motor.
  • the signal processor The signal processing method which outputs the interference sound with respect to the input of the said microphone from the output part with which the vicinity of the microphone hole formed in the surface of the said housing
  • casing is mounted
  • a computer that functions as a noise output unit that is mounted in the vicinity of a microphone hole formed on the surface of the casing of an information processing apparatus including a microphone provided in the casing and outputs an interference sound with respect to the input of the microphone. program.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)
  • Details Of Audible-Bandwidth Transducers (AREA)

Abstract

本技術は、音声UI機能以外の機能を安心して利用することができるようにする信号処理システム、信号処理装置および方法、並びにプログラムに関する。 信号処理システムは、信号処理装置および音声エージェント装置からなる。信号処理装置は、制御装置および出力装置からなる。出力装置は、音声エージェント装置の筐体の表面に設けられるマイクロホン穴付近にそれぞれ装着される。出力装置は、制御装置から供給された制御信号に基づいて妨害音を出力する。本開示は、例えば、音声UI機能に対して妨害音を発生させる信号処理システムに適用することができる。

Description

信号処理システム、信号処理装置および方法、並びにプログラム
 本技術は、信号処理システム、信号処理装置および方法、並びにプログラムに関し、特に、音声UI機能以外の機能を安心して利用することができるようにした信号処理システム、信号処理装置および方法、並びにプログラムに関する。
 従来、携帯電話機の使用時に、周囲の人に声を聞かれないようにするために、マスキング音声を出力する技術が提案されていた(特許文献1参照)。
 また、録音された音声を再生するとき、妨害音を出すようにした技術も提案されていた(特許文献2参照)。
 最近、音声エージェントやウェアラブルデバイスに搭載されている音声UI(User Interface)機能では、ハンズフリーを実現するために、マイクロホンに電源が常に供給され、マイクロホンが音声信号を観測し続けていることが少なくない。
 音声UI機能では、音声認識を開始するためのキーワードが設けられている。キーワードを検出するために、マイクロホンは、音声信号を常に観測し続けている。たとえ、音声信号が記録、収集されていなくても、マイクロホンが常に観測し続けている状態を不快に思うユーザは、一定数存在する。
特開2014-174255号公報 特開2013-257378号公報
 仮にマイクロホンを無効にできるようしても、一般のユーザが、マイクロホンが本当に無効になっているかどうかを確認することは困難である。
 また、カメラなどの画像情報とは異なり、画像情報の入力は遮断できるが、マイクロホンの入力は、マイクロホンを覆ったとしても完全に遮音することが難しい。
 将来的には電子レンジや冷蔵庫などの家電にも音声UI機能が標準で搭載される可能性があり、機器の電源はつけたまま、マイクロホンのみを無効化する方法の需要は存在し得る。
 本技術は、このような状況に鑑みてなされたものであり、音声UI機能以外の機能を安心して利用することができるようにするものである。
 本技術の一側面の信号処理システムは、筐体内に設けられたマイクロホンと、前記筐体の表面に形成されたマイクロホン穴とを備える情報処理装置と、前記マイクロホン穴の付近に装着されて、前記マイクロホンの入力に対するノイズを出力するノイズ出力部を備える信号処理装置とからなる。
 本技術の一側面においては、マイクロホンが情報処理装置の筐体内に設けられ、マイクロホン穴が前記筐体の表面に形成される。前記マイクロホン穴の付近に装着されて、前記マイクロホンの入力に対するノイズが出力される。
 本技術の他の側面の信号処理装置は、筐体内に設けられたマイクロホンを備える情報処理装置の前記筐体の表面に形成されたマイクロホン穴の付近に装着されて、前記マイクロホンの入力に対するノイズを出力するノイズ出力部を備える。
 本技術の他の側面においては、筐体内に設けられたマイクロホンを備える情報処理装置の前記筐体の表面に形成されたマイクロホン穴の付近に装着されて、前記マイクロホンの入力に対するノイズが出力される。
 本技術によれば、音声UI機能以外の機能を安心して利用することができる。
 なお、本明細書に記載された効果は、あくまで例示であり、本技術の効果は、本明細書に記載された効果に限定されるものではなく、付加的な効果があってもよい。
本技術を適用した信号処理システムの構成例を示す図である。 マイクロホン穴の付近に装着された出力装置の構成例を示す断面図である。 図2の場合の制御装置と出力装置の機能構成例を示すブロック図である。 図3の構成の信号処理装置の妨害音出力処理を説明するフローチャートである。 マイクロホンと同数の出力装置を構成する必要性を説明する図である。 マイクロホン穴の付近に装着された、風を出力する場合の出力装置の構成例を示す断面である。 図6の場合の制御装置と出力装置の機能構成例を示すブロック図である。 図7の構成の信号処理装置の妨害音出力処理を説明するフローチャートである。 図6の信号処理装置の他の構成例を示す図である。 図9の構成の制御装置の機能構成例を示すブロック図である。 マイクロホン穴の付近に装着された、摩擦音を出力する場合の出力装置の構成例を示す断面図である。 図11の場合の制御装置の機能構成例を示すブロック図である。 図12の構成の信号処理装置の妨害音出力処理を説明するフローチャートである。 コンピュータのハードウエア構成例を示す図である。
 以下、本開示を実施するための形態(以下実施の形態とする)について説明する。
 < 信号処理システムの構成例 >
 図1は、本技術を適用した信号処理システムの構成例を示す図である。
 図1の信号処理システム1は、信号処理装置11および音声エージェント装置12により構成される。
 信号処理システム1は、音声エージェント装置12の筐体の表面に形成されたマイクロホン穴付近で、信号処理装置11により、音声エージェント装置12の音声UI機能の利用を妨害する妨害音が出力されるようにしたものである。
 信号処理装置11は、音声エージェント装置12の音声入力に対して、妨害音を出力する。信号処理装置11は、制御装置21、および出力装置22-1乃至出力装置22-4、から構成される。出力装置22-1乃至出力装置22-4は、ケーブル23-1乃至ケーブル23-4を介して制御装置21に接続される。
 制御装置21は、専用の装置で構成される。なお、制御装置21は、スマートホンで構成されてもよい。制御装置21は、出力装置22-1乃至出力装置22-4を制御する制御信号をそれぞれ生成し、生成された各制御信号を出力する。
 出力装置22は、音声エージェント装置12が有するマイクロホンの数(図1の場合、4つ)に対応した数設けられる。以降、出力装置22-1乃至出力装置22-4を特に区別する必要がない場合、出力装置22と称する。
 出力装置22は、音声エージェント装置12の筐体31の表面に設けられるマイクロホン穴32-1乃至マイクロホン穴32-4付近にそれぞれ装着される。出力装置22は、制御装置21から供給された制御信号に基づいて妨害音を出力する。
 音声エージェント装置12は、音声UI(User Interface)機能として、常時入力されている周囲の音声からユーザ音声を認識し、認識されたユーザ音声に応じて、生成される言葉を発したり、行動を行う。音声エージェント装置12は、音声UI機能の他にも、音楽再生機能、およびアラーム機能などの機能を有する。
 音声UI機能は、マイクロホンから入力された信号から音声を検出し、その音声に基づく処理を実行する機能である。例えば、ユーザが音声再生を指示する発話をしたとき、音声を再生させる機能である。
 音楽再生機能は、予め録音されている音楽やラジオ番組などを再生して、再生した音楽を出力する機能である。
 アラーム機能は、予め設定された時刻にアラーム音を鳴らす機能である。
 音声エージェント装置12の筐体31の表面には、マイクロホンが設けられる位置に対応する位置に、マイクロホンの数と同数のマイクロホン穴32-1乃至マイクロホン穴32-4が形成されている。図1の例においては、円筒状の筐体31の上面に、等間隔でマイクロホン穴32-1乃至マイクロホン穴32-4が形成されている。
 マイクロホン穴32-1乃至マイクロホン穴32-4が形成されることで、筐体31内に設けられたマイクロホンは筐体31内に設けられていても、筐体31外からの音声を確実に入力することができる。
 以降、マイクロホン穴32-1乃至マイクロホン穴32-4を特に区別する必要がない場合、マイクロホン穴32と称する。
 図1の信号処理システム1において、音声エージェント装置12を使用するユーザのうち、音声入力が常時行われることについて音声UI機能に対して不快を感じているユーザが存在する。
 不快を感じているユーザは、音声エージェント装置12の筐体31の表面に形成された各マイクロホン穴32に、対応する出力装置22を装着させ、信号処理装置11の電源を入れる。これに対応して、出力装置22から、音声エージェント装置12の音声入力に対する妨害音が出力される。
 出力された妨害音は、出力装置22毎にそれぞれ無相関な信号であるので、音声エージェント装置12には、無相関な信号が入力される。これにより、音声エージェント装置12が有する音声UI機能の利用が困難になる。
 したがって、音声UI機能に対して不快を感じていたユーザは、音声エージェント装置12における音声UI機能以外の機能を、安心して利用することができる。
 < 出力装置の構成例 >
 図2は、マイクロホン穴の付近に装着された出力装置の構成例を示す断面図である。
 図2において、音声エージェント装置12の筐体31の表面に形成されたマイクロホン穴32と円筒状の出力装置22の断面が拡大して示されている。マイクロホン穴32の奥には、マイクロホン51が設けられている。図2では、1つの出力装置22についてのみ説明するが、他の出力装置22も同様に構成される。
 出力装置22は、出力部41および接着部42により構成される。
 出力部41は、ケーブル23を介して制御装置21と接続される。出力部41は、筐体31のマイクロホン穴32付近(例えば、マイクロホン穴32の上部付近)に配置され、マイクロホン51の音声入力を妨害する妨害音を出力する。
 接着部42は、出力部41を囲うように設けられる。接着部42は、吸盤や粘着剤で構成される。接着部42は、出力部41をマイクロホン穴32上に固定するために、筐体31の表面に密着する。接着部42の底辺は、出力部41とマイクロホン穴32との間が遮断されないように、マイクロホン穴32の部分を除いて、筐体31の表面と密着するように形成される。
 接着部42が筐体31に密着することにより、出力部41から出力される妨害音がマイクロホン穴32以外に出力されることを最小限にすることができる。
 < 制御装置および出力装置の構成例 >
 図3は、図2の場合の制御装置および出力装置の構成例を示すブロック図である。
 図3の右側には、制御装置21の構成例が示されており、図3の左側には、出力装置22の出力部41の構成例が示されている。
 制御装置21は、制御部61、およびオーディオDAC(Digital Analog Converter)62-1乃至オーディオDAC62-nから構成される。
 制御部61は、接続数分の独立した妨害音のオーディオデータを生成する。特に、接続数分の独立した妨害音を生成することで、音声エージェント装置内に搭載されるビームフォーミングなどの信号処理技術による妨害音の除去を抑制することができる。
 制御部61は、生成したオーディオデータを、オーディオDAC62-1乃至オーディオDAC62-nに出力する。
 オーディオDAC62-1乃至オーディオDAC62-nは、制御部61から供給されたオーディオデータをDA変換し、アナログのオーディオ信号を生成する。生成されたオーディオ信号は、対応する出力装置22に出力される。
 出力装置22の出力部41は、振動(音)発生部71を含むように構成される。出力装置22は、制御装置21が備える接続口の上限数以内で、ユーザが必要な数だけ接続できる。
 振動発生部71は、振動スピーカなどからなる。振動発生部71は、振動を発生することで、オーディオDAC62-1乃至オーディオDAC62-nから供給されたオーディオ信号に対応する妨害音を出力する。
 妨害音としては、ホワイトノイズが用いられる。ホワイトノイズは、すべての帯域にパワーを持つ雑音であるので、任意の音声を妨害することができる。ホワイトノイズは、正規分布に従う擬似乱数列を用いて生成される。正規分布に従う擬似乱数列は、例えばボックスミュラー法などにより得られる。
 ボックスミュラー法では、(0,1)上での一様分布に従う2つの互いに独立な確率変数X1、確率変数X2を用いて、次の式(1)に示されるように、平均0、分散1の標準正規分布に従う確率変数Y1、確率変数Y2が生成される。
Figure JPOXMLDOC01-appb-M000001
 接続数がMの場合には、M<2Nとなるように(0,1)上での一様分布に従うN個の独立な擬似乱数列のペアX2n-1(t), X2n(t)(n=1,…,N)が用意される。したがって、ボックスミュラー法により得られる標準正規分布に従う2N個の独立な擬似乱数列Y2n-1(t), Y2n(t)(n=1,…,N)の中からM個が選択される。
 一様分布に従う独立な擬似乱数列は、線形合同法やメルセンヌツイスタと呼ばれる手法により得ることができる。
 < 信号処理装置の動作例 >
 図4は、図3の構成の信号処理装置11の妨害音出力処理を説明するフローチャートである。
 制御部61は、ユーザがスイッチをオンにする操作信号に対応して起動することで、図4の妨害音出力処理を開始する。
 ステップS11において、制御部61は、出力装置22の接続数を検出する。
 ステップS12において、制御部61は、出力装置22の接続数分の妨害音を発生し、発生した妨害音のオーディオデータを生成する。生成したオーディオデータは、オーディオDAC62-1乃至オーディオDAC62-nに出力される。
 ステップS13において、オーディオDAC62-1乃至オーディオDAC62-nは、制御部61から供給されたオーディオデータをDA変換し、アナログのオーディオ信号を生成する。生成されたオーディオ信号は、対応する出力装置22の出力部41に出力される。
 ステップS14において、出力部41の振動発生部71は、振動を発生することにより、オーディオDAC62から供給されたオーディオ信号に対応する妨害音を出力する。
 以上のように、本技術においては、音声エージェント装置12の筐体31におけるマイクロホン穴32の付近で妨害音が出力される。これにより、マイクロホン51の音声入力を妨害することができる。
 < 妨害音により乱された音声の例 >
 ユーザは、通常、音声エージェント装置12に対して、1m乃至2m程度離れた位置にいるため、ユーザ音声は、比較的小さなレベルでマイクロホン51に観測される。
 一方、本技術により出力された妨害音は、音声エージェント装置12のマイクロホン穴32(すなわち、マイクロホン51)付近で出力されるため、極めて大きなレベルでマイクロホン51に観測される。
 したがって、信号処理装置11が妨害音を出力させている間、ユーザが何かを話しても、混合音は、妨害音が支配的となり、すなわち、音声エージェント装置12が、混合音からユーザ音声の内容を聞き取ることは、極めて困難となる。
 < マイクロホン数と出力装置の数 >
 図5は、マイクロホンの数と少なくとも同じ数の出力装置を設ける必要があることについて説明する図である。
 図5には、音声エージェント装置12が4個のマイクロホン51を備えるのに対して、信号処理装置11が、2台の出力装置22-1および出力装置22-2しか備えていない場合の信号処理システム111の構成例が示されている。
 音声エージェント装置12に複数のマイクロホンが搭載されている場合、音声エージェント装置12は、ビームフォーミングと呼ばれる技術を用いている可能性が極めて高い。特に、適応ビームフォーミングと呼ばれる技術を用いると、音声エージェント装置12は、理想的にはマイクロホン数-1個の方向からの音源を十分に抑圧することができる。
 したがって、図5で示されるように、マイクロホン51の数より出力装置22の数が少ない構成の信号処理システム111では、適応ビームフォーミングを用いて雑音を抑圧することで、ユーザの生活音を強調して録音することが可能となってしまう。
 そこで、本技術の信号処理システム1では、音声エージェント装置12に搭載されているマイクロホン数以上の出力装置22を搭載することとする。その際、出力装置22は、音声エージェント装置12に備えられているマイクロホン穴32に可能な限り密着される。
 これにより、マイクロホン51に十分に大きなレベルで雑音が観測されるようにすることができ、またユーザに十分に小さなレベルで雑音が観測されるように(聞こえないように)することができる。
 < 対策方法とユーザの心理 >
 次に、対策方法とユーザの心理・コスト・実現性について説明する。
 以下、4つの既存の対策方法と本技術の対策方法に対してのユーザの心理・コスト・実現性について説明する。
 1つ目の音声エージェント装置12の電源をオフにする対策方法の場合、すべてのユーザは録音されている懸念から解放される。一方、音声エージェント装置12のすべての機能は使えなくなってしまう。
 2つ目の音声エージェント装置12またはマイクロホン穴32を遮音物で覆う対策方法の場合、一定数のユーザAは、安心感が得られると考えられる。一方、マイクロホン51での録音にある程度詳しいユーザであるユーザBは、カメラなどと異なり、一般的な素材での完全な遮音は難しく、会話などの多くの音は十分なレベルで録音されることを知っている。したがって、ユーザBの懸念は解消されない。
 3つ目のマイクミュート機能を利用する対策方法の場合、マイクミュート機能は、再生音量ミュート機能と異なり、本当にミュートされているかユーザが確認する方法がない。したがって、製品の仕様を信用することでしか、ユーザの懸念は解消されない。
 なお、実際、タッチ操作を行っていないにも関わらず、本体上部へのタッチ操作を勝手に認識して、気づかれないうちに音声が録音されていた事例があるため、自身の部屋の生活音を録音されることを懸念するユーザは、一定数存在することは確かである。
 4つ目のマイクロホン51に接続されている信号線を切断する対策方法の場合、製品を分解する手間・スキルや、使用を再開する際に再結線させる手間・スキルが必要になるため、現実的ではない。また、信号線を切断する方法は、多くの場合、製品保証対象外となる。
 以上に対して、本技術を適用した対策方法の場合、別の信号処理装置11を購入、設置、有効化する必要があるが、万が一、録音が実行されていたとしても録音信号が確実に妨害音に乱されるため、ユーザは、自身の生活中の音を聞かれてしまう懸念から解放される。
 また、本技術を、マイクミュート機能と併用することで、より確実に録音を防止することが可能となる。また、音声UI機能以外の機能(例えば、音楽再生機能など)は、通常通り使用可能である。音声UI機能を再開したい場合は、別装置を外すか無効化するだけでよい。
 信号処理装置11と音声エージェント装置12が同じシステムとして存在する場合、信号処理装置11が再生する雑音成分は、音響エコーキャンセラという技術により十分に除去可能となってしまうことがある。
 音響エコーキャンセラによりスピーカ再生による雑音成分を十分に除去するには、
・録音側のシステムが再生音信号を知っていること
・録音側のADC(Analog Digital Converter)のクロックと再生側のDACのクロックが同期していること
 の2つの条件が必要となる。
 信号処理装置11と音声エージェント装置12が同じシステムとして存在する場合は、製品仕様として音響エコーキャンセラを使用していないと言っていたとしても、上記2つの条件が満たされている可能性が消えないため、懸念を持つユーザが存在してしまう。
 なお、0080段落以降に、信号処理装置11と音声エージェント装置12とが同じ信号処理システムとして存在する場合について説明したが、信号処理装置11と音声エージェント装置12は、別システムとして実現するほうが望ましい。
 また、上記説明においては、妨害音として、ホワイトノイズなどの生成されたオーディオデータを出力する例を説明したが、次に、妨害音として、風を出力する例について説明する。
 < 出力装置の他の構成例 >
 図6は、マイクロホン穴の付近に装着された、風を出力する(発生する)場合の出力装置の構成例を示す断面図である。
 図6の構成のうち、図2の構成と対応する部分には同じ符号が付されている。重複する説明については適宜省略される。図6に示す接着部42の構成は、風を接着部42の外に排気するための排気口121が形成されている点で、図2に示す構成と異なる。
 図6の出力装置22は、出力部41から出力された風が接着部42内やマイクロホン穴32内を乱れて流れて、排気口121から排出されるように、風のとおりが計算された構成となっている。これにより、風により生じる音がマイクロホン51の音声入力に対する妨害音となって、マイクロホン51の音声入力を妨害することができる。
 < 制御装置と出力装置の他の構成例 >
 図7は、図6の場合の制御装置と出力装置の構成例を示すブロック図である。
 図7の右側には、制御装置21の構成例が示されており、図7の左側には、出力装置22の出力部41の構成例が示されている。
 制御装置21は、制御部131を含むように構成される。
 制御部131は、ユーザがスイッチをオンにする操作信号に対応して起動する。制御部131は、ケーブル23に接続される出力装置22の接続数を検出し、接続数分の独立した風を出力装置22において出力させるための制御信号を生成する。生成された制御信号は、対応する出力装置22に出力される。
 出力装置22の出力部41は、風発生部141を含むように構成される。
 風発生部141は、プロペラなどからなる。風発生部141は、制御部131から供給された制御信号に応じて風を出力する。
 < 信号処理装置の動作例 >
 図8は、図7の構成の信号処理装置11の妨害音出力処理を説明するフローチャートである。
 制御部131は、ユーザがスイッチをオンにする操作信号に対応して起動することで、図8の妨害音出力処理を開始する。
 ステップS111において、制御部131は、出力装置22の接続数を検出する。
 ステップS112において、制御部131は、出力装置22の接続数分の独立した風を出力させる制御信号を生成する。生成された制御信号は、出力装置22の出力部41に出力される。
 ステップS113において、出力部41の風発生部141は、制御部131から供給された制御信号に応じて風を出力する。
 以上のように、音声エージェント装置12の筐体31におけるマイクロホン穴32の付近で風を出力することで、妨害音を出力するようにしたので、マイクロホン51の音声入力を妨害することができる。
 < 信号処理装置の他の構成例 >
 図9は、図6の信号処理装置の他の構成例を示す図である。
 図9の構成のうち、図6の構成と対応する部分には同じ符号が付されている。重複する説明については適宜省略される。
 図9に示す信号処理装置11の構成は、ケーブル23に代えてホース151が設けられている点で、図6に示す構成と異なる。
 図9の信号処理装置11は、制御装置21および出力装置22を備える点が、図6の信号処理装置11と共通している。図9の信号処理装置11は、ケーブル23が風を送るホース151に入れ替わっていることが、図6の信号処理装置11と異なっている。
 図9の制御装置21は、風を発生し、ホース151を介して、出力装置22に風を出力する。
 出力装置22は、出力部41が除かれた点が、図6の出力装置22と異なっている。出力装置22は、接着部42から構成される。接着部42は、排気口121を備え、ホース151を筐体31に接着する。
 すなわち、出力装置22においては、接着部42にホース151が接続されており、ホース151の先端より、マイクロホン51の入力を妨害する妨害音として、風が出力される。
 図9の信号処理装置11においては、ホース151から出力された風が、接着部42内やマイクロホン穴32内を乱れて流れるように、風のとおりが計算された構成である。これにより、風が妨害音となって、マイクロホン51の音声入力を妨害することができる。
 < 制御装置の機能構成例 >
 図10は、図9の構成の制御装置の機能構成例を示すブロック図である。
 図10の構成のうち、図7の構成と対応する部分には同じ符号が付されている。重複する説明については適宜省略される。
 図10に示す制御装置21の構成は、風発生部141-1乃至風発生部141-nが追加されている点で、図7に示す構成と異なる。
 すなわち、図7では出力装置22に設けられていた風発生部141が、図10では、風発生部141-1乃至風発生部141-nとして、制御装置21に設けられている。
 制御部131は、ユーザがスイッチをオンにする操作信号に対応して起動する。制御部131は、ホース151に接続される出力装置22の接続数を検出し、接続数分の独立した風を発生させる制御信号を生成する。
 生成された制御信号は、対応する風発生部141-1乃至風発生部141-nにそれぞれ出力される。風発生部141-1乃至風発生部141-nは、プロペラなどからなる。風発生部141-1乃至風発生部141-nは、制御部131から供給された制御信号に応じて、風を発生し、ホース151-1乃至ホース151-nに出力する。
 出力装置22においては、ホース151の先端より、マイクロホン51の入力を妨害する妨害音として、風が出力される。
 なお、図10の信号処理装置11は、風発生部141が、出力装置22ではなく、制御装置21に備えられた点が、図7の信号処理装置11と異なっている。したがって、図10の信号処理装置11の妨害音出力処理は、図7の信号処理装置11が行う、図8の妨害音出力処理と基本的に同様な処理である。
 上記説明においては、妨害音として、風を出力する例を説明したが、次に、妨害音として、摩擦音を出力する例について説明する。
 < 出力装置の他の構成例 >
 図11は、マイクロホン穴の付近に装着された、摩擦音を出力する場合の出力装置の構成例を示す断面図である。
 図11の構成のうち、図2の構成と対応する部分には同じ符号が付されている。重複する説明については適宜省略される。図11に示す接着部42の構成は、出力部41が除かれた点と、駆動部171および摩擦音発生部172が追加されている点で、図2に示す構成と異なる。
 駆動部171は、モータで構成される。駆動部171は、制御装置21に基づいて駆動して、摩擦音発生部172を回転させる。
 摩擦音発生部172は、筐体31の表面と擦れるように配置される。摩擦音発生部172が回転することで、筐体31の表面との間で摩擦音が出力される。
 これにより、摩擦音がマイクロホン51の音声入力に対する妨害音となって、マイクロホン51の音声入力を妨害することができる。
 < 制御装置の他の構成例 >
 図12は、図11の場合の制御装置の構成例を示すブロック図である。
 制御装置21は、制御部181を含むように構成される。
 制御部181は、ユーザがスイッチをオンにする操作信号に対応して起動する。制御部181は、ケーブル23に接続される出力装置22の接続数を検出し、接続数分の独立した制御信号を生成する。制御信号は、摩擦音を発生させるために駆動部171の駆動を制御する信号である。生成された制御信号は、対応する出力装置22に出力される。
 出力装置22においては、制御部181から供給された制御信号に基づいて摩擦音発生部172が回転する。回転した摩擦音発生部172が筐体31の表面に擦れることで、妨害音としての摩擦音が出力される。
 図13は、図12の構成の信号処理装置11の妨害音出力処理を説明するフローチャートである。
 制御部181は、ユーザがスイッチをオンにする操作信号に対応して起動することで、図13の妨害音出力処理を開始する。
 ステップS151において、制御部181は、出力装置22の接続数を検出する。
 ステップS152において、制御部181は、出力装置22の接続数分の独立した摩擦音を発生させる制御信号を生成する。生成された制御信号は、出力装置22の駆動部171に出力される。
 ステップS153において、出力装置22の駆動部171は、制御部181から供給された制御信号に応じて、摩擦音発生部172を回転、または振動させる。これにより、摩擦音発生部172と筐体31の表面から摩擦音が出力される。
 以上のように、音声エージェント装置12の筐体31におけるマイクロホン穴32の付近で摩擦音を出力させることで、妨害音を出力するようにしたので、マイクロホン51の音声入力を妨害することができる。
 なお、上記説明において、制御装置21が、出力装置22の接続数を検出し、接続数分の独立した制御信号を生成する例を説明したが、制御装置21は、接続可能な最大数分の制御信号を予め生成しておいて、必要な分だけ使用するようにしてもよい。
 本技術においては、音声エージェント装置12の筐体31におけるマイクロホン穴32の付近で妨害音が出力されるので、マイクロホン51の音声入力を妨害することができる。これにより、ユーザは、音声エージェント装置の音声UI機能以外の機能を、安心して利用することができるようになる。
 なお、上記説明においては、1つのマイクロホンに対して1つのマイクロホン穴が形成されている場合について説明したが、1つのマイクロホンに対して複数のマイクロホン穴が形成されている場合もあり得る。1つのマイクロホンに対して複数のマイクロホン穴が形成されている場合、接着部は、複数のマイクロホン穴を覆うように構成されるようにすることで対応可能である。
 < コンピュータのハードウエア構成例 >
 上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここでコンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等が含まれる。
 図14は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエア構成例を示すブロック図である。
 図14に示されるコンピュータにおいて、CPU(Central Processing Unit)301、ROM(Read Only Memory)302、RAM(Random Access Memory)303は、バス304を介して相互に接続されている。
 バス304にはまた、入出力インタフェース305も接続されている。入出力インタフェース305には、入力部306、出力部307、記憶部308、通信部309、およびドライブ310が接続されている。
 入力部306は、例えば、キーボード、マウス、マイクロホン、タッチパネル、入力端子などよりなる。出力部307は、例えば、ディスプレイ、スピーカ、出力端子などよりなる。記憶部308は、例えば、ハードディスク、RAMディスク、不揮発性のメモリなどよりなる。通信部309は、例えば、ネットワークインタフェースよりなる。ドライブ310は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア311を駆動する。
 以上のように構成されるコンピュータは、CPU301が、例えば、記憶部308に記憶されているプログラムを、入出力インタフェース305およびバス304を介して、RAM303にロードして実行することにより、上述した一連の処理が行われる。RAM303にはまた、CPU301が各種の処理を実行する上において必要なデータなども適宜記憶される。
 コンピュータ(CPU301)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア311に記録して適用することができる。その場合、プログラムは、リムーバブルメディア311をドライブ310に装着することにより、入出力インタフェース305を介して、記憶部308にインストールすることができる。
 また、このプログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することもできる。その場合、プログラムは、通信部309で受信し、記憶部308にインストールすることができる。
 その他、このプログラムは、ROM302や記憶部308に、あらかじめインストールしておくこともできる。
 なお、通信装置が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。従って、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、および、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 また、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
 本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 なお、本技術は以下のような構成も取ることができる。
(1)
 筐体内に設けられたマイクロホンと、
 前記筐体の表面に形成されたマイクロホン穴と
 を備える情報処理装置と、
 前記マイクロホン穴の付近に装着されて、前記マイクロホンの入力に対する妨害音を出力する妨害音出力部
 を備える信号処理装置と
 からなる信号処理システム。
(2)
 筐体内に設けられたマイクロホンを備える情報処理装置の前記筐体の表面に形成されたマイクロホン穴の付近に装着されて、前記マイクロホンの入力に対する妨害音を出力する妨害音出力部
 を備える信号処理装置。
(3)
 前記妨害音の出力を制御する制御部を
 さらに備え、
 前記妨害音出力部および前記制御部は異なる筐体にそれぞれ設けられる
 前記(2)に記載の信号処理装置。
(4)
 前記マイクロホン穴を覆うように、前記妨害音出力部を前記情報処理装置の前記筐体の表面に接着させる接着部を
 さらに備える前記(2)または(3)に記載の信号処理装置。
(5)
 前記妨害音出力部は、前記妨害音として、生成された音声信号に対応する音声を出力する
 前記(2)乃至(4)のいずれかに記載の信号処理装置。
(6)
 前記音声は、ホワイトノイズである
 前記(5)に記載の信号処理装置。
(7)
 前記妨害音出力部は、スピーカを含んで構成される
 前記(5)または(6)に記載の信号処理装置。
(8)
 前記妨害音出力部は、前記妨害音として、風により生じる音を出力する
 前記(2)乃至(4)のいずれかに記載の信号処理装置。
(9)
 前記接着部は、前記風の排気口を少なくとも1つ有する
 前記(8)に記載の信号処理装置。
(10)
 前記妨害音出力部は、プロペラを含んで構成される
 前記(8)または(9)に記載の信号処理装置。
(11)
 前記妨害音出力部は、前記妨害音として、摩擦音を出力する
 前記(2)乃至(4)のいずれかに記載の信号処理装置。
(12)
 前記妨害音出力部は、モータの駆動で回転することで、前記筐体の表面との摩擦により前記摩擦音を出力する
 前記(11)に記載の信号処理装置。
(13)
 信号処理装置が、
 筐体内に設けられたマイクロホンを備える情報処理装置の前記筐体の表面に形成されたマイクロホン穴の付近に装着される出力部から、前記マイクロホンの入力に対する妨害音を出力する
 信号処理方法。
(14)
 筐体内に設けられたマイクロホンを備える情報処理装置の前記筐体の表面に形成されたマイクロホン穴の付近に装着されて、前記マイクロホンの入力に対する妨害音を出力するノイズ出力部
 として、コンピュータを機能させるプログラム。
 1 信号処理システム, 11 信号処理装置, 12 音声エージェント装置, 21 制御装置, 22-1乃至22-4 出力装置, 23-1乃至23-4 ケーブル, 31 筐体, 32-1乃至32-4 マイクロホン穴, 41 出力部, 42 接着部, 51 マイクロホン, 61 制御部, 62-1乃至62-n オーディオDAC, 71 振動発生部, 121 排気口, 131 制御部, 141,141-1乃至141-n 風発生部, 151,151-1乃至151-n ホース, 171 駆動部, 172 摩擦音発生部, 181 制御部

Claims (14)

  1.  筐体内に設けられたマイクロホンと、
     前記筐体の表面に形成されたマイクロホン穴と
     を備える情報処理装置と、
     前記マイクロホン穴の付近に装着されて、前記マイクロホンの入力に対する妨害音を出力する妨害音出力部
     を備える信号処理装置と
     からなる信号処理システム。
  2.  筐体内に設けられたマイクロホンを備える情報処理装置の前記筐体の表面に形成されたマイクロホン穴の付近に装着されて、前記マイクロホンの入力に対する妨害音を出力する妨害音出力部
     を備える信号処理装置。
  3.  前記妨害音の出力を制御する制御部を
     さらに備え、
     前記妨害音出力部および前記制御部は異なる筐体にそれぞれ設けられる
     請求項2に記載の信号処理装置。
  4.  前記マイクロホン穴を覆うように、前記妨害音出力部を前記情報処理装置の前記筐体の表面に接着させる接着部を
     さらに備える請求項2に記載の信号処理装置。
  5.  前記妨害音出力部は、前記妨害音として、生成された音声信号に対応する音声を出力する
     請求項4に記載の信号処理装置。
  6.  前記音声は、ホワイトノイズである
     請求項5に記載の信号処理装置。
  7.  前記妨害音出力部は、スピーカを含んで構成される
     請求項5に記載の信号処理装置。
  8.  前記妨害音出力部は、前記妨害音として、風により生じる音を出力する
     請求項4に記載の信号処理装置。
  9.  前記接着部は、前記風の排気口を少なくとも1つ有する
     請求項8に記載の信号処理装置。
  10.  前記妨害音出力部は、プロペラを含んで構成される
     請求項8に記載の信号処理装置。
  11.  前記妨害音出力部は、前記妨害音として、摩擦音を出力する
     請求項4に記載の信号処理装置。
  12.  前記妨害音出力部は、モータの駆動で回転することで、前記筐体の表面との摩擦により前記摩擦音を出力する
     請求項11に記載の信号処理装置。
  13.  信号処理装置が、
     筐体内に設けられたマイクロホンを備える情報処理装置の前記筐体の表面に形成されたマイクロホン穴の付近に装着される出力部から、前記マイクロホンの入力に対する妨害音を出力する
     信号処理方法。
  14.  筐体内に設けられたマイクロホンを備える情報処理装置の前記筐体の表面に形成されたマイクロホン穴の付近に装着されて、前記マイクロホンの入力に対する妨害音を出力するノイズ出力部
     として、コンピュータを機能させるプログラム。
PCT/JP2019/006433 2018-03-07 2019-02-21 信号処理システム、信号処理装置および方法、並びにプログラム WO2019171963A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020504912A JPWO2019171963A1 (ja) 2018-03-07 2019-02-21 信号処理システム、信号処理装置および方法、並びにプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-040444 2018-03-07
JP2018040444 2018-03-07

Publications (1)

Publication Number Publication Date
WO2019171963A1 true WO2019171963A1 (ja) 2019-09-12

Family

ID=67846218

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/006433 WO2019171963A1 (ja) 2018-03-07 2019-02-21 信号処理システム、信号処理装置および方法、並びにプログラム

Country Status (2)

Country Link
JP (1) JPWO2019171963A1 (ja)
WO (1) WO2019171963A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11640276B2 (en) * 2020-11-17 2023-05-02 Kyndryl, Inc. Mask device for a listening device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0522391A (ja) * 1991-07-10 1993-01-29 Sony Corp 音声マスキング装置
JP2006157930A (ja) * 2004-11-30 2006-06-15 Agere Systems Inc 第三者に通話を盗み聞きされるのを防止するための方法および装置
JP2010217453A (ja) * 2009-03-16 2010-09-30 Fujitsu Ltd 音声認識用マイクロホンシステム
JP2012063614A (ja) * 2010-09-16 2012-03-29 Yamaha Corp マスキング音生成装置
JP2014174255A (ja) * 2013-03-07 2014-09-22 Sony Corp 信号処理装置、信号処理方法及び記憶媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0522391A (ja) * 1991-07-10 1993-01-29 Sony Corp 音声マスキング装置
JP2006157930A (ja) * 2004-11-30 2006-06-15 Agere Systems Inc 第三者に通話を盗み聞きされるのを防止するための方法および装置
JP2010217453A (ja) * 2009-03-16 2010-09-30 Fujitsu Ltd 音声認識用マイクロホンシステム
JP2012063614A (ja) * 2010-09-16 2012-03-29 Yamaha Corp マスキング音生成装置
JP2014174255A (ja) * 2013-03-07 2014-09-22 Sony Corp 信号処理装置、信号処理方法及び記憶媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11640276B2 (en) * 2020-11-17 2023-05-02 Kyndryl, Inc. Mask device for a listening device

Also Published As

Publication number Publication date
JPWO2019171963A1 (ja) 2021-02-18

Similar Documents

Publication Publication Date Title
JP7337262B2 (ja) アクティブノイズ低減オーディオデバイス及びシステム
US8972251B2 (en) Generating a masking signal on an electronic device
JP6314977B2 (ja) 入力デバイス及び送信方法、ホストデバイス及び受信方法、並びに、信号処理システム及び送受信方法
CN105493177B (zh) 用于音频处理的系统和计算机可读存储介质
EP1940197B1 (en) Noise reducing device with controlled switching of noise reducing characteristics
US20130156212A1 (en) Method and arrangement for noise reduction
JP2008122729A (ja) ノイズ低減装置、ノイズ低減方法、ノイズ低減プログラムおよびノイズ低減音声出力装置
JP2013501969A (ja) 方法、システム及び機器
JP2009278620A (ja) 集音装置および音声会議装置
KR20010080522A (ko) 음성 인식 장치 및 가전 시스템
JP2008060759A (ja) ノイズキャンセルヘッドフォンおよびそのノイズキャンセル方法
JP6268033B2 (ja) 携帯端末
WO2012114155A1 (en) A transducer apparatus with in-ear microphone
WO2019171963A1 (ja) 信号処理システム、信号処理装置および方法、並びにプログラム
JP2009020143A (ja) ノイズキャンセルヘッドホン
JP2010130415A (ja) 音声信号再生装置
WO2022259589A1 (ja) 耳装着型デバイス、及び、再生方法
JP7078039B2 (ja) 信号処理装置および方法、並びにプログラム
WO2020026797A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
WO2023013019A1 (ja) 発話フィードバック装置、発話フィードバック方法、プログラム
WO2022199320A1 (en) Superimposing high-frequency copies of emitted sounds
US11275551B2 (en) System for voice-based alerting of person wearing an obstructive listening device
WO2023013020A1 (ja) マスキング装置、マスキング方法、プログラム
JP6674302B2 (ja) ヘッドセット装置および音声通信システム
Rice Reviews Of Acoustical Patents

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19764765

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020504912

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19764765

Country of ref document: EP

Kind code of ref document: A1