WO2020145122A1 - ヘッドホン、および音響信号処理方法、並びにプログラム - Google Patents

ヘッドホン、および音響信号処理方法、並びにプログラム Download PDF

Info

Publication number
WO2020145122A1
WO2020145122A1 PCT/JP2019/050493 JP2019050493W WO2020145122A1 WO 2020145122 A1 WO2020145122 A1 WO 2020145122A1 JP 2019050493 W JP2019050493 W JP 2019050493W WO 2020145122 A1 WO2020145122 A1 WO 2020145122A1
Authority
WO
WIPO (PCT)
Prior art keywords
mode
headphones
microphone
sound
control unit
Prior art date
Application number
PCT/JP2019/050493
Other languages
English (en)
French (fr)
Inventor
享介 大島
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2020565685A priority Critical patent/JP7380597B2/ja
Priority to CN201980087674.0A priority patent/CN113261305A/zh
Priority to US17/420,446 priority patent/US20220095039A1/en
Priority to EP19909235.4A priority patent/EP3910963A4/en
Publication of WO2020145122A1 publication Critical patent/WO2020145122A1/ja
Priority to JP2023188838A priority patent/JP2024001353A/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1008Earpieces of the supra-aural or circum-aural type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1041Mechanical or electronic switches, or control elements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/08Mouthpieces; Microphones; Attachments therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones

Definitions

  • the present disclosure relates to headphones, an acoustic signal processing method, and a program. More specifically, the present invention relates to a headphone capable of changing a mode of outputting an external sound from a speaker of a headphone according to a user's utterance, an acoustic signal processing method, and a program.
  • Patent Document 1 Japanese Unexamined Patent Publication No. 2009-021826 describes a headphone having an external sound capturing function.
  • Patent Document 1 discloses a configuration for switching between a mode for capturing external sound and a mode for not capturing external sound by a switch operation by a user.
  • the configuration described in Patent Document 1 has a problem that the user has to search for the position of the switch and perform the switch operation when switching to the external sound capturing mode, which is troublesome.
  • the present disclosure has been made in view of the above problem, for example, a headphone capable of switching to an external sound capturing mode at an optimal timing without generating a user burden such as searching for a switch position, and an acoustic signal processing method, It also provides a program.
  • An embodiment of the present disclosure provides a headphone that immediately switches to an external sound capturing mode in response to a user's utterance, an acoustic signal processing method, and a program.
  • the first aspect of the present disclosure is A microphone that captures the external sound that is the ambient sound of the headphones, It has a mode control unit that controls the output sound of the speaker of the headphone according to the mode, The mode control unit, When the utterance of the user wearing the headphone is detected by analyzing the input sound of the microphone, the headphone executes mode control for shifting to the conversation mode in which the external sound acquired by the microphone is output from the speaker.
  • the second aspect of the present disclosure is An acoustic signal processing method for executing control of speaker output sound in headphones
  • the headphones are A microphone that captures the external sound that is the ambient sound of the headphones, It has a mode control unit that controls the output sound of the speaker of the headphone according to the mode, The mode control unit, When the utterance of the user wearing the headphones is detected by analyzing the input sound of the microphone, an acoustic signal processing method for performing a mode control of shifting to a conversation mode in which the external sound acquired by the microphone is output from the speaker. It is in.
  • the third aspect of the present disclosure is It is a program that controls the speaker output sound in headphones.
  • the headphones are A microphone that captures the external sound that is the ambient sound of the headphones, It has a mode control unit that controls the output sound of the speaker of the headphone according to the mode, The program, the mode control unit, In the program, when the utterance of the user wearing the headphones is detected by analyzing the input sound of the microphone, the mode control is performed to shift the external sound acquired by the microphone to the conversation mode in which the external sound is output from the speaker.
  • the program of the present disclosure is, for example, a program that can be provided by a storage medium or a communication medium provided in a computer-readable format to an information processing device or a computer system that can execute various program codes.
  • a program that can be provided by a storage medium or a communication medium provided in a computer-readable format to an information processing device or a computer system that can execute various program codes.
  • system is a logical set configuration of a plurality of devices, and is not limited to one in which each configuration device is in the same housing.
  • the microphone includes a microphone that captures an external sound that is the ambient sound of the headphones and a mode control unit that controls the output sound of the speaker of the headphones according to the mode.
  • the mode control unit shifts to a conversation mode in which external sound is output from the speaker. Furthermore, even if a touch operation of a predetermined touch type is detected by the output analysis of the touch sensor array capable of discriminating the type of touch operation on the outer surface of the headphones, the mode shifts to the conversation mode.
  • composition of headphones of this indication It is a figure explaining an example of composition of headphones of this indication. It is a figure explaining the example of detailed composition of headphones. It is a figure explaining the touch sensor array with which the headphones were equipped. It is a figure explaining the mode transition performed in the headphones of this indication. It is a figure explaining an example of composition of headphones of this indication. It is a figure which shows the flowchart explaining the process sequence which the mode control part of a headphone performs. It is a figure which shows the flowchart explaining the process sequence which the mode control part of a headphone performs. It is a figure explaining the mode transition which the mode control part of a headphone performs. It is a figure explaining the mode transition which the mode control part of a headphone performs. It is a figure explaining the mode transition which the mode control part of a headphone performs. It is a figure explaining an example of hardware constitutions of headphones of this indication.
  • FIG. 1 shows a user 1 wearing headphones 10 and a playback device (user terminal) 20 owned by the user 1.
  • a reproduction sound reproduced by the reproduction device (user terminal) 20, for example, music data is transmitted to the headphones 10 by wireless communication, and the music reproduction sound is output from the left and right (LR) speakers of the headphones.
  • FIG. 2 shows a detailed configuration example of the headphones 10.
  • FIG. 2 shows (a) an external view, (b) a side view, and (c) an internal view of the headphones 10.
  • the external view is an external surface that does not touch the user's 1 ear.
  • an outer microphone 11 and a mouth microphone 12 are provided on the outer surface of the headphones.
  • the external microphone 11 is a microphone that captures external sound (ambient sound).
  • the mouth microphone 12 is provided mainly for the purpose of acquiring the speech sound of the user 1.
  • the mouth microphone 12 is installed at a position close to the mouth of the user 1. External sound (ambient sound) is also captured from the mouth microphone 12.
  • a side surface of the headphones is provided with an operation unit 13 including a switch operable by a user and buttons.
  • the operation unit 13 is used when performing various operations such as start, stop, skip, volume adjustment, and mute of reproduced music.
  • the mouth microphone 12 is set from the outer surface of the headphones to the side surface, and is set to efficiently capture the utterance of the user 1.
  • the mouth microphone 12 may be installed only on the outer surface of the headphones.
  • FIG. 2C shows a portion that contacts the ear of the user 1.
  • a speaker 14 is provided on the inner surface of the headphones.
  • the speaker 14 is used not only for outputting the reproduced sound but also for outputting the sound acquired by the microphone.
  • the inner microphone 15 is also provided on the inner surface of the headphones.
  • the inner microphone 15 is also a microphone for capturing external sound.
  • the touch sensor array 15 provided in the headphones 10 will be described.
  • the headphone 10 has a built-in touch sensor array 15.
  • the touch sensor array 15 has a configuration in which a large number of small touch sensors are arranged, and each touch sensor outputs a detection value individually. That is, it is detected that the user has touched the outer surface of the headphones. Furthermore, by analyzing the outputs of a large number of touch sensors that form the touch sensor array 15, it is possible to determine how the user's hand touches the outer surface of the headphones, that is, the type of touch.
  • the user's hand touches the headphone 10 so as to cover the entire outer surface as shown in FIG. 3A, it is detected as a surface touch.
  • FIG. 3B when the user's finger touches a part of the outer surface of the headphone 10, it is detected as a point touch.
  • FIGS. 3B1 and 3B2 when one finger of the user touches one point on the outer surface of the headphones 10, it is detected as a one-point touch, and two fingers of the user are detected. When two points that are separated are touched, it is detected as a two-point touch.
  • the discrimination of these touch types can be realized by analyzing the outputs of a large number of touch sensors that form the touch sensor array 15.
  • mode transition executed in the headphones of the present disclosure [2. Regarding mode transition executed in the headphones of the present disclosure] Next, mode transition executed in the headphones of the present disclosure will be described.
  • FIG. 4 is a diagram illustrating mode transition executed in the headphones 10 of the present disclosure.
  • the headphones 10 of the present disclosure have the following three modes.
  • the normal mode is a mode for listening to music played by the playback device.
  • the external sound acquisition by the microphone and the external sound output from the speaker are stopped.
  • the external sound is taken in by the microphone, the external sound output from the speaker is limited to a certain level or less.
  • the output level of the external sound in the normal mode can be set by the user.
  • the user can perform various processes such as reproduction control of music reproduction, for example, reproduction start, stop, skip, volume adjustment, mute, etc., by operating the operation unit 14. Further, it is possible to perform the processing such as the reproduction start, stop, and skip by the one-point touch described above with reference to FIG. 3B1.
  • the conversation mode is a mode in which (a) the normal mode is changed when the user wearing the headphones 10 speaks.
  • the mode control unit inside the headphone 10 analyzes that the acquired voices of the plurality of microphones (outer surface microphone 11, mouth microphone 12, inner surface microphone 15) provided in the headphone 10 are uttered by the user 1 wearing the headphone 10. When it is determined, (a) the normal mode is shifted to (b) the conversation mode.
  • the external sound is taken in by the microphone and the external sound is output from the speaker along with the music played by the playback device.
  • the external sound output level from the speaker is raised to a level at which the user 1 can sufficiently recognize the external sound. That is, the level is set so that normal conversation is possible.
  • the external sound may be captured by the microphone and the external sound may be output from the speaker while the reproduced music is muted or stopped.
  • B1 First conversation mode (corresponding to low ambient sound level)
  • B2 Second conversation mode (high ambient sound level compatible)
  • the first conversation mode (corresponding to low ambient sound level) is a mode set when the ambient sound level is below a threshold value (for example, 80 dBA) and the environment is relatively quiet.
  • a threshold value for example, 80 dBA
  • the external sound (ambient sound) is output from the speaker together with the reproduced music, or the reproduced music is muted or stopped.
  • the ASM normal mode is a mode in which acquired voices of a plurality of microphones (outer surface microphone 11, mouth microphone 12, inner surface microphone 15) mounted on the headphones 10 are output as they are through the speaker 14.
  • the voice mode a signal process for extracting and emphasizing a voice signal in the vicinity of the frequency of a human voice from the voices acquired by the microphones (the outer microphone 11, the mouth microphone 12, and the inner microphone 15) is performed, and the processed signal is output to the speaker.
  • the output is performed via 14. It is possible for the user to set in advance which of these modes the external sound is to be output, and it is also possible to change it at any time.
  • the second conversation mode (corresponding to a high ambient sound level) is a mode set when the ambient sound level exceeds a threshold value (for example, 80 dBA) and the environment is relatively noisy.
  • a threshold value for example 80 dBA
  • an external sound is output from the speaker together with the reproduced music, or the reproduced music is muted or stopped.
  • the voice mode a signal process for extracting and emphasizing a voice signal in the vicinity of the frequency of a human voice from the voices acquired by the microphones (the outer microphone 11, the mouth microphone 12, and the inner microphone 15) is performed, and the processed signal is output to the speaker. In this mode, the output is performed via 14.
  • the beamforming mode is a mode in which signal processing for selecting and enhancing a sound from the front of the user 1 wearing the headphones 10 is executed, and the processed signal is output via the speaker 14.
  • the voice+beamforming mode is a mode in which both the voice mode signal processing and the beamforming signal processing are executed and the processed signal is output via the speaker 14.
  • the user can set in advance which of these modes to output the external sound, and can change it at any time.
  • the emergency mode is a mode that can be shifted to when the user 1 wearing the headphones 10 wants to hear an external sound, regardless of whether or not the user speaks.
  • the (c) emergency mode can be switched by the user 1 performing a surface touch on the outer surface of the headphones 10 in the (b) normal mode.
  • the external sound is taken in by the microphone and the external sound is output from the speaker along with the reproduced sound such as music played by the playback device.
  • the external sound output level from the speaker is raised to a level at which the user 1 can sufficiently recognize the external sound.
  • the headphones of the present disclosure have the following three modes.
  • (A) Normal mode (b) Conversation mode (c) Emergency mode These three modes are provided.
  • (b) conversation mode includes the following two types of conversation modes.
  • (B1) First conversation mode (corresponding to low ambient sound level)
  • B2) Second conversation mode (high ambient sound level compatible) These are the two modes.
  • Each of these modes is controlled by a mode control unit inside the headphone 10 according to a user operation on the operation unit 13, a user touch on the outer surface of the headphones (surface touch, one-point touch, two-point touch, etc.), or the presence or absence of user utterance. Can be switched.
  • the mode transition by (1) self-speech detection is a process of shifting from (a) normal mode to (b) conversation mode when speech by the user 1 wearing the headphones 10 is detected. Whether the mode control unit of the headphone 10 analyzes the acquired voices of the plurality of microphones (the outer microphone 11, the mouth microphone 12, and the inner microphone 15) provided in the headphone 10 and whether the user 1 wearing the headphone 10 speaks. Determine whether or not.
  • the sound source position is specified by analyzing the acquired voices of a plurality of microphones (outer surface microphone 11, mouth microphone 12, inner surface microphone 15), and if the sound source position is the mouth of the user wearing the headphones, it is determined that the user uttered. , (A) normal mode to (b) conversation mode.
  • Mode transition by two-point touch is a process of shifting from (a) normal mode to (b) conversation mode when a two-point touch on the outer surface of the headphones 10 is detected.
  • the mode control unit when it is detected based on the output analysis of the touch sensor array 15 that the user touches the two separated partial areas on the outer surface of the headphones, the mode control unit , (A) normal mode to (b) conversation mode transition processing is executed.
  • the mode transition by (1) self-speech end detection is a process of shifting from (b) conversation mode to (a) normal mode when utterance by the user 1 wearing the headphones 10 has not been detected for a certain period of time.
  • the mode control unit of the headphone 10 analyzes the acquired voices of the plurality of microphones (the outer microphone 11, the mouth microphone 12, and the inner microphone 15) included in the headphone 10, and the user 1 wearing the headphone 10 It is determined whether or not the utterance has been made.
  • the mode control unit of the headphones 10 shifts from the conversation mode (a) to (a). ) Switch to normal mode.
  • the threshold time can be changed by the user at various times.
  • Mode transition by two-point touch is a process of shifting from (b) conversation mode to (a) normal mode when a two-point touch on the outer surface of the headphones 10 is detected.
  • the mode control unit In the conversation mode setting state, when it is detected that the user has touched two separated partial areas on the outer surface of the headphones based on the output analysis of the touch sensor array 15, the mode control unit (b) the conversation mode. From (a) to the normal mode is executed.
  • Mode transition by a user operation such as start of reproduction shifts from (b) conversation mode to (a) normal mode when a user operation on the operation unit 13 of the headphones 10, for example, an operation such as start of reproduction is detected.
  • the mode control unit executes a transition process from (b) conversation mode to (a) normal mode when a user operation on the operation unit 13 of the headphone 10, for example, an operation such as reproduction start is detected.
  • the mode transition by (1) self-speech detection is a process of shifting from (c) emergency mode to (b) conversation mode when speech by the user 1 wearing the headphones 10 is detected in the emergency mode setting state.
  • the mode control unit of the headphone 10 analyzes the acquired voices of the plurality of microphones (the outer microphone 11, the mouth microphone 12, and the inner microphone 15) included in the headphone 10, and the user 1 wearing the headphone 10 It is determined whether or not the utterance has been made.
  • the sound source position is specified by analyzing the acquired voices of a plurality of microphones (outer surface microphone 11, mouth microphone 12, inner surface microphone 15), and if the sound source position is the mouth of the user wearing the headphones, it is determined that the user uttered. , (C) emergency mode to (b) conversation mode.
  • Mode transition by two-point touch is a process of shifting from (c) emergency mode to (b) conversation mode when a two-point touch on the outer surface of the headphones 10 is detected in the emergency mode setting state.
  • the mode control unit when it is detected based on the output analysis of the touch sensor array 15 that the user touches the two separated partial areas on the outer surface of the headphones, the mode control unit , (C) emergency mode to (b) conversation mode is executed.
  • the mode control unit executes processing for shifting from (b) conversation mode to (c) emergency mode.
  • FIG. 5 is a block diagram showing a configuration example of the headphones 10 of the present disclosure.
  • the headphone 10 includes a touch sensor array 101, an outer microphone 102a, an inner microphone 102b, a mouth microphone 102c, an operation unit 103, a communication unit 104, a mode control unit 105, and a speaker 106.
  • the touch sensor array 101 corresponds to the touch sensor array 15 described above with reference to FIG. As described above with reference to FIG. 3, the touch sensor array 101 has a configuration in which a large number of small touch sensors are arranged, and each touch sensor outputs a detection value individually. That is, the touch of the user on the outer surface of the headphone, that is, the type of touch, is detected by detecting the touch of the user on the outer surface of the headphone and analyzing the outputs of the large number of touch sensors that form the touch sensor array 101. Can also be determined.
  • the touch sensor array 101 for example, as described with reference to FIGS. 3A, 3 ⁇ /b>B ⁇ b>1 and 3 ⁇ /b>B ⁇ b>2, mode-controls a sensor output value capable of discriminating a surface touch, a one-point touch, a two-point touch, or the like. It is output to the unit 105.
  • the external microphone 102a corresponds to the external microphone 11 described above with reference to the external view of FIG.
  • the outer microphones 102a are provided on the outer surfaces of the left and right LR speakers of the headphone 10, respectively. That is, the outer microphone (L) is attached to the outer surface on the left speaker side, and the outer microphone (R) is attached to the outer surface on the right speaker side.
  • the inner microphone 102b corresponds to the inner microphone 15 described above with reference to the inner view of FIG.
  • the inner microphones 102b are provided on the inner surfaces of the left and right LR speakers of the headphone 10, respectively. That is, the inner microphone (L) is attached to the inner surface on the left speaker side, and the inner microphone (R) is attached to the inner surface on the right speaker side.
  • the mouth microphone 102c corresponds to the mouth microphone 12 described above with reference to FIG. 2(a) outer view and (b) side view.
  • the mouth microphone 12 may be provided on either one of the left and right LR speakers of the headphones 10.
  • the headphone 10 may be attached to both the left and right LR speakers.
  • the operation unit 103 corresponds to the operation unit 13 described above with reference to the side view of FIG.
  • the operation unit 103 is used when performing various operations such as start, stop, skip, volume adjustment, and mute of reproduced music.
  • the communication unit 104 performs communication with the reproduction device 20, receives the reproduction data from the reproduction device 20, and outputs the received data to the speaker 106 via the mode control unit 105. Furthermore, the communication unit 104 also receives user operation information for the playback device 20, and outputs it to the mode control unit 105.
  • the mode control unit 105 inputs various kinds of information from each component, executes mode setting and transition, and controls output to the speaker 106. The following pieces of information are input to the mode control unit 105. (1) Sensor detection information from the touch sensor array 101 (2) Microphone acquisition voice information from a microphone (external microphone 102a, internal microphone 102b, mouth microphone 102c) (3) User operation information from the operation unit 103 (4) Playback sound information via the communication unit 104, and further user operation information for the playback device 20
  • the mode control unit 105 inputs various information from each constituent unit, executes mode setting and transition, and controls output to the speaker 106.
  • the speaker 106 executes audio output according to the mode set by the mode control unit 105.
  • the output sound is, for example, one of the following settings. (1) Reproduced sound reproduced by the reproducing device 20, (2) A mixed sound of the reproduced sound and an external sound (ambient sound) acquired by the microphone (external microphone 102a, internal microphone 102b, mouth microphone 102c, (3) Microphone (external sound 102a, internal microphone 102b, external sound (ambient sound) acquired by mouth microphone 102c) Any of the above (1) to (3).
  • the mode control unit 105 of the headphones 10 at the time of this start executes the mode transition control of each step (S11 to S32) described above with reference to FIG. Below, the following two typical processing examples will be described with reference to flowcharts during these mode transitions.
  • Process 1 Processing example in which user utterance is detected in normal mode and transition to conversation mode is performed
  • Process 2 In normal mode, sensor detection information from the touch sensor array is input to perform mode transition
  • FIG. 6 is a flowchart illustrating a processing sequence executed by the mode control unit 105 of the headphones.
  • the process according to the flow described below can be executed according to a program stored in the storage unit of the headphones 10, for example, under the control of a control unit having a program execution function such as a CPU. To be executed.
  • the processing of each step of the flow shown in FIG. 6 will be sequentially described below.
  • Step S101 First, the mode control unit 105 of the headphones inputs the audio information acquired by the microphones (outer microphone, mouth microphone, inner microphone) in step S101.
  • Step S102 the mode control unit 105 of the headphones executes a self-speech detection process based on the input voice.
  • the mode control unit 105 of the headphones identifies the sound source position by analyzing the acquired voices of a plurality of microphones (outer microphone, mouth microphone, inner microphone). When the sound source position is at the mouth of the user wearing the headphones, it is determined that the user uttered.
  • step S103 the mode control unit 105 of the headphones determines whether or not there is a user utterance of the user wearing the headphones. If it is determined that there is a user utterance, the process proceeds to step S104. When it is determined that there is no user utterance, the process returns to the start and the normal mode is continued.
  • Steps S104 to S105 When it is determined in step S103 that the user wearing the headphones has spoken, the processes of steps S104 to S105 are executed.
  • the headphone mode control unit 105 analyzes the acquired voices of a plurality of microphones (external microphone, mouth microphone, internal microphone) to determine the external sound (ambient sound) level.
  • the external sound (ambient sound) level is above or below a preset threshold volume (for example, 80 dbA).
  • step S107 If the outside sound (ambient sound) level exceeds the preset threshold sound volume (for example, 80 dbA), the process proceeds to step S107, and the outside sound (ambient sound) level is below the preset threshold sound volume (for example, 80 dbA). If there is, go to step S106.
  • the preset threshold sound volume for example, 80 dbA
  • Step S106 When it is determined in step S105 that the outside sound (ambient sound) level is equal to or lower than the preset threshold sound volume (for example, 80 dBA), the process of step S106 is executed.
  • the preset threshold sound volume for example, 80 dBA
  • step S106 the headphone mode control unit 105 executes a process of shifting to the first conversation mode (corresponding to the low ambient sound level).
  • the first conversation mode (corresponding to the low ambient sound level) is a mode set when the ambient sound level is equal to or lower than the threshold value (for example, 80 dBA) and the environment is relatively quiet. ..
  • the mode control unit 105 of the headphones In the first conversation mode (corresponding to the low ambient sound level), the mode control unit 105 of the headphones outputs the sound reproduced by the reproduction device 20 and the external sound (ambient sound) together via the speaker.
  • the ASM normal (Ambient Sound Mode-Normal) mode and the voice (Voice) mode there are two types of external sound output modes in the “first conversation mode (corresponding to low ambient sound level): the ASM normal (Ambient Sound Mode-Normal) mode and the voice (Voice) mode.
  • the ASM normal mode is a mode in which acquired voices of a plurality of microphones (outer surface microphone, mouth microphone, inner surface microphone) mounted on the headphones 10 are directly output through the speaker.
  • the voice mode the signal processing that extracts and emphasizes the voice signal near the human voice frequency from the acquired voice of the microphone (external microphone, mouth microphone, internal microphone) and outputs the processed signal through the speaker It is a mode to do. It is possible for the user to set in advance which of these modes the external sound is to be output, and it is also possible to change it at any time.
  • Step S107 On the other hand, if it is determined in step S105 that the external sound (ambient sound) level exceeds the preset threshold sound volume (for example, 80 dBA), the process of step S107 is executed.
  • the preset threshold sound volume for example, 80 dBA
  • step S107 the mode control unit 105 of the headphones executes processing for shifting to the second conversation mode (corresponding to high ambient sound level).
  • the second conversation mode (corresponding to the high ambient sound level) is a mode when the ambient sound level exceeds the threshold value (for example, 80 dBA), and is set in the case of a relatively noisy environment. Mode.
  • the threshold value for example, 80 dBA
  • the mode control unit 105 of the headphones In the second conversation mode (corresponding to the high ambient sound level), the mode control unit 105 of the headphones outputs the sound reproduced by the reproduction device 20 and the external sound (ambient sound) together via the speaker.
  • a voice mode As described above, there are three types of external sound output modes in the “second conversation mode (high ambient sound level compatible)”: a voice mode, a beamforming mode, and a voice+beamforming mode. There is.
  • the voice mode executes signal processing that extracts and emphasizes a voice signal near the frequency of the human voice from the acquired voice of the microphone (external microphone, mouth microphone, internal microphone) and outputs the processed signal via the speaker. This is the output mode.
  • the beam forming mode is a mode in which signal processing for selecting and enhancing a sound coming from the front of the user wearing the headphones is executed and the processed signal is output via the speaker.
  • the voice+beamforming mode is a mode in which both the voice mode signal processing and the beamforming signal processing are executed and the processed signal is output via the speaker. It is possible for the user to set in advance which of these modes the external sound is to be output, and it is also possible to change it at any time.
  • Step S108 After shifting to the first conversation mode (corresponding to the low ambient sound level) or the second conversation mode (corresponding to the high ambient sound level) in step S106 or step S107, the mode control unit 105 executes the process of step S108. ..
  • step S108 the mode control unit 105 determines whether the occurrence of an event that satisfies the condition for transition from the current conversation mode to the normal mode or the condition for transition from the current conversation mode to the emergency mode is detected. judge.
  • step S108 When it is determined in step S108 that the occurrence of an event satisfying the normal mode shift condition is detected from the conversation mode which is the current mode, the process shifts to the initial state, that is, the normal mode at the start time. If it is determined in step S108 that the occurrence of an event satisfying the emergency mode transition condition has been detected from the current conversation mode, the process proceeds to step S109 to transition to the emergency mode.
  • step S108 when the occurrence of an event satisfying the normal mode shift condition or the emergency mode shift condition is not detected, the process returns to step S104, and the processes of step S104 and subsequent steps are repeated.
  • the event satisfying the condition for shifting from the conversation mode to the normal mode is the event of step S22 described above with reference to FIG. 4, and is the following event.
  • the mode control unit 105 shifts to the initial state, that is, the normal mode at the time of start when detecting any one of the above events (1) to (3).
  • the event satisfying the condition for shifting from the conversation mode to the emergency mode is the event of step S32 described above with reference to FIG. 4, and is the following event.
  • the mode control unit 105 When the mode control unit 105 detects that the user touches almost the entire outer surface of the headphones in the conversation mode setting state based on the output analysis of the touch sensor array 101, the mode control unit 105 shifts from (b) conversation mode to (c) emergency mode. To execute the process.
  • processing example 2 a processing example in the case of inputting sensor detection information from the touch sensor array and performing mode transition in the normal mode will be described.
  • the processing of each step of the flow shown in FIG. 7 will be sequentially described below.
  • Step S201 First, the mode control unit 105 of the headphones inputs sensor detection information from the touch sensor array 101 in step S201.
  • the touch sensor array 101 has a configuration in which a large number of small touch sensors are arranged, and each touch sensor outputs a detection value individually. That is, it is possible to detect the touch of the user on the outer surface of the headphone and also to determine the manner in which the user touches the outer surface of the headphone by analyzing the outputs of a large number of touch sensors that form the touch sensor array 101. it can. For example, as described with reference to FIGS. 3A, 3 ⁇ /b>B ⁇ b>1 and 3 ⁇ /b>B ⁇ b>2, a sensor output value capable of discriminating a surface touch, a one-point touch, a two-point touch, etc. is input to the mode control unit 105. ..
  • Step S202 the mode control unit 105 identifies which event of no touch, surface touch, one-point touch, and two-point touch, based on the sensor detection information.
  • Step S203 First, in step S203, the mode control unit 105 identifies whether there is a touch or not (a surface touch, a one-point touch, or a two-point touch) based on the sensor detection information.
  • step S201 When the identification result without touch is obtained, the process returns to step S201, and the input of the sensor detection information is continued. On the other hand, when the identification result with touch is obtained, the process proceeds to step S204.
  • Step S204 When the identification result with touch is obtained in step S203, the mode control unit 105 determines in step S204 whether the type of touch is a surface touch.
  • step S22 If it is determined that the type of touch is surface touch, the process proceeds to step S221. On the other hand, when it is determined that the type of touch is other than the surface touch, the process proceeds to step S205.
  • Step S205 If it is determined in step S204 that the type of touch is other than surface touch, the process proceeds to step S205.
  • the mode control unit 105 determines whether the type of touch is a one-point touch or a two-point touch.
  • step S206 When it is determined that the touch type is the one-point touch, the process proceeds to step S206. On the other hand, when it is determined that the touch type is the two-point touch, the process proceeds to step S207.
  • Step S206 When it is determined that the touch type is the one-point touch, the process proceeds to step S206, Playback control previously associated with one-point touch is executed. As described above with reference to FIG. 4, in the normal mode, the one-point touch can be used as the processing instruction for the reproduction start or the skip, and in step S106, the reproduction control processing associated with the one-point touch is performed. To be executed.
  • Step S207 On the other hand, if it is determined in step S205 that the touch type is two-point touch, the process proceeds to step S207. As described above with reference to FIG. 4, the two-point touch is an event that satisfies the condition for shifting to the conversation mode.
  • the mode control unit 105 of the headphones analyzes the acquired sound of the plurality of microphones (outer surface microphone, mouth microphone, inner surface microphone) to determine the external sound (ambient sound) level. Specifically, it is determined whether the external sound (ambient sound) level is above or below a preset threshold volume (for example, 80 dbA).
  • a preset threshold volume for example, 80 dbA
  • Step S208 is a branching process step, and when the external sound (ambient sound) level analyzed in step S207 exceeds a preset threshold volume (for example, 80 dbA), the process proceeds to step S210, and the external sound (ambient sound) level. Is less than a preset threshold volume (for example, 80 dBA), the process proceeds to step S209.
  • a preset threshold volume for example, 80 dBA
  • Step S209 When it is determined in step S208 that the outside sound (ambient sound) level is equal to or lower than the preset threshold sound volume (for example, 80 dBA), the process of step S209 is executed.
  • the preset threshold sound volume for example, 80 dBA
  • step S209 the mode control unit 105 of the headphones executes a process of shifting to the first conversation mode (corresponding to low ambient sound level).
  • the first conversation mode (corresponding to the low ambient sound level) is a mode set when the ambient sound level is equal to or lower than the threshold value (for example, 80 dBA) and the environment is relatively quiet. ..
  • the mode control unit 105 of the headphones In the first conversation mode (corresponding to the low ambient sound level), the mode control unit 105 of the headphones outputs the sound reproduced by the reproduction device 20 and the external sound (ambient sound) together via the speaker.
  • the ASM normal (Ambient Sound Mode-Normal) mode and the voice (Voice) mode there are two types of external sound output modes in the “first conversation mode (corresponding to low ambient sound level): the ASM normal (Ambient Sound Mode-Normal) mode and the voice (Voice) mode.
  • the ASM normal mode is a mode in which acquired voices of a plurality of microphones (outer surface microphone, mouth microphone, inner surface microphone) mounted on the headphones 10 are directly output through the speaker.
  • the voice mode the signal processing that extracts and emphasizes the voice signal near the human voice frequency from the acquired voice of the microphone (external microphone, mouth microphone, internal microphone) and outputs the processed signal through the speaker It is a mode to do. It is possible for the user to set in advance which of these modes the external sound is to be output, and it is also possible to change it at any time.
  • Step S210 On the other hand, if it is determined in step S208 that the external sound (ambient sound) level exceeds the preset threshold sound volume (for example, 80 dBA), the process of step S210 is executed.
  • the preset threshold sound volume for example, 80 dBA
  • step S210 the mode control unit 105 of the headphones executes processing for shifting to the second conversation mode (corresponding to high ambient sound level).
  • the second conversation mode (corresponding to the high ambient sound level) is a mode when the ambient sound level exceeds the threshold value (for example, 80 dBA), and is set in the case of a relatively noisy environment. Mode.
  • the threshold value for example, 80 dBA
  • the mode control unit 105 of the headphones In the second conversation mode (corresponding to the high ambient sound level), the mode control unit 105 of the headphones outputs the sound reproduced by the reproduction device 20 and the external sound (ambient sound) together via the speaker.
  • a voice mode As described above, there are three types of external sound output modes in the “second conversation mode (high ambient sound level compatible)”: a voice mode, a beamforming mode, and a voice+beamforming mode. There is.
  • the voice mode executes signal processing that extracts and emphasizes a voice signal near the frequency of the human voice from the acquired voice of the microphone (external microphone, mouth microphone, internal microphone) and outputs the processed signal via the speaker. This is the output mode.
  • the beam forming mode is a mode in which signal processing for selecting and enhancing a sound coming from the front of the user wearing the headphones is executed and the processed signal is output via the speaker.
  • the voice+beamforming mode is a mode in which both the voice mode signal processing and the beamforming signal processing are executed and the processed signal is output via the speaker. It is possible for the user to set in advance which of these modes the external sound is to be output, and it is also possible to change it at any time.
  • Step S211 After shifting to the first conversation mode (corresponding to the low ambient sound level) or the second conversation mode (corresponding to the high ambient sound level) in step S209 or step S210, the mode control unit 105 executes the process of step S211. ..
  • step S211 the mode control unit 105 determines whether the occurrence of an event that satisfies the condition for transition from the current conversation mode to the normal mode or the condition for transition from the current conversation mode to the emergency mode is detected. judge.
  • step S211 When it is determined in step S211 that the occurrence of an event satisfying the normal mode transition condition is detected from the conversation mode which is the current mode, the initial state, that is, the normal mode at the time of start is transitioned. If it is determined in step S211 that the occurrence of an event satisfying the emergency mode transition condition is detected from the conversation mode, which is the current mode, the emergency mode is entered.
  • the emergency mode is the same mode as the emergency mode shown in step S221 that shifts when a surface touch is detected in the determination of step S204 in the flow, and the process of step S222 is executed after shifting to the emergency mode.
  • step S211 when the occurrence of an event satisfying the normal mode transition condition or the emergency mode transition condition is not detected, the process returns to step S207, and the processes from step S207 onward are repeated.
  • the event satisfying the condition for shifting from the conversation mode to the normal mode is the event of step S22 described above with reference to FIG. 4, and is the following event.
  • the mode control unit 105 shifts to the initial state, that is, the normal mode at the time of start when detecting any one of the above events (1) to (3).
  • the event satisfying the condition for shifting from the conversation mode to the emergency mode is the event of step S32 described above with reference to FIG. 4, and is the following event.
  • the mode control unit 105 When the mode control unit 105 detects that the user touches almost the entire outer surface of the headphones in the conversation mode setting state based on the output analysis of the touch sensor array 101, the mode control unit 105 shifts from (b) conversation mode to (c) emergency mode. To execute the process.
  • Steps S221 to S222 Finally, the processing of steps S221 to S222, which is the processing after shifting to the emergency mode, will be described.
  • step S204 When it is determined in step S204 that the type of touch is surface touch, the mode control unit 105 executes a mode transition process from the normal mode to the emergency mode in step S205. Further, in step S211, an event that satisfies the condition for shifting from the conversation mode to the emergency mode, that is, (1) Surface Touch Detection by User When the above event is detected, the mode control unit 105 executes a mode transition process from the conversation mode to the emergency mode in step S211.
  • step S222 it is determined whether or not an event that satisfies the conditions for shifting from the current emergency mode to another mode (normal mode or conversation mode) has occurred.
  • step S222 If it is determined in step S222 that the occurrence of an event that satisfies the normal mode shift condition from the emergency mode is detected, the process shifts to the initial state, that is, the normal mode at the start point. When it is determined in step S222 that the occurrence of an event satisfying the conversation mode transition condition from the emergency mode is detected, the process proceeds to step S207. If it is determined in step S222 that an event that satisfies the condition for transitioning from the current emergency mode to another mode (normal mode or conversation mode) has not occurred, the process returns to step S221 and the emergency mode is set. continue.
  • the event that satisfies the condition for shifting from the emergency mode to the normal mode is the event of step S12 described above with reference to FIG. 4, and is the following event. (1) Detection of surface touch release by the user
  • the mode control unit 105 When the mode control unit 105 detects that the user releases the surface touch on the outer surface of the headphones in the emergency mode setting state based on the output analysis of the touch sensor array 101, the mode control unit 105 shifts from (c) emergency mode to (a) normal mode. To execute the process.
  • the event that satisfies the condition for shifting from the emergency mode to the conversation mode is the event of step S31 described above with reference to FIG. 4, and is the following event.
  • step S207 That is, the mode is changed to the conversation mode.
  • FIG. 8 is a diagram showing a table summarizing (A) current modes of the headphones 10 of the present disclosure and mode transitions based on occurrence events in each current mode.
  • A Current mode
  • B Mode transition based on microphone input information
  • C Mode transition based on touch sensor detection information
  • the mode control unit 105 executes “(B) mode transition based on microphone input information” as follows.
  • P2 When self-utterance is detected and the ambient sound level is equal to or lower than the threshold value (for example, 80 dBA), the mode shifts to the first conversation mode (corresponding to the low ambient sound level).
  • a threshold value for example, 80 dBA
  • the mode control unit 105 executes “(C) mode transition based on touch sensor detection information” as follows.
  • (q1) surface touch is detected shift to the emergency mode.
  • (Q2) When surface touch release is detected no processing (normal mode continues).
  • (Q3) When a one-point touch is detected prescribed reproduction control (reproduction start, etc.) is executed (normal mode continues).
  • (Q4) When two-point touch is detected Transition to conversation mode.
  • the mode control unit 105 executes “(B) mode transition based on microphone input information” as follows.
  • P2 When self-utterance is detected and the ambient sound level is equal to or lower than the threshold value (for example, 80 dBA), the mode shifts to the first conversation mode (corresponding to the low ambient sound level).
  • a threshold value for example, 80 dBA
  • the mode control unit 105 executes “(C) mode transition based on touch sensor detection information” as follows.
  • (q1) surface touch is detected no processing (urgent mode continued).
  • (Q2) When the surface touch release is detected shift to the normal mode.
  • (Q3) When a one-point touch is detected no processing (the emergency mode continues).
  • (Q4) When two-point touch is detected Transition to conversation mode.
  • the mode control unit 105 executes “(B) mode transition based on microphone input information” as follows.
  • the mode control unit 105 executes “(C) mode transition based on touch sensor detection information” as follows.
  • (q1) surface touch is detected shift to the emergency mode.
  • (Q2) When the surface touch release is detected no processing (first conversation mode (low ambient sound level compatible) continues).
  • (Q3) When a one-point touch is detected default playback control is executed (shift to normal mode).
  • (Q4) When a two-point touch is detected shift to the normal mode.
  • the mode control unit 105 executes “(B) mode transition based on microphone input information” as follows.
  • P2 When self-utterance is detected and the ambient sound level is equal to or lower than the threshold value (for example, 80 dBA), the mode shifts to the first conversation mode (corresponding to the low ambient sound level).
  • the mode control unit 105 executes “(C) mode transition based on touch sensor detection information” as follows.
  • (q1) surface touch is detected shift to the emergency mode.
  • (Q2) When the surface touch release is detected no processing (second conversation mode (high ambient sound level compatible) continues).
  • (Q3) When a one-point touch is detected default playback control is executed (shift to normal mode).
  • (Q4) When a two-point touch is detected shift to the normal mode.
  • the mode transition process executed by the mode control unit 105 of the headphones 10 of the present disclosure can be summarized as the process shown in FIG. 8.
  • this mode transition processing example is an example, and other settings can be made.
  • a one-point touch and a two-point touch are distinguished, and the one-point touch is used for reproduction control in the normal mode.
  • the mode is switched to the conversation mode or the conversation mode is changed to the normal mode. It may be configured to perform the transition to.
  • An example of mode transition with this setting is shown in FIG.
  • the mode transition when (q3) one-point touch is detected is the same as the mode transition when (q4) two-point touch is detected.
  • the mode transition similar to that of the two-point touch may be performed in the case of the one-point touch.
  • each touch such as a one-point touch, a two-point touch, and a three-point touch is identified and different mode transitions are executed according to each touch.
  • FIG. 10 is an example of the hardware configuration of the headphones described in the above embodiments.
  • a CPU (Central Processing Unit) 301 functions as a control unit or a data processing unit that executes various processes according to a program stored in a ROM (Read Only Memory) 302 or a storage unit 308. For example, the processing according to the sequence described in the above embodiment is executed. Specifically, the processing of the mode control unit 105 described above is executed.
  • a RAM (Random Access Memory) 303 stores programs and data executed by the CPU 301. The CPU 301, the ROM 302, and the RAM 303 are connected to each other by a bus 304.
  • the CPU 301 is connected to the input/output interface 305 via the bus 304, and the input/output interface 305 is connected to the input unit 306 including a microphone, a sensor, an operation unit, and the like, and the output unit 307 including a speaker and the like.
  • the CPU 301 executes various kinds of processing according to the input information from the input unit 306, and outputs the processing result to the output unit 307. Specifically, the output sound according to the mode transition is output to the speaker.
  • the storage unit 308 connected to the input/output interface 305 stores programs executed by the CPU 301 and various data.
  • the communication unit 309 functions as a transmission/reception unit for Wi-Fi communication, Bluetooth (registered trademark) (BT) communication, and other data communication via a network such as the Internet or a local area network, and communicates with an external device.
  • Wi-Fi Wi-Fi
  • BT registered trademark
  • a microphone that captures the external sound that is the ambient sound of the headphones, It has a mode control unit that controls the output sound of the speaker of the headphone according to the mode, The mode control unit, Headphones that perform mode control to shift to a conversation mode in which external sound acquired by the microphone is output from the speaker when the utterance of the user wearing the headphone is detected by analyzing the input sound of the microphone.
  • the headphones further include It has a touch sensor array capable of determining the type of touch operation on the outer surface of the headphones, The mode control unit, The headphones according to (1), wherein when a touch operation of a predetermined touch type is detected by the output analysis of the touch sensor array, mode control is performed to shift to the conversation mode.
  • the mode control unit is The headphones according to any one of (1) to (3), which determines whether the level of the external sound exceeds a specified level by analyzing the input sound of the microphone, and executes different control depending on the determination result.
  • the mode control unit By the analysis of the input sound of the microphone, when it is determined that the level of the external sound is below the specified level, (A) ASM sound mode (Ambient Sound Mode-Normal) in which the acquired sound of the microphone is output to a speaker, or (B) A voice mode in which an audio signal in the vicinity of the frequency of a human voice is extracted from the acquired voice of the microphone and emphasized and a processed signal is output to a speaker,
  • ASM sound mode Ambient Sound Mode-Normal
  • a voice mode in which an audio signal in the vicinity of the frequency of a human voice is extracted from the acquired voice of the microphone and emphasized and a processed signal is output to a speaker
  • the mode control unit When it is determined that the level of the external sound exceeds the specified level by analyzing the input sound of the microphone, (A) A voice mode in which an audio signal in the vicinity of the frequency of a human voice is extracted from the acquired audio of the microphone and emphasized and a processed signal is output to a speaker, (B) a beamforming mode for selecting a sound from the front of the user wearing the headphones and outputting the emphasized processed signal to a speaker,
  • the headphones according to (4) or (5), which execute a mode control for setting either of the modes (a) and (b) or the mixed mode of (a) and (b).
  • the mode control unit is The conversation mode in which the external sound acquired by the microphone is output from the speaker, The external sound acquired by the microphone is not output from the speaker, or is a configuration for performing a mode switching process with a normal mode for executing low-level external sound output,
  • the mode control unit In the setting state of the normal mode, The headphone according to any one of (1) to (8), which executes a mode control to shift to the conversation mode when an utterance of a user wearing the headphone is detected by analyzing an input sound of the microphone.
  • the mode control unit In the setting state of the conversation mode, The headphones according to (9), wherein when the utterance of the user wearing the headphones is not detected for a predetermined time, the mode control is performed to shift to the normal mode.
  • the headphones further include It has a touch sensor array capable of determining the type of touch operation on the outer surface of the headphones,
  • the mode control unit When a touch operation of a predetermined touch type is detected by the output analysis of the touch sensor array, mode control is performed to shift to an emergency mode in which the external sound acquired by the microphone is output from the speaker (1) to (10) The headphones according to any one of the above.
  • the mode control unit is In the setting state of the emergency mode, The headphones according to (11) or (12), wherein when the utterance of the user wearing the headphones is detected by analyzing the input sound of the microphone, mode control is performed to shift to the conversation mode.
  • the headphones are A microphone that captures the external sound that is the ambient sound of the headphones, It has a mode control unit for controlling the output sound of the speaker of the headphone according to the mode, The mode control unit, When the utterance of the user wearing the headphones is detected by analyzing the input sound of the microphone, an acoustic signal processing method for executing a mode control of shifting to the conversation mode in which the external sound acquired by the microphone is output from the speaker. ..
  • a program for executing control of speaker output sound in headphones The headphones are A microphone that captures the external sound that is the ambient sound of the headphones, It has a mode control unit that controls the output sound of the speaker of the headphone according to the mode, The program, the mode control unit, A program for executing a mode control for shifting to a conversation mode in which an external sound acquired by the microphone is output from the speaker when the utterance of the user wearing the headphones is detected by analyzing the input sound of the microphone.
  • the series of processes described in the specification can be executed by hardware, software, or a composite configuration of both.
  • the program in which the processing sequence is recorded is installed in the memory in the computer incorporated in the dedicated hardware and executed, or the program is stored in a general-purpose computer capable of executing various processing. It can be installed and run.
  • the program can be recorded in a recording medium in advance.
  • the program can be received via a network such as a LAN (Local Area Network) or the Internet and installed in a recording medium such as a built-in hard disk.
  • system is a logical set configuration of a plurality of devices, and is not limited to a system in which the devices of the respective configurations are in the same housing.
  • the microphone includes a microphone that captures an external sound that is the ambient sound of the headphones and a mode control unit that controls the output sound of the speaker of the headphones according to the mode.
  • the mode control unit shifts to a conversation mode in which external sound is output from the speaker.
  • the mode shifts to the conversation mode.
  • a headphone capable of performing mode control for shifting to a conversation mode in which external sound is output from a speaker is realized without performing a troublesome user operation.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Headphones And Earphones (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)

Abstract

煩わしいユーザ操作を行うことなく、外音をスピーカから出力する会話モードに移行するモード制御を可能としたヘッドホンを実現する。ヘッドホンの周囲音である外音を取り込むマイクと、ヘッドホンのスピーカの出力音をモードに応じて制御するモード制御部を有する。モード制御部は、マイク入力音解析により、ヘッドホン装着ユーザの発話を検出した場合、外音をスピーカから出力する会話モードに移行する。さらに、ヘッドホン外面に対するタッチ操作の種類を判別可能なタッチセンサアレイの出力解析により、予め規定したタッチ種類のタッチ操作を検出した場合にも会話モードに移行する。

Description

ヘッドホン、および音響信号処理方法、並びにプログラム
 本開示は、ヘッドホン、および音響信号処理方法、並びにプログラムに関する。さらに詳細には、ユーザ発話に応じて外音をヘッドホンのスピーカから出力するモード変更を可能としたヘッドホン、および音響信号処理方法、並びにプログラムに関する。
 昨今、外音取込機能を装備したヘッドホンが多く利用されている。すなわち、ヘッドホンを装着して音楽を聞く場合、外音(周囲音)を完全に遮断することなく、マイクで取り込んだ外音を音楽に併せてヘッドホンスピーカに出力する機能を持つヘッドホンである。例えば、特許文献1(特開2009-021826号公報)に外音取り込み機能を持つヘッドホンについての記載がある。
 上記特許文献1には、外音を取り込むモードと取り込まないモードをユーザによるスイッチ操作で切り替える構成を開示している。
 しかし、上記特許文献1に記載の構成は、外音取り込みモードに切り替える際、ユーザがスイッチの位置を探してスイッチ操作を行わなければならず、煩わしいという問題がある。
特開2009-021826号公報
 本開示は、例えば上記問題に鑑みてなされたものであり、スイッチの位置を探すといったユーザ負担を発生させることなく、最適タイミングで外音取り込みモードへ切り替え可能としたヘッドホン、および音響信号処理方法、並びにプログラムを提供するものである。
 本開示の一実施例は、ユーザ発話に応じて即座に外音取り込みモードへの切り替えを行うヘッドホン、および音響信号処理方法、並びにプログラムを提供するものである。
 本開示の第1の側面は、
 ヘッドホンの周囲音である外音を取り込むマイクと、
 前記ヘッドホンのスピーカの出力音をモードに応じて制御するモード制御部を有し、
 前記モード制御部は、
 前記マイクの入力音の解析により、前記ヘッドホンを装着したユーザの発話を検出した場合、前記マイクによって取得された外音を前記スピーカから出力する会話モードに移行するモード制御を実行するヘッドホンにある。
 さらに、本開示の第2の側面は、
 ヘッドホンにおけるスピーカ出力音の制御を実行する音響信号処理方法であり、
 前記ヘッドホンは、
 ヘッドホンの周囲音である外音を取り込むマイクと、
 前記ヘッドホンのスピーカの出力音をモードに応じて制御するモード制御部を有し、
 前記モード制御部が、
 前記マイクの入力音の解析により、前記ヘッドホンを装着したユーザの発話を検出した場合、前記マイクによって取得された外音を前記スピーカから出力する会話モードに移行するモード制御を実行する音響信号処理方法にある。
 さらに、本開示の第3の側面は、
 ヘッドホンにおけるスピーカ出力音の制御を実行させるプログラムであり、
 前記ヘッドホンは、
 ヘッドホンの周囲音である外音を取り込むマイクと、
 前記ヘッドホンのスピーカの出力音をモードに応じて制御するモード制御部を有し、
 前記プログラムは、前記モード制御部に、
 前記マイクの入力音の解析により、前記ヘッドホンを装着したユーザの発話を検出した場合、前記マイクによって取得された外音を前記スピーカから出力する会話モードに移行するモード制御を実行させるプログラムにある。
 なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
 本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 本開示の一実施例の構成によれば、煩わしいユーザ操作を行うことなく、外音をスピーカから出力する会話モードに移行するモード制御を可能としたヘッドホンが実現される。
 具体的には、例えば、ヘッドホンの周囲音である外音を取り込むマイクと、ヘッドホンのスピーカの出力音をモードに応じて制御するモード制御部を有する。モード制御部は、マイク入力音解析により、ヘッドホン装着ユーザの発話を検出した場合、外音をスピーカから出力する会話モードに移行する。さらに、ヘッドホン外面に対するタッチ操作の種類を判別可能なタッチセンサアレイの出力解析により、予め規定したタッチ種類のタッチ操作を検出した場合にも会話モードに移行する。
 本構成により、煩わしいユーザ操作を行うことなく、外音をスピーカから出力する会話モードに移行するモード制御を可能としたヘッドホンが実現される。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
本開示のヘッドホンの構成例について説明する図である。 ヘッドホンの詳細構成例について説明する図である。 ヘッドホンに備えられたタッチセンサアレイについて説明する図である。 本開示のヘッドホンにおいて実行されるモード遷移について説明する図である。 本開示のヘッドホンの構成例について説明する図である。 ヘッドホンのモード制御部が実行する処理シーケンスについて説明するフローチャートを示す図である。 ヘッドホンのモード制御部が実行する処理シーケンスについて説明するフローチャートを示す図である。 ヘッドホンのモード制御部が実行するモード遷移について説明する図である。 ヘッドホンのモード制御部が実行するモード遷移について説明する図である。 本開示のヘッドホンのハードウェア構成例について説明する図である。
 以下、図面を参照しながら本開示のヘッドホン、および音響信号処理方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行なう。
 1.本開示のヘッドホンの概要について
 2.本開示のヘッドホンにおいて実行されるモード遷移について
 2-1.(a)通常モードと(c)緊急モード間のモード遷移について
 2-2.(a)通常モードと(b)会話モード間のモード遷移について
 2-3.(b)会話モードと(c)緊急モード間のモード遷移について
 3.ヘッドホンの構成例について
 4.ヘッドホンのモード制御部が実行する処理シーケンスについて
 4-1.(処理例1)通常モードにおいてユーザ発話を検出して会話モードに遷移する処理例
 4-2.(処理例2)通常モードにおいて、タッチセンサアレイからのセンサ検出情報を入力してモード遷移を行う場合の処理例
 5.モード制御部の実行するモード遷移のまとめ
 5-1.現在モードが通常モードの場合のモード遷移について
 5-2.現在モードが緊急モードの場合のモード遷移について
 5-3.現在モードが第1会話モード(低周囲音レベル対応)の場合のモード遷移について
 5-4.現在モードが第2会話モード(高周囲音レベル対応)の場合のモード遷移について
 6.ヘッドホンのハードウェア構成例について
 7.本開示の構成のまとめ
  [1.本開示のヘッドホンの概要について]
 まず、図1以下を参照して、本開示のヘッドホンの概要について説明する。図1にはヘッドホン10を装着したユーザ1とユーザ1の所有する再生装置(ユーザ端末)20を示している。
 再生装置(ユーザ端末)20において再生される再生音、例えば音楽データが、ワイヤレス通信によりヘッドホン10に送信され、ヘッドホンの左右(LR)スピーカから音楽再生音が出力される。
 図2にヘッドホン10の詳細構成例を示す。図2には、ヘッドホン10の(a)外面図、(b)側面図、(c)内面図を示している。
 (a)外面図は、ユーザ1の耳に当たらない外側の面である。図2(a)に示すように、ヘッドホン外面には、外面マイク11と、口元マイク12が備えられている。外面マイク11は外音(周囲音)の取り込みを行うマイクである。
 口元マイク12は、主としてユーザ1の発話音を取得する目的で備えられている。口元マイク12はユーザ1の口に近い位置に設置される。なお、口元マイク12からも外音(周囲音)の取り込みは行われる。
 また(b)側面図に示すように、ヘッドホン側面にはユーザによる操作可能なスイッチや、ボタン等によって構成される操作部13が設けられている。
 この操作部13は、例えば再生音楽の開始、停止、スキップ、ボリューム調整、ミュート等の様々な操作を行う場合に利用される。
 また(b)側面図に示すように、口元マイク12は、ヘッドホン外面から側面にかけて設定され、ユーザ1の発話を効率よく取り込む設定となっている。なお、口元マイク12は、ヘッドホン外面のみに設置してもよい。
 図2(c)内面図は、ユーザ1の耳に当接する部分である。図2(c)に示すようにヘッドホン内面には、スピーカ14が設けられている。スピーカ14は再生音の出力の他、マイクで取得した音声の出力にも利用される。
 図2(c)に示すようにヘッドホン内面にも内面マイク15が設けられている。内面マイク15も外音取り込み用のマイクである。
 次に図3を参照して、ヘッドホン10に備えられたタッチセンサアレイ15について説明する。図3に示すように、ヘッドホン10にはタッチセンサアレイ15が内蔵されている。
 タッチセンサアレイ15は、小さなタッチセンサを多数、配列した構成であり、各タッチセンサが個別に検出値を出力する。すなわち、ヘッドホンの外面にユーザが触れたことを検出する。さらに、タッチセンサアレイ15を構成する多数のタッチセンサの出力を解析することでヘッドホンの外面に対するユーザの手の触れ方、すなわちタッチの種類についても判別することができる。
 例えば、図3(a)に示すようにユーザの手がヘッドホン10の外面全体を覆うように触った場合には、面タッチとして検出する。
 また、図3(b)に示すようにユーザの指がヘッドホン10の外面の一部に触れた場合には、点タッチとして検出する。
 また、図3(b1),(b2)に示すようにユーザの1本の指がヘッドホン10の外面の1点に触れた場合には、1点タッチとして検出し、ユーザの2本の指が離間する2点に触れた場合には、2点タッチとして検出する。
 これらのタッチ種類の判別は、タッチセンサアレイ15を構成する多数のタッチセンサの出力を解析することで実現できる。
  [2.本開示のヘッドホンにおいて実行されるモード遷移について]
 次に、本開示のヘッドホンにおいて実行されるモード遷移について説明する。
 図4は、本開示のヘッドホン10において実行されるモード遷移について説明する図である。
 図4に示すように、本開示のヘッドホン10は、以下の3つのモードを有する。
 (a)通常モード
 (b)会話モード
 (c)緊急モード
 (a)通常モードは、再生装置によって再生される音楽を聞くモードである。この通常モードでは、マイクによる外音取り込みと、スピーカからの外音出力は停止される。あるいは、マイクによる外音取り込みは行うが、スピーカからの外音出力は一定レベル以下に制限される。なお、通常モードにおける外音の出力レベルはユーザによって設定可能である。
 また、(a)通常モードでは、ユーザは操作部14の操作により、音楽再生の再生制御、例えば再生開始、停止、スキップ、ボリューム調整、ミュート等、様々な処理が可能である。
 また、先に図3(b1)を参照して説明した1点タッチによる再生開始、停止、スキップ等の処理も行うことができる。
 (b)会話モードはヘッドホン10を装着したユーザが発話を行った場合等に(a)通常モードから移行するモードである。
 ヘッドホン10内部のモード制御部は、ヘッドホン10に備えられた複数のマイク(外面マイク11、口元マイク12、内面マイク15)の取得音声の解析により、ヘッドホン10を装着したユーザ1が発話を行ったと判定した際、(a)通常モードから(b)会話モードに移行する。
 (b)会話モードでは、再生装置によって再生される音楽に併せて、マイクによる外音取り込みと、スピーカからの外音出力を実行する。スピーカからの外音出力レベルはユーザ1が外音を十分認識できるレベルに上げられる。すなわち通常の会話が可能なレベルに設定される。なお、会話モードでは、会話に特化する為、再生音楽をミュート、もしくは停止させた状態で、マイクによる外音取込と、スピーカからの外音出力を実行してもよい。
 なお、(b)会話モードには2種類の会話モードがある。図に示す、
 (b1)第1会話モード(低周囲音レベル対応)
 (b2)第2会話モード(高周囲音レベル対応)
 これらの2つのモードである。
 (b1)第1会話モード(低周囲音レベル対応)は、周囲音レベルがしきい値(例えば80dBA)以下であり、比較的、静かな環境の場合に設定されるモードである。第1会話モード(低周囲音レベル対応)では、再生音楽に併せて、もしくは、再生音楽をミュート、もしくは、停止させて外音(周囲音)をスピーカから出力する。
 なお、(b1)第1会話モード(低周囲音レベル対応)における外音の出力態様として、ASMノーマル(Ambient Sound Mode-Normal)モードと、ボイス(Voice)モードの2種類がある。
 ASMノーマルモードは、ヘッドホン10に装着された複数のマイク(外面マイク11、口元マイク12、内面マイク15)の取得音声を、そのままスピーカ14を介して出力するモードである。
 ボイスモードは、マイク(外面マイク11、口元マイク12、内面マイク15)の取得音声から人の声の周波数付近の音声信号を抽出して強調する信号処理を実行して処理後の信号を、スピーカ14を介して出力するモードである。
 これら、いずれのモードで外音を出力するかについては予めユーザが設定可能であり、また随時、変更することも可能である。
 一方、(b2)第2会話モード(高周囲音レベル対応)は、周囲音レベルがしきい値(例えば80dBA)を超え、比較的、うるさい環境の場合に設定されるモードである。第2会話モードにおいても第1会話モードと同様、再生音楽に併せて、もしくは、再生音楽をミュート、もしくは、停止させて外音(周囲音)をスピーカから出力する。
 なお、(b2)第2会話モード(高周囲音レベル対応)における外音の出力態様として、ボイス(Voice)モードと、ビームフォーミング(Beamforming)モードと、ボイス+ビームフォーミングモードの3種類がある。
 ボイスモードは、マイク(外面マイク11、口元マイク12、内面マイク15)の取得音声から人の声の周波数付近の音声信号を抽出して強調する信号処理を実行して処理後の信号を、スピーカ14を介して出力するモードである。
 ビームフォーミングモードは、ヘッドホン10を装着したユーザ1の前方からの音を選択して強調する信号処理を実行して処理後の信号を、スピーカ14を介して出力するモードである。
 ボイス+ビームフォーミングモードは、ボイスモードの信号処理とビームフォーミングの信号処理の双方を実行して処理後の信号を、スピーカ14を介して出力するモードである。
 これら、いずれのモードで外音を出力するかについては予めユーザが設定可能であり、また随時、変更することも可能である。
 これら、(b1)第1会話モード(低周囲音レベル対応)と、(b2)第2会話モード(高周囲音レベル対応)とのモード遷移は、ヘッドホン10内部のモード制御部がマイク取得音に基づいて外音(周囲音)のレベルを判定して実行する。具体的な処理シーケンスについては、後段でフローチャートを参照して説明する。
 (c)緊急モードは、ユーザ発話の有無とは無関係に、ヘッドホン10を装着したユーザ1が外音を聞きたい場合に移行可能なモードである。
 (c)緊急モードは、(b)通常モードにおいてユーザ1がヘッドホン10の外面を面タッチすることで移行することができる。
 (c)緊急モードでは、再生装置によって再生される音楽等の再生音に併せて、マイクによる外音取り込みと、スピーカからの外音出力を実行する。スピーカからの外音出力レベルはユーザ1が外音を十分認識できるレベルに上げられる。
 このように、本開示のヘッドホンは、以下の3つのモードを有する。
 (a)通常モード
 (b)会話モード
 (c)緊急モード
 これら3つのモードを有する。さらに(b)会話モードには以下の2種類の会話モードがある。
 (b1)第1会話モード(低周囲音レベル対応)
 (b2)第2会話モード(高周囲音レベル対応)
 これらの2つのモードである。
 これら各モードは、操作部13に対するユーザ操作、またはヘッドホン外面に対するユーザタッチ(面タッチ、1点タッチ、2点タッチ等)、またはユーザ発話の有無等に応じて、ヘッドホン10内部のモード制御部によって切り替えられる。
 図4のモード遷移図には、各モードの切り替え条件を複数の点線枠で示している。
 以下、これらのモード切り替え条件について説明する。
  [2-1.(a)通常モードと(c)緊急モード間のモード遷移について]
 まず、(a)通常モードと(c)緊急モード間のモード遷移について説明する。
 (S11)
 (a)通常モードから(c)緊急モードへの移行は、ユーザによる面タッチを検出した場合に実行される。図3(a)を参照して説明したように、ユーザがヘッドホン外面のほぼ全体を触れたことがタッチセンサアレイ15の出力解析に基づいて検出された場合、モード制御部は、(a)通常モードから(c)緊急モードへ移行する。
 (S12)
 一方、(c)緊急モードから(a)通常モードへの移行は、ユーザによる面タッチの解除を検出した場合に実行される。ユーザがヘッドホン外面のほぼ全体を触れる面タッチを解除したことがタッチセンサアレイ15の出力解析に基づいて検出された場合、モード制御部は、(c)緊急モードから(a)通常モードへ移行する。
  [2-2.(a)通常モードと(b)会話モード間のモード遷移について]
 次に、(a)通常モードと(b)会話モード間のモード遷移について説明する。
 (S21)
 (a)通常モードから(b)会話モードへの移行は、以下のいずれかの事象を検出した場合に実行される。
 (1)自己発話検出
 (2)2点タッチ
 (1)自己発話検出によるモード遷移は、ヘッドホン10を装着したユーザ1による発話が検出された場合に(a)通常モードから(b)会話モードへ移行する処理である。
 ヘッドホン10のモード制御部は、ヘッドホン10に備えられた複数のマイク(外面マイク11、口元マイク12、内面マイク15)の取得音声を解析して、ヘッドホン10を装着したユーザ1による発話がなされたか否かを判定する。
 例えば、複数のマイク(外面マイク11、口元マイク12、内面マイク15)の取得音声を解析して音源位置を特定し、音源位置がヘッドホン装着ユーザの口元である場合、ユーザ発話があったと判定し、(a)通常モードから(b)会話モードへ移行する。
 (2)2点タッチによるモード遷移は、ヘッドホン10の外面に対する2点タッチが検出された場合に(a)通常モードから(b)会話モードへ移行する処理である。
 図3(b2)を参照して説明したように、ユーザがヘッドホン外面の2つの離間した一部領域を触れたことがタッチセンサアレイ15の出力解析に基づいて検出された場合、モード制御部は、(a)通常モードから(b)会話モードへの移行処理を実行する。
 (S22)
 一方、(b)会話モードから(a)通常モードへの移行は、以下のいずれかの事象を検出した場合に実行される。
 (1)自己発話終了検出
 (2)2点タッチ
 (3)再生開始等のユーザ操作
 (1)自己発話終了検出によるモード遷移は、ヘッドホン10を装着したユーザ1による発話が一定時間検出されなかった場合に(b)会話モードから(a)通常モードへ移行する処理である。
 前述したように、ヘッドホン10のモード制御部は、ヘッドホン10に備えられた複数のマイク(外面マイク11、口元マイク12、内面マイク15)の取得音声を解析して、ヘッドホン10を装着したユーザ1による発話がなされたか否かを判定する。
 ヘッドホン10のモード制御部は、(b)会話モードへ移行後、予め規定したしきい値時間(例えば30秒)以上の間、ユーザ発話が検出されなかった場合、(b)会話モードから(a)通常モードへ移行する。しきい値時間は、ユーザが様々な時間に変更することが可能である。
 なお、図4の(S23)に示すように、(b)会話モードへ移行後において、ヘッドホン10を装着したユーザ1による発話が、しきい値時間未満の間隔で検出されている場合は、会話モードは継続される。
 予め規定したしきい値時間以上の間、ユーザ発話が検出されなかった場合に限り、(b)会話モードから(a)通常モードへの移行処理が実行される。
 (2)2点タッチによるモード遷移は、ヘッドホン10の外面に対する2点タッチが検出された場合に(b)会話モードから(a)通常モードへ移行する処理である。
 (b)会話モード設定状態において、ユーザがヘッドホン外面の2つの離間した一部領域を触れたことがタッチセンサアレイ15の出力解析に基づいて検出した場合、モード制御部は、(b)会話モードから(a)通常モードへの移行処理を実行する。
 (3)再生開始等のユーザ操作によるモード遷移は、ヘッドホン10の操作部13に対するユーザ操作、例えば再生開始等の操作が検出された場合に(b)会話モードから(a)通常モードへ移行する処理である。
 モード制御部は、ヘッドホン10の操作部13に対するユーザ操作、例えば再生開始等の操作が検出された場合に(b)会話モードから(a)通常モードへの移行処理を実行する。
  [2-3.(b)会話モードと(c)緊急モード間のモード遷移について]
 次に、(b)会話モードと(c)緊急モード間のモード遷移について説明する。
 (S31)
 (c)緊急モードから(b)会話モードへの移行は、以下のいずれかの事象を検出した場合に実行される。
 (1)自己発話検出
 (2)2点タッチ
 (1)自己発話検出によるモード遷移は、緊急モード設定状態において、ヘッドホン10を装着したユーザ1による発話が検出された場合に(c)緊急モードから(b)会話モードへ移行する処理である。
 前述したように、ヘッドホン10のモード制御部は、ヘッドホン10に備えられた複数のマイク(外面マイク11、口元マイク12、内面マイク15)の取得音声を解析して、ヘッドホン10を装着したユーザ1による発話がなされたか否かを判定する。
 例えば、複数のマイク(外面マイク11、口元マイク12、内面マイク15)の取得音声を解析して音源位置を特定し、音源位置がヘッドホン装着ユーザの口元である場合、ユーザ発話があったと判定し、(c)緊急モードから(b)会話モードへ移行する。
 (2)2点タッチによるモード遷移は、緊急モード設定状態において、ヘッドホン10の外面に対する2点タッチが検出された場合に(c)緊急モードから(b)会話モードへ移行する処理である。
 図3(b2)を参照して説明したように、ユーザがヘッドホン外面の2つの離間した一部領域を触れたことがタッチセンサアレイ15の出力解析に基づいて検出された場合、モード制御部は、(c)緊急モードから(b)会話モードへの移行処理を実行する。
  (S32)
 一方、(b)会話モードから(c)緊急モードへの移行は、ユーザによる面タッチを検出した場合に実行される。
 (b)会話モード設定状態において、図3(a)を参照して説明したように、ユーザがヘッドホン外面のほぼ全体を触れたことがタッチセンサアレイ15の出力解析に基づいて検出された場合、モード制御部は、(b)会話モードから(c)緊急モードへ移行する処理を実行する。
  [3.ヘッドホンの構成例について]
 次に図5を参照して、本開示のヘッドホン10の構成例について説明する。
 図5は、本開示のヘッドホン10の構成例を示すブロック図である。
 図5に示すように、ヘッドホン10は、タッチセンサアレイ101、外面マイク102a、内面マイク102b、口元マイク102c、操作部103、通信部104、モード制御部105、スピーカ106を有する。
 タッチセンサアレイ101は、先に図3を参照して説明したタッチセンサアレイ15に相当する。
 先に図3を参照して説明したように、タッチセンサアレイ101は、小さなタッチセンサを多数、配列した構成であり、各タッチセンサが個別に検出値を出力する。すなわち、ヘッドホンの外面にユーザが触れたことを検出するとともに、タッチセンサアレイ101を構成する多数のタッチセンサの出力を解析することでヘッドホンの外面に対するユーザの手の触れ方、すなわちタッチの種類についても判別することができる。
 タッチセンサアレイ101は、例えば、図3(a),(b1),(b2)を参照して説明したように面タッチ、1点タッチ、2点タッチ等を判別可能なセンサ出力値をモード制御部105に出力する。
 外面マイク102aは、先に図2(a)外面図を参照して説明した外面マイク11に相当する。外面マイク102aはヘッドホン10の左右のLRスピーカの外面に各々、備えられている。すなわち、左スピーカ側の外面には外面マイク(L)、右スピーカ側の外面には外面マイク(R)が装着されている。
 内面マイク102bは、先に図2(c)内面図を参照して説明した内面マイク15に相当する。内面マイク102bはヘッドホン10の左右のLRスピーカの内面に各々、備えられている。すなわち、左スピーカ側の内面には内面マイク(L)、右スピーカ側の内面には内面マイク(R)が装着されている。
 口元マイク102cは、先に図2(a)外面図、(b)側面図を参照して説明した口元マイク12に相当する。口元マイク12は、ヘッドホン10の左右のLRスピーカのいずれか一方に設けた構成であればよい。あるいはヘッドホン10の左右のLRスピーカの両方に装着した構成としてもよい。
 操作部103は、先に図2(b)側面図を参照して説明した操作部13に相当する。操作部103は、例えば再生音楽の開始、停止、スキップ、ボリューム調整、ミュート等の様々な操作を行う場合に利用される。
 通信部104は、例えば再生装置20との通信を実行し、再生装置20による再生データを受信し、受信データを、モード制御部105を介してスピーカ106に出力する。
 さらに、通信部104は、再生装置20に対するユーザ操作情報も受信し、モード制御部105に出力する。
 モード制御部105は、各構成部から様々な情報を入力してモードの設定、遷移を実行してスピーカ106に対する出力の制御を実行する。
 モード制御部105には、以下の各情報が入力される。
 (1)タッチセンサアレイ101からのセンサ検出情報
 (2)マイク(外面マイク102a,内面マイク102b,口元マイク102c)からのマイク取得音声情報、
 (3)操作部103からのユーザ操作情報
 (4)通信部104を介する再生音情報、さらに、再生装置20に対するユーザ操作情報
 モード制御部105は、上記のように、各構成部から様々な情報を入力してモードの設定、遷移を実行してスピーカ106に対する出力の制御を実行する。
 スピーカ106は、モード制御部105によって設定されたモードに応じた音声出力を実行する。出力音は、例えば、以下のいずれかの設定である。
 (1)再生装置20において再生される再生音、
 (2)上記再生音と、マイク(外面マイク102a,内面マイク102b,口元マイク102cによって取得された外音(周囲音)との混合音、
 (3)マイク(外面マイク102a,内面マイク102b,口元マイク102cによって取得された外音(周囲音)
 上記(1)~(3)のいずれかとなる。
  [4.ヘッドホンのモード制御部が実行する処理シーケンスについて]
 次にヘッドホンのモード制御部105が実行する処理シーケンスについて説明する。
 本開始時のヘッドホン10のモード制御部105は、先に図4を参照して説明した各ステップ(S11~S32)のモード遷移の制御を実行する。
 以下では、これらのモード遷移中、以下の代表的な2つの処理例についてフローチャートを参照して説明する。
 (処理例1)通常モードにおいてユーザ発話を検出して会話モードに遷移する処理例
 (処理例2)通常モードにおいて、タッチセンサアレイからのセンサ検出情報を入力してモード遷移を行う場合の処理例
  [4-1.(処理例1)通常モードにおいてユーザ発話を検出して会話モードに遷移する処理例]
 まず、図6に示すフローチャートを参照して(処理例1)通常モードにおいてユーザ発話を検出して会話モードに遷移する処理シーケンスについて説明する。
 図6は、ヘッドホンのモード制御部105が実行する処理シーケンスについて説明するフローチャートを示す図である。
 なお、以下において説明するフローに従った処理は、例えば、ヘッドホン10の記憶部に格納されたプログラムに従って実行することが可能であり、例えばCPU等のプログラム実行機能を持つ制御部の制御の下で実行される。以下、図6に示すフローの各ステップの処理について順次、説明する。
  (ステップS101)
 まず、ヘッドホンのモード制御部105は、ステップS101においてマイク(外面マイク、口元マイク、内面マイク)の取得した音声情報を入力する。
  (ステップS102)
 次に、ヘッドホンのモード制御部105は、ステップS102において、入力音声に基づく自己発話検出処理を実行する。
 先に説明したように、ヘッドホンのモード制御部105は、複数のマイク(外面マイク、口元マイク、内面マイク)の取得音声を解析して音源位置を特定する。音源位置がヘッドホン装着ユーザの口元である場合、ユーザ発話があったと判定する。
  (ステップS103)
 次に、ヘッドホンのモード制御部105は、ステップS103において、ヘッドホン装着ユーザのユーザ発話の有無を判定し、ユーザ発話があったと判定した場合は、ステップS104に進む。
 ユーザ発話が無いと判定した場合は、スタートに戻り、通常モードを継続する。
  (ステップS104~S105)
 ステップS103において、ヘッドホン装着ユーザのユーザ発話があったと判定した場合、ステップS104~S105の処理を実行する。
 ステップS104~S105において、ヘッドホンのモード制御部105は、複数のマイク(外面マイク、口元マイク、内面マイク)の取得音声を解析して外音(周囲音)レベルを判定する。
 具体的には、外音(周囲音)レベルが予め設定したしきい値音量(例えば80dbA)を超えるか以下であるかを判別する。
 外音(周囲音)レベルが予め設定したしきい値音量(例えば80dbA)を超える場合は、ステップS107に進み、外音(周囲音)レベルが予め設定したしきい値音量(例えば80dbA)以下である場合は、ステップS106に進む。
  (ステップS106)
 ステップS105において、外音(周囲音)レベルが予め設定したしきい値音量(例えば80dbA)以下であると判定した場合は、ステップS106の処理を実行する。
 ステップS106において、ヘッドホンのモード制御部105は、第1会話モード(低周囲音レベル対応)に移行する処理を実行する。
 先に説明したように、第1会話モード(低周囲音レベル対応)は、周囲音レベルがしきい値(例えば80dBA)以下であり、比較的、静かな環境の場合に設定されるモードである。
 第1会話モード(低周囲音レベル対応)において、ヘッドホンのモード制御部105は、再生装置20において再生される音声と、外音(周囲音)を併せてスピーカを介して出力する。
 前述したように、「第1会話モード(低周囲音レベル対応)」における外音の出力態様には、ASMノーマル(Ambient Sound Mode-Normal)モードと、ボイス(Voice)モードの2種類がある。
 ASMノーマルモードは、ヘッドホン10に装着された複数のマイク(外面マイク、口元マイク、内面マイク)の取得音声を、そのままスピーカを介して出力するモードである。
 ボイスモードは、マイク(外面マイク、口元マイク、内面マイク)の取得音声から人の声の周波数付近の音声信号を抽出して強調する信号処理を実行して処理後の信号を、スピーカ介して出力するモードである。
 これら、いずれのモードで外音を出力するかについては予めユーザが設定可能であり、また随時、変更することも可能である。
  (ステップS107)
 一方、ステップS105において、外音(周囲音)レベルが予め設定したしきい値音量(例えば80dbA)を超えると判定した場合は、ステップS107の処理を実行する。
 ステップS107において、ヘッドホンのモード制御部105は、第2会話モード(高周囲音レベル対応)に移行する処理を実行する。
 先に説明したように、第2会話モード(高周囲音レベル対応)は、周囲音レベルがしきい値(例えば80dBA)を超える場合のモードであり、比較的、うるさい環境の場合に設定されるモードである。
 第2会話モード(高周囲音レベル対応)において、ヘッドホンのモード制御部105は、再生装置20において再生される音声と、外音(周囲音)を併せてスピーカを介して出力する。
 前述したように、「第2会話モード(高周囲音レベル対応)」における外音の出力態様には、ボイス(Voice)モードと、ビームフォーミング(Beamforming)モードと、ボイス+ビームフォーミングモードの3種類がある。
 ボイスモードは、マイク(外面マイク、口元マイク、内面マイク)の取得音声から人の声の周波数付近の音声信号を抽出して強調する信号処理を実行して処理後の信号を、スピーカを介して出力するモードである。
 ビームフォーミングモードは、ヘッドホンを装着したユーザの前方からくる音を選択して強調する信号処理を実行して処理後の信号を、スピーカを介して出力するモードである。
 ボイス+ビームフォーミングモードは、ボイスモードの信号処理とビームフォーミングの信号処理の双方を実行して処理後の信号を、スピーカを介して出力するモードである。
 これら、いずれのモードで外音を出力するかについては予めユーザが設定可能であり、また随時、変更することも可能である。
  (ステップS108)
 ステップS106、またはステップS107において、第1会話モード(低周囲音レベル対応)、または第2会話モード(高周囲音レベル対応)に移行した後、モード制御部105は、ステップS108の処理を実行する。
 モード制御部105は、ステップS108において、現在モードである会話モードから通常モードへの移行条件、または現在モードである会話モードから緊急モードへの移行条件を満たす事象の発生を検出したか否かを判定する。
 ステップS108において、現在モードである会話モードから通常モード移行条件を満たす事象の発生を検出したと判定した場合は、初期状態、すなわち、スタート時点の通常モードに移行する。
 また、ステップS108において、現在モードである会話モードから緊急モード移行条件を満たす事象の発生を検出したと判定した場合は、ステップS109に進み、緊急モードに移行する。
 一方、ステップS108において、通常モード移行条件、または緊急モード移行条件を満たす事象の発生を検出しなかった場合は、ステップS104に戻り、ステップS104以下の処理を繰り返す。
 なお、会話モードから通常モードへの移行条件を満たす事象とは、先に図4を参照して説明したステップS22の事象であり、以下の事象である。
 (1)自己発話終了検出
 (2)2点タッチ
 (3)再生開始等のユーザ操作
 モード制御部105は、上記(1)~(3)のいずれかの事象を検出した場合は、初期状態、すなわち、スタート時点の通常モードに移行する。
 また、会話モードから緊急モードへの移行条件を満たす事象とは、先に図4を参照して説明したステップS32の事象であり、以下の事象である。
 (1)ユーザによる面タッチ検出
 モード制御部105は、会話モード設定状態でユーザがヘッドホン外面のほぼ全体を触れたことをタッチセンサアレイ101の出力解析に基づいて検出した場合、(b)会話モードから(c)緊急モードへ移行する処理を実行する。
  [4-2.(処理例2)通常モードにおいて、タッチセンサアレイからのセンサ検出情報を入力してモード遷移を行う場合の処理例]
 次に、図7に示すフローチャートを参照して(処理例2)通常モードにおいて、タッチセンサアレイからのセンサ検出情報を入力してモード遷移を行う場合の処理例について説明する。
 以下、図7に示すフローの各ステップの処理について順次、説明する。
  (ステップS201)
 まず、ヘッドホンのモード制御部105は、ステップS201においてタッチセンサアレイ101から、センサ検出情報を入力する。
 先に図3を参照して説明したように、タッチセンサアレイ101は、小さなタッチセンサを多数、配列した構成であり、各タッチセンサが個別に検出値を出力する。すなわち、ヘッドホンの外面にユーザが触れたことを検出するとともに、タッチセンサアレイ101を構成する多数のタッチセンサの出力を解析することでヘッドホンの外面に対するユーザの手の触れ態様についても判別することができる。
 例えば、図3(a),(b1),(b2)を参照して説明したように面タッチ、1点タッチ、2点タッチ等を判別可能なセンサ出力値がモード制御部105に入力される。
  (ステップS202)
 次に、モード制御部105は、ステップS202において、センサ検出情報に基づいて、タッチなし、面タッチ、1点タッチ、2点タッチのどの事象が発生したかを識別する。
  (ステップS203)
 まず、モード制御部105は、ステップS203において、センサ検出情報に基づいて、タッチなしとタッチあり(面タッチ、または1点タッチ、または2点タッチ)の識別を行う。
 タッチなしの識別結果が得られた場合は、ステップS201に戻り、センサ検出情報の入力を継続する。
 一方、タッチありの識別結果が得られた場合は、ステップS204に進む。
  (ステップS204)
 ステップS203において、タッチありの識別結果が得られた場合、モード制御部105は、ステップS204において、タッチの種類が面タッチであるか否かを判定する。
 タッチの種類が面タッチであると判定した場合は、ステップS221に進む。
 一方、タッチの種類が面タッチ以外であると判定した場合は、ステップS205に進む。
  (ステップS205)
 ステップS204で、タッチの種類が面タッチ以外であると判定した場合は、ステップS205に進む。
 モード制御部105は、ステップS205において、タッチの種類が1点タッチであるか2点タッチであるかを判定する。
 タッチの種類が1点タッチであると判定した場合は、ステップS206に進む。
 一方、タッチの種類が2点タッチであると判定した場合は、ステップS207に進む。
  (ステップS206)
 タッチの種類が1点タッチであると判定した場合は、ステップS206に進み、
1点タッチに予め対応付けられた再生制御を実行する。
 先に図4を参照して説明したように、通常モードでは、1点タッチが再生開始やスキップの処理指示として利用可能であり、ステップS106では、1点タッチに対応付けられた再生制御処理が実行される。
  (ステップS207)
 一方、ステップS205において、タッチの種類が2点タッチであると判定した場合は、ステップS207に進む。
 先に図4を参照して説明したように、2点タッチは、会話モードへ移行条件を満足する事象である。
 この場合、ヘッドホンのモード制御部105は、複数のマイク(外面マイク、口元マイク、内面マイク)の取得音声を解析して外音(周囲音)レベルを判定する。
 具体的には、外音(周囲音)レベルが予め設定したしきい値音量(例えば80dbA)を超えるか以下であるかを判別する。
  (ステップS208)
 ステップS208は分岐処理ステップであり、ステップS207で解析した外音(周囲音)レベルが予め設定したしきい値音量(例えば80dbA)を超える場合は、ステップS210に進み、外音(周囲音)レベルが予め設定したしきい値音量(例えば80dbA)以下である場合は、ステップS209に進む。
  (ステップS209)
 ステップS208において、外音(周囲音)レベルが予め設定したしきい値音量(例えば80dbA)以下であると判定した場合は、ステップS209の処理を実行する。
 ステップS209において、ヘッドホンのモード制御部105は、第1会話モード(低周囲音レベル対応)に移行する処理を実行する。
 先に説明したように、第1会話モード(低周囲音レベル対応)は、周囲音レベルがしきい値(例えば80dBA)以下であり、比較的、静かな環境の場合に設定されるモードである。
 第1会話モード(低周囲音レベル対応)において、ヘッドホンのモード制御部105は、再生装置20において再生される音声と、外音(周囲音)を併せてスピーカを介して出力する。
 前述したように、「第1会話モード(低周囲音レベル対応)」における外音の出力態様には、ASMノーマル(Ambient Sound Mode-Normal)モードと、ボイス(Voice)モードの2種類がある。
 ASMノーマルモードは、ヘッドホン10に装着された複数のマイク(外面マイク、口元マイク、内面マイク)の取得音声を、そのままスピーカを介して出力するモードである。
 ボイスモードは、マイク(外面マイク、口元マイク、内面マイク)の取得音声から人の声の周波数付近の音声信号を抽出して強調する信号処理を実行して処理後の信号を、スピーカ介して出力するモードである。
 これら、いずれのモードで外音を出力するかについては予めユーザが設定可能であり、また随時、変更することも可能である。
  (ステップS210)
 一方、ステップS208において、外音(周囲音)レベルが予め設定したしきい値音量(例えば80dbA)を超えると判定した場合は、ステップS210の処理を実行する。
 ステップS210において、ヘッドホンのモード制御部105は、第2会話モード(高周囲音レベル対応)に移行する処理を実行する。
 先に説明したように、第2会話モード(高周囲音レベル対応)は、周囲音レベルがしきい値(例えば80dBA)を超える場合のモードであり、比較的、うるさい環境の場合に設定されるモードである。
 第2会話モード(高周囲音レベル対応)において、ヘッドホンのモード制御部105は、再生装置20において再生される音声と、外音(周囲音)を併せてスピーカを介して出力する。
 前述したように、「第2会話モード(高周囲音レベル対応)」における外音の出力態様には、ボイス(Voice)モードと、ビームフォーミング(Beamforming)モードと、ボイス+ビームフォーミングモードの3種類がある。
 ボイスモードは、マイク(外面マイク、口元マイク、内面マイク)の取得音声から人の声の周波数付近の音声信号を抽出して強調する信号処理を実行して処理後の信号を、スピーカを介して出力するモードである。
 ビームフォーミングモードは、ヘッドホンを装着したユーザの前方からくる音を選択して強調する信号処理を実行して処理後の信号を、スピーカを介して出力するモードである。
 ボイス+ビームフォーミングモードは、ボイスモードの信号処理とビームフォーミングの信号処理の双方を実行して処理後の信号を、スピーカを介して出力するモードである。
 これら、いずれのモードで外音を出力するかについては予めユーザが設定可能であり、また随時、変更することも可能である。
  (ステップS211)
 ステップS209、またはステップS210において、第1会話モード(低周囲音レベル対応)、または第2会話モード(高周囲音レベル対応)に移行した後、モード制御部105は、ステップS211の処理を実行する。
 モード制御部105は、ステップS211において、現在モードである会話モードから通常モードへの移行条件、または現在モードである会話モードから緊急モードへの移行条件を満たす事象の発生を検出したか否かを判定する。
 ステップS211において、現在モードである会話モードから通常モード移行条件を満たす事象の発生を検出したと判定した場合は、初期状態、すなわち、スタート時点の通常モードに移行する。
 また、ステップS211において、現在モードである会話モードから緊急モード移行条件を満たす事象の発生を検出したと判定した場合は、緊急モードに移行する。緊急モードはフロー中のステップS204の判定において面タッチが検出された場合に移行するステップS221に示す緊急モードと同じモードであり、緊急モード移行後にステップS222の処理が実行される。
 なお、ステップS211において、通常モード移行条件、または緊急モード移行条件を満たす事象の発生を検出しなかった場合は、ステップS207に戻り、ステップS207以下の処理を繰り返す。
 なお、会話モードから通常モードへの移行条件を満たす事象とは、先に図4を参照して説明したステップS22の事象であり、以下の事象である。
 (1)自己発話終了検出
 (2)2点タッチ
 (3)再生開始等のユーザ操作
 モード制御部105は、上記(1)~(3)のいずれかの事象を検出した場合は、初期状態、すなわち、スタート時点の通常モードに移行する。
 また、会話モードから緊急モードへの移行条件を満たす事象とは、先に図4を参照して説明したステップS32の事象であり、以下の事象である。
 (1)ユーザによる面タッチ検出
 モード制御部105は、会話モード設定状態でユーザがヘッドホン外面のほぼ全体を触れたことをタッチセンサアレイ101の出力解析に基づいて検出した場合、(b)会話モードから(c)緊急モードへ移行する処理を実行する。
  (ステップS221~S222)
 最後に緊急モード移行後の処理であるステップS221~S222の処理について説明する。
 ステップS204において、タッチの種類が面タッチであると判定した場合、モード制御部105は、ステップS205において、通常モードから緊急モードへのモード遷移処理を実行する。
 また、ステップS211において、会話モードから緊急モードへの移行条件を満たす事象、すなわち、
 (1)ユーザによる面タッチ検出
 上記事象を検出した場合、モード制御部105は、ステップS211において、会話モードから緊急モードへのモード遷移処理を実行する。
 ステップS221の緊急モードへのモード移行後は、ステップS222の処理を実行する。
 ステップS222では、現在のモードである緊急モードから他のモード(通常モード、会話モード)への移行条件を満たす事象が発生したか否かを判定する。
 ステップS222において、緊急モードから通常モード移行条件を満たす事象の発生を検出したと判定した場合は、初期状態、すなわち、スタート時点の通常モードに移行する。
 また、ステップS222において、緊急モードから会話モード移行条件を満たす事象の発生を検出したと判定した場合は、ステップS207に進む。
 また、ステップS222において、現在のモードである緊急モードから他のモード(通常モード、会話モード)への移行条件を満たす事象が発生していないと判定した場合は、ステップS221に戻り、緊急モードを継続する。
 なお、緊急モードから通常モードへの移行条件を満たす事象とは、先に図4を参照して説明したステップS12の事象であり、以下の事象である。
 (1)ユーザによる面タッチ解除検出
 モード制御部105は、緊急モード設定状態でユーザがヘッドホン外面の面タッチを解除したことをタッチセンサアレイ101の出力解析に基づいて検出した場合、(c)緊急モードから(a)通常モードへ移行する処理を実行する。
 また、緊急モードから会話モードへの移行条件を満たす事象とは、先に図4を参照して説明したステップS31の事象であり、以下の事象である。
 (1)自己発話検出
 (2)2点タッチ
 モード制御部105は、上記(1)~(2)のいずれかの事象を検出した場合は、ステップS207に進む。すなわち、会話モードに移行する。
  [5.モード制御部の実行するモード遷移のまとめ]
 次に図8を参照して、本開示のヘッドホン10のモード制御部105が実行するモード遷移処理についてまとめて説明する。
 図8は、本開示のヘッドホン10の(A)現在モードと、各現在モードにおける発生事象に基づくモード遷移についてまとめた表を示す図である。具体的には、
 (A)現在モード、
 (B)マイク入力情報に基づくモード遷移
 (C)タッチセンサ検出情報に基づくモード遷移
 これらの対応データを一覧として示している。
 (A)現在モードには、以下の4つのモードを示している。
 (1)通常モード
 (2)緊急モード
 (3)第1会話モード(低周囲音レベル対応)
 (4)第2会話モード(高周囲音レベル対応)
 以下、現在モードが上記(1)~(4)の場合の、
 (B)マイク入力情報に基づくモード遷移
 (C)タッチセンサ検出情報に基づくモード遷移
 これらのモード遷移について説明する。
  [5-1.現在モードが通常モードの場合のモード遷移について]
 まず、現在モードが通常モードの場合のモード遷移について説明する。
 現在モードが通常モードである場合、モード制御部105は、「(B)マイク入力情報に基づくモード遷移」を以下のように実行する。
 (p1)自己発話検出なしの場合=処理なし(通常モード継続)。
 (p2)自己発話が検出され、周囲音レベルがしきい値(例えば80dBA)以下の場合=第1会話モード(低周囲音レベル対応)に移行する。
 (p3)自己発話が検出され、周囲音レベルがしきい値(例えば80dBA)を超える場合=第2会話モード(高周囲音レベル対応)に移行する。
 また、現在モードが通常モードである場合、モード制御部105は、「(C)タッチセンサ検出情報に基づくモード遷移」を以下のように実行する。
 (q1)面タッチを検出した場合=緊急モードに移行する。
 (q2)面タッチ解除を検出した場合=処理なし(通常モード継続)。
 (q3)1点タッチを検出した場合=規定の再生制御(再生開始等)を実行する(通常モードを継続)。
 (q4)2点タッチを検出した場合=会話モードに移行する。
 なお、上記(q4)の会話モードへの移行に際しては、周囲音レベルに応じて異なる会話モードへの移行処理を行う。周囲音レベルがしきい値(例えば80dBA)以下の場合は、第1会話モード(低周囲音レベル対応)に移行し、周囲音レベルがしきい値(例えば80dBA)を超える場合は、第2会話モード(高周囲音レベル対応)に移行する。
  [5-2.現在モードが緊急モードの場合のモード遷移について]
 次に、現在モードが緊急モードの場合のモード遷移について説明する。
 現在モードが緊急モードである場合、モード制御部105は、「(B)マイク入力情報に基づくモード遷移」を以下のように実行する。
 (p1)自己発話検出なしの場合=処理なし(緊急モード継続)。
 (p2)自己発話が検出され、周囲音レベルがしきい値(例えば80dBA)以下の場合=第1会話モード(低周囲音レベル対応)に移行する。
 (p3)自己発話が検出され、周囲音レベルがしきい値(例えば80dBA)を超える場合=第2会話モード(高周囲音レベル対応)に移行する。
 また、現在モードが緊急モードである場合、モード制御部105は、「(C)タッチセンサ検出情報に基づくモード遷移」を以下のように実行する。
 (q1)面タッチを検出した場合=処理なし(緊急モード継続)。
 (q2)面タッチ解除を検出した場合=通常モードに移行する。
 (q3)1点タッチを検出した場合=処理なし(緊急モード継続)。
 (q4)2点タッチを検出した場合=会話モードに移行する。
 なお、上記(q4)の会話モードへの移行に際しては、周囲音レベルに応じて異なる会話モードへの移行処理を行う。周囲音レベルがしきい値(例えば80dBA)以下の場合は、第1会話モード(低周囲音レベル対応)に移行し、周囲音レベルがしきい値(例えば80dBA)を超える場合は、第2会話モード(高周囲音レベル対応)に移行する。
  [5-3.現在モードが第1会話モード(低周囲音レベル対応)の場合のモード遷移について]
 次に、現在モードが第1会話モード(低周囲音レベル対応)の場合のモード遷移について説明する。
 現在モードが第1会話モード(低周囲音レベル対応)である場合、モード制御部105は、「(B)マイク入力情報に基づくモード遷移」を以下のように実行する。
 (p1)自己発話検出なしの場合=予め規定したしきい値時間(例えば30秒)以上の間、ユーザ発話が検出されなかった場合、通常モードへ移行する。
 (p2)自己発話が検出され、周囲音レベルがしきい値(例えば80dBA)以下の場合=処理なし(第1会話モード(低周囲音レベル対応)継続)。
 (p3)自己発話が検出され、周囲音レベルがしきい値(例えば80dBA)を超える場合=第2会話モード(高周囲音レベル対応)に移行する。
 また、現在モードが第1会話モード(低周囲音レベル対応)である場合、モード制御部105は、「(C)タッチセンサ検出情報に基づくモード遷移」を以下のように実行する。
 (q1)面タッチを検出した場合=緊急モードに移行する。
 (q2)面タッチ解除を検出した場合=処理なし(第1会話モード(低周囲音レベル対応)継続)。
 (q3)1点タッチを検出した場合=既定の再生制御を実行する(通常モードに移行する)。
 (q4)2点タッチを検出した場合=通常モードに移行する。
  [5-4.現在モードが第2会話モード(高周囲音レベル対応)の場合のモード遷移について]
 次に、現在モードが第2会話モード(高周囲音レベル対応)の場合のモード遷移について説明する。
 現在モードが第2会話モード(高周囲音レベル対応)である場合、モード制御部105は、「(B)マイク入力情報に基づくモード遷移」を以下のように実行する。
 (p1)自己発話検出なしの場合=予め規定したしきい値時間(例えば30秒)以上の間、ユーザ発話が検出されなかった場合、通常モードへ移行する。
 (p2)自己発話が検出され、周囲音レベルがしきい値(例えば80dBA)以下の場合=第1会話モード(低周囲音レベル対応)に移行する。
 (p3)自己発話が検出され、周囲音レベルがしきい値(例えば80dBA)を超える場合=処理なし(第2会話モード(高周囲音レベル対応)継続)。
 また、現在モードが第2会話モード(高周囲音レベル対応)である場合、モード制御部105は、「(C)タッチセンサ検出情報に基づくモード遷移」を以下のように実行する。
 (q1)面タッチを検出した場合=緊急モードに移行する。
 (q2)面タッチ解除を検出した場合=処理なし(第2会話モード(高周囲音レベル対応)継続)。
 (q3)1点タッチを検出した場合=既定の再生制御を実行する(通常モードに移行する)。
 (q4)2点タッチを検出した場合=通常モードに移行する。
 本開示のヘッドホン10のモード制御部105が実行するモード遷移処理についてまとめると、この図8に示す処理となる。
 なお、このモード遷移処理例は一例であり、その他の設定とすることも可能である。
 例えば、図8に示すモード遷移処理例では、タッチセンサアレイ101からのセンサ検出値として、1点タッチと2点タッチを区別して、1点タッチは、通常モードでの再生制御に利用する構成としたが、このような再生制御構成を設けず、1点タッチでも2点タッチでも区別せず面タッチ以外の部分的なタッチを検出した場合は、会話モードへの移行、または会話モードから通常モードへの移行を行う構成としてもよい。
 この設定としたモード遷移例を図9に示す。
 図9に示すモード遷移データは、(q3)1点タッチを検出した際のモード遷移が、(q4)2点タッチを検出した際のモード遷移と同じ設定である。
 このように、1点タッチの場合も2点タッチと同様のモード遷移を実行する構成としてもよい。
 さらに、3点タッチ等、2点以上のタッチについても2点タッチと同様の処理を行う構成としてもよい。
 あるいは1点タッチ、2点タッチ、3点タッチ等の各タッチを識別して、それぞれのタッチに応じた異なるモード遷移を実行する構成としてもよい。
  [6.ヘッドホンのハードウェア構成例について]
 次に、上述した実施例において説明したヘッドホンのハードウェアの構成例について説明する。
 図10に示すハードウェアは、上述した実施例において説明したヘッドホンのハードウェア構成の一例である。
 CPU(Central Processing Unit)301は、ROM(Read Only Memory)302、または記憶部308に記憶されているプログラムに従って各種の処理を実行する制御部やデータ処理部として機能する。例えば、上述した実施例において説明したシーケンスに従った処理を実行する。
 具体的には、上述したモード制御部105の処理等を実行する。
 RAM(Random Access Memory)303には、CPU301が実行するプログラムやデータなどが記憶される。これらのCPU301、ROM302、およびRAM303は、バス304により相互に接続されている。
 CPU301はバス304を介して入出力インタフェース305に接続され、入出力インタフェース305には、マイク、センサ、操作部などからなる入力部306、スピーカなどからなる出力部307が接続されている。CPU301は、入力部306からの入力情報に応じて各種の処理を実行し、処理結果を出力部307に出力する。
 具体的には、モード遷移に応じた出力音をスピーカに出力する。
 入出力インタフェース305に接続されている記憶部308は、CPU301が実行するプログラムや各種のデータを記憶する。通信部309は、Wi-Fi通信、ブルートゥース(登録商標)(BT)通信、その他インターネットやローカルエリアネットワークなどのネットワークを介したデータ通信の送受信部として機能し、外部の装置と通信する。
  [7.本開示の構成のまとめ]
 以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
 なお、本明細書において開示した技術は、以下のような構成をとることができる。
 (1) ヘッドホンの周囲音である外音を取り込むマイクと、
 前記ヘッドホンのスピーカの出力音をモードに応じて制御するモード制御部を有し、
 前記モード制御部は、
 前記マイクの入力音の解析により、前記ヘッドホンを装着したユーザの発話を検出した場合、前記マイクによって取得された外音を前記スピーカから出力する会話モードに移行するモード制御を実行するヘッドホン。
 (2) 前記ヘッドホンは、さらに、
 前記ヘッドホンの外面に対するタッチ操作の種類を判別可能としたタッチセンサアレイを有し、
 前記モード制御部は、
 前記タッチセンサアレイの出力解析により、予め規定したタッチ種類のタッチ操作を検出した場合、前記会話モードに移行するモード制御を実行する(1)に記載のヘッドホン。
 (3) 前記予め規定したタッチ種類のタッチ操作は、前記ヘッドホンの外面に対する2点タッチまたは1点タッチである(2)に記載のヘッドホン。
 (4) 前記モード制御部は、
 前記マイクの入力音の解析により、外音のレベルが規定レベルを超えているか否かを判定し、判定結果に応じて異なる制御を実行する(1)~(3)いずれかに記載のヘッドホン。
 (5) 前記モード制御部は、
 前記マイクの入力音の解析により、外音のレベルが規定レベル以下であると判定した場合、
 (a)前記マイクの取得音声をスピーカに出力するASMノーマル(Ambient Sound Mode-Normal)モード、または、
 (b)前記マイクの取得音声から人の声の周波数付近の音声信号を抽出して強調した処理信号をスピーカに出力するボイスモード、
 上記(a),(b)いずれかのモードに設定するモード制御を実行する(4)に記載のヘッドホン。
 (6) 前記モード制御部は、
 前記マイクの入力音の解析により、外音のレベルが規定レベルを超えると判定した場合、
 (a)前記マイクの取得音声から人の声の周波数付近の音声信号を抽出して強調した処理信号をスピーカに出力するボイスモード、
 (b)前記ヘッドホンを装着したユーザの前方からの音を選択して強調した処理信号をスピーカに出力するビームフォーミングモード、
 上記(a),(b)いずれかのモード、または上記(a),(b)の混在モードに設定するモード制御を実行する(4)または(5)に記載のヘッドホン。
 (7) 前記マイクは、前記ヘッドホンの異なる位置に設定された複数のマイクによって構成されている(1)~(6)いずれかに記載のヘッドホン。
 (8) 前記複数のマイクには、前記ヘッドホンの装着ユーザの口元に近い位置の口元マイクが含まれる(7)に記載のヘッドホン。
 (9) 前記モード制御部は、
 前記マイクによって取得された外音を前記スピーカから出力する前記会話モードと、
 前記マイクによって取得された外音を前記スピーカから出力しない、または低レベルの外音出力を実行する通常モードとのモード切り替え処理を実行する構成であり、
 前記モード制御部は、
 前記通常モードの設定状態において、
 前記マイクの入力音の解析により、前記ヘッドホンを装着したユーザの発話を検出した場合に前記会話モードに移行するモード制御を実行する(1)~(8)いずれかに記載のヘッドホン。
 (10) 前記モード制御部は、
 前記会話モードの設定状態において、
 予め規定した時間、前記ヘッドホンを装着したユーザの発話が検出されなかった場合、前記通常モードに移行するモード制御を実行する(9)に記載のヘッドホン。
 (11) 前記ヘッドホンは、さらに、
 前記ヘッドホンの外面に対するタッチ操作の種類を判別可能としたタッチセンサアレイを有し、
 前記モード制御部は、
 前記タッチセンサアレイの出力解析により、予め規定したタッチ種類のタッチ操作を検出した場合、前記マイクによって取得された外音を前記スピーカから出力する緊急モードに移行するモード制御を実行する(1)~(10)いずれかに記載のヘッドホン。
 (12) 前記予め規定したタッチ種類のタッチ操作は、前記ヘッドホンの外面に対する面タッチである(11)に記載のヘッドホン。
 (13) 前記モード制御部は、
 前記緊急モードの設定状態において、
 前記マイクの入力音の解析により、前記ヘッドホンを装着したユーザの発話を検出した場合、前記会話モードに移行するモード制御を実行する(11)または(12)に記載のヘッドホン。
 (14) ヘッドホンにおけるスピーカ出力音の制御を実行する音響信号処理方法であり、
 前記ヘッドホンは、
 ヘッドホンの周囲音である外音を取り込むマイクと、
 前記ヘッドホンのスピーカの出力音をモードに応じて制御するモード制御部を有し、
 前記モード制御部が、
 前記マイクの入力音の解析により、前記ヘッドホンを装着したユーザの発話を検出した場合、前記マイクによって取得された外音を前記スピーカから出力する会話モードに移行するモード制御を実行する音響信号処理方法。
 (15) ヘッドホンにおけるスピーカ出力音の制御を実行させるプログラムであり、
 前記ヘッドホンは、
 ヘッドホンの周囲音である外音を取り込むマイクと、
 前記ヘッドホンのスピーカの出力音をモードに応じて制御するモード制御部を有し、
 前記プログラムは、前記モード制御部に、
 前記マイクの入力音の解析により、前記ヘッドホンを装着したユーザの発話を検出した場合、前記マイクによって取得された外音を前記スピーカから出力する会話モードに移行するモード制御を実行させるプログラム。
 また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 以上、説明したように、本開示の一実施例の構成によれば、煩わしいユーザ操作を行うことなく、外音をスピーカから出力する会話モードに移行するモード制御を可能としたヘッドホンが実現される。
 具体的には、例えば、ヘッドホンの周囲音である外音を取り込むマイクと、ヘッドホンのスピーカの出力音をモードに応じて制御するモード制御部を有する。モード制御部は、マイク入力音解析により、ヘッドホン装着ユーザの発話を検出した場合、外音をスピーカから出力する会話モードに移行する。さらに、ヘッドホン外面に対するタッチ操作の種類を判別可能なタッチセンサアレイの出力解析により、予め規定したタッチ種類のタッチ操作を検出した場合にも会話モードに移行する。
 本構成により、煩わしいユーザ操作を行うことなく、外音をスピーカから出力する会話モードに移行するモード制御を可能としたヘッドホンが実現される。
   1 ユーザ
  10 ヘッドホン
  11 外面マイク
  12 口元マイク
  13 操作部
  14 スピーカ
  15 内面マイク
  20 再生装置(ユーザ端末)
 101 タッチセンサアレイ
 102a 外面マイク
 102b 内面マイク
 102c 口元マイク
 103 操作部
 104 通信部
 105 モード制御部
 106 スピーカ
 301 CPU
 302 ROM
 303 RAM
 304 バス
 305 入出力インタフェース
 306 入力部
 307 出力部
 308 記憶部
 309 通信部

Claims (15)

  1.  ヘッドホンの周囲音である外音を取り込むマイクと、
     前記ヘッドホンのスピーカの出力音をモードに応じて制御するモード制御部を有し、
     前記モード制御部は、
     前記マイクの入力音の解析により、前記ヘッドホンを装着したユーザの発話を検出した場合、前記マイクによって取得された外音を前記スピーカから出力する会話モードに移行するモード制御を実行するヘッドホン。
  2.  前記ヘッドホンは、さらに、
     前記ヘッドホンの外面に対するタッチ操作の種類を判別可能としたタッチセンサアレイを有し、
     前記モード制御部は、
     前記タッチセンサアレイの出力解析により、予め規定したタッチ種類のタッチ操作を検出した場合、前記会話モードに移行するモード制御を実行する請求項1に記載のヘッドホン。
  3.  前記予め規定したタッチ種類のタッチ操作は、前記ヘッドホンの外面に対する2点タッチまたは1点タッチである請求項2に記載のヘッドホン。
  4.  前記モード制御部は、
     前記マイクの入力音の解析により、外音のレベルが規定レベルを超えているか否かを判定し、判定結果に応じて異なる制御を実行する請求項1に記載のヘッドホン。
  5.  前記モード制御部は、
     前記マイクの入力音の解析により、外音のレベルが規定レベル以下であると判定した場合、
     (a)前記マイクの取得音声をスピーカに出力するASMノーマル(Ambient Sound Mode-Normal)モード、または、
     (b)前記マイクの取得音声から人の声の周波数付近の音声信号を抽出して強調した処理信号をスピーカに出力するボイスモード、
     上記(a),(b)いずれかのモードに設定するモード制御を実行する請求項4に記載のヘッドホン。
  6.  前記モード制御部は、
     前記マイクの入力音の解析により、外音のレベルが規定レベルを超えると判定した場合、
     (a)前記マイクの取得音声から人の声の周波数付近の音声信号を抽出して強調した処理信号をスピーカに出力するボイスモード、
     (b)前記ヘッドホンを装着したユーザの前方からの音を選択して強調した処理信号をスピーカに出力するビームフォーミングモード、
     上記(a),(b)いずれかのモード、または上記(a),(b)の混在モードに設定するモード制御を実行する請求項4に記載のヘッドホン。
  7.  前記マイクは、前記ヘッドホンの異なる位置に設定された複数のマイクによって構成されている請求項1に記載のヘッドホン。
  8.  前記複数のマイクには、前記ヘッドホンの装着ユーザの口元に近い位置の口元マイクが含まれる請求項7に記載のヘッドホン。
  9.  前記モード制御部は、
     前記マイクによって取得された外音を前記スピーカから出力する前記会話モードと、
     前記マイクによって取得された外音を前記スピーカから出力しない、または低レベルの外音出力を実行する通常モードとのモード切り替え処理を実行する構成であり、
     前記モード制御部は、
     前記通常モードの設定状態において、
     前記マイクの入力音の解析により、前記ヘッドホンを装着したユーザの発話を検出した場合に前記会話モードに移行するモード制御を実行する請求項1に記載のヘッドホン。
  10.  前記モード制御部は、
     前記会話モードの設定状態において、
     予め規定した時間、前記ヘッドホンを装着したユーザの発話が検出されなかった場合、前記通常モードに移行するモード制御を実行する請求項9に記載のヘッドホン。
  11.  前記ヘッドホンは、さらに、
     前記ヘッドホンの外面に対するタッチ操作の種類を判別可能としたタッチセンサアレイを有し、
     前記モード制御部は、
     前記タッチセンサアレイの出力解析により、予め規定したタッチ種類のタッチ操作を検出した場合、前記マイクによって取得された外音を前記スピーカから出力する緊急モードに移行するモード制御を実行する請求項1に記載のヘッドホン。
  12.  前記予め規定したタッチ種類のタッチ操作は、前記ヘッドホンの外面に対する面タッチである請求項11に記載のヘッドホン。
  13.  前記モード制御部は、
     前記緊急モードの設定状態において、
     前記マイクの入力音の解析により、前記ヘッドホンを装着したユーザの発話を検出した場合、前記会話モードに移行するモード制御を実行する請求項11に記載のヘッドホン。
  14.  ヘッドホンにおけるスピーカ出力音の制御を実行する音響信号処理方法であり、
     前記ヘッドホンは、
     ヘッドホンの周囲音である外音を取り込むマイクと、
     前記ヘッドホンのスピーカの出力音をモードに応じて制御するモード制御部を有し、
     前記モード制御部が、
     前記マイクの入力音の解析により、前記ヘッドホンを装着したユーザの発話を検出した場合、前記マイクによって取得された外音を前記スピーカから出力する会話モードに移行するモード制御を実行する音響信号処理方法。
  15.  ヘッドホンにおけるスピーカ出力音の制御を実行させるプログラムであり、
     前記ヘッドホンは、
     ヘッドホンの周囲音である外音を取り込むマイクと、
     前記ヘッドホンのスピーカの出力音をモードに応じて制御するモード制御部を有し、
     前記プログラムは、前記モード制御部に、
     前記マイクの入力音の解析により、前記ヘッドホンを装着したユーザの発話を検出した場合、前記マイクによって取得された外音を前記スピーカから出力する会話モードに移行するモード制御を実行させるプログラム。
PCT/JP2019/050493 2019-01-10 2019-12-24 ヘッドホン、および音響信号処理方法、並びにプログラム WO2020145122A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020565685A JP7380597B2 (ja) 2019-01-10 2019-12-24 ヘッドホン、および音響信号処理方法、並びにプログラム
CN201980087674.0A CN113261305A (zh) 2019-01-10 2019-12-24 耳机、声学信号处理方法和程序
US17/420,446 US20220095039A1 (en) 2019-01-10 2019-12-24 Headphone, acoustic signal processing method, and program
EP19909235.4A EP3910963A4 (en) 2019-01-10 2019-12-24 EARPHONES, ACOUSTIC SIGNAL PROCESSING METHOD AND PROGRAM
JP2023188838A JP2024001353A (ja) 2019-01-10 2023-11-02 ヘッドホン、および音響信号処理方法、並びにプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-002439 2019-01-10
JP2019002439 2019-01-10

Publications (1)

Publication Number Publication Date
WO2020145122A1 true WO2020145122A1 (ja) 2020-07-16

Family

ID=71521280

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/050493 WO2020145122A1 (ja) 2019-01-10 2019-12-24 ヘッドホン、および音響信号処理方法、並びにプログラム

Country Status (5)

Country Link
US (1) US20220095039A1 (ja)
EP (1) EP3910963A4 (ja)
JP (2) JP7380597B2 (ja)
CN (1) CN113261305A (ja)
WO (1) WO2020145122A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113573195A (zh) * 2021-07-27 2021-10-29 歌尔科技有限公司 蓝牙耳机的模式控制方法、设备及计算机可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009021826A (ja) 2007-07-12 2009-01-29 Sony Corp 信号処理装置、信号処理方法、プログラム、ノイズキャンセリングシステム
JP2011097268A (ja) * 2009-10-28 2011-05-12 Sony Corp 再生装置、ヘッドホン及び再生方法
JP2014174430A (ja) * 2013-03-12 2014-09-22 Yamaha Corp 密閉型ヘッドフォン用信号処理装置および密閉型ヘッドフォン
JP2015537465A (ja) * 2012-11-02 2015-12-24 ボーズ・コーポレーションBosecorporation Anrヘッドホンで周囲の自然さを提供すること
WO2017179409A1 (ja) * 2016-04-11 2017-10-19 ソニー株式会社 ヘッドホン、再生制御方法、並びにプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9313572B2 (en) * 2012-09-28 2016-04-12 Apple Inc. System and method of detecting a user's voice activity using an accelerometer
US20140126733A1 (en) * 2012-11-02 2014-05-08 Daniel M. Gauger, Jr. User Interface for ANR Headphones with Active Hear-Through
US20140378083A1 (en) * 2013-06-25 2014-12-25 Plantronics, Inc. Device Sensor Mode to Identify a User State
US10720153B2 (en) * 2013-12-13 2020-07-21 Harman International Industries, Incorporated Name-sensitive listening device
US10425717B2 (en) * 2014-02-06 2019-09-24 Sr Homedics, Llc Awareness intelligence headphone
JP2015173369A (ja) 2014-03-12 2015-10-01 ソニー株式会社 信号処理装置、信号処理方法、およびプログラム
EP3188495B1 (en) * 2015-12-30 2020-11-18 GN Audio A/S A headset with hear-through mode
CN109310525B (zh) * 2016-06-14 2021-12-28 杜比实验室特许公司 媒体补偿通过和模式切换
US9877100B1 (en) * 2016-08-29 2018-01-23 Motorola Mobility Llc Audio sensing to alert device user
US10284939B2 (en) * 2017-08-30 2019-05-07 Harman International Industries, Incorporated Headphones system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009021826A (ja) 2007-07-12 2009-01-29 Sony Corp 信号処理装置、信号処理方法、プログラム、ノイズキャンセリングシステム
JP2011097268A (ja) * 2009-10-28 2011-05-12 Sony Corp 再生装置、ヘッドホン及び再生方法
JP2015537465A (ja) * 2012-11-02 2015-12-24 ボーズ・コーポレーションBosecorporation Anrヘッドホンで周囲の自然さを提供すること
JP2014174430A (ja) * 2013-03-12 2014-09-22 Yamaha Corp 密閉型ヘッドフォン用信号処理装置および密閉型ヘッドフォン
WO2017179409A1 (ja) * 2016-04-11 2017-10-19 ソニー株式会社 ヘッドホン、再生制御方法、並びにプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113573195A (zh) * 2021-07-27 2021-10-29 歌尔科技有限公司 蓝牙耳机的模式控制方法、设备及计算机可读存储介质
WO2023005125A1 (zh) * 2021-07-27 2023-02-02 歌尔科技有限公司 蓝牙耳机的模式控制方法、设备及计算机可读存储介质

Also Published As

Publication number Publication date
JP7380597B2 (ja) 2023-11-15
US20220095039A1 (en) 2022-03-24
CN113261305A (zh) 2021-08-13
JPWO2020145122A1 (ja) 2021-11-18
JP2024001353A (ja) 2024-01-09
EP3910963A4 (en) 2022-02-23
EP3910963A1 (en) 2021-11-17

Similar Documents

Publication Publication Date Title
US11290803B2 (en) Headphone, reproduction control method, and program
US7885818B2 (en) Controlling an apparatus based on speech
JP5499633B2 (ja) 再生装置、ヘッドホン及び再生方法
CN110493678B (zh) 耳机的控制方法、装置、耳机和存储介质
JP6931819B2 (ja) 音声処理装置、音声処理方法及び音声処理プログラム
JP5716287B2 (ja) 音声信号処理装置、音声信号処理方法、プログラム
US20140079239A1 (en) System and apparatus for controlling a user interface with a bone conduction transducer
JP2024001353A (ja) ヘッドホン、および音響信号処理方法、並びにプログラム
CN113711308A (zh) 风噪声检测系统和方法
KR20150018727A (ko) 청각 기기의 저전력 운용 방법 및 장치
EP3675519A1 (en) Control device, control method, and program
WO2003107327A1 (en) Controlling an apparatus based on speech
JP2014187413A (ja) 音響機器並びにプログラム
CN115623372A (zh) 耳机及耳机音效的调节方法
KR20120124351A (ko) 휴대 단말기를 이용한 음성인식 보청 시스템 및 그것의 운영방법
CN112585993A (zh) 声音信号处理系统和声音信号处理装置
JP2004235979A (ja) 音入出力装置および音入出力方法
JPH06175676A (ja) 音声検出器
KR20130130325A (ko) 휴대 단말기를 이용한 음성인식 보청 시스템 및 그것의 운영방법
JP2010009649A (ja) 録音装置、方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19909235

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020565685

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019909235

Country of ref document: EP

Effective date: 20210810