WO2020110808A1 - 翻訳装置及び翻訳方法 - Google Patents

翻訳装置及び翻訳方法 Download PDF

Info

Publication number
WO2020110808A1
WO2020110808A1 PCT/JP2019/045118 JP2019045118W WO2020110808A1 WO 2020110808 A1 WO2020110808 A1 WO 2020110808A1 JP 2019045118 W JP2019045118 W JP 2019045118W WO 2020110808 A1 WO2020110808 A1 WO 2020110808A1
Authority
WO
WIPO (PCT)
Prior art keywords
circuit
echo
voice
speaker
language
Prior art date
Application number
PCT/JP2019/045118
Other languages
English (en)
French (fr)
Inventor
良二 鈴木
尋紀 稲垣
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to EP19890338.7A priority Critical patent/EP3890288A4/en
Priority to JP2020558387A priority patent/JP7194900B2/ja
Priority to US17/296,825 priority patent/US20220027579A1/en
Priority to CN201980077382.9A priority patent/CN113168840A/zh
Publication of WO2020110808A1 publication Critical patent/WO2020110808A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72433User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for voice messaging, e.g. dictaphones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/005Language recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • G10L15/25Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/32Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • G10L21/0364Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude for improving intelligibility
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02082Noise filtering the noise being echo, reverberation of the speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02165Two microphones, one receiving mainly the noise signal and the other one mainly the speech signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/58Details of telephonic subscriber devices including a multilanguage function
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/74Details of telephonic subscriber devices with voice recognition means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/20Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones

Definitions

  • the present disclosure relates to a translation device and a translation method that translates the language of one speaker into the language of the other speaker in a conversation between a first speaker and a second speaker to make a loud voice.
  • Patent Document 1 discloses a conversation assisting device that is effective in assisting by loudly assisting a two-way conversation between two parties after removing acoustic noise.
  • the conversation assistance device includes an echo/crosstalk canceller that removes an interfering signal indicating echo and crosstalk from an output signal of a microphone. According to the conversation assistance device, acoustic noise including echo and crosstalk can be removed, and a two-way conversation between two parties can be loudly assisted.
  • the voices of a plurality of speakers and the plurality of synthesized voices that are output by recognizing the voices of the plurality of speakers, translating them into the language of the other party, synthesizing the voices, and the like exist simultaneously. Even in such a case, a translation device and a translation method are provided, in which acoustic noise including echo is suppressed, and stable speech recognition is performed while mutual conversation is possible.
  • a translation device is a translation device that translates a language of one speaker into a language of another speaker in a conversation between a first speaker and a second speaker to amplify a synthetic voice, From a first microphone for inputting the first voice of the first speaker, a first voice recognition circuit for voice-recognizing the first voice and outputting a first character string, and the first voice recognition circuit A first translation circuit for translating the output first character string into the language of the second speaker to output a third character string; and the third character string output from the first translation circuit.
  • a first speech synthesis circuit for converting into a first translated speech, a first speaker for amplifying the first translated speech, a second microphone for inputting a second speech of the second speaker, A second voice recognition circuit for voice-recognizing the second voice and outputting a second character string; and translating the second character string output from the second voice recognition circuit into the language of the first speaker.
  • a second translation circuit for outputting a fourth character string, a second speech synthesis circuit for converting the fourth character string output from the second translation circuit into a second translated speech, and the second translation circuit.
  • a second speaker for amplifying the translated voice, and a phenomenon in which the first translated voice amplified by the first speaker is input to the second microphone is referred to as the first translated voice
  • a first echo signal that indicates the first echo is estimated using the first transfer function corresponding to the first echo, and the first echo signal is removed from an output signal of the second microphone;
  • a phenomenon in which the second translated speech amplified by the echo canceller and the second speaker is input to the first microphone is referred to as a second echo
  • the second translated speech and the second echo corresponding to the second echo are provided.
  • a second echo canceller that estimates the second echo signal indicating the second echo using the two transfer functions and removes the second echo signal from the output signal of the first microphone; and a control circuit.
  • the control circuit causes the first echo canceller to update a transfer function for estimating the first echo signal while the first speech synthesis circuit is outputting the first translated speech, and the second echo canceller While the speech synthesis circuit is outputting the second translated speech, the second echo canceller is caused to update the transfer function for estimating the second echo signal.
  • the translation device is a translation device that translates the language of one speaker into the language of the other speaker in a conversation between the first speaker and the second speaker to amplify the synthetic speech.
  • a first microphone for inputting the first voice of the first speaker, a first voice recognition circuit for voice-recognizing the first voice and outputting a first character string, and the first voice recognition
  • a first translation circuit for translating the first character string output from the circuit into the language of the second speaker and outputting a third character string; and the third character output from the first translation circuit
  • a first voice synthesis circuit for converting a string into a first translated voice, a first speaker for amplifying the first translated voice, and a second microphone for inputting a second voice of the second speaker.
  • a second voice recognition circuit for voice-recognizing the second voice and outputting a second character string; and a second voice string output from the second voice recognition circuit for the language of the first speaker.
  • a second translation circuit for translating the fourth character string to output a fourth character string, and a second speech synthesis circuit for converting the fourth character string output from the second translation circuit into a second translated speech.
  • a second speaker for amplifying the second translated speech and a phenomenon in which the first translated speech amplified by the first speaker is input to the first microphone is defined as a third echo, and the first translation is performed.
  • a third echo canceller and a fourth echo corresponding to the second translated voice and the fourth echo when a phenomenon in which the second translated voice amplified by the second speaker is input to the second microphone is referred to as a fourth echo.
  • the control circuit updates the third transfer function for estimating the third echo signal in the third echo canceller during a period in which the first speech synthesis circuit outputs the first translated speech. Then, while the second speech synthesis circuit is outputting the second translated speech, the fourth echo canceller updates the fourth transfer function for estimating the fourth echo signal.
  • the translation device is a translation device that translates the language of one speaker into the language of the other speaker in a conversation between the first speaker and the second speaker to amplify the synthetic speech.
  • a first microphone for inputting the first voice of the first speaker, a first voice recognition circuit for voice-recognizing the first voice and outputting a first character string, and the first voice recognition
  • a first translation circuit for translating the first character string output from the circuit into the language of the second speaker and outputting a third character string; and the third character output from the first translation circuit
  • a first voice synthesis circuit for converting a string into a first translated voice, a second microphone for inputting a second voice of the second speaker, and a second character string by voice recognition of the second voice.
  • a second voice recognition circuit for outputting a second voice recognition circuit, and a second voice recognition circuit for translating the second character string output from the second voice recognition circuit into the language of the first speaker to output a fourth character string.
  • a translation circuit for converting the fourth character string output from the second translation circuit into a second translation speech, and the first translation speech output by the first speech synthesis circuit.
  • An adding circuit that adds the second translated speech output by the second speech synthesis circuit to output an added translated speech, a speaker for amplifying the added translated speech output by the adding circuit, and a loud sound from the speaker.
  • a fifth echo canceller for estimating the fifth echo signal indicating that the fifth echo signal is removed from the output signal of the second microphone, and the added translated speech amplified by the speaker is input to the first microphone.
  • the sixth echo signal indicating the sixth echo is estimated by using the added translated speech and the sixth transfer function corresponding to the sixth echo, and the sixth echo signal is estimated.
  • a sixth echo canceller for removing an echo signal from the output signal of the first microphone; and a control circuit, wherein the control circuit outputs the first translated voice by the first voice synthesis circuit, or While the second speech synthesis circuit is outputting the second translated speech, the fifth echo canceller updates the transfer function for estimating the fifth echo signal, and the first speech synthesis circuit causes the first translation circuit to perform the first translation.
  • the sixth echo signal is output to the sixth echo canceller while the voice is output or the second speech synthesis circuit is outputting the second translated voice.
  • the transfer function for estimating is updated.
  • a translation method is a translation method for translating one's own language into a partner's language and expanding a synthetic voice in a conversation between a first speaker and a second speaker.
  • a first input step for inputting one voice a first voice recognition step for voice-recognizing the first voice and outputting a first character string, and the first voice output from the first voice recognition step.
  • a first voice synthesizing step for converting, a first voice increasing step for amplifying the first translated voice, a second input step for inputting a second voice of the second speaker, and the second A second speech recognition step for recognizing speech and outputting a second character string; and translating the second character string output from the second speech recognition step into the language of the first speaker.
  • a second translation step for outputting a four character string; a second speech synthesis step for converting the fourth character string output from the second translation step into a second translated speech; and a second translated speech.
  • a second echo step for increasing the voice and a first echo is a phenomenon in which the first translated voice amplified in the first voice step is input in the second input step, the first translation
  • the first echo signal indicating the first echo is estimated using the voice and the first transfer function corresponding to the first echo, and the first echo signal is removed from the output signal of the second input step.
  • a phenomenon in which the second translated speech amplified in the first echo canceling step and the second speech enhancing step is input in the first input step is a second echo
  • the second translated speech and the second translated speech are generated.
  • a second echo canceller for estimating a second echo signal indicating the second echo by using a second transfer function corresponding to two echoes and removing the second echo signal from the output signal of the first input step.
  • Step and during the period during which the first translated speech is being output in the first speech synthesis step, in the first echo canceller step, updating the first transfer function for estimating the first echo signal, Control for giving an instruction to update the second transfer function for estimating the second echo signal in the second echo canceller step while the second translated speech is being output in the second speech synthesis step. And steps.
  • the translation method according to the present disclosure is a translation method for translating one's own language into a partner's language and expanding a synthetic voice in a conversation between a first speaker and a second speaker.
  • a first input step for inputting a first voice
  • a first voice recognition step for voice-recognizing the first voice and outputting a first character string
  • a first voice recognition step for translating the first character string into the language of the second speaker to output a third character string; and a first translation of the third character string output from the first translation step.
  • a first voice synthesizing step for converting to a voice; a first loudspeaking step for amplifying the first translated speech; a second inputting step for inputting a second voice of the second speaker; A second voice recognition step for voice-recognizing a second voice and outputting a second character string; and translating the second character string output from the second voice recognition step into the language of the first speaker.
  • a second voice amplification step for amplifying the translated voice and a phenomenon in which the first translated voice output in the first voice enhancement step is input in the first input step is a third echo
  • a third echo signal indicating the third echo is estimated, and the third echo signal is output from the output signal of the first input step.
  • a third echo canceller step for removing and a phenomenon in which the second translated speech output in the second loudspeaking step is input in the second input step is referred to as the second translated speech
  • a fourth echo signal representing the fourth echo is estimated using the fourth transfer function corresponding to the fourth echo, and the fourth echo signal is removed from the output signal of the second input step.
  • the third transfer function for estimating the third echo signal is updated in the third echo canceller step during the period in which the first translated speech is output in the echo canceller step and the first speech synthesis step. , Giving an instruction to update the fourth transfer function for estimating the fourth echo signal in the fourth echo canceller step during a period in which the second translated speech is output from the second speech synthesis step. And a control step.
  • the translation device and the translation method according to the present disclosure simultaneously overlap the voices of a plurality of speakers and the plurality of synthetic voices that are output by recognizing the voices of the plurality of speakers, translating them into the language of the other party, and performing voice synthesis. Even in the case of existing, it is effective for conversation with each other while stably recognizing voice by removing acoustic noise including echo.
  • FIG. 1 is a diagram showing an application example of the translation apparatus according to the first embodiment.
  • FIG. 2 is a block diagram showing the configuration of the translation device according to the first embodiment.
  • FIG. 3 is a flowchart for updating transfer functions of the first echo canceller and the third echo canceller.
  • FIG. 4 is a flowchart for updating transfer functions of the second echo canceller and the fourth echo canceller.
  • FIG. 5 is a block diagram showing the configuration of the translation device according to the second embodiment.
  • FIG. 6 is a block diagram showing the configuration of the translation device according to the third embodiment.
  • FIG. 7 is a flowchart for selecting the optimum configuration among the first to third embodiments.
  • FIG. 8 is a block diagram showing the configuration of the translation device according to the fourth embodiment.
  • FIG. 9 is a block diagram showing the configuration of the translation device according to the fifth embodiment.
  • FIG. 10 is a block diagram showing the configuration of the translation device according to the sixth embodiment.
  • FIG. 11 is a diagram showing an example of
  • FIG. 1 is a diagram showing an application example of the translation apparatus 20 according to the first embodiment.
  • the translation device 20 is applied as a device that translates and expands a conversation between a first speaker 11 and a second speaker 12 that face each other with a counter 10 in between.
  • the translation device 20 is a device that translates and expands a conversation between the first speaker 11 (here, a customer) and the second speaker 12 (here, a reception).
  • the counter 10 is provided with a first microphone 21 for inputting the voice (first voice) of the first speaker 11, and the second speaker 12 side translates the voice with a translation device 20 and outputs it.
  • a first speaker 22 for performing the operation is provided.
  • the second speaker 12 side is provided with a second microphone 23 for inputting the voice (second voice) of the second speaker 12, and the first speaker 11 side translates the voice.
  • a second speaker 24 for translating and outputting at 20 is provided.
  • the translation device 20 is provided with a first display circuit 25, a second display circuit 26, a first camera 291 and a second camera 292.
  • the first speaker 11 when toward the first microphone 21 utters "Hello", the voice is translated by the translation device 20, are loud as “Hello” from the first speaker 22. Then, when the second speaker 12 utters “Welcome to me” into the second microphone 23, the voice is translated by the translation device 20 and the second speaker 24 reads “Hello! May I help you ?”.
  • the first display circuit 25 and the second display circuit 26, and the first speaker 11 is the utterance of the second speaker 12, "Hello", “Hello”, “May I help you?" Of "Hello! May I help you?" Display a string.
  • the first speaker 11 and the second speaker 12 have removed acoustic noise including echo (echo) and crosstalk (crosstalk) even in one narrow space.
  • acoustic noise including echo (echo) and crosstalk (crosstalk) even in one narrow space.
  • Accurate voice recognition can be performed by voice, so conversation can be enjoyed.
  • ⁇ Echo refers to the following two phenomena.
  • the sound output from the speaker to a speaker is input into the microphone for inputting the speaker's voice, and the sound output from the speaker to the speaker is This is a phenomenon in which a voice is input by wrapping around a microphone for inputting voices other than that of the speaker.
  • the phenomenon in which the sound output from the first speaker 22 is input to the second microphone 23 by being sneak up is input to the first echo 13, and the sound output from the second speaker 24 is input to the first microphone 21.
  • the phenomenon of being circumvented and input is defined as the second echo 14.
  • the phenomenon in which the sound output from the first speaker 22 circulates into the first microphone 21 and is input is described as the third echo 15 and the sound output from the second speaker 24 circulates into the second microphone 23.
  • the phenomenon that is input is defined as the fourth echo 16.
  • crosstalk is a phenomenon in which the voice of a certain speaker is input to a microphone for inputting the voices of other speakers.
  • a phenomenon in which the voice of the first speaker 11 is input to the second microphone 23 is a phenomenon in which the voice of the second speaker 12 is input to the first microphone 21. Is defined as the second crosstalk 18.
  • FIG. 2 is a block diagram showing the configuration of translation apparatus 20 in the first embodiment shown in FIG.
  • the translation device 20 includes a first microphone 21, a first speaker 22, a second microphone 23, a second speaker 24, a first display circuit 25, a second display circuit 26, a first language selection circuit 27, and a second language selection circuit.
  • the recognition circuit 32, the first translation circuit 33, the second translation circuit 34, the first voice synthesis circuit 35, the second voice synthesis circuit 36, the control circuit 37, and the video signal generation circuit 38 are provided.
  • the translation device 20 may include a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory) that are interconnected via a bus.
  • the processing device 201 shown in FIG. 1 includes a first echo canceller 40, a second echo canceller 50, a third echo canceller 60, a fourth echo canceller 70, a first crosstalk canceller 80, and a second crosstalk canceller 90.
  • First voice recognition circuit 31 second voice recognition circuit 32, first translation circuit 33, second translation circuit 34, first voice synthesis circuit 35, second voice synthesis circuit 36, control circuit 37, and video signal generation circuit 38. Is included.
  • Each component of the translation device 20 is connected by wire or wirelessly.
  • the first microphone 21 is a microphone for inputting the first voice of the first speaker 11, and for example, as shown in FIG. 1, the customer side of the counter 10 (here, the first speaker 11 side). It is provided toward.
  • the output signal output from the first microphone 21 is, for example, digital audio data generated by an A/D converter provided in or immediately after the first microphone 21.
  • the first microphone 21 may have directivity.
  • the directivity is a function capable of collecting sound from a specific direction.
  • the first speaker 22 amplifies the first translated voice. [1-3. The operation will be described later in detail, but the first translated voice is a voice in which the first voice that is the language of the first speaker 11 is translated into the language of the second speaker 12 by the translation device 20.
  • the first speaker 22 is provided on the reception side (here, the second speaker 12 side) of the counter 10 as shown in FIG. 1, for example. It should be noted that the first speaker 22 outputs, for example, as audio after converting the input digital audio data into an analog signal by a D/A converter built in the first speaker 22 or provided immediately before.
  • the second microphone 23 is a microphone for inputting the second voice of the second speaker 12, and for example, as shown in FIG. 1, the reception side of the counter 10 (here, the second speaker 12 side). It is provided toward.
  • the output signal output from the second microphone 23 is, for example, digital audio data generated by an A/D converter provided in or immediately after the second microphone 23.
  • the second microphone 23 may have directivity.
  • the directivity is a function capable of collecting sound from a specific direction.
  • the second speaker 24 amplifies the second translated voice. [1-3. The operation will be described later in detail, but the second translated voice is a voice in which the second voice that is the language of the second speaker 12 is translated into the language of the first speaker 11 by the translation device 20.
  • the second speaker 24 is provided toward the customer side of the counter 10 (here, the first speaker 11 side), as shown in FIG. 1, for example. It should be noted that the second speaker 24 outputs, for example, as audio after converting the input digital audio data into an analog signal by a D/A converter built in the second speaker 24 or provided immediately before.
  • the first display circuit 25 is a display circuit for displaying a character string as a result of recognizing and translating the voice of the first speaker 11 and a character string as a result of recognizing the voice of the second speaker 12.
  • the two-speaker 12 is arranged at a position where it can be visually recognized.
  • the first display circuit 25 may be, for example, a liquid crystal display or an organic EL (ElectroLuminescence) display, and may be a tablet terminal, a smartphone, a personal computer, or the like. Further, the first display circuit 25 may have a touch panel function.
  • the second display circuit 26 is a display circuit for displaying a character string resulting from recognizing and translating the voice of the second speaker 12 and a character string resulting from recognizing the voice of the first speaker 11.
  • the one-speaker 11 is arranged at a position that can be visually recognized.
  • the second display circuit 26 may be, for example, a liquid crystal display or an organic EL display, or may be a tablet terminal, a smartphone, a personal computer, or the like. Further, the second display circuit 26 may have a touch panel function.
  • the first language selection circuit 27 receives the selection of the first language used by the first speaker 11 from the first speaker 11 and notifies the control circuit 37 of the selection.
  • the first language selection circuit 27 is, for example, a switch that sets the first language, which is the type of the language of the voice of the first speaker 11, and is arranged at a position that the first speaker 11 can select. Further, the first language selection circuit 27 may be included in the first display circuit 25 when the first display circuit 25 has a touch panel function.
  • the second language selection circuit 28 accepts the selection of the second language used by the second speaker 12 from the second speaker 12 and notifies the control circuit 37 of the selection.
  • the second language selection circuit 28 is, for example, a switch for setting the second language, which is the type of language of the voice of the second speaker 12, and is arranged at a position where the second speaker 12 can select. Further, the second language selection circuit 28 may be included in the second display circuit 26 when the second display circuit 26 has a touch panel function.
  • the CPU is a processor that executes the programs stored in the ROM.
  • the ROM holds, for example, a program read and executed by the CPU.
  • the CPU executes the processing of the circuit described later by executing this program.
  • the RAM is a readable/writable memory having a storage area used when the CPU executes a program.
  • the processing of the video signal generation circuit 38 is realized by the processor.
  • the first voice recognition circuit 31 voice-recognizes the first voice of the first speaker 11 and outputs a first character string.
  • the first voice recognition circuit 31 also outputs a first character string, which is the result of voice recognition of the first voice of the first speaker 11, to the first translation circuit 33 and the control circuit 37.
  • the second voice recognition circuit 32 voice-recognizes the second voice of the second speaker 12 and outputs a second character string. Further, the second voice recognition circuit 32 outputs the second character string, which is the result of voice recognition of the second voice of the second speaker 12, to the second translation circuit 34 and the control circuit 37.
  • the first translation circuit 33 translates the first character string output from the first speech recognition circuit 31 into the language of the second speaker 12, and outputs the third character string. Further, the first translation circuit 33 outputs the third character string to the first voice synthesis circuit 35 and the control circuit 37.
  • the second translation circuit 34 translates the second character string output from the second speech recognition circuit 32 into the language of the first speaker 11 and outputs the fourth character string.
  • the second translation circuit 34 also outputs the fourth character string to the second voice synthesis circuit 36 and the control circuit 37.
  • the first voice synthesis circuit 35 converts the third character string output from the first translation circuit 33 into a first translated voice.
  • the first speech synthesis circuit 35 also outputs the first translated speech to the first speaker 22, the first echo canceller 40, and the third echo canceller 60.
  • the second voice synthesis circuit 36 converts the fourth character string output from the second translation circuit 34 into a second translated voice.
  • the second speech synthesis circuit 36 also outputs the second translated speech to the second speaker 24, the second echo canceller 50, and the fourth echo canceller 70.
  • the control circuit 37 causes the first echo canceller 40 to update the first transfer function for estimating the first echo signal while the first speech synthesis circuit 35 is outputting the first translated speech, and the second speech synthesis. While the circuit 36 is outputting the second translated speech, the second echo canceller 50 updates the second transfer function for estimating the second echo signal.
  • the first transfer function is stored in the first transfer function storage circuit 44 included in the first echo canceller 40.
  • the second transfer function storage circuit 54 included in the second echo canceller 50 stores the second transfer function.
  • control circuit 37 causes the third echo canceller 60 to update the third transfer function for estimating the third echo signal while the first speech synthesis circuit 35 is outputting the first translated speech, and the second While the voice synthesis circuit 36 is outputting the second translated voice, the fourth echo canceller 70 updates the fourth transfer function for estimating the fourth echo signal.
  • the third transfer function storage circuit 64 included in the third echo canceller 60 stores the third transfer function.
  • the fourth transfer function storage circuit 74 included in the fourth echo canceller 70 stores the fourth transfer function.
  • control circuit 37 supplies the first transfer function and the third transfer function to the first echo canceller 40 and the third echo canceller 60 during the period in which the first speech synthesis circuit 35 is not outputting the first translated speech. Do not update. Further, the control circuit 37 supplies the second transfer function and the fourth transfer function to the second echo canceller 50 and the fourth echo canceller 70 during a period in which the second speech synthesis circuit 36 is not outputting the second translated speech. Do not update.
  • control circuit 37 sets the first language to the first speech recognition circuit 31 based on the first language notified from the first language selection circuit 27 and the second language notified from the second language selection circuit 28.
  • Speech recognition, second speech recognition circuit 32 speech recognition of the second language, first translation circuit 33 translated from the first language to the second language, second translation circuit 34 from the second language to the first language.
  • the first speech synthesis circuit 35 is translated, and the first speech synthesis circuit 35 is synthesized in the second language, and the second speech synthesis circuit 36 is synthesized in the first language.
  • the video signal generation circuit 38 outputs the recognition result of the voice of the first speaker 11 output by the first voice recognition circuit 31, the first character string in the first language, and the first speaker 11 output by the first translation circuit 33.
  • the fourth character string obtained by converting the second language voice of the second speaker 12 output by the second translation circuit 34 into the first language character is input from the control circuit 37.
  • the video signal generation circuit 38 outputs the first character string of the first language, which is the recognition result of the voice of the first speaker 11 output by the first voice recognition circuit 31, and the second character output by the second translation circuit 34.
  • the fourth character string obtained by converting the voice of the speaker 12 in the second language into the first language is output to the second display circuit 26.
  • the video signal generation circuit 38 outputs the second character string of the second language, which is the recognition result of the voice of the second speaker 12 output by the second voice recognition circuit 32, and the first character output by the first translation circuit 33.
  • the third character string obtained by converting the voice of the first language of the speaker 11 into the second language is output to the first display circuit 25.
  • the first echo canceller 40 corresponds to the first translated voice and the first echo 13 when the phenomenon that the first translated voice amplified by the first speaker 22 is input to the second microphone 23 is the first echo 13.
  • the first echo signal is a signal indicating the degree of the first echo 13.
  • the first echo canceller 40 is a circuit that removes the first echo signal from the output signal of the second microphone 23 and outputs the removed signal to the fourth echo canceller 70. Is a digital signal processing circuit for processing in the time domain.
  • the first echo canceller 40 includes a first transfer function storage circuit 44, a first storage circuit 42, a first convolution calculator 43, a first subtractor 41, and a first transfer function update circuit 45.
  • the first transfer function storage circuit 44 stores the first transfer function corresponding to the first echo 13.
  • the first storage circuit 42 stores the output signal of the first voice synthesis circuit 35.
  • the first convolution calculator 43 convolves the signal stored in the first storage circuit 42 and the first transfer function stored in the first transfer function storage circuit 44 to generate a first interference signal (that is, a first echo signal). To generate.
  • the first convolution calculator 43 is an N-tap FIR (Finite Impulse Response) filter that performs the convolution calculation represented by the following Expression 1.
  • y1't is the first disturbing signal at time t.
  • N is the number of taps of the FIR filter.
  • H1(i)t is the i-th first transfer function of the N first transfer functions stored in the first transfer function storage circuit 44 at time t.
  • x1(ti) is the (ti)th signal of the signals stored in the first memory circuit 42.
  • the first subtractor 41 removes the first interfering signal output from the first convolutional computing unit 43 from the output signal of the second microphone 23, and outputs it as the output signal of the first echo canceller 40.
  • the first subtractor 41 performs the subtraction shown in the following Expression 2.
  • e1t is the output signal of the first subtractor 41 at time t.
  • y1t is an output signal of the second microphone 23 at time t.
  • the first transfer function update circuit 45 updates the first transfer function stored in the first transfer function storage circuit 44 based on the output signal of the first subtractor 41 and the signal stored in the first storage circuit 42. ..
  • the first transfer function update circuit 45 uses the independent component analysis based on the output signal of the first subtractor 41 and the signal stored in the first storage circuit 42, as shown in the following Expression 3. Then, the first transfer function stored in the first transfer function storage circuit 44 is updated so that the output signal of the first subtractor 41 and the signal stored in the first storage circuit 42 are mutually independent.
  • H1(j)t+1 is the j-th first transfer function of the N first transfer functions stored in the first transfer function storage circuit 44 (that is, after updating) at time t+1. ..
  • H1(j)t is the j-th first transfer function of the N first transfer functions stored in the first transfer function storage circuit 44 at time t (that is, before updating).
  • ⁇ 1 is a step size parameter for controlling the learning speed in the estimation of the first transfer function of the first echo 13.
  • ⁇ 1 is a non-linear function (for example, a sigmoid function (sigmoid function), a hyperbolic tangent function (tanh function), a normalized linear function or a sign function (sign function)).
  • the first transfer function update circuit 45 subjects the output signal of the first subtractor 41 to the nonlinear processing using the nonlinear function, and the obtained result is stored in the first storage circuit 42.
  • the first update coefficient is calculated by multiplying the signal by the first step size parameter for controlling the learning speed in the estimation of the first transfer function of the first echo 13. Then, the calculation is performed by adding the calculated first update coefficient to the first transfer function stored in the first transfer function storage circuit 44.
  • control circuit 37 causes the first echo canceller 40 to update the first transfer function for estimating the first echo signal while the first speech synthesis circuit 35 is outputting the first translated speech. That is, while the first echo 13 is present, the first transfer function is updated based on the update formula of the first transfer function shown in the above Expression 3.
  • the second echo canceller 50 corresponds to the second translated voice and the second echo 14 when the phenomenon that the second translated voice amplified by the second speaker 24 is input to the first microphone 21 is the second echo 14.
  • the second transfer function is used to estimate the second echo signal indicating the second echo 14 and remove the second echo signal from the output signal of the first microphone 21.
  • the second echo signal is a signal indicating the degree of the second echo 14.
  • the second echo canceller 50 is a circuit that removes the second echo signal from the output signal of the first microphone 21 and outputs the removed signal to the third echo canceller 60. Is a digital signal processing circuit for processing in the time domain.
  • the second echo canceller 50 has a second transfer function storage circuit 54, a second storage circuit 52, a second convolution calculator 53, a second subtractor 51, and a second transfer function update circuit 55.
  • the second transfer function storage circuit 54 stores the second transfer function corresponding to the second echo 14.
  • the second storage circuit 52 stores the output signal of the second voice synthesis circuit 36.
  • the second convolution calculator 53 convolves the signal stored in the second storage circuit 52 and the second transfer function stored in the second transfer function storage circuit 54 to generate a second interference signal (that is, a second echo signal). To generate.
  • the second convolutional calculator 53 is an N-tap FIR filter that performs the convolutional calculation shown in Expression 4 below.
  • y2't is the second interference signal at time t.
  • N is the number of taps of the FIR filter.
  • H2(i)t is the i-th second transfer function of the N second transfer functions stored in the second transfer function storage circuit 54 at time t.
  • x2(ti) is the (ti)th signal of the signals stored in the second memory circuit 52.
  • the second subtractor 51 removes the second interfering signal output from the second convolution calculator 53 from the output signal of the first microphone 21, and outputs it as the output signal of the second echo canceller 50.
  • the second subtractor 51 performs the subtraction shown in the following Expression 5.
  • e2t is the output signal of the second subtractor 51 at time t.
  • y2t is the output signal of the first microphone 21 at time t.
  • the second transfer function update circuit 55 updates the second transfer function stored in the second transfer function storage circuit 54 based on the output signal of the second subtractor 51 and the signal stored in the second storage circuit 52. ..
  • the second transfer function updating circuit 55 uses the independent component analysis based on the output signal of the second subtractor 51 and the signal stored in the second memory circuit 52, as shown in the following Expression 6. Then, the second transfer function stored in the second transfer function storage circuit 54 is updated so that the output signal of the second subtractor 51 and the signal stored in the second storage circuit 52 are independent of each other.
  • ⁇ 2 is a step size parameter for controlling the learning speed in the estimation of the second transfer function of the second echo 14.
  • ⁇ 2 is a non-linear function (for example, a sigmoid function (sigmoid function), a hyperbolic tangent function (tanh function), a normalized linear function or a sign function (sign function)).
  • the second transfer function update circuit 55 performs the non-linear processing using the non-linear function on the output signal of the second subtractor 51, and the obtained result is stored in the second storage circuit 52.
  • the second update coefficient is calculated by multiplying the signal by the second step size parameter for controlling the learning speed in the estimation of the second transfer function of the second echo 14. Then, updating is performed by adding the calculated second update coefficient to the second transfer function stored in the second transfer function storage circuit 54.
  • control circuit 37 causes the second echo canceller 50 to update the second transfer function for estimating the second echo signal while the second speech synthesis circuit 36 is outputting the second translated speech. That is, while the second echo 14 is present, the second transfer function is updated based on the update formula of the second transfer function shown in the above equation 6.
  • the third echo canceller 60 corresponds to the first translated voice and the third echo 15 when the phenomenon that the first translated voice output from the first speaker 22 is input to the first microphone 21 is the third echo 15. It is a circuit that estimates the third echo signal indicating the third echo 15 using the third transfer function and removes the third echo signal from the output signal of the first microphone 21.
  • the third echo signal is a signal indicating the degree of the third echo 15.
  • the third echo canceller 60 is a circuit that removes the third echo signal from the output signal of the second echo canceller 50 and outputs the removed signal to the second crosstalk canceller 90. It is a digital signal processing circuit that processes audio data in the time domain.
  • the third echo canceller 60 includes a third transfer function storage circuit 64, a third storage circuit 62, a third convolution calculator 63, a third subtractor 61, and a third transfer function update circuit 65.
  • the third transfer function storage circuit 64 stores the third transfer function corresponding to the third echo 15.
  • the third storage circuit 62 stores the output signal of the first voice synthesis circuit 35.
  • the third convolution calculator 63 convolves the signal stored in the third storage circuit 62 and the third transfer function stored in the third transfer function storage circuit 64 to generate a third interference signal (that is, a third echo signal). To generate.
  • the third convolutional calculator 63 is an N-tap FIR filter that performs the convolutional calculation shown in Expression 7 below.
  • y3't is the third disturbing signal at time t.
  • N is the number of taps of the FIR filter.
  • H3(i)t is the i-th third transfer function of the N third transfer functions stored in the third transfer function storage circuit 64 at time t.
  • x3(ti) is the (ti)th signal among the signals stored in the third memory circuit 62.
  • the third subtractor 61 removes the third interfering signal output from the third convolution calculator 63 from the output signal of the second echo canceller 50, and outputs it as the output signal of the third echo canceller 60.
  • the third subtractor 61 performs the subtraction shown in Expression 8 below.
  • e3t is the output signal of the third subtractor 61 at time t.
  • y3t is the output signal of the second echo canceller 50 at time t.
  • the third transfer function update circuit 65 updates the third transfer function stored in the third transfer function storage circuit 64 based on the output signal of the third subtractor 61 and the signal stored in the third storage circuit 62. ..
  • the third transfer function update circuit 65 uses the independent component analysis based on the output signal of the third subtractor 61 and the signal stored in the third storage circuit 62, as shown in the following Expression 9. Then, the third transfer function stored in the third transfer function storage circuit 64 is updated so that the output signal of the third subtractor 61 and the signal stored in the third storage circuit 62 are independent of each other.
  • H3(j)t+1 is the j-th third transfer function of the N third transfer functions stored in the third transfer function storage circuit 64 at the time t+1 (that is, after updating).
  • H3(j)t is the j-th third transfer function of the N third transfer functions stored in the third transfer function storage circuit 64 at time t (that is, before updating).
  • ⁇ 3 is a step size parameter for controlling the learning speed in the estimation of the third transfer function of the third echo 15.
  • ⁇ 3 is a non-linear function (for example, a sigmoid function (sigmoid function), a hyperbolic tangent function (tanh function), a normalized linear function, or a sign function (sign function)).
  • the third transfer function update circuit 65 performs the non-linear processing using the non-linear function on the output signal of the third subtractor 61, and the obtained result is stored in the third storage circuit 62.
  • the third update coefficient is calculated by multiplying the signal by the third step size parameter for controlling the learning speed in the estimation of the third transfer function of the third echo 15. Then, updating is performed by adding the calculated third update coefficient to the third transfer function stored in the third transfer function storage circuit 64.
  • control circuit 37 causes the third echo canceller 60 to update the third transfer function for estimating the third echo signal while the first speech synthesis circuit 35 is outputting the first translated speech. That is, while the third echo 15 is present, the third transfer function is updated based on the update formula of the third transfer function shown in the above Expression 9.
  • the fourth echo canceller 70 corresponds to the second translated voice and the fourth echo 16 when the phenomenon that the second translated voice expanded from the second speaker 24 is input to the second microphone 23 is the fourth echo 16.
  • the fourth echo signal is a signal indicating the degree of the fourth echo 16.
  • the fourth echo canceller 70 is a circuit that removes the fourth echo signal from the output signal of the first echo canceller 40 and outputs the removed signal to the first crosstalk canceller 80. It is a digital signal processing circuit that processes audio data in the time domain.
  • the fourth echo canceller 70 has a fourth transfer function storage circuit 74, a fourth storage circuit 72, a fourth convolution calculator 73, a fourth subtractor 71, and a fourth transfer function update circuit 75.
  • the fourth transfer function storage circuit 74 stores the fourth transfer function corresponding to the fourth echo 16.
  • the fourth storage circuit 72 stores the output signal of the second voice synthesis circuit 36.
  • the fourth convolution calculator 73 convolves the signal stored in the fourth storage circuit 72 and the fourth transfer function stored in the fourth transfer function storage circuit 74 to thereby obtain a fourth interference signal (that is, a fourth echo signal).
  • a fourth interference signal that is, a fourth echo signal.
  • the fourth convolutional calculator 73 is an N-tap FIR filter that performs the convolutional calculation shown in Expression 10 below.
  • y4't is the fourth interference signal at time t.
  • N is the number of taps of the FIR filter.
  • H4(i)t is the i-th fourth transfer function of the N fourth transfer functions stored in the fourth transfer function storage circuit 74 at time t.
  • x4(ti) is the (ti)th signal among the signals stored in the fourth memory circuit 72.
  • the fourth subtractor 71 removes the fourth interference signal output from the fourth convolution calculator 73 from the output signal of the first echo canceller 40, and outputs it as the output signal of the fourth echo canceller 70.
  • the fourth subtractor 71 performs the subtraction shown in the following Expression 11.
  • e4t is the output signal of the fourth subtractor 71 at time t.
  • y4t is the output signal of the first echo canceller 40 at time t.
  • the fourth transfer function update circuit 75 updates the fourth transfer function stored in the fourth transfer function storage circuit 74 based on the output signal of the fourth subtractor 71 and the signal stored in the fourth storage circuit 72. ..
  • the fourth transfer function updating circuit 75 uses the independent component analysis based on the output signal of the fourth subtractor 71 and the signal stored in the fourth storage circuit 72, as shown in the following Expression 12. Then, the fourth transfer function stored in the fourth transfer function storage circuit 74 is updated so that the output signal of the fourth subtractor 71 and the signal stored in the fourth storage circuit 72 are independent of each other.
  • ⁇ 4 is a step size parameter for controlling the learning speed in the estimation of the fourth transfer function of the fourth echo 16.
  • ⁇ 4 is a non-linear function (for example, a sigmoid function (sigmoid function), a hyperbolic tangent function (tanh function), a normalized linear function, or a sign function (sign function)).
  • the fourth transfer function update circuit 75 performs the non-linear processing using the non-linear function on the output signal of the fourth subtractor 71, and the obtained result is stored in the fourth storage circuit 72.
  • the fourth update coefficient is calculated by multiplying the signal by the fourth step size parameter for controlling the learning speed in the estimation of the fourth transfer function of the fourth echo 16. Then, the calculated fourth update coefficient is added to the fourth transfer function stored in the fourth transfer function storage circuit 74 to perform the update.
  • control circuit 37 causes the fourth echo canceller 70 to update the fourth transfer function for estimating the fourth echo signal while the second speech synthesis circuit 36 is outputting the second translated speech. That is, while the fourth echo 16 is present, the fourth transfer function is updated based on the update formula of the fourth transfer function shown in the above Expression 12.
  • First crosstalk canceller 80 When the phenomenon that the first voice is input to the second microphone 23 is the first crosstalk 17, the first crosstalk canceller 80 uses the first voice to output the first crosstalk signal indicating the first crosstalk 17. For removing the first crosstalk signal from the output signal of the second microphone 23. That is, the fifth interfering signal is estimated by using the output signal of the second crosstalk canceller 90 based on the first voice to estimate the fifth interfering signal (that is, the first crosstalk signal) indicating the degree of the first crosstalk 17. Is removed from the output signal of the fourth echo canceller 70 based on the output signal of the second microphone 23.
  • the first crosstalk canceller 80 is a circuit that outputs the signal from which the fifth interfering signal has been removed to the second voice recognition circuit 32, and digital signal processing that processes digital voice data in the time domain. Circuit.
  • the output signal of the second crosstalk canceller 90 is an input signal to the first voice recognition circuit 31, as shown in FIG.
  • the first crosstalk canceller 80 includes a fifth transfer function storage circuit 84, a fifth storage circuit 82, a fifth convolution calculator 83, a fifth subtractor 81, and a fifth transfer function update circuit 85. ..
  • the fifth transfer function storage circuit 84 stores the fifth transfer function estimated as the transfer function of the first crosstalk 17.
  • the fifth storage circuit 82 stores the output signal of the second crosstalk canceller 90.
  • the fifth convolution calculator 83 convolves the signal stored in the fifth storage circuit 82 and the fifth transfer function stored in the fifth transfer function storage circuit 84 to generate a fifth interference signal.
  • the fifth convolution calculator 83 is an N-tap FIR filter that performs the convolution calculation shown in Expression 13 below.
  • y5't is the fifth disturbing signal at time t.
  • N is the number of taps of the FIR filter.
  • H5(i)t is the i-th fifth transfer function of the N fifth transfer functions stored in the fifth transfer function storage circuit 84 at time t.
  • x5(ti) is the (ti)th signal of the signals stored in the fifth memory circuit 82.
  • the fifth subtractor 81 removes the fifth interference signal output from the fifth convolution calculator 83 from the output signal of the fourth echo canceller 70, and outputs it as the output signal of the first crosstalk canceller 80.
  • the fifth subtractor 81 performs the subtraction shown in the following Expression 14.
  • e5t is the output signal of the fifth subtractor 81 at time t.
  • y5t is the output signal of the fourth echo canceller 70 at time t.
  • the fifth transfer function update circuit 85 updates the fifth transfer function stored in the fifth transfer function storage circuit 84 based on the output signal of the fifth subtractor 81 and the signal stored in the fifth storage circuit 82. ..
  • the fifth transfer function updating circuit 85 uses the independent component analysis based on the output signal of the fifth subtractor 81 and the signal stored in the fifth storage circuit 82 as shown in the following Expression 15. Then, the fifth transfer function stored in the fifth transfer function storage circuit 84 is updated so that the output signal of the fifth subtractor 81 and the signal stored in the fifth storage circuit 82 are independent of each other.
  • ⁇ 5 is a step size parameter for controlling the learning speed in the estimation of the fifth transfer function of the first crosstalk 17.
  • ⁇ 5 is a non-linear function (for example, a sigmoid function (sigmoid function), a hyperbolic tangent function (tanh function), a normalized linear function or a sign function (sign function)).
  • the fifth transfer function update circuit 85 performs the non-linear processing using the non-linear function on the output signal of the fifth subtractor 81, and the obtained result is stored in the fifth storage circuit 82.
  • the fifth update coefficient is calculated by multiplying the signal by the fifth step size parameter for controlling the learning speed in the estimation of the fifth transfer function of the first crosstalk 17. Then, the calculated fifth update coefficient is added to the fifth transfer function stored in the fifth transfer function storage circuit 84 to perform the update.
  • the time when the output signal of the second crosstalk canceller 90 is input to the first crosstalk canceller 80 is the first talk.
  • the voice of the person 11 is designed to be the same as or earlier than the time when the voice of the person 11 is input to the second microphone 23. That is, the causality is held so that the first crosstalk canceller 80 can cancel the first crosstalk 17.
  • This is a factor that determines the time when the output signal of the second crosstalk canceller 90 is input to the first crosstalk canceller 80 (speed of A/D conversion, processing speed of the second echo canceller 50, third echo canceller 60). Processing speed in the second crosstalk canceller 90) and factors that determine the time when the voice of the first speaker 11 is input to the second microphone 23 (the first speaker 11 and the second microphone 23). Can be appropriately realized by taking into account
  • the second crosstalk canceller 90 uses the second voice and outputs the second crosstalk signal indicating the second crosstalk 18 when the phenomenon that the second voice is input to the first microphone 21 is the second crosstalk 18. For removing the second crosstalk signal from the output signal of the first microphone 21. That is, the sixth interfering signal is estimated by using the output signal of the first crosstalk canceller 80 based on the second voice to estimate the sixth interfering signal (that is, the second crosstalk signal) indicating the degree of the second crosstalk 18. Is removed from the output signal of the third echo canceller 60 based on the output signal of the first microphone 21.
  • the second crosstalk canceller 90 is a circuit that outputs a signal from which the sixth interfering signal has been removed to the first voice recognition circuit 31, and digital signal processing that processes digital voice data in the time domain. Circuit.
  • the output signal of the first crosstalk canceller 80 is an input signal to the second voice recognition circuit 32, as shown in FIG.
  • the second crosstalk canceller 90 includes a sixth transfer function storage circuit 94, a sixth storage circuit 92, a sixth convolution calculator 93, a sixth subtractor 91, and a sixth transfer function update circuit 95. ..
  • the sixth transfer function storage circuit 94 stores the sixth transfer function estimated as the transfer function of the second crosstalk 18.
  • the sixth memory circuit 92 stores the output signal of the first crosstalk canceller 80.
  • the sixth convolution calculator 93 convolves the signal stored in the sixth storage circuit 92 and the sixth transfer function stored in the sixth transfer function storage circuit 94 to generate a sixth disturbing signal.
  • the sixth convolution calculator 93 is an N-tap FIR filter that performs the convolution calculation shown in Expression 16 below.
  • y6't is the sixth disturbing signal at time t.
  • N is the number of taps of the FIR filter.
  • H6(i)t is the i-th sixth transfer function of the N number of sixth transfer functions stored in the sixth transfer function storage circuit 94 at time t.
  • x6(t ⁇ i) is the (t ⁇ i)th signal among the signals stored in the sixth storage circuit 92.
  • the sixth subtractor 91 removes the sixth interference signal output from the sixth convolution calculator 93 from the output signal of the third echo canceller 60, and outputs it as the output signal of the second crosstalk canceller 90.
  • the sixth subtractor 91 performs the subtraction shown in Expression 17 below.
  • e6t is the output signal of the sixth subtractor 91 at time t.
  • y6t is the output signal of the third echo canceller 60 at time t.
  • the sixth transfer function update circuit 95 updates the sixth transfer function stored in the sixth transfer function storage circuit 94 based on the output signal of the sixth subtractor 91 and the signal stored in the sixth storage circuit 92. ..
  • the sixth transfer function update circuit 95 uses the independent component analysis based on the output signal of the sixth subtractor 91 and the signal stored in the sixth storage circuit 92, as shown in the following Expression 18. Then, the sixth transfer function stored in the sixth transfer function storage circuit 94 is updated so that the output signal of the sixth subtractor 91 and the signal stored in the sixth storage circuit 92 are mutually independent.
  • ⁇ 6 is a step size parameter for controlling the learning speed in the estimation of the sixth transfer function of the second crosstalk 18.
  • ⁇ 6 is a non-linear function (for example, a sigmoid function (sigmoid function), a hyperbolic tangent function (tanh function), a normalized linear function or a sign function (sign function)).
  • the sixth transfer function update circuit 95 performs the non-linear processing using the non-linear function on the output signal of the sixth subtractor 91, and the obtained result is stored in the sixth storage circuit 92.
  • the sixth update coefficient is calculated by multiplying the signal by the sixth step size parameter for controlling the learning speed in the estimation of the sixth transfer function of the second crosstalk 18. Then, the calculated sixth update coefficient is added to the sixth transfer function stored in the sixth transfer function storage circuit 94 to perform the update.
  • the time when the output signal of the first crosstalk canceller 80 is input to the second crosstalk canceller 90 is the second talk.
  • the voice of the person 12 is designed to be the same as or earlier than the time when the voice of the person 12 is input to the first microphone 21. That is, the causality is held so that the second crosstalk canceller 90 can cancel the second crosstalk 18.
  • This is a factor that determines the time when the output signal of the first crosstalk canceller 80 is input to the second crosstalk canceller 90 (speed of A/D conversion, processing speed of the first echo canceller 40, fourth echo canceller 70). Processing speed in the first crosstalk canceller 80, etc.) and factors that determine the time when the voice of the second speaker 12 is input to the first microphone 21 (the second speaker 12 and the first microphone 21).
  • Translation apparatus 20 in the present embodiment configured as described above operates as follows.
  • the first language selecting circuit 27 and the second language selecting circuit 28 select the first language used by the first speaker 11 to the first speaker 11 and the second speaker 12 to use the first language used by the second speaker 12.
  • the selection of two languages is accepted and the control circuit 37 is notified.
  • the voice of the first speaker 11 is input to the first microphone 21.
  • the second echo 14, the third echo 15, and the second crosstalk 18 are input to the first microphone 21.
  • the second echo canceller 50 removes the second interference signal (that is, the second echo signal).
  • the second interference signal is a signal indicating (estimated) the degree of the second echo 14. Therefore, the output signal of the second echo canceller 50 becomes a signal indicating a voice in which the influence of the second echo 14 is removed from the voice input to the first microphone 21.
  • the third interference signal (that is, the third echo signal) is removed in the third echo canceller 60.
  • the third interference signal is a signal indicating (estimated) the degree of the third echo 15. Therefore, the output signal of the third echo canceller 60 is a signal obtained by removing the influence of the third echo 15 from the output signal of the second echo canceller 50.
  • the sixth interference signal (that is, the second crosstalk signal) is removed by the second crosstalk canceller 90.
  • the sixth disturbing signal is a signal indicating (estimated) the degree of the second crosstalk 18. Therefore, the output signal of the second crosstalk canceller 90 becomes a signal obtained by removing the influence of the second crosstalk 18 from the output signal of the third echo canceller 60, and the first voice recognition circuit 31 and the first crosstalk canceller 80. Is output to.
  • the second echo canceller 50 removes the second echo 14 from the voice of the first speaker 11
  • the third echo canceller 60 removes the third echo 15, and the second echo canceller 60 removes the second echo 14.
  • the digital audio data from which the second crosstalk 18 is removed by the crosstalk canceller 90 is input.
  • the first voice recognition circuit 31 performs a voice recognition on the input digital voice data based on the information in the first language of the first speaker 11 instructed by the control circuit 37, that is, the first character.
  • the string is output to the first translation circuit 33 and the control circuit 37.
  • the first translation circuit 33 outputs the first character string output from the first speech recognition circuit 31 from the first language of the first speaker 11 designated by the control circuit 37 to the second character of the second speaker 12.
  • the third character string of the language is converted, and the converted third character string is output to the first voice synthesis circuit 35 and the control circuit 37.
  • the first speech synthesis circuit 35 outputs the third character string in the second language output by the first translation circuit 33 in the second language based on the information in the second language instructed by the control circuit 37.
  • the signal is converted into a signal, the output signal of the second language is output to the first speaker 22, the first echo canceller 40, and the third echo canceller 60, and the information of the output signal output period of the second language is output to the control circuit 37. ..
  • the output signal of the second language output from the first voice synthesis circuit 35 is input to the first speaker 22 and is output as the first translated voice.
  • the voice of the second speaker 12 is input to the second microphone 23.
  • the first echo 13, the fourth echo 16, and the first crosstalk 17 are input to the second microphone 23.
  • the first interference signal that is, the first echo signal
  • the first disturbing signal is a signal indicating (estimated) the degree of the first echo 13. Therefore, the output signal of the first echo canceller 40 becomes a signal indicating a voice in which the influence of the first echo 13 is removed from the voice input to the second microphone 23.
  • the fourth interference signal (that is, the fourth echo signal) is removed by the fourth echo canceller 70.
  • the fourth disturbing signal is a signal indicating (estimated) the degree of the fourth echo 16. Therefore, the output signal of the fourth echo canceller 70 is a signal obtained by removing the influence of the fourth echo 16 from the output signal of the first echo canceller 40.
  • the fifth crosstalk canceller 80 removes the fifth interference signal (that is, the first crosstalk signal).
  • the fifth disturbing signal is a signal indicating (estimated) the degree of the first crosstalk 17. Therefore, the output signal of the first crosstalk canceller 80 becomes a signal in which the influence of the first crosstalk 17 is removed from the output signal of the fourth echo canceller 70, and the second voice recognition circuit 32 and the second crosstalk canceller 90. Is output to.
  • the first echo 13 cancels the first echo 13 from the voice of the second speaker 12
  • the fourth echo canceller 70 removes the fourth echo 16
  • the first echo canceller 70 removes the first echo 13.
  • the digital audio data from which the first crosstalk 17 is removed by the crosstalk canceller 80 is input.
  • the second voice recognition circuit 32 performs the voice recognition on the input digital voice data based on the information of the second language of the second speaker 12 instructed by the control circuit 37, that is, the second character.
  • the string is output to the second translation circuit 34 and the control circuit 37.
  • the second translation circuit 34 changes the second character string output by the second speech recognition circuit 32 from the second language of the second speaker 12 designated by the control circuit 37 to the first character of the first speaker 11. It is converted into the fourth character string of the language, and the converted fourth character string is output to the second speech synthesis circuit 36 and the control circuit 37.
  • the second speech synthesis circuit 36 outputs the fourth character string of the first language output by the second translation circuit 34 in the first language based on the information in the first language instructed by the control circuit 37.
  • the signal is converted into a signal, the output signal of the first language is output to the second speaker 24, the second echo canceller 50, and the fourth echo canceller 70, and the information of the output signal output period of the first language is output to the control circuit 37. ..
  • the output signal of the first language output by the second voice synthesis circuit 36 is input to the second speaker 24 and output as the second translated voice.
  • the control circuit 37 includes the first character string in the first language, which is the recognition result of the voice of the first speaker 11 output by the first voice recognition circuit 31, and the first character string of the first speaker 11 output by the first translation circuit 33.
  • the fourth character string obtained by converting the second language voice of the second speaker 12 output by the circuit 34 into the first language is output to the video signal generation circuit 38.
  • control circuit 37 outputs the information of the first translated speech output period output from the first speech synthesis circuit 35 to the first echo canceller 40 and the third echo canceller 60, and during the period, the first echo canceller 40 and the first echo canceller 40. 3 causes the echo canceller 60 to update the transfer function.
  • the information on the first translated speech output period is information indicating the period during which the first speech synthesis circuit 35 is outputting the first translated speech.
  • control circuit 37 outputs the information of the second translated speech output period output by the second speech synthesis circuit 36 to the second echo canceller 50 and the fourth echo canceller 70, and the second echo canceller 50 and the fourth echo canceller 50 during the period.
  • the 4-echo canceller 70 updates the transfer function.
  • the information on the second translated speech output period is information indicating the period during which the second speech synthesis circuit 36 is outputting the second translated speech.
  • the video signal generation circuit 38 includes the first character string in the first language, which is the recognition result of the voice of the first speaker 11 output from the first voice recognition circuit 31, and the second speaker output from the second translation circuit 34.
  • the fourth character string obtained by converting twelve second language sounds into the first language is output to the second display circuit 26.
  • the video signal generating circuit 38 outputs the second character string in the second language, which is the recognition result of the voice of the second speaker 12 output by the second voice recognizing circuit 32, and the first translation circuit 33 outputs the first character string.
  • the third character string obtained by converting the voice of the speaker 11 in the first language into the second language is output to the first display circuit 25.
  • the voice of the first speaker 11 and the voice of the second speaker 12 are processed as described above.
  • the output signal input to the first voice recognition circuit 31 eliminates the effects of the second echo 14, the third echo 15, and the second crosstalk 18 in the voice input to the first microphone 21.
  • Output signal that is, only the voice of the first speaker 11 from which acoustic noise has been removed.
  • the first translated speech output from the first speaker 22 has the effects of the second echo 14, the third echo 15, and the second crosstalk 18 removed from the speech input to the first microphone 21.
  • Output signal that is, only the voice of the first speaker 11 from which acoustic noise has been removed.
  • the output signal input to the second voice recognition circuit 32 has the effects of the first echo 13, the fourth echo 16, and the first crosstalk 17 removed from the voice input to the second microphone 23. Only the output signal, that is, the voice of the second speaker 12 from which acoustic noise has been removed. Furthermore, the second translated speech output from the second speaker 24 has the effects of the first echo 13, the fourth echo 16, and the first crosstalk 17 removed from the speech input to the second microphone 23. Output signal, that is, only the voice of the second speaker 12 from which acoustic noise is removed.
  • the extent to which acoustic noise is removed is determined by the first echo canceller 40, the second echo canceller 50, the third echo canceller 60, the fourth echo canceller 70, the first crosstalk canceller 80, and the second crosstalk canceller 90. It goes without saying that the accuracy depends on the accuracy of the transfer function held in the equation (3), the parameters in the transfer function update equations shown in the equations (3), (6), (9), (12), and (15).
  • control circuit 37 causes the first echo canceller 40, the second echo canceller 50, the third echo canceller 60, and the fourth echo canceller 70 to update the transfer function of each canceller under a certain condition.
  • the flowchart of this update will be described.
  • FIG. 3 is a flowchart for updating transfer functions of the first echo canceller 40 and the third echo canceller 60.
  • control circuit 37 outputs the information of the first translated speech output period output by the first speech synthesis circuit 35 to the first echo canceller 40 and the third echo canceller 60.
  • the control circuit 37 determines whether the first speech synthesis circuit 35 is outputting the first translated speech (step S100).
  • step S100 the control circuit 37 causes the first echo canceller 40 and the third echo canceller 60 to update the transfer function of each canceller (step S101).
  • step S100 the control circuit 37 ends the process.
  • control circuit 37 updates the transfer function based on the update expressions of the transfer function shown in the above Expressions 3 and 9 while the first echo 13 and the third echo 15 are present.
  • FIG. 4 is a flowchart for updating transfer functions of the second echo canceller 50 and the fourth echo canceller 70.
  • control circuit 37 outputs the information of the second translated speech output period output by the second speech synthesis circuit 36 to the second echo canceller 50 and the fourth echo canceller 70.
  • the control circuit 37 determines whether the second speech synthesis circuit 36 is outputting the second translated speech (step S200).
  • step S200 the control circuit 37 causes the second echo canceller 50 and the fourth echo canceller 70 to update the transfer function of each canceller (step S201).
  • step S200 the control circuit 37 ends the process.
  • control circuit 37 updates the transfer function based on the update expressions of the transfer function shown in the above equations 6 and 12 while the second echo 14 and the fourth echo 16 are present.
  • the conversation is performed in a state where the first microphone 21 and the second speaker 24 are close to each other and the second microphone 23 and the first speaker 22 are close to each other. ing. Therefore, the influence of the first echo 13 and the second echo 14 is large. As a result, the first echo canceller 40 and the second echo canceller 50 are of high importance and are indispensable.
  • the first echo canceller 40 and the second echo canceller 50 may not be provided. That is, the output signal of the first microphone 21 is input to the third echo canceller 60 without passing through the second echo canceller 50, and the output signal of the second microphone 23 passes through the first echo canceller 40 without passing through the first echo canceller 40. It is input to the 4-echo canceller 70.
  • translation device 20 may further include a first voice sex determination circuit and a second voice sex determination circuit.
  • the first voice gender determination circuit determines the gender of the first speaker 11 based on the first voice.
  • the second voice gender determination circuit determines the gender of the second speaker 12 based on the second voice.
  • control circuit 37 may cause the first voice synthesis circuit 35 to output the synthesized voice having the same gender as the determination result of the first voice gender determination circuit, and the second voice synthesis circuit 36 may output the second voice gender. You may output the synthetic voice of the same sex as the determination result of the determination circuit.
  • translation device 20 includes first camera 291 and second camera 292. Although not shown, the translation device 20 further includes a first face recognition circuit, a second face recognition circuit, and a database that stores pairs of a speaker and a language used by the speaker. May be.
  • the first camera 291 captures the face of the first speaker.
  • the first camera 291 outputs the first video signal to the first face recognition circuit.
  • Second camera 292 photographs the face of the second speaker.
  • the second camera 292 outputs the first video signal to the second face recognition circuit.
  • the first face recognition circuit identifies the first speaker 11 based on the first video signal output from the first camera.
  • the second face recognition circuit identifies the second speaker 12 based on the second video signal output from the second camera.
  • the database stores pairs of speakers and languages used by the speakers.
  • the control circuit 37 determines the first voice recognition circuit, the first voice recognition circuit 31, and the first voice recognition circuit 31.
  • the 1st translation circuit 33, the 2nd translation circuit 34, and the 1st speech synthesis circuit 35 may be notified of the 1st language of the 1st speaker 11, and the 2nd speaker 12 of the 2nd speaker 12 specified by the 2nd face recognition circuit may be notified.
  • the second speech recognition circuit, the second speech recognition circuit 32, the first translation circuit 33, the second translation circuit 34, and the second speech synthesis circuit 36 are connected to the second speaker. Twelve second languages may be notified.
  • the translation device 20 may further include a first video sex determination circuit and a second video sex determination circuit in addition to the first camera 291 and the second camera 292 described above.
  • the first camera 291 captures the face of the first speaker.
  • the first camera 291 outputs the first video signal to the first video sex determination circuit.
  • Second camera 292 photographs the face of the second speaker.
  • the second camera 292 outputs the second video signal to the second video sex determination circuit.
  • the first video sex determination circuit determines the sex of the first speaker based on the first video signal output from the first camera 291.
  • the second video sex determination circuit determines the sex of the second speaker based on the second video signal output from the second camera 292.
  • control circuit 37 may cause the first voice synthesis circuit to output the synthesized voice of the same sex as the determination result of the first video sex determination circuit, and the second voice synthesis circuit may output the second video sex. You may output the synthetic voice of the same sex as the determination result of the determination circuit.
  • the first storage circuit 42 of the first echo canceller 40 and the third storage circuit 62 of the third echo canceller 60 may be shared. That is, the signal stored in the first storage circuit 42 of the first echo canceller 40 and the signal stored in the third storage circuit 62 of the third echo canceller 60 are both output signals of the first voice synthesis circuit 35. Therefore, by sharing the first memory circuit 42 and the third memory circuit 62, it is possible to reduce the number of memory circuits in the portion related to the first memory circuit 42 and the third memory circuit 62 by half.
  • the second memory circuit 52 of the second echo canceller 50 and the fourth memory circuit 72 of the fourth echo canceller 70 may be shared. That is, both the signal stored in the second storage circuit 52 of the second echo canceller 50 and the signal stored in the fourth storage circuit 72 of the fourth echo canceller 70 are output signals of the second voice synthesis circuit 36. Therefore, by sharing the second memory circuit 52 and the fourth memory circuit 72, it is possible to reduce the memory circuits of the portions related to the second memory circuit 52 and the fourth memory circuit 72 by half.
  • the translation device 20 translates the language of one speaker into the language of the other speaker and translates the synthesized speech.
  • the first voice synthesis circuit 35 for converting the third character string into the first translated voice, the first speaker 22 for amplifying the first translated voice, and the second voice of the second speaker 12 are input.
  • Second microphone 23 a second voice recognition circuit 32 for voice-recognizing the second voice and outputting a second character string, and a second character string output from the second voice recognition circuit 32 for the first character string.
  • the phenomenon in which the voice synthesis circuit 36, the second speaker 24 for amplifying the second translated voice, and the first translated voice amplified by the first speaker 22 are input to the second microphone 23 is referred to as the first echo 13.
  • the first echo signal indicating the first echo 13 is estimated using the first translated speech and the first transfer function corresponding to the first echo 13, and the first echo signal is output as the output signal of the second microphone 23.
  • the phenomenon in which the first translated sound that is removed from the first echo canceller 40 and the second translated speech that is amplified by the second speaker 24 is input to the first microphone 21 is the second echo 14, the second translated speech and the second echo 14
  • a second echo canceller 50 that estimates a second echo signal indicating the second echo 14 and removes the second echo signal from the output signal of the first microphone 21 by using the second transfer function corresponding to
  • the control circuit 37 updates the first transfer function for estimating the first echo signal to the first echo canceller 40 while the first speech synthesis circuit 35 is outputting the first translated speech.
  • the second echo canceller 50 updates the second transfer function for estimating the second echo signal while the second speech synthesis circuit 36 is outputting the second translated speech.
  • the voices of a plurality of speakers and the plurality of synthetic voices which are recognized by recognizing the voices of the plurality of speakers, translated into a language of the other party, and voice-synthesized are output simultaneously. Even in the presence of such a situation, acoustic noise including echo can be removed, and stable speech recognition can be performed while talking with each other. Further, the first voice of the first speaker 11, the second voice of the second speaker 12, the first translated voice of the first voice synthesis circuit 35, and the second translated voice of the second voice synthesis circuit 36 are simultaneously generated. However, since the echo canceller removes the echo, the first voice recognition circuit 31 and the second voice recognition circuit 32 do not lower the voice recognition accuracy.
  • the first echo canceller 40 updates the first transfer function when the first voice synthesis circuit 35 is outputting the synthetic voice, and unnecessary update is not performed when other voices are present.
  • the estimation accuracy of the first transfer function in the echo canceller 40 is improved. In other words, it is possible to prevent the first transfer function stored in the first transfer function storage circuit 44 of the first echo canceller 40 from being destroyed by unnecessary updating, so that the first echo signal is removed with higher accuracy. it can.
  • the second echo canceller 50 updates the second transfer function when the second voice synthesizing circuit 36 is outputting synthetic voice, and does not perform unnecessary update when other voices are present. It is possible to improve the estimation accuracy of the second transfer function in the canceller 50. In other words, it is possible to prevent the second transfer function stored in the second transfer function storage circuit 54 of the second echo canceller 50 from being destroyed by unnecessary updating, so that the second echo signal is removed with higher accuracy. it can.
  • the translation device 20 when the phenomenon that the first translated voice expanded from the first speaker 22 is input to the first microphone 21 is the third echo 15, the translation device 20 further defines the first translated voice and the third echo.
  • a third echo canceller 60 that estimates a third echo signal indicating the third echo 15 using the third transfer function corresponding to 15 and removes the third echo signal from the output signal of the first microphone 21.
  • the phenomenon in which the second translated speech amplified by the second speaker 24 is input to the second microphone 23 is the fourth echo 16
  • the second translated speech and the fourth transfer function corresponding to the fourth echo 16 are used.
  • a fourth echo canceller 70 that estimates the fourth echo signal indicating the fourth echo 16 and removes the fourth echo signal from the output signal of the second microphone 23.
  • the control circuit 37 controls the first voice synthesis.
  • the third echo canceller 60 updates the third transmission for estimating the third echo signal
  • the second speech synthesis circuit 36 outputs the second translated speech.
  • the fourth echo canceller 70 updates the fourth transfer function for estimating the fourth echo signal.
  • the voices of a plurality of speakers and the plurality of synthetic voices which are recognized by recognizing the voices of the plurality of speakers, translated into a language of the other party, and voice-synthesized are output simultaneously. Even in the presence of such a situation, acoustic noise including echo can be removed, and stable speech recognition can be performed while talking with each other. Furthermore, the first echo canceller 40 and the third echo canceller 60 update the first transfer function and the third transfer function when the first voice synthesizing circuit 35 outputs the synthesized voice, and other voices are output. Since the unnecessary update is not performed when it exists, the estimation accuracy of the first transfer function and the third transfer function in the first echo canceller 40 and the third echo canceller 60 is improved.
  • the third transfer function stored in the third transfer function storage circuit 64 of the third echo canceller 60 it is possible to prevent the third transfer function stored in the third transfer function storage circuit 64 of the third echo canceller 60 from being destroyed by unnecessary updating, so that the third echo signal can be obtained with higher accuracy. Can be removed.
  • the second echo canceller 50 and the fourth echo canceller 70 update the second transfer function and the fourth transfer function when the second voice synthesizing circuit 36 outputs the synthesized voice, and other voices are present. Since unnecessary update is not performed when performing, the estimation accuracy of the second transfer function and the fourth transfer function in the second echo canceller 50 and the fourth echo canceller 70 can be improved. In other words, it is possible to prevent the fourth transfer function stored in the fourth transfer function storage circuit 74 of the fourth echo canceller 70 from being destroyed due to unnecessary updating, so that the fourth echo signal can be obtained with higher accuracy. Can be removed.
  • the translation device 20 is a translation device that translates the language of one speaker into the language of the other speaker in a conversation between the first speaker 11 and the second speaker 12 and amplifies synthetic speech.
  • a first microphone 21 for inputting the first voice of the first speaker 11, a first voice recognition circuit 31 for voice-recognizing the first voice and outputting a first character string,
  • a first translation circuit 33 for translating the first character string output from the voice recognition circuit 31 into the language of the second speaker 12 and outputting a third character string, and a first translation circuit 33 output from the first translation circuit 33.
  • a first voice synthesis circuit 35 for converting the three character strings into the first translated voice, a first speaker 22 for amplifying the first translated voice, and a second voice for inputting the second speaker 12.
  • the second speaker 24 for amplifying the second translated voice, and the phenomenon in which the first translated voice amplified by the first speaker 22 is input to the first microphone 21 are the third echo 15.
  • a third echo signal indicating the third echo 15 is estimated using the first translated speech and the third transfer function corresponding to the third echo 15, and the third echo signal is output from the output signal of the first microphone 21.
  • a fourth echo canceller 70 that estimates the fourth echo signal indicating the fourth echo 16 using the corresponding fourth transfer function and removes the fourth echo signal from the output signal of the second microphone 23, and a control circuit. 37, the control circuit 37 causes the third echo canceller 60 to update the third transfer function for estimating the third echo signal while the first speech synthesis circuit 35 is outputting the first translated speech. , The fourth echo canceller 70 updates the fourth transfer function for estimating the fourth echo signal while the second speech synthesis circuit 36 is outputting the second translated speech.
  • the voices of a plurality of speakers and the plurality of synthetic voices which are recognized by recognizing the voices of the plurality of speakers, translated into a language of the other party, and voice-synthesized are output simultaneously. Even in the presence of such a situation, acoustic noise including echo can be removed, and stable speech recognition can be performed while talking with each other. Furthermore, the third echo canceller 60 updates the third transfer function when the first speech synthesis circuit 35 is outputting synthetic speech, and does not perform unnecessary updating when other speech is present. The estimation accuracy of the third transfer function in the echo canceller 60 is improved.
  • the fourth echo canceller 70 updates the fourth transfer function when the second voice synthesizing circuit 36 is outputting synthetic voice, and does not perform unnecessary update when other voices are present. It is possible to improve the estimation accuracy of the fourth transfer function in the canceller 70. In other words, it is possible to prevent the fourth transfer function stored in the fourth transfer function storage circuit 74 of the fourth echo canceller 70 from being destroyed due to unnecessary updating, so that the fourth echo signal can be obtained with higher accuracy. Can be removed.
  • the translation device 20 further uses the first voice to indicate the first crosstalk 17.
  • the first crosstalk canceller 80 that estimates the crosstalk signal and removes the first crosstalk signal from the output signal of the second microphone 23, and the phenomenon that the second voice is input to the first microphone 21 are the second crosstalk. 18 is used, the second crosstalk canceller for estimating the second crosstalk signal indicating the second crosstalk 18 using the second voice and removing the second crosstalk signal from the output signal of the first microphone 21. 90 and.
  • the voices of a plurality of speakers and the plurality of synthetic voices which are recognized by recognizing the voices of the plurality of speakers, translated into a language of the other party, and voice-synthesized are output simultaneously. Even in the presence of such a situation, acoustic noise including echo and crosstalk can be removed, and stable speech recognition can be performed while mutual conversation is possible.
  • the translation device 20 further accepts the selection of the first language used by the first speaker 11 from the first speaker 11 and notifies the control circuit 37 of the first language selection circuit 27 and the second speaker.
  • a second language selection circuit 28 which receives the selection of the second language used by the second speaker 12 from 12 and notifies the control circuit 37 of the second language.
  • the control circuit 37 receives the first language notification from the first language selection circuit 27.
  • the first voice recognition circuit 31 is caused to perform voice recognition in the first language
  • the second voice recognition circuit 32 is used in the second language.
  • Speech recognition is performed, the first translation circuit 33 is translated from the first language to the second language, the second translation circuit 34 is translated from the second language to the first language, and the first speech synthesis circuit 35 is translated into the second language.
  • the speech is synthesized in the language, and the second speech synthesis circuit 36 is synthesized in the first language.
  • Such a translation device 20 selects a language to be translated in advance, it can smoothly translate and output the first translated voice and the second translated voice.
  • the translation device 20 determines the gender of the second speaker 12 based on the first voice, and the first voice gender determination circuit that determines the gender of the first speaker 11 based on the second voice.
  • the control circuit 37 causes the first voice synthesis circuit 35 to output the synthesized voice of the same sex as the determination result of the first voice sex determination circuit, and the second voice synthesis circuit 36. Then, the synthesized voice of the same sex as the determination result of the second voice gender determination circuit is output.
  • Such a translation device 20 can output a first translated voice and a second translated voice having the same sex as the speaker's gender.
  • the translation device 20 identifies the first speaker 11 based on the first camera 291 that captures the face of the first speaker 11 and the first video signal output from the first camera 291.
  • Second face recognition for identifying the second speaker 12 based on the first face recognition circuit, the second camera 292 for photographing the face of the second speaker 12, and the second video signal output from the second camera 292.
  • the control circuit 37 includes a circuit and a database storing pairs of a speaker and a language used by the speaker, and the control circuit 37 registers the language of the first speaker 11 specified by the first face recognition circuit in the database.
  • the first speech recognition circuit 31, the first translation circuit 33, the second translation circuit 34, and the first speech synthesis circuit 35 are notified of the first language of the first speaker 11, and the second face recognition is performed.
  • the second speech recognition circuit 32, the first translation circuit 33, the second translation circuit 34, and the second speech synthesis circuit 36 Notify the second language of the second speaker 12.
  • Such a translation device 20 recognizes a person from a video, and since a language to be translated is registered in advance, it is possible to smoothly translate and output the first translated voice and the second translated voice.
  • the translation apparatus 20 further includes a first video sex determination circuit that determines the sex of the first speaker 11 based on the first video signal output from the first camera 291 and a second camera 292.
  • a second video sex determination circuit that determines the sex of the second speaker 12 based on the output second video signal, and the control circuit 37 causes the first voice synthesis circuit 35 to include the first video sex determination circuit.
  • the second voice synthesis circuit 36 is made to output the synthetic voice of the same sex as the determination result of No. 1, and the second voice synthesis circuit 36 is made to output the synthetic voice of the same sex as the determination result of the second video sex determination circuit.
  • Such a translation device 20 can recognize the gender of the person from the video and can output the first translated voice and the second translated voice having the same sex as the gender of the speaker.
  • the translation method is a translation method of translating one's own language into the other party's language and voicing synthetic speech in a conversation between the first speaker 11 and the second speaker 12.
  • a first input step for inputting a first voice, a first voice recognition step for voice-recognizing the first voice and outputting a first character string, and a first character output from the first voice recognition step A first translation step for translating the string into the language of the second speaker 12 and outputting a third character string; and a third translation string for converting the third character string output from the first translation step into a first translated voice.
  • a second speech recognition step for outputting the second character string, and a second character string output from the second speech recognition step for translating the second character string into the language of the first speaker 11 and outputting a fourth character string.
  • the phenomenon in which the first translated speech amplified in the first speech enhancement step is input in the second input step is the first echo 13
  • the first translation speech and the first transfer function corresponding to the first echo 13 Is used to estimate the first echo signal indicating the first echo 13 and remove the first echo signal from the output signal of the second input step
  • the first echo canceller step and the second loud step When the phenomenon in which the second translated speech is input in the first input step is the second echo 14, the second echo 14 is generated by using the second translated speech and the second transfer function corresponding to the second echo 14.
  • the first transfer function for estimating the first echo signal is updated, and while the second translated speech is being output in the second speech synthesis step, in the second echo canceller step, A control step for instructing to update a second transfer function that estimates the two-echo signal.
  • the voices of a plurality of speakers and the plurality of synthetic voices that are output by recognizing the voices of the plurality of speakers, translating them into the language of the other party, and synthesizing the voices are simultaneously present. Even in such a case, the acoustic noise including the echo can be removed, and the voice can be stably recognized, and the conversation can be performed. Furthermore, the first echo canceller 40 updates the first transfer function when the first voice synthesis circuit 35 is outputting the synthetic voice, and unnecessary update is not performed when other voices are present. The estimation accuracy of the first transfer function in the echo canceller 40 is improved.
  • the second echo canceller 50 updates the second transfer function when the second voice synthesizing circuit 36 is outputting synthetic voice, and does not perform unnecessary update when other voices are present. It is possible to improve the estimation accuracy of the second transfer function in the canceller 50. In other words, it is possible to prevent the second transfer function stored in the second transfer function storage circuit 54 of the second echo canceller 50 from being destroyed by unnecessary updating, so that the second echo signal is removed with higher accuracy. it can.
  • the translation method is a translation method in which, in a conversation between the first speaker 11 and the second speaker 12, the user's language is translated into the partner's language and the synthesized voice is amplified. Eleventh first input step for inputting a first voice, a first voice recognition step for voice-recognizing the first voice and outputting a first character string, and a first voice output step from the first voice recognition step. A first translation step for translating one character string into the language of the second speaker 12 and outputting a third character string, and converting the third character string output from the first translation step into a first translated voice.
  • First speech synthesizing step for amplifying the first translated speech, a first loudspeaking step for amplifying the first translated speech, a second input step for inputting the second speech of the second speaker 12, and a speech recognition for the second speech.
  • a second speech recognition step for outputting a second character string, and translating the second character string output from the second speech recognition step into the language of the first speaker 11 and outputting a fourth character string.
  • Second translation step for converting, a second speech synthesis step for converting the fourth character string output from the second translation step into a second translated speech, and a second loudspeaking step for amplifying the second translated speech.
  • a phenomenon in which the first translated speech output in the first loudspeaking step is input in the first input step is the third echo 15, the third transmission corresponding to the first translated speech and the third echo 15
  • the phenomenon in which the generated second translated speech is input in the second input step is the fourth echo 16
  • the fourth echo is generated by using the second translated speech and the fourth transfer function corresponding to the fourth echo 16.
  • the fourth echo signal indicating 16 is estimated, and the fourth echo canceller step of removing the fourth echo signal from the output signal of the second input step and the first translated speech are output in the first speech synthesis step.
  • the third transfer function that estimates the third echo signal is updated, and during the period when the second translated speech is output from the second speech synthesis step, in the fourth echo canceller step, A control step for instructing to update a fourth transfer function for estimating the fourth echo signal.
  • the voices of a plurality of speakers and the plurality of synthetic voices that are output by recognizing the voices of the plurality of speakers, translating them into the language of the other party, and synthesizing the voices are simultaneously present. Even in such a case, the acoustic noise including the echo can be removed, and the voice can be stably recognized, and the conversation can be performed. Furthermore, the third echo canceller 60 updates the third transfer function when the first speech synthesis circuit 35 is outputting synthetic speech, and does not perform unnecessary updating when other speech is present. The estimation accuracy of the third transfer function in the echo canceller 60 is improved.
  • the fourth echo canceller 70 updates the fourth transfer function when the second voice synthesizing circuit 36 is outputting synthetic voice, and does not perform unnecessary update when other voices are present. It is possible to improve the estimation accuracy of the fourth transfer function in the canceller 70. In other words, it is possible to prevent the fourth transfer function stored in the fourth transfer function storage circuit 74 of the fourth echo canceller 70 from being destroyed due to unnecessary updating, so that the fourth echo signal can be obtained with higher accuracy. Can be removed.
  • the first transfer function updating circuit 45 updates the transfer function according to Expression 3 above, but updates the transfer function according to the normalized expression as shown in Expression 19 or Expression 20 below. May be.
  • N is the number of transfer functions stored in the first transfer function storage circuit 44.
  • is the absolute value of x1(ti).
  • the update of the estimated transfer function by the first transfer function update circuit 45 is stably performed without depending on the amplitude of the input signal x1(t ⁇ j).
  • the function of outputting the translated voice and the translation function are unnecessary as compared with the first embodiment.
  • Howling refers to a phenomenon in which a voice output from a speaker that outputs a voice of a speaker returns to a microphone into which the voice of the speaker is input and is input. Specifically, here, the phenomenon in which the sound output from the first speaker 22 is returned to the first microphone 21 and input is described as the first howling 15a, and the sound output from the second speaker 24 is input to the second microphone 23. The phenomenon of feedback and input is defined as the second howling 16a.
  • FIG. 5 is a block diagram showing the configuration of the translation device 20a according to the second embodiment. That is, in FIG. 5, the first language of the first speaker 11 set by the first language selection circuit 27 and the second language of the second speaker 12 set by the second language selection circuit 28 are the same. It is a block diagram which shows the structure in case. In the second embodiment, the same components as those in the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted.
  • the first language and the second language are the same as those in FIG. 2, so that the first translation circuit 33, the second translation circuit 34, the first speech synthesis circuit 35, and the second speech synthesis circuit 36 are It becomes unnecessary.
  • the voice of the first speaker 11 is picked up by the first microphone 21 and output from the first speaker 22 via the first howling canceller 60a and the second echo/second crosstalk canceller 90a, which will be described later. Therefore, the input to the first microphone 21 and the output from the first speaker 22 become the same voice of the first speaker 11 (that is, the voice of the first speaker 11 that is not translated).
  • the 3-echo 15 is changed to the first howling 15a. Therefore, the third echo canceller 60 functions as the first howling canceller 60a.
  • the voice of the second speaker 12 is picked up by the second microphone 23 and output from the second speaker 24 via the second howling canceller 70a and the first echo/first crosstalk canceller 80a described later. Therefore, the input to the second microphone 23 and the output from the second speaker 24 become the same voice of the second speaker 12 (that is, the voice of the second speaker 12 that is not translated).
  • the 4-echo 16 is changed to the second howling 16a. Therefore, the fourth echo canceller 70 functions as the second howling canceller 70a.
  • the sound sources of the first echo 13a and the first crosstalk 17a are the same voice of the first speaker 11. Therefore, the first crosstalk canceller 80 functions as the first echo/first crosstalk canceller 80a. As a result, the first echo canceller 40 becomes unnecessary.
  • the second crosstalk canceller 90 functions as the second echo/second crosstalk canceller 90a. As a result, the second echo canceller 50 becomes unnecessary.
  • control circuit 37 includes a first echo canceller 40, a second echo canceller 50, a first translation circuit 33, a second translation circuit 34, a first speech synthesis circuit 35, and a second speech synthesis circuit 36.
  • the function may be stopped.
  • the first howling canceller 60a is a first howling signal that indicates the degree of the first howling 15a when the phenomenon in which the sound output from the first speaker 22 is returned to the first microphone 21 and is input is the first howling 15a.
  • the first howling canceller 60a removes the first howling signal from the output signal of the first microphone 21, and outputs the removed signal to the second echo/second crosstalk canceller 90a described later.
  • the first howling canceller 60a includes a third transfer function storage circuit 64, a first delay device 66, a third storage circuit 62, a third convolution calculator 63, a third subtractor 61, and a third transfer function. It has an update circuit 65. That is, the first delay device 66 is added to the third echo canceller 60 of FIG.
  • the third transfer function storage circuit 64 stores the third transfer function estimated as the transfer function of the first howling 15a.
  • the first delay device 66 delays the output signal of the first howling canceller 60a.
  • the third storage circuit 62 stores the signal output from the first delay device 66.
  • the third convolution calculator 63 convolves the signal stored in the third storage circuit 62 and the third transfer function stored in the third transfer function storage circuit 64 to generate a first howling signal.
  • the third convolution calculator 63 is an N-tap FIR (Finite Impulse Response) filter that performs the convolution calculation shown in the following Expression 21.
  • y7't is the first howling signal at time t.
  • N is the number of taps of the FIR filter.
  • H7(i)t is the i-th third transfer function of the N third transfer functions stored in the third transfer function storage circuit 64 at time t.
  • x7(t ⁇ i ⁇ 1) is the (t ⁇ i ⁇ 1)th signal of the signals stored in the third storage circuit 62.
  • ⁇ 1 is the delay time of the first delay device 66.
  • the third subtractor 61 removes the first howling signal output from the third convolution calculator 63 from the output signal of the first microphone 21, and outputs the second echo/second output as the output signal of the first howling canceller 60a. Output to the crosstalk canceller 90a.
  • the third subtractor 61 performs the subtraction shown in the following Expression 22.
  • e7t is the output signal of the third subtractor 61 at time t.
  • y7t is the output signal of the first microphone 21 at time t.
  • the third transfer function update circuit 65 updates the third transfer function stored in the third transfer function storage circuit 64 based on the output signal of the third subtractor 61 and the signal stored in the third storage circuit 62. ..
  • the third transfer function update circuit 65 uses the independent component analysis based on the output signal of the third subtractor 61 and the signal stored in the third storage circuit 62, as shown in the following Expression 23. Then, the third transfer function stored in the third transfer function storage circuit 64 is updated so that the output signal of the third subtractor 61 and the signal stored in the third storage circuit 62 are independent of each other.
  • ⁇ 7 is a step size parameter for controlling the learning speed in the estimation of the third transfer function of the first howling 15a.
  • ⁇ 7 is a non-linear function (for example, a sigmoid function (sigmoid function), a hyperbolic tangent function (tanh function), a normalized linear function, or a sign function (sign function)).
  • the third transfer function update circuit 65 performs the non-linear processing using the non-linear function on the output signal of the third subtractor 61, and the obtained result is stored in the third storage circuit 62.
  • the seventh update coefficient is calculated by multiplying the signal by the seventh step size parameter for controlling the learning speed in the estimation of the third transfer function of the first howling 15a. Then, the calculated seventh update coefficient is added to the third transfer function stored in the third transfer function storage circuit 64 to perform the update.
  • the second howling canceller 70a is a second howling signal that indicates the degree of the second howling 16a when the phenomenon in which the sound output from the second speaker 24 is returned to the second microphone 23 and input is the second howling 16a. For removing the second howling signal from the output signal of the second microphone 23.
  • the second howling canceller 70a removes the second howling signal from the output signal of the second microphone 23 and outputs the removed signal to the first echo/first crosstalk canceller 80a described later. Is a digital signal processing circuit that processes digital audio data in the time domain.
  • the second howling canceller 70a includes a fourth transfer function storage circuit 74, a second delay device 76, a fourth storage circuit 72, a fourth convolution calculator 73, a fourth subtractor 71, and a fourth transfer function. It has an update circuit 75. That is, the second delay device 76 is added to the fourth echo canceller 70 of FIG.
  • the fourth transfer function storage circuit 74 stores the fourth transfer function estimated as the transfer function of the second howling 16a.
  • the second delay device 76 delays the output signal of the second howling canceller 70a.
  • the fourth storage circuit 72 stores the signal output from the second delay device 76.
  • the fourth convolution calculator 73 convolves the signal stored in the fourth storage circuit 72 and the fourth transfer function stored in the fourth transfer function storage circuit 74 to generate a second howling signal.
  • the fourth convolution calculator 73 is an N-tap FIR (Finite Impulse Response) filter that performs the convolution calculation shown in the following Expression 24.
  • y8't is the second howling signal at time t.
  • N is the number of taps of the FIR filter.
  • H8(i)t is the i-th fourth transfer function of the N fourth transfer functions stored in the fourth transfer function storage circuit 74 at time t.
  • x8(t ⁇ i ⁇ 2) is the (t ⁇ i ⁇ 2)th signal of the signals stored in the fourth storage circuit 72.
  • ⁇ 2 is the delay time of the second delay device 76.
  • the fourth subtractor 71 removes the second howling signal output from the fourth convolution calculator 73 from the output signal of the second microphone 23, and outputs the first echo/first echo as the output signal of the second howling canceller 70a. Output to the crosstalk canceller 80a.
  • the fourth subtractor 71 performs the subtraction shown in the following Expression 25.
  • e8t is the output signal of the fourth subtractor 71 at time t.
  • y8t is the output signal of the second microphone 23 at time t.
  • the fourth transfer function update circuit 75 updates the fourth transfer function stored in the fourth transfer function storage circuit 74 based on the output signal of the fourth subtractor 71 and the signal stored in the fourth storage circuit 72. ..
  • the fourth transfer function updating circuit 75 uses the independent component analysis based on the output signal of the fourth subtractor 71 and the signal stored in the fourth storage circuit 72, as shown in the following Expression 26. Then, the fourth transfer function stored in the fourth transfer function storage circuit 74 is updated so that the output signal of the fourth subtractor 71 and the signal stored in the fourth storage circuit 72 are independent of each other.
  • ⁇ 8 is a step size parameter for controlling the learning speed in the estimation of the fourth transfer function of the second howling 16a.
  • ⁇ 8 is a non-linear function (for example, a sigmoid function (sigmoid function), a hyperbolic tangent function (tanh function), a normalized linear function or a sign function (sign function)).
  • the fourth transfer function update circuit 75 performs the non-linear processing using the non-linear function on the output signal of the fourth subtractor 71, and the obtained result is stored in the fourth storage circuit 72.
  • the eighth update coefficient is calculated by multiplying the signal by the eighth step size parameter for controlling the learning speed in the estimation of the fourth transfer function of the second howling 16a. Then, the calculated eighth update coefficient is added to the fourth transfer function stored in the fourth transfer function storage circuit 74 to perform the update.
  • the first echo/first crosstalk canceller 80a uses the output signal of the second echo/second crosstalk canceller 90a to input the sound output from the first speaker 22 into the second microphone 23 while wrapping around. Estimate the first echo 13a and the ninth interference signal (that is, the first echo/first crosstalk signal) indicating the degree of the first crosstalk 17a in which the voice of the first speaker 11 is input to the second microphone 23. The ninth interfering signal is removed from the output signal of the second howling canceller 70a.
  • the first echo/first crosstalk canceller 80a uses the signal from which the ninth interfering signal has been removed, the second voice recognition circuit 32, the second echo/second crosstalk canceller 90a, and the second speaker 24. And a digital signal processing circuit for processing digital audio data in the time domain.
  • the first echo/first crosstalk canceller 80a includes a fifth transfer function storage circuit 84, a fifth storage circuit 82, a fifth convolution calculator 83, a fifth subtractor 81, and a fifth transfer function update. It has a circuit 85.
  • the fifth transfer function storage circuit 84 stores the fifth transfer function estimated as a transfer function that combines the first echo 13a and the first crosstalk 17a.
  • the fifth memory circuit 82 stores the output signal of the second echo/second crosstalk canceller 90a.
  • the fifth convolution calculator 83 convolves the signal stored in the fifth storage circuit 82 and the fifth transfer function stored in the fifth transfer function storage circuit 84 to generate a ninth interference signal.
  • the fifth convolution calculator 83 is an N-tap FIR filter that performs the convolution calculation shown in Expression 27 below.
  • y9't is the ninth interference signal at time t.
  • N is the number of taps of the FIR filter.
  • H9(i)t is the i-th fifth transfer function of the N fifth transfer functions stored in the fifth transfer function storage circuit 84 at time t.
  • x9(t ⁇ i) is the (t ⁇ i)th signal of the signals stored in the fifth memory circuit 82.
  • the fifth subtractor 81 removes the ninth interference signal output from the fifth convolution calculator 83 from the output signal of the second howling canceller 70a, and outputs it as the output signal of the first echo/first crosstalk canceller 80a. To do.
  • the fifth subtractor 81 performs the subtraction shown in Expression 28 below.
  • e9t is the output signal of the fifth subtractor 81 at time t.
  • y9t is the output signal of the second howling canceller 70a at time t.
  • the fifth transfer function update circuit 85 updates the fifth transfer function stored in the fifth transfer function storage circuit 84 based on the output signal of the fifth subtractor 81 and the signal stored in the fifth storage circuit 82. ..
  • the fifth transfer function update circuit 85 uses the independent component analysis based on the output signal of the fifth subtractor 81 and the signal stored in the fifth storage circuit 82 as shown in the following Expression 29. Then, the fifth transfer function stored in the fifth transfer function storage circuit 84 is updated so that the output signal of the fifth subtractor 81 and the signal stored in the fifth storage circuit 82 are independent of each other.
  • ⁇ 9 is a step size parameter for controlling the learning speed in the estimation of the fifth transfer function that combines the first echo 13a and the first crosstalk 17a.
  • ⁇ 9 is a non-linear function (for example, a sigmoid function (sigmoid function), a hyperbolic tangent function (tanh function), a normalized linear function, or a sign function (sign function)).
  • the fifth transfer function update circuit 85 performs the non-linear processing using the non-linear function on the output signal of the fifth subtractor 81, and the obtained result is stored in the fifth storage circuit 82.
  • the fifth update coefficient is calculated by multiplying the signal by the ninth step size parameter for controlling the learning speed in the estimation of the fifth transfer function that combines the first echo 13a and the first crosstalk 17a. Then, the calculated fifth update coefficient is added to the fifth transfer function stored in the fifth transfer function storage circuit 84 to perform the update.
  • the output signal of the second echo/second crosstalk canceller 90a is input to the first echo/first crosstalk canceller 80a for the voice of the first speaker 11 at the same time.
  • the time to be set is designed to be the same as or earlier than the time when the output of the second howling canceller 70a is input to the first echo/first crosstalk canceller 80a. That is, the causality is retained so that the first echo/first crosstalk canceller 80a can cancel the first crosstalk 17a. This is a factor that determines the time when the output signal of the second echo/second crosstalk canceller 90a is input to the first echo/first crosstalk canceller 80a (speed of A/D conversion, first howling canceller 60a).
  • the second echo/second crosstalk canceller 90a uses the output signal of the first echo/first crosstalk canceller 80a to input the sound output from the second speaker 24 into the first microphone 21.
  • the second echo 14a and the tenth interfering signal (that is, the second echo/second crosstalk signal) indicating the degree of the second crosstalk 18a in which the voice of the second speaker 12 is input to the first microphone 21 is estimated. Then, the tenth interfering signal is removed from the output signal of the first howling canceller 60a.
  • the second echo/second crosstalk canceller 90a uses the first voice recognition circuit 31, the first echo/first crosstalk canceller 80a, and the first speaker 22 for the signal from which the tenth interfering signal has been removed. And a digital signal processing circuit for processing digital audio data in the time domain.
  • the second echo/second crosstalk canceller 90a includes a sixth transfer function storage circuit 94, a sixth storage circuit 92, a sixth convolution calculator 93, a sixth subtractor 91, and a sixth transfer function update. It has a circuit 95.
  • the sixth transfer function storage circuit 94 stores the sixth transfer function estimated as a transfer function that combines the second echo 14a and the second crosstalk 18a.
  • the sixth storage circuit 92 stores the output signal of the first echo/first crosstalk canceller 80a.
  • the sixth convolution calculator 93 convolves the signal stored in the sixth storage circuit 92 and the sixth transfer function stored in the sixth transfer function storage circuit 94 to generate a tenth disturbing signal.
  • the sixth convolution calculator 93 is an N-tap FIR filter that performs the convolution calculation shown in Expression 30 below.
  • y10't is the tenth disturbing signal at time t.
  • N is the number of taps of the FIR filter.
  • H10(i)t is the i-th sixth transfer function of the N number of sixth transfer functions stored in the sixth transfer function storage circuit 94 at time t.
  • x10(ti) is the (ti)th signal among the signals stored in the sixth memory circuit 92.
  • the sixth subtractor 91 removes the tenth interfering signal output from the sixth convolution calculator 93 from the output signal of the first howling canceller 60a and outputs it as the output signal of the second echo/second crosstalk canceller 90a. To do.
  • the sixth subtractor 91 performs the subtraction shown in Expression 31 below.
  • e10t is the output signal of the sixth subtractor 91 at time t.
  • y10t is an output signal of the first howling canceller 60a at time t.
  • the sixth transfer function update circuit 95 updates the sixth transfer function stored in the sixth transfer function storage circuit 94 based on the output signal of the sixth subtractor 91 and the signal stored in the sixth storage circuit 92. ..
  • the sixth transfer function update circuit 95 uses the independent component analysis based on the output signal of the sixth subtractor 91 and the signal stored in the sixth storage circuit 92, as shown in Expression 32 below. Then, the sixth transfer function stored in the sixth transfer function storage circuit 94 is updated so that the output signal of the sixth subtractor 91 and the signal stored in the sixth storage circuit 92 are mutually independent.
  • ⁇ 10 is a step size parameter for controlling the learning speed in the estimation of the sixth transfer function that combines the second echo 14a and the second crosstalk 18a.
  • ⁇ 10 is a non-linear function (for example, a sigmoid function (sigmoid function), a hyperbolic tangent function (tanh function), a normalized linear function or a sign function (sign function)).
  • the sixth transfer function update circuit 95 performs the non-linear processing using the non-linear function on the output signal of the sixth subtractor 91, and the obtained result is stored in the sixth storage circuit 92.
  • the sixth update coefficient is calculated by multiplying the signal by the tenth step size parameter for controlling the learning speed in the estimation of the sixth transfer function that combines the second echo 14a and the second crosstalk 18a. Then, the calculated fifth update coefficient is added to the sixth transfer function stored in the sixth transfer function storage circuit 94 to perform the update.
  • the output signal of the first echo/first crosstalk canceller 80a is input to the second echo/second crosstalk canceller 90a for the voice of the second speaker 12 at the same time.
  • the time to be performed is designed to be the same as or earlier than the time when the output of the first howling canceller 60a is input to the second echo/second crosstalk canceller 90a. That is, the causality is retained so that the second echo/second crosstalk canceller 90a can cancel the second crosstalk 18a. This is a factor that determines the time when the output signal of the first echo/first crosstalk canceller 80a is input to the second echo/second crosstalk canceller 90a (speed of A/D conversion, second howling canceller 70a).
  • Translation apparatus 20a in the present embodiment configured as described above operates as follows. Here, points different from the translation device 20 shown in the first embodiment will be mainly described.
  • control circuit 37 First, the operation of the control circuit 37 will be described.
  • the first language selecting circuit 27 and the second language selecting circuit 28 select the first language used by the first speaker 11 to the first speaker 11 and the second speaker 12 to use the first language used by the second speaker 12.
  • the selection of two languages is accepted and the control circuit 37 is notified. Note that, as described above, in the second embodiment, the first language and the second language are the same.
  • the control circuit 37 has been notified by the first language selection circuit 27 and the second language selection circuit 28 that the first language and the second language are the same, so that the first echo canceller 40 and the second echo are notified.
  • the canceller 50, the first translation circuit 33, the second translation circuit 34, the first speech synthesis circuit 35, and the second speech synthesis circuit 36 stop their functions.
  • the voice of the first speaker 11 is input to the first microphone 21.
  • the first howling 15 a, the second echo 14 a, and the second crosstalk 18 a are input to the first microphone 21.
  • the first howling signal is removed by the first howling canceller 60a.
  • the first howling signal is a (estimated) signal indicating the degree of the first howling 15a. Therefore, the output signal of the first howling canceller 60a is a signal obtained by removing the influence of the first howling 15a from the output signal of the first microphone 21.
  • the ninth interference signal is removed by the second echo/second crosstalk canceller 90a.
  • the ninth interference signal (that is, the second echo/second crosstalk signal) is a signal indicating (estimated) the degree of the second echo 14a and the second crosstalk 18a. Therefore, the output signal of the second echo/second crosstalk canceller 90a becomes a signal obtained by removing the effects of the second echo 14a and the second crosstalk 18a from the output signal of the first howling canceller 60a, and the first voice recognition It is output to the circuit 31, the first echo/first crosstalk canceller 80a, and the first speaker 22.
  • the first voice recognition circuit 31 removes the first howling 15a from the voice of the first speaker 11 by the first howling canceller 60a, and outputs the second echo 14a by the second echo/second crosstalk canceller 90a.
  • the digital audio data from which the second crosstalk 18a is removed is input.
  • the first voice recognition circuit 31 outputs a first character string, which is the result of voice recognition of the input digital voice data, to the control circuit 37.
  • the signal input to the first speaker 22 is output as voice.
  • the voice of the second speaker 12 is input to the second microphone 23.
  • the second howling 16 a, the first echo 13 a, and the first crosstalk 17 a are input to the second microphone 23.
  • the second howling signal is removed by the second howling canceller 70a.
  • the second howling signal is a signal indicating (estimated) the degree of the second howling 16a. Therefore, the output signal of the second howling canceller 70a is a signal obtained by removing the influence of the second howling 16a from the output signal of the second microphone 23.
  • the tenth interfering signal is removed by the first echo/first crosstalk canceller 80a.
  • the tenth interference signal (that is, the first echo/first crosstalk signal) is a signal indicating (estimated) the degree of the first echo 13a and the first crosstalk 17a. Therefore, the output signal of the first echo/first crosstalk canceller 80a becomes a signal obtained by removing the effects of the first echo 13a and the first crosstalk 17a from the output signal of the second howling canceller 70a, and the second voice recognition The signal is output to the circuit 32, the second echo/second crosstalk canceller 90a, and the second speaker 24.
  • the second voice recognition circuit 32 removes the second howling 16a from the voice of the second speaker 12 by the second howling canceller 70a, and the first echo 13a and the first echo 13a by the first echo/first crosstalk canceller 80a. Digital audio data from which the first crosstalk 17a is removed is input.
  • the second voice recognition circuit 32 outputs a second character string, which is the result of voice recognition of the input digital voice data, to the control circuit 37.
  • the signal input to the second speaker 24 is output as voice.
  • the control circuit 37 controls the first character string in the first language, which is the recognition result of the voice of the first speaker 11 output by the first voice recognition circuit 31, and the second speaker 12 output by the second voice recognition circuit 32.
  • the second character string in the second language which is the result of voice recognition, is output to the video signal generation circuit 38.
  • the video signal generation circuit 38 outputs the first character string in the first language, which is the recognition result of the voice of the first speaker 11 output from the first voice recognition circuit 31, and the second character output from the second voice recognition circuit 32.
  • the second character string in the second language which is the recognition result of the voice of the speaker 12, is output to the first display circuit 25 and the second display circuit 26.
  • the voice of the first speaker 11 and the voice of the second speaker 12 are processed as described above.
  • the effects of the first howling 15a, the second echo 14a, and the second crosstalk 18a in the voice input to the first microphone 21 are removed. Only the output signal, that is, the voice of the first speaker 11 from which acoustic noise has been removed. Furthermore, the sound output from the first speaker 22 is an output signal from which the effects of the first howling 15a, the second echo 14a, and the second crosstalk 18a have been removed from the sound input to the first microphone 21. That is, only the voice of the first speaker 11 from which acoustic noise has been removed.
  • the output signal input to the second voice recognition circuit 32 is the output of the voice input to the second microphone 23 from which the effects of the second howling 16a, the first echo 13a, and the first crosstalk 17a are removed. Only the signal, that is, the voice of the second speaker 12 from which acoustic noise has been removed. Furthermore, the sound output from the second speaker 24 is an output signal from which the effects of the second howling 16a, the first echo 13a, and the first crosstalk 17a are removed from the sound input to the second microphone 23. That is, only the voice of the second speaker 12 from which the acoustic noise has been removed.
  • the control circuit 37 controls the first language.
  • the echo canceller 40, the second echo canceller 50, the first translation circuit 33, the second translation circuit 34, the first speech synthesis circuit 35, and the second speech synthesis circuit 36 stop their functions.
  • Such a translation device 20a has a first echo canceller 40, a second echo canceller 50, a first translation circuit 33, a second translation circuit 34, and a second translation circuit 34 when the first language and the second language are the same. It is possible to increase the processing speed by stopping the functions of the 1-voice synthesis circuit 35 and the 2nd voice synthesis circuit 36. Further, since no translation is required, but the voice can be increased, even if the first speaker 11 and the second speaker 12 are separated from each other or when the surroundings are noisy, they can talk to each other. ..
  • the canceller regarding the echo, the translation function, the function of outputting the translated voice, and the function of expanding the voice are unnecessary.
  • FIG. 6 is a block diagram showing the configuration of translation apparatus 20b in the third embodiment.
  • the same components as in the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted.
  • the translation device 20b Compared with the first embodiment, the translation device 20b according to the third embodiment has the same first language of the first speaker 11 and the second language of the second speaker 12 and does not require loudspeaking.
  • the translation circuit 33, the second translation circuit 34, the first voice synthesis circuit 35, the second voice synthesis circuit 36, the first speaker 22, and the second speaker 24 are unnecessary. Furthermore, since the first speaker 22 and the second speaker 24 are unnecessary, the first echo 13, the second echo 14, the third echo 15, and the fourth echo 16 do not occur, so the first echo canceller 40, The second echo canceller 50, the third echo canceller 60, and the fourth echo canceller 70 are also unnecessary.
  • the first display circuit 25 and the second display circuit 26 are required to display the utterances of the first speaker 11 and the second speaker 12 as a character string.
  • the translation device 20b also includes the first microphone 21 and the second microphone 23, crosstalk, which is a phenomenon in which a voice of a speaker is input to a microphone for inputting a voice of a speaker other than the speaker, is generated. Occur. Therefore, the function of canceling crosstalk is required.
  • Translation apparatus 20b configured as described above operates as follows. Here, points different from the translation device 20 shown in the first embodiment will be mainly described.
  • control circuit 37 First, the operation of the control circuit 37 will be described.
  • the first language selecting circuit 27 and the second language selecting circuit 28 select the first language used by the first speaker 11 to the first speaker 11 and the second speaker 12 to use the first language used by the second speaker 12.
  • the selection of two languages is accepted and the control circuit 37 is notified.
  • the control circuit 37 includes the first translation circuit 33, the second translation circuit 34, the first speech synthesis circuit 35, the second speech synthesis circuit 36, the first speaker 22, the second speaker 24, and the second loudspeaker 24.
  • the functions of the first echo canceller 40, the second echo canceller 50, the third echo canceller 60, and the fourth echo canceller 70 are stopped.
  • the voice of the first speaker 11 is input to the first microphone 21.
  • the second crosstalk 18 is input to the first microphone 21.
  • the sixth interference signal that is, the second crosstalk signal
  • the sixth disturbing signal is a signal indicating (estimated) the degree of the second crosstalk 18. Therefore, the output signal of the second crosstalk canceller 90 becomes a signal in which the influence of the second crosstalk 18 is removed from the output signal of the first microphone 21, and the output signal of the first voice recognition circuit 31 and the first crosstalk canceller 80 is obtained. Is output.
  • the first voice recognition circuit 31 is supplied with digital voice data obtained by removing the second crosstalk 18 from the voice of the first speaker 11 by the second crosstalk canceller 90.
  • the first voice recognition circuit 31 outputs a first character string, which is the result of voice recognition of the input digital voice data, to the control circuit 37.
  • the voice of the second speaker 12 is input to the second microphone 23.
  • the first crosstalk 17 is input to the second microphone 23.
  • the fifth interference signal that is, the first crosstalk signal
  • the fifth disturbing signal is a signal indicating (estimated) the degree of the first crosstalk 17. Therefore, the output signal of the first crosstalk canceller 80 becomes a signal in which the influence of the first crosstalk 17 is removed from the output signal of the second microphone 23, and the output signal is supplied to the second voice recognition circuit 32 and the second crosstalk canceller 90. Is output.
  • the second voice recognition circuit 32 is supplied with digital voice data obtained by removing the first crosstalk 17 from the voice of the second speaker 12 by the first crosstalk canceller 80.
  • the second voice recognition circuit 32 outputs a second character string, which is the result of voice recognition of the input digital voice data, to the control circuit 37.
  • the control circuit 37 controls the first character string in the first language, which is the recognition result of the voice of the first speaker 11 output by the first voice recognition circuit 31, and the second speaker 12 output by the second voice recognition circuit 32.
  • the second character string in the second language which is the result of voice recognition, is output to the video signal generation circuit 38.
  • the video signal generation circuit 38 outputs the first character string in the first language, which is the recognition result of the voice of the first speaker 11 output from the first voice recognition circuit 31, and the second character output from the second voice recognition circuit 32.
  • the second character string in the second language which is the recognition result of the voice of the speaker 12, is output to the first display circuit 25 and the second display circuit 26.
  • the voice of the first speaker 11 and the voice of the second speaker 12 are processed as described above.
  • the output signal input to the first voice recognition circuit 31 is the output signal from which the influence of the second crosstalk 18 is removed, that is, the acoustic noise is removed from the voice input to the first microphone 21. Only the voice of the first speaker 11 that has been reproduced is obtained.
  • the output signal input to the second voice recognition circuit 32 is the output signal from which the influence of the first crosstalk 17 is removed, that is, acoustic noise is removed from the voice input to the second microphone 23. Only the voice of the second speaker 12 is used.
  • Such a translation device 20b has a first echo canceller 40, a second echo canceller 50, a third echo canceller 60, and a fourth echo when the first language and the second language are the same and no loudness is required.
  • the canceller 70, the first translation circuit 33, the second translation circuit 34, the first speech synthesis circuit 35, the second speech synthesis circuit 36, the first speaker 22 and the second speaker 24 stop their functions, The processing speed can be increased.
  • FIG. 7 is a flowchart of the control circuit 37 selecting the most suitable configuration in the first to third embodiments.
  • the first language selection circuit 27 receives the selection of the first language used by the first speaker 11 from the first speaker 11 (step S300). Further, the control circuit 37 is notified of the received first language.
  • the second language selection circuit 28 receives the selection of the second language used by the second speaker 12 from the second speaker 12 (step S301). Further, the control circuit 37 is notified of the accepted second language.
  • the control circuit 37 determines whether or not the first language accepted by the first language selection circuit 27 and the second language accepted by the second language selection circuit 28 are the same (step S302).
  • the control circuit 37 has the configuration of the first embodiment when the first language accepted by the first language selection circuit 27 and the second language accepted by the second language selection circuit 28 are different (NO in step S302).
  • the function of each component is operated as described above (step S303).
  • the control circuit 37 determines whether or not the loud sound is necessary. It is determined (step S304).
  • the control circuit 37 activates the function of each configuration so that the configuration of the second embodiment is obtained when the loud sound is required (YES in step S304).
  • the control circuit 37 activates the function of each configuration so that the configuration of the third embodiment is obtained when the loudspeaking is not necessary (NO in step S304).
  • step S304 may be performed by the control circuit 37, or may be performed by the first speaker 11 or the second speaker 12.
  • a switch may be provided for setting whether or not the loud sound is required.
  • the first language selection circuit 27 and the second language selection circuit 28 select the languages used by the first speaker 11 and the second speaker 12.
  • a function of newly identifying the language used by the first speaker 11 and the second speaker 12 by the voice of the first speaker 11 and the voice of the second speaker 12 is newly provided. The assigned configuration is shown.
  • FIG. 8 is a block diagram showing the configuration of the translation device 20c according to the fourth embodiment.
  • the same components as those in the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted.
  • the translation device 20c includes a first language identification circuit 311 and a second language identification circuit 321 in addition to the components of the first embodiment. Furthermore, the first language selection circuit 27 and the second language selection circuit 28 may not be provided.
  • the first language identification circuit 311 identifies the first language based on the first voice and notifies the control circuit 37 of the first language. That is, the first language used by the first speaker 11 is identified based on the first voice of the first speaker 11. For example, the first voice recognition circuit 31 voice-recognizes the first voice of the first speaker 11 and outputs the first character string to the first language identification circuit 311 as well.
  • the second language identification circuit 321 identifies the second language based on the second voice and notifies the control circuit 37 of the second language. That is, the second language used by the second speaker 12 is identified based on the second voice of the second speaker 12. For example, the second voice recognition circuit 32 voice-recognizes the second voice of the second speaker 12 and outputs the second character string to the second language identification circuit 321.
  • control circuit 37 causes the first speech recognition circuit 31 to use the first language based on the first language identified by the first language identification circuit 311 and the second language identified by the second language identification circuit 321.
  • Voice recognition in the second language the second voice recognition circuit 32 performs voice recognition in the second language
  • the first translation circuit 33 translates the first language into the second language
  • the second translation circuit 34 performs the second language.
  • the first speech synthesis circuit 35 may be translated into the first language
  • the first speech synthesis circuit 35 may be synthesized into the second language
  • the second speech synthesis circuit 36 may be synthesized into the first language.
  • the translation device 20c in the present embodiment configured as described above operates as follows. Here, points different from the translation device 20 shown in the first embodiment will be mainly described.
  • the difference from the translation device 20 shown in the first embodiment is that the translation device 20c shown in the fourth embodiment does not include the first language selection circuit 27 and the second language selection circuit 28. , A first language identification circuit 311 and a second language identification circuit 321.
  • the language selection is not performed in advance by using the first language selection circuit 27 and the second language selection circuit 28.
  • the voice of the first speaker 11 is input to the first microphone 21.
  • the same acoustic noise as in the first embodiment is input to the first microphone 21.
  • the process until the output signal of the first microphone 21 reaches the first voice recognition circuit 31 and the first crosstalk canceller 80 is the same as that in the first embodiment.
  • the digital voice data input to the first voice recognition circuit 31 and the first crosstalk canceller 80 is the same as that in the first embodiment. That is, in the first voice recognition circuit 31 and the first crosstalk canceller 80, the second echo canceller 50 removes the second echo 14 from the voice of the first speaker 11, and the third echo canceller 60 removes the third echo 15. Is removed, and the digital audio data from which the second crosstalk 18 is removed by the second crosstalk canceller 90 is input.
  • the first voice recognition circuit 31 notifies the first language identification circuit 311 of the input digital voice data.
  • the voice of the second speaker 12 is input to the second microphone 23.
  • the same acoustic noise as in the first embodiment is input to the second microphone 23.
  • the process until the output signal of the second microphone 23 reaches the second voice recognition circuit 32 and the second crosstalk canceller 90 is the same as that in the first embodiment.
  • the digital voice data input to the second voice recognition circuit 32 and the second crosstalk canceller 90 is the same as that in the first embodiment. That is, in the second voice recognition circuit 32 and the second crosstalk canceller 90, the first echo 13 cancels the first echo 13 from the voice of the second speaker 12, and the fourth echo canceller 70 removes the fourth echo 16. Is removed, and the digital audio data from which the first crosstalk 17 is removed by the first crosstalk canceller 80 is input.
  • the second voice recognition circuit 32 notifies the second language identification circuit 321 of the input digital voice data.
  • the first language identification circuit 311 identifies the first language based on the input digital voice data and notifies the control circuit 37 of the first language.
  • the second language identification circuit 321 identifies the second language based on the input digital voice data and notifies the control circuit 37 of it.
  • control circuit 37 transfers the first language notified from the first language identification circuit 311 to the first speech recognition circuit 31, the first translation circuit 33, the second translation circuit 34, and the first speech synthesis circuit 35.
  • the second language notified by the second language identification circuit 321 is instructed to the second speech recognition circuit 32, the first translation circuit 33, the second translation circuit 34, and the second speech synthesis circuit 36.
  • the first voice recognition circuit 31 is a result of performing voice recognition on the input digital voice data based on the information of the first language of the first speaker 11 instructed by the control circuit 37.
  • the first character string is output to the first translation circuit 33 and the control circuit 37.
  • the second voice recognition circuit 32 is the result of performing voice recognition on the input digital voice data based on the information of the second language of the second speaker 12 instructed by the control circuit 37.
  • the two character strings are output to the second translation circuit 34 and the control circuit 37.
  • the first translation circuit 33 outputs the first character string output from the first speech recognition circuit 31 from the first language of the first speaker 11 designated by the control circuit 37 to the second character of the second speaker 12. It is converted into a third character string of the language and output to the first voice synthesis circuit 35 and the control circuit 37.
  • the second translation circuit 34 changes the second character string output from the second speech recognition circuit 32 from the second language of the second speaker 12 designated by the control circuit 37 to the first language of the first speaker 11. Is converted into a fourth character string of and output to the second voice synthesis circuit 36 and the control circuit 37.
  • the character strings received by the first voice synthesizing circuit 35, the second voice synthesizing circuit 36, and the control circuit 37 are the same as those in the first embodiment. Therefore, the subsequent processing procedure is the same as that in the first embodiment. It is the same.
  • the translation device 20c further identifies the first language based on the first voice and notifies the control circuit 37 of the first language, and the second language based on the second voice.
  • the control circuit 37 includes a first language identified by the first language identifying circuit 311 and a second language identified by the second language identifying circuit 321.
  • the first voice recognition circuit 31 is caused to perform voice recognition in the first language
  • the second voice recognition circuit 32 is caused to perform voice recognition in the second language
  • the first translation circuit 33 is caused to change the first language from the first language.
  • the second translation circuit 34 translates the second language into the first language
  • the first speech synthesis circuit 35 synthesizes the speech in the second language
  • the second speech synthesis circuit 36 stores the first speech. Speech synthesis is done in the language.
  • FIG. 9 is a block diagram showing the configuration of the translation device 20d in the fifth embodiment.
  • the same components as those in the second and fourth embodiments are designated by the same reference numerals, and detailed description thereof will be omitted.
  • the translation device 20d according to the fifth embodiment includes, in addition to the second embodiment, the first language identification circuit 311 and the second language identification circuit 321 described in the fourth embodiment.
  • control circuit 37 includes a first echo canceller 40, a second echo canceller 50, a first translation circuit 33, a second translation circuit 34, a first speech synthesis circuit 35, and a second speech synthesis circuit 36.
  • the function may be stopped.
  • Translation device 20d in the present embodiment configured as described above operates as follows. Here, the description will focus on the points that are different from the translation device 20a shown in the second embodiment.
  • the difference from the translation device 20a shown in the second embodiment is that the translation device 20d shown in the fifth embodiment does not include the first language selection circuit 27 and the second language selection circuit 28, The first language identification circuit 311 and the second language identification circuit 321 are provided.
  • the language selection is not performed in advance by using the first language selection circuit 27 and the second language selection circuit 28.
  • control circuit 37 First, the operation of the control circuit 37 will be described.
  • the fifth embodiment has been described in the fourth embodiment [5-2. Operation], the first language of the first speaker 11 and the second language of the second speaker 12 are the same.
  • the control circuit 37 is notified by the first language identifying circuit 311 and the second language identifying circuit 321 that the first language and the second language are the same. Therefore, in the fifth embodiment, the control circuit 37 includes the first echo canceller 40, the second echo canceller 50, the first translation circuit 33, the second translation circuit 34, and the first speech synthesis circuit 35. , The function of the second speech synthesis circuit 36 is stopped.
  • the voice of the first speaker 11 is input to the first microphone 21.
  • the same acoustic noise as in the second embodiment is input to the first microphone 21.
  • the process until the output signal of the first microphone 21 reaches the first voice recognition circuit 31, the first speaker 22, and the first echo/first crosstalk canceller 80a is the same as that in the second embodiment.
  • the digital voice data input to the first voice recognition circuit 31, the first speaker 22, and the first echo/first crosstalk canceller 80a is the same as that in the second embodiment. That is, in the first voice recognition circuit 31, the first speaker 22, and the first echo/first crosstalk canceller 80a, the first howling canceller 60a removes the first howling 15a from the voice of the first speaker 11. Digital voice data from which the second echo 14a and the second crosstalk 18a are removed by the two-echo/second crosstalk canceller 90a is input.
  • the first voice recognition circuit 31 outputs a first character string, which is the result of voice recognition of the input digital voice data, to the control circuit 37 and the first language identification circuit 311.
  • the first language identification circuit 311 identifies the first language based on the input digital voice data and notifies the control circuit 37 of the first language.
  • the voice of the second speaker 12 is input to the second microphone 23.
  • the same acoustic noise as in the second embodiment is input to the second microphone 23.
  • the process until the output signal of the second microphone 23 reaches the second voice recognition circuit 32, the second speaker 24, and the second echo/second crosstalk canceller 90a is the same as that in the second embodiment.
  • the digital voice data input to the second voice recognition circuit 32, the second speaker 24, and the second echo/second crosstalk canceller 90a is the same as that in the second embodiment. That is, the second voice recognition circuit 32, the second speaker 24, and the second echo/second crosstalk canceller 90a remove the second howling 16a from the voice of the second speaker 12 by the second howling canceller 70a.
  • Digital voice data from which the first echo 13a and the first crosstalk 17a are removed by the 1-echo/first crosstalk canceller 80a is input.
  • the second voice recognition circuit 32 outputs a second character string, which is the result of voice recognition of the input digital voice data, to the control circuit 37 and the second language identification circuit 321.
  • the second language identification circuit 321 identifies the second language based on the input digital voice data and notifies the control circuit 37 of it.
  • the first language and the second language are the same. That is, the translation function and the function of outputting the translated voice are unnecessary.
  • the signals received by the first speaker 22, the second speaker 24, the control circuit 37, the first echo/first crosstalk canceller 80a, and the second echo/second crosstalk canceller 90a are the same as those in the second embodiment. Therefore, the subsequent processing procedure is the same as that of the second embodiment.
  • the control circuit 37 determines that the first language The echo canceller 40, the second echo canceller 50, the first translation circuit 33, the second translation circuit 34, the first speech synthesis circuit 35, and the second speech synthesis circuit 36 stop their functions.
  • the speaker does not need to use a language selection circuit, and translation can be performed more easily. Furthermore, when the first language and the second language are the same, a first echo canceller 40, a second echo canceller 50, a first translation circuit 33, a second translation circuit 34, and a first speech synthesis circuit 35 are provided. , The function of the second speech synthesis circuit 36 can be stopped, and the processing speed can be increased.
  • the first language of the first speaker 11 and the second language of the second speaker 12 are the same as in the third embodiment, and no loud sound is required. A configuration suitable for any case is shown.
  • FIG. 10 is a block diagram showing the configuration of the translation device 20e according to the sixth embodiment.
  • the same components as those in the third and fourth embodiments are designated by the same reference numerals, and detailed description thereof will be omitted.
  • the translation device 20e includes, in addition to the third embodiment, the first language identification circuit 311 and the second language identification circuit 321 described in the fourth embodiment.
  • the translation device 20e according to the present embodiment configured as described above operates as follows. Here, the description will focus on the points that are different from the translation device 20b shown in the third embodiment.
  • the difference from the translation device 20b shown in the third embodiment is that the translation device 20e shown in the sixth embodiment does not include the first language selection circuit 27 and the second language selection circuit 28.
  • the first language identification circuit 311 and the second language identification circuit 321 are provided.
  • the language selection is not performed in advance by using the first language selection circuit 27 and the second language selection circuit 28.
  • control circuit 37 First, the operation of the control circuit 37 will be described.
  • the sixth embodiment has been described in the fourth embodiment [5-2. Operation], the first language of the first speaker 11 and the second language of the second speaker 12 are the same, and it is applied when the loud sound is not necessary.
  • the control circuit 37 is notified by the first language identifying circuit 311 and the second language identifying circuit 321 that the first language and the second language are the same. Therefore, in the sixth embodiment, the control circuit 37 controls the first translation circuit 33, the second translation circuit 34, the first speech synthesis circuit 35, the second speech synthesis circuit 36, the first speaker 22, and the second speaker 24.
  • the functions of the first echo canceller 40, the second echo canceller 50, the third echo canceller 60, and the fourth echo canceller 70 are stopped.
  • the voice of the first speaker 11 is input to the first microphone 21.
  • the same acoustic noise as in the third embodiment is input to the first microphone 21.
  • the process until the output signal of the first microphone 21 reaches the first voice recognition circuit 31 and the first crosstalk canceller 80 is the same as that in the third embodiment.
  • the digital voice data input to the first voice recognition circuit 31 and the first crosstalk canceller 80 is the same as in the third embodiment. That is, the first voice recognition circuit 31 and the first crosstalk canceller 80 receive the digital voice data in which the second crosstalk canceller 90 removes the second crosstalk 18 from the voice of the first speaker 11. ..
  • the first voice recognition circuit 31 outputs a first character string, which is the result of voice recognition of the input digital voice data, to the control circuit 37, the first language identification circuit 311 and the video signal generation circuit 38.
  • the first language identification circuit 311 identifies the first language based on the input digital voice data and notifies the control circuit 37 of the first language.
  • the voice of the second speaker 12 is input to the second microphone 23.
  • the same acoustic noise as in the third embodiment is input to the second microphone 23.
  • the process until the output signal of the second microphone 23 reaches the second voice recognition circuit 32 and the second crosstalk canceller 90 is the same as that in the third embodiment.
  • the digital voice data input to the second voice recognition circuit 32 and the second crosstalk canceller 90 is the same as in the second embodiment. That is, the second voice recognition circuit 32 and the second crosstalk canceller 90 receive the digital voice data in which the first crosstalk 17 is removed from the voice of the second speaker 12 by the first crosstalk canceller 80. ..
  • the second voice recognition circuit 32 outputs a second character string, which is the result of voice recognition of the input digital voice data, to the control circuit 37, the second language identification circuit 321, and the video signal generation circuit 38.
  • the second language identification circuit 321 identifies the second language based on the input digital voice data and notifies the control circuit 37 of it.
  • the signals received by the control circuit 37, the video signal generation circuit 38, the first crosstalk canceller 80, and the second crosstalk canceller 90 are the same as those in the third embodiment, and the subsequent processing procedure is as follows. This is the same as the third embodiment.
  • the speaker does not need to use the language selection circuit, and the translation can be performed more easily.
  • the second translation circuit 34, the first speech synthesis circuit 35, the second speech synthesis circuit 36, and the first speaker 22 and the second speaker 24 can stop their functions to increase the processing speed.
  • the first to sixth embodiments have been described as examples of the technique disclosed in the present application.
  • the technique of the present disclosure is not limited to this, and can be applied to embodiments in which changes, replacements, additions, omissions, etc. have been made. It is also possible to combine the constituent elements described in the first to sixth embodiments to form a new embodiment.
  • control circuit 37 described above may control the output of the first voice synthesis circuit 35 and the output of the second voice synthesis circuit 36 so that they do not overlap in time. As a result, it is possible to improve the accuracy of removing unnecessary signals of all echo cancellers, and further improve the easiness of speaking and hearing by both speakers. Further, the control circuit 37 may give priority to the output of the synthesized voice of one speaker. For example, the output of the synthesized voice of the customer like the first speaker 11 shown in FIG. 1 may be prioritized.
  • the fifth and sixth embodiments are applied after it is identified in the fourth embodiment that the first language of the first speaker 11 and the second language of the second speaker 12 are the same. However, it is not limited to this.
  • an example of a method for determining a translated language in the case of including the first language identification circuit 311 and the second language identification circuit 321 described in the fourth to sixth embodiments will be shown.
  • the first speaker 11 and the second speaker 12 greet each other in their native language before speaking the content to be translated of the main subject.
  • the first language identification circuit 311 and the second language identification circuit 321 identify the language and notify the control circuit 37.
  • control circuit 37 instructs the first translation circuit 33 and the second translation circuit 34 based on the notified language, and the first translation circuit 33 and the second translation circuit 34 determine the translation language. You may use such a method. It should be noted that it is not necessary to say greetings, and other words that use each other's mother tongue may be used.
  • the language of one speaker may be set in advance. For example, if the language of the receiving side is set in advance like the second speaker 12 shown in FIG. 1, the translation process becomes faster.
  • control circuit 37 may stop the functions of the components.
  • the output of the first voice synthesis circuit 35 and the second voice synthesis circuit 36 may have a function of simulating the voice quality of the speaker.
  • the voice quality is, for example, the pitch of a voice. As a result, both speakers can naturally have a conversation.
  • control circuit 37 supplies the first transfer function and the third transfer function to the first echo canceller 40 and the third echo canceller 60 only during the period when the first speech synthesis circuit 35 outputs the first translated speech. You may update it. Further, the control circuit 37 supplies the second transfer function and the fourth transfer function to the second echo canceller 50 and the fourth echo canceller 70 only during the period when the second speech synthesis circuit 36 outputs the second translated speech. You may update it.
  • the translation device 20 shown in FIG. 1 has two display circuits, the first display circuit 25 and the second display circuit 26, they may be one as shown in FIG. .
  • FIG. 11 is a diagram showing an example of a usage state of the translation device 20.
  • FIG. 11 An example of the translation device 20 shown in FIG. 11 shows a configuration in which the components of the first embodiment are integrated.
  • the remarks of the first speaker 11 are expressed in black characters
  • the remarks of the second speaker 12 are expressed in white characters.
  • the remarks of the first speaker 11 are represented by white characters
  • the remarks of the second speaker 12 are represented by black characters.
  • the bidirectional conversation between the first speaker 11 and the second speaker 12 is described, but the number of speakers is not limited to two.
  • the first speaker 11 shown in FIG. 1 is, for example, a customer, but there may be a plurality of customers. When a plurality of people speak in sequence, the translated speech can be output sequentially. As a matter of course, there may be a plurality of reception sides shown in FIG.
  • the example of the translation device 20 shown in FIG. 11 has two speakers, a first speaker 22 on the side of the first speaker 11 and a second speaker 24 on the side of the second speaker 12.
  • the addition circuit which has only one speaker and adds the first translated speech output from the first speech synthesis circuit 35 and the second translated speech output from the second speech synthesis circuit 36 to output the added translation speech. May be added to output to one speaker described above.
  • the fourth echo canceller 70 becomes unnecessary and only the first echo canceller 40 becomes necessary.
  • the second echo 14 and the third echo 15 have the same phenomenon, the third echo canceller 60 is unnecessary and only the second echo canceller 50 is necessary.
  • the fifth echo is the same phenomenon as the first echo 13 and the fourth echo 16. Therefore, a fifth echo canceller having the same structure and function as the first echo canceller 40 is required.
  • the sixth echo has the same phenomenon as the second echo 14 and the third echo 15. Therefore, a sixth echo canceller having the same structure and function as the second echo canceller 50 is required.
  • the translation device 20 translates the language of one speaker into the language of the other speaker and translates the synthesized speech.
  • a first voice synthesis circuit for converting the sequence into a first translated voice
  • a second microphone 23 for inputting the second voice of the second speaker 12, and a second character string by voice recognition of the second voice.
  • a second translation circuit for translating the second character string output from the second speech recognition circuit into the language of the first speaker 11 and outputting a fourth character string.
  • a second speech synthesis circuit for converting the fourth character string output from the second translation circuit into a second translation speech, and a first translation speech and a second speech synthesis circuit output by the first speech synthesis circuit.
  • An addition circuit that adds the output second translated speech and outputs the added translated speech, a speaker for amplifying the added translated speech output by the adder circuit, and the second translated speech that is amplified by the speaker is added to the second microphone 23.
  • the control circuit includes a fifth echo signal to the fifth echo canceller during a period in which the first speech synthesis circuit outputs the first translated speech or the second speech synthesis circuit outputs the second translated speech. Is updated, and the first speech synthesizer circuit outputs the first translated speech or the second speech synthesizer circuit outputs the second translated speech. Update the transfer function that estimates the echo signal.
  • the voices of a plurality of speakers and the plurality of synthetic voices which are recognized by recognizing the voices of the plurality of speakers, translated into a language of the other party, and voice-synthesized are output simultaneously. Even in the presence of such a situation, acoustic noise including echo can be removed, and stable speech recognition can be performed while talking with each other. Furthermore, since the above can be achieved with a small number of components, the scale and cost of hardware can be significantly reduced.
  • the translation device 20 when the phenomenon that the first voice is input to the second microphone 23 is the first crosstalk, the translation device 20 further uses the first voice to generate a first crosstalk signal indicating the first crosstalk.
  • the first crosstalk canceller that estimates and removes the first crosstalk signal from the output signal of the second microphone 23 and the phenomenon that the second voice is input to the first microphone 21 are the second crosstalk
  • a second crosstalk canceller that estimates a second crosstalk signal indicating the second crosstalk using two voices and removes the second crosstalk signal from the output signal of the first microphone 21 is provided.
  • the voices of a plurality of speakers and the plurality of synthetic voices which are recognized by recognizing the voices of the plurality of speakers, translated into a language of the other party, and voice-synthesized are output simultaneously. Even in the presence of such a situation, acoustic noise including echo and crosstalk can be removed, and stable speech recognition can be performed while mutual conversation is possible.
  • the translation method as described above is performed by, for example, a processor that executes a program. That is, the first echo canceller 40, the second echo canceller 50, the third echo canceller 60, the fourth echo canceller 70, the first crosstalk canceller 80, and the second crosstalk canceller 90 according to the above-described embodiment are programmed. It may be implemented by the executing processor.
  • the processor includes, in addition to the CPU described above, a DSP (Digital Signal Processor), an MPU (Micro-Processing Unit), and a microprocessor.
  • Such a translation method may be realized by a program recorded in a computer-readable recording medium such as the ROM and the CD-ROM described above, and a recording medium recording the program. Further, such a translation method may be executed by a computer device that executes the above program.
  • the voices of a plurality of speakers and the plurality of synthesized voices that are output by recognizing the voices of the plurality of speakers, translating them into the language of the other party, synthesizing the voices, and the like exist simultaneously. Even in such a case, the present invention can be applied to a translation device in which acoustic noise including echo is removed, and stable speech recognition is performed while mutual conversation is performed. Specifically, the present disclosure is applicable as a translation device in a narrow space range.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Machine Translation (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Otolaryngology (AREA)

Abstract

翻訳装置(20)は、第1マイク(21)と、第1音声認識回路(31)と、第1翻訳回路(33)と、第1音声合成回路(35)と、第1スピーカ(22)と、第2マイク(23)と、第2音声認識回路(32)と、第2翻訳回路(34)と、第2音声合成回路(36)と、第2スピーカ(24)と、第1エコーキャンセラ(40)と、第2エコーキャンセラ(50)と、制御回路(37)を備え、制御回路(37)は、第1翻訳音声の出力期間に、第1エコーキャンセラ(40)に、第1エコー信号を推定する第1伝達関数を更新させ、第2翻訳音声の出力期間に、第2エコーキャンセラ(50)に、第2エコー信号を推定する第2伝達関数を更新させる。

Description

翻訳装置及び翻訳方法
 本開示は、第1話者と第2話者とによる会話において、一方の話者の言語を他方の話者の言語に翻訳して拡声する翻訳装置及び翻訳方法に関する。
 特許文献1は、音響的雑音を除去したうえで2者間の双方向の会話を拡声して補助するのに有効である会話補助装置を開示する。この会話補助装置は、エコー及びクロストークを示す妨害信号をマイクの出力信号から除去するエコー・クロストークキャンセラを備える。会話補助装置によれば、エコーとクロストークを含む音響的雑音を除去し、2者間の双方向の会話を拡声して補助することができる。
特許第6311136号公報
 本開示は、複数の話者の音声と、この複数の話者の音声を認識し相手の言語に翻訳し音声合成して出力された複数の合成音声とが、同時に重複して存在するような場合でも、エコーを含む音響的雑音を抑制することで、安定して音声認識しながら、相互に会話を行う翻訳装置及び翻訳方法を提供する。
 本開示における翻訳装置は、第1話者と第2話者とによる会話において、一方の話者の言語を他方の話者の言語に翻訳して合成音声を拡声する翻訳装置であって、前記第1話者の第1音声を入力するための第1マイクと、前記第1音声を音声認識して第1文字列を出力するための第1音声認識回路と、前記第1音声認識回路から出力された前記第1文字列を前記第2話者の言語に翻訳して第3文字列を出力するための第1翻訳回路と、前記第1翻訳回路から出力された前記第3文字列を第1翻訳音声に変換するための第1音声合成回路と、前記第1翻訳音声を拡声するための第1スピーカと、前記第2話者の第2音声を入力するための第2マイクと、前記第2音声を音声認識して第2文字列を出力するための第2音声認識回路と、前記第2音声認識回路から出力された前記第2文字列を前記第1話者の言語に翻訳して第4文字列を出力するための第2翻訳回路と、前記第2翻訳回路から出力された前記第4文字列を第2翻訳音声に変換するための第2音声合成回路と、前記第2翻訳音声を拡声するための第2スピーカと、前記第1スピーカから拡声された前記第1翻訳音声が前記第2マイクに入力される現象を第1エコーとしたとき、前記第1翻訳音声と前記第1エコーに対応する前記第1伝達関数とを用いて、前記第1エコーを示す第1エコー信号を推定し、前記第1エコー信号を、前記第2マイクの出力信号から除去する第1エコーキャンセラと、前記第2スピーカから拡声された前記第2翻訳音声が前記第1マイクに入力される現象を第2エコーとしたとき、前記第2翻訳音声と前記第2エコーに対応する前記第2伝達関数とを用いて、前記第2エコーを示す第2エコー信号を推定し、前記第2エコー信号を、前記第1マイクの出力信号から除去する第2エコーキャンセラと、制御回路とを備え、前記制御回路は、前記第1音声合成回路が前記第1翻訳音声を出力している期間に、前記第1エコーキャンセラに、前記第1エコー信号を推定する伝達関数を更新させ、前記第2音声合成回路が前記第2翻訳音声を出力している期間に、前記第2エコーキャンセラに、前記第2エコー信号を推定する伝達関数を更新させる。
 また、本開示における翻訳装置は、第1話者と第2話者とによる会話において、一方の話者の言語を他方の話者の言語に翻訳して合成音声を拡声する翻訳装置であって、前記第1話者の第1音声を入力するための第1マイクと、前記第1音声を音声認識して第1文字列を出力するための第1音声認識回路と、前記第1音声認識回路から出力された前記第1文字列を前記第2話者の言語に翻訳して第3文字列を出力するための第1翻訳回路と、前記第1翻訳回路から出力された前記第3文字列を第1翻訳音声に変換するための第1音声合成回路と、前記第1翻訳音声を拡声するための第1スピーカと、前記第2話者の第2音声を入力するための第2マイクと、前記第2音声を音声認識して第2文字列を出力するための第2音声認識回路と、前記第2音声認識回路から出力された前記第2文字列を前記第1話者の言語に翻訳して第4文字列を出力するための第2翻訳回路と、前記第2翻訳回路から出力された前記第4文字列を第2翻訳音声に変換するための第2音声合成回路と、前記第2翻訳音声を拡声するための第2スピーカと、前記第1スピーカから拡声された前記第1翻訳音声が前記第1マイクに入力される現象を第3エコーとしたとき、前記第1翻訳音声と前記第3エコーに対応する第3伝達関数を用いて、前記第3エコーを示す第3エコー信号を推定し、前記第3エコー信号を、前記第1マイクの前記出力信号から除去する第3エコーキャンセラと、前記第2スピーカから拡声された前記第2翻訳音声が前記第2マイクに入力される現象を第4エコーとしたとき、前記第2翻訳音声と前記第4エコーに対応する第4伝達関数を用いて、前記第4エコーを示す第4エコー信号を推定し、前記第4エコー信号を、前記第2マイクの前記出力信号から除去する第4エコーキャンセラとを備え、制御回路とを備え、前記制御回路は、前記第1音声合成回路が前記第1翻訳音声を出力している期間に、前記第3エコーキャンセラに、前記第3エコー信号を推定する前記第3伝達関数を更新させ、前記第2音声合成回路が前記第2翻訳音声を出力している期間に、前記第4エコーキャンセラに、前記第4エコー信号を推定する前記第4伝達関数を更新させる。
 また、本開示における翻訳装置は、第1話者と第2話者とによる会話において、一方の話者の言語を他方の話者の言語に翻訳して合成音声を拡声する翻訳装置であって、前記第1話者の第1音声を入力するための第1マイクと、前記第1音声を音声認識して第1文字列を出力するための第1音声認識回路と、前記第1音声認識回路から出力された前記第1文字列を前記第2話者の言語に翻訳して第3文字列を出力するための第1翻訳回路と、前記第1翻訳回路から出力された前記第3文字列を第1翻訳音声に変換するための第1音声合成回路と、前記第2話者の第2音声を入力するための第2マイクと、前記第2音声を音声認識して第2文字列を出力するための第2音声認識回路と、前記第2音声認識回路から出力された前記第2文字列を前記第1話者の言語に翻訳して第4文字列を出力するための第2翻訳回路と、前記第2翻訳回路から出力された前記第4文字列を第2翻訳音声に変換するための第2音声合成回路と、前記第1音声合成回路が出力する前記第1翻訳音声と前記第2音声合成回路が出力する前記第2翻訳音声とを加算して加算翻訳音声を出力する加算回路と、前記加算回路が出力する加算翻訳音声を拡声するためのスピーカと、前記スピーカから拡声された前記加算翻訳音声が前記第2マイクに入力される現象を第5エコーとしたとき、前記加算翻訳音声と前記第5エコーに対応する前記第5伝達関数とを用いて、前記第5エコーを示す第5エコー信号を推定し、前記第5エコー信号を、前記第2マイクの出力信号から除去する第5エコーキャンセラと、前記スピーカから拡声された前記加算翻訳音声が前記第1マイクに入力される現象を第6エコーとしたとき、前記加算翻訳音声と前記第6エコーに対応する前記第6伝達関数とを用いて、前記第6エコーを示す第6エコー信号を推定し、前記第6エコー信号を、前記第1マイクの出力信号から除去する第6エコーキャンセラと、制御回路とを備え、前記制御回路は、前記第1音声合成回路が前記第1翻訳音声を出力し、又は前記第2音声合成回路が前記第2翻訳音声を出力している期間に、前記第5エコーキャンセラに、前記第5エコー信号を推定する伝達関数を更新させ、前記第1音声合成回路が前記第1翻訳音声を出力し、又は前記第2音声合成回路が前記第2翻訳音声を出力している期間に、前記第6エコーキャンセラに、前記第6エコー信号を推定する伝達関数を更新させる。
 本開示における翻訳方法は、第1話者と第2話者とによる会話において、自分の言語を相手の言語に翻訳して合成音声を拡声する翻訳方法であって、前記第1話者の第1音声を入力するための第1入力ステップと、前記第1音声を音声認識して第1文字列を出力するための第1音声認識ステップと、前記第1音声認識ステップから出力された前記第1文字列を前記第2話者の言語に翻訳して第3文字列を出力するための第1翻訳ステップと、前記第1翻訳ステップから出力された前記第3文字列を第1翻訳音声に変換するための第1音声合成ステップと、前記第1翻訳音声を拡声するための第1拡声ステップと、前記第2話者の第2音声を入力するための第2入力ステップと、前記第2音声を音声認識して第2文字列を出力するための第2音声認識ステップと、前記第2音声認識ステップから出力された前記第2文字列を前記第1話者の言語に翻訳して第4文字列を出力するための第2翻訳ステップと、前記第2翻訳ステップから出力された前記第4文字列を第2翻訳音声に変換するための第2音声合成ステップと、前記第2翻訳音声を拡声するための第2拡声ステップと、前記第1拡声ステップにて拡声された前記第1翻訳音声が前記第2入力ステップにて入力される現象を第1エコーとしたとき、前記第1翻訳音声と前記第1エコーに対応する第1伝達関数とを用いて、前記第1エコーを示す第1エコー信号を推定し、前記第1エコー信号を、前記第2入力ステップの出力信号から除去する第1エコーキャンセラステップと、前記第2拡声ステップにて拡声された前記第2翻訳音声が前記第1入力ステップにて入力される現象を第2エコーとしたとき、前記第2翻訳音声と前記第2エコーに対応する第2伝達関数とを用いて、前記第2エコーを示す第2エコー信号を推定し、前記第2エコー信号を、前記第1入力ステップの出力信号から除去する第2エコーキャンセラステップと、前記第1音声合成ステップにて前記第1翻訳音声を出力している期間に、前記第1エコーキャンセラステップにおいて、前記第1エコー信号を推定する前記第1伝達関数を更新し、前記第2音声合成ステップにて前記第2翻訳音声を出力している期間に、前記第2エコーキャンセラステップにおいて、前記第2エコー信号を推定する前記第2伝達関数を更新するように指示を与える制御ステップとを含む。
 また、本開示における翻訳方法は、第1話者と第2話者とによる会話において、自分の言語を相手の言語に翻訳して合成音声を拡声する翻訳方法であって、前記第1話者の第1音声を入力するための第1入力ステップと、前記第1音声を音声認識して第1文字列を出力するための第1音声認識ステップと、前記第1音声認識ステップから出力された前記第1文字列を前記第2話者の言語に翻訳して第3文字列を出力するための第1翻訳ステップと、前記第1翻訳ステップから出力された前記第3文字列を第1翻訳音声に変換するための第1音声合成ステップと、前記第1翻訳音声を拡声するための第1拡声ステップと、前記第2話者の第2音声を入力するための第2入力ステップと、前記第2音声を音声認識して第2文字列を出力するための第2音声認識ステップと、前記第2音声認識ステップから出力された前記第2文字列を前記第1話者の言語に翻訳して第4文字列を出力するための第2翻訳ステップと、前記第2翻訳ステップから出力された前記第4文字列を第2翻訳音声に変換するための第2音声合成ステップと、前記第2翻訳音声を拡声するための第2拡声ステップと、前記第1拡声ステップにて出力された前記第1翻訳音声が前記第1入力ステップにて入力される現象を第3エコーとしたとき、前記第1翻訳音声と前記第3エコーに対応する第3伝達関数とを用いて、前記第3エコーを示す第3エコー信号を推定し、前記第3エコー信号を、前記第1入力ステップの出力信号から除去する第3エコーキャンセラステップと、前記第2拡声ステップにて出力された前記第2翻訳音声が前記第2入力ステップにて入力される現象を第4エコーとしたとき、前記第2翻訳音声と前記第4エコーに対応する第4伝達関数とを用いて、前記第4エコーを示す第4エコー信号を推定し、前記第4エコー信号を、前記第2入力ステップの出力信号から除去する第4エコーキャンセラステップと、前記第1音声合成ステップにて前記第1翻訳音声を出力している期間に、前記第3エコーキャンセラステップにおいて、前記第3エコー信号を推定する前記第3伝達関数を更新し、前記第2音声合成ステップから前記第2翻訳音声を出力している期間に、前記第4エコーキャンセラステップにおいて、前記第4エコー信号を推定する前記第4伝達関数を更新するように指示を与える制御ステップとを含む。
 本開示における翻訳装置及び翻訳方法は、複数の話者の音声と、この複数の話者の音声を認識し相手の言語に翻訳し音声合成して出力された複数の合成音声とが、同時に重複して存在するような場合でも、エコーを含む音響的雑音を除去することで、安定して音声認識しながら、相互に会話を行うのに有効である。
図1は、実施の形態1における翻訳装置の適用例を示す図である。 図2は、実施の形態1における翻訳装置の構成を示すブロック図である。 図3は、第1エコーキャンセラと第3エコーキャンセラとの伝達関数の更新についてのフローチャートである。 図4は、第2エコーキャンセラと第4エコーキャンセラとの伝達関数の更新についてのフローチャートである。 図5は、実施の形態2における翻訳装置の構成を示すブロック図である。 図6は、実施の形態3における翻訳装置の構成を示すブロック図である。 図7は、実施の形態1~3のうち、最適な構成を選択するフローチャートである。 図8は、実施の形態4における翻訳装置の構成を示すブロック図である。 図9は、実施の形態5における翻訳装置の構成を示すブロック図である。 図10は、実施の形態6における翻訳装置の構成を示すブロック図である。 図11は、翻訳装置の使用状態の一例を示す図である。
 以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
 なお、添付図面及び以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより請求の範囲に記載の主題を限定することは意図されていない。
 (実施の形態1)
 以下、図1及び図2を用いて、実施の形態1を説明する。
 [1-1.適用例]
 図1は、実施の形態1における翻訳装置20の適用例を示す図である。ここでは、翻訳装置20をカウンター10をはさんで向かい合う第1話者11と第2話者12との会話を翻訳して拡声する装置として適用した例が示されている。
 翻訳装置20は、第1話者11(ここでは、客)と第2話者12(ここでは、受け付け)とによる会話を翻訳して拡声する装置である。カウンター10には、第1話者11の音声(第1音声)を入力するための第1マイク21が設けられ、第2話者12側には、その音声を翻訳装置20で翻訳して出力するための第1スピーカ22が設けられている。また、第2話者12側には、第2話者12の音声(第2音声)を入力するための第2マイク23が設けられ、第1話者11側には、その音声を翻訳装置20で翻訳して出力するための第2スピーカ24が設けられている。さらに、翻訳装置20は、第1表示回路25、第2表示回路26、第1カメラ291及び第2カメラ292が設けられている。
 例えば、第1話者11が第1マイク21に向かって「Hello」と発声すると、その音声が翻訳装置20で翻訳されて、第1スピーカ22から「こんにちは」と拡声される。それを受けて次に第2話者12が第2マイク23に向かって「いらっしゃいませ」と発声すると、その音声が翻訳装置20で翻訳されて、第2スピーカ24から「Hello! May I help you?」と拡声される。また、第1表示回路25及び第2表示回路26は、第1話者11と第2話者12の発声である「Hello」「こんにちは」「いらっしゃいませ」「Hello! May I help you?」の文字列を表示する。
 第1話者11と第2話者12とは、翻訳装置20を用いることで、一つの狭い空間であっても、エコー(反響)及びクロストーク(漏話)を含む音響的雑音が除去された音声により正確な音声認識を行うことができるため、会話を楽しむことができる。
 エコーとは、以下の2現象を指す。ある話者に向けてスピーカから出力された音声が、その話者の音声を入力するためのマイクに回り込んで入力される現象、及び、ある話者に向けてスピーカから出力された音声が、その話者以外の音声を入力するためのマイクに回り込んで入力される現象である。具体的に、ここでは、第1スピーカ22から出力された音声が第2マイク23に回り込んで入力される現象を第1エコー13、第2スピーカ24から出力された音声が第1マイク21に回り込んで入力される現象を第2エコー14と定義する。さらに、第1スピーカ22から出力された音声が第1マイク21に回り込んで入力される現象を第3エコー15、及び、第2スピーカ24から出力された音声が第2マイク23に回り込んで入力される現象を第4エコー16と定義する。
 また、クロストークとは、ある話者の音声がその話者以外の音声を入力するためのマイクに入力される現象である。具体的に、ここでは、第1話者11の音声が第2マイク23に入力される現象を第1クロストーク17、及び、第2話者12の音声が第1マイク21に入力される現象を第2クロストーク18と定義する。
 [1-2.構成]
 図2は、図1に示された実施の形態1における翻訳装置20の構成を示すブロック図である。この翻訳装置20は、第1マイク21、第1スピーカ22、第2マイク23、第2スピーカ24、第1表示回路25、第2表示回路26、第1言語選択回路27、第2言語選択回路28、第1エコーキャンセラ40、第2エコーキャンセラ50、第3エコーキャンセラ60、第4エコーキャンセラ70、第1クロストークキャンセラ80、第2クロストークキャンセラ90、第1音声認識回路31、第2音声認識回路32、第1翻訳回路33、第2翻訳回路34、第1音声合成回路35、第2音声合成回路36、制御回路37及び映像信号発生回路38を備える。また、翻訳装置20は、図示しないが、バスを介して相互に接続されるCPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)を備えていてもよい。また、図1に示した処理装置201には、第1エコーキャンセラ40、第2エコーキャンセラ50、第3エコーキャンセラ60、第4エコーキャンセラ70、第1クロストークキャンセラ80、第2クロストークキャンセラ90、第1音声認識回路31、第2音声認識回路32、第1翻訳回路33、第2翻訳回路34、第1音声合成回路35、第2音声合成回路36、制御回路37及び映像信号発生回路38が含まれる。なお、翻訳装置20の各構成要素は、それぞれが有線又は無線で接続されている。
 第1マイク21は、第1話者11の第1音声を入力するためのマイクであり、例えば、図1に示されるように、カウンター10の客側(ここでは、第1話者11側)に向かって設けられる。なお、第1マイク21から出力される出力信号は、例えば、第1マイク21に内蔵又は直後に設けられたA/D変換器で生成されるデジタル音声データである。また、第1マイク21は、指向性を備えていてもよい。指向性とは、特定の方向からの音を収音することができる機能である。
 第1スピーカ22は、第1翻訳音声を拡声する。[1-3.動作]にて詳細は後述するが、第1翻訳音声とは、第1話者11の言語である第1音声が、翻訳装置20により第2話者12の言語へ翻訳された音声である。第1スピーカ22は、例えば、図1に示されるように、カウンター10の受け付け側(ここでは、第2話者12側)に設けられる。なお、第1スピーカ22は、例えば、入力されたデジタル音声データを第1スピーカ22に内蔵又は直前に設けられたD/A変換器でアナログ信号に変換した後に音声として出力する。
 第2マイク23は、第2話者12の第2音声を入力するためのマイクであり、例えば、図1に示されるように、カウンター10の受け付け側(ここでは、第2話者12側)に向かって設けられる。なお、第2マイク23から出力される出力信号は、例えば、第2マイク23に内蔵又は直後に設けられたA/D変換器で生成されるデジタル音声データである。また、第2マイク23は、指向性を備えていてもよい。指向性とは、特定の方向からの音を収音することができる機能である。
 第2スピーカ24は、第2翻訳音声を拡声する。[1-3.動作]にて詳細は後述するが、第2翻訳音声とは、第2話者12の言語である第2音声が、翻訳装置20により第1話者11の言語へ翻訳された音声である。第2スピーカ24は、例えば、図1に示されるように、カウンター10の客側(ここでは、第1話者11側)に向かって設けられる。なお、第2スピーカ24は、例えば、入力されたデジタル音声データを第2スピーカ24に内蔵又は直前に設けられたD/A変換器でアナログ信号に変換した後に音声として出力する。
 第1表示回路25は、第1話者11の音声を認識及び翻訳した結果の文字列、及び第2話者12の音声を認識した結果の文字列を表示するための表示回路であり、第2話者12が視認できる位置に配置される。第1表示回路25は、例えば、液晶ディスプレイ又は有機EL(ElectroLuminescence)ディスプレイなどであってもよく、また、タブレット端末やスマートフォンやパーソナルコンピュータなどであってもよい。さらに、第1表示回路25は、タッチパネル機能を有していてもよい。
 第2表示回路26は、第2話者12の音声を認識及び翻訳した結果の文字列、及び第1話者11の音声を認識した結果の文字列を表示するための表示回路であり、第1話者11が視認できる位置に配置される。第2表示回路26は、例えば、液晶ディスプレイ又は有機ELディスプレイなどであってもよく、また、タブレット端末やスマートフォンやパーソナルコンピュータなどであってもよい。さらに、第2表示回路26は、タッチパネル機能を有していてもよい。
 第1言語選択回路27は、第1話者11から第1話者11が用いる第1言語の選択を受け付け、制御回路37に通知する。第1言語選択回路27は、例えば、第1話者11の音声の言語の種類である第1言語を設定するスイッチであり、第1話者11が選択できる位置に配置される。また、第1言語選択回路27は、第1表示回路25がタッチパネル機能を備える場合、第1表示回路25に含まれていてもよい。
 第2言語選択回路28は、第2話者12から第2話者12が用いる第2言語の選択を受け付け、制御回路37に通知する。第2言語選択回路28は、例えば、第2話者12の音声の言語の種類である第2言語を設定するスイッチであり、第2話者12が選択できる位置に配置される。また、第2言語選択回路28は、第2表示回路26がタッチパネル機能を備える場合、第2表示回路26に含まれていてもよい。
 CPUは、ROMに格納されたプログラムを実行するプロセッサである。ROMは、例えば、CPUによって読み出されて実行されるプログラムを保持している。CPUは、このプログラムを実行することによって後述する回路の処理を実行する。RAMは、CPUがプログラムを実行するときに使用する記憶領域等を有する読み書き可能なメモリである。
 また、以下に記す回路(第1音声認識回路31、第2音声認識回路32、第1翻訳回路33、第2翻訳回路34、第1音声合成回路35、第2音声合成回路36、制御回路37及び映像信号発生回路38)の処理は、プロセッサによって実現される。
 第1音声認識回路31は、第1話者11の第1音声を音声認識して第1文字列を出力する。また、第1音声認識回路31は、第1話者11の第1音声を音声認識した結果である第1文字列を第1翻訳回路33と制御回路37とに出力する。
 第2音声認識回路32は、第2話者12の第2音声を音声認識して第2文字列を出力する。また、第2音声認識回路32は、第2話者12の第2音声を音声認識した結果である第2文字列を第2翻訳回路34と制御回路37とに出力する。
 第1翻訳回路33は、第1音声認識回路31から出力された第1文字列を第2話者12の言語に翻訳して第3文字列を出力する。また、第1翻訳回路33は、第3文字列を第1音声合成回路35と制御回路37とに出力する。
 第2翻訳回路34は、第2音声認識回路32から出力された第2文字列を第1話者11の言語に翻訳して第4文字列を出力する。また、第2翻訳回路34は、第4文字列を第2音声合成回路36と制御回路37とに出力する。
 第1音声合成回路35は、第1翻訳回路33から出力された第3文字列を第1翻訳音声に変換する。また、第1音声合成回路35は、第1翻訳音声を、第1スピーカ22、第1エコーキャンセラ40及び第3エコーキャンセラ60に出力する。
 第2音声合成回路36は、第2翻訳回路34から出力された第4文字列を第2翻訳音声に変換する。また、第2音声合成回路36は、第2翻訳音声を、第2スピーカ24、第2エコーキャンセラ50及び第4エコーキャンセラ70に出力する。
 制御回路37は、第1音声合成回路35が第1翻訳音声を出力している期間に、第1エコーキャンセラ40に、第1エコー信号を推定する第1伝達関数を更新させ、第2音声合成回路36が第2翻訳音声を出力している期間に、第2エコーキャンセラ50に、第2エコー信号を推定する第2伝達関数を更新させる。なお、詳細は後述するが、第1伝達関数は、第1エコーキャンセラ40に含まれる第1伝達関数記憶回路44が、記憶している。同じく、第2伝達関数は、第2エコーキャンセラ50に含まれる第2伝達関数記憶回路54が、記憶している。
 また、制御回路37は、第1音声合成回路35が第1翻訳音声を出力している期間に、第3エコーキャンセラ60に、第3エコー信号を推定する第3伝達関数を更新させ、第2音声合成回路36が第2翻訳音声を出力している期間に、第4エコーキャンセラ70に、第4エコー信号を推定する第4伝達関数を更新させる。なお、詳細は後述するが、第3伝達関数は、第3エコーキャンセラ60に含まれる第3伝達関数記憶回路64が、記憶している。同じく、第4伝達関数は、第4エコーキャンセラ70に含まれる第4伝達関数記憶回路74が、記憶している。
 つまり、制御回路37は、第1音声合成回路35が第1翻訳音声を出力していない期間には、第1エコーキャンセラ40及び第3エコーキャンセラ60に、第1伝達関数及び第3伝達関数を更新させない。また、制御回路37は、第2音声合成回路36が第2翻訳音声を出力していない期間には、第2エコーキャンセラ50及び第4エコーキャンセラ70に、第2伝達関数及び第4伝達関数を更新させない。
 さらに、制御回路37は、第1言語選択回路27から通知された第1言語と第2言語選択回路28から通知された第2言語とに基づいて、第1音声認識回路31に第1言語を音声認識させ、第2音声認識回路32に第2言語を音声認識させ、第1翻訳回路33に第1言語から第2言語に翻訳させ、第2翻訳回路34に第2言語から第1言語に翻訳させ、第1音声合成回路35に第2言語で音声合成させ、第2音声合成回路36に第1言語で音声合成させる。
 映像信号発生回路38は、第1音声認識回路31が出力した第1話者11の音声の認識結果である第1言語の第1文字列、第1翻訳回路33が出力した第1話者11の第1言語の音声を第2言語の文字に変換した第3文字列、第2音声認識回路32が出力した第2話者12の音声の認識結果である第2言語の第2文字列、及び第2翻訳回路34が出力した第2話者12の第2言語の音声を第1言語の文字に変換した第4文字列を制御回路37から入力される。
 さらに、映像信号発生回路38は、第1音声認識回路31が出力した第1話者11の音声の認識結果である第1言語の第1文字列、及び第2翻訳回路34が出力した第2話者12の第2言語の音声を第1言語に変換した第4文字列を第2表示回路26に出力する。また、映像信号発生回路38は、第2音声認識回路32が出力した第2話者12の音声の認識結果である第2言語の第2文字列、及び第1翻訳回路33が出力した第1話者11の第1言語の音声を第2言語に変換した第3文字列を、第1表示回路25に出力する。
 [1-2-1.第1エコーキャンセラ40]
 第1エコーキャンセラ40は、第1スピーカ22から拡声された第1翻訳音声が第2マイク23に入力される現象を第1エコー13としたとき、第1翻訳音声と第1エコー13に対応する第1伝達関数とを用いて、第1エコー13を示す第1エコー信号を推定し、第1エコー信号を、第2マイク23の出力信号から除去する回路である。ここで、第1エコー信号とは、第1エコー13の程度を示す信号である。
 本実施の形態では、第1エコーキャンセラ40は、第2マイク23の出力信号から、第1エコー信号を除去し、除去後の信号を第4エコーキャンセラ70に出力する回路であり、デジタル音声データを時間軸領域で処理するデジタル信号処理回路である。
 より詳しくは、第1エコーキャンセラ40は、第1伝達関数記憶回路44、第1記憶回路42、第1畳み込み演算器43、第1減算器41、及び、第1伝達関数更新回路45を有する。
 第1伝達関数記憶回路44は、第1エコー13に対応する第1伝達関数を記憶する。
 第1記憶回路42は、第1音声合成回路35の出力信号を記憶する。
 第1畳み込み演算器43は、第1記憶回路42に記憶された信号と第1伝達関数記憶回路44に記憶された第1伝達関数とを畳み込むことで第1妨害信号(すなわち第1エコー信号)を生成する。例えば、第1畳み込み演算器43は、以下の式1に示される畳み込み演算を行うNタップのFIR(Finite Impulse Response)フィルタである。
Figure JPOXMLDOC01-appb-M000001
 ここで、y1’tは、時刻tにおける第1妨害信号である。Nは、FIRフィルタのタップ数である。H1(i)tは、時刻tにおいて第1伝達関数記憶回路44に記憶されたN個の第1伝達関数のうちのi番目の第1伝達関数である。x1(t-i)は、第1記憶回路42に記憶された信号のうち、(t-i)番目の信号である。
 第1減算器41は、第2マイク23の出力信号から、第1畳み込み演算器43から出力された第1妨害信号を除去し、第1エコーキャンセラ40の出力信号として出力する。例えば、第1減算器41は、以下の式2に示される減算を行う。
(数2)
e1=y1-y1’・・・(式2)
 ここで、e1tは、時刻tにおける第1減算器41の出力信号である。y1tは、時刻tにおける第2マイク23の出力信号である。
 第1伝達関数更新回路45は、第1減算器41の出力信号と第1記憶回路42に記憶された信号とに基づいて第1伝達関数記憶回路44に記憶された第1伝達関数を更新する。例えば、第1伝達関数更新回路45は、以下の式3に示されるように、独立成分分析を用いて、第1減算器41の出力信号と第1記憶回路42に記憶された信号とに基づいて、第1減算器41の出力信号と第1記憶回路42に記憶された信号とが相互に独立となるように、第1伝達関数記憶回路44に記憶された第1伝達関数を更新する。
(数3)
H1(j)t+1=H1(j)+α1×φ1(e1)×x1(t-j)・・・(式3)
 ここで、H1(j)t+1は、時刻t+1における(つまり、更新後の)第1伝達関数記憶回路44に記憶されるN個の第1伝達関数のうちのj番目の第1伝達関数である。H1(j)tは、時刻t(つまり、更新前の)第1伝達関数記憶回路44に記憶されたN個の第1伝達関数のうちのj番目の第1伝達関数である。α1は、第1エコー13の第1伝達関数の推定における学習速度を制御するためのステップサイズパラメータである。φ1は、非線形関数(例えば、シグモイド関数(sigmoid関数)、双曲線正接関数(tanh関数)、正規化線形関数又は符号関数(sign関数))である。
 このように、第1伝達関数更新回路45は、第1減算器41の出力信号に対して非線形関数を用いた非線形処理を施し、得られた結果に対して第1記憶回路42に記憶された信号と、第1エコー13の第1伝達関数の推定における学習速度を制御するための第1ステップサイズパラメータとを乗じることで第1更新係数を算出する。そして、算出した第1更新係数を第1伝達関数記憶回路44に記憶された第1伝達関数に加算することで更新を行う。
 また、制御回路37は、第1音声合成回路35が第1翻訳音声を出力している期間に、第1エコーキャンセラ40に、第1エコー信号を推定する第1伝達関数を更新させる。つまり第1エコー13が存在する期間に、上記式3に示される第1伝達関数の更新式に基づいて第1伝達関数が更新される。
 [1-2-2.第2エコーキャンセラ50]
 第2エコーキャンセラ50は、第2スピーカ24から拡声された第2翻訳音声が第1マイク21に入力される現象を第2エコー14としたとき、第2翻訳音声と第2エコー14に対応する第2伝達関数とを用いて、第2エコー14を示す第2エコー信号を推定し、第2エコー信号を、第1マイク21の出力信号から除去する回路である。ここで、第2エコー信号とは、第2エコー14の程度を示す信号である。
 本実施の形態では、第2エコーキャンセラ50は、第1マイク21の出力信号から、第2エコー信号を除去し、除去後の信号を第3エコーキャンセラ60に出力する回路であり、デジタル音声データを時間軸領域で処理するデジタル信号処理回路である。
 より詳しくは、第2エコーキャンセラ50は、第2伝達関数記憶回路54、第2記憶回路52、第2畳み込み演算器53、第2減算器51、及び、第2伝達関数更新回路55を有する。
 第2伝達関数記憶回路54は、第2エコー14に対応する第2伝達関数を記憶する。
 第2記憶回路52は、第2音声合成回路36の出力信号を記憶する。
 第2畳み込み演算器53は、第2記憶回路52に記憶された信号と第2伝達関数記憶回路54に記憶された第2伝達関数とを畳み込むことで第2妨害信号(すなわち第2エコー信号)を生成する。例えば、第2畳み込み演算器53は、以下の式4に示される畳み込み演算を行うNタップのFIRフィルタである。
Figure JPOXMLDOC01-appb-M000002
 ここで、y2’tは、時刻tにおける第2妨害信号である。Nは、FIRフィルタのタップ数である。H2(i)tは、時刻tにおいて第2伝達関数記憶回路54に記憶されたN個の第2伝達関数のうちのi番目の第2伝達関数である。x2(t-i)は、第2記憶回路52に記憶された信号のうち、(t-i)番目の信号である。
 第2減算器51は、第1マイク21の出力信号から、第2畳み込み演算器53から出力された第2妨害信号を除去し、第2エコーキャンセラ50の出力信号として出力する。例えば、第2減算器51は、以下の式5に示される減算を行う。
(数5)
e2=y2-y2’・・・(式5)
 ここで、e2tは、時刻tにおける第2減算器51の出力信号である。y2tは、時刻tにおける第1マイク21の出力信号である。
 第2伝達関数更新回路55は、第2減算器51の出力信号と第2記憶回路52に記憶された信号とに基づいて第2伝達関数記憶回路54に記憶された第2伝達関数を更新する。例えば、第2伝達関数更新回路55は、以下の式6に示されるように、独立成分分析を用いて、第2減算器51の出力信号と第2記憶回路52に記憶された信号とに基づいて、第2減算器51の出力信号と第2記憶回路52に記憶された信号とが相互に独立となるように、第2伝達関数記憶回路54に記憶された第2伝達関数を更新する。
(数6)
H2(j)t+1=H2(j)+α2×φ2(e2)×x2(t-j)・・・(式6)
 ここで、H2(j)t+1は、時刻t+1における(つまり、更新後の)第2伝達関数記憶回路54に記憶されるN個の第2伝達関数のうちのj番目の第2伝達関数である。H2(j)tは、時刻t(つまり、更新前の)第2伝達関数記憶回路54に記憶されたN個の第2伝達関数のうちのj番目の第2伝達関数である。α2は、第2エコー14の第2伝達関数の推定における学習速度を制御するためのステップサイズパラメータである。φ2は、非線形関数(例えば、シグモイド関数(sigmoid関数)、双曲線正接関数(tanh関数)、正規化線形関数又は符号関数(sign関数))である。
 このように、第2伝達関数更新回路55は、第2減算器51の出力信号に対して非線形関数を用いた非線形処理を施し、得られた結果に対して第2記憶回路52に記憶された信号と、第2エコー14の第2伝達関数の推定における学習速度を制御するための第2ステップサイズパラメータとを乗じることで第2更新係数を算出する。そして、算出した第2更新係数を第2伝達関数記憶回路54に記憶された第2伝達関数に加算することで更新を行う。
 また、制御回路37は、第2音声合成回路36が第2翻訳音声を出力している期間に、第2エコーキャンセラ50に、第2エコー信号を推定する第2伝達関数を更新させる。つまり第2エコー14が存在する期間に、上記式6に示される第2伝達関数の更新式に基づいて第2伝達関数が更新される。
 [1-2-3.第3エコーキャンセラ60]
 第3エコーキャンセラ60は、第1スピーカ22から出力された第1翻訳音声が第1マイク21に入力される現象を第3エコー15としたとき、第1翻訳音声と第3エコー15に対応する第3伝達関数とを用いて、第3エコー15を示す第3エコー信号を推定し、第3エコー信号を、第1マイク21の出力信号から除去する回路である。ここで、第3エコー信号とは、第3エコー15の程度を示す信号である。
 本実施の形態では、第3エコーキャンセラ60は、第2エコーキャンセラ50の出力信号から、第3エコー信号を除去し、除去後の信号を第2クロストークキャンセラ90に出力する回路であり、デジタル音声データを時間軸領域で処理するデジタル信号処理回路である。
 より詳しくは、第3エコーキャンセラ60は、第3伝達関数記憶回路64、第3記憶回路62、第3畳み込み演算器63、第3減算器61、及び、第3伝達関数更新回路65を有する。
 第3伝達関数記憶回路64は、第3エコー15に対応する第3伝達関数を記憶する。
 第3記憶回路62は、第1音声合成回路35の出力信号を記憶する。
 第3畳み込み演算器63は、第3記憶回路62に記憶された信号と第3伝達関数記憶回路64に記憶された第3伝達関数とを畳み込むことで第3妨害信号(すなわち第3エコー信号)を生成する。例えば、第3畳み込み演算器63は、以下の式7に示される畳み込み演算を行うNタップのFIRフィルタである。
Figure JPOXMLDOC01-appb-M000003
 ここで、y3’tは、時刻tにおける第3妨害信号である。Nは、FIRフィルタのタップ数である。H3(i)tは、時刻tにおいて第3伝達関数記憶回路64に記憶されたN個の第3伝達関数のうちのi番目の第3伝達関数である。x3(t-i)は、第3記憶回路62に記憶された信号のうち、(t-i)番目の信号である。
 第3減算器61は、第2エコーキャンセラ50の出力信号から、第3畳み込み演算器63から出力された第3妨害信号を除去し、第3エコーキャンセラ60の出力信号として出力する。例えば、第3減算器61は、以下の式8に示される減算を行う。
(数8)
e3=y3-y3’・・・(式8)
 ここで、e3tは、時刻tにおける第3減算器61の出力信号である。y3tは、時刻tにおける第2エコーキャンセラ50の出力信号である。
 第3伝達関数更新回路65は、第3減算器61の出力信号と第3記憶回路62に記憶された信号とに基づいて第3伝達関数記憶回路64に記憶された第3伝達関数を更新する。例えば、第3伝達関数更新回路65は、以下の式9に示されるように、独立成分分析を用いて、第3減算器61の出力信号と第3記憶回路62に記憶された信号とに基づいて、第3減算器61の出力信号と第3記憶回路62に記憶された信号とが相互に独立となるように、第3伝達関数記憶回路64に記憶された第3伝達関数を更新する。
(数9)
H3(j)t+1=H3(j)+α3×φ3(e3)×x3(t-j)・・・(式9)
 ここで、H3(j)t+1は、時刻t+1における(つまり、更新後の)第3伝達関数記憶回路64に記憶されるN個の第3伝達関数のうちのj番目の第3伝達関数である。H3(j)tは、時刻t(つまり、更新前の)第3伝達関数記憶回路64に記憶されたN個の第3伝達関数のうちのj番目の第3伝達関数である。α3は、第3エコー15の第3伝達関数の推定における学習速度を制御するためのステップサイズパラメータである。φ3は、非線形関数(例えば、シグモイド関数(sigmoid関数)、双曲線正接関数(tanh関数)、正規化線形関数又は符号関数(sign関数))である。
 このように、第3伝達関数更新回路65は、第3減算器61の出力信号に対して非線形関数を用いた非線形処理を施し、得られた結果に対して第3記憶回路62に記憶された信号と、第3エコー15の第3伝達関数の推定における学習速度を制御するための第3ステップサイズパラメータとを乗じることで第3更新係数を算出する。そして、算出した第3更新係数を第3伝達関数記憶回路64に記憶された第3伝達関数に加算することで更新を行う。
 また、制御回路37は、第1音声合成回路35が第1翻訳音声を出力している期間に、第3エコーキャンセラ60に、第3エコー信号を推定する第3伝達関数を更新させる。つまり第3エコー15が存在する期間に、上記式9に示される第3伝達関数の更新式に基づいて第3伝達関数が更新される。
 [1-2-4.第4エコーキャンセラ70]
 第4エコーキャンセラ70は、第2スピーカ24から拡声された第2翻訳音声が第2マイク23に入力される現象を第4エコー16としたとき、第2翻訳音声と第4エコー16に対応する第4伝達関数とを用いて、第4エコー16を示す第4エコー信号を推定し、第4エコー信号を、第2マイク23の出力信号から除去する回路である。ここで、第4エコー信号とは、第4エコー16の程度を示す信号である。
 本実施の形態では、第4エコーキャンセラ70は、第1エコーキャンセラ40の出力信号から、第4エコー信号を除去し、除去後の信号を第1クロストークキャンセラ80に出力する回路であり、デジタル音声データを時間軸領域で処理するデジタル信号処理回路である。
 より詳しくは、第4エコーキャンセラ70は、第4伝達関数記憶回路74、第4記憶回路72、第4畳み込み演算器73、第4減算器71、及び、第4伝達関数更新回路75を有する。
 第4伝達関数記憶回路74は、第4エコー16に対応する第4伝達関数を記憶する。
 第4記憶回路72は、第2音声合成回路36の出力信号を記憶する。
 第4畳み込み演算器73は、第4記憶回路72に記憶された信号と第4伝達関数記憶回路74に記憶された第4伝達関数とを畳み込むことで第4妨害信号(すなわち第4エコー信号)を生成する。例えば、第4畳み込み演算器73は、以下の式10に示される畳み込み演算を行うNタップのFIRフィルタである。
Figure JPOXMLDOC01-appb-M000004
 ここで、y4’tは、時刻tにおける第4妨害信号である。Nは、FIRフィルタのタップ数である。H4(i)tは、時刻tにおいて第4伝達関数記憶回路74に記憶されたN個の第4伝達関数のうちのi番目の第4伝達関数である。x4(t-i)は、第4記憶回路72に記憶された信号のうち、(t-i)番目の信号である。
 第4減算器71は、第1エコーキャンセラ40の出力信号から、第4畳み込み演算器73から出力された第4妨害信号を除去し、第4エコーキャンセラ70の出力信号として出力する。例えば、第4減算器71は、以下の式11に示される減算を行う。
(数11)
e4=y4-y4’・・・(式11)
 ここで、e4tは、時刻tにおける第4減算器71の出力信号である。y4tは、時刻tにおける第1エコーキャンセラ40の出力信号である。
 第4伝達関数更新回路75は、第4減算器71の出力信号と第4記憶回路72に記憶された信号とに基づいて第4伝達関数記憶回路74に記憶された第4伝達関数を更新する。例えば、第4伝達関数更新回路75は、以下の式12に示されるように、独立成分分析を用いて、第4減算器71の出力信号と第4記憶回路72に記憶された信号とに基づいて、第4減算器71の出力信号と第4記憶回路72に記憶された信号とが相互に独立となるように、第4伝達関数記憶回路74に記憶された第4伝達関数を更新する。
(数12)
H4(j)t+1=H4(j)+α4×φ4(e4)×x4(t-j)・・・(式12)
 ここで、H4(j)t+1は、時刻t+1における(つまり、更新後の)第4伝達関数記憶回路74に記憶されるN個の第4伝達関数のうちのj番目の第4伝達関数である。H4(j)tは、時刻t(つまり、更新前の)第4伝達関数記憶回路74に記憶されたN個の第4伝達関数のうちのj番目の第4伝達関数である。α4は、第4エコー16の第4伝達関数の推定における学習速度を制御するためのステップサイズパラメータである。φ4は、非線形関数(例えば、シグモイド関数(sigmoid関数)、双曲線正接関数(tanh関数)、正規化線形関数又は符号関数(sign関数))である。
 このように、第4伝達関数更新回路75は、第4減算器71の出力信号に対して非線形関数を用いた非線形処理を施し、得られた結果に対して第4記憶回路72に記憶された信号と、第4エコー16の第4伝達関数の推定における学習速度を制御するための第4ステップサイズパラメータとを乗じることで第4更新係数を算出する。そして、算出した第4更新係数を第4伝達関数記憶回路74に記憶された第4伝達関数に加算することで更新を行う。
 また、制御回路37は、第2音声合成回路36が第2翻訳音声を出力している期間に、第4エコーキャンセラ70に、第4エコー信号を推定する第4伝達関数を更新させる。つまり第4エコー16が存在する期間に、上記式12に示される第4伝達関数の更新式に基づいて第4伝達関数が更新される。
 [1-2-5.第1クロストークキャンセラ80]
 第1クロストークキャンセラ80は、第1音声が第2マイク23に入力される現象を第1クロストーク17としたとき、第1音声を用いて、第1クロストーク17を示す第1クロストーク信号を推定し、第1クロストーク信号を、第2マイク23の出力信号から除去する回路である。すなわち、第1音声に基づいた第2クロストークキャンセラ90の出力信号を用いて、第1クロストーク17の程度を示す第5妨害信号(すなわち第1クロストーク信号)を推定し、第5妨害信号を、第2マイク23の出力信号に基づく第4エコーキャンセラ70の出力信号から除去する回路である。
 本実施の形態では、第1クロストークキャンセラ80は、第5妨害信号が除去された信号を第2音声認識回路32に出力する回路であり、デジタル音声データを時間軸領域で処理するデジタル信号処理回路である。ここで、第2クロストークキャンセラ90の出力信号は、図2に示すように、第1音声認識回路31への入力信号である。
 より詳しくは、第1クロストークキャンセラ80は、第5伝達関数記憶回路84、第5記憶回路82、第5畳み込み演算器83、第5減算器81、及び、第5伝達関数更新回路85を有する。
 第5伝達関数記憶回路84は、第1クロストーク17の伝達関数として推定された第5伝達関数を記憶する。
 第5記憶回路82は、第2クロストークキャンセラ90の出力信号を記憶する。
 第5畳み込み演算器83は、第5記憶回路82に記憶された信号と第5伝達関数記憶回路84に記憶された第5伝達関数とを畳み込むことで第5妨害信号を生成する。例えば、第5畳み込み演算器83は、以下の式13に示される畳み込み演算を行うNタップのFIRフィルタである。
Figure JPOXMLDOC01-appb-M000005
 ここで、y5’tは、時刻tにおける第5妨害信号である。Nは、FIRフィルタのタップ数である。H5(i)tは、時刻tにおいて第5伝達関数記憶回路84に記憶されたN個の第5伝達関数のうちのi番目の第5伝達関数である。x5(t-i)は、第5記憶回路82に記憶された信号のうち、(t-i)番目の信号である。
 第5減算器81は、第4エコーキャンセラ70の出力信号から、第5畳み込み演算器83から出力された第5妨害信号を除去し、第1クロストークキャンセラ80の出力信号として出力する。例えば、第5減算器81は、以下の式14に示される減算を行う。
(数14)
e5=y5-y5’・・・(式14)
 ここで、e5tは、時刻tにおける第5減算器81の出力信号である。y5tは、時刻tにおける第4エコーキャンセラ70の出力信号である。
 第5伝達関数更新回路85は、第5減算器81の出力信号と第5記憶回路82に記憶された信号とに基づいて第5伝達関数記憶回路84に記憶された第5伝達関数を更新する。例えば、第5伝達関数更新回路85は、以下の式15に示されるように、独立成分分析を用いて、第5減算器81の出力信号と第5記憶回路82に記憶された信号とに基づいて、第5減算器81の出力信号と第5記憶回路82に記憶された信号とが相互に独立となるように、第5伝達関数記憶回路84に記憶された第5伝達関数を更新する。
(数15)
H5(j)t+1=H5(j)+α5×φ5(e5)×x5(t-j)・・・(式15)
 ここで、H5(j)t+1は、時刻t+1における(つまり、更新後の)第5伝達関数記憶回路84に記憶されるN個の第5伝達関数のうちのj番目の第5伝達関数である。H5(j)tは、時刻t(つまり、更新前の)第5伝達関数記憶回路84に記憶されたN個の第5伝達関数のうちのj番目の第5伝達関数である。α5は、第1クロストーク17の第5伝達関数の推定における学習速度を制御するためのステップサイズパラメータである。φ5は、非線形関数(例えば、シグモイド関数(sigmoid関数)、双曲線正接関数(tanh関数)、正規化線形関数又は符号関数(sign関数))である。
 このように、第5伝達関数更新回路85は、第5減算器81の出力信号に対して非線形関数を用いた非線形処理を施し、得られた結果に対して第5記憶回路82に記憶された信号と、第1クロストーク17の第5伝達関数の推定における学習速度を制御するための第5ステップサイズパラメータとを乗じることで第5更新係数を算出する。そして、算出した第5更新係数を第5伝達関数記憶回路84に記憶された第5伝達関数に加算することで更新を行う。
 なお、本実施の形態における翻訳装置20では、第1話者11の同一時刻における音声について、第2クロストークキャンセラ90の出力信号が第1クロストークキャンセラ80に入力される時刻は、第1話者11の音声が第2マイク23に入力される時刻と同一、又は、より早くなるように、設計されている。つまり、第1クロストークキャンセラ80が第1クロストーク17をキャンセルできるように、因果律が保持されている。これは、第2クロストークキャンセラ90の出力信号が第1クロストークキャンセラ80に入力される時刻を決定づける要因(A/D変換の速度、第2エコーキャンセラ50での処理速度、第3エコーキャンセラ60での処理速度、第2クロストークキャンセラ90での処理速度等)と、第1話者11の音声が第2マイク23に入力される時刻を決定づける要因(第1話者11と第2マイク23との位置関係等)とを考慮することで適宜、実現し得る。
 [1-2-6.第2クロストークキャンセラ90]
 第2クロストークキャンセラ90は、第2音声が第1マイク21に入力される現象を第2クロストーク18としたとき、第2音声を用いて、第2クロストーク18を示す第2クロストーク信号を推定し、第2クロストーク信号を、第1マイク21の出力信号から除去する回路である。すなわち、第2音声に基づいた第1クロストークキャンセラ80の出力信号を用いて、第2クロストーク18の程度を示す第6妨害信号(すなわち第2クロストーク信号)を推定し、第6妨害信号を、第1マイク21の出力信号に基づく第3エコーキャンセラ60の出力信号から除去する回路である。
 本実施の形態では、第2クロストークキャンセラ90は、第6妨害信号が除去された信号を第1音声認識回路31に出力する回路であり、デジタル音声データを時間軸領域で処理するデジタル信号処理回路である。ここで、第1クロストークキャンセラ80の出力信号は、図2に示すように、第2音声認識回路32への入力信号である。
 より詳しくは、第2クロストークキャンセラ90は、第6伝達関数記憶回路94、第6記憶回路92、第6畳み込み演算器93、第6減算器91、及び、第6伝達関数更新回路95を有する。
 第6伝達関数記憶回路94は、第2クロストーク18の伝達関数として推定された第6伝達関数を記憶する。
 第6記憶回路92は、第1クロストークキャンセラ80の出力信号を記憶する。
 第6畳み込み演算器93は、第6記憶回路92に記憶された信号と第6伝達関数記憶回路94に記憶された第6伝達関数とを畳み込むことで第6妨害信号を生成する。例えば、第6畳み込み演算器93は、以下の式16に示される畳み込み演算を行うNタップのFIRフィルタである。
Figure JPOXMLDOC01-appb-M000006
 ここで、y6’tは、時刻tにおける第6妨害信号である。Nは、FIRフィルタのタップ数である。H6(i)tは、時刻tにおいて第6伝達関数記憶回路94に記憶されたN個の第6伝達関数のうちのi番目の第6伝達関数である。x6(t-i)は、第6記憶回路92に記憶された信号のうち、(t-i)番目の信号である。
 第6減算器91は、第3エコーキャンセラ60の出力信号から、第6畳み込み演算器93から出力された第6妨害信号を除去し、第2クロストークキャンセラ90の出力信号として出力する。例えば、第6減算器91は、以下の式17に示される減算を行う。
(数17)
e6=y6-y6’・・・(式17)
 ここで、e6tは、時刻tにおける第6減算器91の出力信号である。y6tは、時刻tにおける第3エコーキャンセラ60の出力信号である。
 第6伝達関数更新回路95は、第6減算器91の出力信号と第6記憶回路92に記憶された信号とに基づいて第6伝達関数記憶回路94に記憶された第6伝達関数を更新する。例えば、第6伝達関数更新回路95は、以下の式18に示されるように、独立成分分析を用いて、第6減算器91の出力信号と第6記憶回路92に記憶された信号とに基づいて、第6減算器91の出力信号と第6記憶回路92に記憶された信号とが相互に独立となるように、第6伝達関数記憶回路94に記憶された第6伝達関数を更新する。
(数18)
H6(j)t+1=H6(j)+α6×φ6(e6)×x6(t-j)・・・(式18)
 ここで、H6(j)t+1は、時刻t+1における(つまり、更新後の)第6伝達関数記憶回路94に記憶されるN個の第6伝達関数のうちのj番目の第6伝達関数である。H6(j)tは、時刻t(つまり、更新前の)第6伝達関数記憶回路94に記憶されたN個の第6伝達関数のうちのj番目の第6伝達関数である。α6は、第2クロストーク18の第6伝達関数の推定における学習速度を制御するためのステップサイズパラメータである。φ6は、非線形関数(例えば、シグモイド関数(sigmoid関数)、双曲線正接関数(tanh関数)、正規化線形関数又は符号関数(sign関数))である。
 このように、第6伝達関数更新回路95は、第6減算器91の出力信号に対して非線形関数を用いた非線形処理を施し、得られた結果に対して第6記憶回路92に記憶された信号と、第2クロストーク18の第6伝達関数の推定における学習速度を制御するための第6ステップサイズパラメータとを乗じることで第6更新係数を算出する。そして、算出した第6更新係数を第6伝達関数記憶回路94に記憶された第6伝達関数に加算することで更新を行う。
 なお、本実施の形態における翻訳装置20では、第2話者12の同一時刻における音声について、第1クロストークキャンセラ80の出力信号が第2クロストークキャンセラ90に入力される時刻は、第2話者12の音声が第1マイク21に入力される時刻と同一、又は、より早くなるように、設計されている。つまり、第2クロストークキャンセラ90が第2クロストーク18をキャンセルできるように、因果律が保持されている。これは、第1クロストークキャンセラ80の出力信号が第2クロストークキャンセラ90に入力される時刻を決定づける要因(A/D変換の速度、第1エコーキャンセラ40での処理速度、第4エコーキャンセラ70での処理速度、第1クロストークキャンセラ80での処理速度等)と、第2話者12の音声が第1マイク21に入力される時刻を決定づける要因(第2話者12と第1マイク21との位置関係等)とを考慮することで適宜、実現し得る。
 [1-3.動作]
 以上のように構成された本実施の形態における翻訳装置20は、次のように動作する。
 予め、第1言語選択回路27及び第2言語選択回路28は、第1話者11から第1話者11が用いる第1言語の選択及び第2話者12から第2話者12が用いる第2言語の選択を受け付け、制御回路37に通知する。
 第1話者11の音声は、第1マイク21に入力される。また、第1話者11の音声以外に、第2エコー14、第3エコー15及び第2クロストーク18が、第1マイク21に入力される。第1マイク21の出力信号は、第2エコーキャンセラ50において、第2妨害信号(すなわち第2エコー信号)が除去される。第2妨害信号は、第2エコー14の程度を示す(推定された)信号である。よって、第2エコーキャンセラ50の出力信号は、第1マイク21に入力された音声から、第2エコー14の影響が除去された音声を示す信号となる。
 続いて、第2エコーキャンセラ50の出力信号は、第3エコーキャンセラ60において、第3妨害信号(すなわち第3エコー信号)が除去される。第3妨害信号は、第3エコー15の程度を示す(推定された)信号である。よって、第3エコーキャンセラ60の出力信号は、第2エコーキャンセラ50の出力信号から、第3エコー15の影響が除去された信号となる。
 続いて、第3エコーキャンセラ60の出力信号は、第2クロストークキャンセラ90において、第6妨害信号(すなわち第2クロストーク信号)が除去される。第6妨害信号は、第2クロストーク18の程度を示す(推定された)信号である。よって、第2クロストークキャンセラ90の出力信号は、第3エコーキャンセラ60の出力信号から、第2クロストーク18の影響が除去された信号となり、第1音声認識回路31及び第1クロストークキャンセラ80に出力される。
 続いて、第1音声認識回路31は、第1話者11の音声から、第2エコーキャンセラ50により第2エコー14が除去され、第3エコーキャンセラ60により第3エコー15が除去され、第2クロストークキャンセラ90により第2クロストーク18が除去されたデジタル音声データを入力される。第1音声認識回路31は、入力されたデジタル音声データに対し、制御回路37から指示された第1話者11の第1言語の情報に基づいて、音声認識を行った結果である第1文字列を第1翻訳回路33及び制御回路37に出力する。
 続いて、第1翻訳回路33は、第1音声認識回路31が出力した第1文字列を、制御回路37から指示された第1話者11の第1言語から第2話者12の第2言語の第3文字列に変換し、変換した第3文字列を第1音声合成回路35及び制御回路37に出力する。
 続いて、第1音声合成回路35は、第1翻訳回路33が出力した第2言語の第3文字列を、制御回路37から指示された第2言語の情報に基づいて、第2言語の出力信号に変換し、第2言語の出力信号を第1スピーカ22、第1エコーキャンセラ40、及び第3エコーキャンセラ60に出力し、第2言語の出力信号出力期間の情報を制御回路37に出力する。
 第1音声合成回路35が出力した第2言語の出力信号が第1スピーカ22に入力され、第1翻訳音声となって出力される。
 同様に、第2話者12の音声は、第2マイク23に入力される。また、第2話者12の音声以外に、第1エコー13、第4エコー16及び第1クロストーク17が、第2マイク23に入力される。第2マイク23の出力信号は、第1エコーキャンセラ40において、第1妨害信号(すなわち第1エコー信号)が除去される。第1妨害信号は、第1エコー13の程度を示す(推定された)信号である。よって、第1エコーキャンセラ40の出力信号は、第2マイク23に入力された音声から、第1エコー13の影響が除去された音声を示す信号となる。
 続いて、第1エコーキャンセラ40の出力信号は、第4エコーキャンセラ70において、第4妨害信号(すなわち第4エコー信号)が除去される。第4妨害信号は、第4エコー16の程度を示す(推定された)信号である。よって、第4エコーキャンセラ70の出力信号は、第1エコーキャンセラ40の出力信号から、第4エコー16の影響が除去された信号となる。
 続いて、第4エコーキャンセラ70の出力信号は、第1クロストークキャンセラ80において、第5妨害信号(すなわち第1クロストーク信号)が除去される。第5妨害信号は、第1クロストーク17の程度を示す(推定された)信号である。よって、第1クロストークキャンセラ80の出力信号は、第4エコーキャンセラ70の出力信号から、第1クロストーク17の影響が除去された信号となり、第2音声認識回路32及び第2クロストークキャンセラ90に出力される。
 続いて、第2音声認識回路32は、第2話者12の音声から、第1エコーキャンセラ40により第1エコー13が除去され、第4エコーキャンセラ70により第4エコー16が除去され、第1クロストークキャンセラ80により第1クロストーク17が除去されたデジタル音声データを入力される。第2音声認識回路32は、入力されたデジタル音声データに対し、制御回路37から指示された第2話者12の第2言語の情報に基づいて、音声認識を行った結果である第2文字列を第2翻訳回路34及び制御回路37に出力する。
 続いて、第2翻訳回路34は、第2音声認識回路32が出力した第2文字列を、制御回路37から指示された第2話者12の第2言語から第1話者11の第1言語の第4文字列に変換し、変換した第4文字列を第2音声合成回路36及び制御回路37に出力する。
 続いて、第2音声合成回路36は、第2翻訳回路34が出力した第1言語の第4文字列を、制御回路37から指示された第1言語の情報に基づいて、第1言語の出力信号に変換し、第1言語の出力信号を第2スピーカ24、第2エコーキャンセラ50、及び第4エコーキャンセラ70に出力し、第1言語の出力信号出力期間の情報を制御回路37に出力する。
 第2音声合成回路36が出力した第1言語の出力信号が第2スピーカ24に入力され、第2翻訳音声となって出力される。
 制御回路37は、第1音声認識回路31が出力した第1話者11の音声の認識結果である第1言語の第1文字列、第1翻訳回路33が出力した第1話者11の第1言語の音声を第2言語に変換した第3文字列、第2音声認識回路32が出力した第2話者12の音声の認識結果である第2言語の第2文字列、及び第2翻訳回路34が出力した第2話者12の第2言語の音声を第1言語に変換した第4文字列を映像信号発生回路38に出力する。
 また制御回路37は、第1音声合成回路35が出力した第1翻訳音声出力期間の情報を第1エコーキャンセラ40及び第3エコーキャンセラ60に出力して、その期間に第1エコーキャンセラ40及び第3エコーキャンセラ60に伝達関数を更新させる。ここで、第1翻訳音声出力期間の情報とは、第1音声合成回路35が第1翻訳音声を出力している期間を表す情報である。
 さらに制御回路37は、第2音声合成回路36が出力した第2翻訳音声出力期間の情報を第2エコーキャンセラ50及び第4エコーキャンセラ70に出力して、その期間に第2エコーキャンセラ50及び第4エコーキャンセラ70に伝達関数を更新させる。ここで、第2翻訳音声出力期間の情報とは、第2音声合成回路36が第2翻訳音声を出力している期間を表す情報である。
 映像信号発生回路38は、第1音声認識回路31が出力した第1話者11の音声の認識結果である第1言語の第1文字列、及び第2翻訳回路34が出力した第2話者12の第2言語の音声を第1言語に変換した第4文字列を第2表示回路26に出力する。さらに、映像信号発生回路38は、第2音声認識回路32が出力した第2話者12の音声の認識結果である第2言語の第2文字列、及び第1翻訳回路33が出力した第1話者11の第1言語の音声を第2言語に変換した第3文字列を第1表示回路25に出力する。
 翻訳装置20では、第1話者11の音声及び第2話者12の音声は以上のように、処理される。
 以上により、第1音声認識回路31に入力される出力信号は、第1マイク21に入力された音声のうち、第2エコー14、第3エコー15、及び第2クロストーク18の影響が除去された出力信号、つまり、音響的雑音が除去された第1話者11の音声のみとなる。さらには、第1スピーカ22から出力される第1翻訳音声は、第1マイク21に入力された音声のうち、第2エコー14、第3エコー15、及び第2クロストーク18の影響が除去された出力信号、つまり、音響的雑音が除去された第1話者11の音声のみとなる。
 また、第2音声認識回路32に入力される出力信号は、第2マイク23に入力された音声のうち、第1エコー13、第4エコー16、及び第1クロストーク17の影響が除去された出力信号、つまり、音響的雑音が除去された第2話者12の音声のみとなる。さらには、第2スピーカ24から出力される第2翻訳音声は、第2マイク23に入力された音声のうち、第1エコー13、第4エコー16、及び第1クロストーク17の影響が除去された出力信号、つまり、音響的雑音が除去された第2話者12の音声のみとなる。
 なお、音響的雑音が除去される程度は、第1エコーキャンセラ40、第2エコーキャンセラ50、第3エコーキャンセラ60、第4エコーキャンセラ70及び、第1クロストークキャンセラ80、第2クロストークキャンセラ90に保持された伝達関数の精度、上記式3、式6、式9、式12、式15、及び式18に示される伝達関数の更新式におけるパラメータ等に依存するのは言うまでもない。
 また、制御回路37は、一定条件のもとにおいて、第1エコーキャンセラ40、第2エコーキャンセラ50、第3エコーキャンセラ60及び第4エコーキャンセラ70に、各々のキャンセラの伝達関数を更新させる。この更新のフローチャートについて記述する。
 図3は、第1エコーキャンセラ40及び第3エコーキャンセラ60の伝達関数の更新についてのフローチャートである。
 上述のように、制御回路37は、第1音声合成回路35が出力した第1翻訳音声出力期間の情報を第1エコーキャンセラ40、及び第3エコーキャンセラ60に出力する。制御回路37は、第1音声合成回路35が第1翻訳音声を出力中か否か判断する(ステップS100)。
 次に、ステップS100でYESの場合、制御回路37は、第1エコーキャンセラ40と、第3エコーキャンセラ60とに、各々のキャンセラの伝達関数を更新させる(ステップS101)。
 また、ステップS100でNOの場合、制御回路37は、処理を終了する。
 上記により、制御回路37は、第1エコー13、及び第3エコー15が存在する期間に、上記式3、及び式9に示される伝達関数の更新式に基づいて伝達関数を更新させる。
 図4は、第2エコーキャンセラ50及び第4エコーキャンセラ70の伝達関数の更新についてのフローチャートである。
 上述のように、制御回路37は、第2音声合成回路36が出力した第2翻訳音声出力期間の情報を第2エコーキャンセラ50、及び第4エコーキャンセラ70に出力する。制御回路37は、第2音声合成回路36が第2翻訳音声を出力中か否か判断する(ステップS200)。
 次に、ステップS200でYESの場合、制御回路37は、第2エコーキャンセラ50と第4エコーキャンセラ70とに、各々のキャンセラの伝達関数を更新させる(ステップS201)。
 また、ステップS200でNOの場合、制御回路37は、処理を終了する。
 上記により、制御回路37は、第2エコー14、及び第4エコー16が存在する期間に、上記式6、及び式12に示される伝達関数の更新式に基づいて伝達関数を更新させる。
 なお、図1で示す実施の形態1においては、第1マイク21と第2スピーカ24との距離が近く、かつ、第2マイク23と第1スピーカ22との距離が近い状態で会話が行われている。そのため、第1エコー13と第2エコー14との影響が大きい。その結果、第1エコーキャンセラ40と第2エコーキャンセラ50との重要性は高く、必須の構成となる。
 一方で、第1マイク21と第2スピーカ24との距離が遠く、かつ、第2マイク23と第1スピーカ22との距離が遠くなると、第1エコー13と第2エコー14との影響が小さくなる。そのため、第1エコーキャンセラ40と第2エコーキャンセラ50との重要性は低く、必須の構成ではないこともある。その場合は、図2で示した実施の形態1と比べ、第1エコーキャンセラ40と第2エコーキャンセラ50とを備えない構成としてもよい。すなわち、第1マイク21の出力信号は、第2エコーキャンセラ50を介さずに、第3エコーキャンセラ60に入力され、第2マイク23の出力信号は、第1エコーキャンセラ40を介さずに、第4エコーキャンセラ70に入力される。
 なお、図1で示した実施の形態1に加え、図示はしないが、翻訳装置20は、さらに、第1音声性別判定回路と、第2音声性別判定回路とを備えていてもよい。
 第1音声性別判定回路は、第1音声に基づいて、第1話者11の性別判定を行う。
 第2音声性別判定回路は、第2音声に基づいて、第2話者12の性別判定を行う。
 さらに、この場合、制御回路37は、第1音声合成回路35に第1音声性別判定回路の判定結果と同じ性別の合成音声を出力させてもよく、第2音声合成回路36に第2音声性別判定回路の判定結果と同じ性別の合成音声を出力させてもよい。
 なお、図1で示したように、実施の形態1では、翻訳装置20は、第1カメラ291と、第2カメラ292とを備えている。また、図示はしないが、翻訳装置20は、さらに、第1顔認識回路と、第2顔認識回路と、話者と前記話者が用いる言語との対を記憶しているデータベースと、を備えていてもよい。
 第1カメラ291は、第1話者の顔を撮影する。第1カメラ291は、第1映像信号を第1顔認識回路へ出力する。
 第2カメラ292は、第2話者の顔を撮影する。第2カメラ292は、第1映像信号を第2顔認識回路へ出力する。
 第1顔認識回路は、第1カメラから出力された第1映像信号に基づいて、第1話者11を特定する。
 第2顔認識回路は、第2カメラから出力された第2映像信号に基づいて、第2話者12を特定する。
 データベースは、話者と話者が用いる言語との対を記憶している。
 さらに、この場合、制御回路37は、第1顔認識回路が特定した第1話者11の言語がデータベースに登録されている場合には、第1音声認識回路と第1音声認識回路31と第1翻訳回路33と第2翻訳回路34と第1音声合成回路35とに、第1話者11の第1言語を通知してもよく、第2顔認識回路が特定した第2話者12の言語がデータベースに登録されている場合には、第2音声認識回路と第2音声認識回路32と第1翻訳回路33と第2翻訳回路34と第2音声合成回路36とに、第2話者12の第2言語を通知してもよい。
 また、翻訳装置20は、上記で記した第1カメラ291と、第2カメラ292とに加え、さらに、第1映像性別判定回路と、第2映像性別判定回路とを備えていてもよい。
 第1カメラ291は、第1話者の顔を撮影する。第1カメラ291は、第1映像信号を第1映像性別判定回路へ出力する。
 第2カメラ292は、第2話者の顔を撮影する。第2カメラ292は、第2映像信号を第2映像性別判定回路へ出力する。
 第1映像性別判定回路は、第1カメラ291から出力された第1映像信号に基づいて、第1話者の性別判定を行う。
 第2映像性別判定回路は、第2カメラ292から出力された第2映像信号に基づいて、第2話者の性別判定を行う。
 さらに、この場合、制御回路37は、第1音声合成回路に、第1映像性別判定回路の判定結果と同じ性別の合成音声を出力させてもよく、第2音声合成回路に、第2映像性別判定回路の判定結果と同じ性別の合成音声を出力させてもよい。
 また、第1エコーキャンセラ40の第1記憶回路42と第3エコーキャンセラ60の第3記憶回路62とを共用する構成としてもよい。すなわち、第1エコーキャンセラ40の第1記憶回路42に記憶された信号と第3エコーキャンセラ60の第3記憶回路62に記憶された信号とは、いずれも第1音声合成回路35の出力信号であり、第1記憶回路42と第3記憶回路62とを共通化することで、第1記憶回路42と第3記憶回路62とに係る部分の記憶回路を半減することが可能となる。
 さらに、第2エコーキャンセラ50の第2記憶回路52と第4エコーキャンセラ70の第4記憶回路72とを共用する構成としてもよい。すなわち、第2エコーキャンセラ50の第2記憶回路52に記憶された信号と第4エコーキャンセラ70の第4記憶回路72に記憶された信号とは、いずれも第2音声合成回路36の出力信号であり、第2記憶回路52と第4記憶回路72とを共通化することで、第2記憶回路52と第4記憶回路72とに係る部分の記憶回路を半減することが可能となる。
 [1-4.効果等]
 以上説明したように、翻訳装置20は、第1話者11と第2話者12とによる会話において、一方の話者の言語を他方の話者の言語に翻訳して合成音声を拡声する翻訳装置であって、第1話者11の第1音声を入力するための第1マイク21と、第1音声を音声認識して第1文字列を出力するための第1音声認識回路31と、第1音声認識回路31から出力された第1文字列を第2話者12の言語に翻訳して第3文字列を出力するための第1翻訳回路33と、第1翻訳回路33から出力された第3文字列を第1翻訳音声に変換するための第1音声合成回路35と、第1翻訳音声を拡声するための第1スピーカ22と、第2話者12の第2音声を入力するための第2マイク23と、第2音声を音声認識して第2文字列を出力するための第2音声認識回路32と、第2音声認識回路32から出力された第2文字列を第1話者11の言語に翻訳して第4文字列を出力するための第2翻訳回路34と、第2翻訳回路34から出力された第4文字列を第2翻訳音声に変換するための第2音声合成回路36と、第2翻訳音声を拡声するための第2スピーカ24と、第1スピーカ22から拡声された第1翻訳音声が第2マイク23に入力される現象を第1エコー13としたとき、第1翻訳音声と第1エコー13に対応する第1伝達関数とを用いて、第1エコー13を示す第1エコー信号を推定し、第1エコー信号を、第2マイク23の出力信号から除去する第1エコーキャンセラ40と、第2スピーカ24から拡声された第2翻訳音声が第1マイク21に入力される現象を第2エコー14としたとき、第2翻訳音声と第2エコー14に対応する第2伝達関数とを用いて、第2エコー14を示す第2エコー信号を推定し、第2エコー信号を、第1マイク21の出力信号から除去する第2エコーキャンセラ50と、制御回路37とを備え、制御回路37は、第1音声合成回路35が第1翻訳音声を出力している期間に、第1エコーキャンセラ40に、第1エコー信号を推定する第1伝達関数を更新させ、第2音声合成回路36が第2翻訳音声を出力している期間に、第2エコーキャンセラ50に、第2エコー信号を推定する第2伝達関数を更新させる。
 このような翻訳装置20は、複数の話者の音声と、この複数の話者の音声を認識し相手の言語に翻訳し音声合成して出力された複数の合成音声とが、同時に重複して存在するような場合でも、エコーを含む音響的雑音を除去し、安定して音声認識しながら、相互に会話を行うことができる。また、第1話者11の第1音声と第2話者12の第2音声と第1音声合成回路35の第1翻訳音声と第2音声合成回路36の第2翻訳音声とが同時に発生しても、エコーをエコーキャンセラが除去するので、第1音声認識回路31と第2音声認識回路32が音声認識精度を下げることがない。さらには、第1エコーキャンセラ40は、第1音声合成回路35が合成音声を出力している時に第1伝達関数を更新し、それ以外の音声が存在する時に不要な更新がされないため、第1エコーキャンセラ40における第1伝達関数の推定精度が高まる。つまり、不要な更新により、第1エコーキャンセラ40の第1伝達関数記憶回路44に記憶された第1伝達関数が、破壊されることが防がれるため、より高精度に第1エコー信号を除去できる。同じく、第2エコーキャンセラ50は、第2音声合成回路36が合成音声を出力している時に第2伝達関数を更新し、それ以外の音声が存在する時に不要な更新がされないため、第2エコーキャンセラ50における第2伝達関数の推定精度を高めることができる。つまり、不要な更新により、第2エコーキャンセラ50の第2伝達関数記憶回路54に記憶された第2伝達関数が、破壊されることが防がれるため、より高精度に第2エコー信号を除去できる。
 また、例えば、翻訳装置20は、さらに、第1スピーカ22から拡声された第1翻訳音声が第1マイク21に入力される現象を第3エコー15としたとき、第1翻訳音声と第3エコー15に対応する第3伝達関数とを用いて、第3エコー15を示す第3エコー信号を推定し、第3エコー信号を、第1マイク21の出力信号から除去する第3エコーキャンセラ60と、第2スピーカ24から拡声された第2翻訳音声が第2マイク23に入力される現象を第4エコー16としたとき、第2翻訳音声と第4エコー16に対応する第4伝達関数とを用いて、第4エコー16を示す第4エコー信号を推定し、第4エコー信号を、第2マイク23の出力信号から除去する第4エコーキャンセラ70とを備え、制御回路37は、第1音声合成回路35が第1翻訳音声を出力している期間に、第3エコーキャンセラ60に、第3エコー信号を推定する第3伝達を更新させ、第2音声合成回路36が第2翻訳音声を出力している期間に、第4エコーキャンセラ70に、第4エコー信号を推定する第4伝達関数を更新させる。
 このような翻訳装置20は、複数の話者の音声と、この複数の話者の音声を認識し相手の言語に翻訳し音声合成して出力された複数の合成音声とが、同時に重複して存在するような場合でも、エコーを含む音響的雑音を除去し、安定して音声認識しながら、相互に会話を行うことができる。さらには、第1エコーキャンセラ40と第3エコーキャンセラ60とは、第1音声合成回路35が合成音声を出力している時に第1伝達関数及び第3伝達関数を更新し、それ以外の音声が存在する時に不要な更新がされないため、第1エコーキャンセラ40及び第3エコーキャンセラ60における第1伝達関数及び第3伝達関数の推定精度が高まる。つまりは、不要な更新により、第3エコーキャンセラ60の第3伝達関数記憶回路64に記憶された第3伝達関数が、破壊されることが防がれるため、より高精度に第3エコー信号を除去できる。同じく、第2エコーキャンセラ50と第4エコーキャンセラ70とは、第2音声合成回路36が合成音声を出力している時に第2伝達関数及び第4伝達関数を更新し、それ以外の音声が存在する時に不要な更新がされないため、第2エコーキャンセラ50及び第4エコーキャンセラ70における第2伝達関数及び第4伝達関数の推定精度を高めることができる。つまりは、不要な更新により、第4エコーキャンセラ70の第4伝達関数記憶回路74に記憶された第4伝達関数が、破壊されることが防がれるため、より高精度に第4エコー信号を除去できる。
 また、例えば、翻訳装置20は、第1話者11と第2話者12とによる会話において、一方の話者の言語を他方の話者の言語に翻訳して合成音声を拡声する翻訳装置であって、第1話者11の第1音声を入力するための第1マイク21と、第1音声を音声認識して第1文字列を出力するための第1音声認識回路31と、第1音声認識回路31から出力された第1文字列を第2話者12の言語に翻訳して第3文字列を出力するための第1翻訳回路33と、第1翻訳回路33から出力された第3文字列を第1翻訳音声に変換するための第1音声合成回路35と、第1翻訳音声を拡声するための第1スピーカ22と、第2話者12の第2音声を入力するための第2マイク23と、第2音声を音声認識して第2文字列を出力するための第2音声認識回路32と、第2音声認識回路32から出力された第2文字列を第1話者11の言語に翻訳して第4文字列を出力するための第2翻訳回路34と、第2翻訳回路34から出力された第4文字列信号を第2翻訳音声に変換するための第2音声合成回路36と、第2翻訳音声を拡声するための第2スピーカ24と、第1スピーカ22から拡声された第1翻訳音声が第1マイク21に入力される現象を第3エコー15としたとき、第1翻訳音声と第3エコー15に対応する第3伝達関数とを用いて、第3エコー15を示す第3エコー信号を推定し、第3エコー信号を、第1マイク21の出力信号から除去する第3エコーキャンセラ60と、第2スピーカ24から拡声された第2翻訳音声が第2マイク23に入力される現象を第4エコー16としたとき、第2翻訳音声と第4エコー16に対応する第4伝達関数とを用いて、第4エコー16を示す第4エコー信号を推定し、第4エコー信号を、第2マイク23の出力信号から除去する第4エコーキャンセラ70と、制御回路37とを備え、制御回路37は、第1音声合成回路35が第1翻訳音声を出力している期間に、第3エコーキャンセラ60に、第3エコー信号を推定する第3伝達関数を更新させ、第2音声合成回路36が第2翻訳音声を出力している期間に、第4エコーキャンセラ70に、第4エコー信号を推定する第4伝達関数を更新させる。
 このような翻訳装置20は、複数の話者の音声と、この複数の話者の音声を認識し相手の言語に翻訳し音声合成して出力された複数の合成音声とが、同時に重複して存在するような場合でも、エコーを含む音響的雑音を除去し、安定して音声認識しながら、相互に会話を行うことができる。さらには、第3エコーキャンセラ60は、第1音声合成回路35が合成音声を出力している時に第3伝達関数を更新し、それ以外の音声が存在する時に不要な更新がされないため、第3エコーキャンセラ60における第3伝達関数の推定精度が高まる。つまりは、不要な更新により、第3エコーキャンセラ60の第3伝達関数記憶回路64に記憶された第3伝達関数が、破壊されることが防がれるため、より高精度に第3エコー信号を除去できる。同じく、第4エコーキャンセラ70は、第2音声合成回路36が合成音声を出力している時に第4伝達関数を更新し、それ以外の音声が存在する時に不要な更新がされないため、第4エコーキャンセラ70における第4伝達関数の推定精度を高めることができる。つまりは、不要な更新により、第4エコーキャンセラ70の第4伝達関数記憶回路74に記憶された第4伝達関数が、破壊されることが防がれるため、より高精度に第4エコー信号を除去できる。
 また、例えば、翻訳装置20は、さらに、第1音声が第2マイク23に入力される現象を第1クロストーク17としたとき、第1音声を用いて、第1クロストーク17を示す第1クロストーク信号を推定し、第1クロストーク信号を、第2マイク23の出力信号から除去する第1クロストークキャンセラ80と、第2音声が第1マイク21に入力される現象を第2クロストーク18としたとき、第2音声を用いて、第2クロストーク18を示す第2クロストーク信号を推定し、第2クロストーク信号を、第1マイク21の出力信号から除去する第2クロストークキャンセラ90とを備える。
 このような翻訳装置20は、複数の話者の音声と、この複数の話者の音声を認識し相手の言語に翻訳し音声合成して出力された複数の合成音声とが、同時に重複して存在するような場合でも、エコー及びクロストークを含む音響的雑音を除去し、安定して音声認識しながら、相互に会話を行うことができる。
 また、例えば、翻訳装置20は、さらに、第1話者11から第1話者11が用いる第1言語の選択を受け付け、制御回路37に通知する第1言語選択回路27と、第2話者12から第2話者12が用いる第2言語の選択を受け付け、制御回路37に通知する第2言語選択回路28とを備え、制御回路37は、第1言語選択回路27から通知された第1言語と、第2言語選択回路28から通知された第2言語と、に基づいて、第1音声認識回路31に、第1言語で音声認識させ、第2音声認識回路32に、第2言語で音声認識させ、第1翻訳回路33に、第1言語から第2言語に翻訳させ、第2翻訳回路34に、第2言語から第1言語に翻訳させ、第1音声合成回路35に、第2言語で音声合成させ、第2音声合成回路36に、第1言語で音声合成させる。
 このような翻訳装置20は、予め翻訳する言語が選択されているため、スムーズに翻訳し、第1翻訳音声と第2翻訳音声を出力することができる。
 また、例えば、翻訳装置20は、第1音声に基づいて、第1話者11の性別判定を行う第1音声性別判定回路と、第2音声に基づいて、第2話者12の性別判定を行う第2音声性別判定回路とを備え、制御回路37は、第1音声合成回路35に、第1音声性別判定回路の判定結果と同じ性別の合成音声を、出力させ、第2音声合成回路36に、第2音声性別判定回路の判定結果と同じ性別の合成音声を、出力させる。
 このような翻訳装置20は、話者の性別と同性の第1翻訳音声と第2翻訳音声とを出力することができる。
 また、例えば、翻訳装置20は、第1話者11の顔を撮影する第1カメラ291と、第1カメラ291から出力された第1映像信号に基づいて、第1話者11を特定する第1顔認識回路と、第2話者12の顔を撮影する第2カメラ292と、第2カメラ292から出力された第2映像信号に基づいて、第2話者12を特定する第2顔認識回路と、話者と話者が用いる言語との対を記憶しているデータベースとを備え、制御回路37は、第1顔認識回路が特定した第1話者11の言語がデータベースに登録されている場合には、第1音声認識回路31と第1翻訳回路33と第2翻訳回路34と第1音声合成回路35とに、第1話者11の第1言語を通知し、第2顔認識回路が特定した第2話者12の言語がデータベースに登録されている場合には、第2音声認識回路32と第1翻訳回路33と第2翻訳回路34と第2音声合成回路36とに、第2話者12の第2言語を通知する。
 このような翻訳装置20は、映像から人物を認識し、予め翻訳する言語が登録されているため、スムーズに翻訳し、第1翻訳音声と第2翻訳音声とを出力することができる。
 また、例えば、翻訳装置20は、さらに、第1カメラ291から出力された第1映像信号に基づいて、第1話者11の性別判定を行う第1映像性別判定回路と、第2カメラ292から出力された第2映像信号に基づいて、第2話者12の性別判定を行う第2映像性別判定回路とを備え、制御回路37は、第1音声合成回路35に、第1映像性別判定回路の判定結果と同じ性別の合成音声を出力させ、第2音声合成回路36に、第2映像性別判定回路の判定結果と同じ性別の合成音声を出力させる。
 このような翻訳装置20は、映像から人物の性別を認識し、話者の性別と同性の第1翻訳音声と第2翻訳音声とを出力することができる。
 さらに、翻訳方法は、第1話者11と第2話者12とによる会話において、自分の言語を相手の言語に翻訳して合成音声を拡声する翻訳方法であって、第1話者11の第1音声を入力するための第1入力ステップと、第1音声を音声認識して第1文字列を出力するための第1音声認識ステップと、第1音声認識ステップから出力された第1文字列を第2話者12の言語に翻訳して第3文字列を出力するための第1翻訳ステップと、第1翻訳ステップから出力された第3文字列を第1翻訳音声に変換するための第1音声合成ステップと、第1翻訳音声を拡声するための第1拡声ステップと、第2話者12の第2音声を入力するための第2入力ステップと、第2音声を音声認識して第2文字列を出力するための第2音声認識ステップと、第2音声認識ステップから出力された第2文字列を第1話者11の言語に翻訳して第4文字列を出力するための第2翻訳ステップと、第2翻訳ステップから出力された第4文字列を第2翻訳音声に変換するための第2音声合成ステップと、第2翻訳音声を拡声するための第2拡声ステップと、第1拡声ステップにて拡声された第1翻訳音声が第2入力ステップにて入力される現象を第1エコー13としたとき、第1翻訳音声と第1エコー13に対応する第1伝達関数とを用いて、第1エコー13を示す第1エコー信号を推定し、第1エコー信号を、第2入力ステップの出力信号から除去する第1エコーキャンセラステップと、第2拡声ステップにて拡声された第2翻訳音声が第1入力ステップにて入力される現象を第2エコー14としたとき、第2翻訳音声と第2エコー14に対応する第2伝達関数とを用いて、第2エコー14を示す第2エコー信号を推定し、第2エコー信号を、第1入力ステップの出力信号から除去する第2エコーキャンセラステップと、第1音声合成ステップにて第1翻訳音声を出力している期間に、第1エコーキャンセラステップにおいて、第1エコー信号を推定する第1伝達関数を更新し、第2音声合成ステップにて第2翻訳音声を出力している期間に、第2エコーキャンセラステップにおいて、第2エコー信号を推定する第2伝達関数を更新するように指示を与える制御ステップとを含む。
 このような翻訳方法は、複数の話者の音声と、この複数の話者の音声を認識し相手の言語に翻訳し音声合成して出力された複数の合成音声とが、同時に重複して存在するような場合でも、エコーを含む音響的雑音を除去し、安定して音声認識しながら、相互に会話を行うことができる。さらには、第1エコーキャンセラ40は、第1音声合成回路35が合成音声を出力している時に第1伝達関数を更新し、それ以外の音声が存在する時に不要な更新がされないため、第1エコーキャンセラ40における第1伝達関数の推定精度が高まる。つまり、不要な更新により、第1エコーキャンセラ40の第1伝達関数記憶回路44に記憶された第1伝達関数が、破壊されることが防がれるため、より高精度に第1エコー信号を除去できる。同じく、第2エコーキャンセラ50は、第2音声合成回路36が合成音声を出力している時に第2伝達関数を更新し、それ以外の音声が存在する時に不要な更新がされないため、第2エコーキャンセラ50における第2伝達関数の推定精度を高めることができる。つまり、不要な更新により、第2エコーキャンセラ50の第2伝達関数記憶回路54に記憶された第2伝達関数が、破壊されることが防がれるため、より高精度に第2エコー信号を除去できる。
 また、例えば、翻訳方法は、第1話者11と第2話者12とによる会話において、自分の言語を相手の言語に翻訳して合成音声を拡声する翻訳方法であって、第1話者11の第1音声を入力するための第1入力ステップと、第1音声を音声認識して第1文字列を出力するための第1音声認識ステップと、第1音声認識ステップから出力された第1文字列を第2話者12の言語に翻訳して第3文字列を出力するための第1翻訳ステップと、第1翻訳ステップから出力された第3文字列を第1翻訳音声に変換するための第1音声合成ステップと、第1翻訳音声を拡声するための第1拡声ステップと、第2話者12の第2音声を入力するための第2入力ステップと、第2音声を音声認識して第2文字列を出力するための第2音声認識ステップと、第2音声認識ステップから出力された第2文字列を第1話者11の言語に翻訳して第4文字列を出力するための第2翻訳ステップと、第2翻訳ステップから出力された第4文字列を第2翻訳音声に変換するための第2音声合成ステップと、第2翻訳音声を拡声するための第2拡声ステップと、第1拡声ステップにて出力された第1翻訳音声が第1入力ステップにて入力される現象を第3エコー15としたとき、第1翻訳音声と第3エコー15に対応する第3伝達関数とを用いて、第3エコー15を示す第3エコー信号を推定し、第3エコー信号を、第1入力ステップの出力信号から除去する第3エコーキャンセラステップと、第2拡声ステップにて出力された第2翻訳音声が第2入力ステップにて入力される現象を第4エコー16としたとき、第2翻訳音声と第4エコー16に対応する第4伝達関数とを用いて、第4エコー16を示す第4エコー信号を推定し、第4エコー信号を、第2入力ステップの出力信号から除去する第4エコーキャンセラステップと、第1音声合成ステップにて第1翻訳音声を出力している期間に、第3エコーキャンセラステップにおいて、第3エコー信号を推定する第3伝達関数を更新し、第2音声合成ステップから第2翻訳音声を出力している期間に、第4エコーキャンセラステップにおいて、第4エコー信号を推定する第4伝達関数を更新するように指示を与える制御ステップとを含む。
 このような翻訳方法は、複数の話者の音声と、この複数の話者の音声を認識し相手の言語に翻訳し音声合成して出力された複数の合成音声とが、同時に重複して存在するような場合でも、エコーを含む音響的雑音を除去し、安定して音声認識しながら、相互に会話を行うことができる。さらには、第3エコーキャンセラ60は、第1音声合成回路35が合成音声を出力している時に第3伝達関数を更新し、それ以外の音声が存在する時に不要な更新がされないため、第3エコーキャンセラ60における第3伝達関数の推定精度が高まる。つまりは、不要な更新により、第3エコーキャンセラ60の第3伝達関数記憶回路64に記憶された第3伝達関数が、破壊されることが防がれるため、より高精度に第3エコー信号を除去できる。同じく、第4エコーキャンセラ70は、第2音声合成回路36が合成音声を出力している時に第4伝達関数を更新し、それ以外の音声が存在する時に不要な更新がされないため、第4エコーキャンセラ70における第4伝達関数の推定精度を高めることができる。つまりは、不要な更新により、第4エコーキャンセラ70の第4伝達関数記憶回路74に記憶された第4伝達関数が、破壊されることが防がれるため、より高精度に第4エコー信号を除去できる。
 [1-5.変形例]
 上記実施の形態では、第1伝達関数更新回路45は、上記式3に従って伝達関数を更新したが、以下の式19又は式20に示されるように、正規化された式に従って伝達関数を更新してもよい。
Figure JPOXMLDOC01-appb-M000007
 ここで、Nは、第1伝達関数記憶回路44に記憶される伝達関数の個数である。|x1(t-i)|は、x1(t-i)の絶対値である。
Figure JPOXMLDOC01-appb-M000008
 これにより、第1伝達関数更新回路45による推定伝達関数の更新が、入力信号x1(t-j)の振幅に依存せず、安定して実施される。
 (実施の形態2)
 実施の形態1では、第1話者11の第1言語と第2話者12の第2言語とが異なる場合を示した。一方で、実施の形態2では、第1話者11の第1言語と第2話者12の第2言語とが同一である場合に適した構成を示す。
 まず、実施の形態2では、実施の形態1と比べ、翻訳した音声を出力する機能と翻訳機能とが不要になる。
 また後述するように、ハウリングという現象が問題となる。ハウリングとは、ある話者の音声を出力するスピーカから出力された音声がその話者の音声が入力されるマイクに帰還して入力される現象を指す。具体的に、ここでは、第1スピーカ22から出力された音声が第1マイク21に帰還して入力される現象を第1ハウリング15a、第2スピーカ24から出力された音声が第2マイク23に帰還して入力される現象を第2ハウリング16aと定義する。
 [2-1.構成]
 図5は、実施の形態2における翻訳装置20aの構成を示すブロック図である。すなわち、図5は、第1言語選択回路27で設定された第1話者11の第1言語と第2言語選択回路28で設定された第2話者12の第2言語とが同一である場合の構成を示すブロック図である。なお、実施の形態2では、実施の形態1と共通の構成要素については同一の符号を付し、その詳細な説明を省略する。
 図5では、図2に対し、第1言語と第2言語とが同一であるため、第1翻訳回路33、第2翻訳回路34、第1音声合成回路35及び第2音声合成回路36とが不要となる。
 また、第1話者11の音声は、第1マイク21で収音され、後述する第1ハウリングキャンセラ60a及び第2エコー/第2クロストークキャンセラ90aを経由して、第1スピーカ22から出力されるため、第1マイク21への入力と第1スピーカ22からの出力が同じ第1話者11の音声(すなわち、翻訳されない第1話者11の音声)となるので、実施の形態1の第3エコー15は、第1ハウリング15aに変わる。そのため、第3エコーキャンセラ60は、第1ハウリングキャンセラ60aとして機能する。
 また、第2話者12の音声は、第2マイク23で収音され、後述する第2ハウリングキャンセラ70a及び第1エコー/第1クロストークキャンセラ80aを経由して、第2スピーカ24から出力されるため、第2マイク23への入力と第2スピーカ24からの出力が同じ第2話者12の音声(すなわち、翻訳されない第2話者12の音声)となるので、実施の形態1の第4エコー16は、第2ハウリング16aに変わる。そのため、第4エコーキャンセラ70は、第2ハウリングキャンセラ70aとして機能する。
 また、第1エコー13aと第1クロストーク17aの音源は、いずれも同じ第1話者11の音声になる。そのため、第1クロストークキャンセラ80は、第1エコー/第1クロストークキャンセラ80aとして機能する。その結果、第1エコーキャンセラ40は不要となる。
 さらに、第2エコー14aと第2クロストーク18aの音源は、いずれも同じ第2話者12の音声になる。そのため、第2クロストークキャンセラ90は、第2エコー/第2クロストークキャンセラ90aとして機能する。その結果、第2エコーキャンセラ50は不要となる。
 さらに、制御回路37は、第1エコーキャンセラ40と、第2エコーキャンセラ50と、第1翻訳回路33と、第2翻訳回路34と、第1音声合成回路35と、第2音声合成回路36とに、機能を停止させてもよい。
 [2-1-1.第1ハウリングキャンセラ60a]
 第1ハウリングキャンセラ60aは、第1スピーカ22から出力された音声が第1マイク21に帰還して入力される現象を第1ハウリング15aとしたとき、第1ハウリング15aの程度を示す第1ハウリング信号を推定し、第1ハウリング信号を、第1マイク21の出力信号から除去する回路である。本実施の形態では、第1ハウリングキャンセラ60aは、第1マイク21の出力信号から第1ハウリング信号を除去し、除去後の信号を後述する第2エコー/第2クロストークキャンセラ90aに出力する回路であり、デジタル音声データを時間軸領域で処理するデジタル信号処理回路である。
 より詳しくは、第1ハウリングキャンセラ60aは、第3伝達関数記憶回路64、第1遅延器66、第3記憶回路62、第3畳み込み演算器63、第3減算器61、及び、第3伝達関数更新回路65を有する。つまり、図2の第3エコーキャンセラ60において、第1遅延器66が追加されている。
 第3伝達関数記憶回路64は、第1ハウリング15aの伝達関数として推定された第3伝達関数を記憶する。
 第1遅延器66は、第1ハウリングキャンセラ60aの出力信号を遅延させる。
 第3記憶回路62は、第1遅延器66から出力された信号を記憶する。
 第3畳み込み演算器63は、第3記憶回路62に記憶された信号と第3伝達関数記憶回路64に記憶された第3伝達関数とを畳み込むことで第1ハウリング信号を生成する。例えば、第3畳み込み演算器63は、以下の式21に示される畳み込み演算を行うNタップのFIR(Finite Impulse Response)フィルタである。
Figure JPOXMLDOC01-appb-M000009
 ここで、y7’tは、時刻tにおける第1ハウリング信号である。Nは、FIRフィルタのタップ数である。H7(i)tは、時刻tにおいて第3伝達関数記憶回路64に記憶されたN個の第3伝達関数のうちのi番目の第3伝達関数である。x7(t-i-τ1)は、第3記憶回路62に記憶された信号のうち、(t-i-τ1)番目の信号である。τ1は、第1遅延器66による遅延時間である。
 第3減算器61は、第1マイク21の出力信号から、第3畳み込み演算器63から出力された第1ハウリング信号を除去し、第1ハウリングキャンセラ60aの出力信号として、第2エコー/第2クロストークキャンセラ90aに出力する。例えば、第3減算器61は、以下の式22に示される減算を行う。
(数22)
e7=y7-y7’・・・(式22)
 ここで、e7tは、時刻tにおける第3減算器61の出力信号である。y7tは、時刻tにおける第1マイク21の出力信号である。
 第3伝達関数更新回路65は、第3減算器61の出力信号と第3記憶回路62に記憶された信号とに基づいて第3伝達関数記憶回路64に記憶された第3伝達関数を更新する。例えば、第3伝達関数更新回路65は、以下の式23に示されるように、独立成分分析を用いて、第3減算器61の出力信号と第3記憶回路62に記憶された信号とに基づいて、第3減算器61の出力信号と第3記憶回路62に記憶された信号とが相互に独立となるように、第3伝達関数記憶回路64に記憶された第3伝達関数を更新する。
(数23)
H7(j)t+1=H7(j)+α7×φ7(e7)×x7(t-j-τ1)
・・・(式23)
 ここで、H7(j)t+1は、時刻t+1における(つまり、更新後の)第3伝達関数記憶回路64に記憶されるN個の第3伝達関数のうちのj番目の第3伝達関数である。H7(j)tは、時刻t(つまり、更新前の)第3伝達関数記憶回路64に記憶されたN個の第3伝達関数のうちのj番目の第3伝達関数である。α7は、第1ハウリング15aの第3伝達関数の推定における学習速度を制御するためのステップサイズパラメータである。φ7は、非線形関数(例えば、シグモイド関数(sigmoid関数)、双曲線正接関数(tanh関数)、正規化線形関数又は符号関数(sign関数))である。
 このように、第3伝達関数更新回路65は、第3減算器61の出力信号に対して非線形関数を用いた非線形処理を施し、得られた結果に対して第3記憶回路62に記憶された信号と、第1ハウリング15aの第3伝達関数の推定における学習速度を制御するための第7ステップサイズパラメータとを乗じることで第7更新係数を算出する。そして、算出した第7更新係数を第3伝達関数記憶回路64に記憶された第3伝達関数に加算することで更新を行う。
 [2-1-2.第2ハウリングキャンセラ70a]
 第2ハウリングキャンセラ70aは、第2スピーカ24から出力された音声が第2マイク23に帰還して入力される現象を第2ハウリング16aとしたとき、第2ハウリング16aの程度を示す第2ハウリング信号を推定し、第2ハウリング信号を、第2マイク23の出力信号から除去する回路である。本実施の形態では、第2ハウリングキャンセラ70aは、第2マイク23の出力信号から第2ハウリング信号を除去し、除去後の信号を後述する第1エコー/第1クロストークキャンセラ80aに出力する回路であり、デジタル音声データを時間軸領域で処理するデジタル信号処理回路である。
 より詳しくは、第2ハウリングキャンセラ70aは、第4伝達関数記憶回路74、第2遅延器76、第4記憶回路72、第4畳み込み演算器73、第4減算器71、及び、第4伝達関数更新回路75を有する。つまり、図2の第4エコーキャンセラ70において、第2遅延器76が追加されている。
 第4伝達関数記憶回路74は、第2ハウリング16aの伝達関数として推定された第4伝達関数を記憶する。
 第2遅延器76は、第2ハウリングキャンセラ70aの出力信号を遅延させる。
 第4記憶回路72は、第2遅延器76から出力された信号を記憶する。
 第4畳み込み演算器73は、第4記憶回路72に記憶された信号と第4伝達関数記憶回路74に記憶された第4伝達関数とを畳み込むことで第2ハウリング信号を生成する。例えば、第4畳み込み演算器73は、以下の式24に示される畳み込み演算を行うNタップのFIR(Finite Impulse Response)フィルタである。
Figure JPOXMLDOC01-appb-M000010
 ここで、y8’tは、時刻tにおける第2ハウリング信号である。Nは、FIRフィルタのタップ数である。H8(i)tは、時刻tにおいて第4伝達関数記憶回路74に記憶されたN個の第4伝達関数のうちのi番目の第4伝達関数である。x8(t-i-τ2)は、第4記憶回路72に記憶された信号のうち、(t-i-τ2)番目の信号である。τ2は、第2遅延器76による遅延時間である。
 第4減算器71は、第2マイク23の出力信号から、第4畳み込み演算器73から出力された第2ハウリング信号を除去し、第2ハウリングキャンセラ70aの出力信号として、第1エコー/第1クロストークキャンセラ80aに出力する。例えば、第4減算器71は、以下の式25に示される減算を行う。
(数25)
e8=y8-y8’・・・(式25)
 ここで、e8tは、時刻tにおける第4減算器71の出力信号である。y8tは、時刻tにおける第2マイク23の出力信号である。
 第4伝達関数更新回路75は、第4減算器71の出力信号と第4記憶回路72に記憶された信号とに基づいて第4伝達関数記憶回路74に記憶された第4伝達関数を更新する。例えば、第4伝達関数更新回路75は、以下の式26に示されるように、独立成分分析を用いて、第4減算器71の出力信号と第4記憶回路72に記憶された信号とに基づいて、第4減算器71の出力信号と第4記憶回路72に記憶された信号とが相互に独立となるように、第4伝達関数記憶回路74に記憶された第4伝達関数を更新する。
(数26)
H8(j)t+1=H8(j)+α8×φ8(e8)×x8(t-j-τ2)
・・・(式26)
 ここで、H8(j)t+1は、時刻t+1における(つまり、更新後の)第4伝達関数記憶回路74に記憶されるN個の第4伝達関数のうちのj番目の第4伝達関数である。H8(j)tは、時刻t(つまり、更新前の)第4伝達関数記憶回路74に記憶されたN個の第4伝達関数のうちのj番目の第4伝達関数である。α8は、第2ハウリング16aの第4伝達関数の推定における学習速度を制御するためのステップサイズパラメータである。φ8は、非線形関数(例えば、シグモイド関数(sigmoid関数)、双曲線正接関数(tanh関数)、正規化線形関数又は符号関数(sign関数))である。
 このように、第4伝達関数更新回路75は、第4減算器71の出力信号に対して非線形関数を用いた非線形処理を施し、得られた結果に対して第4記憶回路72に記憶された信号と、第2ハウリング16aの第4伝達関数の推定における学習速度を制御するための第8ステップサイズパラメータとを乗じることで第8更新係数を算出する。そして、算出した第8更新係数を第4伝達関数記憶回路74に記憶された第4伝達関数に加算することで更新を行う。
 [2-1-3.第1エコー/第1クロストークキャンセラ80a]
 第1エコー/第1クロストークキャンセラ80aは、第2エコー/第2クロストークキャンセラ90aの出力信号を用いて、第1スピーカ22から出力された音声が第2マイク23に回り込んで入力される第1エコー13a、及び、第1話者11の音声が第2マイク23に入力される第1クロストーク17aの程度を示す第9妨害信号(すなわち第1エコー/第1クロストーク信号)を推定し、第9妨害信号を、第2ハウリングキャンセラ70aの出力信号から除去する回路である。
 本実施の形態では、第1エコー/第1クロストークキャンセラ80aは、第9妨害信号が除去された信号を第2音声認識回路32、第2エコー/第2クロストークキャンセラ90a及び第2スピーカ24に出力する回路であり、デジタル音声データを時間軸領域で処理するデジタル信号処理回路である。
 より詳しくは、第1エコー/第1クロストークキャンセラ80aは、第5伝達関数記憶回路84、第5記憶回路82、第5畳み込み演算器83、第5減算器81、及び、第5伝達関数更新回路85を有する。
 第5伝達関数記憶回路84は、第1エコー13aと第1クロストーク17aとを合わせた伝達関数として推定された第5伝達関数を記憶する。
 第5記憶回路82は、第2エコー/第2クロストークキャンセラ90aの出力信号を記憶する。
 第5畳み込み演算器83は、第5記憶回路82に記憶された信号と第5伝達関数記憶回路84に記憶された第5伝達関数とを畳み込むことで第9妨害信号を生成する。例えば、第5畳み込み演算器83は、以下の式27に示される畳み込み演算を行うNタップのFIRフィルタである。
Figure JPOXMLDOC01-appb-M000011
 ここで、y9’tは、時刻tにおける第9妨害信号である。Nは、FIRフィルタのタップ数である。H9(i)tは、時刻tにおいて第5伝達関数記憶回路84に記憶されたN個の第5伝達関数のうちのi番目の第5伝達関数である。x9(t-i)は、第5記憶回路82に記憶された信号のうち、(t-i)番目の信号である。
 第5減算器81は、第2ハウリングキャンセラ70aの出力信号から、第5畳み込み演算器83から出力された第9妨害信号を除去し、第1エコー/第1クロストークキャンセラ80aの出力信号として出力する。例えば、第5減算器81は、以下の式28に示される減算を行う。
(数28)
e9=y9-y9’・・・(式28)
 ここで、e9tは、時刻tにおける第5減算器81の出力信号である。y9tは、時刻tにおける第2ハウリングキャンセラ70aの出力信号である。
 第5伝達関数更新回路85は、第5減算器81の出力信号と第5記憶回路82に記憶された信号とに基づいて第5伝達関数記憶回路84に記憶された第5伝達関数を更新する。例えば、第5伝達関数更新回路85は、以下の式29に示されるように、独立成分分析を用いて、第5減算器81の出力信号と第5記憶回路82に記憶された信号とに基づいて、第5減算器81の出力信号と第5記憶回路82に記憶された信号とが相互に独立となるように、第5伝達関数記憶回路84に記憶された第5伝達関数を更新する。
(数29)
H9(j)t+1=H9(j)+α9×φ9(e9)×x9(t-j)・・・(式29)
 ここで、H9(j)t+1は、時刻t+1における(つまり、更新後の)第5伝達関数記憶回路84に記憶されるN個の第5伝達関数のうちのj番目の第5伝達関数である。H9(j)tは、時刻t(つまり、更新前の)第5伝達関数記憶回路84に記憶されたN個の第5伝達関数のうちのj番目の第5伝達関数である。α9は、第1エコー13aと第1クロストーク17aとを合わせた第5伝達関数の推定における学習速度を制御するためのステップサイズパラメータである。φ9は、非線形関数(例えば、シグモイド関数(sigmoid関数)、双曲線正接関数(tanh関数)、正規化線形関数又は符号関数(sign関数))である。
 このように、第5伝達関数更新回路85は、第5減算器81の出力信号に対して非線形関数を用いた非線形処理を施し、得られた結果に対して第5記憶回路82に記憶された信号と、第1エコー13aと第1クロストーク17aとを合わせた第5伝達関数の推定における学習速度を制御するための第9ステップサイズパラメータとを乗じることで第5更新係数を算出する。そして、算出した第5更新係数を第5伝達関数記憶回路84に記憶された第5伝達関数に加算することで更新を行う。
 なお、本実施の形態における翻訳装置20では、第1話者11の同一時刻における音声について、第2エコー/第2クロストークキャンセラ90aの出力信号が第1エコー/第1クロストークキャンセラ80aに入力される時刻は、第2ハウリングキャンセラ70aの出力が第1エコー/第1クロストークキャンセラ80aに入力される時刻と同一、又は、より早くなるように、設計されている。つまり、第1エコー/第1クロストークキャンセラ80aが第1クロストーク17aをキャンセルできるように、因果律が保持されている。これは、第2エコー/第2クロストークキャンセラ90aの出力信号が第1エコー/第1クロストークキャンセラ80aに入力される時刻を決定づける要因(A/D変換の速度、第1ハウリングキャンセラ60aでの処理速度、第2エコー/第2クロストークキャンセラ90aでの処理速度等)と、第1話者11の音声が第2マイク23に入力される時刻を決定づける要因(第1話者11と第2マイク23との位置関係等)とを考慮することで適宜、実現し得る。
 [2-1-4.第2エコー/第2クロストークキャンセラ90a]
 第2エコー/第2クロストークキャンセラ90aは、第1エコー/第1クロストークキャンセラ80aの出力信号を用いて、第2スピーカ24から出力された音声が第1マイク21に回り込んで入力される第2エコー14a、及び、第2話者12の音声が第1マイク21に入力される第2クロストーク18aの程度を示す第10妨害信号(すなわち第2エコー/第2クロストーク信号)を推定し、第10妨害信号を、第1ハウリングキャンセラ60aの出力信号から除去する回路である。
 本実施の形態では、第2エコー/第2クロストークキャンセラ90aは、第10妨害信号が除去された信号を第1音声認識回路31、第1エコー/第1クロストークキャンセラ80a及び第1スピーカ22に出力する回路であり、デジタル音声データを時間軸領域で処理するデジタル信号処理回路である。
 より詳しくは、第2エコー/第2クロストークキャンセラ90aは、第6伝達関数記憶回路94、第6記憶回路92、第6畳み込み演算器93、第6減算器91、及び、第6伝達関数更新回路95を有する。
 第6伝達関数記憶回路94は、第2エコー14aと第2クロストーク18aとを合わせた伝達関数として推定された第6伝達関数を記憶する。
 第6記憶回路92は、第1エコー/第1クロストークキャンセラ80aの出力信号を記憶する。
 第6畳み込み演算器93は、第6記憶回路92に記憶された信号と第6伝達関数記憶回路94に記憶された第6伝達関数とを畳み込むことで第10妨害信号を生成する。例えば、第6畳み込み演算器93は、以下の式30に示される畳み込み演算を行うNタップのFIRフィルタである。
Figure JPOXMLDOC01-appb-M000012
 ここで、y10’tは、時刻tにおける第10妨害信号である。Nは、FIRフィルタのタップ数である。H10(i)tは、時刻tにおいて第6伝達関数記憶回路94に記憶されたN個の第6伝達関数のうちのi番目の第6伝達関数である。x10(t-i)は、第6記憶回路92に記憶された信号のうち、(t-i)番目の信号である。
 第6減算器91は、第1ハウリングキャンセラ60aの出力信号から、第6畳み込み演算器93から出力された第10妨害信号を除去し、第2エコー/第2クロストークキャンセラ90aの出力信号として出力する。例えば、第6減算器91は、以下の式31に示される減算を行う。
(数31)
e10=y10-y10’・・・(式31)
 ここで、e10tは、時刻tにおける第6減算器91の出力信号である。y10tは、時刻tにおける第1ハウリングキャンセラ60aの出力信号である。
 第6伝達関数更新回路95は、第6減算器91の出力信号と第6記憶回路92に記憶された信号とに基づいて第6伝達関数記憶回路94に記憶された第6伝達関数を更新する。例えば、第6伝達関数更新回路95は、以下の式32に示されるように、独立成分分析を用いて、第6減算器91の出力信号と第6記憶回路92に記憶された信号とに基づいて、第6減算器91の出力信号と第6記憶回路92に記憶された信号とが相互に独立となるように、第6伝達関数記憶回路94に記憶された第6伝達関数を更新する。
(数32)
H10(j)t+1=H10(j)+α10×φ10(e10)×x10(t-j)
・・・(式32)
 ここで、H10(j)t+1は、時刻t+1における(つまり、更新後の)第6伝達関数記憶回路94に記憶されるN個の第6伝達関数のうちのj番目の第6伝達関数である。H10(j)tは、時刻t(つまり、更新前の)第6伝達関数記憶回路94に記憶されたN個の第6伝達関数のうちのj番目の第6伝達関数である。α10は、第2エコー14aと第2クロストーク18aとを合わせた第6伝達関数の推定における学習速度を制御するためのステップサイズパラメータである。φ10は、非線形関数(例えば、シグモイド関数(sigmoid関数)、双曲線正接関数(tanh関数)、正規化線形関数又は符号関数(sign関数))である。
 このように、第6伝達関数更新回路95は、第6減算器91の出力信号に対して非線形関数を用いた非線形処理を施し、得られた結果に対して第6記憶回路92に記憶された信号と、第2エコー14aと第2クロストーク18aとを合わせた第6伝達関数の推定における学習速度を制御するための第10ステップサイズパラメータとを乗じることで第6更新係数を算出する。そして、算出した第5更新係数を第6伝達関数記憶回路94に記憶された第6伝達関数に加算することで更新を行う。
 なお、本実施の形態における翻訳装置20では、第2話者12の同一時刻における音声について、第1エコー/第1クロストークキャンセラ80aの出力信号が第2エコー/第2クロストークキャンセラ90aに入力される時刻は、第1ハウリングキャンセラ60aの出力が第2エコー/第2クロストークキャンセラ90aに入力される時刻と同一、又は、より早くなるように、設計されている。つまり、第2エコー/第2クロストークキャンセラ90aが第2クロストーク18aをキャンセルできるように、因果律が保持されている。これは、第1エコー/第1クロストークキャンセラ80aの出力信号が第2エコー/第2クロストークキャンセラ90aに入力される時刻を決定づける要因(A/D変換の速度、第2ハウリングキャンセラ70aでの処理速度、第1エコー/第1クロストークキャンセラ80aでの処理速度等)と、第2話者12の音声が第1マイク21に入力される時刻を決定づける要因(第2話者12と第1マイク21との位置関係等)とを考慮することで適宜、実現し得る。
 [2-2.動作]
 以上のように構成された本実施の形態における翻訳装置20aは、次のように動作する。ここでは、実施の形態1で示した翻訳装置20と異なる点を中心に記述する。
 まずは、制御回路37の動作について記述する。
 予め、第1言語選択回路27及び第2言語選択回路28は、第1話者11から第1話者11が用いる第1言語の選択及び第2話者12から第2話者12が用いる第2言語の選択を受け付け、制御回路37に通知する。なお、これまで記したように、実施の形態2においては、第1言語と第2言語とは同一である。
 制御回路37は、第1言語選択回路27と第2言語選択回路28とから、第1言語と第2言語とが同一であると通知されているため、第1エコーキャンセラ40と、第2エコーキャンセラ50と、第1翻訳回路33と、第2翻訳回路34と、第1音声合成回路35と、第2音声合成回路36とに、機能を停止させる。
 次に音声について記述する。
 第1話者11の音声は、第1マイク21に入力される。また、第1話者11の音声以外に、第1ハウリング15a、第2エコー14a及び第2クロストーク18aが、第1マイク21に入力される。第1マイク21の出力信号は、第1ハウリングキャンセラ60aにおいて、第1ハウリング信号が除去される。第1ハウリング信号は、第1ハウリング15aの程度を示す(推定された)信号である。よって、第1ハウリングキャンセラ60aの出力信号は、第1マイク21の出力信号から、第1ハウリング15aの影響が除去された信号となる。
 続いて、第1ハウリングキャンセラ60aの出力信号は、第2エコー/第2クロストークキャンセラ90aにおいて、第9妨害信号が除去される。第9妨害信号(すなわち第2エコー/第2クロストーク信号)は、第2エコー14a及び第2クロストーク18aの程度を示す(推定された)信号である。よって、第2エコー/第2クロストークキャンセラ90aの出力信号は、第1ハウリングキャンセラ60aの出力信号から、第2エコー14a及び第2クロストーク18aの影響が除去された信号となり、第1音声認識回路31、第1エコー/第1クロストークキャンセラ80a及び第1スピーカ22に出力される。
 続いて、第1音声認識回路31は、第1話者11の音声から、第1ハウリングキャンセラ60aにより第1ハウリング15aが除去され、第2エコー/第2クロストークキャンセラ90aにより第2エコー14aと第2クロストーク18aが除去されたデジタル音声データが入力される。第1音声認識回路31は、入力されたデジタル音声データに対し、音声認識を行った結果である第1文字列を制御回路37に出力する。
 第1スピーカ22に入力された信号は、音声となって出力される。
 同様に、第2話者12の音声は、第2マイク23に入力される。また、第2話者12の音声以外に、第2ハウリング16a、第1エコー13a及び第1クロストーク17aが、第2マイク23に入力される。第2マイク23の出力信号は、第2ハウリングキャンセラ70aにおいて、第2ハウリング信号が除去される。第2ハウリング信号は、第2ハウリング16aの程度を示す(推定された)信号である。よって、第2ハウリングキャンセラ70aの出力信号は、第2マイク23の出力信号から、第2ハウリング16aの影響が除去された信号となる。
 続いて、第2ハウリングキャンセラ70aの出力信号は、第1エコー/第1クロストークキャンセラ80aにおいて、第10妨害信号が除去される。第10妨害信号(すなわち第1エコー/第1クロストーク信号)は、第1エコー13a及び第1クロストーク17aの程度を示す(推定された)信号である。よって、第1エコー/第1クロストークキャンセラ80aの出力信号は、第2ハウリングキャンセラ70aの出力信号から、第1エコー13a及び第1クロストーク17aの影響が除去された信号となり、第2音声認識回路32、第2エコー/第2クロストークキャンセラ90a及び第2スピーカ24に出力される。
 続いて、第2音声認識回路32は、第2話者12の音声から、第2ハウリングキャンセラ70aにより第2ハウリング16aが除去され、第1エコー/第1クロストークキャンセラ80aにより第1エコー13a及び第1クロストーク17aが除去されたデジタル音声データが入力される。第2音声認識回路32は、入力されたデジタル音声データに対し、音声認識を行った結果である第2文字列を制御回路37に出力する。
 第2スピーカ24に入力された信号は、音声となって出力される。
 制御回路37は、第1音声認識回路31が出力した第1話者11の音声の認識結果である第1言語の第1文字列、第2音声認識回路32が出力した第2話者12の音声の認識結果である第2言語の第2文字列を、映像信号発生回路38に出力する。
 映像信号発生回路38は、第1音声認識回路31が出力した第1話者11の音声の認識結果である第1言語の第1文字列、及び、第2音声認識回路32が出力した第2話者12の音声の認識結果である第2言語の第2文字列を、第1表示回路25及び第2表示回路26に出力する。
 翻訳装置20aでは、第1話者11の音声及び第2話者12の音声は以上のように、処理される。
 以上により、第1音声認識回路31に入力される出力信号は、第1マイク21に入力された音声のうち、第1ハウリング15a、第2エコー14a及び第2クロストーク18aの影響が除去された出力信号、つまり、音響的雑音が除去された第1話者11の音声のみとなる。さらには、第1スピーカ22から出力される音声は、第1マイク21に入力された音声のうち、第1ハウリング15a、第2エコー14a及び第2クロストーク18aの影響が除去された出力信号、つまり、音響的雑音が除去された第1話者11の音声のみとなる。
 また、第2音声認識回路32に入力される出力信号は、第2マイク23に入力された音声のうち、第2ハウリング16a、第1エコー13a及び第1クロストーク17aの影響が除去された出力信号、つまり、音響的雑音が除去された第2話者12の音声のみとなる。さらには、第2スピーカ24から出力される音声は、第2マイク23に入力された音声のうち、第2ハウリング16a、第1エコー13a及び第1クロストーク17aの影響が除去された出力信号、つまり、音響的雑音が除去された第2話者12の音声のみとなる。
 [2-3.効果等]
 以上説明したように、翻訳装置20aは、第1言語選択回路27が受け付けた第1言語と、第2言語選択回路28が受け付けた第2言語とが同一の場合、制御回路37は、第1エコーキャンセラ40と、第2エコーキャンセラ50と、第1翻訳回路33と、第2翻訳回路34と、第1音声合成回路35と、第2音声合成回路36とに、機能を停止させる。
 このような翻訳装置20aは、第1言語と第2言語とが同一の場合、第1エコーキャンセラ40と、第2エコーキャンセラ50と、第1翻訳回路33と、第2翻訳回路34と、第1音声合成回路35と、第2音声合成回路36とに機能を停止させ、処理速度を上げることができる。また、翻訳が不要だが、拡声することができるため、第1話者11と第2話者12とが離れている場合や、周囲が騒がしい場合であっても、相互に会話を行うことができる。
 (実施の形態3)
 実施の形態2では、第1話者11の第1言語と第2話者12の第2言語とが同一で、拡声が必要な場合を示した。一方で、実施の形態3では、第1話者11の第1言語と第2話者12の第2言語が同一であり、拡声が不要な場合に適した構成を示す。
 実施の形態3では、実施の形態1と比べ、エコーに関するキャンセラと、翻訳機能と、翻訳した音声を出力する機能と、拡声する機能が不要になる。
 [3-1.構成]
 図6は、実施の形態3における翻訳装置20bの構成を示すブロック図である。なお、実施の形態3では、実施の形態1と共通の構成要素については同一の符号を付し、その詳細な説明を省略する。
 実施の形態3における翻訳装置20bは、実施の形態1と比べ、第1話者11の第1言語と第2話者12の第2言語とが同一であり、拡声が不要なため、第1翻訳回路33、第2翻訳回路34、第1音声合成回路35、第2音声合成回路36、第1スピーカ22、第2スピーカ24が不要となる。さらに、第1スピーカ22、第2スピーカ24が不要となることで、第1エコー13、第2エコー14、第3エコー15、及び、第4エコー16が発生しないため、第1エコーキャンセラ40、第2エコーキャンセラ50、第3エコーキャンセラ60、及び、第4エコーキャンセラ70も不要となる。
 一方で、第1表示回路25及び第2表示回路26は、第1話者11及び第2話者12の発声を文字列として表示するため必要となる。また、翻訳装置20bは、第1マイク21及び第2マイク23も備えているため、ある話者の音声がその話者以外の音声を入力するためのマイクに入力される現象であるクロストークが発生する。そのため、クロストークをキャンセルする機能は必要となる。
 [3-2.動作]
 以上のように構成された本実施の形態における翻訳装置20bは、次のように動作する。ここでは、実施の形態1で示した翻訳装置20と異なる点を中心に記述する。
 まずは、制御回路37の動作について記述する。
 予め、第1言語選択回路27及び第2言語選択回路28は、第1話者11から第1話者11が用いる第1言語の選択及び第2話者12から第2話者12が用いる第2言語の選択を受け付け、制御回路37に通知する。なお、これまで記したように、実施の形態3においては、第1言語と第2言語は同一である。さらに、拡声が不要なため、制御回路37は、第1翻訳回路33、第2翻訳回路34、第1音声合成回路35、第2音声合成回路36、第1スピーカ22、第2スピーカ24、第1エコーキャンセラ40、第2エコーキャンセラ50、第3エコーキャンセラ60、及び、第4エコーキャンセラ70の機能を停止させる。
 次に音声について記述する。
 第1話者11の音声は、第1マイク21に入力される。また、第1話者11の音声以外に、第2クロストーク18が、第1マイク21に入力される。第1マイク21の出力信号は、第2クロストークキャンセラ90において、第6妨害信号(すなわち第2クロストーク信号)が除去される。第6妨害信号は、第2クロストーク18の程度を示す(推定された)信号である。よって、第2クロストークキャンセラ90の出力信号は、第1マイク21の出力信号から、第2クロストーク18の影響が除去された信号となり、第1音声認識回路31と第1クロストークキャンセラ80に出力される。
 続いて、第1音声認識回路31には、第1話者11の音声から、第2クロストークキャンセラ90により第2クロストーク18が除去されたデジタル音声データが入力される。第1音声認識回路31は、入力されたデジタル音声データに対し、音声認識を行った結果である第1文字列を制御回路37に出力する。
 同様に、第2話者12の音声は、第2マイク23に入力される。また、第2話者12の音声以外に、第1クロストーク17が、第2マイク23に入力される。第2マイク23の出力信号は、第1クロストークキャンセラ80において、第5妨害信号(すなわち第1クロストーク信号)が除去される。第5妨害信号は、第1クロストーク17の程度を示す(推定された)信号である。よって、第1クロストークキャンセラ80の出力信号は、第2マイク23の出力信号から、第1クロストーク17の影響が除去された信号となり、第2音声認識回路32と第2クロストークキャンセラ90に出力される。
 続いて、第2音声認識回路32には、第2話者12の音声から、第1クロストークキャンセラ80により第1クロストーク17が除去されたデジタル音声データが入力される。第2音声認識回路32は、入力されたデジタル音声データに対し、音声認識を行った結果である第2文字列を制御回路37に出力する。
 制御回路37は、第1音声認識回路31が出力した第1話者11の音声の認識結果である第1言語の第1文字列、第2音声認識回路32が出力した第2話者12の音声の認識結果である第2言語の第2文字列を映像信号発生回路38に出力する。
 映像信号発生回路38は、第1音声認識回路31が出力した第1話者11の音声の認識結果である第1言語の第1文字列、及び、第2音声認識回路32が出力した第2話者12の音声の認識結果である第2言語の第2文字列を、第1表示回路25及び第2表示回路26に出力する。
 翻訳装置20bでは、第1話者11の音声及び第2話者12の音声は以上のように、処理される。
 以上により、第1音声認識回路31に入力される出力信号は、第1マイク21に入力された音声のうち、第2クロストーク18の影響が除去された出力信号、つまり、音響的雑音が除去された第1話者11の音声のみとなる。また、第2音声認識回路32に入力される出力信号は、第2マイク23に入力された音声のうち、第1クロストーク17の影響が除去された出力信号、つまり、音響的雑音が除去された第2話者12の音声のみとなる。
 [3-3.効果]
 このような翻訳装置20bは、第1言語と第2言語とが同一、かつ拡声が不要な場合、第1エコーキャンセラ40と、第2エコーキャンセラ50と、第3エコーキャンセラ60と、第4エコーキャンセラ70と、第1翻訳回路33と、第2翻訳回路34と、第1音声合成回路35と、第2音声合成回路36と、第1スピーカ22と第2スピーカ24とに機能を停止させ、処理速度を上げることができる。
 [4-1.構成の選択]
 これまで、実施の形態1~3において、翻訳の要不要、拡声の要不要によって判断される構成を示した。
 図7は、実施の形態1~3のうち、制御回路37が最適な構成を選択するフローチャートである。
 まず、第1言語選択回路27は、第1話者11から第1話者11が用いる第1言語の選択を受け付ける(ステップS300)。さらに、受け付けた第1言語を制御回路37に通知する。
 次に、第2言語選択回路28は、第2話者12から第2話者12が用いる第2言語の選択を受け付ける(ステップS301)。さらに、受け付けた第2言語を制御回路37に通知する。
 制御回路37は、第1言語選択回路27が受け付けた第1言語と、第2言語選択回路28が受け付けた第2言語とが同一か否かを判断する(ステップS302)。
 制御回路37は、第1言語選択回路27が受け付けた第1言語と、第2言語選択回路28が受け付けた第2言語とが異なる場合(ステップS302でNO)、実施の形態1の構成となるように各構成の機能を稼働させる(ステップS303)。
 制御回路37は、第1言語選択回路27が受け付けた第1言語と、第2言語選択回路28が受け付けた第2言語とが同一の場合(ステップS302でYES)、拡声が必要か否かを判断する(ステップS304)。
 制御回路37は、拡声が必要な場合(ステップS304でYES)、実施の形態2の構成となるように各構成の機能を稼働させる(ステップS305)。
 制御回路37は、拡声が不要な場合(ステップS304でNO)、実施の形態3の構成となるように各構成の機能を稼働させる(ステップS306)。
 なお、ステップS304における拡声が要か否かの判断は、制御回路37によって行われてもよいし、第1話者11又は、第2話者12によって行われてもよい。第1話者11又は、第2話者12によって行われる場合、第1言語選択回路27、第2言語選択回路28、第1表示回路25及び第2表示回路26のいずれか1つの近傍に、拡声の要不要を設定するスイッチを設けてもよい。
 (実施の形態4)
 実施の形態1では、第1言語選択回路27と第2言語選択回路28とによって、第1話者11と第2話者12とが用いる言語を選択する。一方で、実施の形態4では、新たに、第1話者11の音声と第2話者12の音声とによって、第1話者11と第2話者12とが用いる言語を識別する機能を付与した構成を示す。
 [5-1.構成]
 図8は、実施の形態4における翻訳装置20cの構成を示すブロック図である。なお、実施の形態4では、実施の形態1と共通の構成要素については同一の符号を付し、その詳細な説明を省略する。
 実施の形態4における翻訳装置20cは、実施の形態1に加え、第1言語識別回路311と第2言語識別回路321とを備える。さらに、第1言語選択回路27と第2言語選択回路28とを備えていなくてもよい。
 第1言語識別回路311は、第1音声に基づいて第1言語を識別して制御回路37に通知する。すなわち、第1話者11の第1音声に基づいて第1話者11が用いる第1言語を識別する。例えば、第1音声認識回路31は、第1話者11の第1音声を音声認識して第1文字列を第1言語識別回路311へも出力する。
 第2言語識別回路321は、第2音声に基づいて第2言語を識別して制御回路37に通知する。すなわち、第2話者12の第2音声に基づいて第2話者12が用いる第2言語を識別する。例えば、第2音声認識回路32は、第2話者12の第2音声を音声認識して第2文字列を第2言語識別回路321へも出力する。
 さらに、制御回路37は、第1言語識別回路311が識別した第1言語と、第2言語識別回路321が識別した第2言語と、に基づいて、第1音声認識回路31に、第1言語で音声認識させ、第2音声認識回路32に、第2言語で音声認識させ、第1翻訳回路33に、第1言語から第2言語に翻訳させ、第2翻訳回路34に、第2言語から第1言語に翻訳させ、第1音声合成回路35に、第2言語で音声合成させ、第2音声合成回路36に、第1言語で音声合成させてもよい。
 [5-2.動作]
 以上のように構成された本実施の形態における翻訳装置20cは、次のように動作する。ここでは、実施の形態1で示した翻訳装置20と異なる点を中心に記述する。
 これまで記したように、実施の形態1で示した翻訳装置20と異なる点として、実施の形態4で示す翻訳装置20cでは、第1言語選択回路27と第2言語選択回路28とを備えず、第1言語識別回路311と第2言語識別回路321とを備える。
 そのため、予め、第1言語選択回路27と第2言語選択回路28とを用いて、言語の選択が行われることはない。
 第1話者11の音声は、第1マイク21に入力される。また、第1話者11の音声以外に、実施の形態1と同じ音響的雑音が、第1マイク21に入力される。第1マイク21の出力信号が第1音声認識回路31及び第1クロストークキャンセラ80に到達するまでの処理は実施の形態1と同じである。その結果、第1音声認識回路31及び第1クロストークキャンセラ80に入力されるデジタル音声データは、実施の形態1と同じである。すなわち、第1音声認識回路31及び第1クロストークキャンセラ80は、第1話者11の音声から、第2エコーキャンセラ50により第2エコー14が除去され、第3エコーキャンセラ60により第3エコー15が除去され、第2クロストークキャンセラ90により第2クロストーク18が除去されたデジタル音声データが入力される。第1音声認識回路31は、入力されたデジタル音声データを第1言語識別回路311へ通知する。
 また、第2話者12の音声は、第2マイク23に入力される。また、第2話者12の音声以外に、実施の形態1と同じ音響的雑音が、第2マイク23に入力される。第2マイク23の出力信号が第2音声認識回路32及び第2クロストークキャンセラ90に到達するまでの処理は実施の形態1と同じである。その結果、第2音声認識回路32及び第2クロストークキャンセラ90に入力されるデジタル音声データは、実施の形態1と同じである。すなわち、第2音声認識回路32及び第2クロストークキャンセラ90は、第2話者12の音声から、第1エコーキャンセラ40により第1エコー13が除去され、第4エコーキャンセラ70により第4エコー16が除去され、第1クロストークキャンセラ80により第1クロストーク17が除去されたデジタル音声データが入力される。第2音声認識回路32は、入力されたデジタル音声データを第2言語識別回路321へ通知する。
 続いて、第1言語識別回路311は、入力されたデジタル音声データに基づいて第1言語を識別して制御回路37に通知する。
 更に、第2言語識別回路321は、入力されたデジタル音声データに基づいて第2言語を識別して制御回路37に通知する。
 続いて、制御回路37は、第1言語識別回路311から通知された第1言語を、第1音声認識回路31、第1翻訳回路33、第2翻訳回路34、及び第1音声合成回路35へ指示し、第2言語識別回路321から通知された第2言語を、第2音声認識回路32、第1翻訳回路33、第2翻訳回路34、及び第2音声合成回路36へ指示する。
 次に、第1音声認識回路31は、制御回路37から指示された第1話者11の第1言語の情報に基づいて、入力されたデジタル音声データに対し、音声認識を行った結果である第1文字列を第1翻訳回路33と制御回路37とに出力する。
 さらに、第2音声認識回路32は、制御回路37から指示された第2話者12の第2言語の情報に基づいて、入力されたデジタル音声データに対し、音声認識を行った結果である第2文字列を第2翻訳回路34と制御回路37とに出力する。
 続いて、第1翻訳回路33は、第1音声認識回路31が出力した第1文字列を、制御回路37から指示された第1話者11の第1言語から第2話者12の第2言語の第3文字列に変換し、第1音声合成回路35及び制御回路37に出力する。
 更に、第2翻訳回路34は、第2音声認識回路32が出力した第2文字列を、制御回路37から指示された第2話者12の第2言語から第1話者11の第1言語の第4文字列に変換し、第2音声合成回路36及び制御回路37に出力する。
 この時点で、第1音声合成回路35と第2音声合成回路36と制御回路37とが受け取った文字列は、実施の形態1と同一となるため、以降の処理手順は、実施の形態1と同様である。
 [5-3.効果]
 以上説明したように、翻訳装置20cは、さらに、第1音声に基づいて第1言語を識別して制御回路37に通知する第1言語識別回路311と、第2音声に基づいて第2言語を識別して制御回路37に通知する第2言語識別回路321とを備え、制御回路37は、第1言語識別回路311が識別した第1言語と、第2言語識別回路321が識別した第2言語と、に基づいて、第1音声認識回路31に、第1言語で音声認識させ、第2音声認識回路32に、第2言語で音声認識させ、第1翻訳回路33に、第1言語から第2言語に翻訳させ、第2翻訳回路34に、第2言語から第1言語に翻訳させ、第1音声合成回路35に、第2言語で音声合成させ、第2音声合成回路36に、第1言語で音声合成させる。
 このような翻訳装置20cは、話者が言語選択回路を使用する必要がなく、より簡便に翻訳できるようになる。
 (実施の形態5)
 実施の形態2では、第1話者11と第2話者12とが用いる言語を選択し、第1話者11の第1言語と第2話者12の第2言語が同一である場合に適した構成を示した。さらに、実施の形態4においては、第1話者11の音声と第2話者12の音声によって、第1話者11と第2話者12とが用いる言語を識別する機能を付与した構成を示した。
 そこで、実施の形態5では、実施の形態4の構成において、実施の形態2と同じく第1話者11の第1言語と第2話者12の第2言語が同一である場合に適した構成を示す。
 [6-1.構成]
 図9は、実施の形態5における翻訳装置20dの構成を示すブロック図である。なお、実施の形態5では、実施の形態2及び実施の形態4と共通の構成要素については同一の符号を付し、その詳細な説明を省略する。
 実施の形態5における翻訳装置20dは、実施の形態2に加え、実施の形態4で説明した第1言語識別回路311と第2言語識別回路321とを備える。
 さらに、制御回路37は、第1エコーキャンセラ40と、第2エコーキャンセラ50と、第1翻訳回路33と、第2翻訳回路34と、第1音声合成回路35と、第2音声合成回路36とに、機能を停止させてもよい。
 [6-2.動作]
 以上のように構成された本実施の形態における翻訳装置20dは、次のように動作する。ここでは、実施の形態2で示した翻訳装置20aと異なる点を中心に記述する。
 これまで記したように、実施の形態2で示した翻訳装置20aと異なる点として、実施の形態5で示す翻訳装置20dでは、第1言語選択回路27と第2言語選択回路28を備えず、第1言語識別回路311と第2言語識別回路321とを備える。
 そのため、予め、第1言語選択回路27と第2言語選択回路28とを用いて、言語の選択が行われることはない。
 まずは、制御回路37の動作について記述する。
 この実施の形態5は、実施の形態4で示した[5-2.動作]において、第1話者11の第1言語と第2話者12の第2言語とが同一である場合に適用される。実施の形態4の構成において、制御回路37は、第1言語識別回路311及び第2言語識別回路321から、第1言語と第2言語とが同一であると通知されている。そのため、この実施の形態5においては、制御回路37は、第1エコーキャンセラ40と、第2エコーキャンセラ50と、第1翻訳回路33と、第2翻訳回路34と、第1音声合成回路35と、第2音声合成回路36の機能を停止させる。
 次に音声について記述する。
 第1話者11の音声は、第1マイク21に入力される。また、第1話者11の音声以外に、実施の形態2と同じ音響的雑音が、第1マイク21に入力される。第1マイク21の出力信号が第1音声認識回路31、第1スピーカ22及び第1エコー/第1クロストークキャンセラ80aに到達するまでの処理は実施の形態2と同じである。その結果、第1音声認識回路31、第1スピーカ22及び第1エコー/第1クロストークキャンセラ80aに入力されるデジタル音声データは、実施の形態2と同じである。すなわち、第1音声認識回路31、第1スピーカ22及び第1エコー/第1クロストークキャンセラ80aは、第1話者11の音声から、第1ハウリングキャンセラ60aにより第1ハウリング15aが除去され、第2エコー/第2クロストークキャンセラ90aにより第2エコー14aと第2クロストーク18aとが除去されたデジタル音声データが入力される。
 第1音声認識回路31は、入力されたデジタル音声データに対し、音声認識を行った結果である第1文字列を制御回路37と第1言語識別回路311とに出力する。
 続いて、第1言語識別回路311は、入力されたデジタル音声データに基づいて第1言語を識別して制御回路37に通知する。
 また、第2話者12の音声は、第2マイク23に入力される。また、第2話者12の音声以外に、実施の形態2と同じ音響的雑音が、第2マイク23に入力される。第2マイク23の出力信号が第2音声認識回路32、第2スピーカ24及び第2エコー/第2クロストークキャンセラ90aに到達するまでの処理は実施の形態2と同じである。その結果、第2音声認識回路32、第2スピーカ24及び第2エコー/第2クロストークキャンセラ90aに入力されるデジタル音声データは、実施の形態2と同じである。すなわち、第2音声認識回路32、第2スピーカ24及び第2エコー/第2クロストークキャンセラ90aは、第2話者12の音声から、第2ハウリングキャンセラ70aにより第2ハウリング16aが除去され、第1エコー/第1クロストークキャンセラ80aにより第1エコー13aと第1クロストーク17aとが除去されたデジタル音声データが入力される。
 第2音声認識回路32は、入力されたデジタル音声データに対し、音声認識を行った結果である第2文字列を制御回路37と第2言語識別回路321とに出力する。
 更に、第2言語識別回路321は、入力されたデジタル音声データに基づいて第2言語を識別して制御回路37に通知する。
 なお、これまで記したように、実施の形態5においては、第1言語と第2言語とは同一である。すなわち翻訳機能と翻訳した音声を出力する機能とが不要になる。
 この時点で、第1スピーカ22と第2スピーカ24と制御回路37と第1エコー/第1クロストークキャンセラ80aと第2エコー/第2クロストークキャンセラ90aとが受け取った信号は、実施の形態2と同一となるため、以降の処理手順は、実施の形態2と同様である。
 [6-3.効果]
 以上説明したように、翻訳装置20dは、第1言語識別回路311が識別した第1言語と、第2言語識別回路321が識別した第2言語とが同一の場合、制御回路37は、第1エコーキャンセラ40と、第2エコーキャンセラ50と、第1翻訳回路33と、第2翻訳回路34と、第1音声合成回路35と、第2音声合成回路36とに、機能を停止させる。
 このような翻訳装置20dは、話者が言語選択回路を使用する必要がなく、より簡便に翻訳できるようになる。さらに、第1言語と第2言語とが同一の場合、第1エコーキャンセラ40と、第2エコーキャンセラ50と、第1翻訳回路33と、第2翻訳回路34と、第1音声合成回路35と、第2音声合成回路36とに機能を停止させ、処理速度を上げることができる。
 (実施の形態6)
 実施の形態3では、第1話者11と第2話者12とが用いる言語を選択し、第1話者11の第1言語と第2話者12の第2言語とが同一であり、拡声が不要な場合に適した構成を示した。さらに、実施の形態4においては、第1話者11の音声と第2話者12の音声によって、第1話者11と第2話者12とが用いる言語を識別する機能を付与した構成を示した。
 そこで、実施の形態6では、実施の形態4の構成において、実施の形態3と同じく第1話者11の第1言語と第2話者12の第2言語とが同一であり、拡声が不要な場合に適した構成を示す。
 [7-1.構成]
 図10は、実施の形態6における翻訳装置20eの構成を示すブロック図である。なお、実施の形態6では、実施の形態3と実施の形態4と共通の構成要素については同一の符号を付し、その詳細な説明を省略する。
 実施の形態6における翻訳装置20eは、実施の形態3に加え、実施の形態4で説明した第1言語識別回路311と第2言語識別回路321とを備える。
 [7-2.動作]
 以上のように構成された本実施の形態における翻訳装置20eで次のように動作する。ここでは、実施の形態3で示した翻訳装置20bと異なる点を中心に記述する。
 これまで記したように、実施の形態3で示した翻訳装置20bと異なる点として、実施の形態6で示す翻訳装置20eでは、第1言語選択回路27と第2言語選択回路28を備えず、第1言語識別回路311と第2言語識別回路321とを備える。
 そのため、予め、第1言語選択回路27と第2言語選択回路28とを用いて、言語の選択が行われることはない。
 まずは、制御回路37の動作について記述する。
 この実施の形態6は、実施の形態4で示した[5-2.動作]において、第1話者11の第1言語と第2話者12の第2言語とが同一であり、拡声が不要な場合に適用される。実施の形態4の構成において、制御回路37は、第1言語識別回路311及び第2言語識別回路321から、第1言語と第2言語とが同一であると通知されている。そのため、この実施の形態6においては、制御回路37は、第1翻訳回路33、第2翻訳回路34、第1音声合成回路35、第2音声合成回路36、第1スピーカ22、第2スピーカ24、第1エコーキャンセラ40、第2エコーキャンセラ50、第3エコーキャンセラ60、及び、第4エコーキャンセラ70の機能を停止させる。
 次に音声について記述する。
 第1話者11の音声は、第1マイク21に入力される。また、第1話者11の音声以外に、実施の形態3と同じ音響的雑音が、第1マイク21に入力される。第1マイク21の出力信号が第1音声認識回路31、及び第1クロストークキャンセラ80に到達するまでの処理は実施の形態3と同じである。その結果、第1音声認識回路31、及び第1クロストークキャンセラ80に入力されるデジタル音声データは、実施の形態3と同じである。すなわち、第1音声認識回路31、及び第1クロストークキャンセラ80は、第1話者11の音声から、第2クロストークキャンセラ90により第2クロストーク18が除去されたデジタル音声データが入力される。第1音声認識回路31は、入力されたデジタル音声データに対し、音声認識を行った結果である第1文字列を制御回路37、第1言語識別回路311及び映像信号発生回路38に出力する。
 続いて、第1言語識別回路311は、入力されたデジタル音声データに基づいて第1言語を識別して制御回路37に通知する。
 また、第2話者12の音声は、第2マイク23に入力される。また、第2話者12の音声以外に、実施の形態3と同じ音響的雑音が、第2マイク23に入力される。第2マイク23の出力信号が第2音声認識回路32、及び第2クロストークキャンセラ90に到達するまでの処理は実施の形態3と同じである。その結果、第2音声認識回路32、及び第2クロストークキャンセラ90に入力されるデジタル音声データは、実施の形態2と同じである。すなわち、第2音声認識回路32、及び第2クロストークキャンセラ90は、第2話者12の音声から、第1クロストークキャンセラ80により第1クロストーク17が除去されたデジタル音声データが入力される。第2音声認識回路32は、入力されたデジタル音声データに対し、音声認識を行った結果である第2文字列を制御回路37、第2言語識別回路321及び映像信号発生回路38に出力する。
 更に、第2言語識別回路321は、入力されたデジタル音声データに基づいて第2言語を識別して制御回路37に通知する。
 この時点で、制御回路37と映像信号発生回路38と第1クロストークキャンセラ80と第2クロストークキャンセラ90とが受け取った信号は、実施の形態3と同一となるため、以降の処理手順は、実施の形態3と同様である。
 [7-3.効果]
 このような翻訳装置20eは、話者が言語選択回路を使用する必要がなく、より簡便に翻訳できるようになる。第1言語と第2言語とが同一、かつ拡声が不要な場合、第1エコーキャンセラ40と、第2エコーキャンセラ50と、第3エコーキャンセラ60と、第4エコーキャンセラ70と、第1翻訳回路33と、第2翻訳回路34と、第1音声合成回路35と、第2音声合成回路36と、第1スピーカ22と第2スピーカ24とに機能を停止させ、処理速度を上げることができる。
 (他の実施の形態)
 以上のように、本出願において開示する技術の例示として、実施の形態1~6を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略などを行った実施の形態にも適用できる。また、上記実施の形態1~6で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
 なお、上記で説明した制御回路37は、第1音声合成回路35の出力と、第2音声合成回路36の出力とが、時間的に重複しないように制御してもよい。これにより、全てのエコーキャンセラの不要な信号を除去する精度を高めることができ、さらに、両話者の話しやすさと聞き取りやすさとを向上させることができる。また、制御回路37は、一方の話者の合成音声の出力を優先してもよい。例えば、図1に示す第1話者11のように客の合成音声の出力を優先してもよい。
 また、実施の形態5と実施の形態6とにおいては、実施の形態4で第1話者11の第1言語と第2話者12の第2言語が同一であることを識別した後に、適用されると記したが、これに限らない。例えば、実施の形態4~6で説明した第1言語識別回路311と第2言語識別回路321とを備える場合における翻訳言語を決定する方法の一例を示す。まず、第1話者11と第2話者12は、本題の翻訳したい内容を話す前に、お互いの母国語を用いて、挨拶する。すると、第1言語識別回路311及び第2言語識別回路321は、言語を識別し、制御回路37に通知する。続いて、制御回路37は、通知された言語に基づいて、第1翻訳回路33及び第2翻訳回路34に指示し、第1翻訳回路33及び第2翻訳回路34は、翻訳言語を決定する。このような方法を用いてもよい。なお、挨拶でなくてもよく、お互いの母国語を使った他の言葉でもよい。
 さらに、一方の話者の言語を予め設定しておいてもよい。例えば、図1に示す第2話者12のように受け付け側の言語を予め設定しておくことで、翻訳の処理が早くなる。
 また、上記の必要のない構成要素、不要な構成要素とは、存在しなくてもよいし、制御回路37が、構成要素の機能を停止させてもよい。
 また、第1音声合成回路35の出力と、第2音声合成回路36とは、話者の声質を模擬する機能を有していてもよい。声質とは、例えば、声の高低などである。これにより、両話者は自然に会話を行うことができる。
 また、制御回路37は、第1音声合成回路35が第1翻訳音声を出力している期間にだけ、第1エコーキャンセラ40及び第3エコーキャンセラ60に、第1伝達関数及び第3伝達関数を更新させてもよい。さらに、制御回路37は、第2音声合成回路36が第2翻訳音声を出力している期間にだけ、第2エコーキャンセラ50及び第4エコーキャンセラ70に、第2伝達関数及び第4伝達関数を更新させてもよい。
 なお、図1に示した翻訳装置20においては、第1表示回路25と第2表示回路26の2つの表示回路を有しているが、図11に示すようにこれらが1つとなってもよい。
 図11は、翻訳装置20の使用状態の一例を示す図である。
 図11に示す翻訳装置20の一例では、例えば実施の形態1の構成要素が一体となった構成を示している。第2話者12側に表示される第1表示回路25では、第1話者11の発言は黒文字で、第2話者12の発言は白抜き文字で表され、第1話者11側に表示される第2表示回路26では、第1話者11の発言は白抜き文字で、第2話者12の発言は黒文字で表される。以上のような構成により、第1話者11と第2話者12との発言の区別がつきやすく、第1話者11と第2話者12にとって、視認性の良い翻訳装置20となり得る。
 また、実施の形態1~6においては、第1話者11と第2話者12の双方向の会話について記したが、話者は2人に限られるものではない。図1に示す、第1話者11は、例えば、客としたが、客は複数人いても構わない。複数人が順次発話することで、順次翻訳音声を出力することができる。当然ながら、図1に示す、受け付け側が複数人いても構わない。
 なお、図11に示す翻訳装置20の一例では、第1話者11側の第1スピーカ22、及び、第2話者12側の第2スピーカ24の2つのスピーカを有している。しかし、1つのスピーカだけを有し、第1音声合成回路35が出力する第1翻訳音声と第2音声合成回路36が出力する第2翻訳音声とを加算して加算翻訳音声を出力する加算回路を追加して、上述の1つのスピーカに出力するようにしてもよい。
 この場合、第1エコー13と第4エコー16が同じ現象になるため、第4エコーキャンセラ70は不要となり、第1エコーキャンセラ40だけが必要となる。同様に、第2エコー14と第3エコー15が同じ現象になるため、第3エコーキャンセラ60は不要となり、第2エコーキャンセラ50だけが必要となる。以上の構成から、ハードウェアの規模とコストを大幅に削減することが可能となる。
 なお、1つのスピーカから拡声された加算翻訳音声が第2マイク23に入力される現象を第5エコーとすると、第5エコーは、第1エコー13及び第4エコー16と同じ現象となる。そのため、第1エコーキャンセラ40と同じ構成、機能をもつ第5エコーキャンセラが必要となる。また、1つのスピーカから拡声された加算翻訳音声が第1マイク21に入力される現象を第6エコーとすると、第6エコーは、第2エコー14及び第3エコー15と同じ現象となる。そのため、第2エコーキャンセラ50と同じ構成、機能をもつ第6エコーキャンセラが必要となる。
 以上説明したように、翻訳装置20は、第1話者11と第2話者12とによる会話において、一方の話者の言語を他方の話者の言語に翻訳して合成音声を拡声する翻訳装置であって、第1話者11の第1音声を入力するための第1マイク21と、第1音声を音声認識して第1文字列を出力するための第1音声認識回路と、第1音声認識回路から出力された第1文字列を第2話者12の言語に翻訳して第3文字列を出力するための第1翻訳回路と、第1翻訳回路から出力された第3文字列を第1翻訳音声に変換するための第1音声合成回路と、第2話者12の第2音声を入力するための第2マイク23と、第2音声を音声認識して第2文字列を出力するための第2音声認識回路と、第2音声認識回路から出力された第2文字列を第1話者11の言語に翻訳して第4文字列を出力するための第2翻訳回路と、第2翻訳回路から出力された第4文字列を第2翻訳音声に変換するための第2音声合成回路と、第1音声合成回路が出力する第1翻訳音声と第2音声合成回路が出力する第2翻訳音声とを加算して加算翻訳音声を出力する加算回路と、加算回路が出力する加算翻訳音声を拡声するためのスピーカと、スピーカから拡声された加算翻訳音声が第2マイク23に入力される現象を第5エコーとしたとき、加算翻訳音声と第5エコーに対応する第5伝達関数とを用いて、第5エコーを示す第5エコー信号を推定し、第5エコー信号を、第2マイク23の出力信号から除去する第5エコーキャンセラと、スピーカから拡声された加算翻訳音声が第1マイク21に入力される現象を第6エコーとしたとき、加算翻訳音声と第6エコーに対応する第6伝達関数とを用いて、第6エコーを示す第6エコー信号を推定し、第6エコー信号を、第1マイク21の出力信号から除去する第6エコーキャンセラと、制御回路とを備え、制御回路は、第1音声合成回路が第1翻訳音声を出力し、又は第2音声合成回路が第2翻訳音声を出力している期間に、第5エコーキャンセラに、第5エコー信号を推定する伝達関数を更新させ、第1音声合成回路が第1翻訳音声を出力し、又は第2音声合成回路が第2翻訳音声を出力している期間に、第6エコーキャンセラに、第6エコー信号を推定する伝達関数を更新させる。
 このような翻訳装置20は、複数の話者の音声と、この複数の話者の音声を認識し相手の言語に翻訳し音声合成して出力された複数の合成音声とが、同時に重複して存在するような場合でも、エコーを含む音響的雑音を除去し、安定して音声認識しながら、相互に会話を行うことができる。さらに、少ない構成要素によって、上記を達成できることから、ハードウェアの規模とコストを大幅に削減することが可能となる。
 また例えば翻訳装置20は、さらに、第1音声が第2マイク23に入力される現象を第1クロストークとしたとき、第1音声を用いて、第1クロストークを示す第1クロストーク信号を推定し、第1クロストーク信号を、第2マイク23の出力信号から除去する第1クロストークキャンセラと、第2音声が第1マイク21に入力される現象を第2クロストークとしたとき、第2音声を用いて、第2クロストークを示す第2クロストーク信号を推定し、第2クロストーク信号を、第1マイク21の出力信号から除去する第2クロストークキャンセラとを備える。
 このような翻訳装置20は、複数の話者の音声と、この複数の話者の音声を認識し相手の言語に翻訳し音声合成して出力された複数の合成音声とが、同時に重複して存在するような場合でも、エコー及びクロストークを含む音響的雑音を除去し、安定して音声認識しながら、相互に会話を行うことができる。
 上記で説明したような翻訳方法は、例えば、プログラムを実行するプロセッサによって行われる。つまり、上記実施の形態における第1エコーキャンセラ40、第2エコーキャンセラ50、第3エコーキャンセラ60、第4エコーキャンセラ70、第1クロストークキャンセラ80、及び、第2クロストークキャンセラ90は、プログラムを実行するプロセッサによって実現されてもよい。そのプロセッサには、上記で記したCPUに加え、DSP(Digital Signal Processor)、MPU(Micro-Processing Unit)、及び、マイクロプロセッサが含まれる。
 また、このような翻訳方法は、上記で記したROM、CD-ROM等のコンピュータ読み取り可能な記録媒体に記録されるプログラム、及び、そのプログラムが記録された記録媒体で実現されてもよい。また、このような翻訳方法は、上記プログラムを実行するコンピュータ装置が実行してもよい。
 なお、上述の実施の形態は、本開示における技術を例示するためのものであるから、請求の範囲又はその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
 本開示は、複数の話者の音声と、この複数の話者の音声を認識し相手の言語に翻訳し音声合成して出力された複数の合成音声とが、同時に重複して存在するような場合でも、エコーを含む音響的雑音を除去し、安定して音声認識しながら、相互に会話を行う翻訳装置に適用可能である。具体的には、狭い空間範囲における翻訳装置として本開示は適用可能である。
10 カウンター
11 第1話者
12 第2話者
13、13a 第1エコー
14、14a 第2エコー
15 第3エコー
15a 第1ハウリング
16 第4エコー
16a 第2ハウリング
17、17a 第1クロストーク
18、18a 第2クロストーク
20、20a、20b、20c、20d、20e 翻訳装置
21 第1マイク
22 第1スピーカ
23 第2マイク
24 第2スピーカ
25 第1表示回路
26 第2表示回路
27 第1言語選択回路
28 第2言語選択回路
31 第1音声認識回路
32 第2音声認識回路
33 第1翻訳回路
34 第2翻訳回路
35 第1音声合成回路
36 第2音声合成回路
37 制御回路
38 映像信号発生回路
40 第1エコーキャンセラ
41 第1減算器
42 第1記憶回路
43 第1畳み込み演算器
44 第1伝達関数記憶回路
45 第1伝達関数更新回路
50 第2エコーキャンセラ
51 第2減算器
52 第2記憶回路
53 第2畳み込み演算器
54 第2伝達関数記憶回路
55 第2伝達関数更新回路
60 第3エコーキャンセラ
60a 第1ハウリングキャンセラ
61 第3減算器
62 第3記憶回路
63 第3畳み込み演算器
64 第3伝達関数記憶回路
65 第3伝達関数更新回路
66 第1遅延器
70 第4エコーキャンセラ
70a 第2ハウリングキャンセラ
71 第4減算器
72 第4記憶回路
73 第4畳み込み演算器
74 第4伝達関数記憶回路
75 第4伝達関数更新回路
76 第2遅延器
80 第1クロストークキャンセラ
80a 第1エコー/第1クロストークキャンセラ
81 第5減算器
82 第5記憶回路
83 第5畳み込み演算器
84 第5伝達関数記憶回路
85 第5伝達関数更新回路
90 第2クロストークキャンセラ
90a 第2エコー/第2クロストークキャンセラ
91 第6減算器
92 第6記憶回路
93 第6畳み込み演算器
94 第6伝達関数記憶回路
95 第6伝達関数更新回路
201 処理装置
291 第1カメラ
292 第2カメラ
311 第1言語識別回路
321 第2言語識別回路

Claims (15)

  1.  第1話者と第2話者とによる会話において、一方の話者の言語を他方の話者の言語に翻訳して合成音声を拡声する翻訳装置であって、
     前記第1話者の第1音声を入力するための第1マイクと、
     前記第1音声を音声認識して第1文字列を出力するための第1音声認識回路と、
     前記第1音声認識回路から出力された前記第1文字列を前記第2話者の言語に翻訳して第3文字列を出力するための第1翻訳回路と、
     前記第1翻訳回路から出力された前記第3文字列を第1翻訳音声に変換するための第1音声合成回路と、
     前記第1翻訳音声を拡声するための第1スピーカと、
     前記第2話者の第2音声を入力するための第2マイクと、
     前記第2音声を音声認識して第2文字列を出力するための第2音声認識回路と、
     前記第2音声認識回路から出力された前記第2文字列を前記第1話者の言語に翻訳して第4文字列を出力するための第2翻訳回路と、
     前記第2翻訳回路から出力された前記第4文字列を第2翻訳音声に変換するための第2音声合成回路と、
     前記第2翻訳音声を拡声するための第2スピーカと、
     前記第1スピーカから拡声された前記第1翻訳音声が前記第2マイクに入力される現象を第1エコーとしたとき、前記第1翻訳音声と前記第1エコーに対応する前記第1伝達関数とを用いて、前記第1エコーを示す第1エコー信号を推定し、前記第1エコー信号を、前記第2マイクの出力信号から除去する第1エコーキャンセラと、
     前記第2スピーカから拡声された前記第2翻訳音声が前記第1マイクに入力される現象を第2エコーとしたとき、前記第2翻訳音声と前記第2エコーに対応する前記第2伝達関数とを用いて、前記第2エコーを示す第2エコー信号を推定し、前記第2エコー信号を、前記第1マイクの出力信号から除去する第2エコーキャンセラと、
     制御回路とを備え、
     前記制御回路は、
     前記第1音声合成回路が前記第1翻訳音声を出力している期間に、前記第1エコーキャンセラに、前記第1エコー信号を推定する伝達関数を更新させ、
     前記第2音声合成回路が前記第2翻訳音声を出力している期間に、前記第2エコーキャンセラに、前記第2エコー信号を推定する伝達関数を更新させる
     翻訳装置。
  2.  さらに、
     前記第1スピーカから拡声された前記第1翻訳音声が前記第1マイクに入力される現象を第3エコーとしたとき、前記第1翻訳音声と前記第3エコーに対応する第3伝達関数を用いて、前記第3エコーを示す第3エコー信号を推定し、前記第3エコー信号を、前記第1マイクの前記出力信号から除去する第3エコーキャンセラと、
     前記第2スピーカから拡声された前記第2翻訳音声が前記第2マイクに入力される現象を第4エコーとしたとき、前記第2翻訳音声と前記第4エコーに対応する第4伝達関数を用いて、前記第4エコーを示す第4エコー信号を推定し、前記第4エコー信号を、前記第2マイクの前記出力信号から除去する第4エコーキャンセラとを備え、
     前記制御回路は、
     前記第1音声合成回路が前記第1翻訳音声を出力している期間に、前記第3エコーキャンセラに、前記第3エコー信号を推定する前記第3伝達関数を更新させ、
     前記第2音声合成回路が前記第2翻訳音声を出力している期間に、前記第4エコーキャンセラに、前記第4エコー信号を推定する前記第4伝達関数を更新させる
     請求項1記載の翻訳装置。
  3.  第1話者と第2話者とによる会話において、一方の話者の言語を他方の話者の言語に翻訳して合成音声を拡声する翻訳装置であって、
     前記第1話者の第1音声を入力するための第1マイクと、
     前記第1音声を音声認識して第1文字列を出力するための第1音声認識回路と、
     前記第1音声認識回路から出力された前記第1文字列を前記第2話者の言語に翻訳して第3文字列を出力するための第1翻訳回路と、
     前記第1翻訳回路から出力された前記第3文字列を第1翻訳音声に変換するための第1音声合成回路と、
     前記第1翻訳音声を拡声するための第1スピーカと、
     前記第2話者の第2音声を入力するための第2マイクと、
     前記第2音声を音声認識して第2文字列を出力するための第2音声認識回路と、
     前記第2音声認識回路から出力された前記第2文字列を前記第1話者の言語に翻訳して第4文字列を出力するための第2翻訳回路と、
     前記第2翻訳回路から出力された前記第4文字列を第2翻訳音声に変換するための第2音声合成回路と、
     前記第2翻訳音声を拡声するための第2スピーカと、
     前記第1スピーカから拡声された前記第1翻訳音声が前記第1マイクに入力される現象を第3エコーとしたとき、前記第1翻訳音声と前記第3エコーに対応する第3伝達関数を用いて、前記第3エコーを示す第3エコー信号を推定し、前記第3エコー信号を、前記第1マイクの前記出力信号から除去する第3エコーキャンセラと、
     前記第2スピーカから拡声された前記第2翻訳音声が前記第2マイクに入力される現象を第4エコーとしたとき、前記第2翻訳音声と前記第4エコーに対応する第4伝達関数を用いて、前記第4エコーを示す第4エコー信号を推定し、前記第4エコー信号を、前記第2マイクの前記出力信号から除去する第4エコーキャンセラとを備え、
     制御回路とを備え、
     前記制御回路は、
     前記第1音声合成回路が前記第1翻訳音声を出力している期間に、前記第3エコーキャンセラに、前記第3エコー信号を推定する前記第3伝達関数を更新させ、
     前記第2音声合成回路が前記第2翻訳音声を出力している期間に、前記第4エコーキャンセラに、前記第4エコー信号を推定する前記第4伝達関数を更新させる
     翻訳装置。
  4.  さらに、
     前記第1音声が前記第2マイクに入力される現象を第1クロストークとしたとき、前記第1音声を用いて、前記第1クロストークを示す第1クロストーク信号を推定し、前記第1クロストーク信号を、前記第2マイクの前記出力信号から除去する第1クロストークキャンセラと、
     前記第2音声が前記第1マイクに入力される現象を第2クロストークとしたとき、前記第2音声を用いて、前記第2クロストークを示す第2クロストーク信号を推定し、前記第2クロストーク信号を、前記第1マイクの前記出力信号から除去する第2クロストークキャンセラとを備える
     請求項1から3のいずれか1項に記載の翻訳装置。
  5.  さらに、
     前記第1話者から前記第1話者が用いる第1言語の選択を受け付け、前記制御回路に通知する第1言語選択回路と、
     前記第2話者から前記第2話者が用いる第2言語の選択を受け付け、前記制御回路に通知する第2言語選択回路とを備え、
     前記制御回路は、
     前記第1言語選択回路から通知された第1言語と、前記第2言語選択回路から通知された第2言語と、に基づいて、
     前記第1音声認識回路に、前記第1言語で音声認識させ、
     前記第2音声認識回路に、前記第2言語で音声認識させ、
     前記第1翻訳回路に、前記第1言語から前記第2言語に翻訳させ、
     前記第2翻訳回路に、前記第2言語から前記第1言語に翻訳させ、
     前記第1音声合成回路に、前記第2言語で音声合成させ、
     前記第2音声合成回路に、前記第1言語で音声合成させる
     請求項1又は2記載の翻訳装置。
  6.  さらに、
     前記第1音声に基づいて第1言語を識別して前記制御回路に通知する第1言語識別回路と、
     前記第2音声に基づいて第2言語を識別して前記制御回路に通知する第2言語識別回路とを備え、
     前記制御回路は、
     前記第1言語識別回路が識別した前記第1言語と、前記第2言語識別回路が識別した前記第2言語と、に基づいて、
     前記第1音声認識回路に、前記第1言語で音声認識させ、
     前記第2音声認識回路に、前記第2言語で音声認識させ、
     前記第1翻訳回路に、前記第1言語から前記第2言語に翻訳させ、
     前記第2翻訳回路に、前記第2言語から前記第1言語に翻訳させ、
     前記第1音声合成回路に、前記第2言語で音声合成させ、
     前記第2音声合成回路に、前記第1言語で音声合成させる
     請求項1又は2又は5記載の翻訳装置。
  7.  前記第1言語選択回路が受け付けた前記第1言語と、前記第2言語選択回路が受け付けた前記第2言語と、が同一の場合、
     前記制御回路は、
     前記第1エコーキャンセラと、前記第2エコーキャンセラと、前記第1翻訳回路と、前記第2翻訳回路と、前記第1音声合成回路と、前記第2音声合成回路とに、機能を停止させる
     請求項5記載の翻訳装置。
  8.  前記第1言語識別回路が識別した前記第1言語と、前記第2言語識別回路が識別した前記第2言語と、が同一の場合、
     前記制御回路は、
     前記第1エコーキャンセラと、前記第2エコーキャンセラと、前記第1翻訳回路と、前記第2翻訳回路と、前記第1音声合成回路と、前記第2音声合成回路とに、機能を停止させる
     請求項6記載の翻訳装置。
  9.  さらに、
     第1音声に基づいて、前記第1話者の性別判定を行う第1音声性別判定回路と、
     第2音声に基づいて、前記第2話者の性別判定を行う第2音声性別判定回路とを備え、
     前記制御回路は、
     前記第1音声合成回路に、前記第1音声性別判定回路の判定結果と同じ性別の合成音声を、出力させ、
     前記第2音声合成回路に、前記第2音声性別判定回路の判定結果と同じ性別の合成音声を、出力させる
     請求項1から8のいずれか1項に記載の翻訳装置。 
  10.  さらに、
     前記第1話者の顔を撮影する第1カメラと、
     前記第1カメラから出力された第1映像信号に基づいて、前記第1話者を特定する第1顔認識回路と、
     前記第2話者の顔を撮影する第2カメラと、
     前記第2カメラから出力された第2映像信号に基づいて、前記第2話者を特定する第2顔認識回路と、
     話者と前記話者が用いる言語との対を記憶しているデータベースとを備え、
     前記制御回路は、
     前記第1顔認識回路が特定した前記第1話者の言語が前記データベースに登録されている場合には、前記第1音声認識回路と前記第1翻訳回路と前記第2翻訳回路と前記第1音声合成回路とに、第1話者の第1言語を通知し、
     前記第2顔認識回路が特定した前記第2話者の言語が前記データベースに登録されている場合には、前記第2音声認識回路と前記第1翻訳回路と前記第2翻訳回路と前記第2音声合成回路とに、第2話者の第2言語を通知する
     請求項1から9のいずれか1項に記載の翻訳装置。
  11.  さらに、
     前記第1カメラから出力された前記第1映像信号に基づいて、前記第1話者の性別判定を行う第1映像性別判定回路と、
     前記第2カメラから出力された前記第2映像信号に基づいて、前記第2話者の性別判定を行う第2映像性別判定回路とを備え、
     前記制御回路は、
     前記第1音声合成回路に、前記第1映像性別判定回路の判定結果と同じ性別の合成音声を出力させ
     前記第2音声合成回路に、前記第2映像性別判定回路の判定結果と同じ性別の合成音声を出力させる
     請求項10記載の翻訳装置。
  12.  第1話者と第2話者とによる会話において、一方の話者の言語を他方の話者の言語に翻訳して合成音声を拡声する翻訳装置であって、
     前記第1話者の第1音声を入力するための第1マイクと、
     前記第1音声を音声認識して第1文字列を出力するための第1音声認識回路と、
     前記第1音声認識回路から出力された前記第1文字列を前記第2話者の言語に翻訳して第3文字列を出力するための第1翻訳回路と、
     前記第1翻訳回路から出力された前記第3文字列を第1翻訳音声に変換するための第1音声合成回路と、
     前記第2話者の第2音声を入力するための第2マイクと、
     前記第2音声を音声認識して第2文字列を出力するための第2音声認識回路と、
     前記第2音声認識回路から出力された前記第2文字列を前記第1話者の言語に翻訳して第4文字列を出力するための第2翻訳回路と、
     前記第2翻訳回路から出力された前記第4文字列を第2翻訳音声に変換するための第2音声合成回路と、
     前記第1音声合成回路が出力する前記第1翻訳音声と前記第2音声合成回路が出力する前記第2翻訳音声とを加算して加算翻訳音声を出力する加算回路と、
     前記加算回路が出力する加算翻訳音声を拡声するためのスピーカと、
     前記スピーカから拡声された前記加算翻訳音声が前記第2マイクに入力される現象を第5エコーとしたとき、前記加算翻訳音声と前記第5エコーに対応する前記第5伝達関数とを用いて、前記第5エコーを示す第5エコー信号を推定し、前記第5エコー信号を、前記第2マイクの出力信号から除去する第5エコーキャンセラと、
     前記スピーカから拡声された前記加算翻訳音声が前記第1マイクに入力される現象を第6エコーとしたとき、前記加算翻訳音声と前記第6エコーに対応する前記第6伝達関数とを用いて、前記第6エコーを示す第6エコー信号を推定し、前記第6エコー信号を、前記第1マイクの出力信号から除去する第6エコーキャンセラと、
     制御回路とを備え、
     前記制御回路は、前記第1音声合成回路が前記第1翻訳音声を出力し、又は前記第2音声合成回路が前記第2翻訳音声を出力している期間に、前記第5エコーキャンセラに、前記第5エコー信号を推定する伝達関数を更新させ、
     前記第1音声合成回路が前記第1翻訳音声を出力し、又は前記第2音声合成回路が前記第2翻訳音声を出力している期間に、前記第6エコーキャンセラに、前記第6エコー信号を推定する伝達関数を更新させる
     翻訳装置。
  13.  さらに、
     前記第1音声が前記第2マイクに入力される現象を第1クロストークとしたとき、前記第1音声を用いて、前記第1クロストークを示す第1クロストーク信号を推定し、前記第1クロストーク信号を、前記第2マイクの前記出力信号から除去する第1クロストークキャンセラと、
     前記第2音声が前記第1マイクに入力される現象を第2クロストークとしたとき、前記第2音声を用いて、前記第2クロストークを示す第2クロストーク信号を推定し、前記第2クロストーク信号を、前記第1マイクの前記出力信号から除去する第2クロストークキャンセラとを備える
     請求項12記載の翻訳装置。
  14.  第1話者と第2話者とによる会話において、自分の言語を相手の言語に翻訳して合成音声を拡声する翻訳方法であって、
     前記第1話者の第1音声を入力するための第1入力ステップと、
     前記第1音声を音声認識して第1文字列を出力するための第1音声認識ステップと、
     前記第1音声認識ステップから出力された前記第1文字列を前記第2話者の言語に翻訳して第3文字列を出力するための第1翻訳ステップと、
     前記第1翻訳ステップから出力された前記第3文字列を第1翻訳音声に変換するための第1音声合成ステップと、
     前記第1翻訳音声を拡声するための第1拡声ステップと、
     前記第2話者の第2音声を入力するための第2入力ステップと、
     前記第2音声を音声認識して第2文字列を出力するための第2音声認識ステップと、
     前記第2音声認識ステップから出力された前記第2文字列を前記第1話者の言語に翻訳して第4文字列を出力するための第2翻訳ステップと、
     前記第2翻訳ステップから出力された前記第4文字列を第2翻訳音声に変換するための第2音声合成ステップと、
     前記第2翻訳音声を拡声するための第2拡声ステップと、
     前記第1拡声ステップにて拡声された前記第1翻訳音声が前記第2入力ステップにて入力される現象を第1エコーとしたとき、前記第1翻訳音声と前記第1エコーに対応する第1伝達関数とを用いて、前記第1エコーを示す第1エコー信号を推定し、前記第1エコー信号を、前記第2入力ステップの出力信号から除去する第1エコーキャンセラステップと、
     前記第2拡声ステップにて拡声された前記第2翻訳音声が前記第1入力ステップにて入力される現象を第2エコーとしたとき、前記第2翻訳音声と前記第2エコーに対応する第2伝達関数とを用いて、前記第2エコーを示す第2エコー信号を推定し、前記第2エコー信号を、前記第1入力ステップの出力信号から除去する第2エコーキャンセラステップと、
     前記第1音声合成ステップにて前記第1翻訳音声を出力している期間に、前記第1エコーキャンセラステップにおいて、前記第1エコー信号を推定する前記第1伝達関数を更新し、前記第2音声合成ステップにて前記第2翻訳音声を出力している期間に、前記第2エコーキャンセラステップにおいて、前記第2エコー信号を推定する前記第2伝達関数を更新するように指示を与える制御ステップとを含む
     翻訳方法。
  15.  第1話者と第2話者とによる会話において、自分の言語を相手の言語に翻訳して合成音声を拡声する翻訳方法であって、
     前記第1話者の第1音声を入力するための第1入力ステップと、
     前記第1音声を音声認識して第1文字列を出力するための第1音声認識ステップと、
     前記第1音声認識ステップから出力された前記第1文字列を前記第2話者の言語に翻訳して第3文字列を出力するための第1翻訳ステップと、
     前記第1翻訳ステップから出力された前記第3文字列を第1翻訳音声に変換するための第1音声合成ステップと、
     前記第1翻訳音声を拡声するための第1拡声ステップと、
     前記第2話者の第2音声を入力するための第2入力ステップと、
     前記第2音声を音声認識して第2文字列を出力するための第2音声認識ステップと、
     前記第2音声認識ステップから出力された前記第2文字列を前記第1話者の言語に翻訳して第4文字列を出力するための第2翻訳ステップと、
     前記第2翻訳ステップから出力された前記第4文字列を第2翻訳音声に変換するための第2音声合成ステップと、
     前記第2翻訳音声を拡声するための第2拡声ステップと、
     前記第1拡声ステップにて出力された前記第1翻訳音声が前記第1入力ステップにて入力される現象を第3エコーとしたとき、前記第1翻訳音声と前記第3エコーに対応する第3伝達関数とを用いて、前記第3エコーを示す第3エコー信号を推定し、前記第3エコー信号を、前記第1入力ステップの出力信号から除去する第3エコーキャンセラステップと、
     前記第2拡声ステップにて出力された前記第2翻訳音声が前記第2入力ステップにて入力される現象を第4エコーとしたとき、前記第2翻訳音声と前記第4エコーに対応する第4伝達関数とを用いて、前記第4エコーを示す第4エコー信号を推定し、前記第4エコー信号を、前記第2入力ステップの出力信号から除去する第4エコーキャンセラステップと、
     前記第1音声合成ステップにて前記第1翻訳音声を出力している期間に、前記第3エコーキャンセラステップにおいて、前記第3エコー信号を推定する前記第3伝達関数を更新し、前記第2音声合成ステップから前記第2翻訳音声を出力している期間に、前記第4エコーキャンセラステップにおいて、前記第4エコー信号を推定する前記第4伝達関数を更新するように指示を与える制御ステップとを含む
     翻訳方法。
PCT/JP2019/045118 2018-11-30 2019-11-18 翻訳装置及び翻訳方法 WO2020110808A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP19890338.7A EP3890288A4 (en) 2018-11-30 2019-11-18 TRANSLATION DEVICE AND TRANSLATION METHOD
JP2020558387A JP7194900B2 (ja) 2018-11-30 2019-11-18 翻訳装置及び翻訳方法
US17/296,825 US20220027579A1 (en) 2018-11-30 2019-11-18 Translation device and translation method
CN201980077382.9A CN113168840A (zh) 2018-11-30 2019-11-18 翻译装置以及翻译方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-225215 2018-11-30
JP2018225215 2018-11-30

Publications (1)

Publication Number Publication Date
WO2020110808A1 true WO2020110808A1 (ja) 2020-06-04

Family

ID=70852073

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/045118 WO2020110808A1 (ja) 2018-11-30 2019-11-18 翻訳装置及び翻訳方法

Country Status (5)

Country Link
US (1) US20220027579A1 (ja)
EP (1) EP3890288A4 (ja)
JP (1) JP7194900B2 (ja)
CN (1) CN113168840A (ja)
WO (1) WO2020110808A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023529699A (ja) * 2020-06-10 2023-07-11 グーグル エルエルシー テキストエコー消去
US11887579B1 (en) * 2022-09-28 2024-01-30 Intuit Inc. Synthetic utterance generation

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6311136B2 (ja) 1979-10-12 1988-03-11 Dainippon Ink & Chemicals
JP2012093641A (ja) * 2010-10-28 2012-05-17 Toshiba Corp 携帯型電子機器
JP2018173652A (ja) * 2016-07-08 2018-11-08 パナソニックIpマネジメント株式会社 翻訳装置および翻訳方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3228963B2 (ja) * 1991-09-18 2001-11-12 株式会社東芝 エコーキャンセラ
JP2001075590A (ja) * 1999-09-07 2001-03-23 Fujitsu Ltd 音声入出力装置及び方法
US7039197B1 (en) * 2000-10-19 2006-05-02 Lear Corporation User interface for communication system
CN1602483A (zh) * 2001-12-17 2005-03-30 内维尼·加雅拉特尼 进行多语种口述词语实时翻译的实时翻译装置与方法
JP2005006243A (ja) * 2003-06-16 2005-01-06 Matsushita Electric Ind Co Ltd 回線エコーキャンセル装置、回線エコーキャンセル方法および記録媒体
JP4566078B2 (ja) * 2005-07-04 2010-10-20 アルパイン株式会社 車載用ハンズフリー通話装置
CN101099147B (zh) * 2005-11-11 2010-05-19 松下电器产业株式会社 对话支持装置
CN101426058B (zh) * 2008-06-17 2011-08-03 上海华平信息技术股份有限公司 一种改善多通道音频通话质量的系统及方法
JP4991649B2 (ja) * 2008-07-02 2012-08-01 パナソニック株式会社 音声信号処理装置
JP5545467B2 (ja) * 2009-10-21 2014-07-09 独立行政法人情報通信研究機構 音声翻訳システム、制御装置、および情報処理方法
KR101204239B1 (ko) * 2011-03-31 2012-11-26 김철희 실시간 하울링 제거장치 및 그 방법
JP5887535B2 (ja) * 2012-02-17 2016-03-16 パナソニックIpマネジメント株式会社 エコー消去装置、エコー消去方法、及び、通話装置
KR20150031896A (ko) * 2013-09-17 2015-03-25 한국전자통신연구원 음성인식장치 및 그 동작방법
US10542154B2 (en) 2015-10-16 2020-01-21 Panasonic Intellectual Property Management Co., Ltd. Device for assisting two-way conversation and method for assisting two-way conversation
JP6670224B2 (ja) * 2016-11-14 2020-03-18 株式会社日立製作所 音声信号処理システム
US10090000B1 (en) * 2017-11-01 2018-10-02 GM Global Technology Operations LLC Efficient echo cancellation using transfer function estimation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6311136B2 (ja) 1979-10-12 1988-03-11 Dainippon Ink & Chemicals
JP2012093641A (ja) * 2010-10-28 2012-05-17 Toshiba Corp 携帯型電子機器
JP2018173652A (ja) * 2016-07-08 2018-11-08 パナソニックIpマネジメント株式会社 翻訳装置および翻訳方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3890288A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023529699A (ja) * 2020-06-10 2023-07-11 グーグル エルエルシー テキストエコー消去
JP7335460B2 (ja) 2020-06-10 2023-08-29 グーグル エルエルシー テキストエコー消去
US11887579B1 (en) * 2022-09-28 2024-01-30 Intuit Inc. Synthetic utterance generation

Also Published As

Publication number Publication date
US20220027579A1 (en) 2022-01-27
EP3890288A1 (en) 2021-10-06
JPWO2020110808A1 (ja) 2021-10-21
EP3890288A4 (en) 2022-05-18
JP7194900B2 (ja) 2022-12-23
CN113168840A (zh) 2021-07-23

Similar Documents

Publication Publication Date Title
JP6311136B2 (ja) 双方向会話補助装置及び双方向会話補助方法
JP6318376B2 (ja) 音源分離装置および音源分離方法
KR102478951B1 (ko) 비선형 특성을 갖는 오디오 필터를 이용하여 오디오 신호를 처리하는 방법 및 장치
JP5075042B2 (ja) エコー消去装置、エコー消去方法、そのプログラム、記録媒体
CN111128221B (zh) 一种音频信号处理方法、装置、终端及存储介质
JP5375400B2 (ja) 音声処理装置、音声処理方法およびプログラム
WO2020110808A1 (ja) 翻訳装置及び翻訳方法
CN111883135A (zh) 语音转写方法、装置和电子设备
JP5887535B2 (ja) エコー消去装置、エコー消去方法、及び、通話装置
WO2018167960A1 (ja) 音声処理装置、音声処理システム、音声処理方法、および音声処理プログラム
JP4536020B2 (ja) 雑音除去機能を有する音声入力装置および方法
KR100200635B1 (ko) 화상회의 시스템에서의 반향제어 장치 및 제어방법
JP2005303574A (ja) 音声認識ヘッドセット
JP6772881B2 (ja) 音声対話装置
CN113489855B (zh) 声音处理方法、装置、电子设备和存储介质
JP4527654B2 (ja) 音声通信装置
JP2021184587A (ja) エコー抑圧装置、エコー抑圧方法及びエコー抑圧プログラム
CN113421579B (zh) 声音处理方法、装置、电子设备和存储介质
CN113470676B (zh) 声音处理方法、装置、电子设备和存储介质
CN113488067B (zh) 回声消除方法、装置、电子设备和存储介质
TWI745968B (zh) 降噪方法和使用該方法的降噪裝置及降噪系統
WO2022195955A1 (ja) エコー抑圧装置、エコー抑圧方法及びエコー抑圧プログラム
JP6922551B2 (ja) 音声処理装置、音声処理プログラム、及び音声処理方法
JP2023013073A (ja) 通信端末、判定方法及びプログラム
WO2023212441A1 (en) Systems and methods for reducing echo using speech decomposition

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19890338

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020558387

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019890338

Country of ref document: EP

Effective date: 20210630