JPWO2020110808A1 - 翻訳装置及び翻訳方法 - Google Patents

翻訳装置及び翻訳方法 Download PDF

Info

Publication number
JPWO2020110808A1
JPWO2020110808A1 JP2020558387A JP2020558387A JPWO2020110808A1 JP WO2020110808 A1 JPWO2020110808 A1 JP WO2020110808A1 JP 2020558387 A JP2020558387 A JP 2020558387A JP 2020558387 A JP2020558387 A JP 2020558387A JP WO2020110808 A1 JPWO2020110808 A1 JP WO2020110808A1
Authority
JP
Japan
Prior art keywords
circuit
voice
echo
speaker
language
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020558387A
Other languages
English (en)
Other versions
JP7194900B2 (ja
Inventor
良二 鈴木
尋紀 稲垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2020110808A1 publication Critical patent/JPWO2020110808A1/ja
Application granted granted Critical
Publication of JP7194900B2 publication Critical patent/JP7194900B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72433User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for voice messaging, e.g. dictaphones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/005Language recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • G10L15/25Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/32Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • G10L21/0364Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude for improving intelligibility
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02082Noise filtering the noise being echo, reverberation of the speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02165Two microphones, one receiving mainly the noise signal and the other one mainly the speech signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/58Details of telephonic subscriber devices including a multilanguage function
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/74Details of telephonic subscriber devices with voice recognition means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/20Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Machine Translation (AREA)
  • Otolaryngology (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

翻訳装置(20)は、第1マイク(21)と、第1音声認識回路(31)と、第1翻訳回路(33)と、第1音声合成回路(35)と、第1スピーカ(22)と、第2マイク(23)と、第2音声認識回路(32)と、第2翻訳回路(34)と、第2音声合成回路(36)と、第2スピーカ(24)と、第1エコーキャンセラ(40)と、第2エコーキャンセラ(50)と、制御回路(37)を備え、制御回路(37)は、第1翻訳音声の出力期間に、第1エコーキャンセラ(40)に、第1エコー信号を推定する第1伝達関数を更新させ、第2翻訳音声の出力期間に、第2エコーキャンセラ(50)に、第2エコー信号を推定する第2伝達関数を更新させる。

Description

本開示は、第1話者と第2話者とによる会話において、一方の話者の言語を他方の話者の言語に翻訳して拡声する翻訳装置及び翻訳方法に関する。
特許文献1は、音響的雑音を除去したうえで2者間の双方向の会話を拡声して補助するのに有効である会話補助装置を開示する。この会話補助装置は、エコー及びクロストークを示す妨害信号をマイクの出力信号から除去するエコー・クロストークキャンセラを備える。会話補助装置によれば、エコーとクロストークを含む音響的雑音を除去し、2者間の双方向の会話を拡声して補助することができる。
特許第6311136号公報
本開示は、複数の話者の音声と、この複数の話者の音声を認識し相手の言語に翻訳し音声合成して出力された複数の合成音声とが、同時に重複して存在するような場合でも、エコーを含む音響的雑音を抑制することで、安定して音声認識しながら、相互に会話を行う翻訳装置及び翻訳方法を提供する。
本開示における翻訳装置は、第1話者と第2話者とによる会話において、一方の話者の言語を他方の話者の言語に翻訳して合成音声を拡声する翻訳装置であって、前記第1話者の第1音声を入力するための第1マイクと、前記第1音声を音声認識して第1文字列を出力するための第1音声認識回路と、前記第1音声認識回路から出力された前記第1文字列を前記第2話者の言語に翻訳して第3文字列を出力するための第1翻訳回路と、前記第1翻訳回路から出力された前記第3文字列を第1翻訳音声に変換するための第1音声合成回路と、前記第1翻訳音声を拡声するための第1スピーカと、前記第2話者の第2音声を入力するための第2マイクと、前記第2音声を音声認識して第2文字列を出力するための第2音声認識回路と、前記第2音声認識回路から出力された前記第2文字列を前記第1話者の言語に翻訳して第4文字列を出力するための第2翻訳回路と、前記第2翻訳回路から出力された前記第4文字列を第2翻訳音声に変換するための第2音声合成回路と、前記第2翻訳音声を拡声するための第2スピーカと、前記第1スピーカから拡声された前記第1翻訳音声が前記第2マイクに入力される現象を第1エコーとしたとき、前記第1翻訳音声と前記第1エコーに対応する前記第1伝達関数とを用いて、前記第1エコーを示す第1エコー信号を推定し、前記第1エコー信号を、前記第2マイクの出力信号から除去する第1エコーキャンセラと、前記第2スピーカから拡声された前記第2翻訳音声が前記第1マイクに入力される現象を第2エコーとしたとき、前記第2翻訳音声と前記第2エコーに対応する前記第2伝達関数とを用いて、前記第2エコーを示す第2エコー信号を推定し、前記第2エコー信号を、前記第1マイクの出力信号から除去する第2エコーキャンセラと、制御回路とを備え、前記制御回路は、前記第1音声合成回路が前記第1翻訳音声を出力している期間に、前記第1エコーキャンセラに、前記第1エコー信号を推定する伝達関数を更新させ、前記第2音声合成回路が前記第2翻訳音声を出力している期間に、前記第2エコーキャンセラに、前記第2エコー信号を推定する伝達関数を更新させる。
また、本開示における翻訳装置は、第1話者と第2話者とによる会話において、一方の話者の言語を他方の話者の言語に翻訳して合成音声を拡声する翻訳装置であって、前記第1話者の第1音声を入力するための第1マイクと、前記第1音声を音声認識して第1文字列を出力するための第1音声認識回路と、前記第1音声認識回路から出力された前記第1文字列を前記第2話者の言語に翻訳して第3文字列を出力するための第1翻訳回路と、前記第1翻訳回路から出力された前記第3文字列を第1翻訳音声に変換するための第1音声合成回路と、前記第1翻訳音声を拡声するための第1スピーカと、前記第2話者の第2音声を入力するための第2マイクと、前記第2音声を音声認識して第2文字列を出力するための第2音声認識回路と、前記第2音声認識回路から出力された前記第2文字列を前記第1話者の言語に翻訳して第4文字列を出力するための第2翻訳回路と、前記第2翻訳回路から出力された前記第4文字列を第2翻訳音声に変換するための第2音声合成回路と、前記第2翻訳音声を拡声するための第2スピーカと、前記第1スピーカから拡声された前記第1翻訳音声が前記第1マイクに入力される現象を第3エコーとしたとき、前記第1翻訳音声と前記第3エコーに対応する第3伝達関数を用いて、前記第3エコーを示す第3エコー信号を推定し、前記第3エコー信号を、前記第1マイクの前記出力信号から除去する第3エコーキャンセラと、前記第2スピーカから拡声された前記第2翻訳音声が前記第2マイクに入力される現象を第4エコーとしたとき、前記第2翻訳音声と前記第4エコーに対応する第4伝達関数を用いて、前記第4エコーを示す第4エコー信号を推定し、前記第4エコー信号を、前記第2マイクの前記出力信号から除去する第4エコーキャンセラとを備え、制御回路とを備え、前記制御回路は、前記第1音声合成回路が前記第1翻訳音声を出力している期間に、前記第3エコーキャンセラに、前記第3エコー信号を推定する前記第3伝達関数を更新させ、前記第2音声合成回路が前記第2翻訳音声を出力している期間に、前記第4エコーキャンセラに、前記第4エコー信号を推定する前記第4伝達関数を更新させる。
また、本開示における翻訳装置は、第1話者と第2話者とによる会話において、一方の話者の言語を他方の話者の言語に翻訳して合成音声を拡声する翻訳装置であって、前記第1話者の第1音声を入力するための第1マイクと、前記第1音声を音声認識して第1文字列を出力するための第1音声認識回路と、前記第1音声認識回路から出力された前記第1文字列を前記第2話者の言語に翻訳して第3文字列を出力するための第1翻訳回路と、前記第1翻訳回路から出力された前記第3文字列を第1翻訳音声に変換するための第1音声合成回路と、前記第2話者の第2音声を入力するための第2マイクと、前記第2音声を音声認識して第2文字列を出力するための第2音声認識回路と、前記第2音声認識回路から出力された前記第2文字列を前記第1話者の言語に翻訳して第4文字列を出力するための第2翻訳回路と、前記第2翻訳回路から出力された前記第4文字列を第2翻訳音声に変換するための第2音声合成回路と、前記第1音声合成回路が出力する前記第1翻訳音声と前記第2音声合成回路が出力する前記第2翻訳音声とを加算して加算翻訳音声を出力する加算回路と、前記加算回路が出力する加算翻訳音声を拡声するためのスピーカと、前記スピーカから拡声された前記加算翻訳音声が前記第2マイクに入力される現象を第5エコーとしたとき、前記加算翻訳音声と前記第5エコーに対応する前記第5伝達関数とを用いて、前記第5エコーを示す第5エコー信号を推定し、前記第5エコー信号を、前記第2マイクの出力信号から除去する第5エコーキャンセラと、前記スピーカから拡声された前記加算翻訳音声が前記第1マイクに入力される現象を第6エコーとしたとき、前記加算翻訳音声と前記第6エコーに対応する前記第6伝達関数とを用いて、前記第6エコーを示す第6エコー信号を推定し、前記第6エコー信号を、前記第1マイクの出力信号から除去する第6エコーキャンセラと、制御回路とを備え、前記制御回路は、前記第1音声合成回路が前記第1翻訳音声を出力し、又は前記第2音声合成回路が前記第2翻訳音声を出力している期間に、前記第5エコーキャンセラに、前記第5エコー信号を推定する伝達関数を更新させ、前記第1音声合成回路が前記第1翻訳音声を出力し、又は前記第2音声合成回路が前記第2翻訳音声を出力している期間に、前記第6エコーキャンセラに、前記第6エコー信号を推定する伝達関数を更新させる。
本開示における翻訳方法は、第1話者と第2話者とによる会話において、自分の言語を相手の言語に翻訳して合成音声を拡声する翻訳方法であって、前記第1話者の第1音声を入力するための第1入力ステップと、前記第1音声を音声認識して第1文字列を出力するための第1音声認識ステップと、前記第1音声認識ステップから出力された前記第1文字列を前記第2話者の言語に翻訳して第3文字列を出力するための第1翻訳ステップと、前記第1翻訳ステップから出力された前記第3文字列を第1翻訳音声に変換するための第1音声合成ステップと、前記第1翻訳音声を拡声するための第1拡声ステップと、前記第2話者の第2音声を入力するための第2入力ステップと、前記第2音声を音声認識して第2文字列を出力するための第2音声認識ステップと、前記第2音声認識ステップから出力された前記第2文字列を前記第1話者の言語に翻訳して第4文字列を出力するための第2翻訳ステップと、前記第2翻訳ステップから出力された前記第4文字列を第2翻訳音声に変換するための第2音声合成ステップと、前記第2翻訳音声を拡声するための第2拡声ステップと、前記第1拡声ステップにて拡声された前記第1翻訳音声が前記第2入力ステップにて入力される現象を第1エコーとしたとき、前記第1翻訳音声と前記第1エコーに対応する第1伝達関数とを用いて、前記第1エコーを示す第1エコー信号を推定し、前記第1エコー信号を、前記第2入力ステップの出力信号から除去する第1エコーキャンセラステップと、前記第2拡声ステップにて拡声された前記第2翻訳音声が前記第1入力ステップにて入力される現象を第2エコーとしたとき、前記第2翻訳音声と前記第2エコーに対応する第2伝達関数とを用いて、前記第2エコーを示す第2エコー信号を推定し、前記第2エコー信号を、前記第1入力ステップの出力信号から除去する第2エコーキャンセラステップと、前記第1音声合成ステップにて前記第1翻訳音声を出力している期間に、前記第1エコーキャンセラステップにおいて、前記第1エコー信号を推定する前記第1伝達関数を更新し、前記第2音声合成ステップにて前記第2翻訳音声を出力している期間に、前記第2エコーキャンセラステップにおいて、前記第2エコー信号を推定する前記第2伝達関数を更新するように指示を与える制御ステップとを含む。
また、本開示における翻訳方法は、第1話者と第2話者とによる会話において、自分の言語を相手の言語に翻訳して合成音声を拡声する翻訳方法であって、前記第1話者の第1音声を入力するための第1入力ステップと、前記第1音声を音声認識して第1文字列を出力するための第1音声認識ステップと、前記第1音声認識ステップから出力された前記第1文字列を前記第2話者の言語に翻訳して第3文字列を出力するための第1翻訳ステップと、前記第1翻訳ステップから出力された前記第3文字列を第1翻訳音声に変換するための第1音声合成ステップと、前記第1翻訳音声を拡声するための第1拡声ステップと、前記第2話者の第2音声を入力するための第2入力ステップと、前記第2音声を音声認識して第2文字列を出力するための第2音声認識ステップと、前記第2音声認識ステップから出力された前記第2文字列を前記第1話者の言語に翻訳して第4文字列を出力するための第2翻訳ステップと、前記第2翻訳ステップから出力された前記第4文字列を第2翻訳音声に変換するための第2音声合成ステップと、前記第2翻訳音声を拡声するための第2拡声ステップと、前記第1拡声ステップにて出力された前記第1翻訳音声が前記第1入力ステップにて入力される現象を第3エコーとしたとき、前記第1翻訳音声と前記第3エコーに対応する第3伝達関数とを用いて、前記第3エコーを示す第3エコー信号を推定し、前記第3エコー信号を、前記第1入力ステップの出力信号から除去する第3エコーキャンセラステップと、前記第2拡声ステップにて出力された前記第2翻訳音声が前記第2入力ステップにて入力される現象を第4エコーとしたとき、前記第2翻訳音声と前記第4エコーに対応する第4伝達関数とを用いて、前記第4エコーを示す第4エコー信号を推定し、前記第4エコー信号を、前記第2入力ステップの出力信号から除去する第4エコーキャンセラステップと、前記第1音声合成ステップにて前記第1翻訳音声を出力している期間に、前記第3エコーキャンセラステップにおいて、前記第3エコー信号を推定する前記第3伝達関数を更新し、前記第2音声合成ステップから前記第2翻訳音声を出力している期間に、前記第4エコーキャンセラステップにおいて、前記第4エコー信号を推定する前記第4伝達関数を更新するように指示を与える制御ステップとを含む。
本開示における翻訳装置及び翻訳方法は、複数の話者の音声と、この複数の話者の音声を認識し相手の言語に翻訳し音声合成して出力された複数の合成音声とが、同時に重複して存在するような場合でも、エコーを含む音響的雑音を除去することで、安定して音声認識しながら、相互に会話を行うのに有効である。
図1は、実施の形態1における翻訳装置の適用例を示す図である。 図2は、実施の形態1における翻訳装置の構成を示すブロック図である。 図3は、第1エコーキャンセラと第3エコーキャンセラとの伝達関数の更新についてのフローチャートである。 図4は、第2エコーキャンセラと第4エコーキャンセラとの伝達関数の更新についてのフローチャートである。 図5は、実施の形態2における翻訳装置の構成を示すブロック図である。 図6は、実施の形態3における翻訳装置の構成を示すブロック図である。 図7は、実施の形態1〜3のうち、最適な構成を選択するフローチャートである。 図8は、実施の形態4における翻訳装置の構成を示すブロック図である。 図9は、実施の形態5における翻訳装置の構成を示すブロック図である。 図10は、実施の形態6における翻訳装置の構成を示すブロック図である。 図11は、翻訳装置の使用状態の一例を示す図である。
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、添付図面及び以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより請求の範囲に記載の主題を限定することは意図されていない。
(実施の形態1)
以下、図1及び図2を用いて、実施の形態1を説明する。
[1−1.適用例]
図1は、実施の形態1における翻訳装置20の適用例を示す図である。ここでは、翻訳装置20をカウンター10をはさんで向かい合う第1話者11と第2話者12との会話を翻訳して拡声する装置として適用した例が示されている。
翻訳装置20は、第1話者11(ここでは、客)と第2話者12(ここでは、受け付け)とによる会話を翻訳して拡声する装置である。カウンター10には、第1話者11の音声(第1音声)を入力するための第1マイク21が設けられ、第2話者12側には、その音声を翻訳装置20で翻訳して出力するための第1スピーカ22が設けられている。また、第2話者12側には、第2話者12の音声(第2音声)を入力するための第2マイク23が設けられ、第1話者11側には、その音声を翻訳装置20で翻訳して出力するための第2スピーカ24が設けられている。さらに、翻訳装置20は、第1表示回路25、第2表示回路26、第1カメラ291及び第2カメラ292が設けられている。
例えば、第1話者11が第1マイク21に向かって「Hello」と発声すると、その音声が翻訳装置20で翻訳されて、第1スピーカ22から「こんにちは」と拡声される。それを受けて次に第2話者12が第2マイク23に向かって「いらっしゃいませ」と発声すると、その音声が翻訳装置20で翻訳されて、第2スピーカ24から「Hello! May I help you?」と拡声される。また、第1表示回路25及び第2表示回路26は、第1話者11と第2話者12の発声である「Hello」「こんにちは」「いらっしゃいませ」「Hello! May I help you?」の文字列を表示する。
第1話者11と第2話者12とは、翻訳装置20を用いることで、一つの狭い空間であっても、エコー(反響)及びクロストーク(漏話)を含む音響的雑音が除去された音声により正確な音声認識を行うことができるため、会話を楽しむことができる。
エコーとは、以下の2現象を指す。ある話者に向けてスピーカから出力された音声が、その話者の音声を入力するためのマイクに回り込んで入力される現象、及び、ある話者に向けてスピーカから出力された音声が、その話者以外の音声を入力するためのマイクに回り込んで入力される現象である。具体的に、ここでは、第1スピーカ22から出力された音声が第2マイク23に回り込んで入力される現象を第1エコー13、第2スピーカ24から出力された音声が第1マイク21に回り込んで入力される現象を第2エコー14と定義する。さらに、第1スピーカ22から出力された音声が第1マイク21に回り込んで入力される現象を第3エコー15、及び、第2スピーカ24から出力された音声が第2マイク23に回り込んで入力される現象を第4エコー16と定義する。
また、クロストークとは、ある話者の音声がその話者以外の音声を入力するためのマイクに入力される現象である。具体的に、ここでは、第1話者11の音声が第2マイク23に入力される現象を第1クロストーク17、及び、第2話者12の音声が第1マイク21に入力される現象を第2クロストーク18と定義する。
[1−2.構成]
図2は、図1に示された実施の形態1における翻訳装置20の構成を示すブロック図である。この翻訳装置20は、第1マイク21、第1スピーカ22、第2マイク23、第2スピーカ24、第1表示回路25、第2表示回路26、第1言語選択回路27、第2言語選択回路28、第1エコーキャンセラ40、第2エコーキャンセラ50、第3エコーキャンセラ60、第4エコーキャンセラ70、第1クロストークキャンセラ80、第2クロストークキャンセラ90、第1音声認識回路31、第2音声認識回路32、第1翻訳回路33、第2翻訳回路34、第1音声合成回路35、第2音声合成回路36、制御回路37及び映像信号発生回路38を備える。また、翻訳装置20は、図示しないが、バスを介して相互に接続されるCPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)を備えていてもよい。また、図1に示した処理装置201には、第1エコーキャンセラ40、第2エコーキャンセラ50、第3エコーキャンセラ60、第4エコーキャンセラ70、第1クロストークキャンセラ80、第2クロストークキャンセラ90、第1音声認識回路31、第2音声認識回路32、第1翻訳回路33、第2翻訳回路34、第1音声合成回路35、第2音声合成回路36、制御回路37及び映像信号発生回路38が含まれる。なお、翻訳装置20の各構成要素は、それぞれが有線又は無線で接続されている。
第1マイク21は、第1話者11の第1音声を入力するためのマイクであり、例えば、図1に示されるように、カウンター10の客側(ここでは、第1話者11側)に向かって設けられる。なお、第1マイク21から出力される出力信号は、例えば、第1マイク21に内蔵又は直後に設けられたA/D変換器で生成されるデジタル音声データである。また、第1マイク21は、指向性を備えていてもよい。指向性とは、特定の方向からの音を収音することができる機能である。
第1スピーカ22は、第1翻訳音声を拡声する。[1−3.動作]にて詳細は後述するが、第1翻訳音声とは、第1話者11の言語である第1音声が、翻訳装置20により第2話者12の言語へ翻訳された音声である。第1スピーカ22は、例えば、図1に示されるように、カウンター10の受け付け側(ここでは、第2話者12側)に設けられる。なお、第1スピーカ22は、例えば、入力されたデジタル音声データを第1スピーカ22に内蔵又は直前に設けられたD/A変換器でアナログ信号に変換した後に音声として出力する。
第2マイク23は、第2話者12の第2音声を入力するためのマイクであり、例えば、図1に示されるように、カウンター10の受け付け側(ここでは、第2話者12側)に向かって設けられる。なお、第2マイク23から出力される出力信号は、例えば、第2マイク23に内蔵又は直後に設けられたA/D変換器で生成されるデジタル音声データである。また、第2マイク23は、指向性を備えていてもよい。指向性とは、特定の方向からの音を収音することができる機能である。
第2スピーカ24は、第2翻訳音声を拡声する。[1−3.動作]にて詳細は後述するが、第2翻訳音声とは、第2話者12の言語である第2音声が、翻訳装置20により第1話者11の言語へ翻訳された音声である。第2スピーカ24は、例えば、図1に示されるように、カウンター10の客側(ここでは、第1話者11側)に向かって設けられる。なお、第2スピーカ24は、例えば、入力されたデジタル音声データを第2スピーカ24に内蔵又は直前に設けられたD/A変換器でアナログ信号に変換した後に音声として出力する。
第1表示回路25は、第1話者11の音声を認識及び翻訳した結果の文字列、及び第2話者12の音声を認識した結果の文字列を表示するための表示回路であり、第2話者12が視認できる位置に配置される。第1表示回路25は、例えば、液晶ディスプレイ又は有機EL(ElectroLuminescence)ディスプレイなどであってもよく、また、タブレット端末やスマートフォンやパーソナルコンピュータなどであってもよい。さらに、第1表示回路25は、タッチパネル機能を有していてもよい。
第2表示回路26は、第2話者12の音声を認識及び翻訳した結果の文字列、及び第1話者11の音声を認識した結果の文字列を表示するための表示回路であり、第1話者11が視認できる位置に配置される。第2表示回路26は、例えば、液晶ディスプレイ又は有機ELディスプレイなどであってもよく、また、タブレット端末やスマートフォンやパーソナルコンピュータなどであってもよい。さらに、第2表示回路26は、タッチパネル機能を有していてもよい。
第1言語選択回路27は、第1話者11から第1話者11が用いる第1言語の選択を受け付け、制御回路37に通知する。第1言語選択回路27は、例えば、第1話者11の音声の言語の種類である第1言語を設定するスイッチであり、第1話者11が選択できる位置に配置される。また、第1言語選択回路27は、第1表示回路25がタッチパネル機能を備える場合、第1表示回路25に含まれていてもよい。
第2言語選択回路28は、第2話者12から第2話者12が用いる第2言語の選択を受け付け、制御回路37に通知する。第2言語選択回路28は、例えば、第2話者12の音声の言語の種類である第2言語を設定するスイッチであり、第2話者12が選択できる位置に配置される。また、第2言語選択回路28は、第2表示回路26がタッチパネル機能を備える場合、第2表示回路26に含まれていてもよい。
CPUは、ROMに格納されたプログラムを実行するプロセッサである。ROMは、例えば、CPUによって読み出されて実行されるプログラムを保持している。CPUは、このプログラムを実行することによって後述する回路の処理を実行する。RAMは、CPUがプログラムを実行するときに使用する記憶領域等を有する読み書き可能なメモリである。
また、以下に記す回路(第1音声認識回路31、第2音声認識回路32、第1翻訳回路33、第2翻訳回路34、第1音声合成回路35、第2音声合成回路36、制御回路37及び映像信号発生回路38)の処理は、プロセッサによって実現される。
第1音声認識回路31は、第1話者11の第1音声を音声認識して第1文字列を出力する。また、第1音声認識回路31は、第1話者11の第1音声を音声認識した結果である第1文字列を第1翻訳回路33と制御回路37とに出力する。
第2音声認識回路32は、第2話者12の第2音声を音声認識して第2文字列を出力する。また、第2音声認識回路32は、第2話者12の第2音声を音声認識した結果である第2文字列を第2翻訳回路34と制御回路37とに出力する。
第1翻訳回路33は、第1音声認識回路31から出力された第1文字列を第2話者12の言語に翻訳して第3文字列を出力する。また、第1翻訳回路33は、第3文字列を第1音声合成回路35と制御回路37とに出力する。
第2翻訳回路34は、第2音声認識回路32から出力された第2文字列を第1話者11の言語に翻訳して第4文字列を出力する。また、第2翻訳回路34は、第4文字列を第2音声合成回路36と制御回路37とに出力する。
第1音声合成回路35は、第1翻訳回路33から出力された第3文字列を第1翻訳音声に変換する。また、第1音声合成回路35は、第1翻訳音声を、第1スピーカ22、第1エコーキャンセラ40及び第3エコーキャンセラ60に出力する。
第2音声合成回路36は、第2翻訳回路34から出力された第4文字列を第2翻訳音声に変換する。また、第2音声合成回路36は、第2翻訳音声を、第2スピーカ24、第2エコーキャンセラ50及び第4エコーキャンセラ70に出力する。
制御回路37は、第1音声合成回路35が第1翻訳音声を出力している期間に、第1エコーキャンセラ40に、第1エコー信号を推定する第1伝達関数を更新させ、第2音声合成回路36が第2翻訳音声を出力している期間に、第2エコーキャンセラ50に、第2エコー信号を推定する第2伝達関数を更新させる。なお、詳細は後述するが、第1伝達関数は、第1エコーキャンセラ40に含まれる第1伝達関数記憶回路44が、記憶している。同じく、第2伝達関数は、第2エコーキャンセラ50に含まれる第2伝達関数記憶回路54が、記憶している。
また、制御回路37は、第1音声合成回路35が第1翻訳音声を出力している期間に、第3エコーキャンセラ60に、第3エコー信号を推定する第3伝達関数を更新させ、第2音声合成回路36が第2翻訳音声を出力している期間に、第4エコーキャンセラ70に、第4エコー信号を推定する第4伝達関数を更新させる。なお、詳細は後述するが、第3伝達関数は、第3エコーキャンセラ60に含まれる第3伝達関数記憶回路64が、記憶している。同じく、第4伝達関数は、第4エコーキャンセラ70に含まれる第4伝達関数記憶回路74が、記憶している。
つまり、制御回路37は、第1音声合成回路35が第1翻訳音声を出力していない期間には、第1エコーキャンセラ40及び第3エコーキャンセラ60に、第1伝達関数及び第3伝達関数を更新させない。また、制御回路37は、第2音声合成回路36が第2翻訳音声を出力していない期間には、第2エコーキャンセラ50及び第4エコーキャンセラ70に、第2伝達関数及び第4伝達関数を更新させない。
さらに、制御回路37は、第1言語選択回路27から通知された第1言語と第2言語選択回路28から通知された第2言語とに基づいて、第1音声認識回路31に第1言語を音声認識させ、第2音声認識回路32に第2言語を音声認識させ、第1翻訳回路33に第1言語から第2言語に翻訳させ、第2翻訳回路34に第2言語から第1言語に翻訳させ、第1音声合成回路35に第2言語で音声合成させ、第2音声合成回路36に第1言語で音声合成させる。
映像信号発生回路38は、第1音声認識回路31が出力した第1話者11の音声の認識結果である第1言語の第1文字列、第1翻訳回路33が出力した第1話者11の第1言語の音声を第2言語の文字に変換した第3文字列、第2音声認識回路32が出力した第2話者12の音声の認識結果である第2言語の第2文字列、及び第2翻訳回路34が出力した第2話者12の第2言語の音声を第1言語の文字に変換した第4文字列を制御回路37から入力される。
さらに、映像信号発生回路38は、第1音声認識回路31が出力した第1話者11の音声の認識結果である第1言語の第1文字列、及び第2翻訳回路34が出力した第2話者12の第2言語の音声を第1言語に変換した第4文字列を第2表示回路26に出力する。また、映像信号発生回路38は、第2音声認識回路32が出力した第2話者12の音声の認識結果である第2言語の第2文字列、及び第1翻訳回路33が出力した第1話者11の第1言語の音声を第2言語に変換した第3文字列を、第1表示回路25に出力する。
[1−2−1.第1エコーキャンセラ40]
第1エコーキャンセラ40は、第1スピーカ22から拡声された第1翻訳音声が第2マイク23に入力される現象を第1エコー13としたとき、第1翻訳音声と第1エコー13に対応する第1伝達関数とを用いて、第1エコー13を示す第1エコー信号を推定し、第1エコー信号を、第2マイク23の出力信号から除去する回路である。ここで、第1エコー信号とは、第1エコー13の程度を示す信号である。
本実施の形態では、第1エコーキャンセラ40は、第2マイク23の出力信号から、第1エコー信号を除去し、除去後の信号を第4エコーキャンセラ70に出力する回路であり、デジタル音声データを時間軸領域で処理するデジタル信号処理回路である。
より詳しくは、第1エコーキャンセラ40は、第1伝達関数記憶回路44、第1記憶回路42、第1畳み込み演算器43、第1減算器41、及び、第1伝達関数更新回路45を有する。
第1伝達関数記憶回路44は、第1エコー13に対応する第1伝達関数を記憶する。
第1記憶回路42は、第1音声合成回路35の出力信号を記憶する。
第1畳み込み演算器43は、第1記憶回路42に記憶された信号と第1伝達関数記憶回路44に記憶された第1伝達関数とを畳み込むことで第1妨害信号(すなわち第1エコー信号)を生成する。例えば、第1畳み込み演算器43は、以下の式1に示される畳み込み演算を行うNタップのFIR(Finite Impulse Response)フィルタである。
Figure 2020110808
ここで、y1’tは、時刻tにおける第1妨害信号である。Nは、FIRフィルタのタップ数である。H1(i)tは、時刻tにおいて第1伝達関数記憶回路44に記憶されたN個の第1伝達関数のうちのi番目の第1伝達関数である。x1(t−i)は、第1記憶回路42に記憶された信号のうち、(t−i)番目の信号である。
第1減算器41は、第2マイク23の出力信号から、第1畳み込み演算器43から出力された第1妨害信号を除去し、第1エコーキャンセラ40の出力信号として出力する。例えば、第1減算器41は、以下の式2に示される減算を行う。
(数2)
e1=y1−y1’・・・(式2)
ここで、e1tは、時刻tにおける第1減算器41の出力信号である。y1tは、時刻tにおける第2マイク23の出力信号である。
第1伝達関数更新回路45は、第1減算器41の出力信号と第1記憶回路42に記憶された信号とに基づいて第1伝達関数記憶回路44に記憶された第1伝達関数を更新する。例えば、第1伝達関数更新回路45は、以下の式3に示されるように、独立成分分析を用いて、第1減算器41の出力信号と第1記憶回路42に記憶された信号とに基づいて、第1減算器41の出力信号と第1記憶回路42に記憶された信号とが相互に独立となるように、第1伝達関数記憶回路44に記憶された第1伝達関数を更新する。
(数3)
H1(j)t+1=H1(j)+α1×φ1(e1)×x1(t−j)・・・(式3)
ここで、H1(j)t+1は、時刻t+1における(つまり、更新後の)第1伝達関数記憶回路44に記憶されるN個の第1伝達関数のうちのj番目の第1伝達関数である。H1(j)tは、時刻t(つまり、更新前の)第1伝達関数記憶回路44に記憶されたN個の第1伝達関数のうちのj番目の第1伝達関数である。α1は、第1エコー13の第1伝達関数の推定における学習速度を制御するためのステップサイズパラメータである。φ1は、非線形関数(例えば、シグモイド関数(sigmoid関数)、双曲線正接関数(tanh関数)、正規化線形関数又は符号関数(sign関数))である。
このように、第1伝達関数更新回路45は、第1減算器41の出力信号に対して非線形関数を用いた非線形処理を施し、得られた結果に対して第1記憶回路42に記憶された信号と、第1エコー13の第1伝達関数の推定における学習速度を制御するための第1ステップサイズパラメータとを乗じることで第1更新係数を算出する。そして、算出した第1更新係数を第1伝達関数記憶回路44に記憶された第1伝達関数に加算することで更新を行う。
また、制御回路37は、第1音声合成回路35が第1翻訳音声を出力している期間に、第1エコーキャンセラ40に、第1エコー信号を推定する第1伝達関数を更新させる。つまり第1エコー13が存在する期間に、上記式3に示される第1伝達関数の更新式に基づいて第1伝達関数が更新される。
[1−2−2.第2エコーキャンセラ50]
第2エコーキャンセラ50は、第2スピーカ24から拡声された第2翻訳音声が第1マイク21に入力される現象を第2エコー14としたとき、第2翻訳音声と第2エコー14に対応する第2伝達関数とを用いて、第2エコー14を示す第2エコー信号を推定し、第2エコー信号を、第1マイク21の出力信号から除去する回路である。ここで、第2エコー信号とは、第2エコー14の程度を示す信号である。
本実施の形態では、第2エコーキャンセラ50は、第1マイク21の出力信号から、第2エコー信号を除去し、除去後の信号を第3エコーキャンセラ60に出力する回路であり、デジタル音声データを時間軸領域で処理するデジタル信号処理回路である。
より詳しくは、第2エコーキャンセラ50は、第2伝達関数記憶回路54、第2記憶回路52、第2畳み込み演算器53、第2減算器51、及び、第2伝達関数更新回路55を有する。
第2伝達関数記憶回路54は、第2エコー14に対応する第2伝達関数を記憶する。
第2記憶回路52は、第2音声合成回路36の出力信号を記憶する。
第2畳み込み演算器53は、第2記憶回路52に記憶された信号と第2伝達関数記憶回路54に記憶された第2伝達関数とを畳み込むことで第2妨害信号(すなわち第2エコー信号)を生成する。例えば、第2畳み込み演算器53は、以下の式4に示される畳み込み演算を行うNタップのFIRフィルタである。
Figure 2020110808
ここで、y2’tは、時刻tにおける第2妨害信号である。Nは、FIRフィルタのタップ数である。H2(i)tは、時刻tにおいて第2伝達関数記憶回路54に記憶されたN個の第2伝達関数のうちのi番目の第2伝達関数である。x2(t−i)は、第2記憶回路52に記憶された信号のうち、(t−i)番目の信号である。
第2減算器51は、第1マイク21の出力信号から、第2畳み込み演算器53から出力された第2妨害信号を除去し、第2エコーキャンセラ50の出力信号として出力する。例えば、第2減算器51は、以下の式5に示される減算を行う。
(数5)
e2=y2−y2’・・・(式5)
ここで、e2tは、時刻tにおける第2減算器51の出力信号である。y2tは、時刻tにおける第1マイク21の出力信号である。
第2伝達関数更新回路55は、第2減算器51の出力信号と第2記憶回路52に記憶された信号とに基づいて第2伝達関数記憶回路54に記憶された第2伝達関数を更新する。例えば、第2伝達関数更新回路55は、以下の式6に示されるように、独立成分分析を用いて、第2減算器51の出力信号と第2記憶回路52に記憶された信号とに基づいて、第2減算器51の出力信号と第2記憶回路52に記憶された信号とが相互に独立となるように、第2伝達関数記憶回路54に記憶された第2伝達関数を更新する。
(数6)
H2(j)t+1=H2(j)+α2×φ2(e2)×x2(t−j)・・・(式6)
ここで、H2(j)t+1は、時刻t+1における(つまり、更新後の)第2伝達関数記憶回路54に記憶されるN個の第2伝達関数のうちのj番目の第2伝達関数である。H2(j)tは、時刻t(つまり、更新前の)第2伝達関数記憶回路54に記憶されたN個の第2伝達関数のうちのj番目の第2伝達関数である。α2は、第2エコー14の第2伝達関数の推定における学習速度を制御するためのステップサイズパラメータである。φ2は、非線形関数(例えば、シグモイド関数(sigmoid関数)、双曲線正接関数(tanh関数)、正規化線形関数又は符号関数(sign関数))である。
このように、第2伝達関数更新回路55は、第2減算器51の出力信号に対して非線形関数を用いた非線形処理を施し、得られた結果に対して第2記憶回路52に記憶された信号と、第2エコー14の第2伝達関数の推定における学習速度を制御するための第2ステップサイズパラメータとを乗じることで第2更新係数を算出する。そして、算出した第2更新係数を第2伝達関数記憶回路54に記憶された第2伝達関数に加算することで更新を行う。
また、制御回路37は、第2音声合成回路36が第2翻訳音声を出力している期間に、第2エコーキャンセラ50に、第2エコー信号を推定する第2伝達関数を更新させる。つまり第2エコー14が存在する期間に、上記式6に示される第2伝達関数の更新式に基づいて第2伝達関数が更新される。
[1−2−3.第3エコーキャンセラ60]
第3エコーキャンセラ60は、第1スピーカ22から出力された第1翻訳音声が第1マイク21に入力される現象を第3エコー15としたとき、第1翻訳音声と第3エコー15に対応する第3伝達関数とを用いて、第3エコー15を示す第3エコー信号を推定し、第3エコー信号を、第1マイク21の出力信号から除去する回路である。ここで、第3エコー信号とは、第3エコー15の程度を示す信号である。
本実施の形態では、第3エコーキャンセラ60は、第2エコーキャンセラ50の出力信号から、第3エコー信号を除去し、除去後の信号を第2クロストークキャンセラ90に出力する回路であり、デジタル音声データを時間軸領域で処理するデジタル信号処理回路である。
より詳しくは、第3エコーキャンセラ60は、第3伝達関数記憶回路64、第3記憶回路62、第3畳み込み演算器63、第3減算器61、及び、第3伝達関数更新回路65を有する。
第3伝達関数記憶回路64は、第3エコー15に対応する第3伝達関数を記憶する。
第3記憶回路62は、第1音声合成回路35の出力信号を記憶する。
第3畳み込み演算器63は、第3記憶回路62に記憶された信号と第3伝達関数記憶回路64に記憶された第3伝達関数とを畳み込むことで第3妨害信号(すなわち第3エコー信号)を生成する。例えば、第3畳み込み演算器63は、以下の式7に示される畳み込み演算を行うNタップのFIRフィルタである。
Figure 2020110808
ここで、y3’tは、時刻tにおける第3妨害信号である。Nは、FIRフィルタのタップ数である。H3(i)tは、時刻tにおいて第3伝達関数記憶回路64に記憶されたN個の第3伝達関数のうちのi番目の第3伝達関数である。x3(t−i)は、第3記憶回路62に記憶された信号のうち、(t−i)番目の信号である。
第3減算器61は、第2エコーキャンセラ50の出力信号から、第3畳み込み演算器63から出力された第3妨害信号を除去し、第3エコーキャンセラ60の出力信号として出力する。例えば、第3減算器61は、以下の式8に示される減算を行う。
(数8)
e3=y3−y3’・・・(式8)
ここで、e3tは、時刻tにおける第3減算器61の出力信号である。y3tは、時刻tにおける第2エコーキャンセラ50の出力信号である。
第3伝達関数更新回路65は、第3減算器61の出力信号と第3記憶回路62に記憶された信号とに基づいて第3伝達関数記憶回路64に記憶された第3伝達関数を更新する。例えば、第3伝達関数更新回路65は、以下の式9に示されるように、独立成分分析を用いて、第3減算器61の出力信号と第3記憶回路62に記憶された信号とに基づいて、第3減算器61の出力信号と第3記憶回路62に記憶された信号とが相互に独立となるように、第3伝達関数記憶回路64に記憶された第3伝達関数を更新する。
(数9)
H3(j)t+1=H3(j)+α3×φ3(e3)×x3(t−j)・・・(式9)
ここで、H3(j)t+1は、時刻t+1における(つまり、更新後の)第3伝達関数記憶回路64に記憶されるN個の第3伝達関数のうちのj番目の第3伝達関数である。H3(j)tは、時刻t(つまり、更新前の)第3伝達関数記憶回路64に記憶されたN個の第3伝達関数のうちのj番目の第3伝達関数である。α3は、第3エコー15の第3伝達関数の推定における学習速度を制御するためのステップサイズパラメータである。φ3は、非線形関数(例えば、シグモイド関数(sigmoid関数)、双曲線正接関数(tanh関数)、正規化線形関数又は符号関数(sign関数))である。
このように、第3伝達関数更新回路65は、第3減算器61の出力信号に対して非線形関数を用いた非線形処理を施し、得られた結果に対して第3記憶回路62に記憶された信号と、第3エコー15の第3伝達関数の推定における学習速度を制御するための第3ステップサイズパラメータとを乗じることで第3更新係数を算出する。そして、算出した第3更新係数を第3伝達関数記憶回路64に記憶された第3伝達関数に加算することで更新を行う。
また、制御回路37は、第1音声合成回路35が第1翻訳音声を出力している期間に、第3エコーキャンセラ60に、第3エコー信号を推定する第3伝達関数を更新させる。つまり第3エコー15が存在する期間に、上記式9に示される第3伝達関数の更新式に基づいて第3伝達関数が更新される。
[1−2−4.第4エコーキャンセラ70]
第4エコーキャンセラ70は、第2スピーカ24から拡声された第2翻訳音声が第2マイク23に入力される現象を第4エコー16としたとき、第2翻訳音声と第4エコー16に対応する第4伝達関数とを用いて、第4エコー16を示す第4エコー信号を推定し、第4エコー信号を、第2マイク23の出力信号から除去する回路である。ここで、第4エコー信号とは、第4エコー16の程度を示す信号である。
本実施の形態では、第4エコーキャンセラ70は、第1エコーキャンセラ40の出力信号から、第4エコー信号を除去し、除去後の信号を第1クロストークキャンセラ80に出力する回路であり、デジタル音声データを時間軸領域で処理するデジタル信号処理回路である。
より詳しくは、第4エコーキャンセラ70は、第4伝達関数記憶回路74、第4記憶回路72、第4畳み込み演算器73、第4減算器71、及び、第4伝達関数更新回路75を有する。
第4伝達関数記憶回路74は、第4エコー16に対応する第4伝達関数を記憶する。
第4記憶回路72は、第2音声合成回路36の出力信号を記憶する。
第4畳み込み演算器73は、第4記憶回路72に記憶された信号と第4伝達関数記憶回路74に記憶された第4伝達関数とを畳み込むことで第4妨害信号(すなわち第4エコー信号)を生成する。例えば、第4畳み込み演算器73は、以下の式10に示される畳み込み演算を行うNタップのFIRフィルタである。
Figure 2020110808
ここで、y4’tは、時刻tにおける第4妨害信号である。Nは、FIRフィルタのタップ数である。H4(i)tは、時刻tにおいて第4伝達関数記憶回路74に記憶されたN個の第4伝達関数のうちのi番目の第4伝達関数である。x4(t−i)は、第4記憶回路72に記憶された信号のうち、(t−i)番目の信号である。
第4減算器71は、第1エコーキャンセラ40の出力信号から、第4畳み込み演算器73から出力された第4妨害信号を除去し、第4エコーキャンセラ70の出力信号として出力する。例えば、第4減算器71は、以下の式11に示される減算を行う。
(数11)
e4=y4−y4’・・・(式11)
ここで、e4tは、時刻tにおける第4減算器71の出力信号である。y4tは、時刻tにおける第1エコーキャンセラ40の出力信号である。
第4伝達関数更新回路75は、第4減算器71の出力信号と第4記憶回路72に記憶された信号とに基づいて第4伝達関数記憶回路74に記憶された第4伝達関数を更新する。例えば、第4伝達関数更新回路75は、以下の式12に示されるように、独立成分分析を用いて、第4減算器71の出力信号と第4記憶回路72に記憶された信号とに基づいて、第4減算器71の出力信号と第4記憶回路72に記憶された信号とが相互に独立となるように、第4伝達関数記憶回路74に記憶された第4伝達関数を更新する。
(数12)
H4(j)t+1=H4(j)+α4×φ4(e4)×x4(t−j)・・・(式12)
ここで、H4(j)t+1は、時刻t+1における(つまり、更新後の)第4伝達関数記憶回路74に記憶されるN個の第4伝達関数のうちのj番目の第4伝達関数である。H4(j)tは、時刻t(つまり、更新前の)第4伝達関数記憶回路74に記憶されたN個の第4伝達関数のうちのj番目の第4伝達関数である。α4は、第4エコー16の第4伝達関数の推定における学習速度を制御するためのステップサイズパラメータである。φ4は、非線形関数(例えば、シグモイド関数(sigmoid関数)、双曲線正接関数(tanh関数)、正規化線形関数又は符号関数(sign関数))である。
このように、第4伝達関数更新回路75は、第4減算器71の出力信号に対して非線形関数を用いた非線形処理を施し、得られた結果に対して第4記憶回路72に記憶された信号と、第4エコー16の第4伝達関数の推定における学習速度を制御するための第4ステップサイズパラメータとを乗じることで第4更新係数を算出する。そして、算出した第4更新係数を第4伝達関数記憶回路74に記憶された第4伝達関数に加算することで更新を行う。
また、制御回路37は、第2音声合成回路36が第2翻訳音声を出力している期間に、第4エコーキャンセラ70に、第4エコー信号を推定する第4伝達関数を更新させる。つまり第4エコー16が存在する期間に、上記式12に示される第4伝達関数の更新式に基づいて第4伝達関数が更新される。
[1−2−5.第1クロストークキャンセラ80]
第1クロストークキャンセラ80は、第1音声が第2マイク23に入力される現象を第1クロストーク17としたとき、第1音声を用いて、第1クロストーク17を示す第1クロストーク信号を推定し、第1クロストーク信号を、第2マイク23の出力信号から除去する回路である。すなわち、第1音声に基づいた第2クロストークキャンセラ90の出力信号を用いて、第1クロストーク17の程度を示す第5妨害信号(すなわち第1クロストーク信号)を推定し、第5妨害信号を、第2マイク23の出力信号に基づく第4エコーキャンセラ70の出力信号から除去する回路である。
本実施の形態では、第1クロストークキャンセラ80は、第5妨害信号が除去された信号を第2音声認識回路32に出力する回路であり、デジタル音声データを時間軸領域で処理するデジタル信号処理回路である。ここで、第2クロストークキャンセラ90の出力信号は、図2に示すように、第1音声認識回路31への入力信号である。
より詳しくは、第1クロストークキャンセラ80は、第5伝達関数記憶回路84、第5記憶回路82、第5畳み込み演算器83、第5減算器81、及び、第5伝達関数更新回路85を有する。
第5伝達関数記憶回路84は、第1クロストーク17の伝達関数として推定された第5伝達関数を記憶する。
第5記憶回路82は、第2クロストークキャンセラ90の出力信号を記憶する。
第5畳み込み演算器83は、第5記憶回路82に記憶された信号と第5伝達関数記憶回路84に記憶された第5伝達関数とを畳み込むことで第5妨害信号を生成する。例えば、第5畳み込み演算器83は、以下の式13に示される畳み込み演算を行うNタップのFIRフィルタである。
Figure 2020110808
ここで、y5’tは、時刻tにおける第5妨害信号である。Nは、FIRフィルタのタップ数である。H5(i)tは、時刻tにおいて第5伝達関数記憶回路84に記憶されたN個の第5伝達関数のうちのi番目の第5伝達関数である。x5(t−i)は、第5記憶回路82に記憶された信号のうち、(t−i)番目の信号である。
第5減算器81は、第4エコーキャンセラ70の出力信号から、第5畳み込み演算器83から出力された第5妨害信号を除去し、第1クロストークキャンセラ80の出力信号として出力する。例えば、第5減算器81は、以下の式14に示される減算を行う。
(数14)
e5=y5−y5’・・・(式14)
ここで、e5tは、時刻tにおける第5減算器81の出力信号である。y5tは、時刻tにおける第4エコーキャンセラ70の出力信号である。
第5伝達関数更新回路85は、第5減算器81の出力信号と第5記憶回路82に記憶された信号とに基づいて第5伝達関数記憶回路84に記憶された第5伝達関数を更新する。例えば、第5伝達関数更新回路85は、以下の式15に示されるように、独立成分分析を用いて、第5減算器81の出力信号と第5記憶回路82に記憶された信号とに基づいて、第5減算器81の出力信号と第5記憶回路82に記憶された信号とが相互に独立となるように、第5伝達関数記憶回路84に記憶された第5伝達関数を更新する。
(数15)
H5(j)t+1=H5(j)+α5×φ5(e5)×x5(t−j)・・・(式15)
ここで、H5(j)t+1は、時刻t+1における(つまり、更新後の)第5伝達関数記憶回路84に記憶されるN個の第5伝達関数のうちのj番目の第5伝達関数である。H5(j)tは、時刻t(つまり、更新前の)第5伝達関数記憶回路84に記憶されたN個の第5伝達関数のうちのj番目の第5伝達関数である。α5は、第1クロストーク17の第5伝達関数の推定における学習速度を制御するためのステップサイズパラメータである。φ5は、非線形関数(例えば、シグモイド関数(sigmoid関数)、双曲線正接関数(tanh関数)、正規化線形関数又は符号関数(sign関数))である。
このように、第5伝達関数更新回路85は、第5減算器81の出力信号に対して非線形関数を用いた非線形処理を施し、得られた結果に対して第5記憶回路82に記憶された信号と、第1クロストーク17の第5伝達関数の推定における学習速度を制御するための第5ステップサイズパラメータとを乗じることで第5更新係数を算出する。そして、算出した第5更新係数を第5伝達関数記憶回路84に記憶された第5伝達関数に加算することで更新を行う。
なお、本実施の形態における翻訳装置20では、第1話者11の同一時刻における音声について、第2クロストークキャンセラ90の出力信号が第1クロストークキャンセラ80に入力される時刻は、第1話者11の音声が第2マイク23に入力される時刻と同一、又は、より早くなるように、設計されている。つまり、第1クロストークキャンセラ80が第1クロストーク17をキャンセルできるように、因果律が保持されている。これは、第2クロストークキャンセラ90の出力信号が第1クロストークキャンセラ80に入力される時刻を決定づける要因(A/D変換の速度、第2エコーキャンセラ50での処理速度、第3エコーキャンセラ60での処理速度、第2クロストークキャンセラ90での処理速度等)と、第1話者11の音声が第2マイク23に入力される時刻を決定づける要因(第1話者11と第2マイク23との位置関係等)とを考慮することで適宜、実現し得る。
[1−2−6.第2クロストークキャンセラ90]
第2クロストークキャンセラ90は、第2音声が第1マイク21に入力される現象を第2クロストーク18としたとき、第2音声を用いて、第2クロストーク18を示す第2クロストーク信号を推定し、第2クロストーク信号を、第1マイク21の出力信号から除去する回路である。すなわち、第2音声に基づいた第1クロストークキャンセラ80の出力信号を用いて、第2クロストーク18の程度を示す第6妨害信号(すなわち第2クロストーク信号)を推定し、第6妨害信号を、第1マイク21の出力信号に基づく第3エコーキャンセラ60の出力信号から除去する回路である。
本実施の形態では、第2クロストークキャンセラ90は、第6妨害信号が除去された信号を第1音声認識回路31に出力する回路であり、デジタル音声データを時間軸領域で処理するデジタル信号処理回路である。ここで、第1クロストークキャンセラ80の出力信号は、図2に示すように、第2音声認識回路32への入力信号である。
より詳しくは、第2クロストークキャンセラ90は、第6伝達関数記憶回路94、第6記憶回路92、第6畳み込み演算器93、第6減算器91、及び、第6伝達関数更新回路95を有する。
第6伝達関数記憶回路94は、第2クロストーク18の伝達関数として推定された第6伝達関数を記憶する。
第6記憶回路92は、第1クロストークキャンセラ80の出力信号を記憶する。
第6畳み込み演算器93は、第6記憶回路92に記憶された信号と第6伝達関数記憶回路94に記憶された第6伝達関数とを畳み込むことで第6妨害信号を生成する。例えば、第6畳み込み演算器93は、以下の式16に示される畳み込み演算を行うNタップのFIRフィルタである。
Figure 2020110808
ここで、y6’tは、時刻tにおける第6妨害信号である。Nは、FIRフィルタのタップ数である。H6(i)tは、時刻tにおいて第6伝達関数記憶回路94に記憶されたN個の第6伝達関数のうちのi番目の第6伝達関数である。x6(t−i)は、第6記憶回路92に記憶された信号のうち、(t−i)番目の信号である。
第6減算器91は、第3エコーキャンセラ60の出力信号から、第6畳み込み演算器93から出力された第6妨害信号を除去し、第2クロストークキャンセラ90の出力信号として出力する。例えば、第6減算器91は、以下の式17に示される減算を行う。
(数17)
e6=y6−y6’・・・(式17)
ここで、e6tは、時刻tにおける第6減算器91の出力信号である。y6tは、時刻tにおける第3エコーキャンセラ60の出力信号である。
第6伝達関数更新回路95は、第6減算器91の出力信号と第6記憶回路92に記憶された信号とに基づいて第6伝達関数記憶回路94に記憶された第6伝達関数を更新する。例えば、第6伝達関数更新回路95は、以下の式18に示されるように、独立成分分析を用いて、第6減算器91の出力信号と第6記憶回路92に記憶された信号とに基づいて、第6減算器91の出力信号と第6記憶回路92に記憶された信号とが相互に独立となるように、第6伝達関数記憶回路94に記憶された第6伝達関数を更新する。
(数18)
H6(j)t+1=H6(j)+α6×φ6(e6)×x6(t−j)・・・(式18)
ここで、H6(j)t+1は、時刻t+1における(つまり、更新後の)第6伝達関数記憶回路94に記憶されるN個の第6伝達関数のうちのj番目の第6伝達関数である。H6(j)tは、時刻t(つまり、更新前の)第6伝達関数記憶回路94に記憶されたN個の第6伝達関数のうちのj番目の第6伝達関数である。α6は、第2クロストーク18の第6伝達関数の推定における学習速度を制御するためのステップサイズパラメータである。φ6は、非線形関数(例えば、シグモイド関数(sigmoid関数)、双曲線正接関数(tanh関数)、正規化線形関数又は符号関数(sign関数))である。
このように、第6伝達関数更新回路95は、第6減算器91の出力信号に対して非線形関数を用いた非線形処理を施し、得られた結果に対して第6記憶回路92に記憶された信号と、第2クロストーク18の第6伝達関数の推定における学習速度を制御するための第6ステップサイズパラメータとを乗じることで第6更新係数を算出する。そして、算出した第6更新係数を第6伝達関数記憶回路94に記憶された第6伝達関数に加算することで更新を行う。
なお、本実施の形態における翻訳装置20では、第2話者12の同一時刻における音声について、第1クロストークキャンセラ80の出力信号が第2クロストークキャンセラ90に入力される時刻は、第2話者12の音声が第1マイク21に入力される時刻と同一、又は、より早くなるように、設計されている。つまり、第2クロストークキャンセラ90が第2クロストーク18をキャンセルできるように、因果律が保持されている。これは、第1クロストークキャンセラ80の出力信号が第2クロストークキャンセラ90に入力される時刻を決定づける要因(A/D変換の速度、第1エコーキャンセラ40での処理速度、第4エコーキャンセラ70での処理速度、第1クロストークキャンセラ80での処理速度等)と、第2話者12の音声が第1マイク21に入力される時刻を決定づける要因(第2話者12と第1マイク21との位置関係等)とを考慮することで適宜、実現し得る。
[1−3.動作]
以上のように構成された本実施の形態における翻訳装置20は、次のように動作する。
予め、第1言語選択回路27及び第2言語選択回路28は、第1話者11から第1話者11が用いる第1言語の選択及び第2話者12から第2話者12が用いる第2言語の選択を受け付け、制御回路37に通知する。
第1話者11の音声は、第1マイク21に入力される。また、第1話者11の音声以外に、第2エコー14、第3エコー15及び第2クロストーク18が、第1マイク21に入力される。第1マイク21の出力信号は、第2エコーキャンセラ50において、第2妨害信号(すなわち第2エコー信号)が除去される。第2妨害信号は、第2エコー14の程度を示す(推定された)信号である。よって、第2エコーキャンセラ50の出力信号は、第1マイク21に入力された音声から、第2エコー14の影響が除去された音声を示す信号となる。
続いて、第2エコーキャンセラ50の出力信号は、第3エコーキャンセラ60において、第3妨害信号(すなわち第3エコー信号)が除去される。第3妨害信号は、第3エコー15の程度を示す(推定された)信号である。よって、第3エコーキャンセラ60の出力信号は、第2エコーキャンセラ50の出力信号から、第3エコー15の影響が除去された信号となる。
続いて、第3エコーキャンセラ60の出力信号は、第2クロストークキャンセラ90において、第6妨害信号(すなわち第2クロストーク信号)が除去される。第6妨害信号は、第2クロストーク18の程度を示す(推定された)信号である。よって、第2クロストークキャンセラ90の出力信号は、第3エコーキャンセラ60の出力信号から、第2クロストーク18の影響が除去された信号となり、第1音声認識回路31及び第1クロストークキャンセラ80に出力される。
続いて、第1音声認識回路31は、第1話者11の音声から、第2エコーキャンセラ50により第2エコー14が除去され、第3エコーキャンセラ60により第3エコー15が除去され、第2クロストークキャンセラ90により第2クロストーク18が除去されたデジタル音声データを入力される。第1音声認識回路31は、入力されたデジタル音声データに対し、制御回路37から指示された第1話者11の第1言語の情報に基づいて、音声認識を行った結果である第1文字列を第1翻訳回路33及び制御回路37に出力する。
続いて、第1翻訳回路33は、第1音声認識回路31が出力した第1文字列を、制御回路37から指示された第1話者11の第1言語から第2話者12の第2言語の第3文字列に変換し、変換した第3文字列を第1音声合成回路35及び制御回路37に出力する。
続いて、第1音声合成回路35は、第1翻訳回路33が出力した第2言語の第3文字列を、制御回路37から指示された第2言語の情報に基づいて、第2言語の出力信号に変換し、第2言語の出力信号を第1スピーカ22、第1エコーキャンセラ40、及び第3エコーキャンセラ60に出力し、第2言語の出力信号出力期間の情報を制御回路37に出力する。
第1音声合成回路35が出力した第2言語の出力信号が第1スピーカ22に入力され、第1翻訳音声となって出力される。
同様に、第2話者12の音声は、第2マイク23に入力される。また、第2話者12の音声以外に、第1エコー13、第4エコー16及び第1クロストーク17が、第2マイク23に入力される。第2マイク23の出力信号は、第1エコーキャンセラ40において、第1妨害信号(すなわち第1エコー信号)が除去される。第1妨害信号は、第1エコー13の程度を示す(推定された)信号である。よって、第1エコーキャンセラ40の出力信号は、第2マイク23に入力された音声から、第1エコー13の影響が除去された音声を示す信号となる。
続いて、第1エコーキャンセラ40の出力信号は、第4エコーキャンセラ70において、第4妨害信号(すなわち第4エコー信号)が除去される。第4妨害信号は、第4エコー16の程度を示す(推定された)信号である。よって、第4エコーキャンセラ70の出力信号は、第1エコーキャンセラ40の出力信号から、第4エコー16の影響が除去された信号となる。
続いて、第4エコーキャンセラ70の出力信号は、第1クロストークキャンセラ80において、第5妨害信号(すなわち第1クロストーク信号)が除去される。第5妨害信号は、第1クロストーク17の程度を示す(推定された)信号である。よって、第1クロストークキャンセラ80の出力信号は、第4エコーキャンセラ70の出力信号から、第1クロストーク17の影響が除去された信号となり、第2音声認識回路32及び第2クロストークキャンセラ90に出力される。
続いて、第2音声認識回路32は、第2話者12の音声から、第1エコーキャンセラ40により第1エコー13が除去され、第4エコーキャンセラ70により第4エコー16が除去され、第1クロストークキャンセラ80により第1クロストーク17が除去されたデジタル音声データを入力される。第2音声認識回路32は、入力されたデジタル音声データに対し、制御回路37から指示された第2話者12の第2言語の情報に基づいて、音声認識を行った結果である第2文字列を第2翻訳回路34及び制御回路37に出力する。
続いて、第2翻訳回路34は、第2音声認識回路32が出力した第2文字列を、制御回路37から指示された第2話者12の第2言語から第1話者11の第1言語の第4文字列に変換し、変換した第4文字列を第2音声合成回路36及び制御回路37に出力する。
続いて、第2音声合成回路36は、第2翻訳回路34が出力した第1言語の第4文字列を、制御回路37から指示された第1言語の情報に基づいて、第1言語の出力信号に変換し、第1言語の出力信号を第2スピーカ24、第2エコーキャンセラ50、及び第4エコーキャンセラ70に出力し、第1言語の出力信号出力期間の情報を制御回路37に出力する。
第2音声合成回路36が出力した第1言語の出力信号が第2スピーカ24に入力され、第2翻訳音声となって出力される。
制御回路37は、第1音声認識回路31が出力した第1話者11の音声の認識結果である第1言語の第1文字列、第1翻訳回路33が出力した第1話者11の第1言語の音声を第2言語に変換した第3文字列、第2音声認識回路32が出力した第2話者12の音声の認識結果である第2言語の第2文字列、及び第2翻訳回路34が出力した第2話者12の第2言語の音声を第1言語に変換した第4文字列を映像信号発生回路38に出力する。
また制御回路37は、第1音声合成回路35が出力した第1翻訳音声出力期間の情報を第1エコーキャンセラ40及び第3エコーキャンセラ60に出力して、その期間に第1エコーキャンセラ40及び第3エコーキャンセラ60に伝達関数を更新させる。ここで、第1翻訳音声出力期間の情報とは、第1音声合成回路35が第1翻訳音声を出力している期間を表す情報である。
さらに制御回路37は、第2音声合成回路36が出力した第2翻訳音声出力期間の情報を第2エコーキャンセラ50及び第4エコーキャンセラ70に出力して、その期間に第2エコーキャンセラ50及び第4エコーキャンセラ70に伝達関数を更新させる。ここで、第2翻訳音声出力期間の情報とは、第2音声合成回路36が第2翻訳音声を出力している期間を表す情報である。
映像信号発生回路38は、第1音声認識回路31が出力した第1話者11の音声の認識結果である第1言語の第1文字列、及び第2翻訳回路34が出力した第2話者12の第2言語の音声を第1言語に変換した第4文字列を第2表示回路26に出力する。さらに、映像信号発生回路38は、第2音声認識回路32が出力した第2話者12の音声の認識結果である第2言語の第2文字列、及び第1翻訳回路33が出力した第1話者11の第1言語の音声を第2言語に変換した第3文字列を第1表示回路25に出力する。
翻訳装置20では、第1話者11の音声及び第2話者12の音声は以上のように、処理される。
以上により、第1音声認識回路31に入力される出力信号は、第1マイク21に入力された音声のうち、第2エコー14、第3エコー15、及び第2クロストーク18の影響が除去された出力信号、つまり、音響的雑音が除去された第1話者11の音声のみとなる。さらには、第1スピーカ22から出力される第1翻訳音声は、第1マイク21に入力された音声のうち、第2エコー14、第3エコー15、及び第2クロストーク18の影響が除去された出力信号、つまり、音響的雑音が除去された第1話者11の音声のみとなる。
また、第2音声認識回路32に入力される出力信号は、第2マイク23に入力された音声のうち、第1エコー13、第4エコー16、及び第1クロストーク17の影響が除去された出力信号、つまり、音響的雑音が除去された第2話者12の音声のみとなる。さらには、第2スピーカ24から出力される第2翻訳音声は、第2マイク23に入力された音声のうち、第1エコー13、第4エコー16、及び第1クロストーク17の影響が除去された出力信号、つまり、音響的雑音が除去された第2話者12の音声のみとなる。
なお、音響的雑音が除去される程度は、第1エコーキャンセラ40、第2エコーキャンセラ50、第3エコーキャンセラ60、第4エコーキャンセラ70及び、第1クロストークキャンセラ80、第2クロストークキャンセラ90に保持された伝達関数の精度、上記式3、式6、式9、式12、式15、及び式18に示される伝達関数の更新式におけるパラメータ等に依存するのは言うまでもない。
また、制御回路37は、一定条件のもとにおいて、第1エコーキャンセラ40、第2エコーキャンセラ50、第3エコーキャンセラ60及び第4エコーキャンセラ70に、各々のキャンセラの伝達関数を更新させる。この更新のフローチャートについて記述する。
図3は、第1エコーキャンセラ40及び第3エコーキャンセラ60の伝達関数の更新についてのフローチャートである。
上述のように、制御回路37は、第1音声合成回路35が出力した第1翻訳音声出力期間の情報を第1エコーキャンセラ40、及び第3エコーキャンセラ60に出力する。制御回路37は、第1音声合成回路35が第1翻訳音声を出力中か否か判断する(ステップS100)。
次に、ステップS100でYESの場合、制御回路37は、第1エコーキャンセラ40と、第3エコーキャンセラ60とに、各々のキャンセラの伝達関数を更新させる(ステップS101)。
また、ステップS100でNOの場合、制御回路37は、処理を終了する。
上記により、制御回路37は、第1エコー13、及び第3エコー15が存在する期間に、上記式3、及び式9に示される伝達関数の更新式に基づいて伝達関数を更新させる。
図4は、第2エコーキャンセラ50及び第4エコーキャンセラ70の伝達関数の更新についてのフローチャートである。
上述のように、制御回路37は、第2音声合成回路36が出力した第2翻訳音声出力期間の情報を第2エコーキャンセラ50、及び第4エコーキャンセラ70に出力する。制御回路37は、第2音声合成回路36が第2翻訳音声を出力中か否か判断する(ステップS200)。
次に、ステップS200でYESの場合、制御回路37は、第2エコーキャンセラ50と第4エコーキャンセラ70とに、各々のキャンセラの伝達関数を更新させる(ステップS201)。
また、ステップS200でNOの場合、制御回路37は、処理を終了する。
上記により、制御回路37は、第2エコー14、及び第4エコー16が存在する期間に、上記式6、及び式12に示される伝達関数の更新式に基づいて伝達関数を更新させる。
なお、図1で示す実施の形態1においては、第1マイク21と第2スピーカ24との距離が近く、かつ、第2マイク23と第1スピーカ22との距離が近い状態で会話が行われている。そのため、第1エコー13と第2エコー14との影響が大きい。その結果、第1エコーキャンセラ40と第2エコーキャンセラ50との重要性は高く、必須の構成となる。
一方で、第1マイク21と第2スピーカ24との距離が遠く、かつ、第2マイク23と第1スピーカ22との距離が遠くなると、第1エコー13と第2エコー14との影響が小さくなる。そのため、第1エコーキャンセラ40と第2エコーキャンセラ50との重要性は低く、必須の構成ではないこともある。その場合は、図2で示した実施の形態1と比べ、第1エコーキャンセラ40と第2エコーキャンセラ50とを備えない構成としてもよい。すなわち、第1マイク21の出力信号は、第2エコーキャンセラ50を介さずに、第3エコーキャンセラ60に入力され、第2マイク23の出力信号は、第1エコーキャンセラ40を介さずに、第4エコーキャンセラ70に入力される。
なお、図1で示した実施の形態1に加え、図示はしないが、翻訳装置20は、さらに、第1音声性別判定回路と、第2音声性別判定回路とを備えていてもよい。
第1音声性別判定回路は、第1音声に基づいて、第1話者11の性別判定を行う。
第2音声性別判定回路は、第2音声に基づいて、第2話者12の性別判定を行う。
さらに、この場合、制御回路37は、第1音声合成回路35に第1音声性別判定回路の判定結果と同じ性別の合成音声を出力させてもよく、第2音声合成回路36に第2音声性別判定回路の判定結果と同じ性別の合成音声を出力させてもよい。
なお、図1で示したように、実施の形態1では、翻訳装置20は、第1カメラ291と、第2カメラ292とを備えている。また、図示はしないが、翻訳装置20は、さらに、第1顔認識回路と、第2顔認識回路と、話者と前記話者が用いる言語との対を記憶しているデータベースと、を備えていてもよい。
第1カメラ291は、第1話者の顔を撮影する。第1カメラ291は、第1映像信号を第1顔認識回路へ出力する。
第2カメラ292は、第2話者の顔を撮影する。第2カメラ292は、第1映像信号を第2顔認識回路へ出力する。
第1顔認識回路は、第1カメラから出力された第1映像信号に基づいて、第1話者11を特定する。
第2顔認識回路は、第2カメラから出力された第2映像信号に基づいて、第2話者12を特定する。
データベースは、話者と話者が用いる言語との対を記憶している。
さらに、この場合、制御回路37は、第1顔認識回路が特定した第1話者11の言語がデータベースに登録されている場合には、第1音声認識回路と第1音声認識回路31と第1翻訳回路33と第2翻訳回路34と第1音声合成回路35とに、第1話者11の第1言語を通知してもよく、第2顔認識回路が特定した第2話者12の言語がデータベースに登録されている場合には、第2音声認識回路と第2音声認識回路32と第1翻訳回路33と第2翻訳回路34と第2音声合成回路36とに、第2話者12の第2言語を通知してもよい。
また、翻訳装置20は、上記で記した第1カメラ291と、第2カメラ292とに加え、さらに、第1映像性別判定回路と、第2映像性別判定回路とを備えていてもよい。
第1カメラ291は、第1話者の顔を撮影する。第1カメラ291は、第1映像信号を第1映像性別判定回路へ出力する。
第2カメラ292は、第2話者の顔を撮影する。第2カメラ292は、第2映像信号を第2映像性別判定回路へ出力する。
第1映像性別判定回路は、第1カメラ291から出力された第1映像信号に基づいて、第1話者の性別判定を行う。
第2映像性別判定回路は、第2カメラ292から出力された第2映像信号に基づいて、第2話者の性別判定を行う。
さらに、この場合、制御回路37は、第1音声合成回路に、第1映像性別判定回路の判定結果と同じ性別の合成音声を出力させてもよく、第2音声合成回路に、第2映像性別判定回路の判定結果と同じ性別の合成音声を出力させてもよい。
また、第1エコーキャンセラ40の第1記憶回路42と第3エコーキャンセラ60の第3記憶回路62とを共用する構成としてもよい。すなわち、第1エコーキャンセラ40の第1記憶回路42に記憶された信号と第3エコーキャンセラ60の第3記憶回路62に記憶された信号とは、いずれも第1音声合成回路35の出力信号であり、第1記憶回路42と第3記憶回路62とを共通化することで、第1記憶回路42と第3記憶回路62とに係る部分の記憶回路を半減することが可能となる。
さらに、第2エコーキャンセラ50の第2記憶回路52と第4エコーキャンセラ70の第4記憶回路72とを共用する構成としてもよい。すなわち、第2エコーキャンセラ50の第2記憶回路52に記憶された信号と第4エコーキャンセラ70の第4記憶回路72に記憶された信号とは、いずれも第2音声合成回路36の出力信号であり、第2記憶回路52と第4記憶回路72とを共通化することで、第2記憶回路52と第4記憶回路72とに係る部分の記憶回路を半減することが可能となる。
[1−4.効果等]
以上説明したように、翻訳装置20は、第1話者11と第2話者12とによる会話において、一方の話者の言語を他方の話者の言語に翻訳して合成音声を拡声する翻訳装置であって、第1話者11の第1音声を入力するための第1マイク21と、第1音声を音声認識して第1文字列を出力するための第1音声認識回路31と、第1音声認識回路31から出力された第1文字列を第2話者12の言語に翻訳して第3文字列を出力するための第1翻訳回路33と、第1翻訳回路33から出力された第3文字列を第1翻訳音声に変換するための第1音声合成回路35と、第1翻訳音声を拡声するための第1スピーカ22と、第2話者12の第2音声を入力するための第2マイク23と、第2音声を音声認識して第2文字列を出力するための第2音声認識回路32と、第2音声認識回路32から出力された第2文字列を第1話者11の言語に翻訳して第4文字列を出力するための第2翻訳回路34と、第2翻訳回路34から出力された第4文字列を第2翻訳音声に変換するための第2音声合成回路36と、第2翻訳音声を拡声するための第2スピーカ24と、第1スピーカ22から拡声された第1翻訳音声が第2マイク23に入力される現象を第1エコー13としたとき、第1翻訳音声と第1エコー13に対応する第1伝達関数とを用いて、第1エコー13を示す第1エコー信号を推定し、第1エコー信号を、第2マイク23の出力信号から除去する第1エコーキャンセラ40と、第2スピーカ24から拡声された第2翻訳音声が第1マイク21に入力される現象を第2エコー14としたとき、第2翻訳音声と第2エコー14に対応する第2伝達関数とを用いて、第2エコー14を示す第2エコー信号を推定し、第2エコー信号を、第1マイク21の出力信号から除去する第2エコーキャンセラ50と、制御回路37とを備え、制御回路37は、第1音声合成回路35が第1翻訳音声を出力している期間に、第1エコーキャンセラ40に、第1エコー信号を推定する第1伝達関数を更新させ、第2音声合成回路36が第2翻訳音声を出力している期間に、第2エコーキャンセラ50に、第2エコー信号を推定する第2伝達関数を更新させる。
このような翻訳装置20は、複数の話者の音声と、この複数の話者の音声を認識し相手の言語に翻訳し音声合成して出力された複数の合成音声とが、同時に重複して存在するような場合でも、エコーを含む音響的雑音を除去し、安定して音声認識しながら、相互に会話を行うことができる。また、第1話者11の第1音声と第2話者12の第2音声と第1音声合成回路35の第1翻訳音声と第2音声合成回路36の第2翻訳音声とが同時に発生しても、エコーをエコーキャンセラが除去するので、第1音声認識回路31と第2音声認識回路32が音声認識精度を下げることがない。さらには、第1エコーキャンセラ40は、第1音声合成回路35が合成音声を出力している時に第1伝達関数を更新し、それ以外の音声が存在する時に不要な更新がされないため、第1エコーキャンセラ40における第1伝達関数の推定精度が高まる。つまり、不要な更新により、第1エコーキャンセラ40の第1伝達関数記憶回路44に記憶された第1伝達関数が、破壊されることが防がれるため、より高精度に第1エコー信号を除去できる。同じく、第2エコーキャンセラ50は、第2音声合成回路36が合成音声を出力している時に第2伝達関数を更新し、それ以外の音声が存在する時に不要な更新がされないため、第2エコーキャンセラ50における第2伝達関数の推定精度を高めることができる。つまり、不要な更新により、第2エコーキャンセラ50の第2伝達関数記憶回路54に記憶された第2伝達関数が、破壊されることが防がれるため、より高精度に第2エコー信号を除去できる。
また、例えば、翻訳装置20は、さらに、第1スピーカ22から拡声された第1翻訳音声が第1マイク21に入力される現象を第3エコー15としたとき、第1翻訳音声と第3エコー15に対応する第3伝達関数とを用いて、第3エコー15を示す第3エコー信号を推定し、第3エコー信号を、第1マイク21の出力信号から除去する第3エコーキャンセラ60と、第2スピーカ24から拡声された第2翻訳音声が第2マイク23に入力される現象を第4エコー16としたとき、第2翻訳音声と第4エコー16に対応する第4伝達関数とを用いて、第4エコー16を示す第4エコー信号を推定し、第4エコー信号を、第2マイク23の出力信号から除去する第4エコーキャンセラ70とを備え、制御回路37は、第1音声合成回路35が第1翻訳音声を出力している期間に、第3エコーキャンセラ60に、第3エコー信号を推定する第3伝達を更新させ、第2音声合成回路36が第2翻訳音声を出力している期間に、第4エコーキャンセラ70に、第4エコー信号を推定する第4伝達関数を更新させる。
このような翻訳装置20は、複数の話者の音声と、この複数の話者の音声を認識し相手の言語に翻訳し音声合成して出力された複数の合成音声とが、同時に重複して存在するような場合でも、エコーを含む音響的雑音を除去し、安定して音声認識しながら、相互に会話を行うことができる。さらには、第1エコーキャンセラ40と第3エコーキャンセラ60とは、第1音声合成回路35が合成音声を出力している時に第1伝達関数及び第3伝達関数を更新し、それ以外の音声が存在する時に不要な更新がされないため、第1エコーキャンセラ40及び第3エコーキャンセラ60における第1伝達関数及び第3伝達関数の推定精度が高まる。つまりは、不要な更新により、第3エコーキャンセラ60の第3伝達関数記憶回路64に記憶された第3伝達関数が、破壊されることが防がれるため、より高精度に第3エコー信号を除去できる。同じく、第2エコーキャンセラ50と第4エコーキャンセラ70とは、第2音声合成回路36が合成音声を出力している時に第2伝達関数及び第4伝達関数を更新し、それ以外の音声が存在する時に不要な更新がされないため、第2エコーキャンセラ50及び第4エコーキャンセラ70における第2伝達関数及び第4伝達関数の推定精度を高めることができる。つまりは、不要な更新により、第4エコーキャンセラ70の第4伝達関数記憶回路74に記憶された第4伝達関数が、破壊されることが防がれるため、より高精度に第4エコー信号を除去できる。
また、例えば、翻訳装置20は、第1話者11と第2話者12とによる会話において、一方の話者の言語を他方の話者の言語に翻訳して合成音声を拡声する翻訳装置であって、第1話者11の第1音声を入力するための第1マイク21と、第1音声を音声認識して第1文字列を出力するための第1音声認識回路31と、第1音声認識回路31から出力された第1文字列を第2話者12の言語に翻訳して第3文字列を出力するための第1翻訳回路33と、第1翻訳回路33から出力された第3文字列を第1翻訳音声に変換するための第1音声合成回路35と、第1翻訳音声を拡声するための第1スピーカ22と、第2話者12の第2音声を入力するための第2マイク23と、第2音声を音声認識して第2文字列を出力するための第2音声認識回路32と、第2音声認識回路32から出力された第2文字列を第1話者11の言語に翻訳して第4文字列を出力するための第2翻訳回路34と、第2翻訳回路34から出力された第4文字列信号を第2翻訳音声に変換するための第2音声合成回路36と、第2翻訳音声を拡声するための第2スピーカ24と、第1スピーカ22から拡声された第1翻訳音声が第1マイク21に入力される現象を第3エコー15としたとき、第1翻訳音声と第3エコー15に対応する第3伝達関数とを用いて、第3エコー15を示す第3エコー信号を推定し、第3エコー信号を、第1マイク21の出力信号から除去する第3エコーキャンセラ60と、第2スピーカ24から拡声された第2翻訳音声が第2マイク23に入力される現象を第4エコー16としたとき、第2翻訳音声と第4エコー16に対応する第4伝達関数とを用いて、第4エコー16を示す第4エコー信号を推定し、第4エコー信号を、第2マイク23の出力信号から除去する第4エコーキャンセラ70と、制御回路37とを備え、制御回路37は、第1音声合成回路35が第1翻訳音声を出力している期間に、第3エコーキャンセラ60に、第3エコー信号を推定する第3伝達関数を更新させ、第2音声合成回路36が第2翻訳音声を出力している期間に、第4エコーキャンセラ70に、第4エコー信号を推定する第4伝達関数を更新させる。
このような翻訳装置20は、複数の話者の音声と、この複数の話者の音声を認識し相手の言語に翻訳し音声合成して出力された複数の合成音声とが、同時に重複して存在するような場合でも、エコーを含む音響的雑音を除去し、安定して音声認識しながら、相互に会話を行うことができる。さらには、第3エコーキャンセラ60は、第1音声合成回路35が合成音声を出力している時に第3伝達関数を更新し、それ以外の音声が存在する時に不要な更新がされないため、第3エコーキャンセラ60における第3伝達関数の推定精度が高まる。つまりは、不要な更新により、第3エコーキャンセラ60の第3伝達関数記憶回路64に記憶された第3伝達関数が、破壊されることが防がれるため、より高精度に第3エコー信号を除去できる。同じく、第4エコーキャンセラ70は、第2音声合成回路36が合成音声を出力している時に第4伝達関数を更新し、それ以外の音声が存在する時に不要な更新がされないため、第4エコーキャンセラ70における第4伝達関数の推定精度を高めることができる。つまりは、不要な更新により、第4エコーキャンセラ70の第4伝達関数記憶回路74に記憶された第4伝達関数が、破壊されることが防がれるため、より高精度に第4エコー信号を除去できる。
また、例えば、翻訳装置20は、さらに、第1音声が第2マイク23に入力される現象を第1クロストーク17としたとき、第1音声を用いて、第1クロストーク17を示す第1クロストーク信号を推定し、第1クロストーク信号を、第2マイク23の出力信号から除去する第1クロストークキャンセラ80と、第2音声が第1マイク21に入力される現象を第2クロストーク18としたとき、第2音声を用いて、第2クロストーク18を示す第2クロストーク信号を推定し、第2クロストーク信号を、第1マイク21の出力信号から除去する第2クロストークキャンセラ90とを備える。
このような翻訳装置20は、複数の話者の音声と、この複数の話者の音声を認識し相手の言語に翻訳し音声合成して出力された複数の合成音声とが、同時に重複して存在するような場合でも、エコー及びクロストークを含む音響的雑音を除去し、安定して音声認識しながら、相互に会話を行うことができる。
また、例えば、翻訳装置20は、さらに、第1話者11から第1話者11が用いる第1言語の選択を受け付け、制御回路37に通知する第1言語選択回路27と、第2話者12から第2話者12が用いる第2言語の選択を受け付け、制御回路37に通知する第2言語選択回路28とを備え、制御回路37は、第1言語選択回路27から通知された第1言語と、第2言語選択回路28から通知された第2言語と、に基づいて、第1音声認識回路31に、第1言語で音声認識させ、第2音声認識回路32に、第2言語で音声認識させ、第1翻訳回路33に、第1言語から第2言語に翻訳させ、第2翻訳回路34に、第2言語から第1言語に翻訳させ、第1音声合成回路35に、第2言語で音声合成させ、第2音声合成回路36に、第1言語で音声合成させる。
このような翻訳装置20は、予め翻訳する言語が選択されているため、スムーズに翻訳し、第1翻訳音声と第2翻訳音声を出力することができる。
また、例えば、翻訳装置20は、第1音声に基づいて、第1話者11の性別判定を行う第1音声性別判定回路と、第2音声に基づいて、第2話者12の性別判定を行う第2音声性別判定回路とを備え、制御回路37は、第1音声合成回路35に、第1音声性別判定回路の判定結果と同じ性別の合成音声を、出力させ、第2音声合成回路36に、第2音声性別判定回路の判定結果と同じ性別の合成音声を、出力させる。
このような翻訳装置20は、話者の性別と同性の第1翻訳音声と第2翻訳音声とを出力することができる。
また、例えば、翻訳装置20は、第1話者11の顔を撮影する第1カメラ291と、第1カメラ291から出力された第1映像信号に基づいて、第1話者11を特定する第1顔認識回路と、第2話者12の顔を撮影する第2カメラ292と、第2カメラ292から出力された第2映像信号に基づいて、第2話者12を特定する第2顔認識回路と、話者と話者が用いる言語との対を記憶しているデータベースとを備え、制御回路37は、第1顔認識回路が特定した第1話者11の言語がデータベースに登録されている場合には、第1音声認識回路31と第1翻訳回路33と第2翻訳回路34と第1音声合成回路35とに、第1話者11の第1言語を通知し、第2顔認識回路が特定した第2話者12の言語がデータベースに登録されている場合には、第2音声認識回路32と第1翻訳回路33と第2翻訳回路34と第2音声合成回路36とに、第2話者12の第2言語を通知する。
このような翻訳装置20は、映像から人物を認識し、予め翻訳する言語が登録されているため、スムーズに翻訳し、第1翻訳音声と第2翻訳音声とを出力することができる。
また、例えば、翻訳装置20は、さらに、第1カメラ291から出力された第1映像信号に基づいて、第1話者11の性別判定を行う第1映像性別判定回路と、第2カメラ292から出力された第2映像信号に基づいて、第2話者12の性別判定を行う第2映像性別判定回路とを備え、制御回路37は、第1音声合成回路35に、第1映像性別判定回路の判定結果と同じ性別の合成音声を出力させ、第2音声合成回路36に、第2映像性別判定回路の判定結果と同じ性別の合成音声を出力させる。
このような翻訳装置20は、映像から人物の性別を認識し、話者の性別と同性の第1翻訳音声と第2翻訳音声とを出力することができる。
さらに、翻訳方法は、第1話者11と第2話者12とによる会話において、自分の言語を相手の言語に翻訳して合成音声を拡声する翻訳方法であって、第1話者11の第1音声を入力するための第1入力ステップと、第1音声を音声認識して第1文字列を出力するための第1音声認識ステップと、第1音声認識ステップから出力された第1文字列を第2話者12の言語に翻訳して第3文字列を出力するための第1翻訳ステップと、第1翻訳ステップから出力された第3文字列を第1翻訳音声に変換するための第1音声合成ステップと、第1翻訳音声を拡声するための第1拡声ステップと、第2話者12の第2音声を入力するための第2入力ステップと、第2音声を音声認識して第2文字列を出力するための第2音声認識ステップと、第2音声認識ステップから出力された第2文字列を第1話者11の言語に翻訳して第4文字列を出力するための第2翻訳ステップと、第2翻訳ステップから出力された第4文字列を第2翻訳音声に変換するための第2音声合成ステップと、第2翻訳音声を拡声するための第2拡声ステップと、第1拡声ステップにて拡声された第1翻訳音声が第2入力ステップにて入力される現象を第1エコー13としたとき、第1翻訳音声と第1エコー13に対応する第1伝達関数とを用いて、第1エコー13を示す第1エコー信号を推定し、第1エコー信号を、第2入力ステップの出力信号から除去する第1エコーキャンセラステップと、第2拡声ステップにて拡声された第2翻訳音声が第1入力ステップにて入力される現象を第2エコー14としたとき、第2翻訳音声と第2エコー14に対応する第2伝達関数とを用いて、第2エコー14を示す第2エコー信号を推定し、第2エコー信号を、第1入力ステップの出力信号から除去する第2エコーキャンセラステップと、第1音声合成ステップにて第1翻訳音声を出力している期間に、第1エコーキャンセラステップにおいて、第1エコー信号を推定する第1伝達関数を更新し、第2音声合成ステップにて第2翻訳音声を出力している期間に、第2エコーキャンセラステップにおいて、第2エコー信号を推定する第2伝達関数を更新するように指示を与える制御ステップとを含む。
このような翻訳方法は、複数の話者の音声と、この複数の話者の音声を認識し相手の言語に翻訳し音声合成して出力された複数の合成音声とが、同時に重複して存在するような場合でも、エコーを含む音響的雑音を除去し、安定して音声認識しながら、相互に会話を行うことができる。さらには、第1エコーキャンセラ40は、第1音声合成回路35が合成音声を出力している時に第1伝達関数を更新し、それ以外の音声が存在する時に不要な更新がされないため、第1エコーキャンセラ40における第1伝達関数の推定精度が高まる。つまり、不要な更新により、第1エコーキャンセラ40の第1伝達関数記憶回路44に記憶された第1伝達関数が、破壊されることが防がれるため、より高精度に第1エコー信号を除去できる。同じく、第2エコーキャンセラ50は、第2音声合成回路36が合成音声を出力している時に第2伝達関数を更新し、それ以外の音声が存在する時に不要な更新がされないため、第2エコーキャンセラ50における第2伝達関数の推定精度を高めることができる。つまり、不要な更新により、第2エコーキャンセラ50の第2伝達関数記憶回路54に記憶された第2伝達関数が、破壊されることが防がれるため、より高精度に第2エコー信号を除去できる。
また、例えば、翻訳方法は、第1話者11と第2話者12とによる会話において、自分の言語を相手の言語に翻訳して合成音声を拡声する翻訳方法であって、第1話者11の第1音声を入力するための第1入力ステップと、第1音声を音声認識して第1文字列を出力するための第1音声認識ステップと、第1音声認識ステップから出力された第1文字列を第2話者12の言語に翻訳して第3文字列を出力するための第1翻訳ステップと、第1翻訳ステップから出力された第3文字列を第1翻訳音声に変換するための第1音声合成ステップと、第1翻訳音声を拡声するための第1拡声ステップと、第2話者12の第2音声を入力するための第2入力ステップと、第2音声を音声認識して第2文字列を出力するための第2音声認識ステップと、第2音声認識ステップから出力された第2文字列を第1話者11の言語に翻訳して第4文字列を出力するための第2翻訳ステップと、第2翻訳ステップから出力された第4文字列を第2翻訳音声に変換するための第2音声合成ステップと、第2翻訳音声を拡声するための第2拡声ステップと、第1拡声ステップにて出力された第1翻訳音声が第1入力ステップにて入力される現象を第3エコー15としたとき、第1翻訳音声と第3エコー15に対応する第3伝達関数とを用いて、第3エコー15を示す第3エコー信号を推定し、第3エコー信号を、第1入力ステップの出力信号から除去する第3エコーキャンセラステップと、第2拡声ステップにて出力された第2翻訳音声が第2入力ステップにて入力される現象を第4エコー16としたとき、第2翻訳音声と第4エコー16に対応する第4伝達関数とを用いて、第4エコー16を示す第4エコー信号を推定し、第4エコー信号を、第2入力ステップの出力信号から除去する第4エコーキャンセラステップと、第1音声合成ステップにて第1翻訳音声を出力している期間に、第3エコーキャンセラステップにおいて、第3エコー信号を推定する第3伝達関数を更新し、第2音声合成ステップから第2翻訳音声を出力している期間に、第4エコーキャンセラステップにおいて、第4エコー信号を推定する第4伝達関数を更新するように指示を与える制御ステップとを含む。
このような翻訳方法は、複数の話者の音声と、この複数の話者の音声を認識し相手の言語に翻訳し音声合成して出力された複数の合成音声とが、同時に重複して存在するような場合でも、エコーを含む音響的雑音を除去し、安定して音声認識しながら、相互に会話を行うことができる。さらには、第3エコーキャンセラ60は、第1音声合成回路35が合成音声を出力している時に第3伝達関数を更新し、それ以外の音声が存在する時に不要な更新がされないため、第3エコーキャンセラ60における第3伝達関数の推定精度が高まる。つまりは、不要な更新により、第3エコーキャンセラ60の第3伝達関数記憶回路64に記憶された第3伝達関数が、破壊されることが防がれるため、より高精度に第3エコー信号を除去できる。同じく、第4エコーキャンセラ70は、第2音声合成回路36が合成音声を出力している時に第4伝達関数を更新し、それ以外の音声が存在する時に不要な更新がされないため、第4エコーキャンセラ70における第4伝達関数の推定精度を高めることができる。つまりは、不要な更新により、第4エコーキャンセラ70の第4伝達関数記憶回路74に記憶された第4伝達関数が、破壊されることが防がれるため、より高精度に第4エコー信号を除去できる。
[1−5.変形例]
上記実施の形態では、第1伝達関数更新回路45は、上記式3に従って伝達関数を更新したが、以下の式19又は式20に示されるように、正規化された式に従って伝達関数を更新してもよい。
Figure 2020110808
ここで、Nは、第1伝達関数記憶回路44に記憶される伝達関数の個数である。|x1(t−i)|は、x1(t−i)の絶対値である。
Figure 2020110808
これにより、第1伝達関数更新回路45による推定伝達関数の更新が、入力信号x1(t−j)の振幅に依存せず、安定して実施される。
(実施の形態2)
実施の形態1では、第1話者11の第1言語と第2話者12の第2言語とが異なる場合を示した。一方で、実施の形態2では、第1話者11の第1言語と第2話者12の第2言語とが同一である場合に適した構成を示す。
まず、実施の形態2では、実施の形態1と比べ、翻訳した音声を出力する機能と翻訳機能とが不要になる。
また後述するように、ハウリングという現象が問題となる。ハウリングとは、ある話者の音声を出力するスピーカから出力された音声がその話者の音声が入力されるマイクに帰還して入力される現象を指す。具体的に、ここでは、第1スピーカ22から出力された音声が第1マイク21に帰還して入力される現象を第1ハウリング15a、第2スピーカ24から出力された音声が第2マイク23に帰還して入力される現象を第2ハウリング16aと定義する。
[2−1.構成]
図5は、実施の形態2における翻訳装置20aの構成を示すブロック図である。すなわち、図5は、第1言語選択回路27で設定された第1話者11の第1言語と第2言語選択回路28で設定された第2話者12の第2言語とが同一である場合の構成を示すブロック図である。なお、実施の形態2では、実施の形態1と共通の構成要素については同一の符号を付し、その詳細な説明を省略する。
図5では、図2に対し、第1言語と第2言語とが同一であるため、第1翻訳回路33、第2翻訳回路34、第1音声合成回路35及び第2音声合成回路36とが不要となる。
また、第1話者11の音声は、第1マイク21で収音され、後述する第1ハウリングキャンセラ60a及び第2エコー/第2クロストークキャンセラ90aを経由して、第1スピーカ22から出力されるため、第1マイク21への入力と第1スピーカ22からの出力が同じ第1話者11の音声(すなわち、翻訳されない第1話者11の音声)となるので、実施の形態1の第3エコー15は、第1ハウリング15aに変わる。そのため、第3エコーキャンセラ60は、第1ハウリングキャンセラ60aとして機能する。
また、第2話者12の音声は、第2マイク23で収音され、後述する第2ハウリングキャンセラ70a及び第1エコー/第1クロストークキャンセラ80aを経由して、第2スピーカ24から出力されるため、第2マイク23への入力と第2スピーカ24からの出力が同じ第2話者12の音声(すなわち、翻訳されない第2話者12の音声)となるので、実施の形態1の第4エコー16は、第2ハウリング16aに変わる。そのため、第4エコーキャンセラ70は、第2ハウリングキャンセラ70aとして機能する。
また、第1エコー13aと第1クロストーク17aの音源は、いずれも同じ第1話者11の音声になる。そのため、第1クロストークキャンセラ80は、第1エコー/第1クロストークキャンセラ80aとして機能する。その結果、第1エコーキャンセラ40は不要となる。
さらに、第2エコー14aと第2クロストーク18aの音源は、いずれも同じ第2話者12の音声になる。そのため、第2クロストークキャンセラ90は、第2エコー/第2クロストークキャンセラ90aとして機能する。その結果、第2エコーキャンセラ50は不要となる。
さらに、制御回路37は、第1エコーキャンセラ40と、第2エコーキャンセラ50と、第1翻訳回路33と、第2翻訳回路34と、第1音声合成回路35と、第2音声合成回路36とに、機能を停止させてもよい。
[2−1−1.第1ハウリングキャンセラ60a]
第1ハウリングキャンセラ60aは、第1スピーカ22から出力された音声が第1マイク21に帰還して入力される現象を第1ハウリング15aとしたとき、第1ハウリング15aの程度を示す第1ハウリング信号を推定し、第1ハウリング信号を、第1マイク21の出力信号から除去する回路である。本実施の形態では、第1ハウリングキャンセラ60aは、第1マイク21の出力信号から第1ハウリング信号を除去し、除去後の信号を後述する第2エコー/第2クロストークキャンセラ90aに出力する回路であり、デジタル音声データを時間軸領域で処理するデジタル信号処理回路である。
より詳しくは、第1ハウリングキャンセラ60aは、第3伝達関数記憶回路64、第1遅延器66、第3記憶回路62、第3畳み込み演算器63、第3減算器61、及び、第3伝達関数更新回路65を有する。つまり、図2の第3エコーキャンセラ60において、第1遅延器66が追加されている。
第3伝達関数記憶回路64は、第1ハウリング15aの伝達関数として推定された第3伝達関数を記憶する。
第1遅延器66は、第1ハウリングキャンセラ60aの出力信号を遅延させる。
第3記憶回路62は、第1遅延器66から出力された信号を記憶する。
第3畳み込み演算器63は、第3記憶回路62に記憶された信号と第3伝達関数記憶回路64に記憶された第3伝達関数とを畳み込むことで第1ハウリング信号を生成する。例えば、第3畳み込み演算器63は、以下の式21に示される畳み込み演算を行うNタップのFIR(Finite Impulse Response)フィルタである。
Figure 2020110808
ここで、y7’tは、時刻tにおける第1ハウリング信号である。Nは、FIRフィルタのタップ数である。H7(i)tは、時刻tにおいて第3伝達関数記憶回路64に記憶されたN個の第3伝達関数のうちのi番目の第3伝達関数である。x7(t−i−τ1)は、第3記憶回路62に記憶された信号のうち、(t−i−τ1)番目の信号である。τ1は、第1遅延器66による遅延時間である。
第3減算器61は、第1マイク21の出力信号から、第3畳み込み演算器63から出力された第1ハウリング信号を除去し、第1ハウリングキャンセラ60aの出力信号として、第2エコー/第2クロストークキャンセラ90aに出力する。例えば、第3減算器61は、以下の式22に示される減算を行う。
(数22)
e7=y7−y7’・・・(式22)
ここで、e7tは、時刻tにおける第3減算器61の出力信号である。y7tは、時刻tにおける第1マイク21の出力信号である。
第3伝達関数更新回路65は、第3減算器61の出力信号と第3記憶回路62に記憶された信号とに基づいて第3伝達関数記憶回路64に記憶された第3伝達関数を更新する。例えば、第3伝達関数更新回路65は、以下の式23に示されるように、独立成分分析を用いて、第3減算器61の出力信号と第3記憶回路62に記憶された信号とに基づいて、第3減算器61の出力信号と第3記憶回路62に記憶された信号とが相互に独立となるように、第3伝達関数記憶回路64に記憶された第3伝達関数を更新する。
(数23)
H7(j)t+1=H7(j)+α7×φ7(e7)×x7(t−j−τ1)
・・・(式23)
ここで、H7(j)t+1は、時刻t+1における(つまり、更新後の)第3伝達関数記憶回路64に記憶されるN個の第3伝達関数のうちのj番目の第3伝達関数である。H7(j)tは、時刻t(つまり、更新前の)第3伝達関数記憶回路64に記憶されたN個の第3伝達関数のうちのj番目の第3伝達関数である。α7は、第1ハウリング15aの第3伝達関数の推定における学習速度を制御するためのステップサイズパラメータである。φ7は、非線形関数(例えば、シグモイド関数(sigmoid関数)、双曲線正接関数(tanh関数)、正規化線形関数又は符号関数(sign関数))である。
このように、第3伝達関数更新回路65は、第3減算器61の出力信号に対して非線形関数を用いた非線形処理を施し、得られた結果に対して第3記憶回路62に記憶された信号と、第1ハウリング15aの第3伝達関数の推定における学習速度を制御するための第7ステップサイズパラメータとを乗じることで第7更新係数を算出する。そして、算出した第7更新係数を第3伝達関数記憶回路64に記憶された第3伝達関数に加算することで更新を行う。
[2−1−2.第2ハウリングキャンセラ70a]
第2ハウリングキャンセラ70aは、第2スピーカ24から出力された音声が第2マイク23に帰還して入力される現象を第2ハウリング16aとしたとき、第2ハウリング16aの程度を示す第2ハウリング信号を推定し、第2ハウリング信号を、第2マイク23の出力信号から除去する回路である。本実施の形態では、第2ハウリングキャンセラ70aは、第2マイク23の出力信号から第2ハウリング信号を除去し、除去後の信号を後述する第1エコー/第1クロストークキャンセラ80aに出力する回路であり、デジタル音声データを時間軸領域で処理するデジタル信号処理回路である。
より詳しくは、第2ハウリングキャンセラ70aは、第4伝達関数記憶回路74、第2遅延器76、第4記憶回路72、第4畳み込み演算器73、第4減算器71、及び、第4伝達関数更新回路75を有する。つまり、図2の第4エコーキャンセラ70において、第2遅延器76が追加されている。
第4伝達関数記憶回路74は、第2ハウリング16aの伝達関数として推定された第4伝達関数を記憶する。
第2遅延器76は、第2ハウリングキャンセラ70aの出力信号を遅延させる。
第4記憶回路72は、第2遅延器76から出力された信号を記憶する。
第4畳み込み演算器73は、第4記憶回路72に記憶された信号と第4伝達関数記憶回路74に記憶された第4伝達関数とを畳み込むことで第2ハウリング信号を生成する。例えば、第4畳み込み演算器73は、以下の式24に示される畳み込み演算を行うNタップのFIR(Finite Impulse Response)フィルタである。
Figure 2020110808
ここで、y8’tは、時刻tにおける第2ハウリング信号である。Nは、FIRフィルタのタップ数である。H8(i)tは、時刻tにおいて第4伝達関数記憶回路74に記憶されたN個の第4伝達関数のうちのi番目の第4伝達関数である。x8(t−i−τ2)は、第4記憶回路72に記憶された信号のうち、(t−i−τ2)番目の信号である。τ2は、第2遅延器76による遅延時間である。
第4減算器71は、第2マイク23の出力信号から、第4畳み込み演算器73から出力された第2ハウリング信号を除去し、第2ハウリングキャンセラ70aの出力信号として、第1エコー/第1クロストークキャンセラ80aに出力する。例えば、第4減算器71は、以下の式25に示される減算を行う。
(数25)
e8=y8−y8’・・・(式25)
ここで、e8tは、時刻tにおける第4減算器71の出力信号である。y8tは、時刻tにおける第2マイク23の出力信号である。
第4伝達関数更新回路75は、第4減算器71の出力信号と第4記憶回路72に記憶された信号とに基づいて第4伝達関数記憶回路74に記憶された第4伝達関数を更新する。例えば、第4伝達関数更新回路75は、以下の式26に示されるように、独立成分分析を用いて、第4減算器71の出力信号と第4記憶回路72に記憶された信号とに基づいて、第4減算器71の出力信号と第4記憶回路72に記憶された信号とが相互に独立となるように、第4伝達関数記憶回路74に記憶された第4伝達関数を更新する。
(数26)
H8(j)t+1=H8(j)+α8×φ8(e8)×x8(t−j−τ2)
・・・(式26)
ここで、H8(j)t+1は、時刻t+1における(つまり、更新後の)第4伝達関数記憶回路74に記憶されるN個の第4伝達関数のうちのj番目の第4伝達関数である。H8(j)tは、時刻t(つまり、更新前の)第4伝達関数記憶回路74に記憶されたN個の第4伝達関数のうちのj番目の第4伝達関数である。α8は、第2ハウリング16aの第4伝達関数の推定における学習速度を制御するためのステップサイズパラメータである。φ8は、非線形関数(例えば、シグモイド関数(sigmoid関数)、双曲線正接関数(tanh関数)、正規化線形関数又は符号関数(sign関数))である。
このように、第4伝達関数更新回路75は、第4減算器71の出力信号に対して非線形関数を用いた非線形処理を施し、得られた結果に対して第4記憶回路72に記憶された信号と、第2ハウリング16aの第4伝達関数の推定における学習速度を制御するための第8ステップサイズパラメータとを乗じることで第8更新係数を算出する。そして、算出した第8更新係数を第4伝達関数記憶回路74に記憶された第4伝達関数に加算することで更新を行う。
[2−1−3.第1エコー/第1クロストークキャンセラ80a]
第1エコー/第1クロストークキャンセラ80aは、第2エコー/第2クロストークキャンセラ90aの出力信号を用いて、第1スピーカ22から出力された音声が第2マイク23に回り込んで入力される第1エコー13a、及び、第1話者11の音声が第2マイク23に入力される第1クロストーク17aの程度を示す第9妨害信号(すなわち第1エコー/第1クロストーク信号)を推定し、第9妨害信号を、第2ハウリングキャンセラ70aの出力信号から除去する回路である。
本実施の形態では、第1エコー/第1クロストークキャンセラ80aは、第9妨害信号が除去された信号を第2音声認識回路32、第2エコー/第2クロストークキャンセラ90a及び第2スピーカ24に出力する回路であり、デジタル音声データを時間軸領域で処理するデジタル信号処理回路である。
より詳しくは、第1エコー/第1クロストークキャンセラ80aは、第5伝達関数記憶回路84、第5記憶回路82、第5畳み込み演算器83、第5減算器81、及び、第5伝達関数更新回路85を有する。
第5伝達関数記憶回路84は、第1エコー13aと第1クロストーク17aとを合わせた伝達関数として推定された第5伝達関数を記憶する。
第5記憶回路82は、第2エコー/第2クロストークキャンセラ90aの出力信号を記憶する。
第5畳み込み演算器83は、第5記憶回路82に記憶された信号と第5伝達関数記憶回路84に記憶された第5伝達関数とを畳み込むことで第9妨害信号を生成する。例えば、第5畳み込み演算器83は、以下の式27に示される畳み込み演算を行うNタップのFIRフィルタである。
Figure 2020110808
ここで、y9’tは、時刻tにおける第9妨害信号である。Nは、FIRフィルタのタップ数である。H9(i)tは、時刻tにおいて第5伝達関数記憶回路84に記憶されたN個の第5伝達関数のうちのi番目の第5伝達関数である。x9(t−i)は、第5記憶回路82に記憶された信号のうち、(t−i)番目の信号である。
第5減算器81は、第2ハウリングキャンセラ70aの出力信号から、第5畳み込み演算器83から出力された第9妨害信号を除去し、第1エコー/第1クロストークキャンセラ80aの出力信号として出力する。例えば、第5減算器81は、以下の式28に示される減算を行う。
(数28)
e9=y9−y9’・・・(式28)
ここで、e9tは、時刻tにおける第5減算器81の出力信号である。y9tは、時刻tにおける第2ハウリングキャンセラ70aの出力信号である。
第5伝達関数更新回路85は、第5減算器81の出力信号と第5記憶回路82に記憶された信号とに基づいて第5伝達関数記憶回路84に記憶された第5伝達関数を更新する。例えば、第5伝達関数更新回路85は、以下の式29に示されるように、独立成分分析を用いて、第5減算器81の出力信号と第5記憶回路82に記憶された信号とに基づいて、第5減算器81の出力信号と第5記憶回路82に記憶された信号とが相互に独立となるように、第5伝達関数記憶回路84に記憶された第5伝達関数を更新する。
(数29)
H9(j)t+1=H9(j)+α9×φ9(e9)×x9(t−j)・・・(式29)
ここで、H9(j)t+1は、時刻t+1における(つまり、更新後の)第5伝達関数記憶回路84に記憶されるN個の第5伝達関数のうちのj番目の第5伝達関数である。H9(j)tは、時刻t(つまり、更新前の)第5伝達関数記憶回路84に記憶されたN個の第5伝達関数のうちのj番目の第5伝達関数である。α9は、第1エコー13aと第1クロストーク17aとを合わせた第5伝達関数の推定における学習速度を制御するためのステップサイズパラメータである。φ9は、非線形関数(例えば、シグモイド関数(sigmoid関数)、双曲線正接関数(tanh関数)、正規化線形関数又は符号関数(sign関数))である。
このように、第5伝達関数更新回路85は、第5減算器81の出力信号に対して非線形関数を用いた非線形処理を施し、得られた結果に対して第5記憶回路82に記憶された信号と、第1エコー13aと第1クロストーク17aとを合わせた第5伝達関数の推定における学習速度を制御するための第9ステップサイズパラメータとを乗じることで第5更新係数を算出する。そして、算出した第5更新係数を第5伝達関数記憶回路84に記憶された第5伝達関数に加算することで更新を行う。
なお、本実施の形態における翻訳装置20では、第1話者11の同一時刻における音声について、第2エコー/第2クロストークキャンセラ90aの出力信号が第1エコー/第1クロストークキャンセラ80aに入力される時刻は、第2ハウリングキャンセラ70aの出力が第1エコー/第1クロストークキャンセラ80aに入力される時刻と同一、又は、より早くなるように、設計されている。つまり、第1エコー/第1クロストークキャンセラ80aが第1クロストーク17aをキャンセルできるように、因果律が保持されている。これは、第2エコー/第2クロストークキャンセラ90aの出力信号が第1エコー/第1クロストークキャンセラ80aに入力される時刻を決定づける要因(A/D変換の速度、第1ハウリングキャンセラ60aでの処理速度、第2エコー/第2クロストークキャンセラ90aでの処理速度等)と、第1話者11の音声が第2マイク23に入力される時刻を決定づける要因(第1話者11と第2マイク23との位置関係等)とを考慮することで適宜、実現し得る。
[2−1−4.第2エコー/第2クロストークキャンセラ90a]
第2エコー/第2クロストークキャンセラ90aは、第1エコー/第1クロストークキャンセラ80aの出力信号を用いて、第2スピーカ24から出力された音声が第1マイク21に回り込んで入力される第2エコー14a、及び、第2話者12の音声が第1マイク21に入力される第2クロストーク18aの程度を示す第10妨害信号(すなわち第2エコー/第2クロストーク信号)を推定し、第10妨害信号を、第1ハウリングキャンセラ60aの出力信号から除去する回路である。
本実施の形態では、第2エコー/第2クロストークキャンセラ90aは、第10妨害信号が除去された信号を第1音声認識回路31、第1エコー/第1クロストークキャンセラ80a及び第1スピーカ22に出力する回路であり、デジタル音声データを時間軸領域で処理するデジタル信号処理回路である。
より詳しくは、第2エコー/第2クロストークキャンセラ90aは、第6伝達関数記憶回路94、第6記憶回路92、第6畳み込み演算器93、第6減算器91、及び、第6伝達関数更新回路95を有する。
第6伝達関数記憶回路94は、第2エコー14aと第2クロストーク18aとを合わせた伝達関数として推定された第6伝達関数を記憶する。
第6記憶回路92は、第1エコー/第1クロストークキャンセラ80aの出力信号を記憶する。
第6畳み込み演算器93は、第6記憶回路92に記憶された信号と第6伝達関数記憶回路94に記憶された第6伝達関数とを畳み込むことで第10妨害信号を生成する。例えば、第6畳み込み演算器93は、以下の式30に示される畳み込み演算を行うNタップのFIRフィルタである。
Figure 2020110808
ここで、y10’tは、時刻tにおける第10妨害信号である。Nは、FIRフィルタのタップ数である。H10(i)tは、時刻tにおいて第6伝達関数記憶回路94に記憶されたN個の第6伝達関数のうちのi番目の第6伝達関数である。x10(t−i)は、第6記憶回路92に記憶された信号のうち、(t−i)番目の信号である。
第6減算器91は、第1ハウリングキャンセラ60aの出力信号から、第6畳み込み演算器93から出力された第10妨害信号を除去し、第2エコー/第2クロストークキャンセラ90aの出力信号として出力する。例えば、第6減算器91は、以下の式31に示される減算を行う。
(数31)
e10=y10−y10’・・・(式31)
ここで、e10tは、時刻tにおける第6減算器91の出力信号である。y10tは、時刻tにおける第1ハウリングキャンセラ60aの出力信号である。
第6伝達関数更新回路95は、第6減算器91の出力信号と第6記憶回路92に記憶された信号とに基づいて第6伝達関数記憶回路94に記憶された第6伝達関数を更新する。例えば、第6伝達関数更新回路95は、以下の式32に示されるように、独立成分分析を用いて、第6減算器91の出力信号と第6記憶回路92に記憶された信号とに基づいて、第6減算器91の出力信号と第6記憶回路92に記憶された信号とが相互に独立となるように、第6伝達関数記憶回路94に記憶された第6伝達関数を更新する。
(数32)
H10(j)t+1=H10(j)+α10×φ10(e10)×x10(t−j)
・・・(式32)
ここで、H10(j)t+1は、時刻t+1における(つまり、更新後の)第6伝達関数記憶回路94に記憶されるN個の第6伝達関数のうちのj番目の第6伝達関数である。H10(j)tは、時刻t(つまり、更新前の)第6伝達関数記憶回路94に記憶されたN個の第6伝達関数のうちのj番目の第6伝達関数である。α10は、第2エコー14aと第2クロストーク18aとを合わせた第6伝達関数の推定における学習速度を制御するためのステップサイズパラメータである。φ10は、非線形関数(例えば、シグモイド関数(sigmoid関数)、双曲線正接関数(tanh関数)、正規化線形関数又は符号関数(sign関数))である。
このように、第6伝達関数更新回路95は、第6減算器91の出力信号に対して非線形関数を用いた非線形処理を施し、得られた結果に対して第6記憶回路92に記憶された信号と、第2エコー14aと第2クロストーク18aとを合わせた第6伝達関数の推定における学習速度を制御するための第10ステップサイズパラメータとを乗じることで第6更新係数を算出する。そして、算出した第5更新係数を第6伝達関数記憶回路94に記憶された第6伝達関数に加算することで更新を行う。
なお、本実施の形態における翻訳装置20では、第2話者12の同一時刻における音声について、第1エコー/第1クロストークキャンセラ80aの出力信号が第2エコー/第2クロストークキャンセラ90aに入力される時刻は、第1ハウリングキャンセラ60aの出力が第2エコー/第2クロストークキャンセラ90aに入力される時刻と同一、又は、より早くなるように、設計されている。つまり、第2エコー/第2クロストークキャンセラ90aが第2クロストーク18aをキャンセルできるように、因果律が保持されている。これは、第1エコー/第1クロストークキャンセラ80aの出力信号が第2エコー/第2クロストークキャンセラ90aに入力される時刻を決定づける要因(A/D変換の速度、第2ハウリングキャンセラ70aでの処理速度、第1エコー/第1クロストークキャンセラ80aでの処理速度等)と、第2話者12の音声が第1マイク21に入力される時刻を決定づける要因(第2話者12と第1マイク21との位置関係等)とを考慮することで適宜、実現し得る。
[2−2.動作]
以上のように構成された本実施の形態における翻訳装置20aは、次のように動作する。ここでは、実施の形態1で示した翻訳装置20と異なる点を中心に記述する。
まずは、制御回路37の動作について記述する。
予め、第1言語選択回路27及び第2言語選択回路28は、第1話者11から第1話者11が用いる第1言語の選択及び第2話者12から第2話者12が用いる第2言語の選択を受け付け、制御回路37に通知する。なお、これまで記したように、実施の形態2においては、第1言語と第2言語とは同一である。
制御回路37は、第1言語選択回路27と第2言語選択回路28とから、第1言語と第2言語とが同一であると通知されているため、第1エコーキャンセラ40と、第2エコーキャンセラ50と、第1翻訳回路33と、第2翻訳回路34と、第1音声合成回路35と、第2音声合成回路36とに、機能を停止させる。
次に音声について記述する。
第1話者11の音声は、第1マイク21に入力される。また、第1話者11の音声以外に、第1ハウリング15a、第2エコー14a及び第2クロストーク18aが、第1マイク21に入力される。第1マイク21の出力信号は、第1ハウリングキャンセラ60aにおいて、第1ハウリング信号が除去される。第1ハウリング信号は、第1ハウリング15aの程度を示す(推定された)信号である。よって、第1ハウリングキャンセラ60aの出力信号は、第1マイク21の出力信号から、第1ハウリング15aの影響が除去された信号となる。
続いて、第1ハウリングキャンセラ60aの出力信号は、第2エコー/第2クロストークキャンセラ90aにおいて、第9妨害信号が除去される。第9妨害信号(すなわち第2エコー/第2クロストーク信号)は、第2エコー14a及び第2クロストーク18aの程度を示す(推定された)信号である。よって、第2エコー/第2クロストークキャンセラ90aの出力信号は、第1ハウリングキャンセラ60aの出力信号から、第2エコー14a及び第2クロストーク18aの影響が除去された信号となり、第1音声認識回路31、第1エコー/第1クロストークキャンセラ80a及び第1スピーカ22に出力される。
続いて、第1音声認識回路31は、第1話者11の音声から、第1ハウリングキャンセラ60aにより第1ハウリング15aが除去され、第2エコー/第2クロストークキャンセラ90aにより第2エコー14aと第2クロストーク18aが除去されたデジタル音声データが入力される。第1音声認識回路31は、入力されたデジタル音声データに対し、音声認識を行った結果である第1文字列を制御回路37に出力する。
第1スピーカ22に入力された信号は、音声となって出力される。
同様に、第2話者12の音声は、第2マイク23に入力される。また、第2話者12の音声以外に、第2ハウリング16a、第1エコー13a及び第1クロストーク17aが、第2マイク23に入力される。第2マイク23の出力信号は、第2ハウリングキャンセラ70aにおいて、第2ハウリング信号が除去される。第2ハウリング信号は、第2ハウリング16aの程度を示す(推定された)信号である。よって、第2ハウリングキャンセラ70aの出力信号は、第2マイク23の出力信号から、第2ハウリング16aの影響が除去された信号となる。
続いて、第2ハウリングキャンセラ70aの出力信号は、第1エコー/第1クロストークキャンセラ80aにおいて、第10妨害信号が除去される。第10妨害信号(すなわち第1エコー/第1クロストーク信号)は、第1エコー13a及び第1クロストーク17aの程度を示す(推定された)信号である。よって、第1エコー/第1クロストークキャンセラ80aの出力信号は、第2ハウリングキャンセラ70aの出力信号から、第1エコー13a及び第1クロストーク17aの影響が除去された信号となり、第2音声認識回路32、第2エコー/第2クロストークキャンセラ90a及び第2スピーカ24に出力される。
続いて、第2音声認識回路32は、第2話者12の音声から、第2ハウリングキャンセラ70aにより第2ハウリング16aが除去され、第1エコー/第1クロストークキャンセラ80aにより第1エコー13a及び第1クロストーク17aが除去されたデジタル音声データが入力される。第2音声認識回路32は、入力されたデジタル音声データに対し、音声認識を行った結果である第2文字列を制御回路37に出力する。
第2スピーカ24に入力された信号は、音声となって出力される。
制御回路37は、第1音声認識回路31が出力した第1話者11の音声の認識結果である第1言語の第1文字列、第2音声認識回路32が出力した第2話者12の音声の認識結果である第2言語の第2文字列を、映像信号発生回路38に出力する。
映像信号発生回路38は、第1音声認識回路31が出力した第1話者11の音声の認識結果である第1言語の第1文字列、及び、第2音声認識回路32が出力した第2話者12の音声の認識結果である第2言語の第2文字列を、第1表示回路25及び第2表示回路26に出力する。
翻訳装置20aでは、第1話者11の音声及び第2話者12の音声は以上のように、処理される。
以上により、第1音声認識回路31に入力される出力信号は、第1マイク21に入力された音声のうち、第1ハウリング15a、第2エコー14a及び第2クロストーク18aの影響が除去された出力信号、つまり、音響的雑音が除去された第1話者11の音声のみとなる。さらには、第1スピーカ22から出力される音声は、第1マイク21に入力された音声のうち、第1ハウリング15a、第2エコー14a及び第2クロストーク18aの影響が除去された出力信号、つまり、音響的雑音が除去された第1話者11の音声のみとなる。
また、第2音声認識回路32に入力される出力信号は、第2マイク23に入力された音声のうち、第2ハウリング16a、第1エコー13a及び第1クロストーク17aの影響が除去された出力信号、つまり、音響的雑音が除去された第2話者12の音声のみとなる。さらには、第2スピーカ24から出力される音声は、第2マイク23に入力された音声のうち、第2ハウリング16a、第1エコー13a及び第1クロストーク17aの影響が除去された出力信号、つまり、音響的雑音が除去された第2話者12の音声のみとなる。
[2−3.効果等]
以上説明したように、翻訳装置20aは、第1言語選択回路27が受け付けた第1言語と、第2言語選択回路28が受け付けた第2言語とが同一の場合、制御回路37は、第1エコーキャンセラ40と、第2エコーキャンセラ50と、第1翻訳回路33と、第2翻訳回路34と、第1音声合成回路35と、第2音声合成回路36とに、機能を停止させる。
このような翻訳装置20aは、第1言語と第2言語とが同一の場合、第1エコーキャンセラ40と、第2エコーキャンセラ50と、第1翻訳回路33と、第2翻訳回路34と、第1音声合成回路35と、第2音声合成回路36とに機能を停止させ、処理速度を上げることができる。また、翻訳が不要だが、拡声することができるため、第1話者11と第2話者12とが離れている場合や、周囲が騒がしい場合であっても、相互に会話を行うことができる。
(実施の形態3)
実施の形態2では、第1話者11の第1言語と第2話者12の第2言語とが同一で、拡声が必要な場合を示した。一方で、実施の形態3では、第1話者11の第1言語と第2話者12の第2言語が同一であり、拡声が不要な場合に適した構成を示す。
実施の形態3では、実施の形態1と比べ、エコーに関するキャンセラと、翻訳機能と、翻訳した音声を出力する機能と、拡声する機能が不要になる。
[3−1.構成]
図6は、実施の形態3における翻訳装置20bの構成を示すブロック図である。なお、実施の形態3では、実施の形態1と共通の構成要素については同一の符号を付し、その詳細な説明を省略する。
実施の形態3における翻訳装置20bは、実施の形態1と比べ、第1話者11の第1言語と第2話者12の第2言語とが同一であり、拡声が不要なため、第1翻訳回路33、第2翻訳回路34、第1音声合成回路35、第2音声合成回路36、第1スピーカ22、第2スピーカ24が不要となる。さらに、第1スピーカ22、第2スピーカ24が不要となることで、第1エコー13、第2エコー14、第3エコー15、及び、第4エコー16が発生しないため、第1エコーキャンセラ40、第2エコーキャンセラ50、第3エコーキャンセラ60、及び、第4エコーキャンセラ70も不要となる。
一方で、第1表示回路25及び第2表示回路26は、第1話者11及び第2話者12の発声を文字列として表示するため必要となる。また、翻訳装置20bは、第1マイク21及び第2マイク23も備えているため、ある話者の音声がその話者以外の音声を入力するためのマイクに入力される現象であるクロストークが発生する。そのため、クロストークをキャンセルする機能は必要となる。
[3−2.動作]
以上のように構成された本実施の形態における翻訳装置20bは、次のように動作する。ここでは、実施の形態1で示した翻訳装置20と異なる点を中心に記述する。
まずは、制御回路37の動作について記述する。
予め、第1言語選択回路27及び第2言語選択回路28は、第1話者11から第1話者11が用いる第1言語の選択及び第2話者12から第2話者12が用いる第2言語の選択を受け付け、制御回路37に通知する。なお、これまで記したように、実施の形態3においては、第1言語と第2言語は同一である。さらに、拡声が不要なため、制御回路37は、第1翻訳回路33、第2翻訳回路34、第1音声合成回路35、第2音声合成回路36、第1スピーカ22、第2スピーカ24、第1エコーキャンセラ40、第2エコーキャンセラ50、第3エコーキャンセラ60、及び、第4エコーキャンセラ70の機能を停止させる。
次に音声について記述する。
第1話者11の音声は、第1マイク21に入力される。また、第1話者11の音声以外に、第2クロストーク18が、第1マイク21に入力される。第1マイク21の出力信号は、第2クロストークキャンセラ90において、第6妨害信号(すなわち第2クロストーク信号)が除去される。第6妨害信号は、第2クロストーク18の程度を示す(推定された)信号である。よって、第2クロストークキャンセラ90の出力信号は、第1マイク21の出力信号から、第2クロストーク18の影響が除去された信号となり、第1音声認識回路31と第1クロストークキャンセラ80に出力される。
続いて、第1音声認識回路31には、第1話者11の音声から、第2クロストークキャンセラ90により第2クロストーク18が除去されたデジタル音声データが入力される。第1音声認識回路31は、入力されたデジタル音声データに対し、音声認識を行った結果である第1文字列を制御回路37に出力する。
同様に、第2話者12の音声は、第2マイク23に入力される。また、第2話者12の音声以外に、第1クロストーク17が、第2マイク23に入力される。第2マイク23の出力信号は、第1クロストークキャンセラ80において、第5妨害信号(すなわち第1クロストーク信号)が除去される。第5妨害信号は、第1クロストーク17の程度を示す(推定された)信号である。よって、第1クロストークキャンセラ80の出力信号は、第2マイク23の出力信号から、第1クロストーク17の影響が除去された信号となり、第2音声認識回路32と第2クロストークキャンセラ90に出力される。
続いて、第2音声認識回路32には、第2話者12の音声から、第1クロストークキャンセラ80により第1クロストーク17が除去されたデジタル音声データが入力される。第2音声認識回路32は、入力されたデジタル音声データに対し、音声認識を行った結果である第2文字列を制御回路37に出力する。
制御回路37は、第1音声認識回路31が出力した第1話者11の音声の認識結果である第1言語の第1文字列、第2音声認識回路32が出力した第2話者12の音声の認識結果である第2言語の第2文字列を映像信号発生回路38に出力する。
映像信号発生回路38は、第1音声認識回路31が出力した第1話者11の音声の認識結果である第1言語の第1文字列、及び、第2音声認識回路32が出力した第2話者12の音声の認識結果である第2言語の第2文字列を、第1表示回路25及び第2表示回路26に出力する。
翻訳装置20bでは、第1話者11の音声及び第2話者12の音声は以上のように、処理される。
以上により、第1音声認識回路31に入力される出力信号は、第1マイク21に入力された音声のうち、第2クロストーク18の影響が除去された出力信号、つまり、音響的雑音が除去された第1話者11の音声のみとなる。また、第2音声認識回路32に入力される出力信号は、第2マイク23に入力された音声のうち、第1クロストーク17の影響が除去された出力信号、つまり、音響的雑音が除去された第2話者12の音声のみとなる。
[3−3.効果]
このような翻訳装置20bは、第1言語と第2言語とが同一、かつ拡声が不要な場合、第1エコーキャンセラ40と、第2エコーキャンセラ50と、第3エコーキャンセラ60と、第4エコーキャンセラ70と、第1翻訳回路33と、第2翻訳回路34と、第1音声合成回路35と、第2音声合成回路36と、第1スピーカ22と第2スピーカ24とに機能を停止させ、処理速度を上げることができる。
[4−1.構成の選択]
これまで、実施の形態1〜3において、翻訳の要不要、拡声の要不要によって判断される構成を示した。
図7は、実施の形態1〜3のうち、制御回路37が最適な構成を選択するフローチャートである。
まず、第1言語選択回路27は、第1話者11から第1話者11が用いる第1言語の選択を受け付ける(ステップS300)。さらに、受け付けた第1言語を制御回路37に通知する。
次に、第2言語選択回路28は、第2話者12から第2話者12が用いる第2言語の選択を受け付ける(ステップS301)。さらに、受け付けた第2言語を制御回路37に通知する。
制御回路37は、第1言語選択回路27が受け付けた第1言語と、第2言語選択回路28が受け付けた第2言語とが同一か否かを判断する(ステップS302)。
制御回路37は、第1言語選択回路27が受け付けた第1言語と、第2言語選択回路28が受け付けた第2言語とが異なる場合(ステップS302でNO)、実施の形態1の構成となるように各構成の機能を稼働させる(ステップS303)。
制御回路37は、第1言語選択回路27が受け付けた第1言語と、第2言語選択回路28が受け付けた第2言語とが同一の場合(ステップS302でYES)、拡声が必要か否かを判断する(ステップS304)。
制御回路37は、拡声が必要な場合(ステップS304でYES)、実施の形態2の構成となるように各構成の機能を稼働させる(ステップS305)。
制御回路37は、拡声が不要な場合(ステップS304でNO)、実施の形態3の構成となるように各構成の機能を稼働させる(ステップS306)。
なお、ステップS304における拡声が要か否かの判断は、制御回路37によって行われてもよいし、第1話者11又は、第2話者12によって行われてもよい。第1話者11又は、第2話者12によって行われる場合、第1言語選択回路27、第2言語選択回路28、第1表示回路25及び第2表示回路26のいずれか1つの近傍に、拡声の要不要を設定するスイッチを設けてもよい。
(実施の形態4)
実施の形態1では、第1言語選択回路27と第2言語選択回路28とによって、第1話者11と第2話者12とが用いる言語を選択する。一方で、実施の形態4では、新たに、第1話者11の音声と第2話者12の音声とによって、第1話者11と第2話者12とが用いる言語を識別する機能を付与した構成を示す。
[5−1.構成]
図8は、実施の形態4における翻訳装置20cの構成を示すブロック図である。なお、実施の形態4では、実施の形態1と共通の構成要素については同一の符号を付し、その詳細な説明を省略する。
実施の形態4における翻訳装置20cは、実施の形態1に加え、第1言語識別回路311と第2言語識別回路321とを備える。さらに、第1言語選択回路27と第2言語選択回路28とを備えていなくてもよい。
第1言語識別回路311は、第1音声に基づいて第1言語を識別して制御回路37に通知する。すなわち、第1話者11の第1音声に基づいて第1話者11が用いる第1言語を識別する。例えば、第1音声認識回路31は、第1話者11の第1音声を音声認識して第1文字列を第1言語識別回路311へも出力する。
第2言語識別回路321は、第2音声に基づいて第2言語を識別して制御回路37に通知する。すなわち、第2話者12の第2音声に基づいて第2話者12が用いる第2言語を識別する。例えば、第2音声認識回路32は、第2話者12の第2音声を音声認識して第2文字列を第2言語識別回路321へも出力する。
さらに、制御回路37は、第1言語識別回路311が識別した第1言語と、第2言語識別回路321が識別した第2言語と、に基づいて、第1音声認識回路31に、第1言語で音声認識させ、第2音声認識回路32に、第2言語で音声認識させ、第1翻訳回路33に、第1言語から第2言語に翻訳させ、第2翻訳回路34に、第2言語から第1言語に翻訳させ、第1音声合成回路35に、第2言語で音声合成させ、第2音声合成回路36に、第1言語で音声合成させてもよい。
[5−2.動作]
以上のように構成された本実施の形態における翻訳装置20cは、次のように動作する。ここでは、実施の形態1で示した翻訳装置20と異なる点を中心に記述する。
これまで記したように、実施の形態1で示した翻訳装置20と異なる点として、実施の形態4で示す翻訳装置20cでは、第1言語選択回路27と第2言語選択回路28とを備えず、第1言語識別回路311と第2言語識別回路321とを備える。
そのため、予め、第1言語選択回路27と第2言語選択回路28とを用いて、言語の選択が行われることはない。
第1話者11の音声は、第1マイク21に入力される。また、第1話者11の音声以外に、実施の形態1と同じ音響的雑音が、第1マイク21に入力される。第1マイク21の出力信号が第1音声認識回路31及び第1クロストークキャンセラ80に到達するまでの処理は実施の形態1と同じである。その結果、第1音声認識回路31及び第1クロストークキャンセラ80に入力されるデジタル音声データは、実施の形態1と同じである。すなわち、第1音声認識回路31及び第1クロストークキャンセラ80は、第1話者11の音声から、第2エコーキャンセラ50により第2エコー14が除去され、第3エコーキャンセラ60により第3エコー15が除去され、第2クロストークキャンセラ90により第2クロストーク18が除去されたデジタル音声データが入力される。第1音声認識回路31は、入力されたデジタル音声データを第1言語識別回路311へ通知する。
また、第2話者12の音声は、第2マイク23に入力される。また、第2話者12の音声以外に、実施の形態1と同じ音響的雑音が、第2マイク23に入力される。第2マイク23の出力信号が第2音声認識回路32及び第2クロストークキャンセラ90に到達するまでの処理は実施の形態1と同じである。その結果、第2音声認識回路32及び第2クロストークキャンセラ90に入力されるデジタル音声データは、実施の形態1と同じである。すなわち、第2音声認識回路32及び第2クロストークキャンセラ90は、第2話者12の音声から、第1エコーキャンセラ40により第1エコー13が除去され、第4エコーキャンセラ70により第4エコー16が除去され、第1クロストークキャンセラ80により第1クロストーク17が除去されたデジタル音声データが入力される。第2音声認識回路32は、入力されたデジタル音声データを第2言語識別回路321へ通知する。
続いて、第1言語識別回路311は、入力されたデジタル音声データに基づいて第1言語を識別して制御回路37に通知する。
更に、第2言語識別回路321は、入力されたデジタル音声データに基づいて第2言語を識別して制御回路37に通知する。
続いて、制御回路37は、第1言語識別回路311から通知された第1言語を、第1音声認識回路31、第1翻訳回路33、第2翻訳回路34、及び第1音声合成回路35へ指示し、第2言語識別回路321から通知された第2言語を、第2音声認識回路32、第1翻訳回路33、第2翻訳回路34、及び第2音声合成回路36へ指示する。
次に、第1音声認識回路31は、制御回路37から指示された第1話者11の第1言語の情報に基づいて、入力されたデジタル音声データに対し、音声認識を行った結果である第1文字列を第1翻訳回路33と制御回路37とに出力する。
さらに、第2音声認識回路32は、制御回路37から指示された第2話者12の第2言語の情報に基づいて、入力されたデジタル音声データに対し、音声認識を行った結果である第2文字列を第2翻訳回路34と制御回路37とに出力する。
続いて、第1翻訳回路33は、第1音声認識回路31が出力した第1文字列を、制御回路37から指示された第1話者11の第1言語から第2話者12の第2言語の第3文字列に変換し、第1音声合成回路35及び制御回路37に出力する。
更に、第2翻訳回路34は、第2音声認識回路32が出力した第2文字列を、制御回路37から指示された第2話者12の第2言語から第1話者11の第1言語の第4文字列に変換し、第2音声合成回路36及び制御回路37に出力する。
この時点で、第1音声合成回路35と第2音声合成回路36と制御回路37とが受け取った文字列は、実施の形態1と同一となるため、以降の処理手順は、実施の形態1と同様である。
[5−3.効果]
以上説明したように、翻訳装置20cは、さらに、第1音声に基づいて第1言語を識別して制御回路37に通知する第1言語識別回路311と、第2音声に基づいて第2言語を識別して制御回路37に通知する第2言語識別回路321とを備え、制御回路37は、第1言語識別回路311が識別した第1言語と、第2言語識別回路321が識別した第2言語と、に基づいて、第1音声認識回路31に、第1言語で音声認識させ、第2音声認識回路32に、第2言語で音声認識させ、第1翻訳回路33に、第1言語から第2言語に翻訳させ、第2翻訳回路34に、第2言語から第1言語に翻訳させ、第1音声合成回路35に、第2言語で音声合成させ、第2音声合成回路36に、第1言語で音声合成させる。
このような翻訳装置20cは、話者が言語選択回路を使用する必要がなく、より簡便に翻訳できるようになる。
(実施の形態5)
実施の形態2では、第1話者11と第2話者12とが用いる言語を選択し、第1話者11の第1言語と第2話者12の第2言語が同一である場合に適した構成を示した。さらに、実施の形態4においては、第1話者11の音声と第2話者12の音声によって、第1話者11と第2話者12とが用いる言語を識別する機能を付与した構成を示した。
そこで、実施の形態5では、実施の形態4の構成において、実施の形態2と同じく第1話者11の第1言語と第2話者12の第2言語が同一である場合に適した構成を示す。
[6−1.構成]
図9は、実施の形態5における翻訳装置20dの構成を示すブロック図である。なお、実施の形態5では、実施の形態2及び実施の形態4と共通の構成要素については同一の符号を付し、その詳細な説明を省略する。
実施の形態5における翻訳装置20dは、実施の形態2に加え、実施の形態4で説明した第1言語識別回路311と第2言語識別回路321とを備える。
さらに、制御回路37は、第1エコーキャンセラ40と、第2エコーキャンセラ50と、第1翻訳回路33と、第2翻訳回路34と、第1音声合成回路35と、第2音声合成回路36とに、機能を停止させてもよい。
[6−2.動作]
以上のように構成された本実施の形態における翻訳装置20dは、次のように動作する。ここでは、実施の形態2で示した翻訳装置20aと異なる点を中心に記述する。
これまで記したように、実施の形態2で示した翻訳装置20aと異なる点として、実施の形態5で示す翻訳装置20dでは、第1言語選択回路27と第2言語選択回路28を備えず、第1言語識別回路311と第2言語識別回路321とを備える。
そのため、予め、第1言語選択回路27と第2言語選択回路28とを用いて、言語の選択が行われることはない。
まずは、制御回路37の動作について記述する。
この実施の形態5は、実施の形態4で示した[5−2.動作]において、第1話者11の第1言語と第2話者12の第2言語とが同一である場合に適用される。実施の形態4の構成において、制御回路37は、第1言語識別回路311及び第2言語識別回路321から、第1言語と第2言語とが同一であると通知されている。そのため、この実施の形態5においては、制御回路37は、第1エコーキャンセラ40と、第2エコーキャンセラ50と、第1翻訳回路33と、第2翻訳回路34と、第1音声合成回路35と、第2音声合成回路36の機能を停止させる。
次に音声について記述する。
第1話者11の音声は、第1マイク21に入力される。また、第1話者11の音声以外に、実施の形態2と同じ音響的雑音が、第1マイク21に入力される。第1マイク21の出力信号が第1音声認識回路31、第1スピーカ22及び第1エコー/第1クロストークキャンセラ80aに到達するまでの処理は実施の形態2と同じである。その結果、第1音声認識回路31、第1スピーカ22及び第1エコー/第1クロストークキャンセラ80aに入力されるデジタル音声データは、実施の形態2と同じである。すなわち、第1音声認識回路31、第1スピーカ22及び第1エコー/第1クロストークキャンセラ80aは、第1話者11の音声から、第1ハウリングキャンセラ60aにより第1ハウリング15aが除去され、第2エコー/第2クロストークキャンセラ90aにより第2エコー14aと第2クロストーク18aとが除去されたデジタル音声データが入力される。
第1音声認識回路31は、入力されたデジタル音声データに対し、音声認識を行った結果である第1文字列を制御回路37と第1言語識別回路311とに出力する。
続いて、第1言語識別回路311は、入力されたデジタル音声データに基づいて第1言語を識別して制御回路37に通知する。
また、第2話者12の音声は、第2マイク23に入力される。また、第2話者12の音声以外に、実施の形態2と同じ音響的雑音が、第2マイク23に入力される。第2マイク23の出力信号が第2音声認識回路32、第2スピーカ24及び第2エコー/第2クロストークキャンセラ90aに到達するまでの処理は実施の形態2と同じである。その結果、第2音声認識回路32、第2スピーカ24及び第2エコー/第2クロストークキャンセラ90aに入力されるデジタル音声データは、実施の形態2と同じである。すなわち、第2音声認識回路32、第2スピーカ24及び第2エコー/第2クロストークキャンセラ90aは、第2話者12の音声から、第2ハウリングキャンセラ70aにより第2ハウリング16aが除去され、第1エコー/第1クロストークキャンセラ80aにより第1エコー13aと第1クロストーク17aとが除去されたデジタル音声データが入力される。
第2音声認識回路32は、入力されたデジタル音声データに対し、音声認識を行った結果である第2文字列を制御回路37と第2言語識別回路321とに出力する。
更に、第2言語識別回路321は、入力されたデジタル音声データに基づいて第2言語を識別して制御回路37に通知する。
なお、これまで記したように、実施の形態5においては、第1言語と第2言語とは同一である。すなわち翻訳機能と翻訳した音声を出力する機能とが不要になる。
この時点で、第1スピーカ22と第2スピーカ24と制御回路37と第1エコー/第1クロストークキャンセラ80aと第2エコー/第2クロストークキャンセラ90aとが受け取った信号は、実施の形態2と同一となるため、以降の処理手順は、実施の形態2と同様である。
[6−3.効果]
以上説明したように、翻訳装置20dは、第1言語識別回路311が識別した第1言語と、第2言語識別回路321が識別した第2言語とが同一の場合、制御回路37は、第1エコーキャンセラ40と、第2エコーキャンセラ50と、第1翻訳回路33と、第2翻訳回路34と、第1音声合成回路35と、第2音声合成回路36とに、機能を停止させる。
このような翻訳装置20dは、話者が言語選択回路を使用する必要がなく、より簡便に翻訳できるようになる。さらに、第1言語と第2言語とが同一の場合、第1エコーキャンセラ40と、第2エコーキャンセラ50と、第1翻訳回路33と、第2翻訳回路34と、第1音声合成回路35と、第2音声合成回路36とに機能を停止させ、処理速度を上げることができる。
(実施の形態6)
実施の形態3では、第1話者11と第2話者12とが用いる言語を選択し、第1話者11の第1言語と第2話者12の第2言語とが同一であり、拡声が不要な場合に適した構成を示した。さらに、実施の形態4においては、第1話者11の音声と第2話者12の音声によって、第1話者11と第2話者12とが用いる言語を識別する機能を付与した構成を示した。
そこで、実施の形態6では、実施の形態4の構成において、実施の形態3と同じく第1話者11の第1言語と第2話者12の第2言語とが同一であり、拡声が不要な場合に適した構成を示す。
[7−1.構成]
図10は、実施の形態6における翻訳装置20eの構成を示すブロック図である。なお、実施の形態6では、実施の形態3と実施の形態4と共通の構成要素については同一の符号を付し、その詳細な説明を省略する。
実施の形態6における翻訳装置20eは、実施の形態3に加え、実施の形態4で説明した第1言語識別回路311と第2言語識別回路321とを備える。
[7−2.動作]
以上のように構成された本実施の形態における翻訳装置20eで次のように動作する。ここでは、実施の形態3で示した翻訳装置20bと異なる点を中心に記述する。
これまで記したように、実施の形態3で示した翻訳装置20bと異なる点として、実施の形態6で示す翻訳装置20eでは、第1言語選択回路27と第2言語選択回路28を備えず、第1言語識別回路311と第2言語識別回路321とを備える。
そのため、予め、第1言語選択回路27と第2言語選択回路28とを用いて、言語の選択が行われることはない。
まずは、制御回路37の動作について記述する。
この実施の形態6は、実施の形態4で示した[5−2.動作]において、第1話者11の第1言語と第2話者12の第2言語とが同一であり、拡声が不要な場合に適用される。実施の形態4の構成において、制御回路37は、第1言語識別回路311及び第2言語識別回路321から、第1言語と第2言語とが同一であると通知されている。そのため、この実施の形態6においては、制御回路37は、第1翻訳回路33、第2翻訳回路34、第1音声合成回路35、第2音声合成回路36、第1スピーカ22、第2スピーカ24、第1エコーキャンセラ40、第2エコーキャンセラ50、第3エコーキャンセラ60、及び、第4エコーキャンセラ70の機能を停止させる。
次に音声について記述する。
第1話者11の音声は、第1マイク21に入力される。また、第1話者11の音声以外に、実施の形態3と同じ音響的雑音が、第1マイク21に入力される。第1マイク21の出力信号が第1音声認識回路31、及び第1クロストークキャンセラ80に到達するまでの処理は実施の形態3と同じである。その結果、第1音声認識回路31、及び第1クロストークキャンセラ80に入力されるデジタル音声データは、実施の形態3と同じである。すなわち、第1音声認識回路31、及び第1クロストークキャンセラ80は、第1話者11の音声から、第2クロストークキャンセラ90により第2クロストーク18が除去されたデジタル音声データが入力される。第1音声認識回路31は、入力されたデジタル音声データに対し、音声認識を行った結果である第1文字列を制御回路37、第1言語識別回路311及び映像信号発生回路38に出力する。
続いて、第1言語識別回路311は、入力されたデジタル音声データに基づいて第1言語を識別して制御回路37に通知する。
また、第2話者12の音声は、第2マイク23に入力される。また、第2話者12の音声以外に、実施の形態3と同じ音響的雑音が、第2マイク23に入力される。第2マイク23の出力信号が第2音声認識回路32、及び第2クロストークキャンセラ90に到達するまでの処理は実施の形態3と同じである。その結果、第2音声認識回路32、及び第2クロストークキャンセラ90に入力されるデジタル音声データは、実施の形態2と同じである。すなわち、第2音声認識回路32、及び第2クロストークキャンセラ90は、第2話者12の音声から、第1クロストークキャンセラ80により第1クロストーク17が除去されたデジタル音声データが入力される。第2音声認識回路32は、入力されたデジタル音声データに対し、音声認識を行った結果である第2文字列を制御回路37、第2言語識別回路321及び映像信号発生回路38に出力する。
更に、第2言語識別回路321は、入力されたデジタル音声データに基づいて第2言語を識別して制御回路37に通知する。
この時点で、制御回路37と映像信号発生回路38と第1クロストークキャンセラ80と第2クロストークキャンセラ90とが受け取った信号は、実施の形態3と同一となるため、以降の処理手順は、実施の形態3と同様である。
[7−3.効果]
このような翻訳装置20eは、話者が言語選択回路を使用する必要がなく、より簡便に翻訳できるようになる。第1言語と第2言語とが同一、かつ拡声が不要な場合、第1エコーキャンセラ40と、第2エコーキャンセラ50と、第3エコーキャンセラ60と、第4エコーキャンセラ70と、第1翻訳回路33と、第2翻訳回路34と、第1音声合成回路35と、第2音声合成回路36と、第1スピーカ22と第2スピーカ24とに機能を停止させ、処理速度を上げることができる。
(他の実施の形態)
以上のように、本出願において開示する技術の例示として、実施の形態1〜6を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略などを行った実施の形態にも適用できる。また、上記実施の形態1〜6で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
なお、上記で説明した制御回路37は、第1音声合成回路35の出力と、第2音声合成回路36の出力とが、時間的に重複しないように制御してもよい。これにより、全てのエコーキャンセラの不要な信号を除去する精度を高めることができ、さらに、両話者の話しやすさと聞き取りやすさとを向上させることができる。また、制御回路37は、一方の話者の合成音声の出力を優先してもよい。例えば、図1に示す第1話者11のように客の合成音声の出力を優先してもよい。
また、実施の形態5と実施の形態6とにおいては、実施の形態4で第1話者11の第1言語と第2話者12の第2言語が同一であることを識別した後に、適用されると記したが、これに限らない。例えば、実施の形態4〜6で説明した第1言語識別回路311と第2言語識別回路321とを備える場合における翻訳言語を決定する方法の一例を示す。まず、第1話者11と第2話者12は、本題の翻訳したい内容を話す前に、お互いの母国語を用いて、挨拶する。すると、第1言語識別回路311及び第2言語識別回路321は、言語を識別し、制御回路37に通知する。続いて、制御回路37は、通知された言語に基づいて、第1翻訳回路33及び第2翻訳回路34に指示し、第1翻訳回路33及び第2翻訳回路34は、翻訳言語を決定する。このような方法を用いてもよい。なお、挨拶でなくてもよく、お互いの母国語を使った他の言葉でもよい。
さらに、一方の話者の言語を予め設定しておいてもよい。例えば、図1に示す第2話者12のように受け付け側の言語を予め設定しておくことで、翻訳の処理が早くなる。
また、上記の必要のない構成要素、不要な構成要素とは、存在しなくてもよいし、制御回路37が、構成要素の機能を停止させてもよい。
また、第1音声合成回路35の出力と、第2音声合成回路36とは、話者の声質を模擬する機能を有していてもよい。声質とは、例えば、声の高低などである。これにより、両話者は自然に会話を行うことができる。
また、制御回路37は、第1音声合成回路35が第1翻訳音声を出力している期間にだけ、第1エコーキャンセラ40及び第3エコーキャンセラ60に、第1伝達関数及び第3伝達関数を更新させてもよい。さらに、制御回路37は、第2音声合成回路36が第2翻訳音声を出力している期間にだけ、第2エコーキャンセラ50及び第4エコーキャンセラ70に、第2伝達関数及び第4伝達関数を更新させてもよい。
なお、図1に示した翻訳装置20においては、第1表示回路25と第2表示回路26の2つの表示回路を有しているが、図11に示すようにこれらが1つとなってもよい。
図11は、翻訳装置20の使用状態の一例を示す図である。
図11に示す翻訳装置20の一例では、例えば実施の形態1の構成要素が一体となった構成を示している。第2話者12側に表示される第1表示回路25では、第1話者11の発言は黒文字で、第2話者12の発言は白抜き文字で表され、第1話者11側に表示される第2表示回路26では、第1話者11の発言は白抜き文字で、第2話者12の発言は黒文字で表される。以上のような構成により、第1話者11と第2話者12との発言の区別がつきやすく、第1話者11と第2話者12にとって、視認性の良い翻訳装置20となり得る。
また、実施の形態1〜6においては、第1話者11と第2話者12の双方向の会話について記したが、話者は2人に限られるものではない。図1に示す、第1話者11は、例えば、客としたが、客は複数人いても構わない。複数人が順次発話することで、順次翻訳音声を出力することができる。当然ながら、図1に示す、受け付け側が複数人いても構わない。
なお、図11に示す翻訳装置20の一例では、第1話者11側の第1スピーカ22、及び、第2話者12側の第2スピーカ24の2つのスピーカを有している。しかし、1つのスピーカだけを有し、第1音声合成回路35が出力する第1翻訳音声と第2音声合成回路36が出力する第2翻訳音声とを加算して加算翻訳音声を出力する加算回路を追加して、上述の1つのスピーカに出力するようにしてもよい。
この場合、第1エコー13と第4エコー16が同じ現象になるため、第4エコーキャンセラ70は不要となり、第1エコーキャンセラ40だけが必要となる。同様に、第2エコー14と第3エコー15が同じ現象になるため、第3エコーキャンセラ60は不要となり、第2エコーキャンセラ50だけが必要となる。以上の構成から、ハードウェアの規模とコストを大幅に削減することが可能となる。
なお、1つのスピーカから拡声された加算翻訳音声が第2マイク23に入力される現象を第5エコーとすると、第5エコーは、第1エコー13及び第4エコー16と同じ現象となる。そのため、第1エコーキャンセラ40と同じ構成、機能をもつ第5エコーキャンセラが必要となる。また、1つのスピーカから拡声された加算翻訳音声が第1マイク21に入力される現象を第6エコーとすると、第6エコーは、第2エコー14及び第3エコー15と同じ現象となる。そのため、第2エコーキャンセラ50と同じ構成、機能をもつ第6エコーキャンセラが必要となる。
以上説明したように、翻訳装置20は、第1話者11と第2話者12とによる会話において、一方の話者の言語を他方の話者の言語に翻訳して合成音声を拡声する翻訳装置であって、第1話者11の第1音声を入力するための第1マイク21と、第1音声を音声認識して第1文字列を出力するための第1音声認識回路と、第1音声認識回路から出力された第1文字列を第2話者12の言語に翻訳して第3文字列を出力するための第1翻訳回路と、第1翻訳回路から出力された第3文字列を第1翻訳音声に変換するための第1音声合成回路と、第2話者12の第2音声を入力するための第2マイク23と、第2音声を音声認識して第2文字列を出力するための第2音声認識回路と、第2音声認識回路から出力された第2文字列を第1話者11の言語に翻訳して第4文字列を出力するための第2翻訳回路と、第2翻訳回路から出力された第4文字列を第2翻訳音声に変換するための第2音声合成回路と、第1音声合成回路が出力する第1翻訳音声と第2音声合成回路が出力する第2翻訳音声とを加算して加算翻訳音声を出力する加算回路と、加算回路が出力する加算翻訳音声を拡声するためのスピーカと、スピーカから拡声された加算翻訳音声が第2マイク23に入力される現象を第5エコーとしたとき、加算翻訳音声と第5エコーに対応する第5伝達関数とを用いて、第5エコーを示す第5エコー信号を推定し、第5エコー信号を、第2マイク23の出力信号から除去する第5エコーキャンセラと、スピーカから拡声された加算翻訳音声が第1マイク21に入力される現象を第6エコーとしたとき、加算翻訳音声と第6エコーに対応する第6伝達関数とを用いて、第6エコーを示す第6エコー信号を推定し、第6エコー信号を、第1マイク21の出力信号から除去する第6エコーキャンセラと、制御回路とを備え、制御回路は、第1音声合成回路が第1翻訳音声を出力し、又は第2音声合成回路が第2翻訳音声を出力している期間に、第5エコーキャンセラに、第5エコー信号を推定する伝達関数を更新させ、第1音声合成回路が第1翻訳音声を出力し、又は第2音声合成回路が第2翻訳音声を出力している期間に、第6エコーキャンセラに、第6エコー信号を推定する伝達関数を更新させる。
このような翻訳装置20は、複数の話者の音声と、この複数の話者の音声を認識し相手の言語に翻訳し音声合成して出力された複数の合成音声とが、同時に重複して存在するような場合でも、エコーを含む音響的雑音を除去し、安定して音声認識しながら、相互に会話を行うことができる。さらに、少ない構成要素によって、上記を達成できることから、ハードウェアの規模とコストを大幅に削減することが可能となる。
また例えば翻訳装置20は、さらに、第1音声が第2マイク23に入力される現象を第1クロストークとしたとき、第1音声を用いて、第1クロストークを示す第1クロストーク信号を推定し、第1クロストーク信号を、第2マイク23の出力信号から除去する第1クロストークキャンセラと、第2音声が第1マイク21に入力される現象を第2クロストークとしたとき、第2音声を用いて、第2クロストークを示す第2クロストーク信号を推定し、第2クロストーク信号を、第1マイク21の出力信号から除去する第2クロストークキャンセラとを備える。
このような翻訳装置20は、複数の話者の音声と、この複数の話者の音声を認識し相手の言語に翻訳し音声合成して出力された複数の合成音声とが、同時に重複して存在するような場合でも、エコー及びクロストークを含む音響的雑音を除去し、安定して音声認識しながら、相互に会話を行うことができる。
上記で説明したような翻訳方法は、例えば、プログラムを実行するプロセッサによって行われる。つまり、上記実施の形態における第1エコーキャンセラ40、第2エコーキャンセラ50、第3エコーキャンセラ60、第4エコーキャンセラ70、第1クロストークキャンセラ80、及び、第2クロストークキャンセラ90は、プログラムを実行するプロセッサによって実現されてもよい。そのプロセッサには、上記で記したCPUに加え、DSP(Digital Signal Processor)、MPU(Micro−Processing Unit)、及び、マイクロプロセッサが含まれる。
また、このような翻訳方法は、上記で記したROM、CD−ROM等のコンピュータ読み取り可能な記録媒体に記録されるプログラム、及び、そのプログラムが記録された記録媒体で実現されてもよい。また、このような翻訳方法は、上記プログラムを実行するコンピュータ装置が実行してもよい。
なお、上述の実施の形態は、本開示における技術を例示するためのものであるから、請求の範囲又はその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
本開示は、複数の話者の音声と、この複数の話者の音声を認識し相手の言語に翻訳し音声合成して出力された複数の合成音声とが、同時に重複して存在するような場合でも、エコーを含む音響的雑音を除去し、安定して音声認識しながら、相互に会話を行う翻訳装置に適用可能である。具体的には、狭い空間範囲における翻訳装置として本開示は適用可能である。
10 カウンター
11 第1話者
12 第2話者
13、13a 第1エコー
14、14a 第2エコー
15 第3エコー
15a 第1ハウリング
16 第4エコー
16a 第2ハウリング
17、17a 第1クロストーク
18、18a 第2クロストーク
20、20a、20b、20c、20d、20e 翻訳装置
21 第1マイク
22 第1スピーカ
23 第2マイク
24 第2スピーカ
25 第1表示回路
26 第2表示回路
27 第1言語選択回路
28 第2言語選択回路
31 第1音声認識回路
32 第2音声認識回路
33 第1翻訳回路
34 第2翻訳回路
35 第1音声合成回路
36 第2音声合成回路
37 制御回路
38 映像信号発生回路
40 第1エコーキャンセラ
41 第1減算器
42 第1記憶回路
43 第1畳み込み演算器
44 第1伝達関数記憶回路
45 第1伝達関数更新回路
50 第2エコーキャンセラ
51 第2減算器
52 第2記憶回路
53 第2畳み込み演算器
54 第2伝達関数記憶回路
55 第2伝達関数更新回路
60 第3エコーキャンセラ
60a 第1ハウリングキャンセラ
61 第3減算器
62 第3記憶回路
63 第3畳み込み演算器
64 第3伝達関数記憶回路
65 第3伝達関数更新回路
66 第1遅延器
70 第4エコーキャンセラ
70a 第2ハウリングキャンセラ
71 第4減算器
72 第4記憶回路
73 第4畳み込み演算器
74 第4伝達関数記憶回路
75 第4伝達関数更新回路
76 第2遅延器
80 第1クロストークキャンセラ
80a 第1エコー/第1クロストークキャンセラ
81 第5減算器
82 第5記憶回路
83 第5畳み込み演算器
84 第5伝達関数記憶回路
85 第5伝達関数更新回路
90 第2クロストークキャンセラ
90a 第2エコー/第2クロストークキャンセラ
91 第6減算器
92 第6記憶回路
93 第6畳み込み演算器
94 第6伝達関数記憶回路
95 第6伝達関数更新回路
201 処理装置
291 第1カメラ
292 第2カメラ
311 第1言語識別回路
321 第2言語識別回路

Claims (15)

  1. 第1話者と第2話者とによる会話において、一方の話者の言語を他方の話者の言語に翻訳して合成音声を拡声する翻訳装置であって、
    前記第1話者の第1音声を入力するための第1マイクと、
    前記第1音声を音声認識して第1文字列を出力するための第1音声認識回路と、
    前記第1音声認識回路から出力された前記第1文字列を前記第2話者の言語に翻訳して第3文字列を出力するための第1翻訳回路と、
    前記第1翻訳回路から出力された前記第3文字列を第1翻訳音声に変換するための第1音声合成回路と、
    前記第1翻訳音声を拡声するための第1スピーカと、
    前記第2話者の第2音声を入力するための第2マイクと、
    前記第2音声を音声認識して第2文字列を出力するための第2音声認識回路と、
    前記第2音声認識回路から出力された前記第2文字列を前記第1話者の言語に翻訳して第4文字列を出力するための第2翻訳回路と、
    前記第2翻訳回路から出力された前記第4文字列を第2翻訳音声に変換するための第2音声合成回路と、
    前記第2翻訳音声を拡声するための第2スピーカと、
    前記第1スピーカから拡声された前記第1翻訳音声が前記第2マイクに入力される現象を第1エコーとしたとき、前記第1翻訳音声と前記第1エコーに対応する前記第1伝達関数とを用いて、前記第1エコーを示す第1エコー信号を推定し、前記第1エコー信号を、前記第2マイクの出力信号から除去する第1エコーキャンセラと、
    前記第2スピーカから拡声された前記第2翻訳音声が前記第1マイクに入力される現象を第2エコーとしたとき、前記第2翻訳音声と前記第2エコーに対応する前記第2伝達関数とを用いて、前記第2エコーを示す第2エコー信号を推定し、前記第2エコー信号を、前記第1マイクの出力信号から除去する第2エコーキャンセラと、
    制御回路とを備え、
    前記制御回路は、
    前記第1音声合成回路が前記第1翻訳音声を出力している期間に、前記第1エコーキャンセラに、前記第1エコー信号を推定する伝達関数を更新させ、
    前記第2音声合成回路が前記第2翻訳音声を出力している期間に、前記第2エコーキャンセラに、前記第2エコー信号を推定する伝達関数を更新させる
    翻訳装置。
  2. さらに、
    前記第1スピーカから拡声された前記第1翻訳音声が前記第1マイクに入力される現象を第3エコーとしたとき、前記第1翻訳音声と前記第3エコーに対応する第3伝達関数を用いて、前記第3エコーを示す第3エコー信号を推定し、前記第3エコー信号を、前記第1マイクの前記出力信号から除去する第3エコーキャンセラと、
    前記第2スピーカから拡声された前記第2翻訳音声が前記第2マイクに入力される現象を第4エコーとしたとき、前記第2翻訳音声と前記第4エコーに対応する第4伝達関数を用いて、前記第4エコーを示す第4エコー信号を推定し、前記第4エコー信号を、前記第2マイクの前記出力信号から除去する第4エコーキャンセラとを備え、
    前記制御回路は、
    前記第1音声合成回路が前記第1翻訳音声を出力している期間に、前記第3エコーキャンセラに、前記第3エコー信号を推定する前記第3伝達関数を更新させ、
    前記第2音声合成回路が前記第2翻訳音声を出力している期間に、前記第4エコーキャンセラに、前記第4エコー信号を推定する前記第4伝達関数を更新させる
    請求項1記載の翻訳装置。
  3. 第1話者と第2話者とによる会話において、一方の話者の言語を他方の話者の言語に翻訳して合成音声を拡声する翻訳装置であって、
    前記第1話者の第1音声を入力するための第1マイクと、
    前記第1音声を音声認識して第1文字列を出力するための第1音声認識回路と、
    前記第1音声認識回路から出力された前記第1文字列を前記第2話者の言語に翻訳して第3文字列を出力するための第1翻訳回路と、
    前記第1翻訳回路から出力された前記第3文字列を第1翻訳音声に変換するための第1音声合成回路と、
    前記第1翻訳音声を拡声するための第1スピーカと、
    前記第2話者の第2音声を入力するための第2マイクと、
    前記第2音声を音声認識して第2文字列を出力するための第2音声認識回路と、
    前記第2音声認識回路から出力された前記第2文字列を前記第1話者の言語に翻訳して第4文字列を出力するための第2翻訳回路と、
    前記第2翻訳回路から出力された前記第4文字列を第2翻訳音声に変換するための第2音声合成回路と、
    前記第2翻訳音声を拡声するための第2スピーカと、
    前記第1スピーカから拡声された前記第1翻訳音声が前記第1マイクに入力される現象を第3エコーとしたとき、前記第1翻訳音声と前記第3エコーに対応する第3伝達関数を用いて、前記第3エコーを示す第3エコー信号を推定し、前記第3エコー信号を、前記第1マイクの前記出力信号から除去する第3エコーキャンセラと、
    前記第2スピーカから拡声された前記第2翻訳音声が前記第2マイクに入力される現象を第4エコーとしたとき、前記第2翻訳音声と前記第4エコーに対応する第4伝達関数を用いて、前記第4エコーを示す第4エコー信号を推定し、前記第4エコー信号を、前記第2マイクの前記出力信号から除去する第4エコーキャンセラとを備え、
    制御回路とを備え、
    前記制御回路は、
    前記第1音声合成回路が前記第1翻訳音声を出力している期間に、前記第3エコーキャンセラに、前記第3エコー信号を推定する前記第3伝達関数を更新させ、
    前記第2音声合成回路が前記第2翻訳音声を出力している期間に、前記第4エコーキャンセラに、前記第4エコー信号を推定する前記第4伝達関数を更新させる
    翻訳装置。
  4. さらに、
    前記第1音声が前記第2マイクに入力される現象を第1クロストークとしたとき、前記第1音声を用いて、前記第1クロストークを示す第1クロストーク信号を推定し、前記第1クロストーク信号を、前記第2マイクの前記出力信号から除去する第1クロストークキャンセラと、
    前記第2音声が前記第1マイクに入力される現象を第2クロストークとしたとき、前記第2音声を用いて、前記第2クロストークを示す第2クロストーク信号を推定し、前記第2クロストーク信号を、前記第1マイクの前記出力信号から除去する第2クロストークキャンセラとを備える
    請求項1から3のいずれか1項に記載の翻訳装置。
  5. さらに、
    前記第1話者から前記第1話者が用いる第1言語の選択を受け付け、前記制御回路に通知する第1言語選択回路と、
    前記第2話者から前記第2話者が用いる第2言語の選択を受け付け、前記制御回路に通知する第2言語選択回路とを備え、
    前記制御回路は、
    前記第1言語選択回路から通知された第1言語と、前記第2言語選択回路から通知された第2言語と、に基づいて、
    前記第1音声認識回路に、前記第1言語で音声認識させ、
    前記第2音声認識回路に、前記第2言語で音声認識させ、
    前記第1翻訳回路に、前記第1言語から前記第2言語に翻訳させ、
    前記第2翻訳回路に、前記第2言語から前記第1言語に翻訳させ、
    前記第1音声合成回路に、前記第2言語で音声合成させ、
    前記第2音声合成回路に、前記第1言語で音声合成させる
    請求項1又は2記載の翻訳装置。
  6. さらに、
    前記第1音声に基づいて第1言語を識別して前記制御回路に通知する第1言語識別回路と、
    前記第2音声に基づいて第2言語を識別して前記制御回路に通知する第2言語識別回路とを備え、
    前記制御回路は、
    前記第1言語識別回路が識別した前記第1言語と、前記第2言語識別回路が識別した前記第2言語と、に基づいて、
    前記第1音声認識回路に、前記第1言語で音声認識させ、
    前記第2音声認識回路に、前記第2言語で音声認識させ、
    前記第1翻訳回路に、前記第1言語から前記第2言語に翻訳させ、
    前記第2翻訳回路に、前記第2言語から前記第1言語に翻訳させ、
    前記第1音声合成回路に、前記第2言語で音声合成させ、
    前記第2音声合成回路に、前記第1言語で音声合成させる
    請求項1又は2又は5記載の翻訳装置。
  7. 前記第1言語選択回路が受け付けた前記第1言語と、前記第2言語選択回路が受け付けた前記第2言語と、が同一の場合、
    前記制御回路は、
    前記第1エコーキャンセラと、前記第2エコーキャンセラと、前記第1翻訳回路と、前記第2翻訳回路と、前記第1音声合成回路と、前記第2音声合成回路とに、機能を停止させる
    請求項5記載の翻訳装置。
  8. 前記第1言語識別回路が識別した前記第1言語と、前記第2言語識別回路が識別した前記第2言語と、が同一の場合、
    前記制御回路は、
    前記第1エコーキャンセラと、前記第2エコーキャンセラと、前記第1翻訳回路と、前記第2翻訳回路と、前記第1音声合成回路と、前記第2音声合成回路とに、機能を停止させる
    請求項6記載の翻訳装置。
  9. さらに、
    第1音声に基づいて、前記第1話者の性別判定を行う第1音声性別判定回路と、
    第2音声に基づいて、前記第2話者の性別判定を行う第2音声性別判定回路とを備え、
    前記制御回路は、
    前記第1音声合成回路に、前記第1音声性別判定回路の判定結果と同じ性別の合成音声を、出力させ、
    前記第2音声合成回路に、前記第2音声性別判定回路の判定結果と同じ性別の合成音声を、出力させる
    請求項1から8のいずれか1項に記載の翻訳装置。
  10. さらに、
    前記第1話者の顔を撮影する第1カメラと、
    前記第1カメラから出力された第1映像信号に基づいて、前記第1話者を特定する第1顔認識回路と、
    前記第2話者の顔を撮影する第2カメラと、
    前記第2カメラから出力された第2映像信号に基づいて、前記第2話者を特定する第2顔認識回路と、
    話者と前記話者が用いる言語との対を記憶しているデータベースとを備え、
    前記制御回路は、
    前記第1顔認識回路が特定した前記第1話者の言語が前記データベースに登録されている場合には、前記第1音声認識回路と前記第1翻訳回路と前記第2翻訳回路と前記第1音声合成回路とに、第1話者の第1言語を通知し、
    前記第2顔認識回路が特定した前記第2話者の言語が前記データベースに登録されている場合には、前記第2音声認識回路と前記第1翻訳回路と前記第2翻訳回路と前記第2音声合成回路とに、第2話者の第2言語を通知する
    請求項1から9のいずれか1項に記載の翻訳装置。
  11. さらに、
    前記第1カメラから出力された前記第1映像信号に基づいて、前記第1話者の性別判定を行う第1映像性別判定回路と、
    前記第2カメラから出力された前記第2映像信号に基づいて、前記第2話者の性別判定を行う第2映像性別判定回路とを備え、
    前記制御回路は、
    前記第1音声合成回路に、前記第1映像性別判定回路の判定結果と同じ性別の合成音声を出力させ
    前記第2音声合成回路に、前記第2映像性別判定回路の判定結果と同じ性別の合成音声を出力させる
    請求項10記載の翻訳装置。
  12. 第1話者と第2話者とによる会話において、一方の話者の言語を他方の話者の言語に翻訳して合成音声を拡声する翻訳装置であって、
    前記第1話者の第1音声を入力するための第1マイクと、
    前記第1音声を音声認識して第1文字列を出力するための第1音声認識回路と、
    前記第1音声認識回路から出力された前記第1文字列を前記第2話者の言語に翻訳して第3文字列を出力するための第1翻訳回路と、
    前記第1翻訳回路から出力された前記第3文字列を第1翻訳音声に変換するための第1音声合成回路と、
    前記第2話者の第2音声を入力するための第2マイクと、
    前記第2音声を音声認識して第2文字列を出力するための第2音声認識回路と、
    前記第2音声認識回路から出力された前記第2文字列を前記第1話者の言語に翻訳して第4文字列を出力するための第2翻訳回路と、
    前記第2翻訳回路から出力された前記第4文字列を第2翻訳音声に変換するための第2音声合成回路と、
    前記第1音声合成回路が出力する前記第1翻訳音声と前記第2音声合成回路が出力する前記第2翻訳音声とを加算して加算翻訳音声を出力する加算回路と、
    前記加算回路が出力する加算翻訳音声を拡声するためのスピーカと、
    前記スピーカから拡声された前記加算翻訳音声が前記第2マイクに入力される現象を第5エコーとしたとき、前記加算翻訳音声と前記第5エコーに対応する前記第5伝達関数とを用いて、前記第5エコーを示す第5エコー信号を推定し、前記第5エコー信号を、前記第2マイクの出力信号から除去する第5エコーキャンセラと、
    前記スピーカから拡声された前記加算翻訳音声が前記第1マイクに入力される現象を第6エコーとしたとき、前記加算翻訳音声と前記第6エコーに対応する前記第6伝達関数とを用いて、前記第6エコーを示す第6エコー信号を推定し、前記第6エコー信号を、前記第1マイクの出力信号から除去する第6エコーキャンセラと、
    制御回路とを備え、
    前記制御回路は、前記第1音声合成回路が前記第1翻訳音声を出力し、又は前記第2音声合成回路が前記第2翻訳音声を出力している期間に、前記第5エコーキャンセラに、前記第5エコー信号を推定する伝達関数を更新させ、
    前記第1音声合成回路が前記第1翻訳音声を出力し、又は前記第2音声合成回路が前記第2翻訳音声を出力している期間に、前記第6エコーキャンセラに、前記第6エコー信号を推定する伝達関数を更新させる
    翻訳装置。
  13. さらに、
    前記第1音声が前記第2マイクに入力される現象を第1クロストークとしたとき、前記第1音声を用いて、前記第1クロストークを示す第1クロストーク信号を推定し、前記第1クロストーク信号を、前記第2マイクの前記出力信号から除去する第1クロストークキャンセラと、
    前記第2音声が前記第1マイクに入力される現象を第2クロストークとしたとき、前記第2音声を用いて、前記第2クロストークを示す第2クロストーク信号を推定し、前記第2クロストーク信号を、前記第1マイクの前記出力信号から除去する第2クロストークキャンセラとを備える
    請求項12記載の翻訳装置。
  14. 第1話者と第2話者とによる会話において、自分の言語を相手の言語に翻訳して合成音声を拡声する翻訳方法であって、
    前記第1話者の第1音声を入力するための第1入力ステップと、
    前記第1音声を音声認識して第1文字列を出力するための第1音声認識ステップと、
    前記第1音声認識ステップから出力された前記第1文字列を前記第2話者の言語に翻訳して第3文字列を出力するための第1翻訳ステップと、
    前記第1翻訳ステップから出力された前記第3文字列を第1翻訳音声に変換するための第1音声合成ステップと、
    前記第1翻訳音声を拡声するための第1拡声ステップと、
    前記第2話者の第2音声を入力するための第2入力ステップと、
    前記第2音声を音声認識して第2文字列を出力するための第2音声認識ステップと、
    前記第2音声認識ステップから出力された前記第2文字列を前記第1話者の言語に翻訳して第4文字列を出力するための第2翻訳ステップと、
    前記第2翻訳ステップから出力された前記第4文字列を第2翻訳音声に変換するための第2音声合成ステップと、
    前記第2翻訳音声を拡声するための第2拡声ステップと、
    前記第1拡声ステップにて拡声された前記第1翻訳音声が前記第2入力ステップにて入力される現象を第1エコーとしたとき、前記第1翻訳音声と前記第1エコーに対応する第1伝達関数とを用いて、前記第1エコーを示す第1エコー信号を推定し、前記第1エコー信号を、前記第2入力ステップの出力信号から除去する第1エコーキャンセラステップと、
    前記第2拡声ステップにて拡声された前記第2翻訳音声が前記第1入力ステップにて入力される現象を第2エコーとしたとき、前記第2翻訳音声と前記第2エコーに対応する第2伝達関数とを用いて、前記第2エコーを示す第2エコー信号を推定し、前記第2エコー信号を、前記第1入力ステップの出力信号から除去する第2エコーキャンセラステップと、
    前記第1音声合成ステップにて前記第1翻訳音声を出力している期間に、前記第1エコーキャンセラステップにおいて、前記第1エコー信号を推定する前記第1伝達関数を更新し、前記第2音声合成ステップにて前記第2翻訳音声を出力している期間に、前記第2エコーキャンセラステップにおいて、前記第2エコー信号を推定する前記第2伝達関数を更新するように指示を与える制御ステップとを含む
    翻訳方法。
  15. 第1話者と第2話者とによる会話において、自分の言語を相手の言語に翻訳して合成音声を拡声する翻訳方法であって、
    前記第1話者の第1音声を入力するための第1入力ステップと、
    前記第1音声を音声認識して第1文字列を出力するための第1音声認識ステップと、
    前記第1音声認識ステップから出力された前記第1文字列を前記第2話者の言語に翻訳して第3文字列を出力するための第1翻訳ステップと、
    前記第1翻訳ステップから出力された前記第3文字列を第1翻訳音声に変換するための第1音声合成ステップと、
    前記第1翻訳音声を拡声するための第1拡声ステップと、
    前記第2話者の第2音声を入力するための第2入力ステップと、
    前記第2音声を音声認識して第2文字列を出力するための第2音声認識ステップと、
    前記第2音声認識ステップから出力された前記第2文字列を前記第1話者の言語に翻訳して第4文字列を出力するための第2翻訳ステップと、
    前記第2翻訳ステップから出力された前記第4文字列を第2翻訳音声に変換するための第2音声合成ステップと、
    前記第2翻訳音声を拡声するための第2拡声ステップと、
    前記第1拡声ステップにて出力された前記第1翻訳音声が前記第1入力ステップにて入力される現象を第3エコーとしたとき、前記第1翻訳音声と前記第3エコーに対応する第3伝達関数とを用いて、前記第3エコーを示す第3エコー信号を推定し、前記第3エコー信号を、前記第1入力ステップの出力信号から除去する第3エコーキャンセラステップと、
    前記第2拡声ステップにて出力された前記第2翻訳音声が前記第2入力ステップにて入力される現象を第4エコーとしたとき、前記第2翻訳音声と前記第4エコーに対応する第4伝達関数とを用いて、前記第4エコーを示す第4エコー信号を推定し、前記第4エコー信号を、前記第2入力ステップの出力信号から除去する第4エコーキャンセラステップと、
    前記第1音声合成ステップにて前記第1翻訳音声を出力している期間に、前記第3エコーキャンセラステップにおいて、前記第3エコー信号を推定する前記第3伝達関数を更新し、前記第2音声合成ステップから前記第2翻訳音声を出力している期間に、前記第4エコーキャンセラステップにおいて、前記第4エコー信号を推定する前記第4伝達関数を更新するように指示を与える制御ステップとを含む
    翻訳方法。
JP2020558387A 2018-11-30 2019-11-18 翻訳装置及び翻訳方法 Active JP7194900B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018225215 2018-11-30
JP2018225215 2018-11-30
PCT/JP2019/045118 WO2020110808A1 (ja) 2018-11-30 2019-11-18 翻訳装置及び翻訳方法

Publications (2)

Publication Number Publication Date
JPWO2020110808A1 true JPWO2020110808A1 (ja) 2021-10-21
JP7194900B2 JP7194900B2 (ja) 2022-12-23

Family

ID=70852073

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020558387A Active JP7194900B2 (ja) 2018-11-30 2019-11-18 翻訳装置及び翻訳方法

Country Status (5)

Country Link
US (1) US20220027579A1 (ja)
EP (1) EP3890288A4 (ja)
JP (1) JP7194900B2 (ja)
CN (1) CN113168840A (ja)
WO (1) WO2020110808A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021252039A1 (en) * 2020-06-10 2021-12-16 Google Llc Textual echo cancelation
US11887579B1 (en) * 2022-09-28 2024-01-30 Intuit Inc. Synthetic utterance generation

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012093641A (ja) * 2010-10-28 2012-05-17 Toshiba Corp 携帯型電子機器
JP6311136B2 (ja) * 2015-10-16 2018-04-18 パナソニックIpマネジメント株式会社 双方向会話補助装置及び双方向会話補助方法
JP2018173652A (ja) * 2016-07-08 2018-11-08 パナソニックIpマネジメント株式会社 翻訳装置および翻訳方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5655247A (en) 1979-10-12 1981-05-15 Dainippon Ink & Chemicals Manufacture of carbon fiber reinforcing plastic
JP3228963B2 (ja) * 1991-09-18 2001-11-12 株式会社東芝 エコーキャンセラ
JP2001075590A (ja) * 1999-09-07 2001-03-23 Fujitsu Ltd 音声入出力装置及び方法
US7039197B1 (en) * 2000-10-19 2006-05-02 Lear Corporation User interface for communication system
CA2510663A1 (en) * 2001-12-17 2003-06-26 Neville Jayaratne A real time translator and method of performing real time translation of a plurality of spoken word languages
JP2005006243A (ja) * 2003-06-16 2005-01-06 Matsushita Electric Ind Co Ltd 回線エコーキャンセル装置、回線エコーキャンセル方法および記録媒体
JP4566078B2 (ja) * 2005-07-04 2010-10-20 アルパイン株式会社 車載用ハンズフリー通話装置
WO2007055181A1 (ja) * 2005-11-11 2007-05-18 Matsushita Electric Industrial Co., Ltd. 対話支援装置
CN101426058B (zh) * 2008-06-17 2011-08-03 上海华平信息技术股份有限公司 一种改善多通道音频通话质量的系统及方法
JP4991649B2 (ja) * 2008-07-02 2012-08-01 パナソニック株式会社 音声信号処理装置
JP5545467B2 (ja) * 2009-10-21 2014-07-09 独立行政法人情報通信研究機構 音声翻訳システム、制御装置、および情報処理方法
KR101204239B1 (ko) * 2011-03-31 2012-11-26 김철희 실시간 하울링 제거장치 및 그 방법
JP5887535B2 (ja) * 2012-02-17 2016-03-16 パナソニックIpマネジメント株式会社 エコー消去装置、エコー消去方法、及び、通話装置
KR20150031896A (ko) * 2013-09-17 2015-03-25 한국전자통신연구원 음성인식장치 및 그 동작방법
JP6670224B2 (ja) * 2016-11-14 2020-03-18 株式会社日立製作所 音声信号処理システム
US10090000B1 (en) * 2017-11-01 2018-10-02 GM Global Technology Operations LLC Efficient echo cancellation using transfer function estimation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012093641A (ja) * 2010-10-28 2012-05-17 Toshiba Corp 携帯型電子機器
JP6311136B2 (ja) * 2015-10-16 2018-04-18 パナソニックIpマネジメント株式会社 双方向会話補助装置及び双方向会話補助方法
JP2018173652A (ja) * 2016-07-08 2018-11-08 パナソニックIpマネジメント株式会社 翻訳装置および翻訳方法

Also Published As

Publication number Publication date
WO2020110808A1 (ja) 2020-06-04
US20220027579A1 (en) 2022-01-27
EP3890288A4 (en) 2022-05-18
JP7194900B2 (ja) 2022-12-23
CN113168840A (zh) 2021-07-23
EP3890288A1 (en) 2021-10-06

Similar Documents

Publication Publication Date Title
JP6311136B2 (ja) 双方向会話補助装置及び双方向会話補助方法
JP6318376B2 (ja) 音源分離装置および音源分離方法
Hänsler et al. Acoustic echo and noise control: a practical approach
US9672821B2 (en) Robust speech recognition in the presence of echo and noise using multiple signals for discrimination
JP5075042B2 (ja) エコー消去装置、エコー消去方法、そのプログラム、記録媒体
JP7194900B2 (ja) 翻訳装置及び翻訳方法
KR20210114518A (ko) 종단간 음성 변환
JP5045751B2 (ja) 音声ミキシング装置およびその雑音抑圧方法、ならびにプログラム
JP4536020B2 (ja) 雑音除去機能を有する音声入力装置および方法
WO2018167960A1 (ja) 音声処理装置、音声処理システム、音声処理方法、および音声処理プログラム
KR100200635B1 (ko) 화상회의 시스템에서의 반향제어 장치 및 제어방법
JP4345208B2 (ja) 反響及び雑音除去装置
JP2006303721A (ja) 通話内容隠蔽システム、通話装置、通話内容隠蔽方法およびプログラム
CN113489855B (zh) 声音处理方法、装置、电子设备和存储介质
JP4527654B2 (ja) 音声通信装置
JP2021184587A (ja) エコー抑圧装置、エコー抑圧方法及びエコー抑圧プログラム
EP3667662A1 (en) Acoustic echo cancellation device, acoustic echo cancellation method and acoustic echo cancellation program
CN113421579B (zh) 声音处理方法、装置、电子设备和存储介质
JP5925149B2 (ja) 音響結合量推定装置、エコー消去装置、その方法及びプログラム
TWI840775B (zh) 執行聲學回聲消除的設備及方法
EP4383255A1 (en) Acoustic interference suppression through speaker-aware processing
JP2933035B2 (ja) エコーキャンセラ装置
WO2022195955A1 (ja) エコー抑圧装置、エコー抑圧方法及びエコー抑圧プログラム
JP6922551B2 (ja) 音声処理装置、音声処理プログラム、及び音声処理方法
WO2023212441A1 (en) Systems and methods for reducing echo using speech decomposition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221129

R151 Written notification of patent or utility model registration

Ref document number: 7194900

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151