JP2020053882A - コミュニケーション装置、コミュニケーションプログラム、及びコミュニケーション方法 - Google Patents

コミュニケーション装置、コミュニケーションプログラム、及びコミュニケーション方法 Download PDF

Info

Publication number
JP2020053882A
JP2020053882A JP2018182423A JP2018182423A JP2020053882A JP 2020053882 A JP2020053882 A JP 2020053882A JP 2018182423 A JP2018182423 A JP 2018182423A JP 2018182423 A JP2018182423 A JP 2018182423A JP 2020053882 A JP2020053882 A JP 2020053882A
Authority
JP
Japan
Prior art keywords
unit
command
connection
signal
voice recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018182423A
Other languages
English (en)
Other versions
JP7361460B2 (ja
Inventor
尚也 川畑
Naoya Kawabata
尚也 川畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2018182423A priority Critical patent/JP7361460B2/ja
Publication of JP2020053882A publication Critical patent/JP2020053882A/ja
Application granted granted Critical
Publication of JP7361460B2 publication Critical patent/JP7361460B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 複数の使用者が呼びかけ音声で通話相手と接続する場合に、違和感無く通話を開始させ終了させる。【解決手段】 本発明のコミュニケーション装置は、入力された映像信号から1又は複数の人物を検知する人物検知部と、人物が検知されたときに入力された音声信号に基づいて音声認識をする音声認識部と、少なくとも接続コマンド及び切断コマンドを含む複数のコマンドを記憶するコマンド記憶部と、音声認識結果がコマンド記憶部に記憶される接続コマンド又は上記切断コマンドと一致するか否かを判定するコマンド判定部と、コマンド判定部によるコマンド判定結果に応じて、出力音声信号を決定する出力切替部と、音声認識結果及びコマンド判定結果に基づいて、接続先との接続処理を行う接続判定部とを備える。【選択図】 図1

Description

本発明は、コミュニケーション装置、コミュニケーションプログラム、及びコミュニケーション方法に関し、例えば、テレビ会議システムや電話会議システム等において用いられるコミュニケーション装置に適用し得るものである。
近年、テレビ会議システムや電話会議システム等のコミュニケーションシステムを用いて、遠隔地と、テレビ会議やテレワークなどの通話やコミュニケーションを行う機会が増えている。
遠隔通話システムでは、遠隔地の相手と通話を行うために、遠隔通話システムに接続されている入力装置(例えば、マウス、キーボード、リモコンなど)で通話相手先の電話番号などの連絡先を入力、選択して接続する。また近年ではモバイル端末(例えば、スマートフォンやタブレットパソコンなどの端末)の普及により、遠隔通話システムがモバイル端末で動作するものもある。この場合、モバイル端末の画面上に表示されるキーボードで連絡先を入力して接続したり、モバイル端末のタッチパネルディスプレイに表示されている連絡先をタッチして接続したり、モバイル端末の画面上に表示されている通話相手の映像をタッチして接続するなどして、遠隔通話システムが相手側と接続することが多い。
さらに、特許文献1には、遠隔通話システムをロボッ卜に組込み、近親者と単身の高齢者とのコミュニケーション支援するコミュニケーション支援ロボットシステムが提案されている。
特許文献1に記載のコミュニケーション支援ロボッ卜システムは、タッチパネルディスプレイに表示されている、近親者や高齢者の映像をタッチすることで通話相手に接続され、通話が開始する。
特開2015−184597号公報
しかしながら、特許文献1に記載のコミュニケーション支援ロボットシステムは、従来の遠隔通話システムの接続方法と同様に、入力装置で通話相手の連絡先を入力したり、タッチパネルディスプレイに表示されている連絡先をタッチしたりするなどして、通話の開始や終了を行っている。従来の接続方法で遠隔地と接続することは、実際の対面での通話と異なっているため臨場感(例えば、対面で会話しているような感覚)が非常に低い。
上記の問題を解決するために、例えば、特許文献1に記載のコミュニケーション支援ロボットに搭載されている音声認識システムを使用して、接続先の通話相手の名前や会話を開始するコマンド(例えば、「人名+こんにちは」、「人名+こんばんは」など)などの呼びかける音声(以下、呼びかけ音声)を使用者が発話し、その言葉を音声認識システムに入力し、コミュニケーション支援ロボットが音声認識結果から接続先を判定して接続を開始できるようにすることも考えられる。
しかし、呼びかけ音声が音声認識システムに入力され、音声認識結果が得られた後に、音声認識結果から通話相手が決定して相手側に接続されるため、呼びかけ音声が通話相手に伝わらない。このため、通話相手からすると突然接続されることになるので、通話相手は違和感や不安感を得て、臨場感が向上しない。
また、例えば、周りで人が話をしていたり、空調などの騒音が大きかったりする場合、使用環境の雑音が大きく、使用者が呼びかけ音声を発話しても、特許文献1に記載のコミュニケーション支援ロボットでは、呼びかけ音声を品質良く収音することができず、相手側との接続や切断が正しく機能しない。
さらに、特許文献1に記載のコミュニケーション支援ロボットシステムでは、ロボットの使用者側が単身の高齢者向けであるので、1人でしか遠隔通話システムを使用できず、遠隔通話システムを複数の使用者が使用することが出来ない。
そのため、使用環境の雑音が大きい場合でも、複数の使用者のいずれかが発話した呼びかけ音声を収音し、収音した呼びかけ音声を正しく認識して、その呼びかけ音声で相手側との接続を開始した後に、その呼びかけ音声を相手側に伝達することで臨場感のある通話を開始することができ、また、通話を終了するときには、複数の使用者のいずれかが発話した通話を切断する音声(以下、切断音声)を正しく認識して、通話が終了してから、相手側との通話が切断できるコミュニケーション装置、コミュニケーションプログラム、及びコミュニケーション方法が望まれている。
本発明は、以上の点を考慮してなされたものであり、マイクアレイを使用して複数の話者が発話した音声を強調する信号処理を行い、信号処理した信号を一度バッファに保持すると同時に信号処理した信号に対して音声認識を行う。そして、その音声認識結果が呼びかけ音声かを判定し、呼びかけ音声の場合は、通話相手に接続してから、バッファに保持している呼びかけ音声を出力して呼びかけ音声が相手に伝達して通話を開始することができる。また、通話を終了するときには、マイクアレイを使用して複数の使用者が発話した音声を強調する信号処理を行い、信号処理した信号に対して音声認識を行う。そして、その音声認識結果が切断音声かを判定し、切断音声の場合は、相手側との通話を切断して、より対面での会話に近い状態を再現できる呼びかけ処理装置を提供しようとするものである。
例えば、雑音が大きい環境での複数の話者の呼びかけ音声の収音は、マイクアレイを使用して音声を強調する信号処理で解決する。相手側の呼びかけ音声の再生、及び臨場感の向上は、バッファに保持している呼びかけ音声を出力する処理で解決する。
第1の本発明に係るコミュニケーション装置は、(1)入力された映像信号から1又は複数の人物を検知する人物検知部と、(2)人物検知部により1又は複数の人物が検知されたときに、入力された音声信号に基づいて音声認識をする音声認識部と、(3)少なくとも、接続先との接続を開始する接続コマンド及び接続を切断する切断コマンドを含む複数のコマンドを記憶するコマンド記憶部と、(4)音声認識部による音声認識結果がコマンド記憶部に記憶される接続コマンド又は上記切断コマンドと一致するか否かを判定するコマンド判定部と、(5)コマンド判定部によるコマンド判定結果に応じて、出力音声信号を決定する出力切替部と、(6)音声認識結果及びコマンド判定結果に基づいて、接続先との接続処理を行う接続判定部とを備えることを特徴とする。
第2の本発明に係るコミュニケーションプログラムは、コンピュータを、(1)入力された映像信号から1又は複数の人物を検知する人物検知部と、(2)人物検知部により1又は複数の人物が検知されたときに、入力された音声信号に基づいて音声認識をする音声認識部と、(3)少なくとも、接続先との接続を開始する接続コマンド及び接続を切断する切断コマンドを含む複数のコマンドを記憶するコマンド記憶部と、(4)音声認識部による音声認識結果がコマンド記憶部に記憶される接続コマンド又は切断コマンドと一致するか否かを判定するコマンド判定部と、(5)コマンド判定部によるコマンド判定結果に応じて、出力音声信号を決定する出力切替部と、(6)音声認識結果及びコマンド判定結果に基づいて、接続先との接続処理を行う接続判定部として機能させることを特徴とする。
第3の本発明に係るコミュニケーション方法は、(1)人物検知部が、入力された映像信号から1又は複数の人物を検知し、(2)音声認識部が、人物検知部により1又は複数の人物が検知されたときに、入力された音声信号に基づいて音声認識をし、(3)コマンド記憶部が、少なくとも、接続先との接続を開始する接続コマンド及び接続を切断する切断コマンドを含む複数のコマンドを記憶し、(4)コマンド判定部が、音声認識部による音声認識結果がコマンド記憶部に記憶される接続コマンド又は切断コマンドと一致するか否かを判定し、(5)出力切替部が、コマンド判定部によるコマンド判定結果に応じて、出力音声信号を決定し、(6)接続判定部が、音声認識結果及びコマンド判定結果に基づいて、接続先との接続処理を行うことを特徴とする。
本発明によれば、使用環境の雑音が大きい場合でも、複数の使用者が発話した音声を強調し、呼びかけ音声かどうか判定し、呼びかけ音声の場合は、呼びかけ音声で相手側との接続を開始した後に、その呼びかけ音声を相手側に伝達することで臨場感のある通話を開始することができ、又通話を終了するときには、複数の使用者が発話した音声を強調し、切断音声かどうか判定し、切断音声の場合は、相手側との通話が切断できる。
また、本発明によれば、使用者がマイクから離れていても通話相手と接続するときに、実際の対面での通話するときと同じ、接続先の通話相手の名前等と会話が開始する言葉で接続を開始し、通話が終了する言葉で接続を終了することで、会話が開始する状態と終了する状態を再現し、双方が高い臨場感を感じることができる。
第1の実施形態に係るコミュニケーション装置の構成を示すブロック図である。 第1の実施形態において、一方の拠点の部屋内に設置されるコミュニケーション装置に係る機器の配置や使用者との位置関係の一例を説明する説明図である。 第1の実施形態に係るコマンドリスト部の構成例を説明する説明図である。 第2の実施形態に係るコミュニケーション装置の構成を示すブロック図である。 第2の実施形態において、一方の拠点の部屋内に設置されるコミュニケーション装置に係る機器の配置や使用者との位置関係の一例を説明する説明図である(その1)。 第2の実施形態において、一方の拠点の部屋内に設置されるコミュニケーション装置に係る機器の配置や使用者との位置関係の一例を説明する説明図である(その2)。
(A)第1の実施形態
以下では、本発明のコミュニケーション装置、コミュニケーションプログラム、及びコミュニケーション方法の実施形態を、図面を参照しながら詳細に説明する。
第1の実施形態は、例えば、テレビ会議システムや電話会議システム等のマイク入力部に、上述した本発明のコミュニケーション装置、コミュニケーションプログラム、及びコミュニケーション方法を適用した場合を例示したものである。
(A−1)第1の実施形態の構成
図1は、第1の実施形態に係るコミュニケーション装置100の構成を示すブロック図である。
第1の実施形態のコミュニケーション装置100は、例えば、専用ボードとして構築されるようにしても良いし、DSP(デジタルシグナルプロセッサ)への遠隔コミュニケーションプログラムの書き込みによって実現されたものであっても良く、CPUと、CPUが実行するソフトウェア(例えば、遠隔コミュニケーションプログラム)によって実現されたものであっても良いが、機能的には、図1で表すことができる。
コミュニケーション装置100は、ネットワーク107を介して、遠隔地にある相手側の拠点に設置されているコミュニケーション装置との間で、映像信号及び音信号を通信して、相手側とコミュニケーションを図るものである。ここでは、相手側の拠点にも、図1に例示するコミュニケーション装置100が配置されているものとする。
図1において、第1の実施形態に係るコミュニケーション装置100は、マイクアレイ101、マイクアンプ102、アナログ−デジタル(AD)変換部103、ビデオカメラ104、呼びかけ処理部105、NW通信部106、デジタル−アナログ(DA)変換部108、スピーカアンプ109、スピーカ110a及び110b、モニター111を有する。
マイクアレイ101は、人の音声や音を受音する複数本のマイクロホン(以下、「マイク」とも呼ぶ。)を有するものである。
マイクアンプ102は、マイクアレイ101の各マイクにより受音された複数の入力信号(アナログの音信号)のそれぞれを増幅して、AD変換部103に出力する。
AD変換部103は、マイクアンプ102により増幅された複数の入力信号をアナログ信号からデジタル信号に変換して、コミュニケーション装置100に出力する。以下、AD変換部103で変換された信号を「マイク入力信号」とも呼ぶ。
ビデオカメラ104は、自拠点(コミュニケーション装置100が設置される拠点)に設置される撮影デバイス(撮像装置)である。ビデオカメラ104によって撮像された映像信号は、呼びかけ処理部105を介してNW通信部106に出力され、映像信号はNW通信部106によってネットワーク107に送信される。
呼びかけ処理部105には、ビデオカメラ104からの映像信号と、マイクアレイ101が受音したマイク入力信号とが入力する。ビデオカメラ104から入力された映像信号は、呼びかけ処理部105を介してNW通信部106に出力されてネットワーク107に送信される。
呼びかけ処理部105は、ビデオカメラ104から入力された映像信号に人が撮像されているか否かを判定する。そして、映像信号に人が映っていると判定した場合、呼びかけ処理部105は、入力された複数のマイク入力信号を信号処理して、NW通信部106に出力する共に、同時に信号処理した信号をオーディオバッファ部117に保存する。
また、呼びかけ処理部105は、信号処理した信号を用いて音声認識を行ない、音声認識結果がコマンドリスト部119のコマンドの1つと一致するか否かを判定する。音声認識結果がコマンドの1つと一致する場合、呼びかけ処理部105は、接続判定結果と、オーディオバッファ部117に保存されている音信号をNW通信部106に一定時間出力する。そして、一定時間出力が完了すると、呼びかけ処理部105は、再び信号処理した信号を、NW通信部106に出力する。音声認識結果がコマンドの1つと一致しない場合、呼びかけ処理部105は、接続判定結果と信号処理した信号とを、NW通信部106に出力する。
一方、映像信号に人が映っていないと判定した場合、呼びかけ処理部105は、信号処理を停止する。このとき、NW通信部106には音声を出力しない。
NW通信部106は、ネットワーク107を介して、相手側の拠点に設置されているコミュニケーション装置100との間で映像信号及び音信号を送受信するものである。NW通信部106は、呼びかけ処理部105からの接続判定結果に基づいて、ネットワーク107との接続処理を行う。つまり、ネットワーク107と接続指示を受けると、NW通信部106は、指示された相手側のコミュニケーション装置100と接続を開始する。ネットワーク107との接続後、コミュニケーション装置100は、NW通信部106を介して、相手側のコミュニケーション装置100との間で音声のやり取りを行なう。
また、ネットワーク107との接続切断指示を受けると、NW通信部106は、相手側のコミュニケーション装置100との接続を切断する。
DA変換部108は、ネットワーク107からの音信号(NW通信部106を介して送信されてきた音信号)をデジタル信号からアナログ信号に変換して、スピーカアンプ109に出力する。
スピーカアンプ109は、DA変換部108により変換されたアナログ信号を増幅して、スピーカ110a及び110bに出力する。
スピーカ110a、110bは、電気信号を空気の振動に変換して音として出力するスピーカである。第1の実施形態では、スピーカ110a及び110bはステレオスピーカである場合を例示するが、スピーカ110a及び110bは、ステレオスピーカに限定されるものではない。
モニター111は、映像出力デバイス(映像出力装置)である。モニター111が出力する映像は、例えば、相手側の拠点に設置されたビデオカメラ104によって撮影された映像であって、この映像(エンコードされたデータ)はネットワーク107を介してNW通信部106で受信されデコード(復号)した後、モニター111に入力される。
次に、第1の実施形態に係る呼びかけ処理部105の詳細な構成を説明する。
呼びかけ処理部105は、音入力端子115、映像入力端子112、映像出力端子113、人物位置検知部114、信号処理部116、オーディオバッファ部117、音声認識部118、コマンドリスト部119、コマンド判定部120、出力切替部121、音出力端子122、接続判定部123、接続判定結果出力端子124を有する。
映像入力端子112は、ビデオカメラ104から映像信号を入力するインタフェース部である。
映像出力端子113は、ビデオカメラ104から入力された映像信号をNW通信部106に出力するインタフェース部である。
人物位置検知部114は、ビデオカメラ104から入力された映像信号に人が映っているか否かを判定し、その判定結果を信号処理部116及び音声認識部118に出力する。例えば、人物位置検知部114は、入力される映像信号を用いた画像処理により、映像フレームに人が映っているか否かを判定し、人物を検知した場合には、人を検知したことを示す判定結果(例えば、「1」など)を出力し、それ以外の場合には、人非検知を示す判定結果(例えば、「0」など)を出力する。
また、映像信号に人が映っていると判定した場合、人物位置検知部114は、人がいる方向情報を信号処理部116に出力する。さらに、複数の人物を検知した場合には、検知した各人の方向情報を出力する。
音入力端子115は、AD変換部103からマイク入力信号を入力するインタフェース部である。
信号処理部116は、入力されたマイク入力信号を信号処理し、信号処理した信号(以下、「マイクアレイ処理信号」とも呼ぶ。)を出力切替部121、オーディオバッファ部117及び音声認識部118に出力する。
オーディオバッファ部117は、信号処理部116により信号処理信号を、一定時間保持するバッファである。オーディオバッファ部117は、一定時間経過後、保持している信号を出力切替部121に出力する。
音声認識部118は、信号処理部116により信号処理されたマイクアレイ処理信号を音声認識して、その音声認識結果をコマンド判定部120に出力する。
コマンドリスト部119は、コマンドの一覧が保持されているテキストファイルである。ここで、コマンドには、様々なコマンドを含むことができるが、この実施形態では、コマンドの一例として接続コマンドと切断コマンドとが含まれる。コマンドの一例である接続コマンドと切断コマンドの詳細な説明は後述する。
コマンド判定部120は、音声認識部118からの音声認識結果がコマンドリスト部119に保持されているコマンドに存在するか否か判定するものであり、その判定結果を、出力切替部121及び接続判定部123に出力する。コマンド判定部120による判定方法の詳細な説明は後述する。
出力切替部121は、信号処理部116とオーディオバッファ部117とに接続しており、コマンド判定部120による判定結果に応じて、信号処理部116からの出力信号と、オーディオバッファ部117からの出力信号とのいずれかを切り替えて、音出力端子122に出力する。
音出力端子122は、出力切替部121により切り替えられた音信号を出力するインタフェース部である。音出力端子122から出力される音信号が、呼びかけ処理部105から出力される音信号となる。
接続判定部123は、コマンド判定部120により判定された判定結果に基づいて、ネットワーク107との接続判定を行なうものである。
例えば、音声認識結果が、人名と接続コマンドと続けて一致するとの判定結果である場合、接続判定部123は、接続コマンドに基づいて、相手側の接続先であるコミュニケーション装置100を決定し、決定した接続先に関する情報と、当該接続先への接続指示とを含む接続判定結果をNW通信部106に出力する。音声認識結果が切断コマンドと一致するとの判定結果である場合、接続判定部123は、接続している相手側のコミュニケーション装置100との接続切断指示を含む接続判定結果をNW通信部106に出力する。
接続判定結果出力端子124は、接続判定部123からの接続判定結果を、NW通信部106に出力する。
(A−2)第1の実施形態の動作
次に、第1の実施形態に係るコミュニケーション装置100における処理動作を、図面を参照しながら詳細に説明する。
図2は、第1の実施形態において、一方の拠点の部屋内に設置されるコミュニケーション装置に係る機器の配置や使用者との位置関係の一例を説明する説明図である。なお、他方の拠点においても図2と同様に、遠隔コミュニケーション100が設置されているものとする。
図2において、部屋151は例えば会議室であり、部屋151の高さは、モニター111を簡単に設置でき、かつ十分に余裕のある高さ(例えば、モニター111の高さ+数m、または2m以上)があれば良く、部屋151の大きさ(面積)は、モニター111やマイクアレイ101、スピーカ110a及び110bなどが簡単に設置でき、かつ、十分に余裕がある広さ、または使用者152a及び152bが会話するのに十分広さ(例えば、横縦数m)があれば良い。
まず、コミュニケーション装置100の動作が開始すると、モニター111は、相手側の拠点のコミュニケーション装置100のビデオカメラ104で撮影している映像を表示する。
つまり、コミュニケーション装置100が動作開始し、自拠点のビデオカメラ104が起動すると、ビデオカメラ104で撮影された映像信号は、呼びかけ処理部105を介してNW通信部106に与えられ、NW通信部106が、ネットワーク107を通じて、相手側の拠点のNW通信部106に映像信号を送信する。これにより、自拠点の映像は相手側の拠点のモニター111に表示される。同様に、相手拠点の映像が自拠点のモニター111に表示される。
このとき、両拠点のコミュニケーション装置100は音声信号を送受信しておらず、両拠点とも相手側のビデオカメラ104で撮影した映像だけがモニター111に表示されて、お互いの拠点の様子を確認できる。
また、ビデオカメラ104により撮影された映像信号は、呼びかけ処理部105の映像入力端子112に入力され、映像信号が人物位置検知部114に入力される。
コミュニケーション装置100が動作開始後から人がコミュニケーション装置100に近づくまでは,各拠点のコミュニケーション装置100は音声信号を送受信しておらず、両拠点とも相手側のビデオカメラ104で撮影した映像だけがモニター111に表示されて、お互いの拠点の様子を確認できる状態になっている。
コミュニケーション装置100が動作開始してしばらくすると、相手拠点にいる人と通話を試みようとする使用者152a及び152bは、相手側の拠点の映像を見て、通話相手を探したり、確認したりするためにモニター111に近づく。このとき、図2に例示するように、ビデオカメラ104はモニター111付近に設置されている(図2の例では、モニター111の上部にビデオカメラ104が設置されている)ため、ビデオカメラ104は、モニター111に近づく使用者152a及び152bを撮影し、使用者152a及び152bが映っている映像信号が呼びかけ処理部105の映像入力端子112に入力される。
呼びかけ処理部105の映像入力端子112に、使用者152a及び152bが映っている映像信号が入力され始めると、ビデオカメラ104の映像信号が人物位置検知部114に入力される。
人物位置検知部114は、映像信号に映っている使用者152a及び152bの2人を検知し、人物位置検知部114は、人が映っていることを示す判定結果(例えば「1」など)を信号処理部116及び音声認識部118に出力すると共に、映像フレームにおける使用者152a及び152bの位置に関する情報(例えば、方向情報)を信号処理部116に出力する。
さらに、相手側の拠点にいる人と通話を試みようとする使用者152aと152bのいずれかは、通話したい相手を呼びかけるために、呼びかけ音声を発声する。ここで、呼びかけ音声とは、相手側の拠点で通話したい相手を呼びかける音声であると共に、相手側の拠点との通話を開始するものとして機能する。呼びかけ音声は、実際に対面して会話をする際に用いられる言葉を含むことが望ましい(例えば、「人名+こんにちは」、「人名+こんばんは」など)。これにより、コミュニケーション装置100を通じて相手側の拠点の人と通話をする際に違和感なく通話を開始させることができる。
使用者152a又は152bのいずれかが発話した呼びかけ音声は、マイクアレイ101の各マイクに受音される。このとき、部屋151における環境音も各マイクに受音されるため、各マイクに受音される音信号は、使用者152a及び152bが発話した音声信号に環境音が重畳した信号となる。
マイクアレイ101の各マイクに入力したアナログの音信号は、マイクアンプ102で増幅され、AD変換部103でアナログ信号からデジタル信号に変換され、呼びかけ処理部105の音入力端子115にマイク入力信号x(m,n)として入力される。なお、マイク入力信号x(m,n)において、mはマイクアレイ101内の各マイクを識別するパラメータであり、nは入力信号の時系列を示すパラメータである。
呼びかけ処理部105の音入力端子115に信号が入力され始めると、まず、マイク入力信号x(m,n)が信号処理部116に入力される。
人物位置検知部114でビデオカメラ104の映像信号に人が映っていると判定されたとき、信号処理部116は、人物位置検知部114から各人物の位置に関する情報(例えば、方向情報)を用いて、マイク入力信号x(m,n)に対してマイクアレイ処理を行い、指向性処理や音源を分離する音源分離処理をする。
このように、映像信号に人が映っていると判定されたときに、信号処理部116が信号処理を行うことで、使用環境となる部屋151に使用者以外の人がいるような場合でも、使用者以外の人の音声をマイクが受音して、誤って相手側の拠点と接続することなく、モニター111の前にいる使用者の音声を正しく捉えることができる。
また、映像信号に人が映っていると判定されたとき、信号処理部116は、人物位置検知部114からの人の方向情報に基づいて、映像信号に映っている各人の音声として扱い、マイクアレイ101に形成される指向性や音源分離処理を行なう。人物位置検知部114による人の検知方法は特に限定されるものではなく、種々の方法を広く適用することができ、例えば、ビデオカメラ104が撮影する映像信号(映像フレーム)のX−Y座標系と、マイクアレイ101の各マイクの位置を決めるX−Y座標系との対応させるために、映像信号(映像フレーム)のX−Y座標系と、マイクアレイ101の各マイク位置のX−Y座標系の原点との間で座標変換処理を行ない、人のいる方向情報を算出するようにしても良い。
指向性処理の手法は、例えば、従来のマイクアレイ処理である遅延和アレイ処理でマイクアレイ101が直線型のマイクアレイの場合に、以下の(1)式に従い、処理する手法がある。
Figure 2020053882
上記(1)式のx’_k(n)はマイクアレイ処理信号、Dmは各マイク信号に付加する遅延量、Kは指向性を形成する数、Mはマイクの本数、(2)式のD0は固定遅延量、(3)式のτ_kはマイク間の遅延量、dはマイク間隔、θkは指向性を形成する角度(人物位置検知部114からの人の方向情報)、cは音速である。
例えば、1つの指向性をマイクアレイ101の正面方向に指向性を形成する場合は、K=1、指向性を形成する角度θ1=0になるので、上記(3)式より、τ_1=0となる。また例えば、2つの指向性をマイクアレイ101の90度方向に指向性を形成する場合は、K=2、指向性を形成する角度θ2=π/2(πは円周率)になり、上記(3)式より、τ_2=d/cとなる。
なお、信号処理の算出手段は、種々の方法を広く適用することができ、例えば、遅延和アレイ処理以外の従来の別マイクアレイ処理や、マイクアレイを2組使用して、ある特定のエリアの収音できるマイクアレイ処理でも良い。
そして、信号処理部116は、人物位置検知部114でビデオカメラ104の映像信号に人が映っていると判定されたときは、算出したマイクアレイ処理信号x’_k(n)を、オーディオバッファ部117と、音声認識部118と、出力切替部121に出力し、人物位置検知部114でビデオカメラ104の映像信号に人が映っていないと判定されたときは、(4)式に示すように、無線信号をオーディオバッファ部117と、音声認識部118と、出力切替部121に出力する。
x’_k(n)=0 …(4)
また、呼びかけ処理部105は、同時にマイクアレイ処理信号x’_k(n)を、以下の(5)式に従い、オーディオバッファ部117のオーディオバッファbuffer_k(n)の書込み位置write_indexの位置に保持する。保持した後、呼びかけ処理部105は、以下の(6)式に示すように、書込み位置write_indexの値に「1」をインクリメントして処理を進める。
Figure 2020053882
上記(6)式のBUFFER_SIZEは、オーディオバッファ部117のバッファの長さである。
さらに、呼びかけ処理部105は、同時にマイクアレイ処理信号x’_k(n)を音声認識部118で音声認識を行う。そして、マイクアレイ処理信号x’_k(n)の音声認識結果をマイクアレイ処理信号毎にコマンド判定部120に出力する。
コマンド判定部120は、音声認識結果とコマンドリスト部119に保持されているコマンド一覧(例えば、図3のコマンドリスト)とを比較し、コマンドリストにある「人名」とコマンドリストにある「接続コマンド」が続けて音声認識されたか否かの判定を行う。例えば、使用者が「○○さん こんにちは」などのように発話し、音声認識結果が、コマンドリストに設定されている「人名」と「接続コマンド」とが連続して音声認識された場合、判定結果として「1」を、後述する「切断コマンド」が音声認識された場合は、判定結果として「2」を、それ以外は「0」を出力する。そして、コマンド判定部120は、判定結果を出力切替部121に出力し、判定結果と音声認識結果を接続判定部123に出力する。
コマンドリスト部119は、例えば、図3のようにコマンドの一覧がテキス卜ファイルで保持されている。例えば、図3に例示するコマンドリストは、大別して、少なくとも相手側の拠点の通話相手となり得る人の名前等を示す「人名」、実際に対面する相手と会話を始める際に用いる言葉であって、且つ、相手側の拠点との接続開始を実行するコマンドとして機能する「接続コマンド」、実際に対面する相手と会話を終了する際に用いる言葉であって、且つ、相手側の拠点との接続終了を実行するコマンドとして機能する「切断コマンド」を有している。なお、図3のコマンド一覧は一例であって、コマンドリスト部119が保持するデータの内容及び形式は、種々様々な値(形式)を適用することができる。
接続判定部123は、音声認識部118による音声認識結果及びコマンド判定部120に基づくコマンド判定結果に基づいて接続判定を行い、接続判定結果をNW通信部106に出力する。
例えば、コマンド判定部120の判定結果が「1」で音声認識結果118の認識結果が「○○さん こんにちは」という音声認識結果が出力された場合、接続判定部123は、相手側の拠点のコミュニケーション装置100が設置されている近くに「○○さん」がいるとき、相手側の拠点のコミュニケーション装置100に接続する信号を接続判定結果出力端子124に出力する。拠点のコミュニケーション装置100が設置されている近くに「○○さん」が入るかどうかの判定は、事前に端末の近くにいる人を登録した情報を使用する。
NW通信部106は、接続判定結果出力端子124を介して出力された接続判定結果に基づき、ネットワーク107との接続処理を行う。
コマンド判定部120により「人名」と「接続コマンド」が続けて音声認識された場合には、オーディオバッファ部117に保持されている該当のマイクアレイ処理信号のオーディオバッファ音を出力する。
オーディオバッファ部117に保持されている音を出力するために、読出し位置read_indexを、下記の(7)式に従い計算する。
Figure 2020053882
上記(7)式のLENは、オーディオバッファ部117に保持されている処理信号を再生する長さである。なお、LENの決定方法は、種々の方法を広く適用することができ、例えば、オーディオバッファ部117のバッファサイズと同じ長さ(LEN=BUFFER_SIZE)とするなどの定数とする方法が存在する。また、オーディオバッファ部117に保持されているマイク入力信号に音声区間処理を行い、バッファに保持されている音の長さを求めて、その長さをLENとする方法でも良い。
そして、出力切替部121は、以下の(8)式に示すようにオーディオバッファ部117に保持されている音信号を出力信号y(n)として音出力端子122に一定時間(例えば、LENの時間長分)出力し、以下の(9)式に示すように読出し位置read_indexを進める(インクリメン卜する)。
Figure 2020053882
NW通信部106は、音出力端子122から介して出力された出力信号y(n)をネットワーク107で接続している相手側のコミュニケーション装置100のNW通信部106に送信する。
出力切替部121は、オーディオバッファ部117に保持されている音信号を一定時間出力すると、以下の(10)式に示すように、マイクアレイ処理信号x’_k(n)を出力信号y(n)として音出力端子122に出力する。
y(n)=x’_k(n) …(10)
一方、出力切替部121は、コマンド判定部120で音声認識部118の音声認識結果が「人名」と「接続コマンド」が続けて音声認識されない場合は、(4)式に示すように、x’_k(n)が無音信号になるので、(10)式に示すようにy(n)も無音信号になり、無音信号を音出力端子122に出力し続ける。
y(n)=0 …(11)
NW通信部106は、音出力端子122を介して出力された出力信号y(n)を引き続きネットワーク107に接続している相手側のコミュニケーション装置100のNW通信部106に送信する。
一方、ネットワーク107から送信されてきた相手側の音声信号は、NW通信部106を介してDA変換部108に入力する。そして、DA変換部108によりデジタル信号からアナログ信号に変換後、音声信号がスピーカアンプ109で増幅され、音声がスピーカ110から出力される。
呼びかけ音声再生後は、自拠点のコミュニケーション装置100と相手側の拠点のコミュニケーション装置100とが接続し、両拠点の間で、ビデオカメラ映像と音声のやりとりが行われる。
しばらくして、通話を終了する場合は、使用者152aと152bのいずれかが、切断音声を発話して会話を終了する。
使用者152a、152bのいずれかが発した音声は、環境音が重畳しマイクアレイ101の各マイクに入力される。
マイクアレイ101に入力されたアナログの音信号は、マイクアンプ102で増幅され、AD変換部103でアナログ信号からデジタル信号に変換され、呼びかけ処理部105の音入力端子115にマイク入力信号x_k(m,n)として入力され、マイク入力信号x_k(m,n)が信号処理部116に入力される。
信号処理部116は、マイク入力信号x_k(m,n)に対して(1)、(2)、(3)式に示すように、マイクアレイ処理を行い、指向性処理や音源を分離する音源分離処理を行い、算出したマイクアレイ処理信号x’_k(n)をオーディオバッファ部117と音声認識部118と出力切替部121に出力する。
出力切替部121は、(10)式に示すように、マイクアレイ処理信号x’_k(n)を出力信号y(n)として音出力端子122に出力する。
また、呼びかけ処理部105は、同時にマイクアレイ処理信号x’_k(n)を、(5)式に従い、オーディオバッファ部117のオーディオバッファbuffer_k(n)の書込み位置write_indexの位置に保持する。保持した後、呼びかけ処理部105は、(6)式に示すように、書込み位置write_indexを進める(すなわち、書き込み位置をインクリメン卜する)。
さらに、呼びかけ処理部105は、同時にマイクアレイ処理信号x’_k(n)を音声認識部118で音声認識を行い、音声認識結果をコマンド判定部120に出力する。
コマンド判定部120は、音声認識結果と、コマンドリスト部119に保持されているコマンド一覧(図3のコマンドリスト)とを比較し、音声認識の結果が「切断コマンド」の一覧に存在するか否かの判定を行う。そして、コマンド判定部120は、コマンドリストにある「切断コマンド」が音声認識された場合(例えば、「さようなら」など)、判定結果を出力切替部121、及び接続判定部123に出力する。例えば、使用者が「○○さん こんにちは」などのように発話し、音声認識結果が、コマンドリストに設定されている「人名」と「接続コマンド」とが連続して音声認識された場合、判定結果として「1」を、「切断コマンド」が音声認識された場合は、判定結果として「2」を、それ以外は「0」を出力する。
接続判定部123は、音声認識部118による音声認識結果及びコマンド判定部120に基づくコマンド判定結果に基づいて、切断判定を行い、NW通信部106に相手側のNW通信部と切断する信号を接続判定結果出力端子124に出力する。
NW通信部106は、接続判定結果出力端子124を介して出力された接続判定結果に基づき、相手側のコミュニケーション装置100のNW通信部106との切断処理を行う。
出力切替部121は、コマンド判定部120で音声認識部118の音声認識結果がコマンドリスト部119の切断コマンド一覧に存在しないと判定された場合には、マイクアレイ処理信号を音出力端子122に出力し続ける。
一方、コマンド判定部120で音声認識部118の音声認識結果がコマンドリスト部119の切断コマンド一覧に存在すると判定された場合には、出力切替部121は、(11)式に示すように、無音信号を出力信号y(n)として音出力端子122に出力される。
(A−3)第1の実施形態の効果
以上のように、第1の実施形態によれば、コミュニケーション装置100は、マイクアレイに受音される音声信号と人の方向情報から、各使用者の音声を強調する信号処理を行い、信号処理した信号を一度オーディオバッファ部に保持し、同時に音声認識部が信号処理した信号に対して音声認識を行なう。そして、音声認識結果が呼びかけ音声か否かを判定し、呼びかけ音声の場合には、相手側のコミュニケーション装置と接続してから、バッファに保持している呼びかけ音声を出力することで、呼びかけ音声が相手に伝わってから会話を開始することができる。また、相手側との会話が開始してから、音声認識部が信号処理した信号に対して音声認識を行い、その音声認識結果が切断音声か否かを判定し、切断音声の場合には切断する。このことにより、対面での会話に近い状態を再現でき、複数の話者で高い臨場感で会話を開始することができる。
また、第1の実施形態のコミュニケーション装置100は、使用環境の雑音が大きい環境においても、呼びかけ音声の収音はマイクアレイを使用して、音声を強調する信号処理を行っているため、呼びかけ音声を正しく認識でき、雑音が大きい環境でも通話を行うことができる。
(B)第2の実施形態
次に、本発明のコミュニケーション装置、コミュニケーションプログラム、及びコミュニケーション方法の第2の実施形態を、図面を参照しながら詳細に説明する。
第2の実施形態は、本発明のコミュニケーション装置の音出力方法が、第1の実施形態と異なっている場合を例示する。
(B−1)第2の実施形態の構成
図4は、第2の実施形態に係るコミュニケーション装置200の構成を示すブロック図である。
図4において、第2の実施形態に係るコミュニケーション装置200は、マイクアレイ101、マイクアンプ102、アナログ−デジタル(AD)変換部103、2台のビデオカメラ104a及び104b、呼びかけ処理部201、NW通信部106、デジタル−アナログ(DA)変換部108、スピーカアンプ109、2台のスピーカ110a及び110b、モニター111を有する。
また、呼びかけ処理部201は、音入力端子115、映像入力端子112a及び112b、映像出力端子113a及び113b、人物位置検知部202、信号処理部116、オーディオバッファ部117、音声認識部118、コマンドリスト部119、コマンド判定部120、出力切替部203、音出力端子122a及び122b、接続判定部123、接続判定結果出力端子124を有する。
第2の実施形態に係るコミュニケーション装置200は、2台のビデオカメラ104a及び104bと、2台のスピーカ110a及び110bとを備え、さらに、呼びかけ処理部201の映像入力端子112a及び112b、映像出力端子113a及び113b、音出力端子122a及び122bが2個に増えたことにより、人物位置検知部202と出力切替部203の動作が第1の実施形態と異なる。
それ以外の構成要素は、第1の実施形態に係る図1のコミュニケーション装置100の構成要素と同一、又は対応するものである。なお、図4において、第1の実施形態に係るコミュニケーション装置100の構成要素と同一、又は対応するものについては同一の符号を付している。また、第1の実施形態と同一、又は対応する構成要素の詳細な説明は重複するため、ここでは省略する。
呼びかけ処理部201は、2台のビデオカメラ104a及び104bと接続しており、入力された各々のビデオカメラ104a及び104bからの営巣信号に人が映っているか否かを判定する。いずれか又は両方の映像信号に人が映っていると判定された場合のみ、呼びかけ処理部201は、入力された複数のマイク入力信号を信号処理し、信号処理した信号を音出力端子に出力する。同時に、呼びかけ処理部201は信号処理した信号をオーディオバッファ部117に保存する。さらに、呼びかけ処理部201は、信号処理した信号を音声認識し、音声認識結果がコマンドリスト部119のコマンドの1つと一致した場合に、接続判定結果とオーディオバッファに保存されている音信号を一定時間出力し、一定時間出力が完了すると再び信号処理した信号を出力する。
次に、呼びかけ処理部201の詳細な構成を説明する。
映像入力端子112a、112bは、ビデオカメラ104a、104bからの映像信号を呼びかけ処理部201に入力するインタフェース部である。
映像出力端子113a、113bは、ビデオカメラ104a、104bからの映像信号を呼びかけ処理部201から出力するインタフェース部である。
人物位置検知部202は、映像入力端子112a、112bから入力したビデオカメラ104a、104bのそれぞれの映像信号に人が映っているか否かを判定するものである。
出力切替部203は、コマンド判定部120によるコマンド判定結果に基づいて出力する音信号を決定し、音信号を出力する。
(B−2)第2の実施形態の動作
第2の実施形態に係るコミュニケーション装置200における音声処理の基本的な動作は、第1の実施形態で説明した音声処理と同様である。
以下では、第1の実施形態と異なる点である人物位置検知部202、及び出力切替部203における処理動作を中心に詳細に説明する。
また、以下では、図5に示すように、1人の使用者152aが相手側の拠点にいる人とコミュニケーションをとっており、その後、2人目の使用者152bがコミュニケーションに参加してきた場合を想定して説明する。この場合、使用者152aはビデオカメラ104aにより撮影され、使用者152bはビデオカメラ104bに撮影されるものとして説明する。
まず、コミュニケーション装置200の動作が開始すると、モニター111は、相手側の拠点のコミュニケーション装置100のビデオカメラ104a、104bで撮影している映像を表示する。
自拠点のビデオカメラ104a、104bで撮影している映像は、呼びかけ処理部201を介してNW通信部106に与えられ、NW通信部106がNWを通して相手側の拠点に映像信号を送信する。映像信号は相手側の拠点のNW通信部106で受信され、相手の拠点のモニター111には、自拠点のビデオカメラ104a、104bで撮影された映像が表示される。
このとき、両拠点のコミュニケーション装置200は音声信号を送受信しておらず、両拠点とも相手側のビデオカメラ104a、104bで撮影した映像だけがモニター111に表示されて、お互いの拠点の様子を確認できる。また、各拠点の音声信号がお互いに送受信されるようにしても良く、その場合には、お互いの映像がモニター111に表示されると共に、お互いの音が聞こえる。
また、ビデオカメラ104a、104bで撮影している映像信号は、呼びかけ処理部201の映像入力端子112a、112bに入力され、人物位置検知部202に入力される。
人物位置検知部202は、ビデオカメラ104a、104bで撮影された映像信号に人が映っているか否かを判定し、その判定結果を、信号処理部116及び音声認識部118に出力する。例えば、人物位置検知部202は、ビデオカメラ104aに人が映っていると判定したときには判定結果を「1」、ビデオカメラ104bに人が映っていると判定したときには判定結果を「2」、それ以外は判定結果を「0」などとして出力する。
例えば、使用者152aが相手側の拠点の全体映像に映っている人と通話を行う場合は、モニター111に表示されている相手側の拠点の映像を見るために、図5に示すように、使用者152aは、モニター111に近づき、モニター111に映っている相手の拠点の映像を確認する。
このとき、図5に例示するように、モニター111付近に設置されているビデオカメラ104aが使用者152aを撮影するので、ビデオカメラ104aの映像信号を監視する人物位置検知部202は、ビデオカメラ104aの映像信号に人が映っているという判定結果(例えば、判定結果「1」等)を、信号処理部116及び音声認識部118に出力する。また、人物位置検知部202は、ビデオカメラ104aの映像フレームにおける使用者152aの方向情報を信号処理部116に出力する。
使用者152aは、通話したい相手を呼びかけるために、呼びかけ音声を発声する。使用者152aが発した音声は、環境音が重畳しマイクアレイ101aの各マイクに入力される。
マイクアレイ101aに入力されたアナログの音信号は、マイクアンプ102で増幅され、AD変換部103でアナログ信号からデジタル信号に変換され、呼びかけ処理部201の音入力端子115にマイク入力信号x(m,n)として入力される。
呼びかけ処理部201の音入力端子115に信号が入力され始めると、まず、マイク入力信号x(m,n)が信号処理部116に入力される。
人物位置検知部202でビデオカメラ104aの映像信号に人が映っていると判定されたとき、信号処理部116は入力信号に対してマイクアレイ処理を行う。このとき、信号処理部116は、人物位置検知部202から取得した、ビデオカメラ104aの映像における使用者152aの方向情報に基づいて、使用者152aの位置方向から到来する使用者152aの音声をマイクアレイ101が収音する指向性処理や、使用者152aの音声を抽出する音源分離処理を行う。
そして、信号処理部116は、人物位置検知部202でビデオカメラ104の映像信号に人が映っていると判定されたときは、算出したマイクアレイ処理信号x’_1(n)を、オーディオバッファ部117と、音声認識部118と、出力切替部203に出力し、人物位置検知部202でビデオカメラ104の映像信号に人が映っていないと判定されたときは、(12)式に示すように、無線信号をオーディオバッファ部117と、音声認識部118と、無線信号を出力切替部203に出力する。
x’_1(n)=0 …(12)
呼びかけ処理部201は、同時にマイクアレイ処理信号x’_1(n)は、(5)式に従い、オーディオバッファ部117のオーディオバッファbuffer_1(n)の書込み位置write_indexの位置に保持する。保持した後、呼びかけ処理部201は、(6)式のように、書込み位置write_indexの値をインクリメントして進める。
さらに、呼びかけ処理部201では、同時にマイクアレイ処理信号x’_1(n)を音声認識部118に入力し、音声認識部118が音声認識を行い、マイクアレイ処理信号x’_1(n)の音声認識結果をコマンド判定部120に出力する。
コマンド判定部120は、マイクアレイ処理信号x’_1(n)の音声認識結果と、コマンドリスト部119に保持されているコマンド一覧(例えば、図3のコマンドリスト)を比較し、コマンドリストにある「人名」とコマンドリストにある「接続コマンド」が続けて音声認識されたか否かの判定を行う(例えば、「○○さん こんにちは」など)。
そして、コマンド判定部120は、判定結果を出力切替部203に、判定結果と音声認識結果を接続判定部123に出力する。例えば、マイクアレイ処理信号x’_1(n)の音声認識結果が「人名」と「接続コマンド」が続けて音声認識された場合、コマンド判定部120は、判定結果を「1」、後述するマイクアレイ処理信号x’_2(n)の音声認識結果が「人名」と「接続コマンド」が続けて音声認識された場合は判定結果を「2」、それ以外は「0」などのように出力する。
接続判定部123は、音声認識部118による音声認識結果及びコマンド判定部120に基づくコマンド判定結果に基づいて、接続判定を行い、接続判定結果をNW通信部106に出力する。例えば、判定結果が「1」で、コマンド判定部120から「○○さん こんにちは」という音声認識結果が出力された場合、接続判定部123は、相手側の拠点のコミュニケーション装置100が設置されている近くに「○○さん」がいるときは、ビデオカメラ104aとマイクアレイ101aと相手側の拠点のコミュニケーション装置200の「○○さん」の近くのビデオカメラとマイクアレイに接続する信号を接続判定結果出力端子124に出力する。拠点のコミュニケーション装置200が設置されている近くに○○さんが入るかどうかの判定は、事前に端末の近くにいる人を登録した情報を使用する。
NW通信部106は、接続判定結果出力端子124を介して出力された接続判定結果に基づき、ネットワーク107との接続処理を行う。
コマンド判定部120で音声認識部118の音声認識の結果が「人名」と「接続コマンド」が続けて音声認識されない場合は、出力切替部203は、(13)式に示すように、無音信号を出力信号y_1(n)として音出力端子122aに出力する。
y_1(n)=0 …(13)
一方、コマンド判定部120で「人名」と「接続コマンド」が続けて音声認識された場合には、出力切替部203は、オーディオバッファ部117の読出し位置read_index_1を、下記の(14)式に従い計算する。
Figure 2020053882
また、「人名」と「接続コマンド」が続けて音声認識されない場合は、出力切替部203は、信号処理部116からのマイク入力信号x(m,n)を出力するようにしても良い。
そして、出力切替部203は、以下の(15)式に示すようにオーディオバッファ部117に保持されている音信号を出力信号y_1(n)として音出力端子122に一定時間(例えば、LENの時間長分)出力し、以下の(16)式に示すように読出し位置read_index_1をインクリメントして進める。
Figure 2020053882
NW通信部106は、音出力端子122aから出力された出力信号y_1(n)をネットワーク107で接続している相手側のコミュニケーション装置200のNW通信部106に送信する。
出力切替部203は、オーディオバッファ部117に保持されている音信号を一定時間出力すると、以下の(17)式に示すように、マイクアレイ処理信号x’_1(n)を、出力信号y_1(n)として音出力端子122aに出力する。
y_1(n)=x’_1(n) …(17)
NW通信部106は、音出力端子122から出力された出力信号y_1(n)を引き続きネットワーク107で接続している相手側のコミュニケーション装置200のNW通信部106に送信する。
一方、ネットワーク107から送信されてきた相手側の音声信号は、NW通信部106を介してDA変換部108に入力し、DA変換部108によりデジタル信号からアナログ信号に変換後、音声信号がスピーカアンプ109で増幅され、音声がスピーカ110aにより出力される。つまり、スピーカ110aから、使用者152aの音声が出力される。
呼びかけ音声再生後は、自拠点のコミュニケーション装置200と相手側の拠点のコミュニケーション装置200とが接続し、両拠点の間で、ビデオカメラ映像と音声のやりとりが行われる。
次に、図6に示すように、2人目の使用者152bがコミュニケーションに参加して、相手側の拠点にいる人と通話する場合を説明する。
この場合も、使用者152bがモニター111に表示されている相手側の拠点の映像を見るために、図6に示すように、使用者152bがモニター111に近づき、モニター111に映っている相手の拠点の映像を確認する。そうすると、人物位置検知部114は、ビデオカメラ104bに人が映っていることを判定し、その旨の判定結果を信号処理部116及び音声認識部118に出力する。
使用者152bは、映像に通話したい相手が映っていると、使用者152bが呼びかけ音声を発話する。使用者152bが発した音声は、環境音が重畳しマイクアレイ101bの各マイクに入力される。
マイクアレイ101bに入力されたアナログの音信号は、マイクアンプ102で増幅され、AD変換部103でアナログ信号からデジタル信号に変換され、音声信号が、呼びかけ処理部201の音入力端子115にマイク入力信号x(m,n)として入力される。
呼びかけ処理部201の音入力端子115に信号が入力され始めると、まず、マイク入力信号x(m,n)が信号処理部116に入力される。
人物位置検知部202でビデオカメラ104bの映像に人が映っていると判定されたとき、信号処理部116は入力信号に対してマイクアレイ処理を行い、指向性処理や音源を分離する音源分離処理をする。
そして、信号処理部116は、算出したマイクアレイ処理信号x’_2(n)、をオーディオバッファ部117と、音声認識部118と、出力切替部203に出力する。
そして、信号処理部116は、人物位置検知部202でビデオカメラ104bの映像信号に人が映っていると判定されたときは、算出したマイクアレイ処理信号x’_2(n)を、オーディオバッファ部117と、音声認識部118と、出力切替部203に出力し、人物位置検知部202でビデオカメラ104の映像信号に人が映っていないと判定されたときは、(18)式に示すように、無線信号をオーディオバッファ部117と、音声認識部118と、無線信号を出力切替部203に出力する。
x’_2(n)=0 …(18)
呼びかけ処理部201は、同時にマイクアレイ処理信号x’_2(n)は、(5)式に従い、オーディオバッファ部117のオーディオバッファbuffer_2(n)の書込み位置write_indexの位置に保持する。保持した後、呼びかけ処理部201は、(6)式のように、書込み位置write_indexの値に「1」をインクリメントして進める。
さらに、呼びかけ処理部201では、同時にマイクアレイ処理信号x’_2(n)を音声認識部118に入力し、音声認識部118が音声認識を行い、マイクアレイ処理信号x’_2(n)の音声認識結果をコマンド判定部120に出力する。
コマンド判定部120は、マイクアレイ処理信号x’_2(n)の音声認識結果とコマンドリスト部119に保持されているコマンド一覧(例えば、図3のコマンドリスト)を比較し、コマンドリストにある「人名」とコマンドリストにある「接続コマンド」が続けて音声認識されたか否かの判定を行う(例えば、「○○さん こんにちは」など)。そして、コマンド判定部120は、判定結果を出力切替部121に、判定結果と音声認識結果を接続判定部123に出力する。
接続判定部123は、音声認識部118による音声認識結果及びコマンド判定部120に基づくコマンド判定結果に基づいて、接続判定を行い、接続判定結果をNW通信部106に出力する。
例えば、音声認識部118による音声認識結果が「2」で、コマンド判定部120から「××さん こんにちは」という音声認識結果が出力された場合、接続判定部123は、相手側の拠点のコミュニケーション装置200が設置されている近くに「××さん」がいる場合は、ビデオカメラ104bとマイクアレイ101bと相手側の拠点のコミュニケーション装置100の○○さんの接続されていないビデオカメラとマイクアレイに接続する信号を接続判定結果出力端子124に出力する。拠点のコミュニケーション装置200が設置されている近くに「××さん」が入るかどうかの判定は、事前に端末の近くにいる人を登録した情報を使用する。
NW通信部106は、接続判定結果出力端子124から出力された接続判定結果に基づき、ネットワーク107との接続処理を行う。
コマンド判定部120で音声認識部118のマイクアレイ処理信号x’_2(n)の音声認識の結果が「人名」と「接続コマンド」が続けて音声認識されない場合は、出力切替部203は、(19)式に示すように、無音信号を出力信号y_2(n)として音出力端子122bに出力し続ける。
y_2(n)=0 …(19)
一方、コマンド判定部120で「人名」と「接続コマンド」が続けて音声認識された場合には、出力切替部203は、オーディオバッファ部117の読出し位置read_index_2を、下記の(20)式に従い計算する。
Figure 2020053882
そして、出力切替部203は、以下の(21)式に示すようにオーディオバッファ部117に保持されている音信号を出力信号y_2(n)として音出力端子122bに、一定時間(例えば、LENの時間長分)出力し、以下の(22)式に示すように読出し位置read_index_2の値に「1」をインクリメントして進める。
Figure 2020053882
NW通信部106は、音出力端子122から出力された出力信号y_2(n)をネットワーク107で接続している相手のNW通信部106に送信する。
出力切替部203は、オーディオバッファ部117に保持されている音信号を一定時間出力すると、以下の(23)式に示すように、マイクアレイ処理信号x’_2(n)を出力信号y_2(n)として音出力端子122bに出力する。
y_2(n)=x’_2(n) …(23)
NW通信部106は、音出力端子122を介して出力された出力信号y_2(n)を引き続きネットワーク107で接続している相手のNW通信部106に送信する。
一方、ネットワーク107から送信されてきた相手側の音声は、NW通信部106を介してDA変換部108に入力し、DA変換部108によりデジタル信号からアナログ信号に変換後、音声信号がスピーカアンプ109で増幅され、音声がスピーカ110bにより出力される。つまり、スピーカ110bから使用者152bの音声が出力される。
呼びかけ音声再生後は、接続後に遠隔通話装置はNW通信部106を介して、ビデオカメラ映像と音声のやりとりが行われる。
(B−3)第2の実施形態の効果
以上のように、第2の実施形態によれば、コミュニケーション装置は、複数のマイクアレイを使用して、複数の話者の音声を別々に強調する信号処理を行う。そして、信号処理した信号を一度オーディオバッファ部に保持し、同時に信号処理した信号に対して音声認識を行い、その音声認識結果が呼びかけ音声か否かを各マイクアレイ信号毎に判定する。呼びかけ音声の場合には、通話相手に接続してからオーディオバッファ部に保持している呼びかけ音声を出力することで、呼びかけ音声が相手に伝わってから会話を開始することができる。また通話を終了する際には、信号処理した信号に対して音声認識を行い、その音声認識結果が切断音声か否かを判定し、切断音声の場合には、相手側の拠点との接続を切断する。このことにより、対面での会話に近い状態を再現でき、複数の話者で高い臨場感で会話を開始することができる。
(C)他の実施形態
上述した各実施形態においても、種々の変形実施形態を説明したが、本発明は以下の変形実施形態についても適用することができる。
(C−1)上述した各実施形態で説明したコミュニケーション装置は、例えば、電話会議で通話を開始するときに、音声の入力によるコマンドで通話を開始する装置に搭載されるようにしても良い。
(C−2)上述した各実施形態で説明したコミュニケーション装置における、呼びかけ処理部やNW通信部は、ネットワーク上に設けられた処理装置(例えば、サーバなど)で処理されるようにしても良い。
(C−3)上述した各実施形態で説明したコミュニケーション装置では、マイクアレイ101が、図2、図5、図6で例示したように、モニター111の前方に配置される場合を例示した。しかし、マイクアレイ101の配置例は、図2、図5、図6に限定されない。例えば、マイクアレイ101は、モニター111の上部又は側面に配置されても良い。また、コミュニケーション装置がプロジェクターとスクリーンを備えている場合、プロジェクターからの投影映像を結像させるためのスクリーンをモニター111に代えて設けるようにしても良い。このスクリーンの種類は、様々なものを用いることができ、例えば投影映像を結像させる通常のスクリーンでも良いし、また例えば、音を透過するスクリーンでも良い。音を透過するスクリーンの場合、マイクアレイ101は、スクリーンの後方に配置しても良い。
(C−4)上述した各実施形態で説明したコミュニケーション装置で、1つのマイクアレイ101を用意する場合を例示しているが、2つのマイクアレイを用意するようにしても良い。ここでは、例えば、マイクアレイ101a、101bとする。その場合、例えば、マイクアレイ101aは使用者152aの音声を収音するものとし、マイクアレイ101bは使用者152bの音声を収音するものとする。
100及び200…コミュニケーション装置、101…マイクアレイ、102…マイクアンプ、103…AD変換部、104、104a及び104b…ビデオカメラ、105及び201…呼びかけ処理部、106…NW通信部、107…ネットワーク、108…DA変換器、109…スピーカアンプ、110a及び110b…スピーカ、111…モニター、112、112a及び112b…映像入力端子、113、113a及び113b…映像出力端子、114…人物位置検知部、115…音入力端子、116…信号処理部、117…オーディオバッファ部、118…音声認識部、119…コマンドリスト部、120…コマンド判定部、121及び203…出力切替部、122、122a及び122b…音出力端子、123…接続判定部、124…接続判定結果出力端子。

Claims (6)

  1. 入力された映像信号から1又は複数の人物を検知する人物検知部と、
    上記人物検知部により上記1又は複数の人物が検知されたときに、入力された音声信号に基づいて音声認識をする音声認識部と、
    少なくとも、接続先との接続を開始する接続コマンド及び接続を切断する切断コマンドを含む複数のコマンドを記憶するコマンド記憶部と、
    上記音声認識部による音声認識結果が上記コマンド記憶部に記憶される上記接続コマンド又は上記切断コマンドと一致するか否かを判定するコマンド判定部と、
    上記コマンド判定部によるコマンド判定結果に応じて、出力音声信号を決定する出力切替部と、
    上記音声認識結果及び上記コマンド判定結果に基づいて、接続先との接続処理を行う接続判定部と
    を備えることを特徴とするコミュニケーション装置。
  2. 上記人物検知部が、上記映像信号から検知した各人物の位置に関する情報を獲得するものであり、
    上記人物検知部の上記各人物の位置に関する情報に基づいて、1又は複数のマイクロホンで収音された上記音声信号の指向性を形成して、上記各人物の音声信号を抽出する信号処理部と、
    上記信号処理部による上記各人物の音声信号を保持する保持部と
    を備え、
    上記音声認識結果が上記接続コマンドに一致するとき、
    上記接続判定部が、上記接続先との接続処理を行い、
    上記出力切替部は、上記接続先との接続後、上記保持部に保持されている上記各人物の音声信号を出力した後に、上記信号処理部により処理された信号を出力する
    ことを特徴とする請求項1に記載のコミュニケーション装置。
  3. 上記音声認識結果が上記切断コマンドに一致するとき、
    上記出力切替部が、上記保持部に保持されている上記各人物の音声信号を出力した後に、上記接続判定部が上記接続先との接続を切断する
    ことを特徴とする請求項1に記載のコミュニケーション装置。
  4. 複数のビデオカメラのそれぞれから映像信号が入力し、
    上記人物検知部が、複数の映像信号のそれぞれから人物を検知し、
    上記信号処理部が、上記人物検知部により検知された上記映像信号毎の上記各人物の位置に関する情報に基づいて、1又は複数のマイクロホンで収音された上記音声信号の指向性を形成して、上記各人物の音声信号を抽出し、
    上記出力切替部が、上記信号処理部により抽出された上記各人物の音声信号を別々に出力する
    ことを特徴とする請求項2又は3に記載のコミュニケーション装置。
  5. コンピュータを、
    入力された映像信号から1又は複数の人物を検知する人物検知部と、
    上記人物検知部により上記1又は複数の人物が検知されたときに、入力された音声信号に基づいて音声認識をする音声認識部と、
    少なくとも、接続先との接続を開始する接続コマンド及び接続を切断する切断コマンドを含む複数のコマンドを記憶するコマンド記憶部と、
    上記音声認識部による音声認識結果が上記コマンド記憶部に記憶される上記接続コマンド又は上記切断コマンドと一致するか否かを判定するコマンド判定部と、
    上記コマンド判定部によるコマンド判定結果に応じて、出力音声信号を決定する出力切替部と、
    上記音声認識結果及び上記コマンド判定結果に基づいて、接続先との接続処理を行う接続判定部と
    して機能させることを特徴とするコミュニケーションプログラム。
  6. 人物検知部が、入力された映像信号から1又は複数の人物を検知し、
    音声認識部が、上記人物検知部により上記1又は複数の人物が検知されたときに、入力された音声信号に基づいて音声認識をし、
    コマンド記憶部が、少なくとも、接続先との接続を開始する接続コマンド及び接続を切断する切断コマンドを含む複数のコマンドを記憶し、
    コマンド判定部が、上記音声認識部による音声認識結果が上記コマンド記憶部に記憶される上記接続コマンド又は上記切断コマンドと一致するか否かを判定し、
    出力切替部が、上記コマンド判定部によるコマンド判定結果に応じて、出力音声信号を決定し、
    接続判定部が、上記音声認識結果及び上記コマンド判定結果に基づいて、接続先との接続処理を行う
    ことを特徴とするコミュニケーション方法。
JP2018182423A 2018-09-27 2018-09-27 コミュニケーション装置、コミュニケーションプログラム、及びコミュニケーション方法 Active JP7361460B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018182423A JP7361460B2 (ja) 2018-09-27 2018-09-27 コミュニケーション装置、コミュニケーションプログラム、及びコミュニケーション方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018182423A JP7361460B2 (ja) 2018-09-27 2018-09-27 コミュニケーション装置、コミュニケーションプログラム、及びコミュニケーション方法

Publications (2)

Publication Number Publication Date
JP2020053882A true JP2020053882A (ja) 2020-04-02
JP7361460B2 JP7361460B2 (ja) 2023-10-16

Family

ID=69997713

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018182423A Active JP7361460B2 (ja) 2018-09-27 2018-09-27 コミュニケーション装置、コミュニケーションプログラム、及びコミュニケーション方法

Country Status (1)

Country Link
JP (1) JP7361460B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023276701A1 (ja) * 2021-06-28 2023-01-05 パナソニックIpマネジメント株式会社 話者ダイアライゼーションシステム、コミュニケーション解析システム、及び、発話量推定方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009021923A (ja) * 2007-07-13 2009-01-29 Yamaha Corp 音声通信装置
JP2014060647A (ja) * 2012-09-19 2014-04-03 Sony Corp 情報処理システム及びプログラム
WO2014178860A1 (en) * 2013-05-01 2014-11-06 Thomson Licensing Call initiation by voice command
WO2015147168A1 (ja) * 2014-03-28 2015-10-01 大和ハウス工業株式会社 通信ユニット

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009021923A (ja) * 2007-07-13 2009-01-29 Yamaha Corp 音声通信装置
JP2014060647A (ja) * 2012-09-19 2014-04-03 Sony Corp 情報処理システム及びプログラム
WO2014178860A1 (en) * 2013-05-01 2014-11-06 Thomson Licensing Call initiation by voice command
WO2015147168A1 (ja) * 2014-03-28 2015-10-01 大和ハウス工業株式会社 通信ユニット

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023276701A1 (ja) * 2021-06-28 2023-01-05 パナソニックIpマネジメント株式会社 話者ダイアライゼーションシステム、コミュニケーション解析システム、及び、発話量推定方法

Also Published As

Publication number Publication date
JP7361460B2 (ja) 2023-10-16

Similar Documents

Publication Publication Date Title
JP5857674B2 (ja) 画像処理装置、及び画像処理システム
US10771694B1 (en) Conference terminal and conference system
JP2016146547A (ja) 収音システム及び収音方法
CN103685783B (zh) 信息处理系统和存储介质
US11782674B2 (en) Centrally controlling communication at a venue
US11405584B1 (en) Smart audio muting in a videoconferencing system
US20160366528A1 (en) Communication system, audio server, and method for operating a communication system
JP2019220848A (ja) データ処理装置、データ処理方法及びプログラム
JP5120020B2 (ja) 画像付音声通信システム、画像付音声通信方法およびプログラム
JP7361460B2 (ja) コミュニケーション装置、コミュニケーションプログラム、及びコミュニケーション方法
JP7400364B2 (ja) 音声認識システム及び情報処理方法
JP7095356B2 (ja) 通信端末及び会議システム
US11184184B2 (en) Computer system, method for assisting in web conference speech, and program
US20230362571A1 (en) Information processing device, information processing terminal, information processing method, and program
JP2007251355A (ja) 対話システム用中継装置、対話システム、対話方法
JP2009060220A (ja) コミュニケーションシステム及びコミュニケーションプログラム
JP2006339869A (ja) 映像信号と音響信号の統合装置
JP7035686B2 (ja) 遠隔通話装置、遠隔通話プログラム、及び遠隔通話方法
JP2017163466A (ja) 情報処理装置および会議システム
JPS62209985A (ja) テレビ会議装置
JPH03252258A (ja) 指向性再生装置
JP2022112784A (ja) 映像通話装置、及びそれに用いる制御装置、制御方法
JP7293863B2 (ja) 音声処理装置、音声処理方法およびプログラム
EP4184507A1 (en) Headset apparatus, teleconference system, user device and teleconferencing method
JP7111202B2 (ja) 収音制御システム及び収音制御システムの制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220418

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221130

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221130

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221209

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221213

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20221228

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20230110

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231003

R150 Certificate of patent or registration of utility model

Ref document number: 7361460

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150