JP2022092765A - 音声チャット端末、及びその制御方法 - Google Patents

音声チャット端末、及びその制御方法 Download PDF

Info

Publication number
JP2022092765A
JP2022092765A JP2020205655A JP2020205655A JP2022092765A JP 2022092765 A JP2022092765 A JP 2022092765A JP 2020205655 A JP2020205655 A JP 2020205655A JP 2020205655 A JP2020205655 A JP 2020205655A JP 2022092765 A JP2022092765 A JP 2022092765A
Authority
JP
Japan
Prior art keywords
voice
user
terminal
speaker
microphone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020205655A
Other languages
English (en)
Inventor
健二 吉田
Kenji Yoshida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2020205655A priority Critical patent/JP2022092765A/ja
Publication of JP2022092765A publication Critical patent/JP2022092765A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Telephone Function (AREA)

Abstract

【課題】チャット相手に出力される音声を適切にミュートすることができる音声チャット端末、及びその制御方法を提供する。【解決手段】本実施の形態にかかる音声チャット端末100は、ユーザAの音声を検出するマイク113と、マイク113で検出されたユーザAの音声の音声データを、ネットワークを介してチャット相手の端末に送信する音声データ送信部114と、マイク113がユーザA以外の発話者Cの音声を検出した場合に、チャット相手の端末に送信される音声データの音声をミュートする音声ミュート部112と、を備えている。【選択図】図1

Description

本発明は、音声チャット端末、及びその制御方法に関する。
特許文献1には、音声を用いるチャットシステムが開示されている。特許文献1では、チャットシステムが、他の端末のユーザの通話可能度合いを示す情報を取得している。そして、通話可能度合いを示す情報に応じて、接続先候補毎の接続ボタンの表示を変化させている。
特開2018-092528号公報
このような音声チャット端末では、意図しない発話内容が相手方に送信されてしまうという問題点がある。例えば、ユーザAと通話相手Bとの音声チャット中に、発話者CがユーザAに発話すると、通話相手Bが発話者Cの発話内容を聞いてしまう。発話者の発話内容に機密情報が含まれている場合、通話相手Bに機密情報が漏洩してしまうおそれがある。ユーザが、マウスなどを手動により操作することで、ミュートにした場合であっても、操作が間に合わないおそれがある。よって、情報漏洩のリスクが高くなってしまうという問題点がある。
本開示は上記の点に鑑みなされたものであり、チャット相手に出力される音声を適切にミュートすることができる音声チャット端末、及びその制御方法を提供することを目的とする。
本実施形態にかかる音声チャット端末は、ユーザの音声を検出するマイクと、前記マイクで検出された前記ユーザの音声の音声データを、ネットワークを介してチャット相手の端末に送信する音声データ送信部と、前記マイクが前記ユーザ以外の発話者の音声を検出した場合に、前記チャット相手の端末に送信される前記音声データの音声をミュートする音声ミュート部と、を備えている。
本実施形態にかかる音声チャット端末の制御方法は、マイクを用いてユーザの音声を検出するステップと、前記マイクで検出された前記ユーザの音声の音声データを、ネットワークを介してチャット相手の端末に送信するステップと、前記マイクが前記ユーザ以外の発話者の音声を検出した場合に、前記チャット相手の端末に送信される前記音声データの音声をミュートするステップと、を備えている。
本開示によれば、チャット相手に出力される音声を適切にミュートすることができる音声チャット端末、及びその制御方法を提供することを目的とする。
音声チャット端末の構成を示す制御ブロック図である。 音声チャット端末の制御方法を示すフローチャートである。 変形例に係るシステムの構成を示す模式図である。
以下、本発明を適用した具体的な実施形態について、図面を参照しながら詳細に説明する。ただし、本開示が以下の実施形態に限定される訳ではない。また、説明を明確にするため、以下の記載および図面は、適宜、簡略化されている。
実施の形態1.
本実施の形態にかかる音声チャット端末を用いたシステムについて、図1を用いて説明する。図1は、音声会議システム1の構成を示す制御ブロック図である。以下、音声会議システム1が音声チャットで遠隔会議を行うものであるとして説明するが、音声及び映像を用いてビデオ会議などを行うものであってもよい。
音声会議システム1は、音声チャット端末100と音声チャット端末200とを備えている。音声チャット端末100と音声チャット端末200とは遠隔地に配置されており、ネットワーク500を介して接続されている。ここで遠隔地とは、同じビル内等の同じ場所であってもよい。例えば、音声チャット端末100と音声チャット端末200とは、同じビルの異なる部屋や異なるフロア等に配置されていても良い。つまり、音声チャット端末100と音声チャット端末200とは、直接会話ができない程度に離れていれば良い。ネットワーク500は、インターネットや携帯電話通信網などの公衆ネットワークなどである。あるいは、ネットワーク500は、イントラネットであってもよい。
音声チャット端末100、200は、例えば、パーソナルコンピュータ、スマートフォン、タブレットパソコンなどの通信端末である。音声チャット端末100,200は、無線又は有線により通信可能になっている。例えば、音声チャット端末100、200は、WiFi(登録商標)等の無線LAN(Local Area Network)機器でネットワーク500に接続されている。音声チャット端末100、200はネットワーク500からのデータを受信可能であり、かつネットワーク500へデータを送信可能である。ネットワーク500の通信プロトコルについては、公知のものを用いることができるため説明を省略する。
ユーザAと通話相手Bとは、オンラインで音声チャットすることができる。つまり、ユーザAと通話相手Bとが互いにチャット相手となっている。例えば、ユーザAと通話相手Bとがオンラインでリモート会議に参加する会議参加者となっている。具体的には、ユーザAは音声チャット端末100のユーザで有り、音声チャット端末100を用いてリモート会議に参加している。通話相手Bは、音声チャット端末200を用いて、リモート会議に参加している。また、1つの拠点において、複数の人が遠隔会議に参加していてもよい。例えば、音声チャット端末200の周りにいる複数の人が音声チャットを行ってもよい。
ユーザAは、音声チャット端末100を用いて、通話相手Bの発話を聞くことができる。ユーザAは、音声チャット端末100を用いて、通話相手Bに対して発話することができる。通話相手Bは、音声チャット端末200を用いて、ユーザAの発話を聞くことができる。通話相手Bは、音声チャット端末200を用いて、ユーザAに対して発話することができる。
音声チャット端末100は、スピーカ111、音声ミュート部112、マイク113、音声データ送信部114、音声比較部115、音声データ受信部116、オンライン接続部120を有している。音声チャット端末200は、スピーカ211、音声ミュート部212、マイク213、音声データ送信部214、音声比較部215、音声データ受信部216、オンライン接続部220を有している。
音声チャット端末200は、音声チャット端末100と同様の構成を有している。音声チャット端末200のスピーカ211と、音声ミュート部212と、マイク213と、音声データ送信部214とは、スピーカ111、音声ミュート部112、マイク113、音声データ送信部114に対応している。音声チャット端末200の音声比較部215、音声データ受信部216、オンライン接続部220とは、音声チャット端末100の音声比較部115、音声データ受信部116、オンライン接続部120にそれぞれ対応している。音声チャット端末200の制御は、音声チャット端末100の制御と同様であるため、適宜説明を省略する。
マイク113は、ユーザAの音声を検出する。マイク113は、1又は複数のマイク素子を有している。マイク113は音声チャット端末100に内蔵されている内蔵マイクであってもよく、音声チャット端末100と別個に設けられた外付けマイクであってもよい。
音声データ送信部114は、マイク113で検出されたユーザAの音声の音声データを送信する。例えば、音声データ送信部114は、マイク113が検出した音声に対して符号化や圧縮等の処理を行うことで、音声データを生成する。音声データ送信部114は、マイク113が収音した音声の音声データを送信する。
具体的には、音声データ送信部114で生成された音声データは、オンライン接続部120を介して、ネットワーク500に送信される。オンライン接続部120は、ネットワーク500と接続するためのネットワークインターフェースを有している。オンライン接続部120は、ネットワークプロトコルに従って、音声データをパケットデータとして、送受信する。例えば、ネットワーク500がインターネットである場合、オンライン接続部120は、音声データをIP(Internet Protocol)パケットにして送信する。
同様に、オンライン接続部120は、ネットワークプロトコルに従って、音声データを含むパケットデータを受信する。オンライン接続部120とオンライン接続部220とは、音声データを含むパケットデータを送受信する。音声チャット端末100は、音声チャット端末200から送信された通話相手Bの音声データを受信することができる。もちろん、音声チャット端末100と音声チャット端末200との間の通信方式は特に限定されるものではない。
音声データ受信部116は、オンライン接続部120を介して、音声チャット端末200からの音声データを受信する。音声データ受信部116は、音声データに対して復号化等の処理を施す。そして、音声データ受信部116は、復元したアナログの音声データをスピーカ111に出力する。
スピーカ111は、音声データに基づいて、ユーザAに対して音声を出力する。スピーカ111は、音声チャット端末100に内蔵されたスピーカを有している。あるいは。スピーカ111は、音声チャット端末100とは別個に設けられたヘッドフォンやイヤフォンなどであってもよい。
このように、音声チャット端末100と音声チャット端末200とは、ネットワーク500を介して、音声データを送受信する。ユーザAと通話相手Bとが音声チャット(通話)することができる。つまり、ユーザAが発話すると、マイク113がユーザAの音声を収音する。そして、音声チャット端末200のスピーカ211がユーザAの音声を通話相手Bに対して出力する。通話相手Bが発話すると、マイク213が通話相手Bの音声を収音する。音声チャット端末100のマイク113が通話相手Bの音声をユーザAに対して出力する。したがって、遠隔地にいるユーザAと通話相手Bとが音声通信によって会話することができる。
ここで、発話者Cは、ユーザAの近くにいる人であって、リモート会議への参加を予定していない非参加者である。発話者Cが通話相手Bに知られたくない情報(以下、機密情報とする)を発話した場合において、音声チャット端末100が機密情報を含む音声をミュートすることができる。以下、音声チャット端末100と音声チャット端末200での音声ミュート制御について説明する。
音声ミュート部112は、音声データ送信部114から送信される音声データをミュートにする機能を有している。なお、図1では、音声ミュート部112、212が音声チャット端末100及び音声チャット端末200の両方に設けられているが、一方のみ設けられていてもよい。つまり、音声ミュート部212は省略可能である。
音声ミュート部112は、マイク113がユーザA以外の発話者Cの音声を検出した場合に、送信される音声データの音声をミュートする。例えば、マイク113に対する音声の到来方向に応じて、音声ミュート部112は、ユーザAと発話者Cとの音声を判別することができる。マイク113を基準とした音声の発生源の方向が音声の到来方向となる。マイク113は、ステレオマイクなどであり、複数のマイク素子を有している。そして、各マイク素子への到達時間差に応じて、音声の到来方向を求めることができる。あるいは、マイク113は、複数の指向性マイクを有していてもよい。例えば、複数の指向性マイクを360°等間隔に放射状に配置する。そして、複数の指向性マイクの音量差や到達時間差に基づいて、音の発生源の方向を特定することができる。
ユーザAと異なる方向から音声が到来した場合に、音声ミュート部112は、ユーザA以外の発話者Cの音声であることを検知する。音声ミュート部112は、ユーザA以外の発話者Cの音声を検出した場合に、音声データ送信部114をオフにする。よって、発話者Cの発話中は、音声チャット端末200のスピーカ211が無音になる。
例えば、ユーザAは、マイク113(音声チャット端末100)の正面にいる場合、ユーザAの音声がマイク113の正面からマイク113に到来する。一方、発話者CがユーザAの左方向からユーザAに向かって発話する場合、発話者Cの音声は、左方向からマイク113に到来する。ユーザAと発話者Cの位置関係によって、音声の発生源の方向が異なる。音声の到来方向に応じて、マイク113により収音された音声がユーザAの音声であるか否かを判別することができる。
マイク113によって発話者Cの音声が検出された場合、音声ミュート部112が速やかに音声をミュートにする。例えば、ユーザAと発話者Cとが同じ会社の従業員であり、通話相手Bが他社の従業員であるとする。発話者Cの発話には、通話相手Bに対して秘匿したい機密情報が含まれているとする。発話者Cは、ユーザAが他社の通話相手Bとリモート会議を行っていることを知らずに、発話者CがユーザAに機密情報を話してしまうことがある。このような場合であって、音声ミュート部112が音声データをミュートすることで、通話相手Bが機密情報を聞くことを防ぐことができる。
また、発話者Cの発話が終了して、ユーザAが発話した場合、音声ミュート部112がミュート機能をオフする。これにより、ユーザAの音声の音声データが音声チャット端末200に送信される。よって、通話相手Bが、ユーザAの音声のみをスピーカ211から聞くことができる。
例えば、ユーザAがマウスなどを手動で操作することで、音声ミュートにする場合、ユーザAが手動で操作することを忘れてしまうことがある。発話者Cがとっさに発話した場合、ユーザAの操作が間に合わないことがある。したがって、通話相手Bに機密情報が漏洩してしまうおそれがある。手動操作によりミュートする場合、セキュリティリスクが高くなってしまう。特に、リモート会議に参加していない発話者Cは、ユーザAがリモート会議中であることを知らずに、突然ユーザAに話しかけることがある。本実施の形態では、ユーザAの操作無しでミュートすることができるため、情報漏洩のリスクを低減することができる。
なお、上記の説明では音声の到来方向に応じて、ユーザAの音声か否かを判別したが、判別方法はこれに限られるものではない。例えば、音声解析等により、話者を特定しても良い。例えば、声紋などによって、音声がユーザAによる発話か、発話者Cによる発話かを識別することができる。また、話者識別のために音声チャットの開始時にユーザAの音声パターンを登録しても良い。
音声チャット端末100側に複数の人がリモート会議に参加している場合であっても、音声ミュート部112のミュート機能は適用可能である。例えば、1拠点に複数の会議参加者がいる場合、音声ミュート部112が複数の会議参加者とそれら以外の非参加者とを識別しても良い。例えば、リモート会議の冒頭において、ユーザAを含めた複数の会議参加者を予め登録しておけば良い。このようにすることで、複数の会議参加者と、非参加者とを識別することが可能となる。
さらに、本実施の形態では、音声比較部115が、マイク113で検出された音声と、音声チャット端末200から送信された音声データの音声とを比較している。そして、音声比較部115は、音声の比較結果に応じて、音声ミュート部112を制御している。
例えば、発話者CがユーザAと通話相手Bとの会話に参加している場合、発話者Cの音声をミュートしないように、音声比較部115が音声ミュート部112を制御する。一方、発話者CがユーザAと通話相手Bとの会話と関係ない話題を発話した場合は、発話者Cの音声をミュートするように、音声比較部115が音声ミュート部112を制御する。
ここでは、音声比較部115が、発話タイミングに基づいて、音声ミュート部112を制御している。音声比較部115は、発話者Cの発話タイミングと、ユーザAや通話相手Bの発話タイミングとを比較する。そして、発話者Cの発話タイミングがユーザAと通話相手Bとの会話に対して、適切である場合、音声比較部115は、発話者CがユーザAと通話相手Bとの会話に参加していると判定する。この場合、音声ミュート部112が発話者Cの音声をミュートにしない。一方、発話者Cの発話タイミングがユーザAと通話相手Bとの会話に対して、適切でない場合、音声比較部115は、発話者CがユーザAと通話相手Bとの会話に参加していないと判定する。この場合、音声ミュート部112が発話者Cの音声をミュートにする。
あるいは、音声比較部115が、発話内容を解析することで、発話者CがユーザAと通話相手Bとの会話に参加したか否かを判別しても良い。例えば、発話者Cの音声が、ユーザAと通話相手Bとの会話に頻出する単語を含む場合、発話者CがユーザAと通話相手Bとの会話に参加したと判定することが可能となる。音声認識機能により、単語の出現頻度等を求めることで、音声比較部115が音声比較を適切に行うことができる。
このように、音声比較部115が、発話タイミング、又は発話内容に基づいて、ユーザAと通話相手Bとの会話に発話者Cが参加したかを判定する。音声比較部115は、その判定結果に基づいて、音声ミュート部112を制御する。また、音声比較部115及び音声ミュート部112が、音声の到来方向と、発話内容とを組み合わせて、話者識別を行うようにして良い。このようにすることで、音声チャット中にユーザAが移動した場合であっても、適切に音声ミュートを制御することが可能となる。音声比較部115及び音声ミュート部112において、ユーザAと発話者Cの会話をより高精度に判別することが可能となる。
このように、音声比較部115は、音声の比較結果に応じて、音声ミュート部112のミュート機能のオンオフを制御している。このようにすることで、より適切に音声をミュートすることが可能になる。ユーザAがいる拠点において、発話者Cが機密情報を発話した場合であっても、機密情報を含む音声が音声チャット端末200に送信されることを防ぐことができる。したがって、機密情報が通話相手Bに漏洩することを防ぐことができる。また、発話者CがユーザAと通話相手Bとの会話に急遽参加した場合、発話者Cの音声データが音声チャット端末200に送信される。よって、通話相手Bが発話者Cの音声を聞くことができるため、リモート会議をより円滑に行うことができる。
なお、音声チャット端末100と音声チャット端末200は同じ構成を有しているが、音声チャット端末100と音声チャット端末200とは同種のデバイスとなっていなくてもよい。例えば、音声チャット端末100がパーソナルコンピュータで音声チャット端末200がスマートフォンであってもよい。
図1では、2拠点の音声チャット端末100,200で音声チャットを行う例が示されているが、3拠点以上の音声チャット端末間で音声チャットを行うことも可能である。3拠点以上で音声チャットを行う場合、音声ミュートをする端末を選択しても良い。例えば、音声チャット端末100との接続された複数の通信先端末のうち、1つ以上の通信先端末に対して音声をミュートとして、残りの通信先端末では音声をミュートとしないようにしてもよい。
なお、音声チャット端末100は物理的に単一な装置に限られるものではない。例えば、マイクやスピーカ等は、通信端末と別個の装置として、音声入出力端子、USB(Universal Serial Bus)、Bluetooth(登録商標)等の外部接続インターフェースなどで通信端末に接続されていてもよい。
また、スピーカ111は、マイク113で検出した音声を出力してもよい。この場合、ユーザAは、発話者Cの発話内容を直接聞くととともに、スピーカ111からも聞くことになる。したがって、ユーザAは、発話者Cの発話を二重で聞くことになる。また、この場合、音声比較機能で話者を識別するために、マイク113で収音した音声に可聴範囲外のマーク音声を付与してもよい。この場合、マイク113で収音したオフラインの音声は、可聴範囲外のマーク音声有りとなり、マイク213で収音したオンラインの音声は、可聴範囲外のマーク音声無しとなる。このようにすることで、音声比較部115の音声比較機能において、発話者Cの会話をより高精度に判別することが可能となる。
本実施の形態にかかる音声チャット端末100の制御方法について、図2を用いて説明する。図2は、音声チャット端末100の制御方法を示すフローチャートである。
まず、マイク113が音声を検出する(S101)。音声ミュート部112は、マイク113で検出された音声が、ユーザAの音声か否かを判定する(S102)。上記のように、音声ミュート部112は、マイク113の収音方向等によって、ユーザAの音声か、発話者Cの音声かを判別することができる。
ユーザAの音声である場合(S102のYES)、音声データ送信部114が音声データを送信する(S104)。つまり、ユーザAの音声の音声データが、ネットワーク500を介して、音声チャット端末200に送信される。よって、通話相手BがユーザAの音声を聞くことができる。
ユーザAの音声でない場合(S102のNO)、音声比較部115が音声を比較することで、音声の発話者Cが会話に参加しているか否かを判定する(S103)。例えば、音声比較部115が、発話タイミング、又は発話内容に基づいて、ユーザAと通話相手Bとの会話に発話者Cが参加したか否かを判定する。音声の発話者Cが会話に参加した場合、(S103のYES)、音声データ送信部114が音声データを送信する(S104)。
音声の発話者Cが会話に参加していない場合(S103のNO),音声ミュート部112が音声をミュートにする(S105)。例えば、音声データ送信部114が音声データを送信しない。あるいは、音声データ送信部114が無音の音声データを送信する。音声データ送信部114が雑音の音声データを送信してもよい。したがって、通話相手Bが発話者Cの音声を聞くことができない。
ステップS104,又はステップS105の後、音声チャット端末100は、音声チャットが終了したか否かを判定する(S106)。音声チャットが終了した場合(S106のYES)、処理を終了する。例えば、音声チャット端末100又は音声チャット端末200の会議終了ボタンや退出ボタンがクリックされた場合、音声チャットが終了する。音声チャットが終了していない場合(S106のNO)、ステップS101に戻り、処理を繰り返す。
このようにすることで、音声を適切にミュートすることができるため、通話相手Bに機密情報に漏洩することを防ぐことができる。もちろん、音声チャット端末100の制御方法は、上記の処理に限られるものではない。例えば、ステップS103の判定処理を省略することができる。
変形例1
変形例1では、ユーザAが、音声チャット端末と、ヘッドマウンドディスプレイとを組み合わせて使用している。変形例1のシステム構成について、図3を用いて説明する。図3は、ユーザAがヘッドマウントディスプレイ300を装着した状態を示す図である。なお、音声チャット端末100は、図1と同様であるため、説明を省略する。ここでは、音声チャット端末100がパーソナルコンピュータとなっている。
ヘッドマウントディスプレイ300は、虚像として前方に表示される表示画像を生成する。ヘッドマウントディスプレイ300は、シースルータイプである。ユーザAは、ヘッドマウントディスプレイ300を装着した状態で、正面前方にある音声チャット端末100を視認することができる。つまり、ヘッドマウントディスプレイ300の表示画像とともに、音声チャット端末100のモニタなどを視認することができる。
変形例1では、ヘッドマウントディスプレイ300に搭載されたセンサ301の出力が、音声ミュート機能を制御するためのトリガとなっている。例えば、センサ301は、ユーザAの頭部の動きを検出するモーションセンサである。モーションセンサとしては、加速度センサ、磁気センサ、ジャイロスコープなどを用いることができる。センサ301の出力に基づいて、ユーザAの頭部の向きが検出される。
音声チャット端末100は、頭部の向きに応じて、音声ミュートを制御している。ユーザAが音声チャット端末100の方向を向いている場合(図3の上側)、音声ミュート部112が音声ミュートをオフにする。ユーザAが音声チャット端末100の方向を向いていない場合(図3の下側)、音声ミュート部112が音声ミュートをオンにする。
ユーザAが音声チャット端末100の方向を向いて音声チャットしているとする(図3の上側)。このとき、音声ミュート部112が音声ミュートをオフにしているため、通話相手B(図3では不図示)が音声を聞くことができる。
発話者Cが左方向からユーザAに話しかけると、ユーザAが発話者Cを向く(図3の下側)。例えば、ユーザAが発話者Cの方向、つまり左方向を向いて、ユーザAが発話者Cと会話する。ここで、センサ301がユーザAの頭部の動きを検出している。したがって、センサ301の出力から、ユーザAが音声チャット端末100の方向を向いていないことを検知することができる。
ユーザAが音声チャット端末100の方向を向いていないことを検知すると、音声ミュート部112が音声ミュートをオンにする。ユーザAと発話者Cとの会話が終了して、ユーザAが音声チャットに戻る。このとき、ユーザAが音声チャット端末100の方向、つまり正面前方を向く。センサ301が、頭部の動きに応じて、ユーザAが正面方向に向けたことを検知する。従って、音声ミュート機能をオフにする。
このようにセンサ301の出力に応じて、ユーザAと発話者Cとの会話をミュートすることができる。つまり、通話相手Bとの音声チャットを中断している間は音声がミュートとなる。そして、ユーザAと発話者Cとの会話が終了して、ユーザAが通話相手Bとの音声チャットを再開すると、音声ミュートがオフとなる。これにより、自動で音声ミュートを切替えることができるため、利便性を向上することができる。
また、スピーカ111又はマイク113については、ヘッドマウントディスプレイ300に搭載されたものを用いることができる。例えば、マイク113として、ヘッドマウントディスプレイ300に360°等間隔に配置した3次元マイクを有していてもよい。ヘッドマウントディスプレイ300の3次元マイクを用いて、音声の拾い方の時差で音声の発生源を認識することができる。ユーザAの頭部の向きが変わっても、音声の到来方向を適切に検知することが可能となる。
なお、変形例1では、音声チャット端末100をヘッドマウントディスプレイ300と組み合わせているが、ヘッドマウントディスプレイ300の代わりに、ヘッドセット、ヘッドフォン、イヤフォンとの組み合わせて良い。頭部の動きを検出するモーションセンサは、ヘッドセット等と別体のものであってもよい。
以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は上記実施の形態に限られたものではなく、その要旨を逸脱しない範囲で種々変更可能であることは言うまでもない。上記の実施の形態の2つ以上を適宜組み合わせることも可能である。
1 音声会議システム
100 音声チャット端末
111 スピーカ
112 音声ミュート部
113 マイク
114 音声データ送信部
115 音声比較部
116 音声データ受信部
120 オンライン接続部
200 音声チャット端末
211 スピーカ
212 音声ミュート部
213 マイク
214 音声データ送信部
215 音声比較部
216 音声データ受信部
220 オンライン接続部
300 ヘッドマウントディスプレイ
301 センサ
500 ネットワーク
A ユーザ
B 通話相手
C 発話者

Claims (5)

  1. ユーザの音声を検出するマイクと、
    前記マイクで検出された前記ユーザの音声の音声データを、ネットワークを介してチャット相手の端末に送信する音声データ送信部と、
    前記マイクが前記ユーザ以外の発話者の音声を検出した場合に、前記チャット相手の端末に送信される前記音声データの音声をミュートする音声ミュート部と、を備えた音声チャット端末。
  2. 前記マイクに対する音声の到来方向に応じて、前記ユーザと、前記発話者との音声を判別している請求項1に記載の音声チャット端末。
  3. 前記マイクで検出した音声と、前記チャット相手の端末から受信した音声データの音声とを比較する音声比較部をさらに備え、
    前記音声比較部での比較結果に応じて、前記音声ミュート部がミュートを制御している請求項1、又は2に記載の音声チャット端末。
  4. 前記音声比較部が、
    発話タイミング、又は発話内容に基づいて、前記ユーザと前記チャット相手との会話に前記発話者が参加したかを判定し、
    判定結果に基づいて、前記音声ミュート部を制御している請求項3に記載の音声チャット端末。
  5. マイクを用いてユーザの音声を検出するステップと、
    前記マイクで検出された前記ユーザの音声の音声データを、ネットワークを介してチャット相手の端末に送信するステップと、
    前記マイクが前記ユーザ以外の発話者の音声を検出した場合に、前記チャット相手の端末に送信される前記音声データの音声をミュートするステップと、を備えた音声チャット端末の制御方法。
JP2020205655A 2020-12-11 2020-12-11 音声チャット端末、及びその制御方法 Pending JP2022092765A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020205655A JP2022092765A (ja) 2020-12-11 2020-12-11 音声チャット端末、及びその制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020205655A JP2022092765A (ja) 2020-12-11 2020-12-11 音声チャット端末、及びその制御方法

Publications (1)

Publication Number Publication Date
JP2022092765A true JP2022092765A (ja) 2022-06-23

Family

ID=82069504

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020205655A Pending JP2022092765A (ja) 2020-12-11 2020-12-11 音声チャット端末、及びその制御方法

Country Status (1)

Country Link
JP (1) JP2022092765A (ja)

Similar Documents

Publication Publication Date Title
US10499136B2 (en) Providing isolation from distractions
CN114080589B (zh) 自动主动降噪(anr)控制以改善用户交互
US9253303B2 (en) Signal processing apparatus and storage medium
US20050271194A1 (en) Conference phone and network client
US9516476B2 (en) Teleconferencing system, method of communication, computer program product and master communication device
JP5526134B2 (ja) 周辺電話技術システムにおける会話検出
JP5973289B2 (ja) 携帯端末、音声制御プログラムおよび音声制御方法
US20240171953A1 (en) Earphone communication method, earphone device and computer-readable storage medium
CN110996308B (zh) 声音播放设备及其控制方法、控制装置和可读存储介质
US20220230622A1 (en) Electronic collaboration and communication method and system to facilitate communication with hearing or speech impaired participants
JP2006254064A (ja) 遠隔会議システム、音像位置割当方法および音質設定方法
JP5120020B2 (ja) 画像付音声通信システム、画像付音声通信方法およびプログラム
WO2012066734A1 (ja) 音声コミュニケーション装置および音声コミュニケーション方法
JP2005192004A (ja) ヘッドセットおよびヘッドセットの音楽データの再生制御方法
JP2022092765A (ja) 音声チャット端末、及びその制御方法
EP3907978B1 (en) Computer-implemented method of controlling a plurality of communication devices and communication system
US11832063B2 (en) Speakerphone hearing device integration
US20220116706A1 (en) Audio feedback for user call status awareness
EP4075822A1 (en) Microphone mute notification with voice activity detection
JP2006186893A (ja) 音声対話制御装置
JP2022082570A (ja) 情報処理装置、プログラム、及び情報処理システム
JP2018182406A (ja) 情報処理装置、システム、および情報処理装置の制御方法