JP2022096336A - 映像通信装置、および映像表示方法 - Google Patents

映像通信装置、および映像表示方法 Download PDF

Info

Publication number
JP2022096336A
JP2022096336A JP2020209389A JP2020209389A JP2022096336A JP 2022096336 A JP2022096336 A JP 2022096336A JP 2020209389 A JP2020209389 A JP 2020209389A JP 2020209389 A JP2020209389 A JP 2020209389A JP 2022096336 A JP2022096336 A JP 2022096336A
Authority
JP
Japan
Prior art keywords
icon
unit
video
facial expression
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020209389A
Other languages
English (en)
Inventor
智紀 角
Tomonori Sumi
淳 森田
Atsushi Morita
沙也加 齋藤
Sayaka Saito
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2020209389A priority Critical patent/JP2022096336A/ja
Publication of JP2022096336A publication Critical patent/JP2022096336A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephone Function (AREA)
  • Image Analysis (AREA)

Abstract

【課題】カメラ映像を表示せずとも、円滑なコミュニケーションを行うこと。【解決手段】映像通信装置は、複数の他端末から、複数の他端末の各々のカメラが撮影した人物の動作または表情を示す情報を受信する通信部と、通信部が受信した情報を分析して、所定の動作または所定の表情を示す割合を取得する分析部と、分析部が取得した割合を反映したアイコンを生成するアイコン生成部と、アイコン生成部が生成したアイコンを表示部に表示させる表示制御部と、を備える。【選択図】図1

Description

本発明は、映像通信装置、および映像表示方法に関する。
ネットワークを介して、遠隔地の相手と会議等を行うことができるWEB会議装置が知られている(例えば、特許文献1)。
特開2018-93315号公報
WEB会議装置は、ユーザの顔の方向を撮影した映像を参加者が共有することができるが、必要に応じてカメラ機能をオフにして利用することがある。例えば、多人数でのWEB会議などでは、発話者以外のカメラ機能をオフにすることもある。このような場合、発話者は、他のユーザの表情などが確認できず、発話内容に対する反応が把握できないことから、コミュニケーションが円滑に行えない場合もある。
本発明は、カメラ映像を表示せずとも、円滑なコミュニケーションを行うことができる映像通信装置、および映像表示方法を提供することを目的とする。
本発明に係る映像通信装置は、複数の他端末から、前記複数の他端末の各々のカメラが撮影した人物の動作または表情を示す情報を受信する通信部と、前記通信部が受信した情報を分析して、所定の動作または所定の表情を示す割合を取得する分析部と、前記分析部が取得した割合を反映したアイコンを生成するアイコン生成部と、前記アイコン生成部が生成したアイコンを表示部に表示させる表示制御部と、を備える。
本発明に係る映像表示方法は、複数の他端末から、前記複数の他端末の各々のカメラが撮影した人物の動作または表情を示す情報を受信するステップと、受信した情報から、所定の動作または所定の表情を示す割合を取得するステップと、取得した割合を反映したアイコンを生成するステップと、生成されたアイコンを表示部に表示させるステップと、を、映像通信装置が実行する。
本発明によれば、カメラ映像を表示せずとも、円滑なコミュニケーションを行うことができる。
図1は、実施形態に係る映像通信装置の構成例を示すブロック図である。 図2は、実施形態に係る映像通信装置の処理の流れの一例を示すフローチャートである。 図3は、表示制御部が表示部に表示させる映像を説明するための図である。 図4は、個々の参加者の映像またはアイコンを順に表示する方法を説明するための図である。 図5は、所定の動作または表情を示す割合を反映したアイコンを表示する方法を説明するための図である。 図6は、ジェスチャーアイコンに頷き動作を反映させる方法を説明するための図である。 図7は、所定の動作または表情を示す割合を反映したアイコンを表示する方法を説明するための図である。 図8は、ジェスチャーアイコンに首を左右に振る動作を反映させる方法を説明するための図である。
以下に、本発明の実施形態を図面に基づいて詳細に説明する。なお、以下に説明する実施形態により本発明が限定されるものではない。
[実施形態]
図1を用いて、実施形態に係る映像通信装置について説明する。図1は、実施形態に係る映像通信装置の構成例を示すブロック図である。
図1に示すように、映像通信装置10は、カメラ12と、マイクロフォン14と、操作受付部16と、通信部18と、表示部20と、音声出力部22と、制御部(映像通信制御装置)24と、を備える。映像通信装置10は、例えば、PC(Personal Computer)、スマートフォン、タブレット端末など、映像を表示する表示画面と、表示画面の近傍に表示画面と同じ方向を向いたカメラが備えられている装置である。映像通信装置10は、例えば、WEB会議などに用いられることで、WEB会議の参加者間で映像と音声を用いたコミュニケーションを行うことのできる装置である。
カメラ12は、映像通信装置10の周辺を撮像する。カメラ12は、例えば、表示部20が向いている方向を撮像するように配置されている。カメラ12は、所定のフレームレートで、時系列で連続した映像、所謂動画像を撮像する。カメラ12は、撮像した映像を映像取得部30に出力する。カメラ12は、映像通信装置10に接続される外部カメラであってもよい。
マイクロフォン14は、映像通信装置10の周辺の音声を収音する。マイクロフォン14は、マイクロフォン14に向かって発話している人物の音声を収音する。マイクロフォン14は、収音した音声を音声取得部32に出力する。マイクロフォン14は、映像通信装置10に接続される外部のマイクロフォンであってもよい。
操作受付部16は、ユーザの操作によって映像通信装置10に対する各種操作を受け付ける。操作受付部16は、例えば、タッチパネル、スイッチ、ボタンなどを含み得る。操作受付部16は、ユーザなどから受け付けた操作に関する操作情報を操作制御部34に出力する。
通信部18は、有線または無線で図示しないインターネット網などの通信網を接続されている。通信部18は、通信網を介して、他の外部装置と情報の送受信を行う。通信部18は、例えば、他の映像通信装置と情報の送受信を行う。通信部18は、例えば、カメラ12が撮影した映像およびマイクロフォン14が収音した音声を、他の映像通信装置に送信する。通信部18は、例えば、他の映像通信装置のカメラが撮影した映像およびマイクロフォンが収音した音声を受信する。通信部18は、例えば、他の映像通信装置から、他の映像通信装置のカメラが撮影した映像を制限する情報を受信する。通信部18は、例えば、他の映像通信装置により撮影された映像から撮影された人物の動作または表情を分析した分析結果を受信する。以下の説明において、通信部18が、他の映像通信装置に映像等を送信すると記載された場合は、通信部18が、他の映像通信装置が接続され、通信部18が送信した映像等を他の映像通信装置が参照することができる外部のサーバなどに映像等を送信することも含む。また、通信部18が、他の映像通信装置から映像等を受信すると記載された場合は、通信部18が、他の映像通信装置が接続され、他の映像通信装置が送信した映像等を参照することができる外部のサーバなどから映像等を受信することも含む。
表示部20は、各種情報を表示する。表示部20は、例えば、カメラ12がユーザを撮影した映像や、WEB会議に参加している他の映像通信装置が撮影した他のユーザの映像などを表示する。表示部20は、例えば、映像通信装置10の利用者を示す所定のアイコンや、WEB会議に参加している他の映像通信装置のユーザを示すアイコンを表示する。表示部20は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)または有機EL(Electro-Luminescence)ディスプレイなどを含むディスプレイである。
音声出力部22は、スピーカやヘッドフォン等であり、映像通信装置10に備えられているものや、映像通信装置10に接続される外部のスピーカやヘッドフォン等である。音声出力部22は、各種音声を出力する。音声出力部22は、例えば、WEB会議に参加している他の映像通信装置から送信された他のユーザが発話した音声などを出力する。
制御部24は、映像通信装置10の各部の動作を制御する、所謂、映像通信制御装置である。制御部24は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、図示しない記憶部に記憶されたプログラムがRAM等を作業領域として実行されることにより、各種機能が実現される。このため、制御部24は、実施形態に係る映像表示方法を実行させる。また、制御部24は、本発明に係るプログラムを動作させるコンピュータである。制御部24は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。制御部24は、ハードウェアと、ソフトウェアとの組み合わせで実現されてもよい。
制御部24は、映像取得部30と、音声取得部32と、操作制御部34と、通信制御部36と、表示制御部38と、音声出力制御部40と、分析部42と、アイコン生成部44と、を備える。言い換えると、制御部24は、映像取得部30と、音声取得部32と、操作制御部34と、通信制御部36と、表示制御部38と、音声出力制御部40と、分析部42と、アイコン生成部44としての機能を実現する。
映像取得部30は、カメラ12が出力した映像を取得する。映像取得部30は、例えば、カメラ12が撮影した、映像通信装置10のユーザの顔を含む範囲を撮影した映像を取得する。
音声取得部32は、マイクロフォン14が出力した音声を取得する。音声取得部32は、例えば、マイクロフォン14が取得した、映像通信装置10のユーザの発話した音声を取得する。
操作制御部34は、操作受付部16が受け付けた操作に関する操作情報を取得する。
通信制御部36は、通信部18を制御する。通信制御部36は、通信部18を制御して、他の外部装置と各種の情報の送受信を行う。通信制御部36は、例えば、通信部18を制御して、他の映像通信装置との間で映像および音声の送受信を行う。
表示制御部38は、表示部20に各種映像を表示させる。表示制御部38は、例えば、映像通信装置10のユーザおよびWEB会議に参加している他の映像通信装置のユーザの映像を表示させる。表示制御部38は、例えば、通信部18が映像表示を制限する情報を受信した場合には、他のユーザの映像に代えて、アイコン生成部44が生成したアイコンを表示部20に表示させる。
音声出力制御部40は、音声出力部22に各種音声を出力させる。音声出力制御部40は、例えば、音声出力部22からWEB会議に参加している他のユーザの音声を出力させる。
分析部42は、通信部18が受信した他の映像通信装置のカメラが撮影した映像を分析する。分析部42は、通信部18が受信した他の映像通信装置のマイクロフォンが収音した音声を分析する。分析部42は、例えば、他の映像通信装置のカメラが撮影した映像から人物を認識する。分析部42は、例えば、他の映像通信装置のカメラが撮影した映像から人物が認識できた場合に、認識した動作および表情の少なくとも1つを分析する。分析部42は、通信部18が受信した情報を分析して、所定の動作または所定の表情を示す人数の割合を取得する。所定の動作は、例えば、発話者の発言に対するポジティブな動作や、ネガティブな動作が含まれるがこれに限定されない。分析部42は、例えば、通信部18が受信した他の映像通信装置のカメラが撮影した映像の分析結果から所定の動作または所定の表情を示す割合を取得してもよい。
アイコン生成部44は、各種のアイコンを生成する。アイコン生成部44は、例えば、分析部42の分析結果に応じたアイコンを生成する。アイコン生成部44は、例えば、分析部42が取得した割合を反映したアイコンを生成する。アイコン生成部44は、例えば、分析部42が所定の動作または所定の表情を示す割合が所定閾値以上の割合と判断した動作または表情を反映したアイコンを生成する。また、アイコン生成部44は、予め記憶されているアイコンを表示させてもよい。この場合は、アイコン生成部44は、アイコンデータを取得する機能を実行する。
[映像通信装置の処理]
図2を用いて、実施形態に係る映像通信装置の処理について説明する。図2は、実施形態に係る映像通信装置の処理の流れの一例を示すフローチャートである。
図2の処理は、例えばWEB会議が開始されることによって開始される。図2の処理が開始され、WEB会議の他の参加者との通信部18による通信が開始されることで、制御部24は、他の映像通信装置から、撮像した映像または各参加者の映像通信装置が撮影した映像を分析した結果である、動作または表情を示す情報を取得する(ステップS10)。具体的には、本実施形態では、通信制御部36は、他の参加者の映像通信装置に設定されているモードに応じた情報を取得する。本実施形態では、他の映像通信装置には、「映像オンモード」、「映像制限モード」、および「映像オフモード」のいずれかが設定される。
通信制御部36は、例えば、他の映像通信装置で「映像オンモード」が設定されている場合は、他の映像通信装置が撮影した映像が送信されるので、その映像を取得する。通信制御部36は、例えば、他の映像通信装置で「映像制限モード」が設定されている場合は、他の映像通信装置が撮影した映像の分析結果である、他の参加者の動作または表情を示す情報を取得する。通信制御部36は、例えば、他の映像通信装置で「映像オフモード」が設定されている場合は、他の参加者の属性情報を取得する。属性情報には、氏名、参加名などの各種の情報を含み得る。
制御部24は、WEB会議の参加者は所定人数以上であるか否かを判定する(ステップS12)。具体的には、通信制御部36は、ステップS12の判定時点のWEB会議に参加人数に基づき判断するが、WEB会議の主催者が参加要請した人数で判断してもよい。所定人数は、例えば、10人であるが、これに限定されない。所定人数は、WEB会議の参加者が、表示部20にWEB会議の他の参加者の映像や音声で、全体的な状態を把握できる上限の人数が設定されればよい。WEB会議の参加者が所定人数以上であると判定された場合(ステップS12;Yes)、ステップS14に進む。WEB会議の参加者が所定以上であると判定されない場合(ステップS12;No)、ステップS16に進む。
ステップS12でYesと判定された場合、制御部24は、他の参加者の動作または表情の分析を開始する(ステップS14)。具体的には、分析部42は、他の映像通信装置で、「映像オンモード」または「映像制限モード」が設定されている映像通信装置に対して、同時に所定の動作や表情となった割合を分析する。例えば、WEB会議の参加者が30名であり、発話者が1名である場合、発話者は自動的に「映像オンモード」となってよい。例えば、WEB会議を利用した講演会などは、発話者の映像を他の参加者の映像通信装置で表示される必要があるためである。なお、以下においては、他の29名中、「映像オンモード」が15名、「映像制限モード」が10名、「映像オフモード」が4名と仮定する。そして、ステップS18に進む。
ステップS12でNoと判定された場合、制御部24は、個々の参加者の映像またはアイコンを表示する(ステップS16)。具体的には、表示制御部38は、ステップS10で取得した映像を、表示部20に表示させる。図3は、表示制御部38が表示部20に表示させる映像を説明するための図である。図3に示す、表示画面20aは、例えば、映像通信装置10のユーザU1を含む4人でWEB会議を行っている場合に表示される画面の一例である。映像通信装置10のユーザ以外の他の3人のユーザの映像通信装置にも表示画面20aと同様の映像が表示される。図3に示す、表示画面20aは、WEB会議の全参加者に共通である。
表示画面20aは、第一表示領域50と、第二表示領域52と、第三表示領域54と、第四表示領域56と、を含む。第一表示領域50は、例えば、4人のユーザのうちの、発話者である第一ユーザであるユーザU1に関する情報を表示する。第二表示領域52は、例えば、4人のユーザのうちの、第二ユーザに関する情報を表示する。第三表示領域54は、例えば、4人のユーザのうちの、第三ユーザに関する情報を表示する。第四表示領域56は、例えば、4人のユーザのうちの、第四ユーザに関する情報を表示する。
第一表示領域50には、ユーザU1の映像と、アイコンI1とが、表示される。ユーザU1は、例えば、第一表示領域50の中央部に表示される。アイコンI1は、第一表示領域50の右上隅に表示される。アイコンI1は、ユーザU1の情報を示すアイコンである。アイコンI1は、例えば、「YS」などのようにユーザU1の名前のイニシャルが表示され得る。
第二表示領域52には、中央部にアイコンI2が表示されている。アイコンI2は、第二ユーザの情報を示すアイコンである。アイコンI2は、例えば、「RS」などのように第二ユーザの名前のイニシャルが表示され得る。
第三表示領域54には、中央部にアイコンI3が表示されている。アイコンI3は、第三ユーザの情報を示すアイコンである。アイコンI3は、例えば、「KT」などのように第三ユーザの名前のイニシャルが表示され得る。
第四表示領域56には、中央部にアイコンI4が表示されている。アイコンI4は、第四ユーザの情報を示すアイコンである。アイコンI4は、例えば、「CJ」などのように第四ユーザの名前のイニシャルが表示され得る。
すなわち、表示画面20aにおいて、発話者である第一ユーザは、「映像オンモード」を選択し、第二ユーザから第四ユーザは「映像制限モード」または「映像オフモード」を選択している。ステップS12でNoと判定された場合には、「映像制限モード」の選択がなくともよい。
ステップS14の後、制御部24は、他の参加者の所定の動作または表情が所定割合以上であるか否かを判定する(ステップS18)。具体的には、分析部42は、ステップS14の分析結果に基づいて、他の参加者の所定の動作または表情が所定割合以上であるか否かを判定する。所定割合とは、例えば、全参加者の10%以上、「映像オンモード」または「映像制限モード」に設定されている参加者が全参加者の20%以上など、発話者の発話内容に対する他の参加者の反応がある程度把握できるような割合であることが好ましい。所定の動作または表情が所定割合以上と判定されない場合(ステップS18;No)、ステップS20に進む。所定の動作または表情が所定割合以上であると判定された場合(ステップS18;Yes)、ステップS22に進む。
ステップS18でNoと判定された場合、制御部24は、個々の参加者の映像またはアイコンを順に表示する(ステップS20)。具体的には、表示制御部38は、表示部20に個々の参加者の映像またはアイコンを順に表示させる。図4は、個々の参加者の映像またはアイコンを順に表示する方法を説明するための図である。図4に示す、表示画面20bは、WEB会議の全参加者に共通の映像である。表示画面20bは、例えば、WEB会議の参加者が30名の場合を示す。図4に示すように、表示画面20bは、第一表示領域50Aと、第二表示領域52Aと、第三表示領域54Aと、第四表示領域56Aと、第五表示領域58Aと、を含む。
図4に示す例では、第一表示領域50Aには、発話者である第一ユーザであるユーザU1Aの映像と、第一ユーザを示すアイコンI1Aが表示される。アイコンI1Aは、例えば、第一ユーザの名前のイニシャルを示す。第四表示領域56Aには、第四ユーザであるユーザU2Aの映像と、第四ユーザを示すアイコンI4Aが表示される。アイコンI4Aは、例えば、第四ユーザの名前のイニシャルを示す。第一ユーザ、および第四ユーザは、「映像オンモード」に設定している。
第二表示領域52A、第三表示領域54A、および第五表示領域58Aは、それぞれ、第二ユーザを示すアイコンI2A、第三ユーザを示すアイコンI3A、第五ユーザを示すアイコンI5Aが表示される。例えば、アイコンI2A、アイコンI3A、およびアイコンI5Aは、それぞれ、第二ユーザ、第三ユーザ、および第五ユーザの名前のイニシャルを示す。第二ユーザ、第三ユーザ、および第五ユーザは、それぞれ、「映像制限モード」または「映像オフモード」に設定している。
図4に示す例において、表示制御部38は、第一ユーザから第五ユーザ以外の25名の参加者の映像またはアイコンを、所定の順番、またはランダムに発話者である第一ユーザが表示される第一表示領域50A以外の領域に表示させる。表示制御部38は、例えば、発話者以外の参加者の映像またはアイコンを表示させる領域の大きさを、参加者の人数に応じて適宜変更してもよい。ステップS20の後、ステップS24に進む。
ステップS18でYesと判定された場合、制御部24は、所定の動作または表情を示す割合を反映したアイコンを表示する(ステップS22)。具体的には、表示制御部38は、WEB会議の参加者の動作または表情を示す割合を反映したアイコンを表示させる。図5は、所定の動作または表情を示す割合を反映したアイコンを表示する方法を説明するための図である。図5に示す、表示画面20cは、WEB会議の全参加者に共通の映像である。具体的には、図5に示す、表示画面20cは、発話者の発言に対して、ポジティブな動作または割合を表示する方法の一例を示す。表示画面20cは、例えば、WEB会議の参加者が30名の場合を示す。図5に示すように、表示画面20cは、第一表示領域50Bと、第二表示領域52Bと、第三表示領域54Bと、第四表示領域56Bと、第一動作情報表示領域60と、を含む。
図5に示す例では、第一表示領域50Bには、発話者である第一ユーザであるユーザU1Bの映像と、第一ユーザを示すアイコンI1Bが表示される。アイコンI1Bは、例えば、第一ユーザの名前のイニシャルを示す。第三表示領域54Bには、第三ユーザであるユーザU2Bの映像と、第三ユーザを示すアイコンI3Bが表示される。アイコンI3Bは、例えば、第三ユーザの名前のイニシャルを示す。第一ユーザ、および第三ユーザは、「映像オンモード」に設定している。
第二表示領域52B、および第四表示領域56Bは、それぞれ、第二ユーザを示すアイコンI2B、および第四ユーザを示すアイコンI4Bが表示される。例えば、アイコンI2B、およびアイコンI4Bは、それぞれ、第二ユーザ、および第四ユーザの名前のイニシャルを示す。第二ユーザ、および第四ユーザは、それぞれ、「映像制限モード」または「映像オフモード」に設定している。
第一動作情報表示領域60は、WEB会議に参加している全参加者の動作または表情の割合に関する情報が表示される領域である。具体的には、第一動作情報表示領域60は、発話者に対するポジティブな動作または表情の割合に関する情報が表示される領域である。第一動作情報表示領域60は、ジェスチャーアイコンGI1と、文字アイコンLI1とを含む。
ジェスチャーアイコンGI1は、WEB会議に参加している、参加者の動作または表情を示すアイコンである。具体的には、ジェスチャーアイコンGI1は、発話者の発言に対する、発言者のポジティブな動作または表情を示すアイコンである。図5に示す例では、ジェスチャーアイコンGI1は、頷くように傾けた頷き動作のアイコンである。すなわち、ジェスチャーアイコンGI1は、発話者の発言に同意している動作を示す。このようなジェスチャーアイコンGI1は、アイコン生成部44により生成される。すなわち、アイコン生成部44は、分析部42が他の参加者の所定の動作または表情が所定割合以上と判定された動作または表情のアイコンを生成する。
文字アイコンLI1は、WEB会議に参加している全参加者のうち、ジェスチャーアイコンGI1に示す動作を行っている参加者の人数を示す。図5に示す例では、文字アイコンLI1は、「12 People」を示す。すなわち、図5に示す例では、文字アイコンLI1は、「映像オンモード」および「映像制御モード」の他の参加者25名中、12名が頷き動作を行っていることを示す。
図5に示す例では、アイコンI2Bは、正面を向いている。これは、第二ユーザは、発話者の発言に対して、ポジティブな動作または表情を取ってないことを示している。また、図5に示す例では、アイコンI4Bは、頷くように傾いている。これは、第四ユーザは、発話者の発言に対して、ポジティブな動作または表情をとっていることを示す。
図6を用いて、ジェスチャーアイコンに頷き動作を反映させる方法について説明する。図6は、ジェスチャーアイコンに頷き動作を反映させる方法を説明するための図である。
図6に示すように、まず、表示制御部38は、例えば、頷くように傾けたジェスチャーアイコンGI1を第一動作情報表示領域60に表示させる(ステップS1)。次いで、表示制御部38は、例えば、正面を向いているジェスチャーアイコンGI1を第一動作情報表示領域60に表示させる(ステップS2)。表示制御部38は、例えば、ステップS1の状態と、ステップS2の状態とを1秒ごとに切り替えて表示させることで、ジェスチャーアイコンGI1に頷き動作を与えて、WEB会議の他の参加者の頷き動作を反映させる。なお、表示制御部38は、図5に示すアイコンI4Bについても、図6に示した方法で、頷き動作を反映させることができる。
また、図5に示す表示画面20cにおいては、12名全員が頷き動作を行っている場合に限らず、頷き動作と笑顔の表情など、ポジティブな感情を示す人数が12名であることを示してもよい。
図7は、図5とは異なる所定の動作または表情を示す割合を反映したアイコンを表示する方法を説明するための図である。図7に示す、表示画面20dは、WEB会議の全参加者に共通の映像である。具体的には、図7に示す、表示画面20dは、発話者の発言に対して、ポジティブな動作または割合と、ネガティブな動作または割合とを表示する方法の一例を示す。図7に示す例において、ポジティブな動作または割合を表示する方法については、図5に示す方法と同一なので、説明を省略する。
図7に示すように、表示画面20dは、第一表示領域50Bと、第二表示領域52Bと、第三表示領域54Bと、第四表示領域56Bと、第一動作情報表示領域60と、第二動作情報表示領域62と、を含む。表示画面20dは、第二動作情報表示領域62を含む点で、図5に示す表示画面20cと異なる。
第二動作情報表示領域62は、WEB会議に参加している全参加者の動作または表情の割合に関する情報が表示される領域である。具体的には、第二動作情報表示領域62は、発話者に対するネガティブな動作または表情の割合に関する情報が表示される領域である。第二動作情報表示領域62は、ジェスチャーアイコンGI2と、文字アイコンLI2とを含む。
ジェスチャーアイコンGI2は、WEB会議に参加している、参加者の動作または表情を示すアイコンである。具体的には、ジェスチャーアイコンGI2は、発話者の発言に対する、発言者のネガティブな動作または表情を示すアイコンである。図7に示す例では、ジェスチャーアイコンGI2は、首を横に振る動作のアイコンである。すなわち、ジェスチャーアイコンGI2は、発話者の発言に同意しない動作を示す。このようなジェスチャーアイコンGI2は、アイコン生成部44により生成される。
文字アイコンLI2は、WEB会議に参加している全参加者のうち、ジェスチャーアイコンGI2に示す動作を行っている参加者の人数を示す。図7に示す例では、文字アイコンLI2は、「8 People」を示す。すなわち、図7に示す例では、文字アイコンLI2は、「映像オンモード」および「映像制御モード」の他の参加者25名中、8名が首を横に振る動作を行っていることを示す。
図8を用いて、ジェスチャーアイコンに首を左右に振る動作を反映させる方法について説明する。図8は、ジェスチャーアイコンに首を左右に振る動作を反映させる方法を説明するための図である。
図8に示すように、まず、表示制御部38は、例えば、顔を右に向けたジェスチャーアイコンGI2を第二動作情報表示領域62に表示させる(ステップS3)。次いで、表示制御部38は、例えば、顔を左に向けたジェスチャーアイコンGI2を第二動作情報表示領域62に表示させる(ステップS4)。表示制御部38は、例えば、ステップS3の状態と、ステップS4の状態とを1秒ごとに切り替えて表示させることで、ジェスチャーアイコンGI2に首を左右に振る動作を与えて、WEB会議の他の参加者の首を左右に振る動作を反映させる。
ステップS16、ステップS20、またはステップS22の後、制御部24は、図2の処理を終了するか否かを判定する(ステップS24)。制御部24は、例えば、操作受付部16が図2の処理を終了する操作および電源をオフする操作を受け付けた場合に、図2の処理を終了すると判定する。処理を終了すると判定された場合、(ステップS24;Yes)、図2の処理を終了する。処理を終了すると判定されない場合(ステップS24;No)、ステップS10に進む。ステップS24で判定する処理の終了とは、例えば、WEB会議の終了である。また、WEB会議が終了しなくとも、一部のユーザがWEB会議との接続を終了させた場合は、そのユーザに対しての図2の処理を終了させる。
上述のとおり、本実施形態は、WEB会議などにおいて映像表示が制限されている場合に、映像表示を制限しているユーザのアイコンにユーザの動作または表情を反映させて表示する。これにより、本実施形態は、WEB会議に参加している他のユーザがカメラ映像を表示しない状態でも、そのユーザの反応を適切に把握することができ、コミュニケーションを円滑にすることができる。
また、本実施形態は、WEB会議などにおいて映像表示が制限されている場合に、発話者の発言に対してポジティブな動作を取った参加者と、ネガティブな動作を取った参加者との人数を表示する。これにより、本実施形態は、WEB会議に参加している他のユーザがカメラ映像を表示しない状態でも、WEB参加者の反応をより把握することができる。
以上、本発明の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
10 映像通信装置
12 カメラ
14 マイクロフォン
16 操作受付部
18 通信部
20 表示部
22 音声出力部
24 制御部(映像通信制御装置)
30 映像取得部
32 音声取得部
34 操作制御部
36 通信制御部
38 表示制御部
40 音声出力制御部
42 分析部
44 アイコン生成部

Claims (5)

  1. 複数の他端末から、前記複数の他端末の各々のカメラが撮影した人物の動作または表情を示す情報を受信する通信部と、
    前記通信部が受信した情報を分析して、所定の動作または所定の表情を示す割合を取得する分析部と、
    前記分析部が取得した割合を反映したアイコンを生成するアイコン生成部と、
    前記アイコン生成部が生成したアイコンを表示部に表示させる表示制御部と、
    を備える映像通信装置。
  2. 前記通信部は、前記複数の他端末から、前記複数の他端末の各々のカメラが撮影した人物の動作または表情を示す情報として、前記複数の他端末の各々のカメラが撮影した映像を受信し、
    前記分析部は、前記通信部が受信した映像から人物を認識し、認識した人物の動作または表情を分析して、所定の動作または所定の表情を示す割合を取得する、
    請求項1に記載の映像通信装置。
  3. 前記通信部は、前記複数の他端末から、前記複数の他端末の各々のカメラが撮影した人物の動作または表情を示す情報として、前記複数の他端末により撮影された映像から撮影された人物の動作または表情を分析した分析結果を受信し、
    前記分析部は、前記通信部が受信した分析結果から所定の動作または所定の表情を示す割合を取得する、
    請求項1または2に記載の映像通信装置。
  4. 前記アイコン生成部は、前記分析部が所定の動作または所定の表情を示す割合が所定閾値以上の割合と判断した動作または表情を反映したアイコンを生成する、
    請求項1から3のいずれか1項に記載の映像通信装置。
  5. 複数の他端末から、前記複数の他端末の各々のカメラが撮影した人物の動作または表情を示す情報を受信するステップと、
    受信した情報から、所定の動作または所定の表情を示す割合を取得するステップと、
    取得した割合を反映したアイコンを生成するステップと、
    生成されたアイコンを表示部に表示させるステップと、
    を、映像通信装置が実行する映像表示方法。
JP2020209389A 2020-12-17 2020-12-17 映像通信装置、および映像表示方法 Pending JP2022096336A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020209389A JP2022096336A (ja) 2020-12-17 2020-12-17 映像通信装置、および映像表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020209389A JP2022096336A (ja) 2020-12-17 2020-12-17 映像通信装置、および映像表示方法

Publications (1)

Publication Number Publication Date
JP2022096336A true JP2022096336A (ja) 2022-06-29

Family

ID=82163896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020209389A Pending JP2022096336A (ja) 2020-12-17 2020-12-17 映像通信装置、および映像表示方法

Country Status (1)

Country Link
JP (1) JP2022096336A (ja)

Similar Documents

Publication Publication Date Title
US8817061B2 (en) Recognition of human gestures by a mobile phone
US9792602B2 (en) Apparatus and method for providing emotion expression service in mobile communication terminal
US8947493B2 (en) System and method for alerting a participant in a video conference
US20110216153A1 (en) Digital conferencing for mobile devices
JP2003219047A (ja) 通信装置
CN105159578A (zh) 视频显示模式的切换方法和装置
EP4064280A1 (en) Interaction method and electronic device
EP3223147A2 (en) Method for accessing virtual desktop and mobile terminal
CN111988555B (zh) 一种数据处理方法、装置、设备和机器可读介质
US11212488B2 (en) Conference system
US20220377177A1 (en) Conferencing System, Server, Information Processing Device and Non-Transitory Recording Medium
WO2018158852A1 (ja) 通話システム及びコミュニケーションシステム
JP2022083831A (ja) 映像通信装置、および映像表示方法
JP2022096336A (ja) 映像通信装置、および映像表示方法
JP2004193809A (ja) 通信装置
JP2001268078A (ja) 通信制御装置、その方法およびその提供媒体と通信装置
CN113992882B (zh) 多人会话的分组处理方法和装置、电子设备和存储介质
JP2022083548A (ja) 映像通信装置、および映像表示方法
JPH09107534A (ja) テレビ会議装置及びテレビ会議システム
CN114598835A (zh) 用于显示参与通信会话的用户的系统和方法
JP2022104190A (ja) 双方向通信支援システム、及び、コンピュータプログラム
CN111698452A (zh) 在线群体状态反馈方法、系统及装置
JP6823367B2 (ja) 画像表示システム、画像表示方法、および画像表示プログラム
JP2023015877A (ja) 会議制御装置、会議制御方法及びコンピュータープログラム
WO2023175704A1 (ja) オンライン会議システム、オンライン会議システムの制御方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230929