JP2021016083A - 通信システム、情報処理装置、通信方法およびプログラム - Google Patents

通信システム、情報処理装置、通信方法およびプログラム Download PDF

Info

Publication number
JP2021016083A
JP2021016083A JP2019129658A JP2019129658A JP2021016083A JP 2021016083 A JP2021016083 A JP 2021016083A JP 2019129658 A JP2019129658 A JP 2019129658A JP 2019129658 A JP2019129658 A JP 2019129658A JP 2021016083 A JP2021016083 A JP 2021016083A
Authority
JP
Japan
Prior art keywords
unit
communication
participant
communication terminal
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019129658A
Other languages
English (en)
Other versions
JP7400231B2 (ja
Inventor
怜士 川▲崎▼
Reiji Kawasaki
怜士 川▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2019129658A priority Critical patent/JP7400231B2/ja
Publication of JP2021016083A publication Critical patent/JP2021016083A/ja
Application granted granted Critical
Publication of JP7400231B2 publication Critical patent/JP7400231B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】ビデオ会議の開始前に属性情報が登録されていなくても、参加者の情報に対する表示制御を行うことができる通信システム、情報処理装置、通信方法およびプログラムを提供する。【解決手段】複数の通信端末がネットワークを介して音声データを送受信することによりビデオ会議が可能な通信システムであって、ビデオ会議の1以上の参加者を撮影した映像データを得る撮像部と、撮像部により得られた映像データから参加者を検出する検出部と、参加者が発話した音声データを入力する音声入力部と、音声入力部により入力された音声データから、参加者の属性情報を抽出する抽出部と、抽出部により抽出された属性情報に基づいて、検出部により検出された参加者の情報について、第1通信端末での表示制御を行う第1制御部と、を有する。【選択図】図6

Description

本発明は、通信システム、情報処理装置、通信方法およびプログラムに関する。
複数の地点にいる複数の参加者が、ディスプレイを用いて会議を行うビデオ会議システムにおいて、ビデオ会議の参加者の情報として例えば各参加者を仮想的に表現するアバターをディスプレイに表示させる技術が知られている。
このような、アバターを表示させるビデオ会議システムとして、ネットワーク上を伝送するデータ量を少なくしつつ、参加者が会議の状況を把握しづらくなるのを防ぐために、参加者毎の属性情報に応じて画面の表示制御を行うシステムが開示されている(特許文献1参照)。
しかしながら、特許文献1に記載された技術では、事前に参加者の属性情報が登録されていないと、表示制御を行うことができないという問題がある。
本発明は、上述の問題点に鑑みてなされたものであって、ビデオ会議の開始前に属性情報が登録されていなくても、参加者の情報に対する表示制御を行うことができる通信システム、情報処理装置、通信方法およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、複数の通信端末がネットワークを介して音声データを送受信することによりビデオ会議が可能な通信システムであって、前記ビデオ会議の1以上の参加者を撮影した映像データを得る撮像部と、前記撮像部により得られた前記映像データから前記参加者を検出する検出部と、前記参加者が発話した音声データを入力する音声入力部と、前記音声入力部により入力された前記音声データから、前記参加者の属性情報を抽出する抽出部と、前記抽出部により抽出された前記属性情報に基づいて、前記検出部により検出された前記参加者の情報について、第1通信端末での表示制御を行う第1制御部と、を有することを特徴とする。
本発明によれば、ビデオ会議の開始前に属性情報が登録されていなくても、参加者の情報に対する表示制御を行うことができる。
図1は、実施形態に係る通信システムの概略構成図である。 図2は、実施形態に係る通信端末(ビデオ会議端末)のハードウェア構成の一例を示す図である。 図3は、実施形態に係る通信端末(電子黒板)のハードウェア構成の一例を示す図である。 図4は、実施形態に係る管理システムおよびプログラム提供システムのハードウェア構成の一例を示す図である。 図5は、実施形態に係る通信端末のソフトウェア構成の一例を示す図である。 図6は、実施形態に係る通信システムの機能ブロックの構成の一例を示す図である。 図7は、認証管理テーブルの一例を示す図である。 図8は、端末管理テーブルの一例を示す図である。 図9は、グループ管理テーブルの一例を示す図である。 図10は、セッション管理テーブルの一例を示す図である。 図11は、実施形態に係る通信システムにおけるコンテンツデータおよび各種管理情報を送受信するために確立されたセッションを示す図である。 図12は、実施形態に係る通信システムにおける、通信端末が通話を開始するための認証処理を含む準備段階の処理の一例を示すシーケンス図である。 図13は、宛先リストの表示例を示す図である。 図14は、実施形態に係る通信システムにおける通話の開始を要求する処理の一例を示すシーケンス図である。 図15は、実施形態に係る通信システムにおける通話の開始の要求を許可する処理の一例を示すシーケンス図である。 図16は、開始要求受付画面の表示例を示す図である。 図17は、実施形態に係る通信システムのアバター生成処理の流れの一例を示すフローチャートである。 図18は、アバターの表示動作を説明する図である。 図19は、アバターの表示動作を説明する図である。 図20は、実施形態に係る通信端末の音声方向特定処理の流れの一例を示すフローチャートである。 図21は、実施形態に係る通信システムの属性情報取得処理の流れの一例を示すフローチャートである。 図22は、属性情報の取得動作を説明する図である。 図23は、顔・アバター・属性対応テーブルの一例を示す図である。 図24は、実施形態に係る通信システムのアバター制御処理の流れの一例を示すフローチャートである。 図25は、属性情報に基づいてアバターの配置を変更する動作を説明する図である。 図26は、発話方向と発話者との対応を説明する説明する図である。 図27は、発話者・発話方向対応テーブルの一例を示す図である。 図28は、実施形態に係る通信システムの全体動作の流れの一例を示すシーケンス図である。 図29は、音声認識による属性情報の取得を促す画面の一例を示す図である。 図30は、実施形態に係る通信端末のWebアプリを利用する場合のソフトウェア構成の一例を示す図である。
以下に、図面を参照しながら、本発明に係る通信システム、情報処理装置、通信方法およびプログラムの実施形態を詳細に説明する。また、以下の実施形態によって本発明が限定されるものではなく、以下の実施形態における構成要素には、当業者が容易に想到できるもの、実質的に同一のもの、およびいわゆる均等の範囲のものが含まれる。さらに、以下の実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換、変更および組み合わせを行うことができる。
また、コンピュータソフトウェアとは、コンピュータの動作に関するプログラム、その他コンピュータによる処理の用に供する情報であってプログラムに準ずるものをいう(以下、コンピュータソフトウェアは、ソフトウェアという)。アプリケーションソフトとは、ソフトウェアの分類のうち、特定の作業を行うために使用されるソフトウェアの総称である。一方、オペレーティングシステム(OS)とは、コンピュータを制御し、アプリケーションソフト等がコンピュータ資源を利用可能にするためのソフトウェアのことである。オペレーティングシステムは、入出力の制御、メモリやハードディスクなどのハードウェアの管理、プロセスの管理といった、コンピュータの基本的な管理・制御を行っている。アプリケーションソフトウェアは、オペレーティングシステムが提供する機能を利用して動作する。プログラムとは、コンピュータに対する指令であって、一の結果を得ることができるように組み合わせたものをいう。また、プログラムに準ずるものとは、コンピュータに対する直接の指令ではないためプログラムとは呼べないが、コンピュータの処理を規定するという点でプログラムに類似する性質を有するものをいう。例えば、データ構造(データ要素間の相互関係で表される、データの有する論理的構造)がプログラムに準ずるものに該当する。
[実施形態]
(通信システムの全体構成)
図1は、実施形態に係る通信システムの概略構成図である。図1を参照しながら、本実施形態に係る通信システム1の構成の概略を説明する。
図1に示すように、通信システム1は、複数の通信端末10aa、10ab、10ba、10bb、10ca、10cb、10da、10dbと、一部の通信端末用のディスプレイ120aa、120ba、120ca、120daと、一部の通信端末に接続されたPC(Personal Computer)30ab、30cbと、管理システム50と、プログラム提供システム90と、を含み、通信ネットワーク2を介して互いに通信可能となるように構築されている。
なお、図1では、通信端末10aa、10ab、10ba、10bb、10ca、10cb、10da、10dbが示されているが、これらのうち任意の通信端末を示す場合または総称する場合、単に「通信端末10」と称する。また、図1に示す通信システム1に含まれる複数の通信端末10は、一例を示すものであり、異なる台数であってもよい。
また、図1では、ディスプレイ120aa、120ba、120ca、120daが示されているが、これらのうち任意のディスプレイを示す場合または総称する場合、単に「ディスプレイ120」と称する。また、図1に示す通信システム1に含まれる複数のディスプレイ120は、一例を示すものであり、異なる台数であってもよい。
通信端末10は、他の装置との間で、各種情報を送受信する端末である。通信端末10は、他の通信端末10との間でセッションを確立し、確立したセッションにおいて、音声データおよび画像データ(映像データ)を含むコンテンツデータの送受信による通話を行う。これにより、通信システム1において、複数の通信端末10間のビデオ会議が実現される。なお、通信端末10は、ディスプレイ(上述のディスプレイ120)が接続される専用装置(ビデオ会議端末)、電子黒板(インタラクティブホワイトボード:IWB)、デスクトップPC、ノートPC、スマートフォン、またはタブレット端末等のいずれであってもよい。
ディスプレイ120は、通信ネットワーク2を介して、接続されている通信端末10が受信した参加者の映像等を、表示する表示装置である。ディスプレイ120は、例えば、LCD(Liquid Crystal Display)または有機EL(Electro−Luminescence)ディスプレイ等である。
PC30は、例えば、通信端末10に接続され、他の通信端末10との共有する画面イメージを当該通信端末10に送信し、管理システム50を介して配信することによって、他の通信端末10と画面共有の状態にする情報処理装置である。なお、PC30は、デスクトップPCおよびノートPC等のPCであることに限定されず、スマートフォンまたはタブレット端末等の情報処理装置であってもよい。
管理システム50は、通信端末10を一元的に管理するコンピュータである。管理システム50は、通信端末10間でのセッションを確立することにより、通信端末10間における通話等によるビデオ会議を実現する。管理システム50は、所定の通信端末10からセッションの開始要求情報を受信した場合に、開始要求情報を送信した通信端末10(開始要求端末)と宛先端末との間のセッションを確立し、ビデオ会議を開始させる。したがって、管理システム50は、確立したセッションにより、複数の通信端末10間でコンテンツデータの中継を行う。なお、管理システム50は複数の通信端末10間でセッションを確立するものの、実際にコンテンツデータの中継は、別の中継装置により行われるものとしてもよい。本実施形態では、説明を簡略にするため、セッションの確立、およびコンテンツデータの中継は、管理システム50が行うものとして説明する。
プログラム提供システム90は、通信端末10に各種機能または各種手段を実現させるための端末用プログラムが記憶された補助記憶装置(HDD(Hard Disk Drive)等)を備えており、通信端末10に端末用プログラム(後述する通信アプリA等)を提供するコンピュータである。また、プログラム提供システム90は、管理システム50等に各種機能または各種手段を実現させるためのプログラムも補助記憶装置に記憶しており、管理システム50等に、対応するプログラムを送信することができる。
通信ネットワーク2は、図1に示すように、例えば、LAN(Local Area Network)2a〜2d、専用線2ab、2cd、およびインターネット2iを含んで構築されている。なお、通信ネットワーク2は、図1に示すような構成に限定されるものではなく、その他のネットワーク機器が含まれるものとしてもよく、有線だけでなく無線による通信が行われる箇所があってもよい。
LAN2a〜2d、および専用線2ab、2cdは、それぞれルータ70a〜70d、70ab、70cdを含む。ルータ70a〜70d、70ab、70cdは、通信データの最適な経路の選択を行うネットワーク機器である。
通信端末10(10aa、10ab、・・・)、およびルータ70aは、LAN2aによって通信可能に接続されている。また、通信端末10(10ba、10bb、・・・)、およびルータ70bは、LAN2bによって通信可能に接続されている。また、LAN2a、LAN2b、およびルータ70abは、専用線2abによって通信可能に接続されており、地域A内で構築されている。
一方、通信端末10(10ca、10cb、・・・)、およびルータ70cは、LAN2cによって通信可能に接続されている。また、通信端末10(10da、10db、・・・)、およびルータ70dは、LAN2dによって通信可能に接続されている。また、LAN2c、LAN2d、およびルータ70cdは、専用線2cdによって通信可能に接続されており、地域B内で構築されている。
地域Aおよび地域Bのネットワークは、それぞれルータ70ab、70cdによってインターネット2iを介して通信可能に接続されている。
また、管理システム50およびプログラム提供システム90は、インターネット2iを介して、各通信端末10と通信可能に接続されている。なお、管理システム50およびプログラム提供システム90は、地域Aまたは地域Bに設置されていてもよいし、これら以外の地域に設置されていてもよい。
また、図1において、各通信端末10、管理システム50、各ルータ70およびプログラム提供システム90の近傍に示されている4組の数字は、一般的なIPv4におけるIP(Ineternet Protocol)アドレスを簡易的に示している。例えば、通信端末10aaのIPアドレスは、「1.2.1.3」であるものとしている。なお、IPv4ではなく、IPv6を用いてもよいが、説明を簡略化するため、IPv4を用いて説明する。
なお、図1に示す通信システム1の構成は、一例を示すものであり、この構成に限定されるものではない。すなわち、図1に示す各装置、システムの台数は、図1に示す台数に限定されるものではない。また、図1では、地域A、Bの2つの地域のネットワーク構成が示されているが、同一地域内のネットワークであってもよく、3つ以上の地域がネットワークで接続された構成であってもよい。
(通信端末のハードウェア構成)
図2は、実施形態に係る通信端末(ビデオ会議端末)のハードウェア構成の一例を示す図である。図3は、実施形態に係る通信端末(電子黒板)のハードウェア構成の一例を示す図である。まず、図2を参照しながら、本実施形態に係る通信端末10がビデオ会議端末であるものとした場合のハードウェア構成の詳細について説明する。
図2に示すように、本実施形態に係る通信端末10は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、補助記憶装置105と、メディアドライブ107と、入力装置108と、を備えている。
CPU101は、通信端末10全体の動作を制御する演算装置である。ROM102は、通信端末10用のプログラム(後述する通信アプリA等)を記憶している不揮発性記憶装置である。RAM103は、CPU101のワークエリアとして使用される揮発性記憶装置である。
補助記憶装置105は、画像データ、音声データおよび動画データ等の各種データを記憶するHDDまたはSSD(Solid State Drive)等の不揮発性記憶装置である。メディアドライブ107は、CPU101の制御に従って、フラッシュメモリ等であるメディア106に対するデータの読み出しおよび書き込みを制御する装置である。メディア106は、通信端末10に対して着脱自在の記憶装置である。なお、メディア106は、CPU101の制御に従ってデータの読み出しおよび書き込みを行う不揮発性メモリであれば、フラッシュメモリに限定されるものではなく、EEPROM(Electrically Erasable and Programmable ROM)等を用いてもよい。
入力装置108は、マウスまたはキーボード等の各種情報を入力するための装置、または操作ボタンおよび電源ボタン等のボタンである。
また、通信端末10は、ネットワークI/F111と、撮像素子I/F113と、音声入出力I/F116と、USB(Universal Serial Bus) I/F117と、ディスプレイI/F119と、を備えている。
ネットワークI/F111は、通信ネットワーク2を利用してデータを通信するためのインターフェースである。ネットワークI/F111は、例えば、TCP(Transmission Control Protocol)/IP(Internet Protocol)に準拠したNIC(Network Interface Card)等である。
撮像素子I/F113は、CPU101の制御に従って被写体を撮像して画像データを得るカメラ112との間で画像データを伝送するためのインターフェースである。カメラ112は、レンズ、および光を電荷に変換して被写体の画像(映像)を電子化する固体撮像素子を含む。カメラ112は、ケーブル112cによって撮像素子I/F113に接続される。固体撮像素子としては、CMOS(Complementary Metal Oxide Semiconductor)またはCCD(Charge Coupled Device)等が用いられる。
音声入出力I/F116は、CPU101の制御に従って、音声を入力するマイク114a、および音声を出力するスピーカ114b(出力装置)を有するスマートスピーカ114との間で音声信号(音声データ)の入出力を処理するインターフェースである。スマートスピーカ114は、マイクロホンアレイで構成されるマイク114aを備えることによって、各マイクロホンから入力された音声に対する音声処理を行うことによって、当該音声の方向を特定する装置である。なお、スマートスピーカ114は、マイクロホンアレイを搭載して音声の方向を特定することができる装置であれば、必ずしもスマートスピーカである必要はない。スマートスピーカ114は、ケーブル114cによって音声入出力I/F116に接続される。
USB I/F117は、外部機器(例えばPC等)と接続してデータ通信を行うためのUSB規格のインターフェースである。
ディスプレイI/F119は、CPU101の制御に従って、外付けのディスプレイ120(表示装置)に画像データを伝送するためのインターフェースである。ディスプレイ120は、ケーブル120cによってディスプレイI/F119に接続される。ケーブル120cは、アナログRGB(VGA)信号用のケーブルであってもよく、コンポーネントビデオ用のケーブルであってもよく、HDMI(登録商標)(High−Definition Multimedia Interface)またはDVI(Digital Video Interactive)信号用のケーブルであってもよい。
上述のCPU101、ROM102、RAM103、補助記憶装置105、メディアドライブ107、入力装置108、ネットワークI/F111、撮像素子I/F113、音声入出力I/F116、USB I/F117およびディスプレイI/F119は、アドレスバスおよびデータバス等のバスライン110によって互いに通信可能に接続されている。
なお、図2に示したビデオ会議端末である通信端末10のハードウェア構成は一例を示すものであり、図2に示した構成要素以外の構成要素を含むものとしてもよい。また、カメラ112、およびスマートスピーカ114は、通信端末10に一体的に備えられるものとしてもよく、または、カメラ112、およびスマートスピーカ114のうち少なくともいずれかは、外付けの別体の装置であってもよい。また、ディスプレイ120は、図2では、通信端末10に対して外付けされるディスプレイとしているが、これに限定されるものではなく、通信端末10と一体的に備えられるものとしてもよい。
次に、図3を参照しながら、本実施形態に係る通信端末10が電子黒板であるものとした場合のハードウェア構成の詳細について説明する。
図3に示すように、本実施形態に係る通信端末10は、CPU201と、ROM202と、RAM203と、SSD204と、ネットワークI/F205と、外部機器接続I/F206と、を備えている。
CPU201は、通信端末10全体の動作を制御する演算装置である。ROM202は、CPU201およびIPL(Initial Program Loader)等のCPU201の駆動に用いられるプログラムを記憶する不揮発性記憶装置である。RAM203は、CPU201のワークエリアとして使用される揮発性記憶装置である。
SSD204は、画像データ、音声データおよび動作データ、ならびに通信端末10用のプログラム等の各種データを記憶する不揮発性記憶装置である。なお、SSD204の代わりにHDD等の不揮発性記憶装置を用いるものとしてもよい。
ネットワークI/F205は、通信ネットワーク2を利用してデータを通信するためのインターフェースである。ネットワークI/F205は、例えば、TCP/IPに準拠したNIC等である。
外部機器接続I/F206は、各種の外部機器を接続するためのUSB規格等のインターフェースである。この場合の外部機器としては、例えば、USBメモリ230、スマートスピーカ240、およびカメラ260である。
スマートスピーカ240は、音声を入力するマイク241、および音声を出力するスピーカ242(出力装置)を有する。スマートスピーカ240は、マイクロホンアレイで構成されるマイク241を備えることによって、各マイクロホンから入力された音声に対する音声処理を行うことによって、当該音声の方向を特定することができる装置である。なお、マイクロホンアレイを搭載して音声の方向を特定することができる装置であれば、必ずしもスマートスピーカである必要はない。
カメラ260は、レンズ、および光を電荷に変換して被写体の画像(映像)を電子化する固体撮像素子を含む。固体撮像素子としては、CMOSまたはCCD等が用いられる。
また、通信端末10は、キャプチャデバイス211と、GPU(Graphics Processing Unit)212と、ディスプレイコントローラ213と、ディスプレイ214(表示装置)と、センサコントローラ215と、接触センサ216と、電子ペンコントローラ217と、電源スイッチ222と、選択スイッチ223と、を備えている。
キャプチャデバイス211は、外付けのPC270のディスプレイに対して映像情報を静止画または動画として表示させるデバイスである。
GPU212は、画像処理に特化した演算装置である。ディスプレイコントローラ213は、GPU212からの出力画像をディスプレイ214等へ出力するために画面表示の制御および管理を行うコントローラである。
センサコントローラ215は、接触センサ216の処理を制御するコントローラである。接触センサ216は、赤外線遮断方式による座標の入力および座標の検出を行うセンサである。この座標の入力および座標の検出する方法は、ディスプレイ214の上側両端部に設置された2つ受発光装置が、ディスプレイ214に平行して複数の赤外線を放射し、ディスプレイ214の周囲に設けられた反射部材によって反射されて、受光素子が放射した光の光路と同一の光路上を戻って来る光を受光する方法である。接触センサ216は、ディスプレイ214上に電子ペン290およびユーザの手H等が接触したことを検知する。接触センサ216は、物体によって遮断された2つの受発光装置が放射した赤外線のIDをセンサコントローラ215に出力し、センサコントローラ215が、物体の接触位置である座標位置を特定する。
なお、接触センサ216は、赤外線遮断方式に限らず、静電容量の変化を検知することにより接触位置を特定する静電容量方式のタッチパネル、対向する2つの抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式のタッチパネル、接触物体が表示部に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式のタッチパネル等の種々の検出手段を用いてもよい。
電子ペンコントローラ217は、電子ペン290と通信することによって、ディスプレイ214へのペン先のタッチおよびペン尻のタッチの有無を判断するコントローラである。なお、電子ペンコントローラ217は、電子ペン290のペン先およびペン尻だけでなく、電子ペン290のユーザが握る部分、その他の電子ペンの部分のタッチの有無を判断するようにしてもよい。
電源スイッチ222は、通信端末10の電源のON/OFFを切り換えるためのスイッチである。選択スイッチ223は、例えば、ディスプレイ214の表示の明暗、色合い等を調整するためのスイッチ群である。
上述のCPU201、ROM202、RAM203、SSD204、ネットワークI/F205、外部機器接続I/F206、キャプチャデバイス211、GPU212、センサコントローラ215、電子ペンコントローラ217、電源スイッチ222および選択スイッチ223は、アドレスバスおよびデータバス等のバスライン210によって互いに通信可能に接続されている。
なお、図3に示した電子黒板である通信端末10のハードウェア構成は一例を示すものであり、図3に示した構成要素以外の構成要素を含むものとしてもよい。また、カメラ260、およびスマートスピーカ240は、通信端末10に一体的に備えられるものとしてもよく、または、カメラ260、およびスマートスピーカ240のうち少なくともいずれかは、外付けの別体の装置であってもよい。
(管理システムおよびプログラム提供システムのハードウェア構成)
図4は、実施形態に係る管理システムおよびプログラム提供システムのハードウェア構成の一例を示す図である。図4を参照しながら、管理システム50およびプログラム提供システム90のハードウェア構成の詳細について説明する。
まず、図4を参照しながら管理システム50のハードウェア構成について説明する。図4に示すように、管理システム50は、CPU301と、ROM302と、RAM303と、補助記憶装置305と、メディアドライブ307と、ディスプレイ308と、ネットワークI/F309と、キーボード311と、マウス312と、DVD(Digital Versatile Disc)ドライブ314と、を備えている。
CPU301は、管理システム50全体の動作を制御する演算装置である。ROM302は、管理システム50用のプログラムを記憶している不揮発性記憶装置である。RAM303は、CPU301のワークエリアとして使用される揮発性記憶装置である。
補助記憶装置305は、後述する認証管理DB5001、端末管理DB5002、グループ管理DB5003およびセッション管理DB5004等の各種データを記憶するHDDまたはSSD等の記憶装置である。メディアドライブ307は、CPU301の制御に従って、フラッシュメモリ等の記録メディア306に対するデータの読み出しおよび書き込みを制御する装置である。
ディスプレイ308は、カーソル、メニュー、ウィンドウ、文字または画像等の各種情報を表示する液晶または有機EL等によって構成された表示装置である。ネットワークI/F309は、通信ネットワーク2を利用してデータを通信するためのインターフェースである。ネットワークI/F309は、例えば、TCP/IPに準拠したNIC等である。
キーボード311は、文字、数字、各種指示の選択、およびカーソルの移動等を行う入力装置である。マウス312は、各種指示の選択および実行、処理対象の選択、ならびにカーソルの移動等を行うための入力装置である。
DVDドライブ314は、着脱自在な記憶媒体の一例としてのDVD−ROMまたはDVD−R(Digital Versatile Disk Recordable)等のDVD313に対するデータの読み出しおよび書き込みを制御する装置である。
上述のCPU301、ROM302、RAM303、補助記憶装置305、メディアドライブ307、ディスプレイ308、ネットワークI/F309、キーボード311、マウス312およびDVDドライブ314は、アドレスバスおよびデータバス等のバスライン310によって互いに通信可能に接続されている。
なお、図3に示した管理システム50のハードウェア構成は一例を示すものであり、図3に示した構成要素を全て含む必要はなく、または、その他の構成要素を含むものとしてもよい。
なお、プログラム提供システム90は、上述の管理システム50と同様のハードウェア構成を有しているため、その説明を省略する。ただし、ROM302には、プログラム提供システム90を制御するためのプログラム提供システム90用のプログラムが記録されている。
(通信端末のソフトウェア構成)
図5は、実施形態に係る通信端末のソフトウェア構成の一例を示す図である。図5を参照しながら、本実施形態に係る通信端末10のソフトウェア構成の詳細について説明する。
通信端末10には、クライアントアプリとして通信アプリAがインストールされている。ここで、アプリとは、アプリケーションソフトを意味する。図5に示すように、OS(Operating System)1020、および通信アプリAは、通信端末10のRAM103(RAM203)の作業領域1010上で動作する。
OS1020は、基本的な機能を提供し、通信端末10全体を管理する基本ソフトウェアである。通信アプリAは、OS1020の制御に従って動作し、他の通信端末10と通信(通話)するためのアプリである。
なお、通信アプリAの通信プロトコルとしては、SIP(Session Initiation Protocol)、H.323、IRC(Internet Relay Chat)、またはJingle等が挙げられる。
(通信システムの機能ブロックの構成)
図6は、実施形態に係る通信システムの機能ブロックの構成の一例を示す図である。図6を参照しながら、本実施形態に係る通信システム1の機能ブロックの構成について説明する。
<通信端末の機能ブロックの構成>
図6に示すように、通信端末10は、通信部11と、操作入力受付部12と、撮像部13と、表示制御部14(第2制御部の一例)と、音声入力部15と、音声出力部16(第2制御部の一例)と、記憶・読出部17と、記憶部18と、認証要求部19と、発話方向特定部20(第1特定部)と、を有している。
通信部11は、通信ネットワーク2を介して、他の通信端末10または各システムと各種データの送受信を行う機能部である。通信部11は、図2に示すCPU101(図3に示すCPU201)によるソフトウェアである通信アプリAの実行、およびネットワークI/F111(ネットワークI/F205)によって実現される。
通信部11は、当該通信端末10が他の通信端末10とセッションを確立し、通話によるビデオ会議を開始する前に、管理システム50から、宛先端末の候補としての各通信端末10の状態を示す各状態情報の受信を開始する。ここで、宛先端末の候補とは、通信端末10が、ビデオ会議を行う相手、すなわちセッションの相手として指定可能なビデオ会議の相手であるユーザ(参加者)が利用する宛先候補となる他の通信端末10である。すなわち、通信端末10は、宛先端末の候補として予め設定されていない通信端末とは、セッションを確立することができず、ビデオ会議を行うことができない。
また、状態情報は、各通信端末10の稼動状態(オンラインかオフラインかの状態)と、オンラインにおいてはさらに通話中であるか、待受け中であるか等の詳細な状態(以下、通信状態と称する)とを示す。また、状態情報は、各通信端末10の稼動状態および通信状態だけでなく、ケーブルが通信端末10から外れている、音声を出力できるが画像は出力できない、または、音声が入力されないように設定されている(ミュート)等、様々な状態を示すものとしてもよいが、以下では、一例として、稼動状態および通信状態を示す場合について説明する。
通信部11は、当該通信端末10が開始要求端末として動作する場合には、開始要求情報を管理システム50に送信する。ここで、開始要求情報とは、ビデオ会議に用いられるセッションの開始を要求する情報である。開始要求情報は、具体的には、開始を要求する旨を示す情報と、開始要求情報の送信元である開始要求端末の端末IDと、セッションの相手となる宛先端末の端末IDと、を含む。端末IDは、通信端末10を識別するための情報であって、予め通信端末10に記憶させておく他、ユーザが直接通信端末10へ入力して決定するものとしてもよい。
操作入力受付部12は、ユーザによる各種入力を受け付ける機能部である。操作入力受付部12は、図2に示す入力装置108(図3に示す接触センサ216、電源スイッチ222および選択スイッチ223)によって実現される。
例えば、ユーザが、操作入力受付部12のうち図2に示す入力装置108としての電源ボタンをオンにすると、当該通信端末10の電源がオン状態になる。また、ユーザが電源をオン状態からオフにすると、通信部11は、管理システム50へ、当該通信端末10の電源がオフになった旨の状態情報を送信してから、当該通信端末10の電源が完全にオフとなる。これによって、管理システム50は、通信端末10が電源オンから電源オフになったことを把握することができる。
撮像部13は、被写体を撮像して、撮像して得た画像データを取得する機能部である。撮像部13は、図2に示すCPU101(図3に示すCPU201)によるソフトウェアである通信アプリAの実行、ならびに、カメラ112(カメラ260)および撮像素子I/F113(外部機器接続I/F206)によって実現される。
表示制御部14は、ディスプレイ120(ディスプレイ214)に対して画像データ等の表示制御を行う機能部である。表示制御部14は、図2に示すCPU101(図3に示すCPU201)によるソフトウェアである通信アプリAの実行によって実現される。
表示制御部14は、例えば、ビデオ会議の要求元としての当該通信端末10が所望の宛先としての通信端末10とビデオ会議の通話を開始する前に、通信部11によって受信された宛先端末の候補の状態情報を反映させて、各宛先端末の候補の名前が含まれた宛先リストをディスプレイ120(ディスプレイ214)に表示させる。
音声入力部15は、マイク114a(マイク241)のマイクロホンアレイによって収音された参加者(話者)の音声が音声信号に変換された後、当該音声信号を入力する機能部である。音声入力部15は、図2に示すCPU101(図3に示すCPU201)によるソフトウェアである通信アプリAの実行、および音声入出力I/F116(外部機器接続I/F206)によって実現される。
音声出力部16は、音声信号をスピーカ114b(スピーカ242)に出力し、スピーカ114b(スピーカ242)から音声を出力させる機能部である。音声出力部16は、図2に示すCPU101(図3に示すCPU201)によるソフトウェアである通信アプリAの実行、および音声入出力I/F116(外部機器接続I/F206)によって実現される。
記憶・読出部17は、記憶部18に各種データを記憶したり、記憶部18に記憶された各種データを読み出す処理を行う機能部である。記憶部18には、例えば、宛先端末との通話を行う際に受信されるコンテンツデータが、受信される度に上書き記憶される。このうち、上書きされる前の画像データによってディスプレイ120(ディスプレイ214)に画像が表示され、上書きされる前の音声データによってスピーカ114b(スピーカ242)から音声が出力される。記憶・読出部17は、図2に示すCPU101(図3に示すCPU201)によるソフトウェアである通信アプリAの実行によって実現される。
認証要求部19は、当該通信端末10の電源がオンした場合、または、操作入力受付部12により認証要求操作が受け付けられた場合、通信部11から通信ネットワーク2を介して管理システム50に、ログインの認証を要求する旨を示す認証要求情報、および当該通信端末10の現時点のIPアドレスを送信する機能部である。認証要求部19は、図2に示すCPU101(図3に示すCPU201)によるソフトウェアである通信アプリAの実行によって実現される。
発話方向特定部20は、音声入力部15により入力された音声信号に基づいて、音声方向(発話方向)を特定する機能部である。具体的には、音声入力部15により入力された音声信号は、マイク114a(マイク241)のマイクロホンアレイに含まれる各マイクロホンから入力された各音声信号を含み、発話方向特定部20は、各マイクロホンの音声信号に対して音声処理を行うことにより、音声の方向を特定する。発話方向特定部20は、図2に示すCPU101(図3に示すCPU201)によるソフトウェアである通信アプリAの実行によって実現される。
なお、上述の表示制御部14、認証要求部19および発話方向特定部20のうち少なくともいずれかは、ASIC(Application Specific Integrated Circuit)またはFPGA(Field−Programmable Gate Array)等のハードウェア回路によって実現されるものとしてもよい。
また、図6に示した通信端末10の各機能部は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、図6に示した通信端末10で独立した機能部として図示した複数の機能部を、1つの機能部として構成してもよい。一方、図6に示した通信端末10の1つ機能部が有する機能を複数に分割し、複数の機能部として構成するものとしてもよい。
<管理システムの機能ブロックの構成>
図6に示すように、管理システム50は、通信部51と、認証部52と、状態管理部53と、端末抽出部54と、端末状態取得部55と、セッション制御部56と、記憶・読出部57と、記憶部58と、を有している。管理システム50は、さらに、顔検出部61(検出部)と、比較部62と、生成部63と、属性情報要求部64(要求部)と、対応付け部65(第2特定部)と、テキスト化部66と、抽出部67と、登録部68と、表示制御部69(第1制御部、制御部)と、を有している。記憶部58は、図4に示す補助記憶装置305によって実現され、図6に示すように、認証管理DB5001と、端末管理DB5002と、グループ管理DB5003と、セッション管理DB5004とを記憶している。以下、記憶部58に記憶されている各DBにおいて管理される各テーブルについて説明する。
<<認証管理テーブル>>
図7は、認証管理テーブルの一例を示す図である。
記憶部58は、図7に示す認証管理テーブルを含む認証管理DB5001を記憶している。認証管理テーブルでは、ログインの認証を行う通信端末10を利用するユーザ(参加者)を識別するユーザIDに対して、パスワードが関連付けられて管理される。ここで、パスワードは、ログインの認証するために利用される情報である。例えば、図7に示す認証管理テーブルにおいて、ユーザIDが「A_10aa」に関連付けられたパスワードが「aaaa」であることが示されている。
なお、ユーザIDは、通信端末10を利用するユーザを一意に識別するために使われる文字、記号、数字または各種のしるし等の識別情報であり、例えば、当該ユーザが利用するメールアドレス等であってもよい。
<<端末管理テーブル>>
図8は、端末管理テーブルの一例を示す図である。
記憶部58は、図8に示す端末管理テーブルを含む端末管理DB5002を記憶している。端末管理テーブルでは、各通信端末10の端末ID毎に、端末名、各通信端末10にログインしたユーザのユーザID、各通信端末10の稼動状態、他の通信端末10との通信状態、および各通信端末10のIPアドレスが関連付けられて管理される。
ここで、稼動状態としては、電源がオンされ、通信が可能または通信中の状態であるオンラインと、電源がオンされていない等、通信が可能でない状態であるオフラインとがある。また、通信状態としては、例えば、「Calling」、「Ringing」、「Accepted」、「Busy」、および「None」等がある。「Calling」は、他の通信端末10を呼び出している状態、すなわち、他の通信端末10に対しビデオ会議に用いられるセッションを確立するための開始要求情報を送信し、応答を待っている状態を示す。「Ringing」は、他の通信端末10から呼び出されている状態、すなわち、他の通信端末10から開始要求情報を受信し、受信した開始要求情報に対する応答が完了していない状態を示す。「Accepted」は、他の通信端末10からの開始要求情報に対し許可の応答が完了しているが、セッションの確立が完了していない状態、および、自端末が送信した開始要求情報に対し許可の応答の受信が完了しているが、セッションの確立が完了していない状態を示す。「Busy」は、他の通信端末10とのセッションが確立し、ビデオ会議におけるコンテンツデータの通信による通話が行われている状態を示す。「None」は、他の通信端末10と通信しておらず、待ち受け中の状態を示す。
例えば、図8に示す端末管理テーブルにおいて、端末IDが「10ad」の通信端末10adは、端末名が「日本 東京事業所 AD端末」で、ログインしているユーザのユーザIDが「C_10ad」で、稼動状態が「オンライン」で、通信状態が他の通信端末10から呼び出されている状態を示す「Ringing」で、この通信端末10adのIPアドレスが「1.2.1.6」であることが示されている。
<<グループ管理システム>>
図9は、グループ管理テーブルの一例を示す図である。
記憶部58は、図9に示すグループ管理テーブルを含むグループ管理DB5003を記憶している。グループ管理テーブルでは、管理システム50に予め登録されているビデオ会議のグループごとに、当該グループに含まれる通信端末10の端末IDが管理される。すなわち、グループ管理テーブルでは、グループを識別するグループIDと、当該グループに含まれる通信端末10の端末IDとが関連付けられて管理される。
例えば、図9に示すグループ管理テーブルにおいて、グループIDが「G002」のグループは、端末IDが「10ac」、「10ca」、「10cb」である通信端末10を含むことが示されている。
<<セッション管理テーブル>>
図10は、セッション管理テーブルの一例を示す図である。
記憶部58は、図10に示すセッション管理テーブルを含むセッション管理DB5004を記憶している。セッション管理テーブルでは、通信端末10間でコンテンツデータが通信されるセッションを識別するためのセッションID毎に、セッションの開始要求端末の端末ID、およびセッションを確立するための開始要求情報において相手先として指定された宛先端末の端末IDが関連付けられて管理される。
例えば、図10に示すセッション管理テーブルにおいて、セッションID「se1」で識別されるセッションは、端末IDが「10aa」の開始要求端末(通信端末10aa)と、端末IDが「10db」の宛先端末(通信端末10db)との間で確立されたことを示す。
なお、図7〜図10に示した各テーブルで管理される情報は、テーブル形式の情報としているが、これに限定されるものではなく、管理される各情報が関連付けられることができれば、テーブル形式に限定されるものではない。
図6に戻り、管理システム50の機能ブロックの説明に戻る。
通信部51は、通信ネットワーク2を介して、通信端末10または他のシステムと各種データの送受信を行う機能部である。通信部51は、図4に示すCPU301によるプログラムの実行、およびネットワークI/F309によって実現される。
認証部52は、通信部51を介して受信された認証要求情報に含まれているユーザIDおよびパスワードを検索キーとし、記憶部58の認証管理テーブル(図7参照)を検索し、認証管理テーブルに同一のユーザIDおよびパスワードが管理されているかを判断することによってユーザ認証を行う機能部である。認証部52は、図4に示すCPU301によるプログラムの実行によって実現される。
状態管理部53は、図8に示す端末管理テーブルの稼動状態および通信状態を管理する機能部である。状態管理部53は、ログインの認証を要求してきた通信端末10の稼動状態を管理すべく、端末管理テーブルに、この通信端末10の端末ID、当該通信端末10にログインしている参加者のユーザID、当該通信端末10の稼動状態、および当該通信端末10のIPアドレスを関連付けて記憶して管理する。
状態管理部53は、通信端末10のユーザによる入力装置108(電源スイッチ222)の操作によってオフ状態からオン状態になると、この通信端末10から送られてきた電源をオンする旨の情報に基づいて、端末管理テーブルの稼動状態をオフラインからオンラインに更新する。また、状態管理部53は、通信端末10のユーザによる入力装置108(電源スイッチ222)の操作によってオン状態からオフ状態になると、この通信端末10から送られてきた電源をオフする旨の情報に基づいて、端末管理テーブルの稼動状態をオンラインからオフラインに更新する。
状態管理部53は、図4に示すCPU301によるプログラムの実行によって実現される。
端末抽出部54は、ログインの認証要求した通信端末10等、処理対象となる対象端末の端末IDを検索キーとして、図9に示すグループ管理テーブルを検索し、対象端末と通話することができる、すなわちセッションを確立することのできる宛先端末の候補(同じグループの通信端末10)の端末IDを読み出す機能部である。端末抽出部54は、図4に示すCPU301によるプログラムの実行によって実現される。
端末状態取得部55は、端末IDを検索キーとして、図8に示す端末管理テーブルを検索し、端末ID毎に稼動状態および通信状態を読み出す機能部である。これにより、端末状態取得部55は、ログインの認証要求をしてきた通信端末10と通話することができる宛先端末の候補の稼動状態および通信状態を取得することができる。端末状態取得部55は、図4に示すCPU301によるプログラムの実行によって実現される。
セッション制御部56は、図9に示すセッション管理テーブルに、生成したセッションID、開始要求端末の端末IDおよび宛先端末の端末IDを関連付けて記憶して管理する機能部である。セッション制御部56は、通信端末10間のセッションの確立をするための制御を行う。セッション制御部56は、図4に示すCPU301によるプログラムの実行によって実現される。
記憶・読出部57は、記憶部58に各種テーブルに情報を記憶したり、記憶部58に記憶された各種テーブルの情報を読み出す処理を行う機能部である。記憶・読出部57は、図4に示すCPU301によるプログラムの実行によって実現される。
顔検出部61は、通信部51で受信した映像データから、写り込んでいる参加者の顔画像を検出して、顔の特徴を数値化して特徴値(以下、顔検出情報と称する場合がある)として取得する機能部である。例えば、検出された顔の目、眉毛、鼻、口等の特徴を数値化して特徴値を求め、当該特徴値ごとに「M4」、「EL2」等のID(識別情報)が割り振られる。また、各顔の部分の位置を特徴点として求め、当該位置、および特徴点間の距離等も特徴値として顔検出情報に含まれる。また、顔検出部61は、映像データにおいて検出した参加者の顔の画像の中心座標を算出する。なお、顔検出部61は、参加者の顔画像を検出するものとしたが、これに限定されるものではなく、検出対象は、参加者の顔を含む上半身等、参加者を判別することが可能な部位であればよい。顔検出部61は、図4に示すCPU301によるプログラムの実行によって実現される。
比較部62は、記憶部58に記憶されている後述の顔・アバター・属性対応テーブル(図23参照)を参照し、顔検出部61により取得された顔検出情報が、顔・アバター・属性対応テーブルに登録されている顔認識情報と一致するか否か比較する機能部である。また、比較部62により、顔検出情報と、顔・アバター・属性対応テーブルの顔認識情報とが一致すると判断されるためには、必ずしも顔検出情報と顔認識情報とが完全に一致する必要はなく、一定程度近似する場合、一致すると判断されるものとしてもよい。比較部62は、図4に示すCPU301によるプログラムの実行によって実現される。
生成部63は、顔・アバター・属性対応テーブルにおいて、比較部62により顔検出情報と一致すると判断された顔認識情報に対応するアバター情報に基づいて、当該顔検出情報に対応する参加者を表すアバターを生成する機能部である。ここで、アバター情報とは、アバターを生成するために用いられる情報であり、例えば、人の顔画像に基づいてその人に似せたアバターを生成するための情報、または、当該顔画像の情報そのものであってもよい。または、アバター情報は、必ずしも参加者の顔であることが分かるようなアバターを生成するための情報である必要はなく、各参加者の代わりとなるアバター(例えば動物のアバター等)を生成するための情報であってもよい。または、アバター情報は、既存のいくつかのアバターを生成するための情報の中からどの情報を用いてアバターを生成するのかを示す種類情報であってもよい。生成部63は、図4に示すCPU301によるプログラムの実行によって実現される。
属性情報要求部64は、参加者に属性情報についての発話を要求するための指示を通信端末10へ送信する機能部である。ここで、属性情報とは、ビデオ会議の参加者が属する社名および所属、ならびに参加者の役職および名前等の参加者の属性を示す情報である。属性情報要求部64は、図4に示すCPU301によるプログラムの実行によって実現される。
対応付け部65は、通信部51を介して受信した参加者の音声の発話方向と、顔検出部61により検出された顔画像、すなわち参加者とを対応付ける機能部である。なお、対応付け部65による音声と、顔画像(すなわち参加者)とを対応付ける方法として、上記の動作に限定されるものではなく、例えば、通信部51を介して受信した音声データおよび映像データを用いて、映像データが示す参加者の口唇動作と、音声データの音声出力のタイミングとに基づいて、音声と参加者とを対応付けるものとしてもよい。対応付け部65は、図4に示すCPU301によるプログラムの実行によって実現される。
テキスト化部66は、通信部51を介して受信した音声データを、既知の音声認識技術によりテキスト化する機能部である。テキスト化部66は、図4に示すCPU301によるプログラムの実行によって実現される。
抽出部67は、テキスト化部66によりテキスト化されたテキストから、予め属性情報を示す候補として登録されている登録済みワードと一致するキーワードを抽出する機能部である。登録済みワードは、例えば記憶部58に予め記憶されているものとすればよい。なお、例えば、後述の図23の顔・アバター・属性対応テーブルに示すように、属性情報として社名、所属、役職、および名前が登録されるものとした場合、登録済みワードとしては、社名に関する登録済みワード、所属に関する登録済みワード、役職に関する登録済みワード、および名前に関する登録済みワードがそれぞれ用意にされているものとしてもよい。また、属性情報として扱う属性は、社名、所属、役職、および名前に限定されるものではなく、他の属性(例えば、役割、年齢等)が含まれるものとしてもよい。抽出部67は、図4に示すCPU301によるプログラムの実行によって実現される。
登録部68は、抽出部67により抽出されたキーワードを、テキスト化部66によりテキスト化された音声データに対応する参加者の属性情報として、顔・アバター・属性対応テーブルにおいて比較部62により顔認識情報と一致すると判断された参加者の顔検出情報に関連付けて登録する機能部である。登録部68は、図4に示すCPU301によるプログラムの実行によって実現される。
表示制御部69は、生成部63により生成されたアバターについて、当該アバターに対応する属性情報に基づいて表示制御を行う機能部である。具体的には、表示制御部69は、属性情報からビデオ会議の参加者のうち、同じ会社に所属する参加者のアバターを同列となるように配置し、役職の順序に並べた表示となるように、映像データを生成する。また、表示制御部69は、ビデオ会議の各拠点の参加者を同一の表示領域に表示させるようにしてもよく、参加者を拠点ごとに表示領域を分けて表示させるようにしてもよい。また、表示制御部69は、アバターを役職の順序に並べると共に、または、それに代えて、役職名をアバターの近傍に表示するものとしてもよい。この際、表示制御部69は、さらにアバターの近傍に名前、所属等を表示させるものとしてもよい。このように役職の順序に並べたり、役職名等を表示させることによって、自拠点以外の拠点の参加者(アバター)について、少なくともどの参加者がどの参加者よりも目上のものであるのか等の各参加者の立場を把握することができ、円滑に会議を進めることができる。
なお、表示制御部69は、属性情報に基づいてアバターの配置を変更して映像データを生成した場合、当該映像データの中で手前に配置されたアバターであるほど、対応する音声データの音圧レベルを上げる処理を施しててもよい。これによって、アバターを表示する映像データであっても、ビデオ会議の臨場感を高めることができる。
また、表示制御部69は、通信部51を介して通信端末10から音声データを受信すると共に、発話方向の情報を受信した場合、当該発話方向に対応するアバターが音声を発話している状態を示す映像データを生成する。これによって、参加者が相手拠点の参加者のアバターが表示されたディスプレイを見ている場合、その参加者(アバター)が発話しているのかを認識することができる。ここで、アバターが音声を発話している状態とは、例えば、口を有するアバターであれば音声データの出力に合わせて口を動かしているような状態、または、音声データの出力に合わせてアバターを上下に動かすことにより発話をしているように示した状態等が挙げられる。さらに、表示制御部69は、参加者が発話している場合だけでなく、参加者の表情、視線等をリアルタイムに、対応するアバターに反映するものとしてもよい。
また、表示制御部69は、映像データにアバターを含める場合、その背景の画像としては実画像の背景を用いてもよく、またはバーチャルな背景を用いるものとしてもよい。また、表示制御部69は、背景の画像として実画像の背景を用いる場合、アバターの表示のみを明確に表示させ、実画像の背景についてはぼかすものとしてもよい。このようにバーチャルな背景を表示させたり、実画像の背景をぼかす表示によって、ビデオ会議の参加者は、自身が居る会議室等の部屋の状態を気にすることなくビデオ会議に参加することができ、背景に社外秘の情報が含まれている場合でも当該情報の流出の防止を抑制することができる。
表示制御部69は、図4に示すCPU301によるプログラムの実行によって実現される。このように、表示制御部69により参加者の実画像の映像データではなく、アバターの映像データを用いることによって、実画像の場合と比べてより少ないフレームレートで転送することができるのでデータ通信量を低減することができ、ディスプレイへのスペック要求を下げることができる。
なお、上述の認証部52、状態管理部53、端末抽出部54、端末状態取得部55、セッション制御部56、顔検出部61、比較部62、生成部63、属性情報要求部64、対応付け部65、テキスト化部66、抽出部67、登録部68および表示制御部69のうち少なくともいずれかは、ASICまたはFPGA等のハードウェア回路によって実現されるものとしてもよい。
また、図6に示した管理システム50の各機能部は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、図6に示した管理システム50で独立した機能部として図示した複数の機能部を、1つの機能部として構成してもよい。一方、図6に示した管理システム50の1つ機能部が有する機能を複数に分割し、複数の機能部として構成するものとしてもよい。
また、図6に示した通信端末10が有する機能部は、例えば管理システム50で実現される場合があってもよく、管理システム50が有する機能部は、例えば通信端末10で実現する場合があったもよい。また、通信端末10および管理システム50が有する機能部は、通信端末10および管理システム50以外の装置が実現する場合があってもよい。例えば、アバター生成処理における管理システム50の顔検出部61による参加者の顔の検出、属性情報取得処理における管理システム50のテキスト化部66による音声データのテキスト化等は、管理システム50ではなく通信端末10が有する機能であってもよい。また、管理システム50の認証部52による認証処理は、通信端末10および管理システム50以外の他の装置が行うものとしてもよい。
(コンテンツデータおよび各種管理情報の送受信の状態)
図11は、実施形態に係る通信システムにおけるコンテンツデータおよび各種管理情報を送受信するために確立されたセッションを示す図である。図11を参照しながら、通信システム1におけるコンテンツデータおよび各種管理情報を送受信するために確立されたセッションについて説明する。
図11に示すように、通信システム1では、開始要求端末と宛先端末Aと宛先端末Bとの間で、管理システム50を介して、各種の管理情報を送受信するための管理情報用セッションseiが確立される。さらに、開始要求端末と宛先端末Aと宛先端末Bとの間で、管理システム50を介して、画像データおよび音声データ等を送受信するためのコンテンツデータ用セッションsedが確立される。すなわち、コンテンツデータ用セッションsedが、ビデオ会議において直接的に用いられるセッションである。なお、このセッションの概念はあくまで一例であって、例えば、画像データのセッションでは、解像度ごとに分けられるものとしてもよい。
(通信端末が通話開始する前の準備段階における各管理情報の送受信処理)
図12は、実施形態に係る通信システムにおける、通信端末が通話を開始するための認証処理を含む準備段階の処理の一例を示すシーケンス図である。図13は、宛先リストの表示例を示す図である。図12および図13を参照しながら、通信端末10aaが通話を開始する前の準備段階における各情報の送受信処理について説明する。なお、図12では、管理情報用セッションseiによって、各種管理情報が送受信される処理が示されている。
<ステップS21>
まず、通信端末10aaのユーザが、図2に示す入力装置108に対する操作により電源をオンにすると、通信端末10aaの操作入力受付部12が、電源オンを受け付けて、通信端末10aaの電源をオンにする。
<ステップS22>
そして、通信端末10aaの認証要求部19は、上述の通信端末10aaの電源オンを契機とし、通信部11から通信ネットワーク2を介して管理システム50に、ログインの認証要求を示す認証要求情報、および通信端末10aaのIPアドレスを送信する。この認証要求情報には、開始要求端末としての自端末である通信端末10aaを識別するための端末ID、通信端末10aaにログインしているユーザのユーザID、およびパスワードが含まれている。端末ID、ユーザIDおよびパスワードは、通信端末10aaの記憶・読出部17によって記憶部18から読み出されて、通信部11に送られたデータである。また、通信端末10aaから管理システム50へ認証要求情報が送信される際は、受信側である管理システム50は、送信側である通信端末10aaのIPアドレスを把握することができる。
<ステップS23>
次に、管理システム50の認証部52は、通信部51を介して受信した認証要求情報に含まれているユーザIDおよびパスワードを検索キーとして、認証管理テーブル(図7参照)を検索し、認証管理テーブルに同一のユーザIDおよびパスワードが管理されているかを判断することによってユーザ認証を行う。
<ステップS24−1>
認証部52によって、正当な利用権限を有する通信端末10からのログインの認証要求であると判断された場合には、管理システム50の状態管理部53は、端末管理テーブル(図8参照)に、通信端末10aaの端末IDおよび端末名で示されるレコード毎に、ユーザIDおよび通信端末10aaのIPアドレスを関連付けて記憶する。これにより、端末管理テーブルには、通信端末10aaの端末ID「10aa」に、ユーザID「A_10aa」およびIPアドレス「1.2.1.3」が関連付けて管理されることになる。
<ステップS24−2>
続いて、状態管理部53は、通信端末10aaの稼動状態「オンライン」および通信状態「None」を設定し、端末管理テーブルに、通信端末10aaの端末IDおよび端末名で示されるレコードに、稼動状態および通信状態を関連付けて記憶する。これにより、端末管理テーブルには、通信端末10aaの端末ID「10aa」に、稼動状態「オンライン」および通信状態「None」が関連付けて管理されることになる。
<ステップS25>
そして、管理システム50の通信部51は、認証部52によって得られたユーザ認証の結果が示された認証結果情報を、通信ネットワーク2を介して、認証要求情報を送信してきた開始要求端末(通信端末10aa)に送信する。本実施形態では、通信端末10aaが、認証部52によって正当な利用権限を有するユーザが利用する端末であるとユーザ認証されたものとして、以下続けて説明する。
<ステップS26>
通信端末10aaにおいて、正当な利用権限を有するユーザが利用する端末であるとユーザ認証された結果が示された認証結果情報を受信すると、通信部11は、通信ネットワーク2を介して管理システム50へ、宛先リストを要求する旨を示す宛先リスト要求情報を送信するこれにより、管理システム50の通信部51は、宛先リスト要求情報を受信する。
<ステップS27>
次に、管理システム50の端末抽出部54は、開始要求端末(通信端末10aa)の端末ID「10aa」を検索キーとして、グループ管理テーブル(図9参照)を検索し、開始要求端末が通話することができる、すなわち、開始要求端末と同じグループ(ここでは、グループID「G001」のグループ)に属する宛先端末の候補の端末IDを抽出する。また、端末抽出部54は、抽出した端末IDを検索キーとして、端末管理テーブルを検索し、この端末IDに対応する端末名、すなわち宛先端末の候補の端末名を抽出する。ここでは、開始要求端末(通信端末10aa)の端末ID「10aa」に対応する宛先端末の候補(通信端末10ab、10ac、10db)のそれぞれの端末ID(「10ab」、「10ac」、「10db」)と、これらに対応する端末名(「日本 東京事業所 AB端末」、「日本 東京事業所 AC端末」、「アメリカ ワシントン事業所 DB端末」)が抽出される。
<ステップS28、S29>
次に、管理システム50の通信部51は、端末抽出部54によって抽出された宛先端末の候補の端末IDおよび端末名を含む宛先リスト情報を、開始要求端末(通信端末10aa)に送信する。これにより、開始要求端末(通信端末10aa)では、通信部11が宛先リスト情報を受信し、記憶・読出部17が記憶部18へ宛先リスト情報を記憶する。
このように、本実施形態では、各通信端末10で宛先リスト情報を管理するのではなく、管理システム50がすべての通信端末10の宛先リスト情報を一元管理している。これによって、通信システム1に新たな通信端末10が含まれるようになったり、既に含まれている通信端末10が除外されたりする場合でも、管理システム50側で一括して対応するため、各通信端末10側で宛先リスト情報の変更を行う手間を省くことができる。
<ステップS30>
また、管理システム50の端末状態取得部55は、端末抽出部54によって抽出された宛先端末の候補の端末ID(「10ab」、「10ac」、「10db」)を検索キーとして、端末管理テーブルを検索する。そして、端末状態取得部55は、宛先端末の候補の端末ID毎に、対応する稼動状態および通信状態を読み出すことにより、宛先端末の候補(通信端末10ab、10ac、10db)それぞれの稼動状態および通信状態を取得する。
<ステップS31>
次に、通信部51は、ステップS30で使用された検索キーである端末IDと、対応する宛先端末の候補の稼動状態および通信状態とを含む状態情報を、通信ネットワーク2を介して開始要求端末に送信する。具体的には、通信部51は、例えば、検索キーとしての端末ID「10ab」と、宛先端末の候補(通信端末10ab)の稼動状態「オフライン」とを含む状態情報を、開始要求端末(通信端末10aa)に送信する。なお、稼動状態が「オフライン」の場合には、状態情報には、通信状態は含まれない。また、通信部51は、端末ID「10ac」と、宛先端末の候補(通信端末10ac)の稼動状態「オンライン」と、通信状態「None」とを含む状態情報等、宛先端末の候補すべてに対する状態情報それぞれを開始要求端末(通信端末10aa)へ送信する。
<ステップS32>
次に、開始要求端末(通信端末10aa)の記憶・読出部17は、順次、管理システム50から受信した状態情報を記憶部18に記憶する。したがって、開始要求端末(通信端末10aa)は、宛先端末の候補の状態情報を受信することで、通話することができる宛先端末の候補の現時点のそれぞれの稼動状態および通信状態を取得することができる。
<ステップS33>
次に、開始要求端末(通信端末10aa)の表示制御部14は、記憶部18に記憶されている宛先リスト情報、および宛先端末の候補の状態情報に基づいて、宛先端末の候補の稼動状態および通信状態を反映させた宛先リストを作成する。そして、表示制御部14は、図1に示すディスプレイ120aaに、所定のタイミングで図13に示すような宛先リストを表示する。
図13に示すように、ディスプレイ120aaに表示される宛先リストは、宛先端末の候補の端末ID1100−2と、端末名1100−3と、状態情報を反映させたアイコン1100−4a、1100−4b等を含む。アイコンとしては、オフラインで通話できないことを示すオフラインアイコン1100−4aと、オンラインで通話可能であることを示す通話可能アイコン1100−4bと、がある。なお、オンラインで通話中であることを示す通話中アイコン等があってもよい。
表示制御部14は、宛先端末の候補の稼動状態が「オンライン」であり、通信状態が「None」である場合には、この宛先端末の候補に対し、通話可能アイコン1100−4bを割り当てる。また、表示制御部14は、宛先端末の候補の稼動状態が「オフライン」である場合には、この宛先端末の候補に対し、オフラインアイコン1100−4aを割り当てる。なお、表示制御部14は、宛先端末の候補の稼動状態が「オンライン」であり、通信状態が「None」以外である場合には、この宛先端末の候補に対し、通話中アイコンを割り当てればよい。
なお、他の通信端末10でも、ステップS21と同様に、ユーザが図2に示す入力装置108を介して電源をオンにすると、当該通信端末10の操作入力受付部12が、電源オンを受け付けて、上述のステップS22〜S33の処理と同様の処理が行われる。
(通信端末が他の通信端末との通信の開始を要求する場合の処理)
図14は、実施形態に係る通信システムにおける通話の開始を要求する処理の一例を示すシーケンス図である。図14を参照しながら、通信端末10が他の通信端末10との通信の開始を要求する場合の処理を説明する。なお、図14では、すべて管理情報用セッションseiによって、各種管理情報が送受信される処理が示されている。
図14においては、図12においてログインが許可された通信端末10aaが、開始要求情報を送信する例、すなわち、通信端末10aaが開始要求端末として動作する例について説明する。開始要求端末としての通信端末10aaは、図12のステップS31で受信した宛先端末の候補の状態情報に基づいて、宛先端末の候補のうち、稼動状態が「オンライン」であり、通信状態が「None」である通信端末10のうち少なくとも1つの通信端末10と通話を行うことができる。例えば、開始要求端末(通信端末10aa)は、宛先端末の候補のうち、図12のステップS31によって受信した状態情報により、稼動状態が「オンライン」であり、通信状態が「None」である通信端末10dbと通話を行うことができる。そこで、以下では、開始要求端末(通信端末10aa)のユーザが、宛先端末(通信端末10db)と通話を開始することを選択した場合について説明する。
なお、図14に示す処理が開始される前の状態において、開始要求端末としての通信端末10aaのディスプレイ120aaには、図13に示す宛先リストが表示されているものとする。そして、開始要求端末のユーザは、宛先リストから所望の通話相手(宛先端末)を選択することができる。
<ステップS41>
まず、開始要求端末のユーザは、通信端末10aaの入力装置108を操作して宛先端末(通信端末10db)を選択する。
<ステップS42>
すると、通信端末10aaの通信部11は、開始要求端末(通信端末10aa)の端末ID「10aa」、および宛先端末(通信端末10db)の端末ID「10db」を含む開始要求情報を、開始要求端末のIPアドレスと共に管理システム50へ送信する。これにより、管理システム50の通信部51は、開始要求情報を受信すると共に、送信元である開始要求端末(通信端末10aa)のIPアドレス「1.2.1.3」を把握することになる。
<ステップS43>
そして、状態管理部53は、開始要求情報に含まれる開始要求端末(通信端末10aa)の端末ID「10aa」および宛先端末(通信端末10db)の端末ID「10db」に基づき、端末管理DB5002の端末管理テーブルにおいて、端末ID「10aa」および端末ID「10db」がそれぞれ含まれるレコードの通信状態のフィールド部分を変更する。具体的には、状態管理部53は、端末管理テーブルの端末ID「10aa」が含まれるレコードの通信状態を「Calling」に変更する。同様に、状態管理部53は、端末管理テーブルの端末ID「10db」が含まれるレコードの通信状態を「Ringing」に変更する。
<ステップS44>
そして、管理システム50のセッション制御部56は、開始要求端末(通信端末10aa)によって要求された宛先端末との間の通信を実行するためのセッション(コンテンツデータ用セッションsed)を識別するためのセッションID「se1」を生成する。セッション制御部56は、セッションIDを生成すると、セッションID「se1」をセッション管理テーブル(図10参照)に記憶する。
<ステップS45>
続いて、セッション制御部56は、セッション管理テーブルにおいて、セッションID「se1」が含まれるレコードの開始要求端末の端末IDおよび宛先端末の端末IDのフィールド部分に、それぞれ開始要求端末の端末ID「10aa」、宛先端末の端末ID「10db」を記憶して管理する。
<ステップS46>
次に、通信部51は、通信ネットワーク2を介して、開始要求端末(通信端末10aa)へ、セッション制御部56により生成されたセッションIDを送信する。
<ステップS47>
また、通信部51は、開始要求端末の端末ID「10aa」と、セッションID「se1」とを含む開始要求情報と、管理システム50のIPアドレスとを宛先端末へ送信する。これにより、宛先端末(通信端末10db)は、開始要求情報を受信すると共に、管理システム50のIPアドレス「1.1.1.2」を把握することになる。
(宛先端末が開始要求端末との間で通信開始を許可する応答を受け付けた場合の処理)
図15は、実施形態に係る通信システムにおける通話の開始の要求を許可する処理の一例を示すシーケンス図である。図16は、開始要求受付画面の表示例を示す図である。図15および図16を参照しながら、開始要求情報を受信した宛先端末のユーザが、入力装置108を操作することにより、開始要求端末との間の通信の開始(セッションの確立)を許可する旨の応答が受け付けられた場合の処理について説明する。
<ステップS51>
図15に示す送受信処理の開始時には、宛先端末(通信端末10db)のディスプレイ214には、開始要求情報を受信したことを示す開始要求受付画面1200−1(図16参照)が表示されている。
図16に示す開始要求受付画面1200−1は、開始要求情報を受信した旨を示し、開始要求端末との間の通信の開始(セッションの確立)を許可するか否かを指定するためのユーザインターフェースである。ユーザは、開始要求受付画面1200−1を閲覧することにより、開始要求を受信したことを確認することができる。開始要求受付画面1200−1は、セッションの確立を許可するための「はい」ボタン1200−2と、セッションの確立を許可しない選択をするための「いいえ」ボタン1200−3と、を含む。
<ステップS52>
宛先端末(通信端末10db)の入力装置108の操作によって「はい」ボタン1200−2が押下された場合、操作入力受付部12は、開始要求端末(通信端末10aa)との間の通信の開始(セッション確立)を許可する旨の応答を受け付ける。
<ステップS53>
次に、宛先端末の通信部11は、宛先端末の端末ID「10db」、開始要求端末の端末ID「10aa」、およびセッションID「se1」が含まれる開始応答情報を、管理システム50へ送信する。
<ステップS54>
管理システム50の通信部51が開始応答情報を受信すると、状態管理部53は、開始応答情報に含まれる開始要求端末の端末ID「10aa」および宛先端末の端末ID「10db」に基づき、端末管理テーブルにおいて、端末ID「10aa」および端末ID「10db」がそれぞれ含まれるレコードの通信状態のフィールド部分を変更する。具体的には、状態管理部53は、端末管理テーブルの端末ID「10aa」が含まれるレコードの通信状態を「Accepted」に変更する。同様に、状態管理部53は、端末管理テーブルの端末ID「10db」が含まれるレコードの通信状態も「Accepted」に変更する。
<ステップS55>
次に、通信部51は、宛先端末(通信端末10db)の端末ID「10db」、およびセッションID「se1」が含まれる開始応答情報を開始要求端末(通信端末10aa)へ送信する。
<ステップS56>
開始要求端末は、この開始応答情報を受信すると、通信部11によってセッションID「se1」を管理システム50に送信することにより、セッションを確立させる。
<ステップS57>
一方、宛先端末は、通信部11によってセッションID「se1」を管理システム50に送信することにより、セッションを確立させる。
なお、上述の図12における同じグループの通信端末10を識別する端末IDを抽出する動作、ならびに図14および図15に示す通信端末10aaと通信端末10dbとの間でセッションを確立させるための動作においては、端末IDを利用した動作ではなく、各通信端末にログインしているユーザのユーザID(例えばメールアドレス等)を利用した動作であってもよい。
(アバター生成処理)
図17は、実施形態に係る通信システムのアバター生成処理の流れの一例を示すフローチャートである。図18および図19は、アバターの表示動作を説明する図である。図17〜図19を参照しながら、管理システム50においてビデオ会議に参加する参加者のアバターを生成する処理の流れについて説明する。
<ステップS61>
管理システム50の顔検出部61は、通信部51により受信されたビデオ会議に参加する各通信端末10から受信した映像データから、写り込んでいる参加者の顔画像を検出して、顔の特徴を数値化した特徴値を顔検出情報として取得する。そして、顔検出部61は、映像データにおいて検出した参加者の顔の画像の中心座標を算出する。そして、ステップS62へ移行する。
<ステップS62>
管理システム50の比較部62は、記憶部58に記憶されている後述の顔・アバター・属性対応テーブル(後述する図23参照)を参照し、顔検出部61により取得された顔検出情報が、顔・アバター・属性対応テーブルに登録されている顔認識情報と一致するか否か比較する。そして、ステップS63へ移行する。
<ステップS63>
比較部62による顔検出情報と顔認識情報との比較の結果、一致する場合(ステップS63:Yes)、ステップS65へ移行し、一致しない場合(ステップS63:No)、ステップS64へ移行する。
<ステップS64>
比較部62は、顔・アバター・属性対応テーブルにおいて、顔検出部61により取得された顔検出情報と一致する顔認識情報が存在しない場合、当該顔検出情報を新しい顔認識情報として、顔・アバター・属性対応テーブルに登録する。この時点では、顔・アバター・属性対応テーブルにおいて、新たに登録された顔認識情報のレコードには、対応する(関連付けられた)アバター情報および属性情報は登録されていない状態となる。そして、ステップS65へ移行する。
<ステップS65>
管理システム50の生成部63は、顔・アバター・属性対応テーブルにおいて、顔検出部61により検出された顔検出情報と一致する顔認識情報(ステップS64で新たに顔認識情報として登録された場合は、当該顔認識情報)に関連付けられたアバター情報が登録されているか否か検索する。関連付けられたアバター情報が登録されている場合(ステップS65:Yes)、ステップS66へ移行し、登録されていない場合(ステップS65:No)、ステップS67へ移行する。
<ステップS66>
生成部63は、顔・アバター・属性対応テーブルから、比較部62により顔検出情報と一致すると判断された顔認識情報に対応するアバター情報を取得し、当該アバター情報に基づいて、当該顔認識情報に対応する参加者を表すアバターを生成する。そして、管理システム50の表示制御部69は、生成部63により生成されたアバター(参加者の情報の一例)について、当該アバターに対応する属性情報に基づいて表示制御を行う。
例えば、図18(a)に示すように、拠点aでは、通信端末10aを用いてビデオ会議に参加する参加者A〜Dがいて、拠点bでは、通信端末10bを用いてビデオ会議に参加する参加者E、Fがいるものとした場合、表示制御部69は、通信端末10a、10bに対して、図18(b)に示すように、ビデオ会議に参加している各拠点の参加者全員(アバター)が同一の場所にいるような映像データを生成して送信するものとしてもよい。または、図19(a)および図19(b)に示すように、表示制御部69は、生成部63により生成されたアバターについて、自拠点以外の拠点の参加者(アバター)のみを映すような映像データを生成して、通信端末10a、10bに対して送信するものとしてもよい。図19(b)に示す例では、表示制御部69は、拠点bの通信端末10bのディスプレイ214に映す映像データとして、自拠点(ここでは拠点b)以外の拠点(ここでは拠点a)の参加者A〜Dのみを映すような映像データを生成するものとしてもよい。
また、表示制御部69は、参加者の属性情報が顔・アバター・属性対応テーブルに登録されている場合、当該属性情報を参照して、ビデオ会議の参加者のうち同じ会社に所属する参加者のアバターを同列となるように配置し、役職の順序に並べた表示となるように、映像データを生成して送信するものとしてもよい。また、表示制御部69は、アバターを役職の順序に並べると共に、または、それに代えて、役職名をアバターの近傍に表示するものとしてもよい。この際、表示制御部69は、さらにアバターの近傍に名前、所属等を表示させるものとしてもよい。このように役職の順序に並べたり、役職名等を表示させることによって、自拠点以外の拠点の参加者(アバター)について、少なくともどの参加者がどの参加者よりも目上のものであるのか等の各参加者の立場を把握することができ、円滑に会議を進めることができる。なお、ここで、顔・アバター・属性対応テーブルに、参加者に対応する属性情報が登録されていない場合、図21で後述する属性情報取得処理が実行される。
また、表示制御部69は、映像データにアバターを含める場合、その背景の画像としては実画像の背景を用いてもよく、またはバーチャルな背景を用いるものとしてもよい。また、表示制御部69は、背景の画像として実画像の背景を用いる場合、アバターの表示のみを明確に表示させ、実画像の背景についてはぼかすものとしてもよい。このようにバーチャルな背景を表示させたり、実画像の背景をぼかす表示によって、ビデオ会議の参加者は、自身が居る会議室等の部屋の状態を気にすることなくビデオ会議に参加することができ、背景に社外秘の情報が含まれている場合でも当該情報の流出の防止を抑制することができる。
<ステップS67>
顔・アバター・属性対応テーブルにおいて、顔検出部61により検出された顔検出情報と一致する顔認識情報(ステップS64で新たに顔認識情報として登録された場合は、当該顔認識情報)に関連付けられたアバター情報が登録されていない場合、生成部63は、新たにアバター情報を生成する。例えば、記憶部58にデフォルトのアバター情報が記憶されているものとし、生成部63は、新たなアバター情報として、デフォルトのアバター情報を用いるものとしてもよい。そして、生成部63は、新たに生成したアバター情報に基づいて、顔認識情報に対応する参加者を表すアバターを生成する。そして、生成部63は、顔・アバター・属性対応テーブルにおいて、生成した新たなアバター情報を、当該顔認識情報に関連付けて登録する。表示制御部69によるアバターの表示制御は、上述のステップS66で説明した動作と同様である。
以上のステップS61〜S67の流れにより、管理システム50によるアバター生成処理が実行される。
(発話方向特定処理)
図20は、実施形態に係る通信端末の音声方向特定処理の流れの一例を示すフローチャートである。図20を参照しながら、通信端末10における発話方向特定処理の流れについて説明すする。
<ステップS71>
ビデオ会議の参加者は、他拠点の参加者とコミュニケーションを取るために発話する。そして、ステップS72へ移行する。
<ステップS72>
すると、発話した参加者が利用する通信端末10のマイク114a(マイク241)は、マイクロホンアレイにより発話した音声を収音して音声信号に変換し、通信端末10の音声入力部15は、当該音声信号を入力(取得)する。そして、ステップS73へ移行する。
<ステップS73>
通信端末10の発話方向特定部20は、音声入力部15により入力された音声信号に対して音声処理を行うことにより、音声の発話方向を特定する。そして、ステップS74へ移行する。
<ステップS74>
通信端末10の通信部11は、音声入力部15により入力された音声データ(音声信号)、撮像部13により撮影された映像データ、および発話方向特定部20により特定された発話方向の情報を、管理システム50へ送信する。そして、発話方向特定処理を終了する。
以上のステップS71〜S74の流れで、通信端末10による発話方向特定処理が実行される。
(属性情報取得処理)
図21は、実施形態に係る通信システムの属性情報取得処理の流れの一例を示すフローチャートである。図22は、属性情報の取得動作を説明する図である。図23は、顔・アバター・属性対応テーブルの一例を示す図である。図21〜図23を参照しながら、通信システム1による属性情報取得処理の流れについて説明する。なお、ビデオ会議が開始され、上述の図17で説明したように、管理システム50の表示制御部69がアバターを表示する場合に用いる参加者の属性情報が、顔・アバター・属性対応テーブルに登録されていないため、属性情報要求部64によって、属性情報が登録されていない参加者の拠点の通信端末10へ、属性情報についての発話を要求するための指示を送信したものとする。この場合、通信端末10の表示制御部14は、通信部11を介して当該指示を受信すると、例えば、ディスプレイ120(ディスプレイ214)に、属性情報の発話を促すメッセージを表示させる。なお、属性情報の発話を促すメッセージの表示のほか、例えば、通信端末10の音声出力部16は、属性情報の発話を促す音声を、スピーカ114b(スピーカ242)から出力させてもよい。
<ステップS81>
通信端末10のディスプレイ120(ディスプレイ214)に表示された属性情報の発話を促すメッセージを確認したビデオ会議の参加者は、自身の名前、属する会社の社名、所属および役職等の属性情報を発話する。図22に示す例では、拠点bの参加者E、Fに対して、属性情報の発話を促すようなメッセージが表示された場合、参加者Eは、自身の属性情報を含む「AAA社、技術のBBBです。」と発話し、参加者Fは、自身の属性情報を含む「XXX社、部長のYYYです。」と発話している状態を示す。図22の例では、拠点bの参加者が発話している状態を示しているが、上述の管理システム50のアバター生成処理の際に、拠点aの参加者の属性情報が顔・アバター・属性対応テーブルに登録されていないことが確認された場合、管理システム50から拠点aの通信端末10に対しても、属性情報についての発話を要求するための指示が送信される。通信端末10の音声入力部15は、マイク114a(マイク241)により収音された参加者が発話した音声の音声データを入力(取得)する。また、通信端末10の発話方向特定部20は、音声入力部15により入力された音声データに基づいて、音声方向(発話方向)を特定する。そして、通信端末10の通信部11は、音声入力部15により入力された音声データ、および発話方向特定部20により特定された発話方向の情報を、管理システム50へ送信する。管理システム50の通信部51は、通信端末10から送信された音声データおよび発話方向の情報を受信する。そして、ステップS82へ移行する。
<ステップS82>
管理システム50のテキスト化部66は、通信部51により受信された音声データを、既知の音声認識技術によりテキスト化する。そして、ステップS83へ移行する。
<ステップS83>
管理システム50の抽出部67は、テキスト化部66によりテキスト化されたテキストと、予め属性情報を示す候補として記憶部58に登録されている登録済みワードとを比較する。そして、ステップS84へ移行する。
<ステップS84>
抽出部67によるテキストと登録済みワードとの比較の結果、一致するキーワードがある(ステップS84:Yes)、ステップS85へ移行し、一致するキーワードがない(ステップS84:No)、ステップS87へ移行する。
<ステップS85>
抽出部67は、テキスト化部66によりテキスト化されたテキストと、登録済みワードとの比較の結果、当該テキストに登録済みワードと一致するキーワードがある場合、当該キーワードを抽出する。例えば、図23に示す顔・アバター・属性対応テーブルのように属性情報として、社名、所属、役職、および名前のような属性がある場合、抽出部67は、テキストから、各属性に対応するキーワードを抽出する。そして、ステップS86へ移行する。
<ステップS86>
管理システム50の登録部68は、抽出部67により抽出されたキーワードを、テキスト化部66によりテキスト化された音声データに対応する参加者の属性情報として、顔・アバター・属性対応テーブルにおいて、比較部62により顔認識情報と一致すると判断された参加者の顔検出情報であって、発話方向に対応する参加者の顔検出情報に関連付けて登録する。例えば、図23に示す顔・アバター・属性対応テーブルでは、顔認識情報が「XXX」(M4)、および「YYY」(EL2)である参加者の属性情報として、社名「AAA」、所属「BBB」、役職「CCC」、および名前「DDD」が登録されている。そして、属性情報取得処理を終了する。
<ステップS87>
テキスト化部66によりテキスト化されたテキストと、登録済みワードとの比較の結果、当該テキストに登録済みワードと一致するキーワードがないため、管理システム50の属性情報要求部64は、属性情報が登録されていない参加者に対して、属性情報の発話を要求するための指示を、通信部51を介して通信端末10へ送信する。そして、通信端末10の表示制御部14は、通信部11を介して当該指示を受信すると、例えば、ディスプレイ120(ディスプレイ214)に、属性情報の発話を促すメッセージを表示させる。そして、ステップS81へ戻る。
以上のステップS81〜S87の流れで、通信システム1による属性情報取得処理が実行される。
(アバター制御処理)
図24は、実施形態に係る通信システムのアバター制御処理の流れの一例を示すフローチャートである。図25は、属性情報に基づいてアバターの配置を変更する動作を説明する図である。図26は、発話方向と発話者との対応を説明する説明する図である。図27は、発話者・発話方向対応テーブルの一例を示す図である。図24〜図27を参照しながら、通信システム1によるアバター制御処理の流れについて説明する。
<ステップS91>
図17に示したアバター生成処理が実行されると、管理システム50の生成部63により生成されたアバターは、表示制御部69により、当該アバターに対応する属性情報に基づいて表示制御が行われ、映像データが生成される。表示制御部69による表示制御の詳細は、図17のステップS66で説明したとおりである。ここでは、自拠点の通信端末10が、相手拠点の参加者について生成されたアバターについて表示制御された映像データを管理システム50から受信し、当該映像データをディスプレイ120(ディスプレイ214)に表示させているものとする。
例えば、図25(a)に示すように、拠点aの参加者をA社の課長、拠点bの参加者をB社の部長およびB社の課長、拠点cの参加者をA社の担当者およびB社の担当者とした場合、拠点aの通信端末10におけるディスプレイ120(ディスプレイ214)には、例えば図25(b)に示すように映像データが表示される。すなわち、図25(b)に示す映像データは、表示制御部69によって、各拠点(ここでは相手拠点となる拠点b、c)の参加者が同一の場所にいるようにし、同じ会社に所属する参加者(B社の部長、課長および担当者)を同列、かつ役職の順序に並べた状態となるように表示制御されたものである。
そして、ステップS92へ移行する。
<ステップS92>
相手拠点の参加者が発話すると、相手拠点の通信端末10の通信部11は、音声入力部15により入力された音声データ、撮像部13により撮影された映像データ、および発話方向特定部20により特定された発話方向の情報を、管理システム50へ送信する。管理システム50の通信部51は、相手拠点の音声データ、映像データおよび発話方向の情報を、相手拠点の通信端末10から受信する。そして、ステップS93へ移行する。
<ステップS93>
管理システム50の対応付け部65は、通信部51を介して受信した参加者の音声の発話方向と、顔検出部61により検出された顔画像、すなわち参加者とを対応付ける。具体的には、対応付け部65は、予め記憶部58に記憶されている図27に示すような座標(顔中心座標)と、発話方向とを対応付けた発話者・発話方向対応テーブルを参照し、通信部51により受信された発話方向が、どの座標(顔中心座標)に対応するのかを特定する。ここで、例えば、図26に示すように、相手拠点の参加者がA〜Dである場合、顔検出部61により参加者A〜Dの顔の画像の中心座標はそれぞれ算出されている。そして、対応付け部65は、顔検出部61により算出された相手拠点の参加者の顔画像の中心座標のうち、特定した座標と一致する(または一致するとみなせる)中心座標を特定し、当該中心座標を有する顔画像に対応する参加者のアバターを特定する。そして、ステップS94へ移行する。
<ステップS94>
管理システム50の表示制御部69は、対応付け部65により特定された参加者のアバターが、通信部51により受信された音声データに合わせて、音声を発話している動作となるように反映した映像データを生成する。具体的に反映動作は、上述したとおりである。そして、管理システム50の通信部51は、相手拠点の通信端末10から受信した音声データ、および表示制御部69により生成された映像データを、自拠点の通信端末10へ送信する。自拠点の通信端末10の表示制御部14は、管理システム50から通信部11を介して音声データおよび映像データを受信すると、ディスプレイ120(ディスプレイ214)に当該映像データを表示させ、音声出力部16は、当該音声データを音声として出力する。
以上のステップS91〜S94の流れで、通信システム1によるアバター制御処理が実行される。このように、相手拠点の参加者が発話すると、発話方向が特定され、当該発話方向からどの参加者が発話しているのかが特定されるので、当該参加者のアバターに対して、発話動作を反映することができる。これによって、相手拠点のアバターを含む映像データを見ている自拠点の参加者は、アバターを介してどの参加者が発話しているのかを認識することができるので、アバターを介したビデオ会議においても、スムーズなコミュニケーションを実現することができる。
(通信システムの全体動作)
図28は、実施形態に係る通信システムの全体動作の流れの一例を示すシーケンス図である。図29は、音声認識による属性情報の取得を促す画面の一例を示す図である。図28および図29を参照しながら、通信システム1の全体的な動作の流れについて総括的に説明する。なお、図28においては、自拠点の通信端末を通信端末10a(第2通信端末)とし、相手拠点の通信端末を通信端末10b(第1通信端末)として説明する。
<ステップS101、S102>
自拠点の参加者は、相手拠点の参加者とのビデオ会議を開始するために、通信端末10aの入力装置108を介して、開始するための操作(例えば、通信端末10bを宛先端末として選択する操作)を行う。これによって、上述の図14および図15に示した動作が実行され、通信端末10aと通信端末10bとの間でセッションが確立される。
<ステップS103>
セッションの確立後、通信端末10aの通信部11が、音声入力部15により入力された音声データ、および撮像部13により撮影された映像データを、管理システム50へ送信したものとする。
<ステップS104>
管理システム50は、通信端末10aから音声データおよび映像データを受信すると、図17に示したアバター生成処理を実行する。これによって、相手拠点の通信端末10bのディスプレイ120(ディスプレイ214)には、自拠点の参加者をアバターとして示す映像データが表示される。
<ステップS105>
ステップS104のアバター生成処理において、自拠点の参加者のうち少なくともいずれかの参加者の属性情報が顔・アバター・属性対応テーブルに登録されていない場合、管理システム50の属性情報要求部64は、属性情報が登録されていない参加者に対して、属性情報の発話を要求するための指示を、通信部51を介して通信端末10aへ送信する。
<ステップS106>
通信端末10aの表示制御部14は、通信部11を介して当該指示を受信すると、例えば、ディスプレイ120(ディスプレイ214)に、属性情報の発話を促すメッセージを表示させる。例えば、図29では、通信端末10aのディスプレイ214に、属性情報を促すメッセージとして「自己紹介をしてください。会社・所属・役職・名前」のように表示された例を示している。
<ステップS107>
通信端末10aのディスプレイ120(ディスプレイ214)に表示された属性情報の発話を促すメッセージを確認したビデオ会議の参加者は、自身の名前、属する会社の社名、所属および役職等の属性情報を自己紹介として発話する。すると、発話した参加者が利用する通信端末10aのマイク114a(マイク241)は、マイクロホンアレイにより発話した音声を収音して音声信号に変換し、通信端末10aの音声入力部15は、当該音声信号を入力(取得)する。
<ステップS108、S109>
通信端末10aの発話方向特定部20は、音声入力部15により入力された音声信号に対して音声処理を行うことにより、音声の発話方向を特定する。通信端末10の通信部11は、音声入力部15により入力された音声データ(音声信号)、撮像部13により撮影された映像データ、および発話方向特定部20により特定された発話方向の情報を、管理システム50へ送信する。なお、ステップS109で発話方向の情報が管理システム50へ送信されることに限られず、ビデオ会議のコミュニケーションにおいて発話される度に、通信端末10aにおいて発話方向が特定され、当該発話方向の情報が相手拠点の通信端末10bへ送信される。
<ステップS110>
管理システム50により通信端末10aから音声データ、映像データおよび発話方向の情報が受信されると、図21に示した属性情報取得処理が実行される。これによって、自拠点の参加者の属性情報が、顔・アバター・属性対応テーブルに登録される。
<ステップS111、S112>
そして、アバター生成処理の実行によりアバターが生成され、属性情報取得処理により自拠点の参加者の属性情報が登録されると、アバターと属性情報との対応関係が確立し、通信端末10aから管理システム50へ音声データ、映像データおよび発話方向の情報が送信されると、図24に示したアバター制御処理が実行され、音声を発話している動作が反映したアバターの映像データが、通信端末10bへ送信される。
以上のステップS101〜S112の流れによって、通信システム1の全体的な動作が行われる。
以上のように、本実施形態に係る通信システム1では、ビデオ会議を開始時に参加者の属性情報が登録されていない場合、管理システム50から、参加者が用いる通信端末10に対して、属性情報の発話を要求するための指示を送信し、通信端末10は、属性情報の発話を促す動作(例えばメッセージ表示または音声出力等)を行う。そして、管理システム50は、通信端末10において入力された音声データをテキスト化して、登録済みワードと一致するキーワードを抽出して、発話した参加者の属性情報として登録するものとしている。これによって、ビデオ会議の開始前に属性情報が登録されていなくても、属性情報を取得することができるので、当該属性情報に基づいて参加者の情報(例えばアバター、実画像)に対する表示制御を行うことができる。また、このように、属性情報に基づいて参加者の情報に対する表示制御を行うことによって、参加者の立場等を把握することができ、円滑に会議を進めることができる。なお、属性情報に基づいた参加者の情報に対する表示制御としては、参加者を示すものとしてアバターを表示させることが必ずしも必須ではなく、例えば、参加者の実画像(参加者の情報の一例)の近傍に、属性情報を表示させる等の制御を行うものとしてもよい。
また、本実施形態に係る通信システム1では、管理システム50は、通信端末10で撮影された映像データから参加者の顔を検出し、検出した顔検出情報と一致する、登録済みの顔認識情報に対応するアバター情報から、当該参加者を示すアバターを生成している。このように参加者を示すアバターの映像データを用いることによって、実画像の場合と比べてより少ないフレームレートで転送することができるのでデータ通信量を低減することができ、ディスプレイへのスペック要求を下げることができる。
また、本実施形態に係る通信システム1では、各拠点の通信端末10において発話した参加者の発話方向を特定し、管理システム50で検出した参加者の顔画像と、当該発話方向とを対応付けることで、発話をした参加者のアバターを特定する。そして、管理システム50は、発話の音声データに合わせて、アバターが音声を発話している動作となるように反映した映像データを生成し、相手拠点の通信端末10へ送信する。これによって、自拠点のアバターを含む映像データを見た相手拠点の参加者は、アバターを介してどの参加者が発話しているのかを認識することができるので、アバターを介したビデオ会議においても、スムーズなコミュニケーションを実現することができる。
なお、ビデオ会議中に、参加者がその拠点である会議室の中で席を移動する可能性もあり、この場合には参加者の発話方向も変わることになる。この場合、例えば、顔検出部61による参加者の顔の検出、および検出した顔の画像の中心座標の算出の処理を、一定期間ごとに実行、または、映像データから参加者の移動を検出した場合に実行する等によって対応することができる。これによって、上述のアバター制御処理の中で、対応付け部65は、発話者・発話方向対応テーブルを参照し、変化した発話方向が、どの座標(顔中心座標)に対応するのかを特定することができ、当該中心座標を有する顔画像に対応する参加者のアバターを特定することができる。
また、上述の実施形態に係る通信端末10のソフトウェア構成は、上述の図5に示した構成に限定されるものではなく、例えば、図30に示す構成であってもよい。図30は、実施形態に係る通信端末のWebアプリを利用する場合のソフトウェア構成の一例を示す図である。上述の図5では、通信端末10で通信アプリAが実行される動作を説明したが、同様の処理をWebアプリによっても実現できる。Webアプリは、ブラウザ上で動作する、例えばJavaScript(登録商標)によるプログラムとWebサーバ側のプログラムとが協調することによって動作し、ユーザはそれをブラウザ上で使用する。すなわち、図30に示すように、通信端末10は管理システム50から、プログラムWA(HTML(HyperText Markup Language)+JavaScript(登録商標)+CSS等)をダウンロードして、ブラウザ1040上で実行する。当該ブラウザ1040は、OS1020の制御に従って動作する。通信端末10は、HTTP(Hypertext Transfer Protocol)またはHTTPS(Hypertext Transfer Protocol Secure)等のプロトコルを用いて管理システム50とデータを送受信することによって、管理システム50が提供しているサービスを利用できる。このような利用形態では、予め通信端末10に通信アプリAをダウンロードしておく必要がない。
また、上述の実施形態の各機能は、一または複数の処理回路によって実現することが可能である。ここで、「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上述した各機能を実行するよう設計されたASIC、DSP(Digital Signal Processor)、FPGA、SoC(System on a chip)、GPU(Graphics Processing Unit)や従来の回路モジュール等のデバイスを含むものとする。
また、上述の実施形態において、通信端末10および管理システム50の各機能部の少なくともいずれかがプログラムの実行によって実現される場合、そのプログラムは、ROM等に予め組み込まれて提供される。また、上述の実施形態に係る通信端末10および管理システム50で実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM(Compact Disc Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk−Recordable)、DVDまたはSDカード等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。また、上述の実施形態に係る通信端末10および管理システム50で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、上述の実施形態に係る通信端末10および管理システム50で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するように構成してもよい。また、上述の実施形態に係る通信端末10および管理システム50で実行されるプログラムは、上述した各機能部のうち少なくともいずれかを含むモジュール構成となっており、実際のハードウェアとしてはCPUが上述の記憶装置からプログラムを読み出して実行することにより、上述の各機能部が主記憶装置上にロードされて生成されるようになっている。
1 通信システム
2 通信ネットワーク
2a〜2d LAN
2ab、2cd 専用線
2i インターネット
10、10a、10aa、10ab、10b、10ba、10bb、10ca、10cb、10da、10db 通信端末
11 通信部
12 操作入力受付部
13 撮像部
14 表示制御部
15 音声入力部
16 音声出力部
17 記憶・読出部
18 記憶部
19 認証要求部
20 発話方向特定部
30ab、30cb PC
50 管理システム
51 通信部
52 認証部
53 状態管理部
54 端末抽出部
55 端末状態取得部
56 セッション制御部
57 記憶・読出部
58 記憶部
61 顔検出部
62 比較部
63 生成部
64 属性情報要求部
65 対応付け部
66 テキスト化部
67 抽出部
68 登録部
69 表示制御部
70a〜70d、70ab、70cd ルータ
90 プログラム提供システム
101 CPU
102 ROM
103 RAM
105 補助記憶装置
106 メディア
107 メディアドライブ
108 入力装置
110 バスライン
111 ネットワークI/F
112 カメラ
112c ケーブル
113 撮像素子I/F
114 スマートスピーカ
114a マイク
114b スピーカ
114c ケーブル
115 スピーカ
115c ケーブル
116 音声入出力I/F
117 USB I/F
119 ディスプレイI/F
120aa、120ba、120ca、120da ディスプレイ
120c ケーブル
201 CPU
202 ROM
203 RAM
204 SSD
205 ネットワークI/F
206 外部機器接続I/F
210 バスライン
211 キャプチャデバイス
212 GPU
213 ディスプレイコントローラ
214 ディスプレイ
215 センサコントローラ
216 接触センサ
217 電子ペンコントローラ
222 電源スイッチ
223 選択スイッチ
230 USBメモリ
240 スマートスピーカ
241 マイク
242 スピーカ
260 カメラ
270 PC
290 電子ペン
301 CPU
302 ROM
303 RAM
305 補助記憶装置
306 記録メディア
307 メディアドライブ
308 ディスプレイ
309 ネットワークI/F
310 バスライン
311 キーボード
312 マウス
313 DVD
314 DVDドライブ
315 USB I/F
1010 作業領域
1020 OS
1040 ブラウザ
1100−2 端末ID
1100−3 端末名
1100−4a オフラインアイコン
1100−4b 通話可能アイコン
1200−1 開始要求受付画面
1200−2 「はい」ボタン
1200−3 「いいえ」ボタン
5001 認証管理DB
5002 端末管理DB
5003 グループ管理DB
5004 セッション管理DB
A 通信アプリ
WA プログラム
特開2010−093583号公報

Claims (14)

  1. 複数の通信端末がネットワークを介して音声データを送受信することによりビデオ会議が可能な通信システムであって、
    前記ビデオ会議の1以上の参加者を撮影した映像データを得る撮像部と、
    前記撮像部により得られた前記映像データから前記参加者を検出する検出部と、
    前記参加者が発話した音声データを入力する音声入力部と、
    前記音声入力部により入力された前記音声データから、前記参加者の属性情報を抽出する抽出部と、
    前記抽出部により抽出された前記属性情報に基づいて、前記検出部により検出された前記参加者の情報について、第1通信端末での表示制御を行う第1制御部と、
    を有する通信システム。
  2. 前記第1通信端末と前記ネットワークを介して通信する第2通信端末を利用する参加者に対して前記属性情報の発話を要求する指示を、前記第2通信端末へ送信する要求部と、
    前記要求部から受信した前記指示に従って、前記第2通信端末において、該第2通信端末を利用する参加者に対して前記属性情報の発話を促す処理を行う第2制御部と、
    をさらに有する請求項1に記載の通信システム。
  3. 前記第2制御部は、前記第2通信端末を利用する参加者に対して、前記指示を示すメッセージを該第2通信端末の表示装置に表示させる請求項2に記載の通信システム。
  4. 前記第2制御部は、前記第2通信端末を利用する参加者に対して、前記指示を示す音声を該第2通信端末の出力装置から出力させる請求項2に記載の通信システム。
  5. 前記検出部により検出された参加者を表すアバターを生成する生成部を、さらに有し、
    前記第1制御部は、前記検出部により検出された前記参加者の情報として、前記生成部により生成された該参加者に対応するアバターについて、前記第1通信端末での表示制御を行う請求項1〜4のいずれか一項に記載の通信システム。
  6. 前記第1制御部は、前記属性情報に基づいて、該属性情報に対応するアバターの配置を変える請求項5に記載の通信システム。
  7. 前記第1制御部は、前記第1通信端末で表示されているアバターのうち、手前に配置されたアバターであるほど該アバターに対応する参加者の前記音声データの音圧レベルを上げて、該第1通信端末の出力装置から出力させる請求項6に記載の通信システム。
  8. 前記第1制御部は、前記属性情報を、該属性情報に対応するアバターの近傍に表示させる請求項5に記載の通信システム。
  9. 前記音声入力部により入力された前記音声データに基づいて、該音声データの音声を発話した前記参加者の発話方向を特定する第1特定部と、
    前記検出部により検出された前記参加者の前記映像データ上の位置に基づいて、前記検出部により検出された前記参加者のうち、前記発話方向に対応する参加者を特定する第2特定部と、
    をさらに有し、
    前記第1制御部は、前記第2特定部により特定された参加者のアバターについて、前記音声データに合わせて、該音声データの音声を発話していることを示すように表示制御を行う請求項5〜8のいずれか一項に記載の通信システム。
  10. 前記第1制御部は、前記検出部により検出された前記参加者の情報を、該参加者の拠点ごとに分けて、前記第1通信端末で表示させる請求項1〜9のいずれか一項に記載の通信システム。
  11. 前記第1制御部は、前記検出部により検出された前記参加者の情報を、同一の拠点にいるように前記第1通信端末で表示させる請求項1〜9のいずれか一項に記載の通信システム。
  12. ビデオ会議を行う複数の通信端末の間で音声データの送受信を中継する情報処理装置であって、
    前記ビデオ会議の1以上の参加者を撮影した映像データを得た撮像部により得られた該映像データから前記参加者を検出する検出部と、
    前記参加者が発話した音声データを入力した音声入力部により入力された該音声データから、前記参加者の属性情報を抽出する抽出部と、
    前記抽出部により抽出された前記属性情報に基づいて、前記検出部により検出された前記参加者の情報について、通信端末での表示制御を行う制御部と、
    を有する情報処理装置。
  13. 複数の通信端末がネットワークを介して音声データを送受信することによりビデオ会議を実現する通信方法であって、
    前記ビデオ会議の1以上の参加者を撮影した映像データを得る撮像ステップと、
    前記映像データから前記参加者を検出する検出ステップと、
    前記参加者が発話した音声データを入力する音声入力ステップと、
    入力した前記音声データから、前記参加者の属性情報を抽出する抽出ステップと、
    抽出した前記属性情報に基づいて、検出した前記参加者の情報について、通信端末での表示制御を行う制御ステップと、
    を有する通信方法。
  14. ビデオ会議を行う複数の通信端末の間で音声データの送受信を中継するコンピュータに、
    前記ビデオ会議の1以上の参加者を撮影した映像データを得た撮像部により得られた該映像データから前記参加者を検出する検出ステップと、
    前記参加者が発話した音声データを入力した音声入力部により入力された該音声データから、前記参加者の属性情報を抽出する抽出ステップと、
    抽出した前記属性情報に基づいて、検出した前記参加者の情報について、通信端末での表示制御を行う制御ステップと、
    を実行させるためのプログラム。
JP2019129658A 2019-07-11 2019-07-11 通信システム、情報処理装置、通信方法およびプログラム Active JP7400231B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019129658A JP7400231B2 (ja) 2019-07-11 2019-07-11 通信システム、情報処理装置、通信方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019129658A JP7400231B2 (ja) 2019-07-11 2019-07-11 通信システム、情報処理装置、通信方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2021016083A true JP2021016083A (ja) 2021-02-12
JP7400231B2 JP7400231B2 (ja) 2023-12-19

Family

ID=74531905

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019129658A Active JP7400231B2 (ja) 2019-07-11 2019-07-11 通信システム、情報処理装置、通信方法およびプログラム

Country Status (1)

Country Link
JP (1) JP7400231B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114998977A (zh) * 2022-07-28 2022-09-02 广东玄润数字信息科技股份有限公司 一种虚拟直播形象训练系统及方法
JP7131869B1 (ja) 2022-01-14 2022-09-06 株式会社キッズプレート プログラム、情報処理方法、情報処理装置、および情報処理システム
JP7133257B1 (ja) 2022-01-14 2022-09-08 株式会社キッズプレート プログラム、情報処理方法、情報処理装置、および情報処理システム
WO2023068027A1 (ja) * 2021-10-19 2023-04-27 日本電気株式会社 アバター生成装置、アバター生成方法、及び記録媒体
WO2024084855A1 (ja) * 2022-10-17 2024-04-25 パナソニックIpマネジメント株式会社 遠隔会話支援方法、遠隔会話支援装置、遠隔会話システム、及び、プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002150317A (ja) * 2000-11-08 2002-05-24 Minolta Co Ltd 映像表示装置
JP2010219849A (ja) * 2009-03-17 2010-09-30 Cellius Inc 画像生成システム、プログラム、情報記憶媒体、サーバシステム、及びコンテンツ配信システム
JP2019061594A (ja) * 2017-09-28 2019-04-18 株式会社野村総合研究所 会議支援システムおよび会議支援プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002150317A (ja) * 2000-11-08 2002-05-24 Minolta Co Ltd 映像表示装置
JP2010219849A (ja) * 2009-03-17 2010-09-30 Cellius Inc 画像生成システム、プログラム、情報記憶媒体、サーバシステム、及びコンテンツ配信システム
JP2019061594A (ja) * 2017-09-28 2019-04-18 株式会社野村総合研究所 会議支援システムおよび会議支援プログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023068027A1 (ja) * 2021-10-19 2023-04-27 日本電気株式会社 アバター生成装置、アバター生成方法、及び記録媒体
JP7131869B1 (ja) 2022-01-14 2022-09-06 株式会社キッズプレート プログラム、情報処理方法、情報処理装置、および情報処理システム
JP7133257B1 (ja) 2022-01-14 2022-09-08 株式会社キッズプレート プログラム、情報処理方法、情報処理装置、および情報処理システム
JP2023103661A (ja) * 2022-01-14 2023-07-27 株式会社キッズプレート プログラム、情報処理方法、情報処理装置、および情報処理システム
JP2023103662A (ja) * 2022-01-14 2023-07-27 株式会社キッズプレート プログラム、情報処理方法、情報処理装置、および情報処理システム
CN114998977A (zh) * 2022-07-28 2022-09-02 广东玄润数字信息科技股份有限公司 一种虚拟直播形象训练系统及方法
WO2024084855A1 (ja) * 2022-10-17 2024-04-25 パナソニックIpマネジメント株式会社 遠隔会話支援方法、遠隔会話支援装置、遠隔会話システム、及び、プログラム

Also Published As

Publication number Publication date
JP7400231B2 (ja) 2023-12-19

Similar Documents

Publication Publication Date Title
JP7400231B2 (ja) 通信システム、情報処理装置、通信方法およびプログラム
JP5949272B2 (ja) 通信システムおよびプログラム
US9043399B2 (en) Transmission management system and transmission system
US9807128B2 (en) Communication system and computer readable medium
JP6201299B2 (ja) 通信システム、通信方法およびプログラム
JP6136174B2 (ja) 通信システム及び通信方法
US20140049597A1 (en) Transmission terminal, communication system, and computer-readable storage medium
JP6372156B2 (ja) 接続制御システム、通信端末、通信システム、プログラム、及び接続制御方法
JP6064367B2 (ja) 伝送管理システム、伝送システム、及び伝送管理システム用プログラム
JP2017142610A (ja) サーバ装置、伝送システム及びプログラム
WO2015163396A1 (ja) アクセス管理システム、通信システム、記録媒体、及びアクセス管理方法
JP2022191389A (ja) 通信端末、通信システム、通信方法およびプログラム
JP7247672B2 (ja) 通信端末、通信システム、通信方法およびプログラム
JP6365763B2 (ja) 管理システム、通信システム、及び通信制御プログラム並びに通信制御方法
JP2017022432A (ja) 通信管理システム、通信システム、通信管理方法、及びプログラム
JP7456162B2 (ja) プログラム、通信方法、通信端末および通信システム
JP6500366B2 (ja) 管理装置、端末装置、伝送システム、伝送方法およびプログラム
JP7272223B2 (ja) プログラム、通信方法、通信端末および通信システム
JP6413215B2 (ja) 伝送端末及びプログラム
JP7243440B2 (ja) 通信端末、通信システム、通信方法およびプログラム
JP2021022836A (ja) 通信システム、通信端末、通信方法およびプログラム
JP7326771B2 (ja) 通信端末、通信システム、通信方法およびプログラム
JP7160126B2 (ja) 第二の管理システム、プログラム、通信方法、システム
JP6229756B2 (ja) システム、管理システム、及び管理方法
JP6589436B2 (ja) 通信システム、通信管理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220518

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231120

R151 Written notification of patent or utility model registration

Ref document number: 7400231

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151