JP7400231B2 - Communication systems, information processing devices, communication methods and programs - Google Patents
Communication systems, information processing devices, communication methods and programs Download PDFInfo
- Publication number
- JP7400231B2 JP7400231B2 JP2019129658A JP2019129658A JP7400231B2 JP 7400231 B2 JP7400231 B2 JP 7400231B2 JP 2019129658 A JP2019129658 A JP 2019129658A JP 2019129658 A JP2019129658 A JP 2019129658A JP 7400231 B2 JP7400231 B2 JP 7400231B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- communication terminal
- participant
- communication
- terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004891 communication Methods 0.000 title claims description 550
- 238000000034 method Methods 0.000 title claims description 67
- 230000010365 information processing Effects 0.000 title claims description 7
- 238000001514 detection method Methods 0.000 claims description 57
- 230000008569 process Effects 0.000 claims description 56
- 238000000605 extraction Methods 0.000 claims description 30
- 238000003384 imaging method Methods 0.000 claims description 14
- 239000000284 extract Substances 0.000 claims description 11
- 230000005540 biological transmission Effects 0.000 claims description 6
- 230000001815 facial effect Effects 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 51
- 230000004044 response Effects 0.000 description 14
- 238000006243 chemical reaction Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 12
- 230000005236 sound signal Effects 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 4
- 238000002360 preparation method Methods 0.000 description 4
- 238000005401 electroluminescence Methods 0.000 description 3
- 206010048669 Terminal state Diseases 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 230000005674 electromagnetic induction Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- KNMAVSAGTYIFJF-UHFFFAOYSA-N 1-[2-[(2-hydroxy-3-phenoxypropyl)amino]ethylamino]-3-phenoxypropan-2-ol;dihydrochloride Chemical compound Cl.Cl.C=1C=CC=CC=1OCC(O)CNCCNCC(O)COC1=CC=CC=C1 KNMAVSAGTYIFJF-UHFFFAOYSA-N 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
- Telephonic Communication Services (AREA)
Description
本発明は、通信システム、情報処理装置、通信方法およびプログラムに関する。 The present invention relates to a communication system, an information processing device, a communication method, and a program.
複数の地点にいる複数の参加者が、ディスプレイを用いて会議を行うビデオ会議システムにおいて、ビデオ会議の参加者の情報として例えば各参加者を仮想的に表現するアバターをディスプレイに表示させる技術が知られている。 In a video conferencing system in which multiple participants at multiple locations hold a conference using a display, there is a known technology for displaying, for example, avatars that virtually represent each participant on the display as information about the participants in the video conference. It is being
このような、アバターを表示させるビデオ会議システムとして、ネットワーク上を伝送するデータ量を少なくしつつ、参加者が会議の状況を把握しづらくなるのを防ぐために、参加者毎の属性情報に応じて画面の表示制御を行うシステムが開示されている(特許文献1参照)。 In order to reduce the amount of data transmitted over the network and prevent it from becoming difficult for participants to grasp the status of the meeting, a video conferencing system that displays avatars is designed to A system for controlling screen display has been disclosed (see Patent Document 1).
しかしながら、特許文献1に記載された技術では、事前に参加者の属性情報が登録されていないと、表示制御を行うことができないという問題がある。
However, the technique described in
本発明は、上述の問題点に鑑みてなされたものであって、ビデオ会議の開始前に属性情報が登録されていなくても、参加者の情報に対する表示制御を行うことができる通信システム、情報処理装置、通信方法およびプログラムを提供することを目的とする。 The present invention has been made in view of the above-mentioned problems, and the present invention provides a communication system and information system that can control the display of participant information even if attribute information is not registered before the start of a video conference. The purpose is to provide processing devices, communication methods, and programs.
上述した課題を解決し、目的を達成するために、本発明は、複数の通信端末がネットワークを介して音声データを送受信することによりビデオ会議が可能な通信システムであって、前記ビデオ会議の1以上の参加者を撮影した映像データを得る撮像部と、前記撮像部により得られた前記映像データから前記参加者を検出する検出部と、前記参加者が発話した音声データを入力する音声入力部と、前記音声入力部により入力された前記音声データから、前記参加者の属性情報を抽出する抽出部と、前記抽出部により抽出された前記属性情報に基づいて、前記検出部により検出された前記参加者の情報について、第1通信端末での表示制御を行う第1制御部と、前記第1通信端末と前記ネットワークを介して通信する第2通信端末を利用する参加者に対して前記属性情報の発話を要求する指示を、前記第2通信端末へ送信する要求部と、前記要求部から受信した前記指示に従って、前記第2通信端末において、該第2通信端末を利用する参加者に対して前記属性情報の発話を促す処理を行う第2制御部と、を有することを特徴とする。 In order to solve the above-mentioned problems and achieve the objects, the present invention provides a communication system in which a plurality of communication terminals can conduct a video conference by transmitting and receiving audio data via a network. an imaging section that obtains video data of the above participants; a detection section that detects the participants from the video data obtained by the imaging section; and an audio input section that inputs audio data uttered by the participants. an extraction unit that extracts attribute information of the participant from the audio data input by the audio input unit; and an extraction unit that extracts attribute information of the participant from the audio data input by the audio input unit; Regarding participant information, a first control unit that controls display on a first communication terminal, and the attribute information for participants who use a second communication terminal that communicates with the first communication terminal via the network. a request unit that transmits an instruction to request an utterance to the second communication terminal; and a request unit that transmits an instruction to request an utterance from the second communication terminal to a participant using the second communication terminal, according to the instruction received from the request unit. A second control unit that performs a process of prompting the user to utter the attribute information .
本発明によれば、ビデオ会議の開始前に属性情報が登録されていなくても、参加者の情報に対する表示制御を行うことができる。 According to the present invention, display control of participant information can be performed even if attribute information is not registered before the start of a video conference.
以下に、図面を参照しながら、本発明に係る通信システム、情報処理装置、通信方法およびプログラムの実施形態を詳細に説明する。また、以下の実施形態によって本発明が限定されるものではなく、以下の実施形態における構成要素には、当業者が容易に想到できるもの、実質的に同一のもの、およびいわゆる均等の範囲のものが含まれる。さらに、以下の実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換、変更および組み合わせを行うことができる。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of a communication system, an information processing device, a communication method, and a program according to the present invention will be described in detail below with reference to the drawings. Further, the present invention is not limited to the following embodiments, and the constituent elements in the following embodiments include those that can be easily conceived by a person skilled in the art, those that are substantially the same, and those that are within the so-called equivalent range. is included. Furthermore, various omissions, substitutions, changes, and combinations of constituent elements can be made without departing from the gist of the following embodiments.
また、コンピュータソフトウェアとは、コンピュータの動作に関するプログラム、その他コンピュータによる処理の用に供する情報であってプログラムに準ずるものをいう(以下、コンピュータソフトウェアは、ソフトウェアという)。アプリケーションソフトとは、ソフトウェアの分類のうち、特定の作業を行うために使用されるソフトウェアの総称である。一方、オペレーティングシステム(OS)とは、コンピュータを制御し、アプリケーションソフト等がコンピュータ資源を利用可能にするためのソフトウェアのことである。オペレーティングシステムは、入出力の制御、メモリやハードディスクなどのハードウェアの管理、プロセスの管理といった、コンピュータの基本的な管理・制御を行っている。アプリケーションソフトウェアは、オペレーティングシステムが提供する機能を利用して動作する。プログラムとは、コンピュータに対する指令であって、一の結果を得ることができるように組み合わせたものをいう。また、プログラムに準ずるものとは、コンピュータに対する直接の指令ではないためプログラムとは呼べないが、コンピュータの処理を規定するという点でプログラムに類似する性質を有するものをいう。例えば、データ構造(データ要素間の相互関係で表される、データの有する論理的構造)がプログラムに準ずるものに該当する。 Furthermore, computer software refers to programs related to computer operations and other information used for processing by a computer that is equivalent to a program (hereinafter, computer software will be referred to as software). Application software is a general term for software used to perform specific tasks among software categories. On the other hand, an operating system (OS) is software that controls a computer and allows application software and the like to use computer resources. The operating system performs basic computer management and control, such as controlling input and output, managing hardware such as memory and hard disks, and managing processes. Application software operates using functions provided by the operating system. A program is a set of instructions to a computer that are combined to produce a single result. Also, what is said to be similar to a program refers to something that cannot be called a program because it is not a direct command to a computer, but has properties similar to a program in that it specifies computer processing. For example, a data structure (a logical structure of data expressed by mutual relationships between data elements) corresponds to a program.
[実施形態]
(通信システムの全体構成)
図1は、実施形態に係る通信システムの概略構成図である。図1を参照しながら、本実施形態に係る通信システム1の構成の概略を説明する。
[Embodiment]
(Overall configuration of communication system)
FIG. 1 is a schematic configuration diagram of a communication system according to an embodiment. An outline of the configuration of a
図1に示すように、通信システム1は、複数の通信端末10aa、10ab、10ba、10bb、10ca、10cb、10da、10dbと、一部の通信端末用のディスプレイ120aa、120ba、120ca、120daと、一部の通信端末に接続されたPC(Personal Computer)30ab、30cbと、管理システム50と、プログラム提供システム90と、を含み、通信ネットワーク2を介して互いに通信可能となるように構築されている。
As shown in FIG. 1, the
なお、図1では、通信端末10aa、10ab、10ba、10bb、10ca、10cb、10da、10dbが示されているが、これらのうち任意の通信端末を示す場合または総称する場合、単に「通信端末10」と称する。また、図1に示す通信システム1に含まれる複数の通信端末10は、一例を示すものであり、異なる台数であってもよい。
In addition, although communication terminals 10aa, 10ab, 10ba, 10bb, 10ca, 10cb, 10da, and 10db are shown in FIG. 1, when any communication terminal among these is shown or collectively referred to, it is simply referred to as "
また、図1では、ディスプレイ120aa、120ba、120ca、120daが示されているが、これらのうち任意のディスプレイを示す場合または総称する場合、単に「ディスプレイ120」と称する。また、図1に示す通信システム1に含まれる複数のディスプレイ120は、一例を示すものであり、異なる台数であってもよい。
Further, although displays 120aa, 120ba, 120ca, and 120da are shown in FIG. 1, when any of these displays is shown or collectively referred to, they are simply referred to as "display 120." Furthermore, the plurality of displays 120 included in the
通信端末10は、他の装置との間で、各種情報を送受信する端末である。通信端末10は、他の通信端末10との間でセッションを確立し、確立したセッションにおいて、音声データおよび画像データ(映像データ)を含むコンテンツデータの送受信による通話を行う。これにより、通信システム1において、複数の通信端末10間のビデオ会議が実現される。なお、通信端末10は、ディスプレイ(上述のディスプレイ120)が接続される専用装置(ビデオ会議端末)、電子黒板(インタラクティブホワイトボード:IWB)、デスクトップPC、ノートPC、スマートフォン、またはタブレット端末等のいずれであってもよい。
The
ディスプレイ120は、通信ネットワーク2を介して、接続されている通信端末10が受信した参加者の映像等を、表示する表示装置である。ディスプレイ120は、例えば、LCD(Liquid Crystal Display)または有機EL(Electro-Luminescence)ディスプレイ等である。
The display 120 is a display device that displays images of participants received by the connected
PC30は、例えば、通信端末10に接続され、他の通信端末10との共有する画面イメージを当該通信端末10に送信し、管理システム50を介して配信することによって、他の通信端末10と画面共有の状態にする情報処理装置である。なお、PC30は、デスクトップPCおよびノートPC等のPCであることに限定されず、スマートフォンまたはタブレット端末等の情報処理装置であってもよい。
For example, the PC 30 is connected to a
管理システム50は、通信端末10を一元的に管理するコンピュータである。管理システム50は、通信端末10間でのセッションを確立することにより、通信端末10間における通話等によるビデオ会議を実現する。管理システム50は、所定の通信端末10からセッションの開始要求情報を受信した場合に、開始要求情報を送信した通信端末10(開始要求端末)と宛先端末との間のセッションを確立し、ビデオ会議を開始させる。したがって、管理システム50は、確立したセッションにより、複数の通信端末10間でコンテンツデータの中継を行う。なお、管理システム50は複数の通信端末10間でセッションを確立するものの、実際にコンテンツデータの中継は、別の中継装置により行われるものとしてもよい。本実施形態では、説明を簡略にするため、セッションの確立、およびコンテンツデータの中継は、管理システム50が行うものとして説明する。
The
プログラム提供システム90は、通信端末10に各種機能または各種手段を実現させるための端末用プログラムが記憶された補助記憶装置(HDD(Hard Disk Drive)等)を備えており、通信端末10に端末用プログラム(後述する通信アプリA等)を提供するコンピュータである。また、プログラム提供システム90は、管理システム50等に各種機能または各種手段を実現させるためのプログラムも補助記憶装置に記憶しており、管理システム50等に、対応するプログラムを送信することができる。
The
通信ネットワーク2は、図1に示すように、例えば、LAN(Local Area Network)2a~2d、専用線2ab、2cd、およびインターネット2iを含んで構築されている。なお、通信ネットワーク2は、図1に示すような構成に限定されるものではなく、その他のネットワーク機器が含まれるものとしてもよく、有線だけでなく無線による通信が行われる箇所があってもよい。
As shown in FIG. 1, the
LAN2a~2d、および専用線2ab、2cdは、それぞれルータ70a~70d、70ab、70cdを含む。ルータ70a~70d、70ab、70cdは、通信データの最適な経路の選択を行うネットワーク機器である。
LANs 2a to 2d and private lines 2ab and 2cd include
通信端末10(10aa、10ab、・・・)、およびルータ70aは、LAN2aによって通信可能に接続されている。また、通信端末10(10ba、10bb、・・・)、およびルータ70bは、LAN2bによって通信可能に接続されている。また、LAN2a、LAN2b、およびルータ70abは、専用線2abによって通信可能に接続されており、地域A内で構築されている。
The communication terminals 10 (10aa, 10ab, . . . ) and the
一方、通信端末10(10ca、10cb、・・・)、およびルータ70cは、LAN2cによって通信可能に接続されている。また、通信端末10(10da、10db、・・・)、およびルータ70dは、LAN2dによって通信可能に接続されている。また、LAN2c、LAN2d、およびルータ70cdは、専用線2cdによって通信可能に接続されており、地域B内で構築されている。
On the other hand, the communication terminals 10 (10ca, 10cb, . . . ) and the
地域Aおよび地域Bのネットワークは、それぞれルータ70ab、70cdによってインターネット2iを介して通信可能に接続されている。
The networks in region A and region B are communicably connected via the
また、管理システム50およびプログラム提供システム90は、インターネット2iを介して、各通信端末10と通信可能に接続されている。なお、管理システム50およびプログラム提供システム90は、地域Aまたは地域Bに設置されていてもよいし、これら以外の地域に設置されていてもよい。
Furthermore, the
また、図1において、各通信端末10、管理システム50、各ルータ70およびプログラム提供システム90の近傍に示されている4組の数字は、一般的なIPv4におけるIP(Ineternet Protocol)アドレスを簡易的に示している。例えば、通信端末10aaのIPアドレスは、「1.2.1.3」であるものとしている。なお、IPv4ではなく、IPv6を用いてもよいが、説明を簡略化するため、IPv4を用いて説明する。
In addition, in FIG. 1, four sets of numbers shown near each
なお、図1に示す通信システム1の構成は、一例を示すものであり、この構成に限定されるものではない。すなわち、図1に示す各装置、システムの台数は、図1に示す台数に限定されるものではない。また、図1では、地域A、Bの2つの地域のネットワーク構成が示されているが、同一地域内のネットワークであってもよく、3つ以上の地域がネットワークで接続された構成であってもよい。
Note that the configuration of the
(通信端末のハードウェア構成)
図2は、実施形態に係る通信端末(ビデオ会議端末)のハードウェア構成の一例を示す図である。図3は、実施形態に係る通信端末(電子黒板)のハードウェア構成の一例を示す図である。まず、図2を参照しながら、本実施形態に係る通信端末10がビデオ会議端末であるものとした場合のハードウェア構成の詳細について説明する。
(Hardware configuration of communication terminal)
FIG. 2 is a diagram illustrating an example of the hardware configuration of a communication terminal (video conference terminal) according to the embodiment. FIG. 3 is a diagram showing an example of the hardware configuration of the communication terminal (electronic whiteboard) according to the embodiment. First, with reference to FIG. 2, the details of the hardware configuration when the
図2に示すように、本実施形態に係る通信端末10は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、補助記憶装置105と、メディアドライブ107と、入力装置108と、を備えている。
As shown in FIG. 2, the
CPU101は、通信端末10全体の動作を制御する演算装置である。ROM102は、通信端末10用のプログラム(後述する通信アプリA等)を記憶している不揮発性記憶装置である。RAM103は、CPU101のワークエリアとして使用される揮発性記憶装置である。
補助記憶装置105は、画像データ、音声データおよび動画データ等の各種データを記憶するHDDまたはSSD(Solid State Drive)等の不揮発性記憶装置である。メディアドライブ107は、CPU101の制御に従って、フラッシュメモリ等であるメディア106に対するデータの読み出しおよび書き込みを制御する装置である。メディア106は、通信端末10に対して着脱自在の記憶装置である。なお、メディア106は、CPU101の制御に従ってデータの読み出しおよび書き込みを行う不揮発性メモリであれば、フラッシュメモリに限定されるものではなく、EEPROM(Electrically Erasable and Programmable ROM)等を用いてもよい。
The
入力装置108は、マウスまたはキーボード等の各種情報を入力するための装置、または操作ボタンおよび電源ボタン等のボタンである。
The
また、通信端末10は、ネットワークI/F111と、撮像素子I/F113と、音声入出力I/F116と、USB(Universal Serial Bus) I/F117と、ディスプレイI/F119と、を備えている。
The
ネットワークI/F111は、通信ネットワーク2を利用してデータを通信するためのインターフェースである。ネットワークI/F111は、例えば、TCP(Transmission Control Protocol)/IP(Internet Protocol)に準拠したNIC(Network Interface Card)等である。
The network I/
撮像素子I/F113は、CPU101の制御に従って被写体を撮像して画像データを得るカメラ112との間で画像データを伝送するためのインターフェースである。カメラ112は、レンズ、および光を電荷に変換して被写体の画像(映像)を電子化する固体撮像素子を含む。カメラ112は、ケーブル112cによって撮像素子I/F113に接続される。固体撮像素子としては、CMOS(Complementary Metal Oxide Semiconductor)またはCCD(Charge Coupled Device)等が用いられる。
The image sensor I/
音声入出力I/F116は、CPU101の制御に従って、音声を入力するマイク114a、および音声を出力するスピーカ114b(出力装置)を有するスマートスピーカ114との間で音声信号(音声データ)の入出力を処理するインターフェースである。スマートスピーカ114は、マイクロホンアレイで構成されるマイク114aを備えることによって、各マイクロホンから入力された音声に対する音声処理を行うことによって、当該音声の方向を特定する装置である。なお、スマートスピーカ114は、マイクロホンアレイを搭載して音声の方向を特定することができる装置であれば、必ずしもスマートスピーカである必要はない。スマートスピーカ114は、ケーブル114cによって音声入出力I/F116に接続される。
The audio input/output I/
USB I/F117は、外部機器(例えばPC等)と接続してデータ通信を行うためのUSB規格のインターフェースである。
The USB I/
ディスプレイI/F119は、CPU101の制御に従って、外付けのディスプレイ120(表示装置)に画像データを伝送するためのインターフェースである。ディスプレイ120は、ケーブル120cによってディスプレイI/F119に接続される。ケーブル120cは、アナログRGB(VGA)信号用のケーブルであってもよく、コンポーネントビデオ用のケーブルであってもよく、HDMI(登録商標)(High-Definition Multimedia Interface)またはDVI(Digital Video Interactive)信号用のケーブルであってもよい。
The display I/
上述のCPU101、ROM102、RAM103、補助記憶装置105、メディアドライブ107、入力装置108、ネットワークI/F111、撮像素子I/F113、音声入出力I/F116、USB I/F117およびディスプレイI/F119は、アドレスバスおよびデータバス等のバスライン110によって互いに通信可能に接続されている。
The above-mentioned
なお、図2に示したビデオ会議端末である通信端末10のハードウェア構成は一例を示すものであり、図2に示した構成要素以外の構成要素を含むものとしてもよい。また、カメラ112、およびスマートスピーカ114は、通信端末10に一体的に備えられるものとしてもよく、または、カメラ112、およびスマートスピーカ114のうち少なくともいずれかは、外付けの別体の装置であってもよい。また、ディスプレイ120は、図2では、通信端末10に対して外付けされるディスプレイとしているが、これに限定されるものではなく、通信端末10と一体的に備えられるものとしてもよい。
Note that the hardware configuration of the
次に、図3を参照しながら、本実施形態に係る通信端末10が電子黒板であるものとした場合のハードウェア構成の詳細について説明する。
Next, with reference to FIG. 3, the details of the hardware configuration when the
図3に示すように、本実施形態に係る通信端末10は、CPU201と、ROM202と、RAM203と、SSD204と、ネットワークI/F205と、外部機器接続I/F206と、を備えている。
As shown in FIG. 3, the
CPU201は、通信端末10全体の動作を制御する演算装置である。ROM202は、CPU201およびIPL(Initial Program Loader)等のCPU201の駆動に用いられるプログラムを記憶する不揮発性記憶装置である。RAM203は、CPU201のワークエリアとして使用される揮発性記憶装置である。
The
SSD204は、画像データ、音声データおよび動作データ、ならびに通信端末10用のプログラム等の各種データを記憶する不揮発性記憶装置である。なお、SSD204の代わりにHDD等の不揮発性記憶装置を用いるものとしてもよい。
The
ネットワークI/F205は、通信ネットワーク2を利用してデータを通信するためのインターフェースである。ネットワークI/F205は、例えば、TCP/IPに準拠したNIC等である。
The network I/
外部機器接続I/F206は、各種の外部機器を接続するためのUSB規格等のインターフェースである。この場合の外部機器としては、例えば、USBメモリ230、スマートスピーカ240、およびカメラ260である。
The external device connection I/
スマートスピーカ240は、音声を入力するマイク241、および音声を出力するスピーカ242(出力装置)を有する。スマートスピーカ240は、マイクロホンアレイで構成されるマイク241を備えることによって、各マイクロホンから入力された音声に対する音声処理を行うことによって、当該音声の方向を特定することができる装置である。なお、マイクロホンアレイを搭載して音声の方向を特定することができる装置であれば、必ずしもスマートスピーカである必要はない。
The smart speaker 240 has a
カメラ260は、レンズ、および光を電荷に変換して被写体の画像(映像)を電子化する固体撮像素子を含む。固体撮像素子としては、CMOSまたはCCD等が用いられる。 The camera 260 includes a lens and a solid-state image sensor that converts light into electric charges to digitize an image (video) of a subject. As the solid-state image sensor, CMOS, CCD, etc. are used.
また、通信端末10は、キャプチャデバイス211と、GPU(Graphics Processing Unit)212と、ディスプレイコントローラ213と、ディスプレイ214(表示装置)と、センサコントローラ215と、接触センサ216と、電子ペンコントローラ217と、電源スイッチ222と、選択スイッチ223と、を備えている。
The
キャプチャデバイス211は、外付けのPC270のディスプレイに対して映像情報を静止画または動画として表示させるデバイスである。
The capture device 211 is a device that displays video information as a still image or a moving image on the display of the
GPU212は、画像処理に特化した演算装置である。ディスプレイコントローラ213は、GPU212からの出力画像をディスプレイ214等へ出力するために画面表示の制御および管理を行うコントローラである。
The GPU 212 is an arithmetic unit specialized for image processing. The display controller 213 is a controller that controls and manages screen display in order to output the output image from the GPU 212 to the
センサコントローラ215は、接触センサ216の処理を制御するコントローラである。接触センサ216は、赤外線遮断方式による座標の入力および座標の検出を行うセンサである。この座標の入力および座標の検出する方法は、ディスプレイ214の上側両端部に設置された2つ受発光装置が、ディスプレイ214に平行して複数の赤外線を放射し、ディスプレイ214の周囲に設けられた反射部材によって反射されて、受光素子が放射した光の光路と同一の光路上を戻って来る光を受光する方法である。接触センサ216は、ディスプレイ214上に電子ペン290およびユーザの手H等が接触したことを検知する。接触センサ216は、物体によって遮断された2つの受発光装置が放射した赤外線のIDをセンサコントローラ215に出力し、センサコントローラ215が、物体の接触位置である座標位置を特定する。
The sensor controller 215 is a controller that controls processing of the contact sensor 216. The contact sensor 216 is a sensor that inputs and detects coordinates using an infrared cutoff method. This method of inputting and detecting coordinates is such that two light receiving and emitting devices installed at both ends of the upper side of the
なお、接触センサ216は、赤外線遮断方式に限らず、静電容量の変化を検知することにより接触位置を特定する静電容量方式のタッチパネル、対向する2つの抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式のタッチパネル、接触物体が表示部に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式のタッチパネル等の種々の検出手段を用いてもよい。 Note that the contact sensor 216 is not limited to the infrared cutoff type, but can also be a capacitive type touch panel that identifies the touch position by detecting changes in capacitance, or a touch sensor that identifies the touch position by voltage changes between two opposing resistive films. Various detection means may be used, such as a resistive film type touch panel that detects the electromagnetic induction generated when a touch object contacts the display section, and an electromagnetic induction type touch panel that specifies the contact position.
電子ペンコントローラ217は、電子ペン290と通信することによって、ディスプレイ214へのペン先のタッチおよびペン尻のタッチの有無を判断するコントローラである。なお、電子ペンコントローラ217は、電子ペン290のペン先およびペン尻だけでなく、電子ペン290のユーザが握る部分、その他の電子ペンの部分のタッチの有無を判断するようにしてもよい。
The electronic pen controller 217 is a controller that communicates with the
電源スイッチ222は、通信端末10の電源のON/OFFを切り換えるためのスイッチである。選択スイッチ223は、例えば、ディスプレイ214の表示の明暗、色合い等を調整するためのスイッチ群である。
The
上述のCPU201、ROM202、RAM203、SSD204、ネットワークI/F205、外部機器接続I/F206、キャプチャデバイス211、GPU212、センサコントローラ215、電子ペンコントローラ217、電源スイッチ222および選択スイッチ223は、アドレスバスおよびデータバス等のバスライン210によって互いに通信可能に接続されている。
The above-mentioned
なお、図3に示した電子黒板である通信端末10のハードウェア構成は一例を示すものであり、図3に示した構成要素以外の構成要素を含むものとしてもよい。また、カメラ260、およびスマートスピーカ240は、通信端末10に一体的に備えられるものとしてもよく、または、カメラ260、およびスマートスピーカ240のうち少なくともいずれかは、外付けの別体の装置であってもよい。
Note that the hardware configuration of the
(管理システムおよびプログラム提供システムのハードウェア構成)
図4は、実施形態に係る管理システムおよびプログラム提供システムのハードウェア構成の一例を示す図である。図4を参照しながら、管理システム50およびプログラム提供システム90のハードウェア構成の詳細について説明する。
(Hardware configuration of management system and program provision system)
FIG. 4 is a diagram illustrating an example of the hardware configuration of the management system and program providing system according to the embodiment. The details of the hardware configuration of the
まず、図4を参照しながら管理システム50のハードウェア構成について説明する。図4に示すように、管理システム50は、CPU301と、ROM302と、RAM303と、補助記憶装置305と、メディアドライブ307と、ディスプレイ308と、ネットワークI/F309と、キーボード311と、マウス312と、DVD(Digital Versatile Disc)ドライブ314と、を備えている。
First, the hardware configuration of the
CPU301は、管理システム50全体の動作を制御する演算装置である。ROM302は、管理システム50用のプログラムを記憶している不揮発性記憶装置である。RAM303は、CPU301のワークエリアとして使用される揮発性記憶装置である。
The
補助記憶装置305は、後述する認証管理DB5001、端末管理DB5002、グループ管理DB5003およびセッション管理DB5004等の各種データを記憶するHDDまたはSSD等の記憶装置である。メディアドライブ307は、CPU301の制御に従って、フラッシュメモリ等の記録メディア306に対するデータの読み出しおよび書き込みを制御する装置である。
The auxiliary storage device 305 is a storage device such as an HDD or an SSD that stores various data such as an authentication management DB 5001, a terminal management DB 5002, a group management DB 5003, and a session management DB 5004, which will be described later. The media drive 307 is a device that controls reading and writing of data to and from a
ディスプレイ308は、カーソル、メニュー、ウィンドウ、文字または画像等の各種情報を表示する液晶または有機EL等によって構成された表示装置である。ネットワークI/F309は、通信ネットワーク2を利用してデータを通信するためのインターフェースである。ネットワークI/F309は、例えば、TCP/IPに準拠したNIC等である。
The
キーボード311は、文字、数字、各種指示の選択、およびカーソルの移動等を行う入力装置である。マウス312は、各種指示の選択および実行、処理対象の選択、ならびにカーソルの移動等を行うための入力装置である。
The
DVDドライブ314は、着脱自在な記憶媒体の一例としてのDVD-ROMまたはDVD-R(Digital Versatile Disk Recordable)等のDVD313に対するデータの読み出しおよび書き込みを制御する装置である。
The
上述のCPU301、ROM302、RAM303、補助記憶装置305、メディアドライブ307、ディスプレイ308、ネットワークI/F309、キーボード311、マウス312およびDVDドライブ314は、アドレスバスおよびデータバス等のバスライン310によって互いに通信可能に接続されている。
The above-described
なお、図3に示した管理システム50のハードウェア構成は一例を示すものであり、図3に示した構成要素を全て含む必要はなく、または、その他の構成要素を含むものとしてもよい。
Note that the hardware configuration of the
なお、プログラム提供システム90は、上述の管理システム50と同様のハードウェア構成を有しているため、その説明を省略する。ただし、ROM302には、プログラム提供システム90を制御するためのプログラム提供システム90用のプログラムが記録されている。
Note that since the
(通信端末のソフトウェア構成)
図5は、実施形態に係る通信端末のソフトウェア構成の一例を示す図である。図5を参照しながら、本実施形態に係る通信端末10のソフトウェア構成の詳細について説明する。
(Software configuration of communication terminal)
FIG. 5 is a diagram illustrating an example of the software configuration of the communication terminal according to the embodiment. The details of the software configuration of the
通信端末10には、クライアントアプリとして通信アプリAがインストールされている。ここで、アプリとは、アプリケーションソフトを意味する。図5に示すように、OS(Operating System)1020、および通信アプリAは、通信端末10のRAM103(RAM203)の作業領域1010上で動作する。
A communication application A is installed on the
OS1020は、基本的な機能を提供し、通信端末10全体を管理する基本ソフトウェアである。通信アプリAは、OS1020の制御に従って動作し、他の通信端末10と通信(通話)するためのアプリである。
The
なお、通信アプリAの通信プロトコルとしては、SIP(Session Initiation Protocol)、H.323、IRC(Internet Relay Chat)、またはJingle等が挙げられる。 Note that examples of the communication protocol of the communication application A include SIP (Session Initiation Protocol), H.323, IRC (Internet Relay Chat), Jingle, and the like.
(通信システムの機能ブロックの構成)
図6は、実施形態に係る通信システムの機能ブロックの構成の一例を示す図である。図6を参照しながら、本実施形態に係る通信システム1の機能ブロックの構成について説明する。
(Configuration of functional blocks of communication system)
FIG. 6 is a diagram illustrating an example of the configuration of functional blocks of the communication system according to the embodiment. The configuration of functional blocks of the
<通信端末の機能ブロックの構成>
図6に示すように、通信端末10は、通信部11と、操作入力受付部12と、撮像部13と、表示制御部14(第2制御部の一例)と、音声入力部15と、音声出力部16(第2制御部の一例)と、記憶・読出部17と、記憶部18と、認証要求部19と、発話方向特定部20(第1特定部)と、を有している。
<Configuration of functional blocks of communication terminal>
As shown in FIG. 6, the
通信部11は、通信ネットワーク2を介して、他の通信端末10または各システムと各種データの送受信を行う機能部である。通信部11は、図2に示すCPU101(図3に示すCPU201)によるソフトウェアである通信アプリAの実行、およびネットワークI/F111(ネットワークI/F205)によって実現される。
The
通信部11は、当該通信端末10が他の通信端末10とセッションを確立し、通話によるビデオ会議を開始する前に、管理システム50から、宛先端末の候補としての各通信端末10の状態を示す各状態情報の受信を開始する。ここで、宛先端末の候補とは、通信端末10が、ビデオ会議を行う相手、すなわちセッションの相手として指定可能なビデオ会議の相手であるユーザ(参加者)が利用する宛先候補となる他の通信端末10である。すなわち、通信端末10は、宛先端末の候補として予め設定されていない通信端末とは、セッションを確立することができず、ビデオ会議を行うことができない。
The
また、状態情報は、各通信端末10の稼動状態(オンラインかオフラインかの状態)と、オンラインにおいてはさらに通話中であるか、待受け中であるか等の詳細な状態(以下、通信状態と称する)とを示す。また、状態情報は、各通信端末10の稼動状態および通信状態だけでなく、ケーブルが通信端末10から外れている、音声を出力できるが画像は出力できない、または、音声が入力されないように設定されている(ミュート)等、様々な状態を示すものとしてもよいが、以下では、一例として、稼動状態および通信状態を示す場合について説明する。
In addition, the status information includes the operating status of each communication terminal 10 (online or offline status), and if online, detailed status such as whether it is on a call or on standby (hereinafter referred to as communication status). ). In addition, the status information includes not only the operating status and communication status of each
通信部11は、当該通信端末10が開始要求端末として動作する場合には、開始要求情報を管理システム50に送信する。ここで、開始要求情報とは、ビデオ会議に用いられるセッションの開始を要求する情報である。開始要求情報は、具体的には、開始を要求する旨を示す情報と、開始要求情報の送信元である開始要求端末の端末IDと、セッションの相手となる宛先端末の端末IDと、を含む。端末IDは、通信端末10を識別するための情報であって、予め通信端末10に記憶させておく他、ユーザが直接通信端末10へ入力して決定するものとしてもよい。
The
操作入力受付部12は、ユーザによる各種入力を受け付ける機能部である。操作入力受付部12は、図2に示す入力装置108(図3に示す接触センサ216、電源スイッチ222および選択スイッチ223)によって実現される。
The operation
例えば、ユーザが、操作入力受付部12のうち図2に示す入力装置108としての電源ボタンをオンにすると、当該通信端末10の電源がオン状態になる。また、ユーザが電源をオン状態からオフにすると、通信部11は、管理システム50へ、当該通信端末10の電源がオフになった旨の状態情報を送信してから、当該通信端末10の電源が完全にオフとなる。これによって、管理システム50は、通信端末10が電源オンから電源オフになったことを把握することができる。
For example, when the user turns on the power button of the operation
撮像部13は、被写体を撮像して、撮像して得た画像データを取得する機能部である。撮像部13は、図2に示すCPU101(図3に示すCPU201)によるソフトウェアである通信アプリAの実行、ならびに、カメラ112(カメラ260)および撮像素子I/F113(外部機器接続I/F206)によって実現される。
The
表示制御部14は、ディスプレイ120(ディスプレイ214)に対して画像データ等の表示制御を行う機能部である。表示制御部14は、図2に示すCPU101(図3に示すCPU201)によるソフトウェアである通信アプリAの実行によって実現される。
The
表示制御部14は、例えば、ビデオ会議の要求元としての当該通信端末10が所望の宛先としての通信端末10とビデオ会議の通話を開始する前に、通信部11によって受信された宛先端末の候補の状態情報を反映させて、各宛先端末の候補の名前が含まれた宛先リストをディスプレイ120(ディスプレイ214)に表示させる。
For example, before the
音声入力部15は、マイク114a(マイク241)のマイクロホンアレイによって収音された参加者(話者)の音声が音声信号に変換された後、当該音声信号を入力する機能部である。音声入力部15は、図2に示すCPU101(図3に示すCPU201)によるソフトウェアである通信アプリAの実行、および音声入出力I/F116(外部機器接続I/F206)によって実現される。
The
音声出力部16は、音声信号をスピーカ114b(スピーカ242)に出力し、スピーカ114b(スピーカ242)から音声を出力させる機能部である。音声出力部16は、図2に示すCPU101(図3に示すCPU201)によるソフトウェアである通信アプリAの実行、および音声入出力I/F116(外部機器接続I/F206)によって実現される。
The
記憶・読出部17は、記憶部18に各種データを記憶したり、記憶部18に記憶された各種データを読み出す処理を行う機能部である。記憶部18には、例えば、宛先端末との通話を行う際に受信されるコンテンツデータが、受信される度に上書き記憶される。このうち、上書きされる前の画像データによってディスプレイ120(ディスプレイ214)に画像が表示され、上書きされる前の音声データによってスピーカ114b(スピーカ242)から音声が出力される。記憶・読出部17は、図2に示すCPU101(図3に示すCPU201)によるソフトウェアである通信アプリAの実行によって実現される。
The storage/
認証要求部19は、当該通信端末10の電源がオンした場合、または、操作入力受付部12により認証要求操作が受け付けられた場合、通信部11から通信ネットワーク2を介して管理システム50に、ログインの認証を要求する旨を示す認証要求情報、および当該通信端末10の現時点のIPアドレスを送信する機能部である。認証要求部19は、図2に示すCPU101(図3に示すCPU201)によるソフトウェアである通信アプリAの実行によって実現される。
The
発話方向特定部20は、音声入力部15により入力された音声信号に基づいて、音声方向(発話方向)を特定する機能部である。具体的には、音声入力部15により入力された音声信号は、マイク114a(マイク241)のマイクロホンアレイに含まれる各マイクロホンから入力された各音声信号を含み、発話方向特定部20は、各マイクロホンの音声信号に対して音声処理を行うことにより、音声の方向を特定する。発話方向特定部20は、図2に示すCPU101(図3に示すCPU201)によるソフトウェアである通信アプリAの実行によって実現される。
The speech
なお、上述の表示制御部14、認証要求部19および発話方向特定部20のうち少なくともいずれかは、ASIC(Application Specific Integrated Circuit)またはFPGA(Field-Programmable Gate Array)等のハードウェア回路によって実現されるものとしてもよい。
Note that at least one of the
また、図6に示した通信端末10の各機能部は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、図6に示した通信端末10で独立した機能部として図示した複数の機能部を、1つの機能部として構成してもよい。一方、図6に示した通信端末10の1つ機能部が有する機能を複数に分割し、複数の機能部として構成するものとしてもよい。
Moreover, each functional unit of the
<管理システムの機能ブロックの構成>
図6に示すように、管理システム50は、通信部51と、認証部52と、状態管理部53と、端末抽出部54と、端末状態取得部55と、セッション制御部56と、記憶・読出部57と、記憶部58と、を有している。管理システム50は、さらに、顔検出部61(検出部)と、比較部62と、生成部63と、属性情報要求部64(要求部)と、対応付け部65(第2特定部)と、テキスト化部66と、抽出部67と、登録部68と、表示制御部69(第1制御部、制御部)と、を有している。記憶部58は、図4に示す補助記憶装置305によって実現され、図6に示すように、認証管理DB5001と、端末管理DB5002と、グループ管理DB5003と、セッション管理DB5004とを記憶している。以下、記憶部58に記憶されている各DBにおいて管理される各テーブルについて説明する。
<Configuration of functional blocks of management system>
As shown in FIG. 6, the
<<認証管理テーブル>>
図7は、認証管理テーブルの一例を示す図である。
<<Authentication management table>>
FIG. 7 is a diagram showing an example of an authentication management table.
記憶部58は、図7に示す認証管理テーブルを含む認証管理DB5001を記憶している。認証管理テーブルでは、ログインの認証を行う通信端末10を利用するユーザ(参加者)を識別するユーザIDに対して、パスワードが関連付けられて管理される。ここで、パスワードは、ログインの認証するために利用される情報である。例えば、図7に示す認証管理テーブルにおいて、ユーザIDが「A_10aa」に関連付けられたパスワードが「aaaa」であることが示されている。
The
なお、ユーザIDは、通信端末10を利用するユーザを一意に識別するために使われる文字、記号、数字または各種のしるし等の識別情報であり、例えば、当該ユーザが利用するメールアドレス等であってもよい。
Note that the user ID is identification information such as letters, symbols, numbers, or various marks used to uniquely identify the user who uses the
<<端末管理テーブル>>
図8は、端末管理テーブルの一例を示す図である。
<<Terminal management table>>
FIG. 8 is a diagram showing an example of a terminal management table.
記憶部58は、図8に示す端末管理テーブルを含む端末管理DB5002を記憶している。端末管理テーブルでは、各通信端末10の端末ID毎に、端末名、各通信端末10にログインしたユーザのユーザID、各通信端末10の稼動状態、他の通信端末10との通信状態、および各通信端末10のIPアドレスが関連付けられて管理される。
The
ここで、稼動状態としては、電源がオンされ、通信が可能または通信中の状態であるオンラインと、電源がオンされていない等、通信が可能でない状態であるオフラインとがある。また、通信状態としては、例えば、「Calling」、「Ringing」、「Accepted」、「Busy」、および「None」等がある。「Calling」は、他の通信端末10を呼び出している状態、すなわち、他の通信端末10に対しビデオ会議に用いられるセッションを確立するための開始要求情報を送信し、応答を待っている状態を示す。「Ringing」は、他の通信端末10から呼び出されている状態、すなわち、他の通信端末10から開始要求情報を受信し、受信した開始要求情報に対する応答が完了していない状態を示す。「Accepted」は、他の通信端末10からの開始要求情報に対し許可の応答が完了しているが、セッションの確立が完了していない状態、および、自端末が送信した開始要求情報に対し許可の応答の受信が完了しているが、セッションの確立が完了していない状態を示す。「Busy」は、他の通信端末10とのセッションが確立し、ビデオ会議におけるコンテンツデータの通信による通話が行われている状態を示す。「None」は、他の通信端末10と通信しておらず、待ち受け中の状態を示す。
Here, the operating state includes online, which is a state in which the power is turned on and communication is possible or in progress, and offline, which is a state in which the power is not turned on and communication is not possible. Furthermore, the communication status includes, for example, "Calling", "Ringing", "Accepted", "Busy", and "None". "Calling" indicates a state in which another
例えば、図8に示す端末管理テーブルにおいて、端末IDが「10ad」の通信端末10adは、端末名が「日本 東京事業所 AD端末」で、ログインしているユーザのユーザIDが「C_10ad」で、稼動状態が「オンライン」で、通信状態が他の通信端末10から呼び出されている状態を示す「Ringing」で、この通信端末10adのIPアドレスが「1.2.1.6」であることが示されている。
For example, in the terminal management table shown in FIG. 8, the communication terminal 10ad with the terminal ID "10ad" has the terminal name "Japan Tokyo Office AD Terminal" and the user ID of the logged-in user is "C_10ad". The operating state is "online" and the communication state is "Ringing", which indicates that another
<<グループ管理システム>>
図9は、グループ管理テーブルの一例を示す図である。
<<Group management system>>
FIG. 9 is a diagram showing an example of a group management table.
記憶部58は、図9に示すグループ管理テーブルを含むグループ管理DB5003を記憶している。グループ管理テーブルでは、管理システム50に予め登録されているビデオ会議のグループごとに、当該グループに含まれる通信端末10の端末IDが管理される。すなわち、グループ管理テーブルでは、グループを識別するグループIDと、当該グループに含まれる通信端末10の端末IDとが関連付けられて管理される。
The
例えば、図9に示すグループ管理テーブルにおいて、グループIDが「G002」のグループは、端末IDが「10ac」、「10ca」、「10cb」である通信端末10を含むことが示されている。
For example, in the group management table shown in FIG. 9, a group with a group ID of "G002" is shown to include
<<セッション管理テーブル>>
図10は、セッション管理テーブルの一例を示す図である。
<<Session management table>>
FIG. 10 is a diagram showing an example of a session management table.
記憶部58は、図10に示すセッション管理テーブルを含むセッション管理DB5004を記憶している。セッション管理テーブルでは、通信端末10間でコンテンツデータが通信されるセッションを識別するためのセッションID毎に、セッションの開始要求端末の端末ID、およびセッションを確立するための開始要求情報において相手先として指定された宛先端末の端末IDが関連付けられて管理される。
The
例えば、図10に示すセッション管理テーブルにおいて、セッションID「se1」で識別されるセッションは、端末IDが「10aa」の開始要求端末(通信端末10aa)と、端末IDが「10db」の宛先端末(通信端末10db)との間で確立されたことを示す。 For example, in the session management table shown in FIG. 10, the session identified by the session ID "se1" is between the start requesting terminal (communication terminal 10aa) with the terminal ID "10aa" and the destination terminal (communication terminal 10aa) with the terminal ID "10db". This indicates that the connection has been established with the communication terminal 10db).
なお、図7~図10に示した各テーブルで管理される情報は、テーブル形式の情報としているが、これに限定されるものではなく、管理される各情報が関連付けられることができれば、テーブル形式に限定されるものではない。 Although the information managed in each table shown in FIGS. 7 to 10 is in table format, the information is not limited to this, and as long as each piece of managed information can be associated, it can be in table format. It is not limited to.
図6に戻り、管理システム50の機能ブロックの説明に戻る。
Returning to FIG. 6, the description of the functional blocks of the
通信部51は、通信ネットワーク2を介して、通信端末10または他のシステムと各種データの送受信を行う機能部である。通信部51は、図4に示すCPU301によるプログラムの実行、およびネットワークI/F309によって実現される。
The
認証部52は、通信部51を介して受信された認証要求情報に含まれているユーザIDおよびパスワードを検索キーとし、記憶部58の認証管理テーブル(図7参照)を検索し、認証管理テーブルに同一のユーザIDおよびパスワードが管理されているかを判断することによってユーザ認証を行う機能部である。認証部52は、図4に示すCPU301によるプログラムの実行によって実現される。
The
状態管理部53は、図8に示す端末管理テーブルの稼動状態および通信状態を管理する機能部である。状態管理部53は、ログインの認証を要求してきた通信端末10の稼動状態を管理すべく、端末管理テーブルに、この通信端末10の端末ID、当該通信端末10にログインしている参加者のユーザID、当該通信端末10の稼動状態、および当該通信端末10のIPアドレスを関連付けて記憶して管理する。
The
状態管理部53は、通信端末10のユーザによる入力装置108(電源スイッチ222)の操作によってオフ状態からオン状態になると、この通信端末10から送られてきた電源をオンする旨の情報に基づいて、端末管理テーブルの稼動状態をオフラインからオンラインに更新する。また、状態管理部53は、通信端末10のユーザによる入力装置108(電源スイッチ222)の操作によってオン状態からオフ状態になると、この通信端末10から送られてきた電源をオフする旨の情報に基づいて、端末管理テーブルの稼動状態をオンラインからオフラインに更新する。
When the
状態管理部53は、図4に示すCPU301によるプログラムの実行によって実現される。
The
端末抽出部54は、ログインの認証要求した通信端末10等、処理対象となる対象端末の端末IDを検索キーとして、図9に示すグループ管理テーブルを検索し、対象端末と通話することができる、すなわちセッションを確立することのできる宛先端末の候補(同じグループの通信端末10)の端末IDを読み出す機能部である。端末抽出部54は、図4に示すCPU301によるプログラムの実行によって実現される。
The
端末状態取得部55は、端末IDを検索キーとして、図8に示す端末管理テーブルを検索し、端末ID毎に稼動状態および通信状態を読み出す機能部である。これにより、端末状態取得部55は、ログインの認証要求をしてきた通信端末10と通話することができる宛先端末の候補の稼動状態および通信状態を取得することができる。端末状態取得部55は、図4に示すCPU301によるプログラムの実行によって実現される。
The terminal
セッション制御部56は、図9に示すセッション管理テーブルに、生成したセッションID、開始要求端末の端末IDおよび宛先端末の端末IDを関連付けて記憶して管理する機能部である。セッション制御部56は、通信端末10間のセッションの確立をするための制御を行う。セッション制御部56は、図4に示すCPU301によるプログラムの実行によって実現される。
The
記憶・読出部57は、記憶部58に各種テーブルに情報を記憶したり、記憶部58に記憶された各種テーブルの情報を読み出す処理を行う機能部である。記憶・読出部57は、図4に示すCPU301によるプログラムの実行によって実現される。
The storage/
顔検出部61は、通信部51で受信した映像データから、写り込んでいる参加者の顔画像を検出して、顔の特徴を数値化して特徴値(以下、顔検出情報と称する場合がある)として取得する機能部である。例えば、検出された顔の目、眉毛、鼻、口等の特徴を数値化して特徴値を求め、当該特徴値ごとに「M4」、「EL2」等のID(識別情報)が割り振られる。また、各顔の部分の位置を特徴点として求め、当該位置、および特徴点間の距離等も特徴値として顔検出情報に含まれる。また、顔検出部61は、映像データにおいて検出した参加者の顔の画像の中心座標を算出する。なお、顔検出部61は、参加者の顔画像を検出するものとしたが、これに限定されるものではなく、検出対象は、参加者の顔を含む上半身等、参加者を判別することが可能な部位であればよい。顔検出部61は、図4に示すCPU301によるプログラムの実行によって実現される。
The
比較部62は、記憶部58に記憶されている後述の顔・アバター・属性対応テーブル(図23参照)を参照し、顔検出部61により取得された顔検出情報が、顔・アバター・属性対応テーブルに登録されている顔認識情報と一致するか否か比較する機能部である。また、比較部62により、顔検出情報と、顔・アバター・属性対応テーブルの顔認識情報とが一致すると判断されるためには、必ずしも顔検出情報と顔認識情報とが完全に一致する必要はなく、一定程度近似する場合、一致すると判断されるものとしてもよい。比較部62は、図4に示すCPU301によるプログラムの実行によって実現される。
The
生成部63は、顔・アバター・属性対応テーブルにおいて、比較部62により顔検出情報と一致すると判断された顔認識情報に対応するアバター情報に基づいて、当該顔検出情報に対応する参加者を表すアバターを生成する機能部である。ここで、アバター情報とは、アバターを生成するために用いられる情報であり、例えば、人の顔画像に基づいてその人に似せたアバターを生成するための情報、または、当該顔画像の情報そのものであってもよい。または、アバター情報は、必ずしも参加者の顔であることが分かるようなアバターを生成するための情報である必要はなく、各参加者の代わりとなるアバター(例えば動物のアバター等)を生成するための情報であってもよい。または、アバター情報は、既存のいくつかのアバターを生成するための情報の中からどの情報を用いてアバターを生成するのかを示す種類情報であってもよい。生成部63は、図4に示すCPU301によるプログラムの実行によって実現される。
The
属性情報要求部64は、参加者に属性情報についての発話を要求するための指示を通信端末10へ送信する機能部である。ここで、属性情報とは、ビデオ会議の参加者が属する社名および所属、ならびに参加者の役職および名前等の参加者の属性を示す情報である。属性情報要求部64は、図4に示すCPU301によるプログラムの実行によって実現される。
The attribute
対応付け部65は、通信部51を介して受信した参加者の音声の発話方向と、顔検出部61により検出された顔画像、すなわち参加者とを対応付ける機能部である。なお、対応付け部65による音声と、顔画像(すなわち参加者)とを対応付ける方法として、上記の動作に限定されるものではなく、例えば、通信部51を介して受信した音声データおよび映像データを用いて、映像データが示す参加者の口唇動作と、音声データの音声出力のタイミングとに基づいて、音声と参加者とを対応付けるものとしてもよい。対応付け部65は、図4に示すCPU301によるプログラムの実行によって実現される。
The
テキスト化部66は、通信部51を介して受信した音声データを、既知の音声認識技術によりテキスト化する機能部である。テキスト化部66は、図4に示すCPU301によるプログラムの実行によって実現される。
The
抽出部67は、テキスト化部66によりテキスト化されたテキストから、予め属性情報を示す候補として登録されている登録済みワードと一致するキーワードを抽出する機能部である。登録済みワードは、例えば記憶部58に予め記憶されているものとすればよい。なお、例えば、後述の図23の顔・アバター・属性対応テーブルに示すように、属性情報として社名、所属、役職、および名前が登録されるものとした場合、登録済みワードとしては、社名に関する登録済みワード、所属に関する登録済みワード、役職に関する登録済みワード、および名前に関する登録済みワードがそれぞれ用意にされているものとしてもよい。また、属性情報として扱う属性は、社名、所属、役職、および名前に限定されるものではなく、他の属性(例えば、役割、年齢等)が含まれるものとしてもよい。抽出部67は、図4に示すCPU301によるプログラムの実行によって実現される。
The
登録部68は、抽出部67により抽出されたキーワードを、テキスト化部66によりテキスト化された音声データに対応する参加者の属性情報として、顔・アバター・属性対応テーブルにおいて比較部62により顔認識情報と一致すると判断された参加者の顔検出情報に関連付けて登録する機能部である。登録部68は、図4に示すCPU301によるプログラムの実行によって実現される。
The
表示制御部69は、生成部63により生成されたアバターについて、当該アバターに対応する属性情報に基づいて表示制御を行う機能部である。具体的には、表示制御部69は、属性情報からビデオ会議の参加者のうち、同じ会社に所属する参加者のアバターを同列となるように配置し、役職の順序に並べた表示となるように、映像データを生成する。また、表示制御部69は、ビデオ会議の各拠点の参加者を同一の表示領域に表示させるようにしてもよく、参加者を拠点ごとに表示領域を分けて表示させるようにしてもよい。また、表示制御部69は、アバターを役職の順序に並べると共に、または、それに代えて、役職名をアバターの近傍に表示するものとしてもよい。この際、表示制御部69は、さらにアバターの近傍に名前、所属等を表示させるものとしてもよい。このように役職の順序に並べたり、役職名等を表示させることによって、自拠点以外の拠点の参加者(アバター)について、少なくともどの参加者がどの参加者よりも目上のものであるのか等の各参加者の立場を把握することができ、円滑に会議を進めることができる。
The
なお、表示制御部69は、属性情報に基づいてアバターの配置を変更して映像データを生成した場合、当該映像データの中で手前に配置されたアバターであるほど、対応する音声データの音圧レベルを上げる処理を施しててもよい。これによって、アバターを表示する映像データであっても、ビデオ会議の臨場感を高めることができる。
Note that when the
また、表示制御部69は、通信部51を介して通信端末10から音声データを受信すると共に、発話方向の情報を受信した場合、当該発話方向に対応するアバターが音声を発話している状態を示す映像データを生成する。これによって、参加者が相手拠点の参加者のアバターが表示されたディスプレイを見ている場合、その参加者(アバター)が発話しているのかを認識することができる。ここで、アバターが音声を発話している状態とは、例えば、口を有するアバターであれば音声データの出力に合わせて口を動かしているような状態、または、音声データの出力に合わせてアバターを上下に動かすことにより発話をしているように示した状態等が挙げられる。さらに、表示制御部69は、参加者が発話している場合だけでなく、参加者の表情、視線等をリアルタイムに、対応するアバターに反映するものとしてもよい。
In addition, when the
また、表示制御部69は、映像データにアバターを含める場合、その背景の画像としては実画像の背景を用いてもよく、またはバーチャルな背景を用いるものとしてもよい。また、表示制御部69は、背景の画像として実画像の背景を用いる場合、アバターの表示のみを明確に表示させ、実画像の背景についてはぼかすものとしてもよい。このようにバーチャルな背景を表示させたり、実画像の背景をぼかす表示によって、ビデオ会議の参加者は、自身が居る会議室等の部屋の状態を気にすることなくビデオ会議に参加することができ、背景に社外秘の情報が含まれている場合でも当該情報の流出の防止を抑制することができる。
Further, when including an avatar in the video data, the
表示制御部69は、図4に示すCPU301によるプログラムの実行によって実現される。このように、表示制御部69により参加者の実画像の映像データではなく、アバターの映像データを用いることによって、実画像の場合と比べてより少ないフレームレートで転送することができるのでデータ通信量を低減することができ、ディスプレイへのスペック要求を下げることができる。
The
なお、上述の認証部52、状態管理部53、端末抽出部54、端末状態取得部55、セッション制御部56、顔検出部61、比較部62、生成部63、属性情報要求部64、対応付け部65、テキスト化部66、抽出部67、登録部68および表示制御部69のうち少なくともいずれかは、ASICまたはFPGA等のハードウェア回路によって実現されるものとしてもよい。
Note that the above-mentioned
また、図6に示した管理システム50の各機能部は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、図6に示した管理システム50で独立した機能部として図示した複数の機能部を、1つの機能部として構成してもよい。一方、図6に示した管理システム50の1つ機能部が有する機能を複数に分割し、複数の機能部として構成するものとしてもよい。
Furthermore, the functions of each functional unit of the
また、図6に示した通信端末10が有する機能部は、例えば管理システム50で実現される場合があってもよく、管理システム50が有する機能部は、例えば通信端末10で実現する場合があったもよい。また、通信端末10および管理システム50が有する機能部は、通信端末10および管理システム50以外の装置が実現する場合があってもよい。例えば、アバター生成処理における管理システム50の顔検出部61による参加者の顔の検出、属性情報取得処理における管理システム50のテキスト化部66による音声データのテキスト化等は、管理システム50ではなく通信端末10が有する機能であってもよい。また、管理システム50の認証部52による認証処理は、通信端末10および管理システム50以外の他の装置が行うものとしてもよい。
Further, the functional units included in the
(コンテンツデータおよび各種管理情報の送受信の状態)
図11は、実施形態に係る通信システムにおけるコンテンツデータおよび各種管理情報を送受信するために確立されたセッションを示す図である。図11を参照しながら、通信システム1におけるコンテンツデータおよび各種管理情報を送受信するために確立されたセッションについて説明する。
(Status of sending and receiving content data and various management information)
FIG. 11 is a diagram showing sessions established for transmitting and receiving content data and various types of management information in the communication system according to the embodiment. A session established for transmitting and receiving content data and various management information in the
図11に示すように、通信システム1では、開始要求端末と宛先端末Aと宛先端末Bとの間で、管理システム50を介して、各種の管理情報を送受信するための管理情報用セッションseiが確立される。さらに、開始要求端末と宛先端末Aと宛先端末Bとの間で、管理システム50を介して、画像データおよび音声データ等を送受信するためのコンテンツデータ用セッションsedが確立される。すなわち、コンテンツデータ用セッションsedが、ビデオ会議において直接的に用いられるセッションである。なお、このセッションの概念はあくまで一例であって、例えば、画像データのセッションでは、解像度ごとに分けられるものとしてもよい。
As shown in FIG. 11, in the
(通信端末が通話開始する前の準備段階における各管理情報の送受信処理)
図12は、実施形態に係る通信システムにおける、通信端末が通話を開始するための認証処理を含む準備段階の処理の一例を示すシーケンス図である。図13は、宛先リストの表示例を示す図である。図12および図13を参照しながら、通信端末10aaが通話を開始する前の準備段階における各情報の送受信処理について説明する。なお、図12では、管理情報用セッションseiによって、各種管理情報が送受信される処理が示されている。
(Transmission and reception processing of each management information in the preparation stage before the communication terminal starts a call)
FIG. 12 is a sequence diagram illustrating an example of a preparation stage process including an authentication process for a communication terminal to start a call in the communication system according to the embodiment. FIG. 13 is a diagram showing a display example of the destination list. With reference to FIGS. 12 and 13, the transmission and reception process of each piece of information in the preparation stage before the communication terminal 10aa starts a call will be described. Note that FIG. 12 shows a process in which various types of management information are transmitted and received by the management information session sei.
<ステップS21>
まず、通信端末10aaのユーザが、図2に示す入力装置108に対する操作により電源をオンにすると、通信端末10aaの操作入力受付部12が、電源オンを受け付けて、通信端末10aaの電源をオンにする。
<Step S21>
First, when the user of the communication terminal 10aa turns on the power by operating the
<ステップS22>
そして、通信端末10aaの認証要求部19は、上述の通信端末10aaの電源オンを契機とし、通信部11から通信ネットワーク2を介して管理システム50に、ログインの認証要求を示す認証要求情報、および通信端末10aaのIPアドレスを送信する。この認証要求情報には、開始要求端末としての自端末である通信端末10aaを識別するための端末ID、通信端末10aaにログインしているユーザのユーザID、およびパスワードが含まれている。端末ID、ユーザIDおよびパスワードは、通信端末10aaの記憶・読出部17によって記憶部18から読み出されて、通信部11に送られたデータである。また、通信端末10aaから管理システム50へ認証要求情報が送信される際は、受信側である管理システム50は、送信側である通信端末10aaのIPアドレスを把握することができる。
<Step S22>
Then, the
<ステップS23>
次に、管理システム50の認証部52は、通信部51を介して受信した認証要求情報に含まれているユーザIDおよびパスワードを検索キーとして、認証管理テーブル(図7参照)を検索し、認証管理テーブルに同一のユーザIDおよびパスワードが管理されているかを判断することによってユーザ認証を行う。
<Step S23>
Next, the
<ステップS24-1>
認証部52によって、正当な利用権限を有する通信端末10からのログインの認証要求であると判断された場合には、管理システム50の状態管理部53は、端末管理テーブル(図8参照)に、通信端末10aaの端末IDおよび端末名で示されるレコード毎に、ユーザIDおよび通信端末10aaのIPアドレスを関連付けて記憶する。これにより、端末管理テーブルには、通信端末10aaの端末ID「10aa」に、ユーザID「A_10aa」およびIPアドレス「1.2.1.3」が関連付けて管理されることになる。
<Step S24-1>
If the
<ステップS24-2>
続いて、状態管理部53は、通信端末10aaの稼動状態「オンライン」および通信状態「None」を設定し、端末管理テーブルに、通信端末10aaの端末IDおよび端末名で示されるレコードに、稼動状態および通信状態を関連付けて記憶する。これにより、端末管理テーブルには、通信端末10aaの端末ID「10aa」に、稼動状態「オンライン」および通信状態「None」が関連付けて管理されることになる。
<Step S24-2>
Subsequently, the
<ステップS25>
そして、管理システム50の通信部51は、認証部52によって得られたユーザ認証の結果が示された認証結果情報を、通信ネットワーク2を介して、認証要求情報を送信してきた開始要求端末(通信端末10aa)に送信する。本実施形態では、通信端末10aaが、認証部52によって正当な利用権限を有するユーザが利用する端末であるとユーザ認証されたものとして、以下続けて説明する。
<Step S25>
Then, the
<ステップS26>
通信端末10aaにおいて、正当な利用権限を有するユーザが利用する端末であるとユーザ認証された結果が示された認証結果情報を受信すると、通信部11は、通信ネットワーク2を介して管理システム50へ、宛先リストを要求する旨を示す宛先リスト要求情報を送信するこれにより、管理システム50の通信部51は、宛先リスト要求情報を受信する。
<Step S26>
When the communication terminal 10aa receives authentication result information indicating that the terminal is authenticated to be used by a user with legitimate usage authority, the
<ステップS27>
次に、管理システム50の端末抽出部54は、開始要求端末(通信端末10aa)の端末ID「10aa」を検索キーとして、グループ管理テーブル(図9参照)を検索し、開始要求端末が通話することができる、すなわち、開始要求端末と同じグループ(ここでは、グループID「G001」のグループ)に属する宛先端末の候補の端末IDを抽出する。また、端末抽出部54は、抽出した端末IDを検索キーとして、端末管理テーブルを検索し、この端末IDに対応する端末名、すなわち宛先端末の候補の端末名を抽出する。ここでは、開始要求端末(通信端末10aa)の端末ID「10aa」に対応する宛先端末の候補(通信端末10ab、10ac、10db)のそれぞれの端末ID(「10ab」、「10ac」、「10db」)と、これらに対応する端末名(「日本 東京事業所 AB端末」、「日本 東京事業所 AC端末」、「アメリカ ワシントン事業所 DB端末」)が抽出される。
<Step S27>
Next, the
<ステップS28、S29>
次に、管理システム50の通信部51は、端末抽出部54によって抽出された宛先端末の候補の端末IDおよび端末名を含む宛先リスト情報を、開始要求端末(通信端末10aa)に送信する。これにより、開始要求端末(通信端末10aa)では、通信部11が宛先リスト情報を受信し、記憶・読出部17が記憶部18へ宛先リスト情報を記憶する。
<Steps S28, S29>
Next, the
このように、本実施形態では、各通信端末10で宛先リスト情報を管理するのではなく、管理システム50がすべての通信端末10の宛先リスト情報を一元管理している。これによって、通信システム1に新たな通信端末10が含まれるようになったり、既に含まれている通信端末10が除外されたりする場合でも、管理システム50側で一括して対応するため、各通信端末10側で宛先リスト情報の変更を行う手間を省くことができる。
In this manner, in this embodiment, the
<ステップS30>
また、管理システム50の端末状態取得部55は、端末抽出部54によって抽出された宛先端末の候補の端末ID(「10ab」、「10ac」、「10db」)を検索キーとして、端末管理テーブルを検索する。そして、端末状態取得部55は、宛先端末の候補の端末ID毎に、対応する稼動状態および通信状態を読み出すことにより、宛先端末の候補(通信端末10ab、10ac、10db)それぞれの稼動状態および通信状態を取得する。
<Step S30>
In addition, the terminal
<ステップS31>
次に、通信部51は、ステップS30で使用された検索キーである端末IDと、対応する宛先端末の候補の稼動状態および通信状態とを含む状態情報を、通信ネットワーク2を介して開始要求端末に送信する。具体的には、通信部51は、例えば、検索キーとしての端末ID「10ab」と、宛先端末の候補(通信端末10ab)の稼動状態「オフライン」とを含む状態情報を、開始要求端末(通信端末10aa)に送信する。なお、稼動状態が「オフライン」の場合には、状態情報には、通信状態は含まれない。また、通信部51は、端末ID「10ac」と、宛先端末の候補(通信端末10ac)の稼動状態「オンライン」と、通信状態「None」とを含む状態情報等、宛先端末の候補すべてに対する状態情報それぞれを開始要求端末(通信端末10aa)へ送信する。
<Step S31>
Next, the
<ステップS32>
次に、開始要求端末(通信端末10aa)の記憶・読出部17は、順次、管理システム50から受信した状態情報を記憶部18に記憶する。したがって、開始要求端末(通信端末10aa)は、宛先端末の候補の状態情報を受信することで、通話することができる宛先端末の候補の現時点のそれぞれの稼動状態および通信状態を取得することができる。
<Step S32>
Next, the storage/
<ステップS33>
次に、開始要求端末(通信端末10aa)の表示制御部14は、記憶部18に記憶されている宛先リスト情報、および宛先端末の候補の状態情報に基づいて、宛先端末の候補の稼動状態および通信状態を反映させた宛先リストを作成する。そして、表示制御部14は、図1に示すディスプレイ120aaに、所定のタイミングで図13に示すような宛先リストを表示する。
<Step S33>
Next, the
図13に示すように、ディスプレイ120aaに表示される宛先リストは、宛先端末の候補の端末ID1100-2と、端末名1100-3と、状態情報を反映させたアイコン1100-4a、1100-4b等を含む。アイコンとしては、オフラインで通話できないことを示すオフラインアイコン1100-4aと、オンラインで通話可能であることを示す通話可能アイコン1100-4bと、がある。なお、オンラインで通話中であることを示す通話中アイコン等があってもよい。 As shown in FIG. 13, the destination list displayed on the display 120aa includes a terminal ID 1100-2 of destination terminal candidates, a terminal name 1100-3, icons 1100-4a and 1100-4b reflecting status information, etc. including. The icons include an offline icon 1100-4a that indicates that a call cannot be made offline, and a call enabled icon 1100-4b that indicates that a call is possible online. Note that there may be a call-in-progress icon or the like that indicates that the call is in progress online.
表示制御部14は、宛先端末の候補の稼動状態が「オンライン」であり、通信状態が「None」である場合には、この宛先端末の候補に対し、通話可能アイコン1100-4bを割り当てる。また、表示制御部14は、宛先端末の候補の稼動状態が「オフライン」である場合には、この宛先端末の候補に対し、オフラインアイコン1100-4aを割り当てる。なお、表示制御部14は、宛先端末の候補の稼動状態が「オンライン」であり、通信状態が「None」以外である場合には、この宛先端末の候補に対し、通話中アイコンを割り当てればよい。
If the operating state of the destination terminal candidate is "online" and the communication state is "None," the
なお、他の通信端末10でも、ステップS21と同様に、ユーザが図2に示す入力装置108を介して電源をオンにすると、当該通信端末10の操作入力受付部12が、電源オンを受け付けて、上述のステップS22~S33の処理と同様の処理が行われる。
Note that in
(通信端末が他の通信端末との通信の開始を要求する場合の処理)
図14は、実施形態に係る通信システムにおける通話の開始を要求する処理の一例を示すシーケンス図である。図14を参照しながら、通信端末10が他の通信端末10との通信の開始を要求する場合の処理を説明する。なお、図14では、すべて管理情報用セッションseiによって、各種管理情報が送受信される処理が示されている。
(Processing when a communication terminal requests the start of communication with another communication terminal)
FIG. 14 is a sequence diagram illustrating an example of a process for requesting the start of a call in the communication system according to the embodiment. Processing when the
図14においては、図12においてログインが許可された通信端末10aaが、開始要求情報を送信する例、すなわち、通信端末10aaが開始要求端末として動作する例について説明する。開始要求端末としての通信端末10aaは、図12のステップS31で受信した宛先端末の候補の状態情報に基づいて、宛先端末の候補のうち、稼動状態が「オンライン」であり、通信状態が「None」である通信端末10のうち少なくとも1つの通信端末10と通話を行うことができる。例えば、開始要求端末(通信端末10aa)は、宛先端末の候補のうち、図12のステップS31によって受信した状態情報により、稼動状態が「オンライン」であり、通信状態が「None」である通信端末10dbと通話を行うことができる。そこで、以下では、開始要求端末(通信端末10aa)のユーザが、宛先端末(通信端末10db)と通話を開始することを選択した場合について説明する。
In FIG. 14, an example will be described in which the communication terminal 10aa, which was permitted to log in in FIG. 12, transmits start request information, that is, an example in which the communication terminal 10aa operates as a start request terminal. The communication terminal 10aa serving as the start request terminal determines that among the destination terminal candidates, the operating state is "online" and the communication state is "None" based on the state information of the destination terminal candidates received in step S31 of FIG. It is possible to make a telephone conversation with at least one
なお、図14に示す処理が開始される前の状態において、開始要求端末としての通信端末10aaのディスプレイ120aaには、図13に示す宛先リストが表示されているものとする。そして、開始要求端末のユーザは、宛先リストから所望の通話相手(宛先端末)を選択することができる。 It is assumed that before the process shown in FIG. 14 is started, the destination list shown in FIG. 13 is displayed on the display 120aa of the communication terminal 10aa as the start requesting terminal. The user of the start requesting terminal can then select a desired communication partner (destination terminal) from the destination list.
<ステップS41>
まず、開始要求端末のユーザは、通信端末10aaの入力装置108を操作して宛先端末(通信端末10db)を選択する。
<Step S41>
First, the user of the start request terminal operates the
<ステップS42>
すると、通信端末10aaの通信部11は、開始要求端末(通信端末10aa)の端末ID「10aa」、および宛先端末(通信端末10db)の端末ID「10db」を含む開始要求情報を、開始要求端末のIPアドレスと共に管理システム50へ送信する。これにより、管理システム50の通信部51は、開始要求情報を受信すると共に、送信元である開始要求端末(通信端末10aa)のIPアドレス「1.2.1.3」を把握することになる。
<Step S42>
Then, the
<ステップS43>
そして、状態管理部53は、開始要求情報に含まれる開始要求端末(通信端末10aa)の端末ID「10aa」および宛先端末(通信端末10db)の端末ID「10db」に基づき、端末管理DB5002の端末管理テーブルにおいて、端末ID「10aa」および端末ID「10db」がそれぞれ含まれるレコードの通信状態のフィールド部分を変更する。具体的には、状態管理部53は、端末管理テーブルの端末ID「10aa」が含まれるレコードの通信状態を「Calling」に変更する。同様に、状態管理部53は、端末管理テーブルの端末ID「10db」が含まれるレコードの通信状態を「Ringing」に変更する。
<Step S43>
Then, the
<ステップS44>
そして、管理システム50のセッション制御部56は、開始要求端末(通信端末10aa)によって要求された宛先端末との間の通信を実行するためのセッション(コンテンツデータ用セッションsed)を識別するためのセッションID「se1」を生成する。セッション制御部56は、セッションIDを生成すると、セッションID「se1」をセッション管理テーブル(図10参照)に記憶する。
<Step S44>
Then, the
<ステップS45>
続いて、セッション制御部56は、セッション管理テーブルにおいて、セッションID「se1」が含まれるレコードの開始要求端末の端末IDおよび宛先端末の端末IDのフィールド部分に、それぞれ開始要求端末の端末ID「10aa」、宛先端末の端末ID「10db」を記憶して管理する。
<Step S45>
Next, the
<ステップS46>
次に、通信部51は、通信ネットワーク2を介して、開始要求端末(通信端末10aa)へ、セッション制御部56により生成されたセッションIDを送信する。
<Step S46>
Next, the
<ステップS47>
また、通信部51は、開始要求端末の端末ID「10aa」と、セッションID「se1」とを含む開始要求情報と、管理システム50のIPアドレスとを宛先端末へ送信する。これにより、宛先端末(通信端末10db)は、開始要求情報を受信すると共に、管理システム50のIPアドレス「1.1.1.2」を把握することになる。
<Step S47>
The
(宛先端末が開始要求端末との間で通信開始を許可する応答を受け付けた場合の処理)
図15は、実施形態に係る通信システムにおける通話の開始の要求を許可する処理の一例を示すシーケンス図である。図16は、開始要求受付画面の表示例を示す図である。図15および図16を参照しながら、開始要求情報を受信した宛先端末のユーザが、入力装置108を操作することにより、開始要求端末との間の通信の開始(セッションの確立)を許可する旨の応答が受け付けられた場合の処理について説明する。
(Processing when the destination terminal receives a response permitting the start of communication with the start requesting terminal)
FIG. 15 is a sequence diagram illustrating an example of processing for permitting a request to start a call in the communication system according to the embodiment. FIG. 16 is a diagram illustrating a display example of a start request reception screen. Referring to FIGS. 15 and 16, the user of the destination terminal that has received the start request information operates the
<ステップS51>
図15に示す送受信処理の開始時には、宛先端末(通信端末10db)のディスプレイ214には、開始要求情報を受信したことを示す開始要求受付画面1200-1(図16参照)が表示されている。
<Step S51>
At the start of the transmission/reception process shown in FIG. 15, a start request reception screen 1200-1 (see FIG. 16) indicating that start request information has been received is displayed on the
図16に示す開始要求受付画面1200-1は、開始要求情報を受信した旨を示し、開始要求端末との間の通信の開始(セッションの確立)を許可するか否かを指定するためのユーザインターフェースである。ユーザは、開始要求受付画面1200-1を閲覧することにより、開始要求を受信したことを確認することができる。開始要求受付画面1200-1は、セッションの確立を許可するための「はい」ボタン1200-2と、セッションの確立を許可しない選択をするための「いいえ」ボタン1200-3と、を含む。 The start request reception screen 1200-1 shown in FIG. 16 indicates that start request information has been received, and allows the user to specify whether or not to permit the start of communication (establishment of a session) with the start request terminal. It is an interface. The user can confirm that the start request has been received by viewing the start request reception screen 1200-1. The start request acceptance screen 1200-1 includes a "Yes" button 1200-2 for allowing the establishment of a session, and a "No" button 1200-3 for selecting not to permit the establishment of the session.
<ステップS52>
宛先端末(通信端末10db)の入力装置108の操作によって「はい」ボタン1200-2が押下された場合、操作入力受付部12は、開始要求端末(通信端末10aa)との間の通信の開始(セッション確立)を許可する旨の応答を受け付ける。
<Step S52>
When the “Yes” button 1200-2 is pressed by operating the
<ステップS53>
次に、宛先端末の通信部11は、宛先端末の端末ID「10db」、開始要求端末の端末ID「10aa」、およびセッションID「se1」が含まれる開始応答情報を、管理システム50へ送信する。
<Step S53>
Next, the
<ステップS54>
管理システム50の通信部51が開始応答情報を受信すると、状態管理部53は、開始応答情報に含まれる開始要求端末の端末ID「10aa」および宛先端末の端末ID「10db」に基づき、端末管理テーブルにおいて、端末ID「10aa」および端末ID「10db」がそれぞれ含まれるレコードの通信状態のフィールド部分を変更する。具体的には、状態管理部53は、端末管理テーブルの端末ID「10aa」が含まれるレコードの通信状態を「Accepted」に変更する。同様に、状態管理部53は、端末管理テーブルの端末ID「10db」が含まれるレコードの通信状態も「Accepted」に変更する。
<Step S54>
When the
<ステップS55>
次に、通信部51は、宛先端末(通信端末10db)の端末ID「10db」、およびセッションID「se1」が含まれる開始応答情報を開始要求端末(通信端末10aa)へ送信する。
<Step S55>
Next, the
<ステップS56>
開始要求端末は、この開始応答情報を受信すると、通信部11によってセッションID「se1」を管理システム50に送信することにより、セッションを確立させる。
<Step S56>
Upon receiving this start response information, the start request terminal establishes a session by transmitting the session ID "se1" to the
<ステップS57>
一方、宛先端末は、通信部11によってセッションID「se1」を管理システム50に送信することにより、セッションを確立させる。
<Step S57>
On the other hand, the destination terminal establishes a session by transmitting the session ID "se1" to the
なお、上述の図12における同じグループの通信端末10を識別する端末IDを抽出する動作、ならびに図14および図15に示す通信端末10aaと通信端末10dbとの間でセッションを確立させるための動作においては、端末IDを利用した動作ではなく、各通信端末にログインしているユーザのユーザID(例えばメールアドレス等)を利用した動作であってもよい。
Note that in the operation of extracting the terminal ID for identifying the
(アバター生成処理)
図17は、実施形態に係る通信システムのアバター生成処理の流れの一例を示すフローチャートである。図18および図19は、アバターの表示動作を説明する図である。図17~図19を参照しながら、管理システム50においてビデオ会議に参加する参加者のアバターを生成する処理の流れについて説明する。
(Avatar generation process)
FIG. 17 is a flowchart illustrating an example of the flow of avatar generation processing in the communication system according to the embodiment. FIGS. 18 and 19 are diagrams illustrating the display operation of the avatar. The flow of processing for generating avatars of participants participating in a video conference in the
<ステップS61>
管理システム50の顔検出部61は、通信部51により受信されたビデオ会議に参加する各通信端末10から受信した映像データから、写り込んでいる参加者の顔画像を検出して、顔の特徴を数値化した特徴値を顔検出情報として取得する。そして、顔検出部61は、映像データにおいて検出した参加者の顔の画像の中心座標を算出する。そして、ステップS62へ移行する。
<Step S61>
The
<ステップS62>
管理システム50の比較部62は、記憶部58に記憶されている後述の顔・アバター・属性対応テーブル(後述する図23参照)を参照し、顔検出部61により取得された顔検出情報が、顔・アバター・属性対応テーブルに登録されている顔認識情報と一致するか否か比較する。そして、ステップS63へ移行する。
<Step S62>
The
<ステップS63>
比較部62による顔検出情報と顔認識情報との比較の結果、一致する場合(ステップS63:Yes)、ステップS65へ移行し、一致しない場合(ステップS63:No)、ステップS64へ移行する。
<Step S63>
As a result of the comparison between the face detection information and the face recognition information by the
<ステップS64>
比較部62は、顔・アバター・属性対応テーブルにおいて、顔検出部61により取得された顔検出情報と一致する顔認識情報が存在しない場合、当該顔検出情報を新しい顔認識情報として、顔・アバター・属性対応テーブルに登録する。この時点では、顔・アバター・属性対応テーブルにおいて、新たに登録された顔認識情報のレコードには、対応する(関連付けられた)アバター情報および属性情報は登録されていない状態となる。そして、ステップS65へ移行する。
<Step S64>
If there is no face recognition information that matches the face detection information acquired by the
<ステップS65>
管理システム50の生成部63は、顔・アバター・属性対応テーブルにおいて、顔検出部61により検出された顔検出情報と一致する顔認識情報(ステップS64で新たに顔認識情報として登録された場合は、当該顔認識情報)に関連付けられたアバター情報が登録されているか否か検索する。関連付けられたアバター情報が登録されている場合(ステップS65:Yes)、ステップS66へ移行し、登録されていない場合(ステップS65:No)、ステップS67へ移行する。
<Step S65>
The
<ステップS66>
生成部63は、顔・アバター・属性対応テーブルから、比較部62により顔検出情報と一致すると判断された顔認識情報に対応するアバター情報を取得し、当該アバター情報に基づいて、当該顔認識情報に対応する参加者を表すアバターを生成する。そして、管理システム50の表示制御部69は、生成部63により生成されたアバター(参加者の情報の一例)について、当該アバターに対応する属性情報に基づいて表示制御を行う。
<Step S66>
The
例えば、図18(a)に示すように、拠点aでは、通信端末10aを用いてビデオ会議に参加する参加者A~Dがいて、拠点bでは、通信端末10bを用いてビデオ会議に参加する参加者E、Fがいるものとした場合、表示制御部69は、通信端末10a、10bに対して、図18(b)に示すように、ビデオ会議に参加している各拠点の参加者全員(アバター)が同一の場所にいるような映像データを生成して送信するものとしてもよい。または、図19(a)および図19(b)に示すように、表示制御部69は、生成部63により生成されたアバターについて、自拠点以外の拠点の参加者(アバター)のみを映すような映像データを生成して、通信端末10a、10bに対して送信するものとしてもよい。図19(b)に示す例では、表示制御部69は、拠点bの通信端末10bのディスプレイ214に映す映像データとして、自拠点(ここでは拠点b)以外の拠点(ここでは拠点a)の参加者A~Dのみを映すような映像データを生成するものとしてもよい。
For example, as shown in FIG. 18(a), at site a, there are participants A to D who participate in a video conference using
また、表示制御部69は、参加者の属性情報が顔・アバター・属性対応テーブルに登録されている場合、当該属性情報を参照して、ビデオ会議の参加者のうち同じ会社に所属する参加者のアバターを同列となるように配置し、役職の順序に並べた表示となるように、映像データを生成して送信するものとしてもよい。また、表示制御部69は、アバターを役職の順序に並べると共に、または、それに代えて、役職名をアバターの近傍に表示するものとしてもよい。この際、表示制御部69は、さらにアバターの近傍に名前、所属等を表示させるものとしてもよい。このように役職の順序に並べたり、役職名等を表示させることによって、自拠点以外の拠点の参加者(アバター)について、少なくともどの参加者がどの参加者よりも目上のものであるのか等の各参加者の立場を把握することができ、円滑に会議を進めることができる。なお、ここで、顔・アバター・属性対応テーブルに、参加者に対応する属性情報が登録されていない場合、図21で後述する属性情報取得処理が実行される。
In addition, when the attribute information of the participants is registered in the face/avatar/attribute correspondence table, the
また、表示制御部69は、映像データにアバターを含める場合、その背景の画像としては実画像の背景を用いてもよく、またはバーチャルな背景を用いるものとしてもよい。また、表示制御部69は、背景の画像として実画像の背景を用いる場合、アバターの表示のみを明確に表示させ、実画像の背景についてはぼかすものとしてもよい。このようにバーチャルな背景を表示させたり、実画像の背景をぼかす表示によって、ビデオ会議の参加者は、自身が居る会議室等の部屋の状態を気にすることなくビデオ会議に参加することができ、背景に社外秘の情報が含まれている場合でも当該情報の流出の防止を抑制することができる。
Further, when including an avatar in the video data, the
<ステップS67>
顔・アバター・属性対応テーブルにおいて、顔検出部61により検出された顔検出情報と一致する顔認識情報(ステップS64で新たに顔認識情報として登録された場合は、当該顔認識情報)に関連付けられたアバター情報が登録されていない場合、生成部63は、新たにアバター情報を生成する。例えば、記憶部58にデフォルトのアバター情報が記憶されているものとし、生成部63は、新たなアバター情報として、デフォルトのアバター情報を用いるものとしてもよい。そして、生成部63は、新たに生成したアバター情報に基づいて、顔認識情報に対応する参加者を表すアバターを生成する。そして、生成部63は、顔・アバター・属性対応テーブルにおいて、生成した新たなアバター情報を、当該顔認識情報に関連付けて登録する。表示制御部69によるアバターの表示制御は、上述のステップS66で説明した動作と同様である。
<Step S67>
In the face/avatar/attribute correspondence table, the face recognition information that matches the face detection information detected by the face detection unit 61 (if the face recognition information is newly registered as face recognition information in step S64, the face recognition information) If the avatar information has not been registered, the
以上のステップS61~S67の流れにより、管理システム50によるアバター生成処理が実行される。
The avatar generation process by the
(発話方向特定処理)
図20は、実施形態に係る通信端末の音声方向特定処理の流れの一例を示すフローチャートである。図20を参照しながら、通信端末10における発話方向特定処理の流れについて説明すする。
(Speech direction identification process)
FIG. 20 is a flowchart illustrating an example of the flow of audio direction identification processing of the communication terminal according to the embodiment. Referring to FIG. 20, the flow of speech direction identification processing in the
<ステップS71>
ビデオ会議の参加者は、他拠点の参加者とコミュニケーションを取るために発話する。そして、ステップS72へ移行する。
<Step S71>
Participants in a video conference speak to communicate with participants at other locations. Then, the process moves to step S72.
<ステップS72>
すると、発話した参加者が利用する通信端末10のマイク114a(マイク241)は、マイクロホンアレイにより発話した音声を収音して音声信号に変換し、通信端末10の音声入力部15は、当該音声信号を入力(取得)する。そして、ステップS73へ移行する。
<Step S72>
Then, the
<ステップS73>
通信端末10の発話方向特定部20は、音声入力部15により入力された音声信号に対して音声処理を行うことにより、音声の発話方向を特定する。そして、ステップS74へ移行する。
<Step S73>
The speech
<ステップS74>
通信端末10の通信部11は、音声入力部15により入力された音声データ(音声信号)、撮像部13により撮影された映像データ、および発話方向特定部20により特定された発話方向の情報を、管理システム50へ送信する。そして、発話方向特定処理を終了する。
<Step S74>
The
以上のステップS71~S74の流れで、通信端末10による発話方向特定処理が実行される。
The speech direction specifying process by the
(属性情報取得処理)
図21は、実施形態に係る通信システムの属性情報取得処理の流れの一例を示すフローチャートである。図22は、属性情報の取得動作を説明する図である。図23は、顔・アバター・属性対応テーブルの一例を示す図である。図21~図23を参照しながら、通信システム1による属性情報取得処理の流れについて説明する。なお、ビデオ会議が開始され、上述の図17で説明したように、管理システム50の表示制御部69がアバターを表示する場合に用いる参加者の属性情報が、顔・アバター・属性対応テーブルに登録されていないため、属性情報要求部64によって、属性情報が登録されていない参加者の拠点の通信端末10へ、属性情報についての発話を要求するための指示を送信したものとする。この場合、通信端末10の表示制御部14は、通信部11を介して当該指示を受信すると、例えば、ディスプレイ120(ディスプレイ214)に、属性情報の発話を促すメッセージを表示させる。なお、属性情報の発話を促すメッセージの表示のほか、例えば、通信端末10の音声出力部16は、属性情報の発話を促す音声を、スピーカ114b(スピーカ242)から出力させてもよい。
(Attribute information acquisition processing)
FIG. 21 is a flowchart illustrating an example of the flow of attribute information acquisition processing in the communication system according to the embodiment. FIG. 22 is a diagram illustrating an operation for acquiring attribute information. FIG. 23 is a diagram showing an example of a face/avatar/attribute correspondence table. The flow of attribute information acquisition processing by the
<ステップS81>
通信端末10のディスプレイ120(ディスプレイ214)に表示された属性情報の発話を促すメッセージを確認したビデオ会議の参加者は、自身の名前、属する会社の社名、所属および役職等の属性情報を発話する。図22に示す例では、拠点bの参加者E、Fに対して、属性情報の発話を促すようなメッセージが表示された場合、参加者Eは、自身の属性情報を含む「AAA社、技術のBBBです。」と発話し、参加者Fは、自身の属性情報を含む「XXX社、部長のYYYです。」と発話している状態を示す。図22の例では、拠点bの参加者が発話している状態を示しているが、上述の管理システム50のアバター生成処理の際に、拠点aの参加者の属性情報が顔・アバター・属性対応テーブルに登録されていないことが確認された場合、管理システム50から拠点aの通信端末10に対しても、属性情報についての発話を要求するための指示が送信される。通信端末10の音声入力部15は、マイク114a(マイク241)により収音された参加者が発話した音声の音声データを入力(取得)する。また、通信端末10の発話方向特定部20は、音声入力部15により入力された音声データに基づいて、音声方向(発話方向)を特定する。そして、通信端末10の通信部11は、音声入力部15により入力された音声データ、および発話方向特定部20により特定された発話方向の情報を、管理システム50へ送信する。管理システム50の通信部51は、通信端末10から送信された音声データおよび発話方向の情報を受信する。そして、ステップS82へ移行する。
<Step S81>
Participants of the video conference who confirm the message prompting them to speak the attribute information displayed on the display 120 (display 214) of the
<ステップS82>
管理システム50のテキスト化部66は、通信部51により受信された音声データを、既知の音声認識技術によりテキスト化する。そして、ステップS83へ移行する。
<Step S82>
The
<ステップS83>
管理システム50の抽出部67は、テキスト化部66によりテキスト化されたテキストと、予め属性情報を示す候補として記憶部58に登録されている登録済みワードとを比較する。そして、ステップS84へ移行する。
<Step S83>
The
<ステップS84>
抽出部67によるテキストと登録済みワードとの比較の結果、一致するキーワードがある(ステップS84:Yes)、ステップS85へ移行し、一致するキーワードがない(ステップS84:No)、ステップS87へ移行する。
<Step S84>
As a result of the comparison between the text and the registered word by the
<ステップS85>
抽出部67は、テキスト化部66によりテキスト化されたテキストと、登録済みワードとの比較の結果、当該テキストに登録済みワードと一致するキーワードがある場合、当該キーワードを抽出する。例えば、図23に示す顔・アバター・属性対応テーブルのように属性情報として、社名、所属、役職、および名前のような属性がある場合、抽出部67は、テキストから、各属性に対応するキーワードを抽出する。そして、ステップS86へ移行する。
<Step S85>
As a result of comparing the text converted into text by the
<ステップS86>
管理システム50の登録部68は、抽出部67により抽出されたキーワードを、テキスト化部66によりテキスト化された音声データに対応する参加者の属性情報として、顔・アバター・属性対応テーブルにおいて、比較部62により顔認識情報と一致すると判断された参加者の顔検出情報であって、発話方向に対応する参加者の顔検出情報に関連付けて登録する。例えば、図23に示す顔・アバター・属性対応テーブルでは、顔認識情報が「XXX」(M4)、および「YYY」(EL2)である参加者の属性情報として、社名「AAA」、所属「BBB」、役職「CCC」、および名前「DDD」が登録されている。そして、属性情報取得処理を終了する。
<Step S86>
The
<ステップS87>
テキスト化部66によりテキスト化されたテキストと、登録済みワードとの比較の結果、当該テキストに登録済みワードと一致するキーワードがないため、管理システム50の属性情報要求部64は、属性情報が登録されていない参加者に対して、属性情報の発話を要求するための指示を、通信部51を介して通信端末10へ送信する。そして、通信端末10の表示制御部14は、通信部11を介して当該指示を受信すると、例えば、ディスプレイ120(ディスプレイ214)に、属性情報の発話を促すメッセージを表示させる。そして、ステップS81へ戻る。
<Step S87>
As a result of comparing the text converted into text by the
以上のステップS81~S87の流れで、通信システム1による属性情報取得処理が実行される。
Attribute information acquisition processing by the
(アバター制御処理)
図24は、実施形態に係る通信システムのアバター制御処理の流れの一例を示すフローチャートである。図25は、属性情報に基づいてアバターの配置を変更する動作を説明する図である。図26は、発話方向と発話者との対応を説明する説明する図である。図27は、発話者・発話方向対応テーブルの一例を示す図である。図24~図27を参照しながら、通信システム1によるアバター制御処理の流れについて説明する。
(Avatar control processing)
FIG. 24 is a flowchart illustrating an example of the flow of avatar control processing in the communication system according to the embodiment. FIG. 25 is a diagram illustrating the operation of changing the arrangement of avatars based on attribute information. FIG. 26 is an explanatory diagram illustrating the correspondence between speech directions and speakers. FIG. 27 is a diagram showing an example of a speaker/speech direction correspondence table. The flow of avatar control processing by the
<ステップS91>
図17に示したアバター生成処理が実行されると、管理システム50の生成部63により生成されたアバターは、表示制御部69により、当該アバターに対応する属性情報に基づいて表示制御が行われ、映像データが生成される。表示制御部69による表示制御の詳細は、図17のステップS66で説明したとおりである。ここでは、自拠点の通信端末10が、相手拠点の参加者について生成されたアバターについて表示制御された映像データを管理システム50から受信し、当該映像データをディスプレイ120(ディスプレイ214)に表示させているものとする。
<Step S91>
When the avatar generation process shown in FIG. 17 is executed, the
例えば、図25(a)に示すように、拠点aの参加者をA社の課長、拠点bの参加者をB社の部長およびB社の課長、拠点cの参加者をA社の担当者およびB社の担当者とした場合、拠点aの通信端末10におけるディスプレイ120(ディスプレイ214)には、例えば図25(b)に示すように映像データが表示される。すなわち、図25(b)に示す映像データは、表示制御部69によって、各拠点(ここでは相手拠点となる拠点b、c)の参加者が同一の場所にいるようにし、同じ会社に所属する参加者(B社の部長、課長および担当者)を同列、かつ役職の順序に並べた状態となるように表示制御されたものである。
For example, as shown in Figure 25(a), the participants at site a are the section manager of company A, the participants at site b are the general manager of company B and the section manager of company B, and the participants at site c are the person in charge of company A. In the case of a person in charge of company B, video data is displayed on the display 120 (display 214) of the
そして、ステップS92へ移行する。 Then, the process moves to step S92.
<ステップS92>
相手拠点の参加者が発話すると、相手拠点の通信端末10の通信部11は、音声入力部15により入力された音声データ、撮像部13により撮影された映像データ、および発話方向特定部20により特定された発話方向の情報を、管理システム50へ送信する。管理システム50の通信部51は、相手拠点の音声データ、映像データおよび発話方向の情報を、相手拠点の通信端末10から受信する。そして、ステップS93へ移行する。
<Step S92>
When a participant at the other site speaks, the
<ステップS93>
管理システム50の対応付け部65は、通信部51を介して受信した参加者の音声の発話方向と、顔検出部61により検出された顔画像、すなわち参加者とを対応付ける。具体的には、対応付け部65は、予め記憶部58に記憶されている図27に示すような座標(顔中心座標)と、発話方向とを対応付けた発話者・発話方向対応テーブルを参照し、通信部51により受信された発話方向が、どの座標(顔中心座標)に対応するのかを特定する。ここで、例えば、図26に示すように、相手拠点の参加者がA~Dである場合、顔検出部61により参加者A~Dの顔の画像の中心座標はそれぞれ算出されている。そして、対応付け部65は、顔検出部61により算出された相手拠点の参加者の顔画像の中心座標のうち、特定した座標と一致する(または一致するとみなせる)中心座標を特定し、当該中心座標を有する顔画像に対応する参加者のアバターを特定する。そして、ステップS94へ移行する。
<Step S93>
The
<ステップS94>
管理システム50の表示制御部69は、対応付け部65により特定された参加者のアバターが、通信部51により受信された音声データに合わせて、音声を発話している動作となるように反映した映像データを生成する。具体的に反映動作は、上述したとおりである。そして、管理システム50の通信部51は、相手拠点の通信端末10から受信した音声データ、および表示制御部69により生成された映像データを、自拠点の通信端末10へ送信する。自拠点の通信端末10の表示制御部14は、管理システム50から通信部11を介して音声データおよび映像データを受信すると、ディスプレイ120(ディスプレイ214)に当該映像データを表示させ、音声出力部16は、当該音声データを音声として出力する。
<Step S94>
The
以上のステップS91~S94の流れで、通信システム1によるアバター制御処理が実行される。このように、相手拠点の参加者が発話すると、発話方向が特定され、当該発話方向からどの参加者が発話しているのかが特定されるので、当該参加者のアバターに対して、発話動作を反映することができる。これによって、相手拠点のアバターを含む映像データを見ている自拠点の参加者は、アバターを介してどの参加者が発話しているのかを認識することができるので、アバターを介したビデオ会議においても、スムーズなコミュニケーションを実現することができる。
The avatar control process by the
(通信システムの全体動作)
図28は、実施形態に係る通信システムの全体動作の流れの一例を示すシーケンス図である。図29は、音声認識による属性情報の取得を促す画面の一例を示す図である。図28および図29を参照しながら、通信システム1の全体的な動作の流れについて総括的に説明する。なお、図28においては、自拠点の通信端末を通信端末10a(第2通信端末)とし、相手拠点の通信端末を通信端末10b(第1通信端末)として説明する。
(Overall operation of communication system)
FIG. 28 is a sequence diagram illustrating an example of the flow of the overall operation of the communication system according to the embodiment. FIG. 29 is a diagram illustrating an example of a screen that prompts the acquisition of attribute information through voice recognition. With reference to FIGS. 28 and 29, the overall operation flow of the
<ステップS101、S102>
自拠点の参加者は、相手拠点の参加者とのビデオ会議を開始するために、通信端末10aの入力装置108を介して、開始するための操作(例えば、通信端末10bを宛先端末として選択する操作)を行う。これによって、上述の図14および図15に示した動作が実行され、通信端末10aと通信端末10bとの間でセッションが確立される。
<Steps S101, S102>
In order to start a video conference with a participant at the other site, the participant at the own site performs a start operation (for example, selecting the
<ステップS103>
セッションの確立後、通信端末10aの通信部11が、音声入力部15により入力された音声データ、および撮像部13により撮影された映像データを、管理システム50へ送信したものとする。
<Step S103>
It is assumed that after the session is established, the
<ステップS104>
管理システム50は、通信端末10aから音声データおよび映像データを受信すると、図17に示したアバター生成処理を実行する。これによって、相手拠点の通信端末10bのディスプレイ120(ディスプレイ214)には、自拠点の参加者をアバターとして示す映像データが表示される。
<Step S104>
When the
<ステップS105>
ステップS104のアバター生成処理において、自拠点の参加者のうち少なくともいずれかの参加者の属性情報が顔・アバター・属性対応テーブルに登録されていない場合、管理システム50の属性情報要求部64は、属性情報が登録されていない参加者に対して、属性情報の発話を要求するための指示を、通信部51を介して通信端末10aへ送信する。
<Step S105>
In the avatar generation process of step S104, if the attribute information of at least one of the participants at the own base is not registered in the face/avatar/attribute correspondence table, the attribute
<ステップS106>
通信端末10aの表示制御部14は、通信部11を介して当該指示を受信すると、例えば、ディスプレイ120(ディスプレイ214)に、属性情報の発話を促すメッセージを表示させる。例えば、図29では、通信端末10aのディスプレイ214に、属性情報を促すメッセージとして「自己紹介をしてください。会社・所属・役職・名前」のように表示された例を示している。
<Step S106>
When the
<ステップS107>
通信端末10aのディスプレイ120(ディスプレイ214)に表示された属性情報の発話を促すメッセージを確認したビデオ会議の参加者は、自身の名前、属する会社の社名、所属および役職等の属性情報を自己紹介として発話する。すると、発話した参加者が利用する通信端末10aのマイク114a(マイク241)は、マイクロホンアレイにより発話した音声を収音して音声信号に変換し、通信端末10aの音声入力部15は、当該音声信号を入力(取得)する。
<Step S107>
After confirming the message prompting them to speak the attribute information displayed on the display 120 (display 214) of the
<ステップS108、S109>
通信端末10aの発話方向特定部20は、音声入力部15により入力された音声信号に対して音声処理を行うことにより、音声の発話方向を特定する。通信端末10の通信部11は、音声入力部15により入力された音声データ(音声信号)、撮像部13により撮影された映像データ、および発話方向特定部20により特定された発話方向の情報を、管理システム50へ送信する。なお、ステップS109で発話方向の情報が管理システム50へ送信されることに限られず、ビデオ会議のコミュニケーションにおいて発話される度に、通信端末10aにおいて発話方向が特定され、当該発話方向の情報が相手拠点の通信端末10bへ送信される。
<Steps S108, S109>
The speech
<ステップS110>
管理システム50により通信端末10aから音声データ、映像データおよび発話方向の情報が受信されると、図21に示した属性情報取得処理が実行される。これによって、自拠点の参加者の属性情報が、顔・アバター・属性対応テーブルに登録される。
<Step S110>
When the
<ステップS111、S112>
そして、アバター生成処理の実行によりアバターが生成され、属性情報取得処理により自拠点の参加者の属性情報が登録されると、アバターと属性情報との対応関係が確立し、通信端末10aから管理システム50へ音声データ、映像データおよび発話方向の情報が送信されると、図24に示したアバター制御処理が実行され、音声を発話している動作が反映したアバターの映像データが、通信端末10bへ送信される。
<Steps S111, S112>
Then, when an avatar is generated by executing the avatar generation process and the attribute information of the participant at the own base is registered by the attribute information acquisition process, a correspondence relationship between the avatar and the attribute information is established, and the management system When the audio data, video data, and speech direction information are transmitted to the
以上のステップS101~S112の流れによって、通信システム1の全体的な動作が行われる。
The overall operation of the
以上のように、本実施形態に係る通信システム1では、ビデオ会議を開始時に参加者の属性情報が登録されていない場合、管理システム50から、参加者が用いる通信端末10に対して、属性情報の発話を要求するための指示を送信し、通信端末10は、属性情報の発話を促す動作(例えばメッセージ表示または音声出力等)を行う。そして、管理システム50は、通信端末10において入力された音声データをテキスト化して、登録済みワードと一致するキーワードを抽出して、発話した参加者の属性情報として登録するものとしている。これによって、ビデオ会議の開始前に属性情報が登録されていなくても、属性情報を取得することができるので、当該属性情報に基づいて参加者の情報(例えばアバター、実画像)に対する表示制御を行うことができる。また、このように、属性情報に基づいて参加者の情報に対する表示制御を行うことによって、参加者の立場等を把握することができ、円滑に会議を進めることができる。なお、属性情報に基づいた参加者の情報に対する表示制御としては、参加者を示すものとしてアバターを表示させることが必ずしも必須ではなく、例えば、参加者の実画像(参加者の情報の一例)の近傍に、属性情報を表示させる等の制御を行うものとしてもよい。
As described above, in the
また、本実施形態に係る通信システム1では、管理システム50は、通信端末10で撮影された映像データから参加者の顔を検出し、検出した顔検出情報と一致する、登録済みの顔認識情報に対応するアバター情報から、当該参加者を示すアバターを生成している。このように参加者を示すアバターの映像データを用いることによって、実画像の場合と比べてより少ないフレームレートで転送することができるのでデータ通信量を低減することができ、ディスプレイへのスペック要求を下げることができる。
Further, in the
また、本実施形態に係る通信システム1では、各拠点の通信端末10において発話した参加者の発話方向を特定し、管理システム50で検出した参加者の顔画像と、当該発話方向とを対応付けることで、発話をした参加者のアバターを特定する。そして、管理システム50は、発話の音声データに合わせて、アバターが音声を発話している動作となるように反映した映像データを生成し、相手拠点の通信端末10へ送信する。これによって、自拠点のアバターを含む映像データを見た相手拠点の参加者は、アバターを介してどの参加者が発話しているのかを認識することができるので、アバターを介したビデオ会議においても、スムーズなコミュニケーションを実現することができる。
Furthermore, in the
なお、ビデオ会議中に、参加者がその拠点である会議室の中で席を移動する可能性もあり、この場合には参加者の発話方向も変わることになる。この場合、例えば、顔検出部61による参加者の顔の検出、および検出した顔の画像の中心座標の算出の処理を、一定期間ごとに実行、または、映像データから参加者の移動を検出した場合に実行する等によって対応することができる。これによって、上述のアバター制御処理の中で、対応付け部65は、発話者・発話方向対応テーブルを参照し、変化した発話方向が、どの座標(顔中心座標)に対応するのかを特定することができ、当該中心座標を有する顔画像に対応する参加者のアバターを特定することができる。
Note that during a video conference, there is a possibility that participants may move their seats within the conference room where they are based, and in this case, the direction of the participants' speech will also change. In this case, for example, the
また、上述の実施形態に係る通信端末10のソフトウェア構成は、上述の図5に示した構成に限定されるものではなく、例えば、図30に示す構成であってもよい。図30は、実施形態に係る通信端末のWebアプリを利用する場合のソフトウェア構成の一例を示す図である。上述の図5では、通信端末10で通信アプリAが実行される動作を説明したが、同様の処理をWebアプリによっても実現できる。Webアプリは、ブラウザ上で動作する、例えばJavaScript(登録商標)によるプログラムとWebサーバ側のプログラムとが協調することによって動作し、ユーザはそれをブラウザ上で使用する。すなわち、図30に示すように、通信端末10は管理システム50から、プログラムWA(HTML(HyperText Markup Language)+JavaScript(登録商標)+CSS等)をダウンロードして、ブラウザ1040上で実行する。当該ブラウザ1040は、OS1020の制御に従って動作する。通信端末10は、HTTP(Hypertext Transfer Protocol)またはHTTPS(Hypertext Transfer Protocol Secure)等のプロトコルを用いて管理システム50とデータを送受信することによって、管理システム50が提供しているサービスを利用できる。このような利用形態では、予め通信端末10に通信アプリAをダウンロードしておく必要がない。
Furthermore, the software configuration of the
また、上述の実施形態の各機能は、一または複数の処理回路によって実現することが可能である。ここで、「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上述した各機能を実行するよう設計されたASIC、DSP(Digital Signal Processor)、FPGA、SoC(System on a chip)、GPU(Graphics Processing Unit)や従来の回路モジュール等のデバイスを含むものとする。 Moreover, each function of the above-described embodiments can be realized by one or more processing circuits. Here, the term "processing circuit" refers to a processor that is programmed to execute each function using software, such as a processor implemented using an electronic circuit, or an ASIC or DSP (Digital It includes devices such as a signal processor), an FPGA, an SoC (system on a chip), a GPU (graphics processing unit), and a conventional circuit module.
また、上述の実施形態において、通信端末10および管理システム50の各機能部の少なくともいずれかがプログラムの実行によって実現される場合、そのプログラムは、ROM等に予め組み込まれて提供される。また、上述の実施形態に係る通信端末10および管理システム50で実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでCD-ROM(Compact Disc Read Only Memory)、フレキシブルディスク(FD)、CD-R(Compact Disk-Recordable)、DVDまたはSDカード等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。また、上述の実施形態に係る通信端末10および管理システム50で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、上述の実施形態に係る通信端末10および管理システム50で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するように構成してもよい。また、上述の実施形態に係る通信端末10および管理システム50で実行されるプログラムは、上述した各機能部のうち少なくともいずれかを含むモジュール構成となっており、実際のハードウェアとしてはCPUが上述の記憶装置からプログラムを読み出して実行することにより、上述の各機能部が主記憶装置上にロードされて生成されるようになっている。
Further, in the above-described embodiment, when at least one of the functional units of the
1 通信システム
2 通信ネットワーク
2a~2d LAN
2ab、2cd 専用線
2i インターネット
10、10a、10aa、10ab、10b、10ba、10bb、10ca、10cb、10da、10db 通信端末
11 通信部
12 操作入力受付部
13 撮像部
14 表示制御部
15 音声入力部
16 音声出力部
17 記憶・読出部
18 記憶部
19 認証要求部
20 発話方向特定部
30ab、30cb PC
50 管理システム
51 通信部
52 認証部
53 状態管理部
54 端末抽出部
55 端末状態取得部
56 セッション制御部
57 記憶・読出部
58 記憶部
61 顔検出部
62 比較部
63 生成部
64 属性情報要求部
65 対応付け部
66 テキスト化部
67 抽出部
68 登録部
69 表示制御部
70a~70d、70ab、70cd ルータ
90 プログラム提供システム
101 CPU
102 ROM
103 RAM
105 補助記憶装置
106 メディア
107 メディアドライブ
108 入力装置
110 バスライン
111 ネットワークI/F
112 カメラ
112c ケーブル
113 撮像素子I/F
114 スマートスピーカ
114a マイク
114b スピーカ
114c ケーブル
115 スピーカ
115c ケーブル
116 音声入出力I/F
117 USB I/F
119 ディスプレイI/F
120aa、120ba、120ca、120da ディスプレイ
120c ケーブル
201 CPU
202 ROM
203 RAM
204 SSD
205 ネットワークI/F
206 外部機器接続I/F
210 バスライン
211 キャプチャデバイス
212 GPU
213 ディスプレイコントローラ
214 ディスプレイ
215 センサコントローラ
216 接触センサ
217 電子ペンコントローラ
222 電源スイッチ
223 選択スイッチ
230 USBメモリ
240 スマートスピーカ
241 マイク
242 スピーカ
260 カメラ
270 PC
290 電子ペン
301 CPU
302 ROM
303 RAM
305 補助記憶装置
306 記録メディア
307 メディアドライブ
308 ディスプレイ
309 ネットワークI/F
310 バスライン
311 キーボード
312 マウス
313 DVD
314 DVDドライブ
315 USB I/F
1010 作業領域
1020 OS
1040 ブラウザ
1100-2 端末ID
1100-3 端末名
1100-4a オフラインアイコン
1100-4b 通話可能アイコン
1200-1 開始要求受付画面
1200-2 「はい」ボタン
1200-3 「いいえ」ボタン
5001 認証管理DB
5002 端末管理DB
5003 グループ管理DB
5004 セッション管理DB
A 通信アプリ
WA プログラム
1
2ab, 2cd
50
102 ROM
103 RAM
105
112
114
117 USB I/F
119 Display I/F
120aa, 120ba, 120ca,
202 ROM
203 RAM
204 SSD
205 Network I/F
206 External device connection I/F
210 Bus line 211 Capture device 212 GPU
213
290
302 ROM
303 RAM
305
310
314
1010
1040 Browser 1100-2 Terminal ID
1100-3 Terminal name 1100-4a Offline icon 1100-4b Call ready icon 1200-1 Start request reception screen 1200-2 "Yes" button 1200-3 "No" button 5001 Authentication management DB
5002 Terminal management DB
5003 Group management DB
5004 Session management DB
A Communication app WA program
Claims (15)
前記ビデオ会議の1以上の参加者を撮影した映像データを得る撮像部と、
前記撮像部により得られた前記映像データから前記参加者を検出する検出部と、
前記参加者が発話した音声データを入力する音声入力部と、
前記音声入力部により入力された前記音声データから、前記参加者の属性情報を抽出する抽出部と、
前記抽出部により抽出された前記属性情報に基づいて、前記検出部により検出された前記参加者の情報について、第1通信端末での表示制御を行う第1制御部と、
前記第1通信端末と前記ネットワークを介して通信する第2通信端末を利用する参加者に対して前記属性情報の発話を要求する指示を、前記第2通信端末へ送信する要求部と、
前記要求部から受信した前記指示に従って、前記第2通信端末において、該第2通信端末を利用する参加者に対して前記属性情報の発話を促す処理を行う第2制御部と、
を有する通信システム。 A communication system that enables video conferencing by multiple communication terminals transmitting and receiving audio data via a network,
an imaging unit that obtains video data of one or more participants in the video conference;
a detection unit that detects the participant from the video data obtained by the imaging unit;
an audio input unit that inputs audio data uttered by the participant;
an extraction unit that extracts attribute information of the participant from the audio data input by the audio input unit;
a first control unit that controls display on a first communication terminal of the participant information detected by the detection unit based on the attribute information extracted by the extraction unit;
a request unit that transmits to the second communication terminal an instruction requesting a participant using a second communication terminal that communicates with the first communication terminal via the network to utter the attribute information;
a second control unit that performs a process of prompting a participant using the second communication terminal to utter the attribute information in the second communication terminal according to the instruction received from the request unit;
A communication system with
前記検出部は、前記映像データから前記参加者の顔を検出して、検出した情報を顔認識情報として前記記憶部に記憶させ、The detection unit detects the face of the participant from the video data and stores the detected information in the storage unit as face recognition information,
前記第1制御部は、前記検出部により検出された前記参加者の前記顔認識情報に関連付けて前記属性情報が前記記憶部に記憶されている場合、該属性情報に基づいた該参加者の情報を前記第1通信端末に表示させ、When the attribute information is stored in the storage unit in association with the face recognition information of the participant detected by the detection unit, the first control unit controls information about the participant based on the attribute information. is displayed on the first communication terminal,
前記要求部は、前記検出部により検出された前記参加者の前記顔認識情報に関連付けて前記属性情報が前記記憶部に記憶されていない場合、前記発話を要求する指示を、前記第2通信端末へ送信する請求項1~3のいずれか一項に記載の通信システム。When the attribute information is not stored in the storage unit in association with the face recognition information of the participant detected by the detection unit, the request unit transmits an instruction to request the utterance to the second communication terminal. The communication system according to any one of claims 1 to 3, wherein the communication system transmits a message to a user.
前記抽出部は、前記音声入力部により入力された前記第2通信端末を利用する参加者の前記音声データから該参加者の属性情報を抽出し、The extraction unit extracts attribute information of the participant from the audio data of the participant using the second communication terminal input by the audio input unit,
前記通信システムは、前記抽出部により抽出された前記第2通信端末を利用する参加者の属性情報を、該参加者に対応する顔認識情報と関連付けて前記記憶部に登録する登録部を、さらに有する請求項4に記載の通信システム。The communication system further includes a registration unit that registers attribute information of a participant using the second communication terminal extracted by the extraction unit in the storage unit in association with face recognition information corresponding to the participant. The communication system according to claim 4, comprising:
前記第1制御部は、前記検出部により検出された前記参加者の情報として、前記生成部により生成された該参加者に対応するアバターについて、前記第1通信端末での表示制御を行う請求項1~5のいずれか一項に記載の通信システム。 further comprising a generation unit that generates an avatar representing the participant detected by the detection unit,
The first control unit controls display on the first communication terminal of an avatar corresponding to the participant generated by the generation unit as information about the participant detected by the detection unit. The communication system according to any one of items 1 to 5 .
前記検出部により検出された前記参加者の前記映像データ上の位置に基づいて、前記検出部により検出された前記参加者のうち、前記発話方向に対応する参加者を特定する第2特定部と、
をさらに有し、
前記第1制御部は、前記第2特定部により特定された参加者のアバターについて、前記音声データに合わせて、該音声データの音声を発話していることを示すように表示制御を行う請求項6~9のいずれか一項に記載の通信システム。 a first identifying unit that identifies, based on the audio data input by the audio input unit, the speaking direction of the participant who uttered the audio data;
a second identifying unit that identifies a participant corresponding to the speaking direction among the participants detected by the detecting unit based on the position of the participant detected by the detecting unit on the video data; ,
It further has
The first control unit performs display control on the avatar of the participant identified by the second identification unit so as to indicate that the avatar of the participant is speaking the audio of the audio data in accordance with the audio data. The communication system according to any one of items 6 to 9 .
前記ビデオ会議の1以上の参加者を撮影した映像データを得た撮像部により得られた該映像データから前記参加者を検出する検出部と、
前記参加者が発話した音声データを入力した音声入力部により入力された該音声データから、前記参加者の属性情報を抽出する抽出部と、
前記抽出部により抽出された前記属性情報に基づいて、前記検出部により検出された前記参加者の情報について、第1通信端末での表示制御を行う第1制御部と、
前記第1通信端末と通信する第2通信端末を利用する参加者に対して前記属性情報の発話を要求する指示を、前記第2通信端末へ送信する要求部と、
前記要求部から受信した前記指示に従って、前記第2通信端末において、該第2通信端末を利用する参加者に対して前記属性情報の発話を促す処理を行う第2制御部と、
を有する情報処理装置。 An information processing device that relays transmission and reception of audio data between multiple communication terminals that conduct a video conference,
a detection unit that detects the participant from video data obtained by an imaging unit that has obtained video data of one or more participants of the video conference;
an extraction unit that extracts attribute information of the participant from audio data input by an audio input unit that inputs audio data uttered by the participant;
a first control unit that controls display on a first communication terminal of the participant information detected by the detection unit based on the attribute information extracted by the extraction unit;
a requesting unit that transmits to the second communication terminal an instruction requesting a participant using a second communication terminal communicating with the first communication terminal to utter the attribute information;
a second control unit that performs a process of prompting a participant using the second communication terminal to utter the attribute information in the second communication terminal according to the instruction received from the request unit;
An information processing device having:
前記ビデオ会議の1以上の参加者を撮影した映像データを得る撮像ステップと、
前記映像データから前記参加者を検出する検出ステップと、
前記参加者が発話した音声データを入力する音声入力ステップと、
入力した前記音声データから、前記参加者の属性情報を抽出する抽出ステップと、
抽出した前記属性情報に基づいて、検出した前記参加者の情報について、第1通信端末での表示制御を行う第1制御ステップと、
前記第1通信端末と前記ネットワークを介して通信する第2通信端末を利用する参加者に対して前記属性情報の発話を要求する指示を、前記第2通信端末へ送信する要求ステップと、
前記指示に従って、前記第2通信端末において、該第2通信端末を利用する参加者に対して前記属性情報の発話を促す処理を行う第2制御ステップと、
を有する通信方法。 A communication method that realizes a video conference by having multiple communication terminals transmit and receive audio data via a network,
an imaging step of obtaining video data of one or more participants in the video conference;
a detection step of detecting the participant from the video data;
a voice input step of inputting voice data uttered by the participant;
an extraction step of extracting attribute information of the participant from the input audio data;
a first control step of controlling display on a first communication terminal of the detected participant information based on the extracted attribute information;
a requesting step of transmitting to the second communication terminal an instruction requesting a participant using a second communication terminal that communicates with the first communication terminal via the network to utter the attribute information;
a second control step of performing, in the second communication terminal, a process of prompting a participant using the second communication terminal to utter the attribute information according to the instruction;
A communication method having
前記ビデオ会議の1以上の参加者を撮影した映像データを得た撮像部により得られた該映像データから前記参加者を検出する検出ステップと、
前記参加者が発話した音声データを入力した音声入力部により入力された該音声データから、前記参加者の属性情報を抽出する抽出ステップと、
抽出した前記属性情報に基づいて、検出した前記参加者の情報について、第1通信端末での表示制御を行う第1制御ステップと、
前記第1通信端末と通信する第2通信端末を利用する参加者に対して前記属性情報の発話を要求する指示を、前記第2通信端末へ送信する要求ステップと、
前記指示に従って、前記第2通信端末において、該第2通信端末を利用する参加者に対して前記属性情報の発話を促す処理を行う第2制御ステップと、
を実行させるためのプログラム。 A computer that relays the transmission and reception of audio data between multiple communication terminals conducting a video conference.
a detection step of detecting the participant from video data obtained by an imaging unit that has obtained video data of one or more participants of the video conference;
an extraction step of extracting attribute information of the participant from the audio data input by an audio input unit that inputs the audio data uttered by the participant;
a first control step of controlling display on a first communication terminal of the detected participant information based on the extracted attribute information;
a requesting step of transmitting, to the second communication terminal, an instruction requesting a participant using a second communication terminal communicating with the first communication terminal to utter the attribute information;
a second control step of performing, in the second communication terminal, a process of prompting a participant using the second communication terminal to utter the attribute information according to the instruction;
A program to run.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019129658A JP7400231B2 (en) | 2019-07-11 | 2019-07-11 | Communication systems, information processing devices, communication methods and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019129658A JP7400231B2 (en) | 2019-07-11 | 2019-07-11 | Communication systems, information processing devices, communication methods and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021016083A JP2021016083A (en) | 2021-02-12 |
JP7400231B2 true JP7400231B2 (en) | 2023-12-19 |
Family
ID=74531905
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019129658A Active JP7400231B2 (en) | 2019-07-11 | 2019-07-11 | Communication systems, information processing devices, communication methods and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7400231B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023068027A1 (en) * | 2021-10-19 | 2023-04-27 | 日本電気株式会社 | Avatar generating device, avatar generating method, and recording medium |
JP7133257B1 (en) | 2022-01-14 | 2022-09-08 | 株式会社キッズプレート | Program, information processing method, information processing device, and information processing system |
JP7131869B1 (en) | 2022-01-14 | 2022-09-06 | 株式会社キッズプレート | Program, information processing method, information processing device, and information processing system |
CN114998977B (en) * | 2022-07-28 | 2022-10-21 | 广东玄润数字信息科技股份有限公司 | Virtual live image training system and method |
WO2024084855A1 (en) * | 2022-10-17 | 2024-04-25 | パナソニックIpマネジメント株式会社 | Remote conversation assisting method, remote conversation assisting device, remote conversation system, and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002150317A (en) | 2000-11-08 | 2002-05-24 | Minolta Co Ltd | Image display device |
JP2010219849A (en) | 2009-03-17 | 2010-09-30 | Cellius Inc | Image generation system, program, information storage medium, server system, and content distribution system |
JP2019061594A (en) | 2017-09-28 | 2019-04-18 | 株式会社野村総合研究所 | Conference support system and conference support program |
-
2019
- 2019-07-11 JP JP2019129658A patent/JP7400231B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002150317A (en) | 2000-11-08 | 2002-05-24 | Minolta Co Ltd | Image display device |
JP2010219849A (en) | 2009-03-17 | 2010-09-30 | Cellius Inc | Image generation system, program, information storage medium, server system, and content distribution system |
JP2019061594A (en) | 2017-09-28 | 2019-04-18 | 株式会社野村総合研究所 | Conference support system and conference support program |
Also Published As
Publication number | Publication date |
---|---|
JP2021016083A (en) | 2021-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7400231B2 (en) | Communication systems, information processing devices, communication methods and programs | |
JP5949272B2 (en) | Communication system and program | |
EP2915332B1 (en) | Communication system and computer readable medium | |
JP6201299B2 (en) | Communication system, communication method, and program | |
JP6136174B2 (en) | Communication system and communication method | |
EP3410676B1 (en) | Communication terminal, communication system, display control method, and program | |
JP2017142610A (en) | Server device, transmission system and program | |
JP6288281B2 (en) | Transmission control system, communication terminal, communication system, transmission control method, and program | |
JP6304372B2 (en) | Management system, recording medium, and management method | |
JP7501584B2 (en) | COMMUNICATION TERMINAL, COMMUNICATION SYSTEM, COMMUNICATION METHOD, AND PROGRAM | |
JP7247672B2 (en) | Communication terminal, communication system, communication method and program | |
JP6365763B2 (en) | Management system, communication system, communication control program, and communication control method | |
JP2016034129A (en) | Information transmission system, communication terminal, communication system, information transmission method, and program | |
JP2017022432A (en) | Communication management system, communication system, communication management method, and program | |
JP7456162B2 (en) | Programs, communication methods, communication terminals and communication systems | |
JP7318461B2 (en) | Communication system, communication terminal, communication method, communication terminal program and application program | |
JP7272223B2 (en) | Program, communication method, communication terminal and communication system | |
JP7326771B2 (en) | Communication terminal, communication system, communication method and program | |
JP6413215B2 (en) | Transmission terminal and program | |
JP6107015B2 (en) | Transmission system, transmission terminal, transmission management system, and program | |
JP7243440B2 (en) | Communication terminal, communication system, communication method and program | |
JP2021022836A (en) | Communication system, communication terminal, communication method, and program | |
JP6572655B2 (en) | Communication management system, communication system, communication management method, and program | |
JP7160126B2 (en) | Second management system, program, communication method, system | |
JP6589436B2 (en) | Communication system, communication management method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220518 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230530 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230728 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231120 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7400231 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |