JP6680031B2 - Conference apparatus, transmission method, and computer program - Google Patents
Conference apparatus, transmission method, and computer program Download PDFInfo
- Publication number
- JP6680031B2 JP6680031B2 JP2016061127A JP2016061127A JP6680031B2 JP 6680031 B2 JP6680031 B2 JP 6680031B2 JP 2016061127 A JP2016061127 A JP 2016061127A JP 2016061127 A JP2016061127 A JP 2016061127A JP 6680031 B2 JP6680031 B2 JP 6680031B2
- Authority
- JP
- Japan
- Prior art keywords
- conference
- mobile terminal
- information
- person
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Transfer Between Computers (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Telephone Function (AREA)
- Telephonic Communication Services (AREA)
Description
本発明は、テレビ会議の画像または音声を提供の技術に関する。 The present invention relates to a technique for providing video or image of a video conference.
従来、互いに離れた複数の拠点、例えば複数の会議室の間での会議を実現する手段として、テレビ会議システムが知られている。このシステムによって、会議の参加者は、同じ会議室にいなくとも顔を見ながら会議ができる。 BACKGROUND ART Conventionally, a video conference system is known as a means for realizing a conference between a plurality of bases separated from each other, for example, a plurality of conference rooms. This system allows participants in a meeting to look at each other even if they are not in the same meeting room.
例えば、テレビ会議の技術として、次のような技術が知られている。特許文献1に記載の通信システムによると、通信装置部と、通信装置部が提供するサービスなどを受信する第1、第2の端末装置とを有し、通信装置部は、第1の端末からの要求により、通信の接続を第1の端末から第2の端末に変更する。 For example, the following techniques are known as techniques for video conferencing. According to the communication system described in Patent Document 1, the communication device unit includes first and second terminal devices that receive a service provided by the communication device unit, and the communication device unit is provided from the first terminal. Request to change the communication connection from the first terminal to the second terminal.
特許文献2に記載の通信システムによると、会議参加端末が会議に参加するための情報を持っていない場合において、その端末が会議に参加できるようにするために、多地点会議制御装置に接続するための情報を、プレゼンスサーバ装置からその端末へ送信する。
According to the communication system described in
会議室に集合した複数の参加者と他の会議室に集合した複数の参加者とが、テレビ会議をすることがある。 A plurality of participants gathered in a conference room and a plurality of participants gathered in another conference room may make a video conference.
参加者は、突発的な事情などで会議室を退出すると、会議の状況を知ることができなくなる。 Participants cannot know the status of the meeting when they leave the meeting room due to sudden circumstances.
特許文献1に記載の通信システムは、会議室にいる参加者および退出した参加者の両方へ他の会議室の様子を提供することができない。 The communication system described in Patent Document 1 cannot provide the state of another conference room to both the participant in the conference room and the participant who has left.
特許文献2に記載の通信システムは、参加者が個人用の移動可能な端末を用いて参加する会議を前提としている。つまり、複数の参加者が会議室に集合するテレビ会議を想定していない。また、会議制御装置に接続するための情報を端末が受信するには、その端末を会議に参加する端末として、事前に別途登録しておく必要がある。突発的な事情に備えるためだけに、すべての参加者に端末を所持させ、かつ、すべての端末を会議に参加するための端末として登録することは、効率的ではない。
The communication system described in
本発明は、このような問題点に鑑み、会議の途中で退出した参加者へ従来よりも効率的に会議の状況の情報を与えることを、目的とする。 In view of such problems, an object of the present invention is to provide a participant who leaves during a conference with information on the situation of the conference more efficiently than before.
本発明の一実施形態に係る会議用装置は、複数の参加者が所定の場所に集まって行われる会議において用いられる会議用装置であって、前記複数の参加者のうちの、前記所定の場所から退出しようとしているまたは退出した参加者である退出者を検知する、退出者検知手段と、前記退出者検知手段によって前記退出者が検知された後、さらに、当該退出者が端末装置を当該退出者の耳に当てる行動が検知された場合に、当該端末装置へ前記会議の画像または音声を送信する、送信手段と、を有する。
A conference device according to an embodiment of the present invention is a conference device used in a conference in which a plurality of participants gather at a predetermined place, and the predetermined place among the plurality of participants. After the exiter is detected by the exiter detection means and the exiter detection means for detecting an exiter who is a participant who is about to leave or has exited from the terminal device, the exiter further exits the terminal device. If the action against the person's ear is detected, the transmitting the image or audio conferencing to this terminal device, and a transmission unit.
本発明によると、会議の途中で退出した参加者へ従来よりも効率的に会議の状況の情報を与えることができる。 According to the present invention, it is possible to more efficiently give the information on the status of a conference to the participants who have left during the conference.
図1は、テレビ会議システム100の全体的な構成の例を示す図である。図2は、拠点装置1のハードウェア構成の例を示す図である。図3は、携帯端末2のハードウェア構成の例を示す図である。
FIG. 1 is a diagram showing an example of the overall configuration of a
テレビ会議システム100は、図1に示すように、複数の拠点装置1、1または複数の携帯端末2、および通信回線4などによって構成されている。
As shown in FIG. 1, the
各拠点装置1および各携帯端末2は、通信回線4を介して通信することができる。通信回線4として、LAN(Local Area Network)、インターネット、公衆回線、または専用回線などが用いられる。
Each base device 1 and each
このテレビ会議システム100によると、複数の拠点の間でのテレビ会議を実現することができる。
According to this
さらに、このテレビ会議システム100によると、会議の参加者は、テレビ会議が行われている途中に会議室から退出しても、テレビ会議に継続して参加することができる。
Furthermore, according to the
各拠点の会議室には、拠点装置1が1台ずつ設置されている。拠点装置1は、他の会議室に設置されている拠点装置1と通信を行い、複数の拠点の間で行われるテレビ会議を実現する。以下、第1の拠点の会議室に設置されている拠点装置1を拠点装置1Aとして記載し、第2の拠点の会議室に設置されている拠点装置1を拠点装置1Bとして記載する。
One base device 1 is installed in the conference room of each base. The base device 1 communicates with the base device 1 installed in another conference room to realize a video conference held between a plurality of bases. Hereinafter, the base device 1 installed in the conference room of the first base is described as a
拠点装置1として、デスクトップ型パーソナルコンピュータまたはノート型パーソナルコンピュータなどが用いられる。以下、拠点装置1として、デスクトップ型コンピュータが用いられる場合を例に説明する。 A desktop personal computer, a notebook personal computer, or the like is used as the base device 1. Hereinafter, a case where a desktop computer is used as the base device 1 will be described as an example.
拠点装置1は、図2に示すように、CPU(Central Processing Unit)10a、RAM(Random Access Memory)10b、ROM(Read Only Memory)10c、補助記憶装置10d、NIC(Network Interface Card)10e、NFC(Near Field Communication)ユニット10f、映像入出力インタフェース10g、音声入出力インタフェース10h、および操作入力インタフェース10iなどによって構成される。
As shown in FIG. 2, the base device 1 includes a CPU (Central Processing Unit) 10a, a RAM (Random Access Memory) 10b, a ROM (Read Only Memory) 10c, an
NIC10eは、TCP/IP(Transmission Control Protocol/Internet Protocol)などのプロトコルで他の装置との通信を行う。 The NIC 10e communicates with other devices using a protocol such as TCP / IP (Transmission Control Protocol / Internet Protocol).
NFCユニット10fは、他の装置またはIC(Integrated Circuit)カードなどとの近距離無線通信を実行する。
The
映像入出力インタフェース10gは、ディスプレイまたはプロジェクタなどの表示機器12、およびデジタルビデオカメラなどの撮影機器13と接続され、表示機器12へ映像の信号を出力し、撮影機器13から映像の信号を入力するための回路である。映像入出力インタフェース10gとして、HDMI(High-Definition Multimedia Interface)、DVI(Digital Visual Interface)またはUSB(Universal Serial Bus)などの規格の回路が使用される。HDMIは、登録商標である。
The video input /
音声入出力インタフェース10hは、スピーカなどの音声出力機器14およびマイクなどの集音器15と接続され、音声出力機器14から音声の信号を出力し、集音器15から音声の信号を入力するためのサウンドボードである。
The voice input /
操作入力インタフェース10iは、キーボード、マウスまたはスキャナなどの入力機器16と接続され、入力機器16から操作の信号を入力するための回路である。操作入力インタフェース10iとして、USB(Universal Serial Bus)などの規格の回路が使用される。
The operation input interface 10i is a circuit that is connected to an
ROM10cまたは補助記憶装置10dには、テレビ会議に使用するための資料データが記憶されている。資料データとして、テキストデータまたはPDF(Portable Document Format)データなどが用いられる。さらに、IP電話用のプログラム、会議管理プログラム11P(図4参照)、会議管理プログラム12P(図11参照)、および会議管理プログラム13P(図15参照)が記憶されている。会議管理プログラム11Pないし13Pについては、後に説明する。
The
これらのプログラムは、必要に応じてRAM10bにロードされ、CPU10aによって実行される。補助記憶装置10dとして、ハードディスクドライブまたはSSD(Solid State Drive)などが用いられる。
These programs are loaded into the RAM 10b as needed and are executed by the
図1に戻り、携帯端末2は、複数の拠点装置1の間で送受信されている情報を受信する。携帯端末2として、スマートフォンまたはタブレットコンピュータなどが用いられる。以下、携帯端末2として、スマートフォンが用いられる場合を例に説明する。
Returning to FIG. 1, the
携帯端末2は、図3に示すように、CPU20a、RAM20b、ROM20c、フラッシュメモリ20d、タッチパネルディスプレイ20e、無線LANユニット20f、NFCユニット20g、携帯電話通信装置20h、加速度センサ20i、および音声入出力インタフェース20jなどによって構成される。
As shown in FIG. 3, the
タッチパネルディスプレイ20eは、種々の画面を表示し、タッチされた位置を検知してCPU20aにその位置を通知する。
The
無線LANユニット20fは、無線LANの規格、すなわち、IEEE(Institute of Electrical and Electronics Engineers)802.11の規格に基づいて通信を行う。
The
携帯電話通信装置20hは、CDMA(Code Division Multiple Access)2000、W−CDMA(Wideband-CDMA)、またはLTE(Long Term Evolution)などの規格に基づいて、いわゆる携帯電話網を介して通信を行う。
The mobile
加速度センサ20iは、X軸、Y軸、およびZ軸それぞれの加速度を測定する。測定された加速度によって、携帯端末2の傾きまたは動きなどが検出される。
The acceleration sensor 20i measures the X-axis, Y-axis, and Z-axis accelerations. The tilt or movement of the
音声入出力インタフェース20jは、イヤホンなどの音声出力機器21、およびマイクなどの集音器22と接続され、音声出力機器21から音声の信号を出力し、集音器22から音声の信号を入力するための回路である。音声入出力インタフェース20jとして、CTIA(Cellular Telephone Industry Association)などの規格の回路が使用される。
The voice input / output interface 20j is connected to a
ROM20cまたはフラッシュメモリ20dには、IP電話用のプログラムのほか、会議参加プログラム21P(図5参照)および会議参加プログラム22P(図12参照)が記憶されている。会議参加プログラム21Pおよび会議参加プログラム22Pについては、後に説明する。
The
これらのプログラムは、必要に応じてRAM20bにロードされ、CPU20aによって実行される。
These programs are loaded into the RAM 20b as needed and are executed by the
〔テレビ会議の処理の第1の例〕
図4は、拠点装置1Aの機能的構成の第1の例を示す図である。図5は、携帯端末2の機能的構成の第1の例を示す図である。図6は、拠点装置1Aにおけるテレビ会議の処理の流れの第1の例を示すフローチャートである。図7は、拠点間通信処理の流れの例を示す図である。図8は、携帯端末2におけるテレビ会議の処理の流れの第1の例を示すフローチャートである。図9は、周辺機器対応処理の流れの例を示す図である。図10は、表示機器12の表示面およびタッチパネルディスプレイ20eに表示される映像の例である。
[First example of processing of video conference]
FIG. 4 is a diagram illustrating a first example of the functional configuration of the
会議管理プログラム11Pによると、図4に示すセッション管理部101、会議データ生成部102、拠点用データ送信部103、拠点用データ受信部104、コンテンツ拠点出力処理部105、文字変換部106、範囲設定部107、端末用データ送信部108、および端末用データ受信部109の機能が、拠点装置1Aに実現される。
According to the
会議参加プログラム21Pによると、図5に示す端末情報送信部201、端末情報記憶部202、セッション管理部203、会議データ受信部204、コンテンツ端末出力処理部205、発言データ生成部206、および発言データ送信部207の機能が、携帯端末2に実現される。
According to the
拠点装置1のセッション管理部101ないし端末用データ受信部109、および携帯端末2の端末情報送信部201ないし発言データ送信部207が、図6ないし図9の手順に従って処理を行うことにより、複数の拠点の間でのテレビ会議が実現される。さらに、参加者は、テレビ会議が行われている途中で退出した場合であっても、発言したりテレビ会議の状況を視聴したりすることができる。
The
第1の拠点の会議室にいる参加者は、拠点装置1Aと拠点装置1Bとの間におけるテレビ会議のセッションを確立させるための操作を拠点装置1Aに対して行う。
A participant in the conference room of the first base performs an operation on the
すると、拠点装置1Aにおいて、セッション管理部101は、セッションの確立を拠点装置1Bに要求し、拠点装置1Bの許可を受けて、拠点装置1Bとの間のセッションを確立する(図6の#601)。
Then, in the
拠点装置1Aおよび拠点装置1Bは、会議の状況を表す映像のデータ、音声のデータ、および必要な資料データの送受信を、以下のような手順で行う(#602)。
The
拠点装置1Aにおいて、会議データ生成部102は、撮影機器13から随時取得される映像のデータを圧縮することによって圧縮映像データ61に変換し、集音器15から随時取得される音声のデータを圧縮することによって圧縮音声データ63に変換する(図7の#631)。
In the
拠点用データ送信部103は、圧縮映像データ61および圧縮音声データ63を、拠点装置1Bへ随時送信する(#632)。これにより、第1の拠点の会議室の状況が拠点装置1Bへ伝えられる。
The base
なお、拠点装置1Bにおいても同様に、会議データ生成部102によってデータが生成され、生成されたデータが拠点用データ送信部103によって拠点装置1Aへ送信される。拠点装置1Aにおいて生成されたデータと区別するために、拠点装置1Bにおいて生成された圧縮映像データおよび圧縮音声データをそれぞれ「圧縮映像データ62」および「圧縮音声データ64」と記載する。
Similarly, in the
拠点用データ受信部104は、拠点装置1Bから圧縮映像データ62および圧縮音声データ64を随時受信する(#633)。
The base
コンテンツ拠点出力処理部105は、圧縮映像データ62および圧縮音声データ64を復号し、復号した圧縮映像データ62を映像のデータとして表示機器12へ出力し、復号した圧縮音声データ64を音声のデータとして音声出力機器14へ出力する(#634)。そして、これらのデータに基づいて、映像が表示機器12によって表示され、音声が音声出力機器14によって再生される。
The content base output processing unit 105 decodes the compressed video data 62 and the
ところで、参加者は、会議中に会議室から退出しなければならない場合がある。この場合は、参加者(以下、「退出者」と記載する。)が、自分の携帯端末2を拠点装置1AのNFCユニット10fにかざす。
By the way, the participant may have to leave the conference room during the conference. In this case, a participant (hereinafter, referred to as “exiter”) holds his / her
すると、携帯端末2において、端末情報送信部201は、端末情報記憶部202から端末情報6Aを読み出し、NFCによって拠点装置1Aへ送信する(図8の#651)。
Then, in the
端末情報6Aは、接続情報6A1および仕様情報6A2を含む情報である。接続情報6A1は、携帯端末2自身のユーザアカウントに関する情報である。以下、ユーザアカウントとして、Skype(登録商標)などのIP電話のサービスのユーザアカウントが使用される場合を例に説明する。よって、接続情報6A1には、ユーザアカウントのユーザIDが示される。
The
仕様情報6A2には、携帯端末2の周辺機器の接続の状況を示す情報が含まれる。例えば、携帯端末2がイヤホンなどの音声出力機器21を接続しているか否か、またはマイクなどの集音器22を接続しているか否か、などを示す情報である。また、携帯端末2のタッチパネルディスプレイ20eのサイズなどを示す情報も含まれる。
The specification information 6A2 includes information indicating the connection status of the peripheral device of the
図6に戻って、拠点装置1Aにおいて、セッション管理部101は、端末情報6Aを受信すると(#603でYes)、すなわち退出者が会議室から退出しようとしていることを検知すると、その端末情報6Aから特定される携帯端末2とセッションが確立されているか否かを確認し、確立されていない場合は(#604でNo)、端末情報6Aの接続情報6A1に示されるユーザIDに基づいて携帯端末2とのセッションの確立を携帯端末2へ要求する(#605)。
Returning to FIG. 6, in the
携帯端末2において、セッション管理部203は、拠点装置1Aからの要求に応じて、拠点装置1とセッションを確立する(図8の#652)。
In the
なお、セッションの確立のための処理は、公知のIP電話の技術を用いて行うことができる。 The process for establishing the session can be performed using a known IP telephone technique.
拠点装置1において、文字変換部106および範囲設定部107は、撮影機器13から随時取得される映像のデータ、集音器15から随時取得される音声のデータ、圧縮映像データ62を復号した映像のデータ、および圧縮音声データ64を復号した音声のデータに対して、携帯端末2の周辺機器の接続の状況に基づいて、以下のような処理を行う(#606)。
In the base device 1, the
文字変換部106は、仕様情報6A2に、携帯端末2が音声出力機器21を接続している旨を示す情報が含まれているか否かを判別する(図9の#681)。接続している旨を示す情報が含まれていると判別した場合は(#682でNo)、音声のデータによって表わされる声を、公知の音声認識の技術で文字に変換することによって、テキストデータ65を生成する(#683)。
The
テレビ会議の音声を、そのまま携帯端末2に備え付けのスピーカから再生すると、会議の内容が第三者に知られるおそれがある。そのため、テキストデータ65を生成する。
If the audio of the video conference is reproduced as it is from the speaker provided in the
範囲設定部107は、さらに、携帯端末2のタッチパネルディスプレイ20eのサイズが、所定のサイズ以下であるか否かを判別する(#684)。所定のサイズは、例えば、表示機器12の表示面の2分の1のサイズである。所定のサイズ以下であると判別した場合は(#685でYes)、表示範囲情報6Bを設定する(#686)。
The
表示範囲情報6Bとは、表示機器12の表示面に表示される映像のうち、どの部分をタッチパネルディスプレイ20eに表示させるのかを示す情報である。
The
範囲設定部107は、表示機器12の表示面の所定の一部分に表示される映像を、タッチパネルディスプレイ20eで表示するように設定する。所定の一部分は、例えば、表示機器12の表示面の2分の1のサイズを有しかつその中心が表示面の中心と一致する矩形の領域である。
The
タッチパネルディスプレイ20eは、表示機器12の表示面よりも小さい。そのため、表示機器12の表示面に表示されている映像すべてをタッチパネルディスプレイ20eに表示した場合、小さな文字などがつぶれてしまうおそれがある。そのため、表示範囲情報6Bを設定する。
The
図10は、表示機器12の表示面およびタッチパネルディスプレイ20eで表示される映像の例を示す図である。
FIG. 10 is a diagram showing an example of an image displayed on the display surface of the
表示機器12の表示面には、会議中、資料データに示される図表または会議室の状況を表わす映像7Bが表示されている。さらに、退出者がいる場合は、表示範囲情報6Bによって設定された範囲を示す枠7Aが、映像7Bに重畳するように表示されている。
On the display surface of the
この枠7Aで示される範囲内の映像は、タッチパネルディスプレイ20eに表示される映像7Cと同じである。
The image within the range shown by the
図6に戻って、拠点装置1Aにおいて、会議データ生成部102は、上述と同様に、撮影機器13から随時取得される映像のデータを圧縮映像データ61に変換し、集音器15から随時取得される音声のデータを圧縮音声データ63に変換する(#607)。
Returning to FIG. 6, in the
端末用データ送信部108は、携帯端末2へ圧縮映像データ61および圧縮映像データ62を送信し、テキストデータ65が生成された場合はこれを送信し、生成されていない場合は圧縮音声データ63および圧縮音声データ64を送信する(#608)。さらに、ステップ#686で表示範囲情報6Bが設定された場合は、これも送信する。
The terminal
携帯端末2において、会議データ受信部204は、拠点装置1Aから圧縮映像データ61および圧縮映像データ62を受信し、圧縮音声データ63、圧縮音声データ64、テキストデータ65、または表示範囲情報6Bを受信する(図8の#653)。
In the
コンテンツ端末出力処理部205は、圧縮映像データ61および圧縮映像データ62を復号し、圧縮音声データ63および圧縮音声データ64を受信した場合は、それらも復号する(#654)。そして、映像または音声を出力するための処理を次のように行う(#655)。
The content terminal
表示範囲情報6Bが受信されなかった場合は、コンテンツ端末出力処理部205は、復号した圧縮映像データ61および圧縮映像データ62を映像のデータとしてタッチパネルディスプレイ20eへ出力する。すると、表示機器12の表示面に表示される映像と同一の映像が、タッチパネルディスプレイ20eによって表示される。
When the
表示範囲情報6Bが受信された場合は、コンテンツ端末出力処理部205は、圧縮映像データ61および圧縮映像データ62を復号した映像のデータによって再現される映像のうち、表示範囲情報6Bに示される範囲の映像のみの映像のデータをタッチパネルディスプレイ20eへ出力する。すると、この範囲の映像が、タッチパネルディスプレイ20eによって表示される。
When the
さらに、コンテンツ端末出力処理部205は、圧縮音声データ63および圧縮音声データ64を復号した場合は、これらのデータに基づいて音声を音声出力機器21に再生させる。テキストデータ65を受信した場合は、テキストデータ65に示される文字をタッチパネルディスプレイ20eに表示させる。
Furthermore, when the content terminal
退出者は、会議室にいなくても、携帯端末2を使用して発言することができる。携帯端末2にマイクなどの集音器22が接続されている場合は、集音器22に向かって発声すればよい。接続されていない場合は、発言の内容を文字としてタッチパネルディスプレイ20eに入力すればよい。
The leaving person can speak using the
携帯端末2において、発言データ生成部206は、端末情報記憶部202に記憶されている仕様情報6A2に、携帯端末2が集音器22を接続している旨を示す情報が含まれているか判別する(図8の#656)。接続している旨を示す情報が含まれている場合は(#657でYes)、集音器22によって取得された音声のデータを圧縮することによって圧縮音声データ68に変換する(#658)。含まれていない場合は(#657でNo)、タッチパネルディスプレイ20eに入力された文字を、テキストデータ66として取得する(#659)。
In the
なお、退出者が間違って携帯端末2に備え付けのマイクに発言しないように「発言したい場合はソフトキーボードを使用して文字を入力してください」という旨のコメントをタッチパネルディスプレイ20eに表示してもよい。
Even if a comment is displayed on the
発言データ送信部207は、テキストデータ66または圧縮音声データ68を、拠点装置1Aへ送信する(#660)。
The utterance
図6に戻って、拠点装置1Aにおいて、端末用データ受信部109は、携帯端末2からテキストデータ66または圧縮音声データ68を受信する(#609)。
Returning to FIG. 6, in the
コンテンツ拠点出力処理部105は、復号した圧縮音声データ68を音声のデータとして音声出力機器14へ出力し、またはテキストデータ66から公知の音声合成の技術によって音声のデータを生成し、音声出力機器14へ出力する(#610)。これにより、退出者の発言の音声が音声出力機器14によって再生される。
The content base output processing unit 105 outputs the decoded
会議データ生成部102は、生成された音声のデータを圧縮することによって圧縮音声データ67に変換する(#611)。
The conference
拠点用データ送信部103は、圧縮音声データ67または圧縮音声データ68を拠点装置1Bへ送信する(#612)。これにより、退出者の発言が拠点装置1Bへ伝えられる。
The base
その後、退出者は、会議室へ再度入室すると、携帯端末2を拠点装置1AのNFCユニット10fにかざす。
After that, when the leaving person enters the conference room again, the leaving person holds the
すると、携帯端末2の端末情報送信部201は、端末情報記憶部202から端末情報6Aを読み出し、拠点装置1Aに送信する(図8の#661)。
Then, the terminal
拠点装置1において、セッション管理部101は、端末情報6Aを受信した場合(図6の#613でYes)、すなわち退出者が会議室へ再度入室したことを判別すると、受信した端末情報6Aの仕様情報6A2から特定できる携帯端末2と拠点装置1Aとの間でセッションが確立されているか確認し、確立されている場合は(#604でYes)、このセッションを終了させる(#614)。それに応じて、セッション管理部203も、このセッションを終了させる(図8の#662)。
In the base device 1, when the
その後、拠点装置1Aまたは拠点装置1Bいずれかからセッションの終了が要求されるまで(図6の#615でNo)、拠点装置1A、拠点装置1B、および携帯端末2は、ステップ#602〜#615、およびステップ#651〜#662の各処理を適宜、行う。
After that, the
なお、表示範囲情報6Bの内容は、会議室にいる参加者が拠点装置1を操作することによって書き換えられる。拠点装置1Aは、最新の表示範囲情報6Bを携帯端末2へ送信する。携帯端末2は、最新の表示範囲情報6Bに基づいて映像を表示する。
The contents of the
または、退出者が携帯端末2を操作することによって、拠点装置1から受信した表示範囲情報6Bを書き換えることもできる。この場合は、携帯端末2は、書き換えた後の表示範囲情報6Bに基づいて映像を表示する。また、携帯端末2は、書き換えた後の表示範囲情報6Bを拠点装置1へ送信する。拠点装置1は、携帯端末2から受信した表示範囲情報6Bに基づいて、枠7Aを表示する。
Alternatively, the leaving person can rewrite the
〔テレビ会議システムの処理の第2の例〕
図11は、拠点装置1Aの機能的構成の第2の例を示す図である。図12は、携帯端末2の機能的構成の第2の例を示す図である。図13は、拠点装置1Aにおけるテレビ会議の処理の流れの第2の例を示すフローチャートである。図14は、携帯端末2におけるテレビ会議の処理の流れの第2の例を示すフローチャートである。
[Second example of processing of video conference system]
FIG. 11 is a diagram showing a second example of the functional configuration of the
退出者は、急な来客などの事情により、退出後すぐに携帯端末2を使用してテレビ会議に参加できない場合がある。
The exiting person may not be able to participate in the video conference using the
しかし、第1の例では、携帯端末2が拠点装置1AのNFCユニット10fにかざされると、拠点装置1Aと携帯端末2とのセッションが無条件で確立され、映像などが配信された。
However, in the first example, when the
第2の例では、携帯端末2が拠点装置1AのNFCユニット10fにかざされた後に退出者が所定の動作を行うことによって、セッションが確立され、映像などが配信される。以下、第2の例について説明する。上述の第1の例と重複する点は、説明を省略する。
In the second example, a session is established and a video or the like is delivered by the exiter performing a predetermined operation after the
会議管理プログラム12Pによると、図11に示すセッション管理部121ないし装置情報記憶部131の機能が拠点装置1に実現される。 According to the conference management program 12P, the function of the session management unit 121 or the device information storage unit 131 shown in FIG.
会議参加プログラム22Pによると、図12に示す端末情報送信部221ないし動作検知部228の機能が、携帯端末2に実現される。
According to the conference participation program 22P, the functions of the terminal
セッション管理部11ないし装置情報記憶部131は、図13に示す手順で処理を実行する。 The session management unit 11 to the device information storage unit 131 execute processing in the procedure shown in FIG.
端末情報送信部221ないし動作検知部228の機能は、図14に示す手順で処理を実行する。
The functions of the terminal
拠点装置1Aおよび拠点装置1Bは、図6のステップ#601および#602と同様の処理を行うことによって、両装置間のセッションを確立し、互いの拠点の映像および音声のやり取りを行う(図13の#701および#702)。
The
退出者は、第1の例の場合と同様に、会議の途中で退出する際に、携帯端末2を拠点装置1AのNFCユニット10fにかざす。
As in the case of the first example, the leaving person holds the
すると、携帯端末2において、端末情報送信部221は、端末情報6Aを端末情報記憶部222から読み出し、拠点装置1へ送信する(図14の#751)。
Then, in the
拠点装置1において、装置情報送信部130は、携帯端末2から端末情報6Aを受信すると(図13の#703でYes)、接続情報6C1を含む装置情報6Cを装置情報記憶部131から読み出し、携帯端末2に送信する(#704)。
In the base device 1, when the device information transmission unit 130 receives the
接続情報6C1は、拠点装置1自身のユーザアカウントに関する情報である。上述の例に従うと、接続情報6C1には、ユーザアカウントのユーザIDが示される。 The connection information 6C1 is information regarding the user account of the base device 1 itself. According to the above example, the connection information 6C1 indicates the user ID of the user account.
携帯端末2は、拠点装置1Aから装置情報6Cを受信し、フラッシュメモリ20dの所定の記憶領域によって記憶する(図14の#752)。
The
携帯端末2の動作検知部228が、退出者が携帯端末2を持ちながら所定の行動をしたことを検知すると(#753でYes)、つまり携帯端末2の姿勢または動きなどが所定の状態になったことを検知すると、セッション管理部223は、接続情報6C1を使用して携帯端末2とのセッションの確立を要求する(#754)。所定の行動は、例えば、携帯端末2を耳に当てる行動、または、携帯端末2を左右に振る行動などである。これらの行動は、携帯端末2の加速度センサ20iによって検出される傾きまたは動きに基づいて検知することができる。
When the
拠点装置1Aにおいて、セッション管理部121は、携帯端末2からの要求があると(図13の#705でYes)に応じて、携帯端末2とのセッションを確立する(#706)。
In the
その後、拠点装置1Aおよび携帯端末2は、図6のステップ#606〜#612、および図8のステップ#653〜#661と同様の処理を行う(図13の#707〜#713、図14の#755〜#763)。
After that, the
図13に戻って、拠点装置1Aにおいて、セッション管理部121は、携帯端末2とのセッションが確立されている状態で端末情報6Aを受信した場合(#714でYes)、受信した端末情報6Aの仕様情報6A2から特定できる携帯端末2とのセッションを終了させる(図13の#715)。それに応じて、携帯端末2のセッション管理部223も、このセッションを終了させる(図14の#764)。
Returning to FIG. 13, in the
その後、拠点装置1Aまたは拠点装置1Bいずれかからセッションの終了が要求されるまで(図13の#716でNo)、拠点装置1A、拠点装置1B、および携帯端末2は、ステップ#702〜#716、およびステップ#751〜764の各処理を適宜、行う。
After that, until either the
〔テレビ会議システムの処理の第3の例〕
図15は、拠点装置1Aの機能的構成の第3の例を示す図である。図16は、拠点装置1Aにおけるテレビ会議の処理の第3の流れの例を示すフローチャートである。図17は、退出者特定処理の流れの例を示す図である。
[Third example of processing of video conference system]
FIG. 15 is a diagram showing a third example of the functional configuration of the
退出者は、急ぎの用事などの事情により、拠点装置1に携帯端末2をかざすことを失念して退出してしまう場合がある。第3の例では、携帯端末2を拠点装置1にかざすことなく、拠点装置1と携帯端末2とを接続する。以下、この仕組みについて説明する。なお、上述の第1の例と重複する点は、説明を省略する。
The leaving person may forget to hold the
会議管理プログラム13Pによると、図15に示すセッション管理部141ないしユーザ特定部154の機能が拠点装置1に実現される。
According to the
セッション管理部141ないしユーザ特定部154は、図16および図17に示す手順で処理を実行する。
The
会議が始まる前に予め、管理者は、入力機器16を使用して、会議に参加する参加者ごとの端末情報6Aおよびユーザ情報6Dを拠点装置1へ入力する。
Before the conference starts, the administrator uses the
ユーザ情報6Dは、参加者を識別するための情報であって、参加者の顔画像から認識された目、鼻または口などの器官の形状または位置などを数値化した情報である。
The
拠点装置1の登録部150は、入力された端末情報6Aを端末情報記憶部151に記憶し、入力されたユーザ情報6Dをユーザ情報記憶部152に記憶する(図16の#801)。以下、ユーザ情報記憶部152に記憶されるユーザ情報6Dを「ユーザ情報6D0」と記載する。同じ参加者の端末情報6Aとユーザ情報6D0とは、対応付けられている。
The
その後、拠点装置1Aおよび拠点装置1Bは、図6のステップ#601および#602と同様の処理を行う(#802および#803)。
After that, the
拠点装置1Aのユーザ監視部153およびユーザ特定部154は、退出者を特定する処理を、以下のように行う(#804)。
The
ユーザ監視部153は、所定の時間の間隔で、撮影機器13から随時取得された映像のデータから顔画像を識別する(図17の#831)。そして、顔画像に対応するユーザ情報6Dを抽出する(#832)。その結果、参加者それぞれのユーザ情報6Dが抽出される。
The
なお、撮影機器13が資料の映像の表示面を撮影している場合は、顔画像を撮影することができない。そこで、参加者を撮影するための撮影機器を設置しておき、この撮影機器によって撮影される映像に基づいて顔画像を識別してもよい。
It should be noted that when the photographing
ユーザ特定部154は、退出者を例えば次のように特定する(#833)。最近の時刻の映像のデータに基づいて抽出された、各人物のユーザ情報6D(以下、「ユーザ情報6D1」と記載する。)と、ユーザ情報記憶部152に記憶されている各ユーザ情報6D0とを比較することによって、この映像に映っている参加者を特定する。
The
さらに、その時刻より所定時間早い時刻(例えば、5分前)の映像のデータに基づいて抽出された、各人物のユーザ情報6D(以下、「ユーザ情報6D2」と記載する。)と、ユーザ情報記憶部152に記憶されている各ユーザ情報6D0とを比較することによって、この映像に映っている参加者を特定する。
Furthermore, the
そして、ユーザ情報6D2から特定されたがユーザ情報6D1からは特定されなかった参加者を、退出者として特定する。 Then, the participant identified from the user information 6D2 but not identified from the user information 6D1 is identified as a leaving person.
退出者を特定することができた場合は(#834でYes)、その退出者のユーザ情報6D0に対応付けられている端末情報6Aを特定する(#835)。
If the leaving person can be specified (Yes in # 834), the
セッション管理部141は、端末情報6Aが特定された場合は(図16の#805でYes)、その端末情報6Aの接続情報6A1を使用して、携帯端末2とのセッションの確立を携帯端末2へ要求する(#806)。
If the
その後、拠点装置1A、拠点装置1B、および携帯端末2は、図13のステップ#707〜ステップ#716と同様の処理を適時行い(図16の#807〜#816)、図8のステップ#652〜#662の各処理を適時行う。
After that, the
本発明によると、会議の途中で退出した参加者へ従来よりも効率的に会議の状況を示す映像のデータおよび音声のデータを与えることができる。 According to the present invention, it is possible to give video data and audio data showing the status of a conference to a participant who has left during the conference more efficiently than before.
上述の実施形態では、携帯端末2のタッチパネルディスプレイ20eのサイズに基づいて、表示範囲情報6Bが設定された。しかし、タッチパネルディスプレイ20eの解像度に基づいて、表示範囲情報6Bを設定してもよい。例えば、所定のサイズを、2分の1に固定するのではなく、タッチパネルディスプレイ20eの解像度が高いほどサイズが大きくなるようにしてもよい。
In the above-described embodiment, the
上述の実施形態では、携帯端末2を、セッションを確立した拠点装置1のNFCユニット10fにかざすことで、セッションを終了させた。しかし、携帯端末2を、セッションを確立した拠点装置1とは異なる他の拠点装置1のNFCユニット10fにかざすことで、セッションを終了させてもよい。この場合、他の拠点装置1は、携帯端末2から端末情報6Aを受信し、受信した端末情報6Aを、セッションを確立した拠点装置1に送信する。セッションを確立した拠点装置1は、端末情報6Aを受信した時にセッションを終了させる。
In the above-described embodiment, the session is ended by holding the
上述の実施形態では、拠点装置1Aは、映像のデータをそのまま圧縮映像データ61および圧縮映像データ62に変換して、携帯端末2へ送信した。しかし、映像のデータの一部を、表示範囲情報6Bの設定する範囲に従ってトリミングし、これを圧縮映像データ61および圧縮映像データ62に変換して、携帯端末2へ送信してもよい。
In the above-described embodiment, the
上述の実施形態において、さらにテレビ会議に使用する資料データを、拠点装置1Aと拠点装置1Bとの間で送受信し、拠点装置1Aから携帯端末2へ送信してもよい。
In the above-described embodiment, the material data used for the video conference may be further transmitted and received between the
上述の実施形態以外の、拠点装置1Aと携帯端末2との間のセッションを確立する例として、拠点装置1Aと携帯端末2との間でBluetooth(登録商標)によって通信を会議中、常に行い、通信ができなくなった携帯端末2に対して、セッションの確立を拠点装置1Aが要求してもよい。
As an example of establishing a session between the
または、拠点装置1Aが、携帯端末2から発信されるビーコンを会議中、定期的に検知し、ビーコンを検知できなくなった携帯端末2に対して、セッションの確立を拠点装置1Aが要求してもよい。
Alternatively, even if the
第1の例では、端末情報6Aは、退出者が携帯端末2を拠点装置1のNFCユニット10fにかざした時に拠点装置1へ送信されたが、事前に送信されてもよい。例えば、会議が開催される前に、携帯端末2から拠点装置1に送信されてもよい。
In the first example, the
第2の例では、携帯端末2が、携帯端末2の姿勢または動きなどが所定の状態になったことを検知してセッションの確立を要求した。しかし、参加者が携帯端末2のボタンをタッチすることで、携帯端末2がセッションの確立を要求してもよい。または、携帯端末2が、検知した姿勢または動きなどの情報を常に拠点装置1Aへ送信し、拠点装置1が、携帯端末2の状態が所定の姿勢または動きになったことを受信した情報から判断して、セッションの確立を要求してもよい。
In the second example, the
第3の例では、認識した顔画像から端末情報6Aを特定したが、予め会議室の座席と端末情報6Aとを関連付け、映像のデータから人物の存在を認識できなくなった座席を選出し、その座席に関連付けられた端末情報6Aを特定してもよい。
In the third example, the
第3の例において、拠点装置1Aと携帯端末2とのセッションが確立している状態で、ユーザ情報6D1から特定されたがユーザ情報6D2からは特定されなかった参加者がいる場合に、すなわち退出者が会議室へ再度入室したことを判別した場合に、セッションを終了させてもよい。
In the third example, in the state where the session between the
その他、テレビ会議システム100、拠点装置1および携帯端末2の全体または各部の構成、処理の内容、処理の順序、データの構成などは、本発明の趣旨に沿って適宜変更することができる。
In addition, the configuration of all or each part of the
1、1A、1B 拠点装置(会議用装置)
101 セッション管理部(退出者検知手段)
108 端末用データ送信部(送信手段)
2 携帯端末(端末装置)
20e タッチパネルディスプレイ(ディスプレイ)
6A1 接続情報(識別子)
6B 表示範囲情報(位置情報)
61 圧縮映像データ(映像)
62 圧縮映像データ(映像)
63 圧縮音声データ(音声)
64 圧縮音声データ(音声)
65 テキストデータ(テキスト)
66 テキストデータ(第2のテキスト)
68 圧縮音声データ(第2の音声)
1, 1A, 1B base device (conference device)
101 session management unit (exiter detection means)
108 terminal data transmission unit (transmission means)
2 Mobile terminals (terminal devices)
20e Touch panel display (display)
6A1 connection information (identifier)
6B Display range information (position information)
61 Compressed video data (video)
62 Compressed video data (video)
63 Compressed audio data (audio)
64 compressed audio data (audio)
65 Text data (text)
66 text data (second text)
68 Compressed audio data (second audio)
Claims (8)
前記複数の参加者のうちの、前記所定の場所から退出しようとしているまたは退出した参加者である退出者を検知する、退出者検知手段と、
前記退出者検知手段によって前記退出者が検知された後、さらに、当該退出者が端末装置を当該退出者の耳に当てる行動が検知された場合に、当該端末装置へ前記会議の画像または音声を送信する、送信手段と、
を有することを特徴とする会議用装置。 A conference device used in a conference in which a plurality of participants gather in a predetermined place,
Of the plurality of participants, an exiter detection means for detecting an exiter who is a participant who is about to leave or has exited from the predetermined place, and
After the exit person is detected by the exit-person detection means, further, if the action to which the exiting person shed terminal device to the ear of the exiting person is detected, the meeting of the image or to those terminal device Transmitting means for transmitting voice,
A conference apparatus comprising:
請求項1に記載の会議用装置。 When the size of the display surface of the display of the terminal device is equal to or smaller than a predetermined size, the transmitting unit transmits the image so that a part of the image is displayed on the display,
The apparatus for conference according to claim 1 .
請求項2に記載の会議用装置。 The transmitting means transmits only the portion of the image,
The apparatus for conference according to claim 2 .
請求項3に記載の会議用装置。 The transmitting means transmits, together with the image, position information indicating the position of the part,
The conference apparatus according to claim 3 .
請求項1ないし請求項4のいずれか記載の会議用装置。 The transmitting means transmits, instead of the voice, text indicating a word represented by the voice,
The conference apparatus according to any one of claims 1 to 4 .
請求項1ないし請求項5のいずれかに記載の会議用装置。 Outputting a word represented by the second text received from the terminal device by a second voice,
The conference apparatus according to any one of claims 1 to 5 .
複数の参加者のうちの、前記所定の場所から退出しようとしているまたは退出した参加者である退出者を検知する退出者検知ステップと、
前記退出者検知ステップによって前記退出者が検知された後、さらに、当該退出者が端末装置を当該退出者の耳に当てる行動が検知された場合に、当該端末装置へ前記会議の画像または音声を送信する、送信ステップと、
を有することを特徴とする送信方法。 A transmission method for transmitting an image or audio of a conference held by a plurality of participants at a predetermined place,
Of a plurality of participants, an exiter detection step of detecting an exiter who is a participant who is about to leave or has left the predetermined location,
After the exit person is detected by the exit-person detection step, further, when the action which the exiting person shed terminal device to the ear of the exiting person is detected, the meeting of the image or to those terminal device Transmitting a voice, a transmitting step,
A transmission method comprising:
前記コンピュータに、
前記複数の参加者のうちの、前記所定の場所から退出しようとしているまたは退出した参加者である退出者を検知する、退出者検知処理を実行させ、
前記退出者検知処理によって前記退出者が検知された後、さらに、当該退出者が端末装置を当該退出者の耳に当てる行動が検知された場合に、当該端末装置へ前記会議の画像または音声を送信する送信処理を実行させる、
を実行させることを特徴とするコンピュータプログラム。 A computer program used for a computer used in a conference held by a plurality of participants in a predetermined place,
On the computer,
Of the plurality of participants, detects an exiting person who is a participant who is about to leave or has exited from the predetermined place, and executes an exiting person detection process,
After the exit's by the exit person detecting processing is detected, further, if the action to which the exiting person shed terminal device to the ear of the exiting person is detected, the meeting of the image or to those terminal device Execute the transmission process to transmit the voice,
A computer program characterized by causing the computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016061127A JP6680031B2 (en) | 2016-03-25 | 2016-03-25 | Conference apparatus, transmission method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016061127A JP6680031B2 (en) | 2016-03-25 | 2016-03-25 | Conference apparatus, transmission method, and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017175490A JP2017175490A (en) | 2017-09-28 |
JP6680031B2 true JP6680031B2 (en) | 2020-04-15 |
Family
ID=59972362
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016061127A Active JP6680031B2 (en) | 2016-03-25 | 2016-03-25 | Conference apparatus, transmission method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6680031B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7218525B2 (en) * | 2018-09-25 | 2023-02-07 | 富士フイルムビジネスイノベーション株式会社 | Information processing device and program |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003324773A (en) * | 2002-05-08 | 2003-11-14 | Seiko Epson Corp | Radio equipment, speech management method for radio equipment, and speech management program |
JP2005260348A (en) * | 2004-03-09 | 2005-09-22 | Takeshi Saito | Communication system, terminal device and communication method |
JP2007074532A (en) * | 2005-09-08 | 2007-03-22 | Canon Inc | Conference system, conference method, conference program and storage means |
US20100271456A1 (en) * | 2009-04-27 | 2010-10-28 | Future Vision Inc. | Conference details recording system |
US9043474B2 (en) * | 2010-01-20 | 2015-05-26 | Microsoft Technology Licensing, Llc | Communication sessions among devices and interfaces with mixed capabilities |
US8581958B2 (en) * | 2011-04-18 | 2013-11-12 | Hewlett-Packard Development Company, L.P. | Methods and systems for establishing video conferences using portable electronic devices |
US9100488B2 (en) * | 2013-06-14 | 2015-08-04 | Microsoft Technology Licensing, Llc | Using physical gestures to initiate call transfers between devices |
CN104506550B (en) * | 2014-12-30 | 2019-01-22 | 宇龙计算机通信科技(深圳)有限公司 | A kind of Multi-Party Conference processing method and processing device based on network protocol multi-media sub-system |
-
2016
- 2016-03-25 JP JP2016061127A patent/JP6680031B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017175490A (en) | 2017-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10887441B2 (en) | Information processing system, wireless terminal, and information processing method | |
US9591261B2 (en) | Video telephone device and video telephone processing method | |
US20150070458A1 (en) | System and method for video call | |
KR20100061582A (en) | Apparatus and method for providing emotion expression service in mobile communication terminal | |
US20170279898A1 (en) | Method for Accessing Virtual Desktop and Mobile Terminal | |
JP2012085269A (en) | Transmission terminal, display data transmission method, program, information provision device and transmission system | |
US8970651B2 (en) | Integrating audio and video conferencing capabilities | |
CN113329240A (en) | Screen projection method and device | |
US9826556B2 (en) | Apparatus and method for data transmission and reception of a mobile terminal | |
US9094574B2 (en) | Information processing apparatus, conference system, and computer program products | |
US20180367758A1 (en) | Communication system, information processing apparatus, communication apparatus, and computer-readable medium | |
JP2011082694A (en) | System and device for communication conference | |
CN112770078B (en) | Video conference terminal fusion method and device and readable storage medium | |
JP2011055444A (en) | Communication device | |
JP6680031B2 (en) | Conference apparatus, transmission method, and computer program | |
JP2022054192A (en) | Remote conference system, server, photography device, audio output method, and program | |
JP2019117998A (en) | Web conference system, control method of web conference system, and program | |
JP6781318B2 (en) | Information processing system and wireless terminal | |
JP2019117997A (en) | Web conference system, control method of web conference system, and program | |
CN117813814A (en) | WEB conference system, terminal device, and WEB conference method | |
JP6922060B2 (en) | Information processing system and wireless terminal | |
JP7149386B2 (en) | Information processing system and wireless terminal | |
JP2018085623A (en) | Communication device, method, and program | |
JP2010147939A (en) | Video communication apparatus, video communication method and video communication system | |
JP6763277B2 (en) | Terminal device, program, communication method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190117 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191030 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200218 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200302 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6680031 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |