JP2017175490A - Conference device, transmission method and computer program - Google Patents

Conference device, transmission method and computer program Download PDF

Info

Publication number
JP2017175490A
JP2017175490A JP2016061127A JP2016061127A JP2017175490A JP 2017175490 A JP2017175490 A JP 2017175490A JP 2016061127 A JP2016061127 A JP 2016061127A JP 2016061127 A JP2016061127 A JP 2016061127A JP 2017175490 A JP2017175490 A JP 2017175490A
Authority
JP
Japan
Prior art keywords
conference
exit
person
image
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016061127A
Other languages
Japanese (ja)
Other versions
JP6680031B2 (en
Inventor
英明 副島
Hideaki Soejima
英明 副島
一美 澤柳
Kazumi Sawayanagi
一美 澤柳
陽介 谷口
Yosuke Taniguchi
陽介 谷口
俊彦 大竹
Toshihiko Otake
俊彦 大竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2016061127A priority Critical patent/JP6680031B2/en
Publication of JP2017175490A publication Critical patent/JP2017175490A/en
Application granted granted Critical
Publication of JP6680031B2 publication Critical patent/JP6680031B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Abstract

PROBLEM TO BE SOLVED: To supply a participant who left from a video conference half way with video conference state information more efficiently than ever.SOLUTION: A base device 1, which is used in a conference in which a plurality of participants gather at a predetermined place, includes: a session management unit 101 which detects a leaving participant who is going to leave from the predetermined place or already left among the plurality of participants; and a terminal data transmission unit which, after the leaving participant is detected by the session management unit 101, transmits, to a mobile terminal 2 of the leaving participant, compressed video data 61 and compressed video data 62 of the conference, or compressed voice data 63 and compressed voice data 64.SELECTED DRAWING: Figure 4

Description

本発明は、テレビ会議の画像または音声を提供の技術に関する。   The present invention relates to a technique for providing video conferencing images or sounds.

従来、互いに離れた複数の拠点、例えば複数の会議室の間での会議を実現する手段として、テレビ会議システムが知られている。このシステムによって、会議の参加者は、同じ会議室にいなくとも顔を見ながら会議ができる。   2. Description of the Related Art Conventionally, a video conference system is known as means for realizing a conference between a plurality of bases separated from each other, such as a plurality of conference rooms. With this system, participants in the conference can hold a conference while looking at their faces even if they are not in the same conference room.

例えば、テレビ会議の技術として、次のような技術が知られている。特許文献1に記載の通信システムによると、通信装置部と、通信装置部が提供するサービスなどを受信する第1、第2の端末装置とを有し、通信装置部は、第1の端末からの要求により、通信の接続を第1の端末から第2の端末に変更する。   For example, the following technologies are known as video conference technologies. According to the communication system described in Patent Literature 1, the communication device unit includes first and second terminal devices that receive services provided by the communication device unit, and the communication device unit is connected to the first terminal. , The communication connection is changed from the first terminal to the second terminal.

特許文献2に記載の通信システムによると、会議参加端末が会議に参加するための情報を持っていない場合において、その端末が会議に参加できるようにするために、多地点会議制御装置に接続するための情報を、プレゼンスサーバ装置からその端末へ送信する。   According to the communication system described in Patent Document 2, when a conference participation terminal does not have information for participating in the conference, the terminal is connected to the multipoint conference control apparatus so that the terminal can participate in the conference. Is transmitted from the presence server device to the terminal.

特開2005−260348号公報JP 2005-260348 A 特開2006−345361号公報JP 2006-345361 A

会議室に集合した複数の参加者と他の会議室に集合した複数の参加者とが、テレビ会議をすることがある。   A plurality of participants gathered in the conference room and a plurality of participants gathered in another conference room may have a video conference.

参加者は、突発的な事情などで会議室を退出すると、会議の状況を知ることができなくなる。   If the participant leaves the conference room due to sudden circumstances, the participant cannot know the status of the conference.

特許文献1に記載の通信システムは、会議室にいる参加者および退出した参加者の両方へ他の会議室の様子を提供することができない。   The communication system described in Patent Literature 1 cannot provide the state of another conference room to both a participant in the conference room and a participant who has left the conference room.

特許文献2に記載の通信システムは、参加者が個人用の移動可能な端末を用いて参加する会議を前提としている。つまり、複数の参加者が会議室に集合するテレビ会議を想定していない。また、会議制御装置に接続するための情報を端末が受信するには、その端末を会議に参加する端末として、事前に別途登録しておく必要がある。突発的な事情に備えるためだけに、すべての参加者に端末を所持させ、かつ、すべての端末を会議に参加するための端末として登録することは、効率的ではない。   The communication system described in Patent Document 2 is premised on a conference in which participants participate using personal mobile terminals. That is, a video conference in which a plurality of participants gather in a conference room is not assumed. Further, in order for a terminal to receive information for connecting to the conference control apparatus, it is necessary to register the terminal separately as a terminal participating in the conference. It is not efficient to have all participants possess terminals and register all terminals as terminals for participating in the conference only in preparation for unexpected situations.

本発明は、このような問題点に鑑み、会議の途中で退出した参加者へ従来よりも効率的に会議の状況の情報を与えることを、目的とする。   The present invention has been made in view of such problems, and an object of the present invention is to more efficiently provide information on the status of a conference to participants who have left during the conference.

本発明の一実施形態に係る会議用装置は、複数の参加者が所定の場所に集まって行われる会議において用いられる会議用装置であって、前記複数の参加者のうちの、前記所定の場所から退出しようとしているまたは退出した参加者である退出者を検知する、退出者検知手段と、前記退出者検知手段によって前記退出者が検知された後、当該退出者の端末装置へ前記会議の画像または音声を送信する、送信手段と、を有する。   A conference device according to an embodiment of the present invention is a conference device used in a conference in which a plurality of participants gather at a predetermined location, and the predetermined location of the plurality of participants is An exit person detecting means for detecting an exit person who is about to leave or is a participant who has left, and an image of the meeting to the terminal device of the exit person after the exit person is detected by the exit person detecting means Or a transmission means for transmitting voice.

好ましくは、前記端末装置は、近距離無線通信の機能を有するモバイル型の端末装置であって、前記退出者検知手段は、前記端末装置に設定されている通信用の識別子を当該端末装置から前記近距離無線通信で受信することによって前記退出者を検知し、前記送信手段は、前記退出者検知手段によって受信された前記識別子に基づいて前記画像または音声を送信する。   Preferably, the terminal device is a mobile terminal device having a short-range wireless communication function, and the egress person detecting unit obtains a communication identifier set in the terminal device from the terminal device. The leaving person is detected by receiving by short-range wireless communication, and the transmitting means transmits the image or sound based on the identifier received by the leaving person detecting means.

好ましくは、前記端末装置は、近距離無線通信の機能を有するモバイル型の端末装置であって、前記退出者検知手段は、前記端末装置に設定されている通信用の識別子を当該端末装置から前記近距離無線通信で受信しなくなった場合に前記退出者を検知し、前記送信手段は、前記退出者検知手段によって受信された前記識別子に基づいて前記画像または音声を送信する。   Preferably, the terminal device is a mobile terminal device having a short-range wireless communication function, and the egress person detecting unit obtains a communication identifier set in the terminal device from the terminal device. The egress person is detected when it is no longer received by short-range wireless communication, and the transmission means transmits the image or sound based on the identifier received by the egress person detection means.

本発明によると、会議の途中で退出した参加者へ従来よりも効率的に会議の状況の情報を与えることができる。   ADVANTAGE OF THE INVENTION According to this invention, the information of the condition of a meeting can be given to the participant who left in the middle of the meeting more efficiently than before.

テレビ会議システムの全体的な構成の例を示す図である。It is a figure which shows the example of the whole structure of a video conference system. 拠点装置のハードウェア構成の例を示す図である。It is a figure which shows the example of the hardware constitutions of a base apparatus. 携帯端末のハードウェア構成の例を示す図である。It is a figure which shows the example of the hardware constitutions of a portable terminal. 拠点装置の機能的構成の第1の例を示す図である。It is a figure which shows the 1st example of a functional structure of a base apparatus. 携帯端末の機能的構成の第1の例を示す図である。It is a figure which shows the 1st example of a functional structure of a portable terminal. 拠点装置におけるテレビ会議の処理の流れの第1の例を示すフローチャートである。It is a flowchart which shows the 1st example of the flow of a video conference process in a base device. 拠点間通信処理の流れの例を示す図である。It is a figure which shows the example of the flow of communication processing between bases. 携帯端末におけるテレビ会議の処理の流れの第1の例を示すフローチャートである。It is a flowchart which shows the 1st example of the flow of a video conference process in a portable terminal. 周辺機器対応処理の流れの例を示す図である。It is a figure which shows the example of the flow of a peripheral device corresponding | compatible process. 表示機器の表示面およびタッチパネルディスプレイに表示される映像の例である。It is an example of the image | video displayed on the display surface of a display apparatus, and a touchscreen display. 拠点装置の機能的構成の第2の例を示す図である。It is a figure which shows the 2nd example of a functional structure of a base apparatus. 携帯端末の機能的構成の第2の例を示す図である。It is a figure which shows the 2nd example of a functional structure of a portable terminal. 拠点装置におけるテレビ会議の処理の流れの第2の例を示すフローチャートである。It is a flowchart which shows the 2nd example of the flow of a video conference process in a base device. 携帯端末におけるテレビ会議の処理の流れの第2の例を示すフローチャートである。It is a flowchart which shows the 2nd example of the flow of a video conference process in a portable terminal. 拠点装置の機能的構成の第3の例を示す図である。It is a figure which shows the 3rd example of a functional structure of a base apparatus. 拠点装置におけるテレビ会議の処理の第3の流れの例を示すフローチャートである。It is a flowchart which shows the example of the 3rd flow of the process of the video conference in a base device. 退出者特定処理の流れの例を示す図である。It is a figure which shows the example of the flow of a leaving person specific process.

図1は、テレビ会議システム100の全体的な構成の例を示す図である。図2は、拠点装置1のハードウェア構成の例を示す図である。図3は、携帯端末2のハードウェア構成の例を示す図である。   FIG. 1 is a diagram illustrating an example of the overall configuration of the video conference system 100. FIG. 2 is a diagram illustrating an example of a hardware configuration of the base device 1. FIG. 3 is a diagram illustrating an example of a hardware configuration of the mobile terminal 2.

テレビ会議システム100は、図1に示すように、複数の拠点装置1、1または複数の携帯端末2、および通信回線4などによって構成されている。   As shown in FIG. 1, the video conference system 100 includes a plurality of base devices 1, one or a plurality of portable terminals 2, a communication line 4, and the like.

各拠点装置1および各携帯端末2は、通信回線4を介して通信することができる。通信回線4として、LAN(Local Area Network)、インターネット、公衆回線、または専用回線などが用いられる。   Each base device 1 and each portable terminal 2 can communicate via the communication line 4. As the communication line 4, a LAN (Local Area Network), the Internet, a public line, a dedicated line, or the like is used.

このテレビ会議システム100によると、複数の拠点の間でのテレビ会議を実現することができる。   According to the video conference system 100, a video conference between a plurality of bases can be realized.

さらに、このテレビ会議システム100によると、会議の参加者は、テレビ会議が行われている途中に会議室から退出しても、テレビ会議に継続して参加することができる。   Furthermore, according to the video conference system 100, participants in the conference can continue to participate in the video conference even if they leave the conference room during the video conference.

各拠点の会議室には、拠点装置1が1台ずつ設置されている。拠点装置1は、他の会議室に設置されている拠点装置1と通信を行い、複数の拠点の間で行われるテレビ会議を実現する。以下、第1の拠点の会議室に設置されている拠点装置1を拠点装置1Aとして記載し、第2の拠点の会議室に設置されている拠点装置1を拠点装置1Bとして記載する。   One base device 1 is installed in each conference room. The base device 1 communicates with the base device 1 installed in another conference room, and realizes a video conference performed between a plurality of bases. Hereinafter, the base device 1 installed in the conference room of the first base is described as the base device 1A, and the base device 1 installed in the conference room of the second base is described as the base device 1B.

拠点装置1として、デスクトップ型パーソナルコンピュータまたはノート型パーソナルコンピュータなどが用いられる。以下、拠点装置1として、デスクトップ型コンピュータが用いられる場合を例に説明する。   As the base device 1, a desktop personal computer or a notebook personal computer is used. Hereinafter, a case where a desktop computer is used as the base device 1 will be described as an example.

拠点装置1は、図2に示すように、CPU(Central Processing Unit)10a、RAM(Random Access Memory)10b、ROM(Read Only Memory)10c、補助記憶装置10d、NIC(Network Interface Card)10e、NFC(Near Field Communication)ユニット10f、映像入出力インタフェース10g、音声入出力インタフェース10h、および操作入力インタフェース10iなどによって構成される。   As shown in FIG. 2, the base device 1 includes a CPU (Central Processing Unit) 10a, a RAM (Random Access Memory) 10b, a ROM (Read Only Memory) 10c, an auxiliary storage device 10d, a NIC (Network Interface Card) 10e, an NFC. (Near Field Communication) unit 10f, video input / output interface 10g, audio input / output interface 10h, operation input interface 10i, and the like.

NIC10eは、TCP/IP(Transmission Control Protocol/Internet Protocol)などのプロトコルで他の装置との通信を行う。   The NIC 10e communicates with other devices using a protocol such as TCP / IP (Transmission Control Protocol / Internet Protocol).

NFCユニット10fは、他の装置またはIC(Integrated Circuit)カードなどとの近距離無線通信を実行する。   The NFC unit 10f performs short-range wireless communication with another device or an IC (Integrated Circuit) card.

映像入出力インタフェース10gは、ディスプレイまたはプロジェクタなどの表示機器12、およびデジタルビデオカメラなどの撮影機器13と接続され、表示機器12へ映像の信号を出力し、撮影機器13から映像の信号を入力するための回路である。映像入出力インタフェース10gとして、HDMI(High-Definition Multimedia Interface)、DVI(Digital Visual Interface)またはUSB(Universal Serial Bus)などの規格の回路が使用される。HDMIは、登録商標である。   The video input / output interface 10g is connected to a display device 12 such as a display or a projector and a photographing device 13 such as a digital video camera, outputs a video signal to the display device 12, and inputs a video signal from the photographing device 13. It is a circuit for. As the video input / output interface 10g, a standard circuit such as HDMI (High-Definition Multimedia Interface), DVI (Digital Visual Interface), or USB (Universal Serial Bus) is used. HDMI is a registered trademark.

音声入出力インタフェース10hは、スピーカなどの音声出力機器14およびマイクなどの集音器15と接続され、音声出力機器14から音声の信号を出力し、集音器15から音声の信号を入力するためのサウンドボードである。   The audio input / output interface 10 h is connected to an audio output device 14 such as a speaker and a sound collector 15 such as a microphone, and outputs an audio signal from the audio output device 14 and inputs an audio signal from the sound collector 15. It is a sound board.

操作入力インタフェース10iは、キーボード、マウスまたはスキャナなどの入力機器16と接続され、入力機器16から操作の信号を入力するための回路である。操作入力インタフェース10iとして、USB(Universal Serial Bus)などの規格の回路が使用される。   The operation input interface 10 i is a circuit that is connected to an input device 16 such as a keyboard, a mouse, or a scanner, and inputs an operation signal from the input device 16. As the operation input interface 10i, a standard circuit such as USB (Universal Serial Bus) is used.

ROM10cまたは補助記憶装置10dには、テレビ会議に使用するための資料データが記憶されている。資料データとして、テキストデータまたはPDF(Portable Document Format)データなどが用いられる。さらに、IP電話用のプログラム、会議管理プログラム11P(図4参照)、会議管理プログラム12P(図11参照)、および会議管理プログラム13P(図15参照)が記憶されている。会議管理プログラム11Pないし13Pについては、後に説明する。   The ROM 10c or the auxiliary storage device 10d stores material data for use in a video conference. As the document data, text data, PDF (Portable Document Format) data, or the like is used. Further, a program for IP telephone, a conference management program 11P (see FIG. 4), a conference management program 12P (see FIG. 11), and a conference management program 13P (see FIG. 15) are stored. The conference management programs 11P to 13P will be described later.

これらのプログラムは、必要に応じてRAM10bにロードされ、CPU10aによって実行される。補助記憶装置10dとして、ハードディスクドライブまたはSSD(Solid State Drive)などが用いられる。   These programs are loaded into the RAM 10b as necessary and executed by the CPU 10a. A hard disk drive, SSD (Solid State Drive), or the like is used as the auxiliary storage device 10d.

図1に戻り、携帯端末2は、複数の拠点装置1の間で送受信されている情報を受信する。携帯端末2として、スマートフォンまたはタブレットコンピュータなどが用いられる。以下、携帯端末2として、スマートフォンが用いられる場合を例に説明する。   Returning to FIG. 1, the mobile terminal 2 receives information transmitted and received between the plurality of base devices 1. As the mobile terminal 2, a smartphone or a tablet computer is used. Hereinafter, a case where a smartphone is used as the mobile terminal 2 will be described as an example.

携帯端末2は、図3に示すように、CPU20a、RAM20b、ROM20c、フラッシュメモリ20d、タッチパネルディスプレイ20e、無線LANユニット20f、NFCユニット20g、携帯電話通信装置20h、加速度センサ20i、および音声入出力インタフェース20jなどによって構成される。   As shown in FIG. 3, the mobile terminal 2 includes a CPU 20a, a RAM 20b, a ROM 20c, a flash memory 20d, a touch panel display 20e, a wireless LAN unit 20f, an NFC unit 20g, a mobile phone communication device 20h, an acceleration sensor 20i, and a voice input / output interface. 20j or the like.

タッチパネルディスプレイ20eは、種々の画面を表示し、タッチされた位置を検知してCPU20aにその位置を通知する。   The touch panel display 20e displays various screens, detects a touched position, and notifies the CPU 20a of the position.

無線LANユニット20fは、無線LANの規格、すなわち、IEEE(Institute of Electrical and Electronics Engineers)802.11の規格に基づいて通信を行う。   The wireless LAN unit 20f performs communication based on a wireless LAN standard, that is, an IEEE (Institute of Electrical and Electronics Engineers) 802.11 standard.

携帯電話通信装置20hは、CDMA(Code Division Multiple Access)2000、W−CDMA(Wideband-CDMA)、またはLTE(Long Term Evolution)などの規格に基づいて、いわゆる携帯電話網を介して通信を行う。   The cellular phone communication device 20h performs communication via a so-called cellular phone network based on standards such as CDMA (Code Division Multiple Access) 2000, W-CDMA (Wideband-CDMA), or LTE (Long Term Evolution).

加速度センサ20iは、X軸、Y軸、およびZ軸それぞれの加速度を測定する。測定された加速度によって、携帯端末2の傾きまたは動きなどが検出される。   The acceleration sensor 20i measures the acceleration of each of the X axis, the Y axis, and the Z axis. The tilt or movement of the mobile terminal 2 is detected based on the measured acceleration.

音声入出力インタフェース20jは、イヤホンなどの音声出力機器21、およびマイクなどの集音器22と接続され、音声出力機器21から音声の信号を出力し、集音器22から音声の信号を入力するための回路である。音声入出力インタフェース20jとして、CTIA(Cellular Telephone Industry Association)などの規格の回路が使用される。   The audio input / output interface 20j is connected to an audio output device 21 such as an earphone and a sound collector 22 such as a microphone, and outputs an audio signal from the audio output device 21 and inputs an audio signal from the sound collector 22. It is a circuit for. As the voice input / output interface 20j, a standard circuit such as CTIA (Cellular Telephone Industry Association) is used.

ROM20cまたはフラッシュメモリ20dには、IP電話用のプログラムのほか、会議参加プログラム21P(図5参照)および会議参加プログラム22P(図12参照)が記憶されている。会議参加プログラム21Pおよび会議参加プログラム22Pについては、後に説明する。   In addition to the IP phone program, the ROM 20c or the flash memory 20d stores a conference participation program 21P (see FIG. 5) and a conference participation program 22P (see FIG. 12). The conference participation program 21P and the conference participation program 22P will be described later.

これらのプログラムは、必要に応じてRAM20bにロードされ、CPU20aによって実行される。   These programs are loaded into the RAM 20b as necessary and executed by the CPU 20a.

〔テレビ会議の処理の第1の例〕
図4は、拠点装置1Aの機能的構成の第1の例を示す図である。図5は、携帯端末2の機能的構成の第1の例を示す図である。図6は、拠点装置1Aにおけるテレビ会議の処理の流れの第1の例を示すフローチャートである。図7は、拠点間通信処理の流れの例を示す図である。図8は、携帯端末2におけるテレビ会議の処理の流れの第1の例を示すフローチャートである。図9は、周辺機器対応処理の流れの例を示す図である。図10は、表示機器12の表示面およびタッチパネルディスプレイ20eに表示される映像の例である。
[First example of video conference processing]
FIG. 4 is a diagram illustrating a first example of a functional configuration of the base device 1A. FIG. 5 is a diagram illustrating a first example of a functional configuration of the mobile terminal 2. FIG. 6 is a flowchart illustrating a first example of a video conference processing flow in the base device 1A. FIG. 7 is a diagram illustrating an example of the flow of inter-base communication processing. FIG. 8 is a flowchart illustrating a first example of the process flow of the video conference in the mobile terminal 2. FIG. 9 is a diagram illustrating an example of the flow of the peripheral device handling process. FIG. 10 is an example of an image displayed on the display surface of the display device 12 and the touch panel display 20e.

会議管理プログラム11Pによると、図4に示すセッション管理部101、会議データ生成部102、拠点用データ送信部103、拠点用データ受信部104、コンテンツ拠点出力処理部105、文字変換部106、範囲設定部107、端末用データ送信部108、および端末用データ受信部109の機能が、拠点装置1Aに実現される。   According to the conference management program 11P, the session management unit 101, conference data generation unit 102, site data transmission unit 103, site data reception unit 104, content site output processing unit 105, character conversion unit 106, range setting shown in FIG. Functions of the unit 107, the terminal data transmission unit 108, and the terminal data reception unit 109 are realized in the base device 1A.

会議参加プログラム21Pによると、図5に示す端末情報送信部201、端末情報記憶部202、セッション管理部203、会議データ受信部204、コンテンツ端末出力処理部205、発言データ生成部206、および発言データ送信部207の機能が、携帯端末2に実現される。   According to the conference participation program 21P, the terminal information transmission unit 201, the terminal information storage unit 202, the session management unit 203, the conference data reception unit 204, the content terminal output processing unit 205, the speech data generation unit 206, and the speech data illustrated in FIG. The function of the transmission unit 207 is realized in the mobile terminal 2.

拠点装置1のセッション管理部101ないし端末用データ受信部109、および携帯端末2の端末情報送信部201ないし発言データ送信部207が、図6ないし図9の手順に従って処理を行うことにより、複数の拠点の間でのテレビ会議が実現される。さらに、参加者は、テレビ会議が行われている途中で退出した場合であっても、発言したりテレビ会議の状況を視聴したりすることができる。   The session management unit 101 through the terminal data reception unit 109 of the base device 1 and the terminal information transmission unit 201 through the speech data transmission unit 207 of the mobile terminal 2 perform processing according to the procedure of FIGS. Video conferencing between bases is realized. Furthermore, the participant can speak or watch the status of the video conference even when the participant leaves the middle of the video conference.

第1の拠点の会議室にいる参加者は、拠点装置1Aと拠点装置1Bとの間におけるテレビ会議のセッションを確立させるための操作を拠点装置1Aに対して行う。   A participant in the conference room at the first base performs an operation on the base unit 1A to establish a video conference session between the base unit 1A and the base unit 1B.

すると、拠点装置1Aにおいて、セッション管理部101は、セッションの確立を拠点装置1Bに要求し、拠点装置1Bの許可を受けて、拠点装置1Bとの間のセッションを確立する(図6の#601)。   Then, in the base device 1A, the session management unit 101 requests the base device 1B to establish a session, receives a permission from the base device 1B, and establishes a session with the base device 1B (# 601 in FIG. 6). ).

拠点装置1Aおよび拠点装置1Bは、会議の状況を表す映像のデータ、音声のデータ、および必要な資料データの送受信を、以下のような手順で行う(#602)。   The base device 1A and the base device 1B perform transmission / reception of video data, audio data, and necessary material data representing the status of the conference in the following procedure (# 602).

拠点装置1Aにおいて、会議データ生成部102は、撮影機器13から随時取得される映像のデータを圧縮することによって圧縮映像データ61に変換し、集音器15から随時取得される音声のデータを圧縮することによって圧縮音声データ63に変換する(図7の#631)。   In the base apparatus 1A, the conference data generation unit 102 compresses the video data acquired from the photographing device 13 as needed to convert it into compressed video data 61, and compresses the audio data acquired from the sound collector 15 as needed. By doing so, it is converted into compressed audio data 63 (# 631 in FIG. 7).

拠点用データ送信部103は、圧縮映像データ61および圧縮音声データ63を、拠点装置1Bへ随時送信する(#632)。これにより、第1の拠点の会議室の状況が拠点装置1Bへ伝えられる。   The site data transmission unit 103 transmits the compressed video data 61 and the compressed audio data 63 to the site apparatus 1B as needed (# 632). Thereby, the status of the conference room at the first base is transmitted to the base apparatus 1B.

なお、拠点装置1Bにおいても同様に、会議データ生成部102によってデータが生成され、生成されたデータが拠点用データ送信部103によって拠点装置1Aへ送信される。拠点装置1Aにおいて生成されたデータと区別するために、拠点装置1Bにおいて生成された圧縮映像データおよび圧縮音声データをそれぞれ「圧縮映像データ62」および「圧縮音声データ64」と記載する。   Similarly, in the base device 1B, data is generated by the conference data generation unit 102, and the generated data is transmitted to the base device 1A by the base data transmission unit 103. In order to distinguish from the data generated in the base device 1A, the compressed video data and the compressed audio data generated in the base device 1B are referred to as “compressed video data 62” and “compressed audio data 64”, respectively.

拠点用データ受信部104は、拠点装置1Bから圧縮映像データ62および圧縮音声データ64を随時受信する(#633)。   The site data receiving unit 104 receives the compressed video data 62 and the compressed audio data 64 from the site device 1B as needed (# 633).

コンテンツ拠点出力処理部105は、圧縮映像データ62および圧縮音声データ64を復号し、復号した圧縮映像データ62を映像のデータとして表示機器12へ出力し、復号した圧縮音声データ64を音声のデータとして音声出力機器14へ出力する(#634)。そして、これらのデータに基づいて、映像が表示機器12によって表示され、音声が音声出力機器14によって再生される。   The content base output processing unit 105 decodes the compressed video data 62 and the compressed audio data 64, outputs the decoded compressed video data 62 to the display device 12 as video data, and uses the decoded compressed audio data 64 as audio data. Output to the audio output device 14 (# 634). Based on these data, the video is displayed by the display device 12 and the audio is reproduced by the audio output device 14.

ところで、参加者は、会議中に会議室から退出しなければならない場合がある。この場合は、参加者(以下、「退出者」と記載する。)が、自分の携帯端末2を拠点装置1AのNFCユニット10fにかざす。   By the way, the participant may have to leave the conference room during the conference. In this case, a participant (hereinafter referred to as “exit”) holds his / her mobile terminal 2 over the NFC unit 10f of the base device 1A.

すると、携帯端末2において、端末情報送信部201は、端末情報記憶部202から端末情報6Aを読み出し、NFCによって拠点装置1Aへ送信する(図8の#651)。   Then, in the mobile terminal 2, the terminal information transmission unit 201 reads the terminal information 6A from the terminal information storage unit 202, and transmits the terminal information 6A to the base device 1A by NFC (# 651 in FIG. 8).

端末情報6Aは、接続情報6A1および仕様情報6A2を含む情報である。接続情報6A1は、携帯端末2自身のユーザアカウントに関する情報である。以下、ユーザアカウントとして、Skype(登録商標)などのIP電話のサービスのユーザアカウントが使用される場合を例に説明する。よって、接続情報6A1には、ユーザアカウントのユーザIDが示される。   The terminal information 6A is information including connection information 6A1 and specification information 6A2. The connection information 6A1 is information related to the user account of the mobile terminal 2 itself. Hereinafter, a case where a user account of an IP telephone service such as Skype (registered trademark) is used as a user account will be described as an example. Therefore, the connection information 6A1 indicates the user ID of the user account.

仕様情報6A2には、携帯端末2の周辺機器の接続の状況を示す情報が含まれる。例えば、携帯端末2がイヤホンなどの音声出力機器21を接続しているか否か、またはマイクなどの集音器22を接続しているか否か、などを示す情報である。また、携帯端末2のタッチパネルディスプレイ20eのサイズなどを示す情報も含まれる。   The specification information 6A2 includes information indicating the connection status of peripheral devices of the mobile terminal 2. For example, it is information indicating whether or not the mobile terminal 2 is connected to an audio output device 21 such as an earphone, or whether or not a sound collector 22 such as a microphone is connected. Moreover, the information which shows the size etc. of the touch panel display 20e of the portable terminal 2 is also contained.

図6に戻って、拠点装置1Aにおいて、セッション管理部101は、端末情報6Aを受信すると(#603でYes)、すなわち退出者が会議室から退出しようとしていることを検知すると、その端末情報6Aから特定される携帯端末2とセッションが確立されているか否かを確認し、確立されていない場合は(#604でNo)、端末情報6Aの接続情報6A1に示されるユーザIDに基づいて携帯端末2とのセッションの確立を携帯端末2へ要求する(#605)。   Returning to FIG. 6, in the base device 1A, when the session management unit 101 receives the terminal information 6A (Yes in # 603), that is, when it is detected that the leaver is about to leave the conference room, the terminal information 6A It is confirmed whether or not a session is established with the portable terminal 2 identified from the mobile terminal 2 and if not established (No in # 604), the portable terminal is based on the user ID indicated in the connection information 6A1 of the terminal information 6A. 2 requests the portable terminal 2 to establish a session with # 2 (# 605).

携帯端末2において、セッション管理部203は、拠点装置1Aからの要求に応じて、拠点装置1とセッションを確立する(図8の#652)。   In the mobile terminal 2, the session management unit 203 establishes a session with the base device 1 in response to a request from the base device 1A (# 652 in FIG. 8).

なお、セッションの確立のための処理は、公知のIP電話の技術を用いて行うことができる。   The process for establishing a session can be performed using a known IP telephone technology.

拠点装置1において、文字変換部106および範囲設定部107は、撮影機器13から随時取得される映像のデータ、集音器15から随時取得される音声のデータ、圧縮映像データ62を復号した映像のデータ、および圧縮音声データ64を復号した音声のデータに対して、携帯端末2の周辺機器の接続の状況に基づいて、以下のような処理を行う(#606)。   In the base apparatus 1, the character conversion unit 106 and the range setting unit 107 are video data acquired from the photographing device 13 as needed, audio data acquired from the sound collector 15 as needed, and video data obtained by decoding the compressed video data 62. The following processing is performed on the data and the audio data obtained by decoding the compressed audio data 64 based on the connection status of peripheral devices of the mobile terminal 2 (# 606).

文字変換部106は、仕様情報6A2に、携帯端末2が音声出力機器21を接続している旨を示す情報が含まれているか否かを判別する(図9の#681)。接続している旨を示す情報が含まれていると判別した場合は(#682でNo)、音声のデータによって表わされる声を、公知の音声認識の技術で文字に変換することによって、テキストデータ65を生成する(#683)。   The character conversion unit 106 determines whether or not the specification information 6A2 includes information indicating that the mobile terminal 2 is connected to the audio output device 21 (# 681 in FIG. 9). If it is determined that the information indicating that the connection is included (No in # 682), the voice represented by the voice data is converted into characters by a known voice recognition technique to obtain the text data. 65 is generated (# 683).

テレビ会議の音声を、そのまま携帯端末2に備え付けのスピーカから再生すると、会議の内容が第三者に知られるおそれがある。そのため、テキストデータ65を生成する。   If the audio of the video conference is reproduced as it is from a speaker provided in the mobile terminal 2, the content of the conference may be known to a third party. Therefore, the text data 65 is generated.

範囲設定部107は、さらに、携帯端末2のタッチパネルディスプレイ20eのサイズが、所定のサイズ以下であるか否かを判別する(#684)。所定のサイズは、例えば、表示機器12の表示面の2分の1のサイズである。所定のサイズ以下であると判別した場合は(#685でYes)、表示範囲情報6Bを設定する(#686)。   The range setting unit 107 further determines whether or not the size of the touch panel display 20e of the mobile terminal 2 is equal to or smaller than a predetermined size (# 684). The predetermined size is, for example, a half size of the display surface of the display device 12. If it is determined that the size is equal to or smaller than the predetermined size (Yes in # 685), the display range information 6B is set (# 686).

表示範囲情報6Bとは、表示機器12の表示面に表示される映像のうち、どの部分をタッチパネルディスプレイ20eに表示させるのかを示す情報である。   The display range information 6B is information indicating which part of the video displayed on the display surface of the display device 12 is to be displayed on the touch panel display 20e.

範囲設定部107は、表示機器12の表示面の所定の一部分に表示される映像を、タッチパネルディスプレイ20eで表示するように設定する。所定の一部分は、例えば、表示機器12の表示面の2分の1のサイズを有しかつその中心が表示面の中心と一致する矩形の領域である。   The range setting unit 107 sets the video displayed on a predetermined part of the display surface of the display device 12 to be displayed on the touch panel display 20e. The predetermined part is, for example, a rectangular region having a size that is half the display surface of the display device 12 and whose center coincides with the center of the display surface.

タッチパネルディスプレイ20eは、表示機器12の表示面よりも小さい。そのため、表示機器12の表示面に表示されている映像すべてをタッチパネルディスプレイ20eに表示した場合、小さな文字などがつぶれてしまうおそれがある。そのため、表示範囲情報6Bを設定する。   The touch panel display 20 e is smaller than the display surface of the display device 12. For this reason, when all the images displayed on the display surface of the display device 12 are displayed on the touch panel display 20e, there is a possibility that small characters and the like may be crushed. Therefore, display range information 6B is set.

図10は、表示機器12の表示面およびタッチパネルディスプレイ20eで表示される映像の例を示す図である。   FIG. 10 is a diagram illustrating an example of an image displayed on the display surface of the display device 12 and the touch panel display 20e.

表示機器12の表示面には、会議中、資料データに示される図表または会議室の状況を表わす映像7Bが表示されている。さらに、退出者がいる場合は、表示範囲情報6Bによって設定された範囲を示す枠7Aが、映像7Bに重畳するように表示されている。   On the display surface of the display device 12, a chart shown in the document data or a video 7B representing the situation of the conference room is displayed during the meeting. Further, when there is an exit person, a frame 7A indicating the range set by the display range information 6B is displayed so as to be superimposed on the video 7B.

この枠7Aで示される範囲内の映像は、タッチパネルディスプレイ20eに表示される映像7Cと同じである。   The video within the range indicated by the frame 7A is the same as the video 7C displayed on the touch panel display 20e.

図6に戻って、拠点装置1Aにおいて、会議データ生成部102は、上述と同様に、撮影機器13から随時取得される映像のデータを圧縮映像データ61に変換し、集音器15から随時取得される音声のデータを圧縮音声データ63に変換する(#607)。   Returning to FIG. 6, in the base device 1 </ b> A, the conference data generation unit 102 converts the video data acquired from the imaging device 13 as needed into compressed video data 61 and acquires it from the sound collector 15 as needed. The audio data to be processed is converted into compressed audio data 63 (# 607).

端末用データ送信部108は、携帯端末2へ圧縮映像データ61および圧縮映像データ62を送信し、テキストデータ65が生成された場合はこれを送信し、生成されていない場合は圧縮音声データ63および圧縮音声データ64を送信する(#608)。さらに、ステップ#686で表示範囲情報6Bが設定された場合は、これも送信する。   The terminal data transmission unit 108 transmits the compressed video data 61 and the compressed video data 62 to the mobile terminal 2, and transmits the text data 65 when generated, and the compressed audio data 63 when not generated. The compressed audio data 64 is transmitted (# 608). Furthermore, when the display range information 6B is set in step # 686, this is also transmitted.

携帯端末2において、会議データ受信部204は、拠点装置1Aから圧縮映像データ61および圧縮映像データ62を受信し、圧縮音声データ63、圧縮音声データ64、テキストデータ65、または表示範囲情報6Bを受信する(図8の#653)。   In the portable terminal 2, the conference data receiving unit 204 receives the compressed video data 61 and the compressed video data 62 from the base device 1A, and receives the compressed audio data 63, the compressed audio data 64, the text data 65, or the display range information 6B. (# 653 in FIG. 8).

コンテンツ端末出力処理部205は、圧縮映像データ61および圧縮映像データ62を復号し、圧縮音声データ63および圧縮音声データ64を受信した場合は、それらも復号する(#654)。そして、映像または音声を出力するための処理を次のように行う(#655)。   The content terminal output processing unit 205 decodes the compressed video data 61 and the compressed video data 62, and when receiving the compressed audio data 63 and the compressed audio data 64, also decodes them (# 654). Then, processing for outputting video or audio is performed as follows (# 655).

表示範囲情報6Bが受信されなかった場合は、コンテンツ端末出力処理部205は、復号した圧縮映像データ61および圧縮映像データ62を映像のデータとしてタッチパネルディスプレイ20eへ出力する。すると、表示機器12の表示面に表示される映像と同一の映像が、タッチパネルディスプレイ20eによって表示される。   When the display range information 6B is not received, the content terminal output processing unit 205 outputs the decoded compressed video data 61 and the compressed video data 62 to the touch panel display 20e as video data. Then, the same image as the image displayed on the display surface of the display device 12 is displayed on the touch panel display 20e.

表示範囲情報6Bが受信された場合は、コンテンツ端末出力処理部205は、圧縮映像データ61および圧縮映像データ62を復号した映像のデータによって再現される映像のうち、表示範囲情報6Bに示される範囲の映像のみの映像のデータをタッチパネルディスプレイ20eへ出力する。すると、この範囲の映像が、タッチパネルディスプレイ20eによって表示される。   When the display range information 6B is received, the content terminal output processing unit 205 displays the range indicated by the display range information 6B among the video reproduced by the video data obtained by decoding the compressed video data 61 and the compressed video data 62. Is output to the touch panel display 20e. Then, an image in this range is displayed on the touch panel display 20e.

さらに、コンテンツ端末出力処理部205は、圧縮音声データ63および圧縮音声データ64を復号した場合は、これらのデータに基づいて音声を音声出力機器21に再生させる。テキストデータ65を受信した場合は、テキストデータ65に示される文字をタッチパネルディスプレイ20eに表示させる。   Furthermore, when the compressed audio data 63 and the compressed audio data 64 are decoded, the content terminal output processing unit 205 causes the audio output device 21 to reproduce audio based on these data. When the text data 65 is received, the characters shown in the text data 65 are displayed on the touch panel display 20e.

退出者は、会議室にいなくても、携帯端末2を使用して発言することができる。携帯端末2にマイクなどの集音器22が接続されている場合は、集音器22に向かって発声すればよい。接続されていない場合は、発言の内容を文字としてタッチパネルディスプレイ20eに入力すればよい。   An exit person can speak using the portable terminal 2 even if he / she is not in the conference room. When a sound collector 22 such as a microphone is connected to the portable terminal 2, the sound may be emitted toward the sound collector 22. If not connected, the content of the message may be input to the touch panel display 20e as characters.

携帯端末2において、発言データ生成部206は、端末情報記憶部202に記憶されている仕様情報6A2に、携帯端末2が集音器22を接続している旨を示す情報が含まれているか判別する(図8の#656)。接続している旨を示す情報が含まれている場合は(#657でYes)、集音器22によって取得された音声のデータを圧縮することによって圧縮音声データ68に変換する(#658)。含まれていない場合は(#657でNo)、タッチパネルディスプレイ20eに入力された文字を、テキストデータ66として取得する(#659)。   In the mobile terminal 2, the utterance data generation unit 206 determines whether the specification information 6 </ b> A <b> 2 stored in the terminal information storage unit 202 includes information indicating that the mobile terminal 2 is connected to the sound collector 22. (# 656 in FIG. 8). When information indicating that the connection is made is included (Yes in # 657), the audio data acquired by the sound collector 22 is compressed and converted into compressed audio data 68 (# 658). If not included (No in # 657), the character input to the touch panel display 20e is acquired as text data 66 (# 659).

なお、退出者が間違って携帯端末2に備え付けのマイクに発言しないように「発言したい場合はソフトキーボードを使用して文字を入力してください」という旨のコメントをタッチパネルディスプレイ20eに表示してもよい。   In addition, even if a comment saying “please use a soft keyboard to enter a comment” is displayed on the touch panel display 20e so that an exit person does not mistakenly speak to the microphone provided in the portable terminal 2. Good.

発言データ送信部207は、テキストデータ66または圧縮音声データ68を、拠点装置1Aへ送信する(#660)。   The utterance data transmission unit 207 transmits the text data 66 or the compressed audio data 68 to the base device 1A (# 660).

図6に戻って、拠点装置1Aにおいて、端末用データ受信部109は、携帯端末2からテキストデータ66または圧縮音声データ68を受信する(#609)。   Returning to FIG. 6, in the base apparatus 1A, the terminal data receiving unit 109 receives the text data 66 or the compressed audio data 68 from the portable terminal 2 (# 609).

コンテンツ拠点出力処理部105は、復号した圧縮音声データ68を音声のデータとして音声出力機器14へ出力し、またはテキストデータ66から公知の音声合成の技術によって音声のデータを生成し、音声出力機器14へ出力する(#610)。これにより、退出者の発言の音声が音声出力機器14によって再生される。   The content base output processing unit 105 outputs the decoded compressed audio data 68 to the audio output device 14 as audio data, or generates audio data from the text data 66 by a known audio synthesis technique, and the audio output device 14 (# 610). Thus, the voice output device 14 reproduces the voice of the leaver's speech.

会議データ生成部102は、生成された音声のデータを圧縮することによって圧縮音声データ67に変換する(#611)。   The conference data generation unit 102 compresses the generated audio data and converts it into compressed audio data 67 (# 611).

拠点用データ送信部103は、圧縮音声データ67または圧縮音声データ68を拠点装置1Bへ送信する(#612)。これにより、退出者の発言が拠点装置1Bへ伝えられる。   The site data transmission unit 103 transmits the compressed audio data 67 or the compressed audio data 68 to the site apparatus 1B (# 612). As a result, the retreater's remark is transmitted to the base device 1B.

その後、退出者は、会議室へ再度入室すると、携帯端末2を拠点装置1AのNFCユニット10fにかざす。   After that, when the exit person enters the conference room again, he leaves the portable terminal 2 over the NFC unit 10f of the base device 1A.

すると、携帯端末2の端末情報送信部201は、端末情報記憶部202から端末情報6Aを読み出し、拠点装置1Aに送信する(図8の#661)。   Then, the terminal information transmission unit 201 of the portable terminal 2 reads the terminal information 6A from the terminal information storage unit 202 and transmits it to the base device 1A (# 661 in FIG. 8).

拠点装置1において、セッション管理部101は、端末情報6Aを受信した場合(図6の#613でYes)、すなわち退出者が会議室へ再度入室したことを判別すると、受信した端末情報6Aの仕様情報6A2から特定できる携帯端末2と拠点装置1Aとの間でセッションが確立されているか確認し、確立されている場合は(#604でYes)、このセッションを終了させる(#614)。それに応じて、セッション管理部203も、このセッションを終了させる(図8の#662)。   In the base device 1, when the session management unit 101 receives the terminal information 6A (Yes in # 613 in FIG. 6), that is, when it is determined that the exit has entered the conference room again, the specification of the received terminal information 6A It is confirmed whether a session is established between the portable terminal 2 that can be identified from the information 6A2 and the base device 1A. If the session is established (Yes in # 604), the session is terminated (# 614). In response to this, the session management unit 203 also ends this session (# 662 in FIG. 8).

その後、拠点装置1Aまたは拠点装置1Bいずれかからセッションの終了が要求されるまで(図6の#615でNo)、拠点装置1A、拠点装置1B、および携帯端末2は、ステップ#602〜#615、およびステップ#651〜#662の各処理を適宜、行う。   Thereafter, until either the base device 1A or the base device 1B requests the end of the session (No in # 615 in FIG. 6), the base device 1A, the base device 1B, and the mobile terminal 2 perform steps # 602 to # 615. , And steps # 651 to # 662 are appropriately performed.

なお、表示範囲情報6Bの内容は、会議室にいる参加者が拠点装置1を操作することによって書き換えられる。拠点装置1Aは、最新の表示範囲情報6Bを携帯端末2へ送信する。携帯端末2は、最新の表示範囲情報6Bに基づいて映像を表示する。   Note that the content of the display range information 6B is rewritten when a participant in the conference room operates the base device 1. The base device 1 </ b> A transmits the latest display range information 6 </ b> B to the mobile terminal 2. The portable terminal 2 displays an image based on the latest display range information 6B.

または、退出者が携帯端末2を操作することによって、拠点装置1から受信した表示範囲情報6Bを書き換えることもできる。この場合は、携帯端末2は、書き換えた後の表示範囲情報6Bに基づいて映像を表示する。また、携帯端末2は、書き換えた後の表示範囲情報6Bを拠点装置1へ送信する。拠点装置1は、携帯端末2から受信した表示範囲情報6Bに基づいて、枠7Aを表示する。   Alternatively, the display range information 6 </ b> B received from the base device 1 can be rewritten by the exit person operating the mobile terminal 2. In this case, the portable terminal 2 displays a video based on the display range information 6B after rewriting. In addition, the mobile terminal 2 transmits the display range information 6 </ b> B after rewriting to the base device 1. The base device 1 displays the frame 7 </ b> A based on the display range information 6 </ b> B received from the mobile terminal 2.

〔テレビ会議システムの処理の第2の例〕
図11は、拠点装置1Aの機能的構成の第2の例を示す図である。図12は、携帯端末2の機能的構成の第2の例を示す図である。図13は、拠点装置1Aにおけるテレビ会議の処理の流れの第2の例を示すフローチャートである。図14は、携帯端末2におけるテレビ会議の処理の流れの第2の例を示すフローチャートである。
[Second example of processing of video conference system]
FIG. 11 is a diagram illustrating a second example of the functional configuration of the base device 1A. FIG. 12 is a diagram illustrating a second example of a functional configuration of the mobile terminal 2. FIG. 13 is a flowchart illustrating a second example of the process flow of the video conference in the base device 1A. FIG. 14 is a flowchart illustrating a second example of the process flow of the video conference in the mobile terminal 2.

退出者は、急な来客などの事情により、退出後すぐに携帯端末2を使用してテレビ会議に参加できない場合がある。   An exit person may not be able to participate in a video conference using the mobile terminal 2 immediately after leaving due to circumstances such as a sudden visitor.

しかし、第1の例では、携帯端末2が拠点装置1AのNFCユニット10fにかざされると、拠点装置1Aと携帯端末2とのセッションが無条件で確立され、映像などが配信された。   However, in the first example, when the mobile terminal 2 is held over the NFC unit 10f of the base device 1A, the session between the base device 1A and the mobile terminal 2 is unconditionally established, and video and the like are distributed.

第2の例では、携帯端末2が拠点装置1AのNFCユニット10fにかざされた後に退出者が所定の動作を行うことによって、セッションが確立され、映像などが配信される。以下、第2の例について説明する。上述の第1の例と重複する点は、説明を省略する。   In the second example, the evacuee performs a predetermined operation after the portable terminal 2 is held over the NFC unit 10f of the base device 1A, whereby a session is established and video or the like is distributed. Hereinafter, a second example will be described. The description overlapping with the first example is omitted.

会議管理プログラム12Pによると、図11に示すセッション管理部121ないし装置情報記憶部131の機能が拠点装置1に実現される。   According to the conference management program 12P, the functions of the session management unit 121 or the device information storage unit 131 shown in FIG.

会議参加プログラム22Pによると、図12に示す端末情報送信部221ないし動作検知部228の機能が、携帯端末2に実現される。   According to the conference participation program 22P, the functions of the terminal information transmission unit 221 to the operation detection unit 228 shown in FIG.

セッション管理部11ないし装置情報記憶部131は、図13に示す手順で処理を実行する。   The session management unit 11 or the device information storage unit 131 executes processing according to the procedure shown in FIG.

端末情報送信部221ないし動作検知部228の機能は、図14に示す手順で処理を実行する。   The functions of the terminal information transmission unit 221 to the operation detection unit 228 execute processing according to the procedure shown in FIG.

拠点装置1Aおよび拠点装置1Bは、図6のステップ#601および#602と同様の処理を行うことによって、両装置間のセッションを確立し、互いの拠点の映像および音声のやり取りを行う(図13の#701および#702)。   The base device 1A and the base device 1B perform the same processing as steps # 601 and # 602 in FIG. 6, thereby establishing a session between the two devices and exchanging video and audio between the base devices (FIG. 13). # 701 and # 702).

退出者は、第1の例の場合と同様に、会議の途中で退出する際に、携帯端末2を拠点装置1AのNFCユニット10fにかざす。   As in the case of the first example, the leaving person holds the mobile terminal 2 over the NFC unit 10f of the base device 1A when leaving the meeting.

すると、携帯端末2において、端末情報送信部221は、端末情報6Aを端末情報記憶部222から読み出し、拠点装置1へ送信する(図14の#751)。   Then, in the mobile terminal 2, the terminal information transmission unit 221 reads the terminal information 6A from the terminal information storage unit 222 and transmits it to the base device 1 (# 751 in FIG. 14).

拠点装置1において、装置情報送信部130は、携帯端末2から端末情報6Aを受信すると(図13の#703でYes)、接続情報6C1を含む装置情報6Cを装置情報記憶部131から読み出し、携帯端末2に送信する(#704)。   In the base device 1, when receiving the terminal information 6A from the portable terminal 2 (Yes in # 703 in FIG. 13), the device information transmitting unit 130 reads out the device information 6C including the connection information 6C1 from the device information storage unit 131, It transmits to the terminal 2 (# 704).

接続情報6C1は、拠点装置1自身のユーザアカウントに関する情報である。上述の例に従うと、接続情報6C1には、ユーザアカウントのユーザIDが示される。   The connection information 6C1 is information related to the user account of the base device 1 itself. According to the above example, the connection information 6C1 indicates the user ID of the user account.

携帯端末2は、拠点装置1Aから装置情報6Cを受信し、フラッシュメモリ20dの所定の記憶領域によって記憶する(図14の#752)。   The portable terminal 2 receives the device information 6C from the base device 1A and stores it in a predetermined storage area of the flash memory 20d (# 752 in FIG. 14).

携帯端末2の動作検知部228が、退出者が携帯端末2を持ちながら所定の行動をしたことを検知すると(#753でYes)、つまり携帯端末2の姿勢または動きなどが所定の状態になったことを検知すると、セッション管理部223は、接続情報6C1を使用して携帯端末2とのセッションの確立を要求する(#754)。所定の行動は、例えば、携帯端末2を耳に当てる行動、または、携帯端末2を左右に振る行動などである。これらの行動は、携帯端末2の加速度センサ20iによって検出される傾きまたは動きに基づいて検知することができる。   When the motion detection unit 228 of the mobile terminal 2 detects that the evacuee has performed the predetermined action while holding the mobile terminal 2 (Yes in # 753), that is, the attitude or movement of the mobile terminal 2 becomes a predetermined state. When this is detected, the session management unit 223 uses the connection information 6C1 to request establishment of a session with the mobile terminal 2 (# 754). The predetermined action is, for example, an action of placing the mobile terminal 2 on an ear or an action of shaking the mobile terminal 2 left and right. These actions can be detected based on the tilt or movement detected by the acceleration sensor 20 i of the mobile terminal 2.

拠点装置1Aにおいて、セッション管理部121は、携帯端末2からの要求があると(図13の#705でYes)に応じて、携帯端末2とのセッションを確立する(#706)。   In the base device 1A, when there is a request from the mobile terminal 2 (Yes in # 705 in FIG. 13), the session management unit 121 establishes a session with the mobile terminal 2 (# 706).

その後、拠点装置1Aおよび携帯端末2は、図6のステップ#606〜#612、および図8のステップ#653〜#661と同様の処理を行う(図13の#707〜#713、図14の#755〜#763)。   Thereafter, the base device 1A and the mobile terminal 2 perform the same processing as steps # 606 to # 612 in FIG. 6 and steps # 653 to # 661 in FIG. 8 (# 707 to # 713 in FIG. 13 and FIG. 14). # 755- # 763).

図13に戻って、拠点装置1Aにおいて、セッション管理部121は、携帯端末2とのセッションが確立されている状態で端末情報6Aを受信した場合(#714でYes)、受信した端末情報6Aの仕様情報6A2から特定できる携帯端末2とのセッションを終了させる(図13の#715)。それに応じて、携帯端末2のセッション管理部223も、このセッションを終了させる(図14の#764)。   Returning to FIG. 13, in the base device 1 </ b> A, the session management unit 121 receives the terminal information 6 </ b> A in a state where the session with the mobile terminal 2 is established (Yes in # 714), the received terminal information 6 </ b> A The session with the portable terminal 2 that can be specified from the specification information 6A2 is terminated (# 715 in FIG. 13). In response to this, the session management unit 223 of the mobile terminal 2 also ends this session (# 764 in FIG. 14).

その後、拠点装置1Aまたは拠点装置1Bいずれかからセッションの終了が要求されるまで(図13の#716でNo)、拠点装置1A、拠点装置1B、および携帯端末2は、ステップ#702〜#716、およびステップ#751〜764の各処理を適宜、行う。   Thereafter, until either the base device 1A or the base device 1B requests the end of the session (No in # 716 of FIG. 13), the base device 1A, the base device 1B, and the mobile terminal 2 perform steps # 702 to # 716. , And steps # 751 to 764 are appropriately performed.

〔テレビ会議システムの処理の第3の例〕
図15は、拠点装置1Aの機能的構成の第3の例を示す図である。図16は、拠点装置1Aにおけるテレビ会議の処理の第3の流れの例を示すフローチャートである。図17は、退出者特定処理の流れの例を示す図である。
[Third example of processing of video conference system]
FIG. 15 is a diagram illustrating a third example of the functional configuration of the base device 1A. FIG. 16 is a flowchart illustrating an example of a third flow of the video conference process in the base device 1A. FIG. 17 is a diagram illustrating an example of the flow of the leaver specifying process.

退出者は、急ぎの用事などの事情により、拠点装置1に携帯端末2をかざすことを失念して退出してしまう場合がある。第3の例では、携帯端末2を拠点装置1にかざすことなく、拠点装置1と携帯端末2とを接続する。以下、この仕組みについて説明する。なお、上述の第1の例と重複する点は、説明を省略する。   An exit person may forget to hold the mobile terminal 2 over the base device 1 due to circumstances such as urgent business. In the third example, the base device 1 and the mobile terminal 2 are connected without holding the mobile terminal 2 over the base device 1. Hereinafter, this mechanism will be described. Note that the description of the same points as in the first example is omitted.

会議管理プログラム13Pによると、図15に示すセッション管理部141ないしユーザ特定部154の機能が拠点装置1に実現される。   According to the conference management program 13P, the functions of the session management unit 141 to the user identification unit 154 shown in FIG.

セッション管理部141ないしユーザ特定部154は、図16および図17に示す手順で処理を実行する。   The session management unit 141 to the user identification unit 154 execute processing according to the procedure shown in FIGS.

会議が始まる前に予め、管理者は、入力機器16を使用して、会議に参加する参加者ごとの端末情報6Aおよびユーザ情報6Dを拠点装置1へ入力する。   Before the conference starts, the administrator uses the input device 16 in advance to input terminal information 6A and user information 6D for each participant participating in the conference to the base device 1.

ユーザ情報6Dは、参加者を識別するための情報であって、参加者の顔画像から認識された目、鼻または口などの器官の形状または位置などを数値化した情報である。   The user information 6D is information for identifying a participant, and is information obtained by digitizing the shape or position of an organ such as an eye, nose or mouth recognized from the face image of the participant.

拠点装置1の登録部150は、入力された端末情報6Aを端末情報記憶部151に記憶し、入力されたユーザ情報6Dをユーザ情報記憶部152に記憶する(図16の#801)。以下、ユーザ情報記憶部152に記憶されるユーザ情報6Dを「ユーザ情報6D0」と記載する。同じ参加者の端末情報6Aとユーザ情報6D0とは、対応付けられている。   The registration unit 150 of the base device 1 stores the input terminal information 6A in the terminal information storage unit 151, and stores the input user information 6D in the user information storage unit 152 (# 801 in FIG. 16). Hereinafter, the user information 6D stored in the user information storage unit 152 is referred to as “user information 6D0”. The terminal information 6A and user information 6D0 of the same participant are associated with each other.

その後、拠点装置1Aおよび拠点装置1Bは、図6のステップ#601および#602と同様の処理を行う(#802および#803)。   Thereafter, the base device 1A and the base device 1B perform the same processing as steps # 601 and # 602 in FIG. 6 (# 802 and # 803).

拠点装置1Aのユーザ監視部153およびユーザ特定部154は、退出者を特定する処理を、以下のように行う(#804)。   The user monitoring unit 153 and the user specifying unit 154 of the base device 1A perform the process of specifying the leaving person as follows (# 804).

ユーザ監視部153は、所定の時間の間隔で、撮影機器13から随時取得された映像のデータから顔画像を識別する(図17の#831)。そして、顔画像に対応するユーザ情報6Dを抽出する(#832)。その結果、参加者それぞれのユーザ情報6Dが抽出される。   The user monitoring unit 153 identifies a face image from video data acquired as needed from the imaging device 13 at predetermined time intervals (# 831 in FIG. 17). Then, user information 6D corresponding to the face image is extracted (# 832). As a result, user information 6D for each participant is extracted.

なお、撮影機器13が資料の映像の表示面を撮影している場合は、顔画像を撮影することができない。そこで、参加者を撮影するための撮影機器を設置しておき、この撮影機器によって撮影される映像に基づいて顔画像を識別してもよい。   It should be noted that a face image cannot be taken when the photographing device 13 is photographing the display surface of the material video. Therefore, a photographing device for photographing the participant may be installed, and the face image may be identified based on the video photographed by the photographing device.

ユーザ特定部154は、退出者を例えば次のように特定する(#833)。最近の時刻の映像のデータに基づいて抽出された、各人物のユーザ情報6D(以下、「ユーザ情報6D1」と記載する。)と、ユーザ情報記憶部152に記憶されている各ユーザ情報6D0とを比較することによって、この映像に映っている参加者を特定する。   The user specifying unit 154 specifies the evacuees as follows, for example (# 833). Each person's user information 6D (hereinafter referred to as “user information 6D1”) extracted based on video data at the latest time, and each user information 6D0 stored in the user information storage unit 152, To identify the participants shown in this video.

さらに、その時刻より所定時間早い時刻(例えば、5分前)の映像のデータに基づいて抽出された、各人物のユーザ情報6D(以下、「ユーザ情報6D2」と記載する。)と、ユーザ情報記憶部152に記憶されている各ユーザ情報6D0とを比較することによって、この映像に映っている参加者を特定する。   Furthermore, user information 6D (hereinafter referred to as “user information 6D2”) of each person extracted based on video data at a time earlier than that time (for example, 5 minutes before) and user information. By comparing each user information 6D0 stored in the storage unit 152, a participant shown in this video is specified.

そして、ユーザ情報6D2から特定されたがユーザ情報6D1からは特定されなかった参加者を、退出者として特定する。   Then, the participant specified from the user information 6D2 but not specified from the user information 6D1 is specified as an exit.

退出者を特定することができた場合は(#834でYes)、その退出者のユーザ情報6D0に対応付けられている端末情報6Aを特定する(#835)。   If the exit person can be specified (Yes in # 834), the terminal information 6A associated with the user information 6D0 of the exit person is specified (# 835).

セッション管理部141は、端末情報6Aが特定された場合は(図16の#805でYes)、その端末情報6Aの接続情報6A1を使用して、携帯端末2とのセッションの確立を携帯端末2へ要求する(#806)。   When the terminal information 6A is specified (Yes in # 805 in FIG. 16), the session management unit 141 uses the connection information 6A1 of the terminal information 6A to establish a session with the portable terminal 2. (# 806).

その後、拠点装置1A、拠点装置1B、および携帯端末2は、図13のステップ#707〜ステップ#716と同様の処理を適時行い(図16の#807〜#816)、図8のステップ#652〜#662の各処理を適時行う。   After that, the base device 1A, the base device 1B, and the mobile terminal 2 perform the same processing as step # 707 to step # 716 in FIG. 13 in a timely manner (# 807 to # 816 in FIG. 16), and step # 652 in FIG. Each process of ~ # 662 is performed in a timely manner.

本発明によると、会議の途中で退出した参加者へ従来よりも効率的に会議の状況を示す映像のデータおよび音声のデータを与えることができる。   According to the present invention, video data and audio data indicating the status of a conference can be more efficiently given to participants who have left during the conference than before.

上述の実施形態では、携帯端末2のタッチパネルディスプレイ20eのサイズに基づいて、表示範囲情報6Bが設定された。しかし、タッチパネルディスプレイ20eの解像度に基づいて、表示範囲情報6Bを設定してもよい。例えば、所定のサイズを、2分の1に固定するのではなく、タッチパネルディスプレイ20eの解像度が高いほどサイズが大きくなるようにしてもよい。   In the above-described embodiment, the display range information 6B is set based on the size of the touch panel display 20e of the mobile terminal 2. However, the display range information 6B may be set based on the resolution of the touch panel display 20e. For example, instead of fixing the predetermined size to one half, the size may be increased as the resolution of the touch panel display 20e is higher.

上述の実施形態では、携帯端末2を、セッションを確立した拠点装置1のNFCユニット10fにかざすことで、セッションを終了させた。しかし、携帯端末2を、セッションを確立した拠点装置1とは異なる他の拠点装置1のNFCユニット10fにかざすことで、セッションを終了させてもよい。この場合、他の拠点装置1は、携帯端末2から端末情報6Aを受信し、受信した端末情報6Aを、セッションを確立した拠点装置1に送信する。セッションを確立した拠点装置1は、端末情報6Aを受信した時にセッションを終了させる。   In the above-described embodiment, the session is terminated by holding the mobile terminal 2 over the NFC unit 10f of the base device 1 that has established the session. However, the session may be terminated by holding the mobile terminal 2 over the NFC unit 10f of another base device 1 different from the base device 1 that established the session. In this case, the other base device 1 receives the terminal information 6A from the mobile terminal 2, and transmits the received terminal information 6A to the base device 1 that has established the session. The base device 1 that has established the session ends the session when the terminal information 6A is received.

上述の実施形態では、拠点装置1Aは、映像のデータをそのまま圧縮映像データ61および圧縮映像データ62に変換して、携帯端末2へ送信した。しかし、映像のデータの一部を、表示範囲情報6Bの設定する範囲に従ってトリミングし、これを圧縮映像データ61および圧縮映像データ62に変換して、携帯端末2へ送信してもよい。   In the above-described embodiment, the base device 1 </ b> A converts the video data as it is into the compressed video data 61 and the compressed video data 62 and transmits them to the portable terminal 2. However, a part of the video data may be trimmed according to the range set in the display range information 6B, converted into the compressed video data 61 and the compressed video data 62, and transmitted to the portable terminal 2.

上述の実施形態において、さらにテレビ会議に使用する資料データを、拠点装置1Aと拠点装置1Bとの間で送受信し、拠点装置1Aから携帯端末2へ送信してもよい。   In the above-described embodiment, further, material data used for the video conference may be transmitted and received between the base device 1A and the base device 1B and transmitted from the base device 1A to the mobile terminal 2.

上述の実施形態以外の、拠点装置1Aと携帯端末2との間のセッションを確立する例として、拠点装置1Aと携帯端末2との間でBluetooth(登録商標)によって通信を会議中、常に行い、通信ができなくなった携帯端末2に対して、セッションの確立を拠点装置1Aが要求してもよい。   As an example of establishing a session between the base device 1A and the mobile terminal 2 other than the above-described embodiment, communication between the base device 1A and the mobile terminal 2 is always performed during the conference by Bluetooth (registered trademark), The base device 1A may request the mobile terminal 2 that has become unable to communicate to establish a session.

または、拠点装置1Aが、携帯端末2から発信されるビーコンを会議中、定期的に検知し、ビーコンを検知できなくなった携帯端末2に対して、セッションの確立を拠点装置1Aが要求してもよい。   Alternatively, even if the base device 1A periodically detects a beacon transmitted from the mobile terminal 2 during the conference, and the base device 1A requests the mobile terminal 2 that cannot detect the beacon to establish a session. Good.

第1の例では、端末情報6Aは、退出者が携帯端末2を拠点装置1のNFCユニット10fにかざした時に拠点装置1へ送信されたが、事前に送信されてもよい。例えば、会議が開催される前に、携帯端末2から拠点装置1に送信されてもよい。   In the first example, the terminal information 6A is transmitted to the base device 1 when the evacuee holds the mobile terminal 2 over the NFC unit 10f of the base device 1, but may be transmitted in advance. For example, it may be transmitted from the mobile terminal 2 to the base device 1 before the conference is held.

第2の例では、携帯端末2が、携帯端末2の姿勢または動きなどが所定の状態になったことを検知してセッションの確立を要求した。しかし、参加者が携帯端末2のボタンをタッチすることで、携帯端末2がセッションの確立を要求してもよい。または、携帯端末2が、検知した姿勢または動きなどの情報を常に拠点装置1Aへ送信し、拠点装置1が、携帯端末2の状態が所定の姿勢または動きになったことを受信した情報から判断して、セッションの確立を要求してもよい。   In the second example, the mobile terminal 2 detects that the posture or movement of the mobile terminal 2 has reached a predetermined state and requests establishment of a session. However, the mobile terminal 2 may request establishment of a session by the participant touching the button of the mobile terminal 2. Alternatively, the mobile terminal 2 always transmits information such as the detected posture or movement to the base device 1A, and the base device 1 determines from the received information that the state of the mobile terminal 2 has become a predetermined posture or movement. Then, the establishment of a session may be requested.

第3の例では、認識した顔画像から端末情報6Aを特定したが、予め会議室の座席と端末情報6Aとを関連付け、映像のデータから人物の存在を認識できなくなった座席を選出し、その座席に関連付けられた端末情報6Aを特定してもよい。   In the third example, the terminal information 6A is specified from the recognized face image. However, the seat in the conference room is associated with the terminal information 6A in advance, and a seat that cannot recognize the presence of a person is selected from the video data. The terminal information 6A associated with the seat may be specified.

第3の例において、拠点装置1Aと携帯端末2とのセッションが確立している状態で、ユーザ情報6D1から特定されたがユーザ情報6D2からは特定されなかった参加者がいる場合に、すなわち退出者が会議室へ再度入室したことを判別した場合に、セッションを終了させてもよい。   In the third example, when a session between the base device 1A and the mobile terminal 2 is established, there is a participant who is identified from the user information 6D1 but not identified from the user information 6D2, that is, exits. When it is determined that the person has entered the conference room again, the session may be terminated.

その他、テレビ会議システム100、拠点装置1および携帯端末2の全体または各部の構成、処理の内容、処理の順序、データの構成などは、本発明の趣旨に沿って適宜変更することができる。   In addition, the configuration of the whole or each part of the video conference system 100, the base device 1, and the portable terminal 2, the contents of processing, the order of processing, the data configuration, and the like can be appropriately changed in accordance with the spirit of the present invention.

1、1A、1B 拠点装置(会議用装置)
101 セッション管理部(退出者検知手段)
108 端末用データ送信部(送信手段)
2 携帯端末(端末装置)
20e タッチパネルディスプレイ(ディスプレイ)
6A1 接続情報(識別子)
6B 表示範囲情報(位置情報)
61 圧縮映像データ(映像)
62 圧縮映像データ(映像)
63 圧縮音声データ(音声)
64 圧縮音声データ(音声)
65 テキストデータ(テキスト)
66 テキストデータ(第2のテキスト)
68 圧縮音声データ(第2の音声)
1, 1A, 1B Base device (conference device)
101 Session Management Department (Exiter detection means)
108 Data transmission unit for terminal (transmission means)
2 Mobile terminals (terminal devices)
20e Touch panel display (display)
6A1 connection information (identifier)
6B Display range information (position information)
61 Compressed video data (video)
62 Compressed video data (video)
63 Compressed audio data (voice)
64 Compressed audio data (voice)
65 Text data (text)
66 Text data (second text)
68 Compressed audio data (second audio)

Claims (13)

複数の参加者が所定の場所に集まって行われる会議において用いられる会議用装置であって、
前記複数の参加者のうちの、前記所定の場所から退出しようとしているまたは退出した参加者である退出者を検知する、退出者検知手段と、
前記退出者検知手段によって前記退出者が検知された後、当該退出者の端末装置へ前記会議の画像または音声を送信する、送信手段と、
を有することを特徴とする会議用装置。
A conference device used in a conference in which a plurality of participants gather at a predetermined place,
Of the plurality of participants, a leaving person detection means for detecting a leaving person who is or is a participant who is about to leave the predetermined place;
Transmitting means for transmitting an image or sound of the conference to the terminal device of the exit person after the exit person is detected by the exit person detection means;
A conference apparatus characterized by comprising:
前記端末装置は、近距離無線通信の機能を有するモバイル型の端末装置であって、
前記退出者検知手段は、前記端末装置に設定されている通信用の識別子を当該端末装置から前記近距離無線通信で受信することによって前記退出者を検知し、
前記送信手段は、前記退出者検知手段によって受信された前記識別子に基づいて前記画像または音声を送信する、
請求項1に記載の会議用装置。
The terminal device is a mobile terminal device having a short-range wireless communication function,
The leaving person detecting means detects the leaving person by receiving an identifier for communication set in the terminal device from the terminal device by the short-range wireless communication,
The transmission means transmits the image or sound based on the identifier received by the exit detection means.
The conference device according to claim 1.
前記端末装置は、近距離無線通信の機能を有するモバイル型の端末装置であって、
前記退出者検知手段は、前記端末装置に設定されている通信用の識別子を当該端末装置から前記近距離無線通信で受信しなくなった場合に前記退出者を検知し、
前記送信手段は、前記退出者検知手段によって受信された前記識別子に基づいて前記画像または音声を送信する、
請求項1に記載の会議用装置。
The terminal device is a mobile terminal device having a short-range wireless communication function,
The leaving person detection means detects the leaving person when the communication identifier set in the terminal apparatus is no longer received from the terminal apparatus by the short-range wireless communication,
The transmission means transmits the image or sound based on the identifier received by the exit detection means.
The conference device according to claim 1.
前記退出者検知手段は、前記退出者を検知した後、前記識別子を再び受信した場合は、前記退出者が前記所定の場所に戻って来たと判別し、
前記送信手段は、前記退出者が前記所定の場所に戻って来たと前記退出者検知手段によって判別された場合は、前記画像または音声を送信するのを停止する、
請求項2または請求項3に記載の会議用装置。
The exit detection means, after detecting the exit, if the identifier is received again, determines that the exit has returned to the predetermined location,
The transmitting means stops transmitting the image or the sound when the exiting person detecting means determines that the exiting person has returned to the predetermined place.
The conference device according to claim 2 or 3.
前記退出者検知手段は、第1の時刻に撮影された前記所定の場所の第1の画像には含まれているが、当該第1の時刻よりも遅い第2の時刻に撮影された前記所定の場所の第2の画像には含まれていない参加者を前記退出者として検知する、
請求項1に記載の会議用装置。
The exit detection means is included in the first image of the predetermined place taken at the first time but is taken at the second time later than the first time. Detecting a participant who is not included in the second image of the location as the exit.
The conference device according to claim 1.
前記送信手段は、前記退出者検知手段によって前記退出者が検知された後、さらに、前記端末装置が所定の姿勢になりまたは所定の動きをしたことが検知された場合に、前記画像または音声を送信する、
請求項1に記載の会議用装置。
The transmission means transmits the image or the sound when the exit person is detected by the exit person detection means and further when the terminal device is detected to be in a predetermined posture or a predetermined movement. Send,
The conference device according to claim 1.
前記送信手段は、前記端末装置のディスプレイの表示面のサイズが所定のサイズ以下である場合は、前記画像の一部分が当該ディスプレイに表示されるように前記画像を送信する、
請求項1ないし請求項6に記載の会議用装置。
The transmission means transmits the image so that a part of the image is displayed on the display when the size of the display surface of the display of the terminal device is a predetermined size or less.
The conference device according to claim 1.
前記送信手段は、前記画像のうちの前記一部分のみを送信する、
請求項7に記載の会議用装置。
The transmitting means transmits only the portion of the image;
The conference device according to claim 7.
前記送信手段は、前記画像とともに、前記一部分の位置を示す位置情報を送信する、
請求項7に記載の会議用装置。
The transmission means transmits position information indicating the position of the part together with the image.
The conference device according to claim 7.
前記送信手段は、前記音声の代わりに、当該音声が表わす言葉を示すテキストを送信する、
請求項1ないし請求項9のいずれか記載の会議用装置。
The transmitting means transmits a text indicating a word represented by the voice instead of the voice.
The conference device according to claim 1.
前記端末装置から受信した第2のテキストが表わす言葉を第2の音声によって出力する、
請求項1ないし請求項10のいずれかに記載の会議用装置。
Outputting a word represented by the second text received from the terminal device by a second voice;
The conference device according to claim 1.
複数の参加者が所定の場所に集まって行われている会議の画像または音声を送信する送信方法であって、
複数の参加者のうちの、前記所定の場所から退出しようとしているまたは退出した参加者である退出者を検知する退出者検知ステップと、
前記退出者検知ステップによって前記退出者が検知された後、当該退出者の端末装置へ前記画像または音声を送信する、送信ステップと、
を有することを特徴とする送信方法。
A transmission method for transmitting images or sounds of a conference in which a plurality of participants are gathered at a predetermined place,
A leaving person detecting step of detecting a leaving person who is a participant who is about to leave or has left the predetermined place among a plurality of participants, and
Transmitting the image or sound to the terminal device of the exit after the exit is detected by the exit detection step;
A transmission method characterized by comprising:
複数の参加者が所定の場所に集まって行われる会議において使用されるコンピュータに用いられるコンピュータプログラムであって、
前記コンピュータに、
前記複数の参加者のうちの、前記所定の場所から退出しようとしているまたは退出した参加者である退出者を検知する、退出者検知処理を実行させ、
前記退出者検知処理によって前記退出者が検知された後、当該退出者の端末装置へ前記会議の画像または音声を送信する送信処理を実行させる、
を実行させることを特徴とするコンピュータプログラム。
A computer program used for a computer used in a meeting where a plurality of participants gather at a predetermined place,
In the computer,
Of the plurality of participants, to detect a leaving person who is going to leave from the predetermined location or is a leaving participant, to execute a leaving person detection process,
After the exit person is detected by the exit person detection process, a transmission process for transmitting an image or sound of the conference to the terminal device of the exit person is executed.
A computer program for executing
JP2016061127A 2016-03-25 2016-03-25 Conference apparatus, transmission method, and computer program Active JP6680031B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016061127A JP6680031B2 (en) 2016-03-25 2016-03-25 Conference apparatus, transmission method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016061127A JP6680031B2 (en) 2016-03-25 2016-03-25 Conference apparatus, transmission method, and computer program

Publications (2)

Publication Number Publication Date
JP2017175490A true JP2017175490A (en) 2017-09-28
JP6680031B2 JP6680031B2 (en) 2020-04-15

Family

ID=59972362

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016061127A Active JP6680031B2 (en) 2016-03-25 2016-03-25 Conference apparatus, transmission method, and computer program

Country Status (1)

Country Link
JP (1) JP6680031B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020053781A (en) * 2018-09-25 2020-04-02 富士ゼロックス株式会社 Information processing apparatus and program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003324773A (en) * 2002-05-08 2003-11-14 Seiko Epson Corp Radio equipment, speech management method for radio equipment, and speech management program
JP2005260348A (en) * 2004-03-09 2005-09-22 Takeshi Saito Communication system, terminal device and communication method
JP2007074532A (en) * 2005-09-08 2007-03-22 Canon Inc Conference system, conference method, conference program and storage means
US20100271456A1 (en) * 2009-04-27 2010-10-28 Future Vision Inc. Conference details recording system
US20120262537A1 (en) * 2011-04-18 2012-10-18 Baker Mary G Methods and systems for establishing video conferences using portable electronic devices
JP2013517739A (en) * 2010-01-20 2013-05-16 マイクロソフト コーポレーション Communication sessions between devices and interfaces with mixed capabilities
US20140369483A1 (en) * 2013-06-14 2014-12-18 Andrew William Lovitt Using physical gestures to initiate call transfers between devices
CN104506550A (en) * 2014-12-30 2015-04-08 宇龙计算机通信科技(深圳)有限公司 Multiparty conference processing method and device based on network internet protocol multimedia subsystem

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003324773A (en) * 2002-05-08 2003-11-14 Seiko Epson Corp Radio equipment, speech management method for radio equipment, and speech management program
JP2005260348A (en) * 2004-03-09 2005-09-22 Takeshi Saito Communication system, terminal device and communication method
JP2007074532A (en) * 2005-09-08 2007-03-22 Canon Inc Conference system, conference method, conference program and storage means
US20100271456A1 (en) * 2009-04-27 2010-10-28 Future Vision Inc. Conference details recording system
JP2013517739A (en) * 2010-01-20 2013-05-16 マイクロソフト コーポレーション Communication sessions between devices and interfaces with mixed capabilities
US20120262537A1 (en) * 2011-04-18 2012-10-18 Baker Mary G Methods and systems for establishing video conferences using portable electronic devices
US20140369483A1 (en) * 2013-06-14 2014-12-18 Andrew William Lovitt Using physical gestures to initiate call transfers between devices
CN104506550A (en) * 2014-12-30 2015-04-08 宇龙计算机通信科技(深圳)有限公司 Multiparty conference processing method and device based on network internet protocol multimedia subsystem

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020053781A (en) * 2018-09-25 2020-04-02 富士ゼロックス株式会社 Information processing apparatus and program
JP7218525B2 (en) 2018-09-25 2023-02-07 富士フイルムビジネスイノベーション株式会社 Information processing device and program

Also Published As

Publication number Publication date
JP6680031B2 (en) 2020-04-15

Similar Documents

Publication Publication Date Title
US11477316B2 (en) Information processing system, wireless terminal, and information processing method
US9591261B2 (en) Video telephone device and video telephone processing method
US9094524B2 (en) Enhancing conferencing user experience via components
KR20100061582A (en) Apparatus and method for providing emotion expression service in mobile communication terminal
US20170279898A1 (en) Method for Accessing Virtual Desktop and Mobile Terminal
JP6451227B2 (en) Information processing apparatus, information processing system, program, and recording medium
CN113329240A (en) Screen projection method and device
US8970651B2 (en) Integrating audio and video conferencing capabilities
US9826556B2 (en) Apparatus and method for data transmission and reception of a mobile terminal
CN105915521A (en) Multi-party communication management method, device and terminal
US9094574B2 (en) Information processing apparatus, conference system, and computer program products
JP2011082694A (en) System and device for communication conference
JP2011055444A (en) Communication device
CN112770078B (en) Video conference terminal fusion method and device and readable storage medium
US20180367758A1 (en) Communication system, information processing apparatus, communication apparatus, and computer-readable medium
JP6680031B2 (en) Conference apparatus, transmission method, and computer program
JP6781318B2 (en) Information processing system and wireless terminal
CN117813814A (en) WEB conference system, terminal device, and WEB conference method
JP6922060B2 (en) Information processing system and wireless terminal
JP7149386B2 (en) Information processing system and wireless terminal
JP6787078B2 (en) Communication equipment, methods and programs
KR100782077B1 (en) Mute image transmitting method for multilateral image communication terminal
CN112911197B (en) Video information processing system, mobile communication terminal, and video information processing method
CN116708385A (en) System for screen sharing among participant devices
JP2022131092A (en) Wireless broadcasting system and wireless broadcasting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200302

R150 Certificate of patent or registration of utility model

Ref document number: 6680031

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150