JP6680031B2 - Conference apparatus, transmission method, and computer program - Google Patents

Conference apparatus, transmission method, and computer program Download PDF

Info

Publication number
JP6680031B2
JP6680031B2 JP2016061127A JP2016061127A JP6680031B2 JP 6680031 B2 JP6680031 B2 JP 6680031B2 JP 2016061127 A JP2016061127 A JP 2016061127A JP 2016061127 A JP2016061127 A JP 2016061127A JP 6680031 B2 JP6680031 B2 JP 6680031B2
Authority
JP
Japan
Prior art keywords
conference
mobile terminal
information
person
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016061127A
Other languages
Japanese (ja)
Other versions
JP2017175490A (en
Inventor
英明 副島
英明 副島
一美 澤柳
一美 澤柳
陽介 谷口
陽介 谷口
俊彦 大竹
俊彦 大竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2016061127A priority Critical patent/JP6680031B2/en
Publication of JP2017175490A publication Critical patent/JP2017175490A/en
Application granted granted Critical
Publication of JP6680031B2 publication Critical patent/JP6680031B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、テレビ会議の画像または音声を提供の技術に関する。   The present invention relates to a technique for providing video or image of a video conference.

従来、互いに離れた複数の拠点、例えば複数の会議室の間での会議を実現する手段として、テレビ会議システムが知られている。このシステムによって、会議の参加者は、同じ会議室にいなくとも顔を見ながら会議ができる。   BACKGROUND ART Conventionally, a video conference system is known as a means for realizing a conference between a plurality of bases separated from each other, for example, a plurality of conference rooms. This system allows participants in a meeting to look at each other even if they are not in the same meeting room.

例えば、テレビ会議の技術として、次のような技術が知られている。特許文献1に記載の通信システムによると、通信装置部と、通信装置部が提供するサービスなどを受信する第1、第2の端末装置とを有し、通信装置部は、第1の端末からの要求により、通信の接続を第1の端末から第2の端末に変更する。   For example, the following techniques are known as techniques for video conferencing. According to the communication system described in Patent Document 1, the communication device unit includes first and second terminal devices that receive a service provided by the communication device unit, and the communication device unit is provided from the first terminal. Request to change the communication connection from the first terminal to the second terminal.

特許文献2に記載の通信システムによると、会議参加端末が会議に参加するための情報を持っていない場合において、その端末が会議に参加できるようにするために、多地点会議制御装置に接続するための情報を、プレゼンスサーバ装置からその端末へ送信する。   According to the communication system described in Patent Document 2, when a conference participating terminal does not have information for participating in the conference, the terminal is connected to the multipoint conference control device in order to enable the terminal to participate in the conference. Information for sending is transmitted from the presence server device to the terminal.

特開2005−260348号公報JP, 2005-260348, A 特開2006−345361号公報JP 2006-345361 A

会議室に集合した複数の参加者と他の会議室に集合した複数の参加者とが、テレビ会議をすることがある。   A plurality of participants gathered in a conference room and a plurality of participants gathered in another conference room may make a video conference.

参加者は、突発的な事情などで会議室を退出すると、会議の状況を知ることができなくなる。   Participants cannot know the status of the meeting when they leave the meeting room due to sudden circumstances.

特許文献1に記載の通信システムは、会議室にいる参加者および退出した参加者の両方へ他の会議室の様子を提供することができない。   The communication system described in Patent Document 1 cannot provide the state of another conference room to both the participant in the conference room and the participant who has left.

特許文献2に記載の通信システムは、参加者が個人用の移動可能な端末を用いて参加する会議を前提としている。つまり、複数の参加者が会議室に集合するテレビ会議を想定していない。また、会議制御装置に接続するための情報を端末が受信するには、その端末を会議に参加する端末として、事前に別途登録しておく必要がある。突発的な事情に備えるためだけに、すべての参加者に端末を所持させ、かつ、すべての端末を会議に参加するための端末として登録することは、効率的ではない。   The communication system described in Patent Document 2 is premised on a conference in which participants participate by using personal movable terminals. That is, a video conference in which a plurality of participants gather in a conference room is not assumed. Further, in order for the terminal to receive information for connecting to the conference control device, the terminal needs to be separately registered in advance as a terminal that participates in the conference. It is not efficient to make all participants possess terminals and to register all terminals as terminals for participating in a conference just to prepare for a sudden situation.

本発明は、このような問題点に鑑み、会議の途中で退出した参加者へ従来よりも効率的に会議の状況の情報を与えることを、目的とする。   In view of such problems, an object of the present invention is to provide a participant who leaves during a conference with information on the situation of the conference more efficiently than before.

本発明の一実施形態に係る会議用装置は、複数の参加者が所定の場所に集まって行われる会議において用いられる会議用装置であって、前記複数の参加者のうちの、前記所定の場所から退出しようとしているまたは退出した参加者である退出者を検知する、退出者検知手段と、前記退出者検知手段によって前記退出者が検知された後、さらに、当該退出者が端末装置を当該退出者の耳に当てる行動が検知された場合に、該端末装置へ前記会議の画像または音声を送信する、送信手段と、を有する。
A conference device according to an embodiment of the present invention is a conference device used in a conference in which a plurality of participants gather at a predetermined place, and the predetermined place among the plurality of participants. After the exiter is detected by the exiter detection means and the exiter detection means for detecting an exiter who is a participant who is about to leave or has exited from the terminal device, the exiter further exits the terminal device. If the action against the person's ear is detected, the transmitting the image or audio conferencing to this terminal device, and a transmission unit.

本発明によると、会議の途中で退出した参加者へ従来よりも効率的に会議の状況の情報を与えることができる。   According to the present invention, it is possible to more efficiently give the information on the status of a conference to the participants who have left during the conference.

テレビ会議システムの全体的な構成の例を示す図である。It is a figure which shows the example of the whole structure of a video conference system. 拠点装置のハードウェア構成の例を示す図である。It is a figure which shows the example of the hardware constitutions of a base apparatus. 携帯端末のハードウェア構成の例を示す図である。It is a figure which shows the example of a hardware constitutions of a portable terminal. 拠点装置の機能的構成の第1の例を示す図である。It is a figure which shows the 1st example of a functional structure of a base apparatus. 携帯端末の機能的構成の第1の例を示す図である。It is a figure which shows the 1st example of a functional structure of a portable terminal. 拠点装置におけるテレビ会議の処理の流れの第1の例を示すフローチャートである。It is a flowchart which shows the 1st example of the flow of the process of the video conference in a base apparatus. 拠点間通信処理の流れの例を示す図である。It is a figure which shows the example of the flow of communication processing between bases. 携帯端末におけるテレビ会議の処理の流れの第1の例を示すフローチャートである。It is a flowchart which shows the 1st example of the flow of the process of the video conference in a portable terminal. 周辺機器対応処理の流れの例を示す図である。It is a figure which shows the example of the flow of a peripheral device corresponding process. 表示機器の表示面およびタッチパネルディスプレイに表示される映像の例である。It is an example of an image displayed on a display surface of a display device and a touch panel display. 拠点装置の機能的構成の第2の例を示す図である。It is a figure which shows the 2nd example of a functional structure of a base apparatus. 携帯端末の機能的構成の第2の例を示す図である。It is a figure which shows the 2nd example of a functional structure of a portable terminal. 拠点装置におけるテレビ会議の処理の流れの第2の例を示すフローチャートである。It is a flowchart which shows the 2nd example of the flow of the process of the video conference in a base apparatus. 携帯端末におけるテレビ会議の処理の流れの第2の例を示すフローチャートである。It is a flowchart which shows the 2nd example of the flow of the process of the video conference in a portable terminal. 拠点装置の機能的構成の第3の例を示す図である。It is a figure showing the 3rd example of functional composition of a base unit. 拠点装置におけるテレビ会議の処理の第3の流れの例を示すフローチャートである。It is a flowchart which shows the example of the 3rd flow of the process of the video conference in a base apparatus. 退出者特定処理の流れの例を示す図である。It is a figure which shows the example of the flow of a leaving person identification process.

図1は、テレビ会議システム100の全体的な構成の例を示す図である。図2は、拠点装置1のハードウェア構成の例を示す図である。図3は、携帯端末2のハードウェア構成の例を示す図である。   FIG. 1 is a diagram showing an example of the overall configuration of a video conference system 100. FIG. 2 is a diagram illustrating an example of the hardware configuration of the base device 1. FIG. 3 is a diagram illustrating an example of the hardware configuration of the mobile terminal 2.

テレビ会議システム100は、図1に示すように、複数の拠点装置1、1または複数の携帯端末2、および通信回線4などによって構成されている。   As shown in FIG. 1, the video conference system 100 includes a plurality of base devices 1, one or a plurality of mobile terminals 2, a communication line 4, and the like.

各拠点装置1および各携帯端末2は、通信回線4を介して通信することができる。通信回線4として、LAN(Local Area Network)、インターネット、公衆回線、または専用回線などが用いられる。   Each base device 1 and each mobile terminal 2 can communicate via a communication line 4. As the communication line 4, a LAN (Local Area Network), the Internet, a public line, a dedicated line, or the like is used.

このテレビ会議システム100によると、複数の拠点の間でのテレビ会議を実現することができる。   According to this video conference system 100, it is possible to realize a video conference between a plurality of bases.

さらに、このテレビ会議システム100によると、会議の参加者は、テレビ会議が行われている途中に会議室から退出しても、テレビ会議に継続して参加することができる。   Furthermore, according to the video conference system 100, the participants of the conference can continue to participate in the video conference even if they leave the conference room during the video conference.

各拠点の会議室には、拠点装置1が1台ずつ設置されている。拠点装置1は、他の会議室に設置されている拠点装置1と通信を行い、複数の拠点の間で行われるテレビ会議を実現する。以下、第1の拠点の会議室に設置されている拠点装置1を拠点装置1Aとして記載し、第2の拠点の会議室に設置されている拠点装置1を拠点装置1Bとして記載する。   One base device 1 is installed in the conference room of each base. The base device 1 communicates with the base device 1 installed in another conference room to realize a video conference held between a plurality of bases. Hereinafter, the base device 1 installed in the conference room of the first base is described as a base device 1A, and the base device 1 installed in the conference room of the second base is described as a base device 1B.

拠点装置1として、デスクトップ型パーソナルコンピュータまたはノート型パーソナルコンピュータなどが用いられる。以下、拠点装置1として、デスクトップ型コンピュータが用いられる場合を例に説明する。   A desktop personal computer, a notebook personal computer, or the like is used as the base device 1. Hereinafter, a case where a desktop computer is used as the base device 1 will be described as an example.

拠点装置1は、図2に示すように、CPU(Central Processing Unit)10a、RAM(Random Access Memory)10b、ROM(Read Only Memory)10c、補助記憶装置10d、NIC(Network Interface Card)10e、NFC(Near Field Communication)ユニット10f、映像入出力インタフェース10g、音声入出力インタフェース10h、および操作入力インタフェース10iなどによって構成される。   As shown in FIG. 2, the base device 1 includes a CPU (Central Processing Unit) 10a, a RAM (Random Access Memory) 10b, a ROM (Read Only Memory) 10c, an auxiliary storage device 10d, a NIC (Network Interface Card) 10e, and an NFC. (Near Field Communication) unit 10f, video input / output interface 10g, audio input / output interface 10h, operation input interface 10i, and the like.

NIC10eは、TCP/IP(Transmission Control Protocol/Internet Protocol)などのプロトコルで他の装置との通信を行う。   The NIC 10e communicates with other devices using a protocol such as TCP / IP (Transmission Control Protocol / Internet Protocol).

NFCユニット10fは、他の装置またはIC(Integrated Circuit)カードなどとの近距離無線通信を実行する。   The NFC unit 10f executes short-range wireless communication with another device or an IC (Integrated Circuit) card.

映像入出力インタフェース10gは、ディスプレイまたはプロジェクタなどの表示機器12、およびデジタルビデオカメラなどの撮影機器13と接続され、表示機器12へ映像の信号を出力し、撮影機器13から映像の信号を入力するための回路である。映像入出力インタフェース10gとして、HDMI(High-Definition Multimedia Interface)、DVI(Digital Visual Interface)またはUSB(Universal Serial Bus)などの規格の回路が使用される。HDMIは、登録商標である。   The video input / output interface 10g is connected to a display device 12 such as a display or a projector and a photographing device 13 such as a digital video camera, outputs a video signal to the display device 12, and inputs a video signal from the photographing device 13. It is a circuit for. As the video input / output interface 10g, a circuit of a standard such as HDMI (High-Definition Multimedia Interface), DVI (Digital Visual Interface) or USB (Universal Serial Bus) is used. HDMI is a registered trademark.

音声入出力インタフェース10hは、スピーカなどの音声出力機器14およびマイクなどの集音器15と接続され、音声出力機器14から音声の信号を出力し、集音器15から音声の信号を入力するためのサウンドボードである。   The voice input / output interface 10h is connected to a voice output device 14 such as a speaker and a sound collector 15 such as a microphone, and outputs a voice signal from the voice output device 14 and inputs a voice signal from the sound collector 15. Sound board.

操作入力インタフェース10iは、キーボード、マウスまたはスキャナなどの入力機器16と接続され、入力機器16から操作の信号を入力するための回路である。操作入力インタフェース10iとして、USB(Universal Serial Bus)などの規格の回路が使用される。   The operation input interface 10i is a circuit that is connected to an input device 16 such as a keyboard, a mouse, or a scanner, and that inputs an operation signal from the input device 16. A standard circuit such as a USB (Universal Serial Bus) is used as the operation input interface 10i.

ROM10cまたは補助記憶装置10dには、テレビ会議に使用するための資料データが記憶されている。資料データとして、テキストデータまたはPDF(Portable Document Format)データなどが用いられる。さらに、IP電話用のプログラム、会議管理プログラム11P(図4参照)、会議管理プログラム12P(図11参照)、および会議管理プログラム13P(図15参照)が記憶されている。会議管理プログラム11Pないし13Pについては、後に説明する。   The ROM 10c or the auxiliary storage device 10d stores material data for use in a video conference. Text data, PDF (Portable Document Format) data, or the like is used as the material data. Further, an IP telephone program, a conference management program 11P (see FIG. 4), a conference management program 12P (see FIG. 11), and a conference management program 13P (see FIG. 15) are stored. The conference management programs 11P to 13P will be described later.

これらのプログラムは、必要に応じてRAM10bにロードされ、CPU10aによって実行される。補助記憶装置10dとして、ハードディスクドライブまたはSSD(Solid State Drive)などが用いられる。   These programs are loaded into the RAM 10b as needed and are executed by the CPU 10a. A hard disk drive, SSD (Solid State Drive), or the like is used as the auxiliary storage device 10d.

図1に戻り、携帯端末2は、複数の拠点装置1の間で送受信されている情報を受信する。携帯端末2として、スマートフォンまたはタブレットコンピュータなどが用いられる。以下、携帯端末2として、スマートフォンが用いられる場合を例に説明する。   Returning to FIG. 1, the mobile terminal 2 receives the information transmitted and received among the plurality of base devices 1. A smartphone, a tablet computer, or the like is used as the mobile terminal 2. Hereinafter, a case where a smartphone is used as the mobile terminal 2 will be described as an example.

携帯端末2は、図3に示すように、CPU20a、RAM20b、ROM20c、フラッシュメモリ20d、タッチパネルディスプレイ20e、無線LANユニット20f、NFCユニット20g、携帯電話通信装置20h、加速度センサ20i、および音声入出力インタフェース20jなどによって構成される。   As shown in FIG. 3, the mobile terminal 2 includes a CPU 20a, a RAM 20b, a ROM 20c, a flash memory 20d, a touch panel display 20e, a wireless LAN unit 20f, an NFC unit 20g, a mobile phone communication device 20h, an acceleration sensor 20i, and a voice input / output interface. 20j and the like.

タッチパネルディスプレイ20eは、種々の画面を表示し、タッチされた位置を検知してCPU20aにその位置を通知する。   The touch panel display 20e displays various screens, detects a touched position, and notifies the CPU 20a of the position.

無線LANユニット20fは、無線LANの規格、すなわち、IEEE(Institute of Electrical and Electronics Engineers)802.11の規格に基づいて通信を行う。   The wireless LAN unit 20f performs communication based on the wireless LAN standard, that is, the IEEE (Institute of Electrical and Electronics Engineers) 802.11 standard.

携帯電話通信装置20hは、CDMA(Code Division Multiple Access)2000、W−CDMA(Wideband-CDMA)、またはLTE(Long Term Evolution)などの規格に基づいて、いわゆる携帯電話網を介して通信を行う。   The mobile phone communication device 20h communicates via a so-called mobile phone network based on standards such as CDMA (Code Division Multiple Access) 2000, W-CDMA (Wideband-CDMA), and LTE (Long Term Evolution).

加速度センサ20iは、X軸、Y軸、およびZ軸それぞれの加速度を測定する。測定された加速度によって、携帯端末2の傾きまたは動きなどが検出される。   The acceleration sensor 20i measures the X-axis, Y-axis, and Z-axis accelerations. The tilt or movement of the mobile terminal 2 is detected based on the measured acceleration.

音声入出力インタフェース20jは、イヤホンなどの音声出力機器21、およびマイクなどの集音器22と接続され、音声出力機器21から音声の信号を出力し、集音器22から音声の信号を入力するための回路である。音声入出力インタフェース20jとして、CTIA(Cellular Telephone Industry Association)などの規格の回路が使用される。   The voice input / output interface 20j is connected to a voice output device 21 such as an earphone and a sound collector 22 such as a microphone, outputs a voice signal from the voice output device 21, and inputs a voice signal from the sound collector 22. It is a circuit for. A circuit of a standard such as CTIA (Cellular Telephone Industry Association) is used as the voice input / output interface 20j.

ROM20cまたはフラッシュメモリ20dには、IP電話用のプログラムのほか、会議参加プログラム21P(図5参照)および会議参加プログラム22P(図12参照)が記憶されている。会議参加プログラム21Pおよび会議参加プログラム22Pについては、後に説明する。   The ROM 20c or the flash memory 20d stores a conference participation program 21P (see FIG. 5) and a conference participation program 22P (see FIG. 12) in addition to the IP telephone program. The conference participation program 21P and the conference participation program 22P will be described later.

これらのプログラムは、必要に応じてRAM20bにロードされ、CPU20aによって実行される。   These programs are loaded into the RAM 20b as needed and are executed by the CPU 20a.

〔テレビ会議の処理の第1の例〕
図4は、拠点装置1Aの機能的構成の第1の例を示す図である。図5は、携帯端末2の機能的構成の第1の例を示す図である。図6は、拠点装置1Aにおけるテレビ会議の処理の流れの第1の例を示すフローチャートである。図7は、拠点間通信処理の流れの例を示す図である。図8は、携帯端末2におけるテレビ会議の処理の流れの第1の例を示すフローチャートである。図9は、周辺機器対応処理の流れの例を示す図である。図10は、表示機器12の表示面およびタッチパネルディスプレイ20eに表示される映像の例である。
[First example of processing of video conference]
FIG. 4 is a diagram illustrating a first example of the functional configuration of the base device 1A. FIG. 5 is a diagram showing a first example of the functional configuration of the mobile terminal 2. FIG. 6 is a flowchart showing a first example of a flow of processing of a video conference in the base device 1A. FIG. 7 is a diagram illustrating an example of the flow of inter-base communication processing. FIG. 8 is a flowchart showing a first example of the flow of processing of a video conference in the mobile terminal 2. FIG. 9 is a diagram illustrating an example of the flow of peripheral device support processing. FIG. 10 is an example of an image displayed on the display surface of the display device 12 and the touch panel display 20e.

会議管理プログラム11Pによると、図4に示すセッション管理部101、会議データ生成部102、拠点用データ送信部103、拠点用データ受信部104、コンテンツ拠点出力処理部105、文字変換部106、範囲設定部107、端末用データ送信部108、および端末用データ受信部109の機能が、拠点装置1Aに実現される。   According to the conference management program 11P, the session management unit 101, the conference data generation unit 102, the site data transmission unit 103, the site data reception unit 104, the content site output processing unit 105, the character conversion unit 106, and the range setting shown in FIG. The functions of the unit 107, the terminal data transmission unit 108, and the terminal data reception unit 109 are realized in the base device 1A.

会議参加プログラム21Pによると、図5に示す端末情報送信部201、端末情報記憶部202、セッション管理部203、会議データ受信部204、コンテンツ端末出力処理部205、発言データ生成部206、および発言データ送信部207の機能が、携帯端末2に実現される。   According to the conference participation program 21P, the terminal information transmission unit 201, the terminal information storage unit 202, the session management unit 203, the conference data reception unit 204, the content terminal output processing unit 205, the statement data generation unit 206, and the statement data shown in FIG. The function of the transmission unit 207 is realized in the mobile terminal 2.

拠点装置1のセッション管理部101ないし端末用データ受信部109、および携帯端末2の端末情報送信部201ないし発言データ送信部207が、図6ないし図9の手順に従って処理を行うことにより、複数の拠点の間でのテレビ会議が実現される。さらに、参加者は、テレビ会議が行われている途中で退出した場合であっても、発言したりテレビ会議の状況を視聴したりすることができる。   The session management unit 101 to the terminal data reception unit 109 of the base apparatus 1 and the terminal information transmission unit 201 to the utterance data transmission unit 207 of the mobile terminal 2 perform processing in accordance with the procedure of FIGS. Video conference between bases will be realized. Furthermore, the participant can speak and watch the status of the video conference even if he / she exits during the video conference.

第1の拠点の会議室にいる参加者は、拠点装置1Aと拠点装置1Bとの間におけるテレビ会議のセッションを確立させるための操作を拠点装置1Aに対して行う。   A participant in the conference room of the first base performs an operation on the base device 1A for establishing a video conference session between the base devices 1A and 1B.

すると、拠点装置1Aにおいて、セッション管理部101は、セッションの確立を拠点装置1Bに要求し、拠点装置1Bの許可を受けて、拠点装置1Bとの間のセッションを確立する(図6の#601)。   Then, in the base device 1A, the session management unit 101 requests the base device 1B to establish a session, and with the permission of the base device 1B, establishes a session with the base device 1B (# 601 in FIG. 6). ).

拠点装置1Aおよび拠点装置1Bは、会議の状況を表す映像のデータ、音声のデータ、および必要な資料データの送受信を、以下のような手順で行う(#602)。   The base device 1A and the base device 1B perform transmission / reception of video data, audio data, and necessary material data representing the status of the conference in the following procedure (# 602).

拠点装置1Aにおいて、会議データ生成部102は、撮影機器13から随時取得される映像のデータを圧縮することによって圧縮映像データ61に変換し、集音器15から随時取得される音声のデータを圧縮することによって圧縮音声データ63に変換する(図7の#631)。   In the base device 1A, the conference data generation unit 102 converts the video data that is acquired from the imaging device 13 at any time into compressed video data 61, and compresses the audio data that is acquired from the sound collector 15 at any time. By doing so, it is converted into the compressed audio data 63 (# 631 in FIG. 7).

拠点用データ送信部103は、圧縮映像データ61および圧縮音声データ63を、拠点装置1Bへ随時送信する(#632)。これにより、第1の拠点の会議室の状況が拠点装置1Bへ伝えられる。   The base data transmission unit 103 transmits the compressed video data 61 and the compressed audio data 63 to the base device 1B as needed (# 632). As a result, the status of the conference room at the first base is transmitted to the base device 1B.

なお、拠点装置1Bにおいても同様に、会議データ生成部102によってデータが生成され、生成されたデータが拠点用データ送信部103によって拠点装置1Aへ送信される。拠点装置1Aにおいて生成されたデータと区別するために、拠点装置1Bにおいて生成された圧縮映像データおよび圧縮音声データをそれぞれ「圧縮映像データ62」および「圧縮音声データ64」と記載する。   Similarly, in the base device 1B, data is generated by the conference data generation unit 102, and the generated data is transmitted to the base device 1A by the base data transmission unit 103. In order to distinguish from the data generated in the base device 1A, the compressed video data and the compressed audio data generated in the base device 1B are described as "compressed video data 62" and "compressed audio data 64", respectively.

拠点用データ受信部104は、拠点装置1Bから圧縮映像データ62および圧縮音声データ64を随時受信する(#633)。   The base data receiving unit 104 receives the compressed video data 62 and the compressed audio data 64 from the base device 1B at any time (# 633).

コンテンツ拠点出力処理部105は、圧縮映像データ62および圧縮音声データ64を復号し、復号した圧縮映像データ62を映像のデータとして表示機器12へ出力し、復号した圧縮音声データ64を音声のデータとして音声出力機器14へ出力する(#634)。そして、これらのデータに基づいて、映像が表示機器12によって表示され、音声が音声出力機器14によって再生される。   The content base output processing unit 105 decodes the compressed video data 62 and the compressed audio data 64, outputs the decoded compressed video data 62 as video data to the display device 12, and the decoded compressed audio data 64 as audio data. It is output to the audio output device 14 (# 634). Then, based on these data, the video is displayed by the display device 12 and the sound is reproduced by the audio output device 14.

ところで、参加者は、会議中に会議室から退出しなければならない場合がある。この場合は、参加者(以下、「退出者」と記載する。)が、自分の携帯端末2を拠点装置1AのNFCユニット10fにかざす。   By the way, the participant may have to leave the conference room during the conference. In this case, a participant (hereinafter, referred to as “exiter”) holds his / her mobile terminal 2 over the NFC unit 10f of the base apparatus 1A.

すると、携帯端末2において、端末情報送信部201は、端末情報記憶部202から端末情報6Aを読み出し、NFCによって拠点装置1Aへ送信する(図8の#651)。   Then, in the mobile terminal 2, the terminal information transmission unit 201 reads the terminal information 6A from the terminal information storage unit 202 and transmits it to the base device 1A by NFC (# 651 in FIG. 8).

端末情報6Aは、接続情報6A1および仕様情報6A2を含む情報である。接続情報6A1は、携帯端末2自身のユーザアカウントに関する情報である。以下、ユーザアカウントとして、Skype(登録商標)などのIP電話のサービスのユーザアカウントが使用される場合を例に説明する。よって、接続情報6A1には、ユーザアカウントのユーザIDが示される。   The terminal information 6A is information including the connection information 6A1 and the specification information 6A2. The connection information 6A1 is information regarding the user account of the mobile terminal 2 itself. Hereinafter, a case where a user account of an IP telephone service such as Skype (registered trademark) is used as the user account will be described as an example. Therefore, the connection information 6A1 shows the user ID of the user account.

仕様情報6A2には、携帯端末2の周辺機器の接続の状況を示す情報が含まれる。例えば、携帯端末2がイヤホンなどの音声出力機器21を接続しているか否か、またはマイクなどの集音器22を接続しているか否か、などを示す情報である。また、携帯端末2のタッチパネルディスプレイ20eのサイズなどを示す情報も含まれる。   The specification information 6A2 includes information indicating the connection status of the peripheral device of the mobile terminal 2. For example, it is information indicating whether or not the mobile terminal 2 is connected to a voice output device 21 such as an earphone, or whether a sound collector 22 such as a microphone is connected. It also includes information indicating the size of the touch panel display 20e of the mobile terminal 2 and the like.

図6に戻って、拠点装置1Aにおいて、セッション管理部101は、端末情報6Aを受信すると(#603でYes)、すなわち退出者が会議室から退出しようとしていることを検知すると、その端末情報6Aから特定される携帯端末2とセッションが確立されているか否かを確認し、確立されていない場合は(#604でNo)、端末情報6Aの接続情報6A1に示されるユーザIDに基づいて携帯端末2とのセッションの確立を携帯端末2へ要求する(#605)。   Returning to FIG. 6, in the base device 1A, when the session management unit 101 receives the terminal information 6A (Yes in # 603), that is, when it is detected that the leaving person is about to leave the conference room, the terminal information 6A is received. It is confirmed whether or not a session has been established with the mobile terminal 2 specified from No., and if not established (No in # 604), the mobile terminal based on the user ID shown in the connection information 6A1 of the terminal information 6A. The mobile terminal 2 is requested to establish a session with the mobile terminal 2 (# 605).

携帯端末2において、セッション管理部203は、拠点装置1Aからの要求に応じて、拠点装置1とセッションを確立する(図8の#652)。   In the mobile terminal 2, the session management unit 203 establishes a session with the base device 1 in response to a request from the base device 1A (# 652 in FIG. 8).

なお、セッションの確立のための処理は、公知のIP電話の技術を用いて行うことができる。   The process for establishing the session can be performed using a known IP telephone technique.

拠点装置1において、文字変換部106および範囲設定部107は、撮影機器13から随時取得される映像のデータ、集音器15から随時取得される音声のデータ、圧縮映像データ62を復号した映像のデータ、および圧縮音声データ64を復号した音声のデータに対して、携帯端末2の周辺機器の接続の状況に基づいて、以下のような処理を行う(#606)。   In the base device 1, the character conversion unit 106 and the range setting unit 107 include video data that is acquired from the photographing device 13 as needed, audio data that is acquired from the sound collector 15 as needed, and video that is obtained by decoding the compressed video data 62. The following processing is performed on the data and the audio data obtained by decoding the compressed audio data 64, based on the connection status of the peripheral device of the mobile terminal 2 (# 606).

文字変換部106は、仕様情報6A2に、携帯端末2が音声出力機器21を接続している旨を示す情報が含まれているか否かを判別する(図9の#681)。接続している旨を示す情報が含まれていると判別した場合は(#682でNo)、音声のデータによって表わされる声を、公知の音声認識の技術で文字に変換することによって、テキストデータ65を生成する(#683)。   The character conversion unit 106 determines whether or not the specification information 6A2 includes information indicating that the mobile terminal 2 is connected to the audio output device 21 (# 681 in FIG. 9). When it is determined that the information indicating the connection is included (No in # 682), the voice represented by the voice data is converted into the character by the known voice recognition technique to thereby obtain the text data. 65 is generated (# 683).

テレビ会議の音声を、そのまま携帯端末2に備え付けのスピーカから再生すると、会議の内容が第三者に知られるおそれがある。そのため、テキストデータ65を生成する。   If the audio of the video conference is reproduced as it is from the speaker provided in the mobile terminal 2, the content of the conference may be known to a third party. Therefore, the text data 65 is generated.

範囲設定部107は、さらに、携帯端末2のタッチパネルディスプレイ20eのサイズが、所定のサイズ以下であるか否かを判別する(#684)。所定のサイズは、例えば、表示機器12の表示面の2分の1のサイズである。所定のサイズ以下であると判別した場合は(#685でYes)、表示範囲情報6Bを設定する(#686)。   The range setting unit 107 further determines whether or not the size of the touch panel display 20e of the mobile terminal 2 is equal to or smaller than a predetermined size (# 684). The predetermined size is, for example, half the size of the display surface of the display device 12. When it is determined that the size is equal to or smaller than the predetermined size (Yes in # 685), the display range information 6B is set (# 686).

表示範囲情報6Bとは、表示機器12の表示面に表示される映像のうち、どの部分をタッチパネルディスプレイ20eに表示させるのかを示す情報である。   The display range information 6B is information indicating which part of the image displayed on the display surface of the display device 12 is to be displayed on the touch panel display 20e.

範囲設定部107は、表示機器12の表示面の所定の一部分に表示される映像を、タッチパネルディスプレイ20eで表示するように設定する。所定の一部分は、例えば、表示機器12の表示面の2分の1のサイズを有しかつその中心が表示面の中心と一致する矩形の領域である。   The range setting unit 107 sets the video displayed on a predetermined part of the display surface of the display device 12 to be displayed on the touch panel display 20e. The predetermined portion is, for example, a rectangular area having a size of half the display surface of the display device 12 and the center of which coincides with the center of the display surface.

タッチパネルディスプレイ20eは、表示機器12の表示面よりも小さい。そのため、表示機器12の表示面に表示されている映像すべてをタッチパネルディスプレイ20eに表示した場合、小さな文字などがつぶれてしまうおそれがある。そのため、表示範囲情報6Bを設定する。   The touch panel display 20e is smaller than the display surface of the display device 12. Therefore, when all the images displayed on the display surface of the display device 12 are displayed on the touch panel display 20e, small characters may be crushed. Therefore, the display range information 6B is set.

図10は、表示機器12の表示面およびタッチパネルディスプレイ20eで表示される映像の例を示す図である。   FIG. 10 is a diagram showing an example of an image displayed on the display surface of the display device 12 and the touch panel display 20e.

表示機器12の表示面には、会議中、資料データに示される図表または会議室の状況を表わす映像7Bが表示されている。さらに、退出者がいる場合は、表示範囲情報6Bによって設定された範囲を示す枠7Aが、映像7Bに重畳するように表示されている。   On the display surface of the display device 12, an image 7B showing the state of the chart or the conference room shown in the material data during the conference is displayed. Further, when there is a person leaving, a frame 7A indicating the range set by the display range information 6B is displayed so as to be superimposed on the image 7B.

この枠7Aで示される範囲内の映像は、タッチパネルディスプレイ20eに表示される映像7Cと同じである。   The image within the range shown by the frame 7A is the same as the image 7C displayed on the touch panel display 20e.

図6に戻って、拠点装置1Aにおいて、会議データ生成部102は、上述と同様に、撮影機器13から随時取得される映像のデータを圧縮映像データ61に変換し、集音器15から随時取得される音声のデータを圧縮音声データ63に変換する(#607)。   Returning to FIG. 6, in the base device 1A, the conference data generation unit 102 converts the video data, which is acquired from the photographing device 13 at any time, into the compressed video data 61, and acquires it from the sound collector 15 at any time, as described above. The audio data to be converted is converted into the compressed audio data 63 (# 607).

端末用データ送信部108は、携帯端末2へ圧縮映像データ61および圧縮映像データ62を送信し、テキストデータ65が生成された場合はこれを送信し、生成されていない場合は圧縮音声データ63および圧縮音声データ64を送信する(#608)。さらに、ステップ#686で表示範囲情報6Bが設定された場合は、これも送信する。   The terminal data transmission unit 108 transmits the compressed video data 61 and the compressed video data 62 to the mobile terminal 2, transmits the text data 65 if it is generated, and the compressed audio data 63 if it is not generated. The compressed audio data 64 is transmitted (# 608). Furthermore, if the display range information 6B is set in step # 686, this is also transmitted.

携帯端末2において、会議データ受信部204は、拠点装置1Aから圧縮映像データ61および圧縮映像データ62を受信し、圧縮音声データ63、圧縮音声データ64、テキストデータ65、または表示範囲情報6Bを受信する(図8の#653)。   In the mobile terminal 2, the conference data receiving unit 204 receives the compressed video data 61 and the compressed video data 62 from the base device 1A, and receives the compressed audio data 63, the compressed audio data 64, the text data 65, or the display range information 6B. (# 653 in FIG. 8).

コンテンツ端末出力処理部205は、圧縮映像データ61および圧縮映像データ62を復号し、圧縮音声データ63および圧縮音声データ64を受信した場合は、それらも復号する(#654)。そして、映像または音声を出力するための処理を次のように行う(#655)。   The content terminal output processing unit 205 decodes the compressed video data 61 and the compressed video data 62, and when receiving the compressed audio data 63 and the compressed audio data 64, also decodes them (# 654). Then, the process for outputting video or audio is performed as follows (# 655).

表示範囲情報6Bが受信されなかった場合は、コンテンツ端末出力処理部205は、復号した圧縮映像データ61および圧縮映像データ62を映像のデータとしてタッチパネルディスプレイ20eへ出力する。すると、表示機器12の表示面に表示される映像と同一の映像が、タッチパネルディスプレイ20eによって表示される。   When the display range information 6B is not received, the content terminal output processing unit 205 outputs the decoded compressed video data 61 and the compressed video data 62 as video data to the touch panel display 20e. Then, the same image as the image displayed on the display surface of the display device 12 is displayed on the touch panel display 20e.

表示範囲情報6Bが受信された場合は、コンテンツ端末出力処理部205は、圧縮映像データ61および圧縮映像データ62を復号した映像のデータによって再現される映像のうち、表示範囲情報6Bに示される範囲の映像のみの映像のデータをタッチパネルディスプレイ20eへ出力する。すると、この範囲の映像が、タッチパネルディスプレイ20eによって表示される。   When the display range information 6B is received, the content terminal output processing unit 205 causes the range represented by the display range information 6B among the images reproduced by the data of the video obtained by decoding the compressed video data 61 and the compressed video data 62. The video data of only the video is output to the touch panel display 20e. Then, the image in this range is displayed on the touch panel display 20e.

さらに、コンテンツ端末出力処理部205は、圧縮音声データ63および圧縮音声データ64を復号した場合は、これらのデータに基づいて音声を音声出力機器21に再生させる。テキストデータ65を受信した場合は、テキストデータ65に示される文字をタッチパネルディスプレイ20eに表示させる。   Furthermore, when the content terminal output processing unit 205 decodes the compressed audio data 63 and the compressed audio data 64, the audio output device 21 reproduces audio based on these data. When the text data 65 is received, the characters shown in the text data 65 are displayed on the touch panel display 20e.

退出者は、会議室にいなくても、携帯端末2を使用して発言することができる。携帯端末2にマイクなどの集音器22が接続されている場合は、集音器22に向かって発声すればよい。接続されていない場合は、発言の内容を文字としてタッチパネルディスプレイ20eに入力すればよい。   The leaving person can speak using the mobile terminal 2 without being in the conference room. When the sound collector 22 such as a microphone is connected to the mobile terminal 2, it suffices to speak into the sound collector 22. If not connected, the content of the speech may be input as characters on the touch panel display 20e.

携帯端末2において、発言データ生成部206は、端末情報記憶部202に記憶されている仕様情報6A2に、携帯端末2が集音器22を接続している旨を示す情報が含まれているか判別する(図8の#656)。接続している旨を示す情報が含まれている場合は(#657でYes)、集音器22によって取得された音声のデータを圧縮することによって圧縮音声データ68に変換する(#658)。含まれていない場合は(#657でNo)、タッチパネルディスプレイ20eに入力された文字を、テキストデータ66として取得する(#659)。   In the mobile terminal 2, the utterance data generation unit 206 determines whether the specification information 6A2 stored in the terminal information storage unit 202 includes information indicating that the mobile terminal 2 connects the sound collector 22. (# 656 in FIG. 8). If the information indicating the connection is included (Yes in # 657), the audio data acquired by the sound collector 22 is compressed to be converted into the compressed audio data 68 (# 658). When it is not included (No in # 657), the character input to the touch panel display 20e is acquired as the text data 66 (# 659).

なお、退出者が間違って携帯端末2に備え付けのマイクに発言しないように「発言したい場合はソフトキーボードを使用して文字を入力してください」という旨のコメントをタッチパネルディスプレイ20eに表示してもよい。   Even if a comment is displayed on the touch panel display 20e to prevent the evacuee from accidentally speaking into the microphone provided in the mobile terminal 2, "please enter characters using the soft keyboard if you want to speak". Good.

発言データ送信部207は、テキストデータ66または圧縮音声データ68を、拠点装置1Aへ送信する(#660)。   The utterance data transmission unit 207 transmits the text data 66 or the compressed voice data 68 to the base device 1A (# 660).

図6に戻って、拠点装置1Aにおいて、端末用データ受信部109は、携帯端末2からテキストデータ66または圧縮音声データ68を受信する(#609)。   Returning to FIG. 6, in the base apparatus 1A, the terminal data receiving unit 109 receives the text data 66 or the compressed audio data 68 from the mobile terminal 2 (# 609).

コンテンツ拠点出力処理部105は、復号した圧縮音声データ68を音声のデータとして音声出力機器14へ出力し、またはテキストデータ66から公知の音声合成の技術によって音声のデータを生成し、音声出力機器14へ出力する(#610)。これにより、退出者の発言の音声が音声出力機器14によって再生される。   The content base output processing unit 105 outputs the decoded compressed voice data 68 to the voice output device 14 as voice data, or generates voice data from the text data 66 by a known voice synthesis technique, and outputs the voice data. To (# 610). As a result, the voice of the leaving person is reproduced by the voice output device 14.

会議データ生成部102は、生成された音声のデータを圧縮することによって圧縮音声データ67に変換する(#611)。   The conference data generation unit 102 converts the generated voice data into compressed voice data 67 by compressing it (# 611).

拠点用データ送信部103は、圧縮音声データ67または圧縮音声データ68を拠点装置1Bへ送信する(#612)。これにより、退出者の発言が拠点装置1Bへ伝えられる。   The base data transmission unit 103 transmits the compressed audio data 67 or the compressed audio data 68 to the base device 1B (# 612). As a result, the utterance of the leaving person is transmitted to the base device 1B.

その後、退出者は、会議室へ再度入室すると、携帯端末2を拠点装置1AのNFCユニット10fにかざす。   After that, when the leaving person enters the conference room again, the leaving person holds the mobile terminal 2 over the NFC unit 10f of the base apparatus 1A.

すると、携帯端末2の端末情報送信部201は、端末情報記憶部202から端末情報6Aを読み出し、拠点装置1Aに送信する(図8の#661)。   Then, the terminal information transmission unit 201 of the mobile terminal 2 reads the terminal information 6A from the terminal information storage unit 202 and transmits it to the base device 1A (# 661 in FIG. 8).

拠点装置1において、セッション管理部101は、端末情報6Aを受信した場合(図6の#613でYes)、すなわち退出者が会議室へ再度入室したことを判別すると、受信した端末情報6Aの仕様情報6A2から特定できる携帯端末2と拠点装置1Aとの間でセッションが確立されているか確認し、確立されている場合は(#604でYes)、このセッションを終了させる(#614)。それに応じて、セッション管理部203も、このセッションを終了させる(図8の#662)。   In the base device 1, when the session management unit 101 receives the terminal information 6A (Yes in # 613 of FIG. 6), that is, when it is determined that the leaving person re-enters the conference room, the specification of the received terminal information 6A. It is confirmed whether a session has been established between the mobile terminal 2 and the base device 1A that can be identified from the information 6A2. If the session has been established (Yes in # 604), this session is ended (# 614). In response, the session management unit 203 also ends this session (# 662 in FIG. 8).

その後、拠点装置1Aまたは拠点装置1Bいずれかからセッションの終了が要求されるまで(図6の#615でNo)、拠点装置1A、拠点装置1B、および携帯端末2は、ステップ#602〜#615、およびステップ#651〜#662の各処理を適宜、行う。   After that, the base device 1A, the base device 1B, and the mobile terminal 2 perform steps # 602 to # 615 until the end of the session is requested from either the base device 1A or the base device 1B (No in # 615 of FIG. 6). , And each processing of steps # 651 to # 662 are appropriately performed.

なお、表示範囲情報6Bの内容は、会議室にいる参加者が拠点装置1を操作することによって書き換えられる。拠点装置1Aは、最新の表示範囲情報6Bを携帯端末2へ送信する。携帯端末2は、最新の表示範囲情報6Bに基づいて映像を表示する。   The contents of the display range information 6B are rewritten by the participants in the conference room operating the base device 1. The base device 1A transmits the latest display range information 6B to the mobile terminal 2. The mobile terminal 2 displays an image based on the latest display range information 6B.

または、退出者が携帯端末2を操作することによって、拠点装置1から受信した表示範囲情報6Bを書き換えることもできる。この場合は、携帯端末2は、書き換えた後の表示範囲情報6Bに基づいて映像を表示する。また、携帯端末2は、書き換えた後の表示範囲情報6Bを拠点装置1へ送信する。拠点装置1は、携帯端末2から受信した表示範囲情報6Bに基づいて、枠7Aを表示する。   Alternatively, the leaving person can rewrite the display range information 6B received from the base device 1 by operating the mobile terminal 2. In this case, the mobile terminal 2 displays an image based on the rewritten display range information 6B. Further, the mobile terminal 2 transmits the rewritten display range information 6B to the base device 1. The base device 1 displays the frame 7A based on the display range information 6B received from the mobile terminal 2.

〔テレビ会議システムの処理の第2の例〕
図11は、拠点装置1Aの機能的構成の第2の例を示す図である。図12は、携帯端末2の機能的構成の第2の例を示す図である。図13は、拠点装置1Aにおけるテレビ会議の処理の流れの第2の例を示すフローチャートである。図14は、携帯端末2におけるテレビ会議の処理の流れの第2の例を示すフローチャートである。
[Second example of processing of video conference system]
FIG. 11 is a diagram showing a second example of the functional configuration of the base device 1A. FIG. 12 is a diagram showing a second example of the functional configuration of the mobile terminal 2. FIG. 13 is a flowchart showing a second example of the flow of processing of a video conference in the base device 1A. FIG. 14 is a flowchart showing a second example of the flow of processing of the video conference in the mobile terminal 2.

退出者は、急な来客などの事情により、退出後すぐに携帯端末2を使用してテレビ会議に参加できない場合がある。   The exiting person may not be able to participate in the video conference using the mobile terminal 2 immediately after leaving because of a sudden visitor or the like.

しかし、第1の例では、携帯端末2が拠点装置1AのNFCユニット10fにかざされると、拠点装置1Aと携帯端末2とのセッションが無条件で確立され、映像などが配信された。   However, in the first example, when the mobile terminal 2 is held over the NFC unit 10f of the base device 1A, the session between the base device 1A and the mobile terminal 2 is unconditionally established, and the video and the like are distributed.

第2の例では、携帯端末2が拠点装置1AのNFCユニット10fにかざされた後に退出者が所定の動作を行うことによって、セッションが確立され、映像などが配信される。以下、第2の例について説明する。上述の第1の例と重複する点は、説明を省略する。   In the second example, a session is established and a video or the like is delivered by the exiter performing a predetermined operation after the mobile terminal 2 is held over the NFC unit 10f of the base apparatus 1A. The second example will be described below. Descriptions of points that are the same as those of the first example will be omitted.

会議管理プログラム12Pによると、図11に示すセッション管理部121ないし装置情報記憶部131の機能が拠点装置1に実現される。   According to the conference management program 12P, the function of the session management unit 121 or the device information storage unit 131 shown in FIG.

会議参加プログラム22Pによると、図12に示す端末情報送信部221ないし動作検知部228の機能が、携帯端末2に実現される。   According to the conference participation program 22P, the functions of the terminal information transmission unit 221 and the motion detection unit 228 shown in FIG. 12 are realized in the mobile terminal 2.

セッション管理部11ないし装置情報記憶部131は、図13に示す手順で処理を実行する。   The session management unit 11 to the device information storage unit 131 execute processing in the procedure shown in FIG.

端末情報送信部221ないし動作検知部228の機能は、図14に示す手順で処理を実行する。   The functions of the terminal information transmission unit 221 and the operation detection unit 228 execute processing in the procedure shown in FIG.

拠点装置1Aおよび拠点装置1Bは、図6のステップ#601および#602と同様の処理を行うことによって、両装置間のセッションを確立し、互いの拠点の映像および音声のやり取りを行う(図13の#701および#702)。   The base device 1A and the base device 1B perform the same processing as steps # 601 and # 602 of FIG. 6 to establish a session between the two devices and exchange video and audio of the bases (FIG. 13). # 701 and # 702).

退出者は、第1の例の場合と同様に、会議の途中で退出する際に、携帯端末2を拠点装置1AのNFCユニット10fにかざす。   As in the case of the first example, the leaving person holds the mobile terminal 2 over the NFC unit 10f of the base apparatus 1A when leaving the middle of the conference.

すると、携帯端末2において、端末情報送信部221は、端末情報6Aを端末情報記憶部222から読み出し、拠点装置1へ送信する(図14の#751)。   Then, in the mobile terminal 2, the terminal information transmission unit 221 reads the terminal information 6A from the terminal information storage unit 222 and transmits it to the base device 1 (# 751 in FIG. 14).

拠点装置1において、装置情報送信部130は、携帯端末2から端末情報6Aを受信すると(図13の#703でYes)、接続情報6C1を含む装置情報6Cを装置情報記憶部131から読み出し、携帯端末2に送信する(#704)。   In the base device 1, when the device information transmission unit 130 receives the terminal information 6A from the mobile terminal 2 (Yes in # 703 of FIG. 13), the device information transmission unit 130 reads the device information 6C including the connection information 6C1 from the device information storage unit 131, It is transmitted to the terminal 2 (# 704).

接続情報6C1は、拠点装置1自身のユーザアカウントに関する情報である。上述の例に従うと、接続情報6C1には、ユーザアカウントのユーザIDが示される。   The connection information 6C1 is information regarding the user account of the base device 1 itself. According to the above example, the connection information 6C1 indicates the user ID of the user account.

携帯端末2は、拠点装置1Aから装置情報6Cを受信し、フラッシュメモリ20dの所定の記憶領域によって記憶する(図14の#752)。   The mobile terminal 2 receives the device information 6C from the base device 1A and stores the device information 6C in a predetermined storage area of the flash memory 20d (# 752 in FIG. 14).

携帯端末2の動作検知部228が、退出者が携帯端末2を持ちながら所定の行動をしたことを検知すると(#753でYes)、つまり携帯端末2の姿勢または動きなどが所定の状態になったことを検知すると、セッション管理部223は、接続情報6C1を使用して携帯端末2とのセッションの確立を要求する(#754)。所定の行動は、例えば、携帯端末2を耳に当てる行動、または、携帯端末2を左右に振る行動などである。これらの行動は、携帯端末2の加速度センサ20iによって検出される傾きまたは動きに基づいて検知することができる。   When the motion detection unit 228 of the mobile terminal 2 detects that the exiting person has performed a predetermined action while holding the mobile terminal 2 (Yes in # 753), that is, the posture or movement of the mobile terminal 2 is in a predetermined state. Upon detecting the fact, the session management unit 223 requests the establishment of a session with the mobile terminal 2 using the connection information 6C1 (# 754). The predetermined action is, for example, an action of putting the portable terminal 2 on the ear, an action of swinging the portable terminal 2 to the left or right, or the like. These actions can be detected based on the tilt or movement detected by the acceleration sensor 20i of the mobile terminal 2.

拠点装置1Aにおいて、セッション管理部121は、携帯端末2からの要求があると(図13の#705でYes)に応じて、携帯端末2とのセッションを確立する(#706)。   In the base device 1A, the session management unit 121 establishes a session with the mobile terminal 2 in response to a request from the mobile terminal 2 (Yes in # 705 of FIG. 13) (# 706).

その後、拠点装置1Aおよび携帯端末2は、図6のステップ#606〜#612、および図8のステップ#653〜#661と同様の処理を行う(図13の#707〜#713、図14の#755〜#763)。   After that, the base device 1A and the mobile terminal 2 perform the same processes as steps # 606 to # 612 in FIG. 6 and steps # 653 to # 661 in FIG. 8 (# 707 to # 713 in FIG. 13 and FIG. 14). # 755- # 763).

図13に戻って、拠点装置1Aにおいて、セッション管理部121は、携帯端末2とのセッションが確立されている状態で端末情報6Aを受信した場合(#714でYes)、受信した端末情報6Aの仕様情報6A2から特定できる携帯端末2とのセッションを終了させる(図13の#715)。それに応じて、携帯端末2のセッション管理部223も、このセッションを終了させる(図14の#764)。   Returning to FIG. 13, in the base apparatus 1A, when the session management unit 121 receives the terminal information 6A while the session with the mobile terminal 2 is established (Yes in # 714), the session information of the received terminal information 6A The session with the mobile terminal 2 that can be specified from the specification information 6A2 is ended (# 715 in FIG. 13). In response to this, the session management unit 223 of the mobile terminal 2 also ends this session (# 764 in FIG. 14).

その後、拠点装置1Aまたは拠点装置1Bいずれかからセッションの終了が要求されるまで(図13の#716でNo)、拠点装置1A、拠点装置1B、および携帯端末2は、ステップ#702〜#716、およびステップ#751〜764の各処理を適宜、行う。   After that, until either the base device 1A or the base device 1B requests the end of the session (No in # 716 of FIG. 13), the base device 1A, the base device 1B, and the mobile terminal 2 perform steps # 702 to # 716. , And each processing of steps # 751 to 764 are performed appropriately.

〔テレビ会議システムの処理の第3の例〕
図15は、拠点装置1Aの機能的構成の第3の例を示す図である。図16は、拠点装置1Aにおけるテレビ会議の処理の第3の流れの例を示すフローチャートである。図17は、退出者特定処理の流れの例を示す図である。
[Third example of processing of video conference system]
FIG. 15 is a diagram showing a third example of the functional configuration of the base device 1A. FIG. 16 is a flowchart showing an example of a third flow of processing of a video conference in the base device 1A. FIG. 17 is a diagram showing an example of the flow of the leaving person identification processing.

退出者は、急ぎの用事などの事情により、拠点装置1に携帯端末2をかざすことを失念して退出してしまう場合がある。第3の例では、携帯端末2を拠点装置1にかざすことなく、拠点装置1と携帯端末2とを接続する。以下、この仕組みについて説明する。なお、上述の第1の例と重複する点は、説明を省略する。   The leaving person may forget to hold the mobile terminal 2 over the base apparatus 1 and leave the office due to urgent business or the like. In the third example, the base device 1 and the mobile terminal 2 are connected without holding the mobile terminal 2 over the base device 1. Hereinafter, this mechanism will be described. Note that description of points that are the same as those of the above-described first example will be omitted.

会議管理プログラム13Pによると、図15に示すセッション管理部141ないしユーザ特定部154の機能が拠点装置1に実現される。   According to the conference management program 13P, the function of the session management unit 141 or the user identification unit 154 shown in FIG.

セッション管理部141ないしユーザ特定部154は、図16および図17に示す手順で処理を実行する。   The session management unit 141 to the user identification unit 154 execute processing in the procedure shown in FIGS. 16 and 17.

会議が始まる前に予め、管理者は、入力機器16を使用して、会議に参加する参加者ごとの端末情報6Aおよびユーザ情報6Dを拠点装置1へ入力する。   Before the conference starts, the administrator uses the input device 16 to input the terminal information 6A and the user information 6D for each participant participating in the conference to the base device 1.

ユーザ情報6Dは、参加者を識別するための情報であって、参加者の顔画像から認識された目、鼻または口などの器官の形状または位置などを数値化した情報である。   The user information 6D is information for identifying a participant, and is information that digitizes the shape or position of an organ such as an eye, a nose, or a mouth recognized from the face image of the participant.

拠点装置1の登録部150は、入力された端末情報6Aを端末情報記憶部151に記憶し、入力されたユーザ情報6Dをユーザ情報記憶部152に記憶する(図16の#801)。以下、ユーザ情報記憶部152に記憶されるユーザ情報6Dを「ユーザ情報6D0」と記載する。同じ参加者の端末情報6Aとユーザ情報6D0とは、対応付けられている。   The registration unit 150 of the base apparatus 1 stores the input terminal information 6A in the terminal information storage unit 151 and stores the input user information 6D in the user information storage unit 152 (# 801 in FIG. 16). Hereinafter, the user information 6D stored in the user information storage unit 152 will be referred to as “user information 6D0”. The terminal information 6A and the user information 6D0 of the same participant are associated with each other.

その後、拠点装置1Aおよび拠点装置1Bは、図6のステップ#601および#602と同様の処理を行う(#802および#803)。   After that, the base device 1A and the base device 1B perform the same processing as steps # 601 and # 602 of FIG. 6 (# 802 and # 803).

拠点装置1Aのユーザ監視部153およびユーザ特定部154は、退出者を特定する処理を、以下のように行う(#804)。   The user monitoring unit 153 and the user identification unit 154 of the base apparatus 1A perform the process of identifying the exiter as follows (# 804).

ユーザ監視部153は、所定の時間の間隔で、撮影機器13から随時取得された映像のデータから顔画像を識別する(図17の#831)。そして、顔画像に対応するユーザ情報6Dを抽出する(#832)。その結果、参加者それぞれのユーザ情報6Dが抽出される。   The user monitoring unit 153 identifies the face image from the video data acquired from the image capturing device 13 at predetermined time intervals (# 831 in FIG. 17). Then, the user information 6D corresponding to the face image is extracted (# 832). As a result, the user information 6D of each participant is extracted.

なお、撮影機器13が資料の映像の表示面を撮影している場合は、顔画像を撮影することができない。そこで、参加者を撮影するための撮影機器を設置しておき、この撮影機器によって撮影される映像に基づいて顔画像を識別してもよい。   It should be noted that when the photographing device 13 is photographing the display surface of the image of the material, the face image cannot be photographed. Therefore, a photographing device for photographing the participant may be installed and the face image may be identified based on the image photographed by the photographing device.

ユーザ特定部154は、退出者を例えば次のように特定する(#833)。最近の時刻の映像のデータに基づいて抽出された、各人物のユーザ情報6D(以下、「ユーザ情報6D1」と記載する。)と、ユーザ情報記憶部152に記憶されている各ユーザ情報6D0とを比較することによって、この映像に映っている参加者を特定する。   The user identifying unit 154 identifies the leaving person, for example, as follows (# 833). User information 6D of each person (hereinafter referred to as "user information 6D1") extracted based on the video data of the latest time, and each user information 6D0 stored in the user information storage unit 152. The participants shown in this video are identified by comparing.

さらに、その時刻より所定時間早い時刻(例えば、5分前)の映像のデータに基づいて抽出された、各人物のユーザ情報6D(以下、「ユーザ情報6D2」と記載する。)と、ユーザ情報記憶部152に記憶されている各ユーザ情報6D0とを比較することによって、この映像に映っている参加者を特定する。   Furthermore, the user information 6D of each person (hereinafter referred to as "user information 6D2") extracted based on the image data at a time earlier than that time by a predetermined time (for example, 5 minutes before), and the user information. By comparing each user information 6D0 stored in the storage unit 152, the participant shown in this video is specified.

そして、ユーザ情報6D2から特定されたがユーザ情報6D1からは特定されなかった参加者を、退出者として特定する。   Then, the participant identified from the user information 6D2 but not identified from the user information 6D1 is identified as a leaving person.

退出者を特定することができた場合は(#834でYes)、その退出者のユーザ情報6D0に対応付けられている端末情報6Aを特定する(#835)。   If the leaving person can be specified (Yes in # 834), the terminal information 6A associated with the user information 6D0 of the leaving person is specified (# 835).

セッション管理部141は、端末情報6Aが特定された場合は(図16の#805でYes)、その端末情報6Aの接続情報6A1を使用して、携帯端末2とのセッションの確立を携帯端末2へ要求する(#806)。   If the terminal information 6A is specified (Yes in # 805 of FIG. 16), the session management unit 141 uses the connection information 6A1 of the terminal information 6A to establish a session with the mobile terminal 2 (# 806).

その後、拠点装置1A、拠点装置1B、および携帯端末2は、図13のステップ#707〜ステップ#716と同様の処理を適時行い(図16の#807〜#816)、図8のステップ#652〜#662の各処理を適時行う。   After that, the base device 1A, the base device 1B, and the mobile terminal 2 timely perform the same processing as steps # 707 to # 716 of FIG. 13 (# 807 to # 816 of FIG. 16), and step # 652 of FIG. Each process of # 662 to # 662 is performed at appropriate times.

本発明によると、会議の途中で退出した参加者へ従来よりも効率的に会議の状況を示す映像のデータおよび音声のデータを与えることができる。   According to the present invention, it is possible to give video data and audio data showing the status of a conference to a participant who has left during the conference more efficiently than before.

上述の実施形態では、携帯端末2のタッチパネルディスプレイ20eのサイズに基づいて、表示範囲情報6Bが設定された。しかし、タッチパネルディスプレイ20eの解像度に基づいて、表示範囲情報6Bを設定してもよい。例えば、所定のサイズを、2分の1に固定するのではなく、タッチパネルディスプレイ20eの解像度が高いほどサイズが大きくなるようにしてもよい。   In the above-described embodiment, the display range information 6B is set based on the size of the touch panel display 20e of the mobile terminal 2. However, the display range information 6B may be set based on the resolution of the touch panel display 20e. For example, instead of fixing the predetermined size to one half, the size may increase as the resolution of the touch panel display 20e increases.

上述の実施形態では、携帯端末2を、セッションを確立した拠点装置1のNFCユニット10fにかざすことで、セッションを終了させた。しかし、携帯端末2を、セッションを確立した拠点装置1とは異なる他の拠点装置1のNFCユニット10fにかざすことで、セッションを終了させてもよい。この場合、他の拠点装置1は、携帯端末2から端末情報6Aを受信し、受信した端末情報6Aを、セッションを確立した拠点装置1に送信する。セッションを確立した拠点装置1は、端末情報6Aを受信した時にセッションを終了させる。   In the above-described embodiment, the session is ended by holding the mobile terminal 2 over the NFC unit 10f of the base device 1 that has established the session. However, the session may be ended by holding the mobile terminal 2 over the NFC unit 10f of another base device 1 different from the base device 1 that established the session. In this case, the other base device 1 receives the terminal information 6A from the mobile terminal 2 and transmits the received terminal information 6A to the base device 1 that has established the session. The base device 1 that has established the session ends the session when it receives the terminal information 6A.

上述の実施形態では、拠点装置1Aは、映像のデータをそのまま圧縮映像データ61および圧縮映像データ62に変換して、携帯端末2へ送信した。しかし、映像のデータの一部を、表示範囲情報6Bの設定する範囲に従ってトリミングし、これを圧縮映像データ61および圧縮映像データ62に変換して、携帯端末2へ送信してもよい。   In the above-described embodiment, the base apparatus 1A converts the video data as it is into the compressed video data 61 and the compressed video data 62, and transmits the compressed video data 61 and the compressed video data 62 to the mobile terminal 2. However, a part of the video data may be trimmed according to the range set by the display range information 6B, converted into the compressed video data 61 and the compressed video data 62, and transmitted to the mobile terminal 2.

上述の実施形態において、さらにテレビ会議に使用する資料データを、拠点装置1Aと拠点装置1Bとの間で送受信し、拠点装置1Aから携帯端末2へ送信してもよい。   In the above-described embodiment, the material data used for the video conference may be further transmitted and received between the base device 1A and the base device 1B, and may be transmitted from the base device 1A to the mobile terminal 2.

上述の実施形態以外の、拠点装置1Aと携帯端末2との間のセッションを確立する例として、拠点装置1Aと携帯端末2との間でBluetooth(登録商標)によって通信を会議中、常に行い、通信ができなくなった携帯端末2に対して、セッションの確立を拠点装置1Aが要求してもよい。   As an example of establishing a session between the base device 1A and the mobile terminal 2 other than the above-described embodiment, communication is constantly performed between the base device 1A and the mobile terminal 2 by Bluetooth (registered trademark) during a conference, The base device 1A may request the establishment of a session to the mobile terminal 2 that cannot communicate.

または、拠点装置1Aが、携帯端末2から発信されるビーコンを会議中、定期的に検知し、ビーコンを検知できなくなった携帯端末2に対して、セッションの確立を拠点装置1Aが要求してもよい。   Alternatively, even if the base device 1A periodically detects a beacon transmitted from the mobile terminal 2 during a conference and the base device 1A requests the mobile terminal 2 that cannot detect the beacon to establish a session, Good.

第1の例では、端末情報6Aは、退出者が携帯端末2を拠点装置1のNFCユニット10fにかざした時に拠点装置1へ送信されたが、事前に送信されてもよい。例えば、会議が開催される前に、携帯端末2から拠点装置1に送信されてもよい。   In the first example, the terminal information 6A is transmitted to the base device 1 when the exiter holds the mobile terminal 2 over the NFC unit 10f of the base device 1, but may be transmitted in advance. For example, it may be transmitted from the mobile terminal 2 to the base device 1 before the conference is held.

第2の例では、携帯端末2が、携帯端末2の姿勢または動きなどが所定の状態になったことを検知してセッションの確立を要求した。しかし、参加者が携帯端末2のボタンをタッチすることで、携帯端末2がセッションの確立を要求してもよい。または、携帯端末2が、検知した姿勢または動きなどの情報を常に拠点装置1Aへ送信し、拠点装置1が、携帯端末2の状態が所定の姿勢または動きになったことを受信した情報から判断して、セッションの確立を要求してもよい。   In the second example, the mobile terminal 2 detects that the posture or movement of the mobile terminal 2 is in a predetermined state and requests establishment of a session. However, the mobile terminal 2 may request the establishment of the session by the participant touching the button of the mobile terminal 2. Alternatively, the mobile terminal 2 always transmits information such as the detected posture or movement to the base apparatus 1A, and the base apparatus 1 determines from the information that the mobile terminal 2 has received a predetermined posture or movement. Then, the establishment of a session may be requested.

第3の例では、認識した顔画像から端末情報6Aを特定したが、予め会議室の座席と端末情報6Aとを関連付け、映像のデータから人物の存在を認識できなくなった座席を選出し、その座席に関連付けられた端末情報6Aを特定してもよい。   In the third example, the terminal information 6A is specified from the recognized face image, but the seat in the conference room and the terminal information 6A are associated in advance, and the seat in which the presence of a person cannot be recognized is selected from the video data. The terminal information 6A associated with the seat may be specified.

第3の例において、拠点装置1Aと携帯端末2とのセッションが確立している状態で、ユーザ情報6D1から特定されたがユーザ情報6D2からは特定されなかった参加者がいる場合に、すなわち退出者が会議室へ再度入室したことを判別した場合に、セッションを終了させてもよい。   In the third example, in the state where the session between the base device 1A and the mobile terminal 2 is established, when there is a participant who is specified from the user information 6D1 but not from the user information 6D2, that is, exits. The session may be terminated when it is determined that the person has re-entered the conference room.

その他、テレビ会議システム100、拠点装置1および携帯端末2の全体または各部の構成、処理の内容、処理の順序、データの構成などは、本発明の趣旨に沿って適宜変更することができる。   In addition, the configuration of all or each part of the video conference system 100, the base device 1, and the mobile terminal 2, the content of the process, the order of the process, the configuration of the data, and the like can be appropriately changed in accordance with the spirit of the present invention.

1、1A、1B 拠点装置(会議用装置)
101 セッション管理部(退出者検知手段)
108 端末用データ送信部(送信手段)
2 携帯端末(端末装置)
20e タッチパネルディスプレイ(ディスプレイ)
6A1 接続情報(識別子)
6B 表示範囲情報(位置情報)
61 圧縮映像データ(映像)
62 圧縮映像データ(映像)
63 圧縮音声データ(音声)
64 圧縮音声データ(音声)
65 テキストデータ(テキスト)
66 テキストデータ(第2のテキスト)
68 圧縮音声データ(第2の音声)
1, 1A, 1B base device (conference device)
101 session management unit (exiter detection means)
108 terminal data transmission unit (transmission means)
2 Mobile terminals (terminal devices)
20e Touch panel display (display)
6A1 connection information (identifier)
6B Display range information (position information)
61 Compressed video data (video)
62 Compressed video data (video)
63 Compressed audio data (audio)
64 compressed audio data (audio)
65 Text data (text)
66 text data (second text)
68 Compressed audio data (second audio)

Claims (8)

複数の参加者が所定の場所に集まって行われる会議において用いられる会議用装置であって、
前記複数の参加者のうちの、前記所定の場所から退出しようとしているまたは退出した参加者である退出者を検知する、退出者検知手段と、
前記退出者検知手段によって前記退出者が検知された後、さらに、当該退出者が端末装置を当該退出者の耳に当てる行動が検知された場合に、該端末装置へ前記会議の画像または音声を送信する、送信手段と、
を有することを特徴とする会議用装置。
A conference device used in a conference in which a plurality of participants gather in a predetermined place,
Of the plurality of participants, an exiter detection means for detecting an exiter who is a participant who is about to leave or has exited from the predetermined place, and
After the exit person is detected by the exit-person detection means, further, if the action to which the exiting person shed terminal device to the ear of the exiting person is detected, the meeting of the image or to those terminal device Transmitting means for transmitting voice,
A conference apparatus comprising:
前記送信手段は、前記端末装置のディスプレイの表示面のサイズが所定のサイズ以下である場合は、前記画像の一部分が当該ディスプレイに表示されるように前記画像を送信する、
請求項1に記載の会議用装置。
When the size of the display surface of the display of the terminal device is equal to or smaller than a predetermined size, the transmitting unit transmits the image so that a part of the image is displayed on the display,
The apparatus for conference according to claim 1 .
前記送信手段は、前記画像のうちの前記一部分のみを送信する、
請求項に記載の会議用装置。
The transmitting means transmits only the portion of the image,
The apparatus for conference according to claim 2 .
前記送信手段は、前記画像とともに、前記一部分の位置を示す位置情報を送信する、
請求項に記載の会議用装置。
The transmitting means transmits, together with the image, position information indicating the position of the part,
The conference apparatus according to claim 3 .
前記送信手段は、前記音声の代わりに、当該音声が表わす言葉を示すテキストを送信する、
請求項1ないし請求項のいずれか記載の会議用装置。
The transmitting means transmits, instead of the voice, text indicating a word represented by the voice,
The conference apparatus according to any one of claims 1 to 4 .
前記端末装置から受信した第2のテキストが表わす言葉を第2の音声によって出力する、
請求項1ないし請求項のいずれかに記載の会議用装置。
Outputting a word represented by the second text received from the terminal device by a second voice,
The conference apparatus according to any one of claims 1 to 5 .
複数の参加者が所定の場所に集まって行われている会議の画像または音声を送信する送信方法であって、
複数の参加者のうちの、前記所定の場所から退出しようとしているまたは退出した参加者である退出者を検知する退出者検知ステップと、
前記退出者検知ステップによって前記退出者が検知された後、さらに、当該退出者が端末装置を当該退出者の耳に当てる行動が検知された場合に、該端末装置へ前記会議の画像または音声を送信する、送信ステップと、
を有することを特徴とする送信方法。
A transmission method for transmitting an image or audio of a conference held by a plurality of participants at a predetermined place,
Of a plurality of participants, an exiter detection step of detecting an exiter who is a participant who is about to leave or has left the predetermined location,
After the exit person is detected by the exit-person detection step, further, when the action which the exiting person shed terminal device to the ear of the exiting person is detected, the meeting of the image or to those terminal device Transmitting a voice, a transmitting step,
A transmission method comprising:
複数の参加者が所定の場所に集まって行われる会議において使用されるコンピュータに用いられるコンピュータプログラムであって、
前記コンピュータに、
前記複数の参加者のうちの、前記所定の場所から退出しようとしているまたは退出した参加者である退出者を検知する、退出者検知処理を実行させ、
前記退出者検知処理によって前記退出者が検知された後、さらに、当該退出者が端末装置を当該退出者の耳に当てる行動が検知された場合に、該端末装置へ前記会議の画像または音声を送信する送信処理を実行させる、
を実行させることを特徴とするコンピュータプログラム。
A computer program used for a computer used in a conference held by a plurality of participants in a predetermined place,
On the computer,
Of the plurality of participants, detects an exiting person who is a participant who is about to leave or has exited from the predetermined place, and executes an exiting person detection process,
After the exit's by the exit person detecting processing is detected, further, if the action to which the exiting person shed terminal device to the ear of the exiting person is detected, the meeting of the image or to those terminal device Execute the transmission process to transmit the voice,
A computer program characterized by causing the computer to execute.
JP2016061127A 2016-03-25 2016-03-25 Conference apparatus, transmission method, and computer program Active JP6680031B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016061127A JP6680031B2 (en) 2016-03-25 2016-03-25 Conference apparatus, transmission method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016061127A JP6680031B2 (en) 2016-03-25 2016-03-25 Conference apparatus, transmission method, and computer program

Publications (2)

Publication Number Publication Date
JP2017175490A JP2017175490A (en) 2017-09-28
JP6680031B2 true JP6680031B2 (en) 2020-04-15

Family

ID=59972362

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016061127A Active JP6680031B2 (en) 2016-03-25 2016-03-25 Conference apparatus, transmission method, and computer program

Country Status (1)

Country Link
JP (1) JP6680031B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7218525B2 (en) * 2018-09-25 2023-02-07 富士フイルムビジネスイノベーション株式会社 Information processing device and program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003324773A (en) * 2002-05-08 2003-11-14 Seiko Epson Corp Radio equipment, speech management method for radio equipment, and speech management program
JP2005260348A (en) * 2004-03-09 2005-09-22 Takeshi Saito Communication system, terminal device and communication method
JP2007074532A (en) * 2005-09-08 2007-03-22 Canon Inc Conference system, conference method, conference program and storage means
US20100271456A1 (en) * 2009-04-27 2010-10-28 Future Vision Inc. Conference details recording system
US9043474B2 (en) * 2010-01-20 2015-05-26 Microsoft Technology Licensing, Llc Communication sessions among devices and interfaces with mixed capabilities
US8581958B2 (en) * 2011-04-18 2013-11-12 Hewlett-Packard Development Company, L.P. Methods and systems for establishing video conferences using portable electronic devices
US9100488B2 (en) * 2013-06-14 2015-08-04 Microsoft Technology Licensing, Llc Using physical gestures to initiate call transfers between devices
CN104506550B (en) * 2014-12-30 2019-01-22 宇龙计算机通信科技(深圳)有限公司 A kind of Multi-Party Conference processing method and processing device based on network protocol multi-media sub-system

Also Published As

Publication number Publication date
JP2017175490A (en) 2017-09-28

Similar Documents

Publication Publication Date Title
US10887441B2 (en) Information processing system, wireless terminal, and information processing method
US9591261B2 (en) Video telephone device and video telephone processing method
US20150070458A1 (en) System and method for video call
KR20100061582A (en) Apparatus and method for providing emotion expression service in mobile communication terminal
US20170279898A1 (en) Method for Accessing Virtual Desktop and Mobile Terminal
JP2012085269A (en) Transmission terminal, display data transmission method, program, information provision device and transmission system
US8970651B2 (en) Integrating audio and video conferencing capabilities
CN113329240A (en) Screen projection method and device
US9826556B2 (en) Apparatus and method for data transmission and reception of a mobile terminal
US9094574B2 (en) Information processing apparatus, conference system, and computer program products
US20180367758A1 (en) Communication system, information processing apparatus, communication apparatus, and computer-readable medium
JP2011082694A (en) System and device for communication conference
CN112770078B (en) Video conference terminal fusion method and device and readable storage medium
JP2011055444A (en) Communication device
JP6680031B2 (en) Conference apparatus, transmission method, and computer program
JP2022054192A (en) Remote conference system, server, photography device, audio output method, and program
JP2019117998A (en) Web conference system, control method of web conference system, and program
JP6781318B2 (en) Information processing system and wireless terminal
JP2019117997A (en) Web conference system, control method of web conference system, and program
CN117813814A (en) WEB conference system, terminal device, and WEB conference method
JP6922060B2 (en) Information processing system and wireless terminal
JP7149386B2 (en) Information processing system and wireless terminal
JP2018085623A (en) Communication device, method, and program
JP2010147939A (en) Video communication apparatus, video communication method and video communication system
JP6763277B2 (en) Terminal device, program, communication method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200302

R150 Certificate of patent or registration of utility model

Ref document number: 6680031

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150