JP6179834B1 - Video conferencing equipment - Google Patents
Video conferencing equipment Download PDFInfo
- Publication number
- JP6179834B1 JP6179834B1 JP2016188603A JP2016188603A JP6179834B1 JP 6179834 B1 JP6179834 B1 JP 6179834B1 JP 2016188603 A JP2016188603 A JP 2016188603A JP 2016188603 A JP2016188603 A JP 2016188603A JP 6179834 B1 JP6179834 B1 JP 6179834B1
- Authority
- JP
- Japan
- Prior art keywords
- video
- video data
- base
- data
- audio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Abstract
【課題】テレビ会議装置において、拠点数が多い場合でも、発言拠点からの映像データを視聴者に分かり易く表示すること。【解決手段】通信制御部103は、複数の他拠点の会議端末装置10−2〜24から、各々の映像データおよび音声データを受信する。映像・音声合成部105は、テレビ会議に参加する拠点の数に応じて画面レイアウトを決定し、画面レイアウトに従って、各拠点の映像データを合成した合成映像データを生成する。このとき、映像・音声合成部105は、音声データのレベルが閾値以上の各拠点の映像データの表示を、他の拠点の映像データの表示よりも強調されるように合成映像データを生成する。映像・音声出力制御部106は、合成映像データを、表示装置500の画面に表示させる。【選択図】図1In a video conference apparatus, even when the number of bases is large, video data from a speech base is displayed in an easily understandable manner for a viewer. A communication control unit 103 receives video data and audio data from a plurality of conference terminal devices 10-2 to 24 at other bases. The video / audio synthesizing unit 105 determines a screen layout according to the number of bases participating in the video conference, and generates composite video data by combining the video data of each base according to the screen layout. At this time, the video / audio synthesizing unit 105 generates synthesized video data so that the display of the video data of each site whose audio data level is equal to or higher than the threshold is emphasized as compared with the display of the video data of other sites. The video / audio output control unit 106 displays the composite video data on the screen of the display device 500. [Selection] Figure 1
Description
本発明は、複数の拠点のそれぞれに設置された装置と同時接続可能なテレビ会議装置に関する。 The present invention relates to a video conference apparatus that can be simultaneously connected to apparatuses installed in a plurality of bases.
複数の拠点を繋いで遠隔会議を行うことができるテレビ会議システムが普及している。特許文献1には、3拠点の映像データを同時にモニタの画面に表示するテレビ会議装置が記載されている。
Video conferencing systems that can perform remote conferences by connecting a plurality of bases have become widespread.
また、近年、多くの拠点(例えば、24拠点)と同時に接続できるテレビ会議装置が開発されている。 In recent years, video conference apparatuses that can be connected simultaneously with many sites (for example, 24 sites) have been developed.
各拠点からの映像データを、同一面積の領域に表示させると、拠点数が多い場合に、各映像データの表示面積が小さくなるので、視聴者には、発言を行った参加者が居る拠点(以下、「発言拠点」という)の映像データが分かり難くなってしまう。 If the video data from each location is displayed in the area of the same area, the display area of each video data will be reduced if the number of locations is large. The video data of the “speaking base” will be difficult to understand.
本発明の目的は、拠点数が多い場合でも、発言拠点からの映像データを視聴者に分かり易く表示することができるテレビ会議装置を提供することである。 An object of the present invention is to provide a video conference apparatus capable of displaying video data from a speech base in an easily understandable manner even when the number of bases is large.
本発明のテレビ会議装置は、ホスト拠点に設けられ、複数の他拠点のテレビ会議装置と同時に接続可能なテレビ会議装置であって、前記ホスト拠点を撮影して映像データを取得する映像入力部と、前記ホスト拠点の音声を収音して音声データを取得する音声入力部と、前記複数の他拠点の会議端末装置から、各々の映像データおよび音声データを受信する通信制御部と、テレビ会議に参加する拠点の数に応じて画面レイアウトを決定し、前記画面レイアウトに従って前記各拠点の映像データを合成した合成映像データを生成して画面に表示させる表示制御部と、を具備し、前記音声データのレベルを検出するレベル検出部をさらに有し、前記表示制御部は、主として発言を行う参加者が居る発言拠点と、基本的に発言を行わず傍聴のみを行う参加者が居る傍聴拠点とが予め決められている場合に、前記発言拠点の映像データの表示面積が、前記傍聴拠点の映像データの表示面積よりも大きくなるように合成映像データを生成し、前記音声データのレベルが閾値以上となった前記傍聴拠点の映像データの表示面積を、他の前記傍聴拠点の映像データの表示面積よりも大きく、かつ、前記発言拠点の映像データの表示面積よりも小さくなるように合成映像データを生成する。
The video conference device of the present invention is a video conference device provided at a host site and connectable simultaneously with a video conference device at a plurality of other sites, and a video input unit that captures the host site and acquires video data; An audio input unit that collects audio from the host site and acquires audio data; a communication control unit that receives video data and audio data from the conference terminal devices at the plurality of other sites; and a video conference. A display control unit that determines a screen layout according to the number of participating sites, generates composite video data obtained by synthesizing video data of each site according to the screen layout, and displays the synthesized video data on the screen, and the audio data The display control unit further includes a speech base where there is a participant who mainly speaks, and basically only listens without speaking. If the hearing bases pressurized person is present is predetermined, the display area of the image data of the talk bases, generates a composite image data to be greater than the display area of the image data of the hearing site, the The display area of the video data of the listening base where the audio data level is equal to or higher than the threshold is larger than the display area of the video data of the other listening base and smaller than the display area of the video data of the speech base. The composite video data is generated as follows.
本発明によれば、拠点数が多い場合でも、発言拠点からの映像データを視聴者に分かり易く表示することができる。 According to the present invention, even when the number of bases is large, video data from the speech bases can be displayed in an easy-to-understand manner for the viewer.
以下、図面を適宜参照して、本発明の実施の形態につき、詳細に説明する。なお、以下では、同時に接続できる拠点数が24であるテレビ会議システムを例に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate. In the following, a video conference system in which the number of sites that can be connected simultaneously is 24 will be described as an example.
(実施の形態1)
<テレビ会議装置の構成および接続関係>
まず、本発明の実施の形態1に係るテレビ会議装置10の構成および接続関係について、図1を用いて詳細に説明する。
(Embodiment 1)
<Configuration and connection of video conference equipment>
First, the configuration and connection relationship of the
各拠点には、それぞれ、テレビ会議装置10が設置されている。ホスト拠点(多拠点接続装置(MCU)、拠点番号1)のテレビ会議装置10−1は、他の拠点(拠点番号2〜24)のそれぞれに設置された各テレビ会議装置10−2〜24と、ネットワーク20を介して接続し、音声データ及び映像データの送信/受信を行う。ネットワーク20は、典型的にはインターネットである。
A
テレビ会議装置10−1は、本体装置100、ユーザ操作入力装置200、映像入力装置300、音声入力装置400および表示装置500から構成されている。
The video conference device 10-1 includes a
本体装置100は、ユーザ操作入力装置200、映像入力装置300、音声入力装置400および表示装置500と接続している。
The
ユーザ操作入力装置200は、ユーザによる拠点を選択する操作を検出し、選択された拠点を示す選択拠点情報を含む信号を有線又は無線により本体装置100に送信する。ユーザ操作入力装置200は、典型的にはリモコン又はタッチパネルである。
The user
映像入力装置300は、本体装置100が設置されている拠点を撮影して得られた映像データを本体装置100に出力する。なお、映像入力装置300が出力する映像データには、カメラが撮像した映像データの他に、PCに保存された映像データ、DVDプレーヤにより再生された映像データ等がある。
The
音声入力装置400は、本体装置100が設置されている拠点の音声を収音して得られた音声データ等を本体装置100に出力する。なお、音声入力装置400が出力する音声データには、マイクが収音した音声データの他に、PCに保存された映像データとセットの音声データ、DVDプレーヤにより再生された映像データとセットの音声データ等がある。
The
表示装置500は、本体装置100から出力された映像データを画面に表示すると共に、本体装置100から出力された音声データを図示しないスピーカから出力する。
The
本体装置100は、ユーザ指示受信部101と、会議制御部102と、通信制御部103と、映像・音声符号化/復号部104と、映像・音声合成部105と、映像・音声出力制御部106と、静止画保持部107と、映像入力制御部108と、音声入力制御部109と、から主に構成される。なお、映像・音声合成部105と映像・音声出力制御部106とにより、表示制御部が構成される。
The
ユーザ指示受信部101は、ユーザ操作入力装置200から送信された信号を受信し、受信信号に含まれている選択拠点情報を抽出し、会議制御部102に出力する。選択拠点情報には、テレビ会議に参加する各拠点の発信先情報(IPアドレスあるいはISDN番号)が含まれる。
The user
会議制御部102は、ユーザ指示受信部101から入力した選択拠点情報に基づいて、通信制御部103と、映像・音声符号化/復号部104と、映像・音声合成部105と、におけるデータの入出力のタイミングを制御する。また、会議制御部102は、ユーザ指示受信部101から入力した選択拠点情報を映像・音声合成部105に出力する。また、会議制御部102は、選択拠点情報に基づいて、通信制御部103における発信処理及び呼の確立処理を制御すると共に、映像データを受信したか否かを監視する。
The
通信制御部103は、会議制御部102の制御に従ったタイミングで動作する。通信制御部103は、他のテレビ会議装置10−2〜24との間で呼を確立する。そして、通信制御部103は、呼を確立した後、他のテレビ会議装置10−2〜24が送信した映像データ及び音声データを、ネットワーク20を介して受信し、映像・音声符号化/復号部104に出力する。また、通信制御部103は、呼を確立した後、映像・音声符号化/復号部104から入力した映像データ及び音声データを、ネットワーク20を介して他のテレビ会議装置10−2〜24に送信する。なお、通信制御部103は、所定の通信プロトコルに従って動作する。通信プロトコルは、典型的にはSIP又はH.323である。
The
映像・音声符号化/復号部104は、会議制御部102の制御に従ったタイミングで動作する。映像・音声符号化/復号部104は、映像・音声合成部105から入力した映像データ、および、音声入力制御部109から入力した音声データを符号化して通信制御部103に出力する。また、映像・音声符号化/復号部104は、通信制御部103から入力した他のテレビ会議装置10−2〜24からの映像データおよび音声データを復号して映像・音声合成部105に出力する。
The video / audio encoding /
また、映像・音声符号化/復号部104は、各テレビ会議装置10−1〜24の音声データのレベルを検出し、検出結果を映像・音声合成部105に出力する(レベル検出部)。
The video / audio encoding /
映像・音声合成部105は、会議制御部102の制御に従ったタイミングで動作する。映像・音声合成部105は、映像・音声符号化/復号部104から入力した他のテレビ会議装置10−2〜24からの映像データと、映像入力制御部108から入力した映像データと、に基づいて、会議制御部102から入力した選択拠点情報の拠点数に応じて、複数の映像データを合成した合成映像データを生成し、映像・音声出力制御部106に出力する。なお、映像・音声合成部105は、各テレビ会議装置10−2〜24から映像データを受信するまでの間、静止画保持部107に保持された静止画が表示されるように合成映像データを生成する。
The video /
また、映像・音声合成部105は、映像・音声符号化/復号部104から入力した他のテレビ会議装置10−2〜24からの音声データと、音声入力制御部109から入力した音声データを合成した合成音声データを生成し、映像・音声出力制御部106に出力する。また、映像・音声合成部105は、映像入力制御部108から入力した映像データを映像・音声符号化/復号部104に出力する。
Also, the video /
また、映像・音声合成部105は、音声データレベルの検出結果に応じて発言拠点を認定し、発言拠点の映像データを強調表示するように合成映像データを変更する。
Also, the video /
映像・音声出力制御部106は、映像・音声合成部105から入力した合成映像データを表示装置500の画面に表示させると共に、合成音声データを表示装置500のスピーカから音声として出力させる。
The video / audio
静止画保持部107は、他のテレビ会議装置10−2〜24から映像データを受信するまでの期間において、所定の静止画を表示装置500の画面に表示させるための静止画データを予め保持している。
The still
映像入力制御部108は、映像入力装置300から入力した映像データを映像・音声合成部105に出力する。
The video
音声入力制御部109は、音声入力装置400から入力した音声データを映像・音声符号化/復号部104および映像・音声合成部105に出力する。
The audio
<テレビ会議装置の接続状態の遷移>
次に、テレビ会議装置10−1の接続状態の遷移について、図2を用いて詳細に説明する。
<Transition of video conferencing equipment connection status>
Next, the transition of the connection state of the video conference apparatus 10-1 will be described in detail with reference to FIG.
テレビ会議装置10−1は、電源ONとなることにより動作を開始する。テレビ会議装置10−1は、電源ONされた直後では非通信状態である(S1)。 The video conference apparatus 10-1 starts operating when the power is turned on. The video conference apparatus 10-1 is in a non-communication state immediately after being powered on (S1).
テレビ会議装置10−1は、非通信状態(S1)において、他の1つのテレビ会議装置10−i(iは2から24のいずれかの整数)と接続することにより、テレビ会議装置10−iと一対一の通信状態(1:1通信状態)になる(S2)。そして、テレビ会議装置10−1は、1:1通信状態(S2)において、通信状態であるテレビ会議装置10−iとの接続を切断すると非通信状態になる(S1)。なお、テレビ会議装置10−1は、非通信状態(S1)において、電源OFFとなることにより動作を終了する。 In the non-communication state (S1), the video conference apparatus 10-1 is connected to the other video conference apparatus 10-i (i is an integer from 2 to 24), whereby the video conference apparatus 10-i. And a one-to-one communication state (1: 1 communication state) (S2). Then, in the 1: 1 communication state (S2), the video conference device 10-1 becomes a non-communication state when the connection with the video conference device 10-i in the communication state is disconnected (S1). In addition, the video conference apparatus 10-1 ends the operation when the power is turned off in the non-communication state (S1).
また、テレビ会議装置10−1は、1:1通信状態(S2)から、さらに他のテレビ会議装置10−j(jはi以外の2から24のいずれかの整数)と接続することにより、複数の拠点のテレビ会議装置10−i、jと通信状態(MCU通信状態)になる(S3)。 In addition, the video conference apparatus 10-1 is further connected to another video conference apparatus 10-j (j is an integer from 2 to 24 other than i) from the 1: 1 communication state (S2). A communication state (MCU communication state) is established with the video conference apparatuses 10-i, j at a plurality of bases (S3).
そして、テレビ会議装置10−1は、通信状態にあるテレビ会議装置10−jとの接続を切断すれば一対一の通信状態になり(S2)、さらに通信状態にあるテレビ会議装置10−iとの接続を切断すれば非通信状態になる(S1)。 Then, the video conference apparatus 10-1 is in a one-to-one communication state when the connection with the video conference apparatus 10-j in communication is cut off (S2), and further, with the video conference apparatus 10-i in communication state If the connection is disconnected, the communication state is turned off (S1).
また、テレビ会議装置10−1は、非通信状態(S1)において、他の全てのテレビ会議装置10−2〜24に対して一斉に発信することにより他の全てのテレビ会議装置10−2〜24と通信状態(MCU通信状態)になる(S3)。そして、テレビ会議装置10は、他の全てのテレビ会議装置10−2〜24との接続を一斉に切断すれば非通信状態になる(S1)。
In addition, the video conference apparatus 10-1 transmits all the other video conference apparatuses 10-2 to 24 at the same time in the non-communication state (S1), thereby transmitting all the other video conference apparatuses 10-2 to 10-2. 24 and a communication state (MCU communication state) (S3). And the
一斉に発信する方法としては、ユーザが発信時に発信先をテレビ会議装置10−1に手入力する方法、又は、テレビ会議装置10−1に予め記憶させておいた複数の発信先情報を登録したリストをユーザに選択させる方法等が考えられる。また、発信先を特定する方法としては、IPアドレス、電話番号又は識別コード等が考えられる。 As a method of transmitting all at once, a method in which a user manually inputs a destination to the video conference device 10-1 at the time of outgoing or a plurality of destination information stored in advance in the video conference device 10-1 is registered. A method of allowing the user to select a list can be considered. Further, as a method for specifying the destination, an IP address, a telephone number, an identification code, or the like can be considered.
<テレビ会議装置の動作>
次に、テレビ会議装置10−1の動作について、図3を用いて詳細に説明する。なお、図3は、テレビ会議装置10−1が、他の全てのテレビ会議装置10−2〜24に対して一斉に発信する場合のフローである。
<Operation of video conference device>
Next, operation | movement of the video conference apparatus 10-1 is demonstrated in detail using FIG. FIG. 3 is a flow in the case where the video conference apparatus 10-1 transmits all other video conference apparatuses 10-2 to 24 all at once.
まず、ユーザ指示受信部101が、ユーザ操作入力装置200から信号を受信し、受信した信号に含まれる選択拠点情報を抽出して会議制御部102に出力する。
First, the user
会議制御部102は、選択拠点情報のN(Nは1以上の整数、図3ではN=23)拠点のそれぞれに設置されたテレビ会議装置10−2〜24に一斉発信を行うように通信制御部103を制御する。これにより、通信制御部103は、選択拠点のテレビ会議装置10−2〜24に一斉発信を行う(S11)。具体的には、会議制御部102は、選択拠点情報が複数の発信先情報を記録した1つのリストの情報である場合、そのリストに登録されている発信先情報の発信先の数により拠点数Nを認識することができる。
The
また、映像・音声合成部105は、会議制御部102から入力した選択拠点情報に基づいて画面レイアウトを決定する(S12)。
Further, the video /
また、通信制御部103は、他の拠点の各テレビ会議装置10−2〜24との間で呼を確立する(S13)。
In addition, the
次に、映像・音声合成部105は、映像入力制御部108から入力したテレビ会議装置10−1の映像データ、および、他のテレビ会議装置10−2〜24の映像データのそれぞれが、画面レイアウトの、対応する分割領域に表示されるように合成映像データを生成する。そして、映像・音声出力制御部106が、映像・音声合成部105から入力した初期合成映像データを表示装置500の画面に表示させる(S14)(図5(a)、図6(a)参照)。なお、他の各テレビ会議装置10−2〜24から映像データを受信するまでは、対応する分割領域に静止画データが表示される。
Next, the video /
次に、映像・音声合成部105は、発言拠点の映像データを強調するための強調表示制御動作(S15)を行う。
Next, the video /
以下、本実施の形態のテレビ会議装置10−1における、強調表示制御動作(S15)の詳細について図4を用いて説明する。 Details of the highlight display control operation (S15) in the video conference apparatus 10-1 of the present embodiment will be described below with reference to FIG.
まず、映像・音声符号化/復号部104が、各テレビ会議装置10−1〜24の音声データのレベルを検出し、検出結果を映像・音声合成部105に出力する(S21)。
First, the video / audio encoding /
映像・音声合成部105は、音声データのレベルが閾値以上の場合に発言があったと認識する。そして、映像・音声合成部105は、新たな発言拠点があったか否かを判定する(S22)。
The video /
新たな発言拠点があった場合(S22:YES)、映像・音声合成部105は、当該発言拠点について個別タイマをスタートさせる(S23)。また、映像・音声合成部105は、当該発言拠点の映像データが強調表示されるように合成映像データを生成する。そして、映像・音声出力制御部106は、映像・音声合成部105から入力した新たな合成映像データを表示装置500の画面に表示させる(S24)。その後、フローはS21に戻る。
When there is a new speech base (S22: YES), the video /
一方、新たな発言拠点がなかった場合(S22:NO)、映像・音声合成部105は、既存の発言拠点が追加の発言を行ったか否かを判定する(S25)。
On the other hand, when there is no new speech base (S22: NO), the video /
そして、既存の発言拠点が追加の発言を行った場合(S25:YES)、映像・音声合成部105は、個別タイマをリスタートさせる(S26)。その後、フローはS21に戻る。
When the existing utterance base makes an additional utterance (S25: YES), the video /
一方、既存の発言拠点が追加の発言を行わなかった場合(S25:NO)、映像・音声合成部105は、個別タイマが満了した(所定時間Tを計時した)か否かを判定する(S27)。
On the other hand, when the existing utterance base does not make an additional utterance (S25: NO), the video /
個別タイマが満了した場合(S27:YES)、映像・音声合成部105は、当該発言拠点の強調表示を解除した合成映像データを生成する。そして、映像・音声出力制御部106は、映像・音声合成部105から入力した新たな更新合成映像データを表示装置500の画面に表示させる(S28)。その後、フローはS21に戻る。
When the individual timer expires (S27: YES), the video /
個別タイマが満了していない場合(S27:NO)、フローはS21に戻る。 If the individual timer has not expired (S27: NO), the flow returns to S21.
<画面レイアウトの具体例>
次に、映像・音声合成部105による合成映像データの画面レイアウトの具体例について、図5を用いて詳細に説明する。なお、図5において、画面内の各領域に記された数字は拠点番号に対応する。例えば、「1」と記された領域には、拠点番号1のテレビ会議装置10−1で撮像された映像データが表示される。
<Specific examples of screen layout>
Next, a specific example of the screen layout of the synthesized video data by the video /
図5(a)に示すように、合成映像データは、(N+1)個以上(図5(a)では24個)に分割された各領域に、対応する拠点の映像データ(あるいは静止画データ)が表示されるようにレイアウトされる。 As shown in FIG. 5A, the composite video data includes video data (or still image data) of a base corresponding to each area divided into (N + 1) or more (24 in FIG. 5A). Is laid out so that is displayed.
図5(a)に示した合成映像データを表示した状態で、拠点番号19の参加者が新たに発言を行った場合、テレビ会議装置10−1は、図5(b)に示すように、当該発言拠点(拠点番号18)の映像データの表示領域を拡大させるように合成映像データを変更する。発言拠点の映像データの表示領域を拡大させることにより、発言拠点が強調される。
In the state where the composite video data shown in FIG. 5A is displayed, when the participant with the
その後、さらに、拠点番号12の参加者が新たに発言を行った場合、テレビ会議装置10−1は、図5(c)に示すように、全ての発言拠点(拠点番号12、19)の映像データの表示領域を拡大させるように合成映像データを変更する。
Thereafter, when the participant who has the
<効果>
このように、本実施の形態では、発言拠点の映像データの表示面積が、他の拠点の映像データの表示面積よりも大きくなるように合成映像データを生成する。これにより、拠点数が多い場合でも、発言拠点からの映像データを視聴者に分かり易く表示することができる。
<Effect>
As described above, in the present embodiment, the composite video data is generated so that the display area of the video data at the speech base is larger than the display area of the video data at the other base. Thereby, even when the number of bases is large, video data from the speech bases can be displayed in an easy-to-understand manner for the viewer.
(実施の形態2)
強調表示制御として、上記実施の形態1では、発言拠点の映像データの表示領域を拡大させる場合について説明したが、実施の形態2では、発言拠点の映像データの表示方法を変更させる場合について説明する。
(Embodiment 2)
As the highlighting control, the first embodiment has been described with respect to the case where the display area of the video data of the speech base is enlarged, but the second embodiment will describe the case where the display method of the video data of the speech base is changed. .
なお、本実施の形態のテレビ会議装置10の構成および接続関係は、実施の形態1で説明した図1に示したものと同一であるので、その説明を省略する。また、本実施の形態のテレビ会議装置10−1の動作は、実施の形態1で説明した図3、図4に示したものと同一であるので、その説明を省略する。
Note that the configuration and connection relationship of the
<画面レイアウトの具体例>
次に、映像・音声合成部105による合成映像データの画面レイアウトの具体例について、図6を用いて詳細に説明する。なお、図6において、画面内の各領域に記された数字は拠点番号に対応する。例えば、「1」と記された領域には、拠点番号1のテレビ会議装置10−1で撮像された映像データが表示される。
<Specific examples of screen layout>
Next, a specific example of the screen layout of the synthesized video data by the video /
図6(a)に示すように、合成映像データは、(N+1)個以上(図6(a)では24個)に分割された各領域に、対応する拠点の映像データ(あるいは静止画データ)が表示されるようにレイアウトされる。このとき、各拠点の映像データの左肩部分には、対応する拠点のIPアドレスや拠点名称などの拠点情報が表示される。なお、図6では説明の簡単化のため全て"site"と図示している。以降、映像データの”site”は、拠点情報を示すものとする。 As shown in FIG. 6A, the composite video data includes video data (or still image data) of a base corresponding to each area divided into (N + 1) or more (24 in FIG. 6A). Is laid out so that is displayed. At this time, base information such as the IP address and base name of the corresponding base is displayed on the left shoulder of the video data of each base. In FIG. 6, “site” is shown for simplicity of explanation. Hereinafter, “site” in the video data indicates base information.
図6(a)に示した合成映像データを表示した状態で、拠点番号19の参加者が新たに発言を行った場合、テレビ会議装置10−1は、図6(b)に示すように、当該発言拠点(拠点番号18)の映像データの"site"の表示方法を変更した合成映像データを生成する。発言拠点の映像データの一部の表示方法を変更することにより、発言拠点が強調される。なお、表示方法の変更のパターンとして、図6(b)のように反転させるものや、色を変化させるものがある。
When the participant with the
その後、さらに、拠点番号12の参加者が新たに発言を行った場合、テレビ会議装置10−1は、図6(c)に示すように、全ての発言拠点(拠点番号12、19)の映像データの"site"の表示を変更した合成映像データを生成する。
Thereafter, when the participant with the
<効果>
このように、本実施の形態では、発言拠点の映像データの表示方法が、他の拠点の映像データの表示方法と異なるように合成映像データを生成する。これにより、拠点数が多い場合でも、発言拠点からの映像データを視聴者に分かり易く表示することができる。
<Effect>
As described above, in the present embodiment, the composite video data is generated so that the video data display method at the speech base is different from the video data display method at other bases. Thereby, even when the number of bases is large, video data from the speech bases can be displayed in an easy-to-understand manner for the viewer.
(実施の形態3)
強調表示制御として、上記実施の形態1では、発言拠点の映像データの表示領域を拡大させる場合について説明したが、実施の形態3では、発言拠点の映像データの表示領域を拡大させるとともに、表示位置を変更させる場合について説明する。
(Embodiment 3)
As the highlighting control, the case where the display area of the video data at the speech base is enlarged is described in the first embodiment, but the display area of the video data at the speech base is enlarged and the display position is displayed in the third embodiment. A case of changing the above will be described.
なお、本実施の形態のテレビ会議装置10の構成および接続関係は、実施の形態1で説明した図1に示したものと同一であるので、その説明を省略する。また、本実施の形態のテレビ会議装置10−1の動作は、実施の形態1で説明した図3、図4に示したものと同一であるので、その説明を省略する。
Note that the configuration and connection relationship of the
<画面レイアウトの具体例>
次に、映像・音声合成部105による合成映像データの画面レイアウトの具体例について、図7を用いて詳細に説明する。なお、図7において、画面内の各領域に記された数字は拠点番号に対応する。例えば、「1」と記された領域には、拠点番号1のテレビ会議装置10−1で撮像された映像データが表示される。
<Specific examples of screen layout>
Next, a specific example of the screen layout of the synthesized video data by the video /
図5(a)に示した合成映像データを表示した状態で、拠点番号1の参加者が新たに発言を行った場合、テレビ会議装置10−1は、図7(a)に示すように、当該発言拠点(拠点番号1)の映像データの表示領域を拡大させるとともに、表示位置を変更するように合成映像データを変更する。
In the state where the composite video data shown in FIG. 5A is displayed, when the participant with the
その後、さらに、拠点番号19の参加者が新たに発言を行った場合、テレビ会議装置10−1は、図7(b)に示すように、全ての発言拠点(拠点番号1、19)の映像データの表示領域を拡大させるとともに、表示位置を変更するように合成映像データを変更する。
Thereafter, when the participant with the
その後、さらに、拠点番号20の参加者が新たに発言を行った場合、テレビ会議装置10−1は、図7(c)に示すように、全ての発言拠点(拠点番号1、19、20)の映像データの表示領域を拡大させるとともに、表示位置を変更するように合成映像データを変更する。
Thereafter, when the participant who has the
その後、さらに、拠点番号3の参加者が新たに発言を行った場合、テレビ会議装置10−1は、図7(d)に示すように、全ての発言拠点(拠点番号1、19、20、3)の映像データの表示領域を拡大させるとともに、表示位置を変更するように合成映像データを変更する。
Thereafter, when the participant with the
<効果>
このように、本実施の形態では、発言拠点の映像データの表示面積が、他の拠点の映像データの表示面積よりも大きくなり、かつ、発言拠点の映像データの表示位置が変更されるように合成映像データを生成する。これにより、拠点数が多い場合でも、発言拠点からの映像データを視聴者に分かり易く表示することができる。
<Effect>
As described above, in this embodiment, the display area of the video data of the speech base is larger than the display area of the video data of the other base, and the display position of the video data of the speech base is changed. Generate composite video data. Thereby, even when the number of bases is large, video data from the speech bases can be displayed in an easy-to-understand manner for the viewer.
(バリエーション)
本発明では、主として発言を行う参加者が居る発言拠点と、基本的に発言を行わず傍聴のみを行う参加者が居る傍聴拠点とが予め決められている場合に、図8(a)に示すように、発言拠点(図8(a)では拠点番号1、2、3、4)の映像データの表示面積を傍聴拠点の映像データの表示面積よりも大きくする等、発言拠点の映像データを常に強調表示するようにしてもよい。
(variation)
In the present invention, when a speech base where there is a participant who mainly speaks and a hearing base where there is a participant who does not basically speak and only listens are determined in advance, it is shown in FIG. In this way, the video data of the speech base is always changed, for example, the display area of the video data of the speech base (
さらに、図8(b)に示すように、傍聴拠点の参加者が質問等の発言を行った場合、当該傍聴拠点(図8(b)では拠点番号17)の映像データの表示面積を他の傍聴拠点の映像データの表示面積よりも大きくする等、当該傍聴拠点の映像データを強調表示するようにしてもよい。
Further, as shown in FIG. 8 (b), when a participant in the hearing base makes a question or the like, the display area of the video data of the hearing base (the
なお、本発明は、部材の種類、配置、個数等は前述の実施の形態に限定されるものではなく、その構成要素を同等の作用効果を奏するものに適宜置換する等、発明の要旨を逸脱しない範囲で適宜変更可能である。 The present invention is not limited to the above-described embodiments in terms of the type, arrangement, number, etc. of the members, and departs from the gist of the invention, such as appropriately replacing the constituent elements with those having the same operational effects. It is possible to change appropriately within the range not to be.
具体的には、上記の実施の形態では、映像を表示するまでに静止画を表示する場合について説明したが、本発明はこれに限られず、静止画以外のメッセージ等の文字情報を表示する、あるいは、黒画面のままとするようにしてもよい。 Specifically, in the above embodiment, the case where a still image is displayed before displaying a video has been described, but the present invention is not limited thereto, and character information such as a message other than a still image is displayed. Alternatively, the black screen may be left as it is.
また、上記の実施の形態では、同時に接続できる拠点数が24であるテレビ会議システムを例に説明したが、本発明は同時に接続できる拠点数に制限は無い。 In the above embodiment, the video conference system in which the number of sites that can be connected simultaneously is 24 has been described as an example. However, the present invention has no limitation on the number of sites that can be connected simultaneously.
また、本発明では、ユーザの設定により、表示用の映像データと送信用の映像データとを別個に生成することができる。例えば、映像入力制御部108から出力された映像データを表示用の映像データとし、映像・音声合成部105で合成された映像データを送信用の映像データとすることができる。
In the present invention, display video data and transmission video data can be generated separately according to user settings. For example, the video data output from the video
本発明は、ホスト拠点に設けられ、ホスト拠点と異なる複数の拠点の相手装置と同時に接続可能なテレビ会議装置に用いるに好適である。 The present invention is suitable for use in a video conference apparatus that is provided at a host site and can be connected simultaneously with counterpart devices at a plurality of sites different from the host site.
10 テレビ会議装置
100 本体装置
101 ユーザ指示受信部
102 会議制御部
103 通信制御部
104 映像・音声符号化/復号部
105 映像・音声合成部
106 映像・音声出力制御部
107 静止画保持部
108 映像入力制御部
109 音声入力制御部
200 ユーザ操作入力装置
300 映像入力装置
400 音声入力装置
500 表示装置
DESCRIPTION OF
Claims (1)
前記ホスト拠点を撮影して映像データを取得する映像入力部と、
前記ホスト拠点の音声を収音して音声データを取得する音声入力部と、
前記複数の他拠点の会議端末装置から、各々の映像データおよび音声データを受信する通信制御部と、
テレビ会議に参加する拠点の数に応じて画面レイアウトを決定し、前記画面レイアウトに従って前記各拠点の映像データを合成した合成映像データを生成して画面に表示させる表示制御部と、
を具備し、
前記音声データのレベルを検出するレベル検出部をさらに有し、
前記表示制御部は、
主として発言を行う参加者が居る発言拠点と、基本的に発言を行わず傍聴のみを行う参加者が居る傍聴拠点とが予め決められている場合に、前記発言拠点の映像データの表示面積が、前記傍聴拠点の映像データの表示面積よりも大きくなるように合成映像データを生成し、
前記音声データのレベルが閾値以上となった前記傍聴拠点の映像データの表示面積を、他の前記傍聴拠点の映像データの表示面積よりも大きく、かつ、前記発言拠点の映像データの表示面積よりも小さくなるように合成映像データを生成する、
テレビ会議装置。 A video conference device provided at a host site and connectable simultaneously with a video conference device at a plurality of other sites,
A video input unit that captures the host site and obtains video data;
A voice input unit that collects voice of the host site and acquires voice data;
A communication control unit that receives each video data and audio data from the conference terminal device at the plurality of other sites,
A display control unit that determines a screen layout according to the number of locations participating in a video conference, generates composite video data obtained by combining video data of each location according to the screen layout, and displays the composite video data on the screen;
Comprising
A level detector for detecting the level of the audio data;
The display control unit
When the speech base where there is a participant who mainly speaks and the hearing base where there is a participant who basically does not speak and only listens are determined in advance, the display area of the video data of the speech base, Generate composite video data to be larger than the display area of the video data of the hearing base ,
The display area of the video data of the listening base where the level of the audio data is equal to or greater than the threshold is larger than the display area of the video data of the other listening base , and more than the display area of the video data of the speech base Generate composite video data to be smaller,
Video conferencing equipment.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016188603A JP6179834B1 (en) | 2016-09-27 | 2016-09-27 | Video conferencing equipment |
US15/703,147 US10110831B2 (en) | 2016-09-27 | 2017-09-13 | Videoconference device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016188603A JP6179834B1 (en) | 2016-09-27 | 2016-09-27 | Video conferencing equipment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6179834B1 true JP6179834B1 (en) | 2017-08-16 |
JP2018056719A JP2018056719A (en) | 2018-04-05 |
Family
ID=59604769
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016188603A Active JP6179834B1 (en) | 2016-09-27 | 2016-09-27 | Video conferencing equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6179834B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111901680A (en) * | 2020-05-10 | 2020-11-06 | 天地阳光通信科技(北京)有限公司 | Multimedia data processing method and device and server |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10372298B2 (en) | 2017-09-29 | 2019-08-06 | Apple Inc. | User interface for multi-user communication session |
CN110457096B (en) * | 2018-05-07 | 2021-01-01 | 苹果公司 | Multi-participant real-time communication user interface |
DK201870364A1 (en) | 2018-05-07 | 2019-12-03 | Apple Inc. | Multi-participant live communication user interface |
JP7230394B2 (en) * | 2018-09-25 | 2023-03-01 | 京セラドキュメントソリューションズ株式会社 | Teleconferencing device and teleconferencing program |
US11128792B2 (en) | 2018-09-28 | 2021-09-21 | Apple Inc. | Capturing and displaying images with multiple focal planes |
US11079913B1 (en) | 2020-05-11 | 2021-08-03 | Apple Inc. | User interface for status indicators |
US11671697B2 (en) | 2021-01-31 | 2023-06-06 | Apple Inc. | User interfaces for wide angle video conference |
US11893214B2 (en) | 2021-05-15 | 2024-02-06 | Apple Inc. | Real-time communication user interface |
US11907605B2 (en) | 2021-05-15 | 2024-02-20 | Apple Inc. | Shared-content session user interfaces |
US11928303B2 (en) | 2021-05-15 | 2024-03-12 | Apple Inc. | Shared-content session user interfaces |
US11770600B2 (en) | 2021-09-24 | 2023-09-26 | Apple Inc. | Wide angle video conference |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07336660A (en) * | 1994-06-14 | 1995-12-22 | Matsushita Electric Ind Co Ltd | Video conference system |
JP2003299051A (en) * | 2002-03-29 | 2003-10-17 | Matsushita Electric Ind Co Ltd | Information output unit and information outputting method |
JP2005151002A (en) * | 2003-11-13 | 2005-06-09 | Nec Soft Ltd | Remote conference system |
JP2005341347A (en) * | 2004-05-28 | 2005-12-08 | Nippon Telegr & Teleph Corp <Ntt> | Multipoint connection device and method |
JP2013126103A (en) * | 2011-12-14 | 2013-06-24 | Fujitsu Ltd | Communication apparatus and communication control method |
JP2014171157A (en) * | 2013-03-05 | 2014-09-18 | Ricoh Co Ltd | Communication device and communication method |
-
2016
- 2016-09-27 JP JP2016188603A patent/JP6179834B1/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07336660A (en) * | 1994-06-14 | 1995-12-22 | Matsushita Electric Ind Co Ltd | Video conference system |
JP2003299051A (en) * | 2002-03-29 | 2003-10-17 | Matsushita Electric Ind Co Ltd | Information output unit and information outputting method |
JP2005151002A (en) * | 2003-11-13 | 2005-06-09 | Nec Soft Ltd | Remote conference system |
JP2005341347A (en) * | 2004-05-28 | 2005-12-08 | Nippon Telegr & Teleph Corp <Ntt> | Multipoint connection device and method |
JP2013126103A (en) * | 2011-12-14 | 2013-06-24 | Fujitsu Ltd | Communication apparatus and communication control method |
JP2014171157A (en) * | 2013-03-05 | 2014-09-18 | Ricoh Co Ltd | Communication device and communication method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111901680A (en) * | 2020-05-10 | 2020-11-06 | 天地阳光通信科技(北京)有限公司 | Multimedia data processing method and device and server |
Also Published As
Publication number | Publication date |
---|---|
JP2018056719A (en) | 2018-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6179834B1 (en) | Video conferencing equipment | |
JP6152961B1 (en) | Video conferencing equipment | |
JP6172610B2 (en) | Video conferencing system | |
JP6931815B2 (en) | Video conferencing equipment | |
US10110831B2 (en) | Videoconference device | |
WO2011050682A1 (en) | Method and device for realizing videophone | |
JP2008288974A (en) | Video conference system and video conference device | |
WO2016147538A1 (en) | Videoconference communication device | |
JP2010157906A (en) | Video display device | |
JP4776363B2 (en) | Communication terminal device and communication system | |
JP7095356B2 (en) | Communication terminal and conference system | |
JP6803563B2 (en) | Video conferencing equipment | |
JP6668828B2 (en) | Conference system | |
US20230239406A1 (en) | Communication system | |
JP6152998B1 (en) | Video conferencing equipment | |
JP2003339034A (en) | Network conference system, network conference method, and network conference program | |
JP2013046319A (en) | Image processing apparatus and image processing method | |
JP6481937B2 (en) | Communication device for video conference | |
JP2005341202A (en) | Portable terminal unit, program and method for switching communication, and television conference system | |
JP6099028B1 (en) | Video conferencing equipment | |
JP2008028884A (en) | Call center system for tv telephone communication | |
JP2007020028A (en) | Group forming apparatus, terminal, connection system and group formation program | |
JPH11177952A (en) | Video conference system | |
JP4768578B2 (en) | Video conference system and control method in video conference system | |
KR100782077B1 (en) | Mute image transmitting method for multilateral image communication terminal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170518 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170706 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6179834 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |