JP2005311916A - Stream data distribution system, stream data distribution method, and program - Google Patents

Stream data distribution system, stream data distribution method, and program Download PDF

Info

Publication number
JP2005311916A
JP2005311916A JP2004129060A JP2004129060A JP2005311916A JP 2005311916 A JP2005311916 A JP 2005311916A JP 2004129060 A JP2004129060 A JP 2004129060A JP 2004129060 A JP2004129060 A JP 2004129060A JP 2005311916 A JP2005311916 A JP 2005311916A
Authority
JP
Japan
Prior art keywords
stream data
terminal device
video stream
participant
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004129060A
Other languages
Japanese (ja)
Inventor
Akira Toyoshima
鑑 豊島
Kazuhiro Hayashi
一博 林
Takeshi Inoue
武 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004129060A priority Critical patent/JP2005311916A/en
Publication of JP2005311916A publication Critical patent/JP2005311916A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To distribute stream data, which reflects a request of each terminal device. <P>SOLUTION: A stream data distribution unit 11 receives voice stream data and video image stream data of each participant from each terminal device through a network and selects video image stream data to be transmitted to each terminal device from the received video image data on the basis of the voice stream data. In the stream data distribution unit 11, the video image stream data is selected based on a rule table 92 showing a distribution rule of the video image stream data for each participant's terminal device. In addition the rule table 92 can be rewritten from the participant's terminal device through the network. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、ストリームデータ配信装置、ストリームデータ配信方法およびそのプログラムに関する。   The present invention relates to a stream data distribution device, a stream data distribution method, and a program thereof.

従来から、参加者(端末装置)の音声情報を分析し、所定の映像ストリームデータ等を選択して、参加者全員の端末装置へ配信するビデオ会議システムがある。   2. Description of the Related Art Conventionally, there is a video conference system that analyzes audio information of participants (terminal devices), selects predetermined video stream data, and distributes them to the terminal devices of all participants.

例えば、特許文献1には、音量(参加者の声)が最も大きい端末装置の映像ストリームデータを各参加者の端末装置へ配信する技術が開示されている。
特開平10-13803号公報(請求項1等)
For example, Patent Literature 1 discloses a technique for distributing video stream data of a terminal device having the highest volume (participant's voice) to each participant's terminal device.
JP 10-13803 A (Claim 1 etc.)

しかし、特許文献1に開示された技術において、テレビ会議制御装置(ストリームデータ配信装置)が各端末装置へ配信するストリームデータは画一的なものであった。すなわち、例えば、ストリームデータ配信装置が、各端末装置の要求を反映したストリームデータを配信することはできないという問題があった。   However, in the technique disclosed in Patent Document 1, the stream data distributed to each terminal device by the video conference control device (stream data distribution device) is uniform. That is, for example, there is a problem that the stream data distribution device cannot distribute the stream data reflecting the request of each terminal device.

そこで、本発明は、前記した問題を解決するストリームデータ配信装置等を提供することを課題とする。   Therefore, an object of the present invention is to provide a stream data distribution apparatus and the like that solve the above-described problems.

前記した課題を解決するため、本発明は、ネットワーク経由で、各端末装置から各参加者の音声ストリームデータと映像ストリームデータとを受信し、前記音声ストリームデータに基づき、前記受信した映像ストリームデータのうち、前記各端末装置へ送信する映像ストリームデータを選択するストリームデータ配信装置を、前記各参加者の端末装置から送信された音声ストリームデータおよび映像ストリームデータの入力を受け付ける入力インターフェースと、前記各参加者の端末装置から送信された音声ストリームデータの特性を分析する音声特性分析部と、前記各参加者の端末装置の識別情報ごとに、前記分析結果に対して、選択すべき映像ストリームデータの情報を示したルールテーブルと、前記分析結果および前記ルールテーブルを参照して、前記受信した映像ストリームデータのうち、前記各参加者の端末装置へ送信する映像ストリームデータを選択する映像ストリーム選択部と、前記選択した映像ストリームデータと、前記参加者の端末装置から受信した音声ストリームデータとに基づいて配信用ストリームデータを作成するストリームデータ作成部と、前記作成した配信用ストリームデータを前記ネットワーク経由で、前記各参加者の端末装置へ出力する出力インターフェースとを備える構成とした。その他の構成については、後記する実施の形態で述べる。   In order to solve the above-described problem, the present invention receives audio stream data and video stream data of each participant from each terminal device via a network, and based on the audio stream data, the received video stream data Among them, a stream data distribution device that selects video stream data to be transmitted to each terminal device, an input interface that receives input of audio stream data and video stream data transmitted from each participant's terminal device, and each participation device For each of the identification information of each participant's terminal device, and information on the video stream data to be selected for the analysis result, for each identification information of each participant's terminal device Rule table showing the analysis result and the rule table Referring to the received video stream data, a video stream selection unit that selects video stream data to be transmitted to each participant's terminal device, the selected video stream data, and the participant's terminal device A stream data creation unit that creates delivery stream data based on the received audio stream data; and an output interface that outputs the created delivery stream data to the terminal device of each participant via the network. The configuration. Other configurations will be described in the embodiments described later.

なお、請求項における音声特性分析部は、後記する実施の形態の音声特性分析モジュールをCPU(Central Processing Unit)が実行することにより実現され、映像ストリーム選択部は、CPUが、後記する実施の形態の映像ストリーム選択モジュールを実行することにより実現されるものとする。
また、請求項におけるストリームデータ作成部は、CPUが、後記する実施の形態の多重化モジュールと、形成モジュールおよび音声・映像フレーム作成モジュールの少なくとも一方とを実行することにより実現されるものとする。
Note that the audio characteristic analysis unit in the claims is realized by a CPU (Central Processing Unit) executing an audio characteristic analysis module of an embodiment described later, and the video stream selection unit is an embodiment described later by the CPU. This is realized by executing the video stream selection module.
The stream data creation unit in the claims is realized by the CPU executing a multiplexing module according to an embodiment described later and at least one of a formation module and an audio / video frame creation module.

本発明によれば、各端末装置からの音声ストリームデータに応じて、各端末装置ごとに映像ストリームデータを選択し、送信することができる。また、各参加者がルールテーブルに自分が要求する映像ストリームデータの選択方法(設定ルール)を設定することで、参加者は自分の要求に応じた映像ストリームデータの配信を受けることができる。   According to the present invention, video stream data can be selected and transmitted for each terminal device in accordance with audio stream data from each terminal device. In addition, each participant sets the selection method (setting rule) of video stream data requested by the participant in the rule table, so that the participant can receive distribution of the video stream data according to his request.

したがって、例えば、ルールテーブルにおける参加者Aの端末装置の設定ルールとして「自分の端末装置へ送信する映像ストリームデータは、自分の端末装置以外の端末装置のうち、その音声ストリームデータの音量が最大の端末装置の映像ストリームデータを選択すべきである」というルールを設定したとする。
ここで、参加者Aの声が最も声が大きければ、参加者Aの端末装置には二番目に大きい声の参加者の映像ストリームデータを送信(表示)することができる。
つまり、最も声が大きい参加者Aは、自分の映像ではなく二番目に声が大きい参加者(例えば、議論をしている相手)の映像を見ながら議論をすることができる。
Therefore, for example, as a setting rule for the terminal device of the participant A in the rule table, “the video stream data to be transmitted to the user terminal device has the highest volume of the audio stream data among the terminal devices other than the user terminal device. It is assumed that the rule that “the video stream data of the terminal device should be selected” is set.
Here, if the voice of participant A is the loudest, the video stream data of the participant with the second loudest voice can be transmitted (displayed) to the terminal device of participant A.
That is, the participant A who has the highest voice can discuss the video while viewing the video of the participant with the second highest voice (for example, the other party who is discussing) instead of his own video.

また、例えば、ルールテーブルにおける参加者Aの端末装置の設定ルールとして「自分の端末装置へ送信する映像ストリームデータは、自分の端末装置以外の端末装置のうち、その音声ストリームデータの音量が所定の閾値を新たに超えた端末装置から送信された映像ストリームデータを選択すべきである」というルールを設定したとする。
ここで、参加者Aが発言をしているときに、他の参加者が所定の閾値以上の音量の音声で異議を挟んだときには、異議を挟んだ参加者の映像ストリームデータが参加者Aの端末装置に送信(表示)される。
つまり、参加者Aは誰が異議を挟んだかを知ることができる。
Further, for example, as a setting rule for the terminal device of the participant A in the rule table, “The video stream data to be transmitted to the user's own terminal device has a predetermined volume of the audio stream data among the terminal devices other than the user's terminal device”. It is assumed that the rule “video stream data transmitted from a terminal device newly exceeding the threshold value should be selected” is set.
Here, when Participant A is speaking, when another participant holds an objection with a sound having a volume equal to or higher than a predetermined threshold, the video stream data of the participant who has held the objection is the Participant A's video stream data. It is transmitted (displayed) to the terminal device.
That is, the participant A can know who has held the objection.

また、ストリームデータ配信装置は、前回の映像ストリームデータの選択時刻から所定時間経過後に、新たな映像ストリームデータを選択し送信するので、例えば、各参加者が次々に発言したときに、端末装置に送信(表示)される映像ストリームデータが短時間の間に次々に変わってしまうのを防止できる。つまり、いったん端末装置に表示された映像ストリームデータが一瞬で消えてしまうのを防止できる。   Further, since the stream data distribution device selects and transmits new video stream data after a predetermined time has elapsed since the previous selection time of the video stream data, for example, when each participant speaks one after another, It is possible to prevent the video stream data to be transmitted (displayed) from changing one after another in a short time. That is, it is possible to prevent the video stream data once displayed on the terminal device from disappearing in an instant.

《基本的構成》
以下、本発明のストリームデータ配信装置等を実施するための最良の形態(以下「実施の形態」という)を、図面を参照して詳細に説明する。
<Basic configuration>
Hereinafter, the best mode for implementing a stream data distribution apparatus and the like of the present invention (hereinafter referred to as “embodiment”) will be described in detail with reference to the drawings.

まず、本実施の形態のストリームデータ配信装置の基本的構成を説明し、その後に特徴的構成について説明する。
図1は、本発明の実施の形態のストリームデータ配信装置を含むストリームデータ配信システムの概要を示した図である。図1を用いて、本システムの概要を説明する。
なお、以下ストリームデータは適宜ストリームと略す。
First, the basic configuration of the stream data distribution apparatus according to the present embodiment will be described, and then the characteristic configuration will be described.
FIG. 1 is a diagram showing an overview of a stream data distribution system including a stream data distribution apparatus according to an embodiment of the present invention. The outline of this system will be described with reference to FIG.
Hereinafter, stream data is abbreviated as a stream as appropriate.

本実施の形態のストリームデータ配信システムは、ビデオ会議等の参加者A〜Dの端末装置1(1a〜d)と、端末装置1(1a〜d)から参加者A〜Dのストリームデータを受信し、端末装置1(1a〜d)へストリームデータを送信(配信)するストリームデータ配信装置11と、これらを接続するネットワーク5とを含んで構成される。   The stream data distribution system according to the present embodiment receives the terminal devices 1 (1a to d) of the participants A to D such as a video conference and the stream data of the participants A to D from the terminal devices 1 (1a to d). The stream data distribution device 11 transmits (distributes) the stream data to the terminal device 1 (1a to 1d) and the network 5 that connects them.

端末装置1(1a〜d)は、ネットワーク5経由で参加者A〜Dの映像ストリームデータおよび音声ストリームデータの送受信を行う手段である。
端末装置1(1a〜d)は、例えば、PC(Personal Computer)等で構成され、キーボード、マウス等の入力手段と、液晶モニタ等の表示手段と、スピーカ等の音声出力手段と、カメラ等の撮像手段と、マイク等の音声入力手段とが接続される。
The terminal devices 1 (1a to d) are means for transmitting and receiving video stream data and audio stream data of the participants A to D via the network 5.
The terminal device 1 (1a to d) is composed of, for example, a PC (Personal Computer) or the like, and includes input means such as a keyboard and a mouse, display means such as a liquid crystal monitor, audio output means such as a speaker, and a camera. The imaging means and audio input means such as a microphone are connected.

例えば、端末装置1aは、カメラ等で撮像された参加者Aの映像をリアルタイムの映像ストリームデータとして、また、マイク等で入力された参加者Aの声をリアルタイムの音声ストリームデータとしてネットワーク5経由でストリームデータ配信装置11へ送信する。そして、端末装置1aは、ネットワーク5経由で参加者A〜Dの映像ストリームデータおよび音声ストリームデータを受信すると、映像ストリームデータをモニタ等の表示手段に表示させ、音声ストリームデータをスピーカ等の音声出力手段に出力する。   For example, the terminal device 1 a uses the video of the participant A captured by a camera or the like as real-time video stream data, and the voice of the participant A input by a microphone or the like as the real-time audio stream data via the network 5. Transmit to the stream data distribution apparatus 11. When the terminal device 1a receives the video stream data and audio stream data of the participants A to D via the network 5, the terminal device 1a displays the video stream data on a display unit such as a monitor, and outputs the audio stream data as audio from a speaker or the like. Output to the means.

なお、ネットワーク5は、例えば、IP網である。ストリームデータ配信装置11の詳細については、後記する。
ちなみに、図1において端末装置1は端末装置1a〜dの4台しか描いていないが、もちろん5台以上の端末装置1で構成されていてもよい。以下に説明する図2では、図1のネットワーク5にN台の端末装置1が接続された場合を例に説明する。
The network 5 is, for example, an IP network. Details of the stream data distribution apparatus 11 will be described later.
Incidentally, although only four terminal devices 1a to 1d are illustrated in FIG. 1, the terminal device 1 may be composed of five or more terminal devices 1 as a matter of course. In FIG. 2 described below, a case where N terminal devices 1 are connected to the network 5 in FIG. 1 will be described as an example.

(ストリームデータ配信装置)
図2は、図1のストリームデータ配信装置の構成を示すブロック図である。図2に示すようにストリームデータ配信装置11は、CPU7と、メモリ8と、記憶部9と、入力インターフェース20と、出力インターフェース28とを含んで構成される。
(Stream data distribution device)
FIG. 2 is a block diagram showing a configuration of the stream data distribution apparatus of FIG. As shown in FIG. 2, the stream data distribution apparatus 11 includes a CPU 7, a memory 8, a storage unit 9, an input interface 20, and an output interface 28.

入力インターフェース20は、ネットワーク5(図1参照)経由で、端末装置1(1a〜n)から送信された映像ストリームデータおよび音声ストリームデータの入力を受け付ける。
出力インターフェース28は、ネットワーク5経由で端末装置1(1a〜n)へ配信用ストリームデータ(音声ストリームデータおよび映像ストリームデータ)を出力するためのインターフェースである。
記憶部9は、ストリームデータ配信用プログラム91と、ルールテーブル92とを記憶し、具体的にはハードディスク等の書き換え可能な記憶媒体で構成される。
なお、本実施の形態のストリームデータ配信方法等は、CPU7が、記憶部9のストリームデータ配信用プログラム91をメモリ8上にロードし実行することにより実現されるものとする。ストリームデータ配信用プログラム91およびルールテーブル92の詳細については、後記する。
The input interface 20 receives input of video stream data and audio stream data transmitted from the terminal device 1 (1a to n) via the network 5 (see FIG. 1).
The output interface 28 is an interface for outputting distribution stream data (audio stream data and video stream data) to the terminal device 1 (1a to 1n) via the network 5.
The storage unit 9 stores a stream data distribution program 91 and a rule table 92, and specifically includes a rewritable storage medium such as a hard disk.
Note that the stream data delivery method and the like of the present embodiment are realized by the CPU 7 loading and executing the stream data delivery program 91 in the storage unit 9 on the memory 8. Details of the stream data distribution program 91 and the rule table 92 will be described later.

次に、図3および図4を用いて、CPU7によるストリームデータ配信用プログラム91の実行処理を詳細に説明する(適宜図1および図2参照)。
図3は、図2のストリームデータ配信用プログラムの構成を示したブロック図である。図4は、図3のストリームデータ配信用プログラムの処理手順を説明するために引用した図である。
Next, the execution processing of the stream data distribution program 91 by the CPU 7 will be described in detail with reference to FIGS. 3 and 4 (see FIGS. 1 and 2 as appropriate).
FIG. 3 is a block diagram showing the configuration of the stream data distribution program of FIG. FIG. 4 is a diagram quoted for explaining the processing procedure of the stream data distribution program of FIG.

図3に示すとおり、ストリームデータ配信用プログラム91は、音声・映像分離モジュール21と、音声特性分析モジュール22と、映像選択モジュール23と、映像ストリーム合成モジュール24と、音声ストリーム合成モジュール25と、音声・映像フレーム作成モジュール26と、形成モジュール27とを含んで構成される。なお、映像選択モジュール23と映像ストリーム合成モジュール24とをまとめて、適宜映像ストリーム選択モジュール30という。   As shown in FIG. 3, the stream data distribution program 91 includes an audio / video separation module 21, an audio characteristic analysis module 22, a video selection module 23, a video stream synthesis module 24, an audio stream synthesis module 25, and an audio. A video frame creation module 26 and a formation module 27 are included. The video selection module 23 and the video stream synthesis module 24 are collectively referred to as a video stream selection module 30 as appropriate.

(音声・映像分離モジュール)
音声・映像分離モジュール21は、CPU7に、ストリームデータを音声ストリームデータと映像ストリームデータとに分けさせるためのモジュールである。
(Audio / video separation module)
The audio / video separation module 21 is a module for causing the CPU 7 to divide the stream data into audio stream data and video stream data.

(音声特性抽出モジュール)
音声特性分析モジュール22は、CPU7に、音声ストリームデータの音声特性を分析させるためのモジュールである。
(Voice characteristic extraction module)
The audio characteristic analysis module 22 is a module for causing the CPU 7 to analyze the audio characteristics of the audio stream data.

(映像選択モジュール)
映像選択モジュール23は、端末装置1(1a〜n)の音声特性の分析結果およびルールテーブル92(図2参照)に基づき、CPU7に、各端末装置1(1a〜n)へ送信すべき映像ストリームデータを選択させるモジュールである。
ここでルールテーブル92は、音声特性分析モジュール22の分析結果に対して、映像ストリーム合成モジュール24で選択すべき映像ストリームデータの情報を示したものである。例えば、ルールテーブル92に「最も音量の大きい端末装置から送信された映像ストリームデータを選択する」というルールが設定されていたとき、CPU7はこの分析結果に基づき、最も音量の大きい端末装置1はどれかを特定し、この端末装置1の識別情報等を含む映像ストリームデータの選択信号を出力する。
(Video selection module)
The video selection module 23 sends the video stream to be transmitted to each terminal device 1 (1a to n) to the CPU 7 based on the analysis result of the audio characteristics of the terminal device 1 (1a to n) and the rule table 92 (see FIG. 2). This module selects data.
Here, the rule table 92 indicates information of video stream data to be selected by the video stream synthesis module 24 with respect to the analysis result of the audio characteristic analysis module 22. For example, when the rule “select the video stream data transmitted from the terminal device with the highest volume” is set in the rule table 92, the CPU 7 determines which terminal device 1 has the highest volume based on the analysis result. And a selection signal of video stream data including identification information of the terminal device 1 is output.

(映像ストリーム合成モジュール)
映像ストリーム合成モジュール24は、CPU7に、映像選択モジュール23の選択信号(選択結果)に基づき、端末装置1(1a〜n)から受信した映像ストリームデータのうち、端末装置1(1a〜n)へ送信する映像ストリームデータを選択させるためのモジュールである
(Video stream composition module)
The video stream synthesis module 24 sends the CPU 7 to the terminal device 1 (1a to n) out of the video stream data received from the terminal device 1 (1a to n) based on the selection signal (selection result) of the video selection module 23. This is a module for selecting video stream data to be transmitted.

(音声ストリーム合成モジュール)
音声ストリーム合成モジュール25は、CPU7に、音声・映像分離モジュール21で分離された各端末装置1(1a〜n)の音声ストリームデータについて音声の重ね合わせ等の処理をして、音声ストリームデータの合成を行わせるモジュールである。
(Audio stream synthesis module)
The audio stream synthesis module 25 performs processing such as audio superposition on the audio stream data of each terminal device 1 (1a to n) separated by the audio / video separation module 21 to the CPU 7 to synthesize the audio stream data. It is a module that performs

(音声・映像フレーム作成モジュール)
音声・映像フレーム作成モジュール26は、CPU7に、音声ストリーム合成モジュール25で合成された音声ストリームデータと、映像ストリーム合成モジュール24で選択された映像ストリームデータとを合わせた音声映像フレームを作成させるモジュールである。
(Audio / video frame creation module)
The audio / video frame creation module 26 is a module that causes the CPU 7 to create an audio / video frame that combines the audio stream data synthesized by the audio stream synthesis module 25 and the video stream data selected by the video stream synthesis module 24. is there.

(形成モジュール)
形成モジュール27は、CPU7に、音声・映像フレームからパケットやATM(Asynchronous Transfer Mode)セル、すなわち端末装置1(1a〜n)へ送信する映像ストリームデータおよび音声ストリームデータ(配信用ストリームデータ)を作成(形成)させるモジュールである。
(Forming module)
The forming module 27 creates a video stream data and audio stream data (distribution stream data) to be transmitted from the audio / video frame to the packet or ATM (Asynchronous Transfer Mode) cell, that is, the terminal device 1 (1a to n). This is a module to be formed.

次に、図4を用いて、ストリームデータ配信用プログラム91の各構成モジュールの処理手順、具体的にはCPU7による各モジュールの実行処理を説明する(適宜図1〜図3参照)。
なお、ストリームデータ配信装置11は、端末装置1(1a〜n)とのストリームデータの送受信のため、予め端末装置1(1a〜n)との間で通信セッションを確立しているものとする。つまり、ストリームデータ配信装置11は、端末装置1(1a〜n)から、端末装置1(1a〜n)のIPアドレス等を受け取り、記憶部9等に記憶しているものとする。
また、端末装置1(1a〜n)から送信される音声ストリームデータおよび映像ストリームデータは、データのヘッダ情報にデータの種別(音声ストリームデータか映像ストリームデータか)や送信元の端末装置1(1a〜n)のIPアドレス等の識別情報を持っているものとする。
Next, a processing procedure of each component module of the stream data distribution program 91, specifically, an execution process of each module by the CPU 7 will be described with reference to FIG.
It is assumed that the stream data distribution device 11 has established a communication session with the terminal device 1 (1a to n) in advance for transmission and reception of stream data with the terminal device 1 (1a to n). That is, it is assumed that the stream data distribution device 11 receives the IP address of the terminal device 1 (1a to n) from the terminal device 1 (1a to n) and stores it in the storage unit 9 or the like.
Also, the audio stream data and video stream data transmitted from the terminal device 1 (1a to n) include the data type (audio stream data or video stream data) and the transmission source terminal device 1 (1a) in the header information of the data. ˜n) have identification information such as an IP address.

まず、図4の入力インターフェース20で、端末装置1(1a〜n)から送信された音声ストリームデータおよび映像ストリームデータ(音声・映像ストリーム50)の入力を受け付ける。そして、音声・映像ストリームデータ50を音声・映像ストリームデータ51に変換して、音声・映像分離モジュール21に出力する(ステップS301)。   First, the input interface 20 in FIG. 4 receives input of audio stream data and video stream data (audio / video stream 50) transmitted from the terminal device 1 (1a to n). Then, the audio / video stream data 50 is converted into audio / video stream data 51 and output to the audio / video separation module 21 (step S301).

音声・映像分離モジュール21で、入力インターフェース20から音声・映像ストリームデータ51を受け取ると、このデータのヘッダ情報を参照して、音声・映像ストリームデータ51を音声ストリーム52a〜nと、映像ストリーム55a〜nとに分ける(ステップS302)。そして、音声ストリーム52a〜nは音声特性分析モジュール22および音声ストリーム合成モジュール25へ出力し、映像ストリーム55a〜nは映像ストリーム合成モジュール24へ出力する。   When the audio / video separation module 21 receives the audio / video stream data 51 from the input interface 20, the audio / video stream data 51 is referred to the header information of the data, and the audio / video stream data 51 is converted into the audio streams 52a to 52n and the video streams 55a to 55a. n (step S302). The audio streams 52a to 52n are output to the audio characteristic analysis module 22 and the audio stream synthesis module 25, and the video streams 55a to 55n are output to the video stream synthesis module 24.

音声特性分析モジュール22で、音声・映像分離モジュール21から音声ストリーム52a〜nを受け取ると、これらの音声ストリームデータの特性を分析する(ステップS311)。そして、この分析結果を分析情報53として映像選択モジュール23に出力する。
なお、ここでの音声ストリーム52a〜nの特性の分析とは、例えば、音声ストリーム52a〜nそれぞれの音量(音圧レベル)の特性の分析であり、分析情報53は、音声ストリームデータ52〜nの送信元の端末装置1(1a〜n)の識別情報ごとに、端末装置1(1a〜n)の音量を示したものが考えられる。
When the audio characteristic analysis module 22 receives the audio streams 52a to 52n from the audio / video separation module 21, the characteristics of these audio stream data are analyzed (step S311). Then, the analysis result is output as analysis information 53 to the video selection module 23.
Here, the analysis of the characteristics of the audio streams 52a to 52n is, for example, the analysis of the characteristics of the volume (sound pressure level) of each of the audio streams 52a to 52n, and the analysis information 53 includes the audio stream data 52 to n. For each piece of identification information of the terminal device 1 (1a to n) of the transmission source, a device that indicates the volume of the terminal device 1 (1a to n) can be considered.

映像選択モジュール23で、音声特性分析モジュール22から分析情報53を受け取ると、映像ストリームデータの選択信号を出力する。すなわち、分析情報53およびルールテーブル92を参照して、どの端末装置1(1a〜n)の映像ストリームデータを送信するかを選択する。そして、この選択結果を映像選択信号54として、映像ストリーム合成モジュール24に出力する(ステップS312)。   When the video selection module 23 receives the analysis information 53 from the audio characteristic analysis module 22, it outputs a selection signal for video stream data. That is, referring to the analysis information 53 and the rule table 92, it is selected which terminal device 1 (1a to n) to transmit the video stream data. Then, the selection result is output as the video selection signal 54 to the video stream synthesis module 24 (step S312).

例えば、前記したステップS312において、ルールテーブル92に最も音量の大きい参加者の映像を選択する旨のルールが設定されていたときには、分析情報53に基づき、最も音量が大きい音声ストリームデータを送信してきた端末装置1(1a〜n)を特定し、この端末装置1(1a〜n)の識別情報(IPアドレス等)を含む映像選択信号54を作成する。そして、この信号を映像ストリーム合成モジュール24に出力する。   For example, when the rule for selecting the video of the participant with the highest volume is set in the rule table 92 in step S312, the audio stream data with the highest volume has been transmitted based on the analysis information 53. The terminal device 1 (1a to n) is specified, and a video selection signal 54 including identification information (IP address or the like) of the terminal device 1 (1a to n) is created. Then, this signal is output to the video stream synthesis module 24.

映像ストリーム合成モジュール24で、映像選択モジュール23から映像選択信号54を受け取り、音声・映像分離モジュール21から映像ストリーム55a〜nを受け取ると、映像ストリームデータの選択処理を行う。そして、この選択結果に基づき、映像ストリーム56を作成する(ステップS313)。すなわち、映像選択信号54に含まれる端末装置1(1a〜n)の識別情報等に基づき、映像ストリーム55a〜nの中から、端末装置1(1a〜n)へ送信する映像ストリームデータを選択し、映像ストリーム56を作成する。   When the video stream synthesis module 24 receives the video selection signal 54 from the video selection module 23 and receives the video streams 55a to 55n from the audio / video separation module 21, the video stream data is selected. Based on the selection result, a video stream 56 is created (step S313). That is, based on the identification information of the terminal device 1 (1a to n) included in the video selection signal 54, the video stream data to be transmitted to the terminal device 1 (1a to n) is selected from the video streams 55a to 55n. A video stream 56 is created.

例えば、前記したステップS313において、映像選択信号54に端末装置1aのIPアドレスが含まれていたとき、映像ストリーム合成モジュール24で、端末装置1aからの映像ストリーム55aを選択する。そして、映像ストリーム55aに基づいて映像ストリーム56を作成し、このデータを音声・映像フレーム作成モジュール26に出力する。   For example, when the IP address of the terminal device 1a is included in the video selection signal 54 in step S313 described above, the video stream synthesis module 24 selects the video stream 55a from the terminal device 1a. Then, a video stream 56 is created based on the video stream 55 a, and this data is output to the audio / video frame creation module 26.

一方、音声ストリーム合成モジュール25で、ステップS302において音声・映像分離モジュール21から出力された音声ストリーム52a〜nを受け取ると、音声ストリーム52a〜nの合成処理を行い、音声ストリーム57を作成する(ステップS321)。そして、この音声ストリーム57を、音声・映像フレーム作成モジュール26に出力する。   On the other hand, when the audio stream synthesizing module 25 receives the audio streams 52a to 52n output from the audio / video separating module 21 in step S302, the audio stream 52a to n is synthesized to generate an audio stream 57 (step S302). S321). The audio stream 57 is output to the audio / video frame creation module 26.

音声・映像フレーム作成モジュール26で、映像ストリーム合成モジュール24から映像ストリーム56を受け取り、音声ストリーム合成モジュール25から音声ストリーム57を受け取ると、映像ストリーム56と音声ストリーム57とを合成した音声・映像フレーム58を作成する(ステップS331)。そして、この音声・映像フレーム58を形成モジュール27に出力する。   When the audio / video frame creation module 26 receives the video stream 56 from the video stream synthesis module 24 and receives the audio stream 57 from the audio stream synthesis module 25, the audio / video frame 58 is obtained by synthesizing the video stream 56 and the audio stream 57. Is created (step S331). The audio / video frame 58 is output to the forming module 27.

形成モジュール27で、音声・映像フレーム58を受け取ると、このフレームから音声・映像ストリーム62(例えば、パケットやATMセル等の配信用ストリームデータ)を作成する(ステップS332)。そして、この音声・映像ストリーム62を出力インターフェース28に出力する。   When the forming module 27 receives the audio / video frame 58, the audio / video stream 62 (for example, stream data for distribution such as a packet or ATM cell) is created from the frame (step S332). The audio / video stream 62 is output to the output interface 28.

そして、出力インターフェース28で、音声・映像ストリーム62を受け取ると、音声・映像ストリーム62から音声・映像ストリーム60に作成する(ステップS341)。そして、このデータを端末装置1(1a〜n)へ送信する。   When the audio / video stream 62 is received by the output interface 28, the audio / video stream 62 is created from the audio / video stream 62 into the audio / video stream 60 (step S341). And this data is transmitted to the terminal device 1 (1a-n).

このようにして、ストリームデータ配信用プログラム91は、各端末装置1(1a〜n)からの音声ストリームデータの音量等に応じて、各端末装置1(1a〜n)へ送信する映像ストリームデータを選択し、送信する。
すなわち、例えば、端末装置1a(参加者A)からの音声ストリームデータの音量が最大であった場合には、ストリームデータ配信装置11は端末装置1(1a〜n)それぞれに端末装置1aの映像ストリームデータ(参加者Aの映像)を送信する。
In this way, the stream data distribution program 91 transmits video stream data to be transmitted to each terminal device 1 (1a to n) according to the volume of the audio stream data from each terminal device 1 (1a to n). Select and send.
That is, for example, when the volume of the audio stream data from the terminal device 1a (participant A) is the maximum, the stream data distribution device 11 sends the video stream of the terminal device 1a to each of the terminal devices 1 (1a to n). Data (participant A's video) is transmitted.

なお、ストリームデータ配信用プログラム91の構成は、前記した構成に限定されない。
図5は、図2のストリームデータ配信用プログラムの構成を示したブロック図である。図6は、図5のストリームデータ配信用プログラムの処理手順を説明するために引用した図である。前記の構成と同様の構成要素は同じ符号を付して、説明を省略する。
例えば、図5に示すように、ストリームデータ配信用プログラム91は、図3の音声ストリーム合成モジュール25と音声・映像フレーム作成モジュール26の代わりに、音声ストリームデータおよび映像ストリームデータの多重化処理を行う多重化モジュール29を備えるようにしてもよい。
The configuration of the stream data distribution program 91 is not limited to the configuration described above.
FIG. 5 is a block diagram showing the configuration of the stream data distribution program of FIG. FIG. 6 is a diagram cited for explaining the processing procedure of the stream data distribution program of FIG. Constituent elements similar to those in the above-described configuration are denoted by the same reference numerals, and description thereof is omitted.
For example, as shown in FIG. 5, the stream data distribution program 91 performs multiplexing processing of audio stream data and video stream data instead of the audio stream synthesis module 25 and the audio / video frame creation module 26 of FIG. A multiplexing module 29 may be provided.

すなわち、図3のストリームデータ配信用プログラム91の構成では、図4に示すように音声・映像フレーム作成モジュール26で映像ストリーム56と音声ストリーム57とを合成してから、配信用データへ変換するようにしたが、図6に示すように、映像ストリーム合成モジュール24から出力された映像ストリーム56は、形成モジュール271で映像ストリーム59とし、音声ストリーム57は形成モジュール272で音声ストリーム61とする。そして、映像ストリーム59と音声ストリーム61とを多重化モジュール29で多重化して、出力インターフェース28に出力するようにしてもよい。   That is, in the configuration of the stream data distribution program 91 in FIG. 3, the audio / video frame creation module 26 combines the video stream 56 and the audio stream 57 as shown in FIG. However, as shown in FIG. 6, the video stream 56 output from the video stream synthesizing module 24 is set as a video stream 59 by the forming module 271, and the audio stream 57 is set as an audio stream 61 by the forming module 272. Then, the video stream 59 and the audio stream 61 may be multiplexed by the multiplexing module 29 and output to the output interface 28.

《特徴的構成》
次に、本実施の形態のストリームデータ配信装置11の特徴的構成について説明する。前記した構成と同様の構成要素は同じ符号を付して、説明を省略する。
<Characteristic composition>
Next, a characteristic configuration of the stream data distribution apparatus 11 according to the present embodiment will be described. The same components as those described above are denoted by the same reference numerals, and the description thereof is omitted.

図7は、本実施の形態のストリームデータ配信装置の構成を示すブロック図である。図8は、図7のストリームデータ配信用プログラムの構成を示すブロック図である。   FIG. 7 is a block diagram showing a configuration of the stream data distribution apparatus according to the present embodiment. FIG. 8 is a block diagram showing the configuration of the stream data distribution program of FIG.

図7に示すように、ストリームデータ配信装置11は記憶部9に映像ストリームデータの選択が行われた選択時刻を記憶する選択時刻記憶部93をさらに備える。選択時刻記憶部93の詳細は後記する。   As illustrated in FIG. 7, the stream data distribution device 11 further includes a selection time storage unit 93 that stores a selection time when the video stream data is selected in the storage unit 9. Details of the selection time storage unit 93 will be described later.

また、図7のルールテーブル92は、各端末装置1(1a〜n)の識別情報(IPアドレス等)ごとに音声特性分析モジュール22の分析結果に対して、選択すべき映像ストリームデータの情報を記憶している。   Further, the rule table 92 in FIG. 7 includes information on video stream data to be selected with respect to the analysis result of the audio characteristic analysis module 22 for each identification information (IP address or the like) of each terminal device 1 (1a to n). I remember it.

さらに、図8に示すように、ストリームデータ配信用プログラム91は、映像選択モジュール230を備えている。
この映像選択モジュール230は、前記したルールテーブル92および音声特性分析モジュール22の分析結果を参照して、端末装置1(1a〜n)ごとに映像ストリームデータを選択するモジュールである。
Further, as shown in FIG. 8, the stream data distribution program 91 includes a video selection module 230.
The video selection module 230 is a module that selects video stream data for each terminal device 1 (1a to 1n) with reference to the analysis results of the rule table 92 and the audio characteristic analysis module 22.

以上のような構成により、ストリームデータ配信装置11は、ルールテーブル92の端末装置1(1a〜n)ごとに設定されたルールに従って、映像ストリームデータを選択することができる。
次に、本実施の形態の特徴的構成について詳細に説明する。
With the above configuration, the stream data distribution device 11 can select video stream data according to the rules set for each terminal device 1 (1a to n) in the rule table 92.
Next, the characteristic configuration of the present embodiment will be described in detail.

(ルールテーブル)
以下の表1にルールテーブル92を例示する。表1に例示されるようにルールテーブル92は、端末装置1(1a〜n)の識別情報(IPアドレス等)と、各端末装置1(1a〜n)に設定されるルール(設定ルール)とが記憶される。
このルールテーブル92は、表1に例示されるように、端末装置1(1a〜n)の名前や、端末装置1(1a〜n)の利用者名(参加者名)の情報を含んでいてもよい。
(Rule table)
Table 1 below illustrates the rule table 92. As illustrated in Table 1, the rule table 92 includes identification information (such as an IP address) of the terminal device 1 (1a to n) and rules (setting rules) set for each terminal device 1 (1a to n). Is memorized.
As illustrated in Table 1, the rule table 92 includes information on the name of the terminal device 1 (1a to n) and the user name (participant name) of the terminal device 1 (1a to n). Also good.

Figure 2005311916
Figure 2005311916

例えば、表1のルールテーブル92のNo.1の情報は、IPアドレス「aaa.aaa.aaa.aaa」の端末装置1aの利用者は「A」という参加者であり、この端末装置1aに設定されるルールは、「自分の端末装置以外の音声ストリームデータの音量が最大の端末装置の参加者を選択(自分の端末装置へ送信する映像ストリームデータは、自分の端末装置以外の端末装置のうち、その音声ストリームデータの音量が最大の端末装置の映像ストリームデータを選択すべき)」というルールであることを示している。なお、このルールテーブル92には、「参加者A,B,C,Dに固定(自分の端末装置へ送信する映像ストリームデータは、端末装置1a〜dからのもののみ)」というルールを設定してもよい。   For example, in the information of No. 1 in the rule table 92 of Table 1, the user of the terminal device 1a with the IP address “aaa.aaa.aaa.aaa” is the participant “A” and is set in this terminal device 1a. The rule is to select “participant of the terminal device with the maximum volume of the audio stream data other than the terminal device (the video stream data to be transmitted to the terminal device is the terminal device other than the terminal device) , The video stream data of the terminal device with the maximum volume of the audio stream data should be selected). The rule table 92 is set with a rule “fixed to participants A, B, C, and D (the video stream data transmitted to the terminal device is only from the terminal devices 1a to d)”. May be.

なお、このルールテーブル92の内容は、端末装置1(1a〜n)およびネットワーク5経由で書き換え可能である。
すなわち、参加者が端末装置1(1a〜n)の入力手段等から設定ルールの設定情報を入力し、ストリームデータ配信装置11がこれを受け付け、ルールテーブル92を書き換えるようにしてもよい。
なお、このルールテーブル92の書き換えは、ストリームデータ配信装置11が端末装置1(1a〜n)へストリームデータの送信を開始する前でもあってもよいし、開始した後であってもよい。このようにすることで、例えば、参加者A〜Dは、端末装置1(1a〜d)を用いてビデオ会議等を開始する前にルールの設定をしておき、会議の様子をみて途中で設定ルールの変更をすることも可能になる。
このルールテーブル92を参照した映像選択モジュール230の映像ストリームデータの選択処理の詳細は後記する。
The contents of the rule table 92 can be rewritten via the terminal device 1 (1a to n) and the network 5.
That is, the participant may input the setting information of the setting rule from the input unit or the like of the terminal device 1 (1a to n), and the stream data distribution device 11 may accept this and rewrite the rule table 92.
The rule table 92 may be rewritten before or after the stream data distribution apparatus 11 starts transmitting stream data to the terminal apparatus 1 (1a to n). By doing in this way, for example, participants A to D set rules before starting a video conference or the like using the terminal device 1 (1a to d), and in the middle of watching the state of the conference It is also possible to change the setting rule.
Details of the video stream data selection processing of the video selection module 230 with reference to the rule table 92 will be described later.

(選択時刻記憶部)
選択時刻記憶部93は、映像選択モジュール230により映像ストリームデータの選択が行われた選択時刻を記憶する。そして、CPU7は映像選択モジュール230に基づき、前回の映像ストリームデータの選択時刻から所定時間(例えば、1分間)経過後に、新たな映像ストリームデータを選択するようにする。ここで所定時間が経過したか否かは、ストリームデータ配信装置11内のタイマ(図示せず)等を参照するものとする。
このようにすることで、例えば、本システムの参加者A〜Dが短時間の間に次々に発言したときに、これに応じて端末装置1(1a〜d)に対して選択(送信)される映像ストリームデータも次々に変わってしまうのを防止できる。つまり、端末装置1(1a〜d)のモニタ等から参加者A〜Dの映像が一瞬で消えてしまうのを防止できる。
(Selected time memory)
The selection time storage unit 93 stores the selection time at which video stream data was selected by the video selection module 230. Then, based on the video selection module 230, the CPU 7 selects new video stream data after a predetermined time (for example, 1 minute) has elapsed since the previous video stream data selection time. Here, whether or not a predetermined time has passed refers to a timer (not shown) in the stream data distribution apparatus 11 or the like.
In this way, for example, when the participants A to D of this system speak one after another in a short time, they are selected (transmitted) to the terminal device 1 (1a to d) accordingly. The video stream data can be prevented from changing one after another. That is, it is possible to prevent the images of the participants A to D from disappearing in an instant from the monitor or the like of the terminal device 1 (1a to d).

次に、図9を用いて、前記した構成に基づくストリームデータ配信用プログラム91の処理手順、具体的にはCPU7による各モジュールの実行処理を説明する(適宜図1〜図8参照)。図9は、図8のストリームデータ配信用プログラムの処理手順を説明するために引用した図である。前記した構成と同様の構成要素は同じ符号を付して、説明を省略する。
なお、図9の映像選択モジュール230a〜n、映像ストリーム合成モジュール24a〜n、映像ストリーム選択モジュール30a〜n、音声・映像フレーム作成モジュール26a〜nおよび形成モジュール27a〜nはそれぞれ、映像選択モジュール230、映像ストリーム合成モジュール24、映像ストリーム選択モジュール30、音声・映像フレーム作成モジュール26および形成モジュール27の端末装置1a〜nに対する処理を示すものとする。
Next, a processing procedure of the stream data distribution program 91 based on the above-described configuration, specifically, an execution process of each module by the CPU 7 will be described with reference to FIG. 9 (see FIGS. 1 to 8 as appropriate). FIG. 9 is a diagram cited for explaining the processing procedure of the stream data distribution program of FIG. The same components as those described above are denoted by the same reference numerals, and the description thereof is omitted.
The video selection modules 230a to n, video stream synthesis modules 24a to n, video stream selection modules 30a to n, audio / video frame creation modules 26a to n, and formation modules 27a to n in FIG. The processing of the video stream synthesis module 24, the video stream selection module 30, the audio / video frame creation module 26, and the formation module 27 with respect to the terminal devices 1a to n will be described.

ここでは、ストリームデータ配信装置11が端末装置1a(参加者A)への映像ストリームデータを選択する処理を例に説明する。
なお、図9におけるステップS901〜ステップS911までの処理は、図4のステップS301〜ステップS311までの処理と同様であるので説明を省略し、図9のステップS912a(映像選択モジュール230a)の処理から説明する。
Here, a process in which the stream data distribution device 11 selects video stream data for the terminal device 1a (participant A) will be described as an example.
Note that the processing from step S901 to step S911 in FIG. 9 is the same as the processing from step S301 to step S311 in FIG. 4, and thus the description thereof will be omitted, and the processing from step S912a (video selection module 230a) in FIG. explain.

まず、映像選択モジュール230aでステップS911において音声特性分析モジュール22から出力された分析情報53を受け取ると、端末装置1aへ送信する映像ストリームデータの選択を行う(ステップS912a)。具体的には、映像選択モジュール230aで、分析情報53およびルールテーブル92の端末装置1aの設定ルールに基づき、端末装置1aへ送信する映像ストリームデータの選択を行う。そして、この情報を映像選択信号54aとして映像ストリーム合成モジュール24aに出力する。   First, when the video selection module 230a receives the analysis information 53 output from the audio characteristic analysis module 22 in step S911, video stream data to be transmitted to the terminal device 1a is selected (step S912a). Specifically, the video selection module 230a selects video stream data to be transmitted to the terminal device 1a based on the analysis information 53 and the setting rules of the terminal device 1a in the rule table 92. Then, this information is output to the video stream synthesis module 24a as a video selection signal 54a.

なお、映像ストリームデータの選択処理を行うタイミングは、前回の映像ストリームデータの選択時刻から所定時間経過したときとする。つまり、映像選択モジュール230aで、選択時刻記憶部93に記録された前回の映像ストリームデータの選択時刻を参照し、前回の選択時刻から所定時間経過していると判断したときは、映像ストリームデータの選択を行うが、まだ所定時間経過していないと判断したときには、映像ストリームデータの選択は行わない。そして、映像選択モジュール230aで映像ストリームデータの選択を行ったときには、その選択時刻を選択時刻記憶部93に記録する。
このようにすることで、例えば、参加者A〜Dが短時間の間に次々に発言したときに、これに応じて端末装置1(1a〜d)に対して選択(送信)される映像ストリームデータも次々に変わってしまうのを防止できる。
Note that the video stream data selection process is performed when a predetermined time elapses from the previous video stream data selection time. That is, when the video selection module 230a refers to the selection time of the previous video stream data recorded in the selection time storage unit 93 and determines that a predetermined time has elapsed from the previous selection time, When it is determined that the predetermined time has not yet elapsed, the video stream data is not selected. When the video stream data is selected by the video selection module 230 a, the selection time is recorded in the selection time storage unit 93.
In this way, for example, when the participants A to D speak one after another in a short time, a video stream that is selected (transmitted) to the terminal device 1 (1a to d) according to this Data can be prevented from changing one after another.

次に、映像ストリーム合成モジュール24aで、端末装置1aへ送信すべき映像ストリームデータを選択する(ステップS913a)。すなわち、映像ストリーム合成モジュール24aで、映像選択モジュール230aからの映像選択信号54aに基づき、音声・映像分離モジュール21から受け取った映像ストリーム55a〜nの中から、端末装置1aへ送信すべき映像ストリーム56aを選択する。そして、この選択結果(映像ストリーム56a)を音声・映像フレーム作成モジュール26aに出力する。   Next, the video stream synthesis module 24a selects video stream data to be transmitted to the terminal device 1a (step S913a). That is, in the video stream synthesis module 24a, the video stream 56a to be transmitted to the terminal device 1a from the video streams 55a to 55n received from the audio / video separation module 21 based on the video selection signal 54a from the video selection module 230a. Select. Then, the selection result (video stream 56a) is output to the audio / video frame creation module 26a.

音声・映像フレーム作成モジュール26aで、映像ストリーム合成モジュール24aから受け取った映像ストリーム56aと、音声ストリーム合成モジュール25から受け取った音声ストリーム57とを合成して音声・映像フレーム58aを作成する(ステップS931a)。そして、このフレームを形成モジュール27aに出力する。   The audio / video frame creation module 26a synthesizes the video stream 56a received from the video stream synthesis module 24a and the audio stream 57 received from the audio stream synthesis module 25 to create an audio / video frame 58a (step S931a). . Then, this frame is output to the forming module 27a.

次に、形成モジュール27aで、音声・映像フレーム58aを受け取ると、これをATMセル等に変換する処理を行い、音声・映像ストリーム63aを作成する(ステップS932a)。そして、この音声・映像ストリーム63aを多重化モジュール29に出力する。   Next, when the forming module 27a receives the audio / video frame 58a, it converts it into an ATM cell or the like to create an audio / video stream 63a (step S932a). The audio / video stream 63a is output to the multiplexing module 29.

多重化モジュール29で、音声・映像ストリーム63a〜nを受け取るとこれらのデータの多重化処理を行う(ステップS933)。すなわち、端末装置1a〜nの音声・映像ストリーム63a〜nから、これらを多重化した音声・映像ストリーム62を作成し、出力インターフェース28に出力する。そして、出力インターフェース28で音声・映像ストリーム62を受け取ると、これを音声・映像ストリーム60に変換し(ステップS941)、ネットワーク5経由で端末装置1(1a〜n)へ送信する。
なお、図9のステップS921は、図4のステップS321の処理と同様であるので説明を省略する。
この後、端末装置1(1a〜n)はネットワーク5経由で、ストリームデータ配信装置11から映像ストリームデータおよび音声ストリームデータを受信する。そして、端末装置1(1a〜n)の表示手段に参加者の映像を表示させ、音声出力手段に参加者の音声を出力させて、ビデオ会議等を行う。
When the multiplexing module 29 receives the audio / video streams 63a to 63n, these data are multiplexed (step S933). That is, an audio / video stream 62 obtained by multiplexing the audio / video streams 63a-n of the terminal devices 1a-n is created and output to the output interface 28. When the audio / video stream 62 is received by the output interface 28, the audio / video stream 62 is converted into the audio / video stream 60 (step S 941) and transmitted to the terminal device 1 (1 a to n) via the network 5.
Note that step S921 in FIG. 9 is the same as the process in step S321 in FIG.
Thereafter, the terminal device 1 (1a to n) receives the video stream data and the audio stream data from the stream data distribution device 11 via the network 5. Then, the video of the participant is displayed on the display unit of the terminal device 1 (1a to n), and the voice of the participant is output to the audio output unit to perform a video conference or the like.

ちなみに、参加者A〜Dの端末装置1a〜dについて、前記した表1に例示するようなルールを設定し、端末装置1a(参加者A)の音量が最も大きく、端末装置1b(参加者B)の音量が二番目に大きかったとき、ストリームデータ配信装置11により選択される映像ストリームデータは、以下の表2のようになる。   Incidentally, for the terminal devices 1a to d of the participants A to D, a rule as exemplified in the above-described Table 1 is set, and the volume of the terminal device 1a (participant A) is the largest, and the terminal device 1b (participant B) ) Is the second largest volume, the video stream data selected by the stream data distribution device 11 is as shown in Table 2 below.

Figure 2005311916
Figure 2005311916

表2に示すように、ストリームデータ配信装置11は、端末装置1a(参加者A、音量が最大)に対しては、端末装置1b(参加者B、音量が二番目に大きい)から送信された映像ストリームデータを選択し、端末装置1b〜d(参加者C、音量が最大ではない)に対しては、端末装置1a(参加者A)から送信された映像ストリームデータを選択する。   As shown in Table 2, the stream data distribution device 11 is transmitted from the terminal device 1b (participant B, volume second highest) to the terminal device 1a (participant A, volume is maximum). The video stream data is selected, and the video stream data transmitted from the terminal device 1a (participant A) is selected for the terminal devices 1b to d (participant C, volume is not maximum).

つまり、前記した基本的構成では、ストリームデータ配信装置11が端末装置1(1a〜n)に対し個別に映像ストリームデータを選択するものではないので、各参加者に一律同じ映像ストリームデータが送信されるところ、前記した特徴的構成によれば、参加者A〜Dがそれぞれルールテーブル92に自分が要求する映像ストリームデータの選択方法(設定ルール)を設定することで、参加者A〜Dはそれぞれの要求に応じた映像ストリームデータが配信されることになる。
したがって、例えば、本システムにおいて参加者Aが、自分と議論している相手の映像を見ながら議論したいときには、ルールテーブル92の端末装置1aのルールとして、自分の端末装置1a以外の端末装置で音量が最大の映像ストリームデータを選択する旨を設定すればよい。
このようにすることで、参加者A(自分)の声が最も大きければ、端末装置1aに二番目に大きい声の参加者(議論の相手)の映像が表示され、自分の声が二番目に大きければ最も声の大きい参加者の映像が表示されるようになる。つまり、参加者Aは、議論の相手の映像を見ながら議論することができるようになる。
That is, in the basic configuration described above, since the stream data distribution device 11 does not individually select the video stream data for the terminal device 1 (1a to n), the same video stream data is uniformly transmitted to each participant. However, according to the characteristic configuration described above, each of the participants A to D sets the selection method (setting rule) of the video stream data requested by the participant A to D in the rule table 92. The video stream data corresponding to the request is distributed.
Therefore, for example, when the participant A wants to discuss while watching the video of the other party discussing with himself / herself in this system, the volume of the terminal device 1a in the rule table 92 is set as the volume at the terminal device other than his / her terminal device 1a. May be set to select the video stream data with the largest.
By doing so, if the voice of the participant A (self) is the loudest, the video of the second loudest participant (discussion partner) is displayed on the terminal device 1a, and his voice is second. If it is larger, the video of the participant with the loudest voice will be displayed. That is, the participant A can discuss while viewing the video of the other party.

また、ルールテーブル92に記述される設定ルールは、前記した例に限定されない。
例えば、設定ルールとして、「自分の端末装置へ送信する映像ストリームデータは、自分の端末装置以外の端末装置のうち、その音声ストリームデータの音量が所定の閾値を新たに超えた端末装置から送信された映像ストリームデータを選択する」というルールを設定してもよい。
すなわち、例えば、参加者Aが発言しているときに、参加者Bが異議を挟んだとき(所定閾値以上の音量で発言したとき)に、端末装置1に参加者Bの映像を送信するルールを設定するようにしてもよい。
ここで、ルールテーブル92の端末装置1(1a〜d)のルールとして前記したルールを設定し、参加者Aが所定の閾値以上の音量で発言中に、参加者Bが所定の閾値以上の音量で異議を挟んだとき、端末装置1(1a〜d)に対して送信される映像ストリームデータが、どのように変化するかを以下の表3を用いて説明する。
Further, the setting rules described in the rule table 92 are not limited to the above example.
For example, as a setting rule, “video stream data to be transmitted to one's own terminal device is transmitted from a terminal device whose volume of the audio stream data newly exceeds a predetermined threshold among terminal devices other than one's own terminal device. A rule of “selecting selected video stream data” may be set.
That is, for example, when participant A is speaking, when participant B holds an objection (when speaking at a volume equal to or higher than a predetermined threshold), a rule for transmitting the video of participant B to terminal device 1 May be set.
Here, the above-described rule is set as the rule of the terminal device 1 (1a to d) in the rule table 92, and the volume of the participant B is equal to or higher than the predetermined threshold while the participant A is speaking at a volume higher than the predetermined threshold. How the video stream data transmitted to the terminal device 1 (1a to 1d) changes when the objection is caught will be described with reference to Table 3 below.

Figure 2005311916
Figure 2005311916

すなわち、表3に示すように、ストリームデータ配信装置11は端末装置1a(参加者A)に対して、端末装置1a(参加者A)以外の映像ストリームデータを送信し、端末装置1(1b〜d)に対して、端末装置1a(参加者A)の映像ストリームを送信していたところ、参加者Bが異議を挟んだことで、端末装置1a(参加者A)、端末装置1c(参加者C)、端末装置1d(参加者D)に対して端末装置1b(参加者B)の映像ストリームデータを選択(送信)するようになる。したがって、参加者A、参加者C、参加者Dは、参加者Bの映像を見て、異議を挟んだのは参加者Bであることを知ることができる。
なお、ここで、端末装置1bに送信される映像ストリームデータは、端末装置1a(参加者A)のデータままとなる。
That is, as shown in Table 3, the stream data distribution device 11 transmits video stream data other than the terminal device 1a (participant A) to the terminal device 1a (participant A), and the terminal device 1 (1b to 1b). d) When the video stream of the terminal device 1a (participant A) was transmitted, the participant B got an objection, so that the terminal device 1a (participant A) and the terminal device 1c (participant) C) The video stream data of the terminal device 1b (participant B) is selected (transmitted) to the terminal device 1d (participant D). Accordingly, the participant A, the participant C, and the participant D can see that the participant B is in the objection by watching the video of the participant B.
Here, the video stream data transmitted to the terminal device 1b remains the data of the terminal device 1a (participant A).

また、ルールテーブル92の端末装置1(1a〜n)の設定ルールとして複数のルールを設定するとき、ルールテーブル92は各ルールの適用の優先順位の情報を含んでいてもよい。   Further, when a plurality of rules are set as the setting rules of the terminal device 1 (1a to n) in the rule table 92, the rule table 92 may include information on the priority of application of each rule.

例えば、端末装置1aに対して(1)自分の端末装置へ送信する映像ストリームデータは、自分の端末装置以外の端末装置のうち、その音声ストリームデータの音量が最大の端末装置の映像ストリームデータを選択するルールと、(2)自分の端末装置へ送信する映像ストリームデータは、自分の端末装置以外の端末装置のうち、その音声ストリームデータの音量が所定の閾値(例えば、60dB)を新たに超えた端末装置から送信された映像ストリームデータを選択する、という2つルールを設定するとき、(2)のルールを(1)のルールよりも優先的に適用する設定情報を含めるようにしてもよい。   For example, the video stream data transmitted to the terminal device 1a to the terminal device 1a is the video stream data of the terminal device having the maximum volume of the audio stream data among the terminal devices other than the terminal device. The rule to be selected and (2) the video stream data to be transmitted to the own terminal device, the volume of the audio stream data among terminal devices other than the own terminal device newly exceeds a predetermined threshold (for example, 60 dB) When setting two rules for selecting video stream data transmitted from a terminal device, setting information for applying the rule (2) with priority over the rule (1) may be included. .

このようにすることで、例えば、参加者A(端末装置1a、音量最大)と参加者B(端末装置1b、音量二番目)とが議論している間に、参加者C(端末装置1c、音量三番目、音量60dB以上)が異議を挟んだときには、(2)のルールを適用するので、端末装置1a(参加者A)には端末装置1c(参加者C)の映像ストリームデータが送信されることになる。
また、(1)のルールを(2)のルールよりも優先的に適用する設定をしたときには、端末装置1a(参加者A)へは端末装置1b(参加者B)の映像ストリームデータが送信されることになる。
In this way, for example, while participant A (terminal device 1a, volume maximum) and participant B (terminal device 1b, volume second) are discussing, participant C (terminal device 1c, Since the rule (2) is applied when the object (3rd volume, volume 60 dB or more) is in dispute, the video stream data of the terminal device 1c (participant C) is transmitted to the terminal device 1a (participant A). Will be.
Further, when the setting of applying the rule (1) with priority over the rule (2) is performed, the video stream data of the terminal device 1b (participant B) is transmitted to the terminal device 1a (participant A). Will be.

なお、図8のストリームデータ配信用プログラム91の構成では、図9に示すように多重化モジュール29で音声・映像ストリーム63a〜nの多重化処理を行うようにしたが、図11に示すように、多重化モジュール29で映像ストリーム59a〜nと音声ストリーム61との多重化処理を行うようにしてもよい。具体的には、図10に示すようにストリームデータ配信用プログラム91は、図8の音声ストリーム合成モジュール25および音声・映像フレーム作成モジュール26を含まない構成としてもよい。   In the configuration of the stream data distribution program 91 in FIG. 8, the multiplexing module 29 performs the multiplexing process of the audio / video streams 63a to 63n as shown in FIG. 9, but as shown in FIG. The multiplexing module 29 may perform the multiplexing process of the video streams 59a to 59n and the audio stream 61. Specifically, as shown in FIG. 10, the stream data distribution program 91 may be configured not to include the audio stream synthesis module 25 and the audio / video frame creation module 26 of FIG.

図10は、図7のストリームデータ配信用プログラムの構成を示すブロック図である。図11は、図10のストリームデータ配信用プログラムの処理手順を説明するために引用した図である。前記した構成と同じ構成要素は同じ符号を付して、説明を省略する。   FIG. 10 is a block diagram showing the configuration of the stream data distribution program of FIG. FIG. 11 is a diagram cited for explaining the processing procedure of the stream data distribution program of FIG. The same components as those described above are denoted by the same reference numerals and description thereof is omitted.

図11に示すように、図10のストリームデータ配信用プログラム91の処理手順は、形成モジュール271a〜nで端末装置1(1a〜n)へ送信する映像ストリーム59a〜nを作成し、多重化モジュール29へ出力する。そして、形成モジュール272で音声ストリーム61を多重化モジュール29へ出力する。そして多重化モジュール29で、映像ストリーム59a〜nと音声ストリーム61とを多重化して音声・映像ストリーム62を作成する。   As shown in FIG. 11, the processing procedure of the stream data distribution program 91 of FIG. 10 is to create video streams 59a-n to be transmitted to the terminal devices 1 (1a-n) by the forming modules 271a-n and to multiplex modules To 29. The forming module 272 outputs the audio stream 61 to the multiplexing module 29. The multiplexing module 29 multiplexes the video streams 59 a to 59 n and the audio stream 61 to create an audio / video stream 62.

本発明は、前記した実施の形態に限定されず、発明の趣旨を逸脱しない範囲で変形可能である。
例えば、本実施の形態ではストリームデータ配信装置11は、各端末装置1(1a〜n)の音声ストリームデータの音量等に基づいて映像ストリームデータを選択するようにしたが、音声ストリームデータの周波数等や、映像ストリームデータの特徴等や、映像ストリームデータの特徴と音声ストリームデータの特徴の組み合わせで選択するようにしてもよい。さらに、選択される対象は映像ストリームデータの他に、音声ストリームデータであってももちろんよい。
また、前記した実施の形態では、本システムをビデオ会議等に適用する場合を例に説明したが、メッセンジャー等によるコミュニケーションに適用してもよい。
The present invention is not limited to the embodiment described above, and can be modified without departing from the spirit of the invention.
For example, in the present embodiment, the stream data distribution device 11 selects the video stream data based on the volume of the audio stream data of each terminal device 1 (1a to 1n), but the frequency of the audio stream data, etc. Alternatively, the selection may be made based on the combination of the characteristics of the video stream data, the characteristics of the video stream data, and the characteristics of the audio stream data. Furthermore, the target to be selected may be audio stream data in addition to video stream data.
In the above-described embodiment, the case where the present system is applied to a video conference or the like has been described as an example. However, the present invention may be applied to communication using a messenger or the like.

なお、本発明の実施の形態に係る、ストリームデータ配信装置11および端末装置1(1a〜n)は、コンピュータおよびストリームデータ配信用プログラムによって実現することができ、このプログラムをコンピュータに読み取り可能な記憶媒体(CD−ROM等)に記憶し、その記憶媒体によって提供することも可能である。また、そのプログラムを、ネットワーク5を通して提供することも可能である。
ここでいうコンピュータシステムとは、OS(Operating System)等のソフトウェアや周辺機器等のハードウエアを含むものである。
The stream data distribution device 11 and the terminal device 1 (1a to 1n) according to the embodiment of the present invention can be realized by a computer and a stream data distribution program, and the program can be read by the computer. It is also possible to store in a medium (CD-ROM or the like) and provide by the storage medium. It is also possible to provide the program through the network 5.
The computer system here includes software such as an OS (Operating System) and hardware such as peripheral devices.

本発明の実施の形態のストリームデータ配信装置を含むストリームデータ配信システムの概要を示した図である。It is the figure which showed the outline | summary of the stream data delivery system containing the stream data delivery apparatus of embodiment of this invention. 図1のストリームデータ配信装置の構成を示すブロック図である。It is a block diagram which shows the structure of the stream data delivery apparatus of FIG. 図2のストリームデータ配信用プログラムの構成を示したブロック図である。FIG. 3 is a block diagram showing a configuration of a stream data distribution program of FIG. 2. 図3のストリームデータ配信用プログラムの処理手順を説明するために引用した図である。It is the figure quoted in order to demonstrate the process sequence of the program for stream data delivery of FIG. 図2のストリームデータ配信用プログラムの構成を示したブロック図である。FIG. 3 is a block diagram showing a configuration of a stream data distribution program of FIG. 2. 図5のストリームデータ配信用プログラムの処理手順を説明するために引用した図である。It is the figure quoted in order to demonstrate the process sequence of the program for stream data delivery of FIG. 本実施の形態のストリームデータ配信装置の構成を示すブロック図である。It is a block diagram which shows the structure of the stream data delivery apparatus of this Embodiment. 図7のストリームデータ配信用プログラムの構成を示すブロック図である。It is a block diagram which shows the structure of the stream data delivery program of FIG. 図8のストリームデータ配信用プログラムの処理手順を説明するために引用した図である。It is the figure quoted in order to demonstrate the process sequence of the program for stream data delivery of FIG. 図7のストリームデータ配信用プログラムの構成を示すブロック図である。It is a block diagram which shows the structure of the stream data delivery program of FIG. 図10のストリームデータ配信用プログラムの処理手順を説明するために引用した図である。It is the figure quoted in order to demonstrate the process sequence of the program for stream data delivery of FIG.

符号の説明Explanation of symbols

1(1a〜n) 端末装置
5 ネットワーク
7 CPU
8 メモリ
9 記憶部
11 ストリームデータ配信装置
20 入力インターフェース
21 音声・映像分離モジュール
22 音声特性分析モジュール(音声特性分析部)
23 映像選択モジュール
24(24a〜n) 映像ストリーム合成モジュール
25 音声ストリーム合成モジュール
26(26a〜n) 音声・映像フレーム作成モジュール(ストリームデータ作成部)
27(27a〜n) 形成モジュール(ストリームデータ作成部)
28 出力インターフェース
29 多重化モジュール(ストリームデータ作成部)
30(30a〜n) 映像ストリーム選択モジュール(映像ストリーム選択部)
91 ストリームデータ配信用プログラム
92 ルールテーブル
93 選択時刻記憶部
230(230a〜n) 映像選択モジュール
271(271a〜n) 形成モジュール(ストリームデータ作成部)
272 形成モジュール(ストリームデータ作成部)

1 (1a to n) terminal device 5 network 7 CPU
8 Memory 9 Storage Unit 11 Stream Data Distribution Device 20 Input Interface 21 Audio / Video Separation Module 22 Audio Characteristic Analysis Module (Audio Characteristic Analysis Unit)
23 Video selection module 24 (24a to n) Video stream synthesis module 25 Audio stream synthesis module 26 (26a to n) Audio / video frame creation module (stream data creation unit)
27 (27a to n) formation module (stream data creation unit)
28 Output Interface 29 Multiplexing Module (Stream Data Creation Unit)
30 (30a to n) video stream selection module (video stream selection unit)
91 Stream Data Distribution Program 92 Rule Table 93 Selection Time Storage Unit 230 (230a to n) Video Selection Module 271 (271a to n) Formation Module (Stream Data Creation Unit)
272 Formation module (stream data creation unit)

Claims (11)

ネットワーク経由で、各端末装置から各参加者の音声ストリームデータと映像ストリームデータとを受信し、前記音声ストリームデータに基づき、前記受信した映像ストリームデータのうち、前記各端末装置へ送信する映像ストリームデータを選択するストリームデータ配信装置であって、
前記各参加者の端末装置から送信された音声ストリームデータおよび映像ストリームデータの入力を受け付ける入力インターフェースと、
前記各参加者の端末装置から送信された音声ストリームデータの特性を分析する音声特性分析部と、
前記各参加者の端末装置の識別情報ごとに、前記分析結果に対して、選択すべき映像ストリームデータの情報を示したルールテーブルと、
前記分析結果および前記ルールテーブルを参照して、前記受信した映像ストリームデータのうち、前記各参加者の端末装置へ送信する映像ストリームデータを選択する映像ストリーム選択部と、
前記選択した映像ストリームデータと、前記各参加者の端末装置から受信した音声ストリームデータとに基づいて配信用ストリームデータを作成するストリームデータ作成部と、
前記作成した配信用ストリームデータを前記ネットワーク経由で、前記各参加者の端末装置へ出力する出力インターフェースと、
を備えることを特徴とするストリームデータ配信装置。
Video stream data to be transmitted to each terminal device out of the received video stream data based on the audio stream data, receiving audio stream data and video stream data of each participant from each terminal device via a network A stream data distribution device for selecting
An input interface for receiving input of audio stream data and video stream data transmitted from each participant's terminal device;
An audio characteristic analysis unit that analyzes the characteristics of the audio stream data transmitted from each participant's terminal device;
For each identification information of the terminal device of each participant, a rule table indicating information of video stream data to be selected for the analysis result;
With reference to the analysis result and the rule table, a video stream selection unit that selects video stream data to be transmitted to each participant's terminal device from among the received video stream data;
A stream data creation unit that creates stream data for distribution based on the selected video stream data and audio stream data received from the terminal device of each participant;
An output interface for outputting the created stream data for distribution to the terminal device of each participant via the network;
A stream data distribution apparatus comprising:
前記ルールテーブルは、書き換え可能な記憶媒体に記憶され、
前記ストリームデータ配信装置は、
前記ネットワーク経由で、前記各参加者の端末装置から、前記ルールテーブルの設定情報の入力を受け付けると、前記設定情報に基づき、前記ルールテーブルの設定ルールを書き換えるよう構成されていることを特徴とする請求項1に記載のストリームデータ配信装置。
The rule table is stored in a rewritable storage medium,
The stream data distribution device includes:
When the setting information of the rule table is received from the terminal device of each participant via the network, the setting rule of the rule table is rewritten based on the setting information. The stream data distribution apparatus according to claim 1.
前記音声特性分析部は、前記各参加者の端末装置から送信された音声ストリームデータの音量に関する特性を分析し、
前記ルールテーブルは、
前記各参加者の端末装置へ送信する映像ストリームデータの情報として、当該端末装置へ送信する映像ストリームデータは、当該端末装置以外の端末装置のうち、その音声ストリームデータの音量が最大の端末装置の映像ストリームデータを選択すべきであるというルールを含んでいることを特徴とする請求項1または請求項2に記載のストリームデータ配信装置。
The audio characteristic analysis unit analyzes characteristics related to the volume of audio stream data transmitted from the terminal device of each participant,
The rule table is
As information of the video stream data to be transmitted to the terminal device of each participant, the video stream data to be transmitted to the terminal device is the terminal device with the maximum volume of the audio stream data among the terminal devices other than the terminal device. The stream data distribution device according to claim 1 or 2, further comprising a rule that video stream data should be selected.
前記音声特性分析部は、前記各参加者の端末装置から送信された音声ストリームデータの音量に関する特性を分析し、
前記ルールテーブルは、
前記各参加者の端末装置へ送信する映像ストリームデータの情報として、当該端末装置へ送信する映像ストリームデータは、当該端末装置以外の端末装置のうち、その音声ストリームデータの音量が所定の閾値を新たに超えた端末装置から送信された映像ストリームデータを選択すべきであるというルールを含んでいることを特徴とする請求項1または請求項2に記載のストリームデータ配信装置。
The audio characteristic analysis unit analyzes characteristics related to the volume of audio stream data transmitted from the terminal device of each participant,
The rule table is
As information of the video stream data to be transmitted to each participant's terminal device, the video stream data to be transmitted to the terminal device has a predetermined threshold value for the volume of the audio stream data among the terminal devices other than the terminal device. The stream data distribution device according to claim 1 or 2, further comprising a rule that video stream data transmitted from a terminal device exceeding the above should be selected.
前記映像ストリーム選択部は、前記映像ストリームデータの選択を行った選択時刻を前記ストリームデータ配信装置の記憶部に記憶し、前回映像ストリームデータの選択を行った時刻から所定時間経過後に、新たな映像ストリームデータを選択するよう構成されていることを特徴とする請求項3または請求項4に記載のストリームデータ配信装置。   The video stream selection unit stores the selection time at which the video stream data was selected in the storage unit of the stream data distribution device, and a new video after a predetermined time has elapsed from the time at which the previous video stream data was selected. The stream data distribution device according to claim 3 or 4, wherein the stream data distribution device is configured to select stream data. ネットワーク経由で、各端末装置から各参加者の音声ストリームデータと映像ストリームデータとを受信し、前記音声ストリームデータに基づき、前記受信した映像ストリームデータのうち、前記各端末装置へ送信する映像ストリームデータを選択するストリームデータ配信装置を用いたストリームデータ配信方法であって、
前記ストリームデータ配信装置が、
前記各参加者の端末装置から送信された音声ストリームデータおよび映像ストリームデータの入力を受け付けるステップと、
前記各参加者の端末装置から送信された音声ストリームデータの特性を分析するステップと、
前記各参加者の端末装置の識別情報ごとに、前記分析結果に対して、前記ストリームデータ配信装置が選択すべき映像ストリームデータの情報を示したルールテーブルおよび前記分析結果を参照して、前記受信した映像ストリームデータから前記各参加者の端末装置へ送信する映像ストリームデータを選択するステップと、
前記選択した映像ストリームデータと、前記各参加者の端末装置から受信した音声ストリームデータとに基づいて配信用ストリームデータを作成するステップと、
前記作成した配信用ストリームデータを前記ネットワーク経由で、前記各参加者の端末装置へ出力するステップと、
を実行することを特徴とするストリームデータ配信方法。
Video stream data to be transmitted to each terminal device out of the received video stream data based on the audio stream data, receiving audio stream data and video stream data of each participant from each terminal device via a network A stream data delivery method using a stream data delivery device for selecting
The stream data distribution device is
Receiving audio stream data and video stream data input transmitted from each participant's terminal device;
Analyzing the characteristics of the audio stream data transmitted from the terminal device of each participant;
For each piece of identification information of the terminal device of each participant, with respect to the analysis result, refer to the rule table indicating the information of the video stream data to be selected by the stream data distribution device and the analysis result, and the reception Selecting video stream data to be transmitted from each video stream data to the terminal device of each participant;
Creating distribution stream data based on the selected video stream data and audio stream data received from each participant's terminal device;
Outputting the created stream data for distribution to the terminal device of each participant via the network;
The stream data delivery method characterized by performing.
前記ルールテーブルは、書き換え可能な記憶媒体に記憶され、
前記ストリームデータ配信装置は、
前記ネットワーク経由で、前記各参加者の端末装置から、前記ルールテーブルの設定情報の入力を受け付けるステップと、
前記入力された設定情報に基づき、前記ルールテーブルの設定ルールを書き換えるステップと、
さらに実行することを特徴とする請求項6に記載のストリームデータ配信方法。
The rule table is stored in a rewritable storage medium,
The stream data distribution device includes:
Receiving input of setting information of the rule table from the terminal device of each participant via the network;
Rewriting the setting rule of the rule table based on the input setting information;
The stream data delivery method according to claim 6, further executed.
前記各参加者の端末装置から送信された音声ストリームデータの特性を分析するステップでは、前記各参加者の端末装置から送信された音声ストリームデータの音量に関する特性を分析し、
前記ルールテーブルは、
前記各参加者の端末装置へ送信する映像ストリームデータの情報として、当該端末装置へ送信する映像ストリームデータは、当該端末装置以外の端末装置のうち、その音声ストリームデータの音量が最大の端末装置の映像ストリームデータを選択すべきであるというルールを含んでいることを特徴とする請求項6または請求項7に記載のストリームデータ配信方法。
In the step of analyzing the characteristics of the audio stream data transmitted from each participant's terminal device, the characteristics relating to the volume of the audio stream data transmitted from each participant's terminal device are analyzed,
The rule table is
As information of the video stream data to be transmitted to the terminal device of each participant, the video stream data to be transmitted to the terminal device is the terminal device with the maximum volume of the audio stream data among the terminal devices other than the terminal device. 8. The stream data distribution method according to claim 6, further comprising a rule that video stream data should be selected.
前記各参加者の端末装置から送信された音声ストリームデータの特性を分析するステップでは、前記各参加者の端末装置から送信された音声ストリームデータの音量に関する特性を分析し、
前記ルールテーブルは、
前記各参加者の端末装置へ送信する映像ストリームデータの情報として、当該端末装置へ送信する映像ストリームデータは、当該端末装置以外の端末装置のうち、その音声ストリームデータの音量が所定の閾値を新たに超えた端末装置から送信された映像ストリームデータを選択すべきであるというルールを含んでいることを特徴とする請求項6または請求項7に記載のストリームデータ配信方法。
In the step of analyzing the characteristics of the audio stream data transmitted from each participant's terminal device, the characteristics relating to the volume of the audio stream data transmitted from each participant's terminal device are analyzed,
The rule table is
As information of the video stream data to be transmitted to each participant's terminal device, the video stream data to be transmitted to the terminal device has a predetermined threshold value for the volume of the audio stream data among the terminal devices other than the terminal device. The stream data distribution method according to claim 6 or 7, further comprising a rule that video stream data transmitted from a terminal device exceeding the above should be selected.
前記各参加者の端末装置へ送信する映像ストリームデータを選択するステップは、前記映像ストリームデータの選択を行った時刻を前記ストリームデータ配信装置の記憶部に記憶するステップをさらに実行し、
前回の映像ストリームデータの選択を行った時刻から所定時間経過後に、新たな映像ストリームデータを選択することを特徴とする請求項8または請求項9に記載のストリームデータ配信方法。
The step of selecting video stream data to be transmitted to each participant's terminal device further includes the step of storing the time at which the video stream data was selected in the storage unit of the stream data distribution device,
10. The stream data distribution method according to claim 8, wherein new video stream data is selected after a predetermined time has elapsed from the time when the previous video stream data was selected.
コンピュータに請求項6ないし請求項10のいずれか1項に記載のストリームデータ配信方法を実行させることを特徴とするストリームデータ配信用プログラム。
A stream data distribution program for causing a computer to execute the stream data distribution method according to any one of claims 6 to 10.
JP2004129060A 2004-04-23 2004-04-23 Stream data distribution system, stream data distribution method, and program Pending JP2005311916A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004129060A JP2005311916A (en) 2004-04-23 2004-04-23 Stream data distribution system, stream data distribution method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004129060A JP2005311916A (en) 2004-04-23 2004-04-23 Stream data distribution system, stream data distribution method, and program

Publications (1)

Publication Number Publication Date
JP2005311916A true JP2005311916A (en) 2005-11-04

Family

ID=35440133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004129060A Pending JP2005311916A (en) 2004-04-23 2004-04-23 Stream data distribution system, stream data distribution method, and program

Country Status (1)

Country Link
JP (1) JP2005311916A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007166375A (en) * 2005-12-15 2007-06-28 Nippon Telegr & Teleph Corp <Ntt> Video/audio conference system
JP2007201741A (en) * 2006-01-25 2007-08-09 Ntt Software Corp Video content organization device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007166375A (en) * 2005-12-15 2007-06-28 Nippon Telegr & Teleph Corp <Ntt> Video/audio conference system
JP4562649B2 (en) * 2005-12-15 2010-10-13 日本電信電話株式会社 Audiovisual conference system
JP2007201741A (en) * 2006-01-25 2007-08-09 Ntt Software Corp Video content organization device

Similar Documents

Publication Publication Date Title
JP7230394B2 (en) Teleconferencing device and teleconferencing program
US9473741B2 (en) Teleconference system and teleconference terminal
US7508413B2 (en) Video conference data transmission device and data transmission method adapted for small display of mobile terminals
JP6179834B1 (en) Video conferencing equipment
CN105450642A (en) Data processing method based on on-line live broadcast, correlation apparatus and system
US20060125914A1 (en) Video input for conversation with sing language, video i/o device for conversation with sign language, and sign language interpretation system
US7949116B2 (en) Primary data stream communication
JP2016001446A (en) Conversion image providing device, conversion image providing method, and program
JP2021034900A (en) Processing device, processing program, and processing method
JP2008288974A (en) Video conference system and video conference device
JP2010157906A (en) Video display device
JP2007116692A (en) Tv conferencing method for tv conference client, tv conferencing method, equipment for implementing the method, and computer program for implementing the method
EP2207311A1 (en) Voice communication device
JP2001268078A (en) Communication controller, its method, providing medium and communication equipment
JP2005311916A (en) Stream data distribution system, stream data distribution method, and program
CN110335610A (en) The control method and display of multimedia translation
US8963989B2 (en) Data distribution apparatus, data distribution method, and program
JP2008141348A (en) Communication apparatus
CN107846634B (en) Audio and video file sharing method, device and system, storage medium and terminal equipment
JP2011066745A (en) Terminal apparatus, communication method and communication system
JP6481937B2 (en) Communication device for video conference
JP2003339034A (en) Network conference system, network conference method, and network conference program
JP2006211504A (en) Conference terminal apparatus, conference system and computer program
US20240046540A1 (en) Speech image providing method and computing device for performing the same
JPH08294102A (en) Moving image communication conference system and its communication method