JP2008211291A - 多地点音声接続端末および多地点音声接続装置 - Google Patents

多地点音声接続端末および多地点音声接続装置 Download PDF

Info

Publication number
JP2008211291A
JP2008211291A JP2007043483A JP2007043483A JP2008211291A JP 2008211291 A JP2008211291 A JP 2008211291A JP 2007043483 A JP2007043483 A JP 2007043483A JP 2007043483 A JP2007043483 A JP 2007043483A JP 2008211291 A JP2008211291 A JP 2008211291A
Authority
JP
Japan
Prior art keywords
audio data
input
output
audio
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007043483A
Other languages
English (en)
Inventor
Kuniyuki Miura
訓志 三浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2007043483A priority Critical patent/JP2008211291A/ja
Publication of JP2008211291A publication Critical patent/JP2008211291A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)

Abstract

【課題】ミキシング演算処理の負荷が軽減され多数の拠点の音声をミキシングすることが可能な装置を提供する。
【解決手段】各端末10は、多地点音声接続装置20に音声データを出力する。複数設けられた端末基板210は、それぞれ複数の端末10からの音声データを受取る。端末基板210は受取った全ての音声データをミキシング処理し、中央ミキサ200へ出力する。中央ミキサ200は受取った音声データをミキシング処理し、ある端末基板210に出力する音声データには、その他の端末基板210から受取った音声データが含まれるようにミキシング処理し出力する。再び、端末基板210は、端末10から受取った音声データをミキシング処理し、ある端末10に出力する音声データには、その他の端末10から受取った音声データおよび中央ミキサ200から受取った音声データが含まれるようにミキシング処理し出力する。
【選択図】図7

Description

本発明は、多地点音声接続端末および多地点音声接続装置に関する。
互いに離れた場所にいる者同士が、通信網に接続された通信端末を用いて音声による遠隔会議を行うことを可能とする技術がある。その技術においては、異なる場所に配置された通信端末は通信網を介して中央装置と接続されており、各通信端末から送られた音声は中央装置にてミキシングされ通信端末に送信される。
上記中央装置においては、多数の通信端末から送られてきた音声をミキシングするため、そのミキシングにかかる演算の負荷は接続された通信端末の数に伴い高くなってしまうという問題があった。そのような問題を解決するため、例えば特許文献1では、音声レベルの高い順に所定数の拠点からの音声をミキシングすることで、中央装置が扱う音声データの量に制限を設ける技術が開示されている。また、特許文献2では、通信データ量自体を軽減するため、音声レベルが所定のレベル以下であるときにはパケットを送出しない、いわゆる無音圧縮の技術が開示されている。
特開平04−084553号公報 特表平10−500547号公報
しかしながら、特許文献1の技術によれば、所定数以外の通信端末についてはその音声が破棄されてしまうため不都合が生じることがあった。また、特許文献2によれば、中央装置への収容拠点が増えると中央のミキサにおける演算の負荷が高まるとの問題点は残され、該処理を行うための高性能なハードウェアを設ける必要があった。
本発明は上記の問題点に鑑みて為されたものであり、ミキシング演算処理の負荷を軽減し多数の拠点の音声をミキシングすることを可能にする技術を提供することを目的としている。
本発明に係る多地点音声接続端末の第1の実施形態は、ネットワークに接続された通信端末から音声データが供給される入力部、および前記音声データを供給した通信端末に音声データを出力する出力部を有する入出力部が複数設けられた送受信ポート手段と、前記各入出力部に対応して複数設けられるミキシング手段であって、対応関係のない前記各入力部に供給される各音声信号をミキシングして対応関係のある前記出力部に出力する複数のミキシング手段と、音声を収音して前記各出力部に出力する音声出力手段と、前記各入力部に供給された音声データをミキシングする第2のミキシング手段と、前記第2のミキシング手段がミキシングした音声データを放音する放音手段とを有することを特徴とする。
本発明に係る多地点音声接続端末の第2の実施形態は、上記第1の実施形態において、前記各ミキシング手段は、前記音声出力手段が収音した音声もミキシングすることを特徴とする。
本発明に係る多地点音声接続装置は、複数の通信ブロックと中央ミキサを有する多地点音声接続装置であって、前記通信ブロックは、ネットワークに接続された通信端末から音声データが供給される入力部、および前記音声データを供給した通信端末に音声データを出力する出力部を有する入出力部が複数設けられた送受信ポート手段と、前記各入出力部に対応して複数設けられるミキシング手段であって、入力された音声信号をミキシングして対応関係のある前記出力部に出力する複数のミキシング手段と、前記各入力部に供給された音声データをミキシングして第2の音声データを生成する第2のミキシング手段と、を有し、前記中央ミキサは、前記各通信ブロックに対応して複数設けられる第2の入出力部であって、対応する通信ブロックから前記第2の音声データが供給される第2の入力部、および前記第2の音声データを供給した通信ブロックの前記ミキシング手段に音声データを出力する第2の出力部を有する複数の第2の入出力部と、前記第2の入出力部の各々に対応して複数設けられる第3のミキシング手段であって、対応関係のない前記第2の入力部の各々に供給される前記第2の音声データをミキシングして対応関係のある前記第2の出力部に出力する複数の第3のミキシング手段と、を有し、前記ミキシング手段は、対応関係のない前記各入力部に供給される各音声データおよび、前記第3のミキシング手段から受取った音声データをミキシングすることを特徴とする。
本発明によれば、ミキシング演算処理の負荷が軽減され多数の拠点の音声をミキシングすることが可能になる、といった効果を奏する。
以下、図面を参照しつつ、本発明を実施する際の最良の形態について説明する。
(A.構成)
図1は、本発明に係る多地点音声接続システム1の全体構成を示す図である。多地点音声接続システム1は、端末10A、10B…10Lと、多地点音声接続装置20と、それらの装置を接続する通信網30とを有する。端末10A、10B…10Lは、同一の構成および機能を有する。以下の説明において、それらの端末同士を区別する必要が無いときには、端末10と総称する。
通信網30はインターネットであり、図1に示された通信装置同士で所定の通信プロトコルに従って行われるデータ通信を仲介する。本実施形態で用いられている通信プロトコルは、アプリケーション層の通信プロトコルとしては、RTP(Real-time Transport Protocol)が用いられており、トランスポート層の通信プロトコルとしては、UDP(User Datagram Protocol)が用いられており、ネットワーク層の通信プロトコルとしてはIP(Internet Protocol)が用いられている。
なおRTPとは、音声データや映像データをend-to-endでリアルタイムに送受信する通信サービスを提供するための通信プロトコルであり、その詳細はRFC1889に規定されている。RTPにおいては、RTPパケットを生成し送受信することにより通信装置同士でデータの授受が行われる。
以下、端末10のハードウェア構成について図2を参照して説明する。
図に示す制御部101は、例えばCPU(Central Processing Unit)であり、後述するROM(Read Only Memory)103aに格納されている各種制御プログラムを実行することにより、端末10の各部の動作を制御する。
通信IF部102は、通信網30に有線接続されている。この通信IF部102は、制御部101から受取ったRTPパケットを下位層の通信プロトコルにしたがって順次カプセル化することにより得られるIPパケットを通信網30へ送出する。なお、カプセル化とは、上記RTPパケットをペイロード部に書き込んだUDPセグメントを生成し、さらに、そのUDPセグメントをペイロード部に書き込んだIPパケットを生成することである。また、通信IF部102は、通信網30を介してデータを受信し、IPパケットに対して上記カプセル化とは逆の処理を行うことにより、そのIPパケットにカプセル化されているRTPパケットを読み出して制御部101へ出力する。
記憶部103は、ROM103aおよびRAM(Random Access Memory)103bを有する。ROM103aは、本発明に特徴的な機能を制御部101に実行させるための制御プログラムを格納している。RAM103bは、音声データ生成部106から受取った音声データを記憶したり、制御部101によってワークエリアとして利用されたりする。
操作部104は、数字キーやボタンなどの操作子を備えており、操作部104は、何らかの入力があった場合に、その操作内容を表すデータを制御部101へと伝達する。
表示部105は、例えば液晶パネルであり、端末10が有する又は端末10が通信網30を介して受取った各種のデータを表示する。
音声データ生成部106は、アナログ/デジタル(以下、「A/D」と略記する)コンバータ106aとマイクロホン106bとを有する。マイクロホン106bは、周囲の音声を収音しその音声を表すアナログ信号(以下、音声信号)を生成し、A/Dコンバータ106aへ出力する。A/Dコンバータ106aは、マイクロホン106bから受取った音声信号にA/D変換を施し、その変換結果であるデジタルデータ(以下、音声データ)を制御部101へ出力する。
音声データ再生部107は、制御部101から受取った音声データの再生を行うものであり、D/Aコンバータ107aとスピーカ107bとを有する。D/Aコンバータ107aは、制御部101から受取った音声データに対して、D/A変換を施すことによってアナログ方式の音声信号へ変換し、スピーカ107bへ出力するものである。そして、スピーカ107bは、D/Aコンバータ107aから受取った音声信号の表す音声を放音する。
次に、多地点音声接続装置20の構成について説明する。図3は、多地点音声接続装置20の全体構成を示すブロック図である。多地点音声接続装置20は、中央ミキサ200と、端末基板210−1、210−2、210−3、および210−4を有する。なお、端末基板210−1、210−2、210−3、および210−4は、互いに同一の構成および機能を有する。以下の説明において、それらの端末基板同士を区別する必要が無いときには、端末基板210と総称する。
端末基板210の構成について図4を参照して説明する。端末基板210は、入力部215−1、215−2、および215−3、出力部216−1、216−2、および216−3、ミキサ213−1、213−2、および213−3を含むミキサ部212、第2のミキサ214を有する。
ミキサ213−1、213−2、213−3、および第2のミキサ214は、3つの入力チャンネルを有し、各チャンネルに入力された信号をミキシングして出力する。
入力部215−1、215−2、および215−3、出力部216−1、216−2、および216−3は、いわゆる「ポート」であり、通信網30上の通信において、多地点音声接続装置20が複数の通信端末10と同時に接続を行うためにIPアドレスの下に設けられたサブアドレスによりアクセスされるポートとして構成されている。なお、図4においては、説明の便宜上、これらのポートをハードウェアの端子として表記する。
端末基板210は、通信網30を介して接続された端末10から音声データを受取る。具体的には、各端末10と端末基板210は図3に示されるように接続されており、例えば端末基板210−1は、端末10A、10B、および10Cから送信された音声データを受取る。
ここで、端末基板210−1においては、入力部215−1から入力された音声データはミキサ213−2、213−3、および第2のミキサ214に、入力部215−2から入力された音声データはミキサ213−1、213−3、および第2のミキサ214に、入力部215−3から入力された音声データはミキサ213−1、213−2、および第2のミキサ214に出力される。
ここで、端末10A、10B、および10Cは、それぞれ入力部215−1、215−2、および215−3に接続されている。従って、端末10Aから受取った音声データはミキサ213−2、213−3、および第2のミキサ214に、端末10Bから受取った音声データはミキサ213−1、213−3、および第2のミキサ214に、端末10Cから受取った音声データはミキサ213−1、213−2、および第2のミキサ214出力される。また、ミキサ213−1、213−2、および213−3には、中央ミキサ200が出力した音声データも入力される。
ミキサ213−1、213−2、および213−3は、以上に挙げた各音声データをミキシング処理する。ミキサ213−1、213−2、および213−3によりミキシング処理された音声データは、それぞれ出力部216−1、216−2、および216−3に出力される。出力部216−1、216−2、および216−3は、それぞれ端末10A、10B、および10Cに接続されているため、ミキサ213−1、213−2、および213−3によりミキシング処理された音声データは、それぞれ端末10A、10B、および10Cに出力される。
また、端末10A、10B、および10Cが出力し第2のミキサ214に入力された音声データは、ミキシング処理され中央ミキサ200へ出力される。
なお、端末基板210−2、210−3、および210−4も、端末基板210−1と同様の態様でミキシング処理を行う。
次に、中央ミキサ200の構成について図5を参照して説明する。中央ミキサ200は、入力部205−1、205−2、205−3、および205−4、出力部206−1、206−2、206−3、および206−4、ミキサ203−1、203−2、203−3、および203−4を含むミキサ部202を有する。
なお、入力部205−1、205−2、205−3、および205−4、出力部206−1、206−2、206−3、および206−4についても、端末基板210に設けられた入力部および出力部と同様に、ソフトウェアモジュールで実現されるが、以下では入力部、および出力部としてハードウェア構成として説明する。また、ミキサ203−1、203−2、203−3、および202−4は、3つの入力チャンネルを有し、各チャンネルに入力された信号をミキシングして出力する。
ここで、入力部205−1から入力された音声データはミキサ203−2、203−3、203−4に、入力部205−2から入力された音声データはミキサ203−1、203−3、203−4に入力部205−3から入力された音声データはミキサ203−1、203−2、203−4に入力部205−4から入力された音声データはミキサ203−1、203−2、203−3に出力される。
ここで、端末基板210−1、210−2、210−3、および210−4は、それぞれ入力部205−1、205−2、205−3、および205−4に接続されている。従って、中央ミキサ200が端末基板210−1から受取った音声データは、ミキサ203−2、203−3、および203−4に、端末基板210−2から受取った音声データは、ミキサ203−1、203−3、および203−4に、端末基板210−3から受取った音声データは、ミキサ203−1、203−2、および203−4に、端末基板210−4から受取った音声データは、ミキサ203−1、203−2、および203−3に出力される。
ミキサ203−1、203−2、203−3、および203−4は、入力された音声データをミキシング処理する。ミキサ203−1、203−2、203−3、および203−4は、それぞれ出力部206−1、206−2、206−3、および206−4と接続されている。また、端末基板210−1、210−2、210−3、および210−4は、それぞれ出力部206−1、206−2、206−3、および206−4と接続されている。従って、ミキサ203−1、203−2、203−3、および203−4でミキシング処理された音声データは、それぞれ端末基板210−1、210−2、210−3、210−4に出力される。
(B、動作)
次に、多地点音声接続システム1の各装置の動作について説明する。会議が開始されると、各端末10を利用する参加者は発言を行う。各端末10の音声データ生成部106は、該音声を収音し音声データを生成する。生成された音声データは一旦RAM103bに書き込まれる。制御部101は、RAM103bに書き込まれた音声データからRTPパケットを生成する。通信IF部102は生成されたRTPパケットを受け取り、受取ったRTPパケットを下位層の通信プロトコルへ順次引渡すことによってIPパケットを生成し、該IPパケットを通信網30へ送出する。
図6は、多地点音声接続装置20が行う処理の流れを示すフローチャートである。多地点音声接続装置20は、通信網30を介して端末10から出力された音声データを受取ると、ステップSA100以下の処理を行う(図4参照)。ステップSA100では、多地点音声接続装置20が受信した音声データは、出力元である端末10が接続された端末基板210の入力部215に入力される。入力部215に入力された音声データは所定の回路に従いミキサ部212に入力される(ステップSA110)。
また、入力部215は、受取った全ての音声データを第2のミキサ214に出力する。該音声データは、第2のミキサ214においてミキシング処理され(ステップSA120)、中央ミキサ200に出力される。
次に中央ミキサ200は音声データのミキシング処理を行う(図5参照)。まず入力部205は端末基板210−1ないし4から音声データを受信し、各音声データは所定の回路によりミキサ部202のミキサに出力される(ステップSA130)。端末基板210−1から受取った音声データはミキサ203−2、203−3、203−4へ、端末基板210−2から受取った音声データはミキサ203−1、203−3、203−4へ、端末基板210−3から受取った音声データはミキサ203−1、203−2、203−4へ、端末基板210−4から受取った音声データはミキサ203−1、203−2、203−3へと出力される。
ミキサ203−1、203−2、203−3、203−4は、受取った音声データをミキシングし(ステップSA140)、生成した音声データをそれぞれ端末基板210−1、210−2、210−3、210−4に出力する。ミキサ203と端末基板210が上述の対応関係になっていることから、端末基板210の各々は他の端末基板210が出力した音声データがミキシングされた音声データを受取ることになる。
再び図4において、端末基板210は、中央ミキサ200からミキシングされた音声データを受取ると、該音声データはミキサ部212の各ミキサに入力される。ミキサ213−1、213−2、213−3は、中央ミキサ200から受取った音声データと、ステップSA100において端末10から受取った音声データとをミキシング処理する(ステップSA150)。ミキサ213−1、213−2、213−3は、それぞれがミキシングした音声データをそれぞれ対応付けられた端末10に出力する(ステップSA160)。
なお、第2のミキサ214および中央ミキサ200における音声データのミキシング処理に要する時間は無視できるほど小さいため、端末10から受取った音声データと中央ミキサ200から受取った音声データとのミキシング処理がミキサ部213で行われる際、両音声データの時間的なずれは無視できる。その「時間的ずれ」が無視できないほど大きい場合には、入力部215からミキサ部212への回路に音声データのバッファリング手段を設け、第2のミキサ214が音声データを出力してから該音声データを含む音声データが中央ミキサ200から送信されてくるまでの期間を予め測定し、該測定時間だけ音声データを遅延させてミキサ部212に入力されるようにすれば良い。
端末基板210から出力された音声データは、通信網30を介して各端末10によって受信される。端末10においては、D/Aコンバータ107aは受取った音声データを音声信号に変換し、スピーカ107bは該音声信号の表す音声を放音する。これにより、例えば端末10Aは、端末10Bおよび10Cとメッシュ形態の通信セッションを確立することなく、自端末が出力した音声データを除く他の全ての端末10が出力した音声データを受取ることが出来る。
以上に説明した多地点音声接続装置20のミキシング処理による音声データの流れをまとめたのが図7である。図7においては、それぞれの端末10から出力された音声データを、符号に付与したアルファベットで表しており、例えば端末10Aから出力された音声データを「A」と表している。また、ミキシング処理された結果複数の音声データが合成された音声データは「+」を用いて表されている。例えば端末基板210−1から中央ミキサ200へ出力された音声データは、端末10A、10B、および10Cが出力した音声データが合成されたものであるから、「A+B+C」と表される。また、特定の音声データを除く音声データを「」で表す。例えば、「A」は、「B+C+D+E+F+G+H+I+J+K+L」を表し、「(A、B、C)」は、音声データA、B、およびCを除く他の全ての音声データをミキシングされた音声データである「D+E+F+G+H+I+J+K+L」を表す。
図7から明らかなように、端末10は各端末10を利用する参加者の発言内容を表す音声データを複数の端末10とカスケード接続された端末基板210に対して出力する。そして各端末基板210は、受取った音声データをミキシングして中央ミキサ200に出力すると共に、他の端末基板210が出力した音声データを受取る。そして、端末基板210は、接続している端末10に対し、該端末10が出力した音声データを除く音声データと、中央ミキサ200から受取った音声データとをミキシングして出力する。その結果、各端末10は、メッシュ接続により端末10同士でデータ通信をすることなく、他の全ての端末が生成した音声データがミキシングされて生成された音声データを受取ることができる。
メッシュ接続においては、端末の各々は、他の端末のそれぞれとの間に1対1で接続回線を確立し通信を行うため、結果的に多数の接続回線を確立する必要がある。一方、本実施形態においては、端末10は端末基板210を介してカスケード接続されている。カスケード接続においては、端末10の各々は端末基板210とのみ接続すれば、出力したデータを端末基板210を介して他の端末10へ送ることができると共に、他の端末10から出力されたデータを受取ることができる。従って、比較的少数の接続回線を確立するだけで、端末10は相互に通信を確立することができる。
また、以上のように多数の音声データをミキシングする多地点音声接続装置20においては、全ての(本動作例の場合12系統)音声データを一箇所でミキシング処理するのではなく、ミキサ部212、第2のミキサ214、ミキサ部202がミキシング処理を分担し、各ミキシングに係る装置は多くとも4つの音声データをミキシングすれば良いため、各ミキシングに係る装置に過大な負荷をかけることがない。
(C.変形例)
以上、本発明の一実施形態について説明したが、本発明は以下に述べる種々の態様で実施することができる。
(1)上述した実施形態においては、通信網30はインターネットである場合について説明したが、LAN(Local Area Network)などであっても良い。また、端末10および多地点音声接続装置20は有線で通信網30に接続されている場合について説明したが、通信網30が例えば無線LANなどの無線パケット通信網であり、端末10および多地点音声接続装置20が、この無線パケット通信網に接続されていても良い。
(2)上記実施形態においては、多地点音声接続装置20に特徴的な音声データのミキシング機能をソフトウェアモジュールで実現する場合について説明したが、上記各機能を担うハードウェアモジュールを組み合わせて本発明に係る多地点音声接続装置20を構成するようにしても良い。
(3)上記実施形態においては、多地点音声接続システム1には端末10A、10B…10Lの計12個の端末が含まれる場合について説明したが、接続される端末10は12台に限定されるものではない。多地点音声接続装置20と複数の端末10が通信を行えば良い。
(4)上述した実施形態では、音声データの送受信に係るアプリケーション層の通信プロトコルとしてRTPを用いる場合について説明したが、他の通信プロトコルを用いても良い。
(5)上述した実施形態では、各端末基板210に接続された端末10の数は3である場合について説明したが、2でも4以上でも良い。その場合には、端末基板210に対して接続された端末10の数だけミキサをミキサ部212に設け、自端末10に対して音声データを供給するミキサ以外のミキサに対して音声データを供給するようにすれば良い。また、多地点音声接続装置20が有する端末基板210の数は、4である場合について説明したが、その数は4に限られるものではなく、2、3、または5以上でも良い。その場合、中央ミキサ200においてはミキサ部202にミキサを端末基板210の数だけ設け、端末基板210から受取った音声データを、他の端末基板210に音声データを供給するミキサに対して供給するようにすれば良い。
要するに、多地点音声接続装置20に対して接続可能な端末10の数は12に限られるものではなく、端末基板210に接続される端末10の数や、端末基板210の数によって様々に設定することが可能である。
(6)上述した実施形態では、端末10は、音声データ生成部106が生成した音声データを圧縮せず出力する場合について説明したが、音声データに圧縮処理を施しても良い。例えば、音声データの圧縮・伸張を行うソフトウェアであるコーデックにより音声データを圧縮して出力しても良い。また、生成された音声データの音量レベルが所定の閾値を下回るパケットを送出しない、いわゆる無音圧縮の技術を用いて音声データの圧縮を行ってもよい。
(7)上述した実施形態では、端末基板210を中央ミキサ200と組み合わせることにより多数の音声データを処理する場合について説明した。しかし、音声データの数が少数である場合には、図8に示す親端末2100を用いて上記実施形態に相当する処理を行っても良い。
親端末2100は、入力部2150−1、2150−2、2150−3、および2150−4、出力部2160−1、2160−2、2160−3、および2160−4、ミキサ2121−1、2121−2、2121−3、2121−4を有するミキサ部2120、音声データ再生部1060、音声データ生成部1070を有する。音声データ再生部1060は、音声データ再生部106と同様の機能を有し、出力部2160−4と接続されている。音声データ生成部1070は音声データ生成部107と同様の機能を有し、入力部2150−4と接続されている。また、その他の構成は、図4に示される端末基板210において親端末2100と対応する構成と同様の機能を有する。また、入力部および出力部と各ミキサとの接続は図に示されるようになっている。
親端末2100の動作は以下のように行われる。すなわち、接続された各端末10から通信網30を介して音声データを受信し、音声データ生成部1070から音声データを受信する。それらの受信した音声データは、ミキサ部2120に設けられた所定のミキサでミキシングされ各端末10に出力される。その結果、各端末10には、自端末が出力した音声を除いた他の端末10が出力した音声データおよび親端末2100が生成した音声データがミキシングされて送信される。例えば、端末10P、10Q、10R、および親端末2100においてそれぞれ音声データP、Q、R、Sが生成された場合、端末10Pには、音声データQとRとSがミキシングされた音声データが供給される。また、親端末2100においては、音声データP、Q、Rがミキシングされた音声データが供給される。
以上のような構成により、端末10および親端末2100の間でメッシュ接続によりデータ通信を行う必要はなく、接続回線の少ないカスケード接続によって相互の音声データを送受信することができる。
(8)上記実施形態においては、端末基板210に設けられた入力部215および出力部216はいわゆるポートである場合について説明したが、その場合、例えば入力部215とミキサ213はソフトウェアモジュールにより接続された。しかし、それら入力部および出力部をハードウェア構成である入力端子および出力端子で構成し、入力端子および出力端子とミキサとの間を上述した対応関係となるように電子回路などのハードウェア構成で接続しても良い。
また、端末基板210と中央ミキサ200との間も、音声データをソフトウェアモジュールにより送受信する場合について説明した。しかし、中央ミキサ200に設けられた入力部205および出力部206を上記同様にハードウェア構成とし、端末基板210と中央ミキサ200との間の音声データの送受信を該構成により行うようにしても良い。
多地点音声接続システム1の全体構成を示す図である。 端末10の構成を示すブロック図である。 多地点音声接続装置20の機能構成を示すブロック図である。 端末基板210の構成を示すブロック図である。 中央ミキサ200の構成を示すブロック図である。 多地点音声接続装置20の処理の流れを示すフローチャートである。 多地点音声接続システム1における音声データの流れを示す図である。 親端末2100の構成を示すブロック図である。
符号の説明
1…多地点音声接続システム、10…端末、20…多地点音声接続装置、30…通信網、101…制御部、102…通信IF部、103…記憶部、103a…ROM、103b…RAM、104…操作部、105…表示部、106…音声データ生成部、106a…A/Dコンバータ、106b…マイクロホン、107…音声データ再生部、107a…D/Aコンバータ、107b…スピーカ、108…バス、200…中央ミキサ、202、212、2120…ミキサ部、203、213、2121…ミキサ、210…端末基板、214…第2のミキサ、205、215、2150…入力部、206、216、2160…出力部、2100…親端末

Claims (3)

  1. ネットワークに接続された通信端末から音声データが供給される入力部、および前記音声データを供給した通信端末に音声データを出力する出力部を有する入出力部が複数設けられた送受信ポート手段と、
    前記各入出力部に対応して複数設けられるミキシング手段であって、対応関係のない前記各入力部に供給される各音声信号をミキシングして対応関係のある前記出力部に出力する複数のミキシング手段と、
    音声を収音して前記各出力部に出力する音声出力手段と、
    前記各入力部に供給された音声データをミキシングする第2のミキシング手段と、
    前記第2のミキシング手段がミキシングした音声データを放音する放音手段と
    を有することを特徴とする多地点音声接続端末。
  2. 前記各ミキシング手段は、前記音声出力手段が収音した音声もミキシングすることを特徴とする請求項1に記載の多地点音声接続端末。
  3. 複数の通信ブロックと中央ミキサを有する多地点音声接続装置であって、
    前記通信ブロックは、
    ネットワークに接続された通信端末から音声データが供給される入力部、および前記音声データを供給した通信端末に音声データを出力する出力部を有する入出力部が複数設けられた送受信ポート手段と、
    前記各入出力部に対応して複数設けられるミキシング手段であって、入力された音声信号をミキシングして対応関係のある前記出力部に出力する複数のミキシング手段と、
    前記各入力部に供給された音声データをミキシングして第2の音声データを生成する第2のミキシング手段と、
    を有し、
    前記中央ミキサは、
    前記各通信ブロックに対応して複数設けられる第2の入出力部であって、対応する通信ブロックから前記第2の音声データが供給される第2の入力部、および前記第2の音声データを供給した通信ブロックの前記ミキシング手段に音声データを出力する第2の出力部を有する複数の第2の入出力部と、
    前記第2の入出力部の各々に対応して複数設けられる第3のミキシング手段であって、対応関係のない前記第2の入力部の各々に供給される前記第2の音声データをミキシングして対応関係のある前記第2の出力部に出力する複数の第3のミキシング手段と、
    を有し、
    前記ミキシング手段は、対応関係のない前記各入力部に供給される各音声データおよび、前記第3のミキシング手段から受取った音声データをミキシングする
    ことを特徴とする多地点音声接続装置。
JP2007043483A 2007-02-23 2007-02-23 多地点音声接続端末および多地点音声接続装置 Pending JP2008211291A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007043483A JP2008211291A (ja) 2007-02-23 2007-02-23 多地点音声接続端末および多地点音声接続装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007043483A JP2008211291A (ja) 2007-02-23 2007-02-23 多地点音声接続端末および多地点音声接続装置

Publications (1)

Publication Number Publication Date
JP2008211291A true JP2008211291A (ja) 2008-09-11

Family

ID=39787259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007043483A Pending JP2008211291A (ja) 2007-02-23 2007-02-23 多地点音声接続端末および多地点音声接続装置

Country Status (1)

Country Link
JP (1) JP2008211291A (ja)

Similar Documents

Publication Publication Date Title
EP1113657B1 (en) Apparatus and method for packet-based media communications
US6898637B2 (en) Distributed audio collaboration method and apparatus
US6167033A (en) Multiple-party network communication system and method of troubleshooting thereof
JP5345081B2 (ja) 常駐会議を行うための方法およびシステム
KR101149987B1 (ko) 실시간 멀티미디어 정보를 효율적으로 라우팅하는 방법 및시스템
US8989805B2 (en) Mobile communication device providing N-way communication through a plurality of communication devices
JP2008061060A (ja) 会議システム
WO2008121032A9 (en) Media stream setup in a group communication system
US20050122389A1 (en) Multi-conference stream mixing
JP2005286972A (ja) 多地点会議接続システム、並びに多地点会議接続方法
JP2008288974A (ja) ビデオ会議システム及びビデオ会議装置
EP2207311A1 (en) Voice communication device
US20070120949A1 (en) Video, sound, and voice over IP integration system
JP2021521741A (ja) 複数のビデオ会議用端末を用いてビデオ会議を提供することが可能なビデオ会議サーバ及びそのオーディオエコー除去方法
JP2008211291A (ja) 多地点音声接続端末および多地点音声接続装置
JP2008141348A (ja) 通信装置
JP2008271415A (ja) 受信音声出力装置
JP2008219462A (ja) 通信装置
JP4225533B2 (ja) 一斉放送システムおよびip放送装置
JP5262906B2 (ja) ミキシング中継装置及びミキシングシステム
Gabrielli et al. Advancements and performance analysis on the wireless music studio (WeMUST) framework
JP2006238258A (ja) 多地点会議システム及び多地点会議方法
JPH10145765A (ja) ビデオ会議システム
JP5012049B2 (ja) 通信システム及びサーバ
JP5605458B2 (ja) ミキシング中継装置及びミキシングシステム