JP2006173879A - コミュニケーションシステム - Google Patents
コミュニケーションシステム Download PDFInfo
- Publication number
- JP2006173879A JP2006173879A JP2004361299A JP2004361299A JP2006173879A JP 2006173879 A JP2006173879 A JP 2006173879A JP 2004361299 A JP2004361299 A JP 2004361299A JP 2004361299 A JP2004361299 A JP 2004361299A JP 2006173879 A JP2006173879 A JP 2006173879A
- Authority
- JP
- Japan
- Prior art keywords
- terminal device
- control command
- output
- control
- output information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Transfer Between Computers (AREA)
Abstract
【課題】
ビデオチャットシステムなど、複数のユーザがコミュニケーションを行う上で、共有する映像、音声をリアルタイムに操作できる自由度の高いコミュニケーションシステムを提供する。
【解決手段】
端末装置は、お互いにユーザの映像や音声データ(オブジェクト)を送受信するほか、他のユーザが発信したオブジェクトに対する制御命令を送受信することが可能である。端末装置は、制御命令に従ってオブジェクトを制御し出力する。また、同一のオブジェクトに関する複数の制御命令については、合成あるいは排他処理を行う。
【選択図】図3
ビデオチャットシステムなど、複数のユーザがコミュニケーションを行う上で、共有する映像、音声をリアルタイムに操作できる自由度の高いコミュニケーションシステムを提供する。
【解決手段】
端末装置は、お互いにユーザの映像や音声データ(オブジェクト)を送受信するほか、他のユーザが発信したオブジェクトに対する制御命令を送受信することが可能である。端末装置は、制御命令に従ってオブジェクトを制御し出力する。また、同一のオブジェクトに関する複数の制御命令については、合成あるいは排他処理を行う。
【選択図】図3
Description
本発明は、コミュニケーションシステムに関し、特に、出力情報を共有するビデオチャットシステムに関する。
ビデオチャットシステムは、参加する各ユーザの映像を、分割した画面領域にそれぞれ表示し、複数のユーザがあたかも同じ場所にいるかのようなコミュニケーションを可能とする。このビデオチャットシステムは、ユーザの動画像、音声をインターネットなどの通信網を用いて、特定の個人やグループに配信し、出力情報を共有することで達成される。
また、特許文献1には、複数の効果を付加した映像をリアルタイムで複数のユーザに配信する技術が記載されている。
従来のビデオチャットシステムに、特許文献1の技術を適用しても、映像や音声に特殊効果や編集を付加できるのは、その映像や音声を入力したユーザの端末に限られている。すなわち、他のユーザが入力した映像や音声に特殊効果や編集を付加することはできず自由度が少ない。
本発明は上記課題を解決すべくなされたものであり、その目的は、映像や音声などの出力情報を他の端末と共有するコミュニケーションシステムにおいて、他のユーザが入力した出力情報ついても、特殊効果や編集を付加することができるようにすることにある。
上述の課題を解決すべく、本発明のコミュニケーションシステムは、各端末装置で共通に出力される情報(オブジェクト)に対して、その情報を出力するように決定したとされるユーザ以外のユーザからの制御命令をも受け付け、その情報を制御して出力するようにする。
例えば、本発明のコミュニケーションシステムは、複数の端末装置を有し、各端末装置は、各端末装置で共通して出力される出力情報を決定する手段と、決定された出力情報を互いに送受信する手段と、前記出力情報の制御命令を生成する手段と、生成した出力情報の制御命令を互いに送受信する手段と、送受信した制御命令に従って出力情報を制御して出力する出力手段とを有する。
また、第1の端末装置と第2の端末装置とを有するコミュニケーションシステムであって、前記第1の端末装置は、前記第1の端末装置と第2の端末装置で共通して出力される第1のオブジェクトを決定する第1のオブジェクト決定手段と、決定された第1のオブジェクトを特定する情報を前記第2の端末装置に送信する手段と、前記第2の端末装置で決定された第2のオブジェクトを特定する情報を前記第2の端末装置から受信する手段と、オブジェクトの制御命令を生成する第1の制御命令生成手段と、生成した制御命令を前記第2の端末装置に送信する手段と、前記第2端末装置からオブジェクトの制御命令を受信する第1の制御命令受信手段と、前記第1の制御命令生成手段で生成した制御命令及び前記第1の制御命令受信手段で受信した制御命令に従って前記第1のオブジェクト及び第2のオブジェクトを制御して出力する第1の出力手段とを有し、
前記第2の端末装置は、前記第1の端末装置と第2の端末装置で共通して出力される第2のオブジェクトを決定する第2のオブジェクト決定手段と、決定された第2のオブジェクトを特定する情報を前記第1の端末装置に送信する手段と、前記第1の端末装置で決定された第1のオブジェクトを特定する情報を前記第1の端末装置から受信する手段と、オブジェクトの制御命令を生成する第2の制御命令生成手段と、生成した制御命令を前記第1の端末装置に送信する手段と、前記第1端末装置からオブジェクトの制御命令を受信する第2の制御命令受信手段と、前記第2の制御命令生成手段で生成した制御命令及び前記第2の制御命令受信手段で受信した制御命令に従って前記第1のオブジェクト及び第2のオブジェクトを制御して出力する第2の出力手段とを有するようにしてもよい。
前記第2の端末装置は、前記第1の端末装置と第2の端末装置で共通して出力される第2のオブジェクトを決定する第2のオブジェクト決定手段と、決定された第2のオブジェクトを特定する情報を前記第1の端末装置に送信する手段と、前記第1の端末装置で決定された第1のオブジェクトを特定する情報を前記第1の端末装置から受信する手段と、オブジェクトの制御命令を生成する第2の制御命令生成手段と、生成した制御命令を前記第1の端末装置に送信する手段と、前記第1端末装置からオブジェクトの制御命令を受信する第2の制御命令受信手段と、前記第2の制御命令生成手段で生成した制御命令及び前記第2の制御命令受信手段で受信した制御命令に従って前記第1のオブジェクト及び第2のオブジェクトを制御して出力する第2の出力手段とを有するようにしてもよい。
つぎに、本発明の一実施形態が適用されたコミュニケーションシステムについて説明する。
<第1実施形態>
図1は第1実施形態にかかるコミュニケーションシステムの構成図の一例である。本実施形態に係るコミュニケーションシステムは、少なくとも2つの端末装置101と端末装置102を有する。それぞれの端末装置101,102は、ネットワーク103により接続されている。端末装置101のユーザ104と端末装置102のユーザ105は、ネットワーク103を介して互いに通信可能となる。
図1は第1実施形態にかかるコミュニケーションシステムの構成図の一例である。本実施形態に係るコミュニケーションシステムは、少なくとも2つの端末装置101と端末装置102を有する。それぞれの端末装置101,102は、ネットワーク103により接続されている。端末装置101のユーザ104と端末装置102のユーザ105は、ネットワーク103を介して互いに通信可能となる。
ネットワーク103は、インターネット等に代表されるIPネットワークや電話回線網、ISDN、PHSネットワーク、携帯電話ネットワーク、あるいは無線LAN等を使用したネットワークによって構成される。
端末装置101及び端末装置102は、ネットワーク103を介して音声データ、映像等を送受信可能な端末装置であり、例えば携帯電話やPDA等の小型携帯端末装置、ネットワークインターフェイスを兼ね備えたセットトップボックスとテレビの組み合わせ、あるいはパーソナルコンピュータシステム等とすることができる。
次に、端末装置101,102の構成について図2を用いて説明する。図2は端末装置101,102のハードウェア構成例を示すブロック図である。図2に示すように端末装置は、CPU(Central Processing Unit)201と、記憶装置202及び二次記憶装置203と、データ送受信装置204と、入力装置205と、映像コーデック206と、音声コーデック207と、映像入力装置208と、音声入力装置209と、表示装置210と、音声出力装置211とから構成される。これらは、バス212を介して相互にデータのやり取りが可能なように構成されている。
CPU201は、例えば汎用のプロセッサとすることができる。CPU201は、端末装置101,102の動作を規定するプログラムに基づき、本端末装置101、102の動作を制御する。
記憶装置202は、RAMやROM、あるいはフラッシュメモリやハードディスク等によって構成される。記憶装置202は、CPU201で実行されるプログラム、映像入力装置208によって入力された映像データ、音声入力装置209によって入力された音声データ、データ送受信装置204によって送受信されるデータ、表示装置210で表示される映像データ、音声出力装置211で出力される音声データ等、CPU201で処理されるデータなどを格納する。
二次記憶装置203は、RAMやROM、あるいはフラッシュメモリやハードディスク等によって構成される。二次記憶装置203は、例えばコミュニケーション相手の端末装置の電話番号やIPアドレスといった宛先データ及び画像データ等を格納する。
データ送受信装置204は、例えば無線LANにおける無線LANカードやネットワークカード、あるいはPHSや携帯電話のネットワークに接続するためのモジュール等によって構成される。データ送受信装置204は、他の端末装置とのセッションの開始及び終了を行い、端末装置とのデータの送受信を仲介する。
入力装置205は、例えばキーボードあるいはマウスあるいはリモコンあるいはペン入力装置等のポインティングデバイスあるいは液晶タッチパネル等によって構成され、ユーザによって入力された画面や音声の編集制御信号を取得する。
映像コーデック206は、MPEG4等の符号化を行うものであり、例えば専用のハードウェアあるいはDSP等によって実現され、映像入力装置208によって入力された映像データの符号化もしくはデータ送受信装置204によって受信した映像符号化データの復号化を行う。なお、映像コーデック206は、省略されてもよく、CPU201がその役割を担うことも可能である。
音声コーデック207は、MP3等の符号化を行うものであり、例えば専用のハードウェアあるいはDSP等によって実現され、音声入力装置209によって入力された音声データの符号化もしくはデータ送受信装置204によって受信した音声符号化データの復号化を行う。なお、音声コーデック207は省略されてもよく、CPU201がその役割を担うことも可能である。またPCM符号化を用いる場合は音声コーデックが担う圧縮符号化の処理自体が不要となる。
映像入力装置208は、例えばビデオカメラ等によって構成され、外部映像を端末装置内にディジタル化して入力する。
音声入力装置209は、例えばマイク等によって構成され、外部音声を端末装置内にディジタル化して入力する。
表示装置210は、例えばテレビやパソコンのディスプレイあるいは液晶パネル等によって構成され、映像入力装置208で取得した映像、及びデータ送受信装置204を介してコミュニケーション相手の端末装置との間で送受信した映像を、同様に送受信した制御信号を元に合成しつつ映像を表示する。また、ユーザが入力装置205で情報を入力するためのメニューやガイダンス、及びユーザから入力された情報を表示する。
音声出力装置211は、例えばスピーカー等によって構成され、音声入力装置209で取得した音声、及びデータ送受信装置204を介してコミュニケーション相手の端末装置との間で送受信した音声を、同様に送受信した制御信号を元に合成しつつ音声を出力する。
次に、端末装置101,102の有する機能部について説明する。なお、各機能部は、CPU201がメモリにロードされたプログラムを実行することより達成される。
図3は、端末装置101,102の各機能部の構成を示す図である。端末装置101,102は、機能部として、主制御部301と、映像入力部302と、音声入力部303と、映像出力部304と、音声出力部305と、信号合成部306と、信号分離部307と、送受信制御部308と、映像合成部309と、音声合成部310と、制御命令合成部311とを有する。
主制御部301は、入力装置205を介してユーザから入力された情報に対応し、他の各機能部を起動及び終了させる。また、他の各機能部同士あるいは他端末装置との通信のセッション制御を行う。その他、入力装置205を介してユーザから入力された情報に対応して、制御信号を生成して、信号合成部306へと入力する。
映像入力部302は、映像入力装置208を介して入力された映像データを、符号化する。あるいは、符号化を行うために映像コーデック206へと入力し、符号化された映像符号化系列を受け取り、信号合成部306へと入力する。
音声入力部303は、音声入力装置209を介して入力された音声データを符号化する。あるいは、符号化を行うために音声コーデック207へと入力し、符号化された音声符号化系列を受け取り、信号合成部306へと入力する。
信号合成部306は、映像入力部302より出力された前述の映像符号化系列と、音声入力部303より出力された前述の音声符号化系列と、主制御部301により生成された制御信号とを合成し、パケット化する。
送受信制御部308は、信号合成部306により生成されたデータパケットをデータ送受信装置204を介してコミュニケーション相手の端末装置へ送信する際のセッション制御を行う。またコミュニケーション相手の端末装置からデータ送受信装置204を介して受信するデータパケットのセッション制御を行う。
信号分離部307は、データ送受信装置204を介して受信されたコミュニケーション相手の端末装置からのデータパケットを、映像符号化系列と音声符号化系列と制御信号とに分離する。そして、それぞれ、映像出力部304と音声出力部305と制御命令合成部311とへ入力する。
映像出力部304は、信号分離部307により分離された映像符号化系列を復号化したのち、あるいは復号化を行うために映像コーデック206へと入力し復号化されたのち、映像データを映像合成部309へと入力する。
音声出力部305は、信号分離部307により分離された音声符号化系列を復号化したのち、あるいは復号化を行うために音声コーデック207へと入力し復号化されたのち、音声データを音声合成部310へと入力する。
制御命令合成部311は、信号分離部307により分離された複数のユーザからの制御信号と、入力装置205を介して入力された制御信号とを、特定のルールに従って合成する。そして、最終的な合成制御信号を、映像合成部309及び音声合成部310へと入力する。
映像合成部309は、映像出力部304により復号化されたコミュニケーション相手の映像データと、映像入力装置208を介して入力された映像データに対して、前記合成制御信号の解析結果により、複数のユーザの前記映像データや背景や模様の合成や加工を行い、表示装置210を介して映像を出力する。
音声合成部310は、音声出力部305により復号化されたコミュニケーション相手の音声データと、音声入力装置209を介して入力した音声データに対して、前記合成制御信号の解析結果により、複数のユーザの前記音声データ背景音楽や効果音との合成や加工を行い、音声出力装置211を介して音声を出力する。
以上、端末装置101,102の構成について説明した。本実施形態では、複数の端末装置101,102において、同一内容の映像(共有映像)が表示され、同一内容の音声(共有音声)が出力される。これらの共有映像及び共有音声は、いずれかの端末装置により入力されたものであるが、いずれの端末装置からでも共有映像または共有音声の加工、追加、削除などの編集が可能である。
ここで、編集の対象となる画像要素、音声要素を、オブジェクトという。オブジェクトは、いずれかの端末装置により生成された制御命令により制御される。すなわち、各端末装置101,102は、オブジェクトに関する制御命令を共有することにより、映像、音声を共有する。
次に、オブジェクトに対する制御命令について説明する。図4は、制御命令の基本となる基本制御命令の構成を示したものである。
基本制御命令は、後述するように、各端末装置101,102により生成される。基本制御命令は、分割することできない最小単位命令であり、映像の拡大や縮小あるいは位置変更等の映像情報や音声情報の基本的な加工を指示する命令である。映像を拡大した後、元に戻したり、映像のフェードアウト等の特殊効果は、基本制御命令の組み合わせによって達成される。
基本制御命令は、発信者ID401と、オブジェクトID402と、制御グループID403と、基本制御命令ID404と、制御命令セットID405と、制御発信時間406と、開始時刻407と、持続時間408と、付随情報409を保持している。
発信者ID401はチャットに参加するユーザを識別するためのコードで、どのユーザの端末装置がその基本制御命令を生成したかを示す。
オブジェクトID402は操作(制御)する対象となるオブジェクトを識別するためのコードで、どのオブジェクトに対する基本制御命令であるかを示す。
制御グループID403は、基本制御命令の所属する制御グループを識別するためのコードである。各基本制御命令は、その性質により、いずれかの制御グループに属し、同一の制御グループに属す基本制御命令は、両立不可能である。言い換えれば、同一オブジェクトに対して同時刻に実行できない基本制御命令について、同一の制御グループIDが付与されている。例えば、同一のオブジェクトを、一定方向へ移動させる基本制御命令と、指定された座標にオブジェクトを表示させるための基本制御命令とは、同時に実行できないので、これらの基本制御命令は、同一制御グループに属する。一方、同一のオブジェクトを一定方向へ移動させる基本制御命令と、拡大させる基本制御命令とは、同時に実行できるので、これらの基本制御命令は、異なる制御グループに属する。
基本制御命令ID404は、基本制御命令を識別するためのコードである。
制御命令セットID405は、基本制御命令が属する制御命令セットを識別するためのコードである。オブジェクトの制御は、複数の基本制御命令により実行される。例えば、あるユーザの「怒り」を表現する際、オブジェクトになされる制御は、そのユーザの画像の拡大命令と、他のユーザの画像の縮小命令と、「怒り」マークの表示命令との3つの基本制御命令により実行される。かかる場合、これらの複数の基本制御命令は、一つの制御命令セットに属する。すなわち、これらの複数の基本制御命令は、同一の制御命令セットID405が付与されている。
制御発信時間406は、ユーザから入力装置205を介して基本制御命令を受け付けた時間(時刻)である。
開始時刻407は、基本制御命令によるオブジェクトの制御が実行される時刻である。なお開始時刻407はデータの送信遅延と復号化による遅延を考慮して、送信時の基準時刻と映像データ及び音声データの前データからの差分時間と遅延時間を加えた値が設定される。ただし、再生時に、実際の遅延時間等を考慮して、送信時の基準時刻を独自に設定して、開始時刻が再設定されるようにしてもよい。
持続時間408は、基本制御命令によるオブジェクトの制御が開始時刻407により開始された後、持続される時間である。なお、持続時間408が指定されていない場合、他の制御命令により制御されるまで、その基本制御命令により制御されたオブジェクトの出力が維持される。
付随情報409は、基本制御命令に関する上記401〜408以外の情報である。付随情報409は、基本制御命令の種類によって異なり、例えば、オブジェクトの移動量などのパラメータを含む。
図5は、基本制御命令の種類の一例を示したものである。
オブジェクト移動命令501は、オブジェクトの表示位置を一定方向へ移動させる命令である。なお、移動速度は、主制御部301により、付随情報409に含まれる移動量と、持続時間408から求められる。
オブジェクト指定位置表示命令502は、指定された座標にオブジェクトを表示させるための命令である。かかる命令の場合、付随情報409には、表示させたい座標が含まれることになる。
オブジェクト消去命令503は、表示されていたオブジェクトを消去するための命令である。かかる命令により、オブジェクトが映像の場合は消去され、オブジェクトが音声の場合はミュート状態となる。
オブジェクトサイズ変更命令504は、表示されているオブジェクトの大きさを変更するための命令である。かかる命令の場合、付随情報409には、変更倍率が含まれることとなる。なお、オブジェクトが音声の場合は、かかる命令により音量が変更される。
オブジェクト色数変更命令505は、表示されているオブジェクトの色数を変更するための命令である。かかる命令の場合、付随情報409には、表示する色成分が含まれることとなる。
オブジェクト透明度変更命令506は、表示されているオブジェクトの透明度を変更するための命令である。かかる命令の場合、付随情報409には、表示する映像の透明度が含まれることとなる。
オブジェクト表示順序変更命令507は、表示されているオブジェクトが重なった場合の表示順序を変更するための命令である。かかる命令の場合、付随情報409には、表示する映像の表示順序の増減値が含まれることとなる。
オブジェクト音声変調命令508は、再生されている音声オブジェクトを高音あるいは低音に変更するための命令である。かかる命令の場合、付随情報409には、再生音声の音域の増減値が含まれることとなる。
オブジェクトロック指定命令509は、オブジェクトをロック状態にセットもしくは解除するための命令である。なお、ロック状態とは、オブジェクトのロック指定命令を指定したユーザ以外の命令を受け付けない状態のことを指す。
図5において、点線の囲みは、同一の制御グループであることを示す。基本制御命令501と502は、同一の制御グループ510に属している。すなわち、基本制御命令501と502は、同一オブジェクトに対して同時刻に実行できない。一方、その他の基本制御命令503〜509は、互いに異なる制御グループ511〜517に属し、同一オブジェクトに対し同一時刻に実行できる。
次に、オブジェクトについて、より具体的に説明する。上述したように、オブジェクトとは、チャットに参加するユーザが制御することができる共有映像や共有音声の各要素のことであり、以下に示す種類が存在する。
(10A)チャットに参加するユーザの映像
(10B)背景映像
(10C)共有画面に用いる模様
(10D)チャットに参加するユーザの音声
(10E)背景音声
なお、背景映像10Bと、共有画面に用いる模様10Cと、背景音声10Eに属するオブジェクトは、各端末装置101,102の記憶装置202あるいは二次記憶装置203に予め格納されている。
(10A)チャットに参加するユーザの映像
(10B)背景映像
(10C)共有画面に用いる模様
(10D)チャットに参加するユーザの音声
(10E)背景音声
なお、背景映像10Bと、共有画面に用いる模様10Cと、背景音声10Eに属するオブジェクトは、各端末装置101,102の記憶装置202あるいは二次記憶装置203に予め格納されている。
各オブジェクトの現在の状態の情報は、オブジェクトプロパティに格納されている。オブジェクトプロパティは、それぞれの端末101,102の記憶装置202あるいは二次記憶装置203に格納される。
新規にオブジェクトが生成されたときは、主制御部301により、予め定められた初期オブジェクトプロパティが設定され、記憶装置202あるいは二次記憶装置203内に格納される。オブジェクトプロパティは、オブジェクトに対する制御命令によって主制御部301により更新される。オブジェクトプロパティは、オブジェクトが消滅されると記憶装置202あるいは二次記憶装置203から消去される。
オブジェクトプロパティは、全種類のオブジェクトに共通して、以下の要素を持つ。
(20A)オブジェクトID
オブジェクトID20Aは、上述したように、オブジェクトを識別するコードである。オブジェクトIDは、オブジェクトの生成時に、主制御部301により、自動的に設定される。
(20B)オブジェクトタイプID
オブジェクトタイプID20Bは、オブジェクトの種類(10A〜10E)毎に設定される識別コードである。オブジェクトの種類を識別するのに使用される。
(20C)制御者ID
制御者ID20Cは、そのオブジェクトを現在制御している、または最後に制御したユーザを識別するためのコードことである。制御者IDは、主制御部301により、オブジェクトを制御した基本制御命令の発信者ID401が割り当てられる。
(20D)ロックフラグ
ロックフラグ20Dは、そのオブジェクトの制御を、制御者ID608に示されているユーザ以外のユーザに許可するか否かを示す。このフラグがある場合、主制御部301は、そのオブジェクトに対して、制御者ID608に示されているユーザ以外のユーザからの制御命令を受け付けない。このフラグは、オブジェクトロック指定命令509により変更される。
(20A)オブジェクトID
オブジェクトID20Aは、上述したように、オブジェクトを識別するコードである。オブジェクトIDは、オブジェクトの生成時に、主制御部301により、自動的に設定される。
(20B)オブジェクトタイプID
オブジェクトタイプID20Bは、オブジェクトの種類(10A〜10E)毎に設定される識別コードである。オブジェクトの種類を識別するのに使用される。
(20C)制御者ID
制御者ID20Cは、そのオブジェクトを現在制御している、または最後に制御したユーザを識別するためのコードことである。制御者IDは、主制御部301により、オブジェクトを制御した基本制御命令の発信者ID401が割り当てられる。
(20D)ロックフラグ
ロックフラグ20Dは、そのオブジェクトの制御を、制御者ID608に示されているユーザ以外のユーザに許可するか否かを示す。このフラグがある場合、主制御部301は、そのオブジェクトに対して、制御者ID608に示されているユーザ以外のユーザからの制御命令を受け付けない。このフラグは、オブジェクトロック指定命令509により変更される。
また、オブジェクトプロパティは、映像オブジェクト(10A、10B、10C)について以下の要素を持つ。
(20E)表示位置
表示位置20Eは、映像オブジェクトの表示位置を示す座標で、オブジェクト移動命令501やオブジェクト表示命令502により変更される。
(20F)表示倍率
表示倍率20Fは、映像オブジェクトの拡大率を示す値で、オブジェクトサイズ変更命令504により変更される。
(20G)表示色数
表示色数20Gは、映像オブジェクトの表示する色数を示す値で、オブジェクト色数変更命令505により変更される。
(20H)表示透明度
表示透明度20Hは、映像オブジェクトの透明度を表示する値で、オブジェクト透明度変更命令506により変更される。
(20I)表示順序
表示順序20Iは、映像オブジェクトの表示順序を示し、オブジェクトの表示領域が重なった場合の表示優先度を示す。共有映像を映像プレーンの重ね合わせで表現する場合はどのプレーンを使用するかを示す。
(20E)表示位置
表示位置20Eは、映像オブジェクトの表示位置を示す座標で、オブジェクト移動命令501やオブジェクト表示命令502により変更される。
(20F)表示倍率
表示倍率20Fは、映像オブジェクトの拡大率を示す値で、オブジェクトサイズ変更命令504により変更される。
(20G)表示色数
表示色数20Gは、映像オブジェクトの表示する色数を示す値で、オブジェクト色数変更命令505により変更される。
(20H)表示透明度
表示透明度20Hは、映像オブジェクトの透明度を表示する値で、オブジェクト透明度変更命令506により変更される。
(20I)表示順序
表示順序20Iは、映像オブジェクトの表示順序を示し、オブジェクトの表示領域が重なった場合の表示優先度を示す。共有映像を映像プレーンの重ね合わせで表現する場合はどのプレーンを使用するかを示す。
また、オブジェクトプロパティは、音声オブジェクト(10D、10E)について以下の要素を持つ。
(20J)音量拡大率
音量拡大率20Jは、音声オブジェクトの音量の増大率を示す値で、オブジェクトサイズ変更命令504によって指定される。
(20K)音声変調度
音声変調度20Kは、音声オブジェクトの音程の変度を示す値で、オブジェクト音声変調命令508によって指定される。
(20J)音量拡大率
音量拡大率20Jは、音声オブジェクトの音量の増大率を示す値で、オブジェクトサイズ変更命令504によって指定される。
(20K)音声変調度
音声変調度20Kは、音声オブジェクトの音程の変度を示す値で、オブジェクト音声変調命令508によって指定される。
また、背景映像10Bと、共有画面の模様10Cと、背景音声10Eに属するオブジェクトは、他にも以下の要素を持つ。
(20L)オブジェクト指定ID
オブジェクト指定ID20Lは、予め記憶装置202あるいは二次記憶装置203に保存されている背景映像10Bと共有画面の模様10C及び背景音声10Eの各種データについて、現在、どのデータを用いているかを識別するIDである。
(20L)オブジェクト指定ID
オブジェクト指定ID20Lは、予め記憶装置202あるいは二次記憶装置203に保存されている背景映像10Bと共有画面の模様10C及び背景音声10Eの各種データについて、現在、どのデータを用いているかを識別するIDである。
(動作の説明)次に、本コミュニケーションシステムの動作について説明する。図6は主制御部301の処理内容を示すフローチャートの一例である。
主制御部301は、まず、ユーザから入力装置205を介し、他ユーザとの通信を開始する指示があるかどうかを判断する(ステップ601)。他ユーザとの通信を開始する指示があると判断した場合(ステップ601でYes)、データ送受信装置204を介し、指定された他ユーザとの通信を行うための通信セッション(ステップ602)を行う。一方、他ユーザとの通信を開始する指示がないと判断した場合(ステップ601でNo)、ステップ602をスキップする。コミュニケーション相手の端末との通信開始のための通信セッションは、例えばRFC2543に示されているような公知の手法を用いる。
つぎに、主制御部301は、データ送受信装置204を介し、他のコミュニケーション端末から新規に通信を行うための通信リクエストを受信したか否かを判断する(ステップ603)。通信リクエストを受信した場合(ステップ603でYes)、ユーザから相手ユーザとの通信を行うか否かの指示があったか否かを判断する(ステップ604)。指示があると判断した場合(ステップ604でYes)、コミュニケーション相手の端末と通信を行うために、ステップ602と同様の通信セッション(ステップ605)を行う。一方、通信リクエストを受信していない場合(ステップ603でNo)や、通信リクエストを受信した場合でも相手ユーザとの通信を開始する指示がない場合(ステップ604でNo)、ステップ605をスキップする。
続いて、主制御部301は、ユーザから入力装置205を介し、他ユーザとの通信を終了するように指示されたか否かを判断する(ステップ606)。他ユーザとの通信終了の指示があると場合(ステップ606でYes)、データ送受信装置204を介し、コミュニケーション相手の端末と通信を終了するための通信セッションを行う(ステップ607)。一方、他ユーザとの通信終了の指示がないと判断した場合(ステップ606でNo)、ステップ607をスキップする。
続いて、主制御部301は、データ送受信装置204を介し、他ユーザから通信を終了する指示をされたか否かを判断する(ステップ608)。他ユーザからの通信終了の指示があると判断した場合(ステップ608でYes)、データ送受信装置204を介し、コミュニケーション相手の端末と通信を終了するためのステップ607と同様の通信セッションを行う(ステップ609)。一方、他ユーザからの通信終了の指示がないと判断した場合(ステップ608でNo)、ステップ609をスキップする。
続いて、主制御部301は、コミュニケーション相手の端末装置との間でデータ通信セッションが開始されたかどうかを判断する(ステップ610)。データ通信セッションが開始されたと判断された場合(ステップ610でYes)、まず入力装置205を介して、ユーザから制御信号が入力されたか否かを判断する(ステップ611)。
制御信号が入力されたと判断した場合(ステップ611でYes)、主制御部301は、入力された制御信号から、対応する1個以上の基本制御命令を生成する(ステップ612)。以下に具体的に説明する。
記憶装置202あるいは二次記憶装置203には、制御信号テーブルが記憶されている。制御信号テーブルには、1レコードごとに、ユーザから受け付ける制御信号と、それに対応する基本制御命令の種類とが対応つけて登録されている。主制御部301は、制御信号テーブルの中から、入力された制御信号を含むレコードを検索し、検索したレコードに含まれる基本制御命令の種類を特定する。
そして、特定した基本制御命令の種類ごとに、図4に示すように、基本制御命令を生成する。例えば、入力装置205に「怒る」のアクションを受け付けるボタンがあり、そのボタンが押されたことにより、ユーザから受け付けた制御信号が「怒る」であった場合、主制御部301は、制御信号テーブルの中から、「怒る」に対応する基本制御命令の種類を検索する。「怒る」に対応する基本制御命令が、発信者のオブジェクトの拡大、相手のオブジェクトの縮小、「怒り」マークの表示であった場合、それぞれについて基本制御命令を生成する。
一方、ステップ611において制御信号が入力されていないと判断した場合、主制御部301は、ステップ612をスキップする。
続いて、主制御部301は、映像入力部302、音声入力部303、映像出力部304、音声出力部305、信号合成部306、信号分離部307、送受信制御部308及び制御命令合成部311にそれぞれの処理を行うように指示する(ステップ613)。そして、コミュニケーション相手の端末装置との間でデータ通信セッションを開始させる。なお、映像入力部302、音声入力部303、映像出力部304、音声出力部305、信号合成部306、信号分離部307、送受信制御部308及び制御命令合成部311の処理内容については後述する。
一方、ステップ610においてデータ通信セッションが開始されていないと判断した場合、主制御部301は、ステップ614に処理を移行する。
続いて、主制御部301は、コミュニケーション相手全ての端末装置との間でデータ通信セッションが終了したか否かを判断する(ステップ614)。コミュニケーション相手全ての端末装置との間でデータ通信セッションが終了したと判断した場合(ステップ614でYes)、主制御部301は、映像入力部302、音声入力部303、映像出力部304、音声出力部305、信号合成部306、信号分離部307、送受信制御部308及び制御命令合成部311にそれぞれの処理を終了するように指示する(ステップ615)。
一方、ステップ614においてコミュニケーション相手全ての端末装置との間でデータ通信セッションが終了していないと判断した場合、主制御部301は、ステップ615をスキップする。
続いて、主制御部301は、ユーザによってコミュニケーションの終了が指示されたか否かを判断する(ステップ616)。ユーザから終了を指示されたと判断した場合(ステップ616でYes)、コミュニケーション処理を終了する。一方、終了を指示されてないと判断した場合、主制御部301は、ステップ601へと戻って処理を続ける。
次に、映像入力部301の処理内容について説明する。図7は、映像入力部301の処理を示すフローチャートの一例である。このフローは、主制御部301のステップ613による開始命令によって開始され、同じく主制御部301のステップ615の終了命令により終了される。
図7に示すとおり、映像入力部302は、まず、映像入力装置208から映像データを取得する(ステップ701)。
続いて、映像入力部302は、特殊切り出し操作を行うように設定されているか否かを判断する(ステップ702)。なお、本実施形態においては、映像入力部302には、予め、特殊切り出し操作を行うように設定されているが、ユーザからの要求に応じて、特殊切り出し操作を行わないように設定することもできる。
特殊切り出し操作を行うように設定されていると判断した場合(ステップ702でYes)、映像入力部302は、ステップ701において入力された映像の特定領域を切り出し(ステップ703)、符号化を行う(ステップ704)。
一方、特殊切り出し操作を行うように設定されていないと判断した場合(ステップ702でNo)、映像入力部302は、ステップ703をスキップし、ステップ702によって入力された映像を映像符号化を行う(ステップ704)。なお、映像の特定領域の切り出し方法としては、あらかじめ特定映像領域を指定し、映像入力装置208にから入力される映像データから前記特定映像領域を切り出す方法、あるいは例えば特開平9−138471号「特定形状領域の抽出方法、特定領域の抽出方法及び複写条件決定方法」の方法を用いて、入力映像の中で背景映像を取り除き人物を切り取る方法を用いることができる。また、映像符号化の方法としては、例えばISO/IECにより勧告されているMPEG4等の方式を利用することができる。また、映像符号化手段の方法は、CPU201により映像符号化処理する手段と映像コーデック206により映像符号化処理する手段のどちらを用いてもよい。
続いて、映像入力部302は、主制御部301によって映像入力部302の終了が指示されたか否かを判断する(ステップ705)。主制御部301によって本映像入力部302の終了が指示されていないと判断した場合、ステップ701に戻り、主制御部301によって映像入力部302の終了が指示されるまでステップ701乃至ステップ704を繰り返す。
一方、上記ステップ705において、映像入力部302の終了が指示されたと判断した場合(ステップ705でNo)、映像入力部302における処理を終了する。
次に、音声入力部303の処理内容について説明する。図8は、音声入力部303の処理を示すフローチャートの一例である。このフローは、主制御部301のステップ613による開始命令によって開始され、同じく主制御部301のステップ615の終了命令により終了される。
図8に示すとおり、音声入力部303は、まず、音声入力装置209から音声データを取得し(ステップ801)、音声符号化を行う(ステップ802)。なお、音声符号化の方法は、例えばISO/IECで勧告されているMPEG−1オーディオ等の方式を利用することができる。また、音声符号化手段としては、CPU201により音声符号化処理する手段や、音声コーデック207により音声符号化処理する手段を用いることができる。
続いて、音声入力部303は、主制御部301によって音声入力部303の終了が指示されたか否かを判断する(ステップ803)。主制御部301によって音声入力部303の終了が指示されていないと判断した場合、ステップ801に戻り、主制御部301によって本音声入力部303の終了が指示されるまでステップ801乃至ステップ802を繰り返す。
一方、上記ステップ803において、音声入力部303の終了が指示されたと判断した場合、音声入力部303は処理を終了する。
次に、信号合成部306の処理内容について説明する。図9は、信号合成部306の処理を示すフローチャートの一例である。このフローは、主制御部301のステップ613による開始命令によって開始され、同じく主制御部301のステップ615の終了命令により終了される。
図9に示すとおり、信号合成部306は、まず、映像入力部302により生成された映像符号化データと、音声入力部303により生成された音声符号化データとの、再生時刻を設定する(ステップ901)。この再生時刻は、コミュニケーション相手の端末装置が、受信した映像符号化データと音声符号化データとを再生する際の再生時刻である。信号合成部306は、データの送信遅延と復号化による遅延を考慮して、送信時の基準時刻と映像データ及び音声データの前データからの差分時間と遅延時間を加えた値を、再生時刻として設定する。
続いて、信号合成部306は、映像符号化データと、音声符号化データと、制御信号とを用いて、再生時刻の情報を含む合成符号化データを生成する(ステップ902)。なお、映像符号化データと音声合成符号化データと制御信号との合成方法は、例えばISO/IEC 14496−1で勧告されているMPEG−4システムを利用することができる。
続いて、信号合成部306は、主制御部301によって信号合成部306の終了が指示されたか否かを判断する(ステップ903)。主制御部301によって信号合成部306の終了が指示されていないと判断した場合、ステップ901に戻り、主制御部301によって信号合成部306の終了が指示されるまでステップ901乃至ステップ903を繰り返す。
一方、ステップ903において、信号合成部306の終了が指示されたと判断した場合、信号合成部306は処理を終了する。
次に、送受信制御部308の処理内容について説明する。図10は、送受信制御部308の処理を示すフローチャートの一例である。このフローは、主制御部301のステップ613による開始命令によって開始され、同じく主制御部301のステップ615の終了命令により終了される。
図10に示すように、送受信制御部308は、まず、信号合成部306により生成された合成符号化データをパケット化し(ステップ1001)、パケット化された前記合成符号化データを、既に通信セッションが開始されているコミュニケーション相手の端末装置にデータ送受信装置204を介して送信する(ステップ1002)。なお、パケット化の方法については、例えばRFC2543で規定されている方法を用いればよい。
続いて、送受信制御部308は、データ送受信装置204を介し、既に通信セッションが開始されているコミュニケーション相手の端末装置からパケット化された合成符号化データを受信し(ステップ1003)、受信したパケットから合成符号化データを取得する(ステップ1004)。
続いて、送受信制御部308は、主制御部301によって送受信制御部308の終了が指示されたか否かを判断する(ステップ1005)。主制御部301によって送受信制御部308の終了が指示されていないと判断した場合、ステップ1001に戻り、主制御部301によって送受信制御部308の終了が指示されるまでステップ1001乃至ステップ1004を繰り返す。
一方、上記ステップ1005において、送受信制御部308の終了が指示されたと判断した場合、送受信制御部308は処理を終了する。
次に、信号分離部307の処理内容について説明する。図11は、信号分離部307の処理を示すフローチャートの一例である。このフローは、主制御部301のステップ613による開始命令によって開始され、同じく主制御部301のステップ615の終了命令により終了される。
図11に示すように信号分離部は、まず、送受信制御部308により受信した合成符号化データを、映像符号化データと音声符号化データと制御信号とに分離し、同時に設定されている再生時刻を取り出し、記憶装置202に格納する(ステップ1101)。
続いて、信号分離部307は、主制御部301によって信号分離部307の終了が指示されたか否かを判断する(ステップ1102)。主制御部301によって信号分離部307の終了が指示されていないと判断した場合、ステップ1101に戻り、主制御部301によって信号分離部307の終了が指示されるまでステップ1101を繰り返す。
一方、上記ステップ1102において、信号分離部307の終了が指示されたと判断した場合、信号分離部307は、処理を終了する。
次に、映像出力部304の処理内容について説明する。図12は、映像出力部304の処理を示すフローチャートの一例である。このフローは、主制御部301のステップ613による開始命令によって開始され、同じく主制御部301のステップ615の終了命令により終了される。
図12に示すように、映像出力部304は、まず、信号分離部307により生成された映像符号化データを復号化する(ステップ1201)。なお、復号化には映像コーデック206を介す手段とCPU201により処理する手段のどちらを用いてもよい。
続いて、映像出力部304は、主制御部301によって本映像出力部304の終了が指示されたか否かを判断する(ステップ1202)。主制御部301によって映像出力部304の終了が指示されていないと判断した場合、ステップ1201に戻り、主制御部301によって本映像出力部304の終了が指示されるまでステップ1201を繰り返す。
一方、上記ステップ1202において、映像出力部304の終了が指示されたと判断した場合、映像出力部304は処理を終了する。
次に、音声出力部305の処理内容について説明する。図13は、音声出力部305の処理を示すフローチャートの一例である。このフローは、主制御部301のステップ613による開始命令によって開始され、同じく主制御部301のステップ615の終了命令により終了される。
図13に示すように、音声出力部305は、まず、信号分離部307により生成された音声符号化データを復号化する(ステップ1301)。なお、復号化には音声コーデック206を介す手段とCPU201により処理する手段のどちらを用いてもよい。
続いて、音声出力部305は、主制御部301によって音声出力部305の終了が指示されたか否かを判断する(ステップ1302)。主制御部301によって音声出力部305の終了が指示されていないと判断した場合はステップ1301に戻り、主制御部301によって音声出力部305の終了が指示されるまでステップ1301を繰り返す。
一方、上記ステップ1302において、音声出力部305の終了が指示されたと判断した場合、音声出力部305は、処理を終了する。
次に、制御命令合成部311の処理内容について説明する。図15は、制御命令合成部311の処理を示すフローチャートの一例である。このフローは、主制御部301のステップ613による開始命令によって開始され、同じく主制御部301のステップ615の終了命令により終了される。
制御命令合成部311は、まず、信号分離部307により生成された基本制御命令を、適応されるオブジェクト毎に分類する(ステップ1501)。
続いて、制御命令合成部311は、適応するオブジェクト毎に分類された個々の基本制御命令に対して、合成や排他処理を行った後、制御命令出力キューへ出力する(ステップ1402)。
具体的には、図14に示すように、制御命令合成部311は、複数の基本制御命令の集まりである、基本制御命令群1401を入力し、命令合成/排他処理部1402において、同一時刻の同一オブジェクトに対する同一基本制御命令に対して合成処理あるいは排他処理を行う。
続いて、制御命令合成部311は、合成した制御命令を、映像合成部309あるいは音声合成部310で用いるために、制御命令出力キュー1403へと出力する。ここで、制御命令出力キュー1403は、合成された制御命令を貯めておく役目を果たす。出力制御命令出力キュー1403は、記憶装置202あるいは二次記憶装置203に確保された合成された制御命令の保存領域のことで、時系列に階層構造となっている。映像合成部309や音声合成部310は、オブジェクト毎に古い時間の合成制御命令から順に取り出すことが可能である。なお、基本制御命令の合成や排他処理の詳細については後述する。
続いて制御命令合成部311は、主制御部301によって制御命令合成部311の終了が指示されたか否かを判断する(ステップ1403)。主制御部301によって制御命令合成部311の終了が指示されていないと判断した場合、ステップ1501に戻り処理を続ける。一方、主制御部301によって、処理の終了が指示された場合、制御命令合成部311は、処理を終了する。
次に、制御命令合成部311の中の処理の一つである基本制御命令の合成、排他処理について説明する。
同一オブジェクトに対して、同一開始時刻に複数の基本制御命令が指定される場合がある。かかる場合でも、同一制御グループに所属していない基本制御命令は、同時に実行可能なので問題とならない。
一方、同一制御グループに所属する基本制御命令については、一定の規則に従って排他処理や合成処理を行う必要がある。このような一定の規則を登録したものをルールブックと呼ぶ。ルールブックは、予め、記憶装置202や二次記憶装置203に記憶されている。
次に、ルールブックについて説明する。ルールブックは、図5に示した各基本制御命令に対し、合成処理と排他処理を行う上での規則や決定因子の優先度を記したものである。なお、以下に挙げる決定因子を全て用いる必要はない。
(30A)制御発信時間優先
制御命令合成部311は、同一開始時刻の基本制御命令が複数指定された場合、基本制御命令のフォーマットに含まれる制御発信時間406が早いものを優先して制御命令出力キューに出力する。例えば、制御発信時間406が早い順に制御命令出力キューに出力する。
(30B)制御命令セット優先
制御命令合成部311は、同一の制御命令セットID405が指定されている基本制御命令群が必ず一連に実行されるように、入力された基本制御命令を制御命令出力キューに出力する。具体的には、制御命令セットID405が同一の基本制御命令について、全てが実行可能か否かを調べ、全ての基本制御命令群が実行可能な場合には、入力された基本制御命令群を、制御命令出力キュー1403に出力する。一方、全てが実行可能とは限らない場合、その制御命令セットに含まれる基本制御命令群を全て破棄し、制御命令出力キュー1403に出力しないようにする。一例として、端末101及び端末102からの基本制御命令について考える。まず、制御命令合成部311は、これらの基本制御命令のうち、制御発信時間優先30Aの優先度が最も高い基本制御命令xを抽出する。なお、抽出された基本制御命令xは、端末101から発信されたものとする。つぎに、制御命令合成部311は、基本制御命令xを優先的に、制御命令出力キューに出力する。また、基本制御命令xの属す制御命令セットXに含まれる基本制御命令も制御命令出力キューに出力する。こうして、制御命令セットXに属す一連の基本制御命令が実行されることになる。一方、端末102から発信された基本制御命令について、制御命令セットXとの関係で、実行可能かどうか調べる。例えば、制御命令セットXの中に、端末102から発信された基本制御命令と同一時刻に実行される予定で、かつ同一制御グループ403の基本制御命令がある場合、その基本制御命令は実行できない。そこで、制御命令合成部311は、端末102から発信された基本制御命令を、破棄する。また、破棄した基本制御命令の属す制御命令セットに属すその他の基本制御命令も実行できないので、これらの基本制御命令も破棄して、制御命令出力キューに出力しないようにする。
(30C)数値合成
オブジェクト移動命令501やオブジェクトサイズ変更命令504等の基本制御命令は、図4に示すように、付随情報409に、パラメータとして表示位置20Eや表示倍率20F等の数値を含んでいる。そこで、制御命令合成部311は、同一開始時刻に同一命令が複数指定された場合は、平均値もしくは中間値を取り、制御命令出力キューに出力する。
(30D)オブジェクトロック状態優先
制御命令合成部311は、オブジェクトプロパティに、ロックフラグ20Dが設定されている場合、そのオブジェクトの制御者ID20Cに指定されているユーザの以外からの基本制御命令を棄却する。具体的には、入力された基本制御命令の発信者ID401が、そのオブジェトの制御者ID20Cと一致するかを判定し、一致しない場合は、その基本制御命令を破棄する。一方、一致する場合は、その基本制御命令を制御命令出力キューに出力する。
(30E)ユーザ優先度
同一開始時刻に基本制御命令が複数指定された場合、予め設定されているユーザ優先度の高いユーザの基本制御命令が優先する。具体的には、制御命令合成部311は、基本制御命令の発信者ID401が、予め定めたIDと一致するか否か判定し、一致しない場合は、その基本制御命令を破棄する。一方、一致する場合は、その基本制御命令を制御命令出力キューに出力する。
(30F)音量解析
制御命令合成部311は、同一開始時刻に基本制御命令が複数指定された場合、各ユーザの音声データを解析し、音量の大きいユーザの基本制御命令を優先する。例えば、音量が最大のユーザの基本制御命令を制御命令出力キューに出力し、他の基本制御命令を破棄する。音声データ解析手法としては、例えば特開2004−86001「会話処理装置、および会話処理方法、並びにコンピュータ・プログラム」に示されている公知の手法を用いる。
(30G)表情解析
制御命令合成部311は、同一開始時刻に基本制御命令が複数指定された場合、各ユーザの映像データを解析し、ユーザの表情の動きの大きい(例えば、顔映像の動きベクトルの大きい)ユーザの基本制御命令を優先する。例えば、動きベクトルが最大のユーザの基本制御命令を制御命令出力キューに出力し、他の基本制御命令を破棄する。なお、映像データ解析手法としては、例えばMPEG−4等の映像復号化過程で得られる動きベクトルを利用し、動きベクトル量の合計によりランキング付けを行うといった手法を用いる。
(30A)制御発信時間優先
制御命令合成部311は、同一開始時刻の基本制御命令が複数指定された場合、基本制御命令のフォーマットに含まれる制御発信時間406が早いものを優先して制御命令出力キューに出力する。例えば、制御発信時間406が早い順に制御命令出力キューに出力する。
(30B)制御命令セット優先
制御命令合成部311は、同一の制御命令セットID405が指定されている基本制御命令群が必ず一連に実行されるように、入力された基本制御命令を制御命令出力キューに出力する。具体的には、制御命令セットID405が同一の基本制御命令について、全てが実行可能か否かを調べ、全ての基本制御命令群が実行可能な場合には、入力された基本制御命令群を、制御命令出力キュー1403に出力する。一方、全てが実行可能とは限らない場合、その制御命令セットに含まれる基本制御命令群を全て破棄し、制御命令出力キュー1403に出力しないようにする。一例として、端末101及び端末102からの基本制御命令について考える。まず、制御命令合成部311は、これらの基本制御命令のうち、制御発信時間優先30Aの優先度が最も高い基本制御命令xを抽出する。なお、抽出された基本制御命令xは、端末101から発信されたものとする。つぎに、制御命令合成部311は、基本制御命令xを優先的に、制御命令出力キューに出力する。また、基本制御命令xの属す制御命令セットXに含まれる基本制御命令も制御命令出力キューに出力する。こうして、制御命令セットXに属す一連の基本制御命令が実行されることになる。一方、端末102から発信された基本制御命令について、制御命令セットXとの関係で、実行可能かどうか調べる。例えば、制御命令セットXの中に、端末102から発信された基本制御命令と同一時刻に実行される予定で、かつ同一制御グループ403の基本制御命令がある場合、その基本制御命令は実行できない。そこで、制御命令合成部311は、端末102から発信された基本制御命令を、破棄する。また、破棄した基本制御命令の属す制御命令セットに属すその他の基本制御命令も実行できないので、これらの基本制御命令も破棄して、制御命令出力キューに出力しないようにする。
(30C)数値合成
オブジェクト移動命令501やオブジェクトサイズ変更命令504等の基本制御命令は、図4に示すように、付随情報409に、パラメータとして表示位置20Eや表示倍率20F等の数値を含んでいる。そこで、制御命令合成部311は、同一開始時刻に同一命令が複数指定された場合は、平均値もしくは中間値を取り、制御命令出力キューに出力する。
(30D)オブジェクトロック状態優先
制御命令合成部311は、オブジェクトプロパティに、ロックフラグ20Dが設定されている場合、そのオブジェクトの制御者ID20Cに指定されているユーザの以外からの基本制御命令を棄却する。具体的には、入力された基本制御命令の発信者ID401が、そのオブジェトの制御者ID20Cと一致するかを判定し、一致しない場合は、その基本制御命令を破棄する。一方、一致する場合は、その基本制御命令を制御命令出力キューに出力する。
(30E)ユーザ優先度
同一開始時刻に基本制御命令が複数指定された場合、予め設定されているユーザ優先度の高いユーザの基本制御命令が優先する。具体的には、制御命令合成部311は、基本制御命令の発信者ID401が、予め定めたIDと一致するか否か判定し、一致しない場合は、その基本制御命令を破棄する。一方、一致する場合は、その基本制御命令を制御命令出力キューに出力する。
(30F)音量解析
制御命令合成部311は、同一開始時刻に基本制御命令が複数指定された場合、各ユーザの音声データを解析し、音量の大きいユーザの基本制御命令を優先する。例えば、音量が最大のユーザの基本制御命令を制御命令出力キューに出力し、他の基本制御命令を破棄する。音声データ解析手法としては、例えば特開2004−86001「会話処理装置、および会話処理方法、並びにコンピュータ・プログラム」に示されている公知の手法を用いる。
(30G)表情解析
制御命令合成部311は、同一開始時刻に基本制御命令が複数指定された場合、各ユーザの映像データを解析し、ユーザの表情の動きの大きい(例えば、顔映像の動きベクトルの大きい)ユーザの基本制御命令を優先する。例えば、動きベクトルが最大のユーザの基本制御命令を制御命令出力キューに出力し、他の基本制御命令を破棄する。なお、映像データ解析手法としては、例えばMPEG−4等の映像復号化過程で得られる動きベクトルを利用し、動きベクトル量の合計によりランキング付けを行うといった手法を用いる。
次に、映像合成部309の処理内容について説明する。図16は、映像合成部309の処理を示すフローチャートの一例である。このフローは、主制御部301のステップ613による開始命令によって開始され、同じく主制御部301のステップ615の終了命令により終了される。
図16に示すとおり、映像合成部309は、まず、映像の再生時刻と合致する映像オブジェクトに対する基本制御命令群を制御命令出力キューより取得する(ステップ1601)。
続いて、映像合成部309は、映像オブジェクト毎に基本制御命令群を解析して表示手法を決定し映像データの処理を行い(ステップ1602)、映像合成を行い(ステップ1603)、表示装置210に出力する。なお、映像合成部309は、各オブジェクトの現在の状態をオブジェクトプロパティから入手する。また、映像合成部309は、映像データの処理を行った後、各オブジェクトの新たな状態をオブジェクトプロパティに格納する。
ステップ1602の映像データの処理及びステップ1603の映像合成の内容は基本制御命令の内容により以下のように異なる。
移動命令501の場合、映像合成部309は、ステップ1602においては何も行わず、ステップ1603において映像オブジェクトの表示位置を変更する。
また、表示命令502の場合、映像合成部309は、ステップ1602においては何も行わず、ステップ1603において映像オブジェクトの表示位置を一旦消去し、一定時間後にオブジェクトを指定位置に再表示する。
また、消去命令503の場合、映像合成部309は、ステップ1602においては何も行わず、ステップ1603において映像オブジェクトを消去する。
また、サイズ変更命令504の場合、映像合成部309は、ステップ1602においては映像オブジェクトの拡大あるいは縮小処理を施し、ステップ1603においては特に行わない。
また、色数変更命令505の場合、映像合成部309は、ステップ1602において映像オブジェクトに対する色相変換あるいはグレースケール変換等の色に関するデータ処理を行い、ステップ1603においては特に行わない。
また、透明度変更命令506の場合、映像合成部309は、ステップ1602においては何も行わず、ステップ1603において合成の際に映像オブジェクトの透明度を変更する。
また、表示順序変更命令507の場合、映像合成部309は、ステップ1602においては何も行わず、ステップ1603において合成の際に映像オブジェクトの表示順序を変更する。
なお、映像合成は、表示する映像オブジェクトを表示順に、グラフィックス・プレーンに割り当てるといった処理を施し、ハードウェアの制限により、同時に表示できるグラフィックス・プレーン数が限られる場合は画像の合成を行う必要がある。
続いて、映像合成部309は、主制御部301によって、映像合成部309の終了が指示されたか否かを判断する(ステップ1604)。主制御部301によって、映像合成部309の終了が指示されていないと判断した場合は、ステップ1601に戻り処理を続ける。一方、主制御部301によって、終了が指示された場合、映像合成部309は、処理を終了する。
次に、音声合成部310の処理内容について説明する。図17は、音声合成部310の処理を示すフローチャートの一例である。このフローは、主制御部301のステップ613による開始命令によって開始され、同じく主制御部301のステップ615の終了命令により終了される。
図17に示すとおり、音声合成部310は、まず、音声の再生時刻と合致する音声オブジェクトに対する基本制御命令群を制御命令出力キューより取得する(ステップ1701)。
続いて、音声合成部310は、音声オブジェクト毎に基本制御命令群を解析して再生手法を決定し音声データの処理を行い(ステップ1702)、音声合成を行い(ステップ1703)、音声出力装置211に出力する。なお、ステップ1702の音声データの処理及びステップ1703の音声合成の内容は基本制御命令の内容により以下のように異なる。
消去命令503の場合、音声合成部310は、ステップ1702においては何も行わず、ステップ1703において音声オブジェクトを消去する。
また、サイズ変更命令504の場合、音声合成部310は、ステップ1702においては音声オブジェクトの音量の拡大あるいは縮小処理を施し、ステップ1703においては特に行わない。
また、音声変調命令508の場合、音声合成部310は、ステップ1702においては指定された音声オブジェクトの音声データに対する変調処理を施し、ステップ1703においては特に行わない。
続いて、音声合成部310は、主制御部301によって本音声合成部310の終了が指示されたか否かを判断する(ステップ1704)。主制御部301によって音声合成部310の終了が指示されていないと判断した場合、ステップ1701に戻り処理を続ける。一方、主制御部301によって終了が指示された場合、音声合成部310は、処理を終了する。
次に、ユーザ端末101,102の画面の表示例について説明する。
図18及び図19は、図1におけるユーザ104とユーザ105がコミュニケーションを行う場合、起動から実際にコミュニケーションを行う場合の端末装置101及び端末装置102における処理の一例と、端末装置101及び端末装置102の表示装置210に映されている映像の一例である。なお、図18及び図19に示す例においては、映像の特殊切り出し操作を行うように予め設定されているものとする。また、端末装置101及び端末装置102の映像入力装置208から入力される映像のうち、ユーザ104及びユーザ105の人物像のみが切り出されるものとする。
端末装置101は、プログラムを起動すると、ユーザ104から、コミュニケーションを行いたいユーザを入力装置205を介して選択させる。そして、端末装置102に対して通信開始の意思を通達する(ステップ1801)。プログラム起動時は画面1802に示すように、表示装置210にはユーザ104の映像と初期設定の背景のみが表示される。
続いて、ユーザ105の端末装置102は、通信の可否をユーザ104の端末装置101に対して通達する(ステップ1803)。端末装置101と端末装置102共に通信可能状態になれば、端末装置101と端末装置102は、共に映像データと音声データ及び制御信号を含む前記データパケットの送受信を始める。そして、端末装置101及び端末装置102は、各表示装置210に、共有画面1805に示すように、ユーザ104とユーザ105の映像を並べて表示する(ステップ1804)。
続いて、端末装置101、102が、ユーザから共有画面の加工の要求を受け付けた場合の処理内容について説明する。
本例ではユーザ105が共有画面に模様を付け加える要求をした場合について説明する。ユーザ105の端末装置102が、入力装置205を介して画面の指定位置に、星マークを表示する制御信号を受け付けたとする(ステップ1806)。
端末装置102の主制御部301は、入力装置205からの入力信号を解釈して、星マークの模様オブジェクトの表示命令502を生成する。このとき星マークの模様オブジェクトは、新規に端末装置102に登録されるものである。そこで、主制御部301は、新規にオブジェクトIDを与え、図4に示した基本制御信号のオブジェクトID402に格納し、さらに、予め記憶されている模様のうち星マークを指し示す番号を、付随情報409に格納する。
そして、信号合成部306は、この生成された基本制御命令を、ユーザ105の映像符号化データ及び音声符号化データと合成し、パケット化する。送受信制御部308は、端末装置102のデータ送受信装置204を介して、端末装置101のデータ送受信装置204へ向けて送信する。
端末装置102の表示装置210には、画面1808に示すように、データ送受信装置204を介し受信したユーザ104の映像データと、映像入力装置208を介して入力されたユーザ105の映像と、新たなオブジェクトである星マークとが表示される。
一方、端末装置101は、データ送受信装置204を介して、端末装置102から合成データを受信する。そして、合成データを、信号分離部307の処理により、ユーザ105の映像符号化データと、音声符号化データと、基本制御命令とに分離する。そして、映像出力部304と音声出力部305との処理により、ユーザ105の映像データと音声データを復号し、同時に受信した基本制御命令を解釈する。
その後、映像合成部309の処理により、ユーザ104の映像データと、ユーザ105の映像データと、星マークの映像とを合成する。以上の処理により画面に星マークが追加される(ステップ1807)。
こうして、端末101と端末102の表示装置210には共有画面1808に示される映像が表示される。
次に、ユーザが共有画面に対して特殊効果を加えるように要求した場合の処理内容について図19を用いて説明する。本例では、ユーザ104が、ユーザ105に対して怒りを表す特殊効果を付け加えるように要求した場合について説明する。
まず、ユーザ104の端末101は、入力装置205を介してユーザ105に対して「怒る」と言う内容の制御信号を受け付ける。端末101の主制御部301は、図6のステップ612の処理により、「怒る」という制御信号に対応する基本制御命令を生成する。基本制御命令は、例えば、以下のような複数のものである。
(40A)ユーザ104の映像を0.5秒後に一時的に大きくする
(40B)ユーザ105の映像を0.5秒後に一時的に小さくする
(40C)共有画面内のユーザ104付近に怒りを表す模様を0.5秒後に表示
(40D)ユーザ104の映像を1.5秒後に元の大きさに戻す
(40E)ユーザ105の映像を1.5秒後に元の大きさに戻す
(40F)怒りを表す模様を1.5秒後に消去する
続いて、端末101の信号合成部306は、ユーザ104の映像と音声データと基本制御命令群とを合成し、端末102に対して送信する。
(40A)ユーザ104の映像を0.5秒後に一時的に大きくする
(40B)ユーザ105の映像を0.5秒後に一時的に小さくする
(40C)共有画面内のユーザ104付近に怒りを表す模様を0.5秒後に表示
(40D)ユーザ104の映像を1.5秒後に元の大きさに戻す
(40E)ユーザ105の映像を1.5秒後に元の大きさに戻す
(40F)怒りを表す模様を1.5秒後に消去する
続いて、端末101の信号合成部306は、ユーザ104の映像と音声データと基本制御命令群とを合成し、端末102に対して送信する。
続いて、端末装置101および端末装置102は、共に上記40Aから40Fの基本制御命令の内容を制御信号合成部311における処理により、合成/排他制御を行う。
続いて、端末装置101および端末装置102の映像合成部309は、0.5秒後に40Aから40Cの内容に即した表示されるように、ユーザ104の拡大映像、ユーザ105の縮小映像及び怒りを表す模様の映像合成を行う。そして、端末装置101及び端末装置102の表示装置の表示は、画面1902から画面1904に遷移する。遷移後の画面表示は、1秒間維持される(ステップ1903)。
続いて、1秒後に40Dから40Fの基本制御命令群と、ユーザ104の映像及びユーザ105の映像との合成により(ステップ1905)、端末装置101及び端末装置102の表示装置は、画面1906のような画面を表示する。
なお、図19の例のように、40Aから40Fの基本制御命令群に対して前述の制御命令セットを設定されている。さらに、ルールブックには、制御信号合成部311における合成の規則として、制御命令セット優先30Bが設定されている。したがって、40Aから40Fの連続した基本制御命令群の実行が保証される。
なお、各ユーザに対応するオブジェクトの映像プレーンを重ね合わせて表示画像を作成する場合は以下のようにする。
映像合成部309は、各オブジェクトの映像をオブジェクトプロパティとして保存されている表示順序20Iに従って、プレーン割付を行う。この表示順序は表示順序変更命令により変更される。なお、表示順序20Iはパラメータとして、表示するプレーンを指し示す番号と同一プレーン内での表示優先順序を示す番号をペアで持っている。
映像合成部309は、表示するプレーン毎に映像オブジェクトを表示優先順序の低いものから描画していき、描画領域に表示優先順序の高いものが現れた場合、順番に上書きされるようにする。
例えば、ユーザ1の映像をユーザ2の映像よりも表示順序を上げたい場合は、ユーザ1の映像オブジェクトと表示順序変更命令とユーザ2の表示順序変更命令を制御命令セットとして発行する。主制御部301は、ユーザの入力装置からの指定が、単純にユーザ1をユーザ2よりも表示順序を上にするだけなのか、あるいはユーザ1を他の映像オブジェクトを最上位に表示するか等を判断して、場合によっては他の映像オブジェクトに対する表示順序変更命令を発行する可能性もある。その場合これらも制御命令セットとして定義される。
また映像を重ならないようにするための解決手段として以下のような方法が挙げられる。
(1)主制御部301が自動的に重ならないように制御セット命令を発行する。
例えば画面に模様を追加する場合、制御部は現在表示中の映像オブジェクトのオブジェクトプロパティから、追加する模様が他の映像オブジェクトと重ならない位置を算出し、オブジェクト指定位置表示命令を発行する。
例えば画面に模様を追加する場合、制御部は現在表示中の映像オブジェクトのオブジェクトプロパティから、追加する模様が他の映像オブジェクトと重ならない位置を算出し、オブジェクト指定位置表示命令を発行する。
また例えばユーザ1がユーザ2に対して「怒る」といったコマンドを発行した場合、現在のユーザ1の映像オブジェクトのオブジェクトプロパティとユーザ2の映像オブジェクトプロパティにより、映像オブジェクトのサイズ変更を行うと映像が重なってしまう場合には、ユーザ1の映像オブジェクト、ユーザ2の映像オブジェクト及び怒りマークの映像オブジェクトに対する、オブジェクト指定位置表示命令とオブジェクトサイズ変更命令のパラメータを映像オブ
ジェクトが重ならない値に設定して、制御命令セットを発行する。
ジェクトが重ならない値に設定して、制御命令セットを発行する。
(2) ルールブックに映像の重なりを許すかどうかのルールを追加する。ルールブックの合成ルールの条件に映像の重ね合わせを許すかどうかのルールを追加する。本ルールが適用された場合は、制御命令合成部311において命令を解釈した結果、オブジェクト指定位置命令やオブジェクト移動命令、オブジェクトサイズ変更命令のパラメータにより映像オブジェクトが重なってしまう場合には、命令の棄却あるいは重なる寸前のパラメータに調整する。本ルールブックが無効の場合はオブジェクトプロパティの表示順序の優先の高い映像オブジェクトから重ね合わせて表示されるものとする。
またルールブックには模様等のオブジェクト上には重ね合わせを認めるが、ユーザ映像の重なりは認めないといった、オブジェクト毎のきめ細かいルールを設けることが可能である。またユーザ映像、模様及び背景を必ず異なるプレーンで表示するといったルールを設けることが可能である。
以上、第1実施形態について説明した。本実施形態によれば、他のユーザ端末が発信したオブジェクトについても、そのユーザ以外のユーザが制御可能となる。
<第2実施形態>
つぎに、第2実施形態について説明する。本実施形態は、第1実施形態と似た構成を有するので、共通する構成については、説明を省略することがある。
<第2実施形態>
つぎに、第2実施形態について説明する。本実施形態は、第1実施形態と似た構成を有するので、共通する構成については、説明を省略することがある。
上述の第1実施形態では、いずれの端末装置でも、共通の画面や音声が出力される構成について説明した。これに対し、第2実施形態では、共有画面や共有音声に対して、端末装置独自のローカルルールを適用し、その端末装置に合わせた画像や音声が出力できるようにする。
例えば、いずれかの端末装置から、画像オブジェクトを縮小する基本制御命令が発信されると、画像オブジェクトは縮小表示される。しかし、端末装置の画面サイズが小さい場合、縮小しすぎると、見づらくなる場合がある。そこで、本実施形態では、その端末装置では、画像オブジェクトを所定以下には縮小しないというローカルルールを適用するようにする。そして、オブジェクトが縮小しすぎることを防止する。以下に詳細に説明する。
本実施形態では、端末装置101,102は、記憶装置201または二次記憶装置203に、ローカルルールを保持している。ローカルルールとしては、例えば、画像オブジェクトのサイズの最大値、最小値や、音量の最大値、最小値などである。
制御命令合成部311は、以下のように処理を行う。図21は、制御信号合成部311の処理内容のフローチャートの一例である。図示するように、制御命令合成部311は、まず、信号分離部307により生成された基本制御命令を、適用されるオブジェクト毎に分類する(ステップ2101)。
続いて、制御命令合成部311は、端末装置が共通で保持している一定の規則(ルールブック)に従い、適用するオブジェクト毎に分類された個々の基本制御命令に対して合成や排他処理を行う(ステップ2102)。
続いて、制御命令合成部311は、端末装置がローカル(独自)に保持している一定の規則(ローカルルール)に従い、適応するオブジェクト毎に分類された個々の基本制御命令に対して合成や排他処理を行い、生成された制御命令出力キューへ出力する(ステップ2103)。
ここで、図20を用いて具体的に説明する。制御命令合成部311は、命令合成/排他処理部2002に対して、基本制御命令群2001を入力する。命令合成/排他処理部2002は、端末装置が共通で保持している一定の規則(ルールブック)に従い、入力された基本制御命令について、合成・排他処理を行った後、制御命令を、ローカルルール適用部2003へ出力する。ローカルルール適用部2003は、記憶装置201または二次記憶装置203に保持するローカルルールに従い、入力された制御命令について、さらに合成・排他処理を行った後、処理後の制御命令を、制御命令出力キュー2004へと出力する。
例えば、基本制御命令が、画像オブジェクトの拡大命令であった場合で、その命令に従って拡大される画像が、ローカルルールに定めた画像の最大値を越える場合ある。かかる場合、ローカルルール適用部2003は、その画像オブジェクトのサイズを、ローカルルールの最大値に設定する命令に書き換えて出力する。
また、基本制御命令が、音声オブジェクトの音量増大命令であった場合で、その命令に従って増大された音量が、ローカルルールに定めた音量の最大値を越える場合ある。かかる場合、ローカルルール適用部2003は、その音声オブジェクトのサイズを、ローカルルールの最大値を越えない値(例えば、最大値)に設定する命令に書き換えて出力する。
図21に戻って説明する。続いて、制御命令合成部311は、主制御部301によって制御命令合成部311の終了が指示されたか否かを判断する(ステップ2104)。主制御部301によって制御命令合成部311の終了が指示されていないと判断した場合、ステップ2101に戻り、主制御部301によって本制御命令合成部311の終了が指示されるまでステップ2101乃至ステップ2103を繰り返す。
一方、主制御部301によって、終了が指示されたと判断した場合、制御命令合成部311は、処理を終了する。
本実施形態によれば、端末装置101及び端末装置102の表示装置210における画面サイズやアスペクト比が異なる等、完全に共通の映像や音声を出力する上で制約がある場合でも、その端末装置に合わせた形で、映像や音声を出力する。したがって、完全に同一の情報でないにしても、ビデオチャットなどで問題とならない程度に、互いに映像や音声を共有することができる。
なお、表示可能プレーン数は端末装置毎に異なる可能性があるため、ローカルルールにはプレーン数が異なる場合の旨を記述してもよい。
そして、表示プレーン数が異なるにも関わらず、端末装置の最大表示プレーン数を超えて表示順序変更命令が指定された場合には、表示順序変更命令で指定された表示順序でオブジェクトが表示されるように、複数のオブジェクトを順に合成した映像を1つのプレーンに割り当てるなどして、表示する端末装置の最大表示プレーン数に合わせてオブジェクトを合成をする。
なお、ローカルルールを、記憶装置201または二次記憶装置203に予め記憶させておいてもよいし、端末装置間の通信セッション開始時に、画面の解像度やアスペクト比、最大表示プレーン数を互いに伝達し、これらの値が予め定めた値以上差がある場合に、ローカルルールを生成するようにしてもよい。
<第3実施形態>
つぎに、第3実施形態について説明する。本実施形態は、第1及び第2実施形態と似た構成を有するので、共通する構成については、説明を省略することがある。
つぎに、第3実施形態について説明する。本実施形態は、第1及び第2実施形態と似た構成を有するので、共通する構成については、説明を省略することがある。
上述の第1及び第2に実施形態では、通信を行う端末装置がPeer−to−Peer(P2P)型でコミュニケーションを行う場合の構成について示した。これに対して、以下説明する第3の実施形態では、サーバ/クライアント型で通信を行う場合の構成について示す。
図22は、第3実施形態に係るコミュニケーションシステム構成図の一例である。図示するように、本実施形態のコミュニケーションシステムは、少なくとも2つのクライアント端末装置2201、2202と、サーバ装置2203と、ネットワーク2204から構成される。ユーザ2205とユーザ2206は、これらの端末装置2201,2202を通し、ネットワーク2204を介して互いに通信可能となる。
サーバ装置2203は、クライアント端末装置2201及び2202から送信される映像データ、音声データ及び基本制御命令を受信し、映像や音声の合成処理及び基本制御命令の合成あるいは排他処理を行う。そして、クライアント端末装置2201及び2202に対して、合成映像データあるいは合成音声データ等を送信する。
図23に、サーバ装置2203と、クライアント端末装置2201、2202の機能構成の例を示す。なお、それぞれの機能部は、図3で示した機能部と対応する。
図示するように、サーバ装置2203は、主制御部301aと、映像入力部302aと、音声入力部303aと、信号合成部306aと、信号分離部307aと、送受信制御部308aと、映像合成部309aと、音声合成部310aと、制御命令合成部311aとを備えていればよい。
また、クライアント端末装置は、主制御部301bと、映像入力部302bと、音声入力部303bと、映像出力部304bと、音声出力部305bと、信号合成部306bと、信号分離部307bと、送受信制御部308bとを備えていればよい。なお、クライアント端末装置2201、2202の映像出力部304b、音声出力部305bは、第1実施形態の図3で示した、映像出力部304、音声出力部305と異なり、映像及び音声合成処理が必要ないため、それぞれ復号結果をすぐに表示装置210及び音声出力装置211に出力することになる。
サーバ装置2203は、例えばパーソナルコンピュータシステムやワークステーション等とすることができる。
クライアント端末装置2201、2202は、例えばパーソナルコンピュータシステムやワークステーション等とすることができる。
本実施形態においては、映像データや音声データの合成処理を、サーバ装置2303が行う。基本制御命令の組み合わせ等による合成処理自体の仕組みは前述の実施形態と同様である。したがって、上記実施形態と同様に、各端末装置間で、映像と音声の共有が可能となる。
なお、上述した第1、第2及び第3の実施形態では、ユーザの端末装置が2つの場合を説明したが、この限りではなく3つ以上の端末装置でコミュニケーションを行ってもよい。
また、上述した第1、第2及び第3実施形態では、主制御部301、映像入力部302、音声入力部303、映像出力部304、音声出力部305、信号合成部306、信号分離部307、送受信制御部308、映像合成部309、音声合成部310及び制御命令合成部311をCPU201によって実行されるソフトウェアで実現されるものとしたが、これらの一部あるいは全てをハードウェアにより実現してもよい。
さらに、上述した第1、第2及び第3の実施形態では、共有するものが映像データ及び音声データであるとしたが、映像データ及び音声データ両方が共有対象であることは必須ではない。音声データの共有を省略する場合には、音声コーデック207、音声入力装置209、音声出力装置211、音声入力部303、音声出力部305及び音声合成部310に関する部分を実現しなければよい。また映像データの共有を省略する場合には、映像コーデック206、映像入力装置208、表示装置210、映像入力部302、映像出力部304及び映像合成部309に関する部分を実現しなければよい。
201・・・CPU,202・・・記憶装置、203・・・二次記憶装置、204・・・データ送受信装置、205・・・入力装置、206・・・映像コーデック、207・・・音声コーデック、208・・・映像入力装置、209・・・音声入力装置、210・・・表示装置、音声出力装置・・・211、301・・・制御部、302・・・映像入力部、303・・・音声入力部、304・・・映像出力部、305・・・音声出力部、306・・・信号合成部、307・・・信号分離部、308・・・送受信制御部、309・・・映像合成部、310・・・音声合成部、311・・・制御命令合成部、401・・・発信者ID、402・・・オブジェクトID、403・・・制御グループID、404・・・制御ID、405・・・制御セットID、406・・・制御発信時間、407・・・開始時刻、408・・・持続時間、409・・・予約領域、501・・・オブジェクト移動命令、502・・・オブジェクト指定位置表示命令、503・・・オブジェクト消去命令、504・・・オブジェクトサイズ変更命令、505・・・オブジェクト色数変更命令、506・・・オブジェクト透明度変更命令、507・・・オブジェクト表示順序変更命令、508・・・オブジェクト音声変調命令、509・・・オブジェクトロック指定命令、1401・・・基本制御命令群、1402・・・命令合成/排他処理部、1403・・・制御命令出力キュー、2001・・・基本制御命令群、2002・・・命令合成/排他処理部、2003・・・ローカルルール適用部、2004・・・制御命令出力キュー
Claims (20)
- 複数の端末装置を有するコミュニケーションシステムであって、
各端末装置は、
各端末装置で共通して出力される出力情報を決定する手段と、
決定された出力情報を互いに送受信する手段と、
前記出力情報の制御命令を生成する手段と、
生成した出力情報の制御命令を互いに送受信する手段と、
送受信した制御命令に従って出力情報を制御して出力する出力手段と
を有することを特徴とするコミュニケーションシステム。 - 第1の端末装置と第2の端末装置とを有するコミュニケーションシステムであって、
前記第1の端末装置は、
前記第1の端末装置と第2の端末装置で共通して出力される第1のオブジェクトを決定する第1のオブジェクト決定手段と、
決定された第1のオブジェクトを特定する情報を前記第2の端末装置に送信する手段と、
前記第2の端末装置で決定された第2のオブジェクトを特定する情報を前記第2の端末装置から受信する手段と、
オブジェクトの制御命令を生成する第1の制御命令生成手段と、
生成した制御命令を前記第2の端末装置に送信する手段と、
前記第2端末装置からオブジェクトの制御命令を受信する第1の制御命令受信手段と、
前記第1の制御命令生成手段で生成した制御命令及び前記第1の制御命令受信手段で受信した制御命令に従って前記第1のオブジェクト及び第2のオブジェクトを制御して出力する第1の出力手段とを有し、
前記第2の端末装置は、
前記第1の端末装置と第2の端末装置で共通して出力される第2のオブジェクトを決定する第2のオブジェクト決定手段と、
決定された第2のオブジェクトを特定する情報を前記第1の端末装置に送信する手段と、
前記第1の端末装置で決定された第1のオブジェクトを特定する情報を前記第1の端末装置から受信する手段と、
オブジェクトの制御命令を生成する第2の制御命令生成手段と、
生成した制御命令を前記第1の端末装置に送信する手段と、
前記第1端末装置からオブジェクトの制御命令を受信する第2の制御命令受信手段と、
前記第2の制御命令生成手段で生成した制御命令及び前記第2の制御命令受信手段で受信した制御命令に従って前記第1のオブジェクト及び第2のオブジェクトを制御して出力する第2の出力手段と
を有することを特徴とするコミュニケーションシステム。 - 請求項2に記載のコミュニケーションシステムであって、
前記第1の端末装置は、第1の撮像装置を有し、
前記第1のオブジェクト決定手段は、前記第1の撮像装置で撮像して得られる画像データを第1のオブジェクトと決定し、
前記第2の端末装置は、第2の撮像装置を有し、
前記第2のオブジェクト決定手段は、前記第2の撮像装置で撮像して得られる画像データを第1のオブジェクトと決定する
ことを特徴とするコミュニケーションシステム。 - 請求項2に記載のコミュニケーションシステムであって、
前記第1の端末装置は、第1の音声入力装置を有し、
前記第1のオブジェクト決定手段は、前記第1の音声入力装置に入力された音声データを第1のオブジェクトと決定し、
前記第2の端末装置は、第2の音声入力装置を有し、
前記第2のオブジェクト決定手段は、前記第2の音声入力装置に入力された音声データを第2のオブジェクトと決定する
ことを特徴とするコミュニケーションシステム。 - 請求項2に記載のコミュニケーションシステムであって、
前記第1の端末装置及び第2の端末装置は、
共通して出力する背景画像又は背景音声のオブジェクトを記憶する手段を有し、
前記第1の出力手段は、
前記第1の制御命令生成手段で生成した制御命令及び前記第1の制御命令受信手段で受信した制御命令に従って前記背景画像又は背景音声のオブジェクトを制御して出力し、
前記第2の出力手段は、
前記第2の制御命令生成手段で生成した制御命令及び前記第2の制御命令受信手段で受信した制御命令に従って前記背景画像又は背景音声のオブジェクトを制御して出力する
ことを特徴とするコミュニケーションシステム。 - 請求項1に記載のコミュニケーションシステムであって、
前記出力手段は、予め関連付けられた複数の制御命令が連続して実行されるように出力情報を制御する
ことを特徴とするコミュニケーションシステム。 - 請求項1に記載のコミュニケーションシステムであって、
前記制御命令は、
(A)出力情報の表示位置を変更する位置指定命令、
(B)出力情報の表示位置を移動する移動命令、
(C)出力情報の表示を消去する消去命令、
(D)出力情報の表示の大きさを指定する表示サイズ変更命令、
(E)出力情報の表示の色数を指定する色数変更命令、
(F)出力情報の表示の透明度を指定する透明度変更命令、
(G)出力情報の重ね合せの順位を指定する表示優先度変更命令、
(H)出力情報の音量を指定する音量変更命令、
(I)出力情報の音声の変調を指定する音声変調命令
のうちの少なくとも一つである
ことを特徴とするコミュニケーションシステム。 - 請求項1に記載のコミュニケーションシステムであって、
前記端末装置は、
同一の出力情報に対して複数の制御命令が存在する場合の出力情報の制御の規則を記憶する記憶手段を有し、
前記出力手段は、
同一の出力情報に対して複数の制御命令が存在する場合、前記規則に従って当該出力情報を制御して出力する
ことを特徴とするコミュニケーションシステム。 - 請求項8に記載のコミュニケーションシステムであって、
前記規則は、
(a)制御命令の発信時間が早い順に実行する、
(b)予め関連付けられた制御命令を連続して実行する、
(c)制御命令がパラメータを含む場合は平均値もしくは中間値を取り実行する
(d)制御命令を発信したユーザの情報が入手されている場合、そのユーザが予め定められたユーザである制御命令を実行する
(e)制御命令を発信したユーザの情報が入手されている場合、予め設定されたユーザ優先度の高い順に、制御情報を実行する。
(f)制御命令を発信したユーザの音声の情報が入手されている場合、音声の大きいユーザの制御命令を順に実行する
(g)制御命令を発信したユーザの映像が入手されている場合、映像の動きベクトルの大きいユーザ制御命令を順に実行する、
の少なくとも一つの規則が含まれている
ことを特徴とするコミュニケーションシステム。 - 請求項8において、
前記端末装置の記憶手段は、
同一の出力情報に対して複数の制御命令が存在する場合の出力情報の制御の規則であってその端末装置独自の規則を記憶し、
前記出力手段は、
同一の出力情報に対して複数の制御命令が存在する場合、前記端末装置独自の規則に従って当該出力情報を制御して出力する
ことを特徴とするコミュニケーションシステム。 - 複数の端末装置を有するコミュニケーションシステムの端末装置であって、
他の端末装置で決定された各端末装置で共通して出力される出力情報を受信する手段と、
前記出力情報の制御命令を生成する手段と、
生成した制御命令に従って出力情報を制御して出力する出力手段と
を有することを特徴とするコミュニケーションシステム。 - 第1の端末装置と第2の端末装置とを有するコミュニケーションシステムの第1の端末装置であって、
前記第1の端末装置と第2の端末装置で共通して出力される第1のオブジェクトを決定するオブジェクト決定手段と、
決定された第1のオブジェクトを特定する情報を前記第2の端末装置に送信する手段と、
前記第2の端末装置で決定された第2のオブジェクトを特定する情報を前記第2の端末装置から受信する手段と、
オブジェクトの制御命令を生成する制御命令生成手段と、
生成した制御命令を前記第2の端末装置に送信する手段と、
前記第2の端末装置からオブジェクトの制御命令を受信する制御命令受信手段と、
前記制御命令生成手段で生成した制御命令及び前記制御命令受信手段で受信した制御命令に従って前記第1のオブジェクト及び第2のオブジェクトを制御して出力する出力手段と
を有することを特徴とする第1の端末装置。 - 請求項11に記載の端末装置であって、
前記出力手段は、予め関連付けられた複数の制御命令が連続して実行されるように出力情報を制御する
ことを特徴とする端末装置。 - 請求項11に記載の端末装置であって、
同一の出力情報に対して複数の制御命令が存在する場合の出力情報の制御の規則を記憶する記憶手段を有し、
前記出力手段は、
同一の出力情報に対して複数の制御命令が存在する場合、前記規則に従って当該出力情報を制御して出力する
ことを特徴とする端末装置。 - 複数の端末装置を有するコミュニケーションシステムのコミュニケーション方法であって、
各端末装置は、
各端末装置で共通して出力される出力情報を決定するステップと、
決定された出力情報を互いに送受信するステップと、
前記出力情報の制御命令を生成するステップと、
生成した出力情報の制御命令を互いに送受信するステップと、
送受信した制御命令に従って出力情報を制御して出力する出力ステップと
を行うことを特徴とするコミュニケーション方法。 - 第1の端末装置と第2の端末装置とを有するコミュニケーションシステムのコミュニケーション方法であって、
前記第1の端末装置は、
前記第1の端末装置と第2の端末装置で共通して出力される第1のオブジェクトを決定する第1のオブジェクト決定ステップと、
決定された第1のオブジェクトを特定する情報を前記第2の端末装置に送信するステップと、
前記第2の端末装置で決定された第2のオブジェクトを特定する情報を前記第2の端末装置から受信するステップと、
オブジェクトの制御命令を生成する第1の制御命令生成ステップと、
生成した制御命令を前記第2の端末装置に送信するステップと、
前記第2端末装置からオブジェクトの制御命令を受信する第1の制御命令受信ステップと、
前記第1の制御命令生成ステップで生成した制御命令及び前記第1の制御命令受信ステップで受信した制御命令に従って前記第1のオブジェクト及び第2のオブジェクトを制御して出力する第1の出力ステップとを行い、
前記第2の端末装置は、
前記第1の端末装置と第2の端末装置で共通して出力される第2のオブジェクトを決定する第2のオブジェクト決定ステップと、
決定された第2のオブジェクトを特定する情報を前記第1の端末装置に送信するステップと、
前記第1の端末装置で決定された第1のオブジェクトを特定する情報を前記第1の端末装置から受信するステップと、
オブジェクトの制御命令を生成する第2の制御命令生成ステップと、
生成した制御命令を前記第1の端末装置に送信するステップと、
前記第1端末装置からオブジェクトの制御命令を受信する第2の制御命令受信ステップと、
前記第2の制御命令生成ステップで生成した制御命令及び前記第2の制御命令受信ステップで受信した制御命令に従って前記第1のオブジェクト及び第2のオブジェクトを制御して出力する第2の出力ステップと
を行うことを特徴とするコミュニケーション方法。 - 請求項15に記載のコミュニケーションシステム方法であって、
前記出力ステップは、予め関連付けられた複数の制御命令が連続して実行されるように出力情報を制御する
ことを特徴とするコミュニケーション方法。 - 請求項15に記載のコミュニケーションシステム方法であって、
前記端末装置は、
同一の出力情報に対して複数の制御命令が存在する場合の出力情報の制御の規則を記憶する記憶手段を有し、
前記出力ステップは、
同一の出力情報に対して複数の制御命令が存在する場合、前記規則に従って当該出力情報を制御して出力する
ことを特徴とするコミュニケーション方法。 - 複数の端末装置を有するコミュニケーションシステムの端末装置としてコンピュータを機能させるプログラムであって、
他の端末装置で決定された各端末装置で共通して出力される出力情報を受信する手段と、
前記出力情報の制御命令を生成する手段と、
生成した制御命令に従って出力情報を制御して出力する出力手段とを有する端末装置としてコンピュータを機能させることを特徴とするプログラム。 - 第1の端末装置と第2の端末装置とを有するコミュニケーションシステムの第1の端末装置としてコンピュータを機能させるプログラムであって、
前記第1の端末装置と第2の端末装置で共通して出力される第1のオブジェクトを決定するオブジェクト決定手段と、
決定された第1のオブジェクトを特定する情報を前記第2の端末装置に送信する手段と、
前記第2の端末装置で決定された第2のオブジェクトを特定する情報を前記第2の端末装置から受信する手段と、
オブジェクトの制御命令を生成する制御命令生成手段と、
生成した制御命令を前記第2の端末装置に送信する手段と、
前記第2の端末装置からオブジェクトの制御命令を受信する制御命令受信手段と、
前記制御命令生成手段で生成した制御命令及び前記制御命令受信手段で受信した制御命令に従って前記第1のオブジェクト及び第2のオブジェクトを制御して出力する出力手段とを有する第1の端末装置として
コンピュータを機能させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004361299A JP2006173879A (ja) | 2004-12-14 | 2004-12-14 | コミュニケーションシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004361299A JP2006173879A (ja) | 2004-12-14 | 2004-12-14 | コミュニケーションシステム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006173879A true JP2006173879A (ja) | 2006-06-29 |
Family
ID=36674173
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004361299A Pending JP2006173879A (ja) | 2004-12-14 | 2004-12-14 | コミュニケーションシステム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006173879A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008235989A (ja) * | 2007-03-16 | 2008-10-02 | Nippon Telegr & Teleph Corp <Ntt> | 画像処理装置および画像処理方法 |
JP2014194546A (ja) * | 2014-04-07 | 2014-10-09 | Nikon Corp | 電子機器 |
JP2014532330A (ja) * | 2011-09-23 | 2014-12-04 | タンゴメ,インコーポレイテッド | テレビ会議の強化 |
CN111669662A (zh) * | 2020-07-03 | 2020-09-15 | 海信视像科技股份有限公司 | 显示设备、视频通话方法及服务器 |
-
2004
- 2004-12-14 JP JP2004361299A patent/JP2006173879A/ja active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008235989A (ja) * | 2007-03-16 | 2008-10-02 | Nippon Telegr & Teleph Corp <Ntt> | 画像処理装置および画像処理方法 |
JP2014532330A (ja) * | 2011-09-23 | 2014-12-04 | タンゴメ,インコーポレイテッド | テレビ会議の強化 |
JP2014194546A (ja) * | 2014-04-07 | 2014-10-09 | Nikon Corp | 電子機器 |
CN111669662A (zh) * | 2020-07-03 | 2020-09-15 | 海信视像科技股份有限公司 | 显示设备、视频通话方法及服务器 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4241053B2 (ja) | コミュニケーションシステムおよびその端末装置 | |
JP6460228B2 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
JP2004128614A (ja) | 画像表示制御装置及び画像表示制御プログラム | |
US7865833B2 (en) | Data processing apparatus, data processing server, data processing system, method of controlling data processing apparatus, method of controlling data processing server, computer program, and computer readable storage medium | |
JP4994646B2 (ja) | 通信端末および通信システム、並びに通信端末の表示方法 | |
US7508413B2 (en) | Video conference data transmission device and data transmission method adapted for small display of mobile terminals | |
US20080062252A1 (en) | Apparatus and method for video mixing and computer readable medium | |
US9894391B2 (en) | Distribution management apparatus, distribution method, and program | |
WO2007063922A1 (ja) | 通信端末および通信システム、並びに通信端末の表示方法 | |
JP2005123804A (ja) | コミュニケーションシステム及び方法 | |
WO2012054895A2 (en) | System architecture and method for composing and directing participant experiences | |
JP2014209299A (ja) | プログラム、伝送システム | |
JP2014003448A (ja) | 伝送システム、外部入力装置、および表示解像度変換用プログラム | |
JP2005051703A (ja) | ライブストリーミング放送方法、ライブストリーミング放送装置、ライブストリーミング放送システム、プログラム、記録媒体、放送方法及び放送装置 | |
CN113286191A (zh) | 内容协同方法、装置、电子设备以及存储介质 | |
JP2005328484A (ja) | テレビ会議システム、情報処理装置及び情報処理方法並びにプログラム | |
JP2009065696A (ja) | 映像合成装置、方法およびプログラム | |
JP2006173879A (ja) | コミュニケーションシステム | |
JP5369418B2 (ja) | 配信システム、配信方法及び通信端末 | |
JP2007150877A (ja) | 通信端末およびその表示方法 | |
KR101067952B1 (ko) | 트래픽이 절감된 화상통신 운영 시스템 및 방법 | |
JP2004304651A (ja) | 情報処理装置、携帯情報端末、情報処理方法、プログラム及び記録媒体 | |
JP6269781B2 (ja) | 伝送システム | |
JP2004343175A (ja) | 映像中継装置 | |
JP2006210973A (ja) | 通信端末装置およびそのセッション接続方法 |