JP2004258819A - Electronic communication support server - Google Patents

Electronic communication support server Download PDF

Info

Publication number
JP2004258819A
JP2004258819A JP2003046631A JP2003046631A JP2004258819A JP 2004258819 A JP2004258819 A JP 2004258819A JP 2003046631 A JP2003046631 A JP 2003046631A JP 2003046631 A JP2003046631 A JP 2003046631A JP 2004258819 A JP2004258819 A JP 2004258819A
Authority
JP
Japan
Prior art keywords
information
image
output
server
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003046631A
Other languages
Japanese (ja)
Inventor
Masakazu Masuzaki
将一 益▲崎▼
Tomonori Nakanishi
智則 中西
Naoki Kirimoto
直樹 桐本
Shinsuke Tanaka
信介 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
ATR Advanced Telecommunications Research Institute International
Original Assignee
Fujitsu Ltd
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd, ATR Advanced Telecommunications Research Institute International filed Critical Fujitsu Ltd
Priority to JP2003046631A priority Critical patent/JP2004258819A/en
Publication of JP2004258819A publication Critical patent/JP2004258819A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To realize a communication system which is smooth and easy to use by visual expression of a relationship between speakers in a system used for communications such as the Internet and a chat to which many and unspecified persons join in an ad hoc mode. <P>SOLUTION: In a server which receives input information such as an image, voice or a character from two or more terminals, and controls these input information and outputs it as communication information, a means to receive the input information is set up and at the same time, a table which defines a relationship such as closeness between terminals is also set up. A control means performs control such as displaying input images from respective terminals having high closeness in close proximity with reference to this table. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、表示機能を有するサーバと、当該サーバの表示を閲覧しながら当該サーバにアクセスする複数の端末装置(厳密には、端末操作者)間で電子コミュニケーションを行う技術に適用して有効な技術に関する。
【0002】
【従来の技術】
インターネットやアドホックモードでは不特定多数の参加者が端末装置を通じてキーボードやマイクロフォンを介して文字や音声でのコミュニケーションを行う、いわゆるチャットや電子会議システム(以後、一括して「電子コミュニケーション」という)が知られている。
【0003】
さらに、最近では通信ネットワークの広帯域化にしたがって、CCDカメラにより話者自身を撮影し、相手側の端末装置にその画像を表示させるようにしたビデオチャットあるいはテレビ会議システム等も実用化されてきている。
【0004】
ところで、このようなシステムでは、不特定の参加者(話者)同士を関係付ける手段を有しておらず、画面上に表示されるハンドルネーム等のニックネームを識別して参加者同士がその話題によって仲の良さを認識して会話をすすめる以外に方法はなかった。
【0005】
すなわち、従来技術では電子コミュニケーションに参加している話者同士がどのように親密になったとしても画面上の文字や画像は変化しないため、参加者はこのような電子コミュニケーションに対して飽きてしまうことが多く、またそれを閲覧している第三者に対しても参加意欲をわかせるまでに至っていないものが多かった。
【0006】
この点について、特開2001−222575号公報(特許文献1)では、従来のシステムが発言内容と発言者情報を単に表示するだけだった点に鑑みて、相性診断機能と相性表示機能をシステムに設けて発言者と閲覧者との相性を診断し表示する技術を提案している。
【0007】
【特許文献1】
特開2001−222575号公報(図1)
【0008】
【発明が解決しようとする課題】
しかし、前記特許文献1では、発言者と閲覧者の相性をどのように診断するのかが具体的に明らかになってはいなかった。また、前記特許文献1は、単に閲覧者が自分の相性の良い発言者を探すためのものであり、現に電子コミュニケーションを行っている話者同士の関係を示すものではなかった。そのために、現に進行している会話が盛り上がっているのか否か、また会話をしている両者の関係がどの程度のものであるのかは知ることができなかった。
【0009】
本発明はこのような点に鑑みてなされたものであり、インターネットやアドホックモードで不特定多数の人が加わるチャットなどの電子コミュニケーションに用いるシステムにおいて、話者間の関係を視覚的に表現することにより、円滑でかつ利用しやすい電子コミュニケーションシステムを実現することを技術的課題とする。
【0010】
【課題を解決するための手段】
上記課題を解決するために、本発明の第1の手段は、2以上の端末装置から画像、音声または文字等の入力情報を受信してこれらの入力情報を制御してコミュニケーション情報として出力するサーバにおいて、前記入力情報を受信する手段を設けるとともに、前記端末装置同士の関係を規定するテーブルを設けて、このテーブルを参照して制御手段は出力情報を出力手段に対して出力するようにしたものである。
【0011】
ここで、端末装置とはパーソナルコンピュータ、携帯電話型の通信端末装置、PDA(Personal Digital Assistants)等通信が可能な端末装置であればいかなるものでも良い。通常、端末装置には入力情報を与えるための入力手段を有しており、これは文字情報を入力するためのキーボード、タッチパネル、マウス等が考えられる。また、音声情報を入力するためのマイク、画像(静止画または動画)を入力するためのカメラを有していても良い。
【0012】
サーバは、パーソナルコンピュータまたはワークステーション等の情報処理装置であり、前記端末装置とは無線LAN、有線LAN、赤外線通信またはブルートゥース(Blue Tooth)等の通信方法によって前記端末装置からのアクセスが可能となっている。
【0013】
当該サーバにおいて、端末装置同士の関係を規定するテーブルには、IDやアドレスで識別された端末装置同士の親密度、相性、組織やグループの属性が登録されるようになっている。そして、サーバの制御手段はこれらのテーブルの内容に基づいて端末装置から入力された入力情報を加工処理して出力手段に対して出力するようにしている。
【0014】
ここで、出力手段とは、サーバ自身が有している表示装置、スピーカー等の他、ユーザが使用する端末装置の表示装置、スピーカー等でも良い。
【0015】
課題を解決するための第2の手段は、前記のテーブルを親密度を登録するようにしたものでる。
【0016】
すなわち、サーバの制御手段は前記テーブルを参照して親密度の度合いや属性の異同により端末装置同士の電子コミュニケーションの出力である文字情報、音声情報や画像情報を制御するものである。
【0017】
課題を解決するための第3の手段は、制御手段として画像情報の画質を制御する機能を持たせて、テーブルから読み出した端末装置同士の関係度合いに基づいて出力手段であるサーバまたは端末装置の表示装置に対して出力する画像情報を変化させるようにしたものである。
【0018】
これにより、親密度の低い端末装置同士の電子コミュニケーションの場合には、端末装置からの入力画像情報の解像度を下げたり、モザイク処理を行ったりして表示装置に出力しても良い。そして両端末装置間の親密度が高まるにしたがって解像度を上げたりモザイク処理を除去しても良い。
【0019】
課題を解決するための第4の手段は、制御手段として音声情報の音質または音量を制御する機能を持たせて、テーブルから読み出した端末装置同士の関係度合いに基づいて出力手段であるサーバまたは端末装置の音声表示装置に対して出力する音声情報を変化させるようにしたものである。
【0020】
これにより、親密度の低い端末装置同士の電子コミュニケーションの場合には、各端末装置から入力された音声情報に対して、音量を低くしたり、劣化させた音質でスピーカーから出力させるようにしても良い。そして両端末装置間の親密度が高まるにしたがって音量を大きくしたり、音質を向上させても良い。
【0021】
課題を解決するための第5の手段は、制御手段として、表示装置の画面を制御する機能を持たせて、前記テーブルから読み出した端末装置同士の関係度合いに基づいて前記出力手段であるサーバまたは端末装置の表示装置に対して出力する端末装置毎の出力情報の表示位置を変化させるようにしたものである。
【0022】
これにより、親密度が高かったり、同じ属性を有する端末装置同士の電子コミュニケーションについては、それぞれの端末装置に設けられたカメラからの入力画像領域同士を近接した位置に配置して表示装置上で表示させることができる。
【0023】
【発明の実施の形態】
次に、本発明の実施の形態について図面を参照して説明する。
【0024】
図1は、本発明の一実施形態のシステム構成を示す機能ブロック図である。
【0025】
本実施形態は、端末装置1とサーバ2とで構成されている。端末装置1は、たとえばパーソナルコンピュータであり、ハードウエア構成としては、図示しない中央処理装置(CPU)およびメモリを中心に、ハードディスク装置等の記憶装置、キーボード、マウス、CCDカメラ、マイク等の入力装置が接続されている。また、この種のパーソナルコンピュータには、図示を省略するが、ディスプレイ装置等の表示装置、スピーカー等の音声出力装置等を有している。
【0026】
図1に示した各機能部(101〜108)は、それぞれ専用のハードウエアと前記記憶装置にインストールされたプログラムを中央処理装置(CPU)が実行処理することにより実現している。
【0027】
端末装置1において、画像移動制御部101は、ユーザのキーボードまたはマウス等の入力指示を受け付けたときに、この入力指示に基づいて当該端末1のCCDカメラで入力された画像の移動指示情報をサーバ2に対して通知する機能を有しており、当該画像の移動情報は前記データ送信部109を介してサーバ2に送信される。
【0028】
文字入力部102は、前記キーボードを介して入力された文字情報を受け付ける機能部であり、当該文字情報は前記データ送信部109を介してサーバ2に送信される。
【0029】
会議主催制御部103は、ユーザのキーボードまたはマウス等の入力指示により会議主催指示(開始・終了)を受け付ける機能部である。ここでいう「会議主催」とはサーバ2のコミュニケーション制御機能(符号203〜209で示した機能部)を利用して会議を主催することを意味し、より具体的には、サーバ2のテーブル209で同じ会議グループとして属性付けされた端末装置同士のユーザを会議の参加メンバーとしてサーバ2が生成する画面上で文字、音声、画像(動画・静止画)による相互情報通知を可能とすることを意味する。この種の仕組みはいわゆる電子会議やチャットと呼ばれており、従来は端末装置1のユーザのID(ニックネームやハンドルネーム)と入力文字列の組み合わせによる双方向の文字情報通知機能が主であったが、最近は通信インフラストラクチャの整備により通信の広帯域化(ブロードバンド化)が実現したことにより、音声や動画像による情報通知機能による会議主催が可能となっている。
【0030】
ユーザがキーボードまたはマウス等の入力指示により、会議主催指示(開始・終了)を入力した場合、当該会議主催制御部103はこの指示をデータ送信部109を介してサーバ2に送信する。サーバ2ではこの指示に基づいて後述の端末間関係データテーブルの会議主催フラグを更新する。
【0031】
カメラ画像入力部104は、CCDカメラから入力された画像データの処理を行い、データ送信部109とカメラ画像出力部107に出力する機能を有している。
【0032】
ここで、CCDカメラによる入力画像は、静止画または動画のいずれであっても良く、通常の場合、当該端末装置1を操作するユーザ自身の顔が入力画像となる。
【0033】
なお、前記カメラ画像出力部107にはディスプレイ装置(表示装置)が接続されており、ユーザは自身の端末装置1のディスプレイ画面で自身の撮影画像を確認しながら文字情報や音声情報を入力することができるようになっている。
【0034】
マイク音声入力部108は、マイクを通じて入力されたユーザの音声データの処理を行う機能部である。マイク音声入力部108は当該音声データをデータ送信部109を介してサーバ2に送信する。
【0035】
文字出力部106は、サーバ2を介して他の端末装置から受信した文字情報を前述のディスプレイ装置に表示するための機能部である。
【0036】
マイク音声出力部108は、他の携帯端末からサーバ2を経由して送信されてきた音声データを端末装置1のスピーカーから出力するための機能部である。
【0037】
データ送信部109は、サーバ2に対してデータ送信を行うための機能部であり、ハードウエアとしては、無線LAN、有線LAN、公衆電話回線、赤外線通信インターフェース、ブルートゥース等の通信インターフェースで実現されている。
【0038】
データ受信部110は、サーバ2からのデータを受信するための機能部であり、ハードウエアとしては、前記データ送信部109と同様に無線LAN、有線LAN、公衆電話回線、赤外線通信インターフェース、ブルートゥース等の通信インターフェースで実現されている。
【0039】
図11は、端末装置1の表示装置の画面例を示している。同図の画面では左上に窓部領域(My Face 1)が開設されて、カメラ画像入力部104から入力されたカメラ画像がカメラ画像出力部107を介して表示されている。その下の文字表示窓領域(Private Msg masuzaki 1)は1対1の会話用のメッセージを表示する領域であり、その下にはさらに文字入力窓領域(Hot Spot Chat)が開設されている。この文字入力領域には、キーボードから入力された文字が表示されるようになっている。画面中央右寄り部分には、上下左右の矢印のアイコンが表示されており、マウス等を用いてマウスカーソルで当該矢印部分を指定することによりユーザ自身が撮影している画像領域(My Face 1)をサーバ画面内で移動できるようになっている。
【0040】
一方、図12はサーバ2の表示装置の基本的な画面例を示している。サーバ側の表示画面では、当該サーバ2にアクセスしている参加者(端末装置)の入力画像がそれぞれの画像領域に表示され、各端末装置から入力された文字情報が前記画像領域に近接して表示されている。
【0041】
サーバ2は、前記端末装置1のデータ送信部109およびデータ受信部110に対応するデータ受信部201およびデータ送信部202を有している。すなわち、サーバ2のデータ受信部201は、端末装置1から送信されてくるデータを受信する機能部であり、データ送信部202は、端末装置1に対してデータの送信を行う機能部である。
【0042】
画像位置制御部203は、それぞれの端末装置1等から受信した画像の移動指示情報(座標変更情報)に基づいて画像の位置を制御する機能部である。具体的には、たとえば図8に示すように、端末装置1から受信した移動指示情報に基づいて端末装置1の入力画像位置を画面の左下位置から右上に移動することを意味する。この移動指示情報は前述のように、端末装置1のユーザがクライアント画面の上下左右の矢印のアイコンで自身のディスプレイ画面上でその移動位置を確認しながら行う。すなわち端末の画像移動制御部101は、画像の座標変更情報を画像の移動指示情報としてサーバ2の画像位置制御部203に通知し、画像位置制御部203はこの座標変更情報を関係制御部208に通知する。
【0043】
サーバ2の関係制御部208は、端末間関係データテーブル209を参照する機能部である。端末間関係データテーブル209には、図2に示すようなユーザ情報テーブルが設けられている。このユーザ情報テーブルには、ユーザ名、画像位置のXY座標、画像の高さと幅と会議室主催フラグが登録可能となっている。
【0044】
関係制御部208は、前記座標変更情報に基づいて端末間関係データテーブル209の内容、すなわち画像位置XY座標と画像高さ・幅のデータを更新する。そして関係制御部208は、この座標変更情報を画像表示制御部204に通知する。
【0045】
画像表示制御部204は、前記座標変更情報に基づいて画面上の端末装置毎の画面位置および大きさを再配置する(図8参照)。このようにして再配置された画面の画像情報は、画像表示制御部204を介してサーバの大型ディスプレイパネルに表示する。また、その画面の画像情報はデータ送信部202を介して端末装置1に送信され、端末装置1上のディスプレイ画面に反映されるようにしても良い。
【0046】
一方、前記端末間関係データテーブル209は、前記ユーザ情報テーブル(図2)の他に、図4に示すような親密度テーブルを有している。この親密度テーブルは、端末装置を操作するユーザ毎の親密度が比率(最大100%)で登録されるようになっている。ユーザ間の親密度の比率が高い程、数値が高くなる。ここで、当該親密度は、サーバ2の関係制御部208が当該ユーザの端末装置同士の相互のデータ通信量、たとえば会話文字数(電子コミュニケーション上での相手側への入力文字数)等に基づいて統計的に算出することができる。なおその場合、初期値は0%である。たとえば、ユーザの端末装置同士で頻繁に文字、音声、画像情報によりサーバ2を介して相互通信を行っている場合には、その通信情報量に応じて次第に比率が高くなっていくように制御している。図3は会話文字量と親密度との関係の一例を示したグラフ図である。
【0047】
なお、図4の場合、BさんとCさんの親密度が高く、CさんからBさんへの親密度が85%、逆にBさんからCへの親密度が70%となっている。このように相互通信であるにもかかわらずAB間で数値が異なるのは、親密度が高いといってもCさんからBさんに話しかけるような電子コミュニケーションが多く、Bさんは比較的受け身の電子コミュニケーションをしているためである。関係制御部208は、Cさんの端末装置からBさんの端末装置への音声情報等の通信量と、Bさんの端末装置からCさんの端末装置への音声情報等の通信量に基づいてこのように異なる数値を算出している。
【0048】
関係制御部208は、端末間関係テーブル209のこの親密度テーブル(図4)を参照しながら、図2に示したユーザ情報テーブルを更新する機能を有している。すなわち、Cさんの端末装置とBさんの端末装置とで動画像情報によって相互通信を行う場合、親密度テーブルの内容に基づいて、Bさん−Cさん間は親密度が高いと判定できるので、画面上で双方の画像が近接しかつ大きな領域を確保するようにユーザ情報テーブルを更新する。
【0049】
なお、Bさん→Cさんへの親密度とCさん→Bさんの親密度は「(Bさん→Cさん:70%)<(Cさん→Bさん:85%)」であるため、関係制御部208および画像表示制御部204は、CさんからBさんへの画像について、BさんからCさんに送信される際の画像よりも大きく表示するように制御を行っても良い。
【0050】
会議主催制御部205は、特定の端末装置を関係付けて電子会議を行うための制御を行う機能部である。図5に示す会議主催グループテーブルは前述の端末間関係テーブル内に設けられており、会議の主催者(主催者の端末装置のID)と参加者(参加者の端末装置のID)とが登録されるようになっている。関係制御部208はこの会議主催グループテーブルと前述のユーザ情報テーブル(図2)を参照して会議に参加しているユーザ(端末装置)と、どの会議に参加しているか(端末装置の会議属性)を認識できるようになっている。
【0051】
会議主催制御部205は、まず個人情報テーブル(図2)を参照し、端末装置毎の会議室の主催の有無を調べる。ここで、会議室主催のフラグが立っている場合(図2の会議室主催が「有り」になっている場合)には、画面上で当該端末装置からの入力動画像を中心に円形の会議室領域を生成する(図9参照)。そして会議主催制御部205は、この会議室に参加する端末装置からの入力画像を、この円形の会議室領域内に配置するよう配置する制御を行う。
【0052】
なお、会議室領域の形状は図9に示したようにその境界を明確に区画する場合の他、会議室領域の円中心から離れるにしたがって色が次第に薄くなるように制御しても良い。そして、会議室主催制御部205は、親密度テーブル(図4)を参照して主催者(主催者の端末装置)との親密度に比例した色の濃さの位置に会議室に参加する端末装置からの画像を配置しても良い。つまり、会議室主催者との親密度の高い端末装置からの入力画像は中央の濃い色の部分に配置され、親密度の低い端末装置からの入力画像は周辺に近い薄い色の部分に配置される。
【0053】
このように、会議室の主催者を中心にその領域を色分けすることにより、会議室の主催者が視覚的に把握しやすくなるとともに、他の参加者の入力画像の配置位置により、当該会議室の参加意欲や会議室の話題の盛り上がりが把握できる。
【0054】
サーバ2の文字表示制御部206は、端末装置1から受信した文字情報を表示装置の画面に表示するための機能部である。また、音声出力制御部207は、端末装置1から受信した音声情報をスピーカーから出力するための制御を行う機能部である。この音声出力制御部207は、前記の親密度テーブル(図4)を参照して、端末装置間の親密度に応じて音声情報に対して変調処理を行って出力する。この親密度と変調率の関係を示したものが図7のグラフ図である。このように、音声出力制御部207は、会話を行っている端末装置間の親密度が高ければ双方の端末装置に対して明瞭な音声情報を出力させるようにし、親密度が低い場合には変調率を下げて音質を低下させた音声情報を出力させるようにしている。
【0055】
以上の説明では、親密度テーブルに登録された端末装置間の親密度に応じて画像の位置や音声情報の変調率を変化させた例で説明したが、親密度に基づいた制御はこれらに限定されることはなく、たとえば画像表示制御部204は、親密度テーブルの親密度に応じて入力画像にモザイク処理を施して表示装置の画面上に入力画像として出力しても良い。このように親密度とモザイクの度合いの関係を示したものが図6である。同図では親密度が0%、20%、60%および100%の場合のそれぞれについてモザイク処理の度合いを例示している。
【0056】
〔その他〕
上述した一実施の形態における処理はコンピュータで実行可能なプログラムとして提供され、CD−ROMやフレキシブルディスクなどの記録媒体、さらには通信回線を経て提供可能である。
【0057】
また、本発明に基づいて実施形態を説明したが、本発明はこのような実施形態に限定されるものではなく、以下の付記的事項を含む概念である。
【0058】
(付記1)2以上の端末装置から少なくとも画像、音声または文字の入力情報を受信し、前記入力情報を制御してコミュニケーション情報として出力するサーバにおいて、
前記入力情報を受信する手段と、
前記端末装置同士の関係を規定するテーブルと、
受信した前記入力情報について前記テーブルを参照して出力情報を生成する制御手段と、
前記生成された出力情報を出力する出力手段と、
を備える電子コミュニケーション支援サーバ(1)。
【0059】
(付記2)前記テーブルは、前記端末装置同士の親密度を登録したテーブルである付記1記載の電子コミュニケーション支援サーバ(2)。
【0060】
(付記3)前記制御手段は、画像情報の画質を制御する画像制御手段であり、前記テーブルから読み出した前記端末装置同士の関係度合いに基づいて前記出力手段であるサーバまたは端末装置の表示装置に対して出力する画像情報を変化させる付記1記載の電子コミュニケーション支援サーバ(3)。
【0061】
(付記4)前記制御手段は、音声情報の音質または音量を制御する音声制御手段であり、前記テーブルから読み出した前記端末装置同士の関係度合いに基づいて前記出力手段であるサーバまたは端末装置の音声表示装置に対して出力する音声情報を変化させる付記1記載の電子コミュニケーション支援サーバ(4)。
【0062】
(付記5)前記制御手段は、表示装置の画面を制御する画面制御手段であり、前記テーブルから読み出した前記端末装置同士の関係度合いに基づいて前記出力手段であるサーバまたは端末装置の表示装置に対して出力する前記端末装置毎の出力情報の表示位置を変化させる付記1記載の電子コミュニケーション支援サーバ(5)。
【0063】
(付記6)前記テーブルは電子会議の属性が登録可能であり、前記制御手段は画面制御手段であり、当該画面制御手段は、前記テーブルから読み出した前記端末装置間に電子会議の属性が登録されているときに、当該電子会議に所属する前記端末装置同士を表示装置の画面上で他の領域とは区別可能に表示する付記1記載の電子コミュニケーション支援サーバ。
【0064】
これにより、同じ電子会議に所属する端末装置同士の電子コミュニケーションは、出力手段である表示装置の画面上で、同一の電子会議を意味する同じ背景色で区画された領域内に、参加者の端末装置毎のカメラからの入力画像領域を配置することができる。
【0065】
(付記7)前記画面制御手段は、画面上の領域について前記電子会議の中心から周辺にいくにしたがって次第に色を変化させるようにし、前記テーブルを参照して前記端末装置同士の関係の度合いに基づいて前記端末装置の入力画像を配置する制御を行う付記6記載の電子コミュニケーション支援サーバ。
【0066】
(付記8)2以上の端末装置から少なくとも画像、音声または文字の入力情報を受信し、前記入力情報を制御してコミュニケーション情報として出力するサーバにおいて、
前記入力情報を受信するステップと、
前記端末装置同士の関係をテーブルから読み出すステップと、
読み出した前記端末装置同士の関係に基づいて、前記端末装置からの入力情報を加工して出力情報を生成するステップと、
前記生成された出力情報を出力するステップと、
を備える電子コミュニケーション支援方法。
【0067】
(付記9)2以上の端末装置から少なくとも画像、音声または文字の入力情報を受信し、前記入力情報を制御してコミュニケーション情報として出力するサーバにおいて、
前記入力情報を受信するステップと、
前記端末装置同士の関係をテーブルから読み出すステップと、
読み出した前記端末装置同士の関係に基づいて、前記端末装置からの入力情報を加工して出力情報を生成するステップと、
前記生成された出力情報を出力するステップと、
を備えるコンピュータ実行可能な電子コミュニケーション支援プログラム。
【0068】
(付記10)2以上の端末装置から少なくとも画像、音声または文字の入力情報を受信し、前記入力情報を制御してコミュニケーション情報として出力するサーバにおいて、
前記入力情報を受信するステップと、
前記端末装置同士の関係をテーブルから読み出すステップと、
読み出した前記端末装置同士の関係に基づいて、前記端末装置からの入力情報を加工して出力情報を生成するステップと、
前記生成された出力情報を出力するステップと、
を備える電子コミュニケーション支援プログラムを記録したコンピュータ実行可能な記録媒体。
【0069】
【発明の効果】
以上説明したように、本発明によれば、インターネットやアドホックモードで不特定多数の人が加わるチャットなどコミュニケーションに用いるシステムにおいて、話者間の関係を視覚的に表現することにより、円滑でかつ利用しやすいコミュニケーションシステムが実現される。
【図面の簡単な説明】
【図1】端末装置とサーバの機能ブロック図。
【図2】端末間関係データテーブル中のユーザ情報テーブルの内容を示す図。
【図3】会話文字数と親密度との関係を示すグラフ図。
【図4】親密度テーブルの内容を示す図。
【図5】会議主催グループテーブルの内容を示す図。
【図6】親密度とモザイク度合いの関係を示すグラフ図。
【図7】親密度と音声の変調度合いの関係を示すグラフ図。
【図8】端末装置からの移動指示情報に基づく入力画像の移動状態を示す図。
【図9】会議主催範囲を色分けした状態を示す画面例。
【図10】親密度と会議主催範囲の色との関係を示すグラフ図。
【図11】端末装置の画面例を示す図。
【図12】サーバの画面例を示す図。
【符号の説明】
1 端末装置
101 画像移動制御部
102 文字入力部
103 会議主催制御部
104 カメラ画像入力部
105 マイク音声入力部
106 文字出力部
107 カメラ画像出力部
108 マイク音声出力部
109 データ送信部
110 データ受信部
2 サーバ
201 データ受信部
202 データ送信部
203 画像位置制御部
204 画像表示制御部
205 会議主催制御部
206 文字表示制御部
207 音声出力制御部
208 関係制御部
209 端末間関係データテーブル
[0001]
TECHNICAL FIELD OF THE INVENTION
INDUSTRIAL APPLICABILITY The present invention is effective when applied to a technology having an electronic communication between a server having a display function and a plurality of terminal devices (strictly, terminal operators) accessing the server while browsing the display of the server. About technology.
[0002]
[Prior art]
In the Internet or ad hoc mode, a so-called chat or electronic conference system (hereinafter collectively referred to as “electronic communication”) in which an unspecified number of participants communicate with each other through characters or voice via a keyboard or a microphone through a terminal device is known. Have been.
[0003]
Furthermore, in recent years, a video chat system or a video conference system in which a speaker himself is photographed by a CCD camera and the image is displayed on a terminal device of the other party has been put into practical use as the communication network has been broadened. .
[0004]
By the way, in such a system, there is no means for associating unspecified participants (speakers) with each other. There was no other way but to recognize the friendship and encourage conversation.
[0005]
That is, in the prior art, no matter how intimate the speakers participating in the electronic communication become, the characters and images on the screen do not change, so that the participants get tired of such electronic communication. In many cases, it was not enough to show the willingness to participate even to third parties who browsed it.
[0006]
In this regard, in Japanese Patent Application Laid-Open No. 2001-222575 (Patent Document 1), a compatibility diagnosis function and a compatibility display function are added to the system in view of the fact that the conventional system merely displays the content of the utterance and the speaker information. It proposes a technology for diagnosing and displaying compatibility between the speaker and the viewer.
[0007]
[Patent Document 1]
JP 2001-222575 A (FIG. 1)
[0008]
[Problems to be solved by the invention]
However, Patent Literature 1 does not specifically disclose how to diagnose compatibility between a speaker and a viewer. Also, the above-mentioned Patent Literature 1 is merely for a viewer to search for a speaker who is compatible with himself / herself, and does not indicate a relationship between speakers who are currently performing electronic communication. For this reason, it was not possible to know whether or not the conversation that was currently in progress was exciting, and how much the relationship between the two parties in conversation was.
[0009]
The present invention has been made in view of such a point, and a system for visually expressing a relationship between speakers in a system used for electronic communication such as chatting in which an unspecified number of people join in the Internet or ad hoc mode. Accordingly, it is a technical task to realize a smooth and easy-to-use electronic communication system.
[0010]
[Means for Solving the Problems]
In order to solve the above problems, a first means of the present invention is a server which receives input information such as images, voices, or characters from two or more terminal devices, controls the input information, and outputs the information as communication information. A means for receiving the input information, and a table for defining a relationship between the terminal devices is provided, and the control means outputs the output information to the output means with reference to the table. It is.
[0011]
Here, the terminal device may be any terminal device capable of communication, such as a personal computer, a mobile phone type communication terminal device, and a PDA (Personal Digital Assistants). Normally, the terminal device has an input means for giving input information, which may be a keyboard, a touch panel, a mouse or the like for inputting character information. Further, a microphone for inputting audio information and a camera for inputting an image (still image or moving image) may be provided.
[0012]
The server is an information processing device such as a personal computer or a workstation. The terminal device can be accessed from the terminal device by a communication method such as wireless LAN, wired LAN, infrared communication, or Bluetooth (Bluetooth). ing.
[0013]
In the server, in a table defining the relationship between the terminal devices, the intimacy, compatibility, organization, and group attributes of the terminal devices identified by the ID and the address are registered. Then, the control means of the server processes input information input from the terminal device based on the contents of these tables and outputs the processed information to the output means.
[0014]
Here, the output unit may be a display device, a speaker, or the like of a terminal device used by a user, in addition to the display device, the speaker, or the like of the server itself.
[0015]
A second means for solving the problem is to register the closeness in the table.
[0016]
That is, the control means of the server refers to the table and controls the character information, voice information, and image information which are the outputs of the electronic communication between the terminal devices based on the degree of intimacy and the difference in the attributes.
[0017]
A third means for solving the problem is to provide a function of controlling image quality of image information as a control means, and to provide a function of a server or a terminal device as an output means based on a degree of relation between the terminal devices read from the table. The image information output to the display device is changed.
[0018]
Thus, in the case of electronic communication between terminal devices having low intimacy, the resolution of input image information from the terminal device may be reduced, or mosaic processing may be performed and output to the display device. The resolution may be increased or the mosaic processing may be removed as the intimacy between the two terminal devices increases.
[0019]
A fourth means for solving the problem is that a control means has a function of controlling sound quality or volume of audio information, and a server or a terminal which is an output means based on a degree of relation between terminal devices read from a table. The audio information output to the audio display device of the apparatus is changed.
[0020]
Accordingly, in the case of electronic communication between terminal devices having low intimacy, the volume of audio information input from each terminal device can be reduced or output from a speaker with degraded sound quality. good. Then, the volume may be increased or the sound quality may be improved as the intimacy between the two terminal devices increases.
[0021]
A fifth means for solving the problem is that the control means has a function of controlling the screen of the display device, and the server or the output means based on the degree of relation between the terminal devices read from the table. The display position of the output information for each terminal device to be output to the display device of the terminal device is changed.
[0022]
As a result, with regard to electronic communication between terminal devices having a high degree of intimacy or having the same attribute, input image regions from cameras provided in each terminal device are arranged at close positions and displayed on a display device. Can be done.
[0023]
BEST MODE FOR CARRYING OUT THE INVENTION
Next, embodiments of the present invention will be described with reference to the drawings.
[0024]
FIG. 1 is a functional block diagram showing a system configuration according to an embodiment of the present invention.
[0025]
This embodiment includes a terminal device 1 and a server 2. The terminal device 1 is, for example, a personal computer. The hardware configuration includes a central processing unit (CPU) and a memory (not shown), storage devices such as a hard disk device, and input devices such as a keyboard, a mouse, a CCD camera, and a microphone. Is connected. Although not shown, this type of personal computer includes a display device such as a display device, an audio output device such as a speaker, and the like.
[0026]
Each of the functional units (101 to 108) shown in FIG. 1 is realized by executing a dedicated hardware and a program installed in the storage device by a central processing unit (CPU).
[0027]
In the terminal device 1, when receiving an input instruction of a user's keyboard, mouse, or the like, the image movement control unit 101 transmits movement instruction information of an image input by the CCD camera of the terminal 1 based on the input instruction to the server. 2 is notified to the server 2 via the data transmission unit 109.
[0028]
The character input unit 102 is a function unit that receives character information input via the keyboard, and the character information is transmitted to the server 2 via the data transmission unit 109.
[0029]
The conference host control unit 103 is a functional unit that receives a conference host instruction (start / end) based on a user's keyboard or mouse input instruction. Here, “meeting host” means hosting a meeting by using the communication control function of the server 2 (functional units denoted by reference numerals 203 to 209), and more specifically, the table 209 of the server 2. Means that mutual information notification using characters, sounds, and images (moving images / still images) is possible on a screen generated by the server 2 with users of terminal devices attributed as the same conference group as participating members of the conference. I do. This type of mechanism is called a so-called electronic conference or chat, and conventionally, a bidirectional character information notification function based on a combination of an ID (nickname or handle name) of a user of the terminal device 1 and an input character string has been mainly used. However, recently, with the development of communication infrastructure, broadband communication (broadband) has been realized, and it has become possible to host conferences using an information notification function using voice and moving images.
[0030]
When the user inputs a meeting hosting instruction (start / end) with an input instruction such as a keyboard or a mouse, the meeting hosting controller 103 transmits the instruction to the server 2 via the data transmitter 109. The server 2 updates a meeting host flag in a terminal-to-terminal relation data table described later based on this instruction.
[0031]
The camera image input unit 104 has a function of processing image data input from the CCD camera and outputting the processed data to the data transmission unit 109 and the camera image output unit 107.
[0032]
Here, the input image by the CCD camera may be either a still image or a moving image. In a normal case, the face of the user who operates the terminal device 1 is the input image.
[0033]
A display device (display device) is connected to the camera image output unit 107. The user inputs character information and voice information while checking his or her captured image on the display screen of his or her own terminal device 1. Can be done.
[0034]
The microphone voice input unit 108 is a functional unit that processes user voice data input through a microphone. The microphone audio input unit 108 transmits the audio data to the server 2 via the data transmission unit 109.
[0035]
The character output unit 106 is a functional unit for displaying character information received from another terminal device via the server 2 on the above-described display device.
[0036]
The microphone audio output unit 108 is a functional unit for outputting audio data transmitted from another portable terminal via the server 2 from a speaker of the terminal device 1.
[0037]
The data transmission unit 109 is a functional unit for transmitting data to the server 2, and is realized by a communication interface such as a wireless LAN, a wired LAN, a public telephone line, an infrared communication interface, and Bluetooth as hardware. I have.
[0038]
The data receiving unit 110 is a functional unit for receiving data from the server 2, and includes hardware such as a wireless LAN, a wired LAN, a public telephone line, an infrared communication interface, and Bluetooth similar to the data transmitting unit 109. Communication interface.
[0039]
FIG. 11 shows an example of a screen of the display device of the terminal device 1. In the screen of FIG. 11, a window area (My Face 1) is opened at the upper left, and the camera image input from the camera image input unit 104 is displayed via the camera image output unit 107. A character display window area (Private Msg masuzuki 1) therebelow is an area for displaying a one-to-one conversation message, and a character input window area (Hot Spot Chat) is further opened below it. In this character input area, characters input from the keyboard are displayed. Icons of up, down, left, and right arrows are displayed in the right part of the center of the screen. By specifying the arrow part with a mouse cursor using a mouse or the like, an image area (My Face 1) photographed by the user himself is displayed. You can move within the server screen.
[0040]
On the other hand, FIG. 12 shows a basic screen example of the display device of the server 2. On the display screen on the server side, an input image of the participant (terminal device) accessing the server 2 is displayed in each image region, and character information input from each terminal device is close to the image region. Is displayed.
[0041]
The server 2 has a data receiving unit 201 and a data transmitting unit 202 corresponding to the data transmitting unit 109 and the data receiving unit 110 of the terminal device 1. That is, the data receiving unit 201 of the server 2 is a functional unit that receives data transmitted from the terminal device 1, and the data transmitting unit 202 is a functional unit that transmits data to the terminal device 1.
[0042]
The image position control unit 203 is a functional unit that controls the position of an image based on image movement instruction information (coordinate change information) received from each terminal device 1 or the like. Specifically, for example, as shown in FIG. 8, this means that the input image position of the terminal device 1 is moved from the lower left position to the upper right position on the screen based on the movement instruction information received from the terminal device 1. As described above, this movement instruction information is performed by the user of the terminal device 1 while confirming the movement position on his or her own display screen with the icons of up, down, left and right arrows on the client screen. That is, the image movement control unit 101 of the terminal notifies the coordinate change information of the image to the image position control unit 203 of the server 2 as image movement instruction information, and the image position control unit 203 sends the coordinate change information to the relation control unit 208. Notice.
[0043]
The relation control unit 208 of the server 2 is a functional unit that refers to the inter-terminal relation data table 209. The inter-terminal relation data table 209 is provided with a user information table as shown in FIG. In this user information table, the user name, the XY coordinates of the image position, the height and width of the image, and the conference room hosting flag can be registered.
[0044]
The relation control unit 208 updates the contents of the inter-terminal relation data table 209, that is, the data of the image position XY coordinates and the image height / width based on the coordinate change information. Then, the relation control unit 208 notifies the image display control unit 204 of the coordinate change information.
[0045]
The image display control unit 204 rearranges the screen position and size of each terminal device on the screen based on the coordinate change information (see FIG. 8). The image information of the screen rearranged in this way is displayed on the large display panel of the server via the image display control unit 204. The image information of the screen may be transmitted to the terminal device 1 via the data transmission unit 202 and reflected on the display screen of the terminal device 1.
[0046]
On the other hand, the inter-terminal relation data table 209 has a closeness table as shown in FIG. 4 in addition to the user information table (FIG. 2). In the familiarity table, the familiarity of each user who operates the terminal device is registered in a ratio (maximum 100%). The higher the ratio of intimacy between users, the higher the numerical value. Here, the intimacy level is statistically determined by the relation control unit 208 of the server 2 based on the amount of data communication between the terminal devices of the user, for example, the number of conversation characters (the number of characters input to the other party in electronic communication). Can be calculated. In this case, the initial value is 0%. For example, if the user's terminal devices frequently communicate with each other using the character, voice, and image information via the server 2, control is performed so that the ratio gradually increases according to the amount of communication information. ing. FIG. 3 is a graph showing an example of the relationship between the amount of conversation characters and the intimacy level.
[0047]
In the case of FIG. 4, the closeness between B and C is high, the closeness from C to B is 85%, and the closeness from B to C is 70%. The reason that the numerical value differs between ABs in spite of mutual communication is that there are many electronic communications such as talking from Mr. C to Mr. B even though the intimacy is high, and Mr. B is a relatively passive electronic This is because they are communicating. The relation control unit 208 determines the communication amount such as voice information from the terminal device of Mr. C to the terminal device of Mr. B and the communication amount such as the voice information from the terminal device of Mr. B to the terminal device of Mr. C. Thus, different numerical values are calculated.
[0048]
The relation control unit 208 has a function of updating the user information table shown in FIG. 2 while referring to the intimacy table (FIG. 4) of the inter-terminal relation table 209. That is, when mutual communication is performed between the terminal device of Mr. C and the terminal device of Mr. B using moving image information, it is possible to determine that the familiarity between Mr. B and Mr. C is high based on the contents of the familiarity table. The user information table is updated so that both images are close to each other and a large area is secured on the screen.
[0049]
Since the intimacy level between B and C and the intimacy level between C and B are “(B → C: 70%) <(C → B: 85%)”, the relationship control is performed. The unit 208 and the image display control unit 204 may perform control so that the image from Mr. C to Mr. B is displayed larger than the image transmitted from Mr. B to Mr. C.
[0050]
The conference host control unit 205 is a functional unit that performs control for performing an electronic conference in association with a specific terminal device. The conference host group table shown in FIG. 5 is provided in the above-mentioned terminal relation table, and the host of the conference (the ID of the terminal device of the host) and the participants (the ID of the terminal device of the participant) are registered. It is supposed to be. The relation control unit 208 refers to the conference host group table and the above-mentioned user information table (FIG. 2) to determine which users (terminals) are participating in the conference and which conferences they are participating in (the conference attributes of the terminal devices). ) Can be recognized.
[0051]
First, the conference host control unit 205 refers to the personal information table (FIG. 2) and checks whether or not the terminal device has a conference room. Here, when the conference room hosting flag is set (when the conference room hosting in FIG. 2 is “present”), a circular conference centered on the input moving image from the terminal device is displayed on the screen. A room area is generated (see FIG. 9). Then, the conference host control unit 205 performs control to arrange an input image from a terminal device participating in the conference room in the circular conference room area.
[0052]
Note that the shape of the conference room area may be controlled so that the color gradually decreases as the distance from the center of the circle of the conference room area increases, as well as when the boundary is clearly defined as shown in FIG. Then, the conference room hosting control unit 205 refers to the intimacy table (FIG. 4) and refers to the terminal that participates in the conference room at a position of a color density proportional to the intimacy with the host (terminal device of the host). Images from the device may be arranged. In other words, the input image from the terminal device with high affinity with the meeting room organizer is placed in the central dark color portion, and the input image from the terminal device with low affinity with the conference room organizer is located in the light color portion near the periphery. You.
[0053]
In this way, the region is color-coded mainly on the organizer of the conference room, so that the organizer of the conference room can easily visually recognize the region and, depending on the arrangement position of the input image of another participant, the conference room. Of participants and the excitement of the conference room.
[0054]
The character display control unit 206 of the server 2 is a functional unit for displaying the character information received from the terminal device 1 on the screen of the display device. The audio output control unit 207 is a functional unit that performs control for outputting audio information received from the terminal device 1 from a speaker. The audio output control unit 207 performs a modulation process on the audio information in accordance with the intimacy level between the terminal devices with reference to the intimacy table (FIG. 4) and outputs the result. FIG. 7 is a graph showing the relationship between the intimacy and the modulation factor. As described above, the voice output control unit 207 causes the two terminal devices to output clear voice information when the degree of intimacy between the terminal apparatuses in conversation is high, and modulates the voice information when the degree of intimacy is low. The rate is lowered to output audio information with reduced sound quality.
[0055]
In the above description, the example in which the position of the image and the modulation rate of the audio information are changed according to the intimacy level between the terminal devices registered in the intimacy level table, but the control based on the intimacy level is limited to these. For example, the image display control unit 204 may perform a mosaic process on the input image according to the familiarity in the familiarity table and output the image on the screen of the display device as the input image. FIG. 6 shows the relationship between the degree of closeness and the degree of mosaic. In the same drawing, the degree of mosaic processing is illustrated for each of the cases where the intimacy level is 0%, 20%, 60% and 100%.
[0056]
[Others]
The processing in the above-described embodiment is provided as a computer-executable program, and can be provided via a recording medium such as a CD-ROM or a flexible disk, and further via a communication line.
[0057]
Although the embodiment has been described based on the present invention, the present invention is not limited to such an embodiment, and is a concept including the following additional matters.
[0058]
(Supplementary Note 1) In a server that receives at least image, voice, or character input information from two or more terminal devices, and controls the input information to output it as communication information,
Means for receiving the input information;
A table that defines the relationship between the terminal devices,
Control means for generating output information by referring to the table for the received input information,
Output means for outputting the generated output information;
An electronic communication support server (1) comprising:
[0059]
(Supplementary note 2) The electronic communication support server (2) according to supplementary note 1, wherein the table is a table in which intimacy between the terminal devices is registered.
[0060]
(Supplementary Note 3) The control means is an image control means for controlling image quality of image information, and is provided to a display device of a server or a terminal device as the output means based on a degree of relationship between the terminal devices read from the table. The electronic communication support server according to claim 1, wherein the electronic communication support server changes image information to be output to the electronic communication support server.
[0061]
(Supplementary Note 4) The control means is a sound control means for controlling the sound quality or volume of the sound information, and the sound of the server or the terminal device which is the output means based on the degree of relation between the terminal devices read from the table. The electronic communication support server according to claim 1, wherein the electronic communication support server changes audio information output to the display device.
[0062]
(Supplementary Note 5) The control means is a screen control means for controlling a screen of a display device, and based on a degree of relationship between the terminal devices read from the table, a display device of a server or a terminal device as the output means. The electronic communication support server according to claim 1, wherein the display position of the output information for each terminal device to be output to the electronic communication support device is changed.
[0063]
(Supplementary Note 6) In the table, the attribute of the electronic conference can be registered, and the control unit is a screen control unit. The screen control unit registers the attribute of the electronic conference between the terminal devices read from the table. 2. The electronic communication support server according to claim 1, wherein the terminal devices that belong to the electronic conference are displayed on the screen of the display device so as to be distinguishable from other areas when the terminal device belongs to the electronic conference.
[0064]
Thereby, the electronic communication between the terminal devices belonging to the same electronic conference is performed on the screen of the display device as the output means, within the area defined by the same background color meaning the same electronic conference, the terminal of the participant. An input image area from a camera can be arranged for each device.
[0065]
(Supplementary Note 7) The screen control means changes the color of the area on the screen gradually from the center of the electronic conference toward the periphery thereof, and refers to the table to determine the degree of the relationship between the terminal devices. 7. The electronic communication support server according to claim 6, wherein the electronic communication support server performs control for arranging the input image of the terminal device.
[0066]
(Supplementary Note 8) In a server that receives at least image, voice, or character input information from two or more terminal devices, and controls the input information to output the input information as communication information,
Receiving the input information;
Reading the relationship between the terminal devices from a table;
Based on the read relationship between the terminal devices, processing input information from the terminal device to generate output information,
Outputting the generated output information;
Electronic communication support method provided with.
[0067]
(Supplementary Note 9) In a server that receives at least image, voice, or character input information from two or more terminal devices, and controls the input information to output it as communication information,
Receiving the input information;
Reading the relationship between the terminal devices from a table;
Based on the read relationship between the terminal devices, processing input information from the terminal device to generate output information,
Outputting the generated output information;
A computer-executable electronic communication support program comprising:
[0068]
(Supplementary Note 10) In a server that receives at least image, voice, or character input information from two or more terminal devices, and controls the input information to output it as communication information,
Receiving the input information;
Reading the relationship between the terminal devices from a table;
Based on the read relationship between the terminal devices, processing input information from the terminal device to generate output information,
Outputting the generated output information;
A computer-executable recording medium recording an electronic communication support program comprising:
[0069]
【The invention's effect】
As described above, according to the present invention, in a system used for communication such as chat in which an unspecified number of people join in the Internet or in an ad hoc mode, the relationship between speakers is visually expressed so that it is smooth and usable. An easy-to-use communication system is realized.
[Brief description of the drawings]
FIG. 1 is a functional block diagram of a terminal device and a server.
FIG. 2 is a diagram showing contents of a user information table in a terminal relation data table.
FIG. 3 is a graph showing the relationship between the number of conversation characters and intimacy.
FIG. 4 is a diagram showing contents of an intimacy table.
FIG. 5 is a diagram showing the contents of a conference host group table.
FIG. 6 is a graph showing a relationship between intimacy and mosaic degree.
FIG. 7 is a graph showing the relationship between intimacy and the degree of voice modulation.
FIG. 8 is a diagram showing a movement state of an input image based on movement instruction information from a terminal device.
FIG. 9 is an example of a screen showing a state in which a conference host range is color-coded.
FIG. 10 is a graph showing the relationship between the intimacy level and the color of the conference host range.
FIG. 11 is a view showing an example of a screen of a terminal device.
FIG. 12 is a diagram showing a screen example of a server.
[Explanation of symbols]
1 Terminal device
101 Image movement control unit
102 Character input section
103 Conference host control unit
104 Camera image input unit
105 Microphone audio input section
106 Character output section
107 Camera image output unit
108 Microphone audio output section
109 Data transmission unit
110 Data receiving unit
2 server
201 Data receiving unit
202 Data transmission unit
203 Image position control unit
204 image display control unit
205 Conference host control unit
206 Character display control unit
207 Audio output control unit
208 Relational control unit
209 Terminal data table

Claims (5)

2以上の端末装置から少なくとも画像、音声または文字の入力情報を受信し、前記入力情報を制御してコミュニケーション情報として出力するサーバにおいて;
前記入力情報を受信する手段と;
前記端末装置同士の関係を規定するテーブルと;
受信した前記入力情報について前記テーブルを参照して出力情報を生成する制御手段と;
前記生成された出力情報を出力する出力手段と;
を備える電子コミュニケーション支援サーバ。
A server that receives at least image, voice, or character input information from two or more terminal devices and controls the input information to output it as communication information;
Means for receiving the input information;
A table defining a relationship between the terminal devices;
Control means for generating output information by referring to the table for the received input information;
Output means for outputting the generated output information;
Electronic communication support server equipped with.
前記テーブルは、前記端末装置同士の親密度を登録したテーブルである
請求項1記載の電子コミュニケーション支援サーバ。
2. The electronic communication support server according to claim 1, wherein the table is a table in which intimacy between the terminal devices is registered.
前記制御手段は、画像情報の画質を制御する画像制御手段であり、前記テーブルから読み出した前記端末装置同士の関係度合いに基づいて前記出力手段であるサーバまたは端末装置の表示装置に対して出力する画像情報を変化させる
請求項1記載の電子コミュニケーション支援サーバ。
The control unit is an image control unit that controls the image quality of image information, and outputs the image information to a server or a display device of the terminal device that is the output unit based on a degree of relationship between the terminal devices read from the table. 2. The electronic communication support server according to claim 1, wherein the electronic communication support server changes image information.
前記制御手段は、音声情報の音質または音量を制御する音声制御手段であり、前記テーブルから読み出した前記端末装置同士の関係度合いに基づいて前記出力手段であるサーバまたは端末装置の音声表示装置に対して出力する音声情報を変化させる
請求項1記載の電子コミュニケーション支援サーバ。
The control unit is a voice control unit that controls the sound quality or volume of the voice information, and based on the degree of relationship between the terminal devices read from the table, the output unit is a server or a terminal device voice display device. 2. The electronic communication support server according to claim 1, wherein the audio information to be output is changed.
前記制御手段は、表示装置の画面を制御する画面制御手段であり、前記テーブルから読み出した前記端末装置同士の関係度合いに基づいて前記出力手段であるサーバまたは端末装置の表示装置に対して出力する前記端末装置毎の出力情報の表示位置を変化させる
請求項1記載の電子コミュニケーション支援サーバ。
The control means is a screen control means for controlling a screen of a display device, and outputs to a display device of the server or the terminal device as the output means based on a degree of relationship between the terminal devices read from the table. 2. The electronic communication support server according to claim 1, wherein a display position of the output information for each terminal device is changed.
JP2003046631A 2003-02-24 2003-02-24 Electronic communication support server Pending JP2004258819A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003046631A JP2004258819A (en) 2003-02-24 2003-02-24 Electronic communication support server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003046631A JP2004258819A (en) 2003-02-24 2003-02-24 Electronic communication support server

Publications (1)

Publication Number Publication Date
JP2004258819A true JP2004258819A (en) 2004-09-16

Family

ID=33113083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003046631A Pending JP2004258819A (en) 2003-02-24 2003-02-24 Electronic communication support server

Country Status (1)

Country Link
JP (1) JP2004258819A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005141300A (en) * 2003-11-04 2005-06-02 Advanced Telecommunication Research Institute International Radio communication system
JP2006140595A (en) * 2004-11-10 2006-06-01 Sony Corp Information conversion apparatus and information conversion method, and communication apparatus and communication method
JP2009018560A (en) * 2007-06-11 2009-01-29 Daisan:Kk Thin molded article
JP2010171618A (en) * 2009-01-21 2010-08-05 Nintendo Co Ltd Information processing program and information processor
JP2013078969A (en) * 2011-10-03 2013-05-02 Yupiteru Corp Driving support system and driving support program
JP2014067358A (en) * 2012-09-27 2014-04-17 Konami Digital Entertainment Co Ltd Message display device, management server, message display control method and program
WO2017068925A1 (en) * 2015-10-20 2017-04-27 ソニー株式会社 Information processing device, control method for information processing device, and computer program
WO2021210544A1 (en) * 2020-04-13 2021-10-21 Juwwa株式会社 Information processing system and information processing method
WO2022137547A1 (en) * 2020-12-25 2022-06-30 株式会社日立製作所 Communication assistance system

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005141300A (en) * 2003-11-04 2005-06-02 Advanced Telecommunication Research Institute International Radio communication system
JP2006140595A (en) * 2004-11-10 2006-06-01 Sony Corp Information conversion apparatus and information conversion method, and communication apparatus and communication method
JP2009018560A (en) * 2007-06-11 2009-01-29 Daisan:Kk Thin molded article
US9230293B2 (en) 2009-01-21 2016-01-05 Nintento Co., Ltd. Display controlling program and display controlling apparatus
JP2010171618A (en) * 2009-01-21 2010-08-05 Nintendo Co Ltd Information processing program and information processor
JP2013078969A (en) * 2011-10-03 2013-05-02 Yupiteru Corp Driving support system and driving support program
JP2014067358A (en) * 2012-09-27 2014-04-17 Konami Digital Entertainment Co Ltd Message display device, management server, message display control method and program
WO2017068925A1 (en) * 2015-10-20 2017-04-27 ソニー株式会社 Information processing device, control method for information processing device, and computer program
JPWO2017068925A1 (en) * 2015-10-20 2018-08-09 ソニー株式会社 Information processing apparatus, information processing apparatus control method, and computer program
WO2021210544A1 (en) * 2020-04-13 2021-10-21 Juwwa株式会社 Information processing system and information processing method
JP2021168075A (en) * 2020-04-13 2021-10-21 Juwwa株式会社 Information processing system and information processing method
JP2021170331A (en) * 2020-04-13 2021-10-28 Juwwa株式会社 Information processing system and information processing method
JP7023550B2 (en) 2020-04-13 2022-02-22 Juwwa株式会社 Information processing system and information processing method
WO2022137547A1 (en) * 2020-12-25 2022-06-30 株式会社日立製作所 Communication assistance system

Similar Documents

Publication Publication Date Title
CN107409060B (en) Apparatus and method for adjacent resource pooling in video/audio telecommunications
JP5506922B2 (en) View contact information during a call
US6987514B1 (en) Voice avatars for wireless multiuser entertainment services
JP4391691B2 (en) Computer network
JP4994646B2 (en) Communication terminal, communication system, and communication terminal display method
US20130155169A1 (en) Method and system for providing virtual conferencing
US20120204120A1 (en) Systems and methods for conducting and replaying virtual meetings
JP5775927B2 (en) System, method, and computer program for providing a conference user interface
JPH09265457A (en) On-line conversation system
CN113055628A (en) Displaying video call data
CN111147444B (en) Interaction method and electronic equipment
TWI743669B (en) Method and device for setting a multi-user virtual reality chat environment
WO2022025143A1 (en) Conversation control device, conversation system, and conversation control method
JP2004258819A (en) Electronic communication support server
JPH06274596A (en) Terminal for virtual conference system and virtual conference system
CN107295167A (en) Method for information display and device
WO2023037514A1 (en) Web conference system, terminal device, and web conference method
GB2552583A (en) Communication event
JP2024047431A (en) Control system, computer program, and control method
JP7292765B1 (en) Communication controller and computer program
JP2023092307A (en) Terminal device, program, and operation method of terminal device
JP7370545B1 (en) Conference management device, conference management method and program
JP7215341B2 (en) Communication terminal, communication system, display control method and program
JP2023161715A (en) network projector system
JP2015149662A (en) Data transmission system, terminal device, method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060731

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060905