JP2004128614A - Image display controller and image display control program - Google Patents

Image display controller and image display control program Download PDF

Info

Publication number
JP2004128614A
JP2004128614A JP2002286514A JP2002286514A JP2004128614A JP 2004128614 A JP2004128614 A JP 2004128614A JP 2002286514 A JP2002286514 A JP 2002286514A JP 2002286514 A JP2002286514 A JP 2002286514A JP 2004128614 A JP2004128614 A JP 2004128614A
Authority
JP
Japan
Prior art keywords
image
data
main data
balloon
display screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002286514A
Other languages
Japanese (ja)
Inventor
Hidenori Takeshima
竹島 秀則
Osamu Hori
堀 修
Takashi Ida
井田 孝
Nobuyuki Matsumoto
松本 信幸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2002286514A priority Critical patent/JP2004128614A/en
Publication of JP2004128614A publication Critical patent/JP2004128614A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To display the image of main data and an image of subordinate data under an appropriate state at all times while preventing superposition or deviation from a display screen. <P>SOLUTION: An object image is cut out from image data received from client terminals T1 and T2 and its arranging position on the screen is determined. Furthermore, a balloon image indicative of the content of a text is generated from text data received from the client terminals T1 and T2 and then the arranging position of the balloon image is determined by a source in the vicinity of the object image. If the balloon image deviates from the screen or is superposed on another image, position of the balloon image is adjusted not to deviate from the screen or not to be superposed on another image before a synthesized image is formed. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
この発明は、複数の通信端末ユーザが画像を共有しながらリアルタイムにコミュニケーションを行うことが可能なシステムで使用される画像表示制御装置及び画像表示制御プログラムに関する。
【0002】
【従来の技術】
複数の通信端末間をインターネットなどを使用した通信ネットワークを介して互いに接続し、これにより各通信端末のユーザがリアルタイムで会話をすることができるコミュニケーションシステム(以後、チャットという)が利用されている。このチャットは、各ユーザが入力したテキストデータをそれぞれの通信端末の表示画面に表示して会話を行うのが一般的である。
【0003】
一方、上記チャットをさらに発展させたものとして、各通信端末において、カメラ等を使用して例えばユーザの顔を撮影した静止画像あるいは動画像を共通の背景画像に合成して表示し、さらに各ユーザが入力したテキストデータを上記合成画像にいわゆるふきだし画像として表示して会話をするシステムが提案されている(例えば、非特許文献1参照。)。
【0004】
【非特許文献1】
井田 孝 ほか、“リアルタイム顔画像切り出しとMPEG−4を利用した動画共有型チャットシステムの実現”、知能情報メディアシンポジウム論文集、2000年12月、p.13−18
【0005】
【発明が解決しようとする課題】
ところが、先に文献で例示したコミュニケーションシステムでは、ふきだし画像の表示位置をユーザの顔画像の表示位置に対し常に一定の位置関係となるように設定している。このため、ふきだし画像の一部が表示画面からはみ出したり、またユーザの顔画像に重なった状態で表示されてしまい、ユーザが入力したテキストデータが通信相手のユーザに正確に伝わらなくなることがあった。
【0006】
この発明は上記事情に着目してなされたもので、その目的とするところは、主データの画像及び従属データの画像が互いに重なり合ったり表示画面からはみ出ること無く常に適切な状態で表示されるようにし、これにより正確で円滑なチャット通信を行えるようにした画像表示制御装置及び画像表示制御プログラムを提供することにある。
【0007】
【課題を解決するための手段】
上記目的を達成するためにこの発明は、複数の端末装置間に介在されるサーバ装置或いは端末装置に設けられる画像表示制御装置及びその表示制御プログラムにあって、合成画像の形態を調整する調整手段を新たに設ける。そして、受信された主データと従属データとを合成して1表示画面に表示可能な合成データを生成する際に、上記受信された主データの画像及び従属データの画像が表示画面領域内に収まりかつ相互に重なり合わないように合成形態を調整し、この合成形態が調整された合成データを通信相手の端末装置へ送信して表示させるようにしたものである。
【0008】
したがってこの発明によれば、合成に際し、主データの画像及び従属データの画像の合成形態、例えば位置や大きさ、形状が、常に適切な状態で表示される。このため、合成画像が表示画面上の如何なる位置に表示されても、また主データの画像が如何なる大きさ又は形状だったとしても、主データの画像と従属データの画像は互いに重なり合うことなくまた表示画面からはみ出ることなく表示することができ、これにより正確で円滑なチャット通信を行うことが可能となる。
【0009】
【発明の実施の形態】
以下、図面を参照してこの発明の実施形態を説明する。
図1は、この発明に係わる画像表示制御装置が設けられる通信システムの一実施形態を示すものである。同図において、クライアント端末T1,T2はネットワークNWを介してサーバSVに接続される。
【0010】
クライアント端末T1,T2はともに、キー入力部20と、送信処理部21と、受信処理部22と、表示部23を備えている。さらにクライアント端末T1にはカメラ24が接続されている。
キー入力部20は、例えばキーボードで構成され、ユーザが伝えたい情報を入力するために使用される。上記キー入力部20により入力された情報はテキストデータとして送信処理部21に入力される。また、カメラ24により撮像された静止画あるいは動画の画像データは、クライアント端末T1の図示しない外部インタフェースを介して送信処理部21に入力される。
送信処理部21は、上記入力されたテキストデータ及び画像データをそれぞれ所定の符号化方式により符号化して圧縮したのち、サーバSVに向けネットワークNWへ送信する。
受信処理部22は、サーバSVから送信された圧縮合成画像データをネットワークNWを介して受信する。そして、この圧縮合成画像データを復号することにより原合成画像データを再生し、この再生された合成画像データを表示部23に供給して表示させる。
【0011】
一方上記サーバSVは、受信処理部10,16と、切り出し処理部11,17と、画像位置決定処理部12,18と、位置調整処理部13,19と、合成処理部14と、送信処理部15とを備えている。
【0012】
受信処理部10は、クライアント端末T1からネットワークNWを介して伝送された主データとしての圧縮画像データと、従属データとしてのテキストデータをそれぞれ受信する。そして、上記受信された圧縮画像データについては復号処理を行って原画像データを再生し、この再生された画像データを切り出し処理部11に入力する。一方、テキストデータについてはそのまま画像位置決定処理部12に入力する。
【0013】
切り出し処理部11は、受信処理部10より入力された画像データのうち背景画像と物体画像とを識別し、物体画像のデータの切り出し処理を行う。そして、切り出された物体画像データのみを画像位置決定処理部12に入力する。
【0014】
画像位置決定処理部12は、上記物体画像データを表示画面に表示する際の位置を決定する。またこの画像位置決定処理部12は、受信処理部10より入力されたテキストデータからそのテキストの内容を表したふきだし画像を生成し、このふきだし画像を上記物体画像の近くに配置するべく位置を決定する。
【0015】
位置調整処理部13は、上記画像位置決定処理部12により表示位置が決定された物体画像及び吹き出し画像の表示位置を監視し、ふきだし画像が表示画面からはみ出さないか、あるいは物体画像と重なり合わないかを判定し、さらには他のクライアント端末T2から送られた物体画像及びテキストデータの内容を表すふきだし画像と重ならないかどうかを判定する。
【0016】
そして、上記2つの条件に該当しなければ、上記画像位置決定処理部12で決定された配置の情報を、上記物体画像データ及び吹き出し画像データと共に合成処理部14に入力する。一方、ふきだし画像が上記表示画面からはみ出す場合には、物体画像の近くでかつふきだし画像の全体が上記画面内に収まるようにふきだし画像位置を調整し、ふきだし画像同士が重なる場合には物体画像の近くでかつふきだし画像が重ならない位置に調整する。そして、この調整された配置情報を、上記物体画像データ及び吹き出し画像データと共に合成処理部14に入力する。
【0017】
なお、受信処理部16、切り出し処理部17、画像位置決定処理部18及び位置調整処理部19はクライアント端末T2に対応して設けられたもので、上記クライアント端末T1に対応して設けられた上記受信処理部10、切り出し処理部11、画像位置決定処理部12及び位置調整処理部13と同じ処理を行う。
【0018】
合成処理部14は、位置調整処理部13,19より入力された物体画像データとふきだし画像データとの合成を行う。その際、物体画像データ及びふきだし画像データの表示画面における配置位置は、画像位置決定処理部12,18により設定された配置情報、あるいは位置調整処理部13,19により調整された配置情報に従って制御される。
【0019】
送信処理部15は、上記合成処理部14により生成された合成画像を、所定の圧縮符号化方式に従い圧縮したのち、通信中のクライアント端末T1,T2に向けネットワークNWへ送信する。
【0020】
次に、以上のように構成されたサーバSVの動作を説明する。
図2は、画像合成制御の手順とその内容を示すフローチャートである。
クライアント端末T1,T2がネットワークNWを介してサーバSVに接続されると、サーバSVはステップ2aにおいてクライアント端末T1,T2からの画像データの到来を監視する。この状態で、例えばユーザの顔を撮影した画像データが受信されると、ステップ2bに移行してこの受信された画像データを読み込む。そして、サーバSVはステップ2cに移行して、上記受信された画像データから例えば顔部分のみの物体画像データを切り出し、この切り出された物体画像データを表示画面に配置するための位置をステップ2dで決定する。
【0021】
次にサーバSVは、ステップ2eによりクライアント端末T1,T2からのテキストデータの到来を監視する。この状態で、端末装置T1,T2においてユーザが送話内容をキー入力し、この送話内容のテキストデータが当該端末装置T1,T2から送信されたとする。サーバSVは、上記テキストデータの到来をステップ2eで検出すると、ステップ2fに移行してここで上記受信されたテキストデータを読み込む。そしてサーバSVは、ステップ2gに移行して上記テキストデータの内容を表すふきだし画像データを生成し、ステップ2hによりこの生成したふきだし画像の表示画面中の表示位置を設定する。このふきだし画像の表示位置は、先に受信し切り出しておいた対応する端末ユーザの物体画像データに対し近接する位置となるように設定される。
【0022】
次にサーバSVは、ステップ2iに移行して、上記ふきだし画像が上記表示画面からはみ出さないか、あるいは他の端末ユーザの物体画像又はふきだし画像と重ならないかどうかを判定する。この結果、いずれにも該当しないと判定された場合には、ステップ2kに移行して物体画像データとふきだし画像データとの合成を行う。
【0023】
これに対し、ふきだし画像の一部が上記表示画面からはみ出しているか、又は他の端末ユーザの物体画像又はふきだし画像と重なっていたとする。この場合サーバSVは、ふきだし画像の配置位置の調整が必要と判断し、ステップ2jに移行してここで上記ふきだし画像を表示画面からはみ出さない位置でかつ他の物体画像及びふきだし画像と重ならない位置となるように調整する。このとき、ふきだし画像の位置調整は、同一の端末ユーザの物体画像に対し相対位置を保つように行われる。そしてサーバSVは、ステップ2kにより、上記表示位置が調整された各クライアント端末T1,T2の物体画像データ及びふきだし画像データを合成する。この合成処理により生成された合成画像データは、送信処理部15から通信中の各クライアント端末T1,T2へ送信される。
【0024】
図3は、以上述べた画像合成制御による合成画像データの生成処理の一例を示す図である。同図において、3aはクライアント端末T1から到来した画像データであり、この画像データ3aからクライアント端末T1のユーザの顔画像である物体画像データ3cが切り出される。
【0025】
また、クライアント端末T1から送話内容を表すテキストデータが到来すると、このテキストデータ3cをもとにふきだし画像3dが生成される。このときテキストデータ3cは、テキストコードと、字体や色あるいはサイズなどのフォント情報とから構成される。例えば、図3では
「たろう(明朝・イタリック、サイズ16)」、「さん、こんにちは(明朝、サイズ16)」
のように構成される。サーバSVは、上記フォント情報に従いふきだし画像に表示される文字のフォント種別とサイズを決定するが、この文字のフォント種別とサイズは予め設定された大きさに統一するようにしてもよい。
【0026】
クライアント端末T2から画像データ3e及びテキストデータ3gが到来した場合にも、上記クライアント端末T1の場合と同様に、画像データ3eから端末ユーザの顔画像である物体画像3fが切り出され、またテキストデータ3gをもとにふきだし画像3hが生成される。例えば、テキストデータ3gとして
「元気?顔画像(ゴシック・太字、サイズ20)」
が到来した場合には、このフォント情報に従い図3に示すようなふきだし画像が生成される。すなわち、ふきだし画像に表示する情報は文字に限らず画像であってもよい。
【0027】
上記クライアント端末T1の物体画像3bとふきだし画像3d、及びクライアント端末T2の物体画像33fとふきだし画像3hは、それぞれ表示画面内に収まりかつ互いに重なり合わないように表示位置が調整されたのち、メモリに予め記憶されている背景画像に重ねる状態に合成される。そして、この合成画像データは各クライアント端末T1,T2にそれぞれ送信されてその表示画面に表示される。図3の3iはこの合成処理により生成された画像データの表示例を示すものである。
【0028】
なお、ふきだし画像の更新処理は、クライアント端末T1,T2から新たなテキストデータが到来するごとに行われる。また物体画像の更新処理は、画像データが静止画像の場合にはクライアント端末T1,T2から画像データが到来するごとに行われ、一方画像データが動画像の場合にはその1フレームごとに行われる。
【0029】
ところで、物体画像及びふきだし画像の表示画面における表示位置の決定及び調整の形態には、次のような種々の実施例が考えられる。
【0030】
(実施例1)
図4は、ふきだし画像の位置決定及び調整処理を説明するための図である。
【0031】
物体画像4aが表示画面の下方側に配置された場合には、ふきだし画像4bは図4(a)に示すように上記物体画像4aの画面上方側に配置される。また、物体画像4aが表示画面の上方側に配置された場合には、図4(b)に示すようにふきだし画像4bは物体画像4aの画面下方側に配置される。同様に、物体画像4aが表示画面の左方に配置された場合にはふきだし画像4bは図4(c)に示すように物体画像4aの右方に、また物体画像4aが表示画面の右方に配置された場合にはふきだし画像4bは図4(d)に示すように物体画像4aの左方にそれぞれ配置される。
そして、ふきだし画像4bが表示画面からはみ出したり、物体画像4aと重なっていないかどうかが判定され、はみ出すか又は物体画像4aと重なっている場合には、さらにふきだし画像4bの位置調整が行われる。
【0032】
ところで、以上のような位置決定処理を行うと、物体画像4aの位置の変化によりふきだし画像4bの位置が画面の上方と下方との間、或いは左方と右方との間で瞬時に移動することがある。特に、表示画面のサイズに強い制約がある場合には、ふきだし画像4bが上下左右を頻繁に往復して画面がちらついてしまうことがある。この場合には、ふきだし画像4bの移動量、移動速度または加速度に上限を設けることで、ふきだし画像4bを円滑に移動させることができる。
【0033】
図5は、その動作制御の一例を説明するための図である。同図において、いま仮に物体画像5aが図5(a)に示す位置から図5(b)に示すようにふきだし画像5bの下方に重なる位置に移動したとする。この場合、ふきだし画像5bの位置を表示画面の下方に移動させる必要があるが、その際ふきだし画像5bの1回の移動量を一定範囲内に収める。このようにすることにより、図5(c)及び図5(d)のようにふきだし画像5bの動きをなめらかにすることができ、ちらつきを抑制することが可能となる。
【0034】
また、ふきだし画像の内容が変化すると、ふきだし画像の位置を移動することが望ましい状況になる。この場合、ふきだし画像の位置を移動させると共にふきだしの形状も変化させる。その際、ふきだしの形状の変化にもなめらかさを与える。例えば、ふきだしの縦方向又は横方向の長さの変化速度或いは加速度を制限したり、ふきだし画像の面積の変化速度または変化量のいずれかに制限を与える。このようにすると、ふきだしの形状もなめらかに変化させることができる。
【0035】
図6及び図7は、このふきだしの形状を変化させた場合の表示例を示すもので、ふきだしの縦方向の長さを変化させる場合には図6(a)乃至図6(c)のようになる。また、ふきだしの横方向の長さを変化させる場合には図7(a),(b)のようになる。
【0036】
なお、ユーザがふきだし画像の位置を例えば手動操作により移動させ、それに応じて物体画像の表示位置を変化させる場合にも、その変化速度または加速度に制限を与えるとよい。このようにすると物体画像の表示もなめらかに変化させることができる。
【0037】
(実施例2)
物体画像が移動した場合、それに応じてふきだし画像も追従して移動する。 先ず物体画像の移動の一例を図8に示す。図8(a)はクライアント端末T1の表示画面、図8(b)はクライアント端末T2の表示画面である。初期状態として、クライアント端末T1ではユーザの物体画像8aが表示され、またクライアント端末T2では物体画像8gが表示されているものとする。この状態で、クライアント端末T1においてユーザは、例えばマウスポインタを8dに移動させた後、クリックなどの手段を用いて物体画像8aを把持しながらマウスポインタを8eから8fへ移動させる。そうすると、クライアント端末T1の表示画面においては、物体画像の表示位置もマウスポインタの移動に追従して8bから8cへと移動する。
【0038】
一方クライアント端末T2では、上記クライアント端末T1における物体画像の移動に連動して、物体画像の表示位置が8hから8iへと移動する。一般に、カメラによって撮影できる範囲は限られており、従来では物体画像の位置を表示画面上で自在に移動させることができなかったが、上記表示制御手段を使用することで、カメラによって撮影される映像の制約を受けることなく、物体画像の表示位置を表示画面上で自在に移動させることが可能となる。
【0039】
また、このような物体画像の移動に追従してふきだし画像の表示位置も移動される。例えば、図9(a)において、物体画像9aとふきだし画像9cとが対をなして表示されている状態で、物体画像が9aから9bに示す位置に移動したとする。そうするとこの物体画像の移動に追従して、ふきだし画像も図9(b)に示すように9cから9dへ移動する。なお、ふきだし画像の位置を移動させた場合にも、この移動に追従して物体画像は移動する。
【0040】
さらに、物体画像及びふきだし画像の移動範囲は、画面全域としてもよく、また制限してもよい。この移動範囲の制限は、コンテンツに応じて設定したり、また端末単位で設定することが可能である。また、移動をまったく許可しないようにすることも可能である。例えば、背景画像としてゲーム画面を用いた合成画像を共有する場合には、その移動範囲に制限を加えることでゲームの進行を妨げることなく合成画像を提供することができる。
【0041】
(実施例3)
ふきだし画像を自動消去することも可能である。図10はこれを説明する図である。図10(a)のようにふきだし画像10aが表示されている場合に、所定時間(例えば15秒)が経過した後に図10(b)のようにふきだし画像10aを消去することで、不要な情報が整理された、より使いやすい画面を提供できる。
【0042】
また、物体画像及びふきだし画像の大きさや形状、表示位置によっては、表示位置の調整を行ってもふきだし画像を適切に表示できない場合もある。このような場合に、ふきだし画像の表示を消去することもできる。
【0043】
(実施例4)
不要なふきだし画像の整理は次のように行われる。図11はその処理の一例を説明する図である。
【0044】
図11(a)のように物体画像11aに対しふきだし画像11bが表示されている状況で、そのまま新たなふきだし画像11cを表示しようとすると、図11(b)のようにふきだし画像11b,11c同士が重なってしまう。この場合には、図11(c)に示すように、新たなふきだし画像11cが表示される際に古いふきだし画像11bを消去する。このようにすることで、不要なふきだし画像が整理されて、見やすい表示画面を提供することができる。
【0045】
なお、上記説明は合成画像構成要素の最大数を2とした場合であるが、例えば最大数を3とすれば、ふきだし画像を2つまで並べて表示することを許容することができる。また、最大数を1とした場合には、ふきだし画像の表示を許容しないことになる。さらに、合成画像構成要素の最大数を設定する以外に、物体画像及びふきだし画像のそれぞれについて表示数の上限値を設定することも可能である。
【0046】
また、煩雑処理を許容する場合には、合成画像構成要素全体が形成する境界矩形の占める面積の最大値を設定することにより、不要なふきだし画像の整理を行うことも考えられる。この手法は、表示構成要素数の上限値を管理することにより、簡単な処理で効果的な画面を提供することができる点が優れている。
【0047】
さらに、合成表示構成要素の最大数をユーザごとに設定することも可能である。例えば、図12においてユーザ12aに対する上限値を2に、ユーザ12cに対する上限を1にそれぞれ設定する。この場合には、ユーザ12aが発言すると1つのふきだし画像が表示されるが、ユーザ12cについてはふきだし画像が表示されなくなる。このように表示構成要素の最大数をユーザごとに設定することで、例えば2つ以上のチームに分かれて勝負を行うゲームにおいて、同じチームの仲間とは会話できるが、別のチームの仲間については表情だけを読み取ることができるようにすることができる。
【0048】
さらに、図11(a)のように合成画像構成要素の上限値が2で、ふきだし画像11bが送信されてから新たなふきだし画像11cが送信されるまでの時間が3秒というように短い場合には、図11(c)のようにふきだし画像11bを消去するのではなく、一時的に合成画像構成要素の上限値を3に変更し、図13に示すように2つのふきだし画像を並べて表示する。このようにすることにより、新旧のふきだしの内容を比較することが可能となる。
【0049】
また、複数のユーザの端末に同報的に情報を送信することも、また特定のユーザの端末のみに情報を送信することもできるシステムにおいて、特定のユーザの端末にのみ送信される情報の送信回数を記録しておく。そして、この送信回数の記録をもとに、例えばクライアント端末T1のユーザとクライアント端末T2のユーザが頻繁に会話をしていると判断できる場合には、クライアント端末T1におけるクライアント端末T2の合成画像構成要素の上限値を自動的に上げる。このようにすると、クライアント端末T1のユーザが必要とする可能性の高い情報を、より長時間提供することが可能となり、クライアント端末T1のユーザに対しより快適な合成画像の提供が可能となる。
【0050】
(実施例5)
ふきだし画像の表示形態に効果を付与することもできる。例えば、図14(a)に示すように、物体画像14aに対応するふきだし画像を表示する際に、図14(b)及び図14(c)に示すように、ふきだし画像14bを半透明な状態を経ながら徐々に明瞭になるように表示する。また、ふきだし画像を消去する場合にも、例えば図15(a)〜図15(c)に示すように、ふきだし画像を半透明を経ながら徐々に消去する。物体画像についても同様の効果をかけることができる。
【0051】
また、ディゾルブという手法を用いることもできる。例えば、画像を32×32などのブロック単位に分割し、さらにそれぞれの32×32ブロックを16個の8×8ブロックに分割しておき、16回のステップに分けて、各ステップでは32×32ブロックごとに1つの8×8ブロックを表示することで全体を表示すれば、同様の効果が得られる。
【0052】
物体画像及びふきだし画像の表示に、上記したような効果を与えることで、表示画面を見ている端末ユーザに与える表示の急激な変化による刺激を軽減し、より快適な表示画面を提供することができる。
【0053】
また、ふきだし画像の表示効果についての別の例として、合成するテキストの一部もしくは全部を「○○○○」「××××」といった伏せ字あるいは空白文字に置き換える伏せ字効果がある。例えば4人の端末ユーザが2人ずつ2組に分かれてゲームをしている状況において、第1の組に所属するユーザが、第2の組に所属するユーザの端末に伏せ字効果をかけるよう指示すれば、第2の組に所属するユーザには秘密の会話をしていることだけが伝わるため、相手が何か考えていそうであるという情報が伝わり、よりゲームのおもしろみが増す。また例えばクライアント端末T1のユーザが、不快な文字列に対して伏せ字効果を適用するよう指定しておけば、当ユーザは不快な文字列を見なくてもすむ。
【0054】
(実施例6)
ふきだし画像のサイズに上限を設けることも可能である。ふきだし画像のサイズに上限を設けるのは、例えば図16(a)に示すように、画像の合成によってふきだし画像16aが表示画面外へはみ出してしまうのを回避するためである。従って、利用可能な画面のサイズに応じて、ふきだし画像の大きさを制限する必要がある。
【0055】
また、ふきだし画像が画面全体を覆ってしまうと物体画像など他の合成表示構成要素を表示できなくなる。このため、例えばふきだし画像の横の長さの上限をw、縦の長さの上限をhとしたとき、上限を2種類に分けて用意したうえで、ふきだし画像の位置に応じて、wが画面サイズ以下かつhが画面サイズの1/2以下、またはwが画面サイズの1/2以下かつhが画面サイズ以下になるように設定する。ここで、表示画面のサイズは必ずしも物理デバイスのサイズに一致させる必要はなく、例えばウィンドウ内に表示される場合はウィンドウのサイズとなる。
【0056】
また、表示画面が円形など、矩形でない場合には、例えばふきだし画像が表示画面の外部に出てしまう部分の面積を一定画素以下にするといった適当な手法で代用する。また、ふきだし画像の上限を決定する別の手法としては、ユーザのふきだし画像情報送信回数に応じてサイズの上限を設定する手法がある。また、互いに通信可能な端末間で画面を共有している場合には、ふきだし画像情報送信回数の代わりに、ふきだし画像情報を端末が受信した回数を使うこともできる。
【0057】
一方、ふきだし画像内の文字を省略することもできる。ふきだし画像の大きさに上限が設けられていたり、ふきだし画像の形状によってふきだし画像のサイズが決まっていたりすると、ふきだし画像のサイズが制限されることがある。しかし、例えば図16(a)に示すようにふきだし画像16aが表示されている状態で、ふきだし画像のサイズを図16(b)に示すように制限すると、表示できなくなる情報が発生する。この場合には、図16(b)のふきだし画像16bに示すように、情報の一部を省略記号「・・・」などを用いて省略すれば、ふきだし画像として表示できる。また、情報を縮小表示することでも対応可能である。
【0058】
また、表示されなかった情報については、次のような手法を用いることで表示することができる。例えばマウスポインタをふきだし画像16bの上に移動させた場合に、ふきだし画像のサイズを大きくして表示させる。このようにすれば、ユーザは必要に応じてふきだし画像に情報を表示させることができるようになり、画面の見やすさとふきだし画像情報の共有の両立が可能となる。
【0059】
(実施例7)
物体画像の表示サイズが大きかったり、表示される物体画像やふきだし画像が多数ある場合には、この発明の表示技術を用いても図17(a)に示すようにふきだし画像17bの内容が物体画像17cに隠れてしまうことがある。
【0060】
この場合には、図17(b)に示すようにマウスポインタ17dをふきだし画像17b上に移動させたときに、ふきだし画像17bの表示優先順位を画面の最上層に移動させることで、ユーザの見たいふきだし情報を表示させることができる。なお、表示優先順位の管理は、合成表示構成要素に表示優先順位情報を用意し、その順位に従って合成を行うことで実現する。
【0061】
ここで表示優先順位情報は、例えば順位値を持たせて合成表示構成要素を順位値でソートするか、合成表示構成要素をリストとして管理することで合成時の順位を決定できる。なお、順位値はより大きな値を前面とすることも、より小さな値を前面とすることもできる。
【0062】
また、ふきだし画像を表示画面の最上層に移動させた場合に、表示優先順位情報を保存しておき、マウスポインタがふきだし画像17bの上から離れた時に、ふきだし画像を元の下層側の位置に戻すこともできる。また、マウスポインタが位置するときだけ、ふきだし画像17bの枠または枠内の色を変更するといった効果を与えることも可能である。このようにすると、ふきだし画像17bの表示優先順位の変更が、マウスポインタによってもたらされたことがよりわかりやすくなる。さらに、このふきだし画像の枠または枠内の色を変更するといった効果により、押しボタンなど離散的な情報しか入力できないデバイスであっても見たい合成表示構成要素を選択することもできるようになる。
【0063】
(実施例8)
複数のふきだし画像を選択的に表示する場合に、表示順位の管理を行わないと、例えば図18(a)に示すように古い発言を表示するふきだし画18aが新しい発言を表示するふきだし画像18bを隠してしまうことがある。
【0064】
そこで、ふきだし画像18bがふきだし画像18aに隠れて表示されたと判断される場合に、図18(b)に示すようにふきだし画像18bをふきだし画像18aより前面に表示するように表示優先順位を変更する。このようにすれば、新しい発言のふきだし画像が古い発言のふきだし画像により隠されてしまうといった不具合は回避できる。
【0065】
合成表示構成要素がリストとして管理されている場合、通常表示画面の最上層に表示される構成要素はリストの先頭または最後の構成要素となる。このため、リストへの登録順序を適宜設定することで、各構成要素の表示優先順位を容易に設定可能である。また表示順序値で管理する場合も、例えばより大きな値を最上層とする場合は、現在の表示優先順位の値を最大値よりわずかに大きな値、例えば1だけ大きな値を変更することで同様に実現できる。また、合成表示構成要素ごとに、表示優先順序のほかに受信時刻を保存しておくこともできる。
【0066】
(実施例9)
合成表示構成要素に与える効果について、図19を用いて説明する。
例えばゲームの勝利者を表す物体画像19aを特別に目立たせたい場合には、図19(b)に示すように当該物体画像19aのみを明るくし、周辺を暗くするように表示形態を変更する。このようにすると、物体画像19aに対しスポットライトが当てられたような効果が得られる。なお、物体画像19a周辺の明るさを変えず物体画像19aの明るさをさらに明るくすることにより物体画像19bを目立たせるようにしてもよい。
【0067】
画像を目立たせることは、複数の単色を混合比率を変化させながら重ねて合成することで実現できる。また、複数の色によって構成されるパターン、例えば色を1ラインごとになめらかなグラデーションで変化させた虹色パターンなどによって、物体画像を目立たせることもできる。
【0068】
さらに、例えば図19(a)に示す物体画像19aに対応するユーザがキーボードの入力操作を開始することにより、ふきだし画像の表示が行われることを予測できる場合に、同様の方法を用いて当該物体画像19aを目立たせるようにしてもよい。このようにふきだし画像の表示が予測される物体画像を目立たせることで、ユーザの視線をふきだし画像が表示される前に当該物体画像に向けておくことができる。このため、ふきだし画像に表示される情報をより迅速に読解することが可能となり、これにより応答の情報の送信を早くすることができ、その結果より快適なコミュニケーションが可能となる。
【0069】
(実施例10)
ふきだし画像として表示される主要な情報であるテキストデータは、行単位などのまとまりで送受信されることが一般的である。このため、会話の遅延を引き起こしやすい。
【0070】
そこでこの発明では、図20に示すように物体画像20aに対応するユーザがテキストデータの入力を開始した場合に、先ず対応するふきだし画像20bにカーソル20cのような入力中であることを示すマークを合成して表示する。続いて、テキストデータの入力が進むに従い、図20(b)に示すようにカーソルの表示位置をシフトする。これにより編集遅延が大幅に改善され、より迅速な情報の把握、より快適なコミュニケーションが可能となる。
【0071】
なお、上記の例をそのまま実施しても、編集中であるのか入力内容が確定しているのかが分かり難い。そこで例えば、編集中の文字の色を変化させたり、ふきだし画像の枠または枠内の色を変化させるといった手法を採用することで、編集中の文字が未確定であることが容易に分かるようにする。
【0072】
(実施例11)
ふきだし画像の履歴管理についての実施例を、図21を用いて説明する。
図21(a)は、最新のふきだし画像21bが表示されている状況を示している。この状態で、例えばマウスポインタ21cをふきだし画像21b上に合わせてクリックする。そうすると、図21(b)に示すように過去のふきだし画像21dがメモリから読み出されて表示される。このようにすることで、ユーザが必要とする受信タイミングのふきだし画像を、簡単にしかも完全な形で再表示することができる。
【0073】
また、図21(b)に示すように1つ前の受信タイミングふきだし画像が表示されている状態で当該画像をクリックすると、もう1つ前の受信タイミングのふきだし画像情報がメモリから読み出されて表示される。すなわち、クリックするごとに受信タイミングの新しい順に過去のふきだし画像が読み出されて表示される。
【0074】
(実施例12)
ふきだし画像の形状の変更についての実施例を、図22を用いて説明する。 図22(a)のように物体画像22a及びふきだし画像22bが表示されている状態で、送信ユーザ又は受信ユーザが例えば予め用意されているふきだし画像の形状リストの中から所望の形状を選択すると、表示画面にはこの選択された形状のふきだし画像22bが表示される。図22(b)にこのふきだし画像の形状の一例を示す。また、色の変更についても同様に行われる。例えば、枠の色の変更を指示すると枠の色が変更され、またふきだし画像内の背景色の変更を指示するとふきだし画像内の背景色が変更される。
【0075】
ふきだし画像にこれらの効果を与えることで、ユーザは好みの形状のふきだし画像を選択可能となることは勿論のこと、その時々の気分や感情に応じてふきだし画像の形状を変化させることもできるようになり、より一層豊かなコミュニケーションが実現できる。
【0076】
(実施例13)
ふきだし画像を使わずに合成画像の表示を行う例を、図23を用いて説明する。
【0077】
図23に示すように、画像を合成するに当たり、ふきだし画像に表示すべきテキストデータ23aをふきだし画像を使わずに物体画像と合成して表示する。このようにすることで、ふきだし画像によって占有されていた領域を物体画像等の他の画像の表示領域として使うことができる。この表示手法は、携帯端末など表示領域が限られた機器にあって特に有効である。
【0078】
なお、上記説明では、テキストデータ23aの先頭部分に、送信ユーザを識別するための縮小情報23bを合成した表示したが、テキストデータで表現された名前や番号などの識別情報を合成して表示するようにしてもよい。また、必ずしも送信ユーザを識別する情報を合成し表示しなくてもよい。例えば、2人のユーザが表示画面を共有して会話を行う場合には、送信ユーザを識別する情報を合成しないほうが表示画面を見やすくすることができる。
【0079】
(実施例14)
物体画像の切り出し状況を別のウィンドウに表示する場合についての実施例を説明する。図24はその説明に使用する図であり、クライアント端末T1から送られた画像データより切り出した物体画像24aと、クライアント端末T2から送られた画像データより切り出した物体画像24bとを合成した画像を示している。この合成画像中に別のウィンドウ24cを形成し、このウィンドウ24cに上記物体画像24bを切り出す前の全体の画像データを縮小して表示する。
【0080】
このように切り出された物体画像24aを表示したまま、切り出し前の全体画像データを合成して表示することで、ユーザは切り出し処理がどのように行われたのかを認識することができる。そして、適切に切り出されなかった場合にはその原因を把握する手がかりになる。
【0081】
なお、上記ウィンドウ24cは色付け表示してもよく、また色付けする代わりに複数の色を半透明の状態で混合することにより、切り出された領域と残りの領域とを一つの表示画面に同時に表示することが可能となる。
【0082】
(実施例15)
図25(a)に示すように物体画像25aの表示サイズが表示画面のサイズに比べて著しく小さい場合には、例えばカメラの撮像エリアに偶然存在するか又は偶然通りかかった他人の画像等といった、送信ユーザを撮像した正規の画像ではない場合が多い。また、図25(b)に示すように物体画像として小さな領域が切り出された場合は、この切り出された画像が期待する物体画像ではなく、ノイズなど入力デバイスの不確定性の影響による誤抽出である可能性が高い。
【0083】
そこで、物体画像として切り出された画像の表示サイズが予め設定したサイズ以上であるか否かを判定する。そして、設定サイズ以上の時に当該切り出された物体画像を合成に供し、それ以外のときには合成に供しないことで、期待しない画像が合成される不具合を回避することができる。ここで、設定サイズの基準としては、たとえば面積が32画素以上といった数値を使うことができる。このような対策をすることで上記誤抽出された物体画像に関連付けてられてふきだし画像が表示されるという不具合を防止できる。
【0084】
(実施例16)
先に述べたようにふきだし画像は、テキストデータの情報量や並べて表示する物体画像のサイズ等によっては適切な形態で表示できない場合がある。
【0085】
そこで、ふきだし画像の表示を適切に表示できるか否かを判定する。そして、適切に表示できない場合には、テキストデータをふきだし画像により表示する代わりに音声出力する。例えば、ふきだし画像を表示画面からはみ出さずかつ物体画像に重なることなく表示できる場合には、図26(a)に示すようにこのふきだし画像をそのまま物体画像26aと合成して表示させる。これに対しふきだし画像を適切に表示できない場合には、図26(b)に示すようにふきだし画像の表示を行わずに、受信されたテキストデータを音声合成技術により音声データに変換し、この音声データをスピーカから拡声出力する。
【0086】
このような表示処理は、ふきだし画像を合成すると表示画面の空き領域が狭くなるためふきだし画像を表示したくない場合に有効である。また、複数の送信ユーザの物体画像及びふきだし画像を合成する場合において、各送信ユーザのふきだし画像のサイズが小さくて見にくくなるような場合に有効である。
【0087】
さらに、音声データの声質を複数種類用意しておき、送信ユーザごとに音声データの声質或いは音量を変えるようにしてもよい。このようにすれば、複数の送信ユーザのテキストデータを区別して音声出力することができる。また、ふきだし画像の制御情報に文章内の特定の単語を強調するためのコマンドを付加しておくことで、音声の合成に当たり該当する単語に例えば韻律的な強調を加えることができる。
【0088】
また、送信ユーザのテキストデータを音声出力させる際に、表示画面における対応する送信ユーザの物体画像の表示位置を判定し、この表示位置に応じて左右のスピーカの音量バランスを可変制御するようにしてもよい。例えば、図27に示すように、送信ユーザの物体画像が表示画面の左寄りに表示されている場合には、当該送信ユーザのテキストデータに対応する合成音声データを、右側スピーカ27bよりも左側スピーカ27aの方が大きな音量となるように制御して出力する。このように制御することで、より臨場感の高い音声出力を実現できる。
【0089】
ここで物体画像の表示位置の判定は、例えば物体画像の重心点の水平座標位置が表示画面のどの位置にあるかを検出することによりなされる。なお、重心点を計算するのは計算量を必要とするので、物体画像を含む最小の矩形の左端と右端の中心点で代用してもよい。また、物体画像にユーザの顔画像が含まれている場合には、この顔画像の2つの目の位置を検出してその中心点を認識し、この中心点の位置を物体画像の基準位置として使用すればよい。
【0090】
また、左右のスピーカの音量バランスの制御は次のように行われる。例えば、表示画面上の基準位置座標を、左端を−96、中央を0、右端を96と定義する。そして、物体画像の中心位置を上記基準位置座標をもとに数値に線形変換し、この変換された数値を音量のゲインに対応付ける。そして、このゲインをもとにPCM変換回路の定数を制御するか又はアナログ音声回路の増幅率を制御することにより音量を変化させる。
【0091】
なお、以上の説明では音声合成技術を用いてテキストデータを音声出力する場合を例にとって示したが、必ずしも音声合成技術を用いなくてもよく、例えばクライアント端末において送信ユーザがマイクに入力した音声データをそのまま出力するように構成してもよい。
【0092】
図28は、クライアント端末の周辺にテレビジョン受像機などのスピーカを有する他の家電製品が存在する場合の音声出力制御の一例を示すものである。クライアント端末は、自己の端末のスピーカ28e,28fによる音声出力の有無を監視し、音声出力を行う期間を検出すると、この期間に家電製品28aのスピーカ28b,28cの音量を下げる。このようにすると、通信を行っているユーザはクライアント端末のスピーカ28e,28fから出力される通信相手ユーザの音声を鮮明に聞き取ることが可能になる。
【0093】
(実施例17)
一般に、カメラにはさまざまな制約があり、特に設置位置が制限された場合には、例えば図29(a)に示すように撮像された画像データ中の物体画像29aが横転した状態で表示されることがある。そこでこのような場合には、物体画像の表示向きを判定し、この判定結果に応じて例えば図29(b)に示すように物体画像の向きを90度右回転させたのちに、ふきだし画像と合成する。このとき、ふきだし画像の表示位置及び表示向きは、上記物体画像の表示位置及び表示向きに応じて調整される。
【0094】
このようにすると、カメラの設置状態にかかわらず、物体画像を常に正立した状態で表示することが可能となる。その結果、複数の端末ユーザの物体画像及びふきだし画像を一つの表示画面に表示させる場合でも、物体画像とふきだし画像との対応関係を誤認識しないように明確に表示することができる。
【0095】
なお、物体画像の表示向きを補正する他の手法には次のようなものがある。すなわち、入力映像をそのまま合成すると、カメラの特性上ユーザが左に動くと合成画像中のユーザは右に動いてしまう。これはユーザに違和感を与える。そこで、物体画像の表示位置を左右反転したのちふきだし画像と合成することで、合成画像の動きがユーザの感覚と一致し、より快適に合成画像を見ることができるようになる。この場合にも、ふきだし画像の表示位置は物体画像の表示位置に応じて調整される。
【0096】
(実施例18)
一般に、多くの画像圧縮規格は画像の形状として矩形など限定された形状しか扱うことができない。そこで、任意の形状を持つ物体画像30aを、例えば図30(a)に示すように画像圧縮規格に適合する基本形状を有しかつ特定色に設定された背景画像に合成したのち画像圧縮する。一方この圧縮画像を再生する際には、背景画像の前記特定色を図30(b)に示すように除去すれば、上記任意の形状を持つ物体画像30aを再現できる。ここで、特定色としては例えば緑や青の単色を用いる。なお、特定色は必ずしも1色である必要はなく、例えば緑と青といったような複数色を特定色として用いても良い。また、圧縮及び再生に、例えば国際規格MPEG4(Moving Picture Experts Group 4)のような任意の形状の圧縮及び再生が可能な規格を採用すれば、特定色の画像を用いなくても任意の形状の物体画像の圧縮及び再生を実現することができる。
【0097】
(実施例19)
クライアント端末においてマイクロホンに入力されたユーザの音声を、サーバSVが音声認識することによりテキストデータに変換し、この変換されたテキストデータ31bをふきだし画像31aを用いて表示する。この場合、誤認識によりユーザの音声データが誤ったテキストデータに変換されると、合成表示されたテキストデータ31bを見ている通信相手のユーザは、送話内容を正しく理解することができない。
【0098】
そこで、例えば図31に示すように、音声表示が可能であることを示すマークを生成し、このマーク31cをテキストデータ31bと共にふきだし画像31aにより表示する。そして、この表示されたマーク31cをユーザがマウスポインタで指定してクリックすると、上記ふきだし画像31aにより表示中のテキストデータ31bに対応する音声データがスピーカから再生出力される。
【0099】
このように構成すると、ユーザは必要に応じて通信相手ユーザの送話音声を音声データとして聴取することができ、この結果音声データの誤認識が発生してもユーザは通信相手ユーザの送話内容を正しく認識することが可能となる。また、動物の鳴き声や物音などのようにテキストデータに変換することが困難な音声データが送られた場合にも、この音声データを音声により再生することができる。さらに、ふきだし画像をこのような構成にするとふきだし画像のサイズを一定にかつ小さく構成できる。
【0100】
以上詳述したようにこの実施形態では、クライアント端末T1より受信した画像データから物体画像を切り出すと共に、クライアント端末T1より受信したテキストデータからこのテキストの内容を表すふきだし画像を生成し、このふきだし画像を上記物体画像の近くに配置する。そして、上記ふきだし画像が表示画面からはみ出すか、あるいは他のふきだし画像等と重なる場合には、上記ふきだし画像の位置を表示画面からはみ出さずかつ他のふきだし画像等と重ならない位置に調整するようにしている。
【0101】
したがってこの実施形態によれば、ふきだし画像が表示画面からはみ出してしまう場合には、はみ出さない位置に調整されたのち合成画像が作成される。また、ふきだし画像が他のふきだし画像等と重なってしまう場合にも、重ならない位置に調整されたのち合成画像が作成される。このため、ふきだし画像に表示された情報のすべてを常に見やすい状態で正確に表示することが可能となる。
【0102】
なお、この発明は上記実施形態に限定されるものではない。例えば、上記実施形態ではサーバSVが位置調整のうえ合成画像を作成する場合を例にとって説明した。しかし、クライアント端末を、サーバSVを介さずにネットワークNWを介して直接接続して通信を行うシステムの場合には、クライアント端末に上記画像の位置調整処理機能及び合成画像の作成処理機能を持たせればよい。
【0103】
この場合のクライアント端末の構成としては、自ユーザの画像データ及びふきだし画像を送信する際にこれらの画像の位置調整処理及び合成画像の作成処理を行う場合と、他のクライアント端末から画像データ及びふきだし画像を受信した際に、これらの画像の位置調整処理及び合成画像の作成処理を行う場合とが考えられる。
【0104】
また、ユーザを表す物体画像は、カメラ24で実際に撮像したものに限らず、ユーザが任意に選択したアニメ画像や、人物以外の画像を用いてもよい。この場合サーバSVは、クライアント端末から送られた任意の画像を当該ユーザの物体画像として使用する場合と、サーバSVの記憶部に予め記憶してあるアニメ画像等をユーザに選択させ、この選択された画像をユーザの物体画像として使用する場合とが考えられる。
【0105】
また、この発明に係わる画像表示制御装置は、ネットワークを介してチャット通信を行うためのクライアント端末やサーバに限らず、例えばゲームソフトウェア等を作成する単独のパーソナルコンピュータやワークステーションにも適用することが可能である。
【0106】
その他、通信システムの種類やその構成、サーバ及びクライアント端末の構成、画像位置調整処理及び画像合成処理の手順とその内容、画像データの加工方法、ふきだし画像の表示形態等についても、この発明の要旨を逸脱しない範囲で種々変形して実施できる。
【0107】
【発明の効果】
以上詳述したようにこの発明では、複数の端末装置間に介在されるサーバ装置或いは端末装置に設けられる画像表示制御装置及びその表示制御プログラムにあって、合成画像の形態を調整する調整手段を新たに設け、受信された主データと従属データとを合成して1表示画面に表示可能な合成データを生成する際に、上記受信された主データの画像及び従属データの画像が表示画面領域内に収まりかつ相互に重なり合わないように合成形態を調整し、この合成形態が調整された合成データを通信相手の端末装置へ送信して表示させるようにしている。
【0108】
したがってこの発明によれば、主データの画像及び従属データの画像が互いに重なり合ったり表示画面からはみ出ること無く常に適切な状態で表示することができ、これにより正確で円滑なコミュニケーションを可能にする画像表示制御装置及び画像表示制御プログラムを提供することができる。
【図面の簡単な説明】
【図1】この発明に係わる画像表示制御装置が設けられる通信システムの一実施形態を示す図。
【図2】図1に示したサーバSVにおける画像合成制御の手順とその内容を示すフローチャート。
【図3】図1に示したサーバSVにおける画像合成制御による合成画像データの生成処理の一例を示す図。
【図4】ふきだし画像の位置決定を説明する図。
【図5】物体画像の移動に伴うふきだし画像の動きを説明する図。
【図6】ふきだし画像の形状変化の一例を説明する図。
【図7】ふきだし画像の形状変化の他の例を説明する図。
【図8】物体画像の移動の一例を説明する図。
【図9】物体画像に追従して移動するふきだし画像を説明する図。
【図10】ふきだし画像の自動消去を説明する図。
【図11】不要なふきだし画像の整理を説明する図。
【図12】合成表示構成要素の最大数をユーザごとに設定する場合について説明する図。
【図13】2つのふきだし画像を並べて表示する場合について説明する図。
【図14】ふきだし画像の表示効果を説明する図。
【図15】ふきだし画像の表示効果を説明する図。
【図16】ふきだし画像のサイズに上限を設けた場合について説明する図。
【図17】ふきだし画像の表示順序を説明する図。
【図18】ふきだし画像情報の表示管理を説明する図。
【図19】合成表示構成要素に与える効果を説明する図。
【図20】ふきだし画像情報の編集を説明する図。
【図21】ふきだし画像の履歴管理について説明する図。
【図22】ふきだし画像の形状の変更について説明する図。
【図23】ふきだし画像を使わずにテキストデータの表示を行う例を説明する図。
【図24】画像切り出し状況の表示について説明する図。
【図25】ユーザが期待していない小領域を切り出してしまう対策について説明する図。
【図26】ふきだし画像の代わりに音声情報の使用を説明する図。
【図27】テキストを音声合成システムによって音として出力を行う場合を説明する図。
【図28】外部機器の音量制御について説明する図。
【図29】カメラからの画像データ入力時の前処理について説明する図。
【図30】任意の形状を持つキャラクタ画像のネットワークを介した送受信を説明する図。
【図31】音をテキストに変換し、音声画像ファイルとともに合成表示する例を説明する図。
【符号の説明】
SV…サーバ
NW…ネットワーク
T1,T2…端末
10,16…受信処理部
11,17…切り出し処理部
12,18…画像位置決定処理部
13,19…位置調整処理部
14…合成処理部
15…送信処理部
20…キー入力部
21…送信処理部
22…受信処理部
23…表示部
24…カメラ
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image display control device and an image display control program used in a system in which a plurality of communication terminal users can communicate in real time while sharing images.
[0002]
[Prior art]
2. Description of the Related Art Communication systems (hereinafter referred to as chats) are used in which a plurality of communication terminals are connected to each other via a communication network using the Internet or the like so that users of the communication terminals can have a conversation in real time. In this chat, generally, text data input by each user is displayed on a display screen of each communication terminal to have a conversation.
[0003]
On the other hand, as a further development of the above-mentioned chat, in each communication terminal, for example, a still image or a moving image in which a face of a user is photographed is synthesized and displayed on a common background image using a camera or the like, and further, each user is displayed. A system has been proposed in which text data input by a user is displayed as a so-called balloon image on the composite image to have a conversation (for example, see Non-Patent Document 1).
[0004]
[Non-patent document 1]
Takashi Ida et al., "Realization of Chat System with Video Sharing Using Real-time Face Image Extraction and MPEG-4", Proceedings of the Intelligent Information Media Symposium, December 2000, p. 13-18
[0005]
[Problems to be solved by the invention]
However, in the communication system exemplified in the literature, the display position of the balloon image is set so as to always have a fixed positional relationship with the display position of the user's face image. For this reason, a part of the balloon image may protrude from the display screen, or may be displayed in a state of being superimposed on the face image of the user, and the text data input by the user may not be accurately transmitted to the user of the communication partner. .
[0006]
The present invention has been made in view of the above circumstances, and an object thereof is to ensure that an image of main data and an image of subordinate data are always displayed in an appropriate state without overlapping or protruding from a display screen. It is another object of the present invention to provide an image display control device and an image display control program which enable accurate and smooth chat communication.
[0007]
[Means for Solving the Problems]
In order to achieve the above object, the present invention relates to an image display control device provided in a server device or a terminal device interposed between a plurality of terminal devices and a display control program therefor, and an adjusting means for adjusting a form of a composite image Is newly provided. When the received main data and the dependent data are combined to generate combined data that can be displayed on one display screen, the received main data image and the dependent data image fall within the display screen area. The combined form is adjusted so as not to overlap each other, and the combined data adjusted in the combined form is transmitted to the terminal device of the communication partner and displayed.
[0008]
Therefore, according to the present invention, at the time of composition, the composition form of the image of the main data and the image of the dependent data, for example, the position, size, and shape are always displayed in an appropriate state. Therefore, no matter where the composite image is displayed on the display screen, and regardless of the size or shape of the image of the main data, the image of the main data and the image of the dependent data are displayed without overlapping each other. The information can be displayed without protruding from the screen, and thereby accurate and smooth chat communication can be performed.
[0009]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 shows an embodiment of a communication system provided with an image display control device according to the present invention. In the figure, client terminals T1 and T2 are connected to a server SV via a network NW.
[0010]
Each of the client terminals T1 and T2 includes a key input unit 20, a transmission processing unit 21, a reception processing unit 22, and a display unit 23. Further, a camera 24 is connected to the client terminal T1.
The key input unit 20 is composed of, for example, a keyboard, and is used for inputting information desired by the user. The information input by the key input unit 20 is input to the transmission processing unit 21 as text data. Further, image data of a still image or a moving image captured by the camera 24 is input to the transmission processing unit 21 via an external interface (not shown) of the client terminal T1.
The transmission processing unit 21 encodes and compresses the input text data and image data according to a predetermined encoding method, and then transmits the data to the network NW toward the server SV.
The reception processing unit 22 receives the compressed combined image data transmitted from the server SV via the network NW. Then, the original composite image data is reproduced by decoding the compressed composite image data, and the reproduced composite image data is supplied to the display unit 23 for display.
[0011]
On the other hand, the server SV includes reception processing units 10 and 16, cutout processing units 11 and 17, image position determination processing units 12 and 18, position adjustment processing units 13 and 19, a synthesis processing unit 14, a transmission processing unit 15 is provided.
[0012]
The reception processing unit 10 receives compressed image data as main data and text data as subordinate data transmitted from the client terminal T1 via the network NW. The received compressed image data is decoded to reproduce the original image data, and the reproduced image data is input to the cutout processing unit 11. On the other hand, text data is directly input to the image position determination processing unit 12.
[0013]
The cutout processing unit 11 identifies a background image and an object image from the image data input from the reception processing unit 10, and performs a process of cutting out data of the object image. Then, only the extracted object image data is input to the image position determination processing unit 12.
[0014]
The image position determination processing unit 12 determines a position when displaying the object image data on a display screen. The image position determination processing unit 12 generates a balloon image representing the content of the text from the text data input from the reception processing unit 10, and determines a position to arrange the balloon image near the object image. I do.
[0015]
The position adjustment processing unit 13 monitors the display positions of the object image and the balloon image whose display positions are determined by the image position determination processing unit 12, and determines whether the balloon image does not protrude from the display screen or overlaps with the object image. It is determined whether or not there is any overlap with the balloon image representing the content of the object image and text data sent from the other client terminal T2.
[0016]
If the above two conditions are not met, the information of the arrangement determined by the image position determination processing unit 12 is input to the combination processing unit 14 together with the object image data and the balloon image data. On the other hand, when the balloon image protrudes from the display screen, the position of the balloon image is adjusted so that the entire balloon image is close to the object image and within the screen, and when the balloon images overlap each other, the position of the object image is adjusted. Adjust so that it is close to the position and does not overlap the balloon image. Then, the adjusted arrangement information is input to the combination processing unit 14 together with the object image data and the balloon image data.
[0017]
Note that the reception processing unit 16, the cutout processing unit 17, the image position determination processing unit 18, and the position adjustment processing unit 19 are provided corresponding to the client terminal T2, and are provided corresponding to the client terminal T1. The same processing as that of the reception processing unit 10, the cutout processing unit 11, the image position determination processing unit 12, and the position adjustment processing unit 13 is performed.
[0018]
The synthesis processing unit 14 synthesizes the object image data input from the position adjustment processing units 13 and 19 and the balloon image data. At this time, the arrangement positions of the object image data and the balloon image data on the display screen are controlled according to the arrangement information set by the image position determination processing units 12 and 18 or the arrangement information adjusted by the position adjustment processing units 13 and 19. You.
[0019]
The transmission processing unit 15 compresses the synthesized image generated by the synthesis processing unit 14 according to a predetermined compression encoding method, and then transmits the compressed image to the network NW to the client terminals T1 and T2 that are communicating.
[0020]
Next, the operation of the server SV configured as described above will be described.
FIG. 2 is a flowchart showing the procedure and the contents of the image composition control.
When the client terminals T1 and T2 are connected to the server SV via the network NW, the server SV monitors the arrival of image data from the client terminals T1 and T2 in step 2a. In this state, when, for example, image data obtained by photographing the face of the user is received, the process proceeds to step 2b to read the received image data. Then, the server SV proceeds to step 2c, cuts out, for example, only the face portion of the object image data from the received image data, and sets a position for arranging the cut out object image data on the display screen in step 2d. decide.
[0021]
Next, the server SV monitors the arrival of text data from the client terminals T1 and T2 in step 2e. In this state, it is assumed that the user inputs the content of the transmission in the terminal devices T1 and T2, and that the text data of the transmission content is transmitted from the terminal devices T1 and T2. When the server SV detects the arrival of the text data in step 2e, the server SV proceeds to step 2f and reads the received text data. Then, the server SV proceeds to step 2g to generate balloon image data representing the content of the text data, and sets the display position of the generated balloon image on the display screen in step 2h. The display position of the balloon image is set so as to be close to the object image data of the corresponding terminal user received and cut out earlier.
[0022]
Next, the server SV proceeds to step 2i, and determines whether the balloon image does not protrude from the display screen or does not overlap an object image or a balloon image of another terminal user. As a result, if it is determined that none of the above applies, the process proceeds to step 2k to combine the object image data and the balloon image data.
[0023]
On the other hand, it is assumed that a part of the balloon image protrudes from the display screen or overlaps with an object image or a balloon image of another terminal user. In this case, the server SV determines that it is necessary to adjust the arrangement position of the balloon image, shifts to step 2j, where the balloon image does not protrude from the display screen and does not overlap with other object images and balloon images. Adjust to the position. At this time, the position adjustment of the balloon image is performed so as to maintain the relative position with respect to the object image of the same terminal user. In step 2k, the server SV combines the object image data and the balloon image data of each of the client terminals T1 and T2 whose display positions have been adjusted. The combined image data generated by this combining process is transmitted from the transmission processing unit 15 to the client terminals T1 and T2 that are communicating.
[0024]
FIG. 3 is a diagram illustrating an example of a process of generating synthesized image data by the above-described image synthesis control. In the figure, reference numeral 3a denotes image data coming from the client terminal T1, and object image data 3c, which is a face image of the user of the client terminal T1, is cut out from the image data 3a.
[0025]
Also, when text data representing the content of the transmission arrives from the client terminal T1, a balloon image 3d is generated based on the text data 3c. At this time, the text data 3c includes a text code and font information such as a font, a color, and a size. For example, in FIG.
"Taro (tomorrow morning, italic, size 16)", "Hi, (Ming, size 16)."
It is configured as follows. The server SV determines the font type and size of the character displayed in the balloon image according to the font information, but the font type and size of the character may be unified to a preset size.
[0026]
When the image data 3e and the text data 3g arrive from the client terminal T2, the object image 3f which is the face image of the terminal user is cut out from the image data 3e and the text data 3g as in the case of the client terminal T1. Is generated on the basis of. For example, as text data 3g
"How are you? Face image (gothic / bold, size 20)"
Is received, a balloon image as shown in FIG. 3 is generated according to the font information. That is, the information displayed in the balloon image is not limited to the character, but may be an image.
[0027]
The display positions of the object image 3b and the balloon image 3d of the client terminal T1 and the object image 33f and the balloon image 3h of the client terminal T2 are adjusted so that they fit within the display screen and do not overlap each other. The image is superimposed on a background image stored in advance. Then, the composite image data is transmitted to each of the client terminals T1 and T2 and displayed on the display screen. 3i of FIG. 3 shows a display example of the image data generated by the synthesizing process.
[0028]
Note that the balloon image is updated each time new text data arrives from the client terminals T1 and T2. The update processing of the object image is performed every time image data arrives from the client terminals T1 and T2 when the image data is a still image, and is performed every frame when the image data is a moving image. .
[0029]
By the way, the following various embodiments are conceivable for determining and adjusting the display positions of the object image and the balloon image on the display screen.
[0030]
(Example 1)
FIG. 4 is a diagram for explaining the position determination and adjustment processing of the balloon image.
[0031]
When the object image 4a is arranged below the display screen, the balloon image 4b is arranged above the object image 4a as shown in FIG. 4A. When the object image 4a is arranged on the upper side of the display screen, the balloon image 4b is arranged on the lower side of the object image 4a as shown in FIG. 4B. Similarly, when the object image 4a is arranged on the left side of the display screen, the balloon image 4b is on the right side of the object image 4a as shown in FIG. 4C, and the object image 4a is on the right side of the display screen. In this case, the balloon image 4b is arranged to the left of the object image 4a as shown in FIG. 4D.
Then, it is determined whether the balloon image 4b protrudes from the display screen or does not overlap the object image 4a. If the balloon image 4b protrudes or overlaps the object image 4a, the position of the balloon image 4b is further adjusted.
[0032]
By the way, when the above-described position determination processing is performed, the position of the balloon image 4b instantaneously moves between the upper side and the lower side of the screen or between the left side and the right side due to the change in the position of the object image 4a. Sometimes. In particular, when there is a strong restriction on the size of the display screen, the balloon image 4b may frequently reciprocate up, down, left, and right, and the screen may flicker. In this case, the balloon image 4b can be moved smoothly by setting an upper limit on the moving amount, moving speed or acceleration of the balloon image 4b.
[0033]
FIG. 5 is a diagram for explaining an example of the operation control. In this figure, it is assumed that the object image 5a has now moved from the position shown in FIG. 5A to a position overlapping below the balloon image 5b as shown in FIG. 5B. In this case, it is necessary to move the position of the balloon image 5b below the display screen. At this time, the amount of one movement of the balloon image 5b is kept within a certain range. By doing so, the movement of the balloon image 5b can be smoothed as shown in FIGS. 5C and 5D, and the flicker can be suppressed.
[0034]
Further, when the content of the balloon image changes, it becomes desirable to move the position of the balloon image. In this case, the position of the balloon image is moved and the shape of the balloon is changed. At that time, the change of the shape of the balloon is also given smoothness. For example, the changing speed or the acceleration of the length of the balloon in the vertical direction or the horizontal direction is limited, or the changing speed or the amount of change of the area of the balloon image is limited. By doing so, the shape of the balloon can be smoothly changed.
[0035]
FIGS. 6 and 7 show display examples when the shape of the balloon is changed, and when the length of the balloon in the vertical direction is changed, as shown in FIGS. 6 (a) to 6 (c). become. 7A and 7B when the length of the balloon in the horizontal direction is changed.
[0036]
Note that, even when the user moves the position of the balloon image by, for example, a manual operation and changes the display position of the object image accordingly, the change speed or the acceleration may be limited. This makes it possible to smoothly change the display of the object image.
[0037]
(Example 2)
When the object image moves, the balloon image moves accordingly. First, an example of the movement of the object image is shown in FIG. FIG. 8A shows a display screen of the client terminal T1, and FIG. 8B shows a display screen of the client terminal T2. In the initial state, it is assumed that the client terminal T1 displays the object image 8a of the user, and the client terminal T2 displays the object image 8g. In this state, the user at the client terminal T1 moves the mouse pointer to 8d, for example, and then moves the mouse pointer from 8e to 8f while holding the object image 8a using a means such as a click. Then, on the display screen of the client terminal T1, the display position of the object image also moves from 8b to 8c following the movement of the mouse pointer.
[0038]
On the other hand, at the client terminal T2, the display position of the object image moves from 8h to 8i in conjunction with the movement of the object image at the client terminal T1. In general, the range that can be photographed by a camera is limited, and conventionally, the position of an object image cannot be freely moved on a display screen. The display position of the object image can be freely moved on the display screen without being restricted by the video.
[0039]
The display position of the balloon image is also moved following the movement of the object image. For example, in FIG. 9A, it is assumed that the object image 9a and the balloon image 9c are displayed as a pair and the object image has moved from 9a to 9b. Then, following the movement of the object image, the balloon image also moves from 9c to 9d as shown in FIG. 9B. Note that, even when the position of the balloon image is moved, the object image moves following this movement.
[0040]
Further, the moving range of the object image and the balloon image may be the entire screen or may be limited. The limitation of the movement range can be set according to the content, or can be set for each terminal. It is also possible not to permit any movement. For example, when a composite image using a game screen is shared as a background image, the composite image can be provided without impeding the progress of the game by restricting the movement range.
[0041]
(Example 3)
It is also possible to automatically delete the balloon image. FIG. 10 is a diagram for explaining this. When the balloon image 10a is displayed as shown in FIG. 10A, unnecessary information can be deleted by deleting the balloon image 10a as shown in FIG. 10B after a predetermined time (for example, 15 seconds) has elapsed. Can provide an organized, more user-friendly screen.
[0042]
Further, depending on the size, shape, and display position of the object image and the balloon image, the balloon image may not be properly displayed even if the display position is adjusted. In such a case, the display of the balloon image can be deleted.
[0043]
(Example 4)
Unnecessary balloon images are arranged as follows. FIG. 11 is a diagram illustrating an example of the processing.
[0044]
In a situation where the balloon image 11b is displayed on the object image 11a as shown in FIG. 11A, if a new balloon image 11c is to be displayed as it is, the balloon images 11b and 11c are mutually connected as shown in FIG. 11B. Will overlap. In this case, as shown in FIG. 11C, when a new balloon image 11c is displayed, the old balloon image 11b is deleted. By doing so, an unnecessary balloon image can be arranged and an easy-to-view display screen can be provided.
[0045]
In the above description, the maximum number of composite image components is set to 2. For example, if the maximum number is set to 3, up to two balloon images can be displayed side by side. If the maximum number is 1, display of the balloon image is not permitted. Further, in addition to setting the maximum number of composite image components, it is also possible to set the upper limit of the number of displayed images for each of the object image and the balloon image.
[0046]
Further, when complicated processing is allowed, it is conceivable to arrange unnecessary balloon images by setting the maximum value of the area occupied by the bounding rectangle formed by the entire composite image component. This method is excellent in that an effective screen can be provided by simple processing by managing the upper limit of the number of display components.
[0047]
Further, the maximum number of composite display components can be set for each user. For example, in FIG. 12, the upper limit for the user 12a is set to 2, and the upper limit for the user 12c is set to 1. In this case, when the user 12a speaks, one balloon image is displayed, but no balloon image is displayed for the user 12c. By setting the maximum number of display components for each user in this way, for example, in a game in which the game is divided into two or more teams, it is possible to talk with friends of the same team, but with friends of another team, Only facial expressions can be read.
[0048]
Further, as shown in FIG. 11A, when the upper limit value of the composite image component is 2 and the time from transmission of the balloon image 11b to transmission of a new balloon image 11c is as short as 3 seconds. Does not delete the balloon image 11b as shown in FIG. 11C, but temporarily changes the upper limit value of the composite image component to 3, and displays the two balloon images side by side as shown in FIG. . By doing so, it is possible to compare the contents of the new and old speech balloons.
[0049]
Also, in a system in which information can be broadcast to multiple user terminals or information can be transmitted only to specific user terminals, transmission of information transmitted only to specific user terminals Record the number of times. If it is determined that the user of the client terminal T1 and the user of the client terminal T2 have frequent conversations based on the record of the number of transmissions, for example, the composite image configuration of the client terminal T2 at the client terminal T1 is determined. Automatically increase the upper limit of the element. In this way, information that is likely to be required by the user of the client terminal T1 can be provided for a longer time, and a more comfortable composite image can be provided to the user of the client terminal T1.
[0050]
(Example 5)
An effect can also be given to the display mode of the balloon image. For example, when a balloon image corresponding to the object image 14a is displayed as shown in FIG. 14A, the balloon image 14b is displayed in a semi-transparent state as shown in FIGS. 14B and 14C. Is displayed so that it becomes gradually clearer. Also, when deleting the balloon image, the balloon image is gradually erased while being translucent, as shown in, for example, FIGS. A similar effect can be applied to an object image.
[0051]
Also, a method called dissolve can be used. For example, an image is divided into blocks of 32 × 32 or the like, and each 32 × 32 block is divided into 16 8 × 8 blocks, and divided into 16 steps. A similar effect can be obtained by displaying one 8 × 8 block for each block to display the entire block.
[0052]
By giving the above-described effects to the display of the object image and the balloon image, it is possible to reduce a stimulus caused by a sudden change in the display given to the terminal user watching the display screen, and to provide a more comfortable display screen. it can.
[0053]
As another example of the display effect of a balloon image, there is a hidden character effect in which part or all of the text to be combined is replaced with a hidden character such as “OOOO” or “XXXX” or a blank character. For example, in a situation where four terminal users are playing a game in two groups of two, a user belonging to the first group instructs the terminal of a user belonging to the second group to apply a face-down effect. Then, since the user belonging to the second group is notified only that the user is in a secret conversation, information indicating that the other party is likely to think about something is transmitted, and the interest of the game is further increased. Further, for example, if the user of the client terminal T1 specifies to apply the hidden character effect to an unpleasant character string, the user need not look at the unpleasant character string.
[0054]
(Example 6)
It is also possible to set an upper limit on the size of the balloon image. The reason why the upper limit is set for the size of the balloon image is to prevent the balloon image 16a from protruding outside the display screen due to the combination of the images as shown in FIG. Therefore, it is necessary to limit the size of the balloon image according to the available screen size.
[0055]
In addition, if the balloon image covers the entire screen, other composite display components such as an object image cannot be displayed. Therefore, for example, when the upper limit of the horizontal length of the balloon image is w and the upper limit of the vertical length is h, the upper limit is divided into two types, and w is determined according to the position of the balloon image. The screen size is set so that it is equal to or smaller than the screen size and h is equal to or smaller than 1/2 of the screen size, or w is equal to or smaller than 1/2 of the screen size and h is equal to or smaller than the screen size. Here, the size of the display screen does not necessarily have to match the size of the physical device. For example, when displayed in a window, the size of the display screen is the size of the window.
[0056]
If the display screen is not rectangular, such as a circle, an appropriate method is used, for example, in which the area of the portion where the balloon image comes out of the display screen is reduced to a certain pixel or less. As another method for determining the upper limit of the balloon image, there is a method of setting the upper limit of the size according to the number of transmissions of the balloon image information by the user. Also, when the screen is shared between terminals that can communicate with each other, the number of times the terminal has received the balloon image information may be used instead of the number of times the balloon image information has been transmitted.
[0057]
On the other hand, characters in the balloon image may be omitted. If an upper limit is set for the size of the balloon image, or if the size of the balloon image is determined by the shape of the balloon image, the size of the balloon image may be limited. However, if the size of the balloon image is restricted as shown in FIG. 16B while the balloon image 16a is displayed as shown in FIG. 16A, for example, information that cannot be displayed occurs. In this case, as shown in a balloon image 16b in FIG. 16B, if a part of the information is omitted using an abbreviation symbol "..." or the like, it can be displayed as a balloon image. It is also possible to cope by displaying the information in a reduced size.
[0058]
In addition, information that is not displayed can be displayed by using the following method. For example, when the mouse pointer is moved over the balloon image 16b, the size of the balloon image is increased and displayed. With this configuration, the user can display information in the balloon image as needed, and it is possible to achieve both easy viewing of the screen and sharing of the balloon image information.
[0059]
(Example 7)
If the display size of the object image is large, or if there are a large number of object images and balloon images to be displayed, the content of the balloon image 17b is changed as shown in FIG. 17c.
[0060]
In this case, when the mouse pointer 17d is moved over the balloon image 17b as shown in FIG. 17B, the display priority of the balloon image 17b is moved to the top layer of the screen, so that the user's view is improved. The balloon information can be displayed. The management of the display priority is realized by preparing the display priority information for the composite display component and performing the composition according to the priority.
[0061]
Here, the display priority information can be determined by, for example, assigning a rank value and sorting the combined display components by the rank value, or managing the combined display components as a list to determine the rank at the time of combining. It should be noted that the rank value can be set to a larger value as the front or a smaller value as the front.
[0062]
When the balloon image is moved to the uppermost layer of the display screen, the display priority information is saved, and when the mouse pointer moves away from the balloon image 17b, the balloon image is moved to the original lower layer position. You can put it back. Also, it is possible to give an effect of changing the frame of the balloon image 17b or the color in the frame only when the mouse pointer is located. This makes it easier to understand that the display priority of the balloon image 17b has been changed by the mouse pointer. Further, the effect of changing the frame of the speech balloon image or the color in the frame allows the user to select a desired composite display component even if the device can only input discrete information such as a push button.
[0063]
(Example 8)
When a plurality of balloon images are selectively displayed, if the display order is not managed, for example, as shown in FIG. 18A, a balloon image 18a displaying an old utterance is replaced with a balloon image 18b displaying a new utterance. It may be hidden.
[0064]
Therefore, when it is determined that the balloon image 18b is displayed behind the balloon image 18a, the display priority is changed so that the balloon image 18b is displayed in front of the balloon image 18a as shown in FIG. . In this way, it is possible to avoid a problem that the balloon image of the new statement is hidden by the balloon image of the old statement.
[0065]
When the composite display component is managed as a list, the component displayed on the uppermost layer of the normal display screen is the first or last component of the list. For this reason, the display priority of each component can be easily set by appropriately setting the order of registration in the list. Also, in the case where the display priority is managed by the display order value, for example, when a higher value is set as the uppermost layer, the current display priority value is changed to a value slightly larger than the maximum value, for example, by a value larger by one. realizable. Also, the reception time can be stored for each composite display component in addition to the display priority order.
[0066]
(Example 9)
The effect on the composite display component will be described with reference to FIG.
For example, when it is desired to make the object image 19a representing the winner of the game stand out specially, the display mode is changed so that only the object image 19a is brightened and the periphery is darkened as shown in FIG. By doing so, it is possible to obtain an effect as if a spotlight was applied to the object image 19a. Note that the object image 19b may be made more prominent by further increasing the brightness of the object image 19a without changing the brightness around the object image 19a.
[0067]
The image can be made more conspicuous by superimposing and combining a plurality of single colors while changing the mixing ratio. Further, the object image can be made more conspicuous by a pattern composed of a plurality of colors, for example, a rainbow pattern in which the colors are changed in a smooth gradation for each line.
[0068]
Further, for example, when the user corresponding to the object image 19a shown in FIG. 19A starts input operation of the keyboard, and it can be predicted that the display of the balloon image is performed, the same method is used. The image 19a may be made to stand out. By making the object image predicted to display the balloon image stand out in this way, it is possible to direct the user's line of sight to the object image before the balloon image is displayed. For this reason, the information displayed in the balloon image can be read more quickly, whereby the response information can be transmitted more quickly, and as a result, more comfortable communication becomes possible.
[0069]
(Example 10)
In general, text data, which is main information displayed as a balloon image, is transmitted and received in units of lines or the like. For this reason, a conversation is likely to be delayed.
[0070]
Therefore, in the present invention, when the user corresponding to the object image 20a starts inputting text data as shown in FIG. 20, first, a mark indicating that input is being performed, such as the cursor 20c, is displayed on the corresponding balloon image 20b. Combine and display. Subsequently, as the input of the text data progresses, the display position of the cursor is shifted as shown in FIG. As a result, editing delay is significantly improved, and more rapid grasp of information and more comfortable communication become possible.
[0071]
Even if the above example is carried out as it is, it is difficult to know whether the editing is being performed or the input content is finalized. Therefore, for example, by adopting a method such as changing the color of the character being edited or changing the color of the frame or the frame of the balloon image, it is easy to see that the character being edited is undetermined. I do.
[0072]
(Example 11)
An embodiment of history management of a balloon image will be described with reference to FIG.
FIG. 21A shows a situation where the latest balloon image 21b is displayed. In this state, for example, the mouse pointer 21c is positioned on the balloon image 21b and clicked. Then, as shown in FIG. 21B, the past balloon image 21d is read from the memory and displayed. In this manner, the balloon image of the reception timing required by the user can be easily and completely displayed again.
[0073]
Also, as shown in FIG. 21 (b), when the image at the previous reception timing balloon is displayed and the image is clicked, the balloon image information at the previous reception timing is read out from the memory. Is displayed. That is, each time the button is clicked, the past balloon images are read out and displayed in the order of the newest reception timing.
[0074]
(Example 12)
An example of changing the shape of a balloon image will be described with reference to FIG. In a state where the object image 22a and the balloon image 22b are displayed as shown in FIG. 22 (a), when the transmitting user or the receiving user selects a desired shape from a balloon image shape list prepared in advance, for example, The balloon image 22b of the selected shape is displayed on the display screen. FIG. 22B shows an example of the shape of the balloon image. Further, the change of the color is performed in the same manner. For example, when the change of the frame color is instructed, the color of the frame is changed, and when the change of the background color in the balloon image is instructed, the background color in the balloon image is changed.
[0075]
By giving these effects to the balloon image, the user can select the balloon image having a desired shape, as well as change the shape of the balloon image according to the mood and emotion at that time. , And richer communication can be realized.
[0076]
(Example 13)
An example in which a composite image is displayed without using a balloon image will be described with reference to FIG.
[0077]
As shown in FIG. 23, in synthesizing an image, text data 23a to be displayed in a balloon image is synthesized and displayed with an object image without using a balloon image. In this way, the area occupied by the balloon image can be used as a display area for another image such as an object image. This display method is particularly effective in a device having a limited display area such as a portable terminal.
[0078]
In the above description, the reduced information 23b for identifying the transmitting user is combined and displayed at the head of the text data 23a. However, identification information such as a name and a number expressed in the text data is combined and displayed. You may do so. Further, it is not always necessary to combine and display information for identifying the transmitting user. For example, when two users share a display screen and have a conversation, it is easier to view the display screen if the information identifying the transmitting user is not combined.
[0079]
(Example 14)
An embodiment will be described in which the clipping state of the object image is displayed in another window. FIG. 24 is a diagram used for the description. An image obtained by combining an object image 24a cut out from the image data sent from the client terminal T1 and an object image 24b cut out from the image data sent from the client terminal T2 is shown in FIG. Is shown. Another window 24c is formed in the composite image, and the entire image data before cutting out the object image 24b is reduced and displayed in the window 24c.
[0080]
By combining and displaying the entire image data before clipping while displaying the clipped object image 24a in this way, the user can recognize how the clipping process was performed. Then, when the clipping is not properly performed, it becomes a clue to grasp the cause.
[0081]
Note that the window 24c may be colored and displayed, and instead of coloring, by mixing a plurality of colors in a translucent state, the cut-out area and the remaining area are simultaneously displayed on one display screen. It becomes possible.
[0082]
(Example 15)
When the display size of the object image 25a is significantly smaller than the size of the display screen as shown in FIG. 25A, for example, transmission such as an image of another person who is accidentally present in the imaging area of the camera or accidentally passed by is performed. In many cases, the image is not a regular image of the user. When a small area is cut out as an object image as shown in FIG. 25B, the cut out image is not an expected object image, but is incorrectly extracted due to the influence of input device uncertainty such as noise. Probably.
[0083]
Therefore, it is determined whether or not the display size of the image cut out as the object image is equal to or larger than a preset size. Then, the cut-out object image is used for synthesis when the size is equal to or larger than the set size, and is not used for synthesis at other times, so that a problem in which an unexpected image is synthesized can be avoided. Here, a numerical value such as an area of 32 pixels or more can be used as a reference for the set size. By taking such measures, it is possible to prevent a balloon image from being displayed in association with the erroneously extracted object image.
[0084]
(Example 16)
As described above, the balloon image may not be displayed in an appropriate form depending on the information amount of the text data, the size of the object images to be displayed side by side, and the like.
[0085]
Therefore, it is determined whether or not the display of the balloon image can be appropriately displayed. If the text data cannot be displayed properly, the text data is output as sound instead of being displayed as a balloon image. For example, when the balloon image can be displayed without protruding from the display screen and without overlapping with the object image, the balloon image is combined with the object image 26a and displayed as shown in FIG. On the other hand, if the balloon image cannot be displayed properly, the received text data is converted to voice data by voice synthesis technology without displaying the balloon image as shown in FIG. The data is output from the speaker.
[0086]
Such display processing is effective when the balloon image is synthesized and the empty area of the display screen is reduced, so that the balloon image is not desired to be displayed. Also, when combining an object image and a balloon image of a plurality of transmission users, the balloon image of each transmission user is effective in a case where the size of the balloon image is so small that it is difficult to see.
[0087]
Furthermore, a plurality of types of voice quality of voice data may be prepared, and the voice quality or volume of voice data may be changed for each transmission user. By doing so, it is possible to output text data of a plurality of transmission users while distinguishing them. In addition, by adding a command for emphasizing a specific word in a sentence to the control information of the balloon image, for example, a prosodic emphasis can be added to the corresponding word in speech synthesis.
[0088]
Further, when outputting the text data of the transmission user by voice, the display position of the corresponding transmission user's object image on the display screen is determined, and the volume balance of the left and right speakers is variably controlled according to the display position. Is also good. For example, as shown in FIG. 27, when the object image of the transmitting user is displayed on the left side of the display screen, the synthesized voice data corresponding to the text data of the transmitting user is transmitted to the left speaker 27a more than the right speaker 27b. Is controlled and output so as to have a larger volume. By controlling in this way, a more realistic sound output can be realized.
[0089]
Here, the display position of the object image is determined, for example, by detecting which position on the display screen the horizontal coordinate position of the center of gravity of the object image is located. Note that calculating the center of gravity requires a large amount of calculation, so the center point of the left end and the right end of the smallest rectangle including the object image may be used instead. If the object image includes the face image of the user, the position of the second eye of the face image is detected and its center point is recognized, and the position of the center point is set as the reference position of the object image. Just use it.
[0090]
The control of the volume balance between the left and right speakers is performed as follows. For example, the reference position coordinates on the display screen are defined as -96 at the left end, 0 at the center, and 96 at the right end. Then, the center position of the object image is linearly converted into a numerical value based on the reference position coordinates, and the converted numerical value is associated with the gain of the volume. Then, the sound volume is changed by controlling the constant of the PCM conversion circuit or controlling the amplification factor of the analog audio circuit based on the gain.
[0091]
In the above description, the case where the text data is output as speech using the speech synthesis technique has been described as an example. However, the speech synthesis technique may not necessarily be used. For example, the speech data input to the microphone by the transmitting user at the client terminal may be used. May be output as it is.
[0092]
FIG. 28 illustrates an example of audio output control in a case where another home electric appliance having a speaker such as a television receiver exists around the client terminal. The client terminal monitors the presence / absence of audio output from the speakers 28e and 28f of the terminal itself, and detects a period during which the audio output is performed, and lowers the volume of the speakers 28b and 28c of the home electric appliance 28a during this period. In this way, the user performing the communication can clearly hear the voice of the communication partner user output from the speakers 28e and 28f of the client terminal.
[0093]
(Example 17)
Generally, there are various restrictions on the camera, and particularly when the installation position is restricted, for example, as shown in FIG. 29A, the object image 29a in the captured image data is displayed in a rolled state. Sometimes. Therefore, in such a case, the display direction of the object image is determined, and the direction of the object image is rotated by 90 degrees to the right as shown in FIG. Combine. At this time, the display position and the display direction of the balloon image are adjusted according to the display position and the display direction of the object image.
[0094]
This makes it possible to always display the object image in an upright state regardless of the installation state of the camera. As a result, even when the object images and the balloon images of a plurality of terminal users are displayed on one display screen, it is possible to clearly display the correspondence between the object image and the balloon image so as not to erroneously recognize the correspondence.
[0095]
Other methods for correcting the display direction of the object image include the following. That is, if the input video is synthesized as it is, if the user moves left due to the characteristics of the camera, the user in the synthesized image will move right. This gives the user a sense of discomfort. Then, by synthesizing the display position of the object image with the balloon image after inverting the display position of the object image, the movement of the synthesized image matches the user's sense, and the synthesized image can be viewed more comfortably. Also in this case, the display position of the balloon image is adjusted according to the display position of the object image.
[0096]
(Example 18)
In general, many image compression standards can handle only a limited shape such as a rectangle as an image shape. Therefore, an object image 30a having an arbitrary shape is synthesized with a background image having a basic shape conforming to the image compression standard and set to a specific color as shown in FIG. On the other hand, when reproducing the compressed image, if the specific color of the background image is removed as shown in FIG. 30B, the object image 30a having the above-mentioned arbitrary shape can be reproduced. Here, for example, a single color of green or blue is used as the specific color. Note that the specific color is not necessarily one color, and a plurality of colors such as green and blue may be used as the specific color. Also, if a standard that allows compression and reproduction of an arbitrary shape, such as the international standard MPEG4 (Moving Picture Experts Group 4), is adopted for compression and reproduction, an arbitrary shape can be used without using a specific color image. Compression and reproduction of an object image can be realized.
[0097]
(Example 19)
The server SV converts the user's voice input to the microphone at the client terminal into text data by performing voice recognition, and displays the converted text data 31b using a balloon image 31a. In this case, if the voice data of the user is converted to erroneous text data due to erroneous recognition, the user of the communication partner who is viewing the synthesized and displayed text data 31b cannot correctly understand the content of the transmission.
[0098]
Thus, for example, as shown in FIG. 31, a mark indicating that voice display is possible is generated, and this mark 31c is displayed together with the text data 31b by a balloon image 31a. Then, when the user designates and clicks on the displayed mark 31c with the mouse pointer, audio data corresponding to the text data 31b being displayed is reproduced and output from the speaker by the balloon image 31a.
[0099]
With this configuration, the user can listen to the transmission voice of the communication partner user as voice data as needed, and even if erroneous recognition of the voice data occurs as a result, the user will be able to hear the transmission content of the communication partner user. Can be correctly recognized. Further, even when voice data which is difficult to convert into text data, such as an animal squeal or a sound, is transmitted, the voice data can be reproduced by voice. Further, when the balloon image has such a configuration, the size of the balloon image can be made constant and small.
[0100]
As described in detail above, in this embodiment, an object image is cut out from the image data received from the client terminal T1, and a balloon image representing the content of the text is generated from the text data received from the client terminal T1, and the balloon image Is arranged near the object image. Then, when the balloon image protrudes from the display screen or overlaps with another balloon image or the like, the position of the balloon image is adjusted to a position not protruding from the display screen and not overlapping with another balloon image or the like. I have to.
[0101]
Therefore, according to this embodiment, when the balloon image protrudes from the display screen, the composite image is created after being adjusted to a position that does not protrude. Also, when a balloon image overlaps another balloon image or the like, a combined image is created after being adjusted to a position where it does not overlap. For this reason, all of the information displayed in the balloon image can be accurately displayed in an easily viewable state at all times.
[0102]
Note that the present invention is not limited to the above embodiment. For example, in the above embodiment, the case where the server SV creates a composite image after performing position adjustment has been described as an example. However, in the case of a system in which a client terminal is directly connected via a network NW and not via a server SV for communication, the client terminal may be provided with a function of adjusting the position of the image and a function of creating a composite image. Just fine.
[0103]
In this case, the configuration of the client terminal includes a case where the image data and the balloon image of the own user are transmitted and a position adjustment process and a composite image creation process of these images are performed, and a case where the image data and the balloon image are transmitted from another client terminal. When the images are received, it is conceivable that the position adjustment processing of these images and the creation processing of the composite image are performed.
[0104]
The object image representing the user is not limited to an image actually captured by the camera 24, and may be an animation image arbitrarily selected by the user or an image other than a person. In this case, the server SV allows the user to select the case where an arbitrary image sent from the client terminal is used as the user's object image, or to select an animation image or the like stored in advance in the storage unit of the server SV. It is conceivable that the used image is used as the user's object image.
[0105]
In addition, the image display control device according to the present invention is not limited to a client terminal or a server for performing chat communication via a network, but may be applied to, for example, a single personal computer or a workstation that creates game software or the like. It is possible.
[0106]
The gist of the present invention also relates to the type and configuration of the communication system, the configuration of the server and the client terminal, the procedures and contents of the image position adjustment processing and the image synthesis processing, the processing method of the image data, the display form of the balloon image, and the like. Various modifications can be made without departing from the scope of the present invention.
[0107]
【The invention's effect】
As described in detail above, according to the present invention, in the image display control device and the display control program provided in the server device or the terminal device interposed between the plurality of terminal devices, the adjusting means for adjusting the form of the composite image is provided. When the newly provided main data and subordinate data are combined to generate composite data that can be displayed on one display screen, the received main data image and subordinate data image are displayed in the display screen area. The combined form is adjusted so that the combined data does not overlap with each other and does not overlap each other, and the combined data adjusted in the combined form is transmitted to the terminal device of the communication partner and displayed.
[0108]
Therefore, according to the present invention, the image of the main data and the image of the subordinate data can always be displayed in an appropriate state without overlapping each other or protruding from the display screen, thereby enabling accurate and smooth communication. A control device and an image display control program can be provided.
[Brief description of the drawings]
FIG. 1 is a diagram showing an embodiment of a communication system in which an image display control device according to the present invention is provided.
FIG. 2 is a flowchart showing a procedure and contents of image synthesis control in a server SV shown in FIG. 1;
FIG. 3 is a diagram showing an example of a process of generating composite image data by image composition control in a server SV shown in FIG. 1;
FIG. 4 is a view for explaining position determination of a balloon image.
FIG. 5 is a view for explaining movement of a balloon image accompanying movement of an object image.
FIG. 6 is a diagram illustrating an example of a change in the shape of a balloon image.
FIG. 7 is a view for explaining another example of a change in the shape of a balloon image.
FIG. 8 is a diagram illustrating an example of movement of an object image.
FIG. 9 is a diagram illustrating a balloon image that moves following an object image.
FIG. 10 is a view for explaining automatic deletion of a balloon image.
FIG. 11 is an exemplary view for explaining arrangement of unnecessary balloon images;
FIG. 12 is a diagram illustrating a case where the maximum number of combined display components is set for each user.
FIG. 13 is a view for explaining a case where two balloon images are displayed side by side.
FIG. 14 is a diagram illustrating a display effect of a balloon image.
FIG. 15 is a diagram illustrating a display effect of a balloon image.
FIG. 16 is a diagram illustrating a case where an upper limit is set for the size of a balloon image.
FIG. 17 is a view for explaining the display order of balloon images.
FIG. 18 is a view for explaining display management of balloon image information.
FIG. 19 is a view for explaining effects given to a composite display component.
FIG. 20 is a view for explaining editing of balloon image information.
FIG. 21 is a view for explaining history management of a balloon image.
FIG. 22 is a diagram illustrating a change in the shape of a balloon image.
FIG. 23 is a view for explaining an example in which text data is displayed without using a balloon image.
FIG. 24 is a view for explaining display of an image clipping state.
FIG. 25 is a view for explaining a countermeasure for cutting out a small area not expected by the user;
FIG. 26 is a diagram illustrating the use of audio information instead of a balloon image.
FIG. 27 is a diagram illustrating a case where text is output as sound by a speech synthesis system.
FIG. 28 is a diagram illustrating volume control of an external device.
FIG. 29 is a view for explaining pre-processing when image data is input from a camera.
FIG. 30 is a diagram illustrating transmission and reception of a character image having an arbitrary shape via a network.
FIG. 31 is an exemplary view for explaining an example in which sound is converted to text and synthesized and displayed together with an audio / video file.
[Explanation of symbols]
SV… Server
NW… Network
T1, T2 ... terminal
10, 16 ... Reception processing unit
11, 17 ... cutout processing unit
12, 18 ... Image position determination processing unit
13, 19: Position adjustment processing unit
14 ... Synthesis processing unit
15: Transmission processing unit
20 ... Key input section
21 ... Transmission processing unit
22 ... Reception processing unit
23 Display unit
24 ... Camera

Claims (12)

複数の端末装置をネットワークを介してサーバ装置に接続し、当該サーバ装置を介して前記複数の端末装置間で画像を含むデータを伝送する通信システムの前記サーバ装置に設けられる画像表示制御装置において、
第1の端末装置が送信した、主データ及びこの主データに関連する従属データを前記ネットワークを介して受信する受信手段と、
前記受信手段により受信された主データと従属データとを合成して1表示画面に表示可能な合成データを生成する合成手段と、
前記合成に際し、前記受信された主データの画像及び従属データの画像が表示画面領域内に収まりかつ相互に重なり合わないように、合成形態を調整する調整手段と、
前記調整手段により合成形態が調整された合成データを、前記第1の端末装置の通信相手である第2の端末装置へ、前記ネットワークを介して送信し表示させる送信手段とを具備したことを特徴とする画像表示制御装置。
An image display control device provided in the server device of the communication system for transmitting data including an image between the plurality of terminal devices via the server device, wherein the plurality of terminal devices are connected to the server device via the network.
Receiving means for receiving, via the network, main data and subordinate data related to the main data transmitted by the first terminal device;
Combining means for combining the main data and the dependent data received by the receiving means to generate combined data that can be displayed on one display screen;
In the synthesizing, adjusting means for adjusting the synthesizing mode so that the received image of the main data and the image of the dependent data are contained in the display screen area and do not overlap each other,
Transmitting means for transmitting and displaying the combined data, the combined form of which has been adjusted by the adjusting means, to a second terminal device, which is a communication partner of the first terminal device, via the network. Image display control device.
複数の端末装置間をネットワークを介して直接接続し、当該複数の端末装置間で画像を含むデータを伝送する通信システムの前記端末装置に設けられる画像表示制御装置において、
通信相手の端末装置が送信する、主データ及びこの主データに関連する従属データを前記ネットワークを介して受信する受信手段と、
前記受信手段により受信された主データと従属データとを合成して1表示画面に表示可能な合成データを生成する合成手段と、
前記合成に際し、前記受信された主データの画像及び従属データの画像が表示画面領域内に収まりかつ相互に重なり合わないように、合成形態を調整する調整手段と、
前記調整手段により合成形態が調整された合成データを、表示器に表示する表示制御手段とを具備したことを特徴とする画像表示制御装置。
In the image display control device provided in the terminal device of the communication system that directly connects a plurality of terminal devices via a network and transmits data including an image between the plurality of terminal devices,
Reception means for transmitting, via the network, main data and subordinate data related to the main data transmitted by the communication partner terminal device,
Combining means for combining the main data and the dependent data received by the receiving means to generate combined data that can be displayed on one display screen;
In the synthesizing, adjusting means for adjusting the synthesizing mode so that the received image of the main data and the image of the dependent data are contained in the display screen area and do not overlap each other,
An image display control device, comprising: display control means for displaying, on a display, the synthesized data whose synthesis mode has been adjusted by the adjustment means.
複数の端末装置間をネットワークを介して直接接続し、当該複数の端末装置間で画像を含むデータを伝送する通信システムの前記端末装置に設けられる画像表示制御装置において、
主データ及びこの主データに関連する従属データをそれぞれ入力するための入力手段と、
この入力手段により入力された主データと従属データとを合成して1表示画面に表示可能な合成データを生成する合成手段と、
前記合成に際し、前記受信された主データの画像及び従属データの画像が表示画面領域内に収まりかつ相互に重なり合わないように、合成形態を調整する調整手段と、
前記調整手段により合成形態が調整された合成データを、前記ネットワークを介して通信相手の端末装置に送信し表示させる送信手段とを具備したことを特徴とする画像表示制御装置。
In the image display control device provided in the terminal device of the communication system that directly connects a plurality of terminal devices via a network and transmits data including an image between the plurality of terminal devices,
Input means for inputting main data and subordinate data related to the main data, respectively;
Synthesizing means for synthesizing the main data and the subordinate data input by the input means to generate synthesized data which can be displayed on one display screen;
In the synthesizing, adjusting means for adjusting the synthesizing mode so that the received image of the main data and the image of the dependent data are contained in the display screen area and do not overlap each other,
An image display control device comprising: a transmitting unit that transmits the synthesized data, the synthesizing mode of which has been adjusted by the adjusting unit, to a terminal device of a communication partner via the network, and displays the synthesized data.
前記合成手段が、複数の端末装置からそれぞれ到来した複数対の主データ及び従属データを合成して1表示画面に表示可能な合成データを生成する場合に、
前記調整手段は、前記複数対の主データ及び従属データ相互間で、主データの画像及び従属データの画像が表示画面領域内に収まりかつ重なり合わないように、合成形態を調整することを特徴とする請求項1又は2に記載の画像表示制御装置。
When the synthesizing means synthesizes a plurality of pairs of main data and subordinate data respectively arriving from a plurality of terminal devices to generate synthesized data that can be displayed on one display screen,
The adjusting means adjusts a combination mode between the plurality of pairs of main data and subordinate data so that an image of main data and an image of subordinate data fall within a display screen area and do not overlap. The image display control device according to claim 1.
前記調整手段による合成形態の調整動作をもとに画像が重なり合わずに表示可能か否かを判定し、画像が重なり合わずに表示することが不可能と判定された場合には、第1の時刻に受信された主データ及び従属データの画像よりも、前記第1の時刻より後の第2の時刻に受信された主データ及び従属データの画像が、表示画面の手前側に重なるように、合成形態を調整する手段をさらに具備したことを特徴とする請求項4記載の画像表示制御装置。It is determined whether or not images can be displayed without overlapping based on the adjusting operation of the combining mode by the adjusting means. If it is determined that the images cannot be displayed without overlapping, the first The image of the main data and the dependent data received at the second time after the first time is overlapped with the image of the main data and the dependent data received at the time 5. The image display control device according to claim 4, further comprising means for adjusting a composition mode. 前記調整手段は、主データの画像及び従属データの画像が表示画面領域内に収まりかつ重なり合わないように、主データの画像及び従属データの画像の位置、大きさ及び形状の少なくとも一つを調整することを特徴とする請求項1乃至3記載の画像表示制御装置。The adjusting means adjusts at least one of the position, size, and shape of the image of the main data and the image of the subordinate data so that the image of the main data and the image of the subordinate data do not overlap in the display screen area and do not overlap. The image display control device according to claim 1, wherein: 前記調整手段は、主データの画像が変化する場合に、この主データの画像の変化に応じて従属データの画像の位置、大きさ及び形状の少なくとも一つを変化させることを特徴とする請求項1乃至3記載の画像表示制御装置。The image processing apparatus according to claim 1, wherein the adjusting unit changes at least one of a position, a size, and a shape of the image of the dependent data according to the change of the image of the main data when the image of the main data changes. An image display control device according to any one of claims 1 to 3. 前記調整手段は、主データの画像の変化に応じて従属データの画像の位置、大きさ及び形状の少なくとも一つを変化させる際に、この変化の速度、加速度及び変化量の少なくとも一つに上限を設定することを特徴とする請求項7記載の画像表示制御装置。When changing at least one of the position, the size, and the shape of the image of the dependent data in accordance with the change of the image of the main data, the adjusting means has an upper limit on at least one of the speed, acceleration, and the amount of the change. 8. The image display control device according to claim 7, wherein: 主データを予め記憶する記憶手段をさらに具備し、
前記合成手段が合成対象の主データとして前記記憶手段に記憶された主データを使用する場合に、
前記調整手段は、前記記憶手段から読み出された主データの画像及び従属データの画像が表示画面領域内に収まりかつ相互に重なり合わないように、合成形態を調整することを特徴とする請求項1乃至3のいずれかに記載の画像表示制御装置。
Further comprising a storage means for storing the main data in advance;
When the combining means uses main data stored in the storage means as main data to be combined,
2. The image processing apparatus according to claim 1, wherein the adjusting unit adjusts the combining mode such that the image of the main data and the image of the dependent data read from the storage unit fall within a display screen area and do not overlap each other. 4. The image display control device according to any one of 1 to 3.
複数の端末装置をコンピュータを有するサーバ装置にネットワークを介して接続し、当該サーバ装置を介して前記複数の端末装置間で画像を含むデータを伝送する通信システムの前記サーバ装置で使用される画像表示制御プログラムであって、
第1の端末装置が送信する、主データ及びこの主データに関連する従属データを前記ネットワークを介して受信する処理と、
前記受信された主データと従属データとを合成して1表示画面に表示可能な合成データを生成する処理と、
前記合成処理に際し、前記受信された主データの画像及び従属データの画像が表示画面領域内に収まりかつ相互に重なり合わないように、合成形態を調整する処理と、
前記合成形態が調整された合成データを、前記第1の端末装置の通信相手である第2の端末装置へ前記ネットワークを介して送信し表示させる処理とを、
前記コンピュータに実行させる画像表示制御プログラム。
An image display used in the server device of a communication system in which a plurality of terminal devices are connected to a server device having a computer via a network, and data including an image is transmitted between the plurality of terminal devices via the server device. A control program,
A process of receiving, via the network, main data and subordinate data related to the main data transmitted by the first terminal device;
Combining the received main data and the dependent data to generate combined data that can be displayed on one display screen;
During the synthesizing process, a process of adjusting the synthesizing mode so that the received image of the main data and the image of the subordinate data fall within the display screen area and do not overlap each other,
Transmitting the combined data adjusted in the combining mode to a second terminal device, which is a communication partner of the first terminal device, via the network and displaying the combined data;
An image display control program to be executed by the computer.
複数の画像を含むデータを合成表示する端末装置に設けられる画像表示制御装置において、
複数の主データ及びこの各主データに関連する従属データをそれぞれ入力するための入力手段と、
前記入力手段により入力された主データと従属データとを合成して1表示画面に表示可能な合成データを生成する合成手段と、
前記合成に際し、前記主データの画像及び従属データの画像が表示画面領域内に収まりかつ相互に重なり合わないように、合成形態を調整する調整手段と、
前記調整手段により合成形態が調整された合成データを、表示器に表示する表示制御手段とを具備したことを特徴とする画像表示制御装置。
In an image display control device provided in a terminal device that synthesizes and displays data including a plurality of images,
Input means for respectively inputting a plurality of main data and subordinate data related to each of the main data,
Synthesizing means for synthesizing the main data and the subordinate data input by the input means to generate synthesized data which can be displayed on one display screen;
In the combining, an adjusting unit that adjusts a combining mode so that the image of the main data and the image of the dependent data fall within a display screen area and do not overlap each other,
An image display control device, comprising: display control means for displaying, on a display, the synthesized data whose synthesis mode has been adjusted by the adjustment means.
複数の画像を含むデータを合成表示するためにコンピュータを有する端末装置で使用される画像表示制御プログラムであって、
複数の主データ及びこの各主データに関連する従属データをそれぞれ受理する処理と、
前記受理された主データと従属データとを合成して1表示画面に表示可能な合成データを生成する処理と、
前記合成処理に際し、前記主データの画像及び従属データの画像が表示画面領域内に収まりかつ相互に重なり合わないように、合成形態を調整する処理と、
前記合成形態が調整された合成データを表示させる処理とを、
前記コンピュータに実行させる画像表示制御プログラム。
An image display control program used in a terminal device having a computer to synthesize and display data including a plurality of images,
A process of receiving a plurality of main data and dependent data associated with each of the main data,
A process of combining the received main data and dependent data to generate combined data that can be displayed on one display screen;
At the time of the synthesizing process, a process of adjusting a synthesizing mode so that the image of the main data and the image of the subordinate data fall within a display screen area and do not overlap each other
A process of displaying the synthesized data in which the synthesis mode has been adjusted,
An image display control program to be executed by the computer.
JP2002286514A 2002-09-30 2002-09-30 Image display controller and image display control program Pending JP2004128614A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002286514A JP2004128614A (en) 2002-09-30 2002-09-30 Image display controller and image display control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002286514A JP2004128614A (en) 2002-09-30 2002-09-30 Image display controller and image display control program

Publications (1)

Publication Number Publication Date
JP2004128614A true JP2004128614A (en) 2004-04-22

Family

ID=32279545

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002286514A Pending JP2004128614A (en) 2002-09-30 2002-09-30 Image display controller and image display control program

Country Status (1)

Country Link
JP (1) JP2004128614A (en)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006164212A (en) * 2004-11-10 2006-06-22 Sony Corp Information processing apparatus and method, recording medium, and program
JP2007004677A (en) * 2005-06-27 2007-01-11 Seiko Epson Corp Comment layout device and album making device
JP2008035154A (en) * 2006-07-28 2008-02-14 Casio Comput Co Ltd Image processing apparatus, image processing method, and image processing program
JP2008048377A (en) * 2006-07-18 2008-02-28 Fuji Xerox Co Ltd Remote instruction system and program for remote instruction system
WO2008047621A1 (en) * 2006-10-18 2008-04-24 Konami Digital Entertainment Co., Ltd. Game device, message display method, information recording medium and program
JP2010206745A (en) * 2009-03-06 2010-09-16 Brother Ind Ltd Communication terminal, display control method, and display control program
JP2011022914A (en) * 2009-07-17 2011-02-03 Casio Computer Co Ltd Information processing device and control program thereof
JP2011110323A (en) * 2009-11-30 2011-06-09 Konami Digital Entertainment Co Ltd Game device, method for controlling game device, and program
JP2011130208A (en) * 2009-12-17 2011-06-30 Canon Inc Imaging apparatus, apparatus and method for processing image
JP2012513693A (en) * 2008-12-22 2012-06-14 フランス・テレコム Method and apparatus for processing text data
US8487956B2 (en) 2005-11-29 2013-07-16 Kyocera Corporation Communication terminal, system and display method to adaptively update a displayed image
WO2014013690A1 (en) * 2012-07-17 2014-01-23 パナソニック株式会社 Comment information generation device and comment information generation method
WO2014013689A1 (en) * 2012-07-20 2014-01-23 パナソニック株式会社 Moving-image-with-comments generation device and moving-image-with-comments generation method
JP5568189B1 (en) * 2014-02-25 2014-08-06 株式会社 ディー・エヌ・エー Electronic game providing apparatus and electronic game providing program
JP5613857B1 (en) * 2014-06-02 2014-10-29 株式会社 ディー・エヌ・エー Electronic game providing apparatus and electronic game providing program
JP2015153410A (en) * 2014-02-19 2015-08-24 株式会社ディグナ communication system
WO2015151669A1 (en) * 2014-04-01 2015-10-08 ビッグローブ株式会社 Communication terminal, display control method, and program
JP2015537262A (en) * 2012-09-26 2015-12-24 テンセント テクノロジー (シェンツェン) カンパニー リミテッド System and method for sharing image data
CN105430512A (en) * 2015-11-06 2016-03-23 腾讯科技(北京)有限公司 Method and device for displaying information on video image
US9398349B2 (en) 2013-05-16 2016-07-19 Panasonic Intellectual Property Management Co., Ltd. Comment information generation device, and comment display device
JP2016136746A (en) * 2011-12-26 2016-07-28 キヤノンマーケティングジャパン株式会社 Conference server, conference system, control method, and program
WO2016152633A1 (en) * 2015-03-26 2016-09-29 ソニー株式会社 Image processing system, image processing method, and program
JP2016220844A (en) * 2015-05-28 2016-12-28 株式会社コロプラ Game program with message transmission function, message transmission method, and computer terminal with message transmission function
JP2016220846A (en) * 2015-05-28 2016-12-28 株式会社コロプラ Game program with message transmission function, message transmission method, and computer terminal with message transmission function
JP2017510898A (en) * 2014-03-24 2017-04-13 フェイスブック,インク. Configurable electronic communication elements
US9639318B2 (en) 2012-09-26 2017-05-02 Tencent Technology (Shenzhen) Company Limited Systems and methods for sharing image data
KR20170100593A (en) * 2014-12-30 2017-09-04 페이스북, 인크. System and method for providing social remarks in text overlaid on media content
JP2020197981A (en) * 2019-06-04 2020-12-10 富士通株式会社 Display control program, display control method, and display control device
JP2022041095A (en) * 2020-08-31 2022-03-11 株式会社スクウェア・エニックス Balloon generation program, and video game processing system
JP2023016504A (en) * 2021-07-21 2023-02-02 アイメソフト ジェイエスシー Slide playback program, slide playback device, and slide playback method

Cited By (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006164212A (en) * 2004-11-10 2006-06-22 Sony Corp Information processing apparatus and method, recording medium, and program
US8031631B2 (en) 2004-11-10 2011-10-04 Sony Corporation Information processing apparatus, method, and recording medium for communication through a network in a predetermined area
JP2007004677A (en) * 2005-06-27 2007-01-11 Seiko Epson Corp Comment layout device and album making device
US8487956B2 (en) 2005-11-29 2013-07-16 Kyocera Corporation Communication terminal, system and display method to adaptively update a displayed image
JP2008048377A (en) * 2006-07-18 2008-02-28 Fuji Xerox Co Ltd Remote instruction system and program for remote instruction system
JP2008035154A (en) * 2006-07-28 2008-02-14 Casio Comput Co Ltd Image processing apparatus, image processing method, and image processing program
WO2008047621A1 (en) * 2006-10-18 2008-04-24 Konami Digital Entertainment Co., Ltd. Game device, message display method, information recording medium and program
US8137191B2 (en) 2006-10-18 2012-03-20 Konami Digital Entertainment Co., Ltd. Game device, message display method, information recording medium and program
JP2012513693A (en) * 2008-12-22 2012-06-14 フランス・テレコム Method and apparatus for processing text data
US8848015B2 (en) 2008-12-22 2014-09-30 Orange Method and device for processing text data
JP2010206745A (en) * 2009-03-06 2010-09-16 Brother Ind Ltd Communication terminal, display control method, and display control program
JP2011022914A (en) * 2009-07-17 2011-02-03 Casio Computer Co Ltd Information processing device and control program thereof
JP2011110323A (en) * 2009-11-30 2011-06-09 Konami Digital Entertainment Co Ltd Game device, method for controlling game device, and program
JP2011130208A (en) * 2009-12-17 2011-06-30 Canon Inc Imaging apparatus, apparatus and method for processing image
JP2016136746A (en) * 2011-12-26 2016-07-28 キヤノンマーケティングジャパン株式会社 Conference server, conference system, control method, and program
JP5659307B2 (en) * 2012-07-17 2015-01-28 パナソニックIpマネジメント株式会社 Comment information generating apparatus and comment information generating method
CN103797783A (en) * 2012-07-17 2014-05-14 松下电器产业株式会社 Comment information generation device and comment information generation method
US9681201B2 (en) 2012-07-17 2017-06-13 Panasonic Intellectual Property Management Co., Ltd. Comment information generating apparatus and comment information generating method
WO2014013690A1 (en) * 2012-07-17 2014-01-23 パナソニック株式会社 Comment information generation device and comment information generation method
CN103797812A (en) * 2012-07-20 2014-05-14 松下电器产业株式会社 Moving-image-with-comments generation device and moving-image-with-comments generation method
CN103797812B (en) * 2012-07-20 2018-10-12 松下知识产权经营株式会社 Band comments on moving image generating means and with comment moving image generation method
JP5571269B2 (en) * 2012-07-20 2014-08-13 パナソニック株式会社 Moving image generation apparatus with comment and moving image generation method with comment
US9998797B2 (en) 2012-07-20 2018-06-12 Panasonic Intellectual Property Management Co., Ltd. Comment-provided video generating apparatus and comment-provided video generating method
WO2014013689A1 (en) * 2012-07-20 2014-01-23 パナソニック株式会社 Moving-image-with-comments generation device and moving-image-with-comments generation method
US9674582B2 (en) 2012-07-20 2017-06-06 Panasonic Intellectual Property Management Co., Ltd. Comment-provided video generating apparatus and comment-provided video generating method
US9639318B2 (en) 2012-09-26 2017-05-02 Tencent Technology (Shenzhen) Company Limited Systems and methods for sharing image data
JP2015537262A (en) * 2012-09-26 2015-12-24 テンセント テクノロジー (シェンツェン) カンパニー リミテッド System and method for sharing image data
US9398349B2 (en) 2013-05-16 2016-07-19 Panasonic Intellectual Property Management Co., Ltd. Comment information generation device, and comment display device
JP2015153410A (en) * 2014-02-19 2015-08-24 株式会社ディグナ communication system
JP5568189B1 (en) * 2014-02-25 2014-08-06 株式会社 ディー・エヌ・エー Electronic game providing apparatus and electronic game providing program
US10140001B2 (en) 2014-03-24 2018-11-27 Facebook, Inc. Configurable electronic communication element
JP2017510898A (en) * 2014-03-24 2017-04-13 フェイスブック,インク. Configurable electronic communication elements
WO2015151669A1 (en) * 2014-04-01 2015-10-08 ビッグローブ株式会社 Communication terminal, display control method, and program
TWI579757B (en) * 2014-04-01 2017-04-21 比葛露股份有限公司 Communication terminal, display control method and program
JP2015198334A (en) * 2014-04-01 2015-11-09 ビッグローブ株式会社 Communication terminal, display control method, and program
JP5613857B1 (en) * 2014-06-02 2014-10-29 株式会社 ディー・エヌ・エー Electronic game providing apparatus and electronic game providing program
JP2018502398A (en) * 2014-12-30 2018-01-25 フェイスブック,インク. System and method for providing social remarks of text overlaid on media content
KR20170100593A (en) * 2014-12-30 2017-09-04 페이스북, 인크. System and method for providing social remarks in text overlaid on media content
KR102300162B1 (en) * 2014-12-30 2021-09-10 페이스북, 인크. Systems and methods for providing social utterances in text overlaid on media content
US10699454B2 (en) 2014-12-30 2020-06-30 Facebook, Inc. Systems and methods for providing textual social remarks overlaid on media content
WO2016152633A1 (en) * 2015-03-26 2016-09-29 ソニー株式会社 Image processing system, image processing method, and program
JPWO2016152633A1 (en) * 2015-03-26 2018-01-18 ソニー株式会社 Image processing system, image processing method, and program
US10600169B2 (en) 2015-03-26 2020-03-24 Sony Corporation Image processing system and image processing method
JP2016220846A (en) * 2015-05-28 2016-12-28 株式会社コロプラ Game program with message transmission function, message transmission method, and computer terminal with message transmission function
JP2016220844A (en) * 2015-05-28 2016-12-28 株式会社コロプラ Game program with message transmission function, message transmission method, and computer terminal with message transmission function
US10425679B2 (en) 2015-11-06 2019-09-24 Tencent Technology (Shenzhen) Company Limited Method and device for displaying information on video image
WO2017076171A1 (en) * 2015-11-06 2017-05-11 腾讯科技(深圳)有限公司 Method and apparatus for displaying information on video image
CN105430512A (en) * 2015-11-06 2016-03-23 腾讯科技(北京)有限公司 Method and device for displaying information on video image
JP2020197981A (en) * 2019-06-04 2020-12-10 富士通株式会社 Display control program, display control method, and display control device
JP7335491B2 (en) 2019-06-04 2023-08-30 富士通株式会社 Display control program, display control method, and display control device
JP2022041095A (en) * 2020-08-31 2022-03-11 株式会社スクウェア・エニックス Balloon generation program, and video game processing system
JP7157781B2 (en) 2020-08-31 2022-10-20 株式会社スクウェア・エニックス Speech bubble generator and video game processing system
US11766617B2 (en) 2020-08-31 2023-09-26 Square Enix Co., Ltd. Non-transitory medium and video game processing system
JP7392074B2 (en) 2020-08-31 2023-12-05 株式会社スクウェア・エニックス Speech bubble generation program and video game processing system
JP2023016504A (en) * 2021-07-21 2023-02-02 アイメソフト ジェイエスシー Slide playback program, slide playback device, and slide playback method

Similar Documents

Publication Publication Date Title
JP2004128614A (en) Image display controller and image display control program
JP3784289B2 (en) Media editing method and apparatus
US8291326B2 (en) Information-processing apparatus, information-processing methods, recording mediums, and programs
JP4725936B1 (en) Input support apparatus, input support method, and program
US7508413B2 (en) Video conference data transmission device and data transmission method adapted for small display of mobile terminals
JP2003526292A (en) Communication system with media tool and method
US8818163B2 (en) Motion picture playing method, motion picture playing apparatus and recording medium
US10812430B2 (en) Method and system for creating a mercemoji
KR100795357B1 (en) Mobile animation message service method and system and terminal
JP2006041886A (en) Information processor and method, recording medium, and program
JP2014140135A (en) Information reproduction terminal
JP2006041888A (en) Information processing apparatus and method therefor, recording medium and program
JP2016165162A (en) Moving image distribution system
KR20030094214A (en) Synchronous control of media in a peer to peer network
WO2014118498A1 (en) Conveying audio messages to mobile display devices
US20220239721A1 (en) Communication terminal, application program for communication terminal, and communication method
JP5777233B1 (en) Movie generation apparatus and movie generation method
KR20090068705A (en) Rich media server and rich media transmission system and rich media transmission method
JP6601615B2 (en) Movie processing system, movie processing program, and portable terminal
JP2016048855A (en) Remote communication device and program
KR102510892B1 (en) Method for providing speech video and computing device for executing the method
KR20000054437A (en) video chatting treatment method
WO2021255831A1 (en) Transmission device, communication method, and program
KR100923307B1 (en) A mobile communication terminal for a video call and method for servicing a video call using the same
JP2006173879A (en) Communication system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060117

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060306

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060418