JP2000270306A - Image processing unit, its method and served medium - Google Patents

Image processing unit, its method and served medium

Info

Publication number
JP2000270306A
JP2000270306A JP11074378A JP7437899A JP2000270306A JP 2000270306 A JP2000270306 A JP 2000270306A JP 11074378 A JP11074378 A JP 11074378A JP 7437899 A JP7437899 A JP 7437899A JP 2000270306 A JP2000270306 A JP 2000270306A
Authority
JP
Japan
Prior art keywords
image
user
unit
imaging
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11074378A
Other languages
Japanese (ja)
Other versions
JP4501171B2 (en
Inventor
Tetsujiro Kondo
哲二郎 近藤
Junichi Ishibashi
淳一 石橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP07437899A priority Critical patent/JP4501171B2/en
Publication of JP2000270306A publication Critical patent/JP2000270306A/en
Application granted granted Critical
Publication of JP4501171B2 publication Critical patent/JP4501171B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To make a sight line of a video camera in matching with that of a user. SOLUTION: A projector 44 displays a picture on a screen 45 to allow a user 51 to view the picture. The screen 45 is made transparent at a time when no picture is displayed and a video camera 42 photographs the user 51 through the screen 45. The picture photographed by the video camera 42 is sent to an opposite terminal, where a projector 44 displays the picture on the screen 55.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理装置およ
び方法、並びに提供媒体に関し、特に、テレビ会議シス
テムにおいて、テレビ会議出席者の視線とビデオカメラ
の目線とを一致させることができるようにした画像処理
装置および方法、並びに提供媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, an image processing method, and a providing medium. The present invention relates to an image processing apparatus and method, and a providing medium.

【0002】[0002]

【従来の技術】遠隔地に位置する複数の人の間で、画
像、音声、データなどを通信し、意志の疎通を図るシス
テムとして、テレビ電話システムやテレビ会議システム
がある。これらのシステムは、既に実用段階にあり、ビ
ジネス用途を中心に普及しつつある。
2. Description of the Related Art A video telephone system and a video conference system are known as systems for communicating images, voices, data, and the like between a plurality of persons located at remote locations to communicate with each other. These systems are already in practical use and are becoming popular, especially in business applications.

【0003】これらのシステムにおいては、人の顔を撮
像し、また、その音声を取り込むために、ビデオカメラ
とマイクロホンが用意されている。さらに、相手側から
伝送されてきた画像と音声を出力するために、モニタと
スピーカが用意されている。通常、ビデオカメラは、モ
ニタの周辺(例えば、上部、下部、または側面)に設置
される。
[0003] In these systems, a video camera and a microphone are provided to capture a human face and capture its voice. Further, a monitor and a speaker are provided to output images and sounds transmitted from the other party. Typically, video cameras are located around the monitor (eg, at the top, bottom, or sides).

【0004】また、テレビ会議システムにおいて、多く
の人数で会議を行うような場合、コスト的な問題やオフ
ィス環境の狭さなどの理由に基づき、参加者全員の顔の
画像をモニタ上にタイル状に並べて表示することが多
い。そして、出席者の数が多くなった場合、画像のサイ
ズを小さくして(1つのタイルの大きさを小さくし
て)、多くの参加者の画像を表示するようにしている。
In a video conference system, when a conference is held by a large number of people, images of the faces of all the participants are tiled on a monitor due to reasons such as cost problems and a narrow office environment. Often displayed side by side. Then, when the number of attendees increases, the size of the image is reduced (the size of one tile is reduced), and images of many participants are displayed.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、ビデオ
カメラをモニタの周辺に配置すると、モニタの中心とビ
デオカメラの目線とは一致しない。その結果、通常、使
用者は、ビデオカメラではなく、モニタを見ながら、そ
のモニタに写されている相手に話をするため、例えば、
ビデオカメラがモニタの上部に設置されている場合、モ
ニタに写し出される相手の顔は、若干うつ向き加減の画
像となる。ビデオカメラがモニタの下部に設置されてい
る場合、逆に、モニタに写し出された相手の顔は、上向
き加減の画像となる。いずれの場合にも、不自然な画像
となり、使用者は違和感を覚えることがあった。
However, when the video camera is arranged around the monitor, the center of the monitor does not coincide with the line of sight of the video camera. As a result, in general, the user looks at the monitor, not the video camera, and talks to the person on the monitor, for example,
When the video camera is installed on the upper part of the monitor, the face of the other party displayed on the monitor becomes an image slightly inclined. When the video camera is installed at the lower part of the monitor, on the contrary, the face of the other party displayed on the monitor becomes an upward and downward image. In either case, the image becomes unnatural and the user may feel uncomfortable.

【0006】また、参加者の画像をタイル状に表示する
と、全ての人が自分に向かって話をしているかのように
感じられ、やはり実際の会議におけるような臨場感を得
ることができない課題があった。
[0006] Further, when the images of the participants are displayed in a tile shape, it is felt as if all the people are talking to themselves, and it is impossible to obtain a sense of reality as in an actual conference. was there.

【0007】さらに、参加者の数の増加にともなって、
画像のサイズを小さくすると、参加者の顔が見にくくな
り、自然なコミュニケーションを図ることができなくな
る課題があった。本発明はこのような状況に鑑みてなさ
れたものであり、参加者の視線とカメラ目線とを一致さ
せることができるようにするものである。
Further, with the increase in the number of participants,
When the size of the image is reduced, the face of the participant becomes difficult to see, and there is a problem that natural communication cannot be achieved. The present invention has been made in view of such a situation, and aims to make the line of sight of a participant coincide with the line of sight of a camera.

【0008】また、本発明は、参加者が多くても、自然
な臨場感で会議に参加することができるようにするもの
である。
[0008] The present invention also enables a large number of participants to participate in a conference with a natural sense of reality.

【0009】[0009]

【課題を解決するための手段】請求項1に記載の画像処
理装置は、他の使用者の画像を表示する表示手段と、表
示手段を介して使用者を撮像する撮像手段と、表示手段
の画像の表示のタイミングと、表示手段を介しての撮像
手段による撮像のタイミングに関し、表示手段を制御す
る制御手段と、撮像手段により撮像された使用者の画像
を、他の使用者に伝送する伝送手段とを含むことを特徴
とする。
An image processing apparatus according to a first aspect of the present invention includes a display unit for displaying an image of another user, an imaging unit for imaging the user via the display unit, and an image processing apparatus. Control means for controlling the display means with respect to the display timing of the image and the timing of the image pickup by the image pickup means via the display means, and transmission of transmitting the image of the user picked up by the image pickup means to another user Means.

【0010】請求項5に記載の画像処理方法は、表示手
段の画像の表示のタイミングと、表示手段を介しての撮
像手段による撮像のタイミングに関し、表示手段を制御
する制御ステップと、撮像手段により撮像された使用者
の画像を、他の使用者に伝送する伝送ステップとを含む
ことを特徴とする。
According to a fifth aspect of the present invention, in the image processing method, a control step of controlling the display means is performed with respect to a timing of displaying an image on the display means and a timing of imaging by the imaging means via the display means. Transmitting the captured image of the user to another user.

【0011】請求項6に記載の提供媒体は、表示手段の
画像の表示のタイミングと、表示手段を介しての撮像手
段による撮像のタイミングに関し、表示手段を制御する
制御ステップと、撮像手段により撮像された使用者の画
像を、他の使用者に伝送する伝送ステップとを含む処理
を実行させるコンピュータが読み取り可能なプログラム
を提供することを特徴とする。
According to a sixth aspect of the present invention, there is provided the providing medium, wherein a control step of controlling the display means is performed with respect to a timing of displaying an image on the display means and a timing of imaging by the imaging means via the display means. And a transmission step of transmitting the image of the user to another user.

【0012】請求項7に記載の画像処理装置は、所定の
数の端末によりユニットを構成し、ユニットを仮想空間
内の所定の位置に配置する配置手段と、配置手段による
配置に対応して、ユニットの各端末の画像の表示を制御
する制御手段とを含むことを特徴とする。
According to a seventh aspect of the present invention, in the image processing apparatus, a unit is configured by a predetermined number of terminals, and the unit is disposed at a predetermined position in the virtual space. Control means for controlling the display of an image on each terminal of the unit.

【0013】請求項12に記載の画像処理方法は、所定
の数の端末によりユニットを構成し、ユニットを仮想空
間内の所定の位置に配置する配置ステップと、配置ステ
ップの処理による配置に対応して、ユニットの各端末の
画像の表示を制御する制御ステップとを含むことを特徴
とする。
An image processing method according to a twelfth aspect corresponds to an arrangement step in which a unit is constituted by a predetermined number of terminals and the unit is arranged at a predetermined position in a virtual space, and the arrangement by the arrangement step processing. And controlling the image display of each terminal of the unit.

【0014】請求項13に記載の提供媒体は、所定の数
の端末によりユニットを構成し、ユニットを仮想空間内
の所定の位置に配置する配置ステップと、配置ステップ
の処理による配置に対応して、ユニットの各端末の画像
の表示を制御する制御ステップとを含む処理を実行させ
るコンピュータが読み取り可能なプログラムを提供する
ことを特徴とする。
According to a thirteenth aspect of the present invention, there is provided a providing medium in which a unit is constituted by a predetermined number of terminals, and the unit is arranged at a predetermined position in a virtual space, and the arrangement is performed by the arrangement step. And a control step of controlling display of an image on each terminal of the unit.

【0015】請求項1に記載の画像処理装置、請求項5
に記載の画像処理方法、および請求項6に記載の提供媒
体においては、使用者が、表示手段を介して撮像され
る。
An image processing apparatus according to claim 1, wherein
In the image processing method described in the item (1) and the providing medium described in the item (6), the user is imaged through the display means.

【0016】請求項7に記載の画像処理装置、請求項1
2に記載の画像処理方法、および請求項13に記載の提
供媒体においては、所定の数の端末によりユニットが構
成され、ユニットが仮想空間内の所定の位置に配置され
る。
An image processing apparatus according to claim 7, wherein
In the image processing method according to the second aspect and the providing medium according to the thirteenth aspect, a unit is configured by a predetermined number of terminals, and the unit is arranged at a predetermined position in the virtual space.

【0017】[0017]

【発明の実施の形態】図1は、本発明を適用した画像処
理システムの構成例を示す図である。この構成例におい
ては、複数の端末1−1乃至1−6が、ネットワーク3
を介して、マスターサーバ2と接続されている。ネット
ワーク3は、インターネットなどのほか、イントラネッ
トあるいはLAN(Local Area Network)などで構成する
ことができる。
FIG. 1 is a diagram showing a configuration example of an image processing system to which the present invention is applied. In this configuration example, the plurality of terminals 1-1 to 1-6 are connected to the network 3
Is connected to the master server 2. The network 3 can be configured by an intranet, a LAN (Local Area Network), or the like in addition to the Internet.

【0018】図2は、端末1(以下、端末1−1乃至1
−6を個々に区別する必要がない場合、単に端末1と称
する。その他の装置についても同様とする)の構成を表
している。検出装置11は、後述する図3に示す使用者
51の顔の向きまたは視線の方向を検出する。検出装置
11の検出結果は、A/D変換器15によりA/D変換された
後、演算装置19に入力される。意志入力装置12は、
例えばキーボード、マウス、ジョイスティックなどによ
り構成され、必要に応じて使用者により操作される。意
志入力装置12より入力された信号は、A/D変換器16
によりA/D変換された後、演算装置19に入力される。
FIG. 2 shows a terminal 1 (hereinafter, terminals 1-1 to 1).
When it is not necessary to distinguish -6 individually, it is simply referred to as terminal 1. The same applies to other devices). The detection device 11 detects the direction of the face or the direction of the line of sight of the user 51 shown in FIG. The detection result of the detection device 11 is subjected to A / D conversion by the A / D converter 15 and then input to the arithmetic device 19. The will input device 12
For example, it is constituted by a keyboard, a mouse, a joystick and the like, and is operated by a user as needed. The signal input from the will input device 12 is input to the A / D converter 16.
After the A / D conversion, the data is input to the arithmetic unit 19.

【0019】音響入力装置13は、例えばマイクロホン
により構成され、使用者の音声を取り込む。音響入力装
置13より入力された音響信号は、A/D変換器17によ
りA/D変換された後、演算装置19に入力される。画像
入力装置14は、例えばビデオカメラにより構成され、
画像入力装置14より入力された画像信号は、A/D変換
器18によりA/D変換された後、演算装置19に入力さ
れる。
The sound input device 13 is composed of, for example, a microphone and captures a user's voice. The audio signal input from the audio input device 13 is A / D converted by the A / D converter 17 and then input to the arithmetic unit 19. The image input device 14 includes, for example, a video camera,
The image signal input from the image input device 14 is A / D converted by the A / D converter 18 and then input to the arithmetic device 19.

【0020】音声再生装置22は、例えばスピーカによ
り構成され、演算装置19より入力されたデジタル音声
信号がD/A変換器20によりD/A変換された後、入力され
る。音声再生装置22は、入力された音声信号を出力す
る。映像表示装置23は、例えばLCD(Liquid Crystal
Display)よりなるスクリーンと、そのスクリーンに画
像を投映するプロジェクタにより構成され、演算装置1
9より出力されたデジタル画像データがD/A変換器21
によりD/A変換された後、入力される。映像表示装置2
3は、入力された映像信号を表示する。また、図3を参
照して後述するように、画像入力装置14は、映像表示
装置23を介して、使用者を撮像する。そこで、演算装
置19は、映像表示装置23を制御し、その画像を表示
するタイミングと、画像入力装置14により画像を撮像
するタイミングとを制御する。
The audio reproducing device 22 is composed of, for example, a speaker. The digital audio signal input from the arithmetic device 19 is D / A converted by the D / A converter 20 and then input. The audio reproducing device 22 outputs the input audio signal. The image display device 23 is, for example, an LCD (Liquid Crystal).
Display) and a projector for projecting an image on the screen.
The digital image data output from the D / A converter 21
Is input after D / A conversion. Video display device 2
3 displays the input video signal. Further, as described later with reference to FIG. 3, the image input device 14 captures an image of the user via the video display device 23. Therefore, the arithmetic device 19 controls the video display device 23 to control the timing at which the image is displayed and the timing at which the image is captured by the image input device 14.

【0021】演算装置19は、例えばパーソナルコンピ
ュータなどにより構成することができる。送受信装置2
4は、例えばモデムなどにより構成され、ネットワーク
3を介して、マスターサーバ2と通信する。
The arithmetic unit 19 can be constituted by, for example, a personal computer or the like. Transceiver 2
Reference numeral 4 includes a modem, for example, and communicates with the master server 2 via the network 3.

【0022】図3は、端末1を構成する各装置の配置を
表している。端末1の使用者51は、映像表示装置23
を構成するプロジェクタ44により、スクリーン45に
表示された他の端末の使用者の画像を観察する。スクリ
ーン45の後方には、音響入力装置13を構成するマイ
クロホン41、画像入力装置14を構成するビデオカメ
ラ42、および音声再生装置22を構成するスピーカ4
3が配置されている。マイクロホン41は、使用者51
の発生する音声信号を取り込み、スピーカ43は、使用
者51に伝達する他の使用者からの音声信号を出力す
る。
FIG. 3 shows an arrangement of each device constituting the terminal 1. The user 51 of the terminal 1 is
The image of the user of the other terminal displayed on the screen 45 is observed by the projector 44 that constitutes. Behind the screen 45, a microphone 41 constituting the sound input device 13, a video camera 42 constituting the image input device 14, and a speaker 4 constituting the audio reproducing device 22
3 are arranged. The microphone 41 is connected to the user 51
The speaker 43 outputs an audio signal from another user to be transmitted to the user 51.

【0023】ビデオカメラ42は、スクリーン45を介
して、使用者51を撮像する。スクリーン45は、LCD
により構成され、演算装置19により、時分割動作する
ように制御される。すなわち、スクリーン45は、プロ
ジェクタ44の画像を表示するとき、光を透過しないよ
うに制御され、ビデオカメラ42から使用者51を撮像
するとき、光を透過するように制御される。演算装置1
9は、プロジェクタ44による画像をスクリーン45に
表示させるとき、ビデオカメラ42による撮像を中止さ
せ、プロジェクタ44より照射された画像をスクリーン
45に表示させ、使用者51に観察させる。また、演算
装置19は、ビデオカメラ42により使用者51の画像
を取り込むタイミングにおいて、プロジェクタ44の動
作を停止させ、スクリーン45を光を透過する状態に制
御する。従って、ビデオカメラ42は、スクリーン45
を介して、使用者51の画像を撮像することができる。
The video camera 42 captures an image of the user 51 via the screen 45. Screen 45 is an LCD
And is controlled by the arithmetic unit 19 so as to perform a time-division operation. That is, the screen 45 is controlled so as not to transmit light when displaying the image of the projector 44, and is controlled so as to transmit light when imaging the user 51 from the video camera 42. Arithmetic unit 1
When the image 9 is displayed on the screen 45 by the projector 44, the imaging by the video camera 42 is stopped, the image emitted from the projector 44 is displayed on the screen 45, and the user 51 is observed. In addition, at the timing when the image of the user 51 is captured by the video camera 42, the arithmetic device 19 stops the operation of the projector 44 and controls the screen 45 to transmit light. Therefore, the video camera 42 is connected to the screen 45.
, An image of the user 51 can be captured.

【0024】図4は、マスターサーバ2の構成例を表し
ている。入力装置31は、キーボード、マウスなどによ
り構成され、管理者が各種の指令を入力するとき操作す
る。演算装置32は、入力装置31からの指令に対応し
て、各種の処理を実行する。記憶装置34は、ハードデ
ィスク、磁気ディスク、光磁気ディスクなどにより構成
され、演算装置32が実行する各種のデータやプログラ
ムなどを記憶する。送受信装置33は、例えばモデムな
どにより構成され、演算装置32により制御され、ネッ
トワーク3を介して、端末1と通信する。
FIG. 4 shows a configuration example of the master server 2. The input device 31 includes a keyboard, a mouse, and the like, and is operated when an administrator inputs various commands. The arithmetic device 32 executes various processes in response to a command from the input device 31. The storage device 34 is configured by a hard disk, a magnetic disk, a magneto-optical disk, and stores various data and programs executed by the arithmetic device 32. The transmission / reception device 33 is configured by, for example, a modem, is controlled by the arithmetic device 32, and communicates with the terminal 1 via the network 3.

【0025】端末1は、この例の場合、図5に示すよう
に、合計4台のビデオカメラ42F,42R,42L,
42Bを有している。ビデオカメラ42F,42R,4
2Lは、使用者51から見て、スクリーン45の裏側に
配置されている。ビデオカメラ42Fは、使用者51の
顔を正面から撮像する位置に配置され、ビデオカメラ4
2Rは、使用者51の顔を右側から撮像する位置に配置
され、ビデオカメラ42Lは、使用者51の顔を左側か
ら撮像する位置に配置されている。ビデオカメラ42B
は、使用者51の後方に配置され、使用者51を後方か
ら撮像する。
In this example, as shown in FIG. 5, the terminal 1 has a total of four video cameras 42F, 42R, 42L,
42B. Video cameras 42F, 42R, 4
The 2L is disposed behind the screen 45 when viewed from the user 51. The video camera 42F is arranged at a position where the face of the user 51 is imaged from the front, and the video camera 4F
The 2R is arranged at a position where the face of the user 51 is imaged from the right side, and the video camera 42L is arranged at a position where the face of the user 51 is imaged from the left side. Video camera 42B
Is arranged behind the user 51, and images the user 51 from behind.

【0026】いずれの端末1においても、各ビデオカメ
ラは、同様に配置されている。
In each terminal 1, each video camera is similarly arranged.

【0027】マスターサーバ2の演算装置32は、自己
が管理する仮想空間内において、4つの端末1を図6に
示すように正方形状に配列することで、1つのユニット
を構成させる。図6の例においては、端末1−1のビデ
オカメラが下中央に配置され、端末1−2のビデオカメ
ラが、その右上に配置され、端末1−3のビデオカメラ
が、その上側に配置され、端末1−4のビデオカメラ
が、左上側に配置される。勿論、実際には、各端末1−
1乃至1−4は、仮想空間において、それぞれ独立した
位置に配置されているものであり、図6に示す配置は、
あくまでマスターサーバ2が管理する仮想空間上での配
置である。
The arithmetic unit 32 of the master server 2 constitutes one unit by arranging the four terminals 1 in a square shape as shown in FIG. 6 in a virtual space managed by itself. In the example of FIG. 6, the video camera of the terminal 1-1 is arranged at the lower center, the video camera of the terminal 1-2 is arranged at the upper right, and the video camera of the terminal 1-3 is arranged at the upper side. , The video camera of the terminal 1-4 is arranged on the upper left side. Of course, in practice, each terminal 1-
1 to 1-4 are arranged at independent positions in the virtual space, and the arrangement shown in FIG.
This is an arrangement in the virtual space managed by the master server 2 only.

【0028】換言すれば、演算装置32は、端末1−1
乃至1−4をこのように配置することで、図7に示すよ
うに、仮想空間上に、テーブルTと、その周囲に座席S
1乃至S4が配置された状態を1つのユニットとして管
理する。すなわち、演算装置32は、端末1−1乃至1
−4の使用者が、それぞれ仮想空間上の座席S1乃至S
4に座り、会議をしている状態を想定して、各スクリー
ン45−1乃至45−4の画像の表示を制御する。
In other words, the arithmetic unit 32 is connected to the terminal 1-1.
As shown in FIG. 7, by arranging the tables 1-4 in this way, a table T and a seat S
The state where 1 to S4 are arranged is managed as one unit. In other words, the arithmetic unit 32 has the terminals 1-1 to 1
-4 seats S1 to S in the virtual space, respectively.
4 and controls the display of images on the screens 45-1 to 45-4 assuming a state of having a meeting.

【0029】さらに、演算装置32は、図8に示すよう
に、仮想空間60に、3つのテーブルT1乃至T3を配
置する。この例では、テーブルT1が仮想空間60の下
方中央に配置され、テーブルT2は、その右側に配置さ
れ、テーブルT3は、その左側に配置されている。な
お、図8において、各ビデオカメラとスクリーンの数字
の最後に、テーブルT1のものには、−1を付加し、テ
ーブルT2のものには、−2を付加し、テーブルT3の
ものには、−3を付加して表している。
Further, the arithmetic unit 32 arranges three tables T1 to T3 in the virtual space 60, as shown in FIG. In this example, the table T1 is arranged in the lower center of the virtual space 60, the table T2 is arranged on the right side, and the table T3 is arranged on the left side. In FIG. 8, at the end of the numbers of each video camera and the screen, -1 is added to the table T1, -2 is added to the table T2, and -2 is added to the table T3. -3 is added.

【0030】演算装置32が管理している図8の仮想空
間60を簡略化して図示すると、図9に示すようにな
る。テーブルT1には、A乃至Dの4つの座席が用意さ
れ、テーブルT2には、E乃至Hの4つの座席が用意さ
れ、テーブルT3には、I乃至Lの4つの座席が用意さ
れる。各端末1の使用者は、マスターサーバ2にアクセ
スしたとき、仮想空間60の図9に示すようなテーブル
の配置図の提供を受け、所望のテーブルの座席を指定す
ることで、この仮想空間60における会議に出席する。
FIG. 9 is a simplified illustration of the virtual space 60 of FIG. 8 managed by the arithmetic unit 32. The table T1 has four seats A to D, the table T2 has four seats E to H, and the table T3 has four seats I to L. When the user of each terminal 1 accesses the master server 2, the user is provided with a table layout diagram of the virtual space 60 as shown in FIG. 9 and designates a seat of a desired table. Attend a meeting in.

【0031】例えば、端末1の使用者がテーブルT1の
座席Aを自らの座席として取得した場合、マスターサー
バ2の演算装置32は、その端末1のスクリーン45に
対して、図10に示すような画像を表示させる。すなわ
ち、スクリーン45には、自分自身が座っている座席A
のテーブルT1の他の座席B乃至Dに座っている他の端
末1の使用者b乃至dの画像がテーブルT1の周囲に表
示される。同様に、テーブルT2の周囲には、座席E乃
至Hに座っている各端末1の使用者の画像e乃至hが表
示され、テーブルT3の周囲には、座席I乃至Lに座っ
ている使用者の画像i乃至lが表示される。
For example, when the user of the terminal 1 acquires the seat A of the table T1 as his / her own seat, the arithmetic unit 32 of the master server 2 moves the screen 45 of the terminal 1 as shown in FIG. Display the image. That is, the screen 45 displays the seat A on which the user is sitting.
The images of the users b to d of the other terminals 1 sitting on the other seats B to D of the table T1 are displayed around the table T1. Similarly, around the table T2, images e to h of the users of the terminals 1 sitting in the seats E to H are displayed, and around the table T3, the users sitting in the seats I to L are displayed. Are displayed.

【0032】次に、図11と図12のフローチャートを
参照して、このテレビ会議システムの動作について説明
する。端末1の演算装置19は、使用者が意志入力装置
12を操作することでテレビ会議システムへの出席を指
令すると、ステップS1において、送受信装置24を制
御し、ネットワーク3を介して、マスターサーバ2に対
してアクセスさせ、テレビ会議システムの現在の接続状
況を紹介する。演算装置19は、ステップS2におい
て、マスターサーバ2から接続状況照会に対する応答が
あったか否かを判定し、応答がない場合には、ステップ
S3に進み、接続要求の回数が予め設定されている所定
の閾値Nより小さいか否かを判定する。接続要求回数が
閾値Nより小さい場合には、ステップS1に戻り、再び
接続状況照会処理を実行する。
Next, the operation of the video conference system will be described with reference to the flowcharts of FIGS. When the user instructs to attend the video conference system by operating the will input device 12, the arithmetic device 19 of the terminal 1 controls the transmitting / receiving device 24 in step S 1 and the master server 2 via the network 3. , And introduce the current connection status of the video conference system. The arithmetic unit 19 determines whether or not there is a response to the connection status inquiry from the master server 2 in step S2. If there is no response, the process proceeds to step S3, in which the number of connection requests is a predetermined number. It is determined whether it is smaller than the threshold value N. If the number of connection requests is smaller than the threshold value N, the process returns to step S1 to execute the connection status inquiry process again.

【0033】以上のようにして、マスターサーバ2に対
して、N回接続状況照会を行っても応答がない場合に
は、端末1の演算装置19は、処理を終了させる。
As described above, if there is no response to the master server 2 after inquiring the connection status N times, the arithmetic unit 19 of the terminal 1 terminates the processing.

【0034】マスターサーバ2の演算装置32は、送受
信装置33を介して、端末1から接続状況照会の要求を
受けたとき、記憶装置34に記憶されている仮想空間6
0の現在の接続状況を調べ、空いている座席があるか否
かを判定する。空いている座席がない場合には、演算装
置32は、端末1に対して応答しない。従って、このよ
うな場合には、端末1は、テレビ会議に出席することが
できないことになる。
When the arithmetic unit 32 of the master server 2 receives a connection status inquiry request from the terminal 1 via the transmission / reception device 33, the arithmetic unit 32 stores the virtual space 6 stored in the storage unit 34.
The current connection status of “0” is checked to determine whether there is a vacant seat. If there is no vacant seat, the arithmetic unit 32 does not respond to the terminal 1. Therefore, in such a case, the terminal 1 cannot attend the video conference.

【0035】マスターサーバ2の演算装置32は、仮想
空間60の座席に空きがある場合には、ステップS4に
おいて、現在の接続状況を示す画像を生成し、送受信装
置33から、端末1にネットワーク3を介して送信す
る。端末1の演算装置19は、送受信装置24を介して
マスターサーバ2からの応答を受信したとき、ステップ
S4において、受信したデータに対応する画像を、D/A
変換器21を介して、映像処理装置23を構成するプロ
ジェクタ44に供給し、スクリーン45に表示させる。
これにより、スクリーン45には、例えば図13に示す
ような、各テーブルと座席の位置が表示される。各座席
は、空いている席と他の使用者が既に座っている席とが
識別できるように表示される。図13の例においては、
ハッチングを施して示す席が、他の使用者が座っている
席であり、ハッチングを施していない席が空いている席
である。従って、図13の例では、席A,D,Gが空い
ており、その他の席は、他の使用者が既に使用してい
る。
When there is a vacant seat in the virtual space 60, the arithmetic unit 32 of the master server 2 generates an image indicating the current connection status in step S4, and transmits the image to the terminal 1 from the transmitting / receiving device 33 to the terminal 1. To send over. When receiving the response from the master server 2 via the transmission / reception device 24, the arithmetic device 19 of the terminal 1 converts the image corresponding to the received data into a D / A in step S4.
The data is supplied to the projector 44 constituting the video processing device 23 via the converter 21 and displayed on the screen 45.
As a result, the positions of the tables and seats are displayed on the screen 45, for example, as shown in FIG. Each seat is displayed so that a vacant seat can be distinguished from a seat where another user is already sitting. In the example of FIG.
Seats indicated by hatching are seats where other users are sitting, and seats not hatched are vacant seats. Therefore, in the example of FIG. 13, the seats A, D, and G are vacant, and the other seats are already used by other users.

【0036】使用者は、図13に示す表示を見て、ステ
ップS5において、意志入力装置12を操作して、空い
ている座席の中から取得を希望する座席を入力するとと
もに、ログインを要求する。例えば使用者が座席Aを指
定する場合、キーボードで文字Aのキーを操作する。演
算装置19は、意志入力装置12からの入力に対応する
データを、送受信装置24を介して、マスターサーバ2
に送信する。
The user looks at the display shown in FIG. 13, and in step S5, operates the intention input device 12 to input a seat desired to be obtained from the available seats and requests a login. . For example, when the user designates the seat A, the key of the character A is operated on the keyboard. The arithmetic device 19 transmits data corresponding to the input from the will input device 12 to the master server 2 via the transmission / reception device 24.
Send to

【0037】ステップS6において、演算装置19は、
マスターサーバ2からログインOKの信号を受信したか
否かを判定し、ログインOKの信号を受信できなかった
場合には、ステップS7に進み、接続要求回数が予め設
定してある所定の閾値Nより小さいか否かを判定する。
接続要求回数が閾値Nより小さい場合には、ステップS
5に戻り、それ以降の処理が繰り返し実行される。接続
要求回数が閾値Nと等しいか、それより大きくなった場
合には、演算装置19は処理を終了させる。
In step S6, the arithmetic unit 19
It is determined whether or not a login OK signal has been received from the master server 2. If a login OK signal has not been received, the process proceeds to step S 7, where the number of connection requests exceeds a predetermined threshold N set in advance. It is determined whether it is small.
If the number of connection requests is smaller than the threshold N, step S
5 and the subsequent processing is repeatedly executed. If the number of connection requests is equal to or greater than the threshold value N, the computing device 19 terminates the processing.

【0038】マスターサーバ2の演算装置32は、ログ
インがOKであると判定した場合、ステップS8に進
み、ステップS5で端末1から指定された座席に、その
端末1を割り当て、仮想空間60内における接続を変更
する。これにより、例えば図13に示す座席Aに新たな
端末1が割り当てられた状態が、現在の仮想空間60の
接続状況ということになる。マスターサーバ2の演算装
置32は、この接続状況に対応する画像を記憶装置34
から読み出し、送受信装置33を介して、端末1に送信
する。
When the arithmetic unit 32 of the master server 2 determines that the login is OK, the process proceeds to step S8, in which the terminal 1 is allocated to the seat designated by the terminal 1 in step S5. Change the connection. Thus, for example, the state in which the new terminal 1 is allocated to the seat A shown in FIG. 13 is the current connection state of the virtual space 60. The arithmetic unit 32 of the master server 2 stores an image corresponding to the connection status in the storage unit 34.
And transmits it to the terminal 1 via the transmission / reception device 33.

【0039】端末1の演算装置19は、送受信装置24
を介して、このデータを受信したとき、対応する画像を
スクリーン45に表示させる。これにより、スクリーン
45には、いまの場合、例えば図14に示すような画像
が表示される。すなわち、テーブルT3には、4つの各
座席I乃至Lに座っている各端末の使用者の画像i乃至
lが表示される。テーブルT2の周囲には、座席Gを除
く座席E,FおよびHに座っている使用者の画像e,
f,hが表示される。テーブルT1には、座席BとCに
それぞれ座っている使用者の画像b,cが表示される。
座席DとHは空席であるため、画像が表示されていな
い。自分が位置するテーブルT1の座席の画像b,c
は、他のテーブルT2,T3の画像e,f,h乃至lよ
り大きく表示される。
The arithmetic unit 19 of the terminal 1 includes a transmitting / receiving unit 24
When this data is received via the PC, a corresponding image is displayed on the screen 45. Thus, in this case, an image as shown in FIG. 14 is displayed on the screen 45 in this case. That is, images i to l of the users of the terminals sitting in the four seats I to L are displayed on the table T3. Around the table T2, images e, of the users sitting in the seats E, F, and H excluding the seat G,
f and h are displayed. In the table T1, images b and c of the users sitting in the seats B and C, respectively, are displayed.
Since the seats D and H are empty, no image is displayed. Images b and c of the seats on the table T1 where you are located
Are displayed larger than the images e, f, h to l of the other tables T2, T3.

【0040】検出装置11は、使用者がテレビ会議に出
席すると、使用者の顔の向きもしくは視線の方向を検出
する。検出結果は、演算装置19から、送受信装置20
を介して、マスターサーバ2に送信される。
When the user attends a video conference, the detection device 11 detects the direction of the user's face or line of sight. The detection result is sent from the arithmetic unit 19 to the transmitting / receiving unit 20.
Is transmitted to the master server 2 via

【0041】マスターサーバ2の演算装置32は、端末
1からの方向の検出データを受信し、ステップS9にお
いて、端末1の使用者が予め設定してある一定時間以上
同一の方向を注視しているか否かを判定する。同一の方
向を一定時間以上注視していなければ、ステップS9の
処理が繰り返し実行される。
The arithmetic unit 32 of the master server 2 receives the detection data of the direction from the terminal 1 and determines in step S9 whether the user of the terminal 1 is watching the same direction for a predetermined time or more. Determine whether or not. If the same direction is not watched for a certain period of time or more, the process of step S9 is repeatedly executed.

【0042】使用者がいずれの方向を向いているかは、
図14に示すように、使用者が向いている方向として検
出された角度θ1を、図15に示すように、仮想空間6
0上の角度θ2に換算することで判定される。
Which direction the user is facing is
As shown in FIG. 14, the angle θ1 detected as the direction in which the user is facing is converted into the virtual space 6 as shown in FIG.
The determination is made by converting the angle into an angle θ2 above zero.

【0043】演算装置32は、端末1の使用者51が一
定時間以上所定の方向を注視していると判定した場合、
ステップS10に進み、その注視者(所定の方向を注視
している使用者)が位置するテーブルからの音量を制限
する。例えば、テーブルT1の座席Aに座っている使用
者が、テーブルT2の座席Gを一定時間以上注視してい
る場合、その使用者は、いまテーブルT1の会話には興
味をもっていないものと判断し、テーブルT1の座席B
または座席Cに座っている使用者からの音声のボリュー
ムを減少させる。あるいはまた、図14に示す座席Bに
座っている使用者の画像bと座席Cに座っている使用者
の画像cを小さくさせる。同様に、座席Bと座席Cに座
っている使用者の端末1に提供する座席Aの使用者の音
声のボリュームを減少させるとともに、その画像aを小
さくさせる。これにより、例えばテーブルT1の座席
B,Cに座っている使用者は、座席Aに座っている使用
者がいま会話に興味を示していないことを知ることがで
きる。
The arithmetic unit 32 determines that the user 51 of the terminal 1 has been gazing in a predetermined direction for a predetermined time or more.
Proceeding to step S10, the sound volume from the table where the watcher (user watching the predetermined direction) is located is limited. For example, when a user sitting in the seat A of the table T1 watches the seat G of the table T2 for a certain period of time or more, the user judges that the user is not interested in the conversation of the table T1 now, Seat B of table T1
Alternatively, the volume of the sound from the user sitting in the seat C is reduced. Alternatively, the image b of the user sitting on the seat B and the image c of the user sitting on the seat C shown in FIG. Similarly, the volume of the voice of the user of the seat A provided to the terminal 1 of the user sitting on the seats B and C is reduced, and the image a is reduced. Thereby, for example, the user sitting in the seats B and C of the table T1 can know that the user sitting in the seat A is not interested in the conversation right now.

【0044】次に、ステップS11に進み、演算装置3
2は、注視されているテーブルの使用者に対する表示画
像上の注視者の画像を大きく表示させる。いまの場合、
座席Aの使用者がテーブルT2の座席Gを注視している
ので、テーブルT2の座席E,F,Hを使用している使
用者から見た使用者Aの画像aを他の画像に較べて大き
く表示させる。
Next, the operation proceeds to step S11, where the arithmetic unit 3
2 causes the image of the watcher on the display image for the user of the watched table to be displayed larger. In this case,
Since the user of the seat A is watching the seat G of the table T2, the image a of the user A viewed from the user using the seats E, F, and H of the table T2 is compared with other images. Display larger.

【0045】すなわち、テーブルT2の座席Fに座って
いる使用者の端末のスクリーン45には、図16に示す
ような画像が表示されている。自分自身が座っているテ
ーブルT2に座っている使用者の画像e,hは、遠いテ
ーブルT1,T3の座席に座っている使用者の画像a乃
至d,i乃至lに較べて大きく表示されている。座席A
に座っている使用者の画像aも、遠いテーブルT1の画
像であるから、座席Aの使用者がテーブルT2を注視し
なければ、他の画像b乃至dと同じ大きさで表示される
のであるが、座席Aの使用者が、一定時間以上テーブル
T2を注視すると、テーブルT2の使用者がこれに気付
くことができるように、座席Aの使用者の画像aが、図
16に2点鎖線で示すように大きく表示される。このと
きまた、座席Aからの音声もテーブルT2の使用者に対
して大きく出力させるようにしてもよい。これにより、
テーブルT2の使用者は、座席Aの使用者がテーブルT
2に移動していくるかもしれないということを予め推察
することができる。
That is, an image as shown in FIG. 16 is displayed on the screen 45 of the terminal of the user sitting on the seat F of the table T2. The images e and h of the user sitting at the table T2 where they are sitting are displayed larger than the images a to d and i to l of the users sitting at the seats of the distant tables T1 and T3. I have. Seat A
Is also an image of the distant table T1, and unless the user of the seat A gazes at the table T2, the image a is displayed in the same size as the other images b to d. However, when the user of the seat A gazes at the table T2 for a certain period of time or more, the image a of the user of the seat A is indicated by a two-dot chain line in FIG. 16 so that the user of the table T2 can notice this. It is displayed large as shown. At this time, the sound from the seat A may also be output loudly to the user of the table T2. This allows
The user of the table T2 is the user of the seat A.
It can be inferred beforehand that it may move to 2.

【0046】なお、画像aを大きく表示する以外に、他
に較べて明るく表示させたり、点滅させたりしてもよ
い。
It is to be noted that, besides displaying the image a large, it may be displayed brighter or blinked as compared with other displays.

【0047】ステップS12において、演算装置32
は、さらに一定時間以上使用者が同一方向を注視してい
るか否かを判定し、使用者が途中で注視を中止した場合
には、ステップS9に戻り、それ以降の処理を繰り返し
実行する。使用者がさらに一定時間注視したままである
場合には、ステップS13に進み、演算装置32は、使
用者が注視している方向に空いている座席があるか否か
を判定する。空いている座席がない場合には、ステップ
S9に戻り、それ以降の処理が繰り返し実行される。空
いている座席がある場合には、ステップS14に進み、
端末1の演算装置19は、マスターサーバ2に対して、
意志入力装置12から所定の座席への移動が要求された
場合と同様の処理を実行する。すなわち、演算装置19
は、マスターサーバ2に対して、座席Gへの移動を要求
する。
In step S12, the arithmetic unit 32
Determines whether the user is gazing in the same direction for a certain period of time or more. If the user stops gazing halfway, the process returns to step S9, and the subsequent processing is repeatedly executed. If the user remains gazing for a certain period of time, the process proceeds to step S13, and the arithmetic unit 32 determines whether there is an empty seat in the direction in which the user is gazing. If there is no vacant seat, the process returns to step S9, and the subsequent processes are repeatedly executed. If there is a vacant seat, the process proceeds to step S14,
The arithmetic unit 19 of the terminal 1
The same processing as when the movement to the predetermined seat is requested from the will input device 12 is executed. That is, the arithmetic unit 19
Requests the master server 2 to move to the seat G.

【0048】マスターサーバ2の演算装置32は、端末
1の演算装置19から移転の要求を受けたとき、ステッ
プS15において、これをOKするか否かを判定する。
他の使用者が既にその座席の取得を申し込んできたよう
な場合には、この要求は拒否され、ステップS9に戻
り、それ以降の処理が実行される。その座席が空いてい
る場合には、マスターサーバ2の演算装置32は、この
要求に対応して、その座席を端末1に割り当てる。この
ため、ステップS8に戻り、演算装置32は、座席Gを
端末1のユーザに割り当てる処理を実行する。
When receiving the request for relocation from the computing device 19 of the terminal 1, the computing device 32 of the master server 2 determines in step S15 whether or not the transfer is OK.
If another user has already applied for the acquisition of the seat, this request is rejected, the process returns to step S9, and the subsequent processes are executed. If the seat is vacant, the arithmetic unit 32 of the master server 2 assigns the seat to the terminal 1 in response to the request. Therefore, the process returns to step S8, and the arithmetic unit 32 executes a process of allocating the seat G to the user of the terminal 1.

【0049】その結果、座席Gに移動した端末1のスク
リーン45には、それまでの図14に示すような画像か
ら、図17に示すような画像に切り替えられる。
As a result, on the screen 45 of the terminal 1 having moved to the seat G, the image as shown in FIG. 14 is switched to the image as shown in FIG.

【0050】なお、一定時間以上の注視は、各端末側で
検出するようにしてもよい。また、移動の意思表示は、
その方向を使用者が指で示すジェスチャで行ったり、キ
ーボード、マウス、ジョイスティックなどの機械的な操
作で行うようにしてもよい。
Note that gaze for a certain time or more may be detected at each terminal. Also, the intention to move is
The direction may be performed by a gesture indicated by the user with a finger, or may be performed by a mechanical operation such as a keyboard, a mouse, or a joystick.

【0051】以上においては、スクリーン45を1つと
し、そこに仮想空間60上の全てのテレビ会議出席者の
画像を表示するようにしたが、例えば図18に示すよう
に、自分自身が座っている座席のテーブルT1の座席に
座っている使用者の画像を表示するスクリーン45B
L,45BC,BRを、その他のテーブルT2乃至T4
の座席に座っている使用者の画像を表示するスクリーン
45Aと独立した構成にすることもできる。このように
することで、より臨場感に富んだシステムを実現するこ
とができる。
In the above, one screen 45 is used, and images of all the video conference attendees in the virtual space 60 are displayed on the screen 45. For example, as shown in FIG. Screen 45B displaying an image of a user sitting on the seat of table T1 with the seat
L, 45BC, and BR are stored in other tables T2 to T4.
May be independent of the screen 45A that displays the image of the user sitting on the seat. By doing so, a more realistic system can be realized.

【0052】また、図18に示す例においては、自分が
座っているテーブルT1の画像は、自分を中心として、
その正面のスクリーン45BCに、自分と反対側の座席
に座っている使用者の画像cを表示し、その右側のスク
リーン45BRに、自分の右側の座席に座っている使用
者の画像bを表示し、その左側のスクリーン45BL
に、左側の座席に座っている使用の画像dを表示してい
るが、スクリーン45Aにおいては、例えばテーブルT
2に示すように、2つの座席GとHに座っている使用者
の画像gとhを正面の画像として表示し、手前の2つの
座席EとFに座っている使用者の画像eとfを、それぞ
れ右側から見た画像と左側から見た画像としている。
In the example shown in FIG. 18, the image of the table T1 where one is sitting is centered on oneself.
An image c of the user sitting on the seat opposite to the user is displayed on the front screen 45BC, and an image b of the user sitting on the right seat is displayed on the right screen 45BR. , The screen 45BL on the left side
Is displayed on the screen 45A, for example, the table T is used.
As shown in FIG. 2, images g and h of the user sitting in the two seats G and H are displayed as front images, and images e and f of the user sitting in the two seats E and F in the foreground. Are an image viewed from the right side and an image viewed from the left side, respectively.

【0053】このように、画像を表示する場合、マスタ
ーサーバ2の演算装置32は、仮想空間60を例えば図
19に示すように管理する。テーブルT1のスクリーン
45BCに表示する画像cは、ビデオカメラ42F−3
−1で撮像した画像とし、スクリーン45BRに表示す
る画像bは、ビデオカメラ42L−2−1で撮像した画
像とし、スクリーン45BLに表示する画像dは、ビデ
オカメラ42R−4−1で撮像した画像とする。これに
対して、例えばテーブルT2の画像gは、ビデオカメラ
42F−3−2で撮像した画像とし、画像hは、ビデオ
カメラ42F−4−2で撮像した画像とし、画像eは、
ビデオカメラ42R−1−2で撮像した画像とし、画像
fは、ビデオカメラ42L−2−2で撮像した画像とす
ることができる。
As described above, when displaying an image, the arithmetic unit 32 of the master server 2 manages the virtual space 60 as shown in FIG. 19, for example. The image c displayed on the screen 45BC of the table T1 is a video camera 42F-3.
-1, an image b displayed on the screen 45BR is an image captured by the video camera 42L-2-1, and an image d displayed on the screen 45BL is an image captured by the video camera 42R-4-1. And In contrast, for example, the image g of the table T2 is an image captured by the video camera 42F-3-2, the image h is an image captured by the video camera 42F-4-2, and the image e is
The image f may be an image captured by the video camera 42R-1-2, and the image f may be an image captured by the video camera 42L-2-2.

【0054】このようにすれば、後ろ向きの画像がなく
なり、出席者をより容易に確認することが可能となる。
従って、この場合には、使用者を後方から撮像するビデ
オカメラ42Bが不要となる。
In this way, there is no backward image, and it is possible to confirm the attendee more easily.
Therefore, in this case, the video camera 42B for imaging the user from behind becomes unnecessary.

【0055】なお、例えば図10に示すように、自分の
テーブルの画像も、他のテーブルの画像と同様に、1つ
のスクリーン45に表示させる例においても、自分のテ
ーブルと他のテーブルとで、座席の配置が若干異なるよ
うにしてもよいのであれば、各端末1の後方のビデオカ
メラ42Bを省略することができる。
As shown in FIG. 10, for example, the image of the own table is displayed on one screen 45 similarly to the images of the other tables. If the seat arrangement may be slightly different, the video camera 42B behind each terminal 1 can be omitted.

【0056】図20は、各端末1におけるプロジェク
タ、ビデオカメラ、およびスクリーンの他の配置例を示
している。この例においては、使用者51の前方に、ビ
デオカメラ42Fが、後方にビデオカメラ42Bが、正
面左側にビデオカメラ42Lが、正面右側にビデオカメ
ラ42Rが、それぞれ配置されている。このことは、図
5における場合と同様であるが、この例では、スクリー
ン45がサラウンドスクリーンとされ、使用者51の周
囲を囲むように配置されている。そして、このサラウン
ドスクリーンに対して画像を表示できるように、使用者
51の正面にプロジェクタ44Aが配置され、左後方に
プロジェクタ44Bが配置され、右後方にプロジェクタ
44Cが配置されている。これにより、サラウンドスク
リーン上の少なくとも使用者51が視認可能な範囲に画
像が表示される。このようにすることで、より臨場感に
富んだシステムを実現することができる。
FIG. 20 shows another example of the arrangement of the projector, video camera, and screen in each terminal 1. In this example, a video camera 42F is arranged in front of the user 51, a video camera 42B is arranged in the rear, a video camera 42L is arranged in the front left side, and a video camera 42R is arranged in the front right side. This is the same as the case in FIG. 5, but in this example, the screen 45 is a surround screen and is arranged so as to surround the user 51. Then, a projector 44A is arranged in front of the user 51, a projector 44B is arranged on the left rear side, and a projector 44C is arranged on the right rear side so that an image can be displayed on the surround screen. As a result, an image is displayed on the surround screen at least in a range that can be visually recognized by the user 51. By doing so, a more realistic system can be realized.

【0057】以上においては、本発明をテレビ会議シス
テムに応用した場合を例として説明したが、テレビ会議
以外の例えば仮想空間のパーティーなどにも適用するこ
とが可能である。
In the above, the case where the present invention is applied to a video conference system has been described as an example. However, the present invention can be applied to a party other than a video conference, for example, a party in a virtual space.

【0058】このように、少なくとも自分が位置してい
るテーブルの使用者の画像を他のテーブルに位置する使
用者の画像に較べて大きく表示するようにしたので、テ
ーブルの数が増えたとしても、少なくとも自分自身が位
置するテーブルの使用者の画像は、確実に確認すること
が可能である。また、仮想空間内において、他のテーブ
ルに移動することができるので、他のテーブルの画像が
小さく表示されていたとしても、そのテーブルに移動す
ることで、そのテーブルの出席者の顔を大きく表示さ
せ、確認することが可能となる。従って、実際の会議あ
るいはパーティーなどにおける場合と同様に、大人数で
のコミュニケーションを図ることが、容易に実現可能と
なる。
As described above, at least the image of the user of the table on which the user is located is displayed larger than the images of the users located on other tables, so that even if the number of tables increases. At least, the image of the user of the table on which he or she is located can be surely confirmed. In addition, since it is possible to move to another table in the virtual space, even if an image of another table is displayed small, by moving to that table, the face of the attendee of that table is displayed large. And confirm it. Therefore, as in the case of an actual conference or party, communication with a large number of people can be easily realized.

【0059】半透明のスクリーンを実現するために、以
上においては、スクリーン45を時分割動作させるよう
にしたが、例えば図21に示すように、スクリーン45
を、一方の面を乱反射面81とし、他方の面を半透明面
82とし、実質的にハーフミラーのような半透明のスク
リーンとすることができる。この場合、図21に示すよ
うに、乱反射面81がプロジェクタ44側に配置され、
半透明面82がビデオカメラ42側に配置される。
In the above description, the screen 45 is operated in a time-sharing manner in order to realize a translucent screen. For example, as shown in FIG.
Can be a translucent screen such as a half mirror, with one surface being a diffuse reflection surface 81 and the other being a translucent surface 82. In this case, as shown in FIG. 21, the irregular reflection surface 81 is arranged on the projector 44 side,
The translucent surface 82 is arranged on the video camera 42 side.

【0060】乱反射面81には、図22に示すように、
それぞれ正方形状の乱反射部91と透明部92とが市松
模様状に配置されている。乱反射部91は、入射された
光を乱反射するように、その表面が加工されている。ま
た、透明部92は、入射された光をそのまま透過するよ
うに構成されている。
On the irregular reflection surface 81, as shown in FIG.
The square irregular reflection portions 91 and the transparent portions 92 are arranged in a checkered pattern. The surface of the irregular reflection section 91 is processed so as to irregularly reflect incident light. The transparent section 92 is configured to transmit the incident light as it is.

【0061】乱反射部91の反対側(ビデオカメラ42
側)は、図23に示すように、黒色部93とされてい
る。黒色部93は、黒色に色付けされている。この乱反
射部91と透明部92、従って、黒色部93と透明部9
2は、十分小さい領域とされている。
The opposite side of the diffuse reflection section 91 (video camera 42
23) is a black portion 93 as shown in FIG. The black portion 93 is colored black. The irregular reflection portion 91 and the transparent portion 92, and therefore, the black portion 93 and the transparent portion 9
2 is a sufficiently small area.

【0062】プロジェクタ44から出射された光が、乱
反射面81に照射されると、その乱反射部91で光が乱
反射され、使用者51は、この乱反射された光により構
成される画像を視認することができる。乱反射面81の
透明部92に入射された光は、そのままビデオカメラ4
2側に透過される。
When the light emitted from the projector 44 irradiates the irregular reflection surface 81, the light is irregularly reflected by the irregular reflection portion 91, and the user 51 can visually recognize an image constituted by the irregularly reflected light. Can be. The light incident on the transparent portion 92 of the irregular reflection surface 81 is directly transmitted to the video camera 4.
Transmitted to two sides.

【0063】一方、ビデオカメラ42は、透明部92を
介して、使用者51を撮像する。ビデオカメラ42の焦
点は、スクリーン45ではなく、使用者51に合わされ
るため、ビデオカメラ42は、使用者51の画像を若干
暗い画像とはなるが、撮像することができる。透明部9
2を透過してくるプロジェクタ44からの光は、ビデオ
カメラ42に指向性を持たせたり、あるいは、レンズフ
ードを設けるなどして、実質的に制限することが可能で
ある。
On the other hand, the video camera 42 captures an image of the user 51 via the transparent section 92. Since the video camera 42 is focused on the user 51 instead of the screen 45, the video camera 42 can capture an image of the user 51, although the image is slightly dark. Transparent part 9
The light transmitted from the projector 44 through the projector 2 can be substantially restricted by providing the video camera 42 with directivity or providing a lens hood.

【0064】図22と図23に示した例においては、乱
反射部91、黒色部93、および透明部92は、それぞ
れ四角形状とされ、市松状に配置されたが、例えば図2
4に示すように、乱反射部91(黒色部93)を六角形
状に構成し、透明部92を乱反射部91(黒色部93)
の周囲に形成するようにしても良い。
In the example shown in FIGS. 22 and 23, the irregular reflection portion 91, the black portion 93, and the transparent portion 92 are each formed in a square shape and arranged in a checkered pattern.
As shown in FIG. 4, the irregular reflection portion 91 (black portion 93) is formed in a hexagonal shape, and the transparent portion 92 is formed as the irregular reflection portion 91 (black portion 93).
May be formed around the periphery.

【0065】また、図25に示すように、乱反射部91
(黒色部93)を四角形状とし、その周囲に透明部92
を配置するようにしても良い。なお、本明細書におい
て、システムとは、複数の装置により構成される装置全
体を表すものとする。なお、上記したような処理を行う
コンピュータプログラムをユーザに提供する提供媒体と
しては、磁気ディスク、CD-ROM、固体メモリなどの記録
媒体の他、ネットワーク、衛星などの通信媒体を利用す
ることができる。
Further, as shown in FIG.
(Black portion 93) is formed in a square shape, and a transparent portion 92
May be arranged. In the present specification, the term “system” refers to an entire device including a plurality of devices. In addition, as a providing medium for providing a user with a computer program that performs the above-described processing, a recording medium such as a magnetic disk, a CD-ROM, and a solid-state memory, as well as a communication medium such as a network and a satellite can be used. .

【0066】[0066]

【発明の効果】以上の如く、請求項1に記載の画像処理
装置、請求項5に記載の画像処理方法、および請求項6
に記載の提供媒体によれば、表示手段を介して使用者を
撮像するようにしたので、使用者の視線と撮像手段の視
線とを一致させることが可能となる。
As described above, the image processing apparatus according to the first aspect, the image processing method according to the fifth aspect, and the sixth aspect.
According to the provision medium described in (1), the user is imaged via the display means, so that the user's line of sight can be matched with the line of sight of the imaging means.

【0067】請求項7に記載の画像処理装置、請求項1
2に記載の画像処理方法、および請求項13に記載の提
供媒体によれば、所定の数の端末により構成されたユニ
ットを仮想空間内の所定の位置に配置するようにし、そ
のユニットの各端末の画像の表示を制御するようにした
ので、大人数で相互にコミュニケーションを図ること
が、現実の空間における場合と同様にできるようにな
る。
An image processing apparatus according to claim 7, wherein
According to the image processing method described in Item 2 and the providing medium described in Item 13, a unit constituted by a predetermined number of terminals is arranged at a predetermined position in a virtual space, and each terminal of the unit is arranged. Is controlled so that a large number of people can communicate with each other in the same manner as in a real space.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用したシステムの構成例を示す図で
ある。
FIG. 1 is a diagram showing a configuration example of a system to which the present invention is applied.

【図2】図1の端末の構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of a terminal in FIG. 1;

【図3】図2の端末を構成する各装置の配置を説明する
図である。
FIG. 3 is a diagram illustrating an arrangement of each device constituting the terminal of FIG. 2;

【図4】図1のマスターサーバの構成例を示すブロック
図である。
FIG. 4 is a block diagram illustrating a configuration example of a master server in FIG. 1;

【図5】図2の端末を構成する各装置の平面的配置を説
明する図である。
FIG. 5 is a diagram illustrating a planar arrangement of each device constituting the terminal of FIG. 2;

【図6】ユニットの構成を説明する図である。FIG. 6 is a diagram illustrating a configuration of a unit.

【図7】ユニットの仮想空間内における構成を説明する
図である。
FIG. 7 is a diagram illustrating a configuration of a unit in a virtual space.

【図8】仮想空間内におけるユニットの配置を説明する
図である。
FIG. 8 is a diagram illustrating an arrangement of units in a virtual space.

【図9】仮想空間内におけるユニットの配置を説明する
図である。
FIG. 9 is a diagram illustrating an arrangement of units in a virtual space.

【図10】スクリーンの表示例を示す図である。FIG. 10 is a diagram illustrating a display example of a screen.

【図11】図1のシステムの動作を説明するフローチャ
ートである。
FIG. 11 is a flowchart illustrating the operation of the system in FIG. 1;

【図12】図1のシステムの動作を説明するフローチャ
ートである。
FIG. 12 is a flowchart illustrating the operation of the system in FIG. 1;

【図13】スクリーンの表示例を示す図である。FIG. 13 is a diagram illustrating a display example of a screen.

【図14】スクリーンの注視を説明する図である。FIG. 14 is a diagram illustrating gaze of a screen.

【図15】仮想空間における注視を説明する図である。FIG. 15 is a diagram illustrating gaze in a virtual space.

【図16】注視された端末側のスクリーンの表示例を示
す図である。
FIG. 16 is a diagram illustrating a display example of a screen on the terminal side that is watched.

【図17】仮想空間内を移動した後のスクリーンの表示
例を示す図である。
FIG. 17 is a diagram illustrating a display example of a screen after moving in a virtual space.

【図18】スクリーンの他の表示例を示す図である。FIG. 18 is a diagram showing another display example of the screen.

【図19】図18の表示例を実現する仮想空間内におけ
るユニットの配置を説明する図である。
FIG. 19 is a diagram illustrating an arrangement of units in a virtual space for realizing the display example of FIG. 18;

【図20】端末を構成する各装置の平面的な配置の他の
例を示す図である。
FIG. 20 is a diagram showing another example of a planar arrangement of each device constituting the terminal.

【図21】スクリーンの他の例を示す図である。FIG. 21 is a diagram showing another example of the screen.

【図22】図21のスクリーンの乱反射面の構成を示す
図である。
FIG. 22 is a diagram showing a configuration of a diffuse reflection surface of the screen of FIG. 21.

【図23】図21のスクリーンの半透明面の構成を示す
図である。
FIG. 23 is a diagram showing a configuration of a translucent surface of the screen of FIG. 21.

【図24】図21のスクリーンの他の構成例を示す図で
ある。
24 is a diagram illustrating another configuration example of the screen in FIG. 21.

【図25】図21のスクリーンの他の構成例を示す図で
ある。
25 is a diagram illustrating another configuration example of the screen in FIG. 21.

【符号の説明】[Explanation of symbols]

1−1乃至1−6 端末, 2 マスターサーバ, 3
ネットワーク, 11 検出装置, 14 画像入力
装置, 22 音声再生装置, 23 映像表示装置,
19 演算装置, 32 演算装置, 34 記憶装
置, 41 マイクロホン, 42 ビデオカメラ,
43 スピーカ, 44 プロジェクタ, 45 スク
リーン
1-1 to 1-6 terminals, 2 master server, 3
Network, 11 detection devices, 14 image input devices, 22 audio playback devices, 23 video display devices,
19 arithmetic units, 32 arithmetic units, 34 storage units, 41 microphones, 42 video cameras,
43 speaker, 44 projector, 45 screen

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 他の使用者の画像を表示する表示手段
と、 前記表示手段を介して使用者を撮像する撮像手段と、 前記表示手段の画像の表示のタイミングと、前記表示手
段を介しての前記撮像手段による撮像のタイミングに関
し、前記表示手段を制御する制御手段と、 前記撮像手段により撮像された前記使用者の画像を、前
記他の使用者に伝送する伝送手段とを含むことを特徴と
する画像処理装置。
A display unit that displays an image of another user; an imaging unit that captures an image of the user via the display unit; a display timing of an image on the display unit; A control unit that controls the display unit, and a transmission unit that transmits an image of the user captured by the imaging unit to the other user. Image processing apparatus.
【請求項2】 前記撮像手段は、前記使用者の、少なく
とも、正面、左側面、および右側面の画像を撮像するこ
とを特徴とする請求項1に記載の画像処理装置。
2. The image processing apparatus according to claim 1, wherein the image capturing unit captures images of at least the front, left side, and right side of the user.
【請求項3】 前記画像処理装置は、他の画像処理装置
とネットワークを介して接続され、仮想空間を構築する
画像処理装置であることを特徴とする請求項1に記載の
画像処理装置。
3. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus that is connected to another image processing apparatus via a network and forms a virtual space.
【請求項4】 前記表示手段は、前記使用者が、前記仮
想空間に位置するものとして、前記使用者の画像を表示
することを特徴とする請求項3に記載の画像処理装置。
4. The image processing apparatus according to claim 3, wherein the display unit displays the image of the user assuming that the user is located in the virtual space.
【請求項5】 他の使用者の画像を表示する表示手段
と、 前記表示手段を介して使用者を撮像する撮像手段とを含
む画像処理装置の画像処理方法において、 前記表示手段の画像の表示のタイミングと、前記表示手
段を介しての前記撮像手段による撮像のタイミングに関
し、前記表示手段を制御する制御ステップと、 前記撮像手段により撮像された前記使用者の画像を、前
記他の使用者に伝送する伝送ステップとを含むことを特
徴とする画像処理方法。
5. An image processing method for an image processing apparatus, comprising: display means for displaying an image of another user; and imaging means for imaging a user via the display means. And a control step of controlling the display unit with respect to the timing of the imaging by the imaging unit via the display unit; and transmitting the image of the user captured by the imaging unit to the other user. Transmitting the image data.
【請求項6】 他の使用者の画像を表示する表示手段
と、 前記表示手段を介して使用者を撮像する撮像手段とを含
む画像処理装置に、 前記表示手段の画像の表示のタイミングと、前記表示手
段を介しての前記撮像手段による撮像のタイミングに関
し、前記表示手段を制御する制御ステップと、 前記撮像手段により撮像された前記使用者の画像を、前
記他の使用者に伝送する伝送ステップとを含む処理を実
行させるコンピュータが読み取り可能なプログラムを提
供することを特徴とする提供媒体。
6. An image processing apparatus comprising: display means for displaying an image of another user; and imaging means for imaging the user via the display means; A control step of controlling the display unit with respect to a timing of imaging by the imaging unit via the display unit; and a transmitting step of transmitting an image of the user captured by the imaging unit to the other user. And a computer-readable program for executing a process including:
【請求項7】 他の使用者の画像を表示する表示手段
と、 前記表示手段を介して使用者を撮像する撮像手段とを含
む複数の端末とともに、ネットワークに接続され、仮想
空間を提供する画像処理装置において、 所定の数の前記端末によりユニットを構成し、前記ユニ
ットを仮想空間内の所定の位置に配置する配置手段と、 前記配置手段による配置に対応して、前記ユニットの各
端末の画像の表示を制御する制御手段とを含むことを特
徴とする画像処理装置。
7. An image which is connected to a network and provides a virtual space, together with a plurality of terminals including display means for displaying an image of another user, and imaging means for imaging a user via the display means. In the processing device, a unit is configured by a predetermined number of the terminals, an arrangement unit that arranges the unit at a predetermined position in the virtual space, and an image of each terminal of the unit corresponding to the arrangement by the arrangement unit. Control means for controlling display of the image.
【請求項8】 前記端末を、前記仮想空間内で移動させ
る移動手段をさらに含むことを特徴とする請求項7に記
載の画像処理装置。
8. The image processing apparatus according to claim 7, further comprising moving means for moving the terminal in the virtual space.
【請求項9】 前記移動手段は、前記端末の使用者の移
動入力を検出し、その検出結果に基づいて、前記端末を
移動させることを特徴とする請求項7に記載の画像処理
装置。
9. The image processing apparatus according to claim 7, wherein the moving unit detects a movement input of a user of the terminal, and moves the terminal based on a detection result.
【請求項10】 前記移動手段は、前記移動入力を、前
記端末の使用者の所定の位置の視線、顔の向き、ジェス
チャ、または機械的な操作入力から検出することを特徴
とする請求項9に記載の画像処理装置。
10. The apparatus according to claim 9, wherein the movement unit detects the movement input from a line of sight, a face direction, a gesture, or a mechanical operation input of a predetermined position of a user of the terminal. An image processing apparatus according to claim 1.
【請求項11】 前記制御手段は、前記移動入力の検出
結果に基づいて、移動先の前記ユニットの画像または音
を制御することを特徴とする請求項9に記載の画像処理
装置。
11. The image processing apparatus according to claim 9, wherein the control unit controls an image or a sound of the unit at a movement destination based on a detection result of the movement input.
【請求項12】 他の使用者の画像を表示する表示手段
と、 前記表示手段を介して使用者を撮像する撮像手段とを含
む複数の端末とともに、ネットワークに接続され、仮想
空間を提供する画像処理装置の画像処理方法において、 所定の数の前記端末によりユニットを構成し、前記ユニ
ットを仮想空間内の所定の位置に配置する配置ステップ
と、 前記配置ステップの処理による配置に対応して、前記ユ
ニットの各端末の画像の表示を制御する制御ステップと
を含むことを特徴とする画像処理方法。
12. An image which is connected to a network and provides a virtual space, together with a plurality of terminals including display means for displaying an image of another user, and imaging means for imaging a user via the display means. In the image processing method of the processing apparatus, a unit is configured by a predetermined number of the terminals, and an arrangement step of arranging the unit at a predetermined position in a virtual space; Controlling a display of an image of each terminal of the unit.
【請求項13】 他の使用者の画像を表示する表示手段
と、 前記表示手段を介して使用者を撮像する撮像手段とを含
む複数の端末とともに、ネットワークに接続され、仮想
空間を提供する画像処理装置に、 所定の数の前記端末によりユニットを構成し、前記ユニ
ットを仮想空間内の所定の位置に配置する配置ステップ
と、 前記配置ステップの処理による配置に対応して、前記ユ
ニットの各端末の画像の表示を制御する制御ステップと
を含む処理を実行させるコンピュータが読み取り可能な
プログラムを提供することを特徴とする提供媒体。
13. An image connected to a network and provided with a plurality of terminals including display means for displaying an image of another user and imaging means for imaging the user via the display means, and providing a virtual space. A processing device, a unit is configured by a predetermined number of the terminals, an arrangement step of arranging the unit at a predetermined position in the virtual space, and a terminal of the unit corresponding to the arrangement by the processing of the arrangement step. Providing a computer-readable program for executing a process including a control step of controlling display of an image.
JP07437899A 1999-03-18 1999-03-18 Image processing device Expired - Lifetime JP4501171B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP07437899A JP4501171B2 (en) 1999-03-18 1999-03-18 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP07437899A JP4501171B2 (en) 1999-03-18 1999-03-18 Image processing device

Publications (2)

Publication Number Publication Date
JP2000270306A true JP2000270306A (en) 2000-09-29
JP4501171B2 JP4501171B2 (en) 2010-07-14

Family

ID=13545458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP07437899A Expired - Lifetime JP4501171B2 (en) 1999-03-18 1999-03-18 Image processing device

Country Status (1)

Country Link
JP (1) JP4501171B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009539334A (en) * 2006-05-31 2009-11-12 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. Fusion space for aligning video streams
JP2014197109A (en) * 2013-03-29 2014-10-16 株式会社コナミデジタルエンタテインメント Image display device, image display method, and computer program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2688519B2 (en) * 1989-03-02 1997-12-10 日本電信電話株式会社 Display communication device for image communication
JP3011439B2 (en) * 1990-08-14 2000-02-21 日本電信電話株式会社 Eye-gaze type image display device
JPH05316504A (en) * 1992-05-08 1993-11-26 Nippon Telegr & Teleph Corp <Ntt> Seat selection device in video communication
JP3674993B2 (en) * 1995-08-31 2005-07-27 三菱電機株式会社 Image display method for virtual conference system and terminal device for virtual conference
JP3276057B2 (en) * 1996-06-04 2002-04-22 日本電信電話株式会社 3D virtual world display system
JPH1040197A (en) * 1996-07-19 1998-02-13 Fujitsu Ltd Communication managing device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009539334A (en) * 2006-05-31 2009-11-12 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. Fusion space for aligning video streams
JP2014197109A (en) * 2013-03-29 2014-10-16 株式会社コナミデジタルエンタテインメント Image display device, image display method, and computer program

Also Published As

Publication number Publication date
JP4501171B2 (en) 2010-07-14

Similar Documents

Publication Publication Date Title
US20210319403A1 (en) System and method for creating a collaborative virtual session
US8159519B2 (en) Personal controls for personal video communications
US8154583B2 (en) Eye gazing imaging for video communications
US8063929B2 (en) Managing scene transitions for video communication
US8154578B2 (en) Multi-camera residential communication system
US8253770B2 (en) Residential video communication system
US7756675B2 (en) Group-determination-table generating device and method
JP2024014888A (en) Information processing device, information processing program, information processing system, information processing method
US8797377B2 (en) Method and system for videoconference configuration
US11595448B1 (en) Method and apparatus for automatically creating mirrored views of the video feed of meeting participants in breakout rooms or conversation groups during a videoconferencing session
WO2004112290A2 (en) Receiving system for video conferencing system
JP3660198B2 (en) Three-dimensional shared virtual space display method, three-dimensional shared virtual space communication system and method, virtual conference system, and recording medium recording user terminal program therefor
US11546385B1 (en) Method and apparatus for self-selection by participant to display a mirrored or unmirrored video feed of the participant in a videoconferencing platform
US11621979B1 (en) Method and apparatus for repositioning meeting participants within a virtual space view in an online meeting user interface based on gestures made by the meeting participants
US11831454B2 (en) Full dome conference
TW202018649A (en) Asymmetric video conferencing system and method thereof
WO2000014958A1 (en) Method for generating video programs, variants, and system for realising this method
Agamanolis et al. Reflection of Presence: Toward more natural and responsive telecollaboration
US11928774B2 (en) Multi-screen presentation in a virtual videoconferencing environment
JPH09107534A (en) Video conference equipment and video conference system
JP4501171B2 (en) Image processing device
US20240031531A1 (en) Two-dimensional view of a presentation in a three-dimensional videoconferencing environment
JP2003163905A (en) Television conference system and method therefor
WO2024020452A1 (en) Multi-screen presentation in a virtual videoconferencing environment
JP2023161715A (en) network projector system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090430

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100330

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100412

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130430

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140430

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term