JPH08256316A - Communication conference system - Google Patents

Communication conference system

Info

Publication number
JPH08256316A
JPH08256316A JP7058634A JP5863495A JPH08256316A JP H08256316 A JPH08256316 A JP H08256316A JP 7058634 A JP7058634 A JP 7058634A JP 5863495 A JP5863495 A JP 5863495A JP H08256316 A JPH08256316 A JP H08256316A
Authority
JP
Japan
Prior art keywords
screen
information
image
conference
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP7058634A
Other languages
Japanese (ja)
Inventor
Yasuki Arai
康記 新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP7058634A priority Critical patent/JPH08256316A/en
Publication of JPH08256316A publication Critical patent/JPH08256316A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Information Transfer Between Computers (AREA)
  • Computer And Data Communications (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PURPOSE: To realize a communication conference system in more natural way by storing plural video image patterns of a person taking notice of a screen pattern and displaying the patterns on a small screen corresponding to the relation of position between the person taking notice of the screen pattern and a person to be noticed of. CONSTITUTION: An image rotation section 35 of each terminal equipment rotates video information obtained by a frame separate section 33 based on direction information generated by a position relation detection section 34 and stores plural kinds of video image patterns such as faces, eyes and mouths of conference participants. When a received video image pattern is inserted to video information at the position of a division screen pattern corresponding to a display section 20 and the name of a terminal equipment and the name of a screen pattern to be noticed of for noticed relation information correspond to each other, the face of the person taking notice of the pattern displayed on a small screen corresponding to each terminal equipment is directed full-face and an image in which a sight is met to that of a conference participant taking a seat in front of the terminal equipment is displayed. Thus, the person taking notice of the screen makes conversation with the person to be noticed of displayed on the small screen in face-to-face state and unnatural communication conference is eliminated.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、遠隔にある端末間で通
信路を介して会議を行う通信会議システムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a communication conference system for holding a conference between remote terminals via a communication path.

【0002】[0002]

【従来の技術】通信会議システムは、遠方の人の移動時
間を短縮できることから、近年、利用が多くなっている
が、ディスプレイ上における会議形態のため、人と人が
会話する会議としては自然さが欠けており、より自然な
会議形態に近づくよう改善が望まれている。
2. Description of the Related Art A communication conference system has been used more and more in recent years because it can shorten the travel time of a person far away, but because of the form of the conference on the display, it is a natural conference for people to talk. Is lacking, and improvements are desired to approach a more natural form of meetings.

【0003】従来の通信会議システムは、遠隔にある複
数の端末を通信路を介して結合して構成されている。
A conventional communication conference system is constructed by connecting a plurality of remote terminals via a communication path.

【0004】この通信会議システムでは、各端末にそれ
ぞれ設けたカメラで会議参加者の顔の映像を取り込み、
その映像情報を各端末に送信する一方、各端末がその映
像情報を受信し、ディスプレイ上の複数の小画面にそれ
ぞれ1人づつ会議参加者を表示している。なおディスプ
レイの画面全体を縦に複数に区切り分割して各参加者を
配置する形態もあるが、これはディスプレイに小画面を
隣り合うように配置した形態と同じと考えることができ
る。
In this communication conference system, the images of the faces of the conference participants are captured by the cameras provided in the respective terminals.
While transmitting the video information to each terminal, each terminal receives the video information and displays one conference participant on each of a plurality of small screens on the display. There is also a mode in which the entire screen of the display is vertically divided into a plurality of sections and each participant is arranged, but this can be considered to be the same as a mode in which small screens are arranged adjacent to each other on the display.

【0005】ところで、従来の通信会議システムのカメ
ラは、一般に、ディスプレイ上の中央部に設置されてい
ることが多く、その位置から取り込まれた会議参加者の
映像情報が各端末に送信される。
By the way, the camera of the conventional communication conference system is generally installed in the central portion of the display, and the video information of the conference participants captured from the position is transmitted to each terminal.

【0006】この場合、映像情報を受け取った各端末で
は、送られてきた映像情報をそのままの形で表示してい
るため、各会議参加者はディスプレイの画面を正面から
見ているにもかかわらず、その映像は、それぞれの視線
が下方向に向いたものになる。 これでは、会議参加者
全員が下を向いて会議をしているようで不自然である。
そこで、ディスプレイ全体を一つの画面として、この
画面中央部に一人の参加者のみを表示し、相手と視線を
一致させる技術はこれまでにも提案されている。 この
技術としては、例えば液晶スクリーンなどをディスプレ
イ面としてこの裏面より画像を投影しながらスクリーン
の一部を正面からの光が透過できるように走査し、この
透過光を裏面に設置したカメラより撮影する技術やハー
フミラーを用いる技術などがある。
In this case, since each terminal receiving the video information displays the sent video information as it is, each conference participant sees the screen of the display from the front. , The image is one in which each line of sight is directed downward. This is unnatural as it seems that all the participants in the conference are facing down.
Therefore, a technique has been proposed so far in which the entire display is set as one screen and only one participant is displayed in the central part of the screen to match the line of sight with the other party. In this technology, for example, a liquid crystal screen is used as a display surface and an image is projected from the back side of the screen while a part of the screen is scanned so that light from the front side can be transmitted, and the transmitted light is photographed by a camera installed on the back side. There are technologies and technologies that use half mirrors.

【0007】しかしながら、これらの技術はいずれの場
合もディスプレイに相手のうち一人しか表示できず、そ
の一人は会話を交わす相手だけであるため、回りの人の
様子が判らず、複数の人が参加する会議としては、上記
した視線のこととは異なる面で不自然になる。
However, in any of these techniques, only one of the other parties can be displayed on the display, and only one person can talk with each other. Therefore, the appearance of the people around the person cannot be understood, and a plurality of people participate. The meeting will be unnatural in a different aspect from the line of sight described above.

【0008】[0008]

【発明が解決しようとする課題】このように上述した従
来の通信会議システムでは、1つのディスプレイ画面上
に複数の小画面を設けて複数の会議参加者を表示した場
合、各端末の各小画面の配置は、端末毎に変えられるこ
とから異なることが考えられるため、端末画面上の他の
参加者が実際に誰を見ているのか、誰と誰が話をしてい
るのかなどが画面からは判らず、会議形態として不自然
であった。
As described above, in the conventional communication conference system described above, when a plurality of small screens are provided on one display screen to display a plurality of conference participants, each small screen of each terminal is displayed. Since the placement of can be different for each terminal, it can be different from the screen such as who the other participants on the terminal screen are actually seeing and who is talking to whom. I didn't understand, and it was unnatural as a meeting form.

【0009】一般的にわれわれは会話をするとき、相手
の目を見ながら行うことが多いが、従来の通信端末間の
会議では原理的に相手と目を合わせることが困難であ
り、会話が不自然な感じになることを避けられないとい
う問題があった。
Generally, we often talk while looking at the other party's eyes, but in a conventional conference between communication terminals, it is theoretically difficult to make eye contact with the other party, and the conversation is difficult. There was a problem that it was unavoidable to feel natural.

【0010】本発明はこのような課題を解決するために
なされたもので、通信による会議をより自然な会議形態
に近づけることのできる通信会議システムを提供するこ
とを目的としている。
The present invention has been made in order to solve such a problem, and an object thereof is to provide a communication conference system capable of bringing a communication conference closer to a natural conference form.

【0011】[0011]

【課題を解決するための手段】上記目的を達成するため
に、請求項1記載の発明は、複数の端末を通信路を介し
て結合し、各端末上の分割画面に表示された会議参加者
を見ながら会議を行う通信会議システムにおいて、前記
各端末の画面前方に存在する画面着目者の映像情報を取
り込む映像取込手段と、前記映像取込手段により取り込
まれた画面着目者の映像情報を基に、前記画面着目者が
前記分割画面中の所望の小画面に着目したことを検出す
る着目方向検出手段と、前記着目方向検出手段により検
出された前記小画面に表示されている被着目者の映像情
報と、前記映像取込手段により取り込まれた画面着目者
の映像情報とをフレーム情報として前記通信路上に送出
する送信手段と、前記通信路を通じて前記フレーム情報
を受け取り分解する受信手段と、前記受信手段により受
信され分解された画面着目者の映像情報を分割画面上の
対応する小画面に分配する分配手段と、前記分配手段に
よって前記画面着目者の映像情報が分配された小画面と
被着目者の映像情報が分配された小画面との位置関係を
検出する位置関係検出手段と、前記画面着目者の顔およ
び目の向きを変えた複数の映像パターンを記憶した記憶
手段と、前記位置関係検出手段により検出された位置関
係を基に、前記画面着目者の映像情報中の顔の向きを前
記被着目者が表示される小画面の方向に向けるようその
位置関係に対応する前記映像パターンを前記記憶手段か
ら読み出し、前記画面着目者の映像情報に合成する画像
回転手段と、合成された画面着目者の映像情報と前記被
着目者の映像情報とをそれぞれが分配された小画面に表
示する手段とを具備している。
In order to achieve the above object, the invention according to claim 1 connects a plurality of terminals through a communication path, and a conference participant displayed on a split screen on each terminal. In a teleconferencing system for conducting a conference while watching, a video capturing unit that captures the video information of the screen target person existing in front of the screen of each terminal, and the video information of the screen target user captured by the video capturing unit are displayed. On the basis of the direction of interest detecting means for detecting that the screen observer has focused on a desired small screen in the split screen, and the subject being displayed on the small screen detected by the direction of interest detecting means And image information of the screen target person captured by the image capturing means as frame information on the communication path, and transmitting means for receiving and decomposing the frame information through the communication path. Receiving means, distributing means for distributing the video information of the screen target person received and decomposed by the receiving means to corresponding small screens on the split screen, and the distributing means for distributing the video information of the screen target person. A positional relationship detecting means for detecting a positional relationship between the small screen and the small screen to which the image information of the subject is distributed, and a storage means for storing a plurality of image patterns in which the face and eyes of the screen subject are changed. And, based on the positional relationship detected by the positional relationship detecting means, correspond to the positional relationship so that the direction of the face in the image information of the screen target person is directed toward the small screen on which the target person is displayed. The image rotation means for reading out the video pattern from the storage means, and synthesizing the video pattern with the video information of the screen target person, and the video information of the synthesized screen target person and the video information of the target person are respectively separated. And and means for displaying on the small screen that is.

【0012】また請求項2記載の発明は、位置関係検出
手段により検出された位置関係を基に、画面着目者の映
像情報中の目の向きを被着目者が表示される小画面の方
向に向けるようその位置関係に対応する映像パターンを
記憶手段から読み出し、前記画面着目者の映像情報に合
成する視線回転手段を備えている。
According to the second aspect of the invention, based on the positional relationship detected by the positional relationship detecting means, the direction of the eyes in the image information of the screen target person is set to the direction of the small screen on which the target person is displayed. It is equipped with a line-of-sight rotation means for reading out a video pattern corresponding to the positional relationship from the storage means so as to direct it and synthesizing it with the video information of the screen target person.

【0013】さらに請求項3記載の発明は、各端末の小
画面に対して発っせられた画面着目者の音声を取り込む
音声取込手段と、音声取込手段により取り込まれた音声
情報を前記フレーム情報に付加する手段と、通信路から
受信手段に受け取られた前記フレーム情報中から音声情
報を取り出す手段と、取り出された画面着目者の音声情
報に応じて前記画像回転手段により合成された前記映像
パターンを切り替えるタイミング制御を行う手段とを具
備している。
Further, the invention according to claim 3 is characterized in that the voice capturing means for capturing the voice of the screen observer issued to the small screen of each terminal, and the voice information captured by the voice capturing means are included in the frame. Means for adding information, means for extracting audio information from the frame information received by the receiving means from the communication path, and the image synthesized by the image rotating means according to the audio information of the extracted screen target person And means for performing timing control for switching patterns.

【0014】また請求項4記載の発明は、分割画面の中
の一つの小画面に会議資料が表示されており、この会議
資料の小画面を画面着目者が見たことが検知された場
合、画面回転手段は、他の被着目者の映像情報を考慮す
ることなく前記画面着目者の顔を前記会議資料の小画面
の方向に向けるよう画像パターンを記憶手段から読み出
し、前記画面着目者が表示されている小画面の映像情報
に合成する画像回転制御を行うことを特徴としている。
In the invention according to claim 4, the conference material is displayed on one small screen among the split screens, and when it is detected that the screen observer sees the small screen of the conference material, The screen rotation means reads out an image pattern from the storage means so that the face of the screen subject is directed toward the small screen of the conference material without considering the video information of the other subject, and the screen subject displays the image pattern. It is characterized by performing image rotation control to be combined with the image information of a small screen that is being displayed.

【0015】[0015]

【作用】請求項1記載の発明では、遠隔にある端末間を
通信路を介して結合し、端末上の分割画面に表示される
参加者を見ながら会議を行うとき、端末に表示されてい
る会議参加者である被着目者の小画面を、画面着目者が
着目すると、画面着目者の映像情報に、その人の顔の方
向が被着目者の方に向くように記憶手段から映像パター
ンが読み出されて合成されるので、より自然な形態に近
い形で通信会議を行うことができる。
According to the first aspect of the present invention, remote terminals are connected to each other via a communication path and displayed on the terminals when a conference is held while watching the participants displayed on the split screens of the terminals. When a screen participant focuses on a small screen of a participant who is a conference participant, the image information of the screen participant includes a video pattern from the storage device so that the person's face is directed toward the participant. Since they are read out and combined, it is possible to hold a communication conference in a more natural form.

【0016】請求項2記載の発明では、画面着目者が所
望の被着目者に着目すると、画面着目者の映像情報中の
目の向きを被着目者が表示される小画面の方向に向ける
ようその位置関係に対応する映像パターンが記憶手段か
ら読み出されて、画面着目者の映像情報に合成されるの
で、各端末の分割画面内に表示される各会議参加者はお
互いに向き合い視線を合わせた状態で会話している状態
になり、より自然な形態に近い形で通信会議を行うこと
ができる。
According to the second aspect of the present invention, when the screen subject pays attention to a desired subject, the eyes in the image information of the screen subject are directed toward the small screen on which the subject is displayed. The video pattern corresponding to the positional relationship is read out from the storage means and is combined with the video information of the screen target person, so that the conference participants displayed in the split screens of the respective terminals face each other and match their line of sight. It becomes a state of talking in the open state, and it is possible to hold a communication conference in a more natural form.

【0017】請求項3記載の発明では、画面着目者の音
声情報に応じて、画面上に前記記憶手段の複数の画像パ
ターンを切り替え表示されるので、画面着目者の音声に
その人の口の動きが連動するようになり、より自然な形
態に近い形で通信会議を行うことができる。
According to the third aspect of the present invention, a plurality of image patterns of the storage means are switched and displayed on the screen in accordance with the voice information of the screen target person, so that the voice of the screen target person can be spoken by the person. As the movements are linked, it is possible to hold a teleconference in a more natural form.

【0018】請求項4記載の発明では、画面着目者が会
議資料の小画面を見たことが検知された場合、画面回転
手段により、他の被着目者の映像情報を考慮することな
くその会議資料が表示されている小画面の方向に画面着
目者の顔を向けるよう画像パターンを記憶手段から読み
出し前記画面着目者の映像に合成するので、より自然な
形態に近い形で通信会議を行うことができる。
In the invention according to claim 4, when it is detected that the person watching the screen looks at the small screen of the conference material, the meeting is performed by the screen rotating means without considering the video information of the other people. Since the image pattern is read out from the storage means so that the face of the screen subject is directed toward the small screen where the material is displayed, and is combined with the image of the screen subject, the communication conference should be conducted in a more natural form. You can

【0019】[0019]

【実施例】以下、本発明の実施例を図面を参照して詳細
に説明する。
Embodiments of the present invention will now be described in detail with reference to the drawings.

【0020】図1は本発明に係る一実施例の通信会議シ
ステムの概略構成を示す図、図2は図1の通信会議シス
テム内のある端末の表示部を示す外観図である。
FIG. 1 is a diagram showing a schematic configuration of a communication conference system according to an embodiment of the present invention, and FIG. 2 is an external view showing a display unit of a terminal in the communication conference system of FIG.

【0021】図1に示すように、この通信会議システム
は、遠隔に存在する複数の端末1、2、3〜nが通信網
4を介して結合されて構成されている。
As shown in FIG. 1, this communication conference system is constructed by connecting a plurality of terminals 1, 2, 3 to n existing at a remote location via a communication network 4.

【0022】図2に示すように、この通信会議システム
の各端末の表示部20には、複数の小画面21〜24な
どが表示され、小画面21内には、会議参加者Aが表示
されている。小画面22内には、会議参加者Bが表示さ
れている。小画面23内には、会議参加者Cが表示され
ている。小画面24内には、会議の資料が表示されてい
る。なおこれらの小画面21〜24は、1つの画面が複
数分割されたものでもよい。またこの表示部20の上部
には、表示部前方に存在する会議参加者の顔を含む映像
を取り込む映像取込手段としてのカメラ25などが設け
られている。また各端末には、会議参加者が発した音声
を取り込む音声取込手段としてのマイク26などが設け
られている。さらに各端末には、他の会議参加者からの
音声を出力するスピーカ27などが設けられている。
As shown in FIG. 2, a plurality of small screens 21 to 24 and the like are displayed on the display unit 20 of each terminal of this communication conference system, and a conference participant A is displayed in the small screen 21. ing. The conference participant B is displayed in the small screen 22. The conference participant C is displayed in the small screen 23. The materials of the conference are displayed in the small screen 24. Note that each of the small screens 21 to 24 may be one screen divided into a plurality of screens. Further, a camera 25 or the like as an image capturing means for capturing an image including the faces of the conference participants existing in front of the display unit is provided above the display unit 20. Further, each terminal is provided with a microphone 26 or the like as a voice capturing means for capturing a voice uttered by a conference participant. Further, each terminal is provided with a speaker 27 or the like for outputting voices from other conference participants.

【0023】図3は各端末の内部構成を示す図である。FIG. 3 is a diagram showing the internal structure of each terminal.

【0024】同図において、30は被着目画面検出部で
あり、カメラ25から取り込まれた画像情報を基に、そ
の人(画面着目者)が着目している画面上の位置、つま
り小画面21〜24のうちのいずれか1つの位置を検出
する。31は被着目者検出部であり、被着目画面検出部
30により検出された画面上の位置を基に、その位置に
ある小画面に表示されている人(または資料)を検出し
着目関係情報を作成する。32はフレーム化部であり、
カメラ25からの映像情報、着目関係情報およびマイク
26からの音声情報をフレーム情報化した後、通信網4
に送信する。33はフレーム分解部であり、通信網4を
通じてフレーム情報を受け取り、そのフレーム情報から
映像情報、着目関係情報および音声情報を分解する。分
解した着目関係情報は位置関係検出部34に分配され出
力される。この位置関係検出部34は入力された着目関
係情報から、その端末上での画面着目者と被着目者との
関係がどのような位置関係になるかを検出し着目関係情
報を作成する。この着目関係情報は座標X、Yなどの座
標情報であり、ここでは説明の便宜のためXがYの方向
を向くという情報をX→Yと表現する。また音声情報は
スピーカ27へ出力される。映像情報は画像回転部35
へ出力される。この画像回転部35は、位置関係検出部
34により作成された方向情報を基にフレーム分解部3
3で得た映像情報を回転させる。この画像回転部35に
は、会議参加者それぞれの顔、目および口などの映像パ
ターンが複数種格納されている。この画像回転部35に
は、会議参加者の顔の向き目線あるいは口の開き具合な
どが変化したときの何パターンかの映像パターンが格納
されている。36は画像メモリであり、入力された映像
パターンを対応する分割画面の位置の映像情報に嵌め込
む(合成する)。
In the figure, reference numeral 30 is a screen-to-be-detected section, which is based on the image information taken in from the camera 25, the position on the screen the person (screen-focused person) is paying attention to, that is, the small screen 21. The position of any one of 24 to 24 is detected. Reference numeral 31 is a person-to-be-detected section, which detects the person (or material) displayed on the small screen at that position based on the position on the screen detected by the screen-to-be-detected section 30 and detects the relationship information of interest. To create. 32 is a framing unit,
After converting the video information from the camera 25, the attention-related information and the audio information from the microphone 26 into frame information, the communication network 4
Send to. A frame decomposing unit 33 receives frame information through the communication network 4 and decomposes video information, attention-related information, and audio information from the frame information. The decomposed relationship information of interest is distributed to the positional relationship detection unit 34 and output. The positional-relationship detecting unit 34 detects from the input attention-related information what the positional relationship between the screen subject and the subject on the terminal is, and creates attention-related information. This attention-related information is coordinate information such as coordinates X and Y. Here, for convenience of description, information that X is oriented in the direction of Y is expressed as X → Y. The voice information is also output to the speaker 27. The image information is the image rotation unit 35.
Output to The image rotation unit 35 uses the frame decomposition unit 3 based on the direction information created by the positional relationship detection unit 34.
The image information obtained in 3 is rotated. The image rotating unit 35 stores a plurality of types of image patterns such as faces, eyes, and mouths of the conference participants. The image rotating unit 35 stores several image patterns when the face line of sight or the mouth opening degree of the conference participants change. An image memory 36 fits (combines) the input video pattern into the video information at the position of the corresponding divided screen.

【0025】このとき、端末名と着目関係情報の被着目
画面名とが互いに対応するもの、つまり端末1、端末
2、端末3にそれぞれ小画面21、小画面22、小画面
23が対応しているならば、各端末に対応する小画面に
表示される着目者の顔は正面を向き、さらに端末の前方
に座っている会議参加者と視線が対面する形の画像を表
示する。
At this time, the terminal name and the focused screen name of the focused relationship information correspond to each other, that is, the small screen 21, the small screen 22, and the small screen 23 correspond to the terminal 1, the terminal 2, and the terminal 3, respectively. If so, the face of the target person displayed on the small screen corresponding to each terminal faces the front, and further, an image is displayed in which the line of sight faces the conference participant sitting in front of the terminal.

【0026】以下、図4および図5を参照して、この通
信会議システムにて、会議参加者A、B、Cなどの 3人
が会議を行う場面を想定して説明する。
Hereinafter, with reference to FIGS. 4 and 5, a description will be given on the assumption that three persons such as conference participants A, B, and C hold a conference in this communication conference system.

【0027】図4は会議参加者A、B、Cの 3人で会議
をしているときの各小画面の配置例を示す図である。
FIG. 4 is a diagram showing an example of arrangement of small screens when the conference participants A, B, and C are having a conference.

【0028】同図に示すように、会議参加者A、B、C
に対して各端末1、2、3が対応している。各会議参加
者A、B、Cは、自分の好みに合わせて、各端末1、
2、3のどこかの位置にカメラ25を配設している都合
上、そのカメラ位置で各会議参加者A、B、Cの顔面映
像が撮像されている。
As shown in the figure, conference participants A, B, C
Each terminal 1, 2, 3 corresponds to. Each of the conference participants A, B, and C can select each terminal 1,
Due to the fact that the camera 25 is arranged at a position of some 2, 3, face images of the conference participants A, B, and C are captured at the position of the camera.

【0029】図5は上記した配置例で会議参加者A、
B、Cが会議した一場面を示す図であり、この図を基に
この通信会議システムの動作を説明する。
FIG. 5 shows the above-mentioned arrangement example of the conference participants A,
It is a figure which shows one scene where B and C had a meeting, and operation | movement of this communication conference system is demonstrated based on this figure.

【0030】同図に示すように、この場合、会議参加者
Aと会議参加者Cが互いに相手の分割画面を見ており、
会議参加者Bは資料画面の方を見ているものとする。
As shown in the figure, in this case, the conference participant A and the conference participant C are looking at each other's split screens,
It is assumed that the conference participant B is looking at the document screen.

【0031】会議参加者Aの端末1で取り込まれた画像
の中で会議参加者Aの小画面は、被着目画面検出部30
により左下方向であることが検出される。
In the image captured by the terminal 1 of the conference participant A, the small screen of the conference participant A is the target screen detection unit 30.
Is detected to be in the lower left direction.

【0032】そして次段の被着目者検出部31により左
下方向に会議参加者Cの小画面があることが判る。これ
により被着目者検出部31では会議参加者A→Cという
着目関係情報が作成されフレーム化部32に転送され
る。フレーム化部32は、入力された着目関係情報、映
像情報および音声情報をフレーム情報化して通信網4に
送出し、このフレーム情報は通信網4を介して各端末
1、2、3などに届けられる。
Then, it can be seen from the person-to-be-detected section 31 in the next stage that there is a small screen of the conference participant C in the lower left direction. As a result, the attention detecting section 31 creates attention relationship information of the conference participants A → C and transfers it to the framing section 32. The framing unit 32 converts the input attention-related information, video information, and audio information into frame information and sends the frame information to the communication network 4, and the frame information is delivered to each terminal 1, 2, 3 or the like via the communication network 4. To be

【0033】フレーム情報が端末2に受け取られると、
そのフレーム分解部33で会議参加者A→Cの着目関係
情報が取り出され、位置関係検出部34に出力される。
When the frame information is received by the terminal 2,
The frame decomposition unit 33 extracts the attention relationship information of the conference participants A → C and outputs it to the positional relationship detection unit 34.

【0034】この位置関係検出部34では、まず、端末
2の着目関係情報中の分割画面配置情報から会議参加者
Aと会議参加者Cの画面関係を調べる。会議参加者Aの
小画面の中心座標と会議参加者Cの小画面の中心座標よ
りX軸方向とY軸方向のベクトル量が得られる。これよ
り合成ベクトル方向が得られる。この合成ベクトルの方
向情報は、次段の画像回転部35に出力される。画像回
転部35は、入力された方向情報を基にフレーム分解部
33から入力された映像情報を回転させる。この回転技
術としては、例えば画像合成技術を用いる。
The positional relationship detecting unit 34 first checks the screen relationship between the conference participant A and the conference participant C from the split screen layout information in the noticed relation information of the terminal 2. From the center coordinates of the small screen of the conference participant A and the center coordinates of the small screen of the conference participant C, vector amounts in the X-axis direction and the Y-axis direction can be obtained. From this, the combined vector direction is obtained. The direction information of this combined vector is output to the image rotation unit 35 at the next stage. The image rotation unit 35 rotates the video information input from the frame decomposition unit 33 based on the input direction information. As this rotation technique, for example, an image synthesis technique is used.

【0035】ここで、位置関係検出部34により方向情
報が生成されるまでの手順について細かく説明する。
Here, the procedure until the direction information is generated by the positional relationship detecting section 34 will be described in detail.

【0036】方向情報、つまり着目されている人(被着
目者)の顔の向きおよび目の向きなどの情報は、上記着
目関係情報を基に以下に示す手順で生成される。
The direction information, that is, the information such as the face orientation and the eye orientation of the focused person (subject) is generated by the following procedure based on the focused relationship information.

【0037】位置関係検出部34は、まず、着目関係情
報の中の、顔の左右の縁と両目頭の中心位置から顔の水
平回転角を求める(ステップ1)。
The positional relationship detecting unit 34 first obtains the horizontal rotation angle of the face from the right and left edges of the face and the center positions of the inner and outer canthus in the attention relationship information (step 1).

【0038】次に両目尻(両目頭)を結ぶ線分と、両目
頭の中点と唇の両端点の中点を結ぶ線分とがなす角と、
ステップ1で求めた顔の水平回転角とを基に、あおり角
を求める(ステップ2)。また顔断面楕円の中心から両
目尻間を結ぶ直線の中点を結んだ直線を顔の正面の向き
とし、目尻の奥行きを求める(ステップ3)。
Next, an angle formed by a line segment connecting the outer corners (both inner corners) of the eyes and a line segment connecting the midpoints of both inner corners of the eyes and the midpoints of both end points of the lips,
The tilt angle is obtained based on the horizontal rotation angle of the face obtained in step 1 (step 2). Further, the straight line connecting the midpoints of the straight lines connecting the outer corners of the eyes from the center of the ellipse of the face is set as the front direction of the face, and the depth of the outer corners of the eyes is obtained (step 3).

【0039】そして画面上での眼球中心を求める(ステ
ップ4)。
Then, the center of the eyeball on the screen is obtained (step 4).

【0040】さらにステップ3で求めた目尻の奥行きと
目頭の位置とを基に眼球の大きさを求める(ステップ
5)。この際、眼球の直径は目頭・目尻間の距離に等し
いものと仮定する。顔の水平断面と眼球の断面の歪みか
たが等しいことから眼球の中心位置を求める(ステップ
6)。続いて黒目のエッジを求め、円近似することで黒
目の中心方向を求める(ステップ7)。なお端末と会議
参加者との距離は、カメラ25から基準距離で取り込ん
だ参加者の映像の大きさを予め各端末側に記憶してお
き、距離計算時に会議参加者の映像の大きさを読み出す
ことにより算出できる。
Further, the size of the eyeball is obtained based on the depth of the outer corner of the eye and the position of the inner corner of the eye obtained in step 3 (step 5). At this time, it is assumed that the diameter of the eyeball is equal to the distance between the inner and outer corners of the eye. The center position of the eyeball is obtained from the fact that the horizontal cross section of the face and the cross section of the eyeball are equal in distortion (step 6). Then, the edge of the iris is found, and the center direction of the iris is found by circle approximation (step 7). As for the distance between the terminal and the conference participant, the size of the image of the participant captured at the reference distance from the camera 25 is stored in advance in each terminal side, and the size of the image of the conference participant is read out when calculating the distance. It can be calculated by

【0041】このような手順で顔の回転角、あおり角、
目の回転角および距離などが判るので、これらの情報お
よび分割画面配置情報を元の情報と比較することによ
り、被着目画面がどの画面に位置するものか、またその
画面に表示されている内容(人がだれであるか、また人
でなければ資料であるということ)が判る。
The rotation angle of the face, the tilt angle,
You can know the rotation angle and distance of your eyes. By comparing this information and split screen layout information with the original information, you can determine which screen the target screen is located on and what is displayed on that screen. (Who is a person, and if it is not a person is a material).

【0042】これにより端末2上の小画面の会議参加者
Aの顔の方向は会議参加者Cの小画面の方向を向くよう
になる。
As a result, the face of the conference participant A on the small screen on the terminal 2 faces the direction of the small screen of the conference participant C.

【0043】会議参加者Cが座っている端末3にフレー
ム情報が届いたとき、フレーム分解部33でA→Cとい
う着目関係情報が取り出され、位置関係検出部34に入
力される。ここで端末名(端末3)と被着目端末名が同
じなので、端末3の画面上の小画面21に表示されてい
る会議参加者Aの顔の映像は画像回転部35により端末
3の前に座る会議参加者Cの視線の向きと対面する形、
つまり会議参加者Aの正面の顔の映像を表示するよう、
対応する映像パターンが画像回転部35の所定の記憶領
域から取り出されて小画面21の映像情報に画像合成さ
れる。
When the frame information arrives at the terminal 3 on which the conference participant C is sitting, the frame disassembling unit 33 extracts the attention relation information A → C and inputs it to the positional relation detecting unit 34. Since the terminal name (terminal 3) and the target terminal name are the same here, the image of the face of the conference participant A displayed on the small screen 21 on the screen of the terminal 3 is displayed in front of the terminal 3 by the image rotation unit 35. A shape facing the direction of the line of sight of the conference participant C who sits down,
In other words, to display the image of the face in front of conference participant A,
The corresponding video pattern is taken out from a predetermined storage area of the image rotation unit 35 and image-combined with the video information of the small screen 21.

【0044】画像合成された映像情報は画像メモリ36
に送られ、対応する小画面21の位置に嵌め込まれた上
で表示部20に表示される。
The image information obtained by the image synthesis is stored in the image memory 36.
And is fitted into the corresponding position of the small screen 21 and then displayed on the display unit 20.

【0045】また会議参加者が多数存在するときなど
は、画面上に小画面が存在する。
When a large number of conference participants exist, a small screen exists on the screen.

【0046】これでは、着目者の着目位置の変化が顔の
回転表現に余り反映させれない。
In this case, the change in the focus position of the target person is hardly reflected in the rotational expression of the face.

【0047】この場合、さらに着目位置の変化を目の動
きに反映させる。画像回転部35はこの機能も合せ持っ
ている。
In this case, the change in the position of interest is further reflected in the eye movement. The image rotation unit 35 also has this function.

【0048】図6は音声を画面と連動させる構成図であ
る。
FIG. 6 is a block diagram showing how the voice is interlocked with the screen.

【0049】なお上記実施例と同じ構成には同一の符号
を付し、その説明は省略する。
The same components as those in the above embodiment are designated by the same reference numerals, and the description thereof will be omitted.

【0050】この場合、同図に示すように、フレーム分
解部33はフレーム情報が受信されると、映像情報と音
声情報とを分解して、映像情報を画像回転に出力する。
また音声情報は画像回転部6および音声タイミング調整
部61にそれぞれ出力される。 画像回転部35は、フ
レーム分解部33から映像情報を取り込むと、上記同様
に画像合成を実行する。また画像回転部35は、音声情
報を取り込むと、音声の出方に合わせて口の画像を動か
すため、画像合成を終了し映像情報を各小画面に出力で
きる状態になるまで待ち、そのときに音声タイミング調
整部61に音声出力命令を出す。音声タイミング調整部
61は、画像回転部35からの出力命令に合わせて音声
を出力する。
In this case, as shown in the figure, when the frame decomposition unit 33 receives the frame information, it decomposes the video information and the audio information and outputs the video information to the image rotation.
The audio information is output to the image rotation unit 6 and the audio timing adjustment unit 61, respectively. When the image rotation unit 35 takes in the video information from the frame decomposition unit 33, the image rotation unit 35 executes image synthesis in the same manner as above. When the image rotation unit 35 captures the voice information, the image rotation unit 35 moves the image of the mouth according to the way the voice is output. Therefore, the image rotation unit 35 waits until the image composition is completed and the video information can be output to each small screen. A voice output command is issued to the voice timing adjustment unit 61. The audio timing adjustment unit 61 outputs audio in accordance with the output command from the image rotation unit 35.

【0051】ここで画像回転部35による画面の合成処
理について説明する。
Now, the screen synthesizing process by the image rotating unit 35 will be described.

【0052】画像回転部35は顔の形状を表現するため
に、顔の頂点座標とそれらを結合する線分で近似した 3
次元モデルを用意する。なおこの 3次元モデルを頭部全
周にわたって作成するため、 3次元形状とカラー画像を
同時計測できるスキャナが利用される。
In order to represent the shape of the face, the image rotation unit 35 approximates the vertex coordinates of the face and the line segment connecting them.
Prepare a dimensional model. Since this 3D model is created over the entire circumference of the head, a scanner that can simultaneously measure 3D shapes and color images is used.

【0053】このスキャナを対象人物の回りに一周させ
ることにより人物の完全な 3次元形状と円筒方向からの
平面投影像を取り込む。一周 360度回転するうちに 512
回走査し、各走査について512 点の 3次元座標とカラー
情報とを得る。こうして得た3次元情報は高精細であ
り、全周からの平面投影像を用いることにより任意の方
向から見た顔の画像を合成できる。
By rotating the scanner around the target person, a complete three-dimensional shape of the person and a plane projection image from the cylindrical direction are captured. 512 while rotating 360 degrees
It scans twice, and obtains three-dimensional coordinates and color information of 512 points for each scan. The three-dimensional information obtained in this way is of high definition, and by using a plane projection image from the entire circumference, it is possible to synthesize a face image viewed from any direction.

【0054】なおこの実施例では、端末の画面上部中央
にカメラ25を1つだけ配置したが、このカメラ25の
台数はこれに制限されるものではなく、各端末にカメラ
25を複数台設置するようにしてもよい。また口の動き
については、画像回転部35に予め人がしゃべっている
ときの口の動きの像(映像パターン)を複数記憶してお
き、それを音声に合わせて切り替え表示すれば、より違
和感がなくなるものと考えられる。
In this embodiment, only one camera 25 is arranged at the center of the upper part of the screen of the terminal, but the number of cameras 25 is not limited to this, and a plurality of cameras 25 are installed in each terminal. You may do it. Regarding the movement of the mouth, if a plurality of images (picture patterns) of the movement of the mouth when a person is talking are stored in advance in the image rotation unit 35, and the images are switched and displayed according to the sound, a more uncomfortable feeling is obtained. It is thought to disappear.

【0055】このように本実施例の通信会議システムに
よれば、会議参加者A、B、Cなどはそれぞれの端末
1、2、3の分割画面上に表示された相手を見ながら話
しをすると、その中の小画面21〜23に表示された自
分(画面着目者)の顔の映像が、他の小画面の相手(被
着目者)に向かって話しをする映像になるので、あたか
も相手と向き合った状態で会話しているようになり、従
来のように会議参加者全員が下を向いて並んでいたとき
と比べて、不自然さをなくすことができる。
As described above, according to the communication conference system of the present embodiment, when the conference participants A, B, C, etc. talk while looking at the parties displayed on the split screens of the respective terminals 1, 2, 3. , The image of the face of oneself (the person watching the screen) displayed on the small screens 21 to 23 becomes an image of talking to the other party (the person being watched) on the other small screen. It becomes possible to talk in a state of facing each other, and it is possible to eliminate the unnaturalness as compared with the case where all the conference participants are lined down facing as in the past.

【0056】また、端末上の分割画面に表示される会議
参加者A、B、Cの顔の向きや視線の方向から各人がど
の画面(人または資料)を見ているかが判るという従来
にない機能を提供できる。
In addition, conventionally, it is possible to know which screen (person or material) each person is looking at from the face direction and the line-of-sight direction of the conference participants A, B and C displayed on the split screen on the terminal. It can provide functions that are not available.

【0057】なお、上記実施例では、会議参加者それぞ
れの顔、目および口などの映像パターンを予め画像回転
部35に複数格納していたが、各端末の記憶容量、通信
路など伝送容量などに余裕があり、かつMPEGなどの
圧縮画像処理技術を用いることにより、カメラが取り込
んだ各会議参加者のリアルタイムの 3次元映像パターン
を動画状態で順次表示することにより、通信による会議
をより自然な形に近づけることもできる。
In the above embodiment, a plurality of image patterns such as faces, eyes and mouths of the conference participants are stored in advance in the image rotating section 35. However, the storage capacity of each terminal, the transmission capacity such as a communication path, etc. There is plenty of room, and the compressed image processing technology such as MPEG is used to sequentially display the real-time 3D video patterns of each conference participant captured by the camera in a moving image state, making the conference by communication more natural. It can also be shaped.

【0058】[0058]

【発明の効果】以上説明したように請求項1記載の発明
によれば、端末に表示されている被着目者の小画面を、
画面着目者が着目すると、画面着目者の映像情報に、そ
の人の顔の方向が被着目者の方に向くよう記憶手段から
映像パターンが読み出されて合成されるので、小画面に
表示された被着目者と向き合った状態で会話できるよう
になり通信会議による不自然さがなくなる。
As described above, according to the invention of claim 1, the small screen of the subject displayed on the terminal is
When the screen observer pays attention, a video pattern is read from the storage means and synthesized with the image information of the screen observer so that the direction of the person's face is toward the examinee, so it is displayed on a small screen. Also, it becomes possible to talk face-to-face with the target person, and the unnaturalness caused by the communication conference is eliminated.

【0059】請求項2記載の発明によれば、画面着目者
の映像情報中の目線を被着目者が表示される小画面の方
向に向けるようその位置関係に対応する映像パターンが
記憶手段から読み出され、画面着目者の映像情報に合成
されるので、小画面に表示された各会議参加者は互いの
視線を合わせた状態で会話できるようになる。
According to the second aspect of the invention, the video pattern corresponding to the positional relationship is read from the storage means so that the line of sight in the video information of the screen subject is directed toward the small screen on which the subject is displayed. Since it is sent out and is combined with the video information of the screen target person, each conference participant displayed on the small screen can talk in a state where their sight lines are matched.

【0060】請求項3記載の発明によれば、画面着目者
の音声情報に応じて、画面上に前記記憶手段の複数の画
像パターンを切り替え表示されるので、画面着目者の音
声にその人の口の動きが連動するようになる。
According to the third aspect of the invention, a plurality of image patterns of the storage means are switched and displayed on the screen in accordance with the voice information of the screen target person, so that the voice of the screen target person can be displayed. The movement of the mouth becomes linked.

【0061】請求項4記載の発明によれば、画面着目者
が会議資料の小画面を見たことが検知された場合、画面
回転手段により、他の被着目者の映像情報を考慮するこ
となくその会議資料が表示されている小画面の方向に画
面着目者の顔を向けるよう画像パターンが記憶手段から
読み出されて、前記画面着目者の映像に合成される。こ
のようにして、より自然な形態に近い形で通信会議を行
うことができる。
According to the invention described in claim 4, when it is detected that the person watching the screen looks at the small screen of the conference material, the screen rotating means does not consider the video information of the other people. An image pattern is read from the storage means so that the face of the screen subject is directed toward the small screen on which the conference material is displayed, and is combined with the image of the screen subject. In this way, the communication conference can be held in a more natural form.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る一実施例の通信会議システムの概
略構成を示す図である。
FIG. 1 is a diagram showing a schematic configuration of a communication conference system according to an embodiment of the present invention.

【図2】この通信会議システムのある端末の表示部を示
す外観図である。
FIG. 2 is an external view showing a display unit of a terminal having this communication conference system.

【図3】図2の端末の内部構成を示す図である。FIG. 3 is a diagram showing an internal configuration of the terminal of FIG.

【図4】会議参加者A、B、Cなどの 3人で会議を行っ
ているときの各端末の画面配置例を示す図である。
FIG. 4 is a diagram showing an example of a screen layout of each terminal when a conference is held by three persons such as conference participants A, B, and C.

【図5】会議参加者Aが会議参加者Cを、会議参加者C
が会議参加者Aを、会議参加者Bが資料をそれぞれ見た
ときの各端末上の画面の向きを示す図である。
FIG. 5: Conference participant A designates conference participant C as conference participant C
FIG. 4 is a diagram showing the orientation of the screen on each terminal when the conference participant A and the conference participant B see the material.

【図6】この通信会議システムの応用例として、音声に
対して画面上の口の動きを連動させる場合の構成を示す
図である。
[Fig. 6] Fig. 6 is a diagram showing a configuration in the case where the movement of the mouth on the screen is interlocked with voice as an application example of this communication conference system.

【符号の説明】[Explanation of symbols]

1、2、3〜n…端末、4…通信網、20…表示部、2
1〜24…小画面、25…カメラ、26…マイク、27
…スピーカ、30…被着目画面検出部、31…被着目者
検出部、32…フレーム化部、33…フレーム分解部、
34…位置関係検出部、35…画像回転部、36…画像
メモリ、61…音声タイミング調整部。
1, 2, 3 to n ... Terminal, 4 ... Communication network, 20 ... Display unit, 2
1 to 24 ... small screen, 25 ... camera, 26 ... microphone, 27
... speaker, 30 ... screen-of-interest detection unit, 31 ... target-of-subject detection unit, 32 ... framing unit, 33 ... frame decomposition unit,
34 ... Positional relationship detection part, 35 ... Image rotation part, 36 ... Image memory, 61 ... Audio timing adjustment part.

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 複数の端末を通信路を介して結合し、各
端末上の分割画面に表示された会議参加者を見ながら会
議を行う通信会議システムにおいて、 前記各端末の画面前方に存在する画面着目者の映像情報
を取り込む映像取込手段と、 前記映像取込手段により取り込まれた画面着目者の映像
情報を基に、前記画面着目者が前記分割画面中の所望の
小画面に着目したことを検出する着目方向検出手段と、 前記着目方向検出手段により検出された前記小画面に表
示されている被着目者の映像情報と、前記映像取込手段
により取り込まれた画面着目者の映像情報とをフレーム
情報として前記通信路上に送出する送信手段と、 前記通信路を通じて前記フレーム情報を受け取り分解す
る受信手段と、 前記受信手段により受信され分解された画面着目者の映
像情報を分割画面上の対応する小画面に分配する分配手
段と、 前記分配手段によって前記画面着目者の映像情報が分配
された小画面と被着目者の映像情報が分配された小画面
との位置関係を検出する位置関係検出手段と、 前記画面着目者の顔および目の向きを変えた複数の映像
パターンを記憶した記憶手段と、 前記位置関係検出手段により検出された位置関係を基
に、前記画面着目者の映像情報中の顔の向きを前記被着
目者が表示される小画面の方向に向けるようその位置関
係に対応する前記映像パターンを前記記憶手段から読み
出し、前記画面着目者の映像情報に合成する画像回転手
段と、 合成された画面着目者の映像情報と前記被着目者の映像
情報とをそれぞれが分配された小画面に表示する手段と
を具備したことを特徴とする通信会議システム。
1. A communication conferencing system in which a plurality of terminals are connected via a communication path to hold a conference while watching a conference participant displayed on a split screen on each terminal, and the conference exists in front of the screen of each terminal. Based on the image capturing means for capturing the image information of the screen observer and the image information of the screen observer captured by the image capturing device, the screen observer focused on a desired small screen in the divided screen. Direction information detecting means for detecting that, the video information of the subject displayed on the small screen detected by the attention direction detecting means, and the video information of the screen attention person captured by the image capturing means And a receiving means for receiving and decomposing the frame information through the communication path, and a screen received and decomposed by the receiving means Distribution means for distributing the video information to the corresponding small screens on the split screen; a small screen to which the video information of the screen target person is distributed by the distribution means and a small screen to which the video information of the target person is distributed. A positional relationship detecting unit that detects a positional relationship, a storage unit that stores a plurality of video patterns in which the face and eyes of the screen subject are changed, based on the positional relationship detected by the positional relationship detecting unit, The image pattern corresponding to the positional relationship is read from the storage means so that the face direction in the image information of the screen subject is directed toward the small screen on which the subject is displayed, and the image of the screen subject is read. An image rotating means for synthesizing the information and a means for displaying the synthesized image information of the target person of the screen and the image information of the target person on a small screen in which the respective images are distributed. Conference system.
【請求項2】 位置関係検出手段により検出された位置
関係を基に、画面着目者の映像情報中の目の向きを被着
目者が表示される小画面の方向に向けるようその位置関
係に対応する映像パターンを記憶手段から読み出し、前
記画面着目者の映像情報に合成する視線回転手段を備え
たことを特徴とする請求項1記載の通信会議システム。
2. Corresponding to the positional relationship so that the direction of eyes in the image information of the screen target person is directed to the direction of the small screen on which the target person is displayed based on the positional relationship detected by the positional relationship detection means. 2. The communication conference system according to claim 1, further comprising line-of-sight rotation means for reading a video pattern to be read from a storage means and synthesizing the video pattern with the video information of the screen observer.
【請求項3】 各端末の小画面に対して発っせられた画
面着目者の音声を取り込む音声取込手段と、 音声取込手段により取り込まれた音声情報を前記フレー
ム情報に付加する手段と、 通信路から受信手段に受け取られた前記フレーム情報中
から音声情報を取り出す手段と、 取り出された画面着目者の音声情報に応じて前記画像回
転手段により合成された前記映像パターンを切り替える
タイミング制御を行う手段とを具備したことを特徴とす
る請求項1記載の通信会議システム。
3. A voice capturing means for capturing a voice of a screen observer emitted to a small screen of each terminal, and a means for adding the voice information captured by the voice capturing means to the frame information. The timing control is performed to switch the audio information from the frame information received by the receiving means from the communication path, and to switch the video pattern synthesized by the image rotating means according to the extracted audio information of the screen observer. The communication conference system according to claim 1, further comprising:
【請求項4】 分割画面の中の一つの小画面に会議資料
が表示されており、この会議資料の小画面を画面着目者
が見たことが検知された場合、画面回転手段は、他の被
着目者の映像情報を考慮することなく前記画面着目者の
顔を前記会議資料の小画面の方向に向けるよう画像パタ
ーンを記憶手段から読み出し、前記画面着目者が表示さ
れている小画面の映像情報に合成する画像回転制御を行
うことを特徴とする請求項1記載の通信会議システム。
4. The conference material is displayed on one small screen of the split screens, and when it is detected that the screen observer sees the small screen of the conference material, the screen rotation means changes to another screen. An image pattern of the small screen in which the screen target person is displayed by reading an image pattern from the storage means so that the face of the screen target person is directed toward the small screen of the conference material without considering the video information of the target person. 2. The communication conference system according to claim 1, wherein the image rotation control for combining the information is performed.
JP7058634A 1995-03-17 1995-03-17 Communication conference system Withdrawn JPH08256316A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7058634A JPH08256316A (en) 1995-03-17 1995-03-17 Communication conference system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7058634A JPH08256316A (en) 1995-03-17 1995-03-17 Communication conference system

Publications (1)

Publication Number Publication Date
JPH08256316A true JPH08256316A (en) 1996-10-01

Family

ID=13090024

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7058634A Withdrawn JPH08256316A (en) 1995-03-17 1995-03-17 Communication conference system

Country Status (1)

Country Link
JP (1) JPH08256316A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6791597B2 (en) 2000-01-17 2004-09-14 Nec Corporation Visual telephone unit and visual telephone system therewith
JP2007300452A (en) * 2006-05-01 2007-11-15 Mitsubishi Electric Corp Image and television broadcast receiver with sound communication function
US7342601B2 (en) * 2000-10-06 2008-03-11 Sony Corporation Communication system, communication device, seating-order determination device, communication method, recording medium, group-determination-table generating method, and group-determination-table generating device
JP2010206307A (en) * 2009-02-27 2010-09-16 Toshiba Corp Information processor, information processing method, information processing program, and network conference system
JP2012074950A (en) * 2010-09-29 2012-04-12 Brother Ind Ltd Remote conference apparatus
US9131109B2 (en) 2013-03-11 2015-09-08 Ricoh Company, Limited Information processing device, display control system, and computer program product
WO2015182440A1 (en) * 2014-05-29 2015-12-03 シャープ株式会社 Television conference system
JP2020144901A (en) * 2015-06-30 2020-09-10 ソニー株式会社 Information processing device, information processing method and program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6791597B2 (en) 2000-01-17 2004-09-14 Nec Corporation Visual telephone unit and visual telephone system therewith
US7342601B2 (en) * 2000-10-06 2008-03-11 Sony Corporation Communication system, communication device, seating-order determination device, communication method, recording medium, group-determination-table generating method, and group-determination-table generating device
US7756675B2 (en) 2000-10-06 2010-07-13 Sony Corporation Group-determination-table generating device and method
JP2007300452A (en) * 2006-05-01 2007-11-15 Mitsubishi Electric Corp Image and television broadcast receiver with sound communication function
JP2010206307A (en) * 2009-02-27 2010-09-16 Toshiba Corp Information processor, information processing method, information processing program, and network conference system
US8514262B2 (en) 2009-02-27 2013-08-20 Kabushiki Kaisha Toshiba Information processing apparatus and network conference system
JP2012074950A (en) * 2010-09-29 2012-04-12 Brother Ind Ltd Remote conference apparatus
US9131109B2 (en) 2013-03-11 2015-09-08 Ricoh Company, Limited Information processing device, display control system, and computer program product
WO2015182440A1 (en) * 2014-05-29 2015-12-03 シャープ株式会社 Television conference system
JPWO2015182440A1 (en) * 2014-05-29 2017-04-20 シャープ株式会社 Video conference system
JP2020144901A (en) * 2015-06-30 2020-09-10 ソニー株式会社 Information processing device, information processing method and program

Similar Documents

Publication Publication Date Title
US5438357A (en) Image manipulating teleconferencing system
CA2157613C (en) Video conference system and method of providing parallax correction and a sense of presence
US5572248A (en) Teleconferencing method and system for providing face-to-face, non-animated teleconference environment
US20040008423A1 (en) Visual teleconferencing apparatus
JP2003506927A (en) Method and apparatus for allowing video conferencing participants to appear in front of an opponent user with focus on the camera
JP2000165831A (en) Multi-point video conference system
WO2010118685A1 (en) System, apparatus and method for remote representation
WO1998047291A2 (en) Video teleconferencing
JPH07154763A (en) Desk-side video conference system
US20220247971A1 (en) Virtual Digital Twin Videoconferencing Environments
Breiteneder et al. TELEPORT—an augmented reality teleconferencing environment
JPH08205197A (en) Human interface device
JP3587106B2 (en) Eye-gaze video conferencing equipment
US11831454B2 (en) Full dome conference
JPH08256316A (en) Communication conference system
US20230231970A1 (en) Device for displaying images, and use of a device of this type
JPH11234640A (en) Communication control system
JPH1056626A (en) Video conference system
JPH0832948A (en) Line of sight coincidental video conference system
JP2004502381A (en) Communication terminal device and communication system
JPH09107534A (en) Video conference equipment and video conference system
JPH11355804A (en) Network conference image processing unit
JP2001092990A (en) Three-dimensional virtual space participant display method, three-dimensional virtual space display device and recording medium stored with three-dimensional virtual space participant display program
JPH09154114A (en) Electronic conference terminal equipment
JP3139100B2 (en) Multipoint image communication terminal device and multipoint interactive system

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20020604