JPH0730877A - Inter-multi location multimedia communications conference system - Google Patents

Inter-multi location multimedia communications conference system

Info

Publication number
JPH0730877A
JPH0730877A JP5171501A JP17150193A JPH0730877A JP H0730877 A JPH0730877 A JP H0730877A JP 5171501 A JP5171501 A JP 5171501A JP 17150193 A JP17150193 A JP 17150193A JP H0730877 A JPH0730877 A JP H0730877A
Authority
JP
Japan
Prior art keywords
conference
multimedia communication
information
image
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5171501A
Other languages
Japanese (ja)
Inventor
Shigeru Fukunaga
茂 福永
哲雄 ▲吉▼田
Tetsuo Yoshida
Toshihisa Nakai
敏久 中井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP5171501A priority Critical patent/JPH0730877A/en
Publication of JPH0730877A publication Critical patent/JPH0730877A/en
Pending legal-status Critical Current

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)

Abstract

PURPOSE:To attain communication of persons taking part in the conference by generating notice information representing who of conference participants is to be noticed and displaying the information on its own multi-medium communications conference equipment. CONSTITUTION:A visual line information transmission display section 6 gives notice party data inputted from the user and position data to a transmission section 7. The visual line information transmission display section 6 receives position data of other participants and notice opposite data from a reception section 8. Furthermore, the visual line information transmission display section 6 calculates where each participant is located and whom each participant is observing based on the data and displays the result. Then the transmission section 7 adds sender destination information to picture data and sends the result to each system through a transmission line 30. Moreover, the transmission section 7 adds sender and destination information to the position data and the notice opposite data obtained from the visual line information transmission display section 6 and sends the result to each system. The information of data kind is added in this transmission.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は多地点間マルチメディ
ア通信会議システムに関し、少なくとも2地点間以上の
マルチメディア通信によって形成されるものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a multipoint multimedia communication conference system, which is formed by at least multimedia communication between two points.

【0002】[0002]

【従来の技術】近年、画像処理技術やネットワーク技術
の向上によって、動画通信を行うシステムが多く実用化
されている。その一つがテレビ会議システムであり、専
用のキャビネットを持つフロア設置型のものから、パー
ソナルコンピュータやワークステーションを通信端末と
して使用するデスクトップ型のものまである。
2. Description of the Related Art In recent years, many systems for moving image communication have been put into practical use due to improvements in image processing technology and network technology. One of them is the video conference system, which ranges from floor-mounted type with a dedicated cabinet to desktop type using a personal computer or workstation as a communication terminal.

【0003】また、2地点間をつなぐだけでなく、3地
点以上の複数の地点間を接続できるものも開発されてい
る。
In addition, not only connecting two points but also connecting three or more points have been developed.

【0004】例えば、この様なテレビ会議システムの実
現を目的とした文献として次の様なものがある。
For example, the following documents are available for the purpose of realizing such a video conference system.

【0005】文献:電子情報通信学会技術研究報告IE
90−49、1990年発行、『B−ISDN用多地点
間マルチメディア通信会議システムPMTC』などがあ
る。
Literature: IEICE Technical Report IE
90-49, issued in 1990, "Multipoint multimedia communication conference system PMTC for B-ISDN" and the like.

【0006】そして、この様なテレビ会議システムは、
基本的には各参加者の顔画像をそれぞれ伝送し、相手の
様子を見ながら会議を勧める。特に、多地点間テレビ会
議システムでは、複数の相手の顔画像を同時に表示し
て、参加者全員の様子を見ながら会議をする。この様子
を図2に示している。
And, such a video conference system is
Basically, each participant's face image is transmitted and the meeting is recommended while watching the other person's appearance. In particular, in a multipoint video conference system, face images of a plurality of partners are displayed at the same time, and a conference is held while watching the appearance of all participants. This state is shown in FIG.

【0007】しかしながら、複数の画像を表示するに
は、例えば、図3に示す様に、複数のメモリや復号器4
などが必要であり、ハードウエアの規模が大きくなると
いう問題点もある。
However, in order to display a plurality of images, for example, as shown in FIG.
However, there is a problem that the scale of hardware becomes large.

【0008】ここで、この図3のテレビ会議システムを
説明する。このテレビ会議システムにおいては、復号器
4を3個備えている。そして、この図3において、符号
器1は、カメラから入力された画像データを符号化する
手段である。送信手段2は、符号化された画像データを
送信元、送信先などの情報を付加し、送信する手段であ
る。そして、受信手段3は、他のシステムからのデータ
を受信し、そのデータを画像データとそれ以外の情報に
分け、更に送信元別にデータを分類し、復号器4a〜4
cに割り当てる手段である。
Now, the video conference system of FIG. 3 will be described. This video conference system includes three decoders 4. In FIG. 3, the encoder 1 is means for encoding the image data input from the camera. The transmission unit 2 is a unit that adds information such as a transmission source and a transmission destination to the encoded image data and transmits the image data. Then, the receiving unit 3 receives the data from the other system, divides the data into image data and other information, further classifies the data according to the transmission source, and the decoders 4a to 4a.
It is a means to assign to c.

【0009】そして、図3の復号器4は、画像データを
復号する手段であり、複数個備えられている。送信元数
が復号器の数寄りも多いときには、1つの復号器で複数
の画像を復号する。その場合、各復号器4a〜4cに
は、復号する画像数だけ、メモリが必要となる。そし
て、画像表示手段5は、それぞれの復号器4a〜4cか
らの画像データを表示する手段である。
The decoder 4 shown in FIG. 3 is a means for decoding the image data, and a plurality of decoders 4 are provided. When the number of transmission sources is close to the number of decoders, one decoder decodes a plurality of images. In that case, each of the decoders 4a to 4c requires a memory for the number of images to be decoded. The image display means 5 is means for displaying the image data from the respective decoders 4a to 4c.

【0010】そして、一般に表示される顔画像は、それ
ぞれの参加者の胸像を正面から捕らえたものであり、そ
の人の表情や顔色、服装や回りの様子などを見てとるこ
とができる。しかしながら、いつもカメラを見ながら話
をする訳ではないので、視線は別の方向を向いている場
合もあり、この場合は、視線不一致である。
The face image generally displayed is a bust of each participant captured from the front, and the facial expression, complexion, clothes, surroundings, etc. of the participant can be seen. However, since the user does not always talk while looking at the camera, his or her line of sight may face another direction, and in this case, the lines of sight do not match.

【0011】そして、人間は、一般的に相手に自分の意
見を強く主張したいときは、相手に目を見て話す。更に
見られた方も自分に対して話されていると認識して普段
よりは真剣に話しを聞くであろう。そこで、視線を一致
させる技術が重要となるが、それだけでは視線の情報は
十分では無い。
[0011] In general, when a person generally wants to strongly assert his / her opinion to the other person, he / she speaks to the other person with his / her eyes. Furthermore, those who are seen will recognize that they are talking to themselves and will listen to them more seriously than usual. Therefore, the technique of matching the line of sight is important, but that is not enough information about the line of sight.

【0012】図4は、実際の会議室での視線の方向を示
す例である。丸○印しは参加者を表している。更に、矢
↑印しはそれぞれの視線の方向を表している。話者A
は、相手Dに対して意見を主張している。これに反応し
て相手Dは、話者Aを見るので、話者Aと相手Dとはお
互いに向かい合っている。この2人の間では、視線一致
は重要である。
FIG. 4 is an example showing the direction of the line of sight in an actual conference room. The circles ○ indicate participants. Furthermore, the arrow ↑ marks indicate the direction of each line of sight. Speaker A
Is arguing for Opponent D. In response to this, the partner D looks at the speaker A, so that the speaker A and the partner D are facing each other. The line of sight is important between the two.

【0013】しかしながら、他の参加者B、Cにとって
は、話者Aが相手Dを見ているということが重要であ
り、視線一致はむしろ邪魔である。即ち、話者Aが自分
の方を向いていないときは、自分に対して話しているの
では無いという事も判断できるからである。
However, it is important for the other participants B and C that the speaker A is looking at the partner D, and the line-of-sight matching is rather an obstacle. That is, it is possible to judge that the speaker A is not talking to himself when the speaker A is not facing him.

【0014】つまり、視線情報(誰が誰を見て話してい
るかを表す情報)は、意思疎通を円滑に行う上で重要な
情報の一つである。
That is, the line-of-sight information (information indicating who is watching who is talking) is one of the important information for smooth communication.

【0015】[0015]

【発明が解決しようとする課題】ところが、実際には上
述の様な従来の多地点間テレビ会議システムでは、参加
者の正面画像をただ伝送・表示しているだけであり、視
線情報は全く伝送されない。つまり、参加者の内、ある
特定の人に対して意見を主張し(伝え)たい場合、カメ
ラを向いて話す(若しくは、視線一致技術が完成してい
る)と、他の参加者全員に視線を向けることになるの
で、他の人までが自分の方向を向いて話されていると勘
違いしてしまうという問題があった。
However, in the conventional multipoint video conference system as described above, the front image of the participant is merely transmitted and displayed, and the line-of-sight information is not transmitted at all. Not done. In other words, if you want to assert (convey) an opinion to a specific person among the participants, talk to the camera (or you have completed the eye-gaze matching technology) and gaze at all the other participants. There was a problem that other people would misunderstand that they were talking in their direction.

【0016】更に、注視されている肝心の人としては、
自分に話されているのでは無いと誤った判断をして、話
者の話しを自分に対するものとして真剣に聞かない様な
問題も起こり得た。
[0016] Further, as a person who is closely watched,
There could have been a problem in which I misjudged that I wasn't speaking to me and didn't take the speaker's speech seriously as if I were speaking to me.

【0017】従って、上述の様な問題から、あたかも同
じ会議室(部屋)で複数の人達が実際に対面して会議を
行っているかの様に行い得る仕組みが要請されている。
つまり、各参加者の視線情報を明示するシステム(仕組
み)を付加することで、各参加者が現在誰を見ているか
が分かり、円滑な意思疎通を支援する仕組みが要請され
ている。
Therefore, from the above-mentioned problems, there is a demand for a mechanism that allows a plurality of people to hold a meeting as if they were actually facing each other in the same meeting room (room).
In other words, by adding a system (mechanism) that clearly shows the line-of-sight information of each participant, it is required to know a mechanism where each participant is currently watching and support a smooth communication.

【0018】この発明は、以上の課題に鑑み為されたも
のであり、その目的とする所は、多地点間で会議に参加
している人の意思疎通を、従来に比べ図り易く支援する
多地点間マルチメディア通信会議システムを提供するこ
とである。
The present invention has been made in view of the above problems, and an object of the present invention is to support communication of people participating in a conference between multiple points more easily than before. A point-to-point multimedia communication conference system is provided.

【0019】[0019]

【課題を解決するための手段】第1の発明は、以上の目
的を達成するために、自マルチメディア通信会議装置の
会議参加者の画像を他のマルチメディア通信会議装置に
伝送し、会議参加者の画像を自マルチメディア通信会議
装置に画像表示させ、多地点間でマルチメディア通信を
行う多地点間マルチメディア通信会議システムにおい
て、以下の特徴的な構成で実現した。
In order to achieve the above object, a first invention transmits an image of a conference participant of its own multimedia communication conference device to another multimedia communication conference device to participate in the conference. The multi-point multimedia communication conferencing system, which displays the image of a person on its own multimedia communication conferencing device and performs multimedia communication between multi-points, has been realized with the following characteristic configuration.

【0020】つまり、自マルチメディア通信会議装置の
会議参加者が他の会議参加者の誰を、又は、他のマルチ
メディア通信会議装置の会議参加者の誰を、注視するか
を表す注視情報(例えば、視線情報や位置情報など)を
生成し、他のマルチメディア通信会議装置に伝送させる
注視情報生成手段と、上記注視情報を自マルチメディア
通信会議装置に表示させる注視情報表示手段とを備える
ことを特徴とする。
In other words, the gaze information indicating which of the other conference participants the conference participant of the own multimedia communication conference device or who of the conference participants of the other multimedia communication conference device observes. Gaze information, position information, etc.), and gaze information generation means for transmitting the gaze information to another multimedia communication conference device, and gaze information display means for displaying the gaze information on the own multimedia communication conference device. Is characterized by.

【0021】また、第2の発明も、自マルチメディア通
信会議装置の会議参加者の画像を他のマルチメディア通
信会議装置に伝送し、会議参加者の画像を自マルチメデ
ィア通信会議装置に画像表示させ、多地点間でマルチメ
ディア通信を行う多地点間マルチメディア通信会議シス
テムにおいて、以下の特徴的な構成で実現した。
Also, in the second invention, the image of the conference participant of the own multimedia communication conference device is transmitted to another multimedia communication conference device, and the image of the conference participant is displayed on the own multimedia communication conference device. The multi-point multimedia communication conference system for multi-point multi-media communication has the following characteristic configuration.

【0022】即ち、上記自マルチメディア通信会議装置
は、誰を注視するかを表す注視情報(例えば、視線情報
や位置情報など)を他のマルチメディア通信会議装置か
ら受信し、この注視情報を表示させる注視情報受信表示
手段を備えることを特徴とする。
That is, the own multimedia communication conference device receives the gaze information (for example, line-of-sight information, position information, etc.) indicating who is to be gazed from another multimedia communication conference device, and displays this gaze information. It is characterized in that it is provided with a gaze information receiving and displaying means.

【0023】更に、上述の第1の発明と、第2の発明と
を合わせ備えた構成の多地点間マルチメディア通信会議
システムも好ましい。
Further, a multipoint multi-media multimedia communication conference system having a combination of the above-mentioned first invention and second invention is also preferable.

【0024】[0024]

【作用】第1の発明によれば、注視情報生成手段は、自
マルチメディア通信会議装置に会議参加者が複数(A、
B)居る場合に、例えば、会議参加者AがBに対して注
視して話しを行うときには、AからBへの注視情報(例
えば、注視線情報)を生成し、他のマルチメディア通信
会議装置に伝送させる。そして、注視情報表示手段によ
って、注視情報を同時に自マルチメディア通信会議装置
に表示できる。しかも、会議参加者の画像とを関係付け
て表示させることもができる。
According to the first aspect of the invention, the gaze information generating means has a plurality of conference participants (A,
B) When there is, for example, when the conference participant A gazes at B and speaks, gaze information (eg gaze line information) from A to B is generated, and another multimedia communication conference device is generated. To be transmitted. Then, the gaze information display means can simultaneously display the gaze information on the own multimedia communication conference apparatus. Moreover, the images of the conference participants can be displayed in association with each other.

【0025】この関係付けは、いかなるものであっても
良い。例えば、参加者の画像は静止画の顔画像又はシン
ボル画像とし、この参加者の画像に、矢印↑などで注視
されている参加者の画像に向けて画像表示することも良
い。
This relation may be anything. For example, the image of the participant may be a still face image or a symbol image, and the image of the participant may be displayed toward the image of the participant who is gazing at the arrow ↑ or the like.

【0026】また、自マルチメディア通信会議装置の会
議参加者Aが、他のマルチメディア通信会議装置の会議
参加者Cに対して注視して話しを行うときには、注視情
報生成手段によってAからCへの注視情報を他のマルチ
メディア通信会議装置に対して伝送させる。そして、こ
の様なAからCへの注視状態も、上記注視情報表示手段
の注視情報によって、会議参加者の関係を客観的に画像
表示させることもできる。
When a conference participant A of his own multimedia communication conference device gazes at a conference participant C of another multimedia communication conference device and talks with him, the gaze information generating means changes from A to C. The gaze information of the above is transmitted to another multimedia communication conference device. Even in such a gaze state from A to C, the relationship between the conference participants can be objectively displayed as an image by the gaze information of the gaze information display means.

【0027】また、第2の発明によれば、自マルチメデ
ィア通信会議装置は、注視情報受信表示手段によって、
他のマルチメディア通信会議装置から注視情報を受信
し、上記注視情報を自マルチメディア通信会議装置に表
示できるので、会議参加者間で注視相手が誰であるかを
画像上で客観的に視認することができる。しかも、会議
参加者の画像に関係付けすることも出来る。
According to the second aspect of the invention, the own multimedia communication conference apparatus is characterized by the gaze information receiving and displaying means.
Since the gaze information can be received from other multimedia communication conferencing devices and the gaze information can be displayed on the own multimedia communication conferencing device, it is possible to objectively visually recognize who is the gaze partner among the conference participants on the image. be able to. Moreover, it can be associated with the images of the conference participants.

【0028】上記注視情報と会議参加者の画像との関係
付けは、上述と同様にいかなるものであっても良い。例
えば、参加者の画像は動画の顔画像とし、そして、注視
関係にある画像2つと、注視関係に無い参加者の画像と
を別配置に画像構成する様な事でも良い。
The relationship between the gaze information and the images of the conference participants may be any as described above. For example, the participant's image may be a moving face image, and the two images in the gaze relationship and the image of the participant not in the gaze relationship may be separately arranged.

【0029】また更に、上述の第1の発明の構成と、上
述の第2の発明の構成とを合わせ備えることによって、
多地点間の意思疎通を益々支援することができる。
Furthermore, by combining the structure of the above-mentioned first invention and the structure of the above-mentioned second invention,
It is possible to support communication between multiple points more and more.

【0030】その他、(1)上述の第1の発明や、第2
の発明において、以下の様な構成を図る採ることによっ
て、更に有効となる。即ち、例えば、会議室を上から見
た構図の平面図を生成し、各参加者の位置を円などで表
示し、視線方向を円から伸びる矢印や線や点などで表示
することによって、各参加者の視線方向を明示すること
も出来る。
In addition, (1) The above-mentioned first invention and the second invention
In the invention described above, it is more effective by adopting the following configuration. That is, for example, by generating a plan view of the composition of the conference room viewed from above, displaying the position of each participant with a circle, etc., and displaying the line-of-sight direction with an arrow, line, or dot extending from the circle, It is also possible to clearly indicate the line of sight of the participants.

【0031】(2)また、例えば、会議参加者の顔画像
や似顔絵画像を配置することで各参加者の位置を画像表
示することも出来る。(3)更に、例えば、各方向を向
いている顔画像や似顔絵画像を切替えて表示することで
視線方向を表すことも出来る。
(2) Further, for example, by arranging the face images and portrait images of the conference participants, the position of each participant can be displayed as an image. (3) Furthermore, for example, the line-of-sight direction can be expressed by switching and displaying the face images and portrait images facing each direction.

【0032】(4)更にまた、例えば、各方向を向いて
いる顔をコンピュータグラフィクス(CG)で合成表示
することで位置と視線方向を表すことも出来る。(5)
また、例えば、自分の位置から見た構図の会議室の画像
を生成し、顔画像や似顔絵画像を画像配置し、コンピュ
ータグラフィクスによって顔画像を合成することで各参
加者の位置と視線方向を表すことも出来る。
(4) Furthermore, for example, the position and the line-of-sight direction can be represented by synthesizing and displaying a face facing each direction by computer graphics (CG). (5)
In addition, for example, an image of a conference room with a composition viewed from one's own position is generated, a face image and a portrait image are arranged, and the face images are combined by computer graphics to represent the position and line-of-sight direction of each participant. You can also do it.

【0033】(6)更に、例えば、自分の視線に合わせ
て、背景や他の参加者の位置を変更して、表示すること
も出来る。(7)更にまた、例えば、各参加者の画像を
切替えて、一部の参加者だけを表示することも出来る。
(6) Furthermore, for example, the background and the positions of other participants can be changed and displayed according to one's line of sight. (7) Furthermore, for example, the images of the participants can be switched to display only some of the participants.

【0034】(8)また、例えば、自分の視線方向に合
わせて表示画像を切替える手段を備えることも出来る。
(9)更に、例えば、いずれの参加者の画像を表示中か
を明示する手段を備えることも出来る。
(8) Further, for example, it is possible to provide a means for switching the display image according to the direction of the line of sight of the user.
(9) Furthermore, for example, a means for clearly indicating which participant's image is being displayed can be provided.

【0035】[0035]

【実施例】次にこの発明を多地点間テレビ会議システム
に適用した場合の好適な実施例を図面を用いて説明す
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A preferred embodiment of the present invention applied to a multipoint video conference system will be described with reference to the drawings.

【0036】(実施例の概要):この実施例では、従来
の顔画像データ以外に、特に視線情報を伝送し、画面に
表示する様に構成する。そこで、参加者全員が仮想的な
一つの場所(会議室)に集まっているものとして、共通
の座標を用意し、それぞれの参加者の位置はその座標で
表す。そして、参加者はこの座標上を自由に移動できる
様に構成とする。
(Outline of Embodiment): In this embodiment, in addition to the conventional face image data, in particular, the sight line information is transmitted and displayed on the screen. Therefore, common coordinates are prepared assuming that all the participants are gathered in one virtual place (meeting room), and the position of each participant is represented by the coordinates. Then, the participants are configured so that they can move freely on these coordinates.

【0037】そして、各参加者は自分自身が見たい相手
を選択する。そして、システムでは、自分の注視相手デ
ータ(自分が誰を見ているかを表すデータ)と、自分の
位置データを全ての参加者へ伝送すると共に、他のシス
テムから伝送されてきた、位置・注視相手データを用い
て、画面上に全参加者の視線情報を表示する様に構成す
る。そこで、上述の様な趣旨のもとに、具体的にこの多
地点間テレビ会議システムを説明する。
Then, each participant selects the person he / she wants to see. Then, the system transmits its own gaze partner data (data indicating who he / she is looking at) and his / her position data to all the participants, as well as the position / gaze transmitted from other systems. It is configured to display the line-of-sight information of all participants on the screen using the partner data. Therefore, based on the above-mentioned purpose, the multipoint video conference system will be specifically described.

【0038】(システムの構成):図1は、第1実施例
の多地点間テレビ会議システムの機能的な構成図であ
る。この図1において、多地点間テレビ会議装置20
は、符号器1と、送信部7と、画像表示部5と、復号器
4a〜4cと、受信部8と、視線情報伝送表示部6とか
ら構成されている。ここで、特徴的な構成は、視線情報
伝送表示部6を備えていることである。この視線情報伝
送表示部6を新たに備えるために、送信部7と、受信部
8とを改善している。
(System Configuration): FIG. 1 is a functional configuration diagram of the multipoint video conference system of the first embodiment. In FIG. 1, a multipoint video conference apparatus 20 is provided.
Is composed of an encoder 1, a transmission unit 7, an image display unit 5, decoders 4a to 4c, a reception unit 8, and a line-of-sight information transmission display unit 6. Here, the characteristic configuration is that the line-of-sight information transmission display unit 6 is provided. The transmission unit 7 and the reception unit 8 are improved in order to newly include the line-of-sight information transmission display unit 6.

【0039】そして、図1の視線情報伝送表示部6は、
使用者から入力される注視相手データと、位置データと
を送信部7に与える。そして、この視線情報伝送表示部
6は、受信部8から他の参加者の位置データと、注視相
手データとを受け取る。更に、これらのデータからそれ
ぞれの参加者がどこに位置し、誰を見ているかを算出
し、これを表示させる。
The line-of-sight information transmission / display section 6 of FIG.
The gaze partner data and the position data input by the user are given to the transmitting unit 7. Then, the line-of-sight information transmission display unit 6 receives the position data of other participants and the gaze partner data from the receiving unit 8. Furthermore, where each participant is located and who is watching is calculated from these data, and this is displayed.

【0040】そして、図1の送信部7は、画像データに
送信元・送信先情報を付加して、伝送路30を通じて各
システムに送信する。また、この送信部7は、視線情報
伝送表示部6から得られる位置データと、注視相手デー
タにも送信元・送信先情報を付加して、各システムに送
信する。この送信のときに、データの種類(例えば、画
像、位置、注視相手)の情報も付加して行う。
Then, the transmitter 7 of FIG. 1 adds the source / destination information to the image data and transmits the image data to each system through the transmission path 30. In addition, the transmitting unit 7 adds the source / destination information to the position data obtained from the line-of-sight information transmission / display unit 6 and the gaze partner data, and transmits the data to each system. At the time of this transmission, the information of the type of data (for example, image, position, watching partner) is also added.

【0041】そして、図1の受信手段8は、各システム
から送られてきたデータを受信し、画像データは復号器
4a〜4cに与え、位置データと注視相手データは視線
情報伝送表示手段6に分類して送るものである。
The receiving means 8 in FIG. 1 receives the data sent from each system, gives the image data to the decoders 4a to 4c, and the position data and the gaze partner data to the visual line information transmission / display means 6. It is classified and sent.

【0042】(視線情報伝送表示部6の構成):図5
は、視線情報伝送表示部6の一構成例の図である。この
図5において、視線情報伝送表示部6は、注視相手選択
部9と、位置座標変更手段10と、位置・注視相手デー
タ多重化部11と、視線方向算出部12と、視線情報表
示部13とから構成されている。
(Structure of line-of-sight information transmission / display section 6): FIG.
FIG. 3 is a diagram showing an example of the configuration of a line-of-sight information transmission display unit 6. In FIG. 5, the line-of-sight information transmission display unit 6 includes a gaze partner selection unit 9, a position coordinate changing unit 10, a position / gaze partner data multiplexing unit 11, a gaze direction calculation unit 12, and a gaze information display unit 13. It consists of and.

【0043】そして、この図5の注視相手選択部9は、
会議の参加者の内、いずれの参加者を見るか、又は、見
ていることにするかを選択するものである。例えば、キ
ーボードなどの入力装置から直接相手名を入力すること
でも実現できる。また、マウス等で画面上に表示されて
いる相手画像を指定したり、視線情報表示部13によっ
て表示されている会議室上の相手を指定することでも実
現することが出来る。
Then, the gazing partner selecting section 9 of FIG.
It is to select which one of the participants of the conference is to be seen or to be seen. For example, it can be realized by directly inputting the partner name from an input device such as a keyboard. It can also be realized by designating the partner image displayed on the screen with a mouse or the like, or by designating the partner in the conference room displayed by the line-of-sight information display unit 13.

【0044】そして、図5の位置座標変更部10は、仮
想的な会議室における共通の座標上で、自分の位置を指
定したり変更するものである。そして、会議開始時に初
期位置を入力し、その後、任意の場所に変更することが
出来る。例えば、キーボードなどの入力装置から直接座
標を入力することでも実現することが出来るし、マウス
等で視線情報表示部13によって画面上に表示されてい
る会議室の場所を指定することでも実現することが出来
る。
The position coordinate changing section 10 in FIG. 5 designates or changes its own position on the common coordinates in the virtual conference room. Then, the initial position can be input at the start of the conference and then changed to an arbitrary position. For example, it can be realized by directly inputting the coordinates from an input device such as a keyboard, or can be realized by designating the location of the conference room displayed on the screen by the line-of-sight information display unit 13 with a mouse or the like. Can be done.

【0045】そして、図5の位置・注視相手データ多重
化部11は、注視相手選択部9と位置座標変更部10と
によって得られた注視相手データと位置データとを多重
化するものである。例えば、図6に示す様に、識別子と
参加者名とから成るヘッダ情報を、位置データと注視相
手データとに付加して多重化する。
The position / gaze partner data multiplexing unit 11 in FIG. 5 multiplexes the gaze partner data and the position data obtained by the gaze partner selecting unit 9 and the position coordinate changing unit 10. For example, as shown in FIG. 6, header information including an identifier and a participant name is added to the position data and the gaze partner data and multiplexed.

【0046】そして、図5の視線方向算出部12は、自
分を含む各参加者の位置・注視相手データから、視線の
方向を算出するものである。例えば、共通の座標上で参
加者AとBとが図7に示す様に、位置しているときに、
AがBを見ているとすると、Aの視線方向はx軸との為
す角度θで表すとして算出することができる。
The line-of-sight direction calculation unit 12 in FIG. 5 calculates the line-of-sight direction from the position / gaze partner data of each participant including himself. For example, when participants A and B are located on common coordinates as shown in FIG. 7,
When A is looking at B, the line-of-sight direction of A can be calculated by being represented by an angle θ with respect to the x-axis.

【0047】そして、図5の視線情報表示部13は、自
分と他の参加者との位置データと、視線方向データとか
ら、誰がどこを見ているかを明示できる様に表示するも
のである。例えば、図8に示す様に、会議室を上から見
た図の中に、丸○と棒線|や符号で表した参加者A〜D
を配置することで表現出来る。そして、棒線|が視線方
向を表すものとする。棒線|以外でも、図9に示す様
に、矢印↑や点●を使って視線方向を表すことも良い。
The line-of-sight information display unit 13 of FIG. 5 displays the position of the user and other participants and the line-of-sight direction data so that it is possible to clearly indicate who is looking at which part. For example, as shown in FIG. 8, participants A to D represented by circles and bars |
Can be expressed by placing. Then, the bar line | represents the line-of-sight direction. In addition to the bar line |, as shown in FIG.

【0048】また、図10に示す様に、顔画像や似顔絵
を会議室上に配置することで位置情報を表し、これらを
回転したり、異なる方向を向いた画像に切替えることに
よって、視線方向を表すこともできる。
Further, as shown in FIG. 10, by arranging a face image and a portrait in the conference room, position information is represented, and by rotating these or switching to images facing different directions, the line-of-sight direction can be changed. It can also be represented.

【0049】また、コンピュータグラフィクス(CG)
の技術を用いて、図11に示す様に、3次元的に自分の
方向を見た会議室の様子を表示し、見る方向によって、
表示がリアルタイムに変化する様にすると、より現実感
が得られる。そして、会議室中の人の顔も本人のデータ
をもとに合成すると、誰がどこを見ているかがより分か
り易くなる。
Computer graphics (CG)
11 is used to display the state of the conference room in which the user's direction is three-dimensionally viewed, as shown in FIG.
If the display is changed in real time, a more realistic feeling can be obtained. Then, if the faces of people in the conference room are also synthesized based on the data of the person, it becomes easier to understand who is looking where.

【0050】この様な会議室の図を、図12に示す様
に、従来からのシステムの画面上に顔画像121a〜d
と一緒に表示することで、視線情報表示122を付加し
たテレビ会議システムを実現することができる。
As shown in FIG. 12, a diagram of such a conference room is displayed on the screen of the conventional system as the face images 121a to 121d.
By displaying together with, it is possible to realize a video conference system to which the line-of-sight information display 122 is added.

【0051】また、本来、人間は自分が見ている人以外
は、それほどはっきりと見えず、雰囲気だけを感じてい
るものである。そこで、視線情報表示が図11に示す様
に現実味を帯びてくると、他の人の情報はここから得ら
れるので、顔画像を表示しなくても良くなる。即ち、見
たい人の画像だけを伝送・表示すれば良いので、例え
ば、第2実施例の図13の機能ブロック図に示す様に、
この場合には、復号器4が一つで済み、ハードウエアの
規模も小さくなる。
Originally, human beings do not see so clearly except the person they are seeing, and feel only the atmosphere. Therefore, when the line-of-sight information display becomes realistic as shown in FIG. 11, the information of other people can be obtained from here, so that it is not necessary to display the face image. That is, since only the image of the person who wants to see needs to be transmitted and displayed, for example, as shown in the functional block diagram of FIG. 13 of the second embodiment,
In this case, only one decoder 4 is required, and the scale of hardware is reduced.

【0052】尚、図13において、復号器4を一つにし
ている以外は、図1と同じ構成としている。従って、こ
のときに、1つの復号器4で表示する画像は、図5にお
ける視線方向算出部12によって選定され、それによっ
て、図5の注視相手選択部9が画像データを切替える訳
である。
In FIG. 13, the configuration is the same as that of FIG. 1 except that only one decoder 4 is provided. Therefore, at this time, the image displayed by one decoder 4 is selected by the line-of-sight direction calculation unit 12 in FIG. 5, whereby the gaze target selection unit 9 in FIG. 5 switches the image data.

【0053】また、見たい画像の送信元にのみ画像を要
求し、それ以外の参加者からは画像データを伝送しない
様にすると、ネットワークの負荷がかなり軽減される。
If the image is requested only to the sender of the image to be viewed and the image data is not transmitted from the other participants, the load on the network is considerably reduced.

【0054】そして、画像切替方式のテレビ会議システ
ムの構成例を第3実施例の図14に示している。この図
14において、会議室上のいずれの参加者の画像かを明
示することで、自分が今誰を見ているかが分かり易くな
る様に構成している。
FIG. 14 of the third embodiment shows an example of the structure of the image switching type video conference system. In FIG. 14, by clearly indicating which participant's image in the conference room, it is configured so that it is easy to see who is currently watching.

【0055】(実施例の効果):(1)以上の第1実施
例〜第3実施例の多地点間テレビ会議システムによれ
ば、各参加者が誰を見ているかが客観的に分かるので、
例えば、話者が誰に対して特に意見を主張したいかが認
識でき、円滑な意思疎通を支援する事が可能となる。
(Effects of Embodiment): (1) According to the multipoint video conference system of the first to third embodiments, it is possible to objectively know who each participant is watching. ,
For example, it is possible to recognize to whom the speaker wants to particularly make an opinion, and it is possible to support smooth communication.

【0056】(2)また、第3実施例によれば、各参加
者の全画像を一時に全て伝送表示せず、切替えて表示し
ても、得られる情報量を減らすこと無く、会議は実施で
きるので、伝送路(ネットワーク)の負荷を軽減させる
ことができる。
(2) In addition, according to the third embodiment, all the images of each participant are not transmitted and displayed at one time, and even if they are switched and displayed, the conference can be conducted without reducing the amount of information obtained. Therefore, the load on the transmission line (network) can be reduced.

【0057】(他の実施例):(1)尚、以上の第1実
施例の図1において、機能構成はこの図1の構成に限定
するものでは無い。例えば、復号器4a〜4cで構成し
ているが、ネットワークを形成するテレビ会議装置の数
に合わせて、更に多く構成することも望ましい。また、
更に他の機能構成を追加構成することでも良い。例え
ば、音声情報を伝送し、参加者の会話音声と共に上述の
実施例の画像を表示できるマルチメディアシステムが好
ましい。また、第2実施例の図13についても同様に、
この様な構成に限定するものでは無い。
(Other Embodiments): (1) In the above first embodiment shown in FIG. 1, the functional configuration is not limited to that shown in FIG. For example, although the decoders 4a to 4c are used, it is desirable that the number of decoders 4a to 4c be increased according to the number of video conference devices forming the network. Also,
Further, another functional configuration may be additionally configured. For example, a multimedia system capable of transmitting audio information and displaying the images of the above-described embodiments along with the participant's conversational audio is preferred. In addition, similarly for FIG. 13 of the second embodiment,
The configuration is not limited to this.

【0058】(2)また、図5の視線情報伝送表示手段
6の機能構成についても、この様な構成に限定するもの
では無い。例えば、他の機能構成を追加構成することで
も良い。
(2) The functional configuration of the line-of-sight information transmission / display means 6 of FIG. 5 is not limited to such a configuration. For example, another functional configuration may be added.

【0059】(3)更に、上述の実施例の図6の位置・
注視相手データの多重化の構成は、この様な構成に限定
するものでは無い。他の情報を追加構成することであっ
ても良い。
(3) Further, the position of FIG.
The structure of multiplexing the gaze partner data is not limited to such a structure. Other information may be additionally configured.

【0060】(4)更にまた、上述の実施例の図7の視
線方向の算出の仕方についても、これに限定するもので
は無い。
(4) Furthermore, the method of calculating the line-of-sight direction in FIG. 7 of the above embodiment is not limited to this.

【0061】(5)また、上述の実施例の図8〜図1
2、図14の画像表示例についても、これらの画像表示
例に限定するものでは無い。例えば、動画や静止画や画
像合成技術を使用して、この発明の要旨を変更し無い範
囲で、様々な表示方法が適用可能である。
(5) Further, FIGS. 8 to 1 of the above-mentioned embodiment.
The image display examples in FIGS. 2 and 14 are not limited to these image display examples. For example, various display methods can be applied by using a moving image, a still image, or an image synthesizing technique without changing the gist of the present invention.

【0062】(6)更に、上述の実施例では、テレビジ
ョンによる会議を例に説明したが、この様なテレビジョ
ン方式に限定するものでは無い。
(6) Furthermore, in the above-mentioned embodiment, the conference by the television was explained as an example, but the present invention is not limited to such a television system.

【0063】[0063]

【発明の効果】以上述べた様にこの発明の多地点間マル
チメディア通信会議システムによれば、会議参加者間の
注視状態を注視情報として伝送し、マルチメディア通信
会議装置の会議参加者の間の注視情報を表示出来るの
で、会議参加者間の注視関係を客観的に理解させること
ができ、多地点間で会議に参加している人の意思疎通
を、従来に比べ図り易く支援することができる。
As described above, according to the multipoint multimedia communication conference system of the present invention, the gaze state between the conference participants is transmitted as the gaze information so that the conference participants of the multimedia communication conference device can communicate with each other. Since the gaze information can be displayed, it is possible to objectively understand the gaze relationship between the participants in the conference, and it is possible to support the communication of the people participating in the conference between multiple points more easily than before. it can.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の第1実施例の多地点間テレビ会議シ
ステムの構成図である。
FIG. 1 is a configuration diagram of a multipoint video conference system according to a first embodiment of the present invention.

【図2】従来例のテレビ会議システムにおける画面表示
の一例図である。
FIG. 2 is an example of a screen display in a conventional video conference system.

【図3】従来例の多地点間テレビ会議システムの構成図
である。
FIG. 3 is a configuration diagram of a conventional multipoint video conference system.

【図4】従来の課題を説明するための説明図である。FIG. 4 is an explanatory diagram for explaining a conventional problem.

【図5】一実施例の視線情報伝送表示部の機能構成例の
図である。
FIG. 5 is a diagram of a functional configuration example of a line-of-sight information transmission display unit according to an embodiment.

【図6】一実施例の位置・注視相手データの多重化の例
の図である。
FIG. 6 is a diagram illustrating an example of multiplexing position / gaze partner data according to an embodiment.

【図7】一実施例の視線方向の算出例の説明図である。FIG. 7 is an explanatory diagram of an example of calculation of a line-of-sight direction according to an embodiment.

【図8】一実施例の視線情報表示の例の図である。FIG. 8 is a diagram illustrating an example of line-of-sight information display according to an embodiment.

【図9】一実施例の視線方向の表示例の図である。FIG. 9 is a diagram illustrating a display example of a line-of-sight direction according to an embodiment.

【図10】一実施例の視線方向の表示例の図である。FIG. 10 is a diagram illustrating a display example of a line-of-sight direction according to an embodiment.

【図11】一実施例の視線情報表示の例の図である。FIG. 11 is a diagram illustrating an example of line-of-sight information display according to an embodiment.

【図12】一実施例のテレビ会議システムにおける画面
表示例の図である。
FIG. 12 is a diagram showing an example of a screen display in the video conference system according to the embodiment.

【図13】第2実施例の多地点間テレビ会議システムの
構成図である。
FIG. 13 is a block diagram of a multipoint video conference system of a second embodiment.

【図14】第3実施例の多地点間テレビ会議システムに
よる画面表示の例の図である。
FIG. 14 is a diagram showing an example of a screen display by the multipoint video conference system of the third embodiment.

【符号の説明】[Explanation of symbols]

4…復号器、5…画像表示部、6…視線情報伝送表示
部、7…送信部、8…受信部、20…多地点間テレビ会
議装置、30…伝送路。
4 ... Decoder, 5 ... Image display unit, 6 ... Line-of-sight information transmission display unit, 7 ... Transmitting unit, 8 ... Receiving unit, 20 ... Multipoint video conference device, 30 ... Transmission line.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 自マルチメディア通信会議装置の会議参
加者の画像を他のマルチメディア通信会議装置に伝送
し、会議参加者の画像を自マルチメディア通信会議装置
に画像表示させ、多地点間でマルチメディア通信を行う
多地点間マルチメディア通信会議システムにおいて、 自マルチメディア通信会議装置の会議参加者が他の会議
参加者の誰を、又は、他のマルチメディア通信会議装置
の会議参加者の誰を、注視するかを表す注視情報を生成
し、他のマルチメディア通信会議装置に伝送させる注視
情報生成手段と、 上記注視情報を自マルチメディア通信会議装置に表示さ
せる注視情報表示手段とを備えることを特徴とする多地
点間マルチメディア通信会議システム。
1. An image of a conference participant of the own multimedia communication conference device is transmitted to another multimedia communication conference device, and the image of the conference participant is displayed on the own multimedia communication conference device as an image. In a multipoint multimedia communication conference system that performs multimedia communication, the conference participant of the own multimedia communication conference device is who of the other conference participants, or who of the conference participants of the other multimedia communication conference device. Is provided with gaze information generation means for generating gaze information indicating whether to gaze and transmitting the gaze information to another multimedia communication conference device, and gaze information display means for displaying the gaze information on the own multimedia communication conference device. Multipoint multimedia communication conferencing system characterized by.
【請求項2】 自マルチメディア通信会議装置の会議参
加者の画像を他のマルチメディア通信会議装置に伝送
し、会議参加者の画像を自マルチメディア通信会議装置
に画像表示させ、多地点間でマルチメディア通信を行う
多地点間マルチメディア通信会議システムにおいて、 上記自マルチメディア通信会議装置は、誰を注視するか
を表す注視情報を他のマルチメディア通信会議装置から
受信し、この注視情報を表示させる注視情報受信表示手
段を備えることを特徴とする多地点間マルチメディア通
信会議システム。
2. An image of a conference participant of the own multimedia communication conference device is transmitted to another multimedia communication conference device, and the image of the conference participant is displayed on the own multimedia communication conference device as an image. In a multi-point multimedia communication conference system for performing multimedia communication, the self multimedia communication conferencing device receives gaze information indicating who to gaze from another multimedia communication conferencing device and displays the gaze information. An inter-multipoint multimedia communication conference system comprising gaze information receiving / displaying means.
JP5171501A 1993-07-12 1993-07-12 Inter-multi location multimedia communications conference system Pending JPH0730877A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5171501A JPH0730877A (en) 1993-07-12 1993-07-12 Inter-multi location multimedia communications conference system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5171501A JPH0730877A (en) 1993-07-12 1993-07-12 Inter-multi location multimedia communications conference system

Publications (1)

Publication Number Publication Date
JPH0730877A true JPH0730877A (en) 1995-01-31

Family

ID=15924276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5171501A Pending JPH0730877A (en) 1993-07-12 1993-07-12 Inter-multi location multimedia communications conference system

Country Status (1)

Country Link
JP (1) JPH0730877A (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11234640A (en) * 1998-02-17 1999-08-27 Sony Corp Communication control system
WO2000022823A1 (en) * 1998-10-09 2000-04-20 Sony Corporation Communication apparatus and method
JP2000138913A (en) * 1998-10-30 2000-05-16 Sony Corp Information processing unit its method and served medium
JP2003512798A (en) * 1999-10-18 2003-04-02 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー Personal mobile communication device
US7705877B2 (en) 2004-01-28 2010-04-27 Hewlett-Packard Development Company, L.P. Method and system for display of facial features on nonplanar surfaces
JP2010200150A (en) * 2009-02-26 2010-09-09 Toshiba Corp Terminal, server, conference system, conference method, and conference program
JP2010206307A (en) * 2009-02-27 2010-09-16 Toshiba Corp Information processor, information processing method, information processing program, and network conference system
JP2012165170A (en) * 2011-02-07 2012-08-30 Nippon Telegr & Teleph Corp <Ntt> Conference device, conference method and conference program
JP2014086775A (en) * 2012-10-19 2014-05-12 Nippon Telegr & Teleph Corp <Ntt> Video communication system and video communication method
JP2015070472A (en) * 2013-09-30 2015-04-13 株式会社Jvcケンウッド Communication terminal, and method and program for output control of the same
US9131109B2 (en) 2013-03-11 2015-09-08 Ricoh Company, Limited Information processing device, display control system, and computer program product
WO2016158014A1 (en) * 2015-03-31 2016-10-06 ソニー株式会社 Information processing device, communication system, information processing method, and program
JP2017103801A (en) * 2017-01-19 2017-06-08 株式会社Jvcケンウッド Communication terminal, communication terminal control method, and communication terminal control program
WO2017141584A1 (en) * 2016-02-16 2017-08-24 ソニー株式会社 Information processing apparatus, information processing system, information processing method, and program
JP2018526690A (en) * 2016-07-26 2018-09-13 ペキン シャオミ モバイル ソフトウェア カンパニー, リミテッド Object identification method, apparatus and virtual reality device in virtual reality communication
JP2018206391A (en) * 2017-06-06 2018-12-27 トムソン ライセンシングThomson Licensing Method and apparatus for inciting viewer to rotate toward reference direction when consuming immersive content item
JP2019062320A (en) * 2017-09-25 2019-04-18 株式会社リコー Communication terminal, image communication system, display method, and program
WO2020139738A1 (en) * 2018-12-27 2020-07-02 Facebook Technologies, Llc Visual indicators of user attention in ar/vr environment
CN115546877A (en) * 2022-11-16 2022-12-30 深圳市湘凡科技有限公司 Visual angle adjusting method and device

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11234640A (en) * 1998-02-17 1999-08-27 Sony Corp Communication control system
WO2000022823A1 (en) * 1998-10-09 2000-04-20 Sony Corporation Communication apparatus and method
US6606111B1 (en) 1998-10-09 2003-08-12 Sony Corporation Communication apparatus and method thereof
JP2000138913A (en) * 1998-10-30 2000-05-16 Sony Corp Information processing unit its method and served medium
JP2003512798A (en) * 1999-10-18 2003-04-02 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー Personal mobile communication device
US7705877B2 (en) 2004-01-28 2010-04-27 Hewlett-Packard Development Company, L.P. Method and system for display of facial features on nonplanar surfaces
JP2010200150A (en) * 2009-02-26 2010-09-09 Toshiba Corp Terminal, server, conference system, conference method, and conference program
JP2010206307A (en) * 2009-02-27 2010-09-16 Toshiba Corp Information processor, information processing method, information processing program, and network conference system
US8514262B2 (en) 2009-02-27 2013-08-20 Kabushiki Kaisha Toshiba Information processing apparatus and network conference system
JP2012165170A (en) * 2011-02-07 2012-08-30 Nippon Telegr & Teleph Corp <Ntt> Conference device, conference method and conference program
JP2014086775A (en) * 2012-10-19 2014-05-12 Nippon Telegr & Teleph Corp <Ntt> Video communication system and video communication method
US9131109B2 (en) 2013-03-11 2015-09-08 Ricoh Company, Limited Information processing device, display control system, and computer program product
JP2015070472A (en) * 2013-09-30 2015-04-13 株式会社Jvcケンウッド Communication terminal, and method and program for output control of the same
WO2016158014A1 (en) * 2015-03-31 2016-10-06 ソニー株式会社 Information processing device, communication system, information processing method, and program
US10136101B2 (en) 2015-03-31 2018-11-20 Sony Corporation Information processing apparatus, communication system, and information processing method
WO2017141584A1 (en) * 2016-02-16 2017-08-24 ソニー株式会社 Information processing apparatus, information processing system, information processing method, and program
CN108702482A (en) * 2016-02-16 2018-10-23 索尼公司 Information processing equipment, information processing system, information processing method and program
JPWO2017141584A1 (en) * 2016-02-16 2018-12-06 ソニー株式会社 Information processing apparatus, information processing system, information processing method, and program
US10389976B2 (en) 2016-02-16 2019-08-20 Sony Corporation Information processing apparatus, information processing system, and information processing method
JP2018526690A (en) * 2016-07-26 2018-09-13 ペキン シャオミ モバイル ソフトウェア カンパニー, リミテッド Object identification method, apparatus and virtual reality device in virtual reality communication
US10642569B2 (en) 2016-07-26 2020-05-05 Beijing Xiaomi Mobile Software Co., Ltd. Methods and devices for identifying object in virtual reality communication, and virtual reality equipment
JP2017103801A (en) * 2017-01-19 2017-06-08 株式会社Jvcケンウッド Communication terminal, communication terminal control method, and communication terminal control program
JP2018206391A (en) * 2017-06-06 2018-12-27 トムソン ライセンシングThomson Licensing Method and apparatus for inciting viewer to rotate toward reference direction when consuming immersive content item
JP2019062320A (en) * 2017-09-25 2019-04-18 株式会社リコー Communication terminal, image communication system, display method, and program
WO2020139738A1 (en) * 2018-12-27 2020-07-02 Facebook Technologies, Llc Visual indicators of user attention in ar/vr environment
CN115546877A (en) * 2022-11-16 2022-12-30 深圳市湘凡科技有限公司 Visual angle adjusting method and device
CN115546877B (en) * 2022-11-16 2023-03-31 深圳市湘凡科技有限公司 Visual angle adjusting method and device

Similar Documents

Publication Publication Date Title
JPH0730877A (en) Inter-multi location multimedia communications conference system
Jerome et al. Cyberspace: Creating a therapeutic environment for telehealth applications.
Gibbs et al. Teleport–towards immersive copresence
US6208373B1 (en) Method and apparatus for enabling a videoconferencing participant to appear focused on camera to corresponding users
Vertegaal The GAZE groupware system: mediating joint attention in multiparty communication and collaboration
US7616226B2 (en) Video conference system and a method for providing an individual perspective view for a participant of a video conference between multiple participants
EP0942396B1 (en) Shared virtual space display method and apparatus using said method
US8319819B2 (en) Virtual round-table videoconference
Vertegaal et al. Gaze-2: conveying eye contact in group video conferencing using eye-controlled camera direction
US6330022B1 (en) Digital processing apparatus and method to support video conferencing in variable contexts
Billinghurst et al. Asymmetries in collaborative wearable interfaces
WO2016024288A1 (en) Realistic viewing and interaction with remote objects or persons during telepresence videoconferencing
US12032735B2 (en) Method and apparatus for real-time data communication in full-presence immersive platforms
Bondareva et al. Determinants of social presence in videoconferencing
Steptoe et al. Acting rehearsal in collaborative multimodal mixed reality environments
Kachach et al. The owl: Immersive telepresence communication for hybrid conferences
JP2001526502A (en) Conference facilities
JP2005055846A (en) Remote educational communication system
Walker et al. Telepresence—the future of telephony
Traill et al. Interactive collaborative media environments
JP2000231644A (en) Speaker, specifying method for virtual space and recording medium where program thereof is recorded
Seligmann et al. Providing assurances in a multimedia interactive environment
Zaman et al. Mrmac: Mixed reality multi-user asymmetric collaboration
Billinghurst et al. Collaboration with wearable computers
Suwita et al. Overcoming human factors deficiencies of videocommunications systems by means of advanced image technologies