JP2009147792A - Communication apparatus with image, communication display method with image, program and communication system with image - Google Patents

Communication apparatus with image, communication display method with image, program and communication system with image Download PDF

Info

Publication number
JP2009147792A
JP2009147792A JP2007324752A JP2007324752A JP2009147792A JP 2009147792 A JP2009147792 A JP 2009147792A JP 2007324752 A JP2007324752 A JP 2007324752A JP 2007324752 A JP2007324752 A JP 2007324752A JP 2009147792 A JP2009147792 A JP 2009147792A
Authority
JP
Japan
Prior art keywords
image
difference
communication
display device
gaze direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007324752A
Other languages
Japanese (ja)
Inventor
Shinichi Doi
伸一 土井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2007324752A priority Critical patent/JP2009147792A/en
Publication of JP2009147792A publication Critical patent/JP2009147792A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a communication apparatus with an image capable of calculating and displaying an eye direction of a participant at a communication partner side only through processing at a receiving side, without providing a dedicated device or processing section at the communication partner side. <P>SOLUTION: A communication apparatus with an image comprises: a transmitting/receiving section 11 for receiving an image from a communication partner; a participant detecting section 13 and a gaze direction detecting section 14 for detecting, from the image received by the transmitting/receiving section 11, the face of a person and a gaze direction within the image; a display device position estimating section 15 for estimating a position of an image display device at a side of the communication partner from the image received by the transmitting/receiving section 11; a gaze direction difference calculating section 16 for calculating a difference between the gaze direction within the image and a direction of the position of the image display device at the communication partner side; a display section 3 for displaying thereon the image received by an image receiving means; and a gaze direction difference display section 17 for displaying on the display section 3 the difference calculated by the gaze direction difference calculating section 16 together with the received image. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は音声信号と画像信号とを符号化し、通信ネットワークを経由して送信する画像付通信装置、画像付通信表示方法、プログラムおよび画像付通信システムに関する。   The present invention relates to an image-attached communication apparatus, an image-attached communication display method, a program, and an image-added communication system that encode an audio signal and an image signal and transmit them through a communication network.

近年、映像処理技術や通信技術の発達により、テレビ会議やWEB会議、テレビ電話等の画像を介した遠隔コミュニケーション環境が実用に供されるようになってきている。今後特にビジネスの分野においては、職場・勤務時間帯の分散、テレワークの普及などのワークスタイルの変遷等に伴い、画像を伴う円滑な遠隔コミュニケーションの重要性はますます高まることは必至である。   In recent years, with the development of video processing technology and communication technology, a remote communication environment through images such as a video conference, a WEB conference, and a video phone has been put into practical use. In the future, especially in the business field, the importance of smooth remote communication with images will inevitably increase as work style changes such as the spread of work and working hours and the spread of telework.

テレビ会議とは、通信ネットワークを介して複数の遠隔地を結んで、双方向に画像および音声を伝達する技術をいう。通信ネットワークとして回線交換網またはコネクションレスのパケット交換網のいずれも用いられる。テレビ会議は、会議向けに設定されたグループウェアの1種でもある。   Video conferencing is a technology that connects a plurality of remote locations via a communication network and transmits images and sounds in both directions. Either a circuit switching network or a connectionless packet switching network is used as the communication network. A video conference is also a kind of groupware set for a conference.

遠隔コミュニケーション環境で対面と同様に円滑なコミュニケーションを行うためには、ローカルの参加者とリモートの参加者の視線が一致することが望ましい。しかし現実には、物理的な制約でカメラとモニタを同一線上に置くことができず、視線がずれてしまうことがある。これを解決する技術として、ハーフミラーや合成映像、キャラクタ表示などによって視線一致を実現する様々な方法が提案されている(特許文献1、特許文献2、特許文献3、特許文献4)。   In order to perform smooth communication as in the face-to-face in a remote communication environment, it is desirable that the line of sight of local participants and remote participants match. However, in reality, the camera and the monitor cannot be placed on the same line due to physical restrictions, and the line of sight may be shifted. As a technique for solving this, various methods for realizing line-of-sight matching by a half mirror, a composite video, a character display, and the like have been proposed (Patent Document 1, Patent Document 2, Patent Document 3, and Patent Document 4).

一方で、遠隔コミュニケーションシステムにおいて、視線が一致しないまでも、リモート側の参加者がどの方向を注視しているかの情報だけでも得られれば、会話の一助になる。この情報を得るための技術として、リモート側の視線情報を抽出して表示する技術が提案されている(特許文献5、特許文献6)。ここでは、リモート側に備えられた視線検出装置が参加者の視線方向を検出し、その情報がローカル側に表示される。
特開平04−154289号公報 特開平05−227528号公報 特開平05−284493号公報 特開2005−218103号公報 特開2003−244669号公報 特開2005−340974号公報
On the other hand, in the remote communication system, even if information on which direction the remote participant is gazing at can be obtained even if the line of sight does not match, it will help the conversation. As a technique for obtaining this information, techniques for extracting and displaying remote line-of-sight information have been proposed (Patent Documents 5 and 6). Here, the gaze detection device provided on the remote side detects the gaze direction of the participant, and the information is displayed on the local side.
Japanese Patent Laid-Open No. 04-154289 JP 05-227528 A JP 05-284493 A JP-A-2005-218103 JP 2003-244669 A JP 2005-340974 A

関連する技術のローカルの参加者とリモートの参加者の視線を一致させる技術は、様々な特殊な機材や多くの計算を必要とするものであり、実際の会議システムで使用するのは容易ではない。   The technology to match the line of sight of local and remote participants in related technologies requires various special equipment and a lot of calculations and is not easy to use in a real conference system .

関連する技術の第1の問題点は、任意の地点との遠隔コミュニケーションに適用することが難しいことである。その理由は、リモート側に視線抽出を行うための専用の装置や処理部が必要なためである。一般に遠隔コミュニケーションは、特定の地点とのみ行われるわけではなく、全てのリモート側に専用の装置や処理部を予め用意しておくことは困難である。   The first problem of the related technology is that it is difficult to apply to remote communication with an arbitrary point. The reason is that a dedicated device or processing unit is required on the remote side for line-of-sight extraction. In general, remote communication is not performed only with a specific point, and it is difficult to prepare dedicated devices and processing units in advance on all remote sides.

第2の問題点は、リモート側の参加者がローカル側の話者を見ているのか否かが簡単には分からないことである。その理由は、リモート側の参加者の視線方向をそのまま表示しているためである。   The second problem is that it is not easy to know whether the remote participant is looking at the local speaker. This is because the viewing direction of the participant on the remote side is displayed as it is.

第3の問題点はリモート側の参加者が複数の際に、多くの参加者の視線方向をそのまま表示したのでは、参加者全体がどこに注視しているかがわかりにくいことである。その理由は複数参加者の視線方向を統合する手段を持たないためである。   The third problem is that it is difficult to know where the entire participant is gazing if the viewing direction of many participants is displayed as it is when there are a plurality of remote participants. The reason is that there is no means for integrating the gaze directions of a plurality of participants.

本発明は上述のような課題に鑑みてなされたものであり、その目的は、通信相手側に専用の装置や処理部を設けることなく、受信側の処理だけで通信相手側の参加者の視線方向を計算し、表示することのできる画像付通信装置を提供することにある。   The present invention has been made in view of the above-described problems, and its purpose is to provide a line of sight of a participant on the communication partner side only by processing on the reception side without providing a dedicated device or processing unit on the communication partner side. An object of the present invention is to provide a communication device with an image that can calculate and display a direction.

本発明において、画像付通信装置または画像付通信システムは、テレビ会議の外に、テレビ電話、WEB会議、ビデオチャットなど様々な名称で呼ばれる画像を伴う通信全般を含む。   In the present invention, the communication device with an image or the communication system with an image includes communication in general with images called by various names such as a videophone, a WEB conference, and a video chat in addition to the video conference.

本発明の他の目的は、リモート側の参加者がローカル側の話者を見ているのか否かがすぐに分かる形でリモート側の参加者の視線方向をローカル側に表示することのできる画像付通信装置を提供することにある。また、本発明の更に他の目的は、リモート側の参加者が複数の際に、複数参加者の視線方向を統合して表示することで、リモート側の参加者全体がどこに注視しているかがローカル側の話者にとってわかりやすい画像付通信装置を提供することにある。   Another object of the present invention is to provide an image capable of displaying the line-of-sight direction of a remote participant on the local side in such a way that it can be immediately known whether or not the remote participant is looking at the local speaker. It is to provide an attached communication device. In addition, another object of the present invention is to display where a plurality of participants on the remote side are gazing at a plurality of participants on the remote side, thereby displaying where the entire participant on the remote side is gazing. An object of the present invention is to provide a communication device with an image that is easy for a local speaker to understand.

本発明の第1の観点に係る画像付通信装置は、
通信相手から画像を受信する画像受信手段と、
前記画像受信手段で受信した画像から人物の顔とその画像内における注視方向を検出する検出手段と、
前記画像受信手段で受信した画像から通信相手側の画像表示装置の位置を推定する推定手段と、
前記画像内の注視方向と前記通信相手側の画像表示装置の位置の方向との差分を算出する差分算出手段と、
前記画像受信手段で受信した画像を表示する画像表示手段と、
前記画像受信手段で受信した画像とともに、前記差分算出手段で算出した差分を前記画像表示手段に表示する差分表示手段と、
を備えることを特徴とする。
The communication device with an image according to the first aspect of the present invention is:
Image receiving means for receiving an image from a communication partner;
Detecting means for detecting a human face and a gaze direction in the image from the image received by the image receiving means;
Estimating means for estimating the position of the image display device on the communication partner side from the image received by the image receiving means;
Difference calculating means for calculating a difference between the gaze direction in the image and the direction of the position of the image display device on the communication partner side;
Image display means for displaying an image received by the image receiving means;
A difference display means for displaying the difference calculated by the difference calculation means on the image display means together with the image received by the image receiving means;
It is characterized by providing.

好ましくは、前記推定手段は、前記画像内における注視方向を所定の時間にわたって観測することによって、前記通信相手側の画像表示装置の位置を推定する。   Preferably, the estimation means estimates the position of the image display device on the communication partner side by observing a gaze direction in the image over a predetermined time.

または、前記推定手段は、前記画像内に通信相手側の画像表示装置を検出した場合に、その位置を前記画像表示装置の位置と推定する。   Alternatively, when the estimation unit detects an image display device on the communication partner side in the image, the estimation unit estimates the position as the position of the image display device.

または、前記推定手段は、前記画像内に通信相手側の画像表示装置の投射装置を検出した場合に、その位置と方向とから前記通信相手側の画像表示装置の位置を推定する。   Alternatively, when the projection unit of the image display device on the communication partner side is detected in the image, the estimation unit estimates the position of the image display device on the communication partner side from the position and direction.

好ましくは、前記差分表示手段は、前記差分算出手段で算出した差分を、前記通信相手側の画像表示装置の方向とそれ以外との2通りのいずれかに分類して表示する。   Preferably, the difference display means classifies and displays the difference calculated by the difference calculation means by classifying the difference into either one of the direction of the image display device on the communication partner side and the other.

または、前記差分表示手段は、前記差分算出手段で算出した差分を、前記通信相手側の画像表示装置の方向とその右および左の3通りのいずれかに分類して表示する。   Alternatively, the difference display means classifies and displays the difference calculated by the difference calculation means by classifying the difference into one of the direction of the image display device on the communication partner side and the right and left.

好ましくは、前記検出手段は、前記画像受信手段で受信した画像に複数の人物の顔を検出した場合に、それぞれの人物について前記画像内の注視方向を検出し、
前記差分算出手段は、前記複数の人物の注視方向が交わる点のうち、その点を通る注視方向の数が最大の点について、その点を通る注視方向を合成した合成注視方向と前記画像表示装置の方向との差分を算出し、
前記差分表示手段は、前記合成注視方向と画像表示装置の方向との差分を表示する。
Preferably, when detecting a plurality of human faces in the image received by the image receiving unit, the detecting unit detects a gaze direction in the image for each person,
The difference calculation means is a composite gaze direction obtained by synthesizing a gaze direction passing through a point having a maximum number of gaze directions passing through the points among the points where the gaze directions of the plurality of persons intersect with the image display device. Calculate the difference from the direction of
The difference display means displays a difference between the synthetic gaze direction and the direction of the image display device.

本発明の第2の観点に係る画像付通信表示方法は、
通信相手から画像を受信する画像受信ステップと、
前記画像受信ステップで受信した画像から人物の顔とその画像内における注視方向を検出する検出ステップと、
前記画像受信ステップで受信した画像から通信相手側の画像表示装置の位置を推定する推定ステップと、
前記画像内の注視方向と前記通信相手側の画像表示装置の位置の方向との差分を算出する差分算出ステップと、
前記画像受信ステップで受信した画像とともに、前記差分算出ステップで算出した差分を画像表示手段に表示する差分表示ステップと、
を備えることを特徴とする。
The image-attached communication display method according to the second aspect of the present invention includes:
An image receiving step for receiving an image from a communication partner;
A detecting step for detecting a human face and a gaze direction in the image from the image received in the image receiving step;
An estimation step for estimating the position of the image display device on the communication partner side from the image received in the image reception step;
A difference calculating step for calculating a difference between the gaze direction in the image and the direction of the position of the image display device on the communication partner side;
A difference display step for displaying the difference calculated in the difference calculation step on the image display means together with the image received in the image reception step;
It is characterized by providing.

好ましくは、前記推定ステップは、前記画像内における注視方向を所定の時間にわたって観測することによって、前記通信相手側の画像表示装置の位置を推定する。   Preferably, the estimating step estimates the position of the image display device on the communication partner side by observing a gaze direction in the image over a predetermined time.

または、前記推定ステップは、前記画像内に通信相手側の画像表示装置を検出した場合に、その位置を前記画像表示装置の位置と推定する。   Alternatively, in the estimation step, when an image display device on the communication partner side is detected in the image, the position is estimated as the position of the image display device.

または、前記推定ステップは、前記画像内に通信相手側の画像表示装置の投射装置を検出した場合に、その位置と方向とから前記通信相手側の画像表示装置の位置を推定する。   Alternatively, in the estimating step, when the projection device of the image display device on the communication partner side is detected in the image, the position of the image display device on the communication partner side is estimated from the position and direction.

好ましくは、前記差分表示ステップは、前記差分算出ステップで算出した差分を、前記通信相手側の画像表示装置の方向とそれ以外との2通りのいずれかに分類して表示する。   Preferably, the difference display step classifies and displays the difference calculated in the difference calculation step in one of two directions, that is, a direction of the image display device on the communication partner side and the other.

または、前記差分表示ステップは、前記差分算出ステップで算出した差分を、前記通信相手側の画像表示装置の方向とその右および左の3通りのいずれかに分類して表示する。   Alternatively, in the difference display step, the difference calculated in the difference calculation step is classified and displayed in one of three directions, that is, the direction of the image display device on the communication partner side and the right and left thereof.

好ましくは、前記検出ステップは、前記画像受信ステップで受信した画像に複数の人物の顔を検出した場合に、それぞれの人物について前記画像内の注視方向を検出し、
前記差分算出ステップは、前記複数の人物の注視方向が交わる点のうち、その点を通る注視方向の数が最大の点について、その点を通る注視方向を合成した合成注視方向と前記画像表示装置の方向との差分を算出し、
前記差分表示ステップは、前記合成注視方向と画像表示装置の方向との差分を表示する。
Preferably, when the detection step detects a plurality of human faces in the image received in the image reception step, the gaze direction in the image is detected for each person,
The difference calculating step includes, for the point having the largest number of gaze directions passing through the points among the points where the gaze directions of the plurality of persons intersect, a synthesized gaze direction obtained by combining the gaze directions passing through the points and the image display device Calculate the difference from the direction of
The difference display step displays a difference between the synthetic gaze direction and the direction of the image display device.

本発明の第3の観点に係るプログラムは、コンピュータを、
通信相手から画像を受信する画像受信手段と、
前記画像受信手段で受信した画像から人物の顔とその画像内における注視方向を検出する検出手段と、
前記画像受信手段で受信した画像から通信相手側の画像表示装置の位置を推定する推定手段と、
前記画像内の注視方向と前記通信相手側の画像表示装置の位置の方向との差分を算出する差分算出手段と、
前記画像受信手段で受信した画像を表示する画像表示手段と、
前記画像受信手段で受信した画像とともに、前記差分算出手段で算出した差分を前記画像表示手段に表示する差分表示手段と、
して機能させることを特徴とする。
A program according to a third aspect of the present invention provides a computer,
Image receiving means for receiving an image from a communication partner;
Detecting means for detecting a human face and a gaze direction in the image from the image received by the image receiving means;
Estimating means for estimating the position of the image display device on the communication partner side from the image received by the image receiving means;
Difference calculating means for calculating a difference between the gaze direction in the image and the direction of the position of the image display device on the communication partner side;
Image display means for displaying an image received by the image receiving means;
A difference display means for displaying the difference calculated by the difference calculation means on the image display means together with the image received by the image receiving means;
It is characterized by functioning.

本発明の第4の観点に係る画像付通信システムは、
通信相手から画像を受信する受信手段と、
前記受信手段で受信した画像を表示する画像表示手段と、
参加者の画像をネットワークを介して通信相手へ送信する送信手段と、
を備える第1の画像付通信装置と、
前記ネットワークを介して前記第1の画像付通信装置から画像を受信する画像受信手段と、
前記画像受信手段で受信した画像から人物の顔とその画像内における注視方向を検出する検出手段と、
前記画像受信手段で受信した画像から通信相手側の画像表示装置の位置を推定する推定手段と、
前記画像内の注視方向と前記通信相手側の画像表示装置の位置の方向との差分を算出する差分算出手段と、
前記画像受信手段で受信した画像を表示する画像表示手段と、
前記画像受信手段で受信した画像とともに、前記差分算出手段で算出した差分を前記画像表示手段に表示する差分表示手段と、
を備える第2の画像付通信装置と、
から構成されることを特徴とする。
The communication system with an image according to the fourth aspect of the present invention is:
Receiving means for receiving an image from a communication partner;
Image display means for displaying an image received by the receiving means;
A transmission means for transmitting an image of a participant to a communication partner via a network;
A first image-attached communication device comprising:
Image receiving means for receiving an image from the first communication device with an image via the network;
Detecting means for detecting a human face and a gaze direction in the image from the image received by the image receiving means;
Estimating means for estimating the position of the image display device on the communication partner side from the image received by the image receiving means;
Difference calculating means for calculating a difference between the gaze direction in the image and the direction of the position of the image display device on the communication partner side;
Image display means for displaying an image received by the image receiving means;
A difference display means for displaying the difference calculated by the difference calculation means on the image display means together with the image received by the image receiving means;
A second image-attached communication device comprising:
It is comprised from these.

本発明の画像付通信装置によれば、通信相手側に視線方向の情報を得るための専用の装置や処理部を設けることなく、受信側の処理だけで通信相手側の参加者の視線方向を計算し、表示することができる。その理由は、受信側の画像付通信装置が通信相手側の参加者の視線方向を計算して表示するためである。   According to the communication apparatus with an image of the present invention, the line-of-sight direction of the participant on the communication partner side can be determined only by processing on the reception side without providing a dedicated device or processing unit for obtaining information on the line-of-sight direction on the communication partner side. Can be calculated and displayed. The reason is that the image-attached communication device on the receiving side calculates and displays the line-of-sight direction of the participant on the communication partner side.

本発明では、テレビ会議装置およびテレビ会議システムを例として実施の形態を説明する。本発明は、テレビ会議の外に、テレビ電話、WEB会議、ビデオチャットなど画像付通信装置または画像付通信システム全般に適用することができる。   In the present invention, an embodiment will be described by taking a video conference apparatus and a video conference system as examples. The present invention can be applied to a communication device with an image such as a videophone, a WEB conference, and a video chat or a communication system with an image in addition to a video conference.

(実施の形態1)
図1は、本発明の画像付通信装置の例として、実施の形態1に係るテレビ会議装置の構成例を示すブロック図である。テレビ会議装置1は、制御装置2、表示部3、およびカメラ4から構成される。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration example of a video conference apparatus according to Embodiment 1 as an example of the image-attached communication apparatus of the present invention. The video conference device 1 includes a control device 2, a display unit 3, and a camera 4.

図2は、実施の形態1に係るテレビ会議装置1をネットワークを介して接続したテレビ会議システム100の構成例を示すブロック図である。拠点Aと拠点Bのそれぞれに設置されたテレビ会議装置1Aおよび1Bが、ネットワークNに接続する。拠点Aのテレビ会議装置1Aの各部には参照符号にAを付けて示す。拠点Bのテレビ会議装置1Bの各部には参照符号にBを付けて示す。   FIG. 2 is a block diagram illustrating a configuration example of a video conference system 100 in which the video conference apparatuses 1 according to Embodiment 1 are connected via a network. The video conference apparatuses 1A and 1B installed at the base A and the base B are connected to the network N. Each part of the video conferencing apparatus 1A at the site A is indicated with a reference symbol A. Each part of the video conferencing apparatus 1B at the base B is indicated by adding B to the reference symbol.

テレビ会議システム100は、拠点Aのカメラ4Aで撮影した画像を、ネットワークNを経由して拠点Bのテレビ会議装置1Bに送信し、表示部3Bに表示する。逆に拠点Bのカメラ4Bで撮影した画像を、拠点Aの表示部3Aに表示する。また、拠点Aのマイク6Aで入力した音声信号を、ネットワークNを経由して拠点Bのテレビ会議装置1Bに送信し、スピーカ5Bから出力する。逆に、拠点Bのマイク6Bで入力した音声信号を、ネットワークNを経由して拠点Aのテレビ会議装置1Aに送信し、スピーカ5Aから出力する。   The video conference system 100 transmits an image captured by the camera 4A at the site A to the video conference device 1B at the site B via the network N and displays the image on the display unit 3B. On the contrary, an image photographed by the camera 4B at the site B is displayed on the display unit 3A at the site A. Also, the audio signal input from the microphone 6A at the site A is transmitted to the video conference device 1B at the site B via the network N and output from the speaker 5B. Conversely, the audio signal input from the microphone 6B at the site B is transmitted to the video conference apparatus 1A at the site A via the network N and output from the speaker 5A.

以下、着目している拠点をローカル側といい、その通信相手側の拠点をリモート側ということがある。すなわち、本発明の注視方向表示について説明する拠点をローカル側といい、注視方向を重畳して表示される画像を送信する相手側をリモート側という。   In the following, the focused base is sometimes referred to as the local side, and the base on the communication partner side is sometimes referred to as the remote side. That is, the base for explaining the gaze direction display of the present invention is referred to as a local side, and the partner side that transmits an image displayed with the gaze direction superimposed is referred to as a remote side.

図1を参照すると、テレビ会議装置1の制御装置2は、送受信部11、通信処理部12、参加者検出部13、注視方向検出部14、表示装置位置推定部15、注視方向差分算出部16、注視方向差分表示部17、画像出力部18、および画像入力部19を備える。制御装置2は、例えば、プログラム制御によって動作するコンピュータで構成することができる。   Referring to FIG. 1, the control device 2 of the video conference device 1 includes a transmission / reception unit 11, a communication processing unit 12, a participant detection unit 13, a gaze direction detection unit 14, a display device position estimation unit 15, and a gaze direction difference calculation unit 16. , A gaze direction difference display unit 17, an image output unit 18, and an image input unit 19. The control device 2 can be configured by a computer that operates by program control, for example.

本発明では、音声通信については特に制約はない。音声通信は、画像と共に伝送されてもよいし、別の回線、例えば電話回線を用いて通信されてもよい。図1では、音声通信に関連する構成を省略している。   In the present invention, voice communication is not particularly limited. The voice communication may be transmitted together with the image, or may be communicated using another line such as a telephone line. In FIG. 1, the configuration related to voice communication is omitted.

カメラ4は、テレビ会議の参加者の画像を撮影し、画像入力部19に伝送する。表示部3は、例えば、CRT(Cathode Ray Tube)、LCD(Liquid Crystal Display)または画像プロジェクタ装置などから構成され、画像出力部18から送られる信号によって画像を表示する。   The camera 4 captures images of participants in the video conference and transmits them to the image input unit 19. The display unit 3 includes, for example, a CRT (Cathode Ray Tube), an LCD (Liquid Crystal Display), an image projector device, or the like, and displays an image by a signal sent from the image output unit 18.

画像入力部19は、カメラ4の画像信号を入力して、通信処理部12に伝送する。画像入力部19は、また、画像信号を符号化してデータ圧縮する場合がある。画像出力部18は、通信処理部12から画像信号を入力して、表示部3に画像を表示する。画像信号が符号化されてデータ圧縮されている場合は、画像信号をデコードする。   The image input unit 19 inputs an image signal from the camera 4 and transmits it to the communication processing unit 12. The image input unit 19 may also encode the image signal and compress the data. The image output unit 18 inputs an image signal from the communication processing unit 12 and displays an image on the display unit 3. If the image signal is encoded and data compressed, the image signal is decoded.

通信処理部12は、画像入力部19から画像信号を入力して、送受信部11からネットワークNを経由して通信相手のテレビ会議装置1に送信する。また、通信相手のテレビ会議装置1から受信した画像信号を参加者検出部13および画像出力部18に送る。   The communication processing unit 12 receives an image signal from the image input unit 19 and transmits the image signal from the transmission / reception unit 11 via the network N to the video conference device 1 as a communication partner. In addition, the image signal received from the video conference device 1 of the communication partner is sent to the participant detection unit 13 and the image output unit 18.

送受信部11は、ネットワークNに接続する網終端装置または無線通信装置、及びそれらと接続するシリアルインタフェース又はLAN(Local Area Network)インタフェースから構成されている。送受信部11はネットワークNを介して、通信相手のテレビ会議装置1に画像信号を送信し、通信相手のテレビ会議装置1から画像信号を受信する。   The transmission / reception unit 11 includes a network termination device or a wireless communication device connected to the network N, and a serial interface or a LAN (Local Area Network) interface connected thereto. The transmission / reception unit 11 transmits an image signal to the video conference device 1 as a communication partner via the network N, and receives the image signal from the video conference device 1 as a communication partner.

参加者検出部13は、通信処理部12から送られたリモート側の画像を解析し、画像中のリモート側の参加者を同定し、同参加者の顔の位置を検出する。注視方向検出部14は、参加者検出部13で検出した参加者の顔の位置を参照し、画像を解析して顔の向き、視線方向、姿勢等の状況から画像中の見かけ上の視線方向を検出する。   The participant detector 13 analyzes the remote image sent from the communication processor 12, identifies the remote participant in the image, and detects the position of the participant's face. The gaze direction detection unit 14 refers to the position of the participant's face detected by the participant detection unit 13, analyzes the image, and determines the apparent gaze direction in the image from the situation such as the face direction, the gaze direction, and the posture. Is detected.

表示装置位置推定部15は、受信した画像から、リモート側の表示部3の位置を推定する。表示部3の位置を推定する方法としては、
(1)参加者の見かけ上の視線方向が一定時間内の一定割合以上同一方向になる場合に、その方向に画像表示装置があると見なすことができる。これは、一般に遠隔コミュニケーションの参加者は、相手側の参加者(表示部3)を注視することが多いためである。
The display device position estimation unit 15 estimates the position of the remote display unit 3 from the received image. As a method of estimating the position of the display unit 3,
(1) When the apparent line-of-sight direction of a participant is the same direction for a certain ratio within a certain time, it can be considered that there is an image display device in that direction. This is because, in general, remote communication participants often watch the other party's participant (display unit 3).

あるいは、
(2)リモート画像中に映っているモニタやスクリーン等のローカル側の画像を表示している表示装置を検出する。
(3)リモート画像中に映っているプロジェクタ等の出力補助装置を検出し、その方向からスクリーン等のローカル側の画像を表示している画像表示装置の位置を推定する。
等が挙げられる。このリモート側の画像表示装置の位置方向が、リモート側の画像の正面方向に相当することになる。
Or
(2) A display device displaying a local image such as a monitor or a screen displayed in the remote image is detected.
(3) An output auxiliary device such as a projector shown in the remote image is detected, and the position of the image display device displaying a local image such as a screen is estimated from the direction.
Etc. The position direction of the remote image display device corresponds to the front direction of the remote image.

注視方向差分算出部16は、注視方向検出部14で検出したリモート側の参加者の見かけ上の視線方向と、表示装置位置推定部15で検出したリモート側の表示部3の位置方向の差分を計算する。この差分によって、ローカル側の画像を出力しているリモート側の表示部3に対する、リモート側の参加者の実際の注視方向を決定する。   The gaze direction difference calculation unit 16 calculates a difference between the apparent gaze direction of the remote participant detected by the gaze direction detection unit 14 and the position direction of the remote display unit 3 detected by the display device position estimation unit 15. calculate. Based on this difference, the actual gaze direction of the remote participant with respect to the remote display unit 3 outputting the local image is determined.

このリモート側の表示部3に対する、リモート側の参加者の実際の注視方向が、注視方向差分表示部17に入力される。注視方向差分表示部17は、その実際の注視方向を表示部3に表示する形式に変換して、画像出力部18に入力する。例えば、画像中または画像の周囲などに、矢印で表示する。矢印は、リモート側の参加者から見たリモート側の表示部3の方向に対する、リモート側参加者の実際の注視方向を表す。リモート側参加者が表示部3を注視している場合は、矢印の先端の点またはそれを囲む丸などで表示することができる。   The actual gaze direction of the remote participant with respect to the remote display unit 3 is input to the gaze direction difference display unit 17. The gaze direction difference display unit 17 converts the actual gaze direction into a format to be displayed on the display unit 3 and inputs it to the image output unit 18. For example, an arrow is displayed in the image or around the image. The arrow represents the actual gaze direction of the remote participant with respect to the direction of the display unit 3 on the remote side as seen from the remote participant. When the remote participant is gazing at the display unit 3, it can be displayed by a point at the tip of an arrow or a circle surrounding it.

画像出力部18は、注視方向を示す矢印などが重畳された画像を、表示部3に出力して表示する。注視方向を表示する方法としては、受信した画像に矢印等の形で重畳してもよいし、専用器具やレーザーポインタ等で別表示してもよい。   The image output unit 18 outputs and displays an image on which an arrow indicating a gaze direction or the like is superimposed on the display unit 3. As a method of displaying the gaze direction, the received image may be superimposed on the received image in the form of an arrow or the like, or may be separately displayed with a dedicated instrument or a laser pointer.

注視方向差分表示部17は、注視方向差分算出部16が算出したリモート側の参加者の注視方向を、その方向と角度に比例して表示部3に表示するのではなく、いくつかの範囲に区切って分類して表示してもよい。例えば、話者方向であるローカル側の正面の方向かそれ以外かの2分類で方向を表示する。もしくは、正面方向か、その右か左かの3分類で表示する。それらの場合は、例えば、注視方向と表示部3の方向の差分(の絶対値)が所定のしきい値を超えたときに正面以外であると判定して、それを表示する。正面とその左右の3分類の場合は、差分を平面に投影した角度に正負の符号をつけ、絶対値が所定のしきい値を超えたときに、差分の符号によって右または左を区別して表示する。   The gaze direction difference display unit 17 does not display the gaze direction of the remote participant calculated by the gaze direction difference calculation unit 16 on the display unit 3 in proportion to the direction and angle, but in several ranges. You may divide and classify and display. For example, the direction is displayed in two categories, that is, the direction of the local side, which is the speaker direction, or the other direction. Or it displays in three classifications, the front direction or the right or left. In those cases, for example, when the difference (absolute value) between the gaze direction and the direction of the display unit 3 exceeds a predetermined threshold value, it is determined that it is other than the front and is displayed. In the case of the three classifications of the front and its left and right, a positive or negative sign is attached to the angle at which the difference is projected on the plane, and when the absolute value exceeds a predetermined threshold, the right or left is distinguished and displayed according to the sign of the difference To do.

注視方向を分類して表示する方法としては他に、表示部3の方向、資料の方向およびそれ以外とする分類方法がある。また、ローカル側に複数の参加者がいる場合に、それぞれの参加者の方向(これはローカル側のカメラの位置と方向で推定できる)とそれ以外に分類して表示する、等が考えられる。   As another method for classifying and displaying the gaze direction, there is a classification method in which the direction of the display unit 3, the direction of the material, and the other. In addition, when there are a plurality of participants on the local side, the direction of each participant (this can be estimated by the position and direction of the camera on the local side) and the other are displayed separately.

図2では、リモート側が1箇所である場合を例にしたが、リモート側が複数の場合もあり得る。リモート側が複数の場合は、リモート側の拠点から受信した画像ごとに参加者の注視方向を解析して表示する。また、受信した画像から参加者の注視方向と表示装置の位置を解析して表示する参加者検出部13、注視方向検出部14、表示装置位置推定部15、注視方向差分算出部16および注視方向差分表示部17等は、リモート側にも備えられていて構わない。   In FIG. 2, the case where the remote side is one place is taken as an example, but there may be a plurality of remote sides. When there are a plurality of remote sides, the gaze direction of the participant is analyzed and displayed for each image received from the remote site. In addition, the participant detection unit 13, the gaze direction detection unit 14, the display device position estimation unit 15, the gaze direction difference calculation unit 16, and the gaze direction that analyze and display the gaze direction of the participant and the position of the display device from the received image. The difference display unit 17 and the like may be provided on the remote side.

図3は参加者の注視方向と表示装置方向の差分を判定する方法を説明する平面図である。図3(A)は表示部3Bに対し注視する方向を判定する角度を示す。図3(B)は一例として表示部3Bからはずれた方向を注視した状態を示す。   FIG. 3 is a plan view illustrating a method for determining the difference between the gaze direction of the participant and the display device direction. FIG. 3A shows an angle for determining the direction of gaze on the display unit 3B. FIG. 3B shows a state in which a direction deviated from the display unit 3B is watched as an example.

リモート側の参加者の見かけ上の視線方向が一定時間内の一定割合以上同一方向になる場合に、例えば所定の期間に最も多く見ている方向に表示部3Bがあると見なすことができ、表示部3Bの位置を推定する。図3(A)で、参加者から表示部3Bの中心の方向を表示部方向C0とする。注視方向は表示部3Bから見て右または左という。図3(A)では、方向C1〜C3は右、方向D1〜D3は左である。   When the apparent line-of-sight direction of the remote participant is the same direction for a certain ratio within a certain period of time, for example, the display unit 3B can be regarded as having the most viewing direction in a predetermined period, and the display The position of the part 3B is estimated. In FIG. 3A, the direction from the participant to the center of the display unit 3B is a display unit direction C0. The gaze direction is referred to as right or left when viewed from the display unit 3B. In FIG. 3A, directions C1 to C3 are right, and directions D1 to D3 are left.

方向C1およびD1は、推定される表示部3Bの両端の位置で、実際に画面の両端を見たときの方向である。表示部方向C0と方向C1の成す角度を角度R1と表す。同様に、表示部方向C0と方向D1の成す角度を角度L1と表す。角度R1および角度L1は、表示部3Bを見込む角度を表す。表示部3Bがローカル側に送られる画像に含まれていない場合は、角度R1および角度L1の真の値は不明であるが、参加者の注視方向の頻度分布から推定できる。または、経験的に所定の値を設定してもよい。   The directions C1 and D1 are directions when the both ends of the screen are actually viewed at the estimated positions of the both ends of the display unit 3B. An angle formed by the display unit direction C0 and the direction C1 is represented as an angle R1. Similarly, an angle formed by the display unit direction C0 and the direction D1 is represented as an angle L1. The angles R1 and L1 represent angles at which the display unit 3B is viewed. When the display unit 3B is not included in the image sent to the local side, the true values of the angle R1 and the angle L1 are unknown, but can be estimated from the frequency distribution in the gaze direction of the participant. Alternatively, a predetermined value may be set empirically.

方向C2およびD2は、注視方向を判定するしきい値の方向を示す。表示部方向C0と右側しきい値の方向C2の成す角度を角度R2と表す。同様に、表示部方向C0と左側しきい値の方向D2の成す角度を角度L2と表す。角度R2と角度L2とは等しくない場合もあり得る。注視方向を判定するしきい値となる角度R2と角度L2は、通常、角度R1および角度L1を含むように設定する。表示部3Bが大きい場合には、角度R2と角度L2が角度R1および角度L1より小さいこともあり得る。   The directions C2 and D2 indicate threshold directions for determining the gaze direction. An angle formed by the display unit direction C0 and the right threshold value direction C2 is represented as an angle R2. Similarly, an angle formed by the display unit direction C0 and the left threshold value direction D2 is represented as an angle L2. The angle R2 and the angle L2 may not be equal. The angle R2 and the angle L2 that are threshold values for determining the gaze direction are normally set so as to include the angle R1 and the angle L1. When the display unit 3B is large, the angles R2 and L2 may be smaller than the angles R1 and L1.

方向C3およびD3は、参加者の観測された注視方向を示す。図3(A)は、表示部方向C0との差分が、しきい値方向C2またはD2よりも大きい場合である。表示部方向C0と注視方向C3で成す角度は角度R3で、表示部方向C0と注視方向D3で成す角度は角度L3で表される。参加者の注視方向が表示部3Bからみて右側にはずれた場合を図3(B)に示す。このとき注視方向差分表示部17では、角度R3はしきい値である角度R2より大きく、参加者は表示部3Bに注視していないと判定される。   Directions C3 and D3 indicate the observed gaze directions of the participants. FIG. 3A shows a case where the difference from the display unit direction C0 is larger than the threshold direction C2 or D2. The angle formed by the display unit direction C0 and the gaze direction C3 is represented by an angle R3, and the angle formed by the display unit direction C0 and the gaze direction D3 is represented by an angle L3. FIG. 3B shows a case where the gaze direction of the participant is shifted to the right side when viewed from the display unit 3B. At this time, the gaze direction difference display unit 17 determines that the angle R3 is larger than the threshold value angle R2, and the participant is not gazing at the display unit 3B.

図3では、理解を容易にするために注視方向を平面内に限って説明したが、実際の画像から上下方向の角度を考慮して、注視方向を判定することも可能である。その場合、注視方向の差分が、左右または上下いずれかのしきい値より大きい場合に、表示部3Bを注視していないと判断される。   In FIG. 3, the gaze direction is limited to a plane for easy understanding, but it is also possible to determine the gaze direction in consideration of the vertical angle from an actual image. In that case, when the difference in the gaze direction is larger than either the left or right or top and bottom thresholds, it is determined that the display unit 3B is not being gaze.

リモート側で専用の装置や処理部で視線抽出を行う方法に比べて、本発明の方法は遠隔からの画像を解析して視線方向を計算するので精度は高くないが、少なくとも中心の基準位置を注視しているのか、その左右にはずれているのかを分離するレベルは技術的に可能である。話者にとっては、自分に注意が向いているのかいないのかを知るだけでも十分に有益と考えられる。   Compared with the method of line-of-sight extraction using a dedicated device or processing unit on the remote side, the method of the present invention calculates the line-of-sight direction by analyzing a remote image, but at least the center reference position is determined. It is technically possible to separate the level of gaze or whether it is shifted to the left or right. For a speaker, just knowing whether or not he / she is paying attention can be useful enough.

次に、本実施の形態の全体の動作について説明する。図4は、テレビ会議装置1の動作の一例を示すフローチャートである。   Next, the overall operation of the present embodiment will be described. FIG. 4 is a flowchart showing an example of the operation of the video conference apparatus 1.

送受信部11が、リモート側のテレビ会議装置1から画像を受信すると、通信処理部12は参加者検出部13と画像出力部18に送る(ステップS11)。参加者検出部13は、画像を解析して参加者を抽出し、注視方向検出部14は、参加者の注視方向を検出する(ステップS12)。   When the transmission / reception unit 11 receives an image from the remote video conference device 1, the communication processing unit 12 sends the image to the participant detection unit 13 and the image output unit 18 (step S11). The participant detection unit 13 analyzes the image and extracts participants, and the gaze direction detection unit 14 detects the gaze direction of the participant (step S12).

同時に、表示装置位置推定部15は、リモート側の画像表示装置の位置を推定する(ステップS13)。注視方向差分算出部16は、リモート側の参加者の注視方向と、画像表示装置の方向の差分を算出する(ステップS14)。そして、注視方向差分表示部17は、前述のとおり、例えば画像に重畳する矢印などを生成して画像出力部18に入力し、画像出力部18は、受信した画像と注視方向(差分)を表示する(ステップS15)。   At the same time, the display device position estimation unit 15 estimates the position of the remote image display device (step S13). The gaze direction difference calculation unit 16 calculates the difference between the gaze direction of the remote participant and the direction of the image display device (step S14). Then, as described above, the gaze direction difference display unit 17 generates, for example, an arrow to be superimposed on the image and inputs it to the image output unit 18, and the image output unit 18 displays the received image and the gaze direction (difference). (Step S15).

図5に、リモート側から送られた画像の一例を示す。参加者検出部13は本画像を解析し、画像中の人物を特定し、注視方向検出部14は顔の向き等からその見かけ上の視線方向を計算する。図5の例では、正面に対してかなり右の方を見ていることが分かる。同時に表示装置位置推定部15は、リモート側の画像表示装置の位置を推定する。ここでは、画像中の人物の視線方向を一定時間観測し、一定割合以上同一方向を見ているならばその方向に画像表示装置(モニタ)があると推定する。   FIG. 5 shows an example of an image sent from the remote side. The participant detection unit 13 analyzes the main image and identifies a person in the image, and the gaze direction detection unit 14 calculates the apparent gaze direction from the face orientation and the like. In the example of FIG. 5, it can be seen that the user is looking to the right of the front. At the same time, the display device position estimation unit 15 estimates the position of the remote image display device. Here, the line-of-sight direction of a person in the image is observed for a certain period of time, and if the same direction is viewed for a certain percentage or more, it is estimated that the image display device (monitor) is in that direction.

続いて、見かけ上の視線方向と画像表示装置の方向の差分を計算する。ここではリモート側の参加者は画像表示装置の方向を見ていることが分かるので、実際の視線方向はローカル側の正面方向だと決定される。そこで、例えば図6にあるように矢印記号をリモート画像に重畳する等の方法で、決定された視線方向を画像表示装置上に表示する。これを見ることでローカル側の話者は、一見斜めの方向を見ているように見えるリモート側の参加者が、自分の方を見ていることが簡単に分かる。また、リモート側の参加者が自分から目をそらして他を見ている場合も、簡単に理解することができ、円滑なコミュニケーションが実現される。   Subsequently, the difference between the apparent line-of-sight direction and the direction of the image display device is calculated. Here, since it can be seen that the remote participant is looking at the direction of the image display device, the actual line-of-sight direction is determined to be the front direction on the local side. Therefore, for example, the determined line-of-sight direction is displayed on the image display device by a method of superimposing an arrow symbol on the remote image as shown in FIG. By seeing this, the local speaker can easily see that the remote participant, who appears to be looking at an oblique direction, is looking at him. In addition, even when a remote participant looks away from himself / herself, it is easy to understand and smooth communication is realized.

図7に、リモート画像中にローカル側の画像が映っており、これを検出することで画像表示装置の方向が分かる例を示す。ここでは中央上部のディスプレイの中にローカル側から送信した画像が映っており、手前側に映っている二人のリモート側の参加者は、見かけ上は全く異なる方向を見ているが、いずれも実際には画像表示装置の方向=正面を見ていることが決定される。そこで、それぞれの視線方向を、図8のように表示する。あるいは、両者が同じ方向を見ているので、それを統合して図9のように表示することも可能である。   FIG. 7 shows an example in which the local image is shown in the remote image, and the direction of the image display device can be detected by detecting this. Here, the image sent from the local side is shown in the display in the upper center, and the two remote participants appearing in the front are looking in completely different directions. Actually, it is determined that the direction of the image display device = looking at the front. Therefore, the respective line-of-sight directions are displayed as shown in FIG. Alternatively, since both are looking in the same direction, they can be integrated and displayed as shown in FIG.

また、ローカル側の画像そのものが映っていなくても、図10のように画像表示装置もしくは画像表示装置の一部もしくは画像表示装置を含んだ装置(ここではノートパソコン)が映っている場合にはそこから画像表示装置の位置を推定することもできる。さらに、図11のように、プロジェクタが映っている場合には、そのプロジェクタの向きからスクリーンの方向を推定することができる。   Even if the local image itself is not shown, if the image display device, a part of the image display device, or a device including the image display device (here, a notebook computer) is shown as shown in FIG. From there, the position of the image display device can also be estimated. Further, as shown in FIG. 11, when a projector is shown, the direction of the screen can be estimated from the direction of the projector.

以上、説明したとおり、本実施の形態1に係るテレビ会議装置1では、リモート側に専用の装置や処理部を設けることなく、ローカル側の処理だけでリモート側の参加者の視線方向を計算し、表示することができる。その結果、対面でのコミュニケーションに近い環境を提供できる。   As described above, in the video conference device 1 according to the first embodiment, the gaze direction of the remote participant is calculated only by the local processing without providing a dedicated device or processing unit on the remote side. Can be displayed. As a result, an environment close to face-to-face communication can be provided.

また、リモート側の参加者がローカル側の参加者を見ているのか否かが、ローカル側の話者にすぐに分かる。特に、抽出したリモート側の参加者の視線方向を、ローカル側の話者方向とそれ以外の2値、もしくはローカル側の参加者方向(画像表示装置)とその左と右の3値で表示する場合には、ローカル側の参加者を見ているのか否かを、さらに容易に把握できる。   Also, the local speaker can immediately see if the remote participant is looking at the local participant. In particular, the line-of-sight direction of the extracted remote participant is displayed as the local speaker direction and other binary values, or the local participant direction (image display device) and its left and right three values. In this case, it can be more easily grasped whether or not the local participant is being viewed.

(実施の形態2)
実施の形態2は、実施の形態1の動作に加えて、通信相手の拠点の参加者が複数であって、複数の参加者の注視方向を合成する場合である。図12は、実施の形態2に係るテレビ会議装置の構成の例を示すブロック図である。実施の形態1のテレビ会議装置に比較して、合成注視方向算出部20が追加されている。図12では、実施の形態1と同等のブロックに同じ符号を付している。同じ名称でも異なる符号を付しているブロックは、機能がやや異なっている。
(Embodiment 2)
In the second embodiment, in addition to the operation of the first embodiment, there are a plurality of participants at the communication partner base, and the gaze directions of the plurality of participants are combined. FIG. 12 is a block diagram illustrating an example of a configuration of the video conference apparatus according to Embodiment 2. Compared to the video conference apparatus of the first embodiment, a composite gaze direction calculation unit 20 is added. In FIG. 12, the same reference numerals are assigned to the blocks equivalent to those in the first embodiment. Blocks with the same name but with different signs have slightly different functions.

実施の形態2のテレビ会議装置1では、参加者検出部23は、受信した画像に複数の参加者の顔が含まれる場合、その複数の参加者を抽出する。注視方向検出部24は、複数の参加者それぞれの注視方向を検出する。また、表示装置位置推定部25は、表示装置の位置を推定すると同時に、複数の参加者それぞれについて表示装置の方向を検出する。   In the video conference apparatus 1 according to the second embodiment, the participant detection unit 23 extracts a plurality of participants when the received image includes faces of the plurality of participants. The gaze direction detection unit 24 detects the gaze direction of each of the plurality of participants. The display device position estimation unit 25 estimates the position of the display device and simultaneously detects the direction of the display device for each of a plurality of participants.

合成注視方向算出部20は、複数の参加者の注視方向が交わる点のうち、その点を通る注視方向の数が最大の点について、その点を通る注視方向を合成した合成注視方向を算出する。すなわち、参加者のうち多数が注視している方向を合成して合成注視方向とする。注視している方向の合成は、例えば、それぞれ方向を長さの等しいベクトルとして、ベクトルの和を計算し、単位長さに正規化することによって算出する。   The composite gaze direction calculation unit 20 calculates a composite gaze direction obtained by synthesizing the gaze directions passing through the points where the gaze directions of the plurality of participants intersect among the points having the largest number of gaze directions passing through the points. . That is, the direction in which many of the participants are gazing is synthesized to be the combined gaze direction. The composition of the gaze direction is calculated by, for example, calculating the sum of the vectors with each direction being a vector of equal length and normalizing the unit length.

リモート側の参加者が複数の場合に、注視方向情報を参加者ごとに個別に表示するのではなく、統合して表示する。統合する方法としては、平均値を取る方法は役に立たないので、最大数のもののみを表示する、クラスタリングして表示する、一定数以上のものを表示する方法等が考えられる。また統合した際に、統合された参加者の数によって表示を変える(矢印を太く・大きくする、色を変える)等も考えられる。   When there are a plurality of remote participants, the gaze direction information is not displayed individually for each participant, but is displayed in an integrated manner. As a method of integration, since a method of taking an average value is not useful, a method of displaying only the maximum number, displaying by clustering, displaying a certain number or more, and the like are conceivable. In addition, it is possible to change the display according to the number of participants who have been integrated (thicken / enlarge arrows or change colors).

なおこの場合、平均値もしくは総和を取ることはあまり意味はない。例えば一人の参加者が話者の方向を注視しており、他の参加者が資料の方向を注視している際に、話者と資料の中間点を注視している人はだれもいないからである。   In this case, it does not make much sense to take an average value or a sum. For example, when one participant is looking at the direction of the speaker, and no one is looking at the midpoint between the speaker and the material when the other participant is looking at the direction of the material. is there.

注視方向差分算出部26は、その合成注視方向を注視している参加者から画像表示装置を見た方向を合成して、表示装置の方向(合成表示装置方向)とする。ここでも、ベクトル演算を用いることができる。そして、合成注視方向と合成表示装置方向との差分を算出する。   The gaze direction difference calculation unit 26 synthesizes the direction in which the image display device is viewed from the participant who is gazing at the combined gaze direction to obtain the direction of the display device (composite display device direction). Again, vector operations can be used. Then, the difference between the composite gaze direction and the composite display device direction is calculated.

注視方向差分表示部27は、実施の形態1と同様であるが、表示装置方向が合成表示装置方向に変化している。また、合成注視方向に関与している参加者に何らかの印を重畳表示するなどして、どの参加者の注視方向であるかが分かるようにしてもよい。   The gaze direction difference display unit 27 is the same as that in the first embodiment, but the display device direction is changed to the composite display device direction. In addition, it may be possible to know which participant's gaze direction is displayed by, for example, superimposing and displaying some mark on the participants involved in the synthetic gaze direction.

注視方向の差分を表示する方法は、実施の形態1と同様である。また、注視方向を2分類または3分類などに分類して表示することについても同じようにできる。   The method for displaying the difference in the gaze direction is the same as in the first embodiment. It is also possible to classify and display the gaze direction into two or three classifications.

図13のフローチャートを参照して、実施の形態2に係るテレビ会議装置1の動作を説明する。   With reference to the flowchart of FIG. 13, the operation of the video conference apparatus 1 according to Embodiment 2 will be described.

送受信部11が、リモート側のテレビ会議装置1から画像を受信すると、通信処理部12は参加者検出部23と画像出力部18に送る(ステップS21)。参加者検出部23は、画像を解析して複数の参加者を抽出し、注視方向検出部24は、複数の参加者それぞれの注視方向を検出する(ステップS22)。   When the transmission / reception unit 11 receives an image from the remote video conference device 1, the communication processing unit 12 sends the image to the participant detection unit 23 and the image output unit 18 (step S21). The participant detection unit 23 analyzes the image and extracts a plurality of participants, and the gaze direction detection unit 24 detects the gaze direction of each of the plurality of participants (step S22).

同時に、表示装置位置推定部25は、リモート側の画像表示装置の位置を推定する(ステップS23)。同時に、複数の参加者それぞれについて表示装置の方向を検出する。   At the same time, the display device position estimation unit 25 estimates the position of the remote image display device (step S23). At the same time, the direction of the display device is detected for each of a plurality of participants.

合成注視方向算出部20は、複数の参加者の注視方向が(参加者それぞれのしきい値の範囲で)交わる点のうち、その点を通る注視方向の数が最大の点について、その点を通る注視方向を合成した合成注視方向を算出する(ステップS24)。   The composite gaze direction calculation unit 20 calculates the point of the points where the gaze directions of a plurality of participants intersect (within the respective threshold values of the participants) having the largest number of gaze directions passing through that point. A combined gaze direction obtained by synthesizing the gaze direction through is calculated (step S24).

注視方向差分算出部26は、合成注視方向を注視している参加者から画像表示装置を見た方向を合成して、合成表示装置方向とする。そして、合成注視方向と合成表示装置方向との差分を算出する(ステップS25)。   The gaze direction difference calculation unit 26 synthesizes the direction in which the image display device is viewed from the participant who is gazing at the composite gaze direction, and sets the direction as the composite display device direction. Then, the difference between the composite gaze direction and the composite display device direction is calculated (step S25).

注視方向差分表示部27は、前述のとおり、例えば画像に重畳する矢印などを生成して画像出力部18に入力し、画像出力部18は、受信した画像と注視方向(差分)を表示する(ステップS26)。   As described above, the gaze direction difference display unit 27 generates, for example, an arrow to be superimposed on the image and inputs it to the image output unit 18, and the image output unit 18 displays the received image and the gaze direction (difference) ( Step S26).

図14に、リモート側に複数の参加者がおり、異なった方向を注視している場合の例を示す。ここでは一人が左方向を、残りの三人が、プロジェクタの向きから推定されるスクリーンよりもさらに右方向を注視していることが分かる。そこで、例えば図15のように同じ方向を向いている多数の視線方向を表示することで、集団が全体としてどちらに注意が向いているのかを瞬時に把捉することができる。   FIG. 14 shows an example in the case where there are a plurality of participants on the remote side and watching from different directions. Here, it can be seen that one person is looking at the left direction and the remaining three people are looking further at the right direction than the screen estimated from the orientation of the projector. Therefore, for example, as shown in FIG. 15, by displaying a plurality of line-of-sight directions facing the same direction, it is possible to instantly grasp which group is paying attention to as a whole.

図16および図17は、実施の形態2に係る注視方向の判定の例を示す平面図で、リモート側に複数の参加者がいる場合である。丸は参加者を表し、矢印はそれぞれの参加者の注視方向を示す。注視方向はローカル側の注視方向検出部24で検出したものである。   16 and 17 are plan views showing an example of determination of the gaze direction according to the second embodiment, and shows a case where there are a plurality of participants on the remote side. Circles represent participants, and arrows indicate the gaze direction of each participant. The gaze direction is detected by the local gaze direction detection unit 24.

各々の参加者の注視方向より、リモート側の表示部3Bの位置が推定される。推定された表示部3Bの位置に対して、参加者それぞれに合わせた注視方向差分としきい値が与えられる。各々の参加者に対し、差分がしきい値より小さい場合は表示部3Bを注視していると注視方向差分算出部26で判断される。白丸は表示部3Bを注視している人を、黒丸は表示部3Bを注視していない人を表す。   From the gaze direction of each participant, the position of the display unit 3B on the remote side is estimated. For the estimated position of the display unit 3B, a gaze direction difference and a threshold value are given to each participant. When the difference is smaller than the threshold value for each participant, the gaze direction difference calculation unit 26 determines that the display unit 3B is being watched. A white circle represents a person who is gazing at the display unit 3B, and a black circle is a person who is not gazing at the display unit 3B.

注視方向差分表示部27は、複数の参加者の注視方向が交わる点(参加者それぞれのしきい値の範囲で交わる場合)について、参加者の半数以上の注視方向が交わる場合の合成注視方向を示す。図16では半数以上が表示部3Bを見ており、合成注視方向は、表示部3Bを見ていることを表す矢印、例えば下向きの矢印で表示される。ローカル側の表示部3に表示された矢印を見れば、全体として注意が向いていることが分かる。   The gaze direction difference display unit 27 displays the combined gaze direction when more than half of the gaze directions of the participants intersect at a point where the gaze directions of a plurality of participants intersect (when intersecting within the threshold range of each participant). Show. In FIG. 16, more than half of the viewers look at the display unit 3B, and the combined gaze direction is displayed by an arrow indicating that the display unit 3B is viewed, for example, a downward arrow. By looking at the arrow displayed on the local display unit 3, it can be seen that attention is generally given.

図17では視線方向が様々であり、合成注視方向の表示が行われない、あるいは、表示部3Bから見て左方向に半数以上の人が向いているとして、左方向に合成注視方向を表示する。どちらの場合も、半数以上が表示部3Bを見ていないことを示し、全体として注意が向いていないことが分かる。   In FIG. 17, the line-of-sight directions are various, and the composite gaze direction is not displayed, or the composite gaze direction is displayed in the left direction assuming that more than half of the people are facing left as viewed from the display unit 3B. . In either case, it can be seen that more than half of them do not look at the display unit 3B, and that the whole is not paying attention.

なお、実施の形態では2つの拠点の間の通信について説明したが、本発明は3つ以上の拠点で同時にテレビ会議を行う場合に適用することができる。表示部3が通信相手の2以上の拠点に分割して表示する場合には、通信相手ごとに注視方向と画像表示装置の方向との差分を表示する。通信相手ごとに表示部3を備える場合、それぞれの表示部3にその通信相手側の参加者の注視方向と画像表示装置の方向との差分を表示する。   In addition, although communication between two bases was demonstrated in embodiment, this invention can be applied when performing a video conference simultaneously in three or more bases. When the display unit 3 divides and displays at two or more bases of communication partners, the difference between the gaze direction and the direction of the image display device is displayed for each communication partner. When the display unit 3 is provided for each communication partner, the difference between the gaze direction of the participant on the communication partner side and the direction of the image display device is displayed on each display unit 3.

本発明の第1の効果は、リモート側に専用の装置や処理部を設けることなく、ローカル側の処理だけでリモート側の参加者の視線方向を計算し、表示することができることにある。その理由は、ローカル側の画像解析部がリモート側の参加者の視線方向を計算して表示するためである。一般に、リモート側の画像から直接得られる情報はリモート側の参加者の見かけ上の視線方向だけであるが、同時にリモート側の画像表示装置の位置を推定し、画像表示装置の位置方向と見かけ上の視線方向の差分を計算することで、実際の視線方向を決定することができる。   A first effect of the present invention is that the line-of-sight direction of a remote participant can be calculated and displayed only by local processing without providing a dedicated device or processing unit on the remote side. This is because the local image analysis unit calculates and displays the viewing direction of the remote participant. Generally, the information obtained directly from the remote image is only the apparent line-of-sight direction of the remote participant, but at the same time, the position of the remote image display device is estimated, and the position direction of the image display device and the apparent By calculating the difference between the gaze directions, the actual gaze direction can be determined.

本発明の第2の効果は、リモート側の参加者がローカル側の話者を見ているのか否かが、ローカル側の話者にすぐに分かることにある。その理由は、抽出したリモート側の参加者の視線方向を、ローカル側の話者方向とそれ以外の2値、もしくはローカル側の話者方向とその左と右の3値で表示することができるためである。   The second effect of the present invention is that the local speaker can immediately know whether or not the remote participant is watching the local speaker. The reason is that the line-of-sight direction of the extracted remote participant can be displayed as the local speaker direction and the other two values, or the local speaker direction and the left and right three values. Because.

本発明の第3の効果は、リモート側の参加者が複数の際に、リモート側の参加者全体がどこに注視しているかがローカル側の話者にとってわかりやすいことにある。その理由は、リモート側の複数参加者の視線方向を適切に統合して表示する機能を有するためである。   The third effect of the present invention is that, when there are a plurality of remote participants, it is easy for the local speaker to understand where the entire remote participant is gazing. The reason is that it has a function of appropriately integrating and displaying the gaze directions of a plurality of remote participants.

その結果、本発明に係る画像付通信装置によれば、対面でのコミュニケーションに近い環境を提供できる。   As a result, according to the communication device with an image according to the present invention, an environment close to face-to-face communication can be provided.

本発明の実施の形態1に係るテレビ会議装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the video conference apparatus which concerns on Embodiment 1 of this invention. 実施の形態1に係るテレビ会議装置を用いるシステムの一例を示すブロック図である。1 is a block diagram illustrating an example of a system that uses a video conference apparatus according to Embodiment 1. FIG. 参加者の注視方向と表示装置方向の差分を判定する方法を説明する平面図である。図3(A)は表示部に対し注視する方向を判定する角度を示す。図3(B)は一例として表示部からはずれた方向を注視した状態を示す。It is a top view explaining the method of determining the difference of a participant's gaze direction and a display apparatus direction. FIG. 3A shows an angle for determining a direction of gazing at the display unit. FIG. 3B shows a state in which a direction deviated from the display unit is observed as an example. 実施の形態1に係るテレビ会議装置の注視方向を表示する動作の一例を示すフローチャートである。5 is a flowchart illustrating an example of an operation for displaying a gaze direction of the video conference apparatus according to Embodiment 1; リモート側から送られた画像の一例を示す図である。It is a figure which shows an example of the image sent from the remote side. 実施の形態1に係る注視方向の表示の例を示す図である。6 is a diagram illustrating an example of display of a gaze direction according to Embodiment 1. FIG. 画像表示装置の位置を推定する方法を説明する図である。It is a figure explaining the method to estimate the position of an image display apparatus. 注視方向の表示の例を示す図である。It is a figure which shows the example of a display of a gaze direction. 注視方向を合成して表示する例を示す図である。It is a figure which shows the example which synthesize | combines and displays a gaze direction. 画像表示装置の位置を推定する方法を説明する図である。It is a figure explaining the method to estimate the position of an image display apparatus. 画像に投射器が映っている例を示す図である。It is a figure which shows the example in which the projector is reflected on the image. 本発明の実施の形態2に係るテレビ会議装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the video conference apparatus which concerns on Embodiment 2 of this invention. 実施の形態2に係るテレビ会議装置の注視方向を表示する動作の一例を示すフローチャートである。10 is a flowchart illustrating an example of an operation for displaying a gaze direction of the video conference apparatus according to Embodiment 2. 実施の形態2に係る注視方向を表示する動作を説明する図である。10 is a diagram for explaining an operation for displaying a gaze direction according to Embodiment 2. FIG. 実施の形態2に係る注視方向の表示の例を示す図である。10 is a diagram illustrating an example of display of a gaze direction according to Embodiment 2. FIG. 実施の形態2に係る注視方向の判定の例を示す平面図である。10 is a plan view illustrating an example of determination of a gaze direction according to Embodiment 2. FIG. 実施の形態2に係る注視方向の異なる例を示す平面図である。10 is a plan view showing an example of different gaze directions according to Embodiment 2. FIG.

符号の説明Explanation of symbols

1 テレビ会議装置
2 制御装置
3、3A、3B 表示部
4、4A、4B カメラ
11 送受信部
12 通信処理部
13 参加者検出部
14 注視方向検出部
15 表示装置位置推定部
16 注視方向差分算出部
17 注視方向差分表示部
18 画像出力部
19 画像入力部
20 合成注視方向算出部
23 参加者検出部
24 注視方向検出部
25 表示装置位置推定部
26 注視方向差分算出部
27 注視方向差分表示部
DESCRIPTION OF SYMBOLS 1 Video conference apparatus 2 Control apparatus 3, 3A, 3B Display part 4, 4A, 4B Camera 11 Transmission / reception part 12 Communication processing part 13 Participant detection part 14 Gaze direction detection part 15 Display apparatus position estimation part 16 Gaze direction difference calculation part 17 Gaze direction difference display unit 18 Image output unit 19 Image input unit 20 Composite gaze direction calculation unit 23 Participant detection unit 24 Gaze direction detection unit 25 Display device position estimation unit 26 Gaze direction difference calculation unit 27 Gaze direction difference display unit

Claims (16)

通信相手から画像を受信する画像受信手段と、
前記画像受信手段で受信した画像から人物の顔とその画像内における注視方向を検出する検出手段と、
前記画像受信手段で受信した画像から通信相手側の画像表示装置の位置を推定する推定手段と、
前記画像内の注視方向と前記通信相手側の画像表示装置の位置の方向との差分を算出する差分算出手段と、
前記画像受信手段で受信した画像を表示する画像表示手段と、
前記画像受信手段で受信した画像とともに、前記差分算出手段で算出した差分を前記画像表示手段に表示する差分表示手段と、
を備えることを特徴とする画像付通信装置。
Image receiving means for receiving an image from a communication partner;
Detecting means for detecting a human face and a gaze direction in the image from the image received by the image receiving means;
Estimating means for estimating the position of the image display device on the communication partner side from the image received by the image receiving means;
Difference calculating means for calculating a difference between the gaze direction in the image and the direction of the position of the image display device on the communication partner side;
Image display means for displaying an image received by the image receiving means;
A difference display means for displaying the difference calculated by the difference calculation means on the image display means together with the image received by the image receiving means;
A communication apparatus with an image, comprising:
前記推定手段は、前記画像内における注視方向を所定の時間にわたって観測することによって、前記通信相手側の画像表示装置の位置を推定することを特徴とする請求項1に記載の画像付通信装置。   The communication device with an image according to claim 1, wherein the estimating unit estimates the position of the image display device on the communication partner side by observing a gaze direction in the image over a predetermined time. 前記推定手段は、前記画像内に通信相手側の画像表示装置を検出した場合に、その位置を前記画像表示装置の位置と推定することを特徴とする請求項1に記載の画像付通信装置。   The communication device with an image according to claim 1, wherein when the image display device on the communication partner side is detected in the image, the estimation means estimates the position as the position of the image display device. 前記推定手段は、前記画像内に通信相手側の画像表示装置の投射装置を検出した場合に、その位置と方向とから前記通信相手側の画像表示装置の位置を推定することを特徴とする請求項1に記載の画像付通信装置。   The said estimation means estimates the position of the said image display apparatus of the communicating party side from the position and direction, when the projection apparatus of the image display apparatus of the communicating party side is detected in the said image. Item 2. The image-attached communication device according to Item 1. 前記差分表示手段は、前記差分算出手段で算出した差分を、前記通信相手側の画像表示装置の方向とそれ以外との2通りのいずれかに分類して表示することを特徴とする請求項1ないし4のいずれか1項に記載の画像付通信装置。   2. The difference display unit displays the difference calculated by the difference calculation unit by classifying the difference into one of two directions, that is, a direction of the image display device on the communication partner side and the other. 5. The image-attached communication device according to any one of items 4 to 4. 前記差分表示手段は、前記差分算出手段で算出した差分を、前記通信相手側の画像表示装置の方向とその右および左の3通りのいずれかに分類して表示することを特徴とする請求項1ないし4のいずれか1項に記載の画像付通信装置。   The difference display unit displays the difference calculated by the difference calculation unit by classifying the difference into one of the direction of the image display apparatus on the communication partner side and the right and left of the direction. 5. The image-attached communication device according to any one of 1 to 4. 前記検出手段は、前記画像受信手段で受信した画像に複数の人物の顔を検出した場合に、それぞれの人物について前記画像内の注視方向を検出し、
前記差分算出手段は、前記複数の人物の注視方向が交わる点のうち、その点を通る注視方向の数が最大の点について、その点を通る注視方向を合成した合成注視方向と前記画像表示装置の方向との差分を算出し、
前記差分表示手段は、前記合成注視方向と画像表示装置の方向との差分を表示する、
ことを特徴とする請求項1ないし6のいずれか1項に記載の画像付通信装置。
The detection means detects a gaze direction in the image for each person when detecting the faces of a plurality of persons in the image received by the image receiving means,
The difference calculation means is a composite gaze direction obtained by synthesizing a gaze direction passing through a point having a maximum number of gaze directions passing through the points among the points where the gaze directions of the plurality of persons intersect with the image display device. Calculate the difference from the direction of
The difference display means displays a difference between the synthetic gaze direction and the direction of the image display device.
The image-attached communication device according to any one of claims 1 to 6,
通信相手から画像を受信する画像受信ステップと、
前記画像受信ステップで受信した画像から人物の顔とその画像内における注視方向を検出する検出ステップと、
前記画像受信ステップで受信した画像から通信相手側の画像表示装置の位置を推定する推定ステップと、
前記画像内の注視方向と前記通信相手側の画像表示装置の位置の方向との差分を算出する差分算出ステップと、
前記画像受信ステップで受信した画像とともに、前記差分算出ステップで算出した差分を画像表示手段に表示する差分表示ステップと、
を備えることを特徴とする画像付通信表示方法。
An image receiving step for receiving an image from a communication partner;
A detecting step for detecting a human face and a gaze direction in the image from the image received in the image receiving step;
An estimation step for estimating the position of the image display device on the communication partner side from the image received in the image reception step;
A difference calculating step for calculating a difference between the gaze direction in the image and the direction of the position of the image display device on the communication partner side;
A difference display step for displaying the difference calculated in the difference calculation step on the image display means together with the image received in the image reception step;
A communication display method with an image, comprising:
前記推定ステップは、前記画像内における注視方向を所定の時間にわたって観測することによって、前記通信相手側の画像表示装置の位置を推定することを特徴とする請求項8に記載の画像付通信表示方法。   9. The communication display method with image according to claim 8, wherein the estimating step estimates the position of the image display device on the communication partner side by observing a gaze direction in the image over a predetermined time. . 前記推定ステップは、前記画像内に通信相手側の画像表示装置を検出した場合に、その位置を前記画像表示装置の位置と推定することを特徴とする請求項8に記載の画像付通信表示方法。   9. The communication display method with image according to claim 8, wherein when the image display device on the communication partner side is detected in the image, the estimation step estimates the position as the position of the image display device. . 前記推定ステップは、前記画像内に通信相手側の画像表示装置の投射装置を検出した場合に、その位置と方向とから前記通信相手側の画像表示装置の位置を推定することを特徴とする請求項8に記載の画像付通信表示方法。   The estimation step estimates the position of the image display device on the communication partner side from the position and direction when the projection device of the image display device on the communication partner side is detected in the image. Item 9. The communication display method with image according to Item 8. 前記差分表示ステップは、前記差分算出ステップで算出した差分を、前記通信相手側の画像表示装置の方向とそれ以外との2通りのいずれかに分類して表示することを特徴とする請求項8ないし11のいずれか1項に記載の画像付通信表示方法。   The difference display step classifies and displays the difference calculated in the difference calculation step by classifying the difference into one of a direction of the image display device on the communication partner side and the other. The communication display method with an image according to any one of Items 11 to 11. 前記差分表示ステップは、前記差分算出ステップで算出した差分を、前記通信相手側の画像表示装置の方向とその右および左の3通りのいずれかに分類して表示することを特徴とする請求項8ないし11のいずれか1項に記載の画像付通信表示方法。   The difference display step classifies and displays the difference calculated in the difference calculation step by classifying the difference into one of the direction of the image display device on the communication partner side and the right and left thereof. The communication display method with an image according to any one of 8 to 11. 前記検出ステップは、前記画像受信ステップで受信した画像に複数の人物の顔を検出した場合に、それぞれの人物について前記画像内の注視方向を検出し、
前記差分算出ステップは、前記複数の人物の注視方向が交わる点のうち、その点を通る注視方向の数が最大の点について、その点を通る注視方向を合成した合成注視方向と前記画像表示装置の方向との差分を算出し、
前記差分表示ステップは、前記合成注視方向と画像表示装置の方向との差分を表示する、
ことを特徴とする請求項8ないし13のいずれか1項に記載の画像付通信表示方法。
The detecting step detects a gaze direction in the image for each person when detecting a plurality of human faces in the image received in the image receiving step;
The difference calculating step includes, for the point having the largest number of gaze directions passing through the points among the points where the gaze directions of the plurality of persons intersect, a synthesized gaze direction obtained by combining the gaze directions passing through the points and the image display device Calculate the difference from the direction of
The difference display step displays a difference between the synthetic gaze direction and the direction of the image display device.
The communication display method with an image according to any one of claims 8 to 13.
コンピュータを、
通信相手から画像を受信する画像受信手段と、
前記画像受信手段で受信した画像から人物の顔とその画像内における注視方向を検出する検出手段と、
前記画像受信手段で受信した画像から通信相手側の画像表示装置の位置を推定する推定手段と、
前記画像内の注視方向と前記通信相手側の画像表示装置の位置の方向との差分を算出する差分算出手段と、
前記画像受信手段で受信した画像を表示する画像表示手段と、
前記画像受信手段で受信した画像とともに、前記差分算出手段で算出した差分を前記画像表示手段に表示する差分表示手段と、
して機能させることを特徴とするプログラム。
Computer
Image receiving means for receiving an image from a communication partner;
Detecting means for detecting a human face and a gaze direction in the image from the image received by the image receiving means;
Estimating means for estimating the position of the image display device on the communication partner side from the image received by the image receiving means;
Difference calculating means for calculating a difference between the gaze direction in the image and the direction of the position of the image display device on the communication partner side;
Image display means for displaying an image received by the image receiving means;
A difference display means for displaying the difference calculated by the difference calculation means on the image display means together with the image received by the image receiving means;
A program characterized by making it function.
通信相手から画像を受信する受信手段と、
前記受信手段で受信した画像を表示する画像表示手段と、
参加者の画像をネットワークを介して通信相手へ送信する送信手段と、
を備える第1の画像付通信装置と、
前記ネットワークを介して前記第1の画像付通信装置から画像を受信する画像受信手段と、
前記画像受信手段で受信した画像から人物の顔とその画像内における注視方向を検出する検出手段と、
前記画像受信手段で受信した画像から通信相手側の画像表示装置の位置を推定する推定手段と、
前記画像内の注視方向と前記通信相手側の画像表示装置の位置の方向との差分を算出する差分算出手段と、
前記画像受信手段で受信した画像を表示する画像表示手段と、
前記画像受信手段で受信した画像とともに、前記差分算出手段で算出した差分を前記画像表示手段に表示する差分表示手段と、
を備える第2の画像付通信装置と、
から構成されることを特徴とする画像付通信システム。
Receiving means for receiving an image from a communication partner;
Image display means for displaying an image received by the receiving means;
A transmission means for transmitting an image of a participant to a communication partner via a network;
A first image-attached communication device comprising:
Image receiving means for receiving an image from the first communication device with an image via the network;
Detecting means for detecting a human face and a gaze direction in the image from the image received by the image receiving means;
Estimating means for estimating the position of the image display device on the communication partner side from the image received by the image receiving means;
Difference calculating means for calculating a difference between the gaze direction in the image and the direction of the position of the image display device on the communication partner side;
Image display means for displaying an image received by the image receiving means;
A difference display means for displaying the difference calculated by the difference calculation means on the image display means together with the image received by the image receiving means;
A second image-attached communication device comprising:
A communication system with an image, comprising:
JP2007324752A 2007-12-17 2007-12-17 Communication apparatus with image, communication display method with image, program and communication system with image Pending JP2009147792A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007324752A JP2009147792A (en) 2007-12-17 2007-12-17 Communication apparatus with image, communication display method with image, program and communication system with image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007324752A JP2009147792A (en) 2007-12-17 2007-12-17 Communication apparatus with image, communication display method with image, program and communication system with image

Publications (1)

Publication Number Publication Date
JP2009147792A true JP2009147792A (en) 2009-07-02

Family

ID=40917854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007324752A Pending JP2009147792A (en) 2007-12-17 2007-12-17 Communication apparatus with image, communication display method with image, program and communication system with image

Country Status (1)

Country Link
JP (1) JP2009147792A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011033598A1 (en) * 2009-09-19 2011-03-24 株式会社 東芝 Conference support apparatus
JP2011077652A (en) * 2009-09-29 2011-04-14 Oki Electric Industry Co Ltd Remote communication system and remote communication method
JP2013046319A (en) * 2011-08-26 2013-03-04 Hitachi Consumer Electronics Co Ltd Image processing apparatus and image processing method
JP2021044723A (en) * 2019-09-12 2021-03-18 富士通株式会社 Visual line information processing program, information processing device, and visual line processing method
KR20220056622A (en) 2020-10-28 2022-05-06 삼성에스디에스 주식회사 Method and apparatus for providing explainable artificial intelligence

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011033598A1 (en) * 2009-09-19 2011-03-24 株式会社 東芝 Conference support apparatus
JP2011077652A (en) * 2009-09-29 2011-04-14 Oki Electric Industry Co Ltd Remote communication system and remote communication method
JP2013046319A (en) * 2011-08-26 2013-03-04 Hitachi Consumer Electronics Co Ltd Image processing apparatus and image processing method
JP2021044723A (en) * 2019-09-12 2021-03-18 富士通株式会社 Visual line information processing program, information processing device, and visual line processing method
JP7284401B2 (en) 2019-09-12 2023-05-31 富士通株式会社 Line-of-sight information processing program, information processing device, and line-of-sight information processing method
KR20220056622A (en) 2020-10-28 2022-05-06 삼성에스디에스 주식회사 Method and apparatus for providing explainable artificial intelligence

Similar Documents

Publication Publication Date Title
US10965909B2 (en) Image processing apparatus, camera apparatus, and image processing method
US9894320B2 (en) Information processing apparatus and image processing system
CN109952759B (en) Improved method and system for video conferencing with HMD
US7847814B2 (en) Systems and methods for enhancing teleconference collaboration
US9967518B2 (en) Video conference system
US20070188595A1 (en) Apparatus and method for presenting audio in a video teleconference
US10325144B2 (en) Wearable apparatus and information processing method and device thereof
JP2006333301A (en) Video communication apparatus
JP2006262010A (en) Remote conference/education system
JP2009147792A (en) Communication apparatus with image, communication display method with image, program and communication system with image
JP2004129071A (en) Two-way communication system
JP2013115527A (en) Video conference system and video conference method
EP3465631B1 (en) Capturing and rendering information involving a virtual environment
CN111542876A (en) Information processing apparatus, information processing method, and program
US20200195885A1 (en) Asymmetric video conferencing system and method
US7986336B2 (en) Image capture apparatus with indicator
JP2001136501A (en) Sight line match video conference apparatus
JP2006054830A (en) Image compression communication method and device
JP4287770B2 (en) Information transmission method, communication apparatus for realizing the method, and program thereof
US11178361B2 (en) Virtual window for teleconferencing
JP2003244669A (en) Video conference system having sight line detecting function
JP2005340974A (en) Image-transmission control program and image display program
JP7110669B2 (en) Video conferencing system, video conferencing method, and program
US20120028585A1 (en) Communication system and communication program
KR102391898B1 (en) Remote access system for transmitting video data and method performing there of