JP2010239583A - Communication terminal unit, method of controlling communication of communication terminal unit, and communication control program - Google Patents

Communication terminal unit, method of controlling communication of communication terminal unit, and communication control program Download PDF

Info

Publication number
JP2010239583A
JP2010239583A JP2009088069A JP2009088069A JP2010239583A JP 2010239583 A JP2010239583 A JP 2010239583A JP 2009088069 A JP2009088069 A JP 2009088069A JP 2009088069 A JP2009088069 A JP 2009088069A JP 2010239583 A JP2010239583 A JP 2010239583A
Authority
JP
Japan
Prior art keywords
user
line
sight
predetermined time
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009088069A
Other languages
Japanese (ja)
Inventor
Takahiro Shimazu
宝浩 島津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2009088069A priority Critical patent/JP2010239583A/en
Publication of JP2010239583A publication Critical patent/JP2010239583A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a communication terminal unit for performing conversation in natural situations while looking away moderately, and to provide a method of controlling the communication of a communication terminal unit, and a communication control program. <P>SOLUTION: It is monitored whether eyes of a user of a terminal device unnaturally coincide with an opposite user displayed on a screen during a teleconference (S5). When an unnatural coincident state of one's eyes is detected (S5:YES), a signal (first signal) which indicates that the unnatural coincident state of one's eyes has been detected is sent to a terminal unit of the opposite user (S9). In the terminal unit of the opposite user, the position of a video camera for photographing the opposite user is changed when the first signal is received, thus avoiding the unnatural coincident state of one's eyes among members participating in a conference, thus enabling the members participating in the conference to talk smoothly. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、相手側の通信端末装置との間で、画像と音声を双方向に送受信できる通信端末装置、当該通信端末装置の通信制御方法、通信制御プログラムに関する。   The present invention relates to a communication terminal device capable of bidirectionally transmitting and receiving an image and sound to and from a counterpart communication terminal device, a communication control method for the communication terminal device, and a communication control program.

従来、複数の通信端末装置をネットワークを介して接続し、画像と音声を双方向に送受信することで、遠隔の地にある者同士の会議を実現するテレビ会議システムが知られている。臨場感を伴う高度なテレビ会議システムの実現には、会議出席者間の視線一致が不可欠である。そこで、液晶ディスプレイやプロジェクタ等の利用によるさまざまな視線一致の実現手法が提案されている。   2. Description of the Related Art Conventionally, there has been known a video conference system in which a plurality of communication terminal devices are connected via a network and images and sound are bidirectionally transmitted and received to realize a conference between persons in remote locations. In order to realize an advanced video conference system with a sense of presence, it is indispensable to match the line of sight of the conference participants. Therefore, various methods for realizing line-of-sight matching by using a liquid crystal display or a projector have been proposed.

例えば、スクリーンの裏面に対して斜め後方にプロジェクタを配置し、スクリーンの裏面にビデオカメラを垂直に配置した表示撮像装置が知られている(例えば、特許文献1参照)。プロジェクタは、スクリーンに対して他拠点で撮影されたユーザの撮影画像を映し出す。ビデオカメラの映像は、他拠点に配置した表示撮像装置のプロジェクタから出力される。このような配置により、会議出席者がスクリーンを見つめると、会議出席者の視線は、スクリーンを介してビデオカメラに向けられる。よって、会議出席者間の視線を一致させることができる。   For example, a display and imaging apparatus is known in which a projector is disposed obliquely behind the back surface of the screen and a video camera is disposed vertically on the back surface of the screen (see, for example, Patent Document 1). The projector displays a user's photographed image taken at another site on the screen. The video of the video camera is output from a projector of a display imaging device arranged at another site. With this arrangement, when the conference attendee stares at the screen, the conference attendee's line of sight is directed to the video camera through the screen. Therefore, it is possible to match the line of sight between the attendees.

特開平6−133311号公報JP-A-6-133111

しかしながら、日常生活の中で会話をする場合には、相手と視線を合わせ続けながら会話をすることは少ない。話者は、状況に応じて、相手に視線をあわせるだけでなく、相手から自然に視線を外して会話をしている。一方、特許文献1に記載の表示撮像装置を用いてテレビ会議を行った場合、会議出席者がスクリーンを見つめ続けると、相手から自然に視線を外すことが困難となり、会議出席者間の視線は一致し続けてしまう。この場合、居心地の悪い不自然な状況になってしまうという問題点があった。   However, when talking in daily life, it is rare to have a conversation while keeping the line of sight with the other party. Depending on the situation, the speaker not only adjusts his / her line of sight to the other party, but also naturally talks with the other party. On the other hand, when a video conference is performed using the display imaging device described in Patent Document 1, if the conference attendee continues to stare at the screen, it is difficult to naturally remove the gaze from the other party. Continue to match. In this case, there was a problem that it would be uncomfortable and unnatural.

本発明は、上記課題を解決するためになされたものであり、適度に視線を外しながら自然な状況で会話をすることができる通信端末装置、通信端末装置の通信制御方法、通信制御プログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and provides a communication terminal device, a communication control method for the communication terminal device, and a communication control program capable of having a conversation in a natural situation while appropriately removing the line of sight The purpose is to do.

上記目的を達成するために、請求項1に係る発明の通信端末装置は、ネットワークを介して接続された他の端末と、画像及び音声を介した通信を行う通信端末装置であって、ユーザを撮影するユーザ撮影手段と、前記ユーザ撮影手段が撮影した前記ユーザの画像を他の端末に送信する画像送信手段と、他の端末から送信された前記画像を画面に表示する表示手段と、前記ユーザ撮影手段により撮影された画像から前記ユーザの視線方向を検出する視線方向検出手段と、前記視線方向検出手段が検出した前記視線方向の先にある前記表示手段が表示した画面上の視線位置を特定する視線位置特定手段と、前記画面上の前記ユーザの顔を検出する顔検出手段と、前記視線位置特定手段によって特定された前記視線位置が、前記顔検出手段によって検出された前記ユーザの顔の所定領域内にある状態を視線一致状態として検出する視線一致検出手段と、前記視線一致検出手段により前記視線一致状態が検出された場合に、前記視線一致状態が継続する時間である視線一致時間を計測する視線一致時間計測手段と、前記視線一致時間計測手段により計測された前記視線一致時間が第一所定時間以上になったか否かを判断する第一所定時間判断手段と、前記第一所定時間判断手段によって前記視線一致時間が前記第一所定時間以上になったと判断された場合に、前記視線一致状態の対象である相手ユーザの前記画像データを送信する端末である相手側端末に、前記視線一致時間が前記第一所定時間以上になったことを示す第一信号を送信する第一信号送信手段と、前記相手側端末から送信された前記第一信号を受信する第一信号受信手段と、前記第一信号受信手段によって、前記第一信号を受信した場合に、前記ユーザ撮影手段の前記ユーザに対する撮影位置を変更する撮影位置変更手段とを備えている。   In order to achieve the above object, a communication terminal device according to a first aspect of the present invention is a communication terminal device that communicates with another terminal connected via a network via an image and a sound. User photographing means for photographing, image transmitting means for transmitting the image of the user photographed by the user photographing means to another terminal, display means for displaying the image transmitted from the other terminal on the screen, and the user The line-of-sight position on the screen displayed by the display unit displayed by the display unit ahead of the line-of-sight direction detected by the line-of-sight direction detected by the line-of-sight direction detection unit and the line-of-sight direction detected by the user The line-of-sight position specifying means, the face detection means for detecting the user's face on the screen, and the line-of-sight position specified by the line-of-sight position specifying means are detected by the face detection means. The line-of-sight matching detection means for detecting a state within the predetermined area of the user's face as a line-of-sight matching state, and the line-of-sight matching state is continued when the line-of-sight matching detection is detected by the line-of-sight matching detection means Gaze coincidence time measuring means for measuring gaze coincidence time, which is a time to perform, and first predetermined time judgment for judging whether or not the gaze coincidence time measured by the gaze coincidence time measuring means is equal to or longer than a first predetermined time And a terminal that transmits the image data of the other user who is the target of the line-of-sight matching state when the line-of-sight matching time is determined to be equal to or longer than the first predetermined time by the first predetermined time determination unit. A first signal transmitting means for transmitting a first signal indicating that the line-of-sight matching time is equal to or longer than the first predetermined time to a counterpart terminal; and transmitted from the counterpart terminal. First signal receiving means for receiving the first signal, and photographing position changing means for changing the photographing position of the user photographing means with respect to the user when the first signal is received by the first signal receiving means; It has.

また、請求項2に係る発明の通信端末装置は、請求項1に記載の発明の構成に加え、前記撮影位置変更手段は、前記撮影手段を前記ユーザの視線方向から退避する位置に移動させることを特徴とする。   According to a second aspect of the present invention, in addition to the configuration of the first aspect of the invention, the photographing position changing means moves the photographing means to a position where the photographing means is retracted from the user's line-of-sight direction. It is characterized by.

また、請求項3に係る発明の通信端末装置は、請求項1又は2に記載の発明の構成に加え、非可視光を前記ユーザの眼球に照射する照射手段をさらに備え、前記視線方向検出手段は、前記ユーザ撮影手段により撮影された前記画像における前記非可視光の前記ユーザの眼球角膜反射面における虚像(プルキニエ像)と、前記ユーザの眼球瞳孔中心との相対位置から、前記視線方向を検出することを特徴とする。   In addition to the configuration of the invention described in claim 1 or 2, the communication terminal device of the invention according to claim 3 further includes irradiation means for irradiating the user's eyeball with invisible light, and the line-of-sight direction detection means Detects the line-of-sight direction from the relative position between the virtual image (Purkinje image) of the invisible light of the user's eyeball cornea in the image photographed by the user photographing means and the eyeball pupil center of the user. It is characterized by doing.

また、請求項4に係る発明の通信端末装置は、請求項3に記載の発明の構成に加え、前記ユーザの眼球と前記画面と前記照射手段との位置関係を記憶する位置関係記憶手段をさらに備え、前記視線位置特定手段は、前記位置関係記憶手段に記憶された前記位置関係と、前記視線方向検出手段によって検出された前記視線方向とから、前記画面上の前記視線位置を特定することを特徴とする。   According to a fourth aspect of the present invention, in addition to the configuration of the third aspect of the invention, the communication terminal device further includes a positional relationship storage unit that stores a positional relationship among the user's eyeball, the screen, and the irradiation unit. The line-of-sight position specifying unit specifies the line-of-sight position on the screen from the positional relationship stored in the positional relationship storage unit and the line-of-sight direction detected by the line-of-sight direction detecting unit. Features.

また、請求項5に係る発明の通信端末装置は、請求項3又は4に記載の発明の構成に加え、前記ユーザ撮影手段は、前記ユーザに対して前記画面の後方に配置され、前記照射手段は、前記ユーザ撮影手段に取り付けられていることを特徴とする。   According to a fifth aspect of the present invention, there is provided the communication terminal device according to the third or fourth aspect, wherein the user photographing unit is arranged behind the screen with respect to the user, and the irradiation unit. Is attached to the user photographing means.

また、請求項6に係る発明の通信端末装置は、請求項1乃至5のいずれかに記載の発明の構成に加え、前記画面に、前記ユーザの画像とは異なる別画像が前記画像と併せて表示されているか否かを判断する別画像表示判断手段と、前記第一所定時間判断手段によって前記視線一致時間が前記第一所定時間以上になったと判断され、且つ前記別画像判断手段によって前記画面に前記別画像が表示されていると判断された場合に、前記画面において前記別画像を現在の表示サイズと比較して拡大表示するとともに、前記画像に重ねて透過表示する別画像拡大表示手段とを備えている。   In addition to the configuration of the invention according to any one of claims 1 to 5, a communication terminal device according to a sixth aspect of the invention includes a different image different from the user image on the screen together with the image. Another image display determination means for determining whether or not the image is displayed, and the first predetermined time determination means determines that the line-of-sight coincidence time has reached the first predetermined time or more, and the other image determination means determines the screen. Another image enlargement display means for enlarging and displaying the another image on the screen in comparison with a current display size and displaying the image in a transparent manner on the screen when it is determined that the other image is displayed on the screen. It has.

また、請求項7に係る発明の通信端末装置は、請求項6に記載の発明の構成に加え、前記別画像拡大表示手段は、前記別画像を前記ユーザの画像の前記所定領域に重ねて表示することを特徴とする。   According to a seventh aspect of the present invention, in the communication terminal device according to the sixth aspect, in addition to the configuration of the sixth aspect, the separate image enlargement display unit displays the separate image on the predetermined area of the user image. It is characterized by doing.

また、請求項8に係る発明の通信端末装置は、請求項1乃至7のいずれかに記載の発明の構成に加え、前記第一信号送信手段により前記第一信号を送信してからの経過時間である送信後経過時間を計測する送信後経過時間計測手段と、前記送信後経過時間計測手段により計測された前記送信後経過時間が第二所定時間以上になったか否かを判断する第二所定時間判断手段と、前記第二所定時間判断手段によって前記送信後経過時間が前記第二所定時間以上になったと判断された場合に、前記相手側端末に、前記送信後経過時間が前記第二所定時間以上になったことを示す第二信号を送信する第二信号送信手段と、前記第二信号を受信する第二信号受信手段と、前記第二信号受信手段によって、前記相手側端末から送信された前記第二信号が受信された場合に、前記撮影手段の前記撮影位置をもとの位置に復帰させる撮影位置復帰手段とをさらに備えている。   According to an eighth aspect of the present invention, there is provided a communication terminal apparatus according to any one of the first to seventh aspects, in addition to the time elapsed since the first signal was transmitted by the first signal transmission means. A post-transmission elapsed time measuring means for measuring the post-transmission elapsed time, and a second predetermined for determining whether or not the post-transmission elapsed time measured by the post-transmission elapsed time measuring means is equal to or longer than a second predetermined time. When the elapsed time after transmission is determined to be equal to or longer than the second predetermined time by the time determination means and the second predetermined time determination means, the post-transmission elapsed time is transmitted to the second predetermined time The second signal transmitting means for transmitting a second signal indicating that the time is over, the second signal receiving means for receiving the second signal, and the second signal receiving means. The second signal If it is, further comprising an imaging position returning means for returning the photographing position to the original position of the imaging means.

また、請求項9に係る発明の通信端末装置は、請求項1乃至8のいずれかに記載の発明の構成に加え、前記ユーザの音声を検出するユーザ音声検出手段と、前記相手ユーザの音声を検出する相手ユーザ音声検出手段と、前記ユーザ音声検出手段及び前記相手ユーザ音声検出手段のいずれも音声を検出しない状態を無言状態として、前記無言状態が継続する時間である無言時間を計測する無言時間計測手段と、前記無言時間計測手段により計測された前記無言時間に基づいて、前記第二所定時間を調整する第一の第二所定時間調整手段とをさらに備えている。   According to a ninth aspect of the present invention, in addition to the configuration of the first aspect of the present invention, the communication terminal device further comprises a user voice detecting means for detecting the voice of the user, and a voice of the counterpart user. The other party voice detecting means for detecting, and the silent time for measuring the silent time, which is the time during which the silent state continues, with the silent state being the state where none of the user voice detecting means and the other user voice detecting means detects the voice It further comprises a measuring means and a first second predetermined time adjusting means for adjusting the second predetermined time based on the silent time measured by the silent time measuring means.

また、請求項10に係る発明の通信端末装置は、請求項9に記載の発明の構成に加え、前記第一の第二所定時間調整手段は、前記無言時間計測手段により計測された前記無言時間が、第三所定時間以上になったか否かを判断する第三所定時間判断手段を備え、前記第三所定時間判断手段によって、前記無言時間が前記第三所定時間以上になったと判断された場合に、前記第二所定時間を延長することを特徴とする。   According to a tenth aspect of the present invention, in addition to the configuration of the ninth aspect of the invention, the first second predetermined time adjusting means includes the silent time measured by the silent time measuring means. Is provided with a third predetermined time determining means for determining whether or not the third predetermined time is exceeded, and the third predetermined time determining means determines that the silent time has become the third predetermined time or longer. Further, the second predetermined time is extended.

また、請求項11に係る発明の通信端末装置は、請求項1乃至10のいずれかに記載の発明の構成に加え、前記ユーザの瞬きを検出する瞬き検出手段と、前記瞬き検出手段によって検出された前記瞬きの回数をカウントする瞬きカウント手段と、前記カウント手段によってカウントされた前記回数に基づいて、前記第二所定時間を調整する第二の第二所定時間調整手段とをさらに備えている。   According to an eleventh aspect of the present invention, there is provided a communication terminal apparatus according to any one of the first to tenth aspects of the present invention, the blink detection means for detecting the blink of the user, and the blink detection means. Further, a blink counting means for counting the number of blinks, and a second second predetermined time adjusting means for adjusting the second predetermined time based on the number of times counted by the counting means.

また、請求項12に係る発明の通信端末装置は、請求項11に記載の発明の構成に加え、前記第二の第二所定時間調整手段は、前記視線一致検出手段により前記視線一致状態が検出されてからの経過時間を計測する計測手段と、前記計測手段により計測された前記経過時間が第四所定時間以上になったか否かを判断する第四所定時間判断手段と、前記第四所定時間判断手段によって前記経過時間が前記第四所定時間以上になったと判断された場合に、前記瞬きカウント手段によってカウントされた前記回数が所定回数以上であるか否かを判断する瞬き回数判断手段とを備え、前記瞬き回数判断手段により、前記回数が所定回数以上であったと判断された場合に、前記第二所定時間を延長することを特徴とする。   According to a twelfth aspect of the present invention, in addition to the configuration of the eleventh aspect of the invention, the second second predetermined time adjustment means detects the line-of-sight matching state by the line-of-sight matching detection means. Measuring means for measuring an elapsed time since being done, fourth predetermined time determining means for determining whether or not the elapsed time measured by the measuring means is equal to or longer than a fourth predetermined time, and the fourth predetermined time A blink number determination means for determining whether or not the number of times counted by the blink count means is equal to or greater than a predetermined number when the elapsed time is determined by the determination means to be equal to or greater than the fourth predetermined time; And the second predetermined time is extended when it is determined by the blink number determination means that the number of times is a predetermined number or more.

また、請求項13に係る発明の通信端末装置の通信制御方法は、ネットワークを介して接続された他の端末と、画像及び音声を介した通信を行う通信端末装置の通信制御方法であって、ユーザを撮影するユーザ撮影手段が撮影した前記ユーザの画像を他の端末に送信する画像データ送信ステップと、他の端末から送信された前記画像を画面に表示する表示ステップと、前記ユーザの視線方向を検出する視線方向検出ステップと、前記視線方向検出ステップにおいて検出された前記視線方向の先にある前記表示手段が表示した画面上の視線位置を特定する視線位置特定ステップと、前記画面上の前記ユーザの顔を検出する顔検出ステップと、前記視線位置特定ステップにおいて特定された前記視線位置が、前記顔検出ステップにおいて検出された前記ユーザの顔の所定領域内にある視線一致状態か否かを判断する視線一致判断ステップと、前記視線一致判断ステップにおいて前記視線一致状態であると判断された場合に、前記視線一致状態が継続する時間である視線一致時間を計測する視線一致時間計測ステップと、前記視線一致時間計測ステップにおいて計測された前記視線一致時間が第一所定時間以上になったか否かを判断する第一所定時間判断ステップと、前記第一所定時間判断ステップにおいて前記視線一致時間が前記第一所定時間以上になったと判断された場合に、前記視線一致状態の対象である相手ユーザの前記画像データを送信する相手側端末に、前記視線一致時間が前記第一所定時間以上になったことを示す第一信号を送信する第一信号送信ステップと、前記第一信号を受信する第一信号受信ステップと、
前記第一信号受信ステップにおいて、前記相手側端末から送信された前記第一信号を受信した場合に、前記撮影手段の前記ユーザに対する撮影位置を変更する撮影位置変更ステップとを備えたことを特徴とする。
A communication control method for a communication terminal device according to a thirteenth aspect of the present invention is a communication control method for a communication terminal device that performs communication with other terminals connected via a network via images and sounds. An image data transmitting step for transmitting to the other terminal an image of the user taken by the user photographing means for photographing the user, a display step for displaying the image transmitted from the other terminal on the screen, and the line-of-sight direction of the user A line-of-sight position detecting step, a line-of-sight position identifying step for identifying a line-of-sight position on the screen displayed by the display means ahead of the line-of-sight direction detected in the line-of-sight direction detecting step, The face detection step of detecting a user's face and the eye gaze position specified in the eye gaze position specifying step are detected in the face detection step. The line-of-sight matching state is continued when it is determined in the line-of-sight matching state in the line-of-sight matching determination step that determines whether or not the line-of-sight matching state is within a predetermined region of the user's face. A line-of-sight coincidence time measuring step for measuring a line-of-sight coincidence time, and a first predetermined time determination for determining whether or not the line-of-sight coincidence time measured in the line-of-sight coincidence time measuring step is equal to or longer than a first predetermined time And the partner side that transmits the image data of the partner user who is the subject of the line-of-sight matching state when it is determined in the step and the first predetermined time determination step that the line-of-sight matching time is equal to or longer than the first predetermined time A first signal transmission step of transmitting to the terminal a first signal indicating that the line-of-sight coincidence time is equal to or longer than the first predetermined time; A first signal receiving step of receiving,
In the first signal receiving step, when the first signal transmitted from the counterpart terminal is received, a photographing position changing step of changing a photographing position of the photographing unit with respect to the user is provided. To do.

また、請求項14に係る発明の通信制御プログラムは、請求項1乃至12のいずれかに記載の通信端末装置の各種処理手段としてコンピュータを機能させる。   According to a fourteenth aspect of the present invention, a communication control program causes a computer to function as various processing means of the communication terminal device according to any one of the first to twelfth aspects.

請求項1に係る発明の通信端末装置では、相手側端末と画像及び音声を介した通信を行うことができる。ユーザ撮影手段によってユーザが撮影される。ユーザ撮影手段によって撮影されたユーザの画像は、画像送信手段によって相手側端末に送信される。相手側端末から送信された相手ユーザの画像は、表示手段によって画面に表示される。表示手段によって画面に表示された相手ユーザの画像から、相手ユーザの顔が、顔検出手段によって検出される。一方、ユーザ撮影手段により撮影された画像から、ユーザの視線方向が視線方向検出手段によって検出される。視線方向検出手段によって検出された視線方向の先にある画面上の視線位置が、視線位置特定手段によって特定される。視線位置特定手段によって特定された視線位置が、顔検出手段によって検出された相手ユーザの顔の所定領域内にある場合に、視線一致検出手段によって視線一致状態が検出される。   In the communication terminal device according to the first aspect of the present invention, communication via the image and sound can be performed with the counterpart terminal. The user is photographed by the user photographing means. The user image taken by the user photographing means is transmitted to the counterpart terminal by the image transmitting means. The image of the partner user transmitted from the partner terminal is displayed on the screen by the display means. The face of the opponent user is detected by the face detection means from the image of the opponent user displayed on the screen by the display means. On the other hand, the gaze direction of the user is detected by the gaze direction detection unit from the image captured by the user imaging unit. The line-of-sight position on the screen ahead of the line-of-sight direction detected by the line-of-sight direction detecting means is specified by the line-of-sight position specifying means. When the line-of-sight position specified by the line-of-sight position specifying unit is within a predetermined area of the face of the opponent user detected by the face detection unit, the line-of-sight matching detection unit detects the line-of-sight matching state.

視線一致検出手段により視線一致状態が検出された場合、視線一致時間計測手段によって、視線一致状態が継続する時間である視線一致時間が計測される。そして、計測された視線一致時間が第一所定時間以上になったか否かが、第一所定時間判断手段によって判断される。視線一致時間が第一所定時間以上になったと、第一所定時間判断手段によって判断された場合、第一信号送信手段が相手側端末に視線一致時間が前記第一所定時間以上になったことを示す第一信号を送信する。相手側端末から送信された第一信号は、第一信号受信手段によって受信される。第一信号受信手段によって、第一信号が受信された場合に、撮影位置変更手段によって、ユーザ撮影手段のユーザに対する撮影位置が変更される。   When the line-of-sight matching state is detected by the line-of-sight matching detection unit, the line-of-sight matching time is measured by the line-of-sight matching time measuring unit. Then, the first predetermined time determining means determines whether or not the measured line-of-sight matching time is equal to or longer than the first predetermined time. When it is determined by the first predetermined time determination means that the line-of-sight coincidence time is equal to or longer than the first predetermined time, the first signal transmitting means confirms that the line-of-sight coincidence time is equal to or longer than the first predetermined time. The first signal shown is transmitted. The first signal transmitted from the counterpart terminal is received by the first signal receiving means. When the first signal is received by the first signal receiving unit, the shooting position of the user shooting unit with respect to the user is changed by the shooting position changing unit.

ユーザが画面上の相手ユーザに対して、不自然に長い時間視線を合わせている場合には、相手ユーザを撮影する撮影手段の撮影位置を変更することができるため、撮影手段に対する相手ユーザの視線をずらすことができる。よって、画面に映る相手ユーザの視線をずらすことができ、ユーザと相手ユーザとで視線が一致し続けてしまう居心地の悪い不自然な状況を回避できる。   When the user has been looking at the other user on the screen for an unnatural long time, the photographing position of the photographing means for photographing the other user can be changed. Can be shifted. Therefore, the line of sight of the partner user displayed on the screen can be shifted, and an uncomfortable and unnatural situation where the line of sight continues to match between the user and the partner user can be avoided.

また、請求項2に係る発明の通信端末装置は、請求項1に記載の発明の効果に加え、撮影手段は、撮影位置変更手段によってユーザの視線方向から退避する位置に移動される。相手ユーザの視線を、撮影手段から確実に外すことができるため、画面に映る相手ユーザの視線を確実にずらすことができる。   In the communication terminal device according to the second aspect of the invention, in addition to the effect of the invention according to the first aspect, the photographing means is moved to a position where it is retracted from the direction of the user's line of sight by the photographing position changing means. Since the other user's line of sight can be reliably removed from the photographing means, the other user's line of sight reflected on the screen can be reliably shifted.

また、請求項3に係る発明の通信端末装置は、請求項1又は2に記載の発明の効果に加え、照射手段が非可視光をユーザの眼球に照射し、視線方向検出手段は、ユーザ撮影手段により撮影された画像における非可視光のユーザの眼球角膜反射面における虚像(プルキニエ像)と、ユーザの眼球瞳孔中心との相対位置から、視線方向を検出する。そのため、大がかりな装置を用いずに、ユーザの視線方向を高精度に検出することができる。また、照射される光は非可視光なので、ユーザに違和感を与えずに、ユーザの視線方向を検出することができる。   According to a third aspect of the present invention, in addition to the effect of the first or second aspect of the invention, the irradiating means irradiates the user's eyeball with invisible light, and the gaze direction detecting means The line-of-sight direction is detected from the relative position of the virtual image (Purkinje image) on the eyeball cornea reflection surface of the user's eyeball cornea in the image photographed by the means and the user's eyeball pupil center. Therefore, the user's line-of-sight direction can be detected with high accuracy without using a large-scale device. Moreover, since the irradiated light is invisible light, a user's gaze direction can be detected without giving a user a sense of incongruity.

また、請求項4に係る発明の通信端末装置は、請求項3に記載の発明の効果に加え、位置関係記憶手段は、ユーザの眼球と画面と照射手段との位置関係を記憶する。視線位置特定手段は、位置関係記憶手段に記憶された位置関係と、視線方向検出手段によって検出された視線方向とから、ユーザの画面上の視線位置を特定する。よって、大がかりな装置を用いずに、ユーザの画面上の視線位置を特定できる。   According to a fourth aspect of the present invention, in addition to the effect of the third aspect of the invention, the positional relationship storage unit stores the positional relationship among the user's eyeball, the screen, and the irradiation unit. The line-of-sight position specifying unit specifies the line-of-sight position on the user's screen from the positional relationship stored in the positional relationship storage unit and the line-of-sight direction detected by the line-of-sight direction detecting unit. Therefore, the line-of-sight position on the user's screen can be specified without using a large-scale device.

また、請求項5に係る発明の通信端末装置は、請求項3又は4のいずれかに記載の発明の効果に加え、ユーザ撮影手段は、ユーザに対して画面の後方に配置されている。よって、ユーザが画面を見つめると、ユーザの視線は画面を介してユーザ撮影手段に向けられる。よって、ユーザと相手ユーザとの視線を自然に一致させることができる。また、照射手段は、ユーザ撮影手段に取り付けられているため、ユーザの視線がユーザ撮影手段に向けられている場合に、プルキニエ像と眼球瞳孔中心とは一致する。よって、ユーザの視線がユーザ撮影手段に向けられている場合を基準として、ユーザの視線方向を検出できる。   According to a fifth aspect of the present invention, in addition to the effect of the third aspect of the present invention, the user photographing means is arranged behind the screen with respect to the user. Therefore, when the user looks at the screen, the user's line of sight is directed to the user photographing means through the screen. Therefore, the line of sight between the user and the other user can be naturally matched. Further, since the irradiating means is attached to the user photographing means, the Purkinje image and the eyeball pupil center coincide with each other when the user's line of sight is directed to the user photographing means. Therefore, the user's line-of-sight direction can be detected with reference to the case where the user's line-of-sight is directed to the user photographing means.

また、請求項6に係る発明の通信端末装置は、請求項1乃至5のいずれかに記載の発明の効果に加え、別画像表示判断手段によって、画面に相手ユーザの画像とは異なる別画像が前記画像と併せて表示されているか否かが判断される。第一所定時間判断手段によって視線一致時間が第一所定時間以上になったと判断され、且つ別画像判断手段によって画面に別画像が表示されていると判断された場合に、相手ユーザの画像とは異なる別画像が、画面において拡大表示されるとともに、相手ユーザの画像に重ねて透過表示される。よって、不自然に視線が一致し続けてしまった場合には、視線一致の対象である相手ユーザの画像が目立たなくなる。そのため、居心地の悪い不自然な状況を回避できる。   In addition to the effect of the invention according to any one of claims 1 to 5, the communication terminal device according to a sixth aspect of the invention has a different image different from the image of the other user on the screen by the different image display determining means. It is determined whether the image is displayed together with the image. When the first predetermined time determining means determines that the line-of-sight matching time has reached the first predetermined time and the other image determining means determines that another image is displayed on the screen, Different different images are enlarged and displayed on the screen, and are displayed transparently on the other user's image. Therefore, when the line of sight continues to match unnaturally, the image of the partner user who is the target of line-of-sight matching becomes inconspicuous. Therefore, an unnatural unnatural situation can be avoided.

また、請求項7に係る発明の通信端末装置は、請求項6に記載の発明の効果に加え、別画像拡大表示手段によって、別画像が相手ユーザの画像の所定領域に重ねて表示される。そのため、視線一致の対象である相手ユーザの画像は確実に目立たなくなる。よって、居心地の悪い不自然な状況を確実に回避できる。   In addition to the effect of the invention according to claim 6, the communication terminal device according to claim 7 displays another image superimposed on a predetermined area of the image of the other user by the different image enlargement display means. Therefore, the image of the other user who is the subject of line-of-sight matching is certainly not conspicuous. Thus, uncomfortable and unnatural situations can be reliably avoided.

また、請求項8に係る発明の通信端末装置は、請求項1乃至7のいずれかに記載の発明の効果に加え、送信後経過時間計測手段が、第一信号送信手段により第一信号を送信してからの経過時間である送信後経過時間を計測する。第二所定時間判断手段が、送信後経過時間計測手段により計測された送信後経過時間が第二所定時間以上になったか否かを判断する。第二所定時間判断手段によって送信後経過時間が第二所定時間以上になったと判断された場合に、第二信号送信手段が、相手側端末に、送信後経過時間が第二所定時間以上になったことを示す第二信号を送信する。第二信号受信手段が第二信号を受信し、第二信号受信手段によって、相手側端末から送信された第二信号が受信された場合に、撮影位置復帰手段が、撮影手段の撮影位置をもとの位置に復帰させる。   According to an eighth aspect of the present invention, in addition to the effect of the first aspect, the post-transmission elapsed time measuring means transmits the first signal by the first signal transmitting means. Measure the elapsed time after transmission, which is the elapsed time since then. The second predetermined time determining means determines whether or not the post-transmission elapsed time measured by the post-transmission elapsed time measuring means is equal to or longer than the second predetermined time. When the second predetermined time determining means determines that the elapsed time after transmission has become equal to or longer than the second predetermined time, the second signal transmitting means notifies the counterpart terminal that the elapsed time after transmission has exceeded the second predetermined time. A second signal indicating that this is transmitted. When the second signal receiving means receives the second signal, and the second signal receiving means receives the second signal transmitted from the counterpart terminal, the photographing position returning means has the photographing position of the photographing means. Return to the position.

そのため、撮影手段のユーザに対する撮影位置が変更されてからの時間が第二所定時間以上になった場合、撮影手段の撮影位置を変更前の位置に復帰させることができる。よって、ユーザと相手ユーザとの間の不自然な視線一致状態が回避された後は、再度、ユーザと相手ユーザとの視線を一致させることができる。よって、ユーザ同士は、原則的には視線を合わせ、気まずい雰囲気の場合のみに視線を外して会議を行うことができる。   Therefore, when the time from when the shooting position of the shooting means to the user is changed is equal to or longer than the second predetermined time, the shooting position of the shooting means can be returned to the position before the change. Therefore, after the unnatural line-of-sight matching state between the user and the partner user is avoided, the lines of sight of the user and the partner user can be matched again. Therefore, the users can in principle meet each other and hold a meeting only when there is an awkward atmosphere.

また、請求項9に係る発明の通信端末装置は、請求項1乃至8のいずれかに記載の発明の効果に加え、ユーザ音声検出手段がユーザの音声を検出する。相手ユーザ音声検出手段が相手ユーザの音声を検出する。無言時間計測手段が、ユーザ音声検出手段及び相手ユーザ音声検出手段のいずれも音声を検出しない状態を無言状態として、無言状態が継続する時間である無言時間を計測する。第一の第二所定時間調整手段が、無言時間計測手段により計測された無言時間に基づいて、第二所定時間を調整する。   In the communication terminal device according to the ninth aspect of the invention, in addition to the effect of the invention according to any one of the first to eighth aspects, the user voice detecting means detects the voice of the user. The partner user voice detecting means detects the voice of the partner user. The silent time measuring means measures the silent time, which is the time during which the silent state continues, with the state where neither the user voice detecting means nor the partner user voice detecting means detects the voice as the silent state. The first second predetermined time adjusting means adjusts the second predetermined time based on the silent time measured by the silent time measuring means.

一般に、ユーザと相手ユーザとのいずれも音声を発しない無言状態の場合には、ユーザと相手ユーザとの間で会話が行われている場合に比べて気まずい雰囲気であるといえる。請求項9に係る発明の通信端末装置は、無言状態が継続する時間に応じて、視線を外す時間を調整することができるため、会議中のユーザ同士の雰囲気に応じて、視線を外す時間を調整することができる。   In general, in a silent state where neither the user nor the other user speaks, it can be said that the atmosphere is awkward as compared to the case where a conversation is being performed between the user and the other user. Since the communication terminal device of the invention according to claim 9 can adjust the time to remove the line of sight according to the time during which the silent state continues, the time to remove the line of sight according to the atmosphere of the users during the meeting. Can be adjusted.

また、請求項10に係る発明の通信端末装置は、請求項9に記載の発明の効果に加え、第三所定時間判断手段が、前記無言時間が第三所定時間以上になったか否かを判断する。第一の第二所定時間調整手段は、第三所定時間判断手段によって、無言時間が第三所定時間以上になったと判断された場合に、第二所定時間を延長する。そのため、無言状態が長く続いた場合には、視線を外す時間を延長することができる。よって、気まずい雰囲気にあるユーザ間で視線一致状態が不自然にあった場合には、視線を外す時間を延長して、気まずい雰囲気を確実に回避させることができる。   According to a tenth aspect of the present invention, in addition to the effect of the ninth aspect of the invention, the third predetermined time determining means determines whether or not the silent time has reached the third predetermined time or more. To do. The first second predetermined time adjusting means extends the second predetermined time when the third predetermined time determining means determines that the silent time has become equal to or longer than the third predetermined time. Therefore, when the silent state continues for a long time, the time for removing the line of sight can be extended. Therefore, when the line-of-sight matching state is unnatural between users in an awkward atmosphere, it is possible to extend the time for removing the line of sight and reliably avoid the awkward atmosphere.

また、請求項11に係る発明の通信端末装置は、請求項1乃至10のいずれかに記載の発明の効果に加え、瞬き検出手段がユーザの瞬きを検出し、瞬きカウント手段が瞬き検出手段によって検出された瞬きの回数をカウントする。第二の第二所定時間調整手段が、カウント手段によってカウントされた瞬きの回数に基づいて、前記第二所定時間を調整する。   According to an eleventh aspect of the present invention, in addition to the effect of the invention according to any one of the first to tenth aspects, the blink detection means detects a user's blink, and the blink count means uses the blink detection means. Count the number of detected blinks. The second second predetermined time adjusting means adjusts the second predetermined time based on the number of blinks counted by the counting means.

一般に、ユーザが緊張状態にある場合、ユーザの瞬き回数は増加するといわれている。
請求項11に係る発明の通信端末装置は、ユーザの瞬き回数に応じて、視線を外す時間を調整することができるため、会議中のユーザの緊張状態に応じて、視線を外す時間を調整することができる。
In general, it is said that the number of blinks of the user increases when the user is in tension.
Since the communication terminal device of the invention according to claim 11 can adjust the time to remove the line of sight according to the number of blinks of the user, the time to remove the line of sight is adjusted according to the tension state of the user during the meeting. be able to.

また、請求項12に係る発明の通信端末装置は、請求項11に記載の発明の効果に加え、計測手段が、視線一致検出手段により視線一致状態が検出されてからの経過時間を計測する。第四所定時間判断手段が、経過時間が第四所定時間以上になったか否かを判断する。瞬き回数判断手段は、経過時間が第四所定時間以上になった場合に、カウントされた瞬きの回数が所定回数以上であるか否かを判断する。第二の第二所定時間調整手段は、瞬きの回数が所定回数以上である場合に第二所定時間を延長する。   In addition to the effect of the invention according to claim 11, the communication terminal device of the invention according to claim 12 measures the elapsed time after the line-of-sight matching state is detected by the line-of-sight matching detection means. The fourth predetermined time determining means determines whether or not the elapsed time has reached or exceeded the fourth predetermined time. The blink number determination means determines whether or not the counted number of blinks is equal to or greater than a predetermined number when the elapsed time is equal to or greater than a fourth predetermined time. The second second predetermined time adjusting means extends the second predetermined time when the number of blinks is equal to or greater than the predetermined number.

ユーザの瞬き回数が多い場合には、視線を外す時間を延長することができるため、相手ユーザに対して不自然に視線を一致させたユーザが緊張状態にある場合には、視線を外す時間を延長することができる。よって、ユーザが緊張状態となるほど、相手ユーザとの間に気まずい雰囲気がある場合には、視線を外す時間を延長して、気まずい雰囲気を確実に回避することができる。   When the number of blinks of the user is large, it is possible to extend the time to remove the line of sight. Therefore, when the user who unnaturally matched the line of sight with the other user is in a tension state, the time to remove the line of sight Can be extended. Therefore, when there is an awkward atmosphere with the other user as the user becomes nervous, it is possible to extend the time to remove the line of sight and reliably avoid the awkward atmosphere.

また、請求項13に係る発明の通信端末装置の通信制御方法では、まず画像データ送信ステップにおいて、ユーザを撮影するユーザ撮影手段が撮影したユーザの画像が他の端末に送信される。次に、表示ステップにおいて、他の端末から送信された画像が画面に表示される。次に、視線方向検出ステップにおいて、ユーザの視線方向を検出する。検出された視線方向の先にある画面上の視線位置は、視線位置特定ステップにおいて、特定される。顔検出ステップにおいて、画面上の相手ユーザの顔が検出される。視線一致判断ステップにおいて、視線位置特定ステップにおいて特定された視線位置が、顔検出ステップにおいて検出された相手ユーザの顔の所定領域内にある視線一致状態か否かが判断される。視線一致判断ステップにおいて視線一致状態であると判断された場合には、視線一致時間計測ステップにおいて、視線一致状態が継続する時間である視線一致時間が計測される。計測された視線一致時間は、第一所定時間判断ステップにおいて、第一所定時間以上になったか否か判断される。   In the communication control method for a communication terminal device according to the thirteenth aspect of the invention, first, in the image data transmission step, the user image taken by the user photographing means for photographing the user is transmitted to another terminal. Next, in the display step, an image transmitted from another terminal is displayed on the screen. Next, in the gaze direction detection step, the user's gaze direction is detected. The line-of-sight position on the screen ahead of the detected line-of-sight direction is specified in the line-of-sight position specifying step. In the face detection step, the face of the partner user on the screen is detected. In the line-of-sight matching determination step, it is determined whether or not the line-of-sight position specified in the line-of-sight position specifying step is in a line-of-sight matching state within a predetermined area of the face of the opponent user detected in the face detection step. When it is determined in the line-of-sight matching determination step that the line-of-sight coincidence state is reached, the line-of-sight matching time is measured in the line-of-sight matching time measurement step. In the first predetermined time determination step, it is determined whether or not the measured line-of-sight matching time is equal to or longer than the first predetermined time.

視線一致時間が第一所定時間以上となった場合、第一信号送信ステップにおいて、視線一致状態の対象である相手ユーザの画像データを送信する相手側端末に、第一信号を送信する。第一信号受信ステップにおいて、前記第一信号を受信する。相手側端末から送信された第一信号が受信された場合、撮影位置変更ステップにおいて、前記撮影手段の前記ユーザに対する撮影位置を変更する。   When the line-of-sight matching time is equal to or longer than the first predetermined time, in the first signal transmission step, the first signal is transmitted to the partner terminal that transmits the image data of the partner user who is the target of the line-of-sight matching state. In the first signal receiving step, the first signal is received. When the first signal transmitted from the counterpart terminal is received, the photographing position of the photographing unit with respect to the user is changed in the photographing position changing step.

ユーザが画面上の相手ユーザに対して、不自然に長い時間視線を合わせている場合には、相手ユーザを撮影する撮影手段の撮影位置を変更することができるため、撮影手段に対する相手ユーザの視線をずらすことができる。よって、画面に映る相手ユーザの視線をずらすことができ、ユーザと相手ユーザとで視線が一致し続けてしまう居心地の悪い不自然な状況を回避できる。   When the user has been looking at the other user on the screen for an unnatural long time, the photographing position of the photographing means for photographing the other user can be changed. Can be shifted. Therefore, the line of sight of the partner user displayed on the screen can be shifted, and an uncomfortable and unnatural situation where the line of sight continues to match between the user and the partner user can be avoided.

また、請求項14に係る発明の通信制御プログラムは、請求項1乃至12のいずれかに記載の通信端末装置の各種処理手段としてコンピュータを機能させるため、請求項1乃至12のいずれかに記載の効果を得ることができる。   A communication control program according to a fourteenth aspect causes the computer to function as various processing means of the communication terminal device according to any one of the first to twelfth aspects. An effect can be obtained.

テレビ会議システム1の構成を示すブロック図である。1 is a block diagram showing a configuration of a video conference system 1. FIG. 端末装置3の物理的構成を示す図である。2 is a diagram showing a physical configuration of a terminal device 3. FIG. ビデオカメラ34の撮影位置を示す図である。It is a figure which shows the imaging position of the video camera. スクリーン32における一表示態様を示す図である。FIG. 4 is a diagram showing one display mode on a screen 32. 視線方向を検出する方法を説明する図(ユーザの視線の先に赤外線ライト33が位置しない場合)である。It is a figure explaining the method to detect a gaze direction (when the infrared light 33 is not located ahead of a user's gaze). 視線方向を検出する方法を説明する図(ユーザの視線の先に赤外線ライト33が位置する場合)である。It is a figure explaining the method to detect a gaze direction (when the infrared light 33 is located ahead of a user's gaze). スクリーン32に表示された相手ユーザの右眼721、左眼722、及び鼻723を結ぶ領域を説明する図である。It is a figure explaining the area | region which connects the other user's right eye 721, left eye 722, and nose 723 displayed on the screen 32. FIG. 端末装置3の電気的構成を示すブロック図である。3 is a block diagram showing an electrical configuration of a terminal device 3. FIG. HDD31の各種記憶エリアを示す概念図である。2 is a conceptual diagram showing various storage areas of an HDD 31. FIG. RAM22の各種記憶エリアを示す概念図である。3 is a conceptual diagram showing various storage areas of a RAM 22. FIG. CPU20による視線方向検出処理のフローチャートである。It is a flowchart of the gaze direction detection process by CPU20. スクリーン32における一表示態様を示す図である。FIG. 4 is a diagram showing one display mode on a screen 32. CPU20による撮影位置変更処理のフローチャートである。It is a flowchart of the imaging position change process by CPU20. 瞬き検出領域70を示す図(ユーザの眼77が開かれている状態)である。It is a figure which shows the blink detection area 70 (a state where the user's eyes 77 are opened). 瞬き検出領域70を示す図(ユーザの眼77が閉じられている状態)である。It is a figure which shows the blink detection area 70 (a state where the user's eyes 77 are closed). 第二実施形態の端末装置130の電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of the terminal device 130 of 2nd embodiment. HDD131の各種記憶エリアを示す概念図である。3 is a conceptual diagram illustrating various storage areas of an HDD 131. FIG. RAM122の各種記憶エリアを示す概念図である。3 is a conceptual diagram showing various storage areas of a RAM 122. FIG. CPU120による視線方向検出処理のフローチャートである。It is a flowchart of the gaze direction detection process by CPU120. CPU120による音声検出処理のフローチャートである。It is a flowchart of the audio | voice detection process by CPU120. CPU120による瞬きカウント処理のフローチャートである。It is a flowchart of the blink count process by CPU120.

以下、本発明の第一実施形態である端末装置3について、図面を参照して説明する。はじめに、端末装置3、4を構成要素とするテレビ会議システム1の構成について、図1を参照して説明する。   Hereinafter, the terminal device 3 which is 1st embodiment of this invention is demonstrated with reference to drawings. First, the configuration of the video conference system 1 including the terminal devices 3 and 4 as constituent elements will be described with reference to FIG.

テレビ会議システム1は、ネットワーク2を介して相互に接続された端末装置3、4を備えている。端末装置3、4は、別拠点に設けられている。このテレビ会議システム1では、端末装置3、4間において、ネットワーク2を介して、画像、音声が互いに送受信されることで、別拠点にあるユーザ同士の遠隔会議が実施される。本実施形態では、端末装置3が設けられた拠点を自拠点、端末装置4が設けられた拠点を他拠点として説明する。   The video conference system 1 includes terminal devices 3 and 4 connected to each other via a network 2. The terminal devices 3 and 4 are provided at different bases. In this video conference system 1, a remote conference between users at different bases is performed by transmitting and receiving images and sounds between the terminal devices 3 and 4 via the network 2. In the present embodiment, the base where the terminal device 3 is provided will be described as its own base, and the base where the terminal device 4 is provided will be described as another base.

なお、本実施形態では、遠隔会議中に、端末装置3のユーザが、スクリーン32(図2参照)に表示された端末装置4のユーザ(以下、相手ユーザという)に対して視線を一致させている時間が所定時間以上となる場合に、端末装置4において相手ユーザを撮影するビデオカメラ34(図2参照)の位置を変更させて、視線を外すことができる点に特徴がある。   In the present embodiment, during the remote conference, the user of the terminal device 3 matches the line of sight with the user of the terminal device 4 (hereinafter referred to as a partner user) displayed on the screen 32 (see FIG. 2). The characteristic is that the line of sight can be removed by changing the position of the video camera 34 (see FIG. 2) for photographing the other user in the terminal device 4 when the predetermined time is longer than the predetermined time.

まず、端末装置3の物理的構成について、図2および図3を参照して説明する。なお、図2の右方をユーザに対向する端末装置3の前方とし、左方を端末装置3の後方として説明する。端末装置3は、映像を投射するプロジェクタ28と、投射された映像を表示するスクリーン32と、スクリーン32の後方に配置され、端末装置3の前方に位置するユーザを撮影するビデオカメラ34とを備える。端末装置3の前方には、スクリーン32に対して位置が固定された椅子(図示省略)が設けられている。ユーザがその椅子に座ると、ユーザとビデオカメラ34とを結ぶ直線がスクリーン32の面と垂直に交わり、ユーザとスクリーン32との距離が、予め定められた所定距離L(図5参照)となる。   First, the physical configuration of the terminal device 3 will be described with reference to FIG. 2 and FIG. Note that the right side in FIG. 2 is described as the front side of the terminal device 3 facing the user, and the left side is described as the back side of the terminal device 3. The terminal device 3 includes a projector 28 that projects an image, a screen 32 that displays the projected image, and a video camera 34 that is disposed behind the screen 32 and photographs a user located in front of the terminal device 3. . A chair (not shown) whose position is fixed with respect to the screen 32 is provided in front of the terminal device 3. When the user sits on the chair, a straight line connecting the user and the video camera 34 intersects the surface of the screen 32 perpendicularly, and the distance between the user and the screen 32 is a predetermined distance L (see FIG. 5). .

プロジェクタ28について説明する。図2に示すように、プロジェクタ28は、ユーザに対して、スクリーン32の後方斜め上側に配置されている。プロジェクタ28には、ビデオコントローラ23が接続され、端末装置4から送信された映像を、スクリーン32に向けて斜めに投射する。プロジェクタ28をスクリーン32に対して斜め上側に配置することにより、スクリーン32の後方にビデオカメラ34を配置できる。なお、スクリーン32に対して斜めに投射された映像が、スクリーン32において歪みのない正常な表示となるように、歪み補正を行ってもよい。歪み補正方法としては、例えば、特開平6−133311号公報に記載の歪み補正方法が適用可能である。   The projector 28 will be described. As shown in FIG. 2, the projector 28 is disposed on the upper rear side of the screen 32 with respect to the user. A video controller 23 is connected to the projector 28, and the video transmitted from the terminal device 4 is projected obliquely toward the screen 32. By arranging the projector 28 obliquely above the screen 32, the video camera 34 can be arranged behind the screen 32. Note that distortion correction may be performed so that an image projected obliquely with respect to the screen 32 becomes a normal display with no distortion on the screen 32. As a distortion correction method, for example, a distortion correction method described in Japanese Patent Application Laid-Open No. 6-133111 is applicable.

歪み補正方法について、正方形の映像をスクリーン32に表示させる場合を例に挙げて簡単に説明する。プロジェクタ28から投射された映像は、プロジェクタ28から遠くなるにつれて拡大率が大きくなる。そのため、映像を斜めに投射すると、プロジェクタ28から遠い位置では近い位置に比べて映像の拡大率が大きくなり、映像は歪んでしまう。たとえば、正方形の映像をプロジェクタ28から投射した場合、スクリーン32上では台形になってしまう。そこで、プロジェクタ28から投射する映像を予め逆台形に処理する。逆台形の映像をプロジェクタ28から投射することにより、スクリーン32上では正方形に表示される。   The distortion correction method will be briefly described with reference to an example in which a square image is displayed on the screen 32. The image projected from the projector 28 increases in magnification as the distance from the projector 28 increases. For this reason, when an image is projected obliquely, the image enlargement ratio is larger at a position far from the projector 28 than at a close position, and the image is distorted. For example, when a square image is projected from the projector 28, it becomes a trapezoid on the screen 32. Therefore, the image projected from the projector 28 is processed into an inverted trapezoid in advance. By projecting an inverted trapezoidal image from the projector 28, the image is displayed in a square shape on the screen 32.

次に、スクリーン32について説明する。スクリーン32には、入射光の透過及び散乱が入射光の入射角度に依存する周知の視覚依存散乱板が用いられる。具体的には、スクリーン32は、ビデオカメラ34からの入射光は透過し、プロジェクタ28からの入射光は散乱させる。これにより、スクリーン32の後方に配置されたビデオカメラ34は、スクリーン32を介してユーザを撮影できる。また、ユーザは、プロジェクタ28から投射された映像を、スクリーン32を介して見ることができる。   Next, the screen 32 will be described. As the screen 32, a well-known visual dependent scattering plate is used in which transmission and scattering of incident light depend on an incident angle of incident light. Specifically, the screen 32 transmits incident light from the video camera 34 and scatters incident light from the projector 28. Accordingly, the video camera 34 disposed behind the screen 32 can photograph the user via the screen 32. Further, the user can view the video projected from the projector 28 via the screen 32.

次に、ビデオカメラ34について説明する。図3に示すように、スクリーン32の後方には、ビデオカメラ34を支持するカメラ支持部材342が配置されている。カメラ支持部材342は、ユーザが座る椅子を中心として円弧状に形成されたレール部341を備え、ビデオカメラ34は、レール部341に沿って移動可能に支持されている。また、カメラ支持部材342にはカメラ移動装置36(図8参照)が取り付けられている。カメラ移動装置36は、モータ(図示省略)とビデオカメラ34に接続された伝達機構(図示省略)とを備える。モータが駆動されると伝達機構を介してビデオカメラ34の位置が移動される。   Next, the video camera 34 will be described. As shown in FIG. 3, a camera support member 342 that supports the video camera 34 is disposed behind the screen 32. The camera support member 342 includes a rail portion 341 formed in an arc shape around a chair on which a user sits, and the video camera 34 is supported so as to be movable along the rail portion 341. A camera moving device 36 (see FIG. 8) is attached to the camera support member 342. The camera moving device 36 includes a motor (not shown) and a transmission mechanism (not shown) connected to the video camera 34. When the motor is driven, the position of the video camera 34 is moved via the transmission mechanism.

ビデオカメラ34で撮影されたユーザの画像は、他拠点に配置された端末装置4に送信されると共に、ユーザの視線方向の検出に用いられる。通常の状態において、ビデオカメラ34はスクリーン32に対して垂直に配置され、ユーザを真正面から撮影する。本実施形態では、ユーザが、スクリーン32に表示された相手ユーザに対して視線を一致させている時間が長すぎる場合、ビデオカメラ34がレール部341に沿って円弧状に移動する。ビデオカメラ34の撮影位置が、ユーザの真正面から外れることによって、相手ユーザの視線をずらすことができる。   The user's image photographed by the video camera 34 is transmitted to the terminal device 4 arranged at another base and used for detecting the user's line-of-sight direction. In a normal state, the video camera 34 is arranged perpendicular to the screen 32 and photographs the user from the front. In the present embodiment, when the time for which the user matches the line of sight with the counterpart user displayed on the screen 32 is too long, the video camera 34 moves along an arc along the rail portion 341. When the shooting position of the video camera 34 deviates from the front of the user, the line of sight of the partner user can be shifted.

図2に示すように、ビデオカメラ34の下部には、赤外線を発光する赤外線ライト33が取り付けられている。赤外線ライト33により発光された赤外線が、ユーザの眼球角膜反射面において反射されて虚像(プルキニエ像)71を形成する(図5参照)。ビデオカメラ34は、このプルキニエ像71と眼球72の瞳孔75中心とを撮影し、その相対位置から、ユーザの視線方向を検出する。なお、視線方向の検出方法については後述する。   As shown in FIG. 2, an infrared light 33 that emits infrared light is attached to the lower part of the video camera 34. Infrared light emitted by the infrared light 33 is reflected on the eyeball cornea reflection surface of the user to form a virtual image (Purkinje image) 71 (see FIG. 5). The video camera 34 photographs the Purkinje image 71 and the center of the pupil 75 of the eyeball 72, and detects the user's line-of-sight direction from the relative position. A method for detecting the line-of-sight direction will be described later.

次に、端末装置3のスクリーン32に表示される画面について、図4を参照して説明する。端末装置3のスクリーン32には、端末装置4を使用する相手ユーザの画像が表示される相手ユーザ画面281と、端末装置3,4における共有資料を表示させる共有資料画面282とが配置される。共有資料画面282は、例えば、自拠点側の端末装置3に記憶された資料を、他拠点にいる相手ユーザに示して説明する場合に、表示設定される。共有資料表示プログラムを起動し、所望の資料を共有資料として指定した場合に、端末装置3、4のスクリーン32に共有資料画面282が表示され、その枠内に共有資料が表示される。   Next, the screen displayed on the screen 32 of the terminal device 3 will be described with reference to FIG. On the screen 32 of the terminal device 3, a partner user screen 281 on which an image of the partner user who uses the terminal device 4 is displayed, and a shared material screen 282 on which the shared material in the terminal devices 3 and 4 is displayed. The shared material screen 282 is displayed and set, for example, when the material stored in the terminal device 3 on the local site side is shown and explained to the other user at the other site. When the shared material display program is started and a desired material is designated as a shared material, the shared material screen 282 is displayed on the screen 32 of the terminal devices 3 and 4, and the shared material is displayed in the frame.

例えば、相手ユーザ画面281は、スクリーン32の略左半分に配置され、共有資料画面282は、スクリーン32の右下1/4に配置される。なお、表示態様についてはこれに限定されず、相手ユーザ画面281、共有資料画面282の配置、大きさも、ユーザにより自由に変更可能である。   For example, the partner user screen 281 is arranged in the substantially left half of the screen 32, and the shared material screen 282 is arranged in the lower right quarter of the screen 32. The display mode is not limited to this, and the arrangement and size of the partner user screen 281 and the shared material screen 282 can be freely changed by the user.

次に、視線一致状態の検出方法について、図5乃至図7を参照して説明する。ここで、「視線一致状態」とは、ユーザの視線の先が、スクリーン32に表示された相手ユーザの両眼と鼻とを結んだ領域(以下、領域Mという)にある状態をいう。本実施形態では、まず、ユーザの視線方向を検出する。次に、検出された視線方向の先にある、スクリーン32上の視線位置を特定する。そして、特定された視線位置が、領域Mにあるか否かを判断し、領域Mにあれば視線一致状態とする。以下、視線一致状態の検出方法について具体的に説明する。   Next, a method for detecting the line-of-sight coincidence will be described with reference to FIGS. Here, the “line of sight matching state” refers to a state in which the user's line of sight is in a region (hereinafter referred to as region M) connecting the other user's eyes and nose displayed on the screen 32. In this embodiment, first, the user's line-of-sight direction is detected. Next, the line-of-sight position on the screen 32 ahead of the detected line-of-sight direction is specified. Then, it is determined whether or not the specified line-of-sight position is in the area M. If it is in the area M, the line-of-sight state is set. Hereinafter, a method for detecting the line-of-sight matching state will be specifically described.

はじめに、視線方向検出方法について説明する。視線方向の検出は、ビデオカメラ34によって撮影された撮影画像に基づいて行われる。ユーザの視線方向を検出する方法としては周知の方法が用いられ、例えば、特開平10−108843号公報に記載された視線方向検出方法が適用可能である。   First, the gaze direction detection method will be described. The detection of the line-of-sight direction is performed based on a photographed image photographed by the video camera 34. A known method is used as a method for detecting the user's line-of-sight direction. For example, the line-of-sight direction detection method described in Japanese Patent Application Laid-Open No. 10-108843 is applicable.

上記検出方法を適用した視線方向の検出方法について説明する。なお、ここでは、説明の便宜上、ビデオカメラ34と赤外線ライト33とが同一座標にあると近似して説明する。   A gaze direction detection method to which the above detection method is applied will be described. Here, for convenience of explanation, the video camera 34 and the infrared light 33 will be described as being approximated at the same coordinates.

図5に示すように、赤外線ライト33が、ユーザの眼球72に赤外線を照射すると、照射された赤外線がユーザの眼球72の角膜反射面において反射され、赤外線ライト33の虚像(プルキニエ像)71が生じる。図6に示すように、ユーザの視線の先に、赤外線ライト33が位置するとき、プルキニエ像71の発生位置は、瞳孔中心76と一致する。そして、ユーザの視線の先が赤外線ライト33から離れるにつれて、プルキニエ像71と瞳孔中心76との間隔は広がっていく(図5参照)。   As shown in FIG. 5, when the infrared light 33 irradiates the user's eyeball 72 with infrared light, the irradiated infrared light is reflected on the cornea reflection surface of the user's eyeball 72, and a virtual image (Purkinje image) 71 of the infrared light 33 is formed. Arise. As shown in FIG. 6, when the infrared light 33 is positioned ahead of the user's line of sight, the generation position of the Purkinje image 71 coincides with the pupil center 76. Then, as the tip of the user's line of sight moves away from the infrared light 33, the interval between the Purkinje image 71 and the pupil center 76 increases (see FIG. 5).

具体的には、プルキニエ像71と瞳孔中心76とが一致する状態からの眼球72の回転角度をθ、プルキニエ像71と瞳孔中心76との間隔Sとすると、間隔Sは、回転角度θの正弦にほぼ比例して広がっていく。よって、ビデオカメラ34により撮影された撮影画像において、プルキニエ像71の位置、瞳孔中心76の位置、さらにその間隔を算出することにより、眼球72の回転角度θ、さらにはユーザの視線方向を知ることができる。なお、撮影画像におけるプルキニエ像71及び瞳孔75の検出は、各画素における濃度変化を示すエッジ値を検出する周知の方法により行われる。   Specifically, if the rotation angle of the eyeball 72 from the state in which the Purkinje image 71 and the pupil center 76 coincide is θ, and the interval S between the Purkinje image 71 and the pupil center 76 is S, the interval S is the sine of the rotation angle θ. It spreads almost in proportion to Therefore, by calculating the position of the Purkinje image 71, the position of the pupil center 76, and the interval between them in the captured image captured by the video camera 34, the rotation angle θ of the eyeball 72 and the user's line-of-sight direction can be known. Can do. The detection of the Purkinje image 71 and the pupil 75 in the captured image is performed by a known method for detecting an edge value indicating a density change in each pixel.

次に、検出された視線方向の先にあるスクリーン32上のユーザの視線位置Tを特定する方法について説明する。本実施形態では、会議中、スクリーン32に対向して座っているユーザの眼球72の中心とビデオカメラ34とを結ぶ直線は、スクリーン32の面と垂直に交わる。また、眼球72の中心とスクリーン32との距離は所定距離Lとなる。眼球72の中心とビデオカメラ34とを結ぶ直線がスクリーン32の表示面と交わる点を中心点O、眼球の回転角度をθとすると、ユーザの視線方向の先にある表示面上の視線位置Tと中心点Oとの距離Kは、以下の式で示される。
K=L・tanθ
上述の式より、ユーザのスクリーン32上の視線位置Tを特定することができる。
Next, a method for specifying the user's line-of-sight position T on the screen 32 ahead of the detected line-of-sight direction will be described. In the present embodiment, a straight line connecting the center of the eyeball 72 of the user sitting facing the screen 32 and the video camera 34 intersects the surface of the screen 32 perpendicularly during the meeting. Further, the distance between the center of the eyeball 72 and the screen 32 is a predetermined distance L. Assuming that the point where the straight line connecting the center of the eyeball 72 and the video camera 34 intersects the display surface of the screen 32 is the center point O and the rotation angle of the eyeball is θ, the line-of-sight position T on the display surface ahead of the user's line-of-sight direction. A distance K between the center point O and the center point O is expressed by the following equation.
K = L · tanθ
From the above formula, the line-of-sight position T on the user's screen 32 can be specified.

次に、図6を参照して、特定された視線位置Tが、スクリーン32に表示された相手ユーザの右眼721、左眼722、及び鼻723を結ぶ領域(領域M)にあるか否かの判断方法の説明を行う。まず、スクリーン32に表示された相手ユーザの右眼721、左眼722、及び鼻723が、周知の方法によって抽出される。抽出方法としては、例えば、特開2008−234208号公報に記載された眼及び鼻の検出方法が適用可能である。   Next, referring to FIG. 6, whether or not the identified line-of-sight position T is in a region (region M) connecting the right eye 721, left eye 722, and nose 723 of the other user displayed on the screen 32. An explanation of the determination method will be given. First, the other user's right eye 721, left eye 722, and nose 723 displayed on the screen 32 are extracted by a known method. As an extraction method, for example, the eye and nose detection method described in JP-A-2008-234208 is applicable.

具体的に説明する。まず、スクリーン32に表示された相手ユーザの顔を検出する。顔の検出は、顔輪郭のエッジを算出し、あるいは、顔輪郭のパターンマッチングによって顔輪郭を抽出し、顔輪郭の範囲で、顔を検出する。そして、検出された顔のほぼ中央において2つの隣り合った鼻孔を検出する。鼻孔部分においては、外部からの光が照射されにくいため、他の個所に比べて暗く撮影される、従って、鼻孔部分の境界付近では、各画素における濃度が変化する。従って、得られる濃度変化を示すエッジ値を検出することにより、鼻孔部分を検出することができる。そして隣り合った2つの鼻孔の中点の位置を、鼻723の位置として特定する。   This will be specifically described. First, the face of the other user displayed on the screen 32 is detected. The face is detected by calculating the edge of the face outline or extracting the face outline by pattern matching of the face outline and detecting the face within the range of the face outline. Then, two adjacent nostrils are detected in the approximate center of the detected face. In the nostril portion, light from the outside is difficult to be irradiated, so the image is taken darker than other portions. Therefore, the density in each pixel changes near the boundary of the nostril portion. Therefore, the nostril portion can be detected by detecting the edge value indicating the obtained density change. Then, the position of the midpoint between two adjacent nostrils is specified as the position of the nose 723.

そして、検出された鼻723の位置よりも上方において、瞳孔部分が探索される。一般に、瞳孔部分は皮膚部分や白眼部分に比べて、反射率が小さいため、暗く撮影される。よって、瞳孔付近では、各画素における濃度が変化する。従って、得られる濃度変化を示すエッジ値を検出することにより、瞳孔部分を検出することができる。そして、検出された瞳孔の中心位置を、右眼721及び左眼722の位置として特定する。   Then, the pupil portion is searched for above the detected position of the nose 723. In general, the pupil part has a lower reflectance than the skin part and the white-eye part, so that the pupil part is photographed dark. Therefore, the density in each pixel changes near the pupil. Accordingly, the pupil portion can be detected by detecting the edge value indicating the obtained density change. Then, the center position of the detected pupil is specified as the positions of the right eye 721 and the left eye 722.

そして、特定された右眼721、左眼722、鼻723を結ぶ領域(以下、領域Mという)に、視線位置Tがあるか否かを判断し、視線位置Tが領域Mにあれば視線一致状態とする。   Then, it is determined whether or not there is a line-of-sight position T in the area connecting the specified right eye 721, left eye 722, and nose 723 (hereinafter referred to as area M). State.

次に、端末装置3の電気的構成について、図8を参照して説明する。図8は、端末装置3の電気的構成を示すブロック図である。なお、端末装置3、4は全て同じ構成であるので、ここでは端末装置3の構成についてのみ説明し、端末装置4については説明を省略する。   Next, the electrical configuration of the terminal device 3 will be described with reference to FIG. FIG. 8 is a block diagram showing an electrical configuration of the terminal device 3. Since the terminal devices 3 and 4 have the same configuration, only the configuration of the terminal device 3 will be described here, and the description of the terminal device 4 will be omitted.

端末装置3には、端末装置3の制御を司るコントローラとしてのCPU20が設けられている。CPU20には、BIOS等を記憶したROM21と、各種データを一時的に記憶するRAM22と、データの受け渡しの仲介を行うI/Oインタフェイス30とが接続されている。I/Oインタフェイス30には、各種記憶エリアを有するハードディスクドライブ31(以下、HDD31)が接続されている。   The terminal device 3 is provided with a CPU 20 as a controller that controls the terminal device 3. Connected to the CPU 20 are a ROM 21 that stores BIOS, a RAM 22 that temporarily stores various data, and an I / O interface 30 that mediates data transfer. The I / O interface 30 is connected to a hard disk drive 31 (hereinafter referred to as HDD 31) having various storage areas.

I/Oインタフェイス30には、ネットワーク2と通信するための通信装置25と、マウス27と、ビデオコントローラ23と、キーコントローラ24と、ユーザを撮影するための上述したビデオカメラ34と、ユーザの音声を取り込むためのマイク35と、CD−ROMドライブ26と、計時装置41と、駆動回路331と、駆動回路332とが各々接続されている。ビデオコントローラ23には、上述したプロジェクタ28が接続されている。キーコントローラ24には、キーボード29が接続されている。駆動回路331には、上述した赤外線ライト33が接続されている。駆動回路332には、上述したカメラ移動装置36が接続されている。   The I / O interface 30 includes a communication device 25 for communicating with the network 2, a mouse 27, a video controller 23, a key controller 24, the above-described video camera 34 for photographing a user, and a user's A microphone 35 for capturing audio, a CD-ROM drive 26, a timing device 41, a drive circuit 331, and a drive circuit 332 are connected to each other. The projector 28 described above is connected to the video controller 23. A keyboard 29 is connected to the key controller 24. The infrared light 33 described above is connected to the drive circuit 331. The camera moving device 36 described above is connected to the drive circuit 332.

なお、CD−ROMドライブ26に挿入されるCD−ROM114には、端末装置3のメインプログラムや、本発明の通信制御プログラム等が記憶されている。CD−ROM114の導入時には、これら各種プログラムが、CD−ROM114からHDD31にセットアップされて、後述するプログラム記憶エリア313(図9参照)に記憶される。   The CD-ROM 114 inserted into the CD-ROM drive 26 stores the main program of the terminal device 3, the communication control program of the present invention, and the like. When the CD-ROM 114 is introduced, these various programs are set up from the CD-ROM 114 to the HDD 31 and stored in a program storage area 313 (see FIG. 9) described later.

次に、HDD31の各種記憶エリアについて、図9を参照して説明する。HDD31には、ビデオカメラ34によって撮影された撮影画像を記憶する撮影画像データ記憶エリア311と、端末装置3のスクリーン32(図2、図4参照)に表示される画面データを記憶する表示画面データ記憶エリア312と、各種プログラムを記憶するプログラム記憶エリア313と、プログラムの実行に必要な所定時間を記憶する所定時間記憶エリア314と、ユーザとスクリーン32と赤外線ライト33との位置関係を記憶する位置関係記憶エリア315と、プログラムの実行に必要な所定値を記憶する所定値記憶エリア316と、その他の情報記憶エリア317とが少なくとも設けられている。   Next, various storage areas of the HDD 31 will be described with reference to FIG. The HDD 31 has a captured image data storage area 311 for storing captured images captured by the video camera 34 and display screen data for storing screen data displayed on the screen 32 (see FIGS. 2 and 4) of the terminal device 3. A storage area 312, a program storage area 313 for storing various programs, a predetermined time storage area 314 for storing a predetermined time required for executing the program, and a position for storing a positional relationship between the user, the screen 32, and the infrared light 33. At least a relation storage area 315, a predetermined value storage area 316 for storing a predetermined value necessary for executing the program, and another information storage area 317 are provided.

表示画面データ記憶エリア312には、相手ユーザ画像記憶エリア(図示省略)と、共有資料データ記憶エリア(図示省略)とが少なくとも設けられている。相手ユーザ画像記憶エリアには、端末装置4から送信された相手ユーザの画像データが記憶される。共有資料データ記憶エリアには、ユーザまたは相手ユーザが指定した共有資料データが記憶される。共有資料データ記憶エリアに、共有資料データが記憶された場合に、スクリーン32に共有資料画面282が表示される。位置関係記憶エリア315には、ユーザの眼球72とスクリーン32との所定距離Lが記憶されている。   The display screen data storage area 312 includes at least a partner user image storage area (not shown) and a shared material data storage area (not shown). In the partner user image storage area, image data of the partner user transmitted from the terminal device 4 is stored. In the shared material data storage area, shared material data designated by the user or the other user is stored. When shared material data is stored in the shared material data storage area, a shared material screen 282 is displayed on the screen 32. In the positional relationship storage area 315, a predetermined distance L between the user's eyeball 72 and the screen 32 is stored.

プログラム記憶エリア313には、端末装置3のメインプログラムや、端末装置4との間で遠隔会議を実行するための通信制御プログラム等が記憶されている。その他の情報記憶エリア317には、端末装置3で使用されるその他の情報が記憶されている。なお、端末装置3がHDD31を備えていない専用機の場合は、ROM21に各種プログラムが記憶される。   The program storage area 313 stores a main program of the terminal device 3, a communication control program for executing a remote conference with the terminal device 4, and the like. In the other information storage area 317, other information used in the terminal device 3 is stored. When the terminal device 3 is a dedicated machine that does not include the HDD 31, various programs are stored in the ROM 21.

次に、RAM22の各種記憶エリアについて、図10を参照して説明する。RAM22には、視線方向記憶エリア221と、視線位置記憶エリア222と、領域M記憶エリア223と、共有資料画面座標記憶エリア224と、接続端末記憶エリア225と計測時間記憶エリア229とが少なくとも設けられている。視線方向記憶エリア221には、撮影画像データ記憶エリア311に記憶された撮影画像に基づき検出されたユーザの視線方向が、眼球72の回転角度として記憶される。視線位置記憶エリア222には、ユーザのスクリーン32上における視線位置が、スクリーン32のユーザから向かって右下を原点とする座標系における位置座標として記憶される。領域M記憶エリア223には、相手ユーザ画像記憶エリア(図示省略)に記憶された表示画像に基づいて特定された領域Mが、スクリーン32における位置座標として記憶される。共有資料画面座標記憶エリア224には、共有資料画面282の位置座標が記憶される。共有資料画面座標記憶エリア224には、基準サイズ記憶エリア(図示省略)と、拡大サイズ記憶エリア(図示省略)とが設けられている。接続端末記憶エリア225には、ネットワーク2を介して現在接続している接続端末の端末IDが記憶される。計測時間記憶エリア229には、計時装置により計測された時間が記憶される。   Next, various storage areas of the RAM 22 will be described with reference to FIG. The RAM 22 includes at least a line-of-sight storage area 221, a line-of-sight storage area 222, an area M storage area 223, a shared material screen coordinate storage area 224, a connection terminal storage area 225, and a measurement time storage area 229. ing. In the line-of-sight storage area 221, the user's line-of-sight direction detected based on the captured image stored in the captured image data storage area 311 is stored as the rotation angle of the eyeball 72. In the line-of-sight position storage area 222, the line-of-sight position of the user on the screen 32 is stored as position coordinates in a coordinate system with the lower right as the origin from the user of the screen 32. In the area M storage area 223, the area M specified based on the display image stored in the partner user image storage area (not shown) is stored as position coordinates on the screen 32. The shared material screen coordinate storage area 224 stores the position coordinates of the shared material screen 282. The shared material screen coordinate storage area 224 includes a reference size storage area (not shown) and an enlarged size storage area (not shown). In the connection terminal storage area 225, the terminal ID of the connection terminal currently connected via the network 2 is stored. The measurement time storage area 229 stores the time measured by the timing device.

次に、テレビ会議システム1における視線一致を考慮した通信制御処理について説明する。本説明では、自拠点側にある端末装置3と、他拠点側にある端末装置4とが会議を行う場合を想定する。端末装置3、4では、視線方向を検出して視線一致状態を監視する「視線方向検出処理」と、視線一致を受けてビデオカメラの撮影位置を変更する「撮影位置変更処理」との両方が行われる。そこで、説明の便宜上、自拠点側の端末装置3において視線方向検出処理が実行され、他拠点側の端末装置4において撮影位置変更処理が実行される場合を例に説明する。   Next, communication control processing in consideration of line-of-sight matching in the video conference system 1 will be described. In this description, it is assumed that the terminal device 3 on the local site side and the terminal device 4 on the other site side hold a conference. In the terminal devices 3 and 4, both the “line-of-sight detection process” for detecting the line-of-sight direction and monitoring the line-of-sight matching state and the “shooting position changing process” for receiving the line-of-sight match and changing the shooting position of the video camera. Done. Therefore, for convenience of explanation, a case will be described as an example where the gaze direction detection process is executed in the terminal device 3 on the local site side and the shooting position change process is executed on the terminal device 4 on the other site side.

まず、自拠点側の端末装置3のCPU20において実行される視線方向検出処理について、図11のフローチャートを参照して説明する。端末装置3と端末装置4とが各々ネットワークに接続し、互いに通信を開始すると、図11に示す視線方向検出処理が開始される。視線方向検出処理が開始されると、はじめに、計測時間記憶エリア229に記憶された視線一致時間t1の値、送信後経過時間t2の値が初期化される(S1)。   First, the line-of-sight direction detection process executed by the CPU 20 of the terminal device 3 on the local site side will be described with reference to the flowchart of FIG. When the terminal device 3 and the terminal device 4 are respectively connected to the network and start communication with each other, the gaze direction detection process shown in FIG. 11 is started. When the line-of-sight direction detection process is started, first, the value of the line-of-sight matching time t1 and the value of the post-transmission elapsed time t2 stored in the measurement time storage area 229 are initialized (S1).

次に、駆動回路331が駆動されて、赤外線ライト33が発光される。そして、ビデオカメラ34で撮影されたユーザの画像が、撮影画像データ記憶エリア311に記憶される。撮影画像データ記憶エリア311に記憶された撮影画像から、プルキニエ像71及び瞳孔中心76が検出されて、プルキニエ像71及び瞳孔中心76の距離が算出される。そして、プルキニエ像71及び瞳孔中心76の距離から眼球の回転角度θが算出されて、ユーザの視線方向が検出される(S2)。検出された視線方向は、RAM22の視線方向記憶エリア221に記憶される。   Next, the drive circuit 331 is driven, and the infrared light 33 is emitted. The user's image captured by the video camera 34 is stored in the captured image data storage area 311. The Purkinje image 71 and the pupil center 76 are detected from the captured image stored in the captured image data storage area 311, and the distance between the Purkinje image 71 and the pupil center 76 is calculated. Then, the rotation angle θ of the eyeball is calculated from the distance between the Purkinje image 71 and the pupil center 76, and the user's line-of-sight direction is detected (S2). The detected gaze direction is stored in the gaze direction storage area 221 of the RAM 22.

続いて、視線方向記憶エリア221に記憶された視線方向と、位置関係記憶エリア315に記憶された所定距離Lから、スクリーン32における表示画像上のユーザの視線位置Tが特定される(S3)。特定された視線位置Tは、RAM22の視線位置記憶エリア222に記憶される。   Subsequently, the line-of-sight position T of the user on the display image on the screen 32 is specified from the line-of-sight direction stored in the line-of-sight direction storage area 221 and the predetermined distance L stored in the positional relationship storage area 315 (S3). The identified line-of-sight position T is stored in the line-of-sight position storage area 222 of the RAM 22.

次に、端末装置4から送信され、表示画面データ記憶エリア312の相手ユーザ画像記憶エリア(図示省略)に記憶された表示画像から、相手ユーザの顔が検出される。そして、検出された顔の中から、相手ユーザの右眼721、左眼722、鼻723が検出される。そして、検出された右眼721、左眼722、及び鼻723の位置座標に基づいて、眼と鼻とを結ぶ領域Mが、スクリーン32における表示画面上において特定される(S4)。特定された領域Mは、領域M記憶エリア223に記憶される。   Next, the face of the partner user is detected from the display image transmitted from the terminal device 4 and stored in the partner user image storage area (not shown) of the display screen data storage area 312. And the other user's right eye 721, left eye 722, and nose 723 are detected from the detected face. Then, based on the detected position coordinates of the right eye 721, the left eye 722, and the nose 723, a region M connecting the eyes and the nose is specified on the display screen of the screen 32 (S4). The identified area M is stored in the area M storage area 223.

そして、視線位置記憶エリア222に記憶された視線位置Tが、領域M記憶エリア223に記憶された領域Mにあるか否かが判断される(S5)。視線位置Tが領域Mにある場合(S5:YES)、視線一致状態であると判断されて、計時装置41による視線一致時間t1の計測がなされているか否かが判断される(S6)。視線一致時間t1の計測が開始されておらず、視線一致時間t1が計測中でない場合(S6:NO)、視線一致時間t1の計測が開始される(S7)。計測された視線一致時間t1は、計測時間記憶エリア229の視線一致時間記憶エリア(図示省略)に記憶される。視線一致時間t1の計測が開始されると、再度、S2〜S5の処理が行われる。視線一致時間t1が計測中である場合(S6:YES)、計測された視線一致時間t1が、所定時間記憶エリア314に記憶された第一所定時間T1以上であるか否かが判断される(S8)。本実施形態では、第一所定時間T1は5秒である。   Then, it is determined whether or not the line-of-sight position T stored in the line-of-sight position storage area 222 is in the area M stored in the area M storage area 223 (S5). When the line-of-sight position T is in the region M (S5: YES), it is determined that the line-of-sight coincidence state is established, and it is determined whether the line-of-sight coincidence time t1 is measured by the timing device 41 (S6). When the measurement of the line-of-sight matching time t1 has not been started and the line-of-sight matching time t1 is not being measured (S6: NO), the measurement of the line-of-sight matching time t1 is started (S7). The measured line-of-sight matching time t1 is stored in the line-of-sight matching time storage area (not shown) of the measurement time storage area 229. When the measurement of the line-of-sight coincidence time t1 is started, the processes of S2 to S5 are performed again. When the line-of-sight matching time t1 is being measured (S6: YES), it is determined whether or not the measured line-of-sight matching time t1 is equal to or longer than the first predetermined time T1 stored in the predetermined time storage area 314 ( S8). In the present embodiment, the first predetermined time T1 is 5 seconds.

視線一致時間t1が第一所定時間T1以上でない場合(S8:NO)、視線一致状態となってからの経過時間が5秒未満である。この場合には、ユーザはスクリーン32に表示された相手ユーザに対して、自然に視線を一致させた状態であるとして、視線一致時間t1が第一所定時間T1以上となるまで、S2〜S8の処理が繰り返される。   When the line-of-sight matching time t1 is not equal to or longer than the first predetermined time T1 (S8: NO), the elapsed time since the line-of-sight matching state is reached is less than 5 seconds. In this case, it is assumed that the user has naturally matched his / her line of sight to the other user displayed on the screen 32, and until the line-of-sight matching time t1 is equal to or longer than the first predetermined time T1, The process is repeated.

一方、視線一致時間t1が第一所定時間T1以上である場合(S8:YES)、視線一致状態が5秒以上継続している。この場合には、相手ユーザの使用する端末装置4に、視線一致状態が不自然に継続したことを通知する第一信号が送信される(S9)。なお、後述するが、第一信号は、端末装置4においてビデオカメラ34の撮影位置を変更させるために、端末装置4に送信されるものである。   On the other hand, when the line-of-sight matching time t1 is equal to or longer than the first predetermined time T1 (S8: YES), the line-of-sight matching state continues for 5 seconds or more. In this case, a first signal for notifying that the line-of-sight matching state has continued unnaturally is transmitted to the terminal device 4 used by the other user (S9). As will be described later, the first signal is transmitted to the terminal device 4 in order to change the shooting position of the video camera 34 in the terminal device 4.

第一信号が送信されると(S9)、第一信号が送信されてからの経過時間である送信後経過時間t2の計測が開始される(S10)。計測された送信後経過時間t2は、計測時間記憶エリア229の送信後経過時間記憶エリア(図示省略)に記憶される。続いて、表示画面データ記憶エリア312の共有資料データ記憶エリアが参照されて、スクリーン32に共有資料画面282が表示されているか否かが判断される(S11)。共有資料データ記憶エリアに共有資料のデータが記憶されていない場合、スクリーン32には共有資料画面282が表示されていない(S11:NO)。この場合には、S13の処理に移行する。   When the first signal is transmitted (S9), measurement of a post-transmission elapsed time t2, which is an elapsed time from the transmission of the first signal, is started (S10). The measured post-transmission elapsed time t2 is stored in the post-transmission elapsed time storage area (not shown) of the measurement time storage area 229. Subsequently, the shared material data storage area of the display screen data storage area 312 is referred to, and it is determined whether or not the shared material screen 282 is displayed on the screen 32 (S11). If shared material data is not stored in the shared material data storage area, the shared material screen 282 is not displayed on the screen 32 (S11: NO). In this case, the process proceeds to S13.

一方、共有資料データ記憶エリアに共有資料のデータが記憶されている場合、スクリーン32には共有資料画面282が表示されている(S11:YES)。この場合には、図12に示すように、共有資料画面282が相手ユーザ画面281を覆うように拡大される(S12)。   On the other hand, when shared material data is stored in the shared material data storage area, the shared material screen 282 is displayed on the screen 32 (S11: YES). In this case, as shown in FIG. 12, the shared material screen 282 is enlarged so as to cover the partner user screen 281 (S12).

ここで、スクリーン32の表示領域の横方向長さがa、縦方向長さがbであって、共有資料画面282の横方向長さが(a×(1/3))、縦方向長さが(b×(1/4))である場合を例に挙げて、具体的に説明する。なお、共有資料画面282の右下とスクリーン32の表示領域の右下とは一致するものとする。   Here, the horizontal length of the display area of the screen 32 is a, the vertical length is b, and the horizontal length of the shared material screen 282 is (a × (1/3)), the vertical length. This will be described in detail by taking the case of (b × (1/4)) as an example. It is assumed that the lower right of the shared material screen 282 matches the lower right of the display area of the screen 32.

スクリーン32に共有資料画面282が表示されている場合(S11:YES)、共有資料画面座標記憶エリア224の基準サイズ記憶エリア(図示省略)が参照されて、共有資料画面282の表示領域が取得される。さらに、取得された共有資料画面282の表示領域に対するスクリーン32の表示領域の大きさの比が、横方向及び縦方向についてそれぞれ算出される。上述の例では、共有資料画面282に対するスクリーン32の大きさの比は、横方向では3であり、縦方向では約4である。   When the shared material screen 282 is displayed on the screen 32 (S11: YES), the reference size storage area (not shown) of the shared material screen coordinate storage area 224 is referred to, and the display area of the shared material screen 282 is acquired. The Further, the ratio of the size of the display area of the screen 32 to the acquired display area of the shared material screen 282 is calculated for each of the horizontal direction and the vertical direction. In the above example, the ratio of the size of the screen 32 to the shared material screen 282 is 3 in the horizontal direction and about 4 in the vertical direction.

次に、算出された2つの比のうちの小さい比を拡大率として、共有資料画面282が自身の右下を原点として拡大される(S12)。上述の例では、共有資料画面282は、自身の右下を原点として縦に3倍、横に3倍拡大されるので、共有資料画面282の横方向の長さはa(=(a×(1/3))×3)、縦方向の長さは(b×(3/4))(=(b×(1/4))×3)となる。そして、拡大された共有資料画面282の右上、右下、左下のスクリーン32における座標が、共有資料画面282の大きさに関するデータとして、共有資料画面座標記憶エリア224の拡大サイズ記憶エリア(図示省略)に記憶される。左右方向をx方向、上下方向をy方向とし、右下を原点とすると、上述の例では、左下の座標が(a、0)、右上の座標が(0、(b×(3/4)))、左上の座標が(a、(b×(3/4)))として、拡大サイズ記憶エリア(図示省略)に記憶される。   Next, the shared material screen 282 is enlarged with the lower right of itself as the origin (S12), with a smaller ratio of the two calculated ratios as an enlargement ratio. In the above-described example, the shared material screen 282 is enlarged three times vertically and three times horizontally with the lower right of itself as the origin, so the horizontal length of the shared material screen 282 is a (= (a × ( 1/3)) × 3), the length in the vertical direction is (b × (3/4)) (= (b × (1/4)) × 3). Then, the coordinates on the upper right, lower right, and lower left screens 32 of the enlarged shared material screen 282 are the enlarged size storage areas (not shown) of the shared material screen coordinate storage area 224 as data relating to the size of the shared material screen 282. Is remembered. In the above example, the lower left coordinate is (a, 0) and the upper right coordinate is (0, (b × (3/4)) where the left and right direction is the x direction, the vertical direction is the y direction, and the lower right is the origin. )), And the upper left coordinates are stored in the enlarged size storage area (not shown) as (a, (b × (3/4))).

そして、拡大サイズ記憶エリアと領域M記憶エリア223とが参照されて、領域Mが共有資料画面282の表示領域に含まれるか否かが判断される。領域Mが共有資料画面282の表示領域に含まれる場合には、S12の処理を終了してS13の処理に移行する。領域Mが共有資料画面282の表示領域に含まれない場合には、領域Mが共有資料画面282の表示領域に含まれるように、共有資料画面282を移動させる。そして、S13の処理に移行する。   Then, with reference to the enlarged size storage area and the area M storage area 223, it is determined whether or not the area M is included in the display area of the shared material screen 282. When the area M is included in the display area of the shared material screen 282, the process of S12 is terminated and the process proceeds to S13. When the area M is not included in the display area of the shared material screen 282, the shared material screen 282 is moved so that the area M is included in the display area of the shared material screen 282. Then, the process proceeds to S13.

なお、共有資料画面282は、相手ユーザ画面281の上側に重ねて配置されることになるが、相手ユーザ画面281と重なる部分については透過表示される。すなわち、共有資料画面282の下側に配置された相手ユーザ画面281は、端末装置3のユーザから視認可能となっている。   The shared material screen 282 is arranged on the upper side of the partner user screen 281, but a portion overlapping the partner user screen 281 is transparently displayed. In other words, the partner user screen 281 arranged on the lower side of the shared material screen 282 is visible to the user of the terminal device 3.

スクリーン32に共有資料画面282が表示されていないと判断された場合(S11:NO)、もしくは、共有資料画面282が拡大表示された場合(S12)、計測された送信後経過時間t2が、所定時間記憶エリア314に記憶された第二所定時間T2以上であるか否かが判断される(S13)。本実施形態では、第二所定時間T2は10秒である。   When it is determined that the shared material screen 282 is not displayed on the screen 32 (S11: NO), or when the shared material screen 282 is enlarged (S12), the measured post-transmission elapsed time t2 is predetermined. It is determined whether or not it is equal to or longer than the second predetermined time T2 stored in the time storage area 314 (S13). In the present embodiment, the second predetermined time T2 is 10 seconds.

送信後経過時間t2が第二所定時間T2以上でない場合(S13:NO)、端末装置4において、ビデオカメラ34の撮影位置が変更されてからの経過時間は10秒未満である。この場合には、不自然な視線一致状態が回避されてから、未だ十分な時間が経過していないとして、送信後経過時間t2が第二所定時間T2以上となるまで、S13の処理が繰り返される。   When the post-transmission elapsed time t2 is not equal to or longer than the second predetermined time T2 (S13: NO), the elapsed time since the shooting position of the video camera 34 is changed in the terminal device 4 is less than 10 seconds. In this case, the process of S13 is repeated until the post-transmission elapsed time t2 is equal to or longer than the second predetermined time T2, assuming that a sufficient time has not yet elapsed since the unnatural line-of-sight matching state was avoided. .

一方、送信後経過時間t2が第二所定時間T2以上である場合(S13:YES)、端末装置4におけるビデオカメラ34の撮影位置が変更されてから十分な時間が経過している。この場合には、相手ユーザの使用する端末装置4に、不自然な視線一致状態が回避された旨の第二信号が送信される(S14)。S14においては、スクリーン32に共有資料画面282が拡大表示されている場合(S11:YES)には、第二信号が送信されるとともに、共有資料画面座標記憶エリア224の基準サイズ記憶エリアが参照されて、共有資料画面282の大きさが拡大前の大きさに戻される。   On the other hand, when the post-transmission elapsed time t2 is equal to or longer than the second predetermined time T2 (S13: YES), a sufficient time has elapsed since the shooting position of the video camera 34 in the terminal device 4 is changed. In this case, a second signal indicating that an unnatural line-of-sight matching state is avoided is transmitted to the terminal device 4 used by the partner user (S14). In S14, when the shared material screen 282 is enlarged and displayed on the screen 32 (S11: YES), the second signal is transmitted and the reference size storage area of the shared material screen coordinate storage area 224 is referred to. Thus, the size of the shared material screen 282 is returned to the size before enlargement.

そして、会議終了であるか否かが判断される(S15)。具体的には、ネットワーク2に接続されている端末が、自身のほかに1以上あるか否かがが判断される。端末装置3、4では、ネットワーク2に接続すると、ネットワーク2に接続したことを示す接続信号が相手側の端末に送信される。他の端末からの接続信号を受信した場合、接続信号を送信した端末の端末IDが、RAM22の接続端末記憶エリア225に記憶される。一方、ネットワーク2への接続を切断すると、ネットワークへの接続を切断したことを示す切断信号が相手側の端末に送信される。   Then, it is determined whether or not the conference is over (S15). Specifically, it is determined whether or not there are one or more terminals connected to the network 2 other than itself. When the terminal devices 3 and 4 are connected to the network 2, a connection signal indicating connection to the network 2 is transmitted to the partner terminal. When a connection signal is received from another terminal, the terminal ID of the terminal that transmitted the connection signal is stored in the connection terminal storage area 225 of the RAM 22. On the other hand, when the connection to the network 2 is disconnected, a disconnection signal indicating that the connection to the network is disconnected is transmitted to the partner terminal.

他の端末からの切断信号を受信した場合、切断信号を送信した端末の端末IDが、RAM22の接続端末記憶エリア225から削除される。接続端末記憶エリア225が参照されて、ネットワーク2に接続されている端末が、自身の他に0であると判断された場合(S15:YES)、処理は終了する。一方、ネットワーク2に接続されている端末が、自身のほかに1以上ある場合(S15:NO)、S1に戻り、S1〜S15の処理が繰り返される。   When receiving a disconnection signal from another terminal, the terminal ID of the terminal that has transmitted the disconnection signal is deleted from the connected terminal storage area 225 of the RAM 22. If the connected terminal storage area 225 is referred to and the terminal connected to the network 2 is determined to be 0 in addition to itself (S15: YES), the process ends. On the other hand, when there are one or more terminals connected to the network 2 (S15: NO), the process returns to S1 and the processes of S1 to S15 are repeated.

次に、他拠点側の端末装置4のCPU20において実行される撮影位置変更処理について、図13のフローチャートを参照して説明する。端末装置3と端末装置4とが各々ネットワークに接続し、互いに通信を開始すると、図13に示す撮影位置変更処理が開始される。撮影位置変更処理が開始されると、端末装置3から送信された第一信号が受信されたか否かが判断される(S51)。   Next, the photographing position changing process executed by the CPU 20 of the terminal device 4 on the other base side will be described with reference to the flowchart of FIG. When the terminal device 3 and the terminal device 4 are connected to the network and start communication with each other, the photographing position changing process shown in FIG. 13 is started. When the photographing position changing process is started, it is determined whether or not the first signal transmitted from the terminal device 3 has been received (S51).

第一信号が受信されていない場合(S51:NO)、会議終了であるか否かが判断される(S55)。第一信号が受信された場合(S51:YES)、端末装置3のユーザと端末装置4のユーザとが、不自然な視線一致状態にあるとして、駆動回路332(図8参照)によって、カメラ移動装置36の備えるモータ(図示省略)が駆動される。そして、モータの駆動量に応じて、ビデオカメラ34の位置が移動する。具体的には、図3に示すように、ユーザの視線の延長線上に位置していたビデオカメラ34は、レール部341に沿って、ユーザを中心として円弧上に移動する。こうして、撮影位置がユーザの視線方向に相対する位置から退避する位置に変更される(S52)。   If the first signal has not been received (S51: NO), it is determined whether or not the conference is over (S55). When the first signal is received (S51: YES), it is assumed that the user of the terminal device 3 and the user of the terminal device 4 are in an unnatural line-of-sight match state, and the camera is moved by the drive circuit 332 (see FIG. 8). A motor (not shown) included in the device 36 is driven. Then, the position of the video camera 34 moves according to the driving amount of the motor. Specifically, as shown in FIG. 3, the video camera 34 located on the extension line of the user's line of sight moves along the rail portion 341 on an arc around the user. In this way, the shooting position is changed from the position facing the user's line-of-sight direction to the retracted position (S52).

端末装置3から送信された第二信号が受信されたか否かが判断される(S53)。第二信号が受信されていない場合(S53:NO)、第二信号が受信されるまで、S53の処理が繰り返される。第二信号が受信された場合(S53:YES)、端末装置3のユーザと端末装置4のユーザとの不自然な視線一致状態は、回避することができたとして、駆動回路332によって、ビデオカメラ34の位置を変更するためのモータ(図示省略)が駆動される。そして、ユーザの視線の延長線上からはずれて位置していたビデオカメラ34は、カメラ支持部材342に支持されながら、ユーザを中心として円弧上にユーザと相対する位置まで移動する。こうして、撮影位置が元の位置に復帰される(S54)。   It is determined whether or not the second signal transmitted from the terminal device 3 has been received (S53). When the second signal is not received (S53: NO), the process of S53 is repeated until the second signal is received. When the second signal is received (S53: YES), it is assumed that an unnatural line-of-sight matching state between the user of the terminal device 3 and the user of the terminal device 4 can be avoided. A motor (not shown) for changing the position of 34 is driven. Then, the video camera 34 that is located off the extension line of the user's line of sight moves to a position facing the user on the arc with the user at the center while being supported by the camera support member 342. Thus, the photographing position is returned to the original position (S54).

そして、接続端末記憶エリア225が参照されて、ネットワーク2に接続されている端末が、自身の他に1以上あるか否かが判断される(S55)。ネットワーク2に接続されている端末が、自身の他には0である場合(S55:YES)、処理を終了する。一方、ネットワーク2に接続されている端末が、自身のほかに1以上ある場合(S55:NO)、S51に戻り、S51〜S55の処理が繰り返される。   Then, the connected terminal storage area 225 is referred to, and it is determined whether or not there are one or more terminals connected to the network 2 other than itself (S55). If the terminal connected to the network 2 is 0 in addition to itself (S55: YES), the process is terminated. On the other hand, when there are one or more terminals connected to the network 2 (S55: NO), the process returns to S51, and the processes of S51 to S55 are repeated.

なお、以上説明において、図2、図8に示すビデオカメラ34が本発明の「ユーザ撮影手段」に相当する。赤外線ライト33が、本発明の「照射手段」に相当する。プロジェクタ28およびプロジェクタ28を制御するCPU20が、本発明の「表示手段」に相当する。図9に示すHDD31の位置関係記憶エリア315が本発明の「位置関係記憶手段」に相当する。図11に示すS2の処理を実行するCPU20が本発明の「視線方向検出手段」に相当する。図11に示すS3の処理を実行するCPU20が本発明の「視線位置特定手段」に相当する。図11に示すS4において相手ユーザの顔を検出するCPU20が本発明の「顔検出手段」に相当する。図11に示すS5の処理を実行するCPU20が本発明の「視線一致検出手段」に相当する。図11に示すS7の処理を実行するCPU20が本発明の「視線一致時間計測手段」に相当する。図11に示すS9の処理を実行するCPU20が本発明の「第一信号送信手段」に相当する。図11に示すS10の処理を実行するCPU20が本発明の「送信後経過時間計測手段」に相当する。図11に示すS11の処理を実行するCPU20が本発明の「別画像表示判断手段」に相当する。図11に示すS13の処理を実行するCPU20が本発明の「第二所定時間判断手段」に相当する。図11に示すS14の処理を実行するCPU20が本発明の「第二信号送信手段」に相当する。図13に示すS51の処理を実行するCPU20が本発明の「第一信号受信手段」に相当する。図13に示すS52の処理を実行するCPU20が本発明の「撮影位置変更手段」に相当する。図13に示すS53の処理を実行するCPU20が本発明の「第二信号受信手段」に相当する。図13に示すS54の処理を実行するCPU20が本発明の「撮影位置復帰手段」に相当する。   In the above description, the video camera 34 shown in FIGS. 2 and 8 corresponds to the “user photographing unit” of the present invention. The infrared light 33 corresponds to the “irradiation means” of the present invention. The projector 28 and the CPU 20 that controls the projector 28 correspond to the “display unit” of the present invention. The positional relationship storage area 315 of the HDD 31 shown in FIG. 9 corresponds to the “positional relationship storage means” of the present invention. The CPU 20 that executes the process of S2 shown in FIG. 11 corresponds to the “line-of-sight direction detecting means” of the present invention. The CPU 20 that executes the process of S3 shown in FIG. 11 corresponds to the “line-of-sight position specifying unit” of the present invention. The CPU 20 that detects the face of the partner user in S4 shown in FIG. 11 corresponds to the “face detection means” of the present invention. The CPU 20 that executes the process of S5 shown in FIG. The CPU 20 that executes the process of S7 shown in FIG. The CPU 20 that executes the process of S9 shown in FIG. 11 corresponds to the “first signal transmitting means” of the present invention. The CPU 20 that executes the processing of S10 shown in FIG. 11 corresponds to “post-transmission elapsed time measuring means” of the present invention. The CPU 20 that executes the process of S11 shown in FIG. 11 corresponds to “another image display determination unit” of the present invention. The CPU 20 that executes the process of S13 shown in FIG. 11 corresponds to the “second predetermined time determination means” of the present invention. The CPU 20 that executes the process of S14 shown in FIG. 11 corresponds to the “second signal transmitting means” of the present invention. The CPU 20 that executes the process of S51 shown in FIG. 13 corresponds to the “first signal receiving means” of the present invention. The CPU 20 that executes the process of S52 shown in FIG. 13 corresponds to the “photographing position changing means” of the present invention. The CPU 20 that executes the process of S53 shown in FIG. 13 corresponds to the “second signal receiving means” of the present invention. The CPU 20 that executes the process of S54 shown in FIG. 13 corresponds to the “photographing position returning means” of the present invention.

以上説明したように、第一実施形態である端末装置3は、ネットワーク2を介して他の端末装置4と相互に接続される。これら端末装置間で、画像、音声を互いに送受信することで遠隔会議を実施するテレビ会議システム1を構成する。このテレビ会議システム1では、遠隔会議中に、端末装置3(又は4)のユーザが、スクリーン32に表示された相手ユーザに対して、視線を不自然に一致させているか否かを監視する。そして、不自然な視線一致状態が検出された場合に、相手ユーザの端末装置4(又は3)に対して、不自然な視線一致状態が検出された旨の信号(第一信号)を送信する。相手ユーザの端末装置4(又は3)では、第一信号を受信すると、相手ユーザを撮影するビデオカメラ34の位置を変更する。これにより、会議参加者同士の不自然な視線一致状態を回避することができ、会議参加者は、円滑に会話をすることができる。   As described above, the terminal device 3 according to the first embodiment is connected to other terminal devices 4 via the network 2. A video conference system 1 that implements a remote conference by transmitting and receiving images and sounds between these terminal devices is configured. In the video conference system 1, during the remote conference, the user of the terminal device 3 (or 4) monitors whether or not the line of sight is unnaturally aligned with the counterpart user displayed on the screen 32. When an unnatural line-of-sight matching state is detected, a signal (first signal) indicating that the unnatural line-of-sight matching state is detected is transmitted to the terminal device 4 (or 3) of the other user. . When receiving the first signal, the terminal device 4 (or 3) of the partner user changes the position of the video camera 34 that captures the partner user. Thereby, an unnatural line-of-sight matching state between conference participants can be avoided, and the conference participants can talk smoothly.

次に、第二実施形態である端末装置130について、図面を参照して説明する。端末装置130では、ユーザと相手ユーザとが不自然な視線一致状態にある場合、相手ユーザを撮影するビデオカメラ34の位置を変更させて視線一致状態を回避する。また、ユーザの瞬きの回数をカウントし、瞬きが頻繁に行われている場合には、ユーザが緊張状態にあるとして、視線一致状態の回避時間を長くする。また、ユーザと相手ユーザとがいずれも無言状態にある場合には、気まずい雰囲気にあるとして、視線一致状態の回避時間を長くする。そこで、これら異なる点を重点的に説明するために、第一実施形態とは異なるCPU120による通信制御処理を中心に説明する。なお、第二実施形態の端末装置130は、第一実施形態の端末装置3と同様に、図1に示すテレビ会議システム1を構成するものである。   Next, the terminal device 130 which is 2nd embodiment is demonstrated with reference to drawings. In the terminal device 130, when the user and the partner user are in an unnatural line-of-sight matching state, the position of the video camera 34 that captures the partner user is changed to avoid the line-of-sight matching state. Also, the number of blinks of the user is counted, and when the blink is frequently performed, the avoidance time of the line-of-sight matching state is lengthened assuming that the user is in a tension state. Further, when both the user and the other user are in a silent state, it is assumed that there is an awkward atmosphere, and the time for avoiding the line-of-sight matching state is lengthened. Therefore, in order to focus on these different points, a description will be given focusing on communication control processing by the CPU 120 different from the first embodiment. In addition, the terminal device 130 of 2nd embodiment comprises the video conference system 1 shown in FIG. 1 similarly to the terminal device 3 of 1st embodiment.

はじめに、瞬き検出方法について説明する。瞬きを検出する方法としては、周知の方法が用いられ、例えば、特開2008−226106号公報に記載された瞬きの検出方法が適用可能である。   First, a blink detection method will be described. As a method for detecting blinking, a known method is used. For example, a blink detection method described in Japanese Patent Application Laid-Open No. 2008-226106 is applicable.

上記検出方法を適法した瞬きの検出方法について、図14および図15を参照して説明する。まず、撮影画像データ記憶エリア311に記憶されたユーザの撮影画像から、ユーザの顔を検出する。顔の検出は、顔輪郭のエッジを算出し、あるいは、顔輪郭のパターンマッチングによって顔輪郭を抽出することによって行う。   A blink detection method that uses the above detection method appropriately will be described with reference to FIGS. 14 and 15. First, the user's face is detected from the user's captured image stored in the captured image data storage area 311. The face is detected by calculating the edge of the face outline or extracting the face outline by pattern matching of the face outline.

次に、検出された顔の領域の中から、瞬きを検出する領域(瞬き検出領域70)が抽出される。瞬き検出領域70を抽出するために、まず、検出された顔のほぼ中央において2つの隣り合った鼻孔を検出する。そして、検出された鼻孔位置よりも上方において横長の長方形状の瞬き検出領域70が抽出される。   Next, an area for detecting blink (blink detection area 70) is extracted from the detected face area. In order to extract the blink detection area 70, first, two adjacent nostrils are detected in the approximate center of the detected face. Then, a horizontally-long rectangular blink detection region 70 is extracted above the detected nostril position.

抽出された瞬き検出領域70において、眼77の開閉状態を判断する。眼77の開閉状態を判断するために、はじめに、瞬き検出領域70において眼77を検出し、検出された眼77の面積を取得する。次に、検出された眼77の面積の顔面積に対する割合が、後述するHDD131の閾値記憶エリア318に記憶された閾値以上であるか否かを判断する。閾値は、ユーザが最も眼77を開いている場合の顔に対する眼77の面積の割合(最大値)と、ユーザが眼77をつむっている場合の顔に対する眼77の面積の割合(最小値)との平均値である。閾値以上であれば眼77を開いた状態と判断し、閾値以下であれば眼77を閉じた状態と判断する。   In the extracted blink detection area 70, the open / closed state of the eye 77 is determined. In order to determine the open / closed state of the eye 77, first, the eye 77 is detected in the blink detection region 70, and the area of the detected eye 77 is acquired. Next, it is determined whether or not the ratio of the detected area of the eye 77 to the face area is greater than or equal to a threshold value stored in a threshold value storage area 318 of the HDD 131 described later. The threshold value is the ratio (maximum value) of the area of the eye 77 to the face when the user is most open, and the ratio (minimum value) of the area of the eye 77 to the face when the user is pinching the eye 77. And the average value. If it is equal to or greater than the threshold value, it is determined that the eye 77 is open, and if it is equal to or less than the threshold value, it is determined that the eye 77 is closed.

眼77の開閉状態の判断は、1/30秒ごとに行う。眼77の面積が閾値以上から閾値未満に変化した場合に、瞬きが行われたとして検出する。   Determination of the open / closed state of the eye 77 is performed every 1/30 seconds. When the area of the eye 77 changes from the threshold value to less than the threshold value, it is detected that blinking has occurred.

次に、端末装置130の電気的構成について、図16を参照して説明する。端末装置130には、端末装置130の制御を司るコントローラとしてのCPU120が設けられている。CPU120には、BIOS等を記憶したROM121と、各種データを一時的に記憶するRAM122と、データの受け渡しの仲介を行うI/Oインタフェイス30とが接続されている。I/Oインタフェイス30には、各種記憶エリアを有するハードディスクドライブ131(以下、HDD131)と、カードリーダ制御部38とが接続されている。カードリーダ制御部38には、各ユーザが所有する識別カード(図示外)に記憶されたユーザを識別するためのユーザIDを読み込むためのカードリーダ39が接続されている。   Next, the electrical configuration of the terminal device 130 will be described with reference to FIG. The terminal device 130 is provided with a CPU 120 as a controller that controls the terminal device 130. Connected to the CPU 120 are a ROM 121 that stores BIOS, a RAM 122 that temporarily stores various data, and an I / O interface 30 that mediates data transfer. Connected to the I / O interface 30 are a hard disk drive 131 (hereinafter referred to as HDD 131) having various storage areas and a card reader controller 38. A card reader 39 for reading a user ID for identifying a user stored in an identification card (not shown) owned by each user is connected to the card reader control unit 38.

HDD131は、図17に示すように、第一実施形態のHDD31と同様の各種記憶エリア(図9参照)に加えて、閾値記憶エリア318と、所定値記憶エリア316と、ユーザID記憶エリア320とを備える。ユーザID記憶エリア320には、会議開始時にカードリーダ39で読み取られた識別カード(図示外)に記憶されたユーザIDが記憶される。閾値記憶エリア318には、閾値テーブル(図示省略)が設けられている。閾値テーブルには、ユーザごとに顔面積に対する眼面積の平均値(閾値)が記憶されている。   As shown in FIG. 17, the HDD 131 includes a threshold storage area 318, a predetermined value storage area 316, a user ID storage area 320, in addition to various storage areas similar to the HDD 31 of the first embodiment (see FIG. 9). Is provided. The user ID storage area 320 stores a user ID stored in an identification card (not shown) read by the card reader 39 at the start of the conference. The threshold storage area 318 is provided with a threshold table (not shown). In the threshold value table, an average value (threshold value) of the eye area with respect to the face area is stored for each user.

RAM122には、瞬き検出領域70の眼77の画像を記憶する眼画像記憶エリア226と、カウントされた瞬き回数を記憶する瞬き回数記憶エリア227と、ユーザまたは相手ユーザが音声を発した場合に、音声があったこと記憶する音声有無記憶エリア228とを備える。端末装置130のその他の電気的構成は、第一実施形態の端末装置3(図8参照)と同様の構成を備えている。   In the RAM 122, when an eye image storage area 226 for storing an image of the eye 77 in the blink detection area 70, a blink number storage area 227 for storing the counted number of blinks, and when the user or the other user makes a sound, A voice presence / absence storage area 228 for storing the presence of voice. The other electrical configuration of the terminal device 130 is the same as that of the terminal device 3 (see FIG. 8) of the first embodiment.

次に、CPU120による通信制御処理について、図19のフローチャートを参照して説明する。本実施形態においても、端末装置3、4では、視線方向を検出して視線一致状態を監視する「視線方向検出処理」と、視線一致を受けてビデオカメラの撮影位置を変更する「撮影位置変更処理」との両方が行われる。「撮影位置変更処理」は、第一実施形態と同様であるため、説明を省略する。   Next, communication control processing by the CPU 120 will be described with reference to the flowchart of FIG. Also in the present embodiment, in the terminal devices 3 and 4, “line-of-sight detection processing” that detects the line-of-sight direction and monitors the line-of-sight state, and “shooting position change” that changes the shooting position of the video camera in response to line-of-sight matching Both “processing” and “processing” are performed. The “photographing position change process” is the same as that in the first embodiment, and thus description thereof is omitted.

端末装置3と端末装置4とが各々ネットワークに接続し、互いに通信を開始すると、図19に示す視線方向検出処理が開始される。視線方向検出処理が開始されると、はじめに、計測時間記憶エリア229に記憶された視線一致時間t1の値、送信後経過時間t2の値が初期化される。また、瞬き回数記憶エリア227に記憶された瞬き回数Yの値、音声有無記憶エリア228に記憶された値が初期化される(S21)。   When the terminal device 3 and the terminal device 4 are respectively connected to the network and start communication with each other, the gaze direction detection process shown in FIG. 19 is started. When the line-of-sight direction detection process is started, first, the values of the line-of-sight matching time t1 and the post-transmission elapsed time t2 stored in the measurement time storage area 229 are initialized. Further, the value of the blink count Y stored in the blink count storage area 227 and the value stored in the voice presence / absence storage area 228 are initialized (S21).

次に、上述の方法によって、ユーザの視線方向が検出される(S22)。検出された視線方向は、RAM122の視線方向記憶エリア221に記憶される。続いて、視線方向記憶エリア221に記憶された視線方向と、位置関係記憶エリア315に記憶された所定距離Lから、スクリーン32における表示画像上のユーザの視線位置Tが特定される(S23)。特定された視線位置Tは、RAM122の視線位置記憶エリア222に記憶される。   Next, the user's line-of-sight direction is detected by the above-described method (S22). The detected line-of-sight direction is stored in the line-of-sight direction storage area 221 of the RAM 122. Subsequently, the user's line-of-sight position T on the display image on the screen 32 is specified from the line-of-sight direction stored in the line-of-sight storage area 221 and the predetermined distance L stored in the positional relationship storage area 315 (S23). The identified line-of-sight position T is stored in the line-of-sight position storage area 222 of the RAM 122.

次に、上述の方法により、相手ユーザのスクリーン32上での右眼721、左眼722、鼻723を結ぶ領域Mが特定される(S24)。特定された領域Mは、領域M記憶エリア223に記憶される。   Next, the region M connecting the right eye 721, the left eye 722, and the nose 723 on the screen 32 of the other user is specified by the above-described method (S24). The identified area M is stored in the area M storage area 223.

そして、視線位置記憶エリア222に記憶された視線位置Tが、領域M記憶エリア223に記憶された領域Mにあるか否かが判断される(S25)。視線位置Tが領域Mにある場合(S25:YES)、視線一致状態であると判断されて、視線一致時間t1が計測中であるか否かが判断される(S26)。視線一致時間t1が計測中でない場合(S26:NO)、視線一致時間t1の計測が開始される(S27)。   Then, it is determined whether or not the line-of-sight position T stored in the line-of-sight position storage area 222 is in the area M stored in the area M storage area 223 (S25). When the line-of-sight position T is in the region M (S25: YES), it is determined that the line-of-sight coincidence state is present, and it is determined whether the line-of-sight coincidence time t1 is being measured (S26). When the line-of-sight matching time t1 is not being measured (S26: NO), the measurement of the line-of-sight matching time t1 is started (S27).

視線一致時間t1の計測が開始されると(S27)、音声を検出する音声検出処理が起動される(S28)。音声検出処理について、図20を参照して説明する。音声検出処理は、図19に示す視線方向検出処理の中で起動される処理であり、視線方向検出処理と並行して行われる。   When measurement of the line-of-sight coincidence time t1 is started (S27), a sound detection process for detecting sound is started (S28). The voice detection process will be described with reference to FIG. The voice detection process is a process activated in the gaze direction detection process shown in FIG. 19 and is performed in parallel with the gaze direction detection process.

音声検出処理では、まず、マイク35からユーザの音声が入力されたか、又は端末装置4から相手ユーザの音声データが送信されたかが判断される(S101)。マイク35からユーザの音声が入力されたか、又は端末装置4から相手ユーザの音声データが送信された場合には(S101:YES)、音声有無記憶エリア228に音声が検出されたことが記憶される(S102)。具体的には、音声有無記憶エリア228に「1」が記憶される。そして、S101の処理に戻る。   In the voice detection process, first, it is determined whether the user's voice is input from the microphone 35 or the voice data of the other user is transmitted from the terminal device 4 (S101). When the user's voice is input from the microphone 35 or the voice data of the other user is transmitted from the terminal device 4 (S101: YES), it is stored in the voice presence / absence storage area 228. (S102). Specifically, “1” is stored in the voice presence / absence storage area 228. Then, the process returns to S101.

マイク35からユーザの音声が入力されず、又は端末装置4から相手ユーザの音声データが送信されない場合には(S101:NO)、音声有無記憶エリア228の記憶内容は変更されずに、S101の処理に戻る。なお、音声有無記憶エリア228の初期値は「0」である。音声検出処理は、視線方向検出処理が終了する際に同時に終了する。   When the user's voice is not input from the microphone 35 or the voice data of the other user is not transmitted from the terminal device 4 (S101: NO), the stored content of the voice presence / absence storage area 228 is not changed, and the process of S101 Return to. The initial value of the voice presence / absence storage area 228 is “0”. The voice detection process ends at the same time as the line-of-sight direction detection process ends.

図19に示す視線方向検出処理において、音声検出処理が起動されると(S28)、次に、瞬き回数のカウントをする瞬きカウント処理が起動される(S29)。瞬きカウント処理について、図21を参照して説明する。瞬きカウント処理は、図19に示す視線方向検出処理の中で起動される処理であり、視線方向検出処理と並行して行われる。   In the line-of-sight direction detection process shown in FIG. 19, when the voice detection process is activated (S28), next, the blink count process for counting the number of blinks is activated (S29). The blink count process will be described with reference to FIG. The blink count process is a process activated in the gaze direction detection process shown in FIG. 19, and is performed in parallel with the gaze direction detection process.

瞬き回数カウント処理では、まず、ユーザID記憶エリア320と閾値記憶エリア318とが参照されて、端末装置130を使用しているユーザの顔面積に対する眼面積の割合の平均値(閾値)が特定される(S131)。そして、撮影画像データ記憶エリア311が参照されて、上述の方法により、瞬きの有無が検出される(S132)。そして、瞬きがあったか否かが判断される(S133)。瞬きがあったと判断されると(S133:YES)、瞬き回数記憶エリア227に記憶された瞬き回数Yの値が1増加されて上書きされ(S134)、S131の処理に戻る。瞬きがなかったと判断されると(S133:NO)、S134の処理は行われずに、S131に戻る。なお、瞬きカウント処理は、視線方向検出処理が終了する際に同時に終了する。   In the blink count processing, first, the user ID storage area 320 and the threshold storage area 318 are referred to, and the average value (threshold) of the ratio of the eye area to the face area of the user using the terminal device 130 is specified. (S131). Then, the photographed image data storage area 311 is referred to, and the presence or absence of blinking is detected by the above-described method (S132). Then, it is determined whether or not there has been a blink (S133). If it is determined that there is a blink (S133: YES), the value of the blink count Y stored in the blink count storage area 227 is incremented by 1 (S134), and the process returns to S131. If it is determined that there is no blink (S133: NO), the process returns to S131 without performing the process of S134. Note that the blink count processing ends at the same time when the gaze direction detection processing ends.

図19に示す視線方向検出処理において、瞬き回数カウント処理が起動されると(S29)、再度、S22〜S25の処理が行われる。   In the gaze direction detection process shown in FIG. 19, when the blink count processing is started (S29), the processes of S22 to S25 are performed again.

視線一致時間t1が計測中である場合(S26:YES)、計測された視線一致時間t1が、所定時間記憶エリア314に記憶された第一所定時間T1以上であるか否かが判断される(S30)。本実施形態では、第一所定時間T1は5秒である。   When the line-of-sight matching time t1 is being measured (S26: YES), it is determined whether or not the measured line-of-sight matching time t1 is equal to or longer than the first predetermined time T1 stored in the predetermined time storage area 314 ( S30). In the present embodiment, the first predetermined time T1 is 5 seconds.

視線一致時間t1が第一所定時間T1以上でない場合(S30:NO)、視線一致状態となってからの経過時間が5秒未満である。この場合には、ユーザはスクリーン32に表示された相手ユーザに対して、自然に視線を一致させた状態であるとして、視線一致時間t1が第一所定時間T1以上となるまで、S22〜S30の処理が繰り返される。   When the line-of-sight coincidence time t1 is not equal to or longer than the first predetermined time T1 (S30: NO), the elapsed time from the line-of-sight coincidence state is less than 5 seconds. In this case, it is assumed that the user is in a state where the line of sight is naturally matched with the other user displayed on the screen 32, and until the line-of-sight matching time t1 becomes equal to or longer than the first predetermined time T1, the processes of S22 to S30 are performed. The process is repeated.

一方、視線一致時間t1が第一所定時間T1以上である場合(S30:YES)、視線一致状態が5秒以上継続している。この場合には、相手ユーザの使用する端末装置4に、視線一致状態が不自然に継続したことを通知する第一信号が送信される(S31)。第一信号は、第一実施形態と同様に、端末装置4においてビデオカメラ34の撮影位置を変更させるために、端末装置4に送信されるものである。   On the other hand, when the line-of-sight coincidence time t1 is equal to or longer than the first predetermined time T1 (S30: YES), the line-of-sight coincidence state continues for 5 seconds or more. In this case, a first signal for notifying that the line-of-sight matching state has continued unnaturally is transmitted to the terminal device 4 used by the other user (S31). Similarly to the first embodiment, the first signal is transmitted to the terminal device 4 in order to change the shooting position of the video camera 34 in the terminal device 4.

第一信号が送信されると(S31)、第一信号が送信されてからの経過時間である送信後経過時間t2の計測が開始される(S32)。続いて、表示画面データ記憶エリア312の共有資料データ記憶エリアが参照されて、スクリーン32に共有資料画面282が表示されているか否かが判断される(S33)。共有資料データ記憶エリアに共有資料の画面データが記憶されていない場合、スクリーン32には共有資料画面282が表示されていない(S33:NO)。この場合には、S35の処理に移行する。   When the first signal is transmitted (S31), measurement of a post-transmission elapsed time t2, which is an elapsed time from the transmission of the first signal, is started (S32). Subsequently, the shared material data storage area of the display screen data storage area 312 is referred to, and it is determined whether or not the shared material screen 282 is displayed on the screen 32 (S33). When the screen data of the shared material is not stored in the shared material data storage area, the shared material screen 282 is not displayed on the screen 32 (S33: NO). In this case, the process proceeds to S35.

一方、共有資料データ記憶エリアに共有資料の画面データが記憶されている場合、スクリーン32には共有資料画面282が表示されている(S33:YES)。この場合には、共有資料画面282が相手ユーザ画面281を覆うように拡大される(S34)。拡大方法は第一実施形態と同様であるため、説明を省略する。   On the other hand, when the screen data of the shared material is stored in the shared material data storage area, the shared material screen 282 is displayed on the screen 32 (S33: YES). In this case, the shared material screen 282 is enlarged so as to cover the partner user screen 281 (S34). Since the enlargement method is the same as that of the first embodiment, the description thereof is omitted.

そして、計測された視線一致時間t1が、所定時間記憶エリア314に記憶された第三所定時間T3以上であるか否かが判断される(S35)。本実施形態では、第三所定時間T3は7秒である。   Then, it is determined whether or not the measured line-of-sight matching time t1 is equal to or longer than a third predetermined time T3 stored in the predetermined time storage area 314 (S35). In the present embodiment, the third predetermined time T3 is 7 seconds.

視線一致時間t1が第三所定時間T3以上でない場合(S35:NO)、視線一致時間t1が第三所定時間T3以上となるまで、S35の処理が繰り返される。視線一致時間t1が第三所定時間T3以上である場合(S35:YES)、音声有無記憶エリア228が参照されて、視線一致時間t1が第三所定時間T3以上となるまでの間、ユーザと相手ユーザとが無言状態であったか否かが判断される(S36)。   When the line-of-sight matching time t1 is not equal to or longer than the third predetermined time T3 (S35: NO), the process of S35 is repeated until the line-of-sight matching time t1 becomes equal to or longer than the third predetermined time T3. When the line-of-sight matching time t1 is equal to or longer than the third predetermined time T3 (S35: YES), the user and the other party are referred until the line-of-sight matching time t1 becomes equal to or longer than the third predetermined time T3 with reference to the voice presence / absence storage area 228. It is determined whether or not the user is silent (S36).

音声有無記憶エリア228に「0」が記憶されている場合、ユーザおよび相手ユーザのいずれも音声を発しない、無言状態が継続していたと判断される(S36:YES)。無言状態が続いていたユーザと相手ユーザとは、気まずい雰囲気であった可能性が高い。続いて、瞬き回数記憶エリア227と所定値記憶エリア316とが参照されて、視線一致時間t1が第三所定時間T3以上となるまでの間にユーザが行った瞬きの回数Yが、所定値U以上であったか否かが判断される(S37)。一般に、ユーザは緊張状態になると瞬きの回数が増加する。瞬き回数記憶エリア227に記憶された瞬きの回数Yが、所定値記憶エリア316に記憶された所定値U以上である場合(S37:YES)、ユーザは緊張状態にある可能性が高い。   If “0” is stored in the voice presence / absence storage area 228, it is determined that the silent state has continued, in which neither the user nor the other user utters voice (S36: YES). There is a high possibility that the user who has remained silent and the other user were in an awkward atmosphere. Subsequently, with reference to the blink count storage area 227 and the predetermined value storage area 316, the number of blinks Y performed by the user until the line-of-sight matching time t1 becomes equal to or greater than the third predetermined time T3 is the predetermined value U. It is determined whether or not this is the case (S37). In general, the number of blinks increases when a user becomes nervous. If the number of blinks Y stored in the blink count storage area 227 is equal to or greater than the predetermined value U stored in the predetermined value storage area 316 (S37: YES), the user is likely to be in a tension state.

このように、不自然な視線一致状態が継続し、ユーザ間で無言状態が継続したうえに(S36:YES)、ユーザの瞬き回数Yが所定値U以上である場合(S37:YES)、ユーザは非常に居心地の悪い状況にあるといえる。この場合、所定時間記憶エリア314に記憶された第二所定時間T2の値が所定時間aに変更される(S38)。所定時間aは、初期状態の第二所定時間T2よりも長い時間である。本実施形態では、初期状態の第二所定時間を10秒とし、所定時間aを20秒とする。   In this way, when the unnatural line-of-sight matching state continues, the silent state continues between users (S36: YES), and the number of blinks Y of the user is equal to or greater than the predetermined value U (S37: YES), the user Is in a very uncomfortable situation. In this case, the value of the second predetermined time T2 stored in the predetermined time storage area 314 is changed to the predetermined time a (S38). The predetermined time a is longer than the second predetermined time T2 in the initial state. In the present embodiment, the second predetermined time in the initial state is 10 seconds, and the predetermined time a is 20 seconds.

一方、瞬き回数記憶エリア227に記憶された瞬きの回数Yが、所定値記憶エリア316に記憶された所定値U未満である場合(S37:NO)、ユーザは緊張状態にない可能性が高い。このように、不自然な視線一致状態が継続し、かつユーザ間で無言状態が継続しているものの(S36;YES)、ユーザの瞬き回数Yが所定値U未満の場合(S37:NO)、所定時間記憶エリア314に記憶された第二所定時間T2の値が所定時間bに変更される(S39)。所定時間bは、初期状態の第二所定時間T2よりも長い時間であって、所定時間aよりも短い時間である。本実施形態では、所定時間bを15秒とする。   On the other hand, when the number Y of blinks stored in the blink number storage area 227 is less than the predetermined value U stored in the predetermined value storage area 316 (S37: NO), the user is likely not in a tension state. Thus, although the unnatural line-of-sight matching state continues and the silent state continues between users (S36; YES), when the number of blinks Y of the user is less than the predetermined value U (S37: NO), The value of the second predetermined time T2 stored in the predetermined time storage area 314 is changed to the predetermined time b (S39). The predetermined time b is longer than the second predetermined time T2 in the initial state and is shorter than the predetermined time a. In the present embodiment, the predetermined time b is 15 seconds.

また、S36において、音声有無記憶エリア228に「1」が記憶されている場合、ユーザもしくは相手ユーザのいずれかが音声を発しているため、無言状態は継続していなかったと判断される(S36:NO)。この場合、ユーザと相手ユーザとの間に、視線一致状態が長く続いたものの、ユーザと相手ユーザとの間には会話があり、気まずい雰囲気はなかった可能性が高い。   In S36, when “1” is stored in the voice presence / absence storage area 228, it is determined that the silent state has not been continued because either the user or the other user is uttering voice (S36: NO). In this case, although the line-of-sight matching state has continued for a long time between the user and the partner user, there is a high possibility that there was a conversation between the user and the partner user and there was no awkward atmosphere.

この場合、続いて、瞬き回数記憶エリア227と所定値記憶エリア316とが参照されて、視線一致時間t1が第三所定時間T3以上となるまでの間にユーザが行った瞬きの回数Yが、所定値U以上であったか否かが判断される(S40)。瞬き回数記憶エリア227に記憶された瞬きの回数Yが、所定値記憶エリア316に記憶された所定値U以上である場合(S40:YES)、ユーザは緊張状態にある可能性が高い。   In this case, subsequently, the blink count storage area 227 and the predetermined value storage area 316 are referred to, and the blink count Y performed by the user until the line-of-sight matching time t1 becomes equal to or greater than the third predetermined time T3. It is determined whether or not the predetermined value U is exceeded (S40). When the blink count Y stored in the blink count storage area 227 is equal to or greater than the predetermined value U stored in the predetermined value storage area 316 (S40: YES), the user is likely to be in a tension state.

このように、不自然な視線一致状態が継続し、ユーザのいずれかに発話があったものの(S36:NO)、ユーザの瞬き回数Yが所定値U以上である場合(S40:YES)、所定時間記憶エリア314に記憶された第二所定時間T2の値が所定時間cに変更される(S41)。所定時間cは、初期状態の第二所定時間T2よりも長い時間であり、所定時間aや所定時間bよりも短い時間である。本実施形態では所定時間cは12秒とする。   As described above, when the unnatural line-of-sight coincidence state continues and there is an utterance to any of the users (S36: NO), the number of blinks Y of the user is equal to or greater than the predetermined value U (S40: YES). The value of the second predetermined time T2 stored in the time storage area 314 is changed to the predetermined time c (S41). The predetermined time c is longer than the second predetermined time T2 in the initial state, and is shorter than the predetermined time a and the predetermined time b. In the present embodiment, the predetermined time c is 12 seconds.

一方、瞬き回数記憶エリア227に記憶された瞬きの回数Yが、所定値記憶エリア316に記憶された所定値U未満である場合(S40:NO)、ユーザは居心地の悪さをそれほど感じていないとして、第二所定時間T2の値は変更されない。   On the other hand, when the blink count Y stored in the blink count storage area 227 is less than the predetermined value U stored in the predetermined value storage area 316 (S40: NO), the user does not feel much uncomfortable. The value of the second predetermined time T2 is not changed.

S38、S39、S41のいずれかの処理が終了すると、計測された送信後経過時間t2が、所定時間記憶エリア314に記憶された第二所定時間T2以上であるか否かが判断される(S42)。上述のように、所定時間記憶エリア314に記憶された第二所定時間T2は、検出されたユーザの緊張度や居心地の悪さに応じて設定されている。具体的には、第二所定時間T2は、ユーザと相手ユーザとの間に無言状態が継続し、かつユーザの瞬き回数が多い場合には20秒に設定される。ユーザと相手ユーザとの間に無言状態が継続しているものの、ユーザの瞬き回数が多くない場合には15秒に設定される。ユーザと相手ユーザとの間に発話があり、ユーザの瞬き回数が多い場合には12秒に設定される。ユーザと相手ユーザとの間に発話があり、ユーザの瞬き回数が多くない場合には初期状態である10秒のままである。   When the process of any one of S38, S39, and S41 ends, it is determined whether or not the measured post-transmission elapsed time t2 is equal to or greater than the second predetermined time T2 stored in the predetermined time storage area 314 (S42). ). As described above, the second predetermined time T2 stored in the predetermined time storage area 314 is set according to the detected degree of tension or uncomfortableness of the user. Specifically, the second predetermined time T2 is set to 20 seconds when the silent state continues between the user and the other user and the number of blinks of the user is large. If the silent state continues between the user and the other user, but the number of blinks of the user is not large, it is set to 15 seconds. If there is an utterance between the user and the other user, and the number of blinks of the user is large, it is set to 12 seconds. If there is an utterance between the user and the other user and the number of blinks of the user is not large, the initial state of 10 seconds remains.

送信後経過時間t2が第二所定時間T2以上でない場合(S42:NO)、ユーザの居心地の悪さが回避されてから、未だ十分な時間が経過していないとして、送信後経過時間t2が第二所定時間T2以上となるまで、S42の処理が繰り返される。   If the post-transmission elapsed time t2 is not equal to or longer than the second predetermined time T2 (S42: NO), the post-transmission elapsed time t2 is set to the second after assuming that sufficient time has not passed since the user's uncomfortable feeling is avoided. The process of S42 is repeated until the predetermined time T2 is reached.

一方、送信後経過時間t2が第二所定時間T2以上である場合(S42:YES)、端末装置4におけるビデオカメラ34の撮影位置が変更されてから十分な時間が経過している。この場合には、相手ユーザの使用する端末装置4に、端末装置3のユーザの居心地の悪さが回避された旨の第二信号が送信される(S43)。   On the other hand, when the post-transmission elapsed time t2 is equal to or longer than the second predetermined time T2 (S42: YES), a sufficient time has elapsed since the shooting position of the video camera 34 in the terminal device 4 is changed. In this case, a second signal indicating that the uncomfortable feeling of the user of the terminal device 3 is avoided is transmitted to the terminal device 4 used by the partner user (S43).

そして、接続端末記憶エリア225を参照して、ネットワーク2に接続されている端末が自身のほかに1以上あるか否かが判断される(S44)。ネットワーク2に接続されている端末が、自身の他に0であると判断された場合、会議終了であるとして(S44:YES)、処理は終了する。一方、ネットワーク2に接続されている端末が、自身のほかに1以上ある場合、会議は継続しているとして(S44:NO)、S21に戻り処理が繰り返される。   Then, with reference to the connected terminal storage area 225, it is determined whether there are one or more terminals connected to the network 2 other than itself (S44). If it is determined that the terminal connected to the network 2 is 0 in addition to itself, it is determined that the conference has ended (S44: YES), and the process ends. On the other hand, if there are one or more terminals connected to the network 2, the conference is continued (S44: NO), and the process returns to S21 and is repeated.

以上説明したように、第二実施形態の端末装置130では、ユーザと相手ユーザとの間で、無言状態が第三所定時間T3以上続いた場合、相手ユーザを撮影するビデオカメラ34の位置を変更してから復帰するまでの時間を延長する。そのため、無言状態が長く続いた場合には、視線を外す時間を延長することができる。よって、気まずい雰囲気にあるユーザ間で視線一致状態が不自然にあった場合には、気まずい雰囲気を確実に回避させることができる。   As described above, in the terminal device 130 of the second embodiment, when the silent state continues for the third predetermined time T3 or more between the user and the partner user, the position of the video camera 34 that captures the partner user is changed. Extend the time from return to return. Therefore, when the silent state continues for a long time, the time for removing the line of sight can be extended. Therefore, when the line-of-sight matching state is unnatural between users in an awkward atmosphere, the awkward atmosphere can be surely avoided.

また、第三所定時間T3の間に、ユーザが行った瞬きの回数Yが所定値U以上である場合には、相手ユーザを撮影するビデオカメラ34の位置を変更してから復帰するまでの時間を延長する。そのため、相手ユーザに対して不自然に視線を一致させたユーザが緊張状態にある場合には、視線を外す時間を延長することができる。よって、ユーザの緊張状態をやわらげることができる。   If the number of blinks Y performed by the user during the third predetermined time T3 is equal to or greater than the predetermined value U, the time from the change of the position of the video camera 34 that captures the other user to the return Is extended. For this reason, when the user who unnaturally matches his / her line of sight with the other user is in a tension state, the time for removing the line of sight can be extended. Therefore, a user's tension state can be eased.

なお、以上説明において、図20に示すS101の処理を行うCPU120が本発明の「ユーザ音声検出手段」および「相手ユーザ音声検出手段」に相当する。図19に示すS27、S28の処理を実行するCPU120が本発明の「無言時間計測手段」に相当する。図19に示すS38、S39の処理を実行するCPU120が本発明の「第一の第二所定時間調整手段」に相当する。図19に示すS35の処理を実行するCPU120が本発明の「第三所定時間判断手段」に相当する。図21に示すS132の処理を行うCPU120が本発明の「瞬き検出手段」に相当する。図21に示すS134の処理を行うCPU120が本発明の「瞬きカウント手段」に相当する。図19に示すS30、S41の処理を実行するCPU120が本発明の「第二の第二所定時間調整手段」に相当する。図19に示すS27の処理を実行するCPU120が本発明の「計測手段」に相当する。図19に示すS35の処理を実行するCPU120が本発明の「第四所定時間判断手段」に相当する。図19に示すS37の処理を実行するCPU120が本発明の「瞬き回数判断手段」に相当する。   In the above description, the CPU 120 that performs the process of S101 shown in FIG. 20 corresponds to the “user voice detection means” and the “other user voice detection means” of the present invention. The CPU 120 that executes the processes of S27 and S28 shown in FIG. 19 corresponds to the “silent time measuring means” of the present invention. The CPU 120 that executes the processes of S38 and S39 shown in FIG. 19 corresponds to the “first second predetermined time adjusting means” of the present invention. The CPU 120 that executes the process of S35 shown in FIG. 19 corresponds to the “third predetermined time determination means” of the present invention. The CPU 120 that performs the process of S132 shown in FIG. 21 corresponds to the “blink detector” of the present invention. The CPU 120 that performs the process of S134 shown in FIG. 21 corresponds to the “blink counting means” of the present invention. The CPU 120 that executes the processes of S30 and S41 shown in FIG. 19 corresponds to the “second second predetermined time adjusting means” of the present invention. The CPU 120 that executes the process of S27 shown in FIG. 19 corresponds to the “measurement unit” of the present invention. The CPU 120 that executes the process of S35 shown in FIG. 19 corresponds to the “fourth predetermined time determination means” of the present invention. The CPU 120 that executes the process of S37 shown in FIG. 19 corresponds to the “blink number determination means” of the present invention.

なお、上記実施形態は、発明を逸脱しない範囲で種々の変更が可能であることは、言うまでもない。例えば、実施形態のテレビ会議システムは、2台の端末装置を備えていたが、本発明は3台以上の装置を備えるテレビ会議システムにも適応可能である。画面に表示される複数の相手ユーザのうちのいずれかひとりに対して、ユーザが視線を一致させている時間が長すぎる場合、視線一致の対象となる相手ユーザのビデオカメラ34の撮影位置を変更すればよい。複数の相手ユーザのうちの特定の相手ユーザと気まずい雰囲気になった場合にも、気まずい雰囲気を回避することができ、会議を円滑に進めることできる。   In addition, it cannot be overemphasized that a various change is possible for the said embodiment in the range which does not deviate from invention. For example, although the video conference system of the embodiment includes two terminal devices, the present invention can also be applied to a video conference system including three or more devices. If the time for which the user matches the line of sight with respect to any one of a plurality of other users displayed on the screen is too long, the shooting position of the video camera 34 of the other user who is the target of the line-of-sight match is changed. do it. Even when an awkward atmosphere is created with a specific partner user among a plurality of partner users, the awkward atmosphere can be avoided and the conference can be smoothly advanced.

また、相手ユーザの端末装置4に送信する画像を撮影するビデオカメラ34を利用して、ユーザの視線方向の検出を行うための画像を撮影したが、視線方向検出のためのビデオカメラを別に設けてもよい。   In addition, the video camera 34 that captures an image to be transmitted to the terminal device 4 of the other user is used to capture an image for detecting the user's gaze direction. However, a video camera for detecting the gaze direction is provided separately. May be.

また、赤外線ライト33の設置位置は実施形態に限定されない。この場合、スクリーン32に対する赤外線ライト33の配置位置をHDD31に記憶しておく。スクリーン32の面に対する赤外線ライト33の照射角度をα、上述の方法で検出された眼球72の回転角度をθ、眼球72の中心からスクリーン32に対して直角に交わる交点を中心点O、眼球72の中心と中心点Oとの距離をLとする。使用者の視線方向の先にあるディスプレイ28上の視線位置と中心点Oとの距離Kは、以下の式で示される。
K=L・tan(θ−(90−α))
スクリーン32の裏面のスペースが限られている場合には、赤外線ライト33の設置位置を変更することができる。
Further, the installation position of the infrared light 33 is not limited to the embodiment. In this case, the arrangement position of the infrared light 33 with respect to the screen 32 is stored in the HDD 31. The irradiation angle of the infrared light 33 with respect to the surface of the screen 32 is α, the rotation angle of the eyeball 72 detected by the above method is θ, the intersection point perpendicular to the screen 32 from the center of the eyeball 72 is the center point O, and the eyeball 72 Let L be the distance between the center of and the center point O. A distance K between the line-of-sight position on the display 28 ahead of the user's line-of-sight direction and the center point O is expressed by the following equation.
K = L · tan (θ− (90−α))
When the space on the back surface of the screen 32 is limited, the installation position of the infrared light 33 can be changed.

また、上述の実施形態では、不自然な視線一致状態が検出された場合、スクリーン32に共有資料画面282が存在すれば、スクリーン32に共有資料画面282を拡大させたが、拡大する画面は共有資料画面282に限定されない。スクリーン32に相手ユーザ画面281の他の別画面が表示されているか否かを、表示画面データ記憶エリア312を参照して判断し、別画面が表示されていると判断された場合には、別画像を拡大表示してもよい。また、スクリーン32に共有資料画面282が存在している場合であっても、共有資料画面282を拡大させなくてもよい。   In the above-described embodiment, when an unnatural line-of-sight matching state is detected, if the shared material screen 282 exists on the screen 32, the shared material screen 282 is enlarged on the screen 32, but the screen to be enlarged is shared. It is not limited to the document screen 282. It is determined whether another screen of the partner user screen 281 is displayed on the screen 32 with reference to the display screen data storage area 312, and if it is determined that another screen is displayed, another screen is displayed. The image may be enlarged and displayed. Even if the shared material screen 282 exists on the screen 32, the shared material screen 282 does not have to be enlarged.

また、図19に示す第二実施形態の視線方向検出処理では、音声検出処理を起動させるとともに(S28)、瞬き回数カウント処理を起動させたが(S29)、音声検出処理及び瞬き回数カウント処理のいずれか一方を起動させてもよい。   In the gaze direction detection process of the second embodiment shown in FIG. 19, the voice detection process is started (S28) and the blink count processing is started (S29), but the voice detection process and the blink count process are performed. Either one may be activated.

また、上述の実施形態では、ユーザの眼球72とスクリーン32との距離は、一定であると近似され、所定距離Lとして予め記憶されていたが、これに限定されるものでは無い。たとえば、遠隔会議開始時や視線方向検出時などに、ユーザの眼球72とスクリーン32との距離を算出し、算出された値を前記所定距離Lとして、スクリーン32上のユーザの視線位置Tを特定しても良い。所定距離Lの算出方法としては、周知の方法が適用可能であるが、たとえば、以下の方法が適用可能である。   In the above-described embodiment, the distance between the user's eyeball 72 and the screen 32 is approximated to be constant and is stored in advance as the predetermined distance L, but is not limited thereto. For example, the distance between the user's eyeball 72 and the screen 32 is calculated at the start of a teleconference or when the line-of-sight direction is detected, and the user's line-of-sight position T on the screen 32 is specified with the calculated value as the predetermined distance L. You may do it. As a method for calculating the predetermined distance L, a known method can be applied. For example, the following method can be applied.

この方法では、予めビデオカメラ34とユーザ(ユーザの眼球72)とを所定距離とした状態でユーザを撮影する。撮影されたユーザの画像からユーザの各眼球72について瞳孔75の位置をそれぞれ抽出し、抽出された瞳孔75の間隔を、基準瞳孔間隔として予めHDD31に記憶する。一般に、撮影画像における瞳孔間隔は、瞳孔75とビデオカメラ34との距離に反比例する。よって、ビデオカメラ34により撮影された実際の瞳孔間隔と、予め記憶された基準瞳孔間隔とから、ビデオカメラ34と眼球72との距離を算出できる。ビデオカメラ34とスクリーン32との位置関係を予めHDD31に記憶しておくことにより、スクリーン32と眼球72との距離を算出することができ、算出された値を所定距離Lとして用いることができる。   In this method, the user is photographed in advance in a state where the video camera 34 and the user (the user's eyeball 72) are at a predetermined distance. The position of the pupil 75 is extracted for each eyeball 72 of the user from the photographed user image, and the extracted interval between the pupils 75 is stored in the HDD 31 in advance as a reference pupil interval. In general, the pupil interval in the captured image is inversely proportional to the distance between the pupil 75 and the video camera 34. Therefore, the distance between the video camera 34 and the eyeball 72 can be calculated from the actual pupil interval photographed by the video camera 34 and the reference pupil interval stored in advance. By storing the positional relationship between the video camera 34 and the screen 32 in the HDD 31 in advance, the distance between the screen 32 and the eyeball 72 can be calculated, and the calculated value can be used as the predetermined distance L.

1 テレビ会議システム
2 ネットワーク
3,4 端末装置
32 スクリーン
33 赤外線ライト
34 ビデオカメラ
35 マイク
36 カメラ移動装置
71 プルキニエ像
72 眼球
75 瞳孔
76 瞳孔中心
130 端末装置
131 ハードディスクドライブ
221 視線方向記憶エリア
222 視線位置記憶エリア
281 相手ユーザ画面
282 共有資料画面
310 撮影画像データ記憶エリア
312 表示画面データ記憶エリア
315 位置関係記憶エリア
t1 視線一致時間
T1 第一所定時間
t2 送信後経過時間
T2 第二所定時間
T3 第三所定時間
DESCRIPTION OF SYMBOLS 1 Video conference system 2 Network 3, 4 Terminal device 32 Screen 33 Infrared light 34 Video camera 35 Microphone 36 Camera moving device 71 Purkinje image 72 Eyeball 75 Pupil 76 Pupil center 130 Terminal device 131 Hard disk drive 221 Gaze direction storage area 222 Gaze position memory Area 281 Counterparty user screen 282 Shared material screen 310 Captured image data storage area 312 Display screen data storage area 315 Position relationship storage area t1 Line-of-sight matching time T1 First predetermined time t2 Second transmission time T2 Second predetermined time T3 Third predetermined time

Claims (14)

ネットワークを介して接続された他の端末と、画像及び音声を介した通信を行う通信端末装置であって、
ユーザを撮影するユーザ撮影手段と、
前記ユーザ撮影手段が撮影した前記ユーザの画像を他の端末に送信する画像送信手段と、
他の端末から送信された前記画像を画面に表示する表示手段と、
前記ユーザ撮影手段により撮影された画像から前記ユーザの視線方向を検出する視線方向検出手段と、
前記視線方向検出手段が検出した前記視線方向の先にある前記表示手段が表示した画面上の視線位置を特定する視線位置特定手段と、
前記画面上の前記ユーザの顔を検出する顔検出手段と、
前記視線位置特定手段によって特定された前記視線位置が、前記顔検出手段によって検出された前記ユーザの顔の所定領域内にある状態を視線一致状態として検出する視線一致検出手段と、
前記視線一致検出手段により前記視線一致状態が検出された場合に、前記視線一致状態が継続する時間である視線一致時間を計測する視線一致時間計測手段と、
前記視線一致時間計測手段により計測された前記視線一致時間が第一所定時間以上になったか否かを判断する第一所定時間判断手段と、
前記第一所定時間判断手段によって前記視線一致時間が前記第一所定時間以上になったと判断された場合に、前記視線一致状態の対象である相手ユーザの前記画像データを送信する端末である相手側端末に、前記視線一致時間が前記第一所定時間以上になったことを示す第一信号を送信する第一信号送信手段と、
前記相手側端末から送信された前記第一信号を受信する第一信号受信手段と、
前記第一信号受信手段によって、前記第一信号を受信した場合に、前記ユーザ撮影手段の前記ユーザに対する撮影位置を変更する撮影位置変更手段と
を備えたことを特徴とする通信端末装置。
A communication terminal device that communicates with other terminals connected via a network via images and sounds,
User photographing means for photographing a user;
Image transmitting means for transmitting the user's image captured by the user photographing means to another terminal;
Display means for displaying the image transmitted from another terminal on a screen;
Gaze direction detection means for detecting the gaze direction of the user from an image photographed by the user photographing means;
A line-of-sight position specifying unit for specifying a line-of-sight position on the screen displayed by the display unit located ahead of the line-of-sight direction detected by the line-of-sight direction detection unit;
Face detection means for detecting the user's face on the screen;
A line-of-sight coincidence detecting unit that detects a state where the line-of-sight position identified by the line-of-sight position identifying unit is within a predetermined region of the user's face detected by the face detecting unit;
A line-of-sight matching time measuring unit that measures a line-of-sight matching time, which is a time during which the line-of-sight matching state continues when the line-of-sight matching state is detected by the line-of-sight matching detection unit;
First predetermined time determination means for determining whether or not the line-of-sight coincidence time measured by the line-of-sight coincidence time measurement means is equal to or longer than a first predetermined time;
When the first predetermined time determination means determines that the line-of-sight matching time is equal to or longer than the first predetermined time, the partner side is a terminal that transmits the image data of the partner user who is the target of the line-of-sight matching state First signal transmitting means for transmitting a first signal indicating that the line-of-sight matching time is equal to or longer than the first predetermined time to the terminal;
First signal receiving means for receiving the first signal transmitted from the counterpart terminal;
A communication terminal apparatus comprising: a shooting position changing unit that changes a shooting position of the user shooting unit with respect to the user when the first signal is received by the first signal receiving unit.
前記撮影位置変更手段は、前記撮影手段を前記ユーザの視線方向から退避する位置に移動させることを特徴とする請求項1に記載の通信端末装置。   The communication terminal apparatus according to claim 1, wherein the photographing position changing unit moves the photographing unit to a position where the photographing unit is retracted from the sight line direction of the user. 非可視光を前記ユーザの眼球に照射する照射手段をさらに備え、
前記視線方向検出手段は、
前記ユーザ撮影手段により撮影された前記画像における前記非可視光の前記ユーザの眼球角膜反射面における虚像(プルキニエ像)と、前記ユーザの眼球瞳孔中心との相対位置から、前記視線方向を検出することを特徴とする請求項1又は2に記載の通信端末装置。
Further comprising irradiation means for irradiating the user's eyeball with invisible light,
The line-of-sight direction detecting means includes
Detecting the line-of-sight direction from a relative position between a virtual image (Purkinje image) of the invisible light of the user's eyeball cornea reflection surface in the image photographed by the user photographing means and the eyeball pupil center of the user. The communication terminal device according to claim 1, wherein:
前記ユーザの眼球と前記画面と前記照射手段との位置関係を記憶する位置関係記憶手段をさらに備え、
前記視線位置特定手段は、前記位置関係記憶手段に記憶された前記位置関係と、前記視線方向検出手段によって検出された前記視線方向とから、前記画面上の前記視線位置を特定することを特徴とする請求項3に記載の通信端末装置。
A positional relationship storage unit that stores a positional relationship between the user's eyeball, the screen, and the irradiation unit;
The line-of-sight position specifying unit specifies the line-of-sight position on the screen from the positional relationship stored in the positional relationship storage unit and the line-of-sight direction detected by the line-of-sight direction detecting unit. The communication terminal device according to claim 3.
前記ユーザ撮影手段は、前記ユーザに対して前記画面の後方に配置され、
前記照射手段は、前記ユーザ撮影手段に取り付けられていることを特徴とする請求項3又は4に記載の通信端末装置。
The user photographing means is arranged behind the screen with respect to the user,
The communication terminal apparatus according to claim 3 or 4, wherein the irradiation unit is attached to the user photographing unit.
前記画面に、前記ユーザの画像とは異なる別画像が前記画像と併せて表示されているか否かを判断する別画像表示判断手段と、
前記第一所定時間判断手段によって前記視線一致時間が前記第一所定時間以上になったと判断され、且つ前記別画像判断手段によって前記画面に前記別画像が表示されていると判断された場合に、前記画面において前記別画像を現在の表示サイズと比較して拡大表示するとともに、前記画像に重ねて透過表示する別画像拡大表示手段と
を備えたことを特徴とする請求項1乃至5のいずれかに記載の通信端末装置。
Another image display determination means for determining whether another image different from the image of the user is displayed on the screen together with the image;
When it is determined by the first predetermined time determination means that the line-of-sight coincidence time has reached the first predetermined time or more and the separate image determination means determines that the separate image is displayed on the screen, 6. The image display apparatus according to claim 1, further comprising: another image enlargement display unit configured to enlarge and display the different image on the screen in comparison with a current display size and to display the image in a transparent manner on the image. The communication terminal device according to 1.
前記別画像拡大表示手段は、
前記別画像を前記ユーザの画像の前記所定領域に重ねて表示することを特徴とする請求項6に記載の通信端末装置。
The separate image enlargement display means includes
The communication terminal apparatus according to claim 6, wherein the different image is displayed so as to overlap the predetermined area of the user's image.
前記第一信号送信手段により前記第一信号を送信してからの経過時間である送信後経過時間を計測する送信後経過時間計測手段と、
前記送信後経過時間計測手段により計測された前記送信後経過時間が第二所定時間以上になったか否かを判断する第二所定時間判断手段と、
前記第二所定時間判断手段によって前記送信後経過時間が前記第二所定時間以上になったと判断された場合に、前記相手側端末に、前記送信後経過時間が前記第二所定時間以上になったことを示す第二信号を送信する第二信号送信手段と、
前記第二信号を受信する第二信号受信手段と、
前記第二信号受信手段によって、前記相手側端末から送信された前記第二信号が受信された場合に、前記撮影手段の前記撮影位置をもとの位置に復帰させる撮影位置復帰手段と
をさらに備えたことを特徴とする請求項1乃至7のいずれかに記載の通信端末装置。
A post-transmission elapsed time measuring means for measuring an elapsed time after transmission, which is an elapsed time since the first signal was transmitted by the first signal transmitting means;
Second predetermined time determination means for determining whether or not the post-transmission elapsed time measured by the post-transmission elapsed time measurement means is equal to or longer than a second predetermined time;
When the second predetermined time determining means determines that the post-transmission elapsed time has become the second predetermined time or more, the post-transmission elapsed time has become the second predetermined time or more to the counterpart terminal. Second signal transmission means for transmitting a second signal indicating that;
Second signal receiving means for receiving the second signal;
When the second signal transmitted from the counterpart terminal is received by the second signal receiving means, the photographing position returning means for returning the photographing position of the photographing means to the original position is further provided. The communication terminal device according to claim 1, wherein the communication terminal device is a device.
前記ユーザの音声を検出するユーザ音声検出手段と、
前記相手ユーザの音声を検出する相手ユーザ音声検出手段と、
前記ユーザ音声検出手段及び前記相手ユーザ音声検出手段のいずれも音声を検出しない状態を無言状態として、前記無言状態が継続する時間である無言時間を計測する無言時間計測手段と、
前記無言時間計測手段により計測された前記無言時間に基づいて、前記第二所定時間を調整する第一の第二所定時間調整手段と
を備えたことを特徴とする請求項1乃至8のいずれかに記載の通信端末装置。
User voice detecting means for detecting the voice of the user;
Partner user voice detecting means for detecting the voice of the partner user;
A silent time measuring means for measuring a silent time, which is a time during which the silent state continues, with a state in which neither of the user voice detecting means and the counterpart user voice detecting means detects a voice as a silent state;
The first second predetermined time adjusting means for adjusting the second predetermined time based on the silent time measured by the silent time measuring means. The communication terminal device according to 1.
前記第一の第二所定時間調整手段は、
前記無言時間計測手段により計測された前記無言時間が、第三所定時間以上になったか否かを判断する第三所定時間判断手段を備え、
前記第三所定時間判断手段によって、前記無言時間が前記第三所定時間以上になったと判断された場合に、前記第二所定時間を延長することを特徴とする請求項9に記載の通信端末装置。
The first second predetermined time adjusting means is
A third predetermined time judging means for judging whether or not the silent time measured by the silent time measuring means has become a third predetermined time or more;
10. The communication terminal device according to claim 9, wherein the second predetermined time is extended when the third predetermined time determination unit determines that the silent time has become equal to or longer than the third predetermined time. .
前記ユーザの瞬きを検出する瞬き検出手段と、
前記瞬き検出手段によって検出された前記瞬きの回数をカウントする瞬きカウント手段と、
前記カウント手段によってカウントされた前記回数に基づいて、前記第二所定時間を調整する第二の第二所定時間調整手段と
をさらに備えたことを特徴とする請求項1乃至10のいずれかに記載の通信端末装置。
Blink detection means for detecting the blink of the user;
Blink counting means for counting the number of blinks detected by the blink detection means;
11. The apparatus according to claim 1, further comprising: a second second predetermined time adjusting unit that adjusts the second predetermined time based on the number of times counted by the counting unit. Communication terminal device.
前記第二の第二所定時間調整手段は、
前記視線一致検出手段により前記視線一致状態が検出されてからの経過時間を計測する計測手段と、
前記計測手段により計測された前記経過時間が第四所定時間以上になったか否かを判断する第四所定時間判断手段と、
前記第四所定時間判断手段によって前記経過時間が前記第四所定時間以上になったと判断された場合に、前記瞬きカウント手段によってカウントされた前記回数が所定回数以上であるか否かを判断する瞬き回数判断手段と、
を備え、
前記瞬き回数判断手段により、前記回数が所定回数以上であったと判断された場合に、前記第二所定時間を延長することを特徴とする請求項11に記載の通信端末装置。
The second second predetermined time adjusting means is
Measuring means for measuring an elapsed time after the line-of-sight matching state is detected by the line-of-sight matching detection means;
A fourth predetermined time determining means for determining whether or not the elapsed time measured by the measuring means has become a fourth predetermined time or more;
A blink that determines whether or not the number of times counted by the blink counting means is greater than or equal to a predetermined number of times when the elapsed time is determined to be greater than or equal to the fourth predetermined time by the fourth predetermined time determination means. Means for determining the number of times;
With
The communication terminal apparatus according to claim 11, wherein the second predetermined time is extended when the blink number determination means determines that the number of times is equal to or greater than a predetermined number.
ネットワークを介して接続された他の端末と、画像及び音声を介した通信を行う通信端末装置の通信制御方法であって、
ユーザを撮影するユーザ撮影手段が撮影した前記ユーザの画像を他の端末に送信する画像データ送信ステップと、
他の端末から送信された前記画像を画面に表示する表示ステップと、
前記ユーザの視線方向を検出する視線方向検出ステップと、
前記視線方向検出ステップにおいて検出された前記視線方向の先にある前記表示手段が表示した画面上の視線位置を特定する視線位置特定ステップと、
前記画面上の前記ユーザの顔を検出する顔検出ステップと、前記視線位置特定ステップにおいて特定された前記視線位置が、前記顔検出ステップにおいて検出された前記ユーザの顔の所定領域内にある視線一致状態か否かを判断する視線一致判断ステップと、
前記視線一致判断ステップにおいて前記視線一致状態であると判断された場合に、前記視線一致状態が継続する時間である視線一致時間を計測する視線一致時間計測ステップと、
前記視線一致時間計測ステップにおいて計測された前記視線一致時間が第一所定時間以上になったか否かを判断する第一所定時間判断ステップと、
前記第一所定時間判断ステップにおいて前記視線一致時間が前記第一所定時間以上になったと判断された場合に、前記視線一致状態の対象である相手ユーザの前記画像データを送信する相手側端末に、前記視線一致時間が前記第一所定時間以上になったことを示す第一信号を送信する第一信号送信ステップと、
前記第一信号を受信する第一信号受信ステップと、
前記第一信号受信ステップにおいて、前記相手側端末から送信された前記第一信号を受信した場合に、前記撮影手段の前記ユーザに対する撮影位置を変更する撮影位置変更ステップと
を備えたことを特徴とする通信端末装置の通信制御方法。
A communication terminal device communication control method for communicating with other terminals connected via a network via images and sounds,
An image data transmission step of transmitting the image of the user taken by the user photographing means for photographing the user to another terminal;
A display step of displaying the image transmitted from another terminal on a screen;
A gaze direction detection step of detecting the gaze direction of the user;
A line-of-sight position specifying step for specifying the line-of-sight position on the screen displayed by the display means ahead of the line-of-sight direction detected in the line-of-sight direction detection step;
A face detection step for detecting the user's face on the screen and a line-of-sight match in which the line-of-sight position specified in the line-of-sight position specifying step is within a predetermined region of the user's face detected in the face detection step. A line-of-sight coincidence determining step for determining whether or not a state is present;
A line-of-sight matching time measuring step of measuring a line-of-sight matching time, which is a time during which the line-of-sight matching state continues when it is determined in the line-of-sight matching determination step;
A first predetermined time determination step for determining whether or not the line-of-sight matching time measured in the line-of-sight matching time measurement step is equal to or longer than a first predetermined time;
In the first predetermined time determination step, when it is determined that the line-of-sight matching time is equal to or longer than the first predetermined time, to the partner terminal that transmits the image data of the partner user who is the target of the line-of-sight matching state, A first signal transmission step of transmitting a first signal indicating that the line-of-sight coincidence time is equal to or longer than the first predetermined time;
A first signal receiving step for receiving the first signal;
In the first signal receiving step, when the first signal transmitted from the counterpart terminal is received, a photographing position changing step of changing a photographing position of the photographing unit with respect to the user is provided. Communication control method for a communication terminal device.
請求項1乃至12のいずれかに記載の通信端末装置の各種処理手段としてコンピュータを機能させるための通信制御プログラム。   A communication control program for causing a computer to function as various processing means of the communication terminal device according to claim 1.
JP2009088069A 2009-03-31 2009-03-31 Communication terminal unit, method of controlling communication of communication terminal unit, and communication control program Pending JP2010239583A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009088069A JP2010239583A (en) 2009-03-31 2009-03-31 Communication terminal unit, method of controlling communication of communication terminal unit, and communication control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009088069A JP2010239583A (en) 2009-03-31 2009-03-31 Communication terminal unit, method of controlling communication of communication terminal unit, and communication control program

Publications (1)

Publication Number Publication Date
JP2010239583A true JP2010239583A (en) 2010-10-21

Family

ID=43093493

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009088069A Pending JP2010239583A (en) 2009-03-31 2009-03-31 Communication terminal unit, method of controlling communication of communication terminal unit, and communication control program

Country Status (1)

Country Link
JP (1) JP2010239583A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012187178A (en) * 2011-03-09 2012-10-04 Fujitsu Ltd Visual line detection device and visual line detection method
WO2013129792A1 (en) * 2012-02-29 2013-09-06 Samsung Electronics Co., Ltd. Method and portable terminal for correcting gaze direction of user in image
JP2013258504A (en) * 2012-06-11 2013-12-26 Nippon Telegr & Teleph Corp <Ntt> Video generation system and video generation method
US9131109B2 (en) 2013-03-11 2015-09-08 Ricoh Company, Limited Information processing device, display control system, and computer program product
WO2017199483A1 (en) * 2016-05-18 2017-11-23 ソニー株式会社 Information processing apparatus, information processing method, and program
US10067562B2 (en) 2015-06-26 2018-09-04 Samsung Electronics Co., Ltd. Display apparatus and image correction method thereof
JP2020144901A (en) * 2015-06-30 2020-09-10 ソニー株式会社 Information processing device, information processing method and program
WO2023074626A1 (en) * 2021-10-28 2023-05-04 日東電工株式会社 Optical laminate, infrared information acquisition system, and meeting support system

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012187178A (en) * 2011-03-09 2012-10-04 Fujitsu Ltd Visual line detection device and visual line detection method
WO2013129792A1 (en) * 2012-02-29 2013-09-06 Samsung Electronics Co., Ltd. Method and portable terminal for correcting gaze direction of user in image
US9288388B2 (en) 2012-02-29 2016-03-15 Samsung Electronics Co., Ltd. Method and portable terminal for correcting gaze direction of user in image
JP2013258504A (en) * 2012-06-11 2013-12-26 Nippon Telegr & Teleph Corp <Ntt> Video generation system and video generation method
US9131109B2 (en) 2013-03-11 2015-09-08 Ricoh Company, Limited Information processing device, display control system, and computer program product
US10067562B2 (en) 2015-06-26 2018-09-04 Samsung Electronics Co., Ltd. Display apparatus and image correction method thereof
JP2020144901A (en) * 2015-06-30 2020-09-10 ソニー株式会社 Information processing device, information processing method and program
JP6992839B2 (en) 2015-06-30 2022-01-13 ソニーグループ株式会社 Information processing equipment, information processing methods and programs
WO2017199483A1 (en) * 2016-05-18 2017-11-23 ソニー株式会社 Information processing apparatus, information processing method, and program
JPWO2017199483A1 (en) * 2016-05-18 2019-03-14 ソニー株式会社 Information processing apparatus, information processing method, and program
US10659728B2 (en) 2016-05-18 2020-05-19 Sony Corporation Information processing apparatus and information processing method
WO2023074626A1 (en) * 2021-10-28 2023-05-04 日東電工株式会社 Optical laminate, infrared information acquisition system, and meeting support system

Similar Documents

Publication Publication Date Title
US11323656B2 (en) Eye contact enabling device for video conferencing
JP2010239583A (en) Communication terminal unit, method of controlling communication of communication terminal unit, and communication control program
US8957943B2 (en) Gaze direction adjustment for video calls and meetings
AU2015348151B2 (en) Real-time visual feedback for user positioning with respect to a camera and a display
US8203595B2 (en) Method and apparatus for enabling improved eye contact in video teleconferencing applications
US5438357A (en) Image manipulating teleconferencing system
JP5445420B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP3642336B2 (en) Eye imaging device
JP2005003852A (en) Automatic photographing device
JPH1124603A (en) Information display device and information collecting device
CN105657500B (en) A kind of video playing control method and device
TW201707444A (en) Eye gaze correction (1)
CN112312042A (en) Display control method, display control device, electronic equipment and storage medium
JP2010244322A (en) Communication character device and program therefor
CN111163280A (en) Asymmetric video conference system and method thereof
JP2010237884A (en) Device, method, and program for controlling display
CN110519520A (en) The method and system of self-timer are taken the photograph after a kind of
CN111768785A (en) Control method of smart watch and smart watch
TW201639347A (en) Eye gaze correction
TWI248021B (en) Method and system for correcting out-of-focus eyesight of attendant images in video conferencing
CN108494896B (en) Projection terminal, projection system and projection method
JP2005117106A (en) Mobile telephone with imaging function and control method thereof, and control program
JP4393792B2 (en) Video display device
JP2021179733A (en) Mounting device, processing method, and program
KR20220057438A (en) Tracking method for subject face displayed on display area of smart device