JP2010239327A - Conference device, conference support method, and conference support program - Google Patents

Conference device, conference support method, and conference support program Download PDF

Info

Publication number
JP2010239327A
JP2010239327A JP2009083869A JP2009083869A JP2010239327A JP 2010239327 A JP2010239327 A JP 2010239327A JP 2009083869 A JP2009083869 A JP 2009083869A JP 2009083869 A JP2009083869 A JP 2009083869A JP 2010239327 A JP2010239327 A JP 2010239327A
Authority
JP
Japan
Prior art keywords
information
image
terminal
line
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009083869A
Other languages
Japanese (ja)
Inventor
Makoto Nishida
誠 西田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2009083869A priority Critical patent/JP2010239327A/en
Publication of JP2010239327A publication Critical patent/JP2010239327A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a conference device having a simple structure and capable of performing reliable majority voting without being influenced by opinions in other strongholds, a conference support method, and a conference support program. <P>SOLUTION: In a teleconference system 1, a terminal 3 functioning as a chairman terminal transmits operation information of majority voting to terminals 4-6 when performing majority voting for a certain agendum. In the operation information, types of operations in clarifying intentions with majority voting are predetermined on an opinion basis. The types of the operations to the opinions are varied on a terminal basis. Thereby, even when the appearance of a user in another stronghold is displayed on a display 28, the user acts in a way different from that in user's own stronghold, and thereby does not influence decision in the own stronghold. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像を介して多数決を行うことができる会議装置、会議支援方法、会議支援プログラムに関する。   The present invention relates to a conference apparatus, a conference support method, and a conference support program that can make a majority decision via an image.

従来、複数の端末装置をネットワークを介して接続し、画像と音声を双方向に送受信することで、遠隔の地にある者同士の会議を実現するテレビ会議システムが知られている。テレビ会議では、議長が会議参加者の意見を取り上げ、議題について決議を行うことがある。話し合いがつかない場合、多数決で決議を採ることが多い。ところが、テレビ会議の場合、他拠点の意見が映像又は音声で知ってしまうことがあり、自拠点の判断に影響が出ることがあった。   2. Description of the Related Art Conventionally, there has been known a video conference system in which a plurality of terminal devices are connected via a network and images and sound are bidirectionally transmitted and received to realize a conference between persons in remote locations. In video conferences, the chair may pick up the opinions of the participants and make a resolution on the agenda. When discussions are not possible, decisions are often made by majority vote. However, in the case of a video conference, the opinions of other bases may be known by video or audio, which may affect the judgment of the local base.

そこで、例えば、テレビ会議端末側に肯定または否定を表明する操作ボタン装置を設けるとともに、システム制御側にこの操作ボタン装置の出力から票決画面を構成する画面合成装置を設け、操作ボタン装置の押下により票決画面上に肯定意見、否定意見を色別に表示する多地点間テレビ会議システムが知られている(例えば、特許文献1参照)。   Therefore, for example, an operation button device that asserts affirmation or denial is provided on the video conference terminal side, and a screen composition device that configures a vote screen from the output of this operation button device is provided on the system control side, and by pressing the operation button device A multipoint video conference system that displays positive opinions and negative opinions on a vote screen by color is known (see, for example, Patent Document 1).

特開平5−145915号公報JP-A-5-145915

しかしながら、特許文献1に記載の多地点間テレビ会議システムでは、各拠点において会議参加者が複数人いる場合、会議参加者に対応する数だけ操作ボタンを用意しなければならず、構成が複雑という問題点があった。また、誰がどの意見を持っているかの閲覧、記録をするためには、操作ボタンと使用者との対応付けをしなければならず、使用者が代わる度に更新しなければならなかった。   However, in the multipoint video conference system described in Patent Document 1, when there are a plurality of conference participants at each base, it is necessary to prepare operation buttons corresponding to the number of conference participants, and the configuration is complicated. There was a problem. In addition, in order to view and record who has what opinions, the operation buttons must be associated with the user, and must be updated each time the user changes.

本発明は、上記課題を解決するためになされたものであり、構成が簡単で、他拠点の意見に影響されない信頼性のある多数決を行うことができる会議装置、会議支援方法、会議支援プログラムを提供することを目的とする。   The present invention has been made in order to solve the above-described problem, and provides a conference device, a conference support method, and a conference support program that have a simple configuration and can make a reliable majority decision that is not affected by the opinions of other bases. The purpose is to provide.

上記目的を達成するために、請求項1に係る発明の会議装置は、通信回線を介して複数の端末に接続可能な会議装置であって、前記複数の端末の撮影手段から出力された使用者の撮影画像を合成して、各端末の前記撮影画像を組み合わせたマルチ画像を表示画面に表示する表示手段と、複数の前記端末の使用者間で開催される会議において、前記会議装置が前記会議の議長として機能する場合に、前記端末に多数決を指示する多数決指示手段と、当該多数決指示手段によって前記端末に多数決を指示した場合に、多数決を行う際の使用者の意見の種類毎に意志表示するための動作を各端末毎に割り当てる割り当て手段と、前記端末毎に、前記割り当て手段によって割り当てられた動作で意思表示した使用者の意見の集計結果の情報である結果情報を取得する結果情報取得手段と、当該結果情報取得手段により取得された前記結果情報を記憶する結果情報記憶手段と、当該結果情報記憶手段に記憶された前記結果情報を出力する結果情報出力手段とを備えている。   In order to achieve the above object, the conference device according to the first aspect of the present invention is a conference device that can be connected to a plurality of terminals via a communication line, and is a user output from the photographing means of the plurality of terminals. In a conference held between a display unit that combines the captured images of each terminal and displays a multi-image combining the captured images of each terminal on a display screen, and a plurality of users of the terminals, the conference device includes the conference When a majority vote is instructed to the terminal when the majority vote is instructed to the terminal by the majority vote instruction means, the intention display is made for each type of opinion of the user when making a majority vote. An allocation unit that allocates an operation for performing each operation to each terminal, and a result that is information on a total result of a user's opinion expressed intentionally by the operation allocated by the allocation unit for each terminal Result information acquisition means for acquiring information, result information storage means for storing the result information acquired by the result information acquisition means, and result information output means for outputting the result information stored in the result information storage means And.

また、請求項2に係る発明の会議装置は、請求項1に記載の発明の構成に加え、前記割り当て手段は、前記動作の種類の情報である種類情報を前記端末毎に異ならせた動作情報として記憶する動作情報記憶手段と、当該動作情報記憶手段に記憶された前記動作情報を複数の前記端末にそれぞれ送信する動作情報送信手段とを備えている。   According to a second aspect of the present invention, in the conference apparatus according to the second aspect of the invention, in addition to the configuration of the first aspect of the invention, the allocating unit has the operation information in which the type information that is the type of operation is different for each terminal. Operation information storage means for storing the operation information, and operation information transmission means for transmitting the operation information stored in the operation information storage means to each of the plurality of terminals.

また、請求項3に係る発明の会議装置は、請求項2に記載の発明の構成に加え、前記複数の端末のうち前記議長として機能する端末である議長端末から送信された前記動作情報を受信する動作情報受信手段と、当該動作情報受信手段によって受信された前記動作情報を前記表示画面に表示させる動作表示制御手段とを備えている。   According to a third aspect of the present invention, there is provided a conference device that receives the operation information transmitted from a chairman terminal that is a terminal functioning as the chairman of the plurality of terminals, in addition to the configuration of the second invention. Operation information receiving means, and operation display control means for displaying the operation information received by the operation information receiving means on the display screen.

また、請求項4に係る発明の会議装置は、請求項2又は3に記載の発明の構成に加え、前記撮影手段によって撮影された撮影画像から使用者を認識する使用者認識手段と、当該使用者認識手段によって認識された使用者が、前記表示画面に表示された前記動作情報に従って動作した際の動作画像を記憶する動作画像記憶手段と、当該動作画像記憶手段に記憶された前記動作画像に基づき、前記使用者認識手段によって認識された使用者が前記動作情報に従って行った動作の種類を、使用者毎に特定する動作種類特定手段と、当該動作種類特定手段によって特定された前記動作の種類が示す前記意見の種類を、前記動作情報受信手段によって受信された前記動作情報から特定する意見種類特定手段と、当該意見種類特定手段によって特定された前記意見の種類毎に、使用者の数を集計する意見集計手段と、当該意見集計手段によって集計された結果の情報を、前記結果情報として前記端末に送信する結果情報送信手段とを備えている。   According to a fourth aspect of the present invention, there is provided a conference device according to the second or third aspect of the invention, in addition to the user recognition means for recognizing a user from a photographed image photographed by the photographing means; An action image storage means for storing an action image when the user recognized by the person recognition means operates according to the action information displayed on the display screen; and the action image stored in the action image storage means. Based on the action information specified by the user recognition means, the action type specifying means for specifying the type of action performed by the user according to the action information for each user, and the action type specified by the action type specifying means The opinion type specified by the opinion type specifying means for specifying the type of opinion indicated by the action information received by the action information receiving means, and the opinion type specifying means Opinion totaling means for totaling the number of users for each type of written opinion, and result information transmitting means for transmitting information on the results totaled by the opinion totaling means to the terminal as the result information .

また、請求項5に係る発明の会議装置は、請求項2乃至4の何れかに記載の発明の構成に加え、前記撮影画像から使用者の画像サイズを解析する画像サイズ解析手段と、当該画像サイズ解析手段によって解析された前記画像サイズが第1閾値以上であるか否かを判断する第1画像サイズ判断手段とを備え、前記意志表示するための動作は、使用者の身体動作であるジェスチャーと、使用者に視線を前記表示画面上で予め決められた領域内に向けさせる視線動作とであって、前記動作情報は、使用者の意見の種類毎に、前記ジェスチャーを割り当てると共に、前記ジェスチャーの種類を前記端末毎に異ならせた第1動作情報と、使用者の意見の種類毎に、前記表示画面上で前記視線を向けさせる領域を割り当てると共に、前記領域の位置を前記端末毎に異ならせた第2動作情報とを備え、前記動作種類特定手段は、使用者の前記ジェスチャーを特定するジェスチャー特定手段と、使用者の前記表示画面上の前記視線が向けられた領域を特定する視線領域特定手段とを備え、前記動作表示制御手段は、前記画像サイズが第1閾値未満であると判断された場合は、前記第1動作情報を前記表示画面に表示させ、前記画像サイズが前記第1閾値以上であると判断された場合は、前記第2動作情報を前記表示画面に表示させることを特徴とする。   According to a fifth aspect of the present invention, there is provided a conference apparatus according to any one of the second to fourth aspects, an image size analyzing means for analyzing a user image size from the photographed image, and the image. First image size determining means for determining whether or not the image size analyzed by the size analyzing means is greater than or equal to a first threshold, and the action for displaying the intention is a gesture that is a user's physical action And a line-of-sight motion that directs the user to a predetermined area on the display screen, wherein the motion information assigns the gesture for each type of opinion of the user, and the gesture Assigning a region for directing the line of sight on the display screen for each type of user's opinion and the first operation information with different types for each terminal, and the position of the region Second action information that varies from end to end, and the action type specifying means includes a gesture specifying means for specifying the user's gesture, and an area to which the user's line of sight is directed on the display screen. Eye movement area specifying means for specifying, and when the image display size is determined to be less than a first threshold, the action display control means displays the first action information on the display screen, and Is determined to be greater than or equal to the first threshold, the second operation information is displayed on the display screen.

また、請求項6に係る発明の会議装置は、請求項5に記載の発明の構成に加え、前記撮影画像から使用者の視線方向を検出する視線方向検出手段と、使用者と前記表示画面との位置関係の情報である位置関係情報を記憶する位置関係情報記憶手段と、当該位置関係情報記憶手段に記憶された前記位置関係情報に基づき、前記視線方向検出手段によって検出された視線方向の先にある前記表示画面上における視線位置を特定する視線位置特定手段とを備え、前記視線領域特定手段は、前記視線位置特定手段によって特定される前記視線位置に基づき、前記表示画面に前記意見の種類毎に割り当てられた領域のうち、前記視線が向けられた領域を特定することを特徴とする。   According to a sixth aspect of the present invention, there is provided a conference apparatus according to the fifth aspect of the invention, in addition to the configuration of the fifth aspect of the invention, a gaze direction detecting means for detecting a gaze direction of the user from the captured image, a user, and the display screen. A positional relationship information storage unit that stores positional relationship information that is information on the positional relationship of the image, and a line-of-sight direction detected by the line-of-sight direction detection unit based on the positional relationship information stored in the positional relationship information storage unit A line-of-sight position specifying unit for specifying a line-of-sight position on the display screen, wherein the line-of-sight region specifying unit is configured to display the type of opinion on the display screen based on the line-of-sight position specified by the line-of-sight position specifying unit A region to which the line of sight is directed is specified from among regions assigned for each.

また、請求項7に係る発明の会議装置は、請求項5又は6に記載の発明の構成に加え、前記画像サイズ解析手段によって解析された前記画像サイズが、前記第1閾値よりも小さい第2閾値未満であるか否かを判断する第2画像サイズ判断手段を備え、前記動作表示制御手段は、前記第1画像サイズ判断手段によって、前記画像サイズが前記第1閾値以上と判断された場合は、前記第2動作情報のみを前記表示画面に表示させ、前記第2画像サイズ判断手段によって、前記画像サイズが前記第2閾値未満と判断された場合は、前記第1動作情報のみを前記表示画面に表示させ、前記第1画像サイズ判断手段によって、前記画像サイズが前記第1閾値未満と判断され、かつ前記第2画像サイズ判断手段によって、前記画像サイズが前記第2閾値以上と判断された場合は、前記第1動作情報および前記第2動作情報を前記表示画面に表示させることを特徴とする。   According to a seventh aspect of the present invention, there is provided the conference device according to the fifth aspect, wherein the image size analyzed by the image size analyzing means is smaller than the first threshold value. A second image size determining unit configured to determine whether or not the image size is less than a threshold; and the operation display control unit is configured to determine whether the image size is equal to or larger than the first threshold by the first image size determining unit. Only the second motion information is displayed on the display screen, and when the second image size determination means determines that the image size is less than the second threshold, only the first motion information is displayed on the display screen. And the first image size determination means determines that the image size is less than the first threshold value, and the second image size determination means determines the image size to be less than or equal to the second threshold value. If he is determined that, and wherein the displaying the first operation information and second operation information on the display screen.

また、請求項8に係る発明の会議装置は、請求項1乃至7の何れかに記載の発明の構成に加え、前記結果情報は、前記動作画像を含むことを特徴とする   According to an eighth aspect of the present invention, in addition to the configuration of the first aspect of the present invention, the result information includes the action image.

また、請求項9に係る発明の会議装置は、請求項1乃至8の何れかに記載の発明の構成に加え、前記結果情報記憶手段には、前記議題の情報である議題情報と、当該議題情報に関連する前記結果情報とが対応付けられて記憶されることを特徴とする。   In addition to the configuration of the invention according to any one of claims 1 to 8, the conference information device according to claim 9 includes, in the result information storage means, agenda information as information on the agenda, and the agenda The result information related to information is stored in association with information.

また、請求項10に係る発明の会議支援方法は、通信回線を介して複数の端末に接続可能な会議装置の会議支援方法あって、前記複数の端末の撮影手段から出力された使用者の撮影画像を合成して、各端末の前記撮影画像を組み合わせたマルチ画像を表示画面に表示する表示ステップと、複数の前記端末の使用者間で開催される会議において、前記会議装置が前記会議の議長として機能する場合に、前記端末に多数決を指示する多数決指示ステップと、当該多数決指示ステップにおいて前記端末に多数決を指示した場合に、多数決を行う際の使用者の意見の種類毎に意志表示するための動作を各端末毎に割り当てる動作割り当てステップと、前記端末から前記割り当て手段によって割り当てられた動作で意思表示した使用者の意見の集計結果の情報である結果情報を取得する結果情報取得ステップと、当該結果情報取得ステップにおいて取得された前記結果情報を結果情報記憶手段に記憶させる結果情報記憶ステップと、当該結果情報記憶ステップにおいて前記結果情報記憶手段に記憶された前記結果情報を出力する結果情報出力ステップとを備えている。   According to a tenth aspect of the present invention, there is provided a conference support method for a conference apparatus that can be connected to a plurality of terminals via a communication line, and the user's image output from the imaging means of the plurality of terminals. In a display step of combining images and displaying a multi-image combining the captured images of each terminal on a display screen, and a conference held between users of the plurality of terminals, the conference device is the chairman of the conference In order to display a will for each type of opinion of the user when making a majority decision when a majority decision is instructed to the terminal in the majority instruction step. Assignment step for assigning the operation of each terminal to each terminal, and the result of counting the opinions of the users who indicated their intention by the operation assigned by the assigning means from the terminal A result information acquisition step for acquiring result information as information, a result information storage step for storing the result information acquired in the result information acquisition step in a result information storage means, and the result information storage step in the result information storage step A result information output step for outputting the result information stored in the means.

また、請求項11に係る発明の会議支援プログラムは、請求項1乃至9の何れかに記載の会議装置の各種処理手段として、コンピュータを機能させることを特徴とする。   According to an eleventh aspect of the present invention, a conference support program causes a computer to function as various processing means of the conference apparatus according to any one of the first to ninth aspects.

請求項1に係る発明の会議装置では、表示手段は、複数の端末の撮影手段から出力された使用者の撮影画像を合成して、各端末の撮影画像を組み合わせたマルチ画像が表示画面に表示する。多数決指示手段は、複数の前記端末の使用者間で開催される会議において、前記会議装置が前記会議の議長として機能する場合に端末に多数決を指示する。割り当て手段は、多数決指示手段によって端末に多数決を指示した場合に、多数決を行う際の使用者の意見の種類毎に意志表示するための動作を各端末毎に割り当てる。意思表示のための動作を割り当てることができるので、例えば、端末毎に動作の種類を異ならせることによって、表示画面に表示されたマルチ画面に映る他拠点の使用者は、自拠点と異なる動作で意見を示すので、自拠点の意見が左右されない。結果情報取得手段は、端末から割り当て手段によって割り当てられた動作で意思表示した使用者の意見の集計結果の情報である結果情報を取得する。結果情報記憶手段は、結果情報取得手段により取得された結果情報を記憶する。結果情報出力手段は、結果情報記憶手段に記憶された結果情報を出力する。これにより、各拠点の多数決の集計結果を閲覧することができる。   In the conference device according to the first aspect of the present invention, the display means combines the photographed images of the users output from the photographing means of the plurality of terminals, and displays a multi-image combining the captured images of the terminals on the display screen. To do. The majority instruction means instructs a terminal to vote when the conference device functions as the chairperson of the conference in a conference held between a plurality of users of the terminals. The allocating unit allocates, for each terminal, an operation for displaying a will for each type of opinion of the user when performing the majority voting when the majority voting is instructed by the majority deciding unit. Since the operation for displaying the intention can be assigned, for example, by changing the type of operation for each terminal, users at other sites appearing on the multi-screen displayed on the display screen can operate differently from their own sites. Because it shows an opinion, the opinion of your site is not affected. The result information acquisition means acquires result information which is information on the total result of the opinions of the user who intentionally displayed by the operation assigned by the assignment means from the terminal. The result information storage means stores the result information acquired by the result information acquisition means. The result information output means outputs the result information stored in the result information storage means. Thereby, the totalization result of the majority decision of each base can be browsed.

また、請求項2に係る発明の会議装置では、請求項1に記載の発明の効果に加え、割り当て手段は、動作情報記憶手段と、動作情報送信手段とを備えている。動作情報記憶手段は、動作の種類の情報である種類情報を端末毎に異ならせた動作情報として記憶する。動作情報送信手段は、動作情報記憶手段に記憶された動作情報を複数の端末にそれぞれ送信する。これにより、各端末に送信される動作情報に基づいて各拠点で多数決が行われるので、多数決を行う際の使用者の意見の種類毎に意志表示するための動作を各端末毎に割り当てることができる。   In the conference apparatus according to the second aspect of the present invention, in addition to the effect of the first aspect of the invention, the assigning means includes an operation information storage means and an operation information transmission means. The operation information storage means stores the type information, which is information about the type of operation, as operation information that is different for each terminal. The operation information transmitting unit transmits the operation information stored in the operation information storage unit to each of the plurality of terminals. As a result, a majority decision is made at each site based on the operation information transmitted to each terminal, and therefore an operation for displaying a will for each type of opinion of the user when making a majority decision can be assigned to each terminal. it can.

また、請求項3に係る発明の会議装置では、請求項2に記載の発明の効果に加え、動作情報受信手段は、複数の端末のうち議長として機能する端末である議長端末から送信された動作情報を受信する。動作表示制御手段は、動作情報受信手段によって受信された動作情報を表示画面に表示させる。これにより、各拠点の使用者に、表示画面に表示された動作情報に基づき、自己の意見に対応する動作を行せることができる。   Further, in the conference device according to the third aspect of the present invention, in addition to the effect of the second aspect of the invention, the operation information receiving means is an operation transmitted from a chairman terminal which is a terminal functioning as the chairman among a plurality of terminals. Receive information. The operation display control unit displays the operation information received by the operation information receiving unit on the display screen. Thereby, the user of each base can perform an operation corresponding to his / her opinion based on the operation information displayed on the display screen.

また、請求項4に係る発明の会議装置では、請求項2又は3に記載の発明の効果に加え、使用者認識手段は、撮影手段によって撮影された撮影画像から使用者を認識する。動作画像記憶手段は、使用者認識手段によって認識された使用者が、表示画面に表示された動作情報に従って動作した際の動作画像を記憶する。動作種類特定手段は、動作画像記憶手段に記憶された動作画像に基づき、使用者認識手段によって認識された使用者が動作情報に従って行った動作の種類を使用者毎に特定する。意見種類特定手段は、動作種類特定手段によって特定された動作の種類が示す意見の種類を、動作情報受信手段によって受信された動作情報から特定する。意見集計手段は、意見種類特定手段によって特定された意見の種類毎に使用者の数を集計する。結果情報送信手段は、意見集計手段によって集計された結果の情報を結果情報として端末に送信する。これにより、動作情報を送信した議長端末に対して、その動作情報に基づいた動作で意見を示した結果情報を送信できる。   In the conference apparatus according to the fourth aspect of the invention, in addition to the effect of the invention according to the second or third aspect, the user recognition means recognizes the user from the photographed image photographed by the photographing means. The action image storage means stores an action image when the user recognized by the user recognition means operates according to the action information displayed on the display screen. The action type specifying means specifies, for each user, the kind of action performed by the user recognized by the user recognition means according to the action information, based on the action image stored in the action image storage means. The opinion type specifying means specifies the type of opinion indicated by the type of action specified by the action type specifying means from the action information received by the action information receiving means. The opinion counting means counts the number of users for each type of opinion specified by the opinion type specifying means. The result information transmitting unit transmits the information of the results totaled by the opinion totaling unit to the terminal as result information. As a result, it is possible to transmit the result information indicating the opinion by the operation based on the operation information to the chairman terminal that transmitted the operation information.

また、請求項5に係る発明の会議装置では、請求項2乃至4の何れかに記載の発明の効果に加え、画像サイズ解析手段は、撮影画像から使用者の画像サイズを解析する。第1画像サイズ判断手段は、画像サイズ解析手段によって解析された画像サイズが第1閾値以上であるか否かを判断する。意志表示するための動作は、使用者の身体動作であるジェスチャーと、使用者に視線を前記表示画面上で予め決められた領域内に向けさせる視線動作とである。動作情報は、第1動作情報と、第2動作情報とを備えている。第1動作情報は、使用者の意見の種類毎に、ジェスチャーを割り当てると共に、そのジェスチャーの種類を端末毎に異ならせたものである。第2動作情報は、使用者の意見の種類毎に、表示画面上で視線を向けさせる領域を割り当てると共に、領域の位置を前記端末毎に異ならせたものである。動作種類特定手段は、ジェスチャー特定手段と、視線領域特定手段とを備えている。ジェスチャー特定手段は、使用者のジェスチャーを特定する。視線領域特定手段は、使用者の表示画面上の視線が向けられた領域を特定する。動作表示制御手段は、画像サイズが第1閾値未満であると判断された場合は、表示画面に映し出される使用者の画像サイズが小さいので、使用者の動作を判別し易くするため、ジェスチャーに基づいた第1動作情報を表示画面に表示させる。一方、画像サイズが第1閾値以上であると判断された場合は、表示画面に映し出される使用者のサイズは大きいので、視線に基づいた第2動作情報を表示画面に表示させる。このように、表示画面に映し出される使用者の画像サイズに基づき、第1動作情報又は第2動作情報を使い分けることができるので、使用者の動作を撮影画像から正確かつ容易に検出できる。   In the conference apparatus according to the fifth aspect of the invention, in addition to the effect of the invention according to any one of the second to fourth aspects, the image size analyzing means analyzes the image size of the user from the photographed image. The first image size determining means determines whether or not the image size analyzed by the image size analyzing means is greater than or equal to a first threshold value. The action for intention display is a gesture that is a user's body action and a line-of-sight action that causes the user to turn the line of sight into a predetermined area on the display screen. The motion information includes first motion information and second motion information. The first operation information is obtained by assigning a gesture for each type of opinion of the user and making the type of gesture different for each terminal. The second operation information is obtained by assigning an area in which a line of sight is directed on the display screen for each type of opinion of the user, and changing the position of the area for each terminal. The action type specifying unit includes a gesture specifying unit and a line-of-sight area specifying unit. The gesture specifying means specifies a user's gesture. The line-of-sight area specifying means specifies an area where the line of sight on the display screen of the user is directed. When it is determined that the image size is less than the first threshold, the motion display control means is based on a gesture to facilitate the determination of the user's motion because the user's image size displayed on the display screen is small. The first operation information is displayed on the display screen. On the other hand, when it is determined that the image size is equal to or larger than the first threshold, the size of the user displayed on the display screen is large, and therefore the second motion information based on the line of sight is displayed on the display screen. As described above, since the first motion information or the second motion information can be properly used based on the image size of the user displayed on the display screen, the user's motion can be accurately and easily detected from the captured image.

また、請求項6に係る発明の会議装置では、請求項5に記載の発明の効果に加え、視線方向検出手段は、撮影画像から使用者の視線方向を検出する。位置関係情報記憶手段は、使用者と表示画面との位置関係の情報である位置関係情報を記憶する。視線位置特定手段は、位置関係情報記憶手段に記憶された位置関係情報に基づき、視線方向検出手段によって検出された視線方向の先にある表示画面上における視線位置を特定する。視線領域特定手段は、視線位置特定手段によって特定される視線位置に基づき、表示画面に意見の種類毎に割り当てられた領域のうち視線が向けられた領域を特定する。これにより、使用者は視線位置で自己の意見を示すことができる。   In the conference apparatus according to the sixth aspect of the invention, in addition to the effect of the fifth aspect of the invention, the gaze direction detecting means detects the gaze direction of the user from the photographed image. The positional relationship information storage means stores positional relationship information that is information on the positional relationship between the user and the display screen. The line-of-sight position specifying unit specifies the line-of-sight position on the display screen ahead of the line-of-sight direction detected by the line-of-sight direction detection unit based on the positional relationship information stored in the positional relationship information storage unit. The line-of-sight area specifying means specifies an area to which the line of sight is directed among the areas allocated for each opinion type on the display screen based on the line-of-sight position specified by the line-of-sight position specifying means. Thereby, the user can show his / her opinion at the line-of-sight position.

また、請求項7に係る発明の会議装置では、請求項5又は6に記載の発明の効果に加え、第2画像サイズ判断手段は、画像サイズ解析手段によって解析された画像サイズが、第1閾値よりも小さい第2閾値未満であるか否かを判断する。動作表示制御手段は、第1画像サイズ判断手段によって、画像サイズが第1閾値以上と判断された場合は、第2動作情報のみを表示画面に表示させる。第2画像サイズ判断手段によって、画像サイズが第2閾値未満と判断された場合は、第1動作情報のみを表示画面に表示させる。第1画像サイズ判断手段によって、画像サイズが第1閾値未満と判断され、かつ第2画像サイズ判断手段によって、画像サイズが前記第2閾値以上と判断された場合は、第1動作情報および第2動作情報の両方を表示画面に表示させる。つまり、表示画面に映し出される使用者の画像サイズが、第2閾値以上、第1閾値未満の場合に、第1動作情報および第2動作情報の両方を表示画面に表示させるので、他拠点の使用者の動作から意見を推測することがさらに困難になる。これにより、他拠点の意見に影響されない信頼性のある多数決を行うことができる。   In the conference device according to the seventh aspect of the invention, in addition to the effect of the invention according to the fifth or sixth aspect, the second image size determining means is configured such that the image size analyzed by the image size analyzing means is the first threshold value. It is determined whether it is less than a second threshold value smaller than the second threshold value. The action display control means displays only the second action information on the display screen when the first image size determining means determines that the image size is equal to or larger than the first threshold value. When the second image size determining means determines that the image size is less than the second threshold, only the first operation information is displayed on the display screen. When the first image size determining means determines that the image size is less than the first threshold and the second image size determining means determines that the image size is equal to or greater than the second threshold, the first action information and the second Display both operation information on the display screen. That is, when the image size of the user displayed on the display screen is equal to or larger than the second threshold value and smaller than the first threshold value, both the first motion information and the second motion information are displayed on the display screen. It becomes more difficult to guess the opinion from the person's actions. This makes it possible to make a reliable majority vote that is not affected by the opinions of other bases.

また、請求項8に係る発明の会議装置では、請求項1乃至7の何れかに記載の発明の効果に加え、結果情報に含まれた動作画像から、使用者毎の意見を把握できる。   Further, in the conference device according to the eighth aspect of the invention, in addition to the effect of the invention according to any one of the first to seventh aspects, the opinion for each user can be grasped from the operation image included in the result information.

また、請求項9に係る発明の会議装置では、請求項1乃至8の何れかに記載の発明の効果に加え、結果情報記憶手段は、議題の情報である議題情報と、当該議題情報に関連する結果情報とを対応付けて記憶する。これにより、議題とその結果を有する議事録として記憶できる。   In the conference device of the invention according to claim 9, in addition to the effects of the invention according to any one of claims 1 to 8, the result information storage means is associated with the agenda information which is agenda information and the agenda information. And associated result information. Thereby, it can memorize | store as a minutes which has an agenda and its result.

また、請求項10に係る発明の会議支援方法では、表示ステップにおいて、複数の端末の撮影手段から出力された使用者の撮影画像を合成し、各端末の撮影画像を組み合わせたマルチ画像を表示画面に表示する。多数決指示ステップにおいて、複数の端末の使用者間で開催される会議において、会議装置が会議の議長として機能する場合に、端末に多数決を指示する。動作割り当てステップにおいて、多数決指示ステップにて端末に多数決を指示した場合に、多数決を行う際の使用者の意見の種類毎に意志表示するための動作を各端末毎に割り当てる。意思表示のための動作を割り当てることができるので、例えば、端末毎に動作の種類を異ならせることによって、表示画面に表示されたマルチ画面に映る他拠点の使用者は、自拠点と異なる動作で意見を示すので、自拠点の意見が左右されない。結果情報取得ステップにおいて、端末から動作割り当てステップにて割り当てられた動作で意思表示した使用者の意見の集計結果の情報である結果情報を取得する。結果情報記憶ステップにおいて、結果情報取得ステップにおいて取得された結果情報を結果情報記憶手段に記憶させる。結果情報出力ステップにおいて、結果情報記憶ステップにて結果情報記憶手段に記憶された結果情報を出力する。これにより、各拠点の多数決の集計結果を閲覧することができる。   In the conference support method of the invention according to claim 10, in the display step, the user's captured images output from the imaging means of the plurality of terminals are combined and a multi-image combining the captured images of each terminal is displayed on the display screen. To display. In the majority decision instruction step, when a conference device functions as the chairperson of a conference in a conference held between users of a plurality of terminals, the majority command is instructed to the terminal. In the operation assigning step, when a majority vote is instructed to the terminal in the majority vote instructing step, an action for displaying a will for each type of opinion of the user when making the majority vote is assigned to each terminal. Since the operation for displaying the intention can be assigned, for example, by changing the type of operation for each terminal, users at other sites appearing on the multi-screen displayed on the display screen can operate differently from their own sites. Because it shows an opinion, the opinion of your site is not affected. In the result information acquisition step, the result information, which is information on the total result of the opinions of the user who intentionally displayed the operation assigned in the operation assignment step, is acquired from the terminal. In the result information storage step, the result information acquired in the result information acquisition step is stored in the result information storage means. In the result information output step, the result information stored in the result information storage means in the result information storage step is output. Thereby, the totalization result of the majority decision of each base can be browsed.

また、請求項11に係る発明の会議支援プログラムでは、請求項1乃至9の何れかに記載の会議装置の各種処理手段として、コンピュータを機能させるので、請求項1乃至9の何れかに記載に効果を得ることができる。   Further, in the conference support program of the invention according to claim 11, since the computer functions as various processing means of the conference apparatus according to claim 1, the program according to claim 1. An effect can be obtained.

テレビ会議システム1の構成を示すブロック図(ジェスチャー情報、視線領域情報送信)である。1 is a block diagram (transmission of gesture information and line-of-sight area information) showing a configuration of a video conference system 1. FIG. テレビ会議システム1の構成を示すブロック図(意見数データ、結果画像データ受信)である。It is a block diagram (reception number data, result image data reception) which shows the structure of the video conference system. 端末装置4のディスプレイ28に表示されたマルチ画面を示す図である。It is a figure which shows the multi screen displayed on the display 28 of the terminal device 4. FIG. 端末装置3の電気的構成を示すブロック図である。3 is a block diagram showing an electrical configuration of a terminal device 3. FIG. HDD31の各種記憶エリアを示す概念図である。3 is a conceptual diagram showing various storage areas of an HDD 31. FIG. ジェスチャーテーブル3121の概念図である。It is a conceptual diagram of the gesture table 3121. 視線領域テーブル3131の概念図である。3 is a conceptual diagram of a line-of-sight area table 3131. FIG. 視線領域95,96の配置を示した図(端末装置4)である。It is the figure (terminal device 4) which showed arrangement of line-of-sight fields 95 and 96. 視線領域95,96の配置を示した図(端末装置5)である。It is the figure (terminal device 5) which showed arrangement of line-of-sight fields 95 and 96. 視線領域95,96の配置を示した図(端末装置6)である。It is the figure (terminal device 6) which showed arrangement of line-of-sight fields 95 and 96. 集計テーブル3151の概念図である。It is a conceptual diagram of the total table 3151. RAM22の各種記憶エリアを示す概念図である。3 is a conceptual diagram showing various storage areas of a RAM 22. FIG. ジェスチャー情報2231の概念図である。It is a conceptual diagram of gesture information 2231. 視線領域情報2241の概念図である。It is a conceptual diagram of the line-of-sight area information 2241. 眼球72とディスプレイ28との相互の位置関係を示した図である。It is the figure which showed the mutual positional relationship of the eyeball 72 and the display 28. FIG. 議長端末処理のフローチャートである。It is a flowchart of chairperson terminal processing. 拠点端末処理のフローチャートである。It is a flowchart of a base terminal process. 人物画像領域Fの解析方法の説明図である。5 is an explanatory diagram of a method for analyzing a person image region F. FIG. 使用者が、ディスプレイ28に表示されたジェスチャー指示画像に従ってジェスチャーをしている図である。It is a figure in which the user is gesturing according to the gesture instruction image displayed on the display. 使用者が、ディスプレイ28に表示された視線領域95,96に視線を向けている図である。FIG. 3 is a diagram in which a user directs his / her line of sight to the line-of-sight areas 95 and 96 displayed on the display 28. 使用者が、ディスプレイ28に表示されたジェスチャー指示画像に従ってジェスチャーしつつ、視線領域95,96に視線を向けている図である。FIG. 3 is a diagram in which a user directs his / her line of sight to the line-of-sight areas 95 and 96 while gesturing according to a gesture instruction image displayed on the display 28. 結果画像120を示す図である。It is a figure which shows the result image. 結果画像121を示す図である。It is a figure which shows the result image 121. FIG. 全端末集計画像130を示す図である。It is a figure which shows all the terminal total images 130. FIG. 全端末結果画像131を示す図である。It is a figure which shows the all terminal result image 131. FIG. 全端末結果画像132を示す図である。It is a figure which shows the all terminal result image 132. FIG.

以下、本発明の一実施形態である端末装置3について、図面を参照して説明する。はじめに、端末装置3を構成とするテレビ会議システム1の構成について、図1,図2を参照して説明する。テレビ会議システム1は、ネットワーク2を介して相互に接続され、かつ各拠点毎に設けられた複数の端末装置3〜6を備えている。テレビ会議システム1では、端末装置3〜6間において、ネットワーク2を介して、画像、音声が互いに送受信されることで遠隔会議が実施される。   Hereinafter, a terminal device 3 according to an embodiment of the present invention will be described with reference to the drawings. First, the configuration of the video conference system 1 including the terminal device 3 will be described with reference to FIGS. The video conference system 1 includes a plurality of terminal devices 3 to 6 that are connected to each other via a network 2 and provided at each site. In the video conference system 1, a remote conference is performed by transmitting and receiving images and sounds between the terminal devices 3 to 6 via the network 2.

各端末装置3〜6のディスプレイ28には、各拠点の撮像画像を映し出すマルチ画面が表示される。例えば、図3に示す端末装置4のディスプレイ28には、端末装置3の撮像画像が表示される分割画面281と、端末装置4の撮像画像が表示される分割画面282と、端末装置5の撮像画像が表示される分割画面283とが各々表示される。使用者は、このようなマルチ画面に映し出された他拠点の使用者の顔を見ながら会話ができる。分割画面の数は、会議に参加している端末装置の数に応じて設定される。なお、図3に示すディスプレイ28が本発明の「表示手段」に相当する。   On the displays 28 of the terminal devices 3 to 6, a multi-screen that displays the captured images of the respective bases is displayed. For example, on the display 28 of the terminal device 4 illustrated in FIG. 3, the divided screen 281 on which the captured image of the terminal device 3 is displayed, the divided screen 282 on which the captured image of the terminal device 4 is displayed, and the imaging of the terminal device 5. A split screen 283 on which an image is displayed is displayed. The user can have a conversation while looking at the face of the user at the other base displayed on the multi-screen. The number of divided screens is set according to the number of terminal devices participating in the conference. The display 28 shown in FIG. 3 corresponds to the “display unit” of the present invention.

本実施形態では、このようなテレビ会議システム1において、議長端末として機能する端末装置3が、ある議題について多数決で決議を採る際に、端末装置4,5,6の各拠点に多数決の動作情報(ジェスチャー情報、視線領域情報)を送信する(図1参照)。その動作情報に従ってなされた多数決の集計情報(意見数データ、結果画像データ等)を各拠点から収集して記録できる(図2参照)。記録した結果は必要に応じてディスプレイ28に表示させることができる。なお、図1に示す端末装置3〜6が本発明の「会議装置」に相当する。   In the present embodiment, in such a video conference system 1, when the terminal device 3 functioning as the chairperson terminal makes a resolution by majority vote for a certain agenda item, the operation information of the majority vote at each base of the terminal devices 4, 5, 6 (Gesture information, line-of-sight area information) is transmitted (see FIG. 1). Aggregated information (majority data, result image data, etc.) of majority decisions made according to the operation information can be collected from each base and recorded (see FIG. 2). The recorded result can be displayed on the display 28 as required. The terminal devices 3 to 6 shown in FIG. 1 correspond to the “conference device” of the present invention.

次に、端末装置3の電気的構成について、図4を参照して説明する。端末装置3〜6は全て同じ構成であるので、端末装置3の構成についてのみ説明し、端末装置4〜6については説明を省略する。   Next, the electrical configuration of the terminal device 3 will be described with reference to FIG. Since the terminal devices 3 to 6 all have the same configuration, only the configuration of the terminal device 3 will be described, and the description of the terminal devices 4 to 6 will be omitted.

端末装置3には、端末装置3の制御を司るコントローラとしてのCPU20が設けられている。CPU20には、BIOS等を記憶したROM21と、各種データを一時的に記憶するRAM22と、データの受け渡しの仲介を行うI/Oインタフェイス30とが接続されている。I/Oインタフェイス30には、各種記憶エリアを有するハードディスクドライブ31(以下、HDD31)が接続されている。   The terminal device 3 is provided with a CPU 20 as a controller that controls the terminal device 3. Connected to the CPU 20 are a ROM 21 that stores BIOS, a RAM 22 that temporarily stores various data, and an I / O interface 30 that mediates data transfer. The I / O interface 30 is connected to a hard disk drive 31 (hereinafter referred to as HDD 31) having various storage areas.

I/Oインタフェイス30には、ネットワーク2と通信するための通信装置25と、マウス27と、ビデオコントローラ23と、キーコントローラ24と、使用者を撮影するためのカメラ34と、使用者の音声を取り込むためのマイク35と、使用者の眼球に赤外線を照射する赤外線ライト37と、使用者の眼を撮像するCCDカメラ38と、CD−ROMドライブ26とが各々接続されている。ビデオコントローラ23には、ディスプレイ28が接続されている。キーコントローラ24には、キーボード29が接続されている。赤外線ライト37は、CCDカメラ38と同一位置に設けられている。CCDカメラ38はディスプレイ28の上端部に固定されている。CCDカメラ38及び赤外線ライト37は、各拠点の使用者の人数に応じて用意される。   The I / O interface 30 includes a communication device 25 for communicating with the network 2, a mouse 27, a video controller 23, a key controller 24, a camera 34 for photographing a user, and a user's voice. Are connected to each other, a microphone 35 for capturing infrared rays, an infrared light 37 for irradiating the user's eyeball with infrared rays, a CCD camera 38 for imaging the user's eyes, and a CD-ROM drive 26. A display 28 is connected to the video controller 23. A keyboard 29 is connected to the key controller 24. The infrared light 37 is provided at the same position as the CCD camera 38. The CCD camera 38 is fixed to the upper end portion of the display 28. The CCD camera 38 and the infrared light 37 are prepared according to the number of users at each base.

なお、CD−ROMドライブ26に挿入されるCD−ROM114には、端末装置3のメインプログラムや、本発明の会議支援プログラム等が記憶されている。CD−ROM114の導入時には、これら各種プログラムが、CD−ROM114からHDD31にセットアップされて、後述するプログラム記憶エリア319(図5参照)に記憶される。   The CD-ROM 114 inserted into the CD-ROM drive 26 stores the main program of the terminal device 3 and the conference support program of the present invention. When the CD-ROM 114 is introduced, these various programs are set up from the CD-ROM 114 to the HDD 31 and stored in a program storage area 319 (see FIG. 5) described later.

次に、HDD31の各種記憶エリアについて、図5を参照して説明する。HDD31には、参加端末記憶エリア311と、ジェスチャーテーブル記憶エリア312と、視線領域テーブル記憶エリア313と、集計テーブル記憶エリア314と、全端末結果画像記憶エリア315と、全端末集計画像記憶エリア316と、ジェスチャー指示画像記憶エリア317と、人物画像動作パターン記憶エリア318と、プログラム記憶エリア319と、その他の情報記憶エリア320と、等が少なくとも設けられている。   Next, various storage areas of the HDD 31 will be described with reference to FIG. The HDD 31 includes a participating terminal storage area 311, a gesture table storage area 312, a line-of-sight area table storage area 313, a total table storage area 314, an all terminal result image storage area 315, and an all terminal total image storage area 316. A gesture instruction image storage area 317, a person image operation pattern storage area 318, a program storage area 319, another information storage area 320, and the like are provided.

参加端末記憶エリア311には、会議に現在参加している端末装置の識別IDが記憶される。端末装置3で会議に参加する場合、参加を通知するログイン信号が他の各端末装置に各々送信される。ログイン信号を受信した端末装置3では、HDD31の参加端末記憶エリア311に、ログイン信号を送信した端末装置の識別IDが記憶される。これにより現在会議に参加している端末装置を管理できる。識別IDとして、例えばマックアドレス等が利用可能である。また、マックアドレスに対応する識別IDを予め記憶しておいてもよい。   The participation terminal storage area 311 stores an identification ID of a terminal device currently participating in the conference. When the terminal device 3 participates in the conference, a login signal for notifying participation is transmitted to each of the other terminal devices. In the terminal device 3 that has received the login signal, the identification ID of the terminal device that has transmitted the login signal is stored in the participating terminal storage area 311 of the HDD 31. As a result, the terminal devices currently participating in the conference can be managed. For example, a Mac address or the like can be used as the identification ID. Also, an identification ID corresponding to the Mac address may be stored in advance.

ジェスチャーテーブル記憶エリア312には、ジェスチャーテーブル3121(図6参照)が記憶されている。視線領域テーブル記憶エリア313には、視線領域テーブル3131(図7参照)が記憶されている。集計テーブル記憶エリア314には、集計テーブル3151(図11参照)が記憶されている。全端末結果画像記憶エリア315には、各拠点の結果画像に議題を合成した全端末結果画像131(図25参照)が記憶される。全端末集計画像記憶エリア316には、集計テーブル3151に登録された各拠点の集計数をまとめた表に議題を付けた全端末集計画像130(図24参照)が記憶される。ジェスチャー指示画像記憶エリア317には、議長端末から送信されたジェスチャー情報に基づき、ディスプレイ28に表示させるジェスチャー指示画像(図示外)が記憶されている。   The gesture table storage area 312 stores a gesture table 3121 (see FIG. 6). The line-of-sight area table storage area 313 stores a line-of-sight area table 3131 (see FIG. 7). In the total table storage area 314, a total table 3151 (see FIG. 11) is stored. All terminal result image storage area 315 stores all terminal result image 131 (see FIG. 25) obtained by combining the agenda with the result image of each base. In the total terminal total image storage area 316, a total terminal total image 130 (see FIG. 24) in which the agenda is added to a table summarizing the total number of each base registered in the total table 3151 is stored. The gesture instruction image storage area 317 stores a gesture instruction image (not shown) to be displayed on the display 28 based on the gesture information transmitted from the chairperson terminal.

人物画像動作パターン記憶エリア318には、カメラ34のカメラ画像によって撮像される画像において、ジェスチャーを行ったときの人物画像の領域F(図18参照)がジェスチャーのパターン毎に記憶されている。例えば、右手を挙げたときの人物画像領域F、左手を挙げたときの人物画像領域F、座ったときの人物画像領域F、立ったときの人物画像領域F等が予め記憶されている。各ジェスチャーパターン毎の人物画像領域Fは、人物画像解析において取得された人物画像領域Fとの比較による形状のパターンマッチングを行う。これにより、その人物がどのようなジェスチャーを行ったかを判別できる。なお、人物動作の動作を検出する方法は、この方法に限定することなく、種々の方法が可能である。   In the person image operation pattern storage area 318, an area F (see FIG. 18) of a person image when a gesture is performed in an image captured by the camera image of the camera 34 is stored for each gesture pattern. For example, a person image area F when the right hand is raised, a person image area F when the left hand is raised, a person image area F when sitting, a person image area F when standing, and the like are stored in advance. The person image area F for each gesture pattern performs pattern matching of the shape by comparison with the person image area F acquired in the person image analysis. Thereby, it is possible to determine what kind of gesture the person has performed. In addition, the method of detecting the motion of the human motion is not limited to this method, and various methods are possible.

プログラム記憶エリア319には、端末装置3のメインプログラムや、他の端末装置4〜6との間で遠隔会議を実行するための通信制御プログラム、多数決を行う際に実行される本発明の会議支援プログラム等が記憶されている。その他の情報記憶エリア320には、端末装置3で使用されるその他の情報が記憶されている。なお、端末装置3がHDD31を備えていない専用機の場合は、ROM21に各種プログラムが記憶される。   In the program storage area 319, the main program of the terminal device 3, the communication control program for executing a remote conference with the other terminal devices 4 to 6, and the conference support of the present invention executed when making a majority decision Programs and so on are stored. In the other information storage area 320, other information used in the terminal device 3 is stored. When the terminal device 3 is a dedicated machine that does not include the HDD 31, various programs are stored in the ROM 21.

次に、ジェスチャーテーブル3121について、図6を参照して説明する。ジェスチャーテーブル3121は、多数決を行う際に使用者に意志表示させるためのジェスチャーを示すジェスチャー情報を各拠点毎に記憶する。ジェスチャーテーブル3121には、端末ID欄61と、ジェスチャー欄62とが互いに対応づけられて設けられている。端末ID欄61には、自拠点以外の端末装置4〜6の端末IDが各々記憶されている。ジェスチャー欄62は、YES欄63と、NO欄64とに分けられている。   Next, the gesture table 3121 will be described with reference to FIG. The gesture table 3121 stores, for each base, gesture information indicating a gesture for displaying a will for a user when making a majority decision. In the gesture table 3121, a terminal ID column 61 and a gesture column 62 are provided in association with each other. In the terminal ID column 61, terminal IDs of the terminal devices 4 to 6 other than the own base are stored. The gesture column 62 is divided into a YES column 63 and a NO column 64.

YES欄63には、使用者が「YES」の意志表示をする際のジェスチャーの種類が記憶されている。NO欄64には、使用者が「NO」の意志表示をする際のジェスチャーの種類が記憶されている。ジェスチャーの種類は、各端末装置毎に異ならせて記憶されている。   The YES column 63 stores the type of gesture when the user makes a will display of “YES”. The NO column 64 stores the type of gesture when the user makes a will display of “NO”. The types of gestures are stored differently for each terminal device.

例えば、1行目の端末装置4(識別ID=002)では、「YES」に対応するジェスチャーは「右手挙手」、「NO」に対応するジェスチャーは「左手挙手」である。一方、2行目の端末装置5(識別ID=003)では、「YES」に対応するジェスチャーは「左手挙手」、「NO」に対応するジェスチャーは「右手挙手」である。さらに、3行目の端末装置4(識別ID=004)では、「YES」に対応するジェスチャーは「起立」、「NO」に対応するジェスチャーは「両手挙手」である。   For example, in the terminal device 4 (identification ID = 002) in the first row, the gesture corresponding to “YES” is “right hand raised” and the gesture corresponding to “NO” is “left hand raised”. On the other hand, in the terminal device 5 (identification ID = 003) in the second row, the gesture corresponding to “YES” is “left hand raised” and the gesture corresponding to “NO” is “right hand raised”. Further, in the terminal device 4 (identification ID = 004) in the third row, the gesture corresponding to “YES” is “standing” and the gesture corresponding to “NO” is “both hands raised”.

次に、視線領域テーブル3131について、図7を参照して説明する。視線領域テーブル3131は、多数決を行う際に使用者の視線位置を、ディスプレイ28の特定の領域に向けさせる視線領域の座標範囲のデータを各拠点毎に記憶する。視線領域テーブル3131には、端末ID欄71と、視線領域範囲欄73とが互いに対応づけられて設けられている。端末ID欄71には、自拠点以外の端末装置4〜6の端末IDが各々記憶されている。視線領域範囲欄73は、YES欄77と、NO欄78とに分けられている。   Next, the line-of-sight area table 3131 will be described with reference to FIG. The line-of-sight area table 3131 stores data of the coordinate range of the line-of-sight area for directing the user's line-of-sight position to a specific area of the display 28 when making a majority decision. In the line-of-sight area table 3131, a terminal ID column 71 and a line-of-sight area range column 73 are provided in association with each other. In the terminal ID column 71, terminal IDs of the terminal devices 4 to 6 other than the own base are stored. The line-of-sight area range column 73 is divided into a YES column 77 and a NO column 78.

YES欄77には、使用者が「YES」の意志表示をする際に視線を向けさせる視線領域範囲が記憶されている。NO欄78には、使用者が「NO」の意志表示をする際に視線を向けさせる視線領域範囲が記憶されている。視線領域範囲は、各端末装置毎に異ならせて記憶されている。   The YES column 77 stores a line-of-sight area range in which a line of sight is directed when the user makes a “YES” intention display. The NO column 78 stores a line-of-sight area range in which a line of sight is directed when the user makes a “NO” intention display. The line-of-sight area range is stored differently for each terminal device.

例えば、1行目の端末装置4(識別ID=002)では、「YES」に対応する視線領域範囲は(0,0)〜(30,30)であり、「NO」に対応する視線領域範囲は(60,30)〜(80,60)である。一方、2行目の端末装置5(識別ID=003)では、「YES」に対応する視線領域範囲は(30,0)〜(80,30)であり、「NO」に対応する視線領域範囲は(0,30)〜(25,60)である。さらに、3行目の端末装置6(識別ID=003)では、「YES」に対応する視線領域範囲は(0,0)〜(30,60)であり、「NO」に対応する視線領域範囲は(50,0)〜(80,60)である。   For example, in the terminal device 4 (identification ID = 002) in the first row, the line-of-sight area range corresponding to “YES” is (0, 0) to (30, 30), and the line-of-sight area range corresponding to “NO” Are (60, 30) to (80, 60). On the other hand, in the terminal device 5 (identification ID = 003) in the second row, the line-of-sight area range corresponding to “YES” is (30, 0) to (80, 30), and the line-of-sight area range corresponding to “NO”. Are (0, 30) to (25, 60). Further, in the terminal device 6 (identification ID = 003) in the third row, the line-of-sight area range corresponding to “YES” is (0, 0) to (30, 60), and the line-of-sight area range corresponding to “NO”. Are (50, 0) to (80, 60).

ここで、視線領域テーブル3131に記憶された各端末の「YES」「NO」の視線領域は、ディスプレイ28上では以下の位置となる。端末装置4に指定された視線領域は、図8に示すように、左上に「YES」の視線領域95、右下に「NO」の視線領域96が対角上に各々配置される。端末装置5に指定された視線領域は、図9に示すように、右上に「YES」の視線領域95、左下に「NO」の視線領域96が対角上に各々配置される。端末装置6に指定された視線領域は、図10に示すように、左側に「YES」の視線領域95、右側に「NO」の視線領域96が対向して各々配置される。このように、「YES」「NO」の視線領域は、端末装置毎に異なっている。   Here, the “YES” and “NO” line-of-sight areas of the respective terminals stored in the line-of-sight area table 3131 are on the following positions on the display 28. As shown in FIG. 8, the line-of-sight area designated by the terminal device 4 includes a line-of-sight area 95 of “YES” at the upper left and a line-of-sight area 96 of “NO” at the lower right. As shown in FIG. 9, a line-of-sight area 95 of “YES” is arranged in the upper right, and a line-of-sight area 96 of “NO” is arranged in the lower left, respectively. As shown in FIG. 10, the line-of-sight area designated by the terminal device 6 is arranged with a line-of-sight area 95 of “YES” on the left side and a line-of-sight area 96 of “NO” on the right side. Thus, the line-of-sight areas of “YES” and “NO” are different for each terminal device.

なお、後述するが、視線領域テーブル3131に記憶された視線領域に従って、「YES」「NO」の視線領域95,96が表示される。これら視線領域95,96内には、各範囲をさらに狭くする輪郭線99(図8〜図10参照)が設けられる。視線領域95,96の境界を輪郭線99で区切ることで、視線領域95,96内に確実に視線を向けさせることができる。   As will be described later, the line-of-sight areas 95 and 96 of “YES” and “NO” are displayed according to the line-of-sight area stored in the line-of-sight area table 3131. In these line-of-sight regions 95 and 96, there are provided contour lines 99 (see FIGS. 8 to 10) that further narrow the respective ranges. By dividing the boundary between the line-of-sight areas 95 and 96 with the outline 99, the line-of-sight can be surely directed into the line-of-sight areas 95 and 96.

次に、集計テーブル3151について、図11を参照して説明する。集計テーブル3151は、各拠点から送信された集計データを各拠点毎にまとめて記憶するものである。集計テーブル3151には、端末ID欄81と、YES欄82と、NO欄83とが対応付けられて各々設けられている。端末ID欄81には、端末IDが記憶される。YES欄82には、「YES」の意志表示を示した人数が記憶される。NO欄83には「NO」の意志表意を示した人数が記憶される。なお、集計テーブル3151の最終行には、全拠点の「YES」「NO」の総合計が各々記憶される。   Next, the summary table 3151 will be described with reference to FIG. The tabulation table 3151 stores the tabulation data transmitted from each site collectively for each site. The aggregation table 3151 is provided with a terminal ID column 81, a YES column 82, and a NO column 83 in association with each other. A terminal ID is stored in the terminal ID column 81. The YES column 82 stores the number of people who have indicated “YES”. In the NO column 83, the number of persons who show the will of “NO” is stored. Note that the total of “YES” and “NO” for all bases is stored in the last row of the aggregation table 3151, respectively.

次に、RAM22の各種記憶エリアについて、図12を参照して説明する。RAM22には、CCDカメラ画像記憶エリア221と、視線検出情報記憶エリア222と、ジェスチャー情報記憶エリア223と、視線領域情報記憶エリア224と、採決画像記憶エリア225と、意見数記憶エリア226と、結果画像記憶エリア227と、カメラ画像記憶エリア228とが、少なくとも設けられている。   Next, various storage areas of the RAM 22 will be described with reference to FIG. The RAM 22 includes a CCD camera image storage area 221, a line-of-sight detection information storage area 222, a gesture information storage area 223, a line-of-sight area information storage area 224, a voted image storage area 225, an opinion count storage area 226, and results. At least an image storage area 227 and a camera image storage area 228 are provided.

CCDカメラ画像記憶エリア221には、CCDカメラの撮像画像が記憶される。視線検出情報記憶エリア222には、視線検出をする際に算出された後述する各種パラメータや設定値等の情報である視線検出情報が記憶される。   The CCD camera image storage area 221 stores a captured image of the CCD camera. The line-of-sight detection information storage area 222 stores line-of-sight detection information, which is information such as various parameters and setting values, which will be described later, calculated when performing line-of-sight detection.

ジェスチャー情報記憶エリア223には、議長端末から送信されたジェスチャー情報2231(図13参照)が記憶される。ジェスチャー情報2231は、「YES」の意志表示をする際のジェスチャーの種類と、「NO」の意志表示をする際のジェスチャーの種類とを含むものである。視線領域情報記憶エリア224には、議長端末から送信された視線領域情報2241(図14参照)が記憶される。視線領域情報2241は、「YES」の意志表示をする際の視線領域と、「NO」の意志表示をする際の視線領域とを含むものである。   In the gesture information storage area 223, gesture information 2231 (see FIG. 13) transmitted from the chairperson terminal is stored. The gesture information 2231 includes the type of gesture for displaying the will of “YES” and the type of gesture for displaying the will of “NO”. The line-of-sight area information storage area 224 stores line-of-sight area information 2241 (see FIG. 14) transmitted from the chairperson terminal. The line-of-sight area information 2241 includes a line-of-sight area when displaying a will of “YES” and a line-of-sight area when displaying a will of “NO”.

採決画像記憶エリア225には、多数決で採決を行ったときの採決画像のデータが記憶される。つまり、ジェスチャーで採決をした場合は、各使用者がジェスチャーをしているときの画像データである。視線位置で採決をした場合は、各使用者が視線位置を所定の視線領域に向けているときの画像データである。意見数記憶エリア226には、各拠点の使用者の「YES」の意見数のデータと、「NO」の意見数のデータとが記憶される。   In the voting image storage area 225, data of voting images when voting is performed by majority vote is stored. That is, when voting is performed by gestures, it is image data when each user is gesturing. When voting is performed at the line-of-sight position, it is image data when each user points the line-of-sight position toward a predetermined line-of-sight area. In the opinion number storage area 226, data on the number of opinions of “YES” and data on the number of opinions of “NO” for the users of the respective bases are stored.

結果画像記憶エリア227には、採決画像記憶エリア225に記憶された採決画像に「YES」「NO」の文字を表示した結果画像120(図22参照)が記憶される。   In the result image storage area 227, a result image 120 (see FIG. 22) in which the characters “YES” and “NO” are displayed on the vote image stored in the vote image storage area 225 is stored.

なお、結果画像120は、採決画像に映し出された各人物の頭部の横に「YES」又は「NO」の文字が付されたものである。これに限らず、例えば、「YES」「NO」の意見毎に個別画像を切り出し、意見毎に分けて整理した結果画像121(図23参照)を、結果画像記憶エリア227に記憶してもよい。カメラ画像記憶エリア228には、カメラ34の撮像画像が記憶される。   The result image 120 is obtained by adding “YES” or “NO” to the side of each person's head shown in the vote image. For example, a result image 121 (see FIG. 23) obtained by cutting out individual images for each opinion of “YES” and “NO” and arranging them for each opinion may be stored in the result image storage area 227. . In the camera image storage area 228, a captured image of the camera 34 is stored.

次に、使用者の視線位置の検出方法について説明する。視線位置の検出方法は、使用者の目を中心とする顔の部分をCCDカメラ38(図4参照)で捉え、得られた画像を画像解析することよって視線方向を検出する。その検出された視線方向からディスプレイ28上の視線位置を検出する。視線方向を検出する方法としては、種々のものが適用可能である。   Next, a method for detecting the user's line-of-sight position will be described. In the method of detecting the line-of-sight position, the face portion centered on the user's eyes is captured by the CCD camera 38 (see FIG. 4), and the resulting image is analyzed to detect the line-of-sight direction. The line-of-sight position on the display 28 is detected from the detected line-of-sight direction. Various methods can be applied as a method of detecting the line-of-sight direction.

例えば、特開2000−138872号公報には、使用者を撮影した画像データから両目の輪郭を検出し、目の両端および鼻孔の位置の幾何学的な位置関係から、眼球の中心位置及び半径を推定し、視線方向を検出する方法が示されている。   For example, Japanese Patent Laid-Open No. 2000-138872 detects the contours of both eyes from image data obtained by photographing a user, and determines the center position and radius of the eyeball from the geometrical positional relationship between the ends of the eyes and the nostrils. A method for estimating and detecting the gaze direction is shown.

例えば、松本吉央、怡土順一、竹村憲太郎、小笠原司、リアルタイム顔・視線計測システムの開発と知的インタフェースへの応用、情報処理学会論文誌コンピュータビジョンとイメージメディア、vol.47、No.SIG15(CVIM16)、pp.10−21、2006/10の非特許文献には、画像解析を用いた視線測定法として、CCDカメラ画像中から顔領域の切り出しを行い、顔発見テンプレートとのモデルフィッティングを行った後、頭部位置・姿勢を求め、眼球中心位置の推定を行い、視線方向をリアルタイムに検出するという手法が示されている。   For example, Yoshio Matsumoto, Junichi Tsujido, Kentaro Takemura, Tsukasa Ogasawara, Development of Real-time Face / Gaze Measurement System and Application to Intelligent Interface, Information Processing Society of Japan Journal of Computer Vision and Image Media, vol. 47, no. SIG15 (CVIM16), pp. In the non-patent literatures of 10-21 and 2006/10, as a line-of-sight measurement method using image analysis, a face region is cut out from a CCD camera image and model fitting with a face discovery template is performed. A method of obtaining a position / posture, estimating an eyeball center position, and detecting a gaze direction in real time is shown.

例えば、大野健彦、視線を用いたインタフェース、情報処理,Vol.44、No.7、pp.726−732、2003の非特許文献には、近赤外線を用いた視線測定法として、赤外線カメラを用いて、人の眼球形状に関する3次元モデルと、観察された瞳孔像およびプルキニエ像から真の瞳孔位置およびプルキニエ像の位置を推定し、視線方向を算出するという方法が示されている。   For example, Takehiko Ohno, Gaze-based interface, information processing, Vol. 44, no. 7, pp. In non-patent documents of Nos. 726-732 and 2003, as a line-of-sight measurement method using near infrared rays, a true pupil is obtained from a three-dimensional model relating to the shape of a human eyeball, an observed pupil image and a Purkinje image using an infrared camera. A method of estimating the position and the position of the Purkinje image and calculating the line-of-sight direction is shown.

本実施形態では、近赤外線を用いた視線測定法を用いて視線を検出する。そこで、近赤外線を用いた視線検出方法について、図15を参照して説明する。   In the present embodiment, the line of sight is detected using a line-of-sight measurement method using near infrared rays. Therefore, a gaze detection method using near infrared rays will be described with reference to FIG.

赤外線ライト37が、使用者の眼球72に赤外線を照射すると、照射された赤外線が使用者の眼球72の角膜反射面において反射され、赤外線ライト37の虚像(プルキニエ像)74が生じる。使用者の視線の先に赤外線ライト37が位置するとき、プルキニエ像74の発生位置は、瞳孔75の中心位置と一致する。そして、使用者の視線の先が赤外線ライト37から離れるにつれて、プルキニエ像74と瞳孔75の中心との間隔は広がっていく。   When the infrared light 37 irradiates the user's eyeball 72 with infrared light, the irradiated infrared light is reflected on the cornea reflection surface of the user's eyeball 72, and a virtual image (Purkinje image) 74 of the infrared light 37 is generated. When the infrared light 37 is positioned ahead of the user's line of sight, the generation position of the Purkinje image 74 coincides with the center position of the pupil 75. Then, as the tip of the user's line of sight moves away from the infrared light 37, the interval between the Purkinje image 74 and the center of the pupil 75 increases.

具体的に説明する。プルキニエ像74と瞳孔75の中心とが一致する状態からの眼球72の回転角度をθとする。ディスプレイ28と赤外線ライト37(CCDカメラ38)との角度をαとする。プルキニエ像74と瞳孔75の中心との間隔をSとすると、間隔Sは、回転角度θの正弦にほぼ比例して広がっていく。CCDカメラ38により撮影された撮影画像において、プルキニエ像74の位置、瞳孔75の中心位置、さらにその間隔Sを算出することにより、眼球72の回転角θ、さらには使用者の視線方向を検出できる。撮影画像におけるプルキニエ像74及び瞳孔75の検出は、各画素における濃度変化を示すエッジ値を検出する周知の方法により行われる。   This will be specifically described. A rotation angle of the eyeball 72 from a state where the Purkinje image 74 and the center of the pupil 75 coincide is θ. The angle between the display 28 and the infrared light 37 (CCD camera 38) is α. Assuming that the interval between the Purkinje image 74 and the center of the pupil 75 is S, the interval S increases almost in proportion to the sine of the rotation angle θ. By calculating the position of the Purkinje image 74, the center position of the pupil 75, and the interval S in the photographed image photographed by the CCD camera 38, the rotation angle θ of the eyeball 72 and further the direction of the user's line of sight can be detected. . The detection of the Purkinje image 74 and the pupil 75 in the captured image is performed by a known method for detecting an edge value indicating a density change in each pixel.

次に、検出された視線方向の先にあるディスプレイ28上の使用者の視線位置Tを検出する方法について説明する。使用者が、端末装置3の前方の床面にマーキングされた位置に立ち、踏み台等を使って高さを調節することによって、使用者の眼球72の中心と、ディスプレイ28との間が所定距離Lになる。   Next, a method for detecting the user's line-of-sight position T on the display 28 ahead of the detected line-of-sight direction will be described. The user stands at a position marked on the floor surface in front of the terminal device 3 and adjusts the height using a platform or the like, whereby the center of the user's eyeball 72 and the display 28 are separated by a predetermined distance. L.

ここで、マーキング位置は、その位置に立った使用者の眼球72の中心と、ディスプレイ28との間が所定距離Lになるように調整されている。使用者によって背の高さが異なるので、所定の高さになるように踏み台等を使って眼球72の位置を調節する。なお、眼球72の位置を固定するために、使用者の頭部の位置を固定するようにしてもよい。各拠点には複数の使用者がいる場合を想定しているので、ディスプレイ28の前には複数のマーキングが設定される。マーキング位置はそれぞれ異なるので、所定距離Lについても各位置毎に異なっている。   Here, the marking position is adjusted so that the distance between the center of the user's eyeball 72 standing at the position and the display 28 is a predetermined distance L. Since the height of the user differs depending on the user, the position of the eyeball 72 is adjusted using a platform or the like so as to be a predetermined height. In order to fix the position of the eyeball 72, the position of the user's head may be fixed. Since it is assumed that there are a plurality of users at each site, a plurality of markings are set in front of the display 28. Since the marking positions are different, the predetermined distance L is also different for each position.

眼球72の中心からディスプレイ28に対して直角に交わる交点を中心点Oとする。使用者の視線方向の先にあるディスプレイ28上の視線位置T1と中心点Oとの距離Kは、以下の式で示される。
・K=L・tanβ
・β=θ−(90−α)
・K=L・tan(θ−(90−α))
上述の式より、ディスプレイ28上の使用者の視線位置Tを特定することができる。なお、回転角度θ、間隔S、所定距離L、角度α等の視線検出に関わるパラメータや、視線位置の算出に関わる値は、RAM22の視線検出情報記憶エリア222(図12参照)に記憶される。所定距離Lは、ディスプレイ28の前にある複数のマーキング位置毎にそれぞれ異なる。従って、各マーキング位置毎の所定距離Lが視線検出情報記憶エリア222にそれぞれ記憶される。なお、所定距離L、角度αは、端末装置3のキーボード29で入力されたものがRAM22の視線検出情報記憶エリア222に記憶される。
An intersection point that intersects the display 28 at a right angle from the center of the eyeball 72 is defined as a center point O. The distance K between the line-of-sight position T1 on the display 28 ahead of the user's line-of-sight direction and the center point O is expressed by the following equation.
・ K = L ・ tanβ
.Beta. =. Theta .- (90-.alpha.)
* K = L * tan ([theta]-(90- [alpha]))
From the above formula, the user's line-of-sight position T on the display 28 can be specified. It should be noted that parameters relating to eye gaze detection, such as the rotation angle θ, the interval S, the predetermined distance L, and the angle α, and values relating to the gaze position calculation are stored in the eye gaze detection information storage area 222 (see FIG. 12) of the RAM 22. . The predetermined distance L is different for each of a plurality of marking positions in front of the display 28. Accordingly, the predetermined distance L for each marking position is stored in the line-of-sight detection information storage area 222, respectively. The predetermined distance L and the angle α are stored in the line-of-sight detection information storage area 222 of the RAM 22 as input from the keyboard 29 of the terminal device 3.

次に、テレビ会議システム1で実行される多数決処理について説明する。多数決処理は、端末装置3〜6のHDD31に記憶された会議支援プログラムに基づき行われる。会議支援プログラムは、議長端末が実行する「議長端末処理」と、議長端末以外の端末が実行する「拠点端末処理」とに分かれる。   Next, the majority process executed in the video conference system 1 will be described. The majority process is performed based on a conference support program stored in the HDD 31 of the terminal devices 3 to 6. The conference support program is divided into “chairman terminal processing” executed by the chairman terminal and “base terminal processing” executed by a terminal other than the chairman terminal.

ここでは、説明の便宜上、端末装置3を議長端末とし、それ以外の端末装置4〜6を議長端末の指示を受けて多数決を行う拠点端末として説明する。会議支援プログラムは、HDD31に記憶された参加端末記憶エリア311(図5参照)に、自端末を含めて2以上の端末IDが登録され、他拠点との間で音声と画像を介した会議が開始されると実行される。   Here, for convenience of explanation, the terminal device 3 is described as a chairman terminal, and the other terminal devices 4 to 6 are described as base terminals that make a majority decision in response to an instruction from the chairman terminal. In the conference support program, two or more terminal IDs including its own terminal are registered in the participating terminal storage area 311 (see FIG. 5) stored in the HDD 31, and a conference via audio and images can be held with other bases. Runs when started.

はじめに、CPU20による議長端末処理について、図16のフローチャートを参照して説明する。まず、多数決を行うか否かが判断される(S11)。ここでは、多数決で採決をとる場合に、ディスプレイ28に表示された「多数決実行」ボタン(図示外)が選択されたか否かによって判断される。多数決が行われない間は(S11:NO)、S11に戻って、処理が繰り返される。   First, the chairman terminal process by the CPU 20 will be described with reference to the flowchart of FIG. First, it is determined whether or not to make a majority decision (S11). Here, in the case of voting by majority vote, the determination is made based on whether or not the “execute majority vote” button (not shown) displayed on the display 28 is selected. While the majority decision is not made (S11: NO), the process returns to S11 and the process is repeated.

多数決を行う場合(S11:YES)、本端末が「議長端末」となる。次いで、HDD31に記憶されたジェスチャーテーブル3121(図6参照)から各端末のジェスチャー情報2231(図13参照)が取得され、視線領域テーブル3131(図7参照)から各端末の視線領域情報2241(図14参照)が取得される。そして、取得されたジェスチャー情報2231および視線領域情報2241は、会議に参加する端末に応じて取得され、各端末装置4〜6に向けてそれぞれ送信される(S12)。   When a majority decision is made (S11: YES), this terminal becomes the “chairman terminal”. Next, the gesture information 2231 (see FIG. 13) of each terminal is acquired from the gesture table 3121 (see FIG. 6) stored in the HDD 31, and the line-of-sight area information 2241 (see FIG. 7) of each terminal is obtained from the line-of-sight region table 3131 (see FIG. 7). 14) is obtained. Then, the acquired gesture information 2231 and line-of-sight area information 2241 are acquired according to the terminal participating in the conference, and transmitted to each of the terminal devices 4 to 6 (S12).

後述するが、ジェスチャー情報2231および視線領域情報2241を受信した端末装置4〜6の各拠点では、受信したジェスチャー情報2231又は視線領域情報2241に基づいた画像がディスプレイ28(図19〜図21参照)に表示される。各拠点では、ディスプレイ28に表示された画像に基づき、各使用者が所定の動作をすることで、多数決が行われる。多数決の結果は各拠点で処理され、意見数データと、結果画像120(図22参照)のデータ(以下、結果画像データと呼ぶ)とからなる集計情報が議長端末である端末装置3に向けて送信される(図2参照)。   As will be described later, at each base of the terminal devices 4 to 6 that has received the gesture information 2231 and the line-of-sight area information 2241, an image based on the received gesture information 2231 or line-of-sight area information 2241 is displayed on the display 28 (see FIGS. 19 to 21). Is displayed. In each base, a majority decision is made by each user performing a predetermined operation based on the image displayed on the display 28. The result of the majority decision is processed at each base, and the total information composed of the opinion number data and the data of the result image 120 (see FIG. 22) (hereinafter referred to as result image data) is directed to the terminal device 3 which is the chairperson terminal. Is transmitted (see FIG. 2).

次いで、図16に示すように、集計情報を受信したか否かが判断される(S13)。集計情報を受信した場合(S13:YES)、意見数データは、HDD31に記憶した集計テーブル3151(図11参照)に記憶される(S14)。さらに、結果画像データは、議題と関連付けられ、HDD31の全端末結果画像記憶エリア315(図5参照)に記憶される(S15)。そして、S13に戻り、他拠点から集計情報を受信した場合は(S13:YES)、上述した処理と同様に、集計テーブル3151(図11参照)に意見数データが追加される(S14)。さらに、全端末結果画像記憶エリア315(図5参照)に結果画像データが追加される(S15)。   Next, as shown in FIG. 16, it is determined whether or not the total information has been received (S13). When the total information is received (S13: YES), the opinion number data is stored in the total table 3151 (see FIG. 11) stored in the HDD 31 (S14). Further, the result image data is associated with the agenda and stored in the all terminal result image storage area 315 (see FIG. 5) of the HDD 31 (S15). Then, returning to S13, when the total information is received from another base (S13: YES), the number-of-opinions data is added to the total table 3151 (see FIG. 11) in the same manner as described above (S14). Further, the result image data is added to the all terminal result image storage area 315 (see FIG. 5) (S15).

このように、S13〜S15が繰り返されることで、全端末結果画像記憶エリア315に各拠点の結果画像120のデータが収集され、議題と共に、各拠点の結果画像を並べた全端末結果画像131(図25参照)が合成されて記憶される。全端末結果画像131は、例えば、議題「この計画に賛成ですか。」が上部に表示され、例えば、その下に、拠点B(端末装置4)の結果画像120、拠点D(端末装置6)の結果画像120等が並んで表示される。各拠点の結果画像120は、多数決に参加する人物の頭部の横に、「YES」「NO」の文字が表示されている。これにより、誰が「YES」又は「NO」の意見を持っているかを一目で認識できる。   As described above, by repeating S13 to S15, the data of the result image 120 of each site is collected in the all-terminal result image storage area 315, and the all-terminal result image 131 (in which the result images of each site are arranged together with the agenda). 25) is synthesized and stored. In the all terminal result image 131, for example, the agenda “Do you agree with this plan?” Is displayed at the top, and for example, the result image 120 of the base B (terminal device 4) and the base D (terminal device 6) are displayed below it. Result image 120 and the like are displayed side by side. In the result image 120 of each base, characters “YES” and “NO” are displayed beside the heads of the persons participating in the majority decision. Thereby, it is possible to recognize at a glance who has an opinion of “YES” or “NO”.

なお、各拠点から結果画像121(図23参照)のデータを受信するようにした場合、全端末結果画像記憶エリア315には、各拠点の結果画像データから「YES」「NO」の意見毎に個別画像が切り出され、「YES」「NO」毎に配置した全端末結果画像132(図26参照)が合成されて記憶される。この全端末結果画像132であっても、誰が「YES」又は「NO」の意見を持っているかを一目で認識できる。   When the data of the result image 121 (see FIG. 23) is received from each base, all terminal result image storage areas 315 have “YES” and “NO” opinions from the result image data of each base. Individual images are cut out, and all terminal result images 132 (see FIG. 26) arranged for each of “YES” and “NO” are combined and stored. Even in this all terminal result image 132, it is possible to recognize at a glance who has an opinion of “YES” or “NO”.

一方、図16に示すように、集計情報を受信しない場合(S13:NO)、全拠点の端末から集計情報を収集したか否かが判断される(S16)。ここでは、HDD31の参加端末記憶エリア311(図5参照)に登録された全端末の集計情報が、集計テーブル3151(図11参照)に記憶されているか否かが判断される。集計情報をまだ受信していない端末がある場合(S16:NO)、S13に戻って、集計情報の受信について、引き続き監視される。   On the other hand, as shown in FIG. 16, when the total information is not received (S13: NO), it is determined whether or not the total information is collected from the terminals of all the bases (S16). Here, it is determined whether or not the total information of all terminals registered in the participating terminal storage area 311 (see FIG. 5) of the HDD 31 is stored in the total table 3151 (see FIG. 11). If there is a terminal that has not yet received the total information (S16: NO), the process returns to S13, and the reception of the total information is continuously monitored.

そして、集計テーブル3151を参照して、全端末の集計情報を受信したと判断された場合(S16:YES)、HDD31に記憶された集計テーブル3151(図11参照)から「YES」「NO」の意見数を議題と共にまとめて表示した全端末集計画像(図24参照)が合成されて、HDD31の全端末集計画像記憶エリア316(図5参照)に記憶される(S17)。   When it is determined that the total information of all terminals has been received with reference to the total table 3151 (S16: YES), “YES” and “NO” are calculated from the total table 3151 (see FIG. 11) stored in the HDD 31. The total terminal total image (see FIG. 24) in which the number of opinions is displayed together with the agenda is synthesized and stored in the total terminal total image storage area 316 (see FIG. 5) of the HDD 31 (S17).

次いで、全端末結果画像記憶エリア315(図5参照)に記憶された全端末結果画像131(図25参照)と、全端末集計画像記憶エリア316(図5参照)に記憶された全端末集計画像130(図24参照)とが、投票結果としてディスプレイ28に表示される(S18)。さらに、これら投票結果が各端末装置に向けて送信され(S19)、処理が終了する。   Next, the all terminal result image 131 (see FIG. 25) stored in the all terminal result image storage area 315 (see FIG. 5) and the all terminal total image stored in the all terminal total image storage area 316 (see FIG. 5). 130 (see FIG. 24) is displayed on the display 28 as a vote result (S18). Further, these voting results are transmitted to each terminal device (S19), and the process ends.

なお、全端末集計画像130のデータおよび全端末結果画像131のデータを受信した端末装置4〜6では、これらの画像データがHDD31に記憶される。各拠点において、HDD31に記憶された全端末集計画像130又は全端末結果画像131を、ディスプレイ28に表示させることで、各拠点において多数決の結果を知ることができる。   In the terminal devices 4 to 6 that have received the data of the total terminal total image 130 and the data of the total terminal result image 131, these image data are stored in the HDD 31. By displaying the total terminal total image 130 or the total terminal result image 131 stored in the HDD 31 at each site on the display 28, the result of the majority vote can be known at each site.

次に、CPU20による拠点端末処理について、図17を参照して説明する。説明の便宜上、拠点端末として機能する端末装置4のCPU20が実行する拠点端末処理について説明する。まず、議長端末から送信されたジェスチャー情報2231(図13参照)及び視線領域情報2241(図14参照)を受信したか否かが判断される(S21)。ジェスチャー情報2231及び視線領域情報2241するまでは(S21:NO)、S21に戻って待機状態となる。   Next, the base terminal processing by the CPU 20 will be described with reference to FIG. For convenience of explanation, a base terminal process executed by the CPU 20 of the terminal device 4 functioning as a base terminal will be described. First, it is determined whether or not the gesture information 2231 (see FIG. 13) and the line-of-sight area information 2241 (see FIG. 14) transmitted from the chairman terminal are received (S21). Until the gesture information 2231 and the line-of-sight area information 2241 are obtained (S21: NO), the process returns to S21 and enters a standby state.

そして、ジェスチャー情報2231及び視線領域情報2241を受信したと判断された場合(S21:YES)、カメラ34によって撮像されたカメラ画像が取得される(S22)。カメラ画像は、RAM22のカメラ画像記憶エリア228(図12参照)に記憶される。さらに、カメラ画像記憶エリア228に記憶されたカメラ画像に基づき、人物画像のサイズ解析処理が実行される(S23)。   When it is determined that the gesture information 2231 and the line-of-sight area information 2241 have been received (S21: YES), a camera image captured by the camera 34 is acquired (S22). The camera image is stored in a camera image storage area 228 of the RAM 22 (see FIG. 12). Further, based on the camera image stored in the camera image storage area 228, a human image size analysis process is executed (S23).

人物画像のサイズ解析処理について、図18を参照して説明する。RAM22のカメラ画像記憶エリア228に記憶されたカメラ画像から人物Uを検出する方法として「背景差分法」を適用する。背景差分法では、まず、予め背景Pとするフレーム画像200を決めておく。それを元にフレーム毎に差分を取る。その差分値が規定値以上の領域を人物Fの画像領域Fとして検出する。検出された人物画像領域Fの面積を人物画像のサイズとして解析する。   The person image size analysis processing will be described with reference to FIG. As a method for detecting the person U from the camera image stored in the camera image storage area 228 of the RAM 22, the “background difference method” is applied. In the background subtraction method, first, a frame image 200 as a background P is determined in advance. Based on this, a difference is taken for each frame. An area where the difference value is equal to or greater than a specified value is detected as an image area F of the person F. The area of the detected person image area F is analyzed as the size of the person image.

次いで、図17に示すように、カメラ画像に映し出された人物の画像のサイズが全て第1所定値以上であるか否かが判断される(S24)。カメラ画像に複数の人物が表示されている場合は、その全ての画像サイズが第1所定値以上であるか否かが判断される。全ての画像サイズが第1所定値以上である場合は(S24:YES)、何れの使用者についても視線を検出するには十分の大きさである。この場合、受信した視線領域情報2241(図14参照)に基づき、ディスプレイ28には、「YES」の視線領域95および「NO」の視線領域96が表示される。   Next, as shown in FIG. 17, it is determined whether or not the size of the image of the person projected on the camera image is all equal to or greater than the first predetermined value (S24). When a plurality of persons are displayed in the camera image, it is determined whether or not all the image sizes are equal to or larger than the first predetermined value. When all the image sizes are equal to or larger than the first predetermined value (S24: YES), the size is sufficient to detect the line of sight for any user. In this case, based on the received line-of-sight area information 2241 (see FIG. 14), the display 28 displays a line-of-sight area 95 of “YES” and a line-of-sight area 96 of “NO”.

例えば、図14に示す視線領域情報2241を受信した場合、ディスプレイ28には、図8に示すように、「YES」の視線領域95が右上に配置され、右側に「NO」の視線領域96が左下に配置される。「YES」の視線領域95において、(30,0)から(0,30)の間に湾曲する輪郭線99が表示され、その内側に「YES」の文字が表示される。輪郭線99の内側の領域は赤色で表示される。「NO」の視線領域96において、(60,60)から(80,30)の間にも湾曲する輪郭線99が表示され、その内側に「NO」の文字が表示される。輪郭線99の内側は青色で表示される。このように、輪郭線99によって、視線領域95,96をさらに狭くすることで、使用者の視線を、視線領域95,96内に確実に向けさせることができる。   For example, when the line-of-sight area information 2241 shown in FIG. 14 is received, as shown in FIG. 8, the line-of-sight area 95 of “YES” is arranged on the upper right side and the line-of-sight area 96 of “NO” is placed on the right side. Located in the lower left. In the line-of-sight area 95 of “YES”, a contour line 99 that curves between (30, 0) and (0, 30) is displayed, and “YES” is displayed inside. The area inside the contour line 99 is displayed in red. In the line-of-sight area 96 of “NO”, a curved outline 99 is also displayed between (60, 60) and (80, 30), and a character “NO” is displayed inside thereof. The inside of the contour line 99 is displayed in blue. Thus, by further narrowing the line-of-sight areas 95 and 96 by the contour line 99, the user's line-of-sight can be surely directed into the line-of-sight areas 95 and 96.

そして、図20に示すように、ディスプレイ28に、視線領域95,96が表示される。ディスプレイ28に表示された視線領域95,96が表示されることで、使用者であるAさん、Bさんは、自らの視線によって「YES」「NO」の意志表示を行う。ディスプレイ28に表示される視線領域の位置は端末装置毎に異なる。従って、ディスプレイ28に表示されたマルチ画面に他拠点の使用者の様子が映っていても、自拠点における判断に影響を与えることがない。   Then, as shown in FIG. 20, line-of-sight areas 95 and 96 are displayed on the display 28. By displaying the line-of-sight areas 95 and 96 displayed on the display 28, the users A and B perform a will display of “YES” and “NO” by their own lines of sight. The position of the line-of-sight area displayed on the display 28 is different for each terminal device. Therefore, even if the state of the user at the other site is shown on the multi-screen displayed on the display 28, the judgment at the own site is not affected.

一方、図17に戻り、人物画像サイズが第1所定値以上ではない人物が存在する場合(S24:NO)、人物画像サイズが全て第2所定値未満か否かが判断される(S26)。第2所定値は、第1所定値よりも小さい値である。人物画像サイズが全て第2所定値未満である場合は(S26:YES)、人物画像が全て小さ過ぎるため、ディスプレイ28上における視線位置を検出するのが困難である。この場合、受信したジェスチャー情報2231(図13参照)に対応するジェスチャー指示画像がディスプレイ28に表示される(S27)。具体的には、ジェスチャー指示画像記憶エリア317に記憶された複数のジェスチャー指示画像の中から、受信したジェスチャー情報2231に対応するジェスチャー指示画像が取得される。   On the other hand, returning to FIG. 17, when there is a person whose person image size is not equal to or larger than the first predetermined value (S24: NO), it is determined whether or not all the person image sizes are smaller than the second predetermined value (S26). The second predetermined value is a value smaller than the first predetermined value. When all the person image sizes are less than the second predetermined value (S26: YES), since all the person images are too small, it is difficult to detect the line-of-sight position on the display 28. In this case, a gesture instruction image corresponding to the received gesture information 2231 (see FIG. 13) is displayed on the display 28 (S27). Specifically, a gesture instruction image corresponding to the received gesture information 2231 is acquired from a plurality of gesture instruction images stored in the gesture instruction image storage area 317.

例えば、図13に示すジェスチャー情報2231を受信した場合、図19に示すジェスチャー指示画像がディスプレイ28に表示される。即ち、ディスプレイ28には、分割画面285,286が左右両側に各々表示される。左側の分割画面285には、右手を挙げた人物キャラクタ91が映し出され、その上部には、「YES:右手を挙げて下さい。」のメッセージが表示される。右側の分割画面286には、左手を挙げた人物キャラクタ92が映し出され、その上部には「NO:左手を挙げて下さい。」のメッセージが表示される。ディスプレイ28に表示された動作指示画像が表示されることで、使用者であるAさん、Bさんは、自らのジェスチャーによって「YES」「NO」の意志表示を行う。ディスプレイ28に表示されるジェスチャー指示画像は端末装置毎に異なる。従って、ディスプレイ28に表示されたマルチ画面に他拠点の使用者の様子が映っていても、自拠点における判断に影響を与えることがない。   For example, when the gesture information 2231 shown in FIG. 13 is received, the gesture instruction image shown in FIG. 19 is displayed on the display 28. That is, the divided screens 285 and 286 are displayed on the left and right sides of the display 28, respectively. On the left split screen 285, a person character 91 with a right hand is displayed, and a message “YES: Please raise your right hand” is displayed at the top. On the right split screen 286, a human character 92 with a left hand is displayed, and a message “NO: Please raise your left hand” is displayed above it. By displaying the operation instruction image displayed on the display 28, the users A and B perform a will display of “YES” and “NO” by their own gestures. The gesture instruction image displayed on the display 28 is different for each terminal device. Therefore, even if the state of the user at the other site is shown on the multi-screen displayed on the display 28, the judgment at the own site is not affected.

また、人物画像サイズが人物によってバラバラであった場合(S24:NO、S26:NO)、図21に示すように、ディスプレイ28には、視線領域95,96と、ジェスチャー指示画像とが重ねて表示される(S28)。ディスプレイ28に表示された視線領域95,96と、ジェスチャー指示画像とが表示されることで、使用者であるAさん、Bさんは、自らの視線と、ジェスチャーとによって「YES」「NO」の意志表示を行う。ディスプレイ28に表示される視線領域95,96の各位置と、ジェスチャー指示画像とは端末装置毎に異なる。従って、各端末における意志表示をするための動作がより複雑になるので、ディスプレイ28に表示されたマルチ画面に他拠点の使用者の様子が映っていても、自拠点における判断に影響を与えることがない。   When the person image size varies depending on the person (S24: NO, S26: NO), as shown in FIG. 21, the line-of-sight areas 95 and 96 and the gesture instruction image are displayed on the display 28 so as to overlap each other. (S28). By displaying the line-of-sight areas 95 and 96 displayed on the display 28 and the gesture instruction image, the users A and B are “YES” and “NO” depending on their line of sight and the gesture. Will display will. Each position of the line-of-sight areas 95 and 96 displayed on the display 28 and the gesture instruction image are different for each terminal device. Therefore, since the operation for displaying the will at each terminal becomes more complicated, even if the state of the user at the other site is shown on the multi-screen displayed on the display 28, the judgment at the own site is affected. There is no.

次に、使用者のジェスチャー又は視線位置が検出される(S29)。図20に示すように、ディスプレイ28に視線領域95,96が表示されている場合、Aさん、Bさんは自らの意見に対応する視線領域95又は視線領域96に視線位置を合わせる。一方、図21に示すように、ディスプレイ28にジェスチャー指示画像が表示されている場合、その指示に従って、Aさん、Bさんは自らの意見に対応するジェスチャーをする。   Next, the user's gesture or line-of-sight position is detected (S29). As shown in FIG. 20, when the line-of-sight areas 95 and 96 are displayed on the display 28, Mr. A and Mr. B align their line-of-sight positions with the line-of-sight areas 95 or 96 corresponding to their opinions. On the other hand, as shown in FIG. 21, when a gesture instruction image is displayed on the display 28, according to the instruction, Mr. A and Mr. B make a gesture corresponding to their own opinion.

各人物の視線位置は、上述の方法によって検出される。各人物のジェスチャーは、人物画像解析処理によって行われる。具体的には、上述した人物画像解析において取得された人物画像領域Fと、HDD31の人物画像動作パターン記憶エリア318に記憶されたジェスチャー毎の人物画像領域Fとの比較による形状のパターンマッチングを行うことで、その人物がどのようなジェスチャーを行ったかが判別される。   The line-of-sight position of each person is detected by the method described above. Each person's gesture is performed by person image analysis processing. Specifically, shape pattern matching is performed by comparing the person image area F acquired in the person image analysis described above with the person image area F for each gesture stored in the person image operation pattern storage area 318 of the HDD 31. Thus, it is determined what kind of gesture the person has performed.

次いで、意見の種類が特定される(S30)。意志表示が視線位置によるものであって、ディスプレイ28上で検出された視線位置が「YES」の視線領域95内にある場合は、意見は「YES」である。ディスプレイ28上で検出された視線位置が「NO」の視線領域96内にある場合は、意見は「NO」である。また、意志表示がジェスチャーによるものである場合、種類が検出されたジェスチャーの意味は、ジェスチャー情報記憶エリア223に記憶されたジェスチャー情報2231を参照して特定される。   Next, the type of opinion is specified (S30). If the intention display is based on the line-of-sight position and the line-of-sight position detected on the display 28 is within the line-of-sight area 95 of “YES”, the opinion is “YES”. When the line-of-sight position detected on the display 28 is within the line-of-sight area 96 of “NO”, the opinion is “NO”. When the intention display is based on a gesture, the meaning of the gesture whose type is detected is specified with reference to the gesture information 2231 stored in the gesture information storage area 223.

撮影画像に映し出された各人物の意見がそれぞれ特定されたら、自拠点における「YES」の意見数と、「NO」の意見数とが集計される(S30)。集計結果は、意見数データとして、RAM22の意見数記憶エリア226(図12参照)に記憶される。   When the opinions of each person displayed in the captured image are specified, the number of opinions of “YES” and the number of opinions of “NO” at the base are counted (S30). The count results are stored as opinion number data in the opinion number storage area 226 (see FIG. 12) of the RAM 22.

次いで、採決をしたときの採決画像がRAM22の採決画像記憶エリア225(図12参照)に記憶される。さらに、採決画像記憶エリア225に記憶された採決画像に、各人物の意見結果を表示させた結果画像120(図22参照)が合成され、結果画像記憶エリア227(図12参照)に記憶される(S31)。採決画像から個別画像を切り出して、「YES」「NO」に分けて並べた結果画像121(図23参照)を記憶してもよい。   Next, the voting image at the time of voting is stored in the voting image storage area 225 (see FIG. 12) of the RAM 22. Further, a result image 120 (see FIG. 22) in which the opinion result of each person is displayed is combined with the voted image stored in the voted image storage area 225 and stored in the result image storage area 227 (see FIG. 12). (S31). Individual images may be cut out from the voted images, and the result image 121 (see FIG. 23) arranged in “YES” and “NO” may be stored.

そして、RAM22の意見数記憶エリア226に記憶された意見数データと、結果画像記憶エリア227に記憶された結果画像120のデータである結果画像データとが、議長端末に送信され(S33)、処理が終了する。   Then, the opinion count data stored in the opinion count storage area 226 of the RAM 22 and the result image data which is the data of the result image 120 stored in the result image storage area 227 are transmitted to the chairperson terminal (S33), and processed. Ends.

このように、議長端末から送信されたジェスチャー情報2231および視線領域情報2241に基づいて多数決を行い、各拠点で集計した結果を議長端末に送信することで、議長端末において、各拠点の集計結果を取りまとめることができる。また、各端末装置に送信されるジェスチャー情報2231および視線領域情報2241は、各端末装置毎に異ならせている。つまり、多数決で意志表示するためのジェスチャー又は視線位置を端末毎に異ならせている。これにより、ディスプレイ28に表示されたマルチ画面に他拠点の使用者の様子が映っていても、自拠点における判断に影響を与えることがない。また、各拠点の多数決の結果として、採決画像を編集した結果画像データと、意見数データとを議長端末に送信するので、議長端末において各拠点の意見を分析する必要がない。   In this way, the majority decision is made based on the gesture information 2231 and the line-of-sight area information 2241 transmitted from the chairman terminal, and the result of aggregation at each base is transmitted to the chairman terminal, so that the summation result of each base is obtained at the chairman terminal. Can be put together. Further, the gesture information 2231 and the line-of-sight area information 2241 transmitted to each terminal device are different for each terminal device. That is, the gesture or the line-of-sight position for displaying will by majority decision is made different for each terminal. Thereby, even if the state of the user at the other site is shown on the multi-screen displayed on the display 28, the judgment at the own site is not affected. Further, as a result of the majority decision at each site, the result image data obtained by editing the voted image and the opinion number data are transmitted to the chairman terminal, so there is no need to analyze the opinions of each site at the chairman terminal.

以上説明したように、テレビ会議システム1では、議長端末として機能する端末装置3が、ある議題について多数決で決議を採る際に、端末装置4,5,6の各拠点に多数決の動作情報(ジェスチャー情報、視線領域情報)を送信する。動作情報は、多数決で意志表示をする際に行う動作の種類が意見毎に規定されている。意見に対する動作の種類は端末毎に異ならせている。これにより、ディスプレイ28に表示されたマルチ画面に他拠点の使用者の様子が映っていても、自拠点と異なる動作をするため、自拠点における判断に影響を与えることがない。従って、部品点数を増やすことなく、他拠点の意見に影響されない信頼性のある多数決を行うことができる。また、その動作情報に従ってなされた多数決の集計情報(意見数データ、結果画像データ等)が各拠点から送信される。それらを受信して記憶することで、ディスプレイ28に表示できる。これにより、ある議題の採決結果を速やかに把握できる。   As described above, in the video conference system 1, when the terminal device 3 functioning as the chairman's terminal makes a resolution by majority vote on a certain agenda, the operation information (gestures) of the majority vote at each base of the terminal devices 4, 5, 6. Information, line-of-sight area information). In the operation information, the type of operation to be performed when displaying a will by majority decision is defined for each opinion. The type of action for opinions is different for each terminal. As a result, even if the state of the user at the other site is shown on the multi-screen displayed on the display 28, the operation is different from the own site, so that the judgment at the own site is not affected. Therefore, it is possible to make a reliable majority vote without being influenced by the opinions of other bases without increasing the number of parts. Also, the total number of majority information (opinion number data, result image data, etc.) made according to the operation information is transmitted from each base. By receiving and storing them, they can be displayed on the display 28. Thereby, it is possible to quickly grasp the voting result of a certain agenda item.

以上の説明において、HDD31に記憶されたジェスチャーテーブル3121と、視線領域テーブル3131とが本発明の「動作情報記憶手段」に相当する。HDD31の集計テーブル記憶エリア314と、全端末結果画像記憶エリア315とが本発明の「結果情報記憶手段」に相当する。図16に示すS12の動作を実行するCPU20が本発明の「動作情報送信手段」に相当する。S13の動作を実行するCPU20が本発明の「結果情報受信手段」に相当する。S18の動作を実行するCPU20が本発明の「結果情報出力手段」に相当する。   In the above description, the gesture table 3121 and the line-of-sight area table 3131 stored in the HDD 31 correspond to the “motion information storage unit” of the present invention. The total table storage area 314 of the HDD 31 and the all terminal result image storage area 315 correspond to the “result information storage unit” of the present invention. The CPU 20 that executes the operation of S12 shown in FIG. 16 corresponds to the “operation information transmitting unit” of the present invention. The CPU 20 that executes the operation of S13 corresponds to the “result information receiving means” of the present invention. The CPU 20 that executes the operation of S18 corresponds to the “result information output unit” of the present invention.

図17に示すS30の動作を実行するCPU20が本発明の「意見集計手段」に相当する。S33の動作を実行するCPU20が本発明の「結果情報送信手段」に相当する。S23の動作を実行するCPU20が本発明の「画像サイズ解析手段」に相当する。S24の動作を実行するCPU20が本発明の「第1画像サイズ判断手段」に相当する。S26の動作を実行するCPU20が本発明の「第2画像サイズ判断手段」に相当する。図13に示すジェスチャー情報2231が本発明の「第1動作情報」に相当する。図14に示す視線領域情報2241が本発明の「第2動作情報」に相当する。図17のS29の動作を実行するCPU20が本発明の「ジェスチャー特定手段」「視線領域特定手段」に相当する。RAM22の視線検出情報記憶エリア222が本発明の「位置関係情報記憶手段」に相当する。図17のS29の動作を実行するCPU20が本発明の「視線位置特定手段」に相当する。   The CPU 20 that executes the operation of S30 shown in FIG. 17 corresponds to the “opinion counting means” of the present invention. The CPU 20 that executes the operation of S33 corresponds to the “result information transmitting unit” of the present invention. The CPU 20 that executes the operation of S23 corresponds to the “image size analyzing means” of the present invention. The CPU 20 that executes the operation of S24 corresponds to the “first image size determining means” of the present invention. The CPU 20 that executes the operation of S26 corresponds to the “second image size determining means” of the present invention. The gesture information 2231 shown in FIG. 13 corresponds to “first motion information” of the present invention. The line-of-sight area information 2241 shown in FIG. 14 corresponds to “second motion information” of the present invention. The CPU 20 that executes the operation of S29 in FIG. 17 corresponds to “gesture specifying means” and “line-of-sight area specifying means” of the present invention. The line-of-sight detection information storage area 222 of the RAM 22 corresponds to the “positional relationship information storage unit” of the present invention. The CPU 20 executing the operation of S29 in FIG. 17 corresponds to the “line-of-sight position specifying unit” of the present invention.

なお、本発明は、上記実施形態に限定されることなく、種々の変更が可能である。例えば、上記実施形態では、使用者の意見は「YES」「NO」の二通りであったが、例えば、「YES」「NO」「どちらともいえない」等、さらに多くの意見を加えてもよい。また。「YES」「NO」に限らず、意見の種類を設定してもよい。   The present invention is not limited to the above-described embodiment, and various modifications can be made. For example, in the above embodiment, the user's opinions are “YES” and “NO”, but for example, “YES”, “NO”, “Neither” can be added, and more opinions can be added. Good. Also. The type of opinion is not limited to “YES” and “NO”.

また、上記実施形態では、議長端末から各端末に向けて動作情報(ジェスチャー情報
視線領域情報)を送信し、各端末の動作の種類を決めているが、例えば、議長端末から多数決の指示を各端末に送信し、各端末でランダムに意思表示するための動作を選択するようにしてもよい。
Further, in the above embodiment, the operation information (gesture information line-of-sight area information) is transmitted from the chairman terminal to each terminal, and the type of operation of each terminal is determined. You may make it select the operation | movement for transmitting to a terminal and displaying intention intention at each terminal at random.

また、上述の実施形態では、ユーザの眼球72とディスプレイ28との距離は、一定であると近似され、所定距離Lとして予め記憶されていたが、これに限定されるものでは無い。たとえば、遠隔会議開始時や視線方向検出時などに、ユーザの眼球72とディスプレイ28との距離を算出し、算出された値を前記所定距離Lとして、ディスプレイ28上のユーザの視線位置Tを特定しても良い。所定距離Lの算出方法としては、周知の方法が適用可能であるが、たとえば、以下の方法が適用可能である。   In the above-described embodiment, the distance between the user's eyeball 72 and the display 28 is approximated to be constant and is stored in advance as the predetermined distance L, but is not limited thereto. For example, the distance between the user's eyeball 72 and the display 28 is calculated at the start of a teleconference or when the line-of-sight direction is detected, and the user's line-of-sight position T on the display 28 is specified with the calculated value as the predetermined distance L. You may do it. As a method for calculating the predetermined distance L, a known method can be applied. For example, the following method can be applied.

この方法では、予めCCDカメラ38とユーザ(ユーザの眼球72)とを所定距離とした状態でユーザを撮影する。撮影されたユーザの画像からユーザの各眼球72について瞳孔75の位置をそれぞれ抽出し、抽出された瞳孔75の間隔を、基準瞳孔間隔として予めHDD31に記憶する。一般に、撮影画像における瞳孔間隔は、瞳孔75とCCDカメラ38との距離に反比例する。よって、CCDカメラ38により撮影された実際の瞳孔間隔と、予め記憶された基準瞳孔間隔とから、CCDカメラ38と眼球72との距離を算出できる。CCDカメラ38とディスプレイ28との位置関係を予めHDD31に記憶しておくことにより、ディスプレイ28と眼球72との距離を算出することができ、算出された値を所定距離Lとして用いることができる。   In this method, the user is photographed in a state where the CCD camera 38 and the user (the user's eyeball 72) are set to a predetermined distance in advance. The position of the pupil 75 is extracted for each eyeball 72 of the user from the photographed user image, and the extracted interval between the pupils 75 is stored in the HDD 31 in advance as a reference pupil interval. In general, the pupil interval in the captured image is inversely proportional to the distance between the pupil 75 and the CCD camera 38. Therefore, the distance between the CCD camera 38 and the eyeball 72 can be calculated from the actual pupil interval photographed by the CCD camera 38 and the reference pupil interval stored in advance. By storing the positional relationship between the CCD camera 38 and the display 28 in the HDD 31 in advance, the distance between the display 28 and the eyeball 72 can be calculated, and the calculated value can be used as the predetermined distance L.

1 テレビ会議システム
2 ネットワーク
3 端末装置
4 端末装置
5 端末装置
6 端末装置
28 ディスプレイ
31 ハードディスクドライブ
34 カメラ
37 赤外線ライト
38 CCDカメラ
2231 ジェスチャー情報
2241 視線領域情報
312 ジェスチャーテーブル記憶エリア
3121 ジェスチャーテーブル
313 視線領域テーブル記憶エリア
3131 視線領域テーブル
314 集計テーブル記憶エリア
3151 集計テーブル
DESCRIPTION OF SYMBOLS 1 Video conference system 2 Network 3 Terminal device 4 Terminal device 5 Terminal device 6 Terminal device 28 Display 31 Hard disk drive 34 Camera 37 Infrared light 38 CCD camera 2231 Gesture information 2241 Gaze area information 312 Gesture table storage area 3121 Gesture table 313 Gaze area table Storage area 3131 Line-of-sight area table 314 Total table storage area 3151 Total table

Claims (11)

通信回線を介して複数の端末に接続可能な会議装置であって、
前記複数の端末の撮影手段から出力された使用者の撮影画像を合成して、各端末の前記撮影画像を組み合わせたマルチ画像を表示画面に表示する表示手段と、
複数の前記端末の使用者間で開催される会議において、前記会議装置が前記会議の議長として機能する場合に、前記端末に多数決を指示する多数決指示手段と、
当該多数決指示手段によって前記端末に多数決を指示した場合に、多数決を行う際の使用者の意見の種類毎に意志表示するための動作を各端末毎に割り当てる割り当て手段と、
前記端末毎に、前記割り当て手段によって割り当てられた動作で意思表示した使用者の意見の集計結果の情報である結果情報を取得する結果情報取得手段と、
当該結果情報取得手段により取得された前記結果情報を記憶する結果情報記憶手段と、
当該結果情報記憶手段に記憶された前記結果情報を出力する結果情報出力手段と
を備えたことを特徴とする会議装置。
A conference device that can be connected to a plurality of terminals via a communication line,
Display means for combining the captured images of the users output from the imaging means of the plurality of terminals and displaying a multi-image combining the captured images of the terminals on a display screen;
In a conference held between a plurality of users of the terminals, when the conference device functions as the chairman of the conference, a majority instruction means for instructing the terminal to perform a majority vote;
An assigning means for assigning, for each terminal, an operation for displaying a will for each type of opinion of a user when making a majority vote when the majority is instructed to the terminal by the majority instruction means;
Result information acquiring means for acquiring result information that is information on the total results of the opinions of the users who intentionally displayed by the operation assigned by the assigning means for each terminal;
Result information storage means for storing the result information acquired by the result information acquisition means;
A conference apparatus comprising: result information output means for outputting the result information stored in the result information storage means.
前記割り当て手段は、
前記動作の種類の情報である種類情報を前記端末毎に異ならせた動作情報として記憶する動作情報記憶手段と、
当該動作情報記憶手段に記憶された前記動作情報を複数の前記端末にそれぞれ送信する動作情報送信手段と
を備えたことを特徴とする請求項1に記載の会議装置。
The assigning means includes
Operation information storage means for storing type information, which is information about the type of operation, as operation information made different for each terminal;
The conference apparatus according to claim 1, further comprising operation information transmission means for transmitting the operation information stored in the operation information storage means to each of the plurality of terminals.
前記複数の端末のうち前記議長として機能する端末である議長端末から送信された前記動作情報を受信する動作情報受信手段と、
当該動作情報受信手段によって受信された前記動作情報を前記表示画面に表示させる動作表示制御手段と
を備えたことを特徴とする請求項2に記載の会議装置。
Action information receiving means for receiving the action information transmitted from the chairman terminal which is a terminal functioning as the chairman among the plurality of terminals;
The conference apparatus according to claim 2, further comprising an operation display control unit that displays the operation information received by the operation information receiving unit on the display screen.
前記撮影手段によって撮影された撮影画像から使用者を認識する使用者認識手段と、
当該使用者認識手段によって認識された使用者が、前記表示画面に表示された前記動作情報に従って動作した際の動作画像を記憶する動作画像記憶手段と、
当該動作画像記憶手段に記憶された前記動作画像に基づき、前記使用者認識手段によって認識された使用者が前記動作情報に従って行った動作の種類を、使用者毎に特定する動作種類特定手段と、
当該動作種類特定手段によって特定された前記動作の種類が示す前記意見の種類を、前記動作情報受信手段によって受信された前記動作情報から特定する意見種類特定手段と、
当該意見種類特定手段によって特定された前記意見の種類毎に、使用者の数を集計する意見集計手段と、
当該意見集計手段によって集計された結果の情報を、前記結果情報として前記端末に送信する結果情報送信手段と
を備えたことを特徴とする請求項2又は3に記載の会議装置。
User recognition means for recognizing a user from a photographed image photographed by the photographing means;
Action image storage means for storing an action image when the user recognized by the user recognition means operates according to the action information displayed on the display screen;
Based on the action image stored in the action image storage means, the action type specifying means for specifying for each user the type of action performed by the user recognized by the user recognition means according to the action information;
Opinion type specifying means for specifying the type of opinion indicated by the type of action specified by the action type specifying means from the action information received by the action information receiving means;
Opinion counting means for counting the number of users for each type of opinion specified by the opinion type specifying means;
4. The conference apparatus according to claim 2, further comprising a result information transmitting unit that transmits information of the results totaled by the opinion totaling unit to the terminal as the result information.
前記撮影画像から使用者の画像サイズを解析する画像サイズ解析手段と、
当該画像サイズ解析手段によって解析された前記画像サイズが第1閾値以上であるか否かを判断する第1画像サイズ判断手段と
を備え、
前記意志表示するための動作は、
使用者の身体動作であるジェスチャーと、
使用者に視線を前記表示画面上で予め決められた領域内に向けさせる視線動作と
であって、
前記動作情報は、
使用者の意見の種類毎に、前記ジェスチャーを割り当てると共に、前記ジェスチャーの種類を前記端末毎に異ならせた第1動作情報と、
使用者の意見の種類毎に、前記表示画面上で前記視線を向けさせる領域を割り当てると共に、前記領域の位置を前記端末毎に異ならせた第2動作情報と
を備え、
前記動作種類特定手段は、
使用者の前記ジェスチャーを特定するジェスチャー特定手段と、
使用者の前記表示画面上の前記視線が向けられた領域を特定する視線領域特定手段と
を備え、
前記動作表示制御手段は、
前記画像サイズが第1閾値未満であると判断された場合は、前記第1動作情報を前記表示画面に表示させ、
前記画像サイズが前記第1閾値以上であると判断された場合は、前記第2動作情報を前記表示画面に表示させることを特徴とする請求項2乃至4の何れかに記載の会議装置。
Image size analysis means for analyzing the image size of the user from the captured image;
First image size determination means for determining whether or not the image size analyzed by the image size analysis means is greater than or equal to a first threshold;
The action for displaying the will is:
Gestures that are the user's physical movements,
A line-of-sight operation that directs the user to line of sight within a predetermined area on the display screen,
The operation information is
Assigning the gesture for each type of opinion of the user, and the first action information that makes the type of gesture different for each terminal;
For each type of user's opinion, the second operation information that assigns an area for directing the line of sight on the display screen, and that makes the position of the area different for each terminal,
The operation type specifying means includes:
A gesture specifying means for specifying the gesture of the user;
A line-of-sight area specifying means for specifying an area to which the line of sight is directed on the display screen of the user,
The operation display control means includes
When it is determined that the image size is less than the first threshold, the first operation information is displayed on the display screen,
The conference apparatus according to claim 2, wherein when it is determined that the image size is equal to or larger than the first threshold, the second operation information is displayed on the display screen.
前記撮影画像から使用者の視線方向を検出する視線方向検出手段と、
使用者と前記表示画面との位置関係の情報である位置関係情報を記憶する位置関係情報記憶手段と、
当該位置関係情報記憶手段に記憶された前記位置関係情報に基づき、前記視線方向検出手段によって検出された視線方向の先にある前記表示画面上における視線位置を特定する視線位置特定手段と
を備え、
前記視線領域特定手段は、
前記視線位置特定手段によって特定される前記視線位置に基づき、前記表示画面に前記意見の種類毎に割り当てられた領域のうち、前記視線が向けられた領域を特定することを特徴とする請求項5に記載の会議装置。
Gaze direction detecting means for detecting the gaze direction of the user from the captured image;
Positional relationship information storage means for storing positional relationship information that is information on the positional relationship between the user and the display screen;
Line-of-sight position specifying means for specifying a line-of-sight position on the display screen ahead of the line-of-sight direction detected by the line-of-sight direction based on the position relation information stored in the position relation information storage means,
The line-of-sight area specifying means includes
6. The region to which the line of sight is directed is specified from among regions allocated to the display screen for each type of opinion based on the line-of-sight position specified by the line-of-sight position specifying unit. The conference device described in 1.
前記画像サイズ解析手段によって解析された前記画像サイズが、前記第1閾値よりも小さい第2閾値未満であるか否かを判断する第2画像サイズ判断手段を備え、
前記動作表示制御手段は、
前記第1画像サイズ判断手段によって、前記画像サイズが前記第1閾値以上と判断された場合は、前記第2動作情報のみを前記表示画面に表示させ、
前記第2画像サイズ判断手段によって、前記画像サイズが前記第2閾値未満と判断された場合は、前記第1動作情報のみを前記表示画面に表示させ、
前記第1画像サイズ判断手段によって、前記画像サイズが前記第1閾値未満と判断され、かつ前記第2画像サイズ判断手段によって、前記画像サイズが前記第2閾値以上と判断された場合は、前記第1動作情報および前記第2動作情報を前記表示画面に表示させることを特徴とする請求項5又は6に記載の会議装置。
Second image size determination means for determining whether or not the image size analyzed by the image size analysis means is less than a second threshold smaller than the first threshold;
The operation display control means includes
When the first image size determining means determines that the image size is greater than or equal to the first threshold, only the second operation information is displayed on the display screen,
When the second image size determination means determines that the image size is less than the second threshold, only the first operation information is displayed on the display screen,
When the first image size determining means determines that the image size is less than the first threshold and the second image size determining means determines that the image size is equal to or greater than the second threshold, 7. The conference apparatus according to claim 5, wherein the first operation information and the second operation information are displayed on the display screen.
前記結果情報は、前記動作画像を含むことを特徴とする請求項1乃至7の何れかに記載の会議装置。   The conference apparatus according to claim 1, wherein the result information includes the operation image. 前記結果情報記憶手段には、
前記議題の情報である議題情報と、当該議題情報に関連する前記結果情報とが対応付けられて記憶されることを特徴とする請求項1乃至8の何れかに記載の会議装置。
In the result information storage means,
9. The conference apparatus according to claim 1, wherein agenda information, which is information on the agenda, and the result information related to the agenda information are stored in association with each other.
通信回線を介して複数の端末に接続可能な会議装置の会議支援方法あって、
前記複数の端末の撮影手段から出力された使用者の撮影画像を合成して、各端末の前記撮影画像を組み合わせたマルチ画像を表示画面に表示する表示ステップと、
複数の前記端末の使用者間で開催される会議において、前記会議装置が前記会議の議長として機能する場合に、前記端末に多数決を指示する多数決指示ステップと、
当該多数決指示ステップにおいて前記端末に多数決を指示した場合に、多数決を行う際の使用者の意見の種類毎に意志表示するための動作を各端末毎に割り当てる動作割り当てステップと、
前記端末から前記割り当て手段によって割り当てられた動作で意思表示した使用者の意見の集計結果の情報である結果情報を取得する結果情報取得ステップと、
当該結果情報取得ステップにおいて取得された前記結果情報を結果情報記憶手段に記憶させる結果情報記憶ステップと、
当該結果情報記憶ステップにおいて前記結果情報記憶手段に記憶された前記結果情報を出力する結果情報出力ステップと
を備えたことを特徴とする会議装置の会議支援方法。
There is a conference support method for a conference device that can be connected to a plurality of terminals via a communication line.
A display step of combining the captured images of the users output from the imaging means of the plurality of terminals and displaying a multi-image combining the captured images of each terminal on a display screen;
In a conference held between a plurality of users of the terminals, when the conference device functions as the chairman of the conference, a majority instruction step for instructing the terminal to perform a majority vote;
When assigning a majority vote to the terminal in the majority decision instruction step, an operation assignment step for assigning an action for displaying each will for each type of user opinion when making a majority vote,
A result information acquisition step of acquiring result information that is information on a result of a user's opinion totalization displayed by the operation assigned by the assigning unit from the terminal;
A result information storage step for storing the result information acquired in the result information acquisition step in a result information storage means;
A result information output step of outputting the result information stored in the result information storage means in the result information storage step.
請求項1乃至9の何れかに記載の会議装置の各種処理手段として、コンピュータを機能させることを特徴とする会議装置の会議支援プログラム。   A conference support program for a conference apparatus, comprising: a computer functioning as the various processing means of the conference apparatus according to claim 1.
JP2009083869A 2009-03-31 2009-03-31 Conference device, conference support method, and conference support program Pending JP2010239327A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009083869A JP2010239327A (en) 2009-03-31 2009-03-31 Conference device, conference support method, and conference support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009083869A JP2010239327A (en) 2009-03-31 2009-03-31 Conference device, conference support method, and conference support program

Publications (1)

Publication Number Publication Date
JP2010239327A true JP2010239327A (en) 2010-10-21

Family

ID=43093291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009083869A Pending JP2010239327A (en) 2009-03-31 2009-03-31 Conference device, conference support method, and conference support program

Country Status (1)

Country Link
JP (1) JP2010239327A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012023595A (en) * 2010-07-15 2012-02-02 Konica Minolta Business Technologies Inc Conference system
JP2013073395A (en) * 2011-09-27 2013-04-22 Hitachi Systems Ltd Automatic character display system
WO2013115541A1 (en) * 2012-02-03 2013-08-08 삼성에스디에스 주식회사 Terminal, image communication control server, and system and method for image communication using same
JP2015084514A (en) * 2013-09-17 2015-04-30 株式会社リコー Information processing system, input/output device, program, and authentication method
JP2015187856A (en) * 2014-03-14 2015-10-29 本田技研工業株式会社 Motion estimation device, robot, and motion estimation method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012023595A (en) * 2010-07-15 2012-02-02 Konica Minolta Business Technologies Inc Conference system
JP2013073395A (en) * 2011-09-27 2013-04-22 Hitachi Systems Ltd Automatic character display system
WO2013115541A1 (en) * 2012-02-03 2013-08-08 삼성에스디에스 주식회사 Terminal, image communication control server, and system and method for image communication using same
US9307194B2 (en) 2012-02-03 2016-04-05 Samsung Sds Co., Ltd. System and method for video call
JP2015084514A (en) * 2013-09-17 2015-04-30 株式会社リコー Information processing system, input/output device, program, and authentication method
JP2015187856A (en) * 2014-03-14 2015-10-29 本田技研工業株式会社 Motion estimation device, robot, and motion estimation method

Similar Documents

Publication Publication Date Title
US10013805B2 (en) Control of enhanced communication between remote participants using augmented and virtual reality
US10255482B2 (en) Interactive display for facial skin monitoring
US20200249751A1 (en) User input processing with eye tracking
US7506979B2 (en) Image recording apparatus, image recording method and image recording program
US10424116B2 (en) Display apparatus and controlling method thereof
JP6750504B2 (en) Information processing apparatus, information processing method, and program
US9498123B2 (en) Image recording apparatus, image recording method and image recording program stored on a computer readable medium
JP2009193323A (en) Display apparatus
CN104469256A (en) Immersive and interactive video conference room environment
JP6747446B2 (en) Information processing apparatus, information processing method, and program
JP2010239327A (en) Conference device, conference support method, and conference support program
US8150118B2 (en) Image recording apparatus, image recording method and image recording program stored on a computer readable medium
US20110279665A1 (en) Image recording apparatus, image recording method and image recording program
KR100998617B1 (en) Central control type cbt system and method thereof
JP2010239583A (en) Communication terminal unit, method of controlling communication of communication terminal unit, and communication control program
CN204721476U (en) Immersion and interactively video conference room environment
US9621847B2 (en) Terminal, system, display method, and recording medium storing a display program
JP7206741B2 (en) HEALTH CONDITION DETERMINATION SYSTEM, HEALTH CONDITION DETERMINATION DEVICE, SERVER, HEALTH CONDITION DETERMINATION METHOD, AND PROGRAM
JP2009175745A (en) Face image photographing device and face image photographing method
JP2013197766A (en) Remote conference system, conference support device, and conference support method
JP2010237884A (en) Device, method, and program for controlling display
JP2019153205A (en) Projection system and control method therefor, and program
JP2006079533A (en) Information processor, information processing method, and computer program
TWI809604B (en) Video conference device and operation method thereof
Guntz et al. Multimodal observation and interpretation of subjects engaged in problem solving