JP2010239327A - Conference device, conference support method, and conference support program - Google Patents
Conference device, conference support method, and conference support program Download PDFInfo
- Publication number
- JP2010239327A JP2010239327A JP2009083869A JP2009083869A JP2010239327A JP 2010239327 A JP2010239327 A JP 2010239327A JP 2009083869 A JP2009083869 A JP 2009083869A JP 2009083869 A JP2009083869 A JP 2009083869A JP 2010239327 A JP2010239327 A JP 2010239327A
- Authority
- JP
- Japan
- Prior art keywords
- information
- image
- terminal
- line
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、画像を介して多数決を行うことができる会議装置、会議支援方法、会議支援プログラムに関する。 The present invention relates to a conference apparatus, a conference support method, and a conference support program that can make a majority decision via an image.
従来、複数の端末装置をネットワークを介して接続し、画像と音声を双方向に送受信することで、遠隔の地にある者同士の会議を実現するテレビ会議システムが知られている。テレビ会議では、議長が会議参加者の意見を取り上げ、議題について決議を行うことがある。話し合いがつかない場合、多数決で決議を採ることが多い。ところが、テレビ会議の場合、他拠点の意見が映像又は音声で知ってしまうことがあり、自拠点の判断に影響が出ることがあった。 2. Description of the Related Art Conventionally, there has been known a video conference system in which a plurality of terminal devices are connected via a network and images and sound are bidirectionally transmitted and received to realize a conference between persons in remote locations. In video conferences, the chair may pick up the opinions of the participants and make a resolution on the agenda. When discussions are not possible, decisions are often made by majority vote. However, in the case of a video conference, the opinions of other bases may be known by video or audio, which may affect the judgment of the local base.
そこで、例えば、テレビ会議端末側に肯定または否定を表明する操作ボタン装置を設けるとともに、システム制御側にこの操作ボタン装置の出力から票決画面を構成する画面合成装置を設け、操作ボタン装置の押下により票決画面上に肯定意見、否定意見を色別に表示する多地点間テレビ会議システムが知られている(例えば、特許文献1参照)。 Therefore, for example, an operation button device that asserts affirmation or denial is provided on the video conference terminal side, and a screen composition device that configures a vote screen from the output of this operation button device is provided on the system control side, and by pressing the operation button device A multipoint video conference system that displays positive opinions and negative opinions on a vote screen by color is known (see, for example, Patent Document 1).
しかしながら、特許文献1に記載の多地点間テレビ会議システムでは、各拠点において会議参加者が複数人いる場合、会議参加者に対応する数だけ操作ボタンを用意しなければならず、構成が複雑という問題点があった。また、誰がどの意見を持っているかの閲覧、記録をするためには、操作ボタンと使用者との対応付けをしなければならず、使用者が代わる度に更新しなければならなかった。
However, in the multipoint video conference system described in
本発明は、上記課題を解決するためになされたものであり、構成が簡単で、他拠点の意見に影響されない信頼性のある多数決を行うことができる会議装置、会議支援方法、会議支援プログラムを提供することを目的とする。 The present invention has been made in order to solve the above-described problem, and provides a conference device, a conference support method, and a conference support program that have a simple configuration and can make a reliable majority decision that is not affected by the opinions of other bases. The purpose is to provide.
上記目的を達成するために、請求項1に係る発明の会議装置は、通信回線を介して複数の端末に接続可能な会議装置であって、前記複数の端末の撮影手段から出力された使用者の撮影画像を合成して、各端末の前記撮影画像を組み合わせたマルチ画像を表示画面に表示する表示手段と、複数の前記端末の使用者間で開催される会議において、前記会議装置が前記会議の議長として機能する場合に、前記端末に多数決を指示する多数決指示手段と、当該多数決指示手段によって前記端末に多数決を指示した場合に、多数決を行う際の使用者の意見の種類毎に意志表示するための動作を各端末毎に割り当てる割り当て手段と、前記端末毎に、前記割り当て手段によって割り当てられた動作で意思表示した使用者の意見の集計結果の情報である結果情報を取得する結果情報取得手段と、当該結果情報取得手段により取得された前記結果情報を記憶する結果情報記憶手段と、当該結果情報記憶手段に記憶された前記結果情報を出力する結果情報出力手段とを備えている。 In order to achieve the above object, the conference device according to the first aspect of the present invention is a conference device that can be connected to a plurality of terminals via a communication line, and is a user output from the photographing means of the plurality of terminals. In a conference held between a display unit that combines the captured images of each terminal and displays a multi-image combining the captured images of each terminal on a display screen, and a plurality of users of the terminals, the conference device includes the conference When a majority vote is instructed to the terminal when the majority vote is instructed to the terminal by the majority vote instruction means, the intention display is made for each type of opinion of the user when making a majority vote. An allocation unit that allocates an operation for performing each operation to each terminal, and a result that is information on a total result of a user's opinion expressed intentionally by the operation allocated by the allocation unit for each terminal Result information acquisition means for acquiring information, result information storage means for storing the result information acquired by the result information acquisition means, and result information output means for outputting the result information stored in the result information storage means And.
また、請求項2に係る発明の会議装置は、請求項1に記載の発明の構成に加え、前記割り当て手段は、前記動作の種類の情報である種類情報を前記端末毎に異ならせた動作情報として記憶する動作情報記憶手段と、当該動作情報記憶手段に記憶された前記動作情報を複数の前記端末にそれぞれ送信する動作情報送信手段とを備えている。 According to a second aspect of the present invention, in the conference apparatus according to the second aspect of the invention, in addition to the configuration of the first aspect of the invention, the allocating unit has the operation information in which the type information that is the type of operation is different for each terminal. Operation information storage means for storing the operation information, and operation information transmission means for transmitting the operation information stored in the operation information storage means to each of the plurality of terminals.
また、請求項3に係る発明の会議装置は、請求項2に記載の発明の構成に加え、前記複数の端末のうち前記議長として機能する端末である議長端末から送信された前記動作情報を受信する動作情報受信手段と、当該動作情報受信手段によって受信された前記動作情報を前記表示画面に表示させる動作表示制御手段とを備えている。 According to a third aspect of the present invention, there is provided a conference device that receives the operation information transmitted from a chairman terminal that is a terminal functioning as the chairman of the plurality of terminals, in addition to the configuration of the second invention. Operation information receiving means, and operation display control means for displaying the operation information received by the operation information receiving means on the display screen.
また、請求項4に係る発明の会議装置は、請求項2又は3に記載の発明の構成に加え、前記撮影手段によって撮影された撮影画像から使用者を認識する使用者認識手段と、当該使用者認識手段によって認識された使用者が、前記表示画面に表示された前記動作情報に従って動作した際の動作画像を記憶する動作画像記憶手段と、当該動作画像記憶手段に記憶された前記動作画像に基づき、前記使用者認識手段によって認識された使用者が前記動作情報に従って行った動作の種類を、使用者毎に特定する動作種類特定手段と、当該動作種類特定手段によって特定された前記動作の種類が示す前記意見の種類を、前記動作情報受信手段によって受信された前記動作情報から特定する意見種類特定手段と、当該意見種類特定手段によって特定された前記意見の種類毎に、使用者の数を集計する意見集計手段と、当該意見集計手段によって集計された結果の情報を、前記結果情報として前記端末に送信する結果情報送信手段とを備えている。 According to a fourth aspect of the present invention, there is provided a conference device according to the second or third aspect of the invention, in addition to the user recognition means for recognizing a user from a photographed image photographed by the photographing means; An action image storage means for storing an action image when the user recognized by the person recognition means operates according to the action information displayed on the display screen; and the action image stored in the action image storage means. Based on the action information specified by the user recognition means, the action type specifying means for specifying the type of action performed by the user according to the action information for each user, and the action type specified by the action type specifying means The opinion type specified by the opinion type specifying means for specifying the type of opinion indicated by the action information received by the action information receiving means, and the opinion type specifying means Opinion totaling means for totaling the number of users for each type of written opinion, and result information transmitting means for transmitting information on the results totaled by the opinion totaling means to the terminal as the result information .
また、請求項5に係る発明の会議装置は、請求項2乃至4の何れかに記載の発明の構成に加え、前記撮影画像から使用者の画像サイズを解析する画像サイズ解析手段と、当該画像サイズ解析手段によって解析された前記画像サイズが第1閾値以上であるか否かを判断する第1画像サイズ判断手段とを備え、前記意志表示するための動作は、使用者の身体動作であるジェスチャーと、使用者に視線を前記表示画面上で予め決められた領域内に向けさせる視線動作とであって、前記動作情報は、使用者の意見の種類毎に、前記ジェスチャーを割り当てると共に、前記ジェスチャーの種類を前記端末毎に異ならせた第1動作情報と、使用者の意見の種類毎に、前記表示画面上で前記視線を向けさせる領域を割り当てると共に、前記領域の位置を前記端末毎に異ならせた第2動作情報とを備え、前記動作種類特定手段は、使用者の前記ジェスチャーを特定するジェスチャー特定手段と、使用者の前記表示画面上の前記視線が向けられた領域を特定する視線領域特定手段とを備え、前記動作表示制御手段は、前記画像サイズが第1閾値未満であると判断された場合は、前記第1動作情報を前記表示画面に表示させ、前記画像サイズが前記第1閾値以上であると判断された場合は、前記第2動作情報を前記表示画面に表示させることを特徴とする。 According to a fifth aspect of the present invention, there is provided a conference apparatus according to any one of the second to fourth aspects, an image size analyzing means for analyzing a user image size from the photographed image, and the image. First image size determining means for determining whether or not the image size analyzed by the size analyzing means is greater than or equal to a first threshold, and the action for displaying the intention is a gesture that is a user's physical action And a line-of-sight motion that directs the user to a predetermined area on the display screen, wherein the motion information assigns the gesture for each type of opinion of the user, and the gesture Assigning a region for directing the line of sight on the display screen for each type of user's opinion and the first operation information with different types for each terminal, and the position of the region Second action information that varies from end to end, and the action type specifying means includes a gesture specifying means for specifying the user's gesture, and an area to which the user's line of sight is directed on the display screen. Eye movement area specifying means for specifying, and when the image display size is determined to be less than a first threshold, the action display control means displays the first action information on the display screen, and Is determined to be greater than or equal to the first threshold, the second operation information is displayed on the display screen.
また、請求項6に係る発明の会議装置は、請求項5に記載の発明の構成に加え、前記撮影画像から使用者の視線方向を検出する視線方向検出手段と、使用者と前記表示画面との位置関係の情報である位置関係情報を記憶する位置関係情報記憶手段と、当該位置関係情報記憶手段に記憶された前記位置関係情報に基づき、前記視線方向検出手段によって検出された視線方向の先にある前記表示画面上における視線位置を特定する視線位置特定手段とを備え、前記視線領域特定手段は、前記視線位置特定手段によって特定される前記視線位置に基づき、前記表示画面に前記意見の種類毎に割り当てられた領域のうち、前記視線が向けられた領域を特定することを特徴とする。 According to a sixth aspect of the present invention, there is provided a conference apparatus according to the fifth aspect of the invention, in addition to the configuration of the fifth aspect of the invention, a gaze direction detecting means for detecting a gaze direction of the user from the captured image, a user, and the display screen. A positional relationship information storage unit that stores positional relationship information that is information on the positional relationship of the image, and a line-of-sight direction detected by the line-of-sight direction detection unit based on the positional relationship information stored in the positional relationship information storage unit A line-of-sight position specifying unit for specifying a line-of-sight position on the display screen, wherein the line-of-sight region specifying unit is configured to display the type of opinion on the display screen based on the line-of-sight position specified by the line-of-sight position specifying unit A region to which the line of sight is directed is specified from among regions assigned for each.
また、請求項7に係る発明の会議装置は、請求項5又は6に記載の発明の構成に加え、前記画像サイズ解析手段によって解析された前記画像サイズが、前記第1閾値よりも小さい第2閾値未満であるか否かを判断する第2画像サイズ判断手段を備え、前記動作表示制御手段は、前記第1画像サイズ判断手段によって、前記画像サイズが前記第1閾値以上と判断された場合は、前記第2動作情報のみを前記表示画面に表示させ、前記第2画像サイズ判断手段によって、前記画像サイズが前記第2閾値未満と判断された場合は、前記第1動作情報のみを前記表示画面に表示させ、前記第1画像サイズ判断手段によって、前記画像サイズが前記第1閾値未満と判断され、かつ前記第2画像サイズ判断手段によって、前記画像サイズが前記第2閾値以上と判断された場合は、前記第1動作情報および前記第2動作情報を前記表示画面に表示させることを特徴とする。 According to a seventh aspect of the present invention, there is provided the conference device according to the fifth aspect, wherein the image size analyzed by the image size analyzing means is smaller than the first threshold value. A second image size determining unit configured to determine whether or not the image size is less than a threshold; and the operation display control unit is configured to determine whether the image size is equal to or larger than the first threshold by the first image size determining unit. Only the second motion information is displayed on the display screen, and when the second image size determination means determines that the image size is less than the second threshold, only the first motion information is displayed on the display screen. And the first image size determination means determines that the image size is less than the first threshold value, and the second image size determination means determines the image size to be less than or equal to the second threshold value. If he is determined that, and wherein the displaying the first operation information and second operation information on the display screen.
また、請求項8に係る発明の会議装置は、請求項1乃至7の何れかに記載の発明の構成に加え、前記結果情報は、前記動作画像を含むことを特徴とする According to an eighth aspect of the present invention, in addition to the configuration of the first aspect of the present invention, the result information includes the action image.
また、請求項9に係る発明の会議装置は、請求項1乃至8の何れかに記載の発明の構成に加え、前記結果情報記憶手段には、前記議題の情報である議題情報と、当該議題情報に関連する前記結果情報とが対応付けられて記憶されることを特徴とする。
In addition to the configuration of the invention according to any one of
また、請求項10に係る発明の会議支援方法は、通信回線を介して複数の端末に接続可能な会議装置の会議支援方法あって、前記複数の端末の撮影手段から出力された使用者の撮影画像を合成して、各端末の前記撮影画像を組み合わせたマルチ画像を表示画面に表示する表示ステップと、複数の前記端末の使用者間で開催される会議において、前記会議装置が前記会議の議長として機能する場合に、前記端末に多数決を指示する多数決指示ステップと、当該多数決指示ステップにおいて前記端末に多数決を指示した場合に、多数決を行う際の使用者の意見の種類毎に意志表示するための動作を各端末毎に割り当てる動作割り当てステップと、前記端末から前記割り当て手段によって割り当てられた動作で意思表示した使用者の意見の集計結果の情報である結果情報を取得する結果情報取得ステップと、当該結果情報取得ステップにおいて取得された前記結果情報を結果情報記憶手段に記憶させる結果情報記憶ステップと、当該結果情報記憶ステップにおいて前記結果情報記憶手段に記憶された前記結果情報を出力する結果情報出力ステップとを備えている。 According to a tenth aspect of the present invention, there is provided a conference support method for a conference apparatus that can be connected to a plurality of terminals via a communication line, and the user's image output from the imaging means of the plurality of terminals. In a display step of combining images and displaying a multi-image combining the captured images of each terminal on a display screen, and a conference held between users of the plurality of terminals, the conference device is the chairman of the conference In order to display a will for each type of opinion of the user when making a majority decision when a majority decision is instructed to the terminal in the majority instruction step. Assignment step for assigning the operation of each terminal to each terminal, and the result of counting the opinions of the users who indicated their intention by the operation assigned by the assigning means from the terminal A result information acquisition step for acquiring result information as information, a result information storage step for storing the result information acquired in the result information acquisition step in a result information storage means, and the result information storage step in the result information storage step A result information output step for outputting the result information stored in the means.
また、請求項11に係る発明の会議支援プログラムは、請求項1乃至9の何れかに記載の会議装置の各種処理手段として、コンピュータを機能させることを特徴とする。 According to an eleventh aspect of the present invention, a conference support program causes a computer to function as various processing means of the conference apparatus according to any one of the first to ninth aspects.
請求項1に係る発明の会議装置では、表示手段は、複数の端末の撮影手段から出力された使用者の撮影画像を合成して、各端末の撮影画像を組み合わせたマルチ画像が表示画面に表示する。多数決指示手段は、複数の前記端末の使用者間で開催される会議において、前記会議装置が前記会議の議長として機能する場合に端末に多数決を指示する。割り当て手段は、多数決指示手段によって端末に多数決を指示した場合に、多数決を行う際の使用者の意見の種類毎に意志表示するための動作を各端末毎に割り当てる。意思表示のための動作を割り当てることができるので、例えば、端末毎に動作の種類を異ならせることによって、表示画面に表示されたマルチ画面に映る他拠点の使用者は、自拠点と異なる動作で意見を示すので、自拠点の意見が左右されない。結果情報取得手段は、端末から割り当て手段によって割り当てられた動作で意思表示した使用者の意見の集計結果の情報である結果情報を取得する。結果情報記憶手段は、結果情報取得手段により取得された結果情報を記憶する。結果情報出力手段は、結果情報記憶手段に記憶された結果情報を出力する。これにより、各拠点の多数決の集計結果を閲覧することができる。 In the conference device according to the first aspect of the present invention, the display means combines the photographed images of the users output from the photographing means of the plurality of terminals, and displays a multi-image combining the captured images of the terminals on the display screen. To do. The majority instruction means instructs a terminal to vote when the conference device functions as the chairperson of the conference in a conference held between a plurality of users of the terminals. The allocating unit allocates, for each terminal, an operation for displaying a will for each type of opinion of the user when performing the majority voting when the majority voting is instructed by the majority deciding unit. Since the operation for displaying the intention can be assigned, for example, by changing the type of operation for each terminal, users at other sites appearing on the multi-screen displayed on the display screen can operate differently from their own sites. Because it shows an opinion, the opinion of your site is not affected. The result information acquisition means acquires result information which is information on the total result of the opinions of the user who intentionally displayed by the operation assigned by the assignment means from the terminal. The result information storage means stores the result information acquired by the result information acquisition means. The result information output means outputs the result information stored in the result information storage means. Thereby, the totalization result of the majority decision of each base can be browsed.
また、請求項2に係る発明の会議装置では、請求項1に記載の発明の効果に加え、割り当て手段は、動作情報記憶手段と、動作情報送信手段とを備えている。動作情報記憶手段は、動作の種類の情報である種類情報を端末毎に異ならせた動作情報として記憶する。動作情報送信手段は、動作情報記憶手段に記憶された動作情報を複数の端末にそれぞれ送信する。これにより、各端末に送信される動作情報に基づいて各拠点で多数決が行われるので、多数決を行う際の使用者の意見の種類毎に意志表示するための動作を各端末毎に割り当てることができる。 In the conference apparatus according to the second aspect of the present invention, in addition to the effect of the first aspect of the invention, the assigning means includes an operation information storage means and an operation information transmission means. The operation information storage means stores the type information, which is information about the type of operation, as operation information that is different for each terminal. The operation information transmitting unit transmits the operation information stored in the operation information storage unit to each of the plurality of terminals. As a result, a majority decision is made at each site based on the operation information transmitted to each terminal, and therefore an operation for displaying a will for each type of opinion of the user when making a majority decision can be assigned to each terminal. it can.
また、請求項3に係る発明の会議装置では、請求項2に記載の発明の効果に加え、動作情報受信手段は、複数の端末のうち議長として機能する端末である議長端末から送信された動作情報を受信する。動作表示制御手段は、動作情報受信手段によって受信された動作情報を表示画面に表示させる。これにより、各拠点の使用者に、表示画面に表示された動作情報に基づき、自己の意見に対応する動作を行せることができる。 Further, in the conference device according to the third aspect of the present invention, in addition to the effect of the second aspect of the invention, the operation information receiving means is an operation transmitted from a chairman terminal which is a terminal functioning as the chairman among a plurality of terminals. Receive information. The operation display control unit displays the operation information received by the operation information receiving unit on the display screen. Thereby, the user of each base can perform an operation corresponding to his / her opinion based on the operation information displayed on the display screen.
また、請求項4に係る発明の会議装置では、請求項2又は3に記載の発明の効果に加え、使用者認識手段は、撮影手段によって撮影された撮影画像から使用者を認識する。動作画像記憶手段は、使用者認識手段によって認識された使用者が、表示画面に表示された動作情報に従って動作した際の動作画像を記憶する。動作種類特定手段は、動作画像記憶手段に記憶された動作画像に基づき、使用者認識手段によって認識された使用者が動作情報に従って行った動作の種類を使用者毎に特定する。意見種類特定手段は、動作種類特定手段によって特定された動作の種類が示す意見の種類を、動作情報受信手段によって受信された動作情報から特定する。意見集計手段は、意見種類特定手段によって特定された意見の種類毎に使用者の数を集計する。結果情報送信手段は、意見集計手段によって集計された結果の情報を結果情報として端末に送信する。これにより、動作情報を送信した議長端末に対して、その動作情報に基づいた動作で意見を示した結果情報を送信できる。 In the conference apparatus according to the fourth aspect of the invention, in addition to the effect of the invention according to the second or third aspect, the user recognition means recognizes the user from the photographed image photographed by the photographing means. The action image storage means stores an action image when the user recognized by the user recognition means operates according to the action information displayed on the display screen. The action type specifying means specifies, for each user, the kind of action performed by the user recognized by the user recognition means according to the action information, based on the action image stored in the action image storage means. The opinion type specifying means specifies the type of opinion indicated by the type of action specified by the action type specifying means from the action information received by the action information receiving means. The opinion counting means counts the number of users for each type of opinion specified by the opinion type specifying means. The result information transmitting unit transmits the information of the results totaled by the opinion totaling unit to the terminal as result information. As a result, it is possible to transmit the result information indicating the opinion by the operation based on the operation information to the chairman terminal that transmitted the operation information.
また、請求項5に係る発明の会議装置では、請求項2乃至4の何れかに記載の発明の効果に加え、画像サイズ解析手段は、撮影画像から使用者の画像サイズを解析する。第1画像サイズ判断手段は、画像サイズ解析手段によって解析された画像サイズが第1閾値以上であるか否かを判断する。意志表示するための動作は、使用者の身体動作であるジェスチャーと、使用者に視線を前記表示画面上で予め決められた領域内に向けさせる視線動作とである。動作情報は、第1動作情報と、第2動作情報とを備えている。第1動作情報は、使用者の意見の種類毎に、ジェスチャーを割り当てると共に、そのジェスチャーの種類を端末毎に異ならせたものである。第2動作情報は、使用者の意見の種類毎に、表示画面上で視線を向けさせる領域を割り当てると共に、領域の位置を前記端末毎に異ならせたものである。動作種類特定手段は、ジェスチャー特定手段と、視線領域特定手段とを備えている。ジェスチャー特定手段は、使用者のジェスチャーを特定する。視線領域特定手段は、使用者の表示画面上の視線が向けられた領域を特定する。動作表示制御手段は、画像サイズが第1閾値未満であると判断された場合は、表示画面に映し出される使用者の画像サイズが小さいので、使用者の動作を判別し易くするため、ジェスチャーに基づいた第1動作情報を表示画面に表示させる。一方、画像サイズが第1閾値以上であると判断された場合は、表示画面に映し出される使用者のサイズは大きいので、視線に基づいた第2動作情報を表示画面に表示させる。このように、表示画面に映し出される使用者の画像サイズに基づき、第1動作情報又は第2動作情報を使い分けることができるので、使用者の動作を撮影画像から正確かつ容易に検出できる。 In the conference apparatus according to the fifth aspect of the invention, in addition to the effect of the invention according to any one of the second to fourth aspects, the image size analyzing means analyzes the image size of the user from the photographed image. The first image size determining means determines whether or not the image size analyzed by the image size analyzing means is greater than or equal to a first threshold value. The action for intention display is a gesture that is a user's body action and a line-of-sight action that causes the user to turn the line of sight into a predetermined area on the display screen. The motion information includes first motion information and second motion information. The first operation information is obtained by assigning a gesture for each type of opinion of the user and making the type of gesture different for each terminal. The second operation information is obtained by assigning an area in which a line of sight is directed on the display screen for each type of opinion of the user, and changing the position of the area for each terminal. The action type specifying unit includes a gesture specifying unit and a line-of-sight area specifying unit. The gesture specifying means specifies a user's gesture. The line-of-sight area specifying means specifies an area where the line of sight on the display screen of the user is directed. When it is determined that the image size is less than the first threshold, the motion display control means is based on a gesture to facilitate the determination of the user's motion because the user's image size displayed on the display screen is small. The first operation information is displayed on the display screen. On the other hand, when it is determined that the image size is equal to or larger than the first threshold, the size of the user displayed on the display screen is large, and therefore the second motion information based on the line of sight is displayed on the display screen. As described above, since the first motion information or the second motion information can be properly used based on the image size of the user displayed on the display screen, the user's motion can be accurately and easily detected from the captured image.
また、請求項6に係る発明の会議装置では、請求項5に記載の発明の効果に加え、視線方向検出手段は、撮影画像から使用者の視線方向を検出する。位置関係情報記憶手段は、使用者と表示画面との位置関係の情報である位置関係情報を記憶する。視線位置特定手段は、位置関係情報記憶手段に記憶された位置関係情報に基づき、視線方向検出手段によって検出された視線方向の先にある表示画面上における視線位置を特定する。視線領域特定手段は、視線位置特定手段によって特定される視線位置に基づき、表示画面に意見の種類毎に割り当てられた領域のうち視線が向けられた領域を特定する。これにより、使用者は視線位置で自己の意見を示すことができる。 In the conference apparatus according to the sixth aspect of the invention, in addition to the effect of the fifth aspect of the invention, the gaze direction detecting means detects the gaze direction of the user from the photographed image. The positional relationship information storage means stores positional relationship information that is information on the positional relationship between the user and the display screen. The line-of-sight position specifying unit specifies the line-of-sight position on the display screen ahead of the line-of-sight direction detected by the line-of-sight direction detection unit based on the positional relationship information stored in the positional relationship information storage unit. The line-of-sight area specifying means specifies an area to which the line of sight is directed among the areas allocated for each opinion type on the display screen based on the line-of-sight position specified by the line-of-sight position specifying means. Thereby, the user can show his / her opinion at the line-of-sight position.
また、請求項7に係る発明の会議装置では、請求項5又は6に記載の発明の効果に加え、第2画像サイズ判断手段は、画像サイズ解析手段によって解析された画像サイズが、第1閾値よりも小さい第2閾値未満であるか否かを判断する。動作表示制御手段は、第1画像サイズ判断手段によって、画像サイズが第1閾値以上と判断された場合は、第2動作情報のみを表示画面に表示させる。第2画像サイズ判断手段によって、画像サイズが第2閾値未満と判断された場合は、第1動作情報のみを表示画面に表示させる。第1画像サイズ判断手段によって、画像サイズが第1閾値未満と判断され、かつ第2画像サイズ判断手段によって、画像サイズが前記第2閾値以上と判断された場合は、第1動作情報および第2動作情報の両方を表示画面に表示させる。つまり、表示画面に映し出される使用者の画像サイズが、第2閾値以上、第1閾値未満の場合に、第1動作情報および第2動作情報の両方を表示画面に表示させるので、他拠点の使用者の動作から意見を推測することがさらに困難になる。これにより、他拠点の意見に影響されない信頼性のある多数決を行うことができる。 In the conference device according to the seventh aspect of the invention, in addition to the effect of the invention according to the fifth or sixth aspect, the second image size determining means is configured such that the image size analyzed by the image size analyzing means is the first threshold value. It is determined whether it is less than a second threshold value smaller than the second threshold value. The action display control means displays only the second action information on the display screen when the first image size determining means determines that the image size is equal to or larger than the first threshold value. When the second image size determining means determines that the image size is less than the second threshold, only the first operation information is displayed on the display screen. When the first image size determining means determines that the image size is less than the first threshold and the second image size determining means determines that the image size is equal to or greater than the second threshold, the first action information and the second Display both operation information on the display screen. That is, when the image size of the user displayed on the display screen is equal to or larger than the second threshold value and smaller than the first threshold value, both the first motion information and the second motion information are displayed on the display screen. It becomes more difficult to guess the opinion from the person's actions. This makes it possible to make a reliable majority vote that is not affected by the opinions of other bases.
また、請求項8に係る発明の会議装置では、請求項1乃至7の何れかに記載の発明の効果に加え、結果情報に含まれた動作画像から、使用者毎の意見を把握できる。 Further, in the conference device according to the eighth aspect of the invention, in addition to the effect of the invention according to any one of the first to seventh aspects, the opinion for each user can be grasped from the operation image included in the result information.
また、請求項9に係る発明の会議装置では、請求項1乃至8の何れかに記載の発明の効果に加え、結果情報記憶手段は、議題の情報である議題情報と、当該議題情報に関連する結果情報とを対応付けて記憶する。これにより、議題とその結果を有する議事録として記憶できる。
In the conference device of the invention according to claim 9, in addition to the effects of the invention according to any one of
また、請求項10に係る発明の会議支援方法では、表示ステップにおいて、複数の端末の撮影手段から出力された使用者の撮影画像を合成し、各端末の撮影画像を組み合わせたマルチ画像を表示画面に表示する。多数決指示ステップにおいて、複数の端末の使用者間で開催される会議において、会議装置が会議の議長として機能する場合に、端末に多数決を指示する。動作割り当てステップにおいて、多数決指示ステップにて端末に多数決を指示した場合に、多数決を行う際の使用者の意見の種類毎に意志表示するための動作を各端末毎に割り当てる。意思表示のための動作を割り当てることができるので、例えば、端末毎に動作の種類を異ならせることによって、表示画面に表示されたマルチ画面に映る他拠点の使用者は、自拠点と異なる動作で意見を示すので、自拠点の意見が左右されない。結果情報取得ステップにおいて、端末から動作割り当てステップにて割り当てられた動作で意思表示した使用者の意見の集計結果の情報である結果情報を取得する。結果情報記憶ステップにおいて、結果情報取得ステップにおいて取得された結果情報を結果情報記憶手段に記憶させる。結果情報出力ステップにおいて、結果情報記憶ステップにて結果情報記憶手段に記憶された結果情報を出力する。これにより、各拠点の多数決の集計結果を閲覧することができる。
In the conference support method of the invention according to
また、請求項11に係る発明の会議支援プログラムでは、請求項1乃至9の何れかに記載の会議装置の各種処理手段として、コンピュータを機能させるので、請求項1乃至9の何れかに記載に効果を得ることができる。
Further, in the conference support program of the invention according to
以下、本発明の一実施形態である端末装置3について、図面を参照して説明する。はじめに、端末装置3を構成とするテレビ会議システム1の構成について、図1,図2を参照して説明する。テレビ会議システム1は、ネットワーク2を介して相互に接続され、かつ各拠点毎に設けられた複数の端末装置3〜6を備えている。テレビ会議システム1では、端末装置3〜6間において、ネットワーク2を介して、画像、音声が互いに送受信されることで遠隔会議が実施される。
Hereinafter, a
各端末装置3〜6のディスプレイ28には、各拠点の撮像画像を映し出すマルチ画面が表示される。例えば、図3に示す端末装置4のディスプレイ28には、端末装置3の撮像画像が表示される分割画面281と、端末装置4の撮像画像が表示される分割画面282と、端末装置5の撮像画像が表示される分割画面283とが各々表示される。使用者は、このようなマルチ画面に映し出された他拠点の使用者の顔を見ながら会話ができる。分割画面の数は、会議に参加している端末装置の数に応じて設定される。なお、図3に示すディスプレイ28が本発明の「表示手段」に相当する。
On the
本実施形態では、このようなテレビ会議システム1において、議長端末として機能する端末装置3が、ある議題について多数決で決議を採る際に、端末装置4,5,6の各拠点に多数決の動作情報(ジェスチャー情報、視線領域情報)を送信する(図1参照)。その動作情報に従ってなされた多数決の集計情報(意見数データ、結果画像データ等)を各拠点から収集して記録できる(図2参照)。記録した結果は必要に応じてディスプレイ28に表示させることができる。なお、図1に示す端末装置3〜6が本発明の「会議装置」に相当する。
In the present embodiment, in such a
次に、端末装置3の電気的構成について、図4を参照して説明する。端末装置3〜6は全て同じ構成であるので、端末装置3の構成についてのみ説明し、端末装置4〜6については説明を省略する。
Next, the electrical configuration of the
端末装置3には、端末装置3の制御を司るコントローラとしてのCPU20が設けられている。CPU20には、BIOS等を記憶したROM21と、各種データを一時的に記憶するRAM22と、データの受け渡しの仲介を行うI/Oインタフェイス30とが接続されている。I/Oインタフェイス30には、各種記憶エリアを有するハードディスクドライブ31(以下、HDD31)が接続されている。
The
I/Oインタフェイス30には、ネットワーク2と通信するための通信装置25と、マウス27と、ビデオコントローラ23と、キーコントローラ24と、使用者を撮影するためのカメラ34と、使用者の音声を取り込むためのマイク35と、使用者の眼球に赤外線を照射する赤外線ライト37と、使用者の眼を撮像するCCDカメラ38と、CD−ROMドライブ26とが各々接続されている。ビデオコントローラ23には、ディスプレイ28が接続されている。キーコントローラ24には、キーボード29が接続されている。赤外線ライト37は、CCDカメラ38と同一位置に設けられている。CCDカメラ38はディスプレイ28の上端部に固定されている。CCDカメラ38及び赤外線ライト37は、各拠点の使用者の人数に応じて用意される。
The I /
なお、CD−ROMドライブ26に挿入されるCD−ROM114には、端末装置3のメインプログラムや、本発明の会議支援プログラム等が記憶されている。CD−ROM114の導入時には、これら各種プログラムが、CD−ROM114からHDD31にセットアップされて、後述するプログラム記憶エリア319(図5参照)に記憶される。
The CD-
次に、HDD31の各種記憶エリアについて、図5を参照して説明する。HDD31には、参加端末記憶エリア311と、ジェスチャーテーブル記憶エリア312と、視線領域テーブル記憶エリア313と、集計テーブル記憶エリア314と、全端末結果画像記憶エリア315と、全端末集計画像記憶エリア316と、ジェスチャー指示画像記憶エリア317と、人物画像動作パターン記憶エリア318と、プログラム記憶エリア319と、その他の情報記憶エリア320と、等が少なくとも設けられている。
Next, various storage areas of the
参加端末記憶エリア311には、会議に現在参加している端末装置の識別IDが記憶される。端末装置3で会議に参加する場合、参加を通知するログイン信号が他の各端末装置に各々送信される。ログイン信号を受信した端末装置3では、HDD31の参加端末記憶エリア311に、ログイン信号を送信した端末装置の識別IDが記憶される。これにより現在会議に参加している端末装置を管理できる。識別IDとして、例えばマックアドレス等が利用可能である。また、マックアドレスに対応する識別IDを予め記憶しておいてもよい。
The participation
ジェスチャーテーブル記憶エリア312には、ジェスチャーテーブル3121(図6参照)が記憶されている。視線領域テーブル記憶エリア313には、視線領域テーブル3131(図7参照)が記憶されている。集計テーブル記憶エリア314には、集計テーブル3151(図11参照)が記憶されている。全端末結果画像記憶エリア315には、各拠点の結果画像に議題を合成した全端末結果画像131(図25参照)が記憶される。全端末集計画像記憶エリア316には、集計テーブル3151に登録された各拠点の集計数をまとめた表に議題を付けた全端末集計画像130(図24参照)が記憶される。ジェスチャー指示画像記憶エリア317には、議長端末から送信されたジェスチャー情報に基づき、ディスプレイ28に表示させるジェスチャー指示画像(図示外)が記憶されている。
The gesture
人物画像動作パターン記憶エリア318には、カメラ34のカメラ画像によって撮像される画像において、ジェスチャーを行ったときの人物画像の領域F(図18参照)がジェスチャーのパターン毎に記憶されている。例えば、右手を挙げたときの人物画像領域F、左手を挙げたときの人物画像領域F、座ったときの人物画像領域F、立ったときの人物画像領域F等が予め記憶されている。各ジェスチャーパターン毎の人物画像領域Fは、人物画像解析において取得された人物画像領域Fとの比較による形状のパターンマッチングを行う。これにより、その人物がどのようなジェスチャーを行ったかを判別できる。なお、人物動作の動作を検出する方法は、この方法に限定することなく、種々の方法が可能である。
In the person image operation
プログラム記憶エリア319には、端末装置3のメインプログラムや、他の端末装置4〜6との間で遠隔会議を実行するための通信制御プログラム、多数決を行う際に実行される本発明の会議支援プログラム等が記憶されている。その他の情報記憶エリア320には、端末装置3で使用されるその他の情報が記憶されている。なお、端末装置3がHDD31を備えていない専用機の場合は、ROM21に各種プログラムが記憶される。
In the
次に、ジェスチャーテーブル3121について、図6を参照して説明する。ジェスチャーテーブル3121は、多数決を行う際に使用者に意志表示させるためのジェスチャーを示すジェスチャー情報を各拠点毎に記憶する。ジェスチャーテーブル3121には、端末ID欄61と、ジェスチャー欄62とが互いに対応づけられて設けられている。端末ID欄61には、自拠点以外の端末装置4〜6の端末IDが各々記憶されている。ジェスチャー欄62は、YES欄63と、NO欄64とに分けられている。
Next, the gesture table 3121 will be described with reference to FIG. The gesture table 3121 stores, for each base, gesture information indicating a gesture for displaying a will for a user when making a majority decision. In the gesture table 3121, a terminal ID column 61 and a
YES欄63には、使用者が「YES」の意志表示をする際のジェスチャーの種類が記憶されている。NO欄64には、使用者が「NO」の意志表示をする際のジェスチャーの種類が記憶されている。ジェスチャーの種類は、各端末装置毎に異ならせて記憶されている。
The
例えば、1行目の端末装置4(識別ID=002)では、「YES」に対応するジェスチャーは「右手挙手」、「NO」に対応するジェスチャーは「左手挙手」である。一方、2行目の端末装置5(識別ID=003)では、「YES」に対応するジェスチャーは「左手挙手」、「NO」に対応するジェスチャーは「右手挙手」である。さらに、3行目の端末装置4(識別ID=004)では、「YES」に対応するジェスチャーは「起立」、「NO」に対応するジェスチャーは「両手挙手」である。 For example, in the terminal device 4 (identification ID = 002) in the first row, the gesture corresponding to “YES” is “right hand raised” and the gesture corresponding to “NO” is “left hand raised”. On the other hand, in the terminal device 5 (identification ID = 003) in the second row, the gesture corresponding to “YES” is “left hand raised” and the gesture corresponding to “NO” is “right hand raised”. Further, in the terminal device 4 (identification ID = 004) in the third row, the gesture corresponding to “YES” is “standing” and the gesture corresponding to “NO” is “both hands raised”.
次に、視線領域テーブル3131について、図7を参照して説明する。視線領域テーブル3131は、多数決を行う際に使用者の視線位置を、ディスプレイ28の特定の領域に向けさせる視線領域の座標範囲のデータを各拠点毎に記憶する。視線領域テーブル3131には、端末ID欄71と、視線領域範囲欄73とが互いに対応づけられて設けられている。端末ID欄71には、自拠点以外の端末装置4〜6の端末IDが各々記憶されている。視線領域範囲欄73は、YES欄77と、NO欄78とに分けられている。
Next, the line-of-sight area table 3131 will be described with reference to FIG. The line-of-sight area table 3131 stores data of the coordinate range of the line-of-sight area for directing the user's line-of-sight position to a specific area of the
YES欄77には、使用者が「YES」の意志表示をする際に視線を向けさせる視線領域範囲が記憶されている。NO欄78には、使用者が「NO」の意志表示をする際に視線を向けさせる視線領域範囲が記憶されている。視線領域範囲は、各端末装置毎に異ならせて記憶されている。
The
例えば、1行目の端末装置4(識別ID=002)では、「YES」に対応する視線領域範囲は(0,0)〜(30,30)であり、「NO」に対応する視線領域範囲は(60,30)〜(80,60)である。一方、2行目の端末装置5(識別ID=003)では、「YES」に対応する視線領域範囲は(30,0)〜(80,30)であり、「NO」に対応する視線領域範囲は(0,30)〜(25,60)である。さらに、3行目の端末装置6(識別ID=003)では、「YES」に対応する視線領域範囲は(0,0)〜(30,60)であり、「NO」に対応する視線領域範囲は(50,0)〜(80,60)である。 For example, in the terminal device 4 (identification ID = 002) in the first row, the line-of-sight area range corresponding to “YES” is (0, 0) to (30, 30), and the line-of-sight area range corresponding to “NO” Are (60, 30) to (80, 60). On the other hand, in the terminal device 5 (identification ID = 003) in the second row, the line-of-sight area range corresponding to “YES” is (30, 0) to (80, 30), and the line-of-sight area range corresponding to “NO”. Are (0, 30) to (25, 60). Further, in the terminal device 6 (identification ID = 003) in the third row, the line-of-sight area range corresponding to “YES” is (0, 0) to (30, 60), and the line-of-sight area range corresponding to “NO”. Are (50, 0) to (80, 60).
ここで、視線領域テーブル3131に記憶された各端末の「YES」「NO」の視線領域は、ディスプレイ28上では以下の位置となる。端末装置4に指定された視線領域は、図8に示すように、左上に「YES」の視線領域95、右下に「NO」の視線領域96が対角上に各々配置される。端末装置5に指定された視線領域は、図9に示すように、右上に「YES」の視線領域95、左下に「NO」の視線領域96が対角上に各々配置される。端末装置6に指定された視線領域は、図10に示すように、左側に「YES」の視線領域95、右側に「NO」の視線領域96が対向して各々配置される。このように、「YES」「NO」の視線領域は、端末装置毎に異なっている。
Here, the “YES” and “NO” line-of-sight areas of the respective terminals stored in the line-of-sight area table 3131 are on the following positions on the
なお、後述するが、視線領域テーブル3131に記憶された視線領域に従って、「YES」「NO」の視線領域95,96が表示される。これら視線領域95,96内には、各範囲をさらに狭くする輪郭線99(図8〜図10参照)が設けられる。視線領域95,96の境界を輪郭線99で区切ることで、視線領域95,96内に確実に視線を向けさせることができる。
As will be described later, the line-of-
次に、集計テーブル3151について、図11を参照して説明する。集計テーブル3151は、各拠点から送信された集計データを各拠点毎にまとめて記憶するものである。集計テーブル3151には、端末ID欄81と、YES欄82と、NO欄83とが対応付けられて各々設けられている。端末ID欄81には、端末IDが記憶される。YES欄82には、「YES」の意志表示を示した人数が記憶される。NO欄83には「NO」の意志表意を示した人数が記憶される。なお、集計テーブル3151の最終行には、全拠点の「YES」「NO」の総合計が各々記憶される。
Next, the summary table 3151 will be described with reference to FIG. The tabulation table 3151 stores the tabulation data transmitted from each site collectively for each site. The aggregation table 3151 is provided with a
次に、RAM22の各種記憶エリアについて、図12を参照して説明する。RAM22には、CCDカメラ画像記憶エリア221と、視線検出情報記憶エリア222と、ジェスチャー情報記憶エリア223と、視線領域情報記憶エリア224と、採決画像記憶エリア225と、意見数記憶エリア226と、結果画像記憶エリア227と、カメラ画像記憶エリア228とが、少なくとも設けられている。
Next, various storage areas of the
CCDカメラ画像記憶エリア221には、CCDカメラの撮像画像が記憶される。視線検出情報記憶エリア222には、視線検出をする際に算出された後述する各種パラメータや設定値等の情報である視線検出情報が記憶される。
The CCD camera
ジェスチャー情報記憶エリア223には、議長端末から送信されたジェスチャー情報2231(図13参照)が記憶される。ジェスチャー情報2231は、「YES」の意志表示をする際のジェスチャーの種類と、「NO」の意志表示をする際のジェスチャーの種類とを含むものである。視線領域情報記憶エリア224には、議長端末から送信された視線領域情報2241(図14参照)が記憶される。視線領域情報2241は、「YES」の意志表示をする際の視線領域と、「NO」の意志表示をする際の視線領域とを含むものである。
In the gesture
採決画像記憶エリア225には、多数決で採決を行ったときの採決画像のデータが記憶される。つまり、ジェスチャーで採決をした場合は、各使用者がジェスチャーをしているときの画像データである。視線位置で採決をした場合は、各使用者が視線位置を所定の視線領域に向けているときの画像データである。意見数記憶エリア226には、各拠点の使用者の「YES」の意見数のデータと、「NO」の意見数のデータとが記憶される。
In the voting
結果画像記憶エリア227には、採決画像記憶エリア225に記憶された採決画像に「YES」「NO」の文字を表示した結果画像120(図22参照)が記憶される。
In the result
なお、結果画像120は、採決画像に映し出された各人物の頭部の横に「YES」又は「NO」の文字が付されたものである。これに限らず、例えば、「YES」「NO」の意見毎に個別画像を切り出し、意見毎に分けて整理した結果画像121(図23参照)を、結果画像記憶エリア227に記憶してもよい。カメラ画像記憶エリア228には、カメラ34の撮像画像が記憶される。
The
次に、使用者の視線位置の検出方法について説明する。視線位置の検出方法は、使用者の目を中心とする顔の部分をCCDカメラ38(図4参照)で捉え、得られた画像を画像解析することよって視線方向を検出する。その検出された視線方向からディスプレイ28上の視線位置を検出する。視線方向を検出する方法としては、種々のものが適用可能である。
Next, a method for detecting the user's line-of-sight position will be described. In the method of detecting the line-of-sight position, the face portion centered on the user's eyes is captured by the CCD camera 38 (see FIG. 4), and the resulting image is analyzed to detect the line-of-sight direction. The line-of-sight position on the
例えば、特開2000−138872号公報には、使用者を撮影した画像データから両目の輪郭を検出し、目の両端および鼻孔の位置の幾何学的な位置関係から、眼球の中心位置及び半径を推定し、視線方向を検出する方法が示されている。 For example, Japanese Patent Laid-Open No. 2000-138872 detects the contours of both eyes from image data obtained by photographing a user, and determines the center position and radius of the eyeball from the geometrical positional relationship between the ends of the eyes and the nostrils. A method for estimating and detecting the gaze direction is shown.
例えば、松本吉央、怡土順一、竹村憲太郎、小笠原司、リアルタイム顔・視線計測システムの開発と知的インタフェースへの応用、情報処理学会論文誌コンピュータビジョンとイメージメディア、vol.47、No.SIG15(CVIM16)、pp.10−21、2006/10の非特許文献には、画像解析を用いた視線測定法として、CCDカメラ画像中から顔領域の切り出しを行い、顔発見テンプレートとのモデルフィッティングを行った後、頭部位置・姿勢を求め、眼球中心位置の推定を行い、視線方向をリアルタイムに検出するという手法が示されている。 For example, Yoshio Matsumoto, Junichi Tsujido, Kentaro Takemura, Tsukasa Ogasawara, Development of Real-time Face / Gaze Measurement System and Application to Intelligent Interface, Information Processing Society of Japan Journal of Computer Vision and Image Media, vol. 47, no. SIG15 (CVIM16), pp. In the non-patent literatures of 10-21 and 2006/10, as a line-of-sight measurement method using image analysis, a face region is cut out from a CCD camera image and model fitting with a face discovery template is performed. A method of obtaining a position / posture, estimating an eyeball center position, and detecting a gaze direction in real time is shown.
例えば、大野健彦、視線を用いたインタフェース、情報処理,Vol.44、No.7、pp.726−732、2003の非特許文献には、近赤外線を用いた視線測定法として、赤外線カメラを用いて、人の眼球形状に関する3次元モデルと、観察された瞳孔像およびプルキニエ像から真の瞳孔位置およびプルキニエ像の位置を推定し、視線方向を算出するという方法が示されている。 For example, Takehiko Ohno, Gaze-based interface, information processing, Vol. 44, no. 7, pp. In non-patent documents of Nos. 726-732 and 2003, as a line-of-sight measurement method using near infrared rays, a true pupil is obtained from a three-dimensional model relating to the shape of a human eyeball, an observed pupil image and a Purkinje image using an infrared camera. A method of estimating the position and the position of the Purkinje image and calculating the line-of-sight direction is shown.
本実施形態では、近赤外線を用いた視線測定法を用いて視線を検出する。そこで、近赤外線を用いた視線検出方法について、図15を参照して説明する。 In the present embodiment, the line of sight is detected using a line-of-sight measurement method using near infrared rays. Therefore, a gaze detection method using near infrared rays will be described with reference to FIG.
赤外線ライト37が、使用者の眼球72に赤外線を照射すると、照射された赤外線が使用者の眼球72の角膜反射面において反射され、赤外線ライト37の虚像(プルキニエ像)74が生じる。使用者の視線の先に赤外線ライト37が位置するとき、プルキニエ像74の発生位置は、瞳孔75の中心位置と一致する。そして、使用者の視線の先が赤外線ライト37から離れるにつれて、プルキニエ像74と瞳孔75の中心との間隔は広がっていく。
When the
具体的に説明する。プルキニエ像74と瞳孔75の中心とが一致する状態からの眼球72の回転角度をθとする。ディスプレイ28と赤外線ライト37(CCDカメラ38)との角度をαとする。プルキニエ像74と瞳孔75の中心との間隔をSとすると、間隔Sは、回転角度θの正弦にほぼ比例して広がっていく。CCDカメラ38により撮影された撮影画像において、プルキニエ像74の位置、瞳孔75の中心位置、さらにその間隔Sを算出することにより、眼球72の回転角θ、さらには使用者の視線方向を検出できる。撮影画像におけるプルキニエ像74及び瞳孔75の検出は、各画素における濃度変化を示すエッジ値を検出する周知の方法により行われる。
This will be specifically described. A rotation angle of the
次に、検出された視線方向の先にあるディスプレイ28上の使用者の視線位置Tを検出する方法について説明する。使用者が、端末装置3の前方の床面にマーキングされた位置に立ち、踏み台等を使って高さを調節することによって、使用者の眼球72の中心と、ディスプレイ28との間が所定距離Lになる。
Next, a method for detecting the user's line-of-sight position T on the
ここで、マーキング位置は、その位置に立った使用者の眼球72の中心と、ディスプレイ28との間が所定距離Lになるように調整されている。使用者によって背の高さが異なるので、所定の高さになるように踏み台等を使って眼球72の位置を調節する。なお、眼球72の位置を固定するために、使用者の頭部の位置を固定するようにしてもよい。各拠点には複数の使用者がいる場合を想定しているので、ディスプレイ28の前には複数のマーキングが設定される。マーキング位置はそれぞれ異なるので、所定距離Lについても各位置毎に異なっている。
Here, the marking position is adjusted so that the distance between the center of the user's
眼球72の中心からディスプレイ28に対して直角に交わる交点を中心点Oとする。使用者の視線方向の先にあるディスプレイ28上の視線位置T1と中心点Oとの距離Kは、以下の式で示される。
・K=L・tanβ
・β=θ−(90−α)
・K=L・tan(θ−(90−α))
上述の式より、ディスプレイ28上の使用者の視線位置Tを特定することができる。なお、回転角度θ、間隔S、所定距離L、角度α等の視線検出に関わるパラメータや、視線位置の算出に関わる値は、RAM22の視線検出情報記憶エリア222(図12参照)に記憶される。所定距離Lは、ディスプレイ28の前にある複数のマーキング位置毎にそれぞれ異なる。従って、各マーキング位置毎の所定距離Lが視線検出情報記憶エリア222にそれぞれ記憶される。なお、所定距離L、角度αは、端末装置3のキーボード29で入力されたものがRAM22の視線検出情報記憶エリア222に記憶される。
An intersection point that intersects the
・ K = L ・ tanβ
.Beta. =. Theta .- (90-.alpha.)
* K = L * tan ([theta]-(90- [alpha]))
From the above formula, the user's line-of-sight position T on the
次に、テレビ会議システム1で実行される多数決処理について説明する。多数決処理は、端末装置3〜6のHDD31に記憶された会議支援プログラムに基づき行われる。会議支援プログラムは、議長端末が実行する「議長端末処理」と、議長端末以外の端末が実行する「拠点端末処理」とに分かれる。
Next, the majority process executed in the
ここでは、説明の便宜上、端末装置3を議長端末とし、それ以外の端末装置4〜6を議長端末の指示を受けて多数決を行う拠点端末として説明する。会議支援プログラムは、HDD31に記憶された参加端末記憶エリア311(図5参照)に、自端末を含めて2以上の端末IDが登録され、他拠点との間で音声と画像を介した会議が開始されると実行される。
Here, for convenience of explanation, the
はじめに、CPU20による議長端末処理について、図16のフローチャートを参照して説明する。まず、多数決を行うか否かが判断される(S11)。ここでは、多数決で採決をとる場合に、ディスプレイ28に表示された「多数決実行」ボタン(図示外)が選択されたか否かによって判断される。多数決が行われない間は(S11:NO)、S11に戻って、処理が繰り返される。
First, the chairman terminal process by the
多数決を行う場合(S11:YES)、本端末が「議長端末」となる。次いで、HDD31に記憶されたジェスチャーテーブル3121(図6参照)から各端末のジェスチャー情報2231(図13参照)が取得され、視線領域テーブル3131(図7参照)から各端末の視線領域情報2241(図14参照)が取得される。そして、取得されたジェスチャー情報2231および視線領域情報2241は、会議に参加する端末に応じて取得され、各端末装置4〜6に向けてそれぞれ送信される(S12)。
When a majority decision is made (S11: YES), this terminal becomes the “chairman terminal”. Next, the gesture information 2231 (see FIG. 13) of each terminal is acquired from the gesture table 3121 (see FIG. 6) stored in the
後述するが、ジェスチャー情報2231および視線領域情報2241を受信した端末装置4〜6の各拠点では、受信したジェスチャー情報2231又は視線領域情報2241に基づいた画像がディスプレイ28(図19〜図21参照)に表示される。各拠点では、ディスプレイ28に表示された画像に基づき、各使用者が所定の動作をすることで、多数決が行われる。多数決の結果は各拠点で処理され、意見数データと、結果画像120(図22参照)のデータ(以下、結果画像データと呼ぶ)とからなる集計情報が議長端末である端末装置3に向けて送信される(図2参照)。
As will be described later, at each base of the
次いで、図16に示すように、集計情報を受信したか否かが判断される(S13)。集計情報を受信した場合(S13:YES)、意見数データは、HDD31に記憶した集計テーブル3151(図11参照)に記憶される(S14)。さらに、結果画像データは、議題と関連付けられ、HDD31の全端末結果画像記憶エリア315(図5参照)に記憶される(S15)。そして、S13に戻り、他拠点から集計情報を受信した場合は(S13:YES)、上述した処理と同様に、集計テーブル3151(図11参照)に意見数データが追加される(S14)。さらに、全端末結果画像記憶エリア315(図5参照)に結果画像データが追加される(S15)。 Next, as shown in FIG. 16, it is determined whether or not the total information has been received (S13). When the total information is received (S13: YES), the opinion number data is stored in the total table 3151 (see FIG. 11) stored in the HDD 31 (S14). Further, the result image data is associated with the agenda and stored in the all terminal result image storage area 315 (see FIG. 5) of the HDD 31 (S15). Then, returning to S13, when the total information is received from another base (S13: YES), the number-of-opinions data is added to the total table 3151 (see FIG. 11) in the same manner as described above (S14). Further, the result image data is added to the all terminal result image storage area 315 (see FIG. 5) (S15).
このように、S13〜S15が繰り返されることで、全端末結果画像記憶エリア315に各拠点の結果画像120のデータが収集され、議題と共に、各拠点の結果画像を並べた全端末結果画像131(図25参照)が合成されて記憶される。全端末結果画像131は、例えば、議題「この計画に賛成ですか。」が上部に表示され、例えば、その下に、拠点B(端末装置4)の結果画像120、拠点D(端末装置6)の結果画像120等が並んで表示される。各拠点の結果画像120は、多数決に参加する人物の頭部の横に、「YES」「NO」の文字が表示されている。これにより、誰が「YES」又は「NO」の意見を持っているかを一目で認識できる。
As described above, by repeating S13 to S15, the data of the
なお、各拠点から結果画像121(図23参照)のデータを受信するようにした場合、全端末結果画像記憶エリア315には、各拠点の結果画像データから「YES」「NO」の意見毎に個別画像が切り出され、「YES」「NO」毎に配置した全端末結果画像132(図26参照)が合成されて記憶される。この全端末結果画像132であっても、誰が「YES」又は「NO」の意見を持っているかを一目で認識できる。
When the data of the result image 121 (see FIG. 23) is received from each base, all terminal result
一方、図16に示すように、集計情報を受信しない場合(S13:NO)、全拠点の端末から集計情報を収集したか否かが判断される(S16)。ここでは、HDD31の参加端末記憶エリア311(図5参照)に登録された全端末の集計情報が、集計テーブル3151(図11参照)に記憶されているか否かが判断される。集計情報をまだ受信していない端末がある場合(S16:NO)、S13に戻って、集計情報の受信について、引き続き監視される。
On the other hand, as shown in FIG. 16, when the total information is not received (S13: NO), it is determined whether or not the total information is collected from the terminals of all the bases (S16). Here, it is determined whether or not the total information of all terminals registered in the participating terminal storage area 311 (see FIG. 5) of the
そして、集計テーブル3151を参照して、全端末の集計情報を受信したと判断された場合(S16:YES)、HDD31に記憶された集計テーブル3151(図11参照)から「YES」「NO」の意見数を議題と共にまとめて表示した全端末集計画像(図24参照)が合成されて、HDD31の全端末集計画像記憶エリア316(図5参照)に記憶される(S17)。
When it is determined that the total information of all terminals has been received with reference to the total table 3151 (S16: YES), “YES” and “NO” are calculated from the total table 3151 (see FIG. 11) stored in the
次いで、全端末結果画像記憶エリア315(図5参照)に記憶された全端末結果画像131(図25参照)と、全端末集計画像記憶エリア316(図5参照)に記憶された全端末集計画像130(図24参照)とが、投票結果としてディスプレイ28に表示される(S18)。さらに、これら投票結果が各端末装置に向けて送信され(S19)、処理が終了する。
Next, the all terminal result image 131 (see FIG. 25) stored in the all terminal result image storage area 315 (see FIG. 5) and the all terminal total image stored in the all terminal total image storage area 316 (see FIG. 5). 130 (see FIG. 24) is displayed on the
なお、全端末集計画像130のデータおよび全端末結果画像131のデータを受信した端末装置4〜6では、これらの画像データがHDD31に記憶される。各拠点において、HDD31に記憶された全端末集計画像130又は全端末結果画像131を、ディスプレイ28に表示させることで、各拠点において多数決の結果を知ることができる。
In the
次に、CPU20による拠点端末処理について、図17を参照して説明する。説明の便宜上、拠点端末として機能する端末装置4のCPU20が実行する拠点端末処理について説明する。まず、議長端末から送信されたジェスチャー情報2231(図13参照)及び視線領域情報2241(図14参照)を受信したか否かが判断される(S21)。ジェスチャー情報2231及び視線領域情報2241するまでは(S21:NO)、S21に戻って待機状態となる。
Next, the base terminal processing by the
そして、ジェスチャー情報2231及び視線領域情報2241を受信したと判断された場合(S21:YES)、カメラ34によって撮像されたカメラ画像が取得される(S22)。カメラ画像は、RAM22のカメラ画像記憶エリア228(図12参照)に記憶される。さらに、カメラ画像記憶エリア228に記憶されたカメラ画像に基づき、人物画像のサイズ解析処理が実行される(S23)。
When it is determined that the
人物画像のサイズ解析処理について、図18を参照して説明する。RAM22のカメラ画像記憶エリア228に記憶されたカメラ画像から人物Uを検出する方法として「背景差分法」を適用する。背景差分法では、まず、予め背景Pとするフレーム画像200を決めておく。それを元にフレーム毎に差分を取る。その差分値が規定値以上の領域を人物Fの画像領域Fとして検出する。検出された人物画像領域Fの面積を人物画像のサイズとして解析する。
The person image size analysis processing will be described with reference to FIG. As a method for detecting the person U from the camera image stored in the camera
次いで、図17に示すように、カメラ画像に映し出された人物の画像のサイズが全て第1所定値以上であるか否かが判断される(S24)。カメラ画像に複数の人物が表示されている場合は、その全ての画像サイズが第1所定値以上であるか否かが判断される。全ての画像サイズが第1所定値以上である場合は(S24:YES)、何れの使用者についても視線を検出するには十分の大きさである。この場合、受信した視線領域情報2241(図14参照)に基づき、ディスプレイ28には、「YES」の視線領域95および「NO」の視線領域96が表示される。
Next, as shown in FIG. 17, it is determined whether or not the size of the image of the person projected on the camera image is all equal to or greater than the first predetermined value (S24). When a plurality of persons are displayed in the camera image, it is determined whether or not all the image sizes are equal to or larger than the first predetermined value. When all the image sizes are equal to or larger than the first predetermined value (S24: YES), the size is sufficient to detect the line of sight for any user. In this case, based on the received line-of-sight area information 2241 (see FIG. 14), the
例えば、図14に示す視線領域情報2241を受信した場合、ディスプレイ28には、図8に示すように、「YES」の視線領域95が右上に配置され、右側に「NO」の視線領域96が左下に配置される。「YES」の視線領域95において、(30,0)から(0,30)の間に湾曲する輪郭線99が表示され、その内側に「YES」の文字が表示される。輪郭線99の内側の領域は赤色で表示される。「NO」の視線領域96において、(60,60)から(80,30)の間にも湾曲する輪郭線99が表示され、その内側に「NO」の文字が表示される。輪郭線99の内側は青色で表示される。このように、輪郭線99によって、視線領域95,96をさらに狭くすることで、使用者の視線を、視線領域95,96内に確実に向けさせることができる。
For example, when the line-of-
そして、図20に示すように、ディスプレイ28に、視線領域95,96が表示される。ディスプレイ28に表示された視線領域95,96が表示されることで、使用者であるAさん、Bさんは、自らの視線によって「YES」「NO」の意志表示を行う。ディスプレイ28に表示される視線領域の位置は端末装置毎に異なる。従って、ディスプレイ28に表示されたマルチ画面に他拠点の使用者の様子が映っていても、自拠点における判断に影響を与えることがない。
Then, as shown in FIG. 20, line-of-
一方、図17に戻り、人物画像サイズが第1所定値以上ではない人物が存在する場合(S24:NO)、人物画像サイズが全て第2所定値未満か否かが判断される(S26)。第2所定値は、第1所定値よりも小さい値である。人物画像サイズが全て第2所定値未満である場合は(S26:YES)、人物画像が全て小さ過ぎるため、ディスプレイ28上における視線位置を検出するのが困難である。この場合、受信したジェスチャー情報2231(図13参照)に対応するジェスチャー指示画像がディスプレイ28に表示される(S27)。具体的には、ジェスチャー指示画像記憶エリア317に記憶された複数のジェスチャー指示画像の中から、受信したジェスチャー情報2231に対応するジェスチャー指示画像が取得される。
On the other hand, returning to FIG. 17, when there is a person whose person image size is not equal to or larger than the first predetermined value (S24: NO), it is determined whether or not all the person image sizes are smaller than the second predetermined value (S26). The second predetermined value is a value smaller than the first predetermined value. When all the person image sizes are less than the second predetermined value (S26: YES), since all the person images are too small, it is difficult to detect the line-of-sight position on the
例えば、図13に示すジェスチャー情報2231を受信した場合、図19に示すジェスチャー指示画像がディスプレイ28に表示される。即ち、ディスプレイ28には、分割画面285,286が左右両側に各々表示される。左側の分割画面285には、右手を挙げた人物キャラクタ91が映し出され、その上部には、「YES:右手を挙げて下さい。」のメッセージが表示される。右側の分割画面286には、左手を挙げた人物キャラクタ92が映し出され、その上部には「NO:左手を挙げて下さい。」のメッセージが表示される。ディスプレイ28に表示された動作指示画像が表示されることで、使用者であるAさん、Bさんは、自らのジェスチャーによって「YES」「NO」の意志表示を行う。ディスプレイ28に表示されるジェスチャー指示画像は端末装置毎に異なる。従って、ディスプレイ28に表示されたマルチ画面に他拠点の使用者の様子が映っていても、自拠点における判断に影響を与えることがない。
For example, when the
また、人物画像サイズが人物によってバラバラであった場合(S24:NO、S26:NO)、図21に示すように、ディスプレイ28には、視線領域95,96と、ジェスチャー指示画像とが重ねて表示される(S28)。ディスプレイ28に表示された視線領域95,96と、ジェスチャー指示画像とが表示されることで、使用者であるAさん、Bさんは、自らの視線と、ジェスチャーとによって「YES」「NO」の意志表示を行う。ディスプレイ28に表示される視線領域95,96の各位置と、ジェスチャー指示画像とは端末装置毎に異なる。従って、各端末における意志表示をするための動作がより複雑になるので、ディスプレイ28に表示されたマルチ画面に他拠点の使用者の様子が映っていても、自拠点における判断に影響を与えることがない。
When the person image size varies depending on the person (S24: NO, S26: NO), as shown in FIG. 21, the line-of-
次に、使用者のジェスチャー又は視線位置が検出される(S29)。図20に示すように、ディスプレイ28に視線領域95,96が表示されている場合、Aさん、Bさんは自らの意見に対応する視線領域95又は視線領域96に視線位置を合わせる。一方、図21に示すように、ディスプレイ28にジェスチャー指示画像が表示されている場合、その指示に従って、Aさん、Bさんは自らの意見に対応するジェスチャーをする。
Next, the user's gesture or line-of-sight position is detected (S29). As shown in FIG. 20, when the line-of-
各人物の視線位置は、上述の方法によって検出される。各人物のジェスチャーは、人物画像解析処理によって行われる。具体的には、上述した人物画像解析において取得された人物画像領域Fと、HDD31の人物画像動作パターン記憶エリア318に記憶されたジェスチャー毎の人物画像領域Fとの比較による形状のパターンマッチングを行うことで、その人物がどのようなジェスチャーを行ったかが判別される。
The line-of-sight position of each person is detected by the method described above. Each person's gesture is performed by person image analysis processing. Specifically, shape pattern matching is performed by comparing the person image area F acquired in the person image analysis described above with the person image area F for each gesture stored in the person image operation
次いで、意見の種類が特定される(S30)。意志表示が視線位置によるものであって、ディスプレイ28上で検出された視線位置が「YES」の視線領域95内にある場合は、意見は「YES」である。ディスプレイ28上で検出された視線位置が「NO」の視線領域96内にある場合は、意見は「NO」である。また、意志表示がジェスチャーによるものである場合、種類が検出されたジェスチャーの意味は、ジェスチャー情報記憶エリア223に記憶されたジェスチャー情報2231を参照して特定される。
Next, the type of opinion is specified (S30). If the intention display is based on the line-of-sight position and the line-of-sight position detected on the
撮影画像に映し出された各人物の意見がそれぞれ特定されたら、自拠点における「YES」の意見数と、「NO」の意見数とが集計される(S30)。集計結果は、意見数データとして、RAM22の意見数記憶エリア226(図12参照)に記憶される。
When the opinions of each person displayed in the captured image are specified, the number of opinions of “YES” and the number of opinions of “NO” at the base are counted (S30). The count results are stored as opinion number data in the opinion number storage area 226 (see FIG. 12) of the
次いで、採決をしたときの採決画像がRAM22の採決画像記憶エリア225(図12参照)に記憶される。さらに、採決画像記憶エリア225に記憶された採決画像に、各人物の意見結果を表示させた結果画像120(図22参照)が合成され、結果画像記憶エリア227(図12参照)に記憶される(S31)。採決画像から個別画像を切り出して、「YES」「NO」に分けて並べた結果画像121(図23参照)を記憶してもよい。
Next, the voting image at the time of voting is stored in the voting image storage area 225 (see FIG. 12) of the
そして、RAM22の意見数記憶エリア226に記憶された意見数データと、結果画像記憶エリア227に記憶された結果画像120のデータである結果画像データとが、議長端末に送信され(S33)、処理が終了する。
Then, the opinion count data stored in the opinion
このように、議長端末から送信されたジェスチャー情報2231および視線領域情報2241に基づいて多数決を行い、各拠点で集計した結果を議長端末に送信することで、議長端末において、各拠点の集計結果を取りまとめることができる。また、各端末装置に送信されるジェスチャー情報2231および視線領域情報2241は、各端末装置毎に異ならせている。つまり、多数決で意志表示するためのジェスチャー又は視線位置を端末毎に異ならせている。これにより、ディスプレイ28に表示されたマルチ画面に他拠点の使用者の様子が映っていても、自拠点における判断に影響を与えることがない。また、各拠点の多数決の結果として、採決画像を編集した結果画像データと、意見数データとを議長端末に送信するので、議長端末において各拠点の意見を分析する必要がない。
In this way, the majority decision is made based on the
以上説明したように、テレビ会議システム1では、議長端末として機能する端末装置3が、ある議題について多数決で決議を採る際に、端末装置4,5,6の各拠点に多数決の動作情報(ジェスチャー情報、視線領域情報)を送信する。動作情報は、多数決で意志表示をする際に行う動作の種類が意見毎に規定されている。意見に対する動作の種類は端末毎に異ならせている。これにより、ディスプレイ28に表示されたマルチ画面に他拠点の使用者の様子が映っていても、自拠点と異なる動作をするため、自拠点における判断に影響を与えることがない。従って、部品点数を増やすことなく、他拠点の意見に影響されない信頼性のある多数決を行うことができる。また、その動作情報に従ってなされた多数決の集計情報(意見数データ、結果画像データ等)が各拠点から送信される。それらを受信して記憶することで、ディスプレイ28に表示できる。これにより、ある議題の採決結果を速やかに把握できる。
As described above, in the
以上の説明において、HDD31に記憶されたジェスチャーテーブル3121と、視線領域テーブル3131とが本発明の「動作情報記憶手段」に相当する。HDD31の集計テーブル記憶エリア314と、全端末結果画像記憶エリア315とが本発明の「結果情報記憶手段」に相当する。図16に示すS12の動作を実行するCPU20が本発明の「動作情報送信手段」に相当する。S13の動作を実行するCPU20が本発明の「結果情報受信手段」に相当する。S18の動作を実行するCPU20が本発明の「結果情報出力手段」に相当する。
In the above description, the gesture table 3121 and the line-of-sight area table 3131 stored in the
図17に示すS30の動作を実行するCPU20が本発明の「意見集計手段」に相当する。S33の動作を実行するCPU20が本発明の「結果情報送信手段」に相当する。S23の動作を実行するCPU20が本発明の「画像サイズ解析手段」に相当する。S24の動作を実行するCPU20が本発明の「第1画像サイズ判断手段」に相当する。S26の動作を実行するCPU20が本発明の「第2画像サイズ判断手段」に相当する。図13に示すジェスチャー情報2231が本発明の「第1動作情報」に相当する。図14に示す視線領域情報2241が本発明の「第2動作情報」に相当する。図17のS29の動作を実行するCPU20が本発明の「ジェスチャー特定手段」「視線領域特定手段」に相当する。RAM22の視線検出情報記憶エリア222が本発明の「位置関係情報記憶手段」に相当する。図17のS29の動作を実行するCPU20が本発明の「視線位置特定手段」に相当する。
The
なお、本発明は、上記実施形態に限定されることなく、種々の変更が可能である。例えば、上記実施形態では、使用者の意見は「YES」「NO」の二通りであったが、例えば、「YES」「NO」「どちらともいえない」等、さらに多くの意見を加えてもよい。また。「YES」「NO」に限らず、意見の種類を設定してもよい。 The present invention is not limited to the above-described embodiment, and various modifications can be made. For example, in the above embodiment, the user's opinions are “YES” and “NO”, but for example, “YES”, “NO”, “Neither” can be added, and more opinions can be added. Good. Also. The type of opinion is not limited to “YES” and “NO”.
また、上記実施形態では、議長端末から各端末に向けて動作情報(ジェスチャー情報
視線領域情報)を送信し、各端末の動作の種類を決めているが、例えば、議長端末から多数決の指示を各端末に送信し、各端末でランダムに意思表示するための動作を選択するようにしてもよい。
Further, in the above embodiment, the operation information (gesture information line-of-sight area information) is transmitted from the chairman terminal to each terminal, and the type of operation of each terminal is determined. You may make it select the operation | movement for transmitting to a terminal and displaying intention intention at each terminal at random.
また、上述の実施形態では、ユーザの眼球72とディスプレイ28との距離は、一定であると近似され、所定距離Lとして予め記憶されていたが、これに限定されるものでは無い。たとえば、遠隔会議開始時や視線方向検出時などに、ユーザの眼球72とディスプレイ28との距離を算出し、算出された値を前記所定距離Lとして、ディスプレイ28上のユーザの視線位置Tを特定しても良い。所定距離Lの算出方法としては、周知の方法が適用可能であるが、たとえば、以下の方法が適用可能である。
In the above-described embodiment, the distance between the user's
この方法では、予めCCDカメラ38とユーザ(ユーザの眼球72)とを所定距離とした状態でユーザを撮影する。撮影されたユーザの画像からユーザの各眼球72について瞳孔75の位置をそれぞれ抽出し、抽出された瞳孔75の間隔を、基準瞳孔間隔として予めHDD31に記憶する。一般に、撮影画像における瞳孔間隔は、瞳孔75とCCDカメラ38との距離に反比例する。よって、CCDカメラ38により撮影された実際の瞳孔間隔と、予め記憶された基準瞳孔間隔とから、CCDカメラ38と眼球72との距離を算出できる。CCDカメラ38とディスプレイ28との位置関係を予めHDD31に記憶しておくことにより、ディスプレイ28と眼球72との距離を算出することができ、算出された値を所定距離Lとして用いることができる。
In this method, the user is photographed in a state where the
1 テレビ会議システム
2 ネットワーク
3 端末装置
4 端末装置
5 端末装置
6 端末装置
28 ディスプレイ
31 ハードディスクドライブ
34 カメラ
37 赤外線ライト
38 CCDカメラ
2231 ジェスチャー情報
2241 視線領域情報
312 ジェスチャーテーブル記憶エリア
3121 ジェスチャーテーブル
313 視線領域テーブル記憶エリア
3131 視線領域テーブル
314 集計テーブル記憶エリア
3151 集計テーブル
DESCRIPTION OF
Claims (11)
前記複数の端末の撮影手段から出力された使用者の撮影画像を合成して、各端末の前記撮影画像を組み合わせたマルチ画像を表示画面に表示する表示手段と、
複数の前記端末の使用者間で開催される会議において、前記会議装置が前記会議の議長として機能する場合に、前記端末に多数決を指示する多数決指示手段と、
当該多数決指示手段によって前記端末に多数決を指示した場合に、多数決を行う際の使用者の意見の種類毎に意志表示するための動作を各端末毎に割り当てる割り当て手段と、
前記端末毎に、前記割り当て手段によって割り当てられた動作で意思表示した使用者の意見の集計結果の情報である結果情報を取得する結果情報取得手段と、
当該結果情報取得手段により取得された前記結果情報を記憶する結果情報記憶手段と、
当該結果情報記憶手段に記憶された前記結果情報を出力する結果情報出力手段と
を備えたことを特徴とする会議装置。 A conference device that can be connected to a plurality of terminals via a communication line,
Display means for combining the captured images of the users output from the imaging means of the plurality of terminals and displaying a multi-image combining the captured images of the terminals on a display screen;
In a conference held between a plurality of users of the terminals, when the conference device functions as the chairman of the conference, a majority instruction means for instructing the terminal to perform a majority vote;
An assigning means for assigning, for each terminal, an operation for displaying a will for each type of opinion of a user when making a majority vote when the majority is instructed to the terminal by the majority instruction means;
Result information acquiring means for acquiring result information that is information on the total results of the opinions of the users who intentionally displayed by the operation assigned by the assigning means for each terminal;
Result information storage means for storing the result information acquired by the result information acquisition means;
A conference apparatus comprising: result information output means for outputting the result information stored in the result information storage means.
前記動作の種類の情報である種類情報を前記端末毎に異ならせた動作情報として記憶する動作情報記憶手段と、
当該動作情報記憶手段に記憶された前記動作情報を複数の前記端末にそれぞれ送信する動作情報送信手段と
を備えたことを特徴とする請求項1に記載の会議装置。 The assigning means includes
Operation information storage means for storing type information, which is information about the type of operation, as operation information made different for each terminal;
The conference apparatus according to claim 1, further comprising operation information transmission means for transmitting the operation information stored in the operation information storage means to each of the plurality of terminals.
当該動作情報受信手段によって受信された前記動作情報を前記表示画面に表示させる動作表示制御手段と
を備えたことを特徴とする請求項2に記載の会議装置。 Action information receiving means for receiving the action information transmitted from the chairman terminal which is a terminal functioning as the chairman among the plurality of terminals;
The conference apparatus according to claim 2, further comprising an operation display control unit that displays the operation information received by the operation information receiving unit on the display screen.
当該使用者認識手段によって認識された使用者が、前記表示画面に表示された前記動作情報に従って動作した際の動作画像を記憶する動作画像記憶手段と、
当該動作画像記憶手段に記憶された前記動作画像に基づき、前記使用者認識手段によって認識された使用者が前記動作情報に従って行った動作の種類を、使用者毎に特定する動作種類特定手段と、
当該動作種類特定手段によって特定された前記動作の種類が示す前記意見の種類を、前記動作情報受信手段によって受信された前記動作情報から特定する意見種類特定手段と、
当該意見種類特定手段によって特定された前記意見の種類毎に、使用者の数を集計する意見集計手段と、
当該意見集計手段によって集計された結果の情報を、前記結果情報として前記端末に送信する結果情報送信手段と
を備えたことを特徴とする請求項2又は3に記載の会議装置。 User recognition means for recognizing a user from a photographed image photographed by the photographing means;
Action image storage means for storing an action image when the user recognized by the user recognition means operates according to the action information displayed on the display screen;
Based on the action image stored in the action image storage means, the action type specifying means for specifying for each user the type of action performed by the user recognized by the user recognition means according to the action information;
Opinion type specifying means for specifying the type of opinion indicated by the type of action specified by the action type specifying means from the action information received by the action information receiving means;
Opinion counting means for counting the number of users for each type of opinion specified by the opinion type specifying means;
4. The conference apparatus according to claim 2, further comprising a result information transmitting unit that transmits information of the results totaled by the opinion totaling unit to the terminal as the result information.
当該画像サイズ解析手段によって解析された前記画像サイズが第1閾値以上であるか否かを判断する第1画像サイズ判断手段と
を備え、
前記意志表示するための動作は、
使用者の身体動作であるジェスチャーと、
使用者に視線を前記表示画面上で予め決められた領域内に向けさせる視線動作と
であって、
前記動作情報は、
使用者の意見の種類毎に、前記ジェスチャーを割り当てると共に、前記ジェスチャーの種類を前記端末毎に異ならせた第1動作情報と、
使用者の意見の種類毎に、前記表示画面上で前記視線を向けさせる領域を割り当てると共に、前記領域の位置を前記端末毎に異ならせた第2動作情報と
を備え、
前記動作種類特定手段は、
使用者の前記ジェスチャーを特定するジェスチャー特定手段と、
使用者の前記表示画面上の前記視線が向けられた領域を特定する視線領域特定手段と
を備え、
前記動作表示制御手段は、
前記画像サイズが第1閾値未満であると判断された場合は、前記第1動作情報を前記表示画面に表示させ、
前記画像サイズが前記第1閾値以上であると判断された場合は、前記第2動作情報を前記表示画面に表示させることを特徴とする請求項2乃至4の何れかに記載の会議装置。 Image size analysis means for analyzing the image size of the user from the captured image;
First image size determination means for determining whether or not the image size analyzed by the image size analysis means is greater than or equal to a first threshold;
The action for displaying the will is:
Gestures that are the user's physical movements,
A line-of-sight operation that directs the user to line of sight within a predetermined area on the display screen,
The operation information is
Assigning the gesture for each type of opinion of the user, and the first action information that makes the type of gesture different for each terminal;
For each type of user's opinion, the second operation information that assigns an area for directing the line of sight on the display screen, and that makes the position of the area different for each terminal,
The operation type specifying means includes:
A gesture specifying means for specifying the gesture of the user;
A line-of-sight area specifying means for specifying an area to which the line of sight is directed on the display screen of the user,
The operation display control means includes
When it is determined that the image size is less than the first threshold, the first operation information is displayed on the display screen,
The conference apparatus according to claim 2, wherein when it is determined that the image size is equal to or larger than the first threshold, the second operation information is displayed on the display screen.
使用者と前記表示画面との位置関係の情報である位置関係情報を記憶する位置関係情報記憶手段と、
当該位置関係情報記憶手段に記憶された前記位置関係情報に基づき、前記視線方向検出手段によって検出された視線方向の先にある前記表示画面上における視線位置を特定する視線位置特定手段と
を備え、
前記視線領域特定手段は、
前記視線位置特定手段によって特定される前記視線位置に基づき、前記表示画面に前記意見の種類毎に割り当てられた領域のうち、前記視線が向けられた領域を特定することを特徴とする請求項5に記載の会議装置。 Gaze direction detecting means for detecting the gaze direction of the user from the captured image;
Positional relationship information storage means for storing positional relationship information that is information on the positional relationship between the user and the display screen;
Line-of-sight position specifying means for specifying a line-of-sight position on the display screen ahead of the line-of-sight direction detected by the line-of-sight direction based on the position relation information stored in the position relation information storage means,
The line-of-sight area specifying means includes
6. The region to which the line of sight is directed is specified from among regions allocated to the display screen for each type of opinion based on the line-of-sight position specified by the line-of-sight position specifying unit. The conference device described in 1.
前記動作表示制御手段は、
前記第1画像サイズ判断手段によって、前記画像サイズが前記第1閾値以上と判断された場合は、前記第2動作情報のみを前記表示画面に表示させ、
前記第2画像サイズ判断手段によって、前記画像サイズが前記第2閾値未満と判断された場合は、前記第1動作情報のみを前記表示画面に表示させ、
前記第1画像サイズ判断手段によって、前記画像サイズが前記第1閾値未満と判断され、かつ前記第2画像サイズ判断手段によって、前記画像サイズが前記第2閾値以上と判断された場合は、前記第1動作情報および前記第2動作情報を前記表示画面に表示させることを特徴とする請求項5又は6に記載の会議装置。 Second image size determination means for determining whether or not the image size analyzed by the image size analysis means is less than a second threshold smaller than the first threshold;
The operation display control means includes
When the first image size determining means determines that the image size is greater than or equal to the first threshold, only the second operation information is displayed on the display screen,
When the second image size determination means determines that the image size is less than the second threshold, only the first operation information is displayed on the display screen,
When the first image size determining means determines that the image size is less than the first threshold and the second image size determining means determines that the image size is equal to or greater than the second threshold, 7. The conference apparatus according to claim 5, wherein the first operation information and the second operation information are displayed on the display screen.
前記議題の情報である議題情報と、当該議題情報に関連する前記結果情報とが対応付けられて記憶されることを特徴とする請求項1乃至8の何れかに記載の会議装置。 In the result information storage means,
9. The conference apparatus according to claim 1, wherein agenda information, which is information on the agenda, and the result information related to the agenda information are stored in association with each other.
前記複数の端末の撮影手段から出力された使用者の撮影画像を合成して、各端末の前記撮影画像を組み合わせたマルチ画像を表示画面に表示する表示ステップと、
複数の前記端末の使用者間で開催される会議において、前記会議装置が前記会議の議長として機能する場合に、前記端末に多数決を指示する多数決指示ステップと、
当該多数決指示ステップにおいて前記端末に多数決を指示した場合に、多数決を行う際の使用者の意見の種類毎に意志表示するための動作を各端末毎に割り当てる動作割り当てステップと、
前記端末から前記割り当て手段によって割り当てられた動作で意思表示した使用者の意見の集計結果の情報である結果情報を取得する結果情報取得ステップと、
当該結果情報取得ステップにおいて取得された前記結果情報を結果情報記憶手段に記憶させる結果情報記憶ステップと、
当該結果情報記憶ステップにおいて前記結果情報記憶手段に記憶された前記結果情報を出力する結果情報出力ステップと
を備えたことを特徴とする会議装置の会議支援方法。 There is a conference support method for a conference device that can be connected to a plurality of terminals via a communication line.
A display step of combining the captured images of the users output from the imaging means of the plurality of terminals and displaying a multi-image combining the captured images of each terminal on a display screen;
In a conference held between a plurality of users of the terminals, when the conference device functions as the chairman of the conference, a majority instruction step for instructing the terminal to perform a majority vote;
When assigning a majority vote to the terminal in the majority decision instruction step, an operation assignment step for assigning an action for displaying each will for each type of user opinion when making a majority vote,
A result information acquisition step of acquiring result information that is information on a result of a user's opinion totalization displayed by the operation assigned by the assigning unit from the terminal;
A result information storage step for storing the result information acquired in the result information acquisition step in a result information storage means;
A result information output step of outputting the result information stored in the result information storage means in the result information storage step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009083869A JP2010239327A (en) | 2009-03-31 | 2009-03-31 | Conference device, conference support method, and conference support program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009083869A JP2010239327A (en) | 2009-03-31 | 2009-03-31 | Conference device, conference support method, and conference support program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010239327A true JP2010239327A (en) | 2010-10-21 |
Family
ID=43093291
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009083869A Pending JP2010239327A (en) | 2009-03-31 | 2009-03-31 | Conference device, conference support method, and conference support program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010239327A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012023595A (en) * | 2010-07-15 | 2012-02-02 | Konica Minolta Business Technologies Inc | Conference system |
JP2013073395A (en) * | 2011-09-27 | 2013-04-22 | Hitachi Systems Ltd | Automatic character display system |
WO2013115541A1 (en) * | 2012-02-03 | 2013-08-08 | 삼성에스디에스 주식회사 | Terminal, image communication control server, and system and method for image communication using same |
JP2015084514A (en) * | 2013-09-17 | 2015-04-30 | 株式会社リコー | Information processing system, input/output device, program, and authentication method |
JP2015187856A (en) * | 2014-03-14 | 2015-10-29 | 本田技研工業株式会社 | Motion estimation device, robot, and motion estimation method |
-
2009
- 2009-03-31 JP JP2009083869A patent/JP2010239327A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012023595A (en) * | 2010-07-15 | 2012-02-02 | Konica Minolta Business Technologies Inc | Conference system |
JP2013073395A (en) * | 2011-09-27 | 2013-04-22 | Hitachi Systems Ltd | Automatic character display system |
WO2013115541A1 (en) * | 2012-02-03 | 2013-08-08 | 삼성에스디에스 주식회사 | Terminal, image communication control server, and system and method for image communication using same |
US9307194B2 (en) | 2012-02-03 | 2016-04-05 | Samsung Sds Co., Ltd. | System and method for video call |
JP2015084514A (en) * | 2013-09-17 | 2015-04-30 | 株式会社リコー | Information processing system, input/output device, program, and authentication method |
JP2015187856A (en) * | 2014-03-14 | 2015-10-29 | 本田技研工業株式会社 | Motion estimation device, robot, and motion estimation method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10013805B2 (en) | Control of enhanced communication between remote participants using augmented and virtual reality | |
US10255482B2 (en) | Interactive display for facial skin monitoring | |
US20200249751A1 (en) | User input processing with eye tracking | |
US7506979B2 (en) | Image recording apparatus, image recording method and image recording program | |
US10424116B2 (en) | Display apparatus and controlling method thereof | |
JP6750504B2 (en) | Information processing apparatus, information processing method, and program | |
US9498123B2 (en) | Image recording apparatus, image recording method and image recording program stored on a computer readable medium | |
JP2009193323A (en) | Display apparatus | |
CN104469256A (en) | Immersive and interactive video conference room environment | |
JP6747446B2 (en) | Information processing apparatus, information processing method, and program | |
JP2010239327A (en) | Conference device, conference support method, and conference support program | |
US8150118B2 (en) | Image recording apparatus, image recording method and image recording program stored on a computer readable medium | |
US20110279665A1 (en) | Image recording apparatus, image recording method and image recording program | |
KR100998617B1 (en) | Central control type cbt system and method thereof | |
JP2010239583A (en) | Communication terminal unit, method of controlling communication of communication terminal unit, and communication control program | |
CN204721476U (en) | Immersion and interactively video conference room environment | |
US9621847B2 (en) | Terminal, system, display method, and recording medium storing a display program | |
JP7206741B2 (en) | HEALTH CONDITION DETERMINATION SYSTEM, HEALTH CONDITION DETERMINATION DEVICE, SERVER, HEALTH CONDITION DETERMINATION METHOD, AND PROGRAM | |
JP2009175745A (en) | Face image photographing device and face image photographing method | |
JP2013197766A (en) | Remote conference system, conference support device, and conference support method | |
JP2010237884A (en) | Device, method, and program for controlling display | |
JP2019153205A (en) | Projection system and control method therefor, and program | |
JP2006079533A (en) | Information processor, information processing method, and computer program | |
TWI809604B (en) | Video conference device and operation method thereof | |
Guntz et al. | Multimodal observation and interpretation of subjects engaged in problem solving |