JP5120185B2 - Imaging range control device, imaging range control method, and computer program - Google Patents

Imaging range control device, imaging range control method, and computer program Download PDF

Info

Publication number
JP5120185B2
JP5120185B2 JP2008254972A JP2008254972A JP5120185B2 JP 5120185 B2 JP5120185 B2 JP 5120185B2 JP 2008254972 A JP2008254972 A JP 2008254972A JP 2008254972 A JP2008254972 A JP 2008254972A JP 5120185 B2 JP5120185 B2 JP 5120185B2
Authority
JP
Japan
Prior art keywords
information
range
photographing
remote conference
selection frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008254972A
Other languages
Japanese (ja)
Other versions
JP2010087858A (en
Inventor
瑞穂 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2008254972A priority Critical patent/JP5120185B2/en
Publication of JP2010087858A publication Critical patent/JP2010087858A/en
Application granted granted Critical
Publication of JP5120185B2 publication Critical patent/JP5120185B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮影範囲制御装置、撮影範囲制御方法及びコンピュータプログラムに関し、詳細には、複数の地点をネットワークで結んで行うテレビ会議システムのカメラの撮影範囲制御装置、撮影範囲制御方法及びコンピュータプログラムに関する。   The present invention relates to a shooting range control device, a shooting range control method, and a computer program. More specifically, the present invention relates to a shooting range control device, a shooting range control method, and a computer program for a camera of a video conference system that connects a plurality of points via a network. .

従来、複数の端末をネットワークを介して接続し、画像と音声を双方向に送受信することにより、遠隔の地にある者同士の会議を実現するテレビ会議システムが知られている。このテレビ会議システムにおいて、相手側の端末のカメラの撮影範囲を制御する技術が提案されている(例えば、特許文献1参照。)。このテレビ会議システムでは、相手側のカメラの撮影範囲を制御する権利は、制御を始めた側の端末が持っている。
特開平2003−274255号公報
2. Description of the Related Art Conventionally, there has been known a video conference system that realizes a conference between persons at remote locations by connecting a plurality of terminals via a network and bidirectionally transmitting and receiving images and sounds. In this video conference system, a technique for controlling the photographing range of the camera of the partner terminal has been proposed (see, for example, Patent Document 1). In this video conference system, the terminal that started the control has the right to control the shooting range of the other camera.
Japanese Patent Laid-Open No. 2003-274255

しかしながら、上記従来のテレビ会議システムでは、3箇所以上の複数の地点を結んでテレビ会議を行う場合には、現在、カメラの撮影範囲を制御している端末以外の地点の端末からカメラの撮影範囲を制御したくても出来ないという問題点があった。この場合には、第一の地点が第二の地点のカメラを操作すると、第三の地点は、新しく決まる画角について、実際にカメラが動いた後でないと確認できなかった。従って、第三の地点の見ていた物が写らなくなることがあり、カメラを再度操作しなければならず、スムーズな会議ができなくなるという問題点もあった。   However, in the conventional video conference system, when a video conference is performed by connecting a plurality of three or more points, the shooting range of the camera from the terminal other than the terminal that currently controls the shooting range of the camera. There was a problem that even if you wanted to control it, you couldn't. In this case, when the first point operates the camera at the second point, the third point can be confirmed only after the camera has actually moved with respect to the newly determined angle of view. Therefore, the object that the third point was looking at may not be captured, the camera must be operated again, and a smooth conference cannot be performed.

本発明は、上記課題を解決するためになされたものであり、テレビ会議システムにおいて、カメラを操作してない端末からもカメラの操作に制限を加えることのできるテレビ会議システムのカメラの撮影範囲制御装置、撮影範囲制御方法及びコンピュータプログラムを提供することを目的とする。   The present invention has been made in order to solve the above-described problem, and in the video conference system, control of the shooting range of the camera of the video conference system that can limit the operation of the camera even from a terminal that does not operate the camera. It is an object to provide an apparatus, an imaging range control method, and a computer program.

上記目的を達成するために、請求項1に係る発明の撮影範囲制御装置は、遠隔会議に参加する会議参加者に見せる画像を撮影する撮影手段と、前記撮影手段の撮影範囲を示す撮影範囲情報に基づいて前記撮影手段の撮影範囲を切り替える切替手段とを備える遠隔会議装置を複数の地点に設置して、各遠隔会議装置が、自身が撮影した画像を、ネットワークを介して、他の遠隔会議装置に送信するとともに、他の遠隔会議装置から送信されてきた画像を表示することによって実施される遠隔会議において、各遠隔会議装置の前記撮影手段の撮影範囲を制御する撮影範囲制御装置であって、前記撮影手段の撮影可能な全範囲の画像を撮影するように前記撮影手段を制御する撮影制御手段と、前記撮影手段が撮影した撮影可能な全範囲の画像を合成して、一枚の静止画像を作成する画像合成手段と、操作対象となる遠隔会議装置の前記撮影手段の撮影可能範囲の前記静止画像の中で、前記撮影手段の現在の撮影範囲の画角の現在枠情報を作成する現在枠情報作成手段と、前記撮影可能範囲の前記静止画像の中の次に撮影される画角の情報である選択枠情報を作成する選択枠情報作成手段と、前記操作対象となる遠隔会議装置自身又は他の遠隔会議装置から前記選択枠情報を操作する操作情報を受信する操作情報受信手段と、次に撮影される前記撮影手段の撮影範囲の操作をしている遠隔会議装置以外の他の遠隔会議装置から、前記静止画像の中で次に撮影したい箇所の座標情報である指定座標情報を受信する指定座標情報受信手段と、前記操作情報受信手段が受信した操作情報に基づいて前記選択枠情報作成手段が選択枠情報を作成する場合に、前記指定座標情報受信手段が受信した指定座標情報を含む範囲で前記選択枠情報を作成するように前記選択枠情報作成手段を制御する選択枠制御手段と、前記選択枠制御手段の制御により前記選択枠情報作成手段が作成した前記選択枠情報の示す画角となるように前記撮影手段を制御する撮影制御情報を作成する撮影制御情報作成手段と、当該撮影制御情報作成手段が作成した撮影制御情報を操作対象となっている遠隔会議装置に送信する送信手段とを備えたことを特徴とする。   In order to achieve the above object, an imaging range control apparatus according to a first aspect of the present invention is an imaging means for imaging an image shown to a conference participant participating in a remote conference, and imaging range information indicating the imaging range of the imaging means. And a remote conferencing device comprising switching means for switching the photographing range of the photographing means at a plurality of points, and each remote conference device transmits images taken by itself to other remote conferences via a network. An imaging range control device for controlling an imaging range of the imaging means of each remote conference device in a remote conference implemented by displaying an image transmitted from another remote conference device while transmitting to the device A shooting control means for controlling the shooting means so as to take an image of the entire range that can be shot by the shooting means, and an image of the entire range that can be shot by the shooting means. The image composition means for creating a single still image and the field angle of the current photographing range of the photographing means among the still images of the photographing range of the photographing means of the remote conference device to be operated. Current frame information creating means for creating current frame information, selection frame information creating means for creating selection frame information that is information of an angle of view to be photographed next in the still image in the shootable range, and the operation An operation information receiving unit that receives operation information for operating the selection frame information from the target remote conference device itself or another remote conference device, and a remote that is operating the imaging range of the imaging unit to be imaged next Designated coordinate information receiving means for receiving designated coordinate information that is coordinate information of a location to be photographed next in the still image from the remote conference apparatus other than the conference apparatus, and the operation information received by the operation information receiving means On the basis of the When the selection frame information creating unit creates selection frame information, the selection frame information creating unit is controlled to create the selection frame information within a range including the designated coordinate information received by the designated coordinate information receiving unit. Shooting control information for creating selection frame control means and shooting control information for controlling the shooting means so that the angle of view indicated by the selection frame information created by the selection frame information creation means is controlled by the selection frame control means The image forming apparatus includes: a creating unit; and a transmitting unit that transmits the shooting control information created by the shooting control information creating unit to the remote conference apparatus that is an operation target.

また、請求項2に係る発明の撮影範囲制御装置は、請求項1に記載の発明の構成に加え、前記指定座標情報受信手段が前記指定座標情報を複数受信した場合には、前記撮影制御情報作成手段は、その複数の座標の重心を次に撮影する画角の中心にするように前記撮影制御情報を作成することを特徴とする。   According to a second aspect of the present invention, in addition to the configuration of the first aspect of the present invention, when the designated coordinate information receiving unit receives a plurality of the designated coordinate information, the photographing range control device is provided. The creating means creates the shooting control information so that the center of gravity of the plurality of coordinates is set to the center of the angle of view to be shot next.

また、請求項3に係る発明の撮影範囲制御装置は、請求項2に記載の発明の構成に加え、前記複数の指定座標情報に重みを付与する重み付与手段を設け、前記撮影制御情報作成手段は、前記重み付与手段が付与した重みに基づいて、複数の座標の重心を決定して、次に撮影する画角の中心にするように前記撮影制御情報を作成することを特徴とする。   According to a third aspect of the present invention, in addition to the configuration of the second aspect of the present invention, a photographing range control device is provided with weight giving means for giving weights to the plurality of designated coordinate information, and the photographing control information creating means Is characterized in that, based on the weight assigned by the weight assigning means, the center of gravity of a plurality of coordinates is determined and the photographing control information is created so as to be the center of the angle of view to be photographed next.

また、請求項4に係る発明の撮影範囲制御装置は、請求項1乃至3の何れかに記載の発明の構成に加え、前記遠隔会議の参加時に、前記遠隔会議装置から属するグループを示すグループ情報を受信するグループ情報受信手段と、前記グループ情報受信手段が同じグループ情報を受信した遠隔会議装置に対してのみ前記選択枠情報を送信する選択枠情報送信手段とを備えたことを特徴とする。   According to a fourth aspect of the present invention, in addition to the configuration of the first aspect of the present invention, the photographing range control device includes group information indicating groups belonging to the remote conference device when participating in the remote conference. And a selection frame information transmission unit that transmits the selection frame information only to a remote conference device that has received the same group information.

また、請求項5に係る発明の撮影範囲制御装置は、請求項1乃至4の何れかに記載の発明の構成に加え、前記指定座標情報を複数受信した場合に、当該複数の指定座標情報が画角に入らない場合に、前記選択枠情報を操作している遠隔会議装置からの操作情報により前記選択枠情報が操作されて、画角に入れる指定座標情報を選択可能であることを特徴とする。   According to a fifth aspect of the present invention, in addition to the configuration of the first aspect of the present invention, when the plurality of designated coordinate information items are received, the plurality of designated coordinate information items are stored. When the angle of view is not entered, the selection frame information is operated by the operation information from the remote conference device that is operating the selection frame information, and the designated coordinate information to be included in the angle of view can be selected. To do.

また、請求項6に係る発明の撮影範囲制御装置は、請求項1乃至5の何れかに記載の発明の構成に加え、前記撮影範囲制御装置は、各遠隔会議装置を接続するサーバから構成されることを特徴とする。   According to a sixth aspect of the present invention, in addition to the configuration of the invention according to any one of the first to fifth aspects, the photographing range control device includes a server that connects each remote conference device. It is characterized by that.

また、請求項7に係る発明の撮影範囲制御装置は、請求項1乃至5の何れかに記載の発明の構成に加え、前記撮影範囲制御装置は、各遠隔会議装置の何れかで構成されることを特徴とする。   According to a seventh aspect of the present invention, in addition to the configuration of the invention according to any one of the first to fifth aspects, the photographing range control device includes any one of the remote conference devices. It is characterized by that.

また、請求項8に係る発明の撮影範囲制御方法は、遠隔会議に参加する会議参加者に見せる画像を撮影する撮影手段と、前記撮影手段の撮影範囲を示す撮影範囲情報に基づいて前記撮影手段の撮影範囲を切り替える切替手段とを備える遠隔会議装置を複数の地点に設置して、各遠隔会議装置が、自身が撮影した画像を、ネットワークを介して、他の遠隔会議装置に送信するとともに、他の遠隔会議装置から送信されてきた画像を表示することによって実施される遠隔会議において、各遠隔会議装置の前記撮影手段の撮影範囲を制御する撮影範囲制御装置の撮影範囲制御方法であって、当該撮影範囲制御装置は、前記撮影手段の撮影可能な全範囲の画像を撮影するように前記撮影手段を制御する撮影制御ステップと、前記撮影手段が撮影した撮影可能な全範囲の画像を合成して、一枚の静止画像を作成する画像合成ステップと、操作対象となる遠隔会議装置の前記撮影手段の撮影可能範囲の前記静止画像の中で、前記撮影手段の現在の撮影範囲の画角の現在枠情報を作成する現在枠情報作成ステップと、前記撮影可能範囲の前記静止画像の中の次に撮影される画角の情報である選択枠情報を作成する選択枠情報作成ステップと、前記操作対象となる遠隔会議装置自身又は他の遠隔会議装置から前記選択枠情報を操作する操作情報を受信する操作情報受信ステップと、次に撮影される前記撮影手段の撮影範囲の操作をしている遠隔会議装置以外の他の遠隔会議装置から、前記静止画像の中で次に撮影したい箇所の座標情報である指定座標情報を受信する指定座標情報受信ステップと、前記操作情報受信ステップで受信した操作情報に基づいて前記選択枠情報作成ステップで選択枠情報を作成する場合に、前記指定座標情報受信ステップで受信した指定座標情報を含む範囲で前記選択枠情報を作成するように制御する選択枠制御ステップと、前記選択枠制御ステップの制御により作成した前記選択枠情報の示す画角となるように前記撮影手段を制御する撮影制御情報を作成する撮影制御情報作成ステップと、当該撮影制御情報作成ステップ作成した撮影制御情報を操作対象となっている遠隔会議装置に送信する送信ステップとを実行することを特徴とする。 According to an eighth aspect of the present invention, there is provided a photographing range control method comprising: photographing means for photographing an image shown to a conference participant participating in a remote conference; and the photographing means based on photographing range information indicating a photographing range of the photographing means. Remote conference devices provided with switching means for switching the shooting range of each of the remote conference devices, each remote conference device transmits an image captured by itself to other remote conference devices via a network, In a remote conference implemented by displaying an image transmitted from another remote conference device, a shooting range control method of a shooting range control device for controlling the shooting range of the shooting means of each remote conference device, the shooting range control device includes a photographing control step of controlling the imaging means to capture the entire range image capturing possible of the photographing means, taking the photographing means has taken An image compositing step for composing all possible range images to create a single still image, and the image capturing means among the still images in the image capturing range of the image capturing means of the remote conference device to be operated A current frame information creating step for creating current frame information of the angle of view of the current shooting range, and selection frame information which is information of the angle of view to be taken next in the still image of the shootable range. A selection frame information creating step; an operation information receiving step for receiving operation information for operating the selection frame information from the remote conference device itself or another remote conference device to be operated; and A designated coordinate information receiving step for receiving designated coordinate information, which is coordinate information of a location to be photographed next in the still image, from a remote conference device other than the remote conference device operating the photographing range; When creating a selection frame information in the selected frame information creation step on the basis of the operation information received by the operation information receiving step, creating the selection frame information in a range including the designated coordinates information received by the specified coordinate information receiving step A selection frame control step for controlling to perform, and a shooting control information creation step for creating shooting control information for controlling the photographing means so as to have an angle of view indicated by the selection frame information created by the control of the selection frame control step When, and executes a transmission step of transmitting to the remote conference apparatus which is an imaging control information created in the imaging control information creating step and operation target.

また、請求項9に係る発明のコンピュータプログラムは、前記撮影範囲制御装置を制御するコンピュータに請求項8に記載の撮影範囲制御方法の各ステップを実行させることを特徴とする。 According to a ninth aspect of the present invention, there is provided a computer program that causes a computer that controls the photographing range control device to execute each step of the photographing range control method according to the eighth aspect.

請求項1に係る発明の撮影範囲制御装置では、第一の遠隔会議装置が第二の遠隔会議装置の撮影手段の撮影範囲の画角の制御をしているときに、第三の遠隔会議装置が第二の遠隔会議装置の撮影手段が撮影可能な全範囲の画像を合成した一枚の静止画像の中で次に撮影したい箇所の座標情報である指定座標情報を撮影範囲制御装置に送信することにより、第一の遠隔会議装置以外の遠隔会議装置からも必ず次に撮影させたい地点をしてすることが可能となる。従って、他地点の見ていた物が写らなくなることを防止でき、カメラを再度操作する必要を無くし、スムーズな会議ができる。   In the photographing range control device of the invention according to claim 1, when the first remote conference device is controlling the angle of view of the photographing range of the photographing means of the second remote conference device, the third remote conference device Transmits the designated coordinate information, which is the coordinate information of the location to be photographed next, in one still image obtained by synthesizing the entire range of images that can be photographed by the photographing means of the second teleconference device to the photographing range control device. Thus, it is possible to make a point to be taken next from a remote conference device other than the first remote conference device. Therefore, it is possible to prevent an object that was viewed at another point from being lost, to eliminate the need to operate the camera again, and to perform a smooth conference.

また、請求項2に係る発明の撮影範囲制御装置では、請求項1に記載の発明の効果に加え、指定座標情報を複数受信した場合には、撮影制御情報作成手段は、その複数の座標の重心を次に撮影する画角の中心にするように撮影制御情報を作成するので、複数の遠隔会議装置が次に撮影させたい地点を中心として、画角を決定することができる。撮影範囲制御装置の多くのユーザが希望する地点を中心として、画角を決定することができる。   In addition, in the imaging range control device of the invention according to claim 2, in addition to the effect of the invention of claim 1, when receiving a plurality of designated coordinate information, the imaging control information creating means Since the photographing control information is created so that the center of gravity is set to the center of the angle of view to be photographed next, the angle of view can be determined around the point where the plurality of remote conference apparatuses want to photograph next. The angle of view can be determined around a point desired by many users of the imaging range control device.

また、請求項3に係る発明の撮影範囲制御装置では、請求項2に記載の発明の効果に加え、撮影制御情報作成手段は、重み付与手段が付与した重みに基づいて、複数の座標の重心を決定して、次に撮影する画角の中心にするように撮影制御情報を作成するので、優先度が高い地点よりに画角を決定することができる。   According to a third aspect of the present invention, in addition to the effect of the second aspect of the present invention, the photographing control information creating means includes a plurality of coordinate centers of gravity based on the weight given by the weight assigning means. Since the shooting control information is created so as to be at the center of the angle of view to be shot next, the angle of view can be determined from a point with a higher priority.

また、請求項4に係る発明の撮影範囲制御装置では、請求項1乃至3の何れかに記載の発明の効果に加え、選択枠情報送信手段はグループ情報受信手段が同じグループ情報を受信した遠隔会議装置に対してのみ前記選択枠情報を送信するので、限定された範囲の遠隔会議装置のみに次に撮影する画角の制御を行わせることができる。   According to a fourth aspect of the present invention, in addition to the effects of the first to third aspects, the selection frame information transmitting means is a remote control that receives the same group information from the group information receiving means. Since the selection frame information is transmitted only to the conference device, only the remote conference device within a limited range can control the angle of view to be photographed next.

また、請求項5に係る発明の撮影範囲制御装置では、請求項1乃至4の何れかに記載の発明の効果に加え、指定座標情報を複数受信した場合に、複数の指定座標情報が画角に入らない場合に、選択枠情報を操作している遠隔会議装置からの操作情報により選択枠情報が操作されて、画角に入れる指定座標情報を選択可能であるので、複数の地点から任意の地点を選択して選択枠に入れることができる。   In addition, in the imaging range control device of the invention according to claim 5, in addition to the effect of the invention according to any one of claims 1 to 4, when a plurality of designated coordinate information is received, the plurality of designated coordinate information are If the selection frame information is operated by the operation information from the remote conference device that is operating the selection frame information and the designated coordinate information to be included in the angle of view can be selected. You can select a point and put it in the selection frame.

また、請求項6に係る発明の撮影範囲制御装置では、請求項1乃至5の何れかに記載の発明の効果に加え、撮影範囲制御装置としてサーバを利用できるので、遠隔会議装置の能力が高くなくてもサーバにより各種の処理を行うことができる。   Further, in the shooting range control device of the invention according to claim 6, in addition to the effect of the invention according to any one of claims 1 to 5, since the server can be used as the shooting range control device, the capability of the remote conference device is high. Various processes can be performed by the server even without them.

また、請求項7に係る発明の撮影範囲制御装置では、請求項1乃至5の何れかに記載の発明の効果に加え、撮影範囲制御装置として遠隔会議装置を利用できるので、サーバを省略できる。   In addition, in the shooting range control device of the invention according to claim 7, in addition to the effect of the invention of any one of claims 1 to 5, the remote conference device can be used as the shooting range control device, so that the server can be omitted.

また、請求項8に係る発明の撮影範囲制御方法では、第一の遠隔会議装置が第二の遠隔会議装置の撮影手段の撮影範囲の画角の制御をしているときに、第三の遠隔会議装置が第二の遠隔会議装置の撮影手段が撮影可能な全範囲の画像を合成した一枚の静止画像の中で次に撮影したい箇所の座標情報である指定座標情報を撮影範囲制御装置に送信することにより、第一の遠隔会議装置以外の遠隔会議装置からも必ず次に撮影させたい地点をしてすることが可能となる。従って、他地点の見ていた物が写らなくなることを防止でき、カメラを再度操作する必要を無くし、スムーズな会議ができる。   In the shooting range control method of the invention according to claim 8, when the first remote conference device controls the angle of view of the shooting range of the shooting means of the second remote conference device, the third remote conference device The designated coordinate information, which is the coordinate information of the location to be photographed next in one still image obtained by synthesizing the entire range of images that can be photographed by the photographing means of the second teleconference device, is sent to the photographing range control device. By transmitting, it is possible to make a point to be taken next from a remote conference device other than the first remote conference device. Therefore, it is possible to prevent an object that was viewed at another point from being lost, to eliminate the need to operate the camera again, and to perform a smooth conference.

また、請求項9に係る発明のコンピュータプログラムでは、撮影範囲制御装置を制御するコンピュータに請求項8に記載の撮影範囲制御方法の各ステップを実行させることにより、請求項8に記載の発明の効果を奏することができる。 In the computer program of the invention according to claim 9, by causing a computer that controls the shooting range control device to execute each step of the shooting range control method according to claim 8, the effect of the invention according to claim 8 is achieved. Can be played.

以下、本発明の一実施形態であるテレビ会議システム1について、図面を参照して説明する。はじめに、テレビ会議システム1の構成について、図1を参照して説明する。図1は、テレビ会議システム1の構成を示すブロック図である。   Hereinafter, a video conference system 1 according to an embodiment of the present invention will be described with reference to the drawings. First, the configuration of the video conference system 1 will be described with reference to FIG. FIG. 1 is a block diagram showing a configuration of the video conference system 1.

図1に示すように、テレビ会議システム1は、各地点毎に設けられた複数の端末3と、これら複数の端末3間で開催される会議を統括する会議サーバ4とを備え、これらがネットワーク2を介して相互に接続されている。尚、説明のため、A地点に設置された端末を端末3Aとし、B地点に設置された端末を端末3Bとし、C地点に設置された端末を端末3Cとする。このテレビ会議システム1では、端末3間において、ネットワーク2を介して、画像、音声が互いに送受信されることで、遠隔会議が実施される。   As shown in FIG. 1, the video conference system 1 includes a plurality of terminals 3 provided for each point, and a conference server 4 that supervises a conference held between the plurality of terminals 3. 2 to each other. For the sake of explanation, it is assumed that the terminal installed at point A is terminal 3A, the terminal installed at point B is terminal 3B, and the terminal installed at point C is terminal 3C. In this video conference system 1, a remote conference is performed by transmitting and receiving images and sounds between the terminals 3 via the network 2.

次に、端末3の電気的構成について、図2を参照して説明する。図2は、端末3の電気的構成を示すブロック図である。端末3には、端末3の制御を司るコントローラとしてのCPU20が設けられ、そのCPU20には、BIOS等を記憶したROM21と、各種データを一時的に記憶するRAM22と、データの受け渡しの仲介を行うI/Oインタフェイス30とが接続されている。I/Oインタフェイス30には、ハードディスクドライブ31(以下、HDD31)が接続されている。HDD31には、プログラム記憶エリア312と、その他の情報記憶エリア313とが少なくとも設けられている。   Next, the electrical configuration of the terminal 3 will be described with reference to FIG. FIG. 2 is a block diagram showing an electrical configuration of the terminal 3. The terminal 3 is provided with a CPU 20 serving as a controller for controlling the terminal 3. The CPU 20 mediates data transfer between a ROM 21 storing BIOS and the like, a RAM 22 temporarily storing various data. An I / O interface 30 is connected. A hard disk drive 31 (hereinafter referred to as HDD 31) is connected to the I / O interface 30. The HDD 31 is provided with at least a program storage area 312 and other information storage areas 313.

プログラム記憶エリア312には、端末3のメインプログラムや、他の端末3との間で会議を実行するための会議実行プログラム等が記憶されている。その他の情報記憶エリア313には、端末3で使用されるその他の情報が記憶されている。なお、端末3がHDD31を備えていない専用機の場合は、ROM21に各種プログラムが記憶される。   The program storage area 312 stores a main program of the terminal 3, a conference execution program for executing a conference with another terminal 3, and the like. In the other information storage area 313, other information used in the terminal 3 is stored. When the terminal 3 is a dedicated machine that does not include the HDD 31, various programs are stored in the ROM 21.

また、I/Oインタフェイス30には、ネットワーク2と通信するための通信装置25と、マウス27と、ビデオコントローラ23と、キーコントローラ24と、カードリーダ制御部32と、ユーザを撮影するためのカメラ34の方向やレンズのズームを制御するカメラ制御部36と、ユーザの音声を取り込むためのマイク35と、CD−ROMドライブ26とが接続されている。ビデオコントローラ23にはディスプレイ28が接続され、キーコントローラ24にはキーボード29が接続され、カードリーダ制御部32には、各ユーザが所有する識別カード(図示外)に記憶されたユーザを識別するためのユーザIDを読み込むためのカードリーダ33が接続され、カメラ制御部36には、カメラ34が接続されている。尚、カメラ34には、上下左右に方向を変えるための電動雲台37と電動のズームレンズ38が備えられており、カメラ制御部36の制御によりこれらは駆動されて、カメラの方向及び画角が変更される。   The I / O interface 30 includes a communication device 25 for communicating with the network 2, a mouse 27, a video controller 23, a key controller 24, a card reader control unit 32, and a user for photographing. A camera control unit 36 that controls the direction of the camera 34 and the zoom of the lens, a microphone 35 for capturing the user's voice, and a CD-ROM drive 26 are connected. A display 28 is connected to the video controller 23, a keyboard 29 is connected to the key controller 24, and a card reader control unit 32 is used to identify a user stored in an identification card (not shown) owned by each user. A card reader 33 for reading the user ID is connected, and a camera 34 is connected to the camera control unit 36. The camera 34 is provided with an electric head 37 for changing the direction up, down, left and right and an electric zoom lens 38. These are driven by the control of the camera control unit 36, and the direction and angle of view of the camera. Is changed.

なお、CD−ROMドライブ26に挿入されるCD−ROM114には、上記したメインプログラムや、会議実行プログラム、撮影範囲制御方法のプログラム等が記憶され、導入時には、これら各種プログラムが、CD−ROM114からハードディスクドライブ31にセットアップされて、プログラム記憶エリア312に記憶される。   The CD-ROM 114 inserted into the CD-ROM drive 26 stores the above main program, conference execution program, shooting range control method program, and the like. At the time of introduction, these various programs are loaded from the CD-ROM 114. The hard disk drive 31 is set up and stored in the program storage area 312.

次に、会議サーバ4の電気的構成について、図3を参照して説明する。図3は、会議サーバ4の電気的構成を示すブロック図である。会議サーバ4には、会議サーバ4の制御を司るコントローラとしてのCPU40が設けられ、そのCPU40には、BIOS等を記憶したROM41と、各種データを一時的に記憶するRAM42と、データの受け渡しの仲介を行うI/Oインタフェイス50とが接続されている。I/Oインタフェイス50には、ハードディスクドライブ51(以下、「HDD51」と言う。)が接続されている。HDD51には、後述する各種記憶エリアが少なくとも設けられている(図4参照)。   Next, the electrical configuration of the conference server 4 will be described with reference to FIG. FIG. 3 is a block diagram showing an electrical configuration of the conference server 4. The conference server 4 is provided with a CPU 40 as a controller that controls the conference server 4. The CPU 40 includes a ROM 41 that stores BIOS and the like, a RAM 42 that temporarily stores various data, and an intermediary for data transfer. Is connected to the I / O interface 50. A hard disk drive 51 (hereinafter referred to as “HDD 51”) is connected to the I / O interface 50. The HDD 51 is provided with at least various storage areas described later (see FIG. 4).

また、I/Oインタフェイス50には、ネットワーク2と通信するための通信装置45と、マウス47と、ビデオコントローラ43と、キーコントローラ44と、CD−ROMドライブ46と、計時装置52が接続されている。ビデオコントローラ43にはディスプレイ48が接続され、キーコントローラ44にはキーボード49が接続されている。   Further, a communication device 45 for communicating with the network 2, a mouse 47, a video controller 43, a key controller 44, a CD-ROM drive 46, and a timing device 52 are connected to the I / O interface 50. ing. A display 48 is connected to the video controller 43, and a keyboard 49 is connected to the key controller 44.

なお、CD−ROMドライブ46に挿入されるCD−ROM115には、後述するメインプログラムや、会議管理プログラムや、撮影範囲制御方法のプログラム等が記憶され、導入時には、これら各種プログラムが、CD−ROM115からHDD51にセットアップされて、プログラム記憶エリア516に記憶される。   The CD-ROM 115 inserted into the CD-ROM drive 46 stores a main program, a conference management program, a shooting range control method program, and the like which will be described later. To the HDD 51 and stored in the program storage area 516.

次に、HDD51の各種記憶エリアについて、図4を参照して説明する。図4は、HDD51の各記憶エリアを示す概念図である。HDD51には、ユーザ情報テーブル記憶エリア511と、ログインテーブル記憶エリア512と、会議テーブル記憶エリア513と、参加受付テーブル記憶エリア514と、カメラ操作参加情報テーブル記憶エリア515と、プログラム記憶エリア516と、端末毎の重み付けを記憶した重み付け記憶エリア517と、その他の情報記憶エリア518とが少なくとも設けられている。   Next, various storage areas of the HDD 51 will be described with reference to FIG. FIG. 4 is a conceptual diagram showing each storage area of the HDD 51. The HDD 51 includes a user information table storage area 511, a login table storage area 512, a conference table storage area 513, a participation reception table storage area 514, a camera operation participation information table storage area 515, a program storage area 516, At least a weight storage area 517 that stores the weight for each terminal and other information storage areas 518 are provided.

ユーザ情報テーブル記憶エリア511には、ユーザ情報テーブル5111(図5参照)が記憶されている。ログインテーブル記憶エリア512には、ログインテーブル5121(図6参照)が記憶されている。会議テーブル記憶エリア513には、会議テーブル5131(図7参照)が記憶されている。参加受付テーブル記憶エリア514には、参加受付テーブル5141(図8参照)が記憶されている。カメラ操作参加情報テーブル記憶エリア515には、カメラ操作参加情報テーブル5151(図9参照)が記憶されている。また、プログラム記憶エリア516には、会議サーバ4のメインプログラムや、端末3間で開催される会議を管理するための会議管理プログラム等が記憶されている。重み付け記憶エリア517には、後述する複数の操作制限情報(ポインタ)の各座標に重みを付けて重心を算出するための重みが記憶されている。その他の情報記憶エリア518には、会議サーバ4で使用されるその他の情報が記憶されている。なお、会議サーバ4がHDD51を備えていない専用機の場合は、ROM41に各種プログラムが記憶される。以下、各テーブルについて順に説明する。   The user information table storage area 511 stores a user information table 5111 (see FIG. 5). The login table storage area 512 stores a login table 5121 (see FIG. 6). In the conference table storage area 513, a conference table 5131 (see FIG. 7) is stored. In the participation reception table storage area 514, a participation reception table 5141 (see FIG. 8) is stored. The camera operation participation information table storage area 515 stores a camera operation participation information table 5151 (see FIG. 9). The program storage area 516 stores a main program of the conference server 4, a conference management program for managing a conference held between the terminals 3, and the like. The weight storage area 517 stores a weight for calculating the center of gravity by weighting each coordinate of a plurality of operation restriction information (pointers) described later. The other information storage area 518 stores other information used by the conference server 4. When the conference server 4 is a dedicated machine that does not include the HDD 51, various programs are stored in the ROM 41. Hereinafter, each table will be described in order.

まず、ユーザ情報テーブル5111について、図5を参照して説明する。図5は、ユーザ情報テーブル5111の概念図である。ユーザ情報テーブル5111は、ユーザがテレビ会議システム1にログインする際の認証に用いるためのテーブルである。ユーザ情報テーブル5111には、各ユーザにそれぞれ対応するユーザ情報が各々記憶されている。具体的には、ユーザを識別するためのユーザID、ログインする際のパスワード、氏名、会社名等が各々記憶されている。ユーザは、これらのユーザ情報を、ユーザ情報テーブル5111に事前に登録を済ませておくこととする。このユーザ情報テーブル5111により、テレビ会議システム1を利用するユーザを管理できる。   First, the user information table 5111 will be described with reference to FIG. FIG. 5 is a conceptual diagram of the user information table 5111. The user information table 5111 is a table used for authentication when the user logs in to the video conference system 1. The user information table 5111 stores user information corresponding to each user. Specifically, a user ID for identifying a user, a password for logging in, a name, a company name, and the like are stored. The user registers these pieces of user information in the user information table 5111 in advance. With this user information table 5111, users who use the video conference system 1 can be managed.

次に、ログインテーブル5121について、図6を参照して説明する。図6は、ログインテーブル5121の概念図である。ログインテーブル5121には、ネットワーク2にログインしたユーザのユーザIDと、そのユーザIDが登録された端末3の端末IDとが記憶される。即ち、ログインテーブル5121のユーザIDの欄には、カードリーダ33で読み取られた識別カード(図示外)に記憶されたユーザIDが記憶される。さらに、端末IDの欄には、そのユーザIDを送信した端末3を識別する端末IDが記憶される。なお、端末IDとは、端末3のマックアドレス等である。   Next, the login table 5121 will be described with reference to FIG. FIG. 6 is a conceptual diagram of the login table 5121. The login table 5121 stores the user ID of the user who has logged into the network 2 and the terminal ID of the terminal 3 in which the user ID is registered. That is, a user ID stored in an identification card (not shown) read by the card reader 33 is stored in the user ID column of the login table 5121. Further, a terminal ID for identifying the terminal 3 that transmitted the user ID is stored in the terminal ID column. The terminal ID is a Mac address of the terminal 3 or the like.

例えば、ユーザである「兄弟太郎」さん(図5参照)がログインした場合、兄弟太郎さんが所有する識別カードをカードリーダ33に読み取らせる。この場合、その識別カードに記憶されたユーザID=「A0001」と、そのユーザIDを送信した端末3の端末ID=「0001」とが、ログインテーブル5121に各々記憶される。その他のユーザである兄弟次郎さん、兄弟三郎さん、販売太郎さん、販売次郎さん達についても同様に設定される。このように、ログインテーブル5121は、ネットワーク2にログインしたユーザと、そのユーザが登録された端末3とを管理するものである。   For example, when the user “Taro Brothers” (see FIG. 5) logs in, the card reader 33 reads the identification card owned by Brother Taro. In this case, the user ID = “A0001” stored in the identification card and the terminal ID = “0001” of the terminal 3 that transmitted the user ID are stored in the login table 5121, respectively. Other users, such as Jiro Jiro, Jiro Saburo, Taro Sales, and Jiro Sales, are similarly set. Thus, the login table 5121 manages the users who have logged into the network 2 and the terminals 3 to which the users are registered.

次に、会議テーブル5131について、図7を参照して説明する。図7は、会議テーブル5131の概念図である。会議テーブル5131には、ユーザIDと、そのユーザIDが参加メンバーとして予め登録されている会議を識別する会議IDとが各々記憶されている。例えば、兄弟太郎さん、兄弟次郎さん、兄弟三郎さん、販売太郎さん、販売次郎さんは、会議ID=001の会議の参加メンバーとして、会議テーブル5131に予め登録されている。これにより、会議の参加者を管理できる。   Next, the conference table 5131 will be described with reference to FIG. FIG. 7 is a conceptual diagram of the conference table 5131. The conference table 5131 stores a user ID and a conference ID for identifying a conference in which the user ID is registered in advance as a participating member. For example, Brother Taro, Brother Jiro, Brother Saburo, Sales Taro, and Sales Jiro are registered in advance in the conference table 5131 as participating members of the conference with conference ID = 001. Thereby, the participant of a meeting can be managed.

次に、参加受付テーブル5141について、図8を参照して説明する。図8は、参加受付テーブル5141の概念図である。参加受付テーブル5141には、予め登録された会議IDに対して、その会議IDに対応する会議に現在ログインしているユーザIDが、会議参加IDとして記憶されている。例えば、参加受付テーブル5141の1行目では、会議ID=「001」に対して、会議参加ID=「A0001」、「A0002」、「B0001」のユーザが現在ログインしていることを示している。   Next, the participation reception table 5141 will be described with reference to FIG. FIG. 8 is a conceptual diagram of the participation reception table 5141. In the participation reception table 5141, for a conference ID registered in advance, a user ID currently logged in to a conference corresponding to the conference ID is stored as a conference participation ID. For example, the first line of the participation reception table 5141 indicates that the user of the conference participation ID = “A0001”, “A0002”, “B0001” is currently logged in for the conference ID = “001”. .

次に、カメラ操作参加情報テーブル5151について、図9を参照して説明する。図9は、カメラ操作参加情報テーブル5151の概念図である。カメラ操作参加情報テーブル5151には、カメラ34の画角を調整する操作に参加する端末3の端末IDが記憶されている。   Next, the camera operation participation information table 5151 will be described with reference to FIG. FIG. 9 is a conceptual diagram of the camera operation participation information table 5151. The camera operation participation information table 5151 stores the terminal ID of the terminal 3 participating in the operation for adjusting the angle of view of the camera 34.

次に、図10を参照して、端末3のRAM22の記憶エリアを説明する。図10は、端末3のRAM22の記憶エリアの概念図である。図10に示すように、端末3のRAM22には、自身が備えるカメラ34で撮影した撮影可能範囲の合成画像と、撮影可能範囲等を記憶する自端末撮影情報記憶エリア221と、他の端末3から受信した他の端末3の合成画像と撮影可能範囲等を記憶する他端末撮影情報記憶エリア222と、その他データを記憶するエリア等が設けられている。   Next, the storage area of the RAM 22 of the terminal 3 will be described with reference to FIG. FIG. 10 is a conceptual diagram of a storage area of the RAM 22 of the terminal 3. As illustrated in FIG. 10, the RAM 22 of the terminal 3 includes a composite image of a shootable range shot by the camera 34 included in the terminal 3, a local terminal shooting information storage area 221 that stores the shootable range and the like, and other terminals 3. The other terminal photographing information storage area 222 for storing the composite image of the other terminal 3 received from the above and the shootable range, the area for storing other data, and the like are provided.

次に、端末3のディスプレイ28に表示される画面について、図11を参照して説明する。図11は、A地点の端末3Aのディスプレイ28に表示された分割された表示部281〜284を示す図である。例えば、図1に示すように、テレビ会議システム1において、A地点〜Cの3つの地点がある場合を想定する。A地点には、端末ID=0001の端末3が設置され、B地点には、端末ID=0002の端末3が設置され、C地点には、端末ID=0003の端末3が設置され設置されている。   Next, the screen displayed on the display 28 of the terminal 3 will be described with reference to FIG. FIG. 11 is a diagram illustrating the divided display units 281 to 284 displayed on the display 28 of the terminal 3A at the point A. For example, as shown in FIG. 1, a case is assumed where there are three points A to C in the video conference system 1. A terminal 3 with terminal ID = 0001 is installed at point A, a terminal 3 with terminal ID = 0002 is installed at point B, and a terminal 3 with terminal ID = 0003 is installed and installed at point C. Yes.

そして、A地点の端末3Aからは、1人の参加者が会議にログインし、B地点の端末3Bからは、2人のユーザが会議にログインし、C地点の端末3Cからは、2人のユーザが会議にログインした場合を想定する。   From the terminal A at the point A, one participant logs into the conference, from the terminal 3B at the point B, two users log into the conference, and from the terminal 3C at the point C, two users Assume that a user logs in to a meeting.

このような状況の場合、A地点〜C地点の各端末3のディスプレイ28には、図11に示す4つの表示部281〜284が表示される。例えば、表示部281には、A地点のカメラ34(図2参照)で撮影された参加者の画像が表示される。表示部282には、B地点のカメラ34(図2参照)で撮影された参加者の画像が表示される。表示部283には、C地点のカメラ34(図2参照)で撮影された参加者の画像が表示される。この段階では、表示部284には何も表示されない。これに合わせ、各端末3A〜3Cのマイク35(図2参照)によって、各A地点、B地点、C地点の各音声が端末3A〜3Cのスピーカ(図示外)から出力されるので、遠く離れた他のA地点、B地点、C地点の間で会議を行うことができる。   In such a situation, the four display units 281 to 284 shown in FIG. 11 are displayed on the display 28 of each terminal 3 at the points A to C. For example, the display unit 281 displays an image of the participant taken by the camera 34 (see FIG. 2) at the point A. On the display unit 282, an image of the participant photographed by the camera 34 (see FIG. 2) at the point B is displayed. The display unit 283 displays an image of the participant photographed by the camera 34 at the point C (see FIG. 2). At this stage, nothing is displayed on the display unit 284. In accordance with this, since the voices of the points A, B, and C are output from the speakers (not shown) of the terminals 3A to 3C by the microphones 35 (see FIG. 2) of the terminals 3A to 3C, they are far away. A conference can be held between other points A, B, and C.

次に、上記構成からなるテレビ会議システム1で行われる処理について説明する。まず、初めに、図12に示すフローチャートを参照して、テレビ会議に参加する各端末3で行われる処理について説明する。図12は、端末3の主制御のフローチャートである。端末3では、電源が投入されると、初めに、CPU20がカメラ制御部36を制御して、カメラ34の電動のズームレンズ38が回転して最大の広角の画角になる。次いで、カメラ34が載置された電動雲台37が上下左右の最大角度まで回転して、カメラ34による撮影可能範囲の全てを撮影する(S11)。そして、その撮影データは、図10に示すRAM22の自端末撮影情報記憶エリア221に記憶される。次いで、RAM22の自端末撮影情報記憶エリア221に記憶された複数の静止画像を合成して、一枚の合成画像を作成する(S11)。この合成画像の作成には周知の画像合成の技術を採用すれば良い。例えば、各静止画像の画像認識を行って、同じ画像の部分を繋ぎ合わせるように合成する処理により行えばよい。合成画像は、RAM22の自端末撮影情報記憶エリア221に記憶される(S11)。また、この撮影可能範囲の合成画像に対応するカメラ34の画像の中心に対する上下の角度、左右の角度からなる撮影可能範囲データも自端末撮影情報記憶エリア221に記憶される(S11)。   Next, processing performed in the video conference system 1 having the above configuration will be described. First, processing performed at each terminal 3 participating in a video conference will be described with reference to the flowchart shown in FIG. FIG. 12 is a flowchart of the main control of the terminal 3. In the terminal 3, when the power is turned on, first, the CPU 20 controls the camera control unit 36, and the electric zoom lens 38 of the camera 34 rotates to obtain the maximum wide angle of view. Next, the electric camera platform 37 on which the camera 34 is placed rotates up to the maximum angle of up, down, left, and right, and the entire range that can be captured by the camera 34 is imaged (S11). The shooting data is stored in the own terminal shooting information storage area 221 of the RAM 22 shown in FIG. Next, a plurality of still images stored in the own terminal photographing information storage area 221 of the RAM 22 are combined to create a single combined image (S11). A well-known image composition technique may be employed to create this composite image. For example, image recognition of each still image may be performed, and processing may be performed by combining the same image portions. The composite image is stored in the own terminal photographing information storage area 221 of the RAM 22 (S11). Further, shootable range data consisting of the vertical and horizontal angles with respect to the center of the image of the camera 34 corresponding to the composite image of the shootable range is also stored in the own terminal shooting information storage area 221 (S11).

次いで、RAM22の自端末撮影情報記憶エリア221に記憶した自端末撮影可能範囲の合成画像と、撮影可能範囲データと、ズームレンズ38をズームインしたときの拡大率のデータを他の端末3に送信する(S12)。このときに、後述するグループコードを記憶している場合には、当該グループコードも他の端末3に送信する(S12)。   Next, the composite image of the own terminal shootable range stored in the own terminal shooting information storage area 221 of the RAM 22, the shootable range data, and the enlargement ratio data when the zoom lens 38 is zoomed in are transmitted to the other terminals 3. (S12). At this time, if a group code described later is stored, the group code is also transmitted to the other terminal 3 (S12).

次いで、他の端末3から送られて来る他の端末の撮影可能範囲の合成画像と、撮影可能範囲データと、ズームレンズ38をズームインしたときの拡大率のデータを受信し(S13)、図10に示すRAM22の他端末撮影情報記憶エリア222に記憶する(S13)。このときに、後述するグループコードを受信している場合には、当該グループコードも他端末撮影情報記憶エリア222に記憶する(S13)。次いで、複数の端末3間での多地点会議を開始する(S14)。次いで、映像とともに現在のカメラ34の中心位置の座標(X.Y)と、ズームレンズ38の拡大率を送信する(S15)。   Next, the composite image of the shootable range of the other terminal, the shootable range data, and the enlargement ratio data obtained when the zoom lens 38 is zoomed in are received from the other terminal 3 (S13). Is stored in the other terminal photographing information storage area 222 (S13). At this time, if a group code to be described later is received, the group code is also stored in the other terminal photographing information storage area 222 (S13). Next, a multipoint conference is started between the plurality of terminals 3 (S14). Next, the coordinates (XY) of the current center position of the camera 34 and the enlargement ratio of the zoom lens 38 are transmitted together with the video (S15).

次いで、他の端末3からの映像と現在のカメラ34の中心位置の座標(X.Y)と、ズームレンズ38の拡大率を受信して、図11に示す合成画像を更新する(S16)。   Next, the video from the other terminal 3, the coordinates (XY) of the current center position of the camera 34, and the enlargement ratio of the zoom lens 38 are received, and the composite image shown in FIG. 11 is updated (S16).

次に、図13乃至図15に示すフローチャートと、図11、図16及び至図17を参照して、端末3におけるカメラ34の撮影範囲制御について説明する。図13は、会議サーバ4で行われる処理のフローチャートである。図14は、撮影範囲の操作を指示しない非操作指示の端末3で行われる制御のフローチャートである。図15は、他の端末3から撮影範囲の操作を指示を受ける端末3でのカメラ34の調整のフローチャートである。図16及び至図17は、端末3のディスプレイ28に表示される画像の図である。   Next, shooting range control of the camera 34 in the terminal 3 will be described with reference to the flowcharts shown in FIGS. 13 to 15 and FIGS. 11, 16, and 17. FIG. 13 is a flowchart of processing performed by the conference server 4. FIG. 14 is a flowchart of control performed by the non-operation instruction terminal 3 that does not instruct the operation of the photographing range. FIG. 15 is a flowchart of adjustment of the camera 34 at the terminal 3 that receives an instruction to operate the shooting range from another terminal 3. FIGS. 16 and 17 are diagrams of images displayed on the display 28 of the terminal 3.

ここでは、一例として、A地点の端末3A、B地点の端末3B、C地点の端末3Cの3つの間でテレビ会議が行われ、A地点の端末3AがB地点の端末3Bのカメラ34を操作するものとする。まず、会議サーバ4では、図11に示すように、A地点、B地点及びC地点の端末3のディスプレイ28に図11に示す合成画像を表示する。この合成画像では、左上の表示部281にA地点の画像を表示し、右上の表示部282にB地点の画像を表示し、左下の表示部283にB地点の画像を表示し、右下の表示部284が空欄で表示されている。   Here, as an example, a video conference is held between the terminal 3A at the point A, the terminal 3B at the point B, and the terminal 3C at the point C, and the terminal 3A at the point A operates the camera 34 of the terminal 3B at the point B. It shall be. First, as shown in FIG. 11, the conference server 4 displays the composite image shown in FIG. 11 on the display 28 of the terminal 3 at the points A, B and C. In this composite image, the image of the point A is displayed on the upper left display unit 281, the image of the point B is displayed on the upper right display unit 282, the image of the point B is displayed on the lower left display unit 283, and the lower right image is displayed. The display unit 284 is displayed with a blank.

次いで、会議サーバ4がA地点の端末3AからB地点の端末3Bのカメラ34の操作指示信号を受信すると(S21:YES)、図16に示すように、端末3A、端末3B、端末3C全部のディスプレイ28の画面の表示部284に操作対象の端末3Bの静止画像2840と、次に撮影する撮影範囲の選択枠2842と、現在の表示範囲である現在枠2841を表示する(S22)。次いで、操作指示端末であるA地点の端末3Aに次に撮影する撮影範囲の選択枠2842の操作を許可する(S23)。   Next, when the conference server 4 receives the operation instruction signal of the camera 34 of the terminal 3B at the point B from the terminal 3A at the point A (S21: YES), as shown in FIG. 16, all of the terminals 3A, 3B, and 3C The still image 2840 of the operation target terminal 3B, the selection frame 2842 for the shooting range to be photographed next, and the current frame 2841 that is the current display range are displayed on the display unit 284 of the display 28 (S22). Next, the terminal 3A at the point A, which is the operation instruction terminal, is permitted to operate the selection frame 2842 for the next shooting range (S23).

このときに、端末3Bのカメラ34の撮影範囲の制御をしていないC地点の端末3Cの制御について図14のフローチャートを参照して説明する。C地点の端末3Cでは、会議サーバ4から被操作端末である端末3Bの情報と、操作指示端末である端末3Aの情報を受信する(S31)。これらの情報によりどの端末がどの端末を制御しているかを端末3Cが知ることができる。   At this time, the control of the terminal 3C at the point C where the photographing range of the camera 34 of the terminal 3B is not controlled will be described with reference to the flowchart of FIG. The terminal 3C at the point C receives information on the terminal 3B that is the operated terminal and information on the terminal 3A that is the operation instruction terminal from the conference server 4 (S31). With this information, the terminal 3C can know which terminal is controlling which terminal.

次いで、ディスプレイ28の画面の表示部284に操作対象の端末3Bの静止画像2840と、次に撮影する撮影範囲の選択枠2842と、現在の表示範囲である現在枠2841とを表示する(S32)。次に、端末3Cから撮影範囲の選択枠2842への移動範囲の制限をしたい場合には(S34:YES)、図17に示すように、ディスプレイ28の画面の表示部284に表示されている静止画像2840上に見たい場所を指示するためのポインタ2845を表示する(S35)。ポインタ2845の表示の指示は、図2に示す端末3のマウス27及びキーボード29の所定の操作により行われる。   Next, the still image 2840 of the operation target terminal 3B, the selection frame 2842 for the shooting range to be photographed next, and the current frame 2841 that is the current display range are displayed on the display unit 284 of the screen of the display 28 (S32). . Next, when it is desired to limit the movement range from the terminal 3C to the shooting range selection frame 2842 (S34: YES), as shown in FIG. 17, the still image displayed on the display unit 284 of the screen of the display 28 is displayed. On the image 2840, a pointer 2845 for indicating a place to be viewed is displayed (S35). The instruction to display the pointer 2845 is performed by a predetermined operation of the mouse 27 and the keyboard 29 of the terminal 3 shown in FIG.

次いで、会議サーバ4と通信して、ポインタ2845の位置を確定する信号を会議サーバ4から受信する(S36)。その後、ポインタ2845の中心のディスプレイ28の画面の表示部284に表示されている静止画像2840上の座標(X,Y)を操作制限情報として会議サーバ4へ送信する(S37)。その後、処理を終了する。また、端末3Cから撮影範囲の選択枠2842の移動範囲の制限をしない場合には(S34:NO)、処理を終了する。   Next, a signal for determining the position of the pointer 2845 is received from the conference server 4 by communicating with the conference server 4 (S36). Thereafter, the coordinates (X, Y) on the still image 2840 displayed on the display unit 284 of the screen of the display 28 at the center of the pointer 2845 are transmitted to the conference server 4 as operation restriction information (S37). Thereafter, the process ends. If the movement range of the shooting range selection frame 2842 is not limited from the terminal 3C (S34: NO), the process ends.

一方、会議サーバ4では、撮影範囲の選択枠2842の操作制限情報(ポインタ2845の中心の静止画像2840上の座標(X,Y))を端末3Cから受信した場合には(S24:YES)、受信した座標(X,Y)を含む範囲でのみ撮影範囲の選択枠2842の操作を操作端末である端末3Aに許可する(S25)。そして、操作端末である端末3Aから撮影範囲の確定信号を受信した場合には(S26:YES)、操作対象端末(被操作端末)である端末Bに撮影範囲の選択枠2842の中心の座標(X,Y)と選択枠2842の拡大率をカメラ制御信号(撮影制御情報)として作成して送信する(S27)。その後、処理を終了する。尚、S24の判断処理において、一定時間以内に操作制限信号を受信しない場合には(S24:NO)、S26に移行する。   On the other hand, in the conference server 4, when the operation restriction information (the coordinates (X, Y) on the still image 2840 at the center of the pointer 2845) of the shooting range selection frame 2842 is received from the terminal 3C (S24: YES), Only in the range including the received coordinates (X, Y), the operation of the selection frame 2842 for the photographing range is permitted to the terminal 3A as the operation terminal (S25). If a shooting range confirmation signal is received from the terminal 3A as the operation terminal (S26: YES), the coordinates of the center of the shooting range selection frame 2842 (terminal B) as the operation target terminal (operated terminal) ( X, Y) and the enlargement ratio of the selection frame 2842 are created and transmitted as camera control signals (shooting control information) (S27). Thereafter, the process ends. In the determination process of S24, when the operation restriction signal is not received within a certain time (S24: NO), the process proceeds to S26.

次に、図15に示すフローチャートを参照して、被操作端末である端末3Bで行われるカメラ34の調整について説明する。端末3Bでは、カメラ34の制御信号を受信するまで待機し(S41:NO)、カメラ34の制御信号を受信すると(S41:YES)、端末3BのCPU20は、受信した制御信号に基づいて電動雲台37によるカメラ34の方向及びズームレンズ38の画角の調整をする(S42)。その後、処理を終了する。   Next, with reference to the flowchart shown in FIG. 15, the adjustment of the camera 34 performed at the terminal 3B as the operated terminal will be described. The terminal 3B waits until the control signal of the camera 34 is received (S41: NO), and when the control signal of the camera 34 is received (S41: YES), the CPU 20 of the terminal 3B performs the electric cloud based on the received control signal. The direction of the camera 34 and the angle of view of the zoom lens 38 are adjusted by the table 37 (S42). Thereafter, the process ends.

以上説明したように、上記の実施の形態では、端末3Aが端末3Bのカメラ34の次に撮影する撮影範囲の選択枠2842の操作をしている場合でも、端末3A以外の端末Cから見たい位置をポインタ2845で指定することにより、その位置が必ず入った範囲の撮影を行うことができる。   As described above, in the above embodiment, even when the terminal 3A is operating the selection frame 2842 for the shooting range to be photographed after the camera 34 of the terminal 3B, the terminal C other than the terminal 3A wants to view it. By designating the position with the pointer 2845, it is possible to perform shooting in a range in which the position is always included.

次に、図18及び図19を参照して、複数の端末から撮影範囲の選択枠2842の操作制限情報(ポインタ2845の静止画像2840上の座標(X1,Y1)及びポインタ2846の静止画像2840上の座標(X2,Y2))を受信した場合の処理について説明する。図18は、端末3のディスプレイ28に表示される画像の図である。また、図19は、複数の端末から撮影範囲の選択枠2842の操作制限情報を受信した場合の会議サーバ4の処理のフローチャートである。この例では、端末3Aが端末3Bのカメラ34の制御をしており、端末3Cが撮影範囲の選択枠2842の操作制限情報(ポインタ2845の静止画像2840上の座標(X1,Y1))を送信し、端末3A、端末3B及び端末3C以外の端末3が操作制限情報(ポインタ2846の静止画像2840上の座標(X2,Y2))を送信するものとする(図18参照)。   Next, referring to FIG. 18 and FIG. 19, the operation restriction information (the coordinates (X1, Y1) on the still image 2840 of the pointer 2845 and the still image 2840 of the pointer 2846 on the shooting range selection frame 2842 from a plurality of terminals). The process when the coordinate (X2, Y2)) is received will be described. FIG. 18 is a diagram of an image displayed on the display 28 of the terminal 3. FIG. 19 is a flowchart of the process of the conference server 4 when the operation restriction information of the shooting range selection frame 2842 is received from a plurality of terminals. In this example, the terminal 3A controls the camera 34 of the terminal 3B, and the terminal 3C transmits the operation restriction information (the coordinates (X1, Y1) of the pointer 2845 on the still image 2840) of the selection frame 2842 of the shooting range. Then, the terminals 3 other than the terminal 3A, the terminal 3B, and the terminal 3C transmit the operation restriction information (the coordinates (X2, Y2) of the pointer 2846 on the still image 2840) (see FIG. 18).

会議サーバ4では、図18のフローチャートに示すように、複数の端末から撮影範囲の選択枠2842の操作制限情報(ポインタ2845の静止画像2840上の座標(X1,Y1)及びポインタ2846の静止画像2840上の座標(X2,Y2))を受信した場合に(図19:S60:YES)、受信した複数の操作制限情報(ポインタ)の重心の座標で画角中心の座標を決める設定になっている場合には(S61:YES)、撮影範囲の確定信号を受信すると(S62:YES)、端末3毎に重み付けの設定がなされている場合には(S63:YES)、複数の操作制限情報(ポインタ)の各座標に重みを付けて重心を算出する(S66)。この重みは、HDD51の重み付け記憶エリア517に予め記憶されている(図4参照)。例えば、端末3Cから座標(X1,Y1)及び他の端末3から座標(X2,Y2)を受信した場合に、端末3Cの重みが「3」で、他の端末3の重みが「2」とHDD51の重み付け記憶エリア517に記憶されている場合には、操作制限情報(ポインタ)の座標としては、座標(X=(3X1+2X2)/5、Y=(3Y1+2Y2)/5)を採用する(S63)。その後、算出した座標(X=(3X1+2X2)/5、Y=(3Y1+2Y2)/5)を撮影範囲の選択枠2842の中心の座標とする(S65)。   In the conference server 4, as shown in the flowchart of FIG. 18, the operation restriction information (the coordinates (X1, Y1) of the pointer 2845 on the still image 2840) and the still image 2840 of the pointer 2846 from a plurality of terminals. When the upper coordinates (X2, Y2)) are received (FIG. 19: S60: YES), the coordinates of the center of the angle of view are determined by the coordinates of the center of gravity of the received plurality of operation restriction information (pointers). In such a case (S61: YES), when a shooting range finalization signal is received (S62: YES), if weighting is set for each terminal 3 (S63: YES), a plurality of operation restriction information (pointers) ) To calculate the center of gravity (S66). This weight is stored in advance in the weight storage area 517 of the HDD 51 (see FIG. 4). For example, when coordinates (X1, Y1) are received from the terminal 3C and coordinates (X2, Y2) are received from the other terminal 3, the weight of the terminal 3C is “3” and the weight of the other terminal 3 is “2”. When stored in the weighted storage area 517 of the HDD 51, the coordinates (X = (3X1 + 2X2) / 5, Y = (3Y1 + 2Y2) / 5) are adopted as the coordinates of the operation restriction information (pointer) (S63). . Thereafter, the calculated coordinates (X = (3X1 + 2X2) / 5, Y = (3Y1 + 2Y2) / 5) are set as the coordinates of the center of the selection frame 2842 of the shooting range (S65).

また、端末3毎に重み付けの設定がなされていない場合には(S63:NO)、単純に複数の操作制限情報(ポインタ)の各座標から重心を算出する(S64)。例えば、座標(X1,Y1)及び座標(X2,Y2)を受信した場合には、操作制限情報(ポインタ)の座標としては、座標(X=(X1+X2)/2、Y=(Y1+Y2)/2)を採用する(S64)。その後、算出した座標(X=(X1+X2)/2、Y=(Y1+Y2)/2)を撮影範囲の選択枠2842の中心の座標とする(S65)。その後、処理を終了する。尚、複数の端末から撮影範囲の選択枠2842の操作制限情報(ポインタ2845の静止画像2840上の座標(X1,Y1)及びポインタ2846の静止画像2840上の座標(X2,Y2))を受信した場合に(S60:YES)、受信した複数の操作制限情報(ポインタ)の重心の座標で画角を決める設定になっていない場合には(S61:NO)、処理を終了する。また、S60の判断処理では、複数の端末から撮影範囲の選択枠2842の操作制限情報を受信するまで待機する(S60:NO)。さらに、S62の判断処理では、撮影範囲の確定信号を受信するまで待機する(S62:NO)。   If weighting is not set for each terminal 3 (S63: NO), the center of gravity is simply calculated from the coordinates of the plurality of operation restriction information (pointers) (S64). For example, when coordinates (X1, Y1) and coordinates (X2, Y2) are received, the coordinates of the operation restriction information (pointer) are coordinates (X = (X1 + X2) / 2, Y = (Y1 + Y2) / 2. ) Is adopted (S64). Thereafter, the calculated coordinates (X = (X1 + X2) / 2, Y = (Y1 + Y2) / 2) are set as the coordinates of the center of the shooting range selection frame 2842 (S65). Thereafter, the process ends. Note that the operation restriction information (the coordinates (X1, Y1) of the pointer 2845 on the still image 2840 and the coordinates (X2, Y2) of the pointer 2846 on the still image 2840) of the shooting range selection frame 2842) is received from a plurality of terminals. In this case (S60: YES), if the angle of view is not set by the coordinates of the center of gravity of the received plurality of operation restriction information (pointer) (S61: NO), the process ends. In the determination process of S60, the process waits until the operation restriction information of the shooting range selection frame 2842 is received from a plurality of terminals (S60: NO). Further, in the determination process of S62, the process waits until a shooting range confirmation signal is received (S62: NO).

次に、図20に示すフローチャートを参照して、被操作端末と操作指示端末とが同じグループに属する場合のみに被操作端末のカメラ34の操作を許可する方法について説明する。図20は、会議サーバ4において、被操作端末と操作指示端末とが同じグループに属する場合のみに被操作端末のカメラ34の操作を許可する処理のフローチャートである。ここで、同じグループに属する場合には、同じグループコードを持つ設定となっている。尚、グループコードとは、テレビ会議を行う所定の組織単位(会社毎ごとや、部署毎)に定められている所定のコードであり、一例としては、A社:A001,B社:B001、C社:C001等である。   Next, a method for permitting the operation of the camera 34 of the operated terminal only when the operated terminal and the operation instruction terminal belong to the same group will be described with reference to the flowchart shown in FIG. FIG. 20 is a flowchart of processing in the conference server 4 that permits the operation of the camera 34 of the operated terminal only when the operated terminal and the operation instruction terminal belong to the same group. Here, when belonging to the same group, the setting has the same group code. The group code is a predetermined code determined for a predetermined organizational unit (for each company or each department) that conducts a video conference. For example, A company: A001, B company: B001, C Company: C001 and the like.

会議サーバ4で、被操作指示端末と操作指示端末の情報(グループコードを含む)を受信した場合に(S51:YES)、各端末3のディスプレイ28の表示部284に被操作端末の静止画像2840と撮影範囲の選択枠2842と現在の表示範囲である現在枠2841を表示する(S52)。ここで、操作指示端末と被操作指示端末が同じグループである場合(同じブループコードを持つ場合)(S53:YES)、被操作指示端末に選択枠2842の操作を許可する(S54)、操作指示端末と被操作指示端末が同じグループでない場合(同じブループコードを持たない場合)(S53:NO)には、処理を終了する。また、S51の判断処理では、被操作指示端末と操作指示端末の情報(グループコードを含む)を受信するまで待機する(S51:NO)。   When the conference server 4 receives information (including group code) of the operation instruction terminal and the operation instruction terminal (S51: YES), the still image 2840 of the operation terminal is displayed on the display unit 284 of the display 28 of each terminal 3. Then, the shooting range selection frame 2842 and the current frame 2841 which is the current display range are displayed (S52). Here, when the operation instruction terminal and the operation instruction terminal are in the same group (when having the same group code) (S53: YES), the operation instruction terminal is permitted to operate the selection frame 2842 (S54). If the terminal and the operated instruction terminal are not in the same group (if they do not have the same group code) (S53: NO), the process ends. In the determination process of S51, the process waits until information (including a group code) of the operated instruction terminal and the operation instruction terminal is received (S51: NO).

次に、図21を参照して、複数の端末から撮影範囲の選択枠2842の操作制限情報(ポインタ2845やポインタ2846の静止画像2840上の座標(X,Y))を受信した場合の第二の処理について説明する。図21は、複数の端末から撮影範囲の選択枠2842の操作制限情報を受信した場合の会議サーバ4の第二の処理のフローチャートである。この例では、端末3Aが端末3Bのカメラ34の制御をしており、端末3Cが撮影範囲の選択枠2842の操作制限情報(ポインタ2845の静止画像2840上の座標(X1,Y1))を送信し、端末3A乃至端末3C以外の端末3が操作制限情報(ポインタ2846の静止画像2840上の座標(X2,Y2))を送信するものとする(図18参照)。   Next, referring to FIG. 21, the second case where the operation restriction information (the coordinates (X, Y) of the pointer 2845 and the pointer 2846 on the still image 2840) of the shooting range selection frame 2842 is received from a plurality of terminals. The process will be described. FIG. 21 is a flowchart of the second process of the conference server 4 when the operation restriction information of the shooting range selection frame 2842 is received from a plurality of terminals. In this example, the terminal 3A controls the camera 34 of the terminal 3B, and the terminal 3C transmits the operation restriction information (the coordinates (X1, Y1) of the pointer 2845 on the still image 2840) of the selection frame 2842 of the shooting range. Then, the terminals 3 other than the terminals 3A to 3C transmit the operation restriction information (the coordinates (X2, Y2) of the pointer 2846 on the still image 2840) (see FIG. 18).

会議サーバ4において、図18に示すように、複数の端末から撮影範囲の選択枠2842の操作制限情報(ポインタ2845の静止画像2840上の座標(X1,Y1)及びポインタ2846の静止画像2840上の座標(X2,Y2))を受信した場合には(図21:S70:YES)、撮影範囲の選択枠2842を最大まで拡大する(S71)。次に、この拡大した選択枠2842に全ての操作制限情報の座標(座標(X1,Y1)、座標(X2,Y2))が入った場合には(S72:YES)、処理をそのまま終了する。この拡大した選択枠2842に全ての操作制限情報の座標(座標(X1,Y1)、座標(X2,Y2))が入らなかった場合には(S72:NO)、何れかの操作制限情報の座標((X1,Y1)又は座標(X2,Y2))を含む範囲で、撮影範囲の選択枠2842の操作を許可する(S73)。この場合は、選択枠2842の操作をしている端末3Aが選択枠2842の操作により、何れかの操作制限情報の座標を外すことができるようになっている。但し、全部の操作制限情報の座標を外すことはできず、最低1つは操作制限情報の座標が残る(S73)。このときに、手動による選択枠2842の移動でなく、先に受信した操作制限情報の座標を優先するようにしても良いし、後に受信した操作制限情報の座標を優先するようにしても良い。また、端末毎に優先順位を決めておき、その優先順位の高い端末を優先するようにしても良い。何れの操作制限情報を優先するかは、予めルールとしてプログラム中で決めておけばよい。   In the conference server 4, as shown in FIG. 18, the operation restriction information (the coordinates (X1, Y1) on the still image 2840 of the pointer 2845 and the still image 2840 of the pointer 2846 on the still image 2840 from a plurality of terminals) When the coordinates (X2, Y2)) are received (FIG. 21: S70: YES), the shooting range selection frame 2842 is expanded to the maximum (S71). Next, when all the coordinates of the operation restriction information (coordinates (X1, Y1), coordinates (X2, Y2)) are entered in the enlarged selection frame 2842 (S72: YES), the processing is ended as it is. If the coordinates (coordinates (X1, Y1), coordinates (X2, Y2)) of all the operation restriction information do not enter the enlarged selection frame 2842 (S72: NO), the coordinates of any operation restriction information In the range including ((X1, Y1) or coordinates (X2, Y2)), the operation of the shooting range selection frame 2842 is permitted (S73). In this case, the terminal 3A operating the selection frame 2842 can remove the coordinates of any operation restriction information by operating the selection frame 2842. However, all the operation restriction information coordinates cannot be removed, and at least one operation restriction information coordinate remains (S73). At this time, instead of manually moving the selection frame 2842, the coordinates of the operation restriction information received earlier may be given priority, or the coordinates of the operation restriction information received later may be given priority. Alternatively, a priority order may be determined for each terminal, and a terminal with a higher priority order may be given priority. Which operation restriction information is given priority may be determined in advance as a rule in the program.

次いで、撮影範囲の確定信号を操作端末から受信した場合に(S74:YES)、一部の端末の制御を無視したことを全部の端末に通知する(S75)。その後、処理を終了する。また、S70の判断処理では、複数の端末から撮影範囲の選択枠2842の操作制限情報を受信するまで待機する(S70:NO)。また、S74の判断処理では、撮影範囲の確定信号を操作端末から受信するまで待機する(S74:NO)。   Next, when a shooting range confirmation signal is received from the operation terminal (S74: YES), all terminals are notified that control of some terminals has been ignored (S75). Thereafter, the process ends. In the determination process of S70, the process waits until operation restriction information of the selection frame 2842 of the shooting range is received from a plurality of terminals (S70: NO). Further, in the determination process of S74, the process waits until a shooting range confirmation signal is received from the operation terminal (S74: NO).

次に、図22に示すフローチャートを参照して、テレビ会議システム1の主制御について説明する。図22は、会議サーバ4のCPU40による主制御の処理を示すフローチャートである。   Next, main control of the video conference system 1 will be described with reference to a flowchart shown in FIG. FIG. 22 is a flowchart showing main control processing by the CPU 40 of the conference server 4.

図22に示すように、まず、端末3からユーザ情報を受信したか否かが判断される(S1)。ユーザ情報は、端末3において、会議に参加する参加者が、識別カード(図示外)をカードリーダ33に読み込ませることで、端末3の通信装置25からネットワーク2を介して会議サーバ4に向けて送信される。このとき、ユーザ情報と共に、そのユーザ情報を送信した端末3の端末IDも共に送信される。なお、ユーザ情報を受信しない間は(S1:NO)、S1に戻って、引き続きユーザ情報の受信が監視される。   As shown in FIG. 22, first, it is determined whether or not user information is received from the terminal 3 (S1). The user information is sent from the communication device 25 of the terminal 3 to the conference server 4 via the network 2 by a participant participating in the conference at the terminal 3 having the card reader 33 read an identification card (not shown). Sent. At this time, the terminal ID of the terminal 3 that transmitted the user information is also transmitted together with the user information. In addition, while not receiving user information (S1: NO), it returns to S1 and reception of user information is monitored continuously.

次いで、ユーザ情報が受信されると(S1:YES)、ログイン処理が実行される(S2)。この処理では、まず、各地点の端末3から受信したユーザ情報に基づき、その参加者が、予め登録されているユーザであるか否かの認証が行われる。即ち、ユーザ情報テーブル5111(図5参照)に登録されているか否かが判断される。登録されているユーザであれば、そのユーザIDと、ユーザ情報を送信した端末IDが、HDD51のログインテーブル5121(図6参照)に記憶される。なお、図示しないが、登録されていないユーザであれば認証されないので、そのまま処理は終了する。   Next, when user information is received (S1: YES), a login process is executed (S2). In this process, first, based on the user information received from the terminal 3 at each point, authentication is performed as to whether or not the participant is a registered user. That is, it is determined whether it is registered in the user information table 5111 (see FIG. 5). If the user is a registered user, the user ID and the terminal ID that transmitted the user information are stored in the login table 5121 of the HDD 51 (see FIG. 6). Although not shown in the drawing, if the user is not registered, the user is not authenticated, so the process ends.

次に、会議受付処理が実行される(S3)。この処理では、まず、ログインしたユーザが参加可能な会議が、会議テーブル5131(図7参照)から検索される。会議は、その会議主催者が開催を決定する。例えば、会議サーバ4に登録された会議主催者が、端末3から会議開催の要求を会議サーバ4に向けて送信する。すると、会議サーバ4で予め登録された会議の開催が決定される。   Next, a meeting reception process is executed (S3). In this process, first, a conference in which the logged-in user can participate is searched from the conference table 5131 (see FIG. 7). The meeting organizer decides to hold the meeting. For example, a conference organizer registered in the conference server 4 transmits a conference holding request from the terminal 3 to the conference server 4. Then, the holding of the conference registered in advance by the conference server 4 is determined.

そして、参加受付テーブル5141(図8参照)に登録された該当する会議IDに対して、ユーザIDが記憶される。例えば、ユーザID=0001である「兄弟太郎」さんが、会議ID=0001の会議にログインした場合、参加受付テーブル5141には、会議ID=001に対して、ユーザID=A0001が記憶される。そして、会議ID=001の会議に対して、さらに、「兄弟次郎」さん、「販売太郎」さんがログインした場合は、参加受付テーブル5141の会議ID=0001に対して、ユーザID=A0001に加え、A0002、B0001がそれぞれ随時記憶される。   And user ID is memorize | stored with respect to the corresponding meeting ID registered into the participation reception table 5141 (refer FIG. 8). For example, when “Taro Brothers” with the user ID = 0001 logs in to the conference with the conference ID = 0001, the participation reception table 5141 stores the user ID = A0001 for the conference ID = 001. When “Jiro Jiro” and “Taro Taro” log in to the conference with the conference ID = 001, in addition to the user ID = A0001 with respect to the conference ID = 0001 in the participation reception table 5141. , A0002, and B0001 are stored as needed.

次に、そのユーザが参加する会議において、ログインテーブル5121に基づき、ログインした端末が2以上あるか否が判断される(S4)。会議は、ログインする端末3が少なくとも2つなければ開催できない。よって、同じ会議について、ログインする端末3が1つの場合(S4:NO)、S1に戻って、他の端末のログインを待つために、ユーザ情報を受信したか否かが引き続き監視される。   Next, in the conference in which the user participates, based on the login table 5121, it is determined whether there are two or more terminals that have logged in (S4). A conference cannot be held unless there are at least two terminals 3 that log in. Therefore, if there is only one terminal 3 that logs in for the same conference (S4: NO), it returns to S1 and continues to monitor whether user information has been received in order to wait for the login of another terminal.

そして、例えば、ログインテーブル5121(図6参照)に、ユーザID=A0001、B0001が記憶された場合、これらは互いに別の端末であって、会議テーブル5131を参照すると、何れも会議ID=001の参加メンバーである。この場合、会議を開催できるので、ユーザID=A0001、B0001が登録された端末3の端末ID「0001」、「0002」に対して、会議開始命令がそれぞれ送信され、それらの端末3が設置された地点間を接続し、会議が開始される(S5)。   For example, when user IDs = A0001 and B0001 are stored in the login table 5121 (see FIG. 6), these are different terminals. When the conference table 5131 is referred to, both of them have the conference ID = 001. Participating members. In this case, since the conference can be held, a conference start command is transmitted to the terminal IDs “0001” and “0002” of the terminals 3 in which the user IDs = A0001 and B0001 are registered, and these terminals 3 are installed. The points are connected, and the conference is started (S5).

続いて、開催されている会議に途中参加者がいるか否かが判断される(S6)。ここでは、他の端末3から同一会議にログインしたユーザがいるか否かが判断される。途中参加者がいない場合(S6:NO)、会議主催者の端末3から会議終了要求信号を受信したか否かが判断される(S8)。途中参加者がいた場合(S6:YES)、参加受付テーブル5141に、途中参加者のユーザIDがその会議IDに対して記憶される(S7)。そして、会議終了要求信号を受信しない間は(S8:NO)、引き続き会議を実行すると共に、途中参加者の監視が行われる(S6)。また、会議主催者の端末3から会議終了要求があった場合(S8:YES)、会議を終了させるために、その会議に参加している各参加者の端末3に向けて、会議終了通知が送信される(S9)。   Subsequently, it is determined whether or not there are participants in the middle of the held meeting (S6). Here, it is determined whether there is a user who has logged in to the same conference from another terminal 3. When there is no midway participant (S6: NO), it is determined whether a conference end request signal is received from the terminal 3 of the conference organizer (S8). When there is a midway participant (S6: YES), the user ID of the midway participant is stored in the participation reception table 5141 for the conference ID (S7). Then, as long as the conference end request signal is not received (S8: NO), the conference is continuously executed and the participants in the middle are monitored (S6). When there is a conference end request from the conference organizer's terminal 3 (S8: YES), a conference end notification is sent to each participant's terminal 3 participating in the conference in order to end the conference. It is transmitted (S9).

最後に、まとめとして、図23に示すフローチャートを参照して、一つの端末3から見た場合の上記の撮影範囲制御処理の流れを説明する。図23は、一つの端末3から見た場合の撮影範囲制御処理の流れのフローチャートである。この撮影範囲制御処理が開始されると、図16に示すように端末3のディスプレイ28の表示部284に操作対象の端末の合成画像としての静止画像2840を表示する(S81)、次いで、表示部284に画角の選択枠2842と現在枠2841とを表示する(S82)。次いで、自端末が、画角の選択枠2842の操作を指示している場合には(S83:YES)、画角の選択枠2842の操作が可能となる(S84)。次いで、他の端末がディスプレイ28の画面の表示部284に表示されている静止画像2840上に見たい場所を指示するためのポインタ2845を作成した場合には(S85:YES)、ポインタ2845を含んだ範囲でのみ画角の選択枠2842の操作が可能となる(S86)。次いで、画角を確定する(S87)。他の端末がポインタ2845を作成してない場合には(S85:NO)、画角を確定する(S87)。次いで、新しい座標を会議サーバ4に通知し、制御対象の端末3のカメラ34の制御信号が会議サーバ4から制御対象の端末3に送られる(S88)。その後、処理を終了する。   Finally, as a summary, the flow of the shooting range control process when viewed from one terminal 3 will be described with reference to the flowchart shown in FIG. FIG. 23 is a flowchart of the flow of the shooting range control process when viewed from one terminal 3. When the photographing range control process is started, as shown in FIG. 16, a still image 2840 as a composite image of the operation target terminal is displayed on the display unit 284 of the display 28 of the terminal 3 (S81), and then the display unit An angle of view selection frame 2842 and a current frame 2841 are displayed in 284 (S82). Next, when the own terminal instructs the operation of the view angle selection frame 2842 (S83: YES), the operation of the view angle selection frame 2842 becomes possible (S84). Next, when another terminal has created a pointer 2845 for indicating a place to view on the still image 2840 displayed on the display unit 284 of the screen of the display 28 (S85: YES), the pointer 2845 is included. Only within this range, the field angle selection frame 2842 can be operated (S86). Next, the angle of view is determined (S87). If another terminal has not created the pointer 2845 (S85: NO), the angle of view is determined (S87). Next, the conference server 4 is notified of the new coordinates, and a control signal of the camera 34 of the terminal 3 to be controlled is sent from the conference server 4 to the terminal 3 to be controlled (S88). Thereafter, the process ends.

また、自端末が、画角の選択枠2842の操作を指示していない場合に(S83:NO)、操作を全て他の端末に任せる場合は(S89:YES)、処理を終了する。また、自端末が、画角の選択枠2842の操作を指示していない場合に(S83:NO)、操作を全て他の端末に任せない場合は(S89:NO)、映しておきたいポイントにポインタ2845を作成する(S90)。その後、ポインタ2845の座標を操作制限情報として会議サーバ4に送信する(S91)。その後、処理を終了する。   If the terminal itself has not instructed the operation of the view angle selection frame 2842 (S83: NO), the process ends if all operations are left to other terminals (S89: YES). Further, when the terminal itself does not instruct the operation of the view angle selection frame 2842 (S83: NO), when all the operations are not entrusted to other terminals (S89: NO), the point to be projected is displayed. A pointer 2845 is created (S90). Thereafter, the coordinates of the pointer 2845 are transmitted as operation restriction information to the conference server 4 (S91). Thereafter, the process ends.

本発明は、上記の実施の形態に限られず、各種の変形が可能である。例えば、上記の実施の形態では撮影範囲制御装置として会議サーバ4を用いたが、会議サーバ4の機能を何れかの端末3に持たせて、会議サーバ4を用いないようにしても良い。この場合には、ネットワーク2を介して複数の端末3を相互に接続し、何れかの端末3が撮影範囲制御装置として機能する。   The present invention is not limited to the above embodiment, and various modifications can be made. For example, in the above embodiment, the conference server 4 is used as the imaging range control device, but the function of the conference server 4 may be provided in any terminal 3 so that the conference server 4 is not used. In this case, a plurality of terminals 3 are connected to each other via the network 2, and any one of the terminals 3 functions as an imaging range control device.

なお、以上の説明において、図1に示す会議サーバ4が本発明の「撮影範囲制御装置」に相当し、端末3及び端末3A〜3Cが本発明の「遠隔会議装置」に相当する。図2に示すカメラ34が本発明の「撮影手段」に相当し、電動雲台37及びズームレンズ38が本発明の「切替手段」に相当する。また、CPU20及びカメラ制御部36が、本発明の「撮影制御手段」に相当する。また、図12に示すS11の処理を実行するCPU20が本発明の「画像合成手段」に相当する。また、図13に示すS22の処理を実行するCPU40が本発明の「現在枠情報作成手段」、「選択枠情報作成手段」に相当する。また、図13に示すS21の処理を実行するCPU40及び図2に示す通信装置25が本発明の「操作情報受信手段」に相当する。また、図13に示すS24の処理を実行するCPU40及び図2に示す通信装置25が本発明の「指定座標情報受信手段」に相当する。また、図13に示すS25の処理を実行するCPU40が本発明の「選択枠制御手段」に相当する。また、図13に示すS27の処理を実行するCPU40が本発明の「撮影制御情報作成手段」に相当する。また、図2に示す通信装置25が、本発明の「送信手段」に相当する。また、図19に示すS66の処理を実行するCPU40が本発明の「重み付与手段」に相当する。図20に示すS53の処理を実行するCPU40が本発明の「通信装置25が、本発明の「送信手段」に相当する。また、図19に示すS66の処理を実行するCPU40が本発明の「グループ情報受信手段」に相当する。また、ポインタ2845やポインタ2846の中心のディスプレイ28の画面の表示部284に表示されている静止画像2840上の座標(X,Y)の情報(操作制限情報)が本発明の「指定座標情報」に相当する。   In the above description, the conference server 4 shown in FIG. 1 corresponds to the “shooting range control device” of the present invention, and the terminal 3 and the terminals 3A to 3C correspond to the “remote conference device” of the present invention. The camera 34 shown in FIG. 2 corresponds to the “photographing means” of the present invention, and the electric pan head 37 and the zoom lens 38 correspond to the “switching means” of the present invention. Further, the CPU 20 and the camera control unit 36 correspond to the “shooting control unit” of the present invention. Further, the CPU 20 that executes the process of S11 shown in FIG. 12 corresponds to the “image composition means” of the present invention. Further, the CPU 40 that executes the process of S22 shown in FIG. 13 corresponds to the “current frame information creating unit” and the “selected frame information creating unit” of the present invention. Further, the CPU 40 that executes the process of S21 shown in FIG. 13 and the communication device 25 shown in FIG. 2 correspond to the “operation information receiving means” of the present invention. Further, the CPU 40 that executes the process of S24 shown in FIG. 13 and the communication device 25 shown in FIG. 2 correspond to the “designated coordinate information receiving means” of the present invention. Further, the CPU 40 that executes the process of S25 shown in FIG. 13 corresponds to the “selection frame control means” of the present invention. Further, the CPU 40 that executes the process of S27 shown in FIG. 13 corresponds to the “shooting control information creating unit” of the present invention. Also, the communication device 25 shown in FIG. 2 corresponds to the “transmission unit” of the present invention. Further, the CPU 40 that executes the process of S66 shown in FIG. 19 corresponds to the “weighting unit” of the present invention. The CPU 40 that executes the process of S53 shown in FIG. 20 corresponds to “the communication device 25 corresponds to the“ transmission unit ”of the present invention”. Further, the CPU 40 that executes the process of S66 shown in FIG. 19 corresponds to the “group information receiving means” of the present invention. Further, information (operation restriction information) on coordinates (X, Y) on the still image 2840 displayed on the display unit 284 of the screen of the display 28 at the center of the pointer 2845 and the pointer 2846 is “designated coordinate information” of the present invention. It corresponds to.

テレビ会議システム1の構成を示すブロック図である。1 is a block diagram showing a configuration of a video conference system 1. FIG. 端末3の電気的構成を示すブロック図である。3 is a block diagram showing an electrical configuration of a terminal 3. FIG. 会議サーバ4の電気的構成を示すブロック図である。3 is a block diagram showing an electrical configuration of a conference server 4. FIG. HDD51の各記憶エリアを示す概念図である。3 is a conceptual diagram showing each storage area of an HDD 51. FIG. ユーザ情報テーブル5111の概念図である。It is a conceptual diagram of the user information table 5111. ログインテーブル5121の概念図である。5 is a conceptual diagram of a login table 5121. FIG. 会議テーブル5131の概念図である。5 is a conceptual diagram of a conference table 5131. FIG. 参加受付テーブル5141の概念図である。It is a conceptual diagram of the participation reception table 5141. カメラ操作参加情報テーブル5151の概念図である。It is a conceptual diagram of the camera operation participation information table 5151. 端末3のRAM22の記憶エリアの概念図である。3 is a conceptual diagram of a storage area of a RAM 22 of a terminal 3. FIG. A地点の端末3Aのディスプレイ28に表示された表示部281〜284を示す図である。It is a figure which shows the display parts 281-284 displayed on the display 28 of the terminal 3A of A point. 端末3の主制御のフローチャートである。4 is a flowchart of main control of the terminal 3. 会議サーバ4で行われる処理のフローチャートである。3 is a flowchart of processing performed in a conference server 4. 撮影範囲の操作を指示しない非操作指示の端末3で行われる制御のフローチャートである。It is a flowchart of the control performed with the terminal 3 of the non-operation instruction | indication which does not instruct | indicate operation of an imaging range. 他の端末3から撮影範囲の操作を指示を受ける端末3でのカメラ34の調整のフローチャートである。It is a flowchart of adjustment of the camera 34 in the terminal 3 which receives the instruction | indication of operation of the imaging range from the other terminal 3. 端末3のディスプレイ28に表示される画像の図である。4 is a diagram of an image displayed on a display 28 of the terminal 3. FIG. 端末3のディスプレイ28に表示される画像の図である。4 is a diagram of an image displayed on a display 28 of the terminal 3. FIG. 端末3のディスプレイ28に表示される画像の図である。4 is a diagram of an image displayed on a display 28 of the terminal 3. FIG. 複数の端末から撮影範囲の選択枠2842の操作制限情報を受信した場合の会議サーバ4の処理のフローチャートである。FIG. 10 is a flowchart of processing of the conference server 4 when receiving operation restriction information of a shooting range selection frame 2842 from a plurality of terminals. FIG. 会議サーバ4において、被操作端末と操作指示端末とが同じグループに属する場合のみに被操作端末のカメラ34の操作を許可する処理のフローチャートである。6 is a flowchart of processing for permitting operation of the camera 34 of the operated terminal only when the operated terminal and the operation instruction terminal belong to the same group in the conference server 4. 端末3のディスプレイ28に表示される画像の図である。4 is a diagram of an image displayed on a display 28 of the terminal 3. FIG. 会議サーバ4のCPU40による主制御の処理を示すフローチャートである。It is a flowchart which shows the process of the main control by CPU40 of the conference server 4. 一つの端末3から見た場合の撮影範囲制御処理の流れのフローチャートである。5 is a flowchart of a shooting range control process when viewed from one terminal 3;

1 テレビ会議システム
2 ネットワーク
3 端末
4 会議サーバ
20 CPU
21 ROM
22 RAM
28 ディスプレイ
34 カメラ
36 カメラ制御部
37 電動雲台
38 ズームレンズ
40 CPU
41 ROM
42 RAM
51 HDD
221 自端末撮影情報記憶エリア
281 表示部
282 表示部
283 表示部
284 表示部
517 重み付け記憶エリア
2840 静止画像
2841 現在枠
2842 選択枠
2845 ポインタ
2846 ポインタ
1 video conference system 2 network 3 terminal 4 conference server 20 CPU
21 ROM
22 RAM
28 Display 34 Camera 36 Camera Control Unit 37 Motorized Head 38 Zoom Lens 40 CPU
41 ROM
42 RAM
51 HDD
221 Self-terminal photographing information storage area 281 Display unit 282 Display unit 283 Display unit 284 Display unit 517 Weighted storage area 2840 Still image 2841 Current frame 2842 Selection frame 2845 Pointer 2846 Pointer

Claims (9)

遠隔会議に参加する会議参加者に見せる画像を撮影する撮影手段と、前記撮影手段の撮影範囲を示す撮影範囲情報に基づいて前記撮影手段の撮影範囲を切り替える切替手段とを備える遠隔会議装置を複数の地点に設置して、各遠隔会議装置が、自身が撮影した画像を、ネットワークを介して、他の遠隔会議装置に送信するとともに、他の遠隔会議装置から送信されてきた画像を表示することによって実施される遠隔会議において、各遠隔会議装置の前記撮影手段の撮影範囲を制御する撮影範囲制御装置であって、
前記撮影手段の撮影可能な全範囲の画像を撮影するように前記撮影手段を制御する撮影制御手段と、
前記撮影手段が撮影した撮影可能な全範囲の画像を合成して、一枚の静止画像を作成する画像合成手段と、
操作対象となる遠隔会議装置の前記撮影手段の撮影可能範囲の前記静止画像の中で、前記撮影手段の現在の撮影範囲の画角の現在枠情報を作成する現在枠情報作成手段と、
前記撮影可能範囲の前記静止画像の中の次に撮影される画角の情報である選択枠情報を作成する選択枠情報作成手段と、
前記操作対象となる遠隔会議装置自身又は他の遠隔会議装置から前記選択枠情報を操作する操作情報を受信する操作情報受信手段と、
次に撮影される前記撮影手段の撮影範囲の操作をしている遠隔会議装置以外の他の遠隔会議装置から、前記静止画像の中で次に撮影したい箇所の座標情報である指定座標情報を受信する指定座標情報受信手段と、
前記操作情報受信手段が受信した操作情報に基づいて前記選択枠情報作成手段が選択枠情報を作成する場合に、前記指定座標情報受信手段が受信した指定座標情報を含む範囲で前記選択枠情報を作成するように前記選択枠情報作成手段を制御する選択枠制御手段と、
前記選択枠制御手段の制御により前記選択枠情報作成手段が作成した前記選択枠情報の示す画角となるように前記撮影手段を制御する撮影制御情報を作成する撮影制御情報作成手段と、
当該撮影制御情報作成手段が作成した撮影制御情報を操作対象となっている遠隔会議装置に送信する送信手段と
を備えたことを特徴とする撮影範囲制御装置。
A plurality of remote conferencing apparatuses, comprising: photographing means for photographing an image to be shown to a conference participant participating in a remote conference; and switching means for switching the photographing range of the photographing means based on photographing range information indicating the photographing range of the photographing means. Each remote conference device is installed at the point of the image, and the image taken by itself is transmitted to another remote conference device via the network, and the image transmitted from the other remote conference device is displayed. In the teleconference implemented by the imaging range control device for controlling the imaging range of the imaging means of each remote conference device,
A photographing control means for controlling the photographing means so as to photograph the entire range of images that can be photographed by the photographing means;
Image synthesizing means for creating a single still image by synthesizing the entire range of images that can be taken by the imaging means;
Current frame information creating means for creating current frame information of the angle of view of the current photographing range of the photographing means in the still image of the photographing possible range of the photographing means of the remote conference device to be operated;
Selection frame information creating means for creating selection frame information which is information of an angle of view to be photographed next in the still image in the shootable range;
Operation information receiving means for receiving operation information for operating the selection frame information from the remote conference device itself or another remote conference device to be operated;
Receives designated coordinate information, which is coordinate information of a location to be photographed next in the still image, from a remote conference device other than the remote conference device that is operating the photographing range of the photographing means to be photographed next. Designated coordinate information receiving means to
When the selection frame information creating unit creates the selection frame information based on the operation information received by the operation information receiving unit, the selection frame information is within a range including the designated coordinate information received by the designated coordinate information receiving unit. Selection frame control means for controlling the selection frame information creation means to create,
Shooting control information creating means for creating shooting control information for controlling the shooting means so that the angle of view indicated by the selection frame information created by the selection frame information creating means is controlled by the selection frame control means;
An imaging range control device comprising: transmission means for transmitting imaging control information created by the imaging control information creation means to a remote conference device that is an operation target.
前記指定座標情報受信手段が前記指定座標情報を複数受信した場合には、前記撮影制御情報作成手段は、その複数の座標の重心を次に撮影する画角の中心にするように前記撮影制御情報を作成することを特徴とする請求項1に記載の撮影範囲制御装置。   When the designated coordinate information receiving unit receives a plurality of the designated coordinate information, the shooting control information creating unit is configured to set the center of gravity of the plurality of coordinates to be the center of the angle of view to be shot next. The imaging range control device according to claim 1, wherein: 前記複数の指定座標情報に重みを付与する重み付与手段を設け、
前記撮影制御情報作成手段は、前記重み付与手段が付与した重みに基づいて、複数の座標の重心を決定して、次に撮影する画角の中心にするように前記撮影制御情報を作成することを特徴とする請求項2に記載の撮影範囲制御装置。
Providing a weight applying means for applying a weight to the plurality of designated coordinate information;
The shooting control information creating means determines the center of gravity of a plurality of coordinates based on the weight given by the weight giving means, and creates the shooting control information so as to be the center of the angle of view to be shot next. The imaging range control device according to claim 2.
前記遠隔会議の参加時に、前記遠隔会議装置から同じグループに属することを示すグループ情報を受信するグループ情報受信手段と、
前記グループ情報受信手段が前記グループ情報を受信した遠隔会議装置に対してのみ前記選択枠情報を送信する選択枠情報送信手段と
を備えたことを特徴とする請求項1乃至3の何れかに記載の撮影範囲制御装置。
Group information receiving means for receiving group information indicating that the remote conference device belongs to the same group when participating in the remote conference;
4. The selection frame information transmitting unit, wherein the group information receiving unit transmits the selection frame information only to a remote conference device that has received the group information. Shooting range control device.
前記指定座標情報を複数受信した場合に、当該複数の指定座標情報が画角に入らない場合に、前記選択枠情報を操作している遠隔会議装置からの操作情報により前記選択枠情報が操作されて、画角に入れる指定座標情報を選択可能であることを特徴とする請求項1乃至4の何れかに記載の撮影範囲制御装置。   When a plurality of the designated coordinate information is received and the plurality of designated coordinate information does not fall within the angle of view, the selection frame information is operated by operation information from a remote conference device that operates the selection frame information. 5. The photographing range control device according to claim 1, wherein the designated coordinate information to be included in the angle of view can be selected. 前記撮影範囲制御装置は、各遠隔会議装置を接続するサーバから構成されることを特徴とする請求項1乃至5の何れかに記載の撮影範囲制御装置。   The imaging range control device according to claim 1, wherein the imaging range control device includes a server that connects each remote conference device. 前記撮影範囲制御装置は、各遠隔会議装置の何れかで構成されることを特徴とする請求項1乃至5の何れかに記載の撮影範囲制御装置。   6. The photographing range control device according to claim 1, wherein the photographing range control device is configured by any one of the remote conference devices. 遠隔会議に参加する会議参加者に見せる画像を撮影する撮影手段と、前記撮影手段の撮影範囲を示す撮影範囲情報に基づいて前記撮影手段の撮影範囲を切り替える切替手段とを備える遠隔会議装置を複数の地点に設置して、各遠隔会議装置が、自身が撮影した画像を、ネットワークを介して、他の遠隔会議装置に送信するとともに、他の遠隔会議装置から送信されてきた画像を表示することによって実施される遠隔会議において、各遠隔会議装置の前記撮影手段の撮影範囲を制御する撮影範囲制御装置の撮影範囲制御方法であって、
当該撮影範囲制御装置は、
前記撮影手段の撮影可能な全範囲の画像を撮影するように前記撮影手段を制御する撮影制御ステップと、
前記撮影手段が撮影した撮影可能な全範囲の画像を合成して、一枚の静止画像を作成する画像合成ステップと、
操作対象となる遠隔会議装置の前記撮影手段の撮影可能範囲の前記静止画像の中で、前記撮影手段の現在の撮影範囲の画角の現在枠情報を作成する現在枠情報作成ステップと、
前記撮影可能範囲の前記静止画像の中の次に撮影される画角の情報である選択枠情報を作成する選択枠情報作成ステップと、
前記操作対象となる遠隔会議装置自身又は他の遠隔会議装置から前記選択枠情報を操作する操作情報を受信する操作情報受信ステップと、
次に撮影される前記撮影手段の撮影範囲の操作をしている遠隔会議装置以外の他の遠隔会議装置から、前記静止画像の中で次に撮影したい箇所の座標情報である指定座標情報を受信する指定座標情報受信ステップと、
前記操作情報受信ステップで受信した操作情報に基づいて前記選択枠情報作成ステップで選択枠情報を作成する場合に、前記指定座標情報受信ステップで受信した指定座標情報を含む範囲で前記選択枠情報を作成するように制御する選択枠制御ステップと、
前記選択枠制御ステップの制御により作成した前記選択枠情報の示す画角となるように前記撮影手段を制御する撮影制御情報を作成する撮影制御情報作成ステップと、
当該撮影制御情報作成ステップ作成した撮影制御情報を操作対象となっている遠隔会議装置に送信する送信ステップと
実行することを特徴とする撮影範囲制御方法。
A plurality of remote conferencing apparatuses, comprising: photographing means for photographing an image to be shown to a conference participant participating in a remote conference; and switching means for switching the photographing range of the photographing means based on photographing range information indicating the photographing range of the photographing means. Each remote conference device is installed at the point of the image, and the image taken by itself is transmitted to another remote conference device via the network, and the image transmitted from the other remote conference device is displayed. In the remote conference implemented by the shooting range control method of the shooting range control device for controlling the shooting range of the shooting means of each remote conference device,
The imaging range control device
A photographing control step for controlling the photographing means so as to photograph the entire range of images that can be photographed by the photographing means;
An image synthesis step of synthesizing the entire range of images that can be captured by the imaging unit to create a single still image; and
A current frame information creating step for creating current frame information of the angle of view of the current shooting range of the shooting unit in the still image of the shooting range of the shooting unit of the remote conference device to be operated;
A selection frame information creating step for creating selection frame information which is information of an angle of view to be photographed next in the still image in the photographing range;
An operation information receiving step for receiving operation information for operating the selection frame information from the remote conference device itself or another remote conference device to be operated;
Receives designated coordinate information, which is coordinate information of a location to be photographed next in the still image, from a remote conference device other than the remote conference device that is operating the photographing range of the photographing means to be photographed next. A designated coordinate information receiving step,
When creating a selection frame information in the selected frame information creation step on the basis of the operation information received by the operation information receiving step, the selection frame information in a range including the designated coordinates information received by the specified coordinate information receiving step A selection frame control step for controlling to create,
An imaging control information creating step for creating imaging control information for controlling the imaging means so as to have an angle of view indicated by the selection frame information created by the control of the selection frame control step;
Shooting range control method characterized by performing a transmission step of transmitting to the remote conference apparatus which is an imaging control information created in the imaging control information creating step and operation target.
前記撮影範囲制御装置を制御するコンピュータに請求項8に記載の撮影範囲制御方法の各ステップを実行させることを特徴とするコンピュータプログラム。 The computer program which makes the computer which controls the said imaging | photography range control apparatus perform each step of the imaging | photography range control method of Claim 8.
JP2008254972A 2008-09-30 2008-09-30 Imaging range control device, imaging range control method, and computer program Expired - Fee Related JP5120185B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008254972A JP5120185B2 (en) 2008-09-30 2008-09-30 Imaging range control device, imaging range control method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008254972A JP5120185B2 (en) 2008-09-30 2008-09-30 Imaging range control device, imaging range control method, and computer program

Publications (2)

Publication Number Publication Date
JP2010087858A JP2010087858A (en) 2010-04-15
JP5120185B2 true JP5120185B2 (en) 2013-01-16

Family

ID=42251355

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008254972A Expired - Fee Related JP5120185B2 (en) 2008-09-30 2008-09-30 Imaging range control device, imaging range control method, and computer program

Country Status (1)

Country Link
JP (1) JP5120185B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7164831B2 (en) * 2018-03-30 2022-11-02 株式会社リコー Communication management system, communication system, communication method, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003274255A (en) * 2002-03-13 2003-09-26 Mitsubishi Electric Corp Camera controller

Also Published As

Publication number Publication date
JP2010087858A (en) 2010-04-15

Similar Documents

Publication Publication Date Title
US9473741B2 (en) Teleconference system and teleconference terminal
EP3131257B1 (en) Program, information processing apparatus, and information processing system for use in an electronic conference system
JPH09247637A (en) Video audio communication system, video communication system and transmission and reception terminals
JP6241802B1 (en) Video distribution system, user terminal device, and video distribution method
JP2009089324A (en) Video conference system and program, and recoding medium
CN108933809B (en) Communication control method and apparatus, telepresence robot, and recording medium
JP2022180035A (en) Conference system, server, information processing apparatus, and program
JP2022147309A (en) Management system, communication system, processing method and program
US20230308762A1 (en) Display terminal, information processing system, communication system, displaying method, information processing method, communication method, and recording medium
JP5120185B2 (en) Imaging range control device, imaging range control method, and computer program
US20230269482A1 (en) Information processing system, communication system, and image sharing method
JP2013232830A (en) Image processing system, image processing device, image processing method, and image processing program
WO2010067802A1 (en) Conference system
JP5239826B2 (en) Image distribution apparatus, image distribution system, image distribution method, and program
JP2016178355A (en) Communication device, communication system, communication device control method, and program
US20240179274A1 (en) Display terminal, communication system, display method, communication method, and recording medium
TWI840300B (en) Video conferencing system and method thereof
US20230308622A1 (en) Display terminal, displaying method, and recording medium
US20240179267A1 (en) Display terminal, communication system, and display method
EP4294019A1 (en) Display terminal, communication system, display method, and communication method
JP4507665B2 (en) How to register phone location information
JP6943635B2 (en) Analysis support system, analysis support method, and analysis support program
JP2010028299A (en) Conference photographed image processing method, conference device, and the like
JP2024079570A (en) Display terminal, communication system, information processing system, display method, information processing method, communication method, and program
JP6911367B2 (en) Communication terminals, communication systems, image sharing methods, and programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120925

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121008

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151102

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees